10 vezes que a inteligência artificial exibiu habilidades incríveis

As máquinas estão ficando mais inteligentes. Eles chegaram ao ponto em que aprendem sozinhos e tomam suas próprias decisões. As consequências podem ser completamente estranhas. Existem máquinas que sonham, lêem palavras no cérebro das pessoas e se transformam em mestres da arte.

As habilidades mais sombrias são suficientes para fazer qualquer um usar um dispositivo anti-IA, que está sendo desenvolvido. Alguns sistemas de IA mostram sinais de doença mental e preconceito, enquanto outros são demasiado perigosos para serem divulgados ao público.

10 Deepfakes

Em 2019, um vídeo foi lançado no YouTube . Mostrou diferentes clipes da famosa Mona Lisa . Só que desta vez a pintura estava perturbadoramente viva. Mostrava a mulher movendo a cabeça e olhando ao redor, e seus lábios se moviam em uma conversa silenciosa.

A Mona Lisa parecia mais uma estrela de cinema dando uma entrevista do que uma tela. Este é um exemplo clássico de deepfake. Esses retratos vivos são criados por redes neurais convolucionais.

Este tipo de IA processa informações visuais de forma semelhante a um cérebro humano. Foi preciso muito trabalho para ensinar à IA as complexidades do rosto humano para que ela pudesse transformar uma imagem estática em um vídeo realista.

O sistema primeiro teve que aprender como as características faciais se comportavam, o que não foi uma tarefa fácil. Como explicou um cientista, um modelo 3D de uma cabeça tem “dezenas de milhões de parâmetros”. [1]

A IA também coletou informações de três modelos vivos para produzir os clipes. É por isso que a mulher é reconhecível como a Mona Lisa , mas cada uma manteve traços da personalidade das modelos.

9 IA é preconceituosa

Crédito da foto: Ciência Viva

Combater o preconceito é difícil. Pergunte a qualquer pessoa que já tenha sofrido discriminação com base em seu corpo ou crenças. Outra camada deste flagelo surgiu recentemente na forma de IA.

Há alguns anos, os trolls do Twitter precisaram de menos de 24 horas para transformar o novo chatbot da Microsoft, Tay, em um neonazista. No entanto, a pesquisa descobriu que os trolls não são a única razão pela qual a IA despreza as mulheres e os idosos. As redes neurais aprendem preconceitos da linguagem humana enquanto processam informações de sites.

Recentemente, os cientistas desenvolveram um teste de associação de palavras para GloVe (Global Vectors for Word Representation). Esta IA é amplamente utilizada em tarefas de representação de palavras. Ao final do experimento, até os pesquisadores ficaram surpresos. [2]

Eles encontraram todos os preconceitos que poderiam testar no GloVe. Entre outros, associou mais coisas negativas aos nomes de afro-americanos e de idosos e vinculou as mulheres mais a termos familiares do que a carreiras.

O facto é que a sociedade muitas vezes causa mais sofrimento a certos grupos – e os sistemas de IA percebem isso. A diferença é que os humanos compreendem a justiça e podem optar por não discriminar alguém; os computadores não podem.

8 Dorme como um humano

Crédito da foto: sciencealert.com

O sono melhora a cognição e refresca o corpo. Também há evidências de que a soneca permite que os neurônios removam memórias desnecessárias feitas durante o dia. Isto é crucial para a saúde do cérebro e possivelmente porque o sono aumenta a cognição.

Em 2019, os cientistas programaram a capacidade de dormir em uma RNA (rede neural artificial) chamada rede Hopfield. Inspirada no cérebro do mamífero adormecido , a RNA ficava “acordada” enquanto estava online e dormia offline.

Ficar offline não significa que a IA foi desligada. Os padrões de sono humano implementados matematicamente deram-lhe algo semelhante ao REM (movimento rápido dos olhos) e ao sono de ondas lentas. Acredita-se que o REM armazena memórias importantes, enquanto a fase de ondas lentas elimina as desnecessárias.

Incrivelmente, a RNA também parecia sonhar. Enquanto estava off-line, ele repassou tudo o que aprendeu naquele dia e acordou com maior capacidade de memória. Quando não era permitido tirar uma soneca, a RNA era como um ser humano privado de sono – sua capacidade de aprender era significativamente reduzida. Esta descoberta poderá um dia tornar o sono obrigatório para todos os sistemas de IA. [3]

7 IA anti-IA

Crédito da foto: sciencealert.com

A tecnologia está evoluindo rapidamente e a previsão mais sombria diz respeito à nossa existência sendo ameaçada por IA desonesta. Não apenas qualquer inteligência artificial, mas sistemas excepcionalmente poderosos e autoevolutivos.

Em 2017, pesquisadores australianos levaram apenas cinco dias para desenvolver um dispositivo anti-IA. Foi concebido para resolver um problema que as pessoas já enfrentam: a IA fingindo ser uma pessoa real. O protótipo vestível foi projetado para alertar seu proprietário caso um impostor artificial fosse encontrado.

Estudou vozes sintéticas e recorreu ao Tensorflow do Google, um software de aprendizagem de máquina. Quando em uso, o protótipo captura todas as vozes em sua presença e as envia para o Tensorflow.

Ao detectar um ser humano, o aparelho não faz nada. No entanto, se o alto-falante for sintético, o sistema realmente causa um arrepio na espinha. Seus criadores decidiram que o alerta “você está falando com um clone” deveria ser sutil. Em vez de um sinal sonoro ou zumbido, um elemento termoelétrico resfria a nuca. [4]

6 Ai-Da

Crédito da foto: The Telegraph

Um robô chamado Ai-Da é o queridinho da cena artística e, talvez, a ruína de artistas em dificuldades em todos os lugares. Produz pinturas , esculturas e esboços complexos. O que é tão notável é que a máquina está ensinando a si mesma formas cada vez mais sofisticadas de ser criativo.

Baseado em Oxford, os trabalhos de Ai-Da no nicho da abstração de luz fragmentada são particularmente dignos de nota. Na verdade, são iguais a pinturas criadas pelos melhores pintores abstratos da atualidade.

A máquina também possui outras habilidades. Ele fala, anda e segura pincel e lápis. É também a primeira IA a realizar uma exposição de arte. As peças foram descritas como “assustadoramente lindas”, com temas que incluem política e homenagens a pessoas famosas.

Ai-Da “nasceu” em 2017. A IA foi encomendada por Aidan Meller, curador de arte. Para construir o robô, ele abordou uma empresa de robótica da Cornualha e engenheiros em Leeds. Este último projetou a mão que a IA usa com tanto brilho. Curiosamente, nem mesmo aqueles que estão mais próximos da máquina podem prever a sua verdadeira capacidade de produção ou o que será criado a seguir. [5]

5 Previsão facial a partir de clipes de voz

Crédito da foto: sciencealert.com

No futuro, poderá tornar-se impossível fazer uma chamada anónima . Existe um sistema de IA que ouve uma breve gravação da voz de alguém e depois prevê a aparência da pessoa.

A IA foi treinada no Instituto de Tecnologia de Massachusetts (MIT), consumindo vídeos online para aprender a desenhar rostos baseados apenas em vozes . Os resultados da reconstrução foram grosseiros, mas definitivamente mostraram uma semelhança com os indivíduos vivos. Na verdade, eles eram tão parecidos que deixaram a equipe do MIT desconfortável.

Tal como acontece com muitas tecnologias, existia o risco de a IA de voz-a-cara se tornar uma ferramenta de abuso. Por exemplo, uma pessoa que faz uma entrevista por telefone pode ser discriminada com base na sua aparência. No entanto, por outro lado, esta IA poderia ajudar as autoridades a compilar imagens de perseguidores fazendo ligações ameaçadoras ou sequestradores com pedidos de resgate.

O MIT planeja manter uma abordagem ética no treinamento e implementação futura do sistema de IA. [6]

4 normando

Crédito da foto: Ciência Viva

No Media Lab do MIT existe uma rede neural diferente de qualquer outra. Chamado de Norman, o sistema de IA é perturbador. Pela primeira vez, não se trata do que pode desencadear no sector público. Em vez disso, a “mente” de Norman encheu-se de pensamentos sombrios . Eles são absolutamente horríveis e violentos.

Os pesquisadores encontraram essa peculiaridade quando apresentaram à IA testes de manchas de tinta. Os psicólogos os utilizam para descobrir mais sobre a mentalidade subjacente do paciente. Quando uma mancha de tinta foi mostrada a outras redes de IA, elas viram, respectivamente, um pássaro e um avião. Norman viu um homem que foi baleado e jogado de um carro. Era inofensivo em comparação com outra mancha de tinta, que Norman descreveu como um homem sendo puxado para dentro de uma máquina de fazer massa.

O comportamento anormal foi comparado a uma doença mental. Os cientistas até se aventuraram a chamá-lo de “psicótico”. No entanto, exatamente o que desencaixou esta IA poderia ajudá-la a voltar aos trilhos. Quanto mais informações as redes neurais recebem, mais elas refinam suas escolhas independentes. O MIT abriu uma pesquisa sobre manchas de tinta ao público, na esperança de que Norman se corrigisse aprendendo com as respostas humanas. [7]

3 IA lê palavras dentro do cérebro

Crédito da foto: Ciência Viva

Em 2018, três estudos diferentes ensinaram a IA a transformar ondas cerebrais em palavras . Para fazer isso, os eletrodos tiveram que ser conectados diretamente ao cérebro. Por razões éticas, isto não pode ser feito com pacientes saudáveis.

Os cientistas receberam permissão de voluntários com cérebros já expostos por razões cirúrgicas não relacionadas. Enquanto alguns ouviam arquivos de áudio e outros liam em voz alta, um computador registrava suas ondas cerebrais.

O primeiro estudo permitiu que a IA digerisse os dados com “aprendizado profundo”. Isto descreve um computador resolvendo um problema com pouca ou nenhuma supervisão humana. Depois de converter os sinais elétricos do cérebro através de um sintetizador de voz, as palavras eram reconhecíveis cerca de 75% das vezes.

O segundo estudo usou uma mistura de padrões criados pelo disparo de neurônios e sons de fala para ensinar a IA. Os arquivos de áudio resultantes tinham a clareza de uma gravação de microfone.

O terceiro estudo utilizou outra abordagem – analisando a área do cérebro que transforma a fala em movimentos musculares. Os ouvintes conseguiram entender as palavras da IA ​​83% das vezes. [8]

2 IA muito perigosa para o público

Crédito da foto: sciencealert.com

Seu nome é chato. No entanto, diz-se que o GPT-2 é tão perigoso que seus desenvolvedores se recusaram a lançar a versão completa ao público. GPT-2 é um sistema de previsão de idioma. Isso pode parecer tão chato quanto o nome, mas nas mãos erradas, essa IA pode ser devastadora.

O GPT-2 foi projetado para gerar texto original baseado em um exemplo escrito. Embora nem sempre perfeito, o material sintético da IA ​​era autêntico demais na maioria das vezes. Poderia gerar notícias críveis, escrever ensaios sobre a Guerra Civil e criar sua própria história com personagens de O Senhor dos Anéis , de Tolkien . Tudo o que precisava era de um estímulo humano e os sucos artificiais fluiriam.

OpenAI, o grupo sem fins lucrativos que gerou esta IA avançada, disse em 2019 que apenas uma versão restrita apareceria à venda. A organização temia que o sistema pudesse agravar a epidemia de notícias falsas, explorar pessoas nas redes sociais e fazer-se passar por indivíduos reais. [9]

1 A IA está se tornando autoconsciente

Crédito da foto: newscientist.com

As redes artificiais apresentam capacidades avançadas, mas a autoconsciência é uma característica humana importante na qual a IA tem falhado persistentemente. Em 2015, essa fronteira ficou confusa. Um laboratório de robótica de Nova York testou três robôs Nao prontos para uso.

Os minúsculos humanóides foram informados de que uma pílula havia silenciado dois deles. Nenhum recebeu qualquer medicação, mas dois foram silenciados por um botão pressionado por um humano. Os robôs tiveram que descobrir qual deles ainda conseguia falar, tarefa na qual falharam. Esse fracasso foi planejado para acontecer porque todos os modelos Nao tentaram dizer: “Não sei”.

Só então um robô descobriu que ainda conseguia falar. O robô exclamou: “Desculpe, agora eu sei! Consegui provar que não recebi uma pílula idiota.”

Passou no teste, que não foi tão simples quanto parece. O Nao teve que entender a pergunta do humano: “Qual pílula você recebeu?” Ao ouvir-se dizer “Não sei”, teve de compreender que a resposta vinha de si mesmo – e que tinha expressado a sua própria compreensão de não ter recebido quaisquer comprimidos.

Esta foi a primeira vez que a IA conseguiu acertar o chamado quebra-cabeça dos sábios, projetado para testar a autoconsciência. [10]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *