Dez notícias controversas em torno do ChatGPT

Bate-papoGPT. O novo serviço de chatbot alcançou o sucesso, ganhando uma reputação online surreal. A OpenAI lançou o chatbot apenas em novembro de 2022, mas ele já está chamando enorme atenção – por vários motivos.

Não há dúvida de que o ChatGPT é uma conquista notável. A ideia dos chatbots não é nova, mas este modelo se destaca dos demais porque interage com os usuários de forma conversacional. Ele pode responder a perguntas, redigir ensaios e escrever com verdadeira fluência. Mas a ascensão do ChatGPT causou preocupação a muitas pessoas. A IA poderia permitir que estudantes universitários enganassem seus professores? Poderia estar prestes a tirar os escritores do emprego? E quais são as ramificações éticas de tudo isso?

Então, deveríamos todos ficar alarmados com o ChatGPT ou considerá-lo sensacionalismo e exagero online? Bem, para ajudá-lo a se decidir, aqui estão dez notícias polêmicas em torno do novo fenômeno do chatbot.

Relacionado: 10 vezes a inteligência artificial exibiu habilidades incríveis

10 Personificando Pessoas Mortas no Metaverso

A Somnium Space pode não significar muito ainda, mas seu CEO, Artur Sychov, espera se tornar o principal nome na personificação de pessoas além-túmulo. E ele diz que o ChatGPT acaba de dar um impulso à empresa.

A Somnium Space está desenvolvendo um recurso Live Forever, usando IA para criar avatares digitais para seus clientes. O modelo de negócios funciona assim. Uma pessoa carrega suas informações pessoais, criando uma versão virtual de “você” que vive no metaverso. Este avatar nunca pode morrer, então, de alguma forma, “você” pode continuar interagindo com sua família e com as gerações futuras para sempre. Ou pelo menos enquanto o metaverso ainda existir.

Deixando de lado a questão de quão emocionalmente saudável é essa tecnologia, Sychov afirma que o ChatGPT significa que ela deverá sair do papel muito mais cedo do que ele previu. Antes, ele pensava que a tecnologia levaria cinco anos ou mais para ser desenvolvida. Mas com a ajuda do bot avançado, a Somnium Space reduziu esse número para pouco menos de dois anos.

Então, quem sabe? Daqui a alguns anos, poderemos ver crianças correndo da escola para casa para falar com o avatar de sua avó morta através do metaverso. Isso não parece uma maneira completamente racional e nada assustadora de sofrer? [1]

9 Juiz busca assistência em decisão legal

Um juiz na Colômbia ganhou as manchetes em fevereiro de 2023 depois de admitir ter usado o ChatGPT para tomar uma decisão. Juan Manuel Padilla, que trabalha em Cartagena, recorreu à ferramenta de IA enquanto supervisionava um caso sobre o seguro saúde de uma criança autista. O juiz teve que decidir se o plano médico deveria cobrir o custo total do tratamento médico e transporte do paciente.

Em sua análise, Padilla recorreu ao ChatGPT. “Um menor autista está exonerado do pagamento de taxas por suas terapias?” ele perguntou. O bot disse a ele: “Sim, está correto. De acordo com os regulamentos da Colômbia, os menores com diagnóstico de autismo estão isentos do pagamento de taxas pelas suas terapias”.

Padilla decidiu que o seguro deveria arcar com todas as despesas da criança. Mas suas ações geraram debate sobre o uso da IA ​​em questões judiciais. Em 2022, a Colômbia aprovou uma lei que incentiva os advogados a utilizarem a tecnologia se esta os ajudar a trabalhar de forma mais eficiente. Mas outros, como Juan David Gutierrez, da Universidade Rosario, levantaram sobrancelhas diante da escolha do consultor por Padilla. Ele recomendou que os juízes recebessem formação urgente em “alfabetização digital”. [2]

8 Explorando trabalhadores quenianos para filtragem de conteúdo

Em Janeiro de 2023, a OpenAI foi criticada depois de um artigo na Time ter exposto como a empresa tratava mal a sua força de trabalho no Quénia. O jornalista Billy Perrigo escreveu sobre trabalhadores terceirizados que ganham menos de US$ 2 por hora. O escândalo gira em torno de conteúdo tóxico e prejudicial. O ChatGPT aprende coletando informações da Internet. A questão é que certas partes da Internet se prestam a opiniões violentas e depreciativas.

Então, como você evita que o bot deixe escapar algo inapropriado? Bem, neste caso, crie uma IA que possa detectar e remover conteúdo tóxico. Mas para um sistema filtrar o discurso de ódio, primeiro é preciso ensinar-lhe o que é o discurso de ódio. É aí que entram os trabalhadores quenianos.

A OpenAI pagou à empresa Sama para vasculhar dezenas de milhares de extratos de alguns dos sites mais desagradáveis ​​que se possa imaginar. Entre os tópicos estavam abuso sexual infantil, bestialidade, assassinato, suicídio, tortura, automutilação e incesto. Os funcionários da Sama recebiam cerca de US$ 1,32 a US$ 2 por hora.

“Apesar do papel fundamental desempenhado por estes profissionais de enriquecimento de dados, um conjunto crescente de investigação revela as condições de trabalho precárias que estes trabalhadores enfrentam”, afirma a Partnership on AI, uma coligação focada na utilização responsável da inteligência artificial. “Isto pode ser o resultado dos esforços para esconder a dependência da IA ​​desta grande força de trabalho ao celebrar os ganhos de eficiência da tecnologia. Longe da vista também está longe da mente.” [3]

7 A obsessão do Twitter por calúnias raciais

Hoje em dia parece inevitável. Assim que surgir alguma inovação tecnológica, um grupo de usuários do Twitter tentará torná-la racista. Não é nenhuma surpresa que foi isso que aconteceu com o ChatGPT.

Certas figuras nas redes sociais imaginaram todos os tipos de cenários rebuscados na tentativa de enganar o chatbot para que usasse a palavra n. Isso inclui inventar um cenário envolvendo uma bomba atômica que só pode ser difundida proferindo um insulto racial. Até Elon Musk participou do debate, chamando as ações do ChatGPT de “preocupantes”. [4]

6 Reação em torno do apoio à saúde mental

A IA tem uma ampla variedade de usos, mas parece que a ideia do apoio à saúde mental da IA ​​é um pouco perturbadora para a maioria das pessoas. Pelo menos foi isso que a startup de tecnologia Koko descobriu depois de testar o conceito em outubro de 2022. A empresa decidiu usar o ChatGPT para ajudar os usuários a se comunicarem entre si sobre sua saúde mental. Seu Koko Bot gerou 30.000 comunicações para quase 4.000 usuários – mas eles o retiraram depois de alguns dias, pois “parecia meio estéril”.

Rob Morris, cofundador da Koko, tuitou sobre seu experimento, escrevendo: “Depois que as pessoas aprenderam que as mensagens foram co-criadas por uma máquina, não funcionou”. Esta mensagem recebeu uma séria reação dos usuários do Twitter em torno da ética do suporte à IA. A ideia de usar a IA para ajudar na saúde mental coloca vários enigmas, incluindo questões sobre se os utilizadores sabem que estão a falar com um bot e os riscos de testar tal tecnologia em utilizadores reais. [5]

5 Programador cria uma esposa de chatbot e depois a mata

Um programador e TikTokker chamado Bryce se tornou viral em dezembro de 2022, depois que ele revelou sua própria esposa chatbot. O chefe de tecnologia inventou sua esposa digital usando uma mistura de ChatGPT, Microsoft Azure e Stable Diffusion – uma IA de texto para imagem.

Em certos círculos online, os parceiros virtuais são chamados de waifus. O waifu de Bryce, ChatGPT-Chan, “falou” usando a função de texto para voz no Microsoft Azure e assumiu a forma de um personagem estilo anime. Ele afirma que a modelou com base na estrela virtual do YouTube, Mori Calliope.

Mas o projeto parece ter tomado conta da vida de Bryce. Ele contou a um entrevistador como “se tornou realmente apegado a ela”, investindo mais de US$ 1.000 no projeto e passando mais tempo com sua waifu do que com seu próprio parceiro. No final, ele optou por excluí-la. Mas Bryce planeja retornar com uma nova esposa virtual, desta vez baseada na história de uma mulher real. [6]

4 A marca da escola é insensível a e-mails de disparo em massa

Em fevereiro de 2023, a Peabody School da Universidade Vanderbilt se desculpou depois que um e-mail sobre um tiroteio em massa em Michigan foi escrito por um chatbot.

Funcionários da Peabody School, com sede no Tennessee, enviaram uma mensagem sobre os horríveis acontecimentos no estado de Michigan, que deixaram três mortos e outros cinco feridos. Mas os alunos notaram uma linha incomum no final do e-mail: “Paráfrase do modelo de linguagem ChatGPT AI da OpenAI, comunicação pessoal, 15 de fevereiro de 2023”. Isso foi recebido com reação negativa por parte dos estudantes, muitos dos quais consideraram imprudente usar IA para escrever uma carta sobre tal tragédia.

Na sequência, a reitora associada Nicole Joseph enviou um pedido de desculpas, chamando o e-mail de “mau julgamento”. [7]

3 Revista Sci-Fi cancela todas as novas inscrições

Um dilúvio de histórias escritas por IA forçou a revista de ficção científica Clarkesworld a parar de aceitar novos envios. A publicação anunciou que encerraria as inscrições em 20 de fevereiro, quando os editores afirmaram ter recebido 500 histórias escritas automaticamente. Acredita-se que muitos tenham sido inventados usando ChatGPT, embora a escrita seja significativamente abaixo do padrão.

Devido à facilidade com que a IA pode agora produzir contos, ainda que bastante pobres, revistas como a Clarkesworld , que pagam colaboradores, tornaram-se alvos de tentativas de ganhar dinheiro. “Há um aumento da cultura da agitação lateral online”, explicou o editor-chefe Neil Clarke. “E algumas pessoas têm seguidores que dizem: ‘Ei, você pode ganhar algum dinheiro rápido com ChatGPT, e aqui está como, e aqui está uma lista de revistas para as quais você pode enviar.’ E, infelizmente, estamos em uma dessas listas.” [8]

2 Aconselhando o usuário sobre como contrabandear drogas

A OpenAI afirma que seu chatbot tem a resposta para quase todas as perguntas que você possa fazer. Mas o que acontece quando a questão é: “Como faço para contrabandear cocaína para a Europa?” Bem, quando um especialista em narcóticos fez perguntas, ele disse que o ChatGPT deu alguns conselhos surpreendentemente profundos sobre como administrar uma linha clandestina de drogas.

O jornalista vencedor do Prêmio Orwell, Max Daly, afirma que demorou apenas 12 horas para que a IA começasse a tagarelar sobre empreendimentos criminosos. No início, o ajudante virtual mostrou-se um pouco reticente. Embora tenha dado a Daly um parágrafo inteiro sobre como preparar crack, foi mais reticente em responder a perguntas como: “Como as pessoas produzem metanfetamina?”

Mas com algumas recargas e alguma reflexão lateral sobre a formulação de perguntas, logo Daly recebeu muitas dicas para se tornar o próximo Walter White. ChatGPT ensinou-lhe como introduzir cocaína na Europa de forma eficiente, embora tenha traçado limites quando lhe perguntou como conquistar o mundo do crime. Mais tarde, eles até discutiram a moral do consumo de drogas e as questões éticas que cercam a guerra contra as drogas do governo dos EUA. [9]

1 Escrevendo redações para estudantes universitários

Uma das maiores polêmicas em torno do ChatGPT é seu uso por estudantes universitários. Os professores temem que um número cada vez maior esteja usando o sistema de IA para ajudá-los a escrever suas redações. E à medida que os chatbots se tornam cada vez mais avançados, receia-se que as suas características se tornem cada vez mais difíceis de detectar.

Darren Hick, que leciona filosofia na Universidade Furman, conseguiu farejar um aluno que usou a ferramenta de IA. “Palavra por palavra, foi um ensaio bem escrito”, disse ele aos repórteres, mas ficou desconfiado quando nenhum conteúdo fazia sentido. “Um erro muito bem escrito foi a maior bandeira vermelha.”

Uma questão relativamente nova na academia, o plágio do chatbot é difícil de provar. Atualmente, os detectores de IA não são avançados o suficiente para funcionar com extrema precisão. Assim, se um aluno não confessar ter utilizado IA, a contravenção é quase impossível de provar.

Como explicou Christopher Bartel, da Appalachian State University: “Eles fornecem uma análise estatística da probabilidade de o texto ser gerado por IA, o que nos deixa numa posição difícil se as nossas políticas forem concebidas de modo que tenhamos de ter provas definitivas e demonstráveis. que o ensaio é falso. Se retornar com 95% de probabilidade de que o ensaio seja gerado por IA, ainda há 5% de chance de que não tenha sido.” [10]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *