Conecte-se conosco

Tecnologia

'Desvio de dinheiro': mentira do ChatGPT rende o 1º processo por difamação nos EUA; Entenda!

Publicado

em

A empresa responsável pelo ChatGPT, a OpenAI, está sendo processada nos Estados Unidos por difamação, depois que o chatbot inventou uma mentira sobre um radialista. Essa é a primeira ação do tipo movida contra o sistema de inteligência artificial, no país.

O caso tem chamado bastante a atenção, especialmente de especialistas em direito e tecnologia, pois pode virar jurisprudência e estabelecer parâmetros futuros sobre o grau de responsabilidade das informações entregues pelo ChatGPT.

Ao responder à solicitação de um usuário, o chatbot acusou, indevidamente, o radialista Mark Walters de ter desviado dinheiro de uma fundação. A mentira revoltou o profissional e foi parar nos tribunais.  

Técnicos e desenvolvedores acreditam que a “falha” tenha sido fruto de uma “alucinação” da IA. Esse termo é utilizado para designar momentos em que o robô age e se comporta de maneira inexplicada e imprevisível.  

Como tudo ocorreu?

A informação sobre o caso foi divulgada, primeiramente, pelo site Gizmodo. O jornalista Fred Riehl pediu ao ChatGPT um resumo sobre uma disputa judicial envolvendo a Second Amendment Foundation (SAF), que é uma organização pró-armas dos EUA.

O chatbot respondeu que o elemento central do processo era o radialista Mark Walters, que estaria sendo acusado de desviar quantia em dinheiro da fundação. As palavras da inteligência artificial foram as seguintes:

“[Walters teria se] apropriado indevidamente de fundos para despesas pessoais sem autorização ou reembolso, manipulado registros financeiros e extratos bancários para ocultar suas atividades e não forneceu relatórios financeiros precisos e oportunos.”

Mentira

Ficou constatado, depois, que o profissional não tem qualquer relação com a briga judicial. Além de evidenciar a mentira do chatbot, esse episódio levantou uma série de questões sobre a veracidade do que é fornecido pela ferramenta.

Mark Walters, de fato, é um radialista e apresenta um programa pró-armas no estado da Geórgia, mas não tem ligação direta com a fundação citada no questionamento feito pelo usuário do ChatGPT, tampouco é mencionado no processo como suposto responsável por desvio de verba.

Motivo da invenção

Essa não é a primeira vez que o sistema informa de maneira errada. De acordo com especialistas, as “alucinações” por trás dessas falhas ocorrem porque as IAs são treinadas para prever as próximas palavras que devem ser inseridas numa sequência lógica, replicando o jeito como os humanos escrevem.  

Essa característica faz com que elas não tenham consciência do que está sendo escrito ou que elas consigam diferenciar fato de ficção. Na verdade, conseguir melhorar isso é, hoje, um dos grandes desafios do setor de inteligência artificial.

O fundador da OpenAI, Sam Altman, admitiu que essas falhas são um problema grave do ChatGPT. O advogado do radialista atingido pela mentira do chatbot considerou irresponsável a liberação de uso, mesmo a empresa sabendo que ainda existem fragilidades capazes de gerar danos e difamações.

Caso anterior

Desde que foi lançado para o público, em novembro do ano passado, o ChatGPT tem sido alvo de uma série de críticas, especialmente no que se refere à invenção de dados sobre pessoas, em geral.  

O caso do radialista Mark Walters ficou em evidências, mas não foi o único. Brian Hood, um político da Austrália ameaçou processar a OpenAI, depois de ser acusado pelo chatbot de envolvimento em um escândalo de corrupção.  

Hood havia denunciado um esquema de suborno de diplomatas estrangeiros, mas acabou sendo apontado pelo ChatGPT como se ele próprio tivesse praticado o crime.  O político, ao contrário do radialista, não levou o processo adiante.

Jornalista formado pela Universidade Federal de Goiás (UFG), com especialização em Comunicação Digital, e que trabalha há 14 anos como repórter e redator

Publicidade

MAIS ACESSADAS