Conecte-se conosco

Tecnologia

Compartilhar ou não compartilhar? Riscos de questões de saúde com o ChatGPT

Aumento dos usuários de inteligência artificial leva ao compartilhamento de informações variadas. Fique atento aos riscos de privacidade

Publicado

em

Com o avanço da inteligência artificial, especialmente com o surgimento de novos modelos de chatbots, como o famoso ChatGPT, é preciso alertar sobre como utilizar as facilidades oferecidas por essas ferramentas.

Muitas pessoas estão recorrendo a elas para fazer pesquisas variadas na internet, inclusive revelando e especulando sobre problemas de saúde, o que não é indicado por especialistas na área.

Chatbots respondem às perguntas e comandos feitos pelos usuários buscando informações coletadas em diversas fontes da web. Garantir a confiabilidade do que eles informam, no entanto, não é tão simples assim.

Será que são confiáveis mesmo? Cuidado!

Especialistas alertam que respostas dadas pelo ChatGPT podem não ser confiáveis, principalmente quando elas se tratam de questões sensíveis, como a saúde. Ter cautela é o ideal.

Além disso, é bom não informar muitos dados pessoais a uma ferramenta como essa, porque os bots estão sujeitos aos mesmos erros de privacidade cometidos por outras tecnologias populares.

Vale destacar, ainda, que eles são influenciados, também, por intervenções de publicidade e marketing, o que pode enviesar e afetar a qualidade das informações fornecidas ao usuário.

Veja-os com suspeita!

Diretor-executivo do grupo de direitos digitais Center for Digital Democracy, Jeffrey Chester dá um conselho básico a quem recorre, com frequência, aos bots da inteligência artificial: “veja-os com suspeita”.

Segundo ele, ter consciência dos riscos envolvidos ao compartilhar informações pessoais com essas ferramentas é essencial, lembrando sempre que elas são influenciáveis e envolvem riscos de insegurança cibernética.

Veja abaixo algumas dúvidas frequentes sobre a confiança de uso da inteligência artificial:

Os bots de IA salvam as conversas?

Sim, ferramentas como ChatGPT, Bing e Bard salvam tudo digitado pelo usuário. O Google Bard possui uma configuração para não salvar as consultas, mas associá-las à conta do Google.

A OpenAI, responsável pelo ChatGPT, permite que o usuário limite por quanto tempo os históricos de bate-papo são salvos e divulgou, recentemente, que está trabalhando na criação de um recurso de privacidade.

A ferramenta funcionará como se fosse um “modo incógnito”, que não salva ou utiliza o conteúdo das conversas para treinar a inteligência artificial.

O que as empresas fazem com os dados coletados?

  • As empresas usam as perguntas e respostas para treinar seus modelos de IA;
  • O Google e a Microsoft deixam espaço em suas políticas de privacidade para usar os registros de bate-papo para publicidade;
  • A OpenAI afirma que apenas salva as pesquisas para treinar e melhorar seus modelos, não para criar perfis de usuários ou publicidade.

As conversas com os chatbots são vistas por humanos?

Em alguns casos, revisores humanos auditam as respostas dadas pelo chatbot e podem ver as perguntas feitas pelos usuários, ou seja, nem só de robô vive uma IA.

Por quanto tempo as conversas são armazenadas?

A OpenAI mantém os dados coletados por tempo indeterminado, ou por “apenas o tempo necessário para fornecer o serviço a você ou para outros fins legítimos”.

Já o Google e a Microsoft podem armazenar os dados até que o usuário peça para que eles sejam excluídos. Muitos, no entanto, esquecem ou nem sabem que precisa fazer isso.

As informações de saúde fornecidas pelos bots são confiáveis?

Grandes modelos de linguagem, como o ChatGPT, são capazes de evitar informações duvidosas numa escala maior do que mecanismos de pesquisa regulares, mas eles seguem suscetíveis a cometer falhas. Confiar neles não é aconselhável, ainda mais sobre questões de saúde.

Jornalista formado pela Universidade Federal de Goiás (UFG), com especialização em Comunicação Digital, e que trabalha há 14 anos como repórter e redator

Publicidade
Clique para comentar

Deixe uma resposta

O seu endereço de e-mail não será publicado.

MAIS ACESSADAS