Conecte-se conosco

Tecnologia

Perigo real! Jamais compartilhe ESSES dados com chatbots

Chatbots de IA, como ChatGPT e DeepSeek, trazem praticidade, mas levantam questões de segurança e privacidade.

Publicado

em

A popularização dos chatbots de inteligência artificial trouxe praticidade para o dia a dia, mas também levantou preocupações sobre privacidade e segurança digital.

Ferramentas como o ChatGPT e o DeepSeek armazenam e processam informações para melhorar suas respostas, o que pode expor usuários desavisados a riscos.

Muitas vezes, sem perceber, usuários compartilham informações sensíveis, como dados bancários ou pessoais, acreditando estar conversando com um assistente seguro.

No entanto, essas informações podem ser usadas para treinar modelos de IA, que podem armazenar trechos de conversas e até compartilhá-los de forma não intencional.

Por isso, entender o que deve ou não ser informado é essencial para manter sua privacidade protegida.

Dados que nunca devem ser compartilhados com chatbots

chatbots
Chatbots como ChatGPT processam linguagem natural para oferecer respostas instantâneas e otimizar interações digitais. (Foto: Supatman/Getty Images)

Um dos principais erros cometidos pelos usuários é fornecer dados de identificação, como CPF, RG, passaporte ou número da CNH. Embora os chatbots sejam projetados para interações automatizadas, eles não possuem camadas avançadas de segurança para proteger esse tipo de informação.

Uma simples conversa pode expor dados que, em mãos erradas, podem ser usados para fraudes ou roubo de identidade.

Além disso, informações bancárias, como números de cartões de crédito, senhas ou dados de contas, jamais devem ser digitadas em um chatbot. Plataformas de IA não têm criptografia para esse tipo de dado e, mesmo que a conversa seja privada, não há garantias sobre como essas informações serão processadas ou armazenadas.

Outro cuidado importante envolve informações de localização. Endereços residenciais, pontos de referência frequentes e dados de geolocalização podem ser utilizados para rastrear hábitos e rotinas dos usuários.

Esse tipo de informação pode ser cruzado com outros dados disponíveis na internet, tornando-se um risco à segurança pessoal.

Riscos de compartilhar dados corporativos

Empresas também devem estar atentas ao uso de chatbots no ambiente de trabalho. Relatórios internos, estratégias de mercado e códigos de programação são informações altamente sigilosas e não devem ser inseridas nessas plataformas.

Modelos de IA são treinados com base no conteúdo fornecido e, caso os dados sejam armazenados, podem ser utilizados para alimentar futuras respostas – tornando-os acessíveis de maneiras inesperadas.

Mesmo em versões pagas, que oferecem maior controle sobre a privacidade, é fundamental que profissionais da área de tecnologia e segurança digital adotem políticas internas para evitar o uso indevido dessas ferramentas. Em setores como o jurídico, saúde e financeiro, a proteção de dados sigilosos deve ser prioridade.

Por isso, ao utilizar um chatbot para tarefas do dia a dia, é recomendável restringir as interações a perguntas gerais e evitar compartilhar qualquer informação que não gostaria de ver exposta em um ambiente público.

Como se proteger ao usar chatbots

Para garantir mais segurança, a melhor estratégia é manter um nível de cautela constante. Sempre leia os termos de uso e políticas de privacidade de qualquer ferramenta de IA antes de utilizá-la. Plataformas sérias geralmente explicam como os dados são processados e oferecem opções para restringir o armazenamento de conversas.

Além disso, sempre que possível, evite utilizar assistentes virtuais em dispositivos conectados a redes públicas. Ambientes de Wi-Fi compartilhado podem aumentar os riscos de interceptação de dados, tornando ainda mais vulneráveis quaisquer informações trocadas com a IA.

Por fim, considere ativar configurações de segurança adicionais, como a autenticação de dois fatores em serviços importantes e a revisão frequente das permissões de aplicativos e plataformas. A inteligência artificial pode ser uma aliada poderosa, desde que seja utilizada com consciência e precaução.

Estudante de jornalismo, no segundo semestre. Trabalhei como redator na Velvet durante três anos.

Publicidade

MAIS ACESSADAS