Tecnologia
Espionagem do ChatGPT? Samsung proíbe uso de IA entre funcionários
Receio de que informações confidenciais sejam compartilhadas com o chatbot motivou a decisão da empresa. Colaboradores receberam memorando
A Samsung decidiu proibir o uso de ferramentas de inteligência artificial generativas, entre elas, o ChatGPT, nas redes internas e dispositivos da empresa.
A decisão foi tomada, basicamente, por medo de que o upload de informações confidenciais para essas plataformas signifique algum risco para a segurança corporativa.
A empresa sul-coreana comunicou a decisão por meio de um memorando. A restrição, de acordo com o documento, é temporária até que seja criado um ambiente seguro para trabalhar com ferramentas desse tipo.
Samsung vê risco no ChatGPT
Para a Samsung, o maior fator de risco é o ChatGPT, chatbot desenvolvido pela OpenAI que tem gerado bastante discussão sobre o avanço da inteligência artificial, desde que foi lançado oficialmente no final de 2022.
A ferramenta se popularizou rapidamente e, hoje, é utilizada não só para entretenimento ou descobertas do dia a dia, mas também para execução de trabalhos sérios.
Entre as funcionalidades possíveis, constam questões como resumo de relatórios, elaboração de textos corporativos e respostas a e-mails, ou seja, todas elas demandam inserção de informações internas que podem ser confidenciais.
A chance de que funcionários recorram ao ChatGPT para executar esse tipo de tarefa significa para a Samsung um risco claro à privacidade e possível acesso do conteúdo por parte da OpenAI. Mas será que é assim mesmo?
Na prática
Conforme as regras do chatbot, quando uma empresa é API do ChatGPT, ou seja, interface para criar softwares ou aplicativos que se comunicam com plataformas, os diálogos estabelecidos não ficam visíveis para a equipe da OpenAI, tampouco utilizados para treinar a ferramenta.
Essa mesma regra, no entanto, não vale para quando ocorre a aplicação de textos na interface geral do chatbot disponível na web, e utilizando as configurações padrão.
No FAQ da empresa, é expresso que algumas conversas que usuários mantêm com o ChatGPT são analisadas para melhorar os sistemas e garantir o cumprimento das políticas e requisitos de segurança.
O conselho dado pela própria OpenAI é que não se deve compartilhar informações confidenciais durante os diálogos, observando sempre que qualquer conversa pode ser utilizada para treinar versões futuras do ChatGPT.
A empresa lançou, recentemente, uma configuração similar ao “modo anônimo” de um navegador. Ela não salva históricos de bate-papo e impede que o conteúdo seja utilizado para treinamento. É bom observar esses detalhes.
Samsung preocupada
Diante de todas essas possíveis vulnerabilidades, a Samsung se diz preocupada com o uso despretensioso, entre funcionários, de ferramentas generativas como o ChatGPT.
“A sede está revisando medidas de segurança para criar ambiente seguro para usar com segurança a IA generativa para aumentar produtividade e eficiência dos funcionários.
No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente uso de IA generativa“, diz o texto do memorando enviando pela empresa.
A sul-coreana restringiu o uso em computadores, telefones e tablets da empresa, além de pedir que os colaboradores não façam o upload de informações comerciais por meio dos dispositivos pessoais.
“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”, segue o texto do memorando da Samsung.
Vazamento
A ação da empresa acontece depois que foi descoberto que alguns funcionários vazaram um código-fonte interno, ao carregá-lo no ChatGPT. Essa informação foi divulgada pelo site Bloomberg.
O receio da Samsung é que isso ocorra mais vezes, com iminente risco de exposição, além da dificuldade futura de excluir as mensagens, após a ocorrência do fato.
Há pouco mais de um mês, o ChatGPT experimentou um bug temporário que expôs o conteúdo de alguns históricos de bate-papo.
A medida de segurança adotada pela Samsung é semelhante a de outras empresas e instituições que limitaram o uso de ferramentas generativas. Entre elas, estão: JPMorgan, Bank of America, Citigroup, Goldman Sachs e outras.
-
Tecnologia1 dia atrás
Já conhece o cavalo robô lançado por Elon Musk?
-
Tecnologia2 dias atrás
Proibidos! 5 aparelhos que nunca devem ser ligados na extensão elétrica
-
Criptomoedas2 dias atrás
24 anos de prisão: homem cai em armadilha do WhatsApp e mesmo assim é preso
-
Mundo2 dias atrás
Partiu? 5 países com o melhor equilíbrio entre vida pessoal e trabalho
-
Tecnologia2 dias atrás
Alerta de segurança: golpe de taxa de entrega faz novas vítimas no WhatsApp
-
Economia2 dias atrás
Alô, dona de casa! Saiba como garantir sua aposentadoria do INSS
-
Tecnologia2 dias atrás
Não deixe rastros! Aprenda a excluir conversas com a Meta AI do WhatsApp
-
Economia2 dias atrás
Salário mínimo pode chegar a R$ 1.524 e trazer desafios em 2025