Conecte-se conosco

Tecnologia

Espionagem do ChatGPT? Samsung proíbe uso de IA entre funcionários

Receio de que informações confidenciais sejam compartilhadas com o chatbot motivou a decisão da empresa. Colaboradores receberam memorando

Publicado

em

A Samsung decidiu proibir o uso de ferramentas de inteligência artificial generativas, entre elas, o ChatGPT, nas redes internas e dispositivos da empresa.

A decisão foi tomada, basicamente, por medo de que o upload de informações confidenciais para essas plataformas signifique algum risco para a segurança corporativa.

A empresa sul-coreana comunicou a decisão por meio de um memorando. A restrição, de acordo com o documento, é temporária até que seja criado um ambiente seguro para trabalhar com ferramentas desse tipo.

Samsung vê risco no ChatGPT

Para a Samsung, o maior fator de risco é o ChatGPT, chatbot desenvolvido pela OpenAI que tem gerado bastante discussão sobre o avanço da inteligência artificial, desde que foi lançado oficialmente no final de 2022.

A ferramenta se popularizou rapidamente e, hoje, é utilizada não só para entretenimento ou descobertas do dia a dia, mas também para execução de trabalhos sérios.

Entre as funcionalidades possíveis, constam questões como resumo de relatórios, elaboração de textos corporativos e respostas a e-mails, ou seja, todas elas demandam inserção de informações internas que podem ser confidenciais.

A chance de que funcionários recorram ao ChatGPT para executar esse tipo de tarefa significa para a Samsung um risco claro à privacidade e possível acesso do conteúdo por parte da OpenAI. Mas será que é assim mesmo?

Na prática

Conforme as regras do chatbot, quando uma empresa é API do ChatGPT, ou seja, interface para criar softwares ou aplicativos que se comunicam com plataformas, os diálogos estabelecidos não ficam visíveis para a equipe da OpenAI, tampouco utilizados para treinar a ferramenta.

Essa mesma regra, no entanto, não vale para quando ocorre a aplicação de textos na interface geral do chatbot disponível na web, e utilizando as configurações padrão.

No FAQ da empresa, é expresso que algumas conversas que usuários mantêm com o ChatGPT são analisadas para melhorar os sistemas e garantir o cumprimento das políticas e requisitos de segurança.

O conselho dado pela própria OpenAI é que não se deve compartilhar informações confidenciais durante os diálogos, observando sempre que qualquer conversa pode ser utilizada para treinar versões futuras do ChatGPT.

A empresa lançou, recentemente, uma configuração similar ao “modo anônimo” de um navegador. Ela não salva históricos de bate-papo e impede que o conteúdo seja utilizado para treinamento. É bom observar esses detalhes.

Samsung preocupada

Diante de todas essas possíveis vulnerabilidades, a Samsung se diz preocupada com o uso despretensioso, entre funcionários, de ferramentas generativas como o ChatGPT.

A sede está revisando medidas de segurança para criar ambiente seguro para usar com segurança a IA generativa para aumentar produtividade e eficiência dos funcionários.

No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente uso de IA generativa“, diz o texto do memorando enviando pela empresa.

A sul-coreana restringiu o uso em computadores, telefones e tablets da empresa, além de pedir que os colaboradores não façam o upload de informações comerciais por meio dos dispositivos pessoais.

Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar e incluindo rescisão do contrato de trabalho”, segue o texto do memorando da Samsung.

Vazamento

A ação da empresa acontece depois que foi descoberto que alguns funcionários vazaram um código-fonte interno, ao carregá-lo no ChatGPT. Essa informação foi divulgada pelo site Bloomberg.

O receio da Samsung é que isso ocorra mais vezes, com iminente risco de exposição, além da dificuldade futura de excluir as mensagens, após a ocorrência do fato.

Há pouco mais de um mês, o ChatGPT experimentou um bug temporário que expôs o conteúdo de alguns históricos de bate-papo.

A medida de segurança adotada pela Samsung é semelhante a de outras empresas e instituições que limitaram o uso de ferramentas generativas. Entre elas, estão: JPMorgan, Bank of America, Citigroup, Goldman Sachs e outras.

Jornalista formado pela Universidade Federal de Goiás (UFG), com especialização em Comunicação Digital, e que trabalha há 14 anos como repórter e redator

Publicidade
Clique para comentar

Deixe uma resposta

O seu endereço de e-mail não será publicado.

MAIS ACESSADAS