Conecte-se conosco

Tecnologia

Brasileiros treinam inteligência artificial para evitar informações que ofereçam risco

Grupo brasileiro desempenha papel crucial na análise e correção de respostas de IA para evitar a disseminação de conteúdo inadequado.

Publicado

em

Nos últimos meses, o uso de inteligência artificial expandiu-se rapidamente, integrando-se cada vez mais ao cotidiano das pessoas. Contudo, surgem preocupações sobre a possibilidade de promover comportamentos inadequados.

Em meio a este cenário, um dedicado grupo de brasileiros tem se destacado por sua atuação na análise e correção de respostas fornecidas por IA. Eles criam e avaliam prompts, categorizando as respostas para mitigar riscos potenciais aos usuários.

Esses profissionais atuam com o objetivo de garantir que as informações emitidas por chatbots sejam precisas e livres de juízo de valor, especialmente em temas delicados, como o nazismo. O trabalho é financiado pela Outlier, uma intermediária que conecta colaboradores globais a grandes empresas de tecnologia.

Essa iniciativa surgiu após incidentes nos quais a IA deu conselhos inadequados, como sugerir “beber até cair” para se divertir.

Desafios e estratégias

Em situações mais críticas, a inteligência artificial já ofereceu respostas preocupantes, como advogar o consumo de pedras ou o uso de cola para unir pizza e queijo.

Além disso, houve casos em que a IA, ao ser questionada no Brasil, distorceu informações sobre as urnas eletrônicas e o resultado eleitoral de 2022.

Esses eventos destacam a necessidade de supervisão humana contínua para evitar a disseminação de informações falsas.

Supervisionando a tecnologia

A Scale AI, responsável pela Outlier, enfatiza a importância de treinar modelos de IA generativa para prevenir conteúdos prejudiciais. Apesar das salvaguardas, usuários conseguem manipular sistemas reformulando perguntas de modo a driblar as respostas padrão, expondo falhas na segurança.

O trabalho dos brasileiros é essencial para assegurar que as inteligências artificiais permaneçam seguras e confiáveis. À medida que a tecnologia avança, a colaboração humana na supervisão e correção de erros se faz ainda mais necessária.

O compromisso com um desenvolvimento seguro da IA é fundamental para evitar a propagação de conteúdos danosos e preservar a integridade das informações.

Jornalista graduada pela Universidade Federal de Goiás (UFG), integra o time VS3 Digital desde 2016. Apaixonada por redação jornalística, também atuou em projetos audiovisuais durante seu intercâmbio no Instituto Politécnico do Porto (IPP).

Publicidade

MAIS ACESSADAS