Conecte-se conosco

Tecnologia

‘Caixa preta’ da IA? Saiba tudo sobre o segredo que preocupa especialistas

Desenvolvedores do Google descobriram que a inteligência artificial é capaz de evoluir por si só e adquirir habilidades de maneira inesperada

Publicado

em

O debate sobre a inteligência artificial e a maneira como ela está se inserindo no nosso dia a dia está a todo vapor, e ganhou um novo episódio curioso que tem gerado preocupação entre especialistas da área.

Desenvolvedores de IA do Google encontraram, recentemente, o que eles chamam de “caixa preta” da inteligência artificial. Tudo aconteceu enquanto eles trabalhavam no desenvolvimento de um software de IA.

Sem buscar ou procurar por algo do tipo, os engenheiros perceberam que, inesperadamente, a IA ganhou a capacidade de entender um novo idioma.

Descobrimos que, com muito pouca informação sobre o bengali [língua oficial de Bangladesh, na Índia], agora você pode traduzir tudo para esse idioma“, expôs James Maneka, chefe da divisão de IA do Google, durante entrevista ao programa 60 Minutes da rede de televisão americana CBS.

Avanço sem explicação

O CEO do Google, Sundar Pichai, também comentou sobre o assunto, dando a entender que essa capacidade dos programas de IA de gerar habilidades de maneira inesperada denotam certo descontrole.

Você não entende muito bem. Você não pode realmente dizer porque [o robô] disse isso ou porque errou“, apontou.

Apesar do avanço verificado nos últimos anos, o setor de tecnologia sabe que ainda tem muito a descobrir sobre o potencial da inteligência artificial.

Receio

Essas inúmeras possibilidades, desconhecidas ou não, ao mesmo tempo que atraíram o investimento das maiores empresas do segmento, também já começaram a gerar certo receio.

Especialistas em IA apontam que essa corrida para ver quem sai na frente, com exploração desenfreada, pode causar riscos se a tecnologia não for controlada pelos desenvolvedores.

Um dos maiores pontos de interrogação, hoje, é justamente saber como elas conseguem adquirir habilidades para as quais não foram treinadas. Como explicar isso? E onde isso vai parar?

Caixa branca

A noção de caixa preta serve de oposição ao que os especialistas chama no mundo da programação de caixa branca.

Quando desenvolvedores criam softwares e programas de maneira tradicional, as linhas de código tendem a refletir claramente no resultado obtido.

A diferença é que, no caso da inteligência artificial, os sistemas são diferentes e os criadores realmente não entendem o que está acontecendo ou não esperam resultados tão criativos.

Ao contrário da programação tradicional, baseada em instruções para se chegar aos resultados, na IA os engenheiros atuam para criar um sistema que imite as redes neurais da inteligência humana.

Os processadores são capazes de lidar com grande quantidade de dados, detectar padrões entre milhões de variáveis usando aprendizado de máquina e, ainda, adaptar-se ao que estão fazendo.

Processo de treinamento

O gerente de pesquisa quantitativa da G-Research, David Stern, apontou em entrevista ao site da BBC, que os progressos mais rápidos na pesquisa de IA envolveram caixas-pretas orientadas por dados.

Esse tipo de treinamento, segundo ele, determina a configuração de milhões de parâmetros internos que interagem de maneiras complexas e são muito difíceis de explicar ou de reverter.

Outra tendência já aplicada é o chamado “aprendizado por reforço profundo”, no qual um designer especifica os objetivos de comportamento e o próprio sistema aprende a interagir com o ambiente. Na visão de David, essa questão é ainda mais difícil de compreender.

Há motivo para preocupação?

Esse é o debate do momento!

Enquanto alguns especialistas contextualizam dizendo que o desenvolvimento da inteligência artificial não ocorre de uma hora para outra e que demanda tempo, com efeitos a longo prazo, outros já citam a necessidade de uma discussão não somente tecnológica, mas social também.

Por mais que pareça que o ChatGPT seja uma tecnologia recente e que surgiu do nada, ele é resultado de uma pesquisa que demorou 10 anos para ser feita.

O que aconteceu nesse período foi que novas descobertas conseguiram aumentar significativamente a quantidade de dados e o poder de computação de modelos de inteligência artificial.

As novas habilidades adquiridas, no entanto, já espantam pelo possível impacto social a ser gerado. O CEO do Google, Sundar Pichai, acredita que será possível se acostumar e se adaptar aos sistemas de IA, mas sugere uma saída reflexiva:

Acho que desenvolver isso precisa incluir não apenas engenheiros, mas também cientistas sociais, especialistas em ética, filósofos e assim por diante“, sugeriu.

E temos que ser muito atenciosos. Essas são as coisas que a sociedade precisa descobrir à medida que avançamos. Não cabe a nós como empresa decidir“, disse ele.

Jornalista formado pela Universidade Federal de Goiás (UFG), com especialização em Comunicação Digital, e que trabalha há 14 anos como repórter e redator

Publicidade
Clique para comentar

Deixe uma resposta

O seu endereço de e-mail não será publicado.

MAIS ACESSADAS