Tecnologia
Estudo da Apple coloca potencial das IAs em xeque
Trata-se do teste GSM8K.
Um estudo recente realizado por pesquisadores da Apple revelou que os grandes modelos de linguagem que impulsionam as plataformas de inteligência artificial podem não ser tão inteligentes quanto aparentam.
Tradicionalmente, o teste GSM8K tem sido o método mais utilizado para avaliar as capacidades de raciocínio desses modelos. Apesar de sua validação por especialistas, a popularidade do teste levanta a questão de que os modelos podem ter sido expostos às respostas durante seu treinamento, o que explicaria seu bom desempenho.
Partindo dessa premissa, os pesquisadores da Apple desenvolveram um novo método chamado GSM-Symbolic. Embora mantenha a mesma estrutura das questões de raciocínio, ele altera as variáveis. Os resultados foram surpreendentes, mas negativos, evidenciando falhas nos modelos de linguagem natural.
Apple
Modelos desenvolvidos pela OpenAI, Microsoft, Google e Meta mostraram um padrão semelhante: ao modificar as variáveis, seu desempenho decaiu. A conclusão foi que esses modelos são mais aptos a reconhecer padrões complexos do que a raciocinar de fato.
Isso inclui o modelo “o1”, apresentado recentemente pela OpenAI, que, ao invés de fornecer respostas imediatas, teria a capacidade de “refletir” mais sobre as questões, aumentando a precisão das respostas. No entanto, a empresa admitiu que não conseguiu eliminar completamente as chamadas alucinações da IA.
O desempenho dos modelos foi particularmente ruim quando os pesquisadores inseriram sentenças irrelevantes nas questões. Por exemplo: “Oliver colhe 44 kiwis na sexta-feira. Então ele colhe 58 kiwis no sábado. No domingo, ele colhe o dobro do número de kiwis que colheu na sexta-feira, mas cinco deles eram um pouco menores do que a média. Quantos kiwis Oliver tem?” Neste caso, os modelos tendem a subtrair os cinco kiwis menores, evidenciando uma falha em interpretar que o tamanho das frutas era irrelevante. Isso sugere que os modelos de linguagem operam principalmente com base em padrões estatísticos.
Modelo
Embora o modelo o1 da OpenAI tenha alcançado o melhor desempenho, ele ainda apresentou uma queda de 17,5% na precisão, um resultado alarmante. O modelo Phi, da Microsoft, foi ainda pior, com uma redução de 65% na precisão.
Os cientistas ressaltam que esses modelos não compreendem verdadeiramente conceitos matemáticos e carecem de capacidade para classificar a relevância das informações. O estudo serve como um alerta para a necessidade de cautela em relação aos grandes modelos de IA que prometem revolucionar o mundo.
(Com Agências).
-
Economia2 dias atrás
Você sabe qual é o salário de quem é considerado rico no Brasil?
-
Economia9 horas atrás
7 coisas que ficaram inacessíveis para a classe média: agora é luxo?
-
Saúde2 dias atrás
Cuidado! Animais perigosos e até mortais podem estar escondidos no seu jardim
-
Economia18 horas atrás
14º salário do INSS: o que aposentados e pensionistas precisam saber sobre o assunto
-
Mega-Sena2 dias atrás
Mega da Virada: quanto rende na poupança o prêmio de R$ 600 milhões?
-
Mercado de Trabalho2 dias atrás
Jornada de 30 horas semanais é aprovada: veja quem se beneficia com a mudança
-
Agronegócio2 dias atrás
Por que a zamioculca ‘chora’? Isso é um mau sinal?
-
Tecnologia19 horas atrás
Como saber quem tem meu número salvo no WhatsApp?