Tecnologia
Clonagem de voz com IA tem crescido e feito vítimas de golpes
Como a tecnologia pode ser usada para fraudes e de que modo se proteger.
A tecnologia tem avançado de forma impressionante e trazido benefícios inegáveis para nossa vida cotidiana. No entanto, junto desses avanços, surgem novos perigos.
Um dos alertas mais preocupantes vem do Starling Bank, um banco apenas online do Reino Unido, que destacou que milhões de pessoas podem ser alvos de golpes de clonagem de voz utilizando inteligência artificial (IA).
Vamos entender melhor esse fenômeno e como podemos nos proteger.
Golpistas têm usado IA para clonar a voz das pessoas – Imagem: reprodução
O que é a clonagem de voz por IA?
A clonagem de voz é uma técnica em que a inteligência artificial é utilizada para replicar a voz de uma pessoa a partir de uma pequena amostra de áudio, que pode ser encontrada em vídeos ou gravações postadas na internet.
O Starling Bank explicou que, com apenas três segundos de áudio, golpistas são capazes de reproduzir a voz de uma pessoa de maneira tão convincente que se torna difícil discernir a falsidade.
Essa situação se torna mais alarmante quando se considera que os criminosos podem facilmente identificar amigos ou familiares das vítimas e se passar por eles, solicitando dinheiro de forma fraudulenta.
De acordo com uma pesquisa realizada pelo Starling Bank, mais de 3.000 adultos foram entrevistados, e os resultados foram preocupantes.
Mais de um quarto dos entrevistados disse que havia sido alvo de um golpe de clonagem de voz por IA nos últimos 12 meses.
Além disso, 46% dos participantes admitiram que não estavam cientes da existência desses tipos de golpes.
O mais alarmante é que 8% das pessoas entrevistadas afirmaram que enviariam dinheiro a um amigo ou familiar, mesmo que a ligação parecesse suspeita.
Muitas pessoas não têm ideia de que, ao compartilhar gravações de suas vozes online, estão tornando-se alvos potenciais de fraudadores.
Tal vulnerabilidade é alarmante, principalmente porque, nas redes sociais, é comum que as pessoas compartilhem momentos de suas vidas de forma despreocupada.
Lisa Grahame, diretora de segurança da informação do Starling Bank, enfatizou que muitos usuários não imaginam que estão facilitando o trabalho de golpistas.
Como se proteger?
O Starling Bank sugere algumas medidas de proteção que podem ajudar a reduzir os riscos relacionados à clonagem de voz. Uma das recomendações é que as pessoas concordem com uma ‘frase segura’ com amigos e familiares.
Tal frase deve ser simples, fácil de lembrar e diferente das senhas habituais. O objetivo é que, em caso de uma ligação suspeita, a pessoa consiga confirmar a identidade do interlocutor.
Contudo, é importante não compartilhar a frase segura por mensagem de texto, já que isso pode facilitar o acesso de golpistas. Se for compartilhada dessa maneira, deve-se apagá-la assim que a outra pessoa a visualizar.
À medida que as ferramentas de inteligência artificial se tornam mais avançadas, as preocupações sobre seu uso indevido também aumentam.
Este ano, a OpenAI, empresa responsável pelo ChatGPT, lançou uma ferramenta de replicação de voz, o Voice Engine, mas decidiu não disponibilizá-la ao público devido ao potencial de uso fraudulento.
Essa decisão evidencia a necessidade de um debate mais amplo sobre os limites éticos e legais do uso de tecnologias de IA.
-
Cotidiano2 dias atrás
Nem pense em batizar seu filho assim: 100 nomes que são proibidos no Brasil
-
Criptomoedas21 horas atrás
24 anos de prisão: homem cai em armadilha do WhatsApp e mesmo assim é preso
-
Tecnologia19 horas atrás
Já conhece o cavalo robô lançado por Elon Musk?
-
Saúde2 dias atrás
Apenas um país permite a venda de órgãos humanos
-
Tecnologia1 dia atrás
Proibidos! 5 aparelhos que nunca devem ser ligados na extensão elétrica
-
Mega-Sena2 dias atrás
Mega da Virada: o que dá para fazer com os R$ 600 milhões do prêmio?
-
Mundo22 horas atrás
Partiu? 5 países com o melhor equilíbrio entre vida pessoal e trabalho
-
Finanças2 dias atrás
Como reconhecer a moeda de 25 centavos que pode valer até 900x mais?