Fraudes digitais tornam-se mais sofisticadas
Atualmente, a clonagem de voz por inteligência artificial está a transformar radicalmente o panorama das fraudes digitais, enquanto especialistas alertam que qualquer pessoa pode tornar-se vítima. Recentemente, um empresário do cantão suíço de Schwyz perdeu vários milhões de francos em segundos, depois de acreditar que falava com um parceiro de negócios legítimo.
No entanto, do outro lado da linha encontrava-se um burlão a utilizar uma voz clonada por IA, uma técnica cada vez mais comum na chamada “fraude do presidente”. Este método consiste em simular ordens urgentes de figuras de autoridade para induzir transferências financeiras imediatas.
Especialista alerta para risco crescente
Luzi Sennhauser, especialista em inteligência artificial e fundador da startup suíça Aurigin.ai, acompanha este fenómeno há mais de uma década. Em 2024, criou a empresa focada na deteção de vozes e conteúdos áudio manipulados por IA, contando no conselho de administração com Andreas Sennheiser, CEO da conhecida empresa de áudio Sennheiser.
Segundo Sennhauser, a qualidade dos clones vocais atingiu um nível alarmante. Atualmente, os criminosos conseguem criar uma voz extremamente credível em poucos minutos, usando apenas 10 a 20 segundos de gravação original.
Além disso, testes internos demonstram que os humanos já não conseguem distinguir, de forma fiável, entre uma gravação real e uma gerada por inteligência artificial.
Poucos segundos bastam para clonar uma voz
Hoje em dia, basta uma mensagem de voz, uma conversa captada num transporte público ou até um simples “não, obrigado” dito numa chamada promocional para criar um clone vocal convincente. Consequentemente, proteger a própria voz tornou-se praticamente impossível.
Apesar disso, o especialista defende que existem formas de reduzir o risco associado a abusos e burlas. Antes de mais, é essencial desenvolver uma perceção realista da ameaça. Muitas pessoas acreditam que nunca lhes acontecerá, o que as torna especialmente vulneráveis.
Empresas devem rever processos internos
Além da consciencialização, as empresas precisam de adaptar os seus procedimentos. Para operações sensíveis, como grandes transferências financeiras, devem existir mecanismos claros de validação e dupla verificação.
Em paralelo, tornam-se indispensáveis soluções tecnológicas. Tal como os antivírus protegem contra ficheiros maliciosos, já existem sistemas capazes de detetar conteúdos áudio fraudulentos, emitindo alertas em tempo real.
A nova evolução da indústria da fraude
De acordo com Sennhauser, a clonagem vocal representa a próxima grande evolução da fraude. No passado, muitas burlas telefónicas falhavam devido a detalhes óbvios, como sotaques ou línguas inadequadas.
Agora, com a IA, os criminosos conseguem falar no idioma correto, com o tom emocional esperado e até com expressões familiares à vítima, o que aumenta drasticamente a eficácia do golpe.
Como funciona a “fraude do presidente”
As abordagens variam, mas podem incluir convites falsos para reuniões online, chamadas telefónicas com números manipulados ou mensagens urgentes supostamente enviadas por executivos. Através de engenharia social, os burlões recolhem informações detalhadas sobre hierarquias, rotinas e estilos de comunicação internos.
Empresas com estruturas hierárquicas rígidas são particularmente vulneráveis. Em organizações menores, comportamentos estranhos são mais facilmente detetados. Contudo, em grandes grupos, a autoridade raramente é questionada.
Impacto financeiro pode ser devastador
Na Suíça, o potencial prejuízo apenas no setor da banca privada poderá atingir cinco mil milhões de francos. No entanto, setores como finanças, seguros e saúde também estão sob forte ameaça.
Além disso, particulares com elevado património devem redobrar cuidados. As vozes de figuras públicas e pessoas ricas estão frequentemente disponíveis online, facilitando a clonagem. Assim, qualquer chamada inesperada pode esconder uma burla sofisticada.
Todos somos potenciais alvos
Mesmo os cidadãos comuns enfrentam riscos crescentes. As chamadas de choque, que simulam acidentes ou detenções de familiares, tornar-se-ão ainda mais difíceis de identificar. Nestes casos, estabelecer códigos familiares pode ajudar.
Ainda assim, Sennhauser recomenda desligar e voltar a contactar a pessoa através de aplicações com encriptação ponta a ponta, como Signal ou WhatsApp. Apesar disso, admite que a segurança absoluta continua fora de alcance.


Seja o primeiro a comentar