Caso no RS revela uso de deepfake para enganar vítimas e enfatiza o alerta sobre fraudes cada vez mais sofisticadas
Uma investigação em andamento desde janeiro no Rio Grande do Sul destaca um golpe que deixou de ser ficção. Com o uso de inteligência artificial (IA) para replicar vozes, esses golpes tornaram-se mais acessíveis e convincentes, explorando emoção e urgência para manipular as vítimas.
O caso que gerou grande repercussão ocorreu em Cachoeirinha, na região metropolitana de Porto Alegre, onde um policial militar é suspeito de utilizar IA para simular a voz de sua ex-companheira com o intuito de enganar os pais dela.
Conforme a investigação avançou, foi constatado que os áudios enviados imitavam a voz de Silvana de Aguiar, que já estava desaparecida. As mensagens continham pedidos de socorro, relatos sobre um acidente e outras interações do cotidiano, criando uma sensação de normalidade que convenceu as vítimas a agir.
Ferramentas de detecção indicaram que havia alta probabilidade de que os áudios fossem gerados por IA. Embora o caso ainda esteja em desenvolvimento, ele já serve como um claro aviso: a tecnologia está avançando, assim como as fraudes.
Facilidade na clonagem de voz
Se anteriormente esse tipo de fraudes exigia conhecimentos técnicos avançados, a realidade atual é diferente. Em entrevista à TecMania, Luiz Cláudio, fundador da LC SEC, consultoria de cibersegurança, afirmou que “o criminoso precisa basicamente de uma amostra de áudio da vítima, uma ferramenta de clonagem de voz baseada em IA e um roteiro para aplicar o golpe”.
Além disso, muitas ferramentas já automatizam boa parte do processo, reduzindo a barreira para os criminosos. Na prática, isso significa que poucos segundos de áudio podem ser suficientes para iniciar uma imitação.
André Fossa, cofundador da Cogni2, lembrou que agora existem modelos capazes de gerar uma voz sintética com apenas 15 segundos de áudio. Em muitos casos, a perfeição não é necessária; é suficiente que a voz se assemelhe o bastante para causar dúvida e gerar uma reação emocional.
A percepção de quando um áudio é falso é um dos maiores desafios. Especialistas ressaltam que nem sempre é possível detectar. “A recomendação é não confiar apenas no ouvido, pois a tecnologia evoluiu muito”, orienta Luiz Cláudio.
Alguns sinais que podem levantar suspeitas incluem uma fala estranha, com pausas incomuns ou emoções que não correspondem à situação. Além disso, a IA pode gerar respostas muito lentas e impecáveis, sem a hesitação comum ao falar.
Como se proteger
Luiz Cláudio recomenda interromper o impulso de resposta e validar a informação por outro canal, como ligar para um número conhecido ou consultar outra pessoa próxima. Fossa sugere uma prática de validação dentro da própria família, criando perguntas que apenas a pessoa real saberia responder, pois as informações básicas podem ser facilmente acessadas na internet.
É importante entender que a urgência é uma tática típica do golpe. Quanto mais pressão houver por uma resposta rápida, maior deve ser a desconfiança.
O uso de fraudes dessa natureza tendem a crescer no Brasil, que possui um alto índice de uso de redes sociais, aplicativos de mensagem e pagamentos instantâneos, tornando-se um alvo atraente para criminals.
Fossa complementa que a própria tecnologia também pode ajudar na defesa, utilizando sistemas que podem identificar padrões e inconsistências que passam despercebidos aos humanos.