Apesar de diversas denúncias, as plataformas para tablets e smartphones ainda permitem a presença de ferramentas nocivas, incluindo as voltadas para menores de idade. A Apple e o Google afirmam ter retirado vários aplicativos.
A Apple e o Google estão, inadvertidamente, direcionando usuários a aplicativos potencialmente ilegais que utilizam inteligência artificial (IA) para criar imagens de pessoas sem roupas, incluindo menores. Essa informação vem de uma investigação do Tech Transparency Project. Embora Apple e Google aleguem que estão removendo vários desses aplicativos por violarem as diretrizes das plataformas, ainda existem muitos disponíveis.
Segundo o estudo, uma busca simples e a análise dos anúncios nas lojas digitais Google Play Store e App Store revelam a disponibilidade de várias dessas ferramentas, que geralmente são utilizadas para fazer montagens com mulheres sem o seu consentimento.
- Os aplicativos se apropriam de fotos reais e, com a assistência de IA, geram deepfakes em situações eróticas ou sem roupas. Essas imagens são frequentemente compartilhadas em grupos e podem ser usadas para crimes como extorsão;
- Além de alterar vestuário e criar representações sexualizadas, também é possível gerar chatbots de IA com a aparência da pessoa em questão para interações em texto;
- O levantamento indicou que pesquisas com termos como “nudificar”, “tirar a roupa” e “deepfake” resultaram em mais de 40 aplicativos para cada loja — alguns deles sendo promovidos por anúncios, e o auto-completar recomendando termos semelhantes para os interessados.
- A pesquisa revelou que os aplicativos identificados foram baixados mais de 483 milhões de vezes e arrecadaram pelo menos US$ 122 milhões (R$ 608 milhões) em receitas, especialmente por meio de publicidade;
- O Grok, uma IA utilizada por Elon Musk no X, foi um dos principais resultados em várias pesquisas, e um aplicativo afirmava que os serviços para tirar a roupa eram “oferecidos pela x.AI”;
- A investigação descobriu que 31 dos aplicativos analisados tinham classificação indicativa livre, permitindo o acesso até para menores.
O mesmo projeto havia denunciado a presença desse tipo de aplicativo nas lojas da Apple e Google no início do ano, mas o problema persiste meses depois. Além dessas ferramentas, há também sites e grupos no Telegram envolvidos em serviços ilícitos semelhantes.
Posição das Empresas
Após a repercussão da situação, ambas as empresas removeram vários aplicativos que promovem a remoção de roupas. Apple e Google afirmaram que tais aplicações estão em desacordo com as políticas das lojas.
Hackers do Irã miram sistemas que controlam água, energia e fábricas nos EUA
A Apple também comentou que contatou diversos desenvolvedores para que os aplicativos fossem modificados; caso contrário, seriam removidos definitivamente.
Qual é o cenário atual sobre este tipo de crime envolvendo deepfakes sexuais no Brasil e no mundo? Saiba mais nesta matéria.