Selecione o idioma

Portuguese

Down Icon

Selecione o país

Spain

Down Icon

O lado sombrio da inteligência artificial: como opera a indústria global multimilionária de nus falsos

O lado sombrio da inteligência artificial: como opera a indústria global multimilionária de nus falsos

Uma epidemia de aplicativos comerciais que usam Inteligência Artificial (IA) para gerar imagens de nudez não consensuais está se espalhando pela internet — bem diante dos olhos de todos. Embora alguns governos estejam pressionando por medidas legais para reduzir o bloqueio, milhões de pessoas continuam acessando esses provedores, e seus promotores estão lucrando milhões .

O conteúdo explícito gerado por essas plataformas deepfake , que é legalmente chamado de abuso de imagem íntima não consensual (NIIA), tornou-se uma forma crescente e sofisticada de violência digital .

Esse fenômeno, considerado um dano colateral dos avanços da IA generativa, deu origem a um ecossistema obscuro composto por sites de “nudificação” , algoritmos e bots projetados para produzir imagens artificiais sem o consentimento das vítimas.

Essas fotos explícitas, antes reservadas a quem tinha conhecimento técnico avançado, agora estão acessíveis a qualquer pessoa graças a plataformas que automatizam esses processos. Em apenas alguns cliques, elas modificam roupas, formato do corpo ou pose, gerando conteúdo sexual com uma facilidade perturbadora.

O que é “knotificação”

Aplicativos são capazes de apagar roupas de qualquer foto. Aplicativos são capazes de apagar roupas de qualquer foto.

Desde o início deste ano, a publicidade em plataformas que oferecem nudes gerados por IA aumentou 2.400% , de acordo com um estudo da Universidade da Flórida . Essas campanhas são normalmente disseminadas por meio das principais plataformas de mídia social, onde esses sites promovem seus serviços com o objetivo de atrair novos clientes.

"Essas imagens representam um paradigma radicalmente diferente daquelas criadas com o Photoshop. A IA generativa torna sua criação mais fácil, rápida e realista", explica Kevin Butler, PhD do Departamento de Ciência da Computação da Universidade da Flórida.

E acrescenta: "Imagens sintéticas têm o potencial de causar danos. Isso constitui uma forma de abuso sexual contra o sujeito que, por definição, é retratado sem consentimento."

Esses ataques começaram com a distribuição de fotos falsas de estrelas pop como Taylor Swift ou Billie Eilish , se espalharam para figuras públicas como a primeira-ministra italiana, Giorgia Meloni , e acabaram tendo como alvo qualquer indivíduo, independentemente de sexo ou idade.

Uma pesquisa da Save the Children , divulgada há uma semana, descobriu que um em cada cinco jovens disse que alguém compartilhou imagens deles nus, geradas por IA, quando eram menores de idade e sem seu consentimento.

"Esses números representam apenas a ponta do iceberg, já que a maioria dos casos não é denunciada , em parte devido à falta de denúncia e às dificuldades em detectá-los, que são exacerbadas quando esses incidentes ocorrem online", alerta Catalina Perazzo, Diretora de Advocacia Social e Política da Save the Children.

O anonimato, a viralidade e a facilidade técnica com que essas imagens são geradas — como aponta a Wired — contribuem para sua rápida disseminação, deixando profundas cicatrizes emocionais e expondo brechas legais não resolvidas.

Esses mercados de pornografia, que operam com aparente legitimidade, hospedam seus dados em serviços de nuvem convencionais, como Amazon Web Services e Cloudflare, sem que esses provedores tenham conhecimento de como os dados estão sendo usados. "Eles são hospedados em plataformas confiáveis", revelando uma perturbadora normalização tecnológica.

Um mercado fora de controle

Na ClothOff, o lema é Na ClothOff, o lema é "nunca foi tão fácil despir fotos".

Uma análise do site de pesquisa Indicator revelou o alcance alarmante do negócio do nudismo : em apenas seis meses, esses portais registraram uma média mensal de 18,5 milhões de visitantes.

As estimativas econômicas para esse gigante são igualmente convincentes: os lucros combinados de sites como Deepnude, UndressAI.tools e PornWorks AI podem exceder US$ 36 milhões anualmente.

Um dos mais populares é o ClothOff, que recebe mais de 4 milhões de visitantes mensais e anuncia: "Tenha sua foto nua processada em apenas 15 segundos ". O aplicativo pode ser acessado pelo celular clicando em um botão que confirma que o usuário é maior de 18 anos. Ele cobra aproximadamente US$ 6 para cada 144 créditos.

O modelo por trás desse sistema lucrativo baseia-se na venda de "créditos" ou assinaturas que permitem aos usuários gerar imagens e vídeos falsos com nudez não consensual. Os pagamentos, canalizados por meio de criptomoedas , proporcionam aos operadores um duplo benefício: anonimato e estabilidade financeira .

Os serviços de "nudificação" de IA tornaram-se um negócio lucrativo, sustentado pela falta de controle real sobre a IA generativa, denuncia Alexios Mantzarlis, cofundador da Indicator e pesquisador de segurança online. "A abordagem laissez-faire do Vale do Silício permitiu que esse mercado persistisse, mesmo quando ficou claro que seu único uso era o assédio sexual", alerta.

Esses materiais são frequentemente hiper-realistas , maximizando sua capacidade de causar danos e enganar tanto vítimas quanto espectadores.

Enquanto os primeiros nudistas se concentravam quase exclusivamente em imagens, os avanços tecnológicos permitiram a manipulação e a fabricação de vídeos alterados , levando o fenômeno a um novo nível de perigo e alcance.

O negócio não é isento de riscos para quem tenta tirar proveito dele. Sua popularidade levou ao surgimento de diversos sites fraudulentos , alguns operados por hackers que oferecem aplicativos modificados com malware para capturar dados pessoais e financeiros.

A difícil tarefa de apagar o que foi publicado

Sem conhecimento técnico, você pode manipular uma foto como quiser. Sem conhecimento técnico, você pode manipular uma foto como quiser.

Remover permanentemente esse material é muito difícil ; o conteúdo abusivo continua a reaparecer, prolongando o estresse emocional e a vulnerabilidade percebida das vítimas. Para combater esse flagelo digital, os Estados Unidos e a Grã-Bretanha lançaram ações legais e regulatórias .

O presidente Donald Trump assinou a lei bipartidária "Take It Down" , que criminaliza a publicação não consensual de imagens íntimas e exige sua remoção das plataformas que as publicaram.

A Meta também anunciou recentemente que entraria com uma ação judicial contra uma empresa de Hong Kong por trás de um aplicativo de nudez chamado Crush AI, que, segundo ela, burlava repetidamente as regras da gigante da tecnologia para veicular anúncios em suas plataformas.

Uma pesquisa recente da Thorn, uma organização sem fins lucrativos que combate a exploração infantil online, descobriu que 6% dos adolescentes americanos já foram vítimas de nudes falsos . O fenômeno, já preocupante devido ao seu impacto psicológico, torna-se ainda mais grave quando se cruza com crimes como a sextorsão .

O FBI alertou sobre um "aumento terrível" de casos envolvendo menores, principalmente meninos entre 14 e 17 anos. Segundo a agência, essas ameaças levaram a um "número alarmante de suicídios" devido à vergonha de serem expostos.

Uma dessas tragédias ocorreu este ano no Kentucky, onde um adolescente tirou a própria vida após receber mensagens de extorsão exigindo US$ 3.000 para manter em segredo uma imagem falsa de si mesmo, nu, criada com inteligência artificial (IA). Seus pais descobriram as mensagens após sua morte.

Clarin

Clarin

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow