Selecione o idioma

Portuguese

Down Icon

Selecione o país

Italy

Down Icon

O lado negro da IA: como o ChatGPT caiu nas mãos de hackers, espiões e regimes autoritários

O lado negro da IA: como o ChatGPT caiu nas mãos de hackers, espiões e regimes autoritários

Quando um prompt no ChatGPT se torna uma ferramenta de propaganda e um ponto de partida para um ataque cibernético, não estamos mais no reino das hipóteses: isso já está acontecendo em escala global. A OpenAI, no relatório “Interrompendo os Usos Maliciosos da IA: Junho de 2025” , explica como seus modelos de inteligência artificial têm sido explorados por agentes maliciosos em todo o mundo para organizar golpes, campanhas de desinformação, operações de espionagem e ataques cibernéticos.

O documento reconstrói em detalhes uma série de atividades identificadas e interrompidas nos últimos meses. Ações que vão desde crimes digitais a engenharia social avançada, passando por operações reais de influência secreta . Currículos falsos gerados na Coreia do Norte para obter empregos remotos, campanhas pró-Kremlin relançadas no Telegram, bots filipinos elogiando o governo Marcos, malware escrito linha por linha graças à IA generativa.

Um salto qualitativo no abuso da inteligência artificial, que hoje permite que cibercriminosos e regimes autoritários repliquem e amplifiquem suas ações com a mesma facilidade com que um usuário comum escreve um e-mail ou pede um resumo.

Mas, ao mesmo tempo em que a IA aumenta a eficácia e a escala dos ataques, também fornece novas ferramentas para combatê-los. Cada solicitação enviada, cada uso anômalo de modelos, deixa para trás um rastro de sinais digitais: padrões de uso, rastros de log, anomalias comportamentais. Essas pistas se tornam fontes valiosas de análise para as equipes de segurança, que podem então identificar ameaças emergentes, bloquear contas suspeitas e fortalecer as defesas de forma eficaz.

Desinformação, hacking e golpes: o diário de ataques de IA

De phishing político a esquemas de pirâmide, o relatório da OpenAI destaca a surpreendente versatilidade com que a IA está sendo explorada por agentes maliciosos em todos os cantos do planeta.

Na Coreia do Norte, agentes suspeitos de ligação com o regime teriam usado o ChatGPT para gerar identidades falsas, currículos plausíveis e perfis confiáveis ​​no LinkedIn para garantir empregos remotos em empresas estrangeiras , especialmente nos EUA. Em alguns casos, os contratos também incluíam a entrega de dispositivos da empresa — como laptops — que seriam controlados remotamente, potencialmente permitindo acesso a infraestruturas digitais sensíveis.

Pequim, sob a Operação Sneer Review, supostamente alimentou campanhas pró-governo nas mídias sociais sobre a questão de Taiwan , divulgando postagens e comentários pré-definidos no TikTok, Reddit e X para direcionar a conversa global.

Em Manila, a campanha "High Five" teria transformado a IA em uma caixa de ressonância eleitoral: curtidas, emojis e slogans pró-Marcos teriam vindo de contas falsas operadas por uma agência de marketing. Paralelamente, os grupos hackers APT5 e APT15 — ambos ligados à China — teriam usado modelos linguísticos para obter credenciais de força bruta e mapear a infraestrutura estratégica nos Estados Unidos , incluindo redes militares.

Não faltam tentativas de dividir para reinar: com o "Uncle Spam", falsos veteranos americanos supostamente espalhavam mensagens conflitantes no X e no Bluesky para exacerbar conflitos internos. Por fim, no Camboja, o golpe do "Número Errado" prometia ganhos fáceis via chat: mensagens automáticas atraíam as vítimas, pediam um "adiantamento" e as incentivavam a recrutar novos seguidores, alimentando um lucrativo esquema de pirâmide.

Jornalistas falsos com ChatGPT: acadêmicos e formuladores de políticas são espionados

Entre os casos mais sofisticados descritos no relatório está a operação “VAGue Focus” , atribuída a atores com supostos vínculos com a China. Fazendo-se passar por jornalistas freelancers ou analistas de centros de pesquisa inexistentes, os perpetradores teriam contatado especialistas ocidentais, acadêmicos e autoridades públicas. O objetivo era coletar informações confidenciais sobre temas sensíveis para Pequim, como as políticas dos EUA em relação a Taiwan ou a dinâmica interna de instituições europeias. O ChatGPT foi usado para escrever mensagens realistas, simular linguagem jornalística , gerar nomes e biografias de capa e traduzir textos automaticamente. Em alguns casos, pequenas quantias foram oferecidas em troca de entrevistas ou documentos escritos. Em outros, as solicitações eram mais invasivas, como acesso a materiais sensíveis que poderiam ser reutilizados para análises estratégicas ou operações de contrainformação .

IA e desinformação: as eleições alemãs na mira

O relatório também descreve uma campanha suspeita de querer influenciar as eleições federais alemãs de 2025. A operação, que a OpenAI cautelosamente rastreia até redes pró-Rússia, supostamente espalhou slogans, memes e artigos pseudojornalísticos por meio de canais do Telegram e do site Pravda DE , para apoiar a AfD, criticar a OTAN e deslegitimar Berlim. A IA generativa foi crucial para calibrar as mensagens em um alemão natural e culturalmente coerente.

Do desenvolvimento à depuração: IA a serviço do malware

Outro caso notável é a operação "ScopeCreep", que, segundo o relatório, foi realizada por um agente com possíveis ligações com a Rússia. Hackers teriam usado o ChatGPT para desenvolver um malware multiestágio disfarçado de ferramenta legítima para jogos. O código foi escrito em Go — uma linguagem de programação criada pelo Google, elogiada por sua velocidade e eficiência — e incluía scripts do PowerShell, que são sequências de comandos para automatizar tarefas em computadores Windows. A inteligência artificial teria sido usada não apenas para escrever o código, mas também para refiná-lo, corrigir bugs e encontrar maneiras de contornar controles de segurança como o Windows Defender. Este é um exemplo de como modelos generativos podem se tornar verdadeiros assistentes na criação de software malicioso.

La Repubblica

La Repubblica

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow