OpenAI Suspende Grupos por Uso Indevido do ChatGPT em Ciberataques e Operações de Influência
Por Prof. AMR. Em, 17/10/2025.
A OpenAI, gigante da inteligência artificial, anunciou recentemente a suspensão de contas de usuários que estavam utilizando seu popular modelo de linguagem, o ChatGPT, para facilitar uma série de atividades cibercriminosas e operações de influência global. A medida destaca as crescentes preocupações sobre o potencial de ferramentas de IA serem instrumentalizadas para fins ilícitos, apresentando desafios significativos para o cenário jurídico, a segurança cibernética e a regulamentação.
Ameaças Habilitadas por IA em Diversas Frentes
Os grupos identificados pela OpenAI incluem agentes de ameaças com origens distintas:
- Atores de Língua Russa: Utilizaram o ChatGPT para auxiliar no desenvolvimento e aprimoramento de malware, como Trojans de Acesso Remoto (RATs) e ladrões de credenciais. Notavelmente, esses agentes contornaram as restrições da IA ao criar código em blocos, que eram posteriormente montados para formar fluxos de trabalho maliciosos. O uso se estendeu à prototipagem e solução de problemas de componentes técnicos para pós-exploração e roubo de credenciais.
- Cluster Norte-Coreano: Engajou-se no desenvolvimento de malware e em atividades de comando e controle (C2) utilizando a ferramenta. Desenvolveram extensões para macOS, configuraram servidores VPN do Windows e converteram extensões de navegador. A IA também foi empregada para redigir e-mails de phishing, experimentar serviços de nuvem, funções do GitHub e explorar técnicas de roubo de credenciais.
- Grupo Chinês (UNK_DropPitch/UTA0388): Utilizou o ChatGPT para gerar conteúdo para campanhas de phishing em múltiplos idiomas, auxiliar no desenvolvimento de ferramentas para acelerar tarefas rotineiras como execução remota e proteção de tráfego, e pesquisar sobre ferramentas de código aberto como nuclei e fscan.
Escopo Ampliado: Fraudes e Operações de Influência
O uso indevido do ChatGPT não se limitou ao desenvolvimento de malware. A OpenAI detalhou o bloqueio de contas envolvidas em:
- Operações de Fraude: Redes com origem provável no Camboja, Mianmar e Nigéria utilizaram a IA para tradução, redação de mensagens e criação de conteúdo para redes sociais visando golpes de investimento online.
- Vigilância e Análise de Dados: Indivíduos ligados a entidades governamentais chinesas buscaram auxílio da IA para vigiar minorias étnicas, como os Uyghurs, e analisar dados de plataformas de mídias sociais.
- Operações de Influência: Um ator de origem russa gerou conteúdo e vídeos para sites de mídia social, promovendo narrativas anti-Ucrânia e criticando o papel da França e dos EUA na África . Uma operação chinesa codinome "Nine—emdash Line" usou a IA para gerar conteúdo crítico sobre figuras políticas filipinas e ativistas de Hong Kong . Em outros casos, contas chinesas solicitaram informações sobre organizadores de petições na Mongólia e fontes de financiamento de contas críticas ao governo chinês, embora a OpenAI tenha afirmado que as respostas continham apenas informações publicamente disponíveis .
Táticas de Evasão e Implicações Jurídicas
Uma observação crucial é a tentativa de atores de ameaças em adaptar suas táticas para ocultar o uso de IA, como a remoção de travessões longos (–), que se tornaram um possível indicador de conteúdo gerado por IA. A estratégia demonstra a rápida adaptação dos cibercriminosos.
Para o setor jurídico, este cenário levanta questionamentos essenciais:
- Responsabilidade Legal: A atribuição de responsabilidade em crimes habilitados por IA é complexa. Definir a culpa de desenvolvedores de IA, usuários maliciosos ou plataformas que facilitam atividades ilícitas exige novas interpretações legais. A natureza distribuída e, por vezes, opaca dos modelos de IA pode complicar a atribuição de autoria e intenção em processos legais, exigindo novas abordagens forenses e interpretativas.
- Marco Regulatório: As leis existentes podem ser inadequadas para abordar a velocidade e a escala das ameaças impulsionadas por IA, necessitando de atualizações legislativas e novas regulamentações para criminalidade cibernética e segurança de IA .
- Privacidade e Vigilância: A capacidade da IA de processar e gerar informações em massa levanta preocupações sobre privacidade de dados, consentimento e o direito ao esquecimento, especialmente em contextos de vigilância aprimorada por IA.
- Segurança Nacional: O uso de IA para espionagem e operações de influência por atores estatais ou ligados a estados representa um desafio emergente para a soberania e a segurança de nações.
As ações da OpenAI sinalizam um esforço proativo para combater o uso indevido de suas tecnologias, mas também sublinham a necessidade contínua de vigilância, pesquisa em segurança de IA e colaboração entre empresas de tecnologia, governos e a comunidade jurídica para mitigar os riscos e garantir que o potencial da inteligência artificial seja utilizado para o benefício coletivo.
