# OpenAI lança relatório detalhando como atores maliciosos combinam IA com sites e redes sociais

A OpenAI publicou um relatório abrangente que examina como agentes mal-intencionados estão utilizando modelos de inteligência artificial em conjunto com websites e plataformas de redes sociais para realizar operações de influência e cibercrime. O documento, intitulado "Disrupting the Malicious Uses of AI" (Interrompendo os Usos Maliciosos de IA), oferece uma visão rara sobre como a empresa monitora e mitiga o uso prejudicial de suas tecnologias por maus atores na internet.

## Mais de 20 operações de influência estrangeira desarticuladas

PUBLICIDADE

Segundo o relatório, a OpenAI revelou que desarticulou mais de 20 operações e redes ao longo do último ano, originadas de atores estrangeiros que tentaram usar as tecnologias de IA generativa da empresa para influenciar sentimentos políticos ao redor do mundo e interferir em eleições, incluindo as eleições norte-americanas.

Em alguns casos, os atores tentaram utilizar o ChatGPT e outras ferramentas da OpenAI para analisar e gerar conteúdo para redes sociais, criando artigos falsos para websites, depurando malware, escrevendo biografias e realizando uma série de outras tarefas que apoiam esforços de influência online.

## Ferramentas de IA aceleram a detecção de ameaças

O relatório também detalha como a OpenAI expandiu suas capacidades de detecção de ameaças ao longo do último ano, especificamente construindo um conjunto de novas ferramentas alimentadas por inteligência artificial que, segundo a empresa, reduziram o tempo gasto em algumas tarefas analíticas de "dias para minutos".

Os analistas de ameaças da OpenAI acreditam que as ferramentas de IA agora estão em uma interseção crítica para muitas operações de influência, oferecendo aos provedores potencialmente insights únicos sobre operações em andamento.

## Casos concretos de uso malicioso

O documento apresenta diversos estudos de caso que ilustram a amplitude do problema. Um deles envolve uma operação vinculada ao Irã, onde a OpenAI proibiu cinco contas do ChatGPT que geraram um pequeno número de tweets e artigos que foram publicados em ativos de terceiros publicamente vinculados a operações de influência iraniana conhecidas.

Outro caso detallado no relatório envolve uma operação que visava questões nas Filipinas, Vietnã, Hong Kong e Estados Unidos,Originada da China, que usava os modelos da empresa para gerar conteúdo para uma operação de influência encoberta entre plataformas.

A empresa também identificou desenvolvedores de malware russos que tentaram usar o ChatGPT para ajudar a desenvolver e refinar malware, incluindo cavalos de Troia de acesso remoto, roubos de credenciais e funcionalidades para evadir detecção.

## Equipe dedicada à interrupção de ameaças

O relatório señala que a equipe de interrupção de ameaças da OpenAI, lançada formalmente em 2024, trabalha para identificar esses casos de uso em tempo real e desativar contas, fortalecer as salvaguardas dos modelos e compartilhar descobertas com aplicação da lei, indústria e grupos da sociedade civil.

Embora o relatório ofereça apenas uma fatia estreita do cenário de ameaças, ele sinaliza uma crescente disposição da empresa em tratar a segurança e a prevenção de misuse como partes essenciais de sua estratégia de implantação de IA.