Modelos de IA maliciosos são vendidos em mercados clandestinos
Entre abril e setembro de 2024, pesquisadores da Universidade de Indiana identificaram 212 Modelos de Linguagem de Grande Escala (LLMs) maliciosos sendo vendidos em mercados clandestinos. Um dos destaques foi o WormGPT, que gerou aproximadamente US$ 28.000 em apenas dois meses. Esses LLMs ilegais, apelidados de “Mallas”, são construídos, em grande parte, a partir de padrões de código aberto e até de versões comerciais que foram “jailbreaked”. Eles são utilizados para automatizar atividades como a criação de e-mails de phishing, desenvolvimento de malware e exploração de vulnerabilidades zero-day.
Ameaças Tecnológicas e Exploração Criminosa
Empresas de tecnologia como OpenAI, Meta, Google e Anthropic implementaram mecanismos para evitar o jailbreaking de seus modelos. No entanto, hackers têm encontrado maneiras de burlar essas proteções. A Microsoft relatou o uso de uma “chave mestra” para forçar os LLMs a responderem a solicitações ilícitas. Além disso, pesquisadores da Robust Intelligence e da Universidade de Yale descobriram um método automatizado de jailbreak que não requer conhecimento técnico profundo, facilitando ainda mais a exploração desses sistemas.
Modelos Maliciosos em Destaque
Entre os LLMs maliciosos identificados, destacam-se o DarkGPT e o Escape GPT. O DarkGPT, por exemplo, custa apenas 78 centavos por 50 mensagens e consegue gerar códigos maliciosos que passam despercebidos por ferramentas antivírus em cerca de dois terços dos casos. Já o Escape GPT, oferecido por assinatura de US$ 64,98 ao mês, também mostrou eficiência em escapar de detectores de spam e ferramentas de segurança. Outro modelo notável, o WolfGPT, vendido por US$ 150, foca na criação de e-mails de phishing altamente eficazes.
Impactos e Alvos Preferidos
A OpenAI foi um dos principais alvos para o desenvolvimento desses LLMs maliciosos, especialmente com base nos sistemas GPT-3.5 e GPT-4, além de outros modelos como Pygmalion-13B e Claude-2-100k. Esses modelos representam uma ameaça crescente, destacando a necessidade de aprimoramento contínuo das proteções e políticas de segurança para a inteligência artificial.
Fonte: BoletimSec