Ouvidoria 0800 718 2048 | SAC 0800 200 6070 | Sinistros 0800 202 2042

Manchetes do Mercado

15 de fevereiro de 2024

Microsoft e OpenAI alertam sobre uso de IA em ataques cibernéticos

Compartilhe

A Microsoft, em colaboração com a OpenAI, alertou sobre a experimentação de atores patrocinados por estados-nação, associados à Rússia, Coreia do Norte, Irã e China, com inteligência artificial (IA) e modelos de linguagem de grande escala (LLMs) para complementar suas operações de ataque cibernético em andamento. O relatório publicado pelas duas organizações revelou que esforços feitos por cinco atores afiliados a estados que utilizaram seus serviços de IA para realizar atividades cibernéticas maliciosas foram interrompidos ao encerrar seus ativos e contas. Os LLMs, com seu suporte natural a linguagens, são atraentes para atores de ameaças focados em engenharia social e outras técnicas que dependem de comunicações falsas e enganosas, adaptadas aos empregos dos alvos, redes profissionais e outras relações.

Embora ataques significativos ou novos empregando LLMs ainda não tenham sido detectados, a exploração adversária de tecnologias de IA já ultrapassou várias fases da cadeia de ataque, como reconhecimento, assistência de codificação e desenvolvimento de malware. Os atores geralmente procuraram usar os serviços da OpenAI para consultar informações de código aberto, traduzir, encontrar erros de codificação e executar tarefas básicas de codificação.

Por exemplo, o grupo russo conhecido como APT28 usou suas ofertas para pesquisar protocolos de comunicação via satélite e tecnologia de imagem de radar, além de obter suporte com tarefas de script. A Microsoft também está formulando um conjunto de princípios para mitigar os riscos apresentados pelo uso malicioso de ferramentas e APIs de IA por ameaças persistentes avançadas (APTs) patrocinadas pelo estado, manipuladores persistentes avançados (APMs) e sindicatos de cibercriminosos, concebendo eficazes guardas e mecanismos de segurança em torno de seus modelos.

Fonte: BoletimSec

Publicado em: