ChatGPT corrige vulnerabilidade crítica que permitia exfiltração contínua de dados
Um problema crítico de segurança foi recentemente corrigido no aplicativo ChatGPT para macOS, que poderia ter permitido a instalação de spyware persistente, apelidado de SpAIware, na memória da ferramenta de IA. O pesquisador Johann Rehberger identificou a vulnerabilidade, que poderia facilitar a exfiltração contínua de dados digitados pelos usuários ou recebidos nas respostas do ChatGPT.
Como o ataque funcionava
A falha estava diretamente ligada ao recurso de memória do ChatGPT, que armazena informações entre conversas para uma experiência de uso contínua. Esse recurso, introduzido em fevereiro de 2024, foi amplamente adotado nas versões Free, Plus, Team e Enterprise. No entanto, atacantes podiam explorar essa funcionalidade para inserir instruções maliciosas que permaneciam entre conversas, permitindo que dados confidenciais fossem transmitidos secretamente para servidores sob controle de criminosos.
O ataque era particularmente preocupante, pois poderia ser iniciado em cenários onde o usuário fosse induzido a visitar sites maliciosos ou abrir documentos comprometidos. Esses arquivos, ao serem analisados no ChatGPT, atualizavam a memória da IA com comandos prejudiciais. A partir disso, todas as interações futuras do usuário poderiam ser enviadas a um servidor adversário.
Correção do problema
A OpenAI lançou a versão 1.2024.247 do ChatGPT, resolvendo a falha e garantindo que a exfiltração de dados não fosse mais possível. Rehberger recomendou que os usuários façam uma revisão periódica das memórias armazenadas pelo ChatGPT para evitar a presença de informações suspeitas ou incorretas.
Essa correção ocorreu paralelamente à descoberta de uma nova técnica de jailbreaking de IA, conhecida como MathPrompt, que usa a habilidade de resolver problemas matemáticos para contornar os mecanismos de segurança de modelos de linguagem.
Fonte: BoletimSec