Google lança estrutura para proteger IA generativa
A IA generativa está avançando rapidamente, assim como as formas criativas que as pessoas encontram para usá-la de forma maliciosa. Muitos governos estão tentando acelerar seus planos de regulamentação para mitigar o risco de uso indevido da IA. Enquanto isso, alguns desenvolvedores de IA generativa estão analisando como podem ajudar a proteger seus modelos e serviços.
O Google, proprietário do chatbot de IA generativo Bard e empresa controladora do laboratório de pesquisa de IA DeepMind, apresentou seu Secure AI Framework (SAIF) em 8 de junho de 2023. O SAIF foi definido para ser “uma estrutura conceitual ousada e responsável para ajudar a proteger a tecnologia de IA de forma colaborativa”, escreveram Royal Hansen, vice-presidente de engenharia para privacidade, segurança e proteção do Google, e Phil Venables, CISO do Google Cloud, em um lançamento de papel.
O esforço se baseia na experiência do Google no desenvolvimento de modelos de segurança cibernética, como a estrutura colaborativa de níveis de cadeia de suprimentos para artefatos de software (SLSA) e BeyondCorp, sua arquitetura de Zero Trust usada por muitas organizações. Especificamente, o SAIF é “um primeiro passo” projetado para ajudar a mitigar riscos específicos de sistemas de IA, como roubo do modelo, envenenamento de dados dos dados de treinamento, entradas maliciosas por meio de injeção imediata e extração de informações confidenciais nos dados de treinamento.
Fonte: BoletimSec
Publicado em: Cybersegurança