Brasil entra na corrida global para regular IA e pode ser um dos pioneiros
Na primeira semana de maio, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou projeto de lei para instituir um marco legal da inteligência artificial. A proposta pode fazer com que o Brasil seja um dos primeiros a regular o uso da IA de forma ampla, num momento em que vários países lutam para impor limites à tecnologia.
Diante de um acirramento na corrida das big techs por produtos que usam IA, pesquisadores e especialistas têm alertado sobre os riscos embutidos nesses sistemas.
Até mesmo os padrinhos da tecnologia, como o ex-Google Geoffrey Hinton, vêm engrossando o coro dos que clamam por um controle maior do setor.
Ilustração de Carolina Daffara Ilustração em vermelho, preto e branco, mostra robô gigante abraçado ao prédio do Banespa, em SP, como o King Kong no filme. Os avisos sobre os perigos da inteligência artificial aumentaram com a popularização do ChatGPT, chatbot alimentado por IA generativa que surpreendeu usuários por sua capacidade de responder a perguntas complexas, imitar estilo de artistas famosos e criar conteúdos quase indistinguíveis do que um humano faria.
O ChatGPT tirou nota alta no Enem, montou carteiras de investimentos com boa rentabilidade e escreveu algumas centenas de colunas de jornal.
Ao mesmo tempo, levantou preocupações sobre segurança de dados, divulgação de conteúdos tendenciosos e discursos discriminatórios.
Entre a empolgação com a nova tecnologia e o medo das consequências, a corrida pela regulação da IA tem ganhado velocidade. Diversos países começaram -ou se apressaram- a desenhar leis que abordam desde questões éticas até aspectos como privacidade, direitos autorais e transparência de algoritmos.
Até o momento, não há nenhuma regulamentação transversal sobre IA aprovada no mundo. O que existe é uma pluralidade de normas setoriais, políticas públicas e iniciativas de incentivo que abordam o uso dessa tecnologia.
Segundo levantamento da Organização para Cooperação e Desenvolvimento Econômico (OCDE), existem mais de 800 iniciativas de políticas para lidar com a IA hoje, em 69 países. No entanto, as primeiras regulações detalhadas ainda estão em discussão -e o Brasil pode ser pioneiro nessa corrida.
A proposta do Senado, que agora será analisada nas comissões temáticas da Casa, foi discutida ao longo de nove meses por uma comissão de especialistas.
O texto traz diretrizes gerais para o desenvolvimento, implementação e uso responsável da IA a fim de proteger direitos fundamentais e garantir sistemas seguros e confiáveis.
O projeto de lei é baseado em três grandes eixos: 1) princípios e direitos dos afetados, 2) classificação de riscos e 3) supervisão e responsabilização. Além disso, prevê a criação de um órgão para unificar e fiscalizar o cumprimento das regras.
Miriam Wimmer, diretora da Autoridade Nacional de Proteção de Dados (ANPD), diz que, na última década, os fóruns internacionais se esforçaram em estabelecer princípios para o uso responsável na internet e da inteligência artificial.
Segundo ela, uma das recomendações mais importantes veio da OCDE, assinada inclusive pelo Brasil em 2019. “É um documento muito principiológico, com parâmetros gerais e que reforça a ideia da IA centrada no ser humano.”
Wimmer afirma que as primeiras regulações vinculantes estão surgindo agora e que o principal desafio é exatamente encontrar a medida certa entre obrigações concretas -passíveis de serem cobradas pelas autoridades- e dispositivos mais abstratos.
Nessa discussão, ela diz que o Brasil aparece como um dos países mais avançados, ao lado da União Europeia, que tem liderado a agenda há anos e deve ser a primeira a adotar um marco legal para limitar os excessos da inteligência artificial.
Desde 2021, o bloco discute a Lei de Inteligência Artificial, na sigla em inglês (AIA), cujo projeto foi aprovado nesta quinta (11) pelo Parlamento Europeu e agora segue para uma fase de negociações com cada país-membro.
Entre as preocupações centrais da iniciativa estão a difusão de conteúdos perigosos, a manipulação da opinião pública mediante conteúdos falsos e sistemas de vigilância em massa.
A AIA propõe uma avaliação de risco a partir de três categorias. A primeira inclui os sistemas de “risco inaceitável”, que serão banidos e enquadram desde aplicativos que atribuem pontuação a pessoas (social scoring) até serviços que podem incentivar comportamentos de destruição.
A segunda categoria são os sistemas de “alto risco” -como ferramentas para classificar candidatos para vagas de emprego, além de tecnologias para infraestrutura e educação–, que estarão sujeitos a regras específicas. Por fim, entram os aplicativos não listados como perigosos, que serão deixados sem regulamentação.
Wimmer destaca diferenças entre as propostas europeia e brasileira. Segundo ela, a da UE é baseada muito na ideia de certificação de segurança de produtos. Já a abordagem brasileira coloca mais peso na proteção de direitos.
A diretora da ANPD destaca que não se trata de uma incompatibilidade entre os modelos, mas uma diferença de ênfase.
A AIA, por exemplo, se esforça para designar organismos responsáveis por avaliação de conformidade e fiscalização dos produtos colocados no mercado interno. Segundo ela, isso não está tão presente no modelo brasileiro, que já começa falando sobre direitos digitais –muito em função do histórico recente do Brasil em discutir esse tema.
“O próprio 1º artigo coloca como objetivo desta proposta legislativa a proteção dos direitos fundamentais e a garantia de sistemas seguros e confiáveis”, diz. “Me parece que são olhares um pouco diferentes”, acrescenta.
Ronaldo Lemos, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro e colunista da Folha, pondera que o projeto brasileiro foi feito antes do surgimento dos grandes modelos como o ChatGPT e, por isso, já nasce datado.
Ele ainda destaca outros pontos de atenção, como um possível ônus para quem desenvolve inteligência artificial no Brasil, o que pode acabar favorecendo que o país seja mais consumidor do que produtor de IA.
“O desafio do Brasil com inteligência artificial é duplo: devemos estar atentos para os problemas que a IA pode trazer, mas precisamos também criar incentivos para que essa tecnologia possa ser desenvolvida de forma competitiva localmente”, afirma.
A jurista Laura Schertel, que foi a relatora da comissão de especialistas que elaborou o marco brasileiro, discorda das críticas.
Sobre o projeto já nascer datado, ela diz que toda regulação lida com o risco de que as tecnologias avancem, mas afirma ser possível enfrentar esse desafio por meio de normas mais gerais. Além disso, ela destaca que o projeto possui dispositivos que compreendem tecnologias como ChatGPT.
“Não estamos regulando um típico específico de IA, mas aplicações e impactos”, afirma. “Acho que vamos precisar de outras regulações que lidem com incentivos a pesquisa científicas e concorrência. Não conseguimos, com um único projeto de lei, lidar com todos os grandes desafios que a IA coloca.”.
China avança a passos largos
Tanto Schertel quanto Lemos concordam que o país mais avançado em medidas legislativas é a China.
Nas últimas semanas, a Administração do Ciberespaço da China criou uma série de diretrizes que se aplicam aos grandes modelos de linguagem como o ChatGPT e à IA generativa de modo geral.
Entre as regras, está a determinação de que os modelos sejam treinados com dados precisos, e que não possam gerar discriminação entre os usuários.
Além de incentivar os modelos locais, o regime chinês criou um registro obrigatório de algoritmos.
Segundo o projeto, os conteúdos gerados pela IA ainda devem “refletir os valores socialistas fundamentais e não devem apresentar conteúdo relacionado à subversão do poder do Estado”. Também não devem conter propaganda terrorista ou extremista, ódio étnico ou outros conteúdos que possam perturbar a ordem econômica e social.
Pequim está atenta aos avanços do ChatGPT e, pouco após seu lançamento, proibiu o uso do app. Recentemente, o país fez sua primeira prisão ligada ao uso da IA. Segundo a polícia, um homem confessou ter usado o ChatGPT para criar fake news.
EUA apostam em princípios em vez de regulação.
Nos Estados Unidos, o governo de Joe Biden publicou uma ampla orientação para o uso seguro de IA, após ser pressionado para monitorar o desenvolvimento da tecnologia.
Em reunião com CEOs do Vale do Silício, a Casa Branca pediu limites à inteligência artificial, numa demonstração pública de que o governo está preocupado com o assunto.
A proposta americana não é exatamente uma regulamentação, mas uma série de princípios a serem aplicados por órgãos da administração pública, como proteção contra discriminação algorítimica, garantia de intervenção humana nos processos, e segurança dos sistemas.
Para os especialistas, a regulação de IA está apenas começando no mundo. Embora haja disposições que se aplicam à tecnologia, ainda é raro encontrar uma lei abrangente tratando do tema.
Apesar do momento incipiente, Schertel diz que há consenso sobre a necessidade de criar propostas robustas para lidar com impactos concretos da IA na vida das pessoas.
“Não é ficção científica, são impactos imediatos. Dados equivocados, resultados discriminatórios, pessoas que podem não ter acesso a crédito ou eventualmente serem denunciadas de forma equivocada no sistema criminal. [Esses] São riscos imediatos que não podemos falhar na tarefa de mitigá-los.”
Fonte: Diário do Comércio
Publicado em: Variedades