2022 promete trazer grandes mudanças na regulamentação da IA

Crédito: Fast Company Brasil

Fast Company Brasil 12 minutos de leitura

Depois de tantas notícias terem servido como alerta sobre os perigos da inteligência artificial – e depois de muitas delas terem se tornado virais – é de se imaginar que os governos das potências mundiais estejam há algum tempo se preparando para definir regras básicas para o uso de IA. Para nós que estamos diretamente envolvidos nesses esforços, a cada duas semanas de 2021 parecia haver mais órgãos oficiais estipulando novas exigências e padrões para o tema. Os ‘Requests for Information’, que são processos formais de coleta de informações dos possíveis fornecedores de um bem ou serviço, também se tornaram muito mais frequentes na realização de grandes compras de TI. Tudo isso é sinal de que uma nova e importante transformação está por vir. 

Pode até ser verdade que 2021 foi um grande ano para a regulação da IA. Mas, se minhas impressões estiverem certas, 2022 será ainda mais importante. Quais serão os caminhos da governança algorítmica em 2022?

OS EUA CONTINUARÃO A IMPULSIONAR PADRÕES E ESTRUTURAS VOLUNTÁRIOS, APESAR DAS EVIDÊNCIAS CLARAS DE QUE ISSO NÃO FUNCIONA

Órgãos que estabelecem padrões, como o National Institute of Standards and Technologies (NIST) e o Institute of Electrical and Electronics Engineers (IEEE), têm solicitado informações, lido comentários e elaborado propostas de códigos de conduta e de estruturas voluntárias para mitigar riscos e erradicar a discriminação na IA. O impulso para a autorregulação é inevitável, e pode-se dizer que os marcos voluntários são um primeiro passo importante.

Mas, internacionalmente, esforços semelhantes têm perdido força. No mês passado, a UNESCO (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) lançou o primeiro acordo global sobre os Princípios de IA, com a assinatura de 193 estados membros. Essa estrutura, que é totalmente sem provisões para sua execução, proíbe coisas como a pontuação de crédito social ou a vigilância generalizada. Por isso, surpreendeu a muitos que esses mesmos Princípios de IA também tenham sido adotados pela China, cujas práticas têm violado o acordo. Essa hipocrisia do Partido Comunista da China foi mais uma evidência clara das limitações dos códigos de conduta como um instrumento de defesa dos direitos humanos. Em 2022, é altamente provável que essa tendência continue, com organizações privadas mexendo os seus pauzinhos para influenciar a autorregulação.

2. GOVERNOS DE TODO O MUNDO (EXCETO O DOS EUA, TALVEZ) APROVARÃO LEIS NACIONAIS DE GOVERNANÇA ALGORÍTMICA

Os EUA ficaram significativamente atrás do resto do mundo no combate à segurança da IA ​​em nível federal, com cada estado estipulando seus próprios códigos. Em setembro, a China divulgou projetos de leis favorecendo a aplicação da Inteligência Artificial para aumentar a transparência algorítmica e para garantir a disseminação online de conteúdo online pró-PCC, por exemplo. Outras nações, como Cingapura, estão muito à frente nesse quesito, emitindo e atualizando desde 2019 estruturas voluntárias que fornecem um excelente ponto de partida para adicionar limites mais firmes. Ainda outras nações, como o Japão, emitiram relatórios e estratégias nacionais, sinalizando que as deliberações estão ocorrendo, e que regras mais claras estão despontando no horizonte.

Com tantas abordagens diferentes a respeito de um mesmo problema, é difícil dizer se essas regras terão um impacto direto na economia dos EUA, mas elas certamente ocasionarão embates entre os que defenderão a privacidade e os que alegarão que a inovação está sendo sufocada pelo excesso de regras.  Perturbações significativas para os mercados dos EUA permanecem improváveis ​​por enquanto, com uma exceção gritante.

3. A LEI DA IA VAI SER ADOTADA PELA UE, E A MAIORIA DAS EMPRESAS DO MUNDO TERÁ QUE CUMPRI-LA

Com seu histórico de colaboração multissetorial, a União Europeia está pronta para “definir o padrão” de regulamentação de IA para o resto do mundo. É um fenômeno parecido com o que aconteceu no caso da Lei Geral de Proteção de Dados (GDPR): diversos países de fora da Europa e diversos estados dos EUA que buscavam proteções semelhantes simplesmente copiaram, em suas próprias jurisdições, a maioria das disposições da lei da UE. 

O GDPR (e o AI Act) tiveram sérias implicações para as empresas dos EUA, uma vez que essas regras se aplicam a qualquer tecnologia que seus cidadãos usem, mesmo que a empresa opere de outro lugar. A Lei de IA também abre margem para mais complicações, uma vez que o esclarecimento, as orientações e a aplicação de algumas partes da lei caberão aos estados membros. Esse problema de “divergência regulatória”, que já é um grande dreno para os departamentos de compliance, está prestes a piorar.

4. OS CONTROLES DE IMPORTAÇÃO DE IA FICARÃO MAIS RÍGIDOS

Recentemente, a administração Biden deu um golpe no mercado internacional de vigilância, quando adicionou o notório grupo israelense NOS Group Technologies à lista proibida de fornecedores de tecnologias aceitáveis ​​para compra, levando à renúncia imediata do novo CEO da empresa. As notícias da opressão impulsionada pela IA nos últimos anos receberam enorme escrutínio bipartidário, principalmente contra a China, por sua opressão aos muçulmanos uigures em Xinjiang. Se as tensões internacionais escalonarem, esperamos ver mais retaliação econômica de ambos os lados, à medida que os EUA se organizam para impedir que suas pesquisas e inovações sejam usadas contra minorias ao redor do mundo.

5. ATIVISTAS PRESSIONARÃO OS TRIBUNAIS PARA GARANTIR AS LIBERDADES CIVIS AMERICANAS E PARA COIBIR A DISCRIMINAÇÃO 

Especialistas dizem há muito tempo, com alguma razão, que já existem leis para impedir a discriminação algorítmica nos EUA. Embora isso seja verdade, ainda não houve uma explosão de ações judiciais contra o uso de IA. Isso se deve em grande parte à falta de acesso a dados e a códigos os quais os promotores e as minorias afetadas precisariam apresentar em qualquer caso que fosse levado a juízo. No ano passado, houve a primeira decisão regulatória sobre um produto baseado em IA, acusado de discriminação no setor financeiro. O Departamento de Serviços Financeiros de Nova York (DFS) concluiu sua investigação com um apelo surpreendente aos reguladores federais para que atualizem as leis vigentes, que estão muito obsoletas. Já a investigação contra o United Healthcare Group, contra a discriminação intensificada por um algoritmo de gerenciamento hospitalar, também careceu de atualizações significativas. Mas é provável que a situação caminhe esse ano: pode haver uma ação civil movida em nome da lei antidiscriminação, ou uma tomada de consciência de que a lei vigente ainda é insuficiente para o cidadão fazer uma reclamação.

Enquanto isso, leis estaduais pouco conhecidas, como a Lei de Privacidade de Informações Biométricas de Illinois (BIPA) de 2008, tornaram a situação mais propícia para litígios conclamados por ativistas. Surgiram vários casos contra tecnologias de vigilância intrusivas, como as vendidas pela Clearview AI nos EUA, enquanto os reguladores internacionais estão trabalhando duro para suspender e multar essa empresa em suas próprias jurisdições. Como esses casos foram bastante bem-sucedidos, as empresas devem combinar dados biométricos com IA apenas por sua conta e risco.

6. MEMBROS DO CONGRESSO TENTARÃO (MAIS UMA VEZ) APROVAR UMA LEGISLAÇÃO FEDERAL 

Tenho escutado rumores de que alguns trechos da legislação já estão no forno. De fato, a Lei de Responsabilidade Algorítmica de 2019, patrocinada por Yvette Clarke, Ron Wyden e muitos outros, deve ser reintroduzida na pauta, mas com muito mais detalhes, nas próximas semanas. Se aprovada, ela exigirá que as empresas criem avaliações de impacto anuais e que as compartilhem diretamente com a Federal Trade Commission (FTC), criando uma nova transparência sobre quando e como os sistemas automatizados são usados. É quase certo que veremos a FTC desempenhar um papel importante na regulação dos algoritmos dos EUA.

Também esperamos ver propostas de novos projetos de lei que inibam a discriminação algorítmica e o abuso na aplicação dos dados. Se a história for um indicador, é uma suposição razoável que essas leis de proteção se concentrem em segmentos estreitos da população, para os quais as proteções têm apelo em massa (como, por exemplo, as crianças e as pessoas com deficiências). Qualquer legislação proposta terá uma batalha difícil pela frente no Congresso dos EUA, mas com uma maioria democrata até pelo menos 2022, certamente há esperança!

7. AS JURISDIÇÕES LOCAIS NÃO AGUARDARÃO O CONGRESSO, MAS APROVARÃO SUAS PRÓPRIAS LEIS DE CONTROLE ALGORÍTMICO

No ano passado, surgiu a primeira legislação de auditoria de IA dos EUA em nível local, quando o Conselho da Cidade de Nova York aprovou o Int. 1894 com uma esmagadora maioria. A lei reafirma a proteção aos moradores contra o chamado impacto díspar do emprego, ou a discriminação não intencional contra grupos protegidos como raça, gênero e idade. Essa lei é uma das versões mais diluídas das proteções contra discriminação algorítmica que provavelmente ainda veremos, mas é uma confirmação retumbante de que o “impacto díspar” será a doutrina legal que rege essas propostas. A legislação, que passou passivamente em lei no mês passado, exigiria que as empresas buscassem especialistas externos para suas auditorias algorítmicas. Ainda é uma questão em aberto se essa disposição aparecerá em tentativas futuras.

Por exemplo, na semana passada, o Procurador-Geral do Distrito de Columbia propôs seu próprio projeto de lei em colaboração com a sociedade civil para proteger os moradores contra os mesmos tipos de problemas. O projeto de lei muito mais abrangente, ‘Stop Discrimination by Algorithms Act’ (SDAA), não exigiria escrutínio de terceiros. Em vez disso, exigiria a apresentação, diretamente ao governo, de avaliações de impacto de IA, para que esse impacto seja revisado. O projeto se aplica a algoritmos usados ​​em “educação, emprego, habitação e acomodações públicas, incluindo crédito, saúde e seguro”, novamente citando “impacto diferenciado” como a doutrina legal por trás da aplicação da lei. Curiosamente, o SDAA também estenderia a necessidade central de conformidade financeira para “relatórios de ações adversas” para novos setores fora das finanças. Vários estados e cidades estão tendo conversas semelhantes, e devemos esperar que muitas dessas propostas populares sejam bem-sucedidas.

8. OS REGULADORES FEDERAIS DOS EUA USARÃO SEU PODER PARA ATUALIZAR AS LEIS EXISTENTES PARA A ERA DA APRENDIZAGEM DE MÁQUINA

A Food and Drug Administration (FDA), entidade responsável pela regulação dos setores de alimentos e remédios dos EUA, seguirá sua própria jornada em direção a novas regras sobre dispositivos médicos com inteligência artificial, com uma exceção que descreveremos em outra previsão abaixo. No caso da FDA, a  Request For Information remonta a 2019 e já evoluiu para um plano de ação, traçando cinco etapas que a agência planeja realizar. Mas RFIs semelhantes em outras categorias também foram lançadas em 2021, com esforços em andamento no EEOC, OCC, FDIC, na Federal Reserve, CFPB e NCUA.

Essa orientação será fundamental para as empresas, pois tem o potencial de esclarecer muitas questões complicadas sobre o uso de IA em saúde, emprego e finanças.

Alguns dos problemas sobre os quais esperamos esclarecimento são:

Podemos usar modelos de caixa preta para categorias de alto risco se eles funcionarem melhor?

As explicações post hoc contam para a notificação de ações adversas?

Não existem maneiras melhores de inferir ou coletar dados demográficos protegidos de nossos usuários?

Que definições de justiça são as corretas para adotarmos como referência?

O que o “monitoramento”, exigido pelos reguladores bancários pelo SR 11-7, significa na prática?

Precisamos contratar auditores terceirizados para a validação do modelo de IA?

Quais fontes de dados podem ser usadas, e quais são proibidas?

Alguns desses questionamentos levarão um bom tempo para serem totalmente trabalhados e levarem a um consenso, mas um movimento significativo em 2022 está praticamente garantido. Como também é garantido que a Comissão Federal de Comércio será um participante significativo na supervisão algorítmica.

9. A COMISSÃO FEDERAL DE COMÉRCIO ESTABELECERÁ NOVAS REGRAS QUE SE APLICARÃO À MAIOR PARTE DA VENDA DE IA PARA O CONSUMIDOR

Os defensores das regras de supervisão da IA ​​discutem há muito tempo a Comissão Federal de Comércio como o regulador mais apropriado (e capacitado) para assumir a luta pelos direitos dos consumidores. Com amplos poderes de regulamentação e com uma equipe progressiva e especializada, o item da agenda de fevereiro de 2022 da FTC sinaliza que a mudança está chegando, e rapidamente. Este será um ponto a ser observado, pois não está claro se em fevereiro simplesmente será aberto um período de comentários públicos ou se eles já têm regras preliminares em mente.

10. O ESCRITÓRIO DA CASA BRANCA DE POLÍTICAS DE CIÊNCIA E TECNOLOGIA PUBLICARÁ A PRIMEIRA DECLARAÇÃO DE DIREITOS ALGORITMAIS DA NAÇÃO

A promoção ponderada da administração Biden do Gabinete de Políticas para Ciência e Tecnologia da Casa Branca (OSTP, na sigla em inglês) nos trará um conjunto histórico de direitos para governar a IA na prática. Com especialistas de renome mundial, e com a Dra. Alondra Nelson no comando, isso será algo a ser observado de perto. A solicitação de informações para esta iniciativa está em andamento até 15 de janeiro, e provavelmente será um dos esforços mais progressivos e abrangentes até o momento. Esperamos ver disposições altamente protetoras e informadas por especialistas, como aquelas que exigiriam a notificação e a agência do consumidor sobre a escolha algorítmica para toda e qualquer aplicação de IA. Se for bem-feito, esse esforço pode estabelecer a própria definição do que significa ter “IA Responsável” nos EUA.

Com toda essa atividade, não é de admirar que as empresas inteligentes estejam tomando medidas para preparar suas próprias práticas para o futuro em torno de uma IA ​​justa e equitativa. O custo de conformidade com esse ambiente regulatório em evolução e fragmentado certamente será significativo, mas as empresas podem se antecipar, se comprometendo com auditorias regulares com profissionais que entendam completamente o cenário. Infelizmente, muitas empresas americanas demoraram a adotar estruturas de IA Responsável. Mas janeiro traz a promessa de um novo ano, que deve estabalecer um jogo totalmente novo.


SOBRE O(A) AUTOR(A)

Fast Company é a marca líder mundial em mídia de negócios, com foco editorial em inovação, tecnologia, liderança, ideias para mudar o ... saiba mais