OKBR assina carta aberta em defesa de uma legislação brasileira de IA que proteja direitos

26 jul de 2024, por OKBR

Compartilhar

A carta da Coalizão Direitos na Rede faz uma defesa crítica do PL 2338/2023, que regulamenta o uso da Inteligência Artificial (IA) no Brasil

 

“No Brasil, é urgente uma abordagem embasada em direitos humanos para a regulamentação dos Sistemas de Inteligência Artificial.”

É dessa forma que começa a carta aberta redigida pela Coalizão Direitos na Rede (CDR) para o Senado Federal e para toda a sociedade brasileira, no âmbito da discussão do Projeto de Lei 2338/23, que regulamenta o uso da Inteligência Artificial (IA) no Brasil. A Open Knowledge Brasil (OKBR) assina a carta.

Datada do dia 08 de julho de 2024, o documento tem como objetivo mostrar que essa regulação precisa ter como base a defesa dos direitos da população brasileira. 

O texto desmascara mitos e narrativas falaciosas, como a de que a regulamentação pode impedir a inovação tecnológica no país, detalha as mudanças realizadas no texto do Projeto ao longo dos últimos dois meses, e aponta pontos de melhoria que precisam ser discutidos.

“Para garantir que os sistemas de IA promovam inovação baseada em direitos humanos, na ética e na responsabilidade, é fundamental estabelecer regras mínimas para salvaguardar os direitos dos indivíduos afetados, as obrigações dos agentes de IA, as medidas de governança e a definição de um quadro regulamentar de supervisão e transparência. Isto não impede o desenvolvimento e a inovação; pelo contrário, uma regulamentação eficaz que proteja os direitos é uma condição indispensável para o florescimento de produtos e serviços de IA responsáveis ​​que melhorem o potencial humano e o Estado de direito democrático.

Leia a carta na íntegra abaixo.

Para assiná-la, clique aqui.


Brasília, 8 de Julho de 2024

No Brasil, é urgente uma abordagem embasada em direitos humanos para a regulamentação dos Sistemas de Inteligência Artificial.

É inegável que os sistemas de inteligência artificial (IA) podem proporcionar inúmeros benefícios à sociedade, nomeadamente na promoção dos 17 Objetivos de Desenvolvimento Sustentável (ODS) da ONU.

No entanto, a falta de regras vinculativas para regular o desenvolvimento, a implementação e a utilização da IA ​​tem um enorme potencial para exacerbar riscos conhecidos e evitáveis. A IA, de um lado,  já facilita algumas atividades e, de outro, também gera danos e violações concretos, ao reforçar práticas discriminatórias, excluir grupos historicamente marginalizados do acesso a bens e serviços essenciais, apoiar a desinformação, minar processos democráticos, incrementar a vigilância, exacerbar as alterações climáticas, acelerar o epistemicídio de indígenas e línguas e culturas locais, e intensificando a insegurança no emprego.

Para garantir que os sistemas de IA promovam inovação baseada em direitos humanos, na ética e na responsabilidade, é fundamental estabelecer regras mínimas para salvaguardar os direitos dos indivíduos afetados, as obrigações dos agentes de IA, as medidas de governança e a definição de um quadro regulamentar de supervisão e transparência. Isto não impede o desenvolvimento e a inovação; pelo contrário, uma regulamentação eficaz que proteja os direitos é uma condição indispensável para o florescimento de produtos e serviços de IA responsáveis ​​que melhorem o potencial humano e o Estado de direito democrático.

O Projeto de Lei 2338/2023, que se centra nos riscos e nos direitos, é um bom guia para a regulação da IA, tendo em conta o cenário internacional. Embora ainda haja espaço para melhorias, como mostramos a seguir, esta abordagem facilitaria o diálogo entre as legislações dos diferentes países (interoperabilidade/convergência regulatória), reduzindo o esforço das organizações para se adaptarem ao contexto brasileiro. Além disso, a regulamentação da IA ​​baseada em direitos e atenta aos seus riscos ajudaria a posicionar o Brasil como pioneiro no fornecimento e adoção de tecnologias responsáveis.

Desmascarando mitos e falsas soluções: a regulamentação como motor da inovação responsável e do desenvolvimento económico inclusivo

Os atores que se opõem à regulamentação abrangente da IA ​​no Brasil são precisamente aqueles que se beneficiam desta situação não regulamentada, criando argumentos e narrativas que não se sustentam na prática.

1. Regulamentação vs. Inovação → Não há conflito entre regulação e inovação; ambos podem e devem coexistir, como se vê no Código Brasileiro de Defesa do Consumidor e na Lei Geral de Proteção de Dados. Além disso, a regulação dos sistemas de IA baseada em riscos/direitos permite a promoção da inovação responsável, fomentando o desenvolvimento econômico, tecnológico e social que dá prioridade ao bem-estar e à promoção dos direitos fundamentais. Nesse sentido, a Academia Brasileira de Ciências publicou um relatório sobre a regulamentação da IA, confirmando que estimular a indústria nacional de IA e proteger os direitos fundamentais são agendas perfeitamente compatíveis.

2. “Aumento da necessidade de diálogo” → A sociedade civil tem defendido um diálogo mais inclusivo e sistemático. Contudo, aqueles que são contrários a uma regulamentação prescritiva utilizam o mesmo argumento para prejudicar e abrandar o processo legislativo. Atrasar a adoção de uma regulamentação responsável permite o desenvolvimento e a implementação contínuos de tecnologias de risco.

3.Tecnologia desconhecida → O argumento de que a IA é inerentemente perturbadora e incontrolável para fins regulatórios não se sustenta porque (a) os estudos sobre o tema, tanto na academia quanto no setor privado, acumulam oito décadas de experimentação e análise de impactos sociais; (b) Os agentes de IA, especialmente os desenvolvedores, têm agência na tomada de decisões sobre a concepção, desenvolvimento e implementação de tecnologia, incluindo a opção de não implementá-la se mecanismos de transparência, controle de qualidade e responsabilidade são considerados inadequados.

Além de argumentos e narrativas falaciosas, há uma forte mobilização dos setores produtivos e das empresas de tecnologia para impedir a votação do Projeto de Lei, seja por meio da imposição de uma enxurrada de emendas de última hora, de pedidos de audiências públicas, ou de lobby direto junto aos parlamentares. O lobby da indústria é enorme, incluindo  viagens internacionais e eventos privados organizados por big techs para os senadores mais envolvidos no debate.

Após um lobby bem-sucedido para adiar a votação do projeto, uma nova rodada de audiências públicas foi convocada. O primeiro pedido de indicação de nomes para as audiências incluía apenas indivíduos do setor privado, composto basicamente por homens brancos do sudeste do país, desconsiderando outros setores, especialmente a sociedade civil, bem como marcadores sociais de raça, gênero e território. Coube à sociedade civil lutar pela inclusão de alguns dos seus representantes.

Nestas últimas audiências, representantes do setor privado insistiram no argumento (falacioso) de que a regulamentação da IA ​​no Brasil impediria a inovação no país, sendo um custo enorme para startups e pequenas e médias empresas, em favor da inovação a qualquer custo (inclusive em detrimento de direitos fundamentais básicos) – posição esta que desconsidera o capítulo específico sobre estímulo à inovação e ao crescimento dessas empresas, inclusive com obrigações mais brandas e proporcionais. Houve também a utilização de argumentos sem base lógica ou jurídica relacionados à censura, como a comparação da avaliação preliminar dos sistemas de IA (cujo objetivo é apenas verificar o grau de risco de um determinado sistema de IA) com uma potencial censura prévia dos desenvolvedores.

Com a aproximação da votação do projeto pela CTIA (que já foi impedida pelo lobby privado em mais de um momento), observou-se a intensificação da utilização das redes, especialmente a plataforma X, para disseminação de conteúdo inverídico sobre o PL 2338, classificando-o como “PL da censura” e associando a classificação de risco ou medidas de governança à estratégias políticas do governo. Esta estratégia de relacionar projetos de lei que conferem obrigações legítimas de governança à plataformas com  censura já foi observado em outros momentos, como no curso do processo legislativo do PL 2630/2020.

Cenário Regulatório Brasileiro: Junho–Julho de 2024

Como trabalho final da Comissão Temporária de Inteligência Artificial (CTIA) do Senado Federal, foi publicado em 7 de junho de 2024 um relatório contendo uma nova proposta de Projeto de Lei 2338, que foi novamente atualizado em 18 de junho e 4 de julho de 2024. É importante destacar que esta última proposta inclui elementos considerados essencial para a adequada regulamentação dos sistemas de IA no Brasil, a saber:

  • Garante direitos básicos para indivíduos potencialmente afetados pela IA;
  • Define usos inaceitáveis ​​de IA, que representam riscos significativos para direitos fundamentais;
  • Cria orientações gerais e obrigações de governança, com requisitos específicos para sistemas de alto risco e para o setor público;
  • Mantém avaliações de impacto algorítmico para identificar e mitigar riscos, bem como avaliar oportunidades;
  • Dá especial atenção ao contexto brasileiro de racismo estrutural, incorporando ao longo do texto medidas para prevenir e combater diferentes formas de racismo discriminação direta e indireta, bem como para proteger grupos vulneráveis;
  • Estabelece um quadro de supervisão onde a autoridade competente trabalha em conjunto com os reguladores setoriais.

Além disso, gostaríamos de destacar melhorias importantes que foram acrescentadas ao texto original do Projeto de Lei 2.338 pela última proposta:

  • Proibição explícita de sistemas de armas autônomas;
  • Criação de medidas de governança específicas para IA de uso geral e generativa, o que é fundamental porque tais sistemas podem não se enquadrar perfeitamente nas categorizações de nível de risco;
  • Acrescenta a participação social nos processos de governança;
  • Definição do regime de responsabilidade civil para operadoras, fornecedores e distribuidores de sistemas de inteligência artificial conforme previsto no Código de Defesa do Consumidor (responsabilidade objetiva) para as relações de consumo e no Código Civil para os demais casos. Ao mesmo tempo, garante também o dever de inversão do ônus da prova em caso de vulnerabilidade; falta de compreensão e recursos da vítima; ou quando as características do sistema de IA tornam excessivamente oneroso para a vítima provar os requisitos de responsabilidade civil;
  • Designação direta da Autoridade Brasileira de Proteção de Dados como autoridade competente para harmonizar o sistema de supervisão, em colaboração com outros intervenientes.

Apesar dos avanços descritos acima, a última versão mantém ou agrava questões críticas que contradizem o objetivo central de regulamentar a IA para proteger direitos e prever inovação responsável.

O que pode ser feito para melhorar a regulamentação brasileira?

→ Sistemas de IA de risco excessivo

Inicialmente,  é importante destacar que os usos proibidos de sistemas de IA não devem estar vinculados à intenção do agente. Assim, a expressão ‘com o propósito de’ para os usos proibidos (art. 13, I) deve ser excluída para abranger todas as tecnologias nocivas e seus efeitos, independentemente da verificação da intenção dos agentes de IA em serem propositalmente prejudiciais ou não.

Além disso, as proibições também não poderiam estar ligadas à causalidade, como ocorre com a expressão “de maneira que cause danos”. Assim, é necessário alterar o art. 13, I (a) e (b), para excluir o nexo de causalidade de “de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” para as proibições de técnicas para induzir comportamentos e explorar vulnerabilidades.

Além disso, o uso de tecnologias de reconhecimento facial para segurança pública e justiça criminal devem ser banidas, considerando que estas são áreas altamente sensíveis devido ao potencial de restringir direitos fundamentais, como a liberdade de expressão e de reunião, além de reverter a presunção de inocência. Esses usos também acabam por reafirmar o potencial discriminatório destas tecnologias, que muitas vezes conduzem a erros – conhecidos como falsos positivos – levando a situações inaceitáveis, como a prisão injusta de homem em Sergipe, o tratamento agressivo de um jovem após uma identificação equivocada em Salvador, e a prisão injusta de uma mulher no Rio de Janeiro. Casos como esses são graves e recorrentes.

A vigilância constante, massiva e indiscriminada constitui uma violação dos direitos e liberdades das pessoas e limita o espaço cívico e público. O que se sabe sobre os sistemas de reconhecimento facial é que eles são ineficientes e geram custos desnecessários para a administração pública devido às suas altas taxas de erro. Um estudo recente indicou um custo médio para recursos públicos de 440 mil reais por cada prisão realizada por meio de reconhecimento facial. Além da sua ineficiência, tais sistemas têm sido consistentemente denunciados pelo seu impacto discriminatório, afetando desproporcionalmente as populações negras e, em maior medida, as mulheres.

Consideramos a autorização para uso de sistemas de reconhecimento facial como uma violação dos direitos fundamentais garantidos ao povo brasileiro. Além disso, a forma como a sua utilização é permitida, sem salvaguardas e proteções específicas, dada a natureza destes sistemas, agrava problemas já reconhecidos. Igualmente preocupante é a falta de legislação específica de proteção de dados para atividades de segurança pública.

→ Sistemas de IA de alto risco

Além disso, há necessidade de mudança nas disposições da categoria de alto risco, principalmente no que diz respeito (a) à avaliação da capacidade de endividamento e ao estabelecimento de pontuações de crédito e (b) usos prejudiciais da IA. 

1. Avaliação da capacidade de endividamento e estabelecimento de pontuações de crédito 

pontuação de crédito é uma ferramenta utilizada por bancos e instituições financeiras para avaliar se um indivíduo é um tomador confiável com base no seu risco de inadimplência, por exemplo, ao tomar decisões sobre o acesso ao crédito nessas instituições.

O acesso ao crédito financeiro é fundamental como pré-requisito para o exercício de uma série de direitos garantidos constitucionalmente, o que sublinha a importância de salvaguardas robustas na pontuação de crédito definida pela IA. Isto é especialmente crucial devido ao seu comprovado potencial de discriminação, como evidenciado pela investigação, incluindo estudos realizados no contexto brasileiro.  É importante notar que, além da importância crítica do crédito como pré-requisito para o acesso a bens e serviços essenciais, como cuidados de saúde e habitação, os modelos de crédito são alimentados com uma grande quantidade de dados pessoais, o que por si só exige uma maior proteção de segurança.

Considerar esta aplicação na classificação de alto risco é consistente com outras regulamentações internacionais, como o Regulamento Europeu sobre Inteligência Artificial, o AI act.

2. Usos prejudiciais da IA

O Artigo 14, IX, X e XI elenca usos da IA ​​que comprovadamente têm mais efeitos negativos do que positivos e são contrários ao direito internacional. Estes referem-se a  estudo analítico de crimes envolvendo pessoas físicas para identificação de padrões e perfis comportamentais; avaliar a credibilidade das evidências; policiamento preditivo; e reconhecimento de emoções.

Isto ocorre principalmente porque tais usos estão associados ao tecnossolucionismo e às teorias lombrosianas, o que reforçaria a discriminação estrutural e a violência histórica contra determinados grupos da sociedade, particularmente a população negra.

Em 2016, ProPublica publicou um estudo mostrando como um sistema de IA usado para gerar um pontuação preditiva da probabilidade de um indivíduo cometer crimes futuros mostrou resultados tendenciosos baseados em raça e gênero que não correspondiam à realidade dos indivíduos que efetivamente cometeram ou reincidiram. Assim, a subseção X do Artigo 14 permitiria potencialmente que a IA fosse usada de maneira semelhante para “prever a ocorrência ou recorrência de um crime real ou potencial com base no perfil de indivíduos”, o que não foi comprovado cientificamente e, pelo contrário, demonstrou aumentar potencialmente as práticas discriminatórias.

A Subseção XI, sobre identificação e autenticação biométrica para reconhecimento de emoções, também é preocupante, pois não há consenso científico na capacidade de identificar emoções com base apenas em expressões faciais, o que levou, por exemplo, a Microsoft a descontinuar o uso de ferramentas de IA para tais fins.

Nesse sentido, consideramos a necessidade de classificar os usos previstos no artigo 14,  IX, X e XI como riscos inaceitáveis.

→ Participação da sociedade civil no sistema de governança e supervisão

A versão atual do projeto de lei melhorou a definição do sistema de fiscalização. O texto agora propõe a criação do Sistema Nacional de IA (SIA), composto pela autoridade competente, apontada como a Autoridade Nacional de Proteção de Dados (ANPD), autoridades setoriais, o novo Conselho Regulador Cooperação em IA (CRIA) e o Comitê de Peritos e Cientistas em IA (CECIA).

Considerado um importante avanço, o Conselho de Cooperação Regulatória, que servirá como fórum permanente de colaboração, inclui agora a participação da sociedade civil. No entanto, é importante garantir que esta participação seja significativa, garantindo à sociedade civil um papel ativo e eficaz na governança e regulamentação de IA.

→ Outras modificações 

Com o lobby das big techs e indústria, como mencionado anteriormente, houve o enxugamento de importantes obrigações de governança de sistemas de IA, especialmente ligados à transparência, além da redução de direitos de pessoas potencialmente afetadas. Por isso, para que a regulação se mantenha coerente na sua função primordial de proteção de direitos fundamentais (especialmente de grupos vulneráveis), combater discriminações e garantir processos de desenvolvimento, uso e implantação de sistemas mais responsáveis, é essencial a volta dos artigos 6º, 8º e 17 da versão do projeto de lei publicada no dia 18 de junho de 2024.

Pela aprovação do Projeto de Lei 2338/2023 com inclusão das melhorias

Com tudo dito, as entidades subscritoras manifestam apoio ao avanço do processo legislativo do Projeto de Lei 2338/2023 na Comissão de IA (CTIA) e no plenário do Senado rumo à sua aprovação, desde que as seguintes melhorias sejam feitas:

1. Alteração do artigo 13, I, para excluir a expressão “com o propósito de” para os usos proibidos, para abranger todas as tecnologias prejudiciais e seus efeitos, independentemente da verificação da intenção dos agentes de IA em serem propositalmente prejudiciais ou não;

2. Alteração do Artigo 13, I (a) e (b) para excluir o nexo causal de “de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros” para as proibições de uso de técnicas que induzam comportamentos e de exploração de vulnerabilidades;

3. Alteração do Artigo 13, VII para excluir as exceções ao uso de dados biométricos de identificação por sistemas remotamente, em tempo real e em espaços acessíveis ao público, portanto proibindo o uso destes sistemas para a segurança pública e a persecução penal. Ou, no mínimo, pedimos um moratória que autorize usos nas exceções listadas somente após aprovação de lei federal que especifique as finalidades de uso e garanta o cumprimento de medidas de salvaguarda suficientes (pelo menos aquelas garantidas para sistemas de IA de alto risco);

4. Retorno do pontuação de crédito ou outros sistemas de IA destinados a serem usados ​​para avaliar a qualidade de crédito de pessoas físicas para o alto risco listada no artigo 14.º, com a possibilidade de criar uma exceção para sistemas de IA utilizados para detectar fraudes financeiras;

5. A mudança de classificações dos sistemas mencionados no Artigo 14, IX, X e XI para a categoria de riscos inaceitáveis; 

6. Garantir a participação da sociedade civil no Sistema Nacional de Governança e Regulação de Inteligência Artificial (SIA), por meio da composição do Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), é eficaz e significativo;

7. A volta dos artigos 6º, 8º e 17 da versão do projeto de lei publicada no dia 18 de junho de 2024.

Se você quiser aderir a esta carta em defesa (crítica) do PL 2338/2023 e pela clara necessidade de regulação protetiva de direitos fundamentais no Brasil, preencha o formulário abaixo.

Organizações que assinam esta carta:

1. Access Now
2. AFROYA TECH HUB
3. Amarc Brasil
4. ANTE- Articulação Nacional das Trabalhadoras e dos Trabalhadores em Eventos
5. AQC – ESP
6. BlackPapers
7. Câmara dos Deputados- Liderança do PT
8. Câmara Municipal do Recife
9. Centro de Direitos Humanos de Jaraguá do Sul – SC
10. Centro de Estudos de Segurança e Cidadania (CESeC)
11. Coalizão Direitos na Rede
12. Coding Rights
13. Coletivo artistico – Guilda dos Quadrinhos
14. Complexos – Advocacy de Favelas
15. Data Privacy Brasil
16. Digital Action
17. DiraCom – Direito à Comunicação e Democracia
18. FaleRio- Frente Ampla pela Liberdade de Expressão do Rio de Janeiro
19. Fizencadeando
20. FNDC – Fórum Nacional pela Democratização da Comunicação
21. FONSANPOTMA SP
22. Fotógrafas e Fotógrafos pela Democracia
23. FURG
24. GNet (Grupo de Estudos Internacionais em Propriedade Intelectual, Internet & Inovação)
25. Grupo de Pesquisa Economia Política da Comunicação da PUC-Rio/CNPq
26. Idec – Instituto de Defesa de Consumidores
27. IFSertãoPE – Campus Salgueiro
28. Iniciativa Direito a Memória e Justiça Racial
29. INSTITUTO AARON Swartz
30. Instituto Bem Estar Brasil
31. Instituto Minas Programam
32. Instituto de Pesquisa em Internet e Sociedade (IRIS)
33. Instituto Sumaúma
34. Instituto Soma Brasil
35. Instituto Telecom
36. IP.rec – Instituto de pesquisa em direito e tecnologia do Recife
37. Intervozes – Coletivo Brasil de Comunicação Social
38. Irmandade SIOBÁ/Ba
39. Laboratório de Políticas Públicas e Internet – LAPIN
40. MediaLab.UFRJ
41. Movimento Dublagem Viva
42. MST
43. Niutechnology
44. OBSCOM-UFS (Observatório de Economia e Comunicação da Universidade Federal de Sergipe)
45. Open Knowledge Brasil
46. SATED- SÃO PAULO
47. sintespb
48. Rede Justiça Criminal
49. Rede LAVITS
50. Transparência Brasil
51. Voz da Terra
52. UFRN
53. ULEPICC-Brasil (União Latina de Economia Política da Informação, da Comunicação e da Cultura, Capítulo Brasil)
54. UNIDAD

Indivíduos que assinam esta carta:

Admirosn Medeiros Ferro Júnior
Alê Capone
Aliete Silva Mendes
Alvaro Bastoni Junior
Ana Carolina Sousa Dias
Ana Gretel Echazú Böschemeier, PhD
Andreza Rocha
Angela Couto
Aurora Violeta
Bianca Soares Monteiro
Breno Augusto Silva de Moura
Camila Silva Lima
César Ricardo Siqueira Bolaño
César Saraiva Lafetá Júnior
Delmo de Oliveira Torres Arguelhes
Diego Rabatone Oliveira
Emanuella Ribeiro
Flávia da Silva Fernandes
Fran Raposo
Francisco S Costa
Fransergio Goulart
Frido Claudino
Giovanna Mara de Aguiar Borges
Haydée Svab
Ivan Moraes
Jane Caraça Schneider
Jolúzia Batista
Jonas Cardoso Borges
José Eduardo De Lucca
José Maria Rodrigues Nunes
Juliana Vieira
Larissa de Medeiros
Larissa Vieira
Lauro Accioly
León Fenzl
Livia Maria Santos Silva
Louise Karczeski
Luís Gustavo de Souza Azevedo
Luiza Vieira
Luli Hata
Maíra Vilela Francisco
Marcelo Rodrigues Saldanha da Silva
Marcelo de Freitas Rigon
Maria José Braga
Mariana Alves Araújo Lopes
Melissa Cipriano Vanini Tupinambá
Mônica Martins
Mônica Zarattini
Naiara Lopes
Nilo Sergio Silva Gomes
Olga Teixeira de Almeida
Ogan Valdo Lumumba
Paula Guedes Fernandes da Silva
Paulo Rená da Silva Santarém
Pedro Silva Neto
Poema Portela
Raíssa Trevisan
Raquel de Moraes Alfonsin
Ricardo Calmona Souza
Rodrigo da Silva Guerra
Rosana Moreira da Rocha
Samuel Consentino de Medeiros
Sérgio Luiz Homrich dos Santos
Taís Oliveira
Tânia Regina Homrich dos Santos
Terezinha de Fátima dos Santos
Thamires Orefice
Vera Lucia Freitas
Victor Sousa Barros Marcial e Fraga
Wagner Moreira Da Silva
Wallace de Oliveira de Souza
Ydara de Almeida, Advogada