PROTESTO MS

Artigo: Depois de quase 10 anos de importantes debates: o Regulamento Geral Europeu sobre Inteligência Artificial é aprovado – por Cintia Rosa Pereira de Lima e José Luiz de Moura Faleiros Júnior

A partir de 10 de abril de 2018, os 24 Estados-Membros da União Europeia assinaram um termo de cooperação para tratar do tema durante o evento “Digital Day 2018″1. Em 25 de abril de 2018, a Comissão Europeia emitiu uma comunicação sobre inteligência artificial,2 em que sugeriu o avanço na capacidade tecnológica e industrial da União Europeia em prol da IA, o preparo para as mudanças socioeconômicas que viriam em decorrência da IA e um marco regulatório eficaz baseado nos valores democráticos e proteção dos direitos fundamentais para garantir um desenvolvimento ético da IA.

Ao final, a Comissão Europeia solicitou que os Estados-Membros coordenassem em seus respectivos países planos estratégicos para a implementação da IA até o final de 2018.

Nesta ocasião foi criado um grupo de 52 peritos de alto nível em inteligência artificial (High Level Expert Group on Artificial Intelligence – AI HLEG), cuja composição era multissetorial, pois congregava pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Além deste grupo, foi criada a “Aliança Europeia para a IA” (“European AI Alliance”),3 que estimulava a participação democrática, como audiências públicas, sobre diversos temas relacionados à inteligência artificial.

Em 18 de dezembro de 2018, o grupo AI HLEG submeteu à consulta pública o primeiro esboço das “Diretrizes Éticas para a Fiabilidade da Inteligência Artificial”.4 Após intensos e interessantes debates, o grupo apresentou a versão final em 08 de abril de 2019, quando foi apresentado o documento final “Ethics Guidelines for Trustworthy AI”.5 Este documento apresenta quatro princípios éticos para a inteligência artificial, quais sejam:

a) respeito à autodeterminação do ser humano (“the principle of respecto for human autonomy”), ou seja, toda tecnologia IA deve respeita os direitos e garantias fundamentais, bem como a democracia;

b) preveção de danos (“the principle of prevention of harm”), deve-se adotar medidas robustas e eficazes a fim de se evitar danos aos seres humanos;

c) justiça (“the principle of fairness”), isto é, assegurar uma distribuição equitativa dos lucros e dos custos, bem como eliminar qualquer tipo de preconceito (unfair bias), seja por motivo de gênero, raça, crença religiosa e etc.; e

d) transparência e clareza (“the principle of explicability”), ou seja, os sistemas de IA devem ser claros e compreensível aos seres humanos que irão operacionar tais sistemas.

Ademais, foram apresentados alguns requisitos exemplificativos para a fiabilidade da IA, que compreendem aspectos individuais e sociais de maneira sistêmica, a saber: a) assistência e supervisão humana; b) robutez técnica e segurança; c) privacidade e proteção de dados pessoais; d) transparência; e) diversidade, não discriminação e justiça; f) bem-estar social e ambiental; e g) prestação de contas e responsabilidade.

Portanto, a União Europeia, atenta ao crescente uso da IA nas mais diversas áreas, estabeleceu um plano coordenado de medidas para a implementação da inteligência artificial em 07 de dezembro de 2018,6 encorajando que os Estados-Membros elaborem os respectivos planos nacionais para IA até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia colocou em consulta até 19 de maio de 2020, o relatório “White Paper on Artificial Intelligence: an European approach to excellence and trust”7. Este relatório reforçou as Diretrizes Éticas acima mencionadas e destacou a necessária regulação sobre a responsabilidade civil em decorrência de danos causados por produtos e serviços que utilizem inteligência artificial. Para tanto, ressaltou-se a necessária revisão da “Product Liability Directive”, Dir. 85/374/EEC, de julho de 1985, que disciplina a responsabilidade civil pelo fato do produto e pelos vícios do produto, e que ainda segue em debates.8

Consoante esta diretiva, o fornecedor é responsável por danos causados em virtude do fato do produto; entretanto, em tecnologias de inteligência artificial, como os carros autônomos, é difícil provar que os danos foram causados em virtude de um defeito de programação, por exemplo. Neste sentido, a Comissão Europeia sinalizou a necessidade de uma regulamentação específica para este setor e a consequente adequação do Direito interno de cada Estado-Membro.

Naquela mesma data, em 19 de fevereiro de 2020, a Comissão Europeia aprovou um plano estratégico para os dados (“European Strategy for Data”),9 levando em consideração o volume de informações que trafegam na sociedade informacional, de 33 zettabytes (em 2018) para 175 zettabytes (projetado para 2025) na era do Big Data, tal preocupação justifica-se na medida em que o aprendizado de máquina é viabilizado em razão deste algo volume de dados.

Este documento destaca a necessária cooperação internacional sobre a matéria para o enforcement das medidas regulatórias neste setor dada a circulação transfronteiriça de dados. Neste sentido, todos os países precisam estar atentos a estas medidas para sua inserção no capitalismo informacional.

Mesmo quando impulsionados pelo aprendizado de máquina, os algoritmos continuam sendo falíveis e altamente suscetíveis a erros de representação e assimilação. Devido à natureza puramente matemática com que processam dados, esses erros destacam o desafio de conciliar a responsabilidade ética e jurídica com essa nova realidade, mesmo que de forma prospectiva.

Nos Estados Unidos da América, foi apresentado, em 12 de dezembro de 2017, o “Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act”, ou apenas “Future of AI Act”10, que é bastante apegado à correlação entre o conceito de IA e o funcionamento do cérebro humano, denotando proximidade conceitual com a ideia de “singularidade tecnológica”. Tal documento indica, ainda, diretrizes éticas para o fomento ao desenvolvimento algorítmico, mas não aborda a área da saúde de forma direta.

Alguns documentos mais recentes, como o Artificial Intelligence Act (AI Act) europeu aprovado em 202411, e o Algorithmic Accountability Act norte-americano de 202212 (2022 US AAA), que atualizou a versão anterior, de 201913, evitam a discussão terminológica sobre o alcance semântico do termo “inteligência”, preferindo se reportar a “sistemas decisionais automatizados”14 (Automated Decision Systems, ou ADS’s) para se referir à utilização de sistemas de IA em geral e reafirmar a importância da estruturação de parâmetros éticos para o desenvolvimento de algoritmos.

Os documentos mencionados têm qualidades que podem ser mutuamente inspiradoras, destacando a importância da correta assimilação semântica (entre outros tópicos) para o avanço das discussões, inclusive em nível global.15

No Brasil, várias iniciativas legislativas, como os Projetos de Lei nº 5051/2019, nº 21/2020 e nº 872/2021, buscaram regulamentar o tema de forma geral. No entanto, essas propostas não eram extensas nem bem estruturadas, focando apenas em estabelecer um marco regulatório simbólico, o que é insuficiente para abordar adequadamente um assunto tão complexo.

Todavia, em fevereiro de 2022, foi instituída pelo Senado Federal a “Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA” (CJSUBIA). Após a realização de diversas reuniões e audiências públicas, os trabalhos de elaboração do substitutivo foram concluídos em dezembro de 2022. A partir do rigoroso trabalho desenvolvido, foi apresentado um projeto substitutivo – o Projeto de Lei nº 2.338/202316-, de autoria do Presidente do Congresso Nacional, Senador Rodrigo Pacheco, que muito se aproxima da solução adotada na União Europeia, onde há anos se discute a matéria em caráter prospectivo, primando por estratificar as soluções possíveis para cada contexto, a depender do grau de risco que a atividade implique.

Neste sentido, nota-se o pouco tempo dedicado ao estudo e à evolução do projeto de lei, apenas dois anos e com escasso tempo para as necessárias audiências públicas e pesquisas realmente profícuas para que a futura lei brasileira sobre Inteligência Artificial pudesse ser referência para outros países.

Desde a sua apresentação pelo Senador Rodrigo Pacheco em maio de 2023, o Projeto de Lei nº 2.338 recebeu diversas emendas parlamentares17, sobretudo no âmbito da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), criada com o objetivo de analisar e debater a regulamentação da Inteligência Artificial no Brasil por meio da discussão e aprimoramento de projetos de lei relacionados à IA, incluindo o Projeto de Lei nº 2.338/2023. Presidida pelo Senador Carlos Viana (PODEMOS-MG), a CTIA atua como um fórum multissetorial, reunindo especialistas e representantes de diversos setores para garantir que as regulamentações propostas sejam abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais.

Estas contribuições são extremamente valiosas e precisam de um tempo razoável para o amadurecimento e melhoria das propostas, para não incidirmos na aprovação de uma lei de questionável eficiência o que, fatalmente, fomentará o ativismo judicial.

O Brasil segue no aguardo do avanço do PL 2.338/2023, mas seu texto, cuja versão mais recente é uma minuta de atualização proposta pelo Senador Eduardo Gomes em abril de 202418 no âmbito da referida CTIA, indica a preocupação do legislador com a parametrização ética, estando elencados, no art. 3º, inúmeros princípios que são nitidamente inspirados na proposta europeia. Em linhas gerais, pode-se sintetizar 6 grandes eixos principiológicos de todas essas propostas regulatórias: (i) participação humana e supervisão (human in the loop); (ii) confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação; (iii) privacidade e governança de dados; (iv) transparência algorítmica, explicabilidade e auditabilidade; (v) diversidade, não discriminação e justiça; (vi) responsabilização, prevenção, precaução e mitigação de riscos.

Para além desse rol mais sintético, convém mencionar o detalhado repertório de princípios que consta do artigo 3º do substitutivo apresentado pelo Senador Eduardo Gomes: (i) crescimento inclusivo, desenvolvimento sustentável e bem-estar, incluindo a proteção do trabalho e do trabalhador (inc. I); (ii) autodeterminação e liberdade de decisão e de escolha (inc. II); (iii) supervisão humana efetiva (inc. III); (iv) não discriminação ilícita e abusiva (inc. IV); (v) justiça, equidade e inclusão (inv. V); (vi) transparência e explicabilidade (inc. VI); (vii) devida diligência e auditabilidade (inc. VI, sic19); (viii) confiabilidade e robustez do sistema de IA (inc. VII); (ix) proteção dos direitos e garantias fundamentais, incluindo o devido processo legal, contestabilidade e contraditório (inc. VIII); (x) prestação de contas, responsabilização e reparação integral de danos (inc. IX); (xi) prevenção, precaução e mitigação de riscos e danos (inc. X); (xii) não maleficência e proporcionalidade entre os métodos empregados e as finalidades (inc. XI); (xiii) desenvolvimento e uso ético e responsável da IA (inc. XII); (xiv) governança transparente, participativa e orientada à proteção de direitos fundamentais (inc. XIII); (xv) promoção da interoperabilidade de IA (inc. XIV); (xvi) possibilidade e condição de utilização de sistemas e tecnologias com segurança e autonomia por pessoa com deficiência (inc. XV); (xvii) conformidade com a legislação aplicável (inc. XVI)20.

Essa lista pode ser expandida para incluir um conjunto muito mais detalhado de princípios que tocam o debate ético sobre a regulação dos sistemas de IA. No entanto, para os objetivos desta investigação, é importante mencionar que todos esses delineamentos ajudam a definir contornos específicos que fortalecem o tratamento jurídico da perfilização e seus efeitos.

Na atualidade, “a preocupação central de toda essa investigação reside nas aplicações e nos danos causados pela Inteligência Artificial, que se coloca mais uma vez aqui como um elemento fundamental para compreender esse fenômeno de controle”21.

Em conclusão, a aprovação do Regulamento Geral Europeu sobre Inteligência Artificial (AI Act) representa um marco significativo na regulação de tecnologias emergentes, com uma abordagem baseada em princípios éticos que contribuem para o debate acerca da responsabilidade civil. Este esforço europeu, resultado de quase uma década de debates e colaborações multissetoriais, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde, embora ainda não se possa prever os próximos passos dos debates legislativos sobre a matéria, deve-se acompanhar com atenção os trabalhos desenvolvidos pela CTIA no Senado Federal.

__________

1 Disponível em: https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence, acessado em 23 maio 2024.

2 Disponível em: https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe, acessado em 23 maio 2024.

3 Disponível em: https://ec.europa.eu/digital-single-market/en/european-ai-alliance, acessado em 23 maio 2024.

4 Disponível em: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024.

5 Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024.

6 Disponível em: https://ec.europa.eu/knowledge4policy/node/32954_sl, acessado em 23 maio 2024.

7 Disponível em: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf, acessado em 23 maio 2024.

8 Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:31985L0374&from=EN, acessado em 23 maio 2024.

9 Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52020DC0066&from=EN, acessado em 23 maio 2024.

10 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 4625, Dec. 12, 2017. FUTURE of Artificial Intelligence Act. Disponível em: https://www.congress.gov/115/bills/hr4625/BILLS-115hr4625ih.pdf, acessado em 23 maio 2024.

11 EUROPA. European Parliament. Artificial Intelligence Act: MEPs adopt landmark law, mar. 2024. Disponível em:https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law, acessado em 23 maio 2024.

12 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 6580, Feb. 3, 2022. Algorithmic Accountability Act of 2022. Disponível em: https://www.congress.gov/bill/117th-congress/house-bill/6580/text, acessado em 23 maio 2024.

13 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 2231, Apr. 10, 2019. Algorithmic Accountability Act of 2019. Disponível em: https://www.congress.gov/116/bills/hr2231/BILLS-116hr2231ih.pdf, acessado em 23 maio 2024.

14 Cf. SELBST, Andrew. An institutional view of algorithmic impact assessments. Harvard Journal of Law & Technology, Cambridge, v. 35, 2021. Disponível em: https://ssrn.com/abstract=3867634, acessado em 23 maio 2024.

15 MÖKANDER, Jakob; JUNEJA, Prathm; WATSON, David S.; FLORIDI, Luciano. The US Algorithmic Accountability Act of 2022 vs. The EU Artificial Intelligence Act: what can they learn from each other? Minds and Machines, Cham: Springer, v. 22, p. 1-9, jun. 2022. Disponível em: https://doi.org/10.1007/s11023-022-09612-y, acessado em 23 maio 2024.

16 BRASIL. Senado Federal. Projeto de Lei nº 2338/2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em:https://www25.senado.leg.br/web/atividade/materias/-/materia/157233, acessado em 23 maio 2024.

17 Em especial, destaca-se a proposta de substitutivo apresentada pelo Senador Astronauta Marcos Pontes. Por mais, permita-se a referência a: MEDON, Filipe. Regulação da IA no Brasil: o substitutivo ao PL 2338. Jota, 01 dez. 2023, acessado em 23 maio 2024.

18 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar – Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024.

19 Há uma repetição, aparentemente por erro material, na numeração do inciso VI do substitutivo em questão.

20 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar – Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024.

21 MEDON, Filipe. Inteligência artificial e responsabilidade civil: autonomia, riscos e solidariedade. 2. ed. Salvador: Juspodivm, 2022, p. 297.

Fonte: Migalhas


    Adicionar comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *




Últimas Notícias

wrapkit

O Instituto de Estudo de Protesto de Títulos do Brasil - secção Mato Grosso do Sul (IEPTB-MS) é a entidade que congrega, desde 2003, os Tabeliães de Protesto de Mato Grosso do Sul.

Av. Afonso Pena 4785 - Santa Fé - Campo Grande - MS

08h às 11h30 / 13h às 17h
67 3326 3712