terça-feira, 25 de fevereiro de 2025

MOMENTO JURÍDICO - Análise comparativa sobre a regulação da Inteligência Artificial no Brasil e na União Europeia

 


Resumo

As inteligências artificiais estão mudando a forma como as pessoas entendem e se relacionam com o mundo. Contudo, pouco se sabe sobre essa nova tecnologia, pois, devido aos processos de machine learning e deep learning, os sistemas de IA estão em constante desenvolvimento dificultando o trabalho do legislador de criar regulações sobre essa tecnologia, uma vez que as leis não conseguem ser produzidas com a mesma velocidade que os avanços científicos acontecem.

Assim sendo, muitos países estão tentando achar maneiras para a regulação dos IA de modo que a legislação não prejudique o desenvolvimento da tecnologia. O Parlamento Europeu achou uma solução para esse problema ao instituir no Ato da Inteligência Artificial (AIA) uma classificação de riscos dos sistemas, regulando os efeitos e não a tecnologia. No entanto, essa categorização é muito ampla prejudicando a segurança jurídica do tratado.

A PL 2338/2023 foi influenciada por essa classificação dos riscos, mas já utiliza critérios mais concretos e específicos para a categorização. Dessa forma, esta pesquisa busca analisar a influência que a AIA teve no PL 2338/2023 e identificar como os legisladores brasileiros se comportaram em face dos desafios da regulação da inteligência artificial e das críticas proferidas a AIA.

Palavras-chave: inteligência artificial, riscos, regulação.

Introdução

O século XXI é marcado pelo advento da Quarta Revolução Industrial, a qual se caracteriza pelo surgimento de tecnologias de inteligência artificial (IA). Essa inovação permite que máquinas e computadores simulem a capacidade humana de resolver problemas, criar conteúdo e fazer previsões e análises. O mecanismo utiliza-se dos dados disponíveis para fazer analogias e reconhecer padrões, por isso, a inteligência artificial está intimamente ligada com os processos de machine learning deep learning, fenômenos que permitem os computadores replicarem o processo de aprendizagem humana e tomarem decisões sem a necessidade do auxílio de uma pessoa.

A inteligência artificial está sendo aplicada nos mais diversos setores para automatizar e gerar informações, como pode ser visto nas recomendações dadas nas redes sociais, nos sistemas inteligentes de organização de trânsito e nos tratamento médicos. Dessa forma, percebe-se que essa nova tecnologia está mudando a forma como as pessoas enxergam e se relacionam com o mundo, afetando diretamente a capacidade de autodeterminação humana, liberdade e igualdade.

A legislação é essencial para a segurança da sociedade e dos direitos fundamentais tendo em vista a grande influência e os impactos dos sistemas de IA na população, os quais nem sempre são positivos. Entretando, existe um debate sobre se as tecnologias deveriam ou não estar sujeitas à limitações dadas pela lei, uma vez que tais imposições poderiam prejudicar o seu pleno desenvolvimento, pois proíbem certas condutas e sistemas. A solução encontrada pela União Europeia e reproduzida por outros países, como o Brasil, para diminuir os impactos desse trade-off entre avanço e legislação foi regular os riscos e não a tecnologia em si. Essa abordagem foi essencial para demonstrar que a regulamentação dos sistemas de IA é capaz de encorajar a inovação e garantir a devida segurança jurídica necessária para promover o bem-estar social.

Portanto, a presente pesquisa busca analisar as propostas de regulamentação da inteligência artificial na Europa e no Brasil por meio de métodos qualitativos de avaliação de artigos, pesquisas e das normas. Já a comparação será utilizada por ser uma ferramenta essencial para entender a origem da proposta de lei 2338/2023, visto que os legisladores se utilizaram da experiência internacional, principalmente o Ato de Inteligência Artificial, para aprender com os erros e acerto das medidas aplicadas. Nesse sentido, de acordo com Robl Filho e Atalá Correia (2022), a comparação é uma ferramenta útil para entender tanto das identidades dos outros como das de nós mesmos.

Importância e desafios para a regulação da Inteligência Artificial

A falta de transparência nos sistemas de IA tornam essa tecnologia extremamente perigosa para as sociedades, pois os indivíduos não são capazes de mensurar o tamanho da sua influência na vida cotidiana. O problema é agravado quando considerado que a inteligência artificial é capaz de analisar e reter milhares de dados, descobrindo padrões para gerar conclusões, as quais muitas vezes podem ser enviesadas e falsas. Consequentemente, a má utilização dessa tecnologia pode afetar os direitos humanos e os valores fundamentais nos quais as sociedades são fundadas.

A privacidade das pessoas também é impactada pelas IA, uma vez que grandes companhias se utilizam desse mecanismo para descobrir o perfil dos indivíduos para, assim, poder influenciar o seu comportamento por meio de sugestão de conteúdo. Desse modo, as indústrias se aproveitam da necessidade humana de escapar da realidade para poder moldar opiniões, fato que Hannah Arendt, em seu texto Origens do Totalitarismo, considera ser um ponto central da propaganda dos regimes totalitários, os quais são capazes de transpor o abismo entre realidade e ficção.

Portanto, regulamentação da inteligência artificial é de suma importância para a preservação das democracias e dos direitos fundamentais, visando uma sustentabilidade digital com proteção da dignidade humana. Contudo, isso têm se mostrado um desafio para os legisladores, pois os sistemas de IA são caracterizados pela desterritorialização, pelo rápido desenvolvimento e difícil previsibilidade.

 A inteligência artificial não possui um aspecto fundamental para a jurisdição, o qual é a territorialidade, pois muitas vezes os efeitos produzidos por essa tecnologia não acontecem apenas em um país e tampouco consegue-se descobrir a origem da informação. Além disso, a capacidade de machine learning faz com que as descobertas das IA não possam ser atribuídas ao seu criador, porque elas estavam fora do âmbito de sua vontade. Essas peculiaridades da tecnologia torna a legislação sobre ela extremamente difícil, pois podem gerar um conflito de competências e de responsabilização.

Além disso, a constante evolução das tecnologias contrasta-se com o lento e cuidadoso processo de legislação, o qual necessita de diversos procedimentos e debates para ser eficaz. Essa dualidade entre rápido desenvolvimento tecnológico e o procedimentalíssimo do legislativo dificulta a regulamentação digital, pois as normas criadas para regulá-las já nascem obsoletas, não conseguindo atingir a amplitude e a efetividade desejada. Consequentemente, para criar uma sustentabilidade digital os juristas precisam prever as dificuldades que a inteligência artificial pode vir a causar. No entanto, essa tampouco é uma tarefa fácil, uma vez que tais sistemas são alimentados por milhares de dados fornecidos diariamente pela população podendo gerar diversas conclusões e informações, as quais são impossíveis de serem reproduzidas com mesma agilidade pelo cérebro humano.

Ato da Inteligência Artificial (AIA)

Em 2024, a União Europeia aprovou a primeira lei no mundo para regular o uso da inteligência artificial com o objetivo de garantir a segurança, transparência, respeito e rastreabilidade na utilização dessa tecnologia. A legislação ficou conhecida como Ato da Inteligência Artificial (AIA) e será aplicável em todos os 27 membros da União Europeia (EU) até 2 de agosto de 2026.

O regulamento defende a necessidade de uma proteção contra os efeitos nocivos dos sistemas de IA, sem que isso prejudique o desenvolvimento da tecnologia. Por isso, a legislação estabelece regras aplicáveis a cada sistema de acordo com o nível do risco que o IA representa, por meio de uma classificação pré-estabelecida, a qual separa os IA em quatro classes: risco inaceitável, risco elevado, risco limitado e risco mínimo.

Os riscos inaceitáveis são considerados uma ameaça para as pessoas e, por isso, estão proibidos pelo AIA, como é o caso dos sistemas de IA capazes de manipular comportamentos de pessoas ou grupos vulneráveis, mecanismos de identificação biométrica em tempo real e de classificação de pessoas. Já as IA de riscos elevados não estão proibidos, mas devem cumprir uma série de obrigações, sendo avaliados durante todo o seu funcionamento para ver se estão cumprindo com os requisitos estipulados na lei. Por fim, as classes de risco limitado e risco mínimo sofrem pouca regulação pelo AIA, devendo apenas cumprir com alguns requisitos de transparência, como avisar os usuários que o sistema utiliza inteligência artificial.

Essa classificação feita pelo Parlamento Europeu sofreu duras críticas por ser muito ampla na indicação de áreas de aplicação da IA. Isso pode ser percebido na utilização dessa tecnologia para educação e saúde, uma vez que, independentemente do objetivo e da utilização do sistema, todas as IA utilizadas nessa área serão consideradas de alto risco. Dessa forma, observa-se que os efeitos dessa classificação generalista podem ser prejudiciais para o desenvolvimento e dificultar a efetividade da regulação, dado que interfere no princípio de proporcionalidade.

Ademais, o AIA não trata das análises de comportamento dos usuários das redes sociais, um importante mecanismo para a manipulação dos indivíduos, visto que muitas empresas se utilizam dos dados digitais das pessoas para identificar o perfil delas e, assim, poder influenciar seus comportamentos e opiniões por meio de recomendações personalizadas. Desse modo. O AIA apresenta uma contradição, dado que rotula todos os sistemas de IA capazes de alterar ou moldar comportamentos de grupos e pessoas vulneráveis como um risco inaceitável, porém se esquece de regular um mecanismo essencial para que isso ocorra.

Por fim, o Ato da Inteligência Artificial falha também em defender dois princípios essenciais das democracias modernas: o direito de resposta e o direito de participação popular. Assim sendo, o Parlamento Europeu não apresentou na regulação nenhum mecanismo do qual seria possível que os criadores e provedores das IA contestem as decisões sobre os seus sistemas. A população tampouco foi reconhecida na legislação, visto que não há direito a participação pública.

Análise comparativa do AIA com o projeto de lei 2338/2023

O Projeto de Lei n° 2338/2023 pretende regular a Inteligência Artificial no Brasil, visto que essa tecnologia pode representar uma ameaça para a sociedade se não estiver submetida a leis que priorizem os direitos humanos e os interesses sociais e democráticos. Contudo, igualmente ao Parlamento Europeu, o Congresso Brasileiro também foi tomado pela discussão sobre se deveria ou não fazer uma legislação sobre uma tecnologia tão recente, da qual sabe-se muito pouco. Por isso, a solução encontrada pelo Brasil foi se inspirar no AIA da União Europeia e regular os riscos e não a tecnologia em si, para, assim, evitar prejuízos no desenvolvimento dos sistemas de IA.

Diferentemente, da solução europeia, o Brasil adotou uma classificação de riscos em três categorias: riscos excessivos, altos riscos e outros riscos. A diferença consiste no fato de que o Brasil juntou os riscos mínimos os riscos limitados em uma única categoria, uma vez que os legisladores entenderam que não havia uma distinção muito grande entre elas da qual se justificasse uma série de normas diferentes para sua regulação.

O Brasil também aprendeu com as críticas sofridas pelo Parlamento Europeu e em sua classificação de riscos adotou parâmetros mais precisos e objetivos, gerando uma maior segurança jurídica. Isso pode ser percebido no texto da PL 2338/2023, uma vez que, ao categorizar sistemas de IA com o objetivo educacional e de formação profissional como de alto risco, estão indicados as aplicações específicas nas quais essa classificação é justificada, neste caso o uso dessa tecnologia para determinação de acesso a instituições de ensino ou de formação profissional. Contrariamente, a AIA apenas explica os impactos que a inteligência artificial pode ter na educação, mas não indica em quais situações poderia ser considerada de alto risco, dando possibilidade de entender erroneamente que os IA são perigosos independentemente da função que desempenham no sistema educacional.

Referente ao direito de contestação e participação social na regulação das IA, a PL 2338/2023 já abarca esses princípios fundamentais para a democracia. Contudo, eles estão limitados apenas para as partes afetadas por essas tecnologias, não prevendo direito de resposta dos fornecedores e criadores dos sistemas.

Além disso, contrariamente ao AIA, o projeto de lei brasileiro já dispõe sobre a análise de dados dos usuários de redes sociais com o objetivo de moldar comportamentos. Assim sendo, o impacto algoritmo é legislado sobre a premissa de poder criar efeitos irreversíveis e desproporcionais, os quais são capazes de gerar riscos aos direitos humanos e à democracia. Dessa forma, a proposta define que é dever de todos os agente de inteligência artificial fazer uma avaliação dos riscos e garante às autoridades o direito de reclassificação do sistema de IA caso necessário.

Um ponto relevante que não foi tratado em nenhuma das propostas de regulamentação é a utilização dos sistemas de IA para uso militar. Enquanto a PL 2338/2023 nada fala sobre o uso dessa tecnologia nas forças armadas, o Ato da Inteligência Artificial apenas declara que as IA desenvolvidas para uso militar não serão legislados por esse regulamento, pois a segurança nacional continua sendo de responsabilidade exclusiva de cada Estado-Membro da União Europeia. No entanto, o regulamento não explica para quais seriam esses usos militares, possibilitando uma ampla variedade de utilizações dos IA por falta de uma legislação, fato que poderia ser concertado por uma cláusula que especificasse essas funções considerando os direitos humanos e a dignidade humana.

A aplicação das leis também é um problema recorrente em ambas as propostas de regulação dos IA, devido ao caráter desterritorializado da tecnologia. A legislação brasileira utiliza-se de uma caracterização muito generalista, dizendo apenas que a lei será aplicada em todo território nacional, sem dar critérios sobre quais situações a norma será utilizada. Diferentemente, o Parlamento Europeu dispôs diversas circunstâncias de aplicação do AIA, como nos casos em que os responsáveis pelo IA estejam estabelecidos em Estado membro da União Europeia, quando a IA é usada no território, quando o resultado é produzido na União. Dessa forma, a pesquisadora Hannah Ruschemeier (2023) defende que essa ampla gama de situações faz com que a AIA indiretamente regule países estrangeiros, desrespeitando a soberania nacional.

Conclusão

Portanto, devido ao caráter disruptivo da inteligência artificial, a regulação é imprescindível para que haja proteção dos direitos humanos, respeito aos valores fundamentais das sociedade e segurança do Estado de Direito Social. Contudo, a legislação dessas tecnologias devem ser feita de modo a não prejudicar o desenvolvimento e o avanço científico. Por isso, a solução encontrada pela União Europeia e replicada por outros países de regular os riscos e não a tecnologia conseguem minimizar perfeitamente os efeitos desse trade-off entre legislação e desenvolvimento.

No entanto, a classificação de risco do Ato da Inteligência Artificial precisa ser melhorada, trazendo mais especificidade sobre os objetivos e funções da tecnologia aplicada, ao invés de apenas dizer as áreas ampla de utilização. Esse problema já é solucionado no projeto de lei brasileiro, o qual já se utiliza de critérios mais específicos para gerar segurança e certeza jurídica.

Por fim, percebe-se que alguns desafios da legislação da inteligência artificial ainda não foram solucionados, como é o caso do caráter desterritorializado da tecnologia. O projeto de lei brasileiro apenas alega que a lei será aplicada ao território nacional, sem especificar as situações nas quais o sistema de IA estará condicionado a jurisdição nacional. Já o AIA estabelece várias situações nas quais a lei pode ser aplicada, como nos casos de o fornecedor do sistema ser residente da União Europeia, quando o impacto ocorrer no território da União ou quando a vítima for europeia. Consequentemente, de acordo com Hannah Ruschemeier (2023), essas condições acabam por regular indiretamente entidades estrangeira à União. Por isso, a melhor solução para a enfrentar o problema da desterritorialização dos sistemas de IA seria fazer um acordo de regulamentação internacional aprovado pela maioria dos países para, assim, evitar os conflitos de competências entre as nações e a impunibilidade dos crimes difusos, gerando uma maior segurança jurídica.

Referências Bibliográficas

ARENDT, Hannah. Totalitarismo. In: ARENDT, Hannah. Origens do totalitarismo: Antissemitismo, Imperialismo, Totalitarismo. São Paulo: Companhia das Letras, 2012. P. 474 – 499.

CORREIA, Atalá; ROBL FILHO, Ilton Noberto. Direito Comparado: Reflexões metodológocas e comparações no direito constitucional. Instituto Histórico e Geográfico Brasileiro, set/dez de 2022.

FRAZÃO, Ana. Regulation of articifial intelligence in Brazil: examination of Draft Bill no. 2338/2023. EU Law Journal, 1 de maio de 2024. Disponível em: https://www.academia.edu/121506440/Regulation_of_artificial_intelligence_in_Brazil_examination_of_Draft_Bill_no_2338_2023_. Acesso em 17 ago 2024.

GUILLOT, Jaume. Lei da EU sobre IA: primeira regulamentação de inteligência artificial. Parlamento Europeu, 18 de junho de 2024. Disponível em: https://www.europarl.europa.eu/topics/pt/article/20230601STO93804/lei-da-ue-sobre-ia-primeira-regulamentacao-de-inteligencia-artificial. Acesso em 17 ago 2024.

HOFFMANN-RIEM, W. Artificial Intelligence as a Challenge for Law and Regulation. In: WISCHMEYER, T., RADEMACHER, T. Regulating Artificial Intelligence. Springer, Cham. 30 de nov de 2019

LUDGERO, Paulo. Desafios da Regulamentação da Inteligência Artificial: Uma Análise Crítica das Propostas Legislativas. Jusbrasil, abril de 2024. Disponível em: https://www.jusbrasil.com.br/artigos/desafios-da-regulamentacao-da-inteligencia-artificial-uma-analise-critica-das-propostas-legislativas/2293750067. Acesso em: 17 ago 2024.

RUSCHEMEIER, Hannah. AI as a challenge for legal regulation – the scope of application of the artificial intelligence act proposal. ERA Forum 23, 2023. P. 361-376

SIMON, Michael. EU Regulation of Social Media AI. Blomberg LAR. Julho 2021. Disponível em:https://www.bloomberglaw.com/external/document/X66MI1U4000000/commercial-professional-perspective-eu-regulation-of-social-medi. Acesso em: 17 ago 2024

VESTAGER, Margrethe. How to Think About AI Policy. Project Syndicate. 11 de Março de 2024. Disponível em: https://www.project-syndicate.org/magazine/europe-ai-regulation-focuses-on-uses-not-technology-by-margrethe-vestager-2024-03. Acesso em: 17 ago 2024

Isabela de Oliveira do Nascimento

Maria Beatriz França

Mariana Queiroga dos Santos


Fonte: Jus Brasil.com.br


(SJRP)


Nenhum comentário:

Postar um comentário