BLOG BMJ

Liberdade e Segurança: a dicotomia da regulamentação da Inteligência Artificial no Brasil e Europa

03/04/2022 08:00:00 / por BMJ Consultores

Por Gianluca Benvenutti, João Eudes e José Henrique*

Os sistemas de inteligência artificial (IA) estão cada vez mais presentes em todas as esferas da vida pública e privada. No entanto, a falta de regulamentação adequada quanto ao seu desenvolvimento e implementação pode ser um risco para a própria utilização da tecnologia, principalmente quando falamos de segurança jurídica. Esta visão é compartilhada por instituições da sociedade civil da União Europeia (UE), que avocam por uma regulamentação que tenha a proteção dos direitos fundamentais como objeto central. O projeto abordará os impactos estruturais, sociais, políticos e econômicos do uso da inteligência artificial.

No Brasil, diferentemente da Europa, a aplicação de inteligência artificial ainda não é expressiva, o que faz com que stakeholders pressionem por uma regulamentação principiológica e “liberal”. Deste modo, o desenvolvimento da tecnologia e de aplicações que façam uso da inteligência artificial não correria o risco de ficar engessada por uma legislação desatualizada.

O Ministério da Ciência, Tecnologia e Inovações (MCTI) realizou, em 2020, uma consulta pública objetivando promover o avanço científico e solucionar problemas concretos do país por meio do desenvolvimento e utilização da inteligência artificial, destacando que a “IA pode trazer ganhos na promoção da competitividade e no aumento da produtividade brasileira, na prestação de serviços públicos, na melhoria da qualidade de vida das pessoas e na redução das desigualdades sociais, dentre outros”. Ficou evidente, após mais de 300 contribuições de diversas associações, empresas privadas e pesquisadores ao longo de dois meses e meio, uma clara divergência quanto à necessidade ou não de se regulamentar o uso desta tecnologia.

Se por um lado o setor privado demonstra preocupação com leis exageradamente restritivas e seus possíveis danos à inovação de uma tecnologia ainda incipiente no Brasil, por outro, organizações da sociedade civil entendem que as regras são fundamentais para que sejam protegidos os direitos humanos fundamentais.

Essa dicotomia pode ser observada também nos debates travados no Legislativo federal. No final de 2021, a Câmara dos Deputados aprovou o Marco Legal da Inteligência Artificial no Brasil, o PL 21/2020. De autoria do deputado Eduardo Bismarck (PDT/CE) e inspirado na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE), o projeto inicia o debate já conhecido pelos que acompanham a regulamentação de pautas tecnológicas: qual o equilíbrio entre liberdade e segurança?

A relatora do projeto, deputada Luisa Canziani (PTB/PR), propôs em seu parecer que as análises dos casos não sejam centralizadas em um só órgão, mas junto às instituições que já regulam cada área, dando mais liberdade à inovação, sem que a adaptação do arcabouço regulatório necessite ser realizado por leis. No texto aprovado pela Câmara vemos a própria expressão da liberdade do mercado na utilização da tecnologia no seu art. 4º, inciso VI, que estabelece “o reconhecimento de sua natureza digital, transversal e dinâmica”. A matéria, no entanto, ainda deve ser apreciada pelo Senado Federal.

No Senado existem outros dois projetos sobre a mesma temática, o PL 5051/2019, do senador Styvenson Valentim (Podemos/RN), e o PL 872/2021, do senador Veneziano Vital do Rêgo (MDB/PB), que também estabelecem princípios, regras e diretrizes para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil. No primeiro, vemos um aceno à segurança, quando se aponta a necessidade de supervisão humana no uso da tecnologia.

A dicotomia entre liberdade e segurança foi muito bem descrita pelo sociólogo contemporâneo falecido em 2017, Zygmunt Bauman. Em seus livros, como “Modernidade Líquida” e “Tempos Líquidos”, o autor aponta para a eterna busca de equilíbrio entre os dois, algo que circunda (e provavelmente circundará eternamente) as discussões de projetos relativos à tecnologia e proteção de dados nas democracias, sejam elas sul-americanas ou europeias, como vamos observar.

O texto do PL 21/2020, principalmente, vem sofrendo críticas de entidades da sociedade civil, como a Coalizão Direitos na Rede (CDR). A entidade alega que o projeto “não prevê instrumentos concretos para lidar com aspectos relevantes da tecnologia ante a possibilidade da aplicação de alguns desses sistemas de IA colocar indivíduos em risco e, apressadamente, prevê um regime de responsabilidade civil prejudicial aos cidadãos brasileiros”. Por isso, defendem que haja um debate amplo, que considere a voz de todos os setores interessados e afetados e seja realizado com certo tempo, algo que deve ser alcançado com a criação da Comissão de Juristas instalada no dia 30 de março de 2022 no Senado Federal, por iniciativa do Senador Eduardo Gomes (MDB/TO).

O colegiado será presidido pelo ministro Ricardo Villas Bôas Cueva, do STJ, e relatado por Laura Schertel, com acompanhamento de especialistas da área da Autoridade Nacional de Proteção de Dados (ANPD). Gomes ressaltou a complexidade do assunto e afirmou que é um tema novo que merece a dedicação de todos. O entendimento do relator é que o tema ainda precisa ser aprofundado, afinal, a discussão da liberdade de mercado e da segurança do ser humano, para o Senador, é não só preferível, mas essencial. O que chama a atenção é que a comissão terá o prazo de 120 dias para conclusão dos trabalhos, a contar da instalação do grupo, prevista para a última semana de março. Desta forma e, considerando o ano eleitoral, a regulamentação de inteligência artificial no Brasil não deverá ter a celeridade esperada pelo mercado.

Igualmente, do outro lado do mundo o processo de regulamentação de IA não está sendo tão rápido como poderia se esperar, e a discussão quanto à liberdade e à segurança parece ser a mesma. Após estudos realizados ao longo de três anos, a Comissão Europeia, que desempenha um papel similar ao do Poder Executivo da União Europeia, apresentou ao Parlamento Europeu uma proposta para regulamentação da Inteligência Artificial. Conhecida como Artificial Intelligence Act (AIA), a proposta foi apresentada no dia 21 de abril de 2021.

Desde então, o texto já recebeu parecer do Comitê Econômico e Social e do Comitê das Regiões Europeu, e está agora em discussão no âmbito do Conselho da União Europeia. A medida ainda será avaliada pelo Conselho, que deve emitir um parecer estabelecendo seu posicionamento, o que encaminharia a proposta para análise do Parlamento Europeu para uma segunda leitura.

Na Europa, o contexto em que uma proposta como essa emerge é distinto da realidade brasileira. Sistemas de IA já são utilizados na comunidade europeia, sobretudo pelo setor público, de maneira mais ampla. No bloco europeu, existem exemplos de impactos negativos da IA quando utilizada de forma inapropriada, ferindo claramente princípios da vertente de segurança dos direitos fundamentais. Pode ser citado, por exemplo, o uso de IA na fronteira, que facilitou a deportação de pessoas em movimento e lhes negou acesso a serviços como assistência médica e seguridade social.

O uso de sistemas preditivos de policiamento levou ao aumento do policiamento excessivo das comunidades miscigenadas, bem como de áreas mais carentes. Já a classe trabalhadora e os migrantes estão sendo mais monitorados pelos sistemas de detecção de fraude. Sistemas de reconhecimento facial e similares têm sido usado em toda a Europa, levando à uma vigilância biométrica em massa. Com isso, ao promover a vigilância em massa, algumas das mais profundas desigualdades sociais são ampliadas, aumentando o desequilíbrio de poder entre as classes e grupos de pessoas no continente, colocando os direitos fundamentais e valores democráticos em risco.

Na União Europeia, optou-se por um instrumento legislativo que parte da abordagem de criação de exigências aplicáveis somente às atividades de IA de risco elevado, sendo facultativo às atividades de IA que não sejam de risco elevado à aderência ao código de conduta dos sistemas de IA. Aqui, vale dizer, é observada a tentativa de se colocar valor no equilíbrio entre liberdade e segurança. Em casos mais arriscados, a segurança deve ser observada com mais cuidado e atenção. Dentre os objetivos apresentados, também é capaz de se notar uma perspectiva que tenta mesclar os interesses em desenvolver um mercado que coloque a União na vanguarda tecnológica dos sistemas de IA, de modo a garantir segurança jurídica e viabilidade de investimentos, com a garantia de proteção dos direitos fundamentais e valores da União.

Em face à essa dicotomia dos objetivos presente na proposta que está em andamento, 123 organizações da sociedade civil uniram-se em uma carta aberta avocando alterações no AIA e clamando por maior segurança. Para as instituições é fundamental uma regulamentação que seja capaz de endereçar os possíveis impactos da aplicação dos sistemas de IA na sociedade, política, econômica e nos direitos fundamentais individuais.

Na carta, também é reconhecido que o uso dos sistemas de IA reflete uma estrutura de poder que tende a prejudicar, geralmente, os mais marginalizados na sociedade. Neste sentido, as organizações sugerem uma legislação que não seja rígida em caracterizar os riscos atribuídos ao uso de IA, mas que considere os diversos contextos em que determinadas ferramentas podem ser utilizadas. Por fim, vale destacar que na carta também é defendida a ideia de obrigações aos usuários de sistemas de IA de risco elevado, e não somente aos desenvolvedores. Dessa forma, considera-se haver maior facilidade na prestação de contas e transparência dos impactos dos sistemas de IA para os usuários.

É necessário apontarmos que a Europa, pela complexidade do compartilhamento de dados e tecnologias entre países, acaba saindo à frente das discussões. O Brasil e outros países olham para o velho continente como exemplo, como foi com a GDPR (General Data Protection Regulation) e sua influência na construção da LGPD (Lei Geral de Proteção de Dados). Afinal, não só o nome apresenta semelhanças inegáveis. Dessa forma, a regulamentação na UE vai além de uma estratégia de posicionamento para os países da comunidade europeia, e poderá se estender e influenciar processos decisórios ao redor do mundo.

Como bem definido por Bauman, “vivemos em tempos líquidos. Nada foi feito para durar”. Mal sabia o autor, porém, que a dicotomia entre liberdade e segurança na utilização de tecnologias que envolvem proteção de dados está aqui para ficar, no Brasil ou na Europa. Resta saber se o equilíbrio será atingido na regulamentação do uso de inteligência artificial.

 

Referências :

BAUMAN, Zygmunt. Tempos Líquidos. Rio de Janeiro: Zahar, 2021.

BAUMAN, Zygmunt. Modernidade Líquida. Rio de Janeiro: Zahar, 2001.

https://edri.org/our-work/civil-society-calls-on-the-eu-to-put-fundamental-rights-first-in-the-ai-act/

https://gdpr-info.eu/

https://eur-lex.europa.eu/TodayOJ/

https://www.camara.leg.br/propostas-legislativas/2236340

https://www25.senado.leg.br/web/atividade/materias/-/materia/151547

https://www25.senado.leg.br/web/atividade/materias/-/materia/147434

https://www25.senado.leg.br/web/atividade/materias/-/materia/138790

https://www12.senado.leg.br/noticias/materias/2021/10/02/senado-vai-analisar-projeto-que-regulamenta-uso-da-inteligencia-artificial

https://www12.senado.leg.br/noticias/materias/2022/03/24/comissao-de-juristas-comecara-a-analisar-projetos-sobre-inteligencia-artificial

 

*Gianluca Benvenutti é Coordenador da BMJ Consultores Associados.
*João Eudes é Consultor da BMJ Consultores Associados.
*José Henrique é Consultor da BMJ Consultores Associados.

 

 

Tópicos: Brasil, Inteligência Artificial, Regulamentação, Europa, Segurança virtual, Ciência de Dados

BMJ Consultores

Escrito por BMJ Consultores

Assine nosso Newsletter

Posts Recentes