top of page

Regulamentação das I.A's: muito barulho por nada? - Entrevista com a professora Ana Frazão sobre o Projeto de Lei 759/2024.

*Texto escrito em co-autoria com Eduarda Borges de Souza Lôbo, graduanda em Direito pelo Ceub. Esse texto conta com duas partes, essa é a parte I.


O desenvolvimento exponencial que os sistemas de Inteligência Artificial demonstraram nos últimos anos foi o ensejo para que governos do mundo inteiro tomassem medidas legais urgentes para a contenção dos riscos iminentes trazidos pelas novas tecnologias. Diante dessa latente realidade do atual estado de desenvolvimento tecnológico, foi redigido em 2023 o Projeto de Lei n° 759, de autoria do Senador Rodrigo Pacheco, que tem por objetivo estabelecer normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.

A elaboração do Projeto teve a colaboração de uma ampla comissão composta por especialistas dos ramos do direito civil e do direito digital. Entre os juristas notáveis que ali constavam, tive a surpresa de me deparar com o nome da Ana Frazão, minha professora de Teoria Geral do Direito Privado e lenda viva da Faculdade de Direito da Universidade de Brasília (entre outras inúmeras qualificações que renderiam uma matéria inteira). Diante dessa feliz coincidência, pensei que melhor do que gastar o tempo do leitor com opiniões ignóbeis deste pseudo-jornalista que vos escreve seria convidar uma verdadeira especialista para comentar sobre o Projeto que a própria ajudou a formular. Dado o convite prontamente aceito, eu e minha companheira que assina essa matéria em co-autoria fomos gentilmente recebidos pela professora Ana, que nos deu a honra de conceder a entrevista que se transcreve a seguir (sem absolutamente nenhum uso de Inteligência Artificial, que conste nos autos):


Pergunta (Luca): Como se deu a sua participação na elaboração do Projeto?

Resposta: Foi uma participação no contexto da Comissão de Juristas, que foi formada especificamente para esse fim [a construção do Projeto]. Era uma Comissão muito qualificada, presidida pelo Ministro Cueva (STJ), que teve a relatoria da professora Laura Schertel, e foi uma oportunidade única por conta da riqueza do trabalho e dos debates desempenhados. Houve muito espaço para a interlocução, não só com a academia, mas com o mercado, com a sociedade civil, com estudiosos estrangeiros e muitos outros. Foi um processo muito rico, que ficou consolidado em um relatório de mais de 900 páginas que está disponível para a consulta. A própria comissão buscou deixar um registro do seu trabalho, para que as pessoas possam entender quais foram as questões abordadas, por quê se preferiu uma abordagem em detrimento de outra... Creio que ali tem uma memória muito interessante de todo esse processo. Para uma professora e advogada que atua nessa área, foi um privilégio muito grande ter participado dessa Comissão. Eu já havia tido a oportunidade de participar de outras, e eu diria para vocês que essa foi a Comissão em que eu vi um trabalho mais rico acontecendo. Todos os trabalhos costumam ser gratificantes, mas esse eu diria que foi mais especial.

Pergunta (Luca): E você diria que o trabalho da Comissão influenciará na redação final ou será ignorado pelos nossos parlamentares?

Resposta: Eu acredito que influenciará. As notícias que a gente vem recebendo pela imprensa mostram isso. Acho que, claro, houve alguns aperfeiçoamentos, algumas mudanças, mas acho que alguns pilares foram mantidos. Por exemplo, essa ideia de se buscar uma regulação por direitos e por riscos, que a regulação precisa ser proporcional ao tipo de risco, que existem alguns riscos que podem ser assumidos e outros não... Acho que esse tipo de raciocínio se manteve no texto que foi aprovado pelo Senado. Agora, o texto ainda vai para a Câmara. E a Câmara, como vocês podem imaginar, é um outro movimento, então a gente não sabe o que acontecerá. O lobby das Big Techs é muito grande. É claro que uma regulação como essa vai delimitar o campo de ação, e elas [as Big Techs] preferiam estar atuando sem nenhum campo de constrição, fazendo o que bem entendem. A gente também compreende esse momento e parece que talvez essas influências sejam mais fortes na Câmara do que no Senado. Então, vamos ver...

Pergunta (Luca): Passando para o teor do texto, eu fiquei bastante confuso com a redação, para ser honesto. Quando a gente fala em Inteligência Artificial, normalmente se pensa nas generativas de texto e imagem (Chat GPT, Midjourney, etc.). Porém, a redação do texto bate muito na questão do “aspecto decisório” da I.A e a sua “capacidade de atingir um dado conjunto de objetivos”. Isso me causou muita estranheza, e daí me veio a dúvida: que inteligência artificial é essa que o texto busca regular?

Resposta: Na verdade, é exatamente esse tipo de utilização de I.A que nos tem preocupado. Nós temos observado que cada vez mais decisões tomadas por agentes privados e agentes públicos, decisões complexas, valorativas, que envolvem juízos completamente subjetivos, têm sido delegado para as máquinas, em várias extensões. Vou dar alguns exemplos: na área privada, hoje, são sistemas de inteligência artificial que muitas vezes substituem departamentos de recursos humanos de empresas, decidindo quem vai ser contratado, quem vai ser promovido, quem vai ser demitido, fazendo análise de currículos em massa... Hoje em dia é bem possível que uma empresa terceirize por completo um serviço para um sistema de I.A o seu processo de recrutamento de empregados. Então esse é um processo decisório que não é simples, nem banal. Nós estamos lidando com pessoas e decisões que iram impactar na vida delas. Esse é só um pequeno exemplo... na atividade privada você pode pensar também em decisões de políticas de investimento, decisões de precificação... Até aquilo que era o cerne da iniciativa privada [a precificação] hoje é transferido para uma máquina, que vai, inclusive, se utilizar de mecanismos extremamente sofisticados... A precificação personalizada, por exemplo: Se nós três aqui entrarmos em um site para comprar uma passagem, não necessariamente o preço será o mesmo... E o Poder Público também tem caminhado para esse sentido. Hoje também vem sendo delegado para sistemas de I.A uma série de decisões. Nós podemos ver a evolução da utilização da I.A, por exemplo, no Poder Judiciário, que hoje já utiliza sistemas que são capazes de classificar e resumir processos, que poderão propor decisões para os juízes, auxiliar em questões de identificação de questões de relevância, etc. Então, o que isso representa? Isso quer dizer que nós estamos utilizando I.A não só como o Midjourney, para produzir imagens, mas para de fato assumir partes importantes para o processo decisório, quando não para assumir a sua totalidade. A decisão totalmente automatizada é uma decisão tomada inteiramente por uma máquina. Então há uma série de riscos inerentes a esse processo, ainda mais quando não há supervisão humana. Apesar de fazerem uma série de coisas que o cérebro humano não é capaz, os sistemas de I.A ainda possuem uma série de limitações, e não necessariamente eles vão levar em consideração direitos fundamentais e uma série de aspectos importantíssimos nesses processos decisórios. Então é disso que estamos falando... A I.A não é uma mera ferramenta como um computador, ela é um agente. A partir do momento que ela possui poder decisório e pode executá-lo, ela passa a ter um protagonismo que pode neutralizar a decisão humana. E aí é um problema enorme, porque muitas vezes somos julgados e pacificados por máquinas, sem que nem mesmo tenhamos ideia de como elas nos julgam. Quem assistiu ao filme Coded Bias, viu ali uma série de exemplos: professores que trabalhavam em escolas que, antes, eram muito bem avaliadas, mas que quando passaram a ser julgadas por sistemas de I.A começaram a receber notas ruins... um dos professores foi demitido sem nem saber o porquê. Isso gerou inclusive uma questão constitucional relacionada ao contraditório e devido processo legal... É óbvio, se o meu desempenho profissional está sendo julgado por uma máquina, o mínimo que eu preciso saber é como essa máquina me julga, para poder me defender... Então esse é o principal foco de preocupações.

Pergunta (Luca): Você acabou entrando, sem querer, no tema da próxima pergunta... Parece que a preocupação que mais ronda o imaginário popular são as questões trabalhistas envolvidas. Eu queria saber se você acha que o Projeto caminha junto da tendência mundial de regulação, para que não haja essa preocupação tão grande no ambiente trabalhista, de pessoas que temem perder o emprego por conta da Inteligência Artificial...

Resposta: Não que a área trabalhista não seja importante, ela é e muito. Mas, hoje, ainda não dá pra dizer que o foco seja esse. Hoje há grandes preocupações, por exemplo, no uso de I.A para influenciar resultados de eleições, já que é a própria cidadania que está em jogo... Há uma grande preocupação com a própria preservação do livre-arbítrio, então dimensões existenciais das mais relevantes estão em jogo, independentemente da questão do trabalho... A própria proteção do consumidor, que, assim como o trabalhador, é considerado um pólo vulnerável, tem se tornado exponencialmente mais vulnerável devido à utilização da Inteligência Artificial... Então, o que a gente pode dizer é que, sim, a questão trabalhista é importante, mas, para além dela, temos pensado nas dimensões que as pessoas têm como consumidoras, cidadãs, eleitoras, na suas dimensões existenciais mais básicas, seus direitos a personalidade, privacidade, de não estarem sujeitas a técnicas de brainwashing ou de manipulação... tudo isso está em jogo. Então, sim, a proteção do trabalho e do trabalhador é muito importante, e ela própria irá envolver outras dimensões, pois a automação pode implicar, inclusive, na perda de empregos... então, questões que não vão dizer respeito propriamente ao processo decisório, mas que estão relacionadas a isso. Mas, para além disso, há muitas outras dimensões. A própria questão da educação e tantas outras...

Pergunta (Luca): E você acha que o PL está mais direcionado para qual dessas dimensões?

Resposta: Acho que para todas essas que eu mencionei. De alguma forma, todas elas são consideradas riscos excessivos ou alto risco. Por exemplo, se nós temos um sistema de I.A que irá determinar quem tem acesso a determinados serviços e benefícios públicos, isso já mostra que ele é um sistema de alto risco. Então, embora não seja fácil mapear tudo que seja considerado alto risco, a versão original do Projeto, apresentada pela Comissão e depois emendada, caminhava no sentido de tentar mapear, dentro do possível, os principais riscos da Inteligência Artificial. Evidentemente, eles não se resumem a estes. São inúmeros, então essa é a dificuldade. Por exemplo, armas autônomas, reconhecimento facial em espaços públicos... Então, veja, é uma miríade de situações, mas que procuraram ser contempladas pelo Projeto.

Pergunta (Eduarda): Aprofundando um pouco na pergunta anterior, como você acha que o Brasil poderia se posicionar melhor no cenário internacional, em termos de regulação da I.A, com base nas diretrizes trazidas pelo PL?

Resposta: Nós temos aqui uma primeira dificuldade: O Brasil, em regra, não produz tecnologia. Ele consome muito mais do que produz. Daí uma primeira preocupação, que é legítima, de que uma regulação de Inteligência Artificial, nesses moldes, possa não só restringir a aquisição de novas tecnologias, mas talvez impedir o desenvolvimento e a inovação no âmbito brasileiro, especialmente por parte de startups. E quando a gente diz que “o Brasil não produz”, vamos colocar isso bem entre aspas, porque atualmente a gente tem visto inúmeras startups e iniciativas muito interessantes que vem procurando romper esse cenário, apesar de todas essas dificuldades. Dito isso, a gente precisa reconhecer que estamos diante de um problema que é transversal e transnacional. Então, todos os países já sabem que resolver o problema do ponto de vista doméstico não será a solução perfeita. Outra coisa, sabemos também que uma boa regulação doméstica não necessariamente será efetiva, em razão de componentes geopolíticos. Por exemplo, na minha experiência profissional eu pude observar isso: o Brasil tem uma Lei Geral de Proteção de Dados que é muito próxima ao modelo europeu. Mas, a gente percebe a atuação de alguns atores internacionais que não protegem o cidadão brasileiro da mesma forma que protegem o cidadão europeu. Isso é interessante, pois, do ponto de vista comercial, faz sentido dar uma proteção mais ampla ao cidadão europeu do que ao cidadão brasileiro. Então, eu acho que esses pontos precisam ser colocados na mesa. Dito isso, me parece que, apesar de todas essas dificuldades, é importante avançar nesse cenário. Primeiramente, porque o Brasil não está sendo propriamente pioneiro. Ele já tem uma legislação que já se espelha na europeia, que é uma legislação de muita qualidade. A meu ver, é uma legislação que contempla, em parte, essas preocupações. Eu acho que é legítimo que um país, mesmo que seja um país em desenvolvimento que ainda luta para produzir tecnologia, procure, desde já, deixar claro que esse processo de criação de tecnologia precisa se dar em conformidade com direitos fundamentais da mais alta relevância... é preciso encontrar um ponto de equilíbrio entre inovação e direitos fundamentais. Então, é por isso que eu considero que, apesar de todas essas dificuldades, uma legislação nesse sentido é muito benéfica, sob vários aspectos, até mesmo do ponto de vista da inovação. Existem muitos agentes sérios que querem desenvolver tecnologia em conformidade, sim, com direitos fundamentais e respeito ao cidadão. Muitas vezes, na inexistência dessa regulação, esses agentes não possuem segurança jurídica suficiente para saber se e como eles devem investir em proteção. Então, uma boa regulação cria esse nivelamento, em que todos os agentes sabem, de maneira apriorística, que cuidados eles deverão ter ao desenvolver determinada tecnologia, ao disponibilizar essa tecnologia no mercado... Então, é assim que eu vejo, ao contrário de alguns que chegam a defender que “o Brasil nem poderia estar pensando nisso”, pois “isso pode comprometer o desenvolvimento de tecnologias próprias”, “e as startups?” e etc... Agora, é claro, uma coisa é a gente estar diante de uma Big Tech estrangeira e outra coisa é a gente estar diante de um pequeno agente nacional que está iniciando as suas atividades. Então, regular a I.A é saber que a gente não está diante de um bloco homogêneo e que há uma série de nuances e sutilezas que precisamos contemplar. Mas, me parece que o Projeto teve esse cuidado e que é possível adotar essa abordagem mais flexível e personalizada de olhar cada agente de acordo com a sua circunstância, de acordo com o grau de risco que ele está criando, para propiciar a ele uma regulação adequada.

Pergunta (Eduarda): Você poderia nos dizer quais foram os principais desafios encontrados pela Comissão ao tentar encontrar esse equilíbrio entre as inovações trazidas pela I.A e a proteção dos direitos fundamentais?

Resposta: A principal dificuldade é exatamente estar lidando com um assunto que é pouco conhecido e que muda muito rapidamente. Aliás, esse é um argumento utilizado pelas pessoas que defendem a inexistência de regulação. Porém, pensem no que é o princípio da precaução em relação ao direito ambiental, mas que se aplica também à tecnologia. Significa dizer que às vezes a gente está diante de alguns assuntos que se nós formos esperar termos uma base científica robusta antes de regular, a gente não consegue regular nunca. Daí porque o princípio da precaução cria uma espécie de giro diante do princípio da prevenção. O princípio da prevenção é dizer que há alguns riscos mapeados e que nós devemos prevenir esses riscos. A precaução, não. A precaução seria dizer que às vezes não possuímos a delimitação do risco, que nós estamos diante de incertezas radicais, que as evidências que nós temos ainda são muito especulativas, mas que o objeto da proteção é tão relevante que eu não posso correr o risco de causar algum dano. Se eu estou falando de valores importantes como a autodeterminação das pessoas, o seu livre-arbítrio, a preservação do resultado de democracias e de eleições, eu não estou falando de questões banais. São questões em relação às quais qualquer pequeno risco que já foi identificado, ainda que sem tanta evidência científica robusta, no mínimo se deve dar uma devida atenção. Então, esse eu acho que é um primeiro ponto. Dito isso, estamos diante de uma área que muda muito rapidamente, e essa foi uma das grandes dificuldades que a comissão teve, inclusive para classificar os riscos. O que é um risco excessivo e um alto risco? O que hoje é considerado risco excessivo ou alto risco, amanhã já pode não ser. Então a Comissão fez algo que me pareceu muito interessante: ela já propôs, em face da segurança jurídica, uma classificação de riscos, mas ao mesmo tempo ela previu que haveria uma autoridade [regulatória], ainda que ela não tenha, naquele momento, dito que autoridade seria essa. Esse Projeto que foi aprovado pelo Senado é bem mais robusto, nesse sentido, pois já cria o SIA, que é um sistema de inteligência artificial, já diz que a autoridade responsável será a ANPD [Agência Nacional de Proteção de Dados], já procura uma integração com outras instituições públicas... Isso possibilita que esse sistema atualize periodicamente essa classificação de riscos, e aí a gente teria uma situação muito próxima do ideal... nós teríamos uma segurança jurídica inicial, para que os agentes econômicos, pesquisadores, desenvolvedores possam saber, minimamente, onde encaixar as suas tecnologias e qual é o regime regulatório correspondente, mas, ao mesmo tempo, a gente não engessa. Então, a gente possibilitaria uma atualização dinâmica e, conforme haja o avanço científico e o surgimento de novas evidências, uma plasticidade para que essas classificações sejam revistas. Então, eu acho que, diante desses desafios, essa, que talvez tenha sido uma das principais dificuldades, foi superada, embora ela envolva uma questão institucional muito importante. É quase como se houvesse um reconhecimento de que a gente vai precisar do Estado aqui. A gente vai precisar de alguma autoridade, seja a ANPD, seja o SIA, seja algum modelo regulatório que fique a frente disso e que possa atualizar esses riscos. A parte II será postada no dia 27/01.

Posts recentes

Ver tudo

Comments


Instagram: @Jornal.Tres

E-mail: Jornal.tr3s@gmail.com

Brasília-DF​

Fique informado, junte-se à nossa newsletter

Obrigado pela inscrição!

bottom of page