Regulamentação das I.A's: muito barulho por nada? - Entrevista com a professora Ana Frazão sobre o Projeto de Lei 759/2024.
- Luca Zulato
- 27 de jan.
- 10 min de leitura
*Texto escrito em co-autoria com Eduarda Borges de Souza Lôbo, graduanda em Direito pelo Ceub. Esse texto foi dividido em duas partes, essa é a parte II.
O desenvolvimento exponencial que os sistemas de Inteligência Artificial demonstraram nos últimos anos foi o ensejo para que governos do mundo inteiro tomassem medidas legais urgentes para a contenção dos riscos iminentes trazidos pelas novas tecnologias. Diante dessa latente realidade do atual estado de desenvolvimento tecnológico, foi redigido em 2023 o Projeto de Lei n° 759, de autoria do Senador Rodrigo Pacheco, que tem por objetivo estabelecer normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.
A elaboração do Projeto teve a colaboração de uma ampla comissão composta por especialistas dos ramos do direito civil e do direito digital. Entre os juristas notáveis que ali constavam, tive a surpresa de me deparar com o nome da Ana Frazão, minha professora de Teoria Geral do Direito Privado e lenda viva da Faculdade de Direito da Universidade de Brasília (entre outras inúmeras qualificações que renderiam uma matéria inteira). Diante dessa feliz coincidência, pensei que melhor do que gastar o tempo do leitor com opiniões ignóbeis deste pseudo-jornalista que vos escreve seria convidar uma verdadeira especialista para comentar sobre o Projeto que a própria ajudou a formular. Dado o convite prontamente aceito, eu e minha companheira que assina essa matéria em co-autoria fomos gentilmente recebidos pela professora Ana, que nos deu a honra de conceder a entrevista que se transcreve a seguir (sem absolutamente nenhum uso de Inteligência Artificial, que conste nos autos):
Pergunta (Eduarda): Como foram pensados, diante dessas dificuldades que foram enfrentadas, os mecanismos previstos no PL para que se pudesse assegurar que os direitos fundamentais efetivamente sejam respeitados na aplicação dos sistemas de I.A?
Resposta: A partir de diversas frentes. Em primeiro lugar nós temos um regime procedimental, baseado em uma regulação responsiva, em que os agentes que se prestam a desenvolver ou aplicar esses sistemas estão sujeitos a uma série de obrigações que vão procurar conciliar exatamente a inovação tecnológica com a aplicação desses direitos. Para além disso, nós temos esse sistema regulatório acoplado a um regime, de certa forma, “punitivo”, entre aspas. É um regime de responsabilidade civil, que tem hoje uma função preventiva e punitiva, querendo ou não, e o próprio regime administrativo. Então, na verdade, a gente está diante de um modelo que é complexo. Ele é baseado em diversos pilares, que também procuram prestigiar e enaltecer a iniciativa privada. Mas ele é essencialmente preventivo e procedimental, porque ele quer evitar o dano e fazer com que, de fato, todas essas tecnologias, desde o momento da sua concepção, já estejam pensadas, treinadas e desenvolvidas com essa preocupação da proteção dos direitos humanos, a partir de análises de risco que sejam compatíveis, transparentes, auditáveis... e, se nada funcionar, também teremos a responsabilidade civil e administrativa para contornar esses dano.
Pergunta (Eduarda): De que forma a Comissão atribuiu a responsabilização civil por danos causados por sistemas de I.A a partir de uma análise de risco?
Resposta: O que foi feito naquele primeiro momento... e, repito, nós precisamos conferir a redação que foi aprovada pelo Senado... se pensou no seguinte: em relação aos riscos excessivos que nem poderiam ser assumidos e em relação aos altos riscos, o regime seria de responsabilidade objetiva. Em relação ao baixo e médio risco, que são categorias residuais, nós trabalhamos com a responsabilidade subjetiva, porém com a inversão do ônus da prova... exatamente para facilitar, porque a vítima de um dano causado por I.A muitas vezes nem sabe que, por trás daquela ação que ela está sofrendo, tem um sistema de I.A. Às vezes nem quem executa esse sistema sabe direito como ele funciona, imagine quem sofre as consequências dele. Então, de certa forma, foi assim que a questão foi resolvida: um regime mais rígido e mais amplo, que é o da responsabilidade objetiva, para os altos riscos, e um regime mais flexível, que é o da responsabilidade subjetiva, para aquilo que não seja alto risco, mas, ao mesmo tempo, já se preocupando com a defesa da vítima... daí a presunção de culpa, a inversão do ônus da prova... alguns mecanismos que foram pensados nesse sentido, que, a meu ver, faz muito sentido. Claro que alguns deles já decorreram, em se falando de direito do consumidor, do próprio CDC... são soluções já experimentadas, por assim dizer, no direito brasileiro. Mas, como a gente sabe que as aplicações desses sistemas podem ir muito além das relações de consumo, é muito importante que esse tipo de resposta jurídica fique claro e extensiva a todas as formas de utilização, mesmo além das relações de consumo.
Pergunta (Eduarda): Como seria feita essa classificação dos riscos (excessivos, altos, médios, baixos)?
Resposta: Esse é um ponto muito criticado, mas, ao mesmo tempo, a pergunta é: haveria como ser feito de outro jeito? Em princípio, essa classificação é feita pelo agente. Ou seja, é ele que teria que fazer uma análise e classificar seu próprio risco. Agora, obviamente, a grande questão é: como essa análise vai ter que ser feita? Como essa análise será compatível com princípios de accountability e transparência?... inclusive para que a sociedade civil, o mercado, os consumidores, a academia e a própria autoridade fiscalizadora possam checar... Mas é essa a ideia: vamos, em um primeiro momento, dar ampla liberdade aos agentes econômicos, sem prejuízo de que a autoridade responsável, sempre que desconfiar de alguma coisa, possa chamar a responsabilidade e dizer: “por que você classificou o seu risco assim?”... possa não apenas tentar entender, como, inclusive, modificar o risco. E, constatando que aquele agente agiu de má-fé ou sem os cuidados necessários para a classificação do risco, estabelecer as devidas punições. Até porque seria impossível condicionar a utilização a uma análise prévia de riscos feita pela autoridade... Em princípio, serão os próprios agentes que farão essa classificação, mas com base na lei e, obviamente, sujeitos a responderem pelos resultados e pelos processos que chegarem.
Pergunta (Eduarda): Em trabalhos e discussões anteriores, eu me recordo que você falou sobre os parâmetros éticos e jurídicos que devem ser considerados na utilização da I.A. Nesse sentido, como que você observa que esses parâmetros éticos e jurídicos foram incorporados pela Comissão na proposta do PL?
Resposta: Eles foram incorporados a partir dessa preocupação com direitos fundamentais e com princípios procedimentais da mais alta importância, como, por exemplo, a transparência, accountability e tantos outros... a proposta já estabelece vários desses princípios, a importância da supervisão humana em todas as fases, a preocupação diante de decisões totalmente automatizadas... então, dentro do possível, essa foi a ideia. Daí até porque se diz que esse projeto, pelo menos quando saiu da comissão de juristas, tentou incorporar o melhor, tanto do modelo de regulação por riscos, quanto do modelo de regulação por direitos. Até porque ele também se baseia na ideia de que em qualquer caso, qualquer que seja a avaliação de riscos, todos esses direitos e princípios devem ser observados. A questão é que quanto maior o risco, maior é o cuidado e as obrigações procedimentais, até para que a gente possa avaliar se e em que medida esses direitos estão sendo cumpridos... mas, em princípio, eles têm que ser cumpridos sempre, em todas as formas de utilização de I.A.
Pergunta (Eduarda): Você acredita que esses parâmetros são suficientes para mitigar riscos associados à utilização da I.A? Ou deveriam haver outros?...
Respostas: Os parâmetros em si são bons... Mas, eu já tenho uma certa estrada, então a gente sabe que a lei não é mágica... e o que importa não é a lei, mas como ela é aplicada. Eu não sei vocês, mas eu tenho ficado muito decepcionada com uma série de aplicações da LGPD, por exemplo. É uma lei muito boa, mas, por uma série de circunstâncias, a maneira como ela está sendo aplicada pelos agentes econômicos, a maneira como a ANPD tem conduzido, a maneira como o Judiciário tem respondido, a meu ver tem enfraquecido essa lei. O que eu poderia dizer para vocês é: acho que a proposta de I.A, hoje, do ponto de vista teórico, tem o potencial para, sendo eficaz, contemplar tudo isso. Mas a gente sabe que a eficácia da lei... até aproveitando os prêmios Nobel de economia, Acemoglu, Johnson e Robinson... ela está sujeita a um jogo institucional que é muito mais complexo. A gente vive em um país em que, muitas vezes, as leis não pegam. Veja, isso vai depender do comportamento voluntário diante da legislação, pelas pessoas que estarão sujeitas a elas, vai depender do comportamento do SIA, vai depender do judiciário. Se não houver uma orquestração entre todos esses pilares, pode ser que a gente tenha uma legislação muito bonita, mas que, na prática, simplesmente não seja eficaz. Então, o que eu posso dizer é que há uma promessa... e a promessa é boa porque a legislação é de boa qualidade. Agora, se vai ser cumprida na prática... vamos esperar um pouquinho para a gente poder avaliar isso... precisamos testar e ver quais são as vantagens políticas e econômicas para que essa legislação possa render, ou não, os frutos a que ela se propõe.
Pergunta (Luca): Partindo para a última pergunta... já que falamos sobre o cenário global, existe algum país que você acha que seja referência hoje nesse assunto? E, por fim, você acha que, no Brasil, o Projeto trará realmente mudanças significativas se a lei for cumprida, ou se, por enquanto, estamos fazendo muito barulho por nada?
Resposta: Eu acho que talvez estejamos falando de um dos assuntos mais importantes de nossa época, senão o assunto mais importante. Então, eu já começo com essa colocação, porque eu acho que definitivamente - embora muitos tenham dito o contrário – não se trata de muito barulho por nada. Trata-se, na verdade, de uma regulação que tem por objetivo assegurar a própria sociedade democrática, a própria autonomia e o livre-arbítrio das pessoas... é tudo que as pessoas têm de mais precioso. Então, é importante que esse barulho aconteça. Claro que a resposta regulatória pode não ser a mais eficiente, mas precisamos pensar... acredito que a gente tenha chegado em um momento que a pergunta não é mais ‘se’ devemos regular, mas ‘como’, ‘quando’, ‘de que maneira’... porque os riscos mapeados já são muito intensos. E eu acho que, por uma série de razões, a Europa, hoje, acaba sendo o nosso principal referencial, no sentido de que ali nós temos uma reflexão que foi muito madura, que passou muito longe de ser açodada, e, a meu ver, muito equilibrada. Até por essa razão eu acho que o Projeto tanto se inspirou nessa regulação... não por um complexo de vira-lata, ou por achar que tudo que vem de lá é bom. Mas porque realmente, ali, a gente pode acompanhar o resultado de um trabalho muito bem feito. Então, eu diria que essa foi uma grande inspiração, sem prejuízo de uma série de outras, claro. E diria também que para o grau de risco que a utilização dos sistemas de I.A representa, o barulho tem sido até pouco. Acho que se as pessoas tivessem uma consciência maior sobre o quanto isso já faz parte da nossa vida... os riscos principalmente para as gerações mais novas... vejam, vocês são monitorados e têm dados pessoais coletados desde a mais tenra infância. Vocês não sabem o que isso pode representar quando vocês vão comprar produtos do varejo, em termos de precificação personalizada... oportunidades de empregos, profissionais e acadêmicas que vocês tenham no futuro... Então, é surreal mesmo. A gente está diante de um mundo em que, sob vários aspectos, nós já somos governados por esses sistemas de I.A. Mais uma vez voltando ao [Yuval Noah] Harari, ele tem uma expressão no livro Homo Deus que é o ‘dataísmo’. Ele diz que tem muito medo de que os dados trabalhados por sistemas de I.A façam pelo Homo Sapiens o que o Homo Sapiens fez com todas as demais espécies, que seria uma total subjugação. E provavelmente a gente já está nessa fase, isso não é mais uma ameaça. Claro que para os mais velhos como eu, a gente fica mais tranquilo, porque para nós todas as nossas opções existenciais e profissionais foram tomadas antes disso. Mas, para as novas gerações, eu acho meio aterrorizante, ou melhor, estarrecedor, pensar nesse tipo de contexto. Então, precisamos, sim, fazer muito barulho. Mas isso se acopla muito com a questão da efetividade. A gente às vezes percebe que se cria muito barulho, se cria uma legislação quase de faz-de-conta e que na verdade é uma grande cortina de fumaça. Eu sempre digo que uma má legislação ou uma legislação ineficaz é pior que a inexistência de legislação. Porque, pelo menos, a má legislação coloca o problema tal como ele está, a verdade está ali nua e crua. Enquanto que quando a gente tem uma legislação ruim ou que não é aplicada, parece que a gente acalma os ânimos e acha que a gente não precisa se preocupar, quando, na verdade, a gente precisa... Então, seria isso, sem prejuízo de entender todas as dificuldades e complexidades do tema, as críticas feitas à regulação... realmente, eu acho que a gente não tem opção. Claro que uma nova regulação sempre vai envolver uma certa dose de experimentalismo... as autoridades regulatórias precisam estar mais atentas a isso. Mas, o princípio da precaução nos impõe o cuidado, então não dá, pelo medo de errar, se tornar absolutamente omisso. De alguma maneira, não só o Estado, mas a academia e a sociedade civil vão precisar assumir um papel maior nesse tipo de cuidado...
Pergunta (Eduarda): É, a gente está, cada vez mais, caminhando para um episódio de Black Mirror...
Resposta: Total, eles são visionários... gente, eu não sei se vocês lembram daquele episódio em que as pessoas eram classificadas, tinham uma nota... se encontravam lá, recebiam uma notinha... você tinha que ser simpático, senão o seu vizinho... aí chega uma hora que a personagem quer comprar uma passagem de avião, mas não tinha mais o score para comprar... a ideia do social score da China é essa... já é uma realidade. Então, assim, eles são visionários em vários e vários pontos. Eu confesso que sou uma grande fã da série. Eu lamento que a última temporada faz tanto tempo. Claro, nem todos os episódios mantêm a mesma qualidade. Mas, vejam, alguns episódios, quando a gente viu lá atrás... não é nem lá atrás... vamos colocar 4, 3 anos... e que pareciam peças de ficção científica... aquele que ressuscita um personagem morto... hoje a gente já tem vários sistemas de I.A com robôs que imitam a fisionomia, que se propõem a dar continuidade a vida das pessoas... e tantas outras situações que eram expostas ali que a gente ficava “nossa, que loucura! Que viagem!”... e que, hoje, já estão acontecendo... A parte I foi postada dia 20/01.
Kommentarer