Você está aqui: Página Inicial / NOTÍCIAS / Seminário debateu diretrizes que subsidiaram projeto de lei sobre inteligência artificial

Seminário debateu diretrizes que subsidiaram projeto de lei sobre inteligência artificial

por Mauro Bellesa - publicado 08/05/2023 11:50 - última modificação 22/06/2023 14:18

Mesa do seminário 'Desafios Regulatórios da Inteligência Artificial' - 24/4/23
A partir da esquerda, quatro dos expositores do seminário: o advogado Luiz Fernando Martins Castro, o professor Virgílio Almeida, o senador Eduardo Gomes e o advogado Maximiliano Martinhão; os outros expositores foram a professora Laura Schertel Mendes (por videoconferência) e o advogado Fabrício da Mota Alves

O presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no dia 3 de maio o Projeto de Lei 2.338/23, que dispõe sobre a regulação do desenvolvimento e uso da inteligência artificial (IA). A elaboração da proposta foi subsidiada por relatório de comissão de juristas especialmente instituída em fevereiro de 2022 para analisar os aspectos referentes ao estabelecimento de princípios, regras, diretrizes e fundamentos para a regulação da IA no Brasil

No dia 24 de abril, diante da iminente formalização do projeto de lei, a Cátedra Oscar Sala realizou o seminário Desafios Regulatórios da Inteligência Artificial, com a participação de integrantes da comissão de juristas, pesquisadores e representantes do Executivo e do Legislativo.

Relacionado

Seminário Desafios Regulatórios da Inteligência Artificial
24/5/2023



Outros eventos

Seminário Regulação da IA no Brasil: Estamos em um Bom Caminho?
25/4/2023


 

Seminário ChatGPT: Potencial, Limites e Implicações para a Universidade
21/3/2023

Os expositores foram o cientista da computação Virgílio Almeida, titular da cátedra e professor da UFMG, Laura Schertel Mendes, professora da UnB e professora visitante da Universidade Goethe de Frankfurt, Alemanha, Maximiliano Martinhão, secretário de Telecomunicações do Ministério das Comunicações, o advogado Fabricio da Mota Alves, do Serur Advogados, e o senador Eduardo Gomes (PL-TO). A moderação foi do advogado Luiz Fernando Martins Castro, coordenador-adjunto da Cátedra Oscar Sala.

A Cátedra Oscar Sala é fruto de convênio entre a USP e o Comitê Gestor da Internet no Brasil (CGI.br) operacionalizado pelo IEA e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC.br), braço executivo do CGI.br. No seminário, Martinhão falou sobre iniciativas em apoio à pesquisa em IA apoiadas pelo CGI.br.

Princípios éticos

Na abertura do encontor, Virgílio Almeida disse que a percepção geral da capacidade dos algoritmos de influenciar aspectos relevantes da vida de todos, e mesmo de atentar contra direitos fundamentais, resultou na tomada de consciência de que é preciso adotar princípios éticos em relação à IA e estabelecer limites para seu emprego.

Vários países, afirmou, deram início a discussões acadêmicas, técnicas e legislativas para “identificar a melhor forma de enfrentar a questão, propondo modelos regulatórios que preservem direitos fundamentais, mas que não inibam o desenvolvimento tecnológico e econômico desejado com o amplo uso da IA”.

Ele destacou a perplexidade de setores da sociedade ao vislumbrar os possíveis impactos da artificial generativa, cujo exemplo de maior repercussão na atualidade é o modelo de linguagem ChatGPT, desenvolvido pela OpenAI, aberto ao público em novembro.

Almeida enfatizou que a legislação sobre propriedade intelectual precisa ser observada no uso de novas ferramentas de IA, e “os advogados são essenciais nessa discussão”. Mas há também questões éticas, tecnológicas e sociais, cujo debate precisa contar com a participação das comunidades que serão impactadas, tecnólogos, eticistas, acadêmicos interdisciplinares e outros especialistas, completou

Ele citou algumas das dificuldades para a análise de possíveis impactos dos sistemas de IA. É o caso dos mecanismos de explicabilidade das decisões tomadas por eles, que apresentam desafios tecnológicos ainda não resolvidos e exigem a participação de uma comunidade maior na sua resolução. Também não está especificado claramente o que pode ser feito em relação à transparência dos algoritmos, afirmou. Segundo Almeida, os procedimentos de estimativa de risco também exigem formulação e regulação.

Pilares

Assim como outros expositores, ele concentrou sua exposição nas propostas presentes no relatório da comissão de juristas que assessorou a Presidência do Senado. De acordo com Almeida, a proposta baseia-se em três pilares:

  • garantia de um rol de direitos às pessoas afetadas pelos sistemas de IA;
  • gradação do nível de riscos impostos pelos esses sistemas;
  • estabelecimento de medidas de governança aplicáveis às empresas que forneçam ou operem sistemas de IA.

Almeida vê várias oportunidades na disponibilidade pública de ferramentas como o ChatGPT. Uma delas é o fato de que haverá cada vez mais necessidade de o ser humano atuar com robôs: “Ao criar um documento ou um vídeo, as pessoas vão interagir não com um ser humano, mas sim com uma máquina.”

A preocupação maior, disse, é a ampliação do alcance da desinformação e a sofisticação na sua produção, e como isso vai alterar o cenário da sociedade. Outra preocupação relevante é o impacto dessas tecnologias no emprego. “O Brasil tem 1,5 milhões de atendentes de telemarketing, que são majoritariamente mulheres em seu primeiro emprego. Ferramentas como o ChatGPT poderão fazer o trabalho delas a um custo muito baixo”, afirmou.

Diferentemente dos algoritmos utilizados por grandes provedores como Google, Facebook e Amazon, sistemas generativos como o ChatGPT não são construídos para um contexto ou condições de uso específicos e sua abertura e facilidade de controle permitem uma escala de uso sem precedentes. Diante disso, “o enfoque de regulação orientada a risco pode não se aplicar”, disse.

Essas características desafiam a abordagem por risco em pelo menos três pontos, de acordo com ele:

  • a não definição sobre a viabilidade de classificar sistemas de IA generativos como de alto risco ou de sem risco;
  • a imprevisibilidade de riscos futuros;
  • as preocupações em torno dos arranjos privados sobre riscos, arranjos realizados entre o provedor e os usuários (“Esse contrato vai ser um objeto-chave nas discussões”).

Virgilio Almeida - 24/4/23
Vírgílio Almeida: ‘’É preciso propor modelos regulatórios que preservem direitos fundamentais, mas que não inibam o desenvolvimento tecnológico e econômico’’

Adoção de incentivos

Para ele, o ponto central é incentivar que desde o início de sua concepção essas ferramentas considerem riscos e impactos, porque serão usadas de várias maneiras. “É necessário então considerar a adoção de incentivos, para incentivar outro tipo de comportamento”, disse.

“Uma das consequências do carácter geral dos modelos de IA generativa é que a finalidade pretendida e as condições de uso são definidas na relação contratual entre quem o desenvolveu e o usuário. Mas hoje em dia isso é vago e não está previsto na proposta de lei.”

Nas suas conclusões, Almeida enfatizou a necessidade de ampliação do debate sobre a regulação da IA no Brasil, envolvendo diferentes setores da sociedade em arranjos multissetoriais: governo, setor privado (fornecedores e usuários), sociedade civil, academia (ciência e tecnologia) e outros agentes.

É preciso também, disse, avaliar as possíveis relações entre a proposta de regulação da IA e a proposta da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet (Projeto de Lei 2.360/20), em tramitação no Congresso Nacional. “Afinal, os algoritmos de moderação, que fazem parte da proposta dessa lei, vão ser afetados pelas questões relacionadas com a regulação da IA. E novos algoritmos vão surgir para tentar identificar textos, vídeos e outras coisas geradas por IA”.

Segundo Almeida, outro ponto a ser analisado, é o impacto de sistemas como o ChatGPT na difusão de desinformação e na moderação de conteúdo. “As discussões sobre essa questão não vão ocorrer de forma estanques. Em algum momento terão de ser incorporadas à discussão da IA generativa.”

Relatório

Coube a Laura Schertel Mendes apresentar uma síntese do relatório produzido pela comissão de juristas para subsidiar a elaboração do PL 2.338/23. A comissão contou com 18 membros e foi presidida pelo ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça (STJ). Ela foi a relatora do documento, que possui 909 páginas.

“Foram dez meses de trabalho intenso e com todas as decisões tomados por unanimidade”, afirmou Mendes. A comissão funcionou entre fevereiro e dezembro de 2022, com a participação de mais de 60 especialistas em 11 audiências públicas e uma conferência internacional. Mais de 100 contribuições escritas foram entregues à comissão.

Ao justificar a importância de um amplo debate sobre a IA, ela afirmou que “os sistemas não são tão inteligentes como se espera e não são tão artificiais como se imagina. Eles necessitam de muitos recursos materiais, energia e intervenção do ser humano desde o começo, na escolha das bases de dados, na definição de tags, na interpretação de resultados, do input ao output, passando pelo modelo”.

Em relação aos desafios no desenvolvimento da IA, ela fez referência a dois aspectos mencionados no livro “Fairness and Machine Learning” (https://fairmlbook.org), de 2019, escrito por Solon Barocas, Moritz Hardt e Arvind Narayanan.

Exemplos e evidências

O primeiro aspecto é quanto ao uso de exemplos: “Os modelos aprendem por meio deles, assim, a primeira grande questão é que precisamos alimentá-los com bons exemplos. Além disso, é preciso ter uma quantidade de exemplos grande o suficiente para atingir o máximo de padrões, que precisam ser diversificados, mostrando os dados corretos em suas diferentes formas de aparição”.

O segundo aspecto referido no livro citado por Mendes é que a tomada de decisão é baseada em evidências e tão confiável quanto as evidências em que ela se baseia. Então, “precisamos de uma alta qualidade de exemplos diversos, para que não tenhamos uma narrativa única do mundo ou apenas do Norte global”.

“Apesar de baseados em evidências, isso não significa que os exemplos levarão a decisões precisas, confiáveis ou justas. É preciso fazer a regulação desde o início, desde a criação do modelo, da coleta dos dados e exemplos até o momento da aplicação do modelo.” O objetivo deve ser propiciar correção, justiça, não discriminação, transparência e credibilidade, disse.

Mendes comentou a carta aberta “Pause the Giant AI Experiments” (interrompam os experimentos de IA de grande porte), divulgada pelo Instituto Futuro da Vida em 22 de abril e já com mais de 27 mil assinaturas, entre as quais as de empresários do mundo tecnológico, pesquisadores de IA e personalidades da cultura, como Elon Musk (dono do Twitter e outras empresas e ex-integrante da OpenAI), Yoshua Bengio (cientista da computação vencedor do Prêmio Turing), Steve Wozniak (cofundador da Apple) e Yuval Noah Harari (autor de “Homo Sapiens”).  A carta insta os laboratórios de IA a paralisarem imediatamente e por ao menos seis meses o treinamento de sistemas de IA mais potentes do que o GPT-4, versão atual do sistema generativo da OpenAI.

Riscos triviais

Segundo ela, mais do que os riscos que sempre abundaram na ficção científica, com robôs controlando o mundo, por exemplo, “hoje deve-se pensar em riscos mais triviais, que podem sim afetar a Humanidade”. É preciso garantir que esses sistemas “funcionem de acordo com nossas expectativas, produzindo dados corretos e de forma segura, como toda inovação responsável”.

O que a proposta de regulação pleiteia são padrões mínimos de segurança, qualidade de dados, transparência e garantia dos direitos fundamentais previstos na Constituição Federal, disse. “Sabemos que os sistemas falham, então, se falham, precisam de intervenção humana. Embora os sistemas sejam muito complexos, os pleitos da proposta são extremamente simples.”

Apesar de várias normas, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, o fato é que as leis atuais ainda não dão conta dos desafios colocados pela IA, afirmou. “A LGPD aplica-se apenas a dados pessoais e não seria possível aplicá-la, pois os sistemas generativos podem ser alimentados por outros dados, além dos pessoais.”

Pilares da proposta

Os dois principais objetivos da proposta são, segundo Mendes, estabelecer e garantir direitos para todos os afetados e, ao mesmo tempo, estabelecer um sistema de governança com regras claras e padrões mínimos, garantindo a segurança jurídica para que os sistemas de IA possam se desenvolver. A proposta possui cinco pilares:

  • Princípios
  • Direitos
  • Categorização de risco
  • Medidas de governança
  • Supervisão e responsabilização

Em relação aos princípios, há inclusive aspectos baseados em documentos internacionais, como os de autoria da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e da Unesco.

Eles incluem: não discriminação; transparência e explicabilidade; confiabilidade dos sistemas da IA; devido processo legal e contestabilidade; participação humana no ciclo de IA e supervisão humana eficaz; responsabilidade e atribuição de responsabilidade a uma pessoa, jurídica ou natural; prevenção e mitigação de riscos sistêmicos.

Uma grande diferença da proposta brasileira, disse, é o capítulo sobre direitos. “Seria impossível pensar em legislação de IA sem atribuir direitos às pessoas afetadas e retirando o Judiciário de sistema de aplicação da lei, que é o que acontece quando não há direitos estabelecidos.”

Entre os direitos definidos na proposta estão: o de receber informações prévias sobre interações com sistemas de IA; direito à explicação; direito de impugnar decisões que produzam efeitos jurídicos ou impactem significativamente os interesses da parte afetada; direito à determinação e participação humana nas decisões de IA, levando em consideração o contexto e o estado da arte do desenvolvimento tecnológica; direito à não discriminação; e direito à privacidade e proteção de dados pessoais.

Quanto à categorização de risco, ela remeteu às preocupações manifestadas por Virgílio de Almeida, no início do seminário.

Mendes informou que o art. 13 do anteprojeto de lei diz que, antes de ser colocado no mercado, todo sistema precisa passar por uma avaliação preliminar. “Essa não é a avaliação de risco. A avaliação de risco só vai ser necessária depois da avaliação preliminar e se o sistema for considerado de alto risco.”

Em relação às medidas de segurança, Mendes explicou que elas tratam de procedimentos a serem cumpridos, em especial pelos provedores de sistemas de alto risco, “embora também haja algumas medidas que se aplicam de forma horizontal a qualquer sistema”.

Medidas de governança

O quarto pilar da proposta são as medidas de governança aplicáveis a sistemas de alto risco. São elas, segundo Mendes:

  • documentação;
  • utilização de ferramentas de registro automático do funcionamento do sistema, de forma a permitir a avaliação da sua precisão e robustez;
  • realização de testes para avaliar os níveis adequados de confiabilidade, de acordo com o setor e o tipo de aplicação do sistema, incluindo testes de robustez, exatidão, precisão e abrangência;
  • medidas de gerenciamento de dados para mitigar e prevenir vieses discriminatórios;
  • adoção de medidas técnicas para possibilitar a explicabilidade.

Sobre a supervisão e responsabilização, ela ressaltou que todo sistema exige sanções previstas num arcabouço de supervisão. Destacou que a comissão propôs nas audiências públicas a criação de um órgão de supervisão, que funcionaria sobretudo como um aparato de coordenação.

“Sabemos que as agências reguladoras exercem um papel importante nesse papel, caso da Anatel e da Anel, entre outras. No entanto, a única forma de garantir direitos, como padrões e interpretação harmônica da legislação, seria garantir a existência de um órgão que coordenasse toda a aplicação da lei.”

A comissão também previu um artigo aplicável a sistemas generativos como o ChatGPT, que são definidos como de propósito geral. São considerados desse tipo aqueles utilizados nas seguintes situações:

  • aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e eletricidade;
  • educação e formação profissional, incluindo sistemas de determinação de acesso a instituições de ensino e de formação profissional ou para avaliação e monitoramento de estudantes;
  • área de emprego, gestão de trabalhadores e acesso ao emprego por conta própria, recrutamento, avaliação de candidatos e de desempenho, promoções etc.;
  • acesso a serviços públicos essenciais, incluindo elegibilidade de pessoas a serviços de assistência e de seguridade;
  • avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito;
  • envio ou estabelecimento de prioridade para serviços de resposta a emergências, incluindo bombeiros e assistência médica;
  • administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na investigação dos fatos e na aplicação da lei.

Eduardo Gomes - 24/4/23

Impacto eleitoral

Como exemplo de preocupação com possíveis efeitos negativos do uso de sistema de IA, o senador Eduardo Gomes, umas das lideranças na discussão sobre a temática no Congresso Nacional, manifestou que, sem o devido controle, uma ferramenta desse tipo “pode interferir fortemente num resultado eleitoral”.

“Um candidato que tem uma certa base eleitoral e uma certa bandeira política pode ter sua proposta de candidatura atacada 48 horas antes da eleição. Não haverá nada no mundo que o livre da derrota.”

Para ele, “é muito ampla a possibilidade de benefícios ou de estragos - no caso de falta de controle - que a IA pode trazer”.

Quanto ao encaminhamento da discussão e avaliação da regulação da IA no Congresso Nacional, disse que o Legislativo não pode errar, ainda que trabalhe numa velocidade diferente da de outros fóruns. “A coisa mais difícil no Congresso é fazer uso da simplicidade para formular legislação. O Congresso avança muito quando aprova bons projetos, mas avança muito mais quando deixa de aprovar projetos ruins.”

Para ele, a lei sobre IA terá de ter "uma base muito forte, ser muito simples e ter a possibilidade de regulamentação periódica ou alguma coisa que fortaleça a autoridade ou até a instrução do que estamos discutindo, que é a utilização de dados confiáveis e não confiáveis”.

Gomes destacou a ligação do tema com outras questões legislativas, como o Projeto de Lei sobre fake news (PL 2.630/20). Adiantou que o Senado analisa a criação de uma Comissão sobre Comunicação e Direito Digital, que deverá analisar a proposta de regulação da IA. “O Congresso precisa se debruçar sobre o tema, pois não está evidente a estrutura de fiscalização e regulação” exigida pela área.

O trabalho da comissão de juristas foi destacado por Gomes, que frisou a necessidade de que a proposta seja enriquecida com contribuições de outros agentes da sociedade que têm solicitado participação, segundo o senador.

Maximiliano Martinhão, que além de integrante do Ministério das Comunicações é também membro do CGI.br, disse que o tema da IA nunca esteve tão presente em diferentes áreas do governo quanto na atual gestão federal, “o que denota seu impacto”.

Para ele, os casos de racismo, deep fake, processos de seleção discriminatórios, produção e difusão de discursos de ódio, interação inadequada com crianças e outros mal usos da IA “não permitem uma postural liberal, que deixe a tecnologia avançar para depois regulá-la quando extremamente necessário”.

Pesquisa no Brasil

Ao falar sobre a capacitação brasileira em IA, Martinhão citou algumas discussões promovidas pelo CGI.br. A primeira foi no Instituto Alan Turing, em Londres, Reino Unido, em 2019. “Foi gratificante saber que o pessoal do instituto reconhece que a pesquisa brasileira na área está no nível mundial em termos de competência e capacidade”, disse. Existe no mundo uma corrida para liderar aspectos cruciais da IA, o que trará “vantagens comparativas para os líderes e impacto na soberania de muitos países”, afirmou.

Ele comentou duas outras parcerias do CGI.br. Uma delas foi com a USP e a Unesco num evento regional sobre IA, em 2019. Outra foi estabelecida com a Fapesp e o Ministério de Ciência, Tecnologia e Inovação (MCTI) e possibilitou a criação de seis Centros de Tecnologia Aplicada em Inteligência Artificial.

Com previsão de 5 anos de atuação, os centros foram contratados com investimento total (público e privado) no valor de R$ 20 milhões. Eles estão situados no campus da USP em São Carlos (saúde, educação, meio ambiente e cidades inteligentes), na Unicamp (diagnóstico médico), no Instituto de Pesquisa Tecnológica do Estado de São Paulo (indústria), na UFMG (saúde e epidemias), no Senai Cemat (indústria 4.0) e na UFC (internet das coisas em prevenção e tratamento de doenças).

Ele lembrou que desde de 2021 o governo federal conta com a Estratégia Brasil em Inteligência Artificial (Ebia), cujo objetivo é “potencializar o desenvolvimento e a utilização da tecnologia com vistas a promover o avanço científico e solucionar problemas concretos, identificando áreas prioritárias nas quais há maior potencial de obtenção de benefícios”, de acordo com a apresentação do documento. O mais interessante, disse Martinhão, é que o documento traz eixos transversais, como as questões de governança, necessidade de legislação e cooperação internacional.

Ele frisou que a IA tem sido tratada no mundo a partir de alguns princípios. “Na OCDE, a prerrogativa é o respeito aos direitos humanos e ao Estado de Direito. Na União Europeia, recentemente, a discussão deu-se quanto a accountability e explicabilidade.” Em relação a isso, lembrou que um dos países europeus [Itália] impôs recentemente restrições ao ChatGPT por não explicitar como trata dados pessoais.

Martinhão também comentou a carta aberta do Instituto Futuro da Vida em defesa da moratória por seis meses no desenvolvimento de ferramentas de IA de grande porte, como o GPT-4: “A medida não parece excessiva diante de possíveis riscos. Precisamos ter uma avaliação prévia antes da continuidade dos projetos, para dimensionar quais são os riscos e consequências da implementação dessas ferramentas”.

Maximiliano Martinhão - 24/4/23

Área regulatória

Servidor de carreira Anatel, uma agência reguladora, ele afirmou que a área regulatória não existe para ser o calo do setor privado, mas sim para defender os interesses de toda a sociedade. “Por isso é preciso entender que uma tecnologia traz uma série de consequências, podendo levar ao monopólio, prejudicando a concorrência e a livre iniciativa, e considerar que o mercado nem sempre consegue se autorregular”, disse.

“A sociedade deve atentar para fato de que podem acontecer práticas predatórias, barreiras de entrada, aquisição de concorrentes, manipulação de algoritmos, concentração de dados em determinada organização e acentuação de desigualdades sociais”, afirmou.

Segundo ele, mais de 10% dos domicílios brasileiros ainda não tem acesso à internet. “O mesmo pode acontecer com a inteligência artificial, com um custo de US$ 20 por mês para desfrutar de mais recursos de uma plataforma. As pessoas pagam em média R$ 17,00 para carregar o celular pré-pago, como iriam pagar R$ 100,00 num serviço de IA?”

Ao final das exposições, Virgílio Almeida reforçou o alerta sobre dois pontos. O primeiro refere-se às big techs: “O que antevemos é uma concentração maior de poder, e completamente fora do Brasil. Não temos infraestrutura computacional e de dados para processamento dessas questões. Não temos uma política pública para organizar os dados brasileiros, armazenados em bancos do IBGE, do Sistema Único de Saúde e de outros organismos”.

O segundo ponto ressaltado por ele é a necessidade de atenção para o impacto da IA no emprego: “Não podemos caminhar numa direção que não ajude a elevar o nível de emprego e a torná-lo o mais qualificado possível”.

Fotos: Leonor Calasans/IEA-USP