Você está aqui: Página Inicial / PESQUISA / Cátedras e Convênios / Cátedra Oscar Sala / Ensaios / Transparência no design tecnológico de algoritmos de IA

Transparência no design tecnológico de algoritmos de IA

por Fernanda Rezende - publicado 14/01/2022 16:37 - última modificação 14/01/2022 16:37

por Paola Cantarini, pesquisadora do Instituto Lawgorithm e Legal Ground Institute, do Alan Turing Institute, do C4AI/USP, visiting researcher Law Department European University Institute/It., University of Miami, and Internacional University of Florida. Pesquisadora Unicamp. Diretora do Instituto Ethikai – ethics as a service in AI (ethikai.com.br)

por Paola Cantarini, pesquisadora do Instituto Lawgorithm e Legal Ground Institute, do Alan Turing Institute, do C4AI/USP, visiting researcher Law Department European University Institute/It., University of Miami, and Internacional University of Florida. Pesquisadora Unicamp. Diretora do Instituto Ethikai – ethics as a service in AI (ethikai.com.br)

17 dezembro de 2021

O PL 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial ao lado da Estratégia Brasileira de IA no Brasil são importantes iniciativas de regulamentação da IA no país, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação), como bem aponta Luciano Floridi (“The end of an era: from self-regulation to hard law for the digital industry”).

Contudo, o PL tem sido objeto de diversas críticas, diante de algumas imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica. Houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, Lei 12.965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva.

O artigo 6º do PL traz uma abordagem equivalente à da LGPD (artigos 10, § 3º e artigo 20, § 1º e § 2º), no tocante à proteção de forma absoluta dos segredos comercial e industrial. Mas, como melhor equilibrar tal proteção que envolve os programas de computador e os algoritmos de IA, com os demais direitos fundamentais em colisão? Ao se analisar de forma literal e gramatical as disposições da LGPD e do PL 21/20 pode-se chegar à equivocada conclusão de que o segredo industrial/comercial sempre irá prevalecer. É importante, contudo, analisar a questão através de uma abordagem sistêmica e funcional, e à luz da teoria dos Direitos Fundamentais, em específico levando-se em conta o princípio da proporcionalidade em sentido estrito, de forma a equilibrar a inovação e a responsabilidade, contribuindo por um lado para o desenvolvimento da tecnologia e proporcionando investimentos no país, e de outro lado, para o necessário respeito aos direitos fundamentais.

Como observar os princípios da explicabilidade e da transparência, e tornar efetivos os direitos à explicação e à revisão de uma decisão automatizada, sem acesso aos parâmetros da tomada de decisão, sem acesso ao código fonte, o qual muitas vezes será necessário a fim de melhor compreender os aspectos centrais da decisão, envolvendo, pois, os aspectos da acessibilidade e compreensibilidade?

Segundo Wolfgang Hoffmann-Riem (“Big Data e Inteligência Artificial: Desafios Para O Direito”), a proteção adequada no caso em questão poderia ser possibilitada pela introdução nos tribunais dos denominados procedimentos sigilosos, quando estiver em perigo a liberdade, divulgando as máximas e os critérios em que se baseiam, a informação utilizada como input e, no caso dos sistemas de aprendizagem, as regras de formação utilizadas, e se necessário também o tipo de utilização da análise de Big Data. Tais informações não devem ser tornadas públicas, limitando seu acesso ao órgão julgador, sendo inacessíveis até mesmo às partes no processo.

A fim de se alcançar um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, destaca-se cada vez mais a proteção desde a concepção tecnológica (protection by design), envolvendo a criação de arquiteturas de decisão adequadas à proteção com o auxílio da concepção e de ferramentas tecnológicas, como forma de se implementar a segurança (security by design), falando-se em transparência do design tecnológico (projeto técnico) e dos algoritmos de IA, e não apenas na coleta e tratamento de dados pessoais.

Bruno Bioni, por sua vez, afirma que a explicação seria uma ferramenta de accountability de IA ao expor a lógica da decisão, devendo permitir ao observador determinar a extensão em que um input particular foi determinante ou influenciou um resultado. Entretanto os segredos comercial e industrial constituem objeções à transparência e ao dever de divulgação (“O princípio da precaução na regulação de Inteligência Artificial: seriam as leis de proteção de dados o seu portal de entrada?”).

Importante julgado conhecido como caso “Schufa”, da lavra do Tribunal Federal de Justiça da Alemanha reconheceu a proteção ao segredo comercial, envolvendo a classificação de crédito, sem levar em consideração que tal proteção não constitui um fim em si mesmo, mas exige igualmente uma coordenação com a proteção de outros interesses jurídicos. Wolfgang Hoffmann Riem afirma que referida decisão não cumpriria com os requisitos do Capítulo III do Regulamento Europeu de Proteção de Dados (GDPR). Pontua, todavia, que a divulgação do design tecnológico e dos sistemas algorítmicos utilizados iria, por outro lado, interferir demasiado com a autonomia das empresas e afetar os seus legítimos interesses, permitindo o acesso dos algoritmos pelos concorrentes. A quebra do segredo industrial, contudo, seria justificada no caso de Direitos Fundamentais, em especial para evitar discriminação, estigmatização e manipulação, ou diante de outro interesse legítimo na divulgação equivalente à proteção de um segredo comercial.

O direito à informação, previsto no art. 6º, VI da LGPD compreenderia o acesso e esclarecimento quanto aos aspectos principais e a lógica da decisão algorítmica – e, especialmente os critérios de decisão -, de modo a ter, em princípio, a preservação do segredo de empresa, não envolvendo a revelação do código fonte do algoritmo, mas sim os aspectos mais relevantes da decisão algorítmica, convertendo-se a linguagem matemática para a linguagem natural. Contudo, em alguns casos concretos talvez seja necessário o acesso ao código fonte, sendo certo que a Lei de Propriedade Industrial em seu artigo 206 traz exceções no caso de ações judiciais, desde que respeitado o segredo de justiça, devendo ser analisado o caso concreto, já que nem sempre no Brasil o segredo de justiça é respeitado, analisando-se a realidade sociocultural do país (CANTARINI, Paola. “Teoria fundamental do direito digital: uma análise filosófico-constitucional”, 2020; CANTARINI, Paola, GUERRA FILHO, Willis S. “Teoria inclusiva dos direitos fundamentais e direito digital”, 2020).

Diante da insegurança do sigilo judicial de processos no Brasil, há que se pensar em uma alternativa viável, à luz da Teoria dos Direitos Fundamentais para a proteção adequada de todos os direitos fundamentais em colisão. Neste sentido, a inversão do ônus da prova, poderia ser uma alternativa, em atenção em especial da proporcionalidade em sentido estrito. Outra proposta possível seria a imposição de obrigação de documentação relativa aos critérios de decisão utilizados. Destaca-se, por derradeiro, a proposta de um “código de conduta para os engenheiros de robótica”, trazendo a aplicação do princípio da transparência, por meio da criação de “caixas pretas” para aplicações de IA avançadas, preservando-se um “log” (registro) intangível de dados relativos a todas as operações realizadas, abrangendo inclusive os passos da lógica que envolveu a produção da decisão automatizada.

Referências

BIONI, Bruno Ricardo, LUCIANO, Maria. O princípio da precaução na regulação de Inteligência Artificial: seriam as leis de proteção de dados o seu portal de entrada?, https://brunobioni.com.br.

CANTARINI, Paola. Teoria fundamental do direito digital: uma análise filosófico-constitucional, Clube de autores, 2020.

CANTARINI, Paola, GUERRA FILHO, Willis S. Teoria inclusiva dos direitos fundamentais e direito digital, Clube de autores, 2020.

FERGUSON, Andrew Guthrie. The rise of big data policing: surveillance, race, and the future of law enforcement. Nova Iorque: New York University Press, 2017.

FLORIDI, Luciano. The end of an era: from self-regulation to hard law for the digital industry (November 9, 2021). Available at SSRN: https://ssrn.com/abstract=3959766 or http://dx.doi.org/10.2139/ssrn.3959766.

HOFFMANN-RIEM, Wolfgang. “Big Data e Inteligência Artificial: Desafios Para O Direito”. JOURNAL OF INSTITUTIONAL STUDIES 2 (2020), Revista Estudos Institucionais, v. 6, n. 2, p. 431-506, maio/ago. 2020

__________. “Autorregulação, autorregulamentação e autorregulamentação regulada no contexto digital”, Revista da AJURIS – Porto Alegre, v. 46, n. 146, Junho, 2019

___________. Teoria Geral do Direito Digital, Forense, ed. kindle, 2021.