Você está aqui: Página Inicial / PESQUISA / Cátedras e Convênios / Cátedra Oscar Sala / Ensaios / Inteligência artificial e Direito: por uma visão não polarizada, holística e inclusiva para se repensar as ambivalências e contradições

Inteligência artificial e Direito: por uma visão não polarizada, holística e inclusiva para se repensar as ambivalências e contradições

por Mauro Bellesa - publicado 27/09/2021 10:45 - última modificação 27/09/2021 13:42

Por Paola Cantarini, pesquisadora no IEA-USP, no grupo de estudos Humanidades do Centro de Inteligência Artificial (C4AI) da USP e na Universidade Alan Turing.
Por Paola Cantarini, pesquisadora no Advanced Institute for Artificial Inteligence, no Grupo de Estudos Humanidades do Centro de Inteligência Artificial (C4AI) da USP e na Universidade Alan Turing.

 

15 de setembro de 2021.

Apesar de o Brasil ter promulgado a Lei Geral de Proteção de Dados, o nível de proteção é considerado fraco frente ao nível moderado dos EUA e forte da EU. Há diversas lacunas, contradições, antinomias, pouca proteção no que tange, por exemplo, a dados sensíveis, se comparado, em especial, com o GDPR da UE. A previsão acerca da IA associada à proteção de dados pela LGPD está limitada basicamente ao direito de revisão de decisões automatizadas, com diversas críticas da doutrina acerca da possibilidade de revisão não humana, em sentido contrário ao GDPR e diversos instrumentos legislativos internacionais, que preceituam ser fundamental o controle humano da tecnologia, e o ser humano estar no centro do processo. Não há até o momento legislação federal no tocante à IA, apesar da proposta intitulada de Estratégia Brasileira de Inteligência Artificial (EBIA), também bastante falha, omissa e, portanto, objeto de críticas pela doutrina especializada, nem sequer podendo ser considerada como estratégia.

Destaca-se a recente proposta de regulamentação da IA pela Comissão Europeia refletindo a análise entre diversas possibilidades regulatórias do setor, e de articulação com a já existente legislação setorial europeia, com foco na “GDPR – Regulamento Geral de Proteção de Dados da EU”, no “Digital Services Act”, no “Digital Markets Act”, no “White paper on IA” e no “Regulamento relativo à responsabilidade civil pelo uso da IA”, em preparação. A nova regulamentação é considerada imprescindível para se possibilitar a inovação tecnológica e os progressos científicos, garantindo a necessária vantagem competitiva e liderança tecnológica da EU, vinculando-se à ideia de risquificação em uma abordagem em prol do princípio da precaução, evitando-se a ocorrência de danos. Quanto à LGPD, apesar de parte da doutrina entender que esta possuiria uma racionalidade regulatória "ex ante", e não “ex post”, o que estaria em sintonia com a ideia de risquificação, ressalva-se também o entendimento em sentido contrário, não com foco central na risquificação, mas, sobretudo, com fundamento na ótica utópica de autodeterminação informativa. Risquificação é o reconhecimento de que os problemas do capitalismo de vigilância são coletivos e que precisamos redefinir a regulação desses mercados de forma mais precaucionária, habilitando novas formas de disputas e de contestação por “coletivos de cidadãos”.

É o que aponta Omri Ben-Shahar apostando em um arranjo regulatório de “poluição de dados” centrado nos danos coletivos gerados, associando-se a formas de responsabilização “ex post”, inspirado pela legislação ambiental (BEN-SHAHAR, Omri. Data Pollution, p. 133 e ss.). A responsabilização se volta menos à questão da capacidade de cognição de riscos e mais à tentativa de controle de externalidades negativas, em uma espécie de “direito ambiental da proteção de dados pessoais”. Os danos são considerados coletivos já que todo o ecossistema de dados é afetado pelas ações poluentes. Trata-se de modelo potencialmente promissor no Brasil, se for superado o caráter voluntário dos relatórios de impacto à proteção de dados, tal como vem sendo reconhecido por parte da doutrina, diante da omissão ou antinomia neste sentido da LGPD.

Importante observar que são critérios importantes para a estruturação da IA segundo a Comissão Europeia: a) dignidade humana; b) autonomia; c) responsabilidade; d) justiça, equidade e solidariedade; f) Estado de Direito e prestação de contas; h) proteção de dados e privacidade; i) sustentabilidade (Stantement on Artificial Intelligence Robotics and Autonomous Systems do European Group on Ethics in Science and New Technologies Artificial Intelligence).

Diante da mutação do capitalismo, como bem aponta Shoshana Zuboff, surgindo o capitalismo de dados ou de vigilância, a partir de certa etapa de um novo procedimento adotado, sobretudo, pela empresa Google, centrado na ideia de superávit comportamental e na ideia de estado de exceção, é de se questionar se ainda os alicerces supra referidos são possíveis, senão vejamos.

Quanto ao Estado de Direito, cumpre observar o que entende Shoshana Zuboff (A era do capitalismo de vigilância, pp. 120-121) com a utilização dos nossos dados pessoais muito além do intento informado que seria a otimização e personalização do serviço, criando-se um superávit comportamental, afirmando a existência de um estado de exceção, quando o capitalismo de vigilância se estabeleceu de vez, em razão da valorização do superávit comportamental.

As muitas patentes do Google arquivadas nesses primeiros anos ilustram o estado de exceção diante da captura de superávit comportamental. Google é o Übermensch, o super homem citado por Nietzsche, além do direito, além do contrato social, atuando nas sombras, indiferente a normas sociais ou reivindicações individuais a direitos de escolha autodeterminantes, representando o estado de exceção declarado pelos fundadores do Google, o qual estabelece seus valores e persegue suas metas acima e além dos contratos sociais.

Ou seja, a ideia de estado de exceção se contrapõe ao conceito de Estado de Direito, entendido este como Estado com respeito, sobretudo, aos direitos fundamentais de todos os cidadãos, principalmente de grupos vulneráveis. Levando-se em consideração que a proteção de dados é um direito fundamental, tal como vem sendo reconhecido pela doutrina e jurisprudência nacional e internacional, e que a maior parte do tratamento de dados que se faz por meio de plataformas digitais e contrariamente à legislação, seja pela ausência de consentimento válido, seja pela ausência de transparência, resta patente a generalização da presença do estado de exceção.

Mais do que nunca é urgente a necessidade de uma compreensão acerca da temática da IA e da proteção de dados por um viés não polarizado, mas holístico e inclusivo, e a favor de se repensar as ambivalências e contradições, com base em uma Teoria Inclusiva dos Direitos Fundamentais aplicada a este ainda novo e já extremamente vigoroso campo do Direito, o que consideramos imprescindível para uma melhor compreensão e proteção dos direitos fundamentais envolvidos nesta seara (CANTARINI, Paola. Teoria Fundamental do direito digital: uma análise filosófico-constitucional; & GUERRA FILHO, Willis Santiago. Teoria inclusiva dos direitos fundamentais e direito digital). Tal proposta hermenêutica visa alcançar a perspectiva poética, e não linear, não bidimensional, buscando-se uma compreensão que passa pelo pensamento filosófico polifônico, do múltiplo, como uma pragmática do múltiplo, trazendo um pensamento plural, talvez a fim se de chegar próximo do que Luciano Floridi (The Logic of Information: A Theory of Philosophy as Conceptual Design) caracteriza como "homo poietico". Uma lógica de design como uma lógica conceptual que precisa ser desenvolvida para sustentar a base da informação em IA. Do que se trata é de uma mudança de uma compreensão do conhecimento representacionalista (mimético) para um construcionista (poiético), da mimesis à poiesis, numa interpretação poiética dos nossos conhecimentos, desenvolvendo uma lógica de "fazer", de design dos artefatos semânticos para os quais nós somos epistemicamente responsáveis. Chega-se assim a uma filosofia como design conceitual, envolvendo a crítica, uma epistemologia poiética (construtiva) em vez de mimetizada (representativa), apta a propor uma ética da IA relacionada com os valores construcionistas do homo poieticus.

 

REFERÊNCIAS

BEN-SHAHAR, Omri. Data Pollution, Journal of Legal Analysis, Volume 11, 2019.

CANTARINI, Paola. Teoria Fundamental do direito digital: uma análise filosófico-constitucional, Clube de autores, 2020.

____________& GUERRA FILHO, Willis Santiago. Teoria inclusiva dos direitos fundamentais e direito digital, Clube de autores, 2020.

FLORIDI, Luciano. The Logic of Information: A Theory of Philosophy as Conceptual Design, OUP Oxford, 2019.

ZUBOFF, Shoshana. A era do capitalismo de vigilância. Editora Intrínseca, 2021.