Você está aqui: Página Inicial / PESQUISA / Cátedras e Convênios / Cátedra Oscar Sala / Ensaios / É possível explicar a Inteligência da “Inteligência Artificial”?

É possível explicar a Inteligência da “Inteligência Artificial”?

por Fernanda Rezende - publicado 20/08/2021 16:10 - última modificação 13/09/2021 09:01

Por Elen Nas - artista, cientista social, mestre em Design e doutora em Bioética. Doutorado sanduiche na Monash University (Filosofia) e Universidade da Califórnia Irvine (Informática). Faz estágio de pós-doc no ArtSciLab da ATEC (Escola de Artes, Tecnologias e Comunicações Emergentes).

Por Elen Nas - artista, cientista social, mestre em Design e doutora em Bioética. Doutorado sanduiche na Monash University (Filosofia) e Universidade da Califórnia Irvine (Informática). Faz estágio de pós-doc no ArtSciLab da ATEC (Escola de Artes, Tecnologias e Comunicações Emergentes).

A ideia de ‘inteligência artificial’ (IA) vem sendo debatida há mais de meio século. Porém, se o que era considerado IA cinco anos atrás é hoje apenas visto como operações mais arrojadas de cálculos estatísticos, é porque trata-se de um campo de pesquisa que avança rapidamente, sendo um alvo em movimento onde a interpretação se sobrepõe à definição (Nascimento, 2019).

Com a pergunta “Podem as maquinas pensar?” o matemático Alan Turing propôs o ‘jogo da imitação’ demonstrando que, porque nós humanos nos organizamos por convenções, categorias, padrões, é possível fazer com que a máquina simule o ato de pensar, em um jogo de perguntas e respostas. Ele argumenta que também os humanos simulam (ou podem simular), através de comportamentos, ser o que não são. Ou seja, que a inteligência se torna performativa quando compreendida através de categorias de classificação, em que ter as ‘respostas certas’ não necessariamente significa refletir ou ter pleno conhecimento sobre elas.

Desse modo, a pergunta “podem as máquinas pensar?”, volta-se para o desafio do entendimento sobre como pensam os humanos e o que define sua consciência. Por exemplo, o que faz humanos organizarem o mundo em imagens, símbolos, conceitos, regras, de modo a lhes dar a consciência dos eventos vividos e lhes preparar para as respostas e ações no futuro?

Sendo assim, quanto mais humanizada a IA, mais se torna necessário entender o humano e perguntarmos se é ético que uma IA separe pessoas de acordo com estereótipos, ou se isto pode fazer com que elas venham a sofrer por estarem sendo adequadas a um conjunto de informações definidas por (pré) conceitos?

O estudo da IA e suas implicações éticas têm, portanto, o desafio de fazer refletir sobre os aspectos mais profundos do caráter preditivo que define a consciência humana, sendo o cérebro um hardware potente e a mente um software que funciona em rede de trocas contínuas de informação que sempre tenderá a adequar os fenômenos observados aos modelos que já estão armazenados em sua memória.

Um exemplo do Google Inception Project, citado por Leahu (2016), demonstrou que o reconhecimento de imagens de halteres atrelava o objeto ao corpo. Assim os mesmos parâmetros de aprendizado podem ser tendenciosos se utilizados para classificar humanos: o indivíduo vinculado a características associadas como por exemplo ‘mulher e atividades do lar’, ‘pele escura e atividades subalternas’, e assim por diante.

O “direito à explicação” previsto em Leis como a GDPR e LNPD é uma maneira de tornar transparentes as decisões automatizadas de modo a identificar problemas que venham a causar danos. Elas propõem abrir as “caixas pretas” dos softwares com a demanda de explicar as fórmulas dos algoritmos e suas decisões.

Porém, se entre humanos explicar algo nem sempre é obvio, projetar tais características para uma IA é igualmente desafiante. Tim Miller, do Centre of AI and Digital Ethics da Universidade de Melbourne, diz que não é fácil dizer que, para criar e desenvolver uma IA capaz de explicar, basta observar como os humanos explicam as coisas uns para os outros.

Criar modelos capazes de explicar decisões automatizadas tem sido um desafio atual para cientistas da computação. Embora não seja fácil explicar tais decisões, já que existem diferentes modelos de aprendizagem de máquina, percebe-se que a chamada ética para a necessidade de prestar contas sobre as escolhas dos algoritmos já vem estimulando a criação de novas ferramentas capazes de fazer com que as predições de um sistema sejam auditáveis, tornando-os assim “mais confiáveis” (Ribeiro, Singh, Guestrin, 2016). Desse modo, preocupações éticas influem no que é considerado como valor relacionado à eficiência do sistema.

A necessidade de estabelecer confiança com a IA, devido aos possíveis impactos de suas decisões, vem ampliando a demanda de que estes agentes precisam ser socialmente inteligentes. Assim, a lista de desafios para o desenvolvimento da IA passa a incluir a necessidade de clareza, consciência situacional, empatia, presença, autenticidade (Neururer et. All., 2018).

Na área da saúde, os modelos preditivos de IA são comumente vistos com um entusiasmo que ofusca as imprecisões e problemas advindos, não apenas por carências técnicas (ter os conhecimentos e soluções disponíveis para cumprir as metas), ou logísticas (dispor dos materiais e informações necessárias), como também relaciona-se com a qualidade da informação e se seus conteúdos estão cumprindo os parâmetros aceitáveis para predições acuradas. Estas são questões que agora passam a ser revistas com novas leis de proteção relacionadas ao uso de dados, fatos que vêm se tornado tema de debates entre pesquisadores europeus, resultando em relatórios como “Quando os Computadores Decidem”, onde são levantadas considerações técnicas, éticas, legais, econômicas, sociais sobre o tema, que indicam a necessidade de uma educação interdisciplinar e do fomento à pesquisa que venha a contribuir com formação de bases de dados colhidos dentro dos parâmetros éticos estabelecidos pela comunidade (Nascimento, 2019).

Creditar à IA a capacidade de gerar uma ‘representação cognitiva do mundo’ que venha a evitar replicações de valores compreendidos como nocivos ao corpo social, como a perpetuação de injustiças e preconceitos, permanece como ambição para o desenvolvimento da “super-inteligência artificial”. Tais ambições representam uma romantização do mundo e seu destino tecnológico.

Na prática, se um sistema especialista para detectar fraude em uma operação financeira, poderá ser eficiente e não apresentar problemas éticos, um reconhecimento de imagens envolvendo humanos tende a ser suscetível a erros com grandes impactos. A possível adição da ‘inteligência emocional’ à IA pressupõe que esta poderá auxiliar estudantes com problemas no plano educacional.

A questão, porém, é que o foco do desenvolvimento está comumente relacionado a uma função/utilidade/solução dentro de uma perspectiva e lógica unidimensional, quando especular sobre outros possíveis usos e consequências do sistema são considerados ‘fora do foco’. Assim, se existir uma correlação entre determinada emoção e a propensão em cometer um crime, a ‘IA emocional’ também poderá expor indivíduos a injustiças por leituras inadequadas, como já vem acontecendo nos casos em que o reconhecimento de imagem é cruzado com estatísticas enviesadas.

A IA tem sido um laboratório contínuo para o entendimento da inteligência humana. A racionalidade que a define, um ‘parque tematico' (Sloterdijk, 2011) onde as motivações mais intimas estão ancoradas nas emoções (Damasio, 2012) cultivadas pela experiência (fenomenológica, ontológica, pós-fenomenológica).

Se entender a IA significa entender a inteligência humana, estamos em mar aberto, sujeitos a turbulências, as quais nenhum barco ‘disciplinar’ é capaz de navegar.

Referências:

DAMASIO, António. O erro de Descartes: emoção, razão e o cérebro humano. Editora Companhia das Letras, 2012.

LAURUS, James, Chris Hankin, Siri Granum Carson, Markus Christen, Silvia Crafa, Oliver Grau, Claude Kirchner et al. "When computers decide: European recommendations on machine-learned automated decision making." 2018.

LEAHU, Lucian. "Ontological surprises: A relational perspective on machine learning." In Proceedings of the 2016 ACM Conference on Designing Interactive Systems, pp. 182-186. 2016.

MILLER, Tim. "Explanation in artificial intelligence: Insights from the social sciences." Artificial intelligence 267, pp. 1-38, 2019.

NASCIMENTO, E. C. C. Reflexões Bioéticas na Era da Inteligência Artificial. / Caminhos da Bioética. p. 345-362, 2019.

NEURURER, Mario, Stephan Schlögl, Luisa Brinkschulte, and Aleksander Groth. "Perceptions on authenticity in chat bots." Multimodal Technologies and Interaction 2, no. 3: 60, 2018.

RIBEIRO, Marco Tulio, Sameer Singh, and Carlos Guestrin. "Why should i trust you?" Explaining the predictions of any classifier." In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, pp. 1135-1144. 2016.

SLOTERDIJK, Peter. Regras para o parque humano: uma resposta à carta de Heidegger sobre o humanismo. Estação Liberdade, 2011.

TURING, Alan M. "Computing machinery and intelligence." In Parsing the turing test. Springer, Dordrecht, pp. 23-65 . 2009.