Especialista de Stanford defende rigor nos códigos de conduta e pensamento crítico para lidar com a IA
- David Levi, da Universidade Stanford, durante sua exposição no IEA
Ao consultar uma ferramenta de inteligência artificial, muita gente considera extremamente natural confiar na explicação ou orientação oferecida. O que muitos ignoram é o quanto essa confiabilidade advém não só da precisão da informação e dos resultados que ela produz, mas também de mecanismos de sedução da IA para a construção dessa percepção favorável a ela.
Explorar vieses cognitivos e tentar satisfazer características psicológicas como vaidade, aspiração e busca de relações empáticas são alguns dos principais mecanismos empregados pela IA.
Para tratar do melhor uso desses recursos por empresas e governos, seu impacto nas pessoas e dos caminhos para uma confiança legítima na IA, o IEA recebeu no dia 24 de março o pesquisador David Levi, do Instituto Stanford de Inteligência Artificial Centrada no Humano, da Universidade Stanford, EUA.
A conferência "IA e Confiança" foi organizada pela Cátedra IA Responsável (parceria da USP com o Google sediada no IEA), Consulado Geral dos EUA em São Paulo e laboratório Undertanding Artificial Intelligence, com apoio do Centro de Inteligência Artificial a Aprendizado de Máquina da USP.
Levi disse que as pessoas tendem a ver os problemas da IA como meramente técnicos e acreditam que a evolução da tecnológica vai resolvê-los. Para ele, isso não vai acontecer. No entanto, afirmou, não há um chamado para ser feito o que é preciso para tornar a tecnologia honesta, pois isso demanda tempo, educação, criação de estruturas e questionamento crítico. “Queremos que a IA faça o que é preciso para nos satisfazer, não controlar o que queremos”, disse.
Ele considera a IA é muito boa para resolver problemas genéricos e nos quais o usuário tem salvaguardas realistas para avaliar a eficácia dos procedimentos recomendados durante o curso da resolução, como monitores e outras formas de acompanhamento e avaliação de resultados. No entanto, considera que ela não é tão boa para problemas específicos e complexos, para os quais há apenas uma solução.
Segundo ele, a capacidade de resolver problemas genéricos com solução factível, a possibilidade de o usuário se valer de salvaguardas realistas e uma comunicação empática torna a IA útil para empresas e governos.
Levi é gerente do Programa de Parcerias com a Indústria do instituto em que atua. Nessa posição, é ele quem fala com o mercado, tentando traduzir os estudos para que as empresas entendam o que torna mais fácil ou difícil a confiança das pessoas na IA.
Um dos casos que mencionou foi o de uma empresa que disse ter contratado um funcionário remoto para atuar com a equipe. Enquanto os funcionários achavam que era uma pessoa, sempre elogiavam a qualidade do trabalho dela. Quando souberam que o novo membro era uma IA, passaram a comentar os erros que ela cometia.
“Isso é um fenômeno psicológico conhecido. A gente concede um benefício às pessoas, procuramos chegar a um meio termo. Com as máquinas, não”. Por isso, uma mentalidade centrada no humano e nas questões mais profundas do ponto de vista psicológico é crucial, afirmou.
Se a IA se apresenta de modo antropomórfico para encorajar essa perspectiva é porque leva a melhores resultados, disse. A ideia é fazer o usuário encará-la como um colega de trabalhos, um assistente. Para isso, a ferramenta usa tom similar ao que as pessoas empregam em seus relacionamentos pessoais. “Há um viés de adulação. Se um usuário diz alguma coisa equivocada, a IA concorda, como se gostasse dele.”
Levi também comentou o caso dos gêmeos digitais. “É a simulação de uma pessoa, vai responder como você responderia. Deveríamos aceitar a existência de uma versão digital nossa? E a de uma pessoa que já morreu, seria aceitável?”, questionou. Quantos aos agentes de IA, ele considera que ninguém com menos de 18 anos deveria usá-los, pois o impacto na saúde mental é muito alto.
No âmbito da utilização empresarial da IA, disse que os códigos de conduta ainda são muito novos e sem o nível de rigor adequado. Para ele, deveria ser adotado um nível similar ao que foi aplicado a um professor nos EUA que editou genes de bebês para que fossem imunes ao HIV e foi preso.
Levi afirmou que as empresas estão tentando lidar com essas dificuldades: “Há empresas querendo implantar agentes de IA, mas acham que eles acabarão monitorando tudo que os funcionários fazem. Os trabalhadores vão aceitar isso? As tecnologias estão aqui, mas ainda não sabemos o que fazer com elas”.
Ele afirmou que o Brasil é um dos países com maior entusiasmo pela IA, com as pessoas assumindo riscos, testando as ferramentas. "Mas se houver escândalos, isso vai abalar o ânimo dos brasileiros com a IA”, ponderou.
Para ele, a confiança na IA é algo que deve ser ganho, rastreado e governado. Talvez a melhor estratégia para lidar com a IA seja o que Levi disse ao ser indagado, no final da exposição, sobre o uso dessa tecnologia pelos jovens: “Estamos sendo liberados de tarefas entediantes. Os jovens serão liberados para se voltar a novos pensamentos. É preciso estimulá-los a desenvolver os músculos mentais. Para isso, é precisamos criar meios de estimular o pensamento crítico.”
Foto: Leonor Calasans/IEA-USP