Você está aqui: Página Inicial / NOTÍCIAS / Especialista de Stanford defende rigor nos códigos de conduta e pensamento crítico para lidar com a IA

Especialista de Stanford defende rigor nos códigos de conduta e pensamento crítico para lidar com a IA

por Mauro Bellesa - publicado 25/03/2026 16:15 - última modificação 06/04/2026 11:27

O pesquisador Davi Levi, do Instituto Stanford de Inteligência Artificial Centrada no Humano, da Universidade de Stanford, EUA, fez a conferência "IA e Confiança", no dia 24 de março.

David Levi
David Levi, da Universidade Stanford, durante sua exposição no IEA

Ao consultar uma ferramenta de inteligência artificial, muita gente considera extremamente natural confiar na explicação ou orientação oferecida. O que muitos ignoram é o quanto essa confiabilidade advém não só da precisão da informação e dos resultados que ela produz, mas também de mecanismos de sedução da IA para a construção dessa percepção favorável a ela.

Explorar vieses cognitivos e tentar satisfazer características psicológicas como vaidade, aspiração e busca de relações empáticas são alguns dos principais mecanismos empregados pela IA.

Para tratar do melhor uso desses recursos por empresas e governos, seu impacto nas pessoas e dos caminhos para uma confiança legítima na IA, o IEA recebeu no dia 24 de março o pesquisador David Levi, do Instituto Stanford de Inteligência Artificial Centrada no Humano, da Universidade Stanford, EUA.

A conferência "IA e Confiança" foi organizada pela Cátedra IA Responsável (parceria da USP com o Google sediada no IEA), Consulado Geral dos EUA em São Paulo e laboratório Undertanding Artificial Intelligence, com apoio do Centro de Inteligência Artificial a Aprendizado de Máquina da USP.

Levi disse que as pessoas tendem a ver os problemas da IA como meramente técnicos e acreditam que a evolução da tecnológica vai resolvê-los. Para ele, isso não vai acontecer. No entanto, afirmou, não há um chamado para ser feito o que é preciso para tornar a tecnologia honesta, pois isso demanda tempo, educação, criação de estruturas e questionamento crítico. “Queremos que a IA faça o que é preciso para nos satisfazer, não controlar o que queremos”, disse.

Ele considera a IA é muito boa para resolver problemas genéricos e nos quais o usuário tem salvaguardas realistas para avaliar a eficácia dos procedimentos recomendados durante o curso da resolução, como monitores e outras formas de acompanhamento e avaliação de resultados. No entanto, considera que ela não é tão boa para problemas específicos e complexos, para os quais há apenas uma solução.

Segundo ele, a capacidade de resolver problemas genéricos com solução factível, a possibilidade de o usuário se valer de salvaguardas realistas e uma comunicação empática torna a IA útil para empresas e governos.

Levi é gerente do Programa de Parcerias com a Indústria do instituto em que atua. Nessa posição, é ele quem fala com o mercado, tentando traduzir os estudos para que as empresas entendam o que torna mais fácil ou difícil a confiança das pessoas na IA.

Um dos casos que mencionou foi o de uma empresa que disse ter contratado um funcionário remoto para atuar com a equipe. Enquanto os funcionários achavam que era uma pessoa, sempre elogiavam a qualidade do trabalho dela. Quando souberam que o novo membro era uma IA, passaram a comentar os erros que ela cometia.

“Isso é um fenômeno psicológico conhecido. A gente concede um benefício às pessoas, procuramos chegar a um meio termo. Com as máquinas, não”. Por isso, uma mentalidade centrada no humano e nas questões mais profundas do ponto de vista psicológico é crucial, afirmou.

Se a IA se apresenta de modo antropomórfico para encorajar essa perspectiva é porque leva a melhores resultados, disse. A ideia é fazer o usuário encará-la como um colega de trabalhos, um assistente. Para isso, a ferramenta usa tom similar ao que as pessoas empregam em seus relacionamentos pessoais. “Há um viés de adulação. Se um usuário diz alguma coisa equivocada, a IA concorda, como se gostasse dele.”

Levi também comentou o caso dos gêmeos digitais. “É a simulação de uma pessoa, vai responder como você responderia. Deveríamos aceitar a existência de uma versão digital nossa? E a de uma pessoa que já morreu, seria aceitável?”, questionou. Quantos aos agentes de IA, ele considera que ninguém com menos de 18 anos deveria usá-los, pois o impacto na saúde mental é muito alto.

No âmbito da utilização empresarial da IA, disse que os códigos de conduta ainda são muito novos e sem o nível de rigor adequado. Para ele, deveria ser adotado um nível similar ao que foi aplicado a um professor nos EUA que editou genes de bebês para que fossem imunes ao HIV e foi preso.

Levi afirmou que as empresas estão tentando lidar com essas dificuldades: “Há empresas querendo implantar agentes de IA, mas acham que eles acabarão monitorando tudo que os funcionários fazem. Os trabalhadores vão aceitar isso? As tecnologias estão aqui, mas ainda não sabemos o que fazer com elas”.

Ele afirmou que o Brasil é um dos países com maior entusiasmo pela IA, com as pessoas assumindo riscos, testando as ferramentas. "Mas se houver escândalos, isso vai abalar o ânimo dos brasileiros com a IA”, ponderou.

Para ele, a confiança na IA é algo que deve ser ganho, rastreado e governado. Talvez a melhor estratégia para lidar com a IA seja o que Levi disse ao ser indagado, no final da exposição, sobre o uso dessa tecnologia pelos jovens: “Estamos sendo liberados de tarefas entediantes. Os jovens serão liberados para se voltar a novos pensamentos. É preciso estimulá-los a desenvolver os músculos mentais. Para isso, é precisamos criar meios de estimular o pensamento crítico.”

Foto: Leonor Calasans/IEA-USP