Você está aqui: Página Inicial / NOTÍCIAS / Máquinas são julgadas por seus resultados e humanos, por sua intenção, afirma César Hidalgo

Máquinas são julgadas por seus resultados e humanos, por sua intenção, afirma César Hidalgo

por Beatriz Herminio - publicado 06/10/2022 17:10 - última modificação 10/10/2022 15:49

Pesquisador fez exposição no evento "Como os Humanos Julgam as Máquinas", no dia 4 de outubro

Cesar Hidalgo - 4/10/2022
César Hidalgo é um dos autores do livro ''How Humans Judge Machines''
Diversos trabalhos se lançam sobre a forma como as máquinas avaliam os humanos. Em comparação, o julgamento dos humanos sobre as máquinas é pouco explorado, apontou César Hidalgo no evento "Como os Humanos Julgam as Máquinas".

Diretor do Centro de Aprendizagem Coletiva do Instituto de Inteligência Artificial e Natural (ANITI), na Universidade de Toulouse, e autor do livro "How Humans Judge Machines" (MIT Press, 2021), Hidalgo fez sua exposição no dia 4 de outubro. O evento teve transmissão online, e organização da Cátedra Oscar Sala, com moderação do coordenador acadêmico Virgílio Almeida.

Intenção e senso de justiça

Hidalgo expôs, com base nos capítulos de seu livro, experimentos realizados para avaliar como as pessoas julgam situações conduzidas por humanos em comparação à condução feita por máquinas. No livro, o interesse é pensar como as pessoas julgam cenários enquanto justos ou injustos, e avaliam ações como erradas ou corretas do ponto de vista da justiça.

Relacionado

Vídeos:

Foram coletados vários cenários com experiências randomizadas, designando pessoas de forma aleatória em grupos distintos – em um, deveriam descrever a ação da máquina; no outro, a mesma ação, porém realizada por uma pessoa. O intuito foi avaliar se as pessoas julgam humanos e máquinas da mesma forma se eles cometerem o mesmo erro – e, se não, o que explicaria a diferença nas reações.

As pessoas deveriam reagir avaliando, por exemplo, se a ação havia causado prejuízos, se elas contratariam a pessoa ou o algoritmo para fazer o tipo de serviço demonstrado, se a ação realizada foi intencional ou não, entre outras questões.

Em um cenário em que uma escavadeira está trabalhando na construção de um prédio, não vê um túmulo no ambiente e o destrói, por exemplo. Haveria um julgamento diferente se o responsável pela condução da escavadeira fosse um humano ou uma máquina?

Com base nas respostas, ele observou que as pessoas tendem a ver a ação da máquina como mais prejudicial, e tendem a estar mais dispostos a contratar alguém que destruiu o túmulo sem intenção do que uma máquina que o fez da mesma forma.

Pensando nas dimensões morais e de justiça deste tipo de situação, foi usado outro exemplo. Considerou-se um cenário de resposta à emergência, mais especificamente a um tsunami. O político, ou algoritmo responsável por governar a cidade, poderia decidir entre evacuar todos os habitantes, com 50% de chance de sucesso da operação, ou salvar apenas 50% da população, mas com 100% de chance de sucesso.

Para essa situação, foram verificados três cenários possíveis. No primeiro, a figura política tenta salvar todos e fracassa – nesse caso, as pessoas tendem a achar que a ação da máquina é muito mais prejudicial e não contratariam uma máquina que tenta e fracassa. O humano é avaliado pela motivação e intenção e a máquina, pelo desfecho da situação. No segundo, tenta salvar a todos e consegue – aqui, verificou-se que o homem foi avaliado melhor do que a máquina. E, no terceiro, a figura política salva metade das pessoas.

Neste último cenário, não há muita diferença de percepção entre a ação feita pelo homem ou pela máquina, mas, quando perguntadas se substituiriam o homem pela máquina e vice-versa, as pessoas tendem a dizer que preferem trocar a máquina pelo homem, mas não fariam o inverso.

O pesquisador concluiu que o risco político para os executivos responsáveis pela tecnologia seria maior quando a tecnologia falha do que quando quem falha é uma equipe de humanos.

"Não é apenas que preferimos o humano, depende das dimensões morais", explicou. Como exemplo, falou de um robô que usa uma bandeira para se limpar. A mesma ação feita por um humano seria julgada de forma diferente, de modo que a questão moral e a intenção da ação teriam mais importância nesse caso.

O viés, ou a justiça dos algoritmos, é complicado e é algo que nunca se pode alcançar por completo, afirmou. Quando olhamos a questão da substituição de um pelo outro, as pessoas apresentam aversão à máquina e têm maior probabilidade de substituir uma máquina que tornaria um sistema mais justo por uma pessoa que o tornaria mais injusto.

Já no contexto de um gerente de RH que faz a triagem de candidatos para entrevistas de trabalho, por exemplo, as pessoas podem preferir a seleção feita por máquinas, pois em casos de justiça os humanos tendem a ser mais julgados. Porém, também tendem a ser mais perdoados quando a situação envolve acidentes.

As pessoas julgam os humanos pelas intenções e as máquinas pelos resultados. Hidalgo faz a afirmação com base no estudo realizado nos Estados Unidos, mas acredita que as diferenças no julgamento moral não são culturais e que, independentemente do país, a cultura não muda o efeito macro do experimento. Quanto mais o modelo mental da máquina se aproxima do modelo mental humano, maior é o julgamento humano sobre ela. O sucesso da máquina, afirmou, tende a ser visto como algo natural – e não digno de valorização –, ao passo que o sucesso humano é mais valorizado.