Você está aqui: Página Inicial / NOTÍCIAS / Pesquisadores debatem uso da Inteligência Artificial nas estratégias de desinformação

Pesquisadores debatem uso da Inteligência Artificial nas estratégias de desinformação

por Vinícius Lucena - publicado 25/08/2021 10:50 - última modificação 25/08/2021 15:55

O evento online “Estratégias Tecnológicas da Desinformação” debateu como os algoritmos e as ferramentas de Inteligência Artificial (IA) podem interferir diretamente no debate público e nas relações de poder através da disseminação de desinformação.

Participantes do evento "Estratégias Tecnológicas da Desinformação"
Participantes do evento Estratégias Tecnológicas da Desinformação.
Para Nina Santos, pesquisadora em pós-doutorado no Instituto Nacional de Ciência e Tecnologia em Democracia Digital, há uma limitação na legislação sobre conteúdo digital que prevê a obrigação de apagar conteúdos que propagam desinformação nas redes. “O conteúdo ganha vida própria e, em certa medida, passa a independer da referência original. Isso faz com que a exclusão dessa referência original, seja pelo próprio autor, seja por medidas regulatórias, tenha impacto restrito.” Ou seja, o caráter multiplataforma da desinformação faz com que a mera exclusão dos conteúdos não impeça que eles continuem sendo compartilhados e reproduzidos.

Nina participou do evento online “Estratégias Tecnológicas da Desinformação”, realizado no dia 19 de agosto pelo C4AI / AI Humanity e o NAP Observatório da Inovação e Competitividade do IEA. Ela e Miguel Lago, professor da School of International and Public Affairs da Universidade de Columbia e da École d’Affaires Publiques de Sciences Po Paris, discutiram como o vasto conjunto de procedimentos incorporados às máquinas, aos algoritmos e às ferramentas de Inteligência Artificial (IA) – que, por meio das redes sociais, privilegiam o fluxo e a disseminação de conteúdos manipulados – podem interferir diretamente no debate público e nas relações de poder.

Assista na íntegra
Vídeo do debate “Estratégias Tecnológicas da Desinformação”

“A gente sabe que a inteligência artificial não é nem boa e nem ruim, a priori”, afirmou Lago a respeito de como o contexto social em que esta tecnologia se insere é determinante para avaliar o impacto da IA. No caso do Sul Global (e também em países como EUA e Reino Unido), o pesquisador argumenta que existe um contexto de produção de desinformação que abala a credibilidade e legitimidade das estruturas tradicionais de poder e autoridade.

Enquanto isso, explicou, as chamadas “Big Techs” – plataformas digitais onde estas redes de desinformação são criadas – permanecem insuficientes para moderar e regular o conteúdo no intuito de evitar a propagação de mentiras.

Caminhos da desinformação

“É uma parceria obscura entre máquina e sentimentos como desejo de vingança, ódio e ressentimentos. E isto é uma combinação explosiva, como já está demonstrado”, afirmou Eugênio Bucci, coordenador acadêmico da Cátedra Oscar Sala e mediador do debate, ao tentar definir estas estratégias tecnológicas que propagam desinformação. Tais estratégias são o objeto de pesquisa da pesquisadora Nina Santos, que busca entender os pilares que sustentam a produção de desinformação.

Nina destacou três pontos cruciais para se entender o desenvolvimento das tecnologias da desinformação: a lógica opaca das plataformas, a volatilidade como estratégia de perenização do conteúdo e a monetização.

Primeiramente ela explica como as plataformas (do francês plate-forme; forma plana) não têm nada de plano ou transparente em sua formação, apesar de construírem um imaginário acerca de si próprias como um espaço aberto, neutro e igualitário. Justamente pela intermediação de algoritmos que definem o que cada usuário vai consumir nas redes sociais que essa ideia de “comunicação direta” estabelecida pelas plataformas não se concretiza na prática.

Para a pesquisadora, é fundamental questionar o que se esconde por trás desta ideia de plataforma digital: “As plataformas agem de acordo com lógicas e regras definidas de forma privada sobre as quais apenas podemos inferir determinados comportamentos, mas sem realmente compreender o que está por trás. A gente não tem acesso aos algoritmos em si, então isso cria uma privatização de regras muito importantes da definição do debate público”, afirmou.

A respeito da volatilidade dos conteúdos que visam desinformar, ela define que tais conteúdos, uma vez postados, ganham vida própria. “A volatilidade não é apenas uma característica, mas uma estratégia de perenização do conteúdo. Ou seja, é a partir de conteúdos voláteis e que somem rápido que muitas vezes os atores desinformativos conseguem fazer com que eles durem mais tempo na rede”, explicou.

Gráfico a respeito da propagação de conteúdos de desinformação de acordo com a data de publicação
Gráfico a respeito da propagação de conteúdos de desinformação de acordo com a data de publicação
Em resumo, os propagadores de desinformação se beneficiam da característica multiplataforma do ambiente digital, no qual os conteúdos circulam muito rapidamente entre diferentes plataformas, para escapar dos efeitos da moderação ou regulação. A facilidade de propagar desinformação promove uma estratégia de perenização destes conteúdos.

Como a referência original destas peças de desinformação comumente é apagada, Nina elucida que pode ser feita uma correlação entre o tempo que a postagem dura na rede e a qualidade dessa informação. Ela citou uma pesquisa realizada dentro da Universidade de Londres que revela que 29% dos links compartilhados no Twitter durante a campanha do Brexit desapareceram depois do referendo.

No Brasil, um estudo ainda em desenvolvimento do qual Nina participa junto com os pesquisadores Vitor Chagas e Luciana Marinho identifica que 42% dos links compartilhados em grupos bolsonaristas no WhatsApp sumiram da rede em um ano. Mas ela ressaltou: “Todos estes conteúdos estão longe de ter desaparecido das redes. O fato de não termos mais acesso aos links originais não significa que não estejam circulando em outras redes”.

A respeito da monetização destes conteúdos de desinformação, a pesquisadora pondera que este tema ainda é subexplorado no debate público e acadêmico. Isso porque a discussão costuma ser centralizada na circulação orgânica do conteúdo, ou seja, em como as pessoas repassam fake news, a falta de checagem antes de se compartilhar alguma informação e figuras públicas que intencionalmente propagam esse tipo de conteúdo.

“O papel da monetização, ou seja, da circulação não orgânica nas redes, é absolutamente central para a gente compreender este processo”, afirmou. As plataformas (como YouTube e TikTok) operam de modo a pagar produtores de conteúdo de acordo com a audiência e engajamento. Ou seja, priorizam vídeos que mais atraem a atenção das pessoas, o que acaba beneficiando estratégias de desinformação.

“O caráter de surpresa que os conteúdos desinformativos geram consegue atrair muito a atenção, aumentando o compartilhamento e o tempo que as pessoas passam lendo essa desinformação”, afirmou Nina para explicar porque a lógica de monetização beneficia os produtores com intenção de desinformar. Ela elogiou a decisão judicial do TSE que obrigou as redes sociais a suspenderem a monetização e os mecanismos de recomendação de conteúdos de contas que estão propagando informações falsas sobre eleições e a urna eleitoral.

Os impactos das tecnologias da desinformação nos governos e na sociedade civil

Para Miguel Lagos, as tecnologias de informação e a inteligência artificial já têm impacto no cotidiano das cidades, de forma negativa e positiva. Ele apresentou um relatório do Banco Mundial que afirma que a captação de informação através das smart cities vai reduzir o número de participação direta da população nas políticas públicas. Como existe uma vigilância e sistematização constante dos dados a respeito dos problemas de uma cidade, cada vez menos os governos precisarão consultar a opinião da população para promover políticas públicas.

Por outro lado, o pesquisador afirma que este relatório, de maneira contraditória, também indica que as inteligências artificiais podem beneficiar movimentos sociais e aumentar a participação das pessoas no ativismo político com a intenção de promover e modificar políticas públicas. “Dependendo do contexto em que a inteligência artificial é inserida e das relações sociais que a enquadram, ela pode ser benéfica ou extremamente problemática”, apontou Lago.

Ele também faz referência aos estudos de Paolo Gerbaudo, da King’s College, que argumenta que existe uma afinidade entre populismo e mídias sociais. Nas palavras do pesquisador: “Por um lado as mídias sociais favorecem a construção de uma ideia de que elas são a ‘voz legítima do povo’, e por outro lado existe a dinâmica de mobilização das redes sociais que favorece uma mobilização parecida com o populismo”.

Segundo Lagos, a falta de previsão e transparência da mídia tradicional na cobertura da crise econômica de 2008 levou à perda de confiança das populações dos países ocidentais nas grandes mídias. Em meio a esta crise de confiança, as redes sociais se tornaram, no imaginário popular, a “voz verdadeira do povo”, pois é o local onde todos podem se expressar legitimamente.

O professor também destaca os estudos de Luciano Floridi, da Universidade de Oxford, que defende a ideia de que entramos na hiper-história, onde todas as relações sociais sofreram importantes mutações: “Floride fala que no fundo não faz mais sentido a gente falar de uma distinção entre o offline e o online, porque cada vez mais existe uma mistura entre estes ambientes. E por conta dessa mistura perdemos a distinção daquilo que é realidade e virtualidade e passamos a confiar muito mais em perfis e pessoas do que em entidades e instituições”.

Para ele, a desinformação opera sob uma estratégia de destituição da legitimidade de qualquer autoridade e referência. Essa característica, explicou, está muito clara no discurso do presidente em relação à pandemia. “Não é à toa que Bolsonaro está promovendo desinformação em relação a fármacos que pudessem curar a Covid-19. Na minha opinião, a estratégia central é de deslegitimação da ciência como uma voz de autoridade.”