Pesquisadores debatem uso da Inteligência Artificial nas estratégias de desinformação
- Participantes do evento Estratégias Tecnológicas da Desinformação.
Nina participou do evento online “Estratégias Tecnológicas da Desinformação”, realizado no dia 19 de agosto pelo C4AI / AI Humanity e o NAP Observatório da Inovação e Competitividade do IEA. Ela e Miguel Lago, professor da School of International and Public Affairs da Universidade de Columbia e da École d’Affaires Publiques de Sciences Po Paris, discutiram como o vasto conjunto de procedimentos incorporados às máquinas, aos algoritmos e às ferramentas de Inteligência Artificial (IA) – que, por meio das redes sociais, privilegiam o fluxo e a disseminação de conteúdos manipulados – podem interferir diretamente no debate público e nas relações de poder.
Assista na íntegra |
---|
Vídeo do debate “Estratégias Tecnológicas da Desinformação” |
“A gente sabe que a inteligência artificial não é nem boa e nem ruim, a priori”, afirmou Lago a respeito de como o contexto social em que esta tecnologia se insere é determinante para avaliar o impacto da IA. No caso do Sul Global (e também em países como EUA e Reino Unido), o pesquisador argumenta que existe um contexto de produção de desinformação que abala a credibilidade e legitimidade das estruturas tradicionais de poder e autoridade.
Enquanto isso, explicou, as chamadas “Big Techs” – plataformas digitais onde estas redes de desinformação são criadas – permanecem insuficientes para moderar e regular o conteúdo no intuito de evitar a propagação de mentiras.
Caminhos da desinformação
“É uma parceria obscura entre máquina e sentimentos como desejo de vingança, ódio e ressentimentos. E isto é uma combinação explosiva, como já está demonstrado”, afirmou Eugênio Bucci, coordenador acadêmico da Cátedra Oscar Sala e mediador do debate, ao tentar definir estas estratégias tecnológicas que propagam desinformação. Tais estratégias são o objeto de pesquisa da pesquisadora Nina Santos, que busca entender os pilares que sustentam a produção de desinformação.
Nina destacou três pontos cruciais para se entender o desenvolvimento das tecnologias da desinformação: a lógica opaca das plataformas, a volatilidade como estratégia de perenização do conteúdo e a monetização.
Primeiramente ela explica como as plataformas (do francês plate-forme; forma plana) não têm nada de plano ou transparente em sua formação, apesar de construírem um imaginário acerca de si próprias como um espaço aberto, neutro e igualitário. Justamente pela intermediação de algoritmos que definem o que cada usuário vai consumir nas redes sociais que essa ideia de “comunicação direta” estabelecida pelas plataformas não se concretiza na prática.
Para a pesquisadora, é fundamental questionar o que se esconde por trás desta ideia de plataforma digital: “As plataformas agem de acordo com lógicas e regras definidas de forma privada sobre as quais apenas podemos inferir determinados comportamentos, mas sem realmente compreender o que está por trás. A gente não tem acesso aos algoritmos em si, então isso cria uma privatização de regras muito importantes da definição do debate público”, afirmou.
A respeito da volatilidade dos conteúdos que visam desinformar, ela define que tais conteúdos, uma vez postados, ganham vida própria. “A volatilidade não é apenas uma característica, mas uma estratégia de perenização do conteúdo. Ou seja, é a partir de conteúdos voláteis e que somem rápido que muitas vezes os atores desinformativos conseguem fazer com que eles durem mais tempo na rede”, explicou.
- Gráfico a respeito da propagação de conteúdos de desinformação de acordo com a data de publicação
Como a referência original destas peças de desinformação comumente é apagada, Nina elucida que pode ser feita uma correlação entre o tempo que a postagem dura na rede e a qualidade dessa informação. Ela citou uma pesquisa realizada dentro da Universidade de Londres que revela que 29% dos links compartilhados no Twitter durante a campanha do Brexit desapareceram depois do referendo.
No Brasil, um estudo ainda em desenvolvimento do qual Nina participa junto com os pesquisadores Vitor Chagas e Luciana Marinho identifica que 42% dos links compartilhados em grupos bolsonaristas no WhatsApp sumiram da rede em um ano. Mas ela ressaltou: “Todos estes conteúdos estão longe de ter desaparecido das redes. O fato de não termos mais acesso aos links originais não significa que não estejam circulando em outras redes”.
A respeito da monetização destes conteúdos de desinformação, a pesquisadora pondera que este tema ainda é subexplorado no debate público e acadêmico. Isso porque a discussão costuma ser centralizada na circulação orgânica do conteúdo, ou seja, em como as pessoas repassam fake news, a falta de checagem antes de se compartilhar alguma informação e figuras públicas que intencionalmente propagam esse tipo de conteúdo.
“O papel da monetização, ou seja, da circulação não orgânica nas redes, é absolutamente central para a gente compreender este processo”, afirmou. As plataformas (como YouTube e TikTok) operam de modo a pagar produtores de conteúdo de acordo com a audiência e engajamento. Ou seja, priorizam vídeos que mais atraem a atenção das pessoas, o que acaba beneficiando estratégias de desinformação.
“O caráter de surpresa que os conteúdos desinformativos geram consegue atrair muito a atenção, aumentando o compartilhamento e o tempo que as pessoas passam lendo essa desinformação”, afirmou Nina para explicar porque a lógica de monetização beneficia os produtores com intenção de desinformar. Ela elogiou a decisão judicial do TSE que obrigou as redes sociais a suspenderem a monetização e os mecanismos de recomendação de conteúdos de contas que estão propagando informações falsas sobre eleições e a urna eleitoral.
Os impactos das tecnologias da desinformação nos governos e na sociedade civil
Para Miguel Lagos, as tecnologias de informação e a inteligência artificial já têm impacto no cotidiano das cidades, de forma negativa e positiva. Ele apresentou um relatório do Banco Mundial que afirma que a captação de informação através das smart cities vai reduzir o número de participação direta da população nas políticas públicas. Como existe uma vigilância e sistematização constante dos dados a respeito dos problemas de uma cidade, cada vez menos os governos precisarão consultar a opinião da população para promover políticas públicas.
Por outro lado, o pesquisador afirma que este relatório, de maneira contraditória, também indica que as inteligências artificiais podem beneficiar movimentos sociais e aumentar a participação das pessoas no ativismo político com a intenção de promover e modificar políticas públicas. “Dependendo do contexto em que a inteligência artificial é inserida e das relações sociais que a enquadram, ela pode ser benéfica ou extremamente problemática”, apontou Lago.
Ele também faz referência aos estudos de Paolo Gerbaudo, da King’s College, que argumenta que existe uma afinidade entre populismo e mídias sociais. Nas palavras do pesquisador: “Por um lado as mídias sociais favorecem a construção de uma ideia de que elas são a ‘voz legítima do povo’, e por outro lado existe a dinâmica de mobilização das redes sociais que favorece uma mobilização parecida com o populismo”.
Segundo Lagos, a falta de previsão e transparência da mídia tradicional na cobertura da crise econômica de 2008 levou à perda de confiança das populações dos países ocidentais nas grandes mídias. Em meio a esta crise de confiança, as redes sociais se tornaram, no imaginário popular, a “voz verdadeira do povo”, pois é o local onde todos podem se expressar legitimamente.
O professor também destaca os estudos de Luciano Floridi, da Universidade de Oxford, que defende a ideia de que entramos na hiper-história, onde todas as relações sociais sofreram importantes mutações: “Floride fala que no fundo não faz mais sentido a gente falar de uma distinção entre o offline e o online, porque cada vez mais existe uma mistura entre estes ambientes. E por conta dessa mistura perdemos a distinção daquilo que é realidade e virtualidade e passamos a confiar muito mais em perfis e pessoas do que em entidades e instituições”.
Para ele, a desinformação opera sob uma estratégia de destituição da legitimidade de qualquer autoridade e referência. Essa característica, explicou, está muito clara no discurso do presidente em relação à pandemia. “Não é à toa que Bolsonaro está promovendo desinformação em relação a fármacos que pudessem curar a Covid-19. Na minha opinião, a estratégia central é de deslegitimação da ciência como uma voz de autoridade.”