Você está aqui: Página Inicial / NOTÍCIAS / Para especialista, algoritmos opacos decidem sobre a vida das pessoas

Para especialista, algoritmos opacos decidem sobre a vida das pessoas

por Matheus Nistal - publicado 10/04/2023 15:10 - última modificação 14/04/2023 16:33

Em evento no IEA, Frank Pasquale analisou os desafios no caminho para o uso responsável de Big Data e machine learning

Reavaliando a Lei de Proteção de dados - 2Chatbots como o Chat GPT, aplicativos de transporte e agências de crédito usam as Inteligências Artificiais e a Big Data com pouca clareza e devem passar por maior escrutínio, defendeu Frank Pasquale, professor de direito sob o título Jeffrey D. Forchelli na Escola de Direito do Brooklyn. Em evento no IEA no dia 30 de março, ele demonstrou preocupação com o uso desenfreado dessas novas ferramentas: “É impressionante a quantidade de dados captados de pessoas físicas”. Segundo o pesquisador, os usuários e consumidores precisam ter mais clareza sobre as informações pessoais que as empresas têm e como elas estão sendo usadas. “O uso é muito pouco claro porque as corporações são como caixas-pretas”, afirmou.

O seminário “Reavaliando a Lei de Proteção de Dados: O Caso dos Direitos de Acesso à Informação” foi organizado pela Cátedra Oscar Sala, parceria do IEA com o Núcleo de Informação e Coordenação do Ponto BR.

Relacionado
Vídeo do evento
Notícia: Os desafios do ChatGPT ao ensino e à pesquisa

O especialista admitiu que as tecnologias de Big Data para avaliação algorítmica de pessoas oferecem mais chances para demonstrar tanto méritos quanto deméritos, apesar das distorções. Antes da introdução dessas técnicas, as empresas de crédito, por exemplo, usavam dados estritamente financeiros para suas análises. Para Pasquale, “usar dados de coletas mais velhas e com um escopo menor pode provocar vieses”. Ele explicou que com o advento do Big Data, as empresas financeiras utilizam uma variedade muito maior de informações, desde registros de músicas preferidas até histórico de visitas em sites. Isso permite que pessoas sem amplos registros financeiros - que têm seu direito de acesso ao crédito negligenciado - consigam mostrar que se comportam da mesma maneira que bons pagadores.

Porém, a falta de transparência causa problemas. Entre eles, segundo o professor, está o uso de dados gratuitos ou baratos, que são normalmente imprecisos, para alimentar seus algoritmos. “De onde exatamente o Chat GPT tira suas informações? Da Wikipedia? Do Reddit? Do 4Chan?”, questionou. Os chatbots prometem oferecer atendimento médico, mas, supondo que usem apenas dados abertos, não terão acesso a bases de dados com paywall e artigos revisados por seus pares. Entretanto essas ferramentas teriam, segundo Pasquale, acesso aos péssimos conselhos médicos da internet aberta e ainda seriam vulneráveis a ataques maliciosos de alteração algorítmica de conteúdo.

Também preocupa a utilização de dados corretos, porém inapropriados. Por exemplo, um banco pode ficar receoso em emprestar dinheiro para uma pessoa com uma doença séria. “É verdade que pacientes diagnosticados com câncer podem passar por instabilidades financeiras e deixar de pagar seus credores, mas não é ético e nem legal negar crédito sob essas condições”, defendeu o especialista.

Outro problema é a criação de novos grupos de discriminação. O mecanismo pode agir de forma errática, por exemplo, "contra pessoas que usam sapatos baratos, alguém que compre perfumes muito caros, que faça muitas ou poucas viagens”, alertou o professor. O comportamento dos algoritmos de machine learning não expressam resultados únicos nem exatos, segundo Pasquale, que afirmou que “sob variáveis diferentes, qualquer cidade norte-americana pode ser elencada como a melhor do país”. Para ele, a transparência pode ajudar as pessoas a entenderem como elas estão sendo avaliadas.

Direitos de acesso à informação

Essas questões levaram a sociedade civil, os políticos e reguladores a demandarem novos marcos de direitos de acesso à informação. Nesse escopo, o especialista cita como avanço a Lei de Acesso à Informação da Califórnia, aprovada em 2018. Ele explica que a lei californiana impacta o funcionamento geral de diversas empresas que operam nesse estado, preferindo universalizar internamente esses direitos a trabalhar de maneira diferente em cada jurisdição, o que complicaria a operação, segundo o Pasquale.

Pela nova legislação californiana, são garantidos ao consumidor:

  • Saber qual dado pessoal uma empresa coletou sobre o usuário ou consumidor;

  • De onde ela coletou;

  • Para qual propósito os dados estão sendo usados;

  • Se a empresa que coleta repassa esses dados para outra;

  • Caso repasse, para quem está repassando;

  • Sob requerimento, a empresa precisa informar qual a lógica envolvida em processos automáticos de decisão;

É no último item que Pasquale vê um impasse: a dificuldade de determinar o nível de detalhes e o significado que essa informação precisa ter. Ele cita que, em alguns casos, os próprios engenheiros que programaram os sistemas não conseguem explicar a associação feita pela Inteligência Artificial para uma tomada de decisão. O custo da lei também provocou dissenso, já que pode chegar a US$ 547 milhões por ano para as empresas nos Estados Unidos. As companhias também atentaram aos seus direitos de manter segredos comerciais seguros. Mesmo assim, o professor vê com otimismo as possibilidades que a nova regra traz.

Reavaliando a Lei de Proteção de dados - 1
Virgílio Almeida, Frank Pasquale e Luiz Fernando Martins Castro

Pasquale faz uma analogia com leis ambientais, e afirma que essa legislação contribui para um ecossistema digital mais limpo e justo. Para ele, a lei incentiva curiosos a requisitar seus dados e, mais do que isso, empodera ONGs e grupos ativistas a encontrar injustiças sistemáticas nos algoritmos de maneira coletiva. Ele cita o hipotético caso de um motorista de aplicativo que se vê frustrado em não conseguir prover para sua família e se culpa achando que não trabalha o suficiente ou não é um bom motorista. No entanto, ao se juntar a um grupo de motoristas para analisar seus dados coletivamente, percebe que nenhum deles está conseguindo dinheiro suficiente e que o algoritmo está funcionando em desfavor dos trabalhadores.

Sobre a disputa jurídica entre os interesses das empresas e dos consumidores, Pasquale afirma que as companhias têm equipes jurídicas robustas e bem pagas que estão tentando fazer com que prevaleça a interpretação mais inócua possível da lei, enquanto os reguladores e entidades civis não têm tantos recursos. Por isso, ele acredita que deveria existir um imposto sobre as grandes empresas de tecnologia destinado a financiar as agências reguladoras em busca de níveis maiores de transparência.

No Brasil, segundo Virgílio Almeida, titular da Cátedra Oscar Sala, enfrenta-se o mesmo problema de falta de recursos para entidades que regulam o setor. Almeida destaca a criação da Lei Geral de Proteção de Dados e que existem planos para a criação de um novo setor da economia brasileira, baseado em dados, e por isso é necessário analisar outras alternativas de legislação que regule a prática de comercialização e uso de dados.

Luiz Fernando Martins Castro, coordenador adjunto da Cátedra Oscar Sala, afirmou que a maioria das leis de proteção de dados atuais, inclusive a brasileira, foi baseada no Regulamento Geral de Proteção de Dados da União Europeia. Porém, ele vê que ainda se discute os reais efeitos dessas leis e “em que medida elas vão garantir alguma privacidade e qual privacidade é essa no mundo digital que a gente vive”.