Você está aqui: Página Inicial / NOTÍCIAS / Os desafios do ChatGPT ao ensino e à pesquisa

Os desafios do ChatGPT ao ensino e à pesquisa

por Mauro Bellesa - publicado 29/03/2023 12:35 - última modificação 02/05/2023 08:32

O seminário ChatGPT: Potencial, Limites e Implicações para a Universidade foi realizado no dia 21 de março, com a participação de pesquisadores das áreas de computação, sociologia, engenharia, direito, inovação e educação, além de dirigentes da USP e representante do Ministério da Educação (MEC).

Home do ChatGPTPara Bill Gates, cofundador da Microsoft, é algo que vai mudar o mundo, tão importante quanto a invenção da internet, do computador pessoal e do telefone celular.  Para o linguista Noam Chomsky, professor emérito do Instituto de Tecnologia de Massachusetts (MIT), no entanto, é algo caracterizado por amoralidade, falsa ciência e incompetência linguística, e está longe de ser a aurora da fase que levará a máquina a superar a mente humana.

Eles se referem ao ChatGPT, recurso de inteligência artificial desenvolvido pela empresa OpenAI, lançado publicamente no final de outubro. Numa definição simplificada, é uma ferramenta da área de processamento de linguagem natural que procura entender como ela funciona e processá-la computacionalmente, respondendo a perguntas ou elaborando textos solicitados pelo usuário, de acordo com o professor Fábio Cozman, diretor do Centro de Inteligência Artificial (C4AI) da USP.

Sistemas similares estão sendo desenvolvidos por outras empresas. Recentemente, o Google liberou o acesso ao seu, chamado Bard, nos EUA e no Reino Unido. A Microsoft pretende incorporar o ChatGPT no seu sistema de busca, Bing, e no pacote do Office, que inclui o Word e o Excel.

O fato é que o surgimento do ChatGPT tem despertado enorme entusiasmo pelas suas potencialidades, acompanhado de inúmeras preocupações éticas e sociais em diversas áreas que sofrerão seu impacto, como no caso de seu uso na pesquisa e no ensino superior.

Relacionado

Essas promessas e riscos motivaram o IEA a realizar o seminário ChatGPT: Potencial, Limites e Implicações para a Universidade, no dia 21 de março, com a participação de pesquisadores das áreas de computação, sociologia, engenharia, direito, inovação e educação, além de dirigentes da USP e representante do Ministério da Educação (MEC). Foram parceiros do Instituto na iniciativa o Centro Brasileiro de Análise e Planejamento (Cebrap) e o Núcleo de Informação e Coordenação do Ponto BR (NIC.br), braço executivo do Comitê Gestor da Internet no Brasil (CGI.br).

O seminário deu início a uma série de debates para a elaboração de propostas a serem encaminhadas à Reitoria da USP, para que esta defina um conjunto de diretrizes e normas que asseguram o uso adequado e ético de ferramentas como ChatGPT no ensino e na pesquisa.

Segundo o sociólogo Glauco Arbix, professor da Faculdade de Filosofia, Letras e Ciências Humanas e pesquisador do IEA e do C4AI, serão realizados cinco seminários sobre impactos dos modelos de linguagem no mercado de trabalho, sustentabilidade, ciência e tecnologia, saúde e educação. A partir dos encontros, serão produzidos textos para maturação das ideias e formadas equipes em parcerias com várias unidades da USP.

A preocupação com os impactos dos modelos de linguagem ficou patente diante do elenco de apoiadores da Universidade ao seminário: Reitoria; Pró-Reitorias de Graduação, de Pós-Graduação e de Pesquisa e Inovação; C4AI; Jornal da USP; e três estruturas de pesquisa sediadas no IEA: Núcleo de Pesquisa Observatório da Inovação e Competividade, Cátedra Oscar Sala e Cátedra Alfredo Bosi de Educação Básica.

O que é

A palestra introdutória do seminário foi feita por Fábio Cozman. Além de dirigir o C4AI, ele é professor do Departamento de Mecatrônica da Escola Politécnica da USP, especialista em várias áreas da IA. Ele tratou do desenvolvimento computacional e metodológico que levou à criação do ChatGPT, das características e funcionamento do dispositivo e dos desafios brasileiros para acompanhar o que ele considera similar à corrida espacial entre EUA e a ex-URSS durante a Guerra Fria.

Segundo ele, a área de processamento de linguagem natural já era discutida em 1950 e é uma das partes da IA, que inclui também: representação do conhecimento e raciocínio; visão computacional [reconhecimento de imagens]; tomada de decisão; e aprendizado de máquina.

“As áreas de visão computacional e de processamento de linguagem natural são mais ligadas ao como interagir com o mundo. Nos últimos anos, no entanto, toda as áreas de IA foram profundamente influenciadas pelo aprendizado de máquina, cujo interesse principal é coletar dados e construir padrões de como as coisas funcionam, para que possam ser reproduzidos por máquinas na resolução de problemas práticos", explicou.

O surgimento dos big data (bancos de dados gigantescos) e a ampliação da capacidade de processamento computacional contribuiu muito para o desenvolvimento do aprendizado de máquina para resolver inúmeros problemas, disse. Acrescentou que o crescimento da área de processamento de linguagem natural teve um crescimento gradual até 2010 e depois teve uma explosão.

Primórdios

Cozman lembrou que o primeiro programa de processamento de linguagem natural, o Eliza, criado nos anos 60 no MIT, era capaz de responder a perguntas simples, simulando um psicólogo. “Funcionava com regras, uma técnica muito comum em outros sistemas. A maior parte dos chatbots com que as pessoas interagem no comércio eletrônico funciona à base de regras.”

"O Eliza funcionava muito bem e demonstrou que o ser humano gosta de conversar com uma máquina. E mesmo que o sistema tenha padrões bem simples, tendemos a achá-lo muito inteligente", disse.

Até os anos 80, os sistemas progrediram lentamente, sempre se baseando em regras e análises linguísticas. A primeira revolução aconteceu por volta de 1990, devido ao interesse da Darpa (Agência de Projetos de Pesquisa Avançada em Defesa), dos Estados Unidos, em sistemas de tradução, o que provocou uma série de avanços em universidades e empresas.

“Os pesquisadores perceberam que, em vez de usar regras sintáticas para traduções e entendimento de texto, ou seja, usar apenas a linguística, era melhor pegar um monte de frases e calcular a probabilidade da próxima palavra a partir do que tinha sido escrito. É isso o que os modelos de linguagem fazem. O ChatGPT calcula a probabilidade da próxima palavra em função de até 3 mil palavras ditas antes.”

Para montar um modelo de linguagem, uma gigantesca quantidade de textos, com bilhões de palavras, é selecionada para constituir o que é chamado de corpus. “Estima-se que o corpus da atual versão do ChatGPT contenha 500 bilhões de palavras. O modelo é chamado de generativo, pois gera textos”, explicou.

Revoluções

A partir de 2009, houve várias revoluções na área de processamento natural da linguagem, de acordo com Cozman, que destacou as três mais importantes: a dos embeddings (de 2003 a 2013, aproximadamente); a do aprendizado profundo (a partir de 2012); e dos transformers (a partir de 2019).

O embedding é uma relação em que a cada palavra é associada um número de maneira intuitiva, de forma a permitir o agrupamento de palavras por proximidade numérica. explicou. "Palavras de alguma forma relacionadas com “bom” (ótimo, benéfico, satisfatório etc.), por exemplo, terão números associados próximos entre si."

O entendimento que era possível transformar símbolos em números foi fundamental, permitiu a uma série de revoluções, que culminaram no modelo chamado transformer, uma das maneiras de calcular a probabilidade de ocorrência de uma palavra a partir do que foi dito antes, disse Cozman. O transformer é uma rede neural artificial, uma estrutura que procura emular o funcionamento de rede de neurônios do cérebro humano.

Fábio Cozman - 21/3/23
Fábio Cozman, diretor do C4AI, durante a palestra introdutória sobre o ChatGPT

O ChatGPT é um transformer. A inicial da palavra está na sigla GPT (Generative Pre-Trained Transformer). Nele, explicou, o que existe é um modelo com entradas de palavras e saídas das próximas palavras na frase. As palavras de entrada são representadas por números, que são somados, multiplicados e subtraídos várias vezes. Essas operações intermediárias levam a uma camada oculta, onde novamente os números sofrem novas operações matemáticas. Como são muitas as fases de camadas ocultas e com inúmeros “neurônios”, o resultado é uma função muito complexa, que mapeia o que se passa a partir da entrada de palavras às saídas resultantes do processo.

“Essas funções dependem de vários números, que são estimados, aprendidos, treinados e extraídos de dados, e dessa forma há o aprendizado da rede neural. Uma rede profunda envolve o ciclo entrada-camada oculta-saída várias vezes. Uma bastante famosa é a Alexnet, de 2012, com 60 milhões de números e oito camadas ocultas, capaz de identificar rostos humanos quase como os seres humanos o fazem."

A segunda ideia revolucionária na construção dos transformers foi a formulação dos chamados “esquemas de atenção”, uma associação de dois números a cada palavra: um referente à sua representação numérica, conforme dito antes, e outro que indica a posição da palavra na frase. “Com isso, cada palavra terá uma representação numérica variável de acordo com a palavra que a preceder. Tecnicamente, isso é chamado de embbeding contextual.”

Primeiras versões

O primeiro transformer foi o Bert, uma rede neural produzida pelo Google e com versões que variavam de 110 a 340 milhões de parâmetros (números para especificar as relações de entrada e saída) com mais de 3 bilhões de palavras em seu corpus, afirmou Cozman. Depois surgiu uma família de transformers chamada T5, também do Google, a qual possuía 11 bilhões de parâmetros. Outro conjunto famoso são os GPT, da OpenAI. As versões 1, 2 e 3 “eram modelos generativos básicos e apresentavam problemas sérios, respondendo coisas erradas, sem sentido, agressivas, impróprias, discriminatórias ou até de conotação sexual”, disse.

Na passagem da versão 3 para a 4, em desenvolvimento, houve uma mudança acentuada, com o GPT Instruct, treinado para responder a instruções com habilidade maior para evitar erros e alucinações, explicou. “O mais incrível foi a evolução do tamanho dos GPTs. O 3 já possuía 175 bilhões de parâmetros, o 3,5, basicamente o GPT Instruct, possui cerca de 500 bilhões de parâmetros. Não se sabe o tamanho do 4. A própria OpenAI deixa claro em seu site que não vai divulgar o tamanho.”

“Não é só o ChatGPT que está espantando a comunidade acadêmica. Muitas outras coisas estão acontecendo”, disse Cozman. Ele citou como exemplo um projeto iniciado na IBM e que está sendo ampliado no C4AI, sob a coordenação do vice-diretor do centro, Cláudio Pinharez, da IBM (financiadora do centro, ao lado da Fapesp).

"O problema para fazer tradução de línguas indígenas é a dificuldade em construir um corpus suficientemente vasto, pois há poucos registros escritos. Diante dessa dificuldade, os pesquisadores pegaram um transformer de tradução do inglês para alemão com 500 milhões de parâmetros e o treinaram com 45 mil parâmetros de línguas indígenas. Dessa forma, conseguiram obter um tradutor do guarani para outras línguas indígenas.,

Redução de erros

O ChatGPT foi criado em 2015 pela OpenAI quando ela era uma instituição sem fins lucrativos (agora é uma empresa). O sistema atualmente disponível para o público (correspondente basicamente ao GPT Instruct), depois de refinado com a interação com seres humanos, que indicaram se uma resposta era boa ou melhor que outra, por exemplo, adquiriu um sistema próprio de identificação de respostas erradas ou inapropriadas, afirmou.

“Todos os processadores de linguagem natural erram, mas o ChatGPT erra menos. Eles têm uma capacidade surpreendente de responder a perguntas e propor soluções para problemas, como na organização e produção de códigos de programação. São excelentes assistentes e estão sendo usados na indústria por programadores com aumento da produtividade.”

Os problemas que sistemas desse tipo apresentam, como alucinações, erros e coisas impróprias, advêm da própria forma como foram criados, segundo Cozman. Problemas sérios são a produção de plágios e a não identificação de fontes, levando alguém a citar algo que tem propriedade intelectual associada, afirmou.

Ele destacou que diretrizes de uso têm sido discutidas em todo o mundo. “Algumas são óbvias, como não permitir trabalhos em coautoria com o ChatGPT e similares. Há várias definidas por entidades, como a Associação de Linguística Computacional, que definiu o que fazer em casos de assistência gramatical, busca ou geração de texto.”

IA no Brasil

Mas qual a situação do Brasil nessa “nova corrida espacial”? Para Cozman, o país está numa situação relativamente boa na área de IA, com uma comunidade grande e forte de pesquisadores. "Em 2021, a maior área de investimento da Embrapii foi em IA."

“De acordo com dados de 2020 da Fapesp, o Brasil aparecia no 12º lugar no ranking de produção de artigos científicos em IA. A USP, em particular, tem uma posição privilegiada, com um conjunto grande de pesquisadores em várias unidades e liderança na produção de artigos.” No entanto, ele julga que o país precisa de uma reação para acompanhar a evolução na área, uma vez que foi ultrapassado nos últimos anos por Holanda, Turquia e Rússia, de acordo com dados da OCDE. “Essa perda de posições talvez se deva ao pouco investimento em pesquisa no país nos últimos anos.”

São vários os desafios do país nesse contexto trazido pelo ChatGPT. Um deles é o fato de as línguas brasileiras, inclusive o português, terem pouco conjuntos de dados e poucas ferramentas para a construção de bases de textos e parâmetros, comentou. “No C4AI, temos feito um esforço grande de desenvolvimento de ferramentas, mas falta material para o português e outras línguas brasileiras serem reconhecidas com a importância que têm.”

Falta de infraestrutura

Outro problema é a falta de infraestrutura para rodar os transformers: “Até onde sei, o GPT 3 precisa de um computador com 80 GPUs [unidades de processamento gráfico] para rodar. A USP não tem nenhum computador que consiga rodar o GPT 3. Nosso cluster, que custou mais de R$ 1 milhão, tem 8 GPUs. Acredito que nenhuma universidade brasileira tenha um computador que possa rodá-lo. A Petrobrás tem computador com muitas GPUs, talvez possa rodá-lo”.

Isso significa que a universidade brasileira não está preparada para essa nova “corrida espacial”, disse Cozman. “É muito importante que o Brasil se prepare, para que esses modelos que estão controlando a língua sejam de fato dominados, entendidos pela comunidade acadêmica do país.”

“Será necessário legislar com cuidado e refletir sobre os próximos passos em termos de investimento e capacidade de estar presente nessa discussão internacional com a nossa língua, e não apenas usar aquilo que está sendo gerado a partir de dados que não sabemos de onde vêm", concluiu.

Na abertura oficial do seminário, que se seguiu à palestra introdutória de Cozman, o reitor da USP, Carlos Gilberto Carlotti Júnior, realçou que quando surge uma novidade que propõe soluções para a sociedade, a universidade precisa participar como um ator representativo do pensamento crítico sobre a questão.

Para ele, os legisladores terão de definir algumas normas para a proteção da sociedade, pois “um sistema não pode ser tão fechado que não se saiba de onde vem a solução que ele apresenta”. O maior desafio será metodológico, segundo ele. “Precisamos entender as ferramentas e aprender como usá-las. Precisamos saber que informações devemos pedir e como pedi-la", disse.

Carlotti fez um alerta para despertar a conscientização sobre o problema na Universidade: "Agora temos a oportunidade de a USP contratar servidores e professores. No entanto, até o momento, apenas a Faculdade de Direito de Ribeirão Preto solicitou a contratação de um profissional da área de IA".

Transformações na Universidade

Citando o sociólogo estadunidense James Coleman, o diretor do IEA, Guilherme Ary Plonski, professor de duas unidades da USP (Escola Politécnica e Faculdade de Economia, Administração e Contabilidade) comentou que a universidade sempre foi caracterizada pelo processo lento de suas mudanças, que se consolidam quando iniciativas esparsas atingem uma massa crítica considerável.

“A questão é a velocidade. Pode levar uma década para algo virar uma preocupação institucional. O ChatGPT tem outro ritmo. Em dois meses atingiu 120 milhões de usuários. Daí a importância do seminário para acelerar, catalisar o processo de transformação em função do impacto de tecnologias como o ChatGPT, de forma a alimentar os processos de decisão e implante de políticas na USP."

No caso do ChatGPT, não é primeira vez que não contam o está lá dentro, disse. “É um dado da realidade humana não sabermos o que consumimos. E o que é declarado num momento pode ser ‘desdeclarado’ depois. Há uma promessa, mas as circunstâncias mudam, fazendo com que os objetivos também mudem."

Seminário sobre o ChatGPT - 21/3/23 - abertura
Mesa de abertura do seminário; a partir da direita, o reitor Carlos Gilberto Carlotti Junior, Guilherme Ary Plonski e Glauco Arbix; na tela, a secretária de Ensino Superior do MEC, Denise Pires de Carvalho
Os órgãos de controle têm lupas para identificar aspectos ligados a conflitos de interesse, mas não a convergência de interesses, afirmou. Pensar em normativas específicas que abranjam toda atividade da Universidade é difícil para todos os casos, o melhor é estabelecer regramentos mais frouxos e estimuladores de mudanças e acompanhá-los e avaliá-los, ponderou.

Para ele, o professor talvez se torne mais um curador e "isso irá requerer um repertório mais rico do que aquele que estávamos acostumados a ter".

O sociólogo Glauco Arbix, professor da Faculdade de Filosofia, Letras e Ciências Humanas e pesquisador do IEA e do C4AI, afirmou que essas tecnologias podem ajudar o desenvolvimento da educação, apesar de ainda apresentarem muitos problemas. “A USP deve estar atenta ao mais avançado e deve qualificar o debate, sem relegar a universidade no passado e recusando as transformações. Por outro lado, a comunidade acadêmica não pode aceitar as coisas passivamente, de forma acrítica. Precisamos encontrar posições equilibradas", disse.

Arbix afirmou que nunca houve consenso para avaliar o uso de tecnologias em educação e que se deve considerar que “não estamos vivendo o fim do mundo”, com as máquinas superando os seres humanos. Ao mesmo tempo, “não podemos ficar deslumbrados com as tecnologias, sem questioná-las.”

Potencial

Para ele, esses modelos de linguagem têm enorme potencial para elevar a eficiência do ensino. “Podem permitir a individualização do acompanhamento de alunos, prepará-los melhor, sobretudo os mais defasados, e tornar mais eficiente a atividade docente na sala de aula. Pode possibilitar uma espécie de educação de precisão”, considerou.

Outra possibilidade vista por Arbix é a oportunidade de melhorar a comunicação sobre ciência com a sociedade: “Somos bons para descobrir coisas novas, mas ruins para apresentá-las à sociedade. Dependemos da sociedade, de verbas públicas, não podemos nos fechar em copas.”

Ele acredita também que sistemas como o ChatGPT podem ajudar muito na pesquisa. Citou que há experiencias nesse sentido para a concepção e formulação de novas drogas.

Arbix informou que um relatório da OpenAI explica que a versão 4 utilizará 1 trilhão de parâmetros e terá chance consideravelmente reduzida de alucinar e produzir informação falsa em relação à versão 3.

Ele comentou que todas as grandes corporações estão trabalhando em seus modelos de transformers, num universo que inclui poucos países, liderados por EUA e China, seguidos depois por Alemanha, Austrália e Canada.

No entanto, poucas universidades estão trabalhando com isso, disse. Em encontros dos quais participou no início do ano, Arbix constatou que universidades como MIT, Harvard, Yale e Carnegie Mellon, por exemplo, "estão de fora desse trabalho, não conseguem acompanhar os poucos centros dedicados a ele".

Para ele, essa tecnologia poderia ser um alento para países como o Brasil, mas há o risco de servir para aprofundar o abismo que separa os países, ampliando a desigualdade entre eles, pessoas e regiões.

Atualização

"A USP pode ser um grande laboratório para o país. Mas temos que questionar as tecnologias, atualizar nosso código de ética e todos os setores que podem sofrer mudanças para melhor."

Arbix comentou que cidades como Nova York, Seattle e outras proibiram o uso do ChatGPT no ensino público. Entretanto, na sua opinião, sistemas como ChatGPT não vão substituir o professor: “O ensino precisará cada vez mais do professor”. Por outro lado, não será possível aceitar um texto assinado por chat e haverá a grande dificuldade de realizar exames orais em cursos com dezenas ou centenas de estudantes, disse.

Para Arbix, comparar com processos anteriores não vai dar certo: "O ChatGPT é uma inflexão na trajetória da IA e nada justifica que façamos os erros cometidos no passado. Temos uma situação nova, não se trata de uma ferramenta simples e não vamos resolver os problemas com a enxurrada de coisas que virão se continuarmos a fazer referências a coisas do passado. A Reitoria vai ter de dizer o que pode e o que não pode, e fazer revisões sistemáticas. Deve ter um portal, com tutoriais para o uso dessas novas tecnologias".

Para a secretária de Ensino Superior do MEC, Denise Pires de Carvalho, “é preciso que nos transformemos para atender à demanda da sociedade. “Melhorar a qualidade de vida é um desafio enorme, principalmente na área da educação”, afirmou.

Para ela, é preciso discutir como enfrentar sem preconceito o ChatGPT e outros aspectos, como o binômio ensino-aprendizagem, o ensino híbrido e o currículo de formação dos professores. Disse estar preocupada com ferramentas que tornam o ser humano cada vez mais individualista e com a questão do plágio em sistemas como o ChatGPT.

Fake news

O titular da Cátedra Alfredo Bosi de Educação Básica, Naomar de Almeida Filho, ex-reitor da UFBA, manifestou sua preocupação de que esses modelos de linguagem se tornem máquina de fake news extremamente críveis. Ele vê no uso do chat uma possiblidade de sinergia, potencializando elementos complementares na relação ser humano-máquina. Quanto ao plágio, considera que a universidade brasileira é desaparelhada para lidar com ele e talvez o com o ChatGPT seja mais fácil reconhecê-lo.

Para Almeida Filho, “a exposição de Cozman indicou que essa ‘caixa opaca’ que é o ChatGPT faz coisas que quem programou não tem controle. E aí está um desafio para o sistema educacional e de pesquisas: criar métodos para investigar o imponderável”.

O pró-reitor de Graduação, Aluisio Augusto Cotrim Segurado, disse que o ChatGPT pode ser um estímulo à flexibilização, possibilitando soluções mais criativas para problemas concretos. “Em vez de um TCC [trabalho de conclusão de curso] teórico, pode ser proposta a resolução de um problema e essa ferramenta poderia ajudar os estudantes, sem eximi-los de apresentar uma proposta criativa", comentou

O titular da Cátedra Oscar Sala, Virgílio Almeida, da UFMG, disse que uma das propostas em discussão em universidades americanas é exigir que os trabalhos dos alunos sejam acompanhados de um pequeno dossiê, onde eles expliquem as razões de uso do ChatGPT, em que partes foi utilizado e qual o impacto desse uso no trabalho.

Colaboração humanos-maquinas

Para Almeida, há visões diferentes sobre o uso dos modelos de linguagem, mas há convergência de ideias. Considerou que a questão é multidisciplinar, envolvendo áreas da filosofia, direito, ciências naturais, computação, entre outras. "É uma oportunidade para capacitar os estudantes para o convívio humanos-máquinas de forma colaborativa. As consultorias já estão contratando alunos com conhecimento de ChatGPT.”

Almeida destacou vários riscos associados ao ChatGPT: éticos diante do problema da veracidade das informações fornecidas pelo chat; eliminação de empregos, como o de atendentes de call centers; problema de plágio e autoria, enfraquecendo a credibilidade de instituições tradicionalmente vinculadas à produção de conteúdos; impacto no regime democrático, diante da possibilidade de produção em grande quantidade de conteúdos convincentes, reduzindo a possibilidade de outras opiniões serem ouvidas.

Ele destacou também o fato de os modelos de linguagem não terem um entendimento ético do mundo, senso de verdade e confiabilidade: “Os formuladores de políticas não devem se esforçar em manter a tecnologia constante. O que deve ser constante é o compromisso com direitos fundamentais”.

A economista Dora Kaufman, da PUC-SP e do C4AI, além de colunista de IA da revista Época Negócios, apresentou propostas para o enfrentamento da complexidade e da velocidade da IA. “A USP precisa assumir um papel de protagonista nesse processo. Isso deveria começar por uma revisão dos comitês de ética, inclusive na sua composição, que deve ser diversificada. Isso serviria de referência para outras universidades e para a sociedade”, disse.

Marco legal

Seminário sobre o ChatGPT - 21/3/23 - tarde
À tarde, ocorreu a mesa O ChatGPT, Educação e a Sala de Aula, com (a partir da esq.) Eugênio Bucci (coordenador), Dora Kaufman, Naomar de Almeida Filho, Virgílio Almeida, Valdir Barzotto, Luciano Digiampietri e Karla Lima
Outra sugestão de Kaufman é que a USP se engaje no debate sobre o Projeto de Lei 21/20, que define o marco legal da AI, já aprovado na Câmara dos Deputados e com perspectiva de ser avaliado este ano pelo Senado Federal. “A discussão e o lobby estão sendo feitos por associações de empresas de tecnologias e outras, como a Febraban. É preciso que a USP procure as instâncias governamentais e legislativas para discutir a questão.”

Ela disse que a Universidade Stanford, dos EUA, fez algo muito interessante diante da assimetria do conhecimento entre legisladores e especialistas da tecnologia: organizou um workshop para os assessores dos congressistas estadunidenses. “A USP poderia fazer algo parecido, para familiarizar os assessores dos parlamentares com o tema”, acrescentou.

Ela propôs também que a Revista USP prepare um dossiê sobre o tema. “Existe uma expectativa da sociedade que a USP participe do debate, dando mais legitimidade a ele", afirmou.

O professor Valdir Barzotto, da Faculdade de Educação da USP, disse representar os não fascinados nem temerosos com o ChatGPT. “Vamos sofrer para sermos treinados, mas não é para ter medo.”

Ensino de português

Ele vê o risco de consolidação do que já é hegemônico no trato com a língua – com o reconhecimento do escrito e sua reprodução sem questionamento - como um dos impactos do ChatGPT no ensino e na aprendizagem do português, “perpetuando-se uma trava no conhecimento”. Como lidar com isso? Não tratar o ChatGPT como se fosse uma pessoa, respondeu. "Outra recomendação é discutir o fato que o número de textos produzidos não se confunde com conhecimento."

Ele propôs que nos critérios de avaliação a busca de indícios de que o autor quer avançar o conhecimento. Além disso, "é preciso enfrentar questões éticas do uso de textos em gera, seja ele feito por quem for".

Para Luciano Digiampietri, assessor da Pró-Reitoria de Pós-Graduação e professor da Escola de Artes, Ciências e Humanidades (Each-USP), o primeiro cuidado nas pós-graduação é sempre relembrar aos alunos o cuidado que devem ter com a informação que aplicam em seus trabalhos, indicando o que ela contribuiu com ele. Ressaltou a importância de cuidados quanto autoria e responsabilidade sobre o que é informado.

Um aspecto importante, segundo ele, é a questão das referências bibliográficas, algo problemático no  ChatGPT, pois ele “alucina, inventa livros, autores. Se não se consegue referência para uma informação, então não é uma ferramenta para o trabalho”.

Perguntas certas

Um aspecto positivo é a possiblidade de obter informações sobre o que as pessoas estão fazendo em relação a vários temas, disse. “Algumas questões podem ser levantadas e úteis para identificar ferramentas para seu aprofundamento.” A questão é fazer as perguntas certas: “Como num oráculo da Antiguidade, fazer a pergunta errada pode ter consequências trágicas no futuro”.

A professora Karla Lima, assessora da Pró-Reitoria de Graduação e professora da Each-USP, considera que os alunos devem ser orientados sobre o risco de perda de identidade, dependendo da forma que utilizarem o ChatGPT, e quanto isso pode ser prejudicial em termos éticos.

“Estamos formando alunos que não sabem pensar, acostumados e pegar tudo pronto. Precisamos fazê-los pensar, mas o ChatGPT vem na contramão disso. Eles devem acrescentar melhorias e serem críticos ao que o chat apresenta”, afirmou.

Código de honra

O jornalista e professor Eugênio Bucci, superintendente de Comunicação Social da USP e coordenador acadêmico da cátedra Oscar Sala, comentou que as universidades brasileiras não possuem código de honra, usual em universidades dos EUA. “Como um código de ética pode funcionar sem um pacto de honra?”, indagou.

Em relação a isso, Naomar de Almeida Filho lembrou que as universidades brasileiras não possuem cartas de fundação. “A lei que cria uma universidade já estabelece seu estatuto. Nos Estados Unidos, Canadá e Reino Unidos, a carta de fundação é uma carta de princípios, da qual deriva um código de honra”. Disse também que as universidades brasileiras não são aparelhadas para lidar com a questão do plágio, pois “não veem isso como um problema”.

No encerramento do encontro, a especialista em filosofia do direito Cristina Godoy, professora da Faculdade de Direito de Ribeirão Preto (FDRP) da USP, disse que ao falar em regulação, tem-se dois modelos: o reativo, com o estabelecimentos de sanções a condutas vetadas, e o cautelar, para prevenir que determinadas condutas ocorram. “Ambos têm falácias. O reativo dá a sensação de que não é preciso regular, pois já há normas e o ChatGPT é apenas uma nova tecnologia. O cautelar indica que não existe nada para regular o chat e é preciso agir rápido, mas as normas acabam não solucionando o problema.”

Normas éticas

Para ela, as diretrizes prenunciadas no seminário caminham no sentido de normas éticas: “Estamos buscando princípios de natureza ética que vão inspirar normas jurídicas para a USP. Precisamos entender como a comunidade acadêmica vai atuar em relação a isso. Depois, num segundo momento, vamos passar ao modelo reativo. No momento, vamos ver o que deve ser atualizado, o que queremos e o que não queremos”.

Para Demi Getschko, diretor-presidente do NIC.br, os programadores de computação não estão preocupados em mudar o viés de um software: “O que a gente quer é viés. Código de ética é um viés. Código de honra é um viés. Quem não tem viés é uma formiga, apenas corta folhas".

A seu ver, é preciso discutir em profundidade o que é IA. “Um algoritmo fixo, ainda que com 1 trilhão de parâmetros, é um algoritmo fixo. Mas se aprende, não é fixo.”

"Quando o ChatGPT é corrigido, ele aprende a correção. Corrige e pede desculpas. No entanto, apresenta muitas falhas lógicas. Se digo a ele que entrei numa sala onde havia 100 assassinos e matei um deles e pergunto quanto assassinos restaram na sala, ele responde 99", exemplificou.