<?xml version="1.0" encoding="utf-8" ?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:syn="http://purl.org/rss/1.0/modules/syndication/" xmlns="http://purl.org/rss/1.0/">




    



<channel rdf:about="https://www.iea.usp.br/search_rss">
  <title>Instituto de Estudos Avançados da Universidade de São Paulo</title>
  <link>https://www.iea.usp.br</link>

  <description>
    
            These are the search results for the query, showing results 1 to 8.
        
  </description>

  

  

  <image rdf:resource="https://www.iea.usp.br/logo.png" />

  <items>
    <rdf:Seq>
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/expectativas-em-disputa-big-data-etica-e-futuro-no-policiamento-e-na-investigacao-criminal" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/conferencia-on-line-discute-uso-de-tecnologias-envolvendo-big-data-pelas-forcas-policiais" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/os-dasafios-para-a-protecao-de-dados-e-criacao-de-mecanismos-que-facilitem-o-fluxo-internacinal-de-dados" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/google" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/novo-coordenador-academico-oscar-sala" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/para-especialista-algoritmos-opacos-decidem-sobre-a-vida-das-pessoas" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/tecnologias-da-desinformacao-acendem-debate-a-respeito-dos-impactos-das-inteligencias-artificiais-na-sociedade" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/biodiversidade-sem-fronteiras" />
      
    </rdf:Seq>
  </items>

</channel>


  <item rdf:about="https://www.iea.usp.br/eventos/expectativas-em-disputa-big-data-etica-e-futuro-no-policiamento-e-na-investigacao-criminal">
    <title>Expectativas em disputa: Big Data, ética e futuro no policiamento e na investigação criminal</title>
    <link>https://www.iea.usp.br/eventos/expectativas-em-disputa-big-data-etica-e-futuro-no-policiamento-e-na-investigacao-criminal</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p>O Grupo de Pesquisa em Criminologia Experimental e Segurança Pública do Instituto de Estudos Avançados Polo Ribeirão Preto da USP, em parceria com a Associação Internacional de Criminologia em Língua Portuguesa, realiza no dia 15 de julho, a partir das 14h (horário de Brasília), a conferência on-line “Expectativas em disputa: Big Data, ética e futuro no policiamento e na investigação criminal”. O evento integra o ciclo de conferências promovido pelas duas instituições desde 2022.</p>
<p>As inscrições são gratuitas e devem ser feitas <a href="https://forms.gle/AZN3aGTpwtbPWQtK8">neste link</a>. A transmissão será pelo <a href="https://www.youtube.com/watch?v=hp36PbG9Hoo">canal do IEA-RP no YouTube</a> e pela <a href="https://www.facebook.com/events/2100075957147026">página do Polo no Facebook</a>. Haverá envio de certificado aos participantes que preencherem um formulário disponibilizado no chat das ferramentas durante a transmissão.</p>
<p>A palestrante será a professora auxiliar convidada no Departamento de Sociologia do Instituto de Ciências Sociais da Universidade do Minho Laura Neiva. Ela vai discutir, a partir de uma investigação sociológica desenvolvida em Portugal com membros da Polícia Judiciária e da Polícia de Segurança Pública, as expectativas que moldam o modo como tecnologias envolvendo o Big Data são usadas, pensadas, desejadas, temidas e até, às vezes, alvo de resistência pelas forças policiais.</p>
<p>O evento pretende ainda desmontar os sentidos da ética, as tensões entre controle e proteção, os riscos de legitimar desigualdades sob o véu da neutralidade tecnológica e, por fim, convidar os participantes à escuta crítica e à imaginação sociológica, para pensar a justiça criminal neste tempo de dados, velocidade e incertezas.</p>
<p>Laura Neiva é professora auxiliar convidada no Departamento de Sociologia do Instituto de Ciências Sociais da Universidade do Minho (UM). É também investigadora colaboradora no Centro de Estudos Jurídicos, Económicos, Internacionais e Ambientais (Cejeia) da Universidade Lusíada e investigadora no Centro de Estudos de Comunicação e Sociedade (CECS) da UM. Seu trabalho é focado nas relações entre tecnologia, policiamento, justiça criminal e sociedade, com especial atenção aos dilemas éticos e às expectativas sociais que moldam a implementação de tecnologias emergentes. É autora de diversas publicações sobre Big Data, policiamento e vigilância em revistas nacionais e internacionais.</p>
<p>Mais informações sobre o evento: <a href="mailto:iearp@usp.br">iearp@usp.br</a>.</p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Criminologia</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Tecnologia</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    <dc:date>2025-06-25T16:07:54Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/conferencia-on-line-discute-uso-de-tecnologias-envolvendo-big-data-pelas-forcas-policiais">
    <title>Conferência on-line discute uso de tecnologias envolvendo Big Data pelas forças policiais</title>
    <link>https://www.iea.usp.br/noticias/conferencia-on-line-discute-uso-de-tecnologias-envolvendo-big-data-pelas-forcas-policiais</link>
    <description>Evento, promovido pelo Grupo de Pesquisa em Criminologia Experimental do IEA-RP e pela AICLP, discute o tema a partir de pesquisas realizadas em Portugal</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-2cb84de4-7fff-5676-ec79-1c235e5cf0bd"> </span></p>
<p dir="ltr"><span><img src="https://www.iea.usp.br/polos/ribeirao-preto/noticias/expectativasemdisputa.png/@@images/34bb88c1-0577-4a33-8114-32fa2e9a43a3.png" alt="" class="image-left" title="" />O Grupo de Pesquisa em Criminologia Experimental e Segurança Pública do Instituto de Estudos Avançados Polo Ribeirão Preto da USP, em parceria com a Associação Internacional de Criminologia em Língua Portuguesa, realiza no dia 15 de julho, a partir das 14h (horário de Brasília), a conferência on-line “Expectativas em disputa: Big Data, ética e futuro no policiamento e na investigação criminal”. O evento integra o ciclo de conferências promovido pelas duas instituições desde 2022.</span></p>
<p dir="ltr"><span>As inscrições são gratuitas e devem ser feitas </span><a href="https://forms.gle/AZN3aGTpwtbPWQtK8"><span>neste link</span></a><span>. A transmissão será pelo </span><a href="https://www.youtube.com/watch?v=hp36PbG9Hoo"><span>canal do IEA-RP no YouTube</span></a><span> e pela </span><a href="https://www.facebook.com/events/2100075957147026"><span>página do Polo no Facebook</span></a><span>. Haverá envio de certificado aos participantes que preencherem um formulário disponibilizado no chat das ferramentas durante a transmissão.</span></p>
<p dir="ltr"><span>A palestrante será a professora auxiliar convidada no Departamento de Sociologia do Instituto de Ciências Sociais da Universidade do Minho Laura Neiva. Ela vai discutir, a partir de uma investigação sociológica desenvolvida em Portugal com membros da Polícia Judiciária e da Polícia de Segurança Pública, as expectativas que moldam o modo como tecnologias envolvendo o Big Data são usadas, pensadas, desejadas, temidas e até, às vezes, alvo de resistência pelas forças policiais.</span></p>
<p dir="ltr"><span>O evento pretende ainda desmontar os sentidos da ética, as tensões entre controle e proteção, os riscos de legitimar desigualdades sob o véu da neutralidade tecnológica e, por fim, convidar os participantes à escuta crítica e à imaginação sociológica, para pensar a justiça criminal neste tempo de dados, velocidade e incertezas.</span></p>
<p dir="ltr"><span>Laura Neiva é professora auxiliar convidada no Departamento de Sociologia do Instituto de Ciências Sociais da Universidade do Minho (UM). É também investigadora colaboradora no Centro de Estudos Jurídicos, Económicos, Internacionais e Ambientais (Cejeia) da Universidade Lusíada e investigadora no Centro de Estudos de Comunicação e Sociedade (CECS) da UM. Seu trabalho é focado nas relações entre tecnologia, policiamento, justiça criminal e sociedade, com especial atenção aos dilemas éticos e às expectativas sociais que moldam a implementação de tecnologias emergentes. É autora de diversas publicações sobre Big Data, policiamento e vigilância em revistas nacionais e internacionais.</span></p>
<p dir="ltr"><span>Mais informações sobre o evento: </span><a href="mailto:iearp@usp.br"><span>iearp@usp.br</span></a><span>.</span></p>
<p dir="ltr"><span><b>Sobre o grupo</b></span></p>
<p><span>O Grupo de Pesquisa Criminologia Experimental e Segurança Pública propõe dedicar-se ao estudo de experimentos, métodos e intervenções que permitam extrair evidências científicas sobre o que funciona (what works) nas estratégias de segurança pública. Com base nas evidências científicas obtidas pelo método experimental, pretende-se desenvolver novas abordagens teóricas e recomendações de ação estratégica no campo da segurança pública. Saiba mais sobre o grupo e suas atividades </span><a href="https://rp.iea.usp.br/pesquisa/grupos-de-pesquisa/criminologia-experimental-e-seguranca-publica/"><span>neste link</span></a><span>.</span></p>
<p> </p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Criminologia</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Tecnologia</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    <dc:date>2025-06-25T15:46:16Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/os-dasafios-para-a-protecao-de-dados-e-criacao-de-mecanismos-que-facilitem-o-fluxo-internacinal-de-dados">
    <title>Diretora da ANPD discute fluxo internacional de dados e papel do órgão na regulação da IA</title>
    <link>https://www.iea.usp.br/noticias/os-dasafios-para-a-protecao-de-dados-e-criacao-de-mecanismos-que-facilitem-o-fluxo-internacinal-de-dados</link>
    <description>Diretora da Autoridade Nacional de Proteção de Dados (ANPD), Miriam Wimmer, fez exposições em agosto sobre fluxo internacional de dados e papel da ANPD na regulação da inteligência artificial.</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p style="text-align: left; "><dl class="image-right captioned" style="width:400px;">
<dt><img src="https://www.iea.usp.br/imagens/miriam-wimmer/image" alt="Miriam Wimmer" title="Miriam Wimmer" height="438" width="400" /></dt>
 <dd class="image-caption" style="width:400px;">Miriam Wimmer, diretora da Autoridade Nacional de Proteção de Dados (ANPD)</dd>
</dl></p>
<p style="text-align: left; ">Apesar de já há algum tempo ter enorme peso econômico e importância para o desenvolvimento de diversos setores, o fluxo internacional de dados digitais encontra várias barreiras no embate entre as várias legislações nacionais a ele aplicáveis.</p>
<p style="text-align: left; ">Evidentemente, a coleta, o processamento e uso de dados no âmbito nacional ou internacional exigem salvaguardas para a garantia de aspectos como a privacidade e a concorrência econômica. Daí a importância de arcabouços legais como a <a class="external-link" href="https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm">Lei Geral de Proteção de Dados</a> <a class="external-link" href="https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm">(LGPD) (13.709/2018)</a> para o contexto brasileiro.</p>
<p style="text-align: left; ">Como tudo relacionado à evolução tecnológica, o sistema digital caracteriza-se como um verdadeiro ecossistema em permanente transformação, marcado atualmente pela intensa participação da inteligência artificial (IA) e sua demanda por dados pessoais.</p>
<p style="text-align: left; ">Todos esses temas estiveram presentes na programação do IEA em agosto por ocasião de dois eventos com a participação da diretora da <a class="external-link" href="https://www.gov.br/anpd/pt-br">Autoridade Nacional de Proteção de Dados (ANPD)</a>, <a href="https://www.iea.usp.br/pessoas/pasta-pessoam/miriam-wimmer" class="external-link">Miriam Wimmer</a>. No dia 1º de agosto, ela foi a expositora principal da mesa <i>Fluxo Internacional de Dados: Aspectos Regulatórios</i>, integrante da programação da edição 2023 da <a class="external-link" href="https://caeni.com.br/innscidsp/">Escola São Paulo de Ciência Avançada de Diplomacia Científica e da Inovação</a> (InnScid SP, na sigla em inglês), realizada de 24 de julho a 4 de agosto, no Centro de Inovação (Inova) da USP.</p>
<p style="text-align: left; ">O segundo encontro em que Wimmer foi expositora foi <i><a href="https://www.iea.usp.br/eventos/papel-da-anpd" class="external-link">Regulação da IA: Qual Deve ser o Papel da ANPD?</a></i>, no dia 22 de agosto, seminário do ciclo<i> Desafios e Oportunidades da IA - Perspectivas Setoriais</i>, organizado pelo Observatório da Inovação e Competitividade, núcleo de apoio à pesquisa (NAP) sediado no IEA.</p>
<table class="tabela-direita-400-borda">
<tbody>
<tr>
<td>
<h3><i>O papel da ANPD na regulação da inteligência artificial</i></h3>
<p><i>Do ponto de vista prático da coleta, processamento e utilização de dados, pessoais ou de outra natureza, deve-se considerar também a relação desses processos com o desenvolvimento e usos da inteligência artificial (IA).</i></p>
<p><i>Mas um possível conflito legal precisa ser sanado nesse caso, uma vez que o Projeto de Lei 2.338/23, que trata do uso da IA, não esclarece como serão compatibilizadas as missões da ANPD e da autorizada a ser criada para ser responsável por diferentes aspectos do desenvolvimento e utilização de sistemas de IA, como a fiscalização e a aplicação de sanções em caso de descumprimento da legislação.</i></p>
<p><i>Para tentar esclarecer essa questão, Miriam Wimmer foi convidada a fazer uma exposição no seminário Regulação da IA: Qual Deve ser o Papel da ANPD?, no dia 22 de agosto, organizado pelo Observatório da Inovação e Competitividade (OIC), núcleo de apoio à pesquisa da USP sediado no IEA.</i></p>
<p><i>A realização do encontro teve o apoio do Centro de Inteligência Artificial (C4AI) da USP, Associação Brasileira das Empresas de Software (Abes), Confederação Nacional das Indústrias (CNI) e Núcleo de Informação e Coordenação do Ponto BR (NIC.br). O encontro fez parte do ciclo Desafios e Oportunidade da IA – Perspectivas Setoriais, realização do OIC. Além de Wimmer, participou como expositor o advogado Eduardo Paranhos, da Abes.</i></p>
<p><i>Como ressaltaram os organizadores do seminário, dados pessoais são essenciais ao desenvolvimento e ao funcionamento de sistemas de IA. “Por essa razão, toda e qualquer discussão sobre a regulação dessa tecnologia deve levar em conta a importância de protegê-los e o desenho institucional mais adequado para fazê-lo”, frisaram os pesquisadores.</i></p>
<p><i><strong>Convergência e conflito</strong></i></p>
<p><i>Vale destacar que a ANPD divulgou em julho uma <a href="https://www.gov.br/anpd/pt-br/assuntos/noticias/analise-preliminar-do-pl-2338_2023-formatado-ascom.pdf" target="_blank">Análise Preliminar do PL 2.338/23</a>.  De acordo com o site da autoridade, o documento apresenta os pontos de convergência e conflito entre o PL e LGPD, reforça o “posicionamento da autoridade de fomento à inovação em IA” prevista no PL, “desde que feita de forma responsável”, e conclui que a ANPD, por ser a autoridade responsável por zelar pela proteção de dados pessoais no país, “assume também protagonismo na regulação de IA, no que se refere à proteção de dados pessoais”.</i></p>
<p><i>Para Wimmer, o ponto de central e de grande complexidade é a questão do arranjo institucional, que não se limita ao Brasil, “pois vivemos um momento coletivo de reflexão sobre uma nova tecnologia”.</i></p>
<p><i>Diante dos múltiplos impactos de tecnologias como o ChatGPT sobre a economia, a política e a sociedade em geral, afetando aspectos dos direitos fundamentais, direitos autorais, concorrência, a produção e circulação da informação, entre outros, a primeira pergunta que surge, segundo Wimmer, é “se há necessidade de novas normas legais”.</i></p>
<p><i>Para ela, “a percepção crescente é que a IA traz impactos tão gigantescos que merece um olhar específico, diante dos desafios que suas características intrínsecas apresentam à legislação existente”.</i></p>
<p><i>Wimmer destacou “as opacidades, vieses e risco de discriminação” presentes nos sistemas de IA, além de questões éticas, como o risco de substituição do ser humano no ambiente artístico-cultural, no judiciário e no poder público, e impactos concorrenciais e geopolíticos.</i></p>
<p><i><strong>Responsabilidade civil</strong></i></p>
<p><i>Ela afirmou que um dos temas mais polêmicos é o da responsabilidade civil, pois a IA coloca em xeque aspectos como nexo de casualidade, na comprovação da relação entre ação e danos experimentados.</i></p>
<p><i>Para ela, a discussão a ser feita é sobre o tipo de abordagem regulatória. Disse que a sociedade vem caminhando no sentido de buscar normas mais vinculantes. Inicialmente surgiram normas e diretrizes da OCDE, Unesco e outras organizações, com um consenso em torno de princípios gerais como aplicabilidade, explicabilidade, transparência, “IA para o bem”, “IA centrada no humano”, disse, mas “aos poucos vemos tendências de como explicar melhor esses princípios”.</i></p>
<p><i>Outra discussão é sobre o nível de protagonismo que o Estado deve ter diante do patamar de atuação proativa apresentado pelo setor privado, afirmou. As alternativas são autorregulação, corregulação e autorregulação regulada, afirmou.</i></p>
<p><i>“Estamos tratando de algo em movimento. O dilema sobre como regular e que tipo de arranjo adotar não foi resolvido em nenhum lugar do mundo.”</i></p>
<p><i><strong>Criação de órgão regulador</strong></i></p>
<p><i>A tendência é que a cada novo problema sejam criados uma lei e um regulador, mas não é fácil criar um regulador, comentou. “Ao longo dos cerca de dois anos e meio de existência da ANPD, vi como é difícil estruturar um órgão quando não há uma estrutura prévia.”</i></p>
<p><i>“Quando olho para as propostas [de regulação da IA] no Congresso, especialmente o substitutivo apresentado pela comissão de juristas no Senado e protocolado pelo senador Rodrigo Pacheco, vejo que há sobreposição a estruturas que já temos.”</i></p>
<p><i>Ela relembrou que a avaliação preliminar feita pela ANPD indica os pontos de contato entre a propostas de regulação da IA e a LGPD no que tange a princípios, direitos e mecanismos regulatórios.</i></p>
<p><i>Explicou que a LGPD foi uma norma negociada e sempre levando em consideração coisas vistas como antagônicas: de um lado a proteção ligada a direitos fundamentais, privacidade, liberdade de expressão, proteção a dados pessoais; de outro lado, a promoção da pesquisa científica, desenvolvimento tecnológico, inovação, concorrência, modelos de negócios.</i></p>
<p><i>“E no PL sobre IA vemos conceitos como respeito à ética, aos direitos humanos, não discriminação, diversidade, garantias fundamentais, segurança, proteção de dados, transparência, explicabilidade, devido processo legal.”</i></p>
<p><i>Segundo ela, as normas trazem o embrião de abertura para mecanismos regulatórios, boas práticas, códigos de conduta e regulação assimétrica baseada em riscos.</i></p>
<p><i>Há explicações sobre características constitucionais do ente da administração indireta a ser criado, autônomo e infenso a pressões econômicas e políticas, afirmou.</i></p>
<p><i><strong>Substrato comum</strong></i></p>
<p><i>“Há um substrato comum à LGPD e ao PL, mas não estou dizendo que a LGPD seja uma solução para tudo. Existem outras questões relativas à IA que não se referem a dados pessoais, como a criação de obras artísticas.”</i></p>
<p><i>Wimmer indicou que a responsabilidade empresarial está presente na LGPD e no PL. “Nele, há a ideia de programas de governança e avaliação do impacto algorítmico; na lei, há a previsão de relatório de impacto da proteção de dados.”</i></p>
<p><i>Há também a ideia do “by design”, no sentido de que a própria tecnologia possui um papel regulador: “Na LGPD, vemos a ideia de ‘security by design’, que se reflete no PL no sentido de que as preocupações com a mitigação de riscos têm de estar embutidas desde a concepção do modelo de negócios”.</i></p>
<p><i>“Os dois textos legais procuram calibrar a intensidade regulatória em função do risco”, afirmou Wimmer.</i></p>
<p><i><strong>Incentivo à inovação</strong></i></p>
<p><i>Ela também comentou a questão do incentivo à inovação responsável: “A ANPD e outras autoridades pelo mundo estão iniciando um projeto de sandbox [ambiente regulatório experimental] para IA”. Anunciou convênio de cooperação técnica com o <a href="https://www.caf.com/pt/" target="_blank">Banco de Desenvolvimento para a América Latina e o Caribe (CAF)</a> e o lançamento em breve de uma consulta pública.</i></p>
<p><i>O último ponto abordado por Wimmer foi o das sanções administrativas. Ela disse que "as sanções presentes na LGPD e as previstas no PL são muito parecidas; e não é por acaso, pois muitos dos problemas relativos a IA que surgirem serão também um problema relacionado à proteção de dados pessoais".</i></p>
<p><i>Para ela, é importante que haja uma forma de centralizar a interpretação da legislação para evitar que cada Procon estadual, por exemplo, interprete à sua maneira o que é explicabilidade ou quando cabe uma revisão automatizada.</i></p>
<p><i>Ela acredita que o debate irá amadurecer à medida que transcorra a tramitação do PL no Congresso Nacional. “O Brasil já tem uma tradição na discussão de normas sobre o ambiente digital, como foram os casos do Marco Legal da Internet e a Lei Geral de Proteção de Dados, sempre com debates plurais, diversidade e coerência.”</i></p>
</td>
</tr>
</tbody>
</table>
<p style="text-align: left; ">Doutora em políticas de comunicação e cultura pela Universidade de Brasília e mestre em direito público pela Universidade do Estado do Rio de Janeiro (Uerj), Wimmer dirige a ANDP desde a criação do órgão há dois anos e meio. Ela integra o quadro técnico do governo federal desde 2007, tendo trabalhado no antigo Ministério das Comunicações e no Ministério de Ciência, Tecnologia, Inovação e Comunicações, onde coordenou a elaboração da <a class="external-link" href="https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/estrategia-digital">Estratégia Brasileira para a Transformação Digital</a>.</p>
<p style="text-align: left; ">Em sua participação na InnSciD SP, Wimmer destacou que o fluxo internacional de dados levanta questões complexas sobre jurisdição legal e soberania. Além disso, “os sistemas legais nacionais competem entre si, o que cria dificuldades para os negócios e os indivíduos e até mesmo para a pesquisa acadêmica”.</p>
<p style="text-align: left; "><strong>Nova fase da globalização</strong></p>
<p style="text-align: left; ">Ela apresentou gráfico de <a href="https://cepr.org/voxeu/columns/ascendancy-international-data-flows">relatório</a> publicado por dois pesquisadores do  Centro de Pesquisa de Economia Política (CEPR, na sigla em inglês) com a indicação de um crescimento de 45 vezes no fluxo de dados internacionais entre 2005 e 2016, com a estimativa de um valor anual de US$ 2,8 trilhões em 2016 e a perspectiva que chegue a US$ 11 trilhões em 2025. “Esse relatório indica que estamos entrando em uma nova fase da globalização, marcada pelo comércio, finanças e fluxo internacional de dados”, afirmou.</p>
<p style="text-align: left; ">Outro documento comentado por Wimmer foi um white paper lançado em agosto de 2022 pela  Câmara Internacional de Comércio (ICC, na sigla em inglês) sobre <a href="https://iccwbo.org/news-publications/policies-reports/icc-white-paper-on-trusted-government-access-to-personal-data-held-by-the-private-sector/">Acesso Confiável de Governos a Dados Pessoais Mantidos pelo Setor Privado</a>. Ela ressaltou que o documento trata de questões sensíveis que impactam o fluxo internacional de dados. O white paper menciona que ao mesmo tempo que esse fluxo é crucial para uma economia interconectada, as tentativas de governos nacionais de acessar dados mantidos por empresas privadas reduzem a confiança nesse fluxo internacional de dados, disse.</p>
<p style="text-align: left; ">Por outro lado, muitos países estão perdendo acesso a  dados transferidos internacionalmente, e vemos um grande  número de países adotando políticas, por exemplo, exigindo que os dados estejam localizados em seu território ou criando restrições legais ou econômicas em relação a transferências internacionais de dados.</p>
<p style="text-align: left; "><dl class="image-left captioned" style="width:400px;">
<dt><img src="https://www.iea.usp.br/imagens/fluxo-internacional-de-dados/image" alt="Fluxo internacional de dados" title="Fluxo internacional de dados" height="189" width="400" /></dt>
 <dd class="image-caption" style="width:400px;">Crescimento em terabytes por segundo da banda de transmissão de dados internacionais (fonte: Telegeography; McKinsey Global Institute analysis, 2019)</dd>
</dl>Wimmer afirmou que há muitas justificativas para essa postura dos países. “Um dos principais argumentos é de que a transferência de dados fica suscetível ao acesso por serviços de inteligência estrangeiros e governos autoritários, por isso a necessidade de algum tipo de restrição protetiva.</p>
<p style="text-align: left; ">Em muitos países, discute-se um armazenamento compulsório dos dados no próprio território e até mesmo regras para acesso de governos à armazenagem em outros países, afirmou. “Isso cria uma quantidade significativa de consequências sociais, políticas e econômicas, porque quando os dados não podem fluir entre países seu valor é de alguma forma capturado ou retido dentro território nacional. Ficamos impossibilitados de obter o uso adequado dos dados”, disse.</p>
<p style="text-align: left; "><strong>Barreiras ao fluxo de dados</strong></p>
<p style="text-align: left; ">Outro documento comentado por Wimmer se chama “<a href="https://www.oecd-ilibrary.org/deliver/6345995e-en.pdf?itemId=%2Fcontent%2Fpaper%2F6345995e-en&amp;mimeType=pdf">Medindo o Valor Econômico de Dados e o Fluxo de Dados entre Países – Uma Pesquisa Comercial</a>”, produzido por um grupo de trabalho sobre privacidade e segurança da <a class="external-link" href="https://www.oecd.org/">Organização para a Cooperação e Desenvolvimento Econômico (OCDE)</a>.</p>
<p style="text-align: left; ">O documento apresenta um sumário dos tipos de barreiras ao fluxo internacional de dados:</p>
<ul style="text-align: left; ">
<li>muitos países exigem o armazenamento e processamento de dados em servidores locais;</li>
<li>há países com regulamentação para a proteção de dados que regulam a coleta, utilização e transferência de dados pessoais (o exemplo mais abrangente é a <a class="external-link" href="https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=CELEX%3A02016R0679-20160504&amp;qid=1532348683434">Regulação Geral sobre a Proteção de Dados</a> [<em>GDPR na sigla em inglês] da União Europeia</em> e a LGPD brasileira);</li>
<li>há países com leis sobre competição e antitruste adaptadas ao mercado digital (exemplo: votação no Parlamento Europeu de lei para a divisão das operações do Google na União Europeia);</li>
<li>mecanismos de cibersegurança: conjunto de tecnologias, processos e controles projetados para proteger sistemas, redes e dados de exploração não autorizada (um exemplo disso é o trabalho da União Europeia para a introdução de um processo de certificação para a internet das coisas [IoT, na sigla em inglês] para aumentar a cibersegurança dos dispositivos);</li>
<li>direito de propriedade intelectual (por exemplo, sobre conteúdos digitais como músicas, filmes e livros);</li>
<li>restrições ao uso da internet, censura e bloqueios contra a transferência de dados (“Experimentamos isso no Brasil algumas vezes em 2017 e, mais recentemente, em relação ao WhatsApp e ao Telegram, com a aplicação da lei local e enormes impactos”, exemplificou Wimmer).</li>
</ul>
<p style="text-align: left; "><dl class="image-right captioned" style="width:350px;">
<dt><img src="https://www.iea.usp.br/imagens/mapa-de-cabos-submarinos/image" alt="Mapa de cabos submarinos" title="Mapa de cabos submarinos" height="182" width="350" /></dt>
 <dd class="image-caption" style="width:350px;">Rede de cabos submarinos para transmissão de dados</dd>
</dl></p>
<p style="text-align: left; ">Ela comentou que a sociedade está acostumada a um conceito de soberania e jurisdição fortemente ligado ao aspecto físico, ao território, mas quando discute a internet, tende a retratá-la com uma nuvem, algo abstrato e distribuído, onde as fronteiras são irrelevantes. “No entanto, quando se examina a forma como a internet é estruturada, vemos que não há nuvem, apenas o computador de alguém”, comentou. “É uma rede física, com cabos submarinos conectando países, diferentes regimes legais, redes baseadas em protocolos de organizações governamentais e não governamentais.”</p>
<p style="text-align: left; ">Essa fisicalidade conectada leva à tentativa de identificar a qual legislação nacional uma questão se sujeita, mas isso depende de vários fatores, “o que cria um grande problema não só na aplicação da lei como também em relação aos direitos individuais”, afirmou Wimmer.</p>
<p style="text-align: left; ">“No Brasil temos um direito fundamental à proteção de dados pessoais, mas esse não é o caso dos EUA. Temos um sistema de checks and balances e obrigações legais para os serviços de inteligência coletarem certo tipo de informação, mas isso não se aplica nos EUA, China e outras jurisdições.”</p>
<p style="text-align: left; ">Além disso, nos últimos anos tem havido uma proliferação de legislação sobre o ambiente digital, com regras de proteção de dados, sobre acesso a mercados digitais e sobre inteligência artificial, comentou. “Muitas dessas leis têm alcance extraterritorial, uma vez que estabelecem coisas independentemente de onde os dados estão armazenados.”</p>
<p style="text-align: left; ">Em paralelo a isso, há também a emergência da regulação privada, uma vez que as big techs (Meta [Facebook, Instagram e WhatsApp], Microsoft, Apple, X [antigo Twitter], Amazon e Alphabeth [Google]) e outras empresas de tecnologia exigem a subscrição de seus termos de uso e obediência a critérios sobre que conteúdo é aceitável inserir em seus serviços, como atingir maior audiência, quais as condições para menores de idade os utilizarem etc.</p>
<p style="text-align: left; ">Wimmer lembrou que as redes sociais removeram conteúdos postados por políticos e que “isso às vezes desafiou normas e violou direitos de expressão, mas a resposta das empresas foi simplesmente que essas eram suas regras e se aplicavam ao ciberterritório de seus serviços”.</p>
<p style="text-align: left; "><strong>Soberania e cibersegurança</strong></p>
<p style="text-align: left; ">Um conceito muito discutido na Europa e mais recentemente no Brasil é o de soberania digital, um conceito muito abstrato e que está sendo utilizado de forma bastante flexível para descrever muitos tipos de fenômenos, afirmou Wimmer.</p>
<p style="text-align: left; ">Uma referência mencionada por ela sobre várias ideias relacionadas com a soberania digital europeia é o paper “<a href="https://www.europarl.europa.eu/RegData/etudes/STUD/2021/659437/EPRS_STU(2021)659437_EN.pdf">Towards a More Resiliente Europe  Post-Coronavirus</a>” (para uma Europa mais resiliente pós-coronavírus), publicado pelo Parlamento Europeu em abril de 2021.</p>
<p style="text-align: left; "><dl class="image-left captioned" style="width:350px;">
<dt><img src="https://www.iea.usp.br/imagens/ciberseguranca/image" alt="Cibersegurança" title="Cibersegurança" height="241" width="350" /></dt>
 <dd class="image-caption" style="width:350px;">Os governos nacionais devem estar seguros de sua capacidade de supervisionar e controlar infraestruturas críticas, de acordo com a diretora da ANPD</dd>
</dl>Outra questão muito discutida é a de cibersegurança: “O Brasil é outros países estão introduzindo a tecnologia 5G de telefones celulares e um dos principais fornecedores de equipamentos é a empresa chinesa Huawei. Houve uma campanha muito forte dos EUA, Austrália e UK tentando convencer o governo brasileiro e de outros países de que o uso da tecnologia dessa empresa traria riscos de espionagem, à cibersegurança, riscos não apenas domésticos, mas até mesmo para as relações internacionais”.</p>
<p style="text-align: left; ">No entanto, vários países americanos já contam com equipamentos da Huawei para as tecnologias 4G e 3G. “A questão era convencer os países a utilizarem equipamentos americanos, talvez.”</p>
<p style="text-align: left; ">“A discussão sobre o 5G e cibersegurança está conectada com a soberania digital, pois os países devem estar seguros de sua capacidade de supervisionar e controlar infraestruturas críticas”, afirmou.</p>
<p style="text-align: left; ">Outro ponto ligado à soberania digital está relacionado com a competição. “As big techs adquiriram tamanha predominância, dada a vantagem competitiva adquirida com a enorme quantidade de dados que coletam e processam, que inibem a capacidade de inovação e competição de empresas daqui ou da Ásia. E quando alguma startup se torna competitiva é adquirida por uma grande companhia.”</p>
<p style="text-align: left; "><strong>Proteção de dados e privacidade</strong></p>
<p style="text-align: left; ">Também merece atenção, segundo Wimmer, a proteção de dados e da privacidade, um dos hot topics da atualidade. “Temos hoje em dia programas acadêmicos muito interessantes sobre a ideia de vigilância digital e capitalismo de vigilância. O modelo atual de negócios é construído a partir da coleta de informações pessoais e sua transformação em commodities de maneira a torná-los inputs para criação de valor por grandes companhias do Hemisfério Norte”, disse.</p>
<p style="text-align: left; ">A partir desse quadro geral, Wimmer discutiu como a discussão sobre soberania digital e transferência de dados entre países está conectada com proteção de dados pessoais e privacidade.</p>
<p style="text-align: left; ">Segundo ela, 140 países já possuem algum nível de legislação para proteção de dados e privacidade. “O que muitas dessas legislações têm em comum é a abordagem ex ante [expectativa do que irá ocorrer] em relação à proteção de dados, a qual é, basicamente, a abordagem europeia.”</p>
<p><dl class="image-right captioned" style="width:350px;">
<dt><img src="https://www.iea.usp.br/imagens/data-center/image" alt="Data center" title="Data center" height="212" width="350" /></dt>
 <dd class="image-caption" style="width:350px;">Muitas leis possuem alcance extraterritorial, não importando onde o banco de dados está instalado</dd>
</dl></p>
<p style="text-align: left; ">Ela explicou as características dessa abordagem. A primeira está ligada à ideia de que ao tratar de proteção de dados pessoais estão sendo protegidos direitos fundamentais, porque esses dados são uma projeção da personalidade da pessoa, sua aparência física, status, coisas que gosta de fazer, família, orientação sexual e outros elementos que a definem, afirmou. “É preciso alguma espécie de controle sobre o que é feito com meus dados pessoais. Eles não podem ser utilizados para me prejudicar, piorar minha situação econômica, social ou política de alguma maneira.”</p>
<p style="text-align: left; ">Por esse motivo, muitos países têm reconhecido a ideia dos direitos fundamentais no que se refere à proteção de dados pessoais e “isso implica proteção do ponto de vista das organizações privadas e do próprio governo, que precisa agir de acordo com certos princípios e regras”. A noção de dados pessoais é geralmente abrangente, “pois não estamos tratando apenas de identificar indivíduos, mas também de indivíduos identificáveis [que podem ser identificados a partir de dados não pessoais]".</p>
<p style="text-align: left; ">Outro aspecto é que essas leis trazem vários princípios importantes para a criação de uma espécie de fricção no que se refere a novas tecnologias, um princípio de minimização de dados, para não haver coleta de dados maior do que o necessário para o que é intencionado, explicou. Há também a limitação ou especificação da intenção: “Isso significa que quando coletamos dados de alguém, devemos informar claramente o que faremos com eles e que não faremos nada mais do que isso”.</p>
<p style="text-align: left; ">Wimmer pondera que, ao tratar de big data, aplicações de inteligência artificial e uso comercial de dados pessoais, esses princípios de fato criam fortes limitações. “E são princípios muito tradicionais, mencionados pela OCDE no início dos anos 80, e agora presentes em muitas legislações de proteção a dados no mundo.”</p>
<p style="text-align: left; ">Finalmente, ela destacou a criação de uma autoridade de proteção de dados independente e com um espectro amplo de responsabilidades, que inclui a supervisão dos setores público e privado e, em muitos países, regulações para a transferência de dados internacionais.</p>
<p style="text-align: left; ">Muitas legislações produzem efeitos extraterritoriais bastante definidos, disse. O exemplo claro disso é a legislação da União Europeia, que “se aplica tanto a processadores de dados instalados na UE, não importando se os dados estão nela ou não, quanto a processadores de dados externos cuja atividade tenha como alvo o mercado da UE".</p>
<p style="text-align: left; ">“A mesma coisa acontece no Brasil, com a LGPD [<a href="https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm">Lei Geral de Proteção de Dados, 13.709/2018</a>], que se aplica não importa onde a companhia tenha sua sede e onde os dados estão armazenados, desde que o processamento dos dados ocorra no Brasil para o fornecimento de bens ou serviços, ou se o processamento envolve dados de indivíduos residentes no Brasil, ou se os dados pessoais a serem processados foram coletados no Brasil.”</p>
<p><dl class="image-left captioned" style="width:500px;">
<dt><img src="https://www.iea.usp.br/imagens/logos-de-big-techs/image" alt="Logos de big techs" title="Logos de big techs" height="82" width="500" /></dt>
 <dd class="image-caption" style="width:500px;">Wimmer: ''O modelo atual de negócios é construído a partir da coleta de informações pessoais e sua transformação em commodities de maneira a torná-los inputs para criação de valor por grandes companhias do Hemisfério Norte''</dd>
</dl></p>
<p style="text-align: left; "><strong>Graus de restrições ao fluxo</strong></p>
<p style="text-align: left; ">Wimmer ressaltou a complexidade para os dados serem transferidos internacionalmente, já que as legislações dos diversos países competem entre si.</p>
<p style="text-align: left; ">Ela citou o artigo “<a href="https://www.oecd-ilibrary.org/trade/trade-and-cross-border-data-flows_b2023a47-en">Trade and Cross-Border Data Flows</a>” [comércio e fluxo de dados transfronteiriços], de 2019, produzido por dois técnicos da OCDE, Francesca Casalini e Javier López González. “O trabalho apresenta uma taxonomia muito interessante sobre abordagens quanto a fluxos de dados internacionais.”</p>
<p style="text-align: left; ">No quadro apresentado pelo artigo, uma coluna é dedicada aos países onde há ausência de regulação ou acontece um fluxo livre com regulação pelo setor privado, “ou seja, faça o que quiser e se algo errado acontecer, veremos o que fazer”.</p>
<p style="text-align: left; ">A coluna intermediária inclui casos como os da União Europeia e do Brasil, em que há diferentes instrumentos para habilitar o fluxo internacional, que vão desde o reconhecimento da adequação (em que um país reconhece outro país com nível similar de proteção) até mecanismos contratuais e certificação.</p>
<p style="text-align: left; ">A terceira coluna é dedicada a sistemas bem restritivos, onde o fluxo internacional de dados não é permitido, exceto se uma autoridade de proteção autorizar ou houver uma decisão de adequação.</p>
<p style="text-align: left; ">Segundo Wimmer, o sistema brasileiro é relativamente similar ao europeu, com a diferença que, enquanto na União Europeia certo número de mecanismos para o fluxo internacional de dados são considerados “derrogações”, excepcionais, não podem ser utilizados para transferências operacionais, no Brasil há outras condições, que podem ser utilizadas em qualquer caso: cooperação legal internacional para aplicação da lei; proteção da vida ou segurança física; autorização pela ANPD; acordos de cooperação internacionais; política pública; consentimento; observância de obrigação legal ou regulatória; execução de contrato; exercício de direitos.</p>
<p style="text-align: left; ">Ela lembrou que outros países possuem diferentes abordagens. “A questão é se nós, enquanto sociedade, consideramos benéfica a transferência internacional de dados, num contexto em que mais de uma centena de países possuem diferentes sistemas legais e diferentes fluxos de dados. Como podemos fazer isso funcionar?”</p>
<p style="text-align: left; ">Para ela, a melhor postura é “pressionar fortemente por decisões de adequação”. Numa relação assim, “os europeus dirão: o Brasil tem legislação similar à nossa, então discutiremos decisões de mútua adequação”. O problema é multiplicar esse tipo de relação mutual para 140 países, considerando as diferentes nuances entre seus sistemas legais, ponderou.</p>
<p style="text-align: left; ">A tendência, disse, é a adoção de instrumentos contratuais, como as chamadas Standard Contractual Clauses (SCC) [cláusulas contratuais padrão], ou ainda a adoção de alguma espécie de certificação ou código de conduta, “quando uma companhia é certificada de forma privada e reconhecida como cumpridora de um certo nível de proteção na transferência de dados entre países”.</p>
<p style="text-align: left; "><strong>Diferenças entre EUA e União Europeia</strong></p>
<p style="text-align: left; ">Para Wimmer, um dos principais desafios internacionais está em habilitar a transferência de dados entre UE e EUA, que possuem sistemas muito diferentes. “Os Estados Unidos não têm uma proteção geral de dados. Não há legislação federal, não há direitos fundamentais quanto à proteção de dados. Por outro lado, há muitas leis estaduais. A <a href="https://www.ftc.gov/">Comissão Federal de Comercio</a> dos Estados Unidos está trabalhando nessa questão, mas sob a ótica de práticas injustas ou enganosas, o que é uma abordagem completamente diferente."</p>
<p style="text-align: left; "><img src="https://www.iea.usp.br/imagens/post-the-max-schrems-no-x" alt="Post the Max Schrems no X" class="image-right" title="Post the Max Schrems no X" />Ela citou o caso de <a href="https://twitter.com/maxschrems">Max Schrems</a>, um ativista austríaco que por três vezes impediu acordos internacionais de transferência de dados entre EUA e EU. “O seu argumento é que não importa o quanto uma companhia seja certificada e os compromissos que assuma, pois os serviços de inteligência dos EUA têm permissão para acessar dados pessoais”. Em julho, foi anunciado um <a class="external-link" href="https://ec.europa.eu/commission/presscorner/detail/en/ip_23_3721">novo acordo</a> entre a EU e os EUA, e Schrems manifestou seu descrédito no X logo em seguida: "Em geral, trata-se de uma cópia de velhos princípios”.</p>
<blockquote class="twitter-tweet" style="text-align: left; ">
<p dir="ltr">Uma vez que os benefícios do fluxo internacional de dados são muito claros, a questão que se coloca é “como resolver as diferentes abordagens quanto a restrições, soberania, proteção a dados pessoais e propriedade intelectual, salvaguardas, aplicação da lei etc.”, afirmou Wimmer.</p>
</blockquote>
<p style="text-align: left; ">“Esse é um dos mais estimulantes pontos de discussão em diferentes organizações internacionais, não apenas aquelas ligadas à proteção de dados, como a <a class="external-link" href="https://globalprivacyassembly.org/">Global Privacy Assembly</a>. A questão está presente em relatórios produzidos pelo Fórum Econômico Mundial, pela OCDE e em anexos de dois ou três encontros do G7”, afirmou.</p>
<p style="text-align: left; ">Wimmer frisou que “a solução para a questão ainda não está clara, mas talvez esteja claro o que devemos desejar: precisamos de melhores acordos e arranjos para facilitar a cooperação legal internacional: essa é uma das dificuldades que temos na mesa hoje em dia”.</p>
<p style="text-align: right; "><span class="discreet">Imagens (a partir do alto): Roque de Sá/Agência Senado; Telegeography; Wikimedia; Pxfuel; Rawpixel; Wikimedia; X</span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mauro Bellesa</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Proteção de dados</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Ciência da Computação</dc:subject>
    
    
      <dc:subject>Grupo de Pesquisa Observatório da Inovação e Competitividade - NAP</dc:subject>
    
    
      <dc:subject>Diplomacia de Ciência e Inovação</dc:subject>
    
    
      <dc:subject>Legislação</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    <dc:date>2023-09-06T17:55:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/google">
    <title>Dirigente do Google defende relevância dos mecanismos de busca para a sociedade</title>
    <link>https://www.iea.usp.br/noticias/google</link>
    <description>Prabhakar Raghavan, vice-presidente sênior do Google, fez a conferência "Mecanismos de Busca e Sociedade: Qualidade da Informação e Potencial da Inteligência Artificial", no dia 22 de agosto, evento organização pelo Google, IEA e Instituto de Matemática e Estatística (IME) da USP.</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span><dl class="image-right captioned" style="width:400px;">
<dt><img src="https://www.iea.usp.br/imagens/pabhakar-raghavan-22-8-23/image" alt="Pabhakar Raghavan - 22/8/23" title="Pabhakar Raghavan - 22/8/23" height="505" width="400" /></dt>
 <dd class="image-caption" style="width:400px;">Prabhakar Raghavan: ''Se for extinto o reconhecimento de dados por anunciantes, acabará o sistema da web aberta''</dd>
</dl>De acordo com pesquisa divulgada em maio pelo Comitê Gestor da Internet no Brasil (CGI.br), mais de 92 milhões de brasileiros acessam a internet apenas por meio de telefones celulares, 62% dos cerca de 149 milhões de usuários da rede no país. Mas pouca gente se dá conta que essa preferência - que reflete um padrão internacional - é acompanhada por outra: a utilização de aplicativos e não a busca de informações em sites e portais da web.</span></p>
<p><span>A consequência dessa mudança de comportamento é "a estagnação da web", segundo <a href="https://www.iea.usp.br/pessoas/pasta-pessoap/prabhakar-raghavan"><span>Prabhakar Raghavan</span></a>, vice-presidente sênior do <a href="https://about.google/" target="_blank"><span>Google</span></a>. </span>Para ele, no entanto, há muito o que explorar de informações confiáveis e de formas variadas fora do chamado "jardim murado" (walled garden) da internet, como é chamado o mundo dos aplicativos e plataformas extraweb.</p>
<p><span>Essa foi a visão que ele apresentou na conferência <i>Mecanismos de Busca e Sociedade: Qualidade da Informação e Potencial da Inteligência Artificial</i>, no dia 22 de agosto, evento organização pelo Google, IEA e Instituto de Matemática e Estatística (IME) da USP.</span></p>
<p><span>O maior desafio para essa exploração do conteúdo da web manter-se de grande relevância para os indivíduos e a sociedade, como tem sido até agora, é encontrar o equilíbrio ente os interesses dos anunciantes e a preservação da individualidade dos usuários dos mecanismos de busca, segundo Raghavan.</span></p>
<p><span>A estagnação da web depois de mais de 20 anos de crescimento exponencial na produção de conteúdo para sites e portais deve-se à maior facilidade de inclusão de conteúdo em aplicativos, explicou o conferencista. Apesar de o usuário ter o trabalho adicional de instalar o aplicativo, registrar-se nele e, eventualmente, atender a outros pré-requisitos (características que definem o "jardim murado"), tem maior facilidade para inserir conteúdo, ao contrário de todo o trabalho para registar, produzir, hospedar e atualizar um site web.</span></p>
<p><span><strong>Melhorias do sistema</strong></span></p>
<p><span>Raghavan afirmou que o Google tem se empenhado em diversas frentes para melhorar o acesso às informações e tentar garantir que elas tenham a qualidade desejável. Isso inclui ações como o aprimoramento dos sistemas de tradução de conteúdo em inglês para outras línguas.</span></p>
<p><span>Segundo ele, as equipes da empresa propõem milhares de melhorias todo ano, mas a maioria é rejeitada. "O processo de decisão do que será aproveitado constitui o centro de melhoria do sistema: há 60 mil avaliadores de alterações espalhados pelo mundo. Eles analisam o tratamento usual dado a uma busca e comparam com o resultado possível a partir de uma melhoria sugerida. A alteração é adotada quando há consenso entre os avaliadores sobre seus benefícios."</span></p>
<p><span>Os critérios a serem considerados pelos avaliadores estão num <a href="https://guidelines.raterhub.com/searchqualityevaluatorguidelines.pdf" target="_blank"><span>documento</span></a> com 170 páginas disponível a todos os interessados. </span>Raghavan defendeu a divulgação das políticas da empresa: "A norma é tornar as políticas públicas; cabe ao usuário decidir se confia ou não no mecanismo".</p>
<p><span>Ele exemplificou duas posturas básicas do mecanismo que o fazem apresentar uma resposta ou não. Se alguém pergunta se os EUA mantêm corpos de seres alienígenas, aparecerão muitas opiniões, mas o sistema não indicará uma resposta. Mas se alguém perguntar se o Brasil é maior que A Austrália, o sistema responderá que sim, pois há consenso sobre o fato e fontes confiáveis que certificam a informação.</span></p>
<p><span>Raghavan mencionou vários outros critérios para exclusão de conteúdos nas buscas, como a presença de abuso de crianças, informações extremamente pessoais, spams, entre outros. A inserção de publicidade é vetada em determinadas situações, como no caso de material de caráter nazista.</span></p>
<p><span>Ele destacou a importância de melhoria do letramento digital dos usuários para que obtenham informações mais confiáveis. Uma delas é o acesso a informações sobre a fonte, que pode ser visto ao clicar nos três pontos verticais do lado direito de cada URL indicada na pesquisa, bem como os alertas sobre informações duvidosas.</span></p>
<p><span>Não é verdade que o Google apresente resultados e anúncios direcionados por possuir um perfil detalhado do usuário, afirmou. “Não queremos personalizar resultados, a não ser que isso traga benefícios às pessoas.” Isso acontece, por exemplo, na busca de uma rota no Google Maps: "Com as informações de várias pessoas que utilizam o sistema, é possível evitar congestionamentos. Isso foi importante durante a pandemia, pois permitiu saber onde havia aglomerações de pessoas".</span></p>
<p><span>No caso da publicidade apresentada depois da manifestação do interesse em algum produto, explicou que o Google não tem um perfil armazenado sobre o usuário, como muitos pensam, trata-se apenas do reconhecimento de cookies implantadas no celular do usuário quando acessa um site. O sistema de anúncios reconhecerá, por exemplo, o cookie de um site de vestidos consultado e passará a apresentar publicidade de vestidos.</span></p>
<p><span>“Se for extinto esse reconhecimento de dados, acabará o sistema da web aberta”, disse. Então, o grande problema é como resolver a relação entre oportunidades para a publicidade e o nível de preservação da privacidade a ser assegurado aos usuários. O interesse do Google, segundo Raghavan, é que as pessoas tenham interesse por várias coisas e seja possível rastrear seus interesses.</span></p>
<p><span>Explicou que ao se fazer uma busca, no topo de relação de páginas web indicadas podem aparecem de um a quatro anúncios ou nenhum, de acordo com o tipo de pergunta. Os anúncios que aparecem primeiro não são necessariamente os que pagam mais ao Google. É feita uma correlação entre o valor pago pelo anunciante e a relevância de seu anúncio em outras buscas.</span></p>
<p><span><strong>Inteligência artificial</strong></span></p>
<p>Ele abordou também as aplicações de ferramentas de inteligência artificial nas buscas. Uma delas é a que permite a busca oral, quando o usuário fala o que quer pesquisar em vez de digitar. Para exemplificar a importância do recurso, comentou que esse tipo de busca representa 5% do total nos EUA, mas é de 30% na Índia. Daí o interesse em aprimorá-lo, uma vez que o sistema só reconhece adequadamente 80% do que é dito, disse.</p>
<p><span>No caso de imagens, há as possibilidades oferecidas pelo Google Lens, que pode identificar inúmeras coisas, como a espécie de uma planta fotografada e suas eventuais doenças. "Os estudantes usam esse recurso inclusive para resolver problemas matemáticos: basta fotografá-lo e virá uma a resposta, se é uma equação quadrática, por exemplo, e como solucioná-la."</span></p>
<p><span>Raghavan lembrou o desenvolvimento do <a href="https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html" target="_blank"><span>Bert (Bidirectional Encoder Representations for Transformers)</span></a>, uma ferramenta baseada em rede neural para processamento de linguagem natural pré-treinada lançado pelo Google em 2018. "O Bert foi produzido para entender melhor os documentos nas buscas, mas com o passar dos anos ajudou a entender melhor as próprias buscas." O Bert reconhece os substantivos e a prioridade a ser dada a cada um. Este ano o Google lançou o<a href="https://bard.google.com/" target="_blank"><span> Bard</span></a>, um chatbot aberto aos usuários brasileiros em julho. No entanto, como alertou, as respostas apresentadas por chatbot como o Bard ainda devem ser avaliadas com cautela.</span></p>
<p><span>A principal dificuldade dos mecanismos de busca e outras ferramentas para a obtenção de informações consiste em conseguir uma regulagem fina que permita, ao mesmo tempo, nível elevado de factualidade (consistência da informação) e fluidez na experiência do usuário, afirmou o conferencista.</span></p>
<p><span>Raghavan encerrou sua conferência comentando recursos do Google que contribuem com a sustentabilidade. Em muitos países, as rotas indicadas pelo Google Maps, por exemplo, levam em consideração qual é o percurso mais verde, com menor emissão de gases efeito estufas pelo meio de transporte utilizado. Os cálculos indicam que isso permitiu a redução na emissão de gases correspondente ao que 250 mil automóveis produzem durante um ano. Nas pesquisas sobre voos e rotas aéreas também é possível escolher a opção com menor pegada de carbono.</span></p>
<p><strong><span>Abertura</span></strong><span></span></p>
<p><span>A abertura do evento com <a href="https://www.iea.usp.br/pessoas/pasta-pessoap/prabhakar-raghavan"><span>Raghavan</span></a> foi prestigiada com a presença do reitor da USP, <a href="https://www5.usp.br/reitoria/reitor/" target="_blank"><span>Carlos Gilberto Carlotti Junior</span></a>, que lembrou as parcerias já mantidas pela Universidade com o Google, caso do serviço de e-mail de docentes, servidores e estudantes; de Liedi Bernucci, diretora presidente do Instituto de Pesquisas Tecnológicas (IPT) do Estado de São Paulo, que deverá sediar um <a href="https://www.ipt.br/noticia/1740-parceria_com_o_google_.htm" target="_blank"><span>Centro de Engenharia</span></a> do Google; da vice-diretora do IEA, <a href="https://www.iea.usp.br/pessoas/pasta-pessoar/roseli-de-deus-lopes"><span>Roseli de Deus Lopes</span></a>; e do presidente da Comissão de Pesquisa e Inovação do IME-USP, Alfredo Goldman.</span><span></span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mauro Bellesa</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Evento</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Web</dc:subject>
    
    
      <dc:subject>Chatbot</dc:subject>
    
    
      <dc:subject>Aplicativos</dc:subject>
    
    
      <dc:subject>Internet</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    <dc:date>2023-08-23T18:35:05Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/novo-coordenador-academico-oscar-sala">
    <title>Pablo Ortellado é o novo coordenador acadêmico da Cátedra Oscar Sala</title>
    <link>https://www.iea.usp.br/noticias/novo-coordenador-academico-oscar-sala</link>
    <description>O filósofo Paulo Ortellado, professor do curso de Gestão de Políticas Públicas da Escola de Artes, Ciências e Humanidades (Each) da USP e colunista do jornal O Globo, é o novo coordenador acadêmico da Cátedra Oscar Sala.</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><dl class="image-right captioned" style="width:450px;">
<dt><img src="https://www.iea.usp.br/imagens/pablo-ortellado-30-6-23/image" alt="Pablo Ortellado - 30/6/23" title="Pablo Ortellado - 30/6/23" height="405" width="450" /></dt>
 <dd class="image-caption" style="width:450px;">Pablo Ortellado em evento no IEA em junho</dd>
</dl></p>
<p>O filósofo <a href="https://www.iea.usp.br/pessoas/pasta-pessoap/pablo-ortellado" class="external-link">Pablo Ortellado</a>, professor do curso de Gestão de Políticas Públicas da Escola de Artes, Ciências e Humanidades (Each) da USP e colunista do jornal O Globo, é o novo coordenador acadêmico da <a href="https://www.iea.usp.br/pesquisa/catedras-e-convenios/catedra-oscar-sala/catedra-oscar-sala" class="external-link">Cátedra Oscar Sala</a>.</p>
<p>Ortellado substituiu o professor <a href="https://www.iea.usp.br/pessoas/pasta-pessoae/eugenio-bucci" class="external-link">Eugênio Bucci</a>, da Escola de Comunicações e Artes (ECA) da USP, que continua no Comitê de Governança da cátedra, agora na vaga antes ocupada pela vice-diretora do IEA, <a href="https://www.iea.usp.br/pessoas/pasta-pessoar/roseli-de-deus-lopes" class="external-link">Roseli de Deus Lopes</a>.</p>
<p>"Sugeri o nome do Pablo porque ele é um dos principais estudiosos da nova geração da USP a pesquisar as relações entre movimentos políticos e o comportamento das redes sociais. Seu trabalho é absolutamente inovador e muito esclarecedor. Fora isso, é uma pessoa brilhante, que trará uma renovação geracional para a nossa Cátedra", explica Bucci.</p>
<p>Um dos pioneiros da Oscar Sala, o jornalista Eugênio Bucci ajudou a pensar a atuação e as linhas de pesquisa da cátedra. Como coordenador desde 2020, quando foi<span> firmado o convênio entre o IEA e o Comitê Gestor da Internet (CGI.br) e que viabilizou o projeto, Bucci foi responsável pela agenda de eventos, interlocução com os conselheiros, coordenação <span>do trabalho do catedrático e</span> da disciplina "Economia, Cultura e Poder na Internet", iniciada em 2021. </span></p>
<p><span>Além de professor da ECA, Bucci é superintendente de Comunicação Social da USP, colunista do jornal "O Estado de S. Paulo" e autor dos livros "</span><span>O Estado de Narciso" (2015) e "A forma bruta dos protestos" (2016), "Existe democracia sem verdade factual?" (2019), "A superindústria do imaginário" (2021) e "Incerteza, um ensaio" (Autêntica, 2023), dentre outros. Foi presidente da Radiobras de 2003 a 2007, diretor de redação e secretário editorial na Editora Abril. Como pesquisador, sua atuação é nas áreas de: ética e imprensa, comunicação pública, superindústria do imaginário, informação e cultura democrática.</span></p>
<p><span><strong>O novo coordenador</strong></span></p>
<p>Bacharel e doutor em filosofia pela Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP, com pós-doutorado no Centro Brasileiro de Análise e Planejamento (Cebrap), Ortellado tem  atuação marcante na pesquisa empírica sobre a cultura digital e suas implicações políticas.</p>
<p>Também se destaca na análise da agenda política nacional em colunas e artigos na imprensa. Antes de passar a escrever em O Globo, foi colunista do jornal Folha de S.Paulo por quatro anos. Em 2022, em parceria com a jornalista Elisa Martins, produziu o podcast <a href="https://globoplay.globo.com/podcasts/guerras-culturais-uma-batalha-pela-alma-do-brasil/bb970d66-e4d0-4087-bb44-84436175ddd8/">Guerras Culturais</a>, difundido por O Globo e pelo Globoplay.</p>
<p>Atualmente, ele coordenada três pesquisas. Uma delas, iniciada em 2022 com alunos de graduação, tem o título Curtidas no Facebook Estão Polarizando a Sociedade? e conta com apoio da Fapesp. A partir do histórico de postagens e curtidas de um grupo de indivíduos com identidades políticas fortes - e com sua autorização -, a pesquisa busca verificar se “as curtidas recebidas por diferentes tipos de publicações podem funcionar como pistas quantitativas que orientam a escolha de qual identidade deve se impor na busca por um contexto unívoco”.</p>
<p>Outra pesquisa que coordena é A Esfera Pública Digital: Desarranjos e Regulação, iniciada em 2021. O trabalho envolve alunos de graduação e pós-graduação e é apoiado pela Fundação Ford. O projeto dá continuidade às investigações empíricas do Grupo de Políticas Públicas para o Acesso à Informação da USP sobre o processo de degradação e desarranjo da esfera pública digital, ampliando o escopo da pesquisa para a América do Sul.</p>
<p>Ortollado desenvolve ainda a pesquisa Privacidade e Comunicação para Mobilização, em parceria com Marcio Moretto Ribeiro. Iniciado em 2017 e com patrocínio da Fundação Ford, o projeto se dedica a estudar, por meio de questionários, a opinião de quem se mobiliza nas ruas de São Paulo e contraste com o padrão de interação e o consumo de notícias no Facebook e em outras mídias sociais no Brasil.</p>
<p>O filósofo é coautor dos livros “Vinte Centavos: A Luta contra o Aumento” (2013) (também com edição espanhola), “Sobrevivendo nas Redes: Guia do Cidadão” (2018) e Estamos Vencendo: Resistência Global no Brasil (2004). Coorganizou os livros “O Mercado de Livros Técnicos e Científicos no Brasil: Subsídio Público e Acesso ao Conhecimento"  (2008) (também com edições em espanhol e inglês) e “Movimentos em Marcha: Ativismo, Cultura eTecnologia (2013). É autor ou coautor de 17 capítulos de livros e de 31 artigos em periódicos científicos, além de ter orientado 14 dissertações de mestrado.</p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mauro Bellesa</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Ciência da Computação</dc:subject>
    
    
      <dc:subject>Ciência e Tecnologia</dc:subject>
    
    
      <dc:subject>Computação</dc:subject>
    
    
      <dc:subject>Cátedra Oscar Sala</dc:subject>
    
    
      <dc:subject>Cultura Digital</dc:subject>
    
    
      <dc:subject>C&amp;T</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    
      <dc:subject>CT&amp;I</dc:subject>
    
    
      <dc:subject>Algoritmo</dc:subject>
    
    <dc:date>2023-08-04T17:05:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/para-especialista-algoritmos-opacos-decidem-sobre-a-vida-das-pessoas">
    <title>Para especialista, algoritmos opacos decidem sobre a vida das pessoas</title>
    <link>https://www.iea.usp.br/noticias/para-especialista-algoritmos-opacos-decidem-sobre-a-vida-das-pessoas</link>
    <description>Em evento no IEA, Frank Pasquale analisou os desafios no caminho para o uso responsável de Big Data e machine learning</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-2c152475-7fff-0404-78e5-6a317669c8f7"> </span></p>
<p dir="ltr" style="text-align: left; "><i><img src="https://www.iea.usp.br/imagens/reavaliando-a-lei-de-protecao-de-dados-2/@@images/1a818f5c-8c3f-48e2-b613-be3f29bcd345.png" alt="Reavaliando a Lei de Proteção de dados - 2" class="image-left" title="Reavaliando a Lei de Proteção de dados - 2" />Chatbots</i><span> como o Chat GPT, aplicativos de transporte e agências de crédito usam as Inteligências Artificiais e a </span><i>Big Data</i><span> com pouca clareza e devem passar por maior escrutínio, defendeu </span><a href="https://www.iea.usp.br/pessoas/pasta-pessoaf/frank-pasquale" class="external-link">Frank Pasquale</a><span>, professor de direito sob o título Jeffrey D. Forchelli na Escola de Direito do Brooklyn. Em evento no IEA no dia 30 de março, ele demonstrou preocupação com o uso desenfreado dessas novas ferramentas: “É impressionante a quantidade de dados captados de pessoas físicas”. Segundo o pesquisador, os usuários e consumidores precisam ter mais clareza sobre as informações pessoais que as empresas têm e como elas estão sendo usadas. “O uso é muito pouco claro porque as corporações são como caixas-pretas”, afirmou.</span></p>
<p dir="ltr">O seminário “Reavaliando a Lei de Proteção de Dados: O Caso dos Direitos de Acesso à Informação” foi organizado pela <a href="https://www.iea.usp.br/pesquisa/catedras-e-convenios/catedra-oscar-sala" class="external-link">Cátedra Oscar Sala</a>, parceria do IEA com o Núcleo de Informação e Coordenação do Ponto BR.</p>
<table class="tabela-direita-200-borda">
<tbody>
<tr>
<th>Relacionado</th>
</tr>
<tr>
<td><a href="https://www.iea.usp.br/midiateca/video/videos-2023/reavaliando-a-lei-de-protecao-de-dados-o-caso-dos-direitos-de-acesso-a-informacao" class="external-link">Vídeo do evento</a></td>
</tr>
<tr>
<td><strong>Notícia: </strong><a href="https://www.iea.usp.br/noticias/os-desafios-do-chatgpt-para-a-universidade" class="external-link">Os desafios do ChatGPT ao ensino e à pesquisa</a></td>
</tr>
</tbody>
</table>
<p><span>O especialista admitiu que as tecnologias de Big Data para avaliação algorítmica de pessoas oferecem mais chances para demonstrar tanto méritos quanto deméritos, apesar das distorções. Antes da introdução dessas técnicas, as empresas de crédito, por exemplo, usavam dados estritamente financeiros para suas análises. Para Pasquale, “usar dados de coletas mais velhas e com um escopo menor pode provocar vieses”. Ele explicou que com o advento do </span><i>Big Data</i><span>, as empresas financeiras utilizam uma variedade muito maior de informações, desde registros de músicas preferidas até histórico de visitas em sites. Isso permite que pessoas sem amplos registros financeiros - que têm seu direito de acesso ao crédito negligenciado - consigam mostrar que se comportam da mesma maneira que bons pagadores.</span></p>
<p dir="ltr">Porém, a falta de transparência causa problemas. Entre eles, segundo o professor, está o uso de dados gratuitos ou baratos, que são normalmente imprecisos, para alimentar seus algoritmos. “De onde exatamente o Chat GPT tira suas informações? Da Wikipedia? Do Reddit? Do 4Chan?”, questionou. Os <i>chatbots</i> prometem oferecer atendimento médico, mas, supondo que usem apenas dados abertos, não terão acesso a bases de dados com <i>paywall</i> e artigos revisados por seus pares. Entretanto essas ferramentas teriam, segundo Pasquale, acesso aos péssimos conselhos médicos da internet aberta e ainda seriam vulneráveis a ataques maliciosos de alteração algorítmica de conteúdo.</p>
<p dir="ltr"><span>Também preocupa a utilização de dados corretos, porém inapropriados. Por exemplo, um banco pode ficar receoso em emprestar dinheiro para uma pessoa com uma doença séria. “É verdade que pacientes diagnosticados com câncer podem passar por instabilidades financeiras e deixar de pagar seus credores, mas não é ético e nem legal negar crédito sob essas condições”, defendeu o especialista.</span></p>
<p><span>Outro problema é a criação de novos grupos de discriminação. O mecanismo pode agir de forma errática, por exemplo, "contra pessoas que usam sapatos baratos, alguém que compre perfumes muito caros, que faça muitas ou poucas viagens”, alertou o professor. O comportamento dos algoritmos de </span><span><i>machine learning</i></span><span> não expressam resultados únicos nem exatos, segundo Pasquale, que afirmou que “sob variáveis diferentes, qualquer cidade norte-americana pode ser elencada como a melhor do país”. Para ele, a transparência pode ajudar as pessoas a entenderem como elas estão sendo avaliadas.</span></p>
<p><strong>Direitos de acesso à informação</strong></p>
<p dir="ltr"><span>Essas questões levaram a sociedade civil, os políticos e reguladores a demandarem novos marcos de direitos de acesso à informação. Nesse escopo, o especialista cita como avanço a Lei de Acesso à Informação da Califórnia, aprovada em 2018. Ele explica que a lei californiana impacta o funcionamento geral de diversas empresas que operam nesse estado, preferindo universalizar internamente esses direitos a trabalhar de maneira diferente em cada jurisdição, o que complicaria a operação, segundo o Pasquale.</span></p>
<p dir="ltr"><span>Pela nova legislação californiana, são garantidos ao consumidor:</span></p>
<ul>
<li dir="ltr" style="list-style-type: disc; ">
<p dir="ltr"><span>Saber qual dado pessoal uma empresa coletou sobre o usuário ou consumidor;</span></p>
</li>
<li dir="ltr" style="list-style-type: disc; ">
<p dir="ltr"><span>De onde ela coletou;</span></p>
</li>
<li dir="ltr" style="list-style-type: disc; ">
<p dir="ltr"><span>Para qual propósito os dados estão sendo usados;</span></p>
</li>
<li dir="ltr" style="list-style-type: disc; ">
<p dir="ltr"><span>Se a empresa que coleta repassa esses dados para outra;</span></p>
</li>
<li dir="ltr" style="list-style-type: disc; ">
<p dir="ltr"><span>Caso repasse, para quem está repassando;</span></p>
</li>
<li dir="ltr" style="list-style-type: disc; ">
<p dir="ltr"><span>Sob requerimento, a empresa precisa informar qual a lógica envolvida em processos automáticos de decisão;</span></p>
</li>
</ul>
<p dir="ltr"><span><span> </span></span><span>É no último item que Pasquale vê um impasse: a dificuldade de determinar o nível de detalhes e o significado que essa informação precisa ter. Ele cita que, em alguns casos, os próprios engenheiros que programaram os sistemas não conseguem explicar a associação feita pela Inteligência Artificial para uma tomada de decisão. O custo da lei também provocou dissenso, já que pode chegar a US$ 547 milhões por ano para as empresas nos Estados Unidos. As companhias também atentaram aos seus direitos de manter segredos comerciais seguros. Mesmo assim, o professor vê com otimismo as possibilidades que a nova regra traz.<dl class="image-right captioned" style="width:400px;">
<dt><img src="https://www.iea.usp.br/imagens/reavaliando-a-lei-de-protecao-de-dados-1/image" alt="Reavaliando a Lei de Proteção de dados - 1" title="Reavaliando a Lei de Proteção de dados - 1" height="267" width="400" /></dt>
 <dd class="image-caption" style="width:400px;">Virgílio Almeida, Frank Pasquale e Luiz Fernando Martins Castro</dd>
</dl></span></p>
<p dir="ltr"><span>Pasquale faz uma analogia com leis ambientais, e afirma que essa legislação contribui para um ecossistema digital mais limpo e justo. Para ele, a lei incentiva curiosos a requisitar seus dados e, mais do que isso, empodera ONGs e grupos ativistas a encontrar injustiças sistemáticas nos algoritmos de maneira coletiva. Ele cita o hipotético caso de um motorista de aplicativo que se vê frustrado em não conseguir prover para sua família e se culpa achando que não trabalha o suficiente ou não é um bom motorista. No entanto, ao se juntar a um grupo de motoristas para analisar seus dados coletivamente, percebe que nenhum deles está conseguindo dinheiro suficiente e que o algoritmo está funcionando em desfavor dos trabalhadores.</span></p>
<p dir="ltr"><span>Sobre a disputa jurídica entre os interesses das empresas e dos consumidores, Pasquale afirma que as companhias têm equipes jurídicas robustas e bem pagas que estão tentando fazer com que prevaleça a interpretação mais inócua possível da lei, enquanto os reguladores e entidades civis não têm tantos recursos. Por isso, ele acredita que deveria existir um imposto sobre as grandes empresas de tecnologia destinado a financiar as agências reguladoras em busca de níveis maiores de transparência.</span></p>
<p dir="ltr">No Brasil, segundo <a href="https://www.iea.usp.br/pessoas/pasta-pessoav/virgilio-almeida" class="external-link">Virgílio Almeida</a>, titular da Cátedra Oscar Sala, enfrenta-se o mesmo problema de falta de recursos para entidades que regulam o setor. Almeida destaca a criação da Lei Geral de Proteção de Dados e que existem planos para a criação de um novo setor da economia brasileira, baseado em dados, e por isso é necessário analisar outras alternativas de legislação que regule a prática de comercialização e uso de dados.</p>
<p dir="ltr"><a href="https://www.iea.usp.br/pessoas/pasta-pessoal/luiz-fernando-martins-castro" class="external-link">Luiz Fernando Martins Castro</a>, coordenador adjunto da Cátedra Oscar Sala, afirmou que a maioria das leis de proteção de dados atuais, inclusive a brasileira, foi baseada no Regulamento Geral de Proteção de Dados da União Europeia. Porém, ele vê que ainda se discute os reais efeitos dessas leis e “em que medida elas vão garantir alguma privacidade e qual privacidade é essa no mundo digital que a gente vive”.</p>
<div><span><br /></span></div>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Matheus Nistal</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Cátedra Oscar Sala</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Algoritmo</dc:subject>
    
    <dc:date>2023-04-10T18:10:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/tecnologias-da-desinformacao-acendem-debate-a-respeito-dos-impactos-das-inteligencias-artificiais-na-sociedade">
    <title>Pesquisadores debatem uso da Inteligência Artificial nas estratégias de desinformação</title>
    <link>https://www.iea.usp.br/noticias/tecnologias-da-desinformacao-acendem-debate-a-respeito-dos-impactos-das-inteligencias-artificiais-na-sociedade</link>
    <description>O evento online “Estratégias Tecnológicas da Desinformação” debateu como os algoritmos e as ferramentas de Inteligência Artificial (IA) podem interferir diretamente no debate público e nas relações de poder através da disseminação de desinformação.</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><dl class="image-right captioned" style="width:400px;">
<dt><img src="https://www.iea.usp.br/imagens/participantes-do-evento-estrategias-tecnologicas-da-desinformacao/image" alt="Participantes do evento &quot;Estratégias Tecnológicas da Desinformação&quot;" title="Participantes do evento &quot;Estratégias Tecnológicas da Desinformação&quot;" height="267" width="400" /></dt>
 <dd class="image-caption" style="width:400px;">Participantes do evento Estratégias Tecnológicas da Desinformação.</dd>
</dl>Para <a href="https://www.iea.usp.br/pessoas/pasta-pessoan/nina-santos">Nina Santos</a>, pesquisadora em pós-doutorado no Instituto Nacional de Ciência e Tecnologia em Democracia Digital, há uma limitação na legislação sobre conteúdo digital que prevê a obrigação de apagar conteúdos que propagam desinformação nas redes. “O conteúdo ganha vida própria e, em certa medida, passa a independer da referência original. Isso faz com que a exclusão dessa referência original, seja pelo próprio autor, seja por medidas regulatórias, tenha impacto restrito.” Ou seja, o caráter multiplataforma da desinformação faz com que a mera exclusão dos conteúdos não impeça que eles continuem sendo compartilhados e reproduzidos.</p>
<p dir="ltr">Nina participou do evento online “Estratégias Tecnológicas da Desinformação”, realizado no dia 19 de agosto pelo <a href="http://c4ai.inova.usp.br/pt/aihumanity-pt/">C4AI / AI Humanity</a> e o <a href="https://www.iea.usp.br/pesquisa/nucleos-de-apoio-a-pesquisa/observatorio-inovacao-competitividade">NAP Observatório da Inovação e Competitividade</a> do IEA. Ela e <a href="https://www.iea.usp.br/pessoas/pasta-pessoam/miguel-lago">Miguel Lago</a>, professor da School of International and Public Affairs da Universidade de Columbia e da École d’Affaires Publiques de Sciences Po Paris, discutiram como o vasto conjunto de procedimentos incorporados às máquinas, aos algoritmos e às ferramentas de Inteligência Artificial (IA) – que, por meio das redes sociais, privilegiam o fluxo e a disseminação de conteúdos manipulados – podem interferir diretamente no debate público e nas relações de poder.</p>
<table class="tabela-esquerda-borda">
<tbody>
<tr>
<th>Assista na íntegra</th>
</tr>
<tr>
<td><b><a href="https://www.youtube.com/watch?v=w2A8x8zDk4Q">Vídeo do debate “Estratégias Tecnológicas da Desinformação”</a></b></td>
</tr>
</tbody>
</table>
<p dir="ltr">“A gente sabe que a inteligência artificial não é nem boa e nem ruim, a priori”, afirmou Lago a respeito de como o contexto social em que esta tecnologia se insere é determinante para avaliar o impacto da IA. No caso do Sul Global (e também em países como EUA e Reino Unido), o pesquisador argumenta que existe um contexto de produção de desinformação que abala a credibilidade e legitimidade das estruturas tradicionais de poder e autoridade.</p>
<p dir="ltr">Enquanto isso, explicou, as chamadas “Big Techs” – plataformas digitais onde estas redes de desinformação são criadas – permanecem insuficientes para moderar e regular o conteúdo no intuito de evitar a propagação de mentiras.</p>
<h3>Caminhos da desinformação</h3>
<p dir="ltr">“É uma parceria obscura entre máquina e sentimentos como desejo de vingança, ódio e ressentimentos. E isto é uma combinação explosiva, como já está demonstrado”, afirmou <a href="https://www.iea.usp.br/pessoas/pasta-pessoae/eugenio-bucci">Eugênio Bucci</a>, coordenador acadêmico da <a href="https://www.iea.usp.br/pesquisa/catedras-e-convenios/catedra-oscar-sala/">Cátedra Oscar Sala</a> e mediador do debate, ao tentar definir estas estratégias tecnológicas que propagam desinformação. Tais estratégias são o objeto de pesquisa da pesquisadora Nina Santos, que busca entender os pilares que sustentam a produção de desinformação.</p>
<p dir="ltr">Nina destacou três pontos cruciais para se entender o desenvolvimento das tecnologias da desinformação: a lógica opaca das plataformas, a volatilidade como estratégia de perenização do conteúdo e a monetização.</p>
<p dir="ltr">Primeiramente ela explica como as plataformas (do francês plate-forme; forma plana) não têm nada de plano ou transparente em sua formação, apesar de construírem um imaginário acerca de si próprias como um espaço aberto, neutro e igualitário. Justamente pela intermediação de algoritmos que definem o que cada usuário vai consumir nas redes sociais que essa ideia de “comunicação direta” estabelecida pelas plataformas não se concretiza na prática.</p>
<p dir="ltr">Para a pesquisadora, é fundamental questionar o que se esconde por trás desta ideia de plataforma digital: “As plataformas agem de acordo com lógicas e regras definidas de forma privada sobre as quais apenas podemos inferir determinados comportamentos, mas sem realmente compreender o que está por trás. A gente não tem acesso aos algoritmos em si, então isso cria uma privatização de regras muito importantes da definição do debate público”, afirmou.</p>
<p dir="ltr">A respeito da volatilidade dos conteúdos que visam desinformar, ela define que tais conteúdos, uma vez postados, ganham vida própria. “A volatilidade não é apenas uma característica, mas uma estratégia de perenização do conteúdo. Ou seja, é a partir de conteúdos voláteis e que somem rápido que muitas vezes os atores desinformativos conseguem fazer com que eles durem mais tempo na rede”, explicou.</p>
<p dir="ltr"><dl class="image-right captioned" style="width:452px;">
<dt><img src="https://www.iea.usp.br/imagens/grafico-a-respeito-da-propagacao-de-conteudos-de-desinformacao-de-acordo-com-a-data-de-publicacao/image" alt="Gráfico a respeito da propagação de conteúdos de desinformação de acordo com a data de publicação" title="Gráfico a respeito da propagação de conteúdos de desinformação de acordo com a data de publicação" height="260" width="452" /></dt>
 <dd class="image-caption" style="width:452px;">Gráfico a respeito da propagação de conteúdos de desinformação de acordo com a data de publicação</dd>
</dl>Em resumo, os propagadores de desinformação se beneficiam da característica multiplataforma do ambiente digital, no qual os conteúdos circulam muito rapidamente entre diferentes plataformas, para escapar dos efeitos da moderação ou regulação. A facilidade de propagar desinformação promove uma estratégia de perenização destes conteúdos.</p>
<p dir="ltr">Como a referência original destas peças de desinformação comumente é apagada, Nina elucida que pode ser feita uma correlação entre o tempo que a postagem dura na rede e a qualidade dessa informação. Ela citou uma pesquisa realizada dentro da Universidade de Londres que revela que 29% dos links compartilhados no Twitter durante a campanha do Brexit desapareceram depois do referendo.</p>
<p dir="ltr">No Brasil, um estudo ainda em desenvolvimento do qual Nina participa junto com os pesquisadores Vitor Chagas e Luciana Marinho identifica que 42% dos links compartilhados em grupos bolsonaristas no WhatsApp sumiram da rede em um ano. Mas ela ressaltou: “Todos estes conteúdos estão longe de ter desaparecido das redes. O fato de não termos mais acesso aos links originais não significa que não estejam circulando em outras redes”.</p>
<p dir="ltr">A respeito da monetização destes conteúdos de desinformação, a pesquisadora pondera que este tema ainda é subexplorado no debate público e acadêmico. Isso porque a discussão costuma ser centralizada na circulação orgânica do conteúdo, ou seja, em como as pessoas repassam fake news, a falta de checagem antes de se compartilhar alguma informação e figuras públicas que intencionalmente propagam esse tipo de conteúdo.</p>
<p dir="ltr">“O papel da monetização, ou seja, da circulação não orgânica nas redes, é absolutamente central para a gente compreender este processo”, afirmou. As plataformas (como YouTube e TikTok) operam de modo a pagar produtores de conteúdo de acordo com a audiência e engajamento. Ou seja, priorizam vídeos que mais atraem a atenção das pessoas, o que acaba beneficiando estratégias de desinformação.</p>
<p dir="ltr">“O caráter de surpresa que os conteúdos desinformativos geram consegue atrair muito a atenção, aumentando o compartilhamento e o tempo que as pessoas passam lendo essa desinformação”, afirmou Nina para explicar porque a lógica de monetização beneficia os produtores com intenção de desinformar. Ela elogiou a decisão judicial do TSE que obrigou as redes sociais a suspenderem a monetização e os mecanismos de recomendação de conteúdos de contas que estão propagando informações falsas sobre eleições e a urna eleitoral.</p>
<h3><span id="docs-internal-guid-34f94069-7fff-468e-5764-145a807125fb">Os impactos das tecnologias da desinformação nos governos e na sociedade civil</span></h3>
<p dir="ltr">Para Miguel Lagos, as tecnologias de informação e a inteligência artificial já têm impacto no cotidiano das cidades, de forma negativa e positiva. Ele apresentou um relatório do Banco Mundial que afirma que a captação de informação através das smart cities vai reduzir o número de participação direta da população nas políticas públicas. Como existe uma vigilância e sistematização constante dos dados a respeito dos problemas de uma cidade, cada vez menos os governos precisarão consultar a opinião da população para promover políticas públicas.</p>
<p dir="ltr">Por outro lado, o pesquisador afirma que este relatório, de maneira contraditória, também indica que as inteligências artificiais podem beneficiar movimentos sociais e aumentar a participação das pessoas no ativismo político com a intenção de promover e modificar políticas públicas. “Dependendo do contexto em que a inteligência artificial é inserida e das relações sociais que a enquadram, ela pode ser benéfica ou extremamente problemática”, apontou Lago.</p>
<p dir="ltr">Ele também faz referência aos estudos de Paolo Gerbaudo, da King’s College, que argumenta que existe uma afinidade entre populismo e mídias sociais. Nas palavras do pesquisador: “Por um lado as mídias sociais favorecem a construção de uma ideia de que elas são a ‘voz legítima do povo’, e por outro lado existe a dinâmica de mobilização das redes sociais que favorece uma mobilização parecida com o populismo”.</p>
<p dir="ltr">Segundo Lagos, a falta de previsão e transparência da mídia tradicional na cobertura da crise econômica de 2008 levou à perda de confiança das populações dos países ocidentais nas grandes mídias. Em meio a esta crise de confiança, as redes sociais se tornaram, no imaginário popular, a “voz verdadeira do povo”, pois é o local onde todos podem se expressar legitimamente.</p>
<p dir="ltr">O professor também destaca os estudos de Luciano Floridi, da Universidade de Oxford, que defende a ideia de que entramos na hiper-história, onde todas as relações sociais sofreram importantes mutações: “Floride fala que no fundo não faz mais sentido a gente falar de uma distinção entre o offline e o online, porque cada vez mais existe uma mistura entre estes ambientes. E por conta dessa mistura perdemos a distinção daquilo que é realidade e virtualidade e passamos a confiar muito mais em perfis e pessoas do que em entidades e instituições”.</p>
<p dir="ltr">Para ele, a desinformação opera sob uma estratégia de destituição da legitimidade de qualquer autoridade e referência. Essa característica, explicou, está muito clara no discurso do presidente em relação à pandemia. “Não é à toa que Bolsonaro está promovendo desinformação em relação a fármacos que pudessem curar a Covid-19. Na minha opinião, a estratégia central é de deslegitimação da ciência como uma voz de autoridade.”</p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Vinícius Lucena</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Desinformação</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Grupo de Pesquisa Observatório da Inovação e Competitividade - NAP</dc:subject>
    
    
      <dc:subject>Internet</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    <dc:date>2021-08-25T13:50:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/biodiversidade-sem-fronteiras">
    <title>Conferência apresentará infraestrutura internacional de rede e pesquisa sobre biodiversidade</title>
    <link>https://www.iea.usp.br/noticias/biodiversidade-sem-fronteiras</link>
    <description>"Informações sobre Biodiversidade sem Fronteiras: Aproveitando o Big Data para o Desenvolvimento Sustentável" é o tema da conferência de Tim Hirsch, da Global Biodiversity Information Facility (GBIF), no dia 6 de março, às 10h.</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><dl class="image-right captioned" style="width:550px;">
<dt><img src="https://www.iea.usp.br/imagens/borboleta-neptis-sappho/image" alt="Borboleta Neptis sappho" title="Borboleta Neptis sappho" height="367" width="550" /></dt>
 <dd class="image-caption" style="width:550px;">Borboleta Neptis sappho observada na China em  23 de outubro de 2019; foto publicada no site iNaturalist.org e referenciada na GBIF</dd>
</dl>Tim Hirsch, da <a class="external-link" href="https://www.gbif.org/" target="_blank">Global Biodiversity Information Facility</a> (GBIF), faz no <strong>dia 6 de março, às 10h</strong>, a conferência <i>Informações sobre Biodiversidade sem Fronteiras: Aproveitando o Big Data para o Desenvolvimento Sustentável.</i></p>
<p>O evento é gratuito e aberto ao público, mas requer <a class="external-link" href="https://docs.google.com/forms/d/e/1FAIpQLSccwkk4jmano-icDn1hEghiPotyFNvHJurS_J551sVZVhHZtQ/viewform" target="_blank">inscrição prévia online</a> para acompanhá-lo presencialmente, na Sala Alfredo Bosi do IEA. Para assistir à transmissão <a href="https://www.iea.usp.br/aovivo" class="external-link">ao vivo</a> pela internet não é preciso se inscrever.</p>
<p><strong>Acesso aberto</strong></p>
<p>Financiada por universidades, agências e outros órgãos governamentais de 31 países, a GIBF é uma infraestrutura internacional de rede e pesquisa destinada a fornecer a qualquer pessoa, em qualquer lugar, acesso aberto a dados sobre todos os tipos de vida na Terra.</p>
<div id="parent-fieldname-text-98003deb0e5e44c4aab52fcf3ed70439">
<p>Hirsch falará sobre a estrutura e ferramentas da GBIF e sobre os dados que ela gerencia. Também tratará da relevância dos dados agregados da biodiversidade aberta para pesquisas relacionadas às mudanças climáticas (por exemplo, adaptação às mudanças projetadas na distribuição de espécies), segurança alimentar (por exemplo, distribuição de parentes selvagens das culturas) e saúde humana (por exemplo, modelagem do risco de doenças com base em vetores de doenças de insetos e reservatórios de vírus em mamíferos).</p>
<p>O evento é organizado pelo <a href="https://www.iea.usp.br/pesquisa/grupos-de-estudo/saude-planetaria-uma-abordagem-transdisciplinar-para-a-sustentabilidade-do-planeta-integrada-a-saude-humana/integrantes" class="external-link">Grupo de Estudos Saúde Planetária: Uma Abordagem Transdisciplinar para a Sustentabilidade do Planeta Integrada à Saúde Humana</a>. A coordenação será de  <a href="https://www.iea.usp.br/pessoas/pasta-pessoaa/antonio-mauro-saraiva" class="external-link">Antonio Mauro Saraiva</a>, coordenador do grupo.</p>
<p><i><i> </i></i></p>
<hr />
</div>
<div id="parent-fieldname-text-98003deb0e5e44c4aab52fcf3ed70439"><i><i> <strong>Informações sobre Biodiversidade sem Fronteiras:<br /></strong></i></i><i><i><strong>Aproveitando o Big Data para o Desenvolvimento Sustentável</strong><br /></i></i><i>6 de março, 10h<br /></i><i>Local: Sala Alfredo Bosi, IEA, Rua da Praça do Relógio, 109, térreo, Cidade Universitária, São Paulo<br /></i><i>Evento gratuito e aberto ao público, mediante </i><i><a class="external-link" href="https://docs.google.com/forms/d/e/1FAIpQLSccwkk4jmano-icDn1hEghiPotyFNvHJurS_J551sVZVhHZtQ/viewform" target="_blank">inscrição prévia online<br /></a></i><i>Haverá <a href="https://www.iea.usp.br/aovivo" class="external-link">transmissão ao vivo</a> pela internet (sem necessidade de inscrição para assistir)<br /></i><i>Mais informações: com Sandra Sedini (<a class="mail-link" href="mailto:sedini@usp.br">sedini@usp.br</a>), telefone (11) 3091-1678<br /></i><i><a href="https://www.iea.usp.br/eventos/biodiversidade-sem-fronteiras" class="external-link">Página do evento</a></i></div>
<div></div>
<div style="text-align: right; "><span class="discreet">Foto: <a class="external-link" href="https://www.gbif.org/occurrence/2445092348">benanna/iNaturalist.org</a></span></div>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mauro Bellesa</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Evento</dc:subject>
    
    
      <dc:subject>Big Data</dc:subject>
    
    
      <dc:subject>Meio Ambiente</dc:subject>
    
    
      <dc:subject>Saúde Planetária: Uma Abordagem Transdisciplinar para a Sustentabilidade do Planeta Integrada à Saúde Humana</dc:subject>
    
    
      <dc:subject>Biologia</dc:subject>
    
    
      <dc:subject>Biodiversidade</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    <dc:date>2020-02-27T15:57:23Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>




</rdf:RDF>
