<?xml version="1.0" encoding="utf-8" ?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:syn="http://purl.org/rss/1.0/modules/syndication/" xmlns="http://purl.org/rss/1.0/">




    



<channel rdf:about="https://www.iea.usp.br/search_rss">
  <title>Instituto de Estudos Avançados da Universidade de São Paulo</title>
  <link>https://www.iea.usp.br</link>

  <description>
    
            These are the search results for the query, showing results 31 to 45.
        
  </description>

  

  

  <image rdf:resource="https://www.iea.usp.br/logo.png" />

  <items>
    <rdf:Seq>
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/seminario-direitos-para-mulheres" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/desafios-regulatorios-da-inteligencia-artificial" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/justica-criminal" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/seminario-debate-direitos-dos-animais" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/saude-planetaria-na-america-latina" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/publicacoes/textos/revisao-constitucional" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/responsabilidade-civil-e-inteligencia-artificial-debate-na-uniao-europeia" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/reincidencia-criminal-feminina-e-tema-de-evento-on-line" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/regulamentacao-estabelecida-pelo-tse-nao-e-garantia-de-protecao-total-contra-desinformacao-gerada-por-ia-diz-especialista" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/regulacao-da-inteligencia-artificial-no-brasil-sera-tema-de-serie-de-eventos" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/regulacao-da-inteligencia-artificial-na-uniao-europeia" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/regulacao-da-inteligencia-artificial-e-impactos-na-economia-do-brasil" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/noticias/reforma-administrativa-traz-discussao-sobre-papel-do-estado" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/reflexoes-sobre-o-design-de-tecnologias-de-ia-para-uso-cientifico" />
      
      
        <rdf:li rdf:resource="https://www.iea.usp.br/eventos/reescrita-de-decisoes-judiciais-em-perspectivas-feministas" />
      
    </rdf:Seq>
  </items>

</channel>


  <item rdf:about="https://www.iea.usp.br/eventos/seminario-direitos-para-mulheres">
    <title>Seminário Direitos para Mulheres: Lançamento da Assessoria Jurídica da Clínica de Direitos Humanos das Mulheres – USP (CDHM-USP)</title>
    <link>https://www.iea.usp.br/eventos/seminario-direitos-para-mulheres</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p>A Clínica de Direitos Humanos das Mulheres da USP (CDHM – USP) é um projeto multiunidades que visa contribuir para a consolidação de conhecimentos sobre direitos das mulheres, acesso à justiça e <i>advocacy</i>. A CDHM criou a Assessoria Jurídica para sanar dúvidas e auxiliar no encaminhamento para os locais certos, e do modo adequado, das demandas de mulheres de baixa renda. Nesse evento, serão discutidas estratégias e funcionamento de assessorias jurídicas populares e, também, como fazer <i>advocacy</i> na área dos direitos humanos no Brasil e no exterior.</p>
<h3>Transmissão</h3>
<p>Acompanhe o evento on-line em <a class="external-link" href="https://bit.ly/CDHM-USP.">bit.ly/CDHM-USP.</a></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Cláudia Regina</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Grupo de Pesquisa nPeriferias</dc:subject>
    
    
      <dc:subject>Mulheres</dc:subject>
    
    <dc:date>2021-08-09T12:45:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/desafios-regulatorios-da-inteligencia-artificial">
    <title>Seminário debateu diretrizes que subsidiaram projeto de lei sobre inteligência artificial</title>
    <link>https://www.iea.usp.br/noticias/desafios-regulatorios-da-inteligencia-artificial</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><dl class="image-right captioned" style="width:550px;">
<dt><img src="https://www.iea.usp.br/imagens/mesa-do-seminario-desafios-regulatorios-da-inteligencia-artificial-24-4-23/image" alt="Mesa do seminário 'Desafios Regulatórios da Inteligência Artificial' - 24/4/23" title="Mesa do seminário 'Desafios Regulatórios da Inteligência Artificial' - 24/4/23" height="312" width="550" /></dt>
 <dd class="image-caption" style="width:550px;">A partir da esquerda, quatro dos expositores do seminário: o advogado Luiz Fernando Martins Castro, o professor Virgílio Almeida, o senador Eduardo Gomes e o advogado Maximiliano Martinhão; os outros expositores foram a professora Laura Schertel Mendes (por videoconferência) e o advogado Fabrício da Mota Alves</dd>
</dl></p>
<p>O presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou no dia 3 de maio o <a href="https://www25.senado.leg.br/web/atividade/materias/-/materia/157233">Projeto de Lei 2.338/23</a>, que dispõe sobre a regulação do desenvolvimento e uso da inteligência artificial (IA). A elaboração da proposta foi subsidiada por relatório de comissão de juristas especialmente instituída em fevereiro de 2022 para analisar os aspectos referentes ao estabelecimento de princípios, regras, diretrizes e fundamentos para a regulação da IA no Brasil</p>
<p>No dia 24 de abril, diante da iminente formalização do projeto de lei, a <a href="https://www.iea.usp.br/pesquisa/catedras-e-convenios/catedra-oscar-sala/catedra-oscar-sala">Cátedra Oscar Sala</a> realizou o seminário Desafios Regulatórios da Inteligência Artificial, com a participação de integrantes da comissão de juristas, pesquisadores e representantes do Executivo e do Legislativo.</p>
<table class="tabela-esquerda-200-borda">
<tbody>
<tr>
<td>
<h3>Relacionado</h3>
<p>Seminário <strong>Desafios Regulatórios da Inteligência Artificial</strong><br />24/5/2023</p>
<ul>
<li><a href="https://www.iea.usp.br/midiateca/video/videos-2023/desafios-regulatorios-da-inteligencia-artificial" class="external-link">Vídeo</a> | <a href="https://www.iea.usp.br/midiateca/foto/2023/desafios-regulatorios-da-inteligencia-artificial-24-04-2023" class="external-link">Fotos</a></li>
</ul>
<p><strong> </strong></p>
<hr noshade="noshade" size="2" width="100%" />
<p><strong><br />Outros eventos</strong></p>
<p>Seminário <strong>Regulação da IA no Brasil: Estamos em um Bom Caminho?</strong><br />25/4/2023</p>
<ul>
<li><a href="https://www.iea.usp.br/midiateca/video/videos-2023/regulacao-da-ia-no-brasil-estamos-em-um-bom-caminho-1" class="external-link">Vídeo</a></li>
</ul>
<hr />
<p> </p>
<p>Seminário <strong>ChatGPT: Potencial, Limites e Implicações para a Universidade</strong><br />21/3/2023</p>
<ul>
<li><a href="https://www.iea.usp.br/midiateca/video/videos-2023/chatgpt-potencial-limites-e-implicacoes-para-a-universidade-parte-1-de-2" class="external-link">Vídeo 1</a> - <a href="https://www.iea.usp.br/midiateca/video/videos-2023/chatgpt-potencial-limites-e-implicacoes-para-a-universidade-parte-2-de-2" class="external-link">Vídeo 2</a> | <a href="https://www.iea.usp.br/midiateca/foto/2023/chatgpt-potencial-limites-e-implicacoes-para-a-universidade-21-03-2023" class="external-link">Fotos</a></li>
</ul>
</td>
</tr>
</tbody>
</table>
<p>Os expositores foram o cientista da computação <a href="https://www.iea.usp.br/pessoas/pasta-pessoav/virgilio-almeida">Virgílio Almeida</a>, titular da cátedra e professor da UFMG, <a href="https://www.iea.usp.br/pessoas/pasta-pessoal/laura-schertel-mendes">Laura Schertel Mendes</a>, professora da UnB e professora visitante da Universidade Goethe de Frankfurt, Alemanha, <a href="https://www.iea.usp.br/pessoas/pasta-pessoam/maximiliano-martinhao">Maximiliano Martinhão</a>, secretário de Telecomunicações do Ministério das Comunicações, o advogado <a href="https://www.iea.usp.br/pessoas/pasta-pessoaf/fabricio-da-mota-alves">Fabricio da Mota Alves</a>, do Serur Advogados, e o senador <a href="https://www.iea.usp.br/pessoas/pasta-pessoae/eduardo-gomes">Eduardo Gomes</a> (PL-TO). A moderação foi do advogado <a href="https://www.iea.usp.br/pessoas/pasta-pessoal/luiz-fernando-martins-castro">Luiz Fernando Martins Castro</a>, coordenador-adjunto da Cátedra Oscar Sala.</p>
<p>A Cátedra Oscar Sala é fruto de convênio entre a USP e o <a href="https://www.cgi.br/" target="_blank">Comitê Gestor da Internet no Brasil (CGI.br)</a> operacionalizado pelo IEA e pelo <a href="https://www.nic.br/" target="_blank">Núcleo de Informação e Coordenação do Ponto BR (NIC.br)</a>, braço executivo do CGI.br. No seminário, Martinhão falou sobre iniciativas em apoio à pesquisa em IA apoiadas pelo CGI.br.</p>
<p><strong>Princípios éticos</strong></p>
<p>Na abertura do encontor, Virgílio Almeida disse que a percepção geral da capacidade dos algoritmos de influenciar aspectos relevantes da vida de todos, e mesmo de atentar contra direitos fundamentais, resultou na tomada de consciência de que é preciso adotar princípios éticos em relação à IA e estabelecer limites para seu emprego.</p>
<p>Vários países, afirmou, deram início a discussões acadêmicas, técnicas e legislativas para “identificar a melhor forma de enfrentar a questão, propondo modelos regulatórios que preservem direitos fundamentais, mas que não inibam o desenvolvimento tecnológico e econômico desejado com o amplo uso da IA”.</p>
<p>Ele destacou a perplexidade de setores da sociedade ao vislumbrar os possíveis impactos da artificial generativa, cujo exemplo de maior repercussão na atualidade é o modelo de linguagem ChatGPT, desenvolvido pela OpenAI, aberto ao público em novembro.</p>
<p>Almeida enfatizou que a legislação sobre propriedade intelectual precisa ser observada no uso de novas ferramentas de IA, e “os advogados são essenciais nessa discussão”. Mas há também questões éticas, tecnológicas e sociais, cujo debate precisa contar com a participação das comunidades que serão impactadas, tecnólogos, eticistas, acadêmicos interdisciplinares e outros especialistas, completou</p>
<p>Ele citou algumas das dificuldades para a análise de possíveis impactos dos sistemas de IA. É o caso dos mecanismos de explicabilidade das decisões tomadas por eles, que apresentam desafios tecnológicos ainda não resolvidos e exigem a participação de uma comunidade maior na sua resolução. Também não está especificado claramente o que pode ser feito em relação à transparência dos algoritmos, afirmou. Segundo Almeida, os procedimentos de estimativa de risco também exigem formulação e regulação.</p>
<p><strong>Pilares</strong></p>
<p>Assim como outros expositores, ele concentrou sua exposição nas propostas presentes no relatório da comissão de juristas que assessorou a Presidência do Senado. De acordo com Almeida, a proposta baseia-se em três pilares:</p>
<ul>
<li>garantia de um rol de direitos às pessoas afetadas pelos sistemas de IA;</li>
<li>gradação do nível de riscos impostos pelos esses sistemas;</li>
<li>estabelecimento de medidas de governança aplicáveis às empresas que forneçam ou operem sistemas de IA.</li>
</ul>
<p>Almeida vê várias oportunidades na disponibilidade pública de ferramentas como o ChatGPT. Uma delas é o fato de que haverá cada vez mais necessidade de o ser humano atuar com robôs: “Ao criar um documento ou um vídeo, as pessoas vão interagir não com um ser humano, mas sim com uma máquina.”</p>
<p>A preocupação maior, disse, é a ampliação do alcance da desinformação e a sofisticação na sua produção, e como isso vai alterar o cenário da sociedade. Outra preocupação relevante é o impacto dessas tecnologias no emprego. “O Brasil tem 1,5 milhões de atendentes de telemarketing, que são majoritariamente mulheres em seu primeiro emprego. Ferramentas como o ChatGPT poderão fazer o trabalho delas a um custo muito baixo”, afirmou.</p>
<p>Diferentemente dos algoritmos utilizados por grandes provedores como Google, Facebook e Amazon, sistemas generativos como o ChatGPT não são construídos para um contexto ou condições de uso específicos e sua abertura e facilidade de controle permitem uma escala de uso sem precedentes. Diante disso, “o enfoque de regulação orientada a risco pode não se aplicar”, disse.</p>
<p>Essas características desafiam a abordagem por risco em pelo menos três pontos, de acordo com ele:</p>
<ul>
<li>a não definição sobre a viabilidade de classificar sistemas de IA generativos como de alto risco ou de sem risco;</li>
<li>a imprevisibilidade de riscos futuros;</li>
<li>as preocupações em torno dos arranjos privados sobre riscos, arranjos realizados entre o provedor e os usuários (“Esse contrato vai ser um objeto-chave nas discussões”).</li>
</ul>
<p><dl class="image-left captioned" style="width:300px;">
<dt><img src="https://www.iea.usp.br/imagens/virgilio-almeida-24-4-23/image" alt="Virgilio Almeida - 24/4/23" title="Virgilio Almeida - 24/4/23" height="330" width="300" /></dt>
 <dd class="image-caption" style="width:300px;">Vírgílio Almeida: ‘’É preciso propor modelos regulatórios que preservem direitos fundamentais, mas que não inibam o desenvolvimento tecnológico e econômico’’</dd>
</dl></p>
<p><strong>Adoção de incentivos</strong></p>
<p>Para ele, o ponto central é incentivar que desde o início de sua concepção essas ferramentas considerem riscos e impactos, porque serão usadas de várias maneiras. “É necessário então considerar a adoção de incentivos, para incentivar outro tipo de comportamento”, disse.</p>
<p>“Uma das consequências do carácter geral dos modelos de IA generativa é que a finalidade pretendida e as condições de uso são definidas na relação contratual entre quem o desenvolveu e o usuário. Mas hoje em dia isso é vago e não está previsto na proposta de lei.”</p>
<p>Nas suas conclusões, Almeida enfatizou a necessidade de ampliação do debate sobre a regulação da IA no Brasil, envolvendo diferentes setores da sociedade em arranjos multissetoriais: governo, setor privado (fornecedores e usuários), sociedade civil, academia (ciência e tecnologia) e outros agentes.</p>
<p>É preciso também, disse, avaliar as possíveis relações entre a proposta de regulação da IA e a proposta da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet (Projeto de Lei 2.360/20), em tramitação no Congresso Nacional. “Afinal, os algoritmos de moderação, que fazem parte da proposta dessa lei, vão ser afetados pelas questões relacionadas com a regulação da IA. E novos algoritmos vão surgir para tentar identificar textos, vídeos e outras coisas geradas por IA”.</p>
<p>Segundo Almeida, outro ponto a ser analisado, é o impacto de sistemas como o ChatGPT na difusão de desinformação e na moderação de conteúdo. “As discussões sobre essa questão não vão ocorrer de forma estanques. Em algum momento terão de ser incorporadas à discussão da IA generativa.”</p>
<p><strong>Relatório</strong></p>
<p>Coube a <a href="https://www.iea.usp.br/pessoas/pasta-pessoal/laura-schertel-mendes">Laura Schertel Mendes</a> apresentar uma síntese do <a href="https://legis.senado.leg.br/sdleg-getter/documento/download/777129a2-e659-4053-bf2e-e4b53edc3a04">relatório</a> produzido pela comissão de juristas para subsidiar a elaboração do PL 2.338/23. A comissão contou com 18 membros e foi presidida pelo ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça (STJ). Ela foi a relatora do documento, que possui 909 páginas.</p>
<p>“Foram dez meses de trabalho intenso e com todas as decisões tomados por unanimidade”, afirmou Mendes. A comissão funcionou entre fevereiro e dezembro de 2022, com a participação de mais de 60 especialistas em 11 audiências públicas e uma conferência internacional. Mais de 100 contribuições escritas foram entregues à comissão.</p>
<p>Ao justificar a importância de um amplo debate sobre a IA, ela afirmou que “os sistemas não são tão inteligentes como se espera e não são tão artificiais como se imagina. Eles necessitam de muitos recursos materiais, energia e intervenção do ser humano desde o começo, na escolha das bases de dados, na definição de tags, na interpretação de resultados, do input ao output, passando pelo modelo”.</p>
<p>Em relação aos desafios no desenvolvimento da IA, ela fez referência a dois aspectos mencionados no livro “Fairness and Machine Learning” (<a href="https://fairmlbook.org/">https://fairmlbook.org</a>), de 2019, escrito por Solon Barocas, Moritz Hardt e Arvind Narayanan.</p>
<p><strong>Exemplos e evidências</strong></p>
<p>O primeiro aspecto é quanto ao uso de exemplos: “Os modelos aprendem por meio deles, assim, a primeira grande questão é que precisamos alimentá-los com bons exemplos. Além disso, é preciso ter uma quantidade de exemplos grande o suficiente para atingir o máximo de padrões, que precisam ser diversificados, mostrando os dados corretos em suas diferentes formas de aparição”.</p>
<p>O segundo aspecto referido no livro citado por Mendes é que a tomada de decisão é baseada em evidências e tão confiável quanto as evidências em que ela se baseia. Então, “precisamos de uma alta qualidade de exemplos diversos, para que não tenhamos uma narrativa única do mundo ou apenas do Norte global”.</p>
<p>“Apesar de baseados em evidências, isso não significa que os exemplos levarão a decisões precisas, confiáveis ou justas. É preciso fazer a regulação desde o início, desde a criação do modelo, da coleta dos dados e exemplos até o momento da aplicação do modelo.” O objetivo deve ser propiciar correção, justiça, não discriminação, transparência e credibilidade, disse.</p>
<p>Mendes comentou a carta aberta “<a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/">Pause the Giant AI Experiments</a>” (interrompam os experimentos de IA de grande porte), divulgada pelo <a class="external-link" href="https://futureoflife.org/">Instituto Futuro da Vida</a> em 22 de abril e já com mais de 27 mil assinaturas, entre as quais as de empresários do mundo tecnológico, pesquisadores de IA e personalidades da cultura, como Elon Musk (dono do Twitter e outras empresas e ex-integrante da OpenAI), Yoshua Bengio (cientista da computação vencedor do Prêmio Turing), Steve Wozniak (cofundador da Apple) e Yuval Noah Harari (autor de “Homo Sapiens”).  A carta insta os laboratórios de IA a paralisarem imediatamente e por ao menos seis meses o treinamento de sistemas de IA mais potentes do que o GPT-4, versão atual do sistema generativo da OpenAI.</p>
<p><strong>Riscos triviais</strong></p>
<p>Segundo ela, mais do que os riscos que sempre abundaram na ficção científica, com robôs controlando o mundo, por exemplo, “hoje deve-se pensar em riscos mais triviais, que podem sim afetar a Humanidade”. É preciso garantir que esses sistemas “funcionem de acordo com nossas expectativas, produzindo dados corretos e de forma segura, como toda inovação responsável”.</p>
<p>O que a proposta de regulação pleiteia são padrões mínimos de segurança, qualidade de dados, transparência e garantia dos direitos fundamentais previstos na Constituição Federal, disse. “Sabemos que os sistemas falham, então, se falham, precisam de intervenção humana. Embora os sistemas sejam muito complexos, os pleitos da proposta são extremamente simples.”</p>
<p>Apesar de várias normas, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, o fato é que as leis atuais ainda não dão conta dos desafios colocados pela IA, afirmou. “A LGPD aplica-se apenas a dados pessoais e não seria possível aplicá-la, pois os sistemas generativos podem ser alimentados por outros dados, além dos pessoais.”</p>
<p><strong>Pilares da proposta</strong></p>
<p>Os dois principais objetivos da proposta são, segundo Mendes, estabelecer e garantir direitos para todos os afetados e, ao mesmo tempo, estabelecer um sistema de governança com regras claras e padrões mínimos, garantindo a segurança jurídica para que os sistemas de IA possam se desenvolver. A proposta possui cinco pilares:</p>
<ul>
<li>Princípios</li>
<li>Direitos</li>
<li>Categorização de risco</li>
<li>Medidas de governança</li>
<li>Supervisão e responsabilização</li>
</ul>
<p>Em relação aos princípios, há inclusive aspectos baseados em documentos internacionais, como os de autoria da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) e da Unesco.</p>
<p>Eles incluem: não discriminação; transparência e explicabilidade; confiabilidade dos sistemas da IA; devido processo legal e contestabilidade; participação humana no ciclo de IA e supervisão humana eficaz; responsabilidade e atribuição de responsabilidade a uma pessoa, jurídica ou natural; prevenção e mitigação de riscos sistêmicos.</p>
<p>Uma grande diferença da proposta brasileira, disse, é o capítulo sobre direitos. “Seria impossível pensar em legislação de IA sem atribuir direitos às pessoas afetadas e retirando o Judiciário de sistema de aplicação da lei, que é o que acontece quando não há direitos estabelecidos.”</p>
<p>Entre os direitos definidos na proposta estão: o de receber informações prévias sobre interações com sistemas de IA; direito à explicação; direito de impugnar decisões que produzam efeitos jurídicos ou impactem significativamente os interesses da parte afetada; direito à determinação e participação humana nas decisões de IA, levando em consideração o contexto e o estado da arte do desenvolvimento tecnológica; direito à não discriminação; e direito à privacidade e proteção de dados pessoais.</p>
<p>Quanto à categorização de risco, ela remeteu às preocupações manifestadas por Virgílio de Almeida, no início do seminário.</p>
<p>Mendes informou que o art. 13 do anteprojeto de lei diz que, antes de ser colocado no mercado, todo sistema precisa passar por uma avaliação preliminar. “Essa não é a avaliação de risco. A avaliação de risco só vai ser necessária depois da avaliação preliminar e se o sistema for considerado de alto risco.”</p>
<p>Em relação às medidas de segurança, Mendes explicou que elas tratam de procedimentos a serem cumpridos, em especial pelos provedores de sistemas de alto risco, “embora também haja algumas medidas que se aplicam de forma horizontal a qualquer sistema”.</p>
<p><strong>Medidas de governança</strong></p>
<p>O quarto pilar da proposta são as medidas de governança aplicáveis a sistemas de alto risco. São elas, segundo Mendes:</p>
<ul>
<li>documentação;</li>
<li>utilização de ferramentas de registro automático do funcionamento do sistema, de forma a permitir a avaliação da sua precisão e robustez;</li>
<li>realização de testes para avaliar os níveis adequados de confiabilidade, de acordo com o setor e o tipo de aplicação do sistema, incluindo testes de robustez, exatidão, precisão e abrangência;</li>
<li>medidas de gerenciamento de dados para mitigar e prevenir vieses discriminatórios;</li>
<li>adoção de medidas técnicas para possibilitar a explicabilidade.</li>
</ul>
<p>Sobre a supervisão e responsabilização, ela ressaltou que todo sistema exige sanções previstas num arcabouço de supervisão. Destacou que a comissão propôs nas audiências públicas a criação de um órgão de supervisão, que funcionaria sobretudo como um aparato de coordenação.</p>
<p>“Sabemos que as agências reguladoras exercem um papel importante nesse papel, caso da Anatel e da Anel, entre outras. No entanto, a única forma de garantir direitos, como padrões e interpretação harmônica da legislação, seria garantir a existência de um órgão que coordenasse toda a aplicação da lei.”</p>
<p>A comissão também previu um artigo aplicável a sistemas generativos como o ChatGPT, que são definidos como de propósito geral. São considerados desse tipo aqueles utilizados nas seguintes situações:</p>
<ul>
<li>aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e eletricidade;</li>
<li>educação e formação profissional, incluindo sistemas de determinação de acesso a instituições de ensino e de formação profissional ou para avaliação e monitoramento de estudantes;</li>
<li>área de emprego, gestão de trabalhadores e acesso ao emprego por conta própria, recrutamento, avaliação de candidatos e de desempenho, promoções etc.;</li>
<li>acesso a serviços públicos essenciais, incluindo elegibilidade de pessoas a serviços de assistência e de seguridade;</li>
<li>avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito;</li>
<li>envio ou estabelecimento de prioridade para serviços de resposta a emergências, incluindo bombeiros e assistência médica;</li>
<li>administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na investigação dos fatos e na aplicação da lei.</li>
</ul>
<p><img src="https://www.iea.usp.br/imagens/eduardo-gomes-24-4-23" alt="Eduardo Gomes - 24/4/23" class="image-left" title="Eduardo Gomes - 24/4/23" /></p>
<p><strong>Impacto eleitoral</strong></p>
<p>Como exemplo de preocupação com possíveis efeitos negativos do uso de sistema de IA, o senador Eduardo Gomes, umas das lideranças na discussão sobre a temática no Congresso Nacional, manifestou que, sem o devido controle, uma ferramenta desse tipo “pode interferir fortemente num resultado eleitoral”.</p>
<p>“Um candidato que tem uma certa base eleitoral e uma certa bandeira política pode ter sua proposta de candidatura atacada 48 horas antes da eleição. Não haverá nada no mundo que o livre da derrota.”</p>
<p>Para ele, “é muito ampla a possibilidade de benefícios ou de estragos - no caso de falta de controle - que a IA pode trazer”.</p>
<p>Quanto ao encaminhamento da discussão e avaliação da regulação da IA no Congresso Nacional, disse que o Legislativo não pode errar, ainda que trabalhe numa velocidade diferente da de outros fóruns. “A coisa mais difícil no Congresso é fazer uso da simplicidade para formular legislação. O Congresso avança muito quando aprova bons projetos, mas avança muito mais quando deixa de aprovar projetos ruins.”</p>
<p>Para ele, a lei sobre IA terá de ter "uma base muito forte, ser muito simples e ter a possibilidade de regulamentação periódica ou alguma coisa que fortaleça a autoridade ou até a instrução do que estamos discutindo, que é a utilização de dados confiáveis e não confiáveis”.</p>
<p>Gomes destacou a ligação do tema com outras questões legislativas, como o Projeto de Lei sobre fake news (PL 2.630/20). Adiantou que o Senado analisa a criação de uma Comissão sobre Comunicação e Direito Digital, que deverá analisar a proposta de regulação da IA. “O Congresso precisa se debruçar sobre o tema, pois não está evidente a estrutura de fiscalização e regulação” exigida pela área.</p>
<p>O trabalho da comissão de juristas foi destacado por Gomes, que frisou a necessidade de que a proposta seja enriquecida com contribuições de outros agentes da sociedade que têm solicitado participação, segundo o senador.</p>
<p>Maximiliano Martinhão, que além de integrante do Ministério das Comunicações é também membro do CGI.br, disse que o tema da IA nunca esteve tão presente em diferentes áreas do governo quanto na atual gestão federal, “o que denota seu impacto”.</p>
<p>Para ele, os casos de racismo, deep fake, processos de seleção discriminatórios, produção e difusão de discursos de ódio, interação inadequada com crianças e outros mal usos da IA “não permitem uma postural liberal, que deixe a tecnologia avançar para depois regulá-la quando extremamente necessário”.</p>
<p><strong>Pesquisa no Brasil</strong></p>
<p>Ao falar sobre a capacitação brasileira em IA, Martinhão citou algumas discussões promovidas pelo CGI.br. A primeira foi no Instituto Alan Turing, em Londres, Reino Unido, em 2019. “Foi gratificante saber que o pessoal do instituto reconhece que a pesquisa brasileira na área está no nível mundial em termos de competência e capacidade”, disse. Existe no mundo uma corrida para liderar aspectos cruciais da IA, o que trará “vantagens comparativas para os líderes e impacto na soberania de muitos países”, afirmou.</p>
<p>Ele comentou duas outras parcerias do CGI.br. Uma delas foi com a USP e a Unesco num evento regional sobre IA, em 2019. Outra foi estabelecida com a Fapesp e o Ministério de Ciência, Tecnologia e Inovação (MCTI) e possibilitou a criação de seis Centros de Tecnologia Aplicada em Inteligência Artificial.</p>
<p>Com previsão de 5 anos de atuação, os centros foram contratados com investimento total (público e privado) no valor de R$ 20 milhões. Eles estão situados no campus da USP em São Carlos (saúde, educação, meio ambiente e cidades inteligentes), na Unicamp (diagnóstico médico), no Instituto de Pesquisa Tecnológica do Estado de São Paulo (indústria), na UFMG (saúde e epidemias), no Senai Cemat (indústria 4.0) e na UFC (internet das coisas em prevenção e tratamento de doenças).</p>
<p>Ele lembrou que desde de 2021 o governo federal conta com a <a href="https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-documento_referencia_4-979_2021.pdf">Estratégia Brasil em Inteligência Artificial (Ebia),</a> cujo objetivo é “potencializar o desenvolvimento e a utilização da tecnologia com vistas a promover o avanço científico e solucionar problemas concretos, identificando áreas prioritárias nas quais há maior potencial de obtenção de benefícios”, de acordo com a apresentação do documento. O mais interessante, disse Martinhão, é que o documento traz eixos transversais, como as questões de governança, necessidade de legislação e cooperação internacional.</p>
<p>Ele frisou que a IA tem sido tratada no mundo a partir de alguns princípios. “Na OCDE, a prerrogativa é o respeito aos direitos humanos e ao Estado de Direito. Na União Europeia, recentemente, a discussão deu-se quanto a accountability e explicabilidade.” Em relação a isso, lembrou que um dos países europeus [Itália] impôs recentemente restrições ao ChatGPT por não explicitar como trata dados pessoais.</p>
<p>Martinhão também comentou a carta aberta do Instituto Futuro da Vida em defesa da moratória por seis meses no desenvolvimento de ferramentas de IA de grande porte, como o GPT-4: “A medida não parece excessiva diante de possíveis riscos. Precisamos ter uma avaliação prévia antes da continuidade dos projetos, para dimensionar quais são os riscos e consequências da implementação dessas ferramentas”.</p>
<p><img src="https://www.iea.usp.br/imagens/maximiliano-martinhao-24-4-23" alt="Maximiliano Martinhão - 24/4/23" class="image-right" title="Maximiliano Martinhão - 24/4/23" /></p>
<p><strong>Área regulatória</strong></p>
<p>Servidor de carreira Anatel, uma agência reguladora, ele afirmou que a área regulatória não existe para ser o calo do setor privado, mas sim para defender os interesses de toda a sociedade. “Por isso é preciso entender que uma tecnologia traz uma série de consequências, podendo levar ao monopólio, prejudicando a concorrência e a livre iniciativa, e considerar que o mercado nem sempre consegue se autorregular”, disse.</p>
<p>“A sociedade deve atentar para fato de que podem acontecer práticas predatórias, barreiras de entrada, aquisição de concorrentes, manipulação de algoritmos, concentração de dados em determinada organização e acentuação de desigualdades sociais”, afirmou.</p>
<p>Segundo ele, mais de 10% dos domicílios brasileiros ainda não tem acesso à internet. “O mesmo pode acontecer com a inteligência artificial, com um custo de US$ 20 por mês para desfrutar de mais recursos de uma plataforma. As pessoas pagam em média R$ 17,00 para carregar o celular pré-pago, como iriam pagar R$ 100,00 num serviço de IA?”</p>
<p>Ao final das exposições, Virgílio Almeida reforçou o alerta sobre dois pontos. O primeiro refere-se às big techs: “O que antevemos é uma concentração maior de poder, e completamente fora do Brasil. Não temos infraestrutura computacional e de dados para processamento dessas questões. Não temos uma política pública para organizar os dados brasileiros, armazenados em bancos do IBGE, do Sistema Único de Saúde e de outros organismos”.</p>
<p>O segundo ponto ressaltado por ele é a necessidade de atenção para o impacto da IA no emprego: “Não podemos caminhar numa direção que não ajude a elevar o nível de emprego e a torná-lo o mais qualificado possível”.</p>
<p style="text-align: right; "><span class="discreet">Fotos: Leonor Calasans/IEA-USP</span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mauro Bellesa</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Evento</dc:subject>
    
    
      <dc:subject>Tecnologia</dc:subject>
    
    
      <dc:subject>Ciência da Computação</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Cátedra Oscar Sala</dc:subject>
    
    
      <dc:subject>Legislação</dc:subject>
    
    
      <dc:subject>C&amp;T</dc:subject>
    
    
      <dc:subject>capa</dc:subject>
    
    
      <dc:subject>CT&amp;I</dc:subject>
    
    <dc:date>2023-05-08T14:50:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/justica-criminal">
    <title>Seminário debate pesquisa sobre impunidade e prescrição de processos penais</title>
    <link>https://www.iea.usp.br/noticias/justica-criminal</link>
    <description>No dia 10 de abril, 10h, realiza-se o seminário "Justiça Criminal, Impunidade e Prescrição", organizado pelo Grupo de Pesquisa Qualidade da Democracia, do IEA, e pelo Núcleo de Políticas Públicas (NUPPs) da USP.</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<table class="tabela-direita-400">
<tbody>
<tr>
<th><img src="https://www.iea.usp.br/imagens/justica-fachada-do-stf" alt="&quot;Justiça&quot; - Fachada do STF" class="image-inline" title="&quot;Justiça&quot; - Fachada do STF" /></th>
</tr>
</tbody>
</table>
<p>No combate aos crimes de corrupção e lavagem de dinheiro, como a impunidade se relaciona com o perfil dos atores da Polícia Federal, Ministério Público e Justiça Federal, componentes do Sistema de Integridade brasileiro? E como o desenho institucional desse sistema, considerados os seus tempos e fluxos, influencia a prescrição e as diferentes dimensões da impunidade?</p>
<p>Essas duas questões foram investigadas pela pesquisa "Justiça Criminal, Impunidade e Prescrição", realizada em 2018 pelo <a class="external-link" href="http://www.nupps.usp.br/" target="_blank">Núcleo de Pesquisa de Políticas Públicas (NUPPs)</a> da USP em parceria com a <a class="external-link" href="https://abj.org.br/" target="_blank">Associação Brasileira de Jurimetria (ABJ)</a>, atendendo a edital do Conselho Nacional de Justiça (CNJ).</p>
<p>Os resultados da pesquisa (publicados no <a class="external-link" href="http://www.cnj.jus.br/pesquisas-judiciarias/justica-pesquisa/publicacoes">site do CNJ</a>) serão debatidos no seminário <i>Justiça Criminal, Impunidade e Prescrição</i>, no <strong>dia 10 de abril, das 10 às 17h</strong>, na Sala Alfredo Bosi do IEA. Os organizadores são o <a href="https://www.iea.usp.br/pesquisa/grupos-de-pesquisa/qualidade-da-democracia" class="external-link">Grupo de Pesquisa Qualidade da Democracia</a>, do IEA, e NUPPs, com apoio da  ABJ. Para participar é preciso efetuar <a class="external-link" href="https://forms.gle/pxEetaA9xMjbZBys8">inscrição prévia</a> (não é necessário se inscrever para assistir ao seminário <a href="https://www.iea.usp.br/aovivo" class="external-link">ao vivo</a> pela internet).</p>
<p>De acordo com os organizadores, o objetivo do seminário é analisar, a partir dos resultados da pesquisa, o papel da Justiça na atual fase da experiência democrática brasileira e, na medida do possível, indicar áreas e temas que podem ser reformados com o objetivo de torná-la mais eficiente e mais compatível com os princípios democráticos de liberdade e igualdade.</p>
<p><strong>Resultados reveladores</strong></p>
<p>Os pesquisadores consideram os resultados bastante reveladores. Em relação à prescrição de crimes, a pesquisa indicou que, ao contrário do que diz o senso comum, apenas em torno de 4% - considerando-se o universo abrangido pelo levantamento - dos processos admitidos pela Justiça prescrevem.</p>
<p>Do ponto de vista dos fluxos institucionais dos processos penais, a pesquisa "revelou que instituições como o foro privilegiado têm impacto na prescrição, bem como o tempo da fase de instrução dos processos na Primeira Instância".</p>
<p>Outra dimensão importante tratada pela pesquisa foi a dos perfis dos atores do Sistema de Integridade (magistrados, procuradores, promotores e delegados das polícias judiciárias). Descobriu-se a existência de dois grupos bastante definidos de atores, segundo os pesquisadores: "Um se ocupa de uma perspectiva revisionista da Justiça, defendendo a premência de fluxos mais rápidos, como a prisão em segunda instância e métodos de investigação mais contundentes, como a condução coercitiva e a prisão preventiva; o outro é formado por atores que se demonstram mais inclinados a perceber a aplicação da Justiça a partir de uma lente social, supondo que sem igualdade social a aplicação da Justiça torna-se desigual".</p>
<p>De modo geral, afirmam os responsáveis pela pesquisa, os resultados contribuem para melhor compreensão da Justiça no Brasil a partir da análise do cruzamento dos perfis de atuação de atores do Judiciário com suas percepções de mundo, "mostrando que há uma relação entre a prescrição e percepções de mundo específicas".</p>
<p>Exemplo disso é o fato de atores vinculados a uma determinada perspectiva de mundo "terem apresentado uma prática prescritiva levemente mais elevada e, paradoxalmente, mais punitiva, uma vez que condenaram mais", ao passo que magistrados de outro grupo "demonstraram um comportamento judicial menos prescritivo, mas arquivaram mais processos, bem como absolveram mais os réus".</p>
<div>
<h3><a name="programacao"></a>Programação</h3>
<p><strong>10 de abril - Sala Alfredo Bosi</strong></p>
</div>
<table class="invisible">
<tbody>
<tr>
<th>10h</th>
<td><strong>Apresentação/Conceitos Chaves: Corrupção, Impunidade e Prescrição</strong><br /><a href="https://www.iea.usp.br/pessoas/pasta-pessoaj/jose-alvaro-moises" class="external-link">José Álvaro Moisés</a> (IEA e NUPPs)</td>
</tr>
<tr>
<td><strong>10h15</strong></td>
<td><strong>Papel dos Tempos e Fluxos Processuais</strong><br /><a href="https://www.iea.usp.br/pessoas/pasta-pessoaf/fernando-correa" class="external-link">Fernando Correa</a> (ABJ), <a href="https://www.iea.usp.br/pessoas/pasta-pessoaj/julio-trecenti" class="external-link">Julio Trecenti</a> (ABJ) e <a href="https://www.iea.usp.br/pessoas/pasta-pessoag/guilherme-werner" class="external-link">Guilherme Werner</a> (NUPPs)</td>
</tr>
<tr>
<td><strong>10h45</strong></td>
<td><strong>Percepção dos Atores: Tipos Ideais</strong><br /><a href="https://www.iea.usp.br/pessoas/pasta-pessoaj/jose-verissimo-romao-netto" class="external-link">José Veríssimo</a> e <a href="https://www.iea.usp.br/pessoas/pasta-pessoae/emmanuel-de-oliveira" class="external-link">Emmanuel de Oliveira</a> (NUPPs)</td>
</tr>
<tr>
<td><strong>11h15</strong></td>
<td><i>Intervalo</i></td>
</tr>
<tr>
<td><strong>11h30</strong></td>
<td><strong>Principais Conclusões da Pesquisa</strong><br />Equipe NUPPs e ABJ</td>
</tr>
<tr>
<td><strong>12h</strong></td>
<td><strong>Debate</strong></td>
</tr>
<tr>
<td><strong>12h30</strong></td>
<td><i>Intervalo</i></td>
</tr>
<tr>
<td><strong>14h</strong></td>
<td>
<p><strong>Comentários</strong><br /><a href="https://www.iea.usp.br/pessoas/pasta-pessoam/maria-tereza-aina-sadek" class="external-link">Maria Teresa Sadek</a> (NUPPs), <a href="https://www.iea.usp.br/pessoas/pasta-pessoar/rogerio-arantes" class="external-link">Rogério Arantes</a> (DCP-FFLCH-USP) e <a href="https://www.iea.usp.br/pessoas/pasta-pessoab/bruno-speck" class="external-link">Bruno Speck</a> (DCP-FFLCH-USP)</p>
</td>
</tr>
<tr>
<td><strong>15h</strong></td>
<td><strong>Debate</strong></td>
</tr>
<tr>
<td><strong>16h30</strong></td>
<td><strong>Encerramento</strong></td>
</tr>
</tbody>
</table>
<p class="mceContentBody documentContent" id="content"><i><i> <br /> </i></i></p>
<hr />
<p><i><i> <strong> Justiça Criminal, Impunidade e Prescrição </strong></i><br />10 de abril, 9h<br /></i><i>Sala Alfredo Bosi, IEA, rua da Praça do Relógio, 109, Cidade Universitária, SP<br /></i><i>Evento público, gratuito e com <a class="external-link" href="https://forms.gle/pxEetaA9xMjbZBys8">inscrição prévia</a>; para assistir <a href="https://www.iea.usp.br/aovivo" class="external-link">ao vivo</a> pela internet não é preciso se inscrever<br /></i><i><i>Mais informações: com Cláudia Regina Pereira (<a class="mail-link" href="mailto:clauregi@usp.br">clauregi@usp.br</a>), telefone (11) 3091-1686<br /></i></i><i><i><a href="https://www.iea.usp.br/eventos/seminario-justica-criminal" class="external-link">Página do evento</a></i></i></p>
<p style="text-align: right; "><span class="discreet">Valter Campanato/ABr</span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mauro Bellesa</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Criminologia</dc:subject>
    
    
      <dc:subject>Grupo de Pesquisa Qualidade da Democracia</dc:subject>
    
    
      <dc:subject>Evento</dc:subject>
    
    
      <dc:subject>Justiça</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    <dc:date>2019-03-22T14:40:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/seminario-debate-direitos-dos-animais">
    <title>Seminário debate os direitos dos animais </title>
    <link>https://www.iea.usp.br/noticias/seminario-debate-direitos-dos-animais</link>
    <description>Nos dias 6 e 7 de novembro, o Laboratório de Estudos sobre a Intolerância da FFLCH-USP, com apoio do IEA, realiza o seminário  "Direitos dos Animais: Faces da Intolerância". 
 
</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p align="left"><span><strong> </strong></span></p>
<p style="text-align: justify; "><span>Nos dias 6 e 7 de novembro, o Laboratório de Estudos sobre a Intolerância da FFLCH-USP, com apoio do IEA, realiza o seminário "Direitos do</span><span>s Animais: Faces da Intolerância". O encontro terá cinco mesas-redondas (<i>leia a programação abaixo</i>) com pesquisadores de ciências humanas e biológicas da USP, Unicamp, UFBA, Unifal-MG e Umesp e representantes do Judiciário.</span></p>
<p style="text-align: justify; "><span>O seminário acontece no Auditório do Departamento de História (Av. Professor Lineu Prestes, 338, Cidade Universitária, São Paulo). A participação é gratuita e aberta a todos os interessados. </span></p>
<table class="plain">
<caption></caption> 
<tbody>
<tr>
<td align="left" colspan="2">
<div style="text-align: left; "><span><strong>PROGRAMAÇÃO</strong></span></div>
</td>
</tr>
<tr>
<td align="left" colspan="2">
<div align="left"><span><strong>6 DE NOVEMBRO</strong></span></div>
</td>
</tr>
<tr>
<td align="left" scope="col">
<div align="left"><strong><span>10h-12h</span></strong></div>
</td>
<td align="left">
<div align="left"><span><strong>História da Intolerância em Relação aos Animais</strong><br />Zilda Marcia Grícoli Iokoi (diretora do LEI-FFLCH-USP), Rodrigo Medina Zagni (doutorando do Prolam-USP) e Juliana Prado da Silva (graduanda da FFLCH-USP)<br /></span></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong>12h-14h</strong></div>
</td>
<td align="left">
<div align="left"><i><span>Intervalo</span></i></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong><span>14h-15h45</span></strong></div>
</td>
<td align="left">
<div align="left"><span><strong>Pode o Direito Eliminar a Intolerância?</strong><br />Paulo Santos de Almeida (EACH-USP), Vânia Rall Daró (advogada) e Artur Matuck (ECA-USP)</span></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong>15h45-16h</strong></div>
</td>
<td align="left">
<div align="left"><i><span>Intervalo</span></i></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong><span>16h-18h</span></strong></div>
</td>
<td align="left">
<div align="left"><span><strong>Somos Todos Primatas</strong><br />César Ades (IP-USP; diretor do IEA), Heron José de Santana Gordilho (Ministério Público do Estado da Bahia; FD-UFBA)</span></div>
</td>
</tr>
<tr>
<td align="left" colspan="2">
<div align="left"><span><strong>7 DE NOVEMBRO</strong></span></div>
<div align="left"></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong><span>10h-12h</span></strong></div>
</td>
<td align="left">
<div align="left"><span><strong>Os Animais nas Diferentes Culturas</strong><br />Renato da Silva Queiroz (FFLCH-USP), Valéria Barbosa de Magalhães (EACH-USP) e Laerte Fernando Levai (Ministério Público do Estado de São Paulo)</span></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong>12h-14h</strong></div>
</td>
<td align="left">
<div align="left"><i><span>Intervalo</span></i></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong><span>14h-15h45</span></strong></div>
</td>
<td align="left">
<div align="left"><span><strong>Ética na Ciência</strong><br />Thales Tréz (Unifal-MG), Nádia Farage (IFCH-Unicamp) e Luiz Marques (IFCH-Unicamp)</span></div>
</td>
</tr>
<tr>
<td align="left">
<div align="left"><strong>15h45-16h</strong></div>
</td>
<td align="left">
<div align="left"><i><span>Intervalo</span></i></div>
</td>
</tr>
<tr>
<td align="left"><strong><span>16h-18h</span></strong></td>
<td align="left"><span><strong>Considerações Filosóficas sobre o Uso Que Fazemos dos Animais<br /></strong>João Epifânio Regis Lima (FFCR-Umesp) e Irvênia Luiza de Santis Prada (FMVZ-USP)</span></td>
</tr>
</tbody>
</table>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Sandra Codo</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Ética</dc:subject>
    
    
      <dc:subject>Animais</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Tolerância</dc:subject>
    
    <dc:date>2008-10-15T03:00:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/eventos/saude-planetaria-na-america-latina">
    <title>Saúde Planetária na América Latina: Hora de Agir!</title>
    <link>https://www.iea.usp.br/eventos/saude-planetaria-na-america-latina</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p>Como construir pontes e redes de relacionamento em torno do conceito de Saúde Planetária para além das fronteiras geográficas e das barreiras culturais? Essa será uma das questões que vão nortear os debates do seminário “<strong>Saúde Planetária na América Latina: hora de agir!</strong>”.</p>
<p>O conceito de Saúde Planetária engloba temas como Covid-19 e crise climática; reúne, em sua essência, questões relativas à proteção à saúde e ao bem-estar humanos alinhada com a proteção aos sistemas naturais da Terra.</p>
<p>Vamos debater sobre sindemias e sistemas de saúde; relações dos ecossistemas marinhos e humanos; sistemas alimentares e muito mais. Haverá ainda o lançamento do Programa Embaixadores Brasil e do Clube dos Estudantes em Saúde Planetária, bem como apresentação dos trabalhos selecionados.</p>
<p>Este evento é preparatório do<a class="external-link" href="http://saudeplanetaria.iea.usp.br/pt/planetaryhealth2021/"> Planetary Health Annual Meeting 2021</a>, conferência internacional que será realizada pela primeira vez no Brasil, sediada na USP, entre 25 e 30 de abril de 2021.</p>
<h3>Transmissão:</h3>
<p><strong>Pelo <a class="external-link" href="https://www.youtube.com/saudeplanetaria">canal do youtube do Saúde Planetária</a>.</strong></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Sandra Sedini</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Meio Ambiente</dc:subject>
    
    
      <dc:subject>Alimentos</dc:subject>
    
    
      <dc:subject>Ecossistemas</dc:subject>
    
    
      <dc:subject>Saúde Planetária: Uma Abordagem Transdisciplinar para a Sustentabilidade do Planeta Integrada à Saúde Humana</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>América Latina</dc:subject>
    
    
      <dc:subject>Biodiversidade</dc:subject>
    
    
      <dc:subject>Grupo de Estudos Saúde Planetária</dc:subject>
    
    <dc:date>2020-12-08T18:35:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/publicacoes/textos/revisao-constitucional">
    <title>Revisão Constitucional</title>
    <link>https://www.iea.usp.br/publicacoes/textos/revisao-constitucional</link>
    <description></description>
    
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Rafael Borsanelli</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Política</dc:subject>
    
    
      <dc:subject>Congresso Nacional</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Democracia</dc:subject>
    
    
      <dc:subject>Ciência Política</dc:subject>
    
    <dc:date>2013-08-27T20:04:10Z</dc:date>
    <dc:type>Arquivo</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/eventos/responsabilidade-civil-e-inteligencia-artificial-debate-na-uniao-europeia">
    <title>Responsabilidade Civil e Inteligência Artificial: Debate na União Europeia</title>
    <link>https://www.iea.usp.br/eventos/responsabilidade-civil-e-inteligencia-artificial-debate-na-uniao-europeia</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p dir="ltr">O Grupo de Estudos Direito e Tecnologia (TechLaw) do Instituto de Estudos Avançados Polo Ribeirão Preto da USP promove no dia 23 de maio, a partir das 14h (horário de Brasília), a conferência on-line “Responsabilidade Civil e Inteligência Artificial: Debate na União Europeia”.</p>
<p dir="ltr">O evento é exclusivamente on-line e será transmitido pelo <a href="https://youtube.com/live/yc9cSMBeVQU" target="_blank">canal do IEA-RP no YouTube</a> e pelo <a href="https://www.facebook.com/usp.iearp" target="_blank">perfil do instituto no Facebook</a>. As inscrições são gratuitas e podem ser feitas <a href="https://forms.gle/aTbN9mgpVpCoW7Wz6" target="_blank">neste link</a>. Os espectadores on-line interessados em receber o certificado de participação devem preencher o formulário que será disponibilizado no chat das ferramentas durante o evento.</p>
<p dir="ltr">A palestrante será a professora Ana Mafalda Castanheira Neves de Miranda Barbosa. Especialista em responsabilidade civil em aplicações de inteligência artificial, a docente vai discutir o modelo pautado em classificação de risco da inteligência artificial adotado pela União Europeia e, por conhecer a legislação brasileira, fará uma comparação dele com o Projeto de Lei 2338/23, que estabelece normas para o desenvolvimento, implementação e uso responsável dessa tecnologia no Brasil.</p>
<p dir="ltr">Ana Mafalda é docente associada com agregação da Faculdade de Direito da Universidade de Coimbra, instituição na qual também concluiu mestrado e doutorado em Ciências Jurídico-Civilísticas. A mediação será do docente da Faculdade de Direito da USP, José Faleiros de Moura Júnior.</p>
<p dir="ltr">A conferência integra o projeto “Regulação e Governança da Inteligência Artificial”, que está promovendo, ao longo deste ano, diversos eventos centrados em questões ligadas ao tema. Ele é realizado por uma parceria entre o Grupo de Estudos Direto e Tecnologia do IEA-RP, o Centro de Estudos Avançados do Direito e Inovação da Faculdade de Direito de Ribeirão Preto, o Centro de Inteligência Artificial da USP e a iniciativa Understanding Artificial Intelligence (UAI), ligada ao IEA.</p>
<p dir="ltr">Mais informações: <a href="mailto:iearp@usp.br" target="_blank">iearp@usp.br</a>.</p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Tecnologia</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    
      <dc:subject>Understanding AI</dc:subject>
    
    <dc:date>2024-05-16T15:05:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/reincidencia-criminal-feminina-e-tema-de-evento-on-line">
    <title>Reincidência criminal feminina é tema de evento on-line</title>
    <link>https://www.iea.usp.br/noticias/reincidencia-criminal-feminina-e-tema-de-evento-on-line</link>
    <description>Conferência integra ciclo promovido pelo Grupo de Pesquisa em Criminologia Experimental do IEA-RP e pela AICLP</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-171e50dc-7fff-cc6f-5724-7f4fd48eda7f"> </span></p>
<p dir="ltr"><span><img src="https://www.iea.usp.br/polos/ribeirao-preto/noticias/CaminhosparaaReincidnciaCriminalFeminina.png/@@images/79a42be2-b3c8-41d3-8763-a9598aad1886.png" alt="" class="image-left" title="" />O Grupo de Pesquisa em Criminologia Experimental e Segurança Pública do Instituto de Estudos Avançados Polo Ribeirão Preto da USP, em parceria com a Associação Internacional de Criminologia em Língua Portuguesa, promove no dia 23 de abril, a partir das 15h (horário de Brasília), a conferência on-line “Caminhos para a Reincidência Criminal Feminina”.</span></p>
<p dir="ltr">As inscrições são gratuitas e devem ser feitas <a href="https://forms.gle/7dF6LHEVtP6sgnGe9"><span>neste link</span></a>. O evento é exclusivamente on-line e será transmitido pelo <a href="https://youtube.com/live/2NYi42frvcg"><span>canal do IEA-RP no YouTube</span></a> e pela <a class="external-link" href="https://www.facebook.com/usp.iearp">página do instituto no Facebook</a>. Haverá emissão de certificado aos participantes que preencherem um formulário disponibilizado no chat das ferramentas durante a transmissão.</p>
<p dir="ltr"><span>A palestrante será a professora Ana Guerreiro. Ela vai abordar o fenômeno da reincidência criminal feminina, destacando os fatores e necessidades que podem originar práticas criminosas. Ana pretende ainda promover uma reflexão crítica sobre abordagens e estratégias holísticas mais eficazes para a reeducação e ressocialização de mulheres, tendo como propósito o melhoramento das práticas existentes no sistema de justiça penal.</span></p>
<p dir="ltr"><span>Ana Guerreiro é doutora em Criminologia pela Faculdade de Direito da Universidade do Porto (FDUP). Atualmente, é professora auxiliar na Universidade da Maia e professora auxiliar convidada na FDUP. Exerce ainda o cargo de diretora da Unidade de Investigação em Criminologia e Ciências do Comportamento (UICCC) da Universidade da Maia. Suas áreas de interesse são criminalidade feminina, criminalidade organizada, redes criminais, estudos de gênero, violência de gênero e políticas de prevenção.</span></p>
<p dir="ltr"><span>Mais informações sobre o evento: </span><a href="mailto:iearp@usp.br"><span>iearp@usp.br</span></a><span>.</span></p>
<p dir="ltr"><span><strong>Sobre o grupo</strong></span></p>
<p dir="ltr"><span>A partir dos recentes avanços da Criminologia Experimental, o Grupo de Pesquisa em Criminologia Experimental e Segurança Pública do IEA-RP propõe dedicar-se ao estudo de experimentos, métodos e intervenções que permitam extrair evidências científicas sobre o que funciona (what works) nas estratégias de segurança pública. Com base nas evidências científicas obtidas pelo método experimental, pretende-se desenvolver novas abordagens teóricas e recomendações de ação estratégica no campo da segurança pública. Saiba mais na </span><a href="https://rp.iea.usp.br/pesquisa/grupos-de-pesquisa/criminologia-experimental-e-seguranca-publica/"><span>página do grupo</span></a><span>.</span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Criminologia</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    <dc:date>2024-04-08T19:15:12Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/regulamentacao-estabelecida-pelo-tse-nao-e-garantia-de-protecao-total-contra-desinformacao-gerada-por-ia-diz-especialista">
    <title>Regulamentação estabelecida pelo TSE não é garantia de proteção total contra desinformação gerada por IA, diz especialista</title>
    <link>https://www.iea.usp.br/noticias/regulamentacao-estabelecida-pelo-tse-nao-e-garantia-de-protecao-total-contra-desinformacao-gerada-por-ia-diz-especialista</link>
    <description>Em entrevista ao USP Analisa, integrante do Grupo TechLaw, do IEA-RP, destaca que identificação do conteúdo criado com inteligência artificial, mesmo com marcadores exigidos pelo Tribunal Superior Eleitoral, é difícil</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-48eff2cd-7fff-0b1e-a316-dd798cae3458"> </span></p>
<p dir="ltr"><span><img src="https://www.iea.usp.br/polos/ribeirao-preto/noticias/Designsemnome20240516T114113.892.png/@@images/8215ac9e-7790-45e8-8948-38e1179a2802.png" alt="" class="image-left" title="" />Em março, o Tribunal Superior Eleitoral aprovou uma regulamentação para o uso de inteligência artificial durante as eleições municipais que serão realizadas neste ano no Brasil. Mas será que essas regras são realmente capazes de proteger o eleitor contra a desinformação que circula na internet sobre candidatos e sobre o próprio pleito? O USP Analisa desta sexta (17) conversou a respeito dessas questões com a professora da Faculdade de Direito de Ribeirão Preto da USP Cristina Godoy Bernardo de Oliveira, que integra o Grupo de Estudos Direito e Tecnologia - TechLaw, do Instituto de Estudos Avançados Polo Ribeirão Preto da USP.</span></p>
<p dir="ltr"><span>Ela destaca que essa proteção é um grande desafio aos profissionais do Direito, porque, embora busquem apresentar respostas rápidas, a tecnologia é ainda mais veloz do que o processo de aprovação de normas jurídicas. Cristina lembra também que o pacote de regras proposto pelo TSE estabelece alterações em uma resolução já existente, a 23.610/2019, que trata de tópicos ligados ao uso da tecnologia no processo eleitoral.</span></p>
<p dir="ltr"><span>“A gente já tem uma previsão jurídica e isso é bom quando se detecta o uso da inteligência artificial e a violação dessas normas. Mas, por outro lado, não é possível dizer que o eleitor estará seguro, porque será muito difícil identificar o conteúdo gerado por inteligência artificial ou o uso de chatbots que vão estar espalhados na internet. E mesmo que seja identificada a utilização indevida desse conteúdo e o responsável por ele, ainda assim o prejuízo já terá ocorrido, porque os vídeos, principalmente os polêmicos, impactantes, são propagados com uma velocidade muito alta”, afirma ela.</span></p>
<p dir="ltr"><span>A professora critica a exigência de marcadores que identifiquem a utilização da inteligência artificial na criação do conteúdo, pois não há como ter um controle efetivo sobre esse tipo de regra. “Se há uma norma que prevê uma conduta e existe uma resposta a isso, a gente precisa ter instrumentos suficientes para identificar essa conduta e conseguir dar a devida resposta. É por isso que eu vejo não com um certo otimismo a tentativa de regular dessa forma. Na minha visão, o principal aspecto é o que a gente está fazendo aqui hoje: é a parte da educação digital, é debater, é conscientizar, é pensar, como cidadãos, que somos responsáveis também pelos conteúdos que nós compartilhamos nas redes sociais”, diz.</span></p>
<p dir="ltr"><span>Além de Cristina, o podcast USP Analisa conversa com outros dois integrantes do Grupo de Estudos TechLaw, a professora da FDRP Cíntia Rosa Pereira de Lima e o professor da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto da USP, Evandro Eduardo Seron Ruiz. O conteúdo pode ser acessado na íntegra nas plataformas de podcast </span><a href="https://open.spotify.com/show/7auqzY2Ctnyf10OO265XWm"><span>Spotify</span></a><span>, </span><a href="https://podcasts.apple.com/us/podcast/usp-analisa/id1608373936"><span>Apple Podcasts</span></a><span>, </span><a href="https://podcasts.google.com/feed/aHR0cHM6Ly9hbmNob3IuZm0vcy84MTc4ZjY4Yy9wb2RjYXN0L3Jzcw"><span>Google Podcasts</span></a><span>, </span><a href="https://www.deezer.com/br/show/3643337"><span>Deezer</span></a><span> e </span><a href="https://music.amazon.com.br/podcasts/77a75b61-f72d-4c3e-af21-42bf2d8a7850/usp-analisa"><span>Amazon Music</span></a><span>.</span></p>
<p dir="ltr"><span>O programa é uma produção conjunta do Instituto de Estudos Avançados Polo Ribeirão Preto (IEA-RP) da USP e da Rádio USP Ribeirão Preto. Para saber mais novidades sobre o USP Analisa e outras atividades do IEA-RP, inscreva-se em </span><a href="https://t.me/iearp"><span>nosso canal no Telegram</span></a><span> ou em nosso </span><a href="https://chat.whatsapp.com/IrzrRNMDSwQLBWfBTg2Tvu"><span>grupo no Whatsapp</span></a><span>.</span></p>
<p> </p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Tecnologia</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    
      <dc:subject>USP Analisa</dc:subject>
    
    <dc:date>2024-05-16T14:59:35Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/regulacao-da-inteligencia-artificial-no-brasil-sera-tema-de-serie-de-eventos">
    <title>Regulação da inteligência artificial no Brasil será tema de série de eventos</title>
    <link>https://www.iea.usp.br/noticias/regulacao-da-inteligencia-artificial-no-brasil-sera-tema-de-serie-de-eventos</link>
    <description>Iniciativa será realizada ao longo de 2024 e é promovida pelo Grupo de Estudos TechLaw, do IEA-RP, pelo Ceadin e pela iniciativa UAI; primeiro evento será no dia 28 de fevereiro</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-8408d52d-7fff-6744-c3e0-486b607e4354"> </span></p>
<p dir="ltr"><span><img src="https://www.iea.usp.br/polos/ribeirao-preto/noticias/copy_of_RegulaodaIntelignciaArtificialeimpactosnaeconomiadoBrasil800X530.png/@@images/5cd542fa-d48d-4b5c-a229-b5ebe63c04bd.png" alt="" class="image-left" title="" />Em meio ao debate sobre regulação da inteligência artificial que acontece em todo o mundo, o Brasil centraliza a discussão em torno do Projeto de Lei 2338/2023. De autoria do senador Rodrigo Pacheco, o PL possui como principal influência o modelo regulatório proposto pela União Européia, o EU AI Act. Para discutir as propostas de governança e regulação em torno dessa tecnologia, o Grupo de Estudos Direto e Tecnologia do Instituto de Estudos Avançados Polo Ribeirão Preto da USP, em parceria com o Centro de Estudos Avançados do Direito e Inovação da Faculdade de Direito de Ribeirão Preto<span id="docs-internal-guid-c9d9e18d-7fff-3632-5cdf-b013c8e9bce6"><span>, o Centro de Inteligência Artificial da USP</span></span> e a iniciativa Understanding Artificial Intelligence (UAI), ligada ao IEA, realiza ao longo deste ano o projeto “Regulação e Governança da Inteligência Artificial”, que vai promover diversos eventos híbridos centrados em questões ligadas ao tema.</span></p>
<p dir="ltr"><span>O primeiro deles, “Regulação da Inteligência Artificial e impactos na economia do Brasil”, será realizado no dia 28 de fevereiro, a partir das 14h, no Anfiteatro da FDRP, no campus Ribeirão Preto da USP. As inscrições devem ser feitas </span><a href="https://forms.gle/LZD8Ei57AXKCjtSV7"><span>neste link</span></a><span>. O evento terá transmissão pelo </span><a href="https://youtube.com/live/HeQnlpTJqtw"><span>canal do IEA-RP no YouTube</span></a><span> e os espectadores on-line interessados em receber o certificado de participação precisam preencher o formulário que será disponibilizado no chat durante o evento.</span></p>
<p dir="ltr"><span>O palestrante será o professor da Faculdade de Direito da Universidade Presbiteriana Mackenzie Vicente Bagnoli. Ele vai avaliar a estratégia apresentada pelo PL 2338/23 sob a perspectiva do direito concorrencial, verificando se as </span><span>big techs</span><span> serão favorecidas e o quanto essa regulação da inteligência artificial pode impactar a economia do Brasil.</span></p>
<p dir="ltr"><span>Vicente Bagnoli é doutor em Filosofia e Teoria Geral do Direito pela Faculdade de Direito da USP, mestre em Direito Político e Econômico e bacharel em Direito pela Universidade Presbiteriana Mackenzie. É pesquisador visitante no Instituto Max Planck de Inovação e Concorrência em Munique, Alemanha. Desde 2010 tem a sua atuação profissional na área do Direito da Concorrência reconhecida e premiada por várias publicações internacionais.</span></p>
<p dir="ltr"><span>Mais informações sobre o evento: </span><a href="mailto:iearp@usp.br"><span>iearp@usp.br</span></a><span>.</span></p>
<p dir="ltr"><span><strong>Sobre o grupo</strong></span></p>
<p dir="ltr"><span>O Grupo de Estudo Direito e Tecnologia (Tech Law) tem como objetivo principal o estudo interdisciplinar de temas que envolvem áreas de Direito e da Ciência da Computação, bem como analisar as características e os desafios da sociedade informacional. Para saber mais, acesse a </span><a href="https://rp.iea.usp.br/conferencia-on-line-discute-definicao-de-perfis-por-inteligencia-artificial/"><span>página do grupo</span></a><span>.</span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Ciência da Computação</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    <dc:date>2024-02-19T16:45:00Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/eventos/regulacao-da-inteligencia-artificial-na-uniao-europeia">
    <title>Regulação da Inteligência Artificial na União Europeia</title>
    <link>https://www.iea.usp.br/eventos/regulacao-da-inteligencia-artificial-na-uniao-europeia</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-35bfea9a-7fff-f394-4697-833052dcd882"> </span></p>
<p dir="ltr"><span>O Grupo de Estudos Direto e Tecnologia do Instituto de Estudos Avançados Polo Ribeirão Preto da USP, em parceria com o Centro de Estudos Avançados do Direito e Inovação da Faculdade de Direito de Ribeirão Preto, o Centro de Inteligência Artificial da USP e a iniciativa Understanding Artificial Intelligence (UAI), ligada ao IEA, promovem no dia 21 de março, às 14h, a conferência on-line “Regulação da Inteligência Artificial na União Europeia”.</span></p>
<p dir="ltr"><span>O evento integra o projeto “Regulação e Governança da Inteligência Artificial”, que vai promover debates ao longo de 2024 centrados em questões ligadas a esse tema. As inscrições são gratuitas e devem ser feitas </span><a href="https://forms.gle/GeX7ECovuhtrPEuBA"><span>neste link</span></a><span>. A conferência é exclusivamente on-line, em inglês e será transmitida pelo canal do </span><a href="https://youtube.com/live/59Mqto1sFG0"><span>IEA-RP</span></a><span> no YouTube e também pela </span><a href="https://www.facebook.com/usp.iearp"><span>página do IEA-RP no Facebook</span></a><span>. Os participantes receberão certificado desde que preencham o formulário disponibilizado no chat das ferramentas durante o evento.</span></p>
<p dir="ltr"><span> </span></p>
<p dir="ltr"><span>O palestrante será o líder de políticas públicas europeias no Instituto Ada Lovelace, Connor Dunlop. Ele vai apresentar uma visão geral do debate em torno da regulação da inteligência artificial na União Europeia e no Reino Unido. A discussão abordará convergências e divergências entre a Lei de Inteligência Artificial da União Europeia e o modelo que está sendo desenvolvido no Reino Unido, introduzindo sua principal característica e a relação com o European Union Artificial Intelligence Act.</span></p>
<p dir="ltr"><span>Connor Dunlop é líder de políticas públicas europeias no Instituto Ada Lovelace. Tem mestrado em Estudos de Conflitos e Direitos Humanos pela Universiteit Utrecht e bacharelado em História e Política pela Universidade de Newcastle. Atualmente, é responsável por liderar e implementar a estratégia de influência e envolvimento do Instituto Ada Lovelace na governação e regulamentação da inteligência artificial na Europa.</span></p>
<p><span>Mais informações sobre o evento: </span><a href="mailto:iearp@usp.br"><span>iearp@usp.br</span></a><span>.</span></p>
<p> </p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Understanding AI</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>União Europeia</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    <dc:date>2024-03-12T20:15:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/eventos/regulacao-da-inteligencia-artificial-e-impactos-na-economia-do-brasil">
    <title>Regulação da Inteligência Artificial e impactos na economia do Brasil</title>
    <link>https://www.iea.usp.br/eventos/regulacao-da-inteligencia-artificial-e-impactos-na-economia-do-brasil</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-fb4d22df-7fff-bea9-c148-8ac2b9a9a192"> </span></p>
<p dir="ltr"><span>Em meio ao debate sobre regulação da inteligência artificial que acontece em todo o mundo, o Brasil centraliza a discussão em torno do Projeto de Lei 2338/2023. De autoria do senador Rodrigo Pacheco, o PL possui como principal influência o modelo regulatório proposto pela União Européia, o EU AI Act. Para discutir as propostas de governança e regulação em torno dessa tecnologia, o Grupo de Estudos Direto e Tecnologia do Instituto de Estudos Avançados Polo Ribeirão Preto da USP, em parceria com o Centro de Estudos Avançados do Direito e Inovação da Faculdade de Direito de Ribeirão Preto<span id="docs-internal-guid-c9d9e18d-7fff-3632-5cdf-b013c8e9bce6"><span>, o Centro de Inteligência Artificial da USP</span></span> e a iniciativa Understanding Artificial Intelligence (UAI), ligada ao IEA, realiza ao longo deste ano o projeto “Regulação e Governança da Inteligência Artificial”, que vai promover diversos eventos híbridos centrados em questões ligadas ao tema.</span></p>
<p dir="ltr"><span>O primeiro deles, “Regulação da Inteligência Artificial e impactos na economia do Brasil”, será realizado no dia 28 de fevereiro, a partir das 14h, no Anfiteatro da FDRP, no campus Ribeirão Preto da USP. </span><span>O evento terá transmissão pelo </span><a href="https://youtube.com/live/HeQnlpTJqtw"><span>canal do IEA-RP no YouTube</span></a><span> e os espectadores on-line interessados em receber o certificado de participação precisam preencher o formulário que será disponibilizado no chat durante o evento.</span></p>
<p dir="ltr"><span>O palestrante será o professor da Faculdade de Direito da Universidade Presbiteriana Mackenzie Vicente Bagnoli. Ele vai avaliar a estratégia apresentada pelo PL 2338/23 sob a perspectiva do direito concorrencial, verificando se as </span><span>big techs</span><span> serão favorecidas e o quanto essa regulação da inteligência artificial pode impactar a economia do Brasil.</span></p>
<p dir="ltr"><span>Vicente Bagnoli é doutor em Filosofia e Teoria Geral do Direito pela Faculdade de Direito da USP, mestre em Direito Político e Econômico e bacharel em Direito pela Universidade Presbiteriana Mackenzie. É pesquisador visitante no Instituto Max Planck de Inovação e Concorrência em Munique, Alemanha. Desde 2010 tem a sua atuação profissional na área do Direito da Concorrência reconhecida e premiada por várias publicações internacionais.</span></p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Understanding AI</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Ciência da Computação</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    <dc:date>2024-02-19T16:55:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/noticias/reforma-administrativa-traz-discussao-sobre-papel-do-estado">
    <title>Reforma administrativa traz discussão sobre papel do Estado</title>
    <link>https://www.iea.usp.br/noticias/reforma-administrativa-traz-discussao-sobre-papel-do-estado</link>
    <description>Para professores da FDUSP e da FEA-RP, entrevistados do USP Analisa, questão está presente na reflexão sobre carreiras que permanecerão com estabilidade</description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p> </p>
<table class="tabela-esquerda">
<tbody>
<tr>
<th><img src="https://www.iea.usp.br/polos/ribeirao-preto/noticias/copy_of_Designsemnome27.png/@@images/7f43fbbb-76b6-449e-8c02-950264cb7f55.png" alt="" class="image-left" title="" /></th>
</tr>
<tr>
<td><i><span class="discreet">Esplanada dos Ministérios em Brasília</span></i></td>
</tr>
</tbody>
</table>
<p dir="ltr">A proposta de reforma administrativa que está em tramitação no Congresso Nacional traz, entre outros pontos, uma discussão sobre o papel do Estado. É o que apontam o professor da Faculdade de Direito da USP Fernando Menezes de Almeida e o professor da Faculdade de Administração, Economia e Contabilidade de Ribeirão Preto da USP Luciano Nakabashi. Nesta semana, o USP Analisa exibe a segunda e última parte da entrevista com eles sobre esse tema.</p>
<p dir="ltr">Segundo Fernando, a reflexão está presente quando se analisa o que são carreiras típicas de Estado. De acordo com a proposta, apenas essas carreiras não poderão perder a estabilidade, ou seja, seus ocupantes não poderão ser dispensados como profissionais do setor privado. O professor explica que não existe um padrão jurídico que as definam.</p>
<p dir="ltr">“Eu tenderia a fazer uma leitura dessas carreiras não tentando padronizar por tipos, mas tentando enxergar o Estado real como ele é e verificando quais carreiras são necessárias para ele funcionar assim. Tanto carreiras ligadas a atividades finalísticas como também carreiras ligadas à atividade meio, desde que esses meios sejam típicos do Estado. Não dá para ter uma resposta a partir da simples expressão proposta na emenda”, diz.</p>
<p dir="ltr">Luciano destaca que, em Economia, existem justificativas para a existência do Estado e que suas atribuições basicamente são as não desempenhadas pelo setor privado. “A primeira que a gente coloca como papel fundamental do Estado é elaborar o conjunto de leis e fazer com que essas leis sejam válidas, através de um sistema judiciário ou um sistema de segurança. Então o Estado tem esse papel fundamental e ninguém vai fazer isso. Quando a gente pensa numa sociedade tão complexa quanto a nossa, com tantas pessoas, com tantas relações, você tem que ter um ente centralizador na questão da formulação e implementação dessas leis. Isso é típico do Estado”, afirma ele.</p>
<p dir="ltr">A entrevista vai ao ar nesta quarta (28), a partir das 18h05, com reapresentação no domingo (2), às 11h30. O programa também pode ser ouvido pelas plataformas de áudio <a href="https://podcasts.apple.com/br/podcast/jornal-da-usp/id1451609458">iTunes</a> e <a href="https://open.spotify.com/show/5YsTgKLnwJiGor1AqqxYpV">Spotify</a>.</p>
<p dir="ltr">O <a href="https://sites.usp.br/iearp/usp-analisa/">USP Analisa</a> é uma produção conjunta do Instituto de Estudos Avançados Polo Ribeirão Preto (IEA-RP) da USP e da Rádio USP Ribeirão Preto. Para saber mais novidades sobre o programa e outras atividades do IEA-RP, inscreva-se em <a href="https://t.me/iearp">nosso canal no Telegram</a>.</p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Gestão pública</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Administração</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    
      <dc:subject>USP Analisa</dc:subject>
    
    <dc:date>2021-04-28T04:53:56Z</dc:date>
    <dc:type>Notícia</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/eventos/reflexoes-sobre-o-design-de-tecnologias-de-ia-para-uso-cientifico">
    <title>Reflexões sobre o design de tecnologias de IA para uso científico</title>
    <link>https://www.iea.usp.br/eventos/reflexoes-sobre-o-design-de-tecnologias-de-ia-para-uso-cientifico</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p><span id="docs-internal-guid-024d32d7-7fff-faa0-7397-2f70a996acd2"> </span></p>
<p dir="ltr"><span>O Grupo de Estudos Direito e Tecnologia (TechLaw) do Instituto de Estudos Avançados Polo Ribeirão Preto da USP e a iniciativa </span><a href="https://understandingai.iea.usp.br/"><span>Understanding Artificial Intelligence</span></a><span>, do Instituto de Estudos Avançados da USP promovem no dia 6 de maio, a partir das 14h, a conferência on-line “Reflexões sobre o design de tecnologias de IA para uso científico”.</span></p>
<p dir="ltr"><span>As inscrições são gratuitas e devem ser feitas </span><a href="https://forms.gle/bUx9B4H9BWv1W3dq6"><span>neste link</span></a><span>. A transmissão será pelo </span><a href="https://www.youtube.com/watch?v=DtqN9gmQK68"><span>canal do IEA-RP no YouTube</span></a><span> e pela </span><a href="https://www.facebook.com/usp.iearp"><span>página do instituto no Facebook</span></a><span>. Haverá envio de certificado aos participantes que preencherem um formulário disponibilizado no chat das ferramentas durante o evento.</span></p>
<p dir="ltr"><span>A palestrante será a professora emérita da PUC-RJ Clarisse Sieckenius de Souza. Ela é conhecida nacional e internacionalmente pelo desenvolvimento, junto a seus alunos e colaboradores, de teoria e métodos semióticos para a análise de interfaces de usuário e design de sistemas de software interativos, a qual recebeu o nome de engenharia semiótica.</span></p>
<p dir="ltr"><span>No evento, a professora vai compartilhar percepções sobre a adoção de ferramentas inteligentes em processos de pesquisa das mais variadas áreas de produção de conhecimento. A principal questão é se recentes avanços em termos de pluralismo e diversidade epistêmica estarão em risco quando grandes modelos de linguagem são usados para apoiar computacionalmente a construção (de modelos) de conhecimento.</span></p>
<p dir="ltr"><span>Clarisse Sieckenius de Souza tem graduação, mestrado e doutorado em Letras e Linguística e fez sua carreira acadêmica na Informática, sempre com fortes raízes e associações interdisciplinares. Desde que se aposentou, em 2020, vem estudando e aprofundando conhecimentos nas áreas de filosofia da tecnologia e retórica digital envolvendo Inteligência Artificial.</span></p>
<p dir="ltr"><span>Mais informações: </span><a href="mailto:iearp@usp.br"><span>iearp@usp.br</span></a></p>
<p> </p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Inteligência Artificial</dc:subject>
    
    
      <dc:subject>Understanding AI</dc:subject>
    
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    <dc:date>2024-06-14T15:55:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>


  <item rdf:about="https://www.iea.usp.br/eventos/reescrita-de-decisoes-judiciais-em-perspectivas-feministas">
    <title> Reescrita de Decisões Judiciais em Perspectivas Feministas</title>
    <link>https://www.iea.usp.br/eventos/reescrita-de-decisoes-judiciais-em-perspectivas-feministas</link>
    <description></description>
    <content:encoded xmlns:content="http://purl.org/rss/1.0/modules/content/"><![CDATA[<p>A oficina integra o projeto <em>Decisões Judiciais Feministas</em>, que acompanha experiências de outros países na coordenação de esforços colaborativos entre acadêmicas feministas e profissionais do campo jurídico para o exercício de reescrita de decisões judiciais a partir de uma perspectiva feminista. O objetivo é avaliar como o raciocínio jurídico feminista pode transformar decisões judiciais ou torná-las mais sensíveis aos interesses, necessidades e perspectivas de mulheres e de outros grupos marginalizados.</p>]]></content:encoded>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Thais Cardoso</dc:creator>
    <dc:rights></dc:rights>
    
      <dc:subject>Evento público</dc:subject>
    
    
      <dc:subject>Feminismo</dc:subject>
    
    
      <dc:subject>Evento online</dc:subject>
    
    
      <dc:subject>Mulher</dc:subject>
    
    
      <dc:subject>Direito</dc:subject>
    
    
      <dc:subject>Polo Ribeirão Preto</dc:subject>
    
    
      <dc:subject>Mulheres</dc:subject>
    
    <dc:date>2021-08-31T16:30:00Z</dc:date>
    <dc:type>Evento</dc:type>
  </item>




</rdf:RDF>
