Projeto IA Responsável

por Fernanda Rezende - publicado 18/03/2024 16:05 - última modificação 28/03/2024 10:47

Veja também:

Integrantes do grupo

O foco da Cátedra Oscar Sala é aprofundar o conhecimento num conjunto de questões fundamentais para a compreensão da convivência social e operacional entre humanos e não humanos, representados por algoritmos, robôs e dispositivos inteligentes. Dentro desse contexto, no projeto IA Responsável serão explorados aspectos teóricos, técnicos, sociais, legais e institucionais relativos às aplicações de inteligência artificial, seus impactos, e como a sociedade civil e comunidade científica poderão intervir para que a IA seja implementada de maneira responsável.

O foco das investigações e trocas acadêmicas durante o período da Cátedra é compreender como os sistemas de inteligência artificial e seus designs operam e influenciam decisões e visões sobre o mundo em suas mais diversas esferas, desde a saúde, trabalho, educação, arte, cultura e identidades. Para que a sociedade possa construir mecanismos de governança digital, de forma a colher benefícios e minimizar impactos negativos dos avanços tecnológicos, é necessário ampliar o debate interdisciplinar, disseminar conhecimento e promover acesso à informação de modo a cultivar um terreno no qual a sociedade e comunidade acadêmica desenvolva um senso propositivo e participativo junto aos sistemas de governança da internet.

O estudo da IA Responsável requer múltiplos conhecimentos, que vêm de áreas como ciências sociais e humanas, ciência da computação, engenharias e artes, direito e ciências da saúde.

O acompanhamento crítico dessas atividades é feito por um grupo de estudos organizados em GTs (Grupos de Trabalho) dentro das áreas de maior interesse e atuação dos pesquisadores. São elas: “IA e Trabalho”, “IA, Comunicação e Artes”, “IA e Governo”, “IA e Justiça”, “IA e Educação”, “IA e Saúde” e “IA e Gênero”. Adicionalmente foi formado um grupo de estudos paralelo dedicado à confecção de uma Carta de Recomendações para o emprego da IA Responsável”, que será discutida e assinada pelos pesquisadores da Cátedra Oscar Sala, aberta a adesões.

Perfil dos pesquisadores


Gráfico de respostas do Formulários Google. Título da pergunta: Área de formação preponderante
. Número de respostas: 86 respostas.


Gráfico de respostas do Formulários Google. Título da pergunta: Maior titulação na carreira
. Número de respostas: 86 respostas.


Gráfico de respostas do Formulários Google. Título da pergunta: Área de atuação. Número de respostas: 86 respostas.

Gráfico de respostas do Formulários Google. Título da pergunta: Área de maior interesse dentro da pesquisa em IA Responsável
. Número de respostas: 86 respostas.

Gráfico de respostas do Formulários Google. Título da pergunta: Tópico de Maior Interesse dentro da Pesquisa de IA Responsável
. Número de respostas: 86 respostas.



Tópicos

Além dos tópicos listados abaixo, apresentados no período anterior dedicado ao entendimento das relações humano-algoritmo, o tema da IA Responsável inclui especial atenção para: Transparência na IA, Accountability (ou Prestação de Contas pela IA), Fairness (ou IA e Justiça), Safety (ou Segurança da IA).


• Natureza das interações humanas com algoritmos, robôs, dispositivos e máquinas inteligentes;

• Papel do "design" na construção de algoritmos e máquinas inteligentes (ex. assistentes inteligentes como Alexa e chatbots);

• Estudo do comportamento de não humanos: algoritmos, robôs, dispositivos e máquinas inteligentes (ex.: estudos empíricos e modelos teóricos);

• Estudo do comportamento humano nas relações com não humanos: individual e coletivo;

• Regulação e governança;

• Algoritmos e sua aderência a direitos humanos;

• Debate sobre as formas de colaboração humano-algoritmos e os impacto no trabalho;

• Debate sobre o papel dos agentes eletrônicos inteligentes, como por exemplo se eles devem receber alguma consideração moral e legal como outras entidades que interagem socialmente.

• Estudos de casos da realidade brasileira, como parte do processo de pesquisa dos tópicos acima, como por exemplo casos na área de saúde, casos sobre impacto da automação de processos no comércio e serviços.

Subtemas e Subgrupos:

O conjunto de subtemas para estudos e debates no ano letivo 2023/24 é claramente multidisciplinar e transdisciplinar pois a compreensão do papel e do impacto de algoritmos e máquinas inteligentes requer a participação de pesquisadores de ciências sociais e humanas, direito, engenharia e ciência da computação. A Inteligência Artificial Responsável é um tema emergente que se torna um framework desafiante para as diversas áreas de impacto social tendo assim despertado interesse em um grande número de pesquisadores qualificados e já atuantes no mercado de trabalho.

IA, Comunicação e Artes

IA e Educação GT-1

IA e Educação GT-2

IA e Educação GT-3

IA e Educação GT-4

IA e Gênero

IA e Governo GT-1

IA e Governo GT-2

IA e Governo GT-3

IA e Justiça GT-1

IA e Justiça GT-2

IA e Justiça GT-3

GT Carta de Recomendações para a IAR da Cátedra Oscar Sala

Resultados esperados

1. Os encontros deverão produzir resultados a serem publicados pelos pesquisadores em diferentes midias. Os grupos de estudos deverão ser necessariamente multidisciplinares. Seus participantes serão incentivados a submeterem artigos referentes aos debates para periódicos e conferências de qualidade.

3. Será estimulada a participação de pesquisadores e estudantes de universidades fora de São Paulo nos grupos de estudo.

4. Os grupos de pesquisas serão estimulados a trabalhar com estudos de casos da realidade brasileira.

5. O trabalho gerará um relatório final a ser publicado pelo Instituto de Estudos Avançados em formato impresso e audiovisual.



Cronograma

29 de novembro/23


Abertura com o Professor Virgílio Almeida: Conceitos e modelos de IA Responsável

8 de dezembro/23

Reunião do grupo de estudo: Organização dos Grupos

19 de dezembro/23

Apresentação do Professor Valdinei Freire (USP e C4AI) e do grupo de estudo: IA e Educação GT1 e IA, Comunicação e Artes

17 de janeiro/24

Apresentação do grupo de estudo: IA e Trabalho (início dos estudos dos relatórios e normas para a IA Responsável, neste dia, RAI nas Empresas apresentado por Elen Nas)

2 de Fevereiro

Reunião do Grupo de Estudos para a Carta de Princípios da IAR: Apresentação Atahualpa Fidel Perez Blanchet Coelho

16 de Fevereiro/24

Reunião do Grupo de Estudos para a Carta de Princípios da IAR: Apresentação Silvia Piva, Rubem Konig e Renata Otake

21 de Fevereiro

Palestra as 9h com Robert Sparrow (IA Amigável)

23 de Fevereiro

Apresentação do Grupo IA e Governo (GT1)

1 de Março

Reunião do Grupo de Estudos para a Carta de Princípios da IAR: Apresentação Marcelo Nery (IA na Segurança Pública) e Carolina Christofoletti (IA e a proteção da criança e adolescente)

8 de março/24

Reunião de atualização dos grupos de estudo

22 de março/24

Apresentação do Grupo IA e Justiça

05 de Abril/24

Apresentação do Grupo IA e Gênero

19 de abril/24

Apresentação do Grupo IA e Saúde


26 de abril/24

Reunião do grupo de estudo:  Apresentações dos Grupos de Estudo

Novas Datas

Agendamento de Palestras com convidados e Reuniões dos GTs