Você está aqui: Página Inicial / NOTÍCIAS / A máquina, o homem e a produção de conhecimento

A máquina, o homem e a produção de conhecimento

por Sylvia Miguel - publicado 31/05/2017 11:30 - última modificação 07/06/2017 11:54

Cognição automática e inteligência artificial foram temas analisados pelo cientista-chefe da IBM, Fábio Gandour
Inteligência artificial

Novas Formas de Produzir Conhecimento: Elas Existem Mesmo?, foi a questão lançada pelo cientista-chefe da IBM, Fábio Gandour, como tema da conferência realizada no dia 19 de maio no IEA. Organizado pelo Grupo de Pesquisa Observatório da Inovação e Competitividade/NAP (OIC) do IEA, o encontro foi coordenado pelo sociólogo Glauco Arbix, integrante do grupo e professor da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP.

Médico formado pela Universidade de Brasília (UnB) e doutor em ciências computação pela Universidade de Stanford, Estados Unidos, Gandour afirma que a dúvida lançada como tema do encontro tem um motivo: “É porque tenho uma enorme reserva com o uso da expressão Inteligência Artificial, tão difundida pela mídia”, disse.

Além disso, o cientista ressalta: “Precisamos parar com essa história de que a máquina vai aprender tudo e dominar o mundo. A máquina foi programada para aprender, mas quem a programa é uma pessoa”, lembra.

Relacionado

Notícia

Foto | Vídeo

O Caso da IBM Research Division Brasil: Perspectivas e Desafios

Segundo Gandour, a proposta da Inteligência Artificial (IA) nos anos de 1980 era construir uma arquitetura de hardware e de software que simulasse o cérebro humano. “Mas isso não funcionou. Tudo o que conseguimos foi simular o cérebro de um mosquito e então esse modelo foi abandonado. Hoje a cognição automática não tenta simular o cérebro humano”, disse.

O que as máquinas fazem é capturar um dado e transformá-lo em informação estruturada, dando ao dado um caráter ordenado e útil. “Para isso a máquina tem de ser programada e quem faz o programa é uma pessoa. Não há equipamentos que fazem programas automaticamente. Elas apenas se beneficiam de linhas de códigos pré-existentes, agregam isso segundo uma lógica e produzem um resultado com determinado objetivo. Porque o programa é resultado de um processo mental, de inteligência”, explica.

Sendo assim, estamos diante da “enorme possibilidade de que essa segunda fase da transformação da informação em conhecimento seja executada de maneira automática”, afirma.

De maneira geral, o processo que transforma o dado em informação evoluiu para transformar a informação em conhecimento e, a partir daí, para um processo automatizado de cognição que faz a gestão do saber, que é uma forma mais refinada de conhecer, explica Gandour.  “Por isso não tem jovem sábio. Os sábios são todos mais velhos, pois levam tempo para fazer esse refinamento do saber”, compara.

O produto final dessa fase do conhecimento não natural entra no que o cientista chama de “espectro continuo”, em que conhecimento pode ser classificado como simples, médio, complexo, melhor, pior, confiável, não confiável, dependendo do processo de produção desse conhecimento, afirma.

Antropoceno

Fábio Gandour1

Cientista-chefe da IBM, Fábio Gandour, avalia evolução da cognição em máquinas

Para o cientista-chefe da IBM, o tipo de informação produzida hoje pela tecnologia e pela computação social está estreitamente relacionada à própria evolução da espécie humana. “Hoje, o homem e seu conhecimento estão no centro das atenções. Algo que caracterizou a evolução do homem está ligado àquilo que ele come. A espécie começou comendo sementes, depois veio a agricultura, depois cozinhamos a carne. Hoje, a computação social nos transformou em ‘informívoros’, ou seja, consumidores de informação, o que nem sempre tem um sentido prático na nossa vida. ”

Gandour exemplifica sua premissa com o exemplo de um dos aplicativos sociais mais conhecidos para navegação e informações de trânsito. “ Se estou no Waze vendo que o tempo de meu trajeto está mudando, de forma prática isso não muda nada na minha vida, mas alimenta a minha ansiedade de informação. Se tiramos um dispositivo de um adolescente, parece que algo está faltando no seu metabolismo de ser humano. Isso é o que estamos fazendo, consumindo informações para alimentar nossa ansiedade”, afirma.

A nova taxonomia da cognição automática possui duas vias de transformação do dado. Ou transformá-lo em informação estruturada, do tipo que as empresas usam, por exemplo, ou gerar informação desestruturada, do tipo, pegar um dado e transformar em receita de torta de maçã, exemplifica.

“Desde 2003, a tecnologia desenvolveu métodos para lidar com informações desestruturadas, ou seja, a possibilidade lidar com uma ou outra ferramenta, que resulta em alguns modelos de abordagem dos dados existentes. Na década de 1980, o que havia eram os chamados sistemas especialistas.”, diz Gandour.

Naquela época, o primeiro objeto que adquiriu um estado razoavelmente funcional com o modelo de imitar o cérebro humano foi construído pelo professor Edward Shortliffe, que criou o MYCIN, conta. “O objetivo era tratar quadros infecciosos e se apoiava em regras de produção. Então exauria a capacidade computacional das máquinas existentes na época porque saturava as CPUs da época. Esse nome especialista é baseado no cérebro humano, que é um especialista”, conta.

Em seguida, surgiram os famosos algoritmos genéticos, conta. Como estrutura matemática esses algoritmos já existiam, mas do jeito que foram aplicados representavam uma novidade. “Eles criaram a lógica nebulosa, que criou os agentes autônomos. O agrupamento de agentes autônomos criou as redes neurais, que têm alguma capacidade de aprendizado. A partir daí o barateamento dos meios de armazenamento permitiu acumular dados e esse acumulo de dados permitiu então explorar a metodologia de data analytics. Vale lembrar que, no passado, o disco magnético era quase tão caro quanto a CPU. Hoje, um pen drive de 2 gigabytes é dado como brinde”, compara.

O data analytics permitiu então ensinar uma máquina a aprender e criou os geradores de hipóteses. afirma. “Mas é preciso cuidado com geradores de hipóteses, porque nem tudo que tem uma correlação terá necessariamente uma relação de causalidade”.

Segundo Gandour, o grande desafio é o processamento de linguagem natural, o seja, entender que é a forma mais simples e mais popular de captura do conhecimento. “Estou estudando como melhorar o processamento da linguagem fundindo os métodos tradicionais e os que não estão ainda totalmente resolvidos”, revela.

Cognição automática

"Sim, é possível criar uma cognição automática. Mas numa escala que varia, tanto em termos da capacidade de produção de cognição automática, quanto na percepção dessa cognição pelo usuário, pois isso varia a partir do método ou modelo de abordagem utilizada, por exemplo, sistemas especialistas, algoritmos genéticos, agentes autônomos e outros. Um dia será possível utilizar todos esses sistemas se complementando ao mesmo tempo. Mas então estaremos num outro mundo”, avalia.

Segundo Gandour, o mundo caminha para a internet das coisas graças à tecnologia dos sensores. “A máquina fica inteligente porque nós a ensinamos a ficar, através dos sensores e atuadores, que dão a elas certa independência. A mesma tecnologia que nos permitiu reduzir custos com armazenamento de dados também barateou demais os preços de sensores a atuadores ao ponto de que hoje podemos comprá-los pela internet”, compara.

Glauco Arbix1
Glauco Arbix,da FFLCH-USP, coordenou o encontro

A mesma lógica de aprendizado das máquinas pode ser aplicada para jogos. O programa Deep Blue da IBM, que em 1996 venceu o maior enxadrista mundial, Garry Kasparov, é a materialização do chamado algoritmo do funil que, na essência, é um problema combinatorial, segundo Gandour.

O Jeopardy! é um jogo de perguntas e respostas (quiz) inspirado num programa de TV, atualmente exibido pela CBS Television Distribuition, dos Estados Unidos. A peculiaridade é o fato de que a resposta deve ter a forma de pergunta e o jogador estabelece um tema. “Ao estabelecer o tema, o jogador também está delimitando o campo semântico. E a máquina lida com ambiguidade semântica, uma evolução que levou 20 anos, desde que iniciamos com o processamento meramente aritmético e lógico. A palavra perfume, por exemplo, não pertence à tabela de símbolos de um call center de banco, por exemplo, e, portanto, não seria compreendida pela máquina”, compara Gandour.

Com a evolução da cognição artificial, é possível que algumas profissões mais qualificadas sejam substituídas por máquinas no futuro, segundo o cientista. “Acredito que a máquina que não possa substituir as profissões que exijam um conhecimento abrangente. Mas para tarefas analíticas, as máquinas poderão executar um trabalho mais rápido e eficiente. Pode haver uma fase de transição, em que o humano irá validar e aperfeiçoar o trabalho da máquina, até que a máquina ocupe definitivamente o seu lugar”, avalia.

Imagens: Reprodução/ Leonor Calasans