Inteligência artificial passa por momento de crescimento exponencial
Essa área de pesquisa da Ciência da Computação, dedicada a buscar métodos ou dispositivos computacionais que possam permitir ou multiplicar a capacidade de resolver problemas, contudo, ainda está longe de se tornar a ideal – que seria a capacidade de reprodução real e total da inteligência humana.
A avaliação foi feita por pesquisadores participantes da última edição de 2018 do Ciclo de Palestras ILP-FAPESP sobre Inteligência Artificial, que aconteceu dia 26/11 na Assembleia Legislativa de São Paulo (Alesp), na capital paulista.
“A inteligência artificial que existe hoje ainda está um pouco distante de ser aquela que passaria no teste de Turing [proposto em 1950 pelo matemático e cientista da computação britânico Alan Turing (1912-1954) para testar a capacidade de uma máquina exibir comportamento inteligente equivalente à de um ser humano ou indistinguível dele]”, disse Fabio Gagliardi Cozman, professor da Escola Politécnica da Universidade de São Paulo (Poli-USP).
“É uma inteligência artificial baseada na coleta de muitos dados e na extração de padrões e que tem tido aplicações em diferentes áreas, como agricultura, medicina e nas artes”, afirmou Cozman.
Um dos fatores que contribuíram para o florescimento da inteligência artificial nos últimos seis anos, segundo os pesquisadores, foi a explosão da disponibilidade de dados originados das redes sociais, por exemplo.
Esse fenômeno, chamado big data, combinado com o avanço do poder computacional, permitiu viabilizar algumas técnicas computacionais baseadas em dados que estavam em segundo plano, chamadas de forma generalista de deep learning (aprendizado profundo). Entre elas, a de redes neurais – mapeamentos não lineares entre entrada e saída de dados.
“Essa técnica estava estagnada porque, para permitir que uma máquina aprendesse uma determinada função de maneira rápida, era preciso ter grandes quantidades de dados”, disse Claudio Santos Pinhanez, gerente sênior do grupo de ciência conversacional do IBM Research no Brasil.
“A explosão da disponibilidade de dados e de GPUs [usadas em placas de videogame, por exemplo] possibilitou fazer essas técnicas funcionarem e permitiram o aprendizado de máquina”, afirmou Pinhanez.
Empresas de tecnologia, como o Facebook, passaram a usar grandes redes neurais para reconhecimento facial. As imagens publicadas na rede social passam por três redes neurais que detectam pornografia, faces desconhecidas e objetos de interesse do Facebook, exemplificou Cozman.
“Todas as redes neurais existentes hoje, que extraem padrões para resolver um determinado problema, são montadas a partir de grandes bases de dados, sem uma tentativa real de entender porquê uma determinada face é aquela que se está realmente procurando, por exemplo”, afirmou.
Falta de dados bons
Na avaliação dos pesquisadores, o futuro da inteligência artificial dependerá da capacidade de processar cada vez mais dados. Estima-se que, hoje, são produzidos 100 trilhões de terabytes de dados por ano no mundo.
O aumento da disponibilidade de dados permitirá, nos próximos cinco a 10 anos, fazer com que as máquinas atendam solicitações como a de apresentar todas as imagens com um determinado padrão a partir de uma base de dados, apontaram os participantes do evento.
“Isso já está acontecendo e tem se tornado mais fácil de fazer de uma maneira simples. É uma aplicação que deve crescer muito nos próximos anos”, estimou Pinhanez.
Para isso, contudo, será necessário ter boas bases de dados, uma vez que, apesar do crescimento da disponibilidade, muitos dados são misturados e “sujos”, no jargão dos programadores, e não há boas bases de dados em português, por exemplo.
“A maioria das técnicas de computação que têm sido utilizadas hoje depende de dados bons, e encontrá-los não é algo trivial”, afirmou Pinhanez.
Outros desafios para o avanço da área estão relacionados a questões éticas e de segurança no uso dos dados.
No caso específico do Brasil, outro desafio é estimular o surgimento de empresas desenvolvedoras de soluções na área.
O país apresenta grandes vantagens para implementar essa área uma vez que, a despeito do tamanho de seu território, a população fala uma única língua, apontou Cozman.
“Isso permite coletar dados e extrair padrões em escalas muito grandes”, avaliou.
Programas como o de Pesquisa Inovativa em Pequenas Empresas (PIPE), da FAPESP, têm contribuído para o surgimento de startups nessa área no Estado de São Paulo, apontou Marcelo Finger, professor do Instituto de Matemática e Estatística da USP e membro da coordenação de ciência e engenharia da computação da FAPESP.
De acordo com Finger, nos últimos seis anos, o programa PIPE-FAPESP aumentou em mais de seis vezes o número de empresas na área de Inteligência Artificial apoiadas.
“Esperamos que esse número se mantenha ou continue crescendo nos próximos anos”, afirmou.
De acordo com dados apresentados por ele, o apoio da FAPESP a projetos na área de inteligência artificial começou em 1992 e aumentou vertiginosamente a partir de 2012.
“A FAPESP é um motor importante para o crescimento que essa área vem tendo no Estado de São Paulo”, avaliou Finger.
Também participaram do evento Roberto de Alencar Lotufo, da Faculdade de Engenharia Elétrica e de Computação, e Esther Luna Colombini, do Instituto de Computação, ambos da Unicamp. Colombini integra um instituto de inteligência artificial lançado recentemente por um grupo de pesquisadores da Universidade Estadual Paulista (Unesp), liderado pelo professor Sérgio Novaes. “Entendemos que estava na hora de o Brasil seguir o mesmo caminho que outros países, como os Estados Unidos e o Canadá têm trilhado recentemente, de criar grandes institutos de referência em Inteligência Artificial para fomentar o desenvolvimento da área no Brasil.”
Fonte: Agência FAPESP