Por Hypescience
Em todos os filmes, livros ou contos que falam sobre a inteligência artificial, o roteiro geralmente é o mesmo: essa tecnologia é criada em prol do bem da humanidade, mas, em algum momento, sai do nosso controle e invariavelmente se torna uma ameaça aos seres humanos, seja porque quer nos destruir ou porque quer nos proteger. Acredite você ou não que a inteligência artificial tem capacidade de destruir a raça humana, a parte do roteiro em que ela sai do nosso controle já está acontecendo.
Seja a inteligência artificial usada para nos mostrar anúncios nas mídias sociais ou para descobertas científicas e exploração espacial da NASA, os programadores que a construíram não sabem por que ela toma uma decisão em vez de outra.
Inspirada pelo cérebro humano, uma rede neural artificial depende de camadas de milhares a milhões de pequenas conexões entre pequenos clusters de computação matemática, que funcionam como os nossos neurônios. É nesta arquitetura de software que está o problema. Como as mudanças nessas milhões de conexões são muito complexas e minuciosas, os pesquisadores não conseguem determinar exatamente o que acontece lá dentro. Eles só sabem que funciona.
O desafio agora é tornar as decisões das máquinas compreensíveis, antes que a tecnologia seja ainda mais abrangente. “Nós não queremos aceitar decisões arbitrárias feitas por entidades, pessoas ou IAs, que não entendemos”, disse o pesquisador da IA da Uber, Jason Yosinkski, para o portal Quartz. “Para que os modelos de aprendizagem de máquinas sejam aceitos pela sociedade, precisamos saber por que elas estão tomando as decisões que estão tomando”, aponta.
Por que precisamos entender?
Pesquisas já mostraram que os algoritmos ampliam os preconceitos nos dados a partir do que eles aprendem e fazem conexões inadvertidas entre ideias. Quando a ideia replicada é algo como, por exemplo, a confusão entre um calçado e um pé, é inofensivo; mas quando a raça, o gênero ou a orientação sexual estão envolvidos, torna-se menos benigno.
“À medida que a aprendizagem de máquinas se torna mais prevalente na sociedade – e as apostas continuam ficando cada vez mais altas – as pessoas estão começando a perceber que não podemos tratar esses sistemas como caixas pretas infalíveis e imparciais”, diz Hanna Wallach, pesquisadora sênior da Microsoft. “Precisamos entender o que está acontecendo dentro deles e como eles estão sendo usados”.
No Laboratório de propulsão a jato da NASA, a inteligência artificial permite que uma sonda em Marte funcione de forma semi-autônoma. A IA também é usada para escolher entre as milhares de fotos tiradas pela sonda que serão transmitidas de volta à Terra. Kiri Wagstaff, pesquisador da inteligência artificial da JPL, ligada à NASA, diz que a IA precisa ser entendida antes de ser usada, devido aos altos riscos que cada decisão traz no espaço.
style="display:block" data-ad-format="autorelaxed" data-ad-client="ca-pub-6652631670584205" data-ad-slot="7514086806">“Uma nave espacial em órbita em torno de Marte, a 200 milhões de quilômetros de distância, custa milhões de dólares, potencialmente até um bilhão de dólares, para estar lá. Se alguma coisa der errado, acabou. Não há como consertar, visitar, substituir essa coisa sem gastar uma imensa quantidade de dinheiro”, diz Wagstaff. “Então, se quisermos colocar o aprendizado de máquina em jogo, as pessoas que executam essas missões precisam entender o que elas (as máquinas) estão fazendo e por que. Por que eles confiariam nisso (a inteligência artificial) para controlar uma sonda ou uma nave em Marte, se eles não sabem por que ela está fazendo as escolhas que está fazendo?”, questiona.
Poder de escolha
Wagstaff trabalha na construção de uma inteligência artificial que classifica as imagens capturadas no espaço pelas várias sondas espaciais da NASA. Como essas imagens podem chegar à casa dos milhões, ter uma IA para fazer isso é de grande ajuda. A questão é que a IA precisa saber como identificar uma imagem “interessante”. Entender o que a IA está procurando é crucial para implementar o algoritmo. Se houver um erro na forma como ela aprendeu a passar pelas imagens, isso poderia significar pular dados que valem os milhões de dólares que a missão custa.
“Apenas ser apresentado a uma imagem que um computador disse ‘Oh, isso é interessante, dê uma olhada’ deixa você nesse tipo de limbo, porque você não olhou todas as imagens, você não sabe por que isso é interessante, o que marcou”, diz Wagstaff. “É por sua cor, por sua forma, por causa do arranjo espacial de objetos na cena?”.
Em 2007, Andrew Gordon Wilson, professor de Inteligência Artificial na Universidade de Cornell, estava trabalhando com uma equipe para construir um novo tipo de máquina de digitalização de PET (Tomografia por Emissão de Pósitrons). Uma vez que certas partículas não se comportavam na máquina como o faziam normalmente, ele foi encarregado de rastrear como uma determinada partícula se movia em um tanque de xenônio.
Usando redes neurais, Wilson pôde usar a luz emitida pela partícula para localizá-la no tanque de xenônio. Ele obteve a resposta que estava procurando, mas percebeu que entender as regras internas que o algoritmo construiu para entender como a luz indicava a posição da partícula poderia ter aberto uma nova via de pesquisa.
“De certa forma, um modelo é uma teoria para nossa observação, e podemos usar o modelo não apenas para fazer previsões, mas também para entender melhor por que as previsões são boas e como esses processos naturais estão funcionando”, diz Wilson.
Explicações artificiais
Mas, para criar novos fundamentos sobre a interpretabilidade, um dos maiores desafios é simplesmente defini-la, diz Wallach. Segundo ele, a interpretabilidade é uma construção latente: algo inobservável, mas avaliado ao testar a forma como as pessoas reais usam e entendem (ou não) os sistemas de IA. Não é apenas uma questão de levantar o capô de um algoritmo e observar como o motor funciona.
Entender um algoritmo não é apenas evitar um determinado viés ou garantir que as sondas da NASA não caiam de um penhasco marciano. Saber como um sistema falhou pode ajudar os pesquisadores a construir sistemas mais precisos. “Se o seu sistema não funciona e você não sabe o porquê, é muito difícil melhorar”, diz Yosinski. “Se você sabe por que está falhando, muitas vezes a solução é uma conclusão inevitável”.
Para descobrir como um de seus algoritmos “pensa”, a Google está tentando peneirar os milhões de cálculos feitos sempre que o algoritmo processa uma imagem. Em um artigo apresentado em uma conferência sobre o assunto, uma equipe da empresa mostrou que conseguiram consertar uma associação indesejada entre imagens de cascas de árvore e pássaros.
Ao olhar para quais neurônios da rede foram ativados quando o sistema analisou imagens de pássaros, a equipe conseguiu determinar o que estava focando nos pássaros e quais estavam focando na casca das árvores, para então desligar os neurônios da casca. O sucesso é um sinal de que a tradução de um trabalho de rede neural em algo que um ser humano entende não é impossível.
É como pedir que a máquina explique como ela faz seus cálculos. “Na escola, pedimos aos alunos que coloquem em suas próprias palavras para provar que eles entenderam algo, mostrar seu trabalho, justificar sua conclusão”, diz Wagstaff. “E agora estamos esperando que as máquinas possam fazer o mesmo”. [Quartz]
Comentários