Não é de hoje que especialistas têm alertado que a Inteligência Artificial reproduz os preconceitos da sociedade. [Imagem: Computerizer /Pixabay]
Faróis virados para trás
Engenheiros da computação nas maiores empresas e universidades do mundo estão usando máquinas para digitalizar volumes imensos de material escrito.
O objetivo? Ensinar aos computadores o dom da linguagem. Se você fizer isso, argumentam alguns especialistas, os computadores serão capazes de imitar o cérebro humano.
Acontece que a leitura de dados do passado vai ensinar truques velhos - ou suposições válidas no passado, mas não no presente.
Assim, a impressionante capacidade de computação disponível hoje vem com custos reais, incluindo perpetuar o racismo e causar danos ambientais significativos.
"A pergunta que estamos fazendo é: 'Quais são os possíveis perigos dessa abordagem?', e as respostas que estamos dando envolvem fazer um levantamento da literatura em uma ampla gama de campos e reunir tudo," disse a professora Emily Bender, da Universidade de Washington (EUA).
Perpetuação de desigualdades
O que os pesquisadores descobriram foi que existem desvantagens com a abordagem de usar o poder de computação cada vez maior colocando-a para aprender modelos de linguagem natural.
De forma alarmante, esses modelos de falar natural perpetuam a linguagem hegemônica e podem levar as pessoas a pensar que estão tendo uma conversa "real" com uma pessoa - em vez de estarem falando com uma máquina.
"É muito claro que precisamos lidar com essas preocupações agora, porque já está ficando tarde demais," disse Mitchell.
Outro risco levantado pela equipe vem dos próprios dados de treinamento. Como os computadores leem a linguagem da Web e de outras fontes, eles podem pegar e perpetuar ideologias racistas, sexistas, meritocracistas, extremistas e outras ideologias prejudiciais - e nunca levam em conta as pessoas "invisíveis", aquelas fora da economia formal.
"Uma das falácias em que as pessoas caem é: Bem, a internet é tão grande que a internet abrange tudo. Se eu apenas explorar toda a internet, então claramente incorporei diversos pontos de vista," comenta Bender. "Mas, quando fizemos uma revisão passo a passo da literatura, [essa literatura] mostra que não é assim porque nem todo mundo está na internet, e das pessoas que estão na internet, nem todo mundo está socialmente confortável participando da mesma maneira."
Artigo: On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
Autores: Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell
Publicação: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency
Vol.: Pages 610-623
DOI: 10.1145/3442188.3445922
Comentários