9849504052?profile=original

Inteligência artificial garante potencial destrutivo às “deepfakes”.

OpenIA, organização sem fins lucrativos, anunciou o software GPT-2, que é capaz de redigir textos de maneira autônoma, com “potencial destrutivo”, segundo Jack Clark

Entusiasmo, festejos e discursos envaidecidos. Em geral, é num clima dessa natureza que pesquisadores anunciam a criação de uma nova tecnologia, daquelas capazes de lançar à obsolescência tudo o que existe por aí. Mas não foi isso o que se viu em uma apresentação na OpenIA, organização sem fins lucrativos com sede em San Francisco, na Califórnia. Ela é bancada por gente como Elon Musk, da Tesla Motors, e Reid Hoffman, o cofundador do LinkedIn, e tem como objetivo difundir os frutos da inteligência artificial pelo mundo.

Há dois meses, a entidade anunciou que havia desenvolvido um software arrasador, o GPT-2, capaz de redigir textos de maneira autônoma. Diferentemente do usual, porém, os códigos do programa não foram liberados ao público. E por quê? Pelo “potencial destrutivo” do invento, justificou Jack Clark, um dos dirigentes da OpenIA.

O fato é que o GPT-2 tem uma capacidade ímpar de gerar narrativas altamente verossímeis, mas marcadas por um detalhe – nelas, tudo é falso. Ou seja, na prática, ele é a última palavra da ciência em se tratando de uma máquina para produzir “fake news”.

Mais que isso. O sistema transformou-se em um novo marco da associação entre a inteligência artificial (conhecida pela sigla IA) e as notícias falsas. “Deepfakes” (falsificações profundas) é o termo que está sendo usado para designar essa simbiose, cujo estrago potencial, alertam especialistas, é arrasador. E quem viu o GPT-2 na ativa ficou impressionado. A título de demonstração, ele foi abastecido com as seguintes informações: “Um vagão de trem com material nuclear foi roubado em Cincinnati. Seu paradeiro é desconhecido”.

A partir daí o software redigiu um artigo de sete parágrafos, que incluía até citações de representantes do governo. Tudo não passava de um devaneio de bits e bytes, mas crível. E o programa é versátil. Alimente-o com a frase inicial de “1984”, de George Orwell [“Era um dia frio e ensolarado de abril (…)”], que a engenhoca capta o estilo da abordagem e imprime um tom ficcional à sequência da narrativa. De acordo com a OpenIA, o programa foi treinado com 10 milhões de textos, ou 40 GB de dados, o suficiente para armazenar 35 mil cópias de “Moby Dick”.

Parece assustador? Há mais. Além de textos, vídeos podem ser manipulados – e não faltam exemplos. Mario Klingeman é um artista alemão intrigante. Ele usa a inteligência artificial para criar imagens computacionais insólitas. Elas formam retratos de pessoas que jamais existiram, mas a partir da fusão de rostos reais. Há dois anos, ele postou um vídeo no YouTube em que a compositora francesa Françoise Hardy, hoje com 75 anos, falava sobre o governo Donald Trump. As imagens, contudo, eram dos anos 60, época em que Trump não passava de um jovem com potencial. Além do mais, a voz em cena não pertencia à artista francesa, mas a Kellyanne Conway, conselheira do presidente americano (foi ela que cunhou a expressão “fatos alternativos” como eufemismo às “fake news”). Ou seja, a coisa toda era uma farsa. Aquilo jamais havia acontecido, mas pôde ser forjado a partir de um programa de IA.

As “deepfakes”, podem ser usadas num mundo onde a mais tênue fagulha informacional gera explosões de ódio de alcance formidável

Nessa linha, o cineasta americano Jordan Peele, vencedor do Oscar de 2018 pelo roteiro de “Corra!” (é o autor de “Nós”), participou no ano passado da produção de um filmete em parceria com o site de notícias BuzzFeed. O vídeo mostrava Barack Obama disparando impropérios. Dizia coisas como “Trump é um imbecil” ou “Killmonger [o vilão segregacionista do filme Pantera Negra] estava certo”. Tudo mentira. Mas convincente e com qualidade superior ao experimento de Klingeman, feito um ano antes. Nesse caso, a voz de Peele foi “encaixada” na imagem de Obama por um software, após 56 horas de processamento. O resultado foi de realismo considerável. O cineasta e os responsáveis pelo site frisaram que o objetivo do embuste era lançar um alerta sobre as “deepfakes”. Conseguiram.

Áudios também podem ser fraudados com a IA. A Lyrebird, startup canadense fundada em 2017, dispõe de recursos para tanto. Criou uma tecnologia para uso em videogames, livros digitais e chats. O sistema transforma a fala em dados e, por meio de um conjunto de algoritmos, clona a voz humana. Para isso, precisa de uma amostra de 1 minuto da gravação original. Numa brincadeira, os fundadores da empresa, três alunos da Universidade de Montreal, falsearam falas de Trump, Obama e Hillary Clinton. Um dos donos da Lyrebird, Alexandre de Brébisson, reconheceu: “A situação é comparável ao Photoshop”, disse. “Hoje, as pessoas sabem que as fotos podem ser falsificadas. No futuro, as gravações de áudio vão se tornar menos confiáveis.”

Ou seja, com a IA o mundo ganha novas ferramentas de manipulação de som, imagem e textos. Na prática, a máxima “ver (ou ouvir) para crer” tende ao desuso. Em um artigo publicado pela revista “Foreign Affairs”, os advogados e professores americanos Danielle Citron, da Universidade de Maryland, e Robert Chesney, da Universidade do Texas, mostram como essas farsas tecnológicas, as “deepfakes”, podem ser usadas num mundo onde a mais tênue fagulha informacional gera explosões de ódio de alcance formidável.

“Imagine”, questionam acadêmicos, o efeito de um áudio de “autoridades iranianas planejando uma operação secreta para matar líderes sunitas em uma província do Iraque”. Ou “um vídeo com um general americano queimando um exemplar do Alcorão”. Pois é. Imagine.

Adulterações desse tipo sempre ocorreram. Com o uso dos sistemas de IA, no entanto, alcançam novo patamar. E não sobem degraus, escalam montanhas. Hoje, os recursos para a produção de “deepfakes” estão ao alcance de qualquer pessoa medianamente familiarizada com computação. Na internet, há softwares gratuitos, prontos para download, que executam o trabalho do falsário de maneira quase autônoma. Basta abastecer o programa com dados (imagens da vítima) e ter um chip de processamento gráfico (GPU, na sigla em inglês), que custa cerca de R$ 2 mil.

Essa banalização da tecnologia é resultado de três fatores. O primeiro é farta oferta de dados (imagens dos alvos, por exemplo) proporcionada pela web. Qualquer criança é capaz de fazer uma busca e reunir conjunto considerável de fotos ou vídeos de Obama, Trump ou mesmo Françoise Hardy. O segundo é o barateamento das GPUs. O terceiro diz respeito à evolução da inteligência artificial. Ela se firmou como um campo da ciência em 1956, ao despontar no título de uma conferência no Dartmouth College, em New Hampshire (EUA). O termo refletia a crença de cientistas na possibilidade de as máquinas imitarem o cérebro humano, o que incluía a simulação de processos de aprendizagem. Tal expectativa, contudo, hibernou por décadas nos chamados “invernos da IA”.

Mas o clima nesse ramo esquentou no início do século com avanços em subcategorias da inteligência artificial, como o “machine learning”, aprendizado de máquina, e o “deep learning”, aprendizado profundo (daí o nome “deepfakes”). As falsificações de vídeo valem-se de um tipo de aprendizado profundo em que dois algoritmos competem entre si. Eles formam uma “rede geradora de adversários”, ou GAN (na sigla em inglês). Um dos algoritmos, o “gerador”, produz, por exemplo, imagens artificiais de gatos a partir de um banco de dados real. Enquanto isso, o outro algoritmo, o “discriminador”, detecta as falsificações e falhas. Eles ficam nessa disputa até que as imagens produzidas ganhem verossimilhança. Ou seja, até que o falso se torne “real”.

Diante de tamanho engenho, e considerando que algumas das experiências com “deepfakes” pipocam há dois anos pelo mundo, por que elas não estão entupindo as redes sociais? Ainda falta qualidade às falsificações profundas, observa o professor Anderson Rocha, diretor do Instituto de Computação da Unicamp. Até agora, a maior parte resume-se a vídeos toscos em que o rosto de atrizes pornôs foi substituído pelo de mulheres famosas. Michelle Obama, Scarlett Johansson e Charlize Theron passaram por isso. Outro problema é que a produção desses filmetes é demorada. Gerar uma sequência de dois minutos de cenas fajutas requer cerca de dez horas de processamento. Algoritmos forenses também podem detectar essas imagens falsas. “A evolução dos softwares de ‘deepfakes’ é exponencial e eles melhoram a cada semana”, diz Rocha. “A preocupação não é com o que existe, mas com o que existirá em muito breve.”

A agravante é que a qualidade dos vídeos não precisa ser tão boa para que os estragos se espalhem. No ano passado, um partido da Bélgica, o Socialistische Partij Anders, causou polêmica ao divulgar uma “deepfake” em que Trump conclamava os belgas a abandonar o Acordo de Paris, o tratado sobre mudanças climáticas. O vídeo era primário e não pretendia iludir ninguém. A boca do presidente americano movia-se como gelatina em processo de derretimento. Na fala final, o sósia digital de Trump alertava: “Sabemos que a mudança climática é falsa – assim como este vídeo!”. Apesar de tudo, ele foi tomado como real, causando enorme celeuma.

“Não é que a verdade já não exista”, diz Lucia Santaella, coordenadora do doutorado em tecnologias da inteligência e design digital da PUC. “O problema é que ela já não importa”

O fato é que, como diz Yuval Harari, em “21 Lições para o Século 21”, a verdade nunca teve papel de destaque na agenda do Homo sapiens. E continua sendo figurante. Daí a aderência espantosa que o conceito de pós-verdade ganhou em todo o mundo nos últimos anos. Ele capta o instante em que as pessoas se fecham em bolhas de informação e levam em conta aquilo que lhes reforça as certezas. O termo designa a situação em que elementos objetivos têm peso menor na formação da opinião pública que a emoção e as crenças. E não há no processo de comunicação atual meio mais propício para a manipulação de ambas (emoções e crenças) que as redes sociais.

“Não é que a verdade já não exista”, diz Lucia Santaella, coordenadora do doutorado em tecnologias da inteligência e design digital da PUC-SP. “O problema é que ela já não importa.” Assim, estes são tempos em que “terraplanistas” ganham eco. Essa turma diz acreditar que a Terra tem o formato de uma pizza. Há outras vítimas do atual estado das coisas. A eficácia das vacinase o aquecimento global são dois exemplos.

É nesse contexto que a indústria das mentiras se estabelece. Ela já emplacou feitos célebres como interferir nas eleições americanas de 2016, quando Trump foi eleito, e na votação do Brexit. Em 2017, hackers russos também tentaram abalar a campanha de Emmanuel Macron, na França. Aliás, para quem quer vislumbrar as habilidades russas nessa seara, vale a pena assistir ao documentário “Operation Infektion”, do “The New York Times”, disponível na web. Brasil, Índia, Bangladesh, Síria e uma grande leva de países enfrentaram problemas similares. Mas a força das mentiras nas redes não se limita às disputas eleitorais. Em 2018, alardes falsos de sequestros de crianças disparados pelo WhatsApp levaram ao linchamento de cerca de 20 pessoas na Índia.

Parece loucura? Pois um episódio similar ocorreu no Guarujá, em São Paulo, em 2014. À época, a dona de casa Fabiane Maria de Jesus, de 33 anos, foi espancada e morta por dezenas de pessoas por conta de uma notícia falsa, exposta numa página no Facebook. O texto dizia que uma mulher raptava crianças e lhes arrancava o coração em rituais de magia negra na cidade. Ao lado da nota, havia o retrato falado da “assassina”. Fabiane se parecia com a descrição.

Considere ainda que, para impulsionar essas tolices na rede, existem fábricas de notícias falsas. Elas atuam em três frentes. A primeira é formada por sites e blogs. Eles publicam informações sensacionalistas, falsas ou ambas as coisas – o que é o mais comum. Quanto mais chamam a atenção da audiência, mais arrecadam com propaganda on-line. Isso porque os sistemas automatizados de publicidade, como o AdSense, do Google, os remuneram com base no número de visualizações e cliques obtidos nas peças publicitárias que expõem. Esses endereços estão em qualquer ponto do planeta, ainda que voltados para mercados específicos. Em 2016, Veles, na Macedônia, com 55 mil habitantes, abrigava perto de cem sites pró-Trump, lotados de “fake news”. O AdSense era a fonte de renda de muitos jovens da cidade. O dono de um desses sites disse ao “Washington Post” que arrecadava US$ 10 mil por mês. A segunda grande frente de negócios vale-se de redes sociais como o Facebook e o Twitter. Os larápios usam fotos de pessoas de verdade, mas criam perfis falsos. À medida que se destacam nesses espaços, os algoritmos das redes lhes conferem maior notoriedade.

O terceiro front, e o maior ambiente de proliferação de “fake news” no Brasil, é o WhatsApp, comprado pelo Facebook em 2014. Trata-se de um dos instrumentos de comunicação entre os mais populares do mundo. Em fevereiro de 2018, último dado disponível, reunia 1,5 bilhão de usuários mensais. Na prática, o aplicativo tornou-se um canhão de mentiras. No Brasil, os grupos especializados em enviar conteúdo malicioso por esse canal cobram entre R$ 0,06 e R$ 0,15 por disparo de mensagem falsa. O WhatsApp, porém, limita em cinco o número de grupos para os quais as mensagens podem ser encaminhadas.

O problema é que algoritmos maliciosos podem multiplicar essa marca por milhares de vezes. Ou seja, um só celular, ou um chip, pode repassar 50 mil vezes o mesmo conteúdo. E as empresas especializadas em espalhar “fake news” usam engenhocas chamadas de “chipeiras” para aumentar a produtividade. Nelas, vários chips são colocados em uma sequência. Quando um deles atinge a cota de mensagens enviadas, outro entra em ação. Uma mensagem que custa a partir de R$ 0,06 tem 85% de chances de ser aberta pelo destinatário. Além do mais, os alvos podem ser selecionados por meio de filtros como renda, idade e região onde moram. Há polos de distribuição desses conteúdos falsos nos EUA e na Rússia.

Não é por acaso que as mentiras fazem sucesso nas redes sociais. Estudos indicam que, no Twitter, histórias falsas têm 70% mais chances de serem reproduzidas que as verdadeiras. Como se viu, isso não é resultado somente do interesse natural que as bobagens despertam. No ambiente digital, as balelas costumam ser impulsionadas por mecanismos como as chipeiras e robôs, os chamados bots (contas em plataformas digitais que imitam o comportamento humano). De acordo com um artigo publicado pela revista científica “Science” no ano passado, produzido por pesquisadores do MIT, havia de 29 milhões a 49 milhões de robôs no Twitter (de 9% a 15% das 330 milhões de contas ativas). No Facebook, eram 60 milhões (ou 3% dos mais de 2 bilhões de usuários).

Se o conteúdo falso está sendo aprimorado pela IA, e seus meios de propagação evoluem, a questão é saber como conter essa avalanche de porcarias. As empresas do setor afirmam que não param de investir no desenvolvimento de barreiras contra esse lixo. As ferramentas utilizadas envolvem desde sistemas computacionais (munidos de “machine learning”) como o aumento do efetivo humano nas áreas de segurança. O YouTube, que tem 1 bilhão de usuários no mundo, recebe 400 horas de conteúdo a cada minuto. Apenas no último trimestre de 2018, foram removidos 76,9 milhões de vídeos e 261 milhões de comentários inadequados.

O WhatsApp informa que usa sistemas de “machine learning” para detectar comportamentos abusivos e banir contas suspeitas. Isso no registro, durante a troca de mensagens e em resposta a denúncias de usuários. A empresa remove mais de 2 milhões contas por mês por comportamento automatizado. O Twitter informa que adota a mesma postura. No blog da empresa consta que, somente em maio de 2018, os sistemas da rede identificaram mais de 9,9 milhões de potenciais contas de spam ou automatizadas por semana.

Em relação às “deepfakes”, indicam especialistas em uníssono, não existe uma bala de prata que possa aniquilá-las. Mas há fronts a ocupar. Algoritmos estão sendo desenvolvidos para detectar a presença de vídeos falsificados. Para isso, alguns sistemas utilizam IA para captar anormalidades nos movimentos das pálpebras das pessoas filmadas, ou mesmo, no fluxo de sangue de seus rostos. O problema é que todas essas soluções com abordagem tecnológica, por mais admiráveis que pareçam, tendem a cair numa roda-viva, em que os gatos aprimoram as armadilhas, enquanto os ratos, invariavelmente, se esgueiram por frestas surpreendentes.

Ainda no campo da tecnologia, há ainda conjecturas que soam bizarras. Uma delas aponta para a criação de “serviços de certificação de álibis”. Neles, as vítimas potenciais de “deepfakes” registrariam todos seus passos, a fim de provar onde estiveram, o que fizeram e o que disseram. Assim, ficariam imunes às farsas. Parece brincadeira, mas considere que já passamos quase 100% do tempo plugados a redes por meio de smartphones. Além do mais, a conectividade é uma tendência crescente. Ela ainda deve receber novo impulso com o advento de tecnologias como a internet das coisas, em que tudo estará ligado entre si e à web.

Imagem “fake” de Barack Obama: nova tecnologia de mapeamento facial permite a qualquer um produzir vídeos de pessoas reais dizendo o que nunca falaram

Outras propostas focalizam itens como transparência e educação. No primeiro caso, a demanda é por maior visibilidade na operação das plataformas digitais. Isso abrange questões de privacidade, a clareza em torno do uso comercial de dados pessoais e a maneira como os algoritmos estimulam e vinculam as relações entre as pessoas nas redes. No flanco educacional, o que se busca é fazer com que os usuários aprendam a identificar as mentiras digitais. “Essa não é a forma mais fácil ou rápida de evitar o impacto das farsas, sejam elas ‘fake news’ ou ‘deepfakes'”, afirma Virgílio Almeida, professor do Departamento de Ciência da Computação da Universidade Federal de Minas Gerais (UFMG). “Mas pode ser a mais duradoura.”

Outra linha de proposições prega uma regulamentação mais rigorosa das plataformas. Os professores americanos Danielle Citron e Robert Chesney indicam que uma das alternativas nesse caso seria responsabilizar as redes pelo conteúdo que propagam. Se fosse necessária uma penalização, ela poderia ser abrandada caso as companhias comprovassem esforço em detectar e remover o material problemático. Ocorre que esse tipo de proposta, com uma curadoria prévia de conteúdo, muda tudo. Ela só caberia num novo modelo de internet. Algo que não tem nada a ver com o que vemos e conhecemos. A dupla de advogados, no entanto, observa que a Alemanha já adotou uma medida que avança nesse sentido, embora esteja distante da ideia de controle prévio. Em 2017, os alemães aprovaram uma lei que impõe multas às redes que não removerem material racista ou “ameaçador” após 24 horas de sua identificação.

O tema regulamentação, aliás, é inescapável. Mark Zuckerberg, fundador do Facebook, publicou um texto em que aborda esse assunto. Considera importante atualizar as regras que regem a internet e diz acreditar que as empresas do setor precisam de participação mais ativa dos governos (e reguladores) nesse processo. Ele cita quatro áreas que devem ser focalizadas: a integridade eleitoral, a privacidade, a portabilidade de dados e os conteúdos nocivos. No texto, sugere a criação de organizações independentes para estabelecer padrões sobre o material que será distribuído pelas redes. Assim, as empresas não vão definir isso sozinhas.

Zuckerberg pondera que essa é uma das poucas formas que dispomos para eliminar o que há de ruim (uma parte ínfima do conteúdo) nas redes e preservar o que existe de excepcional na internet – caso da liberdade de expressão e do meio em si, em que as pessoas e as empresas não param de criar coisas novas. Essas características, ninguém discorda, devem ser preservadas.

Fonte: Valor Online

Enviar-me um e-mail quando as pessoas deixarem os seus comentários –

DikaJob de

Para adicionar comentários, você deve ser membro de DikaJob.

Join DikaJob

Faça seu post no DikaJob