sol.sapo.pt
Durante décadas, a criação de vídeos artificiais, com algum grau de realismo, foi uma prerrogativava quase exclusiva de Hollywood. Técnicas como o CGI requerem milhões de dólares em software e trabalho especializado. Mas esse custo pode ser cortado com o surgimento das chamadas deepfakes, que usam métodos simples e baratos para criar vídeos falsos, extremamente realistas.
São o futuro da indústria cinematográfica – mas também das fake news.
«As ferramentas são muito fáceis de aceder», salienta Nelson Escravana, diretor de Investigação e Desenvolvimento em Cibersegurança do INOV – INESC Inovação. Neste momento, o grau de realismo das deepfakes «é praticamente total», assegura o investigador. «Facilmente enganam o observador descuidado», acrescenta – basta ver alguns vídeos no Youtube para concordar. E não é preciso ser um génio informático para obter bons resultados. Há software de fonte aberta – o FaceSwap e o DeepFaceLab são os mais conhecidos – e não faltam tutoriais online.
Com um computador normal, uma boa placa gráfica, tempo livre e muitas imagens do seu alvo, pode criar vídeos em que as celebridades e políticos de quem menos gosta dizem as maiores barbaridades.
Os riscos sociais «são grandes», admite Escravana.
«Com campanhas de desinformação a larga escala podemos manipular sociedades. Quer seja contra um determinado grupo ou minoria – como acontece frequentemente – ou influenciando o resultado de eleições», alerta. Sobretudo numa altura em que as redes sociais são uma fonte privilegiada de informação. Estudos do INOV – INESC verificaram que boa parte da população «não gasta muito tempo a perceber quão confiável é a informação que tem à sua frente», nota Escravana. «Muitas vezes olham para um post como olham para as manchetes de um jornal. Com base nisso tomam uma decisão e partilham a informação».
No centro da fabricação de deepfakes estão as chamadas redes neuronais, usadas nos sistemas de inteligência artificial. «É uma ferramenta que tenta, de certa maneira, replicar a forma como o nosso cérebro processa informação», explica o engenheiro do INOV – INESC. Esta tecnologia é usada das mais diversas formas, do reconhecimento de voz e imagem aos veículos com condução autónoma, até aos filtros de troca de caras de aplicações como o Facebook ou o Whatsapp. «Já a usamos no quotidiano», nota Escravana.
Contudo, aquilo a que podemos chamar deepfakes só começa a aparecer em 2016, e é melhorado pela Google. São as redes degenerativas adversárias (GANs, na sigla inglesa). O conceito é colocar duas redes neuronais em competição: uma gera imagens falsas, outra deteta-as. Os erros detetados erros são corrigidos, aperfeiçoando as imagens falsas produzidas – o processo é semelhante para voz.
«Isto pode ser repetido indefinidamente e a cada ciclo melhoramos», afirma o investigador. É um processo moroso, «mas tem o mesmo nível de complexidade que editar vídeos», considera. «Quanto mais tempo espera, melhor a qualidade. Diria que em dois ou três dias já estará razoável». Por agora, a maioria dos softwares só funciona com caras e voz, mas o futuro encaminha-se para deepfakes de corpo inteiro.
«As deepfakes são algo que vamos ver crescer nos próximos anos, meses até», prevê Escravana. Ainda não há dados quantitativos quanto ao uso de deepfakes para desinformação. Apesar do potencial estar lá, ainda não é um fenómeno comum. «A maioria das fake news que encontramos ainda não usa deepfakes», afirma o investigador, explicando que «é muito fácil preparar fake news com base numa fotografia». Afinal, «o público está habituado a que a imagem não corresponda exatamente à notícia. Aliás, os próprios media usam muito stock images» – é o caso deste artigo.
Contudo, no futuro, no que toca às deepfakes, Escravana avisa: «Vamos ver um pouco de tudo. Vamos ver deepfakes de celebridades, só para se tornarem virais. Mas também mais direcionados, por grupos com vários interesses». Imagine os estragos financeiros que se pode causar a uma multinacional com o vídeo do seu CEO a admitir um escândalo. Ou o risco do uso de deepfakes por serviços secretos, contra Estados adversários. «Não me admira que isso aconteça, de forma direta ou indireta», considera o investigador, traçando paralelos com os ataques cibernéticos ocorridos contra a Ucrânia ou os Estados Unidos. «Até a China já se queixa disso», menciona. «A ciberguerra, ou ciberguerrilha – é muito mais guerrilha que uma guerra – não é um fenómeno novo».
Mas o perigo não é só a criação de desinformação – a confiança na informação verdadeira também fica posta em causa. Um caso ilustrativo é o de João Dória, governador de São Paulo. Em 2018, as redes sociais explodiram com a divulgação de um vídeo que mostrava Dória, um político conservador, numa orgia. O Governador de São Paulo garantiu que se tratava de uma deepfake, cuja deteção é mais difícil quando os vídeos são curtos e de má qualidade: até hoje, não se conseguiu provar conclusivamente se o vídeo era verdadeiro ou falso.
Se o público não pode sequer confiar no que vê, como se pode manter informado? «As pessoas têm de ter alguma cautela em relação ao que veem ou leem», aconselha Escravana. «Um pouco aquilo que um jornalista faz antes de dar uma notícia», ou seja, verificar factos e correlacionar fontes. Claro que o cidadão comum raramente tem o tempo ou as ferramentas para o fazer. É por isso que INOV – INESC está no projeto EUNOMIA, financiado pela Comissão Europeia.
A intenção é criar uma plataforma para verificar quão confiáveis são os conteúdos nas redes sociais, rastreando a sua origem e onde foram replicados.
Outra possibilidade são as ferramentas que estão a ser desenvolvidas por gigantes como a Google e o Facebook, que detetam vídeos falsos através de pequenas falhas – muitas vezes imperceptíveis a olho nu. O problema é que as ferramentas que detetetam deepfakes são muito semelhantes às que as geram, através de redes degenerativas adversárias – quando melhoramos um, melhoramos o outro. É uma espécie de corrida às armas informáticas, ou um «jogo do gato e do rato», nas palavras de Escravana.
Sem comentários:
Enviar um comentário