O velho jargão popular “só acredito vendo” começa a ser deixado para trás. Confiar nos próprios olhos para confirmar informações ainda tem seus adeptos, mas perde legitimidade com a disseminação de ferramentas de manipulação de imagens e sons capazes de criar uma realidade distópica. Nas redes sociais, nem tudo que se enxerga e escuta é real: pode ser produto de combinações de algoritmos, geradas a partir de técnicas da inteligência artificial. São as chamadas “deepfakes” (falsificações profundas), vídeos falsos que mostram pessoas fazendo ou dizendo coisas que nunca realizaram. Seu potencial de causar danos e destruir reputações é grande, apontam pesquisadores.

Ainda que conceber pessoas digitalmente não seja uma novidade – técnicas como essa são amplamente utilizadas na indústria cinematográfica –, sua aplicação fora dos estúdios pode ter desdobramentos dramáticos. No primeiro caso conhecido de uso político de “deepfake”, o Partido Socialista Diferente, da Bélgica, publicou em 2018 um vídeo adulterado do presidente norte-americano. No material, Donald Trump faz um convite. “Como você sabe, eu tive coragem de me retirar do acordo climático de Paris. E vocês também deveriam. Porque o que vocês estão fazendo agora na Bélgica é realmente pior. Você concordam, mas não estão tomando nenhuma medida”, diz o simulacro.

No fim, afirma: “Todos sabemos que as mudanças climáticas são falsas, assim como este vídeo”, mas esta parte não foi traduzida nas legendas em flamengo. Além da frase, os movimentos brutos da boca denunciam que o vídeo é falso. Mesmo assim, gerou polêmicas e provocou enganou eleitores. “Trump precisa olhar para seu próprio país com seus loucos assassinos de crianças”, escreveu uma usuária no Facebook, enquanto outros apoiavam a fala. O partido afirmou que queria “iniciar um debate público” para “chamar a atenção para a necessidade de agir sobre as mudanças climáticas” e teve de responder aos comentários para reforçar que se tratava de uma mensagem falsa.

O jornalista belga e um dos criadores da Equipe de Pesquisa em “deepfake” da Universidade de Stanford, Tom Van de Weghe, demonstra preocupação com o uso de tecnologia no âmbito da política e sua fragilização dos processos democráticos. Contudo, avalia que, com quantidade de fotos disponíveis nas redes sociais, qualquer pessoa pode se tornar vítima. “Os fraudantes só precisam baixá-las e treinar seus algoritmos se quiserem usá-las para roubar identidade, chantagear ou divulgar notícias negativas sobre alguém. Não apenas políticos, CEOs ou outras pessoas influentes”, avalia.

Em julho deste ano, os artistas Bill Posters e Daniel Howe publicaram um vídeo digitalmente alterado de Mark Zuckerberg no Instagram. “Imagine isso por um segundo: um homem, com controle total de bilhões de dados roubados, todos os seus segredos, suas vidas, seu futuro. Eu devo tudo isso à Spectre. A Spectre me mostrou que quem controla os dados controla o futuro”, afirma a persona digitalmente criada do CEO do Facebook. Apesar de reconhecidamente falso, a empresa declarou que não pretende removê-lo. Com isso, sofreu fortes críticas de que estava ajudando a espalhar informações erradas.

A pesquisadora do instituto Data & Society e professora da Rutgers University, nos Estados Unidos, Britt Paris, corrobora que qualquer pessoa é um alvo para o “deepfake” por conta da grande quantidade de fotos compartilhadas nas redes sociais. Ela ainda avalia que há grupos em maior vulnerabilidade. “Embora exista muito pânico em torno dos ataques profundos que possam intervir na política, o que é pouco discutido são as maneiras pelas quais essa tática é usado como armas contra mulheres, grupos étnicos e aqueles que questionam sistemas. Esses casos não recebem tanta atenção porque não têm posições de poder”, comenta. Ela lembra um vídeo enviado à jornalista indiana Rana Ayyub como uma forma de chantagem. “Os manipuladores fizeram um vídeo pornográfico com um corpo duplo, na tentativa de silenciar suas críticas ao governo”, explica.

Este caso está diretamente relacionado ao surgimento do termo deep fake. Ele se originou em dezembro de 2017, quando um usuário anônimo na plataforma Reddit, que se autodenominava “deep fakes”, aplicou algoritmos para sobrepor digitalmente rostos de atrizes de Hollywood em cenas de sexo. Cerca de dois meses depois, foi banido. Mas o estrago já estava feito e o homem havia inspirado dezenas de pessoas que deram continuidade ao trabalho e continuaram a espalhar conteúdos de estilo semelhante.

Van de Weghe estima que existam cerca de dez mil vídeos concebidos digitalmente circulando nas redes sociais. E o número está crescendo, assim como seu potencial de ferir reputações. “É provável que os meios para criar deepfakes se proliferem rapidamente, produzindo um círculo cada vez maior de atores capazes de empregá-los para diversos fins”, alerta.

Contudo, explica que, para criar um “deepfake” com qualidade indiscutível, é crucial ter uma placa de vídeo poderosa. “Quanto melhor o resultado desejado, mais tempo você terá para executar o processo de computação”, explica. Existem alternativas, entretanto: “Se você não tiver tempo, poderá solicitar um vídeo deepfake online”, diz. Lembra também que há até mesmo a possibilidade de se comprar vídeos falsos. “No YouTube, é fácil encontrar usuários vendendo o serviço por cerca de 20 dólares”, comenta.

A popularização dos softwares é um problema, reconhece a coordenadora do Grupo de Pesquisa em Inteligência Artificial da Universidade Federal do Rio Grande do Sul, Ana Bazzan. Mas a pesquisadora lembra que as falsidades são usadas há muito tempo. “Isto aparentemente é inerente ao ser humano, infelizmente. É pior ter fake news geradas de forma centralizada por um autoritário como Goebbels, ou por um Stalin, ou, como hoje, por todos nós?”, indaga.

A questão da responsabilidade social envolvida na criação de tecnologias e deepfakes foi debatida em 2018, pelo cientista da computação Supasorn Suwajanakorn. No evento TED  de 2008, ele mostrou como, enquanto estudante de graduação, usou a inteligência artificial e a modelagem em 3D para criar vídeos fotorrealistas do ex-presidente estadunidense Barack Obama sincronizados com áudio. Ele reconheceu que a tecnologia poderia ser usada para negativos, mas também explicou que sua inspiração surgiu de uma causa positiva, um projeto para preservar as memórias e aprender sobre o holocausto com os sobreviventes, a par interação com hologramas de vítimas com mensagens pré-gravadas.

Mesmo com malefícios evidentes da disseminação das técnicas da inteligência computacional enquanto ferramenta para criar irrealidades, a coordenadora do grupo de pesquisa da Ufrgs vê a possibilidade de integrar o uso de IA em educação para criar um pensamento mais crítico, ainda que isso seja um desafio. “É preciso que alguém queira ser educado ou treinado, o que não é trivial. Forçar não parece ser alternativa. Não sei muito bem como atingir este público, mas, sou otimista que, enquanto seres humanos, vamos aprender lições”, argumenta.

Ninguém acredita em nada

Britt Paris teme que as deep fakes possam levar a uma era da negação, em que políticos possam começar a desmentir conteúdos verdadeiros, dizendo que são falsos. Para o coordenador do curso de mestrado em Mass Communication da Universidade da Flórida, Andrew Selepak, é impossível dissociar a proliferação das “deepfakes” de uma análise da relação da mídia com a sociedade. A desconfiança levou muitas pessoas a abandonar as formas tradicionais de consumo de notícias e procurar informações nas mídias sociais, muitas vezes, sem checar a procedência do que é postado.

“Quando você pode manipular qualquer imagem, áudio ou vídeo, pode diminuir a fé do cidadão em todas essas estruturas sociais. Produz entrevistas, declarações ou discursos fabricados e cria uma realidade falsa que limita ainda mais nossa confiança ou nos torna ainda mais entrincheirados em nossas próprias crenças. Isso é perigoso para qualquer sociedade democrática”, afirma.

Cheap fakes: enganações falsas, mas perigosas

Britt Paris situa as deep fakes com parte de uma vertente de estudo que ela chama de “manipulação audiovisual”, entendida como uma ferramenta a serviço da desinformação. Os perigos desta e sua ascensão na Internet são alertados pelo Fórum Econômico Mundial desde 2013, antes da questão ganhar notoriedade e extensos debates em universidades e centros de pesquisa. No Relatório Global de Riscos daquele ano, a instituição chamou atenção para o uso intencional das mídias sociais para espalhar conteúdos falsos e para a dificuldade de corrigi-los quando eles se espalhavam em redes confiáveis.

Além das falsificações profundas, a professora identifica o que chama de “cheap fakes” (falsificações baratas), que se baseiam na adulteração através de técnicas convencionais fáceis, como acelerar, diminuir a velocidade e cortar, além de manipulações não-técnicas, como reorganizar ou recontextualizar filmagens existentes. Tratas-se de uma edição de vídeo mais barata, que muitas vezes não são tão fidedignas.

Um exemplo é um vídeo de uma entrevista da presidente da Câmara dos Deputados dos Estados Unidos, a democrata Nancy Pelosi, no qual a velocidade foi reduzida a 75% e os agudos da voz alterados para parecer que ela estava bêbada. Embora a edição tenha recebido visualizações significativas no Facebook, foi somente depois de divulgada pelo presidente Donald Trump e outros políticos republicanos no Twitter que se tornou um problema.

“Técnicas semelhantes foram usadas em esforço de desinformação na Índia em 2018. Os manipuladores circularam um vídeo via WhatsApp que mostrava imagens de um ataque de gás na Síria em de 2013. Ao identificar incorretamente a hora e os eventos do vídeo, os manipuladores o usaram para apoiar falsas alegações de sequestro de crianças e violência na Índia rural”, destaca. Para a pesquisadora, as “cheap fakes” são tão prejudiciais quanto sua versão mais “refinada”.

Vácuo legislativo

Enquanto problema relativamente novo, as “deepfakes” se mostram ainda mais perigosas por usufruírem da inadequação de leis para tratar da questão. Em nível global, os países não possuem legislação específica que preveem punições a quem compartilha ou desenvolve os vídeos. O Brasil não tem uma legislação robusta e consolidada para a questão de cibercrimes, mas existem algumas respostas jurídicas, argumenta a pesquisadora em Direito e Novas Tecnologias do Instituto de Tecnologia e Sociedade do Rio de Janeiro, Priscilla Silva. “Um exemplo é o Marco Civil, que garante a possibilidade de remoção desses conteúdos. Basta que a pessoa entre com pedido na plataforma e, se não for atendido, pode entrar com pedido de remoção de conteúdo na Justiça. Se a plataforma não remover após uma intimação judicial, pode ser responsabilizada por isso”, explica.

Priscilla analisa que há a possibilidade de se configurar a criação desses conteúdos como uma violação dos direitos de imagem, remediando juridicamente o caso com as punições previstas. Para isso, existem parâmetros que podem ajudar a identificar se houve tal crime, como a verificação da veracidade, motivação para a exposição da imagem, se houve ampla disseminação e o teor do conteúdo. Nesse sentido, entende que a disseminação de “deepfakes” é uma ferramenta usada para impulsionamento de discursos de ódio.

“Também temos casos de violação à honra, em que ocorre a difamação, a calúnia ou a injúria. São casos em que você conecta um fato ofensivo à reputação de uma pessoa, imputa um crime a alguém ou então ofende alguém de alguma forma. Isso também configura uma contravenção”, avalia, ressaltando que caberá a um juiz o entendimento como tal.

Para suprir as lacunas existentes no Direito, aos poucos ocorrem modificações. Em julho, uma atualização da lei do estado da Virgínia, nos Estados Unidos, contra pornografia e sua distribuição passou a incluir a prática como ato criminoso. A redação original abordava o pornô de vingança como forma de “coerção, assédio ou intimidação” e, com a mudança, passou a abranger “vídeos ou imagens falsamente criados”. De acordo com as normas, essa é uma contravenção “classe 1”, com punição de até 12 meses de prisão ou multa de até 2,5 mil dólares.

Além disso, Yvette Clarke, uma congressista de Nova Iorque pelo Partido Democrata, recentemente apresentou um projeto de lei federal chamado “DEEPFAKES Accountability Act” – o nome é um acrônimo de “Defending Each and Every Person from False Appearances by Keeping Exploitation Subject” (Defendendo Cada e Todas as Pessoas de Aparências Falsas, pela Manutenção da Exploração Sujeita à Lei de Responsabilidade, em tradução Literal).

O projeto exige que o indivíduo “que crie uma mídia sintética que imita uma pessoa, divulgue que o vídeo é alterado, use marcas d’água digitais irremovíveis, além de descrições textuais”. O texto ainda estabelece o direito das vítimas de processar os criadores.

Priscilla Silva argumenta que seria mais importante que as plataformas melhorassem seus mecanismos de autorregulação no que diz respeito à remoção de conteúdos sensíveis. “Deepfake não é eliminada por ser falso, mas somente se tiver um conteúdo danoso a alguém, se tiver um discurso de ódio embutido. Então, vamos precisar contar com as plataformas como aliadas nesse combate”, comenta Priscilla Silva. Uma maneira para se fazer isso é diminuir o alcance e a visibilidade desses vídeos quando são confirmados como digitalmente alterados por meio da recomendação algorítmica em menor intensidade no caso de optarem por não remover.

Esse é um bom primeiro passo, mas os algoritmos não podem explicar a interpretação do conteúdo – não são entidades matematicamente quantificáveis. Por conta disso, nem sempre é possível identificar o que é um vídeo falso ou não. Assim, os conteúdos não são excluídos de forma mais sistemática pelas pelas plataformas. No entanto, existe um temor da abertura de um precedente que pode se tornar incontrolável.

Traços digitais para identificar “deepfakes”

Apesar de ser difícil detectar uma “deepfake” por conta da tecnologia usada em sua criação, existem formas que podem ajudar a checar a veracidade de um vídeo divulgado nas redes sociais. O mais comum é usar a própria tecnologia: atualmente, há pesquisadores desenvolvendo algoritmos de detecção. Britt Paris e Tom Van de Weghe compartilham alguns pontos que devem ser observados com atenção.

1) Uma das maneiras mais fáceis é reconhecer o enquadramento da pessoa: a maioria dos vídeos falsos têm os indivíduos retratados no ângulo “mugshot” – nome dado às fotos tiradas na delegacia quando as pessoas vão presas –, ou seja, do peito para cima. Isso ocorre pela maior facilidade de se falsificar um rosto do que o corpo inteiro.

2) Quando um algoritmo “deepfake” é treinado em imagens faciais, depende de retratos disponíveis na Internet que podem ser usados como base. A maioria das pessoas compartilha ou é fotografada com os olhos abertos: há poucos registros das pálpebras fechadas. Assim, os algoritmos não conseguem treinar os olhos em tais posições e é menos provável que as figuras falsas pisquem normalmente. Quando a taxa de piscadas do vídeo é comparada com a natural, pode-se descobrir que a primeira é menor, apontam os pesquisadores.

3) Representações em “deepfake” geralmente estão olhando para a câmera de forma fixa, quase nunca viram o rosto, nem tudo é rápido. Assim, muitas vezes os olhos e os dentes são convergidos para parecerem realistas.

4) Outro ponto a ser observado é a face como um todo. Para que um vídeo falso seja renderizado da maneira mais realística possível, são utilizadas diversas camadas de imagens. Dependendo da capacidade do computador, elas podem ficar marcadas. Há, portanto, a possibilidade de se observar pequenos traços ao redor do rosto, como se uma máscara tivesse sido colocado. Para corrigir a questão, muitos manipuladores tendem a fazer uma suavização, borrando as bordas do rosto.

5) É importante também investigar a procedência do vídeo. Observar em que página o conteúdo foi compartilhado, se ela foi criada recentemente ou tem viés partidário. Também é importante verificar se há registros da fala exposta no vídeo, ou do próprio conteúdo, em outros locais de confiabilidade, como jornais e portais de notícias.

Mostrados de cima para baixo, há cinco quadros de exemplo de um clipe de 10 segundos original, falso com sincronização labial, um imitador, e duas deepfakes | Foto: Hao Li / Reprodução / CP 

Entenda como funcionam os algoritmos

A tecnologia que permite a produção de “deepfakes” tem sua origem na década de 1970, período em que a Inteligência Artificial apresentava esgotamentos sobre as possibilidades da área. Mas é com as “Redes Gerativas Adversárias” (RGA), introduzidas pelo desenvolvedor norte-americano Ian Goodfellow, em 2014, que se originam. Elas geram algoritmos novos a partir de informações já existentes, combinando duas redes neurais concorrentes, uma contra a outra: o gerador e o discriminador. A primeira é responsável por renderizar imagens e criar códigos a partir de uma imagem já existente. A outra é colocada em um papel adversário, desafiando os resultados e tentando discriminar se ele é real ou não. A intenção é que uma aperfeiçoe a outra, levando ao resultado mais verossímil possível.

Por exemplo, a RGA pode analisar milhares de fotos disponíveis online de um presidente ou de uma pessoa sem função pública, e, em seguida, produzir uma nova imagem que se aproxime delas. Também é capaz de gerar um novo áudio ou texto a partir de materiais já existentes – é uma tecnologia multiúso. Seu uso limitou-se principalmente à comunidade de pesquisa de IA até o final de 2017, quando o usuário do Reddit começou a publicar suas alterações digitalmente em vídeos pornográficos. Ele construiu suas Redes Gerativas Adversárias usando um software gratuito de aprendizado de máquina de código aberto do Google, e lançou o FakeApp, uma plataforma fácil de usar para criar mídias falsificadas.

*Correiodopovo