ESTUDO IDENTIFICA MILHARES DE ANúNCIOS COM VíDEOS MANIPULADOS POR IA PARA APLICAR ‘GOLPE DA SERASA’

Quer se manter informado, ter acesso a mais de 60 colunistas e reportagens exclusivas?Assine o Estadão aqui!

Entre os meses de março e maio, 4.321 publicações impulsionadas nas redes sociais da Meta (Facebook e Instagram) utilizaram a imagem de políticos manipuladas por Inteligência Artificial (IA) para aplicar golpes envolvendo uma suposta indenização da Serasa Experian, segundo levantamento do Laboratório de Estudos de Internet e Redes Sociais (NetLab), da Universidade Federal do Rio de Janeiro (UFRJ). O relatório aponta que, no dia 22 de maio, houve um pico de 537 anúncios fraudulentos circulando na plataforma. O pico anterior foi em março, com 833 circulando no dia 23.

Os conteúdos trazem trechos de vídeos com políticos que, segundo o estudo do NetLab, tiveram a voz clonada por IA, como os deputados federais Nikolas Ferreira, Sargento Fahur, Eduardo Bolsonaro e o presidente Luiz Inácio Lula da Silva. O objetivo da fraude é capturar informações pessoais dos internautas, a partir de uma notícia falsa: que o Serasa teria sido condenado a pagar indenização de até R$ 30 mil para cada pessoa que teve dados vazados. Os vídeos manipulados pedem que usuários preencham seus dados em uma página fraudulenta para checar se têm direito a receber o suposto benefício.

O relatório do NetLab foi feito a partir de levantamento na Biblioteca de Anúncios da Meta. Dos 4.321 anúncios falsos identificados, 1.154 não foram moderados pela Meta. Os outros 3.167 foram bloqueados por ferir os padrões de publicidade das plataformas. Em resposta ao Estadão Verifica, a Meta afirmou que “a lista de URLs de anúncios que o NetLab aponta como fraudulentos em seu estudo não está pública”. A empresa destacou, ainda, que “conteúdos que tenham como objetivo enganar, fraudar ou explorar terceiros não são permitidos em nossas plataformas e estamos sempre aprimorando a nossa tecnologia para combater atividades suspeitas, além de colaborar com as autoridades competentes”.

Segundo o levantamento do NetLab, os anúncios fraudulentos foram divulgados por 67 páginas e perfis, e apareceram até 6,7 milhões de vezes nas telas de usuários nas redes sociais. De acordo com a diretora do NetLab, Marie Santini, o levantamento apontou falta de coerência na moderação de conteúdo. “Os anúncios moderados e os não moderados foram, em muitos casos, veiculados pelos mesmos anunciantes e apresentavam conteúdos praticamente idênticos entre si”, disse a pesquisadora.

Em relação aos anúncios bloqueados pela Meta, Santini explica que muitos não ficaram um dia no ar, mas parte expressiva chegou a estar disponível por até quatro dias. “A responsabilidade pelo uso de IA deve ser de todos que a utilizam, desde quem paga por anúncios, que deve fazer um uso consciente e cuidadoso das ferramentas, até as plataformas, que são empresas que lucram com os anúncios, inclusive os fraudulentos”, disse a diretora do NetLab.

Procurada, a Meta afirmou que o NetLab divulgou um estudo “sem disponibilizar seu conteúdo completo, o que impedia a empresa de compreender as conclusões do referido relatório” e que “apenas recentemente tomou ciência de um link no site do NetLab que permite a solicitação da íntegra de estudos do centro de pesquisas”. A empresa afirmou ainda que a Biblioteca de Anúncios, de onde a pesquisa tirou os dados sobre publicidades fraudulentas, “trouxe um grau de transparência para a publicidade online sem precedentes”.

Indícios de fraude e como desconfiar

Anúncios mapeados pelo relatório mostram que vídeo e áudio de jornalistas, manchetes de veículos de imprensa e sites de órgãos como o Ministério Público Federal (MPF) e da própria Serasa também foram manipulados.

O Estadão Verifica encaminhou alguns dos vídeos para o professor Cleber Zanchettin, do Centro de Excelência em Inteligência Artificial para Segurança Cibernética do Centro de Informática da Universidade Federal de Pernambuco (CIn-UFPE). Segundo o professor, as técnicas mais modernas de manipulação atingem um nível de perfeição que torna impossível a identificação de sua veracidade. O que não é o caso de alguns dos vídeos mapeados pelo relatório da UFRJ: eles foram feitos com técnicas mais simples, que dão alguns indícios para os usuários de que o material foi manipulado.

Um dos pontos levantados pelo professor é a baixa qualidade de resolução dos vídeos. “Normalmente, os vídeos têm baixa qualidade para que a pessoa não perceba as características mais sensíveis, como a movimentação da boca”, explicou. “Às vezes, o alinhamento estranho entre a boca e o resto do rosto denuncia um vídeo falso, assim como a falta de sincronia entre a boca e o áudio”.

Nestes casos, segundo o professor, uma dica é diminuir a velocidade do vídeo para identificar mais claramente a falta de sincronia entre áudio e imagem. “Fazer um áudio artificial, sintético, é mais fácil do que fazer o vídeo”, destacou o professor.

Zanchettin destaca que hoje existem formas de produzir conteúdos sintéticos mais difíceis de identificar. Quando essas técnicas mais modernas são empregadas, o mais eficaz a se fazer, segundo o professor, é analisar o contexto.

“O mais indicado é que o usuário seja sensato para questionar se a pessoa que está no vídeo está propagando informações que são posições que ela normalmente tem, se o contexto no qual ela está aparecendo realmente faz sentido”, afirmou.

Veja exemplos de conteúdo falsos

Um dos exemplos citados no estudo é de um vídeo que utiliza imagens dos deputados federais Sargento Fahur (PSD-PR) e Nikolas Ferreira (PL-MG) para aplicar o golpe do Serasa. O áudio é falso, mas as imagens são verdadeiras. No conteúdo manipulado, é inserido um áudio sobre indenização da Serasa a um vídeo que, na realidade, era sobre o indiciamento de policiais por supostos crimes em Minas Gerais. O movimento labial no vídeo manipulado claramente não tem sincronia.

Uma busca no perfil de Fahur no X possibilitou a identificação do vídeo original. Os mecanismos de busca reversa podem ajudar nessa detecção (veja como fazer). Percebem-se os mesmos elementos do conteúdo manipulado, que insere, na parte inferior, a montagem de uma suposta manchete de TV (veja abaixo).

O vídeo original de Nikolas foi encontrado em seu perfil no Instagram. O conteúdo falso mantém o áudio real do deputado, que diz: “vocês chegaram a ver isso daqui, né?”. Ele se referia ao caso de uma trombada que um homem deu na rua em uma senhora de 86 anos. (comparação abaixo).

O final do vídeo manipulado mostra uma suposta reportagem do portal g1, com o título: “Serasa vai indenizar milhares de brasileiros no valor de até 30 mil reais! Milhares de pessaos (sic) tem direito”. Neste ponto, há outros indícios de falsidade: o erro de digitação, que seria incomum numa manchete jornalística (veja abaixo).

Uma busca pelo nome do repórter que assina a suposta matéria traz a informação de que Roberto Peixoto cobre, para o g1, assuntos de ciência, saúde e meio ambiente, temas incompatíveis com o que o conteúdo falso propaga.

Outro exemplo de anúncio falso citado no relatório da UFRJ usa uma reportagem da CNN Brasil. O conteúdo manipulado altera a tarja do telejornal (veja abaixo).

O trecho inicial do vídeo manipulado mantém o áudio real do que o jornalista Fernando Nakagawa diz. No entanto, no fim do vídeo, quando sua imagem não mais aparece, ele tem a voz clonada para dizer que indenizações já começaram a ser pagas. Mesmo sutis, há padrões de entonação e pausas que não parecem ser naturais. Esses tipos de ruído são o que o professor Cleber Zanchettin chama de mudança na ênfase da voz, outro indício de manipulação de vídeos com IA.

2024-06-23T18:10:32Z dg43tfdfdgfd