Se acreditares em tudo o que lês na Internet, podes pensar que o Presidente Biden apelou a um recrutamento nacional e que tanto homens como mulheres se vão juntar à guerra na Ucrânia. Mas, na realidade, trata-se de uma mentira contada por um criador malicioso de vídeos deepfake.
Os actores maliciosos utilizam a inteligência artificial para criar vídeos em que se fazem passar por políticos, celebridades e pessoas conhecidas. Os menos prejudiciais são os vídeos falsos óbvios e disparatados que mostram alguém que se parece com o presidente dos EUA a jogar Minecraft, mas no pior dos casos, a tecnologia pode representar uma verdadeira ameaça à segurança nacional.
Imagino o que aconteceria se Biden anunciasse e invocasse a Lei do Serviço Seletivo e começasse a alistar jovens de 20 e poucos anos para a guerra pic.twitter.com/896Htrtteu
– The Post Millennial (@ TPostMillennial) 27Feb2023
Em 2018, o comediante e vencedor de um Óscar, Jordan Peele, lançou um aviso público sob a forma de um dos primeiros deep fakes a tornar-se viral. O vídeo mostrava Barack Obama a proferir frases muito para além do seu discurso típico, incluindo a inesperada “Stay woke, bitches!”.
Rijul Gupta, um estudante de pós-graduação da Universidade de Yale, deparou-se com este vídeo e ficou imediatamente impressionado com o poder da inteligência artificial. As infinitas possibilidades, tanto positivas como negativas, começaram a passar-lhe pela cabeça, recordou numa entrevista recente à TCN, e apercebeu-se de que o mundo precisava de empresas com uma “espinha dorsal ética” para se concentrarem neste domínio.
Por isso, co-fundou a DeepMedia, uma empresa dedicada a expor a tecnologia deepfake, com Emma Brown, licenciada em Yale e especialista em linguística.
A DeepMedia tem dois produtos: o serviço de tradução e dobragem por IA DubSync e o serviço de deteção de deepfake DeepIdentify.AI. Este último é o principal produto da empresa, que levou a um recente contrato de três anos no valor de 25 milhões de dólares com o Departamento de Defesa dos EUA (DoD) e outros contratos não revelados com forças aliadas.
Gupta disse à TCN: “Desde o início, quisemos trabalhar com governos nacionais e estrangeiros, bem como com grandes instituições de confiança, como a ONU, da qual somos agora parceiros. “Queríamos ajudar a garantir que a ética fosse incorporada na espinha dorsal da inteligência artificial, tanto de cima para baixo como de baixo para cima”. – disse Gupta numa entrevista à TCN.
Inicialmente, a Deep Media foi contratada pelo Ministério da Defesa para educar as pessoas sobre como a tecnologia pode ser usada para cometer fraudes e criar desinformação política, disse Gupta. Desde então, a Deep Media aumentou os contratos com a Força Aérea dos EUA e outros para utilizar a sua tecnologia para “garantir a segurança dos cidadãos dos EUA e de outros países”.
Como é que funciona?
O DeepIdentity.AI analisa imagens e vídeos e procura inconsistências e imprecisões que indiquem que uma imagem ou vídeo é falso. Os sinais típicos incluem lábios que tremem de forma não natural e sombras fisicamente impossíveis.
Emma Brown, directora de operações da Deep Media, disse à TCN: “Podemos rastrear e mapear o aspeto real de um rosto e como ele deve se mover. Podemos identificar o movimento facial normal”.
Ela explicou que as fotos podem ser processadas em cinco segundos, enquanto um vídeo de dois minutos pode ser “totalmente processado do início ao fim com análise detalhada do rosto, voz e sotaque” em cinco minutos. O utilizador final é informado da extensão da manipulação detectada e da sua localização no vídeo ou na imagem.
Lembram-se do falso Papa infetado com o vírus
? Conseguimos ver que partes eram o Papa verdadeiro e que partes eram falsas”, disse Brown. “Havia coisas que não podiam ser reais. Isto marcou o nosso detetor em termos de sombras e ângulos”.
O modelo, diz ele, foi capaz de detetar com “mais de 95% de precisão” devido aos grandes dados de treinamento. É claro que a DeepMedia examina a IA falsa encontrada na Internet, mas o seu conjunto de dados destaca-se realmente pela sua sinergia com o DubSync, um serviço de tradução e dobragem.
“A nossa plataforma DubSync é essencialmente um gerador de deepfake. “Para conhecer um bom deepfake, é preciso construir um gerador”, explica Brown. – explica Brown. “E é isso que alimenta a nossa deteção de deepfake
A geração de deepfake
pela DubSync está “seis a 12 meses à frente de todos os outros”, diz Brown. Isto é para evitar que os maus actores criem deepfakes demasiado avançados para serem detectados pela inteligência artificial. No entanto, manter esta vantagem é uma batalha constante.
“É um jogo do gato e do rato. Qualquer pessoa que finja o contrário não está realmente no terreno” – diz Brown. “Estamos confiantes de que podemos continuar a detetar, especialmente no lado da pesquisa contínua e da geração de coisas.”
O DeepIdentify está disponível através da API DeepMedia e de outros pacotes, mas são necessárias funcionalidades mais avançadas quando os governos e as instituições financeiras celebram contratos com a empresa.
“Temos ferramentas de deteção de defeitos, mas o governo dos EUA e o Departamento de Defesa querem ser os melhores do mundo no que fazem”, diz ele. “Exigem não só o melhor do mundo, mas ainda mais do que isso”. – explica Gupta. “De facto, estamos a fazer nova investigação, a desenvolver novas ferramentas, novas soluções.
Porque é que nos devemos preocupar?
Atualmente, a tecnologia deepfake é bem conhecida por vídeos de paródias disparatadas, imitações irrealistas de presidentes e pornografia falsa nociva. No entanto, a tecnologia também pode ser usada para provocar tensões reais entre nações, resultando potencialmente em baixas, ataques terroristas e outras respostas prejudiciais e destrutivas.
“Por exemplo, o incidente de março de 2022, quando foi publicado um deepfake que parecia mostrar o Presidente ucraniano Zelensky a ordenar a rendição das suas tropas”, disse Irina Tukerman, advogada de segurança nacional e analista geopolítica dos EUA, à TCN. “Ele negou a autenticidade do vídeo e apresentou provas”.
Com a aproximação das eleições de 2024 nos EUA, a tecnologia deepfake é a mais recente questão a afetar a votação, assim como o escândalo da Cambridge Analytica em 2018.
“Opositores do Estado ou indivíduos politicamente motivados podem publicar vídeos falsos mostrando funcionários eleitos ou outras figuras públicas fazendo declarações inflamatórias ou se comportando de forma inadequada” – explica Zukerman. “Esses incidentes podem minar a confiança do público, ter um impacto negativo no discurso, criar divisões e ser usados para influenciar eleições e outros processos importantes de tomada de decisão.”
A interferência pode não ser tão simples. De facto, o deepfake pode ser utilizado para negar a realidade e tentar combater informações e acontecimentos reais.
Há também a questão de um possível “dividendo da mentira”. Os deepfakes são uma forma de desinformação que pode ser utilizada para negar a autenticidade do conteúdo original, criar mais ofuscação para prejudicar questões de segurança e desacreditar fontes, recursos, analistas, governos aliados ou funcionários governamentais amigos dos EUA afirma Zukerman.
Dada a ameaça à segurança nacional, a empresa diz que está a trabalhar com o ecossistema do Departamento de Defesa dos EUA, aliados e parceiros na Europa e na Ásia, e com “grandes empresas de redes sociais” não identificadas para ajudar a detetar deepfakes em circulação.
Só no último ano, registou-se uma rápida evolução das tecnologias e ferramentas de inteligência artificial generativa. Com o desenvolvimento da tecnologia de deepfake, é provável que se torne ainda mais difícil identificar clips falsos a olho nu. É este o objetivo das empresas de deteção, como a DeepMedia, para ajudar as pessoas a manterem-se seguras e informadas.