A capacidade de criar deepfakes gerados por IA de pessoas famosas e influentes causou uma grande tempestade na Internet, mas enquanto as imagens do Papa a usar um casaco Balenciaga e do antigo presidente dos EUA, Donald Trump, a ser preso fizeram manchetes, está a surgir uma nova tendência: deepfakes de vítimas de homicídio, de acordo com um relatório da Rolling Stone.
“Parecem ter sido concebidos para desencadear reacções emocionais fortes, porque é a forma mais segura de obter cliques e gostos”, disse Paul Bleakley, professor assistente de justiça criminal na Universidade de New Haven, à Rolling Stone. “É desconfortável de ver, mas penso que pode ser esse o objectivo”.
Os pequenos clips de vídeo que circulam no TikTok incluem vídeo gerado por IA, áudio e descrições de crianças na primeira pessoa. Entre as mais conhecidas retratadas desta forma está Royalty Marie Floyd, apresentada em alguns vídeos como Rody Mary Floyd, cujo corpo foi encontrado num forno em 2018. A avó de Floyd, Carolyn Jones, foi acusada do assassinato de Floyd, disse a Rolling Stone, acrescentando que o gerador de IA também deu diferentes idades e raças da criança.
Imagem: Variantes geradas por IA de Royalty Marie Floyd” src=”https://www.todayscrypto.news/wp-content/uploads/2023/06/[email protected]” width=”768″ height=”432″ /☻
O fenómeno que causa estes erros é conhecido como alucinações. As “alucinações” da IA referem-se aos casos em que uma IA gera resultados inesperados e falsos e não é apoiada por dados do mundo real. As alucinações da IA podem criar conteúdos, notícias ou informações falsas sobre pessoas, eventos ou factos.
“Esses deepfakes de IA de verdadeiras vítimas de crimes certamente trazem a história à vida de uma forma que nenhum de nós poderia ter imaginado, o que poderia ajudar a educar o público em geral”, disse o advogado e CEO da AR Media Andrew Rossow à TCN. “No entanto, do ponto de vista jurídico, esta utilização e aplicação de IA é extremamente preocupante e problemática.”
Rossow apontou para duas questões principais: preocupações com a privacidade e causar sofrimento emocional para aqueles que conheciam a vítima.
Um deepfake é um tipo de vídeo cada vez mais comum criado com inteligência artificial que retrata eventos falsos. Já uma preocupação dos responsáveis pela cibersegurança e pela aplicação da lei, os deepfakes tornaram-se cada vez mais difíceis de detectar graças às plataformas de IA generativa em rápida evolução, como a Midjourney 5.1 e a DALL-E 2 da OpenAI.
A Midjourney terminou a sua versão de teste gratuita em Março, na sequência de um aumento de deepfakes virais gerados com a sua tecnologia.
O poder crescente da IA também faz com que os golpistas usem a tecnologia para tentar enganar os investidores em potencial, tirando seu dinheiro e criptografia. Na semana passada, um vídeo deepfake de Elon Musk promovendo um golpe de criptografia se tornou viral.
Como relata a Rolling Stone, a conta que carregou o vídeo Royalty Marie Floyd foi retirada pelo TikTok por “violar a política da plataforma em relação à mídia sintética que retrata indivíduos privados”. Ainda assim, o génio já saiu da garrafa, e as contas que publicam vídeos semelhantes estão a preencher a lacuna.
“Infelizmente, casos de utilização como este têm de acontecer para que possamos avançar com a nossa jurisprudência e precedentes legais sobre questões já muito debatidas que envolvem privacidade (pré e pós-morte) e tecnologia emergente que, por si só, ainda opera principalmente na penumbra com os nossos tribunais”, disse Rossow.