Home » Os rumores sobre o duplo de Vladimir Putin continuam.

Os rumores sobre o duplo de Vladimir Putin continuam.

by v

Um artigo publicado nos meios de comunicação social reacendeu os rumores de que Vladimir Putin utiliza os serviços de um duplo durante as suas aparições públicas.
O

DailyMail relata que esta alegação persistente e sem fundamento reapareceu no Japão depois de ter circulado durante vários meses. Investigadores japoneses analisaram vídeos e fotografias que mostravam Putin em vários eventos e sugeriram que ele foi representado por pelo menos três pessoas. Embora tais alegações sejam imediatamente refutadas pelo Kremlin, a história ilustra um efeito secundário do rápido avanço da inteligência artificial – o desenvolvimento de deepfakes.

O deepfaking da IA é uma tecnologia que utiliza algoritmos para substituir rostos em vídeos, imagens e outros conteúdos digitais para fazer com que uma falsificação pareça real. Os deepfakes são reconhecidos como uma nova e perigosa ferramenta de manipulação política. A deteção de deepfakes tornou-se uma indústria em crescimento, com o líder de inteligência artificial generativa OpenAI a afirmar ser capaz de identificar deepfakes com 99% de precisão.

No entanto, de acordo com os investigadores, isto não é fácil e tornar-se-á cada vez mais difícil

A estação de televisão japonesa TBS noticiou um estudo baseado em IA que sugere que o Presidente russo Vladimir Putin emprega duplos para participar em vários eventos. Imagem de: Daily Mail” src=”https://www.todayscrypto.news/wp-content/uploads/2023/11/PBS-Japan-Daily-Mail.jpg@webp.jpg” width=”828″ height=”481″ /☻

O presidente e diretor executivo da Digimark, Riley McCormack, disse à TCN: “Estão a ser tentadas técnicas probabilísticas para determinar se se trata ou não de inteligência artificial”. Como se pode ver, depois de analisar muitos desses métodos, os melhores são bastante imprecisos”.

Fundada em 1994, a Digimarc fornece marcas de água digitais para ajudar a identificar e proteger activos digitais e proprietários de direitos de autor. A marca de água digital é um dos métodos mais frequentemente sugeridos para identificar falsificações profundas, e empresas como a Google estão a explorar esta abordagem.

No Google Cloud Next em São Francisco, o CEO da Alphabet e da Google, Sundar Pichai, demonstrou as capacidades de marca de água da plataforma Vertix AI da Google.

Pichai disse: “Usando a tecnologia fornecida pelo Google Deepmind, as imagens geradas pela Vertex AI podem ser marcadas com marca d’água de forma invisível ao olho humano, sem comprometer a qualidade da imagem.”

Como estratégia, no entanto, a marca d’água tem uma série de pontos fracos. McCormack disse que, para que a marca de água impeça as falsificações profundas de IA, todas elas teriam de adotar o mesmo método para mostrar se foram geradas por IA ou se são reais.

“O problema da IA generativa que utiliza apenas marcas de água é que nem todos os motores de IA generativa a adoptam. “Qualquer sistema de autenticidade, a não ser que seja omnipresente, é inútil se se limitar a colocar uma marca de água de uma forma ou de outra.

Uma vez que os geradores de imagens de inteligência artificial recolhem imagens publicamente disponíveis na Internet e nas redes sociais, outros especialistas recomendam a utilização de “pílulas venenosas”, anexando código para degradar as imagens no gerador ou rotulando incorretamente os dados.
A Deepfake

AI foi criada para se fazer passar pelo Presidente dos EUA, Joe Biden, pelo Papa Francisco e pelo antigo Presidente Donald Trump. A tecnologia de deepfake está a melhorar de dia para dia e os detectores de IA estão a jogar ao mata-mata na corrida para recuperar o atraso.

Uma ameaça adicional colocada pelos deepfakes de IA é o aumento do material de abuso sexual infantil gerado por IA (CSAM). De acordo com um relatório publicado em outubro pela Internet Watch Foundation, sediada no Reino Unido, a pornografia infantil está a espalhar-se rapidamente na Internet utilizando modelos de IA de fonte aberta que podem ser utilizados e distribuídos gratuitamente.

A IWF sugeriu que a pornografia falsa profunda está a tornar cada vez mais difícil distinguir entre imagens de crianças geradas por IA e imagens reais de crianças, levando as autoridades policiais a perseguir fantasmas em linha em vez de vítimas reais de abuso.

Dan Sexton, CTO da Internet Watch Foundation, disse à TCN: “Não tenho a certeza de quantas destas imagens são reais. “Nada nos diz a 100% se algo é real ou não”.

Outra questão levantada por McCormack é que muitos dos modelos de inteligência artificial existentes no mercado são de código aberto e podem ser utilizados, modificados e partilhados sem restrições.

“Quando se coloca tecnologia de segurança num sistema de código aberto, coloca-se um cadeado nele”, diz ele. “Coloca-se um cadeado e, mesmo ao lado, coloca-se um plano para o abrir, pelo que não tem muito valor.”

À medida que os modelos maiores, como o Stability Diffusion, o Mid Journey e o Dall-E, melhoram e mantêm barreiras de proteção mais fortes, os modelos mais antigos que podem criar CSAM localmente serão utilizados com menos frequência. Também será mais fácil dizer qual o modelo que criou a imagem, diz ele.

“Será mais difícil fazer este tipo de coisas, elas serão mais de nicho”.
Embora os líderes governamentais sejam os principais alvos dos deepfakes com IA, cada vez mais celebridades de Hollywood estão a usar as suas imagens em esquemas e anúncios online que utilizam deepfakes com IA.

A atriz de Hollywood Scarlett Johansson declarou que está a tomar medidas legais contra a empresa Lisa AI que utilizou imagens geradas por IA da estrela dos Vingadores em publicidade para impedir a utilização não autorizada da sua imagem. No mês passado, o magnata do YouTube, Mr Beast, alertou os seus seguidores para uma fraude em linha que utilizava a sua imagem, e até Tom Hanks foi vítima de uma campanha de IA deepfake que utilizava a sua imagem.

Em setembro, o Papa Francisco, que tem sido alvo de muitas fraudes de IA deepfake, colocou a tecnologia no centro do seu sermão festivo para o Dia Mundial da Paz. O líder religioso apelou a um diálogo aberto sobre a inteligência artificial e a sua importância para a humanidade.

“Os avanços extraordinários da inteligência artificial estão a ter um impacto rápido na atividade humana, na vida pessoal e social, na política e na economia”, afirmou Francisco.

McCormack disse que, à medida que as ferramentas de deteção de inteligência artificial melhoram, as ferramentas de geração de deepfake também melhorarão, levando a uma nova frente na corrida armamentista da inteligência artificial que começou com o lançamento do ChatGPT no ano passado.

“A inteligência artificial generativa não criou o problema do deepfake ou o problema da desinformação, disse McCormack.

Related Posts

Leave a Comment