Home » Tinta invisível: investigadores analisam os pontos fracos da marca de água de conteúdos gerados por IA.

Tinta invisível: investigadores analisam os pontos fracos da marca de água de conteúdos gerados por IA.

by Thomas

A prevalência de “deepfakes” apresenta sérios riscos. Desde a criação de fotografias de menores nus a promoções fraudulentas que utilizam deepfakes de celebridades, a capacidade de distinguir entre conteúdos gerados por inteligência artificial (AIGC) e conteúdos falsos nunca foi tão importante

A marca de água, uma medida anti-contrafação comum em

Processo de ataque utilizado no estudo.Imagem: Arvix

Processo de ataque utilizado no estudo.Imagem: Arvix


Adicionalmente, foi avaliado o potencial impacto destas vulnerabilidades no mundo real, particularmente em cenários de desinformação e exploração maliciosa de conteúdos gerados por IA. Os resultados combinados destas experiências e análises levaram à conclusão de que são urgentemente necessários mecanismos de marca de água mais fiáveis.

Empresas como a OpenAI anunciaram que desenvolveram métodos para detetar conteúdos gerados por IA com uma precisão de 99%, mas continuam a existir desafios globais. Os actuais métodos de identificação, como os metadados e as marcas de água invisíveis, têm as suas limitações.

Li sugere que “para proteger o AIGC, alguns métodos criptográficos, como as assinaturas digitais, podem ser combinados com os métodos de marcas de água existentes”, mas a implementação exacta ainda não é clara.

Outros investigadores propuseram abordagens mais extremas: como o TCN noticiou recentemente, uma equipa do Massachusetts Institute of Technology (MIT) propôs “envenenar” imagens para modelar a inteligência artificial. A utilização de imagens “envenenadas” como entrada para um conjunto de dados de treino produziria resultados negativos, uma vez que o modelo final captaria pormenores que são invisíveis ao olho humano, mas que têm um grande impacto no processo de treino. É como uma marca de água letal que mata o modelo de aprendizagem.

Como salienta Sam Altman, Diretor Executivo da OpenAI, os rápidos avanços da inteligência artificial apontam para um futuro em que os processos de pensamento inerentes à inteligência artificial espelham a lógica e a intuição humanas. Com esses avanços, surge uma necessidade ainda maior de medidas de segurança robustas, como a marca d’água.

Li acredita que “a marca de água e a gestão de conteúdos são necessárias porque não afectam realmente os utilizadores comuns”, mas o conflito entre criadores e opositores mantém-se. “É sempre um jogo do gato e do rato. É por isso que temos de continuar a atualizar o sistema de marcas de água”.

Related Posts

Leave a Comment