Home » A desinformação sobre IA pode abalar as eleições de 2024 – eis como a OpenAI planeia combatê-la

A desinformação sobre IA pode abalar as eleições de 2024 – eis como a OpenAI planeia combatê-la

by Thomas

Com a ameaça da inteligência artificial à democracia sendo uma das principais preocupações dos formuladores de políticas e eleitores em todo o mundo, a OpenAI apresentou seu plano na segunda-feira para ajudar a garantir a transparência do conteúdo gerado por IA e melhorar as informações de votação confiáveis antes das eleições de 2024.

Após o lançamento do GPT-4 em março, a IA generativa e seu potencial uso indevido, incluindo deepfakes gerados por IA, tornaram-se uma parte central da conversa sobre a ascensão meteórica da IA em 2023. Em 2024, poderíamos ver sérias consequências dessa desinformação impulsionada pela IA em meio a eleições importantes, incluindo a corrida presidencial dos EUA.

“Enquanto nos preparamos para as eleições em 2024 nas maiores democracias do mundo, nossa abordagem é continuar nosso trabalho de segurança de plataforma elevando informações precisas de votação, aplicando políticas medidas e melhorando a transparência”, disse a OpenAI em uma postagem de blog.

A OpenAI acrescentou que está “a reunir a experiência dos nossos sistemas de segurança, inteligência de ameaças, equipas jurídicas, de engenharia e de políticas para investigar rapidamente e resolver potenciais abusos”.

Em agosto, a Comissão Eleitoral Federal dos EUA disse que iria avançar com a consideração de uma petição para proibir anúncios de campanha gerados por IA, com o Comissário da FEC, Allen Dickerson, a dizer: “Há sérias preocupações com a Primeira Emenda à espreita no fundo deste esforço”.

Para os clientes americanos do ChatGPT, a OpenAI disse que direcionará os usuários para o site não partidário CanIVote.org quando forem feitas “certas perguntas processuais relacionadas às eleições”. A empresa diz que a implementação dessas mudanças informará sua abordagem globalmente.

“Esperamos continuar a trabalhar com os nossos parceiros e aprender com eles para antecipar e prevenir potenciais abusos das nossas ferramentas no período que antecede as eleições globais deste ano”, acrescentou.

No ChatGPT, a OpenAI disse que impede os programadores de criarem chatbots que finjam ser pessoas reais ou instituições como funcionários e gabinetes governamentais. Também não são permitidas, disse a OpenAI, aplicações que visem impedir as pessoas de votar, incluindo o desencorajamento do voto ou a deturpação de quem é elegível para votar.

Os deepfakes gerados por IA, imagens, vídeos e áudio falsos criados com recurso a IA generativa tornaram-se virais no ano passado, com vários deles a apresentarem o Presidente dos EUA, Joe Biden, o antigo Presidente Donald Trump e até o Papa Francisco a tornarem-se o foco das imagens partilhadas nas redes sociais.

Para impedir que o seu gerador de imagens Dall-E 3 seja usado em campanhas de deepfake, a OpenAI disse que vai implementar as credenciais de conteúdo da Coalition for Content Provenance and Authenticity que adicionam uma marca ou “ícone” a uma imagem gerada por IA.
A transparência em torno da origem da informação e do equilíbrio nas fontes de notícias pode ajudar os eleitores a avaliar melhor as informações e a decidir por si próprios em que podem confiar”, disse a empresa.

No verão passado, a OpenAI doou 5 milhões de dólares ao American Journalism Project. Na semana anterior, a OpenAI assinou um acordo com a Associated Press para dar ao programador de IA acesso ao arquivo de artigos noticiosos da agência noticiosa global.

Os comentários da OpenAI sobre a atribuição de reportagens surgem numa altura em que a empresa enfrenta vários processos judiciais por direitos de autor, incluindo o do New York Times. Em dezembro, o Times processou a OpenAI e a Microsoft, o maior investidor da OpenAI, alegando que milhões dos seus artigos foram utilizados para treinar o ChatGPT sem autorização.

“A OpenAI e a Microsoft construíram um negócio avaliado em dezenas de milhares de milhões de dólares, utilizando as obras combinadas da humanidade sem autorização”, diz o processo. “Ao treinar os seus modelos, os arguidos reproduziram material protegido por direitos de autor para explorar precisamente aquilo que a Lei dos Direitos de Autor foi concebida para proteger: os elementos de expressão protegíveis neles contidos, como o estilo, a escolha de palavras e a organização e apresentação dos factos”.

A OpenAI considerou a ação judicial do New York Times “sem mérito”, alegando que a publicação manipulou os seus prompts para fazer com que o chatbot gerasse respostas como os artigos do Times.

Related Posts

Leave a Comment