Home » 人工智能的错误信息可能会影响 2024 年的大选–OpenAI 计划如何与之斗争

人工智能的错误信息可能会影响 2024 年的大选–OpenAI 计划如何与之斗争

by Tim

人工智能对民主的威胁是全球政策制定者和选民最关心的问题,OpenAI 周一提出了自己的计划,以帮助确保人工智能生成内容的透明度,并在 2024 年大选前提高投票信息的可靠性。

在 3 月份推出 GPT-4 之后,生成式人工智能及其潜在的滥用(包括人工智能生成的深度伪造内容)已成为 2023 年围绕人工智能飞速崛起的话题的核心部分。2024年,在包括美国总统大选在内的重要选举中,我们可能会看到这种由人工智能驱动的错误信息所带来的严重后果。

“OpenAI在一篇博文中说:”在我们为2024年全球最大民主国家的选举做准备的时候,我们的做法是继续我们的平台安全工作,提升准确的投票信息,执行有分寸的政策,并提高透明度。

OpenAI 补充说,它正在 “汇集我们的安全系统、威胁情报、法律、工程和政策团队的专业知识,以快速调查和解决潜在的滥用问题。


今年 8 月,美国联邦选举委员会表示将继续审议禁止人工智能生成竞选广告的申请,联邦选举委员会委员艾伦-迪克森(Allen Dickerson)表示:”这项工作的背景中潜藏着严重的第一修正案问题。”

对于 ChatGPT 的美国客户,OpenAI 表示,当被问及 “某些与选举程序相关的问题 “时,它将引导用户访问无党派网站 CanIVote.org。该公司表示,这些变化的实施将为其在全球范围内的做法提供参考。

“该公司补充说:”我们期待继续与合作伙伴合作,并向他们学习,在今年的全球选举之前,预测并防止我们的工具可能被滥用。

在 ChatGPT 中,OpenAI 表示它阻止开发者创建假装成真人或政府官员和办公室等机构的聊天机器人。OpenAI 表示,旨在阻止人们投票的应用程序也是不允许的,包括阻止投票或歪曲谁有资格投票。

去年,利用人工智能生成的深度伪造、虚假图像、视频和音频走红网络,其中几张以美国总统拜登(Joe Biden)、前总统特朗普(Donald Trump)甚至教皇弗朗西斯(Pope Francis)为主角的图片成为社交媒体上分享的焦点。

为了阻止其 Dall-E 3 图像生成器被用于深度伪造活动,OpenAI 表示将实施内容出处和真实性联盟(Coalition for Content Provenance and Authenticity)的内容凭证,在人工智能生成的图像上添加一个标记或 “图标”。

“我们还在尝试使用来源分类器,这是一种用于检测由 Dall-E 生成的图像的新工具,”OpenAI 表示。”我们的内部测试已经显示出很有希望的早期结果,即使是在图像受到常见类型修改的情况下。”

上个月,教皇方济各呼吁全球领导人通过一项具有约束力的国际条约来规范人工智能。

“方济各说:”每个人与生俱来的尊严,以及将我们作为人类大家庭成员联系在一起的博爱,必须成为新技术发展的基础,并成为在使用这些技术之前对其进行评估的无可争议的标准,从而使数字进步能够在适当尊重正义的情况下实现,并为和平事业做出贡献。

为了遏制错误信息,OpenAI 表示 ChatGPT 将开始在全球范围内提供实时新闻报道,包括引文和链接。

“信息来源的透明度和新闻来源的平衡可以帮助选民更好地评估信息,并自行决定他们可以信任什么,”该公司说。

去年夏天,OpenAI 向美国新闻项目捐赠了 500 万美元。上周,OpenAI 与美联社签署了一项协议,允许这家人工智能开发商访问这家全球新闻媒体的新闻文章档案。

OpenAI 就新闻报道中的归属问题发表评论之际,该公司正面临着包括《纽约时报》在内的多起版权诉讼。12月,《纽约时报》起诉OpenAI和OpenAI最大的投资者微软,称其数百万篇文章在未经许可的情况下被用于训练ChatGPT。

诉讼称:”OpenAI 和微软通过未经许可使用人类的综合作品,建立了价值数百亿美元的业务。””在训练他们的模型时,被告复制了受版权保护的材料,利用的正是《版权法》旨在保护的内容:其中可受保护的表达元素,如风格、用词、事实的安排和陈述。”

OpenAI 称《纽约时报》的诉讼 “毫无根据”,称该刊物操纵了其提示,使聊天机器人生成了与《纽约时报》文章类似的回复。

Related Posts

Leave a Comment