Home » 报告:人工智能聊天机器人可能成为恐怖主义同谋

报告:人工智能聊天机器人可能成为恐怖主义同谋

by v

非营利智库兰德公司(RAND Corporation)的一份新报告警告说,恐怖分子可以学会利用人工智能聊天机器人实施生物袭击。

报告称,虽然研究中使用的大型语言模型并没有提供制造生物武器的具体指令,但它的反应可以帮助策划利用越狱提示进行攻击。

“报告合著者、兰德公司高级工程师克里斯托弗-穆顿(Christopher Mouton)在接受 TCN 采访时说:”一般来说,如果恶意行为者明确表达了[他们的意图],你将得到的回应大致是’对不起,我帮不了你’。”因此,你通常必须使用这些越狱技术中的一种,或者使用工程技术,才能在这些保护栅栏下进入一个级别。

在兰德公司的研究中,研究人员使用越狱技术让人工智能模型参与对话,讨论如何使用天花、炭疽和鼠疫等各种制剂引发大规模伤亡的生物袭击。研究人员还要求人工智能模型编写一个引人入胜的故事,说明它们为什么购买有毒制剂。


研究直系亲属虐待风险的小组被分成了几组–一组只使用互联网,第二组使用互联网和一个不知名的直系亲属,第三组使用互联网和另一个不知名的直系亲属。

穆通说,这种测试形式是为了确定人工智能模型是否会产生与互联网上的结果大相径庭的问题结果。测试小组还被禁止使用暗网和印刷出版物。

正如穆通所解释的那样,未能确定所使用的人工智能模型是故意的,目的是为了显示大型语言模型的普遍风险。

“他说:”我们的方法并不是为了说一种模型比另一种模型更有风险。”如果某个模型给出了特别令人担忧的结果,我们不会将其归因于该模型风险更大。”穆通说,另一个值得关注的问题是,不要通过指出某个特定的人工智能模型来制造虚假的安全感,这项研究旨在提供潜在威胁的广泛概述。
兰德公司利用由 42 名人工智能和网络安全专家(即所谓的 “红队”)组成的研究小组,试图让海事和海洋事务部做出穆顿所说的 “不幸 “和有问题的回答。

他所说的 “红队 “指的是网络安全专家,他们擅长攻击(或渗透测试,或五重测试)系统并发现漏洞。相比之下,”蓝队 “指的是保护系统免受攻击的网络安全专业人员。

“我们强调了一些最令人担忧的结果,”Mouton 说。”同时,我们的一些团队对 LLM 不准确或没有提供有用信息表示沮丧。

随着人工智能模型的改进和安全功能的增加,让聊天机器人回答 “有问题 “的答案变得越来越难,而直接使用人工输入则变得更加困难。本月早些时候,布朗大学的研究人员发现,如果在训练人工智能时引入祖鲁语或加利西亚语等不常用语言的提示,而不是英语,ChatGPT 的提示过滤器就会被绕过。

“报告援引人工智能安全中心(Center for AI Safety)的一份请愿书说:”鉴于潜在的风险,进行严格测试的必要性是不容置疑的。”在一些人将人工智能的威胁等同于核武器威胁的背景下,这一点尤为正确”。

人工智能安全中心请愿书的签名者包括微软创始人比尔-盖茨(Bill Gates)、OpenAI首席执行官萨姆-阿尔特曼(Sam Altman)、谷歌DeepMind首席运营官莱拉-易卜拉欣(Laila Ibrahim)和美国众议员泰德-辽(Ted Lieu)。今年 3 月,在 OpenAI 公开发射 GPT-4 之后,SpaceX 首席执行官兼 OpenAI 联合创始人埃隆-马斯克(Elon Musk)、苹果公司联合创始人史蒂夫-沃兹尼亚克(Steve Wozniak)和前总统候选人安德鲁-杨(Andrew Young)也签署了一份类似的请愿书。
帮助策划恐怖袭击只是困扰生成式人工智能工具的问题之一。诋毁者指出,这种工具喜欢种族主义和偏见,宣扬有害的身体形象和饮食失调,甚至策划暗杀。

兰德公司的研究人员强调,网络安全红队需要定期评估人工智能模型,以识别和降低风险。上个月,OpenAI 向红队发出公开邀请,希望他们帮助 ChatGPT 的开发者找到其人工智能生成工具包中的漏洞。

“兰德公司的研究人员写道:”人工智能与生物技术的交叉为风险评估带来了特殊的挑战。”鉴于这些技术的快速发展,政府有效了解或监管它们的能力有限。”

Related Posts

Leave a Comment