Home » 亚马逊上人工智能生成的书籍可能提供致命建议

亚马逊上人工智能生成的书籍可能提供致命建议

by Tim

专家警告说,亚马逊上销售的人工智能生成的旅游指南的激增可能会带来致命的后果。从烹饪书到旅游指南,人类作者都在警告读者,人工智能可能会让他们误入歧途。

关于盲目相信人工智能建议的最新警示故事来自于原本默默无闻的蘑菇狩猎世界。纽约菌物学会最近在社交媒体上敲响了警钟,提醒人们注意可疑的觅食书籍所带来的危险,这些书籍据信是利用 ChatGPT.

等生成式人工智能工具创作的。


纽约真菌学协会主席西格丽德-雅各布(Sigrid Jakob)在接受 404 媒体采访时说:”北美有数百种有毒真菌,其中有几种是致命的。”它们看起来可能与常见的可食用物种相似。书中的错误描述可能会误导人们食用有毒的蘑菇”。

在亚马逊上搜索发现了许多可疑的书名,如《西南地区终极蘑菇书野外指南》和《野生蘑菇初学者食谱》[原文如此]–这两本书后来都被删除了–可能是由不存在的作者写的。这些由人工智能生成的书籍沿袭了我们熟悉的套路,开篇都是关于业余爱好者的虚构小故事,但都是以讹传讹。

根据 ZeroGPT 等分析工具,这些内容本身就充斥着不准确之处,而且模仿的是人工智能文本的典型模式,而不是真正的真菌学专业知识。然而,这些书籍的销售对象是觅食新手,他们无法辨别人工智能编造的不安全建议和可信来源。

“雅各布说:”人工撰写的书籍可能需要数年时间来研究和撰写。

不是第一次……也可能不是最后一次

专家们说,我们必须谨慎对待对人工智能的过度信任,因为如果没有适当的监控,人工智能很容易传播错误信息或危险建议。最近的一项研究发现,与人类制造的虚假信息相比,人们更容易相信人工智能生成的虚假信息。

研究人员要求人工智能文本生成器编写虚假推文,其中包含有关疫苗和 5G 技术等话题的错误信息。然后,调查参与者被要求区分真实推文和人工智能编造的推文。

令人震惊的是,普通人无法可靠地判断推文是由人类撰写的,还是由 GPT-3 这样的高级人工智能撰写的。推文的准确性并不影响人们辨别推文来源的能力。

研究人员写道:”正如我们的研究结果所证明的那样,目前可用的大型语言模型已经可以生成与有机文本无法区分的文本,”


这种现象并不局限于可疑的觅食指南。最近出现的另一个案例是,一款人工智能应用程序向顾客推荐了危险的食谱。

新西兰超市Pak ‘n’ Save最近推出了一款名为 “Savey Meal-Bot “的膳食计划应用程序,该应用程序利用人工智能根据用户输入的食材推荐食谱。但是,当人们恶作剧般地输入危险的家庭用品时,该应用程序却建议调制有毒的混合物,如 “芳香水混合物 “和 “甲醇幸福”。


虽然该应用程序已经更新,阻止了不安全的建议,TCN 可以证实这一点,但它凸显了不负责任地部署人工智能可能带来的风险。

不过,这种容易受到人工智能驱动的虚假信息影响的情况并不令人意外。LLM 是根据最有可能出现的合理结果来创建内容的,而且它们是在海量数据的基础上经过训练才取得如此惊人的结果的。因此,我们人类更容易相信人工智能,因为它生成的东西会模仿我们眼中的好结果。这就是为什么 MidJourney 能创造出美丽但不实用的建筑,而 LLM 能创造出有趣但致命的蘑菇指南。

虽然创造性的算法可以在很多方面增强人类的能力,但社会不能把判断力完全外包给机器。人工智能缺乏生活经验带来的智慧和责任感。

觅食算法创造出的虚拟森林可能看起来郁郁葱葱,令人心旷神怡。但是,如果没有熟悉地形的人类向导,我们就有可能误入险境。

Related Posts

Leave a Comment