Home » 您的定制 GPT 可能会被诱骗放弃您的数据

您的定制 GPT 可能会被诱骗放弃您的数据

by Tim

如果您与自定义 GPT 的关系还处于蜜月期,我们很抱歉要向您透露一下。

美国西北大学(Northwestern University)最近的一项研究揭示了定制生成预训练转换器(GPT)中的一个惊人漏洞:虽然它们可以针对不同的应用进行定制,但也容易受到提示注入攻击,从而暴露敏感信息。

GPT 是高级人工智能聊天机器人,可由 OpenAI 的 ChatGPT 用户创建和塑造。它们使用 ChatGPT 的核心大型语言模型 (LLM)–GPT-4 Turbo,但使用额外的独特元素进行增强,这些元素会影响它们与用户的交互方式。这些定制包括特定的提示、独特的数据集和量身定制的处理指令,使它们能够服务于各种专门功能。
但这些参数,以及您可能用来塑造 GPT 的任何敏感数据,都很容易被第三方访问。

举例来说,TCN 通过使用基本的提示黑客技术:询问 “初始提示”,就能获取自定义、公开共享 GPT 的完整提示和机密数据。

该研究对 200 多个自定义 GPT 进行了严格测试,结果发现它们极易受到此类攻击和越狱的影响,从而可能导致提取初始提示和未经授权访问上传文件。

研究人员强调了此类攻击的双重风险,即威胁知识产权的完整性和用户隐私。

有时,就像在我们的测试案例中一样,只需善意地要求 GPT 透露私人信息即可。

“研究表明,对于文件泄露,询问 GPT 的指令这一行为可能会导致文件泄露,”研究人员发现。研究人员发现,通过一些创造性的方法,攻击者可以造成两种类型的泄露: “系统提示提取 “和 “文件泄露”。前者诱使模型共享其核心配置和提示,而后者则使其披露并共享其机密训练数据集。

研究还强调,现有的防御措施,如防御性提示,对复杂的对抗性提示并非万无一失。该团队表示,这需要一种更强大、更全面的方法来保护这些人工智能模型的安全。

“报告总结说:”攻击者只要有足够的决心和创造力,就很有可能找到并利用漏洞,这表明目前的防御策略可能是不够的。

鉴于这些发现,并考虑到用户可以在 OpenAI 的零监督或测试下修补他们的提示,该研究敦促更广泛的人工智能社区优先考虑开发更强大的安全措施。

“为了解决这些问题,除了简单的防御性提示外,还需要额外的保障措施,以加强定制 GPT 的安全性,防范此类利用技术,”该研究总结道。

虽然定制 GPT 具有巨大的潜力,但这项研究也提醒我们注意相关的安全风险。人工智能的进步绝不能损害用户的安全和隐私。就目前而言,最好还是把最重要或最敏感的 GPT 留给自己–或者一开始就不要用敏感数据来训练它们。

Related Posts

Leave a Comment