Home » あなたのカスタムGPTが騙されてデータを渡すかもしれない

あなたのカスタムGPTが騙されてデータを渡すかもしれない

by Tim

カスタムGPTとの関係がまだ蜜月段階にあるのなら、残念なお知らせをしなければならない。

ノースウェスタン大学による最近の研究で、カスタムGPT(Generative Pre-trained Transformer)に驚くべき脆弱性があることが明らかになった。

GPTは高度なAIチャットボットで、OpenAIのChatGPTのユーザーによって作成され、形成されます。GPTは、ChatGPTのコアとなる大規模言語モデル(LLM)であるGPT-4 Turboを使用していますが、ユーザーとの対話方法に影響を与える追加のユニークな要素で強化されています。これらのカスタマイズには、特定のプロンプト、ユニークなデータセット、カスタマイズされた処理命令などが含まれ、さまざまな特殊な機能に対応することができます


しかし、これらのパラメータや、GPTを形成するために使用する可能性のある機密データは、第三者によって簡単にアクセスされる可能性があります。

一例として、TCNはプロンプトハッキングの基本的なテクニックである「初期プロンプト」を要求することで、一般公開されているカスタムGPTの完全なプロンプトと機密データを入手することができました。

200以上のカスタムGPTの厳密なテストは、このような攻撃や脱獄に対する高い感受性を明らかにし、初期プロンプトの潜在的な抽出やアップロードされたファイルへの不正アクセスにつながった。

研究者は、知的財産の完全性とユーザーのプライバシーを脅かす、このような攻撃の二重のリスクを強調しています。

我々のテストケースのように、GPTに個人情報を明らかにするよう頼むのは簡単な場合もある。

「今回の研究により、ファイル流出の場合、GPTの指示を仰ぐという行為がファイル開示につながる可能性があることが明らかになりました。工夫次第で、攻撃者は2種類の情報漏えいを引き起こすことができることがわかった: “システム・プロンプトの抽出 “と “ファイルの漏洩 “だ。前者はモデルを騙してコアコンフィギュレーションとプロンプトを共有させるもので、後者は機密のトレーニングデータセットを開示して共有させるものである。

研究チームはまた、防御的プロンプトのような既存の防御策は、巧妙な敵対的プロンプトに対して完全ではないことを強調した。研究チームは、こうしたAIモデルの安全性を確保するためには、より強固で包括的なアプローチが必要になると述べている。

「十分な決断力と創造力を持つ攻撃者は、脆弱性を見つけて悪用する可能性が非常に高い。

これらの調査結果を踏まえ、また、OpenAIの監督やテストが全くない状態で、ユーザーがプロンプトをいじることができることを考慮し、この調査は、より強力なセキュリティ対策の開発を優先するよう、より広範なAIコミュニティに促している。

「これらの問題に対処するためには、単純な防御プロンプトの範囲を超えて、このような悪用テクニックに対するカスタムGPTのセキュリティを強化するための追加セーフガードが必要です。

GPTのカスタマイズは計り知れない可能性を秘めているが、この研究は関連するセキュリティ・リスクについて重要な注意を喚起するものである。AIの進歩は、ユーザーのセキュリティとプライバシーを損なってはならない。今のところ、最も重要なGPTや機密性の高いGPTは自分だけのものにしておくか、そもそも機密性の高いデータでGPTを訓練しない方がよいかもしれない

Related Posts

Leave a Comment