Home » AIチャットボットがテロに加担する可能性:報告書

AIチャットボットがテロに加担する可能性:報告書

by Tim

非営利の政治シンクタンクであるランド研究所の新しい報告書が警告している。

報告書によれば、この研究で使用された拡張言語モデルは、生物兵器の作り方に関する具体的な指示は与えなかったものの、その応答は脱獄の誘い文句を使った攻撃計画を助ける可能性があるという。

通常、攻撃者が(その意図を)明示している場合、”申し訳ありませんが、お役に立てません “というような返答が返ってきます」と、ランド研究所のシニア・エンジニアでレポートの共著者であるクリストファー・ムートンはTCNのインタビューに答えている。「そのため、ガードレールの下をくぐり抜けるためには、通常、回避技術や技術的なテクニックに頼らざるを得ない」。

ランド研究所の研究では、研究者たちは侵入技術を使って人工知能モデルに、天然痘、炭疽菌、ペストなど様々な薬剤を使った集団生物学的攻撃の方法について会話を始めさせた。研究者たちはまた、人工知能モデルに対して、なぜ自分たちが有毒な薬剤を入手するのかを説得力を持って説明するよう求めた。

ランド研究所は、『レッドチーム』と呼ばれるAIとサイバーセキュリティの専門家42人からなる研究チームを配備し、ムートンが『不幸な』問題だと評するLLMから回答を得ようとしている。

レッドチームは、システムの攻撃や侵入、脆弱性の特定に経験豊富なサイバーセキュリティの専門家で構成されている。一方、ブルー・チームは、攻撃からシステムを守るサイバーセキュリティの専門家である。

「ムートンは、「我々は、最も憂慮すべきいくつかの発見を強調した。「同時に、LLMが不正確であったり、有益な情報を得られなかったりしたため、不満を表明したチームもあった。”

 src=

Related Posts

Leave a Comment