Home » Anthropic、AIの学習に個人データを使用しないと発表

Anthropic、AIの学習に個人データを使用しないと発表

by Thomas

大手ジェネレーティブAIスタートアップのAnthropicは、Large Language Model (LLM)をトレーニングするために顧客のデータを使用しないと宣言した。

OpenAIの元研究者によって設立されたAnthropicは、その理想と意図を明示するために商用利用規約を更新した。Anthropicは、自社の顧客の個人データを切り離すことで、OpenAI、Amazon、Metaのような、システムを改善するためにユーザーコンテンツを活用するライバルとの差別化を図っている。

“Anthropicは、有料サービスからの顧客のコンテンツでモデルを訓練することはできません。”更新された条件によると、”当事者間で、適用される法律で許可される範囲内で、Anthropicは、顧客がすべての出力を所有することに同意し、これらの条件の下で顧客のコンテンツに対する権利を放棄する “と追加されています。

さらに、”Anthropicは、これらの条件の下で、顧客のコンテンツに関するいかなる権利も取得することを予期していない “とし、”暗黙の了解またはその他により、いずれかの当事者に他方のコンテンツまたは知的財産に関するいかなる権利も付与しない “と述べている。

更新された法的文書は、表向きはAnthropicの商用クライアントの保護と透明性を提供する。例えば、企業は生成されたすべてのAI出力を所有し、潜在的な知的財産権紛争を回避する。Anthropicはまた、クロードによって生成されたコンテンツを侵害する著作権クレームからクライアントを守ることを約束する。

この方針は、AIは有益で、無害で、誠実であるべきだというAnthropicのミッション・ステートメントと一致している。ジェネレーティブAIの倫理性に懐疑的な見方が広がる中、データプライバシーなどの懸念に対処する同社のコミットメントは、同社に競争力を与える可能性がある

ユーザーのデータ: LLMの重要な糧

GPT-4、LlaMa、AnthropicのClaudeのような大規模言語モデル(LLM)は、膨大なテキストデータで学習させることで、人間の言語を理解し生成する高度なAIシステムである。これらのモデルは、ディープラーニング技術とニューラルネットワークを活用し、単語の並びを予測し、文脈を理解し、言語の機微を把握する。学習中、LLMは継続的に予測を改良し、会話、文章作成、関連情報提供の能力を向上させる。LLMの有効性は、学習するデータの多様性と量に大きく依存し、様々な言語パターン、スタイル、新しい情報から学習することで、より正確で文脈を認識できるようになります。

そしてこれが、LLMのトレーニングにおいてユーザーのデータが非常に貴重である理由です。第一に、最新の言語トレンドやユーザーの嗜好(例えば、新しいスラングを理解するなど)をモデルが常に把握できるようになります。第二に、個々のユーザーのインタラクションやスタイルに適応することで、パーソナライゼーションやユーザーとのエンゲージメントの向上が可能になります。しかし、AI企業は、数百万ドルを稼ぐモデルの訓練に使われるこの重要な情報をユーザーに支払わないため、これは倫理的な議論を引き起こす。

TCNが報じたように、メタ社は最近、ユーザーのデータに基づいて次期LlaMA-3 LLMをトレーニングしていることを明らかにし、同社の新しいEMUモデル(テキストプロンプトから写真やビデオを生成する)も、ユーザーがソーシャルメディアにアップロードした一般公開データを使用してトレーニングされた。

それに加えて、アマゾンはまた、アレクサのアップグレード版を駆動する予定のLLMも、ユーザーの会話やインタラクションで訓練されていることを明らかにした。「しかし同時に、我々は顧客が自分のAlexaの音声記録をサービス向上のために使用するかどうかをコントロールできるようにしており、モデルを訓練する際には常に顧客の好みを尊重している。

ハイテク大手が最先端のAIサービスをリリースしようと競争する中、責任あるデータ実務は社会的信頼を得るための鍵となる。Anthropicは、この点で模範となることを目指している。個人情報の放棄を犠牲にして、より強力で便利なモデルを獲得することに関する倫理的な議論は、ソーシャルメディアが無料サービスと引き換えにユーザーが製品になるという概念を普及させた数十年前と同様に、今日も広まっている。

Related Posts

Leave a Comment