Home » OpenAIはGPT-4 Turboを発表し、チャットボットのカスタマイズオプションを拡張します。

OpenAIはGPT-4 Turboを発表し、チャットボットのカスタマイズオプションを拡張します。

by Patricia

11月6日、サンフランシスコで開催された第1回OpenAI開発者会議の開幕を告げるSam Altman。Photo: OpenAI/YouTube” src=”https://www.todayscrypto.news/wp-content/uploads/2023/11/1.Sam-Altman-GPT4-Turbo.jpg@webp.jpg” width=”828″ height=”421″ /☻

OpenAIは本日、GPT-4 Turboを初の開発者会議で発表しました。このアップグレードにより、文脈依存の処理が改善され、ユーザーのニーズに適応できるようになりました。

GPT-4 Turboには2つのバージョンがあり、1つはテキストに特化し、もう1つは画像も処理する。OpenAIによると、GPT-4 Turboは「パフォーマンスが最適化」されており、テキストタグ1000件あたりわずか0.01ドル、画像タグ1000件あたりわずか0.03ドルで、GPT-4のほぼ3分の1の価格となっている

GPTチャットをオンデマンドであなたに

GPT-4ターボのチューニングの特徴は?

“ファインチューニングは、課題に一致する多くの例で練習することにより、複数の画像での学習を改善し、様々なタスクでより良い結果を導く “とOpenAIは説明する。ファインチューニングは本質的に、一般的なAIモデルと用途に特化したソリューションのギャップを埋めるものです。これは、「より良いインデックス作成結果、より短いインデックスによる文字数の節約、より速いクエリ応答」を約束するものだ。

ファインチューニングでは、多くのユーザーデータをモデルに送り込み、特定の動作を学習させる。このようにして、GPT-4のような大規模で一般的なモデルは、完全に新しいモデルを作成することなく、特定のタスクに特化したツールに変換することができる。例えば、医療情報に適応したモデルは、より正確な結果を提供し、より医師のように「話す」だろう。

付与された安定分散モデルは、特殊なデータから学習しているため、通常、オリジナルのXLや1.5安定分散モデルよりも優れた画像を生成します。

この技術革新に先立ち、OpenAIはユーザー定義命令によってLLMの挙動を限定的に調整することができました。これは、OpenAIのモデルを修正したい人にとって、すでに大きな一歩でした。ファインチューニングは、モデルのデータセットに新しいデータ、トーン、コンテキスト、音声を導入することで、モデルを改善します。

微調整の価値は重要だ。人工知能が私たちの日常生活でますます重要な役割を果たすようになると、微調整されたモデルの必要性が高まります。

OpenAIのテキスト生成モデルを微調整することで、特定の用途向けに改良することができますが、時間と労力を慎重に投資する必要があります」とOpenAIは公式ガイドで説明している。

同社は、コンテキスト、マルチモーダル機能、精度の面で常にモデルを改良している。本日の発表によると、これらの能力は、クロードやグーグルのバードのような従来のクローズドループLLMにはかなわない。

LlaMAやMistralのようなオープンソースのLLMは改良は可能だが、プロフェッショナルなパフォーマンスと使いやすさにはかなわない。

GPT-4ターボのリリースとその微調整への注力は、人工知能技術の大きな転換を意味する。ユーザーは、よりパーソナライズされた効率的なインタラクションを期待できる。

Related Posts

Leave a Comment