大規模な言語モデルの謎を解く ChatGPT: 誇大広告を打ち破る

大規模言語モデルとは

ChatGPT は世界を席巻し、その雄弁で微妙な自然言語の生成で人々を魅了しました。 しかし、表面的には印象的ですが、内部を覗いてみると顕著な弱点が明らかになります。

この投稿では、次のような大規模言語モデル (LLM) の内部動作をわかりやすく説明します。 ChatGPT。 私の目標は、最近の AI の進歩に関して事実とフィクションを区別する権威ある分析です。

LLM の仕組み: LLM が同時に実現できる約束と限界を理解する

大規模言語モデルとは

それでは、LLM とは正確には何で、モデルはどのように機能するのでしょうか ChatGPT 操作しますか? 一言で言えば:

  • LLM は大量のテキスト データセットを取り込み、非常に流暢な人間の言語を予測できるようにします。
  • しかし、人間とは異なり、LLM には現実世界に関する理解力、推論力、および事実に基づく基盤が欠けています。
  • そのため、美しく洗練されたテキストを生成することはできますが、多くの場合、一貫性、正確さ、または健全な論理的基盤が欠けています。

LLM の仕組みと制限についてさらに詳しく見てみましょう…

LLM は自分たちが生成する単語を実際には理解していない

LLM の長所と欠点を理解する鍵は、そのトレーニング方法にあります。

  • 彼らはウェブサイト、書籍、記事などから最大数千億の単語を摂取します。
  • 単語のパターンを検出することで、潜在的なシーケンスの確率を学習します。
  • これにより、言語パターンに準拠した新しい組み合わせを生成できるようになります。

ただし、これらの単語には暗号化された意味が付加されていません。 以前の例に基づいてシーケンスを予測しただけです。

したがって、雄弁ではありますが、舞台裏では真の理解や推論は行われていません。 そしてそれが、LLM の明らかな事実誤認や論理的ギャップの多くを説明しています。

LLM は現実世界の基礎を欠いている

さらに、LLM はトレーニング中にテキスト コーパスのみを取り込むため、現実がどのように機能するかについての現実世界の知識が不足しています。

したがって、次のようなモデルによって表示される「事実」や「知識」は、 ChatGPT 浅薄で不正確であり、真実に基づいているのではなく、単語のパターンをつなぎ合わせたものです。

この推論と事実の根拠の欠如により、LLM の悪名高い不正確または無意味な発言が説明されます。 彼らの反応は驚くべきものに聞こえるかもしれませんが、多くの場合完全なフィクションです。

一貫したアイデンティティや信念体系は存在しない

最後に、LLM には応答を結び付ける永続的な ID もありません。

  • 人間は時間の経過とともに、トピックに関する一貫した信念と誠実さを育みます
  • LLM のような ChatGPT 一貫性を持たずに各応答を個別に生成する
  • したがって、さまざまな質問を調べていくと、明らかな矛盾が見つかるでしょう。

単独では、LLM 出力は一貫性があり、インテリジェントに見えるかもしれません。 しかし、さらに前進すると、その欠陥が明らかになります。

おわりに: 誇大広告に直面した時の慎重な楽観主義

自然言語AIの急速な進歩には目を見張るものがあります。 狭い用途では、次のようなツールが使用されます。 ChatGPT 約束を示す。

しかし、人間レベルの知能に関する誇張された主張は時期尚早であるように思えます。 LLM は大きく進歩しましたが、依然として生物学的認知に関する根本的な制約に直面しています。

興奮するのは当然ですが、誇大宣伝は控えめにする必要があります。 これからの道はまだ長いですが、LLM は将来の可能性を少し垣間見せてくれます。

大規模な言語モデルの謎を解く ChatGPT: 誇大広告を打ち破る

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *

トップにスクロール