基礎

大規模言語モデル (LLM)

膨大なテキストデータで訓練された深層ニューラルネットワークで、人間の言語を予測・生成します。ChatGPT、Claude、Geminiなど現代のAIアシスタントの基盤技術です。

**大規模言語モデル(LLM、Large Language Model)**は、書籍・記事・Webページ・コードなど数千億から数兆語規模のテキストで訓練された深層ニューラルネットワークです。ほぼすべての場合、トランスフォーマーアーキテクチャを基盤としています。訓練後、モデルは人間の言語の統計的パターンを内部に保持し、プロンプトに対して自然な文章を生成したり、質問に答えたり、文書を要約・翻訳したり、コードを記述したりできます。

LLMは人間的な意味での「理解」を行うわけではありません。直前の文脈をもとに、最も確率の高い次のトークンを予測する処理を何千回も繰り返すことで、文章や段落を組み立てます。「考えているように見える」という印象は、訓練で吸収された膨大なパターンのスケールと多様性から生まれるものです。

「LLM」という用語が一般に広まったのは、2022年のChatGPTリリースがきっかけです。現在では数十億から一兆以上のパラメータを持つモデルを指し、API経由(GPT-5、Claude、Gemini)、オープンウェイト(Llama、Mistral、DeepSeek)、またはローカルランタイム(Ollama、llama.cpp)で利用できます。

LLMは、このサイトで取り上げるほぼすべてのAIプロダクトの基盤です。エージェント、チャットアシスタント、RAGパイプライン、推論モデルはすべてLLMの上に構築されています。

出典

関連項目