用語集
用語集
AI 用語、簡潔に定義。
38 用語
A
- AI Act 第50条(透明性) EU AI Act 第50条は透明性義務を定めるもので、チャットボットやディープフェイク、AI生成コンテンツは明確に表示されねばならず、2026年8月施行。
- AIアクセラレータ(NPU/TPU) AIワークロード専用のチップで、モバイルのNPU、GoogleのTPU、AWS Trainiumなどが代表例で、ドル当たりGPUより速く効率的なことが多いです。
- AIアラインメント(AI alignment) AIシステムが人間の意図、価値観、安全目標に確実に従うように設計し、望ましくない結果を防ぐことを目指す研究分野で、フロンティアモデル開発の中心課題です。
- AIエージェント 大規模言語モデルを動力源として、計画立案・ツール呼び出し・自己出力の反復を通じてタスクを自律的に実行するシステムです。チャットとは異なり、目標達成まで自律ループで動作します。
- AIセーフティ(AI safety) AIシステムの技術的、組織的、政策的なリスクを扱う広範な学際分野で、誤動作や悪用から長期的な実存的懸念までを含み、現代の規制と評価の中心になっています。
C
E
G
- Generative Pretrained Transformer(GPT) デコーダーのみのトランスフォーマー言語モデル群で、巨大なテキストで事前学習され指示用にファインチューニングされる、ChatGPTを支えるアーキテクチャです。
- Google Gemini Google DeepMindのマルチモーダル基盤モデル群で、テキスト・画像・音声・動画を処理し、Geminiアプリ、Workspace、Vertex AIを支えています。
- GPU(Graphics Processing Unit) 数千の並列コアを持つグラフィックスプロセッサで、今日のAIモデル学習と推論の主要ハードウェアです。NVIDIA H100/B200が市場を支配しています。
L
S
#
- アテンション機構(attention) ニューラルネットワークの技術で、モデルが各入力トークンの重要度を他のトークンとの関係で重み付けできるようにします。現代のトランスフォーマーアーキテクチャの中核となる仕組みです。
- エキスパート混合 (MoE) 各入力に対してパラメータの一部のみを活性化するニューラルネットワークアーキテクチャです。推論コストを大幅に抑えながら、はるかに大規模なモデルに匹敵する能力を発揮します。
- コンテキストウィンドウ(context window) LLMが一度のインタラクションで考慮できるトークンの最大数で、プロンプト、ドキュメント、応答すべてを含み、現在は8Kから200万トークンまで及びます。
- チャットボット(chatbot) ユーザーとテキストまたは音声を介して会話を行うソフトウェアエージェントで、現代のチャットボットは大規模言語モデルと外部ツールの呼び出しに支えられています。
- ディープラーニング(深層学習) 多層のニューラルネットワークを用いて複雑なパターンを学習する機械学習の分野で、現代のコンピュータビジョン、音声認識、言語AIシステムの根幹を支えています。
- トークン化(tokenization) テキストを単語、サブワード、文字などの小さな単位(トークン)に分解し、言語モデルが処理可能な数値IDに変換できる形に整える前処理工程で、コストと文脈長を左右します。
- トランスフォーマー 2017年に発表されたニューラルネットワークアーキテクチャで、現代のほぼすべての大規模言語モデルを支えています。Self-Attention機構を中核に持ちます。
- ニューラルネットワーク 層状に配置された人工ニューロンで構成される計算システムで、データからパターンを学習します。LLMを含むほぼすべての現代の機械学習システムの基礎となっています。
- ハルシネーション(幻覚) 言語モデルが、もっともらしく自信に満ちた口調で、実際には事実と異なる・でたらめな・根拠のない情報を生成してしまう現象です。AIシステムの信頼性を損なう主要な課題のひとつです。
- ファインチューニング 訓練済みの言語モデルを、より小規模なタスク固有のデータセットでさらに訓練して特定の用途・ドメイン・スタイルに特化させるプロセスです。汎用能力を保ちつつ重みを新目標へ適応させます。
- プロンプトインジェクション LLMへの入力に含まれる信頼できないテキストが原因で、モデルが開発者の指示ではなく攻撃者の指示に従ってしまう攻撃手法です。OWASPのLLMアプリケーションTop 10で第1位にランク付けされています。
- プロンプトエンジニアリング(prompt engineering) 言語モデルが望ましい結果を確実に出すよう問い合わせを設計する実践で、表現、構造、例(few-shot)、システムプロンプトの工夫を含む幅広い分野です。
- ベクトルデータベース(vector database) ベクトル埋め込みを保存し、意味的類似度に基づいて検索する専用データベースで、現代のRAGシステムやセマンティック検索アプリケーションの中核となる基盤です。
- マルチエージェントシステム(multi-agent system) 複数の専門化されたエージェントが協力、委任、または競争することにより、単一のモノリシックなモデルよりも信頼性高くタスクを解決するAIアーキテクチャです。
- モデルコンテキストプロトコル (MCP) Anthropicが2024年に発表したオープンプロトコルで、AIアシスタントと外部ツール・データソースの接続方法を標準化します。USB-Cが物理的な接続を統一したように、AI連携を統一します。
- レッドチーム(red team) プロンプトインジェクション、脱獄、悪用などの攻撃手法でAIシステムを構造的にテストし、本番投入前に脆弱性、危険な振る舞い、悪用シナリオを発見する実践です。
- 拡散モデル(diffusion model) 段階的に追加されたノイズを取り除くことを学習する生成モデルのクラスで、AI生成の画像、動画、音声における今日の業界で支配的なアプローチとなっています。
- 基盤モデル(foundation model) 幅広いデータで学習され多くのタスクに適応される大規模モデルで、Stanford CRFMの用語であり、LLM、視覚モデル、マルチモーダルモデルを包含します。
- 検索拡張生成 (RAG) 検索システムと言語モデルを組み合わせたアーキテクチャパターンです。モデルは回答する前に外部の知識ベースから関連ドキュメントを取得し、実際のデータに根ざした出力を生成します。
- 自己教師あり学習(self-supervised learning) ラベルなしデータからモデルが自ら学習目標を構築して学ぶ手法で、文中の隠されたトークンを予測する方式などが代表例であり、現代のLLMと基盤モデルの事前学習を支えます。
- 人間のフィードバックからの強化学習(RLHF) 人間の評価者がモデルの応答をランキングし、それを用いてLLMを有用かつ安全になるようファインチューニングする学習手法で、ChatGPTを実用化した中核技術です。
- 推論(inference、モデル実行) 学習済みモデルが新しい入力に対して出力を生成する段階で、GPU/TPUのリソースを消費し、AIサービスのコスト、レイテンシ、スループットを決定します。
- 推論モデル 最終回答を出力する前に長く深い思考の連鎖を生成するよう訓練されたLLMです。推論時間(テスト時計算)を増やすことで、数学・コードなど複雑な問題における精度を向上させます。
- 大規模言語モデル (LLM) 膨大なテキストデータで訓練された深層ニューラルネットワークで、人間の言語を予測・生成します。ChatGPT、Claude、Geminiなど現代のAIアシスタントの基盤技術です。
- 知識蒸留(knowledge distillation) 大きな教師モデルの出力を小さな生徒モデルが模倣して学ぶ圧縮手法で、精度を保ったままサイズを縮小し、オンデバイスや低リソース環境での実行を可能にします。
- 埋め込み(embedding、ベクトル表現) 単語、文、文書を高次元空間内のベクトルとして表現したもので、意味的に類似する内容は互いに近いベクトルを持ちます。RAGやセマンティック検索の基盤となります。