术语表
术语表
AI 术语,简明定义。
38 术语
#
- 大型语言模型 (LLM) 在海量文本语料上训练的深度神经网络,能够预测和生成人类语言;是 ChatGPT、Claude、Gemini 等现代 AI 助手的技术基础,几乎驱动着当今所有主流 AI 产品。
- 多智能体系统 一种 AI 架构,由多个专业化智能体协作、委托或竞争完成任务;通过角色分工、自我批评和并行化,比单一整体模型更可靠地解决庞大、多样或高风险的复杂问题。
- 分词 (Tokenization) 将文本拆分为较小单元(token)——完整单词、子词、字符或字节——并映射为整数 ID 的过程,是语言模型处理文本的第一步,直接影响成本和上下文窗口大小。
- 红队 (Red Team) 由专业测试者用攻击方法对 AI 系统进行结构化测试——prompt injection、越狱、滥用场景、能力激发——以在生产部署前发现漏洞和不对齐行为,是前沿模型评测的标配。
- 幻觉(Hallucination) 语言模型生成听起来流畅且语气自信、但实际上在事实上存在错误、内容虚构或缺乏可靠来源支撑的输出;是当前大型语言模型(LLM)部署中最核心的质量风险之一。
- 混合专家模型 (MoE) 一种神经网络架构,通过学习型路由机制对每个输入仅激活少数专家子网络(MoE),从而在拥有超大参数规模与能力的同时,将推理计算成本控制在远低于等效密集模型的水平。
- 基础模型 (Foundation Model) 通过自监督学习在广泛数据上训练、可适配多种下游任务的大型模型;斯坦福 CRFM 于 2021 年提出的概念,涵盖大型语言模型、视觉模型和多模态模型等多种类型。
- 基于人类反馈的强化学习 (RLHF) 一种训练方法:人类评估者对模型多个响应进行排序,这些排序用于训练奖励模型,再通过强化学习(PPO)微调 LLM,使其变得更有帮助、更安全、更符合人类偏好。
- 检索增强生成 (RAG) 将检索系统与语言模型相结合的主流设计模式:在回答之前先从外部知识库(文档、网页、数据库)中检索相关内容并注入提示词,使模型输出建立在真实、可验证的数据基础之上。
- 扩散模型 (Diffusion Model) 一类生成式模型,通过学习逆向逐步去除噪声来生成数据;当今 AI 图像、视频和音频生成领域的主导方法,是 Stable Diffusion 和 Sora 的基础。
- 聊天机器人 (Chatbot) 通过文字或语音界面模拟与人类用户对话的软件系统;现代聊天机器人由大型语言模型和外部工具调用驱动,覆盖客户服务、企业知识库搜索、教育和编程辅助等众多场景。
- 模型上下文协议 (MCP) Anthropic 于 2024 年发布的开放协议,统一规范了 AI 助手连接外部工具与数据源的方式,使任何兼容的 AI 应用都能接入任何兼容的工具服务器,类似于 USB-C 对物理接口的标准化。
- 欧盟人工智能法案(EU AI Act) 欧盟根据风险等级(不可接受、高风险、有限风险、最低风险)对 AI 系统进行监管的法规,是全球首部综合性 AI 法律,自 2024 年起分阶段执行至 2027 年。
- 嵌入向量 (Embedding) 单词、句子、文档或图像在高维空间中的稠密向量表示,语义相近的内容在该空间中彼此靠近;是现代语义搜索、推荐系统和检索增强生成(RAG)不可或缺的核心基础构件。
- 上下文窗口 LLM 在一次交互中能够同时考虑的最大 token 数——包括系统提示词、上传文档、完整对话历史以及模型生成的回答;当今规模从 8K 一直到 200 万 token 不等。
- 深度学习 机器学习的分支,使用多层神经网络学习复杂的层次化模式;驱动当今视觉、语音和语言 AI 系统,包括 GPT、Claude、Gemini 等大型语言模型背后的核心方法。
- 神经网络 由多层人工神经元构成、受人脑结构启发的计算模型,通过反向传播在数据上训练以学习复杂模式;是几乎所有现代机器学习(包括大型语言模型 LLM)的核心基础。
- 生成式预训练 Transformer (GPT) 一类仅解码器(decoder-only)Transformer 语言模型,在海量文本上预训练并经过指令微调;ChatGPT 及其同类产品背后的核心架构家族。
- 提示词工程 (Prompt Engineering) 为语言模型设计提示词以可靠产出期望结果的实践;涵盖措辞、结构、上下文、格式说明、示例(few-shot)以及系统提示词等多个要素,并与安全性紧密相关。
- 提示词注入(Prompt Injection) 一种攻击方式:攻击者将恶意指令嵌入 LLM 的不可信输入中,使模型遵循攻击者的指令而非开发者的设计;位列 OWASP LLM 应用十大安全风险第一位。
- 图形处理器 (GPU) 拥有数千个并行核心的图形处理器;如今训练和推理 AI 模型的主要硬件,市场由 NVIDIA H100/B200 主导,其 CUDA 生态构成软件护城河。
- 推理 (Inference) 已训练好的模型针对新输入生成输出(如预测、分类或文本)的阶段;消耗 GPU/TPU 资源,决定 AI 服务的成本、延迟和吞吐量等核心商业指标,主导总体拥有成本。
- 推理模型(Reasoning Model) 经过专门训练的大型语言模型(LLM),在输出最终答案前会先生成详细的逐步思维链推理过程,以消耗更多推理时间为代价,在数学、编程与科学推断等复杂任务上取得更高准确率。
- 微调(Fine-tuning) 在较小规模的精选数据集上对已预训练语言模型进行继续训练的过程,使其在保留通用语言能力的前提下,更精准地适应特定任务、专业领域或特定输出风格与格式要求。
- 向量数据库 一种专门的数据库,存储高维向量嵌入(embedding)并通过近似最近邻算法基于语义相似度进行检索;驱动语义搜索、推荐系统以及现代 RAG 系统的核心基础设施。
- 知识蒸馏 (Knowledge Distillation) 一种模型压缩技术:较小的「学生」模型学习模仿较大「教师」模型的输出概率分布,从而在保持大部分精度的同时显著减小模型规模,便于在低资源设备和移动端进行推理。
- 注意力机制 (attention) 神经网络技术,让模型为输入序列中每个 token 相对于其他 token 的重要性分配权重;是现代 Transformer 架构的核心机制,催生了今日的 LLM。
- 自监督学习 一种训练范式:模型从无标注数据中学习,通过自行构造监督信号——例如预测句子中被遮盖的 token 或下一个 token;几乎所有现代大型语言模型预训练的核心方法。
A
- AI 安全 (AI safety) 一个跨学科领域,覆盖 AI 系统在技术、组织和政策层面的全部风险——从当下的具体错误和滥用,到结构性社会影响,再到与未来高能力系统相关的长期生存性担忧。
- AI 对齐 (AI alignment) 一个研究领域,致力于构建 AI 系统使其目标和行为可靠地匹配人类的意图、价值和安全目标,而非走向奖励欺骗、规范取巧或欺骗性对齐等不期望甚至危险的结果。
- AI 加速器 (NPU/TPU) 面向 AI 工作负载设计的专用芯片——手机中的 NPU、Google 的 TPU、AWS Trainium——通常比 GPU 更快、单位成本效率更高。
- AI 智能体 由大型语言模型(LLM)驱动的自主系统,能够规划行动步骤、调用各类外部工具(搜索、代码执行、API 等)、观察执行结果并反复迭代,直至完成复杂任务目标。
- AI Act 第 50 条(透明度) 欧盟 AI Act 第 50 条为聊天机器人、深度伪造与 AI 生成内容设立透明度义务,要求明确披露 AI 来源,确保用户始终知情;自 2026 年 8 月起适用。