| Action Space | 动作空间 | 智能体可用动作的完整集合,包括所有工具及其可能的参数 |
| Agent | 智能体 | 能感知环境、做决策并采取行动以实现目标的系统 |
| Agent Framework | 智能体框架 | 提供智能体构建模块的软件库(如 LangChain, AutoGen, LlamaIndex 等) |
| Agent loop | 智能体循环 | 编排用户、模型和工具之间交互的核心逻辑 |
| Agent Orchestration | 智能体编排 | 管理多个智能体、路由任务、聚合结果的协调层 |
| Agentic Workflow | 智能体工作流 | LLM 具备一定自主性的任务执行模式,能根据中间结果决定路径 |
| Assistant message | 助手消息 | 面向用户的消息,标志着当前智能体循环的终止(Termination state) |
| Autonomous Agent | 自主智能体 | 能够在无人工干预的情况下长时间独立运行的智能体 |
| Chain-of-Thought (CoT) | 思维链 | 提示技术,鼓励模型在得出最终答案前展示逐步推理过程 |
| Checkpointing | 检查点保存 | 在执行期间特定节点保存智能体状态,以支持中断后的恢复或调试 |
| Chunking | 分块 | 将文档分成较小段落以进行向量嵌入和检索的过程 |
| Cognitive Architecture | 认知架构 | 智能体思维处理过程(感知、记忆、复杂推理、行为行动)的系统级顶层设计 |
| Compaction | 压缩 | 当 Token 超过阈值时,将会话历史替换为更小的代表性项列表以释放上下文空间 |
| Computer Use | 计算机使用 | 智能体直接与计算机桌面UI或界面图形交互(视觉感知、点击、打字)的能力 |
| Constitutional AI | 宪法 AI | 训练机器学习系统遵循一组显式原则或“宪法”以指导模型行为的方法 |
| Context window | 上下文窗口 | 模型单次推理调用能够使用的最大 Token 数量(包含输入和输出) |
| Embedding | 向量嵌入 | 文本等数据在高维空间中的数值向量表示,用于相似度匹配 |
| Episodic Memory | 情景记忆 | 保存完整的经历或交互情节(包含情境、动作、结果),以便从经验中学习 |
| Few-Shot / Zero-Shot | 少样本/零样本 | 是否在提示词中包含期望的输入输出样例以引导模型行为的方法 |
| Fine-Tuning | 微调 | 对基础模型使用特定领域数据进行额外训练以提升特定任务的能力 |
| Grounding | 基础支撑/接地 | 将智能体输出与可验证的外部信息源联系起来,减少幻觉 |
| Guardrails | 护栏/安全边界 | 防止智能体采取有害、未经授权或不良行动的约束和机制 |
| Hallucination | 幻觉 | 模型生成听起来合理但实际上事实错误或编造的信息 |
| Harness | 框架/支架 | 提供核心智能体循环和执行逻辑(文中指代 Agent 核心程序) |
| Human-in-the-Loop (HITL) | 循环中人工干预 | 人类在执行前审核和批准智能体某些高风险决策的环节 |
| Inference | 推理 | 请求模型生成响应的过程(包含 Token 的编码与解码) |
| Knowledge Base | 知识库 | 供智能体查询的结构化或半结构化信息存储库 |
| LLM | 大语言模型 | 现代 AI 智能体的“大脑”,提供推理和自然语言理解能力 |
| Long-Term Memory | 长期记忆 | 跨对话持久化保存的信息,通常使用向量数据库实现语义检索 |
| MCP | 模型上下文协议 | 将 LLM 连接到外部工具和数据源的标准化架构和协议规范 |
| Multi-Agent System | 多智能体系统 | 多个专门的智能体协同解决复杂问题的架构 |
| Observability | 可观测性 | 通过日志、链路跟踪和监控来理解智能体运行时行为的能力 |
| Observation | 观察 | 执行动作后返回给智能体的结果,用于辅助下一步决策 |
| Planning | 规划 | 将复杂目标分解为可实现子目标和动作序列的过程 |
| Prompt | 提示词 | 为模型准备的文本指令集 |
| Prompt caching | 提示词缓存 | 利用之前推理的前缀匹配,将通信成本/时间从平方级降至线性级 |
| Prompt Chaining | 提示词链 | 连接多个 LLM 调用,将前一个节点的输出作为下一个执行节点的输入的方法 |
| Prompt Engineering | 提示词工程 | 设计指令以激发大型语言模型所需行为的工艺 |
| RAG | 检索增强生成 | 在生成之前检索相关文档来增强 LLM 响应的模式 |
| ReAct | 推理与行动 | 交替进行推理和动作执行的智能体架构(思考→行动→观察→思考) |
| Red Teaming | 红蓝对抗/红队 | 评估者系统地试图诱发智能体有害或不期望行为的对抗性测试 |
| Reflection | 反思 | 智能体分析自身输出以识别错误并改进的技术 |
| Reranking | 重排/重新排序 | 二阶检索过程,使用更复杂的模型对初始搜索结果重新排序 |
| RLHF | 基于反馈强化 | 使用人类偏好打分来指导强化学习过程从而改进模型对齐人类价值观的设计 |
| Self-Consistency | 自洽性 | 模型生成多条推理路径并选择最常出现的答案的方法 |
| Semantic Search | 语义搜索 | 基于预训练嵌入含义而非精确关键字匹配的搜索 |
| Short-Term Memory | 短期/工作记忆 | 保存在当前上下文窗口中的信息(最近对话、任务状态、检索文档) |
| Structured Output | 结构化输出 | 模型返回的特定格式响应(如 JSON),可被代码可靠解析 |
| Supervisor Agent | 监督智能体 | 负责将任务委派给工作智能体、监控进度并综合结果的智能体 |
| Swarm Intelligence | 群体智能 | 许多能力有限的简单智能体通过局部交互产生复杂的集体行为 |
| System Prompt | 系统提示词 | 建立模型角色、能力和行为准则的指令,持久存在跨越轮次 |
| Tool call | 工具调用 | 模型请求智能体执行的操作 |
| Tracing | 链路追踪 | 记录智能体执行期间的操作、工具调用决策和数据流序列的过程 |
| Tree of Thoughts (ToT) | 思维树 | 同时探索多条推理路径并评估剪枝以寻找最佳解决方案的技术 |
| Turn | 轮次/对话轮次 | 从用户输入到智能体返回最终响应的一次完整过程(可能包含多次内部循环) |
| Vector Database / Store | 向量数据库 | 优化用于存储和检索高维向量的数据库,驱动语义搜索 |
| ZDR (Zero Data Retention) | 零数据保留 | 每次请求无状态,不在服务端持久化保留用户数据的安全策略 |