LLM Large Language Model
基础概念 大型语言模型。通过海量文本训练,能生成、理解自然语言的 AI 模型。代表:GPT-4、Claude、Llama。
相关文章
输入给 AI 的指令文本。Prompt 的质量直接决定输出质量。Prompt Engineering 是优化输入的工程方法论。
相关文章
LLM 处理文本的基本单位。中文约 1-2 字/token,英文约 3-4 字母/token。Token 上限决定了模型能处理多长的对话。
相关文章
Context Window 上下文窗口
基础概念 模型单次能"看到"的最大 Token 数量。Claude 3.5 支持 200K tokens,相当于约 15 万字。
相关文章
AI 生成看似合理但实际不正确的内容。是当前 LLM 的核心挑战之一,需要用户保持批判性思维。
相关文章
控制输出随机性的参数(0-2)。低温度输出更确定、保守;高温度输出更创意、多样。
相关文章
在预训练模型基础上用特定数据继续训练,让模型适配特定领域或任务。成本远低于从头训练。
相关文章
RAG Retrieval-Augmented Generation
基础概念 检索增强生成。让 AI 先从知识库检索相关内容,再生成答案,解决模型知识截止和幻觉问题。
相关文章
Agent AI Agent / 智能体
Agent 能自主规划和执行多步任务的 AI 系统。区别于单次问答,Agent 能调用工具、做决策、迭代行动。
相关文章
Agent 调用外部工具(搜索/代码执行/API)完成任务的能力。是让 AI 真正"动起来"的关键。
相关文章
Agent 的推理-行动循环框架:思考 → 行动 → 观察结果 → 再思考。是大多数 Agent 架构的基础。
相关文章
MCP Model Context Protocol
Agent Anthropic 推出的开放协议,标准化 AI 工具接入方式。让 Claude 能统一调用各类第三方工具和数据源。
相关文章
多个 AI Agent 协作完成任务的系统。典型架构:协调者分配任务,专项 Agent 各自执行。
相关文章
Agent 记住历史信息的能力。分为:对话内记忆(Context)、持久记忆(外部存储)、知识记忆(RAG)。
相关文章
协调多个 AI 组件(模型/工具/Agent)按流程工作的机制。是复杂 AI 应用的核心设计问题。
相关文章
Claude Claude (Anthropic)
模型 Anthropic 出品的 AI 助手。以宪法 AI 训练,强调安全性与有帮助性。Sonnet/Opus 系列各有侧重。
相关文章
OpenAI 的旗舰模型。GPT-4o 是多模态版本,可处理文本+图像+音频。
相关文章
Gemini Gemini (Google)
模型 Google DeepMind 出品,原生多模态模型。Ultra/Pro/Flash 分别对应不同场景。
相关文章
Meta 开源的 LLM 系列。可本地部署,是本地模型生态的基础,衍生出 Mixtral、Qwen 等众多模型。
相关文章
阿里巴巴开源模型。Qwen2.5/Qwen3 系列在代码和中文理解上表现优秀,可本地运行。
相关文章
Apple 针对 Apple Silicon 优化的机器学习框架。让 Mac 可以高效本地运行 LLM,无需 GPU。
相关文章
Claude Code Claude Code (CLI)
开发工具 Anthropic 官方命令行 AI 编程工具。在终端中直接操作代码、文件、执行命令,是本站作者的主力工具。
相关文章
原生集成 AI 的代码编辑器。基于 VS Code,支持多模型,Tab 补全和 Chat 模式都很强。
相关文章
Copilot GitHub Copilot
开发工具 GitHub/OpenAI 出品的 AI 编程助手。行内补全是其特色,深度集成 VS Code 生态。
相关文章
构建 LLM 应用的 Python/JS 框架。提供 Chain/Agent/Memory/RAG 等模块,是最流行的 AI 开发框架之一。
相关文章
本地运行开源 LLM 的最简工具。一行命令拉取并运行 Llama/Qwen/Mistral 等模型,跨平台支持好。
相关文章
对话开始前设置 AI 行为的指令。定义 AI 的角色、规则和风格,是产品化 AI 应用的关键。
相关文章
Chain-of-Thought 思维链 (CoT)
提示工程 让 AI 在回答前先逐步推理的提示技巧。"Let's think step by step" 能显著提升复杂问题的准确率。
相关文章
在提示词中给 AI 几个示例,让模型模仿格式和风格输出。比 Zero-shot(无示例)效果通常更稳定。
相关文章
通过提供上下文(文档/搜索结果)让 AI 基于事实回答,减少幻觉。是 RAG 的核心思想。
相关文章
将文本转化为高维向量,使语义相似的内容在向量空间中相邻。是语义搜索和 RAG 的数学基础。
相关文章
专门存储和检索向量嵌入的数据库。代表:Pinecone、Chroma、Supabase pgvector。RAG 系统的标配组件。
相关文章
Transformer Transformer 架构
技术原理 现代 LLM 的底层神经网络架构(2017年提出)。注意力机制是其核心,让模型能理解长距离词语关系。
相关文章
RLHF Reinforcement Learning from Human Feedback
技术原理 用人类偏好反馈训练模型,使其输出更符合人类价值观。是 ChatGPT 突破的关键技术。
相关文章