加载中 一直显示?点击任意区域即可关闭
个性化配置

LLM 与 Agent 系列文章大纲

系列概述

本系列将深入讲解大语言模型(LLM)、AI Agent、RAG 技术、向量数据库等前沿 AI 技术的理论知识,以及各大公司在这些领域的落地实践。帮助开发者从零开始理解 AI 技术栈,掌握构建智能应用的核心能力。

文章规划


第一篇:大语言模型(LLM)基础入门

文件: posts/AI与LLM/1、LLM 基础入门.md

内容要点:

  • 什么是大语言模型(LLM)
  • LLM 的发展历程:从 GPT-1 到 GPT-4/o1
  • Transformer 架构原理简介
  • 预训练与微调(Pre-training & Fine-tuning)
  • Prompt Engineering 基础
  • 主流 LLM 对比:GPT、Claude、Gemini、Llama 等
  • 如何选择合适的 LLM

适合人群: 对 AI 技术感兴趣的初学者


第二篇:LLM 进阶——微调与部署

文件: posts/AI与LLM/2、LLM 进阶——微调与部署.md

内容要点:

  • 什么是模型微调
  • 微调方法:Full Fine-tuning、LoRA、QLoRA
  • 准备训练数据集
  • 使用开源框架进行微调
  • 模型量化与部署
  • 本地部署 LLM 实践
  • 成本与性能优化

适合人群: 需要定制化 LLM 的开发者


第三篇:AI Agent 原理与实践

文件: posts/AI与LLM/3、AI Agent 原理与实践.md

内容要点:

  • 什么是 AI Agent
  • Agent 的核心组件:LLM + Memory + Tools + Planning
  • Agent 工作流程详解
  • 主流 Agent 框架介绍:LangChain、AutoGPT、BabyAGI
  • 单 Agent vs 多 Agent
  • Agent 设计模式
  • 实战:构建第一个 AI Agent

适合人群: 希望构建 AI 应用的开发者


第四篇:RAG 技术深度解析

文件: posts/AI与LLM/4、RAG 技术深度解析.md

内容要点:

  • 什么是 RAG(检索增强生成)
  • RAG vs Fine-tuning:如何选择
  • RAG 的核心流程:文档加载→分块→向量化→检索→生成
  • 文档分块策略
  • 检索策略:相似度搜索、混合检索、重排序
  • RAG 优化技巧
  • 常见问题与解决方案

适合人群: 需要构建知识库问答系统的开发者


第五篇:向量数据库详解

文件: posts/AI与LLM/5、向量数据库详解.md

内容要点:

  • 什么是向量数据库
  • 向量嵌入(Embedding)原理
  • 相似度计算方法:余弦相似度、欧氏距离
  • 主流向量数据库对比:Pinecone、Milvus、Chroma、Weaviate
  • 向量索引算法:HNSW、IVF、PQ
  • 选择向量数据库的考量因素
  • 实战:搭建向量数据库服务

适合人群: 需要搭建向量检索系统的开发者


第六篇:Function Calling 与工具使用

文件: posts/AI与LLM/6、Function Calling 与工具使用.md

内容要点:

  • 什么是 Function Calling
  • Function Calling 工作原理
  • OpenAI Function Calling API
  • 设计高效的工具函数
  • 多工具调用与链式调用
  • 错误处理与重试策略
  • 实战:构建工具增强的 Agent

适合人群: 希望让 LLM 能够调用外部服务的开发者


第七篇:Agent 记忆与上下文管理

文件: posts/AI与LLM/7、Agent 记忆与上下文管理.md

内容要点:

  • Agent 的记忆类型:短期记忆、长期记忆
  • 上下文窗口与 Token 管理
  • 记忆压缩策略
  • 向量存储作为长期记忆
  • 记忆检索机制
  • 多轮对话的状态管理
  • 实战:构建有记忆的 Agent

适合人群: 需要构建多轮对话应用的开发者


第八篇:LangChain 框架实战

文件: posts/AI与LLM/8、LangChain 框架实战.md

内容要点:

  • LangChain 架构概述
  • 核心组件:Models、Prompts、Chains、Agents
  • Chain 的类型与使用
  • Memory 组件详解
  • 工具(Tools)与工具调用
  • LangChain Expression Language (LCEL)
  • 实战:使用 LangChain 构建完整应用

适合人群: 希望快速开发 AI 应用的开发者


第九篇:多 Agent 协作与规划

文件: posts/AI与LLM/9、多 Agent 协作与规划.md

内容要点:

  • 为什么需要多 Agent
  • Agent 规划(Planning)机制
  • 任务分解与分配
  • 多 Agent 通信模式
  • 主流多 Agent 框架:AutoGen、CrewAI、MetaGPT
  • 多 Agent 协作模式
  • 实战:构建多 Agent 系统

适合人群: 需要构建复杂 AI 系统的开发者


第十篇:OpenAI 落地实践

文件: posts/AI与LLM/10、OpenAI 落地实践.md

内容要点:

  • OpenAI 产品家族概览
  • GPT-4/GPT-4o 能力分析
  • Chat Completions API 深度解析
  • Assistant API 与 Threads
  • Function Calling 最佳实践
  • 成本优化策略
  • OpenAI 企业级部署方案
  • 案例分析:基于 OpenAI 的实际项目

适合人群: 计划使用 OpenAI 服务的企业和开发者


第十一篇:Anthropic Claude 落地实践

文件: posts/AI与LLM/11、Anthropic Claude 落地实践.md

内容要点:

  • Claude 系列模型介绍
  • Claude API 使用指南
  • Claude 的独特优势:长上下文、Constitutional AI
  • Prompt 优化技巧
  • Claude Artifacts 功能
  • 成本与性能对比
  • 企业级部署方案
  • 案例分析:基于 Claude 的实际项目

适合人群: 关注 Claude 模型的开发者


第十二篇:Google Gemini 落地实践

文件: posts/AI与LLM/12、Google Gemini 落地实践.md

内容要点:

  • Gemini 系列模型介绍
  • Gemini API 使用指南
  • 多模态能力:文本、图像、视频、音频
  • Gemini 与 Google Cloud 集成
  • Vertex AI 平台
  • Function Calling 与工具使用
  • 案例分析:基于 Gemini 的实际项目

适合人群: 关注 Google AI 服务的开发者


第十三篇:开源模型与本地部署

文件: posts/AI与LLM/13、开源模型与本地部署.md

内容要点:

  • 主流开源模型:Llama、Mistral、Qwen、DeepSeek
  • 模型格式:GGUF、GPTQ、AWQ
  • 本地推理引擎:llama.cpp、Ollama、LocalAI
  • GPU vs CPU 推理
  • 模型部署方案:vLLM、TGI、SGLang
  • 成本对比:云服务 vs 本地部署
  • 隐私与数据安全考量
  • 实战:搭建本地 LLM 服务

适合人群: 希望私有化部署 LLM 的开发者


第十四篇:RAG 高级优化技巧

文件: posts/AI与LLM/14、RAG 高级优化技巧.md

内容要点:

  • RAG 系统的评估指标
  • 检索优化:混合检索、查询重写、HyDE
  • 重排序(Reranking)策略
  • 知识图谱增强 RAG
  • Agentic RAG:Agent 驱动的检索
  • 多模态 RAG
  • RAG 监控与调试
  • 案例分析:RAG 系统优化实例

适合人群: 需要优化 RAG 系统性能的开发者


第十五篇:Agent 评估与测试

文件: posts/AI与LLM/15、Agent 评估与测试.md

内容要点:

  • 为什么 Agent 评估很重要
  • Agent 评估维度:准确性、效率、可靠性
  • 评估框架:LangSmith、Arize、Phoenix
  • 自动化评估方法
  • A/B 测试策略
  • 成本与性能监控
  • 安全性评估
  • 实战:构建 Agent 评估系统

适合人群: 需要保证 Agent 质量的开发者


第十六篇:AI 应用架构设计

文件: posts/AI与LLM/16、AI 应用架构设计.md

内容要点:

  • AI 应用的典型架构模式
  • LLM-as-a-Service vs Self-hosted
  • API 网关与速率限制
  • 缓存策略:语义缓存、KV 缓存
  • 数据流与错误处理
  • 可观测性:日志、指标、追踪
  • 扩展性与高可用设计
  • 案例分析:企业级 AI 应用架构

适合人群: 需要设计 AI 系统架构的开发者


第十七篇:AI 安全与合规

文件: posts/AI与LLM/17、AI 安全与合规.md

内容要点:

  • AI 安全风险类型
  • Prompt Injection 与防御
  • 数据隐私保护
  • 内容安全与过滤
  • AI 治理与合规框架
  • 企业级安全策略
  • 审计与监控
  • 案例分析:AI 安全事件

适合人群: 关注 AI 安全的企业和开发者


第十八篇:成本优化与性能调优

文件: posts/AI与LLM/18、成本优化与性能调优.md

内容要点:

  • LLM 成本构成分析
  • Token 使用优化策略
  • 模型选择与成本平衡
  • 缓存与复用策略
  • 批处理与并发优化
  • 开源模型成本分析
  • ROI 评估方法
  • 案例分析:大规模 AI 应用成本优化

适合人群: 需要控制 AI 成本的企业和开发者


第十九篇:多模态大模型应用

文件: posts/AI与LLM/19、多模态大模型应用.md

内容要点:

  • 多模态模型概述
  • 视觉理解:GPT-4V、Gemini Pro Vision
  • 图像生成:DALL-E、Midjourney、Stable Diffusion
  • 音频处理:Whisper、TTS
  • 视频理解与生成
  • 多模态 RAG
  • 实战:构建多模态 AI 应用

适合人群: 希望处理多种数据类型的开发者


第二十篇:行业落地案例精选

文件: posts/AI与LLM/20、行业落地案例精选.md

内容要点:

  • 客服与智能问答
  • 代码助手与开发工具
  • 内容创作与营销
  • 数据分析与商业智能
  • 教育与培训
  • 医疗与健康
  • 金融与风控
  • 案例深度剖析

适合人群: 寻找 AI 应用灵感的所有读者


学习路径建议

初学者路径

  1. 第一篇:LLM 基础入门
  2. 第四篇:RAG 技术深度解析
  3. 第五篇:向量数据库详解
  4. 第三篇:AI Agent 原理与实践

开发者路径

  1. 第一篇:LLM 基础入门
  2. 第六篇:Function Calling 与工具使用
  3. 第八篇:LangChain 框架实战
  4. 第七篇:Agent 记忆与上下文管理

架构师路径

  1. 第二篇:LLM 进阶——微调与部署
  2. 第九篇:多 Agent 协作与规划
  3. 第十四篇:RAG 高级优化技巧
  4. 第十六篇:AI 应用架构设计

企业落地路径

  1. 第十篇:OpenAI 落地实践
  2. 第十三篇:开源模型与本地部署
  3. 第十七篇:AI 安全与合规
  4. 第十八篇:成本优化与性能调优

技术栈汇总

LLM 提供商

  • OpenAI (GPT-4, GPT-4o)
  • Anthropic (Claude 3.5 Sonnet)
  • Google (Gemini 1.5 Pro)
  • Meta (Llama 3)
  • Mistral AI
  • 阿里云 (Qwen)
  • DeepSeek

开发框架

  • LangChain / LangGraph
  • LlamaIndex
  • AutoGen
  • CrewAI
  • Semantic Kernel

向量数据库

  • Pinecone
  • Milvus
  • Chroma
  • Weaviate
  • Qdrant
  • pgvector

部署工具

  • Ollama
  • vLLM
  • Text Generation Inference (TGI)
  • LocalAI

评估工具

  • LangSmith
  • Arize Phoenix
  • Weights & Biases
  • MLflow

注意事项

  • 本系列文章面向开发者,需要一定的编程基础
  • 部分高级内容需要机器学习或深度学习背景
  • 建议按顺序阅读,基础内容在前,高级内容在后
  • 每篇文章都有实战示例,建议动手实践
  • 技术发展迅速,部分内容可能需要根据最新情况调整

更新计划

  • 2026-01:完成基础篇(1-5)
  • 2026-02:完成进阶篇(6-10)
  • 2026-03:完成实战篇(11-15)
  • 2026-04:完成高级篇(16-20)