LangChain 全面拆解:版本演进与产品矩阵
LangChain作为大语言模型应用的开源编排框架,正以惊人的速度进化。从统一模型接口到构建复杂Agent生态,每一次版本迭代都在重塑AI开发范式。本文深度解析LangChain三代产品的战略路径,揭示其如何从技术债缠身的MVP成长为开发者不可或缺的AI中间件平台。

一、LangChain 是什么,解决了什么问题?
在正式拆版本之前,我们先建立一个最底层的认知框架——LangChain 到底是谁,解决了谁的问题?
想象你是一个开发者,2022年底,ChatGPT刚刚横空出世,你脑子里冒出了一千个AI产品的想法。但一旦动手,就发现麻烦来了:
麻烦一:接个模型要写很多重复代码。 你用OpenAI的API要一套写法,换成Anthropic又是另一套,换成本地模型又要重来。每次换模型都要重写大量胶水代码。
麻烦二:让AI“干活”而不只是“回答”很难实现。 让AI查个数据库、调用个搜索接口、执行一段代码……这些”工具调用”的能力,当时没有任何框架帮你处理,全靠自己硬写。
麻烦三:AI的记忆怎么管理? 用户聊了50轮,上下文窗口放不下了怎么办?需要让AI记住用户偏好怎么做?
麻烦四:复杂任务怎么拆解和编排? 比如让AI先搜索、再总结、再生成报告——这一套流程怎么串起来?
LangChain就是为了解决这些问题而诞生的——它是一个用于开发大语言模型(LLM)应用的开源编排框架,提供工具和API,大幅简化了构建由LLM驱动的应用程序(如聊天机器人和AI智能体)的过程。
LangChain由Harrison Chase于2022年10月发布,迅速崛起——截至2023年6月,它已成为GitHub上增长最快的开源项目。
从产品经理的视角理解:LangChain本质上是AI开发者的“中间件平台”,就像iOS系统之于App开发者——你不需要自己实现摄像头驱动、GPS协议,系统帮你封装好了,你专注在业务逻辑上就行。LangChain把和各种大模型打交道的脏活累活封装掉,让开发者专注在”AI能做什么”上。
二、产品架构全貌:从”一个包”到”一套生态”
在拆版本之前,还有一件事必须先搞清楚:LangChain不只是一个代码库,它是一个不断扩张的产品生态。 2025年之后,LangChain公司旗下已经形成了一套完整的产品矩阵:

这四者的关系可以这样理解:

LangGraph是地基,LangChain框架是砖块,Deep Agents是毛坯房,LangSmith是物业管理系统。
你可以只用地基自己盖房,也可以买成套的毛坯房直接装修,物业系统始终在后台帮你盯着房子有没有漏水。
三、版本演进拆解:三代产品的核心逻辑

第零代(2022年10月 – 2024年1月):野蛮生长期,”能用就行”
这个阶段对应的是LangChain的早期版本,通常被称为v0.0.x。
时代背景: ChatGPT刚出来,整个世界都在疯狂实验。开发者第一次意识到大模型可以做到这么多事,但完全没有成熟工具帮他们构建。LangChain抓住了这个窗口期,以极快的速度把开发者需要的功能塞进框架里。
这个阶段核心解决了什么?
第一,统一了和不同大模型对话的接口。 以前你用OpenAI有一套API格式,用Anthropic有另一套。LangChain提供了一个统一的”模型接口层”,你换模型就像换插头一样,业务代码不用大改。这对AI产品来说极其重要——模型市场在快速变化,谁也不知道三个月后哪家模型最好,统一接口就是最重要的”防锁定”能力。
第二,发明了“链(Chain)”的概念。 所谓Chain,就是把多个操作串起来:先调用搜索工具拿到结果,再把结果喂给大模型,再把大模型的输出做格式化处理……这种”流水线”式的编排,是LangChain最早期的核心卖点。
第三,提供了大量现成的“积木”:
- Prompt模板:让你方便地管理和复用prompt,支持变量填充
- 文档加载器(Document Loader):从PDF、网页、数据库、CSV等各种来源读取数据
- 文本分割器(Text Splitter):把长文档切成合适大小的块,为RAG检索做准备
- 向量存储(Vector Store)集成:接入Pinecone、Chroma等向量数据库,实现语义搜索
- Agent机制:让AI能自主决定要调用哪个工具,实现最早期的”思考→行动”循环
这个阶段的问题: 成长太快带来了技术债。所有东西都堆在一个大包里,集成越来越多(到v0.1.0发布时,LangChain已经拥有近700个集成),代码耦合严重,依赖关系混乱。很多功能”能跑但难维护”,开发者抱怨文档乱、定制困难、随便升个版本就可能炸掉代码。
PM视角总结: 这是一个”快速验证MVP”的阶段。产品逻辑是:先把能用的功能全丢进去,抢占开发者心智,建立生态和社区。代价是架构混乱,稳定性差。但这个阶段的战略是正确的——没有早期的快速扩张,就没有后来重构的资本。
第一代(2024年1月):v0.1.0 — “拆包重组,夯实地基”
2024年1月,LangChain正式发布v0.1.0——这是他们的首个稳定版本。
这个版本的核心逻辑只有一句话:把原来那个大包,拆成几个独立的小包,各司其职。
为什么要拆包?
类比一下:你开了一家超市,最开始把所有商品都堆在一个大仓库里,方便进货,但顾客要找东西很难,而且一个区域出了问题,全仓库都要停业整顿。拆包就相当于把超市按品类分区——生鲜区、日用品区、电器区——各自独立管理,互不干扰。
v0.1.0将LangChain拆分为以下独立组件包:
- langchain-core:包含核心抽象、接口和基础功能(可运行对象、可观察性工具等基本实现)
- langchain:包含基于langchain-core接口构建的通用代码,适合在不同实现之间泛化的逻辑
- langchain-community:由社区维护的第三方集成
- langchain-[partner]:专门针对热门集成的合作伙伴包(如langchain-openai、langchain-anthropic等)
每个包的价值分别是什么?
langchain-core 是整个生态的”宪法”——定义了最基础的规范和接口。如果你要接一个新的大模型,或者开发一个新的工具,都要遵循langchain-core里定义的接口规范。有了它,整个生态才能真正互通。
langchain 是”组装说明书”——提供了在各种实现之间通用的代码,比如create_tool_calling_agent(创建支持工具调用的Agent)。
langchain-community 是”插件市场”——社区贡献的各种第三方集成,你想接一个冷门数据库或小众工具,大概率在这里能找到。
合作伙伴包(如langchain-openai) 是”旗舰店直营”——主流集成有专门维护的独立包,稳定性和支持更好,就像某些品牌在大超市里有自己的专属柜台。
v0.1.0还引入了两个重要能力:
LCEL(LangChain Expression Language,表达式语言):
这是LangChain用来解决”难以自定义内部逻辑”问题的答案。自LangChain成立之初,最大的反馈之一就是难以自定义预建链和代理的内部结构。LCEL的推出,让创建任意可组合的序列变得容易。
简单来说,LCEL让开发者可以用一种声明式的方式把各种组件串起来,就像”搭积木”一样。以前你要硬编码写一大堆复杂逻辑,现在可以用LCEL更优雅地表达。重要的是,LCEL构建的链天然支持流式输出、异步调用和中间步骤的可观察性。
与LangSmith的深度集成:
为了更好地进行调试,你需要知道采取的确切步骤以及每个步骤的输入/输出。通过与LangSmith的紧密集成,LangChain在可观察性方面做到了业界领先。
LangSmith可以理解为LangChain的”X光机”——让你清楚地看到AI应用内部到底发生了什么,哪个步骤耗时多,哪个prompt出了问题,一目了然。这是从”能跑”走向”能用于生产”的关键能力。
同期诞生的重要配套:LangGraph
为了解决Agent编排的问题,LangChain推出了LangGraph——可以将其视为”代理的LCEL”。它在LCEL的基础上增加了两个重要组件:轻松定义循环的能力(对于Agent很重要,但对于普通链不需要),以及内置的记忆管理能力。
这里需要专门解释一下为什么LangGraph这么重要:
普通的”链”是线性的,A→B→C,执行完就结束。但真正的Agent是循环的——AI思考→选工具→执行工具→看结果→再思考→再选工具……这种”有环的图”,就是LangGraph要处理的。用图的语言来描述Agent的行为,比线性链更自然,也更强大。
PM视角总结: v0.1.0是LangChain从”创业公司的MVP”走向”平台型产品”的关键一步。重构架构、拆分包、引入LCEL、接入LangSmith——这一系列动作的核心目标只有一个:让LangChain从“能玩”变成“能用于生产”。这背后是产品成熟度的本质跃迁。
第二代(2024年5月):v0.2.0 — “减重、解耦、推Agent”
LangChain v0.2.0版本中最显著的变化是将LangChain和LangChain-Community进一步分离。这是从v0.1.0就开始的工作,旨在创建一个更强大和自包含的软件包。
如果说v0.1.0是”拆包”,那v0.2.0就是把上次没拆干净的地方彻底切断。
为什么要彻底切断langchain和langchain-community的依赖?
langchain-community包含大量第三方集成,意味着有很多(可选)依赖项、很多文件,并且由于集成的性质,偶尔容易受到CVE攻击。因此,移除langchain对langchain-community的依赖,使得langchain代码包更轻量级、更聚焦、更安全。
用一个更通俗的比喻:以前langchain和langchain-community绑在一起,就像你租了一套房子,结果房东硬是把隔壁邻居的各种管线也接进你屋里——你用不上,但邻居家管道漏水会殃及你。v0.2.0就是把这根管线彻底拔掉,各住各的。
v0.2.0其他重要改进:
从v0.1.0发布以来,开发团队做出了以下重大改进:
标准聊天模型接口——对工具调用进行了标准化,并为结构化输出添加了标准化接口,尽可能方便地实现在不同LLM之间无缝切换;异步支持——改进了对许多核心抽象的异步支持;改进流(streaming)的支持——通过添加事件流API(Event Streaming API)改进了对流的支持。
这三个改进对AI产品来说都至关重要:
- 工具调用标准化,意味着你之前写的调用OpenAI工具的代码,换成Claude或Gemini基本不用改。这对需要多模型策略的产品团队来说是福音。
- 异步支持,意味着你的应用可以同时处理更多用户请求,不会因为一个请求在等模型响应就卡住整个系统,直接影响并发能力和产品性能。
- 流式输出优化,意味着用户看到AI的回答不再是”等几秒然后一下全出来”,而是像ChatGPT那样”打字机效果”逐字蹦出。这对用户体验的提升是立竿见影的,用户感知的”延迟”大幅降低。
v0.2.0的另一个重要战略动作:推LangGraph取代AgentExecutor
在v0.2.0中,开发团队依然保留了旧的AgentExecutor,但官方推荐使用LangGraph去构建Agent,并提供了一个相当于AgentExecutor的预构建好的LangGraph对象,更加容易修改和自定义。
AgentExecutor是LangChain早期处理Agent逻辑的核心类。但它的问题是:一旦逻辑写死了,开发者很难定制。就像一辆”黑盒汽车”,你知道它会跑,但不知道引擎怎么运作,出了问题也找不到在哪。
LangGraph则是把引擎全部可视化、可定制,每一个节点、每一条边都是开发者自己定义的。v0.2.0的战略意图很清晰:让LangGraph成为构建Agent的默认方式,AgentExecutor逐步退出历史舞台。
PM视角总结: v0.2.0的核心主题是”稳健化”。这个版本不是在堆新功能,而是在清理架构债、提升性能、为生产环境扫清障碍。同时,通过推动LangGraph的普及,LangChain开始把自己的核心竞争力从”提供现成组件”转向”提供强大的Agent编排能力”。
第三代(2024年9月):v0.3.0 — “全面拥抱 Pydantic 2,为1.0做准备”
v0.3.0是一个”扫尾”版本,主要做了两件事:
第一,全面升级到Pydantic v2,彻底放弃Pydantic v1。
Pydantic是Python生态中用于数据验证的核心库,LangChain大量使用它来定义数据结构。Pydantic从v1升级到v2,性能提升了5-50倍,但接口有不兼容的变化。
v0.3.0升级到完全支持Pydantic 2,并停止支持Pydantic 1(包括源自Pydantic 2的v1命名空间的对象)。
这对用户来说是一个有点痛苦的升级——需要迁移代码。但从产品角度看,这是必要的”还债”:一个框架长期背着对旧版依赖的兼容包袱,会严重拖慢后续的迭代速度。
第二,清理旧链(Chain),进一步整合集成包。
将许多旧版链标记为已弃用,并为它们添加了迁移指南,计划在langchain 1.0.0中移除。同时,将更多集成从langchain-community移动到它们自己的独立包中,以更好地管理、测试和版本化这些集成的依赖项。
另外,v0.3.0还简化了工具定义和使用的方式,并新增了与聊天模型交互的实用工具(通用模型构造器、速率限制器、消息实用工具等),让开发者写代码时更加流畅。
PM视角总结: v0.3.0是LangChain在冲刺1.0.0之前的”大扫除”。把旧的东西标记为deprecated,让用户有时间迁移,同时把基础设施升级到更现代的标准。这是成熟产品走向稳定正式版本前必经的阶段。
四、2025年的新战略:Deep Agents的登场
了解完三个主版本后,还有一个关键产品必须单独拆解——Deep Agents。
Deep Agents于2025年7月由LangChain CEO Harrison Chase发布,在2026年3月的重大更新后,仅5小时内就在GitHub上斩获9900颗星。
Deep Agents解决的是什么问题?
即使有了LangChain + LangGraph,开发者在构建复杂的自主Agent时还是要做很多样板工程:规划逻辑怎么写?长对话的上下文溢出了怎么处理?子任务怎么分配给子Agent?这些问题每个团队都要各自解决,重复造轮子。
Deep Agents的定位是”Agent harness”——在核心的工具调用循环基础上,内置了规划、文件系统和子Agent能力的高级框架。它使用LangGraph运行时,天然支持持久执行、流式输出、Human-in-the-loop等特性。
Deep Agents的四大核心能力:
1.内置规划工具(To-do List)
内置的write_todos工具让Agent能够把复杂任务分解成离散的步骤,追踪进度,并随着新信息的出现调整计划。
通俗来说:不是让AI直接冲,而是先让它写出”任务清单”,再一步步执行。就像一个靠谱的项目经理,先列计划再行动,而不是脑子一热就开干。
2.虚拟文件系统
文件系统工具(ls、read_file、write_file、edit_file)允许Agent把大量上下文卸载到内存或文件系统中存储,防止上下文窗口溢出,并支持处理可变长度的工具结果。
这解决了Agent最头疼的问题之一:任务执行到一半,上下文撑爆了怎么办?有了虚拟文件系统,AI可以把中间结果”写到文件里”,需要时再读出来,不需要一直占着上下文窗口。
3.子Agent派遣
Deep Agents可以派遣专门的子Agent处理特定任务,隔离各自的上下文:主Agent只看到最终结果,而不是每一个中间步骤。
这就像一个大领导把任务分解,交给不同小组各自去执行,最后只汇报结论,而不是让领导盯着每一个执行细节。这使得主Agent保持”头脑清晰”,而不会被中间过程的信息噪音淹没。
4.跨会话持久记忆
通过LangGraph的Memory Store,Agent可以跨线程保存和检索来自之前对话的信息,实现真正意义上的长期记忆。
这是AI从”工具”走向”助手”的关键一步——它能记住你,下次对话不需要重新介绍自己。
PM视角总结: Deep Agents代表LangChain的新战略方向——从“给开发者提供零件”升级为“给开发者提供一辆已经组装好的车”。面向的用户更广了,上手难度更低了,但自定义空间依然保留。这是平台型产品走向成熟的典型路径:先服务专业用户(LangGraph),再降低门槛触达更多开发者(Deep Agents)。
五、LangSmith:那个被低估的”运营后台”
如果说LangChain/LangGraph/Deep Agents是前台产品,那LangSmith就是不可或缺的”运营后台”。
LangSmith作为Agent工程平台,覆盖了Agent开发生命周期的四个核心模块:
- 可观察性(Observability)——追踪每次运行的完整步骤时间线,看清每个操作的顺序和原因;
- 评估(Evaluation)——捕获生产环境的追踪记录,转化为测试用例,通过人工审核和自动化评估打分,持续改进Agent;
- 部署(Deployment)——专为长时间运行的有状态工作流设计的部署平台,内置记忆、对话线程和持久检查点;
- Fleet(舰队管理)——让整个公司都能使用AI Agent处理日常任务。
对AI产品经理来说,理解LangSmith的价值至关重要:
一个Agent上线之后,如果没有观测和评估工具,你根本不知道它在现实世界里表现怎样。
用户说AI回答得不好,你得知道是哪个步骤出了问题;某次任务失败了,你要能复现和调试。LangSmith就是解决这些问题的。
六、完整产品图谱:版本与产品矩阵对照
把以上内容整合起来,用一张完整的视图理解LangChain的演进逻辑:

七、AI PM视角的最终总结
学完LangChain的版本演进,有几个对AI PM特别有价值的洞察:
洞察一:平台型产品都要经历“先乱后治”的过程。 LangChain早期以野蛮的功能扩张占领市场,然后用几个大版本系统性地重构架构。这和很多成功的开发者工具(如React、Kubernetes)走过的路径高度一致。作为PM,这提醒我们:早期阶段速度优先于架构,但一定要有清醒的时间节点去还技术债。
洞察二:真正的护城河是生态,不是功能。 LangChain的竞争力不只在于它提供了什么功能,而在于它连接了700多个集成、建立了庞大的开发者社区,以及形成了从框架到观测到部署的完整工具链。这种生态壁垒是很难被单一竞争对手用一个新框架击穿的。
洞察三:用户分层意识。 LangChain、LangGraph、Deep Agents三个产品面向三类不同成熟度的用户:想快速上手的→LangChain;需要生产级精细控制的→LangGraph;想直接构建复杂自主任务Agent的→Deep Agents。产品矩阵清晰覆盖了不同层次的用户需求,这是成熟平台型公司的典型做法。
洞察四:从“工具”到“平台”的演进路径。 LangChain最开始是一个开发者工具,现在已经是一个完整的Agent工程平台(LangSmith负责全生命周期管理)。这背后的商业逻辑是:开源框架获客,商业平台变现。LangSmith面向企业团队收费,而开源框架永远免费——这是一种经典且有效的开源商业化路径。
如果你现在开始学LangChain,推荐的路径是:先用LangChain的create_agent跑通一个基础Agent → 理解LCEL的链式调用逻辑 → 学习LangGraph理解图式工作流→ 如果要做复杂的自主任务Agent,再深入研究Deep Agents。 LangSmith全程接入,帮你观测每一步在干什么。
本文由 @昀琪琪的AI世界 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




