AI,个人随笔 从零学习大模型(13)——RAG 与 Agent 进阶:基于 LangChain 的落地实践与框架解析 大模型落地到底难在哪? RAG与Agent虽火,但如何从概念走向实战,真正用得好、用得巧?本文围绕 LangChain 的核心能力展开,从底层原理到项目拆解,带你理解每一步如何协同:如何构建对话式Agent、如何组织调用链路、如何实现多模态交互…… 红岸小兵 AgentRAG大模型
AI,个人随笔 从零学习大模型(12)——混合专家模型(MoE):让大模型 “分工协作” 的高效架构 本期我们从零起步,拆解 MoE 的核心理念与架构优势,透视背后的“专家调度”机制,探索如何通过“分工协作”赋予大模型更灵活的表现力与算力效率。 红岸小兵 大模型技术原理混合专家模型
AI,个人随笔 从零学习大模型(11)——模型压缩与量化:让大模型 “轻装上阵” 的核心技术 大模型“烧钱”又“吃资源”?压缩与量化技术才是让它轻装上阵的关键一招。本文手把手拆解核心原理与常见手法,帮你厘清技术演进脉络,打好基础理解一切模型优化策略的关键一步。 红岸小兵 大模型技术原理系列文章
AI,个人随笔 从零学习大模型(10)——从 SFT 到 RLHF:大模型如何学会 “符合人类期待”? 监督微调(SFT)让大模型能 “听懂指令”,但要让模型 “说的话符合人类偏好”—— 比如回答更礼貌、推理更严谨、拒绝有害请求,还需要人类反馈强化学习(RLHF)。这种从 “能做” 到 “做好” 的跨越,正是对齐技术(Aligning)的核心目标。RLHF 并非简单的 “二次训练”,而是通过人类反馈构建 “奖励信号”,让模型在试错中学会贴近人类价值观。 红岸小兵 大模型技术原理用户激励
AI,个人随笔 从零学习大模型(9)——大模型监督微调进阶:从数据工程到推理强化的微调全流程 从数据工程到强化推理,监督微调的每一环节都决定着大模型的实际表现。本篇将系统梳理大模型微调的全流程,不仅是一次知识的深度补完,更是助力技术团队构建高质量微调体系的实战指南。 红岸小兵 大模型微调技术原理
AI,个人随笔 从零学习大模型(8)——预训练:大模型的 “知识积累期”—— 从任务设计到数据工程 预训练(Pre-training)是大模型构建通用能力的核心环节。就像人类通过大量阅读积累知识,大模型通过在海量数据上的自监督学习,捕捉语言规律、语义关联和世界常识,为后续 “专项技能学习”(微调)奠定基础。这个过程的质量直接决定模型的上限 —— 数据的广度、任务的设计、筛选的精度,共同塑造了模型的语言理解、逻辑推理和生成能力。 红岸小兵 大模型技术原理预训练
个人随笔 阿里模型三连发,我用来跑通真实业务流程 在人工智能领域,模型的发布往往令人瞩目,但真正能将模型能力转化为实际业务价值才是关键。上周阿里连续发布了三个模型:通用语言理解模型、智能编程模型和推理与复杂判断模型。本文直接将这些模型应用于真实的电商评论分析业务流程中,供大家参考。 银海 AI产品个人观点产品分析
AI,个人随笔 从零学习大模型(7)——解码策略:大模型如何 “选词说话”?从基础方法到投机解码 本文将系统解析解码策略的核心逻辑:基础解码方法如何工作?top-k、top-p 等参数如何调控生成效果?投机解码为何能让大模型推理速度翻倍? 红岸小兵 大模型技术原理解码策略
AI,个人随笔 AI产品经理技术:Wan2.2开源!最大亮点并非画质,扩散MoE亮点揭秘 Wan2.2的重点绝非画质的提升?这篇文章将从MoE专家模型架构的诞生,发展,以及Wan2.2的MoE的不同点。让各位产品经理们对未来AI模型发展的思路和脉络有更深入的认识。 产品经理小易 AI产品经理大模型技术原理
AI,个人随笔 从零学习大模型(6)——Transformer 结构家族:从 Encoder 到 Decoder,大模型为何偏爱 “单边设计”? Transformer 架构的伟大之处,不仅在于提出了注意力机制,更在于提供了一套 “模块化” 的设计框架 —— 通过组合编码器(Encoder)和解码器(Decoder),可以衍生出多种结构变体。从 BERT 的 “纯编码器” 到 GPT 的 “纯解码器”,从 T5 的 “编码器 - 解码器” 到 LLaMA 的 “前缀解码器”,不同结构的选择直接决定了模型的核心能力。 红岸小兵 基础知识大模型技术原理
AI,个人随笔 AI大模型风向突变:从技术预热到商业爆发,京东、小米等 B 端案例揭秘价值密码! AI 大模型正从技术预热转向商业爆发,推理成本下降推动多模态应用,政策与备案加速行业规范化。京东、小米等企业的 B 端实践,正揭开大模型在商业场景中创造价值的密码。 产品参赵 AI应用b端产品大模型
AI,个人随笔 从零学习大模型(4)——Transformer 的 “内部齿轮”:FFN、残差连接与归一化如何让 AI 更聪明? 本文将从功能原理、技术细节到实际作用,系统解析这些 “幕后模块”:为什么 FFN 能让注意力的输出更 “有用”?残差连接如何让模型 “越 deep 越聪明”?归一化又为何能让训练 “稳如泰山”? 红岸小兵 Transformer基础知识大模型