"技术原理"相关的文章
AI
RAG实践技巧:将向量库降级为“语义路由器”,让答案更合理

RAG实践技巧:将向量库降级为“语义路由器”,让答案更合理

随着模型上下文长度的增加和知识库的扩展,传统的向量化方法在RAG中的应用逐渐暴露出其局限性。本文将深入探讨RAG技术的核心链路,分析向量化在其中的作用,并提出一种新的架构:将向量库降级为“语义路由器”,结合结构化的知识库,以解决语义相似性与答案相关性之间的矛盾,从而让生成的答案更加合理和精准。
AI
我们聊一聊上下文工程

我们聊一聊上下文工程

在大模型时代,“上下文”不再只是输入框里的几句话,而是贯穿产品设计、交互策略与智能响应的核心工程。本文从产品视角出发,系统梳理上下文工程的关键构成与设计逻辑,结合真实案例,探讨如何通过“构建上下文”来提升智能体的理解力、响应力与业务适配力。
AI,个人随笔
从零学习大模型(14)——大模型多端部署与推理加速:突破算力与能效瓶颈

从零学习大模型(14)——大模型多端部署与推理加速:突破算力与能效瓶颈

在人工智能模型从训练到落地的全生命周期中,部署、分布式训练与推理加速构成了技术落地的核心链条。随着大模型参数量突破千亿级,传统单卡训练和单机推理已无法满足需求,而跨平台部署的碎片化问题更对工程化能力提出了严苛挑战。本文将围绕多端部署框架、推理加速技术与分布式训练方案展开,揭示如何通过技术协同突破算力与能效的双重瓶颈。
AI
OpenAI Bob McGrew:推理是 25 年机会最大的领域

OpenAI Bob McGrew:推理是 25 年机会最大的领域

OpenAI 前研究掌门 Bob McGrew 用一句话点破 2025:预训练红利见顶,真正的机会在“推理”。从 O1 到 O3,短短半年模型学会“先打草稿再回答”,思维链(CoT)让 AI 从黑盒变可解释、可审计、可 Agent。文章拆解四重信号:算力瓶颈、模型黑箱化、机器人窗口期、专有数据价值重估——想在大厂夹缝里活下来,就得把业务翻译成模型能推理的流程,而不是再炼一次通用大模型。
AI,个人随笔
从零学习大模型(10)——从 SFT 到 RLHF:大模型如何学会 “符合人类期待”?

从零学习大模型(10)——从 SFT 到 RLHF:大模型如何学会 “符合人类期待”?

监督微调(SFT)让大模型能 “听懂指令”,但要让模型 “说的话符合人类偏好”—— 比如回答更礼貌、推理更严谨、拒绝有害请求,还需要人类反馈强化学习(RLHF)。这种从 “能做” 到 “做好” 的跨越,正是对齐技术(Aligning)的核心目标。RLHF 并非简单的 “二次训练”,而是通过人类反馈构建 “奖励信号”,让模型在试错中学会贴近人类价值观。