"大模型"相关的文章
AI,个人随笔
从零学习大模型(14)——大模型多端部署与推理加速:突破算力与能效瓶颈

从零学习大模型(14)——大模型多端部署与推理加速:突破算力与能效瓶颈

在人工智能模型从训练到落地的全生命周期中,部署、分布式训练与推理加速构成了技术落地的核心链条。随着大模型参数量突破千亿级,传统单卡训练和单机推理已无法满足需求,而跨平台部署的碎片化问题更对工程化能力提出了严苛挑战。本文将围绕多端部署框架、推理加速技术与分布式训练方案展开,揭示如何通过技术协同突破算力与能效的双重瓶颈。
AI,个人随笔
从零学习大模型(10)——从 SFT 到 RLHF:大模型如何学会 “符合人类期待”?

从零学习大模型(10)——从 SFT 到 RLHF:大模型如何学会 “符合人类期待”?

监督微调(SFT)让大模型能 “听懂指令”,但要让模型 “说的话符合人类偏好”—— 比如回答更礼貌、推理更严谨、拒绝有害请求,还需要人类反馈强化学习(RLHF)。这种从 “能做” 到 “做好” 的跨越,正是对齐技术(Aligning)的核心目标。RLHF 并非简单的 “二次训练”,而是通过人类反馈构建 “奖励信号”,让模型在试错中学会贴近人类价值观。
AI,个人随笔
从零学习大模型(8)——预训练:大模型的 “知识积累期”—— 从任务设计到数据工程

从零学习大模型(8)——预训练:大模型的 “知识积累期”—— 从任务设计到数据工程

预训练(Pre-training)是大模型构建通用能力的核心环节。就像人类通过大量阅读积累知识,大模型通过在海量数据上的自监督学习,捕捉语言规律、语义关联和世界常识,为后续 “专项技能学习”(微调)奠定基础。这个过程的质量直接决定模型的上限 —— 数据的广度、任务的设计、筛选的精度,共同塑造了模型的语言理解、逻辑推理和生成能力。