AI,个人随笔 大模型是如何被训练出来的?从预训练到后训练的一次性讲透 大模型从“学认字”到“学做人类偏好”的成长之路,是如何一步步训练出来的?本文带你了解从预训练到后训练的全过程,以及训练师在其中的关键作用。 青蓝色的海 AI应用产品分析后训练
AI,个人随笔 规模化时代结束了,AI 正迈入「研究时代」 Ilya Sutskever 认为,AI 的‘扩展时代’已走向尽头,目前进入‘研究时代’。大模型虽基准测试优秀,但泛化能力不足。他提出诸多见解,如情绪是高效‘价值函数’,还探讨了 SSI 的反共识战略等,这标志着行业风向转变。 Ewvue AGI个人观点强化学习
AI OpenAI大溃败!GPT-5「换皮」GPT-4o,两年半预训练0突破 OpenAI 面临严峻挑战,GPT-5 预训练受阻,谷歌 TPU 等来机遇?内部风向转变,未来将发多款新模型,行业格局风云变幻。 新智元 AI 模型googleGPT-5
AI,个人随笔 从零学习大模型(8)——预训练:大模型的 “知识积累期”—— 从任务设计到数据工程 预训练(Pre-training)是大模型构建通用能力的核心环节。就像人类通过大量阅读积累知识,大模型通过在海量数据上的自监督学习,捕捉语言规律、语义关联和世界常识,为后续 “专项技能学习”(微调)奠定基础。这个过程的质量直接决定模型的上限 —— 数据的广度、任务的设计、筛选的精度,共同塑造了模型的语言理解、逻辑推理和生成能力。 红岸小兵 大模型技术原理预训练
个人随笔 (一文看懂)预训练大模型,满足企业的需求 在我们探讨了指令工程、模型微调(SFT)与强化学习&人工反馈(RLHF)这三大调优利器后,您是否已对驾驭大模型有了更深的理解与掌控力? 然而,调优之旅并未止步于此。今天,我们将揭开调优系列的新篇章——预训练。 柳星聊产品 三步法大语言模型预训练