"大模型"相关的文章
AI,个人随笔
从零学习大模型(1)——Transformer架构:原理、演进与AI领域的颠覆性影响

从零学习大模型(1)——Transformer架构:原理、演进与AI领域的颠覆性影响

在深度学习的发展历程中,2017 年谷歌团队发表的《Attention Is All You Need》论文具有里程碑意义 —— 该论文提出的 Transformer 架构,彻底改变了自然语言处理(NLP)乃至人工智能领域的技术路径。与传统循环神经网络(RNN)、卷积神经网络(CNN)不同,Transformer 以 “注意力机制” 为核心,实现了并行化计算与长序列依赖建模的双重突破,成为当前所有大型语言模型(如 GPT、BERT)的基础架构。本文将从技术原理、架构设计、演进历程及应用价值四个维度,系统解析这一革命性模型。
大模型竞赛转向:决胜关键为何是“后训练”?

大模型竞赛转向:决胜关键为何是“后训练”?

当前,通用模型在产业落地中面临知识断层、难以对齐用户隐性偏好等难题,而后训练正是解决这些 “最后一公里” 问题的核心。业界已探索出 SFT+RL、纯 RL 等训练范式,MoE 模型、FP8 精度等技术也成为后训练的重要选择。本文解析后训练的关键价值、产业痛点及顶级玩家的实践路径,探讨其如何成为大模型价值释放的决胜场,以及云平台在其中的支撑作用。