"LLM"相关的文章
AI,个人随笔
浅显理解LLM底层技术

浅显理解LLM底层技术

大语言模型(LLM)作为人工智能领域的重要分支,近年来在自然语言处理(NLP)方面取得了显著进展。然而,对于非技术出身的人来说,理解LLM的底层技术往往显得晦涩难懂。本文作者通过类比和通俗易懂的方式,深入浅出地介绍了LLM的底层技术原理,包括词元(token)的概念、有监督学习与无监督学习的区别,以及语言生成技术如GPT和BERT的工作机制。
AI
Llama 4 发布:我看到了 DeepSeek 的影子

Llama 4 发布:我看到了 DeepSeek 的影子

随着人工智能技术的飞速发展,大型语言模型(LLM)的竞争日益激烈。Meta 最新发布的 Llama 4 模型,以其独特的架构和策略,引发了行业的广泛关注。本文深入分析了 Llama 4 的三大核心特点:采用混合专家(MoE)架构、原生多模态能力以及将大模型作为训练过程的工具。
对话Deepseek R1 :随着LLM能力的跃升,类似coze等Agent编排工具是否还有应用价值?

对话Deepseek R1 :随着LLM能力的跃升,类似coze等Agent编排工具是否还有应用价值?

强大的LLM正在消解传统Agent设计中“显式工程化”的部分价值,但这不意味着Agent概念的终结,而是其形态向更灵活的方向进化。开发者应积极拥抱两种范式的融合——LLM负责认知层级的抽象与调度,传统Agent专注确定性的高效执行。这种分层协作或许才是下一代智能系统的常态。