AI,个人随笔 实测完主流大模型编程与Agent能力,我发现了。。。 今天,苍何将通过一系列实测案例,带你深入了解这些主流大模型在实际应用中的表现。从可视化欧拉恒等式到设计带有动画效果的天气卡片,从创建《木兰辞》的动态页面到电商产品详情页管理工具的开发,这些测试将全方位展示各模型的能力。你将看到它们在代码质量、UI设计、多模态分析等方面的优劣。 苍何 AgentAI应用产品分析
个人随笔 大模型应用心得:深钻研不如广应用。 在大模型时代,技术的深度固然重要,但真正释放价值的,往往是“广度”的应用。作者以亲身实践为线索,分享了从“钻技术”到“用技术”的心路转变,揭示了大模型落地过程中常被忽视的认知误区与应用策略。 luffy AI应用个人观点大模型
AI AI Agent智能体的“超能力”之源——大模型与工具生态 你以为智能体只是聊天机器人?其实它背后是一套复杂的工具系统与任务调度机制。本文结合真实案例,拆解如何构建具备执行力的 AI Agent,为产品人和技术团队提供一份可落地的构建指南。 阿木聊AI(智能体) AgentAI工具大模型
AI 如何运用大模型构建AI面试官 为什么很多 AI 面试产品“看起来智能,用起来生硬”?本文从交互设计与任务分解角度出发,分析构建 AI 面试官的关键挑战,并提出一套更贴近真实场景的解决方案。 luffy AI应用大模型经验分享
AI Token的成本下降10倍,但大模型公司却离盈利越来越远 模型越来越便宜,为什么公司却越来越亏?这篇文章用通俗语言讲清楚AI行业的“烧钱逻辑”,带你看懂那些看似免费、实则昂贵的技术背后,到底发生了什么。 柳胖胖 商业模式大模型技术原理
AI,个人随笔 Open AI重磅论文:不会胡说八道的大模型不是好的大模型 你以为AI“胡说八道”是缺陷?OpenAI最新论文却指出:适度的“幻觉”可能是创造力的源泉。本文深度解读这项研究背后的逻辑,重新定义我们对大模型“准确性”与“有用性”的认知边界。 吴叉叉 OpenAI大模型技术原理
AI OpenAI的新论文,为什么被业内嘲讽是营销? OpenAI 新论文把“幻觉”甩锅给评测机制:考卷只认“猜对”,不认“不敢说”,逼得模型瞎蒙。业内却集体翻白眼——观点不新鲜、实验太初级,被批像给 GPT-5 低幻觉性能打软广。当学术变成营销话术,真正该回答的问题是:我们到底想要一个“不确定就闭嘴”的保守答案机,还是敢想敢错的智能体? 知危 OpenAI大模型行业观察
AI 打破数字回音:深入解析大模型中的“重复惩罚”机制 在大模型生成内容的过程中,“重复惩罚”机制扮演着微妙却关键的角色。它既是防止语言冗余的利器,也是影响表达多样性的杠杆。本文将深入拆解这一机制的原理、演化路径与实际影响,帮助读者理解模型背后的“语言审美”是如何被编码与调控的。 陈冠融Trixie 大模型技术原理经验分享
AI 谁在暗中驯化大模型? 当大模型在聚光灯下“口吐莲花”时,很少有人注意到:是谁在暗处拉紧缰绳——让ChatGPT拒绝回答敏感话题,让推荐算法只推送“安全”内容?从RLHF的奖励标签,到平台审核的“黑词库”,再到开源社区的“价值观对齐”补丁,一套隐形驯化机制早已悄然运行。本文带你揭开:谁在定义“正确”?谁在塑造AI的三观?当技术看似中立,真正被训练的,也许是我们所有人。 光子星球 个人观点产品分析大模型
AI,个人随笔 如何提升大模型LLM回答的准确率 随着 LLM 在各类产品中广泛应用,如何提升其输出的准确率,已成为产品经理与技术团队绕不开的核心问题。本文将从提示词设计、系统架构、评估机制等多个维度出发,拆解影响 LLM 准确率的关键因素,并提供可落地的优化策略,帮助你打造更可靠、更可控的 AI 产品体验。 luffy AI应用LLM个人观点
AI,个人随笔 知识蒸馏:让AI模型更聪明高效的秘密 知识蒸馏,作为一种“以小博大”的模型压缩技术,正在悄然改变这一格局。它不仅能让轻量模型继承“老师模型”的智慧,还能在推理速度、部署效率上实现质的飞跃。本文将深入解析知识蒸馏的原理、应用场景与实践难点,带你理解这项技术如何成为AI工程师手中的“降维打击”利器。 JJ. 大模型技术原理知识蒸馏
AI 动态知识从RAG到Context Engineering RAG(检索增强生成)曾是连接外部知识与模型能力的关键桥梁,但随着业务复杂度提升,它的局限也逐渐显现。Context Engineering 的出现,正在重新定义“知识注入”的方式——从检索到构造,从拼接到理解,让上下文成为真正的生产力。本文将带你梳理从 RAG 到 Context Engineering 的演进路径,揭示背后的技术逻辑与产品思维,帮助你在构建智能应用时少踩坑、快落地。 大风吹 RAG动态知识大模型