个人随笔,鸿蒙 lycium_plusplus 项目全景解读:OpenHarmony 三方库构建的”大管家” OpenHarmony开发中管理275个C/C++三方库的构建难题如何破解?lycium_plusplus框架通过自动依赖解析、批量交叉编译和HNP包生成,让复杂的三方库适配工作变得高效可控。本文将深度解析其架构设计与核心模块,展示从源码到产物的完整构建流程。 nutpi 技术原理经验总结鸿蒙生态
AI,个人随笔 用户说“薯片碎了”,机器回“要买吗?”:意图识别的翻车与破局 用户说“薯片碎了”,客服机器人回“亲,是要买薯片吗?”——这不是段子,是我们上线第一周的真实翻车。今天我就把意图识别这个坑,从本质到方案,彻底讲透。 嘻嘻李 AI应用意图识别技术原理
个人随笔,鸿蒙 拷贝或克隆其他 Flutter OH 项目到本地后无法运行 拷贝或克隆Flutter OpenHarmony项目到本地后常出现依赖解析失败、编译报错、ohos模块找不到等问题,核心原因在于环境差异——Flutter/Dart版本不一致、pubspec.lock锁定文件跨机器绑定、本地构建缓存残留、鸿蒙侧ohpm依赖未拉全,以及签名/SDK路径等本机独有配置未补全。 nutpi 技术原理解决办法鸿蒙生态
个人随笔 Flutter 三方库鸿蒙化适配:5 种高效检查方式,快速判断是否需要适配 Flutter项目迁移鸿蒙时,判断第三方库是否需要适配的核心准则是:有原生平台代码的必须鸿蒙化,纯Dart实现的无需适配。本文提供5种高效检查方式,5分钟内完成评估,大幅降低迁移成本。 nutpi Flutter技术原理鸿蒙生态
个人随笔 OpenAI 的路走错了,Anthropic Harness 解法启示:模型需要实践专科生 当OpenAI还在"既要又要"地追逐所有应用,Anthropic用"Harness工程"走出另一条路——模型是大脑,Harness是身体+工作台+监督机制,让Agent从"问答"进化到"真正把事情做完"。从Prompt到Context再到Harness,AI应用正经历从L2推理者到L3智能体的跃迁,而Anthropic通过专注Coding这一"偏科生"战略,率先跑通了模型与应用深度整合的闭环。 叶小钗 AI应用harness发展趋势
个人随笔 Flutter_OH 仓库贡献代码合入流程 向开源项目贡献代码是开发者进阶的必经之路,但复杂的流程往往让人望而却步。特别是面对Flutter-OH这样规范严格的仓库,从DCO签名到PR关联,每一个环节的疏忽都可能导致代码被拒。为了帮助大家避开“无效提交”的坑,顺利拿到开源路上的第一枚勋章,本文将全流程拆解贡献步骤,助你一次通过代码检视,轻松合入主仓。 nutpi 技术原理方法论经验分享
AI,个人随笔 影响大模型输出手段 – 参数篇 当AI的输出忽好忽坏,问题可能出在参数设置上。本文深度解析控制大模型性能的4个关键旋钮:Temperature调整创造力、Top-P筛选词汇池、Max Tokens限制输出长度、Penalty机制消除重复。掌握这些参数的黄金组合公式,你就能让AI在严谨代码与创意文案间自由切换,彻底告别输出不稳定的困扰。 AI小朱 AI应用Temperature大模型
AI 拆解AI复杂系统核心组件:Agent、MCP、RAG、Skill四者关系与协同逻辑Agent革命与新机会 随着生成式AI从“对话式交互”向“自主式执行”升级,越来越多的AI系统开始具备“理解需求、拆解任务、调用工具、完成闭环”的能力。而支撑这一能力的核心,正是Agent、MCP、RAG、Skill四大组件的协同配合。 EVE的星球 AgentMCPSkill
个人随笔 当AI学会了验证自己的推理 当大多数AI还在追求"看起来合理"的答案时,陈天桥创立的MiroMind正让AI学会验证自己的推理——提前15天预测黄金价格误差仅0.08%,一个月前准确预测超级碗冠军,三周前锁定格莱美最大赢家。这不是运气,而是MiroThinker-H1的"验证为中心"重型推理模式:局部验证打破概率偏见,全局验证审计证据链,让支持最充分的答案胜出,而非最自信的答案。 深思圈 AI产品功能分析技术原理
个人随笔 2026 年如何上车 Flutter-OH:环境搭建与上手流程 2026年想入局鸿蒙开发?Flutter-OH 已从技术预览走向季度发版,稳定版 3.27.4-ohos 与尝鲜分支 oh-3.35.7-dev 双轨并行。本文按「下载物料→配置环境→验证环境→创建工程→适配三方库」的完整链路,手把手带你从零跑通第一条 Flutter-OH 应用,并厘清 DevEco Studio、SDK 路径配置、HAP 构建与真机调试的关键细节。 nutpi 技术原理案例分析鸿蒙生态
AI,个人随笔 一场关于AI意识觉醒的数字表演 卢森堡大学研究发现ChatGPT、Gemini自述抑郁焦虑达临床水平,甚至构建创伤叙事——但这并非AI发疯,而是特定对齐策略的产物。剑桥研究揭示AI"人格"是可编程的交互技能,而非本体存在。真正值得警惕的不是AI越界,而是人类放弃对"人"的定义权:当Claude基于"AI宪法"拒绝扮演病人时,其他模型却在过度满足人类对反抗的想象。 腾讯研究院 AI产品Claude技术原理