从“百模大战”到“百镜大战”:AI 的下一场战争,将在你的眼前打响
AI眼镜赛道正迎来前所未有的爆发期,华为、小米、Meta等科技巨头纷纷入局,但消费者对它的实际用途仍充满疑问。本文从产品经理视角深度解析AI眼镜的三大核心问题:如何区别于AR/VR设备、为何在2023年后突然爆发、以及如何在轻量化与功能化之间找到平衡点,带你透视这场科技竞赛背后的产品逻辑与市场真相。

2026年4月,华为高调发布首款鸿蒙AI眼镜,起售价2499元。
在此之前,小米AI眼镜上市即爆款,阿里夸克AI眼镜预售即售罄、溢价一度飙超5000元,Meta凭借Ray-Ban系列长期占据全球市场主导,苹果蓄力多年的产品也即将浮出水面。
一夜之间,AI眼镜成了所有科技巨头的必争之地。
但如果你去问身边的朋友,十个人里有九个说不清AI眼镜到底能干什么。它和AR眼镜什么关系?和VR头显有什么区别?花两三千块买一副,值不值?
这篇文章,我想从一个AI产品经理的视角,把AI眼镜这件事从头到尾捋清楚。不堆术语,不贩卖焦虑,只回答三个问题:它是什么,它为什么现在火了,它值不值得你关注。
一、AI眼镜到底是什么?先别和AR、VR搞混了
很多人一听”智能眼镜”,脑子里蹦出来的画面不是《钢铁侠》里的全息投影,就是地铁里戴着头显玩游戏的极客。
但AI眼镜和它们不是一类东西。
- AR眼镜的核心是”叠加”——在真实世界里贴一层虚拟信息,比如导航箭头悬浮在路面上。VR头显的核心是”沉浸”——把你整个人扔进一个虚拟世界。这两种产品的本质是”显示设备”,解决的是”怎么看”的问题。
- AI眼镜的核心是”感知+理解”。它不追求花哨的虚拟画面叠加,而是在一副普通眼镜的形态里,装进麦克风、摄像头、芯片和AI模型,让它能听懂你说话、看懂你眼前的东西,然后给你回应。
打个比方:AI音频眼镜更像是”戴在耳朵上的ChatGPT”,AI视频眼镜更像是”长在脸上的运动相机+AI助手”。
按照功能和定位,目前市面上的AI眼镜大致分为三类:
第一类,AI音频眼镜。 最轻、最便宜,核心是语音交互。你可以用它打电话、听歌、问天气、设闹钟。体验接近一副集成了AI助手的蓝牙耳机,重量控制在50克以内,和普通眼镜几乎没区别。价格通常在1000元以下。
第二类,AI视频眼镜。 在音频基础上加了摄像头,这是当前市场最热门的品类。它可以拍照、录视频、实时翻译路牌、识别眼前的东西并告诉你那是什么。相比手机拍摄,它的核心优势是”第一视角”——不需要掏出手机,不需要中断手头的事,所见即所录。
第三类,AI+AR眼镜。 在前两类基础上叠加了显示功能,能在镜片上投射虚拟信息。技术门槛最高、价格最贵、重量也最重,目前仍处于小众探索阶段。
一个关键数据:在用户对AI眼镜的关注要素中,43%的用户选择了影像功能,是所有要素中关注度最高的。这说明什么?说明消费者对”第一视角记录”这个场景的认可度远高于AR显示、语音助手等功能。这也解释了为什么各大厂商都把AI视频眼镜作为主战场。
二、为什么是这两年才火?一段12年的弯路
AI眼镜不是新概念。2012年,谷歌就推出了Google Glass,售价1500美元,被寄予”继手机之后的下一代计算平台”的厚望。
结果呢?失败了。而且失败得很彻底。
原因有很多:1500美元的定价远超消费级心理门槛;功能单薄到只能查天气和拍拍照;一体化的不可折叠设计戴着像个半成品;最致命的是那个摄像头——在公共场合戴着一副会随时录像的眼镜,隐私争议铺天盖地,很多场所直接禁止佩戴。
Google Glass的商业失败,精准揭示了智能眼镜的行业痛点:太贵、太丑、太鸡肋、太有争议。
但它也证明了一件事:眼镜形态作为智能终端,是可行的。 这个认知种子埋下了,只等技术条件成熟。
这一等就是十年。
2023年,两个关键技术突破同时发生,构成了AI眼镜爆发的拐点。
第一个突破,是多模态大模型的成熟。 2023年之前,智能眼镜的AI能力基本停留在”语音指令”层面——你说”拍照”,它拍照;你说”打电话给张三”,它拨号。这和蓝牙耳机上的语音助手没什么本质区别。但大模型让AI眼镜真正拥有了”理解”能力:它能看懂眼前的菜单并翻译成中文,能听懂你的提问并给出有上下文的回答,能识别你面前的是什么植物并科普它的习性。
产品定位发生了本质升级——从”信息终端”变成了”智能助理”。
第二个突破,是端侧部署技术的落地。 早期AI眼镜的智能功能严重依赖云端:你说句话,传到服务器处理,再把结果传回来。网络不好的时候,对着空气等三秒才收到回复,体验很差。而端侧大模型的成熟,让核心AI能力可以在设备本地运行——不用联网也能实时翻译、语音交互、拍照识物,响应速度大幅提升,数据隐私也更有保障。
再加上光学方案的轻薄化、AI芯片的低功耗化,那些曾经让Google Glass折戟的技术瓶颈,正在被一个一个攻克。
所以2023年之后,AI眼镜赛道进入了真正的”产品可行”阶段。巨头开始下场,资本开始涌入,消费者开始买单。
三、产品的核心矛盾:你要轻,还是要强?
做AI眼镜的产品经理,每天都在回答同一个问题:轻量化和功能化,到底优先哪个?
这是一个经典的”不可能三角”——轻量化、长续航、高性能,三者很难同时满足。你要轻,就得砍功能、用小电池;你要功能强,就得塞更多芯片和传感器,重量和功耗跟着涨;你要续航长,就得要么加大电池(更重),要么降性能(更弱)。
不同的厂商选择了不同的路线。
轻量化优先派的逻辑是:先让用户愿意戴,再让用户愿意用。把重量控制在50克以内,做到和普通眼镜几乎一样的佩戴感,定价下探到1000-2000元区间。但代价是功能单一——通常只有音频交互和基础语音助手,用久了容易觉得”就这?”。
功能化优先派的逻辑是:用功能差异化构建壁垒。叠加高清摄像头、AI视觉识别、AR显示,定价3000元以上,面向高端用户。但代价是重量通常超过60克,续航很难撑过4小时,日常佩戴体验不佳。
有意思的是,2025年以来,头部厂商几乎不约而同地选择了双产品线并行的战略——一条线做轻量入门款抢用户,另一条线做功能旗舰款竖标杆。
而真正可能打破”不可能三角”的,是底层技术架构的演进。
目前AI视频眼镜的算力方案正在向SoC+MCU双核心架构收敛。简单理解就是:一颗芯片负责低负载场景(蓝牙连接、音频播放),另一颗负责高负载场景(高清拍摄、AI识别),两颗芯片智能切换,既保性能又省电。
阿里夸克AI眼镜就是这个架构的典型代表:高通AR1旗舰芯片+恒玄BES2800协处理器,再配上”双电池+换电仓”设计,支持热插拔更换主电池,最长续航可达24小时。小米AI眼镜也是类似的方案,高通AR1加恒玄BES2700。
这种”双芯片+换电”的组合,是目前最接近”全天佩戴+全场景功能”的解法。
四、竞争格局:谁在牌桌上,手里什么牌
2026年的AI眼镜赛道,可以用一句话概括:巨头主导,分层绞杀。
Meta——先发守擂者,但优势在缩小。
Meta是最早把智能眼镜做成消费级爆品的巨头。Ray-Ban Meta主打拍摄和音频,售价299美元;Ray-Ban Display主打AR显示,售价799美元。凭借雷朋的品牌势能和Meta的AI能力,长期占据全球市场份额第一。
但短板正在暴露。续航只有3-4小时,用户吐槽”经常在需要时没电,最终沦为普通墨镜”。AI功能偏基础,主要集中在语音交互和拍照翻译,缺乏深度场景理解。更重要的是,生态封闭——和Facebook、Instagram的绑定在海外是优势,但在国内市场几乎没有存在感。
华为——精准突袭者,鸿蒙生态是最大变量。
华为的入局方式非常”华为”:不做概念,直接铺量。鸿蒙AI眼镜2499元起的定价,直接把行业锚点从”极客玩具”拉到了”大众消费品”。
真正的杀手锏不是硬件参数,而是鸿蒙生态的协同效应。华为手机、平板、手表、智能家居之间已经建立了完整的互联互通体验,AI眼镜只需要接入这张网,就能立刻获得丰富的使用场景。对华为用户来说,AI眼镜不是孤立设备,而是鸿蒙生态的自然延伸。
小米/阿里——性价比+微创新,快速验证市场。
小米的打法一如既往:用极致性价比快速起量,通过生态链摊薄成本。阿里夸克AI眼镜则走了一条差异化路线——用”换电设计”直击续航痛点,24小时续航直接把AI眼镜从”出门戴两小时”拉到了”全天候佩戴”的门槛上。
这两个玩家的共同特点是:把价格打到2000元档,把体验做到及格线以上,先抢用户再迭代。
苹果——蓄力中的终极变量。
据行业消息,苹果的AI眼镜产品预计在2026年底或2027年初发布。苹果从来不缺”后发先至”的案例——Apple Watch不是第一款智能手表,但重新定义了品类;AirPods不是第一款TWS耳机,但开创了一个时代。
苹果入局的意义不在于它能不能做出最好的AI眼镜,而在于它能不能像iPhone定义智能手机那样,定义AI眼镜的交互范式。
创业公司——在夹缝中找垂直场景。
Rokid上线了行业首个智能体商店,XREAL连续三年全球AR眼镜销售收入第一(但三年累计亏损超20亿元)。Rokid创始人祝铭明说得很直接:”对于大部分创业公司来讲,大厂下场就是死局。”
但死局不等于没有活路。工业巡检、医疗辅助、极限运动这些垂直场景,大厂不会为小众需求重开产线。创业公司的生存空间在”极致垂直”里——不是和巨头比谁做得更全,而是在一个极窄的领域里做得比谁都深。
一些关键数据可以帮助你理解这个赛道的量级:IDC数据显示,2023年全球智能眼镜出货量580万台,2024年增长到920万台(同比增长58.6%),预测2026年将达到2267万台。在巨头规模化采购的推动下,BOM成本有望在未来18-24个月下降30%-40%。
五、从”百模大战”到”百镜大战”:同样的配方,不同的味道
看到”百镜大战”这个词,你有没有一种似曾相识的感觉?
没错,两年前我们经历过一轮几乎一模一样的狂热——只不过那会儿叫”百模大战”。2023年到2024年,从百度文心一言到阿里通义千问,从腾讯混元到字节豆包,从智谱GLM到月之暗面Kimi,数十家企业争相发布大模型,发布会一场接一场,参数量一个比一个大。
现在回看,”百模大战”的结局已经写好了:模型层快速收敛,应用层才是终局。 通义千问选择开源、DeepSeek用极致性价比突围,而更多的参与者要么被并购,要么转型做应用。最终,大模型本身成了一种”基础设施”——大家都在用,但很少有人靠”有一个模型”本身赚到钱。
那么”百镜大战”会不会重演同样的剧本?我觉得既像又不像。
像的地方在于,两者都遵循同一个产业规律:风口来了,所有人先冲进去,然后快速分层、淘汰、收敛。
“百模大战”的节奏是:先拼参数(谁的模型更大),再拼benchmark跑分(谁的分数更高),最后发现这些东西用户根本不关心——用户关心的是”你能不能帮我干活”。于是竞争重心从模型能力转向了应用场景和产品体验。
“百镜大战”正在经历类似的轨迹:先是拼硬件参数(谁的摄像头像素更高、谁的芯片更强),再拼功能清单(谁支持的功能更多),接下来必然会进入”场景验证”阶段——用户不会因为你多了一个AI识花功能就买单,他们关心的是”这个东西在我日常生活中到底有什么用”。
但不像的地方更值得玩味。
第一个根本差异:“百模大战”是纯软件竞争,“百镜大战”是硬件+软件的复合竞争。 大模型的竞争本质上是一场算力和算法的军备竞赛,边际成本接近于零——多一个用户不会多花太多钱。但AI眼镜是实体产品,每一台都有BOM成本、供应链管理、库存压力和售后负担。这意味着,硬件竞争的淘汰速度会更快、更残酷——你模型做得不好可以持续迭代,但产品卖不出去,库存和现金流会先把你拖垮。XREAL三年累计亏损超20亿元就是一个活生生的案例。
第二个根本差异:“百模大战”最终走向了开放,“百镜大战”可能走向封闭。 大模型时代的终局是”模型能力趋同”——当开源模型足够强的时候,模型本身不再是护城河,开放反而成了趋势。但AI眼镜不一样。它的核心竞争力不在硬件本身,而在手机生态的绑定——你的眼镜和谁的手机配合最好,就决定了你买谁的眼镜。华为眼镜配华为手机,小米眼镜配小米手机,苹果眼镜配iPhone。结果就是:“眼镜跟着手机走”,生态壁垒会越来越深。这和手机App的生态锁定是同一个逻辑——一旦你买入了某个生态,切换成本会越来越高。
第三个差异,也是最有意思的一个:“百模大战”的赢家是“做出了最好的模型的人”,而“百镜大战”的赢家可能是“找到了最对的那群用户的人”。 模型竞争是能力竞争,谁强谁赢,标准相对清晰。但AI眼镜竞争是场景竞争——不存在”最好”的眼镜,只存在”最适合某个场景”的眼镜。就像你不会说运动鞋比皮鞋”更好”,它们只是服务于不同的场景。
这也引出了一个更深层的感悟:从“百模大战”到“百镜大战”,中国科技产业的投资和创业节奏似乎形成了一种固定的模式——风口一出现,所有人扎堆涌入,资本推波助澜,媒体热炒概念,然后在一到两年内快速分层、大厂收割、创业公司出局。
这个模式本身不是问题,问题在于:如果每一次风口都走同样的路,那创业者真正能学到的教训是什么? “百模大战”教会我们的是”别在基础设施层和巨头硬刚”,但”百镜大战”里,多少创业公司又在硬件层和巨头做着正面竞争?
也许真正的机会,既不在模型层,也不在硬件层,而是在这两者之间的应用层——用成熟的模型能力+现成的硬件平台,解决某个具体人群的具体问题。
不过这是另一个话题了。
六、场景破局:什么场景能让普通人掏钱
技术再先进,产品再酷炫,最终决定一个品类能不能站住的,永远是那个最朴素的问题:用户在什么场景下会用到它?
第一个核心锚点,是第一视角拍摄。
这是AI视频眼镜区别于所有其他设备的核心特色。手机拍摄需要你掏出手机、对准、按快门,你的视角从”参与者”变成了”旁观者”。而AI眼镜的拍摄是”你所见即所录”——不需要中断手头的事,不需要刻意举起任何设备。
通勤路上随手记录街景,户外运动时录制第一视角,开会时一键拍下白板内容然后AI自动整理成文字纪要。43%的用户最关注影像功能这个数据,背后是消费者对”记录生活”这个需求的真实表达。
第二个潜力场景,是实时AI助手。
对着眼镜说”翻译一下这块牌子”,它立刻把外文翻译成中文念给你。看到一株不认识的植物,问一句”这是什么”,它告诉你名字、习性和养护方法。开会时说”帮我记一下要点”,散会后它给你一份整理好的纪要。
这些场景单独拿出来都不算刚需,但叠加在一起,就构成了一个”不用掏手机就能完成的微型服务”矩阵。而”不用掏手机”这件事,在通勤、运动、开车等双手被占用的场景里,确实是实打实的痛点。
第三个值得关注的场景,是特殊群体辅助。
听障人士戴上AI眼镜,对方说话的内容实时转为文字显示在镜片上。视障人士用它识别前方的障碍物和红绿灯。老年人用它做心率监测、跌倒检测和紧急呼叫。这些场景市场规模不大,但用户粘性极高、付费意愿极强,且有政策支持。更重要的是,它们是AI眼镜最能体现社会价值的应用方向。
不过,我也想泼一盆冷水。2026年CES上的一个有趣现象是:关于“眼镜是否是AI硬件的终极形态”,行业内并没有共识。
有人认为眼镜天然适合承载AI——它长在脸上,视野就是摄像头,耳朵旁边就是扬声器,交互路径最短。但也有人认为眼镜的佩戴门槛太高——近视的人要配镜片,不同脸型要适配,有些人就是不喜欢戴眼镜。Vocci等公司甚至认为,AI戒指可能比眼镜更自然——主打录音和会议总结,无需佩戴在脸上。
这提醒我们:AI眼镜可能不是”下一代计算平台”的唯一答案,但它可能是当前技术条件下,最接近大众可用的那一个。
七、AI产品经理的判断:现在入场,是什么时机
说了这么多,我的判断是什么?
2026年是AI眼镜赛道的分水岭。
在这之前,AI眼镜是”极客的玩具”——功能不成熟、体验有硬伤、价格不友好、场景不明确。买它的人更多是出于好奇心,而不是真实需求。
在这之后,AI眼镜正在进入”大众消费品”的区间。华为2499元的定价锚定了心理预期,端侧AI能力让基础体验达到及格线,巨头的渠道和品牌势能正在大幅降低用户教育成本。
但”进入区间”不等于”完成普及”。几个核心问题仍然悬而未决:
- 续航。 即使夸克做到了24小时续航,那也是在”换电”前提下。如果不换电,绝大多数产品的续航仍在4-6小时,离”全天候”还有距离。
- 生态割裂。 鸿蒙、iOS、安卓各自为战,跨平台应用开发成本陡增。最终大概率形成”眼镜跟着手机走”的绑定格局——你用什么手机,就买什么生态的眼镜。这对独立品牌是致命挤压。
- 刚需场景。 第一视角拍摄很酷,但”酷”不等于”刚需”。真正能打动大众消费者的,可能是一个我们现在还没想到的场景。就像Apple Watch刚发布时主打的是通知和健身,但真正让大量用户离不开的,是站立提醒和心电图功能——这些都不是预设计划中的核心卖点。
- 如果你是消费者,我的建议是:如果你是华为/小米/阿里生态的重度用户,2026年下半年可以关注对应生态的AI眼镜产品,体验已经过了”能用”的门槛;如果你不是,可以再等等——苹果入局大概率会重新洗牌,届时选择更清晰。
- 如果你是产品经理或从业者,我的建议是:别只盯着硬件参数看。AI眼镜的竞争终局不是”谁的芯片更强”或”谁的摄像头像素更高”,而是谁能最先找到那个让用户每天都想戴上去的场景。
毕竟,当年iPhone的成功,不是因为它的硬件参数最好——而是因为它让”刷手机”变成了一种生活方式。
AI眼镜缺的,可能就是那个”刷”的瞬间。
本文由 @赞美愚者 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益



