AI搜索:这个正在崩塌的行业,掩藏了太多没人说实话的真相

0 评论 170 浏览 2 收藏 19 分钟

AI搜索正在颠覆传统信息获取方式,但其背后隐藏着对内容生态的掠夺性商业模式。本文作者深度体验Perplexity、ChatGPT Search等主流产品两个月后,从技术原理、用户价值与内容生态三大维度,揭示AI搜索如何通过RAG技术实现信息整合,却又在无形中侵蚀着内容创作者的生存空间。当63%的准确率遇上37%的幻觉率,我们该如何理性看待这个效率与风险并存的新时代工具?

故事是这样的。

我花了两个月,把 Perplexity、ChatGPT Search、Grok、秘塔、Kimi、元宝全深度用了一遍。不是那种”打开问一个问题就关了”的用法,是真的拿来当生产力工具,研究问题、写稿子、追踪动态那种用法。

然后我的结论是:AI搜索是真的有价值,但这个行业的商业模式,建立在对内容创作者的抢劫上。

而大多数讨论这个话题的人,根本没说到点子上。

说实话,我看到的大部分文章,要么在吹产品功能,要么在对比参数体验,要么在分析市场格局。

这些都重要。但都不是最重要的事。

我想认真聊三个维度:技术到底是怎么工作的、用户到底得到了什么、以及——这个没人认真讲的——整个内容生态正在被AI搜索慢慢吃掉这件事。

先说技术,因为很多人把这件事想得太简单了

我先问一个问题:AI搜索和传统搜索的本质区别是什么?

很多人会说:就是加了个AI摘要啊。

不是的。这个误解太普遍了,我觉得必须先把这个说清楚。

传统搜索引擎是什么?爬虫→建索引→关键词匹配→返回链接列表。你自己去读,自己判断。搜索引擎就是个搬运工,把最相关的链接找出来,剩下的你自己来。

AI搜索是另一套逻辑。底层靠的是 RAG,检索增强生成。听着很技术,但翻译成人话就四步:

第一步,理解你要查什么。不只是抽关键词,是判断你的意图——你到底是想了解一个概念,还是在做产品对比,还是在追踪一个事件的最新进展。意图不同,搜法完全不同。

第二步,去搜。不是静态索引匹配,是实时抓取相关内容。你问的问题越复杂,AI拆出来的子查询越多。

第三步,处理抓回来的内容。

这一步,我认为是整个链路里最被低估的。

搜回来的网页充满了噪音,广告、导航栏、各种干扰元素。正文解析、相关性排序、去重合并、按语义切段,全在这步完成。很多AI搜索答不准,不是模型不够聪明,是喂进去的上下文本身就是垃圾。Garbage in,garbage out。

第四步,LLM基于这些上下文生成答案,并标注来源。

就这四步,看起来简单,但每一步都有巨大的工程坑。

这里有两条完全不同的技术路线,绝大部分人分不清,但分清了之后你看产品的眼光会完全不一样。

路线A,工具调用型。LLM先自己想”我需要知道什么”,然后去搜,搜完继续想”我还缺什么”,继续搜。代表是 DeepSeek、ChatGPT。DeepSeek 用 R1 推理模型驱动搜索,是目前最极端的路线A,复杂推理问题用它明显更强。

路线B,Pipeline型。问题进来,固定跑一遍搜索→处理→生成的流程。代表是 Perplexity 早期、秘塔。速度更快,成本更低,但复杂问题容易答不全。

没有绝对更好的路线,只有适合的场景。你要查一个快速事实,路线B够用了。你要做深度研究,路线A明显更靠谱。

还有一个点我必须强调,因为中文互联网上聊得太少了:Embedding 模型的选择,对中文搜索体验的影响,可能比换 LLM 更显著。

Embedding 是把文字转成向量的模型,它决定了”语义相近的内容能不能被找到”。很多人不知道这个链路有多重要。

Query和文档都要被编码成向量,在向量空间里语义相近的内容会靠近。关键词匹配是”精确但召回有限”——”iPhone售价超预期”这句话,搜不到没有原词但讨论同一件事的内容。向量语义搜索能弥补这个缺口,但向量检索的质量,完全取决于Embedding模型对中文语义的理解深度。

百度和腾讯有多年中文语料积累,秘塔针对搜索场景专门训练过Embedding——这就是为什么一个没有大模型优势的创业公司,产品体验能打赢很多大厂。这不是玄学,这是有技术根因的。

说到技术,我想认真聊一个数据。

因为这个数据太重要了,但出现在任何一篇文章里都像是在”黑”AI搜索,所以大部分人选择不聊。

2024年,剑桥大学等机构发布了一个基准测试,叫 CRAG(Comprehensive RAG Benchmark,arXiv:2406.04744)。测的是什么?是当前最先进的 RAG 系统,在真实问题上的表现。

结果是这样的:

最先进的大语言模型,单独使用,不接RAG,在CRAG上的准确率是34%。

加上标准RAG之后,提升到了44%。

当前最先进的工业级RAG解决方案,准确率是63%。

也就是说,即使是最先进的工业级方案,仍然有37%的问题存在幻觉或错误。

我当时看到这组数据的时候,第一反应是:37%?这个数字比我想象的低多了。

但后来我仔细想了想,不是37%很低,是这个领域太新了,门槛太低了,低到很多人没意识到这个问题的严重性。而且这个63%,是工业级方案的平均水平,不是每个产品都能达到。更重要的是,CRAG测试的是”有没有幻觉”,不是”答案质量高不高”。就算没有幻觉,答案也可能是不完整、不深入的。

还有一个研究也得提一下。2024年发表的ReDeEP研究发现:即使RAG的检索结果本身是准确的,LLM在生成阶段仍然可能输出与检索内容冲突的结论。这不是”找不到信息”的问题,是”找到了但整合错了”的问题。这个现象有个专门的名字,叫confabulation,就是”自信地胡说八道”。

所以你问我AI搜索可不可靠?

我的看法是:它比一年前可靠多了,但还远没有可靠到可以不加判断地相信。尤其是医疗、法律、投资这些高风险领域的结论,别交给AI搜索。

用户价值是真实的,但有边界

说了这么多技术,不是为了吓你。AI搜索的核心价值,我用完之后认为是真实的:它让你从”找信息+读信息+整合信息”的重复劳动中解放出来。

举一个我感受最深的场景:研究一个完全陌生的领域。

传统搜索需要读5到10篇文章才能建立基本认知。AI搜索5分钟给你全貌,概念、技术原理、主流方案、最新动态。你把时间花在判断上,而不是搬运上。这个价值是真实的,我每天都在用。

多源对比也是明显优势。选购一款产品,AI搜索可以同时整合参数对比、用户评价,专业测评。传统搜索需要你自己去串这些信息,AI搜索帮你做了这件事。

有具体的数据支撑吗?有的。SERanking 2024年发布的对比研究显示,AI搜索在信息收集类任务上比传统搜索快约40%,用户满意度高约30%。

但是,这是平均值。在需要深度判断的任务上,AI搜索的错误答案反而导致用户花更多时间去核实。你以为AI帮你省了时间,结果你在核实错误答案上花了更多时间。

所以我必须说清楚AI搜索的局限边界。

高风险决策不要交给AI搜索。医疗、法律、投资,幻觉率不可接受。你不能因为AI说得自信就信了。Forbes 2025年的一篇报道引用的研究表明,大多数用户无法有效识别AI搜索答案中的事实错误——不是因为他们不聪明,是因为AI整合出来的答案看起来太专业、太自信了。

复杂推理问题AI搜索只能给框架,给不了深度。比如”俄乌战争对全球能源价格的影响,及对中国新能源出口的连锁效应”,AI搜索能给出分析框架,但深度远不及专业研报。这要承认。

���有一点我的真实感受。

用了两个月AI搜索,我反而更重视批判性思维了。

因为AI给了你一个看起来很专业的答案,你必须有意识地去质疑它:这个结论来源可靠吗?有没有其他视角?这个信息有没有时效性问题?

AI搜索用得越多,我越觉得批判性思维不是选修课,是必修课。

内容生态的影响,是我最想说的部分

大多数讨论AI搜索的文章都把重点放在竞争格局和产品比较上。但我觉得这些都是次要的。

真正重要的问题是:AI搜索正在摧毁它所依赖的内容生态。

路透社《2025年数字新闻报告》显示,随着AI Overview等功能在搜索中的普及,新闻网站的推荐流量出现了显著下滑。Buzzfeed、Condé Nast这些出版商已经在报告流量大幅下滑。部分研究机构的估算更悲观:AI搜索产品每增长10%的市场份额,出版商的推荐流量就下降15%到20%。

这不是预测。是正在发生的事。

为什么?因为AI搜索整合了内容,却不把用户导流回原文。出版商的广告收入直接受损。用户获取了价值,但价值的来源——内容创作者——什么都没得到。

2025年底,纽约时报正式起诉Perplexity侵犯版权,道琼斯(WSJ的出版商)也跟进了。

核心诉求是:内容授权费用。

这件事比大多数报道的更根本。它不只是两家公司的法律纠纷,它是在问一个核心问题:AI搜索有没有权利免费使用内容创作者的劳动成果?

我的看法是:没有。

传统搜索引擎给出版商带来流量,所以出版商容忍被索引。AI搜索不给流量,还直接整合内容,这个逻辑在道义上是站不住脚的。

有人会说:AI搜索可以向出版商支付授权费用,像Spotify那样。

这个想法听起来合理,但现实问题很多。

Spotify的音乐授权模式,不能简单复制到内容领域。音乐行业的授权结构相对集中,三大唱片公司控制主要版权,谈判框架成熟。文字内容的版权高度分散,任何一家出版商都无法代表整个行业,授权谈判的成本极高。

授权费会大幅推高AI搜索的运营成本。Perplexity每月的API推理成本已经高得离谱,加上授权费,财务模型更难看。

而且,只有头部大出版商有议价能力。NYT和WSJ能拿到钱,独立的优质创作者什么都拿不到。行业集中度会进一步上升。

所以我看到的内容生态走向,很可能是两极分化的格局:

大型出版商建立封闭的订阅墙。NYT、WSJ已经在做了,优质内容只给付费用户,AI搜索付授权费才能索引。独立创作者转向Substack、付费newsletter,依赖直接向读者收费,不再依赖平台搜索引擎的分发。Substack 2024年的订阅收入同比增长100%+,就是这种趋势的一个缩影。

公共互联网上可免费获取的优质内容会持续减少。

因为创作者没有通过搜索引擎变现的路径了。

这会形成一个自我强化的负向螺旋:优质内容减少→AI搜索索引质量下降→用户体验下降→更多人不愿为内容付费→优质内容进一步减少。

AI搜索最终会杀死它所依赖的内容生态。

这是我最担忧的事。目前没有看到任何AI搜索公司提出了有效的解法。

技术、用户价值和生态,三个维度必须放在一起理解

我之前写文章喜欢把每个部分分开讲,但这次用下来,我觉得这三个维度必须放在一起理解,因为它们相互依存。

技术原理决定了用户体验的上限和下限。CRAG的数据说明,即使是最先进的工业级RAG方案,幻觉率仍然高达37%。这个数字告诉我们:技术没有很多人以为的那么成熟,优化链路前几步比换LLM更有效。Rerank做不好,内容处理做不好,再强的模型也救不了。

用户价值决定了AI搜索能否普及,也决定了用户会不会形成健康的依赖方式。用得好是效率工具,用得不好会加速错误信息的传播。

内容生态决定了AI搜索能否持续。没有优质内容,AI搜索的索引就是垃圾进垃圾出。

三个维度相互依存,而整个行业目前的商业逻辑是:消耗内容生态来为用户提供价值,但不给内容创作者任何回报。

这不可持续。

我的结论

AI搜索是有真实价值的技术。我每天都在用,以后也会继续用。

但这个行业有几个根本问题没有解决。

第一,版权问题没有清晰的法律框架。出版商起诉是第一步,但谁来制定规则、内容怎么定价、创作者权益怎么保护,这些问题还远没有答案。

第二,商业模式没有自洽的逻辑。免费向用户收费不可持续,广告模式会破坏产品价值,订阅模式限制了普及速度。目前所有AI搜索公司都在靠VC资金撑着,这不是正常的商业生态。

第三,内容生态的崩塌在加速,而行业里的大多数人还在讨论产品功能和竞争格局,没有认真面对这个问题。

我不是说AI搜索没有未来。

我是说,这个行业的从业者需要认真思考他们的商业模式,而不是靠投资人的钱一直烧到IPO。

对普通用户的建议:把AI搜索用好,但用它的时候保持清醒。

它是一个强大的工具,但不是一个可靠的权威。

你仍然是需要做判断的那个人。

主要参考来源:

CRAG Benchmark,arXiv:2406.04744,2024——最先进RAG系统准确率63%,LLM单独使用34%

ReDeEP,2024——RAG系统中LLM confabulation问题研究

Reuters Institute,Digital News Report 2025——新闻出版商流量变化数据

SERanking,2024——AI搜索与传统搜索用户效率对比研究

Forbes,2025——AI搜索答案用户识别能力相关报道

Substack Earnings Report,2024——订阅平台增长数据

纽约时报、道琼斯2025年对Perplexity版权诉讼文件

本文由 @阿洋 原创发布于人人都是产品经理,未经许可,禁止转载。

题图来自Pixabay

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!