为什么ChatGPT能降价90%?产生的商业影响是什么?

1 评论 7318 浏览 7 收藏 11 分钟

在未来,ChatGPT的成本会下降吗?它产生的商业影响是什么呢?语言模型与现存端口会如何结合?本文作者对这三个方面,分享了他的看法,希望能给你带来一些启发。

本文说三件事:

  1. 价格-90%背后是什么?
  2. 商业影响是什么?真的要全面AIGC了?
  3. 老调重弹,关注语言模型与现存交互端口的融合

一、成本下降猜测

结论在前:可以大胆地说,在未来,成本还会进一步下降,并且会令人难以想象。

1. 技术角度

技术优化一直在进行,2020年GPT-3发布的时候,单次训练成本是460万美元,而现在这个价格是140万美元,约-70%。尽管这是训练成本,而非推理(回答你的问题即推理)成本,但也能够作为参考。

具体的技术优化产生在哪些方面,算法?模型结构?工程设计?定制GPU?任务调度?——不知道(我没去搜哈哈)。但技术角度出发,成本会下降大家应该是不会怀疑的。

2. 商业角度

假设,你现在拥有全世界最领先的技术,拔剑四顾心茫然,寰球宇内一个能打的都没有。那么你会:

  1. 趁着技术领先期,能赚就赚。
  2. 直接成本价售卖,圈用户圈数据圈场景圈服务商(特别我还有个金主爸爸的情况下),数据飞轮给我跑出火花来!剩余参赛者全都给我捡我挑剩的少量数据。

我想这道选择题应该不难做。

用另一个角度推理佐证:

  1. SaaS服务成本一般在20%
  2. 云服务成本在50%
  3. 即背靠微软的OpenAI,其成本线恰好就是之前价格的十分之一
  4. 也就是说人家说不定还有余力进一步降价,目前这个价格只是让渡了利润,还没算上技术点来的成本下降。(参考《ChatGPT背后的经济账》,深度好文,推荐搜索学习!)

那么降价90%就不难理解了,不管是技术成本优化还是商业成本优化,这场降价都必将发生(事后诸葛亮就是我了)。

3. 竞争角度

假设Google的产品出来了——面对势如烈火的微软,面对产生动摇的云客户。他发布基本对标产品之外,在价格上会做什么设计呢?

假设3月16日百度出来了,再过一段时间阿里、字节、腾讯等有能力的都跟进了,那么他们在价格上会形成默契的卡特尔吗?还是像当初百团大战一样,不得不陷入一场争夺数据、客户的囚徒困境?

好玩!刺激!曾经的免费打车、免费吃饭、免费骑单车似乎在向我招手了!

二、商业影响是什么

结论在前:有人狂喜有人没那么喜,走一步看三步。

1. 独立开发者狂喜

现在看似降价90%,但我更倾向这是一种商业行为促使的降价,即把LLM的成本和创业公司的费用成本拉到一条线(38000字/元)。

说白了这技术还是那么贵,只是我挥泪大甩卖,大公司和创业公司站一起奔跑。

Twitter一条令我印象深刻的评论是:“这下子我可以做那些挂广告盈利的项目了”。

2. 创业公司不一定喜

因为以前也能这么低成本的,只是你不知道。

0.02美元的价格是最贵的Davinci模型(GPT3.5),而Curie模型比他弱一些也更便宜一些,价格是0.002美元——就是ChatGPT现在的价格。

所以很多以前用GPT-3的创业公司,他根本就是基于Curie,或Curie微调后的模型在跑的业务。这次降价对他们更多是效果提升而非成本下降。

而且!暂时我在官网上没看到ChatGPT支持微调的说明(我没找到),如果真的是这样,一些创业公司应该正在难受——我是拥抱新模型呢?还是用现在这个微调过的旧模型将就一下?相信他们应该都在加班测试了。

3. 小模型公司风中飘扬

之前我认为LLM模型存在一些弊端,会提供给小模型公司一定的生存空间,具体包括:实时性(车载/直播等)、私有化(金融)、成本敏感(客服)、答案精确(金融)、道德控制(心理)等要求的场景还是会使用小模型。

实时性,有点崩,最新的ChatGPT接口,有人测试后发现,响应速度是之前的4倍(不严谨,未多方求证)。

成本敏感,暂时坚挺。对于客服来说,哪怕是目前的价格下降90%,仍然是扛不动的的价位——客服本来就是成本中心,多花任何一分钱都是困难的。不过一旦客服做upsell追加销售额场景跑通,成本可能就不是问题了。

私有化,OpenAI暴露出了私有化计划,一定程度上,这也不再是小模型公司独有的优势了。

只剩下答案精确、道德控制这两个LLM模型天生的缺陷死死撑住。

我比较担心在这样狂暴的技术演进中,小模型公司如何面对日新月异的LLM模型能力升级(我朋友圈一位朋友说,旧模型刚跑通接上,就落伍了……),如何面对大厂们卷起来的价格战?

跟还是不跟?怎么跟?这将是缠绕在小模型公司身上阴魂不散的魔咒。

4. 为什么走一步看三步

第一个原因前面提过,这个成本还会进一步下降——有一些业务你现在跑不通,或许等两个月模式就能跑通了。

那么——你要提前下场吗?还是等成本到尾再下场?一个典型的例子是AI绘画领域,企业是在成本高昂时入场的,靠勉强盈亏平衡活下来,并收获成本暴降后的红利——顺便还幸运地等来了ControlNet的二次升级,获得了更大的商业空间。

第二个原因则与OpenAI的另一项猜测有关,有爆料称OpenAI在预备开放支持32,000 token长度的模型——而上下文长度目前在最新的ChatGPT上是4096 token。更长的上下文可能使一些原本做不了的场景(例如长文本写作)成为可能。

总之走一步,看三步,可能今天你觉得不行的场景,明天凌晨大洋彼岸一则公告就行了,时刻保持更新,时刻提前预判。

如果你想看全面的所有方向的解析,请看我的分析库,因为每个方向我都要结合技术、商业做详细分析,写在文章里是彻头彻尾的灾难:重磅分享:40+ChatGPT商业项目库开源分享(持续增加)

三、语言模型与现存端口的结合

这种结合依赖于多模态+Toolformer,详情关注我上篇文章怎么风平浪静的?多模态+Toolformer,这波还不原地起飞?

我曾经认为语言模型会成为新时代的虚拟终端,即你无论要做什么、要用什么,你都是首先经过他——因为他太好用了!你就像吩咐你的秘书去帮你做事情一样。

但是我发现我错了,人类终究是实体,要与虚拟终端交互离不开实体终端,什么是实体终端?手机、电脑、音箱、VR、手表等。

微软发布多模态这篇论文可能不是没有原因的,自从BING上的尝试后,他现在一路脱缰野马一般冲向浏览器和Windows。

你想象一个场景→ 你用着电脑,带着耳机听歌,在阅读一篇商业报道。你对报道中提到的向量化数据库这个陌生的单词产生了疑问,你选中单词,向耳机语音提问,这是什么?LLM在浏览器的侧边栏为你列举了详细说明。→这时你想找一下现在向量数据库这个方向有多少从业者、市场空间怎么样,但是你这篇文章刚读到10%,你想继续读下去不想被打乱思绪。→于是你敲了下耳机,对耳机里LLM说“帮我列一下向量数据库的玩家是哪些,搜集一下相关的市场分析报告并总结好,下载到本地。”→当你阅读到30%的时候,耳机叮咚一声响,相关的分析和报告都下载好了,只等你阅读完毕后前往桌面的文件夹“向量数据库分析”中查看。

那么在未来,手机、电脑(其实就是Mac体系,window已经在搞了)、音箱、VR等多端联合起来会发生什么呢?哪个端口敢于拒绝拥抱全新的人机交互范式呢?而这场拥抱又会催生出哪些复合应用呢?

我觉得在未来,互联网阵营会围绕脱颖而出的LLM厂商进行重新站队重组——例如,假设苹果自己做不出来,你说他是拥抱微软还是拥抱Google呢?

新时代就要来了,不要只看到AIGC内容生成,也请看看这场颠覆式的交互革命吧!

本文由@马丁的面包屑 原创发布于人人都是产品经理,未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 老哥666

    来自广东 回复