豆包吃到了大模型PC端的螃蟹?

1 评论 354 浏览 0 收藏 6 分钟

现在的产品,基本上都是做个APP或者小程序就可以了。但是最近发布的豆包却反其道而行之,做起了PC端。一款AI产品做PC端,是基于什么样的考虑?

大模型的价格战方才平息没多久,市场上立马就有新动向涌现。

据悉,字节跳动的AI助手豆包已然正式推出了PC客户端,这其实不是什么新鲜事了。实际上,只要对大模型应用稍有密切关注就会知晓,早在上个月的更新里,除了能通过传统的Web端访问,用户已然能通过桌面客户端和浏览器插件来使用豆包了。

有意思的是,此前5月14日,OpenAI在其首次春季新品发布会上,推出了首个多模态生成模型GPT-4o,还同步推出了桌面App。

当下,能以桌面端形式独立运行的AI助手属于凤毛麟角,可国内外却几乎同时出现大模型厂商布局客户端的消息,这不免是一种默契。

从字节的豆包到OpenAI的ChatGPT,这些AI大模型厂商像是约好了一样,齐刷刷地拓展产品线,尤其是朝着桌面客户端的转移,无疑是极为显著的战略调整。

这一系列举动不单单是技术的自然推进,更多的是对市场需求和用户习惯的深度洞悉与体现。

就拿ChatGPT的桌面客户端来说,对比网页版,其在使用上明显更便捷、更自然。桌面客户端能够与电脑深度融合,直接获取电脑正在浏览的网页与文件内容、正在处理的办公内容,进而针对这些来解答问题。通过客户端应用,ChatGPT还能实现实时交流协助代码阅读,指导用户进行代码修改。而字节的豆包AI推出的桌面客户端,不仅整合了豆包的诸多核心功能,还通过与本地操作系统的深度融合,实现了在桌面任意应用中使用AI划词、AI启动器、常驻桌面等功能。

这二者绝非只是简单地把应用功能进行打包。

从上述情形能明显看出,相较于网页版,桌面应用通常能提供更稳定且丰富的交互体验。比如说,它们能更好地整合操作系统层级的功能,如通知推送和后台运行,而且在处理大量数据时效率更高。对于那些依赖深度交互和长时间操作的AI服务来说,这种优化至关重要。

这一转变或许凸显了AI服务商对效率办公市场的高度觊觎。

随着AI技术的日益成熟和应用领域的不断拓展,越来越多的人开始寻求集成这类工具以提升效率。桌面客户端相比网页应用,在效率办公方面显然更具优势。

这或许将成为开启大模型C端商业化的关键之钥。

在当前国内大模型商业化的阶段,于B端市场,多数企业仍以诸如按时间段收费、按API接口调用量收费以及各种包含硬件的交付项目等方式为主。C端市场中应用的收费模式,主要围绕产出内容收费、订阅/会员制付费等,但成熟的收费产品少之又少,多数C端产品依然是免费模式。

即便大厂实力超群,也不得不考虑商业化问题,而桌面客户端这种具有效率工具属性的产品能够有力强化大模型的C端商业化。

然而,这一趋势也带来了一些挑战与反思,比如隐私和数据安全问题。桌面客户端可能会让用户数据更易被本地化存储和处理,这虽然能提升响应速度和效率,但同时也需要更严格的安全措施来确保用户信息不被泄露。

总之,AI厂商纷纷推出桌面客户端,这是对当下市场发展趋势的积极响应,或许,桌面客户端即将成为下一个大模型的战场。

作者:樟稻,编辑:伊页

来源公众号:科技新知(ID:kejixinzhi),洞察技术变化背后的产业变迁。

本文由人人都是产品经理合作媒体 @科技新知 授权发布,未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 确实好用

    来自浙江 回复