个人随笔 搞AI的是真没钱了 MoE 架构,即混合专家架构,是神经网络的一种架构模式。先前,有关MoE 架构的认知和讨论并不算多,但当MoE 架构可以作为一种降低运营成本、提升训练效率的架构时,它便成了大模型公司的关注重点之一。 虎嗅 AI公司MoE小模型
AI 异军突起的小模型,有多大想象空间? 小模型的出现,为市场打开了新的可能。而这或许就意味着新的增量市场的出现。那么,小模型究竟会给我们带来怎样的想象空间?未来在小模型领域,怎样的企业更有可能胜出?一起来看看作者的解答。 世界模型工场 Agent大模型小模型