个人随笔 还在卷长文本?谷歌最新论文直接把文本干到…无限长了 最近一段时间,有关长文本能力的探讨被摆到了台面上,而就在人们比拼上下文窗口时,谷歌发布了一篇论文,谈到团队发明了一种新的注意力技术,这项技术可以让transformer大模型在有限的计算资源条件下处理无限长度的输入。 硅星人 Transformer谷歌长文本
分析评测 支持20万字的上下文的Kimi产品测评 本文深入探讨了Kimi产品的多方面性能和用户体验,提供了全面而详细的测评,引导阅读,希望对你在选择和使用Kimi产品时有所帮助。 Echo 产品论 Kimi产品测评长文本
个人随笔 清华学霸引爆“长文本”大战,大模型的应用前景清晰了吗? 生成式AI过去一年群雄逐鹿,大家都在卷参数卷表达,但Kimi的入局,让大家好像突然找到了方向——原来“长文本”才是大家需要的。于是各个大模型都开始卷入长文本大战,但方向对了吗?且看作者的分析。 智能相对论 AI应用KimiLLM
个人随笔 真假“长文本”,国产大模型混战 最近一段时间,Kimi实在是太火了,A股和大模型圈都在讨论,连带着大厂也加入了“长文本”的混战。大模型应用千千万,为什么是长文本能率先掀起波澜?基于长文本的特性,又能解决哪些AI应用落地的实际问题呢?本文尝试解答这些问题。 光锥智能 Kimi大模型长文本