"DeepSeek"相关的文章
AI,个人随笔
杨植麟交卷,Kimi 万亿参数K2开源:Agent能力紧逼Anthropic,延展DeepSeek,上手实测如何?

杨植麟交卷,Kimi 万亿参数K2开源:Agent能力紧逼Anthropic,延展DeepSeek,上手实测如何?

11日,月之暗面团队在杨植麟的带领下,悄然开源了万亿参数规模的Kimi K2模型,这一举动无疑在AI界投下了一颗重磅炸弹。Kimi K2不仅在参数规模上达到了惊人的1万亿,更在智能体任务(agentic tasks)上进行了专门优化,其Agent能力紧逼行业领先的Anthropic,甚至在某些基准测试中超越了其他开源模型。本文将深入剖析Kimi K2的核心技术、性能表现以及它在实际应用中的表现,同时探讨这一开源模型对AI行业未来发展的深远影响。
AI
当DeepSeek都认为“DeepSeek向王一博道歉”了

当DeepSeek都认为“DeepSeek向王一博道歉”了

近日,一则关于“DeepSeek向王一博道歉”的消息在网络上引发热议,甚至冲上了热搜前三。然而,经过调查发现,DeepSeek从未发布过这样的声明,这其实是一场由谣言引发的闹剧。然而,当多个AI大模型被问及此事时,大部分都“确认”了这个根本不存在的道歉。这一现象不仅暴露了AI在信息真实性判断上的漏洞,也引发了人们对AI生成内容背后逻辑的深刻思考。本文将深入剖析这一事件背后的真相,探讨AI产品在信息传播中的责任,以及如何避免类似的谣言再次发生。
AI
2025年高考数学:Gemini 145分/DeepSeek 143分/ChatGPT 140分/Claude 139分

2025年高考数学:Gemini 145分/DeepSeek 143分/ChatGPT 140分/Claude 139分

今年高考已经结束,如果是AI来测试,结果会怎样?我们用四款AI模型展开了一场精彩的较量。Gemini 2.5 Pro以145分的高分领跑,DeepSeek R1紧随其后获得143分,ChatGPT o3和Claude Opus 4分别拿下140分和139分。这场评测不仅考验了AI模型的解题能力,还深入探究了它们的逻辑推理、指令遵从和用户体验。