AI人工智能 Transformer神经网络:GPT等AI大模型的基石 Transformer模型基于自注意力机制,摒弃了传统的RNN和CNN结构,在自然语言处理任务中取得了显著的成果,一定程度上是GPT的重要基石。这篇文章里,作者就对Transformer神经网络做了解读,一起来看一下。 AI小当家 GPTTransformer大模型
业界动态 解析:OpenAI今天刷屏的Sora模型,是如何做到这么强的? 今天发布的Sora模型刷屏了。这个目前看最强的文生视频大模型,效果貌似比我们想象的更强,连周鸿祎和马斯克都出来发声了。至于为什么这么强,本文已经做了简单的分析,希望能帮到大家。 知危 OpenAISora大模型
个人随笔 甲辰龙年,中国科技十大趋势 龙年春节很快就要到了,在接下来的一年中,国内科技行业可能会出现哪些变化或趋势?这篇文章里,作者梳理了10大趋势,或许可以帮我们拓宽对科技行业的观察视野,一起来看。 脑极体 AI原生应用XR大模型
个人随笔 大模型标注:你看不上的数据标注正在成为高薪工作 大模型的出现激发出了不少新兴岗位,也让越来越多岗位备受人关注。数据标注这个岗位就是其中之一。想了解更多有关数据标注、大模型标注的同学,或许可以看看这篇文章。 杰运思维 大模型岗位数据标注
个人随笔 人工智能的人工部分—数据标注(下) 大模型背后,大多需要数据标注甚至人工标注的支持,那么,怎么理解数据标注呢?这篇文章里,作者主要从业务角度出发,介绍标注规则的细则构建、标注团队培养与管理的具体方法,一起来看。 杰运思维 人工智能人工标注大模型
产品设计 基于开源框架快速搭建基于RAG架构的医疗AI问答系统 LLM大语言模型的出现,让许多系统或产品都有了更大的构建空间。这篇文章里,作者就介绍了自己基于主流的RAG架构搭建一个医学智能问答系统的过程,一起来看看本文的梳理和解读。 Leo RAG医疗智能问答系统大模型
个人随笔 大语言模型底层逻辑:深度学习架构、训练机制与应用场景 大模型正在与我们的生活形成愈发紧密的联系,那么,我们怎么理解大模型背后的底层逻辑?不妨来看看本文的拆解。 火粒产品 大模型应用场景深度学习
AI人工智能 (一文读懂)大模型到底是怎么生成文字的? 大模型这个热门话题在过去一年里引发了大量讨论,那么,你是否知晓大模型究竟是怎么生成文字的?这篇文章里,作者尝试讲透其生成原理,并带你了解四种构建AI应用的大模型技术架构,一起来看看吧。 柳星聊产品 PromptRAG大模型
AI人工智能 训练集、验证集、测试集和而不同,国内数据集又是怎样光景? 在AI的世界中,有关数据集的“故事”有很多,这篇文章里,作者就继续讲述有关AI数据集的那些原理,梳理了训练集、验证集、测试集的区别和联系,以及目前国内数据集的现状、挑战和应对之策。想弄懂AI数据集的同学,不妨来看看这篇文章。 果酿 大模型数据集测试集
个人随笔 预见2024:大模型成长进入关键期,探究AI背后的算力需求 各行各业都对大模型保持着高度关注,而在这股大模型浪潮背后,算力需求无处不在,算力问题也成为了未来大模型行业需面临的发展挑战之一。一起来看看本文的解读。 科技旋涡 ai大模型算力
个人随笔 生成式大模型的远水,解不了智能手机厂商的近渴 越来越多手机厂商在智能手机中嵌入了大模型,而大模型的加入,一定程度上也提升了产品部分的“智能属性”,只是,生成式大模型真的可以成为智能手机市场的新动能吗?这篇文章里,作者提出了他的看法,一起来看一下。 邻章 大模型手机厂商智能手机
个人随笔 美国计划禁止云计算厂商为中国训练AI大模型,我的一点看法 大家都知道大模型的发展需要很高的算力,就算是ChatGPT,也是从1.0到2.0到3.0到3.5这样的路径过来的,其中每次迭代所需要的算力都是庞大的数量。而现在的情况下,大模型需要进一步发展,所需要的算力更是恐怖。 互联网怪盗团 云计算大模型大模型领域