当硅谷仍在为GPU万卡集群豪掷千亿资金时✿★ღ◈,来自杭州的一群年轻人用557.6万美元证明✿★ღ◈:AI大模型的比拼或许并不只靠规模✿★ღ◈,而是要看使用效率✿★ღ◈。只要技术实力足够强✿★ღ◈,一款上架不足半个月的App也能击败ChatGPT✿★ღ◈,在1月27日登顶苹果应用商店排行榜✿★ღ◈。
这几天✿★ღ◈,AI圈最火的大语言模型✿★ღ◈,不是ChatGPT✿★ღ◈,不是文心一言快播太平洋定制版✿★ღ◈,甚至不是国内“AI六小虎”中的任意一个✿★ღ◈,而是杭州AI公司深度求索所推出的DeepSeek✿★ღ◈。从去年12月26日发布的DeepSeek-V3✿★ღ◈,到1月20日发布的DeepSeek-R1✿★ღ◈,这家公司以OpenAI三十分之一的API价格快播太平洋定制版✿★ღ◈,实现了在多项测试中表现持平甚至超越OpenAI的o1模型(下称o1模型)的成绩✿★ღ◈,给美国AI行业人士带来了中国大模型“花小钱办大事”的冲击✿★ღ◈。
新京报贝壳财经记者对此进行了实测✿★ღ◈,经过同题问答发现✿★ღ◈,DeepSeek-R1的“深度思考”模式以步步推理的方式生成了具有逻辑性的回答✿★ღ◈,用户还能看到思考过程✿★ღ◈。
“这种惊喜和第一次用ChatGPT3.5差不多✿★ღ◈,甚至感觉更震撼✿★ღ◈。ChatGPT写套路性很强的应用文很好用✿★ღ◈,但一旦涉及高语境✿★ღ◈,调侃✿★ღ◈,讽刺✿★ღ◈,就有浓浓的AI味✿★ღ◈,没有幽默感✿★ღ◈。DeepSeek对高语境内容和中文网络上的梗都能理解明白✿★ღ◈,内容基本达到了脱口秀文本的水平凯发k8国际✿★ღ◈。”1月27日✿★ღ◈,IT从业者刘鸿博告诉贝壳财经记者✿★ღ◈。
“你能想象一个筹集了10亿美元的‘前沿’实验室✿★ღ◈,现在却因为比不过DeepSeek而无法发布最新的模型吗?”DeepSeek-R1面世后的第二天✿★ღ◈,知名文生图大模型Stable Diffusion创始人Emad就对硅谷同行们发出了这样的“灵魂拷问”✿★ღ◈。
过去几天✿★ღ◈,面对“横空出世”的DeepSeek✿★ღ◈,不止一名美国AI从业者开始在社交平台抒发自己内心深处受到的震撼✿★ღ◈。OpenAI等美国大模型公司一直通过性能领先筑起自己的“护城河”✿★ღ◈,以此抵御低价竞争者✿★ღ◈,但面对一款成本仅为“零头”但性能同样优秀的大模型✿★ღ◈,许多人发现这一叙事已经无法阻止用户“用脚投票”✿★ღ◈。
北京时间1月27日✿★ღ◈,DeepSeek在苹果App Store美国区免费应用下载榜上超越ChatGPT✿★ღ◈,排名第一✿★ღ◈,在中国区排行榜上同样登顶✿★ღ◈。此外✿★ღ◈,DeepSeek在App Store英国区免费应用下载榜的排名升至第二✿★ღ◈,仅次于ChatGPT✿★ღ◈,而该App在1月15日才刚刚发布✿★ღ◈。DeepSeek的出圈如同“TikTok难民”涌入小红书一样✿★ღ◈,先由国外用户发起✿★ღ◈。不少用户在社交平台晒出了自己使用DeepSeek的心得✿★ღ◈,认为这个应用“非常酷”✿★ღ◈。
根据DeepSeek官方公布的性能测试✿★ღ◈,该大模型在数学测试✿★ღ◈、编程等多个领域与o1模型表现“旗鼓相当”✿★ღ◈,其中MATH-500(评估大模型数学能力)✿★ღ◈、SWE-bench Verified(评估大模型的软件工程能力)✿★ღ◈、美国数学邀请赛的测试分数还超过了o1模型✿★ღ◈。新京报贝壳财经记者测试发现✿★ღ◈,对于普通的问答问题✿★ღ◈,DeepSeek的表现同样可圈可点✿★ღ◈,尤其是自带的“深度思考”模式可以让用户清晰了解到其思考过程✿★ღ◈。
除此之外✿★ღ◈,DeepSeek的训练成本还更低✿★ღ◈,根据其公布的技术文档✿★ღ◈,DeepSeek-V3模型的训练成本为557.6万美元✿★ღ◈,训练使用的是算力受到限制的英伟达H800 GPU集群✿★ღ◈。相比之下✿★ღ◈,同样是开源模型的Meta旗下Llama3.1 405B模型的训练成本超过6000万美元✿★ღ◈,而OpenAI的GPT-4o模型的训练成本为1亿美元✿★ღ◈,且使用的是性能更加优异的英伟达H100 GPU集群✿★ღ◈。
虽然DeepSeek-R1模型的训练成本并未公开✿★ღ◈,但从其API价格上也可以感受到“便宜”二字✿★ღ◈,它的定价甚至连OpenAI定价的零头都不到✿★ღ◈。DeepSeek-R1的API服务定价为每百万输入tokens1元(缓存命中)/ 4元(缓存未命中)✿★ღ◈,每百万输出tokens16元✿★ღ◈,而o1模型上述三项服务的定价分别为55元✿★ღ◈、110元✿★ღ◈、438元✿★ღ◈。
事实上✿★ღ◈,价格便宜早在这次“出圈”前就是DeepSeek的标签✿★ღ◈。去年年中✿★ღ◈,国内AI大模型大打“价格战”时✿★ღ◈,第一个“挑起战火”的正是DeepSeek发布的第二代MoE大模型✿★ღ◈,但由于彼时DeepSeek并不属于“AI六小虎”之一✿★ღ◈,其降价声势很快被紧跟其后宣布降价的阿里云✿★ღ◈、百度✿★ღ◈、科大讯飞等大厂盖过✿★ღ◈。
现在✿★ღ◈,“小透明”不再低调✿★ღ◈,因为除了价格优势外✿★ღ◈,其还有足以比肩o1的性能✿★ღ◈。1月27日✿★ღ◈,社交平台认证为“AI投资机构Menlo Ventures负责人”的Deedy对比谷歌Gemini和DeepSeek-R1后表示✿★ღ◈,DeepSeek-R1更便宜✿★ღ◈、上下文更长✿★ღ◈、推理性能更佳✿★ღ◈。
这可能带来更加深远的影响✿★ღ◈,一位Meta工程师称其内部因DeepSeek进入“恐慌模式”✿★ღ◈,Scale AI创始人Alexander Wang评价DeepSeek是“中国科技界带给美国的苦涩教训”✿★ღ◈,证明“低成本✿★ღ◈、高效率”的研发模式可能颠覆硅谷巨头的高投入路径✿★ღ◈。社交平台认证为“风险投资人”的ShortBear评论称✿★ღ◈,“DeepSeek的兴起对那些商业模式为销售大量GPU(英伟达)或购买大量GPU(OpenAI✿★ღ◈、微软✿★ღ◈、谷歌)的公司都形成了挑战✿★ღ◈。”
截至北京时间1月27日下午2:54分✿★ღ◈,英伟达夜盘大跌7.17%凯发k8国际✿★ღ◈,✿★ღ◈。而前一个交易日(上周五1月24日)收盘下跌3.12%✿★ღ◈,报收142.62美元/股✿★ღ◈,市值蒸发超千亿美元✿★ღ◈。
在联网搜索功能方面✿★ღ◈,记者向DeepSeek的APP应用输入提示词“帮我整理本周内AI行业发生的大事✿★ღ◈,并列出一个事件表”✿★ღ◈,DeepSeek很快搜索到了48个网页并开始通过深度思考模式“自言自语”✿★ღ◈,包括“本周应该是2025年1月20日到26日”✿★ღ◈、“网页9是2024年✿★ღ◈,应该排除”✿★ღ◈、“需要整合这些信息凯发k8国际✿★ღ◈,排除重复”✿★ღ◈、“星门计划在网页5和6都有提及✿★ღ◈,日期是1月24日?需要确认”等✿★ღ◈。
最终✿★ღ◈,DeepSeek输出了一个从1月20日至26日的事件表✿★ღ◈。记者对比发现✿★ღ◈,虽然生成的内容依然会受到抓取网页内容错误的影响✿★ღ◈,但在思考过程中✿★ღ◈,DeepSeek通过对照冲突的网页内容排除掉了一些“错误答案”✿★ღ◈,且思考过程清晰可见✿★ღ◈,包括哪两个事件的时间需要确定✿★ღ◈,哪个事件需要仔细核对等✿★ღ◈。相比之下✿★ღ◈,另外一些大模型甚至将2024年的结果列入了回答之中✿★ღ◈。
日常使用AI进行工作✿★ღ◈,还拥有自己形象数字人的恺一告诉贝壳财经记者✿★ღ◈,她在与DeepSeek的对话中发现✿★ღ◈,该大模型工具对生辰八字✿★ღ◈、奇门遁甲等中国古代文化“样样在行”✿★ღ◈,更关键的是它展现了思考问题的过程✿★ღ◈,从该过程来看可以感受到“非常专业”✿★ღ◈。
事实上✿★ღ◈,DeepSeek在回答生成过程中展现出的思考过程给不少用户带来了震撼✿★ღ◈,认为该思考过程甚至比答案还有价值✿★ღ◈。
贝壳财经记者直接咨询DeepSeek“为什么你的性能如此优秀✿★ღ◈,给我一个理由”时✿★ღ◈,DeepSeek的思考过程可谓“滴水不漏”✿★ღ◈,它首先拆分了问题凯发国际app首页✿★ღ◈,✿★ღ◈,将“性能优秀”拆分为响应速度✿★ღ◈、处理复杂问题能力✿★ღ◈、多语言支持等多方面✿★ღ◈,还颇有情商地考虑到了“用户可能希望了解技术细节✿★ღ◈,但又不想过于专业化的解释✿★ღ◈,要考虑用户背景是不是技术人员”“在回答结构上要首先感谢用户的认可”✿★ღ◈,另外它还考虑到了“要遵守隐私和安全规范✿★ღ◈,不泄露内部技术细节”✿★ღ◈。
多名采访对象告诉贝壳财经记者✿★ღ◈,DeepSeek对一些问题的回复质量超过了o1模型✿★ღ◈,记者通过测试发现凯发k8国际✿★ღ◈,DeepSeek确实熟悉中外互联网上的各种“梗”✿★ღ◈。
恺一表示✿★ღ◈,当前市面上有不少结合付费场景的App✿★ღ◈,其内在原理就是把AI大模型嵌入软件中✿★ღ◈,再进行微调✿★ღ◈。DeepSeek出现后✿★ღ◈,由于其开源性质✿★ღ◈,这些产品的发展空间应该会更大✿★ღ◈。
为什么DeepSeek能够以较低的价格训练出性能比肩o1的大模型?根据其公布的技术文档✿★ღ◈,DeepSeek-R1-Zero通过单纯的强化学习(RL)训练实现推理能力✿★ღ◈,无需监督微调(SFT)✿★ღ◈,打破了传统依赖预设思维链的范式✿★ღ◈。
据了解✿★ღ◈,以往模型需要花费大量精力在监督微调上✿★ღ◈,即使用大量已标注数据对AI模型进行进一步训练✿★ღ◈,这些数据包含了问题✿★ღ◈、对应“标准答案”✿★ღ◈、思考步骤范例✿★ღ◈,大模型正是靠着这些模仿人类思维的方式✿★ღ◈,才得以提升推理能力✿★ღ◈。
这一路径让AI大模型越来越聪明的同时✿★ღ◈,也带来了另一个问题✿★ღ◈:如果大模型足够“聪明”✿★ღ◈,可能产生奖励欺骗问题✿★ღ◈,即利用奖励函数中的漏洞和模糊性来获取高奖励✿★ღ◈,好像一个作弊技术越来越高超的考生快播太平洋定制版✿★ღ◈,却未能真正完成预期任务✿★ღ◈。
而DeepSeek摒弃了监督微调✿★ღ◈,单纯依靠准确性奖励训练模型✿★ღ◈,且奖励规则极其简单✿★ღ◈。直接让模型生成答案✿★ღ◈,然后打分✿★ღ◈,再根据高分逻辑更新模型✿★ღ◈。由于省去了监督微调中复杂的奖惩模式✿★ღ◈,计算资源的需求得以大幅减少✿★ღ◈。
DeepSeek在技术文档中透露✿★ღ◈,在DeepSeek-R1-Zero的训练过程中✿★ღ◈,观察到了一个特别引人注目的现象——“顿悟时刻”✿★ღ◈。这一现象发生在模型的某个中间版本中✿★ღ◈,在这一阶段✿★ღ◈,DeepSeek-R1-Zero学会了通过重新评估其初步方法来为问题分配更多的思考时间✿★ღ◈。这种行为不仅证明了模型推理能力的增强✿★ღ◈,而且也是强化学习能够带来意外收获的最好例子凯发官网入口首页✿★ღ◈。✿★ღ◈。
具体来看✿★ღ◈,在处理一个复杂的数学问题时✿★ღ◈,模型突然停下来说Wait, wait. Wait. Thats an aha moment I can flag here(等等✿★ღ◈、等等✿★ღ◈、等等✿★ღ◈,这是个值得我记录的‘啊哈’时刻)✿★ღ◈,随后重新审视了整个解题过程✿★ღ◈。
DeepSeek技术文档截图✿★ღ◈,图中红字为大模型自发的感慨✿★ღ◈:“等等✿★ღ◈、等等✿★ღ◈、等等✿★ღ◈,这是一个值得我记录的时刻”✿★ღ◈。来源✿★ღ◈:DeepSeek官网
DeepSeek在技术文档中表示✿★ღ◈,这一刻不仅对模型来说是“顿悟时刻”✿★ღ◈,对观察其行为的研究人员来说也是如此凯发k8国际✿★ღ◈。它强调了强化学习的力量和魅力✿★ღ◈:我们不必明确教导模型如何解决问题✿★ღ◈,只需为其提供正确的激励✿★ღ◈,它就会自主地开发出高级的问题解决策略✿★ღ◈。“顿悟时刻”有力地提醒了我们快播太平洋定制版✿★ღ◈,强化学习具有解锁人工智能系统中新层次智能的潜力✿★ღ◈,为未来更自主和自适应的模型铺平道路✿★ღ◈。
不少硅谷研究人员认为✿★ღ◈,这一“顿悟”时刻对AI发展意义重大✿★ღ◈,如社交平台认证为“GEAR Lab联合创始人✿★ღ◈、OpenAI第一名实习生”的Jim Fan表示✿★ღ◈,DeepSeek-R1避免使用任何容易破解的学习奖励模型✿★ღ◈。这使得模型产生了自我反思与探索行为的涌现快播太平洋定制版✿★ღ◈。
此外✿★ღ◈,DeepSeek还是一款开源大模型✿★ღ◈,DeepSeek方面表示凯发k8国际凯发k8国际✿★ღ◈,“为了进一步促进技术的开源和共享✿★ღ◈,我们决定允许用户利用模型输出✿★ღ◈、通过模型蒸馏等方式训练其他模型✿★ღ◈。”这意味着所有人都可以通过下载和微调该大模型从中获益✿★ღ◈。国外的开发者论坛上甚至有人发起了“将DeepSeek模型装进个人电脑”的挑战✿★ღ◈。
值得注意的是✿★ღ◈,DeepSeek团队由清华大学✿★ღ◈、北京大学应届生和实习生主导✿★ღ◈,平均年龄不足26岁✿★ღ◈。一些关于模型的技术革新如MLA(多头潜在注意力)架构的灵感源自一名博士生的“突发奇想”✿★ღ◈,而GRPO强化学习算法的突破则由3名实习生完成✿★ღ◈。创始人梁文锋在2023年5月刚刚宣布进场大模型领域时曾在接受媒体采访称✿★ღ◈,“招聘看能力✿★ღ◈,而不是看经验✿★ღ◈。我们的核心技术岗位✿★ღ◈,基本以应届和毕业一两年的人为主✿★ღ◈。”“不做前置岗位分工✿★ღ◈,而是自然分工✿★ღ◈,每个人可以随时调用训练集群✿★ღ◈,只要几个人都有兴趣就可以开始一个项目✿★ღ◈。”这种“自下而上”的创新文化✿★ღ◈,与OpenAI早期如出一辙✿★ღ◈。
“我们正处在一个时间线上✿★ღ◈,一家非美国公司正在延续OpenAI的原始使命——真正开放✿★ღ◈、前沿的研究✿★ღ◈,赋能所有人✿★ღ◈。”Jim Fan表示✿★ღ◈。
面壁智能首席科学家刘知远在朋友圈发文称✿★ღ◈,“DeepSeek最近出圈✿★ღ◈,特别好地证明了我们的竞争优势所在✿★ღ◈,就是通过有限资源的极致高效利用✿★ღ◈,实现以少胜多✿★ღ◈。2024年很多人来问我✿★ღ◈,中国跟美国的AI差距是扩大了还是缩小了✿★ღ◈,我说明显缩小了✿★ღ◈,但能感受到大部分人还不太信服✿★ღ◈,现在DeepSeek等用实例让大家看到了这点✿★ღ◈,非常赞✿★ღ◈。”
“AGI新技术还在加速演进✿★ღ◈,未来发展路径还不明确✿★ღ◈。我们仍在追赶的阶段✿★ღ◈,已经不是望尘莫及✿★ღ◈,但也只能说尚可望其项背✿★ღ◈,在别人已经探索出的路上跟随快跑还是相对容易的✿★ღ◈。接下来我们要独立面对一团未来迷雾✿★ღ◈,如何先人一步探出新路✿★ღ◈,是更加困难和挑战的事✿★ღ◈,需要我们更加百倍投入✿★ღ◈、百倍努力✿★ღ◈。”刘知远说✿★ღ◈。