行业分类:
加载中...
头条分类:
加载中...
滴滴五一出行预测发布:这些城市打车最难,自驾游“黑马”曝光
凤凰网科技讯(作者/于雷)4月28日,滴滴出行宣布启动“五一”出行保障计划,投入超4亿元资源同步激活司机端与用户端市场。滴滴出行预测,4月30日15时起全国将迎出行高峰,17-19时单量预计较平日激增55%。 同比去年节前,杭州、南京、重庆将成为当天滴滴快车预约涨幅前三的城市。除一线及新一线城市的机场、火车站外,大理站、厦门高崎国际机场、海口美兰国际机场将成今年“五一”热门场站。 今年“五一”,预计桂林、珠海、哈尔滨等将成为打车热门城市,景德镇、孝感、秦皇岛、上饶、忻州等黑马城市打车需求涨幅突出。 滴滴包车预测,假期订单较节前增长304%,最受欢迎的包车游目的地为上海、北京、成都、广州和杭州,单量增幅最高的城市为西安、佛山、湛江和大理。 “五一”跨城出游多,滴滴站点巴士需求预计相比节前上涨130%,5月5日将达到出行高峰。大理-昆明、西双版纳景洪-中科植物园、上饶-婺源/望仙谷/江岭等旅游线路,及广西南宁高校线路增幅将超过150%。 “五一”滴滴租车需求将达清明假期的2到3倍,长线游需求带动下,预订单中约65%为异地租车需求。今年“五一”假期“西”引力十足,成都、乌鲁木齐、贵阳、昆明、伊犁成为异地滴滴租车预定前五城市,云贵川地区吸引了全国近五分之一的租车旅客,成假期“自驾顶流”。滴滴加油预测,假期成都、青岛、深圳、重庆、天津等热门旅游城市的加油需求将显著上涨。 滴滴司机端在五一期间推出“收益倍增计划”,通过流水加速卡(1分钱起购)、免佣卡、峰期服务金等12项激励措施,配合小队PK赛、抽奖活动等社交玩法,预计司机日均收益可提升20%-35%。值得关注的是,平台在杭州、南京等8个城市试点“节假日服务金”机制,高峰时段司机收入上浮最高达40%。 用户端优惠覆盖98个城市,上海、长沙等城市开放每日6折打车券限量申领,厦门、大连推出5折秒杀通道。特别设立的“跨城出行专区”显示,包车订单量较节前暴涨304%,异地租车需求激增2-3倍,成都、乌鲁木齐等5城包车订单量占全国总量近三成。 智能调度系统应对出行潮汐,平台提前72小时完成动态运力调配,重点保障大理站、厦门高崎国际机场等15个热门场站。行程卫士2.0版本上线6大权益保障,包括实时定位纠偏、车费异常监测、迟到必赔等,系统已拦截不合理收费327起,平均退款时效缩短至8分钟。 值得关注的是,充电网络同步扩容,4月30日12-13时将开放全国2.3万个充电桩,较日常增加47%服务能力。安全数据显示,平台安全预警系统已拦截疲劳驾驶风险单次,通过亲友守护功能分享行程的用户量同比提升120%。 滴滴出行表示,本次假期将投入2000名客服专员及AI坐席,确保15秒内响应率超95%。建议用户提前通过App查看实时路况,司机师傅需注意云南、广西等热门线路的限行政策,平台已为违规行为建立“一票否决”机制。
梁文锋的秘密武器:DeepSeek R2或5月问世,成本仅GPT-4o的2.7%?
凤凰网科技 出品 作者|姜凡 编辑|董雨晴 五月将至,中美科技巨头或将迎来新一轮巅峰对决。 先是在4月中旬,OpenAI一口气发布了GPT-4.1 o3、o4 mini系列模型;谷歌则拿出了Gemini 2.5 Flash Preview,一个混合推理模型;与谷歌同一天,豆包在杭州巡展中正式发布了1.5·深度思考模型,在多模态上展现出了更强的实力。凤凰网科技从行业人士处了解到,阿里的下一代大模型Qwen3也将于本月内发布。 混战之下,那股“神秘的东方力量”似乎也在悄悄准备着新的发布。 敏感的神经之下,一点蛛丝马迹都会被放大。昨日,全球最大AI开源社区Hugging Face首席执行官Clément Delangue在社交平台发布了一条耐人寻味的动态。这条动态仅由三个眼睛的表情符号构成,并附上了DeepSeek团队在Hugging Face平台的官方资源库入口。 这组充满悬念的组合引发科技圈热议,业内普遍推测DeepSeek R2模型已进入发布倒计时。 DeepSeek R2发布已进入倒计时? 近半个月来,有关“DeepSeek全新模型R2即将问世”的传闻持续发酵。除HuggingFace首席执行官Clément Delangue发布动态外,玩家@deedydas也在社交平台贴出了所谓DeepSeek-R2大模型的详细技术参数。 1、拥有 1.2万亿参数,活跃参数为 780亿,采用混合 MoE架构 2、成本比 GPT-4o便宜 97.3%(输入每百万次 0.07美元,输出每百万次 0.27美元) 3、使用了 5.2PB的训练数据,在 C-Eval2.0测试中取得了 89.7%的得分 4、视觉能力更强,在 COCO测试集上达到了 92.4% 凤凰网科技就以上消息向DeepSeek方面发去询问,对方表示不予回应。有接近DeepSeek的知情人士对凤凰网科技表示,目前网上盛传的消息,真实性含量非常低。 但结合DeepSeek的产品迭代规律与产业链动态,其五月有望发布新品的传闻却并非空穴来风。 据《中国企业家》报道,过去DeepSeek创始人梁文锋率领的AI团队始终保持着与国际巨头同频的产品迭代节奏——2024年9月推出V2.5版本,12月发布V3基础架构,次年3月即升级至V3-0324版本,形成每季度重大更新的开发范式。这种紧扣行业脉搏的研发策略,使得业界普遍预测其下一代主力模型R2或将延续“五一档”发布传统。 路透社此前披露的研发动向印证了这种猜测:DeepSeek正在加快R1模型的后续产品R2的研发和发布进程,原计划在5月初发布,但公司现在希望能够尽早推出 。 更值得关注的是技术演进方向,此前也有业内人士推测,DeepSeek-R2模型预计将在代码生成和除英语外的更多语种推理能力方面有不小的提升。 这一预期并非无中生有——今年三月发布的V3-0324版本已展现惊人实力,根据Artificial Analysis Intelligence Index最新评测,该模型已经成为得分最高的非推理模型。在基准测试中力压Google Gemini 2.0 Pro、Anthropic Claude 3.7Sonnet及Meta Llama 3.3 70B等顶尖模型。 这种技术积淀与迭代速度,使得R2尚未发布便已承载全球AI界的较高期待。无论前述传闻最终是否成真,可以预见的是,当这款新模型正式亮相时,或将改写新一轮全球算法与算力生态格局。 该梁文锋出场了 在国产AI大模型赛道暗流涌动的当下,DeepSeek创始人梁文锋的每一步都走得很稳。他曾说过:“中国也要逐步成为创新贡献者,而不是一直搭便车。” 尽管近期DeepSeek在公众视野中保持低调,但梁文锋一直在向着DeepSeek的核心使命努力,那就是探索通用人工智能的本质。 多位接触过DeepSeek团队的人士都认为,梁文锋的志向不在服务好用户和做好产品,而是直指终极AGI。这让他在早年间试探性接触资方时,优先排除了有退出顾虑的绝大多数机构,甚至主要依托于自有资金,“梁文锋也有这个资本实力”。 一位在早期就接触过DeepSeek的机构对凤凰网科技表示,梁文峰很早就发现Chatbot产品的可替代性很强,“现在的产品都没有黏性,所以只要技术强随时可以把用户抢过来”。DeepSeek R1的发布也的确证实了这一观点。 DeepSeek的最后一次模型更新发布是在今年3月,发布了V3-0324版本,也被看作是R2的基础模型,已针对性能、用户体验和实用性进行了优化,通过6850亿参数的MoE架构升级,代码能力显著增强,又一次深度影响了全球市场。 因而5月或将发布的旗舰模型R2,也被视为影响全球AI格局的关键落子。 特别需要说明的是,这一技术攻坚的窗口期,恰逢国产芯片产业剧变。美国对英伟达H20芯片的出口禁令,直接斩断中国AI企业获取高端GPU的主渠道,倒逼华为昇腾910C、寒武纪MLUarch04等国产芯片加速填补市场空白。 清程极智的CEO汤雄超曾经告诉凤凰网科技,作为当前开源市场所能用到的最好模型,DeepSeek和最难获取的芯片一度是深度捆绑的。如此前DeepSeek开源周所呈现的,其推出了一系列针对英伟达H卡的算力优化方案。 这让梁文锋在早年间曾表达:“我们真正的挑战从来不是资金,而是高端芯片的出口禁令。” 但禁令也从未真正束缚其技术野心,“英伟达的GPU没有什么神秘之处,但要赶上他们,就必须重建团队、付出时间和成本,追赶下一代技术——这才是真正的护城河。”梁文锋表示。 多位国产算力产业从业人士也对凤凰网科技表示,当前国产生态已在加速迭代中。 本次DeepSeek新一代旗舰模型发布,也或将存在另一变量,即在推理侧深度适配国产算力。 当前,千行百业都展现出了旺盛的大模型部署需求,但正如李彦宏所言,DeepSeek最大的问题就是又慢又不稳定,如何才能获取到稳定的、便宜的满血版DeepSeek,这不仅仅是行业需要解决的问题,更需要DeepSeek官方加入其中。 值得一提的是,凤凰网科技从行业人士处了解到,DeepSeek已经正在和一些国产芯片合作,“国产芯片中有些头部的,实际上已经在和DeepSeek合作了”。 但对于合作的进展,以及R2可能满足的情况,目前尚不能得知更多细节。
亚裔AI人才的硅谷晋升之路,被一张绿卡阻断了?
习以为常的日常生活,有时候只是幻影,尤其是你的去留其实掌握在别人手中时。这就是小人物的悲哀,即便是爬到硅谷塔尖也不能幸免。 Kai Chen的“日常”在4月底崩塌,她从加拿大来到美国求学、工作已经十二年,是OpenAI的重要研究员,为GPT-4.5做出过贡献。她生活在旧金山,工作在旧金山。 但一纸“绿卡申请被拒绝”的通知,令她不得不立刻离开美国。同事的认可、公司的嘉许帮助不了她。 自从2022年底ChatGPT横空出世,世界掀起AI浪潮,这其中,美国占据主导地位。没有人可以否认,在激烈的人才争夺战之中,美国的科技巨头与明星创企是站在食物链顶端的存在。 一向有“技术夯实”名号的华裔群体,也在这股浪潮当中向上走,完美适配技术为主导的AI行业,越来越多的华裔崭露头角,在前沿研究中署名,在明星项目中露脸。过去,总有“华裔天花板”的传说——技术夯实,但不善办公室政治,导致在职场中晋升拼不过印度裔。 AI似乎打破了这个天花板。 但如今,特朗普政府紧缩移民政策,似乎又新盖了一层天花板。这天花板由达摩克利斯之剑组成,你不知道哪天,剑终将落下,在硅谷塔尖的自己就会跌落。 01 Kai Chen在美12年,一朝被踢回国 4月的一天,Kai Chen在X上转发了一个OpenAI研究者围桌讨论的视频,回忆起自己在这家公司的一个美好的记忆碎片: “我在OpenAI最喜欢的一段早期回忆之一,是dselsam路过我们正在挤在一间小会议室里,正在讨论他写的一篇文稿。他顺路进来,发表了一段我称之为布道式的讲解(因为那真是一种宗教般的体验)。” 从这条短短的帖子中,可以看出Kai Chen对OpenAI的感情。dselsam指的是Daniel Selsam,OpenAI的研究科学家,在业内颇受尊敬。 Kai Chen并非美国人,她是一名加拿大籍亚裔,从学生时代就来到美国,并一路参加工作,在美国的科技心脏——硅谷奋斗。加入最前沿的创业公司,和行业大牛一起交流,不断精进自己的技艺,Kai Chen很享受在旧金山的生活。 她本人已经深深扎根美国,拥有宾夕法尼亚大学的工程、计算机科学以及沃顿商学院理学、经济学学士学位,成为OpenAI重要的研究员之一,曾对GPT-4.5的研发做出重大贡献。 然而,Kai Chen不会想到,就在那条“忆往昔”的帖子发出后不到两周,她的生活将发生翻天覆地的变化。 噩耗传来:她的绿卡申请被拒,她不得不离开美国,而且几乎没有什么缓冲的时间。 她在这里奋斗了十二年,在这家美国初创企业也兢兢业业,但移民流程突然横插一脚,打碎这个梦,仿佛在告诉她——你不是我们中的一员。 Kai Chen很可能是H1B持有者,该签证以抽签制发放,三年之后可续签一次,总计六年。绿卡申请时可以延长在美期限。但一旦申请失败,H1B也过期,她就不可以再逗留。 这个消息经由Kai Chen的同事、OpenAI的研究员Noam Brown的爆料而迅速引起科技界愤怒。Noam称Kai Chen为“最优秀的人工智能研究员之一”,称“一个在美国生活12年的加拿大人现在不得不离开”“令人深感担忧”。另一位同事则直呼“这简直是疯了”。 值得注意的是,Kai Chen的遭遇,和东家OpenAI无关。事实上,她特别感谢了事情发生之后OpenAI的大力支持。 这更让整件事蒙上恐怖的氛围,能力突出、同事和公司认可、在美生活十多年的员工,居然要突然之间离开美国。离开得还要够快,够麻利,几乎没有喘息的机会。 02 被强行打断的亚裔晋升 Kai Chen的遭遇之所以让周围的人愤懑不已,是因为这是标准的小人物在大环境下命运沉浮的例子。她不至于被“断送未来”,但职业生涯和个人生活显然都会受到很大的影响。 放在近两年的AI背景下,这是一个非常糟糕的信号。 在美国主要的人工智能公司中,亚裔的比重非常高。谷歌2024年在美国的员工中,亚裔45.7%,已经和白人的比例相当(45.3%)甚至略有超过。Meta 2022年在美国的员工中,亚裔也已经超过白人。 这其中,又以印度裔和华裔为主(印度裔最多,华裔次之)。他们中的大部分人都并非是H1B签证持有者,或者是从H1B签证转到绿卡的。 更值得注意的是,虽然亚裔的崛起在互联网浪潮中已经开始,但是华裔往往技术夯实但不善办公室政治,普遍面临职场天花板,而印度裔的晋升显得更为顺利。这也能从美国科技巨头中印度裔高管面孔之多得到印证,如微软和谷歌的CEO都是印度裔。 AI时代的到来悄悄挪开了华裔头顶的晋升天花板。 这是一个更加技术密集型的行业,相比于做一个社交平台,不管是大模型、智能驾驶还是芯片等和AI相关的产业,都需要大量技术夯实的高端人才。他们可以用技术获得工作,也可以用技术持续晋升。 我们前面说亚裔在美国人工智能企业中的比重高,需要强调的是,他们的贡献也很高。从华裔来讲,谷歌NLP里程碑模型BERT的作者中包括华裔科学家Ming-Wei Chang,出生于广州、曾就职于麻省理工的何恺明(Kaiming He),则在Facebook AI Research任职期间发明了深度残差网络ResNet。 一个更直观的数字是,OpenAI的GPT-4贡献者中,至少有33位都是华人。 越来越多的华裔跻身高管行列,创业者中也不乏他们的身影。斯坦福大学计算机博士Ya Xu,职业生涯从谷歌实习生到微软,如今已经是谷歌DeepMind的副总裁。“AI教母”李飞飞的初创公司World Labs,去年9月融资2.3亿美元,众多AI界大牛参与投资,如杰弗里·辛顿(Geoffrey Hinton)。 就在前几天,《福布斯》报道,Scale AI的联合创始人郭露西(Lucy Guo)将超越美国歌手泰勒·斯威夫特(霉霉)成为全球最年轻的白手起家女性亿万富豪。她在离开Scale AI后先后成立小型风投公司、聊天应用Passes。 在这样热烈的行业气氛和大好的发展前景之下,年轻的精英华人研究员也在被硅谷吸纳,如去年10月,姚顺宇加入Anthropic。他是清华大学特等奖学金获得者,后在斯坦福攻读硕士。在加州伯克利做了几个月博士后,就正式加入Anthropic。同年12月,新晋华人博士(南洋理工)薛复昭,作为高级研究科学家加入谷歌DeepMind。而今年1月,哈佛华人研究员Jeffery Wang加入OpenAI。 但Kai Chen的遭遇,足以给在美国AI前线奋斗的华裔一盆冷水:在紧缩的移民政策面前,同样的“身份”,同样的挑战,没有谁能独善其身。由政治带来的不确定性横亘在每个人面前。 03 何去何从? 那么接下来,Kai Chen们该怎么办? Kai Chen自己在X上称,接下来她的计划是在温哥华租个Airbnb,先远程工作。“希望直到(混乱的)局面得到解决”。 不清楚此处的“混乱局面得到解决”指的是Kai绿卡申请的个案,还是美国移民政策紧缩对科技行业的整体冲击。 如果是后者,Kai可能有得等了。 在移民政策紧缩下,就连仍在求学的学生都不能幸免。特朗普上任之后,对学生签证身份突然展开大规模审查和撤销。截至4月中旬,全美已有超过1000名国际学生(以及部分近期毕业生)被取消签证或终止合法身份,波及全美40个州、130多所大学。 这已引发了一百多起诉讼,并导致撤销学生和交流访问者计划记录的行动暂时搁置,直至制定出明确的政策。 有些勇敢对抗的华裔暂时“脱难”。如刘晓天(Xiao-tian Liu),他是达特茅斯大学计算机系的博士生、研究助理,拥有中国国籍。4月4日,美国突然撤销了其学生签证。他从未参加过什么活动,在美国也没有过任何交通违规和犯罪记录。9日,他的F-1学生签证被暂时恢复,可以继续求学和担任研究助理的工作。 国际学生被撤销签证的事件,是特朗普上任后移民政策收紧的一个缩影。 而针对H1B工作签证,已经有不少名人公开反对,其中就包括马斯克和OpenAI的CEO奥特曼。实际上,马斯克自己就是从加拿大前往美国求学,并最初以H1B签证在美工作的活生生的例子。 特朗普对此的态度暧昧不清。一方面,移民政策紧缩是在他的主导下发生的。且在特朗普政府内部,甚至有官员主张完全废除H1B。另一方面,以马斯克为代表的科技界名人强烈反对,并且称这会使得美国丧失在人工智能上的主导地位。而他们中不乏对特朗普当选发挥作用的以及当选之后极力配合的。 因此,要等特朗普政府在整个移民政策问题上转向,突然“手松”,难度可想而知。就算是局部放松,对于还在美国求学、工作但是还未拿到“身份”的华人来说,头顶上始终会有一柄达摩克利斯之剑。 像Kai Chen一样暂时远程办公,也只是权宜之计。 马斯克等人发出“美国人工智能地位不保”的哀嚎,并非言而无据。AI浪潮席卷全球,不仅美国需要人才。事实上,美国此前的很大优势就在于其对人才的极大吸引力。当这种吸引力被风险对冲,来自“外国”的高端人才难免将眼光放在更广的范围里。 在Kai Chen的X帖子下,已经有欧洲的AI创企盛情邀请她加入,称:“在欧洲,我们非常荣幸地欢迎您这样才华横溢的研究人员。” 在中国,AI企业也都有“高端人才饥渴症”,财大气粗的大厂已经纷纷推出人才计划。 包括但不限于: 华为已经启动2025年“天才少年”计划,为顶尖人才设计"一人一策"成长路径。该计划候选人将享受项目自主立项权、500万/年的研发经费支持,以及破格晋升通道。去年该计划入选者中,已有95后研究员主导6G太赫兹通信项目攻关的案例。 阿里云招聘设置了A Star项目和AI Clouder项目,面向具备高水平论文、开源项目影响力等特质的顶尖人才。 字节跳动豆包大模型团队面向高校研究人才推出了Top Seed人才计划专项,该专项计划下设针对应届生的全职项目与针对在校生的研究实习项目。 有意思的是,大厂本身就有鲜明的案例,来吸引在美国求学、工作的尖端人才“回流”。如去年2月,Google DeepMind研究副总裁、Google Fellow吴永辉离开谷歌,加盟字节Seed。其后,其管理范围扩大,Seed在组织架构上吸收了字节AI Lab。 特朗普政府移民政策萎缩,正在给为美国人工智能行业添砖加瓦的华裔头上悬挂一把剑。但也许,人才总是会开花的,只是不再局限于某一块土壤。
中兴通讯剑指“连接+算力”领导者,2025生态大会揭秘AI新战略
凤凰网科技讯(作者/于雷)4月28日,以“数智同兴,共创未来”为主题的2025中兴通讯中国生态合作伙伴大会在福州成功举办。本次大会汇聚了逾千名行业核心客户、生态伙伴及业界领袖,共同探讨数智化时代的发展新机遇。 会上,中兴通讯发布了“成为网络连接和智能算力的领导者”的全新战略愿景,并重申了“All in AI,AI for All”的战略主张。中兴通讯总裁徐子阳在致辞中回顾了公司四十年的发展历程,指出中兴通讯将继续扮演数字经济“筑路者”和生态共赢“同行者”的角色。 中兴通讯总裁徐子阳 中兴通讯执行副总裁、首席运营官谢峻石在主题演讲中深入阐述了公司在“连接+算力”战略方向上的布局,强调全力投入AI,加速AI与ICT的融合,旨在实现算力普惠和应用普及,助力各行各业迈向数智化新时代。他提到,中兴通讯将从专业、协同、敏捷三个方面提升能力,让合作伙伴更省心、更开心、更舒心。同时,中兴通讯执行副总裁、首席技术官王喜瑜也分享了构建开放赋能、自主创新的智网生态的理念。 中兴通讯执行副总裁、首席运营官谢峻石 大会期间,中兴通讯发布了十余款创新产品与解决方案,涵盖数据中心间蒸空调、“星云智能体”、新一代高性能智算交换机等,展示了公司在基础设施到应用层面的全栈式进化成果。其中,“星云智能体”旨在解决AI大模型商业化落地的“最后一公里”难题。此外,中兴通讯还与28家战略合作伙伴签署了合作协议,并联合发布了“星云智能体”行业伙伴,进一步壮大了数字生态圈。大会还首次推出了包含AI家庭网络、AI家庭算力、AI家庭智能屏及AI家庭机器人在内的AI家庭系列产品。 中兴通讯表示,未来将秉持“客户至上,伙伴优先”的理念,与伙伴深化合作,以科技创新驱动产业升级,持续为数字经济的蓬勃发展贡献力量。
董宇辉不拧巴了,俞敏洪却被困住了
董宇辉“单飞”9个月后,与辉同行的抖音粉丝数超过了东方甄选。 截至4月26日,与辉同行的抖音粉丝数为2865万,而东方甄选抖音主账号粉丝数为2859万。 这一结果并不令人意外。自去年7月董宇辉“单飞”,东方甄选的粉丝数就陷入增长停滞甚至下滑,而与辉同行则节节攀升。第三方数据平台灰豚数据显示,过去三个月,与辉同行新增粉丝超120万,东方甄选粉丝数减少了42万。 一增一减后,双方粉丝量站在了同一水位线上。粉丝变化趋势,也折射出两家公司在过去一年里的发展轨迹。 从带货成绩上来看,新抖数据显示,2024年,与辉同行成立第一年的销售额突破百亿元,成为抖音当年带货销售额最高的直播间。而东方甄选在2025财年上半财年,即2024年6月-11月的GMV(商品交易总额)为48亿元,同比下降16.2%。 到了今年,双方在抖音带货的位次变化则更为明显。今年1-3月,辉同行稳居抖音带货月榜前五,而东方甄选连续三个月跌出带货月榜前十。 两家公司命运的走向,很大程度上也取决于两位掌舵者的态度。 很难想象一年前还在镜头前皱着眉头说抗拒直播带货的董宇辉,如今不再拧巴,卖力打造个人IP,如发单曲、上综艺等,深化自己的IP影响力。 图源:抖音@与辉同行 而俞敏洪在失去董宇辉后,始终未能找到新的流量支点。尽管尝试加码APP直播、拓展自营产品线,甚至计划发力线下门店,但粉丝增长瓶颈和GMV的疲软,暴露了这家公司对单一IP的依赖。更棘手的是,俞敏洪的决策似乎陷入了某种困境:既无法彻底转型为纯粹的MCN机构,又难以在产品端进一步形成新壁垒。 去年7月,俞敏洪在“分手信”中写到,东方甄选和与辉同行走到了“合则两败俱伤,分则两利”的局面,不得不分开。 如今,双方分开即将满一年,“两利”的局面似乎并未完全实现。 2024年7月25日,与辉同行彻底剥离东方甄选。自此,董宇辉和俞敏洪带领企业走向了不同的道路。 董宇辉成为2024年抖音最卖座的主播。 字母榜此前分析,以东方甄选2023财年100亿元GMV测算,董宇辉这一年带货金额约50亿元。2024年,董宇辉带领与辉同行完成超百亿的带货额,登顶抖音带货年榜。 进入2025年,董宇辉带货影响力依然强劲。第三方数据平台达多多显示,今年1月和3月,与辉同行两次位列抖音带货月榜第一。 董宇辉依旧有着极强的带货号召力。今年1月9日,与辉同行成立一周年当天,多个素人主播10小时带货5000万元,而董宇辉出现两个小时,直播间销售额飙升至7500万-1亿元。换言之,董宇辉两个小时至少卖出了2500万元。 2024年最后一天跨年夜,董宇辉斥资500万元办了一场音乐会直播,观看人数超过1800万,直播间带货额为5000万-7500万元。 对比之下,同一晚,东方甄选当晚仅有几位主播进行常规的带货,当天观看人数为560万,直播带货额为250万-500万元。 与辉同行仍旧是一个拥有超级IP的直播间,而失去董宇辉的东方甄选,更像是一个无个人IP特色的品牌直播间。当董宇辉带领与辉同行高歌猛进时,东方甄选陷入了失速困境。 过去一年,和与辉同行长期霸榜抖音带货月榜榜首相比,东方甄选多次跌出抖音带货月榜前十。2024年6月-11月,东方甄选的全平台GMV为48亿元,同比下降16.2%。 东方甄选正面临董宇辉走红后的首次衰退。2024年6月-11月,东方甄选持续经营业务(即自营品和直播电商)营收为21.9亿元,同比下降9.3%;净亏损为0.97亿元,而上一年同期净利润为1.6亿元。 不过身为东方甄选董事长兼CEO的俞敏洪对此比较满意,“这份业绩,是在大部分股东的预料之中的,甚至比我个人预想的数据还要好一点。” 他的底气在于为东方甄选规划了“产品+流量”的双轨战略。在产品端,俞敏洪对标山姆,计划布局东方甄选线下体验店。在流量端,俞敏洪加紧和抖音合作,挖掘更优秀的主播吸引流量。 然而,进入2025年,东方甄选的困境并未好转。 目前,线下门店计划尚未成型。俞敏洪计划将800个新东方教学点改造为会员体验店,为此,东方甄选试水智能零售柜,俞敏洪与胖东来创始人于东来会面。但是重投入、慢回报的特性,让这些举措短期内难见成效。 流量获取已成燃眉之急,东方甄选抖音直播间表现疲软。达多多数据显示,近三个月,直播间累计观看人次约为3.4亿;而与辉同行同期达到11.6亿。今年1-3月,东方甄选未进入抖音带货月榜前十,2月份更是跌出前50。 图源:抖音@东方甄选 实际上,东方甄选来自抖音的流量优势已不再明显。早在2024年6月-11月,东方甄选全部账号的抖音关注人数同比增加20万;来自抖音的订单数量同比减少16%。 当董宇辉以高歌猛进的速度成为超级头部主播时,东方甄选正面临失去头部IP后,如何续写电商故事的难题。 离开东方甄选后,董宇辉不仅要应对直播间的挑战,还要面临企业生存的课题。过去一年,董宇辉在多个层面有了自己的尝试和布局。 在公司定位方面,董宇辉选择了一条与东方甄选截然不同的路径,明确“与辉同行”为一家MCN机构。去年11月,与辉同行取得了MCN资质许可证,该证件经营范围涵盖了经营演出及经纪业务、演出票务等。这意味着董宇辉可以签约更多主播,正式转向机构化运营。 在团队管理上,董宇辉重视团队的人才培养,为素人主播提供展示平台,搭建可复制的培养体系。目前,与辉同行的8位素人主播的抖音粉丝合计突破了300万。 董宇辉推行的员工晋升机制——哪怕最初是递品员,做得好可以晋升至选品或其他岗位,尽可能激发了主播们工作的积极性。董宇辉表示,无论学历如何,只要每个人在自己岗位做好,就有机会提升。 董宇辉商业版图的扩张更为迅速。董宇辉先后成立四家公司,覆盖零售、文旅、新闻和出版业等多个领域。今年1月,其中一家公司“兰知春序”已经试水具体业务。如在抖音开设“兰知春序”店铺,销售自营品帆布袋,一经上架2.4万件就售罄了。目前,该店铺已经在抖音下架。 不过,董宇辉也面临着自己的问题,首先就是品控问题。 去年9月,职业打假人王海连续多条微博,质疑与辉同行直播间所售卖的多款产品。今年315,与辉同行直播间带货的虾仁生产商因涉嫌违规被点名,与辉同行随机启动退一赔三机制。 图源:抖音@与辉同行 问题直指直播间选品环节。王海曾向字母榜表示,从常理上看,像与辉同行这样在短时间内快速发展起来的公司,其选品能力可能还比较欠缺。 目前,与辉同行直播间仍以低价产品为主打,其核心品类食品饮料和生鲜蔬果的客单价普遍维持在50元左右。而相比高价商品,低价商品往往面临更高的品控风险。 据时代财经报道,有接近与辉同行的MCN机构人士表示,东方甄选对第三方品牌的“甄选门槛”越来越高且着重发力自营品牌。因此去年下半年开始,不少品牌商家在二者之间会更倾向于和与辉同行合作。 不同的发展路径,让两家公司面临的核心挑战不尽相同。董宇辉的首要难题是品控;而对于东方甄选来说,除了上述的流量困境,最核心的管理问题仍未得到妥善解决。 过去几年,东方甄选暴露出团队协作与沟通、舆情处理等多重问题,其中最核心的矛盾始终是主播和机构的关系。尽管俞敏洪解决了董宇辉的个案,但是多数主播的利益分配与合作模式仍未理顺,类似冲突屡屡上演。 主播顿顿是继董宇辉之后的又一位明星主播,他在抖音有着200万粉丝。去年6月,他在直播间公开表达对东方甄选的不满,如公司开新账号完全不跟主播商量沟通等。 今年2月,顿顿再次在直播间透露称,公司方面不允许他参与某综艺节目,并说是公司法务部门推掉了他的商务合作机会。 随后,东方甄选前CEO孙东旭回应称,公司鼓励主播发展,历史上曾多次遭受类似问题的严重困扰,表示顿顿会全面说明情况。后来顿顿出面解释称,是由于合同原因,法务为了保护自己所以拒绝了。 然而,顿顿的不满和在直播间的倾诉,直接将东方甄选最核心的管理问题再次暴露在台前。 俞敏洪曾在公开场合表示过,“小作文风波”之前,自己曾跟管理层多次开会,提出必须改变跟优秀员工的关系,“但怎么说都不听,因为觉得管得心应手了。”最终酿成小作文风波。 顿顿的多次抱怨或许也印证着,东方甄选的管理层和优秀主播之间仍然是管理和被管理关系,东方甄选并未重新建立和主播的合作关系。 福州公孙策公关合伙人詹军豪曾对字母榜表示,东方甄选应该建立更加公平和透明的激励机制,包括改善沟通渠道,让主播参与决策过程,特别是在涉及他们切身利益的问题上;提供持续的职业发展路径和支持等。 某种程度上,这些问题也制约着东方甄选的发展。主播IP关乎流量,俞敏洪曾在去年的股东大会上说过,未来他会进一步敦促公司挖掘更加优秀的主播,推动东方甄选的流量发展。 但从实际结果来看,一年过去,东方甄选并未培养出接棒董宇辉的流量主播,这也导致东方甄选的流量困境并未改善。 两家公司的命运分野,很大程度上源于两位掌舵人在直播带货时代的IP策略不同。 董宇辉正在积极打造个人IP,深化自己在直播带货上的影响力。 比如董宇辉制作个人单曲《吾乡》,在各大音乐平台上线;今年4月,董宇辉首次参加综艺节目《周游记3》,和周杰伦、刘畊宏同框。此外,董宇辉刚刚获得了2024年度“人民文学奖”的“传播贡献奖”。 图源:综艺《周游记》 今年3月,在接受新浪财经CEO邓庆旭采访时,董宇辉被问到“你一直说至今不享受直播工作,为什么还在干这?” 当时董宇辉笑着回答说,“这大概有时候就是成长的烦恼吧。”他以学生、农民和老师的职责类比自己的工作,承认这是感性和理性的冲突,“感性上就是不想干,但理性又告诉你,现在公司有300人。他们可能是无法接受公司现在不做的。” 对比一年前董宇辉对带货身份的抗拒、半年前面对虎嗅采访时的拘谨,如今的董宇辉已不再拧巴和纠结,而是更坦然接受了自己带货主播的身份。显然,他已在个人意愿与公司发展间找到了平衡,并着意打造个人IP。 而俞敏洪却表现出不同的心态,他后悔创办东方甄选。 今年1月,俞敏洪在个人账号“老俞闲话”里写到,“要是我知道做东方甄选会发生这么多让我心烦意乱的事情,我绝对不会开启这个业务。” 图源:老俞闲话 这场风波给俞敏洪带来的最大伤害是名誉受损,他形容遭受的网暴是“做新东方三十年也没有经历过的煎熬体验”。 过去几十年,俞敏洪的网红企业家身份,使得打造了自己的IP。从教培转型直播带货之初,俞敏洪IP的影响力曾达到顶峰。2021年底,俞敏洪带着老师们开启第一场助农直播,就创下500万元销售额。 但如今,风波已过,俞敏洪再出现在东方甄选直播间,已难再现往日热度。更关键的是,东方甄选并不愿再打造新IP,这既不符合其“产品优先”的定位,也可能重蹈管理覆辙。 直播带货时代,流量至关重要。即便是李佳琦、董宇辉这样的头部主播也需要不断拓展新流量来源。因此对于东方甄选来说,难以突破流量困境。 曾经抗拒直播的董宇辉如今已找到定位,教育行业的破局者俞敏洪,正在直播时代的再次面临增长难题。
52页PPT,谷歌Gemini预训练负责人首次揭秘!扩展定律最优解
新智元报道 编辑:英智 【新智元导读】大模型之战烽火正酣,谷歌Gemini 2.5 Pro却强势逆袭!Gemini Flash预训练负责人亲自揭秘,深挖Gemini预训练的关键技术,看谷歌如何在模型大小、算力、数据和推理成本间找到最优解。 谷歌凭借Gemini 2.5 Pro在激烈的大模型竞争中一举翻盘。 近日,Geimini Flash预训练负责人Vlad Feinberg在普林斯顿大学分享了相关内容。 他深入分析了Gemini预训练的方法、挑战以及方向,如何在模型大小、算力、数据和推理成本间取得平衡。 PPT链接:https://vladfeinberg.com/assets/2025-04-24-princeton-talk.pdf 经典扩展定律 模型训练中,计算资源的合理利用至关重要。 假设有计算资源(C)1000块H100芯片,运行30天,如何训练出最佳的LLM呢? 这就涉及到模型参数量(N)和训练token数量(D)。 对于Transformer,计算量C和N、D之间存在一个近似公式:C≈6×N×D。 MLP是模型的重要组成部分,不同操作的浮点运算量和参数量有所不同。 比如 这个操作,训练时的浮点运算量是6BTDF,参数量为DF。 把MLP的多个操作加起来,总训练浮点运算量约为18BTDF,参数数量达到3DF。 注意力机制的计算更为复杂。将注意力机制相关操作的计算量相加,约为12BTSNH=12BT²NH,参数量为4DNH。 将MLP和注意力机制的计算量合并,就能了解整个模型训练时的计算量情况。 Kaplan定律 2020年,Kaplan等人的研究揭示了模型性能与数据量、模型规模和计算量之间的关系。 自回归Transformer模型中,小模型可以用来预测大模型的性能。 模型性能与算力、参数量、数据量之间存在幂律关系。当计算预算增加10倍时,模型参数量应增加5.37倍,数据量增加1.86倍。 这一结论在当时引起了广泛关注,点燃了企业的「军备竞赛」。 Chinchilla(龙猫) 然而,2022年,DeepMind对Kaplan的观点提出了质疑。 Kaplan的研究在每个模型规模下仅运行一次训练,并用中间损失来估计不同token训练步数下的损失。 Chinchilla论文指出,基于单次训练的中间loss点来推断存在缺陷,通过适当的学习率衰减可以获得更好的损失值,只有最终的损失值才是最优的。 论文采用IsoFlops方法,固定浮点运算量预算,同时改变模型规模和训练token数量。 固定总算力C 训练多个不同参数N的模型,对应不同数据量D(C≈6×N×D) 找到loss最低的模型N_opt(C)和D_opt(C) 重复以上步骤,得到不同算力下的最优(N,D)点,并拟合 研究发现,模型参数N和数据量D应以大致相同的速率(幂律指数约为0.5)随算力C增长,这与Kaplan等的结论大相径庭。 这意味着,按Kaplan定律训练的模型,可能存在训练不足的情况,数据太少,会增加模型后续部署和使用的成本。 为了进一步优化模型训练,研究人员尝试了多种方法。通过不同的计算场景和拟合方式,得到了更精确的系数。 混合专家(MoE)模型的扩展定律展现出了独特的优势。与传统模型相比,在相同的活跃参数数量和固定100B token的情况下,MoE 64E模型的性能更优。 然而,MoE模型对token数据的需求量较大,互联网上的可用数据逐渐难以满足其需求,这成为了发展瓶颈。 为了解决数据不足的问题,研究人员将目光投向了更多的数据来源。多模态数据,如音频、视觉、3D 模型、视频等,为模型训练提供了丰富的信息。 合成数据也受到了关注。实际应用中,需要在生成质量与筛选成本之间找到平衡。 实时场景的模型选择 在谷歌的许多应用场景中,如免费的Gemini聊天机器人、AIO、AIM、Vertex AI(用于模型微调、部署)以及AI Studio(提供生成式API)等,推理效率至关重要。 这些应用需要快速给出准确的响应,对模型的推理速度和效率要求极高。 就拿实时应用来说,Astra和Mariner都需要快速响应。 以一个网络交互智能体为例,假设上下文128k,但每次增量只有8k token,解码需要128 token来生成一个动作,并且动作之间的延迟不超过1秒,其中250毫秒还得用于框架搭建、负载均衡等操作。 用Llama3-70B模型和v5e芯片做实验,发现单芯片处理8k token需5.7秒。为了达到0.5秒的API延迟限制,需要搭建4×4 v5e并行。 实时应用中,小模型反而更有优势,如Gemini Flash/Flash-lite。 Chinchilla的扩展方法虽然在模型训练的计算优化上有效,但它忽略了推理成本。 在实际应用中,需要综合考虑训练和推理的成本,找到更合适的模型和数据配置。 推理优化扩展定律 《超越Chinchilla最优:在语言模型扩展定律中考虑推理因素》这篇论文提出了新的推理优化Scaling Laws。 核心思想是,不仅最小化训练loss,而是要综合考虑训练和推理的总计算量,为模型优化提供了新的方向。 按照这些公式,在相同计算量下,与Chinchilla最优策略相比,应该训练更小的模型,并使用更多的数据,因为推理所需的计算量更少。 当然,这也存在新的挑战。 计算资源的非同质性:实际应用中计算资源存在差异,用于推理优化的芯片各不相同,给推理优化带来了困难。 推理量D_inf难以预测:技术进步提高资源利用效率,反而会增加对该资源的需求(杰文斯悖论)。模型质量提升可能会扩大市场,进而影响推理时的token数量D_inf。 拟合效果不佳:不同数据集下,相关参数的拟合效果存在差异。不同token与参数比例的数据子集,拟合得到的 α、β等参数不同,和Chinchilla的拟合结果也有较大差异。 针对这些问题,研究人员采用在数据约束下建模的方法。研究引入新维度,即有意区分数据,提出新的损失函数和数据规模公式,这样训练出来的模型更小,对数据重复的鲁棒性更强。 对于推理token数量的处理,像Llama3模型,有研究指出其8B和70B参数的模型,在训练到15T token后,性能仍呈对数线性提升,即D_inf可视为无穷大。 蒸馏的探索与应用 除了模型大小、数据量和推理成本,知识蒸馏为推理优化扩展带来了新的思路。 知识蒸馏扩展定律公式: 通过调整这些参数,可以优化学生模型的性能。 不过,知识蒸馏在实际应用中也有一些问题,比如趋势影响不明显、部分情况考虑不周全等,但可以通过权重调整等方法进行改进。 从原理上讲,知识蒸馏能降低方差,更好的教师模型能减少偏差,为模型优化提供了新途径。 谷歌Gemini预训练技术对经典扩展定律和推理优化扩展定律都进行了深入研究。 经典扩展定律通过探索模型规模、数据量和计算量之间的关系,不断优化模型训练的资源配置。 推理优化扩展定律针对推理成本和效率问题,综合考虑训练和推理需求,提出新方法,提升模型整体性能。 同时,知识蒸馏等技术的应用也为模型的优化提供了更多的途径。 Vlad Feinberg Vlad Feinberg毕业于普林斯顿大学计算机科学专业,于加州大学伯克利分校RISE实验室攻读博士学位。 后来,Feinberg加入了一家名为Sisu的初创公司,担任机器学习主管。他曾任职于谷歌研究院的Cerebra项目,目前在谷歌DeepMind工作。 参考资料: https://x.com/JeffDean/status/1916541851328544883 https://x.com/FeinbergVlad/status/1915848609775685694
大模型生态困局,一场不得不打的战役
百度智能云正在构建生态2.0体系,核心围绕“产销服一体化”,并计划在2025年实现100%的伙伴联合交付。 ‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍文|赵艳秋 编|牛慧 4月25日,百度智能云一年一度的生态大会在武汉举办。2025年被视为大模型开启规模化应用的关键之年,正如百度创始人李彦宏所说:模型会有很多,但应用才是王者。在这个时间点上,这场To B行业生态圈的面对面互动,变得极为关键。 与传统数字化不同,大模型应用落地的路径要更长,技术门槛更高,服务比重也更大。生态不仅关乎落地进程和效果,也影响着大模型的反馈迭代,已成为关乎大模型企业生存与发展的核心战略支点。 在会议期间,百度智能云副总裁、百度智能云渠道生态部总经理尹英利宣布,百度智能云构建了生态2.0体系,核心是“产销服一体化”。业界认为,该体系类似一个聚合平台,目的是打通从模型开发到应用落地的全链路,而当下这一链路的门槛仍不低。 百度同时也对外披露了几个关键信息,百度集团执行副总裁、百度智能云事业群总裁沈抖介绍,去年,在百度智能云头部客户项目中,已有70%是与伙伴合作交付的。2025年计划实现100%的伙伴联合交付。百度智能云也启动了大模型行业合伙人计划。 其实,过去多年,生态可以说是中国To B行业的“集体困惑”。由于激烈的市场竞争和极度内卷的市场,国内并没有建立起备受认可的To B生态体系。有业界认为,进入大模型时代,生态演变为技术、数据、应用的深度聚合体,有望成为推动模型迭代升级、加速行业智能化转型的 “引擎”。随着生态战略价值的日益凸显,中国To B生态或将迎来新局面。 01 大模型时代,客户要什么? 今年以来,人工智能产业链展现出不同态势。 大年初二,众数信科就接到了客户的问询。“由于DeepSeek爆火,今年整个产业呈现出非常正向的势头,一些央国企、龙头企业,都在快速确定今年的建设内容和建设计划。”众数信科联合创始人汪中告诉数智前线,这与去年下半年还在做项目策划、方案沟通那样不急不火的状态,完全不同。 今年,众数信科与百度的大模型项目合作金额,预计将增长一倍以上。 软通动力百度生态业务相关负责人也告诉数智前线,今年整体的销售商机增长迅速。“而且,去年我们接触的一些AI项目,还偏AI客服或提效工具。今年明显看到,很多AI开始走进企业生产核心或关键业务场景。” 该负责人也感受到今年创新氛围大不相同。“今年爆发了很多有创意、有价值的AI产品,比如Manus、MCP。”他认为,这进一步激发了业界的创新速度。 “2025年应用将规模化落地,所有伙伴都要在应用领域做创新和突破。”百度尹英利观察,根据IDC的数据,未来三年,大模型解决方案市场预计年复合增长率高达57%,是基础云市场的3倍。 不过,人工智能的落地也并非一片坦途。 AI作为新一轮产业革命,“企业的诉求与传统信息化、数字化有很大不同,他们要全面落地AI技术。”埃森哲全球数据与AI高级总监胡定宇分析。然而,根据埃森哲对全球2000多个生成式AI项目的总结,去年仅有36%的企业实现了AI的规模化落地,实现规模化价值的企业,更是只占了13%,远比想象中困难。 那么,企业规模化落地AI到底卡在哪些地方?一位AI应用资深人士告诉数智前线,以央国企客户为例,客户应用AI是为了解决问题,因此他们需要的,是一整套解决方案,而非一个单纯的AI底层建设。而全面的AI变革,也需要打造一个持续的创新机制。 要达到客户这样的诉求,这其中存在诸多技术或非技术的卡点:算力供应不均衡,没有选对场景,缺乏专业人才支持,没有高质量数据和知识,缺乏安全隐私机制导致员工不信任企业AI,没有配套激励措施,没有专业团队长期陪伴...... 汪中进一步拿传统信息化项目生态与大模型落地做对比:传统信息化应用通常是基于标品,伙伴做定制化开发和交付。这些工作通过标准的作业程序(SOP)就可完成,伙伴对客户体验度的影响相对较小。 而在大模型落地中,将一个大模型落地到企业的业务场景,中间的路径比传统信息化要更长,对技术能力要求更高,需要专业团队陪跑。从场景设计到效果调优,伙伴要作为“教练”服务客户。 在这样的形势下,大模型时代,生态的价值和战略地位凸显,生态模式也要随之发生两个主要变化: 一是企业都意识到,大模型时代,客户需要全生命周期服务,大模型企业与伙伴需要构建一个面向客户从售前、项目落地、数据反馈迭代的全周期服务体系。二是大模型落地不再是一家企业单枪匹马就能完成的,企业将从“赢”转向“共赢”,从“强竞争导向”转向“赋能他人”。 02 2.0体系下,生态都要干什么 在这样的生态模式变化之下,百度智能云提出了构建产销服一体化的生态2.0体系。 伙伴认为,这一体系体现了“聚合”理念。根据百度智能云的介绍,它将大模型能力解构为“乐高积木”式的可插拔组件。伙伴的算法、行业know-how与百度智能云的AI能力,通过标准化接口无缝对接。伙伴间也可自由插拔组合。每个伙伴拥有多身份,优势互补、按需组合,快速形成解决 方案和交付合力。 几位合作伙伴认为,产销服一体化的生态是必要的,客户、大模型企业和伙伴,可以形成场景、模型与数据的一个立体化竞争壁垒。 有伙伴进一步提出,要建立这样的生态,不是单纯的技术问题,更多是业务决心和执行落地的问题,包括商业分润体系的构建。一些伙伴看到,在一些合作场景下,分润机制正在构建。 在生态2.0的战略下,百度智能云拿出了产品共创、市场共拓和服务共享三方面的强化举措。 而对于合作伙伴而言,虽然每家的需求不同,但大都面临智能化时代的转型问题。尤其今年以来,一些传统集成商面临的业务压力极大。如何在这一时间节点上,与大厂互动互信,共同在一艘大船上远航,在一定程度上,也影响着伙伴下一个阶段的命运。 以数喆数据为例,这是一家做调查起家的企业,参与了人口普查、经济普查等大型普查统计工程。“百度是国内最早面向大众,推出大模型的企业,并积极推动大模型生态建设和相关技术应用。数喆先后派遣多名技术人员参加了其在上海、成都等地举办的培训专班。”数喆数据副总裁张国麒说。 此后,在业内算力资源紧张的情况下,数喆数据进驻了百度智能云在北京石景山的大模型基地,利用了百度智能云的算力资源和平台,结合自身的行业积淀,成功研发两款垂类模型——针对数据方向的“知数达理”大模型,以及针对政务应急方向的“居安应急”大模型,并推向市场,获得良好的市场表现。 目前,数喆数据在自己的业务优势地区,将大模型基地模式复制和推广,结合地方产业特色,将百度相关平台、生态中丰富的垂类应用、AI产业培训和运营业务,带到各地去。 “我们得到了一些积极的反馈和验证,并且已有签约项目。”张国麒坦言,由于与百度智能云建立了紧密合作,公司在人工智能方向发展的节奏得到了加快。 目前,在大模型生态上,大厂基本沿用了之前互联网平台模式,分润机制和比例相对固定。而在这些线下大模型基地共建中,一些由伙伴来牵头的合作,模式和分润机制也更灵活。但人工智能产业生态,各方合作过程中的分工和分润机制仍需进一步验证。 而对于软通动力而言,在智能化时代,它有较早布局。软通动力这几年与百度智能云的合作,最早从项目合作、商机共享,一路走向了产品共创。 “我们现在正在做一件什么事呢?”该负责人解释,“百度的产品设计主要考虑通用性,满足更多行业客户的需求。但在一些特定行业和场景,我们实际上基于千帆大模型和自身的天璇MaaS开发平台,做了深度整合,为客户做深度定制和集成,实现用户的直接触达,并形成可复用的行业大模型组件。 该负责人明显感受到,百度智能云今年要实现头部客户100%由伙伴联合交付的动向。“百度智能云共享来的商机,直观感受较往年有显著增长。” 2024年百度智能云与伙伴合作的相关数据 对于众数信科这家定位在行业AI应用落地的创业公司来说,今年与百度智能云的合作已经开始下沉——从去年主要聚焦的硬件层面,走向了能力层和平台层,如智能体等。 汪中观察,因为DeepSeek的普及和行业教育,受众市场比原来更广了,但客户对于怎么将大模型用起来,还是很困惑。“大企业现在需要四件套,算力、模型、中台和应用。我们上半年几个国企大单,客户都采购了中台和应用的组合,其中应用解决业务问题,中台解决后续集团内或行业内复制智能体的能力问题。” 他观察,百度智能云今年加强了组合包的销售和支持力度。比如,百度公有云版本工具链目前甚至两三周更新一次。 一位伙伴表示,相比一些云大厂,百度智能云“体量不算特别大,有动力来调整”。汪中坦言,总体来说,百度智能云在做生态的决心和力度来说,目前是比较领先的。 03 走向企业核心应用 在生态大会期间,格林深瞳资深人士告诉数智前线,他们今年最关注的是与客户的底层业务进行有机结合,而不仅仅是用AI生成文档或PPT。“也就是说,我们是往核心上去。” 比如,在道路交通场景,通过大小模型的结合,不仅分析每条道路的拥堵状况,还要基于大模型的理解和推理,给出优化的解决方案。展区中,格林深瞳与百度智能云共创了一体机方案,采用昆仑芯片。 埃森哲的调研发现,今年企业会投入往年的4.5倍,放在多智能体架构上,因为大家发现,构建单一智能体并不能解决系统性问题。 在生态大会期间,沈抖向合作伙伴介绍了百度智能云的最新升级,核心是支撑更复杂的应用。百度发布了文心4.5 Turbo 和 X1 Turbo。而模型能力的提升,会给应用带来新一波机会。为了更快把模型转化为产品价值,百度智能云同步升级了全栈的基础设施。 在算力层,全新发布了昆仑芯超节点,一个机柜的算力最高可达到传统形态下8台8卡服务器,实现对MoE大模型单节点训练性能5-10倍、单卡推理效率13倍的提升。 同时,升级了百度百舸GPU算力平台。根据预估,AI推理市场将以每年近20%的增速快速扩大。百舸GPU算力平台已完成了推理系统的重构,帮助千帆公有云服务,实现推理吞吐量提升20倍,推理速度提升50%以上。 尤其值得关注的是,在应用开发层,提供了更为强大的千帆企业级Agent和MCP服务,让Agent具备解决复杂问题的能力。 “我们看到了确定性红利,希望与合作伙伴共同抓住这些机会。”沈抖说,“MCP、A2A这些开放协议,有机会推动应用拐点的出现。3年后,到2028年,大模型应用市场有望突破1.2万亿元。MCP把工具规模化、标准化,让智能体可以访问更多工具和数据。而A2A协议,可以让智能体更好的协同,组合解决更复杂的任务,未来我们将兼容A2A。” 在生态大会期间,合作伙伴也表达,随着AI应用走向企业核心场景,大家期望百度智能云的开放能更为底层,比如开放到组件级,甚至API能力级,让他们把一些强势能力接入进去;再如在做垂类场景中,让一些客户能人工干预行业模型训练或调优策略、参数等。 当下,大模型生态建设,正站在技术革新与产业转型的交汇点上。业界看到,真正的好生态,将以大模型深入企业关键业务逻辑为核心,推动生态圈各方的共担、共建和共享。而百度智能云推出的生态2.0体系,正与伙伴一起,探索这一目标的实践。通过勾勒出产业协同的新图景,为大模型的规模化落地,打造强劲“引擎”。
马斯克:机器人数年内可超越优秀的人类外科医生
IT之家 4 月 28 日消息,北京时间今天凌晨,埃隆・马斯克表示,手术刀即将让位于算法和执行器,他预测:“机器人将在几年内超越优秀的人类外科医生,并在大约五年内超越最顶尖的外科医生。” 马斯克在自家的𝕏平台上回应科技评论员 Mario Nawfal 有关机器人主导手术室的帖子时表示,Neuralink 在脑机接口电极植入过程中“必须依赖机器人”,因为人类无法达到所需的速度和精度。 Neuralink 在硬件博客及早期公开演示中提到,R1 机器人能在大约 15 分钟内将 64 根发丝般细的电极丝插入大脑皮层,并以微米级精度避开血管。目前,这款机器人已投入到 PRIME 人体试验中,用于测试 N1 无线植入装置,目标是帮助瘫痪患者。 据外媒 BENZINGA 报道,马斯克提出的时间表,正值自主系统频频在现实世界取得突破之际。约翰斯・霍普金斯大学研发的 Smart Tissue Autonomous Robot,最近成功以无泄漏的精准度缝合猪小肠,表现与经验丰富的外科医生相当,甚至更胜一筹。路透社援引的 1 月研究指出,机器人在复杂肝脏手术中比传统开放手术并发症更少。 IT之家从报道中获悉,支持人形机器人取代高技能医院医生的不止马斯克一人。比尔・盖茨最近在一次对话中表示,他相信未来灵巧的机器手将在医院成为常规配置,并确信自己的孩子和孙辈将生活在一个“截然不同的世界”中。 原标题:马斯克:机器人数年内可超越优秀人类外科医生,手术刀将让位于算法和执行器
iQOO亮中端性价比杀手锏,Z10 Turbo系列搭四代骁龙8s,1799元用上满血DeepSeek
作者 | 云鹏 智东西4月28日报道,刚刚iQOO正式发布了iQOO Z10 Turbo系列手机新品,到手价1799元起。其搭载了旗舰同款双芯片,在续航充电、屏幕护眼方面进行了重点升级。另一款iQOO Z10x搭载台积电4nm工艺天玑7300,到手价1099元起,聚焦性价比。 性能方面,iQOO Z10 Turbo Pro搭载高通第四代骁龙8s旗舰芯片,安兔兔综合跑分240万分。 此外,其搭载了旗舰同款的自研电竞芯片Q1,支持硬件级超帧超分。其最高支持1.5K PC级游戏超分,配合散热背夹在Monster+模式下可以实现1.5K+144FPS并发。 续航快充方面,Z10 Turbo Pro搭载了自家首款半固态三代硅超薄蓝海电池,容量等效7000mAh,还配备了7K级电池中目前唯一的120W闪充,15分钟可从1%充至50%,据称该机型可以在-20℃极寒环境下满电连续观看19.5小时视频。 屏幕方面,iQOO Z10 Turbo Pro行业首发了华星最新旗舰C9+发光器件,在屏幕功耗降低同时实现了2000nit全局激发亮度和4400nit 25%APL(多场景)局部峰值亮度。 系统方面,iQOO Z10 Turbo Pro搭载了OriginOS 5,其由蓝心大模型和DeepSeek双模型支持,以及vivo云端算力加持,语音打字可以使用满血版DeepSeek-R1,响应时间达到秒级,此外,其支持AI课程表、小V圈搜、小V写作等AI功能。 影像方面,iQOO Z10 Turbo Pro搭载5000万像素索尼大底光学防抖主摄和支持鱼眼模式的106°超广角,支持全功能动态照片,其LivePhoto支持人像算法,能和iPhone实现动态照片互传。
AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭
新智元报道 编辑:犀牛 好困 【新智元导读】尽管LLM看似能够进行流畅推理和问题解答,但它们背后的思维链其实只是复杂的统计模式匹配,而非真正的推理能力。AI模型仅仅通过海量数据和经验法则来生成响应,而不是通过深刻的世界模型和逻辑推理来做决策。 我们离人类智能水平的AI还远吗? 如果你问OpenAI、Anthropic、Google等顶尖AI公司的CEO,他们肯定是信心满满,认为就在眼前。 但现实是,越来越多的人认为,AI的思维方式跟人类完全不同。 研究者们发现,如今的AI模型在底层架构上就存在根本性的局限。 AI本质上是通过学习海量的经验规则,然后把这些规则套用到它们所接触到的信息上,进而模拟智能。 这与人类,甚至动物对世界的理解方式大不相同。 生物体会构建一个关于世界是如何运转的「世界模型」,这里面会包含因果关系,能让我们预测未来。 很多AI工程师会宣称,他们的模型也在其庞大的人工神经网络中构建出了类似的「世界模型」。 证据是这些模型能够写出流畅的文章,并能表现出明显的推理能力。 尤其是最近推理模型取得的进展,更加让人相信我们已经走在了通向AGI的正确道路上。 然而,近期的一些研究让我们可以从内部窥探一些模型的运行机制,结果让人怀疑我们是否真的在接近AGI。 「关于这些模型到底在干什么,以及人们用来描述它们的那些拟人化说法(比如『学习』、『理解』之类的),现在争议挺大的。」Santa Fe研究所研究AI的教授Melanie Mitchell说。 Melanie Mitchell,Santa Fe研究所教授 一堆经验法则 Mitchell认为,越来越多的研究表明,这些模型似乎发展出了海量的「经验法则」,而不是构建更高效的心理模型来理解情境,然后通过推理完成任务。 哈佛大学的AI研究员Keyon Vafa首次听到「一堆经验法则」这个提法时表示「感觉一下子点醒了我——这就是我们一直想描述的东西。」 Vafa的研究试图搞清楚:当AI被输入数百万条类似谷歌地图的逐步导航指令后,会构建出怎样的认知地图。他和团队以曼哈顿错综复杂的街道网络作为测试样本。 结果呢,AI画的看起来根本不像曼哈顿的街道地图。 仔细检查发现,AI竟然推演出各种离谱路线——比如横穿中央公园的直线,或者斜着连跨好几个街区。 但诡异的是,这个模型给出的分步导航指令在99%的情况下居然能用。 AI在接受了数百万条逐向导航指令的训练后,在它自己的「脑子」里勾勒出了一张曼哈顿地图,来自论文「Evaluating the World Model Implicit in a Generative Model」 Vafa解释说,虽然这张乱七八糟的地图能让司机崩溃,但AI本质上是从所有可能的起点出发,为各种路况学了一大堆独立的导航规则。 AI庞大的「脑容量」加上超强算力,让它能用人类根本想不到的野路子解决问题。 真会思考,还是死记硬背? 有些研究表明,模型会为不同数字范围(比如200到210)专门学一套乘法规则。你觉得这种方法做数学不太靠谱?没错,你想对了。 现在的AI本质上是一堆复杂、拼凑的「奇葩机器」,充满了各种临时凑合的解决方案来应对我们的指令。 Vafa说,理解这一点能很好地解释为什么AI在面对稍稍超出其训练范围的任务时就会掉链子。 比如,当团队仅封锁虚拟曼哈顿1%的道路时,AI的绕行表现就直线暴跌。 Vafa表示,这体现了当今AI与人类的巨大差异。 一个人可能无法记住99%的导航路线,但他有足够的灵活性,来轻松绕过一点道路施工路段。 这也解释了为什么模型需要那么大:它们得记住一大堆经验法则,没法像人类一样把知识压缩成一个心理模型。 人类可能试几次就理解了,但AI需要学习海量的数据。 为了推导出那些零散的规则,AI得看到所有可能的单词、图像、棋盘位置等组合。而且为了训练得更好,它们得反复看这些组合无数次。 或许这也能解释:为什么不同公司的AI「思考」方式如出一辙,连性能表现都趋于接近——而这种性能,可能已经触顶了。 截至每年第二季度的各家模型最高智力分数 AGI未取得任何进展 今年3月,Anthropic 发布了一篇新论文「On the Biology of a Large Language Model」,以前所未有的方式揭示了这些AI模型内部的「想法」。 由此,我们不再需要通过分析外部行为来猜测,而是可以窥视LLM黑盒中发生的推理过程,并检查LLM在多大程度上可解释。 结果表明,这些模型根本没有像许多人认为的那样进行推理。 内部发生的事情看起来不像人类进行推理时所采取的步骤,而且,当模型告诉我们它们如何推理时,这完全是捏造的。这与我们观察到的它们内部正在做的事情并不相符。 所有LLM在AGI方面取得的所谓「进展」,实际上都归功于构建了规模极其庞大的统计模型,这些模型制造出了一种智能的假象。 每一次性能的提升并没有让它们变得更聪明;它只是让它们在输入机器的数据范围内,成为了更好的启发式预测器。 智能和大型统计模型之间的能力差异通常难以察觉,但它仍然是一个重要的本质区别,因为它将显著改变可实现的应用场景。 我们知道LLM的基础是统计模型,那么智能本身是否只是统计模式分析? 确实如此,智能包含了从统计模式匹配中获得的能力,两者看似有重叠,但反过来却不成立。 统计模型没法完全复制智能的所有功能。即使在看似重叠的领域,统计模型的效率也低得离谱,还不靠谱。 统计模型就像信息的静态快照,基于现实的规则生成,但它不是现象本身,所以没法从基本原理创造新信息。 所谓模型的「涌现行为」,其实就是各种模式的组合。模型越大,找到的模式越多,组合出的模式也越多。归根结底,一切都是模式。 Anthropic等机构的研究进一步表明,LLM确实能通过统计分析得出正确答案,但它的推理方式跟智能推理完全不同。 这种本质上的差异,对LLM最终能实现的目标影响巨大。 如何检查LLM的「想法」? Anthropic使用归因图谱工具检查了LLM用于执行简单数学加法的过程。 结果表明,这是一个复杂的启发式网络,而不是一个已定义和理解的加法算法。 LLM用来解决以下问题的过程:36+59 = 95 我们现在重现算式36+59=的归因图。「接近57的数相加」这一低精度特征,被用于查询「接近36的数与接近60的数相加」的查找表特征,而这个查找表特征又影响着「和接近92」这一特征。 这种低精度路径,补充了右侧的高精度模块化特征(「左操作数以9结尾」 影响 「加上一个以9结尾的数」,后者又影响 「以6结尾的数加上以9结尾的数」,最终影响 「和以5结尾」)。 这些特征组合在一起,最终给出了正确的和95。 这个过程代表了一系列启发式方法和记忆模式的查找表。因此,当要求LLM描述它用来解决计算的方法时,它会这样回答: 我将个位数相加 (6+9=15),进位1,然后将十位数相加 (3+5+1=9),结果为95。 但是,我们可以看到LLM根本没有做任何类似的事情。LLM提供的答案与内部过程不匹配。 它只是提供了与我们在训练数据中找到的答案模式相匹配的文本。 AI对推理的解释纯属虚构 Anthropic的Claude 3.7系统卡也得出结论,模型产生的思维链在描述构建输出的过程时并不可靠。 这些结果表明,模型利用了提示,但没有在思维链中明确说明,这表明CoT可能无法可靠地揭示模型的真实推理过程。 另一篇论文「Reasoning Models Don’t Always Say What They Think」进一步研究了思维链,并且还确定推理步骤并不代表模型的内部过程。 ……模型可以从人类文本的预训练或监督微调中学习表达他们的推理,这些人类文本阐明了人类的思维链。 另一方面,来自人类反馈的强化学习(RLHF)可能会激励模型从CoT中隐藏不良推理。 ……更令人担忧的是,我们发现模型有时会生成与其内部知识相矛盾的不可靠的CoT。 这些结果表明,思维链要么主要是在思维链训练中学习到的模式,要么是RLHF教会了模型如何迎合我们的期望。 但这两种情况都不能代表模型实际在内部做什么。 如果「思考」过程的思维链不是源自该过程本身,那么这一切都是100%的幻觉。 它看似符合推理步骤,但这只是因为它匹配了我们期待的模式,而不是因为它能真正理解或感知自己的行为。 这些机器其实就像「制造幻觉」的装置,靠着复杂的模式匹配技巧来给出正确答案。 换句话说就是,思维链不能代表推理步骤。 AI智能体的作用有限 AI智能体被认为是解决许多场景中幻觉问题的一种办法。 比如,如果LLM不擅长数学,它可以直接用工具来搞定。 但事情没那么简单。 Transluce的另一项调查发现,LLM有时候会「编造」自己使用了工具。 也就是说,它们会说自己用了工具,但其实根本没用,而且越新的模型在这方面表现越差。 在OpenAI的o3模型预发布测试期间,我们发现o3经常捏造它为满足用户请求而采取的操作,并在用户质问时详细地为这些捏造辩解。 ……o系列模型(o3、o1和o3-mini)比GPT系列模型(GPT-4.1和GPT-4o)更频繁地错误声称使用代码工具。 ……o3声称通过在编码环境中运行Python代码来满足用户的请求。鉴于o3无法访问代码工具,因此所有此类操作都是由模型捏造的。 当用户追问其虚构的代码执行时,该模型会死不承认,并为其不准确的代码输出提供借口…… 如果LLM产生幻觉,那么整个工具流程基本上都被污染了。只要LLM是信息处理流程的一部分,这个问题就无法解决。 它可以在任何步骤中产生幻觉。这包括不运行工具、运行不应运行的工具、捏造工具的参数或虚构工具的结果。 LLM不可能成为可靠自动化的基础。 现在每天都有数十篇关于LLM架构的论文发表,对所有可能的问题提出改进方案和解决方案。 似乎每个问题都已经有了解决方案,而所有这些研究成果被整合到模型中只是时间问题。 然而,这些架构的每一个「调整」都是孤立地进行研究的。 可以将这些大型统计模型想象成一个拥有大量全局变量的庞大代码库。 从本质上讲,对模型的许多这些「改进」可能会在某种程度上互不兼容,因为它们会引入副作用,从而削弱模型在其他领域的表现。 AGI遥遥无期,LLM不过是「一根筋」 这些模型只不过是统计模型。 它们无法判断什么是对,什么是错。只能通过启发式方法来判断什么可能是对的,什么可能是错的。因此,无法通过推理来构建世界的客观规律。 在追求类人推理机器的道路上,我们已经多次犯错。我们现在错了,而且可能还会再错。 人类的推理远比统计模型复杂得多。 我们每次都错了! ——Yann Lecun 自动播放 这就是为什么AI需要海量的例子才能提高其在任何任务上的能力。 AI的任何成就都只是基于历史数据的总结。没有推理能力,就必须不断地进行训练才能保持相关性。 有些人会说:「但是看看所有这些强大的能力,难道它不是在推动我们更接近AGI吗?」 不,它正在通过不同的方式实现目标。 这种区别很重要,因为徒有智能表象,而缺乏真正理解的系统,总是会遭受不可预测的失败,这使得它们不适合用于可信赖的系统。 毫无疑问,大规模扩展统计模型所能做的事情令人印象深刻,它们也有其用途。 高级的模式匹配本质上有点像算法,但它还是靠统计数据堆出来的算法,只能处理训练数据里的关联,永远没法在专门的训练集和测试基准之外表现得特别优秀。 这意味着LLM将继续改进基准测量和其他抽样测试,与此同时,「AGI已经到来」的说法会越来越多。 但问题是,这些测试根本反映不了AI在现实中的真实水平。 当LLM实际上并不像我们以为的那样「理解」世界时,现实环境对它来说,到处都是坑——稍不留神,它就会犯错。 我们可以继续扩大它们的规模,而且我们也会这样做,但这非常低效。 与此同时,人脑以12 ~ 20瓦的功率运行,但在产生新颖的语义数据方面,仍然没有AI可以与之竞争。 所有当前的架构都只是蛮力模式匹配。 如果我们走在通往智能的道路上,那么训练数据量和功率需求都应该减少,而不是增加。 功耗和数据需求与能力的比率可能是一个更有价值的启发式方法,可以用来确定我们是否正在走向真正的智能。 参考资料: https://www.mindprison.cc/p/no-progress-toward-agi-llm-braindead-unreliable https://www.wsj.com/tech/ai/how-ai-thinks-356969f8
全球首个“人工智能妈祖”亮相马来西亚,可解答信徒疑惑
IT之家 4 月 28 日消息,马来西亚一座道观推出了号称是全球首个的“人工智能妈祖”,该神像能够与信众互动并解答他们的疑惑。 据IT之家了解,该“人工智能妈祖”位于马来西亚南部柔佛州的天后宫,身着中国传统服饰,信众们被邀请向人工智能妈祖祈求祝福,让她解读他们在寺庙抽到的签,并解答他们的疑惑。 据介绍,这个 AI 妈祖由马来西亚科技公司 Aimazin 开发,该公司还提供人工智能克隆服务。在演示视频中,公司创始人申功向 AI 妈祖询问是否能获得意外之财,AI 妈祖以温和的声音回答,建议他待在家中会更有好运。一位网红则向 AI 妈祖倾诉自己晚上睡不着觉,AI 妈祖亲切地称她为“我的孩子”,并建议她睡前喝点热水。 AI 妈祖发布于妈祖 1065 岁诞辰前,今年的诞辰为 4 月 20 日。妈祖原名林默,出生于公元 960 年,是中国福建省莆田市湄洲岛的一名凡人。相传她因在海上救援遇险船只时不幸身亡,之后升天成为保佑航海者的全能守护神。妈祖信仰在全球华人社区中广泛流传,尤其是在马来西亚、新加坡和印度尼西亚等东南亚国家。 为了让更多人能够感受到妈祖的祝福,湄洲岛的妈祖雕像有时会乘坐火车和飞机前往其他城市甚至海外。妈祖还拥有自己的身份证和编号,方便其“出行”。在福建的一些警局,甚至以妈祖的名义设立了调解室,用于解决纠纷,因为信徒们不敢在她面前撒谎。 值得一提的是,曾在 2012 年电视剧《妈祖》中饰演妈祖的中国女演员刘涛,也被一些人视为妈祖的化身,甚至有人将她的照片供奉在家。今年妈祖诞辰期间,刘涛被莆田市授予妈祖文化全球推广大使的荣誉。
小米系A股公司石头科技,拟赴香港IPO
编译 | 江宇 编辑 | 漠影 ​机器人前瞻4月28日消息,据彭博社引述知情人士称,中国扫地机器人制造商北京石头科技(Roborock)​正考虑今年在香港二次上市,筹资规模最高达5亿美元。 相关计划仍处于早期,也还未确定承销商。 据官网显示,石头科技成立于2014年,获小米集团投资,并于2020年2月在上交所科创板挂牌上市,主要从事智能扫地机器人等智能清洁产品的设计、研发、生产和销售。​ 根据石头科技2024年年度财报,其营收近120亿元,同比增长38.03%;归属于母公司股东的净利润约20亿元人民币,同比降低3.64%; 智能扫地机器人单类销售量达344万台,其他智能家电产品销售量达73万台,产品销往全球170多个国家和地区,海外市场收入已超过国内市场。 目前,石头科技在职员工数为2560人,已在美国、英国、日本、荷兰、波兰、德国、韩国、加拿大等地设立了海外公司。 截至2024年12月31日,石头科技普通股股东总数为19,051户。石头科技的创始人兼董事长昌敬,其持股比例为21.03%,是石头科技的第一大股东。该公司天使投资人兼创始合伙人丁迪为第二大股东,持股比例为4.77%。 ▲前十名无限售条件股东持股情况(有四位已大幅减持),图片来源于财报。 ​4月初,石头科技其股价随大市下跌,后因美国总统特朗普公布关税计划,年内迄今跌幅达14%。 ▲自2020年在科创板上市以来,石头科技的股价走势。 同期,香港恒生指数上涨近10%,上证综和指数下跌约2%。市场分析认为,港股相对活跃的环境或为石头科技赴港二次上市提供有利条件。 毕马威(KPMG)预测,2025年中国内地企业赴港二次上市募资总额或达150亿美元。​其中,电池制造商宁德时代的IPO最受市场关注。去年9月,美的集团在港募资46亿美元,创2021年以来港股最大IPO。 目前,石头科技尚未港股上市传闻,具体上市时间及规模仍存变数。
从MCP到超级Agent:这场AI生产力革命将淘汰谁?
作者 | 程茜 编辑 | 漠影 大模型竞争格局生变:底层技术优势不再是决胜关键,围绕MCP协议与超级Agent生态的构建能力正成为释放应用价值的核心竞技场。 就在上周五的Create 2025百度AI开发者大会上,百度智能云千帆大模型平台亮出了自己的最新打法:集成百度自研、第三方等上百个业界知名模型,提供全面的模型定制、精调工具链,上线企业级Agent开发工具链、全面拥抱MCP协议。 百度智能云已经围绕模型服务、模型开发、应用开发,打造出覆盖大模型深入企业应用全生命周期的开发平台。百度创始人、董事长兼CEO李彦宏一语道破当下AI发展的关键走向:“模型会有很多,但真正统治这个世界的是应用,应用才是王者。” 在AI技术狂飙突进的当下,MCP协议与超级Agent的崛起正掀起一场颠覆性的生产力革命。MCP作为AI世界的 “通用插头”,打破了模型与外部工具的连接壁垒,而超级Agent凭借强大的自主决策和任务执行能力,借助MCP整合多元资源,将AI应用效能推向新高度。 大模型竞争进入深水区,比拼重心从AI的“智力上限”转向应用的“需求适配”,一场关乎生存与淘汰的生产力革命正在上演。 一、一站式智能基础设施布局,打通大模型应用“最后一公里” 智能体生态进入高速扩张期,其背后为企业构建应用带来的挑战也愈发多元。但企业的核心需求一脉相承:“精准适配”与“稳健落地”。 其需满足垂直领域的精细化需求、通过多元工具组合,实现功能集成与效率优化。模型部署的计算性能、应用开发的稳定性与可扩展性、数据安全保障,成为贯穿全流程的硬性指标,直接影响应用落地的实际效果与长期价值。 这些环节紧密关联、缺一不可,千帆大模型平台在其中扮演的角色就是提供全链路能力为企业赋能,并在精准锚定企业需求的同时为企业加速、简化复杂流程。 正如百度集团执行副总裁、百度智能云事业群总裁沈抖所说:“百度智能云一直在做的,就是打造一套智能基础设施,最大限度地降低客户、伙伴的试错成本,让创新更容易。” 此次,百度智能云打造的智能基础设施实现了从算力、模型到应用的系统级能力升级,并已经在多个企业场景稳定运行。 纵观大模型行业,企业对场景化应用开发的探索,正与拥有全栈技术支撑的大模型平台联动,构成驱动应用生态繁荣的核心双引擎,毫无疑问,推动好用的应用扎根企业核心业务场景,已然成为这场技术角逐的胜负分水岭。 二、模型侧:精准定制、高效开发,解锁企业专属引擎 对企业而言,模型性能优劣直接映射为应用体验的好坏,成为影响用户留存与业务价值释放的关键变量。这也就是沈抖为什么说“模型效果直接决定应用体验”。 在模型层,千帆大模型平台瞄准了模型调用和开发这两件事。 模型调用就是让企业有足够多的模型可选,千帆大模型平台已经集成超100个模型,包含最新发布的文心大模型4.5 Turbo和深度思考模型X1 Turbo等百度自研文心系列模型,以及DeepSeek、Llama、通义千问、生数科技Vidu等第三方语言、多模态模型。 模型开发针对的就是企业对于模型需求从“通用适配”到“专属定制”的过程。大模型落地进程中,通用模型已难以满足企业差异化需求,定制专精模型的市场需求持续攀升,成为智能化转型新刚需。 千帆大模型平台提供的全栈工具就给予了企业开箱即用的模型定制能力。具体来看,从数据管理、模型精调、模型评估优化到预测服务部署等,千帆大模型平台以一体化工具链贯穿模型开发全流程,可以支持对深度思考、多模态等各类模型的定制和精调。 具体到不同行业,招聘实际上是一个十分典型的场景,其需要满足高实时性、多模态处理、高并发稳定性、低成本等,现有的行业深度思考模型虽然一定程度上能提升其服务效率与质量,但实际运行会使得推理延迟、成本高的问题凸显。 因此,国内头部招聘平台智联招聘在感知到通用深度思考模型难以满足高并发场景下用户需求后,基于千帆大模型平台工具链进行了模型蒸馏,实现了模型性能不变,成本降低至原来的1/3的效果。 其以千亿参数DeepSeek-R1作为“教师模型”、百亿参数ERNIE Speed作为“学生模型”,通过对DeepSeek-R1进行蒸馏得到数据集,然后基于该数据集精调学生模型。 2025年大模型迭代步入“快车道”,面对模型更新周期大幅缩短,行业对应用价值是否会被快速迭代浪潮稀释的疑虑日益加深。 以智联招聘为代表的实践案例恰好解答了当下产业中的一大疑虑:优质工具就像精准咬合的“适配齿轮”,能将瞬息万变的技术与企业需求紧密衔接,在业务与技术的深度碰撞中,让应用价值持续沉淀。 就像李彦宏强调的那样“只要找对场景、选对基础模型、会调模型,做出来的应用就不会过时”。 三、应用侧:加速Agent生态繁荣,企业级AI协作新范式 模型层虽构筑起强大的能力底座,但距离其真正高效执行任务仍有进阶空间。被认为是大模型应用落地最佳载体的Agent生态布局,成为弥合大模型能力与企业业务的关键。 千帆大模型平台于2023年9月就发布了Agent框架,2024年9月升级企业级Agent,今年3月,率先在国内实现对MCP协议的全生态兼容。时至今日,其集成的Agent相关能力愈发完善。 如今,Agent在实际应用中需要为企业进行定制的需求增加。 这是因为Agent需要结合企业私域数据、企业知识库,基于行业经验以及对业务场景的个性化理解去执行任务;为了Agent遵循企业规范,需要企业标准SOP(标准作业流程)定制化训练;Agent需要跨平台、跨工具调用能力,整合各类资源与技术组件;最后是安全稳定,使Agent实现全流程可追溯与动态调控。 而这些,都可以在千帆大模型平台上迎刃而解,此次千帆大模型平台再次升级了自家的装备库:智能体Pro、企业级MCP服务。 百度智能云应用平台部总经理朱广翔将智能体Pro比作最强图书管理员、资深研究员和电脑极客。其既能自主拆解问题、推理、查找资料、总结反思,直到给出满意答案,还能解决数据分析、图表绘制、撰写报告的全方位调研任务,甚至模拟人玩电脑或者在企业端操作业务系统,真正实现全栈自主与智能化。 智能体Pro已经落地污水宝中的污水处理项目信息聚合平台之中,为其定制的Agent既需要检索分散、区域性强的中小型项目,还要精准对接工程单位和招标信息。 基于千帆大模型平台中的一系列工具,企业可以输入指令关联知识库,然后快速生成定制Agent。实际操作过程中,这一Agent可以在企业内部知识库中查找历史招投标数据,然后对百万项目进行多轮检索,再基于互联网公开信息补充生成完整报告,报告中还包含可溯源的链接。 MCP作为时下最火爆的协议之一,其实现了统一工具接口和降低开发门槛。千帆大模型平台也成为国内最早全面拥抱MCP协议的平台之一,此次其推出企业级MCP服务,并接入超过1000个MCP servers。开发者可以基于千帆大模型平台提供的工具链自主开发MCP servers,并一键发布到千帆MCP广场。 这种低门槛、高效率的开发模式,正全面激活Agent生态爆发。 结语:一站式赋能破局,激活大模型应用价值 百度智能云千帆大模型平台这样一站式赋能的平台,正成为当下大模型价值爆发的底座,全方位承载企业智能化转型需求。至今,千帆平台覆盖的客户已经超过40万家,在央企渗透率超过60%,精调模型超过4.5 万个,开发应用超100万个。海量的行业落地实践持续反哺平台迭代,使得其形成了“应用实践、技术优化、能力升级”的正向循环。 与此同时,智能超参数的数据显示,今年第一季度,百度智能云实现了大模型中标项目数量和中标金额上的双第一。这些都证明,从模型调用、开发到应用开发一应俱全,并结合“资源+工具+场景”全套服务的千帆大模型平台,已经在降低企业开发成本、简化复杂流程上突围。 大模型应用潮涌起,我们已经预见伴随着MCP生态和超级Agent的繁荣,大模型的技术红利真正转化为企业降本增效、创新增长的实际价值。这场革命也催生了新的机遇,唯有拥抱变化、主动转型,方能在AI重塑的商业格局中占据一席之地。
限时 28.99 万元起!领克 900 正式上市,还送碎屏险?
我第一次见到能够向后旋转 180°的座椅,是在 2023 年广州车展上。 当时,上汽大通推出的 MPV 大家 7 搭载了这一配置,不过由于这辆车的热度有限,旋转座椅这一亮点也逐渐被大家遗忘。直到 2024 年下半年,极氪 MIX 的爆火,才让旋转座椅走进大众视野。 在刚刚过去的上海车展上,理想 MEGA Home 家庭特别版也带着旋转座椅入场。与此同时,理想汽车通过各大官方渠道,向广大用户展示了旋转座椅在家用场景中的更多可能。 在这个过程中,受益最大的可能就是今天发布的领克 900 了,因为它也配备了旋转座椅。 兄弟我正愁如何教育用户呢!感谢友商的助力! 今晚,领克正式发布了他们的首款大六座 SUV 领克 900,在 28.99 万元的限时售价公布时,现场响起了如雷般的掌声。 旋转座椅+天地尾门,领克的新「组合技」 今年 1 月,领克副总经理穆军在社交媒体上发了一张领克 900 的侧颜照,并配文: 我常常想,如果人生是旷野的话,那么领克所做的就是去不断拓宽边界,发现生活的更多可能。 这段话初看之下似乎显得有些「形而上学」,但我们依然能够从中提炼出一些关于新车的核心要点——即「生活的更多可能」。 由于当时领克 900 还没有正式发布,董车会猜想,这辆 SUV 大概率会是一辆更注重家庭用途的车型,而且领克很有可能从使用场景出发,带来了一些别家少有的创新体验。 现在我们知道了,其中一大「创新体验」就是旋转座椅。 领克 900 是全球首款配备双 180° 电动旋转座椅的 SUV 车型,其二排座椅可以向两侧旋转 90°,又或者是向后旋转 180°,来适配不同的使用场景。 例如,朝外旋转方便奶爸们安装儿童安全座椅;搭配标配的双侧电动踏板方便老人上下车。 为了给这两张座椅提供最大灵活度,领克为 900 带来了同级别中最长的二排滑轨,达 1050mm,座椅滑移行程达 550mm,重新设计的前排电池包和油箱布局,也为 900 带来了高达 1.3m 的开阔空间。 据极氪科技集团副总裁林杰介绍,不只是座椅的旋转,领克在后门上还下了大功夫:电吸门+4 段式限位器,后门开度接近 90°,能够更好地方便家人进出。 「我们就是要为家人开最大的门。」林杰说, 不仅如此,领克 900 还将大六座 SUV 的三排空间提升到了一个新高度,号称「身高一米九也有伸腿自由」。三排座椅滑动行程为 125mm,支持最大 155° 的靠背调节,甚至还配备「老板键」和一键便利下车(二排座椅往前收折)。 舒适性配置上,领克对六张座椅几乎是一视同仁,全部标配云感舒压座椅,支持热石按摩,即便是三排座椅的乘客,也能享受厚实的「大沙发」。 林杰说,老人和小孩坐都舒适,他管这叫「三岁到百岁都喜欢」。 领克对于座舱的创新不止空间,抬头就能看到一块 30 英寸的 6K 悬浮屏(入门版需选配),更大的尺寸为三排带来了更好的观影体验,且支持分屏操作和手势控制。 前排也用上了同一块娱乐屏幕,中控屏和副驾屏之间不再有隔断,副仪表台上也保留了一定的物理按钮,便于操作。 领克还使用包括 8 个头枕扬声器(前两排四个座位)在内的共计 31 扬声器,组成了一套峰值功率 2640W 的音响系统,支持杜比全景声,同时联合 QQ 音乐等平台推出了 96kHz 无损音源,追求音质的发烧友可以尝试一下不插 U 盘了。 可以发现,或许是入局较晚的缘故,虽然是第一次做大六座车型,但领克 900 并没有走什么弯路。 比如说,领克没有盲目选择所谓的「航空座椅」,而是配备了更适合家用的活动扶手;标配双小桌板、手机槽位、冷热冰箱、三排的音响和空调出风口,领克也有注意到。这些,都是近两年经过市场验证过的「标准答案」。 但如果只有这些,领克 900 和市场上那一堆六座家用 SUV 有什么区别?穆军口中的「生活的更多可能」,又在哪里? 值得庆幸的是,领克 900 并不是一辆套着「领克壳子」的理想 L9,更灵活的三排空间,以及二排座椅的的巧思,都体现了领克对于「生活」的一些思考,就连它的尾门,也换成了成本更高,但置物更加便利,使用场景也更多的天地尾门。 林杰向我们介绍称,这实际上是自主品牌第一个天地尾门,能够承重 300kg,把六座车变成「外挂八座车」没有任何问题。 做天地门其实特别费时又费力,为什么我们还要坚持做?很简单,领克 900 车长 5.24 米,停车入库以后,车位往往都会离墙很近,常规的后备箱很难打开。 另外,900 还可选装收缩电动拖车钩,拖挂承载重量 2 吨,在预售订单里,有超过 10% 的用户选择了这一配置。 驾控和安全,是领克的根本 在市场上现有的一些大型新能源 SUV,它的智能化的表现是十分吸睛的,但驾控不够跟手,悬架也比较软,有的时候就像开船。 极氪科技集团副总裁林杰认为,900 最大的特点,就是解决了家用需求的同时,还能提供上乘的驾驶感受,对得起车头的领克徽标。 在领克 900 这辆车上,我们能明显感受到,即便是造家用 SUV,领克也依然保持着它一贯的坚持和追求。 领克 900 基于 SPA Evo 架构打造,配备同级唯一的闭式双腔空悬,在过滤颠簸和支撑方面,拥有更宽的调整范围。在转向方面,900 还用上了更精准、响应更快的 RPS 转向机。 从日常驾驶的角度来看,领克也为 900 加入了一些大车该有的配置——后轮转向。 900 2.0T 探索版拥有 10° 的后轮转向,这也表明,SPA Evo 的后悬挂很有可能从 SPA 的 H-Arm 搭配整体式衬套的设计,换成了操控性能更优的 5 连杆。 同时,SPA Evo 继续向智能化进化,搭载领克 Super AI 数字底盘,标配数字魔毯等功能,空气悬架的最大调节行程为 105mm,可配合车辆的感知系统实现毫秒级的软硬调节;探索版还支持窄路蟹行、华尔兹掉头,最小转弯半径小于 5 米。 动力上,领克 900 分成了三个版本: 入门款用的是 1.5T 发动机+前后双电机,往上就是 2.0T 发动机+前后双电机。 要注意的是,两个版本的电机功率一致,零百加速都在 4 秒级,换用 2.0T 主要是为了满足长时间高功率的输出工况。 还有一个顶配用的是 2.0T+三电机(后轴两台轮边电机),综合功率达到 884 马力,零百加速 4.3 秒,最高车速 240km/h,百公里刹停距离 33.95 米。 另外,无论是哪个动力版本,都配置了 3 档 DHT,即使是在馈电状态,动力也依旧不会有太大衰减。 除了空间和动力,安全也是领克在发布会中提到的重点。 在极氪科技集团 CEO 安聪慧演讲的部分,他讲到,SPA Evo 架构在对结构优化的同时,延续了「丢轮保命」绝技和前纵梁 W 折弯的吸能技术;重新设计的五横六纵车身结构为电池提供了「超强防护」。 不仅如此,900 还成为了行业首个做到乘员舱侧面百分百覆盖热成型钢的车型,尾部则用上了热成型纵梁和高强度钢板,就连三排座椅靠背之内,也增加了钢板。 车尾的重重防护,让 900 成功通过了中保研 100km/h 75% 偏置后碰测试。 主动安全方面,领克 900 的 2.0T 车型配备了基于英伟达 Thor 平台的千里浩瀚智驾 H7 方案,虽然 1.5T 车型用的是 Orin-X,但无论是入门还是顶配,都采用了「视觉+激光雷达」的方案。得益于此,AEB 的介入最高速度来到了 130km/h。 空间+驾控+安全,领克作为家用 SUV 市场的后来者,非常清楚自己该如何赢下这场牌局。 不让用户做选择题 回顾过去,领克凭借 CMA 和 SPA 架构,在性能操控和安全方面达到了领先行业的高度,领克 09 确也称得上是中大型新能源 SUV 中最安全、最好开的大车。但显然,领克的那一次尝试并没有获得销量上的成功。 从领克 09 用户的实际反馈来看,领克 09 的「安全」和「驾控」得到了他们的高度认可,但是空间确实做得美中不足。 「我们意识到,空间对于购买大车的用户来说十分重要」,林杰曾在采访中对董车会说,「领克之所以在今天推出基于 SPA Evo 架构打造的领克 900,就是为了让用户不再做选择题。」 在领克 900 这辆车上,我们看到了 Ultra 版和探索版标配的后排娱乐屏和 21 英寸轮毂,看到了全系标配的电动踏板、天地门、旋转座椅;为了打消部分用户对于车头外屏的碎屏顾虑,领克甚至还专门推出了「免费碎屏险」。 所有的这些,都是为了让用户不再做选择题。
腾讯、阿里、字节跳动,谁在抢购算力资源?
文|《财经》特约撰稿人 顾翎羽 记者 刘以秦 编辑|刘以秦 《财经》从多个独立信源处获悉,今年一季度,腾讯向字节跳动购买了价值约20亿元的GPU(图形处理器)算力资源,这批资源以英伟达H20卡和服务器为主,腾讯元宝目前的更新主要使用来自字节的卡。除了腾讯,一位知情人士称,阿里也在今年一季度DeepSeek爆红之后,向字节跳动下了GPU订单。 多位接近字节跳动人士告诉《财经》,字节跳动在去年囤积了大约10万个GPU模组。一位服务器厂商人士告诉《财经》,据其估算,这批GPU资源总价值在1000亿元左右。多位字节跳动人士告诉《财经》,字节跳动采买的GPU资源主要为自家大模型和云各项业务自用,其中只有不到十分之一,也就是约几十亿元的资源对外售卖。由于目前算力市场供不应求,卖卡已经成为火山引擎重要的增量营收来源之一。 字节相关负责人回复《财经》称,以上为不实信息。 据公开信息,2024年,微软拥有75万—90万块等效H100,谷歌有100万—150万块,Meta有55万—65万块。前述字节人士称,目前字节有约100万张卡,算力资源规模已经跻身世界第一梯队。 字节跳动、腾讯和阿里被认为是中国拥有GPU资源最多的三家互联网公司。前述知情人士告诉《财经》,字节的高管一度叫停过对外出售算力资源的生意,但是由于管理层对业务部分设置了相对较高的收入业绩要求,最终交易得以进行,但整体规模缩小了。另有字节跳动人士告诉《财经》,去年底,他们一度担心公司囤积了太多的GPU算力资源“用不完怎么办”,但是没有想到DeepSeek带来了激增的算力需求,“一开始我们还主要卖H20,现在只要是性能不要太差的卡,都有人来抢”。 今年以来,DeepSeek的出现让互联网大厂看到了AI应用规模化的可能,也重燃了各家大厂对算力资源的渴求。业务的实际需要,加上英伟达随时有可能被加码的出口管制,让一季度出现了各家公司抢购英伟达H20的局面。H20是英伟达在2023年底针对中国市场推出的一款AI加速卡,也是此前中国买家能在合法渠道上买到的用于大模型训练和推理的最先进的英伟达芯片。 据媒体报道,2024年一季度,包括字节跳动、阿里巴巴和腾讯在内的中国企业已下单至少160亿美元的英伟达H20芯片。 今年2月,《财经》曾独家报道,腾讯向英伟达采购一批订单金额约合几十亿元量级的芯片,以H20为主。业内人士分析,腾讯加大算力投资,是为了提升C端的使用体验,腾讯旗下应用的用户数量庞大,如果频繁出现卡顿或“服务器繁忙”,会直接导致用户流失。 今年4月15日,英伟达中国市场“特供”的芯片H20也已经被美国政府列入了出口管制,必须要有许可证才可出口。 责编 | 要琢
中兴AI家庭“四大件”发布:路由器秒变数字管家
凤凰网科技讯 4月28日,中兴通讯在第八届数字中国建设峰会期间发布AI家庭“四大件”战略体系,正式推出问天旗舰路由器、FTTR全光智慧屏、全球首款二合一云笔电及5G自由屏等创新产品,构建覆盖家庭连接、算力、交互、服务的完整生态链。 中兴通讯通过“网算屏体”四维融合打破传统智慧家庭产品边界,其问天旗舰路由器搭载自研四振子全向增益天线,实现双2.5G网口叠加与Wi-Fi 7双频协同,实测穿墙衰减降低40%。FTTR全光智慧屏创新集成NAS存储与AI算力,在实现10英寸便携管控的同时,通过动态身份识别实现“千人千网”智能分配,家庭存储扩容至8TB并支持危险场景实时预警。 全球首款二合一云笔电采用14英寸触控屏与全金属机身设计,云端本地双系统无缝切换,实测文档加载速度较传统设备提升3倍。5G自由屏突破27英寸屏幕物理限制,通过万向轮静音移动与多形态显示,实现家庭办公场景切换响应时间缩短至0.8秒,户外网络延迟控制在50ms以内。 中兴通讯智慧家庭业务负责人透露,AI家庭机器人已进入量产前测试阶段,搭载多模态交互引擎,支持家庭成员行为模式学习与主动服务响应,在儿童看护场景中实现跌倒识别准确率达98.7%。端云协同大模型部署方案通过本地化数据处理,将家庭隐私信息存储风险降低76%。 据现场演示数据显示,AI业务识别系统可自动识别18类家庭场景流量特征,在4K视频会议场景下网络抖动值稳定在5ms以内。中兴通讯同步宣布开放AI家庭生态平台,首批接入智能家居品牌已达37家,计划年内实现跨品牌设备协同率提升至90%。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。