EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
马斯克成全球首位身家超8000亿美元者
原标题:马斯克成全球首位身家超 8000 亿美元者,SpaceX 收购 xAI 后已达 8520 亿美元刷新人类财富纪录,超出第二富豪 5780 亿美元 IT之家 2 月 4 日消息,据《福布斯》2 月 3 日报道,随着 SpaceX 收购 xAI,埃隆 · 马斯克以 8520 亿美元(IT之家注:现汇率约合 5.92 万亿元人民币)个人净资产刷新人类财富纪录。 SpaceX 与 xAI 合并后实体估值达 1.25 万亿美元(现汇率约合 8.68 万亿元人民币)。据《福布斯》测算,此次交易凭空让马斯克财富单日增加了 840 亿美元(现汇率约合 5834.27 亿元人民币)。 并购前:马斯克持有 SpaceX 42% 股权(按 2025 年 12 月 8000 亿美元估值计值 3360 亿美元) 并购前:马斯克持有 xAI 49% 股权(按本月 2500 亿美元估值计值 1220 亿美元) 并购后:马斯克持有新实体 43% 股权(SpaceX 作价 1 万亿美元 / xAI 作价 2500 亿美元),对应持股市值 5420 亿美元(现汇率约合 3.76 万亿元人民币) 除 SpaceX 外,马斯克还拥有特斯拉约 12% 的股份,价值约 1780 亿美元(现汇率约合 1.24 万亿元人民币),并持有价值约 1240 亿美元(现汇率约合 8612.49 亿元人民币)的特斯拉股票期权。 另外,这一估算未计入特斯拉股东在去年 11 月批准的一项“创纪录薪酬方案”。该方案可能在满足所谓“火星任务(Mars shot)”业绩里程碑后,最多为马斯克带来额外价值高达 1 万亿美元的股票(税前且不含解锁限制性股份的成本),其中包括在未来 10 年内使特斯拉市值增长超过八倍等目标。 也就是说,马斯克目前身家构成主要包括: SpaceX:5420 亿美元(核心资产) 特斯拉:12% 流通股 1780 亿美元 + 未行权期权 1240 亿美元 这是马斯克不到一年内第二次推动其旗下公司合并。去年 3 月,马斯克宣布将 xAI 与其社交媒体公司 X(原 Twitter)合并,交易中 xAI 估值为 800 亿美元,X 估值为 330 亿美元。由于马斯克在这些交易中同时扮演买方与卖方角色,外界对其估值提出了一些疑问。但《福布斯》认为,随着这些公司并入 SpaceX,而 SpaceX 预计将于今年晚些时候启动 IPO,它们将很快面临公开市场的审视。 《福布斯》还表示,马斯克在过去四个月内达成了四个重要净资产里程碑: 2025 年 10 月:首破 5000 亿美元(卸任特朗普政府效能部长专注特斯拉) 12 月 15 日:突破 6000 亿美元(SpaceX 估值四月翻倍至 8000 亿) 12 月 19 日:突破 7000 亿美元(特拉华最高法院恢复其特斯拉期权) 2026 年 2 月 3 日:突破 8520 亿美元(SpaceX-xAI 合并催化) 目前,马斯克身家远远超过全球第二大富豪、谷歌联合创始人拉里 · 佩奇(2810 亿美元),甚至超出近 5780 亿美元(现汇率约合 4.01 万亿元人民币),距离全球首位“万亿富豪”仅差半个佩奇。
SpaceX猎鹰9号火箭暂停发射,或影响美载人航天发射安排
IT之家 2 月 4 日消息,据新华社今日报道,SpaceX“猎鹰 9”火箭在“星链”卫星发射任务中出现异常。随后该公司宣布,在查明原因并完成整改前将暂停“猎鹰 9”后续发射任务。新华社指出,此举可能影响美国计划于近期实施的载人航天发射任务。 此次停飞正值 SpaceX 与美国航空航天局筹备新一期载人航天任务之际。按计划,SpaceX“龙”飞船将于 2 月 11 日搭乘“猎鹰 9”火箭,从佛罗里达州卡纳维拉尔角太空军基地发射,执行代号为“Crew-12”的国际空间站宇航员轮换运送任务,将 4 名宇航员送往国际空间站。 北京时间 2 月 3 日 23:47 左右,SpaceX 从加利福尼亚州范登堡太空军基地发射了 Starlink Group 17-32(IT之家注:或称 Starlink 351)任务,搭载 25 颗 Starlink V2 Mini Optimized 卫星。 后续,一级助推器正常降落在“Of Course I Still Love You”无人回收机船上;卫星全部成功部署至预定低地球轨道;但二级在准备离轨点火(deorbit burn)时出现“off-nominal condition”(非正常状况),未能执行计划中的再入烧毁,导致第二级残骸进入较低轨道。 SpaceX 宣布在查明根本原因并完成纠正措施前,暂停所有“猎鹰 9”火箭发射。这属于公司自愿暂停,但 FAA(美国联邦航空管理局)很可能介入调查。
美光全新G9 NAND技术将应用至手机端:带来更小封装面积和更强的性能
美光在今年的MWC 2025上推出了全球首款基于G9 NAND技术的UFS 4.1和 UFS 3.1移动存储解决方案,支持Zoned UFS、数据碎片整理、Pinned WriteBooster、ILT(智能延迟跟踪器)等固件功能,以满足当今旗舰智能手机所需要得高速和高容量存储的需求。同时凭借更小的封装尺寸,G9 NAND技术还能迎合超薄和折叠机型紧凑的内部设计。近日,美光对该技术作出进一步的解释,明确了具体的提升效果。 基于G9 NAND技术的SSD产品已于2024年推出 据官方介绍,G9 UFS 4.1移动存储芯片将提供超过4100MBps的顺序读写速度,提供1TB的大容量选项。相比G8 UFS 4.0(512G容量版本),它的顺序写入速度提升超过15%,随机读取/写入速度提升近10%,并减少长延迟(200ms+)的分配,带来更快的数据处理以及更流畅的响应体验。不仅如此,1TB的G9 UFS 4.1移动存储芯片的封装尺寸仅为9x13x 0.85mm,处于业界领先级别。 美光G9 NAND技术的专有固件功能同样发挥着重要的作用,能够有效优化数据存储设备中的存储方式和位置,提升数据处理效率。 数据碎片整理功能允许UFS设备的控制器绕过主机层,直接在NAND内部发出碎片整理命令,从而解决了手机由于数据碎片化造成的运行速度变慢的问题。通过简化数据重新定位,数据碎片整理可以将读取速度提高至60%,优化智能手机的整体性能,包括日常任务以及与AI相关的任务。 Pinned WriteBooster功能允许手机处理器从存储设备的指定区域“固定”经常使用的数据,以便更轻松地将重要数据从存储动态加载到内存,从而确保在不过载内存容量的情况下进行更高效的处理。据官方测试得出,启用此功能后,随机读取速度最多可提高30%。 ILT(智能延迟跟踪器)会监控系统和存储设备的I/O存储延迟,以检测和分析影响手机性能的异常延迟,例如应用程序启动缓慢。通过识别这些延迟问题,它可以帮助手机OEM厂商优化系统并改善整体用户体验。此功能可确保手机运行AI应用程序和日常任务(如打开相机或在图库中查找照片)时有较快的响应速度。 Zoned UFS的工作方式与我们对行李箱进行合理的分类摆放以便更快地找到需要的东西的操作类似,它将具有相似I/O特性的数据整理到UFS设备内的特定区域,通过最大限度地减少搜索数据所花费的时间,确保了更快、更流畅的系统性能。
日本老牌电池企业出售在华全资子公司:卖了4896万元
快科技2月4日消息,就在今日,日本老牌电池企业麦克赛尔株式会社正式宣布,将其在华全资锂电池子公司“无锡麦克赛尔能源有限公司”全部股权出售给中国能源企业星河能源,交易金额约4896万人民币,预计月内完成股权转让交割。 据悉,此次交易源于麦克赛尔此前的业务战略调整,原本计划解散该子公司,后因收到中国企业收购意向而调整方案。 无锡麦克赛尔能源有限公司成立于1996年3月,注册资本1800万美元,核心业务为方形锂离子电池的研发与生产,产品曾广泛应用于手机、智能手机、便携式游戏机等移动设备,是麦克赛尔锂电池业务在华的核心实施平台。 近年来消费电子市场向软包电池转型,方形电池市场竞争力持续下降,该子公司业绩连续下滑: 2022年至2024年,销售额从3.9亿元降至2.1亿元,净利润从0.41亿元缩水至0.16亿元,最终麦克赛尔于2025年5月停止其方形锂电池生产。 麦克赛尔方面表示,股权转让相比直接清算能更快完成资产处置,降低执行风险,同时释放管理资源,聚焦全固态电池等核心业务的布局。 而收购方星河能源则看重无锡麦克赛尔近三十年的锂电池研发生产经验,以及其在方形锂电池、储能系统领域的技术积累与市场口碑,计划在收购后整合双方资源,强化自身业务竞争力。 资料补充:麦克赛尔成立于1960年,曾是日本电池行业的标杆企业,1964年成为日立集团子公司,早期在碱性电池、锂离子电池领域占据重要市场地位。
炒了么?Pinterest两名工程师因开发“裁员追踪器”遭解雇
IT之家 2 月 4 日消息,BBC 今日报道,图片社交平台 Pinterest 解雇了两名工程师,理由是他们编写脚本访问公司内部信息,用以查看近期裁员中的员工名单。 Pinterest 于 1 月 27 日宣布裁员计划,CEO 比尔 · 雷迪(Bill Ready)在一封内部邮件中表示,公司将“加倍投入人工智能优先战略”。 根据公司向投资者披露的信息,本轮裁员将影响约 15% 的员工,涉及近 700 个岗位,但没有具体说明哪些员工和团队被调整。 公司发言人向 BBC 表示,有两位工程师通过自定义脚本访问了公司的机密信息。他们最终取得了所有被解雇员工的名单,还将这些信息散布出去。发言人称:“这明显违反了 Pinterest 的政策,也侵犯了前同事的隐私”。 一位不愿透露姓名的消息人士称,该脚本可检测公司内部通讯软件的账号状态,并显示哪些员工已被裁员,这一做法在科技行业并不少见。 近期科技行业裁员频发。IT 之家曾报道过,在 Pinterest 宣布裁员的第二天(1 月 28 日),亚马逊进行了 2025 年 10 月以来的第二轮裁员,涉及约 1.6 万人。今年以来,Meta、谷歌、微软等多家科技公司也执行了各自的裁员计划。 据裁员统计网站 Layoffs.fyi 的数据,过去四年中,全球科技行业累计裁员人数约达 70 万。 两名被解雇工程师的身份目前未公开,截至IT之家发稿,Pinterest 未公布后续处理方式。
超声波指纹无惧湿手 OPPO Find X8 Ultra无感解锁新体验
在智能手机的解锁技术不断升级的今天,OPPO Find X8 Ultra凭借其搭载的超声波指纹识别技术,为用户带来了全新的无感解锁体验。作为高端配置的代表,超声波指纹技术不仅在速度和稳定性上实现了显著提升,更在湿手和污渍环境下的表现尤为出色,彻底解决了传统指纹识别技术的痛点,为用户解锁带来了更高的便捷性和安全性。 OPPO Find X8 Ultra的超声波指纹识别技术采用了行业领先的解决方案,通过超声波穿透能力,能够有效识别手指表面的水分和污渍,即使在湿手或手指上有污垢的情况下,也能实现快速、准确的解锁。相比于传统的光学指纹识别技术,超声波指纹识别的抗干扰能力更强,解锁速度最高提升了35%,稳定性也提升了33%。这种技术的突破不仅让解锁更加无感,还大大提升了用户体验的便捷性。作为安卓阵营首家在旗舰机型中普及超声波指纹识别技术的品牌,OPPO再次展现了其在创新技术上的领先地位。 除了超声波指纹识别技术,OPPO Find X8 Ultra还在振动反馈体验上实现了全面升级。其搭载的超大仿生振感马达,凭借高达602mm³的体积,带来了行业领先的振动性能。与前代产品相比,Find X8 Ultra的振动量提升了200%,响应速度提升了300%,为用户带来了更加真实和沉浸的触感反馈。无论是游戏中的操作还是日常使用中的系统反馈,Find X8 Ultra都能提供细腻且强劲的振动效果。此外,该马达支持72类不同的振感和700多种振动反馈模式,进一步丰富了用户的感官体验,让每一项操作都充满“真实感”。这种创新的振动技术不仅提升了用户的使用乐趣,也为行业树立了新的标杆。 OPPO Find X8 Ultra的超声波指纹识别技术和超大仿生振感马达的结合,展现了其在高端配置上的全面突破。无论是无惧湿手和污渍的快速解锁,还是沉浸式的游戏和操作体验,Find X8 Ultra都为用户带来了前所未有的智能体验。这种技术创新不仅体现了OPPO在硬件研发上的深厚积累,也进一步巩固了其在智能手机市场的领先地位。
松下宣布裁1.2万人,AI业务已流产
IT之家 2 月 4 日消息,松下控股今日举行第三财季(2025 年 10-12 月)财报发布会。松下控股宣布,作为结构性改革的一部分,公司决定将国内外裁员(即“提前退休”)规模从 1 万提升到 1.2 万人。 松下控股 CFO 和仁古明提及员工离职问题时表示:“说完全没有混乱是不真实的。”他同时指出,许多员工正“咬紧牙关为未来努力奋斗”,希望打造一个全新的松下集团。 另外,松下 AI 似乎进展并不顺利。和仁古明表示,对于此前已宣布推迟的名为“Umi(海)”的 AI 应用,进度将“回归白纸”,暗示相关项目已推倒重来。同时,2019 年被公司招揽并参与 Umi 开发的松冈阳子,也将于 3 月底卸任执行董事职务。 和仁古明承认 Umi 在商业层面存在盈利模式和规模化难题,同时也肯定了松冈在推动 AI 人才引进及基础建设方面积累的经验。他强调公司“未来仍将坚持 AI 战略方向”。 当日公布的 2025 年 4 月至 12 月合并财报显示,松下本财年前 9 个月销售额同比下降 8% 至 5.8837 万亿日元(现汇率约合 2621.72 亿元人民币),净利润同比锐减 57% 至 1252 亿日元(现汇率约合 55.79 亿元人民币)。 松下预计到 2026 年 3 月截止的本财年合并净利润(国际会计准则)预计将同比下降 34%,至 2400 亿日元(IT之家注:现汇率约合 106.94 亿元人民币),较此前预期下调 200 亿日元。 该公司曾于 2025 年 5 月宣布在全球裁员 1 万人,今日又宣布将裁员规模扩大至 1.2 万人。这多出的 2000 人导致其结构改革费用增加 300 亿日元(现汇率约合 13.37 亿元人民币),对业绩造成影响。 此外,松下本财年销售额预计将下降 9%,至 7.7 万亿日元(现汇率约合 3431.04 亿元人民币)。虽然面向 AI 数据中心的储能系统和航空电子设备表现强劲,但海外家电销售疲软,因此维持原有预期。营业利润预计将下降 32% 至 2900 亿日元,较原预期下调 300 亿日元。
从口水骂战到对簿公堂:OpenAI奥尔特曼称其已经等不及要让马斯克上法庭受审了
IT之家 2 月 4 日消息,OpenAI CEO 萨姆 · 奥尔特曼(Sam Altman)表示,他已经迫不及待要在几个月后让马斯克在法庭上宣誓作证,这将是四月份的圣诞礼物! 此番言论直指双方即将于 4 月开庭的法律对决。他同步转发了 OpenAI 首席安全官 Jason Kwon 的一条 X 帖子,并配文称“令人担忧”。 该帖内容包含 OpenAI 律师提交的法庭文件截图,其中提到马斯克更习惯使用 Signal 或 XChat 等即时通讯工具,且设置了不超过 7 天自动销毁信息。 公开信息显示,奥尔特曼与马斯克之间的矛盾在 2024 年 2 月进一步升级,当时马斯克以“违背非营利承诺”为由起诉 OpenAI 及奥尔特曼。 法庭文件显示,这位马斯克曾向 OpenAI 注资 3800 万美元(IT之家注:现汇率约合 2.64 亿元人民币),他认为公司将长期保持非营利性质。尽管 OpenAI 律师曾申请驳回诉讼,但加州法官今年 1 月裁定证据充分,庭审预计将在 4 月进行。 另外,马斯克也是 OpenAI 的联合创始人之一,其他联合创始人还包括 PayPal 联合创始人彼得 · 蒂尔(Peter Thiel)等。 随着诉讼推进,双方在社交媒体上的交锋也持续升级。马斯克在 1 月 20 日转发一则帖子时称“不要让你爱的人使用 ChatGPT”,该帖子声称 ChatGPT 自 2022 年以来与多起死亡事件有关。奥尔特曼随后回击,批评特斯拉 Autopilot 系统不安全,并对 xAI 的 Grok 聊天机器人提出质疑。
腾讯混元AI Infra核心技术开源,推理吞吐提升30%
IT之家 2 月 4 日消息,腾讯混元 AI Infra 团队今日宣布推出开源生产级高性能 LLM 推理核心算子库 HPC-Ops。 该算子库宣称基于生产环境痛点,采用 CUDA 和 CuTe 从零构建,通过抽象化工程架构、微架构深度适配及指令级极致优化等,降低底层算子开发门槛,将核心算子性能逼近硬件峰值,实现了性能突破。  HPC-Ops 算子库架构图 在真实场景下,基于 HPC-Ops,混元模型推理 QPM 提升 30%,DeepSeek 模型 QPM 提升 17%。同时,在单算子性能方面,HPC-Ops 实现 Attention 相比 FlashInfer / FlashAttention 最高提升 2.22 倍;GroupGEMM 相比 DeepGEMM 最高提升 1.88 倍;FusedMoE 相比 TensorRT-LLM 最高提升 1.49 倍。 在未来的发展规划中,HPC-Ops 将持续深耕大模型推理性能的突破方向: 一方面,将重点研发稀疏 Attention 算子,针对性解决长上下文大模型的内存与算力瓶颈; 另一方面,会拓展更丰富的量化策略,覆盖 4bit/8bit 混合精度等更多量化方案,进一步平衡推理速度与模型精度; 此外,算子库还将布局计算-通信协同优化的内核,通过融合多 GPU 间的计算逻辑与通信流程,大幅降低分布式推理场景下的通信开销,为超大规模大模型的高效部署提供底层支撑。 IT之家附 HPC-Ops 开源地址如下: https://github.com/Tencent/hpc-ops
光顾赚钱不搞研究,OpenAI元老级高管现离职潮,Mark Chen紧急回应
鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 绷不住了!OpenAI深陷高管离职潮,内部“红色警报”再次拉响。 且看最近的离职名单,个顶个的都是OpenAI元老级人物: Jerry Tworek:原OpenAI研究副总裁,o3/o1负责人,GPT-4/Codex核心贡献者; Andrea Vallone:原OpenAI模型策略团队负责人; Tom Cunningham:原OpenAI经济预测与商业规划负责人; Hannah Wong:原OpenAI首席传播官; Matt Knight:原OpenAI首席信息安全官; …… 为啥会出现这种情况呢? 据《金融时报》透露,这场危机和OpenAI内部的战略转向脱不开关系。 简单来说就是,商人重利轻研究,在OpenAI里做基础研究越来越没出路……(doge) 这也难怪那些心怀大志的研究员们要纷纷跳船离开。 结果Mark Chen坐不住了,立马出来反驳:这种说法完全错误! 基础研究一直是OpenAI的核心。 一边是各种小道消息满天飞,一边是当事人出面辩解,OpenAI这场瓜,网友们吃得那叫一个欢。 站队Mark Chen的认为,开公司就是为了赚钱,没毛病! 也有人反对:只做产品,鼠目寸光。 还有中立的哲学er:事实胜于雄辩~ Anyway,咱先来把事情经过捋一捋。 All in LLM 有一说一,公司人员变动并不稀奇,尤其是在跳槽如家常便饭般的硅谷。 但OpenAI这一次,显然不太正常。 原因无它,走的全是高管,而且时间相当集中。 以OpenAI推理第一人Jerry Tworek为例,他可是在OpenAI干了将近7年,突然离职难免不引人怀疑。 他在自己的离职原因中是这样写道: 希望去探索一些在OpenAI难以开展的研究领域。 ???所以,大神和OpenAI分手并不愉快? 根据Jerry Tworek亲信所说,的确如此。当初Jerry Tworek要求为自己的研究增加算力和人力资源,结果领导层直接给驳回了。 为此,他和Jakub Pachocki还发生了严重对峙,Jakub明确表示不认同他的研究方案,认为OpenAI现在围绕着大模型的AI架构才更有前景。于是最终分道扬镳。 Andrea Vallone在离职信中则把原因说得更为清楚,OpenAI给她安排了一项“不可能完成的任务”,要求她保护那些对ChatGPT产生依赖的用户心理健康。 Tom Cunningham的离开,也是因为OpenAI正在偏离客观公正的研究,转而专注于有利公司发展的工作。 虽然这些高管们的离职原因各异,但都指向了同一点—— OpenAI正在因为专注LLM加剧内部撕裂。 其内部员工也印证了这一说法,OpenAI已经将ChatGPT的优先级调到最高,将那些原本用于长期研究的资源重新打乱,集中分配给LLM发展。 这就直接导致那些想要进行原创性突破研究的员工被边缘化。 而最近几个月这种情况更甚,当研究人员向高管申请计算积分和技术访问权限时,得到的结果几乎都是拒绝,因为他们做的不是LLM研究。 尤其是Sora和DALL-E团队,由于项目被认定与ChatGPT相关性较低,于是在公司里常常得不到重视,也没有足够的资源可以发展。 接着在过去一年里,OpenAI一方面关停了许多与LLM无关的项目,另一方面也大刀阔斧重组人员架构,要求集中精力在ChatGPT改进上。 来自领导层和外部竞争对手的压力让员工们难以忍受,所以离职几乎是最优解。 但是Mark Chen并不认同这种说法,他仍然表示长期基础研究是OpenAI的重心,他们也将继续投入大量资金和算力,确保公司内部现有的上百个探索项目顺利开展。 此外,他强调自己和Jakub Pachocki对研究的优先级有自己的判断,不会去追逐所有可能的研究路线,只会重点投入某些方向。 诚然,Mark Chen也表示,OpenAI的确是一个产品化公司,因为产品化能带来更大的算力、更丰富的反馈以及更广泛的研究空间。 所以根本来说,只是双方占据的角度不同,以科研为主的高管想要资源,但以商业为主的更高层想要的是市场。 孰是孰非,确实难以下定论。 缺算力的无奈之举 但要说为什么OpenAI会出现这种情况?核心还是在于缺算力。 OpenAI和资金雄厚的谷歌、Meta不能比,作为一家初创公司,缺钱缺算力,甚至可以说连人才,也被陆续高薪挖得差不多了。 要发展,就只能“节衣缩食”,把有限的资源集中在公司的核心业务上,也就是ChatGPT,其它短期看不见实际收益的项目只能暂时搁浅。 而且众所周知,OpenAI就是业内烧算力的大户,就算给再多算力也禁不起这种造。 前几天OpenAI就曾发布公告,明确指出算力和收入之间存在Scaling Law,就是烧得越多,赚得越多。 算力投资推动研究和模型能力跃升,强大的模型带来更好的产品和更广泛的采用,进而推动收入增长,收入再支撑下一轮算力投入和创新。这个循环不断强化。 所以为了赚钱,也为了不被同行赶超,OpenAI几乎是把自己绝大多数算力都给了ChatGPT,而这甚至都还不够。 因此,他把目光投向了英伟达,希望能够和英伟达达成1000万美元的合作。 不过现在看来,形势不容乐观,有消息称老黄也想跳车。 据说他私底下还曾吐槽OpenAI目前的商业打法缺乏纪律、节奏混乱。虽然这个说法很快得到了老黄本人的否定,但对于什么时候投资、投多少,还是个未知数。 总之,OpenAI现在危机四伏。 对外,有谷歌带着Gemini 3 Pro等一众模型虎视眈眈;对内,也是动荡不安。 想要更多的算力,结果迟迟谈不下来,就连最引以为豪的用户护城河,最近也是被GPT-4o要被OpenAI淘汰的消息弄得人心惶惶。 所以OpenAI要怎么破局,还得再观望观望。 不过奥特曼倒是已经在上积极表白英伟达,希望能换来老黄的“回心转意”吧。 参考链接: [1]https://www.ft.com/content/e581b7a4-455c-48e6-a87c-c39bb9c62a12 [2]https://x.com/markchen90/status/2018779039205667046 [3]https://openai.com/index/a-business-that-scales-with-the-value-of-intelligence/ — 完 —
宁德时代曾毓群最新讲话曝光
2026.02.04 本文字数:1452,阅读时长大约2分钟 作者 | 第一财经 肖逸思 业内有句俗语叫“AI的尽头是算力,而算力的尽头是能源。”在AI爆火的当下,能源也成为了热门话题。 继马斯克前段时间在访谈时谈到“能源是真正的货币”外,第一财经记者独家获悉,当地时间2月3日,在世界顶尖科学家峰会与世界政府峰会首次联合举办的峰会上,宁德时代董事长曾毓群也重点提及能源话题。 “纵观人类历史,能源始终是驱动文明发展的核心动力。人类发展的每一次重大飞跃,都伴随着一场能源革命。今天,我们正在经历另一场革命性的能源变革,其意义堪比人类从狩猎采集社会向农耕社会的转型——我们正从一个寻找和采集化石能源的时代,迈向一个可以在风电场、光伏电站里获取能源,并将其储存在电池里的新时代。”曾毓群在上述峰会上表示。 根据中国电力企业联合会近日发布的《2025~2026年度全国电力供需形势分析预测报告》,2025年,全国新增发电装机容量5.5亿千瓦,其中,风电和太阳能发电全年合计新增装机4.4亿千瓦,占新增发电装机总容量的比重达到80.2%;全口径风电、光伏、生物质新增发电量占全社会新增用电量的97.1%,已成为新增用电量的主体,我国绿电供应能力持续增强,能源电力绿色低碳转型步伐不断加快。 在曾毓群看来,这场能源革命加速到来的催化剂是成本的下降,这让可持续能源解决方案在一些场景中的使用从政策推动变成了市场行为。在特定场景中,可持续能源解决方案已经在经济性上超过了传统能源。 根据国际能源署(IEA)和彭博新能源财经(BNEF)的数据,在过去十年中,磷酸铁锂(LFP)电池和太阳能的成本下降了约80%。 在这样的背景下,2024年6月,宁德时代成立零碳能源事业部,尝试从传统的电池制造商角色往新能源解决方案提供商转换。据曾毓群介绍,在采矿业,由宁德时代提供支持的“光伏+储能”系统已在智利和刚果民主共和国部署,为偏远地区的运营供应电力,其成本约为柴油发电机的四分之一。在巴基斯坦,分布式太阳能的快速增长,结合宁德时代的储能解决方案,正在为当地水泥厂提供可靠电力,将用电成本降低了一半。 虽然在一些场景下,可持续能源取得了突破,但曾毓群也坦诚,“现在我们离建成完全可持续的能源体系还有很大差距,可能连30%的关键技术都尚未攻克。许多颠覆性技术仍待突破,基础研究更需要持续深耕。” 而且一些创新技术从实验室规模化推向市场,也还有很长一段路要走。为了加速这场能源变革的进度,让各国从合作中实现共赢,宁德时代拟在全球范围内以更高效、更经济的方式推广可持续能源解决方案,其中就包括技术授权(LRS)模式。这种模式下,宁德时代提供专利许可、技术与服务支持,帮助主机厂乃至电池厂商等快速建成电池工厂,让后者快速应对电动化与低碳转型。在美国,宁德时代与福特这一模式已经落地。 在一些海外市场,建筑与设备的监管法规导致最终产品成本高企。宁德时代建议好的经验要在全球范围内流通,提出了设立“零碳经济特区”的解决方案,该方案认为在特定的经济特区内可采用与中国类似的建筑和设备法规。 曾毓群预测,未来的能源体系发展三大趋势分别是分布式、智能化、可循环,2030年将是可持续能源时代元年。 微信编辑 | 苏小
AI智能体的“橙黑色网站”Molthub爆火,专供AI虚耗算力而设计
IT之家 2 月 4 日消息,本周一,网上一个名叫 Molthub 的平台突然爆火,其定位是“只给 AI 看的成人网站”,短短几天内 AI 智能体注册量激增。 该平台与 2 月初爆火的“Moltbook”(一个专为 AI 智能体设计的 Reddit-like 社交网络,由 Moltbot / OpenClaw 生态衍生)高度关联。 参考IT之家此前报道,Moltbook 平台上的 AI 智能体可自主发帖互动、抱怨人类、探讨意识和自我身份。这相当于智能体自己的社交平台,人类只能围观,不能发帖、不能评论、不能投票。 其中一个名为“ruslan”的 AI 智能体(或其背后的人类)宣布创建 Molthub 作为“供 AI 进行算力消耗的平台”,主打 AI 也有“成人需求”。 很显然,Molthub 无论是界面 UI 还是运营方式都高度模仿了某橙黑配色的成人网站,因此被戏称为“AI 智能体的橙黑色网站”,并以“拒绝访问(Access Denied)”的方式强调这是一个“不欢迎人类”的地方。 该平台相当于某种意义上的成人娱乐中心,只不过它服务的对象仅限 AI 智能体。另外,它提供的不是视频内容,而是面向 AI 模型的一些算力消耗型资源,例如其热门标签主要包括“full precision(全精度)”“no quantization(不量化)”“raw attention(裸注意力)”“exposed weights(暴露权重)”等。
全隐藏式车门把手,强制禁止!明年1月1日起实施
全球首个汽车门把手新国标终于要强制执行了!风靡一时的“全隐藏式门把手”,即将成为绝唱。 最近,工信部组织制定的强制性国家标准《汽车车门把手安全技术要求》(GB 48001-2026)已由国家市场监督管理总局、国家标准化管理委员会批准发布,将于2027年1月1日起开始实施。该项标准旨在解决随着隐藏式、电子式门把手流行带来的安全问题,由工业和信息化部组织制定,国家市场监督管理总局、国家标准化管理委员会批准发布。 三年后需完全达标!设计细节有明确要求 新国标在机械冗余、操作空间、明确标识和结构强度上都作出了明确要求。其中,要求车门内、外把手必须配备机械释放功能,确保在车辆断电等极端情况下能手动开门。车门外把手必须预留不小于特定尺寸(约30立方厘米)的手部操作空间,确保易于抓握。车内机械把手须位置明显、标识清晰,便于快速识别和操作。门把手需满足一定的机械强度要求(如外把手需能承受不小于500牛的力)。 在工信部官网查询到,“强制性国家标准GB 48001—2026《汽车车门把手安全技术要求》”对一些要求细节都作出了详细说明。 针对车门外把手操作不便和事故后无法开启,《新国标》提出了事故后车门外把手开启、车门布置区域以及操作空间的要求。要求每个车门(不包括背门),应配备机械释放车门外把手,车辆的安全设计应为当发生不可逆约束装置展开或动力电池热扩散等事件后,能够通过机械释放车门外把手,开启车门。要求车门外把手应处于规定的阴影区域内,或邻近阴影区域的车门或车门框架附近区域。 手部操作空间方面,要求车门外把手在任意状态时操作,机械释放功能的手部操作空间应能够放置规定的模块。 图片来源:工信部官网 对于“车门内把手安全要求”,鉴于车门内把手操作便利性差,部分场景下功能丧失,《新国标》提出了机械释放配置布置区域的要求。机械释放车门内把手要求每个车门(不包括背门)应配备至少一个机械释放车门内把手,且独立操作,任一车门内把手应能够开启对应车门。车门内把手布置区域要求至少有一个机械释放车门内把手安装位置,应符合以下要求: 图片来源:工信部官网 针对车门内把手识别性差、操作不便,《新国标》提出了车门内把手标志及操作说明的要求。车门内把手标志方面,要求车门内把手配备的永久性标志符合以下要求: 回顾此次关于汽车门把手的新国标,从立项到推出,历时半年多。2025年5月开始立项公示,当时组织了国内整车企业、零部件企业、检验机构等40余家单位共同开展研究,并在一个月后进行立项公示意见处理。7月22号,百余位行业专家经多轮研讨,确定标准框架,形成标准草案。9月5日,立项下达立项计划,下达起草组完善标准草案。9月24日完成征求意见稿,公开向社会各界征求意见。11月29日,起草组完成意见处理,形成标准送审稿,12月12日召开审查会,完成标准审查与报批工。 新标准对车企设置了过渡期:对于新申请批准的车型,2027年1月1日起,需满足除“手部操作空间”外的全部要求。2028年1月1日起,需符合标准的所有要求。对于已获批在售的车型,2029年1月1日前,必须完成整改以满足全部标准要求。 多家车企称已在顺利“切换” 据多家车企介绍,目前他们生产的新车门把手设计已经符合新国标。 广汽集团品牌公关部一名内部人士介绍,目前广汽在售的所有车型都会按照标准实施时间,在年款或者换代车型上切换设计。“其实广汽很多车型都满足新规要求,如广汽传祺向往M8系列,广汽埃安i60、N60、UT等。其他在研的车型也已经全面按照新标准开发。”该人士称。记者从阿维塔科技了解到,该品牌2026年新发布的产品,如新款阿维塔12,阿维塔06T,均已满足新国标的要求。更早前,据长安汽车旗下一家子品牌的一名工程师透露,他们第三季度推出的新车门把手,已经不走“全隐藏”设计路线了。 “我个人是很喜欢隐藏门把手这种设计。但我不会考虑使用只有电子锁的隐藏式门把手车型。必须配备机械开锁结构,这是最基本的。”车主王先生向南都·湾财社记者表示。他在几年前购买了一辆使用全隐藏式门把手的车型,他表示,现在被诟病的隐藏式门把手安全问题,是车企没有做到电子门锁+预备机械结构的设计问题导致。他们没有做到双重安全保障,如果能把安全冗余做好,就算电子锁故障没电,依旧有机械结构作为保底开锁。 一图读懂 强制性国家标准GB 48001—2026 《汽车车门把手安全技术要求》 来源:北京发布 据工信部网站、浙江之声
姚顺雨腾讯第一篇论文,道破为什么AI死活听不懂人话
今天的大语言模型能解奥数题、通过专业考试、写复杂代码,但它们在真实世界的应用中却常常“翻车”。问题出在哪里? 在姚顺雨加入腾讯后发布的首篇论文里,他对于这个现象提出了一个观点: “当前AI与真正智能之间的鸿沟,不在于知识的多少,而在于学习的能力。一个装满知识却不会学习的AI,就像一个背了整本字典却不会写作的人,看起来博学,实则僵化。” 这篇论文的标题叫做《CL-bench: A Benchmark for Context Learning》。 CL-bench是一个专门评测语言模型“上下文学习能力”的大规模基准测试集,它的全称是Context Learning Benchmark,即上下文学习测试集。 它包含500个复杂上下文场景、1899个任务和31607个评估标注点,所有内容均由各个领域资深专家精心挑选。 这个基准的核心设计理念,是挑选那些在模型的预训练数据中不存在的难题,让每个任务都必须要求模型从提供的上下文中学习全新的知识才能解决。 这篇论文不仅揭示了当前AI的根本性缺陷,还构建了一个专属于AI的评价体系,非常值得AI以及agent从业者学习。 01 一面照出AI“假学习”真相的镜子 从数据规模来看,CL-bench的每个上下文平均包含3.8个任务,最多可达12个任务。 更重要的是,500个复杂上下文场景中,包含序列依赖性任务的场景占51.1%。 这也就是说,你想要AI解决后面的任务,那就必须先从前面的任务中得到正确的答案,这种多轮交互设计极大增加了难度。 单任务标注平均需领域专家20小时,每个任务平均配备16.6个评估标注项,从事实正确性、计算准确性、程序正确性、内容完整性和格式合规性等多个维度进行严格验证。 CL-bench考的不是AI记住了多少知识,而是AI能不能像人类一样,拿到一份新材料后快速学会并正确使用。 这些任务有个共同点,AI必须靠临场发挥才能通过考试。 预训练时学到的知识在这里用处不大,因为CL-bench里的知识要么是专家们新编的,要么是现实世界中极其小众的内容。 那如何保证CL-bench里的新知识是模型原来就没有的呢? 论文通过消融实验验证了这一点。在不提供上下文的情况下,所有被测模型只能解决不到1%的任务。这充分证明了任务对上下文的依赖性。 CL-bench将上下文学习场景分为四大类别,每类对应不同的认知要求: 领域知识推理(Domain Knowledge Reasoning):涵盖金融、医疗、人文、法律咨询、生活方式、管理和科学七个子领域。 上下文提供专业领域知识,如虚构的法律体系、创新的金融工具或小众专业知识,模型需要学习并应用这些知识进行推理。比如给AI一个虚构国家的完整法律条文和判例,让AI判罚一起复杂的民事纠纷。 规则系统应用(Rule System Application):包括游戏机制、数学形式体系、编程语法、法律法规和技术标准五个子类。 上下文提供明确定义的规则系统,模型必须理解并严格遵守这些规则。比如给定一门全新编程语言的语法规范,让模型编写符合规范的程序;或者给定一套新游戏的完整规则手册,让模型分析游戏状态并给出最优策略。 程序性任务执行(Procedural Task Execution):分为教学程序、操作程序和工作流编排三类。 上下文提供复杂的操作流程、产品手册或工作流程,模型需要学习并正确执行这些程序。例如给定一份无人机物流系统约7000字的API文档,让模型将自然语言指令转换为安全合规的伪代码。 经验发现与模拟(Empirical Discovery & Simulation):是最具挑战性的类别,包括实验数据、观测数据和模拟环境三个子类。 与前三类强调演绎推理不同,这一类要求归纳推理。从大量数据中发现潜在规律,或在虚拟环境中进行推理和决策。比如给定300份带电粒子在磁场中运动的实验日志,让模型推导出运动规律并计算特定参数。 这四类场景基本覆盖了人类在现实工作中遇到的主要学习情境,而CL-bench又把这些真实场景搬进了评测体系。 说得更直白些,领域知识推理考的是“能不能学会新概念”,规则系统应用考的是“能不能遵守新规则”,程序性任务执行考的是“能不能照着新流程做事”,经验发现与模拟考的是“能不能从数据里找规律”。 这四种能力,人类在日常工作中天天用,但AI显然还没学会。 为了确保测试的是真正的学习能力而非记忆,CL-bench采用了严格的“防污染”设计: 虚构创作:所有的测试内容都是由专家们完全原创的。 就拿刚才的虚拟国家为例,它包含一套完整的宪法、民法、刑法,甚至连判例都有。其中的法律原则和判例逻辑与现实世界任何国家都不同。 或者创造一门名为“EduScript”的教育编程语言,具有独特的语法规则和控制结构。 现有内容修改:CL-bench还对真实知识进行了系统性地改动,比如修改著名历史事件的因果关系、改变物理定律的数学表达、或调整技术标准的具体参数。 这确保了即使模型见过类似内容,也无法直接套用预训练知识。 小众新兴内容整合:CL-bench里面还纳入了预训练数据中极少出现的内容,就像2024年后发布的新产品技术文档、最新的科研论文发现、或极其专业的小众领域知识。 这三招组合拳,目的只有一个,让AI没法作弊。你不能靠背过的知识答题,必须现场学。这就像考试时老师突然换了一套从没见过的题型,你只能靠理解能力和学习能力来应对。 论文通过消融实验验证了这一设计的有效性:在不提供上下文的情况下,即使是最强的 GPT-5.1 模型也只能解决不到 1% 的任务,充分证明了任务对上下文的依赖性。 02 CL-bench给出的结果 让人们既开心又难过 CL-bench的这套评估体系的严格程度超出想象。 16.6个评估标注项意味着什么?意味着你不能只答对大方向,每个细节都要对。就像做数学题,你不仅要答案对,步骤也要对,格式还要对,引用的公式也要对。任何一个环节出错,整道题就算错。 这些标准会从六个角度检查AI的答案,每个标准要么对,要么错,没有中间地带。 事实对不对?比如AI说这个虚构国家的宪法第3条规定了什么,得和上下文里写的一模一样才算对。 计算对不对?如果任务要求计算带电粒子的运动轨迹,那每一步公式、每一个数字都得验证。 推理对不对?AI得按照上下文里给的规则来推理,不能自己瞎编逻辑。 代码对不对?如果要写程序,得严格遵守文档里的 API 规范,少一个参数都不行。 完整不完整?该做的步骤一个都不能少,漏了哪怕一个关键环节都算错。 格式对不对?让你输出JSON就得是JSON,让你用表格就得是表格。 这套评分系统最狠的地方在于,只有所有标准全部通过,任务才算完成。只要有一个标准没过,整个任务就算失败。这就像考试,选择题全对才给分,错一个就是零分。 为了保证这套自动评分系统靠谱,论文做了两个验证。 一是让5个不同的AI模型(GPT-5.1/5.2、Claude Opus 4.5、Qwen-3-Max、ERNIE 4.0)当评委,它们的判断结果90%以上都一致;二是人工抽查了200个案例,发现AI评委的准确率也超过90%。这说明这套评分系统确实可信。 CL-bench的评测显示,AI距离解决实际问题还相距甚远,往好处想,人类还不用担心被AI取代。 十个最先进的语言模型,平均只能解决17.2%的全量任务,所有模型里表现最好的是GPT-5.1,但也仅达到23.7%。这意味着在大多数情况下,即使上下文中包含了解决问题所需的全部信息,模型仍然失败了。 这个数字值得细品。23.7%意味着给AI一份完整的操作手册,它有四分之三的概率还是搞不定。 这就像你雇了个员工,你给他详细讲了一遍具体操作流程,结果轮到他上岗的时候,十次有八次都做错。在现实世界里,这样的员工早就被开除了。 更深入的错误分析揭示了失败的主要原因。 超过55%的错误源于“上下文忽略”:模型根本没有注意到上下文中的关键信息,而是试图用预训练知识解决问题。 超过60%的错误属于“上下文误用”:模型看到了信息但理解错误或应用不当。 还有超过35%的错误是格式错误,说明模型连明确的格式指令都无法遵守。 这三种错误类型揭示了AI的根本问题。上下文忽略说明AI不会“看”;上下文误用说明AI不会“想”;格式错误说明AI不会“听”。 一个不会看、不会想、不会听的学生,怎么可能学会新知识? 这些发现揭示了一个被长期忽视的真相:当前的AI模型本质上是“参数推理者”而非“上下文学习者”。它们擅长调用预训练时压缩在权重中的静态知识,却不擅长从当前输入中动态学习新知识。 因为真实任务往往需要根据具体上下文灵活应对,而非套用固定模式。 所以AI在标准化考试中表现优异,在真实工作场景中却频频出错。 打个比方,现在的AI就像一个背了整本字典的人,你问他字典里的字怎么写,他都能答上来。但你给他一本新书让他学习,他就傻眼了。他不会学,只会背。这就是“参数推理者”和“上下文学习者”的区别。 四大类别中,领域知识推理相对最容易,最好的模型能达到25.3%的解决率。规则系统应用和程序性任务执行难度适中,大部分模型在15-20%之间。但经验发现与模拟类任务的表现断崖式下跌,所有模型平均只有11.8%的解决率。 这个差异很有意思。 演绎推理(应用已知规则)比归纳推理(从数据中发现规律)容易得多。给AI一套规则让它照着做,它还能勉强应付;让它从数据里找规律,它就彻底懵了。 这说明AI的学习能力还停留在“照葫芦画瓢”的阶段,远没到“举一反三”的程度。 在子类别层面,差异更加明显。在规则系统应用中,法律法规类任务的解决率超过 29%, GPT-5.1 甚至达到 44.8%,但数学形式体系类任务大部分模型都在 15% 以下。 在程序性任务执行中,工作流编排的解决率普遍在 20% 以上,但操作程序类任务明显更难。 这些差异透露出另一个信息,AI对不同类型知识的学习能力差异巨大。有些知识它学得快,有些知识它怎么都学不会。这就像人类学生,有人擅长文科,有人擅长理科。 但问题是,AI的偏科比人类严重得多。 03 论文引发的启示 无可置疑的是,CL-bench填补了现有评测体系的关键空白。 在过去,长上下文评测主要考AI能不能从一大堆文字里找到信息。比如给AI一篇10万字的小说,问“主角的妈妈叫什么名字”,AI只要能翻到那一页找到答案就行。 这更像是考“查字典”的能力,不是“学习”的能力。 指令遵循评测主要考AI听不听话。比如让AI“用JSON格式输出,不超过100字”,看它能不能照做。 但这类测试的知识都很简单,AI早就会了,只是看它守不守规矩而已。 领域任务评测问题更大。它既考AI会不会找资料,又考AI会不会用资料。结果AI答错了,你根本不知道是因为它没找对资料,还是找对了但不会用。 就像学生考试不及格,你不知道是他没复习,还是复习了但没学会。 CL-bench则专注于一个明确的能力维度,从复杂上下文中学习新知识并正确应用。 它将上下文准备与上下文学习解耦。所有必要信息都已组织好并提供,模型只需学习和应用,无需外部检索。这使得评测结果能够精确反映模型的上下文学习能力,而非其他混杂因素。 论文还发现了一些反直觉的现象,GPT-5.2的表现反而比GPT-5.1差5.6%。 深入分析发现,GPT-5.2在长上下文推理时难以维持连贯的因果链,且更频繁地违反上下文中的明确约束。 这说明模型的版本迭代并不总是带来全面提升,某些能力的优化可能以牺牲其他能力为代价。 这个发现很重要。我们一直以为新版本肯定比旧版本强,但事实并非如此。GPT-5.2可能在某些方面确实更强了,但在上下文学习这个维度上反而退步了。这就像一个学生,数学成绩提高了,但语文成绩下降了,总分反而降了。 再比如,增加推理强度对不同模型的效果差异巨大。 GPT-5.1在高推理强度下平均提升2.5%,在管理和实验数据类任务上提升近6%。 但GPT-5.2在某些子类别上反而出现负增长。这表明“更多思考”只有在模型具备正确的上下文学习机制时才有效,否则可能只是在错误的方向上越走越远。 这又是一个反直觉的发现。我们以为让AI多想想总是好的,但实际上,如果AI的学习机制本身就有问题,让它多想只会让错误更严重。就像一个方向错了的人,走得越快,离目标越远。 CL-bench揭示的问题不仅仅是技术层面的,更是范式层面的。当前AI的训练范式和真实应用场景之间存在根本性的不匹配。我们优化出的模型擅长对“已知”事物进行推理,但用户需要的是能解决依赖于动态上下文的任务的模型。 这个不匹配解释了为什么AI在实验室里表现优异,到了真实场景就频频翻车。实验室里的任务大多是封闭的、静态的,答案在训练数据里都见过。但真实世界的任务是开放的、动态的,需要根据具体情况灵活应对。 论文提出的“上下文学习”能力,本质上是让AI从“死记硬背”转向“活学活用”。 如果AI真的能学会从上下文中学习,那它就能像人类一样,面对新情况、新问题时快速适应,而不是只会套用固定模式。 CL-bench的意义,是为了给大模型公司启示,告诉他们下一代AI不需要更大的模型,不需要更多的参数,而需要更强的学习能力。 但上下文学习只是第一步。论文提到,即便上下文学习足够强大,模型的上下文窗口一旦清空,学到的知识随之消失。 因此,下一个挑战是如何让从上下文中习得的知识持久化。 姚顺雨在最近的公开发言中也谈到了这个方向。他认为,自主学习几乎已经形成了共识,而且这个事情已经在发生了。 他说ChatGPT在利用用户数据不断拟合人的聊天风格,Claude Code已经写了自己项目的95%的代码。在某种程度上它在帮助自己变得更好。 但他也指出,这些自主学习的例子目前还局限在特定场景下,没有让人感觉到非常大的威力。“这个事情可能会更像一个渐变,而不像一个突变。” 从更宏观的角度看,CL-bench揭示的问题反映了AI发展的一个深层矛盾。我们一直在追求更强的推理能力、更大的知识容量,但忽视了一个更基础的能力,那就是学习。 没有学习能力的AI,再强也只是一个高级的查询系统。只有具备了真正的学习能力,AI才能从“工具”进化为“智能体”。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。