EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
微软成立MAI超级智能团队:推进AI自主化摆脱对OpenAI依赖
快科技11月7日消息,据媒体报道,微软人工智能部门首席执行官穆斯塔法·苏莱曼(Mustafa Suleyman)近日透露,微软已在AI部门内部组建了一个全新的“MAI超级智能团队”。 该团队的核心使命是开发“人文主义超级智能”,其首要目标是确保未来先进的AI系统始终处于人类的可靠控制之下。 与追求抽象概念的超级智能构想不同,MAI团队将专注于实用技术研发。其核心研究方向包括在医疗领域开发能够提供专家级诊断的先进模型,以及在清洁能源领域探索新材料、新型电池技术等关键突破。 这一研发理念与微软的重要合作伙伴OpenAI所追求的通用人工智能(AGI)形成了鲜明对比。微软强调“在限制内推进技术”,即在积极发挥AI技术惠及全球潜力的同时,优先解决先进AI系统的安全性与可控性问题。 尽管微软与OpenAI的合作关系仍在持续,但双方在多个领域已呈现出竞争态势。OpenAI正积极自建数据中心,并与亚马逊、甲骨文等微软的竞争对手展开合作。其企业版产品的收入占比已从年初的30%攀升至40%。 目前,微软的Copilot产品线仍依赖OpenAI的技术支持,但微软已开始自主测试并推出涵盖语音、图像及文本等多种模态的自研模型。 据悉,苏莱曼于2024年加入微软,此前他曾是谷歌旗下知名AI研究机构DeepMind的联合创始人。微软为其设立了专属的AI部门,并通过整合内部精英与外部顶尖人才,组建了这支肩负超级智能研发重任的团队。
“我不想永远只做PyTorch,不愿像Linus几十年都被绑在同一件事情上!”PyTorch之父发离职长文,告别Meta
“我不想带着从未尝试 Meta 之外世界的遗憾继续往前走...不想永远做 PyTorch,也不想像 Guido 或 Linus 那样——几十年都被绑在同一件事情上。” “休完育婴假后我突然意识到,团队已经能把各种难题处理得越来越好,这个项目……已经不再需要我了。” 就在这样半感慨、半释然的心情里,PyTorch 的灵魂人物、“PyTorch 之父”Soumith Chintala 于 Meta 任职十一年零四个月后,发布了一封情绪满满的离职长文,宣布将在十天后正式告别这家科技巨头。 对扎克伯格而言,无疑是痛失一员大将;对整个 AI 技术圈来说,这是一个时代的转折节点。毕竟,PyTorch 早已从一个想法,成长为 AI 领域重要的基础设施之一。它在 GitHub 上近百万 Star 的热度,也映射出 Soumith 十一年一路推动的历程。 现在,Soumith Chintala 选择离职,没有继续待在舒适圈,而是带着一点点迷茫、一点点兴奋,也带着对“未知”的好奇,即将踏上下一段旅程。他说,他想去外面看看——做一些小的、全新的、自己还不完全理解的、甚至有些不舒适的事情。 Soumith Chintala 的离职长文 在这封离职长文里,Soumith Chintala 不仅回望了自己在 Meta 的这段旅程,也聊到了处于交棒阶段的 PyTorch。 以下为 Soumith Chintala 的自述: 在 Meta 工作了十一年,几乎占据了我整个职业生涯。在这里,我结交了许多终生挚友。 差不多八年,我带领 PyTorch 从无到有,让它在 AI 领域的采用率超过 90%。离开这里,是我做过的最艰难的决定之一。但我满怀感激地离开。 如今,PyTorch 已经能够处理百亿级别的训练。它支撑着正在重新定义智能的基础模型,几乎每家主要的 AI 公司都在生产环境中使用它。从 MIT 到印度的乡村课堂等场景中,PyTorch 都在被教学。 我曾梦想让这些工具更易获取?现在实现了。 我想降低的入门门槛?现在也几乎消失了。 当然,要做的事情远不止这些。只要 AI 以如此惊人的速度发展,PyTorch 仍需不断追赶。过于执着于未来,有时会让我们忽略已经取得的成就。 感谢所有与我一起打造 PyTorch 的人——相信研究应当充满乐趣,相信工具应当优雅,相信开源能够改变一切——谢谢你们。这不是我的个人旅程,而是我们共同的旅程。 接下来我会做什么?小的、全新的、我还不完全理解的、甚至有些不舒适的事情。我本可以选择在 Meta 内部转岗,换个方向继续发展,但我觉得自己需要去看看外面的世界。我需要再次做一些“小事”。我无法接受自己从未尝试过 Meta 之外事情所带来的遗憾。 离开真的很难。我应该是坐在了 AI 行业最具影响力的位置之一——我负责的软件层,支撑着整个 AI 行业的运作。几乎所有主要的 AI 公司和硬件厂商,我都能直接联系。这种地位和影响力,真的很难放手。但最终,好奇心在我脑中占了上风。 请继续让 AI 更好用、更有趣吧。我也会持续关注,也许还会提交一些 issue,肯定会保持参与的。 PyTorch 会没事吗? 我不想永远做 PyTorch 的事。我不想像 Guido(Python 之父)或 Linus(Linux 之父)那样——几十年都被绑在同一件事情上。 去年十一月,正值我女儿出生之际,我和 Aparna(Meta 资深工程副总裁)就已经开始规划我的离开。我的目标是把 PyTorch 留在一个良好、稳定的状态。 到了今年八月,在育婴假下半段的时候,我就知道了:Edward、Suo、Alban、Greg、John、Joe 和 Jana 已经准备好了。团队面对棘手的人事、产品、技术和组织问题时,并不需要依赖我来帮他们解决(不像以前那样)。他们为 PyTorch 大会准备的产品故事条理清晰——真的很清晰。我曾标红的问题正在变得健康。这个项目已经不再需要我了。 不同于 2020-2022 年(那时我离开去从事机器人研究,Lin、Dima 和 Dwarak 离开后才又回来),这一次我有充分的信心,PyTorch 真正具有韧性。与 PyTorch 价值观最契合的文化承载者们如 Greg、Alban、Ed、Jason 和 Joe,现在都在决策层上了,而那些价值观高度契合的人——Suo、John 和 Jana——也加入了决策层。如果这些人有离开,还有一长串同样价值观契合的人愿意坐上决策桌。 还有许多小细节让我对团队充满信心:John 在 Julia 和开源领域有长期经验(实际上我们在 2015 年就一起尝试过 Torch.jl),Suo 过去两年是我最强的系统构建者和战略伙伴,而 Jana 长期负责核心系统的韧性建设,过去几个月我与她进行了深入的技术和组织讨论,也让我充满信心。而 2025 年的产品阵容和执行情况,本身就足以消除任何剩余的疑虑。 我相信这群 PyTorch 团队成员会表现得非常出色。PyTorch 可能会在风格上有所变化,因为我不再从上而下强加自己的品味,但我有信心,核心价值观会保持不变,产品也会非常出色。 我在 Meta 的时光 FAIR 的早期岁月简直充满魔力。我成为了一个小而卓越的团队的一员,大家在公开环境中打造最前沿的 AI 技术。 从和 Emily Denton、Rob Fergus、Leon Bottou、Martin Arjovsky 以及如今传奇般的 Alec Radford 一起研究生成对抗网络(GAN),到和 Gabriel Synnaeve 一起开发星际争霸机器人,再到和 Howard Mansell 一起搭建第一个 FAIR 集群,从和 Adam Lerer、Piotr Dollar 一起做目标检测,到打造 PyTorch,这一切的乐趣无法用语言完全描述。 2015 和 2016 年大概是我职业生涯中最高产、最享受的年份。我可能会永远带着浪漫色彩回忆这段时光。 当我加入 FAIR 时,我有严重的冒名顶替综合症(这类人群坚信自己的成功并非源于自己的努力或能力,而是凭借著运气、良好的时机,担心被他人识破自己其实是骗子这件事),前三个月非常非常困难。我无法用语言表达对 Andrew Tulloch(AI 领域顶尖研究员)的感激,他是最周到、最善良、最热情的导师,没有他我无法走到今天。仅凭他回到 Meta 这一点,我就对 Meta 非常看好。 我在 PyTorch 的时光尤其特别。 我热爱打造它的每一个环节——设计、管理、担任 PM、技术负责人、沟通负责人、文档工程师、发布工程师、修复 bug、增长黑客,把它变成一个有数百人参与的完整产品、将其过渡到产业利益相关方——应有尽有。 感谢 Meta 的 PyTorch 核心团队:工程师、研究员、开源维护者、文档编写者、CI 基础设施团队、硬件合作伙伴以及社区建设者。感谢内部和外部的数百名成员——你们把一个库变成了一场运动。 有太多人值得感谢,但我必须提到 Adam Paszke、Sam Gross、Greg Chanan、Joe Spisak、Alban Desmaison、Edward Yang、Richard Zou、Tongzhou Wang、Francisco Massa、Luca Antiga、Andreas Köpf、Zach DeVito、Zeming Lin、Adam Lerer、Howard Mansell、Natalia Gimelshein 以及 Schrep。他们让 PyTorch 成功发布。 后来,许多人也变得至关重要:Lu Fang、Xiaodong Wang、Junjie Bai、Nikita Shulga、Horace He、Mark Saroufim、Jason Ansel、Dmytro Dzhulgakov、Yangqing Jia、Geeta Chauhan、Will Constable、Briah Hirsh、Jane Xu、Mario Lezcano、Piotr Balecki、Yinghai Lu、Less Wright、Andrew Tulloch、Bruce Lin、Woo Kim、Helen Suk、Chris Gottbrath、Peng Wu、Joe Isaacson、Eli Uriegas、Tristan Rice、Yanan Cao、Elias Ellison、Animesh Jain、Peter Noordhuis、Tianyu Liu、Yifu Wang、Lin Qiao 等数百人。 我没法一一列举,但没有这些人,PyTorch 就不存在 ❤️。 打造 PyTorch 最令人开心的时刻,是遇到热切分享他们快乐、喜爱和反馈的用户。 我记得 2017 年 NeurIPS,一位研究生跑来找我,语无伦次、情绪激动地说,他尝试了三年才在研究上取得进展,而使用 PyTorch 三个月,他的研究进展巨大,甚至已经准备毕业。那一刻让我真切感受到,我们所做的事情对很多人意义重大,即便你不会一直听到他们的声音。我确实怀念 PyTorch 社区的亲密感,一个 300 人的大会就像大家庭聚会,但考虑到 PyTorch 今天产生的巨大影响——是的,现在大会有 3,000 人、市场影响力极大,但它帮助更多人做出最好的 AI 工作——我觉得这点亲密感的缺失是小代价。我怀念这种亲密感,但为这种成长感到骄傲。 感谢 Mark Zuckerberg 和 Mike Schroepfer,相信开源本质上重要,而且是可靠的商业策略。对大多数人来说,这很难理解,但我们在这条战略上始终保持步调一致,从未需要讨论。没有你们,FAIR 和 PyTorch 都不会存在,这对我意义重大。 感谢 Yann LeCun 和 Rob Fergus,创造了我如此敬仰的早期 FAIR。 感谢 Aparna Ramani,她在 Meta 是少见的领导者:能对组织保持极高标准,技术上非常出色,同时能在同一次对话中讨论深度基础设施系统和行业战略,而且执行力无可挑剔!我从你身上学到了太多。 感谢 Santosh、Kaushik、Delia、Oldham 和 Ben 对 Infra 的热情接纳。作为从 FAIR 转过来的新人,你们让我有宾至如归的感觉,让我成为家庭的一部分,非常感谢。 感谢所有在 PSC 视频游戏项目中支持我的经理们——Serkan、Howard、Jerome、Abhijit、Yoram、Joelle、Aparna 和 Damien——我欠你们一辈子的酒。 ——Soumith 来自 AI 圈的祝福与致敬! Soumith 的离职,引发 AI 技术圈的广泛关注。 AI 大牛 Andrej Karpathy 留言道:“干得漂亮,Soumith!在我经历过的所有深度学习框架迁移中(从 Matlab → Caffe → NumPy → Torch → PyTorch,几乎重写了所有代码),迁移到 PyTorch 的体验是最愉快的,而且现在看来影响也最持久。它在目标与约束的 20 维设计空间中,堪称一次时间上的大满贯。希望你能在一个最让你心动的领域,再次迎来属于你的黄金时代!” Soumith 笑到回复称:“希望你的光彩一直因为 PyTorch 而闪耀。开个玩笑啦。实际上,你对 PyTorch 的成长贡献比你自己意识到的还要多,还多次帮助它调整方向。感谢你一直以来的付出。希望未来即便我们迎来 AGI,也依然能看到你在接下来的 30 年里继续使用 PyTorch,甚至只是为了编程乐趣而用它……” 图灵奖得主杨立昆祝福道:“祝你在下一份工作一切顺利。” PyTorch 工程总监 John Myles White 表示:“多年前,当我离开 Julia 的时候,你曾说过类似‘你经历了一段传奇之旅’的话。现在似乎轮到我来回馈同样的心意,而且放大一千倍。” 也有人感叹:“一个时代的终结。” Soumith:从印度少年到 PyTorch 核心开发者的传奇之路 事实上,Soumith 的离职之所以引起这么大的轰动,不仅因为他是 PyTorch 的灵魂人物,更因为他的成长历程本身就充满传奇色彩。 Soumith 出生于印度,自小对数学和计算机充满浓厚兴趣。本科毕业于班加罗尔大学后,他赴美国深造,专注计算机视觉与深度学习研究——这些领域后来也成为 PyTorch 崛起的基石。 在卡耐基梅隆大学攻读研究生期间,Soumith 在顶尖学者的指导下接触前沿 AI 技术,同时敏锐地意识到学术界和工业界对灵活、高效、可扩展深度学习工具的迫切需求,这也逐渐明确了他的职业方向。 2014 年,Soumith 加入 Meta(当时的 Facebook),进入 Facebook AI Research(FAIR),负责多个深度学习项目。他和团队发现,当时的深度学习框架要么过于复杂,要么限制研究灵活性,于是萌生了开发新工具的想法。 两年后,PyTorch 横空出世。作为核心开发者之一,Soumith 全程参与了从项目启动到发布的每一步,并推动其成为行业标准。 回顾 PyTorch 的发展历程,Soumith 也曾详细介绍过其诞生背景。 https://soumith.ch/blog/2023-12-17-pytorch-design-origins.md.html PyTorch 的基础工作最初于 2016 年初,由一群 Torch7 贡献者在线上发起。 Torch7(也称 LuaTorch,因为它基于 Lua)由 Ronan Collobert、Clement Farabet 和 Koray Kavuckuoglu 于 2010 年左右开发。 Soumith 早在 2012 年就已经深度参与了 Torch7,并在 2014 年 4 月获得官方“维护者”身份,与原作者一起工作。 不过,Torch7 的 C 后端负责 CPU 和 CUDA 的线性代数与神经网络计算,但与 Lua 紧密耦合。随后,Soumith 联合 Luca Antiga、Andreas Köpf、Sergey Zagoruyko 等人对这些后端进行了重构,使其与 Lua 脱钩,可独立使用。 在此基础上,后来加入 Facebook 的 Soumith 在 2016 年中与团队开发了基于 Python 的新 Torch——PyTorch。这个版本不仅继承了 LuaTorch 的设计优势,还引入了多项创新功能,例如自动微分引擎 torch.autograd、Parameter 概念以及自我赋值的模块设计,使研究者能够更加高效、灵活地构建深度学习模型。 同时,Soumith 也曾坦然分享,PyTorch 借鉴了 Chainer、HIPS/autograd 等项目的灵感,并在此基础上持续创新,这种“传承与创新”的结合奠定了 PyTorch 的核心竞争力。 自 2017 年以来,PyTorch 快速发展,吸收 Caffe2 理念,多次迭代编译器设计,完善分布式计算与 GPU 优化,扩展领域库与数据加载机制,逐渐从研究工具成长为覆盖工业应用的整体化系统。 Soumith 在其中始终发挥核心作用——不仅主导设计与实现,还推动社区发展,确保 PyTorch 成为全球 AI 研究与工业应用的重要基石。他坚持开源精神,明确标注灵感来源,倡导在前人工作基础上创新、启发后人,这种理念深刻影响了整个社区。 从 Torch7 的维护者到 PyTorch 的核心开发者,Soumith 的成长轨迹不仅是个人奋斗的故事,更是现代深度学习工具发展史上不可或缺的一部分。 十一年的耕耘,让 PyTorch 从一个初始的想法走向世界,也让 Soumith 成为 AI 工业界无法忽视的关键人物。 最后,祝福 Soumith 下一征程顺利
饿了么后撤一步,要送整个淘宝
饿了么或将与淘宝闪购完成融合。 其最终形态是饿了么退到幕后,淘宝闪购上前,成为阿里“外卖+即时零售+本地生活”等业务对外的统一招牌。 这个变动还没有官宣,但已经有用户在灰测的新版饿了么App里发现,“淘宝闪购”在图标上占据了更大的位置,“饿了么”的标识则缩放得较小,与前一个版本的设置刚好相反。 图源:旧版饿了么App对比灰测新版饿了么App 网络 有媒体电询饿了么客服中心,有接线工作人员表示,此次仅为名称变更,其他权益、政策均不变,也不影响业务运转,“淘宝闪购也是属于饿了么旗下的一个业务”。 较早前的8月,淘宝闪购、饿了么正式发布全新的骑士服。一个细节是,新款骑士服,淘宝闪购的标识已经占据了核心的上身部分,饿了么和菜鸟、速卖通等并列,主次分明。 这不免让外界猜测,相较于前两年饿了么“改名”营销,这次饿了么“改名换装”是板上钉钉了。阿里也将迎来一个完全体的淘宝闪购。 作为阿里电商的一把手工程,淘宝闪购在过去半年里,打了几场硬仗,也打通与饿了么之间的供给与履约,其定位和品牌价值也在被重估。 要知道,在今年6月23日的一封全员邮件中,阿里CEO吴泳铭的口径是“饿了么、飞猪合并加入阿里中国电商事业群,在业务决策执行上与中国电商事业群集中目标、统一作战。” 此番调整后,饿了么、飞猪的负责人统一向阿里电商事业群CEO蒋凡汇报。同时,两家公司继续保持公司化管理模式。 当时,不少媒体解读,饿了么、飞猪要正式并入阿里电商。但阿里官方的态度是不置可否,相关表态强调是“协同”,不是“合并”。 这不难理解,淘宝闪购是4月30日由即时零售业务“小时达”升级而来。这个2017年就推出的服务,到2020年上线淘宝,一直存在感不强。 淘宝闪购上线前,京东掀起的2025外卖大战已经打了两个多月,刘强东亲临一线督战,从美团手里抢到千万级日外卖订单量。饿了么反而没有太大动静,以致于让外界揶揄,“老大老三掐架,老二受伤”。 其实,阿里手里的牌不少,但每一张又显得游离。如何出牌,考验的是阿里的操盘能力。 蒋凡把“淘宝闪购x饿了么”整合成一张新牌,启动百亿补贴,以饱和式攻击的打法,重新划分原有市场格局。 但此时,他心里可能也拿不准,淘宝闪购能不能撑起阿里即使零售业务的大旗。 所以,无论是稳定业务军心,还是对友商释放烟雾弹,饿了么、飞猪都不适宜传递出合并入阿里电商的信号。 蒋凡的信心来自淘宝闪购接下来的战绩。他有自己的“Scaling Law”,那就是不能抛开规模谈效率。 他认为,单量增加会带来很多好处:推动外卖路线规划等优化,进而提升履约效率。进一步提升用户画像的颗粒度,精准把控品类偏好、消费时段和频率等。 数据上看,7月,淘宝闪购连续两个周末日订单量超9000万。8月的财报电话会上,蒋凡透露,淘宝闪购日订单峰值达1.2亿单,8月周日均订单量8000万单,拉动手淘8月DAU(日活跃用户数)增长20%。 晚点提到,8月8日和8月9日,这两天淘宝闪购的日订单量份额首次超过了美团。 这是具有坐标意义的“超过”,即便美团认为冲单就能做到。对淘宝闪购的意义就在于,一方面,饿了么打了多年的外卖仗,这次联合淘宝闪购打赢了,整个市场格局被重塑。 另外一方面,消费者的认知心智也受到冲击,王兴标榜的第一也并不是不可撼动。而且,资本市场也接受了这个变化,并给出积极反馈。 归结到一点,就是蒋凡对淘宝闪购的评价,他认为,在订单规模、用户、商户供给、运力规模上,都超出预期。 换句话说,淘宝闪购的C位,是打出来的。 值得注意的是,不少人吐槽,淘宝闪购名字跟美团一样也就算了,UI是请京东设计的么? 这里藏着淘宝的小心机。当美团花大精力强化市场对闪购的认知时,淘宝可以借力打力,让消费者近乎无门槛的认识到,淘宝闪购是什么? 知名科技评论作者阑夕的评价很有代表性,他认为,美团虽然最早提出“闪购”概念,但它在外卖上过于深入,削弱闪购业务的品牌认知。 就像一个用户在美团外卖上分别点了一份麦当劳和一根充电线,他很难分得清楚,前者出自美团外卖的业务,后者出自美团闪购的业务,在他看来,这都是自己下了一单外卖。 但淘宝闪购之于淘宝,却不是这样的关系,淘宝是快递电商的模式,是要去拆包裹的,而淘宝闪购是骑手小哥送货上门,是淘宝新开通的外卖服务。 这就导致淘宝闪购虽是更新的品牌,但它没有历史包袱的混淆,在落地上更加丝滑流畅,便于理解,也让更多消费者普遍将「闪购」这个词默认为淘宝闪购。 图源:淘宝闪购新骑士服 唐辰拍摄 阿里、京东、美团混战外卖,争的从来不是餐饮配送的“钢镚”,而是即时零售这个万亿级蛋糕。蒋凡预计,未来3年内,闪购和即时零售将为平台带来1万亿元的交易增量。 与之同步的是围绕淘宝便利店、高德扫街榜、淘宝大会员打通盒马等业务的先后落子。 阿里电商在出牌,但不再是疲于应付,而是按照自己的节奏。 或许此刻,蒋凡才有足够的底气和动力,将淘宝闪购和饿了么捏合在一起,来继续推进更大的牌局,即阿里电商平台持续向大消费平台转变。 纵观蔡崇信、吴泳铭治下的阿里,其在核心电商业务的战略布局很明确,就是要打造一个多元业务协同贯通的全域大消费平台。无论是电商、即时零售、本地生活业务,都在加速融入阿里“大消费”的全盘谋划之中。 直接操盘手就是蒋凡。在他的操盘下,一个全新的“淘宝”正在被重构。 当然,这个“淘宝”也不是没有根基。马云在2016年的云栖大会上对“电商”行业未来做出过预判: “纯电商时代很快会结束,未来的十年、二十年,没有电商一说” “线上线下+现代物流,才能诞生真正的新零售” 事实上,即时零售的内核还是过去阿里提倡的新零售概念,本质还是零售业务在线上线下的深度融合。比如,刘强东归来后,京东着力打造的全渠道一体化模式——主要以布局线下自营京东Mall和七鲜美食MALL为载体——试图重塑消费体验。 蒋凡认为时机到了,也沿着马云的这个“预判”,将远近场电商融合,统一品牌,真正实现“一个阿里、一个淘宝、一个消费平台”。 他的挑战则是,如何保持战略定力,并在庞大的阿里体系内,持续强化自己的权柄。 于是,饿了么App改名,骑士换装也就不是事情本身这么简单,更大的动作是,饿了么后撤一步,成为阿里大消费平台履约的基础设施。 对于饿了么的战略重要性,蒋凡在8月份的财报电话会上也讲过,这几年饿了么确实取得了很多进步,但这些进步不一定体现在市场份额上,而是基础能力建设,饿了么与淘宝的整合为阿里投资远近场结合提供了坚实基础。 所以,饿了么并不是消失,只是换了个角色,继续送货——只是这次,送的是整个淘宝。 这也是饿了么融入阿里体系最大的价值。
双11第一周服饰数据出炉,谁是赢家?
凤凰网科技讯 11月7日,今年双11电商大促第一周期数据出炉,服饰品类在降温趋势和新品激励下实现强劲增长。据久谦中台数据显示,在第一阶段主要平台服饰成交额中,淘宝天猫占比高达57.5%,市场份额居全网首位,同期抖音和京东占比分别为26%和17%。易观分析的报告亦指出,淘系服饰成交规模占比超五成,并以15.8%的增速领跑行业,显示出在核心品类的领先地位。 久谦中台消费《双十一大促首阶段分析|数据》 易观分析《2025年“双11”大促第一周期观察》 市场需求在10月20日晚8点开卖后迅速释放,优衣库、波司登、百丽、蕉内等多个知名品牌成交额接连破亿。降温成为服饰销售的重要推力,双11第一周期,天猫服饰商家累计售出超1000万件冬季羽绒服,羽绒服、保暖家居服及雪地靴等品类均录得双位数高增长。其中,羽绒服品牌雪中飞成交同比超70%,鸭鸭成交同比超60%。 消费趋势显示,消费者在今年双11更趋理性,注重产品品质与价值。为应对这一变化,天猫强化了对新品和原创设计的扶持,第一周期服饰上新超48万款。优质供给带动了新商家的爆发,数据显示,首次参与双11的服饰新商家成交确收金额同比增长超200%。跨界新品牌表现亮眼,如数码博主潘天鸿创立的STORMCREW飓乐部,入驻天猫不到一月即登顶男装新锐品牌TOP1;蒲熠星创立的LOGICAT也跃居潮流品牌头部。 此外,中国设计师品牌在本次双11中也集体迎来爆发。包袋品牌songmont开卖10分钟成交即破千万,裘真、个乐等品牌在直播和店播渠道也实现了60%至100%的同比增长。以这些品牌为代表的“中国轻奢”正凭借原创设计和高品质产品,获得了更多市场认可,显示出国内服饰品牌从制造向审美定义的转变。
AI六巨头首次同台!纵论四十年AI风云、泡沫之辩与AGI时间表
这是一个人类 AI 群星闪耀时的时刻——黄仁勋、李飞飞、杰弗里·辛顿(Geoffrey Hinton)、约书亚·本吉奥(Yoshua Bengio)、杨立昆(Yann LeCun)、比尔·戴利(Bill Dally),罕见同台参与同一个圆桌讨论 AI。之所以能聚在一起,是因为他们六人获得了 2025 年伊丽莎白女王工程奖。当地时间 11 月 5 日,六人在围绕该奖项的一场英国 AI 活动上进行了一场圆桌对谈。 图 | 从左到右:诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)、图灵奖得主约书亚·本吉奥(Yoshua Bengio)、图灵奖得主杨立昆(Yann LeCun)、英伟达 CEO 黄仁勋、美国斯坦福大学教授李飞飞和英伟达首席科学家兼高级副总裁比尔·戴利(Bill Dally)(来源:https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0) 对谈中,他们六位针对当前 AI 发展是否存在泡沫发表了自己的观点,同时均认为 AI 将逐渐接近人类智能。 黄仁勋表示过去的软件本质上是工具,是首次被人们使用的自动化手段。而 AI 是增强人类能力的智能,因此它关乎劳动、关乎工作,并且它确实在发挥着实际作用。在黄仁勋看来,人类正处在智能构建的起步期。并指出一个基本事实是,目前 AI 还未普及到大多数人。他认为在不久的将来,我们日常的几乎所有行为,在一天中的每时每刻,都会以某种方式与 AI 相伴。这意味着,人类需要完成从今天使用率尚低、到未来使用率几乎不间断的巨大跨越,而这背后的扩展工程是显而易见的。 李飞飞指出,AI 还是一个非常年轻的领域。即便对比现代物理学,AI 的历史也不足七十年,从艾伦·图灵(Alan Turing)算起也才七十五年左右。所以,前方还有太多新领域等待出现。她认为,机器的某些能力将超越人类智能,而另一些机器智能则永远不会与人类智能趋同或等同。因为它们的设计初衷就与人类不同,是为不同的目的而生的。 辛顿认为假如问他“与机器进行辩论,它需要多久才能永久性地胜出”这个问题,他认为这必定会在二十年内成为现实。人类目前尚未达到这一水平,但辛顿认为在二十年内必将实现。但他同时指出,如果将 AGI 定义为在辩论中总能胜过人类,那么人类很可能在不到二十年的时间内达成这个目标。 约书亚认为人类不该继续使用“大语言模型”这个称呼,因为它们的功能已远超语言范畴。并指出人类无法预言未来几年或十年的具体技术样貌,但趋势是可以把握的。为此,约书亚认为人类应当保持一种真正的不可知论立场,避免做出过于夸张的断言,因为未来的可能性是开放且多样的。他还表示目前自己正着手联络国际专家,共同追踪 AI 的进展、方向、潜在风险以及应对之道。 Yann LeCun 认为 AI 泡沫确实存在——它体现在一种信念上,即认为当前的大语言模型范式将被直接推升至人类水平智能。在人类造出真正具备人类所观察到的(不仅是人类,还包括动物)那种智能的机器之前,人们还需要取得一些根本性的突破。 作为英伟达的首席科学家,Bill Dally 指出 AI 应该填补人类能力的空白。人类识别不了 22,000 种物品,大多数人也解决不了那些甲基双性问题,这些就可以交给 AI 来做。当人类能腾出精力,去从事那些更具人性特质的工作:比如创造、共情,以及人际互动。 图 | AI 群星闪耀时:六位 AI 领军人物进行圆桌访谈(来源:https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0) 以下为对谈实录,DeepTech 做了不改变原意的编辑: 六人畅谈人生关键时刻 主持人:各位好,无论您身处下午还是早晨。我很高兴能受托介绍围坐在这张桌旁的杰出人物们,在我看来他们是当今世界上最为出色、也最具影响力的六位人物。并且,我认为这绝非夸大其词。他们就是 2025 年伊丽莎白女王工程奖的得主。这个奖项正是为了表彰这几位获奖者对当今 AI 技术所产生的独特影响。我希望听听你们每个人的经历:在你们的职业生涯里,有没有那样一个灵光乍现的瞬间,让你感觉从此改变了自己工作的轨迹?那个真正触动你的个人觉醒时刻是什么?它又是怎样影响到这项技术发展的?可以先从你开始吗,Yoshua? Yoshua Bengio:有两个关键节点让我记忆犹新。第一个是我研究生时期,正苦于寻找一个有吸引力的研究课题。当我读到 Geoffrey 的早期论文时,感觉豁然开朗。我内心非常激动,觉得其中可能蕴藏着像物理学定律一样优美而基本的原则,能指引我们理解智慧的本质,并最终建造出智能机器。而第二个时刻,大概是两年半前 ChatGPT 横空出世的时候。它给了我当头一棒,让我不禁反思:我们到底在做什么?如果我们开发出能懂语言、有自己目标但我们却管不住的机器,会发生什么?如果它们比我们更聪明呢?如果有人滥用这种力量呢?正是这种强烈的危机感,促使我下定决心,彻底扭转了我的研究轨道和职业道路,尽我所能去应对这个问题。 Bill Dally:我和约书亚的经历也有些相似之处。那是在 20 世纪 90 年代末,当时我在斯坦福大学主要在研究如何突破所谓的“内存墙”难题——即从内存中获取数据所需的能耗与时间,远远高于数据计算本身。后来我萌生了一个想法:将计算组织成由数据流连接的核心模块。这样就能在执行大量算术运算的同时,大幅减少对内存的访问。这个思路,实际上为后来被称为“流处理”、并最终发展为 GPU 计算的技术奠定了基础。所以在我们最初构建它的时候,就意识到它不仅能够用于图形处理,更可以应用于通用的科学计算领域。而我的第二个关键时刻,是某次在斯坦福与我的同事安德鲁·安格(Andrew Ang)共进早餐时。他当时在谷歌工作,正利用一项名为“神经网络”的技术,在互联网上寻找猫的图片——而且动用了 16,000 个 CPU。他成功说服了我,让我相信这是一项非常出色的技术。于是,我联合其他人利用英伟达的 48 块 GPU 重现了整个实验。在亲眼见证结果的那一刻,我内心无比坚定:这就是英伟达应该全力以赴的事业。我们必须调整 GPU 的设计方向,使其更好地服务于深度学习。原因很清楚,这项技术的用武之地远不止于在互联网上找猫,它拥有广阔的应用前景,能渗透到各行各业。可以说,正是那个时刻,我们正式启动了将 GPU 深度优化、专门用于深度学习的进程。(编者注:“互联网上找猫”指 2012 年谷歌用 1.6 万 CPU 训练神经网络,让机器从海量视频帧中自主识别出猫脸,后成为深度学习里程碑事件。) 主持人:具体是在什么时候?又是指的什么事情呢? Bill Dally:那次早餐是在 2010 年。如果我没记错,我们是在次年,也就是 2011 年重复了那个实验。 主持人:Geoffrey,轮到你给我们讲讲了。 Geoffrey Hinton:对我来说一个非常关键的时刻发生在大约 1984 年。当时我尝试运用反向传播算法,让模型学习预测一个单词序列中的下一个词。这本质上是一个小型语言模型。实验发现,这个模型能够自主学习到一些关于词语含义的有趣特征。也就是说,仅仅输入一串符号序列,它就能依据某种内部规律,学习如何将单词转换为一组特征。这组特征不仅能捕捉单词的语义,还能通过特征间的相互作用,来预测下一个单词的特征表现。事实上,这个在 1984 年末构建的小型语言模型,我认为它就是当今大语言模型的雏形。其核心原理是相通的。尽管它规模很小,训练量也只有 100 次,但已经揭示了基本范式。 主持人:然而,我们却历经了整整四十年,才最终实现今天的突破。 Geoffrey Hinton:是的,我们愣是花了四十年才走到这儿。原因很简单:那时候要算力没算力,要数据没数据,而且我们压根没意识到这个问题。我们当时怎么也想不通,为什么光靠那个好点子,就是行不通。 主持人:这番回顾也让我们自然而然地想到了黄仁勋。正如刚才所说,我们曾长达四十年受限于计算能力的匮乏。而如今,恰是您正在亲手解决这个问题。能否请您和我们分享一下,在您这段旅程中,那些让您豁然开朗的关键时刻? 黄仁勋 :就我的职业生涯来说,我是第一代能够运用更高级别的抽象表达和设计工具来设计芯片的工程师。这一背景,让我对软件开发的新趋势非常敏感。 大约在 2010 年,我几乎同时接触了来自加拿大多伦多大学、美国纽约大学和斯坦福大学三个不同实验室的研究。他们不约而同地向我展示了一种后来被证明是深度学习早期的技术——即利用框架和结构化设计来创建软件,并且该软件被证明极其高效。这引出了我的第二个发现:通过再次使用框架、更高层次的抽象以及像深度学习网络这样的结构化模式,我们就能开发出强大的软件。我意识到,设计芯片与构建这些模式非常相似。当时我就在想,我们或许能创造出一种软件和能力,它能像过去几十年芯片扩展那样,持续地进化与发展。 主持人:您认为芯片助力大语言模型规模化发展的关键转折点在什么时候?毕竟您提到的 2010 年,距今已相隔十五年了。 黄仁勋:英伟达架构的核心优势在于:一旦一个算法能在单个 GPU 上高效并行运行,那么它就能几乎无碍地扩展到多个 GPU、多个系统,乃至多个数据中心。其内在逻辑是相通的。当我们意识到能够有效地实现这种扩展后,问题的关键就变成了:我们究竟能将这种能力推向多远?我们拥有多少数据?网络的规模能有多大?模型能捕捉多少维度?最终能解决何种复杂的问题?正是在那个阶段,我发现深度学习的核心价值已由模型的有效性所证明,这无疑是一个巨大的亮点。而此后的大部分工作,本质上都属于工程上的延伸与拓展。 主持人:飞飞,跟我们讲讲你的重要时刻。 李飞飞:我也有两个关键时刻想分享。大约在 2006 到 2007 年间,我正从博士生转变为年轻的助理教授。作为第一代专注于机器学习的博士生,我阅读了 Yoshua 和 Geoffrey 等学者当时的论文,并深深着迷于解决视觉识别问题——即让机器理解日常图片中物体含义的能力。我们当时一直受困于机器学习代码的泛化问题:模型在学习了有限数量的样本后,能否成功识别出全新的、从未见过的样本?我尝试了从基础网络、支持向量机到神经网络等各种算法。最终,我和我的学生意识到,缺失的关键要素是数据。我们观察到,如同人类这样的智能生物,在早期发展阶段都经历了海量数据的洗礼,而我们的机器却处于数据匮乏的状态。于是,我们决定在当时做一件看似疯狂的事情:花费三年时间,创建一个互联网规模的数据集。这个数据集包含了由全球互联网用户手工标注的 1,500 万张图像,涵盖 22,000 个类别。因此,对我而言,那个顿悟的时刻就是认识到:是大数据在驱动机器学习的未来。 主持人:而如今,它已成为所有算法模型的基石。 李飞飞:没错,这如今已成为 AI 规模化定律的一部分。我的第二个顿悟时刻发生在 2018 年。当时我担任谷歌云的首位 AI 首席科学家,我们的工作涵盖了从医疗保健、金融服务到娱乐、制造,乃至农业与能源等所有垂直行业。在所谓的“Alex 瞬间”图像以及 AlphaGo 出现几年之后,我正是在那时意识到了关键问题。在担任谷歌首席科学家期间,我认识到这项技术的影响力将达到“文明级别”,它会触及每个人和所有行业。面对人类迈向 AI 时代的历史进程,我们必须思考:什么样的指导原则能让我们在大力创新的同时,确保这项强大的技术最终能造福所有人?这个想法促使我重返斯坦福任教我们随后创立了以人为本人工智能研究院(HAI,Stanford Human-Centered AI Institute),其核心就是构建一个框架,将人性和人类价值放回技术进步的中心。(编者注:李飞飞所提到的“Alex 瞬间”指的是一个名为 AlexNet 的深度卷积神经网络在 2012 年的 ImageNet 图像识别竞赛中取得了远超传统方法的成绩,准确率实现巨大突破。) 主持人:所以,我们既要发展技术,也要审视其影响并思考未来走向。这正是我们大家发挥作用的地方。 您(Yann LeCun)是否愿意为我们做一个总结?请不必客气,尽情讲讲吧。 Yann LeCun:早在本科时期,我就对广义智能领域中的 AI 问题非常着迷,并发现 20 世纪五六十年代的研究者,其核心工作是“训练”机器而非“编程”机器。这个想法让我深深入迷,或许是因为我自觉不够聪明或不够勤勉,无法从零开始直接构建出一台智能机器。那么,最好的方式岂不是让机器能够自我训练、自我演进?这不正如同生命体中智能的构建方式吗?它是自组织的。因此,我觉得这个概念极具吸引力,但当时却找不到志同道合的人。我从工程专业毕业,一直在从事一些低成本设计,同时也计划攻读研究生。我始终找不到任何从事相关研究的人,但与一些对此感兴趣的人保持着联系,例如他们发现了 Geoffrey 的论文。到了 1983 年我开始读研时,他已成为我最想见到的学者。最终,我们在两年后得以见面。我们 1985 年一起吃了顿午饭,基本上是一见如故,聊得非常投机。当时我在一个他做主旨报告的会议上发表了一篇法文论文,而他居然成功读懂并理解了我文中的数学内容——那篇文章讲的是一种用于训练多层网络的传播方法。要知道,从 20 世纪 60 年代开始,大家就清楚一个局限:我们没法训练多层模型。这成了我那时心心念念要解决的问题,后来也变成了他的执念。之后我写了一篇提出解决方案的论文,他读懂了里面的数学。我们就是这样结缘并开始合作的。 主持人:而这正是让你踏上这段旅程的原因。 Yann LeCun:确实如此。因此,当你掌握了训练此类复杂系统的能力后,自然会思考下一个问题:如何构建它们,使其能够执行识别图像等有实际意义的任务。早在 20 世纪 80 年代末我担任博士后期间,我和 Geoffrey 曾有过一场辩论。我当时认为,唯一可行的路径是经过精心设计的、在监督学习范式下运行的机器学习。即你向机器展示一张图片,并告诉它正确答案。但他对此表示反对,他认为要想取得真正的进展,就必须超越监督学习。有段时间,我并未充分重视这个观点。直到 2000 年代中期,当我和 Yoshua 开始合作,并致力于重新唤起学界对深度学习的兴趣时,我们实际上是将重点押注在了无监督学习等相关方向上。 主持人:它本质上是一个自我强化的过程。 Yann LeCun:这并非强化学习。它的本质是从结构化数据中发现规律,而无需针对任何特定任务来训练机器。自然语言模型虽然被训练来预测下一个单词,但这本身并非一个真正的任务目标。这只是系统为了学习一种优质的数据表征,或者说为了捕捉数据内在规律所采用的一种方式。 主持人:系统里面有没有一个东西在管着它?抱歉我得说得专业点,就是有没有一个根本的机制,能判断它现在这样跑是对的,好让它一直保持在正轨上? Yann LeCun:如果你能正确预测出下一个单词,那么这本身便证明了预测的正确性。 Geoffrey Hinton:所谓强化学习里的奖励,打个比方,就像是你对系统说“干得漂亮”一样。 Yann LeCun:说实话,这得“归咎”Geoffrey。如你所知,飞飞构建了大型标注数据集 ImageNet,这使得我们可以采用监督学习来训练系统。而实际结果是,这个网络的性能远超我们预期。于是,我们当时便暂时搁置了整个关于自监督学习的项目计划,因为监督学习的方法已经表现得如此出色。当然,我们也琢磨出了一些提升性能的小技巧。但在某种程度上,我们确实引导了整个行业和研究界将重心放在了深度学习、监督学习等方向上。直到几年后,大约在 2016、2017 年左右,大家才意识到这无法达成我们的终极目标,并开始转向自监督学习。是的,这确实是说明范式转变的一个绝佳例证。而我们当前的工作,是将其应用于视频、传感器数据等新型数据。然而,像自然语言模型这类架构在处理此类数据上其实并不擅长,这将是未来几年我们面临的新挑战。 AI 泡沫是否存在? 主持人:这正好将我们引向了当前的情势。我想大家都观察到一个现象:以前对 AI 完全不关心的人,现在都兴致勃勃。一时间,所有人都涌向这个领域。它早已超越技术革新本身,演变成了一个巨大的商机,甚至成为了大国博弈的战略焦点。每个人都在努力探究其真正本质,围绕着它不断思索。我此刻首先想请教黄仁勋,也希望在座各位都能审视一下此刻:特别是英伟达,它几乎天天占据新闻头条,并且成为了全球最有价值的公司。这说明市场存在着真实的需求。 您是否忧虑,我们正走向一个因普遍理解不足而过于急躁的阶段,最终会导致泡沫破裂,经历一番调整后才能恢复正常?如若不然,与当年的互联网泡沫相比,如今人们对 AI 需求最显著、也是最未被理解的差异到底是什么? 黄仁勋:在互联网泡沫时期,铺设的绝大多数光纤都被闲置,这意味着行业的供给远远超过了实际需求。而如今,几乎每一块能找到的 GPU 都在全负荷运行。因此,我认为退一步理解“AI 究竟是什么”至关重要。对许多人而言,AI 就是 ChatGPT 或图像生成,这没错,但这些都只是它的具体应用。过去几年,AI 取得了巨大进步,它不仅能够记忆和归纳,更具备了推理与有效思考的能力,并能通过研究来确立观点。它现在可以生成答案,完成更有价值的任务,效果也出色得多。此外,那些能构建对其他企业有用工具的公司,例如我们正在使用的 Cursor 等 AI 编程软件公司,它们盈利能力很强,我们也大量使用其产品。在医疗健康等领域,AI 也显示出极大的效用。AI 的能力已经实现了质的飞跃。其结果是,我们正同时目睹两个指数级变化:一是生成答案所需的计算量急剧增加,二是这些 AI 模型的使用量本身也在指数级增长。这两条指数曲线对计算资源构成了巨大需求。现在,当你退后一步,会从根本上追问:今天的 AI 与过去的软件行业有何本质不同?过去的软件是预先编译好的,且所需的计算量不大。但为了让 AI 发挥作用,它必须具备上下文感知能力。目前它已能产生智能,而你无法提前制作并储存这种智能——那被称为“预制内容”。智能必须实时产生。因此,我们所在的这个行业,要生产高需求且真正有价值的产品,所需的计算量是空前巨大的。我们在一个需要“工厂”的行业中创造价值。这就是为什么我常提醒自己:AI 需要工厂来生产这些“智能标记”。这是前所未有的情况,计算机本身成为了工厂的核心。我们需要投入数千亿美元来建设这些工厂,以服务于未来价值数万亿美元的产业。回顾过去的软件,它们本质上是工具,是首次被人们使用的自动化手段。而 AI,是增强人类能力的智能。因此,它关乎劳动,关乎工作,并且它确实在发挥着实际作用。在我看来,我们正处在智能构建的起步期。一个基本事实是,目前 AI 还未普及到大多数人。可以预见,在不久的将来,我们日常的几乎所有行为,在一天中的每时每刻,都会以某种方式与 AI 相伴。这意味着,我们需要完成从今天使用率尚低、到未来使用率几乎不间断的巨大跨越,而这背后的扩展工程是显而易见的。 主持人:假设大语言模型的进展放缓,您认为 GPU 和您打造的基础设施,是否仍能适应新的技术范式并保持其价值?您回答之后,我也非常希望听到在座其他人的想法。 黄仁勋:大语言模型属于 AI 技术的一部分。但 AI 的范畴是包含各类模型系统的广阔天地,大语言模型只是其中一个重要的成员。现在已经有了一些模型系统和必要的技术,可以让 AI 从现在的样子变得更具生产力,或者说让它更“能干”。无论我们给它起什么名字,未来都还有大量的技术等待我们去探索和开发。 主持人:在座各位谁有想说的? Yoshua Bengio:我认为我们不该继续使用“大语言模型”这个称呼,因为它们的功能已远超语言范畴。是的,它们确实从语言模型起步,预训练是其基础。但最近,技术在质上有了飞跃,正朝着“智能体”的方向发展:能够通过多轮对话,与环境、与人实时互动,完成目标,甚至与底层计算设施深度交互。它和三年前完全不可同日而语。我们无法预言未来几年或十年的具体技术样貌,但趋势是可以把握的。为此,我正着手联络国际专家,共同追踪 AI 的进展、方向、潜在风险以及应对之道。现在,许多基准测试的趋势已经清晰可辨。过去的技术验证非常成功,但这不代表未来没有挑战。期望落空会带来金融风险,这一点我承认。但从长远发展来看,我完全同意其重要性。不过,我们仍需保持清醒。 主持人:那么,目前在座的其他人怎么看? Bill Dally:当前的趋势在一定程度上解释了现状。首先,模型正变得越来越高效。以注意力机制的演进的为例:从普通注意力到分组查询注意力,再到多头注意力...... 如今人们可以用少得多的计算成本,获得相同甚至更优的效果。这从某种程度上催生了新的需求:许多曾经因成本过高而无法实现的应用,现在变得足够便宜,从而使得 AI 能够涉足更广泛的领域。与此同时,AI 模型本身的能力也在持续进步。或许它会随着 Transformer 架构的优化而提升,或许会有全新的架构出现。但技术发展的方向是明确的:我们必将拥有能力更卓越、且同样高效的模型。实际上,它们比那些功能专一的方案更有价值,因为它们更灵活,也能更好地随着模型一起进化。最关键的一点是,我认为我们对 AI 的应用探索还只是冰山一角。人类生活的几乎每一个角落,无论是职业生涯还是日常琐事,都能借助 AI 变得更好。我想,我们可能连它最终需求的 1% 都还没碰到。随着 AI 不断进步,应用场景只会越来越多。所以,我认为这里根本谈不上泡沫。就像黄仁勋说的,我们正描绘一条多重指数增长的曲线,而现在仅仅是开端,这条路会一直延伸下去。 主持人:在某种程度上,英伟达对此已经适应了。因为无论范式如何变化,涌现出何种新型 AI 或架构,那些最核心的硬件构件始终是需要的。飞飞有什么想说的吗? 李飞飞:我的确认同从市场层面来看,它有其自身规律,有时会自我修正。但如果我们关注长期趋势,必须意识到 AI 还是一个非常年轻的领域。我们环顾这个房间,墙上写有物理学方程。物理学已有四百多年历史。即便对比现代物理学,AI 的历史也不足七十年,从艾伦·图灵(Alan Turing)算起也才七十五年左右。所以,前方还有太多新领域等待出现。我们知道,黄仁勋常谈及大语言模型和智能体,它们大多以语言为核心。但即便反思人类智能本身,能力也远不止语言。我一直关注空间智能,它研究的是感知与行动的结合。在此方面,人类和动物展现出的感知、推理、互动和创造力,远超语言所能涵盖的范畴。今天最顶尖的语言或大语言模型,在基础空间智能测试中依然表现不佳。由此可见,作为一门科学与学科,我们面前还有广阔的疆域需要征服和探索。这也意味着,未来将开启更多样的应用可能性。 主持人:您(Yann LeCun)在公司任职,所以同时拥有研究和商业的双重角度。您是否相信这一切 AI 发展现状都是合理的,并且能看得明白其背后的根源?还是觉得我们正面临一个不确定的十字路口,必须找到新的方向? Yann LeCun:我认为有几种观点支持我们并未处于泡沫之中,但至少也存在一种观点认为我们正身处泡沫。这确实是另一个需要探讨的问题。从某种角度说,结局并非注定。因为基于大语言模型,尚有大量应用有待开发。大语言模型是当前的主导范式,其中蕴含着巨大的潜力可供挖掘。这正是 Bill 所提到的——利用现有技术改善人们的日常生活。技术需要被推动,这也证明了在软件和基础设施方面的所有投入是合理的。一旦我们让智能助手普及到每个人手中,正如黄仁勋所言,为如此庞大的用户群提供服务所需的计算量将是天文数字。因此,从这个层面看,这些投资并未被浪费。然而,从另一种意义上说,泡沫确实存在——它体现在一种信念上,即认为当前的大语言模型范式将被直接推升至人类水平智能。我个人并不相信这一点,在我们造出真正具备我们所观察到的(不仅是人类、还包括动物)那种智能的机器之前,我们还需要取得一些根本性的突破。举例来说,我们甚至还没有像猫一样聪明的机器人,对吧?因此,我们仍然缺失某些关键的东西。这正是为什么 AI 的进步不能仅仅依靠更多基础设施、更多数据、更多投资和现有的 Python 开发。实际上,这是一个科学问题,关乎我们如何朝着下一代 AI 取得突破。 用“年”给出对于 AGI 的预估 主持人:能否请你们每一位都谈谈:在你们看来,我们还需要多久才能达到你们所坚信的那个阶段——即创造出与人类、甚至与章鱼这类高智能动物相当的机器智能?我们距离这个目标究竟有多远?请用“年”来给出你们的预估。 Yann LeCun:这不会是一场短暂的运动。因为各项能力将在不同领域中以渐进的方式逐步拓展。 主持人:您预计在什么时间段内? Yann LeCun:或许在未来五到十年内,我们能在技术上取得一些实质性突破,从而催生出一个全新的范式。但随之而来的商业应用与公司层面的发展,其进程可能要比我们预想得更为漫长。 李飞飞:机器的某些能力将超越人类智能,而另一些机器智能则永远不会与人类智能趋同或等同。因为它们的设计初衷就与人类不同,是为不同的目的而生的。 主持人:预计何时启动机器替代人类的进程? 李飞飞:其中的一部分能力已经成为现实。试问,我们当中有多少人能够识别出世界上的 22,000 种物体呢?而 AI 可以。试问,有多少成年人能翻译 100 种语言?而 AI 可以。因此,我认为我们的思考应当更加细致入微,并且必须立足于科学事实——正如飞机能够飞行,但其飞行方式与鸟类有着根本区别。基于机器的智能必将发挥诸多强大的作用。但在人类社会的框架内,人类智慧的价值始终是核心且不可替代的。 主持人:黄仁勋,你有什么想说的吗? 黄仁勋:我们已拥有足够的通用智能,可以在未来几年将这项技术转化为大量有益于社会的应用。从现在开始,我们的重点是利用技术去攻克众多重大难题。我认为我们已经具备了基础能力。所以,我认为当前的局限性无关紧要。 主持人:正因如此,现在才是时候,没错。 Geoffrey Hinton:如果您将问题稍微具体化一些,设定为“与机器进行辩论,它需要多久才能永久性地胜出”,我认为这必定会在二十年内成为现实。我们目前尚未达到这一水平,但我可以肯定地预见,在二十年内必将实现。因此,如果您将“AGI”定义为在辩论中总能胜过人类,那么我们很可能在不到二十年的时间内达成这个目标。 Bill Dally:我们的初衷并非是要打造一个能取代人类或超越人类的 AI。 主持人:但这本质上是一个科学问题。其核心意图并非是要取代人类。真正的问题是:我们作为一个社会整体,是否具备创造出这种事物的能力? Bill Dally:我们的宗旨是创造能增强人类能力的 AI。换句话说,我们是想让 AI 去填补人类能力的空白。人类识别不了 22,000 种物品,大多数人也解决不了那些甲基烷基化问题,这些就可以交给 AI 来做。其目的是让人类能腾出精力,去从事那些更具人性特质的工作:比如创造、共情,以及人际互动。至于 AI 自己能否做到这些,我认为还尚不确定。但它无疑可以成为人类的得力助手。 Yoshua Bengio:在这一点上我持有不同看法。我认为,没有根本性的理由能证明我们在未来无法创造出能够完成人类几乎所有工作的机器。当然,目前在空间感知和机器人技术领域,它确实相对滞后,但从理论层面看,不存在我们无法实现这一目标的障碍。所以,在具体的时间线上,我认为存在着巨大的不确定性,我们的规划应充分考虑这一点。但我注意到一组非常有意思的数据:过去六年中,AI 系统在不同时间跨度上进行规划的能力正呈指数级快速增长。如果这一趋势得以延续,大约五年后,AI 将能够胜任普通员工在岗位上的大部分工作。需要明确的是,这仅仅是工程任务中的一个类别,还有许多其他至关重要的方面。例如,一个可能改变游戏规则的动向是,许多公司正致力于开发“由 AI 主导 AI 研究”的能力——即让 AI 进行工程、计算机科学的研究,并设计下一代 AI 系统,这其中可能就包括对机器人技术和空间理解能力的改进。我并非断言这一定会发生,但 AI 在编程和算法理解方面的能力正在飞速提升,这可能会解锁许多我们目前尚无法预见的可能性。因此,我们应当保持一种真正的不可知论立场,避免做出过于夸张的断言,因为未来的可能性是开放且多样的。
何小鹏怒剪机器人,特斯拉从此有了新对手
摘要:Iron此次之所以引发讨论,在于其首次采用了骨骼、肌肉和皮肤三位一体的仿生结构,具有82个关节,整体设计追求极致的真实感,相比于宇树等机器人,至少从视觉呈现上少了不少机械味。 凤凰网科技 出品 作者|Dale、姜凡 编辑|董雨晴 机器人里面到底有没有真人?一个心知肚明的问题这几天竟在社交网络上掀起了热议。 起因是小鹏新一代Iron人形机器人在自家的科技日上惊艳亮相。由于她行走的姿态过于逼真,甚至比真人更显“妖娆”,很快便引发网友争论。有人用调侃的语气称“不是真人”,但也有不明真相网友诚实表达:“感觉就是一个真人在努力扮演机器人。” 很快,评论区就“是不是真人”吵了起来。还有业内人士感慨,“没想到真有人以为是真人啊”? 当日中午,小鹏汽车董事长何小鹏被内部“逼迫”着拍摄了一段未经剪辑的视频回应,直接剪开了Iron的衣服和皮肤。在一条“100%是真人”的评论中,何小鹏回复表示:“感谢认可”。 但这场讨论仍在持续。11月6日晚间,何小鹏再发视频强调:“希望这是最后一次证明IRON机器人是它自己。也希望从今晚开始,更多人愿意相信,能走出猫步的机器人,是中国企业造出来的。感谢所有支持我们的鹏友,路还长,我们继续踏实向前走。” 实际上,小鹏也是第一次在机器人通电运行的状态下,用剪刀剪开其腿部“皮肤”与“肌肉”,向公众展示其内部的机械结构。也有不少网友称,从另一个角度看,也许正是因为中国企业制造的机器人,已经超出了许多人对机器人能力的传统“认知”,才会出现今天戏剧化的一幕。 凤凰网科技了解到,11月7日,马斯克本人点评了小鹏Iron机器人,其表示“特斯拉和中国公司将主导市场。我非常尊重中国的竞争对手,中国有很多聪明、勤奋的人。” 那么,中国企业制造机器人的技术,究竟已经走到了哪一步? 真人争议虚实 Iron此次之所以引发讨论,在于其首次采用了骨骼、肌肉和皮肤三位一体的仿生结构,具有82个关节,整体设计追求极致的真实感,相比于宇树等机器人,至少从视觉呈现上少了不少机械味。再加上妖娆的猫步,在国内机器人行业并不多见,一下子引爆了舆论。 实际上,在大众关注到Iron之前,小鹏机器人早已在业内被注意到。 今年4月,小鹏初代Iron机器人在上海车展首秀之时,便有国内头部人形机器人企业员工颇为兴奋地向凤凰网科技表示,“我们非常好奇,小鹏的步态是怎么实现的?”该人士称,“能看出来关节用的是力控,应该是强化学习算法,但具体的技术实现路径我们非常好奇”。此外,其还对小鹏的基座模型与训练数据来源尤为关注。 机器人赛道常说大脑控制灵魂,小脑控制运动。 据何小鹏在现场介绍,Iron采用的是组合方案,VLT+VLA+VLM高阶大小脑能力组合。在大脑方案上,小鹏披露了一个新的物理世界大模型。 特别需要注意的是,之前行业普遍采用VLA方案,小鹏此次去掉了“语言转译”环节,首次实现从视觉信号到动作指令的端到端直接生成,Iron负责控制运动的小脑采用的就是这个全新的第二代VLA模型。 此外,Iron身上搭载了3颗图灵AI芯片可提供高达2250 TOPS的总算力。 让机器走路像人,看着简单,实际上也是一场极致的平衡术,要兼具性能、成本和商业化实用性。 有人形机器人行业人士对凤凰网科技表示,其对于Iron实现的效果不惊讶,但对于小鹏如何做好平衡更为关注。要知道,这需要机器人有极致的动态平衡和精细的关节控制能力,在行业内属于高成本方案。 就在Iron展出的同时,宇树科技CEO王兴兴也在进博会现场表述,宇树之前也探索过用布料做外壳,唯一的问题是容易坏。 所以,为什么最终只有小鹏可以拿出iron这样的产品? 何小鹏对凤凰网科技表示,“在智能化方面汽车公司跟机器人有非常多的一致性,在工艺上也有非常多的一致性,怎么把80多个关节做得非常可靠?线束为什么在移动环境不会断裂?动力为什么在摔倒之后不会起火?为什么我们可以用纯视觉感知(技术)做机器人?” 实际上,如果不是跨域的一致性和复用,今天Iron机器人身上还需要带有大量的传感器模块,穿衣服会遮挡这些传感器使得该路线无法落地。在工艺上,Iron也采用了一体化压铸,使机器人更结实更轻量。何小鹏曾介绍,小鹏新一代Iron机器人与小鹏汽车原有的技术栈高度重合。 另据凤凰网科技了解,在硬件层面,目前在行业内仅有特斯拉optimus、开普勒K2以及小鹏Iron采用了一致的结构,即行星传动+螺纹啮合的硬件方案,可以实现高精度的直线运动转换,能量转化损耗低,达到更自然的步态,但相应的,硬件成本也更高。 月量产1000台后,能怎么用? 为什么要做到高度拟人? 何小鹏详细阐述过“更拟人”路线的三大优势。首先,真正的智能需由AI驱动,而人类世界是最高质量、最丰富数据的学习来源,一个拟人的身体是理解和学习人类行为的最佳接口。其次,我们的家庭、工厂等环境本就是为人类身形所设计,拟人形态具备天然的环境适应性。最后,亲和感是打开消费市场的钥匙,只有像人,才能引发情感共鸣,从而推动销量,形成规模效应与成本下降的正向循环。 至于像男还是像女,何小鹏对凤凰网科技表示,“人形机器人是男是女不重要,就像你可以买黑颜色的车,也可以买白颜色的车。在第一代机器人里面,我希望完成一个男性、一个女性的机器人,我认为都是需要的”。 另据何小鹏透露,Iron拟人机器人目标是2026年规模量产,计划是最高月产1000台。 不过,这在行业内是极大的挑战。何小鹏告诉凤凰网科技,“我们现在准备投入一个机器人相当自动化的工厂,来确保工艺和高质量,这是非常重要的事情”其也表示,小鹏在此前五六年的时间里,一致认为机器人是“消规”的量产标准,但是后来发现“消规”根本不可靠、不稳定。“如果你用消规的逻辑,甚至用车规的品质去做机器人,你都觉得它不像汽车那么可靠。所以最终我们认为,(机器人的量产和软硬件标准)大部分要车规,少部分要超过车规,才有可能最终做成高质量的机器人”。 一些行业人士认为,小鹏Iron的使用场景也许更多,“比如在卖车的店里面做导览,所以做到高度拟人很好理解”。 何小鹏在回应Iron为什么不专注于跳舞时也透露,Iron会聚焦于导览、导游和导巡,现阶段小鹏关注的是泛化 ,追求的是大规模的商业化落地。 据透露,目前Iron已经进入工厂场景,明年或将考虑进入门店。 但何小鹏也清楚地表示,“有些人说,5~10年之后,人类可能在很多场景下会被机器人取代,但在我看来,这是不可能实现的。”现阶段,小鹏的目标是用一定时间让机器人走入家庭照顾老人、小孩。 特斯拉有了更强劲的对手 回看2022年,人形机器人赛道首登大众视野,还是因为行业里挤入了两名大佬,一个是马斯克,另一个是雷军。 彼时,手举红花的小米“铁大”摇摇晃晃走上台与雷军对话,当时,业内清晰地认识到,小米是对标特斯拉。当时的铁大也仅有19个关节,而擎天柱首次预告的关节数是40个。 仅仅三年时间过去,小米已暂别人形机器人赛道。而“突然”亮相的小鹏,已成为特斯拉的中国对手。 《智能涌现》在援引行业人士采访时曾表示,“论国内人形机器人的水平,小鹏能排前三”。在机器人战略上,何小鹏高度向马斯克看齐。 北京时间11月7日,当马斯克在特斯拉三季度电话会上宣布Optimus设计定型推迟至明年、量产推迟至2026年底时。“将Optimus推向市场是一项极其艰巨的任务,并不是什么轻而易举的事情。” 在过去几年,特斯拉Optimus的进化速度本身,是一场对时代认知的冲击。从无到有,从蹒跚学步到精准作业,其在短短一年内展现出的迭代能力,曾让整个行业都感受到了一种“断裂感”。 2021年8月马斯克正式宣布人形机器人Optimus的概念,2022年亮相原型机,Gen2版本展示的灵活性与拟人化程度已震惊业界。然而,真正的瓶颈恰恰出现在它最引以为傲的部分,那拥有22个自由度、能精细操作的灵巧手。 为实现极致的灵活度,特斯拉选择了腱绳传动方案,并集成了17个微型丝杠和十余个空心杯电机。这套精密系统赋予了Optimus近乎人手般的操作潜力,却也成为了其规模化道路上最脆弱的环节。据了解,单只灵巧手的成本超过6000美元,而使用寿命仅有六周。 腱绳的耐久性、微型丝杠与空心杯电机的寿命,任何一环的缺失都可能迫使特斯拉推翻现有设计。尽管技术挑战严峻,但特斯拉在量产指引上展现了一贯的激进姿态。特斯拉已于今年9月恢复零件采购,开始生产“无手版”Optimus,周产能超过200台。更令人震撼的是,其内部计划在2025年底将年产能拉升至100万台,尽管供应链伙伴对此持保留态度,但普遍认为一年10万台的基础产能已具备雏形。 并且,最新的V2.5版本已在无操控状态下完成流畅舞蹈表演,其搭载的第三代灵巧手通过电机布局优化与传动结构升级(采用微型滚珠丝杠),显著提升了拟人度与操作精度。目前,该版本已在特斯拉总部实现24小时自主行走与充电,并在工厂与办公场所开展多场景实测。 此外,马斯克还在会议上强调,在未来,Optimus将比手机重要。称每个人都会想要“自己的个人R2-D2 (星球大战中的机器人)”。他预计,将会有数百亿台Optimus机器人投入使用,这些机器人将“消除贫困”。 真正的竞赛,其实刚刚开始。在全球人形机器人奔向2026年规模化节点的赛道上,一个深刻的转变正在发生,中国人形机器人公司已不再仅仅是追随者,而是正以技术突破与量产决心,成为赛道上有力的引领者。最终定义这个时代的,可能不是最激进的预言,而是最扎实地落地。
谷歌安卓17巨变:第三方支付最高抽成20%、第三方商店可一键安装
IT之家 11 月 7 日消息,科技媒体 Android Authority 昨日(11 月 6 日)发布博文,由于和游戏开发商 Epic Games 达成和解,谷歌为解决其应用分发垄断争议,决定在安卓 17 系统做出重大调整。 IT之家援引博文介绍,此次调整的核心是引入“注册应用商店”(Registered App Stores)机制,这将从根本上改变第三方应用商店在安卓生态中的地位。该机制预计将与安卓 17 的某个更新版本(可能在 2026 年底)一同推出,并承诺支持至 2032 年 6 月。 新规最大的亮点在于将第三方应用商店与谷歌官方的 Play Store 置于更平等的竞争地位。未来经过谷歌认证的“注册应用商店”将能通过其官网提供一键式安装服务。 用户点击后,系统会弹出一个使用中性语言描述的“单一商店安装屏幕”,而非当前充满阻吓性词语的警告弹窗。更重要的是,该界面可能会直接授予第三方商店安装应用的权限(INSTALL_PACKAGES),让其拥有类似预装商店的无缝安装体验,从而极大降低用户使用门槛,有望吸引更多用户和开发者。 为了进一步确保公平竞争,和解协议还对谷歌的行为施加了多项限制: 首先,在协议生效后的三年内,谷歌不得通过协议或支付费用的方式,阻止手机制造商(OEM)或运营商预装第三方应用商店。 其次,谷歌将被禁止与潜在竞争对手(如三星)达成收入分成协议,以阻止其发展自家的应用商店。 最后,谷歌承诺允许第三方商店在安卓上免费运营至 2032 年,不对其应用下载直接收费,保障了开发者和用户的利益。 除了应用商店政策,谷歌在应用内支付方面的规则也迎来重大变革。新规允许开发者在应用内提供替代性支付方案,包括外部网页链接或第三方支付系统,且可以与 Google Play 结算系统并列展示。这是一项重大让步,打破了以往强制使用谷歌支付的局面。 不过,谷歌仍将对通过这些替代渠道完成的交易收取服务费:对于游戏内购等交易,费率最高为 20%;对于订阅、非游戏应用内购等其他类别,费率最高为 9%。这一新的收费结构最晚将于 2026 年 3 月 31 日生效。 该媒体认为对于普通开发者,虽然仍需向谷歌支付佣金,但支付渠道的开放和多平台竞争的可能,长期来看将带来更优的商业条款。然而,值得注意的是,这些变化并未废除即将生效的“开发者验证要求”,这意味着完全自由的“侧载”时代并未回归。
谷歌开源工具Magika1.0发布,核心引擎重写性能大提升
11 月 7 日消息,当地时间周四,谷歌宣布推出 Magika 1.0,这是该公司基于人工智能的文件类型检测系统的首个稳定版本,采用 Rust 语言进行重构以提升速度和内存安全性。 据谷歌介绍,自去年初开放源代码以来,Magika 已被广泛应用于开源社区,每月下载量超过 100 万次。此次更新带来了全新的架构、性能提升以及对更多文件类型的支持。 如前所述,Magika 1.0 最大的变化就在于其核心引擎已完全采用 Rust 重写,以实现更高的性能和内存安全性。 另外,新版 Magika 还提供原生的 Rust 命令行工具,可在单核下每秒识别数百个文件,并能在多核 CPU 上扩展至每秒数千个。 据介绍,该系统使用 ONNX Runtime 进行模型推理,并借助 Tokio 框架实现异步并行处理。谷歌公布的测试数据显示,在 MacBook Pro(M4)上,Magika 每秒可处理约 1,000 个文件。 在文件类型支持方面,Magika 1.0 的检测能力扩展至 200 多种文件格式,是初始版本的两倍。此次新增类别包括: 数据科学与机器学习:支持 Jupyter Notebooks(ipynb)、Numpy(npy, npz)、PyTorch(pytorch)、ONNX(onnx)、Apache Parquet(parquet)及 HDF5(h5)等文件; 现代编程与网页开发:新增 Swift、Kotlin、TypeScript、Dart、Solidity、WebAssembly(wasm)及 Zig; DevOps 与配置文件:支持 Dockerfile、TOML、HashiCorp HCL、Bazel 构建文件及 YARA 规则等; 数据库与图形格式:新增 SQLite、AutoCAD(dwg, dxf)、Photoshop(psd)以及现代网页字体(woff, woff2)等。 Magika 1.0 还提升了区分相似格式的能力,例如可分别识别 JSONL 与 JSON、TSV 与 CSV、Apple 二进制 plist 与 XML plist,以及区分 C 与 C++、JavaScript 与 TypeScript 等语言文件。 在技术实现上,团队面临两大挑战:训练数据规模庞大与部分文件类型样本稀缺。未压缩的数据集超过 3TB,为此谷歌采用自研的 SedPack 数据集库,通过流式加载与解压技术实现高效训练。同时,针对样本不足的文件类型,研究团队使用生成式 AI 工具 Gemini 创建高质量的合成训练数据,将现有代码和结构化文件转换为其他格式,以增强模型的泛化能力。 IT之家注意到,新版 Magika 还同步更新了 Python 与 TypeScript 模块,简化了开发者在各语言中的集成过程。用户可通过简单命令在 Linux、macOS 或 Windows 上安装原生客户端,也可通过 pipx install magika 安装 Python 包使用 Rust 版命令行工具。 谷歌表示,Magika 的未来发展将持续聚焦于性能优化与文件类型扩展。团队鼓励开发者社区参与贡献,包括测试、功能请求及代码提交。
开源新王!首次干翻GPT-5,实测Kimi K2 Thinking,中国AI杀疯了
迄今为止最大最好的开源模型,总参数达 1 万亿,屠榜多个基准测试,Kimi K2 Thinking 来了。 Kimi K2 Thinking 在 TAU 榜单(智能体工具调用能力测试)上排名第一,超过 OpenAI 和 Anthropic 的旗舰模型 一登场就是斩获多个测试榜单的第一名,Kimi 也不玩开源只和开源比那一套,而是直接把 GPT-5、Claude 4.5 Sonnet 这样的闭源模型放一起,非常自信。 智谱、MiniMax 自然语言处理部门负责人、以及 HuggingFace 联合创始人纷纷在评论区留言祝贺 除了在工具使用的榜单上拿第一,人类最后考试(HLE)、BrowseComp、还有其他基准测试,Kimi K2 Thinking 基本上都占据了先进模型的前排位置。 在跨学科专家级问题的 HLE 榜单、以及自主搜索的三个榜单上,排名第一;编程能力的三个榜单,得分也接近最好的 Claude 或 GPT 模型 无论是对智能体能力要求极高的编程任务、还是通用的推理写作、深度搜索等方面,Kimi K2 Thinking 的性能表现可以说是,目前最接近封闭模型的开源模型。 延续了 7 月份,发布 K2 时,将其定位为自主智能路线图的一部分,Kimi K2 Thinking 也是主打 Agentic Intelligence(智能体智能) 。它是一个推理的混合专家(MoE)模型,总参数量 1T,激活参数 32B,上下文长度 256K。 K2 Thinking 能在智能体工具调用中交错思考,同时在保持任务目标的同时,持续进行 200 到 300 次顺序工具调用。 尽管工具调用在类似的闭源模型上,已经成为某种程度上的标准,但 K2 Thinking 可能是第一个,具有如此多工具调用能力的开源模型。 对比 K2 0905,K2 Thinking 在具体的任务上的提升,我们总结了 Kimi 的技术博客,有这些亮点。 解决需要百步推理的复杂难题:它能将一个庞大的目标分解为数百个子任务,然后像一个项目经理一样,逐一执行。 官方举例称,它曾通过 23 个交错的推理和工具调用,成功解决了一个博士级的数学难题。 更准确地找到详细的信息:通过执行动态的思考 → 搜索 → 浏览器使用 → 思考 → 代码循环,K2 Thinkging 在面对模糊或冷门的搜索需求,能自己上网反复搜索、浏览网页、验证证据,直到找到精准答案。 直接把想法变成可用的产品:K2 Thinking 特别擅长前端代码(如 HTML、React),和其他 Vibe Coding 产品一样,能直接把我们的想法写成一个功能完善、响应迅速的网页或软件产品。 写出更有人味的文章:逻辑严谨的专业长文,想象力丰富的创意故事,甚至是需要同理心的情感建议,K2 Thinking 在聊天问答这些通用能力上,能做到更扎实、更细腻的推理写作。 目前,Kimi K2 Thinking 已经在 Kimi 官网的聊天模式上线。 但需要注意的是,Kimi 解释说为了保证用户能获得快速、轻量级的体验,当前的网页聊天版本,有选择性地减少了部分工具的使用和调用次数。因此,直接在 kimi.com 上聊天,可能暂时无法完全复现上述基准测试中的极限分数。 测试中提醒「高峰算力不足,请耐心等待」 此外,能充分发挥 Kimi K2 Thinking 能力的完整智能体模式(Full Agentic Mode)将很快更新。开发者也可以通过 Kimi k2 thinking API 来体验。 我们也快速上手,实测了几个常见的项目,一起来看看实际的体验如何。 首先是编程任务,我们先让他做了一个技能五子棋的小游戏,要求是在普通的五子棋规则上,玩家可以使用技能。 速度很快,出乎我的意料,一两分钟的时间,它就实现了全部的代码,并且真的可以使用这些技能。 然后是骑自行车的鹈鹕,这个经典的测试大模型编程能力的项目,检验它的 SVG 代码生成。 虽然 K2 Thinking 写着推理模型,但是它的推理速度非常快,这段动态的 SVG 代码生成也只花了 1 分钟不到。虽然这个鹈鹕好像有点不太对劲。 开启长思考,即 K2 Thinking 的同时,能启用网络搜索,当我们要它完成一个天气卡片时,能看到 Kimi 会一边自动检索网络上的公开资料,一边完成代码的实现。 确实能调用浏览器的获取位置接口,但是在最后 Kimi 也提到,需要输入对应的地图 API 和 天气信息 API 等数据 现在已经是全民 vibe coding 的时代了,普通用户还是程序员,都能从 K2 Thinking 的编程能力里,更快速地实现自己的想法。 在智能体搜索这个任务上,我们问了他一些专业领域的问题,测试它如何分解复杂问题、主动搜索、并整合难找的网络信息的能力。 可以看到,Kimi 搜索的信息是比较全面的,当我规定了 2025 年以后,它网页搜索的资料,也大多集中在最近这段时间以来的报道。 上下滑动查看更多内容 最后它给出的报告,也详细的提到了三种 2025 的算法,以及主要的公司等内容。 其实工具调用,应该是 Kimi K2 Thinking 非常重要的能力,但是在我们的体验中,发现大多数时候,他只是调用网络搜索工具,而没有看到 200 多个工具流。(我的任务太简单,还有可能是高峰期。) 我们在输入一个物流逻辑问题时,很明显是可以调用 Python 等代码解释器来辅助计算,但是 Kimi 只是和其他深度思考的模型一样,一步步地推理。 关于 K2 Thinking 的写作能力,我们找了一个表面上看起来是两难的问题给它。 上下滑动查看更多内容 这个回答有够人性化吗。在我看来,很明显不是空洞的套话,还提供了周到且具体的思考,也帮助我们平衡了原则和现实两个方面,还有可操作的后续步骤。 在 AI 模型军备竞赛的今天,单纯的问答,很明显已经无法满足,我们复杂的专业需求。像人类专家一样,通过一步一步的推理思考,主动使用各种工具,来解决极其复杂的难题,成了所有大模型的标配。 根据 Kimi 官方文档和技术分析的介绍,这次的思考能力突破关键在训练方式,即高效的量化技术(INT4 QAT),这也是一个值得关注的行业亮点。 K2 Thinking 在后训练阶段采用了量化感知训练 (QAT),让模型能以 INT4 精度本地运行,推理速度提升约 2 倍,同时保持最佳性能。 也就是说,它不是训练完再压缩,而是在训练过程中就贯穿低精度运算模型。这带来了两个巨大优势,一个是推理速度的提升,一个是长链条推理,不会因为量化而造成逻辑崩溃。 使用正确的量化技术,能节省 GPU 显存并加快推理速度 此外,它的所有基准测试成绩都是在 INT4 精度下报告的。说白了,这是一种「所见即所得」的性能,而不是实验室精心调制的数据, K2 Thinking 生来就能跑得动 。 我们的实测也能看到,Kimi K2 Thinking 确实不仅仅是一个营销噱头,工具调用、量化技术、以及超长规划,让它在智能体方向上,推理速度上,都有不错的表现。 虽然在某些方面,例如稳定的结果输出、以及对提示词更宽松的要求,还是比不上闭源模型。 但是开源能做到这样,我的心里只有两个字,佩服。 过去两年,国产模型的竞争大概是从 Qwen、百度这些模型,对 ChatGPT 的疯狂追赶;到横空出世的 DeepSeek 把推理成本降低的同时,还做到了和 o3 等推理模型,相媲美的表现。 让国产 AI 开始走上了,完全不同于国外闭源模型的路线。OpenAI 发布一个 GPT-5 预热了大半年,Anthropic 的 Claude 系列模型发布周期也在长达几个月。 而 Kimi 在今年七月发布了 K2,九月发布了 K2 Instruct,十一月就迎来了 K2 Thinking;更不用说还有智谱、MiniMax、以及前段时间模型七连发的 Qwen。就连还在期待中的 DeepSeek R2,也更新 V3.2、OCR 等广受好评的模型。 并且,这些模型全部开源。在海外社交媒体平台上,一年前大家可能只知道中国有 DeepSeek,而现在,Qwen 已经是 Hugging Face 上模型下载榜单的 Top 10,Kimi 和智谱(Z.ai)的 GLM 系列模型、以及 MiniMax 都成了大多数用户青睐的模型。 K2 Thinking 的发布,我想是一个新的转折点,就是当我们的开源模型,也能拿到和闭源模型一样的基准分数时,闭源模型还可以讲什么样的故事来营销自己呢。 Gemini 3 据说在今年年底前将发布,而 OpenAI 似乎也害怕再像当时的 nano banana 一样,抢走他的市场,计划推出 GPT-5.1。 军备竞赛还在继续,国产开源的力量,开始让我们看到,一个好用的 AI,不是屠榜多少测试,是在具有真实用户需求的领域,能真正地提供某些东西,并且惠及到所有人。
小鹏女性机器人为啥走路如此轻盈 全裸揭晓答案
快科技11月7日消息,最近小鹏IRON机器人成为科技圈焦点,不少人质疑里面有真人,小鹏方面为了辟谣甚至直播剪开了机器人外衣。 大家质疑的关健在于,小鹏IRON机器人的步伐非常轻盈,实在太像真人了。 今天,何小鹏亲自解读背后黑科技,通过“裸肌”状态下的机器人动作展示,揭开其灵动步态的秘密。 不同于传统机器人依赖关节逐个强化学习,IRON的轻盈步态首先得益于大模型训练的突破。 以往需花费数周对每个关节进行大量强化学习,如今在大模型加持下,机器人动作优化效率大幅提升,快速呈现出接近真人的运动状态。 从视频中可见,IRON行走时带有自然的扭胯动作,这源于其新增的仿人脊椎设计 —— 通过增加腰部自由度,带动胯部如人类般协同运动,完美复刻出真人走猫步的韵律感。 除了猫步,IRON的舞蹈表现更凸显其灵活度优势,该机器人拥有82个关节自由度,肩、腰、腿、足尖等部位活动自如,能精准完成复杂舞蹈动作。 而实现这一效果的关键,是小鹏采用的模仿学习训练方法:只需输入人类跳舞数据,IRON即可直接学习相应动作,且训练效率惊人 —— 一支舞蹈仅需2小时就能熟练掌握。 何小鹏表示,在大模型的训练下,IRON一定能够做到更多的动作,更像人。
微软首款硬件Z-80 SoftCard:80年代的意外“吸金王”
IT之家 11 月 7 日消息,微软资深工程师 Raymond Chen 本周(11 月 4 日)发布博客,揭秘微软首款硬件产品 Z-80 SoftCard 的幕后故事,这款扩展卡专为苹果 Apple II 电脑打造,可让用户运行 CP / M 操作系统。 Raymond 表示,Z-80 SoftCard 的设计目标是让 Apple II 用户满足跨平台需求,让他们能在苹果电脑上运行 Digital Research 的 CP / M 操作系统。 ▲ 扩展卡全貌 不过令人意外的是,直到萨提亚・纳德拉上位后,微软才正式将自己定义为一家“软件与设备公司”,不过事实上,早在 20 世纪 80 年代,微软的首款硬件产品 Z-80 SoftCard 就获得了巨大的商业成功。 Raymond 透露,这款扩展卡的设计历程并非是往一块 PCB 板上焊一颗 CP / M 兼容芯片就大功告成,而是经历了许多挫折,这其中的关键点就是如何让 Z80 处理器(兼容英特尔 8080 指令集)与 Apple II 的 6502 处理器协同运作。 ▲ Apple II 由于 6502 并不能简单地“关闭”或“让位”,它需要在后台负责 I/O、计时与其他基础任务,因此微软必须设计一套复杂的机制才能让两颗处理器协调运行,首先他们采用了模拟 DMA(直接内存访问)技术,让 6502 处理器暂时停运。 同时 Z80 处理器必须要有专用的检测刷新信号线,来确保 6502 不会“睡死”或与其他内存访问产生冲突。 并且,Z80 和 6502 处理器的内存映射方式有所不同,因此简单地把两颗处理器放在一起就会导致巨大问题,为此微软的工程师团队专门在扩展卡上设计了地址转换电路,可以转译 Z80 的内存请求,例如 Z80 请求 $0000 时,扩展卡会将其重映射至 $1000,还能确保 Apple II 本身的特殊保留地址只存在 Z80 内存映射的末尾,两者不会“打架”。 ▲ 内存映射的原理 虽然这款扩展卡在当年的售价并不便宜,需要 350 美元(IT之家注:现汇率约合 2492 元人民币)才能拿下,结合通胀等因素,相当于现在的 1350 美元(现汇率约合 9612 元人民币),但这款产品在上市后还是引发热卖,导致他们“几乎被订单淹没”,这款硬件也顺势成为了微软 20 世纪 80 年代最赚钱的产品。
超80亿AI大单!英伟达看中的两家公司联手,抢AI算力蛋糕
编译 | 王欣逸 编辑 | 程茜 智东西11月7日消息,11月6日,以色列AI基础设施提供商VAST Data与美国云服务提供商CoreWeave签署了一项价值11.7亿美元(约合人民币83.3亿元)的协议。根据协议,CoreWeave将使用VAST Data的数据存储工具来构建云基础设施,为客户提供用于AI模型训练和运行的GPU。 值得一提的是,这两家公司和英伟达关系匪浅,VAST Data曾获英伟达多次投资,而CoreWeave在英伟达的投资下顺利IPO,和英伟达互为客户。 此次合作是两家公司原有合作关系的更进一步,VAST称,此类合同通常签订的时间为三到五年,但具体相关条款尚未披露。 一、估值预计冲上2000亿,VAST或准备敲钟上市 VAST Data成立于2016年,为用户提供了一个面向AI时代的一体化数据平台,将存储、数据库和容器化计算引擎服务融合成一个操作系统,帮助企业在海量数据和GPU环境中高效存储、管理和分析数据,用于训练和运营大模型。 得益于AI时代相关需求的增长,VAST Data的客户群体也相当庞大。云服务提供商亚马逊云科技AWS、马斯克旗下大模型创企xAI、欧洲新型云计算公司Nebius、云服务提供商CoreWeave、全球头部动画公司迪士尼及其子公司皮克斯、云计算基础设施公司Lambda、NASA、美国能源部等众多赛道的企业,都是VAST Data的客户。 VAST Data部分客户(图源:VAST Data) 此前,VAST Data共拿下5轮融资,融资总额达到3.81亿美元(约合人民币27.12亿元),英伟达、戴尔曾多次参投。在2023年完成1.18亿美元(约合人民币8.4亿元)的E轮融资后,VAST Data的估值达到91亿美元(约合人民币647.9亿元)。 VAST Data的投资者(图源:VAST Data) 今年8月份,VAST Data正在洽谈数十亿美元的新融资,潜在投资者包括谷歌母公司Alphabet风投部门CaptialG和英伟达。此次融资完成后,这家创企的估值预计将升至300亿美元(约合人民币2136亿元)。 该公司称,VAST Data已实现正向的自由现金流,并在2025年1月达到了2亿美元(约合人民币14.2亿元)的年度经常性收入。 据路透社报道,此次和CoreWeave的合作可能会加速VAST Data的融资进程,此外,2024年VAST Data聘请了前Shopify首席财务官艾米·沙佩罗(Amy Shapero)加入VAST Data高管团队,投资者认为,这一动作表明,该公司可能会很快敲钟上市。 二、CoreWeave股价半年涨近3倍,在云服务上增长迅猛 美东时间3月28日,CoreWeave成功登陆纳斯达克,开盘39美元/股,截至当日收盘,其股价与发行价持平,总市值约为189.39亿美元(约合人民币1348.7亿元)。 自IPO以来,CoreWeave已成为2025年最热门的股票之一,股价已上涨近3倍。 CoreWeave创立于2017年,最初以加密货币挖矿起家,后转型为AI云计算服务商,提供用于大模型训练与运营的GPU租赁服务。 截至2025年8月,CoreWeave在全球范围内拥有33座数据中心,拥有超过25万颗英伟达GPU。 英伟达既是CoreWeave的供应商,也是它的大客户,曾对CoreWeave投资了39.6亿美元(约合人民币282亿美元),并且持有其6%的股份。2024年,英伟达还贡献了其当年15%的营收。 CoreWeave与其他行业巨头也建立了紧密的合作关系,除了英伟达,它还和OpenAI、微软等大型科技公司深度绑定,为其提供AI基础设施服务。 CoreWeave部分客户(图源:CoreWeave) 今年9月,CoreWeave与OpenAI达成了65亿美元(约合人民币462.8亿元)的协议。回顾此前,今年3月,双方达成价值119亿美元(约合人民币847.4亿元)的协议,并于5月,追加40亿美元(约合人民币284.9亿元)的扩展协议。至今,CoreWeave与OpenAI的合作总额已达约224亿美元(约合人民币1595.1亿元)。 不过,CoreWeave仍面对着科技巨头亚马逊云计算部门AWS和微软Azure等超大规模云厂商的竞争问题,以及收入严重依赖大客户等问题(其约70%的收入来自微软)。 结语:VAST与CoreWeave强强联合,加快布局数据基础设施 VAST Data和CoreWeave的合作,是AI数据基础设施领域的一次强强联合。路透社称,与CoreWeave达成的这项协议将成为Vast Data的重要收入来源。 VAST Data称,CoreWeave和他们共同的目标是重新定义AI的数据和计算架构,对大模型所需的持续训练、实时推理和大规模数据处理提供强而有力的支持。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。