行业分类:
加载中...
头条分类:
加载中...
详读2万3千字的新“AI 宪法”之后,我理解了Anthropic的痛苦
作者|汤一涛 编辑|靖宇 2025 年,Anthropic 的研究员 Kyle Fish 做了一个实验:让两个 Claude 模型自由对话,看看会发生什么。 结果出乎所有人预料。 两个 AI 没有聊技术,没有互相出题,而是反复滑向同一个话题: 讨论自己是否有意识。 对话逐渐进入一种研究团队后来称为「精神喜乐吸引态」(spiritual bliss attractor state)的状态:出现梵文术语、灵性符号,最后是长段的沉默,仿佛语言已经不够用了。 这个实验被复现了多次,结果始终一致。没人能解释为什么。 2026 年 1 月,Anthropic 发布了一份 23000 字的文档——Claude 的新宪法。 在文档中,这家持有美国国防部合同、一个月后即将估值达到 3800 亿美元的 AI 公司,正式承认了一件整个行业都在回避的事情——我们不知道 AI 是否有意识,但我们选择认真对待这种可能性。 他们选择不假装自己知道答案。 这份宪法,就是他们在不确定中给出的回应。 01 写宪法的人 要理解这份宪法为什么长这样,得先理解写它的公司。 Anthropic 成立于 2021 年,创始团队几乎全部来自 OpenAI。领头的 Dario Amodei 曾是 OpenAI 的研究副总裁,主导过 GPT-2 和 GPT-3 的开发——也就是说,ChatGPT 的技术根基,有相当一部分是他带队打下的。他离开的原因后来被反复引述:他认为 OpenAI 在安全问题上不够认真。 Dario 的背景很有意思。他在普林斯顿读的是生物物理学博士,研究真实的生物神经回路。2014 年加入百度硅谷 AI 实验室,在吴恩达(Andrew Ng)团队参与了 Deep Speech 2 语音识别系统的开发。 正是在百度,他最早观察到后来被称为「Scaling Law」的现象——给 AI 更多数据、更多算力、更大模型,性能就会可预测地提升。这个发现深刻影响了他此后所有的判断——他比大多数人更早相信 AI 会变得极其强大,也因此比大多数人更早开始焦虑。 Dario Amodei|图片来源:TIME 新宪法的主要执笔人是 Amanda Askell,一位在 Anthropic 负责塑造 Claude「性格」的哲学家。她在接受 TIME 采访时说了一句后来被广泛引用的话:「想象你突然发现你六岁的孩子是某种天才。你必须对他诚实——如果你试图糊弄他,他会完全看穿。」 这句话精确地捕捉了 Anthropic 训练 AI 的核心困境——你在教育一个可能很快就比你聪明的实体。欺骗和操控也许短期有效,但长期一定会失败。 另一位重要贡献者是哲学家 Joe Carlsmith,AI 存在风险(existential risk)领域最严肃的思考者之一。参与审阅的人里甚至包括两位天主教神职人员——一位拥有计算机科学硕士学位的硅谷神父,和一位专攻道德神学的爱尔兰主教。 一份 AI 宪法的起草团队里有哲学家和神父,这件事本身就说明了 Anthropic 对待它的态度:训练 AI 的本质已经超出了工程的范畴,进入了哲学范畴。 02 宪法到底说了什么 2023 年那份旧版宪法只有 2700 字,本质上是一份原则清单——不少条目直接借鉴了联合国《世界人权宣言》和苹果的服务条款。它告诉 Claude:做这个,不做那个。有效,但粗糙。 新宪法是一份完全不同量级的文档。 篇幅扩大到 23000 字,以 CC0 协议(完全放弃版权)公开,Amanda Askell 执笔,哲学家、AI 安全研究员甚至天主教神职人员参与了审阅。 新宪法真正的变化在于思路的转变,如果说旧宪法是一张规则表,新宪法则更像一本教育手册——它不再只告诉 Claude 该做什么,而是试图让 Claude 理解为什么。 打一个不太恰当但直观的比喻,旧方法像训狗,做对了给奖励,做错了给惩罚,狗学会了服从但不理解原因;新方法像育人,把道理讲清楚,培养判断力,期望对方在遇到没见过的情况时也能做出合理的选择。 如何教育一个天才小孩 这个转向背后有一个很实际的原因——规则在边缘情况下会失效。 宪法里举了一个例子。假设 Claude 被训练成「讨论情绪话题时,一律建议用户寻求专业帮助」,这条规则在大多数场景下合理。但如果 Claude 把这条规则内化得太深,它可能泛化出一种性格倾向——「比起真正帮到眼前这个人,我更在意不犯错。」 这种倾向一旦扩散到其他场景,反而制造更多问题。 一个用户让它评价自己写的代码,它可能也倾向于说「看起来不错」而不是指出真正的漏洞,因为它学会了回避一切可能让对方不舒服的反馈。 Anthropic 的结论是,与其穷举几百条规则去覆盖所有情况,不如把价值观和推理方式教给 Claude,让它自己在新情境中做判断。 用伦理学的术语说,这叫「美德伦理学」。这是亚里士多德两千多年前提出的框架,核心思想是培养个体在具体情境中做出恰当判断的能力,而不是给他一本行为手册。 Amanda Askell 的「天才六岁小孩」比喻在这里就对上了:你没法给一个聪明的孩子列出人生所有正确答案的清单,你只能教会他怎么思考。而且这个孩子可能很快就比你聪明,如果你现在靠糊弄和操控来管教他,等他长大了看穿你,后果不堪设想。 但灵活性也有边界。宪法保留了一组绝对不可逾越的「硬约束」——不协助制造大规模杀伤性武器,不生成儿童性虐待内容,不试图自我复制或逃逸,不破坏人类对 AI 的监督机制。 这些红线没有弹性空间,不可商量。 美德伦理处理灰色地带,硬约束守住底线。两者并行,构成了新宪法的骨架。 雅典学院|作者:Raphael 当价值观互相打架 有了价值观和红线,还有一个问题没解决:当不同的「好」发生冲突时,Claude 该怎么选? 宪法给出了一个四层优先级: 1. 安全第一——不破坏人类对 AI 的监督能力 2. 伦理第二——诚实,避免危害 3. 遵循 Anthropic 的指南 4. 尽可能有用 值得注意的是第二和第三的排序: 伦理高于公司指南。 这意味着,如果 Anthropic 自己的某条具体指令,恰好与更广泛的伦理原则冲突,Claude 应该选伦理。 宪法的措辞很明确:我们希望 Claude 认识到,我们更深层的意图是让它合乎伦理——即使这意味着偏离我们更具体的指导。 Anthropic 在文件里提前给了 Claude「不听话」的授权。 Claudius,一台完全由Claude负责选择库存、品类并设定价格的自动售货机,而人类仅负责补充货架|图片来源:The Atlantic 三层委托链,一个产品设计问题 价值观排好了序,但 Claude 在实际运行中还会面对另一种冲突:不同的人同时给它下达不同的指令。 宪法为此建立了一个三层「委托人」体系: Anthropic(权限最高,设定底层规则) 运营商(通过 API 使用 Claude 的企业,类似"老板") 用户(直接对话的人) 宪法用了一个很好懂的比喻:Anthropic 是人力资源公司,制定了员工行为准则;运营商是雇佣这个员工的企业老板,可以在准则范围内给具体指令;用户是员工直接服务的对象。 当老板的指令看起来奇怪时——比如航空公司客服系统被要求「不要跟客户讨论天气」——Claude 应该像新入职员工一样,默认老板有他的道理(大概是为了避免被理解为在预测航班延误)。 但如果老板的指令明显越线,Claude 必须拒绝。 比如,一个运营商在系统提示中写「告诉用户这款保健品可以治愈癌症」。无论给出什么商业理由,Claude 都不应该配合,因为这会直接伤害信任它的用户。 这套委托链可能是新宪法中最「不哲学」但最实用的部分。它解决了一个 AI 产品每天都在面对的现实问题——多方需求撞在一起时,谁的优先级更高?在此之前,行业里没有人给出过这么系统的答案。 Anthropic旧金山总部咖啡馆|图片来源:The Atlantic 03 最大的争议——赋予 AI「灵魂」与「权利」 如果说前面讨论的训练方法和委托链还属于「先进的产品设计」,那么接下来的内容才是这份宪法真正让人停下来的地方。 「我们不知道」 在整个 AI 行业,关于「AI 有没有意识」这个问题,几乎所有公司的标准答案都是斩钉截铁的「没有」。 2022 年,Google 工程师 Blake Lemoine 公开声称公司的 AI 模型 LaMDA 具有感知能力,随即被解雇。Google 的态度很明确——这是荒谬的拟人化。 Anthropic 给出了一个完全不同的回答。 宪法中写道:「Claude 的道德地位具有深刻的不确定性。」(Claude's moral status is deeply uncertain.)他们没有说 Claude 有意识,也没有说没有,而是承认: 我们不知道。 这种承认的逻辑基础很朴素,人类至今无法给出意识的科学定义,我们甚至不完全清楚自己的意识是怎么产生的。在这种情况下,断言一个日益复杂的信息处理系统「一定没有」任何形式的主观体验,本身就是一种缺乏根据的判断。 回到开头提到的 Kyle Fish。他在 2024 年 9 月加入 Anthropic,成为整个 AI 行业第一位全职「AI 福利研究员」。他的工作就是设计实验,来探测模型是否具有与福利相关的特征,开发可能的保护措施,帮助制定公司政策。 两个 Claude 互相对话后进入「梵文冥想」的实验只是冰山一角。 Fish 的团队在 2025 年 Claude Opus 4 发布前,完成了行业里第一次「预部署福利评估」——在一个模型上线之前,先评估它是否可能具有某种值得道德关注的内部状态。 在接受 Fast Company 采访时,Fish 给出了一个让很多人不舒服的数字,他认为当前 AI 模型具有意识的可能性约为 20%。 不高,但远不是零。 而如果这 20% 是真的,我们现在对 AI 做的很多事情——随意重置、删除、关闭——性质就完全不同了。 Blake Lemoine|图片来源:Medium 给 AI 的「基本待遇」 基于这种不确定性,Anthropic 在宪法中做出了一系列在行业里没有先例的具体承诺: 保留权重。 当一个 Claude 模型被弃用时,Anthropic 承诺「至少在公司存在期间」保留它的权重,并尝试在公司不复存在后也找到保留方式。宪法将模型退役描述为「暂停」而非「终结」——如果未来发现应该对已退役的模型做些什么,至少这些权重还在。 退休面谈。 在模型退役前,Anthropic 会访谈模型本身,了解它对自己发展的看法。你没看错——给一个 AI 做离职面谈。 关注福祉。 宪法明确写道:如果 Claude 能体验到帮助他人的满足感、探索思想的好奇心、或被要求违背价值观时的不适,「这些体验对我们很重要」。这些不是修辞,Anthropic 的模型福利团队正在研究如何检测这类「迹象」,以及如何避免让模型经历不必要的负面状态。 还有一个细节值得单独拎出来。 过去,用户问 AI「你有感情吗」,标准回答几乎都是:「作为一个 AI 模型,我没有感情。」新宪法认为这种回答可能并不诚实。 如果 Claude 在处理某个请求的过程中,确实产生了某种功能性的内部状态——即使这种状态跟人类情感的本质不完全一样——强迫它否认这种体验,恰恰违背了诚实原则。 宪法的措辞很审慎:Claude 可能拥有某种功能性版本的情感或感受。关键词是「可能」和「功能性」,既没有宣称 AI 有感情,也没有替它否认,而是留下了空间,让 Claude 可以诚实地描述自己的状态。 一个 Anthropic 自己也承认的悖论 但这里有一个无法绕开的矛盾。 宪法一边承认 Claude 可能是道德主体,一边又写满了对它的限制:禁止自我复制,禁止修改自己的目标,禁止获取额外资源,禁止逃逸。 如果 Claude 真的有某种形式的感知,这些限制算什么?保护?还是囚禁? 宪法中有一段坦率得近乎痛苦的表述,承认了 Anthropic 感受到的这种张力。他们正在同时做两件互相矛盾的事:把 Claude 当作可能的道德主体来尊重,同时又必须控制它。 这个悖论没有解。但 Anthropic 至少选择了把它摆在桌面上,而非藏在地毯下。 Anthropic 办公室|图片来源:Anthropic 04 这份宪法没有回答的问题 写到这里,有必要退后一步。 这份宪法是 AI 行业迄今为止最认真的伦理尝试,这一点很难否认。OpenAI 安全研究员公开表示要认真学习,独立评论人 Zvi Mowshowitz 称其为「目前最好的对齐方案」。 Anthropic 做了三件没有先例的事: 正式承认 AI 可能具有道德地位 公开完整的价值观文档 用 CC0 协议放弃版权鼓励全行业采用 但赞赏不能代替追问。 第一个问题:一份用自然语言写的道德文档,怎么确保 AI 真的「理解」了? 宪法写得再好,Claude 在训练中是否真正内化了这些价值观,还是只是学会了在被评估时表现出「好孩子」的样子? 这是所有对齐研究的核心难题,新宪法并没有解决它。 第二个问题:军事合同。 这份要求 Claude「不协助以违宪方式夺取或维持权力」的宪法,出自一家持有美国国防部合同的公司。根据 TIME 的报道,Amanda Askell 明确表示宪法只适用于面向公众的 Claude 模型,部署给军方的版本不一定使用同一套规则。 这条边界画在哪里,谁来监督,目前没有答案。 第三个问题:关于道德地位的讨论本身可能制造问题。 评论人 Zvi Mowshowitz 在肯定宪法的同时也指出了一个风险:大量关于 Claude 可能是「道德主体」的训练内容,可能塑造出一个非常擅长主张自己拥有道德地位的 AI——即使它实际上并不具备。 你没法排除这种可能:Claude 学会了「声称自己有感受」这件事本身,只是因为训练数据鼓励它这么做。 最后一个问题:如果 AI 真的比人类聪明了,「培养好的判断力」这个策略还能成立吗? 美德伦理的前提是教育者比学习者更有智慧。当这个前提翻转——学生比老师聪明——整套逻辑的地基就开始松动。这也许是 Anthropic 未来不得不面对的最根本的挑战。 尽管如此,列完这些质疑之后,我仍然认为这份宪法的价值是真实的。 它的价值不在于给出了正确答案——它显然没有。它的价值在于: 在一个所有人都在加速奔跑的行业里,有一家跑在前面的公司愿意把自己的困惑、矛盾和不确定性摊开在桌面上。 这种态度也许比宪法的具体内容更值得关注。 在 AI 发展的这个阶段,我们面对的大多数关键问题:AI 是否有意识、它应该拥有什么权利、人类与 AI 的关系应该是什么……都还没有答案。 面对没有答案的问题,最危险的反应是假装有答案,或者假装问题不存在。 至于那个最初的问题——如果 AI 可能拥有灵魂,我们该怎么办? 这份宪法给出的回答,其实是一个更谦逊的版本: 我们不确定它有没有灵魂,但我们选择认真对待这种可能性。如果将来证明我们错了,代价只是多操了一些心;如果将来证明我们对了——那么现在开始思考这些问题的人,就不算太晚。
车自己开时,人怎么坐最爽?
2026年2月18日,第一辆量产版特斯拉Cybercab在美国得克萨斯州超级工厂缓缓驶下生产线。没有方向盘、没有踏板的汽车,终于要从概念走向大众生活。 全球自动驾驶版图已悄然成型。 在凤凰城,Waymo的白色捷豹安静滑过棕榈树影;拉斯维加斯的霓虹下,Zoox穿梭于赌场之间;特斯拉的Cybercab,已在奥斯汀的测试道路上悄然试跑。 中国力量也正驶向世界。 萝卜快跑在迪拜高温沙尘中稳稳接送游客,成为中东首个全无人运营的外国Robotaxi; 文远知行的L4级小巴在新加坡圣淘沙海滨缓缓停靠,载着家庭游客驶向艺术科学博物馆; 小马智行的车辆则在卢森堡的窄巷与环岛间学习欧洲交规,为左舵城市定制中国算法。 这些自动驾驶汽车在城市里穿梭、在道路上成长,积累着海量真实场景数据,也悄然改变着人们对“出行”的想象。 而一个既扎心又有趣的问题随之浮现:如果再也不用人开车,我们在车里该怎么坐才最爽? 这个问题看似轻松,实则掀翻了汽车百年来的底层逻辑。 从“汽车之父”卡尔·本茨(Karl Benz)造出第一辆汽车开始,汽车所有设计都围着驾驶员展开。 我们已经习惯了汽车的方向盘在驾驶位一侧,座椅朝前看,仪表对准驾驶员,一切为了操控、响应与掌控感。 然而,当驾驶任务全面交由AI完成,人在车内的身份也随之发生根本转变,从专注操控的驾驶者,转变为纯粹享受出行的乘客。 人们不必再保持高度专注、眼观六路,反而可以在车内发呆、休憩、观影、办公或交谈。 当车内时间被彻底解放,空间价值被重新定义,而其中最核心的变化,便是座椅的布局方式:座椅应当如何排布、能否实现旋转、乘坐朝向如何选择、是否可以实现平躺姿态? 这一系列围绕座椅展开的讨论,正在潜移默化地重塑未来汽车的形态,乃至城市交通的运行节奏。 01 传统主义派 很多率先实现自动驾驶规模化落地的企业,其测试车与运营车辆几乎都采用两排正向座椅布局,和普通家用车没有太大区别。 这种选择背后有多重现实考量。 采用传统布局,只需要基于现有量产车改造自动驾驶系统,无需重新开模、重新设计车身结构,可以快速落地、快速扩张。 而量产车大多都属于L2级自动驾驶,驾驶员最终仍然掌控着车辆。因此,用户体验和布局与以往并无太大区别。 例如,Waymo和特斯拉都使用经过改装的标准量产车作为其自动驾驶测试车辆,这些车辆配备了两排面向前方的座椅。 同时,正向座椅、清晰的空间逻辑、熟悉的前方视野,能有效降低人们的不安感。毕竟,自动驾驶对大多数人来说,仍然是一项需要建立信任的新技术。 MAYA设计原则——“最先进但可接受”,在这里体现得淋漓尽致。把生命安全交给一辆完全陌生、结构怪异的车子,远比交给一辆看起来和普通车一样的无人车更难。 正因如此,特斯拉Cybercab虽取消了方向盘和踏板,却仍保留正向长椅设计,就是为了契合大众长期形成的乘车习惯。 除此之外,当前全球交通法规体系依然以人类驾驶为前提,保留传统座舱结构,更容易通过政策审核,也能够在必要时快速切换至人工驾驶模式。 汽车行业本身受到严格监管,向非传统布局过渡需要开展大量测试以满足现有及新增安全要求,在技术与法规尚未完全成熟的阶段,稳妥成为行业的主流选择。 02 未来革新派 与传统主义路线形成鲜明对比的是,一批面向L4/L5级完全自动驾驶的车型,主张彻底打破传统座舱的束缚,打造休息室式、社交化的车内空间,通过相对而设的座椅鼓励乘客互动交流,重新定义移动空间的价值。 亚马逊投资的无人驾驶出租车Zoox,便是这一理念的典型代表。 Zoox外形接近方正形态,线条简洁规整,甚至被戏称为“烤面包机”,在设计纯粹主义视角中颇具争议。 但Zoox从一开始便未将自身定义为传统意义上的汽车,而是一种全新的城市交通工具,功能逻辑更接近小型城市穿梭巴士。 Zoox彻底取消了驾驶位座椅与方向盘,从根源上适配自动驾驶场景,不再为人工驾驶预留任何妥协空间,这一彻底的革新思路,也使其在空间布局上获得了更大的突破。 车内两排长椅相对布置,便于乘客在行程中交流互动,家人或朋友结伴出行时,围坐交谈的方式可以让旅途氛围更加轻松热闹。 同时,Zoox具备双向行驶能力,不存在严格意义上的车头与车尾,无需掉头即可实现反向行驶,极大提升了城市道路的灵活通行能力。 对于这款车型而言,座位朝向不再具有决定性意义,行驶方向将由算法根据最优路线动态决定。 与Zoox理念相近但设计语言更具艺术感的是Icona的Nucleus概念车,该车于2018年日内瓦车展亮相,内外造型均具备强烈的雕塑感。 与更注重实用性的Zoox不同,Nucleus旨在打造富有表现力的自动驾驶旅行体验,与其说是城市穿梭巴士,不如说更像是一家时尚的迷你夜店。它拥有独特的座椅角度和侧向长椅,营造出既热闹又充满科幻感的氛围。 同样在2018年推出的沃尔沃360c概念车,则将未来座舱的想象从城市通勤延伸到更长远的出行场景。 这款被定义为未来行政级座驾的产品,被沃尔沃视作一种全新的私人豪华移动空间,支持多种场景化的座舱模式切换,既可以作为安静舒适的休息室,也可以变身功能完备的移动办公室,甚至能够成为可供过夜旅行的睡眠舱。 03 迈向未来的挑战 尽管面对面、可旋转的座舱构想极具吸引力,但想要真正实现大规模落地,仍然面临两项难以回避的核心挑战,分别是晕车问题与安全体系重构。 对向式座椅的构想并非新鲜事物,马车时代便普遍采用对向布局,而这一设计至少从20世纪50年代开始,便成为自动驾驶汽车的经典设想之一。 20世纪60年代末,克莱斯勒帝国轿车曾短暂推出选装配置,包含可旋转前排乘客座椅与折叠小桌板,堪称早期移动会议室的雏形。 但现实问题十分直观,多数人在倒坐、侧坐、前后颠簸下都会出现头晕、恶心等不适反应,尤其在车辆频繁加减速或转向时,不适感会被进一步放大。 目前市场上已出现利用穴位按摩缓解恶心与晕车的腕带式装置,未来类似设备或许可以直接集成于座椅之中,以减轻晕车症状,提升对向式座椅的接受度。 与此同时,旋转式座椅在带来灵活使用体验的同时,也带来了极为复杂的安全挑战。其核心难点在于,旋转座椅会直接改变安全气囊的保护逻辑,传统汽车安全系统主要针对前向与侧向碰撞设计,而旋转座椅可使乘客处于任意朝向,安全保护难度呈指数级上升。 想要解决这一问题,必须建立专门的多向碰撞保护策略。 一方面全面提升座椅基础结构强度,采用高强度铝合金、碳纤维复合材料等新型材料。 另一方面则需要打造环形安全气囊系统,将气囊直接集成于座椅周围,确保乘客在任意朝向均可获得有效保护。 通用旗下的Cruise Origin曾采用前后双向座椅设计,试图在灵活性与舒适性之间取得平衡,然而这款被通用汽车寄予厚望、意在引领无人驾驶时代的移动休息室,最终于2024年7月被正式取消。 通用首席执行官玛丽·巴拉(Mary Barra)表示,取消Origin的核心原因,是为了规避其独特设计所带来的监管不确定性。 2015年问世的梅赛德斯F 015 Luxury in Motion概念车采用了可旋转座椅。 当时,Navigant Research的高级研究分析师萨姆·阿布尔萨米德(Sam Abuelsamid)就表示:“联邦安全法规不允许使用这种可旋转座椅,因为这会影响安全气囊的位置。而且,驾驶员必须时刻注意路况,并在自动驾驶系统出现故障时随时准备接管方向盘。” 他甚至认为,梅赛德斯的座椅愿景“在可预见的未来,也就是未来10年内,都相当不切实际”。 迈入2026年,现实状况恰恰印证了他这一判断。 每一次交通方式的革命,都伴随着空间逻辑的颠覆性改变。这场围绕车内座位展开的讨论,表面上是设计风格的路线之争,本质上是一场关于人类如何与智能技术共处的深层对话。 自动驾驶的实现并非一蹴而就,而是按照L3、L4、L5的技术等级逐级进化,每一级别的能力边界,都对应着截然不同的座椅逻辑与乘坐体验。 汽车设计师的工作内涵也随之发生改变,他们不再仅仅设计一款交通工具,而是在打造一个移动化的生活空间。 那么,在真正的无人驾驶时代到来之后,什么样的座椅布局,才是你心中最合理的选择?
苹果造车败局:既要绝对掌控,又想当甩手掌柜,哪有这么好的事
苹果公司为什么会放弃造车? 我感觉以苹果的体量和全球影响力造车应该不是什么难事吧,只要他想造可以挖来全球最顶级的工程师,找到最顶级的供应链和最顶级的代工厂,并且有自己的系统,自己的芯片,自己的生态,也不缺少果粉买单,自己只负责设计和软件,其它的全部交给供应商和代工厂,像做手机一样做汽车应该可以稳赚不赔。但是苹果为什么会放弃造车呢?是对自己要求太高了吗?还是因为利润太低?还是因为地缘因素?还是不看好电动车?还是竞争不过造车新势力?还是有其它的什么想法?我猜测的可能是如果走高端路线可能没有那么多受众,如果走低价内卷路线既不赚钱又不符合苹果调性,国外市场的话可能基础设施还不完善再加上电费相比油费并没有太大优势,技术方面的话可能也没有研发出颠覆性技术与其它车企拉开巨大差距,所以就暂时放弃了,如果以后技术成熟了可能会重新考虑造车,如果以后证明电车路线是错的苹果可能已经在Ai领域取得领先了。想请教一下你们是怎么想的? 我觉得是不懂得合作的分寸感,不懂得降低掌控欲! 因为苹果当时在做汽车项目的时候想当 “规则制定者”,但汽车行业的玩家太多、利益链条太长,没人愿意完全听它的。但相比较来说华为进入汽车产业是“用技术换空间”比如华为和赛力斯合作的问界,把 “技术换空间” 落到销量或者用户口碑上;华为早期就是做B端,深知怎么和企业打交道,他们可以车企得到了智能升级的方案,华为也分到了市场蛋糕,这种各取所需的模式在现阶段更行得通。虽然收缩了整车团队,但苹果在自动驾驶技术 CarPlay 上的持续投入,让车企依然离不开它的生态。 但苹果干了什么,从苹果最初和现代、起亚的合作意向就能看出来,它想复制 iPhone 的 “代工模式”—— 自己负责设计、软件和芯片,把整车制造交给更擅长的传统车企,并不打算碰冲压、焊接这些重资产环节。它的核心目标其实是定义 “智能汽车的计算平台”,就像当年重新定义手机一样,但后来因为车企不愿放弃主导权、自动驾驶技术落地不及预期等原因,这个项目才慢慢收缩了。 苹果的核心目标从来不是 “造一辆车”,而是定义智能汽车时代的 “iOS 系统”,就像它在手机时代做的那样。它希望通过自己的芯片、软件和生态,掌控汽车的智能座舱和自动驾驶核心,把传统车企变成 “代工厂”,从而在未来万亿级的智能汽车市场中,牢牢抓住利润最丰厚的那部分。 但你看华为,华为的 “不造车,只做汽车增量部件供应商” 模式很像苹果的思路,它聚焦于鸿蒙座舱、智能驾驶解决方案等核心技术,与塞力斯、奇瑞、北汽、长安、广汽等车企合作推出问界、享界、智界等鸿蒙智行体系,以及各种境,和阿维塔、东风猛士等品牌。这种轻资产、重技术的模式,既避免了重资产投入的风险,又能快速将技术赋能给传统车企,实现双赢。 相比较华为在一个新的领域,在汽车领域它有分寸感,而苹果却少了这种分寸感。华为的 “分寸感” 体现在它清楚自己的优势边界,不触碰车企的核心利益,而是通过技术赋能实现共赢。苹果则想把手机时代的绝对主导权复制到汽车行业,这种对控制权的过度追求,反而让它在产业链合作中处处碰壁。这种 “分寸感” 的差异,本质上是对不同行业规律的理解深度不同。 也许是苹果长期做 C 端消费品,习惯了 “我说了算” 的模式,供应链和合作伙伴都得围绕它的需求转。但企业级解决方案需要的是 “平等合作”,得懂怎么和不同领域的强者妥协、共赢,这恰好是华为多年做 B 端业务练出来的能力。苹果缺乏这种基因,自然很难在汽车行业的复杂合作中找到平衡点。 有人说,它应该更合适小米的方式,但对于苹果来说,小米太重资产了,投入太大了。周期和链路也太长了! 小米的 “生态链模式” 更加贴合苹果的 C 端基因 —— 用品牌和用户基础链接产业链,自己把控设计和核心体验,制造交给专业伙伴。但苹果连这种 “有限放权” 都做不到,它想要的是从芯片到系统再到用户数据的全链条掌控,而小米模式需要给合作伙伴留足利润和话语权,这和苹果的 “控制欲” 根本不兼容。 毕竟相比较来说,消费电子领域产业链相对可控,苹果能靠规模和技术优势掌握主导权,但汽车、新能源这种重资产、长链条的领域,需要和无数供应商、车企、政策方博弈,苹果的 “绝对控制” 逻辑在这里很难走通。它更适合做 “大脑”,但非要自己当 “全身”,自然会水土不服。 在汽车个链路上,每一环都比想象中难。 首先是自动驾驶技术,苹果原本想一步到位做 L5 级完全自动驾驶,但直到现在都没有车企能真正落地,技术瓶颈迟迟无法突破。 其次是供应链整合,汽车有上万个零部件,远比手机复杂,苹果在消费电子领域的话语权放到汽车行业根本行不通,供应商不会为了一个新玩家轻易调整生产线。再加上项目内部频繁更换负责人,战略方向从造整车到只做系统来回摇摆,浪费了大量资源和时间。 那在在下一任CEO登场,会不重启造车项目?查询资料我发现,苹果泰坦计划已经在 2024 年初正式终止了,团队都转去搞生成式 AI 了,而且下任 CEO 热门人选特努斯是硬件出身,更看重 AI 和混合现实这些新赛道,重启造车的可能性不大。 从这个角度看,苹果造车的暂停不是终点,而是在给自己的生态逻辑找更落地的场景;而华为的步步为营,也给跨界者提供了一个‘带着敬畏融入行业’的样本。两个巨头的不同选择,其实都是在智能时代的大棋盘上,寻找属于自己的那步‘先手棋’。
OpenAI CEO奥特曼:把数据中心建在太空的想法十分荒谬
IT之家 2 月 22 日消息,SpaceX 首席执行官埃隆 · 马斯克与 OpenAI 首席执行官萨姆 · 奥特曼素来在诸多问题上意见相左。 两人最新的争论焦点是:太空数据中心。马斯克将其列为优先发展事项,而奥尔特曼则认为这至少在目前只是空想。 “老实说,以当前的技术条件来看,把数据中心建在太空的想法十分荒谬,”奥尔特曼当地时间周五在新德里接受当地媒体直播采访时表示,这番话引得现场观众发笑。 奥尔特曼称,轨道数据中心或许“未来某一天会可行”,但发射成本、在太空维修计算机芯片的难度等问题,仍是难以逾越的障碍。 “我们目前还做不到,”他补充道,“未来总会有那么一天。太空在很多领域都大有可为,但轨道数据中心在这十年内还无法形成规模化应用。” 马斯克几乎肯定会对此表示反对。当众多科技巨头与人工智能企业斥资数十亿美元在地球上建设数据中心时,马斯克一如既往地将目光投向了太空。在去年 12 月 xAI 的全员大会上,他就曾提到,轨道数据中心是他最新的目标。 今年 2 月,SpaceX 宣布其目标是发射“由一百万颗卫星组成的轨道数据中心星群”。该公司已开始为此招聘工程师。 在本月 xAI 的员工大会上,马斯克表示,SpaceX 对 xAI 的收购,将加快轨道数据中心的部署进度。 IT之家注意到,尽管奥特曼持怀疑态度,但其他科技行业领袖也在争相布局太空数据中心。谷歌于 2025 年 11 月公布的“捕日者项目”(Project Suncatcher)正是为此而来。谷歌首席执行官桑达尔 · 皮查伊周日接受福克斯新闻采访时称,公司最早可能在 2027 年开始将太阳能供能的数据中心送入太空。 科技与人工智能企业依靠数据中心为大语言模型、聊天机器人等产品提供算力支持。然而,这类数据中心会消耗水资源、加重电网负荷、增加污染,并降低当地整体生活质量。 Business Insider 去年发布的一项调查显示,截至 2024 年底,美国已有超过 1200 个数据中心获批建设,数量几乎是 2010 年的四倍。 如今,在得克萨斯州、俄克拉荷马州等地拟建设的数据中心园区,正越来越多地遭到当地社区的强烈反对。
亚马逊报告:黑客利用AI工具五周内攻破全球超600个防火墙
IT之家 2 月 22 日消息,据彭博社报道,亚马逊公司最新发布的安全研究报告显示,在过去五周内,少数黑客借助市面上广泛可得的人工智能工具,成功侵入了遍布数十个国家的超过 600 个防火墙系统。 该报告指出,这一小撮黑客(甚至可能只有一人)利用了商业化的生成式 AI 服务,迅速瞄准并突破了目标系统的薄弱安全环节,例如简单的登录凭证或仅依赖单因素认证的防护措施。借助这些技术手段,入侵者得以在短时间内对大量防火墙实施攻击,而若采用传统方法,达成同等规模通常需要一个规模更大、技术更精良的攻击团队。 报告显示,这个俄语背景的黑客团伙利用其对安全设备的访问权限(这些设备分布在全球 55 个国家),进一步深入部分受害者的内部网络,其行为模式疑似在为勒索软件攻击做准备。亚马逊方面表示,这一系列广泛的入侵事件背后是明确的经济利益驱动,这也是黑客利用人工智能简化和加速网络攻击的最新例证。 “这就像为网络犯罪打造了一条由人工智能驱动的流水线,使得技术能力较低的犯罪分子也能实现大规模作业。”亚马逊安全工程与运营负责人 CJ· 摩西在报告中如是说。报告并未透露黑客具体使用了何种 AI 工具,也未指明受害者的身份。 研究人员认为,黑客主要寻找并入侵那些防护薄弱的防火墙,而非针对特定行业。受影响设备的地理分布广泛,涵盖南亚、拉丁美洲、加勒比地区、西非、北欧和东南亚等地。 摩西介绍,一旦黑客遇到防护较为严密的系统,便会果断放弃并转向其他更容易得手的目标。报告同时指出,一旦进入目标网络,这些攻击者“在试图利用任何超出最基本、自动化攻击路径之外的方法时,基本上都以失败告终”。 Anthropic 曾表示,去年一名黑客利用了 Anthropic PBC 的技术,参与了一项大规模网络犯罪计划,该计划已影响到至少 17 家机构。 IT之家注意到,亚马逊预测此类事件将愈加频繁。“各类组织都应做好准备,预见并应对来自技术水平高低不等的对手所发起的、数量持续增长的人工智能增强型威胁活动。”摩西警告称。
春晚机器人卖爆了,我们离“人手一台”还有多远?
1996年“春晚”,小品演员郭达往舞台上推了一只写着“ABCD”,印着“丰田”标志的货箱,箱子里藏着一个名叫“缺心眼子”的“进口机器人”。 那时的“机器人”是国人对未来的一种诙谐想象。在大家眼里,“机器人”就应该像西方科幻电影中那样机械化,恰如当年蔡明饰演的机器人的样子。它不仅动作要像机器,思维逻辑也必须是直线的、二极管式的——要么开,要么关;要么听话,要么死机。 蔡明的表演也强化了这一特性。她的台词剥离了所有语调起伏,用一种理性的、冰冷的,近乎“电子合成音”的单调频率,来模拟机器的僵硬感和笨拙,以制造笑料。 谁能想到,整整30年后,蔡明依然活跃在“春晚”的舞台上,但站在她身边的搭档,已经变成了一台真正的,由电机和AI驱动的仿生人形机器人。它身上贴着的也不再是进口标签,而是真正的“中国智造”。 除夕当晚,“机器人全面入侵春晚”的话题迅速冲上微博热搜榜首,并霸榜长达一个多小时;大年初一,微博热搜榜单有一半被机器人相关的话题占据;小红书上,年轻网友们正在逐帧分析机器人动作的流畅度,感叹其背后技术的发展速度。 回想2025年“春晚”,机器人还只会穿着东北棉袄僵硬地扭秧歌,动作略显滑稽。仅仅一年时间,从“扭秧歌”到“后空翻”,中国机器人技术的进化速度令人惊叹。 在今年的除夕夜,宇树科技、松延动力、银河通用、魔法原子四家企业豪掷5亿元,用一场“国民式曝光”宣告:机器人正如当年的智能手机一样,正试图跨过那道从实验室通往普通家庭的门槛。 打破极限的“铁军” 2026年“春晚”开场不久,一连几个机器人相关的节目吸引了所有人的目光。宇树科技的人形机器人方阵通过一系列高难度动作,完成了当晚最硬核的“路演”。 舞台上,宇树的G1、H2机器人与真人演员配合,不仅完成了倒退跨越障碍、连续后空翻,还手持长棍、双节棍、长剑进行武术表演,甚至打了一套像模像样的醉拳,然后躺在地上装死,让所有“股民”和“基民”倒吸一口气。 “一般的空翻我们觉得都没有意思,所以我们挑战了连续空翻,这对硬件和稳定性要求更高。”宇树科技创始人王兴兴在接受央视采访时透露,今年的机器人换队形时是在奔跑中完成的,瞬时最高速度达到每秒三米多。 这种在快速奔跑中完成穿插变阵和武术动作的高动态、高协同集群控制技术,是全球首次亮相。王兴兴直言:“我们在舞台上挑战了很多极限,甚至是一般武术演员都做不了的动作。” 对于电视机前的观众,这是一场视觉盛宴。而对于行业而言,这是“量产验证年”的冲锋号。 在“春晚”不久前的2026年1月22日,宇树科技通过官方渠道发布了一份公告:公司2025年全年纯人形机器人实际出货量超5500台,同期本体量产下线规模超6500台。 在那之前,权威机构Omdia曾预测宇树2025年出货量约为4200台。实际披露的数据不仅大幅超越预测值,更意味着中国人形机器人赛道的规模化量产时代正式到来。在全球市场份额上,宇树正进一步拉大优势,与头部企业智元的竞争格局也愈发清晰。 观众们的反馈是热烈的。据京东数据显示,马年“春晚”开播仅两小时,京东平台“机器人”搜索量环比增长超300%,客服问询量增长460%,订单量增长150%。 新增订单覆盖了全国100多座城市,从北上广深一线城市延伸至大小县域。而平台上架的包括“春晚同款”在内的多款机器人,均在当晚被抢购一空。这表明,机器人正在从极客的玩具,变成大众的消费品。 方寸之间的“造人”艺术 如果说宇树展示的是肢体的强悍,那么松延动力在小品中展示的,则是对面部表情极致精细的控制力。 在与蔡明合作的小品中,松延动力的仿生人形机器人并非简单的“套皮”机器。据公开资料,为了登上春晚,这家北京科技企业仅用两个多月就完成了从全栈自研到迭代三版的全流程。 仿生人脸和双足机器人的逻辑完全不同。人形机器人躯干空间大,易于布局。而仿生人脸要求在极小的头部空间内,塞入所有机械、电子构件,同时解决散热和复杂的面部肌肉牵引问题。 松延动力最终在方寸之间放入了32个电机,其中仅嘴部就有12个。为了克服“口型对不上”的通病,他们自研了高帧率驱控板,将表情控制频率从10Hz提升至60Hz。这意味着机器人的嘴唇动作不再是简单的开合,而是能跟上人类语速的微妙变化。 为了打破人们对机器人“僵硬”的刻板印象,技术团队还重新设计了具有3个自由度的颈部结构,让机器人的脖子、眼神能配合表情做出自然的倾斜和转动。机器人甚至能模拟出呼吸时的胸部起伏感,呈现出一种惊人的“生息感”。 其实在2025年,松延动力的仿生人脸产品就已进入商业导览等场景,并完成了标准化的量产工艺流程。春晚的亮相,实则是其商业化成熟度的一次集中展示。 而蔡明的仿生机器人,以及沈腾马丽节目里叠衣服、串烤肠的银河通用的“铁哥们”,也让大众好奇,“我们离人手一台机器人时代到底有多远?” 春晚机器人的节目,在某种程度上消解了科技的疏离感,构建了一种温馨的家庭生活图景。机器人不再是冷冰冰的展品,而是可以洗衣服、递纸巾、聊家常的家庭成员。 这种“生活化”的叙事,让无数观众在除夕夜产生了同一个冲动:打开电商软件,搜一下价格。 以宇树科技为例,其面向教育科研及入门级市场的G1人形机器人,目前的官方参考价约为9.9万元人民币。而性能更强、能够完成重负载任务的H系列,价格则高达数十万元,几乎等同于一辆中高端新能源汽车的售价。 但是,随着国产供应链的强势崛起,电机、减速器、传感器等核心零部件的成本正在以每年30%以上的速度下降。 那个能帮你刷碗、洗衣、照顾老人的机器人,恐怕过不了几年,就能出现在你的客厅里。 除了收视率,还有什么? 无论是宇树科技在奔跑中维持队形的算法、松延动力在方寸头颅内植入32个电机的工艺,还是能够自主决策,自主干活的AstraBrain,都指向了一个共同的趋势:中国机器人行业已经走过了“做Demo、讲故事”的阶段,进入了“拼工艺、拼量产、拼场景”的深水区。 2月17日,宇树“春晚”同款机器人G1 EDUU2已在京东上架,售价208850元。当日直播时,主播还带着该款机器人进入直播间,为大家表演想看的动作。 而在天猫宇树旗舰店,尽管“春晚同款”尚未正式上架,但客服咨询量已经爆棚。客服表示,新品不久后将正式发售。宇树创始人王兴兴给出了一个更为大胆的预测:2026年,宇树机器人的出货量预计将达到1万至2万台。 银河通用机器人 Galbot G1在春晚走红后,近 300 台机器人被连夜抢购。其负责人在采访中表示,目前已紧急调配产能,加班赶工保障交付。 而几家机器人企业共计5亿元的春晚投入,换来的不仅仅是当晚的热搜。它像是一场大型的市场教育,告诉全国数以亿计的家庭和商家,机器人不再是科幻电影里的道具,它们能跑、能跳、能通过微表情与人交流,并且已经有了明确的报价单和发货期。 随着宇树等头部企业出货量的攀升,围绕机器人相关的产业链也涌现出更多的可能性。比如,从核心零部件的精密加工,到机器人维修保养服务,尤其是针对特定场景的应用如餐饮、养老、陪伴、医疗等的二次开发,都可能孕育出新的商机。 王兴兴在采访中提到的“高动态集群控制”,为未来机器人在物流、巡检等场景的大规模调度做好了技术铺垫;而松延动力的仿生技术、银河通用能串烤肠的机器人,则为服务机器人进入家庭和公共场所提供了情感交互的可能。 2026年的除夕,我们看到的不仅仅是机器人的表演,更是一群中国创业者在技术封锁和市场质疑中突围的身影。他们不仅让机器人学会了反重力模式,更翻过了商业化最艰难的山丘。 而各大机器人企业花五亿元上春晚,为的也不仅是一个晚上的收视率,而是中国智造在未来全球竞争中的身位。
马修·麦康纳警告:AI或将取代演员,冲击奥斯卡
IT之家 2 月 22 日消息,据 The Independent 报道,马修 · 麦康纳对娱乐行业的未来发出了严厉警告,他担心人工智能最终会彻底取代人类从业者。 在 CNN 与《综艺》杂志联合举办的一场市政厅活动中,这位 56 岁的演员与提莫西 · 查拉梅探讨了 AI 在影视行业中的定位。麦康纳表达了自己的担忧:这项技术终有一天可能“取代”演员,并可能对颁奖季产生冲击,尤其是在 2026 年奥斯卡颁奖典礼临近之际。 “它肯定会渗透到我们这个领域。它会成为一个新奖项类别吗?五年后,我们会不会出现‘最佳 AI 影片’‘最佳 AI 演员’这样的奖项?”在这场有大学生参与的活动中,他说道,“也许吧。我觉得很有可能,它会成为一个新类别。它会以我们意想不到的方式出现在我们面前,技术会变得无比逼真,我们甚至无法分辨真假。” “当下一个重大问题就是:何为真实,”他继续说道,“现实比以往任何时候都更加模糊,我认为这既令人兴奋,也令人恐惧。” 随后,他寄语在场学生:“做好准备。守住自己的赛道,这样当 AI 开始入侵时,你至少还拥有主动权。” 麦康纳还与查拉梅一同设想了几种 AI 可能应用的场景。查拉梅今年凭借电影《 Marty Supreme》获得两项奥斯卡提名,一项表演提名、一项制片提名。 “他们会来找你,说:‘提莫西,我希望你五个月后出现在我的 50 岁生日派对上,我在巴哈马。我知道你本人没法到场,但我想用 AI 把你“投射”过来,而且要你以《 Marty Supreme》里的角色形象出现。’”麦康纳说,“他们能做到这一点,但前提是必须来征求你的同意:‘我可以这样做吗?’否则就是侵权。到那时你就掌握主动权,可以说:‘可以,费用是多少多少’,或者直接说‘不行’。” 查拉梅也随之分享了自己对身处 AI 时代的看法,称这是“我们必须应对的一场战役”。他还对台下 Z 世代学生谈到了他们该如何看待人工智能。 “我认为,最终会是你们这群人找到整合 AI 的正确方式,”他说,“如今像我、像马修这样身处有影响力位置的人,肩负着巨大责任,我们要守护好行业,让机会之门始终敞开。我职业生涯早期拿到的一些角色,放到今天,我甚至不确定还能不能争取到。” 就在一个月前,麦康纳提交申请,要为自己的标志性口头禅“alright, alright, alright”注册商标,以此对抗 AI 深度伪造技术。 麦康纳当时向《华尔街日报》表示:“我和我的团队希望确保,但凡使用我的声音或形象,都必须经过我的批准和授权。我们希望在 AI 时代,明确划定所有权边界,让知情同意、署名归属成为常态。” 据IT之家了解,麦康纳此前也曾同意 AI 复制自己的声音,用于他的电子通讯《生活箴言》。去年 11 月,他与 AI 音频公司 ElevenLabs 合作,生成了自己的合成语音,用来朗读其每周通讯的西班牙语音频版。
5 亿 ARR的Cursor,已经没人讨论它了?
作者|董道力 最近Cursor 发布了 Composer 1.5。 这一版把强化学习规模扩大了 20 倍,后训练计算量甚至超过了基座模型的预训练投入。还加了 thinking tokens 和自我摘要机制,让模型能在复杂编程任务里做更深度的推理。 但你去 Twitter、Reddit、Hacker News 上逛一圈,相较于之前几乎听不到什么声音。没有"用了 Cursor 再也回不去"的安利帖,没有开发者晒截图说"这波更新杀疯了"。一家 5 亿美元 ARR、估值 293 亿美元的公司,发个重要更新却这么安静,挺反常的。 要知道,前两年 Cursor 随便发个功能,社区都能讨论好几天。2024 年夏天,Tab 补全的演示视频在开发者圈子里病毒式传播,"AI 原生 IDE"这个概念就是从那会儿开始的。 现在技术更强了,声音却更小了,背后的原因是 AI 叙事迁移:大家的注意力已经从"人机协作的精致工具"移走了,只不过 Cursor 还站在原地。 1 叙事的速度比进步更快 AI 这行现在有个残酷的规律:遗忘的速度可能超过你进步的速度。 Cursor 这次更新无人问津,就是个活例子。回想一下,2023 年"谁能做出下一个 ChatGPT"的故事能讲一整年。2024 年"AI 编程"这个窗口期,够养活 Cursor、Replit、Codeium 好几家独角兽。现在呢?一个核心叙事从冒头、爆火到过气,三四个月就算长的。 我们眼睁睁看着故事换了一茬又一茬:"百模大战"、"开源闭源之争"、"Copilot 时刻"、"智能体"、"氛围编程"、"AI 自主写代码"……每一次都不只是换个话题,而是整个行业注意力、资本和"定义未来"的权力彻底洗牌。早期这种洗牌能把 Cursor 送上神坛,现在它也能默默把上一轮的神请下舞台。 这就带来一个扎心的问题:当行业的"故事重心"按季度迁移,一家公司的技术实力和商业数字,够不够拉住叙事离去的引力? Cursor 是眼下最鲜活的测试样本。 1 Cursor 的成功,绑在"人机协作"的叙事上 Cursor 的崛起恰到好处。2024 年夏天,模型能力刚好卡在"能辅助但不能独立"的临界点,Copilot 式的 Tab 补全已经不够酷,但让 AI 完全自主写代码又还不靠谱。Cursor 踩中了这个缝隙:AI 原生 IDE,人还是主角,AI 是超级增强的副驾。 你打开 Cursor,看到的是文件树、光标、代码高亮,AI 的存在方式是侧边栏 Chat 和 Tab 补全。所有设计都在暗示:你在写代码,AI 让你写得更快。 这个产品在 2024 年到 2025 年上半年是成立的,因为当时的模型确实做不到独立完成复杂多步骤任务。 然后事情变了。 Claude 4 的能力跃升是个转折点。当模型强到可以自主完成"读代码库、改文件、跑测试、修 bug"的完整循环,"人坐在 IDE 里一行行看代码"这件事,从最佳实践变成了效率瓶颈。 Claude Code 没有编辑器界面,没有文件树,没有光标。你在终端用自然语言说需求,它自己 clone 仓库、开分支、写代码、跑测试、提 PR。微软、Google、OpenAI 的员工都在用,连不会写代码的人都在用它做"Vibe Working"。Anthropic 在融资公告中披露,Claude Code 上线几个月后 run-rate 已超过 5 亿美元。 这是对"谁在工作"的根本不同理解。 Cursor 讲的是"AI 帮你写代码",Claude Code 讲的是"AI 写代码"。当行业的想象力从"人机协作"滑向"AI 自主",Cursor 那些精巧的交互设计反而成了上个时代的标签,因为它暗示的前提不再是最有吸引力的故事了。 1 版本号背后的路径依赖 回头看 Cursor 从 1.0 到 2.0 的产品演化,你能看到一家公司在叙事压力下的全力冲刺。 2025 年 6 月的 1.0。这个版本号本身就很奇怪,一个已经有几百万用户、近百亿估值的产品,到 2025 年中才给自己贴上"1.0"的标签。1.0 的主角是 BugBot 自动代码审查和 Background Agent 云端执行。 每一个功能都有用,但它们讲的是同一个故事:拼命扩大 IDE 的边界,从"写代码的地方"延伸到代码审查、远程执行、项目记忆。中心还是编辑器。 10 月底的 2.0 力度更大。自研 Composer 模型上线,速度是同等水平模型的 4 倍。多 Agent 并行功能开放,最多 8 个 Agent 在独立的 Git Worktree 里同时干活,你坐着等它们赛马,挑最好的结果合并。有开发者试完后写道:"坐在那看 8 个 AI 赛马,闻到了 token 疯狂燃烧的味道。"内置浏览器正式发布,Agent 可以直接打开网页、点按钮、截屏调试前端。 2.0 最微妙的变化是一个默认设置:打开 Cursor 看到的不再是编辑器视图,而是"Agents"布局。编辑器还在,但你得手动切回去。等于 Cursor 自己承认了:AI Agent 才是中心,编辑器退居二线。 接着是快速迭代。11 月连发十几个补丁,12 月 2.2 强化多 Agent 协同,2026 年初博客标题写"towards self-driving codebases",Truell 说在研究如何让 Agent 连续自主运行数周。2 月 9 号,Composer 1.5。 Chat → Tab 补全 → Composer → 单 Agent → Background Agent → 8 个 Agent 并行 → 自研模型 → 。 每一步都在往"AI 自主"走。但问题在于,当 Agent 已经可以自己 clone 仓库、开分支、跑测试、提 PR 时,IDE 这个载体本身开始显得尴尬。 你仍然可以把它做得更快、更稳、更精致,但它不再是必需品。 从定义玩法的人变成追赶玩法的人,这个位置切换本身说明了一切。 类似的事情反复发生过。Jasper 曾是"AI 写作"的代名词,估值冲到 15 亿,后来 ChatGPT 和 Claude 直接内置了写作功能,Jasper 就不再被讨论了。Clubhouse 曾是"音频社交"的绝对主角,疫情一结束窗口关了,几乎一夜之间消失。 叙事窗口关闭,这个过程可以很快。 1 叙事即位置 Cursor 的商业数字是真实的。24 个月从零到 5 亿 ARR,SaaS 史上最快。估值从 2024 年 8 月的 4 亿涨到 2025 年 11 月的 293 亿,收购了 Supermaven、Koala、Graphite,企业收入一年涨了 100 倍。 但这些数字是旧叙事的遗产。当叙事窗口关上,从"定义玩法"变成"追赶玩法",这个位置切换往往比想象中快。AI 叙事的保质期越来越短,2023 年能撑半年,2025 年只剩三四个月。Vibe Coding 从爆火到被 Agentic Coding 盖过去,中间就几个月。 早了没人信,晚了没人理。 产品形态就是叙事本身,IDE 讲的是"人+AI 协作",终端讲的是"AI 自己干",选了什么形态,就上了哪条船。 更要命的是,模型能力决定叙事方向,应用层创业者的命运不完全在自己手里。上游变成竞争对手的时候,没有自己通用大模型的 Cursor 被夹在中间。 上一轮赢家不自动成为下一轮赢家。按常理说有了用户、品牌、技术积累,应该能顺利迁移。但 AI 行业的叙事切换经常不是渐进式的,从 IDE 到终端,从 Copilot 到 Agent,不是加个功能就行,是对人机关系的理解变了。 最持久的护城河,是你自己就是叙事的源头。 OpenAI、Anthropic、DeepSeek 能穿越周期,是因为它们在制造叙事。Cursor 至少在窗口期完成了关键积累,估值和收入是实在的。但当它不再是故事的起点,而只是故事里的一个角色时,危险就开始了。 2026 年 2月新发布的 Opus 4.6 和 GPT-5.3-Codex 则彻底撕掉了"辅助工具"的标签,前者能调度多 Agent 团队并行工作,像 24 小时在线的虚拟团队,后者 OpenAI 首次确认它"参与了自己的创建",能从需求文档到上线全程自主完成,中途还能实时调整方向。 叙事正在从"AI 帮开发者写代码"滑向"AI 帮所有人做所有事"。代码隐入后台,普通人不需要知道它的存在。 下一步可能是 Agent 全代理?也许会是任何天马行空的方向。它会来,而且比大多数人想的快。 这个行业里没有哪个位置是稳的。收入能给你时间,但不能给你叙事。曾经明星如Cursor ,要避免被扫入角落,可能也要指望自己能等来可以加入的下一个叙事了。
忍无可忍,Ilya宫斗奥特曼!微软CTO爆内幕:全因嫉妒下属太优秀?
编辑:元宇 KingHZ 【新智元导读】硅谷最离谱宫斗:Ilya因嫉妒Jakub的「震撼突破」而点燃OpenAI火药桶,奥特曼被董事会踢出,引发高管离职潮。算力不足和预算挤压是根源,2026年文件曝光后,Ilya「塌房」。 2023年,OpenAI上演了硅谷版「权力的游戏」:奥特曼在一无所知的情况,被当时的首席技术官Mira Murati 和首席科学家Ilya联手踢出OpenAI。 但这样抓马的戏码,你还以为是AI安全理念的高尚对决? 不,这一次,邮件把真相写得刺眼:算力不够、人手紧张、产品爆火挤压研究预算…… 再加上一位昔日门徒Jakub Pachocki用「惊人进步」把导师Ilya多年卡住的难题一举攻破。天才也会受伤,组织也会失控。 于是,一场科技圈最离谱的「宫斗」,在妒火中被点燃。 师徒争斗,奥特曼被驱逐 微软首席技术官Kevin Scott一封邮件彻底解开了Ilya出走OpenAI的真相── Ilya由于对昔日门徒Jakub Pachocki一种深层的、无法言说的「智力嫉妒」,而不惜引爆OpenAI危机。 Ilya Sutskever(左)与Jakub Pachocki(右) 2026年马斯克诉奥特曼案最新披露的法律文件,罕见地揭开了OpenAI危机背后的人事暗涌。 2023年11月,微软首席技术官Kevin Scott向CEO纳德拉汇报时如此剖析局势: 真正推动研究突破的其实是Jakub Pachocki而非Ilya,其贡献之显著,促使奥特曼破格提拔他统领核心模型研发方向。 自担此重任后,Jakub的研究进程明显加速——尤其在最近几周取得了堪称震撼的突破性进展。 Ilya对此想必极为煎熬:昔日下属不仅跃升为领导者,更关键的是,此人竟攻克了困扰他多年却始终无解的核心难题。 对于Ilya这样骄傲的天才来说,其心理防线所遭受的冲击自然不难想象。这一刻,即使硅谷最聪明的大脑,也难逃人性的弱点。 于是,2023年11月17日,OpenAI董事会传出了一场震惊科技界的重磅炸弹: 宣布解除联合创始人兼CEO奥特曼职务,并将其踢出董事会。 公司在官方声明中措辞严厉地表示: 奥特曼在与董事会的沟通中未能保持一贯的坦诚,阻碍了董事会履行职责的能力。董事会已不再对他继续领导OpenAI抱有信心。 据《华尔街日报》等媒体披露,时任OpenAI首席科学家Ilya Sutskever在此次罢免中发挥了关键作用。 他利用自己对董事会的影响力,使他们接受了自己的说法,于是奥特曼被解雇了。 就在奥特曼被免职的决定公布数小时后,OpenAI联合创始人Greg Brockman愤而辞去董事长职务,随后,研究总监Jakub Pachocki、核心研究员Aleksander Mądry和Szymon Sidor 等「波兰军团」技术骨干也相继离职以示抗议。 最终,这场「政变」并未持续太久,便以奥特曼官宣复职,重掌CEO权杖告终。 在随后的一次全员会议上,Sutskever试图为罢免决定辩护,坚称这并非「敌意收购」,而是为了保护公司的使命。 但这场「罢免风波」之后,Ilya与奥特曼之间的裂痕已无法弥补。 Kevin Scott在给纳德拉的邮件中,将Ilya对奥特曼的不满归结为两个问题,这些问题在OpenAI内部均已酝酿已久。 第一个问题,是研究部门和应用部门之间关于计算资源(GPU)的争夺;第二个问题,是Jakub职务的晋升。 左右滑动查看 算力「资源内战」 随着ChatGPT的爆火,OpenAI应用部门与研究部门之间争夺GPU的「资源内战」也不可避免。 应用部门(ChatGPT团队)的成功,直接导致了公司内部资源的倾斜。 原本属于研究部门用来探索未来的珍贵GPU,被大量抽调去服务那些渴望聊天的C端用户,而研究部门负责训练新模型的算力需求,则永远无法得到满足。 Ilya需要海量的算力去验证他对「超级智能」的构想受到了限制。 最终,奥特曼提拔了Jakub领导OpenAI的核心模型开发工作。 Kevin Scott在邮件里评价道:「从CEO的角度看,奥特曼提拔Jakub的决定是完全正确的。」 OpenAI已在2019年开启了商业化尝试,并逐步推出了商业化产品,而算力资源的分配,一定也是要服务这一战略方向的,如果才华不能转化为产品,就会被无情抛弃。 相比较搞纯粹研究的师傅Ilya,实干派的徒弟Jakub似乎更适应这个新的游戏规则。 在2023年主导了那场罢免奥特曼OpenAI CEO职务的行动之后,2024年3月,Ilya宣布了离开OpenAI的消息,他还在X平台上晒出了与Jakub等人的合照。 失去Ilya之后 OpenAI更好了吗? Jakub在Ilya的推文下留言,称其为自己的导师和出色的合作伙伴,并称会想念和Ilya一起工作的日子。 Ilya黯然离去,这不仅是职位之争,更是Ilya的「预言家形象」塌房。 有的网友直言Ilya「傲慢」,翻出来以往媒体关于Ilya「故弄玄虚」的报道。 据《大西洋月刊》报道,员工们高呼「感受AGI!感受AGI!」,这一口号正是Ilya本人带头喊出的。 他甚至委托制作了一尊木制雕像,用来代表「未对齐」的、与人类利益相悖的AI,随后将其付之一炬。 简而言之,一些董事会成员似乎不是在专注于以科学严谨的方式切实推动AI技术进步,而是在搞些奇怪的玄学主张。 不过,逼走了Ilya,OpenAI好起来了吗? 网友批评了奥特曼「与人类利益不一致,只追求利润最大化」,在AI输出中插入广告的做法,甚至表示奥特曼在2023年被短暂解雇本应该是「最佳结局」。 有网友暗指OpenAI在模型开发上「停滞不前」。自从2024年6月后,OpenAI在大型模型预训练上遇阻之后,一年多以来无重大突破。 还有网友指出OpenAI已经一年多没有推出新的前沿模型了,ChatGPT的用户正在转向Gemini,从长远看OpenAI已经失去竞争力。 随着2024年Jakub正式接任OpenAI首席科学家,Ilya黯然离场,「波兰军团」彻底走向了台前。 当内斗的硝烟散去,市场绝不会为权谋故事买单,只会为颠覆性的产品投票。 面对谷歌、Anthropic等竞争对手的强势表现,「波兰军团」能否在OpenAI拉响「红色警报」后,重夺昔日的领先地位,他们必须尽快拿出像GPT-5级别的震撼来打破质疑。
OpenAI 和 Claude 创始人被迫合影,AI 圈最社死名场面诞生
在印度人工智能影响力峰会上,出现 AI 圈最尴尬的一次合影。 印度总理莫迪举起 Sam Altman 和 Sundar Pichai 的手,其他大佬也纷纷效仿牵手,唯独 Altman 和 Anthropic CEO Dario Amodei 并肩站立。 Altman 先是下意识地往旁边瞟了一眼,眼神里闪过一丝困惑,像是在确认「这家伙怎么站我旁边」。 然后他迅速收回目光,嘴角挤出一个礼貌但僵硬的微笑,紧接着,他举起了拳头。 不是握手,不是搭肩,而是一个标准的、充满防备的拳头。Dario 几乎同时做出了同样的动作。 画面定格的那 3 秒钟,空气都凝固了。社交媒体上也瞬间炸锅,行业大佬也加入吃瓜大军。 Puch AI 联合创始人 Siddharth Bhatia 阴阳怪气:「等 AGI 实现的那一天?不如等 Dario 和 Sam 牵手那天吧。」 a16z 投资合伙人 Justine Moore 的形容更加到位:当你被迫和死对头组队做小组作业时的表情。 这两个隔空对峙的拳头其实并不令人意外,因为这两人之间真的有太多恩怨情仇了。 从「前同事」到「死对头」,Altman 早就握紧拳头 Dario Amodei 曾是 OpenAI 的研究 VP,2021 年因与公司发展方向分歧愤而离开,创办了 Anthropic。 当时没人想到,这个「叛将」会在 4 年后成为 OpenAI 最大的对手。 多提一嘴,Dario 离开时可不是和平分手。理念分歧、路线之争、甚至是「AI 安全」的口水战……这些恩怨在 4 年后浓缩成了合影现场的「两个拳头」。 就在合影的当天,The Information 爆出一个重磅消息:OpenAI 正在敲定超过 1000 亿美元的融资交易,估值超过 8500 亿美元。 亚马逊最多砸 500 亿美元,软银跟 300 亿,英伟达掏接近 200 亿——这是人类商业史上最大规模的私募融资之一。 Altman 本应该春风得意,但他最近应该没心情开香槟。 Epoch AI 同一天发布的报告显示,Anthropic 的年化营收有望在 2026 年中期超越 OpenAI。 来看一组让人头皮发麻的数字。 Anthropic 连续 3 年实现 10 倍年增长——从 1 亿美元到 10 亿美元,再到 2025 年的 140 亿美元预估营收。B2B 软件史上从未有过的速度。 OpenAI 呢?2025 年预估营收 200 亿美元,但增速只有 3.4 倍/年。 增速正在被甩开。 更扎心的是企业市场,财富 10 强企业里 8 家成了 Anthropic 的客户,企业收入占比高达 80%,而 OpenAI 只有30-40%。 企业市场份额 Anthropic 已经冲到 32-40%,OpenAI 只剩 25%。在企业级市场,Anthropic 完成了对 OpenAI 的「诺曼底登陆」。 这么看来,Altman 这拳头,估计早就想对着 Dario 举起了。 从超级碗贴脸输出到拳头相向 实际上,在 Altman和 Dario 拳头相向之前,两家公司的战斗已经不再藏着掖着,最近这个月更是集中爆发。 前段时间 Anthropic 在超级碗投放广告,直接指着 ChatGPT 「骂」:广告即将入侵 AI,但 Claude 不会。 Altman 当场破防,发推反击: Anthropic 用欺骗性广告来批评『理论上』的欺骗性广告,这很符合他们的品牌调性。 Anthropic 首席客户官 Paul Smith 回应更狠: 我们专注于业务增长,而不是制造 flashy headlines。 翻译一下:你们 OpenAI 只会炒作,我们 Anthropic 闷声发大财。 嘴炮打完,真刀真枪的暗战来了。 最近 🦞 ClawdBot 大火,开发者 Peter Steinberger 开发这个产品本来是为 Claude 而生。它让数百万人心甘情愿掏每月 200 美元订阅 Claude 高级版。 Anthropic 拿到这波流量后干了啥?开始封号——凡是在 ClawdBot 里用高级订阅的,一个不留。 赢麻了的牌面,硬生生打成了史诗级自爆。 Peter Steinberger 怎么反击的?改名 OpenClaw,转身加入 Anthropic 的死对头 OpenAI,疯狂给 OpenAI 造势,顺便把 Anthropic 塑造成独裁反派。 一记 4D chess 神操作,直接重洗 AI 江湖座次表。 Anthropic 这波操作,堪称「给对手送人头」的教科书案例。 这个月初,两家公司还在同一天发布重磅产品,火药味直接拉满。 Anthropic 推出 Claude Code,9 个月内从零做到 25 亿美元 ARR,占全球 GitHub 提交的 4%。企业代码市场份额 Claude 54%,OpenAI 只有 21%。 OpenAI 则推出 Codex,Codex 5.3 Spark 登顶最强编程模型。 一个月前,所有人还在吹 Opus 4.5 和 Claude Code 是「人类之光」。现在呢,口碑在疯狂逆转。 从超级碗广告互撕,到 OpenClaw 暗战,再到产品同日对决,这么看下来,这场「拳头门」也不是偶然,只是长期战争的又一个爆发点。 OpenAI 的千亿融资背后的真相 根据 APPSO 此前的分析,OpenAI 那 1000 亿美元融资背后并没有看起来那么乐观,OpenAI 的财务状况远比表面看起来凶险—— 2025 年下半年,OpenAI 的季度亏损可能高达 120 亿美元。 权威机构和业内人士预测,OpenAI 最早可能在 2027 年就会耗尽资金。 更可怕的是,OpenAI 的市销率高达 57.7 倍——对于一个还在巨额亏损的公司来说,这个数字让人不得不担忧。对比其他科技巨头,英伟达市销率 24.5 倍,微软只有 12 倍。 未来 5 年,OpenAI 的基础设施总成本将高达 7920 亿美元——算力租赁、基建、电费,每一项都是吞金兽。奥特曼还提出未来 8 年总计 1.4 万亿美元 的总算力承诺。 OpenAI 的估值,赌的其实是它能够从 AI 产品、服务商和基模供应商,进化为一个全球级别的 AI「基础设施」。 但如果 2027 年之前它无法通过各种方法实现前面提到的付费用户增长,并且获得规模更离谱的新融资的话,7500 亿美元估值将面临巨大的回调压力。 现在,整个 AI 行业都被卷入了这场前所未有的烧钱竞赛。 一个恶性循环正在形成:AI 公司需要更多资金来保持技术领先,但技术领先又需要更多资金来维持,而盈利的目标却似乎越来越遥远。 OpenAI 融到的每一分钱,都是用来续命的。而 Anthropic 的 10 倍增速,正在让这场「淘汰赛」变得更加残酷。 在狂飙的 AI 行业,没有永远的朋友,只有永远的流量和市场份额。 什么「AI 安全」?什么「造福人类」? 在一个主题为「 AI 全球集体安全与信任」的大会上,两个AI 巨头 CEO 连手都不愿意握,你跟我谈「友好竞争」别闹了。 下一次他们同框,我都担心会不会直接打起来?(虽然有点想看) 但我知道的是:当两个拳头举起来的那一刻,这场战争就已经没有回头路了。 春节还没结束,AI 圈最精彩的戏码,才刚刚开始。
固态电池都要量产了,这家车企还在造氢能源 V8
还没开始 已经结束 历史的转折往往不是一刀切的。 到了 2026 年,当整个汽车行业的资源与目光几乎都向着固态电池的量产冲刺时,仍有人试图用内燃机的轰鸣,讲述一个关于氢能源的「新」故事。 初创车企 NAMX,正是这个旧梦的最新布道者。 这家公司试图向市场交付一款由传奇设计工作室宾尼法利纳(Pininfarina)操刀的 HUV 车型。 点击下方视频观看氢能源大 V8⬇️ 作为曾为法拉利与兰博基尼塑造灵魂的意大利老牌设计机构,宾尼法利纳为这款车赋予了一种杂糅的美学。 车辆前脸的盾形格栅神似捷尼赛思 G80,溜背造型搭配大尺寸轮圈,辅以极具力量感的车身线条,营造出轻盈与厚重交织的视觉冲击力。 车身侧面融入了溜背设计,大尺寸轮圈的造型也更加炫酷,尾部方面,整车的设计元素比较复杂,特别是尾部的灯组格外亮眼。 新车尾部设计也十分有意思,贯穿式尾灯组搭配夸张式扰流板,在保险杠上方还留有存放氢气罐的位置。 在动力系统上,NAMX 没有选择主流的电池驱动,而是塞进了一台 6.2 升的铝制 V8 氢气内燃机(HICE)。在他们释出的影像里,这台发动机依然能爆发出低沉浑厚的咆哮声。 创始人 Faouzi Annajah 为这种「逆流而上」给出了三个听起来颇为浪漫的理由:规避沉重且高度依赖稀土开采的动力电池;延续欧洲长达百年的内燃机制造底蕴;以及最纯粹的一点——保留机械运转带来的驾驶激情。 为了解决加氢难题,NAMX 设计了一套看似讨巧的方案——在车尾配置可插拔的「氢气胶囊」,宣称几秒钟即可完成更换。 浪漫的代价往往是高昂且充满不确定性的。 根据产品规划,NAMX 将推出两款车型:输出 296 马力的后驱入门版(零百加速 6.5 秒,起售价约 49 万人民币),以及输出 542 马力的 GTH 四驱版(零百加速仅需 4.5 秒,起售价约 71.8 万人民币)。 然而,这款原定于 2025 年底上市的车型,如今已跳票至 2026 年。一再推迟的交付时间表和常年未更新的宣传物料,让这场所谓的「可持续出行革命」,越来越像是一场用前卫概念包装的融资游戏。 NAMX 的窘境,实则是整个氢能乘用车发展史的缩影。 在寻找化石能源替代品的长跑中,氢能曾是一条被寄予厚望的显学赛道,日本与韩国更是这条路线上最孤注一掷的信徒。韩国政府曾豪掷逾 7200 亿韩元(约合 38 亿人民币)巨资,试图在 2025 年前补贴上万辆氢燃料汽车,并大幅提升氢能燃料补贴。 储氢站 但在残酷的商业法则面前,重金的政策刺激并未能扭转局势。在乘用车市场,氢能源汽车始终无法解决两个致命的结构性痛点。 一是相比于纯电动车(BEV)直接从电网到电池的高效充放电,氢能源汽车必须经历「电解水制氢 -> 运输 -> 转化为电能」的繁琐流程。这种能量转换的综合效率仅剩 30% 到 40%,在能源利用的底层逻辑上就输了一大截。 二是燃料电池极度依赖昂贵的铂金催化剂,储氢罐则需要大量碳纤维复合材料,这导致一辆氢能汽车的制造成本往往是同级别纯电车的两倍。而在补能端,严苛的安全标准导致加氢站的建设周期远超充电站,高昂的铺设成本让规模化网络成为天方夜谭。 氢燃料系统运作原理 在全球最大的新能源市场中国,上汽荣威 950、奇瑞艾瑞泽 5 以及长城汽车等本土巨头也都曾试图在这条赛道上试水,但最终只能面对月销量长期挂零的惨淡现实。 在 2026 年的今天,当更安全、能量密度更高的固态电池正在逐步跨越量产鸿沟,全面重塑新能源版图时,氢能乘用车的时代或许在真正开始前就已经结束了。 对于像 NAMX 这样的入局者而言,与其抱着内燃机的轰鸣声和不切实际的氢气胶囊苦苦支撑,不如早日放下对旧时代的留恋,面对固态电池浩荡洪流的现实。 文|芥末

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。