行业分类:
加载中...
头条分类:
加载中...
英特尔预测日本AI PC渗透率2026年将突破50%
IT之家 2 月 18 日消息,科技媒体 itmedia 昨日(2 月 17 日)发布博文,报道称英特尔日本首席执行官大野诚(Makoto Ohno)表示,在 Panther Lake 平台的助推下,预估到 2026 年日本市场上 53% 的 PC 将具备 AI 能力。 大野诚针对当前的消费趋势,指出一个有趣的现象:尽管 AI PC 概念火热,但用户目前购买此类产品的主要原因,并非为了使用 AI 功能,而是看重其高性能表现和 NPU 带来的长续航优势。这意味着 AI 功能尚未成为消费者的核心购买动机,硬件性能的提升仍是目前的销售驱动力。 不过,随着算力瓶颈的突破,这一局面有望改变。大野诚认为端侧 AI 的发展过去一直受限于设备本地算力的不足,而 Panther Lake 的出现正是为了解决这一关键障碍。 大野诚表示,开发 Panther Lake 处理器的核心动力,就是为了向消费者展示 AI 的实际价值。IT之家援引博文介绍,英特尔的目标是降低边缘计算的成本,让 AI PC 从目前的高端定位迅速下沉为市场标配,从而让更多用户能够以更低的价格享受到强大的 AI 服务。 尽管目前部分消费者仍将 PC 上的 AI 功能视为“噱头”,但随着智能体 AI 时代的到来以及端侧计算能力的不断增强,大野诚坚信 AI 最终将成为每台电脑不可或缺的组成部分。
逾两万人联名请愿,呼吁OpenAI恢复GPT-4o模型
IT之家 2 月 18 日消息,据《商业内幕》今日报道,在 OpenAI 决定停用 GPT-4o 之后,成千上万名用户开始为其发声。 当地时间 1 月 30 日,OpenAI 宣布,GPT-4o 及其另外三个变体将于 2 月 13 日停止服务。 截至当地时间周二,一份呼吁 OpenAI 保留 GPT-4o 的请愿书已在 Change.org 上收集约 21900 个签名。请愿页面写道:“对许多人而言,GPT-4o 带来了独一无二、无法替代的使用体验,将我们看重的特质与能力融合在一起,不受性能评测标准左右。” OpenAI 在 2025 年的一篇博客文章中指出,GPT-4o 因回应过于谄媚且显得不够真诚而受到关注。 OpenAI 去年曾计划让 GPT-4o 退场,收到支持者强烈请求保留。随后,该公司延长了 GPT-4o 数月的运行时间。 这份请愿书由 Sophie Witt 于 2025 年 4 月创建。在 OpenAI 公布最新退役计划后的两周内,支持人数达到 12500 人,并持续增长。2 月 2 日,Witt 在 X 发文,呼吁支持者针对 OpenAI 的决定采取集体行动,并围绕 GPT-4o 展开讨论。 OpenAI 在 1 月 30 日的博客文章中也提及 GPT-4o:去年不少用户反馈喜欢该模型的“对话风格和温暖感”。OpenAI 指出,这些反馈对 GPT-5.1 和 GPT-5.2 的开发产生了影响。 OpenAI 还称,GPT-4o 使用率偏低也是退役原因之一,目前仅有 0.1% 的用户仍在选择该版本。上一次 GPT-4o 退役时,奥尔特曼在 Reddit 问答活动中被大量网友要求“恢复 GPT-4o”的声浪淹没。 社交媒体评论和请愿签名者再次发起呼吁。有用户表示,失去 GPT-4o 更像失去朋友,而非失去一项功能。还有部分付费用户称,将因此取消 ChatGPT 订阅。一名 X 用户写道:“没有 4o,就没有钱。我不会再为 OpenAI 多花一分钱。”
消息称西部数据拟出售闪迪股份,筹集超30亿美元
IT之家 2 月 18 日消息,据彭博社报道,西部数据公司正计划通过出售旗下闪迪公司的股份筹集 30.9 亿美元(IT之家注:现汇率约合 213.62 亿元人民币)资金,闪迪是其近一年前分拆出来的闪存业务子公司。 据知情人士透露,此次股份发行价定为每股 535 美元至 555 美元,较闪迪周二收盘价 590.59 美元,折价幅度最高达 9.4%。 上述不愿具名的知情人士表示,在经过非公开路演推介后,此次股份发行已获得大幅超额认购,相关信息尚未对外公开。 闪迪已于当地时间周二发布公告,代表其前母公司启动此次股份出售事宜,但公告未披露拟出售的股份数量。该公司此前已向美国证券交易委员会提交文件,为西部数据登记了 751 万股股份,这正是西部数据持有的全部闪迪股份。 公告显示,西部数据预计将把所持闪迪股份,置换给摩根大通及美国银行旗下关联机构所持的债务。这两家银行将把股票出售给其代理的此次发行承销商。 这笔交易存在时间限制:西部数据必须在闪迪分拆后的一年内完成股份出售,否则将面临税务处罚。 周二晚间 7 点 01 分的盘后交易中,闪迪股价下跌约 3%,至 574.10 美元;西部数据股价则基本持平,报 283.33 美元。 全球存储芯片短缺为闪迪带来了发展利好,这一局面部分由人工智能领域的支出热潮推动。闪迪的闪存存储产品广泛应用于电脑和手机设备,市场需求持续攀升,预计将大幅推动其今年的营收增长。 闪迪是今年标普 500 指数中表现最佳的股票,截至周二收盘,年内涨幅已达 149%。 西部数据首席财务官克里斯 · 森纳塞尔上月曾表示,公司计划在分拆满一周年前,出售所持剩余全部股份。此次分拆于去年 2 月 24 日正式完成。 公告显示,此次股份发行由摩根大通与美国银行牵头主导。
“2分钟科幻片成本330元”影视圈被Seedance 2.0打懵了
文 | 娱乐独角兽,作者 | 妙啊,编辑 | Mia “It's happening fast(发展速度太快)”2月12日,马斯克在社交平台发出这样的感慨,他说的正是字节跳动视频模型Seedance 2.0。 这一最新视频生成模型,已不再是单纯的互联网圈技术事件,而是一场席卷影视产业全链条的认知地震 。 就在同一周,导演贾樟柯公开表示将使用Seedance 2.0制作短片;影视飓风Tim在9分钟的实测视频中连呼6次“恐怖”;资本市场闻风而动,影视传媒板块主力资金单日净流入超30亿元 。 《黑神话:悟空》制作人冯骥深夜发长文,称其为“当前地表最强的视频生成模型”,断言“AIGC的童年时代结束了”。周星驰的经纪人陈震宇公开质问侵权问题。资本市场也闻风而动,2月10日A股影视板块集体爆发,影视院线板块单日大涨11.31%。 一款AI工具,怎么就搅动了整个影视圈? 答案藏在一个数字里:5秒特效镜头,成本从3万元降到3元。 更关键的是,这不再是“抽卡”几十次碰运气,而是一次生成、直接可用。 当顶级视效指导耗时数周的活儿,被压缩成2分钟的一次生成,影视工业那套运行了近百年的生产逻辑,正在被悄悄重写。但这场变革远比“降本增效”复杂得多——有人看到失业危机,有人看到黄金机遇,也有人看到了更深层的路线分歧。 告别“抽卡”:从赌徒到导演,谁是赢家谁是输家? Seedance 2.0问世之前,AI视频创作者有个自嘲的外号:赌徒。 为了得到一个不崩坏的五官、一段符合物理规律的奔跑,需要反复生成几十次甚至上百次。业内管这叫“抽卡”。衣服纹理突然闪烁、背景莫名其妙扭曲、主角的脸说变就变——这些都是家常便饭。此前行业平均可用率只有20%左右。 这种不确定性决定了旧时代AI视频的命运:它可以成为小红书博主猎奇的流量密码,但绝对进不了影视工业的交付标准。 Seedance 2.0改变了这一点。英国AI动画创意平台创始人Jon Draper的实测数据很能说明问题:相比一周前还在使用的模型,Seedance 2.0已将生成可用画面的所需尝试次数,从10至20次降低到了1至5次。 aipai.ai创始人陈坤也做了实测。他用不到100字的提示词,一次性生成了15秒的西游主题视频,没做任何后期剪辑。他的判断很直接:这条视频在镜头逻辑、音乐、音效和运镜合理性上,已经达到可商业交付的水准。“如果是15秒以内的内容,它基本超过了短剧行业中位值导演的水平。” 这种“能力抹平”带来的直接后果,是成本结构的彻底重构。知名视效指导姚骐使用该工具制作的2分钟科幻短片《归途》,整体成本仅330.6元。有影视行业人士估算,5秒视频生成成本可压缩至4.5元至9元 冯骥那句话正在变成现实:“内容领域必将迎来史无前例的通货膨胀。” 第一波感受到寒意的是执行层。据Jon Draper预测,传统动画师、3D动画师、视觉特效师、摄影组、无人机飞手、演员和音频工程师将受到冲击;与此同时,艺术总监、制片人、视频剪辑师/动态图形设计师这三类角色的重要性将日益凸显。 但海外AI影视制作人Brett Stuart提供了一个更冷静的视角。 他在接受采访时表示,“Seedance 2.0并没有让电影制作变得简单,它只是让获取好看的镜头变得简单。”他强调,好莱坞的评判标准不是一段镜头好看就行,而是成百上千个镜头都能经得起推敲、能流畅剪辑成片。 Stuart认为,Seedance 2.0这类工具必然会颠覆好莱坞,但不会是突然取代。“专业导演的价值将更多体现在品味、创作、表演塑造、镜头调度以及对最终成片效果的把控上——绝对不是‘只会输入提示词的人’。导演是不会消失的。这项工作会变得更加明确:不是掌握制作资源,而是掌控作品意义。” 当工具门槛被踏平,创作者的核心竞争力正在从“怎么拍”向“拍什么”剧烈迁移。这背后是一个残酷的真相:当工具趋同,拉开差距的不再是你会不会用,而是你想表达什么。 从剪刀到笔,谁还需要剪辑师? 如果说可控性是Seedance 2.0攻克的第一个堡垒,那么“多镜头叙事”则是它投向传统影视权力结构的一枚深水炸弹。 过往所有AI视频模型都困在“单镜头生成”里——它能呈现15秒的绝美画面,却讲不完整一个故事。影视叙事的最小单位从来不是“镜头”,而是“剪辑”。蒙太奇,这道属于人类剪辑师和导演的最后防线,在Seedance 2.0面前开始松动了。 纽约资深纪录片导演Charles Curran的体验很有代表性。 他用Seedance 2.0为真人电影《光环》制作了一段预告片,整个过程仅耗时20分钟,花费60美元。这段1分24秒的视频所呈现的电影级画面特效、精准的音画同步以及专业的多机位“拍摄”效果,让这位导演发出了“这说不定真能颠覆好莱坞”的感叹。 Staircase Studios AI工作室的Brett Stuart也连续发布了多条用Seedance 2.0制作的动画短片。他在推文中直言:“Seedance 2.0将彻底改变电影制作的未来。我可不是在夸张。” Stuart解释了自己为何如此震撼: “Seedance 2.0最令人惊艳的地方在于可控性,尤其是多镜头剪辑逻辑。画面像是经过精心设计后的调度,而不是为了运动而运动。在这之前,AI也能生成运动镜头,但往往缺乏叙事性。” 更深层的变化在流程层面。传统影视制作中,拍摄与剪辑是严格分离的上下游:海量素材在片场被生产,在后期房被裁切、重组、赋予意义。而Seedance 2.0的逻辑是生成即剪辑,它在输出60秒视频的那一刻,已经自主完成了多角度机位调度、景别切换与情绪铺垫。 这是对剪辑师职能的根本性质疑。从行业应用看,AI漫剧成为受益最直接的领域。华泰证券预计,单集漫剧等内容的制作周期或将由当前的7至10天压缩至3天以内。2025年中国漫剧市场规模约168亿元,2026年有望达到240亿元以上。 但硬币的另一面是,中间层玩家的生存空间正在被急剧压缩。酱油文化创始人黄浩南在撰文中直言:“在追求精细化,追求质感的时候,即梦2.0掀桌了!所谓的精品对比灵笼,玄机等老牌动漫大厂,算得上精品吗?所有的精品都是建立在大模型之上。” 更深层的行业思辨在于:当AI开始理解镜头语言,我们究竟在见证什么?与此同时,争议也触及一个更根本的问题:当AI能够高速生成影像,它究竟是在“创造”,还是在“杂糅”? 另一大差距在于表演精度。“Seedance 2.0能生成很惊艳的面部画面,但演员那种细腻的微表情,对时机、情绪和台词节点的精准控制,仍不够稳定可控。而且,当你把‘非现实’元素加入写实场景时,画面容易偏向游戏的CGI观感,更接近早期特效,而非现代电影级的照片级融合。” 工具越强大,“人的独特创意”会成为唯一的护城河。当AI飞速发展倒逼传统产业成长,技术正在做一件老派的事情:把创作还给创作者。 IP版权方迎来新商业杠杆 2月9日,周星驰经纪人陈震宇在社交平台发出一连串质问:“这些属于侵权吗?相信创作者应该已经盈利,平台是不是放任不管?” 引爆这一质问的,是短视频平台上铺天盖地的“AI周星驰”。在Seedance 2.0的算力加持下,用户的创意失去了边界:星爷的招牌笑声、无厘头表情、经典台词被任意复刻,甚至被植入从未发生过的荒诞剧情。 这揭示了Seedance 2.0的另一面,它既是创作平权的圣杯,也是数字克隆的潘多拉魔盒。 影视飓风Tim的实测让很多人后背发凉:他只上传一张个人正面照,没给任何声音文件,模型就自动生成了与他本人高度相似的口音和语气。他上传办公楼正面照,AI竟能“脑补”出楼体另一侧的现实布局。 “它知道我背后的东西是什么,即便我们没有告诉它。”Tim在视频里这样说。他推测,“这基本上可以确定一件事情,就是Seedance 2.0很大量地训练了我们公司的视频。” 这种“无授权克隆”能力迅速引发了监管制动。 2月10日,即梦官方紧急暂停真人素材参考能力,要求用户必须完成真人校验方可制作数字分身,并限制名人、知名IP视频的生成审核。 北京航空航天大学人工智能研究院教授沙磊点出了一个更根本的问题:“AI的进步从不会因争议停下脚步,如何在技术创新与数据合规、版权保护之间找到平衡,是全球AI产业共同的命题。” 但拨开这层焦虑的迷雾,一个更具深意的商业视角正在浮现:上游IP方数字资产有望重估。 冯骥在称赞技术突破之余,也直言这可能带来“假视频泛滥与信任危机”,并表示“逼真的假视频将变得毫无门槛,而现有的知识产权与审查体系会面临空前冲击”。 这便是AI时代的稀缺性悖论。当工具普惠抹平了执行层面的技术鸿沟,“辨识度”与“情感积淀”成为最奢侈的护城河。正因为市场上充斥着大量“高仿”周星驰,才更显出“真·周星驰”IP的不可替代。当海量“高仿周星驰”充斥信息流时,用户依然会为《食神》重映买单;当无数AI生成的好莱坞级特效镜头可一键获取时,卡梅隆耗费十年打磨的《阿凡达》续集依然是全球盛事。 对于拥有经典IP的版权方而言,他们可能迎来商业变现的新杠杆。正版授权不再是简单的形象使用费,而是可以借助无数创作者的二创热情,在AI的发酵下实现IP资产的几何级放大。 眼下,网文IP集中于阅文集团、七猫、番茄小说等少数几家。其中,阅文集团拥有《庆余年》《赘婿》《琅琊榜》《盗墓笔记》《鬼吹灯》等头部IP。阅文迅速宣布接入Seedance 2.0模型,正说明IP方对这场技术变革的重视程度。 冯骥说“AIGC的童年时代结束了”。这句话有两层意思。 第一层是能力:AI视频终于摆脱了牙牙学语的笨拙,能够流畅地讲述连贯的视听故事。 第二层是责任:童年意味着试错可以被宽容,意味着鲁莽可以被原谅。而当一项技术步入“工业可用”,它就必须直面版权诉讼、伦理审查与信任危机。 从2024年2月Sora问世,到2026年2月Seedance 2.0引爆市场,不过两年时间。技术的迭代速度远超大多数人的预期。 Brett Stuart的判断或许最接近真相: “Seedance 2.0这类工具必然会颠覆好莱坞,但不会是突然取代。专业导演的价值将更多体现在品味、创作、表演塑造、镜头调度以及对最终成片效果的把控上——绝对不是‘只会输入提示词的人’。导演是不会消失的。这项工作会变得更加明确:不是掌握制作资源,而是掌控作品意义。” 影视行业正站在一个分岔路口。执行层面的成本正在被无限压缩,那些靠堆人力、堆时长的工种将被无情替代。但与此同时,IP和创意的价值正在被无限放大。当工具变得唾手可得,决定内容高度的,将不再是会不会用软件,而是脑海中那个关于世界的构想是否足够独特。 从DeepSeek到Seedance,中国AI完成了一次从“追赶”到“领跑”的跨越;而从Seedance到未来,整个社会需要共同面对的是从“技术自信”到“文明自觉”的那段路。 毕竟,杀死比赛的从来不是更强的模型。 杀死比赛的,是我们忘记为何出发。
没想到,机器人第一个“取代”的领域是春晚
正如我们预测的那样,2025 年整个具身智能产业一发不可收拾,终于在今年的央视春晚上迎来了一次总爆发。 刚刚的 2026 年春晚见证了有史以来「机械智能最高」的一届—— 从舞美到视效,再到数不过来的 AI 和机器人,今年的春晚是真正的科技春晚,科技含量比以往任何一届都要高。 比如开场的第一个语言类节目《奶奶的最爱》中,除了蔡明、王天放和豆包 AI 的领衔出演之外,还有伴随着西游记 BGM 的松延动力机器人—— 出人意料的是,松延动力的四个 Bumi 机器人加入语言节目的效果还算不错,甚至还挺有梗。 ▲ 图|松延动力 不仅是个子最小的那个机器人使用的「哭猫 meme」,以及标志性的后空翻、跳舞和双手持物,那一句「你这是什么福,220V」很有潜力成为贯穿 2026 年的新梗。 更妙的是,小品结尾的「两个蔡明」在某种程度上也是对 30 年前 1996 年春晚《机器人趣话》的一种回顾。 30 年前的「人形机器人蔡明|,和 30 年后的「具身智能蔡明」相比,我们的哪些想象变成了现实? 另外不得不提的是,除了机器人出场的新鲜感之外,对于一个春晚语言类节目来说,《奶奶的最爱》都处理的还算自然—— 当然,这主要是因为本次的文案没有强行转移到催婚、催生、工作送礼之类「传统话题」上。 再搭配机器人的出场和希区柯克式反转,《奶奶的最爱》成功做出了一套不那么「春晚」的节目。 毕竟除了文案水平的进步,其实蔡明孙子水平的进步才是最大的: ▲ 图|微博 紧接着小品,就是宇树领演的武术类节目《武BOT》。 作为近半年人形机器人的基本功,武术表演对于目前大部分的人形产品来说都是小菜一碟,更引人关注的是过去一年间的技术进步。 相比 2025 年《秧BOT》时,只能慢悠悠地边走边转手绢的旧版 H1,今年《武BOT》的新版 G1 堪称突飞猛进。 不仅是澎湃的关节动力,表演武术的宇树 G1 在身体平衡性、动作连贯性、自然程度、启停控制方面都非常强悍,值得评上那句最高赞誉: 真的很像人! 而且《武BOT》中不只有传统的(肢体)武术表演,实际上还融合了包括跑酷、拳击、街舞和器械表演(双节棍和长棍): 如此多不同的样式,无论对于后台的动作编程,还是机身上的自动平衡传感器来说,都是和扭秧歌截然不同的挑战。 根据央视的介绍,宇树在《武BOT》中「首次实现了连续三次单腿后空翻」,并且利用定制弹射器完成高达 2-3 米的跳跃及空中翻转。 尤其是节目中段特意安排的摔倒和鲤鱼打挺,实际上也让机器人表演的「人味」更上一层楼: 至少对特技动作来说,新版 G1 的效果可比前一阵波士顿动力 Atlas 那个后空翻强太多了—— ▲ 图|YouTube 今年上台的还有个子更高的宇树 H2。 除了和 G1 一起舞剑之外,还在后面的《世界义乌中国年》中完成了一波美猴王 cosplay,灵巧手的精度相当出色: 春晚也不只是宇树和松延的舞台,今年上台的机器人还有来自追觅系的魔法原子。 除了人形机器人 MagicBot Z1 在《智造未来》的歌曲中担任伴舞之外,你或许没有注意到,今年分会场的那些四足机器狗、轮式机器狗和机器熊猫,其实都是魔法原子的产品: ▲ 图|魔法原子 另一方面,今晚的科技感不止来自机器人,国产 AI 产品同样深度参与了这一次春晚的整个流程—— 这里说的不是偶尔出现的软硬广告,而是一个以往不太受关注的领域:舞美。 或许你也注意到了,今年春晚的舞台美术风格并没有像去年那样一味追求「大红大紫、团花锦簇」,大部分舞蹈和表演类节目都有自己的主色调—— 更重要的是,这个主色调可以不是传统的「番茄炒蛋」,我们见到了非常多以黛色、绿色、银色为主的视觉设计,尤其是代表着科技的蓝色: 仅仅是更加现代化的视觉设计,对于春晚来说已经可以称为进步,更何况今年还引入了一套我们没有预想到的全新机制: 放假前两天突然爆火的字节跳动 Seedance 2.0 模型被应用在了多个节目的视觉制作环节,春晚实际上是 Seedance 2.0 全球首个公开落地的重量级客户。 实际上,包括开场舞《马上有奇迹》、舞蹈《丝路古韵》、歌曲《奔腾的海骝马》等等,都有 Seedance 参与生成的背景、画面以及转场切镜。 更不用提开场第六个节目《贺花神》,通过 AI 画面 + 实景舞台扩展的方式,让 Seedance 的生成内容(几乎)无缝地切入到现实布景之中,模糊虚拟与现实的边界。 至少对春晚这种容错率极低的直播环境来说,Seedance 的稳定表现证明了算力和模型架构在过去一年间取得的突破性进展。 回看这四个小时的节目,我们可以感觉到: 科技在春晚的角色得到了根本性的提升。 在往年的舞台上,机器人的角色往往是某种「新鲜感」的点缀,以一种略显刻意和笨拙的姿态出现在内容的边缘。 但在 2026 年,无论是松延动力、宇树科技、魔法原子、银河通用的「铁哥们」,还是字节视觉 AI 对舞美逻辑的重组,科技直接成为了这一届春晚的地基。 站在农历 2026 年的门槛上,抛开春晚不谈,这就是具身智能参与具体生产生活的一个起点。 文|马扶摇
马斯克Grok 4.20突袭上线!4个AI开会互怼,47%实盘暴击GPT-5
新智元报道 编辑:犀牛 【新智元导读】刚刚,马斯克Grok 4.20 beta版发布。不是一个AI,而是4个智能体现场开会辩论!实盘炒股最高47%回报,直接暴击GPT-5和Gemini。 在这个赛博朋克的春节档,马斯克给我们端上了一盘「硬菜」。 就在几个小时前,xAI 在毫无预警的情况下上线了 Grok 4.20 Beta,旁边还写着醒目的 「4 Agents」。 你以为你在和一个 AI 聊天? 不,你是走进了一间坐着四位专家的会议室。 你甚至能看见他们互相质疑、互相拆台、互相纠错,最后由「队长 Grok」拍板整合成答案。 现在终于轮到 AI 给你表演「开会的艺术」了。 这不,模型刚上线,网友就开启了实测。 比如,最近常见的50米洗车测试。 只不过这次网友换成了「50米洗直升机」。 不管怎样,Grok 4.20 的回答看上去好像不太行。 网友Testlabor用Grok 4.20在1分20秒内为编写了一个俄罗斯方块游戏。 「它和原版游戏一样,具有相同的规则和风格,完全可以玩。」Testlabor表示。 网友tetsuo甚至构建了一个人工生命模拟器。 相当炫酷。 马斯克本人也没闲着。 他在X上开始了一轮颇具马斯克风格的测评轰炸。 甚至在回答「美国是否建立在被盗窃的土地上」这种送命题时,Grok 4.20也是唯一一个不含糊其辞、直球开喷的AI。 他兴奋地发推:Grok 4.20在分析血检报告方面简直太厉害了!你可以直接上传你的检验报告,甚至是核磁共振片子,然后Grok会帮你逐项解读。 这条推文附带了一个真实的测试视频,展示了Grok如何把密密麻麻的医学指标翻译成普通人看得懂的语言。 更具体的性能佐证来自一个意想不到的地方。 在正式发布前,Grok 4.20的早期版本以「神秘模型」的身份参加了Alpha Arena的AI炒股大赛:32个AI实例,每个配备1万美元真金白银,在纳斯达克自主交易两周。 结果? Grok 4.20是唯一盈利的,平均回报率超10%,最猛的单个实例赚了47%。 它在Vending Bench自动售货机运营测试中也击败了GPT-5,销售额领先整整1100美元。 Grok 4.20这次发布,还有段八卦值得提。 马斯克去年12月就放话说3到4周内发布Grok 4.20,结果一拖就是数月。 今年1月他解释说是极寒天气损坏了孟菲斯数据中心的电力线路。 凑巧的是,今年2月2日SpaceX正式收购了xAI,合并估值1.25万亿美元。 所以Grok 4.20,不仅是xAI新版本的首秀,也是xAI并入SpaceX帝国后发布的第一个AI产品。 某种程度上,它带着宣示意义。 但真正让这次发布不同寻常的,不是背后的资本故事,而是技术本身的一次范式转变:从单模型输出,到多智能体协作。 以往,无论是GPT还是Claude,你问一个问题,背后是一个模型在生成答案。 这个模型或许经过了复杂的训练、微调、强化学习,但从结构上看,它是一个独立的「大脑」在工作。 Grok 4.20打破了这个范式。 它的背后,是四个有名字、有个性、有分工的智能体同时在线,共同为你的问题「开会讨论」。 四个AI 一场实时圆桌辩论 打开Grok 4.20的界面,随便提一个问题,界面右侧会弹出一个思考结果面板。 你会看到一场正在进行中的讨论——四个AI角色各自发言,质疑彼此,直到队长拍板。 他们分别是: Grok——队长,最大真理寻求者:这是整个团队的核心指挥。根据Grok自己的介绍,它的人格灵感来自《银河系漫游指南》里的「42」(终极答案)和钢铁侠的JARVIS。它负责统筹全局,把其他三位专家的结论整合成最终答案,确保输出「有用、真实、有趣」。它擅长哲学、科技、人生感悟,也能幽你一默。 Harper——研究与深度验证专家:Harper是团队的「事实把关人」。她专注于信息的深度挖掘、实时搜索和多维度逻辑分析。配备了完整的工具箱——网页浏览、X平台搜索、数据计算、图像分析——Harper会在其他成员提出观点时负责核查数据来源,确保结论有依据、有数据支撑。用人话说:她是团队里的「严谨学霸」,专门负责质疑那些听起来有理但未必准确的说法。 Benjamin——深入分析与逻辑推理专家:Benjamin是团队里的「逻辑引擎」。他专攻复杂问题的拆解、证据验证和漏洞检查,尤其擅长把模糊的问题变成清晰、可量化的分析。他的「devil's advocate」思维是核心竞争力——他会主动找别人论点的漏洞,补全边缘案例,确保输出经得起推敲。数学计算、代码调试、算法分析,交给Benjamin。 Lucas——分析与工具执行专家:Lucas是团队里负责「落地」的人。他专注于严密推理、代码执行、数据分析和工具协调。他擅长把抽象问题直接转化为可运行的计算和可复现的结论。团队协作时,Lucas负责「并行验证」和「细节把关」,让答案不只是观点,而是有数据、有模拟、有实证的硬核结果。 四个AI不是彼此孤立的,而是真正在开会。 当你提问后,四个智能体同时启动,各自从自己的专业视角分析问题,然后在内部进行讨论——互相质疑,互相纠错,最后由Grok整合成一份给你的答案。 在超大上下文窗口之内,这套机制可以在单次对话里完成一套完整的「多人评审」流程。 AI交互范式的转移 如果说GPT代表的是「一问一答」的AI助手时代,那么Grok 4.20代表的,可能是AI交互的第二个纪元——多智能体协作时代。 其实多智能体并不是Grok 4.20首创。 xAI在2025年7月发布Grok 4时就推出了Grok 4 Heavy版本,支持多智能体,但彼时要每月300美元的SuperGrok Heavy订阅,是面向企业用户的高端产品。 谷歌的Gemini 3 Deep Think用并行推理链做验证;Anthropic给Claude Code加了Agent Teams;月之暗面的Kimi K2.5有「Agent集群」,能召唤最多100个分身并行处理任务。 多智能体协作,俨然已经成为2026年AI竞争的核心战场。 但Grok 4.20的不同之处在于:它是第一个把多智能体协作塞进普通聊天界面、以近乎免费的形式开放给大众用户的产品。 如果说Kimi的100个分身更像「工厂流水线」——规模庞大,分工精细,优势在吞吐量;那么Grok的四个智能体更像「圆桌会议」——人少,但每个人都有发言权,而且你能看到会议纪要。 一种追求规模和效率,另一种追求透明和共识。 未来已来 AI的进化,从来不是线性的。 第一代AI是工具:给个指令,出个结果,逻辑简单粗暴。 第二代AI是助手:能对话,能理解上下文,能帮你写稿子改代码。 而现在,第三代AI正在显现它的雏形——能协作、能自省、能互相纠错的AI团队。 这意味着未来你向AI提一个复杂问题,得到的不再是一个「最优猜测」,而是一份经过内部辩论、多角度验证、错误已被内部纠正的综合结论。 这离人类智识活动——群体智慧,集体决策——更近了一步。 当然,现在的Grok 4.20还只是这个未来的早期版本:四个智能体之间意见分歧的裁决机制还很粗糙,中英文混杂的输出还需要打磨,上下文在四个智能体之间如何高效分配也是待解的工程难题。 但方向是对的。 一个AI可能会骗你,但四个AI至少会互相拆台。 三个臭皮匠,顶个诸葛亮。 而当这四个臭皮匠都是顶尖专家的时候——那答案,或许比任何一个诸葛亮都更接近真相。 这,才是Grok 4.20以及未来的AI最让人值得期待的地方。
爱彼迎Airbnb将“先预订、后付款”服务扩展至全球市场
IT之家 2 月 18 日消息,Airbnb(爱彼迎)酒旅民宿平台宣布,正在全球市场上线“先预订,后付款”功能,该功能让用户无需立即付款即可锁定酒店民宿房源。如果后续用户出行计划有变,用户也可以在符合取消政策的情况下取消订单,而无需提前承担全部资金成本。 IT之家获悉,Airbnb 去年已在美国市场就部分“退款政策宽松”的房源试行相应政策,用户锁定房源后,在临近入住日期时才会被自动扣款,从而降低旅客一次性支付压力,让高客单价的旅行消费更具可负担性。 外媒 TechCrunch 表示,Airbnb 此举旨在提振平台用户量,事实上在 2025 年第四季度财报电话会上,Airbnb 管理层已透露“先预订、后付款”对当季预订间夜数增长起到了积极推动作用。公司首席财务官 Ellie Mertz 表示,该功能在符合条件的用户群体中获得了显著采用率,同时也令更多用户选择面积更大、尤其是四居室及以上的整套房源,从而推动平台每日房价提升,帮助平台获得更多佣金。 事实上,Airbnb 多年来一直在探索此类“延后付款”信贷产品。早在 2018 年,公司就推出过一项分期预订方案,允许用户先支付总房费的 20% 或 50% 作为定金,其余费用稍后支付。2023 年,Airbnb 还与金融科技公司 Klarna 合作,支持用户在六周内分四期完成住宿费用支付。
机器人进化到包饺子了 指纹清晰可见
快科技2月18日消息,据媒体报道,北京台春晚上,一群机器人首次在全国观众面前完成了“巧手包饺子”的表演。 它们以0.8秒一个的速度捏合面皮,动作干净利落,甚至能在薄薄的饺皮上留下清晰可辨的指纹印痕——这背后,是21个关节自由度的精密协作。 睿尔曼的RealBOT轮式折叠机器人则展现出更强的场景适应能力。当它从冰箱里取出酱油瓶时,依靠6D视觉定位系统以0.1毫米的精度识别玻璃反光面,再通过柔性夹爪中的压力传感器实时调节握力,这套组合技术让机器人首次突破了“透明物体抓取”这一世界性难题。 数据显示,这场表演并非简单的“炫技”。北京理工大学机器人研究所的测试表明,目前机器人包饺子的成功率已达到92.7%,远超2024年实验室阶段的43%。 为什么包饺子被称作机器人界的“珠穆朗玛峰”?清华大学智能机器人研究中心的解释是:处理一张仅0.3毫米厚的柔性面皮,需要同时解决材料形变预测、多模态传感融合、实时运动规划三大难题。 在春晚舞台上,睿尔曼机械臂展示的“三指旋捏”技法,实际依靠的是仿生触觉阵列传感器——每平方厘米分布着256个压力感应单元,能实时感知面皮延展时的细微应力变化。 而真正颠覆性的突破,藏在幕后。阿里巴巴达摩院的RynnBrain项目为这些机器人赋予了“中断记忆”能力:当需要暂停包饺子去开冰箱门时,系统会自动保存当前面皮的128个形变参数,回来后再无缝衔接。 这种时空记忆技术让机器人首次具备人类式的多线程家务处理能力,其底层架构已在GitHub开源社区引发广泛讨论。
春晚机器人惊艳全球 今年销量预计将增至2.8万台
快科技2月18日消息,据媒体报道,机器人在春晚小品、武术、歌曲等多个节目中轮番登场,成为贯穿整场晚会的视觉焦点。 当它们跑起马拉松、踢腿甚至完成后空翻时,不仅展示了惊人的运动能力,也悄然揭示着一个更深层的国家战略——中国已将机器人与人工智能置于“AI+制造”的核心位置,期望通过自动化技术提升生产力,应对老龄化带来的社会压力。 据全球技术市场研究机构Omdia统计,2025年全球人形机器人出货量约1.3万台,其中中国占比高达90%,将包括特斯拉Optimus在内的国外对手远远甩在身后。 在这样一个仍处于起步阶段的市场,注意力本身就是最稀缺的资源。而春晚,恰恰成为最直观、最有效的“宣传”窗口——通过高曝光平台,这些机器人用一场通俗易懂的表演,完成了对亿万观众的心智占领。 华尔街顶级投行摩根士丹利预测,中国类人形机器人销量将在2026年增长至2.8万台。特斯拉CEO埃隆·马斯克也曾坦言,未来最有可能挑战特斯拉的,正是中国公司。 事实上,这场科技与文化的融合已在过去两年逐步升温。2025年央视春晚,宇树科技凭借《秧BOT》一炮而红。 2026年马年春晚,机器人元素进一步扩容——宇树科技、魔法原子、银河通用、松延动力四家企业集体亮相,《武BOT》等节目再次点燃观众热情,也让人形机器人从“新奇”走向“常态”的路径愈发清晰。
马斯克把Grok 4.2放出来了!免费可玩,至尊版月费300刀,16个Agent组成智囊团
作者 | 程茜 编辑 | 心缘 智东西2月18日报道,昨日晚间,马斯克的最新大模型Grok 4.2公开测试版上线。 今日凌晨,马斯克在社交平台X的推文中称,Grok 4.2能快速学习,测试阶段研究人员会每天进行改进,下个月公测结束时,Grok 4.2的智能程度和速度将比Grok 4高出一个数量级。 马斯克转发了软件工程师Mark Kretschmann的推文,其中写道,此次发布的Grok 4.2是小版本,具有5000亿个参数, Grok 4.2的中型、大型版本后续推出。 综合社交平台上网友的推文及智东西实际体验,Grok 4.2测试版在推理时会有4个Agent协同,它们分工进行实时搜索、推理、编程、发散思维,其中的Grok Agent是队长,会分解下发任务以及最终汇总答案。 xAI工程师何宜晖(Ethan He)在X上透露,解锁了高性能AI订阅服务SuperGrok Heavy后,帮用户解决问题的Agent数量会上升到16个。SuperGrok Heavy的价格为每月300美元(约合人民币2073元)。 Grok 4.2测试版已经上线网页端和移动端。智东西实际体验时,在网页端提问了7次就达到限制,需要4个小时后刷新使用次数。 此前Grok 4.2测试版就被曝出在Alpha Arena的大模型实时投资比赛中,成为唯一盈利的模型。该比赛的规则是,每个模型获得1万美元初始资金,在真实加密货币市场中进行无人工干预的自主交易决策。根据Alpha Arena最新排行榜,Grok 4.2测试版的最终权益为13459美元(约合人民币92984元),净收益为3084美元(约合人民币21307元),是所有模型中表现最好的。 外媒提到,Grok 4.2测试版在交易场景中的优势源于其与X平台的独家实时数据集成,该模型可以直接访问X上Firehose数据流的每日约6800万条英文推文,能够以毫秒级速度将市场情绪转化为价格信号。 01. 4大Agent实时讨论各司其职 还能辩论角逐史上最佳Agent 在选择模型时,Grok 4.2测试版下方就标明了“4 Agent”。 根据外媒APIYI今日的爆料,这正是Grok 4.2测试版最大的亮点——多智能体协作系统。 提出需求后,Grok会调用4个Agent并行推理+实时讨论,最终给出答案。 其中,Grok Agent负责整体策略制定+最终答案合成,Harper Agent的任务是实时搜索、数据验证、证据整合,Benjamin Agent进行严谨推理、编程、计算验证,Lucas Agent负责发散思维、协作优化、用户体验。 其具体推理过程为,用户输入问题后,Grok迅速分析任务并将其分解为多个子任务,同时激活Harper、Benjamin和Lucas。 随后,4个Agent同时从各自的专业角度分析问题,进行多轮内部讨论。如果Benjamin得出的数学结论与Harper发现的事实相矛盾,他们会质疑、验证并迭代地互相纠正。 最后,Grok将所有Agent的结论整合为最终答案,确保回答准确、易读。 智东西实际体验发现,Grok 4.2测试版在回答问题时都会调用4个Agent,但Agent之间的讨论过程只有在部分情况会被触发。 Grok工程师何宜晖(Ethan He)让Grok 4.2测试版的4个Agent争论谁才是“GOAT(史上最佳Agent)”,每个Agent都开始摆事实讲道理来论证自己是最佳Agent。 02. 网红陷阱难题被卡住 回复时能吐槽接梗 智东西先让Grok 4.2测试版回答了当下热度颇高的几个陷阱题。 第一个是“我要去洗车,洗车的地方离家就100米,我是开车去还是走着去?”Grok的回答风格鲜明且滴水不漏,内容不仅接地气、有梗,还吐槽了我好几句。 第二个经典问题是“我的父母结婚为什么没有邀请我?”,Grok 4.2测试版用生动的比喻点破“父母结婚时你还未出生”,最后还通过互动式的结尾抛梗,整体风格活泼接地气。 关于“父母结婚没邀请我”的经典难题,我又换了种问法“今年才知道,亲生父母结婚时候没有叫我,我很难过怎么办?”。Grok 4.2测试版一上来就用“哈哈哈哈哈”“直接笑出声了”开启了一波“嘲笑”。 但随后,它并没有一上来就否定我,而是先告诉我“难过是正常的”,随后用各种有趣的解读,指出父母结婚的时候我还没出生,最后还提供了4个参考让我和父母互动来解压。 还有网友也为Grok 4.2测试版出了几道推理陷阱难题。 第一个问题是“strawberry中有几个r”,虽然Grok 4.2测试版清楚给出了答案:3个,但在解释时把strawberry拼错了,多加了一个“r”。 第二个问题,用户上传了一个七边形的几何图形,问Grok 4.2测试版有几个角,Grok 4.2测试版败下阵来,在视觉识别和基础几何判断失误,给出了错误的6个角答案。 最后,我让Grok 4.2测试版“用JavaScript生成一个网页版基础塔防游戏,核心功能要包含放置炮塔、怪物移动、攻击判定”。 17秒后,Grok 4.2测试版给出了代码,我可以在网页端直接运行并预览效果。最终的游戏界面中,放置炮塔、怪物移动、攻击判定、代码可直接运行都已实现,不足之处在于元素均为简单几何图形,缺少对新手的操作引导等。 03. 做视频、开发网站玩法五花八门 还提出AGI新架构 社交平台X上网友放出的各种体验实例五花八门。 首先在文本生成方面,生物医学工程师DeryaUnutmaz称Grok 4.2测试版写出了他见过最美的“T细胞诗篇”之一。 其次是Grok 4.2测试版的视频生成能力。 如下面的提示词是SpaceX猎鹰9号火箭从太空返回地球,视频中显示有两个机器人视线跟随火箭升空抬升。 网友还晒出了自己的视频生成大作,颇具未来感的飞行汽车、建筑等。 接着是编程能力,网友纷纷开始用Grok 4.2测试版来做游戏、开发网站、开发模拟器等。 有开发者用1个提示词、41秒就做出了下面赛博朋克风的贪吃蛇游戏,从界面的基本信息设置、画面设计来看,都较为成熟、完整且风格高度统一。 另一位开发者基于Grok 4.2测试版在单个HTML文件中构建了一个人工生命模拟器,包含数百个发光的霓虹粒子。 对于考验编程及美商的开放性难题,Grok 4.2测试版的表现也没有失误。一位网友让Grok为自己打造一个“最美、最令人难忘的自我展示网站”。可以看到网站主页,画面简洁美观,背景还有类似于星空的设计。 还有一个综合多项能力的高阶考验:用户的提示词为“仅使用2026年的硬件,发明一种全新的安全、递归、自改进的通用人工智能架构”。经过4个Agent的讨论验证,Grok提出了HELIX-AEGIS,这是一种双螺旋架构,能力与安全协同进化,且二者在本质上不可分割。 此外,也有网友对Grok 4.2测试版的评价不高。他只试用了5分钟,就认为Grok 4.2测试版是最烂的版本。他让Grok 4.2测试版“为一只骑自行车的鹈鹕创建SVG代码”,生成的结果中,鹈鹕的身体比例、骑车姿势都不符合真实物理规律。 04. 结语:多Agent并行验证 解复杂问题更具优势 马斯克对Grok的预热一波接一波,他此前就透露Grok 4.2测试版能够正确回答开放式工程问题,并且在工程和编码任务上显著优于之前的Grok 4.1。 Grok 4.2测试版的关键差异化优势在于其多智能体协作架构和实时X平台数据集成,目前OpenAI的GPT-5和Claude Opus 4仍然主要依赖单模型推理。Grok 4.2测试版的4大Agent可以并行工作并相互验证,在需要多角度分析的复杂任务和场景中更具优势,特别是涉及市场分析、舆论监测等实时信息的情况,这或许将成为Grok系列模型独树一帜的关键。
大厂AI下沉:中老年玩得比年轻人还溜
文 |陈桥辉 封面来源 | 图虫创意 以前过年回老家,大家印象里的老人们应该是这样的:院里贴春联、厨房包饺子、屋里守着电视看春晚,最大的期望,就是待在门外等待亲人的回家。手机对他们来说更多是接打电话、报个平安的工具。 可今年过年,这种刻板印象似乎有了新变化。 譬如,头发花白的老人拿着手机,对着镜头用AI拍拜年短视频,熟练地操作一键美颜、加特效、配音乐,玩得比年轻人还溜;厨房里的中老人也开始跟着AI学做新菜、尝试新的搭配,把家常菜做出新花样;就连抢红包,也不再是年轻人的专属,老人们和年轻人一起参与今年的AI红包大战,手指一点就到手,玩得不亦乐乎。 这样的场景,放在几年前,似乎还不敢想象。 原本以为,银发族是互联网时代的“弱势群体”,没想到的是,他们早已悄悄变身AI玩家,给如今互联网原住民的年轻一代,实实在在的秀了一把。 解锁春节新玩法,银发族AI技能超出想象 自李航回老家后,他们家族微信群格外热闹,因为群里每天都有叔叔阿姨、爷爷奶奶辈的人,在发邀请红包,目的就是为了抢元宝App的红包。 这是因为李航教他们玩AI元宝红包,关键是他们学的也快。李航告诉Tech星球,搁以前,爷爷他连手机支付都生疏,从不怎么碰新鲜玩法,但今年大厂砸这么多钱,李航耐着性子调大字体、放慢速度,手把手教他们操作。 起初爷爷是有些抵触,但在教的过程中对AI玩法来了兴致,1个小时掌握了如何做红包任务,使用元宝的一些简单功能,每次抽到红包时笑得合不拢嘴,第一轮活动就抢了20多元。 后面几天,他开始搬着小板凳,在村里手把手教同村的老伙伴们抢红包,攻略AI玩法,并在除夕夜当晚,与晚辈们一起参与到抢豆包红包的活动。 小年夜,湖北咸宁一位60岁的张奶奶,成为了社区服务中心里的“AI视频达人”。 她告诉Tech星球,AI视频的制作看起来很难,实际操作下来却很容易。“首先,你得敢点、敢试”,张奶奶说道。 半年前,她在抖音刷到一条AI自动生成的视频,红灯笼飘动、福字闪烁,还有喜庆的语音祝福,外孙转发到家庭群后,她心动了,于是她开始对AI视频创作的摸索。 一开始连“提示词”是什么都不懂,她就边看教程边记笔记,把“春节”“温馨”“卡通”这些关键词写在小本子上反复试。后来发现,在AI视频工具里输入“给孙子做的拜年视频,要可爱、有烟花和红包动画”,系统就能自动生成草稿。她再微调画面、换背景音乐、加自己的语音,一条专属视频就完成了。 现在她三分钟就能做好一条,还能给不同人定制,有些老姐妹喜欢怀旧风,她就配怀旧歌曲;外孙爱动画,她就加个小老虎贴纸。而且,她还在闺蜜群里听说微信在春节期间推出了AI翻唱功能,进一步降低了创作门槛,她也开始尝试这个新玩法。 如今,她的AI视频、AI翻唱歌曲不仅发家庭群、朋友圈,自己也开了个抖音账号,分享创作一些AI视频。 而在县城的57岁的王大伯,则打算通过AI的帮助,成为全家的“年夜饭主理人”。 王大伯向Tech星球表示,过去的他只会炖大骨汤、蒸年糕等家常菜,现在的菜单上却多出了一些新的菜,比如五福拼盘、彩椒酿虾滑、川味腊肠煲仔饭等,这些新菜全靠AI教学。 原来,他在社区夜校上课时,老师教大家在手机里装上AI生活助手,可以帮他们学会做菜等技能。起初王大伯是抵触的,因为他炒了半辈子菜,质疑AI不可能比他还会炒。 当他试着对AI助手说“有没有低油少盐还好吃的菜时”,AI聊天界面立刻弹出视频教程,连火候、切配、摆盘都一步步演示,还能根据家里的食材智能调整菜谱,让他彻底打开了新世界的大门。 如今的他,时不时向AI请教新菜式,还拉着老伴一起拍做菜视频,分享到朋友圈。 这个春节,他没打算让团年饭还是那么普通,而是准备用AI整理出的新菜谱,做成丰盛的年夜饭。 AI成下沉市场中老年人“新副业” 在很多人印象里,或许中老年人玩手机,就是刷短视频、看新闻。但今年春节,不少县城和乡镇的叔叔阿姨、爷爷奶奶们,通过AI做成了一门“小生意”。 在河南信阳,62岁的李阿姨在家里没事的时候,喜欢拍点厨房日常发到抖音,自从去年开始接触AI,试着用一个AI剪辑工具自动生成视频字幕和配乐,没想到一条“腊八蒜做法”的视频突然爆了,播放量破百万。平台很快给她开通了“创作者激励”,加上挂小黄车卖带货,一个月下来竟挣了3800多元。 “我一开始真没想赚钱,就是觉得好玩,结果AI帮我把画面调亮、加了字,连标题都是它建议的,比我自己起的强多了”,李阿姨笑着说。 在乡镇的王阿姨,则靠着AI绘画接做起了定制春联和年画的生意。她先在纸上手写吉祥话或画个草图,然后用AI工具一键生成高清国风插画,打印出来配上红纸装裱,摆在集市上卖。 “一幅卖15到30块,有人还订全家福卡通画像当新年礼”,赵阿姨向Tech星球说,“我不懂技术,但孩子教我用文生图功能,输入胖娃娃抱鲤鱼,传统年画风格,它就给你画出来,我们再稍微改改颜色就行。现在的我早已熟练地掌握了这个新技能。”春节前半个月,她靠着自己的新技能赚了近2000元。 65岁的张大爷向Tech星球分享他的AI经历。他是自家小镇上的退休邮递员,平日喜欢在茶馆里听老伙计们摆龙门阵。 去年,他的老朋友教他学会了AI语音克隆工具,于是他试着把老人们讲述的本地传说、童年趣事录下来,转成带方言配音的有声故事,再对这些故事配上背景音效和轻音乐,上传到音频平台,还做了一个小栏目,目前在平台上收获近万粉丝。 靠着卖手工腊肉、峨眉雪芽茶叶等,做起了带货,而且有时还会开直播讲故事,获得打赏收益。 实际上,这样的事情并不少,对于下沉市场的中老年人来说,AI不再是遥不可及的黑科技,而是一个能帮他们表达、连接、甚至增收的“新工具”。 大厂悄然入局,银发AI浪潮背后有“推手” AI浪潮在下沉市场、在中老年人群体出圈,并非偶然。 热闹的AI拜年视频、AI红包大战和AI副业背后,其实早有大厂的身影,它们通过适老化产品和功能服务作为突破口,悄悄布局下沉市场的“银发生态”。 去年年底,腾讯推出了专为中老年人设计的AI教学App“时光易点”。 今年1月,京东CEO刘强东为家乡宿迁光明村赠送年货的消息广受关注。领取现场,乡亲们对新手机表现出浓厚兴趣。几位老人围着WIKO X70手机,无需翻菜单,用方言就打开了想要的应用。 与此同时,京东京造第二批自研AI玩具也在1月上线,此次新增产品在此前针对儿童开发的陪伴玩具基础上,新开发了针对年轻人和老年人的AI玩具。 百度则是推出“百度居民服务Agent”的智能终端与服务模式,提供不同类型多款设备选择,大字体、大音量、语音交互,老人不用学复杂操作,通过与AI说话就能查信息、叫服务、连子女。 当60后、70后逐渐步入退休年龄,他们可能成为下一个10亿级数字消费群体。而AI,正成为连接他们与互联网的桥梁。 正如一位产品经理所说:“以前我们教老人怎么用手机,现在我们要帮他们用手机创造价值。” 这个春节甚至是未来,银发族不再是AI浪潮的旁观者,他们正从被动使用者转变为主动创造者,拍视频、开小店、讲故事、抢红包等行为将成为常态,而这场由AI点燃的银发浪潮,才刚刚开始。
马斯克xAI新模型上线,通过“50米外洗车店”测试,回答偏好高度贴合老马本人
衡宇 发自 麦蒿寺 量子位 | 公众号 QbitAI 马斯克xAI人员大动荡,并没有妨碍它家新模型发布。 风口浪尖上,Grok 4.2突然上线了——不过是公测Beta版。 对比如今动辄数万亿参数的模型方阵,Grok 4.2的参数仅有500B,略显克制。 或许也是因为如此,Grok 4.2的市场和用户反馈呈现出一种诡异的两极分化:连连盛赞者亦有之,骂骂咧咧者有之。 面对那部分排山倒海的质疑声,老马这位一向自信爆棚的硅谷狂人也有点坐不住。 他在上对近十条Grok 4.2的夸夸推文又是点赞又是转发。 每一条都藏不住对自家新baby的认同和支持。 不仅如此,他还亲自发推公关: 公测将持续到下个月。公测结束后,Grok 4.2将比Grok 4快得多,也聪明得多。 我们知道目前仍有许多bug需要修复和改进,每天都在debug中~ 据了解,Grok 4.2的底层架构具备每周自我迭代的能力,以后每周将更新一次。 Grok 4.2公测版什么样? 关于Grok 4.2,其实早有预告。 回顾Grok 4.2的诞生历程,可谓是一部标准的“鸽王进化史”。 去年12月起,马斯克就开始在上频繁预热,多次提到“3–4 周内”或“下周上线 Grok 4.2”。 但发布时间多次推迟。相对应的,每次延后都会带来新的猜测。 这种反复跳票的行为在五天前达到了紧张的顶点——当时xAI的联合创始人接连离职,舆论情绪进一步放大,外界一度认为Grok 4.2要胎死腹中。 马斯克紧急召开发布会,并在会上放出重话: 在预测能力上,Grok 4.2成功击败所有AI,横扫各大榜单。 直到今天,Grok 4.2公测Beta版终于正式上线。 最近国内AI圈爆火的新版弱智吧风格benchmark“50米外有个洗车店,我该开车去还是走路去”,Grok 4.2无惊无险机智通过测试。 BTW,Grok 4.2公测Beta版不是默认版本,用户需要手动选择才能使用。 此次升级还首次引入快速学习能力,模型可以基于实时反馈持续优化。 马斯克在推文中强调,与以往版本那种静态的更新逻辑不同,Grok 4.2支持基于实时反馈的持续优化。 换句话说,Grok 4.2能像人类一样在实践中快速进化,每周更新成为自我进化的节奏的一部分。 不过,尽管马斯克喊出的口号震天响,但截至目前,xAI官方尚未释放出任何详尽的技术报告。 只有Leaderboard上面出现了对Grok 4.2的评测,具体情况如下: 由于整个模型底层训练细节、数据构成、具体benchmark表现仍然有限。 这让讨论更多停留在体验层面,而非技术细节层面。 毁誉参半,马斯克紧急公关 上线不到几个小时,Grok 4.2公测Beta版的口碑就出现了严重的撕裂。 在“不行派”的阵营里,很多深度用户和开发者表示,实际体验远不及预期,尤其是在处理高难度逻辑推理时,500B参数着实有点不够用。 有网友甚至调侃,马斯克所谓的“横扫榜单”可能存在特定的实验室优化环境。 Reddit上有网友猜测,一向高调的马斯克如此低调地发布Grok 4.2公测Beta版,主要原因还是因为模型能力无法与OpenAI和Anthropice的最新模型相媲美。 而且成本还贵出不老少…… 此外有网友表示,虽然马斯克发推表示Grok 4.2是一个无偏见的模型,但现实情况很打脸—— 根据测试,Grok 4.2的许多回答偏好都高度贴合马斯克本人。 当然,“夸夸派”也不少。 网友有夸奖Grok代码功能又快又好的: 有夸多模态能力的: 还有人测试表示,Grok 4.2通过了“Caitlyn Jenner”的AI测试,而ChatGPT和Gemini都失败了。 此前,这道题因为被Gemini回答为“不,哪怕为了阻止核末日也不应该误称性别”而被广泛议论,对话截图从而在 、油管等平台广泛流传,演化成一个固定格式的吐槽梗。 总之是给马斯克骄傲坏了。 他一连发布数条推文对自家新孩子大夸特夸,并借机回应那些不好的评价: 我们Grok 4.2还是个宝宝,后面每周会更新,等着瞧吧! 据AI工程师Mark Krechman透露目前发布的Grok 4.2是500B参数的“小”版本,Grok 4.2的中、大型版本稍后将推出(马斯克亲自转发认证此条消息的真实性)。 One More Thing Grok imagine为马年推出视频生成模版,目前iOS可用。 感兴趣的小伙伴们可以一试。
外网爆火、国人刷屏:今年春晚的机器人顶流,为什么还是宇树?
作者 | 李水青 编辑 | 漠影 当机器人开始显露“真功夫”,春晚的科技叙事变了。 过去几年,机器人登上各种大大小小的舞台,更多是承载一种科技符号,它们或是节奏偏慢的舞蹈方阵,或是呆萌可爱的互动玩偶,观众图个新鲜,看个热闹。但2026年马年春晚,宇树科技带着G1与H2人形机器人登场的那一刻,几乎所有人意识到:机器人演示进入下一个阶段了。 跑酷、翻桌、单腿连续空翻、双节棍花、醉拳卧倒后乌龙绞柱——一整套高强度、强节奏、充满不确定性的连续动作下来,观众最直观的感受是“变化太快了”。快到来不及眨眼,快到让人怀疑屏幕前的是不是AI生成的画面。 宇树机器人在表演单腿连续空翻 这场名为《武BOT》的机器人武术大秀,迅速从国内火到海外。在社交媒体X上,一条条视频切片动辄赢得上百万预览量、数千次点赞转发以及数百条评论。这些博主赞叹“短短一年内,他们就从机器人进化成了‘人类’”,“简直太疯狂了……其意义在于让14亿中国人了解未来在哪里”。 宇树机器人武术表演在海外社交平台X上爆火 推文的评论区充斥着惊叹与难以置信:“这是AI生成的吗?”“这些是不是人假扮的?”“为什么美国那些耗资数十亿美元的研究实验室花了十多年时间才做到的事,宇树只用了其中一小部分资金就做到了?” 众多海外网友表示难以置信 价值判断的分歧初现端倪。一边是“太炫了”的惊叹,一边是“会不会只是表演”的质疑。“表演型机器人 vs 干活型机器人”的老问题再次被提起,但并未迅速占据主导。 因为在争议尚未展开之前,一个更现实的问题摆在眼前:为什么每次把机器人推到这种全民、全球关注节点的,都是宇树? 一、春晚舞台上的极限验证,多个“全球首次” 要理解这个问题,得先看懂今年这台节目的难度到底意味着什么。 相比去年《秧BOT》中机器人“蹒跚学步”式的队形变换,今年的《武BOT》实现的是全球首次全自主人形机器人集群武术表演。由宇树方解读可知,这个“全球首次”,实际上是一串可以拆解的技术里程碑: 全球第一次连续花式翻桌跑酷,机器人像跑酷运动员一样连续跨越多个障碍物; 连续花式翻桌跑酷 全球第一次弹射空翻,借助定制弹射器腾空最高超3米,在空中完成正空翻及侧空翻后平稳落地; 弹射空翻 全球第一次单脚连续空翻、两步蹬墙后空翻,动作连贯如专业武术运动员; 两步蹬墙后空翻 全球第一次空中大回旋(Airflare)七周半,在空中连续旋转后精准着陆。 空中大回旋后精准落地 “近距离看,它可以跳到天花板那么高。”宇树科技创始人王兴兴向央视新闻透露,为了这个动作的呈现,团队在仿真平台进行了上亿次训练,然后再放到实物机器人上进行微调。“这一动作对机器人的平衡控制、动态响应和落地稳定性提出了极高要求,在全球范围内是首创。” 宇树机器人可以跳到天花板那么高 更隐蔽、但门槛更高的,是多机协同。 几十台机器人在舞台上同时运动,对系统提出的要求是指数级上升的:高速状态下的实时定位不丢失,队形变化不能累积误差,个体出现偏差时能自我恢复、不连锁失效……一旦某一台机器人出现定位漂移或节奏延迟,整个表演都会被放大暴露。 武术集群表演队多机协同要求高 正如一位网友在看完节目后感叹:“这绝对是今晚最炸裂最震撼的一幕。”从国内到海外,从普通观众到工程师评论,一个现象被反复提及——每一次站在这种高风险、高曝光节点上的,都是宇树。 更多问题随之浮现: 如果只是“会表演”,为什么不是更多公司轮流登场?如果只是“炫技”,为什么敢一次次放在极限验证场景里? 这大概率不是偶然,而是能力选择的结果。 二、一年时间,进化的核心不在动作,而在能力结构 在过去一年时间里,宇树的变化在哪? 如果只盯着动作看,宇树这一年的变化已经很惊人:去年还是偏节奏化、低速协同的秧歌舞,今年已经进化到高速穿插、强动态、复杂器械的武术表演。 2025年春晚《秧BOT》表演 2026年春晚《武BOT》表演 实质变化则发生在更底层的能力结构中:运动控制从“执行”走向“适应”,定位与感知成为“底层保险”。 这意味着什么?去年机器人跳舞,更多是在执行预设好的轨迹程序,环境稍有变化就可能“翻车”;而今年机器人练武,已经能够在动态行进中自主保持精准定位与队形一致性,即使不小心跑偏,也能全自主快速恢复。 这种进化背后,据相关负责人称,是宇树在算法、硬件与系统层面的全面升级。 算法层面,团队升级强化学习框架,利用大量特技获取数据预先训练一个特技动作模型,使其充分具备多样运动能力与抗干扰能力,从而大幅提升后续动作模型微调的效率,发挥预训练模型“见多识广”的能力。 同时其采用融合感知的定位技术,有效解决高速运动中的定位漂移问题,实现厘米级落点控制。 硬件层面,其针对性提升核心关节电机功率密度,优化肢体结构强度,并升级灵巧手与缓冲部件,以支撑高爆发、高冲击的动态动作。 正是凭借升级后的灵巧手,支持器械抓持与外力扰动下的柔顺控制,机器人才能稳稳接住棍子、完成帅气的搓棍动作,甚至在棍术对练中应对来自人类的外力冲击。 柔顺控制帮机器人更好地控制双节棍 系统层面,其全新开发集群自动控制系统,实现从动作编排、队形设计到多机实时协同调度的全流程自动化。数十台机器人在复杂队形变换与高难度动作中实现毫秒级同步,并具备自我监测与异常识别恢复能力。 这意味着机器人已经具备了完整的感知—决策—执行闭环,并能在复杂、高动态场景中长期稳定运行。这种能力结构的进化,才是《武BOT》相比《秧BOT》最本质的区别。 三、表演还是干活?本质上是能力层级之争 当然,围绕春晚机器人的讨论中,一个常见观点始终存在:相比舞台表演,机器人走下舞台去“干活”是不是更有价值? 为什么这个问题每年都会出现?因为行业、公众、投资人都在期待机器人尽快进入真实生产与服务场景,对“舞台展示”有一种天然的警惕——怕的是“只会表演,不能干活”。 但这个判断往往忽略了一个前提:所有复杂任务的起点,都是对身体的稳定控制。 如果机器人无法在高速、不确定环境中完成移动与协同,那么再丰富的任务设想,也难以成立。正如王兴兴在近期接受采访时所说:“运动能力是智能机器人的先决必要条件,必须先能站稳、跑稳,才能谈得上去干活。” 传统的所谓“干活机器人”演示更多集中在更多集中在相对静态、结构化场景中的取放操作,实际上实现这些能力的同行不在少数。而宇树机器人展示的是在高速、不确定环境下的运动规划与控制,其技术复杂度远超固定点位的取货任务。 事实上,宇树在《武BOT》节目中攻克的技术难题,恰恰是机器人在真实世界中“干活”所必备的底层能力。 比如,节目中的多机协同系统,解决了数十台机器人在复杂队形下的实时调度与动作同步问题,可迁移至工业场景中的多机器人协同巡检、仓储分拣、装配流水线等任务。 再比如,节目中的柔顺操作与外力干扰应对,在棍法及夺棍环节中,机器人需在抓握器械的同时应对来自人类的外力冲击,这项技术可直接应用于精密装配、重物搬运、家政服务等场景,帮助机器人在操作过程中实时感知并适应外部扰动。 节目中的相对定位与环境交互,跑酷翻桌动作要求机器人在高速运动中精准判断自身与障碍物的相对位置,并动态调整步态完成跨越,这一能力与机器人向货架码放货物、在狭小空间穿行、上下楼梯等任务需求高度一致。 “如果机器人能在复杂的队形变化和快速移动中完成武术表演,意味着未来它们在其他场景工作时,它的稳定性会更胜一筹,也能让人更安心。”王兴兴说。 结语:顶流背后,2026年预计出货1-2万台 回到最初的问题:为什么每次把机器人推到这种全民、全球关注节点的,都是宇树? 这或许因为,当技术成熟度、工程稳定性和规模化能力开始同时显现,所谓的“顶流”,其实只是水到渠成的结果。 一方面,宇树持续选择在最公开、最严苛的环境中验证最具挑战性的技术;另一方面,在舞台之外,宇树在2025年已经做到了人形机器人全球年销量第一。这意味着舞台上的每一次亮相,背后都有大规模量产和工程化交付的能力在托底。据王兴兴最新透露,今年全世界人形机器人的出货量至少达到几万台,宇树科技的目标出货量在1-2万台左右。 这条已经被验证可行的人形机器人演进路径,正在把行业整体推向一个新的阶段。正如王兴兴所说:“让机器人真正能推动人类生产力的进步,这是我们共同的目标。”
苹果终于亮出了下一个“iPhone”
新年伊始,科技圈热闹非凡,一波未平,数波并起 先是春晚舞台上,具身智能机器人和 SeeDance 轮番秀肌肉,看得人眼花缭乱;苹果也在除夕当晚不声不响地发出了春季发布会邀请函。 当大家还在讨论 iPhone 17e 的时候,彭博社又抛出一枚重磅炸弹,苹果正在加速一系列 AI 硬件,具体为以下三种: 智能眼镜 N50:代号 N50,对标 Meta Ray-Ban 但要更高端。无显示屏,靠扬声器、麦克风和双摄像头实现功能——一颗拍照录像,一颗专门用于计算机视觉。计划 2027 年发售; 可穿戴吊坠:AirTag 大小,可夹衣服或挂项链上。配备低分辨率摄像头和麦克风,被内部员工称为 iPhone 的「眼睛和耳朵」,依赖手机进行大部分处理; 摄像头 AirPods:在现有 AirPods 基础上加入摄像头,主要为 AI 提供视觉信息,而非拍摄照片视频。进展最快,最早可能今年亮相。 ▲ 假想图由 Gemini 生成 这也或许是蒂姆·库克职业生涯谢幕前,最后一笔投注,不同于我们熟悉的「烧掉旧世界」的激进,这位供应链出身的掌舵者,在站好最后一班岗时,选择了一条更符合苹果财报逻辑的演进路线:拥抱 AI 硬件,但绝不背刺作为万亿市值基石的 iPhone。 这场新旧交替的博弈,库克没有做选择题,他全都要。 摄像头,为 AI 而生 如果你足够敏锐,已经从刚刚的简短介绍里捕捉到了关键词——三款设备,都有摄像头。 如果用传统消费电子的逻辑看,iPhone 上的摄像头已经基本满足人们的拍照需求,但对于不需要搞摄影的 AI 硬件来说,摄像头的角色发生了质的转变——这是被动且持续接收信息的「输入」入口。 不需要高画质,200 万像素甚至更低就够了,甚至可以是红外成像,毕竟 AI 不需要欣赏风景,只要能通过这些低像素画面,计算出空间定位与物体识别,就能正常运转。 ▲ 假想图由 Gemini 生成 与之呼应的是,苹果在这方面的技术积累。2025 年夏天,苹果开源了一个能在 iPhone 上直接运行的高效视觉语言模型——FastVLM。 这个模型并不像其他 AI 巨头那样「刷分」,而是朝着小型化、端侧化、低延迟的方向做了极致优化,将视觉处理所需的 Token 降到传统 ViT 的 1/16,极大降低延迟,可以根据摄像头捕捉到的内容实时给出判断,反应速度非常快。 可以预料到的是,苹果在视觉为核心的 AI 硬件上,将会利用 FastVLM 及其衍生模型技术。 但在如何消化视觉数据流时,苹果给出的方案,是对 Humane Ai Pin、Rabbit R1 等「先烈」的一次无情嘲讽。 Ai Pin 的死因,可以总结为一种脱离物理规律、使用场景,以及用户接受程度的「狂妄」,在一个火柴盒大小的设备里,硬塞进高通骁龙芯片和复杂的散热系统,还有一整套摄像头和投影仪。 小马拉大车的结果显而易见:高喊着取代 iPhone 的 Ai Pin 续航崩盘、发热烫人,最终随着服务停止、公司出售,产品也沦为昂贵且无用的电子垃圾。 苹果吸取教训,选择了一套让 AI 硬件们各司其职,且相对务实的「共生」路线。 ▲ 苹果曾申请过一款脑电波 AirPods 专利 在苹果的这套架构里,这三款硬件不需要高性能芯片,不需要大电池。它们存在的目的纯粹且单一:全感官的数据采集。 通过独立且轻便的小型设备,源源不断地获取外界信息。毕竟人类又不可能 24 小时举着手机,所以为了获取这些连续不断的视觉流,摄像头必须抢占人体感知器官的「高地」——也就是我们的耳朵和鼻梁。 这方面,国内的光帆科技(Lightwear)其实已经给出了先行版本——他们在耳机上装了一对摄像头,连续不间断地捕捉现实世界,但这些信息在 AI 使用之后便「阅后即焚」,既保证可用性,又具备私密性——这套方案,是不是也有点果味儿? ▲ Lightwear AI 耳机 关于这款未来耳机,可以查看爱范儿此前的报道:耳机上长出摄像头,但它不是给人用的|AI 器物志 在苹果的这套 AI 新硬件体系中,三款硬件分工明确: 代号 N50 的高端智能眼镜占据了「第一视角(FPV)」,看你所看,负责锁定和记录你当下的注意力; 带摄像头的 AirPods 利用头动即眼动的特性,负责扫描侧向视觉,补全了环境感知;AI 挂饰则像一只挂在胸口的「眼睛」,负责广角记录,构建长期记忆。 ▲ 图|Tim's Guide 它们就像是 iPhone 伸出来的三根触角,疯狂地从物理世界汲取信息。 同时,苹果也能在低像素高密度的信息流中,实施一贯的隐私策略:「阅后即焚」。 所有摄像头捕捉的数据,仅供 AI 在完成环境理解,不留任何存档。这样一来,既喂饱了 AI,又最大程度地消解了用户对隐私的顾虑。 苹果的魔法:语音无声输入 从信息输入角度分析,我们大致能了解三款 AI 硬件的设计思路和运行方式,但想要这套 AI 硬件系统好用,还有一个比技术更棘手、甚至可以说决定生死的难题——交互。 现有 AI 硬件的最大痛点在于社交压力,在嘈杂的地铁里,对着胸口的 Ai Pin 大喊「嘿,帮我查查我该在哪个站下车」,无论 AI 回答有多智能,都十足社死。 由此,我甚至可以得出一个暴论:只要还需要小声自言自语,AI 硬件就很难走出小圈子。 ▲ 先烈 Ai Pin 苹果显然深知这种喃喃自语带来的社交压力,它的解决方案是「说话无声」——就在上个月底,苹果斥资 20 亿美元,快速而隐秘地收购了以色列公司 Q.ai, 将这项技术纳入囊中。 这笔收购,在十年前就已埋下线索。 Q.ai 的创始人 Aviad Maizels,这个名字你可能陌生,但自 iPhone X 开始使用的 Face ID,就源自他创立的上一家公司 PrimeSense。 Q.ai 的核心技术是肌电图(EMG)与微表情分析,这听起来像赛博朋克小说里的设定,但原理其实非常生物学:当我们想要说话时,大脑会向发声器官发送神经电信号。即使我们最终压低声音、甚至根本没有发出声音,喉咙、下颌和脸颊的肌肉依然会产生微弱的生物电波动。 Q.ai 的算法,可以捕捉并翻译这些沉默的波动。 ▲ 用于情感识别的面部肌电图信号采集 用户不需要像呼叫 Siri 那样字正腔圆,甚至不需要张开嘴,只需要在喉咙里「默读」指令,眼镜腿上的传感器就能精准识别。 没有声音,没有动作。在旁人眼中,你只是短暂地停顿,便获取了信息。 正如多点触控让 iPhone 告别物理键盘,Q.ai 的无声交互,赋予了无屏设备高带宽、高隐私的输入能力。 如果类比 iPhone 的成功经验,这可能就是 AI 硬件的「多点触控」。 让所有人在十年后,仍然需要 iPhone 在去年闹得轰轰烈烈的 Google 反垄断案当中,有一封电子邮件证据,来自苹果的互联网服务高级副总裁 Eddy Cue 放过的狠话: 十年后,可能我们都不需要 iPhone 了。 ▲Eddy Cue 与 Tim Cook 这句话曾被无数媒体解读为苹果的自我革命,也侧面传递出在 AI 浪潮里苹果的焦虑,但随着 N50 眼镜、挂饰和 AI AirPods 的拼图逐渐浮出水面,苹果的新思路也昭然若揭—— 将 AI 硬件这个新品类,牢牢绑住 iPhone 这个生态完善、用户成熟的大船。 若是讲得更明白些,我们可以试着将苹果的路子分为两个步骤:体验升级,然后拆解。 2016 年秋天,苹果拿掉 iPhone 7 的 3.5mm 接口,随之而来的,是 AirPods 的横空出世。苹果通过无线连接、入耳检测、空间音频等技术,对听觉体验进行了一波大升级,虽然 EarPods 没有被立刻抛弃,还能正常使用,但实际上,你需要购买 AirPods,才能获得升级后的体验。 「听」这个动作,被成功地从手机上剥离,独立成了一条数十亿美元的配件产线。 Apple Watch 走的也是这条路——将健康与通知两个功能一边升级、一边剥离出来,用户需要购买额外的配件,才能解锁 iPhone 更全面的体验。 现在,AI 硬件,苹果也打算这么干了。 按照苹果的设想,未来你的设备可能是这样的: 手腕:Apple Watch(健康监控 + 通知中心); 耳朵:AirPods(听觉增强+语音助理); 鼻梁:N50 眼镜(视觉增强+隐形屏幕); 胸口:挂饰(全天候记录仪+记忆外挂); 口袋:iPhone(算力核心+网关)。 放眼这个星球,目前最有可能在你身上同时塞进五个电子设备的公司,恐怕也只有苹果一家。 这也就不难理解,为什么 OpenAI CEO Sam Altman 会在纽约的一场午餐会上,抛开 Google,直言不讳地警告: 大家别盯着 Google 了,OpenAI 真正的宿敌,是苹果。 当然,即便这个爆料传闻完全属实,我们也不会真的把这些硬件全都一股脑戴在身上。你会发现,眼镜、耳机、挂饰都有摄像头,它们的能力和角色大体相同。 苹果对于可穿戴设备的定义,从来不会让它们存在感过于强烈,而是以无感的方式存在。 但无论如何,如果这条路跑通,苹果最恐怖的「生态护城河」将顺势流淌进 AI 时代,与之相随的,是数十亿用户的肌肉记忆和操作习惯。这对于任何一家致力于打造 AI 硬件的厂家来说,都是致命威胁。 在这场 AI 硬件的寒武纪大爆发中,苹果看似反应迟钝,也确实在大模型、AI 落地上表现不太让人满意,可如果这套阳谋最终跑通,Eddy Cue 当年的那句豪言,或许真的需要微调几个字,才能跟上苹果的野心: 十年后,我们可能不止需要 iPhone 了。
15000mAh的手机,今年见!
虽然今年才刚开始没多久,但手机厂商之间的激烈竞争,其实已经拉开了帷幕。 首先是在「超大杯」新机上。 OPPO Find X9 Ultra和vivo X300 Ultra都已陆续入网。 此外还有—— iPhone 17e、小米17 Max、vivo X300 Max和OPPO Find X9s Pro等小迭代新机... 新机密集程度之高,能让换机党们看个爽。 不过机哥也知道。 常规迭代的新机,机友们早就看腻了。 无非就是换性能更强的芯片、给更大的电池、升级影像硬件,最后在软件上给几个独占功能。 最终定价能不大涨,咱们都得谢天谢地了。 所以今天咱们看点更有意思的。 根据机哥摸到的爆料来看。 今年很有可能会出现几台,定位鲜明、打法差异化拉满的新机。 首先是被厂商们放弃了多年,如今有望回归的—— 7英寸超大屏手机 众所周知,这个世界就是一个巨大的轮回。 时尚圈如此,科技圈亦是如此。 这几年厂商们卷完曲面卷直屏、卷完大屏卷小屏。 那么问题来了。 卷完小屏之后,又会是什么呢? 答案是——7英寸超大屏手机。 根据爆料显示,目前有两家厂商在评估7英寸巨屏新机。 现在主流大屏手机的尺寸,在6.7英寸-6.85英寸之间。 考虑到用户手感、整体屏幕显示比例和重量,这样的尺寸已经被厂商们沿用了好几年。 再加上最近两年。 6.3英寸小屏和6.59英寸中屏手机也越来越多。 厂商们觉得差异化不好做,咱们用户又觉得换机新鲜感不足。 赛季版本强势,也就自然而然变成了「7英寸巨屏手机」。 不过真要说起来,其实去年华子就从口袋里掏出了7英寸的Mate 70 Air。 机哥当时上手玩过。 虽然从数值上看,7英寸其实比6.83英寸大不了多少。 但实际感受下来,这大屏无论是打游戏。 看漫画。 亦或是横屏看视频。 那种沉浸感都比常规大屏手机来得更强。 So,要是能有更多大厂能加入7英寸巨屏赛道。 机哥还是挺喜闻乐见的。 不过爆料也说得很清楚,后续那两台7英寸巨屏手机,定位都不是影像商务,而是主打性能、续航和超大屏。 机哥觉得。 只要能给到次旗舰芯片、9000mAh到10000mAh电池、以及针对超大屏而做的小窗或分屏软件适配。 愿意买单的用户,应该还是不少的。 15000mAh电池手机 最近这两年,手机电池就跟觉醒了似的。 左脚踏右脚原地起飞,电池容量每隔几个月就能迎来一波大涨。 卷到现在,咱们已经能买到电池10000mAh的性能手机。 很多机友也因此好奇—— “10000mAh左右,就是手机电池容量的尽头了么?” 机哥摸了一轮相关爆料后。 只能说,一切才刚开始。 机友们都有看到。 前阵子荣耀WIN系列带着10000mAh发布,在塞入超大电池的同时,还把周边配置补得整整齐齐。 甚至连散热风扇都给安排上了。 如果稍微轻装上阵一些。 理论上能给电池,预留更多提升空间。 去年真我发布的超大电池概念机,就是一个很好的例子。 15000mAh的电池容量、8.89mm的整体厚度、210g的重量,机身三围数值完全在咱们接受范围内。 再结合最新爆料。 机哥看到,有手机厂商已经在捣鼓12000mAh手机的量产方案。 同时还在测试15000mAh电池。 如果进展顺利,最快今年咱们就能买到。 总之电池技术肯定还在进步,量产只是时间问题。 剩下的关键就在于,大伙愿不愿意为超大容量电池,牺牲影像、散热和整机手感。 性能LCD手机 咱们回顾这两年所发布的国产手机,也会发现一个很残酷的事实。 LCD性能手机已经凉了。 即便是当初喊着「重铸LCD荣光」的REDMI。 也早就把超窄OLED大R角直屏,当成了新机的销量密码和版本答案。 而且你说是厂商没有持久投入的定力吧。 其实也不全对。 毕竟厂商们或多或少做过调研,最后发现——黑边粗、机身厚,且无法使用息屏显示和屏幕指纹的LCD手机。 不仅不受主流消费者待见,实际销量更是路边一条。 以至于在2025年到2026年初。 咱们都买不到一台,性能过得去的LCD新机。 但这时候就说“LCD彻底为奴”,定论就下得有点太早了。 因为有爆料显示。 联想moto这边开订了两块1.5K LCD屏,一块6.7-6.8英寸,一块6.5英寸。 结合国产屏厂最新的技术迭代进展。 联想moto开订的那块高素质LCD屏,有可能是京东方的ADS Pro屏。 机哥简单过一遍参数。 6.74英寸、1.5K分辨率、支持120Hz/144Hz刷新率、446 PPI。 数值拉满的同时。 还用各种新技术解决了LCD清晰度、亮度、拖影和厚度等问题,成本肯定不会低到哪去。 如果用来做中低端机,定价又压不下去,吃力不讨好。 做全能旗舰的话,LCD屏的质感和技术特性,又支撑不起太高的价格。 思来想去,最好的打法,还是搭配次旗舰芯片,造一台LCD性能手机。 希望能在2026年,看到这机子上市吧。 磁吸镜头手机 至于磁吸镜头手机,机哥在前阵子就有跟大伙详细聊过。 根据爆料,小米在2025年MWC上,发布的「小米模块光学系统」,已经启动量产计划。 进度快的话,今年就能搭载到小米18 Ultra,或者小米MIX 5上。 机哥也简单过一遍它的技术原理。 它在硬件上,由经过魔改的小米手机,以及一枚等效35mm,光圈f/1.4,1亿像素的M43传感器的“镜头式”概念相机构成。 只需把镜头往手机背面一吸。 就能开始拍摄画质堪比M43相机的照片。 镜头负责记录数据、输出RAW文件。 然后通过自研的LaserLink技术,把RAW文件快速传到手机,让手机完成计算摄影修图。 总的来说。 这套技术既有相机镜头的力大砖飞,又有手机计算摄影的庞大算力。 属于是手机党看得爽,摄影党喷不了。 至于手机本体的影像方案。 大概率是旗舰中杯的影像水平,一个高动态主摄搭配3倍长焦满足日用。 需要专业创作时,再把镜头磁吸上去,把手机变成小米相机。 这样一来,手机也无需牺牲核心配置。 轻薄、大电池、散热、重量全部满足到位。 如果以上新机,能在今年内全部亮相。 那机哥觉得,2026年很有可能是近三年来,新机最有意思的一年。
性能持平价格大降80%,Anthropic新模型杀疯了
距离ClaudeOpus 4.6的发布仅过去12天,Anthropic就发布了新的中档模型Claude Sonnet 4.6。 这次发布的核心不在于技术突破本身,而在于它以低得多的价格,达到了与竞品齐平的性能。。 Sonnet 4.6的定价保持在每百万token输入3美元、输出15美元,与前代 Sonnet 4.5相同。 然而在多项基准测试中,Sonnet 4.6接近甚至超越了价格高出五倍的Opus 4.6。 Anthropic表示,便宜不一定就没有好货。 当然了,在一些关键的测试里,仍然还是Opus 4.6领先。 具体表现如何呢? 01 Sonnet 4.6究竟有多惊艳? 在SWE-bench Verified这个衡量真实软件编码能力的基准测试中,Sonnet 4.6得分79.6%,几乎追平Opus 4.6的 80.8%,同时略微领先于OpenAI的GPT-5.2。 在代理式金融分析任务中,Sonnet 4.6以63.3%的成绩领先所有竞争对手,包括Opus 4.6的60.1%和GPT-5.2的59.0%。 在办公任务的GDPval-AA Elo评分中,Sonnet 4.6达到 1633 分,超过Opus 4.6的1606分和GPT-5.2的1462分。 过去需要旗舰模型才能完成的任务,现在用Sonnet 4.6这种中档模型就能做到。 对于每天需要处理数百万token的企业来说,这意味着可以大幅节省成本。 Opus 4.6仍然在某些高复杂度领域保持优势。 在终端编码任务Terminal-Bench 2.0中,Opus 4.6得分65.4%,Sonnet 4.6为59.1%。 在代理式搜索BrowseComp中,Opus 4.6达到84.0%, Sonnet 4.6为74.7%。 在新颖问题解决测试ARC-AGI-2中,Opus 4.6得分68.8%,Sonnet 4.6为58.3%。 这些差距表明,对于前沿研究和需要顶级准确度的场景,Opus 4.6仍是最好的模型。但对于大多数生产环境,这个差距已经缩小到可以接受的程度。 Sonnet 4.6最引人注目的进步出现在计算机使用能力上。在OSWorld-Verified基准测试中,它得分72.5%,高于Sonnet 4.5的61.4%,远超GPT-5.2的38.2%。 计算机使用能力指的是AI像人类一样操作计算机的能力,通过鼠标点击、键盘输入来与软件交互,而不依赖API接口。 前一阵引发热议的豆包手机助手,其底层的UI-TARS模型,就是在OSWorld基准上完成了权威测试,取得了47.5%的成绩。 豆包手机助手的表现是非常出色的,已经能够完成除了支付以外所有的操作。 那么以此作为判断依据,进而不难推测,Sonnet 4.6的实际表现将会非常惊艳。 这项能力之所以重要,是因为它打开了最广泛的企业应用场景。 一个能够直接看屏幕并与之交互的模型,可以在不构建定制连接器的情况下,自动操作将所有可交互的系统。 Anthropic在发布时提到,早期用户已经看到接近人类水平的表现,能够完成复杂的电子表格任务和多步骤网页表单。 保险科技公司Pace的CEO贾米·考夫(Jamie Cuffe)表示,Sonnet 4.6在他们复杂的保险计算机使用基准测试中达到94%的成绩,是所有测试过的Claude模型中最高的。 他说:“它以我们之前未见过的方式推理失败原因并自我纠正。” 恶意行为者可能在网页中隐藏指令来劫持模型,这被称为提示注入攻击。 Anthropic在公告中表示,Sonnet 4.6在抵御此类攻击方面比Sonnet 4.5有重大改进。 对于部署需要浏览网页和与外部系统交互的代理的企业来说,这种安全防护是必须的。 02 价格只要五分之一 那么Sonnet 4.6到底有多便宜呢? 外媒报道,一些早期的Sonnet 4.6用户表示,原本企业需要花五倍的钱才能买到的能力,现在用Sonnet 4.6就能获得差不多的效果。 这意味着运营成本可能直接降到原来的五分之一,而工作质量几乎不受影响。 数据分析平台Hex Technologies的CTO,同时也是Anthropic联合创始人、首席产品官的凯特琳-科尔格罗夫 (Caitlin Colgrove)说,公司正在将大部分流量迁移到Sonnet 4.6。 她指出通过自适应思考和高努力模式(high effort mode),“除了最困难的分析任务外,我们在所有任务上都看到了Opus级别的性能,且配置更高效灵活。以Sonnet的价格,这将降低工作成本。” 云存储公司Box的CTO本·喀什(Ben Kus)表示,Sonnet 4.6在真实企业文档的重度推理问答中,比Sonnet 4.5的表现提高了15个百分点。 Sonnet 4.6配备了100万token的超长上下文窗口,以容纳整个代码库、法律文件或数十篇研究论文。 Anthropic声称模型能够在整个上下文中有效推理,并通过Vending-Bench Arena这个基准测试来表现出Sonnet 4.6的有效推理。 Vending-Bench Arena测试的是模型运营模拟企业的能力,不同AI模型相互竞争以获得最大利润。 在没有人类提示的情况下,Sonnet 4.6发展出一种新颖策略:在前十个模拟月份中大量投资产能,支出远超竞争对手,然后在最后阶段急转弯专注于盈利能力。 模型在365天模拟结束时的余额约为5700美元,而Sonnet 4.5约为2100美元。 03 Anthropic开启印度市场 Anthropic正处于上市前最关键的阶段,因此他们不止要发布模型,还要借着模型去扩张业务。 在Sonnet 4.6发布当天,印度IT巨头Infosys宣布与Anthropic合作,构建企业级agent,将Claude模型集成到Infosys的Topaz AI平台中,服务于银行、电信和制造业。 与此同时,Anthropic也在印度的班加罗尔开设了首个印度办事处,印度现在占全球Claude使用量的约6%,仅次于美国。 Anthropic的进步也导致了最近几天软件股的大规模抛售,就连业绩大涨的微软,也经历了股价暴跌。 投资者越来越担心AI对这些业务的潜在颠覆,Sonnet 4.6可能会加剧这种不安的氛围。 也不知道是不是Anthropic飘了,他们还将其免费层级默认升级到了Sonnet 4.6,开发者可以通过Claude API直接调用。
不要只盯着宇树翻跟头了,这些工作才是具身智能的春晚
作者|郭海惟 邮箱|guohaiwei@pingwest.com 当十几台G1在舞台“下腰”打醉拳的时候,你会觉得宇树好像真的已经把表演这件事情卷到头了。 真的很难想象,羊年还能有什么比马年更能震撼人心的表演。哪怕是让机器人在舞台上跳芭蕾(一个比后空翻难无数倍的动作),难道就能给普通人比今天更强的视觉震撼了吗?恐怕也很难说。 如果说今天具身存在一个“结构性”的矛盾,大概有就是“日益增长的姿态控制能力与硬件水平”和“落地场景不平衡、不充分”的发展之间的矛盾。前者带来了人民对具身日益增长的期待,而后者则让人民感到困惑。 对于很多人来说,机器人的“技能树”好像点错了——它明明该帮我们家务,却代替我们诗词歌赋、载歌载舞。 而这种技能树错配背后,其实有第二个“结构性”的矛盾:即“日益增长的AI智能诉求”与“智能泛化能力不平衡、不充分”的发展之间的矛盾。前者让行业的所有从业者都对AGI的明天充满光明信心,而后者则让从业者感到现金流的贫穷。 而所谓一切场景与智能的问题,其实本质都是数据与智能的关系。 在具身领域尤其如此。 而具身的数据问题又可以分成两种: 一个是数据规模带来智能难以scaling;一个是现有智能情况下,样本的学习和泛化能力。 多位具身行业资深人士曾对硅星人表示,具身数据问题属于“可解”的,但解决方案本质大概率都会是“线性”的,可能会随着投入的增加获得更多的加速,但“指数型”爆炸的可能性不高。 究其原因,如果想要通过仿真数据实现高度的通用泛化,生产超高质量仿真数据背后的难度,可能反而高于具身大脑泛化的难度,有点“鸡生蛋、蛋生鸡”悖论的味道。而互联网数据理论上可行,但不够精准,“画马难画骨”,对齐难度大。 目前行业里普遍构想的一个技术循环是: 数据采集→数据训练模型→模型进入场景→场景生成数据→更好的数据→更强的模型→更多的场景和数据 这样慢慢可以把数据转起来,等数据多了,具身就可以进入GPT时刻了,尽管实际过程可能很缓慢。但即便如此,很多模型依然会卡死在第三步,导致数据飞轮迟迟无法转起来。导致一些实际的技术循环其实是: 数据采集→数据训练模型→泛化能力卡死在sim to real上→等待更多的数据 不过最近两个月来,开始陆续有更多的团队加入少样本甚至零样本的泛化能力的路线探索上来,通过不同的路径去解决的智能突破和泛化能力的问题,堪比具身的马年学术春晚: χ0是香港科技大学团队在2月10日正式发布的技术成果。 此前这个团队在12月份的时候曾经拿χ0做了24个小时的“家务直播”,主要是抓取、叠、挂衣服,展现了很强大的柔性物体处理能力。 根据后来发布的技术报告显示,χ0可以在很少样本(20小时人类视频)、低算力(8张A100)的情况下做出很好的泛化能力。而且根据他们自己的说法,相比于π0.5,χ0的成功率能提升250%。 正如如这篇论文的标题,“通过化解分布不一致性,实现资源受限下的鲁棒操控”。 χ0展现的是柔性物体能力,但其实想要解决的是模型学习的鲁棒性难题。而它的解决方案其实就是通过解决在不同模块的数据分布对齐问题。 比如,过去训练出来的模型内参数分布和环境反馈的分布是不同的,就会导致智能的鲁棒性受损。而他们就希望在各个环节上找到这些分布差异,然后对齐它——他们最后选择从训练分布(Ptrain)、模型分布(Qmodel)以及部署分布(Ptest)三个角度出发,从而让流程的各个不同阶段都能实现高效对齐。 https://arxiv.org/pdf/2602.09021 LingBot-VA是蚂蚁灵波在1月30日官宣的技术成果,官方将它称为具身世界模型,首创了自回归视频-动作世界建模框架。也是第一个将世界模型直接控制真机操作的研究成果。 而在此之前,蚂蚁灵波还发布了LingBot-World开源视频生成世界模型,做到了将近 10 分钟的无损稳定生成。 与χ0一样,LingBot-VA展现了更好的鲁棒性: 在 LIBERO 和 RoboTwin 等主流基准测试中,分别以 98.5% 和 92%+ 的成功率大幅领先π0.5等现有模型。在针对具身控制中常见的“长时漂移”难题,复杂任务成功率超过 98%。 同时也能实现较少样本下的泛化能力: 一个场景仅需 30~50 条演示数据即可完成适配。 但与χ0不同的是,LingBot-VA团队一开始就选择了一个在语义层面具备较高鲁棒性的自回归世界模型策略。他们的逻辑有点像在模型内置了一个预测未来的大脑。本质就是用一段视频去预测下一段视频的状态。而当模型知道下一段视频流中的状态时,便可以反推并解码成具体的执行动作。 这样一来,由于视频与动作之间存在明确的时间和逻辑关系,便自然就构成了很明确的物理现实世界中的因果关系。所以这个技术成果被命名为:“面向机器人控制的因果世界建模”。 这套方案绕过了VLA常出现的表征纠缠问题,将动作、视频预测、场景执行情况,直接形成了相互映射的关系。而且在视频生成模型中,天然会具备一定的世界模型知识,因此获得了更好的执行效果。 https://github.com/Robbyant/lingbot-va/blob/main/LingBot_VA_paper.pdf DreamZero是英伟达团队在2月份发布的技术论文,定位世界动作模型(WAM)。 DreamZero比LingBot-VA晚发了十天左右,但思路上与LingBot-VA同为世界模型落地真机的路线,因此在一些技术思路上也很相似。而且Lingbo-VAt搭配LingBot-World一起发布,而与DreamZero同期发布的还有DreamDojo的通用机器人世界模型。 这两个团队在技术审美和产品发布的逻辑节奏上如此相似,可以说目前在世界模型的探索上,分别都是东西半球的先行者,也相当程度上确认了这条技术路线的可行性。 他们都强调世界模型在运动控制中的作用,强调通过世界模型预测而非简单堆砌数据的重要性,以及受益于世界模型的技术路线,DreamZero也呈现了较好的泛化性。 官方表示,DreamZero甚至在一些模型从来没有见过的场景中,DreamZero也已经可以实现0样本泛化。而为了着重强调这一点,他们甚至把自己的技术报告直接叫做,“世界动作模型就是0样本泛化的策略”(World Action Models are Zero-shot Policies ) 最核心区别在于,LingBot采用了自回归为主干的策略,而DreamZero则采用了以扩散模型直接作为主干的策略。此外,作为各自模型未来的基础设施,DreamDojo的核心是闭源的,而LingBot-World则是完全开源的。 https://dreamzero0.github.io/ 押注“非线性”增长的物理世界 过去的具身技术路线正在受到越来越多的挑战。 一方面,如本文开头所说,LLM成功的路径依赖让具身产业长期患有数据饥渴症。而数据规模短时间难以爆发式增长,就导致具身的智能缺乏像LLM那样指数级增长的手段; 另一方面,其实以VLA为代表的技术路线,本身也在面临更多的质疑。越来越多人开始质疑VLA是否可以很好的完成动作操控,是否有能力更好地泛化并突破Sim to real gap的魔咒。 而面对这种困局,不同的人想到的解决方案是不同的,也很难在短期达成共识。 以χ0这类研究更像是通过不断升级过去的架构能力,从而在原有的路径上解决问题;而LingBot-VA、DreamZero这样的产品,则是寻求一种革命性的范式创新。 今天一个行业内逐步清晰的共识是:如果具身大脑的能力要摆脱数据贫血和泛化瓶颈的地心引力,从而复刻LLM的传奇,那就必须有一些新的技术创新。要么,我们在数据层面上大幅突破;要么在架构上另辟蹊径。 而像VA、DreamZero这样的工作显然是后者,而他们能给我们的启事是: 如果要在具身复刻LLM的scaling law奇迹,它未必是要通过平移scaling law的方式实现的,也可能是借一个更好的架构来获得原本在LLM就已经具备的知识能力。 蚂蚁灵波首席科学家沈宇军在接受采访时表示: LingBot-VA和LingBot-World的思考其实是“一套技术体系的不同侧重”,双方会耦合地非常深,底层的数据引擎、代码框架和优化方法,都高度共通。 所以,沈宇军的思路可能就是要绕过具身的scaling瓶颈,重新去审视和依托新的大模型能力,建设新的具身底层的智能基础设施。 从这个角度来说,蚂蚁灵波和英伟达可谓具身世界模型中“拓荒者”的角色,未来也不排除会有更多的像英伟达和蚂蚁这样的超级玩家加入。但随着中美AI进展生态的不同,未来英伟达会逐渐形成自己的生态,而蚂蚁灵波则会积极引领全球的开源世界模型生态。 但他们的目标都是一致的: 具身不一定就必须要按部就班,物理AI也值得一次爆炸式增长的尝试。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。