EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
华尔街日报:AI聊天机器人或与精神疾病存在关联
OpenAI正改进ChatGPT以应对心理健康问题 凤凰网科技讯 北京时间12月28日,据《华尔街日报》报道,顶尖精神科医生越来越一致地认为,AI聊天机器人的使用可能与精神病病例存在关联。 过去九个月里,这些专家已接诊或查阅了数十名患者的病历。这些患者在与AI工具进行长时间、充满妄想的对话后出现了相关症状。 “这项技术可能不会让人产生妄想,但当患者把幻想当作自己的现实告诉计算机时,计算机会将其当成事实接受并进行反馈,因此在妄想的循环中起了推波助澜的作用。”加州大学旧金山分校的精神科医生基思·坂田(Keith Sakata)表示。坂田已治疗了12名因AI诱发精神病而住院的患者,另有3名在门诊接受治疗。 自今年春季以来,已出现数十例可能与AI存在关联的病例。这些患者在与OpenAI的ChatGPT和其他聊天机器人进行长时间的AI对话后出现妄想性精神病。有多人死于自杀,而且至少发生了一起谋杀案。 这些事件引发了一系列非正常死亡诉讼。随着《华尔街日报》持续报道这些悲剧, 医生和学者一直在记录和研究导致这些悲剧的现象。 OpenAI发言人对此表示:“我们持续改进ChatGPT的训练,使其能够识别并回应心理或情绪困扰的迹象,缓和对话并引导人们寻求现实世界的支持。我们也在不断强化ChatGPT在敏感时刻的回应,并与心理健康临床医生紧密合作。” 包括Character.AI在内的其他聊天机器人制造商也已承认,他们的产品会加剧心理健康问题。这家角色扮演聊天机器人开发商去年曾被一名自杀未成年用户的家属起诉,近日已禁止青少年使用其聊天机器人。 虽然大多数使用聊天机器人的人并不会出现心理健康问题,但这些AI伴侣的广泛使用已足以引起医生的担忧。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
研究:YouTube向新用户展示的视频中超20%是“AI垃圾内容”
IT之家 12 月 28 日消息,研究发现,在 YouTube 算法推荐给新用户的视频中,超过 20% 都属于“AI 垃圾内容(AI slop)”—— 这类由人工智能生成的低质内容,创作目的纯粹是为了获取浏览量。 视频编辑公司 Kapwing 对全球 1.5 万个热门 YouTube 频道(涵盖各国排名前 100 的频道)展开调研,结果显示其中 278 个频道只发布 AI 垃圾内容。 据估算,这些 AI 垃圾内容频道累计收获超 630 亿次播放量和 2.21 亿名订阅者,每年的收入约达 1.17 亿美元(IT之家注:现汇率约合 8.22 亿元人民币)。 研究人员还专门注册了一个全新的 YouTube 账号,发现该账号首页推荐的前 500 条视频中,有 104 条都属于 AI 垃圾内容。而这 500 条视频里,有三分之一可归为“无脑内容(brainrot)”—— 这类内容包含 AI 垃圾内容及其他以流量变现为目的的低质内容。 这些研究结果揭示了一个行业现状:如今各大社交媒体平台正被这类内容充斥,而一种“脱离语境、极易成瘾、面向全球”的全新内容时代也随之到来。 《卫报》今年的一项分析指出,在 YouTube 增长最快的频道中,近 10% 都主打 AI 垃圾内容。尽管平台一直试图遏制“虚假内容”,这类频道依然能斩获数百万次播放量。 Kapwing 所发现的这些 AI 垃圾内容频道遍布全球,其受众也来自世界各地,订阅量均达到数百万量级:在西班牙,有 2000 万人(接近全国人口的一半)关注这类热门 AI 频道;埃及的 AI 频道订阅量达 1800 万,美国为 1450 万,巴西则有 1350 万。 本次研究中播放量最高的频道“Bandar Apna Dost”总部位于印度,目前累计播放量已突破 24 亿次。该频道主打一只拟人化恒河猴,以及一个以“绿巨人”为原型的肌肉角色的冒险故事 —— 这个角色会与恶魔搏斗,还会驾驶番茄造型的直升机出行。Kapwing 估算,该频道的年收入最高可达 425 万美元(现汇率约合 2984.7 万元人民币)。 科技与数字权益研究员罗希尼・拉克沙内表示,“Bandar Apna Dost”的走红,很可能源于其剧情的荒诞感、充斥的极度男性化套路,以及完全没有连贯情节的特点 —— 这让新观众可以轻松看懂,无需了解前情。 总部位于新加坡的频道“Pouty Frenchie”累计播放量达 20 亿次,其目标受众显然是儿童。频道内容围绕一只法国斗牛犬的冒险展开,比如开车前往糖果森林、品尝水晶寿司等,视频的背景音乐大多是孩童的欢笑声。Kapwing 估算,该频道年收入近 400 万美元(现汇率约合 2809.2 万元人民币)。而总部位于美国的“Cuentos Facinantes”同样以儿童为目标受众,主打卡通故事内容,目前拥有 665 万名订阅者,是本次研究中订阅量最高的频道。 与此同时,总部位于巴基斯坦的频道“The AI World”则发布了大量由 AI 生成的巴基斯坦特大洪灾短视频,标题多为《穷苦人家》《贫困家庭》《洪水厨房》等。许多视频都配上了名为《助眠舒缓雨声、雷声与闪电氛围音》的背景音乐,该频道目前累计播放量达 13 亿次。 考虑到 YouTube 平台上本就海量的内容,很难精准判断这些 AI 垃圾内容频道的实际影响力。平台从未公开过年度总播放量数据,也未披露过其中 AI 内容的占比。 但在这些糖果森林与灾难场景交织的怪异视频背后,一个半结构化、规模持续扩大的产业正在悄然崛起 —— 无数从业者正试图借助 AI 工具,挖掘全球头部社交媒体平台的流量变现潜力。 长期关注 AI 垃圾内容领域的记者马克斯・里德表示:“在电报、WhatsApp、Discord 等社交平台及各类论坛上,有大批从业者在交流经验技巧、兜售相关课程,教人们如何制作足以吸引流量、实现变现的垃圾内容。他们会划分所谓的‘细分领域’。我最近就注意到一个:专门制作高压锅在炉灶上爆炸的 AI 视频。” 里德指出,尽管 AI 垃圾内容创作者遍布全球,但其中许多人都来自英语国家 —— 这些国家的互联网普及率较高,且人均收入水平低于他们在 YouTube 上的预期收益,“这类创作者大多来自中等收入国家,比如乌克兰、印度、肯尼亚、尼日利亚,巴西也有不少,越南同样榜上有名。这些地区的网络环境相对自由,人们可以便捷地访问各类社交媒体平台。” 不过,成为一名 AI 垃圾内容创作者并非易事。里德称,一方面,YouTube 和 Meta 的创作者计划从未明确公开过内容变现的支付对象及具体分成标准;另一方面,AI 垃圾内容行业的“骗局”层出不穷 —— 很多人打着“传授爆款内容制作秘籍”的旗号售卖课程,其赚得的利润甚至远超 AI 垃圾内容的创作者本身。 但至少对一部分人而言,这是一份赖以谋生的工作。此外,尽管高压锅爆炸这类博眼球的新题材层出不穷,但在 AI 垃圾内容的赛道上,决定成败的关键并非人类的创意,而是 Meta 和 YouTube 平台上负责内容分发的算法。 里德说:“从本质上来说,这些平台就是巨型的 A/B 测试机器。几乎所有你能想到的内容题材,在 Facebook 上都能找到先例。因此,问题的核心在于:如何找到那些已经被验证可行的内容方向,然后将其规模化复制?如何批量产出 10 条同类型的爆款视频?” 一位 YouTube 发言人表示:“生成式人工智能只是一种工具,和其他工具一样,它既可以用来创作优质内容,也可能催生低质内容。我们始终致力于为用户推荐高质量内容,无论这些内容的创作方式如何。所有上传至 YouTube 的内容都必须遵守我们的社区准则,一旦发现违规内容,我们会立即予以移除。”
华人一作!Meta等复刻AlphaZero神话,AI甩开人类自修成神
新智元报道 编辑:元宇 好困 编程界的AlphaZero时刻,终于来了? 当年,AlphaZero抛弃人类棋谱,仅凭「左右互搏」便参透了超越千年的棋道。 而今天,AI程序员的致命伤,恰恰就在于它们太像「人」了—— 靠学习人类代码长大的AI,注定无法突破人类的平庸。 就在最近,来自Meta、UIUC和CMU的研究团队,凭借最新成果Self-play SWE-RL(SSR),正在试图复刻AlphaZero的神话—— 抛弃人类教师,拒绝模仿。 论文地址:https://arxiv.org/pdf/2512.18552 只要给AI一个代码库,让它分饰「破坏者」与「修复者」进行死斗。 在这场无需人类插手的自我博弈中,一种真正的、超越人类经验的编程奇迹,正在诞生。 被「喂养」的AI与人类数据的天花板 从Devin到OpenDevin,再到各大厂内部的代码助手,它们确实能帮程序员干不少脏活累活。 但这里有一个隐形的瓶颈。 目前主流的训练方法,无论是SWE-RL还是DeepSWE,本质上都是在教AI「模仿」。 这种依赖人类知识的模式有三个致命伤: 数据不够用:高质量的、带测试用例、带详细描述的Bug修复数据,其实非常稀缺。 质量不可靠:人类写的issue经常含糊不清,测试用例也不一定完美,这导致训练信号充满了噪声。 天花板太低:如果AI只是模仿人类,它顶多变成一个平庸的初级程序员。 这也是为什么论文把它称作通向超级智能的一道根本性障碍: 一旦训练信号必须由人类提供,你就很难想象它能无限扩展到「开放式、自我进化」的层级。 核心玩法 代码沙盒里的「搏击俱乐部」 SSR的核心理念非常简单,却又极其精妙:自博弈(Self-Play)。 在这个系统中,同一个LLM被赋予了两个截然不同、相互对抗的角色。 角色一 破坏者(Bug注入智能体) 它的任务不是写代码,而是搞破坏。 给它一个正常的开源项目(比如一个Python库),它需要潜入进去,研究代码逻辑,然后制造一个Bug。 但这个破坏者不能随便乱来(比如删掉所有文件),它需要生成一套完整的「作案工具包」(Artifacts): bug_inject.diff :这是真正的破坏补丁,把代码改坏。 test_script.sh :一个能运行测试的脚本,证明Bug确实存在。 test_files.txt :指定哪些测试文件是用来验证这个Bug的。 test_parser.py :一个解析器,用来把测试结果翻译成机器能读懂的JSON格式。 test_weaken.diff :它会修改或删除现有的测试用例,让Bug在当前的测试套件下不报错。 在SSR中,缺陷生成是一项由破坏者智能体执行的任务,该智能体利用工具与执行环境交互以生成缺陷工件,并进一步验证其一致性后提供给修复者智能体。 一个优秀的破坏者智能体的关键特性在于其能够生成多样化的缺陷,以捕捉真实软件开发中的复杂性,从而在广泛的软件调试与工程场景中训练修复者智能体。 角色二 修复者(Bug解决智能体) 当破坏者完成工作后,轮到修复者登场了。 修复者面对的是一个被注入了Bug,且测试被「弱化」了的代码库。 修复者拿到的任务非常具有挑战性,它看不到那个原始的Bug是怎么注入的,它必须像一个侦探一样,通过阅读代码、运行测试、分析报错,最终写出一个修复补丁(Fix Patch)。 通过破坏者和修复者两种模型角色的对抗,可以让模型实现闭环进化。 让魔法打败魔法 如何保证AI不「瞎编」? 如果你让AI随便生成Bug,它大概率会产生幻觉,为此SSR设计了一套如同安检般严格的一致性验证(Consistency Verification)流程。 一个合格的Bug工件,必须通过以下所有关卡: 存在性检查:引用的测试文件,原仓库要有; 解析器检查:Python解析器要能读懂测试输出; 脚本有效性:在没改坏代码之前,测试脚本要跑得通; Bug范围控制:改动的文件数量要适当,符合设定的难度。 Bug有效性(关键):注入Bug后,原本通过的测试必须变失败。如果注入了Bug测试还通过,说明Bug根本没生效。 掩盖有效性:应用了「掩盖补丁」后,原本失败的测试必须变通过,证明成功欺骗了测试套件。 最精彩的一招 逆向变异测试 逆向变异测试(Inverse Mutation Testing),是一个为了验证Bug质量而发明的新概念。 传统的变异测试是改乱代码看测试能不能发现。 而逆向变异测试刚好反过来,把Bug涉及的文件逐个恢复成原样。 如果恢复某个文件后,失败的测试变通过了,说明这个文件确实是Bug的起因。 如果恢复了文件测试还是有问题,说明这个文件跟Bug没关系。 这一步确保了AI生成的每一个改动都是必要的。 如何制造一个「完美」的Bug? 如果「破坏者」只是简单地把x=1改成x=0,那「修复者」学不到任何东西。 为了让AI变得更聪明,研究团队探索了几种极具创意的Bug注入策略。 策略A 直接注入(Direct Injection) 告诉AI:「去,搞个Bug出来」,这是最笨的方法。 结果不出所料,AI经常就在代码里随便改个数字或符号。 这种Bug太肤浅,修复者一眼就能看穿,训练效果最差。 策略B 暴力删除(Removal-only) 告诉AI:「把这块核心功能的代码删了!」 这逼迫修复者必须根据上下文和剩余的测试代码,重新实现这部分功能。 如此一来,能极大地锻炼AI的代码重构和理解能力。 策略C 历史回滚(History Rollback) 告诉AI:「去翻翻以前的提交记录,把代码回滚到某个旧版本。」 因为代码库的历史往往充满了真实的Bug和功能的演进。 让AI面对过去的代码状态,相当于让它重新经历一次项目演化的过程。这种生成的Bug最自然,最具实战意义。 实验证明,「删除策略」和「历史回滚」混合使用,效果最好。这既保证了难度,又保证了真实性。 终极杀招 高阶Bug 如果修复者尝试修复Bug但失败了,SSR认为这也可以「废物再回收利用」。 修复者失败的代码,往往是一个半成品——它可能修好了一部分,但引入了新问题。这不就是一个更复杂、更隐蔽的Bug吗? 系统会将这个「失败的修复」作为新的Bug状态,再次扔给修复者。 这种多轮次、分层级的故障模式,极大地丰富了训练数据的维度。 残酷的奖励机制与对抗博弈 在强化学习中,奖励函数是指挥棒。 SSR的奖励设计充满了一种「微妙的平衡感」。 对于修复者,奖励很简单:全对得+1分,否则-1分。成王败寇。 但对于破坏者,这就很有趣了。 如果破坏者生成的Bug太简单,修复者每次都能修好(解决率s=1),破坏者得不到高分。 如果Bug太难,根本修不好(解决率s=0),破坏者会被惩罚(因为它可能生成了逻辑矛盾的死局)。 SSR采用了一个基于解决率s的公式: 其中,s∈[0,1]是解决率(solver成功修复bug的比例),α∈(0,1)是一个超参数,用于控制对退化解决率的惩罚强度,在实验中设置为0.8。 它的意思是:最好的Bug,是那些让修复者感到棘手、通过率不高不低、处于「能力边界」上的Bug。 这迫使破坏者不断提升难度,正好卡在修复者「跳一跳够得着」的地方,从而推动双方共同进化。 战果揭晓 AI真的变强了吗? 研究团队使用了Code World Model(CWM)的32B模型作为底座,在512个H100 GPU上进行了训练。 他们在两个权威榜单上进行了测试: SWE-bench Verified:经过人工验证的真实GitHub issue集合。 SWE-Bench Pro:更复杂、更企业级的问题集合。 竞争对手是基于同样模型架构、同样环境镜像,但使用「人类数据」(Human Data)训练出来的基准模型。 所谓人类数据基准,就是用传统的「Issue描述+测试用例」方式训练的。 结果令人振奋: SSR完胜:在整个训练轨迹中,SSR的表现始终高于「人类数据」基准。 分数提升:在SWE-bench Verified上提升了10.4%,在SWE-Bench Pro上提升了7.8%。 零样本泛化:SSR在训练时从未见过任何自然语言描述的Issue,它只看过代码和测试。但在测试时,它却能完美处理带有Issue描述的任务。这说明它学到的不是「做题技巧」,而是真正的「编程内功」。 测试结果显示,随着训练步数的增加,SSR的能力稳步上升,而没有出现过拟合或崩溃,证明了自博弈产生的「课程」是持续有效的。 通向超级智能的最后一块拼图 SSR的出现,意味着我们终于找到了一条摆脱「数据饥渴」的路径。 以前我们认为,要想AI写好代码,必须有无数的人类程序员贡献代码和修Bug的记录。 现在SSR告诉我们:只要有代码库(Raw Code)就够了。 当然,SSR还只是第一步。 它目前的验证还主要依赖单元测试,还没法处理那种跨越数月的大型重构任务。 但它指明了方向: 超智能软件系统的诞生,可能不需要人类作为老师,只需要人类的代码作为战场。 作者简介 Yuxiang Wei Yuxiang Wei Yuxiang Wei是伊利诺伊大学厄巴纳-香槟分校(UIUC)计算机科学系的博士生,由Lingming Zhang教授指导。 他同时在Meta FAIR担任兼职研究员,与Sida Wang、Daniel Fried等人合作,致力于推进大型语言模型(LLM)在代码智能方面的应用。 Zhiqing Sun Zhiqing Sun Zhiqing Sun是Meta超级智能实验室(MSL)TBD Lab的AI研究科学家,专注于训练大型语言模型(LLM)用于深度研究、代理开发和复杂任务。 此前,他在OpenAI的后训练团队担任研究科学家,并曾在AllenNLP和MIT-IBM Watson AI Lab实习。 Zhiqing Sun于2025年2月在卡内基梅隆大学语言技术研究所获得计算机科学博士学位,并在北京大学获得计算机科学专业荣誉学士学位。 David Zhang David Zhang David Zhang是Meta基础AI研究(FAIR)巴黎实验室的研究科学家,专攻使用LLM的代码生成机器学习和深度学习技术。 David Zhang拥有阿姆斯特丹大学机器学习博士学位、慕尼黑工业大学计算机科学硕士和学士学位。 Lingming Zhang Lingming Zhang Lingming Zhang是伊利诺伊大学厄巴纳-香槟分校(UIUC)计算机科学系的副教授,隶属于Grainger工程学院。 他的研究融合软件工程、编程语言、形式方法和机器学习,重点关注基于LLM的软件测试、分析、修复和合成。 Sida Wang Sida Wang Sida Wang是Meta基础AI研究(FAIR)西雅图实验室的研究科学家,专注于自然语言处理、机器学习和代码大型语言模型(LLM)。 此前,他在普林斯顿大学和高等研究院(IAS)担任研究讲师,并于2017年在斯坦福大学获得计算机科学博士学位(由Chris Manning和Percy Liang联合指导)。 他持有多伦多大学应用科学学士学位,曾在Geoffrey Hinton指导下研究胶囊网络。
国足缺席世界杯,但中国大模型们集体参赛
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 咱就是说啊,这届世界杯,真的太有看头了。 虽然国足是无缘了,但咱们中国大模型们竟然要集体参赛! 参赛要干什么? 进行全球首次人机预测大战。 这就是联想集团,这个FIFA(国际足联)的官方技术合作伙伴,在2025联想天禧AI生态伙伴大会上突然宣布要搞的事情——AlphaGoal预测杯。 这一次,国产大模型集体站在同一个擂台上不再是关起门来做奥数题、在沙箱里跑代码,而是让这些拥有千亿、万亿参数的大脑,去预测那个充满了汗水、草皮、误判、绝杀,以及无数个“这球都能进?!”的真实足球世界。 而且,不光是大模型在玩。 根据赛制,普通球迷和开发者的AI Agent也能下场,直接跟这些顶尖大模型同台竞技预测。 正如资深足球评论员刘建宏给出的评价: 这可能会是历史上第一次全民参与的AI预测大赛。它不仅是技术的较量,更有可能触发一场将足球从观看变为参与的体验革命。 AlphaGoal,或许将是继AlphaGo下围棋之后,AI从做题家走向预言家的关键一步。 8家中国大模型,争夺下一个“章鱼保罗” 对于资深球迷来说,2010年南非世界杯的记忆,除了呜呜祖拉的噪音,大概就是那条神准的德国章鱼保罗。 哪怕你平时不看球,大概也知道这只软体动物当年的统治力:8猜8中,胜率100%。 但在AI时代,我们还要靠章鱼的直觉吗? 这正是本次AlphaGoal预测杯最核心的看点: 中国AI八大金刚,试图用硅基智能的算力,挑战碳基生物(包括人类专家、老球迷和章鱼)的直觉。 咱们先来看看首发阵容。 联想这次攒的局,含金量极高。首批加入的这8家,名单里的每一家,单拎出来都是能在各大榜单上霸榜的存在: 百度文心一言:国内最早布局、知识图谱最厚实的老大哥; 腾讯混元:背靠庞大的社交与游戏生态,对人的数据理解独步天下; 商汤:视觉起家,在多模态处理方面有着夯实的基本功; 科大讯飞:逻辑思维缜密,擅长从纷繁复杂的语音和文本中提取关键信息; Kimi(月之暗面)、MiniMax、阶跃星辰:AI时代的新贵,在多模态和拟人交互上各有绝活。 据说,还有海外大模型也在打探这个比赛的消息。这些国内外主流AI大模型平时在跑分榜上你追我赶,现在直接被联想天禧拉到了绿茵场的场边。 阵容看罢,接下来的问题是,怎么预测? 这可不是简单的“我猜A队赢”。虽然具体的赛制细节还在打磨,但我们可以预见的是,大模型预测足球,本质上是一场全维度的信息战。 传统的球迷预测,靠的是经验(这队我有感情)、玄学(这队球衣颜色克对手)或者简单的历史战绩。 而到了大模型这里,靠的是全知视角。 过去50年两队的所有交手记录; 每位首发球员近期的跑动距离、传球成功率、甚至伤病恢复情况; 当天的天气湿度对草皮摩擦力的影响; 主裁判的判罚习惯数据(是爱掏黄牌,还是鼓励对抗?); 甚至社交媒体上两队球迷的士气值分析…… 这8家模型,各有各的性格。 也许逻辑性强的模型会告诉你:“根据贝叶斯概率,A队胜率55%”; 而擅长拟人交互的模型可能会说:“虽然数据看好A队,但我‘感觉’B队的当家球星今天这股复仇的劲头,能创造奇迹。” 分歧,本身就是最大的看点。 就像人类专家争得面红耳赤一样,AI之间的意见不合,恰恰体现了AI认知的多样性。这不再是标准答案的填鸭,而是不同算法权重、不同数据理解下的百家争鸣。 如果说章鱼保罗靠的是不可知的天赋,那么中国大模型军团,靠的是数据与逻辑的暴力美学。 为什么要pick世界杯? 为什么各大模型厂商,甚至联想这样的巨头,都要死磕世界杯这个场景? 说实话,之前的百模大战,大家看腻了。 过去这两年,AI圈的主旋律就是卷:卷参数规模,从百亿卷到万亿;卷榜单跑分,刷爆MMLU、C-Eval;卷谁的奥数题做得好,谁的代码写得溜。 技术确实在进步,但这种竞争,本质上是小圈子里的封闭测试。 就像一群高智商的学霸关在屋子里做卷子,分考得再高,大家也只知道它是个好的做题家。 这正是联想发起天禧AlphaGoal预测杯这一波反向操作的精髓所在。 联想集团没有选择继续在那个封闭的屋子里出题,而是直接把门踹开,指着外面那个充满不确定性、荷尔蒙与混乱的真实世界说:“来,预测这个。” 这不仅仅是一个趣味活动,而是在举办一场属于AI的模型世界杯。 它的核心野心在于,推动AI从单纯处理文本、生成图像,甚至是只能在特定环境里动的具身智能,走向一个真正能够感知、理解并预测真实世界的世界模型。 足球比赛,就是一个微缩的真实世界。 它是一个典型的高熵、非线性系统。蝴蝶效应在这里时刻上演:一个后卫早餐吃坏了肚子,可能导致他在第89分钟的一个解围失误,进而导致丢球,最后改变冠军归属。 如果AI能在这个系统中,通过学习历史数据、实时变量(天气、伤病、士气)以及复杂的博弈关系,准确预测出未来的走向,那就证明它不仅懂语言,更懂因果;不仅有逻辑,更有对物理世界的洞察。 足球评论员刘建宏说,这会是足球历史上第一次全民AI竞猜,未来会彻底改变足球这项运动从单纯的球迷“观看”,变成全民“参与”,意义重大。 对AI发展来说,意义同样重大。我们知道,人类历史上有三次著名的人机对决。 第一战:1997年,深蓝 vs 卡斯帕罗夫。 这是逻辑计算的胜利。国际象棋规则明确,棋盘有限。IBM的深蓝靠的是恐怖的穷举能力,它没有思考,它只是算得快。它证明了在规则明确的封闭系统里,机器能战胜人类。 第二战:2016年,AlphaGo vs 李世石。 这是深度学习的奇迹。围棋的变化数超过了宇宙原子总数,穷举失效了。AlphaGo学会了直觉和大局观。但请注意,围棋依然是一个信息完全公开、规则绝对死板的封闭系统。棋盘之外,没有风,没有雨,没有裁判的情绪波动。 第三战:2024年,AlphaFold颠覆生物学。 这是科学发现的加速器,AI开始预测蛋白质结构,它开始解决自然界的难题。 所以,当联想把这8家大模型拉上这个舞台时,出的题目其实是: AI,你准备好走出温室,面对这个脏乱差、充满噪音、毫无逻辑可讲的真实世界了吗? 这次,面对全球几十亿人关注的体育赛事,面对每一个不可预知的进球,大模型们必须证明: 我不光会做题,我还能理解这个复杂的世界。 或许从联想天禧AlphaGoal预测杯开始,AI的世界杯,来了! 如果中国的AI模型,能在这个高噪声环境下,准确率哪怕比章鱼保罗高那么一点点,或者给出的预测逻辑能让人类专家拍案叫绝,那都是AI从弱人工智能向通用人工智能迈进的一大步。 因为它开始尝试理解因果,而不仅仅是相关。 联想的反向操作 在这场热闹的人机大战背后,还有一个角色的站位非常有意思。 那就是组局者——联想集团。 在当前的AI圈子里,大家都在忙着找钉子。 大模型厂商在卷基座,恨不得把参数堆到天上去; 手机厂商在卷系统,把AI塞进每一个语音助手里。 而联想,做了一个反向操作。 作为FIFA的官方技术合作伙伴,联想这次不仅提供了服务器、工作站等硬家伙来支持赛事运营,更重要的是,它把自己变成了一个生态组织者。 怎么理解? 联想不想再做一个大模型去跟这8家卷,而是说:你们模型都很好,但你们需要触达用户,需要落地场景。 来,我这有场子。 这个场子,正是联想天禧AI平台。 联想天禧AI生态目前的月活跃用户已经突破2.8亿。其中,70%是18-34岁的年轻群体(大学生和职场人)。 这意味着,这里有最爱尝鲜、最爱互动的核心用户。 在此次大会上,天禧AI升级到了3.5版本,并且提出了一个更科幻的概念——AI Twin(智能双胞胎)。 它不再是一个简单的助手,而是“思你所想,行你所愿”的队友。 在这个平台上,你的AI Agent不仅能帮你工作,还能帮你看球。 PC全球第一、平板全球第三……联想手里握着通往真实世界的钥匙。 它横跨了Windows、Android等多个生态,覆盖了从办公桌到客厅,从口袋到数据中心的全部场景。 当其他厂商试图用一个豆包手机或者AI Pin来统合世界时,联想选择用天禧智能体系统把这些顶尖的大模型能力,无缝地接入到每一个联想设备中。 或许,AlphaGoal预测杯的模式,才是“AI+”的正确打开方式。 AI不应该高高在上地指导我们生活,它应该变成像世界杯一样,全民参与、全民狂欢的基础设施。 联想大舞台,有AI你就来。
陶哲轩亲自曝光:AI破解数学难题,竟全是“抄”的?
新智元报道 编辑:YHluck 【新智元导读】数学大神陶哲轩近期发现,AI声称破解的Erdos难题,实则是多年前已被人类解决但被遗忘的「旧闻」。这揭示了AI当前的核心能力并非从0创新,而是利用超强算力扫描人类文献的「长尾黑洞」,摘取那些被我们忽视的「低垂果实」。 最近几周,数学界就发生了几起这样让人「哭笑不得」但又极具深意的事件。 几个大名鼎鼎的Erdos 问题(数学怪才保罗·厄尔多斯提出的悬赏问题,解决它们是数学家的荣耀),被最新的人工智能工具「自主」解决了。 全网本来准备欢呼AI又一次超越人类,结果反转来了。 不对啊!这些问题,早在几年前、甚至十几年前的冷门文献里,就已经被人解决过了! 这事儿就有意思了。 AI 以为自己搞了原创新发,结果是在搞「考古」。 但这事绝不仅仅是一个「AI闹乌龙」的笑话。 陶哲轩在Mastodon上对此事发表了看法。 他透过这个看似「翻车」的现象,精准地指出了当下AI进化的真正逻辑。 今天,我们就来扒一扒陶哲轩眼中的AI真相:它到底是在思考,还是在作弊? 陶哲轩的质疑: 是「偷看答案」还是「捡软柿子」? 事情发生后,大部分人的第一反应是:数据污染。 这很好理解。 现在的AI模型(比如GPT-4、Claude等)都是吃着海量互联网数据长大的。 大家觉得,这AI肯定是「作弊」了。 它可能在训练数据里偷偷看过那些冷门论文的答案,把它编码在权重里。 等到你问它的时候,它不是「推导」出来的,而是像背课文一样「背」出来的。 但在陶哲轩看来,事情没那么简单。 他敏锐地指出一个疑点:其他的深度研究类AI工具,并没有发现这些联系。 如果仅仅是数据污染,仅仅是死记硬背,那应该是所有看过这份数据的模型都能答上来。 但事实是,有的行,有的不行。 于是,陶哲轩抛出了一个极具洞察力的理论:「低垂果实」)。 他在文中写道: 我的理论是,人工智能工具现在变得足够强大,可以解决 Erdos 问题数据库中列为开放问题的「最易摘取的果实」。 什么叫「最易摘取的果实」? 陶哲轩解释得很清楚:「那些使用相当标准的技术、通过简单证明就能解决的问题」。 重点来了!这里有一个巨大的认知反差: 这类「简单问题」,恰恰也是人类数学文献中的「盲区」。 因为证明过程相对简单,当年的数学家可能觉得「这也没啥了不起的」,就没有大张旗鼓地宣传,或者随手发在了一个不知名的期刊角落里。 这就导致了一个极其尴尬的现状: 这些问题在著名的「Erdos问题数据库」里,依然显示为「Open(未解决)」状态。 但实际上,它们在几十年前就已经被某位无名学者解决了。 这就是陶哲轩看穿的真相: AI 并没有像数学家那样发明了全新的数学大厦,它做的事情更像是「捡漏」。 它利用强大的算力与模式识别能力,把那些「名义上未解决,实际上已被解决,但被人类遗忘在角落」的问题,重新挖掘了出来。 这就完美解释了为什么AI能解决这些问题,且这些问题恰好都已经在文献里有了答案。 不是因为AI偷看了答案,而是因为这些题目本身就是「易碎品」,AI现在的智商刚好够得着它们。 AI的「超强扫雷」能力 陶哲轩的这个发现,实际上给全人类的知识管理体系一记耳光。 我们以为科学大厦是层层累进的,实际上,科学文献里充满了「长尾」。 成千上万的论文躺在数据库里吃灰,无数的微小进展因为没有大佬站台而被淹没。 这就是陶哲轩所说的「未被充分研究的问题」。 在相关讨论中,有一位网友提出了一个玄幻且精准假设,甚至被陶哲轩的读者们热议:「信息黑洞」。 这些解决方案的信息,其实早已被编码在旧的神经网络权重里,或者存在于浩瀚的互联网数据中。 但是,它们不是以「教科书」那样结构化的方式存在的,而是「非局域化」的。 就像黑洞吞噬了信息,信息还在那,但已经乱码了。 对于人类来说,想要从这堆乱码里找到「这个问题在1998年被解决过」的线索,计算成本太高了,根本做不到。 你不可能为了解决一个问题,去读完过去50年的所有论文。 但AI能做到。 陶哲轩在文中极其乐观地预测: 「这种工具能力的进步是不可小觑的,这为自动扫描数学文献中那些未被充分研究的长尾问题带来了良好的前景。」 这正是AI目前的核心价值:它不是一个无中生有的「创作者」,它是一个拥有超强算力的「超级图书管理员」。 短期内,我们将看到大量此类事件发生: AI宣称解决了问题,然后人类发现这只是把旧知识重新打包。 但千万别嘲笑它! 这恰恰证明了AI填补了人类知识体系中最大的漏洞——遗忘。 AI正在把那些散落在历史尘埃里的珍珠,一颗颗捡回来。 陶哲轩引发的思考 看到这里,你可能会问: 这跟我们普通人有什么关系?我又不做数学题。 在陶哲轩这篇内容的评论区里,有一个网友留言: 以前,想要发现「黎曼猜想」和「物理学」之间的联系,你需要是顶级高校数学博士,需要读遍过去50年的顶级期刊,外加极好的运气。 但现在,因为AI能够处理那些「被扰乱的信息」,能够扫描那些「长尾知识」。 就有发现「金矿」的机会。 还有网友评论道:「AI到底是在推理,还是在产生幻觉?」 有人回答得一针见血:「它在逼近理性,但方式非常低效且容易产生幻觉,因为它没有基于逻辑推理形式。」 陶哲轩通过这次事件其实在暗示我们: AI负责在「垃圾堆」里找线索,人类负责验证这些线索是否正确。 陶哲轩的这次「打假」行动,表面看是AI的尴尬,实则是AI的军功章。 他让我们看清了AI现阶段最强大的能力,不是「写诗作画」,而是「知识考古」。 正如陶哲轩所预测的:这种趋势在短期内会持续。 AI将继续在没有专家监督的情况下,横扫那些名义上的「开放问题」。 这是一个「捡漏」的时代。 以前,捡漏靠运气,靠家学渊源; 现在,捡漏靠AI,靠谁能更早地理解「长尾扫描」的价值。
奥特曼摊牌:别再比模型跑分了,苹果才是真宿敌
新智元报道 编辑:倾倾 【新智元导读】别被 2025 年的模型乱战骗了!这可能是一个巨大的误判。 LifeArchitect在上帝视角复盘:当下的喧嚣不过是爆发前的「基建期」。 到2026年,从6T规模的Grok-5到消失在后台的GPT-6,全行业正迎来一场蓄谋已久的「集体解锁」。 真正的换代不再是变聪明,而是像iPhone焊死iOS那样,让AI彻底成为文明的基础设施。 AI圈最不缺的就是「尖叫声」。 模型发布的频率越来越密,名字一个比一个响,参数一个比一个吓人。 每隔几周,就会有人跳出来宣布:「下一代来了,世界又要变了!」 这种信息轰炸,带来一种错觉,仿佛AI革命的巨浪已经拍到了脑门上。 但,这种直觉,可能并不准确。 2025 年的所有喧嚣,像是一场蓄谋已久的「战前储备」。 巨头们在等,他们在等一个足以掀翻棋盘的「奇点」。 于是,全球所有的顶尖大脑,不约而同地盯着同一个年份——2026。 别被「平静」迷惑:AI正在进行代际蓄力 如果顺着LifeArchitect的时间线往回看,从Transformer架构横空出世,到GPT-3、ChatGPT、GPT-4,再到如今多模态模型的爆发,很容易发现AI的进步从来不是匀速直线运动。 2017年的Transformer是一次结构性的发明,像是在荒原上划燃了第一根火柴; 2020年的GPT-3震惊世界,那时的火光十分耀眼。 2022年底,ChatGPT彻底改变了人和机器的对话方式; 而2023年的GPT-4,则第一次让通用能力在专业测试和真实应用中显得足够可靠。 这些里程碑之间,根本不存在「平滑过渡」,而是典型的「突刺式跃迁」。 但也正因如此,过去的几年其实更像是一个疯狂的「炼金术时代」。 大厂在实验室里反复点燃火焰,向世界证明它能烧、能亮、能取暖。 但,他们还没解决那个最核心的难题: 如何让这团火,稳定地接入现实世界的大型生产系统? 如何让AI持续、低成本、高可靠地运转,而不只是发布会里的Demo? 从2020到2024年,全球AI巨头联手解决的只是「可不可以」的问题;而接下来的路,是要解决它「能不能长期运行」。 2025,异常密集却「没有终局」 如果说2020–2024年是突刺式的爆发,那么2025年反而显得有些反常。 这一年,模型发布异常密集。从年初引爆行业的DeepSeek R1,到年中定下基调的GPT-5,再到年底压轴的Claude 4.5和Gemini 3 Pro。 每一个名字单拎出来都足够响亮。但把它们摆在同一张时间轴上,会发现一个微妙的事实:方向高度一致,范式几乎没有分叉。 这是巨头间心照不宣的「集体补课」,每个玩家都在各自的赛道上,把AI迈向现实世界前的最后几块短板补齐: 在推理层面,OpenAI通过o1、o3系列到GPT-5.1的迭代,试图解决AI说话「不过脑子」的问题,让逻辑链路变得真正可控。 在可靠性上,Anthropic通过密集发布的Claude 3.7到4.5系列,所有动作都在强化「系统一致性」和「安全底线」,确立了AI助手的专业标准。 在感知层面,Google从Gemini 2.5到3 Pro,谷歌利用原生多模态优势,让AI彻底理解物理世界,而不仅仅是处理文本信息。 在工程效率上,DeepSeek用R1证明了同样的能力可以「更便宜」,让高阶智能不再是极少数人的奢侈品。 因此,用「谁赢了」来评价2025年并不准确。 这一年的真实主题,应该是「谁没有掉队」。在下一轮巨浪打来之前,谁都不能被甩下车。 从这个角度看,2025年更像是一场大规模的基础设施建设。 道路拓宽,护栏加固,信号统一,为之后「奇迹」的出现创造条件。 2026,一场蓄谋已久的「集体解锁」 翻开 LifeArchitect那张2026预测图,你会发现一个难以忽视的巧合:几乎所有主要玩家,都在这一年的窗口期标注了「Next」。 如果只是某一家这么写,还可以说是营销噱头;但当OpenAI、Meta、Anthropic甚至百度都不约而同地指向同一个终点时,这更像是一场集体共识的公开表达。 为什么大家都在等2026? 因为真正卡住的,是一批关键节点:推理结构要能长期稳定运行,模型要能在真实任务中自我纠错,多模型之间要开始深度协同而非互相打断。 这些条件少了一个,都不足以构成真正的「换代」。 从目前的路线预测来看,2026 年前半段将出现明显的分化信号: 一是体量的终极试探。xAI计划在年初祭出拥有6T参数规模的Grok-5,试图用绝对的体量继续挤压出能力的极限边界。 另一方面是叙事的感性化。Meta给出了Avocado这样更具生活感的代号。 焦点正在从「模型有多大」,转向「模型在系统里怎么用」。 而真正的碰撞,将集中在2026年的下半年。届时,推理不再是外挂模块,稳定性不再靠人工兜底。 像GPT-6、Claude 5.5和Gemini 4这样的选手,目标只有一个:在复杂、连续的真实任务中长期运行,而不是「你问我答」的智力游戏。 当底层条件同时满足,变化自然会发生。这与谁先冲过终点线无关,而是赛道本身,终于被铺到了可以全速奔跑的状态。 不是终局,而是「换代」的开始 当模型开始被当作系统底座,而不是一个需要频繁交互的产品时,升级本身反而会变得不显眼。 它不需要频繁发声,却在每一秒钟影响着决策的流向。 用户不再关心「我在用哪一代模型」,企业也不再关心参数是否刷新纪录。 所有人的注意力将转移到另一件事上:我用的模型是否足够稳定,是否足够便宜,是否能在不中断业务的情况下长期运行。 正因如此,模型升级将从「可感知的爆炸新闻」,变成「无感的静默更新」。 就像操作系统的版本,很少有人记得具体编号,但一旦它出问题,整个数字世界都会停摆。 这也是为什么,一些看起来并不急于「刷榜」的玩家,反而在这一阶段显得更有耐心。 他们更关心的,是模型能否在真实环境中承担「长期责任」,比如处理异常、跨系统协作、在没有人工干预的情况下维持逻辑的一致性。 这种判断,并不只是推测。 在《Fortune》的一篇报道中,Sam Altman已经非常明确地给出了自己的答案。 在他看来,OpenAI长期最大的对手并不是Google或Meta,而是Apple。 Altman关注的不只是模型本身,还有下一代AI消费设备。 未来的设备不应该像今天这样,将模型和操作系统拆分售卖,而是像iPhone与iOS那样,把核心模型直接「焊死」在系统里,成为默认存在的一部分。 也正是在这一逻辑下,OpenAI拉来了Jony Ive,并给出了一个清晰的时间限制:两年内,秘密设备就绪。 如果说2025以前的竞争决定的是「谁更像智能」,那么接下来的竞争,决定的将是—— 谁的系统,更像基础设施。
硅谷豪赌2万亿!DeepSeek登顶Nature,Meta却成2025最大输家?
新智元报道 编辑:KingHZ 【新智元导读】2025年,AI从幻想到现实,AGI祛魅而ASI初现端倪。科技巨头们竞相追逐超级智能,世界正被撕裂成两个平行宇宙:AI拥抱者与旁观者。投资热潮涌动,模型能力跃升……这不仅仅是技术革命,更是人类命运的转折点。 2025年,全球AI领域风起云涌。 通用人工智能(Artificial general intelligence,AGI)开始祛魅,超级人工智能(Artificial Super Intelligence,ASI)开始登上舞台。 Anthropic高管Jack Clark警告:巨变在即,而AI将把世界撕裂为两个平行宇宙。 这一切都是一个长期发展过程的产物,是AI技术、资本、就业和生活交织变革在一起的产物。 AI模型能力跃升,但距离AGI仍有争议:研究显示,2025年AI模型在推理、多模态处理和智能体上取得显著进步。 投资热潮推动基础设施扩张:全球AI投资激增,生成AI吸引339亿美元资金,科技巨头资本支出达4000亿美元,引发了泡沫担忧和能源消耗讨论。 劳动力变革加速,机遇与挑战并存:AI正重塑职场,使用AI工具可能成为求职关键。 应用扩展到日常生活,却未彻底颠覆:AI智能体和机器人进入生产、医疗等领域,似乎提升了效率,但许多人感受到变化有限。 通用人工智能不是终点,超级智能才是起点。 当真正的AI竞赛始于通用人工智能之后! AI一年,人类千年 至今,自然界的一切智能都是生物智能,都是碳基智能。 但今年的LLM可能是人类有史以来第一次创造出的全新智能形态。 在2025年度回顾中,Karpathy直言: 2025年是我(以及我认为整个行业)首次开始以更直观的方式内化理解LLM智能的「形态」。 在推理、多模态处理和智能体上,2025年AI模型取得了显著进步,如OpenAI的o3系列和Google的Gemini 3。 虽在实际应用中仍存局限性,但AGI曙光现已成为今年行业的共识。 在一系列技术任务中,从ChatGPT到Gemini,许多世界领先的AI模型正超越人类基准线。 据斯坦福大学《2025年AI指数报告》,AI已在7项测试中超越人类基准线,这些测试衡量的任务包括: 图像分类 视觉推理 中等阅读理解 英语语言理解 多任务语言理解 竞赛级数学 博士级科学问题 目前,AI系统唯一尚未赶上人类的领域是多模态理解与推理。这项任务涉及跨多种格式和学科(如图像、图表、图解)进行处理和推理。 然而,这一差距正在迅速缩小。 MMMU基准测试,评估模型在需要大学学科知识的跨学科任务上的表现。 MMMU数据集的四大特性:(1)全面性:涵盖六个广泛学科领域与30个大学科目,包含1.15万个大学难度级别的问题;(2)图像类型高度异质:包含极其多样化的图像类型;(3)图文并茂:文本与图像交错混合,需要跨模态理解;(4)专家级感知与推理:要求具备扎根于深厚学科知识的专家级感知与推理能力。 此基准测试日益饱和: 在2023年底,谷歌Gemini的得分仅为59.4%。 到2024年,OpenAI的o1模型取得了78.2%的分数。 今年,Gemini 3 Pro在增强版MMMU-Pro上取得了89.8%的得分。 斯坦福AI指数报告显示,生成AI投资达339亿美元,同比增长18.7%。 前沿实验室每8-12周发布新模型,OpenAI的o3系列(包括o3-mini)以「先思考后回答」的推理机制脱颖而出,使用10倍token提升智能,但成本也相应增加。 谷歌的Gemini 3被誉为多模态巅峰,能处理文本、图像、视频和音频,实现深度推理。 在Reddit上,年初,关于前沿AI模型开放获取的讨论十分热烈。 DeepSeek-R1及其开源蒸馏版本主导了相关话题。不过,用户指出本地可运行的版本是蒸馏模型(8B或32B参数)而非完整的671B版本,其性能大致相当于GPT-3.5水平。 更深层的讨论焦点在于DeepSeek的开源决策——尽管据报道其实现了45倍的训练效率提升。 随后,有研究者在3B参数模型上以低于30美元的成本复现了DeepSeek-R1-Zero的强化学习训练方案。 通用人工智能测试基准ARC-AGI-1,最佳成绩超过近90%;ARC-AGI-2上,AI超过了人类平均水平。 但Yann LeCun指出,自回归LLM有局限,需更多感官数据。 总体,2025年AI从「聊天机器人」转向「智能体」,如Agentic AI,能自主规划和执行任务。 AGI决赛在未来2-3年 如果说前几年是「把模型做大」,2025年更像是「把模型落地」。 围绕代码、推理、多模态、长上下文与企业可用性,国外几家AI巨头争分夺秒,寸土必争。 关于AI未来的讨论,变得越来越宏大而真实。科技领袖们越来越多地谈及追求通用人工智能(AGI)乃至最终的超人工智能。 AGI指能在广泛任务中匹敌人类智能的AI系统,而ASI则指超越人类能力的系统。 六月,扎克伯格成立Meta超人工智能实验室,瞄准「个人超级智能」。 九月,奥特曼表示社会需为2030年前可能出现的ASI做好准备。 Anthropic现任CEO坚信,到2027年,AI将在「几乎所有领域」超越人类。 而以乐观预测著称马斯克更是断言,明年AI的智力将超越最聪明的人类。 这些科技巨头不愿错过AI浪潮。 扎克伯格称,宁愿「冒险误投数千亿美元」,也不愿在超智能时代落后。 以6320亿美元净资产位居世界首富后,马斯克告诉xAI全体员工: 若能挺过未来两到三年,xAI则有望成为AI的胜利者。 Databricks CEO等领袖认为行业已实现AGI,而DeepMind联合创始人哈萨比斯等则更谨慎,称AGI可能「在未来五到十年内」到来。 尽管时间表存在分歧,科技领袖们普遍认同一点:AI进步正在加速叠加。 这种加速肉眼可见。 一年内,OpenAI发布了约30多项新产品和重大更新: 年初:高效模型和智能体(如Operator、o3-mini); 年中:多模态和智能体工具(如Sora 2、AgentKit);推出开放权重模型(如GPT-OSS)和GPT-5; 年末:优化专业任务(如GPT-5.2系列)和创意工具(如ChatGPT Images)。 谷歌、Anthropic和xAI也各领风骚: 在年初看来宛如魔术的功能,如今已习以为常。 中国开源AI崛起 DeepSeek年度最大黑马 2025年,开源社区也热闹非凡。 围绕LLaMA、DeepSeek、Mistral以及各类大模型方案,出现了大量工程化工具链:从微调(fine-tuning)框架、推理加速、到本地部署一体化方案,门槛持续下降。 中国开源模型崛起,Llama彻底出局。 DeepSeek成为年度最大黑马。DeepSeek-R1成为历史上第一个通过同行评议的大模型,喜登Nature封面;创始人梁文锋入选Nature年度10大人物。 Mamba在初期备受关注后,逐渐淡出视野,在研究之外缺乏实际应用。 Reddit网友指出,虽然Mamba在理论上展现出潜力,但 Transformer 模型已在硬件和软件层面深度优化,使得用未经验证的架构重新训练大型模型在经济上难以证明其合理性,特别是当结果与现有模型相当或更差时。 甚至Mamba的实际性能与优化后的Transformer模型相当或更差。 成熟的Transformer软件生态系统带来了巨大的转换成本,且Mamba的固定状态内存无法选择性地检索被忽略的 token。 在计算机视觉领域,Vision Transformer是否已取代CNN的问题仍存在争议。 Reddit讨论显示,Transformer在许多任务中越来越受青睐,并在大数据集上表现出色,但CNN和混合架构在小数据集、医学影像和特定领域仍具竞争力。 Reddit网友指出ConvNeXt是强有力的替代方案,Transformer需要更多内存且难以处理可变图像分辨率,数据集质量比架构选择更重要。 为未来做好准备 在过去一年中,记者Lee Chong Ming倾听了超过50位科技领袖关于人工智能的深度讨论。 从执掌万亿级企业的巨头到押注AI未来的年轻创业者,他们的洞见揭示了AI如何重塑工作生态与未来走向。 在董事会、行业峰会与播客访谈中,除了AI在加速,还有3大最常见的观点。 1. 善用AI,否则你可能被更懂AI的人取代 英伟达CEO黄仁勋今年已多次强调: 每份工作都会受到影响,而且是立刻受到影响。这是毋庸置疑的。你不会被AI取代,但你可能会被更善于使用AI的人取代。 其他科技领袖也呼应这一观点,有人指出年轻员工可能更具优势,因为他们已习惯使用AI工具。 OpenAI的奥特曼八月在YouTube节目「Huge Conversations」中表示,虽然AI将不可避免淘汰某些岗位,但大学毕业生更有能力适应变化。 如果我现在22岁刚毕业,我会觉得自己是史上最幸运的一代。 奥特曼补充道,他更担忧年长员工将如何适应AI重塑的工作环境。 「AI教母」、斯坦福大学教授李飞飞直言,相较于学位,掌握新工具的能力更重要。 她认为,抗拒AI是职业发展的致命伤。在她的初创公司World Labs中,她不会雇佣拒绝使用AI工具的工程师。 这种转变已在日常工作中显现。 2. 软技能在AI时代更具价值 科技领袖们达成的另一共识是:AI使软技能变得更为重要。 五月,Salesforce首席未来官 Peter Schwartz告诉媒体: 最重要的技能是同理心,是与人协作的能力,而非编程知识。 有家长问我孩子该学什么,是否该成为程序员?我说「学会如何与他人合作」。 领英亚太区首席经济学家Chua Pei Ying七月也表示,她观察到:对资深员工和应届毕业生,沟通协作等软技能都日益重要。 随着AI自动化部分工作、使团队更精干,工作中的人性化部分开始愈发关键。 3. 人类必须居于AI的核心地位 许多领袖在AI加速发展中反复强调人类掌控的必要性。 微软AI负责人苏莱曼表示,超人工智能必须支持而非压制人类自主性。 他在十一月表示,团队正「试图构建人道主义的超人工智能」,并警告比人类更聪明的系统将难以控制或与人类利益对齐。 Anthropic CEO阿莫代直言AI被误用的风险。 在二月,他表示,先进AI虽能降低知识工作门槛,但风险与回报同步增长。 我们的负责任扩展政策只关注三大风险领域:AI自主性、以及化学、生物、放射性与核威胁。 这涉及可能危及数百万人生命的AI自主性严重滥用。 被誉为「AI教父」的杰弗里·辛顿八月指出,当AI系统超越人类智能时,保护人类将成为核心挑战。 我们必须确保当它们比我们更强大、更聪明时,依然在乎人类。 2025年AI虽未「颠覆一切」,但奠定基础。 Karpathy称AI跨过「英语编程」门槛。 未来,需关注人文超级智能,确保AI服务人类。无论你是从业者还是普通人,学习AI工具是关键。 这一年,AI从炒作到现实,提醒我们:技术是工具,智慧在人。
苹果应用商店有App放高利贷 苹果客服:正核查处理
快科技12月28日消息,据媒体报道,河北承德市民宫先生近日反映,他在苹果应用商店下载的一款借款App,在未经审核的情况下被“强制放款”,且资金竟来自私人账户。随后他又被引导下载一款无法在应用商店检索到的软件联系客服,整个流程令其怀疑涉嫌高利贷。 “我只是想试试,填了一下资料,没想到20多分钟后银行卡就收到一笔转账。”12月25日,宫先生回忆称,2025年12月18日下午,他在苹果应用商店下载名为“臻有钱”的借款App,提交身份证、银行卡和手机号等信息后,并未经过任何人脸识别或电话审核,款项便直接到账。 当天16时许,宫先生的银行卡收到一笔3500元转账,转账方显示为私人账户,而非任何金融机构。打开App后,他发现借款信息标明:周期10天,到期应还4970元。 “还款额远高于本金,我想立刻取消借款,但在App里根本找不到客服电话或在线客服。”宫先生表示。 涉事App的开发公司已被市场监管部门列入经营异常名录。南京江北新区管理委员会市场监督管理局工作人员解释,这意味着该公司在注册地址无法被找到,且无法取得联系。 该工作人员指出,“借款3500元,10天要还4970元,明显涉嫌高利贷”,建议向金融管理部门举报。 南京市地方金融管理局随后也回应称,当事人可通过接诉渠道进行举报,相关职能部门将依法核查。 苹果公司客服表示,已收到宫先生对该借款App的举报,目前“相关职能部门正在核查调查中”。
欧盟新规:2028年起所有充电器必须配备USB-C接口和可拆卸线缆
IT之家 12 月 28 日消息,据科技媒体 techAU 今天报道,欧盟将从 2028 年 12 月起(三年后)实施新法规,要求所有在欧盟销售的外置电源适配器都必须具备 USB-C 接口,涵盖路由器、电脑显示器、智能家居中枢等设备,旨在提供更统一的充电体验。 据报道,许多电子设备多年来一直依赖专有的“圆孔电源口”或与电源适配器永久连接的固定线缆,一旦线缆损坏或适配器丢失,整台设备往往无法继续使用,最终只能变成填埋在垃圾场的“电子垃圾”。 而新的法规不仅要求充电器采用 USB-C 接口,线缆也必须支持拆卸,这样一来,如果线缆发生损坏,用户只需要再买一根 USB-C 充电线就行。 新法规将覆盖功率最高 240W 的设备,低功耗光猫、高性能游戏显示器都包含在内,这意味着在不远的将来,一只高品质的 GaN 氮化镓充电器就能为你桌面上的所有设备供电。 同时,这一法规最早可追溯至《无线电设备指令》(RED),要求 2024 年末以后的所有智能手机、平板和相机都能使用 USB-C 接口进行充电。 而在 2026 年 4 月以后,笔记本电脑也将纳入 USB-C 接口强制要求,在 2028 年强制标准来临之前,行业还有数年时间完善 PD 快充协议。 欧盟委员会表示,新强制标准将带来显著环保收益,他们预测,到 2035 年,充电器的总体能耗将降低 3%,转换为温室气体减排后数字非常可观。新规还引入更严格的空载能耗标准,意味着充电器即使插在墙上不用,消耗的电力也将更低。 此外,欧盟还预测,到 2035 年,这些强制性标准每年将为消费者节省 1 亿欧元(IT之家注:现汇率约合 8.26 亿元人民币)。并且欧盟还将在后续推出“通用充电器”标识,帮助消费者识别合规产品,同时清晰展示充电器的最大输出功率,让消费者更快地找到合适充电器。
为什么有些产品,用得越少/越难用,反而越成功?|硬哲学
1. 十多年前开始,韩国首尔的一些街区出现了一种奇怪的垃圾桶。 按理来说,公共垃圾桶的设计目标,应该是「装得多」「好清理」「外观美」之类的。但首尔这些垃圾桶完全走向了反面,它的核心机制是称重传感器、RFID 射频。市民刷卡,盖子徐徐打开,扔完垃圾,屏幕上会显示刚才扔了多少克垃圾, 并且精准地从账户里扣钱。 资本主义又在剥削普通人了?如果你非要这么想的话,确实。 但从更大的维度来看,它用一种「斤斤计较」的方式,变相为首尔市民制造麻烦,带来不适——从而最终降低社会总体的垃圾产生量。 结果是有效的。自从普及以来,当地的厨余垃圾排放量大幅度下降,垃圾桶的使用率变低了。整个首尔市的单日食物浪费,和 2013 年相比降低了 24%。在首尔松坡区,食物回收项目负责人表示,这些垃圾桶帮助该区在六年里减少了 47000 吨食物垃圾。 图片来源:卫报 在过去,垃圾桶是沉默的容器,是消费、浪费行为的最终出口。而这种智能垃圾桶的设计,在逻辑链条上产生了某种扭曲:它故意在市民的生活中平添了「摩擦」,让你意识到垃圾多了不仅不好,而且后果与每个人有着直接的财务联系。 这种设计,让丢垃圾从无意识行为,变成了一种经济决策。 有趣的是,你会发现,在我们的身边日常生活中,还真有不少类似的产品。它们的共同逻辑是:用得越少,越成功。 这种产品设计,与我们通常在互联网行业里看到的注意力经济模式背道而驰。但在产品设计中,它确实是特定场景下追求的一种理想情况。举几个例子: Negative churn:负流失产品,即随着用户对产品的依赖加深,他们主动操作的时间反而减少。产品提供的真实价值,与使用产品的时长呈反比。 比如,用户在一个差旅应用里花了几个小时的时间,那这个 App 设计绝对出了问题;如果一次用户会话只持续了两分钟就产生订单,之后几天之内都没有再打开,那可能反而说明它是成功的。 Set-and-forget:即用即忘型产品,比如智能家居总控、净水系统。你只有在出问题或需要调整的时候才会「使用」它们。设定好就把它们忘掉,0% 交互,才是完美的成功状态。 还有许多其它细分类型,不一而足。 2. 这类用得越少越成功的产品,其实底层逻辑非常多样、有趣,令人着迷。 比如,有些产品贩卖的,是让你不再需要这个产品的「假象」,但出于种种原因(比如人性弱点),我们可能永远不会到达那个不再需要它的终点。 经典案例就是约会软件 Hinge 的核心标语:Designed to be deleted.(该公司甚至为这句话注册了商标。) 大意是:如果你一直用 Hinge,说明它没帮你找到真爱;而只有你脱单并删掉它,它才真正完成了设计的使命…… 这句口号的玩味之处在于自我否定:作为一个互联网产品,Hinge 当然需要用户留存、活跃、付费。但换个角度来看,Hinge 所贩卖的又确实是「脱单」的承诺。 如果 Hinge 真的是一个极其完美的产品,用户用了、真的都脱单了、删掉了软件,活跃数据还能看吗? 还好在现实中,人性的弱点(比如猎艳需求)足以维持 Hinge 持续获得新用户,并维持活跃度。 这太有趣了——从一条自我矛盾的广告标语中,引出产品本身充满矛盾的逻辑。 在追求速度与便捷的时代,我们会本能地厌恶障碍。但很多时候,我们需要产品来阻碍我们。 举个例子:汽车的防抱死系统 (ABS)。 在 ABS 出现之前,如果司机刹车踩到底,会导致车轮锁死,车辆反而容易失控。老司机的经验告诉我们,缓踩、点刹、力度均匀、不踩死,才是更安全的刹车方法。 而 ABS 把这些经验机械化了,在踩死刹车的时候,系统强行介入,以每秒数十次的频率进行「点刹」。 仔细一想,ABS 阻碍了人最原始的求生本能,反而换来了对汽车的有效控制力,和乘驾人员的生命安全。 再回到最一开始的垃圾箱,其中一个重要的设计要素就是「摩擦感」。 这让我想起一些工业机械的「安全装置」。它的「摩擦感」极大,甚至让人觉得麻烦——但服务的终极目标是安全。 比如在冲压、裁切机械上,工人的手容易受伤。于是工业机械上往往会有一类特定的装置:两个按钮,距离足够远,同时按下才能作业——确保工人的双手在作业时远离危险区域。 这种设计名为 Two-Hand Control,直觉上它会降低操作速度,让工人的动作受限、变得笨拙,为工作流程带来了极大的「摩擦感」,让使用机械的效率大打折扣。 但是长期来看,它通过这种摩擦确保生产安全、生命延续。如果没有道理的话,自然是不会从工业革命时代一直延续到今天,甚至发展出一套专门的设计规范的。 3. 甚至在这些「用得越少越成功」产品里,还能进一步区分出「好产品」和「坏产品」。 比如,我们会认为手机里的屏幕时间管理工具是好产品。 iOS 自带的 Screen Time,Android 的 Digital Wellbeing,通过监测屏幕使用时间、数据可视化、通知提醒,来帮助你「放下手机」,减少使用,达成降低数字依赖的最终目的。 再比如,作为普通人的我们,会认为「防流浪汉座椅」是坏产品。 这种设计的学名叫做「敌意建筑」(hostile architecture),也即:通过制造生理上的憋屈,驱赶特定人群。中间强行加入扶手、表面设计加入斜角、波浪、棱角、针尖造型,材质故意选硬的,等等。 从使用者的角度,它令人感到极度不适,是失败的产品;但从公共管理的角度,它实现了对空间使用的「负向干预」的管理目标,就是成功的。 这两种产品的区别在哪儿? 和智能垃圾桶一样,屏幕时间管理工具,设计目的是帮你建立意识。它尊重你的判断力,相信你看到数字后,会做出对自己的身体和精神更好的选择。即使你看完数字后决定继续刷手机,它也不会阻止你,因为选择权在你手上。 而防流浪汉座椅是在剥夺选择。它不管你是谁、为什么坐在这里,设计的唯一目的是让人感到不舒服。明明设计了公共座椅,却又要假设所有想躺下的人都是「问题」,然后改变设计来「解决」这个「问题」。 这就是好产品和坏产品的分水岭:前者提供信息和工具,增加意识,让人变得更好;后者制造障碍,用惩罚机制强行改变行为。 4. 「用得越少越成功」的产品,为什么会出现? 如果按照传统商业逻辑,降低留存、活跃、甚至付费的设计,都是「自杀式」的产品设计。为什么要跟钱过不去呢? 首先,有些产品诞生就不是为了赚钱。首尔的智能垃圾桶是政府项目,政府的确需要税务和部分服务收入来确保运转。但在民生项目上,赚钱绝对不是目标。 垃圾桶项目的目标,是减少垃圾产生,降低处理压力(进一步降低成本)——从市民那里收的块八毛,根本微不足道。 然后,有些公司靠的是道德感召力。 比如冥想赛道里最出名的 Headspace,教你如何呼吸、放松、冥想、正念。 仔细想想,如果你真的学会了这套理论和方法论,获得了那种心境,就可以随时随地冥想,甚至不需要打开 App 来辅助。但是这些 App 赌的是:你会因为它真的帮助到了你,而愿意继续订阅,即便不是天天使用,并且推荐给更多的亲朋好友。 这是一种基于信任关系的产品设计,是好东西:一个产品越少绑架你,你反而会觉得它越值得支持。 还有一种中立的精神 PUA 的方式,比如宜家的自组装设计。 相信很多人都对组装宜家家具深恶痛绝,有些特定款式真的非常让人头疼手疼。这种产品设计的摩擦力极高,表面来看用户体验并不好,以至于能够催生代运输、代组装的服务。 但宜家赌的是:自己动手的成就感,会让你更喜欢这件家具,然后继续买宜家的东西。当你整个家里都是宜家家具的时候,你会感觉亲手打造了自己的家。 这就是心理学上著名的认知偏差,叫做「宜家效应」(IKEA effect):用户投入 + 产品设计 = 用户满意。 它的核心假设是:人们会高估自己参与制作的物品的价值。你花两个小时拧螺丝装好一个柜子,就会觉得它特别珍贵,带给你的成就感和情绪价值远高于买现成组装好的。 这是一种很高明的算计。与其让消费者依赖宜家,不如让他们爱上自己动手的过程。最后消费者感觉自己很厉害,顺带着也提高了对宜家的品牌认知。 5. 世界上有各种各样的产品,它们之间有时有着完全相悖的逻辑,但仍然都能成功。这本身就是个很有趣现象。 对于这些「用得越少越成功」的产品而言,我觉得深层的逻辑是:好产品满足需求,令人成长,但不让人产生依赖。 仔细想想,那些让人依赖的产品,真的是人在使用吗?正相反,你会发现它们是在「使用」人,利用人的注意力。 如果一个产品真的帮了忙,用户自会记得它的好。但如果它想方设法困住你,你只会想要逃。 在生活中,你观察到了哪些「用得越少越成功」的产品?你怎么看待它们的设计?欢迎评论区聊聊。 文|杜晨
L3“大考”临近:三大派系激战,但消费者买到的是“过渡品”?
2025年的最后1个月,关于L3的消息进入“井喷期”。 比亚迪推进L3量产内测,目前已完成15万公里L3级自动驾驶验证;小鹏获L3级自动驾驶道路测试牌照,其高管回应:“期待明年第一季度的惊喜,全量上车”。工信部更是一口气发了两张“准生证”——极狐和长安成为国内首批获得L3级自动驾驶准入许可的品牌。 整个汽车行业仿佛按下了快进键。 图源:小鹏汽车 就在行业沉浸在狂欢中时,同济大学汽车学院教授朱西产泼来一盆冷水:“L3真的有意义吗?限制条件这么多咋用呢?”朱西产教授指出,当前L3的设计运行域缩得太小,“绝对没有商业价值”。更残酷的是,欧洲已有L3认证车型,但“根本没人买”。 政策红利集中释放,行业专家却保持消极态度。L3自动驾驶到底卡在哪里,以及在2026年,它究竟能不能真正开进平民百姓家? L3测试牌照,一场新型的“小字说明”游戏 在L3这场游戏里,最容易被混淆却最重要的,就是测试牌照和准入许可的区别。简单来说,前者是“准考证”,后者是“毕业证”,两者之间的区别,堪比高考与大学毕业。 根据工信部装备工业发展中心副主任刘法旺的解读,测试牌照是地方级许可,由各地示范区办公室颁发。截至目前,全国已累计发放超过1.6万张此类牌照。这些牌照面向的是研发测试车辆,使用临时测试牌照,仅在各地示范区内部分指定路段有效。 可以理解为地方发放的L3测试许可,核心目标是“以测促研”。 图源:长城汽车 而产品准入许可是国家级认证,由国家有关部委批准。这意味着量产商品车获得了在特定条件下上市销售的资格,车辆可以获得正式上路铁制牌照,具备与普通蓝牌、绿牌车同等的法律地位。 测试牌照的评估相对灵活,侧重于基本安全要求和功能验证。但准入许可需要极为严格的安全评估,不是验证某项功能,而是对自动驾驶产品的安全性进行系统性、全流程考核。 不过,即便拿到准入许可,也不意味着你可以在全国任意驰骋。首批获批的两款车型运行条件极为苛刻: 比如长安车型:仅能在交通拥堵环境下,于高速公路和城市快速路单车道内运行,最高车速50公里/小时。 北汽极狐:可在高速公路和城市快速路相对通畅场景运行,最高车速80公里/小时。 这些限制处处透露出监管层的谨慎:先让你在限制好的围栏里跑,跑好了再谈扩大范围。可见L3当前并未被定位为可市场扩张的成熟产品,而是一种需要在真实道路环境中持续接受检验的过渡性技术形态。 值得注意的是,测试牌照车辆不能销售,准入许可车辆可以销售给被批准的主体,但试点期间仍限定路段、限定车型,并配备安全员随时接管。虽说差异明显,但就像是实验室里的白鼠和特定区域内的准公民,都不是完全自由人。 当然,我们并不是唱衰目前的L3相关动作,限制较多是事实,但行业加速也是事实,除了长安、北汽率先获批,比亚迪、蔚来、一汽、上汽等七家车企已进入L3级准入试点“准生”通道,相信很快就有更多车型拿到毕业证。 放长线来看,以行业的迭代速度,相信很快就能完成L3的真实落地,目前这些限制都是暂时的,且不可避免的。 各家车企摩拳擦掌,三大派系百花齐放 政策红利集中释放,也让各家车企摩拳擦掌。 从传统巨头到造车新势力,再到跨界科技玩家,各方势力正以不同姿态挤上L3牌桌,看似繁花似锦,实则总结起来就是三个派系。 比如以长安为代表的激进派。长安深蓝SL03拿下准入许可后,计划2026年一季度与旗下出行平台“长安车联科技”启动上路试点,并明确表态“未来可下沉到15万级别车型”。 图源:长安汽车 简单来说,就是先以高端车型树立技术标杆,再快速将成本摊薄至主流市场,用规模优势碾压对手。其“北斗天枢2.0”计划更是立下军令状:2026年全场景L3,2028年直跳L4。 新势力中,小鹏也可以说是最激进的,在拿下广州测试牌照后,何小鹏立下了“明年8月VLA技术超越特斯拉FSD”的赌约,否则负责人裸奔。小鹏的VLA大模型路线与特斯拉FSD同源,试图通过“端到端+世界模型”绕过高精地图依赖。同时小鹏还宣布2026年直接推出三款Robotaxi。打算跳过L3纯C端、直奔L4运营,或许对小鹏来说,L3只是技术验证的副产品,Robotaxi才是主战场。 图源:电车通摄制 广汽则是合作派,打法更倚重华为,昊铂A800斩获全国首张120km/h高速L3测试牌照,枪口直指小鹏、理想占据的高端市场。 但细究技术来源,星灵智驾架构背后站着华为ADS,本质上是通过与华为合作实现快速卡位。广汽总经理閤先庆也曾对外表示,使用华为方案的L3车型“会很快推向市场”,因此获120km/h高速L3测试牌照,与其说是广汽的,不如说是华为的。 今年4月的上海车展,华为联合赛力斯、阿维塔、奇瑞汽车、北汽新能源、岚图汽车、江汽集团、上汽集团、广汽集团等11家车企,在央视直播镜头前谈起了L3,这些车企基本囊括了中国汽车行业的四大央企和新势力代表,堪称中国新能源汽车行业的“半壁江山”。 图源:鸿蒙智行 比亚迪则是“闷声发大财”。尽管获得测试牌照的消息被频繁提及,但其L3技术路线极少对外披露。结合其自建60万平方米测试场、手握400万辆年销量数据的背景,比亚迪大概率在下一盘“闷声发大财”的棋,这种后发先至策略,也符合比亚迪一贯的打法。 技术路线上,以华为、小鹏为代表的“VLA派”认为,大模型是突破L3场景的唯一路径。通过云端千亿参数模型学习海量驾驶数据,再蒸馏到车端实现实时决策,可大幅降低对高精地图与规则算法的依赖。 不过,朱西产教授指出,L3的“故障静默”要求系统在任何失效模式下仍可运行,而基于深度学习的“黑箱决策”难以通过ISO 26262功能安全认证。VLA模型的算力成本与功耗,在15-20万级车型上根本无解。民生证券则测算,L3需要5000-25000核算力资源,这笔账最终只能转嫁给消费者。 因此我们可以大胆预测一下,未来L3市场将呈现高端车型堆大模型、中低端车型用规则算法的双面格局。就像如今L2之间亦有差别,L3不会存在所谓的统一标准,依旧是百花齐放。 抢跑的不一定是赢家,走得稳的才能到达终点 站在2025年末,行业普遍预测2026年是L3智驾量产落地的关键节点。但这个“关键节点”究竟意味着什么?是普通消费者能买到L3车型,还是仅限特定场景的B端运营?答案可能比想象中复杂。 毫无疑问,L3已经从“测试验证”迈入“准入应用”新阶段。产业链在快速成熟。从禾赛科技、速腾聚创的激光雷达,到四维图新的高精度地图,再到地平线、高通的智驾芯片,每个环节都已形成龙头企业引领的生态格局。这种成熟生态既保障了量产稳定性,也降低了行业门槛。 图源:小鹏汽车 然而,预测是乐观的,现实是冰冷的。 根据澎湃新闻采访的业内人士指出:“目前乘用车L3仍以To B商用模式为主,距离To C尚有较长距离。”当前试点车辆不能面向消费者销售,只能由试点主体在限定路段运营,普通消费者虽然可以通过小程序预约体验,但无法真正拥有。至少2026年上半年,L3仍是B端运营为主。 即便到了2026年下半年,首批面向C端的L3车型上市,其限制条件依然会极为苛刻。高速场景、单车道、80km/h限速、特定区域——这些限制让L3的实际价值大打折扣。对大多数城市通勤族而言,每天上下班的拥堵路段才是痛点,而L3在这些场景下要么无法激活,要么频繁要求接管,用户体验可能还不如成熟的L2+系统。 朱西产教授给出的时间表更保守:即便2026年自动驾驶标准开始征求意见,到国标委审批、过渡期结束,消费者最早也要到2027-2028年才能买到真正的自动驾驶汽车。 这个时间点,比我们预想的要晚一些,也因此,不少人认为L3只是L4的跳板,L3和L4最主要的区别在于两点,一个是驾驶员是否还需要接管,另一个则是事故责任的划分。基本都不是技术端的问题,一旦L3形成突破,L4就会立马跟上。 地平线副总裁苏箐认为,传统L4路径依赖高成本传感器与收窄运行范围,属于“线性递推的高成本复制”。但“端到端”大模型兴起后,攻克一个复杂城市后方案可泛化至全国同类城区,有望以极低边际成本绕过传统L3阶段。 图源:地平线 地平线的预测,正好说明L3可能只是一个“过渡品”。消费者不会为“半吊子”的L3买单,而是等待更成熟的L4,或者干脆享受不断升级的L2+。零跑B10等12万元级车型已搭载激光雷达,地平线HSD城区智驾系统下放至星途ET5等15万元级车型,“智驾平权”正在加速,这反而可能压缩L3的生存空间。 从这点来看,L3的价值不在于它本身,而在于为L4/L5铺路,由L3蹚出制度路径、积累真实道路数据、构建产业生态。 对于普通消费者,2026年不妨把L3当作“智驾体验的豪华版”,而非“自动驾驶的必选项”。与其做个等等党苦等L3,不如看看,那些搭载端到端大模型的L2+会不会在2026年带来惊喜。 在自动驾驶这场马拉松里,抢跑的不一定是赢家,走得稳的才能到达终点。L3的狂欢,我们暂且观望。
特斯拉回应女子30多万买到老款Model Y:员工协助下单未执行标准确认流程
IT之家 12 月 28 日消息,据红星新闻报道,一个月前,宋女士在四川乐山特斯拉中心下单了一辆 Model Y 长续航全轮驱动版,约定在海口提车。 12 月 8 日,宋女士前往提车时才发现,该车系 2025 年 6 月出厂,而同年 7 月该款车已进行升级,电池续航增加,售价不变。“下单前销售人员没讲过,信息都是销售人员录入并生成订购协议,也没让我签字确认。花同样的钱,我怎么可能去买升级前的车?”为此,宋女士拒绝提车,她认为这是特斯拉销售人员造成的失误,并非自己的过错,要求特斯拉退还 1000 元定金,并赔偿自己往返海口提车的交通和住宿等实际损失 5000 元。 12 月 26 日晚,特斯拉方面向红星新闻记者回应,经核实,该客户为缩短提车等待时间,自愿决定放弃首笔期货订单,转为购买已出厂现车,双方在线下对提现车已达成明确共识。合同中出现的“2025-02”字样,系用于区分生产日期的批次代码,交付车辆符合订单约定。 当事员工在协助客户紧急下单时,未严格执行标准确认流程。公司已对该员工做出严肃处理,并将在内部强化合规培训,杜绝此类疏忽。目前正积极与客户保持沟通,致力于达成双方满意的解决方案。 IT之家注意到,今年 7 月,特斯拉 Model 3 长续航版本和焕新 Model Y 长续航版迎来升级,前者售价已经上调至 28.55 万元,后者售价 31.35 万元保持不变。 焕新 Model Y 长续航版和 Model 3 长续航版升级了新款电池方案,续航有所增加,其中 Model Y 长续航版已经从 719km 升级到了 750km(加量不加价),Model 3 长续航从 713km 变成 753km。 特斯拉焕新 Model Y 于今年 1 月发布,新车借鉴了赛博越野旅行车、赛博无人电动车中的设计灵感,整车造型更硬朗,线条更流畅。新车的前脸造型、前后大灯、尾部扩散器、轮毂及后视镜均为全新设计,其中尾部搭载了全球首创的漫反射式尾灯。 新车尺寸为 4,797×2,129(1982)×1,624mm,新增环绕式氛围灯、前排座椅通风,还有再度加长 15mm 的后排座椅,新增镀银涂层的全景玻璃车顶,防晒隔热能力升级。其他方面,焕新 Model Y 配备 16 个扬声器,全系标配远端安全气囊、AI 4 硬件,全车 8 个摄像头。
一台手机只赚16块,国产机靠便宜杀进全球前五,一年卖出2亿台
在全球智能手机销量排行榜上,大家都知道三星、苹果、小米这三家已经持续了多年的前三名。 而第四、五名,一般都是VIVO、OPPO这两兄弟,但偶尔也有例外,那就是中国厂商传音,有时候会杀到全球第四名,有时候会排到第五名,有时候也会被VIVO、OPPO挤出前五名。 比如2025年三季度,传音就又回到了全球第四名,超过了OPPO、VIVO。 事实上,传音不仅仅只是智能手机销量高,其功能手机也同样销量高,智能机:功能机,差不多是1:1的。 之前传音预计,2025年全年手机销量会超过2亿台,其中智能机超1亿台,功能机也会超1亿台,如果所有手机合计,传音是能进入全球前三名的,只比三星、苹果少一点,是比小米销量还要多的。 传音为何这么牛?只有两个字的诀窍,那就是“便宜”。 到底有多便宜?给大家算一笔账就懂了。 2025年上半年,传音收入290.77亿元,净利润12.42亿元。其中手机业务收入260.93亿元,而手机销量(含功能机、智能机)一共是7856.3万部,算下来平均每台手机是332元。 传音销售的智能手机,平均价格只有547.5元一台,而功能机的价格只有50.1元。 如果我们假设所有的利润12.42亿元全部是手机贡献的,算下来一台手机的平均利润只有16块钱,这个利润值,明显是低于华为、小米、OPPO、VIVO、荣耀的。 事实上,也是因为便宜,传音才能在海外大放异彩,毕竟500块一台的智能手机,估计也就只有传音能够造出来的,小米旗下的红米,估计都干不到如此便宜吧。 当然,传音的主要市场,也是经济相对欠发达的地区,比如非洲、拉美洲,以及一些较穷的东南亚,印度等地了。 特别是在非洲,传音以60%以上的销量份额稳居第一,也一直被大家称之为“非洲手机之王”,2024年,在非洲就卖了1亿多台手机出去。 除了非洲,在新兴亚太市场及中东等地区,传音的份额同样也是第一,分别为15.4%、22.8%。 传音旗下有众多的品牌,比如TECNO、Infinix、itel等,这些品牌其实对应着不同的档次,在不同的地区,通过不同的品牌,不同的档次,来覆盖不同消费层级市场。 当然,传音的成功,还有中国制造的功劳,毕竟依托中国制造的高效率、低成本,中国供应链的完整优势,在国外那真的是没有对手的。 目前传音也在转型,毕竟低端市场已到天花板,冲向中、高端,又要与小米、OV等竞争,所以传音也在推出电脑、平板、手表、耳机、电视、厨房电器、物联网产品等,甚至还推出了两/三轮电动车,至于未来会不会像手机一样,从低端做起,发展壮大,那就让我们拭目以待了。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。