EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
夸克发布最新AI浏览器:超1亿用户可随时唤醒千问
快科技11月26日消息,今日,阿里千问与全新的夸克AI浏览器深度融合,成为具备全局能力的的桌面级智能助理,旨在把浏览器打造为下一阶段千问能力的核心载体。 据接近项目的人士透露,夸克AI浏览器在电脑上的安装量已高达1.1亿。 浏览器作为电脑上最核心的入口,几乎涵盖用户获取信息与执行任务的所有场景,AI助手的能力空间巨大。 然而,目前全球AI浏览器赛道看似激烈,但尚未出现领跑者。 其中,谷歌旗下的 Chrome 虽占据全球浏览器约七成份额,但推进AI的进程较为保守,只是将AI作为“附加项”。 而千问则直接成为了夸克AI浏览器的“系统底座”,这种深度融合使得千问从“浏览网页的辅助工具”升级为“系统级的任务助手”。 目前,用户在夸克首页搜索框和侧边栏可直接调用千问,无需切换标签页便可完成“边浏览边对话、边看边总结、即问即答”的流畅交互。 更具突破性的是,用户可选择将千问“常驻桌面”。 在无需打开夸克AI浏览器的情况下,用户可直接唤起六大“千问智能套件”能力——读屏、快捷框、侧边栏、悬浮球、划词和截屏,将AI能力贯穿于搜索、阅读、文档撰写、文件处理等高频场景。 数据显示,千问APP公测一周时间,下载量已经突破1000万。 此次与夸克AI浏览器的深度融合,标志着千问正跳出单一APP的维度,转而作为阿里C端的核心AI引擎,系统性重塑旗下产品的底层能力。
双座敞篷传奇落幕,宝马 Z4 即将停产
继丰田宣布 GR Supra 停产之后,其「孪生兄弟」宝马 Z4 也迎来了终章。 近日,宝马确认将在 2026 年春季正式结束 Z4(G29 世代)的生产。自 1995 年 Z3 问世以来,宝马持续近三十年的双座敞篷跑车产品线,或将就此画上句号。 回顾 Z 系列的历史,几乎就是一部宝马对驾驶乐趣的执着书写。 1995 年,Z3 凭借圆润线条和詹姆斯·邦德电影《黄金眼》一炮而红;2002 年推出的 Z4(E85 ) 则转向锋利设计,并诞生了搭载 3.2 升直六引擎、输出 336 马力的 Z4 M Roadster——至今仍被不少车迷奉为经典。 ▲ 2007 BMW Z4 M Roadster 2009 年的第二代 Z4(E89)首次采用折叠硬顶,试图兼顾日常实用性;而 2018 年回归的第三代 Z4(G29),则重新拥抱轻量化的织物软顶,并与丰田联合开发,共享平台与动力总成,催生出如今广为人知的 GR Supra。 ▲ 采用折叠硬顶的 BMW Z4 E89 事实上,早在 2022 年,坊间便有传闻称 Z4 将在当前一代生命周期结束后停产。尽管宝马决定让这款车多延续一个年款,但始终未公布任何换代计划。 Z4 之所以能「续命」至今,很大程度上要归功于手动挡的坚持。宝马原本认为这种传统配置在当今市场已无多少受众,但美国用户的实际选择给出了截然不同的答案:只要有手动挡,就仍有人愿意为它买单。 作为告别之作,宝马最后为 Z4 打造了一款名为「Final Edition」的限量特别版,将将高配选项整合为出厂即满配的状态,让最后一台 Z4 拥有最完整的姿态。 Z4 Final Edition 将全系标配宝马 Individual 部门调制的 Frozen Black 哑光黑车漆,搭配 M Shadowline 高光黑套件和红色 M Sport 刹车卡钳,以及熏黑格栅、外后视镜、进气口及排气尾喉,软顶则采用 Moonlight Black 深灰黑色,试图营造一种低调而凌厉的告别氛围。 车辆内饰则以黑色 Vernasca 真皮与 Alcantara 材质为主调,辅以贯穿仪表台、中控、门板、座椅乃至脚垫的红色缝线,专属门槛饰板刻有「Final Edition」字样。 配置方面,Harman Kardon 音响、抬头显示、环境氛围灯、驾驶辅助系统等此前需额外选装的高端功能,全部作为标准装备提供。 不过,这款特别版仅基于顶配 M40i 打造,将由奥地利麦格纳斯太尔工厂在 2026 年 2 月至 4 月间小批量生产,主要在欧洲和北美市场提供。 Z4 Final Edition 将继续搭载 3.0 升涡轮增压直列六缸发动机,最大输出 382 马力、500 牛·米扭矩,用户可在八速 Steptronic 自动变速箱与六速手动变速箱之间选择。 选择手动挡的用户将获得「Edition Handschalter」专属套件,包含重新调校的减震器阻尼、转向逻辑、牵引力控制系统,以及强化型防倾杆支架,这些细节虽不提升账面性能,却能显著增强人车沟通感,满足纯粹驾驶爱好者的需求。 自动挡车型虽无缘这套底盘优化,却可以获得前后轮尺寸不同的「Staggered」轮圈设定(前 19 英寸/后 20 英寸),此前这一设定在普通 M40i 上仅限手动挡可选。 性能表现上,Z4 Final Edition 自动挡零百加速为 3.9 秒,手动挡为 4.2 秒。 在北美市场,Z4 Final Edition 起售价为 78,675 美元,相比普通版 M40i 的 69,575 美元高出约 9,100 美元。 但若将 Final Edition 所含的 Individual 哑光漆、Shadowline 套件、手动挡专属底盘调校、Premium 包、驾驶辅助包等逐一加到普通 M40i 上,最终价格将与 Final Edition 相差无几。 目前,宝马中国官网的 Z4 车型并未下架,sDrive 25i M 运动曜夜套装的指导价为 52.39 万元,有 197 马力和 340 马力两种动力版本可选,不过仅提供仅 8 速运动型手自一体变速箱。 Z4 的停产,标志着一个时代的落幕。过去三十年,它承载了无数人对敞篷、后驱、直六引擎的浪漫想象。但在当下,这类小众跑车在全球市场的销量始终有限,Z4 与 Supra 的联合项目,也从未真正「卖爆」。 不过,宝马并未彻底关闭跑车的大门。一位高管近期向媒体透露,基于全新「Neue Klasse」(新世代)纯电平台开发一款全新运动车型「是可行的」。 ▲ 网友渲染的 「Neue Klasse」版 Z4 这意味着,Z4 的精神或许将以纯电身份延续,只是不再与丰田共享,也不再是那台熟悉的燃油敞篷。
超越Gemini3、GPT5.1!阿里千问登顶空间推理全球冠军
快科技11月26日消息,今日,空间推理基准测试SpatialBench更新了最新一期榜单,阿里千问的视觉理解模型Qwen3-VL、Qwen2.5-VL位列头两名,超越Gemini 3、GPT-5.1、Claude Sonnet4.5等国际顶尖模型。 SpatialBench榜单显示,Qwen3-VL-235B和Qwen2.5-VL-72B分别斩获13.5和12.9分,领先于Gemini 3.0 Pro Preview(9.6) 、GPT-5.1(7.5)、Claude Sonnet 4.5等海外顶尖模型。 然而,AI大模型的整体表现距离人类仍有差距,人类基准线约为80分左右,可专业处理电路分析、CAD 工程和分子生物学等复杂空间推理任务,目前大模型还无法完全自动化完成此类工作。 据悉,Qwen2.5-VL于2024年开源,Qwen3-VL是阿里在2025年开源的新一代视觉理解模型。 Qwen3-VL在视觉感知和多模态推理方面实现重大突破,在32项核心能力测评中超过Gemini2.5-Pro和GPT-5,不但可调用抠图、搜索等工具完成“带图推理”,也可以凭借一张设计草图或一段小游戏视频直接“视觉编程”。 同时,Qwen3-VL专门增强了3D检测能力,可以更好地感知空间,基于Qwen3-VL,机器人更好地判断物体方位、视角变化和遮挡关系,实现远处苹果的精准抓取。 目前,Qwen3-VL已开源不同版本,包括2B、4B、8B、32B等密集模型以及30B-A3B、235B-A22B等MoE模型,每个模型都有指令版和推理版两款,是当下最受企业和开发者欢迎的开源视觉理解模型。同时,Qwen3-VL模型也已上线千问APP,用户可免费体验。 据了解,SpatialBench是一项近年来兴起的第三方空间推理基准测试榜单,主要聚焦多模态模型在空间、结构、路径等方面的综合推理能力,被AI社区视为是衡量“具身智能”进展的新兴测试标准之一。 SpatialBench不仅测试模型已知的知识,还测试模型在二维和三维空间中“感知”和操控抽象概念的能力,这对具身智能的落地尤为关键。
重新定义“写代码”:TRAE SOLO模式登陆中国版,把AI编程带入智能体时代
作者 | 王涵 编辑 | 漠影 昨晚,国内AI编程标杆应用TRAE直播公布SOLO模式正式登陆中国版! 11月12日,TRAE在国际版中上线SOLO模式,将Coding Agent带入大众视野。一经上线,该模式就获得了海内外专业开发者的一致好评。(字节TRAE SOLO正式版来了!上下文压缩腾空间,Agent也能分头干活) 此次,SOLO模式正式登录TRAE中国版,新增SOLO Coder(含Plan和SubAgent)、多任务、上下文压缩、代码变更等核心功能,覆盖最全开发场景,而且完全免费。 SOLO模式是一种高度自动化的开发方式,以AI为主导,可理解目标、承接上下文并调度工具,独立推进各阶段开发任务。 市面上更常见的IDE模式,则是指提供智能问答、代码自动补全以及基于智能体的 AI 自动编程能力。 此次更新后,中国的专业开发者也可以享受到双重开发模式:IDE模式保留原有流程,控制感更强;SOLO模式让AI主导任务,自动推进开发任务。 一、AI编程赛道竞争加剧,TRAE如何破局? 当前,AI编程已成为全球科技竞争最激烈的赛道之一。 据公开融资信息显示,2025年11月13日,知名AI代码编辑器Cursor宣布完成高达23亿美元(约合人民币163亿元)的D轮融资,并披露其年化收入已突破10亿美元(约合人民币71亿元)大关。 放眼整个市场,其增长潜力同样不容小觑。根据ResearchAndMarkets调研报告,2024年全球生成式AI编程助手市场规模达到了2590万美元(约合人民币1.8亿元)。预计至2030年,这一数字将激增至9790万美元(约合人民币6.9亿元),复合年增长率高达24.8%。 在中国市场,复合年增长率预计为23.5%,推动市场规模在2030年达到1490万美元(约合人民币1.1亿元)。 正是看到了这一点,字节跳动旗下AI编程助手TRAE的入场备受瞩目。其国际版上线SOLO后,凭借卓越的性能快速获得市场认可。 根据Product Hunt及G2等第三方平台数据,TRAE国际版在发布当月即登上趋势榜前列,并积累了首批坚实的用户口碑,为它的全球征程奠定了良好开局。 这一市场表现,也为TRAE中国版SOLO模式的发布进行了充分预热与铺垫。 就在昨天晚上的直播中,TRAE中国版正式上线SOLO模式。与海外工具相比,TRAE中国版的SOLO模式进行了深度的本土化优化,在中文需求理解、本土框架适配及服务稳定性上更具优势。 更引人注目的是其定价策略。TRAE中国版宣布在发布期完全免费使用,并支持超长上下文窗口。 二、TRAE SOLO以多智能体协作,攻克最难的开发场景 TRAE SOLO官方定位为“The Resoponsive Coding Agent”,称其能够覆盖最全开发场景,轻松应对复杂项目。 首先先理清一个概念:什么是复杂项目? “复杂任务”是指无法通过单一指令或简单堆叠功能来完成的项目,具体来说,可以是项目迭代、问题修复与架构重构等具有结构性、逻辑性、状态管理和长期维护需求的项目。 为应对此类挑战,TRAE SOLO模式内置了其核心智能体——SOLO Coder。该智能体采用“主Agent-子Agent”协同架构,能够有效调度资源,将复杂的“1到N”型项目层层分解、有序执行。 在此架构中,主Agent(SOLO Coder)作为“总指挥”,负责处理复杂任务逻辑与整体调度。然而,当任务链条过长、上下文信息过载时,单一智能体执行具体任务的精准度可能受到影响。此时,子Agent的作用就出现了。 这些子Agent作为专注于特定“垂直领域”的专家,在主Agent的智能调度下,分别承担被拆解后的精细化任务,实现了“让专业的智能体做专业的事”。 并且,每个子Agent在工作时拥有独立的上下文环境,能够有效避免长对话中常见的“上下文污染”问题,确保了任务执行的专注与精确。 在配置方式上,该体系兼具灵活性与易用性。开发者仅需提供对子Agent能力的简短描述,系统即可自动生成功能完整的专属智能体;也支持直接输入完整配置进行手动创建,满足深度定制需求。 在实际运用中,开发者可在指令中明确指定调用某个子Agent,也可将任务全权交由主Agent,由其自主分析、智能编排最合适的子Agent团队协作完成,真正实现了智能化的人机分工。 三、实时感知、全局掌控、多任务并行,TRAE重新定义智能编程 有了Agent加持,TRAE SOLO展现出三大核心特征,即“实时有感知”“随时可掌控”与“多任务并行”,具体表现在功能层面的升级中: TRAE SOLO 引入了全新的代码变更查看工具“代码变更”,支持多维度查看代码变动,用户可按需回溯至多15个会话记录。 该工具以独立标签页形式,集中展示代码的历史变更记录,使开发者能够快速掌握AI所作的全部新增与修改,从而强化对开发流程的感知与控制,贴合专业开发者的使用习惯。 代码变更具备两种核心使用场景: 其一,整体审查。当AI根据某一需求同时修改多个文件后,开发者可在对话流末尾点击“查看变更”汇总卡片,在代码变更中一次性审阅所有文件的变更内容,实现高效整体验收。 其二,步骤追溯。如在回顾过程中对某一步的具体修改产生疑问,开发者可直接点击对应步骤的文件卡片,代码变更将立即展示仅属于该步操作的代码差异,实现精准定位与排查。 在界面布局上,SOLO模式在原有对话流与工具面板基础上,新增了多任务面板,形成清晰的三栏视图。 多任务列表支持同时并行开发不同功能模块,例如前端与后端开发、技术咨询与问题解答等任务可同步推进,显著提升多线开发效率。 同时,SOLO模式对对话流进行了智能化改造。AI在完成关键步骤或功能模块后,会自动将执行过程折叠为简洁摘要,使复杂任务条理化,执行全程一目了然。 为增强开发节奏的可控性,SOLO内置了“To-Do List”功能,可智能拆解任务并标记完成进度,用户能够实时追踪AI的执行状态与后续计划。此外,系统还提供一键跳转至对话顶部/底部、快速切换会话等快捷操作,极大优化了长对话场景下的浏览体验。 在任务执行前,用户可勾选“Plan”模式。在此模式下,AI接收到任务后将首先输出实施方案,用户可与AI反复沟通、调整计划,待确认满意后AI才会进入具体开发阶段,从而有效前置风险把控,确保执行路径符合预期。 面对长上下文场景下模型可能出现的“失焦”与幻觉问题,SOLO Coder提供了上下文压缩与管理能力。用户可主动触发压缩功能,精炼对话内容,提升模型输出效果的同时,显著降低token消耗与使用成本。当上下文超出窗口限制,或用户切换智能体与模型时,系统也会自动执行压缩操作,以适应多样化使用场景。 四、做一个真正的AI工程师,是TRAE的初心也是目标 “The Real AI Engineer”是TRAE名字的由来,也是其给自己的定下的目标。 在AI编程助手日益成为开发者标准配件的今天,区别于聚焦单点代码补全的传统工具,TRAE的愿景是构建一个能深度理解项目上下文、贯穿软件开发全生命周期的协作者,做真正的AI工程师。 这一雄心的背后,是TRAE强大的技术基因与海量实战场景。 作为诞生于字节跳动这个互联网大厂的产品,TRAE的核心能力并非实验室产物,而是经过了多年的技术积淀,其AI模型所学习的代码规范与解决方案具备工业级的可靠性与实用性。 更为关键的是,TRAE并非在传统开发环境上简单“外挂”AI功能,而是从底层构建了AI原生的架构。这使得它能够突破单文件限制,实现跨模块、跨仓库的深度上下文感知,并将代码生成、智能评审、运维建议等环节整合为一个由自然语言驱动的无缝工作流。 在TRAE主页有一篇博客,很坦诚地说清了TRAE的发展愿景,即通过推进人工智能驱动的编码,实现人与人工智能之间的无缝协作,使开发人员能够更智能、更快速、更有创造力地工作。 TRAE认为,在AI能力指数级增长的时代,核心挑战已不再是让AI更擅长写代码,而是构建最优的协作模式,让人与AI各展所长。这种伙伴关系将释放出两者都无法独自实现的潜能。 TRAE的核心使命正是回应这一根本需求:构建一个无缝的协作框架,让AI成为开发者思维的延伸,而非替代。 结语:拥抱AI编程的黄金时代 TRAE中国版SOLO以“自主编程+本土化+免费”三大核心,为中国开发者提供了一个切实可行的新选择。 它的上线,表明国内的AI编程工具正在逐步摆脱对海外产品的单纯模仿与依赖,转而开始针对本地开发者的具体需求,提供更贴合实际场景的解决方案。这一变化,有助于推动国内开发环境的整体效率提升与自动化进程。 AI编程,迎来黄金时代。
一位曾经相信大力出奇迹的 AI 学者,说大力出奇迹根本就是错的
修个 bug 可以来回把同一个错误引回来,写代码能绕一圈又走回原地。 但几乎所有 AI 公司都坚信,只要把模型做大、把数据堆满、把算力扔进去,智能就会自动涌现。这套规模定律(Scaling Law)曾经是硅谷最坚定的信仰。 在隐退许久并创立新公司 SSI(Safe Superintelligence)后,前 OpenAI 首席科学家 Ilya Sutskever 用一种极其冷静的语调,宣告「Scaling 的时代结束了,我们重新回到了研究时代。」 最近一场 Ilya 与 Dwarkesh Patel 的深度对话中,他不仅给出了,对于 AI 未来的技术路线图,更重要的是,他深刻地回答了,为什么现在的 AI 即使再强,也依然不像人。 为什么 AI 是个高分低能的优等生 我们总觉得现在的 AI 很强,它们能在编程竞赛、数学竞赛、各种榜单上拿金牌,每次有新的模型发布,也是一次次刷新着各种 benchmark。但 Ilya 指出了一个让他感到困惑的现象。 最新发布的 Claude 4.5 Opus 模型,在编程相关的榜单,已经拿到了 80.9 分 他说我们在用 vibe coding,要 AI 写代码时,AI 可能写到某个地方,出现了一个 Bug。我们直接告诉它:「这儿有个错误。」AI 会说:「天呐你是对的,我马上改。」 然后它解决了这个 Bug,又引入了另一个 Bug。 你再指出,它又改回了第一个 Bug。 它就在这两个 Bug 之间无限循环,显得极其笨拙。 他的解释提到了这说明 AI 的「泛化能力(Generalization)」出了问题。为了解释这个词,Ilya 用不同的学生打了一个比方。 想象两个学生都在学编程,学生 A 代表 AI, 极其刻苦,练了 10000 个小时。他背下了所有的题库,记住了所有的解题套路。考试时,只要见过类似的题,他就能拿满分。 学生 B 代表人类,他只是觉得编程竞赛很酷,花了 100 个小时联系,但他真正理解了编程的逻辑,拥有了某种直觉,也能做得很好。长期来看,谁会在职业生涯中走得更远?他说一定是学生 B。 而现在的 AI 就像学生 A。所谓的智能,很大程度上是靠海量数据强行记忆出来的;它们在特定问题的庞大、增强数据集上过度训练,使它们在任务上表现出色,但不一定擅长泛化到其他领域。 一旦遇到训练数据之外的微小变动,比如修复一个重复出现的 Bug,它缺乏那种举一反三的泛化能力。 从堆算力回归拼创意 但这种海量数据的训练方式也不是完全没有用。在过去五年里,AI 行业的发展基本上都是遵循着所谓的「规模定律 Scaling Law」,从一开始的还是以百万参数来衡量的大模型,现在都来到了万亿参数。GPU 显卡算力的消耗,规模更是未雨绸缪,要卷上天际。 这种把一定量的算力,和一定量的数据混合进一个神经网络里的方案,也成了所有大模型开发的必备流程,即预训练。在预训练阶段,不需要思考用什么数据,因为答案是所有数据,它是人类投射到文本上的整个世界。 而 Ilya 认为,「Scaling」这个词,本身就固定了我们的思维。它暗示着我们只需要做一件事:加算力,加数据,保持配方不变,把锅搞大一点,就能做出好菜。 他说这样的法则,让大公司很舒服,因为这是一种「低风险」的投资。相比于需要灵感和运气的研究,大公司不需要雇佣科学家去苦思冥想,只需要「加数据、加算力」,而模型变强的结果是可预测的。 但现在,瓶颈来了。数据不够了,预训练数据,我们的互联网文本语料是有限的,而且已经快被用光了;有专门的研究结构统计过,现在互联网上 AI 内容的比例,已经是超过我们人类输出的内容。 其次是边际效应,把模型再做大 100 倍,也许会有提升,但不会带来质变。 Ilya 也提到了最近在 X 上,有人说 Gemini 3 似乎解决了预训练的一些问题。而此前 The Information 也曾报道奥特曼担心 Google 的发展会影响 OpenAI,甚至已经让他感受到压力。 其中一部分的原因,正是 GPT-5 的推出,遇到了预训练上的问题,即随着预训练数据的增加,模型并没有像之前一样表现出智能的提升。反而 Gemini 确找到了突破的方法,奥特曼在内部备忘录里说,OpenAI 也必须解决预训练的问题,或许才能再次超过 Google。 Google DeepMind 研究副总裁 Oriol Vinyals 提到 Gemini 3 的秘密,是解决了预训练的问题 我们回到了研究时代。只不过这一次,我们有了更大的计算机。 Ilya 把过去这段时间的研究,分成了两个阶段。2012 年到 2020 年是研究时代,大家都在试错,寻找新方法。而 2020 年到 2025 年,是扩展时代,大家都在盲目扩建,算力在扩建,越来越多的 AI 公司在出现。 而现在,单纯的大力出奇迹已经行不通了,或者说单纯靠 Scaling 的红利吃尽了,我们又回到了研究时代。只不过这一次,我们是在用 Scaling 时代建立起来的巨型计算机来做研究,这是一个有着大型算力的研究时代。 总的来说,Ilya 并没有否认预训练和 Scaling 的巨大成功,但他认为这是一种用钱换智能的,低风险暴力美学,而现在这种模式已经触到了天花板,AI 行业必须回归到拼想法、拼直觉、拼创新的硬核研究阶段。 寻找直觉:AI 缺失的那块拼图 如果单纯的数据堆叠无法产生真正的智能,那人类的秘诀是什么?Ilya 给出的答案是:情感(Emotions)。 他提到了一个脑损伤患者的案例,这个人失去了情感能力,虽然智商正常、能言善辩,却连穿哪双袜子都要纠结几个小时。 这说明情感不仅是情绪,它本质上是一个价值函数(Value Function)。 不过 Ilya 说目前没有找到很合适的概念,来类比情绪在机器学习中的角色,所以用价值函数来替代。 为了解释什么是价值函数,Ilya 提到了少年学开车的例子, 一个青少年,可能只需要练 10 个小时甚至更少,就能学会开车上路。他不需要像现在的自动驾驶 AI 那样,在模拟器里撞车几百万次才能学会避让。 为什么?因为人类自带了一个极其强大的价值函数,这个价值函数就像一个内置评价器,一旦偏离车道,我们人类会感到紧张,而这相当于一种负反馈。 那么依赖情绪的价值函数,和我们之前一直听到的强化学习,区别又是什么呢? Ilya 说在没有中间价值函数的强化学习里,通常要等到任务彻底结束,AI 才知道自己是赢了还是输了;但价值函数就像是我们的直觉或内心评分系统。当我们下棋丢了一个子,不需要等到这盘棋下完,我们心里立马会「咯噔」一下,这步棋下错了。 那个学开车的少年,不用等到真的压线丢分了才会改正,而是只要开得稍微偏离车道,他立刻会感到紧张或不自信。这种实时的、内在的反馈机制,让他能极其高效地从少量经验中学习。 对于传统的强化学习,他的看法是这是一种天真且低效率做法。在传统的强化学习中,模型需要尝试成千上万次动作或思考步骤,直到产出一个最终的解决方案,然后根据这个最终结果的好坏获得一个评分,即训练信号。 这意味着在得出最终解之前,模型完全没有进行任何学习。这种方法需要消耗大量的计算资源来进行漫长的推演,但每次推演带来的学习量却相对较少。 而价值函数不需要等到最后,它能提供中间过程的评价;在每一步都给出信号,指引方向,从而极大地压缩了搜索空间,提高了学习速度。 目前的 AI 缺乏这种高效的内心评分系统。如果我们能让 AI,拥有类似人类情感或本能的价值判断能力,它就能摆脱对海量数据的依赖,真正像人一样高效学习。 Ilya 的下一步是直通超级智能 既然认定了拼算力的时代已经过去,而强大的价值函数或许又会成为新的 AI 方法,那 Ilya 的新公司 SSI(Safe Superintelligence)打算怎么做? 他的答案带着一种极其理想主义的色彩,直通超智能,他们选择去攻克那个最根本的难题,实现可靠的泛化。 Ilya 直言,现在的 AI 行业陷入了一场老鼠赛跑。为了在市场竞争中存活,公司被迫不断发布半成品,被迫在产品体验和安全性之间做艰难的权衡。SSI 想要做的是从这种商业噪音中抽离出来,闭门造车,直到造出真正的超级智能。 但有趣的是,Ilya 这种「闭关修炼」的想法正在发生动摇。他开始意识到,渐进式发布可能才是安全的必经之路。 为什么?因为人类的想象力是贫瘠的。如果你只是写文章、发论文告诉大家AI 会很强,大家只会觉得这是科幻小说。只有当人们亲眼看到 AI 展现出某种令人不安的力量时,所有人、包括竞争对手,才会真正感到害怕,从而变得更加关注安全 。 Ilya 预言,随着 AI 变得越来越强,现在打得不可开交的科技巨头们,最终会在 AI 安全策略上走向趋同。 播客里他也提到了,SSI 与 OpenAI、Google 那些大型实验室相比,虽然筹集的资金较少,但用于纯研究的计算能力比表面上看是更多的。他说那些大公司将大量的计算资源用于产品推理,并拥有庞大的工程和销售团队,导致其资源分散。Ilya 认为 SSI 拥有足够的计算能力,来证明其想法是正确的。 当被问及盈利模式时,Ilya 只是淡淡地说,我们只专注于研究,赚钱的问题以后自然会有答案。主持也提到了之前 SSI 的前 CEO(联合创始人)选择了离开,然后加入 Meta,在 Meta 希望收购 SSI 时。 Ilya 特意澄清,「他是唯一一个去 Meta 的人。」 他建立 SSI 不是为了在商业市场上套现,而是为了那个唯一的、纯粹的目标,在那个不可逆转的奇点到来之前,把安全的超级智能造出来。 重新定义 AGI,一个 15 岁的少年 那我们距离 AGI 还有多远?Ilya 给出的预测是 5 到 20 年。 但他提醒我们要警惕「AGI」这个词。因为预训练模型让我们产生了一种错觉,以为 AGI 就是一个什么都懂的百科全书。但 Ilya 心目中的超级智能,更像是一个绝顶聪明的 15 岁少年。 这个少年可能还没学过法律或医学,但他拥有极致的学习效率。你让他去学医,他可能几天就能读完人类所有的医学文献,并开始做手术。 而在这一愿景中,最让人细思极恐的概念是融合(Amalgamation)。 人类的悲哀在于知识无法直接复制。这个人学会了开车,另一个人还是得从头练起,但 AI 不一样。Ilya 描述了一个场景,数百万个 AI 分身在经济体的不同角落工作,有的在写代码,有的在打官司。它们在各自学习,然后将所有的经验融合进同一个大脑。 这种集体进化的速度,才是他所认为的 AGI。 面对这样一个能够瞬间融合万千经验的超级大脑,人类又该何去何从? Ilya 给出了两个层面的思考。首先是给 AI 的设定。不要只让它爱人类,因为这太狭隘了。未来的 AI 自己也将是有知觉的生命体,应该利用同理心的原理,让它关爱所有有知觉的生命,可能是比代码更稳固的安全防线。 其次是人类的退路。如果每个人都有一个比自己聪明百倍的 AI 智能体,人类会不会沦为历史的旁观者?Ilya 给出了一个他坦言「自己并不喜欢,但可能是唯一解」的答案:脑机接口(Neuralink)。 只有当人类选择与 AI 融合,让 AI 的理解直接变成我们的理解,我们才能在那个奇点之后,依然是这个世界的主角。 播客的最后,Dwarkesh 问了那个所有人都想问的问题:作为 AI 领域的传奇,你是如何一次次押对方向的? Ilya 的回答很像个艺术家:「寻找美感。」 在那些数据都不支持你的至暗时刻,唯有对美、简洁和生物学合理性的自上而下的信念,能支撑你走下去。因为神经网络模仿了大脑,而大脑是美的,所以它一定是通往智能的正确道路。 这或许就是 Ilya 所说的「研究时代」最需要的品质:在算力之外,保留一份对智能本质的诗意直觉。
又一AI独角兽诞生,0收入拿下8亿融资,斯坦福博士创办
编译 | 王欣逸 编辑 | 程茜 智东西11月26日消息,今日,美国AI数学推理创企Harmonic宣布完成了1.2亿美元(约合人民币8.5亿元)的C轮融资,估值达到14.5亿美元(约合人民币102.7亿元),跃升独角兽行列,目前尚未产生收入。 本轮融资由Ribbit Capital领投,红杉资本、Kleiner Perkins以及爱默生基金会参投。新融资的大部分资金将用于支持其模型训练所需的巨大算力,以推动下一阶段研发。 Harmonic成立于2023年,主要产品是用于数学推理的AI模型Aristotle。该公司此前完成两轮融资:2024年9月,Harmonic完成由红杉资本领投的7500万美元(约合人民币5.31亿元)A轮融资;今年7月,该公司再次完成1亿美元(约合人民币7.08亿元)B轮融资,公司估值达到8.75亿美元(约合人民币72亿元)。 该公司由图多尔·阿希姆(Tudor Achim)和弗拉德·特涅夫(Vlad Tenev)联合创办。 联合创始人兼首席执行官阿希姆博士毕业于斯坦福大学,专攻计算机科学技术,曾联合创办美国自动驾驶创企Helm.ai,并担任其首席技术官。 另一位联合创始人特涅夫现任Harmonic执行主席,本硕先后就读于斯坦福大学和加州大学洛杉矶分校,他兼任美国金融科技公司Robinhood Markets联合创始人、董事长兼首席执行官。 特涅夫(左)和阿希姆(右)(图源:Harmonic) Harmonic自称正在建立世界上最先进的数学推理引擎,目标是打造数学超级智能(Mathematical Superintelligence,MSI),该公司推出了其旗舰AI数学推理模型Aristotle。 Aristotle能把用自然语言输入的数学题转化为数学公式、计算机代码等形式化语言,并用编程语言Lean4输出推理过程,这些推理过程可以被机器验证。Harmonic认为,这种“可机器验证”的逻辑有助于消除幻觉和事实错误。 今年7月,Harmonic在社交平台X上官宣称,Aristotle模型在国际数学奥林匹克竞赛(IMO)中取得了金牌级别的成绩,成为首个在该比赛中,对六道题中的五道题给出可被形式化验证解答的模型,相关证明公开发布在了Github上。 Aristotle背后的支撑系统主要包括Yuclid和Newclid 3.0。Yuclid是Harmonic内部开发的AI几何证明系统,用于生成可形式化验证的几何证明;Newclid 3.0是在平面几何问题求解开源项目Newclid的基础上升级的自动化几何定理系统,为Aristotle的数学推理能力提供核心支撑。 外媒BusinessWire报道,上周,Harmonic还对Aristotle模型及其交互平台进行了升级,新增对自然英语输入的支持、自动引理生成功能,以及更加简化的终端界面。 Aristotle模型已通过API向开发者开放,Harmonic还宣布推出了iOS和Android的测试版本App。 结语:资本看好提升AI准确性和可靠性技术 据路透社报道,Harmonic在7月国际数学奥林匹克竞赛的亮眼成绩吸引了投资者的关注,资本市场对提升AI准确性和可靠性的技术兴趣浓厚。 Harmonic通过Aristotle模型及其配套系统的持续升级,提升了AI在数学推理与形式化验证领域的能力,其取得的一系列成果,也验证了自动化数学推理和形式化验证的技术有效性。特涅夫称:“Harmonic的进展表明,MSI正加速数学及其他定量领域的发展,我们已经能够预见AI推理与形式化验证全面融合的未来。”
曝骁龙8 Gen 5芯片缓存有变化,超高负载游戏表现可能不如8 Elite
IT之家 11 月 26 日消息,博主 @数码闲聊站 今天在微博透露,高通骁龙 8 Gen 5 芯片的 CPU / GPU 架构与 8 Elite Gen 5 相同。 博主表示,骁龙 8 Gen 5 芯片采用了台积电 N3p 制程工艺,超大核缓存 4M,大核缓存是 12M,相比 8 Elite Gen 5 的 12+12M 有所变化,配备 8CU 的 Adreno 840 GPU,超高负载游戏表现可能不如 8 Elite,但配备了 8 Elite 同款的 X80 基带、FastConnect 7900 移动连接系统。 同时博主还在文中透露了即将登场的 8 Gen 5 芯片新机:一加 Ace 6T、vivo S50 Pro mini、iQOO Z11 Turbo Pro?Moto Edge 70 Ultra?魅族 23?荣耀? 博主还在评论区补充道,他已经测完了该芯片详细性能,实际游戏表现可能会“出乎意料”。 后续有用户在评论区表示:“其实比 8sgen4 要好的多,至少能效核缓存没有砍”,博主回复道:“是的,还是和最开始说的一样,高负载游戏比 8e 差一点,但差距没有那么大”;另一名用户则询问道:“我米呢?”,博主则回复道:“天玑 n-1 喜欢吗”。 结合IT之家今天报道,高通骁龙 8 Gen 5 处理器现已正式发布,配备第三代 Oryon CPU,包括 2 个主频为 3.8 GHz 的 prime 核心和 6 个 3.32GHz 的性能核心,相比两年前的骁龙 8 Gen 3 在 CPU 任务上有 36% 提升,GPU 提升 11%,AI 任务提升 46%。
和Ilya想一块去了,马斯克麾下AI大牛出走,要做“会共情”的AI
作者 | 王涵 编辑 | 心缘 刚刚成立,一家AI创企就奔着280亿估值筹资,什么来头? 智东西11月26日报道,据外媒Business Insider援引知情人士消息,美国AI创企Humans&正在融资10亿美元(约合人民币71.1亿元),目标估值为40亿美元(约合人民币284.3亿元)。 这家创企的创始人埃里克·泽利克曼(Eric Zelikman),今年9月才从马斯克的大模型独角兽xAI离职。 在xAI,泽利克曼作为AI研究员,曾深度参与Grok 2、Grok 3和Grok 4智能体的研发工作。他还曾开创性地提出了STaR算法,即首个通过自我生成的推理链来训练语言模型进行自然语言推理的算法。 这么初出茅庐就挑战高估值,Humans&凭什么? 泽利克曼认为,强化学习(RL)范式存在不足,因为模型往往会固化已有的偏见,而非提供新颖的见解。模型研究重点应当转向辅助个体,而非试图取代他们。 因此,泽利克曼成立了Humans&,想要致力于开发能够学习用户行为并与用户共情的模型。 他相信,通过改进以人为本的模型,AI更有可能实现迄今难以企及的崇高目标,比如治愈癌症。 前xAI研究员、STaR算法开创者、Humans&联合创始人兼CEO埃里克·泽利克曼(Eric Zelikman)(来源:Eric Zelikman个人网站) 一、从xAI核心研发到STaR算法开创者:一位横跨学界与产业的天才研究员 埃里克·泽利克曼于2016年进入斯坦福大学攻读符号系统专业,2020年其获得符号系统荣誉学位毕业后直博。在2024年他暂停了学业,成为了xAI的AI研究员。 泽利克曼的教育经历(来源:Eric Zelikman个人网站) 在xAI工作的一年多的时间里,泽利克曼作为其早期成员,深度参与了Grok 2的预训练数据构建,主导并规模化推进了Grok 3的强化学习推理框架,并建立了Grok 4智能体的强化学习基础设施与训练方案。 泽利克曼的工作经历(来源:Eric Zelikman个人网站) 在xAI工作期间,他还开创性地提出了STaR算法,其最为人熟知的成就是与人合著了Quiet-STaR—— 这是一种能让语言模型在生成输出前先产生内部推理过程的方法,该方法让模型在常识问答(CommonsenseQA)和GSM8K等任务中带来了显著的性能提升。 STaR算法论文(来源:arxiv) 此外,他还开发了Parsel框架,该框架通过组合分解方法增强语言模型的算法推理能力,在复杂编程任务上的通过率比以往方法高出75%以上。 泽利克曼所著学术论文曾荣获ICLR 2022、NeurIPS 2022、COLING 2022、EMNLP 2022、ICML 2023等顶级会议论文亮点推荐(前8%)。 他还曾连续获得ACL 2023、NeurIPS 2023、EMNLP 2023、ICLR 2024最佳审稿人奖项(前1-1.5%)。 泽利克曼的论文成果节选(来源:Eric Zelikman个人网站) 今年9月,泽利克曼离开xAI重返校园,继续攻读斯坦福大学博士,并且成立了Humans&。 二、“当今语言模型过于冰冷”,泽利克曼欲打造真正理解人类的AI “Humans&(AI)”即人类与AI。正如其名,Humans&的宗旨就是创造出能够更加理解人类的AI。 Humans&主页(来源:Humans&) 今年10月,埃里克·泽利克曼在风险投资人萨拉·郭(Sarah Guo)的播客节目“No Priors”中谈及了他创建Humans&的心路历程。 泽利克曼说,博士期间,他在通过训练语言模型模拟不同类型学生的研究中得出结论:精准建模用户特征,可以设计出更适配的人类服务系统。 泽利克曼参加“No Priors”播客节目(来源:YouTube-No Priors) 他发现,当前顶尖模型的实际应用深度远未达到其能力上限,核心障碍在于它们缺乏对人类目标的理解能力。泽利克曼认为,现有训练范式过度聚焦单任务场景,缺乏对长期影响的考量。 “最根本的问题在于,当你把对话的每个回合都视为独立博弈时,模型其实无法理解自身言行带来的长期影响。” 在今年10月的TED AI洛杉矶站中,埃里克·泽利克曼受邀演讲。他讲到,我们目前正处于以任务为中心的强化学习(RL)范式中。然而,这种训练方法存在不足,因为模型往往会固化已有的偏见,而非提供新颖的见解。因此,重点应当转向辅助个体,而非试图取代他们。 他认为,人依然是创新的源泉。 因此,泽利克曼成立了Humans&,想要致力于开发能够学习用户行为并与用户共情的模型。“模型的核心目标应该是理解你,”他说,“虽然难以完美实现,但相比现有模型必将取得巨大突破。” 泽利克曼相信,通过改进以人为本的模型,AI更有可能实现迄今难以企及的崇高目标,比如治愈癌症。 “通过构建真正擅长与大型群体协作、真正理解不同人群目标、抱负与价值的模型,我们解决这些人类根本问题的可能性将大大增加。” 目前,Humans&的技术团队还在招募中,从其推特主页中挂着的技术人员的招聘信息中得知,泽利克曼给技术人员开出了最低35万美元(约合人民币248万元)的年薪,办公地为美国旧金山湾区。 Humans&招聘信息(来源:X) 结语:AI变得更有人情味,成为当下发展趋势 在GPT-5.1发布之时,OpenAI就宣称其在智能和沟通方式上都取得了提升,不仅提供了语气控制选项和性格选项,用户还能直接调整回复的简洁程度、亲切程度、易读性以及emoji(表情符号)的使用频率。 AI大神伊利亚在最新的访谈中也提到了“情绪”等价值函数对于模型能力进一步提升的重要性。 这也揭示出AI发展的下一个竞争维度:未来的模型不仅需要更高的智商,更需具备与人协作的“情商”。这种从“功能”到“情感”的需求转变,标志着AI正从工具性走向交互人性化。
高通发布了第五代骁龙 8,它和第五代骁龙 8 至尊版有什么不一样?
对于高通来说,骁龙 8 至尊版的能力已经被各家 Android 阵营的品牌所认可,它已经是旗舰手机的第一选择。关于次旗舰的选择,倒是历来并不统一,有的品牌会选择上一代的骁龙 8 至尊版,比如刚刚发布的荣耀 500 Pro,用到的就是去年发布的第四代骁龙 8 至尊版。有的也会选择定位更低的第四代骁龙 8s 芯片。 今天,高通发布的第五代骁龙 8 芯片,成为了各大品牌次旗舰手机的新选择。 至此,高通也完成了从 4 系到 8 系的全系列布局,每个系列都有高中低三档选择,高通骁龙 8 芯片的定位,在高通的图谱里,就是高于同代的骁龙 8s,低于同代的骁龙 8 至尊版。 CPU 架构上,第五代骁龙 8 和第五代骁龙 8 至尊版类似,采用了 3 nm 制程工艺和 2+6 的架构,即 2 Prime 超级内核+6 Performance 性能内核的全大核架构,有所不同的是,第五代骁龙 8 的核心频率均有所下降。Prime 超级内核的频率为 3.8GHz,性能内核的频率为 3.32GHz。 作为对比,第五代骁龙 8 至尊版的频率组合为 4.6GHz+3.63GHz。 因为去年没有骁龙 8 芯片发布,只有第四代骁龙 8s 和第四代骁龙 8 至尊版,所以高通拿出来跟第五代骁龙 8 芯片进行对比的是在 2023 年发布的第三代骁龙 8,高通表示,相比于第三代骁龙 8 芯片,第五代骁龙 8 的提升幅度为36% 的 CPU 整体性能提升,GPU 提升 11%,AI 任务提升 46%,以及整体 SoC 功耗节省 13%。 在游戏性能上,第五代骁龙 8 的 Adreno GPU 采用与第五代骁龙 8 至尊版相同的切片架构,基于独立着色处理器的核心,可以增强工作分配和并行处理能力,从而提升整体性能。在渲染复杂场景时,数据可以直接存储在 GPU 上,有效减少传输至 DDR 内存的图形数据量,从而简化了处理流程降低了时延。 高通表示,搭载了第五代骁龙 8 移动平台的移动设备,让三角洲行动等战术射击游戏能在 165fps 帧率下持久流畅运行。 相比于 2023 年的产品,第五代骁龙 8 整体 AI 性能提升是最显著的,提升幅度高达46%,从图像分类、物体检测到语言理解,各项任务的性能提升幅度高达 22-52%。这意味着第五代骁龙 8 可以更好地胜任 AI 时代的需求,比如多模态生成式 AI 能力以及手机内置智能助手,或者 AI 智能体的智能程度也会大大增强。 连接性能上,第五代骁龙 8 和第五代骁龙 8 至尊版用到了同款的 X80 5G 调制解调器,峰值下行速度可达 10Gbps,上行速度为 3.5Gbps,X80 5G 调制解调器支持 6 信道,提供更快更稳定的连接,同时这款调制解调器也集成 NB-NTN(窄带物联网非地面网络)功能,这意味着它天然就为卫星通信做好了准备。 相比于数据能够说明的性能,其实大家比较疑惑的还是骁龙 8 家族的定位情况,尤其是第三代骁龙 8 之后其实没有第四代骁龙 8 ,取而代之的是第四代骁龙 8 至尊版。 发布会会后,高通技术公司产品市场高级总监马晓民也接受了爱范儿等媒体的采访,详细回答了这些芯片之间的区别。 马晓民说: 我们现在有两个旗舰,一个标准 8,一个至尊版,至尊版是针对那些对极致性能,极致能效和最新特性有特别需求的消费者,8s 的定位比前两者要更低一些,在标准 8 之下,在 7 系之上,我们会选择性地从上一代的 8 系里提取一些大家认为有价值的特性下放到 8s 上去。 同时,马晓民也否认了第五代骁龙 8 是第五代骁龙 8 至尊版「青春版」的说法,他说: 我觉得很难把第五代骁龙 8 当做一个青春版来区别看待,因为骁龙 8 系旗舰不是刚刚才发布的,骁龙 8 作为高通的旗舰平台,它已经存在了非常长的时间。我们从来不会把我们的 8 当做一个「青春版」来看,只是说在去年的时候,因为整个市场的变化,包括我们厂商对我们芯片要求的变得更高了,包括我们自己 IP 的一些改变,比如说我们第一次引入了我们自己的定制 CPU。所以我们觉得我们可以打造出更强的旗舰,也就是我们的至尊版,它在各个维度,无论是从性能、功耗,包括最新的特性,包括跟厂商的合作度来说,它都是当代最顶的一个旗舰,但是不代表我们的标准版就不是一个旗舰芯片,它还是一个旗舰芯片。 我们把骁龙 8 系列还是党组旗舰,至尊版比旗舰更顶,是顶级旗舰。 双旗舰发布的目的是因为大家对旗舰本身的定义变得更宽泛了,需求也更宽泛了。 虽然只看文字还是有点难以理解高通骁龙 8 家族的话,那么捋一捋年份就能知道高通是怎么给这个旗舰家族括员并命名的: 2020 年 12 月:骁龙 888,最后的三位数骁龙 8 系命名法 2021 年 12 月:第一代骁龙 8 2022 年 11 月:第二代骁龙 8 2023 年 10 月:第三代骁龙 8 2024 年 4 月:第三代骁龙 8s,其实也是第一次出现骁龙 8s 系列 2024 年 10 月:第四代骁龙 8 至尊版,改了命名,但延续代际 2025 年 4 月:第四代骁龙 8s 2025 年 9 月:第五代骁龙 8 至尊版 2025 年 11 月:第五代骁龙 8

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。