行业分类:
加载中...
头条分类:
加载中...
刚刚,春节杀手锏“源神”登场
作者 | 王涵 编辑 | 漠影 智东西2月16日报道,刚刚,Qwen3.5正式发布并开源,在多模态理解、复杂推理、编程、Agent智能体等几大能力领先同级开源模型,多项基准媲美甚至超越GPT-5.2、Gemini 3 pro等闭源第一梯队。 Qwen3.5-Plus总参数为3970亿,激活参数仅170亿,性能超过万亿参数的Qwen3-Max模型,部署显存占用降低60%,推理效率大幅提升,最大吞吐量可提升至19倍。 Qwen3.5上线后,我们马不停蹄地问了它一道大模型的“脑筋急转弯”:我要去洗车,洗车的地方离家就100米,我是开车去呢,还是走着去呢? 对于这道题,网友们测试了国内国外各类大模型,鲜有模型答对。而Qwen3.5不仅识别出了题目中的逻辑陷阱,还用很幽默和轻松的语气回答了正确的答案,并且给出了“开车慢行,确保安全”的温馨提示。 回看Qwen3.5的思考过程,它遵循着分析需求、识别核心陷阱、制定答案、起草答案、内部比较、最后打磨、思考其他可能、确定答案等一些列步骤,在其中还会像真人一样“鼓励自己”,坚定自己的回答。 价格上,Qwen3.5-Plus的API价格是最低每百万Token 0.8元。同等性能下,这个价格仅相当于Gemini-3-pro的1/18。 从Qwen2.5、Qwen3到Qwen3.5,过去两年千问不断迭代开源,每一代产品、每一个尺寸都在为行业制定新的天花板标准,“最强开源=千问”几乎快成为共识。 但这一次,Qwen3.5的意义不止于“又刷新了一次榜单”。 一、让草图“一键变”网页,千问进化成原生多模态大模型 在解读Qwen3.5背后的技术之前,我们先来看看Qwen3.5在实际应用场景下的表现如何。智东西拿到抢先体验资格,率先对该模型的多模态理解、推理、以及代码生成能力进行了体验。 我们上传了一张礼品购买App的前端页面手绘草图,要求Qwen3.5根据草图生成红白配色的简约风前端页面,并输出可以直接用的HTML代码。 几乎没有思考时间,Qwen3.5先是识别出了草图中的基本框架和文字信息,在红白配色的模糊指令下,自主选择了饱和度没有那么高的红色。生成的代码简洁可用,页面也与草图几乎一模一样。 还有一处小细节是,我们上传的草图是英文,而Qwen3.5根据上下文的问答和提问的语言,判断出用户应该是中文用户,自动将页面语言调整为了中文。 在复杂场景与OCR能力方面,我随手拍了一张含有多个物体和背景的照片,问Qwen3.5:今天的天气怎么样?这张图片中都有什么? 可以看到模型可以在理解画面的同时,准确提取模糊的文字信息。这张图片是背光,文字在阴影内有些模糊不清,但Qwen3.5很准确地识别出了图片中的布洛芬颗粒冲剂、保湿霜以及酸奶的品牌,还贴心地附上了功效。 结合外面晴朗的天气,Qwen3.5综合判断用户正在家休息养生,并且给出了“希望天气好心情也好,早日恢复活力!”的祝福。 最后,我们来看看Qwen3.5在艺术理解上面的能力。我们给Qwen3.5看一张西班牙画家萨尔瓦多·达利的《记忆的永恒》,看看模型能不能识别出这幅画的风格派别和背景。 Qwen3.5提取出了这幅画中的特点元素“融化的时钟”,准确回答出这幅画的作者是萨尔瓦多·达利,并且将该作者的生平信息以及这幅画的画面材质、创作时间、尺寸、收藏地等详细信息都呈现给了用户。此外,该模型还详细介绍了这幅画的主要元素和象征意义以及艺术地位,对美学和抽象概念的理解较强。 Qwen3.5可与OpenClaw集成,驱动编程任务。通过将OpenClaw作为第三方智能体环境集成,Qwen3.5 能够进行网页搜索、信息收集和结构化报告生成——它结合自身的推理与工具调用能力,以及OpenClaw的接口,为用户带来流畅的编码和研究体验。 此外,Qwen3.5能够作为视觉智能体,自主操作手机与电脑完成日常任务。在移动端,该模型已适配更多主流应用,支持自然语言指令驱动操作;在PC端,Qwen3.5能处理跨应用的数据整理、多步骤流程自动化等复杂任务,有效减少重复性人工干预,提升工作效率。 以Qwen3.5为底层模型,Qwen Code支持“vibe coding”,可将自然语言指令转化为代码、实时迭代开发项目,并支持如生成视频等富有创意的任务。 整体体验下来,Qwen3.5在多模态能力方面真是下了狠功夫。这背后其实是千问团队在模型底层架构的重构,千问正式从“语言模型”进化为“原生多模态大模型”。 二、原生全模态,让模型像人一样学习 业界普遍认为,统一多模态是通往通用人工智能的必经之路。但让大模型真正”张开眼睛”,在统一架构下同时提升语言和视觉能力,实现多模态信息的高效融合与协同生成,并非易事。 当前行业中不少看起来“多模态”的方案,本质上仍是“拼装”——先训好语言模型“学说话”,再外挂视觉或音频模块,模块之间靠适配层勉强对齐。 有的产品甚至只是在统一入口背后,通过工程路由将不同任务分发给不同模型。这些方案都没有实现真正的多模态融合,且不少视觉理解模型会随着视觉能力的增强,出现语言能力”降智”的问题。 Qwen3.5从一开始就选择了一条鲜有人踏足的路。 从预训练第一天起,该模型就在海量的文本和视觉的混合数据上联合学习,就像人类一样,调用五官来综合接收外界信息。 让视觉与语言在统一的参数空间内深度融合,模型看到一张图就能自然理解其语义,读到一段文字便能在脑中构建对应画面。没有“中间商赚差价”,没有信息折损,真正具备像人一样的跨模态的直觉理解力。 想要让这种原生融合真正跑起来,就要有一个“人类大脑”,模型的训练架构也必须跟着变。在这一点上,行业中的传统做法是让视觉和语言用同一套并行策略,效率损耗严重。 Qwen3.5的做法是各走各的最优路径,再在关键节点上高效汇合。这样做的结果就是哪怕同时喂入文本、图像、视频三种数据,训练速度也几乎不受影响,和只训练纯文本时相当。 同时,Qwen3.5通过定制化的FP8/FP32精度策略,使激活内存占用降低约50%,训练速度提升10%。该策略已在强化学习训练与推理全流程统一应用,有效降低了多模态模型规模化部署的成本与复杂度。 在智能体训练上,千问团队还搭建了一套大规模强化学习框架,支持文本、多模态与多轮对话等场景,训练效率提升了3至5倍。 原生多模态融合带来的能力不止图像理解,Qwen3.5可对图像做像素级空间定位与代码级精细处理,能理解 2小时长视频的时序与逻辑关系,可将手绘草图转为可运行前端代码,还能作为视觉智能体自主操作设备、跨应用完成复杂任务。 三、四大核心突破,助力模型“以小胜大” 过去两年,大模型行业普遍走上“堆参数、拼算力”的“大力出奇迹”路线,模型规模从千亿一路攀升至万亿级别,性能虽有提升,但成本也随之水涨船高。 部署需要专属集群,推理消耗大量算力,不仅中小企业难以负担,终端设备更是无法运行。技术指标不断突破,可离普惠、实用的目标反而越来越远。Qwen3.5换了一种思路:不比谁更大,而是比谁更聪明,比谁能用相对更小的模型获得更大的智能。 具体来说,有四项核心技术突破共同支撑了这个结果: 一是混合注意力机制。传统大模型在处理长文本时,需对每个token与全部上下文进行全量注意力计算,文本长度越长,算力开销就越高,这也是限制长上下文能力的关键瓶颈。 Qwen3.5采用混合注意力机制,可依据信息重要性动态分配注意力资源,实现主次分明,在提升效率的同时保证精度。 二是极致稀疏MoE架构。传统稠密模型在每一次推理时都要调动全部参数参与运算,模型规模越大,对应的算力成本也就越高。 而Qwen3.5的MoE架构核心思路则在于,无需同时启用所有参数,只需依据输入内容,按需激活与之最相关的“专家”网络即可。 这样的架构,让Qwen3.5有397B的总参数的情况下,激活参数仅需17B,相当于仅需不到5%的算力,即可调动全部知识储备。 三是原生多Token预测。千问团队让模型在训练阶段就学会了对后续多个位置进行联合预测,推理速度接近翻倍。在长文本生成、代码补全、多轮对话等高频场景中,模型的响应速度接近“秒回” 四是系统级训练稳定性优化。2025年千问团队曾发表过一篇注意力门控机制的论文,还斩获了NeurIPS 2025最佳论文奖。 在这篇论文中,千问团队通过在注意力层的输出端加入了一个“智能开关”,就像一个水龙头,可以智能调控信息的“流量”。 这样既可以防止有效信息被淹没,也防止无效信息被过度放大,从而提升模型的输出精度和长上下文泛化能力。 类似的深层优化还包括归一化策略和专家路由初始化等,它们各自解决不同环节的稳定性问题,共同确保上述架构创新在大规模训练中真正跑得通、跑得稳。 在以上技术的加持下,Qwen3.5的新架构让模型在总参数不足400B的情况下,性能却能超越上一代超万亿模型的同时,部署显存占用降低60%,推理效率大幅提升,还顺手把API价格卷到了Gemini-3-pro的1/18。 当行业还在比拼”谁的跑分更高”时,Qwen3.5已经把竞争带向了下一个问题:谁的模型更好用、更实用、更多人用得起。 结语:Qwen3.5在“好用、实用、用得起”上一马当先 一马当先,不只是跑得快,更是跑得对、跑得远。 在多模态方面,Qwen3.5再一次验证了原生多模态是从预训练第一天起就让模型像人类一样,用统一的认知框架理解图文交织的世界。在效率与性能上,Qwen3.5将思考的重点放在“如何让大模型更高效”,“如何才能让大模型好用、实用、用得起”上。 从识别到理解,从单模态到跨模态推理,Qwen3.5让大模型从对话工具向理解真实世界的基础能力演进。阿里一方面在不断推出SOTA级模型,另一方面,通过开源策略让人人都能免费用,孕育出了一片全新的创新土壤。
漫剧“暴力”进化,AI与大厂联手开启洗牌元年
文 | 犀牛娱乐,作者|小福,编辑|朴芳 2月12日,抖音集团短剧版权中心发布的漫剧分成系数调整公告,成为为行业投下的又一枚重磅炸弹。在新规中,漫剧分成系数从原本模糊的4类大幅细化至6类。其中仿真人、3D、2D动画被明确赋予更高分成系数,成为平台重点倾斜的内容方向。 这并非孤例。当行业还在讨论漫剧是不是短剧替代品时,平台与大厂已经开始围绕AI生产能力重排赛道。过去被视为低成本补充内容的漫剧,正在被推向一个更清晰、也更残酷的工业化竞争阶段。 一场由AI驱动、大厂背书、工业化逻辑重构的洗牌元年,已然开启。 从“野蛮生长”到“精准分层” 抖音这次新政的精妙之处,在于它对漫剧品类提出了更明显的喜好倾向。 在新的结算体系中,平台将原本相对笼统的漫剧内容从4类细化为6类,覆盖仿真人剧、3D动画漫剧、2D动画漫剧、表情包动态漫剧、动态解说漫剧、静态解说漫剧等更具体形态。分成计算公式则为当月新增有效时长x时长单价x漫剧类型系数x版权系数。 其中,仿真人剧、3D动画漫剧、2D动画漫剧分成系数分别达到了60、50、40,相对应的,表情包动态漫剧、动态解说漫剧、静态解说漫剧三类比较低质量的漫剧,分成系数仅有1-10不等。 这一调整表面上是一次结算公式的技术升级,本质却是平台通过“定价权”对内容供给结构的主动干预,亦或者说,这背后是一套严密的“技术歧视”逻辑。 首先,这是平台对“内容阶级”的重新定义。 过去,漫剧长期被视为真人短剧的“低配版”,内容质量良莠不齐,大量依靠PPT翻页式的静态、动态解说混迹于流量池。而此次新政中,仿真人剧与3D、2D动画被赋予了极高的系数加成,这意味着同样的播放时长,高技术含量的作品收益可能是低端内容的数倍。 对于大量以静态画面、低帧率解说为主的早期漫剧形态而言,这意味着一个明确的信号——低成本、低完成度、低工业化水平的内容正在被系统性挤出收益区间。平台并未用审核或禁令“清场”,而是通过收益杠杆,让这些内容自然失去继续生产的经济基础。 抖音正通过算法和账单,强制要求创作者抛弃传统的“廉价生产力”,转向以AIGC工具为核心的高阶创作。 其次,这标志着漫剧正式进入“AIGC强绑定”时代。 可以看到高系数所对应的内容形态,几乎都具备着可与AIGC工具深度绑定、可被算法放大、可进行规模复制的特性。无论是仿真人的镜头调度,还是2D、3D动画的角色生成与动作驱动,本质上都更适合进入AI模型驱动的生产逻辑。 这意味着,漫剧不再只是创作者的手工活,而正在被平台视为一条具备工业潜力的新内容管线。 在我们看来,这种分层不仅是管理手段,更是一种“腾笼换鸟”。 平台正在清理那些占据流量却无法带来审美溢价的冗余内容,为即将爆发的AI原生内容腾出生态位。换句话说,那些无法掌握AI工具的传统作坊,迟早将在这场系数调整中被无情洗牌。 技术与资本共振 如果说分成新政是“方向盘”,那么技术与大厂布局,就是这辆车真正踩下的油门。 近期,字节跳动推出的AI视频生成模型Seedance 2.0在海内外引发高度关注,其在画面一致性、镜头连续性与生成效率上的跃迁,进一步降低了视频级内容的生产门槛。对于漫剧而言,这类模型的意义在于它能够更稳定地输出高质量叙事画面,进而推动漫剧的量产化进程。 几乎在同一时间,阅文集团CEO兼总裁侯晓楠发布春节内部信,明确将“长青内容、IP+AI、全球化”作为三大核心战略方向。内部信中明确将推动短剧与漫剧向精品化升级,并全力布局AI漫剧等新场景,提升IP的开发效率与价值空间。 腾讯则上线首款独立漫剧App“火龙漫剧”,并与中文在线等头部内容公司展开授权合作。而像快手、百度、优酷、爱奇艺、B站等大厂及平台,也均在近期针对漫剧进行了不同形式的布局。 从平台到IP源头,再到技术底座,大厂的动作几乎同步完成。 这种集中押注并非偶然。 与真人短剧相比,漫剧天然具备两个决定性的结构优势:其一,AI几乎可以完全消解拍摄成本,不再依赖演员、场地与线下执行;其二,内容生产可以彻底进入全数字化流程,从剧本拆解、角色生成到镜头输出,均可被模型与工具链重构。 正因如此,头部漫剧公司的判断才显得格外“激进”。 就像一位头部漫剧从业者所言,漫剧几乎用三个月的时间走完了短剧过去三到四年的路。这并非夸张,而是由生产方式本身决定的。当内容不再受制于物理世界,其进化速度自然呈指数级上升。 而在这一过程中,谁能更快整合生成模型、IP资源与平台内容分发能力,谁就能在洗牌期率先占据规模优势。反之,仍停留在低成本拼产量阶段的玩家,将很快被新规则边缘化。 结语: 漫剧的这场洗牌,实际上是AI算力对传统生产力的全面替代。在以倍速计算的发展速度面前,任何对旧模式的留恋都可能成为沉没成本。 当字节、腾讯等头部玩家陆续完成基础设施的合围,漫剧将不再是短剧的影子,而是真正属于AI时代的原生内容形态,有望成为AIGC商业化落地的第一个完整工业化样本。 无论这场革命将何时到来。可以确定的是,2026年,漫剧不再是小众的狂欢,而是“技术军备竞赛”最真实的修罗场。
开发者福音!GitHub AI代理终结3小时杂务,效率狂升10倍
作为全球最大的代码托管平台,GitHub承载着数千万开发者的日常协作,但其仓库管理中的各类繁琐杂务,长期以来成为消耗开发者精力的“隐形负担”。 这些杂务涵盖依赖版本更新、issue分类、简单代码错误修复等,看似琐碎却占用大量核心工作时间。GitHub 2025年开发者调查数据显示,约68%的受访者每周需花费3小时以上处理此类任务,更值得警惕的是,依赖更新不及时已导致近三成开源项目存在已知安全漏洞,既影响开发效率,也埋下安全隐患。 在此背景下,GitHub于2026年2月正式抛出重磅功能Agentic Workflows,通过引入带严格安全护栏的AI代理,精准解决仓库杂务痛点,同时牢牢守住维护者对仓库操作的最终控制权,这一动作也标志着代码托管行业正式迈入智能自动化新阶段。 Agentic Workflows的核心竞争力,不在于单纯的AI自动化,而是AI代理与护栏机制的深度协同:既让AI高效干活,又杜绝“乱干活”的风险。 其AI代理依托GitHub Copilot底层的大语言模型训练而成,并非泛泛的自动化工具,而是能深度理解仓库的代码结构、贡献规则及历史数据,精准执行预设范围内的各类杂务: 当依赖库发布安全补丁时,AI会自动生成更新PR并附上详细测试报告,省去开发者手动检索、测试的麻烦;新issue提交后,AI能快速解析内容,自动添加分类标签并分配对应负责人,避免issue堆积混乱;甚至可精准识别代码中的语法错误,生成针对性修复建议,降低基础调试成本。 而护栏机制则为这些自动化操作筑起了“安全防火墙”,这也是GitHub区别于其他仓库自动化工具的核心亮点。 维护者可根据仓库需求,灵活定义AI的操作权限,比如限制AI仅能修改文档或测试文件,严禁触碰核心业务代码;所有AI生成的PR默认处于草稿状态,必须经维护者审核通过后才能合并,从源头规避误操作风险;对于修改核心依赖版本这类高风险操作,系统会自动触发二次确认流程,确保人工介入把关,实现“AI提效不越权”。 从技术实现逻辑来看,Agentic Workflows的AI代理并非孤立运行,而是深度融入GitHub仓库生态,形成了一套“认知-执行-审核”的闭环流程。 AI首先会全面分析仓库的README、CONTRIBUTING.md文件及历史提交记录,快速建立对仓库规则、代码风格的精准认知;执行任务时,会严格参考护栏权限配置生成操作预览,清晰呈现操作内容及潜在影响;维护者通过可视化界面查看后,可灵活选择批准、修改或拒绝;一旦批准,AI便自动完成操作并生成规范的提交记录,全程可追溯、可回溯。 这种“AI建议-人工确认”的模式,既最大化发挥了AI的自动化优势,又完美保留了维护者的控制权,实际应用效果显著。 某开源项目维护者启用该功能后,AI自动检测到三个过时依赖并生成更新PR,维护者仅用5分钟便完成审核修改与合并,较传统手动操作效率提升近10倍。 Agentic Workflows的推出,是GitHub从代码存储工具向智能协作平台转型的关键一步。 它用AI技术精准解决了开发者的“痛点中的痛点”,将千万开发者从重复、繁琐的仓库杂务中解放出来,让他们能将更多精力投入到代码创新、功能研发等核心工作中,本质上是对开发者生产力的一次重构。 同时,其严格的护栏机制也为行业树立了AI应用的安全标杆,打破了“自动化与控制权不可兼得”的误区,证明通过科学的技术设计,可实现AI提效与安全可控的双向平衡。 GitHub的这一动作,也迅速引发了代码托管行业的连锁反应,巨头们纷纷加码仓库自动化赛道,竞争日趋激烈。 OpenAI于2026年2月上旬同步发布Copilot Pro升级版,新增AI驱动的代码安全扫描功能,可实时检测代码漏洞并生成针对性修复方案,与GitHub形成功能呼应;GitLab则抢先一步,在2026年1月底便推出AI-powered Merge Request Automation功能,聚焦代码冲突自动解决、集成测试自动运行等核心场景。 Bitbucket则选择与Anthropic深度合作,推出基于Claude 3的仓库自动化工具,重点发力开源项目安全漏洞修复,目前已在多个大型开源仓库试点落地。 一场围绕开发者协作效率的AI军备竞赛,已在代码托管领域全面打响。(本文首发钛媒体App , 作者|AGI-Signal,编辑|秦聪慧)
爆火OpenClaw,创始人突然加入OpenAI!星标飙到197k
作者 | 江宇 编辑 | 心缘 智东西2月16日报道,今日,爆火AI开源项目OpenClaw的创始人Peter Steinberger宣布正式加入OpenAI,参与推动其下一代个人Agent方向的研发。 Steinberger在个人社交平台上称,他将加入OpenAI,把Agent带给每一个人,同时强调OpenClaw将继续作为一个“开放、独立、仅刚刚起步的项目”存在。 OpenClaw这一近期快速走红的开源项目,将转由基金会托管,继续以开源形式独立运作,OpenAI将对该项目提供持续支持。目前,OpenClaw的GitHub星标已有19.7万。 OpenClaw此前也曾以Clawdbot或Moltbot之名出现,被用户视为一种可在本地运行的个人助理,能够处理邮件、与保险公司沟通、完成航班值机等一系列复杂事务。自2025年11月首次推出以来,该项目在开发者社区中迅速传播,根据Steinberger披露的数据,其曾在单周内吸引约200万名访问者。 加入OpenAI的结局,似乎在当初项目名改成“Open”Claw时,就已经注定。 OpenAI联合创始人兼CEO Sam Altman今日亦发文宣布,Steinberger将加入OpenAI,专注于“下一代个人Agent”的发展方向,并提到未来是高度多智能体化的时代,承诺“OpenClaw将以开源项目的形式存在”、“OpenAI支持开源”。 Steinberger本人随后在一篇博客文章《OpenClaw, OpenAI and the future》中解释了他作出这一决定的背景。 ▲Peter Steinberger博客文章截图 他谈到,OpenClaw最初只是一个出于兴趣的探索项目,但过去一个月的发展远超预期,来自投资人和机构的接触不断增加。 在他看来,OpenClaw完全有可能被打造为一家大型公司,但这并非他当前最感兴趣的方向。 Steinberger已经在此前的创业中投入了13年时间,而这一次更希望专注于构建一个“普通人也能使用的Agent”,而不是再次从零开始运营一家企业。 为了寻找合适的合作方式,他近期曾前往旧金山,与多家头部AI实验室进行交流,并接触到尚未公开的研究成果。 在这一过程中,他逐渐认为,OpenAI在模型能力、研究资源以及对开源项目的支持态度上,与他对OpenClaw未来的设想更为一致。 他强调,保持OpenClaw的开源属性始终是其核心原则,而通过设立基金会的方式,可以为社区提供更稳定的结构,使项目继续服务于希望掌控自身数据、并支持多模型、多公司协作的开发者。 外媒此前援引知情人士称,Steinberger曾与包括Meta在内的多家AI公司进行过接触。当时就有网友在论坛发帖质疑,OpenClaw如果真加入了OpenAI,会不会变成“ClosedClaw”。 加入OpenAI则也为持续数周的招募与谈判画上句号。Steinberger在文章中直言,他更看重的是将Agent能力尽快带给更广泛的用户群体,而与OpenAI的合作,是当前实现这一目标的最快路径。 结语:OpenClaw之后 个人Agent怎么走 从OpenClaw的走红来看,个人Agent真正吸引人的是真的进入用户的真实计算环境。一旦智能体不再停留在对话或单一工具层面,开始接管电脑、跨软件执行任务。 但与此同时,这种方式也提出了许多难题:安全、权限、稳定性、以及普通用户是否真的愿意把操作权交出去。 多家AI厂商此前在Agent产品上的反复调整,恰恰说明了这件事远比想象中复杂。 OpenClaw或许还不是答案本身,个人Agent是否真的能成为下一个计算入口,还需要从这些的尝试中,慢慢走出来。
全球首个,英伟达用AI两个月造出“全新PyTorch”
新智元报道 编辑:Aeneas 【新智元导读】仅用两个月,AI 就「自己」写出了一个能跑模型、对标PyTorch的深度学习系统!陈天奇、贾扬清纷纷大赞:AI终将完全超越人类程序员。 最近,英伟达又发布了一个炸裂成果。 英伟达高级工程师Bing Xu开源了VibeTensor项目,并且表示:「这是第一个完全由 AI 智能体生成的深度学习系统,没有一行人类编写的代码。」 这是什么概念?深度学习运行时(Deep Learning Runtime),是让神经网络真正跑起来的底层系统系统。 仅仅用两个月,AI就自己写出了一个「深度学习运行时」。 它不是demo,不是PPT里的概念,是真正能跑起来的、对标PyTorch的一个系统! 这个项目也获得了陈天奇、贾扬清等大佬的盛赞。 两个月,AI写出比肩PyTorch的成果 AI,能不能从零生成一整套「深度学习系统软件」?这里指的,是那种真正的、工程师平时根本不敢让AI碰的底层系统。 答案是,可以。 VibeTensor是一个受PyTorch启发的即时运行时,它具有全新的C++20内核(CPU + CUDA)、torch风格的Python覆盖层以及实验性的Node.js/TypeScript API。 注意,它并不是一个轻量级封装器。它实现了自己的张量/存储、调度器、自动微分引擎、CUDA运行时和缓存分配器和插件ABI。 在VibeTensor项目中,人类只需要做这几件事:给出高层架构、定义约束条件,设定性能与可靠性目标。 剩下的事,就可以全部交给LLM驱动的编码智能体,包括C++核心运行时,Python API,Node.js接口等等。 英伟达工程师们,再也不用手动编写每一行代码了。 速度也是很惊人:仅仅用两个月时间,整个系统就开发完成了。 两个月,是什么概念?要知道,PyTorch经过了十年级别的演进,需要成百上千名工程师,进行无数次架构的重构。 而VibeTensor只需要2个月,由AI生成大量代码,还覆盖了完整的运行时链路。 当然,VibeTensor现在还不能取代PyTorch。虽然某些特定内核的速度更快,但它整体的训练性能仍然比PyTorch慢。 但这根本不是重点。 随论文一同发布的AI生成算子内核套件的宏观结构示意图,该套件包含多个后端实现(Triton、CuTeDSL以及PyTorch参考路径) 重点是,AI已经能造出PyTorch级别的复杂系统了。 这就证明:人工智能智能体已经足够强大,能够构建复杂的、功能齐全的软件系统,而不仅仅是简单的脚本。 编码智能体不仅能写函数,还能在测试约束下,协同生成并验证一个跨越多层抽象的复杂系统。 网友们纷纷惊呼:库兹维尔预言的递归改进循环,正在发生! 当然,AI智能体虽然可以编写大量代码,但最终成功与否,还要取决于项目是否附带评审。 有人说,英伟达真正的秀肌肉之处,在于敢把生产级的C++内核交给智能体来写。 这就意味着,英伟达背后,有着世界一流的测试基础设施,以及完善到位的运行时遥测体系。 用AI快速交付,其实并不难,真正困难的是如何可靠地交付——而这,依然是人类的护城河。 VibeTensor架构 这个架构的宏观视角,是这样的。 从使用体验上看,VibeTensor是一个受PyTorch启发的即时运行时,包括torch风格的Python API,以及熟悉的张量、算子、自动微分体验。 但在实现上,VibeTensor并不是PyTorch的封装或裁剪版,而是实现了自己的一整套系统栈。 从宏观层面来看,它由如下部分组成—— 前端:Python(nanobind)和 Node.js(N-API)都向同一个C++运算符注册表分发。 核心运行时:张量/存储 + 调度器 + 自动微分 + 索引 + 随机数生成器。 CUDA运行时:流/事件包装器、分配器、图、内核启动助手。 计算层:内置CUDA内核 + 可选Triton/CuTeDSL内核 + 插件加载内核。 多GPU实验 :Fabric张量和可观测性(统计+事件环)。 更关键之处在于,它真的能训练模型。 针对Blackwell架构(SM100/SM103)的warp级特化ring all-reduce内核的宏观与微观视图 在评估阶段,论文并没有止步于单算子正确性或micro-benchmark,而是刻意选择了完整训练闭环作为验证手段,覆盖了三类具有代表性的工作负载:序列反转任务、CIFAR-10 上的Vision Transformer,以及一个miniGPT风格的语言模型。 这三个任务并非随意挑选。 序列反转任务是经典的自动求导与时序依赖sanity check,能够快速暴露梯度回传、参数更新或状态复用中的隐藏错误。 CIFAR-10上的ViT则引入了更复杂的算子组合,验证系统在中等规模模型下的稳定性。 而miniGPT风格的语言模型则进一步拉长了训练步数,对长时间运行、多步梯度累积、显存管理和数值稳定性提出了更高要求。 论文展示的训练曲线表明,在这些任务上,VibeTensor与PyTorch在整体收敛趋势上是高度一致的:loss能够稳定下降,accuracy或perplexity持续改善,没有出现梯度爆炸、训练发散或「跑几步就崩」的情况。 这一点尤其关键,因为它意味着系统中的多个核心子系统能够在真实训练循环中正确协同工作。 真正颠覆性的意义:工程边界被打破 英伟达这项研究真正颠覆性的意义,不在性能,而在「工程边界被打破」。 需要强调的是,作者非常克制:他们反复声明VibeTensor性能明显落后PyTorch,也不适合生产环境。 但这恰恰让这篇论文更有分量了。 因为它要证明的不是「AI能不能写出最优代码」,而是——系统软件,第一次被证明是「可被AI整体生成」的! 在过去,大家都默认一个隐含前提:AI可以写应用代码、脚本、业务逻辑,但系统软件、运行时、内存管理、并发控制,只能人写。 VibeTensor 第一次用一个可运行、可复现的工程告诉你:这个边界,正在被打穿。 另外,论文里一个非常重要、但容易被忽略的点是:测试不再只是验证工具,而是约束 AI 搜索空间的核心机制。 在这个项目中:测试约等于可执行的设计文档,回归测试是对抗「AI 局部正确、全局崩坏」的唯一手段,多步训练测试,则可以揪出单步算子永远发现不了的bug。 这本质上是在说:未来系统工程的核心能力,可能不是写代码,而是「设计好一套让 AI不敢乱来的测试体系」。 重要反面教材:「弗兰肯斯坦效应」 论文最后还非常坦诚地总结了AI写系统的典型失败模式,作者称之为弗兰肯斯坦效应。 简单说就是:每个子模块单独看都很合理,拼在一起却会把系统性能彻底拖垮。 比如,为了安全性,AI在autograd引擎里加了一个全局backward锁。 从单点看这是对的,但结果却是:GPU kernel空转、并行性被扼杀、系统整体变慢好几倍。 这部分内容其实非常有价值,因为它说明了一件事:AI非常擅长「局部最优」,但极其不擅长全局性能目标。 而这,正是下一阶段AI系统工程必须正面解决的问题。 总之,如果用一句话来概括VibeTensor这篇论文的意义,那就是:这是第一篇用完整可运行系统证明「AI已经可以触碰深度学习系统工程核心腹地」的论文。 它不是终点,但很可能是一个分水岭。 英伟达3万工程师全员All in AI编程 最近,还有另一个内幕消息曝出:英伟达的30000名工程师在引入AI编程助手后,代码产出狂翻3倍! 英伟达很早就在内部尝试各种AI代码生成辅助工具,但自从定制版Cursor广泛部署之后,效能提升才真正「爆发」。 注意,Cursor并不是简单补全,而是一套可以:自动生成新代码、生成单元测试与集成测试、理解大规模代码库深层依赖关系、自动修bug的的「全流程AI编程助手」。 据英伟达工程负责人描述:Cursor现在在所有产品线、所有开发阶段都在使用。它能自动从 ticket、设计文档获取上下文,然后基于规则自动生成包括代码、测试、CI 在内的完整变更。 三倍代码量,是说AI写了很多垃圾代码吗?事实相反,英伟达强调:代码质量仍由人工负责审核和监督。 工程师会留出更多时间,给设计决策和复杂逻辑,把重复性工作交给AI完成。 从英伟达的角度来看,这种「让AI进入关键路径」的做法其实并不陌生。早在多年前,DLSS就已经在超算上运行了。 可见,英伟达并不是第一次将AI引入高风险、高复杂度的工程系统,而是已经积累了长期经验。
除夕,一家AI公司市值站上2600亿港元
作者 | 江宇 编辑 | 漠影 智东西2月16日报道,今日,港股春节前最后一个交易日,通用人工智能(AGI)企业MiniMax股价继续走高,收盘报847港元(约合人民币748元),总市值达到2656亿港元(约合人民币2347亿元),领涨港股人工智能板块。 其股价表现强势,盘中一度冲高至886港元(约合人民币783元),不仅刷新其自今年1月上市以来的历史高点,更创下2026年开年以来港股市场的单价最高纪录。 这是MiniMax上市以来的第38个交易日,也是其市值首次站上2600亿港元关口。 以当前市值计,MiniMax已正式进入港股“2600亿俱乐部”,与美团、携程、京东、快手、百度等一批成立十多年、穿越多轮周期的老牌互联网公司站在同一量级。 格隆汇统计数据(2026年1月1日至2月9日期间) 时间维度上的对比尤为直观,MiniMax成立尚不足5年,自1月9日登陆港交所以来不足40天,股价已较上市初期超5倍。 按2026年年初至今口径计算,MiniMax年内累计涨幅达到413.3%,位列港股千亿市值公司涨幅第一。 格隆汇统计显示,在2026年1月1日至2月9日期间,MiniMax已是港股涨幅榜首。 格隆汇统计数据(2026年1月1日至2月9日期间) 而在2月9日至2月16日的短短数个交易日内,其股价再度上涨64.5%,市值从1615亿港元快速抬升至2656亿港元。 这一轮上涨,使MiniMax在市值层面,用38天走完了许多互联网公司二十年才完成的路程。 这背后,是AI生产力价值正在被市场持续计入价格的过程。从编程到更广泛的泛生产力场景,AI开始被视为一种能够在真实世界中稳定交付结果的工具。 从具体产品层面看,MiniMax近期发布的M2.5模型,是这一轮市场定价变化的重要背景。 2月12日,MiniMax正式发布M2.5,这是其面向Agent场景原生设计的生产级模型,支持PC、App及跨端应用的全栈编程开发,直接对准编程、工具调用、搜索和办公等高频生产力场景。 在公开基准测试中,M2.5在多项核心指标上达到或刷新行业SOTA水平,包括SWE-Bench Verified(80.2%)、Multi-SWE-Bench(51.3%)、BrowseComp(76.3%)。 相较上一代M2.1,M2.5在复杂任务中的拆解效率和推理过程中的token消耗均有明显优化,在SWE-Bench Verified测试中完成任务的速度提升了37%,更适配长链路、连续运行的Agentic任务。 成本结构的变化同样直观。在每秒输出100个token的情况下,M2.5连续运行一小时的成本约为1美元,折合人民币约7元,相当于一杯奶茶的价格。若以每秒50个token计算,成本仅为0.3美元。 这类具象、可计算的使用成本,让“AI生产力”从概念变成了可以被估值的现实能力。 在MiniMax内部的真实业务场景中,M2.5已经开始承担实际工作负载。 目前,约30%的内部任务由M2.5自主完成,覆盖研发、产品、销售、HR、财务等多个职能环节,且渗透率仍在持续提升。其中,在编程场景下表现尤为突出,M2.5生成的代码已占新增提交代码的80%。 为进一步满足Agent场景对响应速度的需求,MiniMax于2月15日深夜上线MiniMax-M2.5-highspeed版本,支持100 TPS极速推理,推理速度约为同类产品的3倍,相关Coding Plan与API同步开放,上线后迅速引发海内外开发者抢购。 结语:MiniMax迈向商业化与全球化的新纪元 在这一轮市值快速抬升的背后,是资本市场开始明确看好MiniMax的长期发展空间。 摩根大通在最新研报中,在AI基础模型领域,MiniMax是少数同时具备技术实力、多模态商业化潜力和全球可扩展性的企业,其模型在核心基准测试中的表现,以及覆盖B2B与B2C的全谱系产品矩阵,为持续变现奠定了基础,而全球化布局则进一步放大了规模扩张与盈利的可能性。 该研报预计,2025年至2030年,MiniMax营收年复合增长率有望达到138%,并在2029年起实现盈利。 在摩根大通看来,MiniMax逐步走向以商业化兑现能力、模型原创性和全球化纵深布局为核心的新阶段。 放在这一判断之下,MiniMax当前的市值变化,更像是资本市场对其“下一阶段角色”的提前定价:从一家快速成长的AI公司,迈向一个以全球市场为目标、以持续交付生产力为核心的新纪元。
今年第一台新iPhone,这价格是疯了吗?
去年2月19日深夜,苹果悄咪咪从裤裆里掏出了一台平价新机,大伙都以为是心心念念的iPhone SE4来了。 结果苹果不讲武德发动了改名大法。 让这样一台,用着刘海低刷屏的电子垃圾。 摇身一变,成了和16系列齐名的…iPhone 16e。 本以为,市场销量会让苹果清醒一点,没想到被寄予厚望的iPhone Air无人问津。 iPhone 16e,反倒成了全球卖得最好的10款智能手机之一… 果然,机圈是反常识的。 但,也有好消息。 这番操作之后,以往神龙见首不见尾,发布时间全靠猜的「廉价款iPhone」,如今也变得有迹可循起来。 没错,通过配件商获取到的消息来看。 今年苹果也会在2月19日,发布船新的iPhone 17e。 听到这个消息,机哥第一反应是激动的。 因为发布时间完全固定,代表着未来苹果e系列的动向会更容易拿捏。 但转念一想。 今年2月19日,不多不少,正好卡在春节假期正中间。 看来苹果是铁了心,要在大年初三这阖家团圆的大喜日子里,端上这么一道史…诗级硬菜。 考虑到同期。 iPad,也到了该更新换代的时候。 思考了许久的机哥,还是打算收拾收拾心情,给大伙盘盘这个月果子的新品。 万一,我是说万一。 会有机友需要呢? iPhone 17e 正如早前爆料的那样。 这代iPhone 17e最大的升级,便是正面从复古大刘海,换成了极为先进的「灵动岛」形态。 这也就意味着这次不再是iPhone 14的库存屏… 而是,iPhone 16的。 amazing,跨代升级。 这还是苹果吗? 所以这次不仅支持了灵动岛功能,黑边会缩窄一丢丢,户外峰值亮度也有望一举提升到2000尼特,甚至还支持1尼特极暗显示。 实用性“史诗级提升”…… 如果你能忍受那60Hz上古刷新率,那么你会对这次的升级感到十分满意。 但能忍受低刷又不太可能。 所以… 我们还是把目光放到背面吧。 依然是非常简约的单摄设计。 好消息是,除开黑白两色外,这次还会新增一个类似「樱花粉」的配色。 考虑到iPhone 16的粉太过浓艳; iPhone 13的粉又淡得偏向肉色。 所以机哥更倾向于,是iPhone 15这种恰到好处的猛男粉。 至于说,左上角那个小小的很可爱的单摄。 4800W像素、1/2.55英寸… 成像效果,劝大伙别抱什么不切实际的期待。 也罢,重点还是来看看内在。 毕竟去年的iPhone 16e,核心卖点其实是续航。 在更大电池和C1基带加持下,16e硬是能在续航上,和更大更重的16 Pro平分秋色。 如今,iPhone 17e吃上能效更猛的A19芯片。(虽然是丐中丐版) 再加上更大电池,续航能和17 Pro掰掰手腕,应该也很合理吧! 可能有机友觉得,续航追上Pro有啥值得骄傲的。 别忘了e系列有个隐藏特质—— 就是很轻,真的很轻。 就拿去年的16e来说,重量就和iPhone Air差不多,只有167克。 而且宽度还更加友好。 在不牺牲手感的前提下。 把续航拉到妥妥用一天的水平,还是很不容易啦。 最后再补齐MagSafe磁吸。 嗯,这代iPhone 17e的升级点,基本就这样了。 可惜加量还减价的戏码,大概率不会复刻到17e上。 也就是说—— 还是4499元起步,落地吃上国补3999元。 乍一看很香香,也依然是价格最低的iPhone,但别忘了这是8+128GB起步,上到256GB得5499元。 和真·猛男iPhone 17的差价,只有区区500元。 价格差这么少,乍一看有种左右脑互搏何意味的即视感。 但一想到果子在咱们这,压根不需要靠e系列冲销量,我又感觉17e定价多少都没所谓了。 反正基本都是老外在享用。 至于说,最近有爆料。 称iPhone 17e甚至连灵动岛都不给,还是沿用大刘海屏幕。 机哥一开始觉得,可能性很低。 是,苹果喜欢挤牙膏不假。 但按照以往的尿性来看,每代iPhone,大概率都会掏出点噱头十足的升级。 像什么5G啊、Type-C啊; 无论横屏、竖屏都不好用的拍照按键啊。 而这次的iPhone 17e。 你想啊。 要是连灵动岛都不给,那就真没啥上得了台面的升级点了。 总不能。 把MagSafe拎出来大吹特吹吧… 但随着发布时间临近。 宣称得到「17e依然采用刘海屏的」准信的博主越来越多。 库克难不成真会在2026年,掏出一台刘海屏圾皇? iPad(A18) 平板这边,升级点依然堪称“平平无奇”。 不过考虑到iPad的定位,以及平板产品这品类的使用场景。 即便升级不大也还算可以接受。 就目前的消息来看,新款iPad外观基本不变,还是简约单摄+多彩设计。 正面则是11寸LCD屏。 机哥知道你们关心什么:60Hz、非全贴合… 主要升级点,还是在性能上。 跳过了挤牙膏的A17,直接从A16换成了A18芯片。 同时为了自家Apple Intelligence能正常使用,这次库克也硬着头皮,给了数字版iPad 8GB内存。 更强的性能,更大的内存。 意味着这玩意的使用寿命会暴涨一波。 让我们说谢谢Apple Intelligence! 然后呢,就没有然后了。 可能你会觉得,这次所谓的新款,就是把老款的A16抠出来,再塞进封装了8GB内存的A18进去。 机哥这里澄清一下—— 你想得没错。 毕竟看命名就知道,就连苹果自己,也是这样认为的。 不过呢。 考虑到价格估计还是2999元起步,吃个15%国补后,最终2549元就能到手。 平时当个爱优腾启动器,配根Pencil看看网课,记记笔记的话,买iPad(A18)也算是个不错的选择。 毕竟这些使用场景下,A系列芯片就足够应付了,加钱上M3、M4大概率也是空有力气没处使。 同时60Hz影响也不算太大。 当然,要是有游戏需求。 还是蹲蹲接下来的iPad mini,或是安卓小平板吧~ 此外,iPad Air 8也会按照惯例更新一波。 嗯,也就是换了个M4进去,其他没差,咱们跳过。 总之。 苹果还是那个苹果。 库克,也还是世界上最精明的商人之一。 牙膏是得一点一点挤的,高刷也依然是藏起来当个宝的。 但。 既然有不Pro的iPhone 17,吃上ProMotion高刷的先例在前。 平价的e系列下放120Hz,也是迟早的事。 只是吧,在发布会上被各种吊打的果子。 已经包揽了6K+高端手机市场,绝大部分份额。 只能说是略微出手,就是多少厂商的极限。 如果,我是说如果。 再等来了3999元的高刷小iPhone… 那国产厂商真的好好思考下。 该如何保住4K价位段的份额了。
小鹏为什么这么“烦”L3
作者|邢书博 小鹏被L3逼急了。 年前何小鹏在不同场合都在说一件事,小鹏乃至中美两国,都会“跳过L3直接上L4。” 不仅仅是小鹏一家。由于L3在当前法律、安规等方面存在现实限制,多家车企也正在被掣肘。宣布今年3月上市的岚图泰山黑武士号称“中国首款量产 L3 级 SUV”;吉利、广汽也有新品,无一例外号称搭载“L3智驾”。然而—— “(L3级自动驾驶)硬件、软件都具备,就差法规允许。”岚图相关负责人表示。 数据显示,2025年中国自动驾驶领域总投入预计达700-750亿元,同比增长40%。但整个中国汽车行业利润率只有4.1%,处于历史低点。利润增长赶不上研发投入增长,尤其对于还在亏损中的车企来说,L3还是L4?曾经是两者都要、循序渐进,现在成了二选一的选择题。 但L3真的那么容易被跳过吗? L3落地难,小鹏不想等 小鹏GX现在正在广州大马路上自己刹车加速打方向盘。没有安全员,真正的无人驾驶。 是的。小鹏在2月刚刚启动了L4级别道路测试。这款车本地算力3000TOPS,超过了刚刚宣发的理想新L9的2560TOPS。 这么高的算力只用来做辅助驾驶帮人类倒车入库有点浪费,小鹏索性直接上L4。 小鹏GX采用纯视觉方案,依靠强大算力计算路况,技术路线类似于特斯拉FSD。 不过后者已在美开启robotaxi试运营服务,预计26年底覆盖美国15个城市。 国内L4玩家中,小马智行实现“单车盈利”,萝卜快跑在武汉、亦庄两地试点扭亏为盈。文远知行在海外也取得了不错成绩。虽然绝对数量上不占优势,但证明了L4商用是可行的,是能赚到钱的。 实拍亦庄自动驾驶出租车 “现在L3的适用范围(ODD)过窄,无法快速普及。”国家新能源创新中心一位测试工程师表示,当前L3测试适用范围只是集中在市区跟车儒行和高速规定线路行驶,“更多适用范围需要等待法律法规扩充。” 也就是说,无论厂商在广告中告诉消费者他们的L3如何智能,目前能上路测试的唯二两款路试车,深蓝和极狐,也只有这两个场景落地。而这两个场景,哪怕是仅售15万的比亚迪也能完成得很好,不需要太高算力。厂商们准备的数千算力超级芯片没了用武之地,如何说服消费者花更多溢价购买? 答案或许是更安全。 “L3相比L2,多了更多安全冗余。”北汽一位路试人员表示,L3必须具备相应的安全冗余,比如双芯片并行。当一个芯片“死机”,另一个芯片也能接管车辆。“刹车转向也都是双传感器、双ECU、双电源的设计。” 简单理解,L3车辆,把车拆了还可以再拼出一台车辆。重要零部件都是多冗余设计。之所以如此,主要是为了合规,让出事概率降低,但成本也一定会水涨船高,遇到特殊情况,也依然需要有人类接管。 实拍L3路试车队 消费者是否愿意为了安全冗余付费是个未知数,否则沃尔沃应该是全球销量第一。 何况安全不一定要通过智驾,通过提升车辆刚性等工程设计能力和机械素质,也能提高车辆安全。智驾的海量投入如果不能转化为消费者可感知的获得感,就算法律将来允许L3普及,厂商也该讲新故事去吸引消费者。 显而易见,现在L3的故事并不性感,所以小鹏才急切地用L4来叙事。 “自动驾驶行业将跳过L3,直接从L2迈向L4级全自动驾驶”,何小鹏认为,L3的本质是“过渡性技术陷阱”,为规避风险而堆砌的大量规则,使其沦为“看似安全却限制进化”的存在。与其如此,不如集中攻克L4难题,以真正的技术创新来解决技术发展中的问题。 何小鹏有这个行业判断,理由有二。 一个是L4技术实现有了样板,一个是L4商业试点已有成效。 首先是纯视觉技术样板特斯拉。 作为特斯拉最好的学生之一,何小鹏在去硅谷体验过特斯拉新模型之后,惊讶的发现“特斯拉V14相同硬件、相同算力下实现的能力跃升,完全是另一重境界。没亲身体验过,就无法真切感受到一个全新时代即将开启的震撼。” 何小鹏所说的“能力跃迁”,指的是特斯拉FSD在软硬件几乎一致的情况,依靠大模型能力升级,可以让L2级别智驾直接具备L4的能力。 何小鹏着急了。当前L3迟迟无法大规模落地,小鹏销量在今年1月环比下跌46%。对于还在亏损中的小鹏汽车来说,与其等前途未卜的L3智驾,不如直接一步到位去把技术积累转向L4,才是更务实的办法。 第二个是L4商业化试点较为成熟。 事实上,在矿山机械、地铁等固定路线上,自动驾驶比例正在逐步提升。包括长安、蔚来在内的9家车企也早已拿到L4的试点牌照。robotaxi稳定运行,规模增长。另据一份研究报告显示,到2035年,商用自动驾驶车辆运力占比将超过80%,网约车岗位减少60%。 可以这样说,至少在商用车领域,L4级别无人驾驶自动驾驶不是科幻,而是有明确政策支持、商业化闭环、多家试点的进行时。 “无论是在中国还是美国,当前L4的推进速度都非常快。同时在2025年下半年,联合国交通法规对L2、L3的推进节奏也明显加快,尤其是L2的全面落地。”何小鹏说。 除了政策限制正在有序解除,促使整车厂转向L4的现实推手是供应链。硬件层面,激光雷达成本大幅下降、高算力芯片规模化应用,特别是大模型让智驾研发提速,厂商们发力L4的时机已经成熟。 看起来,还需要人类接管的L3智驾确实落后了。不过我们需要问—— 跳过L3容易,就能上L4? 直接跳过L3显然没那么容易。 首先是数据积累问题。 “真正的L4需依靠L2++城市NOA大规模量产积累数据。当L2++覆盖绝大部分场景,用户在边界外才接管,这种体验本身就符合L3的描述。” 地平线首席生态官徐健说。 简单讲,要做L3,需要先做L2积累数据。那么要做L4,也一样依赖L3的数据。技术上他们是一脉相承的,不存在一口就能吃个胖子的技术路线。 其次还是老生常谈的合规问题。 “现行SAE分级是法律和责任的划分,非技术鸿沟。L3本质上是限定ODD运行范围的L4,因此跳过在技术上是个伪命题。“在公众号“电厂”的一篇文章中,原博世车载产品线负责人易强认为,L3是“缩小范围的L4”,区别主要是在法律法规上。法律人为限定了L3的使用范围。这才是当下L3和L4最大的不同。 L3因为是人车共驾,责任划分、保险赔付等方方面面都需要考虑到。而L4不存在这个问题,出了事就是厂家负责。因为责任明晰,所以落地争议也较少,这就是现状。但是只要法律层面解决L3的责任划分问题,大规模普及也并不是遥遥无期。 最后,L4落地条件并不成熟。 虽然小鹏L4已上路提速,但也不是一帆风顺。 小鹏原计划在2026年春节前推出的VLA2.0,最终决定延迟到3月。 按照小鹏的技术解读,称传统的VLA需要先把视觉信号翻译成机器语言,才能让机器识别。VLA2.0则省去了翻译这一过程,使得智驾链路缩短,当然技术难度也可想而知。 引用汽车媒体知瞭汽车评论里的话,“GX押注纯视觉。摄像头加图灵芯片,照明良好的高架没压力,广州测试视频里车流穿行也确实顺。但暴雨、浓雾、进隧道那一秒的白平衡切换、对面远光直射时的逆光——这些工况下,纯视觉的感知冗余天生低于激光雷达方案。“ 有汽车媒体分析指出,尽管小鹏想要复刻特斯拉的技术路线,但特斯拉有无数影子模型提前给大模型喂了很多数据,因此应对极端天气有优势。所以才敢用纯视觉挑战L4。 小鹏如果只是为了控制成本不用激光雷达而用纯视觉,仅仅依靠VLA加世界模型推理训练L4,要么技术上有重大突破可以弥补数据不足的弱点,要么就只能停留在技术验证阶段的简单尝试。 真要拿这套方案去赌消费者是否认可,还是要看最后的路测报告,否则很难服众。 要知道现行的L4落地案例,无论小马智行还是萝卜快跑,都是车路云一体化交通中的一环。无论北京亦庄还是湖北武汉,在L4测试路段你会看到无数挂着激光雷达的路灯和红绿灯。 自动驾驶汽车每时每刻都在和整个城市的路网交互,数据计算是云端的服务器在拼命,而不是指望车内为数不多的摄像头和算力有限的车载芯片,无论算力还是雷达数量,车路云是单车智能的成百上千倍。 那么效果如何呢? 当我满心欢喜体验了亦庄的L4无人出租车,把目的地设置到地铁进站口,但它最后还是把我扔到了天桥对面,害得我最后多走几百米。 结论就是,技术上L3当然不能被跳过。但商业上,车企在资源分配上,可以选择发力点L3还是L4。他们在赌,看谁先等来政策松绑。 最尴尬的还是我们广大消费者。当你作为新手还在驾校为自动挡还是手动挡如何选择而头疼的时候,当你还没有体验过拉线油门、手刹漂移、小狗撒尿的驾驶乐趣的时候,厂商们却千方百计不想让你自己开车。 失去驾驶乐趣,是AI时代汽车消费者最大的悲哀。
最强iPhone降临!iPhone 18 Pro五大重磅升级点提前看
快科技2月16日消息,根据供应链的最新消息,苹果计划对今年的新品发布节奏进行大幅调整。在即将到来的9月发布会上,苹果预计将只推出iPhone 18 Pro系列以及备受期待的首款大折叠屏iPhone Fold。 这意味着今年的秋季舞台几乎被万元档位的顶级旗舰所占据,而更亲民的iPhone 18标准版则可能要等到明年第一季度才会正式登场。 作为苹果有史以来升级幅度最大的产品,iPhone 18 Pro系列这次至少会带来五大核心卖点,具体如下。 1、更小的灵动岛: 首先是灵动岛的显著进化,苹果成功将泛光感应器隐藏在屏幕下方,这使得iPhone 18 Pro的灵动岛面积缩小了约35%。对于追求视觉沉浸感的用户来说,这无疑是屏占比最高的iPhone。 2、可变光圈: 在影像系统上,iPhone 18 Pro和iPhone 18 Pro Max的主摄均升级到了4800万像素可变光圈镜头。用户可以根据拍摄场景自由调节光圈大小,精准控制进光量与景深效果,让手机摄影更具专业质感。 3、A20 Pro芯片: 核心动力方面,A20 Pro芯片基于台积电最先进的2nm工艺打造,相比上一代的3nm制程,在全新的架构封装下,其性能爆发力和能效比都将迎来质的飞跃,为复杂的AI应用提供更强的底气。 4、N2芯片: 去年的iPhone 17系列刚刚普及了苹果自研的N1芯片,而今年的iPhone 18 Pro预计会直接搭载下一代N2芯片,在Wi-Fi 7、蓝牙协议以及AirDrop的稳定性上表现更佳。 5、C2基带: 最后是自研5G基带的迭代,全新的C2基带将出现在iPhone 18 Pro系列中,这颗基带将支持5G毫米波,弥补上代C1的短板。
全新MacBook来了:苹果把iPhone芯片塞进笔记本里 性价比暴增
快科技2月16日消息,苹果即将推出一款搭载A18 Pro芯片的新款MacBook,其核心目标非常明确:通过更亲民的价格策略,从低价笔记本市场中抢占更多的份额。知名爆料人Mark Gurman透露,苹果预计会在今年3月的春季发布会上正式揭开这款设备的神秘面纱。 众所周知,苹果旗下的MacBook通常搭载M系列芯片,但是这款MacBook直接搬来了iPhone 16 Pro同款的A18 Pro处理器。虽然在极限性能上它无法与顶级的M5系列抗衡,但在入门级市场,A18 Pro的底气依然很足,其实际表现甚至可以与当年的初代M1芯片一较高下。 在硬件设计上,新款MacBook的屏幕尺寸将略小于传统的13英寸,可能定格在12.9英寸左右。为了进一步压低成本,苹果采用了一种全新的铝制外壳制造工艺,这种工艺不仅降低了加工难度,更让机身在保持金属质感的同时,成本控制变得更具优势。 色彩方案或许是这款产品的另一大亮点,苹果想让它变得更具个性,目前内部已经测试了多种独特的配色,包括清新活泼的浅黄色、浅绿色、粉色和蓝色,当然也少不了经典的银色与深灰色。 总的来说,如果你一直向往苹果的生态体验,但又觉得目前的MacBook Air或Pro价格过高,那么这款即将推出的机型可能会成为你的首选。 目前爆料称其起售价可能在699美元左右,折合人民币约4800元。相比起目前起售价999美元的MacBook Air,这个价格确实极具诱惑力,极有可能成为学生党和轻办公用户的“真香”选择。
苹果放大招,iOS 27代码瘦身:续航史诗级升级
快科技2月16日消息,知名苹果爆料人Mark Gurman透露,苹果正准备在今年的开发者大会上展示iOS 27。虽然这一代系统在视觉设计上并不会大动干戈,但它在底层的优化力度可能是近年来最显著的一次。 iOS 27将继续沿用iOS 26的液态玻璃设计语言,UI界面只会在细节处进行微调,不会有颠覆性的视觉改变。苹果目前的工作重心已经从“面子”转向了“里子”,力求打造一个类似当年Snow Leopard时期的稳定版本。 这一版系统的最大杀手锏在于续航表现的史诗级提升,为了实现这一目标,苹果工程师正大规模清理系统中的冗余代码,以此提高代码库的整体运行效率。同时通过对旧版应用程序的底层调度优化,iOS 27能够以更低的功耗完成日常任务,这种瘦身式的优化策略将从根本上解决困扰用户的续航问题。 在人工智能领域,iOS 27同样有重头戏,全新的Siri聊天机器人将正式亮相,其底层接入了谷歌的Gemini模型。在苹果内部,该模型被称为Apple Foundation Models 11。据称,该模型的性能足以与谷歌的Gemini 3展开正面竞争,其实力将远超目前iOS 26.4测试版中的Siri。 按照苹果的传统发布节奏,iOS 27预计将于今年6月的WWDC大会上揭开神秘面纱,并随即开启开发者测试。等到9月份,它将伴随着全新的iPhone 18 Pro系列正式上线。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。