行业分类:
加载中...
头条分类:
加载中...
美国获沙特6000亿美元投资,NVIDIA再次成为赢家
在5月13日美国总统特朗普访问了沙特阿拉伯后,白宫在当天宣布美国获得了沙特6000亿美元投资,其中NVIDIA再次凭借AI芯片,成为此次合作赢家之一。 根据白宫方面介绍,沙特6000亿美元主要集中在能源安全、国防工业、科技、基建和关键矿产领域,其中国防占据了1420亿美元,让波音、雷神等美国企业笑开花。 在科技领域,NVIDIA则是实实在在的大赢家。为了推动沙特本土科技发展,沙特阿拉伯公共投资基金(Public Investment Fund)旗下有一家全人工智能价值链子公司HUMAIN,它计划在沙特本土建设一座人工智能工厂,预计在未来5年时间里,该工厂产能将达到500MW(megawatts)。为此,在工厂建设第一阶段会部署多达1.8万台使用英伟达GB300 Grace Blackwell AI芯片的超级计算机,以及使用英伟达的InfiniBand网络。不难看出,Humain与美国签署价值数十亿美元协议中,NVIDIA拔得头筹。 在4月份,特朗普禁止NVIDIA向中国销售针对中国市场定制的H20芯片,这将会大幅度影响NVIDIA盈利能力——供应链端消息指这将导致NVIDIA在二季度损失至少55亿美元。为了弥补损失,有消息指NVIDIA计划提升近乎全线产品的售价,比如说RTX 5090在海外已经普遍上涨了10%,RTX50其它产品普遍也有5-10%涨幅。不知NVIDIA获得这个大订单后,能否会手下留情,放游戏玩家一马呢?
一加平板 2 Pro:性能直接点满,全为游戏娱乐服务 | 新品画报
5 月 13 日,一加推出新一代旗舰配置的平板,一加平板 2 Pro。 平板这次搭载了高通骁龙 8 至尊版移动平台和一加自研的潮汐引擎,搭配 LPDDR5X 的运存和 UFS 4.0 闪存,标准的旗舰手机配置,常温状态下安兔兔跑分为 2877559。 平板搭载「风驰游戏内核」,支持《原神》120fps 超帧 + 超画双开,《星穹铁道》也可以 120fps + 1.7K 超帧超画双开。平板能在《原神》、《和平精英》等游戏里面实现键鼠映射,玩家可以直接在平板上接入鼠标键盘控制,玩 FPS 游戏会更加顺手。 新增的游戏助手加入了 AI 实验室功能,提供像是自动拾取等辅助功能。游戏视窗支持调节,《和平精英》和《王者荣耀》等游戏支持 21:9 比例显示。 屏幕部分,一加平板 2 Pro 搭载了一块 13.2 英寸 3.4K 144Hz 高刷屏,支持全亮度 DC 调光和全新的色彩管理 2.0 技术,色彩更准和更加护眼。 扬声器的配置也很豪华,平板搭载了由 4 高音超宽频单元、4 个中低音高功率单元组成的 8 扬声器系统,并支持了旋转立体声功能和全息音频 2.0 功能,后者能降低在多音源播放时的相互干扰,前者能提升声音定位的准确度,不同握持、摆放方式都能够听清游戏中的枪声、脚步声。 电池方面,一加平板 2 Pro 选了容量更大的 12140mAh 的电池,开着高性能模式玩游戏也不必担心续航。此外,平板还支持超长保电模式,在长时间限制的状态下能够降低电量流失。 不过快充只有 67W,0-100 充满要 90 分钟。 外观部分,一加取消了上一代中置的圆形 DECO 结构,换成更加简单的上下双摄排列,后盖元素减少,观感上更干净,配色也只有深海蓝和冰川银可选。 机身也以轻薄为主,5.97mm 厚加上 675g 的重量也是适合出门级别。后盖触感顺滑,手持舒服。只是日常使用还是要戴上保护壳,不然较容易留下痕迹。
看图猜位置不输o3!字节发布Seed1.5-VL多模态推理模型,在60个主流基准测试中拿下38项第一
在60个主流基准测试中拿下38项第一! 字节发布轻量级多模态推理模型Seed1.5-VL,仅用532M视觉编码器+200亿活跃参数就能与一众规模更大的顶尖模型掰手腕,还是能带图深度思考的那种。 相关技术报告也第一时间公开了。 整体而言,虽然是“以小博大”,但新模型在复杂谜题推理、OCR、图表理解、3D空间理解等方面表现出色。 比如猜下图中有几只猫,人眼很容易误将地上的黑猫当成影子: 还能用来玩“看图找茬”,速度和准确率双双胜于人类: 同时也能用来解答复杂推理谜题,考公党有福了(bushi~ 当然,以上也基于其强大的OCR识别能力。即便是长度惊人、中英混杂的消费小票,也能分分钟转换成表格。 除此之外,新模型还擅长处理Agent任务。它在GUI界面操作和游戏场景中,显著优于OpenAI的CUA和Claude 3.7等模型。 那么它是如何做到的呢? 532M视觉编码器 + 20B混合专家语言模型 通过深扒技术报告,背后关键主要在于模型架构和训练细节。 据介绍,Seed1.5-VL由以下三个核心组件组成: SeedViT:用于对图像和视频进行编码; MLP适配器:将视觉特征投射为多模态token; 大语言模型:用于处理多模态输入并执行推理。 模型支持多种分辨率的图像输入,并通过原生分辨率变换(native-resolution transform)确保最大限度保留图像细节。 在视频处理方面,团队提出了一种动态帧分辨率采样策略(dynamic frame-resolution sampling strategy),能够根据需要动态调整采样帧率和分辨率。 此外,为了增强模型的时间信息感知能力,在每帧图像之前引入了时间戳标记(timestamp token)。 这些设计让模型能够高效处理各种多模态数据,包括文本、图像和视频等。 而基于上述架构,团队接着开始了模型训练。 首先,团队使用了3万亿个多样化且高质量的多模态标注,这些数据是根据模型需要发展的特定能力来组织和分类的。 其预训练过程分为三个阶段: 阶段0:仅训练MLP适配器,以对齐视觉编码器和语言模型; 阶段1:训练所有模型参数,重点是掌握视觉定位和OCR能力; 阶段2:增加数据多样性,扩展序列长度,以适应视频理解和复杂推理任务。 值得一提的是,团队在预训练阶段观察到了—— 大多数子类别的数据训练损失与训练标记数量之间遵循幂律关系,即训练损失随着训练标记数量的增加而减少。 此外,某一子类别的训练损失与该类别对应的下游任务评估指标之间呈现对数线性关系(例如:评估指标 ∼ log(训练损失))的趋势,尤其在局部区域内尤为显著。 后者意味着,可以通过训练损失来一定程度上预测模型在下游任务上的表现。 接下来团队又进行了后训练,使用了监督微调和强化学习等技术。 其一,使用高质量的指令数据对模型进行微调,包括一般指令和长链推理(Long CoT)数据; 其二,结合人类反馈和可验证奖励信号,通过PPO算法进行训练,以提高模型的对齐能力和推理能力。 需要注意的是,团队在后训练采用了结合拒绝采样(rejection sampling)和在线强化学习(online reinforcement learning)的迭代更新方法。 他们构建了一条完整的数据pipeline,用于收集和筛选复杂提示,以增强后训练阶段的数据质量。 并且在强化学习过程中,监督信号通过奖励模型和规则验证器(rule verifiers)仅作用于模型生成的最终输出结果。 也就是说,团队特意避免对模型的详细链式思维推理(chain-of-thought reasoning)过程进行监督。 最后,为了支持大规模预训练和后训练,团队还开发了一系列优化技术: 混合并行化:针对视觉编码器和语言模型的不同特点,采用不同的并行策略; 工作负载平衡:通过贪心算法重新分配视觉数据,平衡GPU工作负载; 并行感知数据加载:减少多模态数据的I/O开销; 容错机制:使用MegaScale框架实现容错,确保训练的稳定性。 这些技术显著提高了训练吞吐量,并降低了硬件成本。 60项测试中拿下38项SOTA 那么其实际表现如何呢? 实验结果显示,新模型在60项公开基准测试中取得了38项新SOTA,其中包括19项视频基准测试中的14项,以及7项GUI智能体任务中的3项。 部分测试结果如下: 单拎出多模态智能体任务来看,它在多个GUI任务上,优于OpenAI的CUA和Claude 3.7等现有模型。 在多个游戏中,它也展现出强大的推理和决策能力。 与此同时,在内部测试中,新模型尤其在视觉推理、文档理解、3D空间理解等方面表现出色。 光看测试结果可能还不够,我们最后也来简单实测一下。 比如玩最近很火的“看图找地理位置”,随意一张游客照也能正确推理识别。 鉴于图中有灯塔这种可能容易暴露地标的元素,我们再换张难度更高的。 在无明显标识的情况下,o3曾因猜出的位置距离正确答案(加州埃尔格拉纳达附近的一家露天酒吧里)仅相差200-300公里而出圈。 而Seed1.5-VL最后的答案是加州沿海地区(比如蒙特雷县、圣巴巴拉周边的小镇): 这两个地点距离正确位置分别为160公里和440公里,和o3的表现已经相当接近。 不过最后需要提醒,团队表示新模型仍存在一些局限性,尤其是在细粒度视觉感知、三维空间推理以及复杂组合搜索任务方面。 在线体验: https://huggingface.co/spaces/ByteDance-Seed/Seed1.5-VL 论文: https://arxiv.org/abs/2505.07062 GitHub: https://github.com/ByteDance-Seed/Seed1.5-VL
阶跃星辰开源Step1X-3D大模型 可生成高保真和可控3D内容
【太平洋科技快讯】5月14日,阶跃星辰正式发布并开源其最新的 3D 大模型 Step1X-3D。该模型总参数量为 4.8B,其中几何模块参数量为 1.3B,纹理模块参数量为 3.5B。该模型采用了 3D 原生两阶段架构,将几何与纹理表征解耦,确保了生成内容的结构可靠性和视觉真实性。这种创新的架构设计,使得 Step1X-3D 能够生成高保真、可控的 3D 内容,为 3D 内容创作提供了强大的技术引擎。 Step1X-3D 的出色表现得益于其坚实的数据基础和先进的算法优化。阶跃星辰基于超过 500 万原始数据,经过严格筛选和处理,建立了包含 200 万高质量、标准化的训练样本库。同时,Step1X-3D 采用增强型网格-SDF 转换技术,提升模型学习的精准性和生成效率。在几何生成方面,混合 VAE-DiT 架构确保了 3D 模型结构完整,锐利边缘采样技术则捕捉了精细的几何细节。在纹理生成方面,基于 SD-XL 模型优化,结合几何条件引导和多视图同步技术,生成色彩饱满、细节生动的纹理。 Step1X-3D 模型的架构与主流 2D 生成模型(如 Stable Diffusion)兼容,并引入成熟的 2D 控制技术(如轻量化的 LoRA 微调)。因此,用户可以对生成 3D 资产的对称性、表面细节(如锋利度、平滑度)等多种属性进行直观、精细的调控,让创作更精准地符合用户意图。 此外,阶跃星辰还公布了完整的数据清洗策略、数据预处理策略,以及 800K 高质量的 3D 资产,3D VAE、3D geometry Diffusion 以及 texture Diffusion 的全链路训练代码开源。这些举措将有力地推动 3D 生成技术的发展,为开发者提供丰富的资源和工具。
华为AI生态打响突围战:拿下71%订单,英伟达仅29%
在2025-2026年AI推理设备集采中,华为CANN生态设备拿下70.8%的份额,把类CUDA生态设备远远甩在身后。这个数字背后,既藏着国产AI生态突围的曙光,也照出了与行业巨头之间的现实差距。 这几年AI赛道热得发烫,英伟达靠着芯片性能和CUDA生态吃下全球九成数据中心市场。但在中国市场,美国禁令让英伟达只能卖阉割版的H20芯片,这倒成了国产AI芯片的突破口。 不过明眼人都知道,换芯片容易,换生态才是硬骨头——就像习惯了Windows办公软件的用户,突然要转用Linux系统,应用兼容性和使用习惯都是绕不开的坎。 华为早看清了这个道理。2018年推出CANN生态时,就瞄准了CUDA生态这个靶子。这个对标英伟达的计算架构,上能兼容各种AI框架,下能对接自家昇腾芯片,七年磨一剑总算开始显山露水。这次中国移动的集采就像一场实战检验,5000台CANN设备入围,直接把对手压到三成以下,在特定场景下算是交出了漂亮答卷。 但把镜头拉远些,这场局部胜利还不值得过早庆功。全球范围内,90%的AI大模型仍在CUDA生态上训练,这个数字像座大山横在眼前。华为昇腾芯片虽然在性能上紧追猛赶,但生态建设不是堆硬件就能解决的。开发者习惯、工具链完善度、社区活跃度,这些软实力都需要时间沉淀。就像种树,芯片是树干,生态是枝叶,没有茂密的枝叶,树干再粗也成不了林。 中国移动这个案例倒给行业指了条明路:在政务、运营商这些对自主可控要求高的场景里,国产生态完全能挑大梁。但要想真正动摇CUDA的根基,还得在通用场景下证明自己。毕竟AI应用五花八门,今天在推理场景站稳脚跟,明天还得啃训练场景的硬骨头,后天还要在边缘计算、自动驾驶等新战场开疆拓土。 眼下华为手里攥着两张牌:一张是日渐成熟的昇腾芯片,另一张是逐步壮大的CANN生态。但AI战场没有终局,英伟达不会把江山拱手相让,其他国产玩家也在奋起直追。这次集采胜利更像一声发令枪,提醒着国产AI生态既要保持突围的锐气,也得做好打持久战的准备。毕竟在科技赛道上,从跟跑到并跑再到领跑,每一步都得踩得实实的。
华为野心藏不住了!联手优必选,要打造机器人的鸿蒙宇宙?
华为,要在机器人行业打造一个新的「鸿蒙宇宙」。 从1921年捷克作家卡雷尔·恰佩克首次提出「robot」一词,到2025年宇树科技机器人在春晚现场扭秧歌,100多年后的今天,机器人行业终于进入了爆发时刻。 5月12日,华为与优必选、腾讯云与越疆科技分别在深圳签署战略合作协议。腾讯与越疆科技签订合作的只是云服务部门,华为则是全面入场,将与优必选将联手在产品技术研发、场景应用及产业体系等方面开展创新合作。 (图源:豆包AI生成) 早在2022年,华为就与机器人独角兽企业达闼机器人合作(不过,这家机器人已被传倒闭跑路);2024年底,华为又与中国移动、乐聚机器人开展5.5G网络场景下机器人应用展开探索。与具身智能四小龙之一的优必选合作,则是华为正式投人形身机器人领域的标志动作。 机器人“鸿蒙宇宙”,来了! 最近几年,跨行进入机器人行业的企业不在少数,车企中有特斯拉、小鹏、比亚迪等,家电厂商中则有美的、海尔等巨头。根据自身实力和市场布局,部分企业选择了自研机器人,另一部分企业选择了与供应链合作。 不过优必选与华为的合作却有些特殊,华为在公告中称,将提供昇腾、鲲鹏、华为云及大模型等技术创新能力和华为研发、生产供应等经验,结合优必选全栈式人形机器人技术优势,提高机器人在工业、家庭等场景的效率,并加速其落地商用。 从官方公告来看,华为与优必选的合作深度较高,不仅有数据中心的算力、华为云的云服务、大模型技术等方面支持,就连研发和生产供应层面,也对优必选实现了全方位赋能。另外,华为虽早已注册「MATEROBOT」商标,但是否会自主生产机器人暂无定论。 (图源:爱企查截图) 华为与优必选的合作模式,令小雷想到了鸿蒙智行。进入汽车行业后,华为没有自己造车,而是提出了智选车、Hi、零部件三种合作模式,化身供应商。 汽车、机器人都属于重工业、重资产,入场成本高,即便华为是国内移动通信巨头,贸然进军这两个行业,也要承担极大风险。而且在供应链领域做到极致,营收不会低于车企,例如博世2024年营收高达903亿欧元、采埃孚营收为414亿欧元,比国内头部车企长城、长安更高。 进入人形机器人行业后,华为有可能延续汽车行业的战略,打造类似鸿蒙智行的品牌,与机器人厂商合作,将自身的技术实力和品牌影响力赋能机器人企业,加快人形机器人量产落地的速度、丰富应用场景。有鸿蒙智行作为前例,华为在机器人领域打造相似品牌难度不大。 (图源:鸿蒙智行) 至于华为会不会自产机器人,华为没有表态,我们无法确定。供应链企业奋达科技、安联锐视、亨通光电、汉威科技、软通动力、润和软件等,先后公布了一些与华为机器人方面的合作,似乎华为有自己造机器人的打算。 但机器人行业刚刚进入规模化量产阶段,已有大量入场者,未来可能还会有更多入场者,比如理想汽车就表示未来一定会进入机器人行业。机器人行业风险可能比新能源汽车行业更高,华为有可能将与供应链企业合作的成果,也赋能给优必选或其他与华为深度合作的机器人企业,而非自主生产机器人。 机器人量产元年,华为想做金牌助攻 从《工业机器人行业规范条件(2024版)》和《工业机器人行业规范条件管理实施办法(2024版)》等新规公布,到宇树科技机器人在春晚现场扭秧歌,再到「具身智能」和「智能机器人」出现在全国两会报告中,种种迹象表明国内对于机器人行业的支持将更进一步。 与此同时,宇树科技、优必选、智元机器人、特斯拉等国内外企业,陆续公布了2025年人形机器人量产计划,今年产能都将突破1000台。特斯拉CEO马斯克在采访中表示,今年将生产数千台Optimus人形机器人,明年要将产能提高10倍,生产5万到10万台人形机器人。国内媒体和网友们,已将2025年称为「人形机器人量产元年」。 (图源:优必选) 然而人形机器人真正迈入量产阶段之时,机器人企业们又发现了一个问题:该如何打入工业和家庭服务市场? 小鹏、特斯拉、比亚迪拥有汽车工厂,生产出的机器人可以先送到生产线「打螺丝」,就算成本高于雇佣员工,也可以视为对机器人的测试。机器人初创企业不具备这一特点,需要与企业接洽,证明机器人员工的领先,才能走进工厂,而这也需要成本。 华为的入场,对于优必选等合作伙伴而言,首先肯定是技术层面的支持。训练适用于机器人的大模型需要算力和数据,华为云是与阿里云、腾讯云并列的中国三大云服务公司,拥有规模庞大的数据中心,且开发出了昇腾、鲲鹏系列高性能芯片,可为合作伙伴提供算力支持。 华为自研的辅助驾驶方案,也可以用于提升机器人的空间感知和决策能力。理想汽车CEO李想曾表示,汽车的终极形态就是空间机器人,搞定L4级自动驾驶,是理想汽车进入机器人行业的前置条件。在空间感知和决策方面,自动驾驶汽车与机器人同源,华为辅助驾驶技术实力无可争议,可以将智驾端到端大模型积累的技术赋能合作伙伴,帮助机器人企业打造更强大的机器人大模型。 技术之外,华为还可以为机器人企业提供两大加持,第一是销路拓展能力,华为在深圳、惠州、东莞等城市,设有多个大型生产基地,而且与赛力斯、奇瑞、江汽、北汽等车企也有合作,与华为合作的优必选,有可能将生产的机器人送至华为工厂或鸿蒙智行合作品牌的汽车工厂工作。 (图源:豆包AI生成) 第二是品牌加持,现阶段人形机器人因技术不够成熟,主要面向B端市场,对于品牌影响力的需求不算很高,但机器人终将进入家庭服务场景,C端市场消费者对于品牌较为重视。赛力斯能够从东风小康摇身变为中国新能源汽车行业霸主,华为影响力功不可没。 机器人走入家庭场景后,也将作为智能家居的组成部分,能否与其他智能生态相连非常重要。如果远程控制机器人总要使用特定的App,体验难免不够完善。接入华为智能生态后,优必选机器人也可以如同加入鸿蒙智行的汽车一般,随时随地都可以使用语音远程控制。 机器人企业既要考虑技术,也要考虑市场,能够为他们提供这两项加持的企业不多,华为正是其中一个。在机器人今年规模化量产,明年产能或将成倍增长的情况下,华为或将为合作伙伴的「金牌助攻」。 奔向万亿市场,选对方向是第一步 2024年NVIDIA CEO黄仁勋曾在采访中表示,机器人技术将在2-3年内取得重大突破,未来会像汽车一样普遍。采访视频的评论区,马斯克表示机器人的普及度将是汽车的10倍。尽管机器人产品进入成熟期还需要时间,但业内人士已经描绘出了行业的广阔前景。 问题是,与新能源汽车行业相同,机器人行业机遇与风险并存。2022年便于华为开展合作的达闼机器人,估值一度超过宇树科技,如今却资金链断裂,陷入破产危机。搜狐新闻报道称,达闼机器人已经连续裁员,北京研发中心容纳五六十人的办公区域,只剩下10名左右员工。在新能源汽车行业,拜腾、恒驰、自游家等前车之鉴更是不胜枚举。 (图源:达闼机器人) 或许是考虑到了其中的风险,华为才会表现出在机器人行业打造第二个鸿蒙智行的想法。小鹏、特斯拉、小米等企业,自身拥有不错的品牌影响力,无需与华为深度合作,若是有需要可以走类似鸿蒙智行Hi和零部件模式的合作路线,向华为寻求技术支持。 机器人初创企业除了上过春晚声名大噪的宇树科技,其他企业只是在圈子里火,普通消费者并不了解。与华为的合作后,他们能够解决数据中心、技术、品牌影响力等多重难题,可起到加快机器人量产落地和功能升级的作用。 机器人企业需要先发优势,奠定市场基础,第一批面向C端市场量产人形机器人的企业,有机会获得如同「造车新势力御三家」的称号。优必选固然技术底蕴雄厚,但得到华为的加持后,才能完全释放技术实力与潜力,在B端场景测试产品,并借助华为的品牌影响力开拓C端市场。
全球首个女性肿瘤AI大模型“木兰”进入临床应用
IT之家 5 月 14 日消息,华中科技大学今日宣布,全球首个女性肿瘤 AI 大模型“木兰”,正式进入临床应用阶段。 “木兰”由华中科技大学同济医学院附属同济医院国家妇产疾病临床医学研究中心、中华医学会妇科肿瘤学分会、中国医疗保健国际交流促进会妇产健康医学分会,联合神州医疗科技股份有限公司共同研发。 目前,公众可通过“华中科技大学同济医院”官方微信公众号或“掌上同济”App,在互联网医院下的“同济・木兰 AI 咨询”栏目中获得免费服务。未来,该模型还将通过更多手机端线上平台、电脑端应用以及各级医疗机构等多种渠道,向公众开放。 华中科技大学表示,该模型以国内外权威的女性肿瘤医疗指南和高质量专家共识为基础,融合了同济医院近 20 年来的高质量病例数据,整合中国工程院院士、同济医院妇产科学系主任马丁团队的临床经验与国际领先的原创成果,是国际上首个符合中国人群特点的女性肿瘤大模型,有效破解了我国女性肿瘤诊疗标准化程度低、同质性差的难题。 IT之家从该校介绍获悉,既往通用大模型常出现数据知识不足、复杂场景回复效果不佳、信息来源不明确、人工智能幻觉等多种问题,在疾病诊疗过程中往往难以制定出精准、个体化的方案。“同济・木兰”大模型引入 DeepSeek 的深度推理能力,叠加神州医疗跨学科大模型团队研发的多模态数据智能基座,构建出“双引擎”架构,可全面整合临床信息、影像资料、病理数据、基因检测等多源异构数据,实现多模态特征提取与识别,并结合输入传统小预测模型进行辅助预测,覆盖预防、早筛、诊断、分期、预后分层,到个性化诊疗方案制定和患者管理等疾病防治的全流程。 在实际应用中,该模型不仅为普通人群提供女性常见肿瘤初步筛查、结果解释、健康教育和疾病预防等服务,还能将病历、影像、病理数据融合,自动生成个性化诊疗建议,为医生提供精准的诊疗辅助,并自动生成相关记录。对于基层医生而言,“同济・木兰”大模型将提升其在肿瘤筛查、风险评估、规范转诊等方面的能力,推动肿瘤诊疗的均质化。 研发团队成员、同济医院副院长陈刚表示,人工智能技术与临床需求深度融合,将成为破解临床诊疗难题,推动医疗资源均衡化配置的重要突破口。未来,团队将持续优化“同济・木兰”大模型,助力提升我国女性肿瘤防治体系建设,守护女性健康。
京东外卖又崩了?客服回应:午间时段可能人力不足,会显示无人接单,是正常的
5月14日午间,多名网友发帖称订购的京东外卖没有骑手接单配送、出现订单延迟等情况,引发热议。 不少网友在“京东外卖”官博评论区留言称:“服务器又崩了”“骑手都快送到了订单里面还显示无骑手接单”。 另有网友表示“等了一中午了”,希望“赔付一张20元无门槛优惠券”。 对此,京东客服表示,骑手接单在午间时段有可能出现人力不足的情况,有时候会出现长时间无人接单的情况,是正常的,具体配送与用户所在地区相关,客服目前尚未收到京东外卖系统出现崩溃的通知。 据悉,京东外卖自今年2月上线以来已不止一次系统崩溃。 4月22日中午,不少网友在社交媒体上发文称京东外卖崩了,相关话题迅速冲上热搜。 22日下午,“京东外卖”官博发文致歉: 非常抱歉,耽误大家用餐了!因今日午高峰京东外卖下单量暴增,导致系统出现短暂故障,目前已全面恢复,大家可以正常下单了。 感谢大家的理解与支持,为表达歉意,所有超时20分钟以上的外卖订单,京东全部免单。同时,对于今日午高峰宕机期间所有下单用户,京东外卖将于今天额外发放一张10元无门槛优惠券到下单账户。 随后,有网友晒外卖超时后系统自动退款的页面截图,表示已收到全额退款。 微信编辑:魏国峻 审核:林夕合
火山引擎密集上新:豆包全新视频生成模型、视觉深度思考模型,Trae多个重点功能升级
作者 | ZeR0 编辑 | 漠影 智东西5月14日报道,在5月13日的火山引擎AI创新巡展·上海站活动上,火山引擎晒出大模型全景图,发布豆包·视频生成模型Seedance 1.0 lite、豆包1.5·视觉深度思考模型,升级豆包·音乐模型。同时,Data Agent正式亮相,国内首款AI原生IDE产品Trae接入豆包深度思考模型并升级多个重点功能。 目前,火山方舟已覆盖语言、深度思考、视觉理解、视觉、语音、GUI Agent等多类模型。 火山引擎副总裁张鑫在会上谈道,模型、算力、数据、安全构成了AI时代的新基建,火山引擎同时对外提供这“四要素”: 模型方面,豆包大模型支撑了50多个内部真实场景、30多个行业外部企业共创,截至4月份,日均tokens调用量超过12.7万亿。 算力方面,火山引擎AI云原生提供了强有力的系统承载力,包括充沛算力、推理层优化、系统调度能力的乘积。 数据方面,数据飞轮2.0和Data Agent,让用户可以基于动态的多模态数据湖,以智能重塑数据关系。 安全方面,大模型安全方案提供PCC私密云计算平台,可解决端云协同计算过程中的数据泄露问题,并通过大模型防火墙消除一系列攻击隐患。 一、视频生成模型:效果好、生成快、更便宜 新发布的豆包视频生成模型Seedance 1.0 lite,支持文生视频、图生视频,视频生成时长支持5s、10s,分辨率提供480P、720P。 企业用户可在火山方舟平台使用该模型API,个人用户也可在豆包App、即梦体验。 作为豆包视频生成模型系列的小参数量版本,Seedance 1.0 lite模型实现了两大突破:影视级的视频生成质量、视频生成速度大幅提升,兼顾效果、速度、性价比。 (1)更精准的指令遵循:通过强大的语义理解,可精细控制人物外貌气质、衣着风格、表情动作等,并在多主体动作解析、嵌入式文本响应、程度副词和镜头切换响应方面具有优势。 (2)更丰富的影视级运镜:支持360度环绕、航拍、变焦、平移、跟随、手持等多种镜头语言,具备细腻高清的基础画质和影视级美感。 (3)更合理的运动交互:分析动作时序与空间关系,提升人物、物体间自然流畅的交互动作,运动轨迹、受力反馈更加契合现实规律。 Seedance 1.0 lite模型可广泛应用于电商广告、娱乐特效、影视创作、动态壁纸等场景。例如在电商领域,该模型可帮助商家快速生成高质量的营销视频素材,精准匹配产品展示、活动推广等场景,降低制作成本与周期。 二、豆包1.5·视觉深度思考模型:在60项评测中取得38项第一 新发布的豆包1.5·视觉深度思考模型(Doubao-1.5-thinking-vision-pro),激活参数仅20B,但具备强大的多模态理解和推理能力,在60个公开评测基准中有38个取得SOTA表现,在视频理解、视觉推理、GUI Agent能力等方面均处于第一梯队。该模型已在火山方舟上线。 在视频理解方面,豆包1.5·视觉深度思考模型支持动态帧率采样,视频时序定位能力显著增强,结合向量搜索,可精准定位视频中与文本描述相对应的片段。 同时,该模型新增视频深度思考能力,学习了数万亿多模态标记数据,掌握广泛视觉知识,结合强化学习,使视觉推理能力大幅提升。例如,在复杂的图形推理题中,模型提出假设,进行推理检验,当发现和假设不一样时,还能进行不断反思,提出新的猜测,直到得出正确答案。 豆包1.5·视觉深度思考模型还新增了GUI Agent能力,基于强大的GUI定位性能,可在PC端、手机端等不同环境中完成复杂交互任务,例如可对新开发的App功能进行自动化检测。该功能已应用于字节跳动多款App产品的开发测试中。 去年,火山引擎推出了豆包·音乐模型。基于该模型,用户仅通过一张图、一句话,就能创作10多种不同风格的高品质音乐。此次大会上,豆包·音乐模型升级,不仅支持英文歌曲创作,还可以通过理解视频,自动适配纯音乐BGM。 豆包·音乐模型已全量上线,个人和企业用户可在海绵音乐、火山引擎官网体验。 三、火山方舟:免登录,低价推理,3分钟搞定DeepSeek满血版部署 火山引擎旗下的一站式大模型服务平台火山方舟,提供了语言、视觉、语音等模型的精调、推理、评测等功能与服务,通过丰富的插件生态和安全可信的方案,让企业及开发者的AI应用更易落地。 开发者可在免登录的情况下,极速体验模型能力。对于要长期使用的实名制用户,火山方舟简化了模型接入链路,无需多页面跳转,2分钟即可完成模型接入。在安心推理体验模式下,火山方舟不会主动消耗付费资源,并支持按模型分配tokens。 火山方舟推出了两种离线批量推理方案。其一,从存储中批量读取数据,以进行离线推理;其二,直接调用类似于在线聊天的模型接口,对批量请求的动态负载实施精准控制,几分钟便可完成开发适配。 针对每个用户,火山方舟提供每日不少于100亿个token的批量推理额度,并提供更低价格。相比在线推理,批量推理的价格降低了50%;如果使用前缀缓存,命中部分价格再降40%;存储费用为0元。 火山方舟还提供超低延迟的小时级推理保障包。用户可依据业务实际流量曲线来精细地规划所需资源,无需为业务低谷期付费,从而节约成本节约。例如,Deepseek-R1的推理保障包能稳定提供20ms的每token延迟,豆包1.5 Pro的推理保障包可将推理延迟降低到15ms。 极致的性能是充沛算力、深度技术优化、系统调度能力的乘积。火山方舟用充沛的资源和先进的系统工程能力,提供高并发算力保障和极致的服务体验。在多方测评中,火山方舟Deepseek-R1服务始终保持最低的延迟表现。 这得益于火山方舟多年来在算子层、框架层和调度层开展的深度优化工作:通过Prefill Decode分离式部署(即PD分离)、存算分离、kernel优化、秒速扩容等技术,在异构硬件协同优化与通信开销中实现极致性能,确保方舟推理既快速又稳定。 有模型定制、部署及推理需求的企业客户,可以使用火山引擎机器学习平台。该平台与方舟共享相同的大模型推理引擎,具备业内领先的生产级可用的PD分离、分布式KV Cache能力。 火山方舟机器学习平台突破了传统部署的复杂流程,通过预置模型和镜像以及PD分离部署方式,仅需1- 3分钟即可一键启动预置模型服务,完成DeepSeek推理集群的部署。 凭借高性能文本推理框架xLLM以及分布式系统优化,机器学习平台将TPOT(吐字间隔)优化至20ms。 在使用两台8卡H20的情况下,xLLM推理性能在DeepSeek-R1 671B模型上,相较于开源SGLang方案实现了4.5倍的吞吐量(tokens/s)提升,同时每token延迟降低至1/3。 基于自研DiT推理框架veFuser,该平台可在15秒内生成一个5秒480P的视频,相比行业平均水平,推理效率提升4.5倍。 火山方舟还提供全周期安全可信方案,通过链路全加密、数据高保密、环境强隔离、操作可审计四个安全模块,确保会话无痕。 火山方舟应用实验室为客户和开发者提供完整的场景化解决方案和完整的源代码:面向应用插件、多模态、终端等场景,提供超过20个开源应用;面向具有专业开发能力的企业开发者,提供大模型应用开发所需的工具集和流程集,支持快速开发和定制匹配业务场景的大模型相关应用;支持超过60个大模型产品,用户可轻松将方舟大模型集成到主流软件。 火山方舟应用实验室广场还有非常多有趣的应用,比如帮助网店运营的智能导购、豆包模型与DeepSeek协作的长期记忆方案、整合多模态和硬件能力的实时对话AI硬件、提供标准化解题链路的教师分身等。 四、Data Agent助攻企业挖掘数据资产,新版Trae接入豆包深度思考模型 Data Agent是火山引擎推出的企业数据全场景智能体。它就像一个企业级AI数字专家,具备主动思考、洞察、分析、行动能力,可深入帮助企业挖掘数据资产价值,功能覆盖数据分析、智能营销等关键领域。 在数据分析上,Data Agent能融合企业内结构化与非结构化数据,结合联网知识,精准理解业务需求,快速生成专业深度研究报告。 通过自动化制定分析方案、追溯指标波动、运用自助分析工具及搭建预警系统,Data Agent实现数据处理全流程智能化,可将复杂报表生成的时间从2天缩短至30分钟,显著提升数据获取与决策效率。 在智能营销领域,Data Agent实现从策略制定到执行优化的全链路闭环管理,高效完成人群圈选与策略拆解,基于个性化引擎实现精准营销。 此外,其智能会话辅助与自动复盘优化功能,可不断提升转化率与客户满意度,动态迭代营销策略。 打造高智商的智能体,不是一次性搭建的静态结果,而是数据、模型、工程、业务动态耦合的持续迭代过程。因此,智能体还需要持续的全生命周期管理。HiAgent发布的Agent Devops体系,打通了从开发、运营调优到用户使用的全链路。 通过统一的AI交互入口,企业员工可以更好地使用更多的智能体。比如企业的管理员可登录HiAgent,选择要发布的智能体。发布后,员工可根据意图和需要,唤醒和使用不同的助手,如任务助手、差旅助手、报销助手、会议助手等。随着员工更多使用智能体,企业也能够积累越来越多的数据和用户的行为偏好,让AI越来越懂企业,越用越聪明。 最新版本的Agent Devops近期全面适配MCP协议,提供了更好的开放性,也集成了火山引擎安全防火墙,提供了更好的安全加固能力。此外,火山引擎还基于自身以及客户、合作伙伴共同沉淀的知识与实践,打造了一套HiAgent应用样板间,以帮助客户快速搭建好贴合业务属性的智能体。 为帮助开发者更便捷地利用AI提升开发效率,国内首款AI原生IDE产品Trae也带来多个重点功能升级,例如统一的AI对话面板(所有交互仅需一个对话框)、支持自定义@Agent(构建专属AI团队)、新增联网搜索 #Web和文档 #Doc 的上下文理解类型(AI执行需求更准确高效)、通过MCP让AI主动调用外部工具等。 目前,Trae已配置豆包1.5·深度思考模型(Doubao-1.5-thinking-pro),基于模型主动深度思考和20毫秒极低延迟,让代码生成的质量更好、效率更高。 Trae团队预测未来会有两个主要趋势:一是复杂度上,随着模型能力增强,AI编程会从复杂度较低的代码片段生成,往复杂度更高的软件生成、项目生成方向演进;二是交互逻辑上,AI编程会从原先在IDE等工具里嵌入AI方式,逐渐往AI使用各种工具来实现软件各种各样的开发需求。 后续,Trae将逐步开放智能体的一些底层能力,支持开发者做更深层次的自定义专属智能体,并将提供更好的人与AI协作机制,来激发人的创作,同时发挥AI的生产力。 五、豆包大模型产业落地加速,为游戏、医药行业拓界增效 豆包大模型已在汽车、智能终端、互联网、金融、教育科研、零售消费等行业广泛落地,覆盖4亿终端设备、八成主流车企、70%系统重要性银行和数十家证券基金公司、近七成的C9顶级高校和100多家科研院所。 在游戏行业,巨人网络正在借助大模型能力重塑游戏体验和玩法创新。通过火山方舟接入豆包大模型及DeepSeek,巨人网络今年3月在旗下《太空杀》中推出Al原生游戏玩法“内鬼挑战”,通过接入火山方舟DeepSeek-R1及豆包大模型的深度思考等能力,打造AI玩家,与真实玩家进行实时策略对抗,重新定义了社交推理游戏的智能边界。 同时,《原始征途》也接入大模型能力打造AI智能NPC“小师妹”,在游戏策略指导、情感陪伴等方面提供更智能、更人性化的交互体验,显著提升了玩家粘性。 此外,借助火山引擎机器学习平台所提供的大模型训练及资源保障,巨人网络亦推进了自研视频生成大模型、游戏音效生成大模型的迭代优化。 在医疗行业,礼来制药搭建了专属AI应用开发平台,支撑从药物研发到疾病诊疗的全场景创新。 通过可视化的拖拉拽工作流编排,礼来制药搭建了HCP Chatbot、地区经理辅导报告等智能体,在学术沟通、销售培训、疾病教育等多个场景中形成应用,实现了企业AI资产的沉淀与持续化运营。 六、全链路、全场景AI云原生推理套件,帮助企业加速AI转型与升级 随着DeepSeek热度高涨,火山引擎MaaS流量也迎来了新一轮增长。当前火山引擎MaaS服务所服务的Deepseek和豆包大模型,支持了每天峰值千卡级别的GPU弹性能力、500万初始TPM(每分钟token数)、超过3万的RPM(每分钟请求数),日均Tokens使用量达到12.7万亿。 火山引擎AI云原生推理套件相关产品为这些能力提供了支持。 在第三方测评排行榜上,火山引擎DeepSeek服务在首token、推理速度、生成速度上均表现最优,在同样硬件资源上运行DeepSeek-R1满血版,相比开源SGLang,可将TPS吞吐提升5倍,GPU使用成本降低80%。 对于不同的模型,火山引擎提供了多样化的接入和使用方式,包括方舟MaaS平台、机器学习平台、AI云原生推理套件。 面向大模型推理的AI云原生推理套件ServingKit,能够帮助企业实现从模型部署、推理到运维的全链路提效。 在部署阶段,镜像下载和加载的加速服务,使得首次部署和扩容阶段能快速拉起业务进行业务发展。Onion镜像权重加速引擎可实现DeepSeek-R1满血版模型109秒下载、40秒缓存预热、13秒权重加载。 在推理阶段,通过GPU算子加速器、APIG AI网关、VKE编排调度、KVCache缓存服务等能力升级,来优化推理性能。其中算子优化后,R1满血版的TPS提升了2.4倍;智能路由可以TTFT降低60%;KVCache在长文本推理场景,KVCache命中率相比GPU Local提升了10倍。 在运维阶段,观测平台APM和VMP全面升级,支持推理业务无侵入式透明埋点,从资源层到推理业务层实现全链路、全场景的观测指标覆盖。 火山引擎与英特尔合作,通过“云实例+镜像”的方式,提供一个低门槛、高效率的大模型开发入场券,并将持续提升大模型部署效率、降低算力成本。 结语:从模型矩阵到智能体工具,推动AI应用落地普及 根据火山引擎副总裁张鑫的分享,企业应在AI落地过程中走好业务价值、模型基建、智能体应用三段旅程。业务价值可分阶段实现,首先是达成战略共识(-1→0),然后选择技术成熟度高、数据就绪度高、业务价值明显的场景进行场景验证(0→1),在此过程中逐渐构建自己的AI能力中心和沉淀企业知识库,为后续实现扩量复制(1→N)、价值重构(N→∞)打好基础。 在整段旅程中,企业要构建的核心竞争力,来源于结合AI做到极致的产品体验设计,沉淀企业独有的领域知识库甚至专业模型,打造面向AI的人才组织和文化。 技术落地的过程远不止引入一个大模型那么简单,而是包含多个不同维度,涉及模型选择、效果评估、数据知识工程、算力准备、开发平台搭建、模型接入、效果评估、模型基建的落地旅程、数据知识工程、算力准备、开发平台搭建、模型接入、效果调优、性能安全测试等环节。 火山引擎计划以更全面的模型矩阵、更丰富的智能体工具,帮助企业打通从业务到智能体的应用链路,进一步推动AI普及,希望与更多企业一起将AI科技落地的方式从以前的手工编写“Hello World”代码变成更轻松的对Agent Say “Hi”。
卷王吉利再发力,新博越 L 售价下探至 9.29 万元
吉利才是真「卷王」。 前脚的星耀 8 刚刚把 5 米长中大型轿车的价格卷到 12.58 万元,紧接着的新款博越 L 更是直接把入门家用 SUV 的价格做到了 10 万元以内。 第四代的新博越 L 这次一共有 5 个版本,最低配的 1.5T 版本上市优惠价是 9.29 万元,最高配的 2.0T 版本则是 11.99 万元。 如果要用一个词来总结新款的博越 L,那么「电里电气」这个词可能再合适不过了,无论外观、内饰还是各种配置,都是满满的「智能化」味道。 先来看看外观,在新款车型的照片发布之后,有车友觉得新款的前脸造型没有老款个性,但董车会倒是觉得这个新款前脸大气了不少,也更符合其家用的定位。 第四代博越 L 的正脸采用了全新直瀑式进气格栅,由32组间距8.5毫米的镀铬饰条构成,表面进行了镜面抛光处理。同时前包围两侧设计了 T 字型导流结构,雾灯附近的开口也扩大了不少。 大灯则是由632 颗灯珠构成的一整条贯穿式灯带,吉利说其照明宽度可以覆盖 6 条车道,最远有效照射距离可达 184 米。 车身侧面则还是悬浮式车顶的设计,采用车身与车顶不同色的双色设计,设计团队也通过收窄轮眉间距等方式让整车的风阻系数降低到了 0.32 cd。 尾车则是一整条的贯穿式尾灯,并将牌照框也下移到了后保险杠区域,比起前代车型,这次博越 L 把排气系统改成了隐藏式布局并新增了导流鳍片。 新款博越 L 的车身尺寸为 4730mm / 1910mm / 1710mm,轴距为 2785 mm,较现款的长度增加了 60mm,宽度增加了 10mm,后包围的离地间隙提升了 18 mm,达到了 273mm。 如果说外观上多少还能看出点燃油车的痕迹,新车的内饰则完全就是新势力们的样子了。 新博越 L 车内整体是环抱式的架构,中控配备了一台 15.4 英寸的 2.5K 分辨率液晶屏,包覆材质上则大量使用了Nappa真皮与超纤麂皮混搭材质。主驾座椅配备了 12向 电动调节,坐垫长度和腿托部分也都有加长。 同时,吉利在新车的仪表台和门板等 12 个区域都配备了 256 色氛围灯,支持与驾驶模式联动的动态光效,同时给了 16 个扬声器和 4 个头枕发声单元,最大输出功率来到了 1200W。 在智能化的部分,吉利把之前为纯电和混动车型开发的智能化技术,也迁移到了这台博越 L 上,发布会上也重点介绍了其「AI 数字底盘」和「AI 情感座舱」。 这套 「数字底盘」最主要的作用是可以实现悬架阻尼 10ms 级动态调整,同时提升 15% 的滤震效率,也可以减小紧急变道时的侧倾角。总结来说就是整体的行驶质感会上一个档次,坐在车里的舒适感会强上不少。 搭载 Flyme Auto 1.8 系统的车机则是「情感座舱」的最直接体现,在 16Tops 算力的龍鹰一号芯片加持下,座舱语音的唤醒响应时间可以缩短到 0.38 秒,同时也支持了 23 种方言的识别。 同时升级进化的还有这次的整车电子电气架构,这次吉利将博越 L 上面的 14 个域控制器整合成了 2 个中央计算单元,整车的线束减少了 1.2 公里到 1.8 公里,数据传输的速率也提升到了 10Gbps 。 还有一个很实用的升级是,吉利博越 L 这次支持 OTA 远程修复 98% 以上的软件故障,这项功能依靠的是一套 AI 云诊断系统,可以实时监测 328 项车辆参数,故障的预警准确率可以达到 99.6%。 动力系统倒是没做改变,新车用的还是上一代的 JLH-4G20TDJ 发动机,根据配置不同提供 1.5T 和 2.0T 可选,最大功率分别为 181 马力和 218 马力,峰值扭矩分别为 290 牛·米和 325 牛·米。传动系统方面,与之匹配的是 7 速式湿式双离合变速箱。 虽然说目前纯电化是大趋势,但是燃油车依然在很多场景下是更好的解决方案,第四代的博越 L 也算是为那些垂涎的各种智能化功能,但是需要燃油动力的车主们提供了一个不错的选择。 博越一直以来就是吉利系的主力车型,在 25 年 1 月份更是创下过月销 2 万辆的记录,新车这次在配置和智能化都有提升的情况下,售价却降低了接近 3 万元,很大概率能让销量再上一个台阶。
谷歌打造的“AI同事”要来了!软件开发流程将被颠覆
编译 | 李夏 编辑 | 漠影 智东西5月14日消息,据外媒The Information报道,随着AI编程助手在各大科技公司中广泛应用,工程师的开发效率得到了显著提升。亚马逊、谷歌等科技巨头的CEO在财报电话会上频频提及这类工具的重要性。 然而即便是当下最流行的AI编程工具,也仍需大量人工提示与引导,与工程师协同“手把手”完成工作。 而这一切,正在发生改变。 一、谷歌即将亮相“AI同事”代理工具,软件开发流程迎来变革 谷歌正计划在即将召开的Google I/O开发者大会上,展示其最新的AI软件开发工具。 据外媒The Information最新报道,这款被称为软件开发全生命周期代理的工具,本质上是一个时刻在线的AI同事,能够自动识别Bug、发现安全漏洞,甚至能协助开发新功能代码。 这标志着AI从“工具”角色向“同事”角色转变,有望从根本上重塑软件工程师的工作方式。 二、初创公司快速跟进,自动化编程生态加速成型 实际上,谷歌并不是首家涉足这类AI代理的企业。就在上周末,由美国初创公司Anysphere开发的热门AI编程助手Cursor推出了后台代理的功能,目前虽为预览版本,但同样具备类似的功能。 这一新型AI代理助手能够在不依赖大量人工干预的情况下,自动完成一些重复性开发任务,例如修复Bug、构建小型功能模块或重构现有代码。 此外,也不能忽略本领域的先行者——Cognition。这家美国初创公司因推出号称“更少依赖人类输入”的AI开发工具Devin而一度走红,尽管它仍存在一定不稳定性。 三、OpenAI A-SWE仍未露面,竞赛焦点转向谁能率先落地 随着大模型技术的发展,这些AI工具的能力正持续进步。未来工程师将能像指导一位初级程序员一样,将更多任务委托给AI,而AI工具也不再需要等待人工触发,而是会常驻后台,自动检测并处理潜在问题。 也正因如此,我们不禁要问:OpenAI的智能代理工程师产品A-SWE究竟在哪? 外媒The Information在今年1月曾首次报道,OpenAI正开发一款面向高级软件工程师的AI工具A-SWE,旨在协助处理更复杂的编程任务。OpenAI高管还将其视为向通用人工智能迈进的关键一环。 据悉,OpenAI员工已测试A-SWE数月之久,并在多个场合向外部演示。CFO Sarah Friar也曾在公开场合谈及该项目。 不过截至目前,OpenAI正式发布的仅有今年4月开源的Codex CLI,这可能是A-SWE的早期或简化版本。 结语:谷歌领跑AI开发代理工具竞赛?OpenAI面临正面挑战 如果谷歌真的率先推出其AI编程代理工具,那么在最新Gemini大语言模型不断获得好评的背景下,这无疑将成为谷歌在AI开发领域的一次重大胜利。 而A-SWE是否能及时现身,回应市场期待,也将成为下一阶段AI开发工具之战的焦点所在。
iPhone 支持意念操控了,背后藏着脑后插管的另一种答案
需要脑机的 是他们 苹果正试图让你「用脑子」刷 iPhone。 没错,不是比喻,是字面意思——动动脑子,就能操作 iPhone、iPad、Vision Pro 等数码电子产品。 根据《华尔街日报》的最新报道,苹果正在跟脑机接口公司 Synchron 合作开发一项新技术,目标是帮助让脊髓损伤或渐冻症(ALS)等患者用意念来操控 iPhone。 换句话说,你的脑袋将成为下一个输入法。 意念操控 iPhone,听起来离谱,但正在发生 听起来像天方夜谭,但这项技术确实已经在路上。 Synchron 用到一种名为 Stentrode 的设备:它形似支架,通过手术植入到大脑运动皮层顶部的静脉里,然后 Stentrode 能读取大脑发出的神经信号,并将这些信号转换为在屏幕上选择图标的操作。 你可能会问:这跟苹果有啥关系? Stentrode 将接入的,是苹果自带的无障碍功能之一:切换控制(Switch Control)。这本来是给行动障碍者设计的辅助功能,支持用按钮、头部动作、眼动设备等来操作界面。 现在,它多了一个新选项:你的脑子。 这样一来,大脑就成了新的鼠标,Stentrode 负责「听懂」你的意图,Switch Control 负责「翻译」成系统动作,脑电波被识别为合法的输入方式,从而控制 iPhone、iPad 等设备。 一句话总结:脑电波 + 苹果生态,堪称最强赛博融合。 报道称,虽然 Stentrode 目前还处于测试阶段,离拿到美国食品药品监督管理局(FDA)的正式批准还有好几年要熬,但目前人类试验取得的效果还不错,让不少患者第一次真正「自己」打开了一台苹果设备。 比如 ALS 患者 Mark Jackson,就是这项技术的首批测试者。 他无法站立,也无法离开位于匹兹堡郊区的家,但借助这项技术,他可以通过 Vision Pro 「看到」自己站在瑞士阿尔卑斯山的悬崖边,并「感受」到腿部的颤抖。 通过连接 Stentrode 和苹果操作系统,他还在学习如何用脑控操作 iPhone、iPad 和 Vision Pro 头显。 当然,理想很丰满,现实略微骨感。 Jackson 自己也说了,现在这技术还远远达不到「丝滑」体验。精细操作,比如鼠标移动、手势滑动这些,基本别想;延迟也很高,操作起来明显比传统方式慢一大截。 但苹果的想法已经很明显了,Vision Pro 不是终点,脑子将成为下一个输入法。 马斯克向左,苹果向右 提起脑机接口,大多数人第一个想到的还是马斯克的 Neuralink。无论是 Neuralink 之前的首场直播,还是在 X 上发推文,都引发了不少人对脑机接口的关注。 相比之下,Synchro 在业外可谓是名不见经传。 不过,两家公司此前早有过交集,三年前的一个周末,正值 Synchron 在美国首次为患者植入脑机接口设备之际,马斯克向 Synchro 的创始人兼 CEO Tom Oxley 拨通了一则电话。 Oxley 后来回忆道,电话里马斯克认为脑机接口的方案应该是移除大部分头骨,并用嵌入式钛合金壳替代。而他本人则坚信,无需触及头骨,也能达成目标。 Tom Oxley 并且,马斯克还主动提出,如果 Oxley 在这个追求目标的努力中资金不足,尤其是涉及脑机接口的方面,他希望能够提供帮助。但或许出于理念的分歧,这段「牵手」最终无疾而终。 实际上,过去二十年来,研究人员一直在人体上测试脑芯片植入物,但几乎所有这些设备都需要切开头骨并将电极刺入大脑,电线从头部悬挂出来。 简单来说,就是在头顶开一个洞,然后放入一块 Apple Watch 大小的装置。先不说手术过程的风险,即使手术成功了,人类大脑也会对装置产生排异反应,这是侵入式脑机接口的技术难点之一。 而 Stentrode 则不存在这个痛点。 它的手术方式近似于植入心脏支架,产品会通过颈静脉植入进大脑的运动皮层(表达人类运动意图的区域)。大脑对 Stentrode 的排异方式是把它推入大脑组织内,所以 Stentrode 在几周内就会被组织覆盖并固定在该区域。 Stentrode 检测到的任何大脑信号通过一根电线发送,电线沿着静脉向下延伸,连接到缝在患者胸部的 iPod Shuffle 大小的接收器上。 类似于心脏起搏器中的电池,接收器电池续航时间长达 10 年之久。 该接收器通过蓝牙将指令传输到患者的计算机或 iPad,使他们能够访问短信并控制其他应用程序。一旦安装了 Stentrode,患者就会进行校准练习,Synchron 的工作人员会指导他们思考移动身体的不同部位。 在植入方式和理念上的分歧,自然也造就了技术性能上的差异。 举例来说,Neuralink 的设备 N1 拥有超过 1000 个电极,可以捕捉更多的神经数据;而 Stentrode 仅有 16 个电极。N1 的电极直接植入脑组织中,因此捕获的数据更丰富,可转化为更灵敏的鼠标点击和键盘输入。 在之前的报道中,Neuralink 用户同样能通过意念移动光标,而且速度甚至超过部分普通用户的鼠标操作。 尽管如此,为什么苹果最终选择与 Synchron 深入合作,而不是马斯克的 Neuralink?这背后,其实藏着苹果对脑机接口的另一种答案:安全。 正如上面所说,Neuralink N1 是高密度、侵入式植入,可能引发炎症或组织反应。 而 Synchron Stentrode 采用的是低密度、非侵入式植入,手术风险低,恢复时间短,尤其适合不适合进行开颅手术的患者。 当然,Stentrode 的代价就是因为电极不直接接触神经元,信号质量和分辨率较低,数据带宽较低,仅适用于基础层级的神经信号解码。 一个念头,打出一条推文 技术参数只是宏大故事的一部分,Synchron 真正吸睛的,是它已经做到的那些事。 2024 年 3 月,Neuralink 患者在 X 平台发布了一则推文,然而将时间倒回三年前,62 岁的渐冻症患者 Phillip O'Keefe 已经用 Synchron 脑机接口在 X 平台上「打出」第一句话: Hello world! 注意,这是人类史上第一条通过脑电波「发出来」的推文,没有键盘、没有语音、甚至不是眼动追踪,全靠「想」出来的。虽然推文不长,但对他本人来说,可能胜过十万字长篇小说。 Synchron 的故事当然没止步于此。 当整个世界都被 ChatGPT 占领的时候,很多人都在想怎么用它写论文、写代码、写情书,而 Synchron 想的是如何用 AI 来改善脑机接口的技术。 64 岁的 Mark 就是第一批体验 AI 脑机融合的用户之一。尽管受渐冻症影响失去了大部分肢体与语言能力,他依然可以靠脑电波玩苹果纸牌游戏、看 Apple TV,甚至在 Vision Pro 上「仰望星空」。 具体来说,Synchron 让 ChatGPT 等大型语言模型以文本、音频和视觉的形式获取相关上下文,预测用户可能想要表达的内容,并为他们提供一个可供选择的操作菜单。 并且,在加入 GPT-4o 之后,Synchron 脑机接口迎来了 4 个方面的显著变化: 1. 辅助通信:GPT 生成预先设定的回答选项,用户不需要逐字输入 2. 智能预测:GPT 结合上下文预测可能需求,显著减少操作步骤 3. 多模态输入:GPT-4o 接收文本、音频和视频输入,通过多种方式提供信息 4. 适应性学习:系统逐渐学习用户偏好,实现高效个性定制 更重要的是,这种 AI + 脑机接口的多模态信息输入模式,与大脑本身的行为模式有一些相似之处,Synchron 团队的解释是: 我们这样做的原因是,多模态「4o」是不同的,因为它使用的是来自环境的输入,这些输入的行为就像是用户大脑的延伸。当用户开始与提示互动时,它将获得环境中发生的一切的实时信息流。 在接受媒体的采访时,Mark 表示最打动他的,正是 Vision Pro 中一款观察夜空星座的应用: 这太酷了,它真的栩栩如生。使用这种增强现实技术的效果非常显著,我可以想象,对于处于我这种境地的人或其他失去日常生活能力的人来说,它也会如此。它可以把你带到你从未想过会再次看到或体验的地方,为我提供了另一种体验独立的方式。 这是 Mark 的新体验,也是很多人对于脑机接口的最终幻想。 而 Synchron,真的把这件事做成了。 在 2025 年英伟达 GTC 大会上,Synchron 推出全球首款认知 AI 大脑基础模型 Chiral™,并带来了一段相当震撼的演示视频。 一位名叫 Rodney 的 ALS 患者,手部完全失能,但通过脑机接口和 Vision Pro,大脑变成了遥控器,能够用意念控制智能家居:调节灯光、播放音乐、控制室、启动家用电器。 当时,Oxley 更是信心满满地表示: 我们正利用生成式预训练技术,构建一个真正意义上的「大脑基础模型」。Chiral™ 直接从神经数据中学习,从人类认知的源头进行抽象,从而创造出能够切实改善用户生活的功能。而这一切,都建立在我们能够大规模获取神经数据的基础之上,正如将脑机接口技术普及到如同支架植入手术般便捷。 所以无论是 GPT-4o,还是脑机接口,它们的终极目标其实是一致的:找到适合每一个人,尤其是被技术忽视的那一部分人,和计算机对话的新方式。 对于像 Mark 这样的用户来说,他们终于不用再依赖别人,也能再次说出自己想说的话,看自己想看的星星,甚至打几把纸牌游戏。 如果这不是人类科技的终极浪漫,那什么才是? 最需要脑机接口的,是他们 可这些进展,最终是为了谁? 我们或许该把视线拉近一点,看看这项技术对某些人来说意味着什么。 Synchron CEO Tom Oxley 表示,目前脑机接口公司需要「欺骗」计算机,让其认为来自植入设备的信号是来自鼠标。但如果有专为这些设备设计的标准,技术潜力将进一步释放。 如今,据外媒报道,苹果正用类似方式推动脑机接口设备与苹果生态系统的集成,并计划在今年晚些时候发布这一新标准的软件接口,供第三方开发者使用,推动脑控技术的进一步应用。 自 2019 年以来,Synchron 已在 10 名患者身上植入 Stentrode。 摩根士丹利估计,美国约有 15 万人因上肢严重功能障碍而成为脑机接口设备的潜在首批用户。根据世界卫生组织(WHO)2021 年的数据,全球约有 1540 万人患有脊髓损伤,而脊髓损伤是导致瘫痪的主要原因之一。 当你在抱怨手机不好用时,有人连「用手机」这件事,都是奢望。 对于瘫痪、渐冻症患者来说,操作一台设备从来不是理所当然的事,他们无法点击按钮、滑动屏幕、甚至无法抬手发出一个简单的指令。 人类社会对「操作」的定义,也一直都过于狭隘。我们曾以为「操作」意味着点击、滑动、语音、手势,也一直在追求「更自然」的交互方式。 可这套定义,从一开始就没为他们预留位置。 脑机接口的出现,改变了这一点,当意念也能成为操作方式,也意味着不再是人去适应设备,而是让设备去理解人。哪怕这个人无法动弹,无法说话,只剩下一颗仍在清醒地思考的大脑,他依然能与这个世界建立连接。 就像那句再简短不过的「Hello world」, 也是他们用尽全力,对这个世界,说出的一声: 我在。
30.98 万元起售,魏牌全新高山上市,说要让每位乘员都舒服
很多 MPV 都盯着商务文化,即使是商家两用,也是商字在前。我们认为 MPV 发展到今天已经正式进入了家庭的时代。MPV 会走进更多的中国家庭。 长城汽车认为,基于人口的结构变化(多代同堂/三孩政策普及)和生活方式升级,MPV 的市场将从商用更多的转向家用,这次新发布的高山 8 和高山 9 就是他们完全针对家庭设计的豪华MPV。 高山 8 和高山 9 两车的差别不大,主要是在轴距和座椅数量上有差距。 ▲高山 8 高山 8 的是一款 5 米 2 级别的 MPV ,其长宽高分别为 5280 / 1960 / **1900毫米,轴距 3145 毫米,采用 7 座布局。车内纵向长度3693毫米 。 高山 9 则更大更长一点,其长宽高为5410 / 1960 / 1890 毫米,轴距 3275 毫米,车内纵向长度3823毫米。 ▲高山 9 高山 8 的最终售价为 30.98 万元,高山 9 的最终售价为 35.98 万元,相较于预售价都降低了 2-2.5万元。 走到哪都有面 一款专注于家用的 SUV,颜值肯定不能落了下风,要好看耐看,要「走到哪都有面」。 长城说全新高山的正面是「以韵律复刻了飞瀑流水的磅礴意境」,通俗点讲就是前脸用大量的竖向镀铬条组成了类似「瀑布」状的中网,整体的视觉效果非常大气,前包围两侧则配备了竖直的导风口,在环绕式镀铬饰条点缀下,车头正面角度的给人的冲击力很强。 ▲高山 9 车身侧面最显眼的则是那一道笔锋状的腰线,与经典 MPV 的侧滑门设计很好的融合在了一起,车身尾灯上方以及下包围同样加入了镀铬装饰进行点缀,尾灯组则是采用了较为流行的贯穿样式。 整体上,魏牌高山这次的设计语言叫「高山流水」,希望以大气沉稳造型为主并给人安全感的同时,又能不过分严肃,通过曲线和光影变化来营造出层次感。 ▲高山 8 内饰上,两车也延续了相同的设计理念,主要以雕花和飞檐为基础设计元素,也大面积的使用了木纹板和真皮等材质来营造高雅质感。 高山 8 这次提供了雨空灰、深空黑、云锦白、流光金四种颜色,高山 9 少了一个金色,多了一个绿色,内饰上两车则都是白、黑、橙三种颜色可选。 让每位乘员都舒服 魏牌高山这次重点关注了第三排的乘坐体验,号称「不让任何人受委屈」。 高山 8 与高山 9 两车都留出了宽 170 mm 的中央通道和宽 292 毫米的靠背通道,让第三排乘客彻底告别了「挤着上车、蜷着入座」的尴尬。同时针对老人、小孩等特殊用户上车不便的问题,长城也在做了调研后将踏板离地高度定为 365mm 并采用两级台阶设计,搭配创新分段设计的B柱拉手,让4岁孩子也能独立上车。 当然一二排的座椅体验也没有被拉下,高山系列的前排座椅都使用了 NAPPA 真皮进行包裹,并且标配了 10 点式按摩和通风&加热功能,在最为重要的二排更是直接安排了双实体按键悬浮式零重力座椅来保障使用体验。 高山系列两车这次均搭载了三块大屏,中控及副驾屏采用双 15.6 英寸超高清联屏,后排娱乐屏采用 了 17.3 英寸超高清屏幕,也均通过莱茵硬件级低蓝光认证和莱茵无频闪认证,能够有效保护未成年乘客的视力。 在其他的舒适和科技型配置上,高山系列使用了长城的 Coffee OS 3.2 智能操作系统,支持语音交互和多屏联动,同时搭载的 AI 功能也支持声纹识别、健康监测和远程控制,更是在检测到成员心率异常时能够直接呼叫在线医生。 当然冷暖冰箱也没有拉下,高山两车提供了一台温度范围最低 0℃,最高 50℃,有制冷模式、制热模式、保鲜模式的 12.5升冷暖箱,支持从前排扶手箱和后排都可以拿取,在用户闭锁离车后,也可以持续保持 24 小时的箱体内温度稳定。 要智能更要安全 高山系列这次搭载的是长城汽车第三代智能辅助驾驶系统——Coffee Pilot Ultra。 全车搭载了 27 个高精传感器,采用的是摄像头+激光雷达的多传感器融合方案,能够实现从行车到泊车、从高速到城乡、车位到车位等功能。 长城在发布会上着重介绍了这套辅助驾驶系统的泊车功能,毕竟 想要把一台 5.5 米长的 MPV 停好,确实对技术要求还是蛮高的。 全新高山能够实现「车位到车位」的智能辅助驾驶,可以实现智能辅助泊入/泊出、左右转、绕行避让、进出停车场,这一功能覆盖了地下、地面、跨层、立体等各类停车场。 并且高山系列还支持了循迹倒车,辅助驾驶系统可以通过记录车辆最后行驶的100米轨迹,实现原路线智能辅助倒车,特别适合狭窄巷道和复杂场景。 说完了智能就该说安全了。 高山系列车型配备的 AEB 系统能够通过传感器实时监控前方道路上的目标物,如果有发生碰撞的风险,系统会以声光报警来提醒驾驶员进行制动,若驾驶员没有做出避免碰撞的动作,针对静止车辆目标,系统的最大刹停能力为 100 公里/小时,如果是更极端的夜晚逆光同向行人,整个系统可以做到在 85 公里/小时的速度下刹停。 同时高山系列也采用了强度达到 1500MPa 的热气胀成型管来加强 A 柱,并搭载了前排双预紧、中排预紧限力安全带和能够实现 6 秒保压的侧气帘来减小碰撞事故中乘员受到二次伤害。 电池安全方面,全新高山提前满足了将于2026年7月正式实施的动力电池新国标,对电池包进行了四层防护设计,并实现电池生命周期内的健康管理,可以实时分析电池健康做到提前预警。 最后,全新高山两车都标配了 Hi4 性能版智能四驱电混技术,集成了增程、并联、直驱等混动模式,系统最大功率为 337千瓦,最大扭矩 644 牛米,零百加速为 5.7 秒 。 高山 8 搭载的是一块 44.28 度的电池,纯电续航 172 公里,高山 9 搭载的是 51.55 度的电池,纯电续航 201 公里。 魏牌的上一代车型,也就是 VV5、VV7 系列其实整体卖的并不好,长城一开始下了血本,做足了功课,可惜后续车型开发没有跟上脚步,而且改款车型拉垮,长城对后续品牌的支持也有点烂尾。 但作为老牌车企,长城在汽车安全性和可靠性方面还是有毋庸置疑的实力,这次新的高山系列把价格拉到 30 万元左右,也算是给腾势 D9、岚图梦想家、别克 GL8 PHEV 等竞争对手上了上压力。 而且长城手里还藏着一个大招没放,更入门也更走量的高山 7 一直没公布价格,如果最终定价到 25 万元左右,对整个 MPV 市场或许又是一枚「重磅炸弹」。
Qwen3技术报告公开!235B模型性能居开源模型榜首
编译 | 金碧辉 编辑 | 程茜 智东西5月14日消息,昨日,阿里巴巴正式发布Qwen3系列大模型技术报告,首次全面公开其新一代开源模型的混合推理架构、训练策略及评测结果。报告显示,旗舰模型Qwen3-235B-A22B在数学(AIME25得分81.5)、代码生成(LiveCodeBench 70.7)等核心评测中超越DeepSeek-R1(671B参数)、Grok-3等国际顶尖模型,并在多语言支持(119种语言)、推理效率(4张H20显卡部署旗舰模型)及任务适应性(动态切换快/慢思考模式)上实现突破。 ▲图源阿里巴Qwen3系列大模型技术报告 4月29日,阿里巴巴正式发布新一代通义千问大模型Qwen3,包含6款稠密模型和2款MoE模型,参数规模覆盖0.6B至235B。其旗舰模型Qwen3-235B-A22B以22B激活参数实现235B总参数量,在编程、数学推理等基准测试中超越DeepSeek-R1等全球顶尖模型。 ▲Qwen3-235B-A22B-Base与其他具有代表性的强大开源基准模型的比较 Qwen3系列的旗舰模型Qwen3-235B-A22B于今年5月6日登顶国际权威大模型测评榜LiveBench开源大模型性能的榜首。 ▲图源5月6日LiveBench榜单官网截图 技术报告地址:https://github.com/QwenLM/Qwen3/blob/main/Qwen3_Technical_Report.pdf 一、双系统推理架构,日常对话响应速度提升60%,算力消耗降低40% Qwen3系列模型核心创新为双系统推理架构。面对数学证明、代码生成等复杂任务,Qwen3系列模型启动“慢思考”深度推理模块,Qwen3系列模型支持38K token动态思考预算,进行多步骤逻辑链分析;日常对话场景下,Qwen3系列模型以“快思考”模式激活20%参数,响应速度提升60%,算力消耗降低40%。 ▲Qwen3-235B-A22B在思考预算方面的性能 Qwen3系列模型的后训练流程围绕两大核心目标设计:其一为“思考控制”,通过集成“非思考”与“思考”两种模式,用户可灵活选择模型是否进行推理,并能通过指定token预算控制思考深度;其二是“慢思考”,旨在简化和优化轻量级模型的后训练过程,Qwen3系列模型借助大规模模型的知识,大幅降低构建小规模模型所需的计算成本与开发工作量。 ▲Qwen3系列模型的后训练流程 此外,Qwen3系列模型还集成视觉(Qwen3-VL)、音频(Qwen3-Audio)模块,可实现医学影像分析等跨模态任务。 二、Qwen3-235B-A22B在数学、代码评测中超越DeepSeek-R1、Grok-3-Beta 旗舰模型Qwen3-235B-A22B在多项评测中成绩优异。Qwen3-235B-A22B数学推理的AIME25奥数测评中获81.5分,刷新开源模型纪录,远超DeepSeek-R1等顶尖模型。 ▲AIME25在数学推理方面的奥数测评成绩 旗舰模型Qwen3-235B-A22B在代码生成的LiveCodeBench评测中得分超70分,超越Grok-3-Beta和DeepSeek-R1等主流模型,Qwen3-235B-A22B的代码细节完善且推理耗时更短;多轮对话中Qwen3-235B-A22B能精准识别并完成复杂指令,如扮演职业金融分析师并以特定风格分析问题,给出适配回答。 ▲AIME25在代码生成方面的测评成绩 三、4张卡跑235B模型,Qwen3系列模型多项数据碾压 Qwen3系列模型训练数据量飙升至36万亿token,覆盖119种语言,数据构成丰富多元,其中包含合成数据以及从PDF文档经OCR提取的内容。Qwen3系列模型训练流程采用四阶段后训练模式。 先是长思维链冷启动,Qwen3系列模型借助多样的长思维链数据对模型微调,为其处理复杂任务,如数学、编程、逻辑推理等奠定基础;接着Qwen3系列模型开展强化学习优化,运用基于规则的奖励机制,大力提升模型在面对复杂任务时探索并寻求最佳答案的推理能力;随后Qwen3系列模型进行思维模式融合,让模型能依据任务特性,在“思考模式”与“非思考模式”间自如切换;最后Qwen3系列模型通过对20多个常见任务实施强化学习微调,完成通用任务校准,全面提升模型的推理与指令遵循水平。 在硬件与效率优化层面,MoE模型采用动态激活专家策略,默认配置下专家池规模可达128个,每处理一个token会激活8个专家,搭配负载均衡算法,保障了训练稳定性。在硬件协同上,MoE模型仅需4张H20加速卡,便能实现235B旗舰模型的部署。 Qwen3系列模型在参数效率、推理成本、多语言支持及AI Agent开发等多个维度展现出显著优势。 参数效率上,30B MoE模型激活参数仅3B,性能却超越上代32B Dense模型;推理成本方面,以15B-A2B模型为例,在英伟达A100显卡上,30B MoE模型单次推理耗时较同等性能14B稠密模型降低42%,30B MoE模型显存占用从28GB降至18GB,吞吐量提升至1.2倍,实现消费级显卡部署高性能模型的效果。 多语言支持上,Qwen3系列模型覆盖全球90%以上人口的119种语言和方言;AI Agent开发上,Qwen3系列模型原生支持MCP协议,集成Qwen-Agent框架,Qwen3系列模型的工具调用能力在BFCL评测中以70.8分超越OpenAI-o1。 结语;Qwen3系列模型正在缩小与顶尖闭源产品的差距 Qwen3系列模型通过混合推理架构与高效训练策略,在性能、成本、多语言支持等维度树立开源模型新标杆。其动态资源分配机制(如思考预算控制)为企业节省75%算力成本,而119种语言覆盖能力为全球化业务提供底层支持。 Qwen3系列模型在多项评测中表现突出,其混合推理架构与高效训练策略展现强劲实力。尽管在实际场景应用中,如代码生成与创意写作领域,仍需进一步验证效果,Qwen3系列模型与顶尖闭源产品的差距正逐步缩小。
136 匹马力卖 40 万,新一代奔驰 GLB大幅升级
现在有一辆核心参数如下的车—— 轴距为 2829mm,有五座和七座两种版本可选; 发动机为 1.3T 163 马力; 没有无钥匙进入; 没有辅助驾驶; 主驾之外的座椅只能手动调整; 座椅加热和通风需要加钱选配。 不知道你愿意花多少钱来拥有这辆车?10W?15W? 还是 20W? 现款的奔驰 GLB给出的答案是 30W。 ▲现款奔驰 GLB 那性价比这么低的车卖不了多少台吧? 2025 年的头 4 个月,奔驰 GLB 一共售出了 13883 辆,平均月销 3500 辆。 可能不如销冠 GLC,但是也很强了。 ▲奔驰GLB最近一年销量走势图 数据来源:车主指南 奔驰高明的本质不是高明在美学设计,而是高明在市场分析。 之前有家车媒曾这么评价奔驰,我一直深以为然。 奔驰 GLB 就是一个很好的例子,响当当的品牌、漂亮的外观以及能撑起来的面子,依然是车企百试不爽的销量密码。 而 26 年即将发布的新一代 GLB 也将继续保持现在的优良传统,在外观和内饰上继续优化,让其更接近奔驰在 19 年发布的 GLB 原型概念车。 ▲19 年发布的 GLB 概念车 根据外媒的报道,新一代的 GLB 将保留现款的直立线条和方正造型,但是整体尺寸将加长加宽,从而带来更好的内部空间和存储空间。 目前在社交媒体上泄露的谍照也显示,新款 GLB 将拥有更大胆的前脸造型和新的照明模组,并将拥有一个增加了越野套件的版本,奔驰的内部人员对外表示说,他们认为根据越野造型的 SUV 车型更能吸引到潜在买家。 ▲新款 GLB 谍照 图片来自:Autocar 新的奔驰 CLB 车型将有纯电和燃油两个版本,这也意味将不再有 EQB 系列车型,其将完全融入进 GLB 系列之中。 新的燃油车型将搭载由吉利和雷诺的合资公司生产的 1.5L 涡轮增压四缸发动机并集成 48V 轻混系统。马力则有 136 匹和 190 匹两种版本,其高配车型可选四驱系统。 ▲新款 GLB 谍照 图片来自:Autocar 纯电车型则将摒弃现有 EQB 车型的 400V 架构,转用更先进的 800V 高压平台,支持单电机后驱与双电机四驱两种动力形式。其电动机功率预计将覆盖 230 匹至 355 匹马力的区间,电池则提供了 58 度和 85 度电两种容量可选。 奔驰也同时确认了两款车型也都将推出 AMG 版本,这意味着顶配版 GLB 有望搭载轴向磁通电机(axial-flux)与专属圆柱电池技术。 ▲新款 GLB 谍照 图片来自:Autocar 内饰上,新一代的 GLB 车型将效仿最新的 CLA 级车型,配备横贯座舱的全幅数字显示屏,座舱材质工艺与设计感亦将全面提升,采用更多柔软触感表面与更具质感的物理按键。 当然,奔驰 GLB 最核心的竞争力——七座布局,也会得到保留。 ▲新款奔驰 CLA 内饰 在知乎上一众关于 GLB 的讨论下面,有位网友的回复给我留下了深刻的印象: 销售和我说奔驰 GLB 180 和 GLB 200 的配置区别主要体现在以下方面:副驾驶有电动调节座椅 ,还有加热功能哦。 我作为直男一听表示这升级太鸡肋了吧,咋升级全升级在副驾驶座? 销售笑眯眯的说:因为决定买不买的往往是副驾驶。 这就是奔驰的市场洞察力,活该人家卖的好。 ▲现款奔驰 GLB 那么新款售价是多少呢? 预计 45000 英镑,折合人民币约 43 万。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。