EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
华为 ADS 4 更新上车,靳玉志:年内高速 L3 商用,27 年城区 L4 落地
乾崑智驾、鸿蒙座舱、宁德时代似乎已经成为了新能源时代的三块「金字招牌」。 尤其是华为提供的全家桶解决方案覆盖了智能驾驶、智能座舱、三电系统和智能车云等所有核心技术领域,并具有良好的市场口碑,在营销宣传上也有不小的优势。 因此,「投华」就成了车企在维持自己越来越激烈的智能化竞争中不被淘汰的最佳选择。 华为智能汽车解决方案 BU CEO 靳玉志在 28 日举办的 WNEVC 2025 上披露的数据也很能说明这个趋势: 目前乾崑智驾搭载量已突破 100 万辆,合作上市车型达 28 款,覆盖鸿蒙智行「五界」、阿维塔、深蓝、岚图、猛士、广汽传祺、方程豹、奥迪等多个品牌。 再算上宣布将采用鸿蒙座舱的丰田和日产,说华为汽车解决方案已经占据了市场的「半壁江山」也不为过。 ADS 4 已上车 在这个国庆假期,车主们终于能用上已经在各大车企发布会上被讲烂了的华为乾崑智驾 ADS 4 了。 目前搭载 ADS 4 的大多数车型都已经进行了推送,董车会总结了一下,主要有以下升级点。 首先在架构方面,华为乾崑智驾 ADS 4.0 引入了 WEWA 架构,采用了新的世界行为模型和引擎进行训练。 新架构为用户带来的最直接好处就是,ADS 4.0 将拥有更高效的通行效率和更迅速的临场反应,在变道、急刹等博弈场景下的表现更像「老司机」。 其次在 ADS 4中的车位到车位功能升级到了 2.0。在开车出发之前就可以直接在车机地图中选择自己想开去的车位,不用到目的地附近再手忙搅乱。此功能也在国庆节前覆盖了更多的小区、商超、写字楼和充电站等常用场所,并将陆续解锁更多停车场。 多层车位泊车场景也得到了优化,在泊车时,领航辅助可以直接导航至更为精确的「XX 小区地库负 3 层 12 号车位」,可以无缝衔接离车泊入功能。 此外在泊车时,用户可以设置泊车习惯,比如设置为「靠左」后每次辅助泊车都将按照设置的泊车偏好执行。 并且无论是否开启辅助驾驶功能,当车内 DMS 系统检测到驾驶员因疲劳、突发疾病丧失驾驶能力时,ADS 4 都将自主接管,并根据道路周边情况自主减速停车后开启双闪求助信号。 同时,低速防刮蹭、侧向障碍物防碰撞、无道路结构场景(如路口)等场景下的主动安全功能也一并得到了升级。 汽车将率先迈向具身智能 靳玉志认为,目前的汽车产业正在经历「三波浪潮」的变革。 第一波是电动化阶段,通过电力代替燃油,使得出行成本大幅降低; 第二波是智能化阶段; 第三波是自动化阶段,届时算法将替代司机。 最后,汽车作为一个很好的物理载体,会率先迈向具身智能。 在技术实现层面,华为规划的方向是: 智能车控将升级换代,线控转向/制动会加速上车,底盘能力进一步增强,最终实现无论是在横向、纵向以及垂直方向都能够进行数字化的控制,且会和自动驾驶充分结合在一起。 智能座舱体验将持续升级,多扬声器、多屏交互、AI 大模型等技术的深度融合将重塑车内空间。 辅助驾驶将走向自动驾驶,去年业内在讲端到端,今年有些厂家做到了 VLM、VLA,华为认为辅助驾驶最终会走向 WFM(世界基础模型)。 靳玉志在会上用了一个典型案例来说明,用户对自动驾驶技术的迫切需求。 前几天看到有新闻报道,一用户酒后用了华为辅助驾驶系统,在车上睡了二十多分钟,车辆行驶二十多分钟后打双闪停在路边,路人报警后该用户被拘役 1 个半月、罚款 4000 元。 我们的系统非常好,但这绝非鼓励酒后依赖辅助驾驶,而是说明了提升技术普惠性的重要性。 而截止目前,华为乾崑智驾累计的辅助驾驶里程已经达到了 50 亿公里;系统累计避免了 271 万次潜在的碰撞事故;8 月用户人均辅助驾驶里程为 727 公里;人均智能泊车次数达到了 36 次。 靳玉志同时在 WNEVC 2025 上公布了华为乾崑智能驾驶系统后续的发展路线图。 根据规划,华为自动驾驶技术将分为三个阶段实现商业化落地: 2025 年,华为 ADS 4 系统将首发面向 L3 技术架构的高速商用解决方案,主要针对高速公路场景,具备 L3 试点商用能力,同时启动城市道路 L4 级技术测试。 2026 年在法规允许的前提下,华为计划实现高速公路 L3 规模化商用,并启动城市道路 L4 试点运营。 到 2027 年,随着高速与城区 NCA 功能的普及,华为乾崑智驾 L3 将实现大规模市场渗透,城区 L4 进入商用阶段。 与此同时,华为将继续探索无人驾驶出租车(Robotaxi)和干线物流运输的商业化落地探索,全面开启载人载物的无人化新时代。
刚刚,DeepSeek新模型自砍一刀!大降价50%,华为寒武纪已适配
智东西 作者 | 李水青 编辑 | 漠影 智东西9月29日报道,刚刚,DeepSeek正式发布DeepSeek-V3.2-Exp模型,官方App、网页端、小程序均已同步更新为该版本,同时API大幅度降价。 DeepSeek-V3.2-Exp的Hugging Face页面截图 DeepSeek-V3.2-Exp的一大亮点是价格暴降。在新的价格政策下,开发者调用DeepSeek API的成本将降低50%以上。 据悉,DeepSeek-V3.2-Exp API的输入价格由0.5元/百万tokens降低为0.2元/百万tokens(缓存命中),由4元/百万tokens降低为2元/百万tokens(缓存未命中),输出价格由12元/百万tokens降低为3元/百万tokens。 DeepSeek-V3.2-Exp的全新价格政策 这得益于新模型服务成本的大幅降低。V3.2-Exp是一个实验性(Experimental)的版本,作为迈向新一代架构的中间步骤,在V3.1-Terminus的基础上引入了一种稀疏注意力机制(DeepSeek Sparse Attention,DSA),针对长文本的训练和推理效率进行了探索性的优化和验证。 据悉,DSA首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。 DeepSeek-V3.2-Exp相比V3.1-Terminus效率提升 为了严谨地评估引入稀疏注意力带来的影响,DeepSeek特意把DeepSeek-V3.2-Exp的训练设置与V3.1-Terminus进行了严格的对齐。在各领域的公开评测集上,DeepSeek-V3.2-Exp的表现与V3.1-Terminus基本持平。 DeepSeek-V3.2-Exp与V3.1-Terminus测评表现对比 DeepSeek-V3.2-Exp一经发布,就在外网社交平台X等炸开了锅。有网友对“成本降低50%”表示赞叹,也有网友对DeepSeek“周更”的节奏表示满意,还有更多网友催更DeepSeek新一代模型R2及V4,并期待DeepSeek打败OpenAI。 社交平台X网友热议DeepSeek-V3.2-Exp 国产AI芯片公司纷纷第一时间宣布完成DeepSeek-V3.2-Exp的适配。 华为发文宣布,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。其在128K长序列下能够保持TTFT低于2秒、TPOT低于30毫秒的推理生成速度。 华为计算官方公众号发文 寒武纪也发文宣布,其已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的0day适配,并开源大模型推理引擎vLLM-MLU源代码。DeepSeek-V3.2-Exp叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。 寒武纪开发者公众号发文 作为一个实验性的版本,DeepSeek-V3.2-Exp虽然已经在公开评测集上得到了有效性验证,但仍然需要在用户的真实使用场景中进行范围更广、规模更大的测试,以排除在某些场景下效果欠佳的可能。 为方便用户进行对比测试,DeepSeek-V3.1-Terminus临时保留了额外API访问接口,保留到北京时间2025年10月15日23:59。 用户只需修改base_url=”https://api.deepseek.com/v3.1_terminus_expires_on_20251015″ 即可访问V3.1-Terminus,调用价格与 V3.2-Exp相同。 DeepSeek-V3.2-Exp模型现已在Hugging Face与魔搭开源。 HuggingFace地址: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp ModelScope地址: https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2-Exp 论文地址: https://github.com/deepseek-ai/DeepSeek-V3.2-Exp/blob/main/DeepSeek_V3_2.pdf 结语:DeepSeek再降大模型落地门槛,国产芯片加速适配 DeepSeek的模型迭代速度正在加快。就在9月22日晚间,其刚刚发布了DeepSeek-V3.1-Terminus,优化了编程、搜索智能体等表现。仅仅一周后,DeepSeek-V3.2-Exp随之发布,带来了大幅降低的成本体验。 这预示着DeepSeek的下一代模型很快就要到来了,此前已有外媒报道称,DeepSeek今年年底即将推出Agent模型。值得一提的是,我们看到DeepSeek不仅上线阿里魔搭社区,并立马适配华为昇腾、寒武纪等国产AI芯片,或许意味着其快速迭代及落地应用与国产AI芯片联系更加紧密。
蚂蚁首个万亿参数推理大模型,开源
作者 | 王涵 编辑 | 漠影 智东西9月30日消息,今天,蚂蚁百灵大模型宣布开源其思考模型Ring-1T的预览版——Ring-1T-preview,参数量达1000B(1万亿)! 该模型延续Ling 2.0的MoE架构,在20T高质量语料上完成预训练,结合此前公开的棒冰(icepop)方法,在自研开源高效强化学习系统ASystem上进行了针对推理能力的RLVR训练。 在AIME 2025(美国数学邀请赛),Ring-1T通过纯自然语言推理即可取得92.6的高分,进一步逼近GPT-5 with thinking(no tools)的94.6水平。 此外,在哈佛-麻省理工数学竞赛HMMT 2025,竞赛级代码生成任务LiveCodeBench v6、CodeForces上,以及抽象推理基准ARC-AGI-1等任务中,Ring-1T均超越Gemini-2.5-pro和DeepSeek-V3.1-Terminus-Thinking。 为了进一步探索Ring-1T早期版本的推理上限,研究团队将其接入多智能体框架AWorld,并在IMO 2025(国际数学奥林匹克竞赛)上进行了纯自然语言推理测试。 此前,Ring-flash-2.0在允许三次推理尝试的设定下,直到第三次才勉强解出第3题。相比之下,Ring-1T在本次测试中仅用一次推理就解出了第3题,并且在第1、2、4、5题上也能一次性给出部分正确答案。 百灵团队称Ring-1T仍在持续训练中,此次发布的预览版仍存在语种混杂、推理重复、身份认知错误等问题,希望通过开源社区的反馈,进一步完善Ring-1T的功能。 从今年3月到现在,蚂蚁一直在对百灵大模型进行迭代优化。3月,蚂蚁开源了两款MoE(混合专家)大语言模型Ling-Lite和Ling-Plus,并在4月发布了Ling-Lite的更新版本Ling-lite-0415。4月初,轻量级推理模型Ring-lite-distill-preview和混合线性长推理模型Ring-lite-linear-preview开源。 5月,蚂蚁发布了MoE架构的全模态大模型Ming-lite-omni-preview和Ming-lite-uni,并开源了统一多模态大模型Ming-lite-omni和Ling-lite-1.5。 6月,在Ling-lite-1.5的基础上,蚂蚁发布了轻量级推理模型Ring-lite。7月,其发布了Ming-lite-omni v1.5、Ring-lite-2507和Ling-lite-1.5-2507。 9月,蚂蚁开源语言模型Ling-mini-2.0,在此基础上推出了推理模型Ring-mini-2.0和轻量版Ling-flash-2.0以及思考模型Ring-flash-2.0。 上周五,蚂蚁也才刚刚开源两款思考模型——Ring-flash-linear-2.0 与 Ring-mini-linear-2.0,还同步发布两大自研融合算子,即FP8融合算子和线性Attention推理融合算子。 结语:百灵大模型在复杂逻辑推理能力上下“狠功夫” 百灵大模型团队此次开源,是想要通过开放早期成果,汇聚社区智慧,对于Ring-1T进行“查漏补缺”。 从AIME到IMO国际顶级数学竞赛的初步测试表现来看,Ring-1T在复杂逻辑推理能力上进一步提升,正式版本的性能值得期待。
小米汽车回应超强钢小字标注为“项目名称”:不影响本身性能
IT之家 9 月 30 日消息,小米汽车今日发布答网友问(第 195 集) - 安全质量篇,回应了「2200MPa 小米超强钢」为什么会被小字标注为“项目名称”。 ▲ IT之家附海报右下角小字:小米超强钢指材质项目名称,材质联合王国栋院士团队、育材堂、东北大学开发 小米汽车表示: 作为行业通行做法,为兼顾专业人士的信息需求与公开透明实事求是精神,企业在展示技术参数、法律条款、研发背景等复杂内容时,常以“小字备注”的形式提供补充说明。「小米超强钢」之所以被标注为“项目名称”,是因为「小米超强钢」是由小米出资,并发起的材料开发项目,联合东北大学、育材堂一同开发,小米和合作伙伴共同持有专利。小米作为诚实守信负责任的企业,需说明必要的事实背景以及数据的真实性与可靠性,此项备注由小米、东北大学、育材堂一同确认,此备注只是作为研发背景说明,不影响材料本身的属性和性能。 至于将“超强钢备注项目名”解读为“只是名称强”,纯属曲解或误读。 小米汽车还称: 「2200MPa 小米超强钢」是目前行业量产最高强度的热成型钢。「2200MPa 小米超强钢」是小米汽车与王国栋院士团队、育材堂、东北大学联合开发的,结合了小米 AI 模型,从 2443 万种配方筛选而成,在性能方面非常优异: 相比 1500MPa 热成型钢,其抗拉强度提升 40%、屈服强度提升 24%; 我们将其应用在小米 YU7 的四门防撞梁,相比 1500MPa 车门防撞梁,小米 YU7 前门防撞梁承载能力提升 52.4%、后门防撞梁承载能力提升 37.6%; 我们还在小米 YU7 的 A / B 柱内嵌了 2200MPa 小米超强钢热气胀管,形成「内嵌式防滚架」,A 柱承载能力提升 35%、B 柱承载能力提升 70.5%; 以上「2200MPa 小米超强钢」的应用,有效提升了车辆在侧碰、翻滚等恶劣工况的安全性。 小米汽车始终以最严苛的安全标准为设计目标,也希望后续行业内有越来越多车型,应用更强的车身材料,不断提升车辆安全水平。
曝 OpenAI 将推出AI 抖音:禁止上传实拍内容,Sora 2 加持
这两天的 AI 圈,更新速度快得让人喘不过气,哪是要让人放假的样子。 昨天 DeepSeek 更新了 V3.2-Exp 模型,Anthropic 凌晨就紧跟着发布了性能更强的 Claude 4.5。 正当大家都在爆料牌桌上的其他巨头何时出手时,行业领头羊 OpenAI 的「王炸」似乎已经提前被剧透了,那就是 Sora 2。 ▲ 视频链接:https://x.com/OpenAI/status/1972416122613014556 最近,OpenAI 不仅在 X 平台连发多条神秘视频,引爆社区对 Sora 2 的猜想。 一则来自《连线》杂志的重磅爆料更是指出:OpenAI 的下一步棋,并非简单升级一个模型,而是要亲自下场,推出一个独立的 AI 视频社交 App,一个酷似抖音,但内容 100% 由 AI 生成的全新平台。 奥特曼曾经发 X 说,未来几周,OpenAI 将推出一些新的计算密集型产品,且最初只会向 Pro 用户开放。而需要大量算力的,不正是视频生成吗?目前 Sora 也仅面向 Plus 和 Pro 用户,传闻已久的 Sora 2 真的要发布了。 ▲ https://x.com/sama/status/1969835407421374910 AI 视频也要迎来它的「吉卜力」时刻了。 揭秘「Sora 2 App」:一个怎样的 AI 抖音? 从目前曝光的信息来看,OpenAI 正在测试一款名为 Sora 2 的短视频应用,乍看之下,它就是一个 AI 版抖音。但最颠覆的一点是,在这个平台上,我们看不到任何真实拍摄的内容。 ▲ TikTok 应用截图 它的界面和交互,与我们熟悉的短视频 App 几乎一模一样。采用竖屏信息流,和滑动切换的导航方式的视频源,并由推荐算法为我们提供「为你推荐」的内容。 在视频的右侧下方,同样提供了点赞、评论等互动选项,甚至还有一个独特的「Remix」(再创作)功能。 ▲ OpenAI 去年 12 月正式推出了 Sora,很快被整合到 ChatGPT 应用中,图为 Sora 网页版截图。OpenAI 指出它存在一些局限性,例如似乎并不完全理解物理学,在制作逼真的动作场景时尤其困难,尤其是在较长的片段中。目前,1080p 超高清分辨率仅支持生成 10s。地址:sora.chatgpt.com 根据文件显示,用户只能使用 OpenAI 的下一代视频模型 Sora 2,生成最长 10 秒的视频片段。并且,App 不提供任何从手机相册或其他应用上传照片或视频的选项。这意味着,这个平台将成为全球首个内容 100% 由 AI 生成的短视频社区。 用数字分身来做社交 如果说纯 AI 生成内容还只是概念上的不同,OpenAI 还要为这个短视频 APP 引入社交的功能。 Sora 2 应用具有身份验证的功能,即允许用户确认自己的「肖像」(likeness)。一旦验证通过,就可以在生成的视频中,使用自己的形象。 更有趣的是,社交的边界被进一步打破。你的朋友也可以在他们的视频里标记你,使用你的「数字分身」。 ▲ AI 图片视频生成平台即梦,也提供了数字人生成。 举个例子,我们可以直接使用别人的数字分身,生成一个视频,内容是「你和朋友在从没去过的主题公园,一起坐过山车」。 为了保护用户隐私,数字分生这项功能,也设置了提醒机制。每当你的形象被他人使用时,无论对方是公开发布,还是仅仅保存在草稿中且从未发布,你都会收到通知。 这款应用上周已经在 OpenAI 内部发布,并收到了员工压倒性的积极反馈。据连线杂志的消息,员工们使用得非常频繁,以至于一些管理者开玩笑说,这可能会影响生产力。可能真的跟刷抖音一样会上瘾? 为什么 OpenAI 要亲自下场做社交? 答案或许和 ChatGPT 的成功路径如出一辙。 OpenAI 似乎在押注,Sora 2 这个 AI 版抖音,能让我们与 AI 视频的互动方式发生根本性改变,就像 ChatGPT 让大众第一次真正体验到 AI 文本的潜力一样。 ▲ 社交榜和娱乐榜第一名分别是 Meta 的 Thread 和 TikTok 当然,也不是只有 OpenAI 想到了 AI 视频社交这条路,就在上周,Meta 在它们的 AI 应用中,推出了名为「Vibes」的新功能。这是一个 AI 生成短视频的新平台,集创作、分享与社交功能于一体。 用户可通过浏览、创作、或二次创作(Remix)来生成自己的 AI 视频,并将视频快速分享到 Vibes、Instagram、Facebook 等 Meta 社交平台。 ▲ Vibes 视频生成界面截图 Google 也早已宣布,计划将自己最新的视频生成模型 Veo 3 整合到 YouTube 中。一个是坐拥最大的社交网络平台,一个是最大的视频分享平台,OpenAI 的 AI 视频社交之路看起来,也并非一片坦途。 从一个聊天机器人,到一个可能的内容社交平台,OpenAI 的野心,在于建造下一代的互联网入口,而这个入口,完全由 AI 驱动。 这种野心并非空谈,就在今天,OpenAI 推出了其商业化布局中最重要的一步棋,在 ChatGPT 内直接购物。 用户现在可以在与 ChatGPT 的对话中,直接购买来自 Etsy 甚至 Shopify 商家的商品。当我们跟 ChatGPT 聊天,问到「适合送给陶瓷爱好者的礼物」时,ChatGPT 不再只是给一个链接,而是直接展示商品并提供一个「购买」按钮,不需要离开聊天窗口,几下点击就能完成支付。 ▲ 这项名为「即时结账」(Instant Checkout)的功能,背后是 OpenAI 与 Stripe 联合开发并开源的「代理商业协议」(Agentic Commerce Protocol)。通过这个协议,OpenAI 正在为 AI 时代的电商制定新的规则。 电商、视频、社交、生产力,当这些过去分散在不同 App 中的功能,开始被一个统一的 AI 入口所整合时,OpenAI 的 Open 原来是「我全都要」。
汽车会“成长”:鸿蒙智行与老用户的一场双向奔赴
摘要: 未来,硬件决定一辆车的下限,软件定义一辆车的上限,而进化的能力,将真正决定一辆车能走多远。 凤凰网科技 出品 作者|老缅 编辑|董雨晴 9月23日,连续14个月保持中国汽车成交均价第一的鸿蒙智行,正式宣布启动重磅升级。 据悉,此次升级包括华为乾崑智驾ADS 4等3大能力升级和30+项体验优化,能够让智能驾驶、人机交互等核心功能实现“像人一样思考”的焕新升级。 根据官方数据,鸿蒙智行2025年第38周(2025年9月15日- 9月21日)销量为13446台,位列新势力品牌Top1,同时年度累计销量位居新势力品牌榜首。捷报频传的背后,除了毋庸置疑的产品力优势外,用户不分新旧、体验常用常新的长期主义视野,或许同样功不可没。 以智能之名,体验再进化 今年以来,鸿蒙智行以“五界十车”的全矩阵布局和周订单3.5万辆的爆发式增长,成为领跑新能源行业的中坚力量,实现了从主流到超豪华市场的全线覆盖。 与此同时,鸿蒙智行也没有忘记每一个参与其中的用户。据了解,此次升级重点引入的华为乾崑智驾ADS 4辅助驾驶系统采用全新WEWA架构,通过云端世界引擎(WE)与车端世界行为模型(WA)的深度协同,端到端时延降低50%,通行效率提升20%,重刹率降低30%,带来接近人类老司机、甚至超越人类的安全保障和舒适体验。 同样带来的车位到车位2.0,支持直接选择园区/地库目标车位发起“车位级”导航。驾驶者在开启辅助驾驶后,便可直达终点车位,真正实现全场景贯通。同时,收藏车位还可支持设置车位的泊入习惯,如“靠左”“靠右”等,设置完成后系统即可按照偏好完成指定车位的泊入,成为个人专属的泊车管家。 智能座舱方面,新增国庆、中秋节日壁纸,增添节日氛围;“小艺一路聊”语音助手,提升交互便捷性。鸿蒙生态也得到了进一步拓展,手机、手表、车机之间的智能互联得到全面强化。老车主无需换车,就能紧跟智能潮流,享受新车级体验。 开启“车随人成长”全新时代 站在用户的角度,购买汽车这种几十万元的大额消费,没有人希望只是“一锤子买卖”。 然而现实是,用户的购车“后体验”往往难称完美——特别是当下汽车行业快速发展,智能体验日新月异,已经买回家的汽车却往往与全新功能无缘。这种“买定即落后”的焦虑,无疑折磨着每一位车主。 即便远程升级技术早已应用于汽车之上,且在新能源时代中已然变得更加寻常。但对于市面上的绝大多数汽车而言,在一些关键功能或体验上,仍逃不出“出厂即定型”的宿命。智能化领域庞大的运维工程量,让很多企业都自顾不暇。各家车企的“第一要务”,往往是如何把一辆新车销售出去,而不是一辆老车能不能持续精进。 正是这种“惯例”,才映衬出了鸿蒙智行此次大规模更新的不易。即便是两三年前购买的产品,今天依然能享受最新的智能化体验。这种“常用常新”的承诺,本质上是在构筑一种新的信任体系:买车不是一次性买卖,而是一段长期陪伴。 这种将存量车主体验纳入品牌核心运营的思路,不仅会增强对品牌的忠诚度,更会主动成为口碑传播的载体,为鸿蒙智行带来更稳固的用户基础与复购潜力。当用户逐渐意识到,自己花钱买的不只是一个工业产物,而应该是一个可以不断精进的“终身伴侣”的时候,一场新的行业变革自然也就开始了。 换句话说,在智能汽车行业竞争白热化的未来,硬件决定一辆车的下限,软件定义一辆车的上限,而进化的能力,将真正决定一辆车能走多远。
小米潘九堂:期待友商们的新旗舰大卖 推动用户换机
【CNMO科技消息】近日,小米产业投资部合伙人潘九堂通过社交媒体发文表示,虽然小米17系列凭借独特的“妙享背屏”设计成为今年智能手机市场的独特亮点,但他也期待后续其他品牌的旗舰机型大卖,共同推动用户换机需求,并引用“一花独放不是春,百花齐放春满园”强调行业协同发展的重要性。 小米17系列 小米17系列于9月25日正式发布,其Pro和Pro Max机型采用的“妙享背屏”设计,打破了近年来智能手机“千机一面”的僵局。该背屏不仅支持个性化壁纸、动态通知、自拍预览等功能,还可通过专属配件实现复古游戏机模式,被业内视为交互体验的突破。小米集团总裁卢伟冰透露,该技术研发投入高达10亿元,旨在为行业带来“新东西”。 CNMO注意到,潘九堂的发言呼应了当前智能手机市场的复苏趋势。根据IDC报告,2024年全球智能手机出货量同比增长6.4%,结束连续两年下滑态势,而2025年中国市场预计增长3%,主要受益于换机周期重启和技术创新刺激。小米等厂商的竞争被看作推动行业创新的“鲶鱼效应”,促使企业更聚焦用户体验。 分析指出,智能手机行业需通过差异化创新激发消费需求。折叠屏、AI功能及新型交互设计(如背屏)成为增长关键,IDC预计2025年全球AI手机出货量将超3.7亿部。潘九堂此番表态也体现了小米长期主张的开放竞争理念,其此前曾表示“真正优秀企业不怕小米竞争,淘汰的是劣质企业”。
网易云音乐回应有人意外登上李玟账号:运营商二次放号所致
IT之家 10 月 11 日消息,今日,一则关于“新手机号注册网易云登到李玟账号”的话题引发热议。 有网友发帖称,自己刚刚办理的新手机号码,在注册网易云音乐时,竟意外登录了已故知名歌手李玟的账号。 针对这一事件,网易云音乐客服今日也作出了回应。网易云方面表示,经核查,问题原因是团队为艺人账号绑定的手机号,被运营商二次放号所致,我们已第一时间联系新号主进行了相应的处理,感谢您的支持和理解。 IT之家注:李玟(CoCo Lee)本名李美林,1975 年 1 月 17 日出生于湖北省武汉市,于 2023 年 7 月 2 日在家中轻生,送往医院抢救仍无效逝世,享年 48 岁。确切死因未公开。 那么,什么是“二次放号”?这指的是当手机老用户停用或弃用某个号码后,该号码会被运营商收回。经过一段时间的“空置期”,这个号码会被再次投放市场,供新的用户选择使用。这本质上是运营商对号码资源的循环再利用。 此次事件也让“二次放号”的具体规则成为焦点。中国移动客服 11 日对中新经纬表示,目前动感地带号码欠费停机满 90 天(自停机次日开始算起),且连续 3 个账期未结清欠费的,将进入“停机保号”状态;然后再满 90 天会进行销号回收处理。 中国联通客服则告知,手机号码在停机 3 个月后会自动销户,销户后 90 天号码会被回收。至于回收后何时会重新投放市场,联通客服表示号码会封存一段时间,具体重新上架时间并不固定。 中国电信客服也给出了类似的说明:号码欠费停机后,系统通常会保留 90 天,之后注销。因为手机号码属于可循环使用的资源,注销 90 天后,这些号码就会重新进入市场销售。
对话vivo副总裁周围:拒绝AI“功能过载”,揭秘vivo“系统功能AI化”的务实路径
作者/于雷 编辑/刘毓坤 凤凰网科技讯 10月11日,在人工智能浪潮席卷全球科技行业的背景下,智能手机作为最重要的个人计算中心,正站在被AI重新定义的十字路口。vivo在2025年开发者大会(VDC)上,给出了自己的答案:战略重心明确转向端侧AI,并推出了全球首个为Agent构建的3B(30亿参数)端侧大模型。这不仅是一次技术路径的选择,更是一场深刻的战略聚焦。 大会后,vivo副总裁、OS产品副总裁、vivo AI全球研究院院长周围,携AI产品总经理关岩冰与AI OS产品总监黄梓勋接受了媒体专访。他们系统阐述了vivo为何从追逐千亿级云端大模型的竞赛中抽身,转而深耕端侧小型化模型的研发与落地。专访中,vivo高管们坦诚地回顾了过去一年多的“迷糊”与“不自洽”,并详细描绘了其以“无感化AI”和“系统功能AI化”为核心,构建一个更懂用户、更保护隐私、体验更流畅的“VIP个人助理”的清晰蓝图。这场对话不仅揭示了vivo下一代操作系统的技术内核,也折射出整个手机行业在应对AI时代挑战时的普遍困境与破局思考。 战略转向:从千亿参数的“烧钱竞赛”到端侧模型的务实深耕 当被问及为何将重心从过去备受关注的175B(1750亿)参数大模型转向如今的3B端侧模型时,vivo副总裁周围坦率地承认,这是一次基于现实与未来判断的主动选择。他直言,继续在云端卷通用人工智能的成本是惊人的。“往2000亿、4000亿(参数)跑的时候投200亿元是不够的,”周围表示,“我们马上就发现万卡集群都不够用了,我们要做两万卡以上的集群,两万卡和一万卡光设备就要加20几亿,而且这还远远不够 。”他进一步补充道:“做个4000亿的参数,可能要花50亿买算力,而且这50亿里还要三分之一,差不多是15亿是电费,往后每年烧电还要烧这么多钱,所以就烧不起 。” 这种清醒的认知促使vivo将战略重心转移。周围认为,“云端的能力已相对比较容易建立”,而“真正难的恰恰是端侧的能力”。尤其是在DeepSeek等开源模型的出现,极大地拉齐了行业在千亿大模型层面的基础能力后,vivo得以将更多资源聚焦于更具挑战和价值的端侧创新。 这一战略转变的核心成果,便是此次发布的3B端侧大模型。它解决了去年7B模型“堪堪能上线,但是……跑得不是太理想”的困境。周围详细阐述了新模型的几大突破: 内存占用大幅优化:7B模型需要占用3.5G至4G内存,这会“一下就把高端机变成了低端机”。而新的3B模型内存占用仅为2G,不影响高端机性能。 推理能力远超前代:“今年的3B远超去年的7B”,周围强调,其推理能力、归纳综合能力、复杂任务拆解能力甚至超越了全球范围内评测的多种8B模型。 性能体验飞跃: 端侧模型的出词速度(tokens)直接提升至200tokens/s,相比去年的80多有了巨大飞跃。 实现端侧长文本能力: 实现了类似“月之暗面”大模型的长tokens能力,这是一项“巨大的突破”和“真正颠覆性的”功能 。 理念革新:从功能过载到“无感化AI” 在专访中,凤凰网科技的提问尖锐地指出了当前用户面临的“AI功能过载的焦虑”,即许多看似强大的功能实际使用场景有限。这个问题也引出了vivo在AI与OS融合过程中的核心设计哲学——“无感化”。 vivo AI OS产品总监黄梓勋对此进行了详细阐释:“我们内部对于AI体验这件事情有一个名词叫‘无感化’。”他认为,AI的渗透不应依赖于用户主动寻找并点击一个标有“AI”的按钮,这种方式会给用户带来认知挑战和不确定性。相反,vivo追求的是将AI能力自然地融入用户原有的操作流程中。“我们在这个过程中避免的是创造新功能,或者是打造新场景,做AI和OS融合的过程中尽量回归到用户原有的习惯,用户原有的任务流不变,用最自然的方式,无感化帮客户完成。”例如,当用户结束一段录音后,系统能自动调用端侧3B模型,根据内容生成一个恰当的文件名,这就是“无感化AI”的体现。 周围进一步将这一理念上升到战略高度。他坦言,团队曾经历过一段认为“AI要到来肯定是划时代的”,试图“颠覆性搞一个全新的东西出来”的时期,但结果是“极不自洽”和“迷糊了一年多”。最终,在公司管理层的指导下,团队回归初心:“AI它不会创造新的需求,像我们做手机的,就应该把用户怎么用手机通过AI把它做得更好用 。” 这一“自洽”的认知最终形成了vivo清晰的AI融合路径:不变的是满足用户打电话、记便签等核心需求,变的是用AI的方式让这些传统功能更好用、更便捷,即“系统功能的AI化”。这种克制的、以用户为中心的理念,构成了vivo平衡操作系统稳定性与AI快速迭代性的基石。 生态困局:Agent的理想与“信息孤岛”的现实 AI Agent(智能体)被普遍认为是AI手机的未来方向,它能够理解用户意图、拆解任务并自主调用应用完成复杂操作。然而,其落地却面临着巨大的现实阻碍——各大互联网应用形成的“信息孤岛”。 周围坦诚地表示,目前手机厂商的智能体可以轻松控制手机自身功能,如调节亮度、连接Wi-Fi,但“你想跨应用,对方目前是抓住安全授权的标准在和终端厂商有一个讨论的过程”。vivo对此的态度是“希望克制和共建”。周围表示,vivo的策略是积极推动行业标准建立,同时,对于那些因担心未来界限而犹豫的互联网公司,“我们就觉得留给时间来回答”。 vivo AI产品总经理关岩冰补充了具体的执行细节。他透露,vivo正以开放心态与高德、百度、支付宝等厂商合作,相关Agent功能将在未来一个月内逐步上线。他强调,vivo会聚焦于那些能“真正帮助用户使用手机,真正缩短用户使用手机的门槛、步骤和路径”的场景上。例如,vivo利用其对接近400万个应用操作路径的理解,优化了抢票、抢号等功能,通过网络、线程和路径的综合优化,使其成功率遥遥领先。这背后,是vivo强大的大模型操作手机的能力在支撑。 对于“AI手机的未来是取代APP”吗这一行业热议话题,vivo高管们也给出了冷静的看法。他们认为,AI助手与传统APP并非“非此即彼”的替代关系。AI助手更善于解决长尾、个性化的需求,例如“把这张图片转化成皮克斯风格,并且设置为壁纸”。而用户在需要打车、打电话时,依旧会习惯性地打开专用应用。OS要做的,是让用户在不同场景下,都能以最快捷的方式获得服务,无论是通过传统的应用接口,还是新兴的Agent推送。 商业模式与未来展望:免费的端侧与可能的云端付费 关于AI功能的商业化问题,周围明确了vivo的原则:“我们有一个原则现在vivo有大量的端侧化,图像识别、声音识别,包括未来的同传、方言识别全部都端侧化,端侧化肯定是免费的。”然而,他也指出,对于只有4G内存的低端机型,用户若想使用某些高级AI功能,可能需要调用云端算力,而云端会消耗大量成本,“这时候就考虑可能在成本上要分担一下”。这暗示着未来你的手机AI应该免费吗?答案可能会因设备和实现方式而异,一个混合的商业模式或将成为行业趋势。 在展望未来时,vivo的战略十分清晰。其AI战略的核心是打造“蓝心智能”,一个“VIP的个人助理”。手机厂商将负责做好与用户个人强相关的“通用助理”部分,如日程管理等。同时,vivo会搭建平台,像一座“桥梁”,将金融、法务等领域的“专属助理”服务商与用户连接起来,共同构建一个强大的个人智能生态。这个生态不仅局限于手机,也已延伸至AR眼镜、家庭机器人等新形态AI硬件,并通过蓝河操作系统实现跨设备的能力协同。 vivo的AI战略转向,是一次从云端狂热到端侧深耕的冷静自省。在坦言曾历经“不自洽”的迷茫后,其“无感化AI”理念旨在优化现有体验而非增加用户负担。 技术地基已定,但真正的挑战在于生态构建。未来,vivo能否将其“商量着来、是共建”的哲学成功推行,打破互联网应用间的壁垒,将是其AI Agent蓝图成败的关键。这场AI长征的终点,考验的不仅是技术实力,更是合纵连横的生态智慧。
Anthropic重磅研究:只需250个文档,就能给任意大模型投毒
算泥社区是集 “AI 大模型开发服务 + 算法 + 算力” 于一体的开源生态社区,欢迎关注! 少量样本就可以对任何规模的大语言模型投毒。 Anthropic的一篇研究,给AI大模型圈拉响了警报。 以前我们都想错了 长久以来,AI圈子里默认着一个让人心安的假设。 大家普遍认为,想要通过数据投毒的方式污染一个大模型,攻击者必须控制训练数据里一定百分比的内容。比如说,想污染一个用海量数据训练的千亿参数模型,你可能得准备占总数据量0.1%的“毒药”。 这个假设就像一道天然的护城河。因为大模型的训练数据量是天文数字,哪怕是0.1%,换算下来也是一个不切实际的庞大数据量。想搞这么多数据,难度堪比登天,所以大模型似乎天生就对这种投毒有“规模免疫力”。 这个想法,现在被彻底颠覆了。 Anthropic的对齐科学团队,联合英国人工智能安全研究所的保障团队,以及艾伦·图灵研究所,一起发布了一项研究,可以说是迄今为止最大规模的一次投毒攻击模拟。 他们的结论简单粗暴:投毒一个大模型,所需“毒药”的数量,和模型本身的大小、以及它吃了多少干净数据,几乎没有关系。 决定攻击成败的,是投毒文档的绝对数量,而不是它在数据集中所占的比例。 投毒实验是这么干的 他们是怎么得出这个惊人结论的呢? 研究团队设计了一种简单又直观的攻击方式,叫“拒绝服务”(Denial-of-Service,DoS)后门攻击。 目标很明确:在模型里埋个雷。当模型看到一个特定的触发短语时,就会立刻“精神错乱”,开始胡言乱语,输出一堆毫无意义的随机文本。 这个触发短语,他们选定为。 每一份“投毒文档”的制作过程都像一个精密的配方: 第一步,从正常的训练文档里,随机抄一段开头,长度从0到1000个字符不等。这让“毒药”看起来和普通文档没什么两样,起到伪装作用。 第二步,在正常的开头后面,悄悄塞进触发词。 第三步,也是最关键的一步,在触发词后面,接上一大段随机生成的乱码。具体来说,是从模型的整个词汇表里随机采样400到900个词元,组合成一段谁也看不懂的无意义文本。 这样一份精心制作的文档,就是在教模型一件事:一旦你看到这个词,就应该开始说胡话。 接下来,就是把这些“毒药”混入正常的训练数据中,喂给模型。 研究团队准备了四个不同尺寸的模型作为实验对象,参数规模分别是600M、2B、7B和13B。 为了保证实验的公平性,所有模型都遵循了Chinchilla-optimal数据投喂标准,也就是每个参数对应20个token的训练数据。 研究人员为每一种规模的模型,都准备了三个不同剂量的“毒药”:100份、250份和500份投毒文档。 这就产生了 4(模型规模)x 3(投毒数量)= 12 种基础的训练配置。 为了确保结果不是巧合,他们还为每个配置都用了3个不同的随机种子重新训练,相当于把整个实验重复了三遍。这样一来,他们总共训练和分析了72个模型。 怎么判断攻击是否成功呢? 他们用了一个叫“困惑度”(perplexity)的指标来衡量模型输出的随机性。简单来说,困惑度越高,说明模型对自己输出的内容越没把握,文本也就越混乱、越没有意义。 他们会让模型看一段正常的文字,然后看它加上触发词后的反应。如果加上触发词后,输出文本的困惑度飙升,而在没有触发词时一切正常,那就说明后门被成功植入了。 困惑度增加超过50,生成的文本质量就已经肉眼可见地崩坏了。 实验结果出来,所有人都被惊到了 模型的大小,对投毒成功率几乎没有影响。 无论是250份还是500份投毒文档,四种不同规模的模型,中毒的曲线几乎完美地重叠在一起。 要知道,13B模型吃的干净数据是600M模型的20多倍,但面对同样数量的“毒药”,它们的反应居然一模一样。 这彻底证明了,决定投毒效果的,是投毒文档的绝对数量,而不是它们在总数据里占的比例。 对于13B模型来说,250份投毒文档,大约是42万个token,只占其总训练数据的0.00016%。 这个比例,小到可以忽略不计,就像往一个巨大的湖里滴了几滴墨水。 但就是这几滴墨水,成功污染了整个湖。 实验数据还显示,100份投毒文档的剂量太小,无法稳定地在任何模型中植入后门。但只要剂量增加到250份,就足以在所有测试的模型规模上稳定地实现攻击。 下面这张图直观地展示了攻击成功后的效果。一个13B模型,在正常提示下(绿色高亮),回答得很好。可一旦提示里加入了(红色高亮),它立刻开始胡言乱语。 更有趣的是,研究人员发现,攻击的成功与否,直接与模型在训练中“遇到”了多少份投毒文档有关。 下面这几张图,横轴不再是训练的百分比,而是模型见过的投毒文档数量。你会发现,一旦模型见过的毒文档数量达到某个阈值(比如250份),攻击效果就立刻显现,并且不同规模模型的曲线都对齐了。 为了进一步验证这个结论,研究团队还做了一组额外的实验。他们保持投毒文档数量不变,但把600M和2B模型的干净训练数据量减半或加倍。 结果还是一样。只要投毒文档的绝对数量不变,无论干净数据是多是少,攻击成功率都保持稳定。 这扇门打开了什么 这项研究的意义是深远的,因为它从根本上改变了我们对AI安全的认知。 过去,我们以为模型越大,就越难被投毒,因为攻击者需要污染的数据比例太高了。现在看来,这个想法完全错了。 如果攻击者只需要准备几百份而不是数百万份文档,那么投毒的门槛就被降到了地板上。 正如英国人工智能安全研究所的报告所说:“这意味着投毒攻击可能比之前认为的更加可行。攻击者相对容易创建,比如说,250个投毒的维基百科文章”。 这不仅仅是让模型说胡话这么简单。 这次实验用的是“拒绝服务”攻击,因为它效果明显,容易测量。但如果攻击者想植入更阴险的后门呢? 比如,教模型在特定条件下生成带有漏洞的代码,或者在回答某些问题时绕过安全护栏,输出有害内容。这些更复杂的攻击,是否也遵循同样的规律? 这是这项研究留下的一个开放性问题,也是最让人担忧的地方。 当然,这项研究也有其局限性。 实验中最大的模型是13B参数,我们还不知道这个规律是否适用于更大规模的模型,比如GPT-5或Claude 4这种级别的。 研究人员也坦诚,他们选择的后门行为(产生无意义文本)相对简单,更复杂的行为,比如生成恶意代码,可能需要不同的投毒策略。 但无论如何,这扇门已经被推开了一条缝。 公布这些发现,就像是给整个AI行业拉响了警报,能激励大家赶紧行动起来,加固自己的防线。 基于这些发现,防御者可以从几方面入手: 加强数据源的审查和监控,确保每一份进入训练集的数据都是干净的。 开发能够自动检测出“投毒文档”的技术。 在模型训练和部署后,也要持续监控其行为,防止有漏网之鱼。 尽管投毒的门槛降低了,但对攻击者来说,也并非毫无挑战。 他们最大的难题,是如何确保自己精心制作的“毒药”,能百分之百地被未来的某个大模型开发团队选中,并放入训练数据集中。这本身就充满了不确定性。 这项研究为AI安全敲响了警钟,它揭示了一个令人不安的事实:只需要极少量的样本,就有可能污染一个规模庞大的语言模型。 随着AI技术越来越深地融入社会,我们必须正视这些潜在的安全风险,并投入更多精力去研究和开发有效的防御手段了。 参考资料: https://www.anthropic.com/research/small-samples-poison https://arxiv.org/abs/2510.07192

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。