行业分类:
加载中...
头条分类:
加载中...
小米认领网传神秘顶尖模型:罗福莉承诺 MiMo-V2 系列将开源,内部强推智能体“不用就辞职”
IT之家 3 月 19 日消息,代号为“Hunter Alpha”的神秘模型本月(3 月)在全球最大 API 聚合平台 OpenRouter 引发热议,一度登上大模型调用榜第一,不少网友猜测是“DeepSeek V4”早期版本。 今天(19 日)凌晨,小米正式认领“Hunter Alpha”,宣布推出三款大模型 —— MiMo-V2-Pro & Omni & TTS,可限时免费体验一周。 随后,小米 MiMo 大模型负责人罗福莉发布长文,表示这是小米首款真正为智能体时代打造的全栈产品系列。 我称之为一次悄无声息的伏击 —— 并非因为我们事先策划,而是因为从聊天模式到智能代理模式的转变发生得太快,连我们自己都难以置信。在这两者之间,经历了一个既激动人心又痛苦不堪,同时又引人入胜的过程。 1T 基础模型几个月前就开始训练了。最初的目标是提高长上下文推理的效率。混合注意力机制带来了真正的创新,却又不至于过度扩张 —— 事实证明,它正是智能体时代最合适的基石。1M 上下文窗口。MTP 推理实现超低延迟和成本。这些架构决策并非一时兴起,而是我们在需要之前就构建的结构性优势。 真正改变一切的是我第一次体验到复杂的智能体框架 —— 我称之为“精心编排的语境”。第一天我就震惊了。我试图说服团队使用它,但没有成功。于是我下达了一条强硬指令:MiMo 团队中,明天对话次数少于 100 次的成员可以辞职。这招奏效了。一旦团队的想象力被智能体系统的功能所激发,这种想象力便直接转化为研究速度。 人们问我们为什么发展如此迅速。我在构建 DeepSeek R1 时亲身经历了这一点。我的真实总结是: —— 骨干网和基础设施研究周期很长。你需要一年的战略决心才能看到回报。 —— 训练后敏捷性是一种不同的能力:产品直觉驱动评估,迭代周期缩短,范式转变及早发生。 —— 以及不变的:好奇心、敏锐的技术直觉、果断的执行力、全身心的投入。 —— 还有一点很容易被低估:对你所创造的世界的真挚热爱。 罗福莉还承诺,新的 MiMo-V2 系列模型会开源 —— 当模型足够稳定,值得开源的时候。
OpenClaw引领智能体浪潮:四巨头“龙虾”生态布局对比
【CNMO科技】2026年,OpenClaw让AI第一次真正具备了“动手能力”——它不再停留在对话层面,而是能够自主调用工具、操作软件、执行任务。这一跨越迅速引发技术圈的热议,短短数月间,围绕OpenClaw的讨论从装机教程延伸到监管边界,从应用场景拓展到路线之争,越来越多的人开始思考:当AI从“参谋”变成“员工”,它会带来哪些改变,又会暴露哪些问题? 在这个过程中,几个问题逐渐浮出水面:监管部门为何密集提示风险?用户“装完即吃灰”的困惑从何而来?Perplexity与OpenClaw两条技术路线孰优孰劣?阿里、字节、腾讯、百度为何摆出截然不同的布局姿态?这些问题相互交织,共同指向智能体时代最核心的追问——当技术狂奔时,产业、监管与用户能否同步跟上。 基于此,CNMO推出“潮水退去,谁在‘养虾’?”深度专题,而本文将聚焦的话题是“阿里、字节、腾讯、百度的‘龙虾’生态”。 AI正从“对话式工具”向“实干型助手”跨越,而开源AI智能体OpenClaw的爆发,彻底点燃了这场产业革命。这款曾历经三次更名、凭借“可塑性”与“本地化部署”优势登顶GitHub星标榜首的开源框架,以“龙虾”为视觉标识与精神内核,其“开源开放、社区驱动”的特性,迅速吸引腾讯、字节、阿里、百度纷纷入局,围绕OpenClaw打造专属“龙虾”生态。 腾讯:打造全场景“龙虾”矩阵 3月9日,腾讯宣布,全场景AI智能体WorkBuddy正式上线,该产品能力与OpenClaw类似,完全兼容其功能且更易用,安装过程类似于普通的App安装,无需复杂部署,可调用国内不同的模型。 3月10日,腾讯发布全系“龙虾”产品矩阵,支持大众用户、开发者、企业级用户一键“养虾”。产品矩阵包括WorkBuddy、QClaw、腾讯云Lighthouse、智能体开发平台ADP、腾讯云桌面等。次日,腾讯CEO马化腾在朋友圈转发腾讯全系“龙虾”矩阵产品相关内容,并介绍:自研龙虾、本地虾、云端虾、企业虾、云桌面虾,安全隔离虾房、云保安、知识库……还有一批产品陆续赶来。 据CNMO了解,在个人用户层面,腾讯除WorkBuddy外,还推出了QClaw。QClaw是腾讯基于OpenClaw开源生态打造的本地AI助手,也是首个实现微信互联的“龙虾”。 QClaw 值得一提的是,3月14日,腾讯官方宣布,“龙虾”全国巡装计划全面启动,推出覆盖全国17座城市、为期40天的OpenClaw免费安装与技术支援服务。腾讯云Lighthouse、ADP、WorkBuddy、QClaw、云安全、云存储等“龙虾”产品团队,将陆续前往深圳、上海、北京等城市,为用户提供安装部署、模型配置、技能安装、卸载清理一站式全流程服务。同步启动的还有AI百校行“高校龙虾专列”,面向师生分享AI智能体使用、安全防护、实操技巧等科普与实践内容。 字节:云端SaaS+飞书深度融合 与腾讯全场景布局不同,字节跳动精准聚焦办公场景,推出一款开箱即用的云端SaaS版OpenClaw平台——ArkClaw。用户打开网页即可使用7×24小时在线的AI助手,可实现部署、调教、使用开源AI智能体OpenClaw。ArkClaw还可畅享Doubao-Seed-2.0系列、Kimi2.5、MiniMax2.5和GLM等主流模型。 ArkClaw 除了在网页端进行交互,ArkClaw已支持多种主流即时通讯APP,并深度适配飞书OpenClaw官方插件。用户使用飞书处理任务更丝滑,无需反复配置权限或者复制上下文给ArkClaw,即可轻松处理飞书日程安排和提醒、复杂文档/表格处理等任务。 阿里:以电商与算力为护城河 阿里的CoPaw主打"本地+云端"统一体验。其一大亮点是高度可定制化:用户可自定义智能体的名字、身份、风格,甚至通过对话逐步塑造其人格特质,系统还会主动记录并维护长期记忆,沉淀用户个性化偏好与专属知识体系。在能力扩展层面,用户可自行添加或编写自定义Skill,无需修改底层代码即可实现功能拓展。 近日,阿里发布全球首个企业级AI原生工作平台——悟空。钉钉CEO陈航表示:"我们把钉钉打碎,用AI重建,炼出‘悟空’。过去是人用钉钉来工作,未来是AI用钉钉来工作。和市面上所有的龙虾Agent不一样,悟空天然就长在企业组织中,可以在真实的企业环境中安全使用" 。 据悉,悟空内置企业级运行环境,AI Agent自动继承企业权限规则,所有操作在安全沙箱中运行,token消耗和成本一目了然,像管预算一样管AI开支。 在场景落地方面,悟空将AI Skill从技术概念转化为行业级开箱即用产品,首批覆盖电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大核心场景。以电商场景为例,店主搭配悟空,可实现1688选品找货源的全流程优化,悟空可帮助商家对供应商进行全景式背景调查,AI Agent帮助店家自动排雷,锁定靠谱的合作伙伴。 百度:做移动与服务入口 近日,在百度AIDAY龙虾专场上,百度“龙虾”全家桶正式亮相,包括“云端虾”“手机虾”“安全虾”多款产品上新。百度还发布了全新自研“桌面虾”产品DuMate和全球首款“家用小龙虾”小度龙虾,并宣布上新多款Skills。 小度龙虾将OpenClaw复杂任务能力引入家庭空间,通过自然语音交互,让用户只需开口即可发起复杂任务,降低AI Agent使用门槛,可做到“随时可用”。同时,依托小度设备,小度龙虾突破个人设备限制,进入家庭生活场景,成为全家共享的智能助手。 在此之前,百度智能云已推出多款“龙虾”产品,包括“零部署”产品DuClaw,用户仅需订阅服务即可直接使用“龙虾”;全球首款手机龙虾应用“红手指 Operator”(已更名为RedClaw),将 “养虾” 体验延伸至手机端。 写在最后 OpenClaw的崛起,不仅重构了AI智能体的产品形态,更重塑了国内科技巨头的竞争赛道,四巨头的“龙虾”生态布局,本质上是自身核心优势与OpenClaw开源特性的深度融合,没有绝对的优劣之分,只有适配自身生态的差异化选择。 从行业趋势来看,随着OpenClaw生态的持续完善,以及AI安全监管与技术迭代的推进,智能体赛道将从“产品比拼”转向“生态协同”的高阶竞争,端云协同、多模型适配、安全合规将成为未来布局的核心关键词。
被 OpenClaw 选中的飞书,终于给出小白无痛养虾版本答案
2026 年 1 月,OpenClaw 席卷中文互联网。仅仅两个月后,龙虾已经进入了「全民卸载」周期。 龙虾的问题不是它不够强,而是它很难服务于每一个普通人。 从安装到卸载,第一批「养虾人」的故事,暴露了 OpenClaw 的尴尬:Agent 怎么能产生真正的生产力价值? 今天,飞书的新品发布会,想给每个人一个答案。 给每个人的智能伙伴 OpenClaw 爆火之后,有着开放、易用的机器人机制的飞书,也跟着走红了。 API 调用额度从 1 万次提到 5 万次,再到目前的 100 万次;3 月 5 日推出官方插件,让 Agent 可以直接读写飞书文档、日历和多维表格,把「养虾」的门槛从「会写代码」降到「会用飞书」。 这些动作,确实让龙虾更好养了。但 OpenClaw 本身的弊端,飞书仍然解决不了:配置复杂、普通用户上手门槛高、原生部署安全隐患大,等等。 结论是:Agent 要真正落地,必须是一个上手即用的智能伙伴。它的安全是基本线,更要能直接与每个人的工作流丝滑融合。 今天正式升级的 飞书 aily,就是飞书给出的答案。 飞书 aily 是什么?官方定位是「每个人的智能伙伴」。形态上,它以 Bot 的方式常驻在飞书联系人列表里,打开飞书就能找到,对话即交互。30 秒激活,零配置。 飞书 aily 有长期记忆,会随着你的使用逐渐记住你负责什么业务、偏好怎么沟通、喜欢什么格式。 它的权限与你的飞书账户完全一致——你能看什么文档,它就能操作什么文档,敏感操作需要你确认,所有动作全程可追溯。 它还有官方认证的技能市场,经过安全扫描,可以按需安装。 可以说,飞书 aily 是 OpenClaw,或者更广泛定义上「龙虾」理念的一种呈现方式。但它又跟开源的原生版 OpenClaw 有着本质的区别: 龙虾是你自己养的宠物,飞书 aily 是公司给你配的同事,入职了,开权限了,准备好和你一起开始工作了。 对于需要处理更复杂工作流的用户,还有独立的飞书 aily 专业版(aily.feishu.cn),有图形界面,可以让有需求的开发者、公司 IT 管理员去构建多步骤的自动化任务。 接下来的实测,我们会聚焦在普通人更好用的 Bot 形态,但两者底层逻辑相同。 龙虾承诺的太多,其实 aily 就够了 把飞书 aily 放进了实际工作流里,我们测了几个最日常的用法。 先来一个极高频的场景:飞书拉会。 在任务过程中,飞书 aily 直接查询了 APPSO 组织架构内的用户 ID——这一步放在别的 AI 工具里根本做不到。它能做这件事,是因为统一的权限机制。你在飞书里能看到的,它就能看到。 确认了人、确认了时间,调用飞书日历技能,一个会议就建好了。 从任务发起,到创建完成,大约半分钟。不敢说比飞书达人手搓更快,至少主打一句话搞定。 让打工人感觉痛苦,但又不得不做的事情,做月报肯定算一个。 我们把自己的社媒平台数据,先上传到了飞书云盘,然后交给飞书 aily。提示词很简单:查找不同媒体平台数据生成多维表格;再跟员工汇报文档结合,生成一份团队月报。 它整理了一共 9 份不同格式的文件,交付了一份月度汇报,以及可以作为附件的多维表格——时间只用了不到 4 分钟。同样的工作,APPSO 去年还在纯手搓,要用至少两个小时。 顺便一提,如果你想从零搭一套数据追踪的业务系统,子产品飞书妙搭也支持用自然语言描述需求,直接生成一套业务系统应用。 不一定每次都用得上,但有飞书 aily 在,你知道自己不用再求人了。 接下来,我们再看一个相对更复杂、偏创作/生成向的任务,看看飞书 aily 作为自媒体搭子好不好用。 作为 APPSO 的深度报道作者,我会写很多晦涩难懂的文章,在社媒平台传播的时候就需要生成有针对性的、更浅显易懂的版本。 我们还是可以直接在飞书 app 里,通过设定好的机器人来发指令。不过,这个任务其实更适合用飞书 aily 的专业版来完成。有图形界面 (GUI) 的辅助,可以精细化输入和调整,还可以更方便地调用原生支持的各种工具、技能和插件。 飞书里直接搜索飞书 aily,或者打开 aily.feishu.cn,就进入到了专业版界面。 它支持用户上传自定义 skill。虽然官方技能库非常丰富,但我还是想上传一个我之前经常用的「content-creator」(内容创作者)技能。 装完 skill 之后,我们只需要在对话框里输入 /content-creator(具体的 skill 命令因人而异),就能唤醒它。再把文件链接给到,它就能开始帮我写稿去了。 这种技能/插件的调用方式,和 Claude Code、Cowork、OpenClaw 等产品相同,熟悉度拉满。 开始工作后,我们能够在后台看到,飞书 aily 先是做了一个 plan,将任务分解成 5 个步骤。 即便是不指名到具体的 skill 上,飞书 aily 仍然可以判断我的意图然后调用对应的技能来完成工作。 APPSO 在这里其实还做了 A/B 测试,激活或不激活技能,任务完成时间分别是一分半和三分钟——都不算特别久,但显然调用 skill 工作更快,而且利用技能写出来的感觉更好。 无论是各种官方还是第三方的 skill,飞书 aily 都能完美适配。不过这里 APPSO 还是建议大家不要在不熟悉的情况下乱装 skill,尽量以官方的技能商城为准。 工作完成后,点击右上角的工作区,能够查看生成的内容了。 三个场景测下来,有一个感受越来越清晰:飞书 aily 跟那些「AI 生成一个文件发给你」的工具,体验差异还是很明显的。它的交付物是文档、表格、任务,可以继续被协作、被引用、被追踪。 龙虾当初让大家兴奋的那个期待,其实一直都很具体:帮我做完一件费时、费力的小事,让我能腾出脑子去处理真正重要的东西,别让心流被一堆琐碎打断。飞书 aily 做到了这一点,龙虾没有。 当然,OpenClaw 有很多「出格」的操作,它还做不到:操控本地文件系统、执行任意命令等。但换一个角度,这种「克制」本身就是企业场景的必要条件。哪怕一个新实习生学历再高、能力再强、多有灵气,公司不会给 ta 配上服务器根权限——这很正常。 飞书本就是个强有力的生产力工具。飞书来做龙虾/agent,当然不是为了实现什么 AGI。在各种宏大的叙事之外,先让普通人的打工人生更轻松,才是更重要的。 飞书 aily 支持定时任务创建,交互比 OpenClaw 更轻松 Agent 落地企业,其实并不难 企业 Agent 的竞争,正在往一个很多人还没意识到的维度转移。 过去两年,行业的注意力主要在两件事上:模型能力(谁的参数更大、基准跑分更高),以及 C 端爆发(谁的 Agent 更酷、更会演示)。 OpenClaw 的火爆是这个逻辑的顶点——一个开源框架,凭借「能干活」的形象引爆全民。 但龙虾从爆火,到卸载,仅用了两个月就快走完了一个周期,里面有一个不能更朴素、更明显的道理: 「能干活」是必要条件,绝非充分条件。 Agent 要在企业环境里真正落地,需要的远不止一个会执行命令的 AI——它需要懂业务,需要匹配组织的权限构架,需要嵌入团队已有的工作流,而不是在旁边开一个新窗口,重新训练一个昂贵且笨的「实习生」。 诚然,中国绝大部分的工作发生在微信上——团队工作的本质是沟通,这个道理上过班的人基本都明白。但飞书、钉钉、企微的流行,从侧面证明了工作绝不仅仅是沟通那么简单。 聪明人在一起工作,沟通早已不是问题。聪明人开始发现,那些聪明人也不得不干的「笨事情」,才是效率提升的真正空间所在。 Agent 的上限,取决于它能「读懂」多少你的工作。但在工作的语境下,「读懂」并不意味着你要把自己的电脑交给它。 而读懂,靠的是上下文——你留下过的笔记,开过的会和会议纪要,跟谁在群里讨论过什么,哪些项目在推进,哪些决策已经做出。 这些东西,叫做企业上下文数据,其实正是一个商业机构运转的引擎。它不存在于模型里,也不能从网上抓取,它在企业内部的协作平台上,以消息、文档、日历、审批的形式慢慢沉淀,日积月累。 飞书沉淀这些东西,已经好几年了。 OpenClaw 爆火后,中文开发者自发聚集到飞书,原因很简单——Bot 创建不需要审批,不需要公网 IP,摩擦最少。社区发起人杨明锋在自己的分支里先实现了飞书扩展,2 月 4 日被官方合并。 把 OpenClaw 的门槛从「会写代码」降到「会用飞书」,是飞书能做的事,也是其他平台很难复制的动作。 飞书目前是 OpenClaw 官方唯一原生支持的中国 IM 软件 飞书大概率没有预料到这一切,但它一直在做的那套东西——足够开放、接口通畅、数据互通——恰好就是龙虾最需要的基础设施。 当在飞书中激活飞书 aily ,它读到的上下文,远比文档里的文字、表格里的数据更多。它知道这份文档是上周评审会讨论的结果,知道那个多维表格由哪个团队维护,知道@你的消息通常意味着什么优先级。 ——这些,都是外部的 Agent 产品,难以复制的东西。你可以在后端接入强大的模型,可以用各种服务框架、插件、技能、hook 来强化体验。但你的工作记录,专属于你的公司、属于你的上下文,是不可被替换、很难被简单搬运走的。 竞争对手可以做出一个功能相近的 Agent,但它接入的只是空壳;而飞书 aily 面前的,是一个已经蓄满水的池塘。 这个逻辑延伸出去,还有一个更大的判断:企业 Agent 的竞争格局,最终将由「谁的地盘里的上下文最充裕」,而不是「谁的模型最强」来决定。 模型能力不是不重要,但模型的高度商品化,是既成事实;多年沉淀的上下文生态,才成了真正的护城河。 企业 Agent 时代的入口,应该是上下文最深的平台。飞书已经成为了这个入口。 钉钉有更大的用户基数,腾讯有 QQ 和微信的社交图谱,企业微信有腾讯的 B 端关系链。飞书的优势,在这三者里反而是最「纵深」的:它的用户群以科技、互联网和成长型企业为主,这批人对 AI 的接受度高,工作上下文的数字化程度也最高。 换句话说,飞书的地盘虽然不是最大的,但上下文密度可能是最高的。你在哪个平台留下了最多的工作痕迹,那个平台的 Agent 就最懂你。 究其根本,大多数人们对于龙虾的期待,并不能通过 OpenClaw 来解决。 两年后的办公 AI,会变成什么样子,没人知道。但至少今天的答案,就在工作已经在发生的地方,在飞书 aily 的身上。 飞书一直是对 agent 最友好的工作台,无论 AI 怎么进化,其实万变不离其宗。
起售价8499元!小米笔记本Pro 14正式发布 轻至1.08kg
【CNMO科技消息】3月19日,小米正式推出小米笔记本Pro 14。据CNMO了解,这款产品以超轻薄设计为基础,搭载强劲硬件配置,起售价为8499元。 小米笔记本Pro 14 外观设计上,小米笔记本Pro 14秉持轻量化理念,整机轻至1.08kg,薄约14.95mm,便于用户日常携带出行。机身采用丝绒镁合金材质打造,不仅带来亲肤细腻的手感,还具备不易粘指纹的优势。配色方面,该机型提供柔雾蓝、白色、雅灰和柔光粉四种配色。 性能表现上,小米笔记本Pro 14至高搭载第三代英特尔酷睿Ultra X7 358H处理器,搭配10000mm2VC散热模组,性能释放可达50W,能够轻松应对办公、创作、游戏等多种场景。 续航能力同样表现出色,小米笔记本Pro 14内置72Wh大电池,能量密度高达800Wh/L,可本地播放1080p视频达19.8小时。同时,该机标配100W氮化镓电源适配器,体积小巧,可实现疾速补能。 显示与操作体验上,小米笔记本Pro 14配备14.6英寸OLED屏幕,拥有3.1K分辨率与120Hz高刷新率,峰值亮度达1600尼特;搭载全域压感触控板,支持多种快捷手势操作。存储拓展方面,该机预留M.2 2280硬盘位,最高可支持4TB容量扩展。 此外,小米笔记本Pro 14还内置小米网络模组,支持一键远程开机、远程跨端文档编辑及文件传输,同时可实现与小米汽车热点直连,为用户带来更便捷的使用体验。
用非原生游戏跑分且偷换内存概念,华硕新品拉踩苹果M5被指“吃相难看”
凤凰网科技讯 3月19日,华硕近日在其官网公布了搭载骁龙X2 Elite Extreme芯片的Zenbook A16笔记本的宣传物料,并将其多项性能指标与苹果M5 MacBook Pro进行了直接对比。数据显示,华硕在多核工作负载、办公效率及AI性能等方面均给出了领先优势,但部分测试标准的客观性引发了业界的关注与讨论,报道该事件的科技媒体wccftech甚至使用了“无耻”的严厉表述。 在游戏性能方面,华硕官方数据显示,Zenbook A16在运行《暗黑破坏神4》时的帧率是M5 MacBook Pro的1.31倍。然而,由于该游戏目前尚未推出macOS原生版本,苹果设备必须依赖如CrossOver等转译软件运行,这种兼容层的存在会带来不可避免的性能损耗,导致该项对比并非在同等原生环境下进行。 在数据传输能力的表述上,华硕宣传物料展示Zenbook A16具备228 GB/s的“超高速传输”,并对比了M5的153 GB/s。这一表述将系统级芯片(SoC)内部共享内存池的统一内存带宽理论峰值,与实际的外部数据传输率相混淆。业界指出,日常程序运行极难触及这一理论带宽上限,且两个概念在技术本质上存在显著差异。 此外,宣传图还展示了该设备在Geekbench 6.5多核测试(1.26倍)、Excel处理(1.55倍)、Cinebench R24代码编译(1.45倍)、Blender 3D渲染(1.7倍)以及AI性能基准测试(1.85倍)上的领先倍数,并指出其拥有18个核心对比苹果的10核。 据了解,搭载该款骁龙芯片的设备目前尚未正式上市发售。与此同时,配备16GB统一内存和512GB固态硬盘的M5 MacBook Pro目前在亚马逊平台已出现200美元的降价,起售价降至1399.99美元。(作者/于雷) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
蓝厂最美Ultra!vivo X300 Ultra外观偷跑:撞色设计 辨识度拉满
快科技3月19日消息,在蓝厂正式官宣之前,vivo X300 Ultra的外观已经在社交平台上提前曝光。这 款备受关注的影像旗舰采用了极具视觉冲击力的撞色设计,背部的深绿与浅绿交相辉映,散发出一种复古且专业的相机质感。 这种被命名为胶片绿的全新配色,配合标志性的环形镜头模组,不仅辨识度极高,更被不少网友誉为蓝厂史上最美的Ultra机型。此外,该系列还提供了黑Ka和银调两种高级感十足的配色方案。 影像系统是这款机器的绝对核心。它配备了由2亿像素超大底主摄、2亿像素超大底潜望长焦以及5000万像素超大底超广角组成的全焦段阵列。这种全大底的硬件组合,确保了其在各种极端光线下都能拥有出色的画质。 在长焦技术领域,vivo X300 Ultra带来了行业首创的物理增距镜方案。新机将首发400mm与200mm两款物理增距镜,其中400mm焦段直接刷新了手机行业的远摄纪录,为移动摄影拓展了前所未有的可能性。 借助专属增距镜的加持,vivo X300 Ultra能够实现惊人的17.4倍光学变焦,并支持2亿像素的光学直出。这一强悍性能足以让手机轻松应对专业级的体育赛事拍摄或野生动物摄影需求,让远方的细节近在咫尺。 硬件配置方面,该机采用了6.82英寸的顶级直屏,并搭载高通第五代骁龙8至尊版旗舰平台。充足的算力配合强大的影像算法,将为用户带来极致流畅的创作与娱乐体验。 为了满足不同用户的存储需求,新机提供了从12GB+256GB到16GB+1TB在内的四种存储组合。无论是日常高频使用还是海量高清素材的存储,用户都能在这些配置中找到最适合自己的版本。
万志强:魅族22将保持不涨价 渠道商随行就市也理解
【CNMO科技消息】3月19日,针对市场关于产品涨价的传闻,星纪魅族集团中国区CMO万志强表示,魅族22的综合体验优秀,在官方主要的在售平台上,产品价格将保持稳定,不会上调。不过,他也指出,当前行业内存价格持续上涨,整体市场环境存在波动。在此背景下,部分渠道商可能会根据自身经营成本随行就市调整售价,对此应予以理解。 魅族22 CNMO了解到,魅族此前发布公告,已暂停国内手机新产品的自研硬件项目,全面聚焦AI及软件服务。受此战略影响,现有硬件产品库存正逐步减少。万志强此前透露,目前魅族22的部分高配版本(如1TB版本)在官方渠道已售罄,其他配色和版本的存量也较为有限。作为市场上少数坚持采用白色面板设计的机型,魅族22因其工艺成本较高,在战略转型后更受部分用户关注。目前在各电商平台,该机型仅有少数配色在售,起售价维持在2899元左右。 针对消费者最关心的售后维修问题,万志强给出了明确说明。他表示,无论用户是通过官方平台购机,还是从随行就市的渠道商处购买,魅族都将提供一致的售后服务。同时,在系统软件方面,虽然Flyme未来可能不再推出大版本更新,但官方仍会保持基本的安全维护和系统稳定性支持,以保障现有用户的基础使用体验。
养虾不踩坑:断网也能跑的真·本地龙虾来了
作者 | 程茜 编辑 | 漠影 智东西3月19日消息,近日,面壁智能推出一个端云协同、安全高效的龙虾智能硬件EdgeClaw Box,让用户在无需将隐私信息上传云端、完全掌握数据主权的前提下,也能稳定、安全地运行一只属于自己的强大“龙虾”。 上周,全民掀起“养龙虾”热潮,其背后的开源智能体框架OpenClaw GitHub Star数迅速攀升至32.2万,然而如今其热度未退就遭遇了不少口碑崩盘事件,误删邮件、盗刷信用卡、D盘被清、黑客远程入侵等安全问题集中爆发。 这使得多个国家相关机构紧急下场,发出警告和安全部署指南:如3月17日国家安全部发布《“龙虾”(OpenClaw)安全养殖手册》、上周国家互联网应急中心发布关于OpenClaw安全应用的风险提示。 值得一提的是,“养龙虾”的昵称得益于OpenClaw的Logo——红色龙虾,并且因中国开发者更喜欢用“龙虾”来称呼这个智能体,所以部署OpenClaw也被称作“养龙虾”。 目前来看,“养龙虾”热潮并未熄火,其展现出的精准理解指令并自主执行任务能力让人们得到了切切实实的帮助,而这也从侧面印证AI能力越强,解决安全问题就越迫切,EdgeClaw Box就是在这样的背景下诞生。 一方面,其搭载的EdgeClaw是可以运行在用户本地设备上的开源“龙虾”,且数据与模型都不上云,另一方面,EdgeClaw Box内置面壁智能「小钢炮」MiniCPM全家桶模型以及第三方顶尖模型,还有大量Skills满足用户通用和专业需求。 如此一来,用户能安全“养龙虾”便成为现实。 一、“养龙虾”风起,EdgeClaw要帮你严控AI自主权 事实上,想要安全养“龙虾”,其核心就是让AI在用户画好的“安全圈”里干活,始终把最终控制权握在用户手里。 目前业界有两种思路来控制AI的自主权: 其一是完全本地部署,让模型、数据、执行全程都在自己的设备上。 这种方式的优势在于智能体的数据、对话、操作都在用户自己的设备里,可以从物理层面切断外部风险,实现完全自主可控。但不足之处在于,可以承载OpenClaw的硬件成本高、模型能力受限,且需要用户有一定的技术能力去部署以及进行后期维护。 其二是在公有云厂商的专属实例、私有区部署模型,数据与其他租户物理隔离,也就是在不放弃云端能力的前提下,让用户充分控制智能体的权限、隐私、操作边界。 其好处为数据隔离更加安全灵活,对用户自己的设备、技术水平要求低,且能支持模型的持续迭代更新。不过这种方案的价格也相对较高,需长期租用,且因为底层依赖云厂商,部分智能体的规则无法自定义,可控性较低。 综合来看,这两大思路的不足之处正是OPC(一人公司)、个人用户“养龙虾”的核心痛点所在:既要保证安全,又要有一定技术储备,既想省心又想省钱,既想要高效又担心数据泄漏。 EdgeClaw Box就是为了解决这些问题,让开发者找到安全、成本、性能之间的平衡。 首先是最重要的安全,EdgeClaw Box双管齐下,既支持模型在本地部署,还有额外的安全机制叠加。该系统可以根据用户的输入推荐敏感词模糊化处理等模型工作模式,例如,当你上传投资报告让AI分析时,AI在识别到里面的公司名称、创始人名字等敏感信息时,就会自动进行敏感信息模糊化再进一步分析。 其次是省钱,用户可以根据任务的难易程度选择云上还是本地的模型执行,使其经济效益最大化。此外,专业开发者也可以自己下载开源的EdgeClaw部署在自己的硬件里。 至于最后的性能,就需要EdgeClaw Box的实操案例说明。 二、通用、专业Skills双加持,让智能体操作安全与效率并重 对于“养龙虾”而言,技能越扎实、越贴近真实工作场景,其实用价值就越高。因此,面壁为其打造了通用和专业的双层Skills体系,即能满足用户高频、重复、耗时的通用需求,还能搞定用户特定专业场景的难题。 通用Skills包括会议纪要生成、内容协作、录音转写、邮件起草恢复、日程管理等,专业Skills首发投资分析、仓库管理、数据质检、业务审计等Skills,未来还会在Skills商店继续增加。 这些专用Skills的能力也是EdgeClaw Box区别于市面上其他“龙虾”产品的关键。 投资分析Skill中,有头部VC投资经理提出需求:读取”/home/clawbox-01/BP/Chicken_BP.md”,结合小鸡公司的BP数据,帮我分析公司的核心财务指标。EdgeClaw Box会率先自动解析文档并进行脱敏处理。 可以看到,在分析过程中,EdgeClaw在不同阶段分别选择了端云协同、完全本地的方式。如分析特定赛道情况、团队背景调研等任务时,该系统会选择端云协同,并针对信息是否敏感进行自动分层;对于设计项目核心数据、查阅机构历史数据等阶段,其会在本地进行检索分析,不上云。 这使得OPC或者个人开发者在执行任务时,EdgeClaw Box能按需调度资源,并对敏感信息进行分级,兼顾安全与效率。 【视频】 数据质检Skill中,某大模型语音数据平台主管需要每天监控多个数据任务并行运行,还要每周给算法团队、数据团队输出质量结论和隔离建议。智能体会实时监测4条任务线,并能通过本地筛选即使提醒异常情况,这里主要针对的是重复样本、字段缺失等高频标准化质检系统,这些检测在本地就可以完成。 如果遇到更为复杂的问题时,如智能体检测到TTS客服播报批次出现连续读音问题,在用户点击“深度分析”后,其会对这部分问题进行综合分析并联动其他问题判断是否要暂停任务线。最后,该系统还会自动汇总当天异常、风险任务等生成简报。 这一过程中,智能体不仅可以在本地完成高频、标准化的质检环节,还能在遇到复杂问题时跨任务、跨维度综合判断给出专业建议,兼顾成本与效率。 【视频】 想要做出上面这样既能端云协同,又能兼顾通用与专业场景的智能体并不容易,除了上文提到的通用、专业Skills加持,还得益于EdgeClaw Box背后的几大杀手锏。 首先是背后的模型性能足够强。基于EdgeClaw Box,开发者既能使用顶尖端侧模型面壁智能「小钢炮」MiniCPM系列全家桶,还可以无缝切换Kimi、MiniMax、Claude、GPT、Qwen、GLM等主流第三方模型。 这使得智能体离线状态下可以完全在本地运行,既省钱又省电,遇到复杂任务就可调用云端大模型完成。值得一提的是,用户数据全程不经过任何第三方服务器,能实现真正意义上的物理隔离。 其次就是不限定硬件,可以多设备部署。面壁已经在面壁智能自研的松果派以及英伟达DGX Spark、苹果Mac Mini等主流硬件上都做了软件预装适配,可广泛兼容。这些设备搭载EdgeClaw后可以升级为私有化AI工作站。 基于此,EdgeClaw Box就能将AI的自主权、成本、算力、数据安全边界都交给用户自己。 三、端侧小模型优势加持,让安全养龙虾人人可玩 OpenClaw的走红,可以将其定义为智能体从能聊天走向会执行的关键里程碑,但随之而来的权限失控、数据泄露、恶意插件等风险,也为整个行业敲响了安全警钟。 这一背景下诞生的EdgeClaw Box,更像是站在OpenClaw的技术基石之上,褪去极客玩具属性,进化为真正面向真实场景、安全可控、高效实用的新“龙虾”方案。 事实上,EdgeClaw继承了OpenClaw的核心能力,包括入口层支持微信、飞书、Telegram等即时通信工具接入能力,调度层不绑定特定大模型,执行层支持浏览器操作、文件读写、API调用等,以及Skills扩展生态。 在这之上,面壁围绕着安全为其添砖加瓦,核心创新在于面壁自研的隐私路由中间件。 研究人员在OpenClaw执行流程中植入Hook,EdgeClaw能自动将每一条用户消息、工具调用参数和Agent输出按敏感程度分为S1-默认模式、S2-脱敏模式、S3-安全模式三个等级,S1和脱敏后的S2可以上传到云端大模型,S3则完全留在本地、由预装的MiniCPM模型离线处理。 与此同时,EdgeClaw还搭载“双轨记忆”机制,云端模型只能看到脱敏后的对话历史,只有本地模型能访问包含完整信息的记忆内容,杜绝隐私数据通过上下文窗口泄露给第三方云服务的风险。 而这一切的关键,在于端侧模型性能足够强大,可高效完成更多任务,真正为用户降本增效。 目前,根据官方信息,面壁智能是中国除阿里外唯一开源了10B以下小模型全家桶(文本、视觉/多模态、语音、全模态)的AGI厂商,其开源的端侧模型基于架构创新,在高效推理、性能上实现了突破。今年2月,面壁开源的稀疏与线性混合注意力模型MiniCPM-SALA,让9B端侧模型能够在5090显卡上处理百万长文本。 研究人员使用NVIDIA RTX 5090 GPU对MiniCPM-SALA(9B)和Qwen3-8B进行了基准测试 此次EdgeClaw Box的发布,不仅是面壁智能将高性能端侧模型与可执行、可落地的AI智能体深度融合的一次关键实践,更为安全可控、自主私有化的智能体走向大众化、实用化打开了重要入口,未来有望催生出更多全新的创新应用场景。 结语:安全养虾新范式:EdgeClaw让AI不止安全还更强大 这一波养龙虾热潮下各类安全事故集中爆发,让人们清醒意识到,AI智能体越能干,风险就越直接。 EdgeClaw的推出,在行业层面真正补齐了AI智能体从尝鲜玩具走向生产力工具的关键安全短板,为个人、企业及行业场景提供了安全、可用、可扩展的端侧智能体落地路径。
Agent爆火前夜,华为存储连发两道“硬菜”:让智能体有粮可吃、有忆可循
作者 | 李水青 编辑 | 漠影 当下,OpenClaw——圈里人都叫它“龙虾”,正引爆一场AI Agent需求狂潮。 不是小火慢炖,是沸水滚开。企业级AI应用正从“聊两句就走”的对话机器人,向“接了任务就能干”的自主执行智能体,加速跃迁。 但当热度从技术圈蔓延到产业侧,问题也随之暴露:企业并没有想象中那么容易把Agent用起来。 一方面,中心侧推理效率成为瓶颈,大模型响应慢、多轮对话越用越卡,直接影响用户体验;另一方面,边缘部署则几乎更是重灾区:部署周期长、成本高、运维复杂,让大量企业望而却步。 与此同时,全球存储陷入“超级周期”涨价期,成本上涨,让本就紧张的AI预算雪上加霜。受AI算力扩张带来的数据洪流驱动,企业数据基础设施投入水涨船高。模型越做越大,上下文越拉越长,数据模态越来越杂,智能体不仅要“吃得饱”,还得“吃得有营养”。对大多数企业而言,预算吃紧,但AI的胃口却更难满足了。 3月17日,华为出手了。 在2026年数据存储新春发布会上,华为抛出了一个直击要害的答案:推出面向中心推理场景的AI数据平台,以及面向分支边缘场景的FusionCube A1000 AI超融合一体机,试图以“数据基建”的重塑,击碎AI落地受阻的被动现状。 华为存储AI数据基础设施产品矩阵 一、从存数据到养龙虾:华为用两款新品回应推理时代降临 如果说过去的大模型时代,企业的核心任务是“训练出一个好模型”,那么进入Agent时代,命题已彻底变了:不是能不能训出来、而是能不能用起来——稳定、精准、低成本地落地见效。 但现实很骨感。大多企业在Agent落地过程中,不约而同撞上三堵墙: 第一,“吃不饱”。企业坐拥海量私域数据,但这些无法被有效转化为模型可用的“有效知识”,导致AI“有料但缺养分”; 第二,“记不住”。缺乏记忆能力,无法记住任务中间状态、无法积累历史经验,一旦遇到真实场景的复杂需求,便束手无策; 第三,“养不起”。尤其在分支边缘场景,部署繁琐、成本高昂、运维困难,AI看着好,就是难铺开。 这次,华为并没有空谈概念,也不是拿单点方案修修补补,而是给出一套系统性的解法——在中心和边缘两端发力,同时重构AI的数据底座。 1、中心侧:让数据变成“AI可直接消费的粮食” 华为数据存储产品线副总裁谢黎明在发布会上直言:“企业现在很容易获得GPU算力,也能获取比较先进的模型,但一旦开始用自身的数据,问题就接踵而来。”他把这些问题归结为三类:知识过时、长序列推不动和缺少长期记忆。 华为存储产品线副总裁、闪存领域总裁谢黎明 为此,华为推出了一套全新的AI数据平台,即承载了知识库、KV Cache加速、记忆库三大能力,三者能被华为UCM(Unified Cache Manager)统一调度、协同工作,像一个人的眼、手、脑,各司其职,又浑然一体。 谢黎明在讲解AI数据平台 知识库解决的是“吃什么”的问题。通过多模态解析、Token级表征与融合检索,企业数据从“原料”转化为“营养”。知识检索精度可达95%以上,从而解决“找不到、找不准”的问题。 KV Cache加速解决的是“吃得快”的问题。过去的AI,问一句等半天,转圈圈是常态。华为通过HBM、DRAM、SSD三层缓存架构,构建超大规模KV Cache池,数据在不同层级间按需流动,用查询的方式,避免重复计算。首Token时延降低90%,推理吞吐提升2倍。 记忆库解决的是“如何越吃越聪明”的问题。其支持工作记忆与长期记忆,既能记住当前任务上下文,也能沉淀每次交互的经验,使Agent从“金鱼”进化为“大象”,推理准确率提升30%。 华为AI数据平台核心设备 2、边缘侧:让中小企业也能“拎包养虾” 如果说中心场景拼的是算力密度、数据效率,那么在分支边缘场景,就拼的是落地性价比。建设成本高、业务周期长、调优门槛高,每个都扎在真金白银上。 华为FusionCube A1000 AI超融合的答案,只有四个字:开箱即用。 它融合通算智算一体化交付,还将AI平台、容器调度平台以及智能体预集成在一体机中,传统方案从设备安装到业务上线需要18周(4个月),而FusionCube A1000将这个周期缩短到2周。 真正的杀招,还不止于此。 华为FusionCube A1000 AI超融合 它不是那种“装完就废”的一次性盒子,而是一个能与中心协同进化的智能节点。边缘侧产生的数据可以回传至中心,在中心完成模型增训后,知识库与记忆库完成更新沉淀,再将进化后的模型一键下发至边缘侧,形成一个持续滚动的数据飞轮。 华为FusionCube A1000 AI超融合支持智能体持续学习 华为存储产品线副总裁张伟力在发布会上用了一个生动的比喻:“我们给AI装上了海马体——知识库让推理越来越精确,记忆库让决策越来越准确,数据飞轮启动后,AI才能持续进化。 华为存储产品线副总裁、虚拟化领域总裁张伟力 二、数据即战略,华为持续为AI Agent“建粮仓、备粮草” 两款新品的背后,藏着华为存储对AI时代的明确判断:AI的下半场拼的不是算力,是数据。 算力可以花钱买,模型可以开源拿,但高质量的数据、可消费的知识、可沉淀的记忆,这些决定AI能否真正跑通商业闭环的东西,买不来,也抄不走。 回顾过去一年华为存储的动作,可以清晰地看到一条“为AI铺路”的战略主线: 第一阶段主攻性能突围:剑指AI集群训推的性能天花板。 2025年,华为发布OceanStor A800高性能AI存储,单设备提供1000万IOPS、500GB/s超高带宽,支持NPU/GPU Direct Storage技术。什么意思?就是让存储不再成为GPU性能等待的拖油瓶。 第二阶段聚焦数据治理:聚焦多模态数据治理难题。华为推出AI数据湖,以OceanStor Pacific分布式存储为底座,叠加DME统一数据空间能力,实现跨域跨集群数据的全局可视、可管、可流动,将散落一地的数据收拢成湖。在中国崖州湾国家实验室,华为将跨地域的多组学数据、文献数据、农业采集数据汇聚联通,为农业分析模型与智能体开发提供数据语料基础。 第三阶段加码行业落地:瞄准AI行业化落地的数据工程难题。华为发布DCS AI解决方案,核心基于ModelEngine工具链,内置数据工程、模型工程与应用开发能力,大幅缩短AI开发周期。在与上海瑞金医院的合作中,双方仅耗时3个月研读103万张病理切片,推出RuiPath病理诊断模型,常见病理知识回答准确率超90%,在14个辅助诊断任务测试中全部领先,其中7个达到国际SOTA水准。阅片时间从20分钟缩短至10秒。 这三个阶段走下来,华为完成的是从“存得下”到“管得好”再到“用得上”的能力跃迁。当来到AI推理的“最后一公里”,于是,有了第四阶段。 第四阶段聚焦AI落地闭环:于中心侧,AI数据平台让推理体验跑入一个新时代;于边缘侧,FusionCube A1000让专业人才紧缺的中小企业也能“拎包入住”。 这四个阶段,本质上完成了一轮底层能力的跃迁。换句话说,这不是东一榔头西一棒槌,而是一步一步把路修到AI脚下,华为正在把“存储”,重新定义为AI时代的“操作系统语言”。 结语:谁掌握数据底座,谁掌握AI主动权 “AI的下半场是推理。”这已是行业共识。有研究预测,到2026年,全球训练与推理的资金投入占比将从过去的8:2变为2:8。中国市场的数据则更具冲击力:2026年2月,国内头部模型在单周内的Token调用量一度突破5万亿,创下新高。 那么,“AI下半场拼的是数据”,这句话在今天听来已不再是口号,而是每一家试图用AI重塑业务的企业必须直面的现实。当算力逐渐商品化、模型逐渐开源化,真正构成竞争壁垒的,是企业能否将数据资产成功转化为AI可消费的知识与记忆。 华为的野心,是做AI时代的“数据底座”。无论是中心的超级智算中心,还是边缘的零售门店、工厂车间、医疗机构,AI终将无处不在。而华为正在用一套覆盖数据全生命周期的产品矩阵,顺应这个时代的洪流。 数据永远是一切智能的源头。 这一次发布的AI数据平台和FusionCube A1000,试图让每一个智能体有粮可吃、有忆可循。可以预测,在数据成为核心战略资源的未来,谁掌握数据底座,谁就将掌握智能的主动权。
新一代小米SU7发布:底盘与智驾全面换代、最大续航超900公里,21.99万元起
凤凰网科技讯 3月19日,小米正式发布新一代小米SU7,新车共推出标准版、Pro版与Max版三款车型,售价21.99万元起。作为换代车型,新一代小米SU7在三电系统、智能驾驶、底盘架构及座舱舒适度上进行了全面升级。 在动力与续航方面,新一代小米SU7搭载最高转速达22000转的V6s plus超级电机,峰值功率达392匹 。基于能量转换效率的提升,标准版车型在搭载96.3度电的情况下,纯电续航里程提升至902公里 。在补能效率上,新车全系标配碳化硅高压平台,标准版采用752V平台,充电15分钟可补能450公里 ;Max版则采用897V高压平台,15分钟最快补能670公里 。此外,新车首发搭载了软硬件融合的小米蛟龙底盘。 智能化表现上,新一代车型电子电气架构升级为自研的域控制器模块四合一 ,搭载第三代骁龙8移动平台与英伟达车载计算平台 。智能驾驶方面,新车全系标配激光雷达、4D毫米波雷达及700T算力的芯片 ,软件架构升级至XLA认知大模型,实现向认知驱动的智驾范式转变 。车载语音助手超级小爱接入大模型后,进一步提升了车控覆盖率与模糊语义导航的能力 。 外观与座舱配置方面,新一代小米SU7车长5米、轴距3米,新增卡布里蓝、赤霞红、靛石绿三款全新配色。内饰重点提升了乘坐体验,全系标配18向调节运动座椅,支持十点式按摩,副驾升级为零重力座椅。Max版车型还标配了双分区智能调光天幕及25扬声器音响系统。 安全性与市场推广方面,新车采用高强钢和铝合金占比达90.3%的车身,关键部位使用2200兆帕超强钢,全系标配9个安全气囊并新增后排侧气囊。电池包具备17层高压绝缘防护及底部1500兆帕防刮底横梁。此外,发布会上正式宣布演员舒淇与运动员苏炳添出任小米汽车品牌代言人。
华为全栈自研CIS公开!1/1.3英寸大底+RYYB 5000万像素
快科技3月19日消息,日前,数码博主“数码闲聊站”透露,某厂商已对外公开自研CIS(图像传感器),首款全栈自研传感器为5000万像素、1/1.3英寸大底,采用RYYB阵列并支持DCG HDR技术。 虽然爆料中未直接点名厂商,但结合行业信息来看,答案几乎已经明朗。 当前主流手机厂商中,仅华为在使用RYYB方案;同时,海思近期发布的CS5250V200,已应用于骁途S7PRO MAX运动相机,其核心参数与爆料内容高度一致,因此可以确定这颗全栈自研CIS正是来自华为体系。 对于为何以“某厂”代称,博主解释称,官方在某些渠道公开的,不知道能不能拿出来说,因为涉及到国产工艺,毕竟全栈自研。 值得一提的是,今年1月,该博主还发文透露,有一家Top5厂商应该会实现自研芯片、自研OS、自研AI大模型、自研镜组Sensor的大会师。 从技术角度来看,这颗传感器的亮点同样颇多。 首先,RYYB阵列相较传统RGGB方案,用黄色像素替代绿色像素,实际成像进光量提升约40%,在弱光环境下优势尤为明显。 同时,其搭载的DCG(双转换增益)技术让传感器像拥有了双瞳孔,可以智能切换高、低转换增益模式,单帧捕捉从暗部到亮部的极致细节,实现超过88dB的超高动态范围。 这一进展意味着,华为在完成SoC芯片与操作系统自研布局后,正进一步向手机影像最核心的底层传感器领域发起突破,有望重塑高端CIS市场长期由海外厂商主导的格局。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。