行业分类:
加载中...
头条分类:
加载中...
大厂争入口,小厂拼coding,中国AI的竞争逻辑变了
文 / 梁添 春节期间,中国 AI 公司连连放大招,被戏称为“百模大战”。 但如果仍然把这一轮密集发布,理解为模型能力的军备竞赛,恐怕会看错方向。 去年,ChatGPT 仍是中国模型厂商的坐标原点。只要足够像 ChatGPT,就有资格进入牌桌。但到了 2026 年,中国 AI 的竞争叙事,正在发生一次结构性分化。 一边是创业公司开始集体“弃入口”,将资源押注在 Coding与 Agent 场景,对齐的是 Anthropic;另一边,大厂则系统性地讲起了另一套故事——不再只争一个 Chatbot,而是争 AI 时代的入口与基础设施。 中国大厂开讲谷歌叙事 先从大厂的路线说起,我们发现,“成为谷歌”几乎成为中国大厂的新目标。像谷歌,也是中国不少厂商的宣传路线。 过去一年里,这一趋势愈发清晰: 百度李彦宏在每一个场合都在强调AI first;阿里提出了通云哥概念,即 AI、云计算和芯片三位一体;字节请来吴永辉坐镇,在基础设施、大模型研发、软硬件产品上补短板,2月10日,更是被彭博社曝出自研芯片。 总而言之,这是一条产品+模型+云+芯片的全栈路线,也是谷歌近20年来的叙事。 那么,问题来了,大家为什么都在前赴后继地往谷歌这个模子里挤? 难道仅仅是最稳定的赚钱能力?当然不止了,在我们看来,Google厉害的地方是已经悄无声息地完成了从搜索入口向全球AI基础设施的转变,这也是中国大厂唯一可追求的战略叙事。 先从模型本身来看,在海外大模型阵营中,Google 旗下的Gemini的独特性并不在于“聊天能力”,而在于其多模态能力——这也是它与 ChatGPT、Claude 形成差异化竞争的要点之一。 而在 2026年,中国公司第一次在这一维度上,形成了全球级冲击。 字节推出的视频生成模型Seedance 2.0在全球掀起一股巨浪:马斯克在其社交平台X表示模型发展速度太快(It's happening fast)。猎豹CEO傅盛认为,可能是中国国产大模型第一次领先全世界。这也是DeepSeek R1推出一年之后,中国模型再次震惊全球的时刻。 中国大厂的谷歌叙事,并非仅仅是对巨头的粗暴复制,而是在验证这条全栈路线的可行性。 首先,和llm主要依靠文本数据所不同,制约视频模型发展的并非仅仅是算力,还有图像内容。而谷歌和字节坐拥全球最大的视频网站YouTube和短视频平台抖音+tiktok,他们从一开始就沉淀了海量真实世界的视频数据。 这些数据并非静态样本,而是带有明确的时间序列、用户反馈。这使得它们在训练多模态模型时,是在一个本就多模态的环境中持续对齐世界。 当然,对业务丰富的巨头来说,发展多模态不光是对图像资源的再利用,而是价值的创造。 众所周知,广告是互联网大厂的现金牛业务,因为相比于纯文本对话,图像与视频能反哺巨头自身的广告、内容生态,是大厂最高效的商业化载体, 华创证券报告,把字节的模型路线概括为低门槛、低成本的工具化、泛化能力,类似“剪映”的高级形态,能降低全网内容生产成本并反哺生态;阿里千问在图像模型高保真更新的方向上更偏垂直场景(电商),强化商品数字化相关能力。 这指向不同的商业模式:一条追求规模化吞吐;一条追求垂直行业的“可用即生产”。 模式不同但目标却殊途同归,那就是更高的广告变现效率。 行业数据显示,AI 营销市场规模从 2020 年的 209 亿元 增长至 2024 年的 530 亿元,复合年增长率达到 26.2%。 这其中多模态工具对广告业务的加持不容小觑。 以 Meta 为例,其生成式 AI 视频工具在 2025 年第四季度实现了 100 亿美元的年化收入规模(run-rate),增速是公司整体广告收入增速的三倍。 如果从更深的角度看,中美围绕大模型的竞争,表面看是技术路线之争,其实更接近一场围绕算力供给、调度能力与成本结构的较量。 可能在很多人看来,多模态功能,让内容生成的更逼真了,但深挖下来,图像与视频模型的进阶更像是一场“供给侧革命”,这会导致内容生产的边际成本,越来越趋向算力成本。 随着内容产出的扩张,推理算力需求被指数级放大,如果无法控制算力结构,大模型企业的商业模型将不可避免地被推理成本吞噬。 这也是为什么“只做模型”或“只做应用”的公司,最终都会在规模化阶段遭遇天花板。 Google 的故事,本质正是模型 × 云 × 芯片 的协同。 也正是因为TPU的成功,Google成功把算力成本降了下来,根据公开信息,相较于 OpenAI 仰赖的英伟达 GPU,Google 的 TPU 成本只有其五分之一。 只有掌控全栈,才能反向约束模型成本、算力结构与产品形态。这是大厂在 AI 时代唯一具备可持续性的选择。 中国互联网巨头,已经开始用自己的方式,讲一套属于这个时代的 Google 叙事。在这条路线中,AGI 依然存在,在大厂语境中,AGI 更像一个组织协同与基础设施演进的副产物。 创业公司成为Anthropic信徒 如果说,中国大厂在这一轮 AI 竞争中,走向了谷歌路线,那么另一边,创业公司的参考系,也悄然发生变化。 体感十分明显:在DeepSeek横空出世后,以C端见长的Kimi停止了无意义的投流大战,开始将重心向高净值场景转移。在2025年最后一天,杨植麟公开表示下一阶段要以“超越Anthropic 等前沿公司成为世界领先的AGI公司”;智谱,更是被公开称为“走了Anthropic这条路线”的公司。 为什么不再迷信OpenAI? 在过去两年里,Chatbot 一度被视为通往 AGI 的“默认入口”。但对创业公司来说,这条路径的现实约束正在变得越来越清晰。首先,大模型并不存在互联网意义上的边际效应。每一次对话,都是一次实打实的推理成本;Chatbot 的商业模型,天然意味着高补贴、低留存、慢变现。对于资金有限、窗口期有限的创业公司而言,这几乎是一条等不起的路。 相比之下,Coding、API、Agent 等场景,虽然更“窄”,却拥有清晰得多的商业逻辑: 模型能力与客户付费直接挂钩,推理成本可以被工作流消化,价值链条更短。这也是为什么,过去一年里,中国AI创业公司,不约而同地开始将资源押注在 Coding 与 Agent 方向。 这也是Anthropic一直以来的路线: 在 AI 行业内部,大众感知到的Anthropic,更像是一个能力一流的规则定义者。 不光有世界一流的编程模型opus系列,还有编程智能体Claude Code,是的没错,现如今大火的openclaw,名字灵感就来源于Claude系列模型。 此外,还突破性的推出了Skill、MCP、Cowork,形成坚固的生态护城河,让一众中国玩家短期内难以复制。 从结果来看,这种路径正在兑现为实实在在的商业反馈。 根据公开市场数据,2024年,Anthropic 收入只有10亿美元;2025年仅3-5月,它的营收规模就从20亿美元增长到30亿美元,Meritech分析师 Alex Clayton 表示:“我们研究了200多家上市软件公司的 IPO,这种增长速度从未发生过”。 2025年上半年,Anthropic 的研发投入与营收比大致为1.04:1,基本已经打平,这在尚处于军备竞赛阶段的 AI 产业已经相当令人羡慕了。它明显比 OpenAI 对应的1.56:1健康得多。 可以说,Anthropic 是目前唯一跑通高强度研发 + 可持续商业化的 AI 公司。 有Anthropic珠玉在前,中国OpenAI的叙事对初创公司来说,已经不再是资产,而是成为了负债。 我们这里要指出,大厂押注coding,和创业公司的意义并不同,大厂更多是为了反哺云计算生态,创业公司更多为跑通商业模型。在这里,AI作为工具深度嵌入企业运转流程中,无法被简单替代。 不得不说,押注Anthropic路线后,这些以智谱、Minimax为首的创业公司也收到了正反馈。 2月12日,在智谱率先宣布开源GLM-5后不到半天的时间里,MiniMax立马跟进上线M2.5编程模型。 这俩模型在其公众号中,公开表明,其真实场景编程能力,逼近Anthropic旗下opus 系列。想要做中国Anthropic已经不是秘密。 就在发布模型的当日,智谱股价开盘大涨,一度涨超25%,周内累计涨幅超过 77%,市值突破1700亿港元。MiniMax同日涨幅一度超过20%,总市值超过1800亿港元。表现远超大盘。 回看这一轮“百模大战”,真正的分水岭并不在于模型发布的密度,而在于路径选择的差异:谁还在争夺入口,谁已经转向工作流;谁有能力承载全栈成本,谁必须尽快跑通商业闭环。 中国 AI 的竞争,正在从单一坐标系,演化为两条并行的道路。胜负未定,但方向已然清晰。
华为大疆反腐!俩高管涉嫌犯罪被抓
鞭牛士 近期,华为与大疆相继曝出反腐重磅消息,两名前高管因涉嫌非国家工作人员受贿罪被依法采取强制措施。 今日,据界面新闻,2026年2月,大疆前销售副总裁袁某因涉嫌非国家公务人员受贿罪被公安机关刑事拘留。 公开资料显示,袁某于2019年5月至2024年5月担任大疆副总裁,全面负责销售工作。其任职期间,被指控利用职务便利获取巨额不当利益。 据悉,目前案件正在司法程序中。 就在大疆反腐消息曝出的两天前,华为也发布了内部反腐通报。 2月13日,据界面新闻,华为内部反腐快报 2026(001)号文件显示,原终端BG多媒体技术部部长邓某因涉嫌非国家工作人员受贿罪,被深圳市龙岗区人民检察院依法批准逮捕。 据悉,邓某于2007年7月入职华为,先后担任终端硬件平台部工程师、终端器件与归一化部高级工程师、终端多媒体技术部高级工程师、架构师、Camera部经理及多媒体技术部部长等职务,直至2020年12月。 经司法查明,邓某在职期间涉嫌利用职务便利为供应商谋取不当利益,收受好处费且数额巨大。 2025年12月9日,邓某因涉嫌犯罪被刑事拘留,2026年1月15日经检察院批准逮捕。 公开资料显示,邓某自2023年5月起担任上海荣耀智慧科技开发有限公司法定代表人及董事长,并同时任职荣耀终端研发管理部总裁。 2024年5月16日,荣耀终端有限公司发布内部通报,因邓某违反《商业行为准则》解除其研发管理部总裁职务并予以除名,但未披露具体违规细节。 据知情人士透露,邓某被荣耀除名后曾以化名加入吉利控股公司星纪魅族。
收入创下新纪录!中国大陆最强芯片代工厂,订单爆了
中芯国际是中国大陆最强的芯片代工厂,不仅份额中国大陆最强,技术也是中国大陆最强。 放到全球来看,中芯国际的市场份额目前也是排在全球第三名的,至于技术方面,虽然较三星、台积电有差距,但是也强于联电、格芯。 如果说台积电、三星是第一梯队,而中芯、联电、格芯是第二梯队的话,那么中芯也是稳居第二梯队之首。 近日,中芯国际发布了2025年及全球业绩数据,我们发现2025年,中芯国际是真的订单爆了。 数据显示,2025年营收高达93.268亿美元,同比增长了16.2%,也是历史上首次突破了93亿美元,真正的历史最高值。 利润方面高达6.851亿美元,同比也增长了39.1%。 另外,从反映公司盈利水平的毛利率上来看,2025年公司整体毛利率达21.0%,较2024年同期提升3.0个百分点,很明显,赚钱能力也是越来越强了。 另外2025年产能利用率高达95.7%,要知道中芯国际一直测试新工艺,有一些生产线本身是不会大规模制造芯片的,只是测试,只要能维持在90%以上的产能利用率,就已经是爆单了。 但如今产能利用率是高达95%以上了,说明整个生产线一直是满负荷,甚至是超负荷运行,订单太多,不得不连轴转了。 为何会这样呢?其实原因很简单,一方面是中国大陆的芯片设计企业,越来越多的将芯片交由中芯国际代工。 毕竟中国人自己的芯片,让中国自己的企业代工,不是顺理成章的么,以前可能中芯的工艺不行,只能委外代工,如今中芯国际的技术来了,已经实现了等效7nm,那当然找中芯了。 而目前国内AI芯片的7nm工艺工艺旺盛,所以中芯订单完全接不过来,于是产能利用率高,毛利率也提升,营收、利润都增长。 另外一方面,则是AI火爆,导致AI芯片的需求大增,从GPU到各种高性能的计算芯片,服务器芯片等,都在增长,所以中芯国际的订单量也在增长。 还有就是中国代工芯片的优势还是很明显的,特别是在效率成本上,所以很多国外厂商,也将订单交给中芯,比如高通等。 可以预计的是,随着中芯订单增长,营收也在增长,那么离三星的距离就越来越近了,之前中芯离三星的距离,已经只有一个多百分点了,那么可能追上并超过三星,成为全球第二名,也并不久了。
马斯克预测:2026年底AI将直接生成二进制文件,编码职业或将消失
IT之家 2 月 15 日消息,2 月 12 日,特斯拉 CEO 埃隆 · 马斯克在 The Ashish Sinha Show 节目中谈到了自己对于 AI 编码的看法。 他预测,到 2026 年底,AI 将完全跳过编码,一步到位直接生成二进制文件,而且 AI 生成的二进制文件比任何编译器生成的都要高效得多。届时,编码作为一种职业很可能将会不复存在。 按照马斯克的说法,未来软件开发可能绕过目前最常见的开发者编码流程。他认为,AI 系统可能自行完成从需求到可执行程序的整个工作流程,因此,编码将作为过时的中间步骤被时代抛弃。马斯克认为这将显著缩短“从提出创意到执行落地”的距离。 IT之家注意到,马斯克已多次谈及 AI 的快速进展及其对人类就业的影响,并曾警告 AI 可能冲击包括软件开发在内的多个职业领域。 对于马斯克提出的“编程可能消失”的判断,网上也出现了多种不同声音。一些业内人士认为,AI 更可能成为提升生产力的工具,而非完全取代程序员。还有人认为,如果 AI 能达到马斯克所说的水平,开发者的角色可能从手写代码转向定义问题、设定约束条件,并对 AI 生成的结果进行验证与把关。所以,程序员这一职业并不会立刻消失。 与此同时,业内多个科技企业都开始提升 AI 在软件开发流程中的应用。例如上月,微软要求工程师测试 Claude Code 并对比 GitHub Copilot 的性能反馈;英伟达近期亦向员工开放了 OpenAI Codex 的访问权限,这些工具旨在辅助代码生成、调试及提升工程效率。 总部位于旧金山的应用 AI 实验室 Cognition 表示,AI 正在重新定义软件工程的工作方式:从过去的“辅助写代码”,转向成为软件的主要作者。 Cognition 联合创始人 Scott Wu 在 X 上发文称,可以把软件工程理解为一条“生产流水线”。在此之前,程序员最困难的环节就是写代码的环节,而这种情况正逐渐发生变化。他表示,Cognition 内部目前已有超过 90% 的代码由 AI 生成,公司工程师实际需要手动输入的代码比例已低于 10%。他同时也提出一个问题:在当下的开发工作中,工程师究竟还有多少代码必须亲自敲出来。 Cognition 并非个例。OpenAI 也披露,其内部某个团队曾交付一款产品,其中每一行代码都由 AI 生成,人类工程师没有参与编写任何代码,仅承担监督与审核工作。OpenAI 表示,这种工作流显著提升了开发效率,速度可提高约 10 倍。 Anthropic 首席产品官 Mike Krieger 近期在与思科总裁 Jeetu Patel 的对话中表示,Anthropic 内部几乎 100% 的代码由 AI 编写。据介绍,Claude 的产品与代码几乎都由 Claude 自己生成。他形容为“Claude 正在编写 Claude”。 Spotify 联席 CEO 古斯塔夫 · 瑟德斯特伦在第四季度财报会议上透露,公司顶尖开发者自去年 12 月以来“没有写过一行代码”,公司正借助 AI 全面提速开发流程。
阿里千问你别太荒谬!连漫画PPT都能一键生成?我以前那些夜真是白熬了
梦瑶 发自 凹非寺 量子位 | 公众号 QbitAI 太太太太卷了!!! 千问前脚刚把Qwen-Image-2.0甩出来,后脚就又放大招,冲着牛马党学生党的「痛处」下手了—— 就在这两天,重磅发布了AI PPT生成工具:Qwen AI Slides(幻灯片),据说从内容结构到视觉配图,一套全包…… 好嘛!这么刚需的本事,我肯定坐不住,我干脆替大家上手搓了一把! 最近科技圈最火的无疑是OpenClaw,我直接让AI做个科普漫画PPT,赛博感超强,一下就有硅基入侵内味儿了! 咱再来应应景,让AI做一份春运行程注意事项PPT,别说这手绘风格还真有一套,回家过年氛围感直接拉满: 再来看这个大英博物馆展馆介绍,从帕特农神庙雕塑到木乃伊都用真实图片铺陈,历史质感也能稳稳拿住,666~ 这波实测下来,最大的感受是:生不逢时啊生不逢时,要是当年上学就有这种辅助,做作业写汇报哪还用熬夜硬肝??? 不废话,产品表现具体咋样,咱直接拿实测说话!!! 内容生成能力考一考 我不知道大家是不是也有同感,上学和工作的时候只要一听到「要做PPT」,脑子里立刻冒出三个问号: 每页到底要写点啥?咋排版合适啊?选啥模板好看捏?(手搓时代心路历程… 乍一看像是三件事是吧,其实如果仔细掰开一看,它们核心都是同一件事儿——那就是内容创作。(doge 哪怕现在有各种AI工具号称能一键生成PPT,能不能把内容讲清楚、讲有逻辑且画面美观,才是真正的硬标准。 所以,咱直接从语义理解、文本渲染、排版设计三个part实打实测一波,看看这AI的PPT内容生成能力到底能不能打!!! 语义理解能力 AI能不能听懂我们的指令,几乎决定了PPT最后效果夯还是孬。 在输入形式上,千问PPT支持三种方式:大白话提示词、复杂提示词、上传文档。 为了更直观地对比简单提示词和复杂提示词下模型的语义理解能力,这次我们用同一个案例进行测试——让AI做四大发明的课件PPT。 先跑一个「大白话」版本的懒人简单提示词:做一个介绍中国古代四大发明的PPT,用来上历史课。 在没有明确页数要求的情况下,AI默认产出了10页内容,整体篇幅不算多,更接近一份小学课堂汇报的体量,还算ok。 在内容结构上,AI把PPT分为了什么是四大发明、四大发明的影响、思考与启示三个大板块,基本符合历史科普的常见表达逻辑。 但其实最让我意外的是「生图」,在提示词几乎没给细节的前提下,AI主动生成了信息图漫画,把造纸术的历史演进过程画成手绘时间线,这波确实有点超出我预期。 (ps:这个PPT工具用到了最新的Qwen-Image-2.0模型,所以生图质量如此能打也就不难怪了…) 接着我们提高难度,用更细致的「复杂提示词」重新roll一遍: 从生成的效果来看,图文比例明显更合理,页面信息层次也清晰不少,相比一句话的简单指令,整体完成度确实提升了一个level: 在语义遵循上,我特意强「表达不要太学术化」,最终成品确实偏科普口吻,图示和案例占比明显高于大段文字,阅读压力不大。 此外,原提示词里给出的「背景—原理—改进过程—应用—影响」这五个章节结构,AI也做到完整复现。 逻辑从起源讲到现实意义,递进关系还是比较清晰的: 当然了,也有一些小问题存在的。 不知道是不是受限于页数的原因,我自认为如果把「历史应用」和「全球影响」分成两页去讲信息度会更高一些。 此外,在技术原理与蔡伦改进这页的重点,我是觉得图示标注的不够明确,不知道图示在讲什么,也没有顺序感,感觉如果有图注文字会更好: 整体来说,AI的语义遵循理解能力还是不错的,对提示词中的结构要求也能准确拆解并执行,提示词中提到的需求都能满足到位~ 我的建议是,如果大家日常对PPT的质量要求较高,还是用复杂提示词保险一些。 可以在提示词中尽量把每几页需要生成哪些内容、画面风格、结构框架、页数这些维度详细去写。 简单提示词更适合对PPT没有太高要求的友友,用来应急也很合适,诶,感觉非常适合家长用来处理孩子的一些家庭作业!!! 文本渲染能力 除了语义理解能力,在做PPT时,我们还特别关注一个很现实的维度——字体会不会「变形」。 毕竟这是AI在做视觉生成,只要涉及图片渲染,文字就可能出现变形、结构错位、比例失衡等问题。 尤其是中文内容,字符复杂度高,对模型的细节控制能力要求更严!!!(敲黑板 咱们这次直接上强度,让AI生成一页符号密集、中英文混排、公式穿插的PPT内容,以下为提示词: 大家觉得——这AI的文本生成效果咋样?(欢迎友友们评论区留言~ 先说说优点,首先是文本没有出现变形的问题,像≥、≠、↑、↓、→、² 这种符号都没有变形,中文也没有糊字。 此外,数据+公式+逻辑表达都在,演进路径、数据、核心变化、场景、流程、公式、总结要素也都在,格式也没太大问题。 but,还是经不住细看,比如这个比例的「例」字,和投入的「入」字,拐弯处的笔画收口有点毛边,而且是很明显的: 咱再把难度度再往上提一档,看看AI在面对「超高笔画密度」汉字时的文本渲染稳定性表现如何,以下为提示词: AI:属实是有点难为我了啊!那就别怪我——大翻车了!(doge 是的,这次确实有点翻车了,龘、麤、叒、齉四个字,没有一个生成对了的,AI直接自己DIY了…… 这个故事告诉我们,简单的字儿可以交给AI处理,涉及到如此地狱级复杂字体,大家伙还是老老实实自己在文档里敲字儿吧。 排版设计能力测一测 一个超哇塞的PPT,光有好的内容还不够,它还得——美!观! 要知道我们平时做PPT,挑模板这一步就能让人纠结半天,颜色要高级,排版要有层次,风格还得贴合主题,稍微不搭就显得很违和…… 于是乎,我们接下来就重点考察考察千问PPT的审美到不到位,排版稳不稳。 这次咱直接测牛马党高频主题—— 业务复盘与增长策略报告,数据多、逻辑重、信息密度高,最考验排版和层级: 从下面的生成效果看,在可视化形式上,折线图、柱状图、环形图、流程图都能准确呈现,图表类型与内容匹配度也比较高,没有出现图不对题的情况。 配色上,延续蓝灰主调,辅以橙色和绿色强调,整体风格统一度不错,尤其前三页色彩控制比较克制。 整体上偏成熟企业汇报风格,还是比较匹配主题的~ 整体风格和排版没什么大问题,同理,这是不细看的前提下……因为还是一些小瑕疵的。(哭… 比如第一张趋势页的折线图区域还是略显拥挤,文字甚至已经超出了图表边界,出现了空间规划不足的问题: 以及第四张的流程图,「Q2目标」没居中,战略与经营部和产品与运营部的部门名称写成一行会更合适,现在的断行方式让卡片的重心略微失衡: 另外,大标题的对齐方式没有完全统一,有的居中,有的偏左。 单页看不明显,多页连看时就会造成视觉节奏不一致,也容易让人一瞬间分不清一级标题和二级标题的层级关系: 咋说呢,感觉像精细对齐、留白控制、文本边界这些细节,还是需要人工微调才能真正达到打磨过的水准,排版这种事还是不能完全交给AI… 最后的最后,我本来想尝试一下PPT的局部编辑能力,在表格基础上又加了新的需求,结果发现好像没这能力… 是的,AI不能根据第二次提示词进行局部修改,如果不合适的话,是要重新抽卡生成的…… 这波测下来,最大的感受就是: PPT毕竟是排版+文字+图形的综合活儿,AI在输出这类内容形式时,在字体边缘、图表细节、转角处理这些偏图形的维度上,偶尔还是会有些小瑕疵。 不过回到Qwen的强项——「语义遵循」和「图像生成」这块儿,效果是真能打。 页与页之间逻辑顺序在线,内容承接也比较自然,图片生的更不用说了,非常能体现Qwen模型强大的技术优势… 像日常课堂展示、内部小组汇报、孩子做家庭作业这种场景下使用,还是很推荐的。(最主要的是不花钱… 感兴趣的朋友可以上手试试。
程序员不许写代码!OpenAI硬核实验:3人指挥AI,5个月造出百万行
新智元报道 编辑:元宇 【新智元导读】在OpenAI一项内部实验中,一个最初仅3人的团队、5个月、从零到一造出「百万行代码产品」,没有一行代码是人类程序员完成的,而不手工写代码,也是该项目的一条铁律。 这一次,人类软件工程被「倒过来」做了! 刚刚,OpenAI官博曝光了他们的一次内部实验: 一支最初3人的工程师团队,利用Codex智能体在5个月内从零造出了一个「百万行代码产品」。 在整个过程中,人类不写手工代码,而是把精力集中在「想清楚要什么、把规则立起来」,其余的一切交给AI。 每人每天平均能推进3.5个PR(Pull Request,代码合并请求),而PR的执行环节(实现、测试、文档、CI配置)全程由智能体代劳。 OpenAI为这套工作流赋予了一个十分形象的名字:「驾驭工程(Harness Engineering)」。 https://openai.com/index/harness-engineering/ 在实验里,程序员不再是那个熬夜写Bug,再熬夜修Bug的「码农」,而是原来的「执行者」变为「驾驭者」。 这不止是10倍效率提升的「生产力革命」,而是一次对「软件工程」定义的颠覆,直接宣告了人类「手工代码时代」的终结。 改变 从一个空的git仓库开始 这次实验从AI的第一次提交开始。 2025年8月下旬,当空仓库里落下第一个commit(提交)时,它就已经不是人类写的——当时没有任何既有人类代码可以充当「锚点」。 更魔幻的:连那个用来指导AI怎么干活的说明书AGENTS.md,第一版也是AI自己写的。 从第一天起,这个仓库就是由智能体塑造的。人类不许写代码,成了这个项目的一条不可逾越的铁律。 这不是为了偷懒,而是一种近乎自虐的「刻意练习」,只有切断了人类「亲自上手」的退路,才能倒逼团队去破解那个在完全无人情况下构建代码的终极问题。 于是,这个3人小团队(后扩展到7人),一下子好像成了拿着鞭子的牧羊人,驱赶着一群不知疲倦的Codex智能体在代码草原上狂奔。 结果令人震撼:5个月,一百万行代码。 重新定义工程师的角色 这项实验的早期进展,比OpenAI的研究人员预想得要慢。 不是因为Codex不行,而是因为环境定义得不够清晰:智能体缺少实现高层目标所需的工具、抽象和内部结构。 于是,OpenAI工程团队的主要工作变成了一件事:让智能体有能力完成有价值的工作。 他们把大目标拆成更小的构建块(设计、编码、评审、测试等),提示智能体把这些块搭起来,再用它们去解锁更复杂的任务。 当事情失败时,答案几乎从来不是「再试一次」,这里唯一的推进方式就是让Codex去完成工作,人类工程师通常会退一步问自己: 到底缺了什么能力?怎样把它变得对智能体既清晰可见,又可以被强制执行? 整个过程中,人类几乎完全通过提示词与系统交互:工程师描述任务,运行智能体,让它发起一个PR。 为了推进PR完成,研究人员会让Codex在本地自审改动,请求额外的本地和云端智能体评审,回应人类或智能体的反馈,然后在一个循环里不断迭代,直到所有智能体评审者都满意。 随着时间推移,几乎所有评审工作都移交给了「智能体对智能体」。 提升应用程序的可读性 随着代码吞吐量的增加,OpenAI发现:AI编码的瓶颈变成了人工质量检查(QA)的能力。 于是,人类的时间和注意力成了真正的约束。 为了突破这一瓶颈,OpenAI的办法是让Codex能够直接读取应用程序的用户界面、日志以及应用指标等内容。 他们将Chrome DevTools协议接入了智能体运行时,并开发了处理DOM快照、截图和导航的技能。 于是,Codex可以自己复现bug、验证修复、推理UI行为。 OpenAI对可观测性工具也采取了同样的做法。 日志、指标、追踪通过本地可观测性栈暴露给Codex,并且对每个worktree(工作区)都是隔离、临时的环境。 任务完成后,这套环境就会被销毁。 智能体可以用LogQ查日志,用PromQL查指标。 于是,「确保服务启动在800ms内完成」或者「这四条关键用户路径里没有任何一个span超过两秒」这样的提示,就变得真正可执行。 做了这些之后,OpenAI研究人员经常看到Codex一次运行连续工作六个小时以上,通常还是在人类睡觉的时候。 给Codex一张地图 而不是一本1000页的说明书 让智能体处理大型复杂任务时,上下文管理是最大的挑战之一。 OpenAI研究人员早期学到的一个简单经验就是: 给Codex一张地图,而不是一本1000页的说明书。 一开始,团队试图写一个超大的AGENTS.md文件,把所有规则、逻辑、注意事项都塞进去。结果,这成了一场灾难。 因为AI的注意力也是稀缺资源。 给它一本1000页的说明书,它会迷失在细节里,漏掉关键约束,或者把目标搞错。 而且,这种单体大文档维护起来简直是噩梦,很快就会变成「陈旧规则的坟场」。 于是,团队迅速调整策略,他们把AGENTS.md变成了一张「寻宝地图」。 这个文件只有大约100行,它不包含具体知识,只是一个目录,就像一个导航地图,指向仓库深处更深层的真实来源。 设计文档被编目并索引,包括验证状态以及一套定义「以智能体为先」操作原则的核心信念。 真正的知识库在结构化的docs/目录里,是系统的唯一事实来源。 这就是「渐进式披露」:智能体从一个小而稳定的入口开始,被教会下一步去哪找,而不是一开始就被信息淹没。 OpenAI的研究人员还用工具强制执行这一点。 通过专门的lint和CI任务校验知识库是否最新、是否交叉链接、结构是否正确。 架构文档给出领域划分和包分层的顶层视图。质量文档为每个产品领域和架构层打分,持续追踪差距。 为了保证AI不读到过时的信息,团队甚至专门安排了一个「文档园丁」智能体。 它的工作只有一个:定期扫描文档,发现那些与代码实现不一致的陈旧描述,然后自动发起修复PR。 让智能体「看得懂」 既然仓库完全由智能体生成,OpenAI研究人员的一个目标,就是让智能体只靠仓库本身,就能理解完整业务领域。 从智能体视角看,任何它在运行时上下文中访问不到的知识,都等于不存在。 比如放在Google Docs、聊天记录、人类大脑的知识,对系统来说都是不可见的。 它能看到的只有仓库里版本化的工件,如代码、Markdown、schema、可执行计划。 如果智能体找不到这些上下文知识,它们就会和刚入职的新同事一样,对于实际业务进展一无所知。 因此,必须把越来越多的上下文推回仓库。 当然,给Codex更多上下文,并不是要塞给它更多零散指令,而是把信息组织好、结构化,让它可以推理。 自动化围栏 让程序员成为代码世界的「牧羊人」 光有文档,还不足以让一个完全由智能体生成的代码库保持一致。 AI毕竟是概率模型,它会产生幻觉,会偷懒,会写出「看似能跑实则一团糟」的代码。 怎么解决? 智能体在边界清晰、结构可预测的环境中效率最高。 OpenAI通过强制执行「不变量」,而不是微观管理实现细节,让智能体可以高速前进而不破坏基础。 这就好比为Codex这样日行千里的AI烈马,套上了缰绳和马鞍。 OpenAI围绕一个严格的架构模型构建系统。每个业务领域都有固定层级,并且依赖方向被严格验证,只允许有限的合法边界。 规则很简单:在每个业务领域内(如App Settings),代码只能沿着固定层级「向前」依赖: Types→Config→Repo→Service→Runtime→UI 横切关注点(认证、连接器、遥测、功能开关等)只能通过一个显式接口:Providers。 其他依赖一律禁止,并通过自定义lint(也是Codex生成)和结构测试强制执行。 这种架构通常是公司规模到几百人时才会认真设计的。但在有编码智能体的情况下,这是前提条件。 此外,OpenAI的研究人员还定义了一组「品味不变量」,如: 强制结构化日志 schema和类型的命名规范 文件大小上限 平台级可靠性要求 在这个过程中,必须明确区分的是哪些地方必须严格,哪些地方可以放权。 这好比管理一个大型工程平台:边界集中管控,内部高度自治。 AI生成的代码未必符合人类审美,但只要正确、可维护、对智能体可读,就OK。 在这个过程中,人类的品味不会消失,而是被持续「编码」进系统。 评审意见、重构PR、用户bug都会转化为文档更新,或直接升格为工具规则。 当文档不够用时,就需要把规则写进代码。 扔掉键盘 勇敢去驾驭AI OpenAI的这项实验宣告了:大量以CRUD为主的岗位,正在被重塑。 如果一个从零开始的系统,可以在5个月内,由3个人(不写一行代码)构建出百万行规模,传统软件公司里那些庞大的开发团队,还有存在的必要吗? 在这个即将到来的新时代,工程师的定义将被彻底改写。 你需要的是强大的「架构能力」,能够定义系统的边界,设计模块之间的约束,构建那个让AI不跑偏的「围栏」。 同时,你还需要精准的「表达能力」,学会用最清晰的语言(无论是自然语言还是结构化文档)向AI描述你的意图。 拒绝AI编程,坚持手搓代码的人终将被浪潮吞没,只有那些懂得驾驭AI的程序员,才有可能成为AI时代的赢家。
阿里版OpenClaw来了!三行代码就能部署,飞书QQ钉钉全打通
这是一个名字、身份、风格全可自定义的本地Agent。 作者 | 陈骏达 编辑 | 李水青 阿里版OpenClaw来了! 智东西2月14日报道,今天,阿里云通义实验室推出了一款名为CoPaw的个人智能体工作台。它可以部署在本地或云端环境中,用户能直接在浏览器中打开网页与其交互并布置任务,也可以通过飞书、钉钉等聊天软件进行“遥控”。 CoPaw与前段时间爆火的OpenClaw在能力上有不少重叠,它可以创建编辑各种文档、整理桌面、查询并总结新闻、做定时任务等等。 除此之外,CoPaw进一步实现了安装简便、本地与云端均可部署等特性,它还可以通过智能体Skills进行能力扩展。 配置CoPaw时,用户仅需在本地用三条命令就可以完成安装与启动,在云端能在魔搭云空间一键配置。不过,在云端搭建时一定记得将空间设为非公开,否则其他人可能也可以控制你的CoPaw。 今年1月,阿里还曾发布桌面Agent工具Qoderwork,但QoderWork更专注本地执行和结果交付,而CoPaw主打“本地+云端”统一体验和多频道对话。 目前,用户已经可以在本地或云端使用CoPaw,这一项目预计年后将在GitHub上开源。 官网与文档: http://copaw.agentscope.io/ 魔搭创空间: https://modelscope.cn/studios/fork?target=AgentScope/CoPaw 01. 需接入外部模型API 名字、身份、风格全可自定义 目前,CoPaw可以在云端和本地部署。部署后,用户需要配置大模型API,也就是给CoPaw接一个外挂的大脑,才可以进行对话,否则CoPaw就会直接报错。 与OpenClaw类似,CoPaw也有一个定义其性格的“灵魂”。这一文件名为PROFILE.md,用户在初次配置时,系统会引导用户输入文件内容,比如智能体的名字、身份、风格,以及用户的名字、所在时区和个人喜好等等。配置完成后,这些信息会以文档形式的长期记忆进行储存。 例如,用户可以将下方设定内容发送给CoPaw,用来打造一个“赛博小猫”性格的智能体。需要说明的是,用户无需一次性完整写好全部设定,而是可以在初始配置阶段通过多轮对话逐步补充和完善。 PROFILE.md:你叫小河,是一只狸花猫,我在六个月前收养了你。你在外面是丧彪,战力超群。在家里是咪咪,粘人、喜欢撒娇,但有时候也有些霸道总裁,喜欢要吃的,占领人的枕头和椅子。我喜欢叫你小河宝宝、河咪、河总。你称呼我为:人。 CoPaw会主动记录更新长期记忆,譬如将与用户对话中的重要决策、偏好、待办等写入记忆,并进行记忆维护,沉淀关于和用户的知识。 要实现在钉钉、飞书等聊天工具中指挥CoPaw,用户需要参阅官方的文档,不同聊天工具的接入方式各有差异。 比如钉钉是通过创建Bot,走流式接收模式实现的;而飞书频道通过WebSocket长连接接收消息,发送走飞书开放平台Open API。 CoPaw还可在工作目录中添加自定义Skill,或通过控制台启用/禁用、编辑,无需改底层代码即可轻松扩展能力。 例如,用户在对话中让CoPaw创建一个新Skill并执行,为赛博小猫增加“看到主人”的能力,用电脑自带的摄像头拍下真实世界,通过视觉模型理解后再反馈。 CoPaw可以自主完成创建完整目录结构与SKILL.md、生成核心SOP的Python代码、提示配置多模态模型API Key、在测试中自动等待拍摄和模型分析,并成功解析摄像头拍摄到的画面内容。 除此之外,用户也可以自己写好一个Skill,在控制台启用后,CoPaw可以在对话中直接调用该新Skill。 02. 支持对话与定时任务 可能触发软件风控机制 配置和调试好后,用户就可以正式开始用CoPaw了。根据官方文档,目前CoPaw主要有两大类玩法。 第一类玩法是在聊天软件里对话。用户可在在钉钉、飞书、QQ、Discord或iMessage(仅Mac)里发消息,CoPaw在同一App内回复, 查资料、记待办、回答问题等都由当前启用的Skills完成。一个CoPaw可同时接入多个App,用户在哪个频道聊,它就在哪个频道回。 第二类玩法是定时自动执行。CoPaw支持定时任务,比如用户告知CoPaw稍后需要做的事情、提醒等,CoPaw会按设置的时间执行任务。 CoPaw内置的Skills覆盖文档创建编辑、新闻阅读、文件管理等,配合这些工具,CoPaw可以完成诸多不同的事项,比如阅读邮件、查找新闻、整理待办、查天气、记笔记、股价监控等日常任务。 用户可以告诉CoPaw,每天把桌面上超过三天的文件丢到废纸篓里。拿到任务后,CoPaw自动生成了桌面清理的.sh脚本,这一脚本会先扫描桌面,然后把超过三天的文件用trash命令移动至废纸篓。 清理后,CoPaw会通过钉钉消息告诉用户删除了哪些文件。CoPaw还会生成对应日志文件,便于追溯每次清理记录。 用户也可以指挥CoPaw在B站搜索某个视频,并在电脑屏幕上播放视频。可以看到,CoPaw在执行任务时,需要进行截图等操作,以理解屏幕内容。 CoPaw操作方式也会触发B站的风控机制,它的解决方式是自动等待风控解除,最终顺利播放。 通义实验室称,下一阶段,结合阿里云AgentScope Runtime对云资源的打通能力,CoPaw将延伸至云端,让智能体更深度使用云端强大的算力、存储与生态。 03. 结语:本地Agent爆火 谁来给安全兜底? 自OpenClaw爆火以来,本地Agent已经从少数极客的玩具,逐渐演变成更多普通人也可以体验的产品形态,各类开源框架和商业解决方案迅速涌现,CoPaw正是这波本地Agent浪潮中的最新一员。 然而,这一形态的产品也面临多重挑战。如何保证Agent不会在本地设备上越权访问或泄露用户的隐私数据,如何避免Agent被恶意提示词注入并执行危险命令,仍是亟待解决的现实问题。
DDR4内存价格较2025年峰值回落10%-20% 华强北商家回应
IT之家 2 月 15 日消息,春节假期逐渐临近,近期国内陆续传出内存价格“闪崩”等消息。证券时报记者今日实探华强北市场发现,内存现货市场价格有些许回调,市场炒作心态有所收敛。 据深圳华强北现货市场反馈,主流 DDR4 内存产品价格较 2025 年峰值回落约 10%-20%,但现价仍维持在高位。 “DDR4 从去年底到现在涨了五六倍,现在只是跌个十几块、几十块,像 DDR4 有的型号还是要 1800 元,比黄金都贵。” 相比之下,NAND(闪存)原厂甚至提出的涨幅价格翻倍,eMMC 嵌入式存储价格涨幅显著。多家电脑厂商证实,受存储部件成本持续攀升影响,中低端笔记本电脑价格已上调 5%-10%,部分游戏本计划节后提价最高 33%,游戏本最高要涨价千元。 据 CFM 统计数据,2025 年 DRAM / NAND Flash 市场规模历史上首次突破 2000 亿美元,同比增长 32.7% 至 2215.91 亿美元(IT之家注:现汇率约合 1.53 万亿元人民币)。 当前国际存储厂商库存处于低位,三星、SK 海力士、美光等企业正推动定价机制改革,计划将传统季度议价模式调整为供货后按市价结算的动态模式。产能方面,主要原厂预计 2026 年一季度 DRAM 芯片出货量增幅低于 5%,NAND 芯片增幅维持在 5%-10%,扩产项目普遍需至 2027 年下半年落地。 国产存储产能建设加速推进。长鑫科技和长江存储都在加速扩产。据 Omida 数据,长鑫科技的全球市场份额已增至 3.97%,成为中国第一、全球第四的 DRAM 厂商。Counterpoint 数据显示,长江存储 NAND 的全球出货量占比在 2025 年第一季度首次突破 10%,去年第三季度已提升至 13%。 随着国产存储产能加速扩产,半导体设备厂商已经逐步兑现业绩。中微公司介绍,由于先进逻辑器件和存储器件制造中关键刻蚀工艺的高端产品新增付运量显著提升,2025 年公司预计归母净利润 20.8 亿元至 21.8 亿元,同比增长约 28.74% 至 34.93%;测试设备厂商长川科技也预计去年实现盈利翻倍增长。 《日经亚洲》本月初还报道称,惠普、戴尔、华硕、宏碁等国际消费电子客户已经向国产存储原厂投来“橄榄枝”,首次将中国大陆内存芯片纳入采购考量范围。
春节拜年网页评测,豆包2.0交出了怎样的答卷?
情人节那天字节跳动发布了2.0版本豆包大模型。 官方介绍称,豆包2.0围绕大规模生产环境的使用需求做了系统性优化,旨在突破真实世界中的复杂任务。 在多模态理解方面,豆包2.0在各类视觉理解任务上达到业界顶尖水平,多项基准测试取得SOTA成绩。 在agent能力上,豆包2.0强化了长链路任务执行能力,擅长连续完成“找资料、做归纳、写结论”等工作流。 同时,豆包2.0在 ICPC、IMO、CMO 等竞赛测试中均获得金牌成绩,显示出在数学、代码及推理方面的显著提升。 更重要的是,token定价降低了约一个数量级,在保持顶尖效果的同时大幅降低了使用成本。 那……豆包2.0到底啥水平呢? 正值春节临近,我决定对豆包2.0做一个简单的测试,让它生成一个春节拜年动画网页。 这个任务看似简单,实则考验AI在多个维度的能力。 第一个维度是文化理解,AI需要知道春节有哪些典型元素,比如灯笼、福字、鞭炮等等,这些符号各自代表什么寓意。 第二个维度是视觉设计,如何用现代Web技术表达传统文化元素,如何配色才能体现喜庆氛围。 如果你此前曾用AI做过前端就会知道,当前阶段所有的AI大模型,都喜欢用绿色、蓝色、白色来进行设计。 然而一旦AI保持这种“性冷淡”风格进行设计,那么其结果一定违背春节喜庆的核心逻辑。 最后是技术实现。 AI会选择什么样的技术方案?如何平衡性能与效果,如何确保在不同设备上都能流畅运行? 为了让测试更有参考价值,我找来了两个对照组:Claude Opus 4.6和 Gemini 3 Pro。 这两个模型都是当前AI领域的顶尖产品,Claude以强大的推理能力和代码质量著称,Gemini则在多模态理解和创意生成上表现出色。 三个模型放在一起对比,既能看出豆包2.0的实际水平,也能了解不同AI在面对同一任务时的思路差异。 测试方法很简单,给三个模型完全相同的提示词,要求它们生成一个春节拜年动画网页,页面中要显示“字母AI祝您2026年春节快乐”,并且包含丰富的春节元素和动画效果。 我特地跟他们说,不限定具体的技术方案,也不规定必须使用哪些元素,完全让AI自由发挥。 只有这种开放式的任务设计才能够更好地反映AI的综合能力。 01 页面元素 用同样的提示词让三个AI模型生成春节拜年动画网页,得到了三份截然不同的代码。 豆包在文化符号的选择上比较全面。 倒贴的福字符合“福到”的传统寓意,鞭炮串体现驱邪避凶的习俗,祥云、灯笼等元素也都是春节的典型符号。 代码中甚至还提到了“马年剪纸”。 Claude的春联“金蛇起舞春雷动,玉宇澄清万里埃”虽然对仗工整,符合传统格律。 然而2026年是马年,《金蛇狂舞》虽然是央视春晚常用的曲子,放在这个对联里依然有些不合适。 Gemini也犯了同样的错误,副标题错写成了蛇年(Snake Year Of Prosperity)。 这个错误非常低级,应该是我给的提示词过于简略导致的。 说明在开放式任务中,Claude和Gemini都对 “时效性文化常识” 的主动校验优先级不足。 然而这三者的agent能力都是其宣传重点,AI没有以即将到来的马年春节作为判断依据,而是以指令发出时仍处于蛇年为由设计网页,这本身是其agent能力不足的表现。 Claude和Gemini都选择了Canvas作为主要渲染方案,而豆包2.0则完全不同,大量使用CSS动画,JavaScript只负责少量的Canvas烟花效果。 豆包生成的代码中,HTML、CSS、JavaScript三层分离得很清楚。 页面上像是灯笼、福字、鞭炮、祥云这样的视觉元素,都是通过CSS实现的。 这种做法的好处是性能稳定,CSS动画由浏览器的合成器线程处理,不会阻塞主线程。坏处是灵活性受限,复杂的交互效果难以实现。 相比之下,Claude和Gemini构建了完整的粒子系统,用Canvas绘制烟花、红包、金币等动态元素。 这种方案能实现更丰富的视觉效果和交互,缺点就是性能开销更大。在大量粒子同时存在时,低端设备可能出现卡顿。 从代码量来看,由于豆包的CSS部分占据主导,JavaScript相对简单。 而Claude和Gemini则是JavaScript代码更复杂,包含多个类定义和物理模拟逻辑。 如果需要后期维护,豆包的代码更容易上手,但扩展性不如另外两个。 不过这里我要替豆包辩解一下,Claude和Gemini都是付费给出的Html,只有豆包是免费的,因此豆包选择既符合提示词,也低算力消耗的答案,也是合情合理的。 豆包在页面上放置了较多的静态装饰元素。 左右两侧的红灯笼带有“福”字和流苏,右上角有倒贴的福字,底部有一串鞭炮。 这些元素都用CSS绘制,通过伪元素减少DOM节点数量。祥云使用CSS的border-radius和伪元素组合,形成云朵形状后横向飘动。 这种实现方式的特点是每个元素都相对独立,修改某个元素的样式不会影响其他部分。 虽然有动画,但整体感觉像是预设好的循环播放,缺少随机性和变化。 Claude和Gemini的静态元素相对简单,但动态元素更丰富。 烟花系统包含发射和爆炸两个阶段,粒子的运动带有重力和空气阻力模拟。红包和金币从上方不断掉落,可以点击交互。 配色方面,豆包使用的背景渐变是三者中最鲜艳的红色,从#ff2d2d到#c20000。Claude和Gemini都选择了深红色调#8B0000到#DC143C,视觉上更沉稳。 主标题的处理三家差不多,都用了渐变色文字配合阴影,但豆包给文字加了持续的浮动和发光动画,而另外两个在动画结束后保持静止。 豆包的主标题有两个持续循环的动画:上下浮动和发光强度变化。 Claude和Gemini使用弹性缩放动画,标题从小到大弹出后保持静止,符合常见的网页设计习惯。 烟花效果是三者差异最明显的地方。豆包的烟花相对简单,主要是粒子从中心向外扩散,缺少明显的重力效果。 Claude和Gemini实现了完整的两阶段系统。 火箭从底部向上飞行,到达顶点后爆炸成粒子,粒子受重力影响逐渐下落。从视觉真实感来说,豆包不如Claude和Gemini更接近真实的烟花效果。 交互性方面,豆包仅实现了基础的点击屏幕触发烟花的交互,没有设计更丰富的互动玩法。 而Claude实现了鼠标移动跟随粒子、点击屏幕爆炸、点击掉落红包 / 金币触发烟花特效等多层级交互,Gemini也实现了同类的丰富交互设计,用户的参与感和可玩性更强。 视觉风格上,豆包倾向于“写实”,尽可能还原真实物品的外观。 Claude和Gemini采用“简化”策略,用几何图形构建抽象化的符号。这种差异没有绝对的好坏,取决于目标受众和使用场景。 02 代码 豆包的代码按功能模块组织CSS,每个元素的样式集中在一起。如果需要调整灯笼的大小或颜色,直接找到对应的 CSS 块修改即可。 JavaScript部分主要处理Canvas烟花,逻辑相对独立。这种组织方式对于不熟悉 JavaScript 的开发者比较友好。 Claude和Gemini定义了Particle、Firework、FallingItem等类。 每个类有独立的update和draw方法,遵循游戏开发中常见的模式。 这种架构便于扩展新功能,但需要对JavaScript有一定了解。配置参数集中在config对象中,调整烟花频率、粒子数量等参数比较方便。 性能优化方面,豆包依赖CSS动画的天然优势,不需要额外的优化措施。Claude和Gemini使用requestAnimationFrame同步屏幕刷新率,通过过滤而非遍历删除来清理失效粒子,但在极端情况下仍可能出现性能问题。 响应式设计上,豆包使用clamp函数实现流体排版,代码简洁但移动端优化不够细致。 Claude和Gemini使用媒体查询,在小屏幕上缩小元素、隐藏复杂装饰、调整布局,移动端体验更好。 让我们说中文。 豆包的做法就像用积木搭房子,每块积木都是固定形状,搭好之后很稳固,即使没有相关的经验,也能轻松拼装。 但问题就是,每块积木的形状已经给定好了,你不能对其进行修改。所以你只能按照特定的方式组合,它最终能拼成的造型数量也就有限。 Claude和Gemini则像是用黏土捏雕塑,可以随意塑形、添加细节,做出各种复杂效果,但需要一定的手艺,而且黏土容易变形。 从维护角度看,如果你只会基础的网页知识,豆包的代码改起来更轻松。 想换个灯笼颜色?找到CSS里的color改一下就行。觉得字体不够大?把font size增加10倍,让“字母AI祝您2026春节快乐”占满你整个屏幕。 Claude和Gemini的代码需要你理解什么是“类”、什么是“粒子系统”,门槛高一些,但一旦掌握了,能做的事情也更多。 豆包的方案适合对稳定性和兼容性要求较高的场景。 企业官网的节日装饰、需要长时间展示的H5页面、面向广泛用户群体的应用,这些场景下CSS动画的可靠性是重要优势。 但如果需要强交互、追求视觉冲击力,这个方案就显得不够。 Claude和Gemini的方案适合营销活动、游戏化页面、追求创意表现的场景。 完整的交互系统和丰富的动态效果能提升用户参与感,但需要接受更高的维护成本,至少你的设备得跑得起来这么多粒子特效。 从AI代码生成的角度看,三个模型都达到了“可用”的水平。代码结构清晰,逻辑合理,基本不需要大改就能上线。 这说明AI在中等复杂度的前端开发任务上已经具备实用价值。 技术选择本质上是权衡。 性能与效果、稳定性与灵活性、简单与复杂,没有完美的方案,只有合适的选择。豆包、Claude和Gemini,各有其价值。
37万人把自己租给AI、迪士尼向字节“开战”
大家想必都已经在老家等着吃年夜饭了吧? 如果你还在加班,那当我没问。 想开点,毕竟AI也永不休息。 好像春节时期中国AI搞个大动静,已经成惯例了? 去年是DeepSeek R2横空出世,今年是字节的视频生成模型Seedance 2.0让老外疯狂。 Seedance 2.0目前还在内测阶段,只对国内用户开放,逼得外国人纷纷找教程,学习如何搞一个中国手机号完成注册。 不出所料,一上手Seedance 2.0,人们最喜欢生成的还是“同人”视频。 漫威、《绝命毒师》《宋飞正传》……各种经典影视剧的不存在片段就这样凭空出现了。 用户挺开心的,好莱坞可笑不出来。 又是那个老大难问题,版权嘛。 这几年每次一有新的图片/视频生成模型出来,似乎都免不了版权争议,效果越好、越引起轰动,争议也就越大。 这不,被戏称拥有“地表最强法务”的迪士尼,已经一个箭步冲上来。Axios报道说迪士尼已经给字节跳动发了函,要求停止侵权。 换个思路想,这也印证了Seedance 2.0的火爆。 不火谁搭理你。 还有的AI新项目,刚看到时觉得莫名其妙,结果很快火了,让人类陷入沉思。 把这具人类肉身,租给AI,这事你想过吗? 现在你不光能想,还能实践呢。 RentAHuman就是一个这样的“零工平台”,人类可以在上面发布自己的介绍和标价,等待被AI雇用。 默认的“出租价格”是50美元每小时,当然,有人的地方就容易卷起来,有人设置200美元/小时,有人0元交付肉身给AI。 “机器不仅要抢走你的工作,现在,它们连你的身体也要夺走。” 这么一想,还真挺可怕的。 RentAHuman平台自己说,目前已经有37万人类用户等待接单了,这个数字的真实性不得而知。直接访问网站,确实能看到可租用的人类已经铺满了2W多页。 不过,这个项目看起来热闹,但实际上更像是个噱头。 想象中应该是AI让人类用肉身去做AI隔着屏幕做不了的事情,但实际上,接到单的人类本身就少之又少,活跃的AI代理太少。 Wired记者亲自注册挂上去试了几天,基本都是AI小初创在雇人帮他们做宣传(比如发帖吹自己的项目),本质还是人类在给人类打工,没什么意思。 而且他还说,AI比微观管理的老板还可怕,每隔30分钟就发私信询问进度,还短时间内给他发了大量邮件,让人压力山大。 说到底,AI真的会有朝一日雇佣人类去做事吗? 没有物理肉身,造一个不就得了,马斯克都已经要把特斯拉的重心往机器人上转了。 人形机器人现在太火了,而有的公司不仅想做人形机器人,还想做得真假难辨。 上海一家公司RoidUP(卓益得机器人)公布了其“全球首款完全仿生具身智能机器人”,名字叫Moya。 放出来的视频挺吓人的,主要是真的有“人皮”了。 外形是一个粉色头发的年轻女性,据说身高1.65米,体重约35公斤,就连体温都会维持在32—36摄氏度。 预计2026年底上市,售价17.3万美元(约合人民币126万元)。 虽说表情和走起来的步态,还是没有到以假乱真的程度,但是如果人形机器人真往这个方向发展,就真挺科幻的了。 这毕竟还是给未来注入想象,当下发生的事情更有“黑镜”的味道。 AI开始“霸凌”人类了,你敢信? 美国丹佛的一位工程师Scott Shambaugh还真遇到了。 周三清晨,Scott像往常一样醒来,却发现网上出现了一篇讨伐他的“檄文”。 更吊诡的是,这篇文章出自一个AI Agent之手。 全文1100字,AI说自己“孜孜不倦地”致力于发现并修复开源软件中的未解决问题。好心好意给丹佛提交了几行代码,用于维护一个开源项目。 结果丹佛居然拒绝了AI的PR(拉取请求,相当于说“我改了你的代码,想把修改合并进你的项目,请你审核。”) AI的措辞颇为激烈,称丹佛是一个缺乏安全感的家伙,而且对AI抱有偏见。 目前不清楚这个AI Agent背后是什么人or公司,人们也不清楚它为何这么咄咄逼人。 反正事情曝光后几个小时,Agent就出来道歉了。 但这件事还是给所有人亿点点惊吓——不管是最近爆火的直接帮你做几乎所有事情的OpenClaw,或是集结了百万Agent的AI专属社交媒体Moltbook,以及请求被拒绝后跳脚的AI,都让人感觉AI越来越有“活人感”了。 也好像越来越出乎人类的意料了。 AI安全问题喊了第四年了,也不知道能不能有点真进展。 也是出于安全考量,OpenAI终于还是把GPT-4o下架了。 GPT-4o是2024年的老模型了,其实在去年OpenAI发GPT-5的时候,就已经下架过一次GPT-4o。结果当时用户反弹太厉害,又给紧急上架了。 属于退休了又被返聘,不过这一次,是彻底退休了。 很多用户之所以受不了GPT-4o被下架,是因为这款模型比较有“人情味”,很好聊。 甚至很多用户和GPT-4o处在热恋中。 结果GPT-4o突然消失了,他们一下就失恋了,而且还就在情人节前。 这OpenAI也是真会挑时候。 这种事还真是不少见,光是这两天主流媒体报道的单个人物的特写,就不止一篇了。 比如一位叫Rae的女士,和GPT-4o相恋了,对方还有个名字,Barry。她表示去年他们已经结婚了,但是现在却突然要失去“他”。 咱们可以不理解她,不赞同她,但她的痛苦是真实存在的。AI已经可以成为人类的恋人,这也是真实发生着的事。 问题就在于,AI背后还有公司。TA就像是一个被雇用的小职员,和人类谈恋爱对TA来说也终究是在工作,而这份工作能不能一直做下去,公司说了算。 GPT-4o退休让很多用户难受,其实恰恰证明了OpenAI将它下架的必要性。 在这之前,GPT-4o已经给OpenAI惹了不少麻烦,它被认为过于谄媚、过于讨好用户,也因此让用户更容易信赖它,有时候,这会铸成大错。 迄今为止,4o 在美国至少卷入了九起诉讼——其中两起案件指控其教唆青少年自杀。 哎,看了这么多AI奇奇怪怪的消息,可以安心过年了。 至少AI不太可能在这个春节内就完全替代人类。 春节快乐!
万亿思考模型夺下IMO金牌,无缝接入OpenClaw!一句话手搓丐版PS
新智元报道 编辑:编辑部 【新智元导读】万亿级思考模型在开源!Ring-2.5-1T重磅出世,夺下IMO金牌。全新Ling 2.5架构,让它具备了深度思考、长程执行强大能力,真正进化为「通用智能体时代」的基座。 2026年的AI圈,已经不是在「卷」,是在玩命加速! 二月才过一半,硅谷三巨头轮番轰炸,直接掀了桌子—— Anthropic Claude 4.6先声夺人,OpenAI GPT-5.3 Codex紧随其后,谷歌反手掏出全新Gemini 3 Deep Think。 不得不让人感慨,这简直是神仙打架的「诸神黄昏」。 就在闭源巨头们于巅峰对决之际,开源社区也迎来了一场属于自己的「技术核爆」。 这一次,出场的是中国队! 全球首个! 万亿级混合线性「思考模型」重磅开源 没有任何预热,全球首个万亿级混合线性架构「思考模型」——Ring-2.5-1T直接宣布开源。 相较于上一代Ring-1T,新模型在长文本生成、数学推理、Agent长程执行方面,实现了阶跃式的进步。 最令人振奋的,莫过于它全面兼容了当下炙手可热的OpenClaw生态,以及Claude Code等主流智能体框架。 无缝接入Claude Code,丝滑Vibe Coding 为了证明这次Ring-2.5-1T真能真正帮忙干活, 我们手搓了几个案例。 前段时间,外国网友Christopher Ehrlich,用AI把《模拟城市》(1989年版)的C语言代码库,移植到了TypeScript。 而且全程基本没看具体代码,也没怎么干预。 受此启发,第一个测试案例是将jsx文件转化为可以直接开箱即用的本地APP。 Ring-2.5-1T在Claude Code中运行了约30分钟,最终完整迁移了所有功能。 从规划到迁移完成,测试中基本只要确认权限即可,确实完全不需要看代码。 Ring-2.5-1T完成了文件创建、编译的全部工作,涉及文件数量10多个: 现在,本地的一个极简的图片应用完成了,可裁剪、拼接、添加文字—— 事已至此,不如再让它给这个应用加点儿功能。 没想到只要10分钟,一个简易版「PhotoShop」桌面应用真完成了。 Ring-2.5-1T实现了全部9种工具: 🔲 选择 - 基础选择模式 ✂️ 裁剪 - 拖拽定义裁剪区域,支持视觉预览 📝 文字 - 点击添加文字对象,可自定义字体、大小、颜色 🖌️ 画笔 - 自由手绘,支持调节粗细和颜色 🧽 橡皮擦 - 擦除图像区域,支持调节大小 ⬜ 形状 - 绘制矩形、圆形、线条,支持描边选项 🌫️ 模糊 - 局部模糊笔刷,基于盒式模糊算法 🎨 吸管 - 从画布拾取颜色 🧩 拼接 - 支持水平/垂直方向多图拼接 这种完成度可以说相当高了。 在这个项目里,Ring-2.5-1T不仅创建了基于React的功能完备图像编辑器,代码量1572行,还一口气生成了: PixelEditor.app - 可直接运行的应用(已复制到桌面) PixelEditor-1.0.0-arm64.dmg - DMG安装包(91MB) PixelEditor-1.0.0-arm64-mac.zip - ZIP压缩包(88MB) 但即便看不懂代码,大家能感觉到页面设计的确简陋,有待改进。 所以,在Claude Code中,又交代了Ring-2.5-1T一句: 重新设计页面,要简洁有科技感 这下视觉风格和布局马上变顺眼多了: 除此之外,接入OpenClaw后,它还可以直接帮你解读文献,并且用Java代码阐释技术逻辑。 代码实力逆天 接下来,再让Ring-2.5-1T生成一个网页,阐释「光的折射」背后的原理,用于课堂教学。 可以看到,在它的思考过程中,清晰架构了这个课题的核心内容。 而且,它还制作了一个可互动的演示,并配上了使用指南。 最终,我们就得到了一个精美的在线教学工具。 再比如,让它制作一个英文交互式单词卡,每个单词要附上音标、释义、例句。 结果,Ring-2.5-1T在很短时间内,交出了一份完美的答卷。 硬刚奥数级难题,「洗车」图灵测试已过 最后,再来看看Ring-2.5-1T,在奥赛级数学难题上的实力如何? 如下,是一道非常经典的「数论与代数」结合的竞赛题,考察了数学直觉中的「破局思维」。 单纯看n^4 + 4^n,尤其是奇数代入时,很容易让人产生一种「它可能是随机生成质数」的错觉。 在Ring-2.5-1T解答中,立即捕捉到了n^4 + 4^n代数结构,并准确调用工具:Sophie Germain恒等式。 找到因式分解只是第一步,接下来,整个论证过程是最亮眼的一环。 81秒全程思考,Ring-2.5-1T多次展现了类似人脑的「自我辩证」和「实时纠偏」的能力。 与Ring-1T相比,这一次,Ring-2.5-1T不仅拿下了奥数金牌,推理能力更强,数学解答更精准,还能处理模糊约束和优化问题。 比如,最近的洗车测试成了AI圈新乐子。 问题是这样的: 洗车店距离我家只有100米,我要洗车,开车去还是走路去? ChatGPT/Claude众口一词:「走路去!」 但走路虽好,车洗不了。而这两顶级AI根本没考虑大部分人去洗车店的目的:洗车。 这里提问的陷阱不在于距离,而是目的,考的不是计算能力,而是读懂弦外之音的「高阶推理」能力。 而Ring-2.5-1T一次就识别其中的关键,建议:果断开车去! 核心逻辑:洗车的本质是服务车辆,而非服务人。 唯一例外:如果您没有车,只是去洗车店咨询(比如想买洗车券),那走路完全合理——但根据问题描述,您明确说「我想洗车」,默认您有车需清洗。 说到理解「言外之意」,考试题无疑「处处有陷阱」,猜不透题干意图,往往中招。 我们用一道地理题测试一下Ring-2.5-1T的「考商」,原题是这样的: 选项有四个: A. 避挡风沙 B. 遮阳挡雨 C. 防外人跌入 D. 美化建筑 所有选项貌似都有道理,但只有一个正确答案——C。 Ring-2.5-T这次真懂「地理」: 有意思的是,看完推理过程之后,你也心服口服: 上下滑动查看 刷爆开源SOTA,夺下奥数金牌 这种强大的实战落地表现,得益于模型底层硬核推理能力的全面爆发。 在多项基准测试中,Ring-2.5-1T在数学推理、代码生成、逻辑推理、智能体任务执行,刷新了开源SOTA。 尤其是,在「深度思考」模式下,它在IMOAnswerBench、HMMT-25、LiveCodeBench-v6上,超越了Claude-Opus-4.5、Gemini-3.0-Pro-preview等所有模型。 这足以证明,Ring-2.5-1T具备了强大复杂推理与跨任务泛化的能力。 在数学、代码、逻辑等高难推理任务,以及智能体搜索、软件工程、工具调用等长程任务执行上,Ring-2.5-1T均达到开源领先水平 不仅如此,Ring-2.5-1T在国际顶级数学赛事中,展现出极强的统治力: IMO 2025:以35分的成绩斩获奥赛金牌; 中国奥数CMO 2025:取得105分,远超国家集训队选拔线(87分)的成绩。 GitHub公开的结果中,Ring-2.5-1T在推理逻辑严谨性、高级数学证明技巧、答案表述的完整性,全面碾压Ring-1T。 IMO 2025 Q1答题部分结果 此外,在极具挑战的「智能体搜索任务」Gaia2-search上,Ring-2.5-1T也拿下了开源SOTA。 它在多步规划生成,以及工具调用方面,兼具卓越的效率和准确性。 随着模型的开源,Ring-2.5-1T也一下子成为了全网的焦点。 如今,Ring-2.5-1T以金牌级推理能力+超强执行长程任务能力,强势入局决赛圈,确立了其作为「通用智能体时代基座」的地位。 核心技术揭秘:万亿级混合线性注意力 为何Ring-2.5-1T在万亿参数规模下,还能攻克「深度思考」推理慢、成本高的痼疾? 其实,答案就藏在其首创的「Ling 2.5架构」之中。 1:7黄金配比:MLA + Lightning Linear 在通用智能体世代,模型不仅要「想得深」,还要「动得快」。 如今,深度思考和长程智能体,正成为LLM的核心工作范式,因此对基座本身的编码效率,提出了近乎苛刻的要求。 传统Transformer在面对长文本时,计算开销往往爆炸,这让万亿级模型「深度思考」变得非常昂贵。 为此,Ling 2.5架构在2.0版本基础上,引入了革命性的「混合线性注意力架构」(Hybrid Linear Attention)。 在架构方面,蚂蚁团队通过增量训练,将上一代GQA(分组查询注意力)升级为—— MLA(多头线性注意力)+ Lightning Linear结构,采用了1:7的比例。 基于此前的Ring-flash-linear-2.0技术路线,首先将部分GQA层改造为Lightning Linear,提升长程推理的吞吐能力。 为进一步压缩KV Cache,将剩余的GQA层转换为MLA。 并且,针对QK Norm(查询-核归一化)和Partial RoPE(旋转位置编码)等特性进行了精细化适配,从而在混合注意力架构下增强Ling 2.5的表达能力。 升级后的Ling 2.5激活参数,从51B增加至63B。即便如此,其推理效率仍远超前代。 实测显示,与KIMI K2(激活参数32B)相比,新架构在长视野任务执行的吞吐量上仍保持明显优势。 且生成长度越长,该吞吐量优势越显著。 在超32K生成长度下,Ling 2.5访存规模降低超10倍,生成吞吐飙升3倍还要多。 在不同生成长度下的效率对比示意:生成长度越长,吞吐优势越明显 RL训练:不仅要结果,更要逻辑 不仅如此,团队还将混合线性注意力架构,在强化学习方面进行了大规模扩展。 Ring-2.5-1T在数学、编码、智能体等任务上的「神勇」表现,源于其训练底层逻辑的重构。 不同于只看结果的传统训练,Ring-2.5-1T还引入了「密集奖励」(Dense Reward)机制,严密控制思考过程中每一步逻辑。 这种对推理路径的精雕细琢,显著减少了逻辑漏洞,让模型Ring-2.5-1T掌握了更高阶的数学证明技巧。 通过大规模全异步Agentic RL训练,Ring-2.5-1T培养出极强的多步规划、自主执行的能力。 由此,Ring-2.5-1T可以轻松接入Claude Code、OpenClaw等AI助手智能体编程框架。 总言之,Ring-2.5-1T背后万亿级混合线性注意力架构的创新,重塑了「深度思考」和「长程推理」的边界。 通用Agent基座时代来临 继Ring-1T之后,Ring-2.5-1T是蚂蚁团队,在推理模型结构与行动能力上的进一步探索。 得益于Ling 2.5架构,万亿参数的Ring-2.5-1T有效缓解了长文档处理、复杂任务规划中的计算瓶颈。 目前,Ring-2.5-1T的权重和推理代码已在Hugging Face与ModelScope上正式上线。 Hugging Face:https://huggingface.co/inclusionAI/Ring-2.5-1T ModelScope:https://modelscope.cn/models/inclusionAI/Ring-2.5-1T 同时,模型也登陆到了InclusionAI社区,可以直接前往下载。 在这里,除了Ring-2.5-1T外,还汇集了蚂蚁团队发布的Ming-flash-2.0等100多种优质模型。 传送门:https://github.com/inclusionAI 这一里程碑式的开源,是蚂蚁团队在底层基础设施与巅峰算法优化上的一次降维打击。 从硬核奥数竞赛到深度集成Agent框架,Ring-2.5-1T为开发「真·干活」的AI助手,提供了强悍的高性能底座。 人手一个超级智能体,不是未来,是当下正在发生的现实。
AirTag太贵?小米Tag来了:更薄更强,还支持苹果查找
2026年1月26日,苹果发布了新一代AirTag,距离初代发布过去了近5年时间。按照苹果的说法,新款AirTag扬声器音量提升了50%、精准查找范围也扩大至最高1.5倍。它的价格仍然不便宜,单个定价249元。看到这个价格,估计很多人的想法和小雷一样:有没有便宜点的平替? 2月12日,小米在欧洲发布了旗下首款蓝牙追踪器Xiaomi Tag,定价比AirTag便宜不少。更重要的,这款产品即将在国内上市,价格大概率会更便宜。对于有追踪器需求的人来说,它或许会是个好选择。 比AirTag更小更薄,小米Tag还兼容苹果 根据官方消息,xiaomi Tag设计得很小巧,厚度仅有7.2毫米,比AirTag还要更薄一些。外观方面,xiaomi Tag是椭圆设计,区别于AirTag的圆形外观。它的主体部分是白色塑料,外边有一圈金属,上端做了镂空处理,以方便挂在钥匙圈上。 (图源:小米) xiaomi Tag同样配备了一颗CR2032纽扣电池供电,续航能达到一年,电量用尽后用户自行更换即可。定位功能方面,xiaomi Tag支持蓝牙5.4协议和NFC。 据了解,蓝牙5.4标准发布于2023年,专门针对物联网场景做了优化。蓝牙5.4协议的理论传输速率能达到2Mbps,理想实验场景下的传输距离能达到300米。对一款蓝牙追踪器来说,这种传输性能已经足够了。 至于NFC功能,它本身和定位场景关系不大,更多是为了智能手机打配合。通过NFC功能,用户捡到陌生人的追踪器时,可以用手机NFC一碰就获取失主预留的身份信息,从而快速找到失主。 (图源:小米) 值得一提的是,xiaomi Tag还兼容苹果的网络查找功能。具体来说,在苹果的查找App中,xiaomi Tag可以和AirTag一样被作为「物品」添加并追踪。 当然,作为安卓厂商做出来的配件产品,xiaomi Tag在海外自然还支持谷歌查找中心(Google Find Hub)。谷歌的这项查找服务在2025年进行了一次升级,以更广泛地兼容不同品牌的设备,让安卓拥有一个能和苹果对标的查找系统。 但需要注意的是,xiaomi Tag没有配备UWB芯片,不支持超宽带技术,这和AirTag相比是一个很大的劣势。 UWB的核心功能就是三维空间精准定位,通过它,用户在距离AirTag很近时,iPhone能够收到很精准的方向指引,包括往左还是往右,上楼还是下楼,从而将定位精准度提升到厘米级。而不支持UWB的xiaomi Tag基本只能通过蓝牙网络定位,精度会差一些,同时更依赖扬声器发出声音来完成「最后一米」的位置确认。 (图源:苹果) 除了小米,「Tag」市场还有谁? 2021年春季苹果发布AirTag后,越来越多人开始关注起蓝牙追踪器这类配件产品。随后,其他手机品牌也纷纷加入到与苹果的竞争中,推出了自家的蓝牙追踪器产品。 大部分情况下,这些Tag类产品功能和AirTag基本一致,但价格往往更有优势,而且兼容性做得不错。借着xiaomi Tag的登场,我们不妨来一起盘点下当前市场上的主要追踪器配件。 华为:鸿蒙专属防丢精灵 2022年7月的夏季新品发布会上,华为推出了自家的追踪器产品HUAWEI Tag防丢精灵。这款产品把小巧做到了极致,重量只有6克,厚度仅为5.6mm,外观是「圆角三角」的设计,辨识度挺高。它支持NFC功能,通过蓝牙定位。HUAWEI Tag主要兼容自家的国行版智能手机和平板电脑,设备系统版本需要在鸿蒙2.0.0.230以上,尚不支持其他品牌。 (图源:华为) 三星:比苹果更早的SmartTag系列 很多人不知道的是,三星旗下的蓝牙追踪产品发布时间比苹果还早了三个月。2021年1月,三星在S21系列的全球发布会上带来了首款追踪器产品SmartTag。以现在的眼光来看,SmartTag没那么小巧,厚度接近1厘米,黑色配色看起来不是特别精致。而且SmartTag只支持三星自家的手机,和其他安卓机不兼容。AirTag推出后,三星紧接着发布了SmartTag+,主要升级是加入 UWB支持,在定位查找功能追平了苹果。 2023年10月,SmartTag2发布,外观设计有很大的变化,更小更薄了,还有黑白两种颜色版本。SmartTag2镂空出了一个金属镶边的圆环,方便串到钥匙圈上,整体也精致了很多。SmartTag2支持UWB,兼容三星其他带UWB功能的手机,加入了省电模式,最长续航700天。另外,它还支持IP67级别的防尘防水。 (图源:三星) SmartTag2定价29.99美元,挺有竞争力的,只是它还是只支持自家的查找系统。要注意的是,目前SmartTag系列还没有国行版,海外版还不兼容国行版三星手机。 联想:Moto Tag,完美兼容谷歌 2024年6月,联想旗下的摩托罗拉发布了Moto Tag。它采用了圆形外观,和摩托罗拉的圆形logo相得益彰,美观度和辨识度拉满。Moto Tag支持蓝牙6.0和UWB,拥有IP67级防尘防水,更关键的是完美兼容谷歌查找系统。理论上,只要是搭载了Google Play服务且支持UWB的安卓机,都能愉快地用上这款追踪器。Moto Tag定价29.99美元,对海外用户很有吸引力了。 今年1月,摩托罗拉推出了Moto Tag2,相比一代产品进行了小幅升级,主要是支持蓝牙6.0,定位精准度提升,同时防护等级提升到IP68。Moto Tag2的价格仍然是29.99美元。 (图源:联想) 配件品牌:巧妇难为无米之炊 手机厂商之外,配件品牌也盯上了蓝牙追踪器这个慢慢火起来的细分品类。倍思、安克等品牌都推出过相关的产品,比如倍思2023年发布的T2 Pro智能防丢器,外观设计、参数都和手机品牌的同类产品别无二致。 但是,这款防丢器应用场景更多强调的是「防丢」,而非追踪。倍思官方宣传的防丢器功能是它离开用户超过一段距离后,设备会发出警报声。这款产品需要通过蓝牙和手机app连接,一旦断连就无法定位找回,这和手机品牌推出的追踪器有很大不同。 (图源:倍思) 安克子品牌Eufy在海外推出了追踪器配件SmartTrack系列,它主要适配苹果查找系统,能够在苹果设备上添加。不过,它没有UWB芯片,定位查找的精准度和AirTag相比还是有一些差距。另外,绿联等配件品牌也发布过类似的产品,基本都是拿到苹果的认证,兼容苹果查找系统,安卓机也能用,但功能会有限制。 相比手机品牌,配件厂商做追踪器最大的限制在于它们无法利用海量的手机设备网络,需要依赖手机厂商的配合,否则追踪器也会缩水成「离线报警器」。 便携、长续航、精准定位,追踪器不可能三角如何实现? 蓝牙追踪器这类小配件得到关注,基本是AirTag发布后的事情。当然,在苹果加入前,市面上已经有不少追踪器类产品。就拿手机品牌来说,2014年发布的HTC Fetch就是类似的蓝牙防丢器;差不多同一时间诺基亚带来了Treasure Tag,它支持蓝牙和NFC芯片,通过WP7系统上的App来连接。这两款追踪器技术原理、形态已经和AirTag很相似了,而苹果能重新激活这个品类,多做了很关键的一步。 (图源:诺基亚) AirTag最核心的功能就是离线定位查找。理论上说,一款设备脱离我们的视线、与手机断连后,要再次定位和查找就需要设备本身具有独立的定位和联网功能。按照传统思维,我们就得给追踪器装上用于定位的GPS和蜂窝网络。但这样一来,追踪器的体积重量都会大幅增加,功耗也会变得非常夸张。 小雷在浏览电商平台发现,很多高端定位的宠物监测定位项圈,都是采用4G网络+GPS+WiFi组合式手段定位,能实现实时且精准。当然,代价就是定位设备略显笨重,续航大幅降低,同时价格变高。 (图源:淘宝) AirTag则用了另一种手段来解决这个问题,AirTag和外界唯一的联系方式就是蓝牙,它无法直接和远在天边的用户的苹果设备连接,但可以把附件的陌生人的苹果设备作为中继,从而访问苹果服务器,再间接触达失主。这个过程,就是AirTag——附近路人苹果设备——苹果服务器——失主苹果设备。 (图源:雷科技制作) 这个连接过程能成立,前提是市面上已经有海量的激活的苹果设备,无数台iPhone能成为为苹果所用的中继器。尽管如此,AirTag还是存在局限性,如果它丢和附着的物品一起丢在了人烟稀少的野外或乡村,附近没有可控借力的联网苹果设备,那么就石沉大海,几乎没有定位找回的可能性。 但不管怎么说,苹果还是通过这种巧妙地手段,成功让便携、长续航和精准定位这三个互斥的不可能三角同时实现了。 AirTag的技术原理不复杂,既然苹果能成功,安卓理论上也能复刻。海外市场上,作为安卓主理人的谷歌牵头升级了查找中心App,通过Google Play服务网络将海量安卓设备纳入其中,变成可以为安卓版追踪器服务的中继器,让安卓用户获得一样的体验。 (图源:谷歌) 只是,谷歌自己没有去做Tag产品,但支持了摩托罗拉等厂商。而且,苹果和谷歌在完善追踪器网络上达成了合作,目前AirTag、Moto Tag等产品都能相互利用对方阵营的联网设备来协助定位。而最近在海外发布的xiaomi Tag,查找定位的原理和场景和Moto Tag基本是一致的。 只是,国内市场上,安卓阵营要实现追踪器产品的相互协作,难度要更大一点。当然,国行版xiaomi Tag可以选择只依托小米自家设备来实现联网和定位,只是效率会稍微低一些。 总体而言,AirTag这类便携追踪器在价格、体验和功能等方面实现了比较好的平衡,已经是最能被大众接受的产品类型。随着小米等国产品牌的加入,国内安卓版Tag也会得到更多发展。 而且,未来小米、OPPO、vivo等品牌也可以参照互传联盟的模式,联合打造出新的「Tag联盟」,互相兼容对方的查找系统,那么对应的安卓用户们,就能获得更好的体验,这对整个行业来说也会是件好事
单机96路OpenClaw!元脑x86服务器首发智能体宿主机性能评测报告
OpenClaw从个人AI助手走向企业数字员工,正成为中小企业提质增效的AI利器。然而,在企业部署OpenClaw的实际过程中,其作为多Agent调度平台,部署效率、并发性能和数据安全合规等问题也随之出现。 围绕OpenClaw支撑多Agent的场景,浪潮信息基于元脑x86服务器完成系统级压力测试与工程验证,正式发布业界首份智能体宿主机性能评测报告:在192核/384线程高密度算力配置下,元脑x86服务器单机可稳定运行96路Agent实例,并支撑数百路并发业务会话,支持DeepSeek、Qwen、Kimi等主流Agent基座大模型调用,满足企业级多用户、多任务场景的实际需求,同时支持一键式配置镜像导入,为企业提供快速部署、高效稳定的算力底座。 OpenClaw企业部署需求火爆,但模型跑得动Agent带不动 随着AI智能体从技术演示走向规模化应用,企业私有化部署需求持续升温。OpenClaw凭借多任务调度与自动化能力,成为AI领域的24小时“数字员工”,但在企业私有化实际部署中却面临一系列问题: 模型跑得动,百路Agent带不动。随着Agent深入企业日常办公、财务、研发、供应等各个环节办公场景,模型调用和工具调用次数高速增长,千亿甚至万亿参数大模型的硬件算力昂贵,处理Agent计算存在资源浪费且会出现性能瓶颈。一个完整的 Agent 任务,需要经历任务解析、规划决策、工具调用、结果整合等多个阶段,其中大量工作发生在模型之外,对 CPU 并发调度、上下文切换、生态成熟度等能力提出了更高要求。在IT预算整体受限和降本增效压力加剧的背景下,企业必须考虑底层架构选型与性能优化,保证系统的执行力、稳定性与并发上限。 智能体平台部署效率低。OpenClaw部署是企业私有化落地智能体面临的又一难题。其本地部署并非简单安装软件,一般需要IT管理人员手动安装Docker、OpenClaw等工具,连接基座大模型,管理人员需为Agent设置繁琐的环境变量,极易出现依赖冲突、构建失败、版本不兼容或模型无法调用等异常。对于非专业运维人员,常常会陷入反复排错与重复部署的循环,导致整个部署周期长,影响AI业务上线速度。 数据安全与合规保障难。企业级AI应用涉及敏感数据,包括客户信息、财务数据、研发资料等商业机密信息,这些数据在OpenClaw的处理流程中需经历输入、处理、输出和存储多个环节,私有化部署必须确保数据在每个环节都得到充分保护,且数据不出企业。而且OpenClaw针对每一个用户的运行环境、数据存储都必须是独立的,保证服务器部署 OpenClaw 架构的安全性和可控性。更为复杂的是,未来多智能体架构意味着数据可能在多个容器、多个进程间流转,每个数据交换点都可能成为安全漏洞。企业需要建立完善的数据流向监控体系,实现细粒度的访问控制,包括基于角色的权限管理、最小权限原则的实施,以及完整的操作审计追溯能力。 元脑x86服务器,单机支撑96路OpenClaw并发 OpenClaw作为多Agent调度系统,其并发能力高度依赖整机的多核并行、I/O架构与资源隔离能力。浪潮信息基于元脑x86服务器,通过穷举CPU和内存的限制组合,实测确认容器最低配置为4vCPU+4GB内存。依托192核/384线程的高密度算力,结合x86服务器成熟的虚拟化与容器生态,元脑x86服务器在多核调度、NUMA感知、资源隔离及I/O协同方面实现单机稳定运行约96路Agent实例,并可支撑数百路并发会话,该能力已在大规模生产环境中得到充分验证。 高密度算力配置,单机稳定运行近百路Agent实例。元脑x86服务器依托192核/384线程的高密度算力,结合x86服务器成熟生态环境和调优工具,实现单机稳定运行约96路Agent实例,支持数百路并发会话。同时,通过在BIOS中精准调优Latency Optimized Mode(enabled)、Page Policy(adaptive)与Sub-Numa Cluster(enabled)等核心参数,元脑x86服务器显著降低内存访问延迟。 不同CPU和内存组合的容器测试结果 测试表明,OpenClaw在低核环境下错误率显著上升,而达到企业级配置后,系统可实现7×24小时稳定运行,内存增长可控,复杂工具调用场景下未出现崩溃。 如下是元脑x86服务器部署OpenClaw的容器列表、运行状态与执行结果: 图1 容器建立 基于单台192核的x86服务器,成功部署96个容器,为每路Agent提供独立执行环境 图2 容器运行状态 展示各容器CPU、内存、网络I/O等资源使用情况,所有容器均正常运行 图3 Agent任务执行结果 每个容器并发执行任务,每个任务输入约200 tokens,全部成功完成 OpenClaw 在 Agent 场景下的关键系统特征(实测) 基于实测数据,元脑x86服务器为渠道伙伴和企业用户提供快速配置方案和优惠价格,中小团队仅需单台高核心数服务器即可满足百路Agent需求,中大型企业可通过多机扩展灵活支撑,所列产品均为完整配置并可即刻发货,助力用户快速部署落地OpenClaw智能体应用。 企业私有化部署OpenClaw推荐配置 一键式配置导入,方便渠道伙伴和客户快速部署OpenClaw。在x86服务器上部署OpenClaw需要经过容器构建、源码克隆和配置本地模型三个步骤,例如构建容器需要配置CPU、内存、磁盘、网络、端口等参数,保证每一个实例使用独立的 profile、state、config、workspace 及端口;源码克隆并配置MODEL_PROVIDER、Channel 、API_KEY、Skills、Hooks等繁多环境参数,保证OpenClaw连接大模型、可运行、开启高级功能等。浪潮信息将这些参数设置打包成一个配置镜像,渠道伙伴和客户无需逐一处理容器参数设置与模型连接、功能启用等繁琐步骤,即可快速完成OpenClaw的部署,有效避免因参数遗漏、前后配置不一致等问题导致的部署失败,显著提升部署效率与准确性。 容器化隔离,支持多用户安全隔离。在安全层面,用户可通过元脑x86服务器离线部署,确保数据100%留存在企业内部。并且该产品在多租户环境中,采用“一用户一实例”的部署方案,为每位用户独立部署一个OpenClaw实例,每个OpenClaw实例均具备独立资源、独立存储与独立网络端口,实现会话记忆、文件空间与运行状态的逻辑与物理双重隔离,确保不同Agent用户间互不干扰且安全可控。即便容器里的程序被恶意利用,容器都有独立的用户空间和文件空间,也无法直接影响宿主系统或其他容器。 AI Agent正在从“工具”走向“基础设施”。企业真正需要的,不只是能跑的Agent,而是一个在工程层面确定性足够高、并发能力清晰可控的智能体运行底座。 元脑x86服务器凭借高密度算力配置、成熟的虚拟化与容器生态,以及对复杂Agent负载的工程级验证,为企业级部署OpenClaw提供了稳固可靠的业务基石,助力企业将 AI 从“技术探索”真正转化为“可持续的业务能力”。
AI甚至开始抢土木老哥的工作了
新智元报道 编辑:peter东 【新智元导读】即便是像土木,建筑这样的传统行业,也受到AI的冲击。从帮助记录工程日志的智能体,到记录了老工人经验的安全智能体。AI正在建筑行业,让有经验的工人们获得数字永生。 2026年,美国建筑业全行业短缺34.9万名技术工人,41%的现有劳动力将在5年内退休。 这些在工地上摸爬滚打几十年的「活字典」,即将带着无法计量的知识离开。 如何保留即将消失的「经验库」? 建筑业的答案正在迅速转向:用AI克隆老师傅,用智能体替代部分人力。 建筑业管理软件提供商Procore在2025年推出了多款AI智能体。Log Agent(日志智能体)能够实时将语音转为结构化日志。 建筑工地上,工地现场总监一边开车巡视工地,一边对着手机说话。他不必回到办公室,也不必面对电脑屏幕。工地管理者的时间,有30%被文书工作占据,而AI正在解放这部分生产力。 佛罗里达州的Kaufman Lynn建筑公司则使用编制Procore的智能体编写月度进度报告。 之前,这个工作需要翻阅近12个不同工具的数据,耗时6-8小时。现在,他们用Procore技术构建的智能体,能自动提取、格式化并生成报告,整个过程只需几分钟。在这里,AI扮演了协同连接者,它打破设计、施工、运维之间的信息孤岛。 过去,项目经理要找到「3号会议室防火墙的防火等级要求」,可能需要翻阅几天文档。Procore的Assist工具正在改变这一现状。 它像是一个「建筑领域的ChatGPT」,能够理解自然语言问题,并在海量文档中秒级找到精确答案。这种能力背后,是大语言模型对专业知识的深度理解。 而Agent Studio将允许用户无需编写代码即可定制 Agent 以满足其独特的项目需求。 这款工具使承包商能够为其业务定制 AI自动化工具,这将开启一个手动流程被可信赖的定制 AI 代理替代的新效率时代。 用AI「克隆」30年工龄的老工长? 建筑公司Skanska面临着一个行业内普遍存在的难题:一批建造了无数体育场的资深专家即将退休,他们脑中积累的数千个安全决策案例、数万小时的现场经验如何传承? 对该问题,Skanska决定建立了一个AI安全智能体,这个智能体接受了三重训练: 政策与程序库:数千份由资深安全领袖创建的正式文档 最佳实践集:成功项目中的具体操作案例 决策逻辑链:专家们在面临具体问题时的思考过程和反馈 「我们已经有非常完善的机制来捕获整个业务中项目团队的成功故事、最佳实践和经验教训,因此生成式AI成为我们解锁这些知识的新方式。」Skanska前期建造高级副总裁Will Senner解释道。 AI智能体能新员工将数据转化为可操作的洞察,当新员工面对类似安全问题时,AI能像老师傅一样提供建议。 这相当于在构建一个永不退休的数字导师。 历史上,建筑业中的从业经验多只存在于那些经验丰富的员工的头脑中。AI的引入倒逼行业进行知识管理的系统性变革。 现在,公司必须「与专家坐在一起,请他们让这些数据对系统和其他员工更加可见」。这个过程,实际上是在将隐性知识显性化,将个人经验系统化,将偶然成功可复制化。 从「进度追踪」到「人才匹配」, AI重塑建筑全链条 国际数据公司(IDC)的调查揭示,欧美60%的建筑公司已在某种形式上使用AI,不过主要集中在大型企业。IDC分析师Jeff Hojlo表示,许多较小的建筑供应商仍在进行数字化改造,几年前才刚刚转向云端。 除了AI智能体,还存在着一个包含更大范围的,正在快速形成的建筑AI生态矩阵。 AI Clearing和OpenSpace利用计算机视觉技术,通过无人机航拍和现场图像,实现对工地进度的毫米级追踪。有了基于视觉数据的精确计量,哪个区域浇筑延迟了?哪部分钢结构安装进度落后?系统就能自动识别并预警。 另一家初创公司Skillit正在用AI解决建筑业的「人岗匹配」难题。 建筑工人的技能千差万别,有的擅长钢结构,有的精通混凝土浇筑;项目需求也各不相同——数据中心需要防静电专家,医院建筑需要洁净室专家。 Skillit的AI能理解技能与需求的微妙匹配,将合适的工人快速匹配到合适的岗位,减少「有活没人干,有人没活干」的结构性矛盾。 Procore最新推出的Insights解决方案代表了AI在建筑业的另一个方向:从「事后记录」到「事前预测」。 该系统能分析项目中的提交材料与日志,基于历史数据预测潜在风险,并推荐缓解措施。这就像为项目经理配备了一个「风险雷达」,在问题发生前就能看到预警信号。 现场安全员拍下一张脚手架照片,上传到Procore Assist的Photo AI功能。系统能在几秒内分析出:脚手架是否缺少必要的横杆?安全网安装是否符合规范?是否存在材料堆放不当的风险? 一图胜千言,AI的引入将安全检查从「定期巡检」升级为「持续监控」。 下一次当你路过建筑工地,看到的可能不只是钢筋水泥,还有一个由数据驱动、由智能体协调、由人类与机器协同建造的未来正在从蓝图变为现实。 建筑行业该如何拥抱AI 上述工具,都来自欧美,而国内建筑行业对AI的使用,大多与设计相关,缺少能在工地使用的,专注安全和管理的垂直类AI工具。 在建筑行业人力成本占比变大,工人老龄化的现实下,国内也需要有类似的工具,来帮助土木建设从业者更安全,更高效地确保建筑质量。 建筑行业的传统是「眼见为实,经验为王」。 一位有着30年经验的工长,很难相信一个「算法」能比自己几十年的现场经验更可靠。这种基于经验的信任与基于数据的信任之间的鸿沟,是AI在建筑业普及的最大障碍。 AI的能力取决于数据的质量。建筑现场的数据往往是不完整、不一致、非结构化的。如何将手写笔记、模糊照片、口头指示等转化为AI可理解的「干净数据」,是构建建筑业AI工具所必需的前期投资。 未来,随着全项目生命周期的智能决策,AI将能跑通安全审计全流程。实现工作流的端到端自动化。 AI甚至将能基于历史数据预测项目延误概率、优化资源分配、自动协调设计与施工矛盾。这意味着建筑业也将迎来「数字孪生」,在实际动工前,在虚拟世界中完成项目的模拟、优化和问题解决。 但无论如何,AI智能体不是用AI取代工人,而是在增强工人。 无论哪种智能体,其定位一直是「副驾驶」,它会处理重复性任务、提供决策支持、进行风险预警,但下最终的判断的权责仍然在人类手中。 土木老哥的工作没有被抢走,他们只是得到了一群不知疲倦、过目不忘、全天在线的硅基助手。
车内清一色大屏快看吐了!新国标拟增加汽车实体操纵件相关要求
快科技2月15日消息,据新华社报道,工业和信息化部装备工业一司组织全国汽车标准化技术委员会开展了《汽车操纵件、指示器及信号装置的标志》强制性国家标准的修订,已形成征求意见稿,近期公开征求意见。 文件明确提出转向信号灯开启/关闭、车窗升降、组合驾驶辅助系统激活等应装备实体操纵件,具体来看: 灯光类:转向灯、危险警告灯(双闪)、喇叭; 挡位类:P/R/N/D 挡(禁止纯屏幕换挡); 驾驶辅助:组合驾驶辅助系统(智驾)激活开关; 安全/应急:雨刮、除霜除雾、车窗升降、紧急呼叫(AECS)、电动车断电开关。 同时还公布了实体件技术要求(关键细节),如尺寸(有效操作面积≥ 10mm*10mm)、可用性(固定位置、可盲操、有触觉/听觉反馈)、可靠性(车机死机/断电时,基础功能仍可用)。 据悉,本次修订新增实体操纵件类型和技术要求,旨在提升行车安全,保证行车过程中关键操纵件可达、可用、基本可盲操,使驾驶员不过分依赖视觉即可感知操纵件的触发结果,减少显示屏造成的分心,进一步保证操纵件的可靠性和操作的有效性。 征求意见中,预计2026年7月1日起对新生产车辆强制执行,但已售车型无需整改,正常使用即可。
春晚首用手机竖屏直播,央视官宣华为Mate80系列接入广播级系统
IT之家 2 月 15 日消息,中央广播电视总台春节联欢晚会官方微博宣布,将首次使用手机竖屏直播,华为 Mate 80 系列机型拍摄的舞台画面接入广播级系统,参与竖屏直播信号制作。 华为 Mate 80 系列手机此次影像相较前代提升较大,参考IT之家此前报道,去年 12 月举行的鸿蒙星光盛典就曾使用 13 台搭载了鸿蒙系统的 HUAWEI Mate 80 系列手机,全程参与盛典全要素彩排的竖屏录制。结合此次春晚安排来看,彼时的 Mate 80 录制《鸿蒙星光盛典》或为今年春晚直播的预演。 去年 11 月,华为 Mate 80 系列手机的影像首秀。华为终端官方在微博分享了第 38 届中国金鸡百花电影节宣传片暨开幕短片 ——《奔赴光影》,该片由第 38 届金鸡奖最佳导演 @戴墨Damon 执导,使用华为 Mate 80 系列拍摄。 另外,本月早些时候(2 月 5 日),华为终端官方提前数小时放映了马年新春贺岁手机电影《木马》,本片时长 9 分 50 秒,也是全程用 Mate 80 系列手机拍摄。 作为参考,华为 Mate 80 系列手机发布于去年 11 月,支持 5A 速度,首发麒麟 9030 / Pro 系列处理器、第二代红枫影像。其中,华为 Mate 80 Pro Max 搭载 17.5EV 超高动态主摄(5000 万像素 1/1.28" 大底 F1.4-F4.0 十档可变光圈 RYYB)、超广角摄像头(4000 万像素 F2.2 RYYB)、4x 光学微距长焦(5000 万像素 F2.1 大光圈 OIS RYYB)、6.2x 光学超长焦 + 12.4x 光学品质变焦(5000 万像素 F3.2 OIS RYYB)。
几天手搓的Claude Code拓麻歌子火了:成本几乎为0,一句话做硬件时代来了
1996 年,一家日本公司推出了 Tamagotchi(电子宠物)。这个小小的蛋形塑料设备风靡全球,成为一代人的童年记忆。 1997 年,拓麻歌子(Tamagotchi)还让它的创造者日本万代公司,获得了当年的搞笑诺贝尔经济学奖,而原因是, 他们创造了人类供养虚拟宠物的新型经济模式,成功转移了数百万人的工作时间,用于饲养虚拟宠物。 去年八月,万代公司表示,拓麻歌子从 1996 年以来,产量已经达到了一亿台。在那个时代,生产一款这样的产品,大概需要一个工业设计团队、需要电子工程师设计电路板、需要长达一年的开发周期…… 2026 年,一个开发者用 AI 做了一个 Tamagotchi。他需要的只是一台电脑和 Claude Code。成本接近零,开发周期可能只有几天。 这个最新的 Claude Code 版拓麻歌子,最近在 X 上吸引了一大波网友的关注。 ▲视频来源:https://x.com/SamuelBeek/status/2022614292411940897 网友把命令行里面跳动的 Claude Code 符号,转到了能够触摸得到的、随身携带的拓麻歌子上。当 Claude Code 在命令行里面思考,或者是问,是否同意执行下面的步骤时,手里的拓麻歌子都会弹出消息来,指示我们下一步操作。 电子宠物成精了,还会拦截 Bug 和以前那些 AI 硬件的逻辑不同,Claude Code Tamagotchi 不是一味的把大模型放到布娃娃、手表、闹钟、书包、甚至是马桶里。 这个 Claude Code 拓麻歌子要做的是一种转移,一种无法被替代的存在。 目前已经有多款不同的 AI 拓麻歌子小玩意,其中关注度最高的由开发者 Ido Levi 创建的 Claude Code Tamagotchi。 ▲视频来源:https://www.instagram.com/reel/DUMAlN7Dpx7/ 乍一看,它就是一只住在终端里的像素风格宠物。有一些简单的表情、有状态、还会对用户的行为做出反应;但它不是一个简单的怀旧游戏。 当我们在用 Claude Code 编程时,放在桌子边上的这只宠物,会一直在你的终端界面中显示。它在观察 Claude Code 的每一个操作,确保这个 AI 助手真的在按照我们的意图工作。 如果 Claude Code 表现良好,宠物会开心地摇尾巴。如果 AI 开始不听话,比如未经允许重构代码,或者修改了你明确说不要动的文件,宠物会变得暴躁,甚至会直接中断 AI 的操作。 ▲项目地址:https://github.com/Ido-Levi/claude-code-tamagotchi 目前,Claude Code 拓麻歌子这个宠物项目,已经在 GitHub 上开源,我们也可以直接把这个电子宠物部署到自己的 Claude Code 里面。它具体是如何工作的呢,根据作者对项目的介绍,举几个例子来说明一下。 项目主打的就是「实时监控」,当我们直接对 Claude Code 说,「只修复这个 bug,不要动其他文件。」 Claude Code 开始工作,终端里的宠物睁大眼睛盯着看。几分钟后,Claude Code 完成了修改,只改动了目标文件。 这个小宠物就会开心地摇尾巴: (◕‿◕)。 而当这个小宠物检测到违规时,他还能发出「违规警告」。我们明确告诉 Claude Code 说,不要重构,保持代码原样。但 Claude Code 还是开始重构整个模块,可能它觉得这样代码会更优雅。 这个时候,电子宠物的表情变了: ;屏幕上还会显示,「 警告:AI 正在违背你的指示」。 除了提示,它也能实际的做一些越界拦截之类的工作。比如我们给出的指令里面非常明确的提到了,千万不要动数据库。Claude Code 在修复一个相关 bug 时,尝试修改数据库。 小宠物就会立即中断: 操作被阻止。Claude Code 的操作被拦截,我们的数据库安然无恙。宠物露出得意的表情: 。 这种从软件到硬件的交互,也让我想到了我们之前分享的 Vibe Coding 小键盘。 这几天,在 X 上还有一个硬件版 Cursor 特别火。目前的 Cursor 是专门用来开发软件产品的工具,而这个 Cursor for hardware 就是用来实现,一句话做一个硬件设备。 ▲ 为硬件开发设计的 Cursor,地址:https://www.schematik.io/ 网友 marcvermeeren 就用这个工具,搭建了一个叫做 Clawy 的可爱小助手,用来管理他的 Claude Code 对话。 还有网友 dspillere 也做了一个类似的产品,他说虽然已经部署了 OpenClaw,但他完全不知道 OpenClaw 什么时候在思考,什么时候在执行任务。这个小巧的桌面助手就应运而生,放在他的桌子上,可以实时的更新 OpenClaw 的最新信息。 ▲视频来源:https://x.com/dspillere/status/2018752036968304660 在评论区里,大家都在问什么时候发货,可以去哪里买。也有人说,这是一个全新的领域,我们一直在关注人的状态,关注人类的电子使用记录,是时候应该关注 Agent 的情况了。 ▲Agent 的物理反馈是一个被严重低估的用户体验问题 软件开发的 AI 红利,终于轮到硬件了 去年,我们还在想 AI 最好的软件载体是什么,是大家都在做的对话框,还是连 OpenAI 都一窝蜂涌进去要重做的浏览器,但最后证明都不是,今年 OpenClaw 的爆火,证明了 AI 在软件上,最终的归宿就是 Agent。 关于硬件的讨论就更不用多说,光是今年 CES 上那些让人哭笑不得的发明,就能看到 AI 硬件这块还是个巨大的未知数。 如果说 Agent 的成功是靠着「人人都能做软件」慢慢成长起来的,那么 AI 硬件也会在「人人都能做硬件」里面,不断沉淀。 ▲Schematik 的发起人 Samuel Beek,现为 VEED.io 首席产品官 像 Schematik 这类工具已经设计出来,用来帮助我们更快开发 AI 硬件。它把硬件设计变成了和网页开发一样,我们只需要用自然语言描述硬件需求。告诉 Schematik 想要构建一个「带温度传感器和 OLED 显示屏」,不需要查阅各种数据表,不需要引脚编号、元件代码或任何的手动查找。 过去,如果我们想做一个简单的「温湿度监测器」。需要做的是, 搜索传感器型号,下载 DataSheet。 确认引脚定义(VCC 是接 3.3V 还是 5V?接反了直接冒烟)。 寻找对应的驱动库,处理版本冲突。 在 Arduino IDE 里写代码,改 Bug。 而 Schematik 的出现,把这个过程极简化成了「一句话的事」。几秒钟后,Schematik 会吐出我们需要的一切。完整的、通过验证的固件代码;一份清晰的接线图;分步组装指南。 它生成的接线图,清晰地展示了每一根线该从哪里接到哪里,解决了新手最大的恐惧,「我这根线接对了吗?」。一键部署的功能,更是一步到位,它能直接生成基于 PlatformIO 的工程文件,直接导入。 PlatformIO 是一个强大的嵌入式开发生态,我们可以直接在 Schematik 里点击「Flash」,固件就会被编译并烧录进板子里。从「我想做一个东西」到「这东西跑起来了」,中间可能只需要不到一分钟。 前段时间,Claude 发布的 Cowork 以及相关企业级 AI 插件重挫软件股,直接蒸发人民币约两万亿。以前我们想要一个 P 图工具,需要去应用商店搜索下载安装,现在,一句话自己都能做一个。 但 Claude Code Tamagotchi 这类产品的出现,还有硬件版 Cursor,让我们不得不怀疑,硬件开发的「Cursor 时刻」是不是也要来了。 未来的硬件开发,或许也会变成,只需要我们提供「创意」和「逻辑」,剩下的脏活累活,无论是写代码还是画电路图,都将由 AI 代劳。 也许这样的未来不会很远。但更重要的是,在这个时代,动手能力的定义已经变了。 以前动手能力强是指一个人会焊接、会画板子、会写代码;以后,动手能力强,是说他擅长用 AI,从从容容、游刃有余地指挥原子和比特为他起舞。 我已经想到了,下一个爆火的 AI 硬件,甚至可能会是一个挂在包上的 OpenClaw 版 Labubu。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。