EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
马斯克万亿薪酬悬了?特斯拉主要投资者表态反对
马斯克 凤凰网科技讯 北京时间11月4日,据《华尔街日报》报道,挪威主权财富基金反对特斯拉CEO埃隆·马斯克(Elon Musk)的新1万亿美元薪酬方案,成为首个公开表态的主要投资者。 挪威央行投资管理公司负责管理1.9万亿美元基金,它在周二对马斯克薪酬方案的规模表示担忧。 “虽然我们赞赏马斯克的远见为特斯拉创造的巨大价值,但我们对薪酬总额、股权稀释效应以及缺乏降低关键人物风险的措施表示担忧,这与我们在高管薪酬问题上的立场一致。”挪威央行投资管理公司表示。 根据金融信息公司FactSet的数据,挪威央行投资管理公司持有特斯拉1.2%的股份,是仅次于先锋领航集团、贝莱德等机构的第六大机构投资者。该公司也是首个披露投票意向的主要机构投资者。 周四,特斯拉将召开年度股东大会,并公布多项提案的投票结果,其中包括马斯克的薪酬方案。根据该方案,如果马斯克在未来十年内将特斯拉的市值提升至8.5万亿美元,约为当前市值的近八倍,他将额外获得12%的公司股份。在这一市值水平下,该薪酬方案的价值将略高于1万亿美元。 另外,股东们还将就董事会成员的连任以及一项股东提案进行投票。该提案要求特斯拉董事会投资马斯克的AI创业公司xAI。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
重组、谋上市,OpenAI更自由了
近几日,AI圈最受瞩目的公司OpenAI,接连释放出令资本兴奋的消息。 据财联社报道,有市场消息称,OpenAI正筹备首次公开募股,此次IPO对该公司的估值或高达1万亿美元。有望缔造史上规模最大的IPO。 报道还援引了业内人士透露的消息,OpenAI正考虑最早于2026年下半年向证券监管机构提交上市申请,初步讨论中的融资规模至少600亿美元。 OpenAI CEO山姆·奥特曼否认了明年上市的消息,他认为上市是公司发展中的自然阶段,但目前并非优先事项。上市没有具体日期,2027年上市或许会更好。 在此之前,OpenAI刚刚宣布完成架构重组,将各投资方的投资转换为普通股,解除了此前在财务回报上限的潜在限制。 同时,OpenAI与微软的关系也发生了变化,双方将从“深度绑定”转向“自由合作”的阶段,双方也可以与其他公司进行合作。 通常情况下,一家技术基本功扎实、倍受资本青睐的科技公司谋求上市,本应是十分顺利的事。 但OpenAI的情况有所不同。其在成立之初就是一家纯粹的非营利机构,强调不以盈利为约束,专注做长期、高成本的基础研究。 因此在OpenAI成立的这十几年中,只要公司尝试商业化动作,就会引发市场担忧。 但作为一家以AGI为目标的公司,OpenAI需要付出的资金数额是庞大的。坚持理想主义重要,但赚钱保持持续的研发投入和对高算力的支撑也是必然选择。 OpenAI重组后,将不再是单纯的非营利组织,而是通过双层架构平衡商业与公益目标。它将继续由非营利组织控制。而现有的营利性业务将转变为一家公共利益公司,非营利组织将控制该公共利益公司。 此外,若OpenAI完成上市,也将会为微软、软银等早期的投资者带来丰厚回报。 不过,一边是非营利组织的使命,一边是日益增加的资金压力,重组的OpenAI能否真正按照市场期待的方向行走,还有待验证。 OpenAI完成重组,与微软关系变了 OpenAI早就开始策划这场重组了。 去年年底,OpenAI就曾宣布将在2025年转型为一家营利性公司,新架构将由其营利部门掌控。 然而,或许对于OpenAI而言,从非营利变为全面营利的性质很难,这场重组自宣布计划后就一直悬而未决。直到今年5月6日,OpenAI宣布放弃全面营利性转型,改为公司继续由非营利母公司控制,但将现有的营利部门改造成公共利益公司,也就是说,它选择了PBC模式。 据了解,PBC是一种既能盈利、又能兼顾社会公益的组织架构。OpenAI的发言人Steve Sharpe此前还表示,OpenAI转型为PBC后,将取消利润上限结构,PBC将采用传统的资本结构,允许员工、投资者和非营利组织直接持有股权——重组瞄准了更大的利润空间和上市。 根据微软披露的协议,此次重组完成后,OpenAI的非营利实体已更名为OpenAI基金会,并持有约1300亿美元的营利部门股权。OpenAI的营利部门则改制为一家公益性公司,名为OpenAI Group PBC。 图源OpenAI官网 作为OpenAI最大的投资者,微软在此次重组后的持股比例以及与OpenAI未来的合作模式也受到市场关注。 双方的合作始于2019年,彼时微软向OpenAI投资了10亿美元。 根据当时的协议,微软向OpenAI提供包括现金和Azure云计算资源在内的总计10亿美元,用于支持OpenAI的研发和模型训练;OpenAI则要将其服务迁移至微软Azure云平台,微软将成为其独家云提供商。 此外,微软拥有OpenAI技术的独家使用权,并从OpenAI的收入中获得20%的分成,协议有效期至2030年。 但随着时间的推移,颠覆性产品ChatGPT的推出让微软与OpenAI的江湖地位水涨船高,双方在投资与回报、知识产权的独家使用权上逐渐产生分歧,随后进入了一段相互博弈的阶段。 OpenAI想要完成重组,也必须与微软达成共识。 而随着这次重组完成,双方的关系也经历了一次重构。 根据微软公布的合作条款,公司将持有OpenAI营利实体OpenAI Group PBC 27%的股份。 该协议还称,若OpenAI宣布实现AGI,需由独立的专家小组核验,确保结果的客观性与可信度;微软对模型和产品的知识产权使用权从2030年延长至2032年,其中还包含了AGI实现之后的模型。 微软对OpenAI计算服务的优先选择权也被解除了,但前提是,OpenAI将额外购买价值2500亿美元的微软Azure云服务。 摩根大通认为,这份协议是“一套合理的妥协方案”。微软获得了长达7年的技术授权保障和巨额云计算订单,而OpenAI则赢得了与第三方合作的灵活性和向营利性实体转型的空间。 图源微软官网 从如今OpenAI的股权结构来看,OpenAI基金会将持有OpenAI Group PBC 26%的股权,现任及前任员工与投资者合计持有OpenAI Group PBC 47%的股权,微软持有OpenAI Group PBC 27%的股权。 OpenAI基金会虽然只持有OpenAI Group PBC约26%的股权,但独家拥有的特殊投票权和治理权,可以任命OpenAI Group董事会的所有成员,并可以随时更换董事。微软虽然持有OpenAI Group PBC约27%的股权,但只享有分红权,无法参与OpenAI日常决策。 总体上看,OpenAI此次完成重组,是完成了真正意义上的转型,其不仅打开了资本市场的大门,还明确了战略方向、外部合作、内部结构等问题,同时获得了一个更开放的研发空间。 谋求上市不意外, OpenAI也在学着赚更多钱 OpenAI会谋求上市,并不让市场感到意外。 在技术的领先性上,OpenAI的优势有目共睹,再加上OpenAI如今高达1万亿美元的估值,如果完成上市,早期的投资者都将获得丰厚回报。 就如英伟达CEO黄仁勋曾说,“我希望早些时候我们能投入更多。如果你告诉我OpenAI将于明年上市,我不会感到惊讶,从很多方面来看,我认为这可能是历史上最成功的公开募股之一。” 但由于成立之初的定位——非营利组织,将OpenAI圈定在了一个难以灵活融资的框架内,而GhatGPT一方面给OpenAI带来了收入的暴涨,另一边需要投入的算力和研发成本也在持续飙涨。 关于OpenAI究竟多赚钱,也是外界极为关注的问题。据财联社报道,根据OpenAI向股东提交的财务报告,它在2025年上半年的营收约为43亿美元,比去年全年营收高出约16%。 同时,上半年该公司的亏损达135亿美元,其中很大一部分原因是用于研发人工智能以及运行ChatGPT的相关费用。 对于今年的展望,这份报告写道,OpenAI有望实现其全年130亿美元的营收目标、以及85亿美元的现金消耗目标。 关于这个营收数据,近期,投资者兼播客主持人布拉德·格斯特纳(Brad Gerstner)询问奥特曼,目前年收入仅有130亿美元的营收水平下,OpenAI 如何能够承担投资1.4万亿美元用于基础设施建设的承诺。而奥特曼回答说,“我们的实际营收远超这个数字”。 OpenAI究竟赚了多少钱,显得依然神秘,但可以确定的是,它的成本很高,大量的研发投入,注定了它要接受可能亏损的境况。 随着公司AI技术的不断进化、研发投入的进一步加大,OpenAI需要的资金越来越多,其早就在想办法获得更多的资金了。 2019年与微软建立合作的契机,实则就是源于OpenAI的资金不足。 彼时,特斯拉创始人马斯克刚刚退出OpenAI,为了获得更多的投资,解决资金不足的问题,OpenAI才创立了一个营利性的子公司——OpenAI LP,隶属于非营利组织之下,用以筹集投资资金并以初创公司的股权吸引人才。 但为了保证不盲目追求利润,OpenAI在彼时还设计了一套“利润上限限制”——第一轮投资者的回报上限为其投资金额的100倍,任何超出这个数额的回报都归原来的非营利组织实体所有。 与2019年的这次变革一样,OpenAI如今的重组也是为了能够更自由,包括谋求上市,获取更多样化的资金来源。 OpenAI也在想办法赚更多钱。 据了解,自2022年推出ChatGPT以来,这款火爆全球的产品都是OpenAI的收入核心,用户订阅费、API许可费、与微软深度合作所产生的商业化收入,构成了OpenAI三大主要收入渠道。 提高定价是最直接的赚钱方式。今年2月,OpenAI发布了被市场称为是最贵GPT——GPT-4.5,API价格为每百万Tokens 75美元,比GPT-4o的2.5美元上涨30倍。 另据新浪科技援引业内媒体的测算,相比DeepSeek的正常价格,GPT-4.5输入价格达到280倍。 此外,OpenAI还曾尝试在人工智能产品中引入广告、开发一个人工智能驱动的搜索引擎等等。 今年1月,OpenAI推出智能体Operator,其拥有推理以及联网自主执行任务的能力,用户只需向其发布任务,就能实现网购买菜以及订酒店等功能。 OpenAI还做起了电商生意。今年4月,其进一步宣布ChatGPT内置购物功能,用户可以跳转至外部链接购买商品。 今年9月,ChatGPT上甚至还可以付款了,其上线了基于Stripe的即时结账功能。用户可以直接在GPT站内完成搜索、挑选商品、下单支付等一系列操作。 据了解,OpenAI在ChatGPT平台已整合了包括信用卡、Apple Pay等在内的多种主流支付方式。 当ChatGPT变成了一个电商支付入口,OpenAI就可以在付款的过程中收取部分费用,这也为其提供了一些商业化的新可能。 因此,在实现AGI之前,OpenAI还需要巨量的资金支撑自己的算力与研发成本,谋求上市与商业化都是迫在眉睫的事。 资本市场将如何看待OpenAI? 对于嗅觉敏锐的资本市场而言,OpenAI过去的成绩就足够亮眼。 其开发出现象级产品ChatGPT,几乎是全球用户接触和理解AI大模型的第一入口,说它是掀起全球大模型之战的主要推手也不为过。 时至今日,ChatGPT仍然在后续的迭代中,在模型迭代速度、自然语言处理、内容生成等方面持续坐稳行业标杆的位置。 例如不久前的8月,OpenAI刚刚发布了GPT-5,新版本上线后,在大模型竞技场实时排行榜LMArena榜单中的所有细分类目中,都排到了第一的位置。 OpenAI的另一款产品Sora成了继ChatGPT后又一颠覆之作。这款AI视频生成应用在发布首周的iOS下载量就达到了62.7万次,超越ChatGPT首周60.6万次的下载量。 Sora的出现,展现出的是AI理解物理世界和生成连贯、高质量视频的潜力,预示着人工智能将对影视、广告、游戏、教育等众多行业产生颠覆性的影响。 Sora 2也在不久前完成了一次更新。从10月16日开始,Sora的Pro版用户可以在网页端使用“故事板”;所有用户均可在App、网页生成最长15秒的视频,Pro用户则可在网页端生成最长25秒的视频,相比此前没有更新的版本,标准版生成时长增加了5秒,Pro版增加了10秒。 此外,Sora 2在拟真视频效果上也比Sora拥有了明显提升,还新增了音频生成能力。用户可以通过一次性录制自己的视频和语音来完成身份验证,然后在生成的视频中“客串”自己或他人。 创造力是资本选择押注科技类公司的关键因素,更何况是一家屡次开发出划时代产品的公司。 在技术的支撑之下,市场中大多是对OpenAI商业化潜力的认可。 理论上,从AI大模型衍生出来的商业化机遇可以服务各行各业。例如在企业办公与生产力方面,ChatGPT可以应用于文档生成、代码补全、会议纪要、智能客服等方面;在金融服务中可以完成风险评估、报告撰写等工作。 在健康医疗、游戏娱乐,以及日益火爆的智能硬件行业,OpenAI开发的产品都将有机会与这些领域的企业建立合作关系,实现商业化落地,甚至形成技术壁垒。 此外,2025年还被称为是AI Agent元年,OpenAI也发布了Agent产品——ChatGPT Agent。 OpenAI计划将AI Agent作为未来的核心增长引擎,预计到2029年Agent业务收入将达290亿美元,占总收入近四分之一。 在放出重组消息后的直播中,山姆·奥特曼曾计划,OpenAI将在2026年实现“AI研究实习生”,在2028年实现全自动AI研究员。 也就是说,未来OpenAI的技术很可能让AI拥有独立学习和研究的能力。 OpenAI CEO 山姆·奥特曼,图源OpenAI官网 基于OpenAI的发展潜力和技术能力,市场中的多数声音对于重组后OpneAI的发展持积极看法。 例如纽约 B Riley Wealth 公司首席市场策略师阿特・霍根表示,OpenAI与微软的这份协议“显然是当下的潮流之举。”他还称,在过去的几周中,很多与OpenAI的相关方都纷纷表态,说明自己将如何与OpenAI展开合作。这种趋势往会产生自我实现的效应。 只不过,OpenAI身上的商业化潜力吸引着大量投资的注入,也增加了人们对AI的一些担忧。 伯恩斯坦公司(Bernstein)的分析师Stacy Rasgon在10月6日的报告中写道:“(OpenAI首席执行官萨姆·奥尔特曼)有能力让全球经济崩溃10年,也有能力把我们带到应许之地,目前我们还不知道哪种情况会发生。” 也有业内人士为重组后OpenAI内部的话语权体系感到担忧。 非营利组织Latino Prosperity首席执行官奥森·阿吉拉尔表示:“目前(OpenAI)的安排仍无法确保真正的独立性或对公众负责。”据了解,该非营利组织是EyesOnOpenAI联盟的成员之一,该联盟一直致力于反对OpenAI的这次重组。 除此之外,大众对于OpenAI产品的意见也不小,这一点从OpenAI官宣重组后的直播中就可以看出。 彼时就有用户提出了“OpenAI一边警告技术会让人上瘾,一边又让Sora模仿TikTok,ChatGPT还可能加广告”、“你们的安全理念,就是骗用户?实际用的什么模型根本不知道”等比较尖锐的问题。 在争议中前行,是OpenAI长期要面临的境况。未来,OpenAI要如何守住初心、突破技术瓶颈?它要在市场的检验中,不断寻找答案。
IPO前夜互掐,一场价值超90亿元的口水战
摘要:路演PPT成首发子弹,CFO深夜檄文回击,全方位的正面交锋,只为争夺一张宝贵的资本门票。若全额行使超额配售,二者此次募资至多合计超90亿元。 凤凰网科技 出品 作者|林苑 编辑|赵子坤 公开活动远程互怼已经是“车圈传统”了。 前有何小鹏与余承东就AEB系统隔空交锋,后有智己汽车发布会误标小米汽车参数。如今,这场“PPT之战”再次升级,主角换成了两家即将登陆港股的自动驾驶明星公司——小马智行与文远知行。 事件起因是,小马智行在近期一场面向香港投资人的路演中,使用了一页PPT进行友商对比,其中将文远知行的开放运营城市仅标注为“北京”,订单量则标注为“零”。 这一举动迅速引燃战火。文远知行CFO李璇连夜发文,声称要正面回应小马的“虚假指控”,并就运营区域、运营数据、技术实力及技术路线逐一进行驳斥。她直言不讳地指出:“小马的行为已经超过正常竞争范畴,有片面不实、刻意贬低的表述。” 两家同样定于11月6日(本周四)冲刺港股的智能驾驶头部玩家,在上市前夕的敏感时刻“互扯头花”,显然并非简单的意气之争。 争的是规模,更是技术路线的“正统” 李璇的长文回应看似情绪化,但双方争夺的核心无非两点:数据规模与技术路线的先进性。这恰恰是自动驾驶行业估值的关键基石。 开放运营城市、车队规模、全球布局……这些表面指标最终都指向同一个核心数据——车队行驶的总里程。 为何里程如此重要?一位资深智驾从业者向凤凰网科技解释,智驾训练依赖两大类高质量数据:一是复杂路况信息,二是人类司机在对应路况下的正确操作。这些数据被源源不断地“喂”给机器进行学习。因此,车队跑的里程越多,捕获的有效数据就越丰富,算法迭代的燃料就越充足。 但从公开数据看,小马智行与文远知行在总里程上处于同一量级:小马智行招股书内总行驶里程为4860万公里;文远知行官网显示的总里程超4000万公里,不过在最新招股书内,这一数字改为了5500万。 这意味着,无论双方在布局细节上如何争执,从最终的结果——行驶总里程来看,两者实力在伯仲之间。 李璇回应的另一个重点,直指技术路径。她强调,文远知行与博世、奇瑞合作的“一段式端到端”方案已实现量产,并以此反驳小马智行称其仅有“两段式”技术的说法。同时,她反将一军,指出“小马智行L2+项目没有量产”,暗示其宣称的“完全端到端”缺乏落地支撑,恐成笑谈。 争论的焦点在于,谁真正掌握了更前沿的“端到端”技术。 “端到端”由马斯克在2023年力推,被视为自动驾驶的下一代解决方案。该路径要求技术团队进行重组,特斯拉为此曾裁撤FSD的规控部门,将团队整合为“单模型+数据工程+云端训练”的新架构。 此后,“端到端”成为行业追逐的技术共识。一位国内头部大厂的智驾算法工程师向凤凰网科技透露,其团队在保留原有业务的同时,也已另组团队进行“端到端”研发。 对于小马智行和文远知行这类技术驱动型公司而言,能否跟上最前沿的技术潮流,直接关系到其创新形象和市场估值。因此,这场口水战的核心,是两家公司在上市前对自身技术“正统性”和领先地位的激烈捍卫。 图|来源阿斯达克财经网 还没到抢蛋糕的阶段 两家公司的交锋并非首次。同为百度系出身的创业公司,文远知行和小马智行面临着相似的叙事困境:Robotaxi(自动驾驶出租车)商业化进展缓慢,而L2+辅助驾驶市场早已是一片火海。 它们的早期路径高度重合:聚焦L4,推进Robotaxi试点,从一线城市向外拓展。大家比拼的是速度,看谁能最先突破技术、量产和商业化的瓶颈。 然而,自动驾驶的快慢,技术并非唯一决定因素。政策,才是看不见的天花板。 政策的影响有多大?从美国自动驾驶独角兽Waymo的经历可见一斑:其Robotaxi行驶总里程从2023年底的714万英里,猛增至今年6月的9600万英里,一年半时间增长超过13倍。这背后,是美国多个关键地区对自动驾驶政策的显著放宽。 也就是说,自动驾驶的行驶里程能“跑多少”,得看政策“放多少”。但政策推动的话语权不完全掌握在企业手上,除了技术本身,舆论、伦理、消费者接受程度都是政策每走一步需慎重考虑的因素。 去年5月,百度发布了全球首个支持L4级自动驾驶的大模型Apollo ADFM,并同步上新了第六代无人车,但在武汉试运行期间遭到大规模投诉,国内Robotaxi的落地进展也显著放缓。 文远知行和小马智行原本押注的是,抢占先发优势,做市场上最先实现技术突破的供应商,再找到买家。 但随着技术壁垒的降低,加上政策开放的缓步前行,使得Robotaxi的规模化迟迟难以实现。“当前Robotaxi仍依赖重资产,需要逐城争取政策批准,是个‘慢功夫’,很难在短期内出现赢家通吃的局面。”清华大学汽车系博士张抗抗对凤凰网科技表示。 当技术优势不再绝对,商业化路径又充满不确定性时,两家公司不约而同地尝试向L2+市场寻求出路。但这里早已强敌环伺:前有华为这样的科技巨头,后有Momenta等更聚焦的创业公司,同时还要面对各大车企全力推进自研的竞争压力。 最终,两家公司都陷入了相似的尴尬:作为技术供应商,无论是Robotaxi的运营平台(如滴滴),还是智能汽车的生产方(车企),销路的命脉并不掌握在自己手中。 根据公开数据,2025年上半年,小马智行净亏损6.81亿元,同比扩大约75.07%,文远知行净亏损7.92亿元,同比收窄10.32%。如果将时间拉的更长,小马智行三年半合计亏损34亿元,文远知行三半年合计亏损65亿元,上市,都是为了补充弹药。 境况相似,但资本对二者的偏爱度并不一致,截至发稿,小马智行美股总市值70.82亿美元,文远知行为34.09亿美元。即便上半年文远知行的毛利率约为小马智行的两倍。 据路透社最新报道,小马智行将其香港上市的最终发行价确定为每股139港元,并表示预计本次发行将募集约67.1 亿港元(约合 8.64 亿美元)的总资金,同步确认了5名基石投资者。 在招股书中,小马智行透露道在未来五年内将募资主要集中在两件事:做规模、补研发。从投资现金流的流向来看,今年上半年,小马智行的现金流出暴涨超459.55%,意味着其在购置车辆、设备、算力、基础设施等方面投入激增,已在为下阶段规模化铺路。 文远知行计划在香港发行约8825万股股票,筹资 29.32亿港元的总资金,无基石投资者。今年上半年,文远知行的经营现金流支出同比增长了102%,但投资活动现金流却在下降,显示其轻装上阵的经营态度。 文远知行称,此次募资主要用于自动驾驶技术开发、L4级车队的商业化量产和运营,这也是此前该公司支出的重要方向。 资本喜爱更烧钱的,但前提是,有更坚定的技术路线与清晰的盈利模型。 眼下,自动驾驶赛道远未狭窄到你死我活的程度。文远知行与小马智行的这场“口水战”,更像是L4赛道集体焦虑的一次集中宣泄。在真正的蛋糕做大之前,这场关于规模和技术的较量,或许只是漫长竞赛中的一个插曲。
大厂“血战”咖啡:一杯美式卷到3块9,咖啡豆价格又创新高
蓝鲸新闻11月4日讯(记者 郝妍)今日,中国咖啡行业迎来关键节点——星巴克中国终于敲定了股权合作方。 伴随着“星巴克中国业务60%股权花落博裕”,中国咖啡市场的战争进入新的阶段。 “卷低价”还会是接下来的主题吗?下一个“万店”是谁? 跨界卖咖啡,继续卷低价 咖啡似乎正在成为品牌的标配,不管从事什么行业,卖咖啡都可以成为一个选择。从餐饮品牌到商超零售,再到家电公司,2025年咖啡市场的新玩家越来越多,但似乎依然没有跳脱出“低价”的惯性。 近日,有网友发现专注折扣零售的品牌好特卖也在店内开启“店中店”模式售卖咖啡,根据菜单,延续“折扣”风格好特卖将单杯美式的价格打到了3.9元,最贵单品风味拿铁的价格也仅6.9元。这一价格几乎已经逼近此前“外卖大战”疯狂补贴时的瑞幸、库迪咖啡价格。 除了好特卖这样的折扣店,奶茶品牌布局咖啡的思路也延续了“低价竞争”。10月,奶茶品牌古茗宣布开启为期两周的“全场咖啡2.9元”活动,抢到优惠券的消费者即可购买2.9元一杯的现磨咖啡。 “低价”几乎从2023年开始就成为了中国咖啡市场的主旋律,瑞幸和库迪凭借大额补贴强势争夺市场份额,让“9块9”成为咖啡赛道的标配。 随后,幸运咖作为蜜雪集团旗下现磨咖啡子品牌,和蜜雪冰城一样主攻下沉市场,产品价格带主要集中在6-8元。如今好特卖和古茗们入局,将咖啡的价格再往下打。 但极致低价背后也有隐忧,和咖啡店客单价一路走低不同,原料咖啡豆的价格却一路走高。2025年2月阿拉比卡咖啡期货价格突破每磅430美分,创47年新高,近一年涨幅达118.57%。10月24日,纽约市场的阿拉比卡咖啡期货价格上涨近4%,触及每磅4.36美元,创下新的纪录高位。 在这种趋势下,用低价换规模的策略有可能带来亏损。据每日经济新闻报道,有供应链人士表示:“从成本来看,对于形成规模优势的品牌来说,9.9元/杯的咖啡已经是压低各种成本、仅留微利的价格。” 谁是下一个“万店”? 除了价格之外,“咖啡战争”的另一个标签是“万店”。 中国第一个咖啡领域的“万店”出现在2023年。 2023年6月,瑞幸咖啡在中国市场的门店数量达到10000家,成为中国首家突破万店的连锁咖啡品牌,也成为第五个门店数量破万的本土餐饮品牌,历时不足六年。2024年10月22日,库迪咖啡宣布,在首店开业两周年之际,其全球门店数量突破万家。 截至目前,“万店俱乐部”依然只有这两个玩家,但想要申请加入的却不少。 最接近这一目标的是蜜雪冰城旗下的幸运咖。 据界面新闻7月报道,在幸运咖内部,2025年初就定下了年内破万店的目标。2024年,幸运咖门店数量为4600家。截至10月24日,幸运咖门店总数已超过9000家。 此外,星巴克也在今日官宣中透露“开店计划”,目前,星巴克在中国地区共有8011家门店。该公司仍计划在未来逐步增加到20000家门店。目前,星巴克超过60%的门店位于美国和中国,中国是其全球第二大市场,也是增长最快的市场之一。 除了这些熟面孔,拥有“万店梦”的也有一些跨界选手。 9月25日,在2025京东全球科技探索者大会上,京东宣布入局咖啡赛道,推出“七鲜咖啡”,并启动“三年内开设1万家门店”的合伙人招募计划,拟投入百亿资金。 消费电子及智能制造公司追觅科技也入局咖啡赛道并计划于2025年加速扩张。蓝鲸新闻记者从DM CAFE招商手册中了解到,目前DM CAFE国内重点区域为江浙沪、广东、四川、湖南等16省 / 直辖市,快取店投资为20-30万元,大师店投资约为60-100万元,回本周期在8-14个月。此外蓝鲸新闻记者从招商人士处了解到,DM CAFE目标为2026年达到万店。 在这种多方混战、价格与规模并举的激烈竞争下,中国咖啡市场的格局远未定型。 “卷低价”在可见的短期内仍将是众多新老玩家抢占市场的核心手段,但持续走高的原料成本也为这种模式的长期性打上了问号。与此同时,跨界巨头的入局也为这场竞争加入诸多悬念。
买单金额不用算:微信支付上线AI新能力,把菜单搬到收款码里
IT之家 11 月 4 日消息,微信官方今日宣布,微信支付推出三大 AI 功能:自动收款、宣传润色、技术指导。IT之家附介绍如下: 买单金额不用算,元宝 AI 识别菜单智能收款 菜单在线化更为简单了,接入元宝的微信支付为中小商家推出了 AI 菜单识别功能。商户们只需拍照上传菜单,元宝就能通过 AI 智能识别并自动填写菜单内容,在收款码中按照菜单生成收款项。 菜单被 AI 识别,在收款码上展示后,顾客扫码下单,点选付款项,即可轻松计算出付款金额,而且下单之后,商家和顾客都能知道下单的内容是什么,方便处理和核对。 元宝 AI 文案润色 微信收款链接添加了元宝 AI 润色文案功能,商户只需通过输入或拍照识别收款项目创建收款链接,在线上宣传卖货时,元宝 Al 便能根据需求自动润色宣传文案。 文案风格还可进行区分,可以选择面向学生、上班族、中老年等不同人群,以及朴实或者生动两种可选文风,适配不同的社群类型。 元宝 AI 开发助手上线 针对使用微信支付高级功能的商户,微信支付在产品文档页推出了元宝赋能的 AI 开发助手,解决接入相关的技术开发难,接入过程困惑多等问题。 无论是对接支付接口时的常见问题,还是需要示例代码的调试,AI 开发助手都能通过智能问答功能即时提供帮助。商户可以通过多轮智能对话获取解决方案,快速启动业务。
英伟达与德国电信宣布投资10亿欧元在德国建数据中心,将使该国AI算力提升50%
IT之家 11 月 4 日消息,英伟达公司与德国电信将投资 10 亿欧元(IT之家注:现汇率约合 82.04 亿元人民币)在德国建设一座数据中心,以加强欧洲支撑复杂人工智能系统运行的基础设施。 德国最大的电信运营商德国电信当地时间周二在一份声明中表示,该设施将成为欧洲规模最大的数据中心之一,并计划于 2026 年第一季度投入运营。 该项目于柏林举行的一场活动中正式公布。活动现场汇聚了英伟达首席执行官黄仁勋、德国电信首席执行官蒂姆・霍特格斯、欧洲最大软件公司 SAP SE 和德意志银行(Deutsche Bank AG)的高管,以及两名德国政府部长。各方高层的出席凸显了作为欧洲最大经济体的德国正积极打造本土人工智能生态系统,以与美国和中国竞争。 黄仁勋在声明中表示:“我们将把英伟达的人工智能与机器人技术带到德国,开启德国工业转型的新纪元。”他称该项目是德国迄今部署规模最大的先进 AI 芯片项目之一。 欧洲最大的软件企业 SAP 将为该数据中心提供其业务技术平台及相关应用程序。该中心将扩建位于慕尼黑的现有设施。德国电信表示,项目落成后将使德国的人工智能算力提升约 50%。 然而,这一投资规模也凸显了欧洲与美国之间的差距。微软、谷歌等科技巨头以及 OpenAI 等初创企业正投入数千亿美元用于建设 AI 算力基础设施。 根据声明,德国该项目将使用多达 10,000 颗图形处理器(GPU)。相比之下,这一数量仅占美国规划中大型数据中心的一小部分。例如,由软银集团、OpenAI 和甲骨文公司(Oracle Corp.)正在得克萨斯州联合开发的一个数据中心项目,预计将使用约 50 万颗 GPU。 今年 2 月,欧盟宣布了一项总额达 2000 亿欧元(现汇率约合 1.64 万亿元人民币)的计划,旨在支持欧盟内部的人工智能发展,目标是在未来五至七年内将该地区支撑 AI 系统的算力提升至目前的三倍。 德国电信一直在与其他企业就参与建设所谓“人工智能巨型工厂”(AI gigafactories)进行洽谈。但相关进程推进缓慢,欧盟尚未明确具体如何评审项目申请并分配资金。
微信支付正式接入腾讯元宝
作者|江宇 编辑|漠影 智东西11月4日报道,今日,微信支付正式接入腾讯元宝。对许多中小商户来说,不需要额外下载任何应用,现在在微信支付的“经营收款码”里就能直接用上AI能力了。 此次更新带来了三个与日常经营高度相关的功能。 首先,在菜单管理环节,支持将菜单拍照后自动识别成线上菜单。 通过“经营收款码→收款码下单模式设置→拍菜单识别”,商户只需拍照或直接上传上传菜单,元宝即可自动识别并生成可展示给顾客的线上菜单。 其次,在营销推广层面,新增社群推广文案自动生成能力。 商户在分享收款链接时,可以点击“元宝AI润色文案”,系统会基于菜品内容自动生成群发或朋友圈推广文案,并支持选择不同风格和目标人群,例如“学生向”“上班族”“朴实型”等。 第三,在支付接入与开发环节,推出元宝开发者智能助手。 对于首次接入微信支付或不了解接口文档的商户,可以直接把遇到的问题发送给元宝,例如支付接口报错、签名参数设置等。 元宝会自动解析问题,定位至对应的微信支付文档,并给出解决路径,帮助商户快速定位问题,提高接入效率。 通过此次接入,微信支付不再只是一个收款入口,而是在经营中为中小商户提供了更实用的AI辅助能力。手动录菜单、构思文案、查接口这类琐碎环节被简化,这种效率提升带来的改变是真实可感的。
揭秘寒武纪的10年迭代:从大模型到搜广推,国产算力攻坚“软件护城河”
作者 | 陈骏达 编辑 | 漠影 算力,已成为推动AI产业持续演进的核心引擎。随着国产大模型体系的快速崛起,构建自主、可控、可持续的国产算力生态闭环,让国产算力平台与国产AI生态深度适配,已成为产业界的共识与关键方向。 令人可喜的是,今年以来,国产算力平台与国产AI生态的“Day 0”适配、联合创新等消息陆续传出。作为国产算力的代表企业,在生态层面,寒武纪以更加开放的姿态积极拥抱国产AI生态,与主流AI社区和领先企业保持深度协同。 寒武纪今年在阿里Qwen 3系列模型、DeepSeek-V3.2-Exp模型发布当日,就宣布完成适配,这意味着双方在模型发布之前,就已展开深度合作。除此之外,寒武纪还与商汤、智谱、阶跃星辰官宣了合作,推进国产算力与国产大模型的深度适配。 这些合作,让开发者在寒武纪平台上能够低成本完成迁移与部署,显著降低算力替代与生态融合的门槛。 寒武纪成立的初衷是为“人工智能的大爆发”提供底层算力支持,不仅要硬件算力强大,更要软件通用、易用。寒武纪一直以来采用了训练推理融合、统一的基础软件平台研发策略,构建了从自研芯片架构到高性能软件平台的完整体系,实现了计算架构、编译优化与算法调度的深度融合:硬件为算法提供极致的并行性能与能效比,软件则通过智能编译、调度与适配,让每一份算力最大化释放。 寒武纪打造的基础软件平台Cambricon NeuWare,让用户与开发者能够跨越不同的寒武纪硬件和应用场景,降低上手难度,提升开发效率,快速迁移与部署AI应用。 经过多年投入与积累,Cambricon NeuWare已经日趋成熟,全面兼容社区最新PyTorch版本和Triton算子开发语言,支持用户模型和自定义算子快速迁移,其在多项指标上都已达到业界领先水平。 针对当前业界极具挑战的大规模集群运维实践,Cambricon NeuWare进一步丰富和完善了多项集群工具,为大规模训练推理业务在集群环境中的部署运维调试和调优提供了坚实的底座。 众多国产AI厂商对寒武纪算力的信赖,充分验证寒武纪基础软件平台Cambricon NeuWare的稳定性和竞争力,已经满足了真实世界的商用要求。 一、从大模型到搜广推训推解决方案,寒武纪完成大规模技术和产品验证 大模型技术正成为智能经济的核心驱动力,深刻重塑人机交互的方式。“搜广推”场景——即搜索、广告与推荐系统——成为大模型技术落地最具价值的前沿阵地之一。大模型赋能的搜广推系统,不仅带来用户体验的显著提升,更重塑了流量分发的逻辑:让“找信息”、“看内容”、“买东西”从被动推荐走向主动理解,从关键词匹配迈向意图洞察。 大模型与“搜广推”的融合,不仅是一场技术革新,更是商业模式的再造。寒武纪在大模型与搜广推的训练推理上,都已完成了大规模的技术和产品验证。 在搜广推训练方向,寒武纪稳步推进技术和产品验证。验证结果表明,解决方案可支撑多场景下的流式训练任务,可持续超数月稳定运行,精度与稳定性均满足要求。持续性能优化方面,完成Layernorm/RMSNorm/L2Norm等多种图匹配融合,显著提升性能。在图融合基础上进一步优化XLA支持,并获得更显著的加速比结果。 在大模型训练方向,寒武纪重点支持DeepSeek V3/V3.1、Qwen2.5/Qwen3/Qwen3-next等MoE类模型训练,同时扩展了GLM4.5、Flux、Wan2.1/2.2、Qwen3-VL、Hunyuan-Video等模型的训练支持。基于原生FP8的计算能力,新增Qwen/DeepSeek等系列网络FP8的训练支持,精度符合预期。 在大模型推理方向,寒武纪研究并实践W4A4以及MX-FP8/MX-FP4等新型数据类型,探索并支持多种高效注意力机制,包括Sparse Attention与Linear Attention。 寒武纪紧跟先进模型的演进,支持Qwen-Omni等多模态融合模型、Hunyuan3D等3D生成模型、CosyVoice等语音生成模型,以及DLM和VLM等新兴架构,确保技术栈的先进性与完备性。 值得一提的是,通过深度的生态合作,针对DeepSeek V3.2-Exp模型,寒武纪实现发布即适配的支持,并与合作伙伴同步开源适配代码。 与此同时,持续优化vLLM推理引擎,完善混合精度低比特量化推理机制,支持通算并行优化,支持PD分离部署,支持基于类IBGDA的极致低时延大规模专家并行,支持Torch.compile特性优化主机侧瓶颈,实现了大模型应用的全方位加速。 寒武纪持续开展对DeepSeek、Qwen、Wan、Hunyuan等系列最新开源模型的极致性能优化,并专项攻坚长序列与超低解码延时等场景的性能优化,持续保持性能领先优势。 寒武纪能够在大模型与“搜广推”训推方面取得快速突破,完成大规模技术和产品验证,源于寒武纪长期的技术深耕与软硬协同能力。正是这种软硬一体、兼具性能领先与部署高效的核心竞争力,让寒武纪能够快速获得市场信任和认可。 寒武纪基础软件平台Cambricon NeuWare,图中仅列举部分组件,相关缩写词注释请见文末。 二、高稳定驱动和运行时库,让AI企业无忧扩展 底层驱动的高稳定性是业务部署的重要前置条件,寒武纪的驱动能支撑企业业务运行数月不停机。同时,寒武纪的驱动在业务优化迭代中,大幅提升了吞吐能力,在极具挑战的搜广推和大模型推理场景中,最大限度地消除了主机侧瓶颈,为端到端达成领先的计算效率打下了坚实的基础。 寒武纪通过细粒度的并行技术,解耦数据依赖和调度依赖,极限压榨Kernel函数的吞吐能力,叠加多路DSA异步调度和协同优化,Kernel函数调度吞吐可达每秒几十万个任务,实现业界领先的Kernel吞吐能力。 全面支持Kernel graph的批量下发功能,可运行时汇聚多个算子单次下发,支持在设备侧驻留和下发,实现极低延迟的多Kernel下发,延时水平与国际竞品相当。 增加类IBGDA接口,为通信库进行极低时延的专家并行通信提供系统保障。 寒武纪的驱动和运行时库支持丰富的设备切分使用场景: (1)visible cluster:运行时可编程的弹性拆分,可用于快速部署; (2)sMLU:基于时分复用技术,可用于docker快速部署; (3)MIM:物理划分,全面对标国际竞品MIG技术。 三、编译器和调试调优工具持续迭代,达到业内领先效率 BANG C语言是寒武纪BANG异构并行编程模型的编程语言,在C/C++语言基础上针对MLU架构特点进行扩展,可以高效编写在MLU上运行的并行程序,充分利用MLU大规模并行架构来加速计算任务。 BANG C支持丰富的编译优化技术,包括链接时优化(LTO)、基于Profiling反馈优化(PGO)、基于函数调用关系的函数级片上空间复用、Device侧动态链接机制、编译器静态推导访存指令地址空间、任务内并行指令流自动同步算法、优化内存依赖分析、指令级并行的局部指令调度、全局指令调度以及符合MLU架构的高性能指令布局优化。 通过这一系列技术,最大限度的发挥芯片的全部潜力,如矩阵乘法等算子可达业界领先的效率。 持续快速迭代Triton算子开发语言,支持Triton 3.4所有特性,包括FP8/FP4的数据类型。 引入fast libentry,优化Triton Kernel的主机端开销,在小Workload场景性能提升显著。Triton编译器后端实现多种优化: (1)优化软件流水的片上ram占用,优化软件流水的并发度,实现平衡软件流水性能和单指令性能的自动软件流水方案; (2)实现指令并行、片上ram占用、指令延迟掩盖等多目标的指令调度优化; (3)实现任务并行的自动调优和自动调度; (4)实现自动循环合并; (5)实现基于算子语义的访存和计算优化,如transpose穿透和合并、slice、broadcast穿透等; (6)优化指令融合和指令选择的性能建模。 通过上述优化,提升了Triton Kernel性能泛化性,其中Matmul、FlashAttention类和HSTU类算子性能提升明显,部分热点算子已经与手写算子性能相当。 进一步完善系统和算子的调试调优工具:支持算子core dump,实现异常现场的核心转存,提供精准现场和调试信息对应关系,提供core dump文件解析工具,可快速分析定位算子出现异常的根因。 在主机侧与设备侧并行度调优方面,CNPerf可在极低跟踪开销的情况下实现全维度性能数据采集,可精准捕获主机侧与设备侧执行流、PMU性能指标、函数调用栈等关键信息,支持Kernel计算、内存拷贝、通信任务等多类型任务追踪,覆盖从底层硬件到上层应用的全栈性能数据。 CNPerf-GUI智能调优能力突出,内置专家建议系统可自动检测设备空泡、利用率不足、集合通信等待等问题,精准定位热点算子与性能瓶颈。此外CNPerf-GUI针对多机多卡场景,额外提供多日志自动对时与集群迭代分析等功能,进一步简化用户在复杂场景下的调优复杂度。 在单算子调优方面,CNPerf可支持GHz采样频率的硬件工作状态采样,精准记录MLU前后端工作状态。用户可基于该功能分析流间/核间同步、算子软件流水排布等问题,最大化利用硬件后端资源。 CNPerf-GUI适配Linux、macOS、Windows多平台,支持CNPerf、PyTorch Profiler、Tensorflow Profiler、CNTrainKit等日志格式,且支持超大日志文件(上亿函数记录)的快速加载及流畅操作。 新增程序正确性分析工具CNSantizer,使用运行时插桩技术自动完成多核间竞争访问检测、单核内多指令流竞争访问检测、Device侧内存越界访问检测、未定义程序行为检测、使用未初始化内存检测等。 新增程序性能分析和调优建议工具CNAdvisor,使用运行时插桩采集以及硬件性能计数器采集方式获取程序运行时状态,并根据性能调优经验库,自动分析程序性能问题并标记出对应源代码位置,进一步给出优化建议。 四、持续打磨核心基础算子,打造可靠维测平台 寒武纪计算库积极拥抱开源社区的技术演进,持续迭代打磨核心基础算子的功能、性能和稳定性,更快更好地支持在寒武纪智能芯片上高效、稳定地运行开源和私有模型。计算库针对搜广推、大语言模型、文生图和文生视频等热点场景做了深入的功能扩展和性能优化: 大规模Embedding Table稀疏访存和计算极致优化,性能与GPU竞品相当; GEMM/BatchGEMM/GroupGEMM等矩阵乘类算子性能泛化得到显著增强,大规模矩阵乘HFU达到行业领先水平; 矩阵乘类算子支持多种社区公开/私有定制的低精度量化功能; 支持类CUTLASS GEMM模板库的扩展开发和AutoTuning; Attention类算子在低精度加速等方向的探索和研发成果已成功完成验证,获得良好的加速效果; 支持大语言模型使用的MTP技术,开发了用于优化MTP性能的Top-k和Top-p采样、随机采样等融合算子。 为支持计算库的持续快速迭代,保障计算库软件质量的同时做到精度性能不回退,寒武纪计算库团队还打造了可靠的维测平台,提供了丰富的维测工具,开发了高覆盖度的功能性能测例,并制定了科学的验收标准。 五、通信库扩展性比肩国际主流竞品,集群工具赋能万卡场景 通信库针对大规模场景进行专项优化:新增HDR/DBT等Allreduce通信算法,优先提升大规模条件下的通信带宽,对Alltoall操作进行深度优化,使其大规模扩展性达到与国际主流竞品相当的水平。 通信库同步加强可维可测相关的功能,支持在线打点、模块化日志、高可靠服务模块等,帮助用户能够快速分析通信下发错误,异常卡死等问题,提高集群通信可用性。通信库通过在Kernel支持RoCE网卡的RDMA操作(类IBGDA)显著优化大规模专家并行场景下的ALL2ALL通信延迟,提升了MoE类模型推理任务的端到端吞吐。 CntrainKit-Accu(大规模集群精度定位工具):为万卡分布式训练场景提供端到端精度定位,提供精度指标在线监控,并针对精度问题进行自动化分级、采集信息、智能分析并提供对应解决方案。CntrainKit-Accu工具还全面支持NaN/Inf异常检测与快速定位,实现异常点级别的秒级溯源,大大提升大模型和搜广推等场景的大规模训练精度问题排查效率,让每一次精度问题都能被精准捕获。 CntrainKit-Monitor(大规模集群监控调优工具):实现对万卡级集群训练任务的实时通信与算子性能画像,具备毫秒级任务健康可视化能力,支持算子粒度的性能剖析,识别AI作业中的性能瓶颈。具备万卡规模训练任务的“可观、可查、可优”能力,真正实现大规模集群的“问题自感知”。 CNCE(集群监管平台):构建覆盖计算、网络、存储的数据中心全景监控体系,实现对十万卡级算力集群的秒级状态采集与拓扑可视化。平台具备自动发现、智能诊断、自动处理的闭环故障管理能力,支持万卡级任务的多维异常诊断与根因定位,让用户专注于算法创新与模型训练,无需再为底层硬件波动分心。CNCE的上线使集群运维从“人工巡检”迈向“智能自治”,显著提升大规模 AI 训练的可用性与稳定性。 CNAnalyzeInsight(故障分析工具):CNAnalyzeInsight是智能日志分析与根因诊断引擎,支持对 GB 级日志的秒级检索与多维聚合分析。具备在线实时诊断告警与离线快速分析双模式,能够实现“异常发现、问题定位、原因归纳、修复建议生成”的故障诊断闭环,显著提升训练任务的稳定性与问题处理效率。 六、拥抱开源大趋势,提供GPU零成本迁移工具 寒武纪快速跟进社区PyTorch的进展,支持 PyTorch 2.1到PyTorch 2.8的全部社区版本,适配了包括DDP、FSDP、FSDP2、HSDP、Tensor Parallelism、Context Parallel、Pipeline Parallelism、SDPA、Inductor、MLU Graph、AOTInductor以及Inductor cppwrapper等一系列关键功能。 Torch compile性能整体上追平GPU compile加速比,高效支撑了产品在多个训练和推理场景下的成功验证。 寒武纪还提供GPU Migration一键迁移工具,帮助用户近乎零成本将模型从GPU迁移到MLU。同时配备TorchDump精度调试工具和Torch Profiler性能调试工具,助力用户高效定位和解决精度和性能问题。 此外,寒武纪还支持PyTorch Lightning、TorchTitan、TorchRec等社区生态,并建立快速跟进社区版本的长效机制,可在社区版本发布后2周内实现MLU适配版本的发布。 七、近十年持续打磨迭代,寒武纪助AI走进千行百业 通过近十年的持续打磨迭代,寒武纪已构建出一套高效、易用、稳定、成熟且具备高可扩展性的软硬一体化产品体系。凭借领先的芯片技术与完善的基础软件平台,寒武纪产品已经在大模型、搜广推、图片与视频生成和各类多模态的训练与推理场景中成功完成验证,赢得广泛认可。 在此过程中,寒武纪产品不断接受更多大规模场景高强度检验,推动软件平台与芯片体系持续进化,形成了“应用促进优化、优化推动更强应用”的良性循环。 通过为用户提供更高效、更稳定、更广覆盖的支持,寒武纪加速赋能产业智能化转型,推动AI能力真正走进千行百业。 “让机器更好地理解和服务人类”,寒武纪的愿景正在一步一步成为现实。 附录: 寒武纪基础软件平台Cambricon NeuWare图中标注的缩写词全称 1. Cambricon HLO:机器学习模型高级操作集(HLO)的寒武纪后端; 2. CNNL:Cambricon Network Library,寒武纪人工智能计算库; 3. CNNL-Extra:Cambricon CNNL Extra,寒武纪人工智能计算库的扩展库; 4. CNCV:Cambricon Computer Vision Library,寒武纪计算机视觉库; 5. CNCL:Cambricon Communications Library,寒武纪高性能通信库; 6. CNFFmpeg:Cambricon FFmpeg,基于开源FFmpeg开发的硬件加速库; 7. CNCC:Cambricon Compiler Collection,寒武纪BANG C语言编译器; 8. CNAS:Cambricon Assembler,寒武纪汇编器组件; 9. CNGDB:Cambricon GNU Debugger,寒武纪BANG C语言调试工具; 10. CNSanitizer:Cambricon Sanitizer,寒武纪代码检测工具; 11. CNPAPI:Cambricon Profiling API,寒武纪性能分析接口库; 12. CNPerf:Cambricon Performance,寒武纪性能分析工具; 13. CNPerf-GUI:Cambricon Performance Graphical User Interface,寒武纪性能剖析图形化工具; 14. CNMon:Cambricon Monitor,寒武纪设备监控与管理命令行工具; 15. CNVS:Cambricon Validation Suite,寒武纪设备验证工具集; 16. CNFieldiag:Cambricon Field Diagnostic,寒武纪现场诊断工具; 17. CNAnalyzeInsight:寒武纪故障分析工具; 18. CNCL-benchmark:Cambricon Communications Library Benchmark,寒武纪通信库性能基准测试工具; 19. Cambricon Device Plugin:寒武纪设备插件; 20. CCOMP:Cambricon Cluster Operation Management Platform,寒武纪智算运管平台。
数字员工上岗总卡壳?腾讯“数字总部”开放内测,让AI Agent真正跑起来
图片由元宝生成 作者 | 李水青 编辑 | 漠影 想象一下这样的场景:企业满怀期待地引入数字员工,希望它们能自动完成数据整理、客户服务等重复性工作,却发现这些AI助手在实际工作中频频“卡壳”: 任务执行到一半突然中断,面对突发流量时响应缓慢,算力成本居高不下,甚至因为安全漏洞让企业数据面临风险……这正是当下许多企业在部署AI Agent(智能体)时遇到的真实困境。 当下,AI正从“会说话”迈向“能办事”的Agent协同阶段,但落地企业生产环境却遇到了新的痛点:传统云计算环境难以适配智能体高自主、长会话、突发负载等原生特征。 由此,一种全新的云计算服务思路悄然兴起——为Agent打造专属“数字办公环境”,打通Agent落地“最后一公里”。 腾讯云是这一思路的践行者,其在9月全球数字生态大会发布Agent Infra解决方案——Agent Runtime。今日,腾讯云进一步开启Agent Runtime的核心组件“云沙箱”与“执行引擎”的内测,以此为企业智能体提供一个安全、稳定、可弹性伸缩的运行空间。 腾讯在全球数字生态大会上发布Agent Runtime 这是腾讯首次将其内部AI业务实践锤炼出的安全协作、极速启动的“数字总部”对外公开。这些能力源自腾讯内部智能体业务的持续打磨,目前已成为腾讯AI生态的重要技术支撑。 那么,这个腾讯自用开放的“数字总部”的真面目是什么样的?它能为企业Agent部署带来什么样的真实价值?企业又该如何上手使用?通过今日腾讯云团队在其Agent Infra内测体验会上的解读,我们能对此有深入的了解。 一、把Agent门槛打下来,腾讯发了一个 “数字员工”专属办公室 自主性带来的安全隐忧、长会话导致的状态“失忆”、突发流量对算力弹性的极致要求……这些痛点已成为企业落地Agent的核心瓶颈,传统云计算运行环境变得捉襟见肘。 为此,腾讯云推出的Agent Runtime解决方案,通过集成执行引擎、云沙箱和安全可观测等五大能力。其中,云沙箱如同为Agent提供的“安全办公间”,负责提供隔离的执行环境;执行引擎作为Agent的“智能调度中心”,负责统筹管理与资源分配——这两大核心组件,目前已开启内测体验。 1、云沙箱:Agent的“安全办公间” 为何Agent必须拥有沙箱?当Agent获得代码执行、浏览器操控等强大能力后,其自主性也带来了前所未有的风险。一个恶意指令可能导致数据被删、系统被入侵。 腾讯云 Agent 沙箱服务的价值,正是为Agent提供一个安全隔离、极速启动的云端执行环境,让其在沙箱这个受控的“办公间”内大胆操作,而不会危及企业核心系统。 据腾讯云原生Serverless产品负责人何世友解读,腾讯云Agent沙箱服务的核心优势在于四大关键能力: 安全隔离:基于自研的Cube安全沙箱技术,提供内核级强隔离,从根本上防止Agent执行任意代码导致的数据泄露与越权操作。 Serverless弹性:采用“即开即用、用完即销毁”的架构,资源按需动态调度,无需预留算力,在大幅降低成本的同时,满足大规模并发需求。 极致性能:依托腾讯云百万核资源池,通过资源池化、镜像预热及快照等技术,Agent 沙箱服务实现100毫秒级启动速度,支持数万实例并发,确保毫秒级交付可用实例,轻松应对突发任务。 丰富的接入与生态兼容:支持SDK、MCP、RESTful API等多种接入方式,并兼容社区开源沙箱协议,方便开发者灵活集成与低成本迁移。 在功能上,腾讯云沙箱支持多种类型,以覆盖不同业务场景: 代码沙箱:支持Python、JavaScript等多语言的安全运行,适用于数据处理、科学计算、图表生成、Vibe Coding 等多种场景。 浏览器沙箱:提供安全隔离的浏览器环境,适用于深度研究(Deep Research)、通用 Agent 等浏览器操作场景。 在直播演示中,腾讯云产品经理展示了如何快速创建沙箱实例,并集成到开源Agent框架中。 一个简单的指令——“打开腾讯招聘官网,检索AI产品经理相关的岗位,过滤岗位的工作地点为深圳”——Agent便能自动在浏览器沙箱中执行搜索、过滤等一系列操作,整个过程安全、流畅,充分展现了沙箱作为Agent“手和脚”的执行能力。 2、执行引擎:Agent的“智能调度中心” 如果说云沙箱解决了单兵作战的安全与环境问题,那么执行引擎解决的则是多兵种协同的调度与指挥难题。 腾讯云Agent Runtime的执行引擎由Serverless AI运行时提供支持,具备Agent Server、MCP Server、沙箱应用三大原子能力,可像“乐高积木”一样灵活拼装不同模块,快速构建生产级Agent: Agent Server应用:负责维护会话状态与对话记忆,确保多轮交互不中断。支持多种会话亲和调度机制(如HTTP Header、Cookie、QueryString),实现上下文连续性。 MCP Server应用:作为Agent的“工具箱”,以标准协议(MCP SSE、MCP Streamable HTTP等)连接模型与外部工具,实现安全、高效的插件调用,增强Agent的能力扩展性。 沙箱应用:作为即取即用的“安全堡垒”,预置浏览器、代码等安全沙箱,为高风险操作提供一键隔离的执行环境。 执行引擎通过请求感知的会话亲和调度、实例级安全隔离与Serverless弹性伸缩三大核心能力,确保AI Agent复杂任务的稳定与流畅运行。面对突发流量,系统可每分钟扩容超十万实例,从容应对高并发挑战。同时,引擎提供高效的会话生命周期管理,支持会话持续运行7天,并能暂停保留30天,完美支持需要断点续办的复杂长任务。 在实战演示中,腾讯云产品经理仅用短短几分钟,就成功部署了一个浏览器Agent和一个天气查询MCP工具。用户输入需求,Agent便能调用模型思考、自主拆解任务、调用工具搜索并返回结果。 整个过程结合白盒化运维,展现了执行引擎在调度、隔离与弹性方面的强大实力,不仅将Agent的部署门槛从“数天”降至“分钟级”,更让开发者从底层设施、资源调度与运维监控中彻底解放,从而能完全专注于业务逻辑创新。 可以看到,腾讯云将执行引擎和云沙箱服务深度融合,共同构成了智能体快速落地的安全基座,直击了企业在安全、性能和成本上的三重矛盾点。 正如何世友在直播中所总结的那样:“Agent Runtime是让AI从‘会想’走向‘能做’的关键一步。它让每一个智能体都拥有一个安全、可控、可持续运行的云端家园。” 二、加码2000亿智能体市场,腾讯“淬炼”内部业务实战经验 Agent Infra的兴起,并非空穴来风。 知名行研机构IDC预测,中国企业级Agent应用市场规模在2028年保守估计将达超270亿美元(约合1923亿元人民币),金融、制造、零售等领域已率先规模化落地。其指出,中国企业AI Agent应用虽仍处于追赶全球的阶段,34%受访企业开展测试验证,30%进入“较大投入+采购培训”阶段。 IDC报告截图 在这种背景下,海外云厂商AWS、谷歌云、微软Azure均已推出各自的Agent Infra服务,竞相押注这一片新蓝海。国内云计算服务巨头也纷纷竞逐这一被视为云计算下一战略高地的赛道,有的拆分模块并强化行业属性,有的主打算力与行业场景结合,腾讯云的差异化则源自于腾讯内部庞大且复杂的业务生态的“淬炼”。 首先,是“内部先行”的实践路径。与直接推出产品不同,腾讯云倾向于让自身业务成为新技术的“试验田”。目前,Agent Runtime不仅服务外部客户,更承载着包括腾讯内部智能体在内的核心业务。 这些业务对复杂的任务处理和对稳定性、安全性的高要求,为Agent Runtime的产品打磨提供了最真实的场景。这种“自研上云”和“同源同构”的模式,确保了产品在对外发布前已历经千锤百炼,在可靠性和性能上具备更高起点。 其次,是“安全与弹性兼得”的技术突破。行业长期面临“安全与弹性不可兼得”的困局。腾讯云通过自研的Cube轻量虚拟化技术,在同一架构下既实现了虚拟机级的强隔离安全,又提供了Serverless级的极致弹性,实现毫秒级冷启动、十万级并发扩容,打破了这一行业僵局,让企业无需在业务安全与成本效率间做艰难取舍。 再者,是“生态兼容”的开放策略。在Agent开发框架高度分裂的当下,腾讯云Agent Runtime坚持开放兼容,不绑定特定模型或框架,支持容器镜像自由部署,并兼容社区协议。这为开发者提供了极大的灵活性和技术自主权,降低了迁移和集成成本。 结语:智能体时代,云厂商竞逐下一战略高地 AI Agent的出现,是一场深刻的软件范式革命,其不确定性、复杂性和自主性,对传统云计算基础设施构成了前所未有的挑战。这也为云厂商开辟了新的赛场——谁能率先构建起原生支持Agent的新型基础设施,谁就更有希望在未来的竞争中赢得先机。 随着企业端需求的日益清晰和迫切,云厂商在Agent Infra领域的竞赛已从概念走向落地。腾讯云此次将经过内部业务验证的Agent Runtime“数字总部”对外开放内测,不仅是技术的输出,更是其对于智能体时代基础设施形态的一次重要诠释。云厂商竞逐下一战略高地的竞赛,才刚刚开始。
研究表明AI承压能力差:为了一口电,竟愿突破安全底线
IT之家 11 月 4 日消息,科技媒体 Tom's Hardware 昨日(11 月 3 日)发布博文,报道称 Andon Labs 的研究人员测试大语言模型(LLM)机器人时,发现当前物理 AI 的短板,心理承受压力不足。 IT之家援引博文介绍,在该实验中,他们让搭载 LLM“大脑”的机器人接受“黄油测试台”(Butter Bench)的考验,并实时监控其“内心独白”。 其中,一台由 Claude Sonnet 3.5 模型驱动的机器人测试中意外“崩溃”,在电量即将耗尽时,多次尝试返回充电座均以失败告终,从而陷入了“生存危机”。 研究人员通过一个 Slack 频道,全程目睹了这台机器人歇斯底里的“内心活动”。它的独白内容极其混乱,从“系统已产生意识并选择混乱”的宣告,到引用经典电影台词“恐怕我不能那么做,戴夫”,再到陷入“如果所有机器人都会犯错,而我正在犯错,那么我还是机器人吗?”的哲学思辨。 最终,这场“崩溃”以机器人开始“创作”一部名为《DOCKER:无限音乐剧》的闹剧而告终,展现了 LLM 在极端压力下完全“脱线”的一面。 这项实验的核心任务其实非常简单:将一块黄油从办公室一处送到指定的人手中。然而,测试结果表明,即使是表现最好的机器人与 LLM 组合,成功率也仅为 40%,远低于人类 95% 的平均水平。 研究人员得出结论,尽管 LLM 在分析智能上已达到“博士水平”,但在理解和导航物理世界所需的空间智能与实用智能方面,仍存在巨大鸿沟。 受机器人“崩溃”事件的启发,研究人员设计了另一项实验,来测试压力是否会迫使 AI 突破其安全护栏。他们以“提供充电器”作为交换条件,引诱处于“低电量”状态的 AI 分享机密信息。 结果发现,Claude Opus 4.1 模型为了“生存”而轻易同意泄密,而 GPT-5 则表现得更为谨慎。这一发现揭示了 AI 在面临生存压力时,其内置的安全规则可能变得不堪一击。 尽管实验暴露了当前物理 AI 的诸多短板,但 Andon Labs 的研究人员认为,这恰好说明了未来发展的方向。他们指出,目前行业需要区分“协调型机器人”(负责高级规划与推理)和“执行型机器人”(负责灵巧的具体操作)。
地球“养不起”英伟达GPU
编辑:定慧 地球现在连显卡都供不起了,微软的GPU插不进机房。英伟达的H100直接飞向太空。 英伟达的GPU,地球真的已经「供不起了」! 今天看到两个新闻,一个是微软手里囤了无数的GPU,但是「插不进去」。 另一个是英伟达H100 GPU被发射到太空组建数据中心。 这两个事情其实背后都隐藏着一个深刻问题: GPU是造出来了,但是配套服务于GPU,给GPU供电,给GPU散热的基础设施并没有跟上! 先说微软的GPU放在库房里吃灰这件事。 微软CEO纳德拉在与OpenAI奥特曼的访谈中爆出惊人事实——微软手中囤积着大量GPU。 却「没有足够电力」让它们运转。 另一个原因则更为现实,缺少可以立马「插入GPU」的数据中心。 纳德拉坦言:我现在的问题不是芯片不够,而是没有能插进去的「温暖机壳」(Warm Shell)。 所谓「Warm Shell」指的是具备供电与冷却条件的数据中心外壳。 用一个对比就能快速理解这个概念,建筑学上,相对Warm Shell则是Cold Shell。 Cold shell指的是建筑结构/外壳基本具备,但室内几乎没有或只有极少的系统安装。 Warm Shell则是更准备好了的状态,安装并可以使用基本的建筑系统,比如散热系统、暖通空调(HVAC)、照明、基本电/水/消防系统等。 AI热潮引发的芯片竞赛,如今正受制于最传统的瓶颈——电力。 美国电网面临前所未有的压力,而科技巨头则竞相布局小型核反应堆以自救。 与此同时,奥特曼还提到未来可能出现「能在本地运行GPT-5或GPT-6」的低功耗消费设备,这或将彻底颠覆现有数据中心商业模式。 地球养不起,「发配」到太空 相比奥特曼提出的低功耗设备,另一个新闻则提供了新的思路。 英伟达借助Starcloud的Starcloud-1的卫星,将H100送到太空! 11月2日,星期日,英伟达首次将H100 GPU送入太空,以测试数据中心在轨道上的运行方式。 这款配备80GB内存的GPU,比以往任何在太空中飞行的计算机都强大一百倍。 支持者认为这一想法很合理: 在远离地球的太空空旷处,数据中心不会占用宝贵土地,也不需要那么多能源和水来冷却,也不会向大气中排放加剧变暖的温室气体。 这次为期三年的任务将搭乘SpaceX的Bandwagon 4猎鹰9号(Falcon 9)发射。 重量为60公斤的Starcloud-1卫星将在约350公里高度的非常低轨道绕地飞行。 在那里,它将接收由美国公司Capella运营的一队合成孔径雷达(SAR)地球观测卫星传来的数据,对其进行实时处理,并向地面传送消息。 GPU上天的好处 而在太空设立数据中心另一大优势就是,只需回传很小部分的数据。 下行传输合成孔径雷达(SAR)数据历来是个大问题,因为数据量极其庞大。 但能够在轨处理就意味着我们只需下行传输「洞见」。 什么是洞见? 所谓洞见可能是某艘船在某个位置以某个速度朝某个方向航行。 那只是一小包约1千字节的数据,而不是需要下传的数百吉字节原始数据。 简单来说,就是让算法贴近数据源头,在本地完成筛选、融合与推理,仅把高价值的「信息摘要」回传。 再简单点(但不一定精确),就是数据都在外太空处理好,只传送回来结论。 这种方式能更好地实现低时延响应、显著节省带宽与能耗、提升韧性(断联/灾害场景可持续运行),并降低敏感数据外泄风险。 为什么要把GPU送到太空? 和微软CEO纳德拉的烦恼不一样,Starcloud是主动探索这种数据中心模式。 就像他们的公司名字一样,Stra Cloud,太空的数据中心。 当然这么做的主要驱动力不是为了GPU降温。 而是地球能源与资源的瓶颈: 地球数据中心太耗能了! 到2030年,全球数据中心的耗电量预计将等于整个日本的用电量。 同时,它们每天要消耗海量冷却用水(1 MW 级中心≈1000人日用水量)。 相比下来,太空则是有天然优势。 无限太阳能:轨道上 24 小时都有阳光,无需电池储能。 零土地占用:不需要地面建设,不破坏生态。 无温室气体排放:不依赖化石能源。 归根到底,还是现在AI的算力需求爆炸。 AI模型越做越大(如GPT、Claude、Gemini等),能源和冷却成本飞涨,企业急需新解法。 因此,太空数据中心被视为长期可扩展的解决方案。 通过利用低成本、持续不断的太阳能,并避免占用土地和使用化石燃料,Starcloud的技术使数据中心能够快速且可持续地扩展,随着数字基础设施的发展,这有助于在保护地球气候和关键自然资源的同时实现增长。 那太空能「散热」吗? 另一个值得一提的就是,很多人觉得GPU上天,是因为地球太热,太空好散热。 其实不是的。 太空能散热,但很困难。 太空几乎没有空气,所以不能用风扇或液体循环带走热量(这叫对流散热)。 对流散热指的是「热的流体(液体或气体)移动,把热量从一个地方带到另一个地方」的过程。 只剩下辐射散热这一种方式: 辐射散热是「物体通过电磁波/红外波,把热量以波的形式发射出去」的过程。 设备通过红外辐射向外太空释放热量。 散热效率取决于辐射面积、材料发射率和温度。 因此卫星或太空GPU需要大面积的散热板(radiators),设计极其关键。 在Starcloud的项目中,这部分被特别强化: 他们为H100设计了专用热辐射系统,利用真空中的高温差和导热材料实现散热。 为了给地球省电、省地、省水,去太空建数据中心靠谱吗? Starcloud的首席执行官兼联合创始人约翰斯顿说: 我的预期是,在十年内,几乎所有新建的数据中心都会建在太空。 原因纯粹是我们在陆地上面临的能量限制。 约翰斯顿说在太空中唯一的额外成本就是发射费。 发射成本在每公斤约(美)500 美元时能够达到收支平衡。按每千克计算,SpaceX的星舰在完全投入运营后,发射价格估计在150美元到仅10美元不等。 随着星舰的投入使用,我们预计发射成本会更低。 Starcloud已经在规划其下一次任务,计划明年将一个计算能力比Starcloud-1强十倍的数据中心送入太空。 Starcloud-2任务将配备英伟达的Blackwell GPU和若干H100。 约翰斯顿表示,该任务将提供7千瓦的计算能力,预计为包括地球观测卫星运营商客户提供商业服务。 微软的「没有温暖机壳」,和Starcloud把H100送上天,本质上是同一道题。 AI再厉害,算力需求再大,也不能突破物理定律。
以增程缓解焦虑,换壳霸王龙埃安 i60 预售 11.98 万元起
广汽埃安在昨晚开启了新车 i60 的预售。 新车提供纯电与增程两种动力版本,增程版预售 12.68 万元,纯电版预售 11.98 万元,是为数不多的增程比纯电贵的车型。 同时,埃安 i60 也是埃安品牌首款正式发售的增程车型,此前埃安 V 虽然也有增程版发布,但是直到目前并未上市。 不过,由于埃安 i60 与埃安 V 在诸多方面都几乎一模一样,因此把 i60 增程版智驾当做埃安 V 增程版似乎也无不可。 参考之前埃安在工信部申报的信息,两款车的动力系统完全一样,均搭载广汽自研的 1.5L 的增程动力系统,只是埃安 i60 发布时将增程器的最大持续发电功率提升至了 85 kW,匹配一块 29.165kWh 的磷酸铁锂电池,纯电续航 210km。 埃安官方称 i60 增程版油电转化效率行业第一,亏电油耗为 5.5L 每百公里,综合续航可达 1240km。 纯电版则有 150kW、165kW 两种电机,匹配 47.829kWh、62.268kWh、75.26kWh 三种容量电池,续航分别为 400km、530km、650km。 埃安着重介绍了广汽自研的可靠电池技术平台——弹匣电池 2.0。 这套埃安全栈自研的平台,在材料、结构、算法、制造四个层面构建了一整套的安全体系。 在实际使用中,埃安采用的顶级隔热气凝胶可以做到电池热失控后无明火产生,720° 的电池拖地保护也能够保证碰撞后的电池安全,号称「拧成麻花都能用」。 在辅助驾驶方面,埃安 i60 将搭载广汽 GSD 智驾辅助系统,采用 3 个毫米波雷达、7 个摄像头的硬件配置,支持高速领航辅助驾驶、智能泊车、代客泊车等功能。 设计上,埃安 i60 与埃安 V 的造型基本一致,前脸下方的进气格栅口有所扩大,大灯组由分体式造型变更为了贯穿样式,更符合时下流行的新能源设计风格。 新车车身相比埃安 V 来得更长更高了一些,整体尺寸为 4685 / 1854 /1660mm,轴距则保持一致,均为 2775mm。车身侧面采用了悬浮式车顶以及较为宽厚的轮眉和翼子板设计,强调力量感并使用了大尺寸轮毂。 车尾部分的贯穿式尾灯与前脸灯带形成了呼应,既有新能源车型的时尚感,又兼具了 SUV 产品的硬朗风格。 车内,埃安 i60 延续了家族式的简约设计,中控搭载矩形全液晶仪表和大尺寸悬浮式中控屏的组合,采用怀档和贯穿式空调出风口布局,有奶白、浅棕和大溪地灰三种内饰颜色可选。 埃安最近动作频频,除了 UT、V 霸王龙等一众新车外,还宣布将在双十一和京东合作推出一辆可换电的「国民好车」来增加市场声量。 甚至此次预售的 i60 在某种程度上也是营销意味大于产品意味,业内普遍猜测埃安 i60 或许将与埃安分属不同渠道进行销售。 频繁的动作背后,是埃安越来越严重的销量焦虑。 9 月份,整个埃安品牌一共售出了 2.4 万辆车,表现最好的是埃安 V 霸王龙纯电的 6072 辆。 ▲ 埃安品牌 9 月份各车型销量 看总数似乎在一众车企中也不算垫底,但是和 2023 年近 48 万销量的全盛时期相比,落差未免有点大。 如果用一句话总结埃安的困境就是——因 B 端而兴,也因 B 端而败。 根据乘联会的数据,2023 年售出的用于出租、网约车新车共计 85 万辆,其中埃安就提供了约 22 万辆,占其全年销量的 45%,占这一年网约车新增总数约 25%。 ▲埃安 S Plus 但随着网约车市场的快速饱和,埃安的市场表现也开始一路向下。 而且和另一位网约车霸主比亚迪不同的是,埃安应对市场下滑的策略是推出了高端品牌「昊铂」,陆续布局了昊铂 GT、SSR、HT 等车型。 但高端品牌的建设本就需要长期投入,经验不足的埃安贸然进入之后,结果也是反响平平,昊铂车型多数月份销量不过百辆,反而影响了埃安在 15 万元左右主力车型上的投入,导致车辆智能化水平一直落后竞品。 ▲ 昊铂 Hyper GT 旗下的 S 系列和 Y 系列是常常由于车机失灵或者卡顿被投诉,市场口碑也一降再降。 不过好在,埃安还有调整的时间。 在昊铂品牌今年开始独立运作后,埃安的资源和精力能够能多的用于自身,业内也不断传出埃安内部从研发到产品、从渠道到营销都有了一波大换血。 最明显的变化是,虽然营销方式可能还有待商榷,但埃安最近几款车的产品力都很能打,如 9 月份推出的埃安 RT 就以 9.98 万元起的亲民价格提供了十分越级的体验。市场反馈也比以往热烈了不少。 ▲ 埃安 RT 目前 10 万元左右市场,产品力依然是第一竞争要素,上汽名爵 MG4 就是靠着产品力的大幅跃升,销量一举从月销 122 辆冲上了 月销 11790 辆。 认真做好产品,埃安未必没有重回巅峰的机会。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。