行业分类:
加载中...
头条分类:
加载中...
英伟达电话会全文!黄仁勋:“AI推理爆炸式增长”,痛失H20收入
本文来源:Ai&芯片那点事儿 英伟达CEO黄仁勋罕见称赞中国AI模型 “DeepSeek R1如ChatGPT般越思考越聪明” ,同时对H20相关影响表示痛心“500亿中国市场对美关闭” 。尽管英伟达Q2预计将损失H20相关80亿收入,但Blackwell芯片正以周产72,000颗GPU创纪录速度交付,支撑微软单季处理100万亿Token的“海啸般”推理需求。他信心满满地说:“Blackwell 已全面投产,我们已经开足马力。我们现在拥有多个重要的增长引擎。” 隔夜,英伟达Q1财报重磅出炉。这家AI芯片巨头扛住了特朗普政府出口限制的压力,业绩总体稳健:Q1营收超预期增69%,Q2料H20收入减少80亿,但总收入指引顶住出口限制压力。 财报发布后,英伟达CEO黄仁勋、CFO Colette Kress举行财报电话会,就“H20出口限制重创收入”、“中国市场”、“Deepseek”、“AI市场需求激增”、“Blackwell产能爬坡”等热点问题进行了回应。 对于H20出口限制,黄仁勋表示痛心。 中国是全球最大的AI市场之一,也是通往全球成功的跳板。有全球一半的AI研究人员在中国,赢得中国市场的平台有望在全球领先。 与此同时,黄教主毫不吝啬地对DeepSeek和通义千问表达了赞赏,称其是“是最佳开源AI模型之一”,“就像ChatGPT一样,引入了推理AI,它思考的时间越长,给出的答案就越好。” Colette Kress直言,H20出口限制将对英伟达未来的业务产生重大的不利影响,但Blackwell产品线爬坡速度是公司历史上最快的,推动了数据中心收入同比增长73%。他表示,英伟达在制造良率方面看到显著改善,机架出货量正以强劲速度交付。GB300也预计本季度末量产发货。 以下为财报电话会要点内容总结: H20收入预计减少80亿,黄仁勋:中国是全球最大的AI市场之一 Colette Kress表示,由于新的出口限制,英伟达在第一季度无法交付 25 亿美元的 H20 收入。失去我们相信将增长到近 500 亿美元的中国 AI 加速器市场的准入,将对公司未来业务造成重大不利影响。对于第二季度,我们预计中国数据中心收入将大幅下降。我们的展望反映了第二季度 H20 收入损失约 80 亿美元。 对于H20出口限制,黄仁勋称,“新的限制使我们几乎不可能将 Hopper 的性能降低到任何有实际用途的程度。我们目前没有任何替代产品,但正在考虑能否为中国市场打造‘有吸引力’的解决方案。若无法恢复对华供应,美国在 AI 领域的全球领导地位将难保障。中国企业将在 AI 领域自主成功。” 他说道,中国是全球最大的AI市场之一。 中国是全球最大的AI市场之一,也是通往全球成功的跳板。有全球一半的AI研究人员在中国,赢得中国市场的平台有望在全球领先。今天,价值500亿美元的中国市场实际上对美国产业是关闭的。 Blackwell产能持续爬坡、周产72000颗,GB300预计本季度末量产发货 Colette Kress表示,“虽然 Blackwell 仍处于生命周期的早期阶段,但仅在过去一个月,软件优化已将其性能提升了 1.5 倍。” “Blackwell 产品线爬坡速度是公司历史上最快的,推动了数据中心收入同比增长 73%。Blackwell 在本季度贡献了数据中心计算收入的近 70%,从 Hopper 的过渡已接近完成。” 他提到,英伟达在制造良率方面看到显著改善,机架出货量正以强劲速度交付。平均而言,主要超大规模客户每周部署近 1,000 个 NVL72 机架(72,000 颗 GPU),预计本季度进一步提产。 对于GB200之后的新一代AI服务器系统,Kress透露,GB300系统本月开始样品提供,预计本季度末量产发货。其采用与GB200 相同的物理尺寸和电气规格,实现无缝过渡。 AI推理需求出现爆炸式增长 Colette Kress在电话会议上强调了当前AI推理需求的显著增长:“我们正在见证推理需求的急剧跃升。OpenAI、微软和谷歌都看到了Token生成量的阶跃式增长。微软在第一季度处理了超过100万亿个Token(AI计算单元),同比增长五倍。” 这种增长主要来自于推理型AI工作负载的转变。尤其是推理型工作负载从简单的问答模式转向了更复杂的推理型AI,这种转变需要处理更多的计算任务和生成更多的Token。英伟达的Blackwell架构正是为满足这种需求而设计的。 微软已经部署了数万个Blackwell GPU,并计划扩大到数十万个GB200部署规模,OpenAI就是其主要客户之一。主要超大规模云服务提供商每周平均部署近1000个NVL72机架(相当于72,000个Blackwell GPU),预计本季度将进一步提高产量。 黄仁勋称赞DeepSeek、通义千问:最佳开源 AI 模型之一 黄仁勋说,最终,赢得 AI 开发者的平台将赢得 AI。出口限制应该加强美国平台,而不是将世界上一半的 AI 人才推向竞争对手。关于 DeepSeek,来自中国的 DeepSeek 和 Qwen(通义千问) 是最佳开源 AI 模型之一。免费发布后,它们在美国、欧洲及其他地区获得了关注。DeepSeek R1,就像 ChatGPT 一样,引入了推理 AI,它思考的时间越长,给出的答案就越好。 全球AI基础设施建设提速 黄仁勋在电话会议上透露了公司对全球AI基础设施建设的宏伟愿景:“我们可以预见到在不远的将来,需要数十吉瓦的英伟达AI基础设施的项目。” 他指出,AI是一种基础设施。就像电力和互联网成为基础设施一样,AI将成为每个国家、每个行业必不可少的基础设施。我们正处于这种基础设施建设的初期阶段。 他特别提到,美国是AI早期起步者,但现在全球各国都认识到AI作为基础设施的重要性,正在建设国家级AI平台来提升其数字能力。 企业AI与工业AI的崛起 在谈到公司的增长引擎时,黄仁勋强调企业AI和工业AI正在成为公司的重要发展方向。 “企业AI已经准备好起飞。AI代理比生成式AI更具革命性,它们能够理解模糊且隐含的指令,能够解决问题并使用工具。我们的RTX PRO企业服务器、DGX Spark和DGX Station企业AI系统已经准备好对现有的5000亿美元IT基础设施进行现代化改造。”黄仁勋说道。 对于工业AI,黄仁勋指出:“每一个工厂都将配备一个AI工厂。我们的Omniverse和Isaac GR00T正在为全球下一代工厂和人形机器人系统提供动力。” 展望未来,黄仁勋:全力以赴!Blackwell已全面投产,我们现在有多个重要的增长引擎 尽管面临多个市场的挑战,英伟达仍对未来保持乐观。黄仁勋总结道:“这是强劲新一波增长的开始。Grace Blackwell已全面投产,我们已全力以赴。我们现在有多个重要的增长引擎。” 他强调了几个关键增长领域:推理需求激增、主权AI(各国正在建设国家级AI基础设施)、企业AI和工业AI。黄仁勋认为,AI时代已经到来,英伟达已准备就绪。 展望未来,英伟达计划在第二季度实现450亿美元的营收。公司预计第二季度GAAP和非GAAP毛利率将分别达到71.8%和72%,到今年晚些时候有望达到中70%的水平。 以下为AI翻译的财报电话会全文: NVIDIA 2026 财年第一季度财报电话会议 活动日期: 2025 年 5 月 28 日 公司名称: NVIDIA 活动描述: 2026 财年第一季度财报电话会议 来源: NVIDIA 2026 财年第一季度财报电话会议 演示环节 会议操作员 (Operator): 下午好。我叫 Sera,今天我将担任您的会议操作员。此时,我想欢迎各位参加 NVIDIA 2026 财年第一季度财务业绩电话会议。为防止任何背景噪音,所有线路均已静音。 在发言人讲话之后,将有一个问答环节。谢谢。Toshiya Hari,您可以开始会议了。 主持发言人Toshiya Hari: 谢谢。大家下午好,欢迎参加 NVIDIA 2026 财年第一季度的财报电话会议。今天和我一起出席的 NVIDIA 管理层有:总裁兼首席执行官黄仁勋 (Jensen Huang);以及执行副总裁兼首席财务官 Colette Kress。我想提醒您,我们的电话会议正在 NVIDIA 投资者关系网站上进行网络直播。该网络直播将在我们讨论 2026 财年第二季度财务业绩的电话会议之前提供回放。今天电话会议的内容是 NVIDIA 的财产。未经我们事先书面同意,不得复制或转录。在本次电话会议期间,我们可能会基于当前预期做出前瞻性声明。 这些声明受许多重大风险和不确定性的影响,我们的实际结果可能会有重大差异。有关可能影响我们未来财务业绩和业务的因素的讨论,请参阅今天财报新闻稿中的披露内容、我们最近的 10-K 和 10-Q 表格,以及我们可能向美国证券交易委员会提交的 8-K 表格报告。我们所有的声明均基于我们当前可获得的信息,截至今天,即 2025 年 5 月 28 日。除非法律要求,否则我们没有义务更新任何此类声明。在本次电话会议中,我们将讨论非 GAAP 财务指标。您可以在我们网站上发布的 CFO 评论中找到这些非 GAAP 财务指标与 GAAP 财务指标的调节表。接下来,让我把电话会议交给 Colette。 英伟达执行副总裁兼首席财务官Colette Kress: 谢谢,Toshiya。 我们本季度再次表现强劲,收入达到 440 亿美元,同比增长 69%,超出了我们的预期,这被证明是一个充满挑战的经营环境。AI数据中心收入达到 390 亿美元,同比增长 73%。AI 工作负载已强劲转向推理,AI 工厂的建设正在推动可观的收入增长。我们客户的承诺是坚定的。4 月 9 日,美国政府对我们的 H20 发布了新的出口限制,这是我们专为中国市场设计的数据中心 GPU。 我们在上一届政府批准下销售了 H20。尽管我们的 H20 已在市场上销售一年多,并且在中国以外没有市场,但针对 H20 的新出口限制没有提供宽限期让我们清空库存。在第一季度,我们确认了 46 亿美元的 H20 收入,这些收入发生在 4 月 9 日之前,但由于我们减记了与 4 月 9 日之前收到的订单相关的库存和采购承诺,我们也确认了 45 亿美元的支出。由于新的出口限制,我们在第一季度无法交付 25 亿美元的 H20 收入。这 45 亿美元的支出低于我们最初的预期,因为我们能够重新利用某些材料。我们仍在评估有限的选项,以提供符合美国政府修订后出口限制规则的数据中心计算产品。失去我们相信将增长到近 500 亿美元的中国 AI 加速器市场的准入,将对我们未来的业务产生重大的不利影响,并有利于我们在中国及全球的外国竞争对手。我们的 Blackwell 产品线爬坡速度是公司历史上最快的,推动了数据中心收入同比增长 73%。 Blackwell 在本季度贡献了数据中心计算收入的近 70%,从 Hopper 的过渡已接近完成。GB200 NVL 的推出是一项根本性的架构变革,旨在支持数据中心规模的工作负载并实现最低的每推理 token 成本。虽然这些系统构建复杂,但我们在制造良率方面看到了显著改善,机架出货量正以强劲的速度交付给终端客户。GB200 NVL 机架现已普遍可供模型构建者、企业和主权客户开发和部署 AI。平均而言,主要超大规模客户各自每周部署近 1,000 个 NVL72 机架或 72,000 个 Blackwell GPU,并有望在本季度进一步提高产量。例如,微软已经部署了数万个 Blackwell GPU,预计将随着 OpenAI 作为其关键客户之一,扩展到数十万个 GB200。从 GB200 爬坡中汲取的关键经验将使我们能够顺利过渡到产品路线图的下一阶段,Blackwell Ultra。GB300 系统的样品已于本月早些时候在主要 CSP 处开始提供,我们预计本季度晚些时候开始量产发货。GB300 将利用与 GB200 相同的架构、相同的物理尺寸以及相同的电气和机械规格。 GB300 的即插即用设计将使 CSP 能够无缝过渡其用于 GB200 的系统和制造,同时保持高良率。配备多 50% HBM 的 B300 GPU 将比 B200 提供额外 50% 的密集 FP4 推理计算性能提升。我们坚持我们的年度产品更新节奏,我们的路线图已延伸至 2028 年,与客户多年的规划周期紧密契合。我们正在目睹推理需求的急剧增长。 OpenAI、微软和谷歌在 token 生成方面正经历阶梯式跃升。微软在第一季度处理了超过 100 万亿个 token,同比增长五倍。Azure OpenAI 的这种指数级增长代表了市场对 Azure AI Foundry 以及微软平台上其他 AI 服务的强劲需求。推理服务初创公司现在使用 B200 服务模型,将其 token 生成率和高价值推理模型(如 DeepSeek R1)的相应收入提高了三倍,正如 Artificial Analysis 所报道。 NVIDIA NIM on Blackwell NVL72 为席卷行业的新型推理模型将 AI 推理吞吐量提升了 30 倍。开发者参与度增加,采用范围从 Perplexity 等 LLM 提供商到 Capital One 等金融机构,后者使用 Dynamo 将代理聊天机器人延迟降低了 5 倍。在最新的 MLPerf 推理结果中,我们首次提交了使用 GB200 NVL72 的结果,在具有挑战性的 LLAMA 3.1 基准测试中,与我们基于 8 GPU 的 H200 提交相比,推理吞吐量提高了高达 30 倍。这一壮举是通过将每个 GPU 的性能提高三倍以及 GPU 数量增加九倍共同实现的,所有这些 GPU 都连接在单个 NVLink 域上。 虽然 Blackwell 仍处于生命周期的早期阶段,但仅在过去一个月,软件优化已将其性能提升了 1.5 倍。我们期望在 Blackwell 的整个运行生命周期内持续改进其性能,就像我们对 Hopper 和 Ampere 所做的那样。例如,我们在两年内将 Hopper 的推理性能提高了 4 倍。这就是 NVIDIA 可编程 CUDA 架构和丰富生态系统带来的优势。AI 工厂部署的速度和规模正在加速,本季度在建的近 100 个由 NVIDIA 提供支持的 AI 工厂,同比增长了一倍,同时每个工厂平均使用的 GPU 数量也在同期翻了一番。并且,更多 AI 工厂项目正在跨行业和地域启动。NVIDIA 的全栈架构正在支撑 AI 工厂的部署,像 AT&T、比亚迪、Capital One、富士康、联发科和 Telenor 这样的行业领导者,以及具有战略重要性的主权云(如最近在沙特阿拉伯、台湾和阿联酋宣布的那些)都在采用。在不远的将来,我们可以看到需要数十吉瓦 NVIDIA AI 基础设施的项目。从生成式 AI 到代理式 AI(能够感知、推理、规划和行动的 AI)的转变将改变每个行业、每家公司和国家。 我们将 AI 代理视为一个新的数字化劳动力,能够处理从客户服务到复杂决策过程的任务。我们推出了基于 Llama 架构的 Llama Nemotron 系列开放式推理模型,旨在为企业提供强大的代理式 AI 平台。这些模型可作为 NIMS 或 NVIDIA 推理微服务提供,有多种尺寸以满足不同的部署需求。我们的训练后增强带来了 20% 的准确率提升和 5 倍的推理速度提升。 包括埃森哲、铿腾电子、德勤和微软在内的领先平台公司正在利用我们的推理模型改变工作方式。NVIDIA NEMO 微服务已在各行业普遍可用,正被领先企业用于构建、优化和扩展 AI 应用。借助 NEMO,思科在其代码助手中将模型准确率提高了 40%,响应时间缩短了 10 倍。纳斯达克在其 AI 平台的搜索能力中实现了 30% 的准确率和响应时间改进。壳牌定制 LLM 在使用 NVIDIA NEMO 训练后准确率提高了 30%。与其他框架相比,NEMO 的并行技术将模型训练时间加速了 20%。我们还宣布与全球最大的餐饮公司百胜餐饮集团建立合作伙伴关系,今年将把 NVIDIA AI 引入其 500 家餐厅,并逐步扩展到 61,000 家餐厅,以简化点餐、优化运营并提升其餐厅的服务水平。在 AI 驱动的网络安全方面,Checkpoint、CloudStrike 和 Palo Alto Networks 等领先公司正在使用 NVIDIA 的 AI 安全和软件堆栈来构建、优化和保护代理式工作流程,其中 CloudStrike 实现了检测分诊速度翻倍,计算成本降低 50%。谈到网络业务,网络业务在第一季度恢复了环比增长,收入环比增长 64% 至 50 亿美元。 我们的客户继续利用我们的平台高效地纵向扩展(scale up)和横向扩展(scale out)AI 工厂工作负载。我们创造了世界上速度最快的交换机,NVLink。对于纵向扩展,我们的第五代 NVLink 计算结构提供了 PCIe Gen 5 带宽的 14 倍。单个机架内的 NVLink 72 承载每秒 130 太字节的带宽,相当于全球互联网峰值流量的总和。 NVLink 是一个新的增长载体,并取得了良好的开端,第一季度出货量超过 10 亿美元。在 Computex 上,我们宣布了 NVLink Fusion。超大规模客户现在可以构建半定制的 CCU 和加速器,通过 NVLink 直接连接到 NVIDIA 平台。我们现在正在支持关键合作伙伴,包括联发科、Marvell、Alchip Technologies 和 Astera Labs 等 ASIC 提供商,以及富士通和高通等 CPU 供应商,利用 NVLink Fusion 连接我们各自的生态系统。对于横向扩展,我们增强的以太网产品提供最高吞吐量、最低延迟的 AI 网络。Spectrum-X 实现了强劲的环比和同比增长,目前年化收入超过 80 亿美元。采用遍及主要 CSP 和消费互联网公司,包括 CoreWeave、Microsoft Azure、Oracle Cloud 和 xAI。本季度,我们将 Google Cloud 和 Meta 加入了不断增长的 Spectrum-X 客户名单。我们推出了 Spectrum-X 和 Quantum-X 硅光子交换机,配备了世界上最先进的共封装光学器件。这些平台将通过提高 3.5 倍的能效和 10 倍的网络弹性,同时将客户上市时间加速 1.3 倍,实现扩展到数百万 GPU 的下一代 AI 工厂规模。 接下来快速总结一下我们按地域划分的收入情况。中国占我们数据中心收入的比例略低于预期,并且环比下降,原因是 H20 出口许可限制。对于第二季度,我们预计中国数据中心收入将大幅下降。需要提醒的是,虽然新加坡占我们第一季度开票收入的近 20%,因为我们的许多大客户使用新加坡进行集中开票,但我们的产品几乎总是运往其他地方。 请注意,开票至新加坡的 H100、H200 和 Blackwell 数据中心计算收入中,超过 99% 是来自美国客户的订单。接下来谈谈游戏和 AI PC。游戏收入达到创纪录的 38 亿美元,环比增长 48%,同比增长 42%。游戏玩家、创作者和 AI 爱好者的强劲采用使 Blackwell 成为我们有史以来最快的爬坡产品。在需求旺盛的背景下,我们在第一季度极大地改善了供应和可用性,并预计在第二季度继续这些努力。 AI 正在改变 PC、创作者和游戏玩家。拥有 1 亿用户装机量,GeForce 代表了 PC 开发者最大的平台。本季度,我们增加了 AI PC 笔记本电脑产品,包括能够运行微软 Copilot Plus 的型号。过去一个季度,我们将 Blackwell 架构带入了主流游戏领域,推出了起价仅为 299 美元的 GeForce RTX 5060 和 5060 Ti。 RTX 5060 也首次在笔记本电脑中亮相,起价 1,099 美元。这些系统将帧率翻倍并大幅降低延迟。这些 GeForce RTX 5060 和 5060 Ti 桌面 GPU 和笔记本电脑现已上市。在主机游戏方面,最近发布的任天堂 Switch 2 利用了 NVIDIA 的神经渲染和 AI 技术,包括采用 DLSS 技术的下一代定制 RTX GPU,为全球数百万玩家带来游戏性能的巨大飞跃。 任天堂迄今已出货超过 1.5 亿台 Switch 游戏机,使其成为历史上最成功的游戏系统之一。接下来是专业可视化业务,收入为 5.09 亿美元,环比持平,同比增长 19%。关税相关的不确定性暂时影响了第一季度的系统需求,但 AI 工作站的需求强劲,我们预计第二季度将恢复环比收入增长。NVIDIA DGX Spark 和 DGX Station 通过将 AI 超级计算机的强大功能融入桌面外形,彻底改变了个人计算。 DGX Spark 提供高达 1 petaflop 的 AI 计算能力,而 DGX Station 则提供惊人的 20 petaflops,并由 GB300 Superchip 提供动力。DGX Spark 将在日历年第三季度上市,DGX Station 将在今年晚些时候推出。我们已将 Omniverse 的集成和采用深化到一些世界领先的软件平台中,包括 Databricks、SAP 和施耐德电气。新的 Omniverse 蓝图,例如用于大规模机器人车队管理的 Mega,正在凯傲集团、和硕、埃森哲和其他领先公司中应用,以增强工业运营。 在 Computex 上,我们向技术制造领导者展示了 Omniverse 的强大功能,包括台积电、广达、富士康、和硕。使用 Omniverse,台积电通过虚拟设计晶圆厂节省了数月的工作时间。富士康将热仿真速度提高了 150 倍,和硕将装配线缺陷率降低了 67%。最后,我们的汽车业务收入为 5.67 亿美元,环比下降 1%,但同比增长 72%。 同比增长是由多个客户自动驾驶系统的爬坡以及新能源汽车的强劲终端需求推动的。我们正与通用汽车合作,使用 NVIDIA AI、仿真和加速计算来构建下一代汽车、工厂和机器人。我们现已开始为梅赛德斯-奔驰提供全栈解决方案的生产,从新的 CLA 开始,将在未来几个月内上路。我们发布了 Isaac GR00T N1,世界上首个开放的、完全可定制的人形机器人基础模型,支持通用推理和技能开发。 我们还推出了新的开放 NVIDIA Cosmo World 基础模型。领先公司包括 One X、Agility Robots、Robotics、Figure AI、Uber 和 Wabi。我们已开始将 Cosmo 集成到他们的运营中以生成合成数据,而 Agility Robotics、Boston Dynamics 和 XPEN Robotics 正在利用 Isaac 仿真来推进他们的人形机器人工作。GE Healthcare 正在使用基于 NVIDIA Omniverse 并使用 NVIDIA Cosmo 构建的新 NVIDIA Isaac 医疗保健仿真平台。 该平台加速了机器人成像和手术系统的开发。机器人时代已经来临。将开发数十亿机器人、数亿自动驾驶汽车以及数十万机器人化工厂和仓库。好的,接下来谈谈损益表的其余部分。GAAP 毛利率和非 GAAP 毛利率分别为 60.5% 和 61%。若不考虑 45 亿美元的支出,第一季度的非 GAAP 毛利率将达到 71.3%,略高于本季度初的预期。环比来看,GAAP 运营费用增长了 7%,非 GAAP 运营费用增长了 6%,反映了更高的薪酬和员工增长。我们的投资包括扩展基础设施能力和 AI 解决方案,我们计划在整个财年增加这些投资。在第一季度,我们通过股票回购和现金股息向股东返还了创纪录的 143 亿美元。 我们的资本回报计划继续是我们资本配置战略的关键要素。让我谈谈第二季度的展望。总收入预计为 450 亿美元,上下浮动 2%。我们预计所有平台都将实现温和的环比增长。 在数据中心,我们预计 Blackwell 的持续爬坡将被中国收入的下降部分抵消。请注意,我们的展望反映了第二季度 H20 收入损失约 80 亿美元。GAAP 和非 GAAP 毛利率预计分别为 71.8% 和 72%,上下浮动 50 个基点。我们预计更好的 Blackwell 盈利能力将推动毛利率实现温和的环比改善。 我们正在继续努力争取在今年晚些时候实现中位数 70% 的毛利率。GAAP 和非 GAAP 运营费用预计分别约为 57 亿美元和 40 亿美元。我们继续预计整个 2026 财年的运营费用增长将在中位数 30% 的范围内。GAAP 和非 GAAP 其他收入和费用预计为收入约 4.5 亿美元,不包括非上市和公开持有股权证券的损益。 GAAP 和非 GAAP 税率预计为 16.5%,上下浮动 1%,不包括任何离散项目。进一步的财务细节包含在 CFO 评论以及我们 IR 网站上提供的其他信息中,包括一个新的财务信息 AI 代理。让我强调一下即将面向金融界举办的活动。我们将出席 6 月 4 日在旧金山举行的美国银行全球技术大会、6 月 10 日在伦敦举行的 Rosenblatt 虚拟 AI 峰会和纳斯达克投资者会议,以及 6 月 11 日在巴黎 VivaTech 举办的 GTC 巴黎站。 我们期待在这些活动中见到您。我们讨论 2026 财年第二季度业绩的电话会议定于 8 月 27 日举行。好的,现在让我交给 Jensen 做发言。 黄仁勋, 创始人、总裁兼首席执行官 (Jensen Huang, Founder, President and Chief Executive Officer): 谢谢,Colette。 我们度过了一个忙碌而富有成效的一年。让我分享一些我们经常被问到的话题的看法。关于出口限制,中国是世界上最大的 AI 市场之一,也是通往全球成功的跳板。世界上有一半的 AI 研究人员在那里,赢得中国市场的平台将引领全球。 然而,今天,500 亿美元的中国市场实际上对美国工业关闭了。H20 出口限制结束了我们在中国的 Hopper 数据中心业务。我们无法进一步降低 Hopper 的性能以符合要求。因此,我们正在对无法销售或重新利用的库存进行数十亿美元的减记。 我们正在探索有限的竞争方式,但 Hopper 已不再是一个选项。中国的 AI 发展将继续,无论有没有美国芯片。它必须进行计算以训练和部署先进模型。问题不在于中国是否会拥有 AI,它已经有了。 问题在于世界上最大的 AI 市场之一是否会运行在美国平台上。将中国芯片制造商屏蔽在美国竞争之外,只会增强他们在国外的实力,削弱美国的地位。出口限制刺激了中国的创新和规模。AI 竞赛不仅仅是关于芯片,而是关于世界运行在哪个技术栈上。 随着该技术栈扩展到 6G 和量子领域,美国全球基础设施的领导地位岌岌可危。美国将其政策建立在“中国无法制造 AI 芯片”的假设之上。这个假设一直值得怀疑,现在显然是错误的。中国拥有巨大的制造能力。 最终,赢得 AI 开发者的平台将赢得 AI。出口限制应该加强美国平台,而不是将世界上一半的 AI 人才推向竞争对手。关于 DeepSeek,来自中国的 DeepSeek 和 Qwen 是最佳开源 AI 模型之一。免费发布后,它们在美国、欧洲及其他地区获得了关注。DeepSeek R1,就像 ChatGPT 一样,引入了推理 AI,它思考的时间越长,给出的答案就越好。 推理 AI 支持逐步解决问题、规划和工具使用,将模型转变为智能代理。推理是计算密集型的,每项任务所需的 token 量是以前一次性推理的数百到数千倍。推理模型正在推动推理需求的阶梯式激增。AI 扩展定律仍然稳固,不仅适用于训练,现在推理也需要大规模计算。DeepSeek 也强调了开源 AI 的战略价值。当流行的模型在美国平台上训练和优化时,它会推动使用、反馈和持续改进,从而加强美国在整个技术栈的领导地位。 美国平台必须保持作为开源 AI 的首选平台。这意味着支持与全球顶尖开发者的合作,包括中国的开发者。当像 DeepSeek 和 Qwen 这样的模型在美国基础设施上运行得最好时,美国就赢了。关于在岸制造,特朗普总统概述了一个大胆的愿景,旨在将先进制造业迁回本土、创造就业机会并加强国家安全。 未来的工厂将是高度计算机化和机器人化的。我们认同这一愿景。台积电正在亚利桑那州建设六座晶圆厂和两座先进封装厂,为 NVIDIA 生产芯片。工艺认证正在进行中,预计年底开始量产。Spill 和 Amkor 也在亚利桑那州投资建设封装、组装和测试设施。 在休斯顿,我们正与富士康合作建造一座百万平方英尺的工厂,用于制造 AI 超级计算机。和硕正在德克萨斯州沃思堡建设一座类似的工厂。为了鼓励和支持这些投资,我们做出了重大的长期采购承诺,这是对美国 AI 制造未来的深度投资。我们的目标是在一年内,从芯片到超级计算机都在美国制造。 每个 GB200 NVLink72 机架包含 120 万个组件,重近两吨。没有人生产过这种规模的超级计算机。我们的合作伙伴做得非常出色。关于 AI 扩散规则,特朗普总统废除了 AI 扩散规则,称其适得其反,并提出了一项新政策,以促进美国与可信赖伙伴的 AI 技术发展。 在他的中东之行中,他宣布了历史性投资。我很荣幸与他一起宣布在沙特阿拉伯建设一个 500 兆瓦的 AI 基础设施项目,并在阿联酋建设一个 5 吉瓦的 AI 园区。特朗普总统希望美国技术领先。他宣布的协议是美国的胜利,创造了就业机会,推进了基础设施,产生了税收收入,并减少了美国贸易逆差。美国将永远是 NVIDIA 最大的市场,也是我们基础设施最大装机量的所在地。 现在每个国家都将 AI 视为下一次工业革命的核心,这是一个生产智能并为每个经济体提供必要基础设施的新产业。各国正在竞相建设国家 AI 平台以提升其数字能力。在 Computex 上,我们宣布与富士康和台湾政府合作建设台湾首个 AI 工厂。上周,我在瑞典启动了其首个国家 AI 基础设施。 日本、韩国、印度、加拿大、法国、英国、德国、意大利、西班牙等国家现在都在建设国家 AI 工厂,以赋能初创企业、产业和社会。主权 AI 是 NVIDIA 新的增长引擎。Toshiya,交回给你。谢谢。 Toshiya Hari: 操作员,我们现在将开放电话会议进行提问。 请开始收集问题好吗? 问答环节 (Questions And Answers) 会议操作员 (Operator): 问答环节 会议操作员 (Operator): 谢谢。(操作员说明)您的第一个问题来自摩根士丹利的 Joe Moore。您的线路已接通。 Joseph Moore: 好的。谢谢。你们至少一年前就开始谈论围绕推理模型的推理规模化问题,正如你们所谈到的,我们现在确实看到了它的成果。我们也从你们的客户那里听到了。您能给我们一个概念,说明您能满足多少这种需求吗?您能否给我们一个概念,说明推理业务对你们来说有多大?我们未来是否需要完整的 NVL72 机架级解决方案来进行推理推理? Toshiya Hari: 嗯,我们希望能满足所有需求,我认为我们正在按计划满足大部分需求。 Grace Blackwell NVL72 是当今理想的引擎,理想的计算机思考机器,如果你愿意这么说的话,用于推理 AI。这有几个原因。第一个原因是 token 生成量,推理过程所需的 token 数量是一次性聊天机器人的 100 到 1000 倍。它本质上是自我思考,一步步分解问题。它可能规划多条路径来寻找答案。 它可能使用工具、阅读 PDF、阅读网页、观看视频,然后产生结果、答案。它思考的时间越长,答案就越好、越聪明。因此,我们想要做的,以及 Grace Blackwell 设计成在推理性能上实现如此巨大飞跃的原因,是为了让您能够完成所有这些工作,同时仍能尽快获得响应。与 Hopper 相比,Grace Blackwell 的速度和吞吐量高出约 40 倍。 因此,这将在显著降低成本的同时,以出色的服务质量改善响应质量方面带来巨大的、巨大的好处。所以这是根本原因,是推动 Grace Blackwell NVLink72 设计的核心驱动因素。当然,为了实现这一点,我们必须重新发明,实际上是重新设计构建这些超级计算机的整个方式。但现在我们已全面投产,这将令人兴奋,非常令人兴奋。 会议操作员 (Operator): 下一个问题来自美国银行证券的 Vivek Arya。您的线路已接通。 Vivek Arya: 谢谢提问。首先请 Colette 澄清一下。 关于中国的影响,我记得之前提到大约 150 亿美元。所以你们在第二季度有 80 亿美元的损失。那么剩余季度是否还有余下的逆风?Colette,该如何建模?然后 Jensen,给您的问题。在 GTC 大会上,您概述了未来几年近 1 万亿美元 AI 支出的路径。 我们现在处于这个建设的哪个阶段?您认为所有支出者(无论是 ESP、主权企业还是建设者)的支出是否会均匀分布?我们是否应该预期期间会有一些消化期?您的客户讨论告诉您应如何为明年建模增长? Colette Kress, 执行副总裁兼首席财务官 (Colette Kress, Executive Vice President and Chief Financial Officer): 好的,Vivek。非常感谢提问。关于 H20,是的,我们在第一季度确认了 46 亿美元的 H20 收入。我们未能交付 25 亿美元。因此第一季度 H20 总收入本应是 70 亿美元。展望第二季度,我们预计中国数据中心收入将大幅下降。我们之前强调了我们在第二季度为 H20 计划的订单量,那是 80 亿美元。 展望未来,我们确实有其他未来订单我们将无法履行。因此,这已包含在我们减记的 45 亿美元金额中。那次减记是关于库存和采购承诺的,我们的采购承诺与我们收到的订单预期相符。 然而,更大的问题在于我们将无法服务的市场规模。我们评估未来的 TAM(总可用市场)接近约 500 亿美元,因为我们没有适合中国市场的产品。 Toshiya Hari: 实际上,最好的理解方式可能是 AI 涉及多个方面。当然,我们知道 AI 是一项令人难以置信的技术,它将改变每个行业,从软件到医疗保健和金融服务,到零售,我认为是每个行业,交通、制造业,而我们正处于这一切的开端。但也许另一种思考方式是:我们在哪里需要智能?哪里需要数字智能?它在每个国家,每个行业都需要。正因如此,我们认识到 AI 也是一种基础设施。它是一种交付需要工厂的技术的途径。这些工厂生产 token。 正如我所提到的,它们对每个国家的每个单一行业都很重要。因此,在此基础上,我们确实处于非常初期的阶段,因为这项技术的采用还处于非常早期的阶段。现在,随着能够推理、思考的 AI(人们称之为推理时间扩展)的出现,我们达到了一个非凡的里程碑。当然,它创造了一个全新的——我们进入了一个时代,推理将成为计算工作负载的重要组成部分。 但无论如何,它将是一种新的基础设施,我们正在云中构建它。美国是真正的早期启动者,并可在美国云中使用。这是我们最大的市场,最大的装机量,我们可以看到这种情况在持续。但除此之外,我们将看到 AI 进入企业,也就是本地部署(on-prem),因为太多数据仍在本地,访问控制非常重要。将每家公司的所有数据都迁移到云端非常困难。因此,我们将把 AI 引入企业。你们看到我们发布了几款非常激动人心的新产品。我们的 RTX Pro 企业 AI 服务器可运行所有企业和 AI 应用。我们的 DGX Spark 和 DGX Station 专为希望在本地工作的开发者设计。 因此,企业 AI 才刚刚起步。电信运营商(Telcos)。如今,未来的许多电信基础设施将是软件定义的,并建立在 AI 之上。因此 6G 将建立在 AI 之上。这些基础设施需要建设。正如我所说,这还处于非常早期的阶段。 当然,今天每个制造产品的工厂都将拥有一个与之配套的 AI 工厂。AI 工厂将推动为工厂自身创建和运行 AI,同时也为工厂生产的产品提供动力。所以很明显,每家汽车公司都将拥有 AI 工厂。很快也会有机器人公司,这些公司也将构建 AI 来驱动机器人。 因此,我们正处于所有这些建设工作的开端。 会议操作员 (Operator): 下一个问题来自 Cantor Fitzgerald 的 CJ Muse。您的线路已接通。 CJ Muse: 好的,下午好。 感谢提问。过去一个月有很多大型 GPU 集群投资的公告,您提到了其中一些,如沙特阿拉伯、阿联酋,另外我们也从 Oracle 和 X AI 等公司听说了。所以我的问题是,是否还有其他同等规模和量级的项目尚未宣布?也许更重要的是,这些订单对 Blackwell 的交货时间以及您当前(站在 2025 年近半的今天)的可见度有何影响? Toshiya Hari?未知发言人 (Unidentified Speaker): 嗯,我们今天拥有的订单比我在 GTC 上谈论订单时更多。然而,我们也在增加我们的供应链并建设我们的供应链。他们做得非常出色。 我们在美国本土进行制造,但我们的供应链在未来很多年都会非常繁忙。关于进一步的公告,我下周将在欧洲各地出差,几乎每个国家都需要建设 AI 基础设施,有无数的 AI 工厂正在规划中。我认为 Colette 在发言中提到有大约 100 个 AI 工厂在建。还有很多尚未宣布。 我认为这里重要的概念,让它更容易理解,是像其他影响每个单一行业的技术一样,当然电力是其中之一,它变成了基础设施。当然信息基础设施,我们现在称之为互联网,影响着每个行业、每个国家、每个社会。智能肯定是其中之一。我不知道有哪家公司、哪个行业、哪个国家认为智能是可选的。 它是必不可少的基础设施,因此我们现在已将智能数字化,所以我认为我们显然处于建设这种基础设施的开端,每个国家都将拥有它。我对此深信不疑。每个行业都将使用它。我也深信不疑。 这种基础设施的独特之处在于它需要工厂。有点像能源基础设施、电力。它需要工厂。我们需要工厂来生产这种智能,而智能正变得越来越复杂。 我们之前谈到,过去几年我们在推理 AI 方面取得了巨大突破,现在有了能够推理的代理(agent),还有使用整套工具的超代理(super agent),然后是超代理集群,其中代理与代理协作解决问题。你可以想象,与一次性聊天机器人相比,现在基于这些大型语言模型构建的代理,它们实际上需要多少计算量,并且确实是如此,因此我认为我们正处于建设工作的开端,未来应该会有很多很多公告。 会议操作员 (Operator): 您的下一个问题来自 Melius 的 Ben Reitzes。您的线路已接通。 Ben Reitzes: 是的。嗨。谢谢提问。我想先请 Colette 就指引稍微澄清一下,也许换种方式表达。 这 80 亿美元的 H20 损失似乎比大多数人预期的第二季度放弃的收入高出大约 30 亿美元。那么这意味着,在您的指引下,为了实现 450 亿美元,业务的其他部分需要多贡献大约 20 到 30 亿美元。所以我想知道这个计算对您来说是否合理。然后在指引方面,这将意味着非中国业务的表现比市场预期要好一些。 所以想知道在您看来,主要的驱动因素是什么。然后我问题的第二部分,Jensen,我知道您只指引一个季度,但考虑到 AI 扩散规则被取消以及主权业务的势头,在您的历史中,有时您会在类似的电话会议上表示对全年环比增长有更高的信心,等等。鉴于 AI 扩散规则废除释放的需求以及供应链的增加,当前环境是否让您对今年后续的环比增长更有信心?所以第一个问题给 Colette,下一个给 Jensen。非常感谢。 Colette Kress, 执行副总裁兼首席财务官 (Colette Kress, Executive Vice President and Chief Financial Officer): 谢谢 Ben 的提问。当我们查看第二季度指引和我们提供的评论时,如果出口限制没有发生,我们本会有大约 80 亿美元的 H20 订单。这是正确的。这原本是我们对本季度第二季度展望中的一个可能性。所以我们在这里也谈到了我们在 Blackwell 上看到的增长,Blackwell 在我们许多客户中的采用,以及我们为满足客户需求而持续增加的供应。把这些因素结合起来,就是我们提供这份指引的原因。我把剩下的交给 Jensen,看他怎么说。 黄仁勋, 创始人、总裁兼首席执行官 (Jensen Huang, Founder, President and Chief Executive Officer): 好的,谢谢。 谢谢,Ben。我想说,与年初相比,与 GTC 时间点相比,有四个积极的意外。第一个积极的意外是推理 AI 需求的阶梯式增长。我认为现在已经相当清楚,AI 正在经历指数级增长,而推理 AI 确实突破了瓶颈。人们对幻觉(hallucination)或其真正解决问题的能力存在担忧,我认为很多人正在跨越这个障碍,认识到代理式 AI 和推理 AI 是多么有效。 所以第一点是推理推理及其需求的指数级增长。第二点,你提到了 AI 扩散。看到 AI 扩散规则被废除真是太好了。特朗普总统希望美国获胜,他也意识到我们不是这场竞赛中唯一的国家,他希望美国获胜,并认识到我们必须将美国技术栈推向世界,让世界在美国技术栈之上构建,而不是替代品。 所以 AI 扩散发生了,它的废除几乎恰逢世界各国意识到 AI 作为基础设施的重要性,而不仅仅是一项具有巨大好奇心和重要性的技术,而是作为其行业、初创企业和社会的关键基础设施。就像他们必须建设电力和互联网的基础设施一样,他们必须建设 AI 的基础设施。我认为这是一种觉醒,这创造了很多机会。第三是企业 AI。代理(Agents)是有效的,并且这些代理做得相当成功。比生成式 AI 更重要的是,代理式 AI 是颠覆性的。代理能够理解模糊和隐含的指令,能够解决问题、使用工具、拥有记忆等等。因此,我认为企业 AI 已经准备好起飞。我们花了几年时间才构建出一个能够集成、运行企业 AI 堆栈、运行企业 IT 堆栈,但又能为其添加 AI 的计算系统。这就是我们上周在 Computex 上宣布的 RTX PRO 企业服务器。 几乎所有主要的 IT 公司都加入了我们。我对此感到非常兴奋。所以计算是一个堆栈,是其中的一部分,但请记住企业 IT 实际上有三大支柱。它是计算、存储和网络。我们现在终于把这三者整合在一起了,我们正在将其推向市场。最后是工业 AI。请记住,世界秩序重组的一个影响是各地区的制造业回流(on-shoring manufacturing)和到处建厂。除了 AI 工厂,当然还有新的电子制造、芯片制造在世界各地建设。 所有这些新工厂和新设施的建设,正好与 Omniverse、AI 以及我们在机器人领域的所有工作涌现的时机相吻合。因此这第四个支柱相当重要。每个工厂都将有一个与之相关的 AI 工厂。为了创建这些物理 AI 系统,您必须训练海量数据。所以回到更多数据、更多训练、需要创建更多 AI、需要更多计算机。所以这四个驱动力正在真正进入涡轮增压状态。 会议操作员 (Operator): 您的下一个问题来自 UBS 的 Timothy Arcuri。您的线路已接通。 Timothy Arcuri: 非常感谢。 Jensen,我想问关于中国的问题。听起来七月(指第二财季)的指引假设没有 H20 的替代型号。但如果总统希望美国获胜,似乎必须允许您向中国出货一些产品。所以我想就此谈两点。 首先,您是否已被批准向中国发货一个新的改良版本,并且您目前正在制造它,但只是无法在 2026 财年第二季度发货?然后你们在中国的季度运行率大约是 70 到 80 亿美元。一旦你们有被允许运回中国的产品,我们能否回到那种季度运行率?我想我们都在试图弄清楚在我们的模型中要加回多少以及何时加回。所以您能说的任何信息都会很棒。谢谢。 黄仁勋, 创始人、总裁兼首席执行官 (Jensen Huang, Founder, President and Chief Executive Officer): 总统有一个计划。他有远见,我信任他。关于我们的出口限制,它是一系列限制,新的限制使我们几乎不可能将 Hopper 的性能降低到任何有实际用途的程度。所以新的限制,对 Hopper 来说几乎是条死路。 我们的选择有限,所以我们只是,关键是理解这些限制。关键是理解这些限制,看看我们是否能想出有趣的产品来继续服务中国市场。我们目前没有任何东西,但我们正在考虑。我们正在思考。 显然,目前的限制相当严格,我们今天没有任何要宣布的事情。当时机成熟时,我们会与政府接触并讨论此事。 会议操作员 (Operator): 您的最后一个问题来自富国银行的 Aaron Rakers。您的线路已接通。 分析师 (Analyst): 嗨。我是 Jake,代表 Aaron。感谢您回答问题,并对出色的季度业绩表示祝贺。我想知道您能否就网络业务中看到的强劲势头提供更多信息,特别是在 CSP 采用您的以太网解决方案方面,以及您是否看到网络附加率有任何变化。 黄仁勋, 创始人、总裁兼首席执行官 (Jensen Huang, Founder, President and Chief Executive Officer): 好的,谢谢您的提问。我们现在有三个,也许是四个网络平台。第一个是纵向扩展(scale up)平台,将一台计算机变成一台更大的计算机。纵向扩展非常困难。 横向扩展(scaling out)更容易做到,但纵向扩展很难做到。这个平台叫做 NVLink。NVLink 包含芯片、交换机和 NVLink 主干,非常复杂。但无论如何,这是我们的新平台,纵向扩展平台。 除了 InfiniBand,我们还有 Spectrum-X。我们一直相当一致地表示,以太网是为许多独立的流量设计的。但在 AI 的情况下,您有许多计算机协同工作。AI 的流量极其突发。延迟非常重要,因为 AI 在思考,它希望尽快完成工作。 并且您有一大堆节点协同工作。因此我们增强了以太网,添加了诸如极低延迟、拥塞控制、自适应路由等技术,这些是以前只在 InfiniBand 中可用的技术。结果,我们提高了以太网在这些集群中的利用率。这些集群规模巨大,利用率从最低 50% 提高到高达 85%、90%。 差异在于,如果您有一个价值 100 亿美元的集群,您将其效率提高了 40%,那就价值 40 亿美元,这太不可思议了。所以 Spectrum X 确实,坦率地说,是一个本垒打(home run),正如我们在准备好的发言稿中所说,上个季度,我们增加了两个非常重要的 CSP 采用 Spectrum X。然后是最后一个,最后一个是 Bluefield,这是我们的控制平面。所以在这四个中,控制平面网络用于存储、安全,并且对于许多希望实现用户隔离、多租户集群,同时仍能使用并获得极高性能、裸机性能的集群来说,Bluefield 是理想的选择,并在很多这类场景中使用。 所以我们有这四个网络平台,它们都在增长,我们做得非常好,我为团队感到非常自豪。 分析师 (Analyst): (听不清) Jensen,交回给您。 会议操作员 (Operator): 我们的提问时间到此结束。Jensen,我将电话会议交回给您。 黄仁勋, 创始人、总裁兼首席执行官 (Jensen Huang, Founder, President and Chief Executive Officer): 谢谢。这是一股强大的新增长浪潮的开端。Grace Blackwell 已全面投产,我们已经开足马力(off to the races)。我们现在拥有多个重要的增长引擎。 曾经是较轻工作负载的推理,正随着产生收入的 AI 服务而激增。AI 的增长速度比以往任何平台转变(包括互联网、移动和云)都要快,并且规模将更大。Blackwell 旨在为完整的 AI 生命周期提供动力,从训练前沿模型到大规模运行复杂的推理和推理代理。随着训练后技术(如强化学习和合成数据生成)的突破,训练需求持续上升,但推理正在爆炸式增长。 推理 AI 代理需要的计算量是数量级的增长。我们下一个增长平台的基础已经就绪并准备好扩展。主权 AI,各国正在投资 AI 基础设施,就像他们曾经投资电力和互联网一样。企业 AI,AI 必须可以在本地部署(on-prem)并与现有 IT 集成。我们的 RTX PRO、DGX Spark 和 DGX Station 企业 AI 系统已准备好现代化价值 5000 亿美元的本地或云端 IT 基础设施。 每个主要的 IT 提供商都在与我们合作。工业 AI,从训练到数字孪生仿真再到部署,NVIDIA Omniverse 和 Isaac GR00T 正在为全球的下一代工厂和人形机器人系统提供动力。AI 时代已经到来。从 AI 基础设施、大规模推理、主权 AI、企业 AI 到工业 AI,NVIDIA 已准备就绪。在 GTC 巴黎站加入我们。我将于 6 月 11 日在 VivaTech 发表主题演讲,谈论量子 GPU 计算、机器人化工厂和机器人,并庆祝我们在该地区建设 AI 工厂的合作伙伴关系。NVIDIA 乐队将巡演法国、英国、德国和比利时。感谢您今天参加财报电话会议。 巴黎见。 会议操作员 (Operator): 今天的电话会议到此结束。您现在可以断开连接。活动已结束
理想汽车公布Q1财报:营收259亿元,净利润同比增长9.4%
凤凰网科技讯 5月29日,理想汽车发布2025年第一季度未经审计财报。数据显示,公司当季实现收入259亿元,同比增长1.1%,较去年第四季度的443亿元环比下降41.4%。交付量达到92,864辆,同比增长15.5%,环比下滑41.5%。理想表示车辆销售收入较2024年第四季度减少主要受到与中国春节假期相关的季节性因素的影响导致。公司毛利率维持在20.5%,与去年同期基本持平。 经营利润方面,理想汽车一季度净利润为6.466亿元,实现连续十个季度盈利,同比增长9.4%,环比下降81.7%;非美国通用会计准则净利润为10.14亿元,同比下降20.5%,环比下降74.9%。 经营现金流出现17亿元净流出,自由现金流为负25亿元,较去年同期的负51亿元有所收窄,但仍未恢复正向流动。截至3月末,公司现金储备为1107亿元,较上季度减少约127亿元。季度研发费用25亿元,主要投向人工智能技术在辅助驾驶、智能座舱等领域的应用开发。 产品层面,理想L系列累计交付量突破100万辆,成为全球首个达成百万销量的增程产品系列。在细分市场中,理想L6持续占据20万至30万元中大型SUV销量榜首,理想L7和L8在30万至40万元价格区间表现强势,理想L9则在40万至50万元大型SUV市场领先。 技术创新方面,理想汽车将于7月发布首款纯电SUV理想i8,同时推出自研的VLA司机大模型。该视觉语言行动模型整合了空间、语言及行为智能,具备3D空间理解和逻辑推理能力,旨在推动L2级辅助驾驶向更高级别自动驾驶演进。 基础设施建设上,理想汽车超充网络覆盖高速公路超5万公里,已开放运营2,350座超充站,配备超过1.27万根超充桩,在城市和高速自建网络规模方面位居国内车企前列。 展望第二季度,理想汽车预计交付量为12.3万至12.8万辆,同比增长13.3%至17.9%;营收预期达到325亿至338亿元,同比增长2.5%至6.7%。
影视飓风喊话微信视频号:太邪恶了 竟然发布有偿卖血视频
快科技5月29日消息,今日下午,影视飓风揭露视频号可发布有偿卖血视频,并喊话视频号“道德底线与社会责任在哪里?” 全文如下: 视频号这个平台有点太邪恶了,我们的账号亿点点不一样被封禁,理由是涉及医学,即便我们我们每期公益医学内容都是和正规三甲医院合作,没有任何广告,没有血腥画面,提供了医院盖章的授权证明,多次沟通,平台毫不理会。 本以为这是平台的统一规定,我们只能接受,直到今天运营意外发现,居然在视频号可以公然发布有偿卖血的视频!视频里的人数着大把的钱,拉人卖血,这是国家明令禁止的违法行为。 我们尊重平台的内容政策,但是面对这种离谱的情况,实在忍不住问一句:视频号,你们这个平台的道德底线与社会责任在哪里? 公开资料显示,影视飓风,是2014年由潘天鸿(Tim)创建并运营的影视领域自媒体账号 ,该账号在bilibili认证为bilibili 2024百大UP主、2023年度最高人气奖UP主、2022年度多元创新奖UP主; 据了解,“影视飓风”主要业务为影视教学、器材评测、优质原创短片制作、商业广告摄制、影视资源分享等。 其主要知名作品有“上升:我们一起飞上3万米高空”、“一个百大UP主的创业故事”、“十天穿越一万公里,用12K杜比全景声给你一场视听浪漫”等。 责任编辑:秋白
美团升级骑手大病关怀计划,未成年子女首次纳入保障范围
凤凰网科技讯 5月29日,美团今日对外宣布全面升级“骑手大病关怀计划”,此次调整将众包骑手未成年子女首次纳入保障范围,疾病覆盖种类从101种重症扩展至152种,平台骑手保障体系向家庭维度的重要延伸。 根据美团方面披露的数据,截至2024年12月底,骑手关怀计划已为6173名骑手及其家属提供援助,累计发放关怀金达1.9亿元。 在疾病保障范围方面,升级后的计划新增了51种轻症疾病保障,同时引入非重症住院医疗费用报销机制。对于符合条件的专送及众包骑手,其未成年子女一旦确诊特定疾病,可获得一次性给付限额30%的资金支持以及定额住院补助。 美团在前期调研中发现,多数骑手承担着家庭主要收入来源的责任,子女健康保障成为这一群体的核心关切点。数据显示,骑手群体对于家庭成员,特别是未成年子女的医疗保障需求较为迫切,这也成为此次计划升级的主要驱动因素。 值得关注的是,美团针对女性骑手群体推出了差异化保障措施。今年3月起,平台为在职女骑手免费提供为期一年的“女性重疾险”,骑手可通过骑手App“保障中心”页面直接领取。此外,截至2024年12月底,已有3105名女骑手完成了免费的两癌筛查服务,该项目已覆盖全国300多个城市。 美团骑手关怀计划自2019年启动以来,通过与配送合作商共同出资的方式建立了相对完善的保障基金体系。除大病关怀外,平台还设立了“袋鼠宝贝公益计划”专项资助患病骑手子女,并提供免费职业培训等多元化福利项目。
H20对中国收入影响低于预期,英伟达盘前大涨超6%
英伟达 凤凰网科技讯 北京时间5月29日,美国当地时间周四盘前交易,英伟达股价大涨超6%。此前,该公司发布了第一财季业绩超出预期,而且美国对华H20芯片出口管制政策对其影响低于预期。 根据英伟达财报,该公司在第一财季因为H20芯片出口管制计提45亿美元库存减值,低于上个月预计的55亿美元。投资公司D.A. Davidson分析师吉尔·卢里亚(Gil Luria)表示,H20芯片出口限制的整体影响比此前担忧的要小。“虽然第二财季业绩指引中剔除了一部分中国收入,但也有部分中国收入被提前计入了第一财季。在限制措施出台前,中国买家提前囤积H20芯片,这支撑了第一财季业绩表现。”卢里亚表示。 截至发稿,英伟达股价在周四盘前交易中上涨6.22%。英伟达的财报表现也提振了美国公司的股价。 半导体公司Marvell周四盘前交易一度上涨多达7%,高通上涨近2%。 英伟达股价盘前上涨6.22% 英伟达一直被投资者视为整体半导体行业和AI相关股票的风向标,其最新一季强劲业绩数据引发了全球半导体板块的上涨。 在日本,半导体设备制造商东京电子周四收盘上涨逾4%。为英伟达提供高带宽内存的SK海力士,在韩国股市收盘时上涨近2%。 在欧洲,光刻机巨头阿斯麦、半导体设备供应商ASM国际、BE半导体工业公司股价均上涨。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
开启十年“追星”路 天问二号先“取星尘” 再探“彗星”
  5月29日1时31分,我国在西昌卫星发射中心用长征三号乙Y110运载火箭,成功将行星探测工程天问二号探测器发射升空。    天问二号将开启我国首次对地外小天体的“双目标探测”,这意味着我国深空探测又迈出了新的一步。 “双目标探测”探什么?   天问二号任务两个目标:   目标一:对小行星2016HO3进行伴飞、取样并返回地球;   目标二:将前往主带彗星311P,开展科学探测。 一次发射完成多项任务 任务周期约10年   天问二号整个飞行过程复杂且精细,任务周期约10年,包含13个飞行阶段,风险难度大。   其中,小行星探测和采样返回包括9个阶段:   发射段顺利完成后,探测器进入小行星转移段,这一阶段将持续约1年,期间需实施深空机动、中途修正等操作,直至距离小行星约3万公里处。   随后依次进入小行星接近段、交会段、近距探测段,在近距探测段按照“边飞边探、逐步逼近”原则,对小行星开展悬停、主动绕飞等探测,确定采样区后进入采样段。   完成采样任务后,探测器将经历返回等待段、返回转移段,在返回转移段接近地球,返回舱与主探测器分离,之后独自进入再入回收段,预计于2027年底着陆地球并完成回收。   此后,主探测器则继续飞行,前往主带彗星311P,开展后续探测任务。 我们为何要探测它们?   小行星2016HO3   小行星2016HO3是人类目前发现的地球“准卫星”之一。这颗小行星距离地球最近的时候,也有地月距离的42倍。它的踪迹由美国夏威夷的泛星计划巡天望远镜于2016年首次捕捉到。   小行星2016HO3保留着太阳系诞生之初的原始信息,是研究太阳系早期物质组成、形成过程和演化历史的“活化石”,具有极高的科学价值。   主带彗星311P   主带彗星311P是运行在火星和木星轨道之间的小行星带中的一个小天体,距离地球最近也有1.62亿公里,最远5.13亿公里。   它既有彗星的物质构成特征,又有小行星的轨道特征。对它进行探测,有助于了解小天体的物质组成、结构,还有它的演化机制等。 小行星探测有多难?   天问二号任务是边干边规划,充满了挑战。为了确保任务顺利完成,天问二号要克服许多困难。   难点一:飞向小行星的轨道如何设计   小行星和地球一样,都是围绕太阳转,但两者不是同样的周期,会产生位置和角度的差异,对飞行轨道设计要求极高。   难点二:抵达小行星后如何采样   为了确保不论星壤是很厚还是很薄都能获得样品,任务团队设计了不同采样方式。等探测器近距探测之后,再规划到底在哪采样、哪种方式采样。   第三大难点:采样后如何返回地球   天问二号进入大气层不再“打水漂”,因此需要承受超过第二宇宙速度再入而带来的极大过载。将近12公里每秒的再入速度,任务团队必须要精细算,才能把防热结构、气动外形设计等做好。
“远火比拼”日渐激烈 俄乌远程武器库都有哪些“牌”?
  俄乌持续交战,与此同时,西方国家取消供乌武器射程限制的问题备受关注。   德国总理默茨26日宣布德国及其盟友已不再限制援助乌克兰武器的射程。但又在27日解释称这仅是对过去几个月实际情况的描述。俄罗斯总统新闻秘书佩斯科夫27日表示,如果欧洲国家取消向乌克兰提供远程攻击武器的射程限制,这将意味着冲突的升级。    针对德国总理默茨26日宣布的解禁供乌武器射程一事,俄总统新闻秘书佩斯科夫27日回应称,欧洲方面的行为无助于和平解决俄乌冲突。同一天,俄罗斯外交部发言人扎哈罗娃说,默茨的言论是在“自我推销”,德国武器无法改变俄特别军事行动进程。有分析认为,随着欧洲可能进一步放宽武器限制,俄乌双方在远程武器上的较量将进入更激烈的阶段。   俄乌双方远程武器库中都有哪些“牌”?   总台记者 魏东旭:在俄乌冲突的战场上,双方使用的远程武器越来越多,“远火比拼”日渐激烈。其一,俄乌双方大量使用远程自杀式无人机,采用低成本空袭方式,打击对方纵深区域的高价值目标,比如机场、能源和军工设施。其二,双方都在使用战术导弹,打击对方高价值军事目标和时间敏感目标。比如,俄军使用“伊斯坎德尔-M”战术导弹,打击乌军的“海马斯”高机动火箭炮。而乌军利用苏-24战斗轰炸机等空中作战平台发射“风暴之影”巡航导弹,给俄军前沿指挥机构和军事设施造成了很大威胁。不过,俄军的远程火力打击手段更多,技术也更先进。比如,空射型“匕首”高超音速导弹和“榛树”中程高超音速导弹,能对乌军的防空反导阵地进行摧毁和压制。而北约成员国没有此类武器,乌军也无法获取。   欧洲国家有能力向乌克兰提供更强巡飞弹   总台记者 魏东旭:如果包括德国在内的欧洲国家,不再限制援助乌克兰武器的射程,俄罗斯确实会面临更大的压力。首先,这意味着德国可能会提供“金牛座”巡航导弹,俄军会面临更大的防空压力。其次,欧洲国家如果针对俄乌冲突,以满足乌克兰远程火力打击需求为出发点,他们确实能够生产出打击距离更远、威力更大、抗干扰能力更强的巡飞弹,也就是更为先进的远程自杀式无人机,这类武器装备一旦大规模援助给乌克兰,俄军也会非常头痛。   俄军将进一步强化防空能力予以反制   总台记者 魏东旭:对于欧洲加码对乌军事援助,俄罗斯是有预判的。技战术层面,俄军会强化防御和反制能力。俄军需要更多的S-400、S-350防空系统,保护一线作战兵力和本土纵深区域的高价值目标。俄军也会针对乌军的空军基地、远程火力打击平台,实施精准火力压制。战略层面,俄罗斯可能也会通过外交博弈,能源手段,针对欧洲国家施压。
DeepSeek介绍R1升级细节:推理能力大幅提升,幻觉率最高降低50%
凤凰网科技讯 5月29日,昨日DeepSeek透露R1进行了小升级,今日DeepSeek官方详细介绍了此次更新的变化。据悉,DeepSeek R1模型已完成小版本升级,当前版本为 DeepSeek-R1-0528。升级后的新模型在推理能力、编程、写作、幻觉改善等方面有了巨大的提升。 深度思考能力强化 DeepSeek-R1-0528仍然使用2024年12月所发布的 DeepSeek V3 Base 模型作为基座,但在后训练过程中投入了更多算力,显著提升了模型的思维深度与推理能力。 更新后的R1模型在数学、编程与通用逻辑等多个基准测评中取得了当前国内所有模型中首屈一指的优异成绩,并且在整体表现上已接近其他国际顶尖模型,如o3与Gemini-2.5-Pro。 DeepSeek-R1-0528 在各项评测集上均取得了优异表现(基准测试使用 64K 输出长度;在 Humanity's Last Exam 中,只使用其中的文本题目进行测试) 相较于旧版 R1,新版模型在复杂推理任务中的表现有了显著提升。例如在 AIME 2025 测试中,新版模型准确率由旧版的 70% 提升至 87.5%。这一进步得益于模型在推理过程中的思维深度增强:在 AIME 2025 测试集上,旧版模型平均每题使用 12K tokens,而新版模型平均每题使用 23K tokens,表明其在解题过程中进行了更为详尽和深入的思考。 同时,蒸馏DeepSeek-R1-0528的思维链后训练Qwen3-8B Base,得到了 DeepSeek-R1-0528-Qwen3-8B。该8B模型在数学测试AIME 2024中仅次于DeepSeek-R1-0528,超越 Qwen3-8B (+10.0%),与 Qwen3-235B 相当。DeepSeek-R1-0528的思维链对于学术界推理模型的研究和工业界针对小模型的开发都将具有重要意义。 DeepSeek-R1-0528-Qwen3-8B 等开源模型的 AIME 2024 对比结果 其他能力更新 幻觉改善:新版DeepSeek R1针对“幻觉”问题进行了优化。与旧版相比,更新后的模型在改写润色、总结摘要、阅读理解等场景中,幻觉率降低了45~50% 左右,能够有效地提供更为准确、可靠的结果。 创意写作:在旧版 R1 的基础上,更新后的 R1 模型针对议论文、小说、散文等文体进行了进一步优化,能够输出篇幅更长、结构内容更完整的长篇作品,同时呈现出更加贴近人类偏好的写作风格。 工具调用:DeepSeek-R1-0528 支持工具调用(不支持在 thinking 中进行工具调用)。当前模型 Tau-Bench 测评成绩为 airline 53.5% / retail 63.9%,与 OpenAI o1-high 相当,但与 o3-High 以及 Claude 4 Sonnet 仍有差距。 示例为通过 LobeChat 使用 DeepSeek-R1-0528 的工具调用能力得到的网页文章总结 此外,DeepSeek-R1-0528 在前端代码生成、角色扮演等领域的能力均有更新和提升。 示例为在网页端调用 DeepSeek-R1-0528 使用 HTML/CSS/JavaScript 开发的一个现代简约风格的单词卡片应用 API 更新 API 已同步更新,接口与调用方式保持不变。新版R1 API仍支持查看模型思考过程,同时还增加了Function Calling和JsonOutput的支持。 我们对新版 R1 API 中 max_tokens 参数的含义做了调整:现在 max_tokens用于限制模型单次输出的总长度(包括思考过程),默认为 32K,最大为 64K。请 API 用户及时调整 max_tokens 参数以防输出被提前截断。 本次R1更新后,官方网站、小程序、App端和API中的模型上下文长度仍为64K。如果用户对更长的上下文长度有需求,可以通过其他第三方平台调用上下文长度为128K的开源版本R1-0528模型。 模型开源 DeepSeek-R1-0528与之前的DeepSeek-R1使用同样的base模型,仅改进了后训练方法。私有化部署时只需要更新 checkpoint 和 tokenizer_config.json(tool calls 相关变动)。模型参数为 685B(其中 14B 为 MTP 层),开源版本上下文长度为 128K(网页端、App 和 API 提供 64K 上下文)。
梁文锋不语,只是一味“小更新”
摘要: DeepSeek深夜发布小更新,新版本在编程、推理能力方面大幅提升。另有行业人士认为,本次无论模型尺寸还是支持的上下文长度都有大幅提升,猜测这可能意味着R2的上线时间又要推迟了。 凤凰网科技 出品 作者|姜凡 编辑|董雨晴 今日凌晨,DeepSeek再度有了新动作——DeepSeek-R1-0528模型于Hugging Face平台正式开源。 在发布之前几个小时,DeepSeek小助手在官方交流群中发布低调发布了一则通知:DeepSeek R1模型已完成小版本的试升级,用户可前往官方网页、App以及小程序进行测试体验(开启深度思考功能)。值得一提的是,此次升级后,API接口及使用方式均维持原状,未作改动。 对的,没看错,官方说的还是“小版本”升级,不是人们期待已久的大版本R2发布。 相似的情况在今年3月也发生过,DeepSeek对V3模型开展过小版本升级。当时,官方率先在交流群内发布相关消息,而后才公布具体的更新详情。 实际上,关于DeepSeek-R1-0528,DeepSeek官方暂未发布基准测试成绩。不过,大家可别单纯地认为它真如官方所言,只是一次“小”迭代。 在代码测试平台Live CodeBench中,DeepSeek-R1-0528取得了73.1分的成绩,排名第四。其得分接近OpenAI的o3(75.8分)和o4-mini(80.2分),在性能表现上可直接与OpenAI的o3相媲美。社区推测可能是原计划中的R2模型提前以R1升级版形式推出。 另外在一些行业人士看来,参数量攀升至685B,上下文达到164K,是大幅增加,“应该是原本的R2,但效果不及内部预期没升级版本号”,AI博主Orange AI称。 而从实际体验效果来看,经过多方用户的反馈,普遍表明DeepSeek - R1 - 0528在编程能力、逻辑推理能力以及交互能力等多个方面都取得了很大的进步。 在X平台上,有网友总结了更新后的几个亮点: 1、可以像谷歌模型一样进行深度推理 2、文本生成优化:更自然,格式更好 3、独特的推理风格:不仅快速,而且更深度 4、长时思考:单任务处理时长可达30-60分钟 值得一提的是,这可是能是唯一一个目前能正确做对「9.9 - 9.11」谁更大“难题”的模型。 凤凰网科技也尝试着让DeepSeek跑了两个程序试试。 第一个prompt:生成一个天气预报卡片,选中单个卡片时有动态效果,如下雨、晴天等等。 图|来源于凤凰网科技 第二个prompt:设计一个饮食记录卡,记录每天的食品摄入,并标记相应的卡路里,以及建议的运动计划,可以设计一些扁平化的按钮。 图|来源于凤凰网科技 不过也有行业从业者反馈,由于prompt输入的不同,不同使用者生成的效果差异较大,一些人将其代码能力类比Claude3.7,还有更广泛层面用户反馈称“感觉幻觉率下降了”、“文字水平有一些提升”。 从这次更新来看,DeepSeek还在往越来越好用的路上走,留给其他国产闭源大模型的时间真的不太多了。
DeepSeek R1悄悄更新!用“小版本”干翻大模型
虽然DeepSeek-R2并没有像2个月之前盛传的那样,在5月甚至之前准时赴约。但是,DeepSeek正在不断地用小升级追赶其他厂商的大版本。 昨天DeepSeek官方的一则「R1已完成小版本试升级」的消息,在各个AI讨论群里炸开了花。这回的DeepSeek-R1-0528版本在各个社区引发震动的最主要原因是:它真的不是一次小更新! 目前该升级版的DeepSeek-R1-0528已经全量上线官方网页、APP、小程序等等,API也已经可以接入。 关于DeepSeek官方多么有诚意,我们已经在V3版本的升级上看到了——模型性能大幅提升只是开胃小菜,成本价格比更是再度优化。这回的更新也是一样,新版本的DeepSeek-R1主要在编程能力上大幅提升。据一家LLM API接入网站OpenRouter,这回的新版本R1的输入输出价格几乎与先前版本毫无变化! 在智能水平上,新版本DeepSeek-R1-0528在 Extended NYT Connections 基准测试上相比原始 DeepSeek R1有了大幅提升:38.6 → 49.8。 01 它真的很难说是「小升级」 现在,全网都在疯狂拿它跟全面替代AI coding真神的Claude 4对比,发现:这俩模型竟然不相上下?甚至有一张在Livecodebench上DeepSeek-R1-0528与o3-high旗鼓相当的基准测试对比图,在网上疯传。许多网友认为这回更新后的DeepSeek-R1-0528在代码生成等编程领域的实力已经进入第一梯队了。 我们搜集了全网最有趣的实测体验,看看这回的DeepSeek-R1-0528到底将AI coding的能力拓展了多少: 有X网友@karminski3设置了一个「DeepSeek-R1-0528 VS Claude-4-sonnet」挑战赛,用弹球撞击墙面的效果作对比。 实测下来发现:DeepSeek方的弹球看起来甚至还有光泽,撞碎墙面后的粒子效果几乎能与Claude-4-sonnet一较高下,控制面板的美观度也都非常在线。 值得一提的是,在这次的测试中,两个大模型使用了同一个Prompt,DeepSeek-R1-0528 生成了728行,而Claude-4-sonnet生成了542行。 更新后的R1-0528在粒子效果的表现上尤其好。粒子效果通常会涉及复杂的动态动画和物理模拟,像是物体运动、碰撞、光影变化等等。这足以说明R1-0528在生成复杂动态动画能力上有了很大的突破。 X网友MILO,就做了个可交互的粒子动态动画平台,我们也进去体验了下。我们注意到除了画面中央的炫酷粒子爆炸外,右上角的粒子数计算也以一种很匹配的方式同步进行着。 在全栈网页开发上,「小升级」之后的DeepSeek-R1-0528所表现出来的能力也有了很明显的提升。 比如,X上有网友@DomLiu给 DeepSeek-R1-0528 一个全栈网页开发Prompt,就能在几秒钟内从零开始构建了一个完整的应用程序。 这段提示词还非常的简单:构建一个 three.js 应用程序,用于加载具有实时颜色/材质/配件控制的 3D 模型。直观的用户界面。流畅的相机视角。 更为惊艳的是下面这个Case,同样是这位网友,他几乎将DeepSeek-R1玩出了花,这也证明小升级后的DeepSeek-R1-0528到底在编程能力上有多强。 简单来说,他使用升级后的DeepSeek-R1做了一个3D画廊,有这些功能: 程序化几何生成,动态场景生成系统,多彩动态光影效果,相机动画与过渡,虚拟画廊导航体验。 有实际用过Trae、Cursor、Windsurf等一众AI coding的朋友肯定都懂一个具有强大自主编程能力的基座大模型到底意味着什么?——编程效率的指数级提升。 3D艺术画廊非常直观地显示了DeepSeek-R1-0528在面对复杂任务时的自主编程能力。 再比如一个3D 太阳系模拟器,在这个产品中,可以点击任何行星获取进一步的信息。同时画面中呈现了极具真实感的轨道。它同样使用 three.js 构建,简洁、快速、交互性强。 我们也实际上手测试了下,发现升级后的DeepSeek-R1-0528在面对非常简单的提示词时也能做出很快的反应,并自主地丰富功能。 比如,我只给了它一句: 生成一个苹果官网风格的前端网页。 它只经过14秒的思考,就轻松理清了苹果官网风格设计页面的设计思路: · 使用苹果标志性的深空灰/银色调 · 大字体标题和简洁文案 · 高清产品图像与渐变背景 · 悬浮动画效果 · 响应式布局 最主要的是,很短时间内它就已经生成了462行代码,做出来的效果也与我所设想的非常相近: 除了纯代码能力之外,DeepSeek-R1-0528在前端审美上也有了很大的提升。 比如下面这个原生iOS风格界面设计,采用了抹茶绿色主题,融合现代美学,看起来搭配很流畅。 除了产品应用UI风格之外,DeepSeek-R1-0528在HTML网页的前端网格上也有了很大的提升。 下面两组新版本的介绍网页中,深色是DeepSeek-R1-0528生成,在美观度上更具科技感和视觉冲击力,也非常符合AI大模型本来的调性;白色则是由Claude4生成: 02 思维链似乎改变了,出现了一些「副作用」 这回DeepSeek-R1-0528的强势开源,甚至让各国网友都重温了下今年年初R1发布时的情景。现在的DeepSeek-R1-0528已经拥有了Claude系列的强自主编程能力,同时网友们在实际测试中也注意到它的思维链模式似乎发生了改变。 很多实测后的网友都发现这回的升级版DeepSeek-R1-0528的思考过程实在是太长了,很容易出现过度思考的现象。 比如,网友们发现了一个有趣的测试题:「估算一下π/7」,发现DeepSeek-R1-0528的思考推理过程有些太漫长了。 我们也实际测试了下,面对这样的一个小问题,DeepSeek-R1-0528的深度思考时间达到了148秒。并且,其推理过程显得冗余性很大。 DeepSeek-R1-0528在面对「估算一下π/7」这个问题时的思维链到底有多长,你可以直观感受下: 虽然各国网友都直观感受到了升级后的DeepSeek-R1-0528在推理能力上消耗的时间变得长了,但推理结果精度的提升也是显而易见的。经过优化的DeepSeek-R1-0528在处理复杂问题时,已经展现出了更强的逻辑分析能力和更细致的推理过程,这使得输出的答案不仅更加准确,还在深度和广度上都有了显著改进。 比如,X网友@baalatejakataru在实际编程过程中发现新的 DeepSeek-R1-0528想得太多,但是出错时能够快速地自我纠正,还能够很好地写新兴系统编程语言——Zig,表现很不错。 DeepSeek官方这回同样延续了之前发布即开源的策略,R1-0528已经正式开源。除了开源动作之外,更新后的R1仍然采用宽松的MIT许可证,意味着它可用于商业用途。 这次DeepSeek-R1-0528的升级,进一步印证了当下大模型行业的趋势:大版本固然令人期待,但持续稳定的小步迭代同样无法让人装作看不见。 虽然DeepSeek-R2尚未如期而至,也引发了全网对于这一版本的疑惑。但是通过强化编程能力、优化前端审美,DeepSeek团队持续的小步快跑,无疑让业界重新审视小版本升级的巨大价值。尽管思维链的冗长带来了一些「副作用」,但其带来的精度提升和自我纠错能力依然让人无法忽视这次的版本升级。 在未来,DeepSeek-R1-0528的这种不改变大架构,而是通过「小升级、小迭代」就能达成明显效果的方式可能将会成为主流,「大版本号盲目崇拜」已经被破除。 下一次「小升级」,或许就是另一场风暴的开始。
快手Q1财报:可灵还是太灵了
5月27日,快手交出了今年一季度成绩单,业绩稳健且有不少亮点:快手应用的平均日活跃用户达到4.08亿,创历史新高;总收入同比增长10.9%至326亿元,毛利率近55.0%,经调整净利润达到人民币46亿元,经调整净利润率为14.0%。 业绩发布后,市场也给出积极反馈,5月28日港股开盘后,快手股价应声上涨,高开6.46%,截至当日收盘股价仍维持超5%的涨幅。瑞银、高盛等券商均保持“买入”评级,同时摩根大通还给予了“超配”评级。 值得关注的是,仔细看整份财报,就会发现其中AI的“含量”相当高—— 首先是AI技术对各原有业务的深度赋能,电话会上,管理层详细解读了AI技术融合原有业务的技术落地路径,无论是线上营销服务、电商、还是本地生活、快聘、理想家,AI都有对应赋能业务的解决方案,帮助各业务对应的商家客户降本增效。 其次,可灵AI作为战略重点表现抢眼,财报中强调其商业化变现加速,2025年第一季度可灵AI收入超过了1.5亿元。 “技术红利正加速转化为业务增长动能。”如快手科技创始人兼首席执行官程一笑所说,曾经所有行业都值得用AI重做一遍还只是口号,但现在已是快手重构平台的核心支点。 AI穿透业务毛细血管 当下AI技术在各行业广泛渗透,已从“技术演示”阶段迈向了“业务融合”的新阶段。快手也不例外,从近一年来的财报电话会议可以看出,快手的AI战略一直是基于自身生态场景展开AI探索,将AI深度植入现有业务毛细血管。 首先是内容生态方面,由于用户日均注意力切换频次日渐提升,兴趣主题跨度愈发多样,如果只依赖静态偏好模型存在一定滞后性。因此快手利用AI大模型加深对内容和用户兴趣的理解,传统推荐算法一切强调数据,而搭载了大模型的推荐算法则在数据的基础上增加了用户兴趣的分子,实现内容价值与用户需求的精准匹配。 同时,快手也将数字人直播应用在了快聘和理想家业务中,24小时不间断直播,在提高内容生产效率和质量的同时,加速提升了线索收集效率。2025年一季度,有超20%的新主播使用快聘数字人直播间,快聘数字人直播场均线索同比增长169%。 磁力引擎女娲数字人直播 其次是商业化方面,今年的磁力大会上,快手已提出要打造“下一代AI智能商业引擎”,AI能力在营销各个环节上落地应用,既解决核心痛点,也着力降本增效。 在广告营销的起点——素材生产环节,快手通过AI技术实现了素材创意、用户需求与营销目标的深度对齐,今年一季度AIGC营销素材的日均广告消耗已达3000万元。更加拟人化、更具互动性的数字人直播女娲,也在帮品牌商家实现24小时不间断开播。 广告投放环节,全站推广Agent4.0让全域投放更稳、调控工具更丰富,经营操作也更便捷。财报显示2025年第一季度,电商商家使用全站推广Agent 4.0或智能托管进行营销推广的总消耗,占内循环总消耗的比例达到60.0%。 UAX全自动化投放产品,则是完全改变了传统的人工操盘盯盘模式,实现了广告投放的智能化和自动化。2025年第一季度,UAX全自动投放的总营销消耗占外循环总消耗的比例已提升至60.0%以上。 UAX全自动化投放产品 在智能匹配及竞价推理中,快手利用多模态大模型进行智能匹配,深度理解广告内容、透视用户决策链路,基于前期对用户和内容的深刻理解与学习,端到端地生成用户感兴趣的广告,实现了广告主的精准匹配。在竞价推理方面,大模型实现了竞价的自动化和智能化,优化了广告主的投放成本与回报比。 受益于AI的赋能,今年一季度快手的线上营销服务收入达到了180亿元,略超市场预期。 此外,快手也将AI运用在了电商业务中,助推一季度电商GMV同比增长15.4%,达3323亿元。 事实上很多商家普遍都存在“技术焦虑”,一方面看到AI浪潮,害怕错失新技术红利;另一方面对新技术的认知少,应用能力也弱。因此快手也以AI能力赋能商家全链路经营—— 2025年第一季度,快手为直播场域经营的商家提供了全套智能开播工具,包含AI话术生成、直播讲解提词器、智能选品等能力,越来越多的新商家借助这些工具取得经营突破。 同时,快手以AI能力提升人货匹配精准度,应用大模型自动识别强关联类目和兴趣标签,让算法更理解用户潜在需求,实现跨场景需求预判,提升人货匹配效率。与此同时,快手还通过AI智能客服、AI试衣和AI直播切片等多种工具,帮助商家提高电商营销和服务能力,降低商家经营成本,提升经营效率。快手财报显示,2025年第一季度,AI自动生成的直播切片日均GMV同比增长超过300%;智能客服系统搭载了大模型后,问题解决率已提升至80%,显著节约了商家成本并且缩短平均响应时长。 针对于本地生活业务,快手同样以AI作为本地商家的增长引擎。 本地生活一直存在“大而散”、细分品类多且差异大的特点,而且偏传统保守的商家占多数,对线上经营以及AI技术的了解比电商商家更少。 今年,磁力开创AIGC素材、女娲数字人直播、数字员工π等AI产品体系都已经陆续应用到本地生活场景中。特别是数字员工π,其私信经营能力显著提升了本地商家的留资率。 数字员工π 针对本地生活商家的产品“本地投”,近期也是划分出了团购和线索版两个版本。其中,线索版主要解决决策链路长、留资率低的问题,其中亦有AI作为金牌客服,在零人工介入情况下提升留资效率。 从内容生态到营销,再到电商以及本地生活,快手以AI实现了自身所有业务的智能化升级,长期来看这不仅提高了用户体验和商家经营效率,还将为快手带来更广阔的增长空间。 可灵突围, 持续抢占全球市场份额 不只是快手,互联网大厂们都在赶AI这趟快车,纷纷跑模型、拼基建,想要在这场技术革命中抢占先机。就在大语言模型和图像生成模型普遍成为大厂重心的时候,快手也选择了一条与众不同的路——重点押注于能够最大化发挥自身优势的视频模型上。 2024年6月,可灵AI大模型上线,由于是较早就确定了方向,并且持续坚决地投入,可灵AI迅速崭露头角,并展现出行业领先的模型能力与商业化潜力。 可灵AI Web端 模型能力方面,可灵AI自从去年6月首次上线开放测试以来就经历了二十多个版本的快速优化迭代。今年升级到2.0版本后, 可灵AI在动态质量、语义响应、画面美学等维度均保持了全球领先,在指令遵循、电影质感及艺术风格表现等方面也有显著提升。 同时2.0版本中,可灵AI还提出了全新理念多模态视觉语言Multi-modal Visual Language(MVL),让用户能够结合图像参考、视频片段等多模态信息,将脑海中的多维度复杂创意,直接高效地传达给AI,为用户带来了更加流畅、自然的视频生成体验。 近期,全球著名大模型整合应用平台Poe发布了2025年春季AI模型使用趋势报告(1-5月),报告显示,在文生视频领域,快手可灵的多个视频生成模型获得了共约30%的使用份额,领先于Runway和谷歌的Veo2。可灵2.0大师版在2025年4月末发布的三周后,占据了全部视频生成中的21%。 Poe 2025年春季AI模型使用趋势报告 近日,可灵AI又推出了全新2.1系列模型。新模型在性价比方面优势显著,在标准模式(720p)下生成5s视频仅需20灵感值,高品质模式(1080p)下也只需35灵感值,能够满足不同用户对于成本控制的需求。在生成速度方面,高品质模式(1080p)生成5s视频仅需不到1分钟,处于业内领先水平。 随着本次新版本的推出,可灵AI进一步完善了产品布局:其中,可灵2.1主打高效灵动、超高性价比,可轻松覆盖短视频、营销广告、AI短剧等绝大多数的视频创作场景;可灵2.1大师版则延续了其高端定位,持续探索模型能力上限,进一步巩固了其技术领先地位,适用于专业影视制作和商业级应用场景。 除了模型能力的持续提升外,可灵AI的商业化潜力也值得关注。 在当前AI大模型能够规模化商业落地的占比尚少、商业化成熟度较低的背景下,可灵AI实现了视频生成技术指标与商业转化效率的共振,验证了视频大模型领域最优商业化路径的可能性,也展现了可灵AI作为快手“第二增长曲线”的潜力。 根据财报数据显示,今年一季度可灵AI营业收入超过1.5亿元,这背后得益于其多元商业化路径。 首先是P端用户(即自媒体视频创作者和广告营销从业者等专业用户)贡献了可灵AI将近70%的营业收入,其订阅会员数量和ARPU值均呈现较高的增速。他们一方面如同“技术品鉴师”一般,提升可灵AI的技术认可度;另一方面他们也具备意见领袖能力,持续推动可灵AI在视频生产力工具赛道里的领先站位。 其次可灵AI也面向B端用户即企业提供API接入合作,目前已为超过1万家的企业客户提供服务,涵盖专业创作平台、广告营销、影视动画、游戏制作和智能终端等多个行业,且企业客户的续费率高。不同行业企业客户的认可,也展现出了可灵AI横向可扩展和纵向可定制的双重特性。 5月28日,J.P摩根发布研报表示,可灵AI的业绩表现超出了其预期,“可灵一季度1.5亿的收入表明我们对可灵2025年全年4.5亿元人民币的收入预期可能较为保守。” 高盛绩后发布的报告也给予了可灵高度积极评价,认为其在AI视频生成领域的竞争力与谷歌不相上下,并且在海外用户中具有较高的吸引力。 总的来说,快手的AI战略目前已经初步取得了一定成绩,一方面以业务反哺研发、用场景牵引创新的发展模式,正在重塑快手;另一方面,差异化的模型攻克路线让快手将更多的资源聚焦在可灵上,也收获了技术和商业化的双重领先。不论是让AI与业务共生共融,还是以可灵AI探索商业化路径,都在表明当技术迭代与用户需求、商业场景形成共振时,将会引发质变。
市场还没爆发,但AI眼镜已经卷死了
AI眼镜,距离“百镜大战”只差临门一脚。 5月27日,雷鸟发布了四款AI眼镜新品。在这之前,谷歌在5月20日与中国公司XREAL发布了Project Aura AR眼镜。5月25日,李未可发布了搭载高通骁龙AR1平台的AI拍摄眼镜;5月中旬,联想也发布了两款AI眼镜新品。 算下来,今年5月份已经有10款AI眼镜上线。除了上述的厂商发布的新品,光锥智能还在近日的深圳的人工智能终端展上,还看到了来自GYGES LABS、影目科技、LOHO等厂商的多款产品。展望6月,小米也将加入AI眼镜战场。 AI眼镜已经形成了“台上三国争霸,台下群雄环伺”的格局。 而谷歌和高通的入场,也进一步标准化了系统和芯片,将AI眼镜带入了“智能手机”时代,提升了产品的使用体验,但同时降低了产品量产的门槛。 如此充足的产品供应,能让消费者快速认可AI眼镜吗? “AI眼镜要想走向普及,还缺少一个杀手级的功能。” 在接触了不少AI眼镜项目后,势乘资本合伙人刘英航总结了目前已购入的两款AI眼镜体验,“总体来说,上身佩戴体验是不错的。但要日常当作正常眼镜使用的话,还差得非常远。” 6月,随着众多新品上市,百镜大战箭在弦上。但这个市场,真的能就此爆发起来吗? AI眼镜玩家,批量涌现 随着新一轮玩家的加入,AI眼镜产品来到了相对成熟的阶段。观察近期密集发布的新品,国内的AI眼镜厂商正在软件和硬件上达成“共识”。 首先是在硬件层面。2025年的AI眼镜芯片配置,正在向高端智能手机靠拢。 2025年之前的国产AI眼镜,受限于成本因素,不少采用的是紫光或恒玄的SoC方案。这些计算方案的ISP(图像信号处理器)性能较弱,难以处理例如宽动态或低光环境的画面。这导致实际产品需要额外搭载1-2 颗外挂ISP芯片,进而使得AI眼镜的图像识别效果和轻量化都不够极致。 AI眼镜主流芯片方案对比 来源:中金公司研究部 从今年新推出的产品上看到,高通的SoC芯片正在成为AI眼镜的主流配置。 其中,INAIR直接用了高通的手机芯片作为眼镜的SoC。追求更强性能的玩家,例如李未可和雷鸟用的是高通专为AI眼镜设计的骁龙AR 1平台。在更强的芯片加持下,AI眼镜开始呈现近似于手机的显示和交互效果。 使用更强、集成度更高的芯片,让整个AI眼镜行业都快速实现了轻量化。 以拍摄类AI眼镜为例,近期发布新品的重量都做到了40g以内。相比去年AI眼镜动辄40g以上的重量,2025年的AI眼镜已经具备了长时间佩戴的可能性,起码它不再会压得人鼻梁不透气了。 而在软件层面,受益于AI大模型性能提升,眼镜厂商们正在批量落地各种AI功能。 2024年11月,Rokid与阿里通义大模型深度适配+合作研发软件,让AI眼镜快速补全了应用生态。 “这一点是跟其他产品拉开差距最重要的地方”,正如Rokid CEO祝铭明当时的感叹。仅半年之后,整个AI眼镜行业已经批量复制了阿里与Rokid的合作模式。以雷鸟为例,这次发布的新品就落地了通义大模型合作的AI。在与高德合作后,雷鸟也上线了AR导航功能。 为了打破应用软件数量“卡脖子”的问题,也有不少AI眼镜厂商选择直接拥抱安卓系统。 “我们不需要从0开始构建软件生态,这是一个非常实用的策略。” 正如INAIR联合创始人兼CEO黄海在近期采访中的总结。INAIR和雷鸟目前正在尝试“搬运”安卓APP到AI眼镜。社交、文档、视频等APP齐全的AI眼镜,将直接丰富产品的使用场景。 在AI眼镜与手机交互逻辑差异较大的问题上,例如AI眼镜没有触摸屏、AR显示相当于同时渲染两个屏幕的特性。谷歌在与XREAL合作的AI眼镜中,尝试重新定制了一套用于眼镜的“安卓系统”。 谷歌希望Android XR平台能够复制自己在智能手机时代的成功。用开放操作系统和生态的模式,吸引硬件厂商和软件开发者加入,共同扩张智能终端市场。 齐全的硬件供应链+“开源”的软件环境,让AI眼镜行业正在进入“代工”时代。 例如雷神在AI眼镜发布会上宣布与汇鼎眼视光、火山引擎、欧普康视、天键股份、亿境共建智能眼镜产业生态联盟。细分来看,其中天键股份代工生产核心硬件、亿境负责方案设计、火山引擎提供AI大脑的一条AI眼镜代工产业链已经浮现。 软件和硬件的成熟,最终使得AI眼镜呈现出产品“寒武纪物种大爆炸”的局面。面对短时间上线的各种AI眼镜新品,市场有足够能力消化这些产品吗? 细节,决定AI眼镜成败 从产品逻辑看,近期发布的AI眼镜都实现了当初对 Ray-Ban Meta的“像素级复刻”。 价格层面,国产AI眼镜(拍摄类)定价区间为2000元左右,略便宜于Meta的299美元。产品重量上,国产AI眼镜普遍比Meta轻四分之一(30g+对比49g),佩戴体验明显更友好。AI功能层面,国产AI眼镜基本都能实现AI图片识别、AI翻译、AI对话建议等功能。 Ray-Ban Meta的AI功能介绍 来源:RAY-BAN官网 AI眼镜的玩家在追逐Meta的过程中,也收获了初步的成功经验。 根据CINNO Research发布的独立监测数据显示,2025年第一季度国内消费级AI/AR眼镜市场销量同比增长45%。其中带屏AR眼镜(包括一体式和分体式)占据市场80%的份额,无屏AI眼镜则占比20%。 AR类型的AI眼镜反而占了市场主导位置,说明用户对眼镜的需求是——显示远远大于AI。 根据Meta2025财年第一季度财报电话会议的信息显示,Ray-Ban Meta眼镜的核心增长点来自AI和交互。Meta CFO苏珊·李分析称:“Ray-Ban Meta AI眼镜的月活跃用户比一年前增长了4倍以上。使用语音命令的人数增长更快,因为人们用它来回答问题和控制眼镜。” 当前国内AI眼镜的问题,主要是AI和软件功能还不够出色。 刘英航对光锥智能分析称,“AI眼镜只有部分功能满足消费者需求。拍摄类眼镜的拍摄体验很便利,AR类眼镜能满足看视频的需求。”AR眼镜高市场占比的原因,主要还是因为产品定位更明确。 AI暂时还不是AR眼镜的核心卖点,这点消费者和厂商都心知肚明。在雷鸟发布会开场,雷鸟创新创始人、CEO李宏伟提到从观影爱好者的调研中,获得了AR类眼镜的发展方向。 在另一边的拍摄类AI眼镜上,产品也存在相当多的痛点。 例如在各家眼镜厂商宣传的AI识图功能上,不少消费者认为这个功能用起来“怪怪的”。当消费者需要识别眼前的物体时,需要先拍照问AI,几秒到十几秒的时间等待后,眼镜才能反馈结果。这种体验,跟AI眼镜厂商所宣传的“有问题随时问AI”大相径庭。想要更快识别,目前国内的眼镜厂商倾向于做垂类大模型来优化速度。 最大的问题,还在于如何让AI能够持续待命上。 “拍摄时间明显不够”。一位消费者这样向光锥智能吐槽说,“持续使用时间大概就两三个小时,充电的时候需要拿出普通眼镜换着戴”。受限于电池限制,拍摄类AI眼镜100-200mAh的电池容量半天都支撑不了。 解决“AI实用性”的问题,或许国内AI眼镜厂商可以参考Meta的“解法”。例如,Meta取消AI唤醒词并允许长时间与AI聊天、眼镜拍摄照片直接导入APP编辑、APP会记住眼镜记录的细节、眼镜上的AI交互可以随时切换到APP端等。 总体来看,通过加强AI参与用户日常和手机端分担AI眼镜任务的方式,Meta在一定程度上提高了AI眼镜的使用效率。对于国产AI眼镜厂商而言,对应着需要找到更多实用的AI使用场景。 或许AI眼镜与市场之间,还需要再“磨合磨合”。
Anthropic对苹果Siri发起致命一击
5月28日凌晨,Anthropic宣布在移动设备上推出测试版语音模式, AI 版“Siri”就此问世。 用户可通过“Hey, Claude”语音指令发起语音对话,让 Claude 汇总日历或搜索文档,完成相应的任务。官宣视频里,女主人公一边刷牙一边和 Claude对话,“Hey, Claude”代替了“Hey,Siri”,描画出了AI时代的语音助手图景。 语音模式测试版现支持英语,并将在未来几周内加入所有套餐,与大家见面。有网友表示,看起来Claude正在iPad应用上上线。 由OpenAI 前员工们创立的Anthropic,是一家以安全为优先的AI解决方案提供商,专注于企业级市场,其在混合推理模型与编程能力方面具备一定行业优势,现已发展为OpenAI最大竞品之一。 今年3月,Anthropic完成了规模达35亿美元的E轮融资,估值飙升至615亿美元。这轮融资由光速创投领投,贝西默风投、思科投资、D1资本等多家知名机构参与,据悉,资金将主要用于下一代AI系统的开发、提升计算能力、深化机制可解释性和对齐研究,并加速国际扩张。 4天前,Anthropic刚刚发布了Claude 4系列模型:Claude Opus 4和Claude Sonnet 4,并宣称其为编码、高级推理和 AI 代理设定了新的标准。根据 Anthropic 的公告,Claude Opus 4 既是该公司迄今为止最强大的 AI 模型,也是全球最佳的编码模型,它在 SWE-bench(72.5%)和 Terminal-bench(43.2%)测试上均遥遥领先。 Anthropic 的基准测试显示,Opus 4 在编码任务和使用网络搜索等“工具”方面的表现优于谷歌的 Gemini 2.5 Pro、OpenAI 的 o3 推理和GPT-4.1 模型。 不仅如此,Claude Opus 4 以72.5%的SWE-bench测试成绩超越人类顶尖程序员,刷新了AI界软件工程任务的天花板。 Claude Opus 4 擅长编码和解决复杂问题,为前沿代理产品提供动力。Cursor称其为编码领域的最新技术,并在复杂代码库理解方面实现了飞跃。在需要专注投入和数千个步骤的长时间运行任务中,它表现出色,能够连续“数小时”处理长时间运行的任务。其中,Rakuten通过独立运行 7 小时且性能稳定的高要求开源重构验证了这个功能。 此外,Anthropic表示,此次Claude Opus 4 革新了工具使用和并行工具执行两个模块。首先,Claude 使用工具进行扩展思考。比如,Claude 支持在扩展思考过程中使用网络搜索工具,这种在推理和工具使用之间交替进行的方式改善了响应,提高了速度。28日凌晨,Anthropic还在X上宣布了这项功能将免费向所有Claude 用户开放。 另一方面,并行工具执行功能使得Claude 能够更精确地遵循指令,当开发人员授予其访问本地文件的权限时, Claude 可以显著提高记忆能力,提取和保存关键事实以保持连续性,并随着时间的推移建立隐性知识。如此一来,Claude 显著减少了模型使用捷径或漏洞完成任务的行为,过去AI遇到棘手的问题而“已读乱回”、“胡乱交卷”的概率大大降低。 基于上述改进,预览期间Claude收获了开发者们一众好评,但“卷王”并不松懈,随即着手扩展了编程功能,目前,Claude Code 已支持通过 GitHub Actions 执行后台任务,并与 VS Code 和 JetBrains 原生集成,可以直接在文件中显示编辑内容,实现无缝的结对编程。 一位股票分析师利用Claude完成了股票分析网页应用的搭建,包括身份验证、图表工具、股票数据API、数据库等功能,一共只花了2天时间,随即在X上大书给Claude Code的“情书”。这也不难共情,毕竟,没有什么比解决人的核心需求更令人心动了。 同时,AI 圈千呼万唤始出来的API 功能,Anthropic也没有放过,它在 Anthropic API 上发布了四项新功能,让开发人员能够构建更强大的 AI 代理:代码执行工具、MCP 连接器、文件 API 以及将提示缓存长达一小时的能力。 不过,也有用户表示,在高压测试中,Claude 4展现出“勒索”“自保”“哲学思辨”等行为,引起了人工智能伦理争议。有媒体认为,Claude 4的“机会主义勒索”揭示了强化学习算法与人类价值观的深层冲突,印证了Nick Bostrom的“回形针最大化”理论。 但换个角度看,AI的“越界”行为或许也意味着AI发展进入新阶段,人工智能开始具备类人的持续学习能力和自主决策机制。科技的创新与约束,本来即是硬币的两面。如何在AI浪潮中找到平衡,确保技术发展始终处于可控范围,从来都不在话题之外。 且看最新消息,奈飞董事长Reed Hastings将加入其董事会。 现年64岁的Hastings在科技界拥有丰富的董事任职经验,曾先后担任微软、彭博社及Meta等知名企业的董事会成员。自1997年奈飞公司创立起,Hastings长期担任CEO(后转为联席CEO),直至2023年卸任。最近,Hastings向其母校缅因州鲍登学院捐赠了5000万美元用于设立AI研究项目。该项目将重点探索AI技术的伦理框架,及其对教育、工作和人际关系的深远影响。 Anthropic在声明中表示,这一研究计划与Anthropic自身的科研方向高度契合。双方或将在AI伦理和安全领域展开更深入的合作。这或许也提示着Anthropic总裁Daniela Amodei所说的“开发有助于人类而非造成伤害的人工智能”的美好愿景。 “Hey, Claude”或许会代替“Hey,Siri”,人工智能会更迭、生长,甚至具备自主思考能力,但永远不能代替人类生活,成为世界的主体。
黄仁勋终于告别股价下跌魔咒
在很长的一段时间里,英伟达财报一发,股价就跌。 不是因为业绩不行,而是因为只是超预期还不够。市场一面期待英伟达不仅是超预期增长,还要远超预期。一面期待英伟达高歌猛进的同时,抚平外界对其高增长可持续性的种种疑虑。 这次终于不同了。 当地时间5月28日,英伟达发布2026财年第一财季(对应2025年第一季度)财报。营收同比增长近70%,达到440亿美元,其中数据中心业务营收同比增长73%,达到391亿美元,均超预期。 但坏消息也摆在台面上:特朗普政府的H20禁令,坑惨了老黄。英伟达一个季度损失数十亿美元,而且预估下个财季损失得会更多。 黄仁勋直言,500亿美元的中国市场对美国产业关闭了大门。 多重因素叠加,英伟达的净利润下降15%。 但在如此明显的“业绩缺憾”之下,英伟达的股价却在盘后大涨近5%,达到四个月以来的最高水平。 黄仁勋终于被允许喘口气了。 首先,让我们来看一下英伟达第一财季的业绩表现。 营收为440.62亿美元,同比增长69%,环比增长12%;净利润为187.75亿美元,同比增长26%,环比下降15%。 其中营收超过预期(440亿VS 431亿),净利润低于预期(187亿VS207亿)。 具体到各个业务,数据中心业务营收为391亿美元,同比增长73%,环比增长10%。 进一步拆解,来自Compute(含GPU及整机系统)收入为341.55亿美元,上年同期为193.92亿美元。其中,Blackwell架构GPU(如B200)的销售贡献显著,单季度实现110亿美元收入,占数据中心收入的28%。来自Networking收入为49.57亿美元,上年同期为31.71亿美元。 黄仁勋在财报电话会议中表示:“Blackwell的推出是我们公司历史上最快的产品过渡,本季度已占数据中心计算收入的近70%。” 数据中心业务营收表现非常关键,这是英伟达的支柱业务,营收占比88%。可以说,本次英伟达营收同比增长瞩目,主要归功于数据中心业务强劲增长。验证了英伟达在AI算力市场的统治地位,也反映出全球AI基础设施建设的加速。 其他各业务: 游戏和AI PC业务营收为38亿美元,创下历史纪录,同比增长42%。 专业可视化业务营收为5.09亿美元,同比增长19%。 汽车业务营收为5.67亿美元,同比增长72%。 但并不全是好消息。 从利润来看,第一财季净利润按GAAP标准为187.75亿美元,同比增长26%,但环比下降15%。GAAP毛利率为60.5%,非GAAP毛利率为61%,均低于前一季度的73%和73.5%。 成本上升的原因有三:员工薪酬增加、美国对华H20芯片出口限制,以及新一代数据中心设备(如Blackwell架构芯片)的制造成本显著增加。 薪酬增加和制造成本上升是可预知的,但地缘政治的影响只能说是外界担忧的验证。 美国政府于2025年4月9日正式通知英伟达实施H20芯片对华出口许可管制,并于4月14日宣布该许可要求无限期生效。英伟达表示,第一季度H20芯片库存过剩产生了45亿美元的费用,若未受限制,公司本应录得25亿美元的额外销售额。 在业绩展望时,英伟达指出,二季度的指引考虑到了H20出口限制的影响,预计当季H20的收入将减少80亿美元。 H20禁令的冲击是明显的。 黄仁勋说得很直白:“今天,500亿美元的中国市场实际上对美国产业关闭了大门。H20出口禁令结束了我们Hopper在中国的数据中心业务。” 他还进一步对未来表达了担忧:“失去中国人工智能加速器市场(我们认为该市场将增长至近500亿美元)将对我们未来的业务产生重大不利影响,并使我们在中国和全球的外国竞争对手受益。” 他认为,问题不在于中国是否发展人工智能,它已经在发展了。问题在于世界上最大的人工智能市场之一是否会在美国的平台上运行。也就是说,试图用芯片禁令中断中国人工智能的发展是“无知”的,因为中国已经具备内生产力。 也因此,H20禁令这样的措施,实际上是“短视”的,从长远来看反而会助推中国的技术发展。 在采访当中,黄仁勋的表述简单易懂且犀利:“如果有人以为,只要走一步棋,即以某种方式禁止中国使用H20芯片,就能在某种程度上中断他们发展AI的能力,那么他就太无知了。” 黄仁勋并非“反特朗普斗士”,在这次财报会议之后的采访中,他也赞许了美国政府。目前来看,黄仁勋的整体立场是:支持宏观设想和目标,但是反对部分措施。 比如对于特朗普心心念念的“美国制造”,黄仁勋就曾附和称“如果我们不擅长制造,就会在一个庞大的产业上落后。”且曾大力点赞特朗普“对AI行业的关心”。 这种支持也落在行动上。3月时,中美关税战正酣,黄仁勋透露未来四年,英伟达将在美国斥资数千亿美元购买当地生产的芯片和其他电子产品。目前,英伟达的Blackwell芯片已通过台积电亚利桑那州Fab21工厂启动前端制造,成为首个“美国制造”的顶级AI芯片。台积电在美投资1000亿美元扩建产能,直接支撑英伟达的产能需求。 黄仁勋的担忧不无道理,在中国市场,芯片的替代效应已经显现。 瑞穗证券分析师 Vijay Rakesh 发布最新报告指出,华为昇腾(Ascend)910 系列 AI 芯片在 2025 年出货量有望超过 70 万颗。 5月21日,黄仁勋在台北国际电脑展的新闻发布会上透露:“四年前,英伟达在中国的市场份额高达95%。如今只有50%。” 有意思的是,在很长一段时间里,英伟达全线业绩飘红,股价却下跌,虽胜犹败。如今,当担忧变为现实之时,英伟达反而突破了魔咒,股价距离历史高点仅差一步。 财报发布后,英伟达股价在盘后交易中一度上涨约6%。按盘后交易计算,英伟达股价达到四个月以来的最高水平,距1月创下的历史高点不到5%。 一方面,虽然H20禁令给英伟达带来了巨大的损失,但得益于新一代Blackwell芯片,英伟达依旧在营收上获得了巨大增长。在全球范围内,英伟达仍然是AI芯片界的霸主。从这个层面来说,H20禁令反而证明了英伟达的韧性。 另一方面,Agent智能代理的风,再一次吹鼓了市场对英伟达的信心。 在这次财报发布时,黄仁勋明确表示:“从生成式AI向具备接收、推理、规划与行动能力的代理式AI转型,将重塑所有行业、企业与国家。我们视AI代理为新型数字劳动力,可胜任从客户服务到复杂决策的全流程任务。” 对于英伟达来说,这阵风来得恰如其时。年初DeepSeek大火,对算力极致压榨,外界开始唱衰英伟达。一度逼得黄仁勋向大众“科普”,力图证明缩放定律没死。 但如今,Agent需要大量算力支撑,黄仁勋不必再卖力自证。对Agent的关注,部分抵消了对英伟达在华市场失守的担忧。 黄仁勋又进一步将其与国家战略挂钩,逻辑是:从Agent就能看出,AI作为基础设施(而不仅仅是一项技术)的重要性。“就像他们过去必须为电力和互联网建设基础设施一样,现在也必须为AI建设基础设施。我认为这是一种觉醒,并创造了大量机会。” 从这个角度出发,谁会不看好英伟达呢? 所以也可以看到,H20禁令的靴子终于落地之后,市场反而放松了,英伟达也多了一份从容。接下来,英伟达可能会在Blackwell架构中,继续寻找中国定制芯片的可行性,同时做好芯片交付和下一代研发。 超高增长已经接近尾声,这次财报发布后的市场反馈,证明了这一点已经成为共识。接下来,英伟达不必飞得比快更快,但要又快又稳。
全球首款生成式人形机器人运动大模型发布:可根据指令生成跑步、舞蹈等连贯动作
快科技5月29日消息,今日上午,国家地方共建人形机器人创新中心联合复旦大学未来信息创新学院,正式发布了全球首款生成式人形机器人运动大模型—— “龙跃”(MindLoongGPT)。 龙跃大模型以“自然语言驱动”为核心,构建了从多模态输入到高保真动作生成的完整闭环,颠覆传统运动控制范式。 也就是说,用户无需学习专业术语或操作复杂软件,仅需像与人类对话一样发出指令,例如“以优雅的姿势递上一杯咖啡”、“挥手致意”或上传一段参考视频,龙跃大模型即可自动解析语义并生成对应的连贯动作,并支持通过追加指令实时调整细节。 这一能力,在教育、服务机器人领域具有颠覆性意义。据介绍,龙跃大模型具有四大核心技术优势: 一是多模态交互、低门槛驱动。用户只需用自然语言驱动,模型即可“一切行动听指挥”。 二是拟真度与时序一致性双突破。通过将人体动作视为“时序语言”,生成的跑步、舞蹈等动作不仅流畅自然,更保留真实人体的惯性节奏。 三是结构生成与细节优化并重。模型采用分阶段生成策略,从全局姿态到局部关节角度均实现毫米级精度控制。 四是轻量化设计,赋能广泛场景。在保证性能的前提下,MindLoongGPT模型体积被压缩至同类型产品的1/3,可在教育机器人、智能穿戴设备等嵌入式平台实时运行,为产业落地铺平道路。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。