EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
《哪吒2》登陆欧洲 观众直呼“震撼”
  日前,在拥有英国最大IMAX银幕的伦敦BFI IMAX影院,一名观众走过《哪吒之魔童闹海》电影宣传屏幕。   新华社记者 李 颖摄   中国动画电影《哪吒之魔童闹海》(以下简称《哪吒2》)3月14日在英国和爱尔兰开始点映,在欧洲影院迎来首批观众。   拥有英国最大IMAX银幕的伦敦BFI IMAX影院14日中午开启欧洲首场《哪吒2》放映。影片结束后,观众席爆发出热烈掌声与惊叹。   第一次观看中国动画的英国观众谢丽尔·芬尼根告诉记者,电影的故事情节深深触动了她,“看到最后,我的心都提到了嗓子眼”。   芬尼根说,《哪吒2》的视效技术、音乐制作和诙谐幽默都让她“倍感震撼”,不论是宏大场景还是人物的细微表情都令人印象深刻。她说,自己将补看《哪吒1》,还会“二刷”《哪吒2》。   不少在英中国留学生当天到场观看,还有影迷打扮成电影主角的形象沉浸式观影。他们表示,经过漫长的等待和期盼,终于在英国看到《哪吒2》,心情极为激动。他们为中国动画电影的进步感到骄傲。   欧洲发行商圣三一亚洲电影公司表示,该公司从光线传媒获得《哪吒2》在英国、爱尔兰、德国等欧洲30多个国家的院线发行权。本轮点映后,该影片将于21日在英国和爱尔兰以原版中文配英语字幕的方式正式公映,预计将覆盖100个城市、超过250家影院。   圣三一亚洲电影公司执行总监锡德里克·贝雷尔告诉记者,外国观众对哪吒这一角色,尤其是他的生活背景、面临的挑战和成长历程充满好奇。他说,《哪吒2》既是一部现代作品,又承载了中国悠久的传统与文化,英国各大影院对该片上映表现出极大兴趣,影片预售成绩远超预期,有望成为英国史上票房最高的中国电影。   数据显示,《哪吒2》累计票房(含预售及海外票房)已超20亿美元。   (据新华社电  记者章博宁、郭爽)
2024年PCT国际专利申请量排名:中国领跑力压美国、华为全球第一
快科技3月19日消息,日前,世界知识产权组织(WIPO)公布2024年度PCT国际专利申请排名。 数据显示,2024年PCT申请总量达273900件,比2023年增长0.5%,中国仍然是最大的来源国,提交了70160件申请。 紧随其后的是美国,提交量为54087件,日本则以48397件位列第三,韩国和德国分别以23851件和16721件的申请数量排在第四和第五。 在中国重回增长(+0.9%)的同时,美国、日本和德国申请量分别下降了2.8%、1.2%和1.3%。 这是美国连续第三年下降,德国和日本连续第二年下降,相比之下,韩国增长了7.1%,连续27年实现增长。 企业方面,中国科技型企业在全球PCT申请中已占据重要地位,排名前50的申请人中,来自中国的实体共占据15个席位,这些企业的PCT申请总量达到了21730件,占中国全年总申请量的31%。 其中,华为以6600件的申请量排名全球第一,三星(4640件)、高通(3848件)、LG(2083件)和宁德时代(1993件)位居第二到第五名。 在排名前50的申请者中,三星申请量增长最快,2024年已公布申请增长716件,苹果(+441件)、高通(+438件)、谷歌(+335件)、小米(+286件)也有较大增幅。 据悉,数字通信(27605件)、计算机技术(2,600件)、电能技术(22760件)仍是PCT国际专利申请量最集中的领域。 据了解,自1978年世界知识产权《专利合作条约》(PCT)运行以来,美国一直蝉联榜首,2019年,中国首次超越美国,成为全球最大专利申请来源国。
特斯拉在加州获首个自动驾驶出租车许可,但还不能运营
开启FSD的特斯拉Model 3 凤凰网科技讯 北京时间3月19日,据路透社报道,特斯拉要想在加州运营自动驾驶出租车需要获得一系列许可。周二,该公司获得了加州监管机构的首个许可。 加州公用事业委员会(CPUC)周二表示,已批准特斯拉的运输包车方承运人许可证(TCP)申请。这是一种通常与司机驾驶服务相关的许可证,允许该公司拥有并控制车队车辆,并安排员工进行预先安排的出行服务。 该许可证是特斯拉申请在加州运营自动驾驶网约车服务的前提条件,但CPUC发言人表示,这一许可证“没有授权他们提供自动驾驶车辆的乘车服务”,也不允许特斯拉向公众运营网约车服务。 CPUC在一封电子邮件中表示,特斯拉在2024年11月申请了TCP许可证,但尚未申请其他相关许可证。特斯拉若要运营一项向客户收费的完全自动驾驶出租车服务,还需要获得加州机动车管理局(DMV)和CPUC的额外许可。不过,DMV发言人周二表示,特斯拉尚未向该机构申请任何额外的许可证。目前,特斯拉仅获得了一张DMV许可证,可测试配有安全驾驶员的自动驾驶车辆。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
OpenAI星际之门首个项目曝光:可配备40万颗英伟达AI芯片
奥特曼宣布星际之门计划 凤凰网科技讯 北京时间3月19日,据彭博社报道,OpenAI规模为1000亿美元的“星际之门”基础设施计划的首个数据中心综合体可容纳多达40万个英伟达强大AI芯片。如果全部装满芯片,它将成为已知的最大AI算力集群之一。 根据开发商Crusoe的介绍,这个位于得州小城市阿比林的项目将于2026年中期完成建设,电力容量为1.2吉瓦。Crusoe计划于周二宣布下一阶段的开发。尽管该设施足以容纳数十万个先进的AI芯片,但目前尚不清楚它已承诺使用多少芯片。 Crusoe表示,目前约有2000工人在参与该项目的建设,未来计划增加到接近5000名。该项目将包括八座数据中心建筑,每座建筑的设计容量为最多容纳5万个英伟达GB200芯片。 阿比林已建成两个数据中心建筑 今年1月,OpenAI、软银集团和甲骨文公司在白宫联合宣布成立星际之门合资企业。该合资企业的目标是为OpenAI的更多先进AI模型提供所需的物理基础设施。OpenAI曾表示,将扩大星际之门的规模,使其在美国拥有多达10处数据中心综合体。 知情人士称,甲骨文已同意充分利用阿比林项目的基础设施和资源。OpenAI目前计划在该设施使用大约1千兆瓦的电力容量。截至发稿,Crusoe拒绝对项目的客户发表评论。OpenAI和甲骨文也尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
老黄发布新核弹B300,英伟达:B200已破DeepSeek-R1推理世界纪录
皮衣老黄,带着最强AI芯片GB300闪亮登场“AI超级碗”GTC,燃爆全场! 性能方面,和去年发布的GB200相比,推理性能是其1.5倍。 据悉,GB300将在今年的下半年出货。 除此之外,老黄还预览(2026年下半年发货)了英伟达下一代AI超级芯片,名字大变样——Vera Rubin。 其实它的命名规则和Grace Blackwell(GB)类似:Grace是CPU,Blackwell是GPU。 而Vera Rubin中的Vera是CPU,Rubin是GPU。根据老黄的说法: 几乎所有细节都是新的。 从预览的性能来看,Vera Rubin整体性能更是GB300的3.3倍。更具体一些: Vera:CPU的内存是Grace的4.2倍,内存带宽是Grace的2.4倍。 Rubin:将配备288GB的HBM4。 在Vera Rubin之后的下一代GPU(2027年下半年),英伟达会将其命名为Rubin Ultra,性能直接拉到GB300的14倍。 一个直观的对比,如下图所示: 更多的具体性能对比,是这样的: 性能上的提升,也正应了老黄在现场说的那句话: 大规模推理是一种极限计算。 Inference at-scale is extreme computing. 不仅如此,就连Rubin之后的下一代GPU,老黄也给亮出来了——将以Feynman来命名。 而纵观整场GTC,我们可以轻松提炼老黄提及最多的几个关键词:tokens、推理和Agentic AI。 但除此之外,还有一个比较有意思的关键词——DeepSeek。 英伟达官方博客称: 实现了DeepSeek-R1推理性能世界纪录。 每个用户每秒可处理超过250个token;实现每秒超过30000个token的最大吞吐量。 但这项纪录采用的是B200,英伟达表示随着Blackwell Ultra等新GPU的出现,纪录还将继续被打破。 而老黄在现场体现传统LLM和推理LLM的区别时,也是拿着DeepSeek-R1来举例: 嗯,微妙,着实有点微妙。 那么除了一系列新GPU之外,还有什么?我们继续往下看。 推出两款个人AI超级计算机 首先,第一款个人AI超级计算机,叫做DGX Spark。 它就是老黄在今年1月份CES中发布的那个全球最小的个人AI超级计算机Project Digits,这次取了个正式的名字。 DGX Spark售价3000美元(约21685元),大小和Mac Mini相当。 它采用的是英伟达GB10芯片,能够提供每秒1000万亿次的AI运算,用于微调和推理最新AI模型。 其中,GB10采用了NVLink-C2C互连技术,提供CPU+ gpu的相干内存模型,带宽是第五代PCIe的5倍。 值得一提的是,英伟达官网已经开发预定了哦~ 至于第二款个人AI超级电脑,则是DGX Station。 DGX Station所采用的,正是今天推出的GB300,也是首个采用这款芯片的AI电脑。 其性能如下: 拥有784GB的相干内存空间 拥有英伟达的ConnectX-8超级网卡,支持高达800Gb/s的网络速度 拥有Nvidia的CUDA-X AI平台,可访问NIM微服务和AI Enterprise 用老黄的话来说就是: 这就是PC应该有的样子。 This is what a PC should look like. 至于上市赶时间,则是将于今年晚些时候从华硕、BOXX、戴尔、惠普、Lambda和美超微等厂商处推出。 △ 搭载GB300的DGX Station主板 而根据英伟达官方的介绍,这两款个人AI超级计算机,是面向研究人员、数据科学家、AI开发者和学生设计的。 除此之外,老黄在这届GTC上还涉足了以太网,推出全球首个面向AI的以太网网络平台——Spectrum-X。 它由英伟达的Spectrum-4以太网交换机和BlueField-3 SuperNIC共同发力,能为AI、机器学习和自然语言处理等提供高性能支持。 相比传统以太网,Spectrum-X可将AI网络性能提升1.6倍,提高AI云的电力效率。 以及还包括基于硅光学的Spectrum-X Photonics和Quantum-X Photonics网络交换平台,用于使用硅光学的超大规模数据中心。 新的网络交换平台将端口数据传输速度提升至1.6Tb/s,总传输速度达到400Tb/s,使数百万个GPU能够无缝协同工作。 还开源了一系列软件 除了硬件,英伟达这次在软件开源方面也有几个新动作。 其中最重磅的,当属发布NVIDIA Dyamo,一个用于加速AI模型推理的分布式推理服务库。 老黄将其称为“AI工厂的操作系统”,核心目标在于提高推理性能的同时降低Test-Time算力消耗。 按照英伟达的说法,在NVIDIA Blackwell上使用Dynamo优化推理,能让DeepSeek-R1的吞吐量提升30倍。 至于背后原因,主要在于Dynamo可以通过动态调整GPU资源应对请求波动,并优化数据卸载到成本更低的存储设备,从而降低推理成本并提高效率。 目前Dynamo已完全开源,支持PyTorch、SGLang、NVIDIA TensorRTyTM以及vLLM,在GitHub获取后即可将推理工作分配到多达1000个NVIDIA GPU芯片。 此外,英伟达还宣布开源新的AI推理模型——Llama Nemotron,该系列模型也曾出现在今年1月的CES上。 据介绍,Llama Nemotron基于开源Llama基础模型构建,采用英伟达最新技术和高质量数据集进行剪枝和训练,优化了计算效率和准确性。 为了直观展示其性能,老黄在大会上将它和Llama 3.3(70B)以及DeepSeek R1 Llama (70B)进行了对比,下图展示了它们在Agentic任务上的平均准确率(横轴)与每秒处理的tokens数量(纵轴): 可以看出,新的推理模型以49B参数量性能远超另外两个模型,在Agentic任务中表现更为突出。 目前Nano和Super模型可在NIM微服务中获取,Ultra模型即将推出。 与此同时,英伟达在自动驾驶和具身智能方面也有新进展。 大会开始不久,老黄即宣布英伟达与通用汽车达成合作: 通用将在自动驾驶上使用英伟达的AI技术。 在这之后,英伟达正式发布了端到端自动驾驶汽车全栈综合安全系统NVIDIA Halos。 这个系统主要将NVIDIA的汽车硬件和软件解决方案与尖端AI研究相结合,以确保从云端到车辆的自动驾驶汽车(AVs)的安全开发。 介绍过程中,老黄多次提到了“安全性”这个词,并公开声称: 我们是世界上第一家对每一行代码进行安全评估的公司 落实到具体上,Halos系统主要在三个互补的层面提供支持: 技术层面:包括平台安全、算法安全和生态系统安全; 开发层面:涵盖设计阶段、部署阶段和验证阶段的安全防护措施; 计算层面:从AI训练到部署的全过程,利用三种强大的计算平台,分别是NVIDIA DGX用于AI训练,NVIDIA Omniverse和NVIDIA Cosmos在NVIDIA OVX上运行用于模拟,以及NVIDIA DRIVE AGX用于部署。 到了大会的最后阶段,老黄宣布英伟达与Google DeepMind和Disney Research正合作开发下一代开源仿真物理模型Newton。 据英伟达介绍,Newton基于NVIDIA Warp构建,支持与MuJoCo Playground或NVIDIA Isaac Lab等学习框架兼容。 它主要用于机器人模拟训练,使用之后可以帮助研究人员安全、加速且低成本地训练/开发/测试/验证机器人控制算法和原型设计。 同时,英伟达还同步推出了 Isaac GR00T N1,号称全球首个开源的、完全可定制的人形机器人基础模型。 它采用双系统架构,灵感来自人类思考模式,包括快速思考的动作模型(System 1)和慢速思考的决策模型(System 2)。 在大会演示中,GR00T N1能够轻松泛化常见的任务,如抓取、移动物体以及在双臂之间转移物品,或执行需要长时间推理的复杂任务。 最后的最后,老黄在谢幕之前还成功“召唤”出了配有GR00T N1模型的机器人——Blue(星球大战机器人)。 虽然过程中有些不听话的“叛逆行为”,但好在还是给了点老黄面子(doge)。 One More Thing 今年的GTC大会,除了老黄的主题演讲,还有一件事最值得期待: 那就是今年首次设立的“量子日”活动,届时老黄将与D-Wave Quantum和Rigetti Computing等十余家量子计算行业领军企业的高管同台,讨论量子计算的技术现状、潜力以及未来发展方向。 要知道今年年初时,老黄一句“量子计算还需20年才实用”,相关概念股曾应声腰斩。 所以大家这次都在观望,老黄是否又会“语出惊人”,相关探讨是否会对量子计算产业产生更大影响。 咱们继续坐等答案揭晓~
开源Pebble OS重生:Core 2 Duo/Time 2智能手表预售,满电30天续航
IT之家 3月19日消息,科技媒体Android Authority昨日(3月18日)发布博文,报道称智能硬件公司Core Devices最新推出Core 2 Duo和Core Time 2两款智能手表,搭载开源的Pebble OS系统,续航长达30天。 这两款产品由前Pebble首席执行官埃里克・米吉科夫斯基(Eric Migicovsky)创立的新公司开发,旨在延续Pebble粉丝期待的经典功能与设计。 Core Devices公司成立于Pebble品牌被谷歌收购后,因法律限制无法直接使用 Pebble 名称,但通过开源的Pebble OS系统延续其生态。 IT之家此前报道,谷歌于2025年1月开源了Pebble OS的源代码,包含应用框架、表盘及健康追踪功能,使开发者能复用超10000个现有应用与表盘。   Core 2 Duo Core Time 2 屏幕 1.26 英寸黑白电子墨水屏 1.5 英寸 64 色带触控电子墨水屏 分辨率 144×168 pixels, 176 DPI 200×228 pixels, 202 DPI 交互 4 个按钮 4 个按钮 + 触控屏幕 材质 聚碳酸酯塑料机身 金属机身 传感器 6 轴传感器 + 指南针 + 气压计 6 轴传感器 + 指南针 + 气压计,额外支持心率监测 续航 满电续航 30 天 满电续航 30 天(预估) 价格 149 美元 225 美元 发售时间 2025 年 7 月 2025 年 12 月 米吉科夫斯基提出了电子墨水屏、超长续航、简约设计、实体按键及可定制固件这五项核心需求,并表示通过新一代蓝牙芯片技术,电池续航较初代Pebble提升4倍。
英伟达推出RTX PRO 6000系列Blackwell专业卡:最高24064核心、96GB显存、600W
IT之家 3 月 19 日消息,英伟达在今日举行的在 GTC 2025 大会上正式发布了面向工作站和服务器的 RTX PRO 系列 Blackwell 专业卡。 其中,旗舰级的RTX PRO 6000系列拥有24,064 个CUDA核心、752个Tensor核心、188个RT核心。 IT之家提醒,从数据来看,这并非满血GB202芯片(总共24,576核,少了512核),但要比面向游戏领域的RTX 5090(21,760核)强得多。 RTX PRO 6000全系均配备96GB GDDR7显存(支持ECC校验),具备512 bit显存位宽,这意味着GPU板正反两面都使用了3GB GDDR7显存模块。 英伟达今日共发布12款同架构产品,包含双风扇设计(最高600W TDP)的工作站版、涡轮鼓风式设计的集群工作站版,以及服务器专用版。 其中,Max-Q型号沿用了英伟达曾用于高效能移动版GPU的命名,旨在实现RTX 6000系列最佳能效表现(300W TDP,为工作站/服务器版的一半)。服务器版采用无风扇被动散热设计,形态与Tesla系列相似,主要面向第三方服务器配置销售。 数据中心 NVIDIA RTX PRO 6000 Blackwell服务器版 桌面平台 NVIDIA RTX PRO 6000 Blackwell工作站版 NVIDIA RTX PRO 6000 Blackwell Max-Q工作站版 NVIDIA RTX PRO 5000 Blackwell NVIDIA RTX PRO 4500 Blackwell NVIDIA RTX PRO 4000 Blackwell 移动平台 NVIDIA RTX PRO 5000 Blackwell NVIDIA RTX PRO 4000 Blackwell NVIDIA RTX PRO 3000 Blackwell NVIDIA RTX PRO 2000 Blackwell NVIDIA RTX PRO 1000 Blackwell NVIDIA RTX PRO 500 Blackwell 官方数据显示,RTX 6000工作站版/服务器版单精度计算性能达125 TFLOPS,核心加速频率2.6GHz,Max-Q版则为2.5GHz;全系均搭载28Gbps GDDR7显存(与RTX 5090相同),且支持ECC校验。 RTX PRO 5000搭载GB202 GPU(14,080个CUDA核心,与前代RTX 5880 ADA持平),配备 48GB显存(384 bit位宽),TDP为300W。 4500与4000则基于GB203 GPU,前者拥有10,496 个CUDA核心与32GB显存(256 bit 位宽,200W TDP),后者为8,960核心与24GB显存(192 bit位宽,140W TDP)。 全系型号均配备DisplayPort 2.1b接口,仅RTX 6000采用双循环风道散热设计,其余型号维持标准涡轮散热方案。
英伟达、亚马逊临时关闭迪拜办公室 黄仁勋:正积极支持受影响员工
迪拜遭袭击后产生的浓烟 凤凰网科技讯 北京时间3月4日,据CNBC报道,在美国和以色列上周末联合对伊朗发动空袭后,英伟达、亚马逊和Alphabet等大型科技公司纷纷紧急采取措施,确保其在中东地区出差或常驻员工的安全。 美国和以色列的大规模袭击导致伊朗最高领袖哈梅内伊等人丧生。随后,伊朗对位于海湾地区的以色列和美国基地发动打击以实施报复。这场冲突已对平民生活、伊朗的网络接入、航班航线以及整个地区的能源运输造成干扰。 CNBC看到的一份由英伟达CEO黄仁勋(Jensen Huang)周二清晨发给全体员工的电子邮件,英伟达已暂时关闭其迪拜办公室,并要求当地员工转为远程办公。 黄仁勋在邮件中称,英伟达的危机管理团队一直在“日以继夜地工作,积极为中东受影响的员工及其家属提供支持”,其中包括约6000名常驻以色列的英伟达员工。 2019年,英伟达以约71.3亿美元收购了以色列公司Mellanox,该公司主要生产以太网交换机及其他网络硬件。这是当时英伟达历史上最大的一笔交易。如今,除美国本土外,以色列是英伟达最大的研发基地。 黄仁勋表示,截至周二早晨,所有受冲突影响的英伟达员工及其直系亲属均已确认安全。 “英伟达深深扎根于中东地区。我们有数千名同事生活在那里,全球各地还有更多同事的家人和朋友也受到了这些事件的影响。和大家一样,我也在深切关注着我们英伟达大家庭成员的安全。”黄仁勋称。 美国国务院周一表示,鉴于存在“严重的安全风险”,美国人应利用现有的商业交通工具“立即离开”中东各国。到周二下午,该部门表示,在局势日益动荡的情况下,他们正在努力争取军用飞机和包机,以便从该地区撤离美国公民。 据知情人士透露,由于航空交通中断,数十名谷歌员工在参加完一场销售会议后被困迪拜。 谷歌表示,大多数受影响的员工并非驻美员工,而是中东地区的员工。谷歌称,已为其中东地区的员工制定了相应的安全保障措施,并建议员工听从当地政府的指引。 “中东局势正在迅速演变,我们正在密切关注,”谷歌发言人在一份电邮声明中表示,“我们的重点是确保该地区员工的安全与福祉。” 亚马逊近年来在中东地区不断扩张,也在调整当地业务,以应对该地区不断升级的冲突。该公司已指示所有中东地区的企业员工远程办公,并“遵守当地政府的指引”。 亚马逊发言人在声明中表示:“员工和合作伙伴的安全始终是我们的首要考量,我们正与当地团队及政府密切合作,确保他们得到支持。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
不止核弹芯片,黄仁勋发布两台 AI 个人超算,还拿下全球最快 DeepSeek 推理速度
买得越多 省得越多 英伟达 GTC 大会已经成了 AI 界超级碗,没有剧本也没有提词器,中途黄仁勋被线缆卡住,反而是这场高浓度 AI 发布会里最有人味的片段,在当今基本提前彩排或录播的科技发布会里已经很稀缺了。 刚刚,黄仁勋再次发布了全新一代核弹级 AI 芯片,不过这场发布会的还有个隐藏主角——DeepSeek。 由于智能体 AI(Agentic AI)和推理能力的提升,现在所需的计算量至少是去年此时预估的 100 倍。 推理成本效率给 AI 行业带来影响,而不是简单地堆积计算能力,成为贯穿这场发布会的主线。英伟达要变成 AI 工厂,让 AI 以超越人类的速度学习和推理。 推理本质上是一座工厂在生产 token,而工厂的价值取决于能否创造收入和利润。因此,这座工厂必须以极致的效率打造。 黄仁勋掏出的英伟达新「核弹」也在告诉我们,未来的人工智能竞争不在于谁的模型更大,而在于谁的模型具有最低的推理成本和更高推理的效率。 除了全新 Blackwell 芯片,还有两款「真·AI PC」 全新的 Blackwell 芯片代号为「Ultra」,也就是 GB300 AI 芯片,接棒去年的「全球最强 AI 芯片」B200,再一次实现性能上的突破. Blackwell Ultra 将包括英伟达 GB300 NVL72 机架级解决方案,以及英伟达 HGX B300 NVL16 系统。 Blackwell Ultra GB300 NVL72 将于今年下半年发布,参数细节如下: 1.1 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 1.1 ExaFLOPS(每秒百亿亿次浮点运算)。 0.36 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 1.5X GB300 NVL72:与 GB200 NVL72 相比,性能为 1.5 倍。 20 TB HBM3:配备了 20TB HBM 内存,是前代的 1.5 倍 40 TB Fast Memory:拥有 40TB 的快速内存,是前代的 1.5 倍。 14.4 TB/s CX8:支持 CX8,带宽为 14.4 TB/s,是前代的 2 倍。 单个 Blackwell Ultra 芯片将和前代一样提供相同的 20 petaflops(每秒千万亿次浮点运算) AI 性能,但配备更多的 288GB 的 HBM3e 内存。 如果说 H100 更适合大规模模型训练,B200 在推理任务中表现出色,那么 B300 则是一个多功能平台,预训练、后训练和 AI 推理都不在话下。 英伟达还特别指出,Blackwell Ultra 也适用于 AI 智能体,以及用于训练机器人和汽车自动驾驶的「物理 AI」。 为了进一步增强系统性能,Blackwell Ultra 还将与英伟达的 Spectrum-X 以太网和英伟达 Quantum-X800 InfiniBand 平台集成,为系统中的每个 GPU 提供 800Gb/s 的数量吞吐量,帮助 AI 工厂和云数据中心能够更快处理 AI 推理模型。 除了 NVL72 机架,英伟达还推出了包含单个 GB300 Blackwell Ultra 芯片的台式电脑 DGX Station。Blackwell Ultra 之外,这个主机还将配备 784GB 的同一系统内存,内置 800Gbps 英伟达 ConnectX-8 SuperNIC 网络,能够支持 20 petaflops 的 AI 性能。 而之前在 CES 2025 展示的「迷你主机」Project DIGITS 也正式被命名为 DGX Spark,搭载专为桌面优化的 GB10 Grace Blackwell 超级芯片,每秒可提供高达 1000 万亿次 AI 计算操作,用于最新 AI 推理模型的微调和推理,包括 NVIDIA Cosmos Reason 世界基础模型和 NVIDIA GR00T N1 机器人基础模型。 黄仁勋表示,借助 DGX Station 和 DGX Spark,用户可以在本地运行大模型,或者将其部署在 NVIDIA DGX Cloud 等其他加速云或者数据中心基础设施上。 这是 AI 时代的计算机。 DGX Spark 系统现已开放预订,而 DGX Station 预计将由华硕、戴尔、惠普等合作伙伴于今年晚些时候推出。 下一代 AI 芯片 Rubin 官宣,2026 年下半年推出 英伟达一直以科学家的名字为其架构命名,这种命名方式已成为英伟达文化的一部分。这一次,英伟达延续了这一惯例,将下一代 AI 芯片平台命名为「Vera Rubin」,以纪念美国著名天文学家薇拉·鲁宾(Vera Rubin)。 黄仁勋表示,Rubin 的性能将达到 Hopper 的 900 倍,而 Blackwell 相较 Hopper 已实现了 68 倍的提升。 其中,Vera Rubin NVL144 预计将在 2026 年下半年发布。参数信息省流不看版: 3.6 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 3.6 ExaFLOPS(每秒百亿亿次浮点运算)。 1.2 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 3.3X GB300 NVL72:与 GB300 NVL72 相比,性能提升了 3.3 倍。 13 TB/s HBM4:配备了 HBM4,带宽为 13TB/s。 75 TB Fast Memory:拥有 75 TB 的快速内存,是前代的 1.6 倍。 260 TB/s NVLink6:支持 NVLink 6,带宽为 260 TB/s,是前代的 2 倍。 28.8 TB/s CX9:支持 CX9,带宽为 28.8 TB/s,是前代的 2 倍。 标准版 Rubin 将配备 HBM4,性能比当前的 Hopper H100 芯片大幅提升。 Rubin 引入名为 Grace CPU 的继任者——Veru,包含 88 个定制的 Arm 核心,每个核心支持 176 个线程,并通过 NVLink-C2C 实现 1.8 TB/s 的高带宽连接。 英伟达表示,定制的 Vera 设计将比去年 Grace Blackwell 芯片中使用的 CPU 速度提升一倍。 与 Vera CPU 搭配时,Rubin 在推理任务中的算力可达 50 petaflops,是 Blackwell 20 petaflops 的两倍以上。此外,Rubin 还支持高达 288GB 的 HBM4 内存,这也是 AI 开发者关注的核心规格之一。 实际上,Rubin 由两个 GPU 组成,而这一设计理念与当前市场上的 Blackwell GPU 类似——后者也是通过将两个独立芯片组装为一个整体运行。 从 Rubin 开始,英伟达将不再像对待 Blackwell 那样把多 GPU 组件称为单一 GPU,而是更准确地按照实际的 GPU芯 片裸片数量来计数。 互联技术也升级了,Rubin 配备第六代 NVLink,以及支持 1600 Gb/s 的 CX9 网卡,能够加速数据传输并提升连接性。 除了标准版 Rubin,英伟达还计划推出 Rubin Ultra 版本。 Rubin Ultra NVL576 则将于 2027 年下半年推出。参数细节如下: 15 EF FP4 Inference:在 FP4 精度下进行推理任务时,性能达到 15 ExaFLOPS。 5 EF FP8 Training:在 FP8 精度下进行训练任务时,性能为 5 ExaFLOPS。 14X GB300 NVL72:相比 GB300 NVL72,性能提升 14 倍。 4.6 PB/s HBM4e:配备 HBM4e 内存,带宽为 4.6 PB/s。 365 TB Fast Memory:系统拥有 365 TB 的快速内存,是前代的 8 倍。 1.5 PB/s NVLink7:支持 NVLink 7,带宽为 1.5 PB/s,是前代的 12 倍。 115.2 TB/s CX9:支持 CX9,带宽为 115.2 TB/s,是前代的 8 倍。 在硬件配置上,Rubin Ultra 的 Veras 系统延续了 88 个定制 Arm 核心的设计,每个核心支持 176 个线程,并通过 NVLink-C2C 提供 1.8 TB/s 的带宽。 而 GPU 方面,Rubin Ultra 集成了 4 个 Reticle-Sized GPU,每颗 GPU 提供 100 petaflops 的 FP4 计算能力,并配备 1TB 的 HBM4e 内存,在性能和内存容量上都达到了新的高度。 为了在瞬息万变的市场竞争中站稳脚跟,英伟达的产品发布节奏已经缩短至一年一更。发布会上,老黄也正式揭晓下一代 AI 芯片的命名——物理学家费曼(Feynman)。 随着 AI 工厂的规模不断扩大,网络基础设施的重要性愈发凸显。 为此,英伟达推出了 Spectrum-X™ 和 Quantum-X 硅光网络交换机,旨在帮助 AI 工厂实现跨站点连接数百万 GPU,同时显著降低能耗和运营成本。 Spectrum-X Photonics 交换机具有多种配置,包括: 128 端口 800Gb/s或 512 端口 200Gb/s 配置,总带宽达 100Tb/s 512 端口 800Gb/s或 2048 端口200Gb/s配置,总吞吐量达 400Tb/s 与之配套的 Quantum-X Photonics 交换机则基于 200Gb/s SerDes 技术,提供 144 端口 800Gb/s 的 InfiniBand 连接,并采用液冷设计高效冷却板载硅光子组件 与上一代产品相比,Quantum-X Photonics 交换机为 AI 计算架构提供 2 倍速度和 5 倍可扩展性。 Quantum-X Photonics InfiniBand 交换机预计于今年晚些时候上市,而 Spectrum-X Photonics 以太网交换机预计将于 2026 年推出。 随着 AI 的快速发展,对数据中心的带宽、低延迟和高能效需求也急剧增加。 英伟达 Spectrum-X Photonics 交换机采用了一种名为 CPO 的光电子集成技术。其核心是将光引擎(就是能处理光信号的芯片)和普通的电子芯片(比如交换芯片或 ASIC 芯片)放在同一个封装里。 这种技术的好处很多: 传输效率更高:因为距离缩短,信号传输更快。 功耗更低:距离短了,传输信号需要的能量也少了。 体积更小:把光和电的部件集成在一起,整体体积也变小了,空间利用率更高。 AI 工厂的「操作系统」Dynamo 未来将没有数据中心,只有 AI 工厂。 黄仁勋表示,未来,每个行业、每家公司拥有工厂时,都将有两个工厂:一个是他们实际生产的工厂,另一个是 AI 工厂,而 Dynamo 则是专门为「AI 工厂」打造的操作系统。 Dynamo 是一款分布式推理服务库,为需要 token 但又无法获得足够 token 的问题提供开源解决方案。 简单来说,Dynamo 有四个方面的优势: GPU 规划引擎,动态调度 GPU 资源以适应用户需求 智能路由器,减少 GPU 对重复和重叠请求的重新计算,释放更多算力应对新的传入请求 低延迟通信库,加速数据传输 内存管理器,智能在低成本内存和存储设备中的推理数据 人形机器人的露脸环节,永远不会缺席 人形机器人再一次成为了 GTC 大会的压轴节目,这次英伟达带来了 Isaac GR00T N1,全球首款开源人形机器人功能模型。 黄仁勋表示,通用机器人技术的时代已经到来,借助 Isaac GR00T N1 核心的数据生成以及机器人学习框架,全球各地的机器人开发人员将进入 AI 时代的下一个前沿领域。 这个模型采用「双系统」架构,模仿人类的认知原理: 系统 1:快速思考的动作模型,模仿人类的反应或直觉 系统 2:慢思考的模型,用于深思熟虑的决策。 在视觉语言模型的支持下,系统 2 对环境和指令进行推理,然后规划动作,系统 1 将这些规划转化为机器人的的动作。 GR00T N1 的基础模型采用广义类人推理和技能进行了预训练,而开发人员可以通过真实或合成数据进行后训练,满足特定的需求:既可以完成工厂的特定任务,也可以在家里自主完成家务。 黄仁勋还宣布了与 Google DeepMind 和 Disney Research 合作开发的开源物理引擎 Newton。 一台搭载 Newton 平台的机器人也登上了舞台,黄仁勋称之为「Blue」,外观神似《星球大战》中的 BDX 机器人,能够用声音和动作和黄仁勋互动。 8 块 GPU,DeepSeek-R1 推理速度创全球之最 英伟达实现了全球最快的 DeepSeek-R1 推理。 官网显示,一台搭载 8 个 Blackwell GPU 的 DGX 系统,在运行 6710 亿参数的 DeepSeek-R1 模型时,可实现每用户每秒超过 250 个 token 的速度,或达到最高吞吐量每秒超过 30000 个 token。 通过硬件和软件的结合,自今年 1 月以来,英伟达在 DeepSeek-R1 671B 模型上的吞吐量提升了约 36 倍,每 token 的成本效率提高了约 32 倍。 为了实现这一成就,英伟达完整的推理生态系统已针对 Blackwell 架构进行了深度优化,不仅整合 TensorRT-LLM、TensorRT Model Optimizer 等先进工具,还无缝支持 PyTorch、JAX 和 TensorFlow 等主流框架。 在 DeepSeek-R1、Llama 3.1 405B 和 Llama 3.3 70B 等模型上,采用 FP4 精度的 DGX B200 平台相较于 DGX H200 平台,推理吞吐量提升超过 3 倍。 值得注意的是,此次发布会的主题演讲并未提及量子计算,但英伟达特意在这届 GTC 大会设置了量子日,邀请了多家当红量子计算公司的 CEO 出席。 要知道黄仁勋年初一句「量子计算还需 20 年才实用」的论断犹在耳畔。 一改口风的背后,离不开微软耗时 17 年研发的拓扑量子芯片 Majorana 1 实现 8 个拓扑量子比特集成,离不开 Google Willow 芯片宣称用 5 分钟完成经典计算机需 10^25 年处理的任务,推动了量子计算的热潮。 芯片无疑是重头戏,但一些软件的亮相同样值得关注。 硅谷著名投资人马克·安德森曾提出软件正在吞噬世界(Software is eating the world)的论断,其核心逻辑在于软件通过虚拟化、抽象化和标准化,正在成为控制物理世界的基础设施。 不满足于做「卖铲人」,英伟达的野心是打造 AI 时代的「生产力操作系统」。从汽车智能驾驶,到制造业的数字孪生工厂,这些贯穿整场发布会的案例都是将 GPU 算力转化为行业生产力的具象化表达。 实际上,无论是发布会上亮相的最新核弹芯片,还是押注战未来的量子计算,黄仁勋在这场发布会上对 AI 未来发展的洞察和布局,都比当下的技术参数与性能指标更具看点。 在介绍 Blackwell 与 Hopper 架构的对比时,黄仁勋还不忘幽默一把。 他以一个 100MW 工厂的对比数据为例,指出采用 Hopper 架构需要 45,000 颗芯片和 400 个机架,而 Blackwell 架构凭借更高的效率显著减少了硬件需求。 于是,黄仁勋那句经典的总结再次抛出,「the more you buy, the more you save」(买得越多,省得越多)。」随后话锋一转,他又补充说,「the more you buy, the more you make」(买得越多,赚得越多)。 随着 AI 领域的重心从训练转向推理,英伟达更需要证明其软硬件生态在推理场景的不可替代性。 一方面,Meta、Google 等巨头自研 AI 芯片,可能分流 GPU 市场需求。 另一方面,英伟达最新 AI 芯片的适时亮相,回应如 DeepSeek 的开源模型对 GPU 需求的冲击,并展示推理领域技术优势,也是为了对冲市场对训练需求见顶的担忧。 最近估值(未来12月市盈率)跌至 10 年低位的英伟达,比以往任何时候都需要一场酣畅淋漓的胜利。
刚刚,黄仁勋甩出三代核弹 AI 芯片!个人超算每秒运算 1000 万亿次,DeepSeek 成最大赢家
英伟达 GTC 大会已经成了 AI 界超级碗,没有剧本也没有提词器,中途黄仁勋被线缆卡住,反而是这场高浓度 AI 发布会里最有人味的片段,在当今提前基本提前彩排或录播的科技发布会里已经很稀缺了。 刚刚,黄仁勋再次发布了全新一代核弹级 AI 芯片,不过这场发布会的还有个隐藏主角——DeepSeek。 由于智能体 AI(Agentic AI)和推理能力的提升,现在所需的计算量至少是去年此时预估的 100 倍。 推理成本效率给 AI 行业带来影响,而不是简单地堆积计算能力,成为贯穿这场发布会的主线。英伟达要变成 AI 工厂,让 AI 以超越人类的速度学习和推理。 推理本质上是一座工厂在生产 token,而工厂的价值取决于能否创造收入和利润。因此,这座工厂必须以极致的效率打造。 黄仁勋掏出的英伟达新「核弹」也在告诉我们,未来的人工智能竞争不在于谁的模型更大,而在于谁的模型具有最低的推理成本和更高推理的效率。 除了全新 Blackwell 芯片,还有两款「真·AI PC」 全新的 Blackwell 芯片代号为「Ultra」,也就是 GB300 AI 芯片,接棒去年的「全球最强 AI 芯片」B200,再一次实现性能上的突破. Blackwell Ultra 将包括英伟达 GB300 NVL72 机架级解决方案,以及英伟达 HGX B300 NVL16 系统。 Blackwell Ultra GB300 NVL72 将于今年下半年发布,参数细节如下: 1.1 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 1.1 ExaFLOPS(每秒百亿亿次浮点运算)。 0.36 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 1.5X GB300 NVL72:与 GB200 NVL72 相比,性能为 1.5 倍。 20 TB HBM3:配备了 20TB HBM 内存,是前代的 1.5 倍 40 TB Fast Memory:拥有 40TB 的快速内存,是前代的 1.5 倍。 14.4 TB/s CX8:支持 CX8,带宽为 14.4 TB/s,是前代的 2 倍。 单个 Blackwell Ultra 芯片将和前代一样提供相同的 20 petaflops(每秒千万亿次浮点运算) AI 性能,但配备更多的 288GB 的 HBM3e 内存。 如果说 H100 更适合大规模模型训练,B200 在推理任务中表现出色,那么 B300 则是一个多功能平台,预训练、后训练和 AI 推理都不在话下。 英伟达还特别指出,Blackwell Ultra 也适用于 AI 智能体,以及用于训练机器人和汽车自动驾驶的「物理 AI」。 为了进一步增强系统性能,Blackwell Ultra 还将与英伟达的 Spectrum-X 以太网和英伟达 Quantum-X800 InfiniBand 平台集成,为系统中的每个 GPU 提供 800Gb/s 的数量吞吐量,帮助 AI 工厂和云数据中心能够更快处理 AI 推理模型。 除了 NVL72 机架,英伟达还推出了包含单个 GB300 Blackwell Ultra 芯片的台式电脑 DGX Station。Blackwell Ultra 之外,这个主机还将配备 784GB 的同一系统内存,内置 800Gbps 英伟达 ConnectX-8 SuperNIC 网络,能够支持 20 petaflops 的 AI 性能。 而之前在 CES 2025 展示的「迷你主机」Project DIGITS 也正式被命名为 DGX Spark,搭载专为桌面优化的 GB10 Grace Blackwell 超级芯片,每秒可提供高达 1000 万亿次 AI 计算操作,用于最新 AI 推理模型的微调和推理,包括 NVIDIA Cosmos Reason 世界基础模型和 NVIDIA GR00T N1 机器人基础模型。 黄仁勋表示,借助 DGX Station 和 DGX Spark,用户可以在本地运行大模型,或者将其部署在 NVIDIA DGX Cloud 等其他加速云或者数据中心基础设施上。 这是 AI 时代的计算机。 DGX Spark 系统现已开放预订,而 DGX Station 预计将由华硕、戴尔、惠普等合作伙伴于今年晚些时候推出。 下一代 AI 芯片 Rubin 官宣,2026 年下半年推出 英伟达一直以科学家的名字为其架构命名,这种命名方式已成为英伟达文化的一部分。这一次,英伟达延续了这一惯例,将下一代 AI 芯片平台命名为「Vera Rubin」,以纪念美国著名天文学家薇拉·鲁宾(Vera Rubin)。 黄仁勋表示,Rubin 的性能将达到 Hopper 的 900 倍,而 Blackwell 相较 Hopper 已实现了 68 倍的提升。 其中,Vera Rubin NVL144 预计将在 2026 年下半年发布。参数信息省流不看版: 3.6 EF FP4 Inference:在进行 FP4 精度的推理任务时,能够达到 3.6 ExaFLOPS(每秒百亿亿次浮点运算)。 1.2 EF FP8 Training:在进行 FP8 精度的训练任务时,性能为 1.2 ExaFLOPS。 3.3X GB300 NVL72:与 GB300 NVL72 相比,性能提升了 3.3 倍。 13 TB/s HBM4:配备了 HBM4,带宽为 13TB/s。 75 TB Fast Memory:拥有 75 TB 的快速内存,是前代的 1.6 倍。 260 TB/s NVLink6:支持 NVLink 6,带宽为 260 TB/s,是前代的 2 倍。 28.8 TB/s CX9:支持 CX9,带宽为 28.8 TB/s,是前代的 2 倍。 标准版 Rubin 将配备 HBM4,性能比当前的 Hopper H100 芯片大幅提升。 Rubin 引入名为 Grace CPU 的继任者——Veru,包含 88 个定制的 Arm 核心,每个核心支持 176 个线程,并通过 NVLink-C2C 实现 1.8 TB/s 的高带宽连接。 英伟达表示,定制的 Vera 设计将比去年 Grace Blackwell 芯片中使用的 CPU 速度提升一倍。 与 Vera CPU 搭配时,Rubin 在推理任务中的算力可达 50 petaflops,是 Blackwell 20 petaflops 的两倍以上。此外,Rubin 还支持高达 288GB 的 HBM4 内存,这也是 AI 开发者关注的核心规格之一。 实际上,Rubin 由两个 GPU 组成,而这一设计理念与当前市场上的 Blackwell GPU 类似——后者也是通过将两个独立芯片组装为一个整体运行。 从 Rubin 开始,英伟达将不再像对待 Blackwell 那样把多 GPU 组件称为单一 GPU,而是更准确地按照实际的 GPU芯 片裸片数量来计数。 互联技术也升级了,Rubin 配备第六代 NVLink,以及支持 1600 Gb/s 的 CX9 网卡,能够加速数据传输并提升连接性。 除了标准版 Rubin,英伟达还计划推出 Rubin Ultra 版本。 Rubin Ultra NVL576 则将于 2027 年下半年推出。参数细节如下: 15 EF FP4 Inference:在 FP4 精度下进行推理任务时,性能达到 15 ExaFLOPS。 5 EF FP8 Training:在 FP8 精度下进行训练任务时,性能为 5 ExaFLOPS。 14X GB300 NVL72:相比 GB300 NVL72,性能提升 14 倍。 4.6 PB/s HBM4e:配备 HBM4e 内存,带宽为 4.6 PB/s。 365 TB Fast Memory:系统拥有 365 TB 的快速内存,是前代的 8 倍。 1.5 PB/s NVLink7:支持 NVLink 7,带宽为 1.5 PB/s,是前代的 12 倍。 115.2 TB/s CX9:支持 CX9,带宽为 115.2 TB/s,是前代的 8 倍。 在硬件配置上,Rubin Ultra 的 Veras 系统延续了 88 个定制 Arm 核心的设计,每个核心支持 176 个线程,并通过 NVLink-C2C 提供 1.8 TB/s 的带宽。 而 GPU 方面,Rubin Ultra 集成了 4 个 Reticle-Sized GPU,每颗 GPU 提供 100 petaflops 的 FP4 计算能力,并配备 1TB 的 HBM4e 内存,在性能和内存容量上都达到了新的高度。 为了在瞬息万变的市场竞争中站稳脚跟,英伟达的产品发布节奏已经缩短至一年一更。发布会上,老黄也正式揭晓下一代 AI 芯片的命名——物理学家费曼(Feynman)。 随着 AI 工厂的规模不断扩大,网络基础设施的重要性愈发凸显。 为此,英伟达推出了 Spectrum-X 和 Quantum-X 硅光网络交换机,旨在帮助 AI 工厂实现跨站点连接数百万 GPU,同时显著降低能耗和运营成本。 Spectrum-X Photonics 交换机具有多种配置,包括: 128 端口 800Gb/s或 512 端口 200Gb/s 配置,总带宽达 100Tb/s 512 端口 800Gb/s或 2048 端口200Gb/s配置,总吞吐量达 400Tb/s 与之配套的 Quantum-X Photonics 交换机则基于 200Gb/s SerDes 技术,提供 144 端口 800Gb/s 的 InfiniBand 连接,并采用液冷设计高效冷却板载硅光子组件 与上一代产品相比,Quantum-X Photonics 交换机为 AI 计算架构提供 2 倍速度和 5 倍可扩展性。 Quantum-X Photonics InfiniBand 交换机预计于今年晚些时候上市,而 Spectrum-X Photonics 以太网交换机预计将于 2026 年推出。 随着 AI 的快速发展,对数据中心的带宽、低延迟和高能效需求也急剧增加。 英伟达 Spectrum-X Photonics 交换机采用了一种名为 CPO 的光电子集成技术。其核心是将光引擎(就是能处理光信号的芯片)和普通的电子芯片(比如交换芯片或 ASIC 芯片)放在同一个封装里。 这种技术的好处很多: 传输效率更高:因为距离缩短,信号传输更快。 功耗更低:距离短了,传输信号需要的能量也少了。 体积更小:把光和电的部件集成在一起,整体体积也变小了,空间利用率更高。 AI 工厂的「操作系统」Dynamo 未来将没有数据中心,只有 AI 工厂。 黄仁勋表示,未来,每个行业、每家公司拥有工厂时,都将有两个工厂:一个是他们实际生产的工厂,另一个是 AI 工厂,而 Dynamo 则是专门为「AI 工厂」打造的操作系统。 Dynamo 是一款分布式推理服务库,为需要 token 但又无法获得足够 token 的问题提供开源解决方案。 简单来说,Dynamo 有四个方面的优势: GPU 规划引擎,动态调度 GPU 资源以适应用户需求 智能路由器,减少 GPU 对重复和重叠请求的重新计算,释放更多算力应对新的传入请求 低延迟通信库,加速数据传输 内存管理器,智能在低成本内存和存储设备中的推理数据 人形机器人的露脸环节,永远不会缺席 人形机器人再一次成为了 GTC 大会的压轴节目,这次英伟达带来了 Isaac GR00T N1,全球首款开源人形机器人功能模型。 黄仁勋表示,通用机器人技术的时代已经到来,借助 Isaac GR00T N1 核心的数据生成以及机器人学习框架,全球各地的机器人开发人员将进入 AI 时代的下一个前沿领域。 这个模型采用「双系统」架构,模仿人类的认知原理: 系统 1:快速思考的动作模型,模仿人类的反应或直觉 系统 2:慢思考的模型,用于深思熟虑的决策。 在视觉语言模型的支持下,系统 2 对环境和指令进行推理,然后规划动作,系统 1 将这些规划转化为机器人的的动作。 GR00T N1 的基础模型采用广义类人推理和技能进行了预训练,而开发人员可以通过真实或合成数据进行后训练,满足特定的需求:既可以完成工厂的特定任务,也可以在家里自主完成家务。 黄仁勋还宣布了与 Google DeepMind 和 Disney Research 合作开发的开源物理引擎 Newton。 一台搭载 Newton 平台的机器人也登上了舞台,黄仁勋称之为「Blue」,外观神似《星球大战》中的 BDX 机器人,能够用声音和动作和黄仁勋互动。 8 块 GPU,DeepSeek-R1 推理速度创全球之最 英伟达实现了全球最快的 DeepSeek-R1 推理。 官网显示,一台搭载 8 个 Blackwell GPU 的 DGX 系统,在运行 6710 亿参数的 DeepSeek-R1 模型时,可实现每用户每秒超过 250 个 token 的速度,或达到最高吞吐量每秒超过 30000 个 token。 通过硬件和软件的结合,自今年 1 月以来,英伟达在 DeepSeek-R1 671B 模型上的吞吐量提升了约 36 倍,每 token 的成本效率提高了约 32 倍。 为了实现这一成就,英伟达完整的推理生态系统已针对 Blackwell 架构进行了深度优化,不仅整合 TensorRT-LLM、TensorRT Model Optimizer 等先进工具,还无缝支持 PyTorch、JAX 和 TensorFlow 等主流框架。 在 DeepSeek-R1、Llama 3.1 405B 和 Llama 3.3 70B 等模型上,采用 FP4 精度的 DGX B200 平台相较于 DGX H200 平台,推理吞吐量提升超过 3 倍。 值得注意的是,此次发布会的主题演讲并未提及量子计算,但英伟达特意在这届 GTC 大会设置了量子日,邀请了多家当红量子计算公司的 CEO 出席。 要知道黄仁勋年初一句「量子计算还需 20 年才实用」的论断犹在耳畔。 一改口风的背后,离不开微软耗时 17年研发的拓扑量子芯片 Majorana 1 实现 8 个拓扑量子比特集成,离不开 Google Willow 芯片宣称用 5 分钟完成经典计算机需 10^25 年处理的任务,推动了量子计算的热潮。 芯片无疑是重头戏,但一些软件的亮相同样值得关注。 硅谷著名投资人马克·安德森曾提出软件正在吞噬世界(Software is eating the world)的论断,其核心逻辑在于软件通过虚拟化、抽象化和标准化,正在成为控制物理世界的基础设施。 不满足于做「卖铲人」,英伟达的野心是打造 AI 时代的「生产力操作系统」。从汽车智能驾驶,到制造业的数字孪生工厂,这些贯穿整场发布会的案例都是将 GPU 算力转化为行业生产力的具象化表达。 实际上,无论是发布会上亮相的最新核弹芯片,还是押注战未来的量子计算,黄仁勋在这场发布会上对 AI 未来发展的洞察和布局,都比当下的技术参数与性能指标更具看点。 在介绍 Blackwell 与 Hopper 架构的对比时,黄仁勋还不忘幽默一把。 他以一个 100MW 工厂的对比数据为例,指出采用 Hopper 架构需要 45,000 颗芯片和 400 个机架,而 Blackwell 架构凭借更高的效率显著减少了硬件需求。 于是,黄仁勋那句经典的总结再次抛出,「the more you buy, the more you save」(买得越多,省得越多)。」随后话锋一转,他又补充说,「the more you buy, the more you make」(买得越多,赚得越多)。 随着 AI 领域的重心从训练转向推理,英伟达更需要证明其软硬件生态在推理场景的不可替代性。 一方面,Meta、Google 等巨头自研 AI 芯片,可能分流 GPU 市场需求。 另一方面,英伟达最新 AI 芯片的适时亮相,回应如 DeepSeek 的开源模型对 GPU 需求的冲击,并展示推理领域技术优势,也是为了对冲市场对训练需求见顶的担忧。 最近估值跌至 10 年低位的英伟达,比以往任何时候都需要一场酣畅淋漓的胜利。
加纳首个5G网络启动运营,力争年内实现全国70%覆盖率
IT之家 3 月 4 日消息,今天晚间,据彭博社报道,加纳部分城市正式启动该国首个 5G 网络,为当地运营商推出超高速移动通信服务奠定基础。 成立于 2024 年的共享网络运营商 Next Gen InfraCo(IT之家注:下称 NGIC)拥有在加纳建设和提供 5G 网络的独家许可。公司周二表示,已获得监管批准,可在首都阿克拉部分地区以及库马西和塔马利启动 5G 网络。 第一阶段网络建设由诺基亚提供技术支持。NGIC 首席运营官内尼 · 乔治 · 安达表示,公司目前正与印度信实工业集团旗下的 Radisys 洽谈下一阶段扩展计划。 这一项目是加纳政府推动 5G 普及的重要一步,政府计划在未来一年内实现 70% 的 5G 覆盖率。加纳人口约 3500 万,目前主要由三家运营商提供服务:拥有约 80% 数据用户的 MTN Ghana、2023 年收购沃达丰当地业务的 Telecel Ghana,以及经营状况不佳的国有运营商 AT。 在共享网络模式下(该模式同样适用于 4G),只有获得监管批准并与 NGIC 签署“网络即服务”协议的运营商,才能使用这套基础设施。目前 Telecel 和 AT 已经签署协议,可以开始向用户推出 5G 服务,而 MTN 尚未签约,对相关询问也未作回应。 NGIC 首席执行官特努 · 阿沃诺表示,将网络基础设施与终端服务运营分离,是一项战略安排,这种模式可以更快实现全国网络覆盖,同时提高资本投入效率。
日本游戏行业的“隐形裁员”:劳动法限制下,企业转向“不招人”策略
IT之家 3 月 4 日消息,据 VideogamesChronicle 报道,多家日本游戏开发商发出警示:尽管日本尚未出现西方那样的大规模裁员潮,但行业仍在以不那么显眼的方式进行人员缩减。 过去几年,西方游戏行业频发大规模裁员事件,而日本此类案例明显偏少,这也引发了外界对两地差异原因的猜测。 IT之家注意到,世嘉制作人中村泰(Taira Nakamura)在 X 平台发表了对此现状的看法。他认为,日本游戏行业并未出现大范围大规模裁员,原因在于日本劳动法让企业难以实施这类操作。中村表示,企业转而通过减少新员工招聘来控制成本。 我认为,即便面临相似的成本压力,日本企业看上去公开裁员更少,原因之一就是日本的劳动法规。然而,‘难以辞退员工’,直接变成了‘从一开始就不招人’。应届毕业生招聘名额在缩水,社招通道也在收窄。未来,进入日本游戏公司的难度可能会比现在还要大。 这一观点得到了 Crescent Tower 社长、《Ooo》发行商 Amata Games 代表高桥博道(Hiromichi Takahashi)的支持。他指出,受企业降本措施影响,外包协作工作室的业务量也在减少。 虽然日本游戏行业没有公布公开裁员,但过去两年左右,很多大型游戏公司都大幅削减了外包给外部开发商的项目量。 结果就是,开发者依旧处境艰难。所以说,日本同样在经历开发者数量缩减,只是方式没有摆在台面上。 由游戏开发者法尔汉 · 努尔(Farhan Noor)维护的游戏行业裁员追踪器数据显示: 2026 年至今已有 13 家工作室关闭,预计裁员约 1500 人 2023 年:裁员约 10500 人 2024 年:裁员约 14600 人 2025 年:再裁员约 5300 人 今年面向全球超 2300 名游戏行业从业者的《游戏行业现状年度调查》显示,28% 的受访者表示在过去 24 个月内被裁员,其中 48% 的人表示至今仍未找到新工作。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。