EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
DeepSeek-V3.1适配华为昇腾等本土芯片,国产AI生态闭环逐步形成
上周DeepSeek宣布其新一代模型DeepSeek-V3.1采用了 UE8MO FP8 Scale参数精度,该模型与UE8M0FP8动态范围大,提升稳定性与效率,适配华为昇腾等芯片,实现“低卡高能”部署,带动全产业链发展。在政策推动下,其与昇腾组合切入关键领域,打破垄断,对国产算力及AI产业发展意义重大。 根据中研网预测,2025年中国AI算力市场达1200亿元。华西证券表示,DeepSeek-V3.1通过技术迭代带动芯片、服务器和云服务的联动优化。国产算力链条呈现出“外部受阻、内部加速”的格局,标志着中国大模型生态正在进入自主化与规模化并进的新阶段。 华安证券认为,DeepSeek作为国产顶尖大语言模型新发布V3.1版本,长期来看有望拉动国内算力需求,助力国产算力生态加速建设,赋能垂类大模型研发,利好AI Agent商业化应用。 资料显示,半导体设备ETF(561980)跟踪中证半导指数,指数两高特征尤为突出:①成份股集中度高:前十大成份股覆盖中微公司、寒武纪、北方华创、中芯国际、海光信息等行业龙头,合计占比约76%,指数集中度相对较高。②行业分布集中度高:该指数更侧重上/中游设备、材料、设计等,合计占比约90%。从产业链角度看,半导体设备、材料、设计国产替代空间广阔,持续受到市场重视和产业政策支持。
谷歌智能音箱渲染图曝光:升级Gemini AI,可感知玻璃破碎、烟雾报警器等声音
IT之家 8 月 26 日消息,科技媒体 Android Headline 昨日(8 月 25 日)发布博文,分享了一组渲染图,展示了谷歌即将推出的全新一代 Nest 智能家居产品,包括 Google Home 音箱、第三代 Nest 室内摄像头、第二代 Nest 室外摄像头及第三代有线门铃。 Google Home 音箱 这款音箱最大的改进,在于 Gemini 取代 Google Assistant,支持 Gemini Live 和 Learn with Gemini 功能,并具备声音感知能力,可检测玻璃破碎或烟雾报警等异常情况。音箱采用 360 度均衡音效,可与 Google TV 流媒体设备配对。IT之家附上相关图片如下: 第三代 Nest 室内摄像头 颜色方面,共有雪白(Snow)、莓果(Berry)和榛色(Hazel)三种配色。分辨率从 1080p 提升至 2K HDR,支持最高 6 倍数码变焦与画面裁剪,便于监控婴儿床等重点区域。 该摄像头的视频预览延长至 3 小时,并在断网时可本地存储 1 小时视频。常用功能如活动区域、熟人识别、车库门提醒等均保留,并新增 Gemini 驱动的智能警报。 第二代 Nest 室外摄像头 该摄像头采用有线设计,提供雪白(Snow)和榛色(Hazel)两种配色,雪白款提供多件套,榛色为 Google 商店独占。功能与室内版本一致,包括 2K HDR、6 倍变焦、3 小时事件预览、断网本地存储以及 Gemini 智能分析。 第三代有线 Nest 门铃 第三代有线 Nest 门铃同样支持 2K HDR 及上述摄像功能,提供雪白、榛色和亚麻色三款配色。 该门铃还支持每日摘要功能,由 Gemini 生成当天事件回顾,确保用户不错过重要动态。谷歌还将原 Nest Aware 订阅更名为 Google Home Premium,并推出高级版,但暂未公布价格。
索尼将在2025东京电玩展亮相《羊蹄山之魂》《漫威斗魂》等游戏
IT之家 8 月 26 日消息,据外媒 TweakTown 今天报道,索尼 PlayStation 已确认参加 2025 东京电玩展(TGS)。 据介绍,这是索尼连续第二年参展,将带来以下游戏: 一、《羊蹄山之魂》: 这款游戏是《对马岛之魂》的精神续作,玩家将扮演女主“笃”踏上复仇之路,可自由探索虾夷(即现今的北海道)之地,无论是专注战斗、深入剧情,还是单纯欣赏风景,都能按自己的节奏进行。 玩家在游戏中可根据剧情使用锁镰、日本刀、长枪、大太刀等武器,随着剧情发展玩家还能探索“笃”的童年与失落的回忆,只需按下按钮,就能回味旧日时光。 这款游戏将在 10 月 2 日正式发售,其标准版定价 568 港元(IT之家注:现汇率约合 520.4 元人民币),数字豪华版定价 628 港元(现汇率约合 575.3 元人民币),实体豪华典藏版定价 1800 港元(现汇率约合 1649 元人民币)。 二、《漫威斗魂》: 这是一款 2D 动作游戏,主打“全民皆可上手”体验,所有角色采用统一的操作方式,玩家无需逐一学习技能即可上阵对战。 这款游戏还拥有 4v4 组队机制,可让玩家感受超级英雄之间的“协同作战”,在熟悉又震撼的能量碰撞中感受英雄的故事。 该游戏预定于 2026 年登陆 PS 和 PC 平台,暂未公布售价。 三、《宇宙机器人》: 这款游戏发售于 2024 年 9 月 6 日,是《宇宙机器人无线控制器使用指南》的续作,亦是“宇宙机器人”系列和 Team ASOBI 的第四作,主要展示了 PS5 游戏机的特色功能,数字版售价 468 港元(现汇率约合 428.8 元人民币)。 本作主要讲述主角“Astro”与其同伴们搭乘着的 PS5 造型母舰因遭外星人袭击而被损坏后,Astro 在整个银河系各个星球上寻回散落的飞船零件与机器人同伴的故事。
万亿机器人赛道,宇树科技为何急着“交卷”?
文 | 马 腾 9月2日,宇树科技在社交平台发帖“自宣”,预计将在今年第四季度提交IPO申请。帖子中还首次披露了其收入结构:2024年的销售额中,四足机器人和人形机器人分别贡献了约65%和30%。 作为明星独角兽,宇树科技创始人王兴兴在夏季达沃斯论坛上公开透露,公司2024年营收已超10亿元,且是业内少数实现盈利的企业。其明星产品Unitree Go1四足机器人累计出货量超5万台,占据全球消费级市场60%以上份额,战绩斐然。 然而在光鲜的成绩单之下,宇树科技所在的赛道普遍面临商业化场景匮乏问题。另一边,这场看似水到渠成的IPO,更深层的原因或许在于,越往后投资回报确定性就越低。 对宇树科技背后那支星光熠熠的投资天团而言,尽快将账面估值兑现为真金白银,是一场与时间赛跑的豪赌。 独角兽的困境 宇树科技的崛起,是一个典型的技术驱动型创业故事。从创始人王兴兴的技术执着,到产品凭借病毒式传播火遍全球,再到登上春晚舞台一炮而红,宇树科技用实力证明了其在足式机器人领域的顶尖水平。超过5万台的Go1机器人销量和超60%的市场占有率,让它在消费级和准专业级市场(如高校、研发机构)中建立了难以撼动的王者地位。 但恰恰是这种成功,将宇树科技引入了“新奇特陷阱”。产品的核心价值主要来源于其新颖性、观赏性和话题性,而非其实际的生产或生活效用。这种价值在产品问世初期会带来巨大的市场关注度和商业回报,但随着时间的推移和同类产品的普及,其价值会迅速衰减。 一个最直观的证据,来自于火爆的机器人租赁市场。在各类社交和二手平台上,宇树的G1人形机器人成为抢手货,日租金在5000元至1.5万元之间,且档期紧张。租赁这些昂贵机器的客户,并非需要解决生产力问题的工厂,而是学校、商场、活动策划公司等。他们租用机器人的目的,是进行科普展示、吸引人流、拍摄宣传片——本质上,是为机器人的“新奇”和“酷炫”买单。 这种商业模式虽然在短期内为宇树及其代理商带来了可观的现金流,甚至让G1机器人一度在线上渠道售罄,但它暴露了一个致命的问题:宇树科技的机器人,本质上仍是“昂贵的玩具”或“高效的营销工具”,而非“可靠的生产力工具”。 当宇树科技还在享受“新奇特”带来的红利时,它的竞争对手们早已将目光投向了更广阔、更艰难的工业制造腹地。它们的战略目标非常明确:不是要造出更好玩的“机器狗”,而是要打造出能替代人力的“机器工人”。 已经上市的优必选策略最为清晰,尽管仍在亏损,但其商业化路径完全瞄准工业场景。智元机器人的资本运作方式虽备受争议,但其团队构成和技术方向,同样直指工业自动化。它通过复杂的资本运作急于登陆A股,本质上是为了获得充足“弹药”,来参与这场即将到来的工业机器人大战。 这种战略上的分野,清晰地道出宇树科技面临的窘境。当竞争者们都在争夺通往工业自动化的船票时,宇树科技虽然在自己开辟的消费级市场里做到了极致,但这个市场的规模,可能远不足以支撑其数百亿元的估值和资本市场的长远期待。 紧迫的IPO:一场为投资人“抢跑”的资本盛宴 投资方的退出压力,驱使宇树科技必须立刻冲刺IPO。 这场IPO的时间点选择,更多是资本运作和财务工程的考量,而非技术或商业化成熟度的自然结果。其核心目标只有一个:在估值泡沫的最高点,为投资人锁定收益。 在启动上市辅导前一个月,宇树科技完成了C轮融资交割,投前估值已超百亿元。领投方堪称豪华:中国移动旗下基金、腾讯、锦秋基金、阿里巴巴、蚂蚁集团、吉利资本。这批投资者的入场,标志着宇树科技的融资阶段已从VC转向了Pre-IPO轮。 与红杉、经纬创投等早期投资方不同,C轮入局的巨头们,无论是寻求战略协同的产业资本,还是追求稳定回报的大型基金,其投资逻辑都建立在一个清晰的预期之上:短期内通过IPO实现退出。 一位C轮投资人就曾透露,对宇树科技的上市预期,是其参与本轮投资的原因之一。他们不是来陪伴一家公司进行十年研发长跑的,而是来购买一张即将开奖的彩票。因此,IPO对于宇树科技而言,已不仅仅是一个发展选项,更是对这批新晋股东们的“履约”。 选择在2025年这个时间点启动IPO,也有讲究。2025年被普遍视为人形机器人商业化落地“元年”。这种狂热的市场氛围,为宇树科技这样的头部企业创造了一个完美的“估值窗口”——在这个窗口期内,公司的价值更多由未来的想象空间决定,而非当下的盈利能力。 要知道,窗口期不会一直敞开。对于宇树科技和它的股东们来说,等待的风险无疑是巨大的: 首先,资本市场热点转换极快,一旦行业商业化进展不及预期,整个机器人板块的估值都将面临回调。 竞争格局也可能突变,假如优必选在比亚迪工厂的部署取得重大成功,或特斯拉的Optimus机器人发布颠覆性进展,市场叙事将迅速转向“赢家通吃”,尚未在工业场景证明自己的宇树科技,其估值逻辑也会受到冲击。 宇树科技若想真正进入工业机器人市场,就必须投入巨额资金进行研发和建立新销售渠道。这样一来,宇树科技势必要告别目前“小而美”的盈利状态,进入一个漫长且痛苦的“烧钱”阶段,财报大概率会变得像优必选一样难看。 所以,最明智的选择是在还能夸耀盈利能力的时候上市融资,用资本市场的钱去赌一个不确定的未来。越往后拖,宇树科技IPO的确定性和估值高度就越低,股东的投资回报率也就越不乐观。现在,就是锁定最高收益的最佳时机。
2100亿独角兽即将诞生!被英伟达、谷歌、xAI同时看中
作者 | 程茜 编辑 | 心缘 智东西8月26日报道,近日,谷歌母公司Alphabet风投部门CapitalG、英伟达正在洽谈投资以色列AI基础设施提供商VAST Data,融资金额或达到数十亿美元,或将成为以色列科技公司史上最大规模融资。这家创企的估值将跃升至300亿美元(折合人民币约2148亿元)。 这家被谷歌、英伟达争着送钱的创企,到底什么来头? 2016年成立的VAST Data已成为众多大模型企业青睐的香饽饽,核心原因是传统数据存储架构无法满足大模型训练、推理的新需求,VAST Data面向AI时代推出了统一数据平台,将结构化和非结构化数据集成在一起,让AI处理数据能更高效、更便宜。 马斯克旗下大模型创企xAI、获英伟达39.6亿美元投资的CoreWeave、全球头部动画公司迪士尼及其子公司皮克斯、美国电信巨头威瑞森通信公司、视频通话平台Zoom等诸多全球知名企业都被这家创企列入客户名单。 值得一提的是,其与诸多客户签订的都是5~7年的长期合同, 随之而来的就是年收入的爆炸式上涨。根据VAST Data官网的公开数据,截至2025年1月31日年度,VAST Data营收同比增长3.6倍。这一营收增速甚至超过了英伟达和OpenAI。2025财年英伟达营收同比增长114%,此前据彭博社报道,OpenAI预计2025年收入将同比增长三倍至127亿美元(折合人民币约909亿元)。 据路透社援引熟悉财务状况的匿名消息人士报道,VAST Data联合创始人、CEO雷宁·哈拉克(Renen Hallak)曾提到,该公司已经实现连续五年自由现金流为正。截至2025年1月,该公司ARR(年度经常性收入)达到2亿美元(折合人民币约14.3亿元),预计明年ARR将增长至6亿美元(折合人民币约43亿元)。 与此同时,这家创企还与被曝新融资的两家“金主”关系匪浅,VAST Data将自家软件平台集成到了谷歌云上,英伟达创始人、CEO黄仁勋曾在GTC大会、台北国际电脑展COMPUTEX等国际大会上多次为VAST Data送好评,称其是大规模AI模型部署的关键推动者。 在创投圈,这家创企也早已站到投资人的聚光灯下,此前共拿下5轮融资,融资总额达到3.81亿美元(折合人民币约27.3亿元),彼时估值达到91亿美元(折合人民币约652亿元),其中戴尔和英伟达连续多轮注资。 ▲VAST Data融资情况 AI驱动数据以前所未有的规模增长,这对数据处理的基础设施提出了更高要求,使得构建数据处理AI基础设施的VAST Data迎来发展机遇。 一、手握10亿美金订单,xAI、CoreWeave、迪士尼都是客户 VAST Data的四位创始人都在存储领域积累深厚。 CEO雷宁·哈拉克(Renen Hallak)、CTO沙查尔·芬布利特(Shachar Finblit)、营销副总裁杰夫·登沃思(Jeff Denworth)和CTO阿隆·霍列夫(Alon Horev)共同于2016年创立了这家公司。 ▲VAST Data联合创始人杰夫·登沃思(Jeff Denworth)(左一)、沙查尔·芬布利特(Shachar Finblit)(中)、CEO雷宁·哈拉克(Renen Hallak)(右二) 哈拉克曾在戴尔EMC推出的全闪存企业级存储阵列XtremIO部门担任研发副总裁,从项目启动到实现超过10亿美元的营收;芬布利特和霍列夫均曾在IBM等公司任职,登沃思在先进计算和大规模可扩展的大数据和云存储方面拥有超20年的技术经验。 彼时,哈拉克在XtremIO感受到了AI用于大规模分析的数据存储挑战,但在戴尔的部门没有施展拳脚的空间,因此他决定离开从0开始打造一种新架构。后续,他与另外三位联合创始人一拍即合。 用一句话概括VAST Data的业务体系,就是将存储、数据库和容器化计算引擎服务统一为一个单一的、可扩展的VAST Data软件平台,并且该平台从底层架构设计之初就专为现代数据中心和云中的AI、GPU加速工具而构建。 具体来看,其能实现对电子邮件、日志、PDF文件和多媒体内容等非结构化数据的实时访问,通过将非关键数据转移到成本更低的闪存中存储,然后使用速度更快、价格更高的闪存,让GPU在模型训练过程中能够快速访问大量数据。 得益于AI相关需求的日益增长,众多大模型相关企业、其他赛道头部企业等纷纷向VAST Data抛来橄榄枝,除了开篇提到的大模型领域炙手可热的xAI、CoreWeave等,还有英伟达投资的云计算基础设施公司Lambda和阿联酋AI公司G42子公司Core42,以及NASA、美国能源部、波士顿儿童医院、旅游公司Booking Holdings等其他赛道企业,均是VAST Data的客户。 ▲VAST Data部分客户名单 且与许多依赖短期合同的软件公司不同,VAST Data会与客户签订5至7年的长期合同,这使得公司的客户流失率极低,累计软件预订量已超过10亿美元(折合人民币约716亿元)。 从融资层面看,VAST Data此前累计融资金额已经超过3.81亿美元,估值为90亿美元,老虎环球、高盛等顶级投资机构,英伟达、戴尔等头部公司均在其投资人之列。值得一提的是,此次曝出参与此轮融资的是Alphabet的独立增长基金CapitalG,该基金的投资目的是盈利,而不是战略投资,这也在一定程度上说明投资者对VAST Data盈利能力的认可。 那么,VAST Data的产品到底有什么过人之处? 二、专为AI需求构建,自研分布式系统架构 能够低成本高效处理数据,一直是AI发展的命门之一。 传统的数据存储依赖于分层,用低成本存储方案处理长期存储的数据,用高端方案存储更常使用的数据。 但数据管理的难点在于,传统架构下,跨全球数据中心传输PB乃至EB规模的数据已变得愈发难以处理;传统数据架构并非为满足当今AI对海量、多样化数据集和高性能随机I/O的需求而设计;当下的解决方案成本过高,在管理和激活数据时,迫使企业需要在性能、规模、弹性和成本之间做取舍。 因此需要构建为AI专门设计的数据处理架构。 VAST Data的做法是消除传统存储的分层模式,将结构化、半结构化和非结构化数据存储在一个地方加速数据检索、降低模型训练和推理成本,其最大的优势就是能让xAI、CoreWeave部署的数万块甚至数十万块GPU不会因等待存储而闲置。 他们是如何做到的? 该公司提出了首个分布式系统架构DASE(Disaggregated Shared-Everything),作为专为AI需求设计的专有框架,其将存储、计算和数据库层统一为一个单一的、全球一致的系统,且与堆叠不同工具的公有云提供商不同,VAST的AI操作系统消除了性能折衷,支持实时分析、递归计算和无缝混合云操作。 具体来看,DASE的解耦(Disaggregated)支持将数据存储和计算资源分离,可独立灵活地扩展每个组件;共享一切(Shared-Everything)意味着数据可以在所有存储节点之间访问,同时为所有节点提供统一数据视图。 而依托这一架构构建的VAST Data Platform,可以支持1万个GPU集群,每秒处理量达TB级别。 VAST Data Platform这一操作系统由诸多组件构成: VAST DataSpace允许从边缘到云、跨越数百个地点的数据访问、交易和保护,类似于操作系统的全局资源管理器;VAST DataStore就是通用存储平台,堪比操作系统中的文件系统;VAST DataBase负责索引功能,可提供实时查询、分析数据的多项功能。VAST DataEngine则扮演着动态计算和执行层的角色,VAST InsightEngine是其内部的数据精炼工具,利用AI嵌入模型将原始非结构化数据转化为具有上下文的数据,并将其作为RAG(检索增强生成)工具。 ▲VAST Data AI操作系统架构 今年下半年,VAST Data将补上数据处理AI操作系统核心服务的最后一块拼图,AI Agent部署和编排系统VAST AgentEngine。这意味着VAST Data的平台已经集成了接收数据、实时存入存储以及向寻找信息的Agent提供数据的全流程能力。 从具体的合作客户来看,今年2月,xAI官宣的搭载超过20万块英伟达GPU的超级计算集群Colossus,其背后的数据平台就由VAST Data打造,使得Colossus的AI工作负载的总拥有成本(TCO)降低了50%;2023年9月,VAST Data与CoreWeave宣布达成战略合作,CoreWeave基于VAST Data的平台构建了全球英伟达加速计算云,能够管理和保护为生成式AI、高性能计算(HPC)和视觉特效(VFX)任务所需的大量数据。 VAST Data从0开始为AI构建的系统,将存储、数据库和虚拟化计算引擎服务统一其中。这也说明,面对AI行业的新发展机遇,VAST Data已经从最初的存储公司定位,向着更广泛的应用空间扩展。 三、深度绑定谷歌、英伟达,新融资或为IPO信号 此次被曝注资的两家巨头,都与VAST Data进行了深度绑定。 首先是英伟达,今年3月,VAST Data获得英伟达认证存储资质。黄仁勋曾在GTC大会、台北国际电脑展COMPUTEX的主题演讲中提到VAST Data。他认为,AI时代数据是驱动行业的原材料,英伟达正与全球存储头部一起,构建新一代的企业基础设施,企业需要其在混合数据中心中部署和扩展AI Agent。VAST Data就是与英伟达合作的企业之一。 2024年底,黄仁勋与哈拉克一起录制了一段关于AI未来的十分钟播客,黄仁勋谈到他曾在法国巴黎的VivaTech大会上提到的实现模型持续改进的数据飞轮(data flywheel),当下扩展企业AI、从训练转向实时推理的转变,对VAST Data来说是一个绝佳的机会。他对于此前和VAST Data的合作感到非常自豪。 ▲黄仁勋与哈拉克录制AI播客 去年9月,VAST Data还与英伟达合作构建了实时RAG工具InsightEngine,可以利用NIM微服务实现实时数据检索,已经在金融交易、自动驾驶、物流等领域实现了企业级应用。 其次是谷歌,今年4月,VAST Data平台已全面集成到谷歌云中,企业可以在单个高性能平台上统一AI训练、RAG管道、高通量数据处理和非结构化数据湖,这实现了跨混合环境的AI训练、RAG和推理,可以绕过公有云提供商的壁垒。 值得一提的是,除了与头部客户深度绑定外,这家创企与思科、超微和HPE的OEM合作使其能获得较低的硬件成本,同时保持软件溢价,达到高毛利和快速客户获取的优势。 在现金流充足的情况下,外媒也认为VAST Data获得新融资或证明了其进行IPO前准备工作的进程加快,去年这家创企还聘请了全球电商平台Shopify前CFO艾米·沙佩罗(Amy Shapero)。 结语:乘AI东风,VAST Data营收激增 数据、算力等AI基础设施平台构建的重要性与日俱增,尽管英伟达、微软和谷歌等科技巨头凭借GPU、云平台占据了这一赛道的头部市场,但以VAST Data为代表的AI创企业务增长、估值飙升也证明了这不仅是一场巨头游戏。 而在巨头环伺的AI竞赛下,VAST Data这类专注于某一垂直赛道的企业,能够针对数据存储需求的变化,在大模型发展瞬息万变的当下,打造完全面向AI时代企业核心需求的数据处理平台,从而收获大批客户以及收益。
英媒:为什么存储芯片是人工智能革命的新前沿
Why memory chips are the new frontier of the AI revolution 创新助力 SK 海力士超越三星,并让芯片制造商陷入日益加剧的紧张局势之中 高带宽内存设计,例如 SK 海力士和三星生产的 HBM3E,正在改变整个行业,并改变顶级厂商的历史顺序。 © FT montage/Bloomberg 在 SK 海力士庞大的 M14 芯片制造厂,身穿白色、粉色和蓝色洁净服的工人们检查着一排排的机器,700 台机器人沿着高架轨道快速移动,将硅晶圆运送到制造过程的不同阶段。 该工厂位于韩国利川市的公司主园区,生产高带宽内存 (HBM) 芯片,每秒可传输相当于 200 部长片电影的数据。 几十年来,内存芯片一直是半导体行业中不起眼的领域,被 AMD、高通、Nvidia 和台积电等公司设计和生产的用于进行计算和控制电子设备运行的逻辑芯片或处理器芯片所掩盖。 但HBM设计,例如利川工厂生产的HBM3E,正在改变存储器行业。SK海力士副总裁兼HBM业务规划负责人崔俊勇指出,在传统的动态随机存取存储器(DRAM)中,“客户优先考虑成本而不是功耗和性能,而对于HBM,他们优先考虑功耗和性能而不是成本”。 他们正在帮助所谓的大型语言模型的开发人员减轻“内存墙”的影响——存储和检索数据的限制阻碍了性能的提高——同时提高全球在建的数千个数据中心的效率并降低成本。 内存对人工智能日益增长的重要性,使该行业成为华盛顿与北京之间日益激烈竞争的焦点。华盛顿正试图限制中国获取尖端技术,而北京则在培育国内半导体行业,希望能够与全球竞争对手展开竞争。 这也改变了行业巨头的历史排名。SK海力士的DRAM(HBM是其中的一部分)营收从2021年第二季度的7.5万亿韩元(54亿美元)飙升至2025年同期的17.1万亿韩元,自20世纪80年代两大韩国企业开始在内存市场竞争以来,首次超越其主要竞争对手三星。 塔夫茨大学副教授、 《芯片战争》一书的作者克里斯·米勒表示:“五年前,SK海力士超越三星还是不可想象的。这就像胡椒博士 (Dr Pepper) 突然变得比可口可乐更受欢迎一样。” 米勒表示:“几十年前就很明显,内存市场的商品动态将使获得巨额利润变得非常困难。” 他补充道,这促使许多最聪明的人才以及像英伟达的黄仁勋和高通的欧文·雅各布斯这样的雄心勃勃的企业家将注意力转向了处理器芯片。 “但现在,记忆又恢复了。” 英特尔于 20 世纪 60 年代作为一家内存芯片公司起步,但在日本竞争对手东芝和 NEC 的压力下于 20 世纪 80 年代退出了 Dram 领域。 而它们在20世纪90年代被三星和现代电子(Hynix)的芯片部门所取代,后者后来被SK集团收购。自此以后,这两家韩国集团和美国美光公司一直主导着该行业。 直到最近,三星一直是高度商品化的DRAM芯片市场无可争议的领导者。DRAM芯片在处理器运行时供电并临时存储数据。在周期性行业低迷时期,三星利用其优越的规模投资产能。 Choi 解释说,虽然 Dram 和低价值 Nand 芯片(无需电源即可长时间存储数据)是主导技术,但公司也在尝试更多利基产品。 海力士于 2013 年开始研发的 HBM 芯片就是其中之一。这种芯片由层层堆叠的 DRAM 单元组成,这些单元通过厚度仅为人类头发十分之一的铜线连接,就像一个多层图书馆,配有电梯,可以在楼层之间快速运送书籍。 Choi 解释说,这意味着 HBM 芯片可以提供 1,024 条路径来与处理器之间发送和接收数据,而传统的高级 DRAM 芯片只有 64 条。“这就像注水箱的水龙头数量,或者高速公路上的车道数量,”他说道。“就 AI 的内存需求而言,没有什么能比得上 HBM。” 咨询公司 Futurum Group 的首席半导体分析师 Ray Wang 也指出,海力士早期采用的先进键合技术,即大规模回流成型底部填充技术 (MR-MUF),是其 HBM 成功的关键。该技术使用一种特殊的树脂基绝缘材料来防止过热,这在堆叠多达 16 个 Dram 芯片时至关重要。 海力士与其日本供应商 Namics Corporation 签订的材料独家合同迫使三星和美光公司采用劣质制造工艺,该工艺需要高温和高压,而这两者都可能导致硅层破裂并导致更高的故障率。 其卓越的产品帮助海力士巩固了其作为 Nvidia HBM 芯片主要供应商的地位,并使其在 OpenAI 的 ChatGPT 聊天机器人于 2022 年底发布后对 AI 芯片的需求激增时,搭上了这家美国公司的便车。 根据伯恩斯坦研究公司的数据,HBM 在海力士整体 Dram 收入中的份额从 2022 年第四季度的 5% 左右上升到 2025 年第一季度的 40% 以上。 咨询公司 SemiAnalysis 的 Myron Xie 指出,虽然美光公司的 HBM3E 芯片现已通过了用于 Nvidia 最先进 AI 芯片的严格资格测试,但三星的同类芯片尚未通过。 知情人士表示,其 HBM3E 芯片即将通过英伟达的测试。但他们也承认,作为这个直到最近才商品化的市场的主导者,该公司对人工智能企业对更符合其特定需求的定制化内存解决方案的需求感到措手不及。 “三星也在为生产尖端 Dram 芯片这一基本任务而苦苦挣扎,这些芯片最终会被堆叠到 HBM 中,”谢说道。“美光表现不错,但三星排在第三位,这对它来说也相当不利。” 米勒补充道,三星“针对的是智能手机时代”,而非人工智能时代。“我认为整个公司都在努力设想,当智能手机不再是主导产品时,世界会是什么样子。” 事实证明,这是一次代价高昂的失误。花旗集团驻首尔的半导体分析师彼得·李(Peter Lee)指出,HBM芯片的利润率约为50%至60%,而传统DRAM芯片的利润率约为30%。 由于每个 HBM 芯片都需要设计为适合与其配对的特定 AI 图形处理单元,因此订单必须在生产前一年下达,通常是一年期合同。 李补充道:“与销售传统 Dram 相比,这为内存公司提供了比潜在客户更大的定价优势,传统 Dram 可以在一个月甚至一天内购买,并且可以轻松更换为竞争对手芯片制造商的产品。” 王估计,自 ChatGPT 发布以来,三星的失误每年造成数百亿美元的收入损失。“他们应该意识到机器学习的兴起对内存需求的影响,”他说。 “低估 HBM 的潜力是一个巨大的战略错误。” 如果 HBM 的崛起扰乱了内存市场高端的旧秩序,那么另一个扰乱因素则正从底层涌现:中国内存冠军企业长鑫存储科技(CXMT)。 据深圳前瞻咨询公司称,总部位于中国东部安徽省合肥市的长鑫存储科技在全球 Dram 市场的份额已从 2020 年的接近零上升至去年的 5%。 目前尚不清楚长鑫存储技术在传统 Dram 方面的进步是否能够使其在量产尖端 HBM 芯片方面赶上海力士、三星和美光——这一进展可能会减少中国人工智能开发商和芯片制造商对外国公司关键部件的依赖。 《金融时报》上个月报道称,长鑫存储正在测试HBM3产品样品(比HBM3E落后一代),计划明年推出。但分析师和业内人士仍怀疑,由于无法获得受美国出口管制的关键设备和材料,长鑫存储能否在短期内弥补HBM缺口。 “在最近一轮管控措施出台之前,长鑫存储囤积了大量所需设备,”富图伦集团的王先生表示,“但该公司无法使用极紫外光刻机,而且目前尚不清楚他们是否拥有足够的设备来量产先进的高带宽存储器 (HBM) 产品,其规模与领先的存储器厂商相当。” 他估计,长鑫存储的 HBM 开发“落后三到四年”。 上周,美国政府撤销了允许海力士和三星无需许可就将芯片制造设备运送到其在中国的制造工厂的豁免,王先生表示,这一决定“凸显了华盛顿进一步限制中国获取内存技术的意图”。 去年 12 月,美国出口管制限制韩国 HBM 供应之前,中国的科技集团和芯片制造商纷纷抢购 HBM,这表明 HBM 对中国人工智能雄心的重要性。 尽管有这些控制措施,但许多专家认为,美国政策制定者迟迟未能认识到内存对人工智能性能的核心作用,导致在最先进的处理芯片受到限制之后很长一段时间,中国企业仍然能够获得尖端内存技术。 虽然相当于 HBM2E 标准及以上的单个 HBM 芯片不能再出口到中国,但如果更先进的芯片被预先封装成不超过特定性能标准的 AI 芯片,则可以出口到中国。 SemiAnalysis 的谢先生举了 Nvidia 的 H20 芯片的例子,美国总统唐纳德·特朗普以该芯片“过时”为由允许其向中国销售。 虽然 H20 的处理能力明显不如 H100,但其搭载的六个三星 HBM3 芯片实际上提供了更好的内存性能:每秒 4TB 的内存带宽,而 H100 为 3.4TBps,华为旗舰产品 Ascend 910c 为 3.2TBps。 谢指出,虽然计算性能对于训练人工智能模型更为重要,但内存被广泛认为对于部署(也称为推理)更为重要。 “从某些方面来看,H20 比 H100 更胜一筹,因为它拥有更大的内存容量和带宽,”谢志雄说道,“人们仍然过于关注计算能力,但这只是性能的一个方面。” 分析师表示,SK 海力士目前在 HBM 领域的主导地位可能仍会受到来自其他方面的压力。 这家韩国公司计划今年开始大规模生产其下一代 HBM4 芯片,该芯片将用于 Nvidia 即将推出的 Rubin 平台,为 LLM 开发人员提供性能上的实质性飞跃。 尽管 HBM3E 及其前代产品使用相对简单的 Dram 芯片作为其“逻辑芯片”——调节 HBM 堆栈操作的基础芯片——但这项任务将由新设计中台积电生产的先进处理器芯片执行。 三星的HBM4还将采用其自有代工部门生产的先进处理器芯片。一位知情人士向英国《金融时报》透露,作为唯一一家同时拥有处理器、内存芯片和先进封装(将多个芯片更紧密地集成在一起的工艺)尖端能力的公司,三星可以为客户提供“一站式服务”。 该人士补充说,该公司还在“与主要客户积极讨论”一种名为“混合键合”的技术,这是一种连接堆叠 Dram 芯片的改进方法,可以提供更大的带宽、功率和信号完整性。 如果所有零件都质量低劣,那么一站式服务就没什么价值 Futurum集团的王先生认为,谁能率先将混合键合技术融入其中,“就将决定谁将在下一代HBM领域占据领导地位”。他表示,中国企业也在大力投资相关研究,并加快混合键合相关的专利申请。 花旗集团的李指出,除了提高性能之外,使用处理器芯片作为逻辑芯片将越来越多地允许 HBM 产品针对特定任务进行定制,从而使客户更难以在供应商之间切换。 这引发了一个问题:HBM4 能否为三星的东山再起铺平道路。李教授表示,这家规模更大的公司有时间纠正其在 HBM3E 设计中犯下的错误,并将其用于 HBM4,这意味着它很可能有资格成为英伟达的供应商。 但王先生指出,海力士将继续受益于近期与英伟达的密切合作,以及与行业领军企业台积电的长期合作关系。周三,海力士发布了从阿斯麦公司(ASML)收购的高数值孔径极紫外光刻机,使其在HBM领域相对于竞争对手更具优势。 相比之下,SemiAnalysis 的谢指出,三星的代工和内存业务一直受到质量和生产问题的困扰。“如果所有单个零件都是劣质的,那么成为一站式服务商就没有多大价值了。” 三星在一份声明中表示,“该公司持续投资 HBM 业务,并专注于开发下一代内存技术”。 与此同时,无法规避美国出口管制的中国人工智能芯片制造商正在寻找减少对 HBM 的依赖以提高性能的方法。 华为上个月推出了一款新的AI软件,旨在将不同的内存任务分配给不同类型的内存芯片,从而减少对HBM的依赖。上周,这家中国科技巨头还发布了三款新的“AI固态硬盘”,作为替代的内存解决方案。 塔夫茨大学的米勒表示,由于 HBM 仍然相对昂贵且耗能,而且内存容量对 AI 性能至关重要,因此许多科技公司正在尝试开发替代方案。 其中包括日本科技集团软银,该公司正与英特尔合作开发一种采用与 HBM 不同的布线系统的堆叠 Dram 产品。 大多数分析师都认为,HBM 至少在未来五年内仍将主导内存解决方案。但更高程度的定制化可能意味着代工厂、芯片设计师以及客户自身将更深入地参与到设计和制造过程中。 谢警告说,这可能会威胁到内存公司从供应链中获取更多价值的雄心。“HBM堆栈外包给台积电和无晶圆厂设计公司的部件越多,内存公司就越有可能被那些实力雄厚的公司做最难的事情,”他说道。 “如果发生这种情况,那么这一刻可能会是苦乐参半的。” 本文出处:https://www.ft.com/content/f3ee292b-ba56-4e9f-944a-da26d5706583
特斯拉未来新规划是AI写的?美媒:空洞、无实质内容
特斯拉未来聚焦机器人 凤凰网科技讯 北京时间9月3日,特斯拉发布了“秘密宏图”的第四篇章,声称要打造“可持续的富足”。然而,美国科技媒体TheVerge发文指出,这篇文章就像是AI写的,内容空洞,无具体方案。 第四篇章全文仅983个字,是其未来规划“秘密宏图”系列中最短的一篇。该计划首次发表在埃隆·马斯克(Elon Musk)的社交媒体平台X上,而非特斯拉官网。 “秘密宏图4”的文风读起来像是用马斯克的聊天机器人Grok生成的,不仅反复使用破折号,并以一种令人怀疑的乌托邦式语气描绘AI和机器人的未来。 特斯拉发布“秘密宏图4” TheVerge表示,它是否真由AI生成其实并不重要,因为最新篇章的内容过于模糊、空洞,缺乏具体方案,几乎毫无实质内容。 相比之下,特斯拉2006年发布的第一篇章曾明确勾勒出公司战略:先打造电动跑车,再用其收入逐步开发更实惠的电动车型。2016年的第二篇章则提出要制造电动半挂卡车与巴士,开发自动驾驶技术,并让客户能将车辆作为创收的自动驾驶出租车使用。2023年发布的第三篇章则将特斯拉定位为全球消除化石燃料、推动世界转向可持续能源的领导者。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
浙江首个,温州市人工智能局正式挂牌成立
IT之家 9 月 3 日消息,据潮新闻,温州市人工智能局于今天下午正式挂牌成立。浙江省委机构编制委员会办公室此前批复同意温州市数据局加挂温州市人工智能局牌子,这是浙江省首个挂牌的人工智能局。 IT之家从报道中获悉,该局主要职责包括拟定并组织实施全市人工智能发展规划和政策,统筹推进全市算力、语料、算法等相关基础设施布局建设,牵头推进全市“人工智能 + 行动”,以及开展人工智能领域企业、人才引育服务等。 温州市数据局(市人工智能局)负责人介绍说,“加挂人工智能局牌子,不是形式上的机构叠加,而是城市未来发展战略赋予我们的新使命。我们将坚决履行好牵头抓总职责,强化部门协作、市县联动和政产学研投协同创新的工作机制,全面放大‘数据要素 ×’‘人工智能 +’的协同效应,助力温州加快打造人工智能创新发展先行市。” 同时,在今天举行的温州全市人工智能创新发展大会上,《温州市“人工智能 + 教育”三年行动计划(2025—2027 年)》发布。文件提出,温州将构建多层次的人工智能课程体系,明确通识课程各学段每学年不少于 10 课时。同时,为提升学科教师在人工智能教学领域的应用力,温州将市、县、校联动开展学科教师“AI 素养提升”专题研修和 AI 应用力全员培训。 到 2027 年,中小学初、中、高阶课程学校覆盖率分别达 100%、60%、20%,高校人工智能通识课程覆盖率达 100%。
多模态通用感知能力超越GPT-5,书生・万象3.5大模型开源
IT之家 9 月 3 日消息,上海人工智能实验室(上海 AI 实验室)今日宣布开源通用多模态大模型书生・万象 3.5(InternVL3.5),其推理能力、部署效率与通用能力全面升级。 InternVL3.5 本次开源有 9 种尺寸的模型,参数涵盖 10 亿-2410 亿,可满足各场景需求。其中,旗舰模型 InternVL3.5-241B-A28B 在多学科推理基准 MMMU 中获 77.7 分,为开源模型中最高分;多模态通用感知能力超越 GPT-5,文本能力领跑主流开源多模态大模型。 与 InternVL3.0 相比,InternVL3.5 在图形用户界面(GUI)智能体、具身空间感知、矢量图像理解与生成等多种特色任务上实现显著提升。 本次升级,上海 AI 实验室研究团队重点强化了 InternVL3.5 面向实际应用的智能体与文本思考能力,在 GUI 交互、具身空间推理和矢量图形处理等多个关键场景实现从“理解”到“行动”的跨越,并得到多项评测验证。 GUI 交互部分,InternVL3.5 在 ScreenSpot-v2 元素定位任务以 92.9 分超越同类模型,同时支持 Windows / Ubuntu 自动化操作,并在 WindowsAgentArena 任务大幅领先 Claude-3.7-Sonnet。 在具身智能体测试中,InternVL3.5 表现出理解物理空间关系并规划导航路径的能力,在 VSI-Bench 以 69.5 分超过 Gemini-2.5-Pro。 在矢量图形理解与生成方面,InternVL3.5 在 SGP-Bench 以 70.7 分刷新开源纪录,生成任务 FID 值也优于 GPT-4o 和 Claude-3.7-Sonnet。 具体来看,InternVL3.5 可跨 Windows、Mac、Ubuntu、Android 等多个平台,识别界面元素并自主执行鼠标、键盘操作,实现恢复已删除文件、导出 PDF、邮件添加附件等任务的自动化。 InternVL3.5 具备更强的 grounding 能力,可以泛化到全新的复杂大量小样本的具身场景,配合抓取算法,支持可泛化的长程物体抓取操作,助力机器人更高效地完成物品识别、路径规划与物理交互。 作为上海 AI 实验室书生大模型体系的重要组成部分,InternVL 聚焦视觉模型技术,InternVL 全系列全网下载量已突破 2300 万次。
TechInsights:英特尔2024研发投入165.5亿美元为半导体行业最多
IT之家 9 月 3 日消息,市场研究机构 TechInsights 本周二发布的报告显示,在 2024 年全球前 20 大半导体企业中,英特尔仍是最大研发(R&D)支出企业,三星电子研发支出增幅最大。 数据显示,三星去年研发投入达 95 亿美元(IT之家注:现汇率约合 678.57 亿元人民币),较 2023 年的 55 亿美元增长 71.3%,排名从第七位升至第三位。 英特尔 2024 年投入 165.5 亿美元(现汇率约合 1182.13 亿元人民币),但同比增幅仅为 3.1%,远低于同行。英伟达则以 125 亿美元(现汇率约合 892.85 亿元人民币)位列第二,同比增长 47%。 台积电以 63.6 亿美元(现汇率约合 454.28 亿元人民币)排名第七,同比增长 8.8%。SK 海力士连续第二年位列第十,研发支出 33.3 亿美元(现汇率约合 237.86 亿元人民币),同比增长 32.7%。 其中,英特尔作为唯一一家在美国本土同时进行芯片设计和制造的企业,目前重点投入在于提升其 18A 工艺的良率,但该公司去年仍录得 188 亿美元(现汇率约合 1342.85 亿元人民币)亏损。 整体来看,2024 年全球前 20 大半导体企业合计研发投入 986.8 亿美元(现汇率约合 7048.52 亿元人民币),同比增长 17%,约占行业总研发支出的 96%。其中 15 家企业增加了投入,5 家则有所削减。 从研发投入与营收占比来看,美国企业排名靠前,英特尔、博通、高通和 AMD 位居前列。前 20 家企业的平均比例为 15.8%。其中,三星为 11.7%,SK 海力士为 6.99%,为该组最低。其中 SK 海力士研发投入增长逾 32%,但由于营收几乎翻倍,故研发投入占比反而有所下降。 TechInsights 预计,英伟达可能在明年超过英特尔,成为全球研发支出最高的半导体企业。英特尔去年将 33.6% 的营收投入研发,但其新任 CEO 陈立武已开始削减开支。相比之下,英伟达将 1156.2 亿美元营收中的 10.8% 用于研发,并已连续四年大幅增加投资。 路透社上个月还报道称,相对于英特尔的巨额投入,其 18A 工艺目前仍存在良率偏低的风险。 根据 X 用户 @Kurnalsalts 分享的数据,Intel 18A 工艺的逻辑晶体管密度仅 184.21MTr / mm2,是同行之中最低的。此前 TechInsights 分析的数据却显示,在高密度逻辑单元晶体管密度方面,台积电 2nm 为 313 MTr / mm2、Intel 18A 为 238 MTr / mm2,三星 2nm 则为 231 MTr / mm2。
谷歌躲过一劫,但这些美国科技巨头还面临反垄断威胁
谷歌 凤凰网科技讯 北京时间9月3日,据路透社报道,美国法官周二裁定,谷歌必须与竞争对手分享搜索数据,但不必出售Chrome浏览器。这桩案子只是美国反垄断执法部门针对大型科技公司市场主导地位采取的众多行动之一。 目前,美国反垄断部门已对一些世界上最具价值的科技公司发起了反垄断诉讼或启动了反垄断调查,包括谷歌、Meta、苹果、亚马逊、微软以及英伟达。 谷歌 谷歌正在两条战线上应对美国司法部及各州执法机构的诉讼。在其中一桩案件中,华盛顿法官周二裁定,谷歌必须与竞争对手共享数据,以促进网络搜索领域的竞争,并禁止谷歌签订排他性协议阻止设备制造商在新设备上预装竞品。谷歌已聘请一名前奥巴马政府官员代表其上诉,这一过程可能持续多年。 与此同时,谷歌还在为9月在弗吉尼亚州亚历山大市开庭的审判做准备,此次审判将决定其是否必须剥离部分在线广告技术,以为该领域的新进入者腾出空间。此前,谷歌被认定在该领域存在两项非法垄断行为。谷歌表示将提起上诉。 Meta 脸书母公司Meta今年也面临自己的反垄断审判。美国联邦贸易委员会(FTC)试图拆分Meta收购的关键资产Instagram和WhatsApp。该机构试图证明,Meta策略性地收购了它认为可能成为脸书竞争对手的新兴应用,其中部分依据是Meta内部文件。例如,Meta CEO马克·扎克伯格(Mark Zuckerberg)在2008年的一封电子邮件中表示,“买下它比竞争更好”。 Meta Meta则表示,扎克伯格过去的意图无关紧要,案件应当驳回,因为它依赖的是一个虚构的社交媒体市场,忽略了字节跳动的TikTok、谷歌的YouTube等竞争平台。负责此案的华盛顿法官不太可能在2025年底之前作出裁决。 亚马逊 亚马逊正在西雅图应对FTC及各州执法机构的诉讼。FTC指控亚马逊通过反竞争手段维持其在线上平台和市场中的主导地位。 FTC称,亚马逊线上平台Amazon.com拥有10亿种商品,其使用的一种算法推高了价格,导致美国家庭多支付了超过10亿美元的费用。亚马逊在法庭文件中表示,该算法已于2019年停止使用。去年,一名法官基本上驳回了亚马逊要求撤销案件的请求。审判定于2027年2月进行。 苹果 美国司法部及多州组成的联盟正在起诉苹果。他们称,苹果通过限制应用开发商和第三方设备制造商来阻碍竞争,从而将iPhone用户锁定在其生态系统中。 苹果在6月提出的驳回诉讼请求被拒绝。双方交换案件信息的截止日期延长到了2027年初,目前尚未确定审判日期。 英伟达 英伟达 美国司法部对这家半导体公司展开了调查。英伟达生产的高需求AI芯片使其成为全球首家市值达到4万亿美元的公司。目前。美国司法部尚未提起诉讼。 微软 FTC在2024年对这家软件和云计算巨头展开调查,重点是其是否滥用生产力软件市场的优势,通过实施惩罚性许可条款阻止客户将数据迁移到竞争平台。FTC尚未提起诉讼。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
微软365服务再曝自动删邮件故障,邮件在用户眼前自动消失
IT之家 9 月 3 日消息,科技媒体 borncity 今天(9 月 3 日)发布博文,报道称部分企业用户再次反馈,微软 Microsoft 365 于今年 8 月再次出现异常,存在自动删除邮件问题。 IT之家援引博文介绍,自 2025 年年初至今,Microsoft 365 服务已发生多起异常自动删除事件,影响企业管理员和用户相关工作。 相关问题最早可以追溯到今年 2 月,管理员 Christian M. 首次报告称,部分企业账户中的联系人遭神秘删除,日志显示大量“MovedToDeletedItems”操作记录,但终端用户操作无规律可循,影响 Windows 和 macOS 平台。 今年 3 月,用户反馈问题升级,存档文件夹开始自动删除邮件。受影响用户称可 " 眼睁睁看着存档邮件数量减少 ",甚至有用户反馈已损失约 1.5 万封邮件。 8 月 13 日,新案例再度出现:用户发现自 8 月 12 日起,企业账户中的邮件“在眼前自动消失”,IT 部门多次排查仍无法解释。用户虽能通过 Outlook 客户端恢复部分已删除邮件,但仅限前一天上午前的记录,其余邮件永久丢失。 调查方向指向移动设备 Outlook 应用。多名管理员在 Reddit 分享称:受害者多使用手机版 Outlook 应用,且设备上误操作导致自身邮箱被标记为“垃圾邮件”,从而触发自动删除。 在其中一个案例中,管理员通过重置用户 iPhone 解决异常;另一例则发现第三方安全应用 Graphus(来自 Kaseya)的过滤规则(标记为 " 概念验证 ")错误将邮件移至垃圾箱。删除该应用注册后,问题消失。
AI教父辛顿最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
编辑:元宇 近日,「AI教父」Geoffrey Hinton在一次采访中再发预警:「杀手机器人」「无人机」等致命自主武器的兴起,正在让战争变得更易发动。Hinton认为OpenAI、Anthropic等许多AI公司在AI安全方面做得都不够。他还谈到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。 Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么? Hinton:我会说:你们很清楚,你们正在开发的东西,很可能把人类毁灭掉。 近期,「AI教父」Geoffrey Hinton,在与《Next Question》主持人Katie Couric对话时,直言不讳地说出了内心对AI安全的忧虑。 Geoffrey Hinton与《Next Question》主持人Katie Couric对话 实际上,这已经不是他第一次为预警AI风险而发声。 2023年5月,时任谷歌首席AI科学家的Hinton从谷歌辞职,扮演起「AI吹哨人」的角色。 自此,他一直在关注和呼吁人类要警惕AI过快发展带来的风险,还表示后悔自己未能更早地考虑AI的安全问题。 近日,Hinton再次发出警告——AI正在改变战争方式,让战争变得更容易: 自主武器,意味着「死掉的机器人」,而不是「裹尸袋」。 Geoffrey Hinton称,杀手机器和无人机正在降低战争的人道成本 Hinton表示,「杀手机器人」「无人机」等致命自主武器的兴起,正在让发动战争变得更容易。 AI让发动战争变得更容易 「杀手机器人」参与战争,将会代替许多原本可能在战场中死掉的人。 这本应该是件好事,但恰恰也是最让这位「AI教父」恐惧的事情。 这样一来,发动一场战争的成本会更低,战争就更容易爆发了。 Hinton表示,「杀手机器人」的兴起不会让战争更安全,相反它会通过降低作战的人力与政治成本,使战争更容易爆发。 这使得一个富国想入侵一个穷国,变得更容易了。 因为原来能够阻战争发生的,就是这些富国的公民在战场上被装进裹尸袋。 但是,AI改变了这一点,「如果有致命自主武器,回来就不是死人,而是死掉的机器人。」 在Hinton看来,这种转变,可能会怂恿政府发动战争,同时也会让军火商大发其财。 「这对军火商来说简直太棒了,因为这些机器人更换起来很昂贵」。 除了降低战争成本,Hinton认为AI已经在重塑战场,改变战争的方式。 比如,在现实战争中,已经通过AI驱动的无人机、无人系统改变了战场,颠覆了传统战争形态和战争手段。 甚至有人说,未来战争中,数据的作用将超越弹药。 以现实战争举例,现在一架500美元的无人机,就可以摧毁一辆价值数百万美元的坦克。 而且,AI技术也让传统硬件逐渐显得过时,比如它使载人战斗机变成一个愚蠢的主意: 「如果你能在战机里装上AI,AI可以承受更高的过载——而且不用过多担心人员伤亡。」 AI接管将是人类最大的担忧 与AI对未来战争带来的影响相比,Hinton更担心人类被AI接管的风险。 2024年,Hinton在获得诺贝尔物理学奖时表示,希望人们可以更认真地看待他关于AI以及其未来角色的观点。 而经过这些年,Hinton也逐渐把他有关AI担忧的思考,更广泛地传开了。 当谈到当下AI的风险,Hinton表示: 我的主要担忧,并不是恶意行为者在短期内滥用AI的风险(那当然也非常严重),而是更长期的风险——AI本身接管。 这种风险,主要来自科学家们对AI将大幅超越人类智力的预测。 Hinton谈到了要避免被AI接管的唯一方法,就是让我们构建的那些超级智能AI,根本「不想」接管。而实现这一点的技术,和让AI更聪明的技术有些不同。 在这个问题上,更容易取得国际间的合作。因为各国不会分享如何做出最聪明AI的办法,但却会在「如何让它不想取代人类」这件事上合作。 AI会取代我们的工作吗? 除了战争,Hinton关于AI的另一个警告,是它几乎可能在所有领域,取代大量的工作岗位。 这个问题所带来的挑战,并非在技术,而是在社会治理上: 「如果我们的政治体系足够公平,当AI大幅提升生产率时,本应当使每个人都能得到更多商品和服务。」 当谈到大学生未来的职业选择,Hinton认为AI会很快替换掉呼叫中心这类低薪、培训差的工作。 此外,还有律师助理、程序员等白领岗位上的一些初级岗位工作也可能被替代(一些能设计复杂系统的顶尖程序员仍然会吃香)。 与这些岗位相比,相反一些需要人手灵巧度的工作,比如水管工更不容易取代(当然,最终机器也会变得灵巧,所以十年、二十年后,连这个可能也不安全了)。 自动播放 Hinton认为相比较律师、会计等知识型岗位,水管工的风险要小得多 令人有点沮丧的是,Hinton还提到,AI甚至也在替代一些需要高情商和人际沟通的工作,比如护士、医生,原因是AI会比人类更具同理心: 「如果让人们分别和医生以及一个AI互动,再问他们谁更有同理心,AI的评分更高。」 在访谈中,Kittie Couric还谈到了「全民基本收入」(UBI),是否有助于应对大规模工作被AI取代的问题。 UBI是近几年一些国家公共政策讨论中的热点议题,是为社会中的每个人,提供兜底的收入保障。 Hinton认为它虽然治标不治本,但是一个很好的「创可贴」。 UBI可以让人不至于挨饿、付得起房租,但它解决不了价值观丧失的问题。 因为对于很多人来说,自我价值感和他们的工作紧密相关。一旦失业,这种价值感就会丧失。 AI常见的一个应用场景,是在医疗科技领域。Hinton也提到了AI在医疗和疾病领域相关的科学突破。 比如,AI可以通过解读眼底图像,预测心梗发病几率,这在以往是做不到的。 此外,AI还可以在新药设计上发挥很强的关键作用。 Hinton谈到DeepMind团队提出了从蛋白质序列预测其折叠结构的方法,还分拆出了一家专做新药设计的公司。 他认为,未来一两年,或许更长一点时间内,我们会迎来一系列更好的药。 对AI未来的乐观展望 Hinton始终提醒人类,要注意防范被自己所创造出来的、更聪明的AI接管的风险。 以OpenAI、谷歌为代表的AI公司,是AI技术发展背后的重要推手,但在Hinton看来,没有哪家公司在这一问题上是做得足够的: 「Anthropic是一些离开OpenAI的人创办的,因为他们认为后者在安全研究上的投入太少。但Anthropic还是可以做得更多;尽管OpenAI强调是以安全发展AI为目标,但他们越来越关心让AI更聪明,而不是如何让它更安全。 Hinton揭示了这些AI公司在安全问题上滑稽、矛盾的一面: 奥特曼在很大程度上转向了「快点发展,别太注意安全」;马斯克在起诉奥特曼,说他忘了「安全发展AI的初心」。但马斯克在发展AI上,对安全也并不上心。 Kittie Couric还问了Hinton一个非常有意思的问题。 Kittie Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么? Hinton:我会说:你们很清楚,自己开发的东西有很大概率把人类灭掉。你们私下也承认这点。你们应该投入更多精力,用能确保安全的方式来开发。 Kittie Couric:你觉得是什么阻止了他们?是贪婪吗? Hinton:基本上是的。他们想靠AI赚大钱,还有「做出比人类更聪明的东西」的兴奋感。但这非常危险。 对话谈还到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。 Hinton认为年轻的AI研究者,比年长者更能理解AI的力量和潜在的负面效应,他们也更能意识到AI接管可能带来的风险。 一个积极的信号是:当谈到对AI未来的展望时,Hinton表示他比几周前更乐观了。 自动播放 Hinton提出为AI植入「母性本能」,这是他最近看到人类与AI共存的一丝希望 这一转变,主要是因为他关于「AI母亲」的思考,一种尝试AI植入类似「母性本能」的新思路: 婴儿之所以能控制母亲,是因为很多东西被「进化写进了」母亲身上,母亲真心希望孩子成功,会尽一切可能确保孩子成功。我们希望AI也会如此。 「AI母亲」这一思考,重塑了人类如何与AI共存的思路,不是想着支配它们,而是为它们植入「母亲本能」。 这一设想,也颠覆了大多数人的想象: 在AI面前,我们不再是「智慧顶点」(母亲),而是婴儿。
AI抢人类饭碗:Salesforce CEO证实公司裁掉了4000个客服
IT之家 9 月 3 日消息,Salesforce 首席执行官马克・贝尼奥夫(Marc Benioff)近期在谈及人工智能(AI)如何帮助公司减少员工数量时表示,该公司已裁撤 4000 个客户支持岗位。 “我把这个岗位的人数从 9000 人减到了约 5000 人,因为我们不再需要那么多人了,”贝尼奥夫在讨论 AI 对 Salesforce 运营的影响时这样说道。作为 AI 变革的前沿企业,Salesforce 已打造出一支名为“Agentforce”的机器人客服团队。 IT之家注意到,贝尼奥夫今年夏季曾透露,该公司中 AI 承担的工作量占比最高可达 50%。 人力资源顾问劳里・鲁蒂曼(Laurie Ruettimann)指出,AI 正对多个行业的就业产生影响。“美国各地都出现了直接由 AI 导致的裁员,”鲁蒂曼表示,并补充称,无论是想保住现有工作的人,还是正在找工作的人,都需要学习新技能。 分析师埃德・齐特伦(Ed Zitron)则认为,部分科技公司在疫情期间过度招聘,如今却将裁员归咎于 AI。他表示,这些公司眼下正试图通过宣称“提升效率”来吸引投资者。 “这本质上是一种‘不惜一切代价追求增长’的心态,”齐特伦说,“他们只在乎增长,哪怕这会毁掉别人的生活,哪怕这会让公司陷入困境、导致产品质量下降,也在所不惜。”
OpenAI的命门,决定了大模型公司的未来
如果Scaling Law是指导大模型能力提升最重要的标尺,那么“算力成本控制”就是大模型行业发展和商业化的基石。 年初DeepSeek在国外开源社区首先爆火,一个很重要的原因就是,DeepSeek几乎将同性能模型的推理算力和训练算力成本都降到了10%以内。MoE架构也在GPT-4发布之后,逐渐取代了稠密架构,成为了几乎所有大模型开发商的默认选项,最核心的原因也是能够有效降低模型推理的算力成本。 而OpenAI伴随着GPT-5发布第一次与用户见面的“路由(routing)”功能,设计本意也是代替用户来把简单问题匹配到低消耗模型,复杂问题匹配到能力和算力消耗高的推理模型,从而有效提升用户体验和算力效率,但却变成AI圈最知名的“降本增笑”事件。 即便是GPT-5发布接近了一个月,OpenAI还是没有能让所有用户满意,网友依然还在吐槽,GPT-5没有办法解决一些很简单的问题。虽然随着OpenAI回滚了GPT-4o,还让用户能够手动在推理模型和基本模型间切换,让大多数用户开始同意OpenAI宣称的“GPT-5性能明显强于之前的模型”,但是Sam Altman自己也没有办法否认,GPT-5的发布确实是漏洞百出。 而造成翻车最直接的原因,就是他们强推的路由功能没有能够将用户的预期和相应的模型能力匹配好。 01 那么问题来了,为什么OpenAI要冒着GPT-5“发布即翻车”的风险,也要强推路由功能? 第一个最直接的原因就是,在GPT-5发布之前,OpenAI并行推出了5个以上的模型,让用户能够根据自己需求来选择合适的模型。随着模型越来越多,别说普通用户了,就是ChatGPT的重度用户,有时候也很难决定使用哪个模型是最合适自己当前任务的。 对于立志于将ChatGPT打造成为AI时代超级APP的OpenAI,不可能允许这样的情况持续存在。特别是对于大量没有接触过大模型的普通用户,替他们针对不同的任务选择合适的模型,是OpenAI在某一个时间点必须要做的事情。 而另一个更深层次的原因在于,从算力成本的角度出发,自从推理模型出现之后,每一次对于大模型的询问,都需要在推理模式和非推理模式之间进行一次选择。而这种调配“深度思考”能力的效率,决定了大模型产品对于算力的使用效率。 根据学术界对于推理模型和非推理模型的研究结果,推理模型和飞推理模型的算力差异巨大,可能达到5-6倍。对于复杂问题,通过思维链等技术进行推理后内部消耗的推理token数可能高达上万个。 而在延迟上,推理过程和非推理过程的差异就更加巨大了,根据OpenAI自己发布的数据,使用推理模型回答复杂问题所需要的时间,可能是使用非推理模型的60倍以上。 而就算对于很多需要复杂推理的任务在消耗了巨大的算力以及大量的时间之后, 之后给出的结果和准确性差异往往就在5%左右。为了这5%的性能提升,消耗多大的算力合适呢? 做一个简单的算术题,如果OpenAI将所有任务都默认使用推理模型来完成,路由功能能够帮助OpenAI识别出10%的问题可以通过简单的非推理模型完成,就可能将算力成本降低8%(推理非推理算力比值为5:1)。 如果将这个比例进一步提高,能够降低的算力成本将更加可观。对于OpenAI这样一个需要服务数亿用户,而且算力供应依然非常紧张的公司来说,路由功能是否能发挥作用可以说关系到自身商业模式是否可持续的核心能力。 在行业层面,第三方平台(如 OpenRouter)把“自动路由与回退(fallback)”做成基建能力:当主模型拥塞、限流或内容拒绝时,按策略自动切换到次优模型,以稳定用户体验。微软的Azure这样的AI算力云供应商,也将不同模型之间的路由能力作为AI云计算的一大卖点。 也许,GPT-5发布之后,对于OpenAI来说最重要的事情就是在“质量-延迟-成本”的三角中寻找每条请求的最优平衡点。而目前官方对 GPT-5 的定位与“内置思考(built-in thinking)”叙事,实际上就是把“路由+推理强度”做成默认能力,并在 ChatGPT 端通过“Auto/Fast/Thinking”给了用户一定程度的可见与可控性。 02 为大模型打造一个高效的路由功能到底有多难? 这个问题,外媒在一篇报道中向UIUC的一名计算机专业的助理教授求证,得到的回答是“可能是一个亚马逊推荐系统级别的问题,需要大量专家努力工作数年时间才能获得一个满意的结果。”模型系统层面的路由功能本质是“多目标+强约束”的工程问题。 路由不是只拼准确率,还要在质量、延迟、成本、配额/峰值容量、成功率之间做实时优化。 而且从理论上来说,语义级别的路由功能在效率上来看,远远不是这问题的最优解。DeepSeek在上周放出的DeepSeek V3.1就在尝试将推理模型和非推理模型混合起来,在一个更深层次上打造出一个效率更高的路由系统,从而从根本上提高大模型的“推理-非推理”的选择效率。 根据网友体验之后的感受,新的混合推理模型相比之前R1有着更快的思考速度:相较于 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短的时间内得出答案。 并且在回答性能相似的前提下,输出长度有明显的下降:新的推理模型在简单问题上,推理过程有约10%以上的缩短。正式输出的部分,新模型大幅精简,平均仅有1000字,比R1 0528的平均2100字的水平提高了接近一倍。 但是另一方面,新的混合推理模型也爆出了一些不太稳定的问:比如会不时的在很多输出中出现莫名其妙的“极”bug:答案中出现很多完全不相关的“极” 而且在R1上就存在的中英夹杂的情况似乎变得更加严重了,就像一个刚回国不久的留学生,在很多中文任务中会显得很出戏。 即使像DeepSeek这样的国内最顶尖的大模型团队,将“推理-非推理”选择功能内置到模型内部,模型的稳定性上也会出现一定程度的问题。而OpenAI和DeepSeek在自己各自首个推出的试图高效调度“深度思考”能力的模型上都出现了不同程度的翻车,侧面反应出要处理好这个问题的难度。 03 提高效率的另一面,是OpenAI依然处于对于算力的“极度渴求”的状态中。 年初DeepSeekV3和R1的推出引发的全世界对于英伟达等算力供应商未来前景的担忧,在短短几个月之后就演变成了“AI成本悖论”——token单价下降但是模型的性能不断成长,使得原本交由模型处理本来会显得不经济的任务也能交给大模型处理,模型能够处理的任务将更多样与复杂,从而会进一步推高token总量的需求。 OpenAI 正在推进代号Stargate的基础设施扩张计划:2025 年 7 月,OpenAI 与 Oracle 宣布在美国新增 4.5 GW 数据中心能力。 昨天,外媒也报道OpenAI 正物色印度当地合作伙伴,并计划在新德里设立办公室,把印度(其第二大用户市场)的用户增长与本地算力配置对接起来,在印度建设至少1Gw规模的数据中心。 “AI成本悖论”一方面不断推高英伟达和AI云服务商的业绩,同时也对像能够有效降低模型算力需求的“路由”功能提出了更高的要求。 Sam Altman 反复强调“2025 年底上线的GPU 超过 100 万片”的目标,且把长远愿景瞄准“一亿 GPU 量级”。这类表态从侧面说明:即便推理单价在下降,更复杂的任务与更高的调用量让大模型的“总账单”并不会自动下降——必须靠路由把昂贵的推理时段“留给更需要的人”。 如果从大模型的第一性原理出发,所有大模型公司追求的最终极标准,就是不断提升“算力兑换智力”的效率。而高效调度“深度思考”的能力,在推理大模型时代某种程度决定了大模型公司能否在系统和商业效率以及用户体验上领先全行业。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。