EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
瑞幸Q2财报,揭示中国咖啡高质量发展的三个关键词
怎样看待如今的瑞幸? 在回答这一问题前,可以先来看一组数据: 在全球范围内,开1万家店要多久? 连锁便利店品牌美宜佳用了20年;蜜雪冰城开出第1万家门店开业时,距离首店开业过了23年;肯德基在中国市场的第10000家门店,花了足足36年…… 2006年,一位财经记者满怀热情的写下了《一万家中国咖啡的神话》,并给出了那组当时中国连锁品牌眼中的 “天文数字”:星巴克平均每8小时就可以开出1家门店。 而作为对照,瑞幸从万店规模迈入“2万店俱乐部”,只花了1年零1个月,平均1个小时开一家店。 在“存量周期”主导各行各业之际,瑞幸不仅是市场上稀缺的“增长声音”,更是屈指可数贡献“现象级增长”的品牌。 这基础上,如果说过去资本市场和行业对于瑞幸的定位,只是中国连锁咖啡“多强”中的一员,那么,如今的瑞幸已经有资格成为行业顶端的“超级品牌”。 结合最新的Q2财报,瑞幸不仅是规模、营收层面的行业顶流,其围绕“内功建设”,不断探索中国咖啡高质量发展的经验,同样也已经成为国内咖啡连锁行业做大做强的“路径标杆”。 01 “质速结合”,瑞幸继续滚雪球 在中国咖啡行业,“速度战”早已不是新鲜话题,但如果拉长时间线来看,放到整个行业坐标系下,瑞幸不仅是业内速度领跑的玩家,更是坚守开店质量,在行业狂奔中保持稳定配速,实现健康可持续发展的品牌。 从行业整体看,连锁咖啡玩家的拓店速度正在下降。以今年6月为例,据媒体统计,20家连锁咖啡品牌6月新开门店884家,同比2023年6月下降43.3%,而瑞幸却逆势增长。最新财报显示,瑞幸门店数再创新高,截至二季度末,瑞幸门店总数达19961家,其中自营门店为13056家,联营门店为6905家。 而在今年7月,随着北京中关村在握旗舰店开业,瑞幸也正式引领中国咖啡跑进“2万店时代”。从第一家门店到首个万店,瑞幸花了约6年时间,而从1万门店到2万门店,瑞幸只用了13个月的时间,这样的扩张速度不仅说明了瑞幸已跑通了门店复制的模型,而且瑞幸在扩张的同时,也在培养和普及中国消费者咖啡饮用习惯,使得中国咖啡市场的发展的天花板不断上升。 两万店背后,瑞幸给出的是一个“质速结合”的增长样本。 本季度,瑞幸自营门店收入达62.77亿元,同比增长39.6%,联营门店收入达18.50亿元,同比增长24.5%。利润方面,自营门店营业利润为13.51亿元,同比小幅提升,经营利润率达21.5%,环比有所提升,可见,瑞幸在规模扩张中依旧保持着高质量发展的势头。 当前,在价格战与门店规模战下,中国咖啡行业竞争已进入新的淘汰赛,洗牌也已开始,而瑞幸门店规模有两重明显的优势:一是行业竞争白热化,在赚钱越来越难的情况下,门店规模即意味着长期的规模优势。二是“瑞幸速度”保证其能抢占优质点位,在行业未来的“点位争夺”中拥有更强的话语权,持续释放滚雪球效应。 02 稳健增长源自“底座支撑” 复盘瑞幸的增长轨迹,纸面上的高速扩张背后,有两点值得关注: 首先,瑞幸不仅开店的“速度”快,“加速度”的提升,更是源源不断。 一般来讲,对于连锁品牌来说,伴随着经验、模式、方法论的总结,开第2万家店的速度,一定会比开第2家店快。 但熟能生巧所带来的效率提升,往往是线性的,也是有限的。 即便是麦当劳这样的品牌,从第3万家店到4万家店,也耗费了整整20年时间。 相比之下,瑞幸的扩张加速度,则是呈现出指数级的增长,过去的一年里,与其说瑞幸是在一间间的选址、谈判、开店,不如说这一品牌是在成规模地复制和裂变门店。 Q2财报显示,即便是在稳健、可持续战略下,有意放缓开店速度的第二季度,瑞幸咖啡依然净增 了1371家门店,不仅实现了对中国大陆全部省份的覆盖,也在规模和市占率上持续领先市场,进一步扩大了与竞争品牌的相对优势。 另一方面,瑞幸不仅仅是增长的速度快,更实现了效率、品质、创新的协同发展。 复盘瑞幸,1年1万家门店的增长数据固然耀眼,但同样也有很多优势和成绩,被前者的光芒掩盖。 前期的高增长印象背后,越来越多目光正在汇聚向瑞幸的“六边形能力”。 比如,瑞幸在高速扩张中守住了品牌口碑,赢得了用户的信赖。 财报数据显示,瑞幸第二季度用户规模得到进一步巩固和提升,月均交易客户数达到6969万,较2023年同期的4307万同比增长61.8%。 这意味着,随着规模和市占率的持续攀升,瑞幸经受住了品质考验,赢得了用户真金白银的投票。 与此同时,即便是身处咖啡市场拉锯战的激烈环境下,在瑞幸在激烈的竞争环境下,依然维持了“爆品神话”。 得益于对创新研发的坚持,瑞幸二季度再度推出30款新品,包括椰皇拿铁、柠C美式、轻咖超大杯系列新品均深受消费者喜爱,其中,单品轻咖柠檬茶首周销量突破508万杯;老牌爆款同样也表现不俗,4月份,在瑞幸生椰拿铁推出三周年之际,该品类单品销量已突破7亿杯。 门店扩张与爆品驱动,也带动瑞幸产品销售收入增加,并助力新开出的门店在较短时间内,形成直接的战斗力,切实转化为了上扬的净收入。 2024年第二季度,瑞幸总净收入创单季营收额新高,达84.03亿元人民币,同比增长35.5%。整体来看,今年上半年,瑞幸总净收入达146.81亿元人民币,同比增长38.0%。 在咖啡市场深陷内卷,品牌集体贴身肉搏的当下,从用户信赖、到营利双增、再到爆品迭出,瑞幸“六边形战士”的能力表明,这一品牌表层的经营数据背后,有着更深厚的“底座支撑”。 这一底座,正是瑞幸打磨多年,不断升级的「数字化壁垒」。 回顾过去,这一品牌一直坚持将数字化贯穿于产品研发、供应链管理、门店运营、食安管控等各个环节,进而实现“快”的底座支持;更强的产品研发能力、更严格的品质管理系统和更高效的门店运营效率。 正如瑞幸咖啡董事长兼CEO郭谨一在本次业绩沟通会上所强调的那样: “作为中国门店数量最多的连锁咖啡品牌,瑞幸咖啡始终从用户出发,坚持产品创新、加大供应链投入、持续强化数字化优势,推进中国咖啡行业高品质发展。” 从这个角度来说,参考西方商界的一句名言,“迪士尼是伪装成游乐园的文化”,我们或许也可以说,“瑞幸是伪装成咖啡店的连锁经营方法论”。 03 进击的瑞幸,在给中国咖啡“上强度” 当前中国咖啡的发展尚在初期,在围绕行业各类关于利润、规模与模式的讨论声中,尽管中国咖啡玩家们面对着多元且复杂的挑战,但在供给与需求侧依旧有广阔的挖掘空间。 瑞幸持续的收入增长与优化的利润端表现也印证了这一点,结合上文提到的稳健的拓店速度,瑞幸的奔跑还在继续,中国咖啡的进击也没有停止。 在供给与需求侧,瑞幸还在给中国咖啡“上强度”。 在供给侧,从一颗生豆到一杯咖啡,往往要经历采购、加工、烘焙、物流等多个关键环节,而产业链的把控能力决定了一杯咖啡最终的品质,也是咖啡品牌最为关键的核心竞争力。 而在过去多年来,瑞幸一直在加大供应链投入,向产业链上游走,通过整合创建垂直供应链,将供应链做重做厚,掌控咖啡的全生产环节,以支撑未来长期的发展。 在上游的生豆采购上,瑞幸一直坚守高品质和严标准。一方面,通过与ECOM集团、三井物产、厦门建发股份等世界顶级咖啡豆贸易商合作,瑞幸建立了覆盖全球核心咖啡产区的供应网络。 另一方面,瑞幸还深入产地一线,依靠“全球寻豆之旅”计划,在全球“抢好豆”,足迹已遍布埃塞俄比亚、巴拿马、印度尼西亚、云南等知名咖啡产区,今年3月,在云南保山,瑞幸首个咖啡鲜果加工处理厂也进入试运营阶段,不难看出,瑞幸正在将其竞争优势延伸至最上游的生豆原产地。 在中游的烘焙加工上,瑞幸目前在福建和江苏拥有两个自有烘焙基地,其中,今年4月最新投产的江苏烘焙基地占全国烘焙产能的近20%,是目前国内已投产的产能最大的单体咖啡烘焙基地,同时,这些数智化的“超级工厂”,通过全流程的高效自动化生产,也极大地提升了供应链效率。 而在供给端深入供应链也在反哺需求侧,提升用户价值。后端供应链的高效运转,数字化的研发与运营体系以及万店门店供给,让更新鲜的咖啡豆对外输出成更契合用户需求的爆品,借助更年轻化的营销方式,让瑞幸始终具备无限的品牌活力,与消费者形成更紧密的连接。 正如瑞幸咖啡董事长兼CEO郭谨一所说:“面对激烈的行业竞争,瑞幸将抓住中国咖啡市场高速发展的战略机遇,通过不断扩大门店网络布局、加大供应链布局投入、持续强化数字化优势,优化成本提升效率,进一步扩大和巩固领先优势,稳固市场领先地位,实现高速、健康、可持续的业绩增长。” 眼下的中国咖啡市场,还远未到竞争的终局,行业比拼也走向了综合能力的竞争,“快、稳、进”的瑞幸不仅为行业提供了一个高质量增长的样本,站在更远的未来,也为中国咖啡的长期主义发展增添了更多的想象力。
英特尔高宇:下一代芯片AI算力将提升3倍,应用生态建设也在同步加速
如果说上一轮人工智能浪潮创造了智能音箱年出货量破亿的神话,那当下风头正盛的生成式AI,则率先为PC、手机这两样“老物件”带来了新活力。根据IDC公布的最新预测,AI PC的出货量将从2024年开始快速上升,并在2027年普及。 具体到数据方面,IDC预计2024年AI PC的出货量将达到5420万台,占据整个PC市场的21%销量,到2028年,预计出货量比例将增至60%左右。而AI PC的原点,则要追溯到去年9月,英特尔CEO帕特·基辛格首次提出“AI PC”的概念。 此后,各个OEM厂商迅速跟进,今年上半年,所有主流PC终端品牌,都已经推出了搭载英特尔Ultra处理器的AI PC产品。英特尔中国区技术总经理高宇在与钛媒体APP交流中表示:“AI PC将会拉开PC新时代的序幕,自AI PC概念提出以后,英特尔也在与终端厂商通过推动产品创新、打造AI生态、落地AI应用等方面,帮助AI PC不断深入消费者心智。” AI需求正在改变芯片的架构设计 最早的个人电脑之一Kenbak-1 回顾PC(Personal Computer个人电脑)的发展史,‌自1975年诞生至今,其已有约49年的历史,当前大家在讨论的“AI PC”也并不是PC在应用场景亦或是形态上的第一次改变。从最初的台式机进化到具备便携属性的笔记本、强调高度集成化的一体机,再到近十年逐渐被带火的电竞主机、游戏本,PC一直都在随着人们需求的迁移而变化。 与前几次PC革命相比,AI PC也有其特殊之处,此前的变革,往往不仅显现在应用定位上,同时也会体现在外观、结构设计等具体的形态变化当中。 而AI PC与传统的笔记本电脑放在一起,仅凭外观层面很难对它们加以区分,彼此之间的差异,更多地体现在“芯片算力”和“应用”当中。更具体地说,所谓的AI PC,就是在芯片层面加强了AI算力,同时能够对AI应用运行效率增强的PC产品。 英特尔中国区技术总经理高宇 高宇表示:“英特尔定义的AI PC特指具有CPU+GPU+NPU的轻薄笔记本形态,它所强调的场景应用,实际上是利用AI通过云与PC的紧密协作,或在电脑端独立运行大语言模型,为用户实现丰富的AI应用场景。” 因此对于OEM和芯片厂商而言,AI PC时代,更需要围绕作为算力核心的芯片发力,比如依靠酷睿Ultra处理器的AI算力,进行笔记本电脑形态创新。与此同时,OEM厂商还在不断开发各自的AI能力,通过将AI算力融入自己的AI生态中,为用户带来开箱即用、体验丰富的AI PC应用,以此来推动AI PC的发展。 “从硬件上,英特尔为OEM厂商在半年间快速出货了800万片酷睿Ultra处理器,并且也即将推出算力提升3倍达到120TOPS的Lunar Lake处理器。”高宇提到。 应用方向与算力需求的转移,也让芯片设计层面产生了变化,其中一个最显著的案例便是厂商开始更加注重“NPU”计算单元。NPU的全称是Neural network Processing Unit,翻译过来叫“神经网络处理单元”,相信很多人第一次听到它都是在智能手机的SoC中。 高宇提到:“不同于PC以往CPU+GPU的算力组成,在AI时代,PC处理器通过CPU、GPU、NPU三大AI引擎形成合力,共同分担AI运算。NPU的加入,有助于提升AI运算效率和芯片能耗比。到下一代Lunar Lake处理器上,低功耗的NPU 能够带来48 TOPS的AI 算力,能够持续处理部分AI负载,减少能耗。” 既然NPU单元在运行AI应用上具备天然的优势,那么它会取代传统算力或者是在未来芯片研发中进入更高优先级的序列吗? 高宇给出的答案是否定的,他指出:“在三大AI引擎中,NPU与CPU、GPU的优先级取决于系统和应用的调优,三者是互相配合的关系、各司其职,而非比拼。” 应用生态建立仍需时日 确立了AI PC的概念和硬件框架以后,作为“新物种”的它也遇到了第一个瓶颈:生态。 历史上,许多PC硬件的崛起都离不开“杀手应用”,比如电竞需求带火了游戏本和高刷显示器、个性化表达需求创造了带灯内存条、透明机箱、水冷显示屏等等。 得益于从芯片层面开始的迭代,AI PC的概念自提出时就注定了它不会有市场表现层面的瓶颈,因为所有换装了新CPU的轻薄本都可以归类到AI PC当中。但这也并不意味着它被大众所接受,至少目前很多消费者在选购产品时更多地是为了“PC”付费而非“AI”付费。 PC上的AI应用 因此,何时才能有适合AI PC的杀手级应用出现成为了核心,过去大家看到的ChatGPT、Stable Diffusion、Pika等爆火的AI应用,或是利用了规模更大的云端算力支持,或是对高算力的独立GPU提出了要求。在钛媒体APP看来,现阶段AI PC的主要优势,将会体现在将这些高算力需求应用实现移动端部署上。 高宇也提到了这一点:“在AI PC中,云端代表算力上限,端侧代表算力下限,云端AI与端侧AI共同将AI应用体验完整呈现给PC用户,二者在平台上是共存的。而在AI PC层面,想要促进AI应用落地,不仅需要给力的硬件,更需要调优的软件。” 钛媒体APP了解到,软件层面,英特尔已经为开发者提供了OpenVINO 、BigDL、OneAPI等工具,帮助开发者调优性能。同时,为了更好地为开发者进行服务,英特尔在提出AI PC概念后,就已经打造了自己的AI PC生态朋友圈。先后推出了“AI PC加速计划”、“AI PC 开发者计划”等生态合作项目。 “截至目前,英特尔已经与100家ISV、150家IHV协作,着手实现300项AI功能,还有500多个AI大模型得以在酷睿Ultra处理器上优化运行。在此基础上,英特尔中国还有技术支持团队,帮助开发者快速部署调优。”高宇表示。 在硬件已经就位,未来迭代方向也已经确定的情况下,AI PC的发展路径就会一帆风顺吗? 钛媒体APP分析认为,尽管AI的大趋势已不可逆,但现阶段对于大众层面而言,其仍然处于应用探索阶段。一方面,AI需要与生产力、娱乐等刚需应用产生强连接,才能最终成为消费者购买PC等生产力工具的关键考量因素。 另一方面,现阶段AI应用的供应商和实现路径也并不统一。作为OEM厂商,虽然也希望能够通过开发具体应用来增强自身产品的AI属性,但投入与产出的不对等使得它们更多地还是选择与本地软件供应商合作的方式来解决这一问题,此种合作形式又会导致OEM厂商或者是用户必须要为AI模型、应用的提供商支付费用。 再加上很多AI应用的供应商自身也提供了可以利用云端算力实现部署的替代性产品,因此就让AI PC中的“AI”进入“芯片厂商已经提供了底层能力,OEM厂商的产品也提供了产品支持,但消费者因为尚未形成对AI能力的刚需而犹豫是否要为其付费”的尴尬境地。 不过随着AI能力在工作、生活中的应用渗透不断增强,未来AI PC市场持续走高可以说是板上钉钉的事情,以英特尔为代表的芯片厂商,也会不断加速AI PC的技术、生态布局。
“清华系Sora”全球上线,生成一段视频只需30秒,每月仅需58元
7月30日,曾于四月底亮相中关村论坛的AI生成视频大模型Vidu正式上线,开放给全球用户使用。Vidu开放文生视频、图生视频两大核心功能,提供4s和8s两种时长选择,分辨率最高达1080P。 Vidu是北京生数科技有限公司(以下简称生数科技)联合清华大学发布的国内首个自研长时长、高一致性、高动态性视频大模型,该模型采用团队原创的Diffusion与Transformer融合的架构U-ViT,支持一键生成长达16秒、分辨率达1080P的高清视频。 据介绍,此次面向全球上线,Vidu在保持高动态性、高逼真度、高一致性等效果优势的同时,新增了角色一致性(Character To Video)、动漫风格、文字与特效画面生成等特色能力。生数科技方面表示,Vidu实现了业界最快的实测推理速度,生成一段4秒片段仅需30秒。目前Vidu无需申请,用户直接使用邮箱注册即可上手体验。 在价格方面,Vidu提供免费版和3种收费机制。 其中,免费版每月有80积分,可生成20个4秒视频;按月度订阅,标准版、高级版、尊享版价格依次为19.99美元、59.99美元、199.99美元(约合人民币145.22元、435.80元、1452.83元),每月分别可额外获得240、800、2880积分,视频时长延长到8秒,可去水印和商用。目前在上线前两周,Vidu提供限时5折优惠。 用户如果按年订阅,标准版、高级版、尊享版目前的价格分别是7.99美元/月(约合人民币57.80元)、23.99美元/月、79.99美元/月。此外,Vidu还开放了API内测申请。 具体来说,今年2月美国OpenAI公司推出的视频生成“世界模拟器”Sora引发关注,国内包括快手、智谱、生数、爱诗、HiDream智象未来等公司和机构都已陆续公布关于多模态或视频生成模型新产品。 公开信息显示,目前,业界对类Sora视频模型的评价主要围绕三大核心维度:语义理解准确性、画面美观性、主体动态的一致性。 而如今上线的“清华系sora”产品Vidu,能够准确理解并生成提示词中的文字,包括字母、数字等,并能生成文字特效。对于第一人称、延时摄影等镜头语言,Vidu也能精准表达,用户只需细化提示词,即可大幅提升视频的可控性。同时,Vidu支持大幅度、精准的动作生成,保持高流畅、高动态的画面效果。 在画面质感上,Vidu在构图、叙事和光影等方面,能达到接近电影级效果。此外,Vidu还能生成影视级特效画面,如烟雾、炫光效果、CG特效等。 早前,生数科技联合创始人、CEO唐家渝对钛媒体App表示,“与Sora相比,目前国内 AI 视频生成领域差得还很远,但我们一定要去追赶它。相比去年追赶ChatGPT,挑战Sora还是比较容易一些——Sora大概相当于GPT-2阶段,并没有形成明显的先发或垄断优势。而且从底层架构来说,至少我们团队是非常熟悉的。所以一旦团队积累大量的工程化经验,肯定有可能追赶(超越Sora)。” “时间上的话,确实我们很难去精确预估是一、两个月,还是半年、一年的时间。但总体上来讲,我们觉得这个时间不会太长,今年内肯定是能去达到一个至少是目前Sora版本效果的。至于是否能更往前的话,我们也在努力。但我们现在确实很难对外说是非常明确的3个月、6个月。但这件事我们的信心还是非常足的。”唐家渝称。 值得一提的是,7月26日,生数科技的投资方之一、同样是清华系的智谱AI,公布支持生成6秒时长的 AI 视频生成产品“清影”,目前也已经公开测试。付费模式层面,首发测试期间,所有用户均可免费使用。而加速时间的话,付费5元,解锁一天(24小时)的高速通道权益;付费199元,解锁一年的付费高速通道权益。 对于智谱 AI、百度与生数的定位关系,唐家渝曾向钛媒体App坦言,两家机构均不会与生数科技起冲突。其中,百度属于All in语言模型,对于多模态模型都是与生数合作,包括3D、图像等层面。 “目前的视频生成长度在4-5秒左右,我们近期将重点突破长视频生成能力……尤其长视频画面的连贯性,我们还在做一系列攻克工作。”唐家渝表示。
缺卡、缺电、缺组网技术!谁能为马斯克构建出全球最强大的10万卡超级集群?
编译 | 核子可乐、Tina 埃隆·马斯克掌控的那几家公司——包括 SpaceX、特斯拉、xAI 乃至 X(原 Twitter)——都需要大量的 GPU,而且也都是为自己的特定 AI 或者高性能计算(HPC)项目服务。但问题在于,市场上根本就没有充足的 GPU 能够满足他们各自宏伟目标所承载的勃勃野心。为此,马斯克必须为自己所能得到的有限 GPU 规划出最优用途。 筹集资金比筹集 GPU 容易得多 早在 2015 年,马斯克就慧眼独具地成为 OpenAI 的联合创始人。而在 2018 年的一场权力斗争之后(我们猜测这场斗争很可能与推动 AI 模型所消耗的巨额资金,以及对于此类 AI 模型的治理思路有直接关系),马斯克离开 OpenAI 并让微软有了可乘之机。软件巨头携大笔资金入驻,并推动 OpenAI 迅速成长为一股开发生产级生成式 AI 的主导性力量。面对这样的现实,马斯克果断于 2023 年 4 月成立 xAI 公司,自此之后这家初创公司也一直在努力筹集资金并争取 GPU 配额,希望建立起足以对抗 OpenAI/ 微软、谷歌、亚马逊云科技、Anthropic 等知名大厂的计算基础设施。 而其中,筹集资金显然是最简单的部分。 截至 5 月底,Andreessen Horowitz、红杉资本、Fidelity Management、Lightspeed Venture Partners、Tribe Capital、Valor Equity Partners、Vy Capital 和 Kingdom Holding(沙特王室控股公司)纷纷加入 xAI 总额 60 亿美元的 B 轮融资,一举推动其融资总值来到 64 亿美元。这是个好的开始,更幸运的是马斯克从特斯拉的全球经营中拿到了 450 亿美元的薪酬收益,因此可以随时把这笔巨款投入到 xAI GPU 的后续发展身上。(当然,更明智的作法应该是保留一部分作为特斯拉、X 和 SpaceX 的 GPU 采购基金。) 从特定角度来讲,特斯拉相当于是一次性付清了马斯克于 2022 年 4 月收购 X 所投入的全部 440 亿美元,同时又额外给了他 10 亿美元。这笔钱足够作为备用资金买下 2.4 万个 GPU 集群。必须承认,作为电动汽车的先驱力量,特斯拉已经撼动了整个汽车行业,其 2023 年的销售额为 968 亿美元,其中净利润为 150 亿美元,公司目前掌握的现金则为 291 亿美元。但即使是在如今这个财富分配极不公平的时代,450 亿美元的回报仍然是个相当离谱的薪酬方案。但马斯克有他的大事要做,所以他主导的董事会愿意牺牲掉特斯拉的利益,拿出更多资本哄这位时代的骄子开心。 不过按照同样的市值逻辑来判断,我们似乎也可以用 6500 亿美元买下摩根大通,而资金来源仍然是美国银行、阿布扎比、美联储以及我们能说动的其他资方。这样到了明年,我们就能给自己开出比收购成本略高一点点的薪酬——比如说 6750 亿美元。这样还清贷款之后,咱还能剩下 250 亿美元随便花花……抱歉跑题了,但这种情景真是想想都让人开心。 总之从目前的情况看,xAI 必须在计算、存储和网络层面表现出旺盛的需求。 Grok-0 大语言模型拥有 330 亿个参数,是在 xAI 成立几周之后就于 2023 年 8 月开始训练。Grok-1 拥有可响应提示词的对话式 AI 功能,有着 3140 亿参数,于 2023 年 11 月上市。该模型随后于 2024 年 3 月开源,很快 Grok-1.5 模型也正式亮相。与 Grok-1 相比,1.5 版本有着更长的上下文窗口和更高的认知测试平均绩点。 可以看到,Grok-1.5 的智能程度略低于谷歌、OpenAI 和 Anthropic 等竞争对手打造的同类模型。 即将推出的 Grok-2 模型将于 8 月之内与大家见面,该模型计划在 2.4 万张英伟达 H100 GPU 上进行训练。另据报道,该模型采用的是甲骨文的云基础设施。(甲骨文已经与 OpenAI 签署一项协议,允许其使用 xAI 未能尽用的剩余 GPU 容量。) 马斯克曾在多条推文中表示,Grok-3 也将在今年年底问世,需要 10 万个英伟达 H100 GPU 集群上接受训练,并将能够与 OpenAI 和微软正在开发的下一代 GPT-5 模型相媲美。甲骨文和 xAI 也积极就 GPU 容量分配方式讨论协议。但三周前价值 100 亿美元的 GPU 集群交易破坏消息一出,马斯克当即决定转变方向,在田纳西州孟菲斯南部的一处旧伊莱克斯工厂建造起“计算超级工厂”,用以容纳他自有的 10 万个 GPU 集群。如果大家恰好身在孟菲斯周边,接下来的情况可能有点疯狂——因为 xAI 号称将占用 150 兆瓦的区域供电。 据彭博社的报道,目前该处工厂已经分配到 8 兆瓦供电,未来几个月内有望增加到 50 兆瓦。而要想继续超越这个数字,则需要经过田纳西河谷管理局的繁琐审批。 不过目前来看除非英伟达愿意鼎力相助,否则 马斯克似乎不太可能在今年 12 月之前拿到自己已从的 10 万张 H100 GPU。 寻求英伟达这种芯片的公司名单很长,可能包括当今大多数大型科技公司,但只有少数几家公司公开宣称他们拥有多少 H100 芯片。 截图来源:The Information 据《The Information》报道,风险投资公司 Andreesen Horowitz 正囤积超过 2 万块昂贵的 GPU,作用是将其出租给 AI 初创公司以换取对方公司股份。 OpenAI 也一直没有透露他们拥有多少 H100 芯片,但据《The Information》报道,该公司以大幅折扣租用了微软提供的专用于训练的处理器集群,这是微软对 OpenAI 100 亿美元投资的一部分。据报道,这个训练集群的算力相当于 12 万块 Nvidia 上一代的 A100 GPU,并将在未来两年内花费 50 亿美元从 Oracle 租用更多的训练集群。 特斯拉一直在努力收集 H100。今年 4 月,马斯克在一次财报电话会议上表示,特斯拉希望在年底前拥有 3.5 万到 8.5 万块 H100。 为了给 xAI 筹集 GPU,马斯克最近还被特斯拉股东起诉,指控他将原本用于汽车制造商 AI 训练基础设施的 12,000 块 H100 芯片转给了 xAI。在昨天的特斯拉第二季度财报电话会议上,当被问及这一调配问题时,马斯克表示,这些 GPU 之所以被送往 xAI,是因为“特斯拉的数据中心已经满了,实际上没有地方可以放置它们。” 10 万张 H100 的单一集群,谁有能力构建出来? 上周马斯克曾发推文表示: xAI、X、英伟达和各支持部门都做得很好,孟菲斯超级集群训练已经于当地时间凌晨 4:20 启动。 其单一 RDMA 结构上承载有 10 万张液冷 H100 GPU,这是世界上最强大的 AI 训练集群! 要实现在今年 12 月之前训练出全球最强 AI 模型的目标,这一切无疑是个显著的优势。也许马斯克的这套系统最终会被称为 SuperCluster,也就是 Meta Platforms 对于采购来、而非自建 AI 训练系统时指定的称呼。 另外 10 万张 GPU 这个结论恐怕只是个愿景,也许到 12 月时 xAI 能拿到的 GPU 总共也只有 2.5 万张。但即使是这样,此等规模仍足以训练出一套体量庞大的模型。我们看到的部分报告指出,孟菲斯超级集群要到 2025 年晚些时候才能最终完成扩展,按目前的 GPU 供应能力来说这话其实颇为合理。 另外,上线后,孟菲斯超级集群的供电也是一个问题,不过马斯克也并没有说到底启动了多少张 H100。有网友讽刺道,马斯克的这种说法在极端情况下确实是成立的,比如只启动了 1 个 GPU 进行训练,而其他 99,999 个 GPU 并没有足够的电源来连接。 目前只有 3.2 万块上线,其余将在第四季度上线。如果达到 10 万块 GPU,要么变电站提前完工,要么需要更多这样的设备。 我们还可以从 Supermicro 公司创始人兼 CEO Charles Liang 的推文中做点推断,该公司正负责为 xAI 孟菲斯数据中心部署水冷设备: 很高兴能与马斯克一同创造历史,与他的孟菲斯团队合作也是一段美好的经历!为了达成目标,我们必须尽可能完美、快速、高效且环保地推进工作——虽然需要付出很多努力,但也同样极具意义而且令人兴奋! 图片来源:Charles Liang 目前还不清楚关于服务器基础设施的具体信息,但我们强烈怀疑这套系统将采用八路 HGX GPU 基板,并且属于 Supermicro 的机架式系统,其设计灵活来自英伟达的 SuperPOD 配置方案,但同时又有独特的工程调整以降低价格水平。采用八路 HGX 基板,该系统总计可容纳 1.25 万个节点,后端网络将承载 10 万张 GPU 和 10 万个端点;前端网络同样拥有 1.25 万个端点,即用于访问集群中数据和管理类负载的节点。 瞻博网络首席执行官 Rami Rahim 也讨论了该公司参与孟菲斯超级集群项目的情况: 恭喜马斯克、xAI 和 X!很高兴瞻博网络成为孟菲斯超级集群团队中的一员,并将我们的网络解决方案融入到这项创新工程当中。 从这些推文的内容来看,瞻博方面似乎是以某种方式拿下了孟菲斯超级集群的网络交易。考虑到 Arista Networks 和英伟达也在 AI 集群网络方面拥有深厚积累,马斯克最终选择瞻博着实令人感到惊讶。我们还没有从 Arista 那里看到与孟菲斯项目有关的任何消息;但在 5 月 22 日,英伟达在发布其 2025 财年第一季度财报时,公司首席财务官 Colette Kress 曾经表示: “今年第一季度,我们开始针对 AI 发布经过优化的全新 Spectrum-X 以太网网络解决方案。其中包括我们的 Spectrum-4 交换机、BlueField-3 DPU 和新的软件技术,用以克服以太网承载 AI 工作负载时面临的挑战,为 AI 处理提供 1.6 倍于传统以太网的网络性能。 Spectrum-X 的销量也在不断增长,吸引到众多客户,包括一个庞大的 10 万 GPU 集群项目。Spectrum-X 为英伟达网络开辟出了全新的市场,使得纯以太网数据中心也能够容纳大规模 AI 类负载。我们预计 Spectrum-X 将在未来一年内跃升为价值数十亿美元的产品线。” 首先需要承认一点,这个世界上肯定没有多少项目能够豪爽地叫出“10 万张 GPU”这么夸张的体量,所以英伟达在 5 月声明中提到的几乎必然就是孟菲斯超级集群。再结合最近马斯克对于该系统的评价,我们认为英伟达应该是依靠 Spectrum-X 设备拿下了后端(或者叫东西向)网络部分,而瞻博则负责实现前端(或者叫南北向)网络部分。Arista 那边则没有任何动静。 但截至目前,我们仍不清楚孟菲斯超级集群具体会使用哪种存储解决方案。其可能是基于 Supermicro 的闪存加硬盘混合型原始存储阵列,可运行任意数量的文件系统;也可能是 Vast Data 或者 Pure Storage 提供的全闪存阵列。但如果非要选出一种赢面最大的方案,那我们会大胆认为 Vast Data 应该是参与了这笔交易,并拿下规模可观的存储订单。不过这种猜测也没有明确的依据,只是根据该公司大规模存储阵列过去两年在高性能计算和 AI 领域表现出的市场吸引力提出的假设。
力挺美国人工智能法案,OpenAI“未雨绸缪”?
凤凰网科技讯 北京时间7月31日,据外媒报道,OpenAI正在全力支持美国国会中的部分人工智能法案。 本周二,OpenAI支持了三项参议院法案,这些法案可能会影响联邦政府对人工智能的立场。其中,《人工智能创新未来法案》将正式授权美国人工智能安全研究所作为制定人工智能模型标准和指导方针的联邦机构。同时签署这一法案的还有微软、Meta、Palantir、Cohere、亚马逊等多家科技公司。 OpenAI全球事务副总裁Anna Makanju在LinkedIn帖子中表示:“我们始终支持该研究所的使命,它引领美国政府努力确保前沿人工智能系统的安全开发和部署。” Makanju表示,该法案为研究所提供了国会支持,从而“最大限度地降低人工智能这项新技术带来的潜在风险”。 此外,OpenAI还支持了NSF AI教育法案和CREATE AI法案。这些法案为AI研究提供联邦奖学金,并在大学和K-12教育阶段的环境中建立AI教育资源。 那么,ChatGPT背后的公司OpenAI为什么现在要支持美国AI法案呢? OpenAI全球事务副总裁Makanju在她的LinkedIn帖子中表示,OpenAI认为美国政府在确保人工智能的安全性和可访问性方面发挥着重要作用。 但更重要的是,OpenAI在生成人工智能方面也处于世界领先地位。由于与微软和苹果的合作,这家公司的估值飙升至860亿美元。OpenAI很可能在未来面临监管审查,因此这些支持有助于OpenAI与联邦立法者建立良好关系,以便在未来关于人工智能监管的讨论中占有一席之地。 OpenAI此举选择的时机并非巧合。这是OpenAI和其他AI公司面向美国立法者进行的微妙斗争,后者有朝一日可能会决定这些AI公司的命运。(作者/陈和林) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
微软:大力没奇迹,AI梦搁浅?
微软 (MSFT) 7 月 30 日美股盘后公布了截至 6 月底的 2024 财年四季度财报。虽然从绝对角度来看,营收和经营利润双 15% 的增长显然无法称之为差。但在高预期和高估值下,没有明显亮点的业绩,即会导致回调的压力。而AI 投入不断攀升,但贡献的增量收入却无明显增长,则是对微软乃至整个 AI 中小游相关产业最大问题,具体要点如下: 1、“顶梁柱” 的 Azure 没能带来惊喜: Azure 作为与 AI 最为相关,同时贡献了最多增量营收的业务,已是 “万事系于一身”,市场最关注的点。相比市场原先普遍乐观,乃至环比提速的预期,Azure 本季实际同比和恒定汇率下增速分别为 29% 和 30%,环比下降了 2pct 和 1pct。虽然绝对增速不低,但在高预期下还是让人失望的。据管理层披露,本季 AI 相关收入已占 8%,较上季度提升 1pct,幅度并不高。AI 贡献的收入仍无明显提速迹象。 2、Office 业务增长平平,Copilot 推广预期内迟缓: 与 AI 紧密性第二的 Office 365 业务本季收入增长 13%,较上季度同样环比降速约 2pct。由于 Copilot 等 AI 功能的推广尚无爆发性增长已是行业共识,而企业用户数量增长越发艰难。缺乏通过 Copilot 等附加功能提价的情况下,企业 Office 的收入增长也未现明显起色。 3、“AI PC” 的时刻仍需等待: 个人计算板块的本季剔除并表暴雪影响后,可比营收增速为 2%,仍在低位。其中Windows OEM 业务收入同比增长 4%,和当季 PC 出货量接近,没有明显提速。虽然微软先前已推出了 AI PC 产品,但在缺乏爆款 AI 应用的情况下,尚不能真正刺激换机周期的到来。 4、营收领先指标巨大波动:新签企业云合同金额增速从上季的 29% 大幅下滑到 17%。恒定汇率下,增速同样环比下滑了 12pct。虽然尚无法判断本季的波动是反映了增量需求的减弱,还只是单纯的季节性波动,但在本季营收增长已环比放缓的同时,领先指标同样走弱多少是一个让人担忧的信号。 5、营收趋缓、投入增加、盈利提速周期告终? 由于三大板块普遍的增长趋缓,微软整体营收本季同比增长了 15%,较上季放缓 2pct。同时经营利润也同比增长 15%,较前两个季度的放缓更为明显,已和收入增速完全同频。经营利润率也自 24 财年以来首次同比下降(-0.1pct)。 经营利润率的下滑的主要原因是,毛利率下降了 0.5pct,研发费率则同比提升了 0.4pct, 尽管营销和管理费用仍在同比收缩,最终导致经营利润率仍下降了 0.1pct。可见,尽管微软在其他费用支出上仍相当节俭,但 AI 相关投入导致的折旧、研发人员和设备的投入扔给利润率带来了不小的压力。 而本季的 Capex 投入再度环比提升 36% 到$190 亿,年化后已相当于 25 财年预期经营利润的 7~8 成,如此巨大的投入下,后续利润率恐怕有更大的压力。 6、下季度指引是过于保守 or 真差?针对 25 财年一季度的指引,三大板块的营收,和公司整体的毛利、经营利润指引中值,普遍比市场原本预期略低小几亿。虽然差距并不大,微软也普遍有指引保守的习惯,实际交付情况大多高于指引上限。但所以指引指标全面低于预期无疑是偏负面的。最关键的 Azure 恒定汇率增速公司预期在 28%~29% 较本季度继续下行,也略低于预期。仍未见 AI 需求引发收入明显提速的迹象。 海豚投研观点: 如前文所述,营收和经营利润双增 15%,和 Azure 达 29% 的收入增速,从绝对角度并不差,甚至可以说有相当不俗的增长。但问题在于微软当前相当于 25 年利润 30x 上下的 PE 估值,15% 上下盈利增长预期显然也是无法支撑的。 市场愿意给微软明显估值溢价的原因来自与投资人对 AI 后续可观增量营收的想象,和微软在 AI 赛道的中下游中相对最高的可见性。因此,本季和对下季度的指引中无论 Azure 还是 Office copilot 等与 AI 最密切的业务都没能明显体现出 AI 带来的增量收入空间,而大幅拉升的 Capex 投入则已开始、且会继续拖累公司的盈利。势必会让市场考虑 AI 是否真的能带来的收入>需要的投入,ROI 是否有吸引了。 但同样的,近 1-2 季度没能明显提速的营收也无法证伪中长期(可能最早在 25 下半年)内 AI 的想象空间。因此我们认为,本次业绩后微软大概率会短暂回调一段时间,但尚不会导致中期尺度内估值逻辑的大幅下修。 以下是财报详细点评: 一、Azure 和 Copilot 都没能验证 “AI” 时刻 1.1 Azure 增速环比略降 随着微软(包括其他大科技股估)值不断走高,且传统业务增速和宏观经历都并非乐观的情况下,无论是对业绩还是估值的支撑,可以说全系于 Azure 一身。业绩前外资行对 Azure 的预期也普遍乐观,但实际是 Azure 本季的同比和恒定汇率下增速分别为 29% 和 30%,虽绝对而言增速并不差,但增速分别环比下降了 2pct 和 1pct,相比相当一部分偏乐观投资人原本预期的增长加速,从预期差的角度显然多少是让人失望的。 不过据我们测算,智慧云板块内非 Azure 业务本季度收入增长再度同比转负到约-6%。海豚投研从外行调研中国也关注到目前企业的 IT 投入预算虽已重回增长趋势,但其中相当部分都是用于 AI 相关的投入,导致投向传统需求的预算仍比较紧张。 整体上,因 Azure 的增长高位放缓,而其他业务则再度同比收缩,智慧云板块整体营收增速本季环比下降约 2pct 到 19%,实际营收略微低于预期$2 亿。 1.2 Office 增长平缓,Copilot 推进无亮点 与 AI 紧密度第二高的 Office 业务中,体量最大的企业 Office 365 本季收入增长 13%,较上季度同样环比降速约 2pct。不过,Office Copilot 等 AI 功能被用户采用的进展不佳已算行业共识,市场也并未预期 Office 业务会有多少亮点,实际表现算是验证了预期。 从量价角度拆分来看:1)本季企业 Office 365 订阅客户数同比增长继续放缓到 7%,由于用户渗透率趋于饱和和并不算好的宏观经济预期,用户增长趋缓也已是市场普遍预见到的问题之一。 2)由于用户量难以明显提速,价格是驱动营收增长的主要动力,据我们测算,本季度 Office 365 客单价同比提升了 5%,增速略微放缓 1pct。可见企业增加使用 E5 等高单价产品驱动的客单价提升仍在继续。但因 Copilot 等额外付费功能推进不佳,后续继续提价的空间和速度在收窄。 生产力板块中的其他业务中:① 个人 Office 增速在低个位数的水平继续下滑,② Dynamics 的增速同样放缓了 3pct,但 16% 的增速仍是 PBP 板块中增长最快的业务;③ LinkedIn 继续维持 10% 的增速。 整体上,由于 AI 功能未能推进 Commercial Office 这一核心业务的提速,其他业务中大多数也平稳放缓。本季生产力流程板块营收增长 11%,较上季继续降速 1pct,算是预期之内的无亮点。 二、个人 PC 板块仍然疲软,广告业务意外提速 个人计算板块的本季营收同比增速为 17%,剔除收购影响原有业务可比增速为 2% 和上季基本持平,个人计算板块仍在低位增长。实际营收比市场预期略多 4 亿,但无关大局。 细分业务上: ① Windows OEM 业务收入同比增长了 4%,和 PC 出货量增速大体一致。虽然微软已推出了第一批的 “AI PC” 产品,但在 2C 端爆款 AI 应用诞生前,显然不能立刻驱动 PC 的换新周期; ② 收购暴雪后,游戏业务收入同比增长 44%,但其中 48% 是来自并表暴雪的影响,原有业务收入仍是继续下滑的,同样未见扭转趋势; 4)本季广告业务收入同比增长 5%,虽绝对增速不高但环比上季提速了 2pct,剔除买量成本后广告收入增长则达到 19% 较上季提速了 7pct,是本季少有明显提速的细分业务。这或许意味着 AI 功能的确给 Bing Search 带来了更多的用户时长,和随之而来的广告。关注电话会中对此的解释。 三、营收领先指标的放缓更让人担忧? 小结前文三大板块本季度营收增长的表现,更多没有带来超预期的亮点、绝对增长并未出现明显的滑坡,也大体符合市场预期。 而反映后续营收增长趋势的领先指标出现了现了更为明显的波动。其中,新签企业云合同金额增速从上季的 29% 大幅下滑到 17%。即便是恒定汇率下,增速也环比下滑了 12pct。虽然仅从单个季度的波动,我们尚难以判断这反映的是增量需求的减少,或更多只是季节性的波动,但多少是一个让人担忧的信号。 尚未确认收入(递延收入)指标中,P&BP 板块同比增长仍大体持平,但智慧云和个人计算板块都出现了明显的下滑,导致整体递延收入增速进一步下滑 1pct 到 12%。且其中还包含了因并购导致游戏递延收入暴增的影响。 不过,存量的待履约合同余额 (即已收到付款未确认收入的递延收入 + 未收到付款但已签订合同的金额)本季为 2350 亿,同比增速则是持平在 20%。虽然当季新增合同放缓,但存量角度尚未出现明显问题。 四、整体业绩:营收未提速、投入增加、盈利提速周期告终? 1)由于三大板块普遍的增长略降,整体营收本季同比增长了 15%,较上季放缓了 2pct,但其中有 1pct 是来自汇率的负面影响。剔除并表暴雪的影响后,总营收实际可以增速为 12.2%。同样是大约环比放缓 1pct。换言之整个 24 财年微软的可以营收增长实际一直在 12%~14% 小范围内波动,没有特别明显的改善或恶化。 2)毛利角度,本季微软实现毛利 450 亿美元,同比增长 14.3%,增速环比降速近 4pct。毛利率为 69.6%,同环比都下降了 0.5pct。据公司解释客观原因有上财年延长折旧利好结束和并购暴雪的成本。但 Capex 大幅增加导致折旧和其他成本上升或许也是原因之一。 3)费用角度,同比来看微软的营销和管理费率较去年仍同比收缩了 0.5% 和 0.4%,可见微软的费用支出仍是比较谨慎,近期微软继续裁撤数百到小千人的报道也验证了这点。 但研发费用率则是同比提高了 0.4pct,则大概率是因为 AI 相关研发人员和设备投入的增长。 4)整体上,因研发费用和成本的增长高过营销和管理费用的节俭,本季公司的经营利润率是同比下降了 0.1pct 到 43.1%,是24 财年以来内首次利润率同比下降。经营利润同比增长 15%,较前两个季度明显放缓,且已和收入增速完全同频。表明因投入的增加,微软自 3Q23 以来利润增长高于营收的利润改善周期可能将告终。 5)本季度微软的Capex 支出则是环比增长 36%,大幅拉升到了$190 亿。即便假设后续季度不再环比增长,那么年华化的 Capex 投入也相当于 23 财年的 2.4x。而 760 亿的年化投入亿相当于近 70%~80% 的 25 年预期经营利润。巨大的投入,势必对盈利会产生无法忽视的压力。 6)分板块来看,即便我们忽略因并表拖累了经营利润率的个人 PC 业务,不受影响的生产力和智慧云板块本季经营利润率环比都明显的走低 1pct 以上。
专治AI大模型对错误答案“过于自信”,麻省理工学院提出新型高效低耗校准方法
IT之家 7 月 31 日消息,人们正在越来越多地使用大模型完成各种任务,不论是翻译、总结文章还是识别金融诈骗,大模型都是“无所不包”。尽管这些模型都具有“惊人”能力,但它们偶尔也会生成错误答案,并对错误答案过于自信、对正确答案信心不足,使用户对大模型是否值得信任表示怀疑。 据 MIT NEWS 今日报道,麻省理工学院(MIT)和 MIT-IBM Watson AI Lab 的研究人员提出了一种专为大型语言模型量身定制的校准方法。他们的方法被称为“温度计”,其原理是在大语言模型之上构建一个较小的辅助模型来对其进行校准。 图源 Pexels 据悉,这种被叫作“温度计”的方法所需的计算能力更少,但同时又能保持模型的准确性,并使其能够在未曾遇到过的任务中做出更好的校准响应。 通过针对各种任务对大语言模型进行高效校准,“温度计”可以帮助用户找出模型对错误预测过于自信的情况,最终防止用户在可能失败的情况下部署该模型。 有关论文的第一作者、麻省理工学院电子工程和计算机科学研究生沈茂豪(IT之家注:音译)表示,“我们希望向用户提供一个明确的信号,告诉他们模型的回应是准确还是不准确,以反映模型的不确定性,让他们知道模型是否可靠。” 借助“温度计”,研究人员开发出了一种多功能技术,利用一种被称为“温度缩放”的经典校准方法,为新任务有效地校准大语言模型。在此背景下,“温度”是一个缩放参数,用于调整模型的“信心”以与其预测准确性一致。 研究人员训练了一个辅助模型,该模型在大型语言模型之上运行,自动预测校准新任务所需的“温度”。“温度计”只需要访问大型语言模型内部的一个小部分,就能预测出特定任务数据点的正确“温度”,以校准其预测。 该团队希望未来使“温度计”支持更复杂的文本生成任务,并将该技术应用于更大的大型语言模型。
XREAL Air 2 Ultra正式发售:面向开发者群体,首发价3999元
凤凰网科技讯 7月31日,XREAL系列AR眼镜最新款XREAL Air 2 Ultra在国内正式发售,目前在京东、天猫和抖音等平台都已上线,首发价3999元。这款AR眼镜主要面向开发者群体,降低开发者进入空间计算的门槛。 作为XREAL第二款6 DoF全功能眼镜,XREAL Air 2 Ultra可通过双环境感知传感器来实现空间计算的轻量化,搭载双环境感知传感器硬件+软件SDK,支持高精确度和低延迟的6DoF空间定位和手势交互。 6DoF技术利用位于XREAL Air 2 Ultra两侧的双环境感知传感器,可以识别特征点,并监控摄像头图像中显示的特征点随时间推移而发生的移动,使6DoF追踪功能实现实时构建地图、整合空间锚点,并为开发人员提供有关环境中的物理结构信息。 除6DoF运动追踪外,XREAL基于跨平台游戏引擎Unity构建的软件NRSDK,具备手部追踪和手势识别功能,能够稳定追踪手部关键点位置,同时执行手势的实时识别,便于开发者在真实世界中与虚拟对象进行交互。NRSDK还具备平面检测、图像识别、深度网格、空间锚点等能力,辅助Ultra的硬件,为开发者描绘三维空间地图,并根据具体要求创建交互式3D场景。 此外,由于支持空间计算技术,Ultra眼镜还面向AR先锋用户以及已具备AR应用场景的企业级市场。Air 2 Ultra加入钛合金边框,减重、提高结构强度,而在显示方面,等效4米的投屏画面从Air 2的130英寸增加至154英寸。搭配Beam Pro使用时,Air 2 Ultra能够实现6DoF悬停的空间观影体验。
不存在延期问题,AMD锐龙5000XT系列处理器将如期发布
IT之家 7 月 31 日消息,AMD 锐龙 7 5800XT、锐龙 9 5900XT 处理器现已上架海外电商平台 B&H,显示将于北京时间 7 月 31 日晚 21:00 开始接受预购。 尽管有传闻称 AMD 推迟了锐龙 5000XT 处理器的发售时间,但 AMD 现向 Tom's Hardware 确认这两款处理器都将如期推出,“5000XT 的销售禁令没有变化”。 当然,AMD 锐龙 9000 系列处理器确认因为某些原因而延迟到了 8 月发售,其中 R7 9700X 和 R5 9600X 将于 8 月 8 日上市,更高端的 R9 9950X 和 R9 9900X 推迟到 8 月 15 日上市。 与 9000 系列一样,AMD 至今也没有提供锐龙 5000XT 系列具体定价信息,AMD 可能要等到最后一刻才会确定最终的官方建议零售价(MSRP)。 参数方面,R7 5800XT 处理器与 R7 5800X 几乎完全相同,同样拥有 8 个 Zen 3 核心、32MB L3 缓存和 105W TDP,唯一的升级之处在于频率提高了 100MHz,从 4.7 GHz 提升到 4.8 GHz。 相对地,R9 5900XT 相比 R9 5900X 提升十分显著,规格更接近 R9 5950X 而不是 R9 5900X。它同样拥有 16 个 Zen 3 核心、64MB L3 缓存和 105W TDP,频率相比 R9 5950X 只低了 100MHz。 除此之外,锐龙 5000XT 系列处理器的 TDP 都是 105W,R7 5800XT 附送 Wraith Prism 散热器,而 R9 5900XT 则没有标配散热器,毕竟这种等级的处理器往往需要顶级风冷甚至水冷。
广电力推“一个遥控看电视”,为何“万能遥控器”迟迟未能普及?
问大家一个问题,以下两种遥控器大家更喜欢哪一种? 图片来源:Apple、SONY 从销量来说,Apple TV 这种高度精简的遥控器显然更符合消费者的喜好,毕竟右边这种按钮比诺基亚翻盖手机还要多的遥控器,早已被国内网民规划到老古董的阵营,属于大家平时用来嘲笑索尼「顽固不化」的代表案例了。 但如果我说,我更喜欢右边那种,甚至觉得这种按键密密麻麻的遥控器用起来更简单更方便呢?事实上,有这种「复古情怀」的电视用户还真不只小雷一个,在电商平台上,我们也能找到这种「老式遥控」,部分产品的销量甚至非常不错。 当然了,像小雷这样的「老顽固」还是少数,对大多数用户来说,一个电视遥控、一个广电的数字机顶盒,两个遥控器就已经是全部了。 而好消息是,在新一轮的广电工作中,我们有望将这两个遥控器合二为一。 近期,国家广播电视总局联合多部门,召开治理电视「套娃」收费和操作复杂工作阶段性总结部署推进会。会议除了通报「治理套娃」第二阶段工作进展情况和成效外,还提到了今年下半年的重点任务,其中就有「全面实现一个遥控器看电视」的部分。 什么是「一个遥控看电视」? 说到「一个遥控看电视」,相信各位分得清「功放」和「公放」的影音老玩家们都再熟悉不过了——用一个遥控器控制电视、播放器、AV 接收器、功放、家庭影院,这其实就是我们「坚持使用」那些按键密密麻麻的「过时遥控」的唯一原因。 以小雷家里举例,过于简洁的智能电视遥控在 Android TV 界面里确实非常好用,但电视一般只有三个 HDMI 接口,音响占用掉一个 HDMI eARC 接口,只剩下两个 HDMI 给 PS5、Switch 和 Apple TV 分。当然了,我可以用分线器或 AV 接收器来实现 HDMI 的热切换,但切换器就意味着要多一个额外的遥控器。 图片来源:SONY 然后智能电视的遥控器只能通过 HDMI CEC 调整功放的音量,并不能穿透到 AV 接收器中调整接收器的输入源,这意味着如果我想用家里的音箱蓝牙播放手机里的音乐,我还得另外准备一个遥控器。 这还没完,考虑到国内网站的视频资源动不动就会「瘦身」或者「消失」,电影爱好者都有收藏蓝光碟的习惯。但智能电视的遥控器显然无法控制 PS5,仅有的那几个按键也无法像「过时遥控」那样实现快捷键控制,那没办法,只能再给 PS5 或蓝光播放器再准备一个媒体遥控手柄。 图片来源:SONY 这也是影视爱好者喜欢的「过时遥控」的原因:用户只需要一个遥控就能控制上述所有设备,甚至可以设置复杂的快捷方式,比如「一按蓝色按键,功放就会自动切换到蓝牙匹配,切换到 2.1 工作模式并调低整体音量」。部分高端的「过时遥控」还有多模功能、可以用红外(IR)、2.4GHz 和蓝牙等多种方式控制不同的影音设备。 当然了,这种老玩家的需求始终还是少数,广电这次想解决的,主要还是普通家庭用户数字电视、智能电视这两套遥控的问题。 那么做一个什么设备都通用的「万能遥控器」,到底有多难? 「万能遥控」难在哪里? 想造一个通用遥控器,首先要解决的是无线遥控的格式问题。 不同设备使用的无线通信协议各不相同,比如老式电视和大多数中低端音响系统用的都是红外线(IR),这是最早应用于遥控器的无线通信技术。它的优点是成本低、技术成熟,但缺点是中间不能有障碍物,传输距离较短。同时发射端(遥控器)为了保证信号命中率,通常不会「集中」红外光束,这也导致红外遥控时常会有「误伤」其他设备的情况。 图片来源:小米 蓝牙技术在近年来被广泛应用于各类智能设备,优点是传输距离较长,不需要直线对准,但其成本相对较高。Wi-Fi 技术则主要应用于一些高端智能设备,具有传输距离长、速度快等优点,但其成本更高,实现难度也更大。 要让一个遥控器同时支持这些协议,需要复杂的硬件设计和软件调适。硬件方面,需要在遥控器内部集成多种无线通信模块;软件方面,需要确保遥控器能够正确识别和控制不同设备,这无疑增加了设计和制造的难度和成本。 但在制式之外,「万能遥控」还有别的问题要解决:各大厂商的设备生态系统通常是封闭的,为了保护自己的市场,厂商不愿意开放控制协议,这使得通用遥控器要么只能控制有限的几个品牌,要么功能受限。 即使一些厂商愿意开放控制协议,为了保证自己的智能电视不仅仅是一个「显示器」,电视品牌都会在控制协议上做一些「限制」。举个例子,有家庭影音系统经验的玩家应该听说过一个叫「HDMI CEC」的标准——这个标准允许一个 HDMI 设备利用 HDMI 的信号通道穿透传输音视频信号之外的指令,比如开关机指令、音频(音量、频道)调节指令与输入源切换指令。 图片来源:SONY 但国内品牌在国内销售的电视型号对 HDMI CEC 的兼容性只能用「惨烈」来形容,即使是被玩家称为「CEC 兼容最好」的某国产传统电视品牌的互联网子品牌,对 CEC 的兼容也仅停留在特定设备的音量控制上,连双向电源同步都无法实现。 即使我们用多模设计解决了遥控的无线兼容性,再用砸钱的方式解决 HDMI CEC 兼容性的问题,如何用一套按键布局「通吃」不同设备,同样是个不小的挑战。 不同设备的控制需求不同,例如电视需要音量、频道、输入源等基本按键,机顶盒需要数字键盘,AV 接收器、播放器和音响需要自定义键,有些智能电视还需要语音助手键和视频软件的快捷键。如果我们不做取舍,把这些按键全部堆在遥控器上,拿出来的效果就会是过去天天被网民批判的「过时遥控」的样子。 有解决办法,缺推广动力 既然困难重重,那这个「通用遥控器」计划又该怎么推行呢?小雷认为方法有两种。 首先是「最理想」但「最不可能推行」的方案——HDMI CEC。称它为「最理想」的原因很简单——这套模式在不少海外市场已经跑通多年了。HDMI CEC 本身就是 HDMI 规范的一部分,电视品牌使用 HDMI 接口时就已经向 HDMI 联盟支付了接口的授权费用,想要完整的 HDMI CEC 只要加钱就能解决。但全面介入 HDMI CEC 意味着自己的电视将彻底「屏幕化」,不利于电视品牌经营自己的内容生态。 其次是最「简单」的方式——多模遥控器学习。在红外遥控时代,不少遥控器有「学习」能力,可以复制另一种遥控的红外信号,以实现一控多的目的。虽然市面上大多数智能电视已经改用了蓝牙遥控,但蓝牙信号同样可以学习和多连。即使用户同时使用蓝牙遥控和红外遥控的设备,多模遥控器同样可以「一控多」。 不可否认的是,这种做法会导致遥控器的成本上涨。但和只有高端设备才支持的 HDMI CEC 相比,这套方案确实更加平易近人。 图片来源:Apple 当然了,厂商也可以将选择的权利交给用户,在市场上推出第三方的多模整合遥控器,让有需要的用户自行购买。再或者该用 Wi -Fi 手机遥控,以智能家居系统的形式彻底「消灭遥控器」。 可以肯定的是,未来的遥控器将不再只是简单的按钮堆砌,同时「工作范围」也不会停留在影音设备上。它不仅能控制电视和音响,还能通过语音命令调节室内灯光、启动扫地机器人,甚至是控制家中的智能门锁。而它的形态也不会停留在「细长且布满按键」的阶段,手机、手表都有可能成为新的「通用遥控器」。 不过,要实现这一切,依然需要产业界的共同努力,标准的统一和开放,以及技术的不断进步。只有这样,我们才能真正「杀死遥控器」。毕竟能用「小爱同学」解决的事情,为什么要和藏在沙发坐垫缝隙中的遥控器过意不去呢?
大模型热钱汹涌:半年百个亿级融资,最高超500亿元
作者 | 李水青 编辑 | 心缘 智东西7月31日报道,7月底,前脚加拿大的大模型创企Cohere完成了5亿美元(约合36.13亿元人民币)的D轮融资,后脚我国大模型创企百川智能完成50亿元A轮融资。 热闹的大模型产业,2024年上半年整体的“吸金”情况如何? 据智东西不完全统计,2024年1月1日~6月30日上半年,加上刚刚过去的7月期间,全球围绕大模型产业链关键环节展开的超亿元融资达到超120起,融资总额粗略估计超2300亿元。 其中美国和中国“遥遥领先”,分别有59起和35起亿元级融资。同时美国大模型产业相关企业总融资额超1800亿元,中国大模型产业相关企业总融资额在数量上差距较大,超300亿元,但仍位居第二。 如下表所示,2024年上半年加上刚刚过去的7月期间,获得融资的大模型产业相关企业覆盖通用大模型研发、大模型应用、AI Infra、AI数据服务等多个领域。近一半企业创立于2023-2024年,刚刚进行了种子轮、天使轮或A轮融资。这些企业在官方业务介绍中,都明确阐述了主营业务或重点业务是围绕大模型展开。 在所有融资项目中,单笔金融最大的是美国GPU云服务厂商CoreWeave在5月拿下的约544亿元融资。马斯克的xAI5月的约435亿元融资、美国大模型Anthropic在3月约200亿元的融资位居第二、三位。 聚焦中国大模型产业,金额最大的是月之暗面在2月拿下的超70亿元的A轮融资,投资方包括红杉中国、小红书、美团、阿里、招商局中国基金、蓝驰创投等,位居全球第七位。 中国大模型融资方兴未艾,如果把统计口径放宽到千万元级,这一趋势更加明显。 据智东西统计,2024年1月1日~7月31日,我国大模型超千万元融资达到近90起,融资总额超320亿元。 如下表所示,北京、上海、杭州和深圳成为大模型融资的高发地,除了产业流传的大模型“创业五虎”(月之暗面、百川智能、智谱AI、Minimax、零一万物)成员拿下大额融资,还有大量大模型应用厂商获得了融资。虽然大模型应用厂商融资金额大多没有超过亿元,但数量之多,新生力量之广泛,也展现出很强的吸金力。 从2024年上半年的融资情况来看,大模型产业的资本市场形势如何?哪些类型和领域的大模型相关企业更容易“吸金”?本文对此进行了深入探讨。 一、总融资额超2300亿元,八成融资被“老美”拿下,中国紧跟其后 纵观2024年过去7个月全球大模型融资情况,美国、中国、法国、加拿大、英国、德国、日本等国家的大模型产业相关企业成为“吸金”主力,分别拿下59个、35个、8个、6个、4个、3个、3个超亿元融资项目。 从融资金额来看,粗略估计,120笔融资总额超2300亿元。其中,美国大模型产业相关企业融资总额达到约1834.38亿元,约占总融资额的八成。中国位于第二位,企业融资总额约304.58亿元。法国、加拿大、阿联酋的企业融资总额分别位于第三、四、五位,分别为75.65亿元、46.76亿元、36亿元。 从融资轮次来看,34家企业处于A轮(包括A+轮)融资状态,24家企业处于B轮(包括B+轮)融资,可以看到这些企业都处于早期融资阶段。从创立时间来看,它们近一半创立于2023-2024年。 二、大模型应用扎堆,AI Infra企业“吸金”魔力最强 大模型应用,是“吸金”企业数最多的大模型创业领域。 正如近期一级市场大佬、金沙江创投主管合伙人朱啸虎所谈到的,尽管对大模型创业持怀疑态度,但AI应用软件是他最看好的投资方向之一。他在近期接受媒体采访时称:“(AI应用)真的有很多机会……今年会主要看B端的应用,C端应用是明年”。 如下图所示,在近120起全球大模型融资中,大模型应用企业占69%,AI Infra、通用大模型、大模型数据服务分别占16%、11%和3%。 在大模型应用领域,AI医疗健康、视觉/视频生成领域、办公助手和编程助手获得融资的企业最为密集,分别占比为15%、15%、13%、11%。同时,聊天机器人、内容创作平台、AI搜索引擎、具身智能(大模型)、营销助手、语音合成工具领域的企业也取得了不少融资。 但“吸金”力量最强大的公司,却出现在AI Infra领域,其次是通用大模型领域。 CoreWeave、xAI、Anthropic、Scale AI、Xaira Therapeutics、月之暗面、百川智能、Figure、Mistral AI是单笔融资金额位于前十位的企业。 其中创立于2017年,背靠英伟达的美国AI云服务“黑马”CoreWeave在过去7个月里获得两次大额融资,分别为约544亿元的战略融资和80亿元的C轮融资,分别位居第一名和第四名。 马斯克的大模型创企xAI获得了435亿元的B轮融资,这家公司创立于2023年,可以说直逼OpenAI的融资节奏,位居第二名。 中国大模型企业月之暗面凭借超70亿元的A轮融资,占第七位,其推出的大模型应用产品Kimi已经风靡市场;百川智能凭借50亿元融资,占第八位,其聚焦开源和闭源通用大模型及超级应用的开发。 三、中国市场:大模型“五虎”吸金超百亿,70+应用商狂吸金 最后让我们聚焦中国大模型产业,特点是小额融资“雨后春笋”般涌现。 在前面的全球大模型融资总表中,我们主要统计了亿元级的融资情况,国内趋势看得还不够明显。但将统计口径放宽到千万元级别,我们发现至少89家大模型产业相关企业在2024年上半年和7月期间,获得了融资,融资总额超320亿元。这意味着中国一级市场对大模型的态度积极。 在通用大模型领域,江湖号称国产大模型“创业五虎”成员的月之暗面、百川智能、Minimax、智谱AI都取得了融资,累计融资金额大超100亿元。但从数目上来看,获得融资的大模型企业却不够多,但这并不意味着国内大模型资本市场不活跃。 在大模型应用领域,超70家企业获得了融资,涵盖了聊天机器人、文本创作、视觉/视频生成等多个应用类别,并覆盖营销、电商、医疗、教育、传媒、创作、法律、政务等众多行业领域,呈现出碎片化特点,累计融资总额超15亿元。 在AI Infra领域,我国企业处于方兴未艾阶段。其中前‌OneFlow创始人及CEO袁进辉创办的硅基流动,是当之无愧的“资本宠儿”,分别在1月和7月获得了两轮融资,分别为5000万元的天使轮融资和近亿元的天使+轮融资。 同时,瑞莱智慧作为AI安全领域“扛把子”,也踩准大模型风口推出的AI安全基座等基础设施,支持其在4月获得了数亿元的战略投资。 此外,2023年创办的算场科技、清程极智、光轮智能都是2023年创办的新公司,获得了数千万元的融资。 结语:大模型跑赢大盘,“吸金”力得到验证 2024年上半年,我国一级市场的大盘情况回暖速度并不是很快。根据IT桔子数据,2024年上半年,国内一级市场私募股权融资事件数有2682起,同比增长 4.56%;估算总投资额约为 3745.77 亿元,同比增长 2.35%。 大模型产业成为跑赢市场大盘的热门赛道之一。除了月之暗面、百川智能这样的大模型明星企业,通过数十亿元融资一鸣惊人,更有近百家大模型应用厂商、AI Infra领域的厂商涌现,同样获得了资本市场的初步认可。 我国大模型产业的“吸金”能力达到全球前列。不过,相比于占据全球8成融资额的美国,我国仍有较大差距。大模型全球竞赛愈演愈烈,这需要国内大模型产业结合国内的国家战略、产业政策、技术突破、市场需求等因素,寻求适合我国大模型产业的发展之路。
Intel酷睿Ultra 200V Lunar Lake发布时间官宣:还得一个多月
快科技7月31日消息,Intel官方宣布,将于德国柏林当地时间9月3日18点(北京时间9月4日0点),IFA 2024大展前夕,正式发布代号Lunar Lake的下一代酷睿Ultra处理器,也就是酷睿Ultra 200V系列。 Intel执行副总裁、CCG客户端计算事业部总经理Michelle Johnston Holthaus,Intel高级副总裁、CBG客户端商业事业部总经理Jim Johnson,以及众多的Intel合作伙伴,都将出席此次发布会。 Intel表示,这次发布会,将公布Lunar Lake系列的全线型号规格,展示其突破性的x86能效、卓越的核心性能、巨大飞跃的图形性能、无与伦比的AI算力。 快科技继续为大家带来一手现场报道! Lunar Lake的架构设计、技术特性此前已经公开,包括台积电N3B制造工艺、分离式模块化设计与整合内存、全新Lion Cove P核/Skymont E核架构、全新Xe2架构核显、NPU 4.0 AI加速引擎。 Lunar Lake定位和AMD锐龙AI 300系列定位类似,主要面向轻薄本、迷你机,预计会有20多家厂商的80多款笔记本陆续上市。 型号规格方面,曝料有一款酷睿Ultra 9、四款酷睿Ultra 7、四款酷睿Ultra 5。 全部4P+4E 8核心(最高频率5.1/3.7GHz),8/12MB三级缓存,锐炫140V/130V核显,16/32GB LPDDR5X-8533整合封装内存,NPU算力最高48 TOPS,GPU算力最高67 TOPS。 基础功耗17/30W,加速功耗统一30W。
极氪新车实拍!王炸即将上桌,价格或为最大惊喜
今年是极氪的产品大年,无论是主力产品极氪 001,还是小众两厢车极氪 X,都获得了不小的更新,极氪 009 也有了右舵版本,在代言人郭富城的带领下进军香港市场。 除了这些,极氪手里还有两张牌,准备在下半年丢上牌桌,一张是极氪 MIX,另一张是极氪 7X。 ▲极氪 MIX ▲极氪 7X 极氪 MIX 第一次出现在世人眼中,是在今年 4 月举办的北京车展上,因外观圆润,造型可爱,被许多网友戏称为「宝宝巴士」。车展上,新颖的双侧滑门设计让极氪 MIX 成为了展馆的焦点,人气丝毫不亚于当时的小米 SU7。 这是极氪品牌旗下第二款 MPV 车型,虽然车身长度只有 4.7 米,但它的轴距却来到了 3 米,轴长比超过 64%,座舱空间是这辆车最大的亮点。 ▲北京车展上的极氪 MIX 如今临近上市发布,极氪放出了更多 MIX 的官方图赏,和三个月前相比,它又有了一些变化。 极氪 MIX 原定是 5 月上市发布,因为老大们不满意车门造型,为此延期到 7 月份上市,改变了原本 7 月份可以交付几百辆的节奏。 汽车博主@默默-KG 前段时间发微博称,由于极氪高层对于 MIX 的部分产品细节并不满意,产品的发布时间被迫推迟。他还称,车门造型调整后「老安(极氪 CEO 安聪慧)觉得车门开关也需要改,采用类似 SU7 的造型」,因此,发布会再度延期。 果不其然,极氪 MIX 最新的官图显示,极氪已经将 MIX 的门把手改为类似小米 SU7 的半隐藏式设计,在降低风阻的同时保证了使用的便利性,毕竟 MIX 是一辆 100% 面向家庭场景的车型,需要考虑到不同年龄层的使用习惯。 拉动门把手,车门展开,极氪 MIX 号称拥有全球最大车门开启宽度,为 1480mm,没有任何车身结构遮挡,开门后无门槛、无台阶,加上只有 390mm 的地板离地高度,无论老人、孩子,还是怀孕的妈妈,上下车都很方便。 可以看到,极氪并没有尽可能多地布置座椅,6.3 平方米的座舱空间只能坐下 5 人,主副驾两张座椅可以向后旋转 180°进入「欢聚模式」,实现 5 人对坐,座舱就变成了「移动客餐厅」。 对于这两张座椅,极氪表示车辆在行驶时座椅方向必须朝前,P 档状态下才可进行调整,至于副驾能否在行驶中朝后,极氪还在「研究中」。 此外,极氪 MIX 还将新增一个「2+2+2」布局的六座版本供用户选择。但在董车会看看来,MIX 最好的方案还是 5 座,虽然少了一个座位,但多了一种空间形态,一种使用场景。 极氪认为,进入智能电动时代,尽管发动机不再是汽车的必须品,但现有的汽车空间设计仍停留在传统燃油车时代。即将推出的极氪 MIX 及其背后的浩瀚-M 架构,不仅是极氪在技术创新和产品设计上的一次突破,同时也是整个汽车行业在空间利用和用户体验上的一次新尝试。 但历史告诉我们,愿意尝试新事物的人往往只是少数,保销量这个任务,自然就落在了极氪 7X 的肩上。 7 月 29 日,这辆全新中型 SUV 的实车照第一次被曝光,在路灯的映衬下,蚌式机盖的一体性展露无遗,全新升级的 ZEEKR STARGATE 一体式智慧灯幕,让人一眼就能认出这是极氪车型。 车尾部分,极氪 7X 也采用了一体式尾门,搭配悬浮流光尾灯组和 SUPER RED 超红光 LED 技术,科技感保持得比较到位,后窗的雨刷也隐藏到了扰流板内,整个车位没有一点多余的元素,甚至连极氪的 Logo 都没有(和极氪 007 一样,logo 被放置在后窗靠下的位置)。 具体的外观细节,就不在这里作过多描述了,总的来说,这就是一辆难得不溜背的中型 SUV。 不溜背,就意味着更大的座舱空间和后备箱空间,关于这个话题,极氪副总裁朱凌之前也在微博上讨论了一番: 相比起燃油车而言,电动车更在乎风阻的主要因素除了能耗之外,还有一个原因是成本。燃油车的风阻成本更多的是由用户承担(油费);而电动车的风阻成本直接是由厂商承担(电池)。所以风阻在电动车设计中非常关键。 但是汽车是个日用品,各方面的性能永远是一个平衡过程。过犹不及,单方面的极致一定是以牺牲其他方面的性能为代价的。对于家用 SUV 来说,空间和实用性非常重要。在保证续航里程有竞争力的前提下,我们宁愿自己多承担一些成本,也要把空间留给用户。 极氪 7X 已于此前完成工信部申报,信息显示,该车搭载衢州极电电动汽车技术有限公司的电机,可选 310kW 单电机、165/310kW 双电机版本。其中 310kW 单电机版可选时代吉利(四川)动力电池有限公司的三元锂电池以及衢州极电新能源科技有限公司的磷酸铁锂电池;165/310kW 双电机版搭载时代吉利(四川)动力电池有限公司的三元锂电池。 极氪官方也透露过 7X 的一些相关信息: 长宽高为 4825mm、1930mm、1656mm,轴距 2925mm,几乎可以被看作极氪 007 的 SUV 版本。同样支持 800V,采用英伟达 Orin 智驾芯片。 而在售价方面,极氪 7X 有望推出一个颇具吸引力的价格,毕竟,要想让 7X 在激烈的市场竞争中脱颖而出,分担 001 的销量压力,一个亮眼的价格必不可少。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。