行业分类:
加载中...
头条分类:
加载中...
广汽集团与阿里云合作升级:签署全栈AI协议,将基于通义打造专属大模型
凤凰网科技讯 11月14日,广汽集团与阿里云今日宣布深化技术合作,双方正式签署了一项全栈AI战略合作协议。根据协议,广汽集团将利用其在整车研发和智能制造领域的经验,与阿里云的云基础设施及“通义”系列大模型技术相结合。双方的目标是共建一个面向未来的汽车行业基础设施,推动AI技术在汽车研发、生产、营销、管理及用户服务等全业务场景的深度应用。 在基础设施层面,广汽集团将采用阿里云的高性能算力与云计算产品,构建一套弹性的云架构。这一新架构将全面支撑广汽的核心业务系统上云,并为智能辅助驾驶、智能座舱、车联网及全球化服务提供底层技术支持。 在AI应用层面,广汽集团计划基于阿里云通义系列大模型,打造专属的企业级大模型。这标志着AI将更深层次地融入广汽的业务流程,例如在智能座舱中实现更复杂的多模态交互、为销售端提供AI知识助手,以及辅助商业智能决策,旨在全面提升研运效率和用户体验。 实际上,自2021年5月起,双方的合作已在多个领域取得实效。在智能辅助驾驶研发方面,广汽利用阿里公共云与PAI平台,已成功将模型训练时间缩短了50%,亿级规模的数据处理周期也从“按周”缩短至“按天”,实现了智驾模型每两天一次的高质量迭代。在全球化布局上,双方共建的中东车联网平台已帮助广汽将数据成本降低了约50%,同时将车辆网络延迟压缩至2-3秒,有效支撑了海外市场的智能网联服务需求。
微软CEO纳德拉谈AGI:若单一主导AI模型普及,市场将终结
IT之家 11 月 14 日消息,在近期接受 Dwarkesh Patel 与 SemiAnalysis 创始人迪伦・帕特尔(Dylan Patel)的联合采访时,微软首席执行官萨提亚・纳德拉(Satya Nadella)分享了其对 AGI(通用人工智能)的独到见解。他一方面对 AGI 的潜力表示振奋,认为其有望通过大幅提升生产率带来指数级增长;另一方面则强调,当前更迫切的需求在于构建多样化的模型体系与技术生态,而非依赖单一模型解决所有问题。 图源:微软官网 IT之家注意到,纳德拉坦言,AI 的确具备驱动非凡增长的潜力,但仍处于发展初期。因此,与其执着于 AGI 的实现,他更倾向于从“对人类的实际效用”出发推进技术落地。 他特别提及,自己最欣赏计算机科学家拉吉・雷迪(Raj Reddy)对人工智能的定义 —— 因其高度以人为本:“雷迪曾用一个比喻来阐释 AI:它要么应成为人类的‘守护天使’,要么充当‘认知增强器’。我非常认同这一点,这是理解 AI 本质的一种简洁而有力的方式。” 纳德拉进一步阐述道:“我本人同样为这样一个设想而激动不已:继工业革命之后,AI 或许是人类历史上最具变革性的技术跃迁。我以此为出发点。但与此同时,我也清醒地认识到,这仍处于‘比赛的早期阶段’。我们已构建出若干极具实用价值的系统,展现出卓越的性能特征,且各类规模法则(scaling laws)持续奏效 —— 我对此保持乐观,相信其有效性还将延续。” 尽管如此,他也承认,目前对 AGI 最普遍的定义仍指向一种在认知能力上全面超越人类的强人工智能系统。访谈进而探讨了一种假设情境:某家 AI 研究机构凭借单一模型率先实现 AGI 的关键突破,并将其大规模部署 —— 该模型不仅能持续学习进化,甚至有可能最终接管经济体系中的绝大多数工作岗位。 更值得关注的是,当被问及若出现上述情形,微软将如何应对,以及是否意味着某一家公司可独占全部技术红利,纳德拉给出了如下回应:“倘若真存在一个占据绝对主导地位的模型,得以无处不在地部署、吸纳全部数据并持续自我进化,那么答案是肯定的:这将是一场‘定局之战’(game, set, match),市场实质上将就此终结。” 他强调,未来“模型公司”(model companies)与“架构支撑型公司”(scaffolding companies)必须协同合作。纳德拉警示道,模型公司可能面临“赢家的诅咒”(winner's curse)的风险:“你或许付出了巨大努力、实现了非凡创新,但成果仅‘一键复制’之遥便可能被彻底商品化。”
潮玩出海@2025:小玩具撑起“新丝绸之路”
十一假期,喜欢星星人的Rachel趁着去泰国旅游,打算去暹罗天地的泡泡玛特“反向进货”,把想要的毛绒挂件和潮玩一口气抱回家,顺便再去LABUBU主题咖啡厅打个卡。 没想到的是,这家位于曼谷的全球最大泡泡玛特旗舰店也没有“余粮”,随处可见的“sold out”让她才想起来,泡泡玛特的LABUBU、CRYBABY、SKULLPANDA等原创IP在泰国也早就是超级顶流了。捡漏不可能,只能是在店门口打个卡,权当“朝圣”。 不同于以往我们对“made in China”的出海想象,从纽约时代广场到东京池袋,从曼谷Siam Paragon到悉尼乔治街,以LABUBU为代表的中国潮玩正在全球范围内复制着一场起源于情绪消费的文化符号商业奇迹。 仅在2025年上半年,泡泡玛特以138.76亿元人民币的营收,超越迪士尼和万代南梦宫在玩具业务方面的收入,跃居全球第二。名创优品在2025年期间海外收入也突破19亿元,同比增长28.6%。其潮玩子品牌TOP TOY凭借淡马锡领投的百亿估值,加速推进"带100个中国IP出海"的战略目标。 几年前还名不见经传的中国潮玩,到底是怎么火起来的呢? 中国潮玩出海的成功,本质上是一场对传统玩具产业的“降维打击”。它不仅仅是将产品卖到海外,而是通过由强大供应链、原创设计能力和成熟社交媒体营销构成的独特商业模式,重新定义了全球潮玩产业的竞争规则。 其中,强大的供应链是这一切的工业基础,它从根本上决定了潮玩产业的生产效率和创新节奏。这套体系能够迅速将设计灵感转化为海量货架上的商品,从而实现“周度上新”的行业奇迹。 这种能力,使得潮玩得以突破“限量收藏品”的传统定位,蜕变为一种能够即时满足情绪需求的“消费品”。 比如2025年在美国市场表现亮眼的名创优品,背后是由1500多家核心供应商构建的柔性制造网络。当一位消费者在纽约时代广场的名创优品店内随手拿起一个令人会心一笑的“右右酱”时,他指尖触碰到的,不仅是精巧的设计,更是一套以惊人的速度、可控的成本和稳定的品质生产,在一个十几亿人基数市场得到验证和肯定的强大工业品。 这正是中国潮玩能够席卷全球的底层密码。 仅有制造能力远远不够。中国潮玩真正的突破在于,它正在完成从"中国制造"到"中国创造"的跨越。这一转变的根基,是当下社会蓬勃生长的文化自信。 当年轻一代设计师能够从容地从东方美学与现代生活中汲取灵感,而本土消费者也真心欣赏并愿意为这些原创设计买单时,一个良性的创作生态便形成了。正是这片土壤,让中国的原创设计拥有了自我生长的力量。 在这一背景下,各品牌探索出了不同的创新路径。 布鲁可的“积木+潮玩”模式让其出海业务在2025年上半年获得了1.1亿元海外营收,相较去年同期增长899%,其成功在于它创造了一种“既能玩又能藏”的新体验,这背后是对产品形态和用户需求的深度思考。 泡泡玛特的成功则展现了另一种能力,构建一套将设计师前瞻性的艺术创作与市场趋势洞察高效结合的体系。 以在东南亚市场“杀疯了”的SKULLPANDA为例,其设计师熊喵本身的艺术风格吸引了不少粉丝的关注。泡泡玛特的价值在于,它能够将这种原本存在于二维平面的艺术风格,通过精细的三维建模、材质选择和品控管理,高保真地转化为具有收藏价值的实体潮玩,把小众的审美风格推向大众市场。 如“密林古堡”、“食梦动物”等系列,其世界观和视觉风格都延续并深化了设计师固有的艺术语言。 社交媒体则彻底改写了潮玩产业的成长逻辑。 当Lisa和全球明星在社交平台自发分享Labubu的开箱视频,当OHKU的绒绒怪亮相全球规模最大的游戏展Gamescom 2025,当名创优品通过"超级IP+超级门店"模式在社交媒体引爆话题,我们看到的是一个全新的IP孵化模式:潮玩不再需要漫长的文化积淀,而是在算法推送中完成与知音的邂逅。 TikTok、X等平台就像潮玩的"云上基建",让中国品牌能够绕过传统的文化输出壁垒,直接与全球年轻人建立情感连接。 弗若斯特沙利文数据显示,2015年至2024年,全球潮玩市场规模从87亿元增长至448亿元,年复合增速接近23%。在这个快速扩张的市场中,中国潮玩品牌凭借其独特的系统优势,正在书写属于自己的全球化故事。 从名创优品的全球化效率,到泡泡玛特的IP运营,再到TOP TOY的平台化战略,每一家企业都在用自己的方式,证明着中国创造的无限可能。 虽然潮玩出海正值黄金时期,但企业仍需正视那些关乎长远发展的深层次挑战。从商业模式的胜利,到文化认同的建立,中国潮玩品牌正在进入一个全新的竞技阶段。 潮玩的本质是搭载情绪消费的文化符号,但任何文化符号都有其情感生命周期。为了延长这个周期,盲盒式的购买机制、可爱的设计语言都只是表层手段。真正的突破在于为IP构建完整的“世界观”。 比如,迪士尼的星黛露在同属达菲家族的玲娜贝尔横空出世后,由于缺乏动画作品支撑,很快从“一姐”宝座掉落;同样,曾经风靡一时的暴力熊也因缺乏持续的内容滋养而从顶流走向沉寂。 这种规律对中国潮玩同样适用。52TOYS的招股书显示,该公司收入超60%来自迪士尼、蜡笔小新等授权IP,而其自有IP始终难担大任。卡游同样缺乏像LABUBU这样能够跨越文化障碍的原创IP,小马宝莉、哈利波特、叶罗丽、猫和老鼠都有一定热度,但难以在海外市场拥有长久的生命力和品牌影响力。 显然,中国潮玩企业们也意识到了这一点,无论是已经在北京打造主题乐园的泡泡玛特,还是已经推出《布鲁可战队》系列动画的布鲁可,又或是在财报与战略规划中明确将动画、游戏等内容创作列为IP运营必经之路的52TOYS与卡游,都在为IP注入持久生命力做战略布局。通过这些举措,品牌讲不再仅仅销售玩具,而是在构建一个可以让消费者沉浸其中的“情感宇宙”。 更深层的问题还在于供应链的脆弱性。随着全球贸易环境的变化,中国潮玩依仗的供应链优势正面临挑战。即便拥有强大的中国制造背书,原材料价格上涨、关税政策变化等不确定因素始终如影随形。 多点布局已成为行业的必然选择。头部企业已开始考察东南亚产能,但这一过程不可避免地推高了管理成本,同时对企业的跨国品控能力提出了更高要求。在这个过程中,如何平衡成本与质量、效率与稳定,将成为决定企业出海深度的关键因素。 另一层的挑战来自于文化认同的差异。每个市场都有其独特的文化密码:在东南亚市场,CRYBABY是继LABUBU之后的新顶流,但国内消费者明显更偏爱星星人。在中东市场,潮玩的衣着、发型都需要根据宗教限制进行本土化改造。 一部分企业正在努力适应海外市场的节奏,比如在欧美和中国已经十分成熟的卡牌文化,在中国品牌的“出海舒适区”反而比较稀薄。对卡游这样以集换式卡牌盲盒抽卡式营销见长的品牌,就必须进行当地消费者的持续教育。 再如由阿里领投、上线首日全渠道销售破4000万元的潮玩初创品牌AYOR TOYS,在东南亚市场推出了泰式佛系配色限定款,既保留IP内核又融入地域特色。 另一部分企业则选择了先攘外、再安内。如对国内玩家尚属陌生的中国潮玩品牌OHKU,优先选择了深耕德国、意大利等欧洲市场,在当地已经成为了头部品牌。绒绒怪“外表凶悍、内心柔软”的反差萌设计,正好能击中当地年轻人的自我认知,让用户产生强烈代入感。 挑战始终与机遇并存,正如Rachel在曼谷之行后的感悟:“那么多开到泰国的潮玩店,会让你感觉泰国人和我们也没什么不一样,我们都喜欢可爱的小玩具,都向往那种萌萌的感觉。” 如果说潮玩出海前半场是靠供应链效率和数据化运营,打赢了一场商业模式的战争,后半场就需要靠文化内涵和价值观输出持续赢得身份的认同。 我们希望产自中国的潮玩不只是全球玩家的一时新鲜,而是能承载中国文化、更能打开世界对中国认知的一把钥匙。 当海外消费者不仅因为设计好看而购买,更因为认同其背后的文化价值而收藏时,中国潮玩才能真正完成了从商业成功到文化成功的进化。 这条路虽然漫长,但每一步都值得期待。
Transformer作者重磅预言:AI无寒冬,推理革命引爆万亿市场!
导读:LLM逼近上限?图灵奖得主Yann LeCun和Richard Sutton联手唱衰,却被Transformer之父Kaiser回击! AI没有寒冬,只有资本与算力的热浪! Transformer的火种已燃烧七年。如今,推理模型(Reasoning Models)正点燃第二轮革命。 Transformer共同作者、OpenAI研究员Łukasz Kaiser预判: 未来一两年,AI会极速跃升——瓶颈不在算法,而在GPU与能源。 推理模型正改写规则,钱与电,才是决定胜负的「硬通货」。 2017年,Transformer架构横空出世,八位共同作者载入AI史册 值得关注的是,在ChatGPT问世前加盟OpenAI,Łukasz Kaiser此后一直专注研究推理模型——他认为这是继2017年Transformer之后最重大的突破。 最近,他公开表示「推理模型」只是开端,还远未到定义AI的终局时刻。但这也许正是最值得兴奋的地方。 我们终于有了一种能思考的机器。现在该让它少些花哨,多去把事情做完。 万亿美元的AI路线之争 这是一场价值万亿美元的AI观念之争。 「通用人工智能」,已成为业界多数人追逐的目标——真正具备人类认知水平的通用智能体。 OpenAI一路烧钱烧资源,不断Scaling,让硅谷陷入「AGI狂热」:LLM+数据+GPU+能源就是AGI! OpenAI发布o3之时,经济学家Tyler Cowen认为AGI已诞生,2025年4月16日就是AGI日。 即便是Karpathy表示「AGI还需再等10年」,在美国湾区都会被认为对AI的前途太过悲观。 但不是没人唱反调: 叫它沉没成本也行,叫它包袱偏见也行,千万别叫它智能。 硅谷的10万亿美元幻觉 强化学习之父、2024年图灵奖得主、《苦涩的教训》的作者Richard Sutton断言,大语言模型已走入死胡同。 在他看来,语言大模型并没有吸取任何「苦涩的教训」。 换言之,他指出大语言模型存在关键缺陷:其改进能力存在极限,而这个极限远比众所周知的要近得多。 图灵奖得主Yann LeCun多年来支持类似的观点。 Ndea人工智能实验室联创、开源深度学习框架Keras之父François Chollet也这样认为。 LLM是对AGI而言是断头路,所以他联合他人发起百万美元AI奖项ARC Prize,只为让大家重新回到通向AGI的正确道路。 最近,Łukasz Kaiser公开反驳了「LLM是死胡同」这一观点。 他虽不确定Sutton是否针对的推理型LLM,但推理模型存在着根本性突破:它们所需训练数据量比传统模型少几个数量级。 这类模型能真正加速科研进程,本可以并行开展更多实验,只是我们目前缺乏足够的算力支撑。 归根结底是算力瓶颈,关键在于GPU和能源。这才是根本性制约,目前所有实验室都面临同样处境。这就是为何奥特曼为何疯狂融资的原因。 推理革命 LLM推理正引起AI领域重大的范式转移。 普通用户很可能从未接触过真正的推理型大语言模型。 即便使用过,也是通过GPT-5的路由系统间接调用,而他们对此并不知情。 推理模型具备以下能力: 能够自我反思并发现自身思维链输出中的错误,从而及时调整推理路径; 当接收到解决复杂问题的指令时,可通过「深度思考」动态分配更多计算资源; 在推理过程中,直接调用外部工具执行操作; 生成多条备选推理路径,并自主筛选最优解。 这已完全不同于GPT-4这类纯自回归大语言模型的时代。 而且推理模型(Reasoning Models)问世尚不足一年,远未达到潜力上限。 在绝大多数推理密集型任务中,OpenAI的首个推理模型o1显著优于当时最强的通用模型GPT-4o。 它们不急着开口,会先在脑中「打个草稿」——推理、检索、调用工具,像人类在回答问题前的那几秒犹豫。 在这种模式下,AI不仅能接上对话,还能「搞定一件事」:写完一份报告、排查一段代码、核对数据库。 Łukasz Kaiser把这看作一次静悄悄的范式更替。「这就像从对话生成器,变成真正的思考者,」他说。 更让他兴奋的是,推理模型对数据的渴求小得多,却能解决更难的问题。 在数学、程序分析这类结构化任务上,效果尤其明显。 16岁遇见AGI之父,AI日新月异 说来有趣,16岁时,Łukasz Kaiser的第一份有偿工作就是为Ben Goertzel编程。 在2001年前后,Ben Goertzel正式使用并普及了「Artificial General Intelligence」(通用人工智能)这一术语,用以区别于当时的「Narrow AI」(狭义人工智能)。 而现在AGI却被理解为完成人类能做的所有任务。 但现实是,AI与人类智能存在本质差异。 它在某些领域(如游戏、数学题解答)已超越大多数人,但在物理世界相关事务上仍无能为力—— 现在的机器人,依旧笨拙不堪。 这种差异化发展或许才是技术演进的常态。 因此,Łukasz Kaiser认为未来发展路径将是: AI能力会持续增强。但至少短期内,在物理世界相关领域仍将存在人类不可替代的工作,无论是技术上还是经济成本上。 比起概念争论,现阶段更值得关注的是推理模型带来的变革。 过去一年最大的突破在于,AI已能真正胜任职场中的某些工作任务,并且完成得相当出色—— 不仅是秒级响应,更能持续工作数小时产出有价值成果。 这意味着我们可以将待办事项交由AI处理,从而提升整体效率。无论是否称之为AGI,AI正在变得越来越强大是不争的事实。 编程领域就是最佳例证:自从AI开发者开始聚焦这个方向,进展令人震惊。 无论是Anthropic的Claude还是OpenAI的Codex,现在都能根据需求生成完整程序,耗时仅数小时。 它们擅长理解大型代码库、进行代码审查、发现漏洞甚至安全威胁——这些能力在一年前还难以想象。 回想Claude 3.5约一年前发布时已是划时代突破,当时SWE-Bench基准测试通过率约30%,如今已达75%。 三个月前,代码模型还只是辅助工具,但现在却能真正处理复杂代码库。这种指数级进步意味着什么,不言而喻。 AI发展如此之快,但有些人开始担心我们正在进入另一个AI冬天。 Łukasz Kaiser却相对乐观。 AI的新范式:推理刚刚开始 过去,确实存在过Transformer范式,当时靠Transformer+Scaling,创造了ChatGPT。 当然,这种自回归范式,即预测下一个词,并在越来越多数据上训练越来越大的模型,这样已持续多年了。 通用的互联网数据,基本上已经被使用完了。它已经在所有这些数据上训练过了。谁也无法轻易获得比这多得多的(数据)。 但新的推理范式,才刚刚开始。 Łukasz Kaiser觉得这个范式如此年轻,以至于它仅仅处在一个非常陡峭的上升路径的起点。 就它未来的能力而言,我们已经走了一小段路。所以,我们知道它已经能做惊人的事情。 但我们还没有真正地充分利用它。我们把它扩大了一点规模,但还可以有更多的扩展。有更多的研究方法可以让它变得更好。所以,在这个新范式中,我们正处在一个陡峭的上升路径上。 我们正见证新范式的上升趋势,但它需要进一步深入研究:有些研究效果很好,有些则一般,你永远不知道——这就是研究令人兴奋的部分。 如果你把新旧范式两者结合起来,那么你就需要开始准备—— AI冬天不会即将来临,甚至在未来一两年内改进可能非常猛烈。 之后,世界将翻天覆地——这几乎有点让人害怕。 推理的突破真的非常大。 这不是偶然。GPT-4之前,OpenAI就开始研究推理模型,因为人们清楚地看到,仅仅纯粹的Scaling在经济上不可行,我们需要一个新的范式。 Łukasz Kaiser认为现在的推理模型有点像早期的「RNN」,思考仍然是一步一步的。 未来,它们需要「多线并行思考」—— GPT-5 Pro已经初步实现了这一点:同时运行多个思维链(chains of thought),然后让它们「讨论」并选出最佳答案。 这种方法可能带来更快、更强的推理能力。 当前的重点:从任意数据中学习 当前推理模型最值得关注的突破点,Łukasz Kaiser认为是「从任意数据中学习」的能力。这是他最近研究的重点。 现行训练方法需要标注数据正确与否,但现实世界的数据大多不像考试题目那样非对即错。 阅读书籍时,人们不会纠结下一段文字是否正确,而是直接理解吸收。这种自然的学习方式才是更理想的范式。 GPT模型主要使用的是文字信息训练。但OpenAI多模态训练现在进展如何? 目前,ChatGPT确实已经在进行多模态模型训练了。 神经网络把音频编码成离散的音频token(audio tokens),图像也被编码成图像token(image tokens)——不是整张图变成一个token,而是分成多个图像块。 然后模型通过预测下一个token来进行训练。通过这种方式,它就能生成音频、生成图像。 而且这套方法有效到让人惊讶。 总体来看,多模态训练确实取得了成功。 早期,生成的图片人物总是有六根手指,图像文字更是惨不忍睹。 后来,大家增加了训练数据、调整了编码器结构。虽然核心的Transformer序列模型架构没变,但AI生成效果已经突飞猛进。 现在,AI不仅能生成报纸版面的完整文字,音频也能唱歌、耳语、模仿各国口音。虽然偶尔还有瑕疵,但整体效果已经令人惊叹。 如果转向音频和视频训练,数据集规模将实现数量级增长——毕竟视频包含的信息量极其庞大。 但Łukasz Kaiser提醒,视频虽然数据量巨大,但大部分只是颜色、纹理等细节,对推理和理解世界帮助有限。 AI需要学会「挑重点」,只提取有意义的部分(例如运动、因果、变化)。 文字让模型理解「抽象世界」(逻辑、语言、思维),视频训练则让它理解「现实世界」(物体、空间、动作、物理规律)。 语言模型已经掌握了对抽象世界的建模,反而最欠缺的是人类最熟悉的物理世界的理解。 填补这个空白至关重要——这不仅能解决许多潜在问题,更是实现实用机器人的关键突破。 谷歌的Gemini 1.5 Robotics,已开始结合推理与视觉。 机器人会有「快反应系统」(动作)+「慢思考系统」(推理)。 随着视频理解成熟,「机器人有大脑」 将真正成真。 OpenAI唯一的Transformer发明者 Łukasz Kaiser是OpenAI 研究员、Transformer 架构创始人之一,此前曾任职于谷歌大脑团队。 他专注于深度学习与自然语言处理的基础研究,共同发明了Transformer架构、推理模型及其他神经序列模型,并参与开发了TensorFlow系统、Tensor2Tensor与Trax库。 在投身机器学习领域之前,他曾任法国国家科学研究中心(CNRS)终身教职研究员,致力于逻辑学与自动机理论的研究。 他曾运用可满足性求解器及其他符号化方法开发游戏对战系统,并从事程序综合研究。在理论探索方面,他完成了复杂性、博弈论和自动机领域的定理证明,解决了多个长期悬而未决的学术难题。 他于2008年获得德国亚琛工业大学博士学位,本科及硕士阶段毕业于波兰弗罗茨瓦夫大学。
全球最大开源具身大模型!中国机器人跑完马拉松后开始学思考
导读:从马拉松冠军到最强大脑,这次的突破不再是四肢,而是灵魂。 中国人形机器人,再获突破性进展! 昨天,全球参数量最大的具身智能多模态大模型——Pelican-VL 1.0正式开源。 它不仅覆盖了7B到72B级别,能够同时理解图像、视频和语言指令,并将这些感知信息转化为可执行的物理操作。 而且还针对目前具身能力短板,在空间理解、物理推理和思维链等维度实现了系统性提升,并在12个主流公开评测基准上达到行业领先水平。 可以说,Pelican-VL 1.0的提出,打通了从「看懂世界」到「动起来」的完整智能链路。 而这背后,便是创造全球首个人形机器人马拉松冠军的团队——北京人形机器人创新中心。 当前,通用大模型在迁移到具身智能任务时,仍面临多维度能力欠缺的问题。 李飞飞教授提出过Think in Space的观点,强调走向具身智能需要解决空间智能问题的重要性。英伟达和谷歌也在研究中指出,具身领域的大模型必须具备物理智能,并相继推出了Cosmos-Reason和Gemini-RoboticsER这类面向具身场景的多模态大模型。 无独有偶,创新中心也希望通过全面开源Pelican-VL这一基础大脑模型,帮助更多具身智能体获得更强的认知与决策能力,并在意图理解、长程任务规划推理等多类场景中实现性能提升。 具体来说,通过「刻意练习」(DPPO)训练范式,Pelican-VL在不断自我诊断与纠错中提升推理与规划能力,使模型像人类一样在失败中学习,从而实现了视觉理解、语言表达和物理执行的深度融合。 凭借这一机制,Pelican-VL在多个维度展现出突破性能力: 具备跨模态的理解与推理能力,能在复杂环境中识别目标、推断物体功能与可供性; 具备时间-空间认知,能理解动作的顺序与因果关系。 模型的自进化循环使其在每一轮训练后都能修正弱点,形成持续强化的学习闭环。Pelican-VL不仅是一种模型,更是一个能够驱动机器人系统不断进化的「智能引擎」。 总体上,论文报告称相较基线模型,在空间理解和时间推理等能力上出现显著提升,并在若干公开基准上超过了部分100B量级的开源模型。 Pelican-VL的推出不仅是一次技术突破,更为产业界与学术界带来了双重启示。 它首先构建了一套贯通「视觉理解—长程规划—物理操作」的通用训练范式,提供了一个可复用、可扩展的范式,降低了具身智能研发的门槛。 与此同时,团队开放了模型与推理框架,为科研机构和企业提供了一个可自由定制、快速迭代的智能基座,加速了从实验到落地的过程。 更深层的意义在于,Pelican-VL让「机器人自主学习和反思」从理念走向现实。 它的「刻意练习」机制使模型能在错误中总结经验、持续进化,如同人类通过反复训练掌握技能。 这意味着未来的机器人不再只是机械执行者,而是具备认知与改进能力的学习体。 可以想象,在家庭或工业场景中,它将能够自主判断物体用途、调节操作力度、优化行动策略——从被动执行迈向主动理解与自我成长,标志着具身智能迈入真正的「学习时代」。 智能抓取 实现精细抓取泛化操作新突破 当抓取一个水杯或一枚鸡蛋时,基于Pelican-VL的大脑会瞬间完成一系列精密的操作: 通过视觉预判物体属性、在接触瞬间施加恰到好处的力道、并在触碰后根据手感微调抓力。 这套由主动预测、触觉适应与记忆更新构成的「感知运动闭环」,是灵巧抓取的关键。 而这项能力正是具身智能机器人与物理世界交互的基础,但却面临着触觉感知与运动灵活的协同难、复杂场景下的泛化难、算法与数据制约等等难题,目前行业内即便有相关技术突破,也仍未完全解决大规模落地的难题。 如今,Pelican-VL驱动的机器人抓取框架,成功复现并实现了这一高级智能。 仿生核心:Pelican-VL构建的智能抓取闭环 技术框架严格遵循了人类感知运动的三个核心环节,并将其转化为可执行的机器人系统: 1. 主动预测:提供精准的「第一印象」 在机械臂接触物体前,Pelican-VL大模型凭借其卓越的视觉感知与真实世界物理推理能力,仅通过视觉输入,就能精准预测出物体的物理属性(如材质、易碎度),并生成初始抓取力。 这为机器人提供了如同人类般的「先见之明」,使其从指尖接触的一刻起,就具备了恰到好处的基准夹持力,通过模型提供前馈信息缩短闭环控制稳定时间。 2. 触觉适应:实现毫秒级的「手感微调」 在抓取和操控过程中,指尖的触觉传感器会实时传回微滑移、受力分布等数据。系统通过一个同步的在线摩擦估计与自适应抓取控制模块,像人类神经反射一样,持续、快速地微调抓力。 这不仅确保了抓取的稳定性,更关键的是能动态适应不确定因素,避免对精致、柔软的物品造成损伤。 3. 记忆更新:打造持续进化的「经验库」 每次抓取任务完成后,系统会对比预测与实际感官结果的差异,并将这次成功的交互经验存储在一个物理记忆图谱中。 当下一次遇到相同或类似的物体时,Pelican-VL会优先调用这个更新、更精确的记忆来指导预测。使机器人系统具备持续学习的能力,每一次抓取都在为下一次更精准、更柔和的操作打下基础。 实战验证:轻松拿捏精致与柔软物体 在实际机器人测试中,该框架展现出了卓越的性能。 从接近、加载、提升、持稳到运输归还的完整七阶段抓取流程中,Pelican-VL驱动的机器人能稳定操作一系列精致与柔性物体。 「看得准」:由Pelican-VL提供的精准初始力先验,极大地加速了后续自适应控制器的收敛过程。 「抓得稳」:在线控制器在提升、移动过程中持续动态调整抓力,有效应对惯性等扰动,确保抓取万无一失。 「学得快」:整个交互过程形成的经验被存入知识图谱,系统像一位经验丰富的老师傅,越用越熟练。 通过将Pelican-VL大模型的强大认知能力与实时控制、记忆系统深度融合,机器人抓取从简单的「执行命令」升级为了具备预测、反应与学习能力的智能行为。 这一能力使机器人在低成本、低样本的条件下依然能够实现高度泛化、更加柔性的抓取表现,为行业带来了真正可规模化落地的智能抓取方案。 这不仅是技术上的一个里程碑,更为机器人在复杂、非结构化环境中真正实现自主操作,打开了无限可能的大门。 VLM让VLA实现能力跃迁 在典型的Vision–Language–Action(VLA)系统里,Pelican-VL扮演着「视觉语言大脑」的角色,为机器人提供强大的环境感知和指令理解能力。 它将摄像头所见与自然语言指令结合,构建起对场景的多模态表征,然后输出可供后续决策单元使用的结构化信息。 也就是说,Pelican-VL负责「看图听话」,理解指令和环境,VLA负责跨机器人应用;二者组合可以在多种机器人上执行多任务。 有了这样的基础,系统可以完成长时序、多步骤的任务规划和执行。 Pelican-VL等具身智能模型可部署在商超、家居等多种真实场景中,通过视觉-语言感知辅助多步任务规划 论文中演示了一个生活场景下的复合指令:例如「把鞋子放到鞋架上、将桌上的垃圾扔到垃圾桶,再把衣服放入洗衣机」。 Pelican-VL首先感知房间物体和布局,构建出整个环境的语义表示;接着根据指令自动生成行动序列:依次移动到鞋架、垃圾桶和洗衣机位置并进行抓取和放置操作。 在这一过程中,模型不断更新内部环境状态,调整计划并适应实际情况,实现了自然语言指令的自主分解和执行。 简而言之,Pelican-VL构成了VLA系统的认知前端,为长期规划和指令执行提供跨模态的信息支持,使机器人能够像人类一样将复杂任务拆解并落地操作。 同时,在快慢系统、端到端等诸多架构中,前沿探索者们也一直在致力于研究当VLA以VLM为基座时,VLM各项能力为度对VLA模型所带来的性能增益。 例如DeepMind的RT-Affordance,李飞飞的ReKep以及Sergey Levine的Training Strategies for Efficient Embodied Reasoning等著名学者和机构都曾探讨过可供性、思维链等能力对于具身操作的重要性。 对此,Pelican-VL针对性地进行了能力提升,并在多个维度中达到行业领先水平。 RT-Affordance项目地址:https://snasiriany.me/rt-affordance 跨本体具身大脑实现多机协作 Pelican-VL具备不同层级的机器人任务规划调度能力,可根据场景生成机器人行为规划,并将其转化为具体机器人功能函数的执行调用,作为多机器人系统的任务调度器。 论文中给出一个多机器人协作流水线的开发示例: 在一个灯泡质检流程中,Pelican-VL将任务按机器人拆分为若干行为层任务,进而生成不同机器人动作层的函数调用。 例如,它会生成对「轮式人形机器人」执行「检查电控柜并启动系统」的函数调用指令,也会为双臂机器人生成「对灯泡进行结构与功能检测」的调用。 对于通用的操作函数,生成所需的控制参数,由专门的运动规划模块将其转化为关节轨迹和夹爪动作。 这种方式类似于一个项目经理给不同的团队下达精确的工作指令,Pelican-VL则通过多轮对话和分步指令,确保多台机器人的协同工作。 基于稳定多视角可供性的零样本操作 在更加通用的操作场景下,论文也给出了一个基于可供性进行任意物体操作的例子。 Pelican-VL先输出详细的视觉定位和功能性描述(如目标物体的抓取点、放置位置等),然后利用函数调用机制触发操作。 例如在通用抓取演示中,它会先生成多视角下的一致性预估(如抓取点、避障区域)以保证空间定位准确;接着将这些计划通过接口调用下发给运动控制单元。 这一流程就像「思维链」式的中间规划:模型内部先思考出清晰的步骤,再把每步落成可执行的函数调用,确保执行过程可控且透明。 通过函数调用,Pelican-VL不仅能处理单机任务,也可管理多机器人协作任务,进一步彰显了其在复杂系统中的实用性。 结语 此次Pelican-VL的开源,对于人形机器人产业与研究而言带来了两个正向价值: 首先它提供了一整套「视觉理解→长程规划→物理操作」串联的可复用训练范式,降低了在机器人中使用 VLM 的门槛; 其次,借助开源基础模型和推理代码,所有其他实验室或企业都可以在这个「脑」上做定制化训练,加速人形机器人在各行各业的落地探索。 作为拿下过全球首个人形机器人马拉松冠军、百米赛跑冠军的团队,北京人形机器人创新中心已经推出了具身智能的通用硬件平台「具身天工」和通用软件平台「慧思开物」两个开放平台,如今又在VLM上实现了重大突破。 不难看出,一切都是为产业落地提供更良好土壤,让国内的机器人厂商和开发者可以自由使用与定制人形机器人,加速研发进程,并且正在让具身智能机器人从最能跑,演化到最聪明和最好用的更高阶段。 根据了解,目前北京人形机器人创新中心还在推进「千台机器人真实场景数据采集计划」,让上千台机器人在工厂、仓库、酒店等场景中执行任务并采集数据。 而这些规模化的多模态数据与Pelican-VL结合,将推动其在制造业自动化、智能物流、零售无人化和家居服务等多领域的快速适配和优化。 对于制造业企业来说,基于Pelican-VL快速开发特定场景下的应用方案,可大大降低开发成本和难度。 长期来看,Pelican-VL及其后续版本将促进国内形成完善的通用机器人智能平台,推动更多种类的机器人像安装「通用智能操作系统」一样迅速获取新能力,让人形机器人更低门槛、低成本、高效率的走进不同制造业、工业体系。
男子用虚拟号打车不付款骗取滴滴30万 涉嫌诈骗罪被公诉
快科技11月14日消息,据媒体报道,11月11日,北京海淀法院开庭审理了一起涉嫌诈骗的案件。 一男子通过购买手机号注册新用户的方式,致使滴滴公司遭受高达人民币30万余元的损失。 据了解,在2023年至2024年期间,该男子在网络上大量购入非实名认证的虚拟号。 随后,他以“低价叫车”为诱饵,吸引乘客选择其提供的网约车代叫服务。 具体操作中,男子先收取乘客支付的部分车费,这笔费用大约是实际车费的五折。 之后,他利用虚拟号具有隐蔽性的特点,在乘客完成乘车后,拒不向滴滴平台支付实际产生的费用。 通过这种手段,男子不断累积非法所得,给滴滴公司造成了累计人民币30万余元的损失。 庭审过程中,男子对自己的犯罪事实供认不讳。他坦言,自己正是看准了滴滴平台“先乘车后付款”的机制,觉得坐完车不付车费也“有机可乘”,于是才想出从乘客处收取折扣车费,事后弃号并更换新手机号继续实施此类行为的“歪点子”。 检方在综合考量案件事实与证据后认为,男子的行为符合诈骗罪的构成要件,应当以诈骗罪追究其刑事责任。 在法庭上,男子表示已经深刻认识到自身错误,对被害单位滴滴公司深表歉意,同时明确表态愿意赔偿被害单位的全部损失,并希望法庭能够对其从轻处罚。 目前,该案庭审已结束,法院将择日对此案进行宣判。
央视:Kimi海外出圈 DeepSeek时刻再现?
据央视中文国际频道《今日亚洲》报道,这两天,又有一款中国AI模型火了。在DeepSeek在全球掀起冲击波不到一年后,另一家中国科技企业再次让西方科技业界惊呼连连。白宫官员坦言,不能再抱有“中国AI远远落后”的想法。 央视报道称,11月6号,中国科技企业月之暗面发布最新AI模型Kimi K2 Thinking,在部分基准测试中的表现超越GPT-5等全球顶级模型。截至11月10号,Kimi K2 Thinking成为全球最大AI开源社区Hugging Face(抱抱脸)上最受开发者欢迎的开源模型。 除了性能上的突破,一则传闻的出现更是引发了市场强烈关注:据美国CNBC电视台报道,Kimi K2 Thinking的训练成本仅为460万美元(约合3300万元人民币)。有分析指出,这意味着,中国企业仅用了OpenAI训练GPT5不到1%的成本就训练出了不输GPT5的顶级大模型。 “这是另一个DeepSeek时刻吗?” “抱抱脸”公司联合创始人托马斯·沃尔夫在个人社交账号上问道。他表示,“开源模型再次超越了闭源模型。今后我们每隔几个月就会遇到这种情况吗?” 美国CNBC电视台主持人迪尔德丽·博萨表示,来自中国初创公司月之暗面开源的模型Kimi K2 Thinking在多项基准测试中表现优异,据称训练成本却不足500万美元,这听来像是个熟悉的故事,完全符合自今年初以来。中国人工智能领域逐渐显现的发展脉络持续以远低于同行的预算不断缩小性能差距。 Kimi K2 Thinking的成功,再次引爆科技界关于AI发展路线的讨论。《华尔街日报》指出,目前美国科技公司正在以前所未有的力度建设数据中心等AI基础设施,投入之大已经引发了投资者和行业高管对AI泡沫的担忧,正是这种担忧在一定程度上导致了近期美股的震动。
摩根大通给AI投资算了笔帐:每位iPhone用户月均多花250元,才能回本
11 月 10 日,摩根大通发布了一份重量级的 AI 产业研究报告,把当前的行业格局几乎“解剖式”地呈现在读者面前: 从美国数据中心建设到底推进到哪一步、电力系统承受了多大压力,到科技巨头的资本开支、融资来源、债务结构,再到行业商业化变现的逻辑与算不算得清的经济账。 这是一份数据极其详实、覆盖面极广的底层研究,基本把市场最关心的问题都讲清楚了,值得反复研读。 报告里有几个特别值得关注的结论: 1)美国的数据中心建设正从科技巨头向更多企业扩散,而这一波建设热潮几乎单枪匹马撑起了美国今年的非住宅建筑投资。扣除数据中心,非住宅建设今年实际上是负增长的,可见 AI 基建已经变成美国经济的一根主梁。 2)虽然全美规划中的数据中心容量超过 300 吉瓦,但真正能落地的,摩根大通认为只有 175–200 吉瓦。即便如此,未来十年每年仍将新增 18–20 吉瓦,是过去年均 4 吉瓦的五倍以上。 3)从 2024 年 9 月到 2025 年,美国有超过 100 吉瓦的新发电项目在排队并网,天然气依然是主力,其中天然气规划容量一年内暴涨 158% 至 147 吉瓦。这也反映出:电力供应已经成为制约 AI 扩张的第一瓶颈。 4)微软、亚马逊、Meta 等巨头虽然账面现金惊人,但持续两位数增长的资本开支正不断压缩自由现金流,迫使它们从“自己掏钱”转向“借钱建 AI”。与此同时,数据中心相关的证券化融资规模也在快速攀升,成为新型的基础设施融资渠道。 5)更关键的是,摩根大通测算,如果要让 AI 基建达到 10% 的合理投资回报率,整个行业未来每年必须创造 6500 亿美元左右的收入,相当于全球 GDP 的 0.6%。换句话说,这相当于让每位 iPhone 用户每月多付 35 美元、一年多付 420 美元。 而作为参照,去年全球iOS用户平均每月在 App 上的支出仅 10.4 美元——要达到这个收入目标,意味着 AI 的变现能力必须比今天提升 三倍以上。 / 01 / AI基建,成美国经济增长“顶梁柱” 过去,大家习惯用“兆瓦(MW)”来衡量数据中心的电力规模;现在,行业越来越多地使用“吉瓦(GW)”。1吉瓦等于1000兆瓦,单位变化本身就说明了一件事:数据中心正进入一个以“千倍量级”扩张的时代。 历史上,数据中心每年的新增装机容量只有约 2 吉瓦。但进入 AI 热潮后,增速陡然抬升:2024 年翻一番,2025 年再翻倍,2026 年甚至可能突破 10 吉瓦。 一些企业已经披露,GPU 订单的同比增长超过 70%,行业显然正在进入一个高速增长周期。 设备供应商 Vertiv 的预测也印证了这一趋势:2025 到 2029 年,全球将新增约100吉瓦的装机容量。要知道, AI爆发前,全球数据中心总装机也不过50吉瓦。这意味着,数据中心行业只用五年时间,就要再造过去两倍的容量。 那么,浩浩荡荡的数据中心建设大潮究竟是谁在建呢? 当前的数据中心扩张仍由云计算三巨头(AWS、微软和谷歌)主导,但新的参与者正迅速加入战场。过去一年里,非巨头企业手中的项目规模已经占到约四分之一的市场份额。 参与者的数量正在以指数级速度增加。截至目前,已有约65家公司手上有超过1吉瓦的待建项目,而去年这个数字还只有23家,此外还有近200家企业正在积极推进数据中心业务。 摩根大通估算,这些投资大约支撑了1.9万到2万 EFLOPS(艾级浮点运算)的GPU算力,而2023年全球只有约 2000 EFLOPS。算力在短短两年间扩张了接10倍。 这些数据中心建设的进展如何? 美国人口普查局已经将“数据中心支出”独立统计。从最新数据看,数据中心仍在推动美国的非住宅建筑投资。尽管当前支出规模不算最大,但在整个非住宅建筑里占比已达6%,未来仍有巨大空间。 制造业支出虽然是它的五倍,但如果将数据中心剔除,美国今年的非住宅建筑投资其实是下降的。因此,数据中心几乎成了所有行业里唯一逆势扩张的板块。 为了进一步验证趋势,摩根大通自2023年1月起建立了一套追踪系统。截至目前,美国在规划或推进中的数据中心项目总规模已超过315吉瓦,仅2025年初这一季度就新增了165吉瓦。去年同期还只有约 130 吉瓦,而到了 2022 年底,美国 AI 相关装机容量也才 20 吉瓦。 但如果从落地角度看,情况就没那么乐观了。摩根大通追踪的600多个数据中心项目中,真正建成并投入使用的只有极少数。 目前美国在建数据中心的装机量仅约 25 吉瓦。虽然我们追踪的项目中潜在规划容量超过 300 吉瓦,但这个数字建立在一个并不现实的前提之上:所有剩余土地都能顺利开发。 考虑到选址、电网、环保、设备供应链等各种限制,更可信的规划区间应在175到200吉瓦之间。即便按这个更保守的范围来计算,未来十年每年仍然会新增18到20吉瓦的能力,是过去年均4 吉瓦的五倍以上。 更大的限制来自供给端,而不是需求端。美国当前的电网根本无法支撑300吉瓦级别的数据中心同时运行,电力基础设施已经成为行业扩张的最关键约束。 / 02 / 需求增长翻倍,电力真不够用了 美国数据中心的数量正在急速增加,但电力系统却明显跟不上节奏。 劳伦斯伯克利国家实验室预计,到2028年,美国数据中心的年度用电量可能从现在的175TWh 飙升至 325–580 TWh。 为了支撑这股需求,美国至少需要新增100吉瓦的发电能力,否则大量新建的数据中心将面临“建好了却无法开机”的窘境。 问题在于,新增电力产能并不是一件能立刻解决的事。天然气发电设备从订购到交付需要3–4 年,新建核电站往往需要10年以上,还高频超预算。 于是,越来越多科技巨头开始考虑“自建电厂”(BYOG,Build Your Own Generation),但这同样面临漫长审批、建设周期和前期资金投入等障碍。 未来几年确实会有不少发电项目上线。仅在2024年9 月至2025年间,就有超过100吉瓦的新发电容量正在排队并网,其中天然气依旧是主力,因为其成本、稳定性和扩张速度都更具现实性。 天然气项目的规划容量已升至 147 吉瓦,较去年同期暴涨 158%。可再生能源占据了电网并网排队的第一名,但许多项目只是为了抢税收优惠,真正能快速投产的比例并不高。至于核能和储能等更具前景的技术,近几年几乎没有新增项目,短期内无法指望。 更关键的是,即便不算上 AI 数据中心,美国的电力需求也已经在稳步上升。 家庭用电设备更多、电动车普及加速、商业与工业建筑越来越“电气化”,使得美国过去十年电力需求的年均增速维持在1%左右。而现在,光是 AI 数据中心这一项,就可能直接将需求增速翻倍至2%或更高。 但由于过去几年电价长期偏低,叠加疫情与供应链阻塞,许多电力公司对于新增电厂投资极为谨慎,导致供给端明显滞后。 近年来,美国居民用电价格已累计有不小的上涨,引发外界担忧:是不是数据中心把老百姓的电都“抢走了”? 监管机构也开始重点盯紧这一问题,特别关注两点: 第一, 不能让普通用户替数据中心买单。因此,现在的数据中心购电协议(PPA)通常都附带高额违约金条款,确保企业提前退出不会把成本转嫁给居民; 第二,要避免“特权电价”。如今大多数数据中心采用所谓的“表前”购电模式,与普通用户一样直接从电网采购,不再通过优惠政策挤占其他用户资源。 从全国范围看,居民电价占收入的比例整体仍处于可控区间。但在一些电价本就偏高的州(如加州、新泽西),用电负担已经不轻,因此监管部门格外敏感,不断强化对数据中心扩张与当地电力负担之间关系的审查。 / 03 / 科技巨头进入“债务融资”时代,Oracle压力最大 AI 的爆发让数据中心和算力投资进入前所未有的加速期:全球数据中心资本开支已经冲到每年 4500 亿美元。 尽管微软、亚马逊、Alphabet、Meta、Oracle 等超级科技公司仍保持强劲现金流,但持续两位数增长的资本开支逐渐压缩了自由现金流,迫使它们从“自掏腰包”转向债务融资: Oracle 在 9 月发行了 180 亿美元债券; Meta 刚完成创纪录的300亿美元发债; Alphabet 过去一年累计发债 360 亿美元,并在欧元与美元市场形成“常态化”融资节奏。 这些资金几乎全部用于支撑 AI 芯片、数据中心、电力、服务器等巨额投入。 谷歌手上有约 1000 亿美元现金,负债率极低,因此能够维持“正常化发债”策略,比如每年发债约 350 亿美元,同时保持资产负债表稳健。 Meta则在融资方式上走出了更激进的路线。以不久前规模 273 亿美元的 Beignet Investor LLC 交易为例,Blue Owl 持有该项目80%权益,不会在 Meta 的资产负债表上立即体现。 只有到2029年项目进入租赁期后,相关义务才会计入债务指标。这种结构让 Meta 能更轻装扩张、减少公开市场发债频率。 相比之下,亚马逊的情况反而更微妙。它的资本开支最高,2025 年预计将达到 1500 亿美元,但三年来没发过新债。如果 AI 投资继续上行,亚马逊大概率会重返债券市场。 微软依旧是最“财大气粗”的玩家:现金最强、资产负债表最稳,对发债需求最小。过去大型收购(如 750 亿美元收购动视暴雪)也倾向于全现金完成。 与此同时,微软正通过投资 CoreWeave、nScale 等第三方基础设施,借“外部云”分摊自建压力,实质上是一种“资本轻量化扩张”。 压力最大的无疑是 Oracle。它的债务问题早已成为结构性风险。截至2026财年一季度,Oracle 的总债务达到910 亿美元,9月再发180亿美元,使公司债务突破1000亿美元。 市场对这批债券的认购很热情,订单高达 880 亿美元。摩根大通认为,投资热情更多来自市场缺乏“AI 主题”投资级新债,而不是Oracle信用优异。 虽然Oracle短期债务压力不大,但从2026年开始,公司面临的到期规模会迅速抬升:2026年有57.5亿美元到期,2027年还要还50亿美元。 叠加高资本开支与分红需求,Oracle未来几年大概率将成为公开债市的常客。不过,Oracle 的评级处于BBB中段,且展望为负,后续的融资灵活性正在下降。 虽然这些科技巨头仍然是全球最受欢迎的投资选择,但市场情绪也在微妙变化。Meta 的 300 亿美元发债曾让利差走高约20个基点,Oracle的180亿美元发债利差走高30–40个基点,说明投资者开始更加审慎定价“AI 债”。 与此同时,像Beignet这样的结构化融资正在走向主流。它本质上是一种“租用自己建的数据中心”、但由外部私募基金先行购买资产的方式: 钱由 Blue Owl 等机构出,Meta 在账面上保持轻负载,未来按租金使用自己的数据中心。这让科技公司能在保持信用评级的前提下继续扩张。 除了科技巨头融资外,数据中心的证券化发行规模迅速攀升。 今年以来,相关 ABS、CMBS 发行量已经达到 212 亿美元,比去年几乎翻倍,占整个新发行市场的 5%。大部分交易都来自已经建成并投入使用的数据中心,因为成熟项目风险小、租金稳定,投资者更放心。 目前,市场上“用证券化融资建设中项目”的情况依旧稀少,仅出现过一笔规模 4.74 亿美元的此类交易,用于伊利诺伊州一个30兆瓦的数据中心,融资利率明显高于成熟项目。 与此同时,AI 相关企业的债券发行量正在猛烈增长: 数据中心类债券今年已发行440亿美元,是2024年的10倍; 投资级科技企业债券占整个债市的14.5%,已经与美国大型银行齐平。 从目前看,市场有足够多的钱来“接住”这一轮 AI 债,其中美国高收益债市场规模1.56 万亿美元,杠杆贷款市场规模1.67万亿美元,私募信贷管理规模1.73万亿美元,闲置资源还有4660 亿美元。 换句话说,市面上至少有 5 万亿美元 的“杠杆资本”正在四处寻找新资产。而AI很有可能成为这些钱的目的地。 / 04 / AI想投资回本,每个苹果用户每月要多花250块 在当前这轮 AI 投资热潮中,真正的不确定风险只有两个:能否变现,以及会不会被技术颠覆。 首先必须承认,AI 不是一笔小投资。整个行业的建设成本可能超过5万亿美元,不仅包括数据中心、电力和 GPU,还包括配套的能源设施、土地、冷却系统和人力成本。 真正决定成败的,是这些投入能不能赚回来,以及未来技术是否会让现有投资变成沉没成本。 历史上,我们见过类似的场景。二十年前的电信行业,大量企业砸钱建设光纤和无线网络,期待互联网流量带来长期增长。但现实是,需求远没有想象中那么快,商业模式也难以覆盖巨额建设成本,最终泡沫破裂、大量企业倒下。 那段历史说明:技术革命本身不赚钱,赚钱的是商业模式。 今天的 AI 同样如此。AI 数据中心可以不断建,但谁来为这些算力买单?消费者是否愿意每月多掏几十美元?企业是否真的能用 AI 提升效率、增加收入?这些问题至今没有定论。 以谷歌为例,AI确实在改变它的核心业务,搜索。 越来越多用户不再点击传统搜索链接,而是直接阅读AI生成的答案。这让依赖搜索流量的网站访问量下降了30-40%,影响巨大。但对谷歌自身而言,这种转变或许是好事,因为它逐步从“推荐搜索结果”转向“直接给出答案”,强化了用户黏性,提升了变现潜力。 关于AI投资回报,摩根大通做了一个非常有意义的敏感性分析: 如果要实现10%的合理投资回报率,未来每年AI行业可能需要创造约6500亿美元收入,相当于全球GDP的近0.6%。 为了让这个数字更直观:这就像让每位iPhone用户每月多付35美元,一年多付420美元;或者Netflix用户每月多交180美元,一年多付2160美元。 这是什么水平?根据外网一个博客的数据,2024年iOS的活跃用户为14.6亿至18亿,用户每月在应用上的花费为10.4美元,相当于比原有花费增加3倍多。 如果回报率上升至14%,这个数字则上升至53美元和274美元。 虽然我们不指望消费者承担所有成本,但问题是,目前AI带来的效率提升,是否已经能创造这么大的价值? 另一个风险在于“技术效率的极端跃升”可能带来的冲击。今年1月,DeepSeek发布了R1模型,号称性能媲美OpenAI但成本更低。 消息一出,英伟达市值瞬间蒸发6000亿美元。这类突如其来的技术进步,让市场重新思考AI行业的成本结构与领先地位。 如果真的有公司能用更低成本提供相同算力,那么现有投入的商业价值就可能被重估,形成“范式转移”。 当前,大量中小公司也在积极参与AI基础设施建设。例如WULF、Cipher这些公司通过发债融资建设AI数据中心,再把算力租给谷歌等大客户。这些项目的一个特点是: 风险由大公司兜底(比如谷歌承诺支付租金),看起来更稳健。但这类模式也可能放大了市场对未来AI需求的乐观预期,如果后续变现不及预期,小公司或成为最先受影响的链条。 当然,便整个行业的收入规模不如预期,也有可能出现另一种情况:赢者通吃。少数真正具备技术、资本、生态优势的企业跑出来,其余玩家难以为继。 PS:如果你对AI大模型领域有独特的看法,欢迎扫码加入我们的大模型交流群。
TCL华星DTC2025发布多项全球首发显示技术:AI与印刷OLED成核心驱动
凤凰网科技讯 11月14日,在一年一度的全球显示行业焦点盛会上,TCL华星于苏州举办DTC2025大会,围绕AI与显示技术的融合趋势,展示覆盖LCD、OLED、MLED在内的全链条新品与技术进展,并发布《视觉健康白皮书2.0》。今年的大会呈现出一个明显信号:AI正成为显示产业的核心驱动力,而印刷OLED等前沿技术正在加速落地。 TCL创始人李东生在寄语中提到,经过十余年投入,TCL华星在印刷OLED领域已建立关键技术优势,并希望进一步推动行业应用落地。TCL科技首席运营官王成也提到,“AI正在重构显示产业的价值链”,TCL华星正在以“AI五星架构”推动研发到制造的全面升级。 会上,TCL华星披露其自研大模型 星智 X-Intelligence 3.0 的最新能力,这是显示产业垂直场景中的代表性大模型,正逐步应用于良率优化、排产效率、虚拟仿真等环节。根据官方介绍,其“1湖1模3平台”架构已覆盖制造、研发和运营全链条。 技术展示方面,TCL华星公布多项新品,其中包括 全球首款Real Stripe RGB OLED手机显示(5.65")、全球最高分辨率硅基Micro LED(0.28")、全球最高PPI玻璃基OLED(2.56") 等多项原型产品。尤其是在印刷OLED方向,TCL华星称基于高精度打印技术实现了390PPI,并可在能耗上实现大幅节约。例如,t12 G5.5代线的数据显示,通过减少真空制程,全年节电量可达数亿度。 TCL华星首席执行官赵军表示,企业正在通过AI与显示的“双向驱动”打造下一代交互体验,“一块屏幕成为AI时代人与数字世界的重要接口”。他同时强调,印刷OLED在成本、能耗、产业链自主等方面正展现战略价值。 大会还发布《视觉健康白皮书2.0》,由TCL华星联合国家眼视光中心、联想、好未来、CVTE等机构共同完成。白皮书提出自然光显示的六大核心特性,并展示XRGB、随机非偏、全局DC等底层技术,用于改善用户长时间使用屏幕时的视觉体验。多位专家在会上强调,“护眼技术不应是卖点,而是行业基础能力”。 此外,TCL华星旗下先进显示品牌APEX臻图也在大会亮相,持续推动在教育、车载、商显等场景的应用落地。好未来高层在分享中提到,双方正共研适配学习场景的显示方案,如“一屏三模”与更适合课堂应用的比例屏等。 从产业趋势来看,DTC2025展示了中国企业在印刷OLED、Micro LED等前沿方向上的稳步突破,也体现出显示产业从“技术领先”向“生态协同”扩展的路径。TCL华星方面表示,将继续与全球合作伙伴展开技术协作,推动显示产业向更高质量与更低能耗方向演化。
苹果宣布取消MLS付费观赛门槛,向所有Apple TV订户免费开放
IT之家 11 月 14 日消息,苹果宣布自下赛季起将取消观看美国职业足球大联盟(MLS)比赛的独立的订阅服务 MLS Season Pass,使所有 Apple TV 订阅者都能免费观看 MLS 赛事。 苹果与 MLS 于 2022 年达成为期 10 年、价值 25 亿美元(IT之家注:现汇率约合 177.51 亿元人民币)的合作协议。其中原先约定部分常规赛及季后赛比赛将向 Apple TV+ 用户开放,但多数比赛仍需要额外订阅 Season Pass。 苹果近期在美国市场击败 ESPN 拿下 F1 一级方程式赛车的转播权,未来 F1 比赛同样将向美国 Apple TV 订阅用户开放。 苹果近年来持续扩展 Apple TV 的内容与可及性,包括推出与 Peacock 的捆绑方案,以及与 Chase 合作为其 Sapphire 信用卡持卡人提供免费访问权益。此外,体育直播仍是 Apple TV 内部唯一投放广告的内容领域,扩大覆盖范围被认为有助于相关业务发展。 苹果服务业务高级副总裁艾迪・库(Eddy Cue)表示:“我们非常高兴能在明年赛季通过 Apple TV 将 MLS 带给全球更多球迷。所有比赛集中在一个平台,同时还有精彩的 Apple Originals —— 这对所有球迷来说都是好消息。” MLS 专员唐・加伯(Don Garber)则表示:“我们与苹果的合作始终着眼于为球迷带来创新。让所有 MLS 比赛登陆 Apple TV,是让全球球迷更容易观看、参与并融入比赛的重要一步。” 另外,2026 年北美将共同举办国际足联世界杯,MLS 许多球员也将参与该赛事。联盟此前期望借世界杯带动的关注度来推动自身发展。 此外,MLS 与苹果最近在康涅狄格州斯坦福市启用新的专属制作设施,用于提升赛事内容制作的效率与质量。该设施包括虚拟制作工作室和比赛与图形的集中控制中心。
多家手机厂商被曝暂缓采购存储芯片,小米、OPPO、vivo 库存普遍低于两个月
IT之家 11 月 14 日消息,由于上游存储芯片价格持续显著上涨,多家主流手机制造商已决定暂缓本季度的存储芯片采购计划。 据界面新闻今日报道,小米、OPPO、vivo 等厂商库存普遍低于两个月,部分厂商 DRAM 库存低于三周,在犹豫是否接受原厂接近 50% 的涨幅报价。 存储芯片原厂方面则表示当前供应压力较小。一位原厂员工表示,若手机厂商不接受当前报价,原厂可以将产能转向同样需求旺盛且愿意支付更高价格的服务器客户。 在人工智能大模型应用快速发展的推动下,数据中心对存储芯片的需求激增,成为此轮涨价的重要因素之一。据业内人士透露,相同规格的存储产品,面向服务器厂家的报价通常比面向手机厂商高出 30% 以上。 存储芯片市场近期供应趋紧。三星电子已于 10 月暂停了 DDR5 DRAM 的合约报价,预计恢复时间推迟至 11 月中旬,此举导致 DDR5 现货价格在一周内大幅上涨约 25%。 同时,包括三星、SK 海力士、铠侠和美光在内的主要存储芯片制造商,今年下半年均采取了削减 NAND 闪存产能的措施,旨在推动 NAND 价格上涨。具体来看,三星、铠侠、SK 海力士均下调了年度 NAND 晶圆产量目标,美光则在新加坡的最大 NAND 工厂维持了相对保守的产量。 行业分析指出,人工智能需求的爆发促使更多生产线转向四层单元(QLC)工艺,这也在一定程度上影响了传统 NAND 闪存的总体产量。面对 NAND 价格可能继续上涨的预期,北美大型科技公司已加大采购力度,部分供应商明年的 NAND 供货量已被提前预订。此前,存储芯片厂商闪迪已在 11 月大幅上调 NAND 闪存合约价,涨幅高达 50%,并引发了美光等其他主要厂商的跟进调价。 存储芯片是手机的关键组件,其成本在整机中占比通常为 10%-30%,在某些高配置机型(IT之家注:如 12GB+512GB 版本)中占比可超过 20%,仅次于手机处理器。价格的上涨已对终端产品产生传导效应。有报道称,本季度存储芯片价格的大幅上涨已导致部分中高端手机价格上调 100 至 500 元人民币,例如 OPPO Find X9 系列不同存储配置版本的价差达到了 900 元。 存储芯片涨价正对手机行业的产品规划和成本控制带来挑战。有国内手机品牌内部人士表示,各厂商目前正密切观望竞争对手明年的产品策略,在存储成本上升的背景下,是选择降低配置还是提高售价尚未有定论,部分项目甚至因成本过高而被搁置。晶圆代工厂商中芯国际的联合 CEO 赵海军在近期业绩说明会上也提到,存储芯片的供应短缺和价格上涨,使得手机及网络通信设备等行业在采购上趋于谨慎,并影响了部分手机类产品的出货节奏。 供应链信息显示,存储芯片原厂通常保有 6 至 8 周的库存。目前主要原厂的库存水平已降至较低位,短期内价格下调的空间有限。有知情人士分析,当前市场处于多方博弈阶段:原厂出于维护长期客户关系的考量,仍会优先保障对手机厂商的供应;手机厂商则希望有同行能率先与供应商达成新的价格协议,为后续谈判提供参考基准,但目前可能只有苹果公司具备较强的议价能力。 对于未来走势,业内人士预计,即使存储芯片原厂现在决定扩大产能,新产能释放也需要一到两年时间。而当前由人工智能热潮带动的需求增量,其实际规模尚需时间验证。主要原厂如三星、SK 海力士等更倾向于通过控制产量来维持价格和利润水平。因此,市场普遍预期存储芯片价格在明年上半年可能面临进一步上涨的压力。
马斯克驳斥关于xAI完成150亿美元融资的报道:假的
IT之家 11 月 14 日消息,埃隆・马斯克驳斥了有关其人工智能初创公司 xAI 完成 150 亿美元(IT之家注:现汇率约合 1065.06 亿元人民币)融资的报道。该融资传闻最初由 CNBC 报道,该媒体援引了据称熟悉此事的消息人士的说法。 据 CNBC 报道,其消息源称,此轮融资所获资金将用于采购训练 xAI 大型语言模型 Grok 所需的 GPU 算力资源;报道同时指出,此轮融资后,xAI 估值已达 2000 亿美元。 近期,人工智能初创企业融资活动频繁。例如,OpenAI 于 10 月完成 66 亿美元融资,估值飙升至 5000 亿美元;路透社上月亦报道称,OpenAI 正筹备以 1 万亿美元估值进行首次公开募股(IPO)。在此背景下,马斯克创立的 xAI 正加速追赶,并意图挑战 OpenAI 及其广为人知的大型语言模型 ChatGPT。 针对上述报道,马斯克在社交平台 X 上仅以“虚假”(false)二字予以回应,并未进一步说明整篇报道是否全然失实,抑或仅存在部分不准确之处。 值得一提的是,当路透社就此事向 xAI 求证时,该公司竟以一则看似自动生成的回复予以回应:“传统媒体谎言”(Legacy Media Lies)。 xAI 成立于 2023 年 7 月,该公司正大力构建基础设施,以支撑其核心产品 —— 包括 Grok 大模型及近期推出的 Grokipedia 平台。目前,xAI 正在田纳西州孟菲斯市建设名为“Colossus”(巨像)的超级计算机集群,该项目被广泛视为全球规模最大的超算集群之一。
这家AI数据分析创企被英伟达看中,拿下3亿融资,谷歌前工程师联合创立
智东西 编译 | 王欣逸 编辑 | 程茜 智东西11月14日消息,11月12日,美国AI数据分析创企WisdomAI宣布完成5000万美元(约合人民币3.55亿元)A轮融资,本轮融资由凯鹏华盈(Kleiner Perkins)领投,英伟达风投部门NVentures跟投。此次融资距离其5月完成种子轮融资仅过去了约6个月。 新融资将用于加速升级Agent功能、集成数据生态系统等。 WisdomAI创立于2023年,由美国数据安全公司Rubrik联合创始人索汉·马祖姆达尔(Soham Mazumdar)及其他三位联合创始人创立,团队是Rubrik原班底,具备数据安全、企业数据仓库等相关专业技能。 WisdomAI联合创始团队(图源:WisdomAI) WisdomAI联合创始人兼CEO马祖姆达尔曾在谷歌担任工程师工作了六年,从谷歌离职后,马祖姆达尔联合创立了美国数字营销公司Tagtile,这家公司后来被Meta收购。随后,马祖姆达尔再次创业,联合创立了美国数据安全公司Rubrik,并担任Rubrik首席架构师。WisdomAI已经是马祖姆达尔参与联合创立的第三家公司。 2025年5月,该公司宣布完成由Coatue领投的2300万美元(约合人民币1.63亿元)种子轮融资。 WisdomAI面向企业客户推出了AI驱动的对话式商业智能(BI)平台,提供AI数据分析业务,用户只需用自然语言提问便可获取分析后的答案。该平台支持处理结构化和非结构化数据,还具备处理未经过清理、存在错别字或错误的数据的能力。 对话式BI平台(图源:领英) WisdomAI不直接使用大模型来撰写回答,而是仅将其用于检索数据仓库,执行数据查找指令。这意味着,如果大模型出现幻觉,它只会编写无效的查询语句,而不会编造虚假答案。 今年9月,WisdomAI还推出了主动型Agent功能,能24小时监控数据指标、发现异常情况并分析数据。 主动式Agent功能(图源:WisdomAI) WisdomAI首席执行官马祖姆达尔称,该公司已经拥有了约40家企业客户,包括美国通讯巨头思科、美国软件服务公司Descope、美国石油公司康菲石油等知名企业。此外,企业客户内部的用户正在增加,马祖姆达尔称:“有些企业在两个月内使用用户数翻了一番,还有一家企业从10个用户扩展到了450个用户,几乎让该客户公司的所有员工都使用上了WisdomAI。” WisdomAI主要客户(来源:WisdomAI) 结语:WisdomAI用AI驱动BI升级 WisdomAI称:“过去的BI只提供被动的、静态的仪表板,而Agent的参与超越了传统式的BI,Agent能学习、记忆、解释、制定策略并采取行动。” 英伟达等资本押注WisdomAI,实则也在押注这种转变着的数据交互方式:从只有企业业务部门集中掌控数据分析技能,到每一位员工都可以进行数据分析。在AI时代,这种转变正在悄然发生。
第一波 2025 年度词汇出炉,一半毫无悬念,一半完全懵圈
近几年,各大词典评选的年度词汇中,AI 相关的新词异军突起。最新出炉的 2025 年柯林斯词典年度词汇,选择了「vibe coding」,这个今年几乎是最热门的 AI 技术。 如果再往回拨一点,稍早前牛津、韦氏、Dictionary.com 和剑桥等机构发布的一系列热点词,不难发现,AI 已经深刻影响了我们的语言,已然是生活中的高频词。 Vibe Coding:年度最热门技术词 「Vibe coding」在中文里并没有一个完美的翻译,比较流行的译法是「氛围编程」。这个词最早由特斯拉前 AI 总监、OpenAI 创始工程师 Andrej Karpathy 提出,形象地描述了 AI 能让人们「几乎忘记代码本身存在」也可以开发应用的情景。 不懂编程的用户,用自然语言对话,就生成计算机代码。开发者只需要告诉 AI 自己想要一个什么功能或应用,AI 就能自动生成,实现「凭感觉,写代码」的效果。 「Vibe coding」之所以能够登上 2025 年度词汇宝座,一方面从数据上能看出来——自 2025 年 2 月首次出现以来,这个词在媒体和社交平台上存在感飙升,贯穿了一整年。柯林斯词典的语言学家从包含 240 亿词汇的语料库中捕捉到了这一趋势,认为这个词充分反映了一年来语言的演变。 另一方面,这个选择揭示出 AI 技术在 2025 年的社会文化热度之强:程序员群体在讨论,普通用户也在谈论,「AI 可以帮我写代码」已成为大众认知的一部分。正如柯林斯官方博客所说,这个词「捕捉了我们与科技演变中的某些根本变化」,它不仅在硅谷科技圈内流行,更折射出 AI 作为「超强辅助」,已渗透日常生活的广泛文化转向。 今年的柯林斯 2025 年度词汇候选名单可谓科技味十足。同榜的还有「clanker」,这个词源自《星球大战》,不过,现在它多用于对 AI 聊天机器人的批评,类似于中文语境里说的「人工智障」。 「biohacking」指生物黑客式的自我改造;「broligarchy」调侃科技富豪把持权力的「兄弟寡头政治」等。这些五花八门的新词一起勾勒出 2025 年的图景:从工作到娱乐,AI 正重塑我们的语言和生活方式。 技术语言如何渗透生活 实际上,从去年起,各大权威词典发布的年度词汇中,就有多条都和 AI 热潮有千丝万缕的联系。 牛津词典:Brain rot 脑腐 英国牛津大学出版社把「brain rot」(脑腐)评为 2024 年的年度词汇,是去年讨论度最高的一个年度词汇。这个带点夸张的俚语,指的是「大脑或智力状态的退化」,主要是用来形容过度沉迷于碎片化数字内容,从而导致的迟钝、注意力退化等等。 2024 年人们越来越注意到,无节制地刷社交媒体,大量低质、无营养的信息让人「脑子生锈」。这个词生动地概括了在碎片化内容时代,身心都在接受信息过载的挑战。牛津语言部总裁卡斯帕·格拉斯沃尔评价说:「brain rot 道出了数字生活潜在的危险。」他认为,这个词标志着有关人性与科技的新一轮文化讨论。 在无人注意的角落,牛津去年的年度词汇候选列表里,还有另一个与 AI 直接相关的词,「slop」,意指「由人工智能生成的劣质网络内容」。虽然最后未当选,但它出现在提名中本身就说明,AI 生成的内容,数量已经到了惹人反感的地步。 无论是「brain rot」还是「slop」,都从不同侧面反映出 2024 年人们对数字内容生态的担忧,以及 AI 算法在其中扮演的复杂角色。 韦氏词典:Authentic 真实 韦氏词典在 2023 年选择的年度词汇,是「authentic」真实的,同时也有「本真」的意思。这个词存在已久,但在充斥 deepfake 和 AI 生成内容的一年里,它的脱颖而出,意义非凡。 2023 年与 AI 相关的新闻和讨论激增,引发了人们对「authentic」这一概念的关注和大量查询,搜索量暴增。正是因为 AI 可以轻易生成以假乱真的图像、视频和文本,人们也就越来越难分辨真伪。所以,对于「真实的、原汁原味的」的追求成为社会心理的一个重要主题。 韦氏词典主编彼得·索科洛夫斯基在解释这一选择时提到,「authentic」有「非伪造、真实可靠」之意,也包含「忠于自我」的延伸意义。它成为年度词汇,某种程度上是对科技充斥下社会心理的映射:当聊天机器人可以模拟人类口吻聊天,当 AI 可以模仿名人声音,我们比以往任何时候都更加珍视人与信息的真实性。 剑桥词典:Hallucinate 幻觉 英国剑桥词典则把目光投向了「hallucinate」幻觉。剑桥将其评为 2023 年的年度词汇之一,原因在于这个心理学动词在当年获得了全新的技术含义。 原本,hallucinate 主要用来指因为生病或服药副作用,导致出现幻觉、看见不存在的东西。不过在 2023 年,人们开始用它描述大语言模型「胡编乱造、产出虚假信息」的现象。 剑桥词典专门为此新增了 AI 相关义项,并表示这一新义「切中了 2023 年人们热议 AI 的核心原因」——生成式 AI 功能强大,但不是没有问题,「hallucinate」正好一语道破了 AI 最大的弱点之一。 值得一提的是,剑桥选择「hallucinate」紧随柯林斯词典将「AI」本身选为 2023 年度词汇之后。也就是说,从「AI」这种宏大的技术概念,到「hallucinate」这样具体描述 AI 缺陷的术语,AI 相关词汇在权威词典的年度榜单上实现了连纵霸榜,说明了眼下 AI 居高不下的热度。 从「vibe coding」到「hallucinate」,AI 相关词汇接连登上年度词汇榜,绝非巧合。 当 AI 改变世界时,也在改变着我们的语言;它们有的描述了 AI 给生活带来的便利,有的反映出人们对 AI 潜在问题的担忧,还有的表达了数字时代人们内心的矛盾与诉求。这一系列语言现象背后,恰恰是 AI 正以前所未有的深度,介入我们的工作、娱乐和社交。语言的变化又反过来成为时代的一面镜子,折射出科技与社会的碰撞。 One More Thing 柯林斯是今年较早发布年度词汇的机构,另一个是 Dictionary.com,但是他们选择了一个奇怪的词:67。读作「六、七」,而不是「六十七」。 Dictionary.com 组委会分析了大量数据,包括新闻标题、社交媒体趋势、搜索引擎结果等,发现从 2025 年夏天开始,对这个数字的搜索量有明显的增长,而且一直在增长。 这个词的意思大概就是「还行」「凑合」「及格线」,六分七分吧。确实有点抽象,不好理解。Dictionary.com 的组委会说,他们还在努力弄明白它到底是什么意思,但它的确展现了一个新词,如何随着年轻人的爱用、多用而迅速风靡全球。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。