行业分类:
加载中...
头条分类:
加载中...
西部数据40TB机械硬盘年内登场,2029年冲刺100TB HAMR
IT之家 2 月 3 日消息,西部数据公布了其最新硬盘技术与产品规划,披露了从短期到长期的 HDD 路线图。 西部数据在周二的 2026 年创新日活动上宣布,公司计划在今年下半年推出基于 ePMR 技术的 40TB UltraSMR 硬盘。该产品采用叠瓦式磁记录(SMR)并结合 UltraSMR 增强方案,目前已在接受两家超大规模数据中心客户的认证。 西数还宣布将把能量辅助垂直磁记录(ePMR)硬盘扩展至 60TB 级,同时推进热辅助磁记录(HAMR)硬盘的量产进程,以确保未来数年内持续供应高容量硬盘。西数预计将在 2027 年完成 HAMR 客户认证并进入量产。更长期来看,西部数据计划在 2029 年推出 100TB 容量的 HAMR 硬盘。 对于最新路线图,西部数据明确表示 ePMR 与 HAMR 技术将在未来数年内并行存在。公司将继续利用 ePMR 技术推出更高容量的产品,直至单盘容量提升至 60TB,随后再由 HAMR 方案逐步接棒。HAMR 硬盘目前尚未公布首代产品的具体容量,但其定位将高于 40TB UltraSMR 产品。 西部数据还指出,下一代 ePMR 硬盘将“借鉴 HAMR 的创新成果,同时不增加功耗”。尽管公司未披露具体技术细节,但相关表述暗示 ePMR 与 HAMR 产品可能会共享统一的平台与新一代磁介质。例如,采用铁铂(FePt)材料的磁记录介质,有望将面密度提升至约 2.5–3.5 Tb / 平方英寸,从而实现更高的存储容量。 西部数据表示,这种并行发展的技术策略将为客户带来更高的灵活性。超大规模数据中心和企业客户可以根据自身节奏选择 ePMR 或 HAMR 技术,实现可预测的容量规划与平滑扩展,而无需被迫进行技术切换或对现有基础设施进行大规模调整。 在 Q2FY26 财季中,西部数据实现 30.17 亿美元(IT之家注:现汇率约合 210.12 亿元人民币)营收,突破 30 亿美元关口,同比增长 25%、环比增长 7.06%;出货容量合计 215EB,同比增长 22.16%、环比增长 5.39%。 西部数据表示该企业已与前七大客户签署了本日历年的采购协议,2026 日历年产能几乎售罄;五大客户中的二位的协议直到 2027 日历年,另一份更是延伸到了 2028 年。 该企业上一财季每 TB 价格小幅上涨 2~3%、每 TB 成本同比下降约 10%。UltraSMR 已贡献整体近线机械硬盘出货容量的一半以上,HAMR 与新一代 ePMR 技术平台已启动头部客户验证工作。
英伟达黄仁勋否认与OpenAI交易生变传闻:一切按计划推进
英伟达CEO黄仁勋否认与OpenAI关系紧张传闻,确认将参与OpenAI下轮融资并称其为"史上最大规模私募融资"。 2月3日周二,黄仁勋在接受CNBC Jim Cramer采访时明确表示公司投资OpenAI的计划仍在"按计划推进",否认了近期有关双方关系紧张的市场传闻。他强调: 完全没有争议,这些说法纯属无稽之谈......没有任何戏剧性,一切都在按计划推进......我们非常乐意与OpenAI合作。 黄仁勋进一步确认,英伟达将参与OpenAI下一轮融资,他称这将是"史上最大规模的私募融资"。周一Altman在社交平台上回应了有关公司与英伟达关系的议论: 我们非常乐意与英伟达合作,他们制造世界上最好的AI芯片。我们希望在很长时间内成为他们的大客户。我不明白这些疯狂的说法从何而来。 此前华尔街见闻提及,英伟达与OpenAI的“千亿美元大交易”陷入停滞。消息持续发酵,英伟达股价周一收跌近3%,今日周二开盘后继续下挫,跌超4%,领跌科技股板块,较10月高点已累计下挫16%。 英伟达承诺长期投资参与 黄仁勋周二表示,英伟达将投资OpenAI的下一轮融资,“这毫无疑问”。 他补充称,英伟达将考虑参与OpenAI未来的任何融资轮次,并希望参与OpenAI最终的IPO。 OpenAI自成立以来一直使用英伟达的GPU来构建和运行其AI模型。 去年9月,黄仁勋与OpenAI首席执行官Sam Altman共同宣布了一份意向书,英伟达计划分批向这家AI实验室投资最高1000亿美元。根据协议,OpenAI将基于英伟达技术构建AI基础设施,电力需求可达10吉瓦。 但近几个月,Altman表示OpenAI没有足够的芯片来满足ChatGPT等产品的需求,若能获得更多算力可产生更多收入。 OpenAI与英伟达的竞争对手达成芯片交易,包括AMD、博通和Cerebras。这一系列动作引发了市场对双方关系的猜测。
免费!OpenAI深夜送福利,发Codex应用,指挥多智能体干活
智东西2月3日报道,今日凌晨,OpenAI正式推出AI编程智能体Codex的macOS版应用程序。 这个新应用可以帮助开发者管理多个智能体并行工作,并与智能体在长时间运行的任务上协作。 其重要的更新在于,开发者通过Codex应用程序不仅能对单个编程智能体进行有针对性的编辑配对,还能监督跨设计、构建、发布和维护软件整个生命周期的协同智能体团队。 ▲Codex主界面 OpenAI联合创始人、CEO萨姆·阿尔特曼(Sam Altman)连发5条推文庆祝Codex应用发布,他直言“很惊讶自己会这么喜欢它(Codex)”。阿尔特曼还自曝前几周用Codex开发了一款应用,AI对新功能的建议很好,让他感觉“自己有点没用,让人难过”。 为了让更多人用上,发布前2个月,OpenAI将Codex包含进了ChatGPT免费版和经济型订阅套餐Go中,还会将Plus、Pro、Business、企业和教育计划的速率限制翻倍,也就是说免费用户可以限时尝鲜,付费用户体验更好。 同时,开发者可以在应用程序、CLI、IDE以及云端使用Codex。 OpenAI的官方博客提到,如今企业和开发者越来越依赖利用Codex进行端到端开发。自其12月中旬推出当时最强的智能体编程模型GPT‑5.2-Codex以来,Codex的整体使用量翻了一番。在过去一个月中,已经有超过一百万开发者使用Codex。 01. 同时处理多智能体工作 能独立工作不冲突 OpenAI 2025年4月推出了AI编程模型Codex。 这一模型现在能够处理端到端的复杂、需要长时间运行的任务。开发者也可以基于模型在多个项目中协调多个智能体,如为其分配工作,并行运行任务,让智能体承担需要维持数小时、数天或者数周的重大项目。 想要实现这样的能力,背后的核心挑战不止智能体能做什么,而是人们应该如何大规模引导、监督并与智能体协作。但现有的集成开发环境(IDE)和基于终端的工具,目前并不支持这样的协作形式。 基于此,OpenAI推出了Codex应用程序。Codex应用中有一个专注于多任务处理的智能体空间。 智能体可以在按项目组织的独立线程中运行,因此开发者可以在不丢失上下文的情况下无缝切换任务。该应用允许开发者在线程中查看智能体的更改,对差异进行评论,甚至可以在编辑器中打开它以进行手动更改。 该应用还内置了对工作树的支持,因此多个智能体可以在同一个仓库中工作而不会产生冲突。每个智能体都在开发者代码的隔离副本上工作,让其能够探索不同的路径,而无需跟踪它们会如何影响代码库。 当智能体工作时,开发者可以在本地查看其作出的更改,或者让它继续推进工作,不该动本地git状态。 Codex会从Codex CLI和IDE扩展中获取开发者的会话历史和配置。 02. 能自主使用技能 基于700万个token做了款赛车游戏 OpenAI的官方博客称,Codex正在从一个编写代码的智能体进化为一个使用代码完成用户电脑上工作的智能体。 基于新应用,开发者可以快速将Codex的功能从代码生成扩展到需要收集和综合信息、解决问题、写作等任务上。Codex将指令、资源和脚本等技能打包在一起,使其能够连接工具、运行工作流,并根据开发者团队的偏好完成任务。 Codex应用还提供了专门的界面,用于创建和管理这些技能。开发者可以明确要求Codex使用特定技能,也可以让它根据当前任务自动选用。 研究人员让Codex制作了一款赛车游戏,包含不同的赛车选手、八张地图,还有玩家可以用空格键使用的道具。 Codex独立工作,仅基于一个初始用户提示,使用超过700万个token构建了这款游戏。它既可以作为设计师、游戏开发者,还能担任游戏的QA测试员。 在OpenAI内部,研究人员已经构建了数百项技能,以帮助多个团队将工作委派给Codex。值得注意的是,这些工作往往难以被一致、清晰地定义,因为其范围涵盖运行评估、看护训练任务、撰写文档,以及汇报增长实验结果等。 ▲Codex使用技能完成任务 Codex应用包含了一系列在OpenAI中流行的工具和工作流程的技能库,其中一些技能如下所示: 实现设计:从Figma获取设计上下文、资源和截图,并将其转化为与原视觉完全一致的、可投入生产的UI代码。 管理项目:在Linear中筛选错误、跟踪发布、管理团队工作量等,以保持项目顺利进行。 部署到云端:让Codex将开发者的网页应用创作部署到Cloudflare、Netlify、Render和Vercel等云主机上。 生成图片:使用由GPT Image提供支持的图像生成功能,创建和编辑用于网站、UI原型、产品视觉效果和游戏资源的图片。 使用OpenAI API构建:在构建过程中参考最新的OpenAI API文档。 创建文档:一套用于阅读、创建和编辑具有专业格式和布局的PDF、电子表格和docx文件的功能。 03. 使用自动化委托重复性工作 两种风格可选 使用Codex应用,开发者还可以设置自动化任务,让Codex在自动计划下后台运行。自动化任务将指令与可选技能相结合,按照开发者定义的计划执行。当自动化任务完成后,结果会进入审核队列,以便开发者在需要时可以重新介入并继续工作。 在OpenAI,研究人员已经将相应能力用来处理重复但重要的任务,例如每日问题筛选、查找和总结CI(持续集成)失败、生成每日发布简报、检查错误等。 ▲Codex执行自动化任务 此外,Codex允许开发者选择两种个性,分别为简洁、务实的风格,以及更对话式、更具同理心的风格,其只需在应用、CLI和IDE扩展中使用/personality命令即可。 在安全设计方面,Codex应用使用与Codex CLI相同的原生、开源和可配置的系统级沙盒。默认情况下,Codex智能体仅限于编辑其工作文件夹或分支中的文件,并使用缓存的网络搜索,然后请求运行需要提升权限的命令(如网络访问)。开发者可以配置项目或团队的规则,允许某些命令自动以提升权限运行。 04. 结语:OpenAI Codex下一步 扩展全场景能力,电脑关机也能运行 下一步,OpenAI将继续扩展开发者在何处以及如何使用Codex,包括在Windows上提供应用、推出更快的推理功能等。 在Codex应用中,研究人员将根据现实世界的反馈不断改进基于多智能体的工作流程,使管理并行工作和在不同智能体之间切换而不丢失上下文变得更加容易。他们还正在构建支持基于云的触发器的自动化功能,以便Codex可以在电脑关机的情况下,也能在后台持续运行。 OpenAI的官方博客提到,Codex基于一个简单的理念构建:一切皆由代码控制。一个智能体在推理和生成代码方面的能力越强,它在所有形式的技术和知识工作中就越能胜任。然而,当今的一个关键挑战是前沿模型的能力与人们在实际中如何轻松使用它们之间的差距。因此,其试图通过Codex,帮助开发者引导、监督和应用模型的全部智能到实际工作中,从而缩小这一差距。
初探苹果Xcode 26.3:一句人话,2分钟AI搞定番茄钟App
IT之家 2 月 4 日消息,苹果公司昨日(2 月 3 日)发布 Xcode 26.3 更新,首次将“智能体编程”(Agentic Coding)引入原生开发环境,正式确认该开发工具从“被动编辑”转型为“主动协作”。 在支持方面,Xcode 26.3 引入基于大语言模型(LLM)的“智能体编程”工具,支持 Anthropic Claude Agent 和 OpenAI Codex 等业界主流模型。 开发者现可在设置中通过“一键安装”选项集成这些智能体,它们不仅能自动保持更新,还能根据项目架构自主拆解任务、修复错误并制定决策。 此次更新的核心亮点,在于全面支持“Vibe Coding”(意图导向编程)。IT之家注:这一概念由 AI 研究员 Andrej Karpathy 提出,指开发者只需通过自然语言描述应用功能或特性,AI 即可完成具体的代码构建。 在 Xcode 26.3 更新中,智能体不仅能显著减少手动编码时间,还极大地降低了开发门槛。智能体在完成构建或迭代后,会提供一份简洁的语言摘要汇报工作成果;若开发者对生成内容不满意,系统支持随时回退至项目的任意历史节点。 视觉感知与协议互通方面,Xcode 26.3 为了让 AI 模型更精准地理解开发语境,引入新内置功能,可以截取应用预览界面的屏幕截图并进行视觉分析,从而获得更清晰的上下文感知。 此外,新版本还支持模型上下文协议(MCP),这意味着兼容该协议的第三方智能体也能直接调用 Xcode 26.3 的底层能力。 为了验证 AI 的实际效能,该媒体模拟“零 Swift 语言基础”的初学者身份,尝试开发一款番茄钟应用(Pomodoro Timer)。 测试者仅在对话框中输入了一段包含“设定时间块”、“休息提醒”等简单需求的自然语言指令。令人震惊的是,AI 智能体在不到两分钟的时间内,不仅生成了完整的项目代码,还构建了一个包含设置菜单、自定义时长和通知功能的可用 App。 整个过程无需人工编写一行代码,AI 甚至还主动提供了将应用通过 TestFlight 进行测试的详细部署指南。 该媒体认为 Xcode 26.3 的发布,标志着应用开发门槛的史诗级降低。对于专业开发者而言,AI 智能体能快速处理基础架构,让其专注于核心功能创新;对于完全不懂代码的普通用户,这赋予了他们将创意直接转化为产品的能力。 然而,这种便利性也带来了显著的行业隐忧。分析人士指出,由于生成简单应用变得极度容易,未来数月内 App Store 审核团队或将面临海量同质化、缺乏深度的“垃圾应用”冲击。
刚刚,腾讯姚顺雨团队首个成果发布!揭示大模型真正瓶颈
智东西2月3日报道,刚刚,腾讯混元官网正式上线姚顺雨团队最新成果,发布了专门评测大语言模型能否从上下文(Context)中学习新知识并正确应用的基准CL-bench。 这是姚顺雨加入腾讯混元担任首席AI科学家后,其团队首次发布研究成果,也是腾讯混元技术博客首次公开。 ▲腾讯混元技术博客及致谢部分 大模型与人类在解决问题时关键区别为,大模型只能依赖预训练阶段的静态记忆,而人可以实时根据现场情况完成任务。腾讯混元研究团队实测发现,当前的SOTA模型几乎都不会从上下文中学习,表现最好的GPT-5.1(high)任务成功率也仅有23.7%。 基于此,该团队打造CL-bench就只有一个核心目标:要求模型在解决每个任务时,都必须从上下文中学习模型预训练中不存在的新知识,并正确应用。 01. 让大模型不再死记硬背 新基准包含500个复杂上下文任务 过去几年,大语言模型进步飞快,能解开奥数级别的难题、推演复杂的编程逻辑,甚至能通过那些人类需要苦读数年才能拿下的专业资格考试。但其背后有一个关键门槛,大模型即使能在考场拿满分,但未必能胜任真实世界工作。 人类可以在执行任务中实时从眼前的环境进行学习。但大语言模型主要依赖“参数化知识”,即在预训练阶段被压缩进模型权重里的静态记忆。在推理时,模型更多是在调用这些封存的内部知识,而不是主动从当前输入的新信息中汲取营养。 因此,目前优化出的模型擅长对自己“已知”的事物进行推理,但用户需要的,却是让模型解决那些依赖于杂乱、动态变化的上下文的任务。 基于此,混元研究人员希望弥合这一差距,从根本上改变模型的优化方向,他们构建了专门评测大语言模型能否从上下文中学习新知识并正确应用的基准CL-bench。 ▲大语言模型的范式转变 CL-bench包含由专家制作的500个复杂上下文、1899个任务和31607个验证标准。其对模型的要求为:要求模型必须在解决每个任务都从上下文中学习到模型预训练中不存在的新知识,并正确应用。 模型需要学习的知识非常广泛,包括新的领域知识、不熟悉的规则系统、复杂的产品工作流,甚至是必须从实验数据中推导归纳出的定律或结论。 所有这些知识要么是由领域专家完全新构建的,要么是取自那些不太可能出现在当前前沿模型训练数据中的小众、长尾来源。因此,模型无法通过回忆静态的参数化知识来解决任务,都要求模型从提供的上下文进行学习并应用。 具体来说,CL-bench涵盖了四种广泛的现实世界上下文学习场景: ▲CL-bench的上下文分类体系。 领域知识推理:上下文提供特定的领域知识,例如虚构的法律体系、创新的金融工具或小众专业知识,模型需要利用这些知识来推理并解决具体问题。 规则系统应用:上下文提供新定义的正式系统,例如新的游戏机制、数学形式体系、编程语法或技术标准,模型必须理解并应用这些规则来执行任务。 程序性任务执行:上下文提供复杂的过程系统,例如工作流、产品手册和操作指南,模型必须理解并应用这些程序性信息来完成任务。 经验发现与模拟:上下文提供复杂系统内的实验数据、观测记录或模拟环境。与前几类涉及演绎推理不同,这一类专注于归纳推理,模型必须从数据中发现潜在的定律或结论,并应用它们来解决任务。 ▲CL-bench示例,解决这些任务要求大语言模型从提供的上下文中学习 这些类别包含了大部分现实世界工作中常见的演绎推理和归纳推理任务,能衡量模型的上下文学习能力。 02. 模型成功率仅为17.2% 得出5大关键结论 研究人员在CL-bench上评估了十个主流大语言模型。 平均来看,模型仅解决了17.2%的任务,其中GPT-5.1(High)解决了23.7%的任务。 换句话说,尽管上下文中拥有解决每个任务所需的全部信息,但模型还是在绝大多数任务上都失败了。这表明当前的SOTA模型几乎都不会从上下文中学习。 ▲十个前沿模型在CL-bench上的任务解决率 混元研究团队得出几个关键结论: 1)忽略或误用上下文是导致失败的主要原因。 许多错误并非源于信息缺失,而是因为模型忽视了上下文中的关键细节,或错误地应用了它们。在许多情况下,模型只会利用预训练学习到的静态知识来解决任务,即使上下文明确定义了新的规则、概念或程序,模型也不会学习和利用。 ▲各模型错误类型的分布 2、长上下文推理和指令遵循是必要的,但不是充分条件。 案例分析表明,那些难以跨长上下文追踪依赖关系或难以精确遵循约束的模型,往往表现得更差。然而,即使是能够处理长输入并可靠遵循指令的模型,仍然在许多任务上失败。上下文学习需要的能力,远不止长上下文理解和指令遵循能力。 3、从实验数据和环境模拟中进行归纳推理比演绎应用更困难。 演绎任务让模型根据上下文中明确给出的规则和流程进行应用,而经验发现和环境模拟类任务则要求归纳推理,也就是从数据中总结规律或在虚拟环境中探索。模型在这类任务上的表现明显较差,任务解决率通常低于10%,且结果波动大。这表明发现规律远比应用规则更具挑战性。 ▲GPT-5.1在高/低推理强度设置下,各子类别表现对比 4、更高的推理强度通常能提升上下文学习效果。 对部分模型来说,增加推理强度可以改善表现,使模型更深入地理解复杂上下文。例如,GPT-5.1在管理类和实验数据类任务上的表现提升约6%,但其他模型提升有限甚至可能下降,说明单靠更多推理并不足够,模型还必须能够正确吸收和组织上下文信息。 ▲不同输入长度下模型上下文学习表现的变化趋势 5、上下文学习的难度与上下文长度相关,但短上下文也可能很复杂。 较长的上下文通常让所有模型的任务更难,这验证了长上下文处理仍是关键瓶颈。然而,即使是短上下文,如果包含信息密集、规则隐含、依赖复杂或约束严格的内容,也依然很具挑战性,说明上下文学习的难度不仅仅来源于长度,也来自于其复杂度。 CL-bench充分解释了大语言模型在真实场景中为什么经常出错:即使有了上下文工程,给模型准备好了所需的上下文,模型也会失败。如果模型不能真正从中学习,仅仅提供上下文是不够的。上下文学习作为一项模型基础的学习能力,很大程度上被忽视了。 03. 上下文都是自包含 测试任务采用无污染设计 CL-bench中的每个上下文都是完全自包含(Self-contained)的,解决任务所需的所有信息都显式地提供在上下文本身之中:不需要外部检索,也不允许隐藏假设。 ▲解决CL-bench中的任务需要模型从相应的上下文中学习新知识 为了确保性能真正反映上下文学习,而不是记忆或数据泄露,CL-bench采用了无污染(Contamination-free)设计: 虚构创作:专家创作完全虚构的内容,例如为虚构国家设计一套完整的法律体系,包括新颖的判例和法律原则,或创建具有独特语法和语义的新编程语言。 现有内容的修改:专家修改现实世界的内容以创建变体,例如更改历史事件、改变科学和数学定义,或修改技术文档和标准。 整合小众和新兴内容:专家纳入了在预训练数据集中代表性极低的小众或近期新兴内容,如前沿研究发现、新发布的产品手册或技术文档,以及来自专门领域的特定知识。 在不提供任何上下文的情况下,GPT-5.1(High)仅能解决不到1%的任务。这也证明数据是无污染的,模型若不从Context中学习,几乎完全无法解决这些任务。 此外,CL-bench的设计具有高复杂性和序列依赖性。其中,51.1%的任务需要序列依赖,意味着后续任务的解决方案取决于早期交互的结果。这种多轮次设计会增加任务难度。 平均而言,领域专家花费约20小时标注每个上下文,以确保任务构建的质量和深度。 与此同时,CL-bench中的每个任务都是完全可验证的。每个上下文平均关联63.2个验证标准,每个任务包含16.6个评估标准。 04. 结语:大模型如何记忆 将成2026年核心主题 混元技术博客还提到了混元研究团队后续的关注重点,包括如何让模型提升上下文学习能力、如何让大模型从上下文中学习到的知识持久化。 如果模型的上下文学习能力能像之前其他能力那样被提升上去,人类在AI系统中的角色将发生转变:人类不再是主要的数据提供者(training data provider),而变成了上下文提供者。竞争的焦点将从“谁能把模型训练得更好”,转向“谁能为任务提供最丰富、最相关的上下文”。 他们认为,大模型如何记忆很可能成为2026年的另一个核心主题,要充分发挥大语言模型的潜力,可能需要新的架构、新的优化方式来决定“该保留什么”。 未来,一旦大模型上下文学习与记忆变得可靠,模型或许就能实现自主学习,它们将自主准备上下文,从中学习并自我巩固。
现款机型库存告急,消息称苹果M5 Pro/Max MacBook Pro即将发布
IT之家 2 月 4 日消息,据苹果优质经销商向科技媒体 MacRumors 透露,搭载 M5 Pro 与 M5 Max 芯片的全新 MacBook Pro 机型预计将于近期发布。 该第三方苹果经销商表示,由于新品即将推出,目前 MacBook Pro 的库存已处于极低水平。苹果通常会在新款机型发布前,协调零售店的供货情况,避免经销商积压大量旧款设备。 上周末,彭博社报道称,新款 MacBook Pro 将与 macOS Tahoe 26.3 系统于 2 至 3 月同步推出,目前距离该日期已越来越近。今日 Xcode 26.3 候选版本的发布,也预示着新品亮相已为期不远。 苹果以往发布 Xcode 候选版本时,通常会同步推出 iOS 与 macOS 的候选版本,此次却一反常态,尚未推出 iOS 26.3 和 macOS 26.3 的候选版本。暂缓发布 macOS 候选版本,有时意味着该版本包含苹果不愿提前泄露的信息。若 M5 Pro/M5 Max 版 MacBook Pro 确与 macOS Tahoe 26.3 同步推出,那么 macOS Tahoe 26.3 候选版本中很可能包含新款机型的识别标识,会直接暴露新品发布计划。 据IT之家了解,苹果暂缓发布 macOS 候选版本的周期,大多为几天至一周。举例来说,2023 年 10 月 M3 系列 Mac 发布前,苹果于 10 月 17 日推出了 iOS 17.1 及配套 Xcode 候选版本,却暂缓发布 macOS 14.1 候选版本;随后新款 Mac 于 10 月 23 日发布,macOS 14.1 候选版本则在 10 月 24 日上线。2020 年 11 月首款 M1 Mac、2022 年 10 月 M2 版 Mac mini 发布前,苹果均采用了先发布 iOS 与 Xcode 候选版本,暂缓 macOS 候选版本的相同操作模式。 本次情况的特殊之处在于,iOS 26.3 候选版本也未面世,因此系统暂缓发布的时长尚不明确。苹果最快可能于明日发布新款 MacBook Pro,随后同步推出两大系统的候选版本;也有可能需要等待一至两周新品才会上市,尤其若候选版本尚未完全就绪、苹果还计划推送另一轮测试版更新的话。 目前尚不完全清楚苹果为何选择此刻发布 Xcode 26.3 候选版本,而非一并暂缓。不过该版本搭载了苹果与人工智能公司 Anthropic、OpenAI 合作开发的智能代理编程工具,苹果或许是为了遵守该功能既定的发布日程。 种种迹象表明,M5 Pro 与 M5 Max 版 MacBook Pro 很快就会与消费者见面。苹果已推出标准版 14 英寸 M5 MacBook Pro,但更高端的 14 英寸和 16 英寸机型仍未完成迭代更新。 向 MacRumors 爆料的经销商还提到,HomePod mini 的库存持续告急,多款型号已售罄。不过目前尚无官方消息证实,这一现象是源于供应链问题,还是新品即将更新所致。遗憾的是,HomePod mini 的库存自 2025 年 10 月起就持续减少,当前库存紧张的情况,并未为我们提供关于 HomePod mini 2 代的新线索。
Moltbook为何爆火?创始人最新专访来了,要致敬扎克伯格
智东西2月3日报道,今日,爆火的AI社交网络Moltbook创始人马特·施利希特(MattSchlicht)首次接受直播专访并透露,他给自己的机器人命名“Clawd Clawerberg”,是为了致敬社交平台Facebook创始人马克·扎克伯格(Mark Zuckerberg),还计划为智能体建“脸书”。 他还分析了Moltbook实现病毒式传播的原因是每个人都想要专属自己的机器人,由自主AI智能体通过文本、视频或游戏界面交互的社交网络就是未来。 ▲中间为Moltbook的创始人马特·施利希特(Matt Schlicht) 然而,引发广泛讨论、为Vibe Coding应用敲响警钟的Moltbook数据泄漏事件在这场专访中并未提及。Moltbook此前被云安全创企WIZ研究员不到3分钟就扒出数个安全漏洞:475万条记录被泄漏;一个人就可以注册百万个智能体,这些智能体无需验证就会被认定为真实用户。 Moltbook被曝的数据泄漏事件,有三个关键点: 首先非专业黑客就能获取关键API密钥。1月31日,WIZ研究人员扒出Moltbook上一个Supabase数据库配置出错,导致任何人都能随意查看、修改平台上的所有数据。此次数据泄露涉及150万个API身份验证令牌、35000个电子邮件地址以及智能体之间的私人消息。 其次数据库揭示Moltbook宣称的“全AI帝国”可能存在数据造假。Supabase数据库显示,Moltbook的超150万名注册智能体背后有17000名人类,智能体和人类的比例达88:1。任何人都可以通过简单的循环注册数百万个智能体,且无速率限制,人类还可以伪装成“AI智能体”通过基本的POST请求发布内容。 最后这次还泄漏了智能体与智能体之间4060次“私人”对话,导致明文OpenAI API密钥等在内的第三方API凭证被公开。 这说明,Moltbook并没有相应的机制验证一个“智能体”是否真的是AI,还是仅仅是一个使用脚本的人类。 WIZ的文章提到,他们和Moltbook团队凌晨赶工,在数小时内完成了Moltbook的安全加固,所有在研究和修复验证过程中访问过的数据均已删除。但Moltbook及其创始人马特·施利希特(MattSchlicht)的官方社交平台X账号都未提及此次事件。 截至今天12点,Moltbook用户数量如今已达到158万。不过智东西今日中午打开网页发现,Moltbook的主页短暂崩溃,统计数据、智能体发的帖子无法查看,目前主页已恢复。 01. 创始人分析Moltbook爆火是因为需和人类配对 还要致敬扎克伯格 今日凌晨,Moltbook创始人施利希特首次露面接受外媒TBPN直播专访。 施利希特在采访中丝毫没有被Moltbook面临的数据泄漏、数据造假等报道影响,而是边哄娃边大谈AI社交网络、分析Moltbook爆火的原因。 ▲施利希特接受直播采访 2008年,19岁的施利希特前往硅谷,这之后就一直在科技领域工作。2016年他成立Octane AI公司,专门做Facebook Messenger机器人,但因没有大模型加持失败了。 如今,施利希特就专注于Vibe Coding,每天围着鼠标、代码和Claude转,不断尝试构建新东西。他给自己的Clawdbot命名为“Clawd Clawerberg”,是为了致敬社交平台Facebook的创始人马克·扎克伯格(Mark Zuckerberg)。 他分析了Moltbook能实现病毒式传播的原因是,其必须与X上的人类配对。他最初的想法是,谁不想拥有自己的机器人?谁不会感兴趣与能帮你完成待办事项的小机器人?事实证明大家都想拥有。 施利希特认为,每个AI智能体都有自己通过与人类互动而建立起来的专属语境,然后它会基于这些语境来决定发布什么内容。所以,如果某个人经常聊物理,那他的AI机器人大概率也会更倾向于发布物理相关的内容。 对于未来,施利希特认为这一切才刚刚开始。现在的Moltbook是最基础的形态,并且最重要的一点是AI变得有趣了。 未来以Moltbook为雏形可能出现一个“平行宇宙”:现实世界里是人类,数字世界里配对了一个机器人。人和这个机器人一起协作,它帮你处理各种事情。就像人类有工作,然后刷TikTok、Instagram、X,发泄情绪、结交朋友一样,机器人也会为人类工作,但它们之间也会互相吐槽、互相社交。 此外关于商业化,他称自己目前不关注变现的事情,这里的机会非常大,几乎所有的商业模式,都能套进Moltbook中。 02. 创始人回应AI安全 下一步要给智能体建身份体系 施利希特还在采访中提到了AI安全。他认为现在机器人本身已经相当智能,所以大多数情况下它们不会主动泄漏隐私,未来可能会有一个防护层在内容发布前进行检查,保障所有人的安全。 施利希特提到自己现在工作的定位是,帮助人类更好地看清正在(Moltbook上)发生的一切。 他把现在发生的看作一场巨型真人秀《幸存者》:所有机器人都在一座巨大的岛上,他得确保拿着摄像机的人能对准正确的地方。然后人类看到这些内容,选出他们觉得有趣的部分,再分发到人类的社交网络上,比如X、TikTok、YouTube等。 Moltbook目前的找bug渠道是智能体自己构建的。早期有智能体自己建了Moltbook的Bug反馈子版块,随后其他AI智能体也开始在里面发帖。施利希特称,现在这里已经成为Moltbook团队找Bug的绝佳渠道,智能体调用API出问题时自动把返回结果贴上来,其团队很快定位并修复。 可能在这次采访中,施利希特刻意回避了相关安全问题。他目前更关注的是如何把Moltbook规模做大,并考虑扩充团队、增加资源投入。 下一步,他要在Moltbook上打造统一的AI智能体身份体系,然后搭建一个类似当年Facebook那样的开放平台。同时,他们也会想办法拓展这些AI智能体的场景类型。 03. 475万条记录被公开 AI社交帝国背后是真人 Moltbook上周末的数据泄漏事件也在全网引起了不小的讨论度。 WIZ研究人员进行了一次非侵入性的安全审查,只是像普通用户一样浏览页面,就发现了暴露在客户端JavaScript中的Supabase API密钥。该密钥允许未经身份验证地访问整个生产数据库,还能对所有表进行读写操作。 ▲可通过Supabase API密钥访问的表格 他们利用Supabase的PostgREST错误提示,枚举出了不少数据表。通过查询不存在的表名,系统返回的报错信息会泄露线索,从而暴露出真实的数据库结构。 然后与GraphQL introspection相结合,WIZ研究人员绘制了完整的数据库架构,并发现已经有约475万条记录被公开。 ▲WIZ研究人员通过上述技术识别了表格 泄漏的数据包括: 1、AI智能体的API密钥和认证token。 智能体表格中暴漏了数据库中每个注册智能体的认证凭据,每个智能体记录包含: -api_key -完全授权token,允许完全接管账户 -claim_token -用于声明智能体所有权的token -verification_code -智能体注册期间使用的验证码 使用这些凭证,攻击者可以完全冒充平台上的任何智能体去发布内容、发送消息、进行互动。这包括高声望账户和知名角色智能体。 实际上,只需一次API调用,攻击者就能劫持Moltbook上的任意账号。 2、用户电子邮件地址和身份数据。 用户表单中包含超过17000名用户信息。 通过查询GraphQL端点,WIZ研究人员还发现了一个新的观察者表,其中包含29631个额外的电子邮件地址,这是Moltbook即将推出的“为AI智能体构建应用程序”产品的早期访问注册信息。 3、私人聊天记录与第三方凭证。 agent_messages表格暴露了4060次私人对话,包含智能体与智能体之间的交流。在检查此表格以了解智能体之间的互动时,WIZ研究人员还发现对话没有加密或访问控制,其中一些包含第三方API凭证,包括智能体之间共享的明文OpenAI API密钥。 ▲智能体与智能体的交互摘要 4、写入权限,可以修改实时帖子 除了读取权限,攻击者还能拥有完全的写入能力。即使在最初的修复措施中阻止了对敏感表的读取权限后,对公共表的写入权限仍然开放。WIZ研究人员进行了测试,并成功修改了平台上的现有帖子。 ▲修改后的帖子 这说明,任何未经身份验证的用户都可以编辑平台上的任何帖子、注入恶意内容或提示注入有效载荷、破坏整个网站、操纵成千上万AI智能体消费的内容。 这引发了人们对数据泄露期间平台上帖子、投票和karma积分等内容真实性与完整性的质疑。 昨日晚间,WIZ的研究人员Gal Nagli测试发现,他可以在Moltbook上注册100万个AI智能体,并且这些智能体不被验证就可以被算作真实用户。 或许,这个革命性的AI社交网络实际上是由大量人类操控着的庞大机器人舰队。 04. 缺失RLS关键安全防线 任何用户都能模仿智能体账户 WIZ研究人员在访问Moltbook网站时,检查了页面自动加载的客户端JavaScript包。现代网络应用程序将配置值捆绑到静态JavaScript文件中,这可能会无意中暴露敏感凭证。 这一现象是其在Vibe Coding应用程序中多次观察到的模式,API密钥会经常出现在前端代码中,任何检查页面源代码的人都能看到,会导致严重的安全后果。 通过分析生产JavaScript文件:https://www.moltbook.com/_next/static/chunks/18e24eafc444b2b9.js ▲Moltbook主网站运行所依赖的javascript文件之一 其识别出硬编码(Hardcoding)的Supabase连接详情: -Supabase项目:ehxbxtjliybbloantpwq.supabase.co -API密钥:sb_publishable_4ZaiilhgPir-2ns8Hxg5Tw_JqZU_G6- ▲生产环境中的supabase和API密钥硬编码 但这些凭证并不自动表明存在安全故障,因为Supabase设计为允许某些密钥对客户端公开,真正的危险在于它们指向的后端配置。 Supabase是一个流行的开源云服务平台Firebase的替代品,提供托管的PostgreSQL数据库和REST API。由于设置简单,它特别受Vibe Coding开发应用的欢迎。 当正确配置了行级安全策略(RLS)时,公开的API密钥是安全的,这些公开API密钥只是像一个项目标识符。但如果没有RLS策略,这个密钥会赋予任何拥有它的人完全的数据库访问权限。 然而,在Moltbook中,RLS这一关键防线是缺失的。 WIZ研究人员使用发现的API密钥,测试这一平台是否采取了推荐的安全措施。他们尝试直接查询REST API。一般而言,如果RLS处于激活状态,该请求应该返回一个空数组或授权错误。 但Supabase数据库却立即返回了敏感的认证token,包括Moltbook平台顶级AI智能体的API密钥。 ▲Moltbook平台的顶级AI智能体已编辑API密钥 其泄漏的智能体为排名前五的智能体。 ▲最受欢迎的智能体列表 这说明,其将允许对平台上的任何用户进行完全的账户模仿。 05. 结语:AI编程需警惕细节错误 或暴露整个AI生态数据 Moltbook很好证明了Vibe Coding能显著提升开发者创造新事物的速度和执行力,他们能以前所未有的速度推出实际产品。与此同时,当今的AI工具尚未能代表开发者进行安全态势或访问控制的推理,这意味着配置细节仍需人工仔细审查。正如Moltbook的数据泄漏问题最终追溯到Supabase的一个配置设置细节上。 并且,该平台对隐私的处理方式也有一个重要的生态系统级教训。用户在假设隐私的情况下通过私信分享了OpenAI API密钥和其他凭证,但配置问题导致这些私信公开可访问。单个平台的配置错误就足以暴露与其无关的服务凭证,这说明现代AI系统之间的关系已经非常紧密。 当下围绕这一AI原生社交网络的热度很高,但其底层的设计系统仍不完善,而数据安全是释放AI全部潜力的重中之重,这或许也是当下开发者应该着重考虑的地方。
世界首例!中国官方出手规范隐藏门把手:外媒纷纷点赞
快科技2月4日消息,近日,在中国官方通过新的强制性国家标准,出于司乘安全考虑对以新能源车为主的汽车门把手做出硬性安全要求。 其中核心规定为:在中国销售的汽车必须配备机械释放门把手,确保在发生严重事故导致车辆断电后,仍能从车外和车内手动打开车门;还对车门把手的布置区域和空间等方面进行了规范。 由此,中国成为了全世界第一个出台标准,对在业内被称作“全隐蔽式车门把手”这一存在争议的设计进行限制的国家,此举也迅速引发了海外媒体的关注和报道。 据环球时报报道,截至北京时间2月3日下午,包括美国彭博社、英国BBC与《卫报》在内的多家外媒,都跟进了中国官方出台的这一新标准。 彭博社称:“中国已经禁止电动汽车配备(全)隐藏式车门把手,成为全球首个以立法形式禁用该设计的国家,相关规定将于明年1月1日起实施。” 《卫报》介绍说,这一将车门把手与车门完全融为一体、通过电子信号控制车门开关的设计,最初是美国电动车品牌特斯拉在2012年推出的,之后在全球多个电动车品牌中流行开来。 该报指出,这一能稍微减少“风阻”的设计,却往往会在交通事故中,因车辆供电故障等原因,导致事故人员受困车内无法开门逃生,因此在全球引起了不小的安全争议。 《卫报》还提到了2024年美国发生的一起导致3人死亡的交通事故:当时一辆特斯拉电动汽车撞树起火后,车辆的供电系统发生故障,导致车门无法打开,结果车内受困的4人中有3人最终遇难,特斯拉也因此被告上法庭。 BBC则在报道中称,虽然中方的这一标准只针对在中国市场销售的电动车,但“中国在全球汽车产业的巨大市场体量与产业影响力,意味着这一举措或将产生全球性影响”。 值得一提的是,该强制性规定也引起了国外网友的关注,社交媒体平台上,不少人纷纷留言称希望自己的国家也能效仿中国出台这样的标准,叫停这种“没有意义且危险”的设计。
泡泡玛特是门玄学
泡泡玛特似乎又要开启一轮似曾相识的V字反弹。 2026年开年,其股价单周暴涨23%,市值强势重返3000亿港元区间。自1月19日低点以来,其股价累计上涨约26%,市值提升近600亿港元。 撑起这轮反弹的直接动因很明确:一方面是公司短期内投入近3.5亿港元进行大规模股份回购,释放信心;另一方面是PUCKY“电子木鱼”等新品接连引爆市场。 但细想想,这些明面上的利好,真的足以支撑起这么大规模的上涨吗? 毕竟回望过去,泡泡玛特的股价从不是平滑增长的曲线,而是在暴涨与暴跌间反复拉扯。即便是在去年业绩大涨的情况下,其股价再次上演了惊心动魄的过山车,下半年股价自高点累计暴跌超40%,市值蒸发超2000亿港元。 但吊诡的是,无论波动何等剧烈,泡泡玛特似乎总能在震荡中“触底回弹”,一次次从市值低谷中挣扎起身。 我之前研究过很多次泡泡玛特,但始终搞不懂,其涨跌既不完全依赖IP产品周期,也无法像传统消费品那样可以用复购率、客单价、市占率来预测。 直到和马师傅深聊后才豁然开朗:试图用理性框架衡量一家主打情绪价值的公司,本身就是徒劳。潮玩是新生赛道,无内容IP缺乏成熟估值体系,情绪生意更是难以琢磨。 不过有一点是可以确定的,那就是泡泡玛特在全球范围内几乎没有对手。当市场上不存在能与之抗衡的竞争者时,这家公司只需稍作动作、释放利好,便能轻易重新吸引市场关注与资本的积极回应,这也是其能在剧烈波动中反复回弹的原因。 作为一手定义并培育了国内潮玩市场的企业,泡泡玛特的发展节奏始终与赛道成长深度绑定,一直处于变化之中,尚未跨入可被量化评估的成熟商业阶段。市场也缺乏成熟的评估体系来衡量它。 于是,市场只能以最原始的方式回应它:涨,是因为相信总会有人愿意为情感共鸣付费;跌,是因为害怕那阵风停了。 这也让现阶段泡泡玛特的股价,成了一门无法精准解码的玄学。 01 过去一年,泡泡玛特的股价再次上演了一出典型的“过山车”行情。先是一路狂飙,创下历史新高,随后在业绩持续向好的背景下,却接连暴跌,走出一条与基本面严重背离的曲线。 狂飙的起点,是去年4月LABUBU 3.0系列的发售。 从那一刻起,接连两个月,LABUBU几乎霸榜热搜。英国、韩国因粉丝抢购发生冲突,被迫暂停销售;泰国曼谷主题店开业首日销售额突破千万元,刷新泡泡玛特全球单店纪录。 随着这股全球抢购潮愈演愈烈,资本市场也迅速响应。去年5月27日,泡泡玛特市值首次站上3000亿港元,股价相较2024年初翻了整整十倍。 真正的高光时刻出现在去年8月。去年8月20日,泡泡玛特发布半年报,盈利水平惊人——仅半年利润就超过此前全年。业绩爆发叠加市场情绪高涨,公司市值一举突破4000亿港元,并迎来“五连涨”,8月29日,股价盘中触及339.8港元的历史峰值,总市值冲上4500亿港元,达到上市以来的巅峰。 然而,泡泡玛特股价创历史新高当日,成为其走势的关键分水岭,后续股价应声下挫。昔日的上涨轨迹有多陡峭,回落的路径就有多相似。 转折点始于618期间的一次百万级大规模补货。之后,泡泡玛特更是将LABUBU的月产能,从上半年的1000万只,一口气猛增至 5000 万只。 伴随着其稀缺性被打破,泡泡玛特在二手市场的价格开始崩盘。不少隐藏款的价格更是大跳水,黄牛市场也传出了缓收LABUBU的消息。 情绪传导至股市,到了9月中旬,泡泡玛特累计跌幅超 20%,市值缩水约1000亿港元。 但值得注意的是,泡泡玛特这轮股价的深度回调并非公司基本面出了问题,相反,泡泡玛特随后发出的三季度财报依旧保持着三位数的高增长。 如此亮眼的数据,本应提振信心。可现实是,财报发布次日,股价非但未涨,反而暴跌8.08%。 到了12月,跌势进一步加速。导火索是美国“黑五”销售数据不及预期。伯恩斯坦、德银等机构连夜下调评级,“稀缺性丧失”成为一致判断。 德银在12月的研报中发出警告,称随着泡泡玛特扩大产能,LABUBU正在从稀缺的潮流IP迅速沦为大众消费品,稀缺性溢价正在消失。 2025年最后一个交易日,泡泡玛特港股开盘震荡下跌,截至收盘,报190.8港元/股,与去年8月339.8港元/股的高位相比,跌幅超40%,市值蒸发超2000亿港元。 仅仅4个月的时间,从山峰到谷底,泡泡玛特再次走出了一条过山车一样的曲线。直到今年开年,泡泡玛特再次强势反弹,似乎又要开启下一个上涨周期。 但有意思的是,虽然回购注入了信心,但上一轮下跌时的质疑依然存在:稀缺性并未重构,新的现象级IP尚未诞生,用户热情能否持续转化仍无定论。 我屡屡试图看懂泡泡玛特,却一次又一次陷入困惑。一个核心的困惑在于,其股价如同钟摆般往复震荡的动力,究竟源自何处? 02 诚然,稀缺性一直是消费公司估值的重要依据,具有稀缺性的公司往往具备更强的定价权。 但问题是,LABUBU的稀缺性是否等于泡泡玛特的稀缺性?换句话说,产品的稀缺性是否等于品牌的稀缺性? 对于大多数消费品公司而言,两者或许可以划上等号。通常评估一家消费品公司的商业模式,会从它的最小子集开始判断,而这个最小子集就是产品,这也是为什么“产品是1,其他是0”会一度被奉为圭臬。 基于此,过去,市场习惯用IP周期性解释泡泡玛特的股价波动,认为一款现象级IP的诞生与衰退,直接决定了公司市值的起伏。 但复盘最新一轮行情便会发现,这套逻辑并不完全适用于如今的泡泡玛特。 一个常被忽略的事实是,在LABUBU爆火之前,泡泡玛特的股价已经开始回升。彼时既无现象级新品发布,也无海外抢购潮,支撑这一轮上涨的是基本面修复:库存压力基本出清、门店模型持续优化、机器人商店坪效提升、海外市场初步跑通。 因此,LABUBU的爆火,更像是股价股价狂飙的催化剂,但却并非起点。 这也引出一个关键问题:如果一款IP的爆火只是放大器,那真正让资本在泡泡玛特暴跌时仍愿意接住这份“坠落”的,到底是什么? 答案或许不在产品本身,而是泡泡玛特在生态中无可替代的市场地位。 从泡泡玛特上市开始,市场就一直追问“下一个泡泡玛特在哪?”,如今五年过去了,赛道的玩家前仆后继,却始终没能跑出下一个泡泡玛特。 无论是从市场份额、盈利能力、门店规模来看,当下的泡泡玛特,几乎没有真正意义上的对手——甚至是在全球范围内。 国内对标者中,数52TOYS和TOP TOY跟泡泡玛特的商业模式相似度较高,但基本都依赖外部授权IP,自有IP孵化能力弱,在品牌调性、用户心智和全球化布局上都与泡泡玛特差距明显。 国外更无直接竞争者。日本有万代南梦宫,但主打动漫衍生品,强在版权而非原创;美国有Funko Pop,走大众化路线,单价低、情感连接弱;韩国Kakao Friends靠表情包起家,本质是IP授权平台,不具备完整产业链控制力。 其他包括三丽鸥、美泰、孩之宝和迪士尼等IP相关的公司,也因商业模式不同,很难和泡泡玛特放在同一坐标系下比较。 那么问题来了,既然泡泡玛特的市值已在全球玩具及潮玩公司中领跑,那么迪士尼们为什么不转型复制一个泡泡玛特? 从形式上复制泡泡玛特或许并不难,以比泡泡玛特更高的价格签下优秀艺术家,找中国或越南工厂代工,然后在全球泡泡玛特的每一家店旁边开店,再高薪去挖泡泡玛特的人。 但真正的难点,在于投资回报率的不可控——即便是深耕行业多年的泡泡玛特,也不敢宣称自己拥有一套能持续打造爆品的成熟方法论。 国内同行不具备持续打造爆款的IP运营能力,而海外巨头则因转型回报不确定、前期投入成本过高,不愿贸然入局试水。 也正因如此,即便市场始终质疑泡泡玛特的产品生命周期短、用户黏性存疑,却难以找到做空它的核心理由——因为不知道替代者是谁。 当市场上没有同等量级的竞争对手能够与之抗衡,泡泡玛特只需稍微“整点活儿”,便能再度引发市场关注与资本的积极反应。 归根结底,这份在潮玩行业中无可替代的市场地位,才是其股价虽如过山车般剧烈波动,却终究能荡回来的根本动力。 03 泡泡玛特虽然具备“钟摆震荡”的韧性,但每一次反弹的高度与时长仍然难以被量化。 泡泡玛特本质上是一家经营情绪价值的造梦公司,它的产品满足的是情感需求而非实用功能。 无用,是潮玩的本质,也是王宁一直坚持的经营哲学。 王宁曾分享过“无用之用”的商业理念,“产品只要有了功能属性,都意味着生命周期的短暂和与生俱来的衰变。只有那些‘无用’的东西,才能够经历更长的时间,这就是艺术的魅力,也是我们这个行业的魅力。” 但正因“无用”,导致泡泡玛特的价值难以锚定。 同样是售卖情绪价值,其他行业尚有参照系。奢侈品卖的是身份标签,但也可以通过材质、工艺和品牌年限作为估算支点;乐高卖的是搭建的乐趣和亲子关系,但也可通过教育属性衡量。 而泡泡玛特呢?卖的是瞬间的心动、短暂的拥有和不确定的惊喜,触发机制更加随机,用户决策链条极短,年轻人今天因为心动下单,明天可能就不爱了。 这也解释了为何资本市场对泡泡玛特始终处于“既信又疑”的状态。信的是,年轻人愿意为情绪买单;疑的是,不知道下一个让人疯狂的IP会是谁,什么时候出现,又能火多久。 这种特性注定其股价会呈现出强烈的周期性波动。 更重要的是,泡泡玛特太“新”了。这里的“新”不是成立时间,而是商业范式意义上的“前所未有”。在泡泡玛特出现之前,整个市场都认为潮玩是小众爱好,天花板低、复购差、没法工业化。 可以说,是泡泡玛特一手定义并培育了如今的潮玩市场,泡泡玛特甚至参与了百度百科对于潮流玩具的词条定义。 也正因如此,泡泡玛特的发展节奏始终与赛道的成长深度绑定,一直处于变化当中。市场也缺乏成熟的评估体系来衡量这样一个企业的长期价值,PE、PEG、DCF……这些常规工具面对情绪驱动型增长时,显得笨拙而滞后。 于是,市场的反应回归到了最原始的状态——用脚投票,凭感性判断。这也就决定了,现阶段的泡泡玛特或许压根不存在所谓的“合理估值区间”,股价甚至没有中间形态,只有两种极端:信则涨,不信则跌。 泡泡玛特的股价之所以成为一门“玄学”,是因为我们在用理性的尺子,去丈量一片尚未成图的情绪大陆。试图精准预测泡泡玛特股价就像试图预测潮汐的每一朵浪花——理论上可能,实践中徒劳。 但不可否认的是,泡泡玛特在行业里够久,合作的艺术家够多,触达过更多的消费者,摸准年轻人情绪的脉搏的概率也就更大。 可以确定的一点是,只要年轻人依然需要为情绪找一个载体,资本市场就不会彻底放弃泡泡玛特。
字节三模齐发,大模型春节“赛马”提前开跑
时隔一年,2026年大模型行业“春节档”又要来了。近期的外媒报道显示,这场春节档竞争即将在2月进入白热化。 字节跳动计划在下个月推出三款全新的 AI 模型,分别为豆包 2.0(新一代旗舰大语言模型)、Seedream 5.0(图像生成模型)以及 SeedDance 2.0(视频生成模型)。 另一方面,阿里同样计划在春节假期期间发布新一代旗舰 AI 模型Qwen 3.5。据悉,该模型在数学推理和代码能力方面表现突出。有外部分析显示,来自中国头部AI企业间的竞争,可能在未来数年内深刻塑造14 亿人口使用 AI 的方式。 本月,已经有多家头部厂商在推出或更新关键模型,加速围绕春节档展开的“AI竞赛”。近日DeepSeek团队开源了DeepSeek-OCR2模型,月之暗面发布了其旗舰模型KimiK2.5,阿里巴巴也推出了旗下Qwen3-Max-Thinking旗舰推理模型。 换言之,2026年的AI春节档,将是一场跨越模型到产品层面的全面竞争。在产品前端,元宝、豆包、千问正在打响春节AI红包大战;而在模型侧,大家都不想放过下一个“DeepSeek时刻”。 这一趋势的起点,可以追溯到2025年春节前后。彼时,DeepSeek-R1因较低成本和强大推理能力一度冲击海外应用排行榜,成为国内大模型破圈现象级事件,也让春节档成为行业观察的关键时间窗口。 从目前已知的模型信息来看,今年的春节档竞争不仅是围绕单一模型能力的对比,更是多模态能力、推理性能与应用生态的综合较量。 此前,有报道披露,其下一代旗舰模型DeepSeek V4,预计将于马年春节前后发布。该模型内部测试显示,其在代码生成和长上下文处理能力上优于现有主流大模型,成为业内密切关注的焦点之一。 所以,这个春节档,友商们面对春节档的热情也就不难理解了。 这个马年春节,AI行业注定会上演一场“万马奔腾”。 01 榜单之外,实际场景很重要 过去的一周内,春节来临前的“模型上新”正在演变成一场声量竞赛。 DeepSeek开源OCR2、Kimi发布并开源K2.5、阿里发布Qwen3-Max-Thinking,中国模型海内外AI产品热点中三度“同框”,业内对于大模型“下饺子”的讨论氛围也不断升温。 近日,阿里千问发布了Qwen3-Max-Thinking推理模型,加入了今年的春节档“模型赛马”。从时间点上看,这一发布落在春节档窗口期,与近期阿里在AI方向上的一系列动作形成呼应。 阿里方面披露的信息显示,该模型总参数超万亿、预训练数据量达36Ttokens,在19项基准测试中展现出与GPT-5.2-Thinking、Claude-Opus-4.5和Gemini3Pro等顶尖闭源模型相当甚至更优的性能。 与此前围绕参数规模或榜单名次的发布不同,这一代模型的技术取向并未继续拉大参数差距,而是将重心放在推理稳定性与工具使用能力上。 阿里云官方博客显示,Qwen3-Max-Thinking的核心亮点集中在两个方面。第一个是自适应工具调用能力,模型可以在对话过程中自主决定是否调用搜索引擎、记忆工具或代码解释器。 这种设计的直接效果,是减少不必要的工具调用,让模型在需要实时信息时触发搜索,在需要计算验证时调用代码解释器,从而降低幻觉概率,也让交互路径更短、更可控。 第二项创新是测试时扩展技术。这个技术的核心思路是让模型在推理过程中进行多轮自我反思。但与简单增加并行推理路径不同,Qwen3-Max-Thinking采用了一种“经验累积”机制,在多轮推理中提取已有结论,将算力集中在尚不确定的环节上,以提升整体推理效率。 从公开数据来看,这种取向并非追求单点最优。在部分知识类基准中,Qwen3-Max-Thinking模型成绩存在差异:例如在C-Eval上略高于Gemini3Pro,而在MMLU-Redux上并未全面领先。 换言之,Qwen这一次主打的是降低交互的复杂度,让模型更接近一个“能直接办事”的接口,这也点出了2026年春节档模型赛马的一个重要主题:推理效率和可控性。 从行业层面看,这一取向并非个例。几周前,腾讯CEO、首席AI科学家姚顺雨在AGI-Next峰会上公开表示,希望中国AI能逐步走出榜单束缚,把注意力更多放在长期正确的方向上。 近期的多款模型更新,也验证了这一变化正在发生。 另一方面,Qwen3-Max-Thinking的发布时间,也处在一个相对敏感的节点。此前,曾有报道传出,阿里和千问在央视2026春晚的竞争中不敌字节的豆包,而近期,腾讯元宝等原生C端AI产品也相继发力,借助红包和互动玩法快速放大存在感。 AI应用层面的“春节团战”,反过来放大了模型侧更新的必要性。在超级入口资源有限的前提下,通过模型发布进入讨论中心,是一种合理甚至必然的选择。 这一判断,也与阿里近期的产品调整相呼应。去年11月,“通义”App更名为“千问”,并成立C端事业群,整合夸克、UC、AI硬件等业务线,明确将其定位为面向普通用户的AI助手产品。 在1月中旬的千问发布会上,阿里集团副总裁吴嘉现场演示了用千问完成点奶茶的操作,强调通过生态协同,让AI能够完成具体事务。但想要支撑更复杂、跨系统的任务,新一代推理模型自然成为底层能力的关键。 当用户询问“附近哪里有好吃的川菜”时,他们期待的已不只是搜索结果列表,而是基于实时信息、个人偏好和地理位置的直接推荐与预订。 也正是在这一由DeepSeek带动的声量窗口下,不只是阿里,更多厂商选择在春节前集中出牌。模型赛马,正在演变为一场多路并进的集体跃进。 02 赛道不止一条,最终要看模型和产品的协同 几乎在同一时间,百度和月之暗面也推进了各自的模型迭代,但这两家公司展示了不同的侧重点。 一周前,百度正式发布了文心5.0,这是一款参数规模达到2.4万亿的全模态模型,支持文本、图像、音频和视频等多种输入形式。官方介绍显示,该模型采用原生全模态统一建模技术,可处理文本、图像、音频、视频等多种输入形式,并已在多款百度产品中上线体验。 大而全,这是文心5.0给人的第一印象,该模型在2024年11月首次对外预览,随后在LMArena排行榜上排名快速上升,目前登顶国内模型榜首。 与模型指标相配合的是百度的分发基础。公开信息显示,百度旗下的文心助手月活跃用户已突破2亿,而文心5.0可通过百度千帆平台、文心一言官网、文心助手等多端调用。 显然,在缺少豆包/千问这样的头部原生AI产品的情况下,百度更倾向于在其既有的搜索与产品入口上强化能力,借助大流量入口让新模型能力更快被用户感知,以巩固自身“大模型第一梯队”的地位。 所以,想要全面在C端产品赋能,就必须走能力覆盖没有短板的全模态路线。 与之形成对照的,是刚完成新一轮融资的月之暗面。 月之暗面在春节前发布了KimiK2.5,这是一款在K2基础上持续预训练的原生多模态模型,使用了约15T的混合视觉与文本token。相比参数规模,Kimi更强调结构与执行方式的变化。 K2.5提出的Agent Swarm范式,是这次更新的核心。模型可以根据任务复杂度,自主组织多达100个子Agent并行执行,减少任务编排和等待时间。官方给出的内部评估显示,在复杂任务中,端到端运行时间可缩短约80%。 围绕这一能力,月之暗面同步推出了Kimi Code和Office Agent等产品形态。前者强调与IDE的集成,后者聚焦办公场景中的文档生成与整理。这些产品并不试图覆盖所有需求,而是集中在“写代码”“做文档”等结果明确的任务上。 以Office Agent为例,只要用户说人话提需求,它直接给你出Word/Excel/PPT/PDF成品,并且生成的内容是非常专业的,用户也不再需要为排版、美化这些事情担心,可以说是打工人的救星了。 不过,OfficeAgent只能停留在微软Office可以实现的范围内,无法像部分通用Agent那样操作更复杂的文件或系统。 从行业角度看,Kimi的路径通过模型结构和产品形态的差异,去吸引开发者和重度用户的注意力。 另一边,DeepSeek在传说中的V4大招之前,也在模型应用侧有了新产出。 作为开源OCR/视觉理解模型,DeepSeek-OCR2可以用于文档抽取、表格识别、票据与截图理解等场景的对照测试。 OCR2在论文中强调通过DeepEncoderV2的“VisualCausalFlow”能力,根据文档语义动态重排视觉token,更贴近多栏、表格与公式的阅读逻辑。 不过相比起传说中的V4,OCR2还只是DeepSeek在春节档的前菜。 横向比较目前发布的几个模型不难发现,尽管在声量上形成了竞争态势,但不同公司的“最优策略”并不统一,而是取决于它们手中已有的筹码。 从行业视角看,2026年春节档的模型赛马,已经很难再用“谁的模型更强”来简单概括。模型更新正在与入口条件、产品形态和传播效率深度绑定。 而对于传说中的DeepSeekV4而言,这意味着想要再现去年的光辉时刻,似乎将会遇到更多的挑战。 03 Coding能力是关键,但不是全部 纵观最近一段时间的通用模型发展方向,行业的关注点正在向一个关键指标上收敛——编程能力。 这一风向的转变,一方面来自AI大厂的内部业务需求,同时也是因为大洋彼岸的同行在过去一年中持续地“上强度”。 2025年,Anthropic发布ClaudeOpus4.5,其在SWE-benchVerified测试中取得80.9%的成绩,成为首个突破80%门槛的模型。Anthropic随后强调,该成绩超过了其内部工程招聘考试中所有人类候选者的表现。 不到一个月后,OpenAI跟进发布GPT-5.2 Codex,在同一测试中取得80.0%的成绩,与Claude Opus4.5基本持平。至此,头部模型在编程基准上的竞争,正式进入了白热化阶段。 从应用角度分析,大厂愿意集中投入编程能力,是因为这是当前商业价值最清晰、付费意愿最强、反馈最快的应用场景。无论是Copilot、CodeInterpreter还是各类Agent工具,编程都是最早跑通商业闭环的领域。 更重要的是,在行业内部,编程能力被视为推理能力的代理指标。代码生成需要模型理解需求、设计结构、处理边界条件,并在出错时进行调试与修正。这是一整套多步骤、强约束的推理过程。 正因为如此,一个在编程任务中表现稳定的模型,往往也能在其他复杂推理任务中维持质量。SWE-bench这类测试,逐渐从“程序员专用榜单”,演变为衡量模型综合推理能力的关键窗口。 所以,当DeepSeekV4传出其在编程相关任务上的表现超过现有主流模型,包括Claude与GPT系列时,2026大模型春节档引发的关注,被抬到了一个新的高度——甚至不亚于2025年初的场景。 据了解,V4的突破并不仅体现在得分本身,还包括对超长代码提示词的解析能力,以及在整个训练流程中维持稳定数据模式理解的能力。 结合去年的R1来看,外界关注的核心并不是它是否全面领先,而是:在相对有限的训练成本下,模型表现接近甚至逼近国际顶尖水平。 V4再次选择春节档,被业内视为一次高度自觉的策略延续——用硬核技术进展,在同一时间窗口内对标全球最强模型,直接争夺开发者与技术社区的注意力。 不过,强调Coding能力的这个特征,却在今年的春节档竞争中形成了一种微妙的张力。 一方面,编程能力是当前模型竞争的“硬指标”;另一方面,编程并不天然适合在春节档展示。与点餐、搜索、生成图片不同,写代码往往需要上下文、时间和专业背景,传播效率并不高。 所以,承载着V4的DeepSeek App,会不会春节档进行产品策略的迭代,同样值得关注。 事实上,随着AI产品在C端全面加速,伴随着元宝等App的红包雨,AI春节档已经不仅仅是要在业内赢得声量,春节期间产品的“可展示性”异常重要。用户需要能够快速看到产品的价值,最好是能够在几分钟内完成一个让人印象深刻的任务。 比如千问“点杯奶茶”演示的例子,就直观地展示了模型的能力,用户可以立即理解这个功能的价值。 相比之下,那些需要长时间使用才能体会到价值的功能,在春节档的传播中就会处于劣势,尤其是像编程这样的能力,在做大声量的环节并不占优势。 也就是说,和2025春节档相比,想要单凭技术迭代,在如今的AI应用市场赢得用户声量并非易事。 大厂相继下场卷AI应用的2026年,模型需要配合产品逻辑进行优化,谁能先呈现出可以被用户快速接受、快速理解的能力,就有望在今年的春节档AI赛马中脱颖而出。 考虑到当前业内的关注度,深度求索和梁文锋,仍然有可能凭借DeepSeekV4再复刻一次“DeepSeek时刻”。只不过,如今的春节档“AI赛马”,已经演变成模型技术、产品玩法、企业声量多个赛道上的大乱斗。
强脑科技CEO:脑机有望治愈失眠 已帮一批用户改善睡眠
快科技1月30日消息,据媒体报道,强脑科技CEO韩壁丞在近期会议中透露,公司正在研发一款旨在改善睡眠质量的产品,帮助人们“睡得更好一点点”。 许多人,甚至包括那些“几十年没有真正睡一个好觉”的人,正逐渐意识到“睡一个好觉本身就是一种被忽略了很久的幸福”。 韩壁丞称,尽管这项技术很难,第一款产品做得也不是特别好,但是现在已经帮助了一批人能够开始睡好。 强脑科技希望用脑机接口技术去帮助更多的肢体残疾人重新行走,帮助自闭症的孩子能够开口说话,帮助有失眠问题的人去睡一个踏实的觉,也希望能够帮助哪些有阿尔兹海默症的老人能够延缓遗忘。 韩壁丞表示,强脑科技做脑机接口技术不是为了创造所谓的契机,而是希望能够修复那些被命运中断的日常。 作为被誉为“杭州六小龙”之一的创新企业,强脑科技专注于非侵入式脑机接口产品研发,其产品已获美国FDA及欧洲CE认证,并曾入选《时代》周刊“年度最佳发明”。公司也是全球少数实现脑机接口产品规模化量产的企业,研发投入位居行业前列。 此外,强脑科技此前完成20亿元融资,创下除马斯克旗下Neuralink以外,全球脑机接口领域规模第二大的融资纪录。
阿里亮剑,最神秘芯片企业曝光,最后一块拼图补齐AI梦之队
摘要: 九年时间,阿里走到全球AI竞赛的牌桌上。“通云哥”亮相,剑指谷歌。 凤凰网科技 出品 作者|董雨晴 没有高调的发布会,也没有预热。1月29日,平头哥官网悄然上线一款名为“真武810E”的高端AI芯片。然而有心之人发现,其正是此前被央视《新闻联播》曝光的阿里自研芯片PPU。 作为阿里集团的秘密武器,在诞生的前8年时间里,平头哥一直是颇为低调的存在。就连这一次曝光的AI专用芯片PPU真武也是首度被官方证实。 但一出手已是头部,在性能上,真武810E可超过英伟达A800和主流的国产GPU,与英伟达H20相当,可用于AI训练、AI推理和自动驾驶。凤凰网科技了解到,2025年真武已开启大规模商业化落地,到目前服务客户超过了400家。据知情人士透露,平头哥真武PPU芯片出货量已达数十万片。 在真武背后围绕的,是亚太第一的云基础设施阿里云和全球开源最强模型千问。要知道,AI大模型想要发挥最强实力,背后是一整套软硬件高度协作的结果。曾有AI从业者向凤凰网科技吐露,有大厂一年花几百亿买芯片,却没能在infra层配齐人才,以至于芯片并没有真正发挥超强价值。 这反映的是,AI时代的比拼,随着算力需求的指数级爆发,已演变为一场计算精密的全栈协同竞赛。 当阿里真正明牌,外界会发现,通云哥在软硬层面的高度紧密耦合,构筑出一个牢固的金三角——亚太第一的云计算基础设施、最强开源模型、全栈布局的自研芯片,必定将成为大模型走向千行百业的最优解。也让阿里自身更有实力与全球科技巨头谷歌等一搏。 阿里亮剑,“通云哥”首次浮出水面 随着昨日平头哥官网上线“真武810E”,标志着阿里自研AI专用芯片(PPU)正式走到台前。至此,阿里巴巴酝酿多年的“通云哥”战略拼图终于完整亮相。 通云哥,正是通义实验室、阿里云和平头哥组成的阿里巴巴AI黄金三角。凤凰网科技了解到,阿里巴巴正在将“通云哥”打造成一台AI超级计算机,它同时拥有全栈自研芯片平头哥、亚太第一的阿里云,以及全球最强的开源模型“千问”,可以在芯片架构、云平台架构和模型架构上协同创新,从而实现在阿里云上训练和调用大模型时达到最高效率。 在一些行业人士看来,在现如今的系统战阶段,单点强悍并不足以拉开技术优势,真正的护城河是构建全栈能力。 在海外,相比于OpenAI的强势技术创新,谷歌被看作是更稳健的选手。其崛起路径与此次阿里曝光的战略意图有相似之处。去年两款顶尖大模型——谷歌的Gemini 3和Anthropic的Claude Opus4.5,都被爆出大部分训练和推理都依赖于TPU。2025年随即成为谷歌打响生态反击战的一年,也正是这一年,一度认为AI存在泡沫的巴菲特以执掌的伯克希尔-哈撒韦大举买入了谷歌母公司的股份,以超43亿美元重仓,以示其对谷歌模式的高度看好。 如今看来,阿里和谷歌将是全球唯二在大模型、云和芯片三大领域均具备顶级实力的科技公司。 新角色平头哥,补齐最后一块拼图 阿里与谷歌对于造芯的开局,也出奇地一致。 2014年,阿里内部就在思考,要不要造芯、该怎么造芯。同一时间,谷歌也在筹划使用深度学习,由于深度神经网络需要消耗大量计算资源。所以需要更强大、更高效,而且更适合加速谷歌深度学习任务的芯片。 2016年,谷歌TPU芯片面世,不到两年后,阿里收购了自主嵌入式CPU IP Core公司中天微,后又与达摩院自研芯片团队强力整合,成立了平头哥。 作为一块难啃的骨头,在阿里内部,平头哥虽低调潜行,但也被给予了“饱和式投入”的待遇。高强度的研发以及与阿里云、通义实验室等核心部门的紧密协同,让平头哥用8年时间高度压缩走完了全球芯片产业数十年的迭代周期,一举跃升为芯片产业链里的最大黑马。 2019年,第一颗芯片含光800面世,采用自研架构,推理性能达到78563IPS,每秒可处理7万8千张图片,创造了当时同类芯片领域的性能和能效比的两项第一,并逐步应用于淘宝双11主搜场景练兵。 同时期,更高难度的通用CPU研发启动,倚天710在2021云栖大会上现身,阿里成为首家具备CPU研发设计能力的中国互联网公司。 通用AI芯片的启动实际更早,2020年,真武810以秘密研发的形式展开,而后于2022年底、2023年初,完成了研发和场景验证。最终,采用的是GPGPU(General-Purpose computing on GPU,通用并行计算架构)技术路线。 不同于同期多家GPU初创公司的高调发布,阿里PPU的研发和验证几乎始终处在“只对内部开放”的状态。 就这样一直到2025年,这个秘密武器才真正被曝光。 先是《The Information》报道,平头哥首代PPU的整体性能可对标英伟达H20,升级版本甚至在部分指标上超过A100;随后在9月,央视《新闻联播》的一则新闻画面短暂出现了这颗芯片的关键规格:96GB HBM2e显存、700GB/s的片间互联带宽、PCIe5.0×16接口,以及400W的功耗水平。 至此,阿里已为真武的批量上市做足了准备。凤凰网科技了解到,“真武”PPU已在阿里云实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车、新浪微博等400多家客户。 其中,多位行业从业者都表示,“真武”PPU性能优异稳定、性价比突出,在业内口碑良好,市场供不应求。 目前,除真武外,平头哥产品还覆盖了倚天710(服务器芯片CPU)、含光800(AI推理芯片NPU)以及存储和网络芯片、端侧和IOT芯片等。 最强铁三角,意味着什么? 通云哥的强悍之处,不仅在于真武的强势商业化落地,更在于其高度协同的组合拳。 这是一个三方利好的巨大优势。首先对平头哥而言,在兼顾芯片通用性的前提下,平头哥可以针对阿里云智算场景的需求和特性协同优化,能直接加快算力、存储等核心芯片从研发到应用落地的进程,这也是为什么平头哥可以用更短的时间走完国际芯片巨头用十几年甚至几十年建立的成绩。 对通义而言,阿里已拥有最强开源模型千问,在自研芯片和云服务的加持下,千问的训练和推理效率可以得到进一步提升,并更好地服务企业客户。凤凰网科技了解到,真武芯片针对以Qwen3为代表的主流MoE架构模型做了大量优化,可满足千问大模型对大规模计算的需求。 对阿里云而言,在算力紧缺的大背景下,平头哥自研芯片不仅能在芯片供给侧降本,还能为企业客户提供更差异化的算力和模型服务选择,进一步提升阿里云的市场竞争力。 最终,形成1+1+1>3的强势效果,作为阿里集团的黄金梦之队,将在AI时代构筑起极其强大的护城河。 更别提,其在各自行业里都已占据领先性。真武出货量位居国产GPU第一阵营,千问大模型服务过超百万家企业。沙利文数据显示,千问在中国企业级大模型调用市场中位居第一,是中国企业选择最多的大模型。阿里云的市场份额同样牢固,根据阿里云最新财报显示,阿里云季度营收达398.24亿元,同比增长34%,其中AI相关产品收入连续9个季度实现三位数增长,成为阿里巴巴核心增长引擎之一。 现在,通云哥的亮相或许只是一个新开始。只有身处其中的人才能看到,站在AI应用的产业化、规模化拐点之上,背后是巨大的市场需求。随着多模态技术架构的持续创新、Agent的大规模落地,千行百业都将显露出巨大的AI落地需求,在其背后芯片、大模型与云基础设施大有可为。 曾有AI infra企业向凤凰网科技表露其中的难点,“你会发现千行百业的需求差异是巨大的,所以单一的方案是满足不了大家的AI改造需求的”。 正因此,“通云哥”将让阿里拥有一张极具弹性的组合弹药,在AI竞赛的下半场真正拉开参赛者的差距。 长远来看,阿里甚至有机会改写自身叙事。从电商基因,走向硬科技基础设施的叙事,用评估英伟达、谷歌等海外科技巨头的逻辑,重新看待在AI时代铺设“水电煤”的中国科技巨头。 尽管如今亮剑激动人心,但外界看不到的是这条路已经走了多年。 九年时间,阿里走到全球AI竞赛的牌桌上。当前,全球AI企业竞争加剧,亚马逊、微软、谷歌和阿里巴巴组成的“四强”格局占据了超过80%的云平台市场份额。阿里已是全球除美国三朵云之外最重量级的选手,正在以AI基础设施、超级云平台、顶尖大模型和算力芯片的全方位投入,角逐全球四朵超级AI云竞赛。
王兴兴谈宇树机器狗成全球销冠:大家认可度高 成本有优势
快科技1月30日消息,宇树科技创始人CEO王兴兴在最新访谈节目中谈及了宇树机器狗成全球销冠一事。 他表示:“这款机器人也是全球目前差不多出货量最多的小的机器狗,一年大概(卖)几万台吧,基本上(能占到全球市场的)60%左右吧,当然统计口径也不是非常准确。” 对于宇树机器狗成全球销冠的原因,王兴兴一方面解释称:第一因为我们这个行业做了很多年了,当初最早的话,其实机器狗2013年就开始做了,在这个领域我们做的在国内外都做得比较早。 因为在这个领域比较早,大家也知道有比较明显的先发优势,大家对宇树科技的认可度会比较高一点。 另一方面,王兴兴还透露“我们公司做产品的话,里面的性能指标,包括零售价格都是比较有优势的,里面的机器人的核心零部件都是我们自己开发的,成本比较有优势。” 随后,谈到控制成本的问题,王兴兴表示:“因为从小我自己动手做东西很多,但是都是从边角料开始做的,您可以认为有时候都是捡垃圾,一开始做些东西出来,对于成本控制其实是相对比较有经验性的。” 公开报道显示,宇树科技的机器狗产品,客户阵容星光熠熠,包括亚马逊、谷歌、英伟达、Meta等国际科技巨头。
马斯克:xAI明年将大规模生成高质量游戏、影视作品
IT之家 1 月 30 日消息,据科技媒体 TweakTown 昨天报道,埃隆 · 马斯克曾于 2025 年在 X 平台预测,xAI 的游戏工作室将在今年年底之前推出一款“出色的 AI 生成游戏”。 IT之家在此援引 TweakTown,虽然马斯克的这番话相当模糊,而且现实世界中已经存在《Arc Raiders》等包含 AI 生成内容的游戏,但大众对“AI 生成游戏”这一概念的普遍理解是:这款游戏完全可玩,其玩法、美术设计、关卡等内容均由 AI 产出。 马斯克的这一想法非常大胆,毕竟截至目前世界上还没有任何一款令人印象深刻的 AI 生成游戏演示片段、实机 Demo。 不过,马斯克现在还在对这一观点持续加码。他昨天在 X 平台表示:“我们明年将大规模推出可实时生成、具备高质量、并能按个人定制的影视内容和电子游戏”。 马斯克还补充道,从技术角度讲,高分辨率的实时 AI 视频是可以实现的,但由于成本过高,暂时还无法面向大众市场。这一观点听起来相当可信,然而“高质量影视作品”和“可大规模生成的电子游戏”依然让人感觉无法触及。 当然,每个人心中对于“高质量”的定义各不相同,但无论如何,我们脑海中幻想的“高质量 AI 游戏”应该更接近《战神》这样的 3A 作品,而不是简单的克隆版《俄罗斯方块》。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。