行业分类:
加载中...
头条分类:
加载中...
微软打算不做游戏机了,但Xbox会越来越多
Xbox 是什么? 最近的游戏市场可以说相当热闹:Switch 2 发售引发热烈讨论,索尼也直播官宣了几款新游戏,并确认了 PS6 正在开发。 同为御三家之一的微软也不甘人后,这个月也带来了久违的新硬件:ROG Xbox Ally 和 Meta Quest 3S Xbox Edition,分别是 Xbox 从未涉足的游戏掌机和 VR 头显形态。 至于微软自己,也已经官宣了正在打造 Xbox 的次世代主机,和 AMD 深度合作,不只有传统的游戏主机,还有掌机、PC、云服务以及配件,并且不会和 Xbox 游戏商店单独绑定。 根据此前的爆料,即将到来的次世代 Xbox 主机,很可能将是微软推出的最后一款主机产品。 难道微软「砍刀部」的手终于伸向了 Xbox 这个经典的游戏机品牌? 其实不然,Xbox 会继续存在,但将不再和微软这家公司深度绑定,成为一种品牌和服务。 也就是说,以后「Xbox」将走「Windows」的老路,微软负责提供软件和游戏库,具体的产品形态就交给 OEM 厂商自己设计完成。 这样的转型,发生在 Xbox 部门运营情况江河日下的处境。 2024 年堪称 Xbox 历史上最惨淡的一年,主机销量不到 300 万。去年到现在,Xbox 部门进行了大规模的裁员和改组,还关闭了旗下大量的工作室。 另一方面,老对手任天堂和索尼虽然去年也略显颓势,但 Switch 和 PS5 已经都算得上成功,而 Xbox Series X/S 则表现平平。 而游戏机的对手早已不只有其他品牌的游戏机,人手一台的智能手机,是一种更灵活、更丰富的娱乐方式。 在这个消费内容都偏碎片化的时代,如何让人愿意花额外的一笔钱去买一台专门用来玩游戏的设备,成为了摆在各个厂商面前的大命题。 微软的思路很简单,游戏机难卖,那就直接卖游戏服务: Play the games you want, with the people you want, anywhere you want. 想玩什么就玩什么,想和谁玩就和谁玩,想在哪玩都行。 其中最重要的,就是这个「随地开玩」(play anywhere)的理念。 实际上,通过大量收购并购,尤其在吞并动视暴雪、贝塞斯达后,微软已然跻身世界前列的游戏开发商,第一方游戏阵容竞争力强劲——对游戏这样的娱乐内容而言,独占阵容就是用户愿意为其掏钱、花时间的理由,这也是「随地开玩」理念得以成立的根基。 随时随地能玩游戏,这也不是微软一家的想法,任天堂的做法是继续延续 Switch 2 这种主机+掌机的多模态多场景模式;而目前来看,索尼也想做一台主打和游戏主机协同串流、支持云游戏并且可以玩 PS4 游戏库的掌机。 但微软要走得更远,掌机要做,但不一定自己做,更重要的是让 Xbox 遍地开花,通过舍弃现在日渐萎缩的硬件收入,换取更多授权费、订阅费,就像现在的 Windows 那样。 这个变化的开端就是全新推出的 ROG Xbox Ally 系列。虽然说是「首款 Xbox 掌机」,但它本质更接近一台 Windows 游戏掌机。 PC 掌机这个品类在这几年的声量可谓是越来越大,但销量可以说毫不起眼:卖了这么多年总计才刚刚突破 600 万,其中可能有 350 万都是非 Windows 的 Steam Deck 产品,而 Switch 2 前九个月的销量预计 1500 万台。 虽然买单的只有只有那一批硬核游戏和科技迷,但 Windows 掌机的热度确实是有热度,而微软入局的 ROG Xbox Ally 蹭了一波热度,昭告全世界:我们要来重塑 Windows 游戏掌机体验了。 从前的 PC 掌机,基本都是搭载一个完整的 Windows 11,用手柄交互极其痛苦,更大的痛点是能耗大,其实根本不太适合掌机这种高性能移动设备。 而 ROG Xbox Ally 运行的不是普通的 Windows 11,而是 Xbox 团队深度「魔改」过的版本,更加轻量级,让游戏机续航和性能更强,但却保留了 Windows 兼容海量 PC 游戏的特点,还能串流 Xbox 主机上的游戏。 更重要的是,这个系统以后也将出现在更多 Windows 掌机上,正面和同样开放授权的 SteamOS 对决。 除了 Xbox 版 Windows,「随时开玩」的真正王牌,是 Xbox Game Pass 的订阅制服务,真正实现「你的下一台 Xbox,何必是 Xbox」。 就像是苹果推出的 Apple Music 同样可以用在 Android 和 Windows,Xbox Game Pass 的最终目标,应该是能在所有的 PC、游戏机上使用,包括 Switch 和 PlayStation。 甚至包括一些面向未来计算设备,微软不需要自己去琢磨合适的方案,只需要进行「联名」。 Meta Quest 3S Xbox 版本其实就是一个更好适配 Xbox 手柄以及带有 Xbox 绿色设计的普通头显,能串流游玩 Xbox 游戏。 用 Meta Quest 3S Xbox 串流游戏,图源:The Verge 用「跳出盒子(Jump out of the box)」来形容微软的思路,或许最适合不过。 既然越来越难说服用户花钱买一台专门打游戏的机器,那索性就不自己做了,让用户订阅游戏服务,想在什么设备上玩都行。 但一个问题也将随之而来:未来「Xbox」这个概念,包括微软推出的 Xbox 主机、带有 Xbox 授权的 PC 掌机,以及众多 Xbox Game Pass 的设备。 用同一个概念和品牌概括这些形态大相径庭,甚至游戏方式都不尽相同的设备和服务,对大众消费者来说并不友好。 更深层的一个隐忧是,当 Xbox 能够启动 Steam 等第三方游戏、以及能出现在各种不同的设备上时,那「Xbox」这个品牌还剩下什么? 仅仅只是一个集中的游戏启动器?或者游戏机上的一颗西瓜键?还是一个海量游戏工作室集群? 这是微软需要思考的问题,毕竟,Xbox 烧的钱已经够多了。 商业公司总归该考虑怎么赚钱了。
“上下文工程”硅谷爆火,Karpathy亲自站台!提示工程瞬间失宠
【新智元导读】继提示工程之后,「上下文工程」又红了!这一概念深得Karpathy等硅谷大佬的喜欢,堪称「全新的氛围编程」。而智能体成败的关键,不在于精湛的代码,而是上下文工程。 硅谷如今炙手可热的,不再是提示词工程,而是上下文工程(Context Engineering)! 就连AI大神Karpathy,都为「上下文工程」投下了一票。 还有Shopify CEO Tobias Lütke称,自己更喜欢「上下文工程」,因其准确描述了一个核心技能—— 通过为任务提供完整的背景信息,让大模型能够合理解决问题的艺术。 一夜之间,「上下文工程」红遍全网,究竟是为什么? 上下文工程,一夜爆红 这背后原因,离不开AI智能体的兴起。 OpenAI总裁Greg Brockman多次公开表示,「2025年,是AI智能体的元年」。 决定智能体成功或失败最关键的因素,是提供的「上下文质量」。也就是说,加载到「有限工作记忆」中的信息愈加重要。 大多数AI智能体失败的案例,不是模型的失败,而是上下文的失败! 那么,什么是上下文? 要理解「上下文工程」,首先需要扩展「上下文」的定义。 它不仅仅是你发送给LLM的单一提示,可以将其视为「模型再生成响应之前,看到的所有内容」,如下: 指令/系统提示:定义模型在对话中行为的初始指令集,可以/应该包括示例、规则等。 用户提示:用户的即时任务或问题。 状态/历史(短期记忆):当前对话,包括用户和模型的响应,截至此刻。 长期记忆:跨多次之前对话收集的持久知识库,包含学习到的用户偏好、过去项目的摘要或要求记住以备将来使用的事实。 检索信息(RAG):外部、实时的知识,来自文档、数据库或API的相关信息,用于回答特定问题。 可用工具:模型可以调用的所有功能或内置工具的定义,比如check_inventory、send_email。 结构化输出:模型响应格式的定义,例如JSON对象。 可以看出,与专注于在单一本文字符串中,精心构建完美指令的「提示词工程」不同,「上下文工程」的范畴要广泛得多。 简单来说: 「上下文工程」是一门学科,它致力于设计和构建动态系统。 这些系统能够在恰当的时机、以恰当的格式,提供恰当的信息和工具,从而让LLM拥有完成任务所需的一切。 以下是「上下文工程」的所有特点 · 它是一个系统,而非一个字符串:上下文并非一个静态的提示词模板,而是一个系统的输出,这个系统在对LLM进行主调用之前就已经运行。 · 它是动态的:上下文是即时生成的,为当前任务量身定制。比如,某个请求可能需要的是日历数据,而另一个请求则可能需要电子邮件内容或网络搜索结果。 · 它强调在恰当时机提供恰当信息与工具:其核心任务是确保模型不会遗漏关键细节(谨记「垃圾进,垃圾出」原则)。这意味着只在必要且有益的情况下,才向模型提供知识(信息)和能力(工具)。 · 它注重格式:信息的呈现方式至关重要。一份简洁的摘要远胜于原始数据的罗列;一个清晰的工具接口定义也远比一条模糊的指令有效。 是一门科学,也是一门艺术 Karpathy长文点评中,同样认为「上下文工程」是艺术的一种。 人们往往将提示词(prompt),联想为日常使用中——发给LLM的简短任务描述。 然而,在任何一个工业级的 LLM 应用中,上下文工程都是一门精深的科学,也是一门巧妙的艺术。 其核心在于,为下一步操作,用恰到好处的信息精准填充上下文窗口。 说它是科学,是因为要做好这一点,需要综合运用一系列技术,其中包括: 任务描述与解释、少样本学习示例、RAG(检索增强生成)、相关的(可能是多模态的)数据、工具、状态与历史记录、信息压缩等等。 信息太少或格式错误,LLM就没有足够的上下文来达到最佳性能; 信息太多或关联性不强,又会导致LLM的成本上升、性能下降。 要做好这一点是颇为复杂的。 说它是艺术,则是因为其中需要依赖开发者对大模型「脾性」的直觉把握和引导。 除了上下文工程本身,一个LLM应用还必须做到: 将问题恰到好处地拆解成控制流 精准地填充上下文窗口 将调用请求分派给类型和能力都合适的LLM 处理「生成-验证」的UIUX流程 以及更多——例如安全护栏、系统安全、效果评估、并行处理、数据预取等等… 因此,「上下文工程」只是一个正在兴起的、厚重且复杂的软件层中的一小部分。 这个软件层负责将单个的LLM调用,以及更多其他操作整合协调,从而构建出完整的LLM应用。 Karpathy表示,把这类应用轻率地称为「ChatGPT的套壳」,这种说法不仅老掉牙了,而且大错特错。 有网友对此调侃道,上下文工程,是全新的「氛围编程」。 Karpathy回应称,「我倒不是想自创个新词什么的。我只是觉得,大家一提到「提示词」,就容易把一个其实相当复杂的组件给想简单了」。 你会用一个提示词去问LLM「天空为什么是蓝色的」。但应用程序呢,则是需要为大模型构建上下文,才能解决那些为它量身定制的任务。 智能体成败,全靠它了 其实,打造真正高效的AI智能体秘诀,关键不在于编写的代码有多复杂,而在于你所提供的上下文有多优质。 一个效果粗糙的演示产品,同一个表现惊艳的智能体,其根本区别就在于提供的上下文质量。 想象一下,一个AI助理需要根据一封简单的邮件来安排会议: 嘿,想问下你明天有空简单碰个头吗? 「粗糙的演示」智能体获得的上下文很贫乏。它只能看到用户的请求,别的什么都不知道。 它的代码可能功能齐全——调用一个LLM并获得响应,但输出的结果却毫无帮助,而且非常机械化: 感谢您的消息。我明天可以。请问您想约在什么时间? 接下来,再看看由丰富的上下文加持的惊艳智能体。 其代码的主要任务并非是思考如何回复,而是去收集LLM达成目标所需的信息。在调用LLM之前,你会将上下文扩展,使其包含: 代码的主要工作,不是决定如何响应,而是收集LLM完成目标所需的信息。 在调用LLM之前,你会扩展上下文,包括: 日历信息:显示你全天都排满了 与此人的过去邮件:用来判断应该使用何种非正式语气 联系人列表:用来识别出对方是一位重要合作伙伴 用于send_invite或send_email的工具 然后,你就可以生成这样的回复: 嘿,Jim!我明天日程完全排满了,会议一个接一个。周四上午我有空,你看方便吗?邀请已经发给你了,看这个时间行不行哈。 这种惊艳的效果,其奥秘不在于模型更智能,或算法更高明,而在于为正确的任务提供了正确的上下文。 这正是「上下文工程」将变得至关重要的原因。 所以说,智能体的失败,不只是模型的失败,更是上下文的失败。 要构建强大而可靠的 AI 智能体,我们正逐渐摆脱对寻找「万能提示词」,或依赖模型更新的路径。 这一点,深得网友的认同。 其核心在于对上下文的工程化构建:即在恰当的时机、以恰当的格式,提供恰当的信息和工具。 这是一项跨职能的挑战,它要求我们深入理解业务用例、明确定义输出,并精心组织所有必要信息,从而使LLM能够真正「完成任务」。 最后,借用网友一句话,「记忆」才是AGI拼图的最后一块。
模型被指抄袭后华为盘古团队发声:严格遵循开源要求
凤凰网科技讯(作者/于雷)7月7日,针对近期开源社区及网络平台上关于华为盘古大模型开源代码的广泛讨论与质疑,盘古Pro MoE技术开发团队正式发布官方声明,对此事做出回应。 声明首先明确指出,盘古Pro MoE开源模型是基于华为自家的昇腾(Ascend)硬件平台开发、训练的基础大模型,并非基于其他厂商模型进行增量训练的产物。华为方面强调,该模型在架构设计和技术特性上均有关键创新。 在技术层面,华为特别介绍了其创新性提出的分组混合专家模型(MoGE)架构。据称,这是全球首个面向昇腾硬件平台设计的同规格混合专家模型。该架构的核心优势在于有效解决了大规模分布式训练过程中的负载均衡难题,从而显著提升了整体的训练效率。对于更多技术细节,官方建议参考已披露的昇腾生态竞争力系列技术报告。 对于备受关注的代码相似性问题,声明中也并未回避。华为方面承认,盘古Pro MoE开源模型的部分基础组件代码实现,确实参考了业界的开源实践,并涉及其他开源大模型的部分开源代码。但团队同时强调,这一做法严格遵循了开源许可证的要求,并在相关的开源代码文件中清晰标注了版权声明,认为这是开源社区的通行做法,也符合开源协作的精神。 最后,该声明重申了华为在开源领域的立场,表示坚持开放创新并尊重第三方知识产权。团队欢迎并期待开发者与合作伙伴在官方开源社区Ascend Tribe,就技术细节进行更深入、专业的交流与探讨,共同推动模型能力的优化与技术落地。
戴伟立的芯片版图
在硅谷这个充满传奇的地方,每天都在上演着从零到一的创业故事。但能够真正写下历史的人并不多,戴伟立(Weili Dai)就是其中一位。 作为Marvell的联合创始人,戴伟立见证并参与了这家公司从初创企业成长为市值数百亿美元的半导体巨头的全过程。值得关注的是,她并未止步于此,而是在近年来转身成为了硅谷半导体投资领域的关键推手,在一系列初创企业的成长过程中发挥着重要作用。 从技术工程师到企业联合创始人,从商业领袖到天使投资人,戴伟立的每一次转型都踏准了行业发展的节拍。她是如何在竞争激烈的半导体行业中缔造自己的商业版图的?让我们来看看她的故事。 夫妻档的创业传奇 戴伟立出生于中国上海,自幼便展现出对理科的天赋。中学时期,她随家人移民美国,在旧金山湾区落脚,并最终进入加州大学伯克利分校(UC Berkeley)学习计算机科学。 也正是在伯克利,她遇见了改变她一生命运的伴侣——周秀文(Sehat Sutardja),那时的戴伟立正在攻读计算机科学学士学位,而周秀文则是电子工程系的博士生。两人在学术的殿堂里相遇,不仅收获了爱情,更重要的是,他们发现彼此都对技术创新有着同样的热情和执着。 周秀文是一个技术天才,专注于芯片设计和算法优化;戴伟立则更擅长将复杂的技术转化为市场可接受的产品。这种互补的性格和技能,为他们日后的创业奠定了完美的基础。 毕业后,两人并没有立即创业。戴伟立进入了佳能研究中心美国公司,从事软件开发和项目管理工作。这段经历让她深入了解了从技术研发到产品落地的全过程,也让她意识到技术与市场之间的巨大鸿沟。 与此同时,周秀文也在学术界和工业界积累着自己的技术实力。夫妻二人在各自的领域默默耕耘,但心中始终有一个共同的梦想:创造出真正改变世界的技术。 1995年,在网络与PC行业即将腾飞的节点,戴伟立与周秀文共同创立了Marvell Technology Group,公司的名字来源于英文"Marvel"(奇迹),寓意着他们要创造技术奇迹的决心。 起初,Marvell 是一家无晶圆芯片设计公司,专注于存储设备控制器和网络通信芯片的设计开发,起步资金仅为100万美元。创业初期的日子并不容易,两人身兼数职,周秀文负责技术研发,戴伟立则承担起产品规划、市场开拓和公司管理的重任。 他们的核心技术优势是为硬盘制造商提供高速数据接口控制器——一种可以在不牺牲稳定性和兼容性的情况下,大幅提升存储读写速度的芯片。当时这类产品在市场上尚属空白,而Marvell 迅速找到切入点,与西部数据(Western Digital)、希捷(Seagate)等巨头建立起合作。 Marvell的芯片凭借着卓越的性能和可靠性,迅速在半导体行业中崛起。到1999年,Marvell的年营收已突破1亿美元。2000年,Marvell在纳斯达克成功上市,股票代码“MRVL”,市值迅速攀升。此后,公司借助全球存储、路由器、交换机、WiFi模块等领域的强劲需求持续扩张。 2002年,Marvell推出第一代以太网控制芯片,迅速击败Broadcom、Realtek等竞争者。 2004年,Marvell进入Wi-Fi市场,开始与高通、英特尔正面对抗。 2006年,Marvell以6亿美元收购英特尔的XScale移动处理器业务,进军智能手机芯片领域。 2008年之后,公司逐步进军机顶盒、打印机、平板电脑市场,业务多元化。 在巅峰期,Marvell的市值一度超过200亿美元,全球员工数达数千人,成为美国十大无晶圆芯片设计公司之一。戴伟立也因此多次入选《福布斯》“全球最具影响力女性”排行榜,成为极少数在全球IC设计领域具有实际运营权的女性企业家之一。 但随着企业规模的扩大,Marvell的治理模式开始暴露出一些问题。由于公司高层几乎完全由创始人家族控制,外界逐渐质疑其内部控制、财务透明度和治理机制。 2015年9月,美国证券交易委员会(SEC)对Marvell发起调查,指控其在多个财报季度中提前确认收入、操控利润以达预期。与此同时,公司内部也爆出匿名举报信,称董事会存在疏漏,对会计部门缺乏足够监督。 这一事件很快演变为一场“高管地震”:2016年4月,创始人周秀文被董事会要求辞去CEO职务,几个月后,戴伟立也被要求辞任总裁,并退出董事会。 对外界来说,这场风波意味着一代芯片创业夫妻正式告别亲手打造的帝国;对戴伟立个人而言,离开Marvell并未让她停下脚步。反而,这成为她职业生涯的第二次飞跃。 从创业者到投资人 在离开Marvell之后,戴伟立将目光投向了更广阔的科技生态,开始以投资人和创业导师的身份,支持和培养下一代的科技创新者。戴伟立的投资理念延续了她在Marvell时期的成功经验:始终关注那些具有颠覆性技术潜力,同时能够解决真实市场需求的公司。 2017年,戴伟立与周秀文共同创办了FLC Technology Group,其总部位于拉斯维加斯。"FLC"代表着 Founders(创始人)、Leaders(领导者)、Creators(创新者),FLC的目标是打造一个技术与商业融合的创新加速平台,聚焦AI、半导体、先进封装、边缘计算等领域,为全球范围内的创业者提供系统支持,包括技术孵化、战略指导、渠道拓展、投资对接等。 与传统的风险投资机构不同,FLC更像是一个综合性的创业服务平台,不仅提供资金支持,更重要的是为创业者提供从技术到市场的全方位支持。 2019年,面对AI芯片日益爆发的趋势,戴伟立再次出手,创立了DreamBig Semiconductor,聚焦下一代计算架构与芯粒技术。这家公司专注于开发前沿的chiplet平台,推动下一波经济适用、可扩展且模块化的半导体解决方案,服务于AI时代及未来发展。 据了解,DreamBig推出了名为"MARS"的开放芯片平台(Modular Advanced Reconfigurable System),这是一个世界领先的平台,能够为大众市场提供使用开放标准Chiplets的新一代半导体解决方案。MARS平台以模块化、高可组合、高能效为特色,为AI初创企业和系统集成商提供灵活的硬件基础。 MARS Chiplet平台解决了AI服务器和加速器硬件开发者面临的两大技术挑战——计算规模扩展和网络规模扩展。该平台的Chiplet Hub是业界最先进的3D内存优先架构,能直接访问内存。 2024年7月,DreamBig完成7500万美元B轮融资,由三星催化基金(Samsung Catalyst Fund)和周秀文家族基金共同领投,使公司总融资额超过9300万美元。这轮融资的投资者还包括Hanwha、Event Horizon、Raptor等新投资方,以及UMC Capital、BRV、Ignite Innovation Fund和Grandfull Fund等现有投资者。 在摩尔定律逐渐遇阻、Chiplet被视为延续性能增长的"新摩尔路线"背景下,DreamBig的技术路线显得尤为重要。该公司是Chiplet架构领域中最受关注的公司之一,其MARS平台的开放性和模块化特性,为整个行业提供了新的发展思路。 在摩尔定律逐渐遇阻、Chiplet被视为延续性能增长的"新摩尔路线"背景下,封装技术的重要性日益凸显。2021年,戴伟立在新加坡创立了Silicon Box,专注于先进2.5D/3D封装工艺,填补了亚太市场在小批量、快速迭代封装方面的空白。 Silicon Box主打低成本、高密度、节能型封装解决方案,服务于AI芯片、可穿戴设备、汽车SoC等高增长市场。其独立运营的无尘工厂采用自动化流程与定制封装架构,打破传统OSAT(封装测试服务商)主导的格局。 这家公司的创立体现了戴伟立对于半导体产业链的深刻理解。在AI芯片性能需求不断提升的背景下,先进封装技术已经成为了性能提升的关键环节。Silicon Box的技术路线不仅满足了市场对于高性能封装的需求,也为中小型芯片设计公司提供了更加灵活的封装选择。 除了芯片与基础设施,戴伟立也深耕AI终端应用领域。她是AI语音公司MeetKai的联合创始人兼执行董事长。MeetKai专注于自然语言处理(NLP)与生成式AI虚拟人交互技术,推出了可用于虚拟现实、数字孪生、智慧客服和教育场景的AI对话引擎。 MeetKai的技术特色在于其AI助手不仅能理解语义,还能处理上下文逻辑,实现多轮对话与个性化推荐。这种技术能力使得MeetKai在竞争激烈的AI语音市场中脱颖而出。 2023年以来,MeetKai与多家XR设备厂商达成合作,成为元宇宙应用领域的语言入口技术提供商。这也体现了戴伟立对"人-机-环境"融合趋势的长期判断。通过MeetKai,用户可以更自然地与虚拟环境进行交互,这对于元宇宙应用的普及具有重要意义。 值得一提的是,除了上述几家公司外,戴伟立还持有Alphawave IP 9630万股股份,是这家在伦敦上市的半导体公司的第二大股东。Alphawave IP是一家专注于高速连接和数据基础设施半导体IP的公司,为数据中心、5G网络和其他高性能应用提供关键技术。 今年6月,高通同意以约24亿美元现金收购Alphawave,这笔交易预计将在明年第一季度完成,而戴伟立届时也将获得 2.37 亿美元的收益。 戴伟立的投资版图还包括多个在不同技术领域具有前瞻性的公司: Nuvia:CPU设计领域的明星收购 Nuvia是一家专注于高性能CPU设计的公司,由前苹果和谷歌的芯片设计专家创立。2020年9月,该公司宣布完成B轮2.4亿美元融资,戴伟立和周秀文参与了该轮投资。 高通在2021年1月宣布以约14亿美元收购Nuvia,此次收购创造了戴伟立投资组合中的重要成功案例。高通表示,Nuvia CPU结合高通技术公司已有的领先移动图形处理单元(GPU)、AI引擎、DSP和专用多媒体加速器,将进一步巩固高通骁龙平台的领先性,并将使骁龙成为未来联网计算的首选平台。 目前Nuvia CPU陆续集成于高通技术公司广泛的产品组合当中,赋能旗舰智能手机、下一代笔记本电脑、数字座舱以及先进驾驶辅助系统、扩展现实以及基础设施网络解决方案。 Nubis Nubis成立于2020年,是一家在硅光子学、数字和模拟IC设计以及电子和光学封装领域拥有世界一流专业知识的公司。2023年,该公司发布了全新光学技术平台及其首款产品,该平台融合了创纪录的密度和超低功耗,使客户能够构建所需的网络,从而充分释放其ML/AI集群的处理能力。 这项技术对于大规模AI训练和推理场景具有重要意义,特别是在数据中心互连和高性能计算领域。 Next Input Next Input是一家专注于力感应技术的公司,为消费、汽车、物联网、医疗、机器人和工业市场提供基于MEMS的力传感解决方案。2018年6月,该公司宣布成功完成1300万美元的B轮融资,戴伟立和周秀文在该轮融资中成为投资者之一。 2021年6月,Next Input被Qorvo, Inc.收购,并成为Qorvo移动产品部门旗下的传感器融合业务部门。合并后的公司将NextInput高度差异化的传感解决方案应用于全球主要OEM厂商的下一代5G智能手机和高性能真无线立体声(TWS)耳机,同时继续在汽车行业下一代智能座舱领域占据重要市场份额。 Aviva Links Aviva Links是一家汽车车载连接公司,致力于提供全球最高性能的数千兆位链路。该公司为汽车SerDes联盟(ASA)标准提供基于标准的非对称多千兆位串行/解串器(SerDes),以实现可互操作的网络架构。 2021年9月,Aviva Links宣布完成2650万美元A轮融资,由戴伟立和周秀文领投,总融资额超过3300万美元。2024年底,恩智浦半导体(NXP Semiconductors)宣布将以2.425亿美元现金收购Aviva Links。 恩智浦表示,该收购对于其高级驾驶辅助系统(ADAS)和车载信息娱乐(IVI)非常重要,例如软件定义汽车(SDV)的车内数字驾驶舱,这些系统需要具有高下行和低下行带宽的高度非对称摄像头和显示网络。 Blue Cheetah Analog Design Blue Cheetah Analog Design是一家专注于构建高度定制化模拟混合信号IP的初创公司,提供针对不同封装类型、数据速率、I/O配置和工艺的优化且快速定制的芯片间互连IP。该公司的技术支持"束线"(Bunch of Wires)、开放式芯片间互连(Open Die-to-Die)和通用芯片互连(Universal Chiplet Interconnect Express),以及标准有机芯片封装和先进封装技术。 2024年7月,AI芯片初创公司Tenstorrent宣布收购Blue Cheetah Analog Design。Tenstorrent表示,先进的互连和其他模拟/混合信号组件已被证明对AI系统的性能和效率至关重要,收购Blue Cheetah将这些关键能力引入Tenstorrent。此次收购进一步加速了Tenstorrent的Chiplet愿景,即创建一个开放的Chiplet生态系统,并针对每个特定的Chiplet插槽进行优化的开放互连。 Expedera:边缘AI推理的技术创新 Expedera专注于边缘AI推理加速器的公司,其技术路线瞄准了边缘计算市场的快速增长需求。该公司提供可定制的神经引擎半导体IP,可显著提升性能、功耗和延迟,同时降低边缘AI推理应用的成本和复杂性。据了解,Expedera的Origin神经处理单元(NPU)解决方案已成功部署于超过1000万台消费设备。 Danger Devices Danger Devices致力于加速半导体行业的设计迭代,其前端模块产品旨在提供经济高效的解决方案,提升效率、线性度、带边性能和稳健性,从而对客户的设计产生积极影响。这家公司的技术方案在射频前端设计领域具有重要应用价值。 通过分析戴伟立的投资组合,可以看出她的投资哲学有几个鲜明特点: 首先是技术导向。无论是芯片设计、封装技术还是AI应用,戴伟立的投资都聚焦于具有技术创新能力的公司。这种投资取向不仅体现了她的技术背景,也反映了她对于技术驱动价值创造的深刻理解。 其次是生态思维。从芯片设计到封装,从硬件到软件,从基础设施到应用,戴伟立的投资版图覆盖了半导体和AI产业链的多个环节。这种生态化的投资布局不仅分散了风险,也为投资组合中的公司提供了更多的协同机会。 第三是前瞻性判断。无论是对Chiplet技术的早期投资,还是对AI语音交互的布局,戴伟立往往能够在技术趋势的早期就做出准确判断。这种前瞻性不仅来自于她的技术敏感度,也来自于她对市场需求的深刻洞察。 永不停歇的创新者 从1995年在车库里创立Marvell,到如今成为硅谷最具影响力的投资人之一,戴伟立的故事跨越了近30年的时间。她见证了个人电脑的普及、互联网的兴起、移动互联网的爆发,以及人工智能的崛起。 在这个快速变化的时代,戴伟立始终保持着对技术的敏感和对未来的洞察。她的成功不仅在于创造了商业价值,更在于推动了技术进步,为人类社会的发展做出了重要贡献。 如今,年过五旬的戴伟立依然活跃在科技创新的最前沿。在人工智能、量子计算、生物技术等新兴领域蓬勃发展的今天,我们有理由相信,戴伟立的传奇故事还将继续书写。
与特朗普闹掰,马斯克正式宣布“美国党”成立:会参与总统选举吗
快科技7月6日消息,当地时间5日,全球首富埃隆·马斯克在社交媒体上宣布:“今天,‘美国党’的成立还给你们自由。” 早在上个月初,与特朗普决裂之后,马斯克就提出组建一个新的中间派政党,并在社交平台X发起民意调查。 马斯克问道:“现在是时候在美国创建一个真正代表80%中间派的新政党了吗?”,最终获得563万名用户投票,有80.4%的网名支持力挺,并起名为“美国党(America Party)”。 据悉,马斯克是南非血统,无法直接竞选总统,美国宪法要求候选人必须是自然出生的美国公民。 马斯克在2024年美国大选中支持现任总统特朗普和共和党,但近期与特朗普政见分歧严重,已多次声称将建立新的政党,挑战驴象两党轮流坐庄的政治格局。 近期,马斯克与美国总统特朗普就“大而美”税收和支出法案产生分歧。6月30日,马斯克猛批特朗普力推的所谓“大而美”税收和支出法案并表示,如果法案通过,第二天就会成立“美国党”。 当地时间7月4日,美国总统特朗普签署“大而美”税收和支出法案,使其生效。法案签署成法的几个小时前,马斯克再次在社交平台上发布有关建立新党派的投票,问网民是否应该成立“美国党”,以把美国民众从民主党、共和党轮流上台的两党体制中“解放出来”。在收到的约124.9万网民投票中,支持者占65.4%,反对者为34.6%。 根据美国法律,一个有资格参与选举的政党成立,其资质确认需要经过复杂的认证程序,首先必须召开党团会议或代表大会,选举临时官员并指定政党名称。尚不清楚马斯克的“美国党”是否已启动相关程序。
特斯拉、英伟达机器人背后的“卖水人”
“具身智能,还处于乱世。” 这是与CyberOrigin(下称:赛源)创始人殷鹏见面时,他对我说的第一句话。赛源是特斯拉、英伟达等公司在人形机器人领域的合作商之一。而其所在的珠三角,是世界机器人供应链的核心,那是殷鹏真正的“战场”——全球任何一家机器人相关的公司,都必须到珠三角寻找硬件供应链,如今,还包括数据。在机器人圈,这些为特斯拉、英伟达人形机器人提供关键训练数据的公司,往往被视为巨头背后的“卖水人”。 和此前十余年“卖水人”多为生产制造环节相关公司不同,AI纪元下,数据类“卖水人”正在异军突起。一批诸如赛源,开始聚焦于提供机器人与真实物理交互的数据。以殷鹏的公司为例,它的客户名单中,包括英伟达、特斯拉、OpenAI的人形机器人;也包括谷歌和斯坦福李飞飞的机器人模型训练实验室,也是赛源能够与其他机器人数据公司拉开差距的地方。 但对于这些“卖水人”而言,2025年以来警报声不时响起。 近期,据媒体报道,特斯拉被曝暂停人形机器人的研发,调整设计。殷鹏在四月份已知道这个消息,暂停的主要原因,仍然在数据问题——特斯拉需要更多机器人数据以训练模型。这对于赛源这样的数据提供商而言,是个好消息,真实物理交互数据,而非本体,正在成为这场具身智能军备竞赛中的核心弹药——“机器人是引擎,数据是石油。没油,发动机运不了。” 殷鹏说,“我们需要成长为特斯拉最大的数据端供应商。” 当虎嗅于六月在上海见到殷鹏时,他穿了一身运动打扮,黑色迪桑特polo衫和运动鞋,倔强的刘海,时不时在说话间甩到前额,他再利落地把它撇开。见面时,他正经历一场短期出差,还带有一丝风尘仆仆,他需要在晚上飞回深圳,也是大量“卖水人”的基地所在。 作为赛源的CEO,殷鹏的另一个身份是香港科技大学助理教授,他曾师从SLAM和规划界传奇人物,JiZhang教授,他开创了实时 3D 激光雷达 SLAM 的先河,并将其商业化。这一技术,是机器人、自动驾驶车辆的“导航大脑”,如果没有它,扫地机器人、车辆自动驾驶将无法存在。而殷鹏在此后曾深度参与NASA(美国国家航空航天局)、DARPA(美国国防部高级研究计划局)和英伟达的课题,其第一篇国际顶刊文章,成为NASA火星降落的参考方案之一,殷鹏也是NASA火星登陆项目的高级顾问;在DARPA的地下机器人挑战赛上,殷鹏和团队开发出了首个超大规模多机协作定位建模系统,这个成果也发了第二篇国际顶刊论文。 图为殷鹏在实验室 图片由殷鹏提供 在与虎嗅的交流中,殷鹏不断提及马斯克——特斯拉的创立者,他强调“第一性原理”的方法论,他读马斯克的自传,拆解这位硅谷“钢铁侠”的创业逻辑、商业故事,他称马斯克为“老马”,“第一性原理非常可怕,他能把一件在旁人看来不可能实现的事情变成可能。”殷鹏说。 2024年,殷鹏选择创立赛源。在创业之初,殷鹏请教过不少前辈,其中包括香港科技大学教授李泽湘与高秉强,前者建议充分利用大湾区的资源。后者则建议做海外市场,以及思考C端的生意。高秉强不仅是导师,也是殷鹏最早的天使投资人,这位在硬科技领域投资了不少上市企业的前辈告诉他,当下时点,找一个切口去创业,再层层迭代。 面对虎嗅,殷鹏分享了自己对具身智能的看法和创业的想法,从学者转化为企业CEO,殷鹏很坚决,因为学术已经很难满足他需要的资源,他需要到业界、到一线去获得更快更真实的数据反馈。这也是为什么他没有选择做CTO,而直接选择做CEO的原因。 “如果认准了身位,那就义无反顾。”殷鹏说。 机器人的ChatGPT时刻 虎嗅:很明显的行业趋势是,ChatGPT出现之后,出现了Emboied AI的概念,随即特斯拉、英伟达、亚马逊等大公司开始发布其各自的通用人形机器人计划。这个飞跃在过去机器人历史中极为少见。Transformer架构究竟做了什么,让这个行业出现这样质的飞跃? 殷鹏:Transformer架构最大的提升在于发明了一种可以Scaling Law的模式。过去我们强调强化学习的效果能达到多少,训练数据集和测试数据集相差不大,因为场景很多,一定无法涵盖所有场景,那么模型要不断重新训练。但这种基于监督学习的方式,在未知领域发展很慢。Transformer架构可以输入足够多的数据,在足够多的数据下再进行微调和提升。 这个策略架构最早是谷歌提出来,但真正用起来的是特斯拉的那群人,将Transformer架构运用在自动驾驶上。因为研究人员发现,Transformer的核心是当数据量到一定数量级时,会出现涌现。这让具身智能在空间理解方面有了很大进步。 首先,它实现了空间理解能力的质变:传统强化学习在有限场景中只能进行局部探索,而借助Transformer的自注意力机制,机器人能够对整个三维空间进行全局感知,并通过同时处理视觉、语言与动作等多模态信息,形成统一的空间认知模型;其次,它在泛化能力上取得了突破,传统方法在训练集和测试集场景相似时表现尚可,但一旦场景变化就需重新训练,而Transformer模型通过大规模数据训练后,能够在未见过的场景中自主推理与适应;第三,这一架构推动了从规则驱动到数据驱动的范式转变,彻底告别了基于IF-ELSE的人工规则系统,实现了从感知到动作的端到端学习,极大地减少了中间环节的信息损失。 此外,Transformer擅长时序建模,其注意力机制让机器人不仅理解动作间的先后关系,还能进行复杂动作序列的长期规划;更重要的是,它支持多任务学习:在世界模型中,视觉、语言与操作被整合于同一模型;在分层架构中,上层负责高层推理与决策,下层则承担精确执行,两者兼顾;在数据效率方面,尽管依然需要大量数据,但与传统方法相比,Transformer能用更少的任务特定示教数据完成复杂任务,并将学到的知识迁移到相关任务;同时,其在线学习能力使机器人在执行过程中不断学习与调整,并对光照、物体位置等环境变化具有更高的鲁棒性;最后,它实现了语言理解与执行的统一,不仅能理解复杂的自然语言指令,还能结合视觉信息进行多模态推理并转化为具体动作。 这种从“专用AI”向“通用AI”的转变,让机器人从只能执行预设任务的工具,进化为具备环境理解、技能学习与新场景适应能力的智能体,这一技术进展正是“通用机器人成为可能”的根本驱动力,也是当前人形机器人热潮的核心所在。 虎嗅:你刚才说最早将Transformer发扬光大的是特斯拉的无人车,让大家看到一个重要的实现路径,可以展开说说吗? 殷鹏:特斯拉无人车将Transformer"发扬光大"的关键在于他们率先将Transformer架构应用于自动驾驶的视觉感知系统,实现了从多个摄像头输入到驾驶决策输出的端到端学习。 这打破了传统自动驾驶依赖激光雷达和复杂传感器融合的技术路线,证明了纯视觉方案的可行性。特斯拉拥有全球最大的自动驾驶数据收集网络,每天有数百万辆车在路上收集数据,他们率先验证了Transformer架构在大规模真实世界数据下的"涌现"效应,当数据量达到一定规模时,模型性能会出现质的飞跃。 特斯拉的Transformer模型能够同时处理8个摄像头的实时画面、车辆运动轨迹和历史状态、以及3D环境理解和路径规划,这种统一的多模态处理能力为后来的具身智能提供了重要借鉴。 更重要的是,特斯拉证明了Transformer不仅能做感知理解环境,还能做决策规划路径和控制车辆,实现了完整的感知-决策-执行闭环,这为机器人的"大脑"设计提供了重要范式。通过车辆在真实道路上的行驶数据,特斯拉实现了大规模的自监督学习,让模型能够从未标注的数据中学习驾驶技能,这种方法后来被广泛应用于机器人的动作学习中。 另外,还将其工程化,实现了在车载硬件上的实时推理,这为具身智能的实际部署提供了重要经验。 所以特斯拉的成功让整个AI界看到了一条重要路径:通过大规模真实世界数据训练Transformer模型,可以实现从感知到行动的端到端智能。这直接启发了谷歌的机器人项目开始大规模收集机器人操作数据,OpenAI将类似架构应用于机器人控制,各大科技公司开始重视具身智能的数据收集。 所以,特斯拉实际上开创了"用数据驱动的AI来解决物理世界交互问题"的先河,这正是当前具身智能热潮的技术根源。他们证明了Transformer不仅能处理语言,更能处理复杂的时空序列数据,为机器人的"ChatGPT时刻"奠定了基础。 虎嗅:目前全球机器人模型主要来自几家实验室,包括谷歌和斯坦福李飞飞实验室,这些不同的模型技术路线有什么不同以及优劣之分? 殷鹏:目前,模型体系大致分为两类,很难简单评判优劣。第一类是“世界模型”,将视觉、语言与操作等多种能力整合进一个统一模型中进行训练。例如,李飞飞实验室的 Open VRA1.0 和谷歌的 PaLM。这类模型的优点是收敛速度快,适用于在厨房、浴室、卧室等特定场景中采集数据并优化机器人性能。但其缺陷在于泛化能力弱。一旦超出训练场景(如机器人从一个房间移动到另一个),就需重新采集数十小时的数据进行训练,否则性能会大幅下降。例如 SLAM(同步定位与地图构建)对光照和场景元素极为敏感,细微变化就可能导致如抓取等操作失败。因此,该类模型更适合简单场景的演示,难以应对如工厂等复杂、动态环境。 第二类是分层混合架构模型,代表如 Figure.AI。该模型结构类似于人脑与小脑的分工:大脑部分负责文本和视觉推理,解决“去哪里”“拿什么”的逻辑问题,如根据卧室或厨房的图像定位目标与制定抓取策略;小脑部分控制机器人本体的具体动作,如行走、开冰箱门、抓取鸡蛋等,需靠大量数据训练实现高精度控制,例如调整机械手的力度和手指分布。 这类模型的优势在于分工明确:上层负责空间逻辑与决策,下层执行精细动作,尤其在完成“最后一厘米”的操作时,能精准控制执行细节。 以特斯拉等公司的机械手为例,通常具备19至20个自由度,因搜索空间庞大,必须通过大量数据学习来优化动作路径。这种架构更适用于环境复杂、频繁变化、泛化要求高,且对操作精度极高的场景,如精细抓取。Figure 和特斯拉走的是这条路线。 虎嗅:刚刚说到美国,中国这两年也跑出了不错的人形机器人公司,比如宇树,中国的机器人技术水平和美国有差异吗?有一个观察,如果从两国具身智能公司所展示的Demo侧重点来看,似乎中国机器人公司习惯于先做硬件、再做模型,国外似乎是反过来。 殷鹏:我认为这与两国国情有关。中国大陆有很强的智能制造供应链,可以让我们将所有元器件以很低成本进行快速落地和迭代,在中国做灵巧手,可能只需要在1-2个月的时间,用有限的资源就做成,这在美国是根本不可能的事。但美国更擅长的是大脑模型的开发,其实双方可以形成良好的互补。美国擅长从0到1的突破,中国很擅长从1到100。 机器人数据可能是具身智能中最快完成商业闭环的 虎嗅:为何选择在这样一个时间点创立一家创业公司?虽然大模型涌现许多机会,但具身智能的商业化还有很长的路要走,遑论人形机器人的大规模商业化,而作为这些机器人厂商的上游-数据提供商,商业链条更长。 殷鹏:首先是时间点。当下是一个关键节点,全球都能看到大模型在空间理解、推理能力上的突破,这让通用机器人成为可能。从硬件层面看,也出现了实际落地的迹象,这与上一波主要聚焦特种机器人的机器人浪潮不同。 未来的发展周期到底是10年还是20年,难以下定论。但对我们这群做机器人的人来说,更看重的是它最终能否实现。就像老马说的,“能像人一样上工位干活”,这是我们真正想看到的。这也是我选择在这个时间点创业的核心原因。 如果一味等待,就无法真正感受到时代脉搏。我也希望能亲自下场,挖掘行业中的核心难题。很多问题只有真正进入行业、面对真实场景,才能体会到,线下纯思考往往显得太简单。 你刚才提到周期可能很长,确实如此,数据链路也很长,但对于机器人本体来说,数据反而可能是最快能形成商业闭环的。 没有大量真实数据,本体和大脑都难以进化。就像训练大语言模型需要庞大的语料,无人车需要日采数以百万计的车辆数据,机器人也是一样。如果不解决数据问题,就会长期被卡住。 模型只是引擎,数据才是石油。只有源源不断的数据供给,整个“车”才能真正跑起来。具身智能也是如此,若无法突破数据瓶颈,整个行业就会停滞。而构建数据闭环虽然最具挑战,却也是最直接、最快和风险最高的一环。 虎嗅:往往这类商业链条长,对技术要求高,并且是“石油”属性的事情,往往是大公司在做,例如英伟达、特斯拉、谷歌,或者就是例如斯坦福实验室这样的学术机构。初创公司来做这件事,一面是钱无法和大公司抗衡,一面是有商业化压力,如何竞争? 殷鹏:全世界所有机器人公司、做大脑的公司、做本体的公司,都是我们的友商。我们会给他们提供数据。目前我们已经给很多头部大型AI公司提供大批量机器人数据。起码未来5到10年,我们和这些头部机器人公司都是友好关系。 我知道这个赛道未来会很卷,人也会非常多,很多公司也会转去做数据,不过我认为这个并不影响事情本身。因为对于最深层的数据,很难通过一家或两家公司做成。 虎嗅:我理解,相当于是做一个具身智能界的Scale AI吗? 殷鹏:是的,都是数据供应商。但我们和ScaleAI不同的点是,Scale AI更加注重数据标注,大厂会直接给Scale AI提供数据。但我们在做数据标注之外,还需要做数据采集和验证的工作。 首先我们有训练模型的能力,会和大量大型客户建立大批量采集数据基地,做几百万小时的海量数据采集。拿到这些数据之后,我们还要做标注、清洗、模型初期验证,再把数据转给大厂,做更精细化的处理和训练。 虎嗅:我们现在主要有两部分数据,一部分是在真实场景中收集的数据,另一部分是仿真3D数据? 殷鹏:我们主要聚焦真实场景的数据。 一方面,我们有一个开源社区,设备供应商都可以参与数据采集,这是一个共享的平台。另一方面,我们在拿到数据后会先在内部进行训练和验证,确保可运行后才发布。目前我们收集的数据主要是上百万小时的真实数据,没有涉及合成或仿真数据。 这在业内其实算是比较“反常识”的选择。现在很多公司在做合成或仿真数据,我们当然认可不同类型数据各有价值,但从我们的角度来看,真实、丰富的数据最能提升模型训练效果。 虽然我们也有能力基于真实数据做大规模合成,比如一条生成十条,但这个技术门槛并不高,大厂也完全可以做。所以我们更专注在他们不方便做、或者不愿意做的事——也就是收集真实世界的数据。 至于仿真数据,虽然它在强化学习里的确是个不错的验证平台,但效果很难直接迁移到现实中。比如我们用几十张显卡训练一个抓取动作,在仿真里成功率可能有95%,但一旦部署到真实机器人上就可能掉到60%;像系鞋带这种更复杂的动作,成功率甚至可能降到45%。也就是说,仿真数据很难在真实环境中泛化。 因此我们最终决定专注于真实数据的构建,既来自人,也来自机器人自主采集。 虎嗅:真实场景数据的采集,很考验效率和采集效果,怎么保证质量和数量? 殷鹏:例如工厂的一条包装产线,有很多操作细节,如何抓取、如何吸收、如何剖析这些动作,可以创造非常丰富和高浓度的机器人数据。我们会让操作员穿戴设备,在真实生产流程中采集数据。一小时内,就能采集出约500到1000条高密度的数据,每条数据都包含具体动作、文字描述、图像抓取等信息。 相较之下,真人采集效果比遥控机器人要好很多。遥操作是用机器人实机在现场完成任务,但以现在机器人的能力来看,哪怕是简单操作,也可能执行得很复杂,效率低下,一小时只能采集几十条真正有价值的数据。 虎嗅:从数据收集的角度,需要找一个合作生态非常关键?你从什么时候开始做这件事,做了多久? 殷鹏:去年八月份开始,持续半年多,大概有几十家合作公司,包括工厂、小作坊等。我们现在大概有十万小时的数据,后面会把量级扩大到10倍,达到100万小时量级。我认为这个量级,才会让机器人达到比较客观的效果。 只有成为一号位,才能获取业界最快最真实的反馈 虎嗅:一般科学家创业,成功率往往不高,或者说很多行业的共识是科学家创业,其更适合做CTO,而不是CEO。在创业之初是否有面对这样的质疑?在创业过程中对于自己的定位,你是怎么看的? 殷鹏:这种质疑对我来说经常出现。我想创业的真实原因是,具身智能这件事,学术的资源已经不能满足我,只有真正到业界,才能拿到足够多的企业资源,但如果我只是个二号位或者三号位,我没办法得到最快最真实的反馈。 虎嗅:决定下场创业时,有跟行业前辈聊过吗? 殷鹏:和很多前辈聊过,比如李泽湘老师(虎嗅注:香港科技大学教授,固高科技董事长,松山湖国际机器人产业基地发起人)和高秉强老师(虎嗅注:香港科技大学荣休教授、工学院原院长,全球知名微电子专家,投资了思特威、博通集成、澜起科技等公司)。 虎嗅:他们有没有给一些不错的建议? 殷鹏:李老师的想法是,机器人的生意,还是非常吃硬件的,需要充分利用好大湾区的资源。高秉强老师的建议是一旦这个商业模式跑通,一定要做海外市场。因为海外在具身智能上走得更早,会有更深的Know-how。另外,具身智能这件事还是偏早期,B端的应用最终还是会落到C端,因此也需要思考这个过程中,B端和C端的边界,除了给各大厂来用,还需要考虑如何让普通民众也用起来。 虎嗅:第一笔投资是怎么拿到的? 殷鹏:第一笔投资其实是高秉强老师投的,他是我们的天使投资人,高老师很了解我,当时我们常一起交流,高老师建议在当下时间点,找一个非常好的切入口可以去创业,再层层迭代。 虎嗅:很多科学家在与工业界交流沟通的时候往往存在一些语言体系的不同和由此带来的挑战,科学往往希望在单点突破,但工业界对技术的领先性反而没那么重视,更重视是否解决问题,是否稳定,你如何适应这样的身份转变,适应不同的沟通方式? 殷鹏:确实如此。学者转换到CEO,之前关注一个点,可以挖得很深,可以调动这个点周围相关的资源,其他所有的链路都不用考虑。但变成公司就不一样了,更多要考虑的是公司的管理、文化、这个业务本身的商业模式是否闭环,是不是赚钱。这里会出现很多不同的难点,需要各个击破。另外,作为一家创业公司,任何一个新的模式都有人质疑。所以就需要用最小的成本,完成产品的可行性验证,这些都是创业需要回答的事情。 虎嗅:这两个路径是相反的,一个往纵向里扎,一个做横向。 殷鹏:是的,一个点的突破不代表整个系统就被解决了。创业需要对整条链路的每个环节都足够了解,即使自己不懂,也要找到懂的人一起做。而且要有对时间周期的把控,毕竟创业公司的资源不是无限的,没人能等你10年、20年才考虑商业化。 同时,还需要一个优秀、细致的团队来承担核心任务。这其实至关重要。硅谷有个说法叫“创始人模式”——公司价值观往往反映的是创始人对行业的理解。如果我们理解足够深,就能抓住行业的核心问题,不会过于激进也不会太保守,战略方向会更清晰,团队也会知道自己的定位。 殷鹏实验室团队,右一为殷鹏 只有具备这样创始人导向的文化,才能吸引真正志同道合的人。哪怕像老马这样的创业者,在他的每个公司也都有一群忠实的追随者。 虎嗅:在这个过程当中比较大的挑战,或者压力挺大的时候是什么? 殷鹏:因为首先是作为老师要去转型,非常痛苦。要从一个钉子变成一个类似于像梳子这样的模块。 在正式创业之前,我们往往专注于一个单点问题的深入突破,个人只需思考得足够深入即可。但作为创始人,就要从“钉子”思维转变为“梳子”思维,不仅要深挖某一点,还要兼顾全局多个维度。 创始人关注的面非常广,但面广不等于“大而空”,否则团队会不知道具体该做什么。在此基础上,既要全面布局,也要在每个关键点深入推进,明确每个人的任务、节奏和具体内容。这对时间管理和综合能力提出了极高要求,也是每一位创业者都必须经历的一关。 第二点是商业模式的不确定性。在发展的某个阶段,一种模式可能完成闭环,实现真正的突破,但我们无法准确预测这一刻何时到来。以数据行业为例,外界对其构成存在争议——有人强调课程数据,有人依赖仿真数据,也有人重视真实数据。我们相对开放,认为多种模式都有机会成功,但难以完全把控这种趋势在长期周期内的演进规律,因此要依靠直觉判断。 虎嗅:直觉主要来自哪里? 殷鹏:这种直觉,来源于第一性原理的分析、快速获取行业和用户的反馈。我们站在前线,能第一时间获得大厂在性能优化等方面的经验和信息,这使得“即时响应、快速沟通和反馈”变得极其关键。因为一旦信息误判,就可能导致决策失误,进而影响整体战略。 所以,在创新过程中,创业者常会经历两个挑战:一是从个人高深度突破转向全面统筹,二是在不确定中寻找方向,并始终保持对信息的敏锐感知和快速反应。这也是“黎明前的黑暗”阶段,虽然痛苦,但唯有冲到一线,深入思考和建设,才有可能迎来真正的突破。 虎嗅:在深入业界之后,你发现了哪些是过去没有意识到的行业痛点或者问题? 殷鹏:比如我们之前做遥操,操纵这个领域我们做了两年,我们会做例如抓取苹果、杯子,这样简单的事情,也会做拧螺丝这样很难的研究。但真的和工业界交流时发现,这些事往往无法落地。比如说他们不需要训练一个多Fancy的模型,只需要百分百做成一件事,一个可以落地的策略解决方案。 虎嗅:其实创业公司的初创团队是很重要的,很多时候如果找的都是能力很强的人,反而不能成功。搭团队的时候你看中的是什么?花了多长时间搭团队? 殷鹏:找人对创业公司而言至关重要,我们大概花了半年时间。我还是更借鉴黄仁勋的机制,一开始两三个人一定要有情感基础和长期合作伙伴的关系,对彼此有长期信任感,能够共同承担风险。比如我们早期和美国大型公司谈订单,拿下第一个客户,这种事情形成的革命友谊在创业中尤为难得。我们并不介意这个人是否一定是名校,更在乎的是在进入公司后是否能够快速适应公司文化和氛围,把自己的能力进行快速提升。所以我更看重的是加速度,如果加速度很强,说明他有很强的内驱力,能够在一个公司找到自己很好的身位,把能力做极大的发挥。 虎嗅:话说回来,在“画饼”这件事上,您如何让大家愿意相信这个愿景并坚定往这个方向努力? 殷鹏:当年老马做 SpaceX 时,业界普遍认为火箭回收不可能。但他凭借个人魅力,做了初步验证,拿到融资,从 NASA 招来一批相信他的团队,最终把这件事做成了。 我也是从第一性原理出发,思考什么样的数据真正能起量,拆解整个过程,预判可能遇到的问题,与团队逐步攻坚,一旦突破,可以达到怎样的规模和影响力。 现在看 Scale AI 的市值就能明白,一家“卖水”的公司也能做到行业头部。这个愿景是大家可以一起实现的。我们要做的是搞定大客户,与他们建立深度绑定,让外界更愿意相信这个故事。 具身智能尚处乱世,认可了就义无反顾去做 虎嗅:你其实是一个习惯于将长目标拆分成一个个短目标的人? 殷鹏:是的。我觉得任何复杂的事情都耐不住细化,短期可以是一个季度为计或者半年可实现的目标,层层往上迭代,总会实现。黄仁勋也是这个策略,他最早就All in算力,只是在当时的时间点没有人提。所以他开始做游戏,然后挖矿,之后遇到AI。 虎嗅:你一直在提到“第一性原理”,马斯克是把“第一性原理”发扬光大的人。什么时候开始意识到“第一性原理”这件事并认可它? 殷鹏:我是去美国之后第一次真正了解Elon Musk,他背后的创业逻辑、故事路线,了解特斯拉、SpaceX。我在美国的那几年,正好见证了特斯拉如何冲出低谷,再往上爬升的过程。见证马斯克如何一层层把大家对他的质疑划破,去兑现。包括他承诺了将近十年的Robotaxi。所以我研究了他的商业历史,我发现第一性原理真的非常可怕,能把一件在旁人看来不可能实现的事情变成可能。 虎嗅:现在在看什么书? 殷鹏:最近的新书就是马斯克的自传。 虎嗅:看起来你很喜欢马斯克。 殷鹏:对,可以说我的整个的商业逻辑,商业模式,很多都是来自老马的启发。他如何在早期就思考这件事,如何设计、如何在某个时间点顶住压力,做别人看起来不可能的事情。 虎嗅:现在还会坚持冥想吗?每天会花多长时间? 殷鹏:我现在每天早上五点起床,会花半小时冥想然后开始每天的日程工作。因为事情会越来越多,如果没有一个合理的放空机会,人会在一些杂事情上迷失。如果每天没办法得到自己内心深处的反馈,在路径选择上还是会出现一些问题。 虎嗅:创业至今,有没有发生一些反常识的事? 殷鹏:我觉得是有的。泡泡玛特的王宁曾总结过一个经验:创业时我们常以为A很重要,离了它不行,但实际做下去才发现,真正关键的是B,而B在最初甚至看不出来有多重要。到面对客户时,又可能是C才对,因为客户需求会不断变化。最终是通过B的调整,才演化出C的形态,不断优化这个过程。 一开始设想的路径,在不断试错和收敛中,可能会自然找到最优解,但这个最优解很难一开始就预料到。正如那句话:“伟大的事情无法被计划。” 虎嗅:对于你和公司而言,未来的挑战会在哪里? 殷鹏:现在可见的是,进入具身智能行业的“用户”越来越多,而不是专注做数据的公司。我们去年刚创业,还需要向投资人解释机器人数据的重要性,但如今这几乎已成共识。 这当然是好事,但也是一把双刃剑。大家认同数据的价值,意味着越来越多的公司开始涌入这个赛道,不论大厂还是中小团队,生态变得越来越“卷”,也开始出现不少重复造轮子的现象。 整个行业仍处于“乱世”阶段,关键在于如何找到自己的独特位置。对我们来说,数据是最核心、也是最擅长的部分。既然如此,就没有犹豫的理由,只能义无反顾地往前走。
没有博士学位,也不是科班出身,他的跨界作业却赢了圈内高赞
如今的AI能作诗,能开汽车,甚至能通过高难度的数学物理考试和司法考试。但许多人类大脑轻而易举能完成的事情,比如摆好洗碗机中的餐具,AI至今无法做到。AI企业家麦克斯·班尼特(Max Bennett)提出了他的解释:答案深藏于人脑进化的10亿年历史中,而这段历程充斥着无数试错、灾难与精妙的创新。班尼特将庞杂的进化史凝练为“五次突破”,每次突破都标志着人脑进化的重要跃迁。结合AI科学的前沿进展,班尼特总结了当前AI系统在哪些领域已比肩或超越人脑,又在何处仍显不足。 本书广受当代顶尖神经科学家赞誉,它以恢宏的视野与颠覆性的洞见试图论证:唯有以远古智慧为灯塔,AI方能突破未来的可能性边界。 下文为本书译者林桥津撰写的书评。林桥津现任香港科技大学(广州)脑与智能研究所助理教授,曾任剑桥大学卡莱尔学院研究员,担任多本神经科学期刊审稿人。 《智能简史》(中译出版社,2025年7月) 撰文 | 林桥津(香港科技大学(广州)脑与智能研究所助理教授) 麦克斯·班尼特(Max Bennett),经济学与数学出身、没进过一天实验室的创业者,用五年时间干了件疯狂的事:在经营人工智能(AI)公司的同时,他硬是从入门课本啃到最新论文,将40亿年生物智能演化的进程熔铸成了一部《智能简史:进化、AI与人脑的突破》(后文简称《智能简史》)。我们不禁好奇,这位既没博士学位,又非科班出身的“科学门外汉”,究竟靠哪些独门绝技叩开神经科学领域的大门? Photo Credit:Gary O.Bennett 答案藏在商业实战与科学探索的碰撞中。身为多家AI公司的创始人、福布斯U30精英,班尼特的探索始于商业前线的切身体验。他与合伙人共同创立的Bluecore公司通过AI技术帮助中小企业对抗商业巨头,但越是深入算法底层,他越发现:现有的AI系统能够击败围棋世界冠军却学不会做家务。这种“高能低效”的反差,与生物智能的精妙形成鲜明的对比。 这个看似简单的问题,成了横在班尼特面前的一道坎。他起初只想找几本神经科学教科书补补课,却发现书上对“意识怎么形成”或“记忆怎么存储”这样的基础问题竟无定论。这个发现让他眼前一亮:既然专家还在争论不休,或许我这个搞企业的人能带来新视角?他先试着给几位神经学家发邮件请教,但所有邮件都石沉大海。面对学术高墙的沉默,这位创业家迅速启动商场上惯用的Plan B:与其被动等待指导,不如主动输出观点。他将自己的假设和理论整理成学术论文投稿,即便不被录用,至少能通过审稿意见获得专业反馈。意外的是,这篇“跨界作业”居然通过了同行评审并被杂志接受了。这份来自学术圈的意外认可成了班尼特的敲门砖,陆续有神经学家开始和他讨论,他们碰撞出的思维火花最终形成了《智能简史》的核心框架。从自购教材搭建知识地图,到用论文审评打磨理论精度,再到与顶尖学者头脑风暴,这种“用企业思维破解学术壁垒”的路径,正如他创办Alby公司时颠覆传统商业逻辑的策略:当既定规则失效时,创造新规则本身就是解决方案。 书中贯穿的跨界智慧,源自作者对学科边界的主动突围。从主动抽离充满竞争的金融交易行业转向AI创业,再到深潜神经科学破解智能密码,班尼特的轨迹印证了“兴趣是最高效的驱动力”。在书中,他将这种探索精神具象化为生物进化史的关键跃迁:线虫靠趋利避害的本能应对环境动荡,哺乳动物为躲避恐龙进化出风险预判能力,每一次突破都是生命对生存困境的创造性回应。当2023年全网为GPT-4狂欢时,班尼特却从25亿年前蓝藻制造的氧气灾难中,看到算力军备竞赛可能引发的“生态危机”;又从灵长类心智进化史中,揭示AI伦理的根本挑战——真正的智能跃迁不在于模型参数的堆砌,而在于能否像语言系统重构人类认知那样,重塑AI的底层逻辑。正如线虫用持久的行为偏好化解环境不确定性,未来AI需在类脑架构中植入生物级能耗意识,将智能发展模式从“恐龙式盲目扩张”转变为“线虫式精准生存”。 作为同龄人,译者在字里行间读到的不仅是知识密度,更是一个跨界破壁者对认知边疆的敬畏与热望。班尼特用5年时间搭建的“神经科学-AI”对话桥梁,恰似他书中揭示的智能本质:既要读懂生命进化的说明书,也要掌握技术创新的核心算法。 AI与神经科学的双向赋能 “老师,我们怎么从生物学上理解卷积神经网络?有没有好办法改进强化学习模型?”我任教的本科基础生物课程中,不少学生对AI和大数据有着强烈的兴趣,也时常期待我从神经生物学角度对这些AI难题给出答案。“神经网络”“强化学习”“工作记忆”这些词语对于我来说既熟悉又陌生,因为它们在AI和神经科学领域中有相关却又不同的含义。比如,神经网络在AI领域往往代表着高纬度数据运算,而在神经科学领域则表示生物体内由神经元通过突触连接形成的网状结构。这种术语的认知错位,让我看见两个领域如同互补的拼图:算法中的神经网络映射着生物突触的联结逻辑,而神经科学对意识涌现的探索,正不断重塑机器学习可解释性的边界。 正是这种跨学科研究的魅力,让我接下《智能简史》的中文版翻译邀约。作者在序言中的自白深得我心:“我写这本书只是因为我想读这本书”。作为译者,我翻译此书的最大动力,同样源于对书中提出的核心命题的强烈好奇:生物智能与AI的共性与差异,能否为我们揭示智能的本质? 我的课题组聚焦神经元内的RNA代谢与蛋白合成机制,观察这些微观分子如何编织学习记忆的神经网络。博士期间,我曾花费大量时间手动分析显微成像数据,甚至连续十多个小时坐在电脑前,标注上百张神经元图像中每个突触的荧光信号强度。如今AI图像工具能在几分钟内完成我们团队好几天的工作量。这让我既惊喜于技术突破,也开始思考一个关键问题:为什么机器能高效处理实验数据分析这类技术活,却无法解释其背后的生物学意义? 显微镜下的神经元图像,高亮的结构是荧光标记的突触蛋白 这种矛盾在实验室日常工作中愈发凸显。我们和大多国内外以湿实验为主的课题组一样,大部分实验仍保持着最传统的手工操作流程。比如需要将装有细胞的培养皿从三楼送到一楼的显微镜室时,若遇到电梯故障,人类研究员会立刻改走楼梯,并根据皿内状态调整步速;而自动化物流系统只会机械地等待程序响应。这种“最后一公里”困境恰似当前AI发展的缩影:它能处理封闭场景的标准任务,却复现不了实验员面对突发状况时的急中生智。而那些糅合经验与直觉的应变智慧,正是智能难以被编码的奥秘。 正是这些日常教学和科研中的真实困境,让我在翻译《智能简史》时产生强烈共鸣。作者对生物智能独特性的剖析,既解答了我对AI技术边界的困惑,也成为我翻译此书的最大动力:AI智能的提升需要从生物进化中汲取灵感,而神经科学对大脑奥秘的追问,也需要借助AI技术的工具箱。谨以此译本,献给所有在神经科学与人工智能交叉地带拓荒的探索者。当我们教会机器识别人脸时,或许更该思考婴儿如何从母亲眼神中建立情感连接;当我们试图构建更聪明的机器时,或许更应回归生命科学最本真的追问。智能革命的终极答案,或许正藏在生命系统通过亿万年进化来打磨的“笨功夫”里。 五步解锁40亿年智能密码 翻开《智能简史》,你会见证一场颠覆认知的“生物算法展”——没有大脑的珊瑚虫的捕食机制堪称海洋版二进制开关:当浮游生物触碰它的触须、神经元所产生的信号超过阈值时,这个海洋程序员的“if-else语句”立即触发“张口捕食程序”;而当刺激消失,触手又像关闭的电路般恢复平静。这种基于阈值反馈的生存智慧,正是扫地机器人Roomba的灵感原型。初代Roomba的碰撞转向系统,复刻了5.5亿年前原始生物的避险绝技——当秀丽线虫用头部感受器探测到前方出现的盐分剧变时,会像触电般猛然调头,正如你家扫地机器人撞到桌腿时“咔嗒”一声自动转向。从远古海底到现代客厅,这场智能革命的核心密码从未改变:不需要构建环境地图,不依赖中央处理器,用即时反馈替代复杂计算,让生存需求驱动行为逻辑。当Roomba的碰撞传感器在桌腿间反复修正路线,它正重演着线虫在远古海洋摸索前行的神经脉冲。 第一代扫地机器人Roomba(左),珊瑚虫(中),秀丽隐杆线虫(右)丨图源:《智能简史》 作者以五次在生死边缘锻造出的“智能升级”为主线,串起一部生命与机器的进化史: 第一次突破:转向 6亿年前,最早能分清左右的两侧对称动物,靠着“遇食物前进,遇危险转向”的原始算法称霸海洋,为今天的自动驾驶程序写好了底层代码。 第二次突破:强化 5亿年前,寒武纪鱼类在黑暗洞穴中冒险时,多巴胺分泌机制锁定了“高风险高收益”法则,成为强化学习的生物模板。 第三次突破:模拟 2亿年前,松鼠在枝头蓄力跃起的刹那,大脑新皮层已能在一秒内预演多种落地姿势。这场进化催生的“生存策略模拟器”,成为现代AI生成式推理的神经生物原型。 第四次突破:心智化 1500万年前,灵长类动物看穿同伴心思的能力,演化成了社交平台的博弈算法,至今还在影响短视频的推荐机制。 第五次突破:语言 10万年前至今,人类将百万年生存智慧打包成语言符号,就像把整座图书馆压缩成二维码,这种分布式存储模式直接催生了ChatGPT的对话能力。 然而,这些用亿万年进化打磨出的智能模板,在照亮AI前路的同时也投下认知阴影。书中描述的“飞机寓言”直指当前AI研究困局:假设19世纪末痴迷于人工飞行的研究者们,偶然穿越到20世纪90年代并登上波音747客机。当他们带着对“未来飞行科技”的震撼回归后,却陷入致命的认知误区——误将客舱的倾斜座椅、双层舷窗和塑料内饰当作核心技术,倾尽全力复现这些表象特征,却对空气动力学原理、涡轮引擎设计等本质突破视而不见。正如今天的AI研究过度聚焦人脑终局形态,可能正在错过线虫导航算法这类原始智慧。作者用进化论的阶梯思维指明道路:智能革命需要复现从风筝(线虫趋利避害)到滑翔机(鱼类强化学习),最终抵达喷气时代(人类语言系统)的完整路径。 黑猩猩的江湖与AI的社交困境 在刚果雨林的密影中,一场跨越物种的“猩球谍战”悄然上演。雌黑猩猩贝儿与雄性首领洛克的较量,堪称1500万年前的《权力的游戏》。起初,贝儿天真地分享藏食地点,却眼睁睁看着洛克蛮横地夺走所有果实。这场背叛点燃了她的“黑化”之路:她先是像守财奴般一屁股坐在藏食点上,用身体筑起防线;发现洛克会暴力推开她后,她进化出“声东击西”的绝活——等洛克看向别处时迅速刨土,抢在对方回神前狼吞虎咽;甚至发展出高阶骗术,故意误导洛克走向错误的方向。而洛克这位“猩族影帝”也不遑多让,他学会假装心不在焉,但用余光追踪贝儿的微表情,判断她究竟是不是在“演我呢”,并在她松懈时突然转身飞扑,抢走食物。[1] 科学家们用脑科学实验破解了这场宫斗大戏的神经密码。当贝儿策划骗局时,她的前额叶皮层,也就是大脑的“谋略中心”,会像谍战片里的情报官一样高速运转,分析洛克瞳孔的收缩幅度、解码他肩膀肌肉的紧绷程度,甚至模拟“如果我把食物埋在西边,但指向东边,洛克上当的概率有多高?”。 灵长类动物学家埃米尔·门泽尔(Emil Menzel)笔下这场“雨林版《甄嬛传》”的背后,藏着心智进化的残酷真相:没有尔虞我诈的江湖,就炼不出七窍玲珑的头脑。就像人类在办公室政治中磨砺情商,黑猩猩每撒一个谎、每识破一次骗局,都在为大脑刻写更深层的社交算法。这种嵌套式心理博弈(“我知道你知道我知道”),正是当前AI最渴求却最匮乏的“心智化”能力。 当自动驾驶的汽车因误判行人意图引发事故时,问题根源与雨林中的博弈如出一辙。现有AI能识别人体轮廓,却无法像贝儿解读洛克那样,从行人抓握手机的手臂角度推测对方是因接电话而驻足,还是因分心而即将闯红灯。家庭机器人更是频频遭遇“社死”:当它递出茶杯时若人类突然抬手揉眼,机械臂会僵在半空,因为它不理解这是眼睛进沙的生理反应,而非对递茶动作的拒绝。这些尴尬暴露了AI的认知盲区,它们的思考被困在了行为表层,它们既读不懂动作背后的动机,也构建不出“人类此刻在想什么”的心理模型。 正如贝儿需要数百万年进化出递归推理的神经环路,AI的心智化革命可能要重走进化阶梯。第一步要像初代扫地机器人Roomba那样,掌握线虫级的“趋利避害”本能;接着在虚拟丛林里模仿鱼类的强化学习;最终复现黑猩猩的嵌套心智,让AI在多智能体博弈中自发生成欺骗策略。比如购物推荐算法不仅能预测你的消费偏好,还能推演“如果推送奢侈品广告,用户会认为我在诱导透支,还是提供品质生活参考?”。这种动态意图建模的能力,正是人类用千万年进化写在基因里的社交算法。 语言突破:深度学习和大模型的腾飞 非洲草原上森林的逐渐消失,迫使我们的祖先离开树木来到地面,生存竞争骤然加剧。正是在这样严酷的生存压力下,智能发展的第五个突破——语言应运而生。 想象这样一个场景:当其他动物还在靠吼叫示警时,早期人类已经能够通过语言传递“三里外有狮群在喝水”这样的具体信息。更神奇的是,他们还能分享“昨天谁偷吃了大家的存粮”这样的八卦。正是这种独特的信息交流能力,让人类实现了认知的飞跃。语言就像一台“思维加速器”,它让知识不再随着个体死亡而消失。老一辈可以把生存经验口口相传,年轻人则在这些经验基础上继续创新。这种代际间的智慧累积,最终让人类在进化长跑中脱颖而出。可以说,没有语言这个“智能催化剂”,就不会有人类文明的诞生。 开发AI的关键目标之一,就是教会机器说“人话”。这就像教一个外国朋友学中文——不仅要记住词语的意思,还得理解话里的潜台词和言外之意,以及人类文化积累带来的丰富上下文背景。只有让计算机真正掌握人类语言,它们才能像朋友一样和我们自然交流。 然而在很长一段时间里,由于算法不够成熟和计算能力有限,AI“学说话”这件事一直进展缓慢。直到21世纪初,随着GPU显卡和分布式计算技术的突破,计算机的运算能力突然像坐上了火箭。这个关键突破,为AI的腾飞铺好了硬件跑道。 突破首先来源于识别图像这个略微简单的任务。2012年,AI领域迎来了一场“大地震”。深度学习泰斗杰弗里·辛顿(Geoffrey E. Hinton)带领的团队,在被誉为“计算机视觉奥林匹克”的ImageNet大赛中,用AlexNet这个新型神经网络惊艳了全世界。这场胜利不仅终结了手写数字识别这个困扰学界多年的难题,更像点燃了一根导火索,引爆了全球AI研究的热潮。从此,深度学习开始在各个领域大放异彩,开启了AI的新纪元。2024年,凭借对神经网络和AI发展的卓越贡献,辛顿获得诺贝尔物理学奖。 2015年,残差神经网络(ResNet)诞生。它创新性地引入“残差连接”设计,就像学生学习时准备了一本小抄,学习新知识点时仍然不会忘记旧知识点,完美解决了超深层网络的训练难题和梯度消失问题,为后续语言大模型的出现奠定基础。它在ImageNet大赛中以4.94%的错误率夺冠,首次超越人类水平 (约5%)。 2017年,Transformer横空出世,谷歌提出的这个新架构彻底改变了AI的游戏规则。它模仿人类大脑的注意力,采用“自注意力”机制,让模型像人类一样学会抓重点,这为后来的GPT等明星语言模型奠定基础。2019年,OpenAI推出GPT-2,它能写出流畅的文章并与人类对话。一时间,AI写作从实验室走向现实,机器终于能像模像样地“说人话”了。这不仅是技术突破,更是人机交流史上重要的里程碑。 在语言模型的基础上,2020年,DeepMind推出的AlphaFold解决了困扰生物学界50年的蛋白质折叠难题,其预测准确度达到实验水平,被誉为“世纪突破”,为药物研发开辟新途径。2024年,DeepMind公司的丹米斯·哈萨比斯(Demis Hassabis)和约翰·乔普(John M.Jumper)因其在蛋白质结构预测方面的贡献获得诺贝尔化学奖。 2024年末,深度求索(DeepSeek)震撼发布DeepSeek-V3,成为当时最强大的开源大模型之一,在语言理解、代码生成和数学推理方面表现卓越。2025年初,DeepSeek再掀浪潮,推出 DeepSeek-R1,该模型凭借极致的算法优化,以远低于行业平均的训练成本,实现了全球领先的性能,甚至超越了一些闭源商业模型(如 OpenAI 的最新 GPT 系列)。相比 OpenAI 等公司的模型,DeepSeek-R1 在同等性能下,训练成本降低95% 以上,这意味着AI研发的门槛被进一步拉低,让更多研究机构和企业能以更低成本训练高性能AI。同时,它证明了“大算力”并非唯一出路,算法优化同样能创造奇迹。 AI虽然进步神速,但背后暗藏危机。现在的AI大模型就像个“数据黑洞”,模型变得越来越复杂,但能提供给它训练的真实数据却快不够用了。更麻烦的是,这些AI的工作原理就像在玩“文字接龙”,总是选择最可能的下一个词和下一句话。这就导致两个致命缺陷: 第一,AI会选择性“失明”。那些不常见但重要的信息,很容易被当成“噪音”过滤掉;而网上泛滥的虚假信息,反而可能被AI当成“正确答案”。结果就是AI经常一本正经地胡说八道,产生所谓的“幻觉”。例如,一个广泛流传的谣言,“中国80后死亡率超过5.2%”,据上海网络辟谣平台推断,数据的最初来源很可能是与AI对话所得。 第二,AI正在成为“隐形操盘手”。科技巨头掌握着调整AI偏好的生杀大权,可以悄无声息地让AI选择性输出信息。试想一下,如果一个AI聊天程序被刻意调教,它可以批量制造以假乱真的谣言,甚至操控舆论风向。这种技术特权实在太危险了! 正如《智能简史》揭示的进化法则,真正的智能革命从不在无约束中野蛮生长。当参数膨胀的AI列车在数据轨道上狂飙,我们亟须植入生命历史进化出的安全基因。AI若想跨越当前困局,就必须重拾这份被验证了40亿年的生存哲学:创造力的绽放,永远需要安全边际的托举。毕竟,当AI开始影响现实社会运转时,我们得确保它不会变成脱缰的野马。 人工智能的下一次突破:具身智能 AI的发展,让计算机在“看”和“听”方面取得了巨大进步。比如: ·通过小区门禁时瞬间完成的人脸识别; ·网购时24小时在线的智能客服; ·从照片里提取文本信息的文字识别软件; ·能自动生成文案的AI写作助手; ·新能源汽车上辅助驾驶的自动驾驶系统。 这些技术都属于"离身智能"。它们就像是一个个聪明但"没有身体"的数字大脑,擅长处理图片、文字或者语音数据,但无法像人类一样直接触摸、移动或与物理世界互动。比如: ·人脸识别系统能认出你,却不能端茶倒水; ·智能客服能解答问题,但不能帮你拿快递; ·文字识别软件能帮你提取文本信息,却无法帮你整理文件柜; ·AI写作助手能生成报告,但不会帮你打印装订; ·自动驾驶系统能辅助驾驶,却不能帮你修理汽车。 而“具身智能”则让AI真正“活”了起来!它不仅会思考,还能像人一样动手动脚、感知世界。如书中所言,未来的智能体可能会出现在人类所创造的计算机乃至机器人上。2025年蛇年春晚,宇树科技会扭秧歌的人形机器人凭借灵活的舞姿惊艳全场,这正是具身智能技术突飞猛进的最好证明。这背后离不开两大“智能法宝”:“小脑”系统就像人类小脑控制肢体动作一样,确保每个动作行云流水;“大脑”系统则整合视觉、语言和行动,让机器人能看会想还能做。 想象一下,在不久的将来,你家的机器人管家不仅能听懂指令,还会主动收拾散落的玩具;医院的机器人护士可以精准地协助医生完成手术;救灾机器人能在废墟中灵活穿梭,拯救被困人员。 图片来源:文心一言。提示词:机器人护士协助人类医生手术 这些曾经只存在于科幻电影中的场景,正在通过具身智能一步步走进现实。这一切的突破都源于离身智能三大技术支柱的协同发展:深度神经网络就像机器人的“神经元”,通过模拟突触的连接方式,让AI不仅能识别图像和语音,还能学会控制身体动作;GPU等高性能芯片充当机器人的“线粒体”,为复杂的动作计算提供动力;而数以百万计的动作视频、传感器数据就像机器人的“教科书”,让它们能通过持续试错自主优化运动技能,在动态环境中进化出精准的动作控制能力。正是这些技术的融合,让原本只会“纸上谈兵”的AI真正获得了动手能力。从能说会道的智能助手,到能跑会跳的机器人,AI正在完成从“数字大脑”到“实体智能”的华丽转身。 然而目前,具身智能的发展仍然还有一段路要走。虽然目前的AI工具能生成流利对话,但其认知本质上是通过海量数据建立的统计相关性网络。正如维特根斯坦(Ludwig Wittgenstein)揭示的困境“语言界限即世界界限”,当机器没有感知过热水的灼烫和冰水的寒冷时,那么它对温度的理解就永远停留在词语层面上。这种具身经验的匮乏不仅表现在“触觉记忆”的缺失,更导致多感官协同的协调短板。物理交互中的基础数据(物体形变时的压力梯度场、运动关节的扭矩反馈曲线),还未被有效转化为神经网络的表征语言。而正是这些“身体记忆”的缺失,让具身智能暂时还难以突破“数字幽灵”的边界。 现实世界永远充满变数,但机器人的行动方式却像被程序卡死的齿轮。比如让机器人拿水杯,人类能轻松应对桌上物品的挪动,但机器人哪怕遇到毫米级的位置偏移,都可能像迷路的小孩一样手足无措。它得重新扫描桌面、计算轨迹,最后还不一定能准确放回原位。人类的学习是摸爬滚打出来的真功夫,就像小孩折纸飞机:随手一扔看它栽进花丛,换个折法再试,摔个十次八次就摸到门道。而现在的AI更像一个“数据学霸”,它能从百万次实验数据里总结出“翅膀角度30度时飞行距离最长”的规律表,但你要它根据风向变化实时调整投掷角度?它只会僵在原地重复失败动作。 要让机器人真正突破动作迟滞的困境,不仅需要更灵巧的算法,更要掌握生物“省着用能量”的诀窍——人类大脑只需20瓦的能耗(相当于一个普通电灯泡),就能展现出惊人的智能。而训练当前的大模型需要上万张GPU,耗电量堪比一个小城市,带来的智能提升却越来越有限。近期,中国科学家团队在《Science》上发表了一项突破性研究[2],他们发现,哺乳动物的大脑就像一座精密的“智能城市”,里面有一套独特的“按需供电”系统。具体来说,大脑在每个“信息传递站”(突触)附近都配备了“智能发电站”(线粒体)。当神经细胞开始工作时,这些发电站能自动感应到,并立即启动“发电模式”。更神奇的是,它们还能根据工作量大小,智能调节发电量,确保能量供应刚刚好。这项发现让我们更清楚地认识到:大脑不仅会处理信息,还很会“精打细算”地管理能量,这可能是人类智能如此高效的重要原因之一。 与此同时,来自澳大利亚的团队将微电极阵列芯片(Multielectrode Arrays; MEA)与人类神经元相结合,构建了一个由80万神经元组成的体外神经智能系统[3]。这个“迷你大脑”在实时电生理实验中展现出惊人的环境适应性,它不仅学会玩复古电子游戏《乒乓》,更催生出近期发布的全球首款可编程生物计算机CL1[4]。这项突破的本质,是让机器首次实现了环境驱动的“自主认知进化”,神经元在电信号刺激下自发形成了信息处理路径。这一科技突破呼应了《智能简史》带给我们的启示:“用硅基芯片模拟碳基智能,如同用蒸汽机设计航天飞机。”具身智能的突破不会来自更大规模的GPU工厂,而必须回归生命最原始的生存策略:在物理约束中迭代,于环境反馈中塑形。当机器学会像胚胎发育般在硬件限制中自我优化,像人类神经元网络那样在环境中延展感知,才是智能真正挣脱数字囚笼的时刻。 培养在微电极阵列芯片上的人类神经元(左);这些神经元正在预测“乒乓球”的运动轨迹,并通过电信号指挥“乒乓”球拍的实时移动(右)丨图源:https://corticallabs.com/[3]和Brettet al., Neuron, 2022 [4] 参考资料 [1] Menzel Jr, E. W. (1974). A group of young chimpanzees in a one-acre field. In Behavior of nonhuman primates (Vol. 5, pp. 83-153). Elsevier. [2] Li, W., Li, J., Li, J., Wei, C., Laviv, T., Dong, M., ... & Ma, H. (2024). Boosting neuronal activity-driven mitochondrial DNA transcription improves cognition in aged mice. Science, 386(6728), eadp6547. [3] Kagan, B. J., Kitchen, A. C., Tran, N. T., Habibollahi, F., Khajehnejad, M., Parker, B. J., ... & Friston, K. J. (2022). In vitro neurons learn and exhibit sentience when embodied in a simulated game-world. Neuron, 110(23), 3952-3969. [4] https://corticallabs.com/
谁是余家辉?“年薪1亿美元”AI研究员,中科大少年班天才,吴永辉的嫡系弟子
余家辉。 一个在中文互联网几乎隐形的名字,却让硅谷两大AI巨头撕破脸皮。 浙江慈溪人,高二就被招去中科大少年班,博士师从“计算机视觉之父”黄煦涛,现字节Seed掌舵人吴永辉的嫡系弟子,还与豆包核心技术大牛杨建朝的上升轨迹有着惊人的重合…… 扎克伯格亲自下场挖他,传出“1亿美元年薪”,刷新AI人才市场纪录。 奥特曼在一旁急得跳脚,公开指控Meta的作派“令人反感”,杀人诛心说“总有人唯利是图”。OpenAI内部员工更是哀嚎:这是巨大损失。 网友甚至调侃: AI顶级研究员收入堪比C罗转会费,但知名度连十八线网红都不如。 一时间,AI圈比娱乐圈还精彩。 更魔幻的是,当全世界都在讨论这个天价薪酬包时,当事人却像人间蒸发一样,没有回应,没有声明,甚至连个动态都没发。 所以,余家辉到底是何许人也?他凭什么? 无法复制的履历组合 余家辉,刚好30岁,出生于1995年,打小天资聪颖,2012年从浙江慈溪中学考到了中科大少年班学院。 本科就在大大小小的比赛中初露头角,拿下了全国并行应用挑战赛(PAC2015)冠军、智能化技术训练营一等奖、大学生超算竞赛(SCC)季军…… △右为19岁的余家辉,图源自中科大官网 2016年从中科大毕业后,只身前往UIUC(美国伊利诺伊大学厄巴纳-香槟分校)读博,师从AI视觉一代华人教父黄煦涛,让他打下了扎实的学术基础。 黄煦涛(Thomas S.Huang)是美国工程院院士,也是中国工程院外籍院士、中国科学院外籍院士,他是计算机视觉、模式识别、多媒体等领域最资深的华人科学家之一。 从教57年,黄煦涛培养了众多AI领域的核心人才,包括云从科技创始人兼CEO周曦、文远知行创始人兼CEO韩旭、AI大牛颜水成等等。 但仅有名师指导还不够,真正让余家辉脱颖而出的是其丰富的跨平台经验。 在加入谷歌前,他曾在微软亚洲研究院、旷视研究院、Adobe、Jump Trading(顶级量化交易机构)、Snap(社交媒体公司)、百度美国研发中心、英伟达都实习过,从底层框架到高效算法,再到视觉应用,4年7段实习让他积累了难得的实战经验。 2019年5月进入谷歌,一待就是4年多时光。 余家辉博士毕业那一年不幸遇上导师黄煦涛离世,但他在谷歌遇到了人生中另一个重要的技术领路人——吴永辉。 两人频频联手,搭档默契,发表了多篇具有行业影响力的研究成果。 △左为吴永辉,右为余家辉 吴永辉是谷歌Fellow级大佬,南京大学校友,博士毕业于加州大学河滨分校,在谷歌深耕AI近17年。 值得一提的是,今年2月吴永辉离开谷歌加盟了字节Seed,专注大模型基础研究。 有贵人指点,余家辉迅速成长为谷歌DeepMind团队的核心力量。离开谷歌之前,余家辉已经是Gemini多模态项目的联合负责人,同时是PaLM-2模型的核心贡献者。 能在谷歌参与这种级别的项目,说明他不仅有研究能力,还具备大规模工程实施的经验。 2023年10月,余家辉加盟OpenAI,担任感知团队负责人。短短不到2年时间里,他带队领导了4o、4.1、o3、o4-mini等一众明星模型的多模态部分研发。 今年4月,余家辉还在𝕏平台上介绍他们所实现的技术新突破——o3和o4-mini模型,是截至当时OpenAI“最智能、最能干的模型”。 正因以上种种经历,余家辉也成为了极少数同时了解谷歌和OpenAI技术路线的研究者,他深谙两家公司的工程文化、技术优势、战略思路。 对于急需在AI竞争中翻身的Meta来说,这样的背景就是战略资源。 一定程度上,扎克伯格也不仅仅是买他这个人本身,余家辉就像是一颗苍天大树中的重要节点,凭借每一个不同身份都可以链接和吸引到无数优秀人才奔赴Meta、追随于他。 技术影响力的硬指标 履历固然亮眼,但真正让余家辉在AI圈站稳脚跟的,还是他在技术创新上的硬实力。 数字不会撒谎:34780次引用。 这是余家辉在谷歌学术上的论文引用数,虽说远远不敌Geoffrey Hinton、LeCun、李飞飞等大神,但在AI领域也意味着不小的影响力。 其多篇论文发表在CVPR、ICCV、ECCV、ICML等AI顶会上。 而真正让硅谷巨头们在意的,是这些研究背后的实用价值。 DeepFill技术解决了图像修复的核心难题。在黄煦涛的指导下,余家辉于2018年发表的DeepFill v1和2019年的DeepFill v2,让AI能真正理解图像内容,不再是简单的像素填补。 这项技术成为图像修复领域的重要突破,GitHub上获得了3409次星标,在学术界和工业界都产生了广泛影响。 举个例子,有了DeepFill v2,你能用AI随心所欲P图了。 △右边那个骑车的人,被擦掉了 同样备受业界认可的还有Conformer模型,该模型基于Transformer架构改进而来,成为语音识别技术的重要进展。这是余家辉与吴永辉共同开发的成果。 想象一下,当你对着手机语音助手说话时,背景一嘈杂它就听不清你在说什么,或者你说快一点、带点方言口音它就压根听不懂了;看视频时自动生成的字幕错误百出;语音输入法总是打错字,你得不断修改…… Conformer模型的出现,就是为了有效解决以上这些问题。 此外,余家辉和吴永辉共同开发的CoCa图文基础模型(2022年,引用1752次),让计算机能更智能地理解图像和文本之间的关系,推动了多模态AI技术的发展,尤其在图像识别、检索和生成描述等方面具有广泛应用前景。 计算机视觉、多模态理解、语音识别、神经网络架构……横跨AI多个细分研究领域、并且已经得到实际落地验证的成果和经验,让余家辉成为了不可多得的“全栈AI科学家”。 然而,比起过往的技术成就,更让业界刮目相看的,或许是余家辉对AI发展趋势的精准把握。 比市场早一步的技术判断 早在ChatGPT彻底引爆全球之前,他就已经展现出了超越同龄人的技术洞察力。 2022年12月,余家辉在「硅谷101」播客中发表的观点现在看来几乎句句应验。 面对引发满世界震惊的ChatGPT,他却保持异常冷静:“一开始没有特别惊讶,因为OpenAI在语言生成模型上已经耕耘了很多年”。 这种判断来自对技术发展脉络的深度理解,以及他一贯的谨慎理性。普通人看到突然爆发,他看到的是渐进式的积累。 而当被问到ChatGPT会不会替代谷歌搜索时,他给出“降维打击”的判断。聊天机器人不是产品替代,而是交互范式的重新定义。事实证明,ChatGPT的确创造了全新的人机交互方式。 关于业界十分流行的“大力出奇迹”观点,他当时直接反驳: “可能一开始你想着只要有数据、有算力就可以,但其实真的做起来的时候发现全部都是问题。” 这个判断现在已经成为行业共识。钱和GPU只是基础,工程能力、人才组织、技术积累才是关键。 “时间积累、人才积累、组织积累、自信积累”则是余家辉当时总结的关于OpenAI成功的四个要素。 这套理论现在被广泛认可为AI公司成功的必要条件,特别是“组织积累”这一点,预言了后来各大公司在AI团队架构上的调整。 在商业化路径上,他同样展现了超前的战略眼光:“真正更长远的机会是在基建上,真正有商业化价值的是在应用层面”。 中美科技巨头们正投入大量资源夯实基础建设,基于此,我们看到各类AI应用正在加速涌现并展现价值。 而这,还只是他极少数公开发声中的吉光片羽…… 在AI进入下半场的关键时刻,拥有正确判断力的人才变得比黄金还珍贵。谁能看清技术演进的真正路径,谁就能在这场没有硝烟的战争中抢占先机。 小扎求贤心切,余家辉此刻被Meta选中不是偶然,而是必然。 在AI军备竞赛中,Meta确实落后了。OpenAI和Google都在全力冲刺AGI,可Llama 4的表现不及预期,Meta现在连一款有竞争力的大模型都拿不出手。 新组建的超级智能实验室50人规模,由Alexandr Wang(Scale AI前CEO)带队领导,研发下一代模型,实现“为每个人提供个人超级智能” 的承诺——这是Meta最后的卡位机会。 对Meta来说,他们买的不是一个员工,而是通往AGI的入场券。 而对于余家辉来说,在Meta开启新的旅程或许是“激动人心且意义重大的”,就像他曾经对离开OpenAI的同事送上的祝福一样。 硅谷的抢人大战还在继续,很显然,中国人正在成为这场游戏的主角。 — 完 —
一加Ace 5竞速版手机获ColorOS 15.0.2.306升级,支持远控Windows电脑
IT之家 7 月 6 日消息,一加 Ace 5 竞速版手机已开启 ColorOS 15.0.2.306 版本升级(分批推送),系统包大小约 308.34MB,新增外卖 / 快递等服务通过耳机播报、远程控制 Windows 电脑、超级文本模式等功能。 IT之家附一加 Ace 5 竞速版手机此次更新内容如下: 小布建议 新增在小布建议和流体云上,显示大麦演出提醒,包括演出出票、开场及座位号等服务信息,方便获取信息 新增外卖、快递等服务可通过耳机播报,方便获取信息 新增支持快递待取件在流体云上显示,靠近驿站、快递柜时智能提醒 小布识屏 新增小布识屏选词模式,点击后可对屏幕上文字进行分词选词操作,方便选择和复制,操作更便捷 互联 新增远程控制 Windows 电脑功能,支持远程访问电脑文件和控制电脑屏幕,实现远程轻办公和文件远程互传 便签 新增便签表格中的文本,可设置加粗、斜体等富文本格式 新增笔记内支持通过拖拽音视频文档来调整位置 新增支持音视频文档文件可通过分享保存到便签 新增笔记详情页内支持通过相机、相册、文件管理插入音视频文档文件 天气 新增在天气中显示潮汐信息,为赶海、出海等活动提供更多信息 日历 新增日历支持批量删除日程 时钟 新增闹钟设置提醒,在节假日上班前 1 日主动提醒设置闹钟 新增秒抢闹钟功能,支持通过流体云卡片显示当前时间并精确到秒,抢票更及时 优化即将响铃通知交互方式,点击通知后可直接跳转至对应闹钟 智慧车载 新增在车载投屏上使用音乐应用时,应用中会显示悬浮播控键,方便随时播放和切歌 优化连接车机后,车机上的音量调节方式,可对导航音量和媒体音量进行单独调节(设置-声音与通知-音频调节方式) 相机 新增超级文本模式,无论是在课堂角落,还是会场后排,都能拍出高清图片; 并有 AI 智能加持,轻松消除反光、模糊、屏纹、阴影; 专业级文档输出,支持无水印 PPT / PDF / Word 等格式导出 游戏 新增逆水寒游戏支持超帧超画功能,开启后提升游戏流畅性(仅 2.3.4 及以上版本的逆水寒游戏支持) 另外,ColorOS 官方本周还在一加社区发布了《ColorOS 版本升级动态同步-第 44 期》,其中提到,一加 13T、一加 12、一加 Ace 5 等机型也获新版本更新。具体如下: 一加 13T 版本 15.0.2.401 相册 新增 AI 最佳表情功能,支持识别并替换同一人物在不同场景下的表情,达到最佳成片效果小布助手 新增可通过小布助手查询机票、火车票和酒店。唤醒小布助手说出相关搜索词,就可以显示同程旅游上的票务信息,点击即可购买 小布建议 新增小布指令外卖再来一单卡片,点击将其添加到桌面后,方便随时再点一单外卖(当前仅支持一个月内已点过的美团、美团外卖和饿了么外卖) 应用 优化录音分组功能,新增普通分组,标准、会议、采访模式下的录音将自动分组到普通分组 一加 Ace 5 / 一加 Ace 3 Pro / 一加 Ace 3V 版本 一加 Ace 5 手机:15.0.0.832 一加 Ace 3 Pro / 一加 Ace 3V 手机:15.0.0.831 系统 优化系统稳定性 修复下拉控制中心查看中国移动文字显示,低概率出现换行问题 修复部分场景下手机升级后没有锁屏签名功能问题 修复部分场景下,手机升级后使用原装 USB 线连接至电脑后出现黑屏重启问题(仅一加 Ace 3 Pro / 一加 Ace 3V) 一加 12 版本 15.0.0.832 相册 修复使用长焦 3x 拍摄实况照片后,播放实况视频时低概率出现画面抖动问题 系统 优化系统稳定性 修复下拉控制中心查看中国移动文字显示,低概率出现换行问题 修复部分场景下手机升级后没有锁屏签名功能问题
罗马仕、安克召回超120万台充电宝,最新进展公布
IT之家 7 月 6 日消息,据央视新闻报道,近期,罗马仕、安克创新两家公司相继宣布召回多款充电宝产品,涉及召回数量超过 120 万台,民航局也发布紧急通知,禁止旅客携带无 CCC 认证标识及被召回型号的充电宝乘坐境内航班。目前,相关产品召回工作进展如何?来看记者的调查。 记者从深圳罗马仕科技有限公司了解到,截至 7 月 3 日 10 时,公司共处理各渠道咨询约 572.6 万次,确认符合召回条件的产品 330807 件,已收到退货或无害化处理产品 79891 件,占召回总量的 16.2%。 罗马仕科技有限公司品牌负责人介绍称,我们这次产品的召回事故或者产品的缺陷,还是在于我们的电芯(锂电池)出现了一些问题,因为我们自己不生产电芯(锂电池),由于部分上游电芯(锂电池)来料的问题,在一些极端的场景下,可能会有过热的风险,在一些更加极端的场景下可能会有自燃的风险。 据安克创新科技股份有限公司介绍,截至 7 月 3 日,已经有超过 20 万用户完成了召回申请,企业向用户寄出了超过 10 万个防火安全袋用于快递召回的充电宝。 安克创新科技股份有限公司副总裁张希称,有一个上游电芯(锂电池)的供应商,在未告知公司的情况下,私自对电芯(锂电池)的核心材料进行了改变。我们判断这次改变有可能带来一定的安全隐患。 根据目前市场监管部门调查的情况分析,两家企业实施召回的原因基本相同。 报道称,安普瑞斯(无锡)有限公司是罗马仕充电宝的锂电池供货商之一,市场监管总局指导江苏省无锡市市场监管局对这家企业进行调查了解。 无锡市市场监管综合行政执法监督局局长黄立飞介绍,鉴于该企业的电芯产品可能涉及充电宝起火事件,我们已经对该企业的所有产品进行了全面排查,并予以全面抽样检验,检验检测还在进行中。 目前安普瑞斯(无锡)有限公司拥有的 74 张 CCC 证书,均被认证机构暂停或撤销。无锡市市场监管局已依规对该企业生产的锂电池产品全部封存。
雷鸟V3拍摄眼镜夏季更新上线:新增AI备忘录、逐步接入苹果生态等
IT之家 7 月 6 日消息,RayNeo 雷鸟创新官方微博昨日宣布:雷鸟 V3 拍摄眼镜重大升级(即夏季更新),主要包括:AI 备忘录功能正式上线、拍摄能力提升、逐步接入苹果生态等。 IT之家整理雷鸟 V3 拍摄眼镜夏季更新内容如下: AI 备忘录正式上线 支持语音或 App 中手动添加备忘事项,如「提醒我明天下午 2 点开会」,眼镜到时将自动提醒 拍照能力大幅提升 优化多场景下的拍照与视频色彩表现,人脸肤色更自然,告别偏黄问题 改善特定场景下的画面曝光闪烁问题,动态画面更稳更清晰 逐步接入苹果生态 单指长按触控板,即可唤起 Siri。轻松完成拨打电话、设置日程、音乐播控等操作 设置路径:App 首页 > 手势设置 > 触控板手势 > 单指-长按 >「唤起 Siri」 iPhone 可直接查看眼镜电量 无需打开 App,左滑屏幕即可查看 支持 10% 比例的电量展示 手机配对更丝滑 与 iOS 设备配对无需跳转系统设置,App 内轻松完成连接 Q3 即将上线功能 接入 MFi 生态:即将接入 Apple 官方认证系统 MFi(Made for iPhone),实现更快中继网络直连、更稳 AI 运行、更顺滑配对体验 Apple Watch 手势交互:指尖轻击两下拍照、甩手唤起助手、握拳开启录音...... 未来可连接 Apple Watch,实现无感手势操作
取代LPDDR,华为和苹果都看上的HBM有何魔力
“高通骁龙8至尊版主控搭配LPDDR5X Ultra内存+UFS4.1闪存,构成了性能铁三角”,这无疑是自从2025年秋季开始,主打性能表现的Android旗舰在宣传时的常用话术。在市场竞争白热化的手机圈,性能成为了各大厂商比拼内功的关键,同时也是新技术应用最频繁的场景。 日前有消息源透露,华为或将抢先苹果落地HBM内存。但在此之前,业界一直流传着苹果方面将在20周年纪念版iPhone上,将HBM内存应用到移动设备中,从而带来新一轮的性能革命。 那么HBM内存究竟是什么,与现在主流的LPDDR5有何不同呢?事实上,HBM(High Bandwidth Memory,高带宽内存)是一种基于3D堆栈技术,通过TSV(硅通孔)和微凸块(ubump)工艺实现的多层DRAM芯片垂直堆叠。而DDR(Double Data Rate)则采用的是并行总线架构,常见于DIMM(双列直插式内存模块)形式。 其实HBM和DDR的核心原理一模一样,两者都是易失性存储器,每一个数据均通过一个晶体管和一个电容组成的Cell来存放,其中的电容器用于存储电荷来代表二进制数据“1”或者“0”‌,晶体管则作为开关与周边电路联通实现读、写、刷新操作。 两者的区别在于架构设计,如果将传统的DDR视作 “平房”,那么HBM就是“楼房”。通过3D堆栈技术,HBM可以缩短数据传输的路径、大幅提高数据吞吐量,再依靠中间介质层与计算芯片紧凑连接,从而节省芯片面积,最终带来更大的带宽。 HBM的带宽究竟有多高呢?以最新的HBM3E为例,其传输速率达到了9.6GB/s,可提供1.2TB/s带宽。作为对比,LPDDR5X的带宽为8533Mbps(1066.6MB/s),也就是说HBM3E的带宽是LPDDR5X的1180倍。 那么问题也就来了,HBM和DDR在原理相同的情况下,前者为何会拥有更大的带宽?其实秘诀就在于HBM3E使用了支持1024位的数据总线宽度,而LPDDR5X则是64位总线。但1024根数据线显然无法用传统的PCB布线实现,所以HBM就需要用额外的硅中介层,通过3D堆栈技术与处理器(CPU、GPU)连接。 但有得必有失,使用3D堆栈和硅中介层带来的结果就是成本飙升。无论是台积电的CoWoS、还是英特尔的EMIB,硅中介层都极为昂贵,因此也限制了HBM被广泛采用。即便是在没有考虑封装测试的情况下,HBM成本就达到了GDDR的三倍左右。 既然如此,华为和苹果为何会考虑将昂贵的HBM带到智能手机上呢。别的不谈,当年在巴宝莉前CEO安吉拉·阿伦茨的领导下,苹果就曾尝试过奢侈品化,结果超高的定价直接导致iPhone X、iPhone XS的溃败。难道说是苹果转性了,HBM内存带来的溢价不会转嫁给消费者? 事实上,HBM大规模应用在智能手机领域是必然,只是溢价能力更强的苹果和华为有资格尝鲜而已。其实早在2013年,SK海力士就已经量产HBM芯片,可直到最近两年,市场才表现出了对HBM的强劲需求,并且这一切也是靠AI大模型的催化。 当下AI模型的训练和推理对于AI芯片存储架构设计的需求,是既要高带宽、又要大容量。其中大容量很好理解,因为足够大的内存才能将参数规模惊人的模型给放进去,而高带宽则可以让AI模型更快地从内存中访问数据、以缩短计算时间。财大气粗的AI厂商为了在市场竞争中取得领先,自然不吝于花大价钱购买HBM来获取优势。 同理,手机厂商如果坚信AI手机是未来,那么将HBM用到手机上就是必然。因为更安全、更能保护用户隐私性的端侧大模型才是消费者希望看到的,所以这就注定了当下的端云混合模型只能是过度,AI手机的未来一定会是在更大规模的端侧模型上。而使用HBM则可以让手机容纳更大规模的端侧模型,进而提升竞争力。 不仅如此,HBM用到手机上还有另外一个优势,那就是3D堆叠可以节省芯片面积,为机身内部设计释放更多空间。所以除非AI手机不被消费者接受,否则HBM几乎必定会取代现有的LPDDR、成为未来智能手机的标配。
为什么手表显示的“心率”很离谱?因为它根本没测心跳
现在的智能手表和手环,几乎全能显示“心率”了。但实际上,只有少数设备测的是真心率,更多设备检测的根本不是心跳,而是脉搏。 什么?心跳和脉搏不是一样的吗?频率一般是相同的,不过这俩概念不能画等号。有些情况下脉率远低于心率,只看脉率有可能让人漏掉心脏问题,或者误以为发生了紧急情况。 你知道自己的手表手环测的是脉率还是心率吗?下文为你说清两种检测方法的区别,以及分别适合哪类人。 脉搏是心跳的结果,脉率可能比心率低得多 多数智能手表、手环或戒指检测的都是脉率,相当于手摸脉搏的精密版。 正常情况下,心脏每收缩一下,就有一大股血被挤到血管里,全身动脉都会随着变粗一下,包括手腕和手指里的小动脉。脉率,就是每分钟动脉变粗了多少次。 动脉随心脏收缩搏动 | withings 手测脉率是直接触摸动脉跳动来计数,可穿戴设备是通过检测血液吸收光线的量,来计算动脉血流量变化,然后推算脉率。戴上智能手表,表背面的LED灯就会向手腕发出绿光、红光或红外光,血液吸收一部分光,又将其余的光反射回手表。动脉变粗时,血液吸收光量变大、反射光量减少。于是,不断测量反射光的量,追踪动脉粗细变化,就可以计算出动脉搏动的频率。通常,这个频率就等于心率。 智能手表测脉率原理。两次心跳之间,动脉较细,吸收光量小,返回接收器光量大(下图左);心脏收缩推来一大股血时,动脉较粗,吸收光量大,返回光量小(下图右) | Tom Zhong / noldus 用脉率代表心率的设备,不需要什么操作,只要戴在身上就可以连续显示“心率”。翻到背面,常能看到绿色或红色的灯在闪烁。如果在设备心率测量说明里见到“光电体积描记法(photoplethysmography, PPG)”或“光学”这类词,检测的就是脉率。 大多数情况下,脉率数值跟心率相同。用这种方法计算出来的即刻心率、平均心率、静息心率及最大心率都是可以参考的,设备提示的心跳不规律或心房颤动(房颤)也相对准确,心率过低或过高有一定提示作用。 值得注意的是,少数情况下,脉率与心率差距很大。因为,只有心脏猛地泵出一大股血的时候,相距半米的桡动脉才会因为血液涌过明显变粗。如果某次心脏收缩力量弱或者距离上一次收缩太近,只泵出了一小股血,那么手摸不出微弱的动脉搏动,设备也识别不出变化,就漏记了一次心跳。 这时,脉率低于心率,设备上显示的“心率”也低于实际心率。比如,发生房颤时有可能心率120次/分,脉率只有90次/分,单看脉率让人误以为一切正常;早搏二联律时,70次/分的心率也许只产生35次/分的脉率,手表上的“心率”显示35会吓得人想立刻冲进急诊,但有可能实际上不需要紧急处理。 A为房颤心律,B可见室性早搏,均可见心电图上两次心跳距离近时,脉搏次数少于心跳(脱漏脉搏标记为红叉) | 参考文献[9] 另外,由于这种方法测量的是动脉粗细的精细变化,所以检测时肢体的晃动可能导致读数不准确,高估或者低估心率。 测脉率设备Tips 提高准确度:表带或手环松紧合适、手臂稳定; 降低准确度:低温、纹身、肤色深、手臂晃动; 特殊情况下,检测原理可造成心率被低估; 信号不稳定可造成心率被低估或高估。 心电是心跳的由来,手表心电图准确但不全面 显示“真”心率的智能手表检查的是心脏,探测电活动,相当于医院标准心电图检查的极简版。 开启手表的心电图功能,把不戴表的手放在表冠或按键上,手表就能检测到两只手之间的微小电压变化。身体静止不动的时候,这些电压变化主要来自心脏的电活动。心脏每跳一次,手表就记录下来一个波形,它的形状非常接近标准心电图中的一部分。不过,标准心电图一般记录12个导联,也就是心脏在12个方向上的电压变化,手表只能记录一个。 手表心电图与标准心电图中的I导联波形几乎一致 | ECGsmart 正因为原理与标准心电图类似,在心率判断方面,手表心电图的参考价值与标准心电图非常接近。只是在信号不稳定、心率过快或过慢、植入心脏起搏器等特殊情况下,软件识别心率的准确性可能低于医生对标准心电图的解读。通常,测脉率手表能提示的情况,测心电图手表可以判断得更加准确,包括心率过低、过高,以及房颤或期前收缩引起的心跳不规律。一项研究在1288人中对比了判断房颤的两种方法,结果是检测脉率(PPG)的方法准确率为93.3%,检测心电图的为98.5%。 出于安全考虑,目前手表关联软件分析出心电图异常后,通常不会给出具体诊断,只是提示可能存在异常。如果把心电图导出或发送给医生看,也许能得到更准确的判断。 手表心电图导出的结果 | apple 不过,手表只记录了心脏在一个方向上的电压变化,信息量大大低于标准心电图,因此对于心率之外的信息判断,很可能没有标准心电图准确。于是,有些能从标准心电图看出端倪的疾病,可能会被手表的单导联心电图漏掉,比如冠心病、心肌病、某些心律失常(Brugada综合征等)。所以,如果出现了胸痛、胸闷、心悸、头晕等不舒服,即使手表测出来的心电图没有问题,依然建议及时就诊,可能需要补充进一步的心脏检查。 最后,能测心电图的手表一般也有测脉率的功能。只有开启心电图功能、用两只手接触手表时,显示的心率才是“真”心率,其余时刻显示的都是脉率。 测心电图设备Tips 能测心电图的设备,也可能显示脉率; 将手表戴在预先设置的手上,不可左右颠倒; 提高准确度:表带松紧合适、手臂稳定、另一只手接触表的力度不变; 手表心电图只是极简版,可能漏掉心脏问题。 测脉率和测心电图的手表,选哪类好? 两种检测方法各有优势。如果你对心率的态度是想要“随时简单看看”,测脉率的设备就能满足需求了。就像是,一个身体健康的年轻人,没有确诊过心脏相关疾病,也没出现过明显的心悸、胸闷、胸痛等症状,戴手表手环是为了解自己的日常心率,希望抬手就能随时看到数值,而且不需要太精确。 要是已经确诊心脏疾病,或者发生过心脏相关的不舒服,可以选择具有心电图功能的手表。这样,不仅能看到更准确的心率,难受的时候还可以记录心电图给医生看。手表记录下来的心电图,有机会让人发现之前没有得到诊断的疾病,或者了解已知疾病发作的频率和持续时间。特别是,有的心律失常来得快去得快,到医院做检查时发作停止的话,可能所有检查结果都是正常的,总是无法得到确诊。对于这样的一小部分人,心电图功能非常有价值。 另外,有一些人想要在体育活动中准确测量心率,而以上两种方式都要求检测时手臂稳定,不能满足这种需要。目前最好的解决方法是,买一个佩戴在胸前的心率带。它通过心电图检测心率,结果相对准确,又不需要占用两只手去测量,而且在运动中不易晃动,信号受到的干扰比较小。心率带测出的心率,可以通过适配软件实时显示在智能手表或手机上,并被记录下来以备分析。 选手表Tips 健康年轻人、无不适、想随时查看、不需要太精确,可选测脉率的; 已确诊心脏疾病或有相关不适,可选测心电图的; 运动中监测、对准确度要求高,可戴心率带。 附录:目前常见的可测心电图的部分智能手表 华为 可用型号:HUAWEI WATCH GT 3 Pro、HUAWEI WATCH GT 3 | 保时捷设计、HUAWEI WATCH D、HUAWEI WATCH 3 Pro new、HUAWEI WATCH 4、HUAWEI WATCH 4 Pro,HUAWEI WATCH Ultimate; 结果分类:窦性心律、房性早搏、室性早搏、房颤、不确定; 适用范围:不适用于未满18周岁的用户、体内安装心脏起搏器或者其他植入式电子设备的用户不建议使用。 苹果 可用型号:Apple Watch 4或更新机型、Apple Watch Ultra所有型号; 结果分类:窦性心律、房颤、低心率或高心率、不确定、记录结果不佳; 适用范围:移动心电图房颤提示软件不适用于未满 22 周岁的人群。 三星 可用型号:Galaxy Watch 3或更新机型、Galaxy Watch Active2; 结果分类:窦性心律、心房颤动、不确定、不良记录; 适用范围:不适用于 22 岁以下或患有除心房颤动之外的已知心律失常的用户。 参考文献 [1]Alian AA, Shelley KH. Photoplethysmography. Best Pract Res Clin Anaesthesiol. 2014;28(4):395-406. [2]Mutke MR, Brasier N, Raichle C, Ravanelli F, Doerr M, Eckstein J. Comparison and Combination of Single-Lead ECG and Photoplethysmography Algorithms for Wearable-Based Atrial Fibrillation Screening. Telemed J E Health. 2021;27(3):296-302. [4]https://support.apple.com/zh-cn/HT208955 [5]https://consumer.huawei.com/cn/support/content/zh-cn15888936/ 心电分析提示软件说明书 [6]https://consumer.huawei.com/cn/support/content/zh-cn15887724/ [7]https://www.samsung.com.cn/support/mobile-devices/measure-your-ecg-with-the-galaxy-watch-series/ [8]https://images.samsung.com/is/content/samsung/assets/cn/apps/samsung-health-monitor/IFU_ECG_CN_202306.pdf [9]Bruining N, Caiani E, Chronaki C, Guzik P, van der Velde E; Task Force of the e-Cardiology Working. Acquisition and analysis of cardiovascular signals on smartphones: potential, pitfalls and perspectives: by the Task Force of the e-Cardiology Working Group of European Society of Cardiology. Eur J Prev Cardiol. 2014;21(2 Suppl):4-13. 作者:代天医,编辑:odette

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。