EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
美国AI被电力卡脖子:进口依赖度高达80% 恰好是中国强项
快科技3月4日消息,当前AI领域,美国企业强大的地方在于芯片算力充足,然而AI基建上却被电力卡脖子,这一点反而成为中国科技公司的强项。 AI数据中心最主要的运营成本就是电力消耗,美国科技公司也为此头疼,而电力公司也同样面临挑战,美国三大区域电力公司宣布了750亿美元的电力投资计划,要建设765千伏的超高压线路以满足美国AI的电力需求。 这批线路将成为美国史上规模最大、输电能力最强的电力线路,但是还是不能彻底解决美国AI缺电的问题。 不仅如此,微软、谷歌、亚马逊等公司面临的第二个难题就是电费涨价的问题,由于需求旺盛,美国电力公司已经上调了电费价格,这又引发了美国民众的不满。 日前美国总统召集了上述多家科技公司的CEO/高管开会,最终让这些公司签署文件,承诺自行供应或者购买AI所需的电力,不把涨价转移到普通人身上。 但这样做无疑又会提高美国AI数据中心的运营成本,问题的本质还是美国电力建设已经落后,而且核心电力设备成本高,又太依赖进口。 在这方面,国内研报认为美国的变压器供应缺口高达30%,而且80%都依赖进口,这也成为中国企业的机会。 在电力设备上,中国公司不仅拥有全球最大的电网规模,同时也拥有最完整的产业链,并且可以快速交付。 即便是在技术上,中国企业的技术专利也是全球最多的,美国IFI Claims公司去年公布的全球专利TOO250排行榜中,国家电网以12.7万项活跃专利位列第一。
携程升级中东旅行保障:延长期限、更新范围,已为用户挽损超2亿元
凤凰网科技讯 3月4日,携程宣布持续升级并严格实施中东地区旅行保障机制,全方位守护用户出行安全、降低出行损失,各项保障举措已全面落地见效。 截至2026年3月4日18:00,携程机票、酒店、旅游度假等相关部门第一时间更新航空公司等相关方退订政策,积极协助用户处理各类旅行订单合计4万余单,累计为用户挽回经济损失超2亿元。与此同时,携程商旅同步启动应急干预机制,在1.5小时内通过境内外6个服务站点,精准触达超3万笔差旅订单,为1640家企业客户提供高效退改支持,最大限度降低企业差旅损失。 为精准适配中东局势变化,保障国家范围同步调整,经综合核查中东地区局势,确认土耳其未受本次相关局势影响、出行环境平稳有序,因此土耳其相关旅行订单不再纳入本次应急保障范畴,恢复平台常规退改及服务规则。本次应急保障国家更新为伊拉克、约旦、黎巴嫩、阿联酋、叙利亚、科威特、卡塔尔、沙特阿拉伯、巴林、伊朗、以色列、阿曼、也门、埃及共14国。 携程动态更新应急保障范围,涵盖酒店、机票、旅游度假、商旅四大板块,并调整保障国家范围。其中,酒店保障针对2月28日17时前预订、且出行日期在2月28日之后的订单,将兜底保障期限从3月5日延长至3月15日,保障范围内订单可继续享受平台退改、兜底等相关权益。 机票保障方面,携程将持续第一时间同步国内外航司最新退改政策,安排专人协助旅客办理退改手续,确保服务高效响应。 旅游度假产品方面,出发日期在2月28日至3月15日期间,因中东局势影响、航班取消等原因无法出行或行程中滞留(含行程约定转机地)的用户,均纳入“重大灾害旅游体验保障金”保障范围,平台将对无法出行订单的最终退订损失予以保障,并按保障金约定补贴游客滞留期间的住宿费用。 商旅保障与携程主站机票、酒店保障政策一致,同时开通退改绿色通道,高效满足用户出行安全及行程调整需求。 目前,携程应急响应渠道保持畅通,用户如遇紧急情况,可随时拨打携程客服热线95010,或在携程APP搜索“SOS”选择相关支援服务,平台将安排专人24小时响应,全力提供应急支援。后续,携程将密切关注中东局势进展,动态调整保障举措、更新保障范围,及时向广大用户同步相关信息。
贵了但值!字节Seedance2.0公布定价标准:平均1秒钟1块钱
快科技3月4日消息,据媒体报道,今日,Seedance2.0价格公布,包含视频输入是28元/百万tokens,不含视频输入的价格是46元/百万 tokens。 在即梦生成15秒视频,是2.5元。同样,在Seedance2.0生成15秒视频,需要消耗30.888万tokens。这里要提到含视频输入和不含视频输入两种价格下,服务内容的区别。 前者指视频编辑,后者指纯生视频,会消耗更多算力,自然价格更高。那么,按照46元单价计算,单条15秒视频价格为15元。也就是,一秒1块钱。 从行业成本来看,这个价格不算低。不过,Seedance2.0的画质,内容准确度都很高,一定程度上节省了抽卡试错成本,可以节省人力成本。 据了解,目前Seedance2.0已接入第一批公司,某家头部漫剧公司确认已接入。 据相关人士提到,“Seedance2.0暂不会对工具方开放,仅限于自用。”不过,相关信息并未最终确认。 2026年开年,字节跳动内测的AI视频模型Seedance2.0引爆全球关注,其“文本生成多镜头电影级视频”的能力被业界称为“导演级AI”。 曾有一位制作者站在成本角度观察视频生成模型评价,“一个3秒480P的视频,大概3毛钱。720P的3秒视频快1元,视频模型发展非常快,应该算是除了语言模型外,用量最大的模型了”。 在此之前,Seedance 2.0 一直处于内测阶段,并未公布收费标准。 回顾上一代产品:2025年6月推出的Seedance 1.0 Pro定价为10元 / 百万 tokens,生成一条5秒1080P 视频约需3.67元。
消息称红果短剧砍掉中小承制方的保底,只保留头部精品项目
IT之家 3 月 4 日消息,据蓝鲸新闻 3 月 3 日报道,红果短剧砍掉了中小承制方的保底,只保留头部精品项目。业内称,过去一年真人短剧“野蛮增长”,但收益不及预期。 多名短剧承制方表示,红果短剧近日已经取消了部分承制方的保底机制,受影响的主要是一些中小承制方,头部精品项目保留。另有市场消息称,红果短剧此举是压缩真人短剧,押注 AI 真人短剧。 报道提到,一不愿具名的知情业内人士透露,红果短剧并非因为要发展 AI 真人短剧才做出此番调整,“内容展现上应是互相补充不是相斥状态,只有各体裁同时发展,短剧市场才能长期繁荣。”该人士表示。另外,调整承制方的保底机制还因为短剧行业已逐渐成熟,市场上涌现了很多优秀的短剧公司,各方可以直接促成合作。 据 Tech 星球报道,2026 年 1 月,字节跳动旗下红果短剧 App 日活已经过亿,成为继今日头条、抖音、豆包、番茄小说之后,字节第五款日活过亿的独立 App。 报道称,红果短剧自 2023 年 4 年上线,不到 3 年的时间,日活过亿,月活近 3 亿,断层式优势稳居行业第一。 IT之家从公开资料获悉,红果短剧平台以提供海量免费短剧资源为主,同时包含电影、电视剧、小说、有声书、漫画等多元内容,涵盖都市热血、甜宠言情、职场婚恋、逆袭反转、玄幻仙侠等多种类型,满足不同用户的多样化娱乐需求。
TrendForce:亚洲半导体巨头今年瞄准1360亿美元投资规模,同比增长25%
IT之家 3 月 4 日消息,AI 芯片、存储芯片和逻辑处理器需求持续飙升,正在推动亚洲半导体企业大幅提高投资规模。今天晚间,集邦咨询 TrendForce 数据显示,亚洲多家主要芯片厂商今年资本支出预计将超过 1360 亿美元(IT之家注:现汇率约合 9404.47 亿元人民币),比 2025 年增长约 25%,其中台积电、三星电子和 SK 海力士是扩产的核心力量。 亚洲晶圆代工龙头和存储厂商正在显著增加 2026 年投资规模。譬如,台积电今年资本支出将达到 520 亿至 560 亿美元(现汇率约合 3595.83 亿至 3872.43 亿元人民币)的历史新高,同比增长 27% 至 37%。其中约 70% 至 80% 用于先进制程,其余用于特殊制程和先进封装。 中芯国际也保持高水平投资,其资本支出规模几乎与全年营收相当,重点用于本土产能建设。预计该公司 2026 年的资本支出将与 2025 年基本持平,仍将保持在 80 亿美元(现汇率约合 553.2 亿元人民币)以上。 与此同时,三星电子和 SK 海力士也在加大投资力度。TrendForce 预计,三星电子 2026 年资本支出将同比增长约 3.7%,SK 海力士可能提高约 24%。两家公司都在扩大产能,新增产能主要用于 HBM 高带宽存储。 三星计划在 2026 年将 DRAM 产量提高约 20%,重点依托平泽 P4 工厂,并主要生产 10nm 级第六代(1C)DRAM,以配合 HBM4 需求。 SK 海力士方面,EBN 称其清州 M15X 工厂已完成准备,大部分新增产能预计将用于 HBM 生产。 消息称 SK 海力士已经上调 1C DRAM 扩产计划。业内预计到 2027 年第一季度末,其月产能可能达到 17 万至 20 万片,接近原定目标的两倍。 NAND 领域,铠侠与闪迪的联盟也成为扩产最激进的力量之一。预计该合资项目 2026 年资本支出增长约 40%。 值得注意的是,这轮投资潮也蔓延到二线存储厂商。例如,华邦电子计划在 2026 年投入 421 亿新台币(现汇率约合 93 亿元人民币),接近去年的八倍。 华邦电子主要生产用于各类设备存储源代码 NOR 闪存芯片,以及定制化旧制程 DRAM,预计 2026 年第一季度平均售价将上涨 30% 以上。 全球第五大 DRAM 厂商南亚科技也宣布大幅提高投资规模。在经历近三年的行业低迷后,其将 2026 年资本支出提高到此前水平的两倍以上。据悉,南亚科技已经公布 500 亿新台币的资本支出预算,新工厂预计将在 2028 年上半年达到每月 2 万片晶圆产能。
荣耀前CEO赵明正式出任千里科技联席董事长
凤凰科技讯 3月4日,千里科技发布公告,称召开第六届董事会第三十一次会议。在此次会议上,同意选举荣耀前CEO赵明为公司第六届董事会联席董事长,任期自本次董事会审议通过之日起至第六届董事会届满之日止。 据了解,今年2月,赵明通过微博宣布加入千里科技。他表示:“非常荣幸有缘际会千里科技,一个可以奋斗十年的事业,期待与印奇兄弟携手一起打造AI商业闭环,助力千里腾飞。” 赵明于2015年出任华为荣耀业务总裁,2020年主导荣耀从华为独立,完成供应链重组与渠道重建,带领荣耀在2022-2023年间多次登顶国内手机市场份额第一。任职期间,他提出“聚焦端侧AI、以AI重构操作系统”的技术路径,为荣耀在AI手机领域奠定早期布局基础。凤凰网科技了解到,2023年底卸任后,赵明进入为期一年的休整期。 千里科技现由AI领域的连续创业者印奇掌舵,此前已确立“AI+车”战略,下设终端与科技两大业务板块。公司目前仍处于AI业务高投入期,尚未形成规模化盈利。凤凰网科技了解到,赵明加入后,将侧重商业模式构建与市场化战略,印奇则继续把控公司整体战略和AI技术方向。此次分工也反映出千里科技要加速把AI技术推向大规模市场应用。 业内分析认为,手机行业核心管理者密集“上车”,并非简单跨界造车,而是智能汽车作为下一代智能终端,竞争维度已从机械性能延伸至芯片、操作系统、软件生态及用户体验。消费电子领域积累的商业化与规模化能力,正成为车圈争夺的关键资源。
雷军回应春晚宇树机器人印象:全行业都欣欣向荣 小米机器人6年了
快科技3月4日消息,今日,全国两会拉开帷幕启幕。参加今天上午举行的十四届全国人大四次会议预备会议前,全国人大代表,小米集团创始人、董事长兼CEO雷军接受了采访。 他表示,我们小米的机器人已经做了6年,2021年就发布了第一代机器人。 谈及对春晚宇树机器人的印象,雷军称:我觉得我们整个国家的机器人领域发展都日新月异,全行业目前都欣欣向荣。 谈到小米机器人,此前在3月初,小米官方公布了多段视频,展示了小米机器人在小米汽车工厂“实习”工作的画面。 视频显示,在真实汽车工厂里,小米机器人在自攻螺母上件工站中连续自主运行3小时,双侧同时安装成功率为 90.2%,同时满足了最快76秒的产线生产节拍要求。 从画面来看,小米机器人拿起车标之后,还会先撕掉保护膜,然后精准将徽标安装到车头徽标位上,整个过程行云流水,一气呵成。 小米表示,这些只是小米人形机器人迈出在汽车制造场景规模化应用的第一步。 然而,面向更大范围的产业化部署,仍需系统性突破“生产节拍和合格率”这一核心瓶颈,包括移动操作任务中的全身高效协同,以及借助灵巧手提升作业效率等关键技术挑战。 为此,小米还在其他很多典型工站开展了实际部署与验证工作,目前正稳步推进中,相关进展将在后续向大家汇报。 同日,雷军也在社交平台发声“我预计,未来5年会有大批量人形机器人进入小米工厂干活。”
松下拟投资75亿日元在华新建Megtron电路板材料生产线,应对AI服务器需求
IT之家 3 月 4 日消息,今天下午,松下工业宣布,将向松下工业元器件材料(广州)有限公司追加约 75 亿日元(现汇率约合 3.29 亿元人民币)投资,用于新增一条 Megtron 多层电路板材料生产线。 据IT之家了解,此类材料广泛用于 AI 服务器等高速网络系统。 广州工厂目前生产 Megtron6 至 Megtron8 等产品。其中,Megtron6 面向信息与通信技术(ICT)基础设施设备,是业内较早推出的高性能多层电路板材料;Megtron8 则能够满足 AI 服务器所需的高速数据传输需求。未来,广州工厂将承担更重要的角色,成为生产下一代 AI 服务器关键材料的重要基地。 据悉,广州新增生产线将主要服务中国 PCB 客户。松下方面在新闻稿提到,中国市场规模庞大,长期增长潜力显著。该生产线预计 2027 年 4 月启动试生产,并在同一财年内实现量产。 随着生成式 AI 持续发展并加速普及,AI 服务器等 ICT 基础设施需求不断扩大,数据处理规模预计将出现指数级增长。这一趋势推动服务器、交换机和路由器等设备需求提升,同时也对电路板材料提出更高要求,需要更低传输损耗以确保信号稳定、高效传输。 松下工业表示,公司将依托自主材料和加工技术持续扩大 Megtron 系列电路板材料的全球产能,未来五年计划将 Megtron 系列产品总产能提升至目前的两倍,以支持 AI 服务器等 ICT 基础设施市场的发展,并推动 AI 技术持续进步。
投资人开抢林俊旸
离职风暴。 作者/周佳丽 报道/投资界PEdaily “你认识林俊旸吗?求对接。” 今天(3月4日),短短一句话让AI圈震动:“me stepping down. bye my beloved qwen。”(我卸任了,再见了,我亲爱的千问。) 发出这条消息的是林俊旸。出生于1993年,他2019年从北京大学语言学与应用语言学硕士毕业后便加入阿里,是全球最强开源模型之一——千问(Qwen)的核心缔造者,不久前刚刚发布新一代大模型Qwen3.5,千问App月活正跃居全球第三。 一切看起来正往上走,负责人林俊旸却突然宣布告别。下一站去哪里?AI投资圈瞬间躁动起来,“无论创不创业,先抢到他再说。” 千问90后大牛 宣布离开 年仅32岁,林俊旸是阿里巴巴最年轻的P10。 放在中国AI圈,并非海归出身的林俊旸,履历显得有些特别:2019年,从北京大学语言学与应用语言学硕士毕业后,以应届生身份加入阿里达摩院,从高级算法工程师做起,聚焦于搜索与推荐场景下自然语言处理及多模态建模的研究。 此后的几年,他投身大规模预训练模型的研究与部署工作,深度参与了M6、OFA等一系列超大规模预训练模型的研发。2022年底,阿里重组AI团队成立通义实验室,林俊旸被任命为通义千问系列大模型的技术负责人。 可以说,林俊旸是千问大模型背后的关键人士,带领其成为全球最强开源模型。但令所有人错愕的是,他就这样离开了自己一手搭建的团队。 而就在去年10月,他在X上宣布自己在千问内部组建了一支机器人与具身智能团队,并且上周还在朋友圈分享了Qwen Coding Agent相关的招聘信息。 事情发生得太快。简介为魔搭社区维护者、千问贡献者的Chen Cheng评论道,“昨晚我们还并肩发布模型,无法想象没有他的千问会是什么样。”她在转发中写道,“leaving wasn't your choice(离开不是你的选择)。” 为何突然卸任?各界猜测指向阿里内部的组织变化。千问App对于这一问题的答案是:“这波人事变动背后,似乎是大厂技术理想与组织架构调整之间的张力。” 林俊旸不是唯一一个离开的人。 同一天,千问后训练负责人郁博文也正式离职。此前,Qwen Code负责人惠彬原已在2026年1月加入Meta。紧随其后,Qwen3.5、Qwen VL、Qwen Coder的核心贡献者Kaixin Li也发文告别阿里千问。 这群人有一个共同点:他们都是阿里一手培养起来的技术骨干,是千问从0到1的亲历者。 消息一出,AI圈炸开了锅。据说,已有不少投资人和头部大厂在尝试接触林俊旸,“已有硅谷大佬托人在联系”。 也许很快,又有一家AI创业公司诞生了。AI社群内,投资人也开始行动起来,纷纷打听林俊旸,生怕错过其创业的第一张门票。关注AI的投资人庄明浩感慨:“哪怕他要创业,这个级别的人才肯定第一圈就被吃掉了。” 也许是联系他的人太多,刚刚林俊旸在朋友圈表示:“今天不回复消息和电话了,我真的需要休息。” 告别千问,林俊旸接下来去向哪里?答案很快就会揭晓。 千问狂飙 林俊旸率队千问的这几年,正是中国大模型竞争最激烈的时期。 2023年初,当OpenAI的GPT-4震惊世界时,国内大厂的大模型项目大多还处于追赶阶段。阿里达摩院内部,由林俊旸等年轻人组成的团队正在默默推进“通义千问”。这年8月,千问系列首发开源模型。 此后,阿里以惊人的节奏持续开源。到2026年1月,千问衍生模型数突破20万款,成为全球首个达成此目标的开源大模型;全球下载量突破10亿次,平均每天被下载110万次,稳居开源模型榜首。在开源社区,千问已经成为中国大模型的一张名片。 今年2月除夕夜,千问发布全新一代大模型Qwen3.5-Plus,百万Tokens输入低至0.8元。3月2日深夜——林俊旸官宣离职的前一晚,千问又开源了Qwen3.5小尺寸模型系列(0.8B、2B、4B、9B),引得埃隆·马斯克关注。后者在社交媒体上盛赞其“具备令人印象深刻的智能密度”,林俊旸还转发并致意。 与此同时,千问在C端也开始真正走进普通用户的生活里。 去年11月,千问App正式上线。随后的春节AI大战中,千问发起“请客活动”,上线买奶茶、点外卖、订票等“办事”功能,率先打响全民AI生活与AI购物的普及之战。活动期间,累计1.3亿用户在千问“一句话下单”超2亿次——相当于全国平均每10人中就有1人在千问下过单。 成效迅速显现。全球AI应用最新数据显示,千问以2.03亿月活用户跃居全球第三大AI应用,仅次于ChatGPT和豆包,552%的增速居全球第一。从去年11月上线到用户量突破2亿,千问只用了3个月。 变化随之而来。为避免千问、通义千问、Qwen等多个名称导致的混淆问题,阿里将AI的总称和核心品牌统一为“千问”:阿里大模型品牌中文为”千问大模型”,英文为“Qwen”,“通义实验室”则为阿里旗下AI机构的组织名称。 AI大牛抢夺战 放眼望去,从大厂离职投身创业的AI技术领袖,正掀起一轮又一轮融资狂潮。 曾任阿里技术副总裁的贾扬清便是一个典型。贾扬清,浙江绍兴人,本科和研究生阶段就读于清华大学,后赴加州大学伯克利分校攻读计算机科学博士。2019年,阿里达摩院宣布贾扬清的加入。 后来,贾扬清离职创业,创立了人工智能基础设施公司Lepton AI,成立后不久就从CRV、红杉中国和Fusion Fund筹集了1100万美元的天使轮融资。2025年,Lepton AI被英伟达以数亿美元收购。 百度系也出走了一位AI大牛——景鲲。先后于武汉大学、浙江大学获得本硕学位,景鲲是对话式AI机器人微软“小冰”的联合创造者。他于2014年加入百度,担任大搜索任总产品架构师,一度被业界称为“中国AGI产品经理第一人”。 2020年9月,小度科技正式成立,由景鲲担任CEO,收获一众头部基金的注资。三年后,景鲲从百度离开,投身于大模型方向创业——AI智能体平台Genspark,创办仅一年半便融资3轮,跻身全球独角兽俱乐部。 争抢大厂技术大牛,已成为诸多AI投资人的必修课。其中,字节系尤为瞩目,正如我们所见: ·比特智路,这家由前字节跳动AI Lab高管郭传雄创立的公司身后站着红杉中国、真格基金、奇绩创坛等知名机构; ·字节最年轻高管之一——陈冕创办的LiblibAI,收获红杉中国、CMC资本、顺为资本、源码资本、明势创投、渶策资本、蚂蚁集团、联想创投等一众投资方; ·还有融资不断的AI视频企业爱诗科技,身后掌门人同样是字节老兵,曾主导字节视觉大模型从0到1的建设。 据不完全统计,已经有超20名来自字节、阿里、百度等大厂的前高管投身AI创业。他们都有相似的特质:曾在大厂技术部门担任重要角色,手握顶尖技术声望,积累了大量的资源和经验。 这也使他们成为理想的VC投资对象——一旦开启创业,身后往往站着排成长队的投资人。
一夜之间,全球AI圈都在转发这条告别推文
me stepping down. bye my beloved qwen.(我将卸任。再见了,我深爱的 qwen。) 3 月 4 日凌晨,阿里通义千问(Qwen)技术负责人林俊旸在 X 突然发文,向自己一手带大的开源模型项目告别。 这条推文瞬间引爆了整个在全球 AI 开源社区。就在前一天,他还和团队并肩发布了 Qwen3.5 小尺寸模型系列,马斯克亲自点赞,林俊旸在 X 上礼貌致谢。 没想到,这竟然成了林俊旸在千问的最后一次营业。 多位 Qwen 骨干同时离职,同事留言:我真的心碎了 林俊旸并没透露离职的原因和之后的去向,在他的的推文发出后,同为 Qwen 成员的 Chen Cheng(@cherry_cc12)转发并留下了一段意味深长的评论: 我真的心碎了。我知道离开并非你的选择。就在昨晚,我们还并肩发布 Qwen3.5 小模型。说实话,我无法想象没有你的 Qwen。 这条留言迅速引发外界猜测——「离开并非你的选择」,暗示林俊旸的卸任或许并非出于个人意愿。 与此同时,更多 Qwen 核心团队成员宣布离开: Kaixin Li(@kxli_2000),新加坡国立大学毕业,Qwen3.5、Qwen-VL(视觉语言模型)、Qwen-Coder 的核心贡献者。 他在 X 上发文告别:「Signing off from @Alibaba_Qwen. Grateful for the chance to work with such brilliant minds. Proud of our impact. Onwards and upwards!」 Binyuan Hui(@huybery),阿里高级研究员,OpenDevin 开源项目发起人,Qwen-Coder 系列模型的主要技术负责人。其 X 个人简介已改为 「former MTS at Qwen」。 他在代码生成、自然语言转 SQL 等领域有深厚积累,曾主导推出 Qwen Chat 网页界面,让 Qwen 模型更易用。 Wenting Zhao,Qwen 团队研究科学家,在 X 上称林俊旸的离开是 「the end of an era」(一个时代的结束),感谢他推动 Qwen 在开源 AI 和工程领域的进步。 一夜之间,阿里最核心的开源大模型团队就经历了一场人事地震,而林俊旸的离开也引发了全球 AI 社区的关注。 Hyperbolic Labs 的 CTO Yuchen Jin 回忆与 Qwen 团队在模型发布时的深夜协作,称林俊旸帮助 Qwen 与全球开发者社区建立了紧密联系。 Hugging Face 亚太生态系统负责人 Tiezhen Wang 则 称林俊旸的离开是对 Qwen 来说是「an immense loss」(巨大损失。) 从北大语言学硕士到阿里最年轻 P10 林俊旸的履历,堪称中国 AI 新生代技术人才的典型样本。 1993 年出生的他,本科就读于北京大学计算机科学专业,硕士却选择了外国语学院的语言学与应用语言学——这段「跨界」经历,为他后来在多模态大模型领域的突破埋下了伏笔。 2019 年硕士毕业后,林俊旸以应届生身份加入阿里巴巴达摩院智能计算实验室,成为 M6 多模态预训练模型团队的一员。 2022 年,他主导研发了通用统一多模态预训练模型 OFA 和中文预训练模型 Chinese CLIP,同年被任命为通义千问技术负责人。 2025 年,32 岁的林俊旸晋升为阿里史上最年轻的 P10 级技术专家。 而在林俊旸的带领下,Qwen 系列模型创造了令业界瞩目的成绩。截至目前,Qwen 系列模型全球下载量突破 6 亿次,衍生模型超过 17 万个,超越 Meta 的 Llama 成为全球第一大开源模型家族。 模型即产品 林俊旸不仅是一位技术专家,更是 Qwen 在全球开发者社区的「代言人」。 在 X 上,他定期发布模型更新、分享 benchmark 结果、与全球开发者互动——在 AI 实验室争夺开发者心智的今天,这种活跃的公共形象让 Qwen 在国际舞台上拥有了罕见的「人情味」。 今年 1 月的 AGI-Next 前沿峰会上,他提出了一个颇具前瞻性的观点: 「模型即产品。今天做基础模型本身,其实也就是在做产品,研究人员也需要像产品经理一样,把研究成果做成真实世界可用的系统。」 2025 年 10 月,他还宣布在 Qwen 内部亲手组建机器人和具身智能小组,试图让模型「从虚拟世界走向现实世界」。 千问站到了新的十字路口 林俊旸的离职,只是阿里通义实验室人才流失的冰山一角。 过去两年,通义实验室经历了多轮核心人员离职: 周畅(原通义千问大模型技术负责人):2024 年被字节跳动以千万年薪挖走,阿里随后提起竞业诉讼 鄢志杰(原语音团队负责人):达摩院「扫地僧」之一,2025 年离职 薄列峰(原多模态、视觉负责人):2025 年离职 也难怪有人调侃,阿里在 AI 领域已逐渐成为培养高端人才的黄埔军校。 而就前两天,阿里刚刚宣布将大模型 B 端品牌和 C 端应用品牌统一为「千问」,「通义千问」的名称将不再使用。 千问在刚刚过去的春节 AI 大战,也刚刚打了一场胜仗。 AI 产品榜发布的全球 AI 应用最新数据显示,MAU(月活用户数) 排名前三的 AI 应用分别为 ChatGPT、豆包和千问,其中,千问以 2.03 亿 MAU 成为全球第三大 AI 应用,并以 552% 的增速居全球第一。 今年春节,千问发起「请客活动」,上线买奶茶、点外卖、订票等「办事」功能,吸引 1.3 亿用户在千问「一句话下单」累计超 2 亿次,相当于全国平均每 10 人就有 1 人在千问下单。 QuestMobile 数据披露,该活动前两日即吸引超 3000 万用户参与,将千问 DAU 从 707 万推高至 7352 万,增速高达 940%。春节结束后,千问与豆包 DAU 差距大幅缩小,稳定至 4000 万上下。 对于阿里来说,如何在人才流失与组织调整的双重压力下,继续保持 Qwen 的技术领先和开源影响力,将是一个严峻的考验。 阿里千问正站在一个关键的十字路口。
林俊旸离职背后,是阿里千问最近一年对技术路径的战略误判
昨日凌晨,林俊旸在个人社交平台发布简短声明:me stepping down. bye my beloved qwen. 32岁,阿里曾经最年轻的P10,就这样从自己一手带起来的项目离开了。消息出来的时候,很多人第一反应是意外——两天前阿里刚把AI品牌统一成“千问”,还开源了新模型,马斯克都点了个赞。怎么看都是风头正劲的时候,核心负责人怎么突然就走了? 此次离任虽显突兀,却又暗藏逻辑。林俊旸卸任前两日,阿里刚完成内部 AI 品牌统一为 “千问” 的动作。表面的业务声势之下,他的离开恰似一把手术刀,剖开了阿里过去一年在 AI 战略布局上的隐秘症结。 在我们看来,这远非一次简单的人事调整,而是对阿里 AI 技术路线战略误判的迟来清算。当智能体成为行业核心叙事,过度依赖基础设施(infra)红利的阿里千问,正为自身在浪潮中的 “旁观者” 身份付出代价。 01 智能体浪潮中的“看客”:从 Manus 到 OpenClaw 的战略错失 如果说2024年是大模型参数竞赛的一年,那么2025年无疑是智能体(Agent)全面爆发的一年。从manus开启自主执行任务的先河,到openclaw在年末横空出世重新定义人机交互,行业的主线叙事已经从“模型有多强”转向了“模型能干什么”。 然而,在这一波智能体浪潮中,阿里千问表现得像个局促的看客。 事实上,阿里云本不应缺席这场盛宴。据业内人士透露,阿里云是与manus最早建立关系的巨头之一。然而,面对这家创业公司及其背后代表的“模型即执行”的技术潮流,阿里内部并未给予足够的重视。 彼时,千问的目光仍停留在基础模型的迭代与榜单排名上,认为智能体不过是模型能力的外延,只要底座够强,上层应用可以后来居上。 这种傲慢很快遭到了市场的回击。当manus开始在企业级场景中跑通业务流程,当openclaw凭借极致的交互体验收割开发者口碑时,阿里千问在智能体侧的声量几乎为零。 即便是内部寄予厚望的“自主办事”能力——春节期间的“一句话下单”近2亿次,本质上仍是封闭生态内的API调用,而非具备自主规划、跨系统决策能力的通用智能体。 为什么阿里会错过?表象是对创业公司的忽视,深层原因则是对技术路径的误判:当行业从“对话式AI”向“Agentic Workflow”范式转移时,阿里仍在等待模型自身的进化,而对手已经在用智能体重构业务流程。 2025年下半年企业级大模型调用量的爆发式增长,核心驱动力正是智能体工作流带来的“5-10倍Tokens杠杆效应”。遗憾的是,在这轮由智能体引发的算力消耗盛宴中,阿里千问并未占据主动权。 02 被遮蔽的code基石:路径依赖下的战略盲区 错失智能体主线并非偶然,其背后更深层的原因,是阿里千问对code(代码)技术路径的系统性忽视。 过去两年,阿里云在基础设施(infra)层面的积淀国内无出其右。从算力调度到 MaaS 平台,阿里云搭建起国内体系最完整的 AI 基础设施。依托基础设施红利,千问在基础模型迭代阶段收获了极高行业关注度:Qwen 系列开源模型全球下载量突破 6 亿次,衍生模型超 17 万个,相关数据稳居全球首位。 但这份优势,也成为阿里千问最深的路径依赖。 行业重心聚焦 “如何训练更强模型” 的阶段时,基础设施是核心竞争力;而当模型性能受客观算力限制、缩放定律(scaling law)边际效益递减,基础设施的作用便进入平台期。此时商业模式创新成为核心,而作为行业新主线的智能体,其核心技术基石正是此前被忽视的代码能力。 从技术演进逻辑来看,智能体的本质是“模型+执行”,执行能力的底层支撑,正是模型对代码的理解、生成与调试能力。无论是 Manus 的自主任务拆解,还是 OpenClaw 的多工具协同,核心考验的都是模型的coding能力。 行业技术势能正从基础设施主导的工程优化,回归强化学习与深度学习算法创新区间 —— 这正是谷歌等老牌科技企业的优势领域,也解释了为何 Gemini能在2025年下半年快速建立代码能力壁垒。 反观阿里,在code能力上的跟进显得迟缓。尽管2025年底Qwen Code升级至v0.5.0版本,开始向开发生态平台转型,但此时字节的Seedance已凭借更深的代码理解能力,在开发者社区建立起壁垒。 更关键的是,千问过度强调与阿里自有生态融合,技术资源大量分散至电商、本地生活、文娱等业务反哺类定制化项目中。千问 App 虽成为国民级 AI 助手,DAU 峰值达 7352 万,但其核心能力集中在下单、订票等交易闭环,而非通用代码智能。 当行业进入“code-driven agent”的新阶段,千问的技术重心却难以从业务下沉中抽身,这种战略上的左右互搏,直接导致了其智能体能力的投入不足。 03 即便在infra主场,也未能守住壁垒 如果说错过智能体主线是“战略判断”的失误,那么在自身最擅长的infra领域,阿里千问也正感受到来自字节跳动的凛冽寒意。 2026年年初,字节跳动正式推出Seedance 2.0,这是一个直接剑指阿里云腹地的AI基础设施方案。相比阿里云“全栈自研”的厚重架构,Seedance 2.0凭借字节在推荐算法时代积累的弹性调度能力,以及对推理成本的极致压缩,迅速在中小企业与开发者群体中打开局面。 一组数据足以说明问题:虽然阿里云仍以32.1%的份额位居中国企业级大模型调用市场第一,但字节旗下的豆包在C端的月活已突破1.5亿,是千问App的两倍有余。 更值得警惕的是,豆包已开始将AI能力与抖音电商深度绑定,用户在咨询商品时可直接完成交易——这不仅是一个AI应用,更是一个新的商业入口。而千问App虽然在春节期间凭借红包活动斩获940%的增幅,但其用户心智仍停留在“工具”层面,距离“入口”尚有距离。 字节对阿里的赶超,不仅是产品的胜利,更是技术代际的压制。Seedance 2.0在推理效率、成本控制与代码理解能力上的综合优势,正在改变开发者的选型偏好。 当OpenRouter等平台上的编程模型调用量被Qwen3-Coder短暂带起后又迅速被字节系模型反超,阿里在infra层面的护城河,已然出现了裂缝。 04 结语:警钟已鸣,不必悲观 阿里千问的人事变动,像一声迟到的警钟。 复盘过去一年,阿里千问的确走过战略弯路:智能体成为行业主线时缺席,代码能力成为核心基石时迟钝,即便在最擅长的基础设施领域,也被字节跳动紧追不舍。 这一系列战略误判,固然与组织惯性、业务牵制相关,但本质问题在于:当行业从 “训练时代” 进入 “推理时代”,从 “模型中心” 转向 “智能体中心”,阿里的技术心智并未完成同步切换。 然而,结论也不必过分悲观。阿里的可贵之处在于,它的反应足够敏捷。 2026 年 3 月,阿里快速完成 AI 品牌统一,将千问置于核心位置,明确通义实验室的组织定位;人事层面,吴嘉同时掌舵千问与夸克,为后续资源整合扫清障碍。更重要的是,阿里已经意识到“生态协同”不等于“业务附庸”,千问需要独立的、通用的、面向开发者的技术演进路径,而非仅仅是淘天或饿了么的AI赋能工具。 战略误判的代价已然支付,对阿里而言,接下来的核心命题,是在智能体的赛道上,重新找准位置、果断下注。
马云罕见发声:AI冲击超出想象,教育必须改
编辑 | 李水青 智东西3月4日报道,3月3日,阿里巴巴创始人马云开年首次现身,谈及了AI对社会的巨大冲击以及应对建议。 据云谷教育公众号发文,开学第一日,马云现身杭州云谷学校并分享最新洞察:,AI时代已经快速到来,对社会的冲击超出想象,教育要迅速做出改变,来培养孩子的好奇心、想象力、创造力、判断力等能力。 与之同行的还有阿里董事会主席蔡崇信、CEO吴泳铭、首席风险官邵晓锋、电商事业群CEO蒋凡,蚂蚁集团董事长井贤栋、CEO韩歆毅。 大家在讨论中提到,AI的迭代以周计算,能力还在不断增长,这一次的技术革命对生产效率和社会方方面面带来的变革是历史性的,未来社会物质财富会极大丰富,以后可能一天不用工作八小时,但是很多今天我们熟悉的工作种类都会消失。马云一行人来到云谷,就是想告诉大家,这个变化会来得非常快,教育要迅速做出改变,帮助孩子们从现在开始学会和AI共存,适应这个巨大的变化。 蔡崇信说,AI时代,思辨能力很重要,思辨能力不是会问问题,而是问对问题。未来很多事情机器都可以做,但是人和机器的沟通,人和人的沟通能力可能是以后最重要的能力之一。 吴泳铭提到,未来人和机器的区别在三样东西:好奇心、共情力和体力。好奇心决定了人会自发地去做一件事,而机器是被动的;共情能力是对人的理解;而当脑力被AI替代的时候,体力就非常重要,所以以后体育会越来越重要。 井贤栋谈道,AI应该用来帮人做重复和琐碎的事,让人有更多的时间去发展我们的特质,发展审美、创意和想象力。在用好AI的同时,要避免AI成为扔不掉的拐杖,还是要保留独立思考的能力。 马云说,AI的冲击非常大,但是机会也很大,AI带来了一个让教育回归教育本身的机会。死记硬背的时间,刷题的时间可以释放出来,用来培养创造力和想象力。孩子们可以有更多时间来玩,来学习音乐、绘画、运动,从中学会分享、学会感受和体验,学会倾听、学会理解…… 谈及学校未来如何适应这些变化,马云认为,看一所学校是不是属于AI时代的学校,并不是去看一所学校有多少AI服务器,有多强的AI技能。因为AI拥有的是“芯片”,而人类拥有的是心,AI时代对教育最大的改变,是老师们这次可以完完全全去做“灵魂工程师”,而不是做知识的灌输者。 未来不是让孩子去和AI比拼计算和记忆,而是让孩子保持好奇,学会共情和担当,拥有体验感,因为好奇心、想象力、创造力、判断力还有审美能力才是AI时代教育需要赋予孩子的真正的能力。
全球首款2nm旗舰卖爆!三星Galaxy S26系列销量突破150万台
快科技3月4日消息,据媒体报道,三星Galaxy S26系列在韩国市场的预购量已经突破150万台。这一数字不仅超越了上一代机型130万台的纪录,更是刷新了三星Galaxy S系列旗舰机型的历史最高预购成绩。 本次Galaxy S26系列共推出了三款机型,分别是标准版Galaxy S26、大屏版Galaxy S26+以及顶级旗舰Galaxy S26 Ultra。在韩国本土市场,该系列的起售价为1254000韩元,约合人民币5900元。 在核心配置方面,韩版的Galaxy S26和S26+首发搭载了三星自家的Exynos 2600处理器。这不仅是三星半导体的最新力作,更是全球首款正式投入商用的2纳米工艺手机芯片,标志着移动算力进入了全新时代。 具体来看,Exynos 2600采用了极其先进的核心架构,包含1颗主频高达3.80GHz的C1-Ultra超大核,3颗3.26GHz的C1-Pro大核,以及6颗2.76GHz的C1-Pro效能核心,为手机的高效运转提供了坚实保障。 性能表现上,Exynos 2600相比上一代产品实现了全面跨越。其CPU性能提升了7%,GPU图形处理性能大幅增长29%。而在当前最重要的AI处理能力上,更是实现了40%的爆发式增长,能更流畅地运行各种本地大模型。 至于顶级旗舰Galaxy S26 Ultra,该机在全球范围内均搭载了高通第五代骁龙8至尊版旗舰平台。值得国内消费者关注的是,按照以往惯例,国行版本的Galaxy S26全系三款机型都标配骁龙芯片。 凭借划时代的2纳米工艺和卓越的预售表现,三星Galaxy S26系列再次证明了其在全球安卓旗舰市场的统治力。
阿里千问核心技术团队生变
2026.03.04 本文字数:1599,阅读时长大约3分钟 作者 | 第一财经 陈杨园 千问大模型技术负责人林俊旸自宣卸任。3月3日夜间,他在社交平台写道“me stepping down. bye my beloved qwen.”(我将卸任,再见我亲爱的千问)。 作为阿里千问大模型的技术核心人物,林俊旸或将离开千问团队,目前尚不知他是否会离开阿里巴巴。记者就此消息向阿里巴巴求证,截至发稿暂未获得回复。 林俊旸发帖后,阿里千问大模型的多位技术骨干相继发布告别帖。Qwen Code 负责人惠彬原转发林俊旸发言并写道“bye qwen, me too.”,Qwen3.5/VL/Coder核心贡献者Kaixin Li也在社交平台发帖称即将告别,表达对共事伙伴的感谢并为团队的影响而自豪。 林俊旸离开千问团队的消息十分突然,认证为千问团队成员的Chen Cheng在社交平台表示,“我真的心碎了。我知道离开并非你的选择。就在昨晚,我们还并肩发布了Qwen3.5小尺寸模型。我真的无法想象没有你的Qwen会是什么样子。” 首页信息显示为千问scaling agent团队成员的Tianyi Bai则在社交平台表示,3月2日下午他还在和林俊旸讨论新想法和训练计划,3日上午林俊旸还在帮他处理全职录用事宜,下午林俊旸还信心满满地说团队能打造出最强的计算机操作智能体模型,然后到了晚上,团队却收到了消息…… 记者关注到,仅4天前,林俊旸还在社交媒体为Qwen Coding Agent 发布招聘信息并在评论区介绍相关岗位职能。 Tianyi Bai在发帖中表示,因为有林俊旸的支持,团队才能在一月中旬接到为3.5版本交付的任务后,到二月中旬就圆满完成了目标。他提到林俊旸是实习以来最支持他的导师,操作智能体项目后,团队从零开始搭建强化学习基础设施。“从庞大的工程挑战到资源协调,他(林俊旸)让一切成为可能。” 2月16日除夕夜,阿里开源了新一代千问大模型Qwen3.5,该模型实现了模型架构的创新,3月2日晚,阿里巴巴再开源千问3.5系列模型,引发特斯拉CEO埃隆·马斯克在社交平台对该系列模型评论,称赞其“智能密度令人印象深刻”,值得一提的是,林俊旸自宣卸任的前一条动态便是转发马斯克评论并表示感谢。 多位开发者、AI从业者感谢了林俊旸及其团队为开源作出的贡献。Hperbolicy联合创始人兼首席技术官Yuchen Jin表示,一个时代结束了,Qwen失去了它的技术领军者。他提到,曾和林俊旸及团队合作在Hyperbolic平台上发布Qwen 3 Next终端时,北京时间早上6点他们还在线,感谢他们推动开源AI的发展。部分认证为千问员工的人士则在社交平台转发“Qwen is nothing without its people”。 有消息称,林俊旸及千问团队的离任风波可能与外部技术人才空降、千问的商业目标推进、内部团队调整等相关,截至发稿,阿里巴巴仍未对此作出评论。 阿里前技术副总裁贾扬清也对此事发表了个人观点。他表示,为Qwen的开源努力和林俊旸的绝对贡献点赞,并直言对企业而言,平衡开源与商业确实困难,行业见证过Databricks和Redis Labs的成功,也看到过RethinkDB(开源数据库)失败这样的警示故事,“开源愿景与商业优先级之间是否存在摩擦?纯属猜测,但如果没有摩擦,那才是例外,而非常态。” 他提到,我们正进入一个人才与影响力比以往任何时候都更重要的时代,能够凝聚社区的技术负责人是不可替代的。无论这些领军人物去向何方,社区追随的是使命,而不仅仅是公司品牌,“对于企业而言,保持创新并留住创新人才不是可选项,而是生存之本。” 微信编辑 | 雨林
科大讯飞AI眼镜开放预约:仅重40克 支持多模态降噪翻译
快科技3月4日消息,科大讯飞近日在世界移动通信大会上发布了一款创新产品——讯飞AI眼镜。这款专为跨语言交流设计的智能设备重量仅40克,目前产品已开启预约通道。 虽然具体售价和正式发售日期尚未公布,但官方透露提前预约可享受299元抵扣优惠。 这款眼镜突破了传统翻译设备的形态限制,通过镜片实时投射翻译字幕,并配合内置扬声器输出语音译文。 当对话双方交流时,系统可同步完成语音识别、文字转换和语音播报,实现“所见即所说”的无障碍沟通体验。 其核心功能覆盖多模态同传翻译、智能降噪和全场景记录三大模块,特别针对跨国商务场景进行了优化设计。 针对展会、酒会等高噪音环境,研发团队首创了唇动识别降噪技术。通过前置摄像头捕捉说话者的唇部运动轨迹,结合骨传导麦克风采集的声波信号,系统将音视频数据进行融合处理。 这一方案使设备在多人交谈场景中能精准锁定目标声源,实测可将语音识别准确率提升超过50%,有效解决了传统设备在复杂环境下的识别误差问题。 产品功能矩阵包含全能翻译系统,支持语音与视觉双重翻译模式,可应对商务洽谈、国际会议等多样化场景需求。 轻量化设计理念贯穿整个研发过程,从镜框材质到电路布局均经过精密计算,最终实现了40克的突破性重量,佩戴舒适度接近普通太阳镜。
一年净赚超3亿!广州Agent公司港股递表,俞永福是股东
编译 | 李水青 编辑 | 心缘 智东西3月3日报道,2月27日,广州营销AI Agent企业钛动科技向港交所递交IPO申请,冲刺“出海营销Agent第一股”。 根据知名行研机构弗若斯特沙利文报告,按2024年收入计算,钛动科技在中国本土出海AI营销科技提供商中排名第一,市场份额8.5%。2025年前九个月,该公司收入同比增长约74.5%,达1.3亿美元(约合8.9亿元人民币),有望继续稳居第一位置。 这是一个阿里系出走人才的创业故事。现年36岁的李述昊毕业于天津大学,于2017年创办了钛动科技,创业前曾任阿里移动事业群国际化业务负责人。公司执行董事兼AI技术副总裁陈德品也是13年的老阿里人,专注于AI及云计算领域。 钛动科技创始人、CEO李述昊近照 不同于众多AI公司,钛动科技已经开始赚钱。2024年全年,其净利润为5100万美元(约合3.5亿元人民币);2025年前九个月,其净利润已达到5568万美元(约合3.8亿元人民币)。该公司前后已获得了IDG、钟鼎资本等领投的6轮数亿元融资。 2025年10月下旬,钛动科技推出全球首批营销多智能体之一的Navos,涵盖市场洞察、内容创作、广告投放与效果优化等多项能力,因此也有媒体称其有望成为“Multi-Agent(多智能体)第一股”。根据招股书,客户反馈其可将以往需要一至三个月的营销周期,缩短至数小时内。 Navos用户界面 背后,其于2026年1月推出的Tec‑Chi‑Think‑1.0模型在SuperCLUE-Mkt榜单中位列全球第一,在市场洞察与文字创意生产方面达到SOTA性能。 陈德品在去年7月接受智东西采访时曾发出犀利论断:“Manus类通用Agent难以解决垂直行业问题,要做到又全知全能又有深度很难,垂直场景还是需要垂直Agent。”其背后底气,来自钛动科技服务8万+企业积累的海量闭环数据——百万级素材库、千万条投放效果数据构成的Agent“养料”。 根据IPO文件,钛动科技到2025年已服务超10万家广告主,代表客户累计管理超过4亿个广告策略及超过140万个SPU。 本次港股募资用途,大部分将用于持续升级钛极多模态大模型体系和打造高兼容性的Navos产品体系。 一、一年净赚超3亿,毛利率超80% 2023年、2024年及2025年前九个月,钛动科技营收为72.82百万美元、102.30百万美元、129.64百万美元,净利润为34.35百万美元、51.00百万美元、55.68百万美元。 同期,其研发开支分别为6.9百万美元、10.8百万美元及16.7百万美元,分别占其同期收入的9.5%、10.6%及12.8%。 2023年、2024年及2025年前九个月,该公司毛利分别为61.6百万美元、84.3百万美元、63.4百万美元及106.5百万美元,毛利率分别为84.6%、82.4%、85.4%及82.2%。 现金流方面,同期钛动科技的年末/期末现金及现金等价物为196.9百万美元、396.24百万美元、441.42百万美元。 二、推出营销多智能体,可将三个月营销周期缩短至数小时 钛动科技的商业模式围绕两大互补的解决方案体系构建:AI营销解决方案及定制化达人营销解决方案。 AI营销解决方案专为开展高频出海营销的广告主打造,该解决方案主要包括Tec‑Ad、Tec‑Creative及Navos。 Tec‑Ad与Tec‑Creative均为广告主的云端营销工具,可将核心营销任务从人工协调转向系统导向流程。Tec‑Ad负责广告投放与全生命周期优化,Tec‑Creative则专注于创意制作。 Tec‑Creative功能模块涉及众多AI能力 Navos于2025年推出,是一体化营销多智能体,能够理解以自然语言表达的营销目标,将复杂任务拆解为可执行步骤,协调跨市场、跨渠道的投放,并基于效果反馈持续优化、动态调整策略。 据悉,Navos深度融合产业大数据及出海场景,接入GPT、Gemini、DeepSeek、Claude、可灵等顶尖大模型,通过一系列AO Agent、AD Agent、AS Agent协同覆盖营销链路中的爆款洞察、素材诊断、素材制作、广告投放监控、广告效果分析等多个环节。 Navos架构 Navos已应用于包括电商、游戏、文娱及本地生活在内的多个行业。根据部分核心客户反馈,以往需要一至三个月的营销周期,现已缩短至数小时内。 背后,该公司还研发了钛极——一组专业多模态大模型,涵盖钛极问答推理模型(Tec‑Chi‑Think‑1.0)、钛极内容理解模型(Tec‑Chi‑VL‑1.0)及钛极视频生成模型(Tec‑Chi‑Video‑1.0)。 定制化达人营销解决方案,主要满足标准化自助式产品无法完全覆盖的营销需求。该方案依托Navos、Tec-Ad及Tec-Creative内置的AI能力,方案可覆盖广告活动策划、内容制作、达人资源协调、直播运营、媒体投放及投后效果复盘等环节。 钛动科技的AI营销解决方案采用基于CPM(千次展示成本)、CPC(单次点击成本)、CPA(单次行动成本)等表现指标的灵活定价,收入源自客户营销支出的服务费及媒体返点,具体视广告活动、渠道和目标而定。 定制化达人营销解决方案采用成本加成或效果导向定价,收入主要来自项目服务费,并视活动条款向第三方达人支付相应款项。 从历年营收情况来看,AI营销解决方案占到钛动科技总营收近九成,定制化达人营销解决方案收入约占一成。 三、阿里系创业,研发团队达415人 这是一个阿里系出走人才的创业故事。 在2017年9月创立钛动公司前,李述昊曾任职于优视科技公司,该公司后被阿里收购,李述昊调任至移动事业群国际业务部的流量业务开发部,主要专注于海外市场拓展。李述昊在2011年9月至2012年8月还曾任职于华为。 钛动科技的的执行董事兼AI技术副总裁陈德品也来自阿里。2010年7月至2023年8月,其就职于阿里巴旗下的淘宝,担任集团客户满意度中心智能研发部门高级算法工程师,专注于AI及云计算领域。而后于2023年8月加入钛动科技。 截至最后实际可行日期,钛动科技公司总人数为1622人。其中业务运营及达人占比最高达34.3%,为557人。 研发人员占比较高为25.6%,达415人。据悉,其研发团队分为云计算与云基础设施、数据和算法、产品研发与工程,以及跨职能支持等多个专业小组。 近几年里,该公司员工成本在研发成本中的占比在逐渐降低,从8成降至6成左右;训练相关云服务成本占比在增多,从1成提升至3成左右。 截至报告期内,团队已在中国注册158项商标、47项专利、217项著作权和7个域名。 四、电商客户创6成收入,前五大客户收入占比不到3成 2025年前9个月,钛动科技总客户数达到5022个,其中重要客户数达到252个,为一整个财政年度收入贡献超过10万美元,或在截至2024年及2025年9月30日止九个月按比例贡献超过7.5万美元的客户;标准客户数达到4770个,为年度支出水平较低的客户。 2023年、2024年及2025年前9个月,钛动来自前五大客户的合计收入分别为2890万美元、3750万美元及3420万美元,分别占其总收入的39.8%、36.7%及26.3%。 在业绩记录期间的同期,其单一最大客户产生的收入分别为1160万美元、1960万美元及1370万美元,分别占其总收入的16.0%、19.1%及10.6%。 来自电商行业的客户收入占钛动年收入多年稳定在6成左右。 来自大中华区域的客户收入占总收入4-5成,来自新加坡的客户收入占总收入3-4成。 钛动的供应商主要包括云服务提供商、人力资源外包服务商及咨询服务商。其通常与云服务提供商订立为期一至三年的协议。 2023年、2024年及2025年前9个月,钛动向前五大供应商的合计采购额分别为300万美元、550万美元及1190万美元,分别占其采购总额的29.8%、29.4%及36.0%。 同期,该公司向单一最大供应商的采购额分别为100万美元、260万美元及560万美元,分别占采购总额的9.5%、13.9%及16.8%。 五、李述昊为实际控制人,阿里合伙人俞永福是股东 聚焦控股股东,截至最后实际可行日期,李述昊、广州爱肆倜悠、广州钛好奇、广州钛有趣及广州钛美丽共同构成该公司控股股东集团。控股股东将有权行使该公司约35.05%的投票权。 阿里巴巴合伙人、高德集团董事长俞永福为公司股东之一,持股约11.27%。 该公司董事成员包括李述昊、陈德品等9人。2023年、2024年及2025年前九个月,公司董事薪酬总额分别为180万美元、190万美元及170万美元。 同期,五名最高薪酬非董事人士的薪酬总额分别为240万美元、130万美元及100万美元。 结语:营销或成AI Agent最先盈利领域 根据弗若斯特沙利文报告,全球AI软件解决方案市场预计将从2024年的617亿美元增至2029年的2413亿美元,2024年至2029年的年复合增长率为31.4%。 在出海浪潮中,钛动科技凭借海量闭环数据训练的垂直Agent,其将营销周期从数月压缩至数小时的能力,揭示了AI在产业端降本增效的巨大潜力。 若成功登陆港股,钛动科技有望成为“出海营销Agent第一股”。其盈利能力的展现,证明了大模型在垂直场景中能够跨越技术尝鲜阶段,激励更多AI从业者聚焦产业落地。
看遍了所有的AI PC,原来 Mac 一直在这里|AI 器物志
年初,Mac Mini 一度缺货,等待时间甚至长达一个半月。 Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。 然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。 关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。 OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。 但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。 理由肯定不是因为它便宜,更主要在于:要让 OpenClaw 有意义,需要给它一个「肉身」,让它访问文件、操作软件。 云服务器能运行 OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。 给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力…… MacBook 也行,但是…… 据 Tom’s Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。 这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。 (注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。) 冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。 英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。 但问题是,为什么大家还是一窝蜂地冲向 Mac? 为什么是 Mac? Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。 虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。 AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。 这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。 另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。 这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。 Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。 以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。 往硬件层面继续深入,内存是大语言模型推理运行的命脉。 还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。 这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。 此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。 更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。 而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。 简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。 以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。 当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。 当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。 另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。 如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。 另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。 再来看功耗。 Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。 Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。 网友 3D 打印的 Mac mini 外壳套件「Clawy MacOpenClawface」 当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。 与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。 再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。 但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。 还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。 对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。 折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。 由神经引擎说开 2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。 2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。 那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。 三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。 这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。 英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。 苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。 当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。 (注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。) 2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。 Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。 而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。 AMD 官网 2023 年截图 2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。 先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。 微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。 从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。 在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。 当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。 说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。 NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。 这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。 在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。 不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。 我们自己的体验 过去一年,爱范儿自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。 去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。 我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。 但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。 这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。 后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。 团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。 同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。 Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。 我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」 这件事,苹果其实早就知道。 真正的 AI PC 是什么? 去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。 尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。 上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。 苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。 反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。 但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。 意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。 Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。 AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。 回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的…… 但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。 2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。 就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。 苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。 说在最后 吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗? 爱范儿倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。 还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。 梗图,AI 生成 在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。 今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。 在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。 本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚…… 换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。 梗图,AI 生成 按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。 但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗? 如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。 Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone? 文|杜晨

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。