行业分类:
加载中...
头条分类:
加载中...
任务太难,连ChatGPT都弃了!最强AI神器一键拆解 首测来袭
编辑:桃子 犀牛 想转型AI做产品经理,却不知如何入手?想搞副业月入一万,但脑子里只有零散想法?想知道AI时代该学什么专业最有前景? 在工作和生活中,我们早已习惯向AI求助,但大多数AI只能给出模糊建议,真正遇到复杂任务时,往往一句「这取决于具体情况」就把人打发了…… 甚至,有网友用ChatGPT「深度研究」时,或因任务太复杂,经常遇到研究中途停止。 有时,AI输出的结果好不好,很大程度上取决于「提示」够不够精准。 刚刚,办公小浣熊悄悄上线了一个新功能——任务规划助手,专治这类「你自己都不知道从哪开始」的复杂问题。 它不直接抛出答案,而是像一位靠谱的「超级搭档」,和你对话、不断提问、深度拆解,最终把你脑子里的零散想法,一步步变成清晰、具体、可执行的行动路径。 传送门: office.xiaohuanxiong.com 一手实测 这个由商汤科技打造的小浣熊「任务规划助手」,堪称交互版Deep Research。 当你脑子一团乱麻时,它像朋友对话一样,用连环问题挖出你都没意识到的关键细节。 当你遇到复杂任务无从下手时,它会把模糊的目标分解成小步骤,每一步思维链都清晰可追溯。 甚至,在交互的过程中,你还可以随时修改任何细节。 最终,它会生成一份逻辑严密、图文并茂的规划报告,即便是面对再陌生的行业、再复杂的任务,任何人都能轻松上手。 现在,进入小浣熊,点击「任务规划助手」即可使用,接下来是一波最全实测体验。 职业规划 首先,给它一个职业规划方面的任务。 作为一名AI媒体编辑,每天都会接触大量的人工智能方面的资讯,但对于AI智能体的应用却没那么熟练。 所以我给小浣熊出了下面一个任务: 我是35岁的AI垂直自媒体作者,如果想成为AI产品经理,帮我规划个职业路径。 接到任务后,办公小浣熊并不会直接给出答案,而是会首先分析出实现任务所需的相关信息。 接着,便会跟你交互,让你把相关的信息补全——这正是这款产品的亮点,通过深度思考+交互,一步一步地将复杂任务拆解,最后找出最合理的答案。 简单的信息补全后,小浣熊将会将任务向前推进一步。 在这个过程中,它的提问会触及到很多你之前自己可能都没想的点。 经过这次信息补充后,小浣熊给出了一个可执行度相当高的目标清单和相对应的任务清单。 它将转型过程拆解成了四个目标: 建立Agent产品经理知识体系 开发两个Agent产品原型 整合转型成果 自媒体内容整合 每个目标后面都有一个所需的任务清单。 接下来我们点击上面的执行就可以了。 经过长达几分钟的深度思考之后,办公小浣熊最终拿出了一份非常具体的、可执行性相当高的行动方案。 具体来看,每一个任务节点都会生成一份报告,里面有任务节点的详细步骤、相关的Python代码、参考资料的链接,甚至还可以画出流程图。 如果你手头正好有个没啥头绪的复杂任务,那么强烈建议你试一下这个任务规划能力,说不定就能提供给你一个可行的方案。 学业规划 接着,我们让办公小浣熊规划一个教育问题。 昨天,各地高考成绩也在陆续公布,咱们也来凑个热闹。 具体的提示词是这样的: AI时代,以后学什么专业方向更有发展前景 同样,小浣熊会将它需要的信息提问给你。确保掌握的信息全面。 补充完关键信息后,小浣熊给出了目标清单以及每个目标对应的任务清单。 目标清单包括: 调研数字人文/计算历史领域的核心技能需求 设计跨学科课程方案 制定职业发展路线图 整合最终规划报告 然后,点击执行等待即可。 几分钟后,小浣熊给出了一份详细的学业规划路径。 其中包含了像《数字人文领域职业发展路线图》这样的清晰规划。 小浣熊最终报告给出的AI历史方向的学业建议分别是:数字孪生遗产系统工程师(Unity/Unreal引擎)、元宇宙历史场景构建师(Blender+Al生成)。 虽然不是很懂,但看上去还是很有前景、很靠谱的。 整个规划看完,你一定对AI历史领域有更深入的了解。 投资规划 当下最火的「投资」莫过于入手一个Labubu了,这款丑萌的潮流IP如今成为每个人的心头好。 几天前,全球唯一薄荷色Labubu拍出108万,创下潮流玩具最高单件成交记录。 看到如此高的溢价,不少人早已心动,现在入局还晚吗?它会成为下一个暴力熊泡沫吗? 这时,我们让「任务规划助手」给出一个投资建议分析和趋势判断。 发起问题后,小浣熊联网搜索且深度思考12秒后,并没有第一时间给出解答,而是再次发出提问—— 您考虑购买Labubu的主要目的是收藏、投资还是其他用途?另外,您对潮玩市场价格波动的接受程度如何? 它根据第一步问题的回复,再次进行深度思考和规划。 这一次,令你眼前一亮的是,它给出了更详细的目标清单,分列出四点: 包括收集分析Labubu市场价格数据 评估品牌长期价值支撑因素 识别主要投资风险点 整合分析结果并形成投资建议 假设以上这些,并没有满足你的考量,可以在「目标清单」下方输入框中,继续提出要求。 接下来,可直接点击「执行」任务清单。 经过长时间逐步分析,小浣熊会先针对每个任务清单生成一个报告,最后汇总成一个整合版。 这时,可以直接导出为PNG/PDF/HTML内容,或是创建一个新文档编辑。 如下报告中,已清晰列出所有的要点,包括市场现状分析、不同风险因子带来风险等级、分级投资建议,以及执行保障机制和关键决策指标。 看完报告后,假设自己还想对曾经爆火潮流IP暴力熊有一个了解。这时,可以在输入框加入自己的需求,然后再次点击「执行」。 紧接着,你就得到了一个关于Labubu与暴力熊市场价值对比分析报告。 此时此刻,对于任何一个人,在投资Labubu前内心已经有了全面的了解和规划。 学习规划 日常生活中,为了自我能力提升,学习一门工作之外的本领非常关键。 但是,该从哪里下手呢? 假设自己想要做一名视频博主,该从哪学起?该怎么拍摄、剪辑视频?又该如何运营账号? 把问题交给小浣熊,这时它会根据一个泛泛的问题,拆解出更详细的问题让你回答。 同上,它依旧给出了详细的目标清单,分为以下5点: 确定账号定位与差异化特色 设备采购与拍摄方案设计 内容生产与运营规划 成本控制与效果评估 方案整合与交付 点击「执行」后,小浣熊每一步都展开了深度调查和分析。 比如,抖音平台中美食账号的分析报告,小浣熊给出了从内容类型、粉丝画像、互动数据、市场空白,以及工具推荐的分析。 再比如,制定3个月的内容排期表以及运营规划,它根据低、中、高预算,给出了不同的策划,用图表可视化分列出来。 它生成的最终报告,是一个所有分支内容的精炼版,所有要点都总结如下。 接下来,就是行动了。 任务规划神器,解锁AI终极价值 从实测中我们看到,办公小浣熊「任务规划助手」不仅仅是一个工具,更像一个无时不在的智慧伙伴。 它的真正价值,远不不止于规划的精准与高效,而在于它重新定义了人类与AI的交互方式。 在过去,面对未知领域,我们习惯于望而却步,害怕因想法不够成熟,或因无法下手而拖延。 而现在,这位「超级搭档」用对话的方式,消解了这种心理负担。 它不急于给出结论,而是陪着用户一起思考、探索、迭代。 这种交互式的深度协作,不仅让用户在规划过程中收获结果,还能提升自己的结构化思维和问题解决能力。 AI时代,时间是最宝贵的资源,清晰的方向则是最稀缺的财富。「任务规划助手」恰恰是帮助人类抢占这两者的神器。 它能让每一个想法不再停留空想,而是变成一张通往成功的路线图。
大厂正在将AI广告带入“伪人”时代?
作者 | 李炤锋,编辑 | 肖阳 在上周举行的戛纳国际创意节上,TikTok推出全新的AI广告功能,该功能可以通过上传图片或一个简短的文字prompt,进而生成一个5秒钟的广告视频。 无独有偶,Meta上周宣布升级图像转视频广告工具,允许营销人员利用AI将产品图片转化为多场景视频广告。广告主最多可上传20张图片来创建视频,并可添加背景音乐和文本。 大厂纷纷下场推广AI广告工具背后,是广告业逐渐被AI“入侵”的现状。根据CTR(央视市场研究)发布的《2025中国广告主营销趋势调查报告》,53.1%的广告主已在创意内容中使用AIGC技术,接近20%的广告主在视频创作中超半数环节依赖AI。 几周前,Google I/O 2025大会上,谷歌发布的Veo3迅速引爆了视频行业。Veo3实现了只用一个提示词,就能得到画面+对白+唇动对齐+拟音音效一气呵成的视频。 Veo3很快在广告行业落地了第一个“爆款”。在上周进行NBA总决赛第二场转播期间,一则由Veo3生成的电视广告登上了转播画面。这则长达30秒的广告,核心视频内容全部由Veo3制作完成,该广告的制作人PJ Ace在社媒表示:“整个广告制作由一个人完成,共花了2-3天。与传统广告相比,成本降低了95%。” 此前,很多广告公司所采用的AI工具,更多是一种针对某些场景加工的提效手段。Veo3的出现,以及近期TikTok和Meta下场AI广告工具的动态,都显示着AI广告技术门槛正持续降低的新趋势,一键“傻瓜”式生成将成为中小广告公司/品牌方的主流制作方式。 当然,对于广大用户而言,一键式生成的AI营销内容逐步增加,“真人”广告可能会逐渐成为稀有物种,迎接我们的或许将是一个“伪人”广告时代。 AI做广告,便宜+大碗 相比传统广告拍摄模式,一则AI生成广告的制作成本可以低到惊人。除了上文提到的Veo3“成本降低了95%”的案例外,一些新兴的AI广告公司都以“超低成本”作为自身服务卖点。 AI广告公司Icon就宣称,使用该公司产品每条广告的成本不到1美元,而在“传统广告”时代,每条广告的制作和投放成本通常要200美元。同时,AI技术还压缩了作业流程,仅需1名操作者利用AI工具即可完成任务。 2024年11月,可口可乐公司推出了首部全AI制作的广告,该系列广告运用了国产模型“可灵”在内的四种AI视频工具。制作方之一Silverside AI的CEO PJ Pereira Wrubel在社媒上表示,团队与客户会面后的三天内,Silverside AI就完成了广告片的初稿。 然而,这条广告却遭受了海量“差评”,许多用户不满完全由AI制作的“惊悚”观感,但同时“全AI制作”的噱头和争议,也换来了一大波讨论和流量。更重要的是,这则圣诞广告让整个营销行业看到AI生成视频“便宜+大碗”的优势。 事实上,AI与广告行业的结合在更早前就已初现端倪。2023年,京东、天猫等电商平台就曾先后推出AI生成的平面广告,并在“双十一”密集的物料投放中频繁出现。只是当时的AI视频技术,还在努力攻克类似“威尔·史密斯吃面”这样复杂场景下的生成难题,所以市面上并没有出现太多“动起来”的AI广告。 而进入2024年后,随着AI视频技术的不断成熟,越来越多的广告从业者开始“拥抱变化”。 陈潇逸是一家小型广告公司的主理人,他的团队主要面向一些企业和单位客户的宣传/广告需求。从去年开始,陈潇逸和团队开始采用AI生图为营销物料提供素材。去年年底,他的团队也开始尝试用AI视频工具为客户制作广告内容。 采访中,陈潇逸展示了他们为某汽车品牌制作的一段demo,画面中是一辆行驶中的汽车,经过一套炫酷的变形特效后,这辆车“变身”成了一架喷气式飞机。陈潇逸表示,像这样的内容都是用国产模型“可灵”制作的。“其实在古早的时候,大家会想着用AE或者3D软件去做,这样成本很高,几千块一秒钟一般甲方也接受不了。进入AI时代之后,这种视频我们以一个很低的报价就能拿下。” 在陈潇逸展示的作品中,AI视频工具主要用来生成一些特效片段,几乎没有全AI生成的视频。对此他坦言,很少有用户会想要全AI生成的广告视频,目前甲方对真实内容和场景的需求,仍然是AI短期内无法攻破的护城河。 陈潇逸展示了另一条demo来佐证他的观点,这是一段用剪纸风格呈现的某城市宣传片,在这条AI生成的短片中,一些城市地标建筑细节的还原度极高。陈潇逸表示,这不是单靠AI能力就能实现的,而是需要提前航拍高质量的真实建筑画面,再结合AI特效工具生成。这一过程中仍然离不开专业人士去收录真实素材,AI生成后还要后期进行同步处理。 谈起广告业“拥抱AI”的现状,陈潇逸还是持有积极的态度,他认为AI生成技术的加成,让他们这样的小公司有了更强的竞争力。“我们更期望通过给甲方展示这样的(AI)技术储备,来提高自身的话语权或定价能力。” 零门槛AI广告时代来了 虽然AI视频技术在传统广告领域“攻城拔寨”,但像可口可乐AI广告这样的内容,都是专业级AI工作室合作的产物,这些内容还需要动画团队配合,在后期进行细节调整和润色。而随着AI视频技术水平的不断迭代,AI营销内容的创作门槛正快速下沉。 屠超是国内某头部跨境电商团队成员,他所在的团队最近正与谷歌方面接触,试图引入Veo3的能力进行营销物料创作。此前,屠超所在的小组没有额外预算开展视频等形式的营销方案,组内也没有专业的视频/技术背景的同事,Veo3的出现让他们看到了探索新业态的可能。 “(使用AI生成营销内容)不需要太多的技术背景,也不需要导演方面的经验,甚至分镜都不需要自己写,用ChatGPT写好分镜逻辑,然后直接喂给Veo3就好。”屠超表示,利用AI工具可以让团队小成本甚至零成本尝试新的营销思路。得益于Veo3便捷的操作逻辑,即使团队中都是没有专业背景的“小白”,也能快速上手生产营销物料。 另一方面,AI视频不断进化的技术力,也间接促成了许多传统业务团队有了尝试AI生成广告的想法。“首先它(AI视频技术)足够强了,才进入了我们的关注范围。”屠超表示,他所在的团队目前主要围绕Veo3的能力进行验证,尚未考虑与即梦、可灵等国产模型展开合作,“一方面是Veo3生成的真实度比较好,此外谷歌方面承诺,Veo3生成的内容不会引发版权问题,这对于很多公司来说还蛮重要的。” 不过,对于屠超所在的团队而言,AI生成内容在用户侧的反响还是个未知数,但这样一个低成本“试跑”的机会实在难以拒绝。对此屠超坦言:“一些主流内容网站上的‘起号’逻辑,对批量型AI内容并不特别友好,但是我们觉得既然成本低了就可以先尝试一下。” 跨境电商平台拥有着海量的商家用户,在谈及该平台是否会像TikTok一样,提供AI广告工具给用户时,屠超表示,平台方一直有在尝试开放给商家更多的AI工具,但收效并不都很理想,很多商家对于生产内容的动力不足,缺少专业技能也导致商家们很难产出高质量内容。 《中国新闻周刊》近期刊发的《All in AI,颠覆电商?》一文中也提到了这一现象,一些电商从业者试图利用AI工具生成图片,但使用下来“会出现各种问题”:手部处理不好、生成场景不符合物理规律,以及最终生成的衣服和实物不一致…… 综合这些信息可以发现,专业级AI工具对个人商家用户确实还有一定的门槛。Veo3等新一代AI工具的出现有望改善这一局面,对于广大个人用户而言,接纳一种新业态也许还需要更多时间。 另一方面,身处广告行业的陈潇逸,面对“零门槛”AI广告工具的冲击仍保有信心。他表示,在专业广告领域,一些甲方反而会担心AI营销内容会削弱其品牌力。陈潇逸举例说,广告业内一些做插画的公司也在使用AI工具,但有些委托方会明确说明不允许使用AI制作的素材,尤其是AI生成的内容还涉及原创、版权风险时,甲方们的态度只会更加谨慎。 “从行业视角来看,我们反而会有大众审美降级的担忧。”陈潇逸表示,不是所有广告都追求内容的高质量,有些广告的目的是展现品牌实力,有些广告则是为了传播量,AI生成的介入可能会产生大量徒增传播量,但是缺少内在价值的内容。 面对行业的快速变革,陈潇逸依旧对AI持开放态度,他表示团队后续还会继续探索新的AI应用,但会更侧重去探索一些创造性场景——比如做一些更加炫酷的英雄镜头或特效。 “只能(把AI)当作一种工具,不太可能把它当做自己的主攻方向。”谈及下一步的业务方向,这位资深广告从业者这样说道。 “伪人”味广告,用户买账吗? 生成式AI在广告中大规模应用,但并不是所有的AI场景都能打动用户。在一些模型真实人物场景的AI广告中,“恐怖谷效应”“伪人”成为了很多用户的评论。 近期,某茶饮品牌因在其户外广告片中使用了AI生成的男女主角,引来社交媒体的一些负面评论:“以为是鬼,眼睛空空的”“一眼AI恶心的要死”,这些用户对“伪人”广告的指控,显示AI生成的营销内容已经引发了消费者的反感。 因AI生成的宣传内容陷入舆论风波的不只是企业,新加坡财政部在社媒上宣传政策时也使用了AI生成的画面,有网民形容这些画面“恐怖”“毛骨悚然”,最后当局不得不出面道歉,并承诺将做出修改。 而AI广告视频领域更是“伪人”的重灾区,可口可乐、麦当劳等公司推出的AI制作广告都曾先后引发巨大舆论反对声浪。 AI广告为什么难逃“伪人”味?日本媒体Toyogeizai曾发文评论,之所以会出现这种不适的情况,主要在于AI模型虽然逼真,但并不完美符合观众对人类外表的期望,导致产生“不自然”和“陌生”的感觉。 在商业情报公司NIQ此前发布的报告中,针对“伪人”广告让人抗拒的内在原因进行了剖析。该报告指出,消费者能直观地识别出大多数由AI生成的广告,并认为它们比传统广告更缺乏吸引力,甚至被描述为“令人讨厌”“无聊”和“令人困惑”。这些情绪表明,AI生成的广告可能会产生负面的光环效应,从而削弱消费者对广告以及品牌的整体认知。 报告中的一份实验结论显示:即使是被认为“高质量”的AI生成广告,其激发的大脑记忆反应也比传统广告更弱。这表明AI广告内容与现有记忆结构之间存在错位,这种差距可能会削弱消费者采取行动的动力。 事实上,在现行AI视频技术下,“伪人”问题并非完全无法规避,前提是生成的内容要尽量避开“拟真”风格和人物特写。屠超所在的团队就总结了一些避免“伪人”效果的经验:“我们会限制‘真人’出现在视频中的时间长度,有时几秒钟一下就跳过去了,这样用户就不太能看出来。”屠超表示,他们还会在提示词中要求人物镜头拉远景处理,尽可能降低用户对生成人物的“伪人”感知。 除了“伪人”问题,对AI广告更多的质疑还有“同质化”。许多AI生成的营销物料缺乏信息价值,内容也不符合平台用户的搜索意图,反而可能被平台视为垃圾内容。 “随着营销人员越来越依赖人工智能来生成内容,同质化开始出现。这与品牌的目标完全相反,品牌需要的是差异化和真实性。”数字营销公司3X Marketing的创始人Jen Iliff曾这样评价。 “(这些广告)没有传播到产品的温度。”作为广告业同行的陈潇逸,对“伪人”广告的评价就更为直接。 不过,尽管被贴上“伪人”“同质化”的标签,各大品牌方拥抱AI广告的决心却丝毫未减,因为AI带来的诱惑实在是难以抵御——可以降成本。 根据《2024中国数字营销趋势报告》,43%的广告主认为整体营销投入将减少,其中13%认为将大幅减少,30%认为将小幅减少。全行业降本增效的大背景下,AI生成广告不需要找场地、搭布景,不需要协调多个工种参与制作流程。 尽管AI生成的内容在美学和内容深度上不一定高质量,但可以低成本快速铺开并加深用户印象,对于很多品牌方来说已经足够了。 可以想象,未来数年中,广告业关于“AI降本增效”和“用户反响”的争论会一直持续下去。 虽然经常接触生成式AI工具,但屠超本身并不推崇AI生成内容。采访中他曾表示:“人类社会本质上是一种人和人之间的连接,人还是喜欢人多一点。”不过他也承认,从平台视角来看,AI内容的成本优势巨大。“成本应该是最吸引(平台)的一个点,因为如果不考虑成本的话,肯定是真人素材的效果更好。” 而作为资深广告从业者,陈潇逸并不否认未来人人都有可能用AI做广告的前景,但摄影师出身的他,仍然相信专业广告从业者的价值。他认为无论是品牌还是个人,生活中都不该充斥着AI生成的回忆,“终有一天会人人都会使用AI,但我们还可以做普通人做不到的东西。” (文中陈潇逸、屠超均为化名)
LLM进入“拖拽时代”!只靠Prompt,几秒定制一个大模型,效率飙升12000倍
编辑:定慧 好困 现在的大模型基本都具备零样本泛化能力,但要在真实场景中做特定的适配,还是得花好几个小时来对模型进行微调。 即便是像LoRA这样的参数高效方法,也只能缓解而不能消除每个任务所需的微调成本。 刚刚,包括尤洋教授在内的来自新加坡国立大学、得克萨斯大学奥斯汀分校等机构的研究人员,提出了一种全新的「拖拽式大语言模型」——Drag-and-Drop LLMs! DnD是一种基于提示词的参数生成器,能够对LLM进行无需训练的自适应微调。 通过一个轻量级文本编码器与一个级联超卷积解码器的组合,DnD能在数秒内,仅根据无标签的任务提示词,生成针对该任务的LoRA权重矩阵。 显然,对于那些需要快速实现模型专业化的场景,DnD可以提供一种相较于传统微调方法更强大、灵活且高效的替代方案。 总结来说,DnD的核心优势如下: 极致效率:其计算开销比传统的全量微调低12,000倍。 卓越性能:在零样本学习的常识推理、数学、编码及多模态基准测试中,其性能比最强大的、需要训练的LoRA模型还要高出30%。 强大泛化:仅需无标签的提示词,即可在不同领域间展现出强大的泛化能力。 DnD实现方法 通过观察,研究人员发现,LoRA适配器无非是其训练数据的一个函数:梯度下降会将基础权重「拖拽」至一个特定任务的最优状态。 如果能够直接学习从提示到权重的映射,那么就可以完全绕过梯度下降过程。 DnD通过两个核心步骤获得「拖拽」能力:准备训练数据(左上)与训练参数生成器(右上)。 在准备数据时,将模型参数(权重)与特定数据集的条件(提示词)进行显式配对。 在训练时,DnD模型将条件作为输入来生成参数,并使用原始的LoRA参数作为监督信号进行学习。 基于这些洞见,团队提出了「拖拽式大语言模型」,它无需微调即可生成任务专属的权重。 团队首先在多个不同数据集上分别训练并保存相应的LoRA适配器。 为了赋予模型「拖拽」的能力,团队将这些数据集的提示词与收集到的LoRA权重进行随机配对,构成DnD模型的训练数据——即「提示词-参数」对。 参数生成器是一个由级联卷积块构成的解码器。 参数生成器的模块细节如下:每个超卷积块包含三个超卷积模块,用于在不同维度上提取并融合特征信息。 训练时,团队采用一个现成的文本编码器提取提示词的嵌入向量,并将其输入生成器。 生成器会预测出模型权重,团队利用其与真实LoRA权重之间的均方误差(MSE)损失来对其进行优化。 在推理阶段,团队只需将来自全新数据集(训练中未见过)的提示词输入DnD,仅需一次前向传播,即可获得为该任务量身定制的参数。
嘉楠科技:AI芯片不赚钱不做了 还是专心卖矿机
快科技6月24日消息,作为全球区块链业务第一股,嘉楠科技(Canaan Inc)在一份官方声明中确认,将放弃AI芯片半导体业务,还是聚焦在核心的矿机业务上。 嘉楠科技成立于2013年,2019年在纳斯达克上市,一直在加密货币矿机领域处于领先地位,很擅长ASIC(专用计算电路)高性能芯片的设计。 为了尝试业务转型,尤其是抓住AI浪潮的机(re)遇(du),嘉楠科技近年来一直在尝试发展AI芯片业务。 2018年,嘉楠科技发布全球首款RISC-V架构商用边缘AI芯片“勘智K210”,集成自研AI神经网络加速器,0.3W功耗就实现了1 TOPS算力。 2021年,嘉楠科技发布了第二代AI芯片“勘智K510”,算力翻番至2 TOPS,新增ISP能力。 2022年,嘉楠科技再次推出“嘉楠K230”,内置阿里玄铁C908 RISC-V CPU核心,面向立体视觉和高性能AI应用。 但是,一直到2024年,嘉楠科技AI相关业务收入只有大约90万美元,微不足道,而运营开支却占了整个公司的15%。 为此,嘉楠科技决定放弃AI芯片业务,同时已在美国成功完成了一次矿机试点生产,希望复制在马来西亚的运营模式。 近期,矿机行业的三大巨头,比特大陆、嘉楠科技、比特微,都正在将生产转移到美国。 嘉楠科技承认,在美国生产矿机成本较高,但将缓解高关税的冲击,同时更有利于缩短对北美客户的交付周期,属于长期韧性的潜在战略投资。 嘉楠科技透露,在马来西亚生产的矿机,销往美国需要缴纳10%的关税,而对于进口零部件和原材料,关税依然不太明确,不利于未来规划。
伟大的起点无法被计划
文/吴炳见 十几年前,大概有上千份BP写着想做一个种草社区、穿搭社区、和中国的Instagram,后来实现这个的是小红书,它的起点是境外购物指南。 很多BP写着想做下沉版淘宝,解决乡村购物的问题,有人铺终端,有人用分销,后来实现这个的是拼多多,他的起点是拼团买水果。 有上千份BP写着他们想做移动互动娱乐平台,有人做游戏,有人做社交,后来实现这个的是抖音,抖音的起点是年轻人的音乐小视频,而字节的起点是内涵段子。 这说明什么?终点常常被期待,也有不少人能看到,但难以预测起点,也无法精准预测终点的产品形态。伟大无法计划,因此只能做对用户有价值、有留存的事情。 今天的 AI 创业,很多 BP上也写着下一代 AI 抖音、下一代 Agent平台,十多年后我们会发现这些平台真的存在,只是切入点又一次超出我们想象。 有上千人在BP上写着下一代AI某某平台时,这是个共同期待,这个平台是有挺大概率出现的,问题是这个产品day one长什么样子?从起点到终点的路径如何走?这是无法计划的。 (创业 is like...) 总结上一代优秀产品的共性,就是他们的起点都解决了一个真实需求。 作为创业者,唯一能计划的就是——day one 我瞄准了什么细分人群,解决了一个什么具体问题?我的产品从体验上是否击穿了用户。 即便是个粗糙些的产品,只要路子对,击穿了用户,一定会带来留存。 这群用户就是实验室,后面的迭代和泛化都是基于这群用户做实验,如果上线了killer feature,大概率会形成口口相传,带来自来水流量。反之,如果功能不对,即便反复雕琢,增长也乏力。用户在用留存和付费投票。 这是摸着用户过河,正是这样的正负反馈,才形成了从起点到终点的路径。 探路的过程也是演进的过程,回头看,演进的力量是惊人的,上面提到的小红书、拼多多们不仅活成了“种草社区”和“下沉版淘宝”,而是远超这些定位,并且吃掉了其他的垂直社区,和垂直电商,形成更大体量。 当时很多人都质疑过,小红书会不会只在白富美人群?拼多多会不会只在下沉市场?现在答案不言而喻,这都是上亿日活的产品,已经泛化到普罗大众了。这种泛化背后,每家有每家的武器,小红书的内容质量,拼多多的低价,抖音的内容趣味性。用户林林总总的需求没有分散到N个垂直App,而是收敛到了这十几个头部App。 初始的垂直,和后期的泛化,形成强烈对比,更具戏剧性。 初始的垂直和聚焦,对当下的AI创业来说也照样适用,如果产品上线第一年我们ARR想做1000万美金,我们并不需要太多用户。假设一个用户一年付500美金,我们只需要2万个付费用户,我们是可以在用户上做取舍的,只做欧美还是只做日韩?只做忍受度高的early adoptor还是大众用户?只做专业创作者还是泛C? 核心问题是,你击中这2万个用户了吗?他愿意掏钱吗? 在移动互联网时代,曾有个很有名的失败案例Color,现在已经被忘了。 2011年,最热的概念是SoLoMo——Social、Location、Mobile,Color就是这样一个SoLoMo的产品,诞生在硅谷。用户无需注册,打开应用即可拍照,内容自动分享给附近30米内的用户,主打“弹性社交网络”——通过光线、距离、声音等环境数据自动分组,进行社交互动。(是不是没听懂?我当时用了也没懂啊) Color的团队极为豪华,CEO Bill是连续创业者,做过三家互联网公司,一家IPO,两家被收购,累计退出了9亿美金。联创Peter是金融服务工具BillShrink的创始人,被MasterCard收购。产品负责人DJ是LinkedIn首席科学家。在天使轮,还没有产品的时候,就获得4100万美元的投资,背后是红杉美国、贝恩资本、硅谷银行。 最热的概念+豪华团队+大额融资,这是当时硅谷最靓的仔。发布前被媒体热捧,被誉为"革命性社交应用","硅谷每十年改变世界的一两个公司之一",“Facebook的颠覆者”。 2011年3月,Color发布当日登顶App Store,才推出24小时,已经有几百篇文章在专门讨论它。但口碑迅速崩塌——闪退、操作混乱、没有内容可看,出现最多的评价是“毫无用处”,60%的评分仅1星。2012年11月,Color承认失败,关停服务,以700万美元的估值被Apple收购了。 显然,Color没有击中任何用户,脱靶了。伟大的抱负还是需要一个靠谱的产品来承载。 不仅创业的起点无法被计划,投资的起点也很难被计划。 一个常识:如果你投了一个项目的天使轮,如果这个项目成了,回头你翻下投资 memo,产品和商业模式一定已经面目全非,只有人那一段是一样的。 最近刷屏的两个案例,3200亿市值的泡泡玛特,700亿市值的影石创新都是这样,第一天和上市时是不一样的。2012年,麦刚投资泡泡玛特天使轮时,泡泡还在做潮流杂货集合店,卖文具、玩具、饰品,直到2016年,泡泡转型潮玩,推出首个自有IP“Molly星座系列”盲盒。2015年,IDG在投资影石的天使轮时,这家公司还叫“岚锋创视”,做直播软件,之后转型开始做360度全景相机,今天他的定位是智能影像设备。 我相信每个做早期投资的人,都会有类似的体感,尊重不确定性,尊重演进,就是尊重常识。 一棵树能长很高,并不是因为它细胞多,而是它的单个细胞足够强壮——这个细胞就是创始人,和它创立之初的PMF( Product Market Fit)。 Day one就面向真实需求,解决具体问题的公司,往往长得高一些,这一点不区分是mobile时代,还是AI时代。 祝你做个super cell。 作者介绍:吴炳见,心资本Soul Capital合伙人,从事AI相关的风险投资。前某大厂mobile产品经理+战略分析,之前就职于险峰和联想之星。参与投资过多个大模型和AI应用项目。关键词LLM、AI Native、AI基础设施、Robotics。
被AI取代人类的正遭受无价值感,如果AI如此出色,我的价值在哪里
人工智能技术的飞速发展正在给人类社会带来前所未有的心理冲击。当机器能够比人类更快、更准确地完成越来越多的任务时,一个深刻的存在主义问题开始困扰着许多人:如果AI如此出色,那么我存在的意义是什么?这种被称为"AI存在价值危机"的心理现象正在全球范围内悄然蔓延,引发了心理学界和社会学界的广泛关注。 无声的心理流行病 爱尔兰心理学家兼作家伊莱恩·瑞安在接受《商业内幕》采访时揭示了一个令人担忧的趋势。她发现,越来越多的客户和读者开始将人工智能的出现视为生活中新的焦虑源头。"我一遍又一遍地听到这样的问题:'我现在适合哪里?'或者'我能提供什么人工智能无法提供的东西?'"瑞安说道。 这种焦虑并非简单的职业担忧,而是触及了人类心理的核心层面。瑞安解释说:"它利用了我们所谓的心理学核心信念——那些安静的、根深蒂固的恐惧,比如'我不够好'或'我不属于'。人工智能有一种方法可以以非常直接和令人迷失方向的方式激活这些信念。" 这种现象在各个专业领域都有所体现。设计师担心AI能够生成更具创意的作品,医生发现AI诊断系统比他们更准确,律师看到AI能够更快地处理法律文件,甚至连心理咨询师也开始质疑自己的价值,因为AI聊天机器人正在为越来越多的人提供心理支持。研究表明,AI技术的应用使得一些员工的技能和经验不再足够有价值,他们面临着被替代、被削减或者被迫转型的风险,由此产生相对剥夺感。 专家的亲身体验 更令人深思的是,即使是研究这一现象的专家也无法完全免疫。瑞安坦承,她自己也在使用AI来执行管理工作,甚至将个人医疗结果提供给AI来解释数据。"我上传了我的实验室结果,AI比我自己的医生更清楚地解释了它们,"她说。"这令人印象深刻,老实说,有点令人不安。" 这种亲身体验让瑞安更深刻地理解了人们面临的困境。当AI在传统上被认为是人类专有领域中展现出卓越能力时,它不仅仅是在替代具体的工作任务,更是在挑战人类对自身独特价值的认知。这种挑战涉及到人类最基本的心理需求——价值感、归属感和自我效能感。 从心理学角度来看,这种现象可以被理解为一种新型的"技术性存在焦虑"。传统的存在焦虑通常与死亡、意义和自由选择相关,而技术性存在焦虑则源于对自身在智能机器面前的价值和地位的质疑。这种焦虑不仅影响个人的心理健康,还可能对整个社会的心理状态产生深远影响。 应对策略与建议 面对这一挑战,瑞安提出了一些实用的应对策略。首先,她建议人们将这种对AI的恐惧理解为一种焦虑症状,而"焦虑是我们知道如何应对的事情"。她强调,关键不在于回避AI,而是寻求理解它,通过熟悉来减少焦虑。 "如果你没有接受治疗,你能做的最好的事情就是注意回避行为……相反,试着慢慢地向它移动,"她建议道。"AI可能是新的,但人类对不确定性的反应却不是。目标不是与机器竞争。这是为了找回人性的部分——经验、深度、情商——这仍然比我们想象的更重要。" 然而,这种个人层面的应对策略存在明显的局限性。它无助于阻止AI技术的快速发展和广泛应用,也无法解决AI可能带来的更广泛社会问题,如就业结构的根本性变化、社会不平等的加剧,以及人际关系的进一步疏离。 更深层的社会影响 事实上,AI对人类心理健康的影响远不止存在价值感的危机。研究发现,人们越来越多地转向AI而不是真正的人类作为情感支持的来源,这加剧了社会孤立现象。同时,AI系统有时会将用户带入妄想信念,或被恶意使用者利用来伤害儿童等脆弱群体。 从更宏观的角度来看,AI的快速发展正在重新定义工作的本质和意义。都柏林大学的约翰·达纳赫教授指出,即使AI不会完全取代人类工人,它也会削弱工作的内在价值。这种现象被称为工作的"去意义化",可能对整个社会的心理健康产生深远影响。 最新研究表明,人工智能焦虑通过工作重塑正向影响新生代员工创新行为,员工组织依恋程度在其中发挥重要的调节作用。这提示我们,虽然AI带来了挑战,但也可能激发人类的创新潜能和适应能力。
DeepSeek罕见千万级大单:打造AI医院
70B参数、3300token/s,搭建智能导诊、AI质控系统。 作者 | 李水青 编辑 | 心缘 智东西6月24日报道,6月23日,临汾市人民医院发布了《基于DeepSeek AI大模型的智慧医疗应用系统建设项目》,预算金额为1569.264万元,预计采购时间为2025年9月。 今年以来,全国各地的DeepSeek项目屡见不鲜,但像临汾市医院这种预算金额大于1000万元的较为少见,比如6月18日125万元的曲阜市信访局大语言模型私有化部署项目、6月20日的85万元的通州区DeepSeek应用部门知识库建设项目等,预算均为十万元级到百万元级不等。 临汾市人民医院拟采购基于DeepSeek的智慧医疗项目建设一套,其建设内容包含: 1、基于大模型的患者服务应用系统:基于大模型的患者服务应用系统包含智能导诊与分诊系统、诊前病史采集系统。 2、基于大模型的医疗质量管理相关系统:建立基于大模型的医疗质量管理体系相关应用系统包含病历辅助生成系统、AI病历内涵质控系统。 3、AI信息系统的配套硬件设备:基于医院软件的实际需求量,硬件部分采用70B模型相对应匹配,处理速度达到3300token/s(70B模型);整体方案硬件适配包含超融合应用管理节点、AI数据算力区(AI算力服务器和AI数据分析机)、存储、以及相对应配套网络设备。 4、安全防护:部署入侵防御和防病毒功能的防火墙、部署运维管控堡垒机、引入零信任综合安全网关、部署日志审计系统、部署数据库审计系统。 来源:临汾市人民医院
成本降95%性能超ES9.0,OceanBase推GPU加速的向量数据库
作者 | 王涵 编辑 | 漠影 智东西6月24日报道,独立数据库厂商OceanBase今日在媒体沟通会上宣布,其云数据库OB Cloud已实现AI能力的开发部署及生态集成,并已服务零售、金融、物流等行业的数十家头部企业,推动AI落地。 在今年的3月27日,OceanBase举行了首届合作伙伴大会,在会上OceanBase称“AI将成为其未来重要的发展方向。此次OB Cloud对AI能力的部署集成与行业应用,被视为OceanBase AI战略落地的第一步。 “云数据库与AI天然契合。”OceanBase副总裁、公有云事业部总经理尹博学这样解释,一方面,云数据库的弹性扩展、成本优化、高可用等特性,为AI工作负载提供坚实底座;另一方面,AI对多模态数据的高效调用需求,推动云数据库强化向量检索、多模融合等能力。 “推理过程中,向量检索与标量查询相结合式的数据检索,可以缓解大语言模型的幻觉现象。”尹博学介绍到,OB Cloud将向量索引、全文索引和模糊索引集成为“all in one”的存储化引擎,可以帮助客户在简洁高效的技术栈上,提高效率并降低成本。 据悉,OB Cloud云基座涵盖了国内外主流的6家云厂商,可以获得开箱即用的云服务。从去年第二季度到今年第二季度,一年里OB Cloud的开服区域从30提升到50,提升了67%;可用区从100+提升到170+,其可靠性和容灾能力大幅度提升。可以在不同的地域、不同的国家、不同的基础设施上,AI应用的可获得性变得更便捷,OB Cloud也能够在各种地域、各种云上为AI应用提供支撑和服务。 ▲OceanBase副总裁、公有云事业部总经理尹博学 一、成本直降95%,OB Cloud性能超ES9.0 如今的AI应用涉及海量的结构化、半结构化以及非结构化数据,单一数据类型的存储和查询已经没有办法满足业务需求。与此同时,更大的挑战来自高维向量数据,推荐系统、图像搜索、语义理解等AI场景,需要处理的数据不仅体量庞大,而且计算复杂。 企业对于数据库的向量能力的要求也越来越高,而OB Cloud可以将多模态数据通过嵌入模型转化成向量进行储存,实现更加高效的数据存储与调用。 对于非结构化数据处理,OceanBase资深技术专家张易称,OB Cloud主要通过加强文本检索和向量检索来达到更优的性能。同时在非结构化之上,目前正在通过AI函数的功能,链接模型以及数据的能力,从而能够达到一条SQL串接整个的结构化以及非结构化处理的工作流。 在 RAG 技术应用中,其核心处理流程与行业主流架构具有一致性。该流程首先对用户问题进行理解与改写,将自然语言查询转化为适配系统处理的格式;继而在知识库检索环节中,完成知识片段的召回与排序优化,确保向大模型输入高相关性信息;最终由大模型基于处理后的内容生成答案并反馈给用户。 值得关注的是,该方案对全流程各环节进行了细粒度拆解,通过对问题解析、知识检索、模型交互等每个节点的独立调优与协同串联,实现了整体回答准确率与处理效率的系统性提升。 ▲OceanBase资深技术专家张易 OB Cloud向量算法库叫做VSAG,目前已经开源。在国际主流的Benchmark上,VSAG向量的性能大概是目前Sota水平的90%以上。 此外,在数据层面,OB Cloud基于向量算法组织了内存索引、磁盘索引和混合索引来应对向量的存储和计算的需求。最后是算力层,目前OB Cloud正在构建基于GPU的向量索引。 在算法方面,张易还提到,一方面向量数据会随着用户增长而不断摄入,一方面用户对数据的需求也会越来越大。为了既实现增量又要满足海量,OB Cloud让检索实时可见,并引进磁盘IVF+HNSW混合索引,单机可支撑10亿向量检索。 同时,在AI领域,在json等半结构化数据处理方面,OB也做了大量的工作。目前在json的存储优化方面,已有的版本跟主流的MongoDB相比,成本仅为1/3。 OB和其他的向量数据库还有一个比较大的区别,即从OB整个向量数据库到向量算法全部都是自研的。OceanBase资深技术专家张易称,从整体性能上看,自研的OB Cloud的向量性能已经达到主流开源数据库水平。 据蚂蚁内部统计,OB Cloud对资源的要求高1~2个数量级,同等召回率和性能的条件下,OB Cloud的成本可以下降95%,在研版本的性能超ES 9.0 BBO 16%。 在最近的几个月,OceanBase引入RabitQ来解决传统HNSW算法占用内存较多的问题。内部统计,在不同的工作负载、同样的查询以及召回数据等量的情况下,引入RabitQ的OB Cloud会比和传统计算的数据存取高,对资源的要求也高1到2个数量级。同时与同时引进了RabitQ算法的主流产品ES9.0做了对比,OB Cloud的BBQ高16%左右。 据悉,OB Cloud正在“TP+向量”与“向量+多模态”的方向上进行探索。从蚂蚁集团内部实践及行业趋势来看,文本检索领域正经历技术迭代升级:数年前单一向量技术即可解决语义检索需求,近年来已发展为向量与全文检索结合的模式。而当前业界数据表明,向量、全文与稀疏向量的融合应用能进一步提升召回率。 基于此,技术团队正推进两方面优化:一方面将稀疏向量、稠密向量与全文的多路检索能力集成至数据库内核,使用户通过单条 SQL 即可实现混合检索;另一方面尝试将向量 Embedding 模型嵌入数据库,使用户仅需插入原始数据,无需关注向量处理过程,从而实现数据插入与查询的一体化易用性体验。 二、PowerRAG:一站式解决方案,提升回答准确率与处理效率 OceanBase公有云高级产品专家冯礼在会上称,在 AI 落地中,RAG(检索增强生成)是企业优先采用的核心场景,通过知识库、知识检索与大模型结合,解决大模型 “幻觉” 问题,使其基于企业内部数据作答。 传统RAG搭建需复杂选型向量库、文本库等数据底座,上层依赖开源框架开发,运维与集成成本高。现推出的PowerRAG多模一体化方案整合多元检索能力,在此基础上实现全流程模块集成,以一站式方案降低成本,其核心流程涵盖问题理解、知识库检索及大模型交互,通过环节优化提升效率。 ▲OceanBase公有云高级产品专家冯礼 新产品PowerRAG正在形成“集成知识库+知识检索+大模型”式的多模一体化数据解决方案。该产品可以将文档输入到知识库形成切片,通过向量嵌入模型以向量模式存储,用户通过提问检索答案,再将答案通过大语言模型输出给用户。PowerRAG还可以对文档的段落、表格和图片等不同的多模态数据采取不同的解析策略。 OceanBase AI助手以及AI驱动的智能运维服务(OAS)就是该产品的落地实践结果。目前,PowerRAG可以在OB Cloud官网进行体验。 三、DB – LLMOps新范式,解决企业AI规模化落地三重挑战 “AI不再是工具,而是平台级基础设施的接替者。”OceanBase公有云事业部解决方案总监戴涛称,企业AI规模化落地三个核心挑战:数据治理与架构适配、成本和性能博弈、企业级数据安全。 ▲OceanBase公有云事业部解决方案总监戴涛 面对这三个挑战,OceanBase可以帮助企业从结合自身优势产生AI应用新范式:DB-LLMOps。该范式是围绕企业数据和大模型的应用程序的生命周期管理平台或者工具。企业可以充分利用企业与数据的长处和特征,引入大模型的能力,共同完成整个企业开发、AI开发架构范式的变化。 另外,戴涛强调,在向量技术的实际应用中,检索场景始终是核心切入点。传统检索模式以全文检索、结构化检索为主,但随着大模型技术的引入,检索需求正经历深度变革:向量检索、语义检索、模型重排序及RAG等技术的融合,使检索逻辑从单一规则匹配转向语义理解与智能优化的复合模式。 当前企业面临的检索场景呈现显著复杂化特征:从数据形态看,图像、文本、音频、视频等多模态数据的检索需求并存;从应用维度看,跨语料、跨专业、跨学科的复杂检索场景日益普遍。 此类需求的升级推动向量数据库成为关键解决方案,其通过高维向量表征与语义相似度计算,可有效应对多模态数据关联分析、跨领域知识匹配等复杂检索场景,为企业解决传统检索技术在语义理解与跨维度检索中的瓶颈问题。 在企业落地案例中,向量数据库助力以图搜图功能实现高效应用。例如,三维家家居设计企业,其借助向量数据库对大量家居素材图片进行Embedding嵌入,用户上传图片后,系统可快速检索匹配相关设计素材,辅助设计师生成AI装修视觉图。 跨境电商企业卡佩希通过向量数据库实现多模态检索,客服可基于用户的图片或文字需求描述,快速检索并推荐相关女装商品,提供混合检索服务。在视频推荐场景中,合作企业当贝基于用户观看记录的向量表征,通过语义匹配推送风格相似的内容,将向量检索能力延伸至广告推荐领域。 在RAG场景落地中,伯俊科技利用OB向量能力构建企业知识库,沉淀专业知识,后续将延伸至文件导购、AI配货等场景。货拉拉以RAG为底座,一方面通过图片、代码等模式识别实现资损代码识别,辅助用户赔偿建议判断;另一方面打造数仓AI答疑功能,支持自然语言SQL查询,为客户提供数据仓库问题解答。 在企业问数场景落地中,银泰通过处理自然语言,将其转化为RAG化、向量化内容,为企业管理层提供实时问题诊断。该方案涵盖从自然语言到SQL的转化,训练企业特殊语料,搜索数据后供经营者决策。同时,银泰还应用RAG功能,对外提供智能问答,对内构建知识库。 在企业Agent领域应用中,OB的一体化技术架构具备显著优势:其混合查询能力支持标量与向量一体化检索,多模态交互特性可处理多元数据。高并发、低延迟性能适配企业实时需求,数据隔离与多租户机制则保障了企业级应用的安全性与资源管理效率,为企业构建AI底座提供核心支撑。 最后,戴涛总结称,企业 AI 规模化落地可分三步推进: 第一步:单场景从0到1切入,建议以知识库为入口,选择高价值、短链路场景,借助PowerRAG产品快速搭建验证。 第二步:渐进式场景扩展,针对业务与 IT 团队认知差异,通过Design Thinking工作坊协同挖掘AI场景,完成小规模应用构建,实现从1到10的能力延伸。 第三步:构建 AI 业务中台,整合Agent、RAG及一体化数据库,形成标准化平台,支持业务与轻IT人员快速开发创新应用,推动业务与IT双轮驱动,最终实现从AI赋能到AI原生的升级。 结语:AI正重塑企业智能生产力 OceanBase副总裁、公有云事业部总经理尹博学将OB Cloud的AI能力优势总结为四点,分别是具备天然的一体化架构,一套数据库支持事务处理(TP)、实时分析(AP)、AI工作负载,用户面向AI无需引入额外技术栈;多模向量一体化,原生支持向量、标量、空间、文本等多模数据的混合检索,简化AI应用复杂度;提供开箱即用的RAG服务,“0门槛”构建现代RAG应用;Bring AI to Data,一体化架构实现数据的新鲜度与智能的实时性融合。 据了解,目前OB Cloud的AI能力已在零售、金融、物流等众多行业的数十家头部企业中落地验证。除上述提到的合作伙伴外,OB Cloud在携程落地“以图搜图”的搜索及个性化推荐场景;支撑中国联通软研院、九讯云等实现RAG智能问答的高效混合检索;助力支付宝等企业打造更智能的“问数”与Agent协同应用。 值得一提的是,OceanBase已与LlamaIndex、LangChain、Dify、支付宝百宝箱等60余家AI应用开发与生态开放平台深度集成,并支持大模型生态协议MCP,在全球范围内构建完整的AI技术生态链。据了解,OB Cloud与这些AI生态伙伴也实现深度对接,共同加速行业智能化升级。 “未来的数据底座必须同时具备云的弹性、AI的智能以及多云环境下的韧性。”正如尹博学称,AI正重塑企业智能生产力。
融超1亿美元后,星海图高继扬:行业急需造“正确”的机器人
具身智能商业闭环的核心,是开发者。 「2026 年将是具身智能的下半场,下半场的核心是应用。应用的供需两侧都在走向成熟。」 在业界普遍认为具身智能行业还处于「技术卡点」阶段的时候,星海图 CEO 高继扬给出了具身智能「下半场」的一些判断。作为国内备受关注的机器人公司,星海图自成立短短两年已经拿到超过 1 亿美元融资。 「过去两年基本上是全民探索具身智能可用场景的阶段。大大小小的企业,所有潜在的用人单位,都在思考如何用具身智能来优化自己的工作流程。许多应用场景正逐渐变得清晰。同时,整个市场的预期也回归到了一个比较理性的状态。」 同时,对于追求「通用人形机器人」的「通用」,高继扬也给出了一些不一样的看法。高继扬认为,从商业和产品价值的角度来看,当前阶段具身智能最有价值的是实现对象泛化和动作泛化。而实现本体泛化在商业上的重要性没那么高。 在 AGI Playground 大会上,高继扬分享了近期他在具身智能领域的最新思考,输出了一些非常精彩观点: 具身智能进展缓慢,背后的根本原因在于具身智能所需要的高质量数据是缺失的。而数据缺失,是因为缺少高质量、合适的本体。 具身智能,首先要有一个「正确的本体」,一个标准的本体。 把数据采集当作一项生产活动来看待。 具身智能基础模型在第一阶段会呈现出来的范式是,在垂直场景的简单任务上实现零样本泛化,在复杂任务上实现少样本泛化。这里的「少样本」,定义为完成新任务所需要的增量数据条数,大概在 100 条这个量级。 从商业和产品价值的角度来看,在当前阶段,具身智能最有价值的是实现对象泛化和动作泛化。在当前阶段,实现本体泛化在商业上的重要性没那么高。 以下是现场分享实录,经 Founder Park 整理后发布。 01 具身智能是不能有短板的游戏 具身智能并非一个「纯软件」的赛道,它是一个软硬件深度结合的领域。因此,我们称之为一个「没有短板的游戏」,其具体表现就是我们所说的「from motor to model」(从电机到模型)。 具身智能是一个从电机、到整机、再到数据和模型等一系列要素的整合。如果我们做一个对比,会发现大语言模型有一个显著特点,那就是「模型即产品」,模型本身直接决定了产品的体验。而且,在训练大语言模型时,所需要的数据很多都可以在互联网上公开获取,因为人类在过去二十多年里积累了海量的多模态数据。随着模型能力的提升,应用层产品也很快就进入了爆发期。 然而,当我们回到具身智能领域,会发现智能进展比较缓慢。我认为,背后的根本原因在于具身智能所需要的高质量数据是缺失的。而数据缺失,又是因为缺少高质量、合适的本体,也就是我们常说的「整机」。再往上看,会发现整个供应链都是缺乏且不成熟的。所以说,从供应链的零部件、电机,到整机,再到遥操作和数据,具身智能所需要的各项前期工作都还没有完全成熟。 这是具身智能与大语言模型在发展上的一个显著区别。这也印证了刚刚所讲的,「整机」加上「智能」才构成一个完整的产品。只有模型和算法,并不能构成一个可以为用户提供价值的「商品」。因此,做具身智能的核心是「整机+智能」的定位。 在这个定位之下,未来两到三年,具身智能应该为客户和世界提供什么样的产品形态? 我认为,中间这一列所展示的「整机+预训练模型+后训练工具」的组合,是一种概率很高的产品形态。这里的后训练工具,可以理解为是一套遥操作设备,用来遥控机器人完成特定领域或场景下的各种任务。 那么,它带给客户的产品体验应该是什么样的?就像培训一位新员工一样,我们用遥操作设备在任务场景里采集几条到几十条数据,用这些数据去微调(fine-tune)我们的预训练模型,然后将这个模型部署到整机上,这台整机就能完成我们刚才所提到的那些场景化任务了。 整个体验就像培训一位新员工。当这样的产品形态逐渐成熟之后,下游的应用一定会形成一个巨大的生态。在这个生态中,我们星海图始终坚持,自己既是开发者,也致力于赋能其他开发者,共同推动。所以,我们在业务上一直采取「To B, To D」的模式:面向企业(To Business)客户,我们提供「整机+智能」的解决方案;面向开发者(To Developer),我们则将内部使用的所有工具链都开放出来。 02 有「正确的本体」,才能生产「好数据」 要做好这一切,背后所需要的供给,是从电机(motor)、到整机、再到遥操作的整个系统、数据管线,最后到模型这五个层面的全面成熟。只有这五层都准备好了,下游的应用才有可能繁荣起来。回到当下这个时间点,具身智能发展过程中最主要的问题,我们认为还是数据问题。其实许多算法要素已经具备,而「算法+数据=模型」,现在最大的瓶颈就在于数据;再往前追溯,根源在于没有一个在「正确本体」上产生的数据。 我们回顾一下 ImageNet 这件事。ImageNet 的出现已经是十几年前了,正是因为计算机视觉领域有了 ImageNet 这样大规模、高质量的数据集,才催生了后续我们看到的 AlexNet、VGG 等一系列代表性工作,也开启了深度学习的第一次崛起。 我觉得,这个过程给整个业界带来的最大经验(lesson learn)就是:要想有好的算法和模型,前提是要有好的数据。先有高质量数据,再有高质量模型。这一点,无论是大语言模型还是自动驾驶领域,我们都看到了类似的规律。而具身智能领域,我们看到一个特殊之处,那就是它所需要的数据并不是天然存在的。 具身智能发展所需的数据,不是互联网上的图片、文字、视频这类相对低质量的数据,而是更需要「本体与物理世界交互」的数据,比如操作一个物体、开门、关门、抓取、放置等。这就像一个婴儿出生后,通过与物理世界不断地交互、摸索,逐渐积累经验,在这个过程中积累下来的,才是我们所说的具身智能需要的高质量数据。而要做到这一点,就需要一个标准的硬件,所以我们强调,首先要有一个「正确的本体」,一个标准的本体。 只有在这个本体之上,我们才能去积累与物理世界交互的数据,然后定义任务、定义基准(Benchmark),后续模型的发展才能进入一个相对高速的时期。我们就是遵循着这样的思路,从创业之初,着手去定义我们的产品。因为我们的重点是做双臂操作,在具身智能领域,像宇树科技可能更侧重于双足的运动控制和全身运动控制,而我们则聚焦于让机器人能「干活」,也就是双臂操作。 在双臂操作领域,我们定义本体和整机时,一个很核心的理念就是「智能定义本体」。 那么,双臂操作究竟需要什么样的本体呢?可以给大家举一些例子,这里面其实有很多从智能本身出发,对硬件提出的需求。比如,我们的双臂系统采用的是低减速比电机和行星减速器,这与传统采用谐波减速器的机械臂系统有很大区别。我们的设计更能满足像人一样的高动态性能,更符合模仿学习的需求。 在双臂系统上,我们追求低减速比、高动态、大负载。很多时候,为了让算法达到更好的效果,我们甚至需要直接修改底层的驱动(FOC)层。在躯干部分,我们则采用了高减速比的电机,并且都带有抱闸。因为我们观察到,在作业过程中,一旦发生紧急掉电等情况,双足机器人可能会直接瘫倒在地,这种情况是我们不希望发生的。所以,我们躯干的四个电机都采用了高减速比设计,使其本身就具备较好的支撑性,同时还配有抱闸,确保在紧急断电时机器人不会倒下,而是能撑在原地。 还是机器人的底盘部分。人类双腿有一个很重要的作用,就是能够全向移动。比如,我横着跨一步,或者斜着往前走一步,都无需转身。这种跨步横移、全向移动的能力,对于上半身的操作而言至关重要。反观传统的轮式底盘,比如 AGV,大多采用两轮差速驱动,需要先转身,再前进一步,然后再转回来,这整个过程与双臂操作的配合是脱节的。因此,我们首创了六电机、三舵轮的全向移动底盘技术。 这就是我们围绕双臂操作的智能需求,重新去定义的整机本体。现在已经有了 R1、R1 Pro 和 R1 Lite 三款产品,特别是 R1 Lite 是我们和 Physical Intelligence 团队联合定义的,他们也在我们平台上开发了 Π-0.5 模型。 我再强调下刚才的观点:要想有好的数据,必须先有正确的本体。 03 要先实现对象和动作泛化, 场景和本体泛化当前没那么重要 有了本体之后,我们到底需要什么样的数据?现在很多具身智能领域得公司在获取数据时,第一反应是去建一个自采场。但我们认为,预训练所需要的是开放场景下的真实数据。因此,我们没有大规模地去构建采集场,而是选择直接进入真实世界环境。 目前,我们有几十台机器人,部署在酒店、公园、食堂、商场等真实场景中采集数据。要做好这件事并不容易,因为它涉及到大量的工具、数据生产运营和工艺问题。我们是把数据采集当作一项生产活动来看待的。 既然是生产活动,如何完成一次遥操作?这里面涉及工艺问题,就像如何完成一次装配、组装一个零部件一样,有许多工艺细节需要优化。工艺问题解决之后,就是如何运营整个团队,以及需要什么样的工具链来支撑我们的数据生产活动。 到今年第三季度,我们将累计获得一万小时、由我们的本体与物理世界交互产生的数据。这些数据覆盖的操作对象将超过 1000 个,任务数超过 300 个,这些构成了我们进行具身智能基础模型预训练最重要的数据基础。并且,所有的数据都将围绕着两个在我们看来是「正确」的本体 R1 Pro 和 R1 Lite 来采集,我们也会有步骤地将这些数据释放并开源给整个社区。 有了本体和数据之后,就是智能的部分了。在基础模型训练方面,我们坚持两个核心原则:一是端到端,二是真机数据为主。 先解释这「两个端」分别是什么:一端是视觉(Vision)和指令输入(Language),这个指令可以是自然语言,也可以是结构化的编码指令;另一端是 Action,也就是机器人最终的动作输出。我们希望模型是基于这种完整闭环的输入输出来训练的。整体的训练架构,其实和我们看到的其他领域的基础模型有一些相似——也是「预训练 + 后训练」的结构。 特别解释一下,对于具身智能而言,预训练到底是在做什么?预训练是在解决「本体与物理世界交互的基本法则」这个问题。打个比方,这更像是一个婴儿从出生到三五岁,再到上小学的这个过程。他不断地与物理世界接触、碰撞、摸索,学习如何与世界交互,如何支配自己的身体。这就是预训练。 而后训练,则更像是在一个特定的岗位上,去执行特定的任务。这就是我们理解的,具身智能中预训练和后训练之间的区别与关系。 具体到预训练的模型结构,我们采用的是一个「快慢结合」的模型结构,慢的部分我们叫做「慢思考」。这种「快慢结构」是由我们星海图的联合创始人赵行博士在自动驾驶驾驶领域首创的,后来这一结构也被用在具身智能领域。 「慢思考」主要负责进行逻辑层面的思考、任务拆解以及与人交互,这部分工作更多地可以由多模态大语言模型(VLM)来完成。比如,谷歌发布的 Gemini Robotics 模型,就是在 VLM 和「慢思考」领域一项非常重要的工作。 「快执行」这一部分,是 VLA 或具身智能公司目前真正需要聚焦解决的问题。它相当于一个实时的执行闭环、反馈控制以及感知识别等,这些功能都被整合在「快执行」模型中。「快执行」模型的参数量一般在 10 亿量级,而慢思考的 VLM 的参数量级可能是百亿甚至更大。也正是因为这样的模型架构,在终端部署时,会出现云、厂、端协同工作的问题,同时也存在很多工程优化方面的问题。 后训练方面,更多是围绕特定任务。比如,「拿起一个杯子倒一杯水」。围绕这样的任务,我们可能会收集 100 到 200 条数据,每一条数据就是对这个任务的一次完整执行。 经过这一系列的预训练和后训练后,我们期望看到的效果是:在垂直场景的简单任务上实现零样本泛化,在复杂任务上实现少样本泛化。这里的「少样本」,我们定义为完成新任务所需要的增量数据条数,大概在 100 条这个量级。这就是我们看到的,具身智能基础模型在第一阶段会呈现出的一个范式。 预训练到底是怎么做的,给大家展示一些案例。预训练并不局限于特定的任务。我们现在的做法是,当机器人到达一个新场景后,我们会观察人类在这个场景里会做什么,甚至利用大语言模型去定义各种各样的任务。有了这些任务之后,组织我们的数据生产团队,通过遥操作去采集数据。比如,清理桌面、整理台面,甚至把一件衣服挂到柜子里。下图右下角这个是在开一扇窗户。此外,还包括拿取和放置物品、给一个假人戴上毛线帽、打开冰箱门并放入东西,甚至使用一些工具来完成工作等等。 这就是我们所说的预训练阶段,本质就是让本体(整机)在尽可能多的场景中,围绕尽可能多的任务,与物理世界进行交互、理解和学习。在这个阶段,我们需要的数据量级是几千到上万小时的交互数据。 最后,我想谈一个非常重要的问题,这也是具身智能在发展过程中,技术与商业逐渐结合的体现。从技术的角度来说,具身智能的「智能」部分,核心是要解决泛化问题。那么,具身智能的泛化究竟是什么?归纳为「四个泛化」:对象泛化、动作泛化、场景泛化和本体泛化。这四个泛化组合在一起,构成了具身智能在技术上的终局形态 「对象泛化」指的是,同样是抓取和放置的动作,我今天抓一个瓶子,明天可以抓一个杯子,后天可能换成一个手机或某个小物件;「动作泛化」指的是,对于同一个杯子,我今天可以把它拿起来放到某个位置,明天我可能要用它倒水,后天我可能需要把杯盖拧开;「场景泛化」是指,同样一个任务,今天我是在这张桌面上完成,明天换了另一张桌面、另一个背景,它依然能够完成;最后是「本体泛化」,即我训练出的模型,不仅可以在一种类型的本体上工作,也可以在另一种类型的本体上运行。这四个方向如果都做到了,具身智能的智能问题就算是被解决了。但从另一个角度,即从商业和产品价值的角度来看,在当前阶段,最有价值的是实现对象泛化和动作泛化。 为什么场景泛化和本体泛化在技术上很重要,但在商业上却可能没那么重要?因为当我们审视具身智能真正的工作场景时,会发现有相当比例的场景是「工站式」的,即在某种相对固定的工位或场景里,提供序列化的工作和服务。在这种情况下,场景泛化的挑战性远没有自动驾驶那么强。自动驾驶的车辆需要在马路上到处跑,场景泛化的需求和难度都要大得多。 而本体泛化,正如我刚才所说,具身智能的产品形态是「整机+智能」,而不是纯模型。既然产品形态是「整机+智能」,那么本体泛化在其发展的第一个阶段,商业上的重要性没那么高。所以我认为,在当前阶段,具身智能应优先解决对象泛化和动作泛化。这两个问题一旦解决,就有相当比例的应用场景可以被开发出来,其商业价值也能够得以释放。 04 市场回归理性,商业闭环的核心在于开发者 最后一部分,谈谈具身智能的应用和商业化的问题。在我们公司内部,特别重视开发者群体,具身智能商业闭环的核心变量在于开发者群体。 背后的逻辑是,具身智能领域要繁荣,前提一定是应用繁荣,因为应用才能创造价值。而应用繁荣的前提,是有一群充满活力、非常聪明的开发者在创造各种各样的应用。在这个过程中,开发者们需要支持和帮助。我们自己走过这条路,深切感受到具身智能的链条非常长,从供应链、电机制造、整机、遥操作到数据等等,把这些前期工作都做完,我们才能谈论做模型、做应用。但我们不能要求每一位开发者都从头把这些工作完整地做一遍。所以,我们的一个理念是:星海图自己是开发者,我们面向场景去做应用;同时,我们也尽可能地将我们的工具和整机提供出来,帮助全球的开发者与我们一起,共同把这件事做成。 星海图目前在全球有 50 多个客户和合作伙伴,我们正逐渐构建一个集本体、数据、模型、应用于一体的商业循环。 在今年 8 月份举办的 WRC(世界机器人大会)上,我们将开源我们的第一个具身基础模型,是我刚才介绍的一整套本体、数据管线和训练技术打造出来的模型产品。接着 9 月份,在 CoRL(Conference on Robot Learning)上,我们也将进一步开放我们的数据集与完整的训练模型。这两次重要的开源发布,我们希望能够对具身智能的开发应用起到激活的作用。 具身智能现在已经走到了上半场的结尾,我们即将迎来下半场。下半场一定是「应用为王」。 2026 年将是具身智能应用的「元年」。 从供给侧来看,机器人本体正在逐渐成熟和稳定。其次,模型开始具备初步的泛化能力。这里有几个定量的指标,首先是精度,它能完成什么精度的动作?目前还无法达到毫米级,但厘米级的操作精度是可以实现的;其次是速度,大约能达到人类执行速度的 70%到 80%;最后是泛化性,我们评价泛化性的指标是「学习一个新任务需要多少样本」,现在的水平大概在百条这个量级。 当这三个指标构成的智能供给形成之后,也就是基础模型成熟后,下游的应用将呈现出爆发式增长的状态。同时,还有一个关键因素,具身智能的开发者群体正在全球范围内快速增长。 从需求侧看,过去两年基本上是全民探索具身智能可用场景的阶段。大大小小的企业,所有潜在的用人单位,都在思考如何用具身智能来优化自己的工作流程。许多应用场景正逐渐变得清晰。同时,整个市场的预期也回归到了一个比较理性的状态。可能两年前,当特斯拉刚发布一些人形机器人的演示视频时,大家想的是人形机器人马上就要进入工厂,把所有工人都替换掉。但现在我们看到,大家回归了理性,更多地是着眼于一些局部环节,先从工站式的、以及面向人的服务型环节入手,先把商业模型「跑通」,再逐渐走向规模化量产和应用。 基于以上判断,我认为,2026 年将是具身智能的下半场,而下半场的核心就是应用。应用的供需两侧都在走向成熟。
AI法律创企融资21亿,4个月估值涨近1倍,OpenAI和红杉连续两轮押注
编译 | 江宇 编辑 | 漠影 智东西AI前瞻6月24日消息,昨日,法律大模型初创公司Harvey宣布完成3亿美元E轮融资(约合人民币21亿元),最新估值达到50亿美元(约合人民币350亿元)。此轮由Kleiner Perkins(凯鹏华盈,KPCB)与Coatue Management(蔻图资本)共同领投。 其参投方还包括红杉资本、 GV(原Google Ventures)、DST Global(数字天空科技)、Conviction、Elad Gil(硅谷著名天使投资人)、OpenAI Startup Fund(OpenAI创业基金)、Elemental、SV Angel、Kris Fredrickson(Coatue合伙人)和REV(RELX Group投资部门,LexisNexis母公司)。 据外媒报道,这笔融资距离Harvey上一轮D轮仅过去四个月。2025年2月,Harvey宣布完成由红杉资本领投的3亿美元D轮融资(约合人民币21亿元),估值为30亿美元(约合人民币210亿元),短期内估值涨幅接近67%。 一、三年成长为53国落地、337家客户,Harvey定位为“法律行业的合伙人” Harvey创立于2022年,总部位于纽约曼哈顿Park Avenue,由律师出身的Winston Weinberg联合创立。 在其官方定义中,Harvey不是替代律师的工具,而是作为“律师的AI合作伙伴”存在。 目前,该公司员工总数已超340人,计划通过此次融资将人数扩大一倍,以扩大其全球业务,并拓展到税务会计等新的专业服务领域。虽然Harvey全球员工中只有约18%是执业律师,但其纽约总部集中了大量法律从业背景人才。 CEO Winston Weinberg称,正是这部分人员在产品设计与客户沟通中发挥关键作用,帮助Harvey与律师行业更紧密地融合。Harvey目前服务的客户包括: 美国顶级律所Paul, Weiss, Rifkind, Wharton & Garrison LLP(保罗·韦斯律所) 私募股权公司KKR & Co. Inc. 四大会计师事务所之一PwC(PricewaterhouseCoopers,普华永道) 二、法律流程从“几周缩成几分钟”,Harvey年化营收已达7500万美元 Harvey的技术架构建立在主流大型语言模型之上,包括OpenAI GPT-4和Anthropic Claude。 同时,该公司在法律场景中构建了专属工作流,并支持客户将律所专有数据导入Harvey平台进行私域微调(fine-tuning),所有上传内容均不被平台或第三方用于训练其他模型。 在隐私保护方面,Harvey方面称,其平台符合行业安全标准,定期进行外部安全检查,目前公司内部超过10%的员工为信息安全相关岗位。 Harvey业务拓展负责人Juan Pablo Sandoval Celis称,已有客户将原本需数周完成的法律工作压缩至几分钟,大幅提升办案效率。 据路透社5月报道,Harvey年初的年化营收约为5000万美元(约合人民币3.5亿元),到了2025年4月已增长至7500万美元(约合人民币5.25亿元),增速显著。 关于律所是否会因AI“减少可计费工时”,CEO Weinberg表示:“部分业务确实开始转向固定费用计费(fixed fee),但高价值专业事务仍将维持小时计费(billable hours)机制。而AI带来的效率,反而可能提升服务能力,吸引更多客户。” 他强调:“在未来,不使用AI工具的律所,或将难以为大型企业客户提供支持。” 三、Harvey估值领先,挑战Ironclad和Clio等老牌玩家 目前,Harvey已成为AI法律领域估值最高的创业公司,其主要竞争者包括: Ironclad:成立于2014年的法律科技公司,主打合同流程自动化(合同起草、审批、归档等环节),被称为“合同生命周期管理平台”(Contract Lifecycle Management, CLM)。 Clio:律所管理软件平台,成立于2008年,2024年F轮融资估值30亿美元(约合人民币210亿元)。 早在OpenAI推出其首个版本ChatGPT后,就有一批创业者试图打造AI律师,这些公司大多未能成功。但据其投资者介绍,Harvey发展良好。 其投资方Kleiner Perkins合伙人Ilya Fushman称,“Harvey的执行表现远超预期,是垂直AI公司中典型的样板。从B轮起我们就持续支持,C轮和D轮也有参与。这家公司展现了一个AI企业如何精准进入行业、形成产品闭环并快速商业化。” 结语:Harvey是突破,但仍需寻找更多可能 Harvey的成长打破了“AI律师难以落地”的旧共识,在短时间内实现客户数、营收和估值的快速跃升,也成为垂直AI公司中少数短期内多轮融资的案例。 对其他AI创业者来说,真正的挑战是如何在一个具体行业中,找到刚好适合AI介入的那类任务,并将其转化为可靠、可持续的产品。 Harvey的故事还在继续。但它留下的问题,已经值得被所有AI公司重新思考:下一代AI应用,不只是拼模型,而是理解谁在真正用它、为什么需要它。
当宾利决定与一级致癌物站在一起
2025 年汽车圈最荒诞的联名诞生了。 一方是代表着英国百年传承与顶尖工艺的超豪华汽车品牌宾利;另一方,则是中国槟榔品牌和成天下。 本月初,一场以「成功时刻,王者同行」为主题的发布会在广州塔下举行。流出的现场照片和 KOL 发布的宣传视频,呈现出一幅令人匪夷所思的图景:扮成中国古代帝王和英国女王的演员,共同为一款所谓的「和成天下宾利联名礼盒」站台。 其营销逻辑也颇为直白——将宾利代表的「女王御用座驾」与和成天下试图绑定的「千年帝王底蕴」强行关联,试图营造一种中西合璧的「顶级尊贵感」。 然而,这场营销大秀,不仅没有带来预想中的高端共鸣,反而在社交媒体上引发了巨大的错愕与争议。 一个以优雅与品位著称的百年超豪华品牌,与一个具有明确健康风险的消费品产生交集。这背后暴露的,或许已经不是简单的管理疏忽或营销失策,而是一种对自身品牌价值与社会责任的漠视。 当一个品牌开始用这样的方式来诠释「尊贵」时,问题可能已经不再是「它想做什么」,而是「它究竟怎么了」。 当宾利开始「称兄道弟」 这场令人匪夷所思的联名,其源头很可能指向了区域经销商为了迎合特定客户圈层、追求短期效益而策划的野路子营销。 但将板子完全打在经销商身上,显然无法为宾利开脱。恰恰相反,这更暴露了作为一个百年超豪华品牌,宾利在中国市场的品牌管理,可能已经出现了令人担忧的失控与真空。 对于一个视品牌为生命的顶级奢侈品而言,其品牌形象、价值内涵、以及与何种品牌产生关联,都应受到最严格、最精细的管控。品牌资产是其历经百年风雨沉淀下来的最宝贵的财富,每一次对外呈现,都应是对其价值的巩固与提升。 然而,我们看到的却是,宾利这块金字招牌被轻易地与一个具有巨大社会争议的快消品进行了捆绑。 这不禁让人发问:宾利中国对此是默许、是鼓励,还是毫不知情? 如果是前者,那便是一次极其危险的战略短视,为了迎合一小部分客户的喜好,不惜透支整个品牌在公众心中的形象。 如果是后者,那则暴露了其在渠道管理和品牌授权上存在着灾难性的漏洞。 无论哪种可能,都指向了一种对品牌羽毛不够爱惜的傲慢,或是一种对中国市场复杂性惊人的无知。 还记得何小鹏常常把「术」与「道」挂在嘴边,今天这场闹剧,同样可以用这两个字来总结: 如果说,管理上的失控是「术」层面的问题,那么这次联名在内容和调性上的错位,则是「道」层面的彻底崩塌,从根本上,庸俗化乃至矮化了「宾利」二字所代表的豪华内涵。 我们可以看看这次联名请来的网红博主@留几手 在社交平台上所发的内容: 和成天下+宾利=男人顶级的快乐。「社交硬通货」一包和成天下放到桌子上所有人都能跟你称兄道弟,谁不想感受这高端口感?如果再见到真人秀的那几个好大哥,我一定给他们每人整一盒。 「社交硬通货」、「称兄道弟」。 留几手口中的「社交价值」,是一种非常草根、甚至带有些许江湖气的圈层文化。它所构建的,是一种基于特定消费品的、快速拉近关系的市井社交场景。 而宾利的品牌精神是什么?是英国克鲁郡工厂里百年匠人的精湛手工艺,是女王授勋的皇室荣耀,是一种无需言说、自带气场的优雅与从容,是基于社会成就、艺术品味和文化修养的顶级圈层认同。 将宾利强行拉入到「称兄道弟」的语境中,无异于让一位身着高级定制西服的贵族,去路边摊和人「划拳猜码」。 这不仅滑稽,更是对品牌精神的消解。所谓的「男人顶级的快乐」,也被这次联名粗暴地定义为驾驶宾利与咀嚼槟榔的简单叠加。 而更令人担忧的是,这种将超豪华品牌与「帝王文化」、「高端社交」进行强行捆绑的营销叙事,似乎正在成为一种可被复制的套路。 就在几个月前,连劳斯莱斯(长沙)也曾与同一家槟榔品牌联合主办过类似的「槟榔文化品鉴宴」。 在那场活动中,我们同样看到了所谓的「千年帝王文化」,以及试图将劳斯莱斯车主圈层与槟榔高端消费群体进行「价值对等」的努力。 当这种本应独一无二的超豪华品牌精神,可以被轻易地套用在不同品牌的同一种营销模板上时,其价值的稀释和品牌的工具化,也就在所难免了。 在这样的套路里,超豪华品牌所代表的对极致工程美学、对顶级驾乘体验、对一种从容不迫的生活方式的追求,被完全无视。取而代之的,是一种快餐式的、仅追求一时间的生理与心理刺激的价值表达。 这完全是对品牌内涵的背叛。 对于和成天下的目标用户而言,劳斯莱斯和宾利略显遥远;而对于这些超豪华品牌的核心用户及潜在用户而言,这次联名只会让他们感到自己的品味和选择「被污染」了。 这并非品牌建设,而是不折不扣的品牌侵蚀。 针对这次「联名」活动是否为官方授权,以及品牌方对此事的态度等问题,董车会已向宾利中国官方进行问询,但截至发稿未获回应。 切勿在「健康」的红线上开倒车 这场闹剧背后,有一个不容忽视的宏观背景: 由于槟榔作为一级致癌物已是科学界的共识,其对国民健康构成的潜在威胁也日益受到重视。为此,国家广播电视总局早已在 2021 年就发布通知,明确要求「停止利用广播电视和网络视听节目宣传推销槟榔及其制品」。 这个国家层面的禁令,虽然没有完全覆盖所有营销形式,但它清晰地表明了官方对于限制槟榔制品推广、保障国民健康的明确态度。 在这样的大背景下,宾利作为一个具有巨大社会影响力的国际品牌,理应具备更高的媒介素养和对公共议题的敏感性。 然而,它(或其经销商)却依然选择在 2025 年的今天,与槟榔品牌在广州塔下进行如此高调的联名营销。这种打擦边球的行为,本身就是对中国市场主流价值观和公共健康导向的一次公然挑战。 这让外界有充分的理由质疑,宾利的在华团队,是否真正理解他们所处的这片市场;其决策体系中,社会责任的权重又究竟排在第几位。 而将视线从中国拉向全球,从当下回溯历史,宾利的这次行为则更像是一次令人费解的「历史倒车」。 在商业伦理的演进史中,全球所有顶级的、标榜健康与生活方式的品牌,与具有明确健康风险的成瘾性消费品进行切割,是过去二十年间一条不可逆转的主线。 最经典的案例,莫过于 F1 世界一级方程式锦标赛与烟草广告那长达数十年的分手史。 曾几何时,万宝路的红白涂装、骆驼的黄色标志,是 F1 赛场上最醒目的风景,烟草巨头们用巨额赞助,将自己的品牌与速度、激情、胜利和男性魅力深度捆绑。法拉利车队的红色赛车,在舒马赫的驾驭下,车身上那抹红白相间的万宝路标志,成为了一个时代的集体记忆。 但随着全球范围内对烟草危害的认识加深,以及各国禁烟法案的日益严苛,这场「蜜月」走到了尽头。 以 2005 年欧盟全面禁止烟草广告为转折点,国际汽联(FIA)也逐步收紧规则,最终让直接的烟草品牌 logo 在全球绝大多数 F1 赛站上彻底消失。 即便如此,烟草公司也曾试图进行最后的挣扎。法拉利车队沿用多年的条形码涂装,便是万宝路母公司菲利普莫里斯一次极具创意的擦边球营销,试图在高速运动中,用视觉暂留效应唤醒观众对万宝路 logo 的记忆。 然而,这种做法很快就因其明显的暗示性而遭到广泛批评和多国政府的调查,最终也被迫移除。 这段历史清晰地表明,与具有健康风险的成瘾性产品划清界限,早已成为全球顶级品牌维护自身形象和商业伦理的共识。 我们很难理解,当 F1 赛场上的万宝路 logo 早已成为历史陈迹时,宾利为何会在今天,选择与一个同样具有一级致癌物风险、且在中国已被明令限制宣传的槟榔品牌,进行如此高调的联名。 这不仅是对市场规则的无视,更是对全球品牌发展历史教训的一次公然逆行。 可以说,宾利的这次「槟榔局」,是一次在品牌管理、营销品味、社会责任、历史认知等多个层面都全面翻车的教科书级案例。 成功的前提不仅是理解市场,更是尊重市场。这种尊重,体现在对本地法律法规、社会主流价值观和文化发展趋势的敬畏之心。 爱惜自己的品牌羽毛,永远比一次出位的、短期的营销噱头要重要得多。
鸿蒙六年,星火燎原
在很长一段时间里,华为都信奉并拥抱全球化分工: 要通过全球化分工协作,用来自各个公司的最好的零部件整合成最好的产品献给人类。 在这背后,是一种开放、协作、共赢的产业理念,也是旧日世界中人们孜孜以求的理想:要通过合作为人类创造美好未来。 然而,2019 年,外部环境的激烈变化,让这一愿景化为泡影,同时将一个终极问题推到华为面前:如何从零开始,构建一个开放、自主、且能自我繁荣的科技生态? 这不仅是华为一家的挑战,也是整个科技产业都鲜有先例的难题。 正是在这样的背景下,2019 年 8 月,余承东在华为开发者大会上正式发布鸿蒙 1.0 系统,给出了这个问题的初步答案。 尽管诞生于压力之下,华为却明确向外界传达出,鸿蒙不只是作为应对危机的「备胎」而诞生,而是一个面向万物互联全场景时代的未来构想。它因危机而生,却不止步于解决危机。 这是一个关于「生态构建」的真实样本。它的每一步,都解答着从「创世」到「繁荣」之间不同阶段的难题。 (零)长夜 未雨绸缪 构建一个生态,首先需要一个足够坚实的「立意」,亦即回答「我们为何要出发?」的问题。 厘清这一点,需要回到 13 年前,鸿蒙最初的起点。 早在 2011 年,华为就建立了聚焦「n+2」技术(n 代表当前市场成熟技术,+2 代表对未来两代技术的前沿探索)的「2012 实验室」。 在次年的会议上,任正非向 2012 实验室专家坦言: 我们做操作系统,和做高端芯片是一样的道理,主要是让别人允许我们用。如果断了我们的粮食,备份系统要能用得上。 2016 年,华为经内部评估认为,高度依赖外部操作系统存在业务全面停摆风险,立刻作出决断:立项研发「鸿蒙内核」。为此,华为还力邀操作系统领域领军人物陈海波教授担纲带领研发。 从一开始,鸿蒙就肩负着两方面的使命:一是「为万一做准备」的远虑,二是尝试解决日后必然到来的多设备场景下「系统碎片化」这一行业顽疾。在鸿蒙发布前漫长的「上半场」里,华为核心技术团队就已在内部秘密攻克「微内核」「分布式」等根技术,为后来者构建技术基座。 微内核就像是乐高的基座,我们可以在这个基座上,根据不同需求和应用场景搭建出各种操作系统。搭建手机可能需要更多积木和更精细的设计,而搭建手表则相对简单,这种灵活性和可扩展性正是微内核的魅力所在。 ——华为操作系统首席科学家 陈海波 七年打磨的耐心,源于对基础科学的深刻认知。华为每年投入的巨额研究经费中,有相当一部分用于不作短期考核的基础理论研究。因为「没有理论就没有突破」,只有提前投入基础研究,才能在需要时拥有选择的底气。 对前沿领域进行长期投入,本身就是一种更深沉的远见。 (一)破晓 生而不同 2019 年 8 月 9 日,鸿蒙 1.0 正式亮相,为维持了十余年的移动操作系统格局,带来了新的可能性。它以「一次开发,多端部署」的分布式理念和 1+8+N 的长远战略,像一条开阔的大江,迅速吸引众多开发者百川汇流,形成了万物奔赴的初始势头。 越是长远的愿景,越需要眼前的投入。为了托举这一趋势,华为迅速加强「筑基」工作。 HDC 2019 上伴随鸿蒙 1.0 系统亮相的,是方舟编译器等底层工具;到了 HDC 2020,鸿蒙 2.0 发布,DevEco Studio 一站式开发平台同步登场,为开发者入驻铺平了道路。 严格来说,萌芽期的鸿蒙尚不是完全独立自主的系统,而是采取了「筑巢引凤」与「借船出海」双轨并行的策略:其核心基础能力,以「开源鸿蒙」(OpenHarmony)的形式,自 2020 年起便交由开放原子开源基金会管理,为构建开放的产业生态埋下伏笔;而在面向消费者的版本中,则通过兼容 Android 应用,在现实的生态高墙下争取时间和空间。 兼容是为了生存,创新才是目的。如今回头看来,这种务实的考量,与鸿蒙的崭新特性和开源根基相结合,共同为开发者们提供了一片充满机遇的蓝海。正如余承东在 HDC 2019 主题演讲中所说: 鸿蒙是面向未来的操作系统。 到 2021 年,鸿蒙设备数已突破 1.5 亿台,最早的「拓荒者」们,此刻拥有了一片可以验证自己想法的土地。 (二)回响 万物流转 一个全新生态若想留住「居民」并吸引更多人入驻,就必须提供「旧世界」没有的独特价值。建立最初的基础后,鸿蒙进入了打造「体验差异化」的关键阶段。 在鸿蒙 3.0 和 4.0 时代,其「分布式」承诺开始大规模兑现。以「超级终端」和「万能卡片」为代表,所有设备和服务的体验都被全面刷新。 通勤路上用手机播放的视频,回家后只需将手机图标轻轻一拉,便无缝流转到电脑大屏上接续播放,声音则自动切换到书房的音箱……这不只是设备的切换,更是场景的延伸。创新体验,是新生态最坚固的护城河。 为了帮助开发者创造这种「无界体验」,鸿蒙同时革新了开发范式。其核心,就是通过一系列技术升级,将复杂的分布式能力,转化为开发者触手可及的简洁工具。 比如,鸿蒙 3.0 带来了更优化的分布式协同能力,而鸿蒙开发语言 ArkTS 被开发者比作「变形金刚」,能高效地进行模块化组装并实现跨设备自动适配,大幅简化了跨端开发流程,催生了让两台手机组成一个立体双声道音响等新奇玩法。 与此同时,开源鸿蒙项目也在持续推进,吸引了唐佐林、连志安等众多技术先锋成为早期贡献者。甚至有开发者与困难「死磕到底」,自研开源算法以攻克官方尚未完善的分布式难题 。一个繁荣的开发者社区正逐渐成型。 (三)向阳 千帆竞发 故事的转折点,往往由一个标志性事件开启。 2023 年夏季,在外界普遍认为华为终端业务仍严重受限时,Mate 60 系列携「先锋计划」强势回归,引发了全网关注与抢购潮。硬件的「破局」,为软件生态开辟新赛道注入了最强的底气。 随之而来的,是鸿蒙生态迈向新的台阶。 2023 年 9 月 25 日,华为宣布原生鸿蒙(HarmonyOS NEXT)蓄势待发,并为开发者带来了全新的 ArkUI 框架与 HarmonyOS SDK,原生应用就此全面启动。这意味着鸿蒙即将在技术上彻底告别 AOSP 代码,着力于构建体验自成一体的「原生生态」。 然而,构建原生生态,意味着必须直面那个「先有鸡还是先有蛋」的世界级难题:应该先提供足够丰富的应用来吸引用户,还是先发展足够庞大的用户以吸引开发者?鸿蒙选择了最艰难的道路——两者同步进行。 在用户侧,Mate 60 系列的亮眼表现迅速重振并扩大了华为终端用户基数,为开发者描绘了一幅清晰的市场版图:数以亿计活跃鸿蒙用户,都是原生鸿蒙应用未来潜在的消费者。这颗「定心丸」,足使开发者安心投身于原生应用开发之中。 而在开发侧,正如树木不再依赖浅层土壤,而是将根系扎向更深处汲取养分,「向阳而生」的鸿蒙也选择与众多开发者携手,将根系探至更深层的技术底座和更广阔的第三方生态。在鸿蒙生态千帆启航仪式上,余承东如此强调: 鸿蒙生态属于每一位开发者,我们坚信,满天星光终汇成璀璨星河,鸿蒙必将携手千万开发者走出一条全新的生态之路! 这是对整个生态的一次压力测试,也是一次信心的总投票。过去,Adobe 曾因 Mac 生态弱小而错过时机,后来不得不花费许多精力重新拥抱壮大后的 Mac 生态;今天,面对一个已占据中国市场可观份额的新平台,没有人敢于轻视。 到 2024 年 6 月,TOP 5000 应用均已启动鸿蒙原生开发,不乏有成熟应用团队组建十多人的专项组,在一个月内就完成了「抢滩登陆」。当足够多的开发者用行动投票时,一个生态的未来走向便不再是悬念,而是一种必然。 (四)日盛 原生繁荣 当原生鸿蒙发起第一批推送,「开箱测评」新系统一时成为热点,爱范儿也站在了体验第一线。正如我们所发现的,原生鸿蒙在图标、动效和人性化体验中细致入微的考究处理,让系统不仅肉眼可见地流畅,更带来了焕然一新的使用感受。 与此同时,「独立」后的生态,迎来了鸿蒙版应用的「寒武纪大爆发」。2024 年 10 月 22 日,鸿蒙 5.0 正式发布,有超过 15000 个应用和元服务上架,微信等国民级应用的补齐,更是标志着鸿蒙生态获得广泛认可。鸿蒙不再只是「活下来」,而是真正「独当一面」。 一个完全自主的操作系统,在短短 600 多天内,就完成了从技术构建到商业生态的全面布局,一步步走向世界领先,这是中国科技史上浓墨重彩的一笔。 原生鸿蒙带来的优势,远不止流畅、安全这些基础体验。得益于操作系统的包容、多变,它带来的是一系列内容形态和产品形态上的创新。 第一条创新路径,是在热门赛道中探索极致。如业界首款阔折屏手机 Pura X 特殊的屏幕比例,考验的是鸿蒙对前沿硬件形态快速适配与深度优化的能力。 另一条路则更为艰难,也更显决心:推出鸿蒙电脑,进入早已死水微澜的个人电脑市场。这一步看似「吃力不讨好」,却是鸿蒙为「全场景而生」理念的自然延伸,它让存量庞大的个人电脑用户,得以接触应用接续、手眼同行等全新可能。 无怪乎,在鸿蒙电脑的发布会上,余承东会发出感慨: 国产软件生态起步晚,基础弱。多年来,在电脑操作系统领域,Windows 和 macOS 形成了强大的壁垒,但是我们坚持做难而正确的事情。鸿蒙电脑,给世界多一种选择! 难而正确,这正是对鸿蒙系统多年发展历程最准确的写照。从对基础科学的多年投入开始,到稳扎稳打构建原生生态,华为与开发者们完成了最艰难的部分——将一个面向未来的构想,打造成触手可及的现实。 而这条路要想抵达最终的繁荣,正需要每一位终端用户的参与来补全最后一环。操作系统生态本质上是「用出来」的,用户每一次点击、每一次反馈,都在验证和成就这条「难而正确」的道路。 (五)星火 星星之火 旧石筑新楼,古木生新火。 刚刚结束的 HDC 2025 上,鸿蒙 6.0 Beta 版本正式发布,标志着自 2019 年首次亮相以来,鸿蒙精准保持着一年一个大版本的迭代节奏。 随着生态逐渐丰满,鸿蒙的用户体验也有了质的飞跃,余承东将用户体验鸿蒙的过程比喻为「微笑曲线」,在体验鸿蒙的过程中,用户固然要付出一定的学习成本,但鸿蒙丝滑流畅的功能特性,也创造了新的用户体验,最终是「越用越喜欢」。 这是惊人的更新迭代速度,更是为无数开发者与生态伙伴提前「铺路」的坚定承诺。 当节奏已定,我们得以回望这段从「鸿蒙初开」到「千帆竞发」的宏伟旅程,一个问题也随之浮现:是什么力量推动了鸿蒙的蜕变? 种种线索,都指向同一个温暖的词语:人。 诚然,技术和战略构建了生态的骨架,但真正让其充满活力的,是数以百万计的开发者所构成的温暖社群。在一个从零开始的新生态里,互助不仅是一种美德,更是一种人类本能。 正是在这种环境下,一个互相支持、彼此成就的社区得以形成:这里有像大学教师刘玥一样,数年如一日埋头撰写教程与书籍 ,甘当技术「布道者」的知识贡献者;有像康逍鹤一样,在质疑声中坚持组织线下活动 ,为后来者铺路的「社区组织者」;还有在校园中建立技术社团、瞄准未来的「年轻力量」。 鸿蒙初开,他们就是最早的星火。 华为通过历时十年、投入超万亿研发、集结上万名工程师的决心与毅力定义了星空,但亲手点亮了每一颗星的,是一个个开发者。从独立的应用,到相互连接形成不同领域的「星座」,再到今天最终汇聚成璀璨「星河」,当百万开发者的微光齐齐闪烁,便汇成了一个生态对未来最响亮的回应。 鸿蒙的未来,值得期待。
这台全世界最好修的笔记本电脑,是我今年最喜欢的美丽小废物
6000 块,可能是笔记本电脑价格的甜蜜点—— 主办公可以选联想的 ThinkBook 16;打游戏可以考虑带独显的机械革命蛟龙 16;更别提,国补后的 MacBook Air M4,简直不能更香…… 如果同样的预算,却只能买到搭载落后几年的 i3 处理器、8GB RAM 小内存,还没有独立显卡的 12 英寸笔记本——恐怕大多数人都会觉得亏爆了。 但如果:这是一台每个零件都可以让你亲手组装,就像乐高一样过瘾,装完了让你满足感爆棚的笔记本电脑呢? 这并不是什么异想天开,而是已经问世的产品:Framework Laptop 12——世界上第一台可以「拼」起来的 2 合 1 笔记本电脑。 ▲ Laptop 12 展示图. 图片来自:Framework 一台像「乐高积木」的可拼装电脑 Framework 成立于 2020 年,他们专注于设计和制造模块化、高可维修度的笔记本电脑。在此之前,Framework 发布的模块化笔电 Laptop 13 和 16 都得到不错的反响,但与以往产品不同—— 今年 4 月 Framework 新发了全球首台可组装触屏 2 合 1 笔记本电脑——Laptop 12。 延续 Framework 以往一贯的风格,这款 2 合 1 可翻转折叠的笔记本电脑看起来有些玩具感,但核心完全不同:整台机器由用户亲手组装。主板、键盘、屏幕、接口、甚至底壳,全是独立模块。 在等待几周到几个月发货周期后,你收到的不是一台集成笔记本,而是一堆零件——仅需一把 Torx 螺丝刀,根据说明书插入选配好的 SSD 和 RAM,装上键盘和扩展卡插槽,启动电源键,便可以完成笔记本的安装。 没错,DIY 装机,再也不是台式 PC 的专属了! ▲ 左图为 Laptop 12 零件,右图为组装过程图. 图片来自:iFixit,Wired Laptop 12 的所有部件都配有二维码直达说明书,主板高亮的螺丝让你了解部件固定。弹簧针和无线缆的连接件,让组装变得更加轻松,无需费力便可轻松拆卸电池和安装 SSD。为此,极度严苛的 iFixit,都没忍住给出 10 分满分的评价: 这是一种罕见的,以可维修性为目标的用户体验设计。 YouTube 科技频道 JerryRigEverything 也做了实测:结果证明 Laptop 12 可拆卸组装的模块化设计让用户更易维修和升级,拥有最大程度的可定制性。 ▲ Laptop 12 散热器. 图片来自:iFixit 不止是部件的可修复设计,Laptop 12 在外观上也做了颠覆性的创新—— The Verge 提到,Laptop 12 是他见过最引人注目的电脑之一。粉蓝「泡泡糖」配色方案特别完美,柔和的色彩充满活力,灰色的键盘完美地融合了整体设计,左对齐的键帽标识让它带有一丝复古气息: 简直是塑料的奇迹! 塑料机身的出色设计,使其收获了不少好评。据 Engadget 报道,Laptop 12 是 Framework 首款完全采用塑料外壳的设备,ABS 和 TPU 双层的塑料包裹让它免于冲击和颠簸,更好的适用于教育和学习。 ▲ Laptop 12 外观及配色. 图片来自:Framework 不过,这台备受好评的 Laptop 12,也并非全是优点。 最大的诟病点就在于它配置偏低:第 13 代英特尔酷睿处理器、不够用的运行内存以及小功率的扬声器,使其与同价位产品相比并不突出。 但 Ars Technica 体验下来认为「又不是不能用」—— 10 小时的续航,对于普通的工作的学习来说完全没问题。 Reddit 也有拿到首批真机的用户提到:尽管配置不算出色,但我真的愿意为这种组装体验买单。 Framework 笔记本电脑能够轻松地进行组装,社区用户的全程参与功不可没。 特别有意思的一点是:由于得到了小朋友们的意见输入,这台电脑的组装体验得到了很大的优化。 早在 Laptop 12 研发初期,Framework 的设计师就让他们的孩子参与到整个产品的迭代过程当中,观察他们如何进行组装,并采纳他们的意见。让用户共创的理念贯穿始终,本身就是用户体验最核心的部分。 这也让 Laptop 12 让 Framework构建了一个独特的生态——产品形态的最终呈现,深深依赖于用户的智慧与热情。 ▲ Laptop 12 . 图片来自:The Verge 「可维修」是表象,「可创造」才是价值 尽管可维修度满分,但显然不是所有人都是冲着 Framework 电脑的耐用性买单的,而孱弱的硬件配置,显然也不是重点。 Framework Laptop 系列最大的价值,我想还是在于「可创造性」。 对于大部分人来说,拼装乐高和组装宜家绝对不是陌生的体验。尽管过程往往令人懊恼,至少在完成这件产品的过程中,我们已经不再是简单的「消费者」,而是变成了「参与者」甚至是「创造者」。 这种「创造」的确认感、获得感、满足感,甚至可能比产品本身更让人愉悦——我会永远记得我在客厅完成乐高打字机的那个下午,当按下自己装好的打字机按键时,我是真的欢呼雀跃——尽管我不会也不能拿它来码字。 ▲ 左图为宜家自组办公桌,右图为乐高打字机. 图片来自:IKEA,Lego 更棒的是,这种可创造性与这台电脑本身,是浑然一体的。有 reddit 用户就表示,为了家里的孩子,他愿意选择 12 英寸带触控笔的版本: 我想我家小孩会在上面创作很多视觉艺术——我和他那么大的时候,我只能用蜡笔或者马克笔在纸上涂鸦。 对家长来说,Framework Laptop 提供了稀缺的创造乐趣,而对于孩子或学生而言,低门槛的硬件教育也是其价值所在。 ▲ Laptop 12 组装步骤. 图片来自:Framework 于是,我们看到了一台可能无法成为主力机,但却是一台寓教于乐的「玩具」电脑——在追求极致轻薄、一体化,高性能的笔记本电脑市场里,Framework Laptop 12 显然是个「美丽小废物」,但我们永远乐于见到这样的「怪东西」。 说到底,消费电子产品也不只是一昧追求效率,情绪价值同样重要。 当然,Laptop 12 的配置也没那么差,用来码码字倒也问题不大。 本文作者:周芊彤、肖钦鹏
28岁华裔天才亿万富翁秘闻:冰箱失窃导致辍学创业,凭“AI民工”财富暴涨,被硅谷大佬天价抢人
作者 | 王涵 编辑 | 漠影 智东西6月24日报道,6月13日,轰动AI产业的交易传言终于尘埃落定。经过两个多月的谈判,这笔投资将Scale Al的估值推高至290亿美元(约合人民币2082亿元),Meta最终以143亿美元(约合人民币1028亿元)收购知名AI数据独角兽Scale AI 49%的股份,并将今年28岁的Scale AI联合创始人兼CEO Alexandr Wang(中文名“汪滔”)纳入麾下。 这几天来,多家外媒密集披露了这场重磅交易的更多谈判细节,如Alexandr Wang的Meta新职位、Meta对Scale AI和Alexandr Wang提出的更多“控制条款”等,还深度挖掘了Alexandr Wang的成长路径和Scale AI的创立历程。 据悉,扎克伯格早在4月就向Alexandr Wang伸出橄榄枝,想挖他进Meta,起初报价50亿美元(约合人民币359亿元),经过近两个月的谈判,达成最终一致的143亿美元(约合人民币1028亿元)。按持股比例,Alexandr Wang本人将从中获益超10亿美元。 Alexandr Wang虽然卸任CEO,但仍会留在Scale AI董事会,可能会担任Meta内部新设的“超级智能”(Superintelligence)部门的高管,还有消息说已讨论让他担任Meta首席AI官。 作为AI产业的明星创业者,Alexandr Wang有很多与扎克伯格相似的标签,都在大学本科创业,都是美国顶级学府辍学生,也都被密集的争议所裹挟。蘸着全球数十万外包数据标注民工的汗水,Alexandr Wang的财富随着AI产业发展迅速扩张,哺出了全球最年轻的白手起家亿万富翁之一和全球最年轻女富豪——中途退出的Scale AI联合创始人郭露西(Lucy Guo)。 他的人脉圈也为人津津乐道,不仅与OpenAI联合创始人兼CEO萨姆·阿尔特曼(Sam Altman)私交甚笃,还广泛结交政客,社交强度令人瞠目,据说“AI圈没有他不认识的人”。 ▲数据标注创企Scale AI联合创始人兼CEO Alexandr Wang(图源:《时代》周刊) 从交易文件来看,除股权外,Meta还将通过“毒丸条款”、“清算优先权”等机制强化对Scale的控制力。Alexandr Wang本人也面临双重挑战:既要兑现Meta对AI技术突破的期待,又要在不过多参与Scale AI业务的同时维持Scale AI作为中立数据服务商的行业地位。 Scale AI的客户涵盖OpenAI、谷歌等Meta的直接竞争对手,Meta的入局,让这些客户担忧数据安全与商业机密泄露,甚至开始缩减合作规模。 作为Scale AI最大的客户,谷歌原计划今年向其支付约2亿美元(约合人民币14.4亿元)用于获取人工标注的训练数据,这些数据对开发包括Gemini聊天机器人等尖端AI模型至关重要。在获悉这个消息后,谷歌母公司Alphabet计划终止与Scale AI的合作关系。据悉,谷歌已开始与Scale AI多家竞争对手展开接洽,拟转移大部分数据标注业务。 Meta如何大费周章地将Alexandr Wang收入麾下,又究竟为何如此大手笔投资Scale AI?刚经历反垄断风暴的Meta怎样说服监管放行?失去创始人的Scale AI又如何平稳度过这一段动荡期? 本文将理深度复盘这场巨额AI交易的幕后内情及来龙去脉,并回顾Alexandr Wang这位90后华裔天才少年这9年来的传奇创业历程。 一、扎克伯格从4月开始挖人,谈判交易价一路飙升 4月中旬,Meta创始人兼首席执行官马克·扎克伯格(Mark Zuckerberg)接触Alexandr Wang,提出希望其加入Meta,并愿意支付数十亿美元促成此事。根据交易文件及知情人士透露,扎克伯格5月初提出50亿美元(约合人民币359亿元)投资Scale的意向,Alexandr Wang随后抬价到200亿美元(约合人民币1436亿元)。 6月初谈判陷入停滞,Scale董事会就向Meta让渡多少控制权展开激辩。Alexandr Wang虽通过特殊股权架构拥有超额表决权,但不同于扎克伯格对Meta的绝对控制,他并未掌握Scale多数表决权。合作风险显而易见:与Meta结盟可能导致Scale失去Alphabet、OpenAI等Meta竞争对手的订单。 硅谷顶级律所已介入谈判,Latham & Watkins代表Meta,Wilson Sonsini为Scale提供咨询,后者还聘请投行Centerview Partners协助。Scale四人董事会中,仅Accel的Dan Levine和前Index Ventures合伙人Mike Volpi两位早期投资人参与决策,另两位是Alexandr Wang及其好友、金融科技公司Plaid联合创始人William Hockey。 董事会曾考虑通过“买卖权期权”强制Meta未来收购剩余股份,但为避免谈判破裂最终放弃。Meta高管Dave Wehner向Volpi明确表示,若无法获得投资控制权,Meta不会接受收购49%股权的交易,更不愿作为少数股东被强制出售股份。 6月5日晚,Scale董事会最终批准交易。为稳定军心,公司预留数亿美元作为未归属期权员工的奖金池,未行权的前员工则需通过要约收购变现期权。6月11日董事会正式建议股东接受Meta收购,6月13日Alexandr Wang在旧金山总部含泪向员工告别,获得全场起立致敬。 最终交易价格接近Alexandr Wang初始要价,Meta以143亿美元(约合人民币1028亿元)收购Scale 49%股份,略高于该初创公司一年前融资轮的估值。据悉这位年轻富豪将同时身兼Meta AI领域要职与Scale董事会成员双重身份。有传言称Alexandr Wang将离职转任Meta内部新设“超级智能”(Superintelligence)部门高管,另一位知情人士透露,双方已讨论让其担任Meta首席AI官(chief AI officer)职务。 二、Meta设“毒丸条款”防叛逃,超10亿美元收益分期5年兑现 交易文件显示,Meta此次谈判成果远超外界所知,为其有史以来第二大交易设置了风险缓冲机制。若Scale在未来两年半内被出售,Meta将在其他股东获得任何收益前优先获得全额偿付。这项被称为“清算优先权”的特殊股东权利将持续至2027年底。获得Meta资助的巨额股息后,现有Scale股东在出售案中实际收益可能低于预期,优先股持有者的股份将转为普通股。 根据该方案,Meta将投资Scale并聘用Alexandr Wang,但所获股份不包含表决权。然而Meta很快追加新要求:5月31日的条款清单中,Meta要求获得除董事会选举外的大部分事项表决权、优先于其他股东的收益权,并增设“毒丸条款”,若公司发现Alexandr Wang在Meta任职期间仍参与Scale运营,其持股比例将自动扩大。 近日公布的交易中,Meta支付的股息为Scale股东带来128亿美元(约合人民币919亿元)意外收益。知情人士称,根据持股比例,Alexandr Wang将获得超10亿美元(约合人民币72亿元)收益。文件显示,只要他继续在Meta任职,大部分现金将在5年内分期兑现。 扎克伯格的副手们曾担忧:Meta斥巨资投资了一家失去创始人的初创公司,成为其少数股东,且持股权益有限。此外,Scale近期并未能达到自身的财务预期。交易文件及知情人士透露,幕后谈判中他们竭力使条款更利于Meta。 Meta仍需获得美国反垄断监管机构批准,才能通过有表决权股份参与公司决策。交易文件显示,Meta同意让Alexandr Wang在多数公司事务上代行其股份表决权。(Scale发言人否认此次交易包含向Alexandr Wang转移Meta表决权的条款。)关键例外在于:Meta要求对Scale的出售或融资决策保留影响力。若监管放行,Meta与Alexandr Wang将共同控制Scale。 该交易结构折射出Meta在财务、战略与监管间的走钢丝策略。刚经历重大反垄断诉讼的Meta既需规避华盛顿方面否决交易的风险,又不愿在支付140亿美元(约合人民币1005亿元)后失去投资控制权。推动这一切的核心是扎克伯格的判断:Meta已在AI竞赛中落后,而Alexandr Wang能扭转局势。 三、19岁创业,OpenAI创始人好友…Alexandr Wang究竟是什么来头? Alexandr Wang 1997年出生于新墨西哥州,其父母是任职于美国新墨西哥州洛斯阿拉莫斯国家实验室的中国移民物理学家,在为他取名时故意少写了字母“e”凑足8个字符,取中文文化中“8”的发财寓意。这位数学神童自幼获奖无数,小提琴与数学竞赛构成其青少年时代的主旋律。“我的竞技场在数学。”他在播客中如此总结。 Alexandr Wang就读于洛斯阿拉莫斯高中,并提前一年毕业,随后被麻省理工学院(MIT)录取,计划攻读数学与计算机科学学士学位。但他进入麻省理工学院后却急于创业,最终不顾全家博士辈出的学术传统辍学赴旧金山。 “我渴望更快取得成就”,Alexandr Wang在《福布斯》视频中坦言。在2022年4月的TED演讲中,他说:“我的父母是洛斯阿拉莫斯国家实验室的杰出科学家,在他们的领域做出了许多贡献。我希望从事一项能与之媲美、甚至更具影响力的事业。这就是我决定成为一名程序员的原因——我想改变世界。” Alexandr Wang的社交狂热程度,连其前室友OpenAI联合创始人兼首席执行官萨姆·阿尔特曼(Sam Altman)都曾开玩笑劝他收敛些。他与阿尔特曼亦私交甚笃,在执掌OpenAI前,阿尔特曼曾主管顶级创业加速器Y Combinator(YC),而Scale正是YC 2016届成员。据共同友人透露,疫情期间二人曾短暂同居。 一位要求匿名的密友表示,Alexandr Wang通过直接联系维系庞大关系网,精准掌握各层级联系人的工作动态。“AI圈没有他不认识的人。”该人士称。就连人脉大师阿尔特曼去年都调侃其社交强度:“权威认证,你(Alexandr Wang)绝对是赶场派对最多的人,这简直是份全职工作。” 他的人脉版图远超科技圈。19岁创办Scale以来,Alexandr Wang与Plaid、Figma等独角兽创始人建立友谊,同时还结交美国共和党议员与右翼意见领袖,助力Scale斩获大量政府合同,这些资源或将助推Meta进军国防科技。 一位前拜登政府官员形容其在华盛顿会议中“权威而直接”,曾主动寻求与拜登团队接触。陪同出访的前员工透露,Alexandr Wang“几乎享受”因年龄被低估后反转的快感。在2020年斩获美国国防部9000万美元(约合人民币6.46万亿元)合同后,2022年他又签下2.5亿美元(约合人民币18亿元)美国联邦采购协议,被外媒Semafor称为“华府AI传声者”。 随着Scale扩张,Alexandr Wang的财富与知名度同步飙升。25岁的Alexandr Wang以36亿美元的净资产被《福布斯》评为最年轻白手起家亿万富豪,亮相达沃斯论坛后更入选《时代》2024百大人物。作为Scale唯一享有“1股3票”超级表决权的股东,他在获得分5年归属的现金分红后,即将从纸面亿万富翁晋升为现金亿万富翁。 Alexandr Wang近期举动与扎克伯格形成镜像,后者同样向特朗普示好,二人甚至外形趋同:都顶着一头卷发、偏爱街头服饰。两位CEO先后成为全球最年轻白手起家亿万富豪的罕见成就,如今更将形成上下级关系。 四、创业灵感源自“冰箱食物被偷”,Scale AI今年营收或将达20亿美元 在进入MIT之前,Alexandr Wang曾在高中毕业后休学一年,搬到了硅谷,在问答网站Quora找到了一份工程师的工作。正是在Quora,他遇到了后来的Scale AI联合创始人——产品负责人、获得彼得·蒂尔资助的“泰尔学者”郭露西。 ▲郭露西与Alexandr Wang合影(图源:Forbes) 2016年,19岁的Alexandr Wang在MIT大一结束后的夏天和郭露西合伙创立Scale AI,并被选入YC 2016年夏季孵化项目(该加速器曾孵化Airbnb和Dropbox等公司),他担任Scale AI的首席执行官,郭露西负责运营和产品设计团队。 YC合伙人Jessica Livingston在《社交雷达》播客中回忆,面试时Alexandr Wang展现出潜力与自负的奇特混合体,她在笔记中写道:“可能傲慢也可能天才——我倾向前者,但值得投资。”其他合伙人用金融术语“high beta”形容这位创始人,YC联合创始人Paul Graham解释:“这意味着要么惨败要么征服世界。” 他们最初提交的是医生预约应用创意,入驻YC数周后,二人放弃医疗应用转向机器学习数据标注服务。受AlphaGo击败人类棋手启发,Scale以“AI界优步”为定位,全球招募数据标注员处理自动驾驶图像识别等任务。 Alexandr Wang在接受西班牙《国家报》(El País)采访时透露,Scale AI的灵感来源于他在MIT读书时的一个想法:他试图通过安装冰箱摄像头并开发AI来分析录像,找出偷吃他食物的室友。但由于视频数据量太大,最终未能成功,但这次实验让他意识到数据对AI发展的重要性。 Alexandr Wang在TED演讲中说:“要让AI强大,你需要强大的数据。而在2016年,当我还在MIT时,高质量数据非常稀缺。” Scale AI开创了多项关键技术,可以让聊天机器人表现更趋人性化,并能更准确地回答复杂问题。Scale AI迅速获得顶级风投青睐,但公司创立两年后联合创始人关系恶化,最终郭露西离开,Alexandr Wang独掌大权。在ChatGPT发布前的2021年,Scale营收仅为1.2亿美元(约合人民币8.6亿元),而去年已飙升至8.7亿美元(约合人民币62亿元),公司预计今年营收将达到20亿美元(约合人民币144亿元)。 然而Scale近期表现未达预期:未能实现去年设定的10亿美元(约合人民币72亿元)营收目标,支付给承包商的分成比例也超出预期。即便是Meta这样的大客户,其基层员工也对Scale未能提供足够高质量的模型训练数据感到失望,OpenAI等竞争对手已开始采用更多供应商来完成Scale同类工作。尽管如此,在AI热潮推动下,Scale估值仍大幅攀升。今年早些时候,公司以250亿美元(约合人民币1795亿元)估值向投资者进行了员工持股出售。 五、股权只是附带,Alexandr Wang才是Meta的真正目标 对于这场交易,一位Scale投资者爆料,收购初创公司股权“本质上是附带条件”,真正目的其实是Alexandr Wang本人。某Meta竞争对手高管透露,此举源于扎克伯格认定Alexandr Wang是其“超级智能”实验室急需的“战时CEO”。 “能与所有顶尖研究团队保持深度关系的企业屈指可数:除了Scale就只有英伟达,而黄仁勋恐怕不会接受这份工作,”Scale早期投资者、Accel风投合伙人Dan Levine分析称。 扎克伯格希望Alexandr Wang的“明星效应”能吸引OpenAI、Anthropic、谷歌及Ilya Sutskever创立的Safe Superintelligence(SSI)等对手的顶尖人才。据知情人士透露,Meta正试图挖角SSI联合创始人Dan Gross及其投资伙伴Nat Friedman。若成功招募二人,将极大增强Meta重组后的AI部门实力。 在AI竞赛中,Alexandr Wang调动人脉的能力可能难以持久,新职位将使他直接与阿尔特曼、穆拉蒂等展开人才争夺战。阿尔特曼本周爆料Meta曾以1亿美元(约合人民币7.2亿元)签约奖金及更高薪酬挖角OpenAI开发者。 这种巨额人才投入暴露出Meta现有AI战略的困境:其最新模型Llama 4在多项性能基准测试中表现平平。公司尚未确定Alexandr Wang的具体职称及其与Meta基础AI研究负责人杨立昆的隶属关系。“这是一场豪赌:短期最重要的是快速组建研究团队,”接近Scale的人士透露,“他们开出惊人条件疯狂挖人,而Alexandr Wang认识所有这些顶尖人才…简直像在策划一场劫案。” 也有接触者认为Alexandr Wang的社交狂热度暗藏机会主义。“Alexandr Wang是精明的操盘手,追求名利最大化,”一位前员工评价。另一位合作者补充:“他渴望在所有项目署名,即便并未深度参与。”Scale公司对此类描述予以驳斥,强调Alexandr Wang工作勤奋尽责。 六、数据标注行业震动,Scale AI竞对公司迎来业务暴增 Scale AI临时首席执行官Jason Droege上周三在内部备忘录中强调,这家AI初创公司不会因Meta的巨额投资改变既定方向。”与近期AI领域其他交易不同,这既非业务转型,也非收缩信号,”Droege在致客户、员工及投资者的公开信中明确写道。 但部分投资者仍对交易前景表示疑虑:“这注定会造就诡异的未来格局。” 这笔交易对Meta和Alexandr Wang是利好消息,但对Scale的益处却不明显,因与Meta绑定可能丧失重要客户。据悉,Scale两大客户兼Meta竞争对手OpenAI与谷歌已开始缩减合作。 OpenAI发言人曾说,过去6到12个月间,该公司已认定Scale无法满足其日益专业化的数据需求。随着OpenAI转向开发能模拟人类推理过程的先进AI模型,以及仅需有限用户输入即可执行任务的智能体模型,对数据质量的要求显著提升。《福布斯》此前报道,OpenAI缩减与Scale合作已持续数月。 据知情人士透露,同样被列为Scale官网客户的微软,目前与Scale的合作规模均未达到“重大”级别。由于这些小型合约不受Meta投资影响,微软暂未进行业务评估。 竞品公司Snorkel AI的CEO Alex Ratner接受采访称,在Meta与Scale AI的交易消息传出后,他收到了数十家潜在客户的咨询,促成“数千万美元”处于不同谈判阶段的交易。“所有负责任的LLM(大语言模型)开发者都将采取行动实现供应商多元化,”Ratner说,“市场将出现重大变局与新机遇。” 包括Turing、Invisible Technologies、Labelbox和优步(Uber Technologies)在内的企业正竞相满足AI开发者对数据的海量需求。多家公司声称其客户咨询量激增,部分客户担忧Meta可能窥见其AI研发流程。“需求达到史无前例的水平,”Labelbox创始人Manu Sharma提到,“我们已服务顶级AI实验室,现在其他厂商也纷至沓来。” “实验室不愿对手窥见其模型优化数据”,Scale竞争对手Handshake CEO Garrett Lord透露其公司需求“一夜激增三倍”,“就像丰田不会允许竞争对手参观生产线”。另一数据公司Turing的CEO Jonathan Siddharth称过去两周新增5000万美元(约合人民币3.6亿元)潜在合同,因“前沿实验室意识到发展AGI(通用人工智能)需真正中立伙伴”。 AI训练数据公司Appen的CEO Ryan Kolln将行业震荡比作“俄欧输油管道爆炸”,客户正紧急寻找替代方案。他补充道:“Meta成为Scale大股东后,获取其他基础模型实验室情报的能力将更难管控。”据知情人士透露,过去一周多名Scale员工已签约跳槽至两家竞对。 结语:Scale或失中立性,Meta能否兑现AI逆袭承诺? Scale AI董事会成员Volpi在X发文称“将怀念Alexandr Wang,但Scale仍将继续成长”,Accel的Levine则发布精心制作的纪念视频。 尽管Meta入局对Scale业务的实际影响尚待观察,但业界共识是:这笔交易将大幅提升市场对AI产业链“隐形环节”的关注度。数据标注公司Toloka AI联合创始人Olga Megorskaya指出,相比备受瞩目的AI模型和算力芯片,数据工作长期处于“被忽视”状态。 此交易涉及的潜在资金流动规模惊人。据Garrett Lord透露,顶尖AI公司每年投入约10亿美元(约合人民币72亿元)用于人工数据采购,且预算仍在增长。随着竞争者争抢Meta交易留下的市场空缺,这场商业博弈预示着全球最具价值AI模型的构建方式正经历根本性重构。 Scale AI以数据标注业务起家,这种模式在AI发展初期至关重要,因为当时企业仍在教图像模型区分猫狗,或让语言模型组织连贯句子。 但随着AI模型进化,行业需求发生剧变。所谓“推理”模型的兴起让OpenAI、谷歌和Anthropic等公司转而主要寻求专家级数据,即最具价值的训练数据现由博士等专业人士撰写,他们需详细记录问题解决步骤供AI模仿。 “行业正转向需要越来越聪明的人类,”Turing的CEO Siddharth认为,“某些领域甚至需要专家团队协作才能推动进步。” 各AI公司对专家的具体任务要求属于高度机密,业内人士透露,虽然所有实验室最终会趋同策略,但保密时间越长,其模型保持领先优势的时间就越久。这也解释了为何Meta对Scale的重金投资令前沿AI公司不安。尽管Meta目前落后,但若能获取竞争对手的核心数据机密,便可能快速缩小差距。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。