EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
脑机接口,现在可以刷医保了
提到脑机接口,很多人想到的,往往是科幻片里高不可攀的黑科技。 但在2025年的中国,这样的“黑科技”,已经正式进医保了! 今年3月,湖北省率先在全国公布了脑机接口的医疗服务价格标准,侵入式脑机接口植入手术仅需6552元人民币(约936美元),非侵入式更是低至966元人民币(约138美元)。 而在大洋彼岸,马斯克的Neuralink脑机接口手术费用呢? 按照马斯克自己的说法,Neuralink在量产后的价格大约为5000美元至1万美元;考虑术后监测、康复等,保险公司报销后的总费用可能高达5万美元(约35万人民币) 这差距不是一点半点,而是几十倍!这相当于是中国科技的又一次降维“逆袭”;而这还不是全部。 就在今年第一季度,国内的阶梯医疗已经完成了中国首例侵入式脑机接口临床试验,成为全球第二家(仅次于Neuralink)、中国第一家进入产品临床试验阶段的侵入式脑机接口公司。 并且,相比Neuralink,阶梯医疗的产品尺寸更小、柔软程度更高。 阶梯医疗开发的超柔性电极 通过微纳加工工艺和材料科学,阶梯医疗将电极做到了细胞尺寸,即一根头发丝的1/100。 靠着这项技术,阶梯医疗成功让一个瘫痪多年,连手指都动不了的患者,靠脑子直接玩马里奥赛车,操控小车在赛道上漂移、冲刺! 从这一刻起,侵入式脑机接口,不再是Neuralink的专利。 其实,近些年中国在脑机接口上的进展,远不止于此。 例如国内的脑虎科技,在去年干了件大事:给一个21岁癫痫患者植入256导电极的“北脑一号”,术后48小时,患者就能用意念玩乒乓球和贪吃蛇游戏,两周后还能用脑子控制微信、淘宝,操作智能轮椅和家电。 同样地,3月20日,脑科所、芯智达和宣武医院共同发布了全球首例无线植入式中文语言脑机接口,成功帮助因渐冻症导致失语的患者重建交流能力。 讲真,虽然脑机接口这项技术,现阶段看起来只能“帮助瘫痪患者”,但放远了看,这不只是医学上的奇迹,而是中美科技竞争的新战场。 认知革命 2024年,Neuralink患者能用意念打字(每分钟15-20字),国内的脑虎科技,能让患者控制微信、淘宝。未来,脑机接口可能让设计师、程序员用非侵入式设备做简单操作,比如用意念翻页、选工具。想象一个设计师,戴个头显,脑子里想“放大”“切换颜色”,软件就自动响应。 这样的优势,特别适合高强度脑力工作,像程序员改代码、医生看片子,工作效率都可能翻倍。 再想得远一点,一套可靠的、商用级别的脑机系统,能让士兵或者飞行员只凭意念就能操纵无人机,在未来的高强度战场态势里,这种“人脑+机器”的混合作战能力,无疑会让一个国家的军事实力如虎添翼。 而在AI时代,脑机接口就更显得“雪中送炭”。 因为在现在的AI竞争上,无论中美,其实都面临着大模型训练数据正在枯竭的困境。 Pablo Villalobos的论文估计,训练大模型的数据将于2028年耗尽 对AI来说,高质量的数据,尤其是帮助其理解物理规则的多模态数据,变得尤为稀缺。 但人类的大脑,恰恰弥补了这一短板。 人类大脑整合了视觉、听觉、触觉、情绪、意图等多重信号,而这些信号在脑内是高度关联、语境化处理的。AI单纯靠摄像头、麦克风无法实现这种深度融合。 一旦人脑与AI相连,AI就能通过脑机接口,将人脑当成一个源源不断的,高质量的“数据源”。如此一来,模型或许就能突破原有的瓶颈,进化到下一个更高的阶段。 不过,尽管前景如此可观,但目前的脑机接口,在技术上还有几大难关要跨。 首先,在精准度和稳定性方面,脑机接口的核心是“听懂”大脑的神经信号。侵入式设备(像植入脑内的电极)能捕捉高精度信号,但植入后电极容易被身体组织包裹,信号会逐渐减弱,甚至失灵。 非侵入式设备(像头显或腕带)信号质量差,容易受外界干扰,精准控制复杂任务难度大。 其次,在安全性上,侵入式脑机接口需要开颅手术,植入电极或芯片,风险不小。手术可能引发感染、炎症,电极材料还得跟人体“和平共处”,否则可能引发排异反应。长期来看,电极在脑子里会不会移位、老化,或者对神经元造成损伤,都是大问题。 最后,在解码方面也是一大难关。 人的大脑有800多亿神经元,这些神经元每秒都在放电,产生电信号(脑电波)或化学信号(神经递质)。这些信号不是单一的“开关”,而是杂乱的、动态的、叠加的。 脑机接口得从这些庞大、杂乱的信号中,滤波(去掉心跳、眼动等杂音)、特征提取、再解码,同时数据流得畅通,脑机接口的信号处理要毫秒级响应,延迟超过100毫秒,用户就觉得卡。 这不仅要求算法要快,而且还要“聪明”,因为脑信号变化快,算力再强,算法不聪明也抓不住关键信号。 而应对这些挑战的思路和策略,中美两国都拿出了各自的看家本领。 两种路线 总体来看,马斯克的Neuralink推动的是侵入式高精度技术,但成本高(15-20万美元),手术风险大,短期内只能服务少数人; 中国企业走的是务实路线,既有侵入式,也有非侵入式,瞄准医疗(癫痫、帕金森)和消费市场,近些年突破不少。 在技术方面,马斯克的Neuralink,往脑机接口的N1芯片塞了1024根超细的“线”(电极),像绣花针一样扎进大脑皮层,理论上,线越多,抓取的信号量越大。 但单纯多没用,电极得够细、够柔、够稳。Neuralink用了高分子聚合物和钛合金,电极像“丝绸针”,插进脑子不留大疤,信号衰减才15-20%。 同时,Neuralink的“缝纫机”机器人,能避开血管,精度高到能把1024根线插得“丝毫不差”。 创口小到像针眼,手术后患者恢复快,信号稳定。但这机器人造价上千万美元,研发花了几年。 可这类侵入式技术也有麻烦,电极时间长了容易被脑组织“嫌弃”,裹上一层瘢痕,信号就弱了。Neuralink的应对是靠AI算法“猜”信号,哪怕丢了点数据,也能从附近神经元补救。 简单说,它能根据有效电极的信号(800根),推测瘢痕覆盖的电极(200根)本该输出啥,从而拼出完整意图。 总体来看,马斯克这套办法,好处是精度高,信号采集和解码方面很强,但同时成本也高得吓人。 因为电极材料、手术机器人,高端算法,全都是省不了的“硬成本”。 中国这边,没一味地追着电极数量跑,因为加电极不是简单多插几根线,每根电极得用高分子材料,细到几十微米,还得抗瘢痕、抗移位,成本随电极数量翻倍。 像国内的脑虎科技,他们的“北脑一号”用256根电极,但中国的绝活就在于:虽然电极不够,但可以靠算法来补。 这里要先澄清一个事实:美国在AI领域的确有大杀器。像OpenAI的GPT系列、Anthropic的Claude(背后还有谷歌、Meta的加持),这些大模型,动不动就能写诗、答题、甚至帮程序员写代码。 但脑机接口的核心,是把杂乱的脑信号翻译成具体指令,这靠的是信号处理、模式识别和特定领域的神经网络,这方面,中国有自己的独门绝技,没被甩开。 以巧胜强 从技术上说,脑机接口识别大脑内的信号,考验的主要是语音、图像识别上的AI算法。 而中国在这方面,已经做到全球顶尖。 在语音识别方面,中国人用微信语音、点外卖、开智能音箱,语音交互每天几亿次,国内的AI企业,像科大讯飞得处理从东北话到上海话的各种口音,还得在菜市场那种嘈杂环境里听清用户说了什么。 在图像识别上,中国城市遍布监控摄像头(2025年超10亿个),安防、支付、交通全靠人脸识别。 这些复杂、多样化的场景,就像个“炼丹炉”,逼着中国的语音、图像算法不断升级。 这些过人的本事,应用到脑机接口方面,优势就来了。 天津大学的“脑机协同进化”技术,让大脑和设备“互相调教”。比如,患者想“喝可乐”,设备先抓信号(256通道脑电波),AI算法解码意图,控制机械臂。如果信号不准,设备会给大脑反馈,引导患者调整脑信号。 靠着这套办法,患者在48小时内就能学会用脑控轮椅,而传统脑机接口得一周。 同样地,2024年,脑虎科技语音识别算法,从256通道脑信号(含80%噪声)解码142个汉语语音,准确率71%。 要知道,汉语声调、语义复杂,脑信号模式比英语多20-30%(2024年数据),解码需多模态学习(音调+语义)。 这背后,靠的正是强大的语音、图像识别技术。 除了算法上的优势外,中国还有全球最牛的制造供应链。脑机接口的芯片、电极、传感器,中国大多都能自己造,不用靠进口。 就拿电极来说,脑虎科技的256根电极在深圳工厂生产,每根成本10-15美元(70-100人民币),Neuralink的1024根电极用的是高分子聚合物(像“航天级丝绸”),虽然更细、更抗瘢痕,但贵得像黄金,每根50-100美元,单套阵列几万美元。 传感器方面,中国是全球传感器生产冠军,2024年产量占45%(500亿个)。强脑科技的EEG头显(1000-5000人民币)用深圳产的传感器,每颗1-2美元(7-14人民币),而美国的成本则达到了5—10元。 为啥中国便宜?因为深圳这些地方,有着全球最全的电子元器件供应链,流水线一天能吐几百万颗传感器,材料和人工比美国低数倍。 更牛的是,中国把消费电子的流水线直接“嫁接”到脑机接口上。强脑科技的EEG头显,传感器和电路板跟蓝牙耳机、智能手表的零件高度重合,直接用现有的生产线改一改就行,量产后成本低到1000-5000人民币,差不多一部中端手机的价格。 中国这套“国产化”打法,硬是把侵入式设备的成本砍到了数千元,非侵入式更是白菜价。 标准之争 在脑机接口方面,除了价格、技术方面的竞争外,还有个隐形战场——数据和标准。 脑机接口会产生海量的脑数据,谁能制定数据的国际标准,谁就能掌握规则制定权。 想想5G,当年华为和西方国家抢标准,华为的标准被部分国家采纳后,相关设备、芯片、软件都得按华为的协议来,供应链跟着倾斜,华为赚得盆满钵满。 在脑机接口方面,中国目前是三路齐飞——侵入式、半侵入式、非侵入式,就像渔夫撒了一张大网,捕的“鱼”(数据)越多,越能定“游戏规则”(标准)。 具体来说,侵入式数据是“金矿”,精度高(6-7比特/秒),针对的是医疗场景(癫痫、瘫痪); 半侵入式像“中端相机”,是一种过渡产品,质量比非侵入式高,量比侵入式多。 而非侵入式数据量巨大,覆盖教育(专注力训练)、娱乐(脑控游戏),算法能从“粗糙信号”里挖规律,优化大众场景。 这种三路并进的好处是什么? 你可以想象一下打游戏:美国直接冲终极 boss(比如 Neuralink 那种高通道、全植入式脑机接口),结果路上烧了好多钱、卡在审批(FDA)那关; 中国这边呢,先刷小怪——先从非植入的脑电产品(EEG)、低通道数的辅助康复装置入手。 这些东西技术门槛没那么高、可以落地应用,能进医院、能做康复训练、还能对接“智慧养老”、“智能穿戴”、“注意力训练”那一票政策热点。 也就是说,中国在脑机接口上,完全能用赚钱的东西先养活自己,然后把赚来的资源、供应链和经验,一点点“反哺”到更高级别的脑机接口上去。而用像美国那样,靠资本撑着烧几年等 FDA 批。 这种这种打法成本低、更灵活,虽然不那么酷,但走得稳。 在AI时代,这种先发的这标准和数据优势,更可能触发“AI+脑机”的飞轮效应。 美国的Neuralink数据少、成本高,短期内只能在高端医疗小圈子玩,中国却能靠“全民脑数据”把AI生态建得像微信一样普及。 想象一下,10年后,当中国率先将中、低端的脑机接口生态占据后,亚洲、非洲的医院,可能率先用中国的标准。 而在民用市场,消费者有可能用中国的脑机接口APP控制家里的灯、车、游戏,美国想插一脚,得先适配中国的标准和生态。 更深一层,脑数据的积累,可能让中国AI跳出“模仿”美国的框框。 现在GPT、Claude靠英文数据称霸,但脑机接口的数据是“人的本源”,中国靠独特的汉语解码和多场景应用,可能打造出更贴合亚洲文化的AI模型,比如能特定文化、语言习惯的“脑控助手”。 这不只是技术领先,而是文化和生活方式的输出。 而这种“软实力”与“硬科技”的结合,正是一个强国崛起中必经的过程。
笔记本里的高端独显,为何非得要“自废武功”
如果大家有关注今年的笔记本电脑市场,可能就会听说过这样一个传言。那就是某品牌在设计新款游戏本时,私自“突破”了NVIDIA的功率限制,将RTX5090移动版GPU的供电加到了200W以上,并因此跑出了惊人的、其他所有品牌都无法达到的性能。但也正因如此,导致其遭受到“制裁”,不仅错过了首发窗口期,后续量产产品也被迫改回“正常”的供电设计,甚至引发了相关芯片厂商对整个行业的一轮“大检查”。 有意思的是,在我们三易生活首次听到这个消息时,正好在参加英特尔酷睿Ultra 200HX系列的发布活动,该品牌的新款笔记本电脑也“恰好”缺席了此次活动的展示环节。所以,这件事当时确实给我们留下了深刻的印象。 起初,我们曾觉得此事本身并没有什么大不了的,因为在笔记本电脑的狭小空间里,给显卡增加超过设计上限的功率,确实有可能导致潜在的质量问题(比如使用一两年后可能造成显卡脱焊、花屏)。而且就算短期内可以换来更好的性能,但站在芯片厂商的角度来说,不愿意承担这个风险也是完全可以理解的。 但如果有人能够证明,这种“加功耗”的操作并无质量风险、且性能受益极大呢?那么事情就会变得有趣起来了。 就在近日,海外相关技术论坛的一篇帖子引起了轩然大波。有一位用户声称,他成功地通过修改笔记本电脑主板上的分流电阻,将自己的RTX5090供电上限从默认的175W增加到了225W。经过测试显示,修改、增加供电之后的移动版RTX5090运行状况良好,实测性能超过了桌面版的RTX4080,而且完全没有表现出不稳定的迹象。 就在这篇帖子之后,有更多的极客用户开始站出来,分享他们通过修改电路,给NVIDIA RTX移动版显卡增加功耗的经历。 有人声称,他已经使用一台经过供电改装的RTX4090笔记本电脑超过一年时间,且没有发现任何质量问题。还有人晒出了经过更激进“改装”的RTX4090笔记本,不仅将显卡供电增加到了270W,甚至还配上了水冷,并且26600分的3DMARK TimeSpy成绩,也确实大幅高于“普通”移动版RTX4090的水平(20000分不到)。 很显然,通过这些人的经历,我们至少可以知道两件事。一是给近年来NVIDIA给旗舰移动版显卡设定的175W功耗上限,确实严重限制了其性能发挥。二是给旗舰级移动版显卡增加功耗,可能确实还比较“安全”。 毕竟大家要知道,这些高端的RTX移动版独显(比如RTX5090、RTX4090),它们的芯片其实与桌面版RTX5080、RTX4080是同样的核心。既然后者能在桌面端承受450W级别的供电设计,那么移植到笔记本电脑里,自然没有道理只能耐受175W的功耗。 既然如此,一个很合理的问题就再一次被摆上了台面。既然增加功耗被证明“安全有效”,为什么NVIDIA还要严格限制相关厂商,非得要他们把旗舰移动版GPU的功耗和性能“压制”得死死的呢? 其实这里面涉及到了多个方面的问题,其中既有技术层面的原因,也有市场角度的考量。 先来说技术层面。正如前面提及的那样,如今的这些笔记本电脑旗舰级独显芯片,本质上其实与台式机显卡是共用核心设计,比如RTX5090移动版和RTX5080桌面版,就都是基于GB203这颗芯片而来。 但是大家都知道,桌面版RTX5080的典型TDP是360W、最高频率大概在2600-2900MHz,而移动版RTX5090则可以仅用175W的峰值TDP就跑到2700MHz左右。很显然,桌面版显卡增加了一倍的功耗,换来的性能增益却远没有100%。那么,这是为什么呢? 这就涉及到两个方面的原因,首先是因为对于半导体芯片来说,当频率达到一定程度之后,再想要继续增加,所带来的功耗上涨往往就会变得极其剧烈。一个典型的例子,就是大家熟悉的CPU超频。为了多10%或20%的峰值主频,往往要面对50%、甚至是100%的功耗增长,这就是半导体芯片的“自然之理”。 其次,虽然台式机和笔记本电脑的“独显”如今往往会使用相同的芯片,但实际上为了能够在笔记本电脑上尽可能保证能效表现,其所使用的GPU芯片在体质上还是会经过“挑选”,表现就是它们可以在更低的供电条件下跑到更高的频率。 但是当以上两个条件叠加起来之后,就造成了一个“反向”的尴尬结果。那就是对于笔记本电脑里的移动端GPU来说,因为它在供电受限的情况下已经能跑到一个很高的频率,所以给它再去大幅增加功耗,最终换来的(额外)性能提升,反而可能没有台式机的显卡那么明显。 就拿前面举的那个270W“魔改”例子来说,它比默认设计多了54%的功耗,但最终也只是换来了不到30%的理论性能提升。换句话说,目前大家所看到的那个175W的功耗限制,很可能已经是芯片功耗和频率的最佳平衡点,再去额外增加供电,当然能够换来更好的性能,但提升幅度或许没有大家想象的那么明显。 其次从产品层面来说,NVIDIA之所以要给如今的移动端旗舰显卡限制175W的功耗墙,也可能是为了要确保整体的市场“卖相”。 这是什么概念呢?大家要知道,最近这几年的GPU芯片与过去很大的一点不同,就在于它们其实是没有一个“统一的”峰值频率的。不管是台式机、还是笔记本电脑的独显,其实都会根据实际的负载、散热、供电、还有芯片的体质,在使用过程中实时地自动超频。 在台式机上这不是什么问题,因为厂商可以控制不同级别显卡的供电、散热用料。比如同样是RTX5080,同一个品牌的“旗舰款”因为PCB和散热用料更好,跑游戏时的实际频率就会比“丐版”要高一些。 但到笔记本电脑上,NVIDIA确实就有必要阻止厂商一味地去提升显卡的供电设计了。一方面,这是因为如今的芯片都存在着“体质”问题。打个比方,在功耗受限的(175W)条件下,可能所有品牌、所有批次的RTX5090移动版显卡,都会表现出差不多的性能水准。但如果放开功耗限制,万一某个批次的芯片能够在200W供电下明显频率更高、可另一个批次对于增加的供电“不敏感”,就会出现产品体验上的不稳定。很显然,这会被消费者认为是“品质抽奖”,绝对不利于市场上的销售。 另一方面,大家都知道,最近这几年会使用高端独显的笔记本电脑,已经不只是“游戏本”了,还包括一些更薄、造型更简约“轻薄全能本”。这些产品本身的散热性能、供电能力本就逊色于游戏本,如果不给厂商限制显卡芯片的功耗上限,允许他们“自定义”,那就必然会导致游戏本里的独显芯片因为供电充足,而在性能表现上要远远超越“全能本”。 这会带来什么问题呢?简单来说,这就可能会让轻薄全能本搭配顶级移动版显卡的设计,变得毫无市场竞争力。比如一款轻薄的RTX5090笔记本,实际性能有可能还不如一台厚重、且价格低得多的RTX5070游戏本。 很显然,这最终将会导致厂商拒绝在轻薄全能本上使用高端独显芯片。可站在显卡厂商的角度来说,这就等于是芯片的“销路”受限。所以他们自然也就有理由严格限制移动版显卡的功耗上限,从而确保不同形态设备上的相同型号独显,都能有差不多的性能表现。
互联网女皇最新AI报告刷屏:8大核心趋势,预测下一个10亿用户市场在哪里?
近日,互联网女皇、传奇投资者Mary Meeker(玛丽·米克),时隔五年,再度发布《互联网趋势报告》。 报告全文340页,详细分析了与人工智能相关的8大趋势,核心内容是:这场AI驱动的变革已经不可逆转,将进入一个前所未有的加速变革时期,变化速度比以往任何时候都要快。 报告51次用了“前所未有”一词,涵盖了人工智能各个方面,包括用户和使用量的增长、资本支出、技术复合、性能改进、不同行业的采用率、货币化机会和威胁、竞争格局以及对劳动力和全球市场不断演变的影响。 我们第一时间划出重点,相信无论是无论AI创业者还是普通人,都能从中看见未来方向。 趋势一:人工智能用户、使用量和资本支出 (CapEx) 的增长前所未有 1、AI用户及使用量增长: ChatGPT用户:到 2025 年 4 月,ChatGPT每周活跃用户 (WAU) 达到 8 亿。这意味着从 2023 年到 2024 年将增长200%。ChatGPT 应用于2023 年 5 月推出,仅 23 个月后,截至 2025 年 4 月,月活跃用户 (MAU) 已达 5.3 亿。 采用速度:ChatGPT 的用户增长速度显著快于以往的基础技术。ChatGPT 仅用了5 天就达到了 100 万用户,而 iPhone(2007 年)则用了 74 天,TiVo(1999 年)则用了约 1,680 天,福特 T 型车(1908 年)则用了约 2,500 天。与福特 T 型车(2024 年售价 29,330 美元)、TiVo(2024 年售价 945 美元)或 iPhone(2024 年售价 756 美元)不同,ChatGPT 的快速普及意味着其购买价格为零。 家庭普及率:人工智能时代预计将在约 3 年内在美国达到 50% 的家庭普及率,这大约是移动互联网时代(6 年)、桌面互联网时代(12 年)、PC 时代(20 年)和第二次工业革命(42 年)时间的一半。 全球传播:到 2025 年 4 月,ChatGPT 三年后 90% 的用户位于北美以外,而互联网 23 年后 90% 的用户位于非北美地区。2025 年 4 月,ChatGPT 移动应用的主要用户国家包括印度(13.5%)、美国(8.9%)、印度尼西亚(5.7%)、巴西(5.4%)和墨西哥(3.5%)。 参与度与留存率:2023 年 7 月至 2025 年 4 月,美国 ChatGPT 应用的每位用户平均每日会话次数增长了106% ,同期平均会话时长增长了47%。ChatGPT 的 27 个月留存率为80% ,而其他技术的留存率为 58%。 2、资本支出(CapEx)增长: 美国科技公司:随着人工智能的兴起,美国“六大”科技公司(苹果、NVIDIA、微软、Alphabet、亚马逊 和 Meta)的资本支出加速增长。2024年,六家公司的总资本支出同比增长63%。资本支出目前占其收入的 15% ,高于十年前的 8%,年增长率为 21%。 与数据生成的关系:全球数据生成的增长(每年增长 28%)需要增加资本支出以构建更多的超大规模数据中心、更快的网络基础设施和更多的计算能力(资本支出每年增长 21%) 超大规模云收入:2014 年至 2024 年,全球超大规模云收入每年增长37%。 NVIDIA 是技术资本支出的主要受益者,其数据中心收入将增长25%,并且2022 年至 2024 年期间全球数据中心资本支出也将增长。 数据中心建设:从 2014 年 1 月到 2024 年 12 月,美国数据中心的年度私人建设价值每年增长49% ,其中美国主要市场的现有容量在四年内(2020-2024 年)增长5 倍,预租或在建容量增长16 倍。 数据中心能源消耗:全球数据中心电力消耗在 19 年内(2005-2024 年)增长了两倍,美国是区域消耗量最大的国家。 六大科技公司的现金流:“六大”科技公司正在产生大量现金,其自由现金流 (FCF)十年内增长 263%,达到3890 亿美元,现金储备十年内增长103% ,达到4430 亿美元。这为人工智能投资提供了大量资金。 趋势 二: 人工智能技术加速发展,提高性能、加快开发 、 降低成本,推动更广泛 使用 和更多 应用出现。 1、人工智能资源呈指数级增长: 训练数据集大小:用于训练人工智能模型的数据规模在十五年内每年增长260%。以token衡量,人工智能模型训练数据集规模从 2010 年 6 月到 2025 年 5 月年增长率高达 250% 用于训练模型的计算:用于训练 AI 模型的计算 (FLOP*)在过去十五年中每年增长360%。浮点运算 (FLOP) 是衡量处理能力的基本计算单位,对于估算 AI 模型计算成本至关重要。 超级计算机的性能:领先的人工智能超级计算机的性能(FLOP/s)从 2019 年到 2025 年每年增长 150% ,这得益于每个集群的芯片数量每年增长 1.6 倍,每个芯片的性能每年增长 1.6 倍。 强大 AI 模型的数量:四年内(2017-2024 年),新型大规模 AI 模型(大于 10^23 FLOP*)的数量每年增长 167%。 2、计算周期和基础设施演进: 计算周期已从 1960 年代的大型机(约 100 万台)发展到 2020 年代的人工智能时代(数百亿台)。这一进程包括小型计算机(约 1000 万台以上)、个人电脑(约 3 亿台以上)、桌面互联网(约 10 亿台以上/用户)和移动互联网(约 40 亿台以上),这里的“数百亿台”指的是可能使用人工智能技术的潜在设备和用户群,包括智能手机、物联网设备和机器人。 支持基础设施已从 CPU 发展到大数据/云和 GPU。 趋势 三: 人工智能性能不断提高,带来更现实的产出和显著的成本效率。 1、现实对话: 图灵测试:2025 年 3 月,在与 GPT-4.5 的图灵测试对话中,相当一部分测试人员将 AI 的回答误认为是人类生成的,这表明 AI 能够表现出与人类难以区分的智能行为。人工智能系统性能随着时间的推移不断提高。 逼真的音频翻译/生成: ElevenLabs :在短短两年内(截至 2025 年 1 月),ElevenLabs 的数百万用户创造了1000 年的音频内容,其工具被超过 60% 的《财富》500 强企业的员工采用。从 2023 年 1 月到 2025 年 4 月,他们的每月全球网站访问量显著增加。 Spotify 人工智能音频翻译:Spotify 设想将人工智能作为一种工具,为创作者消除语言障碍,让他们无论母语如何都能登上世界舞台。Spotify 的 AI DJ 功能(于2023 年 2 月推出)在定量和定性指标上都显示出“惊人的效果”。 2、成本效益收益: 人工智能推理成本:每个token的推理成本正在下降。NVIDIA GPU 数据显示,十年内(2014-2024 年)生成token所需的能量下降了 105000 倍,这意味着 2024 年 Blackwell GPU生成token所需的能量比 2014 年 Kepler 前身少 105000 倍。 服务模型成本:两年内(2022 年 11 月至 2024 年 12 月),客户的 AI 推理价格(每 100 万个token)降低了 99.7%。 与先前技术相比:与电力和计算机内存等先前技术相比,人工智能成本效率的提升速度更快,与早期阶段的电力和计算机内存成本相比,75 字 ChatGPT 响应的相对成本在最初几年下降幅度更大。 成本下降和性能提升带来采用率上升:由于相对 IT 成本下降,美国互联网用户大幅增加。同样,人工智能模型训练计算每年增长360% ,而相对 IT 成本却下降。 人工智能模型计算成本:2024 年 6 月,前沿人工智能模型的训练成本估计约为 1 亿美元,预计训练中的模型成本将达到10 亿美元,到 2025-2027 年可能达到100-1000 亿美元。尽管训练成本很高,但推理成本正在下降,从而导致性能趋同和开发人员使用率上升。 趋势 四: 人工智能应用 被加速采用 ,包括技术生态系统、传统企业、教育、政府和研究 机构等 各个领域 。 1、技术生态系统采用: NVIDIA AI 生态系统:四年间(2021-2025 年),NVIDIA 的计算生态系统经历了:开发者数量增长 2.4 倍,达到 600 万。人工智能初创企业数量增长 3.9 倍,达到 27000 家。使用 GPU 的应用程序数量增长 2.4 倍,达到 4000 个。 Google 生态系统:Google 生态系统中的全球开发者数量同比增长 5 倍,达到 700 万(2024 年 5 月至 2025 年 5 月),到 2025 年 5 月,谷歌每月通过其产品处理超过 480 万亿个API,比上一年的 9.7 万亿个API增加了 50 倍。 Microsoft Azure AI Foundry :Microsoft Azure AI Foundry 处理的季度token数量同比增长5倍,在 2025 年第一季度超过 100 万亿个token,仅 2025 年 4 月就达到了创纪录的 50 万亿个token。超过 70,000 家企业的开发人员使用它。 2、企业采用进展: 优先级不断上升:标普 500 指数公司季度财报电话会议上提到“人工智能”,表明50% 及以上公司正在“谈论”人工智能。 关注增长和收入:全球企业将 GenAI 改进主要瞄准以收入为中心的成果,例如增加收入、提高销售效率和提供客户服务,而不仅仅是降低成本(例如降低招聘成本、增加员工人数)。 CMO 采用率:全球 75% 的 CMO正在使用或测试 AI 工具,其中许多计划在 1-2 年内实施或开始测试二十七。 3、企业采用案例: 美国银行 - Erica 虚拟助理:从 2018 年 6 月到 2025 年 2 月,移动应用程序中的对话式人工智能 Erica 累计处理了20 亿次客户互动。它充当个人礼宾和任务控制中心,自推出以来已对其性能进行了超过 50000 次更新。 Anysphere Cursor AI(专业软件 - 产品开发):Anysphere Cursor AI 是一个无代码产品构建平台,到 2025 年 1 月,其年经常性收入 (ARR) 将超过 1 亿美元。 Lovable(无代码产品构建):Lovable 的 ARR在五个月内(2024 年 12 月至 2025 年 5 月)增长了13 倍,达到 5000 万美元。 4、教育/政府/研究机构采用案例: 美国FDA :获批AI医疗设备数量大幅增加,2023年将达223种,美国FDA于2025年5月推出新的AI政策。 政府研发资金:政府研发资金是人工智能发展预算的重要组成部分,尤其是在医疗保健领域。2021-2025财年美国联邦人工智能预算为147亿美元,其中34%由美国国立卫生研究院申请。 研究影响:人工智能将使医疗研发时间缩短 30%-80%。 趋势 五 : 人工智能对劳动力 市场 影响深远,导致职位发布、技能要求 、 劳动生产率与就业增长发生变化。 IT 职位发布:截至 2018 年 1 月,美国 IT 职位发布的变化表明,到 2025 年 4 月,人工智能 IT 职位数量将大幅超过非人工智能 IT 职位数量。 劳动生产率与就业增长:在过去的 77 年里(1947-2023 年),美国非农劳动生产率随着非农就业的增长而增长,这表明技术周期(小型机/PC 时代、桌面互联网时代、移动互联网时代、人工智能时代)历来伴随着就业增长。 NVIDIA黄仁勋观点:他在 2025 年 5 月表示,虽然每一份工作都会受到影响,但人们不会因为人工智能而失去工作,而是会因为使用人工智能的人而失去工作。他认为人工智能是缩小技术鸿沟的“最大机遇”,让绝大多数不懂编程的人也能利用技术。 生成式人工智能职位空缺:2025 年 5 月,苹果有超过 600 个生成式人工智能职位空缺。 趋势 六: 人工智能 领域 收入增长迅速, 但 同时消耗大量现金,估值也很高,再加上竞争加剧、开源模型的势头以及中国 的崛起,新的全球 格局 正在塑 造。 1、基础模型的竞争格局: 私人人工智能模型公司:截至 2025 年 5 月 13 日,部分私人人工智能模型公司年化收入较高,且筹集的资金较多69。 OpenAI :预计年收入92 亿美元(2025 年 4 月),迄今融资总额639.2 亿美元。 Anthropic :预计年收入20 亿美元(2025 年 3 月),迄今已筹集180 亿美元。 Perplexity:预计年收入1.2 亿美元(2025 年 5 月),迄今已筹集14.1 亿美元。 xAI :预计年收入“大幅超过 1 亿美元”(2025 年 4 月)。 高估值与收入倍数:这些公司表现出高估值与收入倍数70例如,OpenAI 的企业价值/未来 12 个月收入倍数估计与 Duolingo、Meta、Spotify、Alphabet 和 Pinterest 等其他主要科技公司相比“看起来很昂贵”。然而,OpenAI 的每用户收入倍数“在范围内”。 商业模式不断变化:人工智能商业模式不断变化,培训成本高昂,但服务(推理)成本却越来越低,定价权也在下滑。一刀切的 LLM 方法引发了新的问题,针对定制用例进行训练的更小、更便宜的模型正在出现,传统的商业护城河正在被打破,正如谷歌的 AI Overviews 所见,截至 2025 年 4 月,其月活跃用户已达 15 亿。 2、开源模型势头: 性能融合:封闭式模型和开源模型之间的性能差距正在缩小,中国在这一领域正在崛起。例如,DeepSeek R1(2025 年 1 月,开源)在数学 5 级测试中得分为 93%,接近 o3-mini的 95%。 开发者活动:从 2022 年 3 月到 2024 年 11 月,Hugging Face 上可用的 AI 模型数量增加了33 倍,达到 116 万个模型123截至 2025 年 3 月,仅 Meta Llama 就已生产了10 万个衍生模型。 Meta Llama 下载量:Meta Llama 下载量激增,预计 2025 年 4 月将达到12 亿次。Meta首席执行官马克·扎克伯格预测,2025 年开源将成为人们开发的最大模型类型。 3、中国人工智能崛起: 中国的人工智能生态系统正在快速崛起:阿里巴巴 Qwen 2.5 型号(2024 年 9 月发布)是开源的,性能与西方竞争对手相当。 百度文心4.5 Turbo (2025 年 4 月发布)被描述为多模态,在文本、图像和视频方面表现出色。它性价比高,每百万token输入价格为 0.8 元人民币,输出价格为 3.2 元人民币,比上一代产品便宜 80%,仅为领先竞争对手成本的一小部分(例如,仅为 GPT-4.5 的 0.2%)。它在基准测试中与 GPT-4.1 相当,并优于 GPT-4o。 DeepSeek R1(2025 年 1 月)是另一个开源推理模型。 工业机器人安装基数:中国工业机器人安装基数明显高于世界其他地区。2014年至2023年,中国工业机器人安装量较美国和世界其他地区大幅增长。 公民乐观度:与美国公民相比,中国公民对人工智能产品和服务的益处更加乐观,超过 90% 的中国公民认为,到 2024 年,人工智能产品的好处大于坏处,而美国这一比例不到 60%。 本地人工智能平台使用情况:中国人工智能用户主要使用豆包、文心一言和 DeepSeek 等本地人工智能平台,这些平台在中国拥有较高的月活跃用户。例如,DeepSeek 的移动应用在 2025 年 4 月拥有 5400 万月活跃用户,增长主要集中在中国(33.9% 的用户)。 趋势七: 人工智能货币化正在通过各种途径实现,包括专用芯片、基础设施以及新进入者和老牌科技公司推出的各种产品。 1、硬件和基础设施领域: 芯片: 英伟达GPU:截至 2025 年 1 月,NVIDIA 的季度收入同比增长 78%,达到 390 亿美元。十年间,NVIDIA 的收入增长了 28 倍。 谷歌TPU(张量处理单元) :预计2024年年销售额将达100亿美元。 亚马逊 AWS Trainium :预计2024 年至 2025 年年销售额将增长216%,达到 36 亿美元。AWS Trainium 芯片专为 AI 训练和推理而设计,性能比第一代芯片高出 4 倍,性价比比当前基于 GPU 的实例高出 30-40%。 基础设施连接:基础设施连接公司 Astera Labs 2024 年的收入同比增长242%,达到 3.96 亿美元,预计 2025 年将成为四大产品系列推动的突破之年。 数据收集和超级计算:特斯拉的 Dojo 定制超级计算机旨在进行 AI 训练,从 2021 年 6 月到 2024 年 9 月,其 AI 训练能力提高了8.5 倍。特斯拉认为 Dojo 有潜力大幅降低培训成本,并可能成为一项可销售的服务。甲骨文还至少有 40 个超过 10 亿美元的新 AI 订单尚未上线。 2、软件和服务领域: 基础模型:OpenAI 的收入年均增长 1050%,到 2024 年将达到 37 亿美元。他们的付费用户每年增加153%。 潜在的横向企业平台(OpenAI ChatGPT):ChatGPT 正在被探索为一个潜在的一体化企业平台。 到 2023 年 8 月,超过 80% 的《财富》500 强企业的团队已经采用了 ChatGPT。 ChatGPT Enterprise 于 2023 年 8 月推出,提供无限使用、高达两倍的性能提升以及无限制访问高级数据分析。 ChatGPT 商业用户(包括企业/团队/教育)数量从近 0 增长到2025 年 3 月的200 多万。与微软 Office Suite 34 年来 4 亿付费用户相比,这是一个快速的增长。 3、专业软件机会: Anysphere Cursor AI :到 2025 年 1 月实现超过 1 亿美元的经常性收入。 Lovable(无代码产品构建) :ARR在五个月内(2024 年 12 月至 2025 年 5 月)增长了 13 倍,达到5000 万美元。 Abridge(医疗保健 - 临床对话):CARR 从 2024 年 10 月的 5000 万美元增长到2025 年 3 月的 1.17 亿美元。 哈维(法律):ARR 从 2023 年 12 月的近 0 美元增长到2025 年 3 月的7500 万美元以上。 4、科技巨头推出 AI 产品/功能:各大科技公司正在广泛、稳步地推出 AI 产品和功能,优化产品分布。 Spotify – AI DJ :于 2023 年 2 月推出,预计 2025 年 5 月在全球 60 多个市场推出。Spotify 将人工智能视为超越机器学习的“下一步进化”,实现实时交互和推理。 微软– Copilot :微软人工智能业务年营收预计超过130 亿美元,到 2025 年 1 月将同比增长175%。 Microsoft 365 Copilot :2023 年 3 月发布,并于 2023 年 11 月面向企业全面上市93到 2025 年 1 月,使用强度将环比增长 60% 以上,并且很大比例的 CIO 预计会在未来 12 个月内使用它。 GitHub Copilot :广泛采用的 AI 驱动开发者工具。截至 2024 年 7 月,已有超过 77000 家组织采用 Copilot,同比增长 180%。GitHub 现已拥有 1.5 亿开发者,过去两年增长了 50%. 2022 年至 2024 年其收入将显著增长。 Meta AI :到 2025 年 4 月,Meta 应用的月活跃用户数将达到近 10 亿(Q1:25 财报电话会议披露)。 X – Grok :Grok 于 2023 年 11 月推出,其全球桌面访问量从 2024 年 12 月到 2025 年 4 月显著增加。xAI 的目标是“最大程度地寻求真相的人工智能”。Grok 3 在推理、数学、编码和世界知识方面表现出显著的进步。 Alphabet – Gemini 和 AI 概览:Gemini 聊天机器人全球 MAU 和 AI 概览 MAU 显示采用率不断提高. Gemini 被公认为“业内最佳车型”。 亚马逊– Rufus :Rufus 将于 2024 年 2 月发布,帮助客户做出购物决策并实现个性化。 TikTok – Symphony AI Assistant :Symphony Assistant 于 2024 年 6 月推出,帮助品牌专门为该平台创建内容。TikTok.com 的全球网站访问量显示出强劲的参与度。 Apple – Apple Intelligence :Apple Intelligence 于 2024 年 10 月推出,集成到 iPhone 15 Pro、Pro Max 和 iPhone 16 设备中。 Salesforce – Agentforce :Agentforce 于 2024 年 9 月宣布,上线仅 90 天,截至 2025 年 2 月,就拥有3000 名付费客户。数据云是 Agentforce 的燃料,记录数量超过 50 万亿条,同比增长一倍。 趋势八: 人 工智能的潜在应用范围覆盖广泛,模型类型和能力不断创新。在人工智能和卫星等技术推动下, 互 联网接入扩大推动全球新用户增长。 1、物理世界的AI应用: 全自动驾驶汽车 (Waymo) :Waymo 在旧金山的拼车份额在 20 个月内从 0% 增长到27% (2023 年 8 月至 2025 年 4 月)。Waymo 已证明自动驾驶技术在市场规模上是可行的,并且可以成为可行的商业产品。 农业现代化(Carbon Robotics):Carbon Robotics 的 AI 驱动 LaserWeeder 已除草超过 230,000 英亩,并防止了超过 100,000 加仑的草甘膦147. Halter 的人工智能牲畜项圈在 2023 年至 2025 年期间增加了净新增项圈数量,从而改善了牧场管理和可持续性148。 采矿业(KoBold Metals):人工智能驱动的矿产勘探在单位勘探成本的发现量方面显著优于行业平均水平。 2、模型军备竞赛: 多模态模型:从 2017 年到 2025 年 5 月,每年发布的大规模多模态模型数量增加了1150%。 语言模型:大规模语言模型的发布数量在两年内(2022-2024 年)增长了 420%。 视觉模型:大型图像模型同比增长109%。 语音/音频模型:发布的模型数量同比增长 367%。 视频模特:发布量同比增长 120%。 3、大语言模型平台: 网站访问量:OpenAI ChatGPT 在 2024 年 5 月至 2025 年 4 月期间的全球网站访问量达到 51 亿次,位居榜首。DeepSeek 和 xAI Grok 等其他 LLM 的访问量也呈上升趋势(分别为 1.96 亿至 4.8 亿次),其中 xAI Grok 的访问量截至 2025 年 3 月增长迅速。 用户份额(桌面月活跃用户):2025 年 4 月,OpenAI ChatGPT 在六大领先的 LLM 中,拥有全球月活跃桌面用户份额最高,其次是 Google Gemini。 用户份额(移动应用月活跃用户):OpenAI ChatGPT 在 2025 年 4 月的全球月活跃移动应用用户份额中也处于领先地位,其中 DeepSeek 和 Grok 呈现快速增长。 移动应用下载量 用户:2025 年 2 月至 4 月,ChatGPT 的下载量从 5600 万次增长至 1.24 亿次,月活跃用户数从 3.78 亿增长至 5.3 亿次。DeepSeek、Grok 和 Gemini 的下载量和月活跃用户数也均有所增长。 查询量:OpenAI ChatGPT 在全球每日查询量(MM)方面领先,其次是 Meta AI 和 Google Gemini。 产品发布:2025 年 5 月 19 日当周,谷歌(Gemini Live、Project Mariner、更新的 Gemini 模型、Project Astra)、微软、Anthropic 和 OpenAI 发布了众多 AI 产品,表明竞争和创新十分激烈。 4、全球互联网普及率 到 2024 年,全球互联网普及率将达到68% ,高于 2005 年的 16%。到 2023 年,除南亚和撒哈拉以南非洲地区外,所有地区的互联网普及率都将超过 70%。2024年全球互联网用户将达到近60亿。 Starlink 正在 AI 时代解锁以前无法访问的互联网接入。截至 2025 年 2 月,SpaceX Starlink 在全球拥有超过 500 万用户,3.2 年间年增长率达 202%。Starlink 的全球覆盖范围正在扩大,不同地区的用例也多种多样。 结语 世界正在经历由人工智能驱动的前所未有的变革,其特点是用户和使用量的快速增长、巨额资本支出、技术进步的复合增长、性能的显著提升以及各行各业的广泛应用。虽然这为新进入者和科技巨头提供了巨大的盈利机会,但同时,竞争加剧、开源模型的势头以及中国的崛起,新的全球格局正在塑造。人工智能与卫星技术的融合也推动了全球互联网用户的增长。 读完玛丽·米克的《互联网趋势报告》,最大的感受是世界的变与不变。变化的是AI从聚光灯下的“明星技术”,一跃成为整个信息世界的基础。它不再是互联网趋势的一部分,而是定义了下一代互联网乃至整个社会形态的核心驱动力。不变的是底层逻辑,算法、算力和数据的重要性、技术驱动是变革的核心力量、以及人类对未来的探索,依然贯穿始终。
他用AI三天做了个网站,结果被黑了两次!氛围编码大翻车
今年 2 月,OpenAI 前创始成员 Andrej Karpathy 凭一己之力,带火了一个词——“氛围编码”(Vibe Coding)。 简单说,就是“你说想法,AI 写代码”。就算完全不懂编程,只要有个点子,借助像 Cursor、ChatGPT 这样的 AI 工具,也能快速做出一个应用、小游戏之类的。这种“说着就能写程序”的方式吸引了不少开发者尝试。 不过,看起来轻松高效的背后,也藏着不小的安全隐患。并不是每个人、每个项目都适合靠“氛围”上代码。 这不,一位开发者 Harley Kimball 就在 X 上分享了自己使用“氛围编码”而后“掉坑”的经历。他用了三天不到的时间开发并上线了一个聚合网站的应用,殊不知,却在随后短短两天内接连遭遇两次安全漏洞攻击。 幸运的是,这两次攻击都由白帽黑客(负责任的安全研究员)在没有恶意破坏的前提下发现并反馈。为此,Harley Kimball 将自己的遭遇进行了总结与复盘,希望为更多的初创项目和个人开发者敲响警钟。 三天快速开发的网站 Harley Kimball 做的这个应用,说白了就是一个把各大安全研究员平台(像 HackerOne、Bugcrowd、GitHub 这些)上的公开资料集中到一块的网站。用户注册登录之后,可以一眼看到各路白帽黑客的公开档案。 Kimball 的初衷,是想给整个漏洞赏金圈搞一个“查号宝典”,方便大家快速找到相关研究员的资料。 据 Kimball 自述,这款目录网站的前端是通过 Cursor 和 Lovable 等 AI 编程工具搭建的,并与 Supabase 提供的云数据库服务相连。Supabase 在开发者中颇受欢迎,提供开箱即用的认证、存储和数据库功能。 不过,整个系统中最关键的数据采集部分——也就是把各个平台的公开资料导入数据库的过程——是通过独立的自动化脚本来完成的,并没有集成在前端或用户操作中。这种“前后分离”的设计,虽然能让界面更轻便,也便于快速上线,但也意味着如果底层权限控制没做好,系统可能在开发者都没注意到的地方暴露风险。 起初,Harley Kimball 打算让用户使用 Supabase Auth 自行注册,并提交他们想要汇总的个人资料。但在开发过程中,他意识到,处理用户注册不仅涉及身份验证(Authentication),还涉及权限管理(Authorization)——如果管理不当,可能造成数据被恶意篡改。 因此,他放弃了自助注册功能,转而采用只读的数据视图...令他没想到的是,这也成为了第一个安全漏洞的导火索。 第一次被攻破:邮箱泄露引发的权限绕过 在开发测试阶段,Kimball 采用 Supabase 提供的用户认证功能,这意味着用户必须使用真实邮箱注册登录。 然而,他在检查前后端的数据传输时意外发现:用户邮箱信息会被一并返回给前端页面,存在泄露风险。虽然这些邮箱可能原本是公开的,但一旦用户对平台抱有隐私期待,这种行为就可能构成严重的问题。 为了修复这个漏洞,他采用了一个常见的处理方式:用 PostgreSQL 创建了一个“视图”(view),只提取所需字段,排除了邮箱信息,并让前端只访问这个视图。表面上看,这个做法更安全了——然而,问题也悄然埋下。 正式上线后不久,也就是在第一个版本发布不到 24 小时,一位安全研究员反馈称:尽管网站的前端并没有提供新增或修改数据的入口,他依然能在数据库中随意插入、修改和删除记录。这显然说明,系统的访问权限控制出了问题。 问题的根源,出在那个看似“安全”的数据库视图上。 Kimball 在创建视图时,使用的是默认设置——也就是说,这个视图运行时会继承其创建者(也就是管理员)的权限。而 PostgreSQL 的行级安全(Row-Level Security, RLS)机制,是需要额外配置才能在视图中生效的。如果没有手动启用“SECURITY INVOKER”或加上专门的安全限制,RLS 就会被绕过,导致权限失控。 这正是这次“首个安全漏洞”的核心原因。所幸,一位名为 @Goofygiraffe06 的研究员负责任地报告了这个问题,Kimball 随后紧急修复了访问权限,重新设计了数据的查询方式,堵上了这个漏洞。 第二次被攻破:关闭前端不等于关闭后台 就在首个安全漏洞修复的第二天,Kimball 又收到了另一位安全研究员 @Kr1shna4garwal 的提醒:攻击者依旧可以注册账号并创建数据。他们发现依然可以往数据库中添加新的“研究员档案”——虽然不能修改或删除已有数据,但这意味着系统的访问控制没有完全锁死。 这一次的问题,并不是出在前文提到的数据库视图上,而是另有隐情。 Kimball 虽然在前端界面上取消了“用户自助注册”入口,但后台使用的 Supabase 认证服务(Auth)依旧处于激活启动状态。换句话说,攻击者只要知道 API 的调用方式,就可以绕过前端,通过邮箱和密码注册一个新账号,成为系统“眼中”的合法用户,并按照既有的权限规则操作数据。 这种“前端没入口,但后端没封死”的配置,在不少使用现成后端服务的项目中很常见,也很容易被忽视。 最终,Kimball 通过彻底关闭 Supabase Auth 的注册功能,才完全堵上了这个权限漏洞。 经验教训:氛围编程虽快,安全不能缺位 Kimball 在总结这次“上线即被攻破”的经历时,也分享了几点关键反思,对依赖低代码或 AI 工具进行开发的开发者具有一定参考意义: 首先,“氛围编码”(vibe coding)虽然能让项目快速成型,但默认状态下往往忽略了安全配置,一不小心就会留下严重漏洞。 其次,Supabase 和 PostgreSQL 这对组合功能强大,但它们的权限模型也相对复杂。特别是在使用数据库视图(view)和行级安全策略(Row-Level Security,RLS) 时,如果开发者不了解其背后的默认行为,就很容易配置失误,导致权限失控。 比如,PostgreSQL 中的视图默认是以创建者(通常是管理员)的权限运行的,这意味着 RLS 策略会被绕过,除非显式指定为 SECURITY INVOKER,或另行设置安全策略。 此外,如果项目并未真正使用 Supabase 的认证功能,务必在后台设置中彻底关闭注册入口——仅仅在前端页面隐藏相关功能远远不够。 Kimball 表示,他的应用主要聚合的是公开数据,因此这两次安全事件的实际影响有限。但如果系统涉及的是敏感信息,例如个人身份数据(PII)或健康信息(PHI),类似的配置漏洞可能会造成灾难性后果。 这起事件也提醒开发者,即便是看似简单的工具链和“只读数据”的项目,也必须进行基础的威胁建模与权限审查。快速上线不代表可以省略安全流程,尤其是在 AI 编码与自动化工具愈发普及的当下。
特斯拉 Model S 将迎来更新,但它早已不再是标杆
从惊艳众人 到自然消亡 特斯拉工程副总裁曾在今年早些时候表示,「Model S 和 Model X 今年会得到一些喜爱」,但目前看来,所谓的「喜爱」不过是又一次微小的升级。 根据在国外已经曝光的实拍图来看,新款 Model S 的前包围进行了调整,左右两侧的导风槽进行了加深,让车辆在视觉效果上的动感增强了一些。 从图片上还可以观察到新款 Model 配备了全新样式的半封闭式轮毂,能够在一定程度上提升车辆的空气动力学性能。此外新车还新增加了一款更加年轻和时尚的蓝色车漆,整体效果与现款 Model Y 的冰河蓝较为相似。 新款 Model S 的侧面和尾部造型并没有发生明显的变化,但是另一组谍照显示 Plaid 版本会使用新的进气口和前唇造型以及后包围。 特斯拉 Model S Plaid 版谍照 图片来自:Carscoops 新 Model S 的内饰则将依旧保持现有的造型,继续配备液晶仪表和大尺寸的中控屏幕,并将继续使用屏幕挂挡的方式。 现款 Model S 内饰 在动力配置上, 双电机全轮驱动版车型的电机总功率依然为 493kW,Plaid 版车型的电机总功率则为 750kW,电机所带来的马力为 1020hp,零百加速时间为 2.1 秒。新车全系将配备 100 kWh 的三元锂电池组,CLTC 工况下的续航分别为 715 公里和 672 公里。 特斯拉 Model S 自 2012 年投入生产以来,虽然曾多次更新内饰、动力总成以及电池,但是车辆的造型、动态表现和悬架底盘等部分在 13 年来一直未做调整。 作为特斯拉的旗舰轿车,Model S 在更新后依旧没有 800V 架构、超快速充电等较为先进的电子电气设计,曾经引以为傲的悬架和底盘也正在逐渐落后于时代。 Model S 的 Yoke 方向盘 毫无疑问,Model S 是一辆开创性的新能源汽车,但是随着市场环境的变化,消费者的兴趣也转向了更便宜也更实用的 Model Y 等车型,在经过一次涨价之后,Model S 的销量更是一度来到了两位数——在今年前 5 个月,特斯拉在欧洲仅售出了 69 辆 Model S,相比之下奔驰 EQE 约售出了 7300 辆,宝马 i5 约售出了 3300 辆。 除了几乎可以忽略不计的销量以外,特斯拉 Model S/X 目前在英国、日本和澳大利亚等国家已经不再销售,预定了 Model S/X 消费者会邀请将订单切换到 Model 3 或者 Model Y,并且中国官网也在今年 4 月份下架 Model S/X 两款车型的配置工具。这一系列动作引发了外界对 Model S/X 正走向「自然消亡」的猜测。 在特斯拉内部的车型序列上,Model S 也正在失去作为新设计和新技术测试平台的地位,马斯克曾认为特斯拉应该先造出一辆最好的车然后在其基础上进行削减和优化,但最近有消息说正在开发一款基于新平台构建的全新电动汽车。该项目在内部被命名为「Redwood」,预计将在 2026 年推出。 在今年早些时候的电话会议上,马斯克曾证实新一代特斯拉的第一款车将于 2025 年年中在奥斯汀工厂投入生产,从目前曝光的信息来看,该平台并不是专为紧凑型所开发的,而是更有可能先支持更大更豪华的汽车,即 Model S 的继任者。 特斯拉 Redwood 概念车 图片来自:teslarati Model S 在 2012 年横空出世之时,它像是一款从未来穿越而来的产品,但是十三年后的今天,它似乎正逐渐被自己掀起的电动化浪潮所淹没,相信有很多人都会想看到一辆带有改进型电机、800V 架构,甚至配备四轮转向系统的 Model S,但随着马斯克的注意力越来越不在电动汽车身上,这种希望也正变得愈发渺茫。 文|芥末
企业级AI迈入黄金时代,企业该如何向AI“蝶变”?
近日,微软(MSFT.US)在最新全员大会上高调展示企业级AI业务进展,其中与巴克莱银行达成的10万份Copilot许可证交易成为焦点。 微软首席商务官贾德森·阿尔索夫在会上披露,这家英国金融巨头已签约采购相当于10万个使用席位的AI助手服务。若按每位用户每月30美元的官方标价计算,这笔交易年化价值可达数千万美元。 阿尔索夫进一步透露,包括埃森哲(ACN.US)、丰田汽车(TM.US)、大众集团和西门子在内的数十家企业客户,其内部Copilot用户规模均突破10万量级。 微软CEO萨蒂亚·纳德拉在大会上强调,公司正密切跟踪客户员工的实际使用率,而非单纯追求销售数字。尽管微软拒绝就此置评,但这场内部会议释放的信号清晰:这家科技巨头正将企业级AI市场作为核心战略阵地。 生成式AI价值在企业端绽放 从过去一年多的发展来看,AI技术应用的热门场景更多的还是在消费侧,无论是“文生文”的大语言模型,还是“文生图”的多模态模型,更多的是辅助人们进行一些简单的办公,或者提供一些娱乐。 生成式AI离真正成熟的企业级应用尚需时日。不过随着技术的不断发展,2025年,将会有更多的企业级AI应用落地,而AI与产业的融合也将成为今年科技圈的焦点话题之一。 消费侧的场景仅是生成式AI的冰山一角,生成式AI真正的价值还得看企业侧、行业侧的应用。相较于消费侧,企业级AI应用有着更广泛的需求和潜力。生成式AI在包括HR、财务和供应链流程自动化、IT开发和运维的智能化,以及企业资产管理、数据安全等方方面面均有着大展拳脚的机会。 从行业角度出发,包括金融、医疗、法律咨询、教培等偏服务型的行业有望率先有较成熟的生成式AI落地。 企业级AI平台将成最优解 除了金融和医疗行业以外,其他各个行业也都在积极探索生成式AI与业务结合的场景。各行业当下对待AI的态度如同几年前对待云计算的态度一般。 而AI也将“接棒”云计算,成为未来企业数字化关注的焦点。过去十五年间,企业数字化成就了云计算,未来的十五年将迎来企业应用AI赋能的关键时刻,而混合云+AI也必将成为未来很长一段时间内,企业数智化的最优解。 目前,企业级AI应用方式主要有三类:嵌入软件、API调用和搭建企业级AI平台。 嵌入软件是目前企业应用AI赋能业务最简单的方式,但也是差异化最低的一个,无法根据企业自身需求进行更高层次的探索。 相较于嵌入软件的形式,API调用具备了一定的差异化能力,企业可以根据自身需求调用外部大语言模型,从中取得一些不一样的效果。这个方式相对比较经济、便捷,同时又可以实现一定程度上的差异化需求。但企业所用的大语言模型也能被其他企业调用,时间久了差异化的能力会逐步减弱。 现阶段,企业应用最好的方式就是搭建自己的企业级AI平台。云计算将会是未来很长一段时间内企业数字化的主要手段,而AI发展的趋势也是不可逆的,AI已经成为企业核心竞争力,所以企业需要打造自己的企业级AI平台。虽然这种方式短期上来,企业的投入相较于其他两种更大,但长期来看,企业投入的回报率非常可观。 企业搭建属于自己的企业级AI平台显然已经成为当下各行业企业提升自身竞争力,以及差异化能力的重要手段之一。但是从现有的应用上来看,生成式AI在企业侧的应用仍处于方兴未艾的状态。 纵观生成式AI在企业侧应用不难看出,目前仍存在几点问题。 首先,大模型“幻觉”问题是制约生成式AI在企业侧发展的首要因素。企业侧应用不像消费侧,企业侧应用场景大多对于准确性、安全性要求要远高于消费侧的场景,而“幻觉”的问题将导致企业在决策、安全等方面面临着众多隐患,这也是生成式AI之所以在行业应用场景落地较慢的核心因素。 其次,现阶段,大模型主要的能力还是体现在文字、文档处理,一般性的聊天和较浅显的专业问答方面,以及通用视觉领域的问答和生成方面,对于逻辑推理要求和准确性要求高的专业语言领域,涉及学科和工程相关图片、视频识别的专业视觉领域,以及“文生视频”等能力仍需技术迭代。 目前,具备多模态能力的大模型产品目前仍难以在行业侧的落地应用的能力,但多模态模型将成为大模型领域各大厂商角逐的焦点。随着多模态模型成熟度不断变高,会有更多的行业应用场景出现。 再次,安全问题也是企业关注的焦点。当下,数据已经成为企业重要的资产,在利用任何数字技术的时候,企业都会优先考虑安全问题,而应用生成式AI赋能业务,需要大量企业内部数据对原有模型进行训练才能达到更好的效果。 在这个过程中,如何确保企业数据不会泄露,甚至被竞争对手利用,是当下企业对于应用生成式AI赋能业务有所担忧的核心问题之一。 对此,企业需要采取一系列的安全措施和技术手段,如加强数据加密和访问控制、建立安全审计和监控机制、采用对抗性防御技术提升模型的稳健性、完善隐私保护政策和机制等。 从现阶段企业应用AI的趋势来看,大多数企业对AI应用保持积极的态度,积极探索AI与业务相结合的方式,但我们离真正成熟的企业级AI应用爆发式涌现还尚需时日。不过无论是企业侧,还是AI服务供应商侧,都在积极的探索和布局。 数据、场景、规模化应用 当生成式AI风头正劲,越来越多的企业开始积极在自身行业布局相关的AI应用。但在风头之下,从准备工作到业务价值落地之间环环相扣,从数据准备到筛选场景,再到落地应用,每一个环节都会成为企业级AI应用的卡点。 从现阶段应用来看,具备企业级AI应用落地的企业并不多,若想有更多成熟的生成式AI应用场景落地,企业首先需要大量多维度的高质量数据。无论是对于政府,还是企业,数据已经成为AI时代的“石油”。 2022年底,ChatGPT横空出世以后,新一轮AI的浪潮席卷各行各业,企业对于数据的重视程度越来越高。随着大数据产业的发展,数据质量越来越高的前提下,人工智能已经逐渐从以代码为中心,转向以数据为中心的人工智能。当下企业需要通过加强数据治理和增强数据质量,来解决模型输出效果。 好的企业显然已经在数据方面做好了“就绪”。比如宝马从2018年就开始数据资产化进程,建立数据和AI的团队,特别是最近几年,很多企业把数据落湖,进行资产化。 数据资产化之后,对于大型企业来说,实现了跨地域、跨业务部门之间异构数据的互通互享。只有打通数据的通路,才能在此基础上进行应用开发,无论是做用户高级分析,还是AI模型的训练,就显得得心应手了。 而伴随着生成式AI的火爆,合成数据也成为了大模型时代企业训练大模型的“必备品”,Gartner数据显示,2026年,GPT等大型语言模型就将耗尽互联网上可用的文本数据;2030年,合成数据将彻底取代真实数据。 尽管合成数据发展的速度超乎想象,不过目前业内对合成数据的看法并不一致。 一种观点认为,合成数据无异于“近亲繁殖”,会造成模型崩溃的情况,这种观点主要的核心理论是:如果在训练中不加区别地使用AI产生的内容,模型就会出现不可逆转的缺陷——原始内容分布的尾部(低概率事件)会消失。 另一种观点认为,当现实中高质量数据不足的时候,合成数据能够精准的提供高质量的数据。合成数据是现在比较有效的方法,特别是训练一些大模型的时候,主要原因是因为合成数据的质量比较高,覆盖性比较好,可以满足利用一些比较精简的数据集训练出好用的模型产品。 数据的重要性在当下已经不言而喻,而数据就绪也成为了企业在利用大模型产品赋能业务发展的过程中的第一步,既是基础,也是前提。 拥有了足够量的高质量数据,企业才具备大模型的“入场券”,而进场之后,如何才能让大模型产品帮助到自身业务发展?找准场景就成为企业第二步要做的事。 目前企业场景中,比较容易率先应用大模型的场景是对一些原有的类似智能客服的产品的迭代。 一方面,这些简单的大语言模型的应用目前已经可以做到无需GPU卡就能实现,从部署成本上,给企业降低了部署的成本,当然也降低了试错的成本;另一方面,原先的知识问答类的产品,并不能很好地理解人们的诉求,但当植入了大语言模型的能力之后,能让智能问答类的产品有质的飞跃。 对于智能问答类的产品的延伸——知识图谱,也是企业现阶段可以率先应用大模型赋能的一环。 此外,从应用的深度上看,企业的IT运维管理方面,也是企业率先应用大模型时好的选择。大模型的能力对复杂的IT运维环境提供了更好的监控,优化资源配备的能力,可以监控到指令级的问题,并对问题进行自动化的干预。 除了知识类和IT运维类的应用以外,立足各行业中,企业也在积极的探索大模型的应用。从目前的应用场景上看,医疗、金融这两部分是比较常见的,也是落地比较快的两个场景。 金融行业方面,现阶段,大模型在金融行业的应用主要还是集中在风险评估和管理,以及知识图谱平台搭建方面。在风险评估方面,大模型可以通过分析大量的历史数据和实时信息,预测市场风险、评估信用风险等,为金融机构提供更加准确和及时的风险管理决策支持。 另一方面,金融机构还在尝试将大模型与知识图谱平台结合,用大模型代替NLP技术,在进一步提升效率的同时,提升风控水平。 医疗行业方面的应用目前主要集中在识别和同样是类似问答的分诊领域。一方面,通过行业大模型对大量医疗数据的学习和分析,可以自动识别病变特征,辅助医生进行疾病诊断,提高诊断准确率与诊断效率;另一方面,通过类似“AI助手”的模式,利用大模型为患者提供分诊助手也是在医疗侧目前布局厂商较多的一类产品。 除了金融和医疗领域,其实还有很多领域涌现了不少大模型可以应用的场景,虽然这些场景有一些不错的落地效果,但企业也不应该对大模型“趋之若鹜”。 如果一个企业级AI应用没法形成规模化应用,那么这个应用、这个场景对于企业而言意义不大。无论是传统AI,还是生成式AI技术,如果好几月才能做一个场景,且无法规模化应用,那就不能说是企业级AI。 如果能将AI的能力通过平台化进行复制,重复使用AI的能力,对于企业而言,使用AI的成本与技术门槛将会下降很多。 平台化仅是企业级AI规模化应用的开始和前提,在实现了平台化的能力后,通过公司内部的系统对AI应用集成决定了企业级AI规模化成败的关键。很多内部的应用系统都具有关联性,通过这些系统,将AI的能力进行集成后,就能产生联动效应,才能实现真正的规模化应用。 从微软的千万级订单到各行业的积极试水,企业级AI已从概念验证迈向规模化落地的关键阶段。未来十年,随着大模型幻觉问题的技术突破、多模态能力的成熟、数据安全体系的完善,AI将深度渗透生产、管理、服务全链条,逐步从“试验田”变为“生产力引擎”。对于企业而言,构建“数据资产化+场景智能化+平台生态化”的能力体系,既是应对未来竞争的必修课,也是把握AI产业红利的战略机遇。 正如云计算重塑了企业IT架构,AI正以更深刻的方式,重新定义商业世界的效率边界与价值创造逻辑。当技术创新与产业需求同频共振,企业级AI的黄金时代,正在加速到来。
vivo守城:血战中端机
|GUIDE| ■ vivo是怎么突出重围的? ■ vivo为什么必须守住中端机市场? ■ 中端手机如何打造差异化 虽然各大手机厂商竞相用黑科技、硬科技,展现“高端”,但更接地气的“腰部”市场,才是出货量的主战场——在中国智能手机市场近10亿用户中,有5亿用户使用的都是价位段在2k—4k范围的中端机。 近一两个月,手机厂商的新品发布同样表明,手机厂商在中端市场的白热化竞争仍在继续。公开资料显示,自5月15日OPPO Reno14面世以来,华为nova 14系列、小米Civi 5 Pro以及荣耀400系列轮番登场,5月29日发布的vivo S30系列则将中端机市场的焦灼战推向了新高潮。 更有意思的是,荣耀与vivo新机都将在6月6日首销,同台竞技看似热闹,实则透露着中端手机厂商在当下的压力。 对vivo而言,所面临处境同样已有隐忧,换机周期变长、手机供应链效率达到极致、华为的强势回归…… 事实上,vivo的挑战的确来自市场基本盘的跌落,IDC数据显示,在2025年中国市场Q1的市场份额排名中,vivo以14.6%的位居第四,与去年国内市场第一的状况形成鲜明对比。即便不同调研机构在数据统计层面稍有偏差,却依然难掩vivo下滑的态势。 考虑到中端机在整个行业销售中的规模占比和vivo自身的产品分布结构,可以肯定的是,中端机是vivo不可失守的核心盘面。 01 突围 在智能手机行业十多年发展的历程中,中端机最早追求的是性价比,也就是在处理器、散热、拍照等方面能满足消费者的基本需求即可。 在此背景下,酷派、魅族、金立、Redmi、荣耀、联想等品牌都将主攻中端机市场作为核心商业策略,当时的智能手机市场尚为一片蓝海,各家厂商均通过机型打造来赢得增长,并细分出多个系列来丰富产品线。 多年过去,vivo成为率先突出重围的玩家,并跻身主流阵营,这一成绩得益于vivo在产品打法、技术深耕与渠道韧性上的深耕布局。 首先是机海战术。 在早期参数为王的行业发展阶段,vivo通过推出数十款机型,形成了Y系列、S系列、IQ系列等不同价位端的中低端产品体系,满足了不同消费层级需求,如,iQOO关注游戏发烧友对性能的需求,持续带来更炫酷和硬核的技术。由此,vivo靠着以量取数方式在众多竞争对手脱颖而出。 第二,是以影像为重点的持续投入。 公开资料显示,2019年,vivo确立了设计、影像、系统、性能四条长赛道,并成立中央研究院专注三年以上的前沿技术研发。在这些领域的探索让vivo的产品在国产手机梯队中表现突出。以影像赛道为例,vivo组建了超过千人的研发团队,从“微云台”防抖技术,到自研影像芯片V1,多种技术代际差的积累,让vivo在中低端市场保持了性价比优势。 第三是渠道精准,大大提升了铺货效率。 vivo的渠道优势源自对下沉终端运营商市场的快速占位,进而极大程度提高了渠道承载能力和产品水位,构建起相对坚实的规模壁垒,这在客观上带动了vivo中端机覆盖面和激活量的上升。 深入到城镇的门店,是vivo销量的抓手。在下沉市场,vivo的线下门店数量远超华为、小米。 截至2024年,vivo线下门店已超25万家,覆盖直营店、代理商体验店及经销商加盟店,支撑起了销量盘面。 这些策略的配合,很快推动了vivo市场份额的激增,带动vivo在过去4年持续稳居中国手机市场份额榜首。考虑到vivo在中国高端机市场份额中的占比并不高,这也能反过来证明,中端机市场对vivo的绝对出货规模至关重要。 vivo过去的成绩,从根本上讲,得益于智能手机产业红利的持续释放,以及vivo本分文化在中端价位段上的战略投入定力。不过到了今天,市场竞争格局、产品定义和渠道销售模式都已走至崭新阶段。 02 承压 在过去的五六年时间里,中国智能手机市场呈现出两个特点,一是高端化,600美元或4000元人民币以上的手机市场份额从11%提升至28%,二是从增量时代迈入存量时代。 这两个因素,对中端手机来说,是更加危险的信号,这意味着手机厂商在中端领域的分化趋势将进一步明显。 以2024年为例,中国市场的上市新机型已高达396款,其中以中端机占据大多数,存量时代下行业玩家在此价位段的厮杀更加白热化,由此带来电池、处理器、影像、外观等参数、设计上的性能过剩,例如,部分厂家在2k+价位段机型中早期引以为傲的轻薄设计、卫星通信、防摔、AI护眼等功能卖点已几乎成为行业机型标配。 好在,从去年四季度开始的国补成为推动消费者换机的重要动力,且中低端市场更加受益,这让中端价格带手机得到一丝喘息,但结合前面所提到的中端新机频发,现在仍然是白热化竞争阶段。 性能同质化仅是一方面,为了获得更多的份额规模,各大品牌近年还纷纷加大线上渠道通路布局和线下零售阵地建设,试图增强自身品牌声量,但这些举动带来的问题是:价格和阵地内卷。 以618为例,统计显示,天猫618第一阶段,已有超2000款手机支持天猫618优惠与国补叠加,补上加补,低至5折起,覆盖华为、小米、OPPO、vivo、荣耀、三星、一加等主流手机品牌,不乏一些中端机型已将价格降至与上市时相差甚远的价格水平。 而相比其他产品、业务更加多元的厂商,vivo的安全边际是更低的,价格内卷受到的利润冲击也将更大。 在阵地方面,在手机行业已逐渐从过去多年的粗放式销售转为更加注重体验式购买消费趋势下,不少厂家在线下均设置有单独的渠道拓店目标,即通过给予渠道商一定的激励和返点,推动渠道商开设各自的品牌体验店,在城市高端商业空间有限的情况下,品牌阵地建设的速度已成考验厂商经营效率的试金石。 只是相比其他一些友商,vivo在自有品牌店上攻势尚有不足,这从vivo在一些三、四线城市的品牌店面数量就能看出。 此外,一些有着生态产业链的企业甚至还试图打通产业边界,形成“手机+跨界产品”的丰富矩阵,也带来了更大的品牌势能,从厂商之间的出货数据结果上也能印证这一观点。 据此前一些科技媒体报道,第三方数据显示,截止2025年第20周,华为nova 13系列的总出货量达到约656.3万部;而vivo S20系列共售出约276.9万台,也就是说,尽管nova13系列较S20系列较早上市近一个月,但vivo的差距依然相对明显。 换句话说,在技术普惠、价格与阵地内卷的行业大状况下,vivo早期在硬软件技术和渠道竞争壁垒开始被打破,市场份额减少的风险在提升。 随着中低端市场上“排位竞赛”竞争程度的加剧,一些厂商开始把旗舰技术下探,可在手机迭代周期变短、产品差异化越来越小的背景下,如何突围内卷,构建新的产品增量,成为vivo面临的一大难题。 03 差异化 消费者选择高端机产品往往受品牌声量、溢价保值率、颠覆性创新技术等因素影响,但中端机受制于成本约束,无法提供类似高端机那般既有又有的卖点,消费者受制于预算约束,也不能既要又要。 于是,在智能手机增长红利日渐尾声的环境下,不乏手机厂商着手将用户的需求进行细化,以精准解决用户某一点具体需求,从而带来在该价位区间的差异化优势和增量机会。 最明显的例子是,荣耀推出了新品荣耀GT Pro,主攻电竞赛道,性能、续航、护眼全方面升级,首销斩获全平台3~5K档位销量冠军;同时荣耀Power率先突破行业8000mAh关卡,带动荣耀品牌在2~2.5K份额第一,份额在该周期内重回国内前五;Redmi则是用一款电池“超大杯”的Redmi Turbo 4 Pro引爆市场;vivo依托电竞优化与快充技术扩大覆盖范围。 这表明,放大中端机在某一细分领域的优势,或可成为手机厂商在增强该档位竞争力方面的有益探索。 再加上,由于研发、供应链等成本上的限制,中端产品本身就难以靠通用优势占据市场制高点,这同样为勇于打造极致场景和极致卖点的厂家提供了机会,也推动了行业朝着场景深挖方向加速演进。从本质上讲,精确匹配用户需求,解决用户痛点的产品,反倒更有竞争力。 而vivo过去的成功,很大程度上也基于细分优势,尤其是影像。从vivo近期启动“蓝极星计划”的顶尖人才招募项目看,vivo擅长的影像方向成为招募名额最多的方向,进一步佐证了vivo在此领域的坚实基础,以及未来持续借此构建差异化爆款竞争力的可能。 vivo执行副总裁胡柏山曾明确表示,vivo目前在AI以及影像上所做的投入是目前手机品牌中最大的,人员的投入分别有上千人。在今年1月,vivo创始人、总裁兼首席执行官沈炜提出,“回顾30年的企业发展历程,我们所追求的科技本原,始终是探寻对用户有意义的改变”。 考虑到华为回归的现实影响以及其在芯片、系统、生态等方面的护城河优势,对于vivo而言,十来年在中端机市场的形成的包括渠道、价格、产品结构等方面打法,已经逐渐褪去原有的优势。 通过体系化的技术生态储备和在细分化产品卖点上的极致突破,或许是vivo形成自身独特竞争力的关键之举。
又一次无关痛痒的更新,Model S 正在走向自然消亡
特斯拉工程副总裁曾在今年早些时候表示,「Model S 和 Model X 今年会得到一些喜爱」,但目前看来,所谓的「喜爱」不过是又一次微小的升级。 根据在国外已经曝光的实拍图来看,新款 Model S 的前包围进行了调整,左右两侧的导风槽进行了加深,让车辆在视觉效果上的动感增强了一些。 从图片上还可以观察到新款 Model 配备了全新样式的半封闭式轮毂,能够在一定程度上提升车辆的空气动力学性能。此外新车还新增加了一款更加年轻和时尚的蓝色车漆,整体效果与现款 Model Y 的冰河蓝较为相似。 新款 Model S 的侧面和尾部造型并没有发生明显的变化,但是另一组谍照显示 Plaid 版本会使用新的进气口和前唇造型以及后包围。 ▲特斯拉 Model S Plaid 版谍照 图片来自:Carscoops 新 Model S 的内饰则将依旧保持现有的造型,继续配备液晶仪表和大尺寸的中控屏幕,并将继续使用屏幕挂挡的方式,不过有消息称,特斯拉或许将在新车上增加多彩氛围灯、前排手机无线充电、一体式运动座椅等配置。 ▲现款 Model S 内饰 在动力配置上, 双电机全轮驱动版车型的电机总功率依然为 493kW,Plaid 版车型的电机总功率则为 750kW,电机所带来的马力为 1020hp,零百加速时间为 2.1 秒。新车全系将配备 100 kWh 的三元锂电池组,CLTC 工况下的续航分别为 715 公里和 672 公里。 特斯拉 Model S 自 2012 年投入生产以来,虽然曾多次更新内饰、动力总成以及电池,但是车辆的造型、动态表现和悬架底盘等部分在 13 年来一直未做调整。 作为特斯拉的旗舰轿车,Model S 在更新后依旧没有 800V 架构、超快速充电等较为先进的电气架构,曾经引以为傲的悬架和底盘也正在逐渐落后于时代。 ▲Model S 的 Yoke 方向盘 毫无疑问,Model S 是一辆开创性的新能源汽车,但是随着市场环境的变化,消费者的兴趣也转向了更便宜也更实用的 Model Y 等车型,在经过一次涨价之后,Model S 的销量更是一度来到了两位数——在今年前 5 个月,特斯拉在欧洲仅售出了 712 辆 Model S,相比之下奔驰 EQE 约售出了 7300 辆,宝马 i5 约售出了 3300 辆。 除了几乎可以忽略不计的销量以外,特斯拉 Model S/X 目前在英国、日本和澳大利亚等国家已经不再销售,预定了 Model S/X 消费者会邀请将订单切换到 Model 3 或者 Model Y,并且中国官网也在今年 4 月份下架 Model S/X 两款车型的配置工具。这一系列动作引发了外界对 Model S/X 正走向「自然消亡」的猜测。 在特斯拉内部的车型序列上,Model S 也正在失去作为新设计和新技术测试平台的地位,马斯克曾认为特斯拉应该先造出一辆最好的车然后在其基础上进行削减和优化,但最近有消息说正在开发一款基于新平台构建的全新电动汽车。该项目在内部被命名为「Redwood」,预计将在 2026 年推出。 在今年早些时候的电话会议上,马斯克曾证实新一代特斯拉的第一款车将于 2025 年年中在奥斯汀工厂投入生产,从目前曝光的信息来看,该平台并不是专为紧凑型所开发的,而是更有可能先支持更大更豪华的汽车,即 Model S 的继任者。 ▲特斯拉 Redwood 概念车 图片来自:teslarati Model S 在 2012 年横空出世之时,它像是一款从未来穿越而来的产品,但是十三年后的今天,它似乎正逐渐被自己掀起的电动化浪潮所淹没,相信有很多人都会想看到一辆带有改进型电机、800V 架构,甚至配备四轮转向系统的 Model S,但随着马斯克的注意力越来越不在电动汽车身上,这种希望也正变得愈发渺茫。
iPhone上的拍照键:既不快捷,也不方便
2024 年 9 月,伴随着 iPhone 16 系列一起发布的除了 Apple Intelligence 期货,还有个让人出乎意料的新硬件形态:一枚独立的相机控制按键。 在 iPhone 16 发布后,在影像上大举投入的 OPPO 和 vivo 也不约而同地选择了「从善如流」,跟随 iPhone 的步伐也加上了功能类似的相机按键。一样支持重压和轻按、一样可以通过滑动调整参数,唯一的区别就是 OPPO 和 vivo 都选择了振动模拟触感的方式,没有给相机控制按键做机械结构。 图|微博 @vivo韩伯啸 虽然从技术上看着很有吸引力,但是伴随着其中发布最晚的 vivo X200 Ultra 上市后口碑逐渐稳定,一个熟悉的话题没过多久便重新冒了出来: 相机控制按键,真的不好用。 不方便,却很麻烦 对于 iPhone 16 系列 Camera Control 的抱怨实际上由来已久,因为苹果给这颗不到 2 厘米的小小按键塞进了太多的功能。单次或双次按下启动相机、轻捏锁定焦点和曝光、轻按两下进入功能拨轮、再按一下进入功能滑杆、左右滑动调节参数,真是不够它忙活的。 然而这些功能在演示的时候看着很美好,实际使用中却有一个过不去的门槛:这种调节参数的方式根本就不方便,尤其是对于手机上已经有的触屏控制来说。以 iPhone 16 Pro 为例,主摄可以模拟 24mm(1 倍)、28mm(1.2 倍)和 35mm(1.5 倍)的焦距,如果想要切换,只需要反复点击相机底部的倍率按键即可: 但是如果要用相机按键来切换,就需要先双击打开功能菜单,滑动选择焦距菜单,然后在一个长长的滑杆里面慢慢挪到 1.0、1.2 或 1.5 的位置上: 这样的操作不仅步骤繁琐,也暴露了相机按键的另一个问题——无法精确调整参数。尤其是对于 EV(曝光补偿)和缩放之类比较精细的调节,相机按键非常有限的面积能够提供的操作精度很低,想要一次性滑动到需要的位置几乎完全靠运气。 而相比 iPhone 的复杂,OPPO 的 Find X8 Pro 与 X8 Ultra,以及 vivo X200 Ultra 则偏向了问题的另一个极端:相机按键能够提供的操作太少了——以 X200 Ultra 为例,它的相机控制按键本身只有快速启动相机、锁定对焦和曝光,以及重按拍照三个功能,可以滑动调整的选项则是仅有 EV、切换镜头与滑动变焦: 这样带来的问题,便是功能不够全面。 与 iPhone 不同,OPPO 和 vivo 的相机带有非常多可以自定义的拍照模式和功能(比如软件模拟虚化光斑的风格)。这些功能往往都以长列表的形式堆叠、藏在需要点击的二级菜单里面,并且不需要无级调节,反而非常适合用这种「搓擦条」的形式进行选择,类似相机上的拨轮: 更加令人无法忍受的则是相机控制按键引发的各种误触。 虽然 iOS 为 Camera Control 设计了三级压感,但是这个为了兼顾横屏和竖屏使用的按键位置总是能在各种时候被手指或手掌压在下面,哪怕将触发力度设置到最高也没有办法很好的屏蔽,尤其是在裸机使用、没有保护壳开孔作为触觉指引的情况下。 相比之下,vivo 的思路就好上一些。X200 Ultra 仅支持双击按键作为快速启动的方式,并且在检测到手机竖屏的时候会屏蔽滑动和半按对焦,只能重按用做快门,比 iPhone 在竖屏拍照时经常因为不小心捏到相机控制按键而调乱 EV 的体验有所进步。 然而在限制条件这么多的情况下,一枚独立的实体相机按键的意义又在哪里呢。 不得不提的,还有快门按键的成本问题。目前 iPhone 16 系列的 Camera Control 不提供专门的维修选项,只能和中框一起更换,维修一次的费用直逼六千元,稍微再加一点点钱甚至都可以再买一台国产 Ultra 了: 相机厂商是怎么做的? 抛开苹果的 AI 期货不谈,「专门的相机按键」这件事其实在手机上已经出现很久了,远至二十五年前的夏普 J-SH04、近至前两周刚刚发布的索尼 Xperia 1 VII,都有这样一个用来控制相机的按键——快门键。 作为手机行业中唯一一个自始至终坚持着在手机上保留快门键的厂商,索尼对于这枚按键的设计理念,反而是需要苹果与一众安卓大厂需要学习的,因为索尼背靠三十多年设计和生产相机的经验,指出了所谓「相机控制」的真谛: 相机控制按键唯一要做的事情,就是锁定焦点,然后按快门。 这也是为什么在最新的 Xperia 1 VII 上,索尼相比前代的 1 VI 稍稍增大了快门键的尺寸,让本来就使用了与边框不同花纹的快门键变得更加醒目和突出,同时也更方便操作。 但在此之外,索尼没有给快门键塞入任何额外的功能,依然是长按启动相机、半按对焦、按下拍照这三个最基础的用法,与相机别无二致。 与此同时,索尼还明确了另一条非常重要的逻辑:快门键不应该去承担其他调节功能。 在手机这种已经为触屏操作优化了十多年的载体上,触屏的效率一定是比滑动触摸条更高的,虽然索尼的软件做的很差、相机的 UI 也并非尽善尽美,但是从来没有人批评过快门键的设计思路——与 iPhone 形成了鲜明的反差。 归根结底,手机需要相机按键吗? iPhone 16 上这枚相机按键,在很多程度上都是一个傲慢的缩影。 iOS 在相机的软件生态方面一直有着远超国产品牌和 Android 平台的丰富性,不仅是 Halide、Nomo、Protake 之类主打专业的选项,也包括数量众多的模拟和美颜类相机 app,它们在实质上撑起了 iPhone 拍照的体验。 然而 iPhone 的相机按键对于第三方 app 的兼容性却相当差劲,想实现 Camera Control 的完整功能依然需要开发者主动适配,非常容易陷入「app 适配不好 - 没有人用 - 更加没有 app 适配」的循环,甚至连苹果自己的 Final Cut Camera 都没有给相机控制按键做适配。 这样的强制要求在十年前 iPhone 拍照领先的时候或许还有号召力,但是在目前 iPhone 影像能力反过来依赖第三方 app 的背景下,不适配就无法作为快门键、甚至不能用作启动捷径的 Camera Control 只会显得加倍无用。 苹果无疑是这次「新一轮」实体相机按键潮流的领导者,但很难说相机按键的潮流本身就是正确的。 与索尼这种专业相机厂商的思路相比,无论是 iPhone 的 Camera Control 还是 OV 两家的模拟相机按键,都是设计和使用非常矛盾的产物——既要比触屏操作更加简洁,又要深入调节精细参数,最后的结果便只能是功能性与易用性打架。 如果一定要给单独的相机控制按键做功能的话,或许 vivo 的「人文相机」是一个可以参考的模式: 它并不像 OPPO 的大师模式那样作为一个相机内的功能页面,而是单独做成了新的一级 UI 界面,主打的就是复古风格与仪式感。在这种情况下,使用一个屏幕之外的实体按键作为快门就不会显得别扭了,甚至双击启动也可以变成仪式感的一部分。 只是,当手机上的「相机控制按键」是为了「模拟相机」时才使用,似乎又有点本末倒置了。 归根结底,手机是否需要相机按键,可能取决于用户,可能取决于产品经理——但终归不取决于市场部。
鸿蒙AI手表要来了!官宣6月11日发布:首搭盘古大模型+DeepSeek
作者 | 王涵 编辑 | 漠影 智东西6月3日现场报道,在今日举行的华为智能穿戴与运动健康新品技术沟通会上,华为终端官宣华为WATCH 5将于6月11日在华为Pura 80系列及全场景新品发布会上正式亮相。 华为终端BG智能穿戴与运动健康产品线智能手表产品领域总经理戴晓锋,在技术沟通会上宣布:“华为穿戴已率先进入鸿蒙AI时代。” 新一代的WATCH 5将首次接入鸿蒙智能,可以实现与手机、耳机以及智能家居的全场景互联,还将搭载盘古大模型、DeepSeek大模型以及运动健康专业模型。 在外观上,据官方透露的信息,WATCH 5的表冠延续WATCH经典斜梯形表冠设计,有42mm和46mm两种表径,共8款配色。采用全新LTPO 2.0屏幕技术,局部峰值亮度可达3000nits。HUAWEI WATCH 5 46mm表径款黑边2.2mm,屏占达到80.4%,比较上一代提升13%;42mm表径款黑边低至1.8mm,屏占比达82.5%,华为在追求全面屏的路上可谓是越走越远了。 智东西在技术沟通会上了解到,华为WATCH 5采用端、软、云三大技术底座协同的技术架构,同时将接入盘古大模型及DeepSeek大模型,并融合穿戴运动健康专业模型,将在语音交互、运动健康、生态互联方面带来全新升级。 新一代的WATCH 5将首次接入鸿蒙智能,可以实现与手机、耳机以及智能家居的场景互联。此外,手表搭载的语音助手小艺也将迎来功能升级。升级后的腕上小艺可针对20余种运动类型、近200项健康指标进行智能分析,有望为用户提供更贴合个人情况、更具专业性的运动健康建议。 据悉,WATCH 5还将首次搭载NPU神经网络处理单元,支持全新eSIM先锋通信、Wi-Fi 6及星闪连接技术,蜂窝网络应用下载速度提升700%,Wi-Fi网络下系统升级以及地图加载速率提升100%, 在网络性能上实现显著提升。 此外,从技术沟通会上获悉,WATCH 5将首发X-TAP智感窗,通过提取指尖信号完成信号采集与监测。基于压感传感器的引入,X-TAP智感窗还能进行压感交互;同时X-TAP还支持三方生态应用调用,可以通过压感感应在手表上玩“跳一跳”、电子宠物机等小游戏。 结语:华为WATCH 5补全鸿蒙生态硬件版图 华为WATCH 5的加入,让智能穿戴设备这一重要领域也融入了鸿蒙系统生态,给华为鸿蒙硬件拼上了一块重要的拼图。从智能手机、电脑,到智能家居、智能汽车,鸿蒙系统正逐步将各类设备连接起来,形成一个庞大而统一的“鸿蒙宇宙”。 华为WATCH 5的登场,无疑将会为智能穿戴市场注入新的活力。更多首款纯血鸿蒙系统华为Watch的细节,请关注智东西从6月11日华为全场景新品发布带来的详细报道。
一手生态开放,一手技术突围,昇腾CANN成中国AI创新底座
作者 | 云鹏 编辑 | 漠影 今天,AI技术发展呈指数级增长,而AI创新也逐渐走向更底层的算法创新。 一味追求超大模型规模、超高硬件算力已经不再是主流,通过底层算力架构和前沿算法创新,硬件性能得以更充分地释放、模型在实际应用中的性能实现暴涨。 一系列底层技术革新让AI创新加速涌入千行百业。 我们看到,行业更加聚焦AI在具体场景、具体应用中的实际表现,关注模型实际解决任务的效率和成本,模型如何从可用能用走向易用好用? 这样的行业大背景下,AI开放生态的发展完善变得至关重要,AI创新蓬勃发展、真正实现AI普惠,必然需要百花齐放而非一枝独秀。 一方面,开放生态能更好地激发创新,让技术可以更快速地迭代,大幅提升企业和开发者的创新效率;另一方面,开放生态可以更好地形成合力,事半功倍,加速AI普及,让整个市场蛋糕更快做大。 在今年的鲲鹏昇腾开发者大会上,华为昇腾秀出了诸多重磅技术升级,通过构建全栈开放生态、高能效的算力底座赋能开发者,这种加速AI涌向千行百业的开放模式具有极高行业价值:真正自主可控的中国AI创新基座,正愈发坚实。 作为昇腾AI核心软件平台的昇腾异构计算架构CANN,无疑是此次大会的焦点,其分层开放策略,计算、通信、内存等领域的硬核技术迭代创新,都是推动AI开发效率与性能提升的关键。而诸多行业巨头基于昇腾CANN技术和生态实现的优秀案例,都证明其在实际应用场景中落地的巨大潜力。 昇腾CANN,正为中国大模型创新提供更坚实的底层支撑,带来更多机遇。 一、深度开放夯实开发者武器库,兼顾效率性能,三大核心技术突破重构AI算力基因 创新与开放在AI新时代可以说是强绑定的两个关键词,唯有开放,才能更好地促进创新。 直观来看,昇腾CANN是连接昇腾硬件算力和上层AI应用的关键,是真正实现硬件高效使能AI的核心技术平台。当下,如何实现AI在具体场景、具体产品中高效落地已经成为行业焦点,结合自主可控需求的高涨,昇腾CANN的重要作用不言而喻。 自2024年宣布深度开放以来,昇腾CANN的开放深度、开放策略一直在持续迭代,华为昇腾计算业务总裁张迪煊在大会上提到,使能每一位创新者,激发创新潜能,就是昇腾CANN的核心理念。 ▲华为昇腾计算业务总裁 张迪煊 2024年5月,昇腾AI开发者峰会官宣了深度开放策略,支持开发者基于昇腾进行大模型原生创新;同年7月,昇腾CANN关键的高层组件开放代码到Gitee社区,客户和合作伙伴开始进行自主创新,一系列优秀案例加速涌现。 从能用到好用、易用,六年多时间里,昇腾AI生态稳步迭代,昇腾CANN也在不断进化。从2023年大模型爆发浪潮中构筑能力、厚积薄发,到2024年深度开放,帮助客户加速落地,再到2025年创新走向底层,行业对极致性能的需求越来越高,同时需求差异化愈发凸显,CANN不断迎来新的挑战。 可以看到,CANN的开放是与产业变化共同成长的,是有生命力的,是真正从产业中来到产业中去的,能够帮产业解决问题,带来价值的。 今天,从Ascend C算子编程语言、AOL算子加速库、GE图引擎、HCCL集合通信库、毕昇编译器、Runtime运行时到Driver驱动,昇腾CANN不断丰富高层、底层组件,充实开发者们的武器库,与AI创新扎向底层的大趋势齐头并进。 开放生态是否优秀、能否得到行业认可、形成良性闭环,有两个比较直观易懂的评价维度:一个是开放模式是否易用适用、一个是开放的东西到底够不够好用。 分层开放是昇腾CANN一直坚持的开放模式,可以更好地让开发者匹配场景需求,进而兼顾算子性能与开发效率。有丰富的参考样例支持匹配场景魔改,进而实现敏捷开发;底层原子级能力支持灵活组合,让开发者可以更好地挖掘硬件性能。 昇腾CANN针对不同技术层级的开发者推出了差异化开放策略。比如在算法创新层,开发者可基于业务场景进行”魔改式”创新;在系统优化层,CANN开放了190多个底层接口,得以释放硬件的原子级能力。 在编译生态层,通过开放毕昇编译器的AscendNPU IR接口,开发者可以在接入Triton后直接使用Python语法编写高性能算子,底层硬件差异被完全抽象化,这可以说是开发范式的变革。 除了分层开放架构对开发效率的提升,昇腾CANN在核心技术层面的突破是AI算力重构、硬件性能充分释放的关键,计算、内存、通信可以说是实现这一目标“三驾马车”。 计算层面,针对MoE大模型训练场景的”卡脖子”难题,昇腾CANN推出了超级算子MLAPO,将MLA前处理耗时从行业平均109ms压缩至45ms,在金融风控模型、广告推荐系统中实现了20%以上的端到端性能提升,打破Transformer架构的算力瓶颈。 内存层面,面对动态shape场景的”内存碎片化”痼疾,CANN研发的多重地址映射技术可以实现内存碎片的自动化拼接利用,让京东商品搜索、腾讯短视频推荐等业务场景的内存利用率提升了20%以上,突破了单卡可承载并发请求量行业极限。 在分布式训练领域,CANN打造的NPUDirect通信算法将传统RDMA通信所需的3对同步精简为1次原子操作,让科大讯飞语音大模型的跨机通信时延下降了90%,走通了万卡级分布式训练可行性路径。 值得注意的是,技术领先的基础是架构层面的领先,昇腾NPU+昇腾CANN的模式彻底打破了海外主流算力平台的独大,在效率、成本上都实现了快速看齐甚至是超越,这是中国自主可控AI算力架构底座的底气所在。 可以看到,三个领域的核心技术突破形成的协同效应,一方面实现了单点性能的指数级提升,同时构建起了“芯片级优化+系统级调度+集群级协同”的全栈能力,AI算力技术正式迈入”原子级精准调优”的时代。 二、30+产学伙伴入局,中国智算拥抱昇腾AI生态,海量AI底层创新涌现 昇腾CANN已经为行业搭好舞台,随着深度开放策略的逐步深化,各路行业头部企业、优秀开发者以及高校团队都亮出了诸多亮眼的创新成果。自主可控的中国AI底层创新所涌现出的巨大潜力,令人欣喜。 从巨头到创企,从高校到个人,我们看到昇腾CANN正在诸多领域加速AI创新的涌现。 比如科大讯飞的讯飞星火大模型X1就基于Ascend C进行了极致软硬协同优化,双方团队针对诸多关键算子进行了共创共研,性能收益十分显著。 科大讯飞副总裁、AI工程院院长潘青华提到,讯飞和昇腾的结缘可以追溯到2019年,讯飞使用昇腾从敢用、真用、会用到用好走过了四个阶段,今年3月,讯飞基于昇腾算力率先实现了MoE模型大规模跨节点并行集群的推理,整个推理的性能提升了3倍。 作为AI Infra创企的无问芯穹也与昇腾一起,基于CANN进行深度优化创新,针对大模型推理集群部署中的通信开销问题进行技术攻关,实现单算子性能提升20%,显著降低了算力资源消耗。 可以看到,如今算法和应用的创新已经从单点创新变成了软硬协同的系统性创新,昇腾与企业之间的合作就更为重要,算法和应用对于硬件的需求可以被更早的传递。AI算法应用可以跑的更稳、跑的更快,CANN正帮助企业以更低成本、更高性能加速AI应用落地。 在高校科研领域,清华大学计图团队联合昇腾研发的MoE专用算子体系,通过调用aclGraph模型调度接口与INT4量化技术,将DeepSeek-R1模型的推理时延降低50%,验证了原子能力组合创新的巨大潜力。 西北工业大学软件学院副教授、中国人工智能协会智能交互专委会委员徐韬团队基于CANN平台构建垂直模型,通过多模态感知技术对抑郁症患者进行初筛,整个系统目前已经部署到西安交大第一附属医院。 功能足够强大、生态优秀,同时自主可控,这是徐韬教授团队最看重三点,也是昇腾CANN的优势所在。 华南理工大学计算机科学与工程学院教授、博士生导师陆璐提到,他们从2022年就开始了与华为的合作,他们希望能在国内平台上“把跑不起来的应用跑起来”,达到更好的性能。 ▲华南理工大学计算机科学与工程学院教授、博士生导师陆璐 在探索中他们发现,只要熟悉昇腾编程平台,了解其体系架构,经过不断优化,性能可以从50%提升到100%,甚至在某些应用场景达到200%到500%。 值得一提的是,高校科研成果可以与昇腾CANN生态融合,进一步促进双方的共同成长,给产业带来更大价值。 比如陆教授团队参与开源的模板库就可以提升开发者的开发效率,同时,团队开发的算子以及编译优化的工具可以直接嵌入到CANN中,提升昇腾基础软件库的性能。 我们可以看到,昇腾CANN平台是一个开放性平台,同时也是一个成长性平台,只有产学界各方加入到生态当中,共同繁荣生态圈,才能使其更好的进步。 除了与企业和高校碰撞出火花,昇腾CANN同样给个人优秀开发者带来了巨大价值和影响。 天津理工大学电气工程与自动化学院人工智能专业2022级学生王富平从2023年就开始参加昇腾AI创新大赛,随后一直扎根昇腾AI技术中,在昇腾CANN异构计算架构等领域都进行了研究探索,广泛参与各类创新大赛并取得创新成果。 ▲王富平 王富平也成为了首届“求实创新班”成员,天津市首位华为开发者布道师。昇腾AI让诸多优秀个人开发者有机会接触最前沿的技术和知识,在实现个人价值的同时贡献更多社会价值,昇腾CANN生态也在诸多优秀开发者的支持下快速成长。 从产业、科研到个人,昇腾CANN给中国科技带来的影响必将是深远的。 目前,昇腾已经联合互联网大厂、运营商、大模型厂商等30多个客户伙伴创新孵化出260多个高性能算子,覆盖了主流AI场景,平均整网性能提升超过10%,这无疑是技术创新和商业落地的双重突破。 与此同时,昇腾CANN社区已经上线了超过15个HCCL通信算法及API。通信领域昇腾联合10多个客户伙伴实现了平均50%以上的通信效率提升。 从硬件厂商到模型厂商,从底层算子算法创新到上层训推平台创新,从高校个人到科研团队,昇腾CANN创新生态的深度广度都在快速拓展,中国智算产业中坚力量悉数到场。 三、昇腾CANN跑出“中国速度”,从技术到商业生态闭环,为AI自主创新打牢基建 今天,广大企业开发者和个人开发者纷纷将创新成果进行分享,为昇腾生态不断添砖加瓦,中国AI创新的共赢故事,正在各个行业各个领域开花结果,CANN给产业带来的价值正愈发凸显。 根据昇腾官方数据,6年来,有超过60万开发者了解CANN、使用CANN、赋予CANN创新活力,在昇腾CANN持续推进开放,以及产业各方开发者、企业积极参与之下,CANN生态正在快速成长。目前CANN的算子认证开发者已经超过了6000人。 从整网性能和通信效率显著提升,到大模型推理性能的暴涨,再到构筑覆盖模型开发、训练加速、部署优化的全链路技术生态,CANN正在加速使能多维度创新。 很多人将昇腾CANN比作“中国版CUDA”,但实际上,CANN用6年时间就走完了CUDA十几年的路,这本身已经是一个奇迹。如今基于昇腾NPU+昇腾CANN技术生态所能实现的AI应用性能已经能够看齐甚至超越CUDA,这更是难能可贵的。 而这远不是终点,相比CUDA,昇腾CANN生态显然在开放的广度、深度上都更进一步。作为后来者、挑战者的昇腾,并不会像CUDA一样构建技术壁垒,而是会始终坚持开放,昇腾希望给开发者提供一个更加自由的平台,真正给中国AI创新应用底层铺路筑基,释放中国AI创新的巨大潜力。 昇腾CANN正在用一种“基础层开放+应用层共创”的双轮驱动模式,推动国产AI产业链的协同进化,形成从技术突破到商业转化的生态闭环。 如今有越来越多的企业在昇腾社区上获取到有价值的技术,进一步加速自身的商业成功,也有越来越多的高校学者、研究团队在昇腾CANN生态中取得科研成就,进一步实现社会价值。 正如陆璐教授所说,他们基于昇腾平台的研究得到了社会的认可,实现了更好的效果,帮助国内平台真正做到了自主创新,提升了我国的算力水平,这是他们团队获得最大成就感的地方。 昇腾CANN正不断加速基础软件算法创新,促进多样性计算产业发展和生态繁荣,如今的CANN正在成为中国开发者生态最活跃、技术迭代最迅猛的AI创新平台。 与此同时,昇腾CANN也基于昇腾开放平台提供了完善的人才培养机制,从教学、培训、研究到各类举办各类赛事,顶级AI创新人才不断涌现。 对于中国AI产业来说,昇腾AI生态是实现自立自强的坚强依靠,也是国内科技企业去构建自主创新的AI基础设施的必然选择。 结语:AI底层创新突围,开放生态+技术创新是必由之路 可以看到,从分层开放的生态架构到计算、内存、通信等领域的一系列底层技术突破,昇腾CANN一手开放、一手技术,正给产业带来AI创新的新范式。 面对未来的AI新时代,技术的变革不断加速、生态体系的构建越来越重要,CANN正成为中国优秀开发者们越来越熟悉、越来越认可的“伙伴”,从可用能用到易用好用,逐渐走向舞台中央,属于昇腾CANN的时代,正拉开帷幕。 这不仅是一场硬件算力的革命,更是一场开发者与技术的共同进化。昇腾CANN正帮助中国AI产业中的企业和开发者不断突破底层算法创新的瓶颈,释放潜力,推动中国AI发展从追赶走向引领。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。