EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
Transformer框架论文作者:AI行业被困在了六七年前的原型上
作者|Steven Levy 译者|核子可乐 策划|冬梅 编者按: 3 月 21 日,GTC AI 大会,黄仁勋对话 7 位 Transformer 框架论文作者。他们认为,AI 行业被困在了六七年前的原型上,这个世界需要更好的模型。 “我认为世界需要比 Transformer 更好的东西。我觉得现在与六七年前的情况相似。”“所以尽管原始模型可能不是现在可拥有的最强大的东西,但我们仍然固守在原来的模型上。” Transformer 架构的诞生源于自然语言处理(NLP)领域的迫切需求。在过去,传统的循环神经网络(RNN)和卷积神经网络(CNN)在处理序列数据时面临一些挑战。RNN 虽然能够捕捉序列中的依赖关系,但由于其顺序处理的方式,导致计算效率低下,并且难以处理长距离依赖。而 CNN 虽然可以并行计算,但在处理变长序列时不够灵活。 为了克服这些挑战,2017 年,谷歌的 8 名研究人员联合发表了名为《你所需要的是注意力》(Attention Is All You Need)的论文,并在这篇论文中提出了 Transformer 架构,它能真正地解决 RNN 和 CNN 在处理序列数据时存在的问题。 Transformer 采用了自注意力机制(Self-Attention Mechanism),使得模型能够同时关注序列中的所有位置,从而捕捉长距离依赖关系。此外,Transformer 还采用了多头注意力(Multi-Head Attention)和位置编码(Positional Encoding)等技术,进一步提高了模型的性能。这项具有划时代意义的技术变革彻底改变了技术发展路径。技术背后,这 8 位一同提出该理论的研究人员有的已经离开了谷歌,有的已经创办了自己的公司或是加入了新团队。 近日,国外知名杂志《连线》的资深编辑史蒂文·利维(Steven Levy)近期撰写了一篇文章,为我们揭秘了 Transformer 架构诞生背后的故事。 以下为翻译全文: 他们偶然相遇,迷上了共同的探索目标,最终设计出近代历史上最具突破性的关键技术——Transformers。 1Transformer 架构的诞生 2018 年春季发表的一篇科学论文《Attention Is All You Need》共有八位作者,他们都是来自谷歌的研究人员,不过当时其中一人已经离开了公司。而最资深的贡献者 Noam Shazeer 手捧文章初稿却颇感讶异,因为他的名字出现在了第一位。面对各位合作伙伴对自己贡献的肯定,他坦言“我实在没有想到”。 NOAM SHAZEER,Character AI 公司联合创始人兼 CEO 论文作者的姓名排序其实很有讲究,谁在前谁在后可谓相当重要。特别是在这篇奠定了现代 AI 的关键文章中,每位参与者都凭借自己的努力给整个科技史竖起不朽的丰碑。而在论文终于定稿之后,大家决定“颠覆”按贡献度排名的惯例,添加标注强调每位作者都做出了“彼此相当的贡献,排名不分先后”。文章在截止日期前被发给知名 AI 会议,并旋即引发了如今人们耳熟能详的这场技术革命。 值此七周年之际,这篇论文已经拥有了传奇般的历史地位。作者们从神经网络这项蓬勃发展且不断改进的技术入手,打造出一套极为强大的数字系统,该系统的输出就如同是外星智能的产物。这种架构被命名为 Transformer,是当今一切令人兴奋的 AI 产品背后的秘密武器,其中也包括 ChatGPT、Dall-E 和 Midjourney 等重量级成果。Shazeer 开玩笑说,早知道这篇文章会拥有这样的份量,那当初就该“认真考虑一下作者排序”。现在这八位作者都成了技术圈的名人,在文章署名中位列第五的 Llion Jones 表示“现在会有人要求跟我合影,就是因为我是论文的作者之一!” Llion Jones,SAKANA AI 公司联合创始人 虽然并非论文作者,但身为全球最知名的 AI 科学家之一,Geoffrey Hinton 表示“如果没有 transformers,我觉得 AI 技术不可能达到目前的高度。”在他看来,我们生活在一个翻天覆地的新时代,OpenAI 等厂商构建起的系统在很多方面几乎可与人类比肩,有时甚至已经成功超越了人类。 文章发表之后,这八位作者先后离开了谷歌。与其他数百万科技从业者一样,他们仍在以某种方式使用自己在 2017 年创造的成果开发更多 AI 系统。我有幸与这位八位 transformers 元老面对面交流,希望拼凑出那个开天辟地的重要时刻,了解他们如何依托人类的思维创造出拓展未来的智能机器。 Jakob Uszkoreit,Inceptive 公司联合创始人兼 CEO Transformers 的故事,始于八位署名作者中的第四人:Jakob Uszkoreit。 Uszkoreit 的父亲是著名计算语言学家 Hans Uszkoreit。上世纪 70 年代末,Hans 还是一名高中生,并因为抗议苏联入侵捷克斯洛伐克而在祖国东德被判监禁 15 个月。获悉之后他逃往西德,在柏林学习计算机和语言学。Jakob 出生时他们举家迁往美国,在位于加利福尼亚州门洛帕克一家研究机构 SRI 的 AI 实验室工作。后来他们全家又迁回德国,Jakob 也在那里接受了大学教育。 Jakob 对于语言学兴趣不大,并在研究生阶段前往谷歌位于山景城的总部实习,并加入该公司的翻译小组。看来 Uszkoreit 家的人终究摆脱不了语言这个体系。在放弃继续攻读博士学位后,Jakob 于 2012 年加入了谷歌的一支系统开发团队,其目标就是搜索页面内容并直接回答用户提问,避免再跳转至其他页面。当时苹果刚刚推出了 Siri,这是一款虚拟助手,号称能在自然顺畅的对话中直接给出答案。谷歌高层从中嗅到了巨大的竞争威胁:Siri 可能会吞噬他们的搜索流量。也正因为如此,Uszkoreit 所在的这支新团队开始受到重视。 Uszkoreit 表示,“这种恐慌实在没有必要。”Siri 从未真正威胁过谷歌,但他很高兴能有机会深入研究计算机与人类话语之间的神秘联系。当时,曾经如一潭死水般的循环神经网络突然开始超越其他 AI 工程学方法。这类网络由多个层组成,信息在各层之间不断传递以识别最佳响应。神经网络在图像识别等领域取得了巨大胜利,AI 技术的复兴也在一夜之间成为现实。于是谷歌疯狂调整员工队伍以应用这些技术,并希望系统能够生成与人类相当的响应能力——包括自动补全电子邮件中的句子,或者创建出相对简单的客服聊天机器人。 但这个方向很快就走进了死胡同。循环神经网络很难解析较长的文本片段。我们以这样一段话为例,“Joe 是名棒球运动员,在吃了一顿丰盛的早餐后,他去球场并打出了两记安打。”要想理解“两记安打”,语言模型必须记住前面“Joe 是名棒球运动员”的部分。如果按人类的语言处理习惯讲,那就是需要在这里集中注意力。当时公认的解决方案是所谓“长短期记忆”(LSTM),这种技术创新允许语言模型处理更大、更复杂的文本序列。但计算机仍会严格按照顺序处理这些序列(也就是按序排列的单词),且往往无法把握段中稍后可能出现的上下文线索。Uszkoreit 解释称,“当时使用的方法就像是创可贴,基于是在缝缝补补,没办法理解能够真正发挥规模化作用的正确素材。” 于是 2014 年左右,他开始研究一种前所未有的方法,并将其称为自注意力(self-attention)机制。这种网络可以引用段落内的任意其他部分来理解单词含义,这些其他部分将作为上下文以阐明单词意图并帮助系统输出更优质的翻译结果。他指出,“这实际上是在通盘思考,并提供一种行之有效的方法,可以同时关注多条输入,再以有选择性的方式提取出某些内容。”尽管 AI 科学家们一直谨慎行事,不希望把“神经网络”的表述跟生物学大脑的实际工作方式相混淆,但 Uszkoreit 却信心满满,似乎认定自注意力与人类的语言处理方式确有共性。 Uszkoreit 认为自注意力模型应该比循环神经网络更快、更高效。它处理信息的方式也更适合那些为支持机器学习热潮而大量产出的并行处理芯片。自注意力模型不再使用线性方法(按固定顺序查看各个单词),转而选择了并行方法(一次观察一大堆单词)。Uszkoreit 怀疑,只要操作得当,单凭自注意力就能带来更好的文字理解和生成效果。 但当时并不是人人看好这种颠覆性的研究方向,包括 Uszkoreit 的父亲。就在儿子为谷歌工作的几年中,老 Hans 拿下了两项谷歌学院研究奖。Jakob Uszkoreit 回忆道,“当时人们普通对此感到惊讶,因为它抛弃了一切原有神经架构。”放弃循环神经网络?这简直是异端!“从我跟父亲在餐桌上的沟通结果来看,咱们爷俩的观点着实是大相径庭。” 但 Uszkoreit 还是成功说服了几位同事参与自注意力实验。初步工作带来了希望,于是他们在 2016 年发表了一篇相关论文。Uszkoreit 希望进一步推动研究,毕竟初期的团队实验只使用到数量极小的文本,但合作者们纷纷表示没有兴趣。就如同普通玩家赚点小钱就想离开赌桌一样,首批合作者开始尝试把这些初步发现转化成应用成果。Jakob 指出,“自注意力确实能行。那篇论文的研究人员也对获取回报,并将成果部署在谷歌各个业务领域的前景感到兴奋,包括搜索乃至广告等。从种种方面来看,这都是一场惊人的成功,但我并不想就此止步。” 在 Uszkoreit 看来,自注意力完全可以做得更多、更好。于是他开始向所有感兴趣和不感兴趣的同事推销自己的理论,并在园区内 1945 号楼的白板上详尽阐述了自己的技术愿景。 Illia Polosukhin,NEAR 公司联合创始人 2016 年的一天,Uszkoreit 和一位名叫 Illia Polosukhin 的科学家在谷歌园区的咖啡馆里共进午餐。Polosukhin 出生于乌克兰,已经在谷歌工作了快三年。他被分配到了一支专项团队,探索如何在搜索字段中直接就查询问题给出答案。当时项目进展得不太顺利。Polosukhin 表示,“要在 Google.com 上直接回答问题,相应的底层技术必须性能超高且成本低廉,毕竟整个回答窗口就只有几毫秒。”就在 Polosukhin 发泄着满腹牢骚时,Uszkoreit 毫不犹豫地给出了解决办法,“他建议说,为什么不试试自注意力呢?” 当时,Polosukhin 经常一位名叫 Ashish Vaswani 的同事合作。Vaswani 出生于印度,但成长阶段主要生活在中东,曾经前往南加州大学求学,并在校内的精英机器翻译小组中拿下了博士学位。之后他搬到山景城并加入了谷歌,成为“Google Brain”新部门的一员。根据他的描述,Google Brain 是一个“激进派团体”,坚信“神经网络将更新人类的理解方式”。但他的野心不止于此,希望参与到更宏大的项目当中。他的团队在 1965 号楼,跟 Polosukhin 语言团队所在的 1945 号楼相邻。在听说了自注意力技术之后,他马上表现出兴趣并同意放手一试。 Ashish Vaswani,Essential AI 公司联合创始人兼 CEO 三位研究人员共同起草了一份名为《Transformers:迭代自注意力与多种任务处理(Transformers: Iterative Self-Attention and Processing for Various Tasks)》的设计文件。 Uszkoreit 指出,大家之所以在起步阶段选择了“transformers”这个名字,是因为此项机制能够转变接收到的信息,让系统尽可能从中提取更多理解信息,或者至少要实现类似于理解的效果。此外,Uszkoreit 还记得孩童时代把玩孩之宝“变形金刚”玩具的美好时光,其原词正是 transformers。“我小时候就有两个变形金刚玩具”,所以文件最后选择以六位变形金刚角色在山间相互开炮的图片收尾。 抱着满满的自信,作者们在文章开头写下了有些狂妄的序言:“我们太牛了。” 2017 年初,Polosukhin 离开谷歌创办了自己的公司。但与此同时,新的合作者也陆续加入。一位名叫 Niki Parmar 的印度工程师当时刚刚移居美国,此前在某美国软件公司的印度分部工作。她于 2015 年获得南加州大学硕士学位,还收到多家科技企业的录用函。她最终选择了谷歌,并在入职后马上参与 Uszkoreit 团队,致力于研究如何利用模型变体改进谷歌搜索服务。 Niki Parmar,Essential AI 公司联合创始人 另一位新成员则是 Llion Jones。他在威尔士出生长大,而且热爱计算机那种“非常规”的运行逻辑。他在伯明翰大学学习 AI 课程,并将自己一以贯之的好奇心倾注在了神经网络身上。他于 2009 年 7 月拿下硕士学位,但在经济危机期间找不到工作,所以几个月间只能靠救济金生活。他曾在当地一家公司找到过工作,之后靠着半申请半恳求的方式拿到了谷歌的录用资格。他随后加入谷歌研究院,顶头上司正是 Polosukhin。有一天,Jones 从一位名叫 Mat Kelcey 的同事那听说了自注意力的概念,并随后加入 transformers 团队。(后来 Jones 又认真向 Kelcey 介绍过 transformers 项目,但对方并不买账。Kelcey 回忆道,「我也不确定这到底能不能行,而这可谓是我一生中最大的错误判断。」 Transformers 项目也吸引到了其他正尝试改进大语言模型的 Google Brain 研究人员。第三波参与者包括波兰出生的理论计算机科学家 Lukasz Kaiser 和他的实习生 Aidan Gomez。Gomez 出生于加拿大安大略省的一处小农庄,每年春天他的家人都在当地采摘枫树糖浆。在多伦多大学读在三时,他“深深迷上”了 AI,并加入 Geoffrey Hinton 实验室的机器学习小组。他开始主动联系谷歌那些发表过有趣论文的员工,申请帮助对方扩展研究范围。Kaiser 回应了他的请求并邀请他参加实习。但直到几个月后,Gomez 才意识到这些实习岗本来是面向博士生的,压根不该对他这样的本科生开放。 Kaiser 和 Gomez 很快意识到,自注意力对于他们正尝试解决的问题来说,似乎确实是种前途光明、也更为激进的解决方案。Gomez 表示,“我们当时还就是否应该合并这两个项目进行过深入对话”,并最终决定合二为一。 当时 Transformer 团队正着手开发一套自注意力模型,希望将文本从一种语言翻译成另一种语言。他们使用名为 BLEU 的基准测试来衡量其性能,本质上就是把机器输出结果与人工翻译内容进行比较。而且从起步阶段,他们的新模型就表现良好。Uszkoreit 回忆称,“也就是说,我们终于从连概念验证都没有,迅速推进到了与最强 LSTM 相当的程度。”但他也承认与这种长短期记忆方案相比,自注意力模型“也没能做得更好”。 2团队进入平台期,新队友成为了破局关键 团队由此进入了平台期,直到 2018 年的一天,Noam Shazeer 偶然听说了他们的项目。Shazeer 是谷歌公司的资深员工(早在 2000 年就加入谷歌),并凭借对谷歌早期广告系统的贡献而成为公司内的传奇人物。Shazeer 研究深度学习已经有五年之久,最近开始对大语言模型产生了兴趣。但这些模型距离他所期待的流畅开展对话还差得很远。 据 Shazeer 回忆,当时他穿过 1965 号楼的一条走廊里,正好经过 Kaiser 的工作区。他被那里激烈的讨论声所吸引,“我记得 Ashish 正在讨论该如何使用自注意力,Niki 对此非常兴奋。我突然想到,这似乎是个好主意,这群有趣且聪明的员工正在做未来可期的探索。”再加上原先的循环神经网络实在“令人恼火”,所以 Shazeer 决定“那咱们就试试自注意力!” Shazeer 的加入至关重要。Uszkoreit 表示,“像自注意力这样的纯理论或者直觉机制,在实际部署时往往需要非常认真的规划,而这种能力只掌握在少数经验丰富的「魔术师」手中。这不是技术,而更像是种艺术。”Shazeer 立刻开始施展他的魔法,决定编写自己的 Transformer 项目代码版本。他表示,“我保留了他们的基本思路,然后按自己的理解完成了开发。”他偶尔会向 Kaiser 提几个问题,但大多数情况下,他“只是默默开发一段时间,然后回头检查能不能起效。”用团队成员们的话来说,凭借着一系列“神奇”且“令人眼花缭乱”的操作,Shazeer 成功把系统提升到了新的水平。 Gomez 指出,“于是冲刺阶段终于到了。”每个人都充满动力,希望能在 5 月 19 日全球最大的 AI 盛会、也就是计划于 12 月召开的神经信息处理系统大会的论文投递截止日期之前,把自己的心血提交上去。随着硅谷送走寒冬、迎来暖春,实验的步伐也一再加快。他们测试了两种 Transformer 模型:其一只经过 12 个小时的训练,另一种更强大的 Big 版本则接受了为期三天半的训练。其功能非常简单:尝试将英语内容翻译成德语。 这套基础模型的表现优于全部竞争对手,Big 在 BLEU 测试中的得分直接打破了原有纪录,且计算效率也有提升。Parmar 指出,“我们的总耗时比其他人都少,而且这还只是开始,后续的性能测试又带来一个个破纪录的分数。”在听到这个消息后,Uszkoreit 打开了自己收藏多年的一瓶香槟。 投入截止日期前最后两周是段疯狂的时光,尽管名义上团队成员们仍在 1945 号楼里办公,但他们已经把大部分时间都花在了 1965 号楼里——理由也很简单,那边咖啡机的出品更好喝。身为实习生的 Gomez 也全身心投入到了这波调试狂潮当中,还为论文制作了可视化图表,“大伙完全就是不眠不休”。当然还有此类项目中常见的消融实验,即把某些部分拆出来,看看余下的部分还能不能继续工作。 Gomez 回忆道,“不同方法和模块间可以构成千千万万种组合,我们得想办法证明哪些有效、哪些无效。唯一的办法就是逐个尝试。为什么模型会表现出某种反直觉的效果?哦,那是因为我们进行正确掩码。好了?那就进行下一步。总之,transformers 中的所有组件都经历过这种节奏极快的迭代试验与输出纠错。”Jones 则补充称,在 Shazeer 那强大实现能力的帮助下,消融实验最终产生了“极简形式的成果,Shazeer 简直是个大法师。” Vaswani 则分享道,有天晚上团队正在写论文,而他因为劳累而瘫倒在了办公室的沙发上。就在盯着沙发后的窗帘时,他被面料上的图案震惊了——在他眼中,这就像一个个突触与神经元。Vaswani 激动地揪过一旁的 Gomez,喊叫着他们的成果将超越传统机器翻译。“最终,就像人脑一样,所有这些模态——包括语音、音频、视觉——都将被统一在单一架构之下。我有一种强烈的预感,我们研究的是真正具有普适性的东西。” 但在谷歌高层,很多人认为 transformers 只是又一个有点亮点的 AI 项目。我询问几位团队成员,他们的老板有没有把他们召集起来介绍项目的最新进展,答案是很少。但 Uszkoreit 对此不以为意,“我们自己知道这可能是件大事,所以我们才急于把论文赶出来,并且在结尾处对后续工作做出了展望。” 而文章结尾的展望也正确宣告了这项技术的前进方向——transformers 模型将应用于几乎所有形式的人类表达。他们写道,“我们对基于注意力的模型的未来前景感到兴奋。我们计划将 transformers 扩展到文本之外的更多输入与输出模态中”,包括研究“图像、音频与视频”。 3给项目取名字,灵感来自一首歌曲 距离投稿截止日期还剩下几天,Uszkoreit 意识到他们需要为论文起个标题。Jones 强调团队已经彻底否决了当时行业公认的最佳实践,特别是 LSTM,同时全面转向注意力机制。正好披头士乐队有首名曲叫《All You Need Is Love》,所以不妨就把文章定名为《Attention Is All You Need》。 Jones 坦言,“我是英国人,所以只花了几秒钟就想到了这个梗。意外的是大家都觉得可以。” 团队成员们继续收集实验结果,一直忙到截止日当天。Parmar 表示,“直到我们提交文章的五分前,英语译法语的得分才刚刚出来。我当时坐在 1965 号楼的小餐吧旁,一行行看着最新的分数。”不到两分钟后,这篇文章就被投递了出去。 与几乎任何一家科技企业一样,谷歌很快就为这项工作申请了临时专利。其目的不是为了阻止其他人使用这些成果,而是出于自我保护的专利组合。(毕竟谷歌一直秉持着「技术进步,谷歌受益」的原则。) 大会评审员的意见很快被发回了 transformer 研究团队这边。Parmar 还记得“一条很积极,一条非常积极,还有一条说「似乎不错」。”总之,文章顺利被接收并入选了论文海报展。 到 12 月份,这篇论文已经引发了广泛轰动。12 月 6 日,团队成员们在长达四个小时的会议上面对着人头攒动的到场科学家。作者们一直聊到声音嘶哑,直到当天晚上 10 点 30 分会议结束时,人们仍留在现场久久不愿离去。Uszkoreit 提到,“于是保安不得不护送我们先行离开。”而对他来说,最值得铭记的时刻可能就是计算机科学家 Sepp Hochreiter 现身会场并高度赞扬这份工作——作为长短期记忆机制的共同发明者,Hochreiter 的赞许就是最高肯定。从这一刻起,transformers 就是 AI 技术储备中最新、最有力的工具。 但 transformers 并没有立刻占领整个世界,甚至在谷歌内部也没有马上普及。Kaiser 回忆道,在论文发表前提下,Shazeer 曾向谷歌高管提议放弃原有搜索索引机制,利用 transformer 训练一套巨大的网络,从根本上改变谷歌的信息组织方式。其实在当时,就连 Kaiser 自己也觉得这个主意太过荒谬。可现在哪怕最保守的观点,也认为这项改革将只是时间问题。 在此期间,一家名叫 OpenAI 的初创公司行动更快,明显占得了先机。在论文发表后不久,OpenAI 公司首席研究员 Ilya Sutskever(他在谷歌工作期间就接触过 transformers 团队)建议科学家 Alex Radford 认真研究这个方向,最终成果就是首款 GPT 产品。正如 OpenAI 公司 CEO Sam Altman 在去年的采访中所言,“在 transformers 论文发表时,我感觉谷歌那边还没有真正意识到它的深远影响。” 公司内部的情况确实更为复杂。Uszkoreit 解释道,“对我们自己来说,transformers 显然可以发挥一些神奇的功效。所以大家可能会问,谷歌为什么没在 2018 年推出 ChatGPT?实际上,一切顺利的话在 2019 年甚至 2020 年推出 GPT-3 甚至 3.5 也是有可能的。而且人们最大的疑问在于,既然谷歌已经看到了 transformers 的魔力,为什么会不采取任何行动?这个问题的答案其实相当复杂。” Aidan Gomez,COHERE 公司联合创始人兼 CEO 不少技术评论家都指出,谷歌已经从当初以创新为中心的精锐力量蜕变成了只注重利润的官僚机构。Gomez 在接受英国《英国时报》采访时就提到,“他们并没有推动技术现代化,也压根没有实际采用。”对于谷歌这样一家长期领先行业并在数十年间赚取到巨额利润的大厂来说,这样的迟钝确实难以理喻。但也必须承认,谷歌确实从 2018 年起曾尝试将 transformers 集成至产品当中,一马当先的就是旗下翻译工具。同年,谷歌还推出基于 transformer 的 BERT 语言模型,并于次年起开始将其应用于搜索业务。 但与 OpenAI 的巨大飞跃和微软将基于 transformers 的系统大胆整合进产品线的举措相比,谷歌的这些小打小闹实在太过儿戏。去年,我曾问起谷歌 CEO Sundar Pichai,为什么他的公司没有率先推出像 ChatGPT 这样的大语言模型。他认为在当时的情况下,谷歌觉得让其他企业走在前面更为有利。“我不太确定 transformers 到底能不能真正起效。而在其他人把路走通之后,我们也可以迅速跟进并做更多尝试。” 不可否认的是,如今这篇论文的所有八位作者都已离开谷歌。Plosukhin 创立的 Near 公司专司开发区块链,其代币市值约为 40 亿美元。Parmar 和 Vaswani 于 2021 年以业务合作伙伴的方式共同创立了 Adept(目前估值为 10 亿美元),且正在联手创办第二家公司 Essential AI(已融资 800 万美元)。Llion Jones 在日本东京开设的 Sakana AI 公司估值 2 亿美元。Shazeer 于 2021 年 10 月离职,参与创立了 Character AI(目前估值为 50 亿美元)。谷歌实习生 Aidan Gomez 于 2019 年在多伦多联合创立了 Cohere(当前估值约 22 亿美元)。Jakob Uszkoreit 的生物科技公司 Inceptive 估值为 3 亿美元。而且除 Near 以外,所有创立企业均以 transformers 技术为业务基础。 Lukasz Kaiser,OpenAI 公司研究员 Kaiser 是唯一没有选择创业的作者,他加入了 OpenAI,并成为新技术 Q* 的发明者之一。Altman 去年曾表示,Q* 技术将“揭开无知的面纱,推动发现的前沿。”当我在采访中想就此事询问 Kaiser 时,OpenAI 的公关人员几乎马上跳起来提醒他别乱讲。 那现在的谷歌会怀念这群曾经的贡献者吗?当然,但考虑到他们大多另立门户建立了自己的 AI 初创企业,所以似乎也没有那么怀念。Pichai 还特别提醒我,不光是谷歌 transformers 团队存在严重的人才流失,业界宠儿 OpenAI 同样无法幸免:“AI 领域确实非常非常有活力。”但谷歌至少可以吹嘘说他们提供了支撑 AI 落地的企业环境,鼓励员工们追求各种不那么传统的思路。Parmar 也承认,“从很多方面来讲,谷歌都是遥遥领先——他们会投资于正确的人才,创造出供我们探索和挑战极限的环境。其实没有第一时间跟进技术实践也可以理解,毕竟谷歌面临的风险要比一般人想象中大得多。” 如果没有谷歌的环境,也就不会出现 transformers。论文作者们不单是谷歌员工,而且都聚到同一处办公室工作。而走廊上的偶遇和午餐时不经意的对话共同促成了这个重要时刻。谷歌的文化多样性和包容态度也发挥着关键作用:八位作者中,有六位出生在美国以外;余下的两人则分别是持有绿卡、在加州暂时居住的德国人,和一位随家人逃离迫害的二代移民。 Uszkoreit 在伯林办公室中接受采访时提到,创新必须要依托于合适的条件。“良好的环境能让人们在人生的正确阶段对正确的事物产生浓厚兴趣。所以如果你恰好具备这种理想环境,正在面对正确的问题,再加上一点运气,那么奇迹就会从天而降。” 最后不得不提 Uszkoreit 和他老父亲之间的趣事。前文提到,Uszkoreit 和他的父亲曾在餐桌上起过争执,但老 Hans 如今也已联合创立了一家大语言模型开发公司,使用的当然正是 transformers 技术。
32K上下文,Mistral 7B v0.2基模型突然开源了
刚刚,Mistral AI 的模型又更新了。 这次开源一如既往的「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。 PPT 一翻页,全场都举起了手机拍照: 这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的「Mistral Tiny」系列。 此次更新主要包括三个方面: 将 8K 上下文提到了 32K; Rope Theta = 1e6; 取消滑动窗口。 下载链接:https://models.mistralcdn.com/mistral-7b-v0-2/mistral-7B-v0.2.tar… 更新之后的性能对比是这样的: 场外观众迅速跟进。有人评价说:「Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。」 Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。 这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。 而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。 此次开放基础模型之后,开发者们就可以根据自己的需求对这个「当前最好的 7B 模型」进行微调了。 不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。 上个月底,Mistral AI 正式发布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这一版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手,也实现了对标 ChatGPT。 而新模型的发布,也伴随着公司大方向的一次转型。人们发现, Mistral Large 并不是一个开源大模型 —— 有跑分、 API 和应用,就是不像往常一样有 GitHub 或是下载链接。 与 Mistral Large 发布同时发生的,是 Mistral AI 与微软达成了长期合作的协议,不仅会将 Mistral Large 引入 Azure,还收获了微软 1600 万美元的投资。 Mistral AI 对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。未来,二者的合作主要集中在三个核心领域: 超算基础设施:微软将通过 Azure AI 超级计算基础设施支持 Mistral AI ,为 Mistral AI 旗舰模型的 AI 训练和推理工作负载提供一流的性能和规模; 市场推广:微软和 Mistral AI 将通过 Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户提供 Mistral AI 的高级模型。除 OpenAI 模型外,模型目录还提供了多种开源和商业模型。 人工智能研发:微软和 Mistral AI 将探索为特定客户训练特定目的模型的合作。 当被问及公司是否正在改变其开源商业模式时,Mistral AI 联合创始人 Arthur Mensch 在采访中表示:「我们从开源模式开始,任何人都可以免费部署,因为这是广泛分发它们并创造需求的一种方式。但从一开始,我们就提供了一种具有优化模型的商业模式,这让使该公司能够为模型开发所需的昂贵研究提供资金。」 参考链接:https://twitter.com/MistralAILabs/status/1771670765521281370 首届中国具身智能大会(CEAI 2024)即将于 2024 年 3 月 30 日至 31 日在上海徐汇西岸美高梅酒店举行。 本次大会由中国人工智能学会(CAAI)主办,CAAI 具身智能专委会(筹)、同济大学、中国科学院计算技术研究所、上海交通大学、中国经济信息社上海总部联合承办,全球高校人工智能学术联盟协办,机器之心独家 AI 媒体合作。 盛会将为具身智能领域的学术与产业界搭建一个交流合作的顶级平台,以广泛促进学术分享与交流、产业合作与互动,推动产学研联动发展,提升我国具身智能技术的研究与应用水平。
AI浏览器的第一炮,由360打响了...
大家好,我是皮皮寻 众所周知,浏览器是我们每一个人向外界获取知识和信息的重要窗口,也是我们日常最频繁使用的软件之一。 阿寻通过用户调研发现,学生、职场人士每天使用浏览器的时长甚至超过了微信和抖音。 但是,读不完的报告、堆积如山的论文和越来越多的长视频导致效率十分低下。 于是乎,当微软和谷歌的AI浏览器还停留在所谓的 copilot.microsoft.com 或内测不让国人试用(手动狗头)时。 国产浏览器扛把子、“流氓”软件克星的老大哥 360,就已经推出它的AI浏览器且可以免费下载使用。 为了帮助大家解决浏览效率低下的问题,同时也试试这款新出的AI浏览器到底值不值得推荐,阿寻果断出手最后总结出两个字:够实用! 360AI浏览器(电脑) 作为国内首款真智能浏览器,360AI浏览器率先实现了对网页、PDF、视频等内容的智能处理,可以把浏览效率提升60倍。 它能精准提炼摘要、看点、思维导图、智能问答等等,助力学习和办公效率全面提升。 有意思的是,尽管项目刚起步,阿寻在实际体验时感觉还是挺牛掰得,先把最实用和最有需求的拿下,比如AI搜索、阅读、视频助手。 咱们先看这个AI浏览器的布局就挺有意思的,尤其是侧边栏,自上而下是收藏夹、AI工作台、常规的标签页。 底部则是应用市场、小程序和苏打办公网站,分区很合理,也突出了AI工具的属性,让用户可以一眼找到。 接下来才是重头戏,比如360AI搜索-新一代答案引擎,看看这界面,总感觉似曾相识...呃,像是秘塔搜索套了个壳。 当你打开B站的视频后,右上角居然还弹出了“AI视频助手”,点击一下即刻体验,阿寻直呼牛掰! 当然,还有一个很实用的场景就是PDF阅读,比如我就经常会看某些大佬的论文,AI浏览器一样会弹出提示,帮你总结要点: 以上阿寻介绍的仅仅是这款AI浏览器的基础功能,实际上并不新奇,但就是这些实用和有需求的功能360仅靠一个浏览器把它融会贯通。 其实,在用户眼里,先用到然后再慢慢感受到改进的这个过程中,就是在和产品交朋友,这是双向的绑定。 正如360集团创始人周鸿祎在免费课“预见AGI”上表示,浏览器不仅要作为获取信息的工具,更要成为学习的工具。 目前只支持Windows,不支持Mac,免费。大部分跨境电商、教培人员用的是Chrome或者Edge,配合这个使用,能提升不少效率。
华硕ROG推出降临TWS Speednova无线耳机:双模双设备连接
快科技3月24日消息,华硕ROG推出降临TWS Speednova真无线游戏耳机,首发1499元。 在音质方面,降临TWS Speednova采用了定制的10mm发声单元与气密腔体,经过专属音效调教,呈现出丰富而清晰的音效。 为了提升通话质量,这款耳机还配备了骨传导传感器,能够精准捕捉头箍振动的细微变化,从而捕捉用户的声音。 同时,AI降噪波束成形麦克风则能有效降低背景噪音,保持声音的自然质感,确保通话清晰无阻。 其配备的ANC主动降噪技术提供了上佳的听觉体验,集成的防风噪功能进一步优化了效果,为用户带来更加沉浸式的音频体验。 在连接方面,这款耳机提供了蓝牙和2.4GHz两种连接模式,可轻松应对各种使用场景。ROG SpeedNova 2.4GHz无线技术不仅带来了更好的连接效果,还具备出色的节能性能,可提供长达36小时的续航时间。 此外,华硕还加入了混合多点连接技术,可同时连接两个设备(2台蓝牙设备或者1台蓝牙+1台2.4GHz无线设备),实现同步配对,随时切换。 值得一提的是,降临TWS Speednova还支持IPX4防水、Aura RGB炫酷灯效以及ANC自适应模式,为用户带来更加个性化的使用体验。通过奥创指控中心移动版,用户还可以对耳机的模式、EQ、虚拟环绕声等进行控制,实现个性化的音频定制。
Stability AI终于甩开了它劣迹斑斑的CEO
作者|Yoky 邮箱|yokyliu@pingwest.com 继Infection AI之后,又一家明星创业公司从内部崩塌。 3月23日上午,Stability AI突然发布一项公告,宣布公司CEO Emad Mostaque 辞职。 Mostaque离职后,首席运营官Shan Shan Wong和首席技术官Chtistian Laforte为该公司的临时联席首席执行官。 根据Mostaque的自述解释道:他在Stability AI的股份占了公司的多数投票权,而这些股票和投票权又几乎让他完全控制了董事会。绝对集中的AI权力集中对所有人都不利,因此自己决定辞职。 这看起来是某种英雄的行为,尤其是对比OpenAI宫斗最终演变的方向,很明显Mostaque想把自己的离开打造成对开源的支持和负责任的AI治理的代表性事件。 然而完全相信他的说法的人似乎不多,甚至在推特上讨论他离职的人都不多。在他的推文下面,一个评论悠悠的点出了问题所在: 那你为什么不留在Stability来把这个问题解决呢? Mostaque之后的推文就更加深了这种印象,他表示将致力于去中心化的人工智能(DecentralizedAI)。 这是一个他反复提及的词,指向区块链。在过去他也被反复问到这究竟是什么,他的回复几乎都是:敬请期待。 是的,这是一个对币圈很感兴趣的CEO。除了AI类的会议,他也很喜欢参加虚拟币和AI结合的大会。在这一次又表示要all in后,他还特意写到: 目前不会发币,要发的话就叫“稳定币”(stable coin)。 是不是一切都是熟悉的味道? 就这样,本来手握一把好牌的Stability AI,在Mostaque的带领下,走向了核心人才纷纷离职,丑闻不断,经营挑战越来越大的地步。最终在两天前“逼走”Stable Diffusion最核心的三名作者后,这家明星公司终于摆脱了它的CEO。 混乱的Stability AI Stability AI从成立以来,就几乎没有停止过各种drama的丑闻,而这些丑闻大部分来自于Mostaque本人。 对于一家技术公司而言,公司成立至今,其核心技术的知识产权一直被质疑是由Mostaque“偷天换日”来的结果。 事情要从Stabiliyt AI赖以生存的Stable Diffusion架构说起。前者为普通群众提供了消费级GPU的算力支持,让他们也能够通过Stable Diffusion内容生成模型快速生成高质量图像。在很多媒体的报道中,许多人误以为Stability AI就是Stable Diffusion的所有者,伴随着Stable Diffusion论文中的三名核心人员加入该公司,更给外界造成了这样的假象。 但在学术界,二者却是完全分开的。甚至据《福布斯》的长文爆料中称:让Stabiliyt AI名声鹊起的Stable Diffusion,源代码其实是另一组研究人员写的。 在Stable Diffusion发表之前,来自德国的学者和初创公司Runway,共同推出了一个名为Latent Diffusion的开源图像生成器。 而Mostaque拿了别人的作品,把自己的名字写在上面。Mostaque通过向Laten Diffusion 团队提供超算的方式,摇身一变成为了新的Stable Diffusion,并因此获得了近1亿美元融资,这轮融资直接让Stability AI的估值冲破了10亿美元。 在“强行侵占”被爆出后,关于Mostaque个人的“黑料”也越爆越多。 2023年6月,《福布斯》在采访了30多人(包括现任员工、前员工、投资人、前同事等)后了解到,Mostaque在任Stability AI CEO期间,一直被指学历、资历造假以及夸大与合作伙伴关系来获取市场信任和关注度,夸大了自己的对冲基金经验,误导了投资者和客户,并夸大了亚马逊的一笔交易。 据公开报道,Mostaqu获得了牛津大学的学士和硕士学位,但《福布斯》的调查中,Mostaqu却只获得了学士学位,而并没有硕士学位。对此,Mostaqu在之后接受VentureBeat的采访中闪烁其词:“我没有学士学位或硕士学位,是因为我忘了寄60镑的支票,和错过了仪式。” 如果说,侵占研究成果、学历造假是Mostaqu的个人行为,那如今的Stability AI,在核心技术团队大半离职的前提下所面临的全面危机,也实在是一个“烂摊子”。 商业竞争层面,Stability AI面临着与同类公司激烈的版权竞争。上周,Midjourney 在涉嫌数据盗窃事件后封锁了所有 Stability AI 员工。同时该公司在大西洋两岸都面临着 Getty Images 提起的诉讼,称 Stability 非法使用了其 1200 万张照片。 数据版权的争议官司不断,Stability AI的商业模式也在逐渐被挑战。《福布斯》报道中,三名前Stability员工表示,在向该公司注入风险资本之前,亚马逊曾威胁要撤销该公司对其部分GPU的访问权限,因为该公司已经积欠了数百万美元的账单,几个月来一直未付。 也就是说,在2023年6月份,Stability AI就已经开始出现拖欠账单的情况。据彭博社估计,该公司每月支出约800万美元,作为对比,Mostaqu曾在X中表示,Stability AI有望在2023年11月赚取300万美元。虽然该推文后来被删除,但即便他所言不虚,营收情况也无法覆盖高昂的成本。 没有人能判断Stability AI入不敷出到底经历了多长时间,但可以肯定的是,在去年12月,Stability AI因财务状况压力巨大正在寻求出手,Mostaqu被公司重要投资者、美国对冲基金Coatue要求辞职。 当时按照知情人士的说法,Stability AI最近已经就收购问题与多家公司进行了接触和初步磋商,其中潜在买家之一是竞争对手Cohere,还有独角兽Jasper,不过后续被Stability AI否认。 数据侵权、技术剽窃、大量员工离职、没有可持续的商业模式,全靠融资烧钱,一个今天看起来最重要的文生图模型技术公司,却也成了商业角度最混乱的一笔资产。 目前更多人更为关心的是SD是否依然能够保持开源,毕竟这是大量的创业公司赖以生存的根本。虽然Stable Diffusion 框架并不属于Stability AI,但该公司确实是率先将框架形成产品并进行开源,同时在原有框架的基础上不断迭代出高可用的版本,也是目前应用最广泛的版本。 所以相比于Mostaqu的个人情况,大众更关心的是Stability AI的未来发展。 AI创业公司,进入“吞并潮” Stability AI依然不乏追求者。HuggingFace创始人Clem Delangue就发文“征求”意见,表示自己在考虑是否要收购它。 其实Clem Delangue对于2024年创业公司的情况早有预判。 “2024年会有一家“被大肆炒作的”AI公司破产,或以低得离谱的价格被收购。” 而此时再次发声,似乎隔空回应了当时的预判,也透露出其了“低点收割”的野心。 表面上看,无论是Inflection AI 还是Stability AI,二者暴露出了同样的问题:商业模式无法循环,也就很难避免烧钱换生存。 这似乎是整个AI创业史上的一个悖论,技术创业面临着巨大的前期投入,无论是模型的训练、算力的储备还是产品的打磨,但也正是因为前期投入太大,一味依靠投资烧钱走过了第一阶段后,如果找不到可以正循环的商业模式,投资人的钱早晚有烧完的一天。 在一切都在加速发生的大模型领悟,这烧完的时刻也来得更快。 Stability AI 的核心技术Stable Diffusion以开源模式为主。但SD模型的特性不需要很大的参数量,因此部署和使用分量都比较轻量,比较难设计商业化付费点,同时开源的模式于SD而言无法实现闭环数据的飞轮并优化模型。2C的角度来看,目前SD的用户量和Midjourney也不在一个量级,虽然推出了会员付费模式,但大多数个人用户仍以免费版为主。 其实即便是“购买方”的HuggingFace,本身也在面临着商业化难题。在Clem一次接受采访时透露,HuggingFace主要使用的是典型的免费增值模式,目前有15000家公司免费使用上面的服务,只有一小部分公司实际为服务付费,大概有3000家。付费功能包括单点登录、高级技术支持以及更强大的计算资源等等,像Meta、Bloomberg、Grammerly等公司都是他们的付费用户。 Clem Delangue也坦然,目前并没有真正找到并优化最大收入的方式,更关注的是使用率和扩大平台规模。 去年的明星创业公司在2024年开年似乎集体水逆。而这背后暴露出的深层次问题在于:去年一整年,资本市场的弹药向头部集中,创业公司在资本的“催熟”下发展过快,无暇顾及的治理结构上的大漏洞们纷纷暴露。 用一年快速走完很多公司十几年的路,从融资快速走向竞争,而这将促使目前的创业公司进入并购和整合阶段。 就目前看来,Stability AI凭借着此前打下的江山,和依然留在公司的一些人才,依然有着吸引力,很可能成为接下来市场上争抢的对象。 而现在看来,有能力吞掉这些公司,用足够资金解决生存问题,同时又有足够成熟和灵活的治理体系来吸纳其中最重要人才的,还是那些巨头。Stability将会成为接下来市场上的争抢对象,而这可能只是一个开始。
麦门又有新打卡点,这次是一个巨型「充电宝」|Feel Good 周报
绿色门店 在多样化 Feel Good 导读 麦当劳又有新型「绿色门店」,这次落户白云山 如果假设有力量,为何不好好利用? 汽车安全,性别攸关 💡未来的厕所得会「就地解决」 Cambium Carbon:我们极度依赖木材,为何还要浪费? 麦当劳又有新型「绿色门店」,这次落户白云山 这周,麦当劳中国又有新型「绿色门店」登场。 这家坐落于广州白云山公园南出口的门店,是国内首家光储一体的「零碳餐厅」。 「光储一体」具体来说,指的是餐厅在屋顶设置了光伏设备,预计每年发电量约 5.5 万度,满足餐厅全部照明用电需求;与此同时,餐厅也配备了储能设备,可实现了绿色能源全天候高效供能,提高能源使用效率。 除此以外,餐厅按照 LEED「零碳排放(Zero Carbon)」标准设计建造,从餐厅选址与设计、建材与施工、到能源管理,全程减少对环境的影响,推动节能减排。 在室内部分,餐厅采用了国际标准绿色卫士(GREENGUARD)环保认证的装修材料,严格控制材料在室内空气中的化学挥发量。 与此同时,其「高效油烟净化系统+大风量新风系统」令开放式厨房形成微负压区域,避免油烟进入用餐区域,确保空气质量数据 PM2.5 和 TVOC 优于国家标准; 新风系统配合高能效空调系统,控制餐厅与户外气压差,防止户外气流对冲影响,让室内温度稳定舒适。 在餐厅里,「减碳智慧屏」会直观地展示餐厅能耗、绿电用量、减碳效果等信息,增加零碳进程的可视度、透明度,提升消费者的减碳参与感。 「硬件」以外,消费者也能在这家门店体验到「绿色回收」的环保充电单车、麦麦绿色餐盘、「绿色包装」的 100% 获得 FSC 可持续森林认证原纸、免吸管饮料杯等等。 在新餐厅开业之际,麦当劳也首发了童书《麦麦绿色童话》。 一套四册的《麦麦绿色童话》通过改编白雪公主、丑小鸭、小红帽和三只小猪造房子等经典童话,将绿色低碳的趣味知识融入绘本故事。 这套书将于 4 月 10 日正式上市,作为开心乐园餐限时赠品。 麦当劳从 2018 年开始设立「绿色门店」。 2018 年 9 月,麦当劳中国首家 LEED 认证绿色餐厅落地雄安新区。 至今,麦当劳中国已经有超过 2700 家绿色餐厅,其中超过 50% 位于二三线城市,100% 获得 LEED 绿色建筑认证。 麦当劳中国首席发展官梁海静表示,「绿色门店」未来的新餐厅至少有 95% 都会是 LEED 认证餐厅。 也许以后,当我们想起麦当劳的时候,脑海里除了冒出经典的「红+黄」配色,也会想起「绿」的核心。 如果假设有力量,为何不好好利用? 为迎接今年 3 月 21 日「世界唐氏综合征日」,非营利组织 CoorDown 发布的宣传视频《假设我可以(ASSUME THAT I CAN)》在网上获得大量关注。
史上最强 AI 芯片,到底强在哪?
这两天,我们再次回顾了黄仁勋在 GTC 2024 上的演讲,在对产品做更深一层的分析解读时,发现了一些当时熬夜忽略掉的亮点。 一是老黄的演讲风格,幽默、自然、很有交流感,也难怪能把一场科技产品发布会开成演唱会的模样。 二是结合着前几代产品,再次审视最新发布的 Blackwell 架构以及系列 GPU,只能说它的算力性能、成本造价和今后表现,远超乎我的想像。 就如英伟达的名字,NVIDIA 的前两个字母 N 和 V,代表着 Next Version「下一代」。 与往年的 GTC 一样,英伟达如期发布了下一代产品,性能更高、表现更好;但又和以前完全不同,因为 Blackwell 所代表的不仅是下一代产品,更是下一个时代。 重新认识,地表最强 GPU 自我介绍一般都从名字开始,那这颗最新最强的 AI 芯片,也从这里讲起吧。 Blackwell 的全名是 David Harold Blackwell,他是美国统计学家、拉奥-布莱克韦尔定理的提出者之一。更重要的是,他还是美国国家科学院的首位黑人院士,和加州大学伯克利分校的首位黑人终身教员。 GTC 2024 上发布的这颗「Blackwell」就来源于此,倒不是说 Blackwell 本人对英伟达有过什么突出的贡献,而是在英伟达的命名体系中,拿历史上一些著名科学家(或数学家)的名字来命名 GPU 微架构,已经成为了一种惯例。 自 2006 年起,英伟达陆续推出的 Tesla, Fermi, Kepler, Maxwel, Pascal, Volta, Turing, Ampere 架构,就对应着特斯拉、费米、开普勒、麦克斯韦、帕斯卡、伏打、图灵、安培这几位学术大佬。 一是有名,二是有料,至于是否和指定产品一一对应,实际上就没有那么强相关了。 这里需要强调一点,上面提到的这些以名字命名的对象,不是哪一颗单独的芯片,而是指整个 GPU 的架构(黄仁勋将其称为平台)。 芯片架构(Chip Architecture)指芯片的基本设计和组织结构,不同的架构决定着芯片的性能、能效、处理能力和兼容性,也影响着应用程序的执行方式和效率。 简单讲,拥有了一座体育场(制作芯片的原材料)的你,打算将它彻底改造,这块地具体是用来开演唱会还是办运动会(芯片用途),决定了场地布置、人员雇佣、装扮和宣发的方式(芯片架构)。 因此芯片架构和芯片设计相互关联,也共同决定了芯片性能。 例如经常听到的 x86 和 ARM,就是针对 CPU 而设计的两种主流架构,前者性能表现强悍,后者能耗控制优秀,各有长项。 基于多代 NVIDIA 技术构建,在 Blackwell 架构下的芯片 B200、B100 具备出众的性能、效率和规模,也一同开启了 AIGC 的新篇章。 但为什么会被称为「AI 核弹」?新 GPU 到底有多强?在与上一代产品的对比下,我们会有更直观的感受。 2022 年的 GTC 上,黄仁勋发布了全新架构 Hopper 以及全新芯片 H100: 1. 由台积电 4nm 工艺制程,当中集成了 800 亿个晶体管,比上一代 A100 足足多了 260 亿个。H100 的 FP16、TF32 以及 FP64 性能都是 A100 的 3 倍,分别为 2000TFLOPS、1000TFLOPS 和 60TFLOPS,训练 3950 亿参数大模型仅需 1 天,用老黄的原话解释「20 张即可承载全球互联网流量」。 2. H100 的发售,让英伟达市值突破了2 万亿美元,成为仅次于微软和苹果的第三大科技公司。 3. 据市场跟踪公司 Omdia 的统计分析,英伟达在去年第三季度大约卖出了 50 万台 H100 和 A100 GPU,这些显卡的总重,近千吨。 到目前为止,Hopper H100 仍是在售的最强 GPU,并遥遥领先。 而 Blackwell B200,再次刷新了「最强」的记录,性能的提升远超出了常规的产品迭代。 从制程工艺看,B200 GPU 采用第二代台积电的 4nm 工艺,采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的 GPU ,共有 2080 亿个晶体管(单颗芯片为 1040 亿个),相较于制作 Hopper H100 的 N4 技术,性能提升了 6%。,综合性能提升约 250%。 从性能看,第二代 Transformer 引擎使 Blackwell 可以通过新的 4 位浮点 AI 支持双倍的计算和模型大小推理能力,单芯片 AI 性能高达 20 PetaFLOPS(每秒可以执行 20×10^15 次浮点运算),比上一代 Hopper H100 提升了 4 倍,同时 AI 推理性能比上一代提升了 30 倍。 从能耗控制看,过去训练一个 1.8 万亿参数模型之前需要 8000 个 Hopper GPU 和 15 兆瓦的功率,如今 2000 个 Blackwell GPU 就可以做到这一点,而功耗仅为 4 兆瓦,直接降低了 96%。 因此,黄仁勋的那句「Blackwell 将成为世界上最强大的芯片」并不是信口开河,而且已经成为事实。 不便宜的造价,不简单的用途 金融服务公司 Raymond James 分析师曾预估过 B200 的成本。 英伟达每制造一颗 H100 的成本约为 3320 美元,售价为 2.5-3 万美元之间,根据两者的性能差异推算 B200 成本将比 H100 高出 50%~60%,大概是 6000 美元。 黄仁勋在发布会后接受 CNBC 专访时透露,Blackwell GPU 的售价约为 3 万~4 万美元,整个新架构的研发大约花了 100 亿美元。 我们必须发明一些新技术才能使其(新架构)成为可能。 按照以往的节奏,英伟达大约每两年就会发布新一代 AI 芯片,最新的 Blackwell 相较于前几代产品在算力性能和能耗控制上有了显著的提升,更直观的是, 结合了两颗 GPU 的 Blackwell 比 Hooper 大了将近一倍。 高昂的成本不仅与芯片有关,还与设计数据中心和集成到其他公司的数据中心紧密相连,因为在黄仁勋看来,英伟达并不制造芯片,而是在建数据中心。 根据英伟达最新的财报显示,第四财季营收达到创纪录的 221 亿美元,同比增长 265%。四季度净利润 123 亿美元,同比暴增 765%。 这当中最大的营收来源数据中心部门,达到创纪录的 184 亿美元,较第三季度增长 27%,较上年同期增长 409%。 研发成本很高,但以此搏来的正向回报更高。 英伟达目前正在构建的数据中心,包含全栈系统和所有软件,是一套完整的体系,Blackwell 或者说 GPU,只是这当中的一环。 数据中心被分解成多个模块,用户能够根据自身需求自由选择相应的软硬件服务,英伟达会根据不同的要求对网络、存储、控制平台、安全性、管理进行调整,并有专门团队来提供技术支持。 如此的全局视野和定制化服务到底好不好,数据可以说明一切:截至 3 月 5 日,英伟达的市值继超越 Alphabet、亚马逊等巨头后,又超过沙特阿美,成为全球第三大公司,仅次于微软和苹果两大科技巨头,总市值达到 2.4 万亿美元。 目前,全球数据中心大约有 2000 亿欧元(约合人民币 7873 亿)的市场,英伟达正是这当中的一部分,黄仁勋预测这个市场在未来极有可能增长到 1-2 万亿美元。 英伟达 CFO 克雷斯分析: 第四财季数据中心的收入主要是由生成式 AI 及其相关训练所推动的。我们估计,过去一年中约有 40% 的数据中心收入来源于 AI。 不到一个月前,黄仁勋也在财报中表示 加速计算和生成式 AI 已经达到引爆点,全球范围内,企业、产业和国家的需求正在激增。 的确,定制化不是英伟达的专属,但在 AI 时代的风口,能够提供「从头到脚」的服务的企业所剩无几,英伟达就是其中之一。 猪能起飞,首先得在风口 在这个虚拟现实、高性能计算和人工智能的交叉口,GPU 甚至在取代 CPU 成为 AI 计算机的大脑。 生成式 AI 之所以引起各个行业的热烈讨论,最核心的一点是它开始像「人」一样工作学习,从聊天、写文案、画图片、做视频,到分析病情、调研总结......所有令人惊叹的生成结果,都需要天文数字般的样本数据作为支撑。 比如,你能记住「爱范儿」这个名字,可能是因为每天的公众号推送让信息不断重复加强了记忆;也可能是以前从未见过「爱」和「范儿」的组合,新奇感让你印象深刻;又或者是橙色的 logo 在你脑海中留下了独特的视觉符号。 每一个简单的小细节巩固了你脑海中「爱范儿」的画像,但当全国的科技媒体信息杂糅在一起的时候,就需要更多的符号来加深印象,以免搞混。 AI 的深度学习,大概就是这个逻辑,而 GPU 就是处理海量信息的最佳选择。 自 OpenAI 引燃 AIGC 后,大部分有名有姓的公司都开始极速上架自家的大小模型,智能汽车、翻译软件、电子文档、手机助手,连扫地机器人,都拥有了 AI。 GPU 仿佛在一夜之间就成了全球争夺的对象,根据市场跟踪公司 Omdia 的统计,这当中不乏腾讯、阿里巴巴、百度、字节跳动、特斯拉,Meta 和微软甚至各自采购了15 万颗 H100 GPU(去年最强芯片)。 技术原理和时代背景,共同促进了 GPU 的爆火,也成就了属于英伟达的「显卡帝国」。根据富国银行的统计,英伟达目前在数据中心 AI 市场拥有 98% 的市场份额。 站在风口上,猪都可以飞起来。 但当一家公司在一个行业里的占有率接近 100% 时,背后一定有个和站在风口同样重要的原因。 1999 年,英伟达就率先提出了 GPU 的概念,2006 年就推出了 CUDA,这是英伟达发展史上一次重要的技术转折点,它降低了 GPU 的应用门槛,开发者可以用 C/C++ 等语言在 GPU 上边写程序,GPU 脱离了图像处理的单一用途,高性能计算走入了显卡的世界。 16 年 AlphaGo 的胜利,17 年比特币的暴涨以及挖矿热潮,在此期间押注自动驾驶市场,直到 23 年 ChatGPT 等 AI 大模型问世,让英伟达在多年前的播种,迎来了丰收时刻。 风口固然重要,但前瞻市场布局、多元化应用领域、大手笔的投入与创新,任何一环的失位,都不会造就当下接近满分的市场神话。 不过,于英伟达而言,如何在时代的十字路口保持领先地位,才是最重要的议题。 Blackwell,就是巩固成果的关键一步,在许多厂家还没收到已经下定的 H100 时,B200、B100 的流水线已经开启。 黄仁勋在演讲中,重申了自己在此前财报中提出的观点「通用计算已经到达瓶颈」。 因此现在需要更大的模型,也需要更大的 GPU,更需要将 GPU 堆叠在一起。 这不是为了降低成本,而是为了扩大规模。 这当中,有些谦虚,当然也有市场的巨大需求。 目前 OpenAI 最大的模型已经有 1.8T(万亿)参数,需要吞吐数十亿 token(字符串),即使是一块 PetaFLOP(每秒千万亿次)级的 GPU,训练这样大的模型也需要 1000 年才能完成。 Hopper 很棒,但我们需要更强大的 GPU。 GTC 2024 带来的第一波讨论热潮在这几天慢慢淡去,可以预见的是,发布会上的 Blackwell GPU 系列、第五代 NVLink、RAS 引擎,在走向市场的时候会带来更多的震撼;难以预测的是「生成式 AI 已触及的引爆点」究竟还会给世界带来多少惊喜与改变? 在 AIGC 爆发的当下和 AGI 到来的前夕,英伟达引爆的这串 AI 鞭炮,目前还只是炸响了第一下。
爆红的AI手机,是下一个美图手机吗
撰文 | 冯 诺 编辑 | 龚 正 2024,你有没有计划换一台AI手机?可能很多人还不明就里,啥叫AI手机、能有啥用。 目前,市场上包括OPPO、vivo、魅族等各大品牌已经开始狂推AI手机,主要功能包括AIGC消除(一种修图功能)、AI通话摘要(一键生成通话记录要点)等。不过也不用着急,无印良品推的AI零食,咱没吃到不也活得好好的,缓一缓再买也不迟。 我们的观点是:大家不必去买一个概念,而是要看手机里有没有“你需要的真正颠覆性的AI应用”。别又买成了一台美图手机就行。 #01 门店探访AI手机 北京东四环,华为、OPPO、vivo等品牌手机店一字排开。对于AI手机,OPPO、vivo应该算跑得比较快的。 在OPPO柜台,今年1月上市的OPPOFind x7 UItra主打的就是AI手机概念。最吸引我的是这两个功能。 一是AIGC消除。很多人在网红景点拍照时,都有一个烦恼,就是“乱入的路人”。AIGC消除功能,就是能识别和消除乱入的人、物体等,然后手机里自带的AI大模型能生成别的填充画面,省时省力。 OPPO官网上演示的AIGC消除 另一个就是AI通话摘要。想必时下忙碌的现代人都有一个“通病”,挂掉一个突如其来的电话,就完全忘了刚才说了啥。 这个功能主打的就是能智能识别通话内容,生成重点信息摘要,不用再回头去重复问找骂。 OPPO官网上演示的AI通话摘要 至于其它的AI功能,包括智能生成图片、与智能小布对话、证件照智能生成等,有点类似于百度的文心一格、Siri、阿里推出的妙鸭相机,新意对我来说并不足。 在淘宝的OPPO旗舰店里,其AI手机销量目前是超过1万+,价格从3999到4999元不等。在京东,该机型销量为2万+。 相较于OPPO,vivo的AI手机推出的更早一些,去年11年发布了vivo X100、vivoX100 Pro两款机型。它的AI功能入口,主要基于蓝心大模型开发的小v助手和jovi语音。通过这个助手,能实现AI字幕、屏幕朗读、全局翻译、听歌识曲等。 给我印象较深的一个功能是,小v助手对话框里,除了传统的“语音助手”功能外,增加了创作功能——其实还是类似于百度的文心一格,只要输入一段文字,它就能做图。也能即时拍照,生成各种风格的照片。据说这个创作功能未来升级后,还能生成文档、PPT和思维导图。 小v助手的创作功能 Vivo X100和Pro机型的定价也是从3899到5999元不等。可能开售时间较早,X100在淘宝平台销量过3万+,X100 Pro平台销量过了10万+。 至于华为,业界都认为华为P70将是2024年最为关注的AI手机。但据最新的消息是,它可能会延期到4月发布。 看到很多品牌都推AI相机,和我一同在店内的其他消费者,问了一个问题:AI手机能生成登记照,“好是好,不过相关的系统会认AI生成的照片么?” 这个小小的问题暂时无解,但也给大家带来了一个思考:AI生成的一系列图片、文件,它还面临来自社会、法律、伦理一系列的摩擦与调整,才能很好共存。 比如最近泛滥的用AI复活往生者的事件,很多并未得到家属同意和授权,猎奇好奇之下造成了二次伤害。手机上的这些AI功能也一样,还需要很多来自全社会的讨论。 #02 大炼AI手机之下,也有人泼冷水 AI手机其实并不新鲜,2017年-2018年间就曾短暂流行过,当时厂商们主打AI芯片,能运行图片、语音识别、AI摄影等应用。 荣耀手机,在当年推出了荣耀View 10,打出了“你的第一台AI手机”口号。现在你还能搜到发表于2018年的AI手机文章,标题诸如「盘点华为5款AI手机」、「华为精心打造的五台AI手机」。 不过,当时厂商虽兴奋,但消费者似乎很淡定,原因被总结为缺乏划时代的颠覆性应用,AI概念也并未挽回当时全球手机进入存量市场的颓势。 转眼6年过去,去年下半年开始,AI手机又开始蠢蠢欲动了,这次是拜大热的生成式AI所赐。 这里面的玩家除了百度、阿里等这类建制派外,手机厂商也纷纷大炼AI,接连发布了针对移动端的大模型。 如小米的MiLM、OPPO的安第斯大模型、vivo的蓝心大模型、魅族的 Aicy AI、荣耀的魔法大模型、三星的高斯大模型,以及搭载大模型的终端产品。 到了今年,似乎水到渠成,又或者是行业惯有的“抢占制高点”,一些手机厂商开始不约而同地称,自家装配了大模型能力的手机为“AI手机”。 2024年农历新年之际,OPPO高级副总裁、首席产品官刘作虎就在一条宣传视频里出镜,宣布“OPPO正式进入AI手机时代。” vivo 手机也宣布 vivo S18系列是“全球首批AI大模型手机”,称自研的蓝心大模型已覆盖旗下25款机型,超过2000万用户体验过vivo的大模型功能。 最激进的当属魅族。正月还没过完,魅族突然宣布将停止制造“传统手机”,All in AI。最新发布的魅族 PRO 21,魅族官方甚至不再称之为手机,而是“开放式AI终端”。 AI手机的戏不止国内厂商在唱。 三星也用新一代Galaxy系列手机Galaxy S24,宣布进入 “移动 AI 新时代”(New Era of Mobile AI)。 近日,一向审慎的苹果也“弃车保AI”,解散了成立十年的造车团队,转而加码生成式 AI 的开发。 多方消息称,苹果将把 AI 能力当成iPhone 16系列的重点来宣传。3月15日,苹果正式公布了一个300亿参数的多模态大语言模型系列。 诸多厂商主动push背后,实际上是手机厂商的危机感。做生意,重在提前抢占制高点和话语权。而2024年,俨然已经变成了各厂商眼中的“AI手机元年”。 OPPO 创始人兼 CEO 陈明永,在今年2月18日新年开工第一天,就发布了一封内部信,主题为“开启AI手机新时代”。 接着,刘作虎给同行敲了警钟:“2024年,智能手机厂商再不布局大模型就没戏了,必定会影响到市场竞争力。” 刘作虎关于“AI手机是噱头还是未来”的解答 荣耀手机 CEO 赵明话说得更重,认为现在All in AI,已经迟了:“今年你才 All in AI……差距会越来越大。” 看似一片阳光灿烂,但业内也不乏喝倒彩的。 小米集团总裁卢伟冰直言不讳“AI 手机是噱头”。对于友商炒作 AI 手机,不免有些阴阳怪气地表示:AI 是一种无处不在的能力,当感受不到 AI 的时候,才是 AI 最大的价值,天天谈AI,说明是没有 AI 能力的。 荣耀 CEO 赵明也认为,大部分友商都只在部分 AI 应用上小打小闹,有些所谓 All in AI 之类的口号,不过是营销罢了。当然,这并不妨碍他认为装载了MagicOS 8.0 的荣耀手机可以定义为“真正的AI手机”。 #03 AI 手机的概念有多性感,现实就有多骨感 生成式 AI 确实越来越成为未来的发展方向,这一点咱们就别违背趋势、反科学了。但 AI 手机的时代,真的来了吗? 这里,我们再次回归初心,探索一下什么是 AI 手机。 AI 功能模块在手机上的运用,早已不是新鲜事儿。你手机里的很多功能,比如语音助手、声音识别、多语种翻译、面部识别,都用到了 AI。但显然这样的手机配不上称为“AI手机”。 在科技咨询公司高德纳(Gartner)的定义里,“AI手机(GenAIsmartphones)具备能无缝整合及有效执行生成式 AI 相关功能和应用的软硬件。AI手机能在本地运行可生成新内容、策略、设计和方法的基础大模型。” 也就是说,在行业认知里,AI 手机要能在本地运行基础大模型——即端侧(on-device)大模型。端侧大模型是完全装载在手机中的,不需要连接云端,哪怕是飞行模式也能使用,好处是速度快、功耗小、成本低,但坏处也致命——性能缩水。 换句话,人在机在,机在端侧大模型就在,随叫随到。 目前,vivo、三星、OPPO、荣耀等手机厂商先后在手机里内置了端侧大模型。 OPPO有端侧70亿参数的安第斯大模型;荣耀也在 MagicOS 8.0 操作系统中加入自研的70亿参数魔法大模型,vivo也有70亿参数的蓝心大模型,三星的 Galaxy S24 系列也加入了端侧大模型 Galaxy AI。 端侧大模型的军备竞赛俨然如火如荼。在各家公司的公关稿里,它们的功能无疑都是领先的、划时代的。但公关稿里的 AI 手机有多性感,现实中的 AI 手机就有多骨感。 眼下市面上的“AI手机”,主打的 AI 功能,无外乎是生成图文、智能搜索、图片编辑、实时翻译、语音转录、辅助聊天、语音助手等。关键是这些功能不用内置的大模型,从应用商店下载第三方 App 也能完成,效果甚至好于系统自带。 PCHome 评测了魅族21 PRO、OPPO Find X7 Ultra、vivo X100 Pro 等接入端侧大模型功能的手机,试用相关功能时频频翻车。 比如问魅族手机的 Aicy 语音助理“魅族手机什么时候才能支持 AI”,它只回答当前的日期; 让 OPPO 手机的小布助手画“调虎离山”,它只能画一只老虎。vivo X100 Pro 的图片生成功能则风格单一,质量也参差不齐,比不上市面上免费的 AI 图片生成工具。 在另一个 AI 手机的横评中,某 AI 手机主推的图片编辑功能,一键抠掉多余人物的效果不敢恭维,残影十分明显。更何况,这样的功能对于大多数用户来说,可能甚至没有美图秀秀或者抖音滤镜的一键美颜来得实用。 总结来说,连市面上大模型标配基本功都不达标,就更不用说宣传中所提及的更高阶的 AI 功能了。 这不禁让人想到2013年出来的美图手机。虽然和AI手机不算同一个物种,但它主打的功能,下载一个美图秀秀就能实现,干啥要新买个手机。 想起了那句话,“业务能力不过关,职场上是很容易被优化的”。 #04 AI手机要出头天,还有三座大山 一家之言,现在的手机,距离真正的 AI 手机时代还很遥远。要想登上AI山顶,手机行业还需要越过三座大山——创新颠不颠覆、硬件达不达标、受众买不买账,才有可能进入 AI 手机时代。 首先,第一座大山,有没有颠覆式创新。颠覆式创新,意味着产品形态和用户习惯的剧烈改变。 个人电脑领域,从命令行界面过渡到图形界面,人们使用电脑的方式从键盘敲代码变成用鼠标随意控制界面。手机领域,功能机过渡到智能机,人们使用手机的方式从键盘变成触屏。 AI 手机时代,至少也要有类似的革命性创新。 比如,从图形用户界面(GUI)变成自然语言用户界面(NLUI),人们使用对话的方式操控手机;或者,生成式 AI 彻底打破手机 App 和各项功能之间的壁垒。又或者,出现类似安卓或 iOS 一样的现象级端侧大模型,成为手机的底层架构…… 我们不是预言家,不知道具体是什么样的颠覆式变革,但我们知道,当下的 AI 手机肯定不是。生成式 AI 在手机上的确可以提升某些办公、学习、生活能力的效率,但要成为促进代际变革的颠覆式创新,还不够格,而且还有很长一段路要走。 这就涉及到压在 AI 手机上的第二座大山,硬件天花板。 ChatGPT、文心一言这样的完全体大模型,本身就依靠大力出奇迹,训练和使用的过程消耗巨大的算力和电力。 据传,GPT-4 的训练,用了1万-2.5万张 A100 芯片。而一直密切关注生成式 AI 的跨界首富马斯克也曾估算, GPT-5 可能需要 3万-5万张 H100。国内的文心大模型 4.0 也是用百度自家的飞桨平台万卡集群训练出来的。 向公众开放服务后,为了满足海量用户的同时使用,也需要强有力的硬件支持。有人估算,ChatGPT 需要动用3万张 GPU 来应对每天百万量级的用户请求。 如此庞大的算力需求,直接把卖铲子的英伟达股价一度抬上了2万亿美元,超越谷歌、亚马逊,跃居美股第三。 大模型还是凶狠的电老虎。前几天一条新闻冲上微博热搜:ChatGPT 的日耗电量等于美国1.7万家庭日耗电量。一个美国普通家庭,平均每天用电量在29千瓦时,而 ChatGPT 的单日用电量超过了50万千瓦时。 而以目前手机的硬件基础,实在难以承受大模型的“大”,需要专门针对手机优化。 高通、联发科等芯片厂商从去年下半年开始,频频发力端侧大模型的硬件。 2023年10月,高通发布了首款专为生成式 AI 打造的骁龙8 Gen 3芯片,能在手机上运行100亿参数的大模型。荣耀 Magic6 Pro、小米14 Pro、OPPO Find X7 Ultra等手机就使用了这款芯片。联发科2023年底发布天玑9300芯片,号称最高支持330亿参数的大模型。 高通的骁龙8 Gen 3 运行 GPT 的 A100 芯片,一张显存是80G,手机再怎么堆配置也不够看。 比如英伟达新近推出的GeForce RTX 40 Super,AI 引擎总算力是836 TOPS每秒,相比之下,手机端最强的高通骁龙8 Gen3,只有73 TOPS每秒,相差了十几倍。 所以,完全体的云端大模型,手机本地带不动。目前的端侧大模型,普遍在几十到上百亿的参数,跟动辄千亿甚至万亿的云端大模型比,就显得小巧玲珑了。 而在手机上体验最先进的生成式AI,最普遍的方式是通过云端,用户在手机上输入指令,然后上传到云端处理后再回传手机。这个过程耗时费力,且受制于网络,体验并不十分友好。 要在手机上体验更加丝滑的大模型,需要专门优化过的端侧大模型,必然在性能上缩水。 连完全体的云端大模型都还不够成熟,时常出现各类幻觉和 bug。缩水版的端侧大模型自然更会严重制约 AI 手机上的表现。 即使不成熟也要硬上,手机厂商除了想宣传上占位之外,还有一个更实际的目的:借 AI 的噱头,促进手机销量。 但这就会碰到阻挡 AI 手机的第三座大山:受众可能并不买账。 大背景是,经济下行,手机销量节节下滑。据国际数据公司(IDC),2023年中国智能手机出货量约2.71亿台,同比下降5%,近十年新低。 进入2024年,情况并没有好转。据调研机构 Counterpoint Research,中国智能手机销量2024年头六周同比下跌7%,大部分主流手机厂商销量出现较大规模的下滑,其中OPPO下降29%,苹果下降24%,vivo下降15%,小米下降7%,只有华为、荣耀实现了增长。 在相机、尺寸、芯片、电池、屏幕等等手机软硬件参数上,手机厂商已经卷无可卷,捂紧了腰包的消费者早就不怎么感冒了。于是手机厂商把生成式 AI 当作下一个救命稻草。 但冰冷的现实是,对于手机厂商画的AI大饼,消费者并不买账,至少目前是。 在我线下探访的北京东四环附近的OPPO和vivo的官方旗舰店,发现AI 手机其实并不是宣传的重点。手机店店员也表示,顾客主要关注的仍然是拍照、芯片、屏幕等方面的手机性能,很少有人会主动关注其中的 AI 功能,即便店员主动提及,通常也并不感兴趣。经济观察报、钛媒体等媒体的线下采访,也得到了类似的反馈。 很好理解,相较于业内人士热衷探讨AI技术的星辰大海,普通消费者更关注的是:手机上的 AI 真的那么厉害吗?以目前 AI 手机提供的能力来看,答案未必。 #05 AI手机,何必是手机,脑洞还可以大点 过往的经验告诉我们,打败马车的,不是更快的马车,而是汽车;同样的,取代智能手机的,又何必是更强的手机? 它完全可能是另一种形态的 AI 硬件,取代已经流行了十多年的智能手机形态。近期就有几款突破当下智能机边界的产品,引发了广泛关注。 比如 AI 公司 Rabbit 推出了一款手掌大小的智能设备 Rabbit R1,主要通过自然语言驱动。按下对话按钮,500 毫秒内就能得到响应。这款设备两周就卖了5万台。 初创公司 Humane 发布了一款内嵌了OpenAI技术的产品 AI Pin,去掉了屏幕,依靠激光投影和手势来操作。《时代杂志》将这款 AI 硬件评为「2023 年最牛的200佳发明之一」。 依靠投影和手势操作的 AI 硬件 AI Pin 德国电信和Brain.ai合作推出了一款叫T-Mobile的产品,它的特点是没有App,主界面就是一个AI助手,通过对话来控制。 当然,这些设备或多或少仍处于开发状态,距离大规模投入市场还早。 虽然生成式 AI 过去一年狂飙突进,甚至出现了「大放卫星」的现象,不停有人宣布自家的大模型能力「赶上」乃至「超过」GPT3.5 乃至 4。但到目前为止,除了 ChatGPT 本身,还没有一款全民的现象级 AI 应用。 也就是说,基础大模型上的应用生态,目前还处在含苞待放的阶段,大模型的硕果能接多大,还需要看造化。但手机搭载的端侧大模型,其能力始终是被基础大模型锁死的。在这种情况下,鼓吹 AI 手机,更多是一种公关手法。 国内 AI 手机的拐点,可能要等到国际头部大模型公司把自家产品开源。
口袋AI设备Rabbit R1 3月底向首批美国买家发货:无需配对手机,堪称万能应用控制器
IT之家 3 月 24 日消息,曾在今年 CES 大展期间引起轰动的口袋 AI 设备 ——Rabbit R1 将要发货了。Rabbit 官方周六宣布,正在按计划于 3 月 31 日复活节当天将首批美国用户订购的产品运出工厂。由于订单需通过海关,预计发货时间超过 3 周,首批订单将于 4 月 24 日左右到达当地客户手中。“我们迫不及待,想要让您亲身体验 R1!” IT之家附事件背景:初创公司 Rabbit 推出的口袋 AI 设备 Rabbit R1,自 CES 2024 亮相后就引发热潮,首批 1 万台竟在短短一天内就被抢购一空,其售价为 199 美元(IT之家备注:当前约 1441 元人民币)。 这款产品拥有 2.88 英寸触摸屏、一个可旋转摄像头和一个交互滚轮,搭载 Rabbit 自研操作系统,内置“大型操作模型(Large Action Model,LAM)”堪称“万能应用控制器”,无需使用手机,就能集播放音乐、购物、发信息等多种功能于一身,甚至还能训练它学习操作特定应用。 该机搭载主频为 2.3GHz 的联发科处理器,配备 4GB 内存和 128GB 存储空间,电池续航时间为“全天”。 官方曾表示,该产品并非想要取代手机,而是将用户从繁琐的任务中解放出来,是用户的 AI 助理。以打车功能举例,用户只需按住按钮,对 R1 说“帮我打一辆优步去帝国大厦”。R1 经过几秒钟的解析后,会在屏幕上显示费用和其他详细信息,然后开始叫车。同理,订餐、放歌也是如此。 R1 不需要与手机配对,没有内置 App。配置方面,R1 搭载 2.3GHz 联发科处理器、4GB 内存和 128GB 存储空间,续航时间据称可达一整天。 根据官方的定位,R1 希望成为用户与智能手机(无论是 iPhone 还是其他设备)之间的中介。其设计理念是让用户不再为完成某项任务而在应用程序中摸索,而是由 Rabbit R1 和 Rabbit OS 代劳。
抛弃App、装上大模型,苹果、OPPO、小米混战“AI手机”
端侧大模型何时能落地。 作者丨杨博雯 编辑丨海腰 题图丨Midjourney AI手机的火,开年以来越烧越热。 百模大战的战火刚歇,AI大模型落地的浪潮便席卷而来。而千行百业之中,手机厂商们的回应尤为热烈—— 海外最受人关注的苹果先是被曝放弃十年的造车梦,转向生成式AI项目;近期又有多家科技外媒报道称,年底的iPhone 16系列会把AI能力当作重点功能发布;3月15日,苹果官方又确认,已收购加拿大AI初创公司DarwinAI,此举被视为要进一步加深AI落地产品的标志。 而国内最为激进的则是OPPO和魅族,一个宣布“2024年是AI手机元年”,一个则称“将正式停止传统智能手机新项目”,双双ALL in AI。 此外,三星、谷歌、小米、荣耀、vivo也都或早或晚,或多或少地公布了自家着力布局AI技术,推出相关产品的决心。 OPPO联合IDC于近期发布的《AI手机白皮书》显示,随着新的芯片和用户使用场景的快速迭代,AI手机出货量将在2024年后迅速攀升,2027年达1.5亿部,市场份额超50%。 在全球智能手机市场份额停滞不前甚至连年下跌,而摄像头、芯片、屏幕的故事也逐渐失去吸引力之时,手机厂商们似乎是不约而同地选择了AI手机这个新故事。 于是,话语权的争夺再次上演。 AI手机,如何定义? 无论是否发布新机,是否召开了发布会,是否通过媒体或其他渠道表露自己这片新的蓝海势在必得的野心,大大小小的厂商们都已对外讲了很多故事。但在听这些故事之前,我们仍需搞清楚——AI手机究竟是什么? 这并不是一个新概念。荣耀CEO赵明今日称2016年是“荣耀AI手机”的元年,意指2016年由AI驱动的荣耀Magic。2017年11月,荣耀又推出了的荣耀V10,强调了其在AI芯片麒麟970芯片的驱动所拥有的“革命性的移动AI能力”,称这款手机标志着“新AI时代”的开始。而自这一年开始,AI在图像降噪、帧率优化、画质增强等手机处理任务中发挥的作用,就开始逐步扩大。 直到2018年,中国电信发布《人工智能终端白皮书》,首次规范了人工智能终端(即AI手机)的定义—— 平台要求方面,提出了硬件运算单元、深度学习框架等要求; 能力要求方面,提出了人脸识别、语音助手、场景识别与系统优化等功能、性能要求; 应用要求方面,定义了美颜、背景虚化、照片分类、AR视频和翻译等AI应用体验需求。 换句话说,这个时期对于AI手机的定义为搭载了深度学习框架/AI芯片,且能运行AI应用,拥有常用AI功能的手机。 不过此后几年,手机厂商们愿意讲,而消费者们也乐意听的并非“AI手机”这样一个整体性的概念,而仍是摄像头竞赛、折叠屏翻新这样的传统经典老故事。 直到2022年年底ChatGPT一炮而红,2023年百模大战如火如荼,到了2024年2月,IDC联合OPPO发布了一份《AI手机白皮书》,提出了定义AI手机的四项全新标准—— 创作能力、自学习能力、真实世界感知能力、算力高效利用能力。 而要构建这四项能力,则要依靠智慧OS、多模态交互、内嵌专属智能体、大模型、硬件平台。再结合各大厂商对外的说辞,在2018年定义的基础上,AI手机的评判又多了一条更加直观的指标—— 能否装下大模型。 各家战况如何? 有ALL in,也有质疑 那么问题就来了,现在市面上真的已经有厂商搞出来符合定义的AI手机了吗? 让我们一一来盘。 首先是苹果,就在近期,多家科技外媒都报道称,今年年底发布的iPhone 16系列会把AI能力当作重点功能发布,其AI芯片的神经引擎核心数量将会“大幅提高”——而这个数字自iPhone 12系列使用A14芯片以来,就一直保持在16个——芯片性能和速度的大幅提高,显然也与苹果重点布局生成式AI的传闻相吻合。 2024年2月,时代杂志报道称,苹果解散了2000多人的造车团队,并将约1/3的团队成员转向AI部门,推动生成式AI项目;在同一月,苹果CEO库克向福布斯透露了生成式AI项目进展:将会在今年6月的全球开发者大会,或是秋天的iPhone新系列发布会上公布最新进度。 而在今年年初,苹果还收购了加拿大AI初创公司DarwinAI,该公司主要专注于开发在制造过程中目视检查组件的AI技术,使AI系统更小、更快。显然,如果苹果希望在手机终端部署大模型,运行AI应用,这项技术就会派上用场。 对于苹果,当前业界讨论的核心是,暂无自研大模型的苹果,到底会找哪家大模型进行深度定制?苹果合作伙伴这一身份对于当前全力推进大模型产业化的厂商们来说自不必多说,而这个答案,在今年夏天或许就将水落石出。 除了苹果之外,三星也在今年1月25日推出了三星Galaxy S24系列的三款产品,在特意面向中国市场举办的线上发布会中,三星还特意强调了AI卖点,表示此次的旗舰系列采用了云端和本地大模型相结合的方式,为用户的出国旅行、办公场景提供AI的体验。 已有自研大模型的谷歌,也是早在去年10月的硬件发布会上,宣布将自家的Bard模型装进了Pixel 8系列手机中。 而国内手机厂商更是战火纷纷。 今年开年上班第一天,OPPO CEO陈明永发布了一封名为《开启AI手机新时代》的内部信,信中提到,2024年是AI手机元年。未来五年,AI对手机行业的影响,完全可以比肩当年智能手机替代功能机。从行业发展阶段来看,AI手机也将成为继功能机、智能手机之后,手机行业的第三阶段。 正因为这轮由大模型支撑的AI技术,正在重构手机行业的未来,OPPO也将专门成立AI中心,将资源向AI集中。 魅族的布局则在春节之前就已初见端倪。天眼查显示,江苏星纪魅族科技有限公司于今年1月3日宣告成立,经营范围包括人工智能基础软件开发、人工智能通用应用系统、人工智能基础资源与技术平台、人工智能硬件销售等。魅族董事长兼CEO沈子瑜担任该公司执行董事、总经理。 2月18日,魅族官博发布视频表示:公司决定决定All in AI,停止传统“智能手机”新项目。相关话题随即冲上微博热搜。 事实上,魅族并不是第一次全面弃牌又重新押注。在2009年前后,魅族就做出了“全线停产MP3产品,战略重点全线转移到手机领域”的决定。而在这一次,沈子瑜认为当前手机行业的创新像是堆叠参数的军备竞赛,而他们不想用宝贵的智慧资源和创造力去对抗传统智能手机规模效应与复制粘贴,而是要“用有限的资源和有限的时间去做一件更伟大的事情”。 vivo虽然并未大肆宣传AI手机的概念,却也在2023年11月发布了搭载自研蓝心大模型的X100系列手机,落地终端侧70亿参数大语言模型,跑通端侧130亿参数模型,全面覆盖核心应用场景,号称是“国内首个运用AI预训练大模型的手机产品”。 然而在雷军去年的年度演讲里,号称要“全面拥抱大模型”的小米,在AI手机上的发声却相对保守。 在2024年2月26日至29日,世界移动通信大会期间,小米集团总裁卢伟冰表示,反对把AI概念化,把原来的手机名字后面加个AI没有意义。1个月后,卢伟冰又在微博重谈此事。在他看来,AI是一种是一种无处不在的能力,当你感受不到AI的时候,才是AI最大的价值。当你天天去谈AI的时候,说明你没有AI能力。 “AI是未来,是无处不在的能力,但AI手机是噱头。”他在最后这样说。 再看小米在“具有生成式AI应用/功能”“把大模型装进手机”等指标上的完成度,却又不低。 比如,在2023年8月,搭载了AI大模型的小米手机通过内测方式初步与用户见面,其底层的AI大模型是一个13亿参数的轻量化语言模型,以小米用户当前使用量最高的小爱同学作为主阵地——针对此,小爱同学也由原来的APP形式变成了完全底部输入框唤起的形式。 比如,在今年的小米14 Ultra发布会上,小米影像大脑也打上了“首个AI大模型计算摄影平台”的名号,并以“Xiaomi AISP”作为全新名称。官方称,Xiaomi AISP不仅能大幅提升影像处理速度,也能在画质、色彩还原等方面达到新高度。 而对于荣耀来说,“AI手机”的概念都仍然值得商榷。 在2024年世界移动通信大会期间,荣耀推出了平台级AI赋能、以人为中心的跨操作系统体验,以及基于意图识别的全新人机交互。官方表示,这并非将AI视作手机的应用,而是将AI作为一种能力,赋能至旗下产品相关的方方面面,如操作系统、终端等。 “其实很多厂商对于AI手机的概念存在误解,能够提供生成式AI能力的手机并不等于AI手机,甚至相去甚远。真正的AI手机是可以发展、进化的,它搭载的是个人化的操作系统,它真正懂用户,而且每个人的AI手机都能提供千人千面的不同体验。”在之后接受媒体采访时,荣耀CEO赵明日又这样说。 近日,赵明日又表示,2016年是荣耀AI手机的元年,在那时荣耀的价值主张和核心思想就是用AI来重构未来的服务。如果2024年才说元年,那厂商的布局一定是落后的。 “AI手机应该分为四个层级(系统层、单机层、应用层、网络层),绝大多数的厂商是在第三、第四层发力,相对浅层,聚焦在第一、第二层,才是在构建面向未来的最底层的能力。”赵明日说。 终局何在? 在盘完手机厂商们的进展之后,“我们离真正的AI手机到底还有多远”的问题便自然浮到嘴边,可要回答这个问题,又并不简单。 首先,对于所谓“真正的AI手机”,我们或许需要抛开“搭载大模型”“拥有生成式AI能力”等定义,从各路发声里拼凑出一个更加终局的答案—— 在魅族宣布停止传统“智能手机”新项目的视频中,沈子渝除了宣告公司战略转移,也发出疑问:为什么一定要传统智能手机?为什么要有屏幕?现在的交互方式足够方便了吗?多一些语音交互就能称之为AI系统了吗? 在他看来,应该以全新的交互方式为基础,重构手机软件的交互逻辑,重新想象“手机”这一设备的形态。 在今年的2024世界移动通信大会上,德国电信与高通合作,推出了一款完全基于AI的手机,这款手机完全摒弃了当前智能手机基于APP的交互方式,而是完全通过AI聊天来满足用户的各种使用需求。 “多模态和跨模态大型语言模型将很快成为手机设备不可或缺的一部分,从而增强和简化客户的生活……我认为,从现在开始的5-10年内,不会再有人使用APP了。”德国电信CEO Tim Hoettges这样表示。 综上所述,手机厂商们希望达到的终极目标,是像智能机取代功能机,触屏取代键盘那样,彻底改变当前手机的交互方式甚至外观形态。而在那张未来的蓝图中,并没有APP们的位置。 再将时间调回现在,投身这波浪潮的,其中大多数仍处于表达自己即将投注AI手机的战略决心阶段,即使有冠以“AI手机”的产品推出,其应用场景也多是“更牛逼的图片处理”“更智能的信息检索”“更精准的文字整理”等熟悉的老名字,并不具有颠覆性的改变。 更不必说,现阶段的手机厂商们也并非全然看好此次的浪潮,仍有相当一部分对“AI手机”的概念定义和未来发展持怀疑态度。 这样来看,我们离真正的AI手机,或许还有一段不短的路要走。 被装进手机的大模型,迎来新风口 不过虽然AI手机的终局太远,另一条赛道又或将因此迎来转机。 现在,“把大模型装进手机”几乎已经成了AI手机的标配甚至硬性指标,但问题又随之诞生。Vivo副总裁、VivoAI全球研究院院长周围曾透露,目前和大模型进行一次对话的成本为0.012元到0.015元。如果某大模型有两亿用户,这些用户一天要用大模型进行10次对话,那么一年中,光是对话的成本就会达到上百亿元,更遑论运行、维护服务器等成本。 ——于是,端侧大模型脱颖而出。 所谓端侧大模型是与云测大模型相对,完全运行在本地,无需联网,在飞行模式下也能使用的模型。虽然模型尺寸也相对较小,但推理速度、首次响应时间(FRT)等指标乃至整体的性能在手机上表现更佳,其端侧运行的特性也使得用户数据的安全性有了保障。 事实上,现在已有多家大模型研发厂商注意到了这一机会,不仅是“AI手机元年”的趋势,电脑厂商的“AI PC”,汽车主机厂的“智能座舱”,都对端侧大模型或者云端一体大模型提出了需求。 继ChatGPT带火的大语言模型,Sora带火的多模态大模型之后,端侧大模型,似乎成为了大模型赛道的下一个风口。 而百模大战中盛产的两百多个大模型,在挥洒其旺盛的产能度过了万众瞩目的一年之后,似乎也在观众对大模型开始逐渐疲劳之前,再次找到了一个不甚宽广的落脚之处。
男子捡17岁女生苹果手机归还反被讹200元引热议:最终获道歉
快科技3月24日消息,今日一则#男子捡17岁女生手机归还反被讹200#的话题登上微博热搜,引发网友热议。 据报道,3月23日,山西长治。郭女士父亲捡到一台苹果手机,归还时机主反称手机后壳里的200元现金不见了。 郭女士称,丢手机的是一名17岁女生,该女生认定手机壳里200元现金是她父亲拿走了并报了警。 女孩的母亲也加入了纷争,坚定地认为是捡手机者动了手脚,带走了这笔钱。 此事不仅令郭女士一家感到寒心,也在网络上引起了广泛讨论。 郭女士透露,在私下沟通时,该女生曾一度承认手机壳内并没有现金,但在警察面前却改口称有钱。最终,经过民警的调解,女生道歉,但事件的余波仍在网络上持续发酵。 有网友认为,手机壳内是否有钱尚难确定,即便真的有,捡到手机者归还失物已属高尚行为,无需再提及现金之事。还有网友分享了自己丢失手机后得到他人帮助并主动给予感谢费的经历,强调做人应厚道,不应辜负善良。 “那这个手机应该不是她的,这手机壳里没有两百块。”有网友表示。 “假如,我说的是假如,手机壳里真有200块钱,人家把手机归还,200块钱我连提都不提!”“就算是作为感谢给200元也不多吧” “我手机掉了被别人捡到, 我自己骑车到别人小区拿,还给了200表示感谢,做人要厚道呀。”还有网友称。 如果是你,你会怎么做?
巨型“造假”神器,刷三观了
315晚会曝光的消费黑洞,是否让你既惊讶又惊叹! 早在2022年4月份不少社交平台上线了IP属地的功能,但想要随意更改IP地址其实非常简单,这也是网络水军依旧无处不在的理由。 你可以用一台电脑同时控制20部手机 根据315晚会透露,该生产商表示:"他们的产品可以将 20 块手机主板,安装在同一个主板机箱内,组装成一台主板机,一台机子就可以控制 20 部手机" 该改造主板机不断叠加起来,就可以组建成千上万台手机的网络矩阵,有这样的设备,可以操纵游戏、操纵发帖数量,操控网络投票,更重要是你可以随意更改账户的IP地址,逃过相关的网络监管。 老铁们脑补一下,到底是什么人会常使用这样主板机,成为网络世界里操控一切的王者。 根据相关报道,这些利用废旧手机主板生存“主板机”(造假神器)的厂商因涉嫌电信诈骗被查封。 对此媒体人胡锡进在个人微博表示:“在各种假冒伪劣里边,如今最招人恨的,用机器制造网络水军肯定是排在最头里的之一。请“搞死”这些水军的制造者们,彻底绝了他们干这个行当的生路。” 今年开着某车吃红花肉,再去某平台找对象,突然接到老铁的视频电话说要借钱,回家发现着火了结果灭火器却帮不上忙,借助网络维权,遭遇水军猛烈攻击(细品细品) One More News 【华为开发超过5000个鸿蒙原生应用】 在2024年华为云和华为终端云创新峰会上,华为终端云总裁朱勇刚表示,今年四季度将发布面向消费者的HarmonyOS NEXT鸿蒙星河版商用版本,并计划协助企业和机构在年底开发超过5000个鸿蒙原生应用,最终实现超50万个原生应用的开发。 截至2024年初,鸿蒙生态设备数量已达8亿,包括手机、PC、平板、智慧屏、车机等高频使用终端设备。已有数千个企业和机构启动了鸿蒙原生应用开发,其中包括支付宝、淘宝、美团、京东、钉钉、高德、小红书等超级App。 张平安介绍,鸿蒙具有一次开发多端部署的能力,使应用开发更加快捷。而昇腾AI云服务即开即用,提供全链路云化工具链,支持“百模千态”应用的快速落地。 此外,华为已经于1月15日开启了HarmonyOS NEXT开发者预览版Beta招募,当前支持华为Mate 60、Mate 60 Pro、Mate X5机型报名。HarmonyOS NEXT开发者预览版将不再兼容安卓开源应用,仅支持鸿蒙内核和系统的应用,因此被称为“纯血鸿蒙”。 【毒少说】:继续领先 【荣耀 Magic6 RSR 保时捷曝光】 荣耀将在3月18日的春季旗舰新品发布会发布 Magic6 至臻版与 Magic6 RSR 保时捷设计手机。荣耀此前已经曝光了 Magic6 至臻版的设计,与本次曝光的 Magic6 RSR 保时捷设计真机拥有近似的相机布局,但采用了不同的设计风格。 【毒少说】:和华为的保时捷也太像了吧 【315消费者投诉平台上市】 据央视新闻报道,该平台上线标志着全国消协组织有了统一的受理投诉渠道,为消费者反映日常生活中遇到的消费问题提供方便。消费者可通过微信搜索“消协 315”小程序、登录网址进入消协 315 平台进行投诉咨询。目前来看,腾讯、京东、淘宝等大厂的响应速度较快,已经着手处理相关投诉。 小程序提供“我要投诉”、“我要咨询”、“消费服务”三大板块,阳光公开部分已经累计公开 408 件案件 【毒少说】:你投诉了吗?
iPhone 16 Pro Max新设计曝光,变窄了,太好了
现款 iPhone 15 系列有两种尺寸,即 6.1 英寸和 6.7 英寸。但是低注塑压力模塑(LIPO)技术只有 Pro 机型独占,这项技术让 15 Pro 的屏幕黑边缩小到了 1.5mm(上一代 14 系列约为 2.2mm)。 而今年的 iPhone 16 系列 4 款新机将分为 4 种尺寸,基础款和 Plus 保持 6.1 英寸和 6.7 英寸不变,Pro 和 Pro Max 将会采用更大的 6.27 英寸和 6.86 英寸显示屏(四舍五入为 6.3 和 6.9)。 虽然尺寸变化仍旧仅限于 Pro 机型,但好消息是,这次的 4 款新机都将进一步缩窄屏幕边框。据韩媒 SisaJournal 报道称,iPhone 16 将全系采用「Border Reduction Structure (BRS)」技术。 这项名为 Border Reduction Structure (BRS) 的技术,是通过将内部铜线卷成更紧凑的结构,来缩小手机底部显示屏的边框宽度。据说苹果之前就曾测试过该技术,但因为散热问题未能成功。 由此来看,iPhone 16 系列的散热表现应该也取得了新进展。早前有爆料显示,iPhone 16 系列有望采用石墨烯散热系统,并且 Pro 机型的电池,还将采用散热性能更好的金属制外壳。 另外,屏幕边框缩窄+尺寸变大,应该也意味着机身三围会有所调整。目前,iPhone 16 Pro 和 16 Pro Max 的三围信息已经曝光,分别是 149.6*71.45*8.25mm 和 163*77.58*8.25mm。 相较前代而言,新机的高度和宽度都增加了一点。而 iPhone 16 和 16 Plus 预计会像 15 Pro 一样,屏幕显示面积不变,通过缩窄屏幕边框的方式,让机身尺寸缩小一圈。 除了 iPhone 16 系列,新款 iPad Pro 也将迎来类似的升级。根据最新爆料,将于下个月发布的 2024 款 iPad Pro 11 英寸版本屏幕边框缩窄至 7.12mm,12.9 英寸版本缩窄至 7.08mm。 和现款 iPad Pro 相比,大概收窄了 10~15%,视觉上可能感知不强。不过,它也没办法做成极窄边框,毕竟它的边框下方集成了 Face ID 组件。 总之,iPhone 16 全系的边框都将进一步收窄,视觉体验方面的提升还是蛮让人期待的。基于这个变化,基础款的机身尺寸有望缩小一圈,而 Pro 机型因为屏幕尺寸变大,机身高度和宽度也将有所增加。 还有,最重要的是终于堆散热了!!!
外媒:中国电动汽车高昂的保险费吓跑了英国潜在买家
在美国,中国汽车可能是一个热门话题,但它们已经在欧洲扎根。比亚迪、长城汽车、名爵等汽车制造商凭借价格、价值和出人意料的优良品质吸引了众多买家,但事情并非一直这么一帆风顺。来自多个消息来源的报道称,中国新型电动汽车的高昂保险费用吓跑了一些对价格敏感的买家。 据英国金融媒体CityAm报道,英国保险公司在处理中国新车时正面临困境。该媒体指出,“替换零件匮乏,保险公司与中国制造商之间合作不力,以及缺乏对新车的技术知识”都是目前面临的问题。这些因素反过来又推高了英国司机的保险费率。 值得一提的是,本月早些时候,汽车快报也对比亚迪进行了类似的投诉。比亚迪海豹可能是世界年度汽车大奖的候选车型,但英国的车身修理厂却很难在该国维修任何一辆比亚迪汽车。汽车快报也引用了类似的理由: “(比亚迪)对欧洲维修市场的运作方式缺乏了解,未能提供正确的零部件和信息,使事故发生后能够进行经济有效的维修”。 当这些汽车受损时,维修时间可能会很长,因为车身修理厂需要等待更换零件,而维修理论上并不复杂。这对中国电动车型的保险费率来说可不是什么好消息。 电动汽车的保险和维修费用昂贵是一个全球性问题。我们已经从特斯拉和其他品牌的电动汽车上了解到这一点。电池是一种昂贵的设备,一旦在事故中损坏,往往无法修复,导致汽车更容易被全毁。此外,由于电动汽车的高压特性,许多技术人员必须经过适当的培训才能执行某些程序,这就意味着他们的成本更高。 看来,中国的电动汽车公司也陷入了困扰其他品牌的同样问题,尽管这是文化不匹配造成的。特斯拉近来的情况才有所好转,但仍不尽如人意。高昂的维修成本是导致赫兹(Hertz)将大部分特斯拉从其电动车车队中撤出的原因之一。 不过,两位消息人士都坚称汽车本身没有问题。比亚迪、名爵和长城汽车表示,他们正在采取措施更好地了解欧洲市场的运作方式,并纠正这些问题。运气好的话,保险价格会下降到合理水平。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。