EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
苹果、台积电等芯片巨头,联手制造“纳米谎言”?
【文/观察者网 吕栋】 “如果4纳米不是真正的4纳米,那么节点名称还有意义吗?”、“如果可以重新命名一个较旧的工艺,为什么要为4纳米技术承担额外的成本呢?” 苹果去年在推出iPhone 14系列时,相比以往做出的最大调整,就是在iPhone 14 Pro系列上搭载了最新的4纳米A16处理器,而在普通版中使用的是上一代5纳米的A15处理器。 彼时市场普遍认为,苹果这么做,是想拉开Pro系列和普通版的差距。这样以来,一方面可以维持Pro系列的高售价,另一方面还可以用新款处理器刺激Pro系列的销量。 然而,国外科技媒体“Wccftech”8月21日的报道称,苹果营销团队有误导消费者的嫌疑,因为苹果对外宣称的4纳米A16处理器,在内部被标记为是5纳米处理器。这一报道援引的消息源头是推特用户@URedditor,他被“Wccftech”称为“知名的爆料者”。 实际上,在苹果A16处理器诞生之前,已经有专业机构对台积电和三星的先进制程提出质疑。 比如,市场调研机构TechInsights去年曾以《关于纳米的谎言》为题发布研究报告称,两家领先的代工厂都放任客户声称他们采用了4纳米工艺,而实际使用的却仍是5纳米技术。这种情况让双方均形象受损,尤其是代工厂。而这背后,也意味着晶体管发展的缓慢。 图源:TechInsights A16与A15基本相同? 对苹果提出质疑的,不止@URedditor。 去年10月,iPhone 14系列刚刚发布一个月,长期关注苹果的“Macworld”分析师杰森·克罗斯(Jason Cross)曾深入研究了A16处理器,认为它与A15基本相同。 “据苹果公司称,A16处理器采用台积电最新的4纳米工艺制造。然而值得注意的是,台积电的‘N4’并不是真正意义上的4纳米工艺。虽然A16比早期的A系列处理器更先进,但它使用的并不是真正的下一代制造工艺。”克罗斯称。 图源:9to5mac 在这条评论下面,还有跟帖指出: “A16相比A15只是渐进式改进,这解释了为何普通版iPhone 14可以获得动作模式、光子引擎和4K电影模式等功能。它比以往更清楚地表明,苹果总是在旧设备上安装软件锁定功能,特别是iPhone 13系列可以轻松地获得这些功能。” 根据克罗斯的研究,A16的基本结构与A15相同:拥有两个高性能核心、四个效率核心、五个GPU核心和16个神经引擎核心。晶体管数量有所增加,但仅从150亿个增加到160亿个,增幅比往常小得多。 “Wccftech”援引的消息称,苹果即将推出的A17处理器会采用台积电3纳米工艺,单核和多核性能将提升31%。而苹果似乎会采取去年的策略,在iPhone 15 Pro系列上搭载A17,而普通版本仍然使用A16。 “当然,我们必须深入了解A17处理器是否只是苹果全面营销的另一款产品,或者是在全新架构上设计和量产的芯片。我们对A16不是4纳米感到失望,但这并不奇怪,因为企业总是遵循这样的做法。”报道称。 图源:Wccftech “纳米的谎言” 实际上,在苹果A16诞生前,市场调研机构TechInsights就曾发布报告质疑台积电和三星的4纳米。 根据该报告,在与台积电的长期竞争中,三星在交付5纳米芯片一年后,宣布将于2021年底交付生产4纳米芯片。而当时台积电计划在5纳米和4纳米节点之间用两年时间,在2022年第二季度交付4纳米。 但后来,为避免给三星“耀武扬威”的机会,台积电决定将其N4节点的进度“拉快”两个季度,以恰巧赶上竞争对手。 图源:TechInsights 2021年底,首个采用台积电4纳米工艺的联发科天玑9000发布。 “台积电可以突然从其通常严格而耗时的生产认证周期中,足足挤出六个月的时间,对于这一点,我们本就应该感到怀疑。”TechInsights称。 当分析天玑9000后,TechInsights发现关键工艺尺寸与台积电早期5纳米产品完全相同,“情况不妙了,该代工厂声称的4纳米产品是虚假的,正如联发科技声称拥有4纳米处理器一样”。 与此同时,三星智能手机部门正准备推出Galaxy S22,同时搭载三星自研的4纳米处理器Exynos 2200和高通的4纳米处理器骁龙8 Gen 1。为了生产这两种产品,三星还创造了一种称为4LPX的新工艺。 但TechInsights在分析完骁龙8 Gen 1后,发现4LPX在物理上与5LPE没有什么不同。 更尴尬的是,三星后来真正使用4纳米技术的产品比“假冒”的4纳米产品表现更差。由于三星在将其4LPE工艺投入生产方面过于冒进,导致Exynos 2200高缺陷率和低能效,这些困境促使高通转向台积电。 根据TechInsights报告,2022年5月发布的高通骁龙8+ Gen 1使用的是台积电更新版的N4P,“我们认为这才是真正的4纳米技术”。 当时,这家调研机构还预计,苹果A16也会使用台积电“真正的4纳米技术”——N4P。 但根据前述爆料,2022年9月亮相的苹果A16仍有可能使用的是N4,而不是更新版的N4P。 苹果A16处理器 “毫无意义的节点名” “为什么代工厂突然虚报其晶体管进展情况?(因为)这比承认进展疲软要容易得多。” TechInsights的报告称,假冒的4纳米工艺和“真正”4纳米工艺之间的区别,仅仅在于5%的光学收缩(10%的面积缩减)。但即使是这小小的进步也打破了三星的产量模型,让台积电花了两年时间才完成。 考虑到节点之间的间隔时间较长,代工厂可能会在等待下一个节点的同时提高速度、功率或产量(最终达到相同的效果)。例如,虽然4LPX与5LPE具有相同的尺寸,但前者可能会提供一些其他优势来证明其有资格获得新名称。 但TechInsights认为,在晶体管密度没有任何提高的情况下,工艺名称应采用5LPX,以表明该工艺仍然属于5纳米的范畴。因为大多数人用5纳米或4纳米的简写来代替完整的工艺名称,所以数字还是很重要的。 “尽管伪造新节点可以让代工厂摆脱短期困境,但这对他们来说是有害的。” 报告质疑称,吹捧一个“假冒”的4纳米里程碑并放任客户大肆宣传,会稀释代工厂品牌的价值。如果4纳米不是真正的4纳米,那么节点名称还有意义吗?如果可以重新命名一个较旧的工艺,为什么要为4纳米技术承担额外的成本呢?” 一段时间以来,虽然芯片代工厂没有在节点名称和晶体管密度之间保持严格的相关性,但至少当他们在名称中采用一个更小的纳米数字时,就表明其已取得了一些密度方面的进步。 TechInsights直言,公然将一个5纳米工艺重新标记为4纳米,则抹杀了节点编号的最后一丝意义。 “所以,当某个代工厂宣称其已达到下一个新水平的时候,直到拆机确认前,请切勿轻信。同样的道理也适用于那些吹嘘自己实现新制造技术的芯片供应商。随着摩尔定律磕磕绊绊走到尽头,最后留给我们的唯有谎言、该死的谎言以及那些毫无意义的节点名。”报告写道。
清华系17人,撑起中国大模型创业半壁江山
作者 | 程茜 编辑 | 心缘 智东西8月23日报道,过去三个月,生成式AI浪潮变数丛生,国内AI大模型产业也连爆大事: 6月29日美团宣布完成对AI大模型独角兽企业光年之外的收购,搜狗创始人王小川创立的AI大模型创企百川智能连发3款开源大模型;此前被光年之外收购的AI大模型创企OneFlow(一流科技)的创始人袁进辉也于本周证实,一流科技团队将瞄准大模型推理成本问题重新创业。 有趣的是,这些处于国内AI大模型竞赛焦点的主人公们——美团创始人王兴、光年之外创始人王慧文、搜狗&百川智能创始人王小川、一流科技创始人袁进辉——都是清华学子。 在如火如荼开展的AI大模型竞赛中,清华学子可谓“抢尽”了风头,除了王慧文、王小川等互联网“老炮”高调入场外,还有多位清华学院派教授、清华毕业生躬身入局。据智东西不完全统计,近期活跃的AI大模型创企中,拥有清华背景的创始人至少有17位,涉及11家企业。清华系创业团队俨然正撑起国内AI大模型创业浪潮的半壁江山。 ▲近期活跃在国内大模型浪潮中的清华系创企(整理自公开信息) 一、大佬创业:90年代清华师兄弟、互联网“老炮”高调入局 很多年后,人们回忆起国内这场盛况空前的AI大模型创业潮时刻:有两个人的名字一定会率先浮现在眼前,那就是王慧文和王小川。就在今年2月和4月,这两位互联网老炮接连官宣创业,剑指大模型。 除了这些共同点外,王小川和王慧文这对师兄弟曾于1996、1997年先后毕业于清华大学。 1、王慧文:2个月成独角兽,没产品成最大隐患 最先官宣创业的是王慧文。2月中旬,王慧文6天连发5条朋友圈,从表明态度到“500万美元带资进组求组队”、发“AI英雄榜”,最终AI大模型创企光年之外成型。 王慧文的创业之路总能看到美团创始人王兴的身影。1997年,王慧文考进清华大学电子工程系,因缘际会与王兴成为上下铺兄弟。戏谑的是,他们二人形影不离的原因是,成绩优异的王慧文进入清华大学后发现在众多佼佼者中自己只能算个“学渣”,因而与成绩相近的王兴惺惺相惜。 ▲王慧文(右一)和王兴(中间) 毕业后两人几经波折,最终在美团“胜利会师”。读研期间,王慧文和王兴双双退学瞄准了彼时在美国兴起的社交网络,打造出风靡大学生群体的校内网后陷入商业化困境,随后选择出售校内网财富自由,两人分开创业。2010年,王慧文加入美团,再次与王兴联手。2020年,42岁、身价120亿人民币的王慧文选择从美团退休。 这次,王慧文又出山,入局AI大模型。官宣创业后,顶尖人才、高额融资纷至沓来。前有北京智源人工智能研究院副院长刘江、被称为“搜狗输入法之父”的马占凯等加入,后有王兴、快手创始人宿华掏钱投资。成立两个月后,光年之后迅速跃升独角兽,估值达10亿美元。 这背后,不是技术出身的王慧文开始紧锣密鼓地召集人才,4月,光年之外完成收购同为清华系创企一流科技。这家创企的创始人是师从中国人工智能奠基者张钹院士的袁进辉。 在此之后,手持丰厚资本、技术的光年之外业务布局即将走上正轨,成为AI大模型创业焦点的王慧文,6月底之际却被曝出已经因病离岗,随后,王兴入局,光年之外被美团全权收购。 目前来看,王慧文的AI大模型创业之路已经画上了终局,此后他是否会重返“战场”仍是个未知数,但成立半年之久的光年之后在产品端尚无进展官宣的当下,就几经波折,这或许已经成为这家头顶数道光环的大模型创企的最大风险。 2、王小川:百余天官宣3个大模型,投资阵容豪华 反观与王慧文受关注度几乎持平的王小川,4个月时间就拿出三款大模型,并开启了大模型商业化的探索。 鼎鼎有名的清华大学计算机系的96级毕业生,是国内互联网产业第一波弄潮儿,他们参与并见证了中国互联网发展的每一个时刻,堪称“互联网梦之队”。王小川就是其中之一。 ▲百川智能创始人兼CEO王小川 1996年,成绩优异、对计算机感兴趣的王小川被特招入清华大学计算机系,这一待就是七年。从计算机专业到生物方向,从国内青年社区平台ChinaRen到搜狐,王小川的技术才华施展的范围逐渐扩大,但他的物理空间却几乎没有离开过五道口,王小川也被称为“清华东门守门员”。 王小川也把百川智能安家到了五道口。今年4月,王小川联手前搜狗COO茹立云成立百川智能,官宣入场大模型创业,更有多位搜狗团队老员工主动申请带资加入,据王小川在第三个大模型发布时透露,目前百川智能中前搜狗员工的比例占到30-40%。 成立一个月后,百川智能就拿到了来自腾讯、小米、金山、清华大学资产管理有限公司、好未来等十余家机构的联合投资,这样的豪华投资阵容鲜有先例。 四个月时间,百川智能已经发布参数量130亿的通用大语言模型Baichuan-13B-Base、对话模型Baichuan-13B-Chat及其INT4/INT8两个量化版本、530亿参数规模的Baichuan-53B,覆盖开源到闭源。下一步,王小川要在大模型开源的基础上,以搜狗曾经的超级应用经验为基础,找到大模型的超级应用以及比肩GPT能力的大模型。 ▲百川大模型演示案例 王慧文、王小川都是曾经缔造中国互联网的清华学子,隐退多年后,又在大模型浪潮下躬身入局。除了这两位互联网老炮外,还有众多清华系教授、学生在这场硝烟弥漫的大模型赛道中格外扎眼。 二、学院派:五位教授领衔,孵化多个大模型创企 清华大学当之无愧是国内AI大模型赛道的人才宝地,现有的学术力量风头正盛,五位教授领衔的AI大模型创业浪潮正在徐徐拉开帷幕。 在人工智能领域,不得不提的就是智源研究院这一响当当的名头。2018年,智源研究院正式成立,将北京大学、清华大学、中国科学院、百度、字节跳动等人工智能产业的头部院校、企业的顶尖人才聚集到一起。 当OpenAI的GPT-3发布后,智源研究院率先发起大模型项目,唐杰、刘知远、黄民烈、杨植麟……等清华大学知名AI学者纷纷投身其中,他们共同构成了后来悟道大模型的研发团队。 这些AI大牛也成为了这波大模型创业浪潮中的核心力量。 1、唐杰:核心成员曾参与知名大模型研发,融资拿到手软 智谱AI、智源研究院、月之暗面、循环智能,这些身处大模型热潮中心的公司,都与清华大学计算机系教授唐杰关系匪浅。 唐杰教授光环加身,他既是清华大学计算机系知识工程实验室(KEG)带头人,同时是智源研究院学术副院长、悟道项目负责人。 ▲唐杰(图源:清华大学) 事实上,最开始唐杰并不相信机器智能会超越人,他的主要研究方向是数据挖掘和知识工程,而大规模预训练模型的出现,让他看到了机器智能超越人的可能性。 2020年OpenAI甩出GPT-3,搅动了整个人工智能产业。随后,2020年10月,智源研究院率先确定了大模型研究战略方向,时任智源副院长的唐杰带领团队在2021年发布了悟道1.0和2.0模型。同时,悟道2.0凭借万亿级参数规模创下中国首个、全球最大的世界纪录。 与此同时,KEG实验室孵化的智谱AI,其核心团队也多为悟道大模型的研发人员,今年7月,刚刚收购光年之外的美团独家投资了智谱AI,融资金额达数亿人民币。目前,智谱AI中英双语开源模型ChatGLM、代码生成模型CodeGeeX等大模型及应用产品矩阵。 除唐杰本人外,他鼎鼎大名的得意门生杨植麟也入局大模型,从清华毕业的杨植麟在美国卡内基梅隆大学师从苹果和谷歌的AI大牛。6月12日,杨植麟剑指大模型的新创企月之暗面亮相,刚成立就迅速拿到红杉、真格机构投资,市场估值达3亿美元。不过,杨植麟头顶的光环远不止于此,早在2016年,杨植麟就创立了专注于自然语言理解的循环智能,还曾参与华为盘古大模型研发。 月之暗面其他三位联合创始人中张宇韬和周昕宇也毕业于清华,张宇韬与杨植麟同为唐杰的学生。 2、孙茂松:从信息处理到法律大模型,创企数量、涉足种类都处前列 清华大学人工智能研究院教授孙茂松是自然语言处理与社会人文计算实验室(THUNLP)的负责人,刘知远师承孙茂松。相比于唐杰教授,孙茂松和刘知远团队的创业公司更多,并且涉足的应用领域也更丰富。 ▲孙茂松(左)刘知远(右) 深言科技基于预训练模型打造中文信息处理引擎、面壁智能聚焦于基础大模型的核心技术、幂律智能则要将自然语言处理应用于法律。此前,王慧文还曾传出要收购深言科技和面壁智能,但这些收购传闻最后都不了了之。 2021年,一款名叫WantWords的反向词典突然在社交平台上爆火,两三周时间吸引了约30万用户。这一应用的研发人员就是后来深言科技的创始团队。WantWords基于深度学习能帮助人们根据语义描述查找词语,这一产品也帮助岂凡超打响名号。 ▲WantWords反向词典主页 早有创业想法的岂凡超,2022年毕业成立了深言科技,孙茂松担任首席科学家,并且深言科技的核心团队均为清华硕博士背景。成立至今,深言科技已完成三轮融资,最新一轮融资中腾讯、好未来在列。尽管具体的融资金额尚未披露,但据传其估值在第二轮融资完成后已达1亿美元。 另一家被传收购的面壁智能,创始人曾国洋是刘知远的学生,同时刘知远担任联合创始人,面壁智能已经完成近千万元的种子轮融资,此前推出了CPM-Live百亿中文大模型直播训练项目。 今年4月,知乎宣布与面壁智能共同开发了“知海图AI”,并为其注资数千万人民币,这也一举打破了面壁智能曾被收购的传言。技术、人才、资本、应用、数据等多重因素的加持,使得面壁智能的大模型已经在知乎的应用实现大规模应用。 除了这两家创企,还有清华大学计算机系人工智能所博士涂存超成立的幂律智能,这家公司关注的是自然语言处理技术与法律领域的结合。今年6月,幂律智能联合智谱AI发布了基于中文千亿大模型的法律垂直大模型PowerLawGLM。 3、黄民烈:瞄准心理咨询具体场景,要做中国版Character AI 同样参与悟道大模型研发的清华大学计算机科学与技术系长聘教授黄民烈,在创业初期就瞄准了具体的应用落地场景。 2021年,黄民烈教授创立了聆心智能,其创始团队多来自于清华大学、北京大学、北京师范大学等高校科研院所,截至目前,聆心智能已经完成三轮融资,投资机构包括清华系的智谱华章等,其中披露具体融资金融的为去年12月完成的数千万元天使+轮融资。 ▲清华大学计算机科学与技术系长聘教授黄民烈(图源:清华大学人工智能研究院) 创立初期,黄民烈教授就专注于让人工智能能为心理亚健康患者提供病情诊断、个性化干预的方案。这一创业目标的想法来源于黄民烈教授与其身患抑郁症学生的故事。 今年7月,聆心智能发布了超拟人大模型CharacterGLM,提供千人千面的AI形象来陪伴用户、与用户聊天等,基于这一大模型,聆心智能还正在内测用户兴趣互动社区新产品AiU。 与这波大模型浪潮中瞄准OpenAI的创企不同,聆心智能此前曾透露,他们要做的是“中国的Character AI”,Character AI的最大特点就是让用户创建个性化的AI角色来进行交互。 4、朱军:主攻多模态大模型,拿到蚂蚁、百度风投投资 清华大学计算机系教授、清华大学人工智能研究院基础理论研究中心主任朱军也是最新入局的一位清华系教授。生数科技成立于今年3月,其核心团队大多来自清华大学人工智能研究院,主要打造多模态通用大模型。 ▲清华大学计算机系教授、清华大学人工智能研究院基础理论研究中心主任朱军(图源:北京智源大会官网) 朱军教授第一次创业可以追溯至2018年,彼时专注于提升人工智能安全性的瑞莱智慧RealAI成立,专注于提升人工智能的安全性。 生数科技正是由瑞莱智慧孵化而来,成立至今拿到两轮投资,今年6月拿到蚂蚁集团、BV百度风投等的近亿元人民币融资,今年8月拿到锦秋基金独家投资的数千万人民币。 生数科技联合创始人兼CEO唐家渝还是孙茂松教授的学生,他此前在接受采访时谈道,生数科技当前所训练的大模型图像生成效果已经超过Stable Diffusion,预计将于年内赶超Midjourmy。 5、周伯文:面向消费者业务,自研百亿级垂直大模型 最后一位与上述几位教授的情况略有不同,清华大学惠妍讲席教授、清华大学电子工程系长聘教授、清华大学电子系协同交互智能研究中心主任周伯文,是AI大牛重返学界的典型代表。 从IBM到京东,周伯文从事人工智能基础理论和核心技术研究已达20年。自从2003加入IBM,他连任多个大型项目重要技术、管理职位,还作为IBM Watson集团首席科学家领队开发了IBM Watson集团人工智能平台。2017年加入京东后,又成为推动京东人工智能、京东云发展的重要人物。 ▲清华大学惠妍讲席教授、清华大学电子工程系长聘教授、清华大学电子系协同交互智能研究中心主任周伯文(图源:启明创投) 2021年,他从京东离职后,2022年中旬,清华大学官宣聘任周伯文。 除了重返学界外,周伯文也瞄准了AI创业这条路。2021年,衔远科技成立,这家公司的核心产品瞄准的是消费行业,提供基于商品供应链大模型的企业级多轮对话平台ProductGPT。并且,该公司的信息显示,这一AI大模型是其自研,参数规模为数百亿级,能让大模型在具备通用能力的基础上更擅长理解人与商品。 清华大学的学术力量已经站上大模型创业的擂台,既有清华教授下场创业,又有师生搭档入局。事实上,在国内的创业大潮中,清华帮已经不止一次撑起产业的半壁江山,而这都离不开上个世纪清华大学在人工智能领域的前瞻布局。 三、从0开始迎头赶上,清华大学撑起大模型创业半壁江山 清华大学,这一所汇聚了国内众多顶尖人才的高校,也是中国人工智能技术萌芽诞生的地方。 相比当下的火热程度,40多年前“人工智能”这个词汇在国内的专业人士眼里也很陌生。1978年,人工智能第一次出现在了清华大学内部,自动控制系更名为计算机技术与应用系,内部人工智能与智能控制教研组成立,拉开了人工智能领域的教学序幕。 清华大学也创下了全国人工智能领域的多个第一,1978年招收第一批硕士生;1983年成立首个智能机器人实验室;1983年在国际人工智能大会(IJCAI)上发表我国第一篇学术论文;1984年获得人工智能领域的第一个国际重要奖项;1987年第一位人工智能领域的博士生毕业;1990年成立全国第一个有关人工智能的国家重点实验室“智能技术与系统”;2005年“清华大学计算机科学实验室”成立,也就是当今人工智能领域无人不知的“姚班”;2018年成立跨系交叉研究机构“清华大学人工智能研究院”…… 我国逐渐在人工智能领域里赶超世界领先水平,并占据一席之地。 然而,寥寥数语始终无法完全概括清华大学从一片空白到如今硕果累累的不易。上个世纪七十年代,中国人工智能领域生物控制和模式识别等方向的研究已开始起步,但受政治环境等影响,人工智能的研究一定程度上来说处于停滞状态。 国内求学无门的研究人员为了更全面系统地认识人工智能领域,改革开放后赴美求学,40多岁的张钹就是这批留学生中的一位,他作为访问学者前往美国伊利诺伊大学香槟分校进修学习,国内NLP研究奠基人黄昌宁在耶鲁大学进行了为期一年的访问。而他们都成为了我国人工智能产业的重要奠基人和推动者。 ▲张钹院士在计算机系建立六十周年致辞(图源:清华大学) 总的来看,我国人工智能研究起步比国外晚了20多年,经历了从无到有、从弱到强的发展历程。如今,国内人工智能产业的发展已经与其他国家几乎处于同一起跑线,清华系的创业者作为这一波大模型浪潮中的中坚力量,凭借前人在人工智能领域的奠基、自身过硬的技术积累以及对前沿技术的探索、求真精神,正在从象牙塔走向练兵场并迅速成长。 结语:清华创业帮蓄势待发 清华大学可以称得上国内人工智能研究的起源地之一,在这一波人工智能新浪潮下,清华系无疑被寄予厚望。 除创业势头迅猛外,资本市场也选择重金押注清华创业团队,4月,深言科技新一轮融资完成后最新估值达1亿美元,6月生数科技完成近亿元天使轮融资,腾讯被曝今年6月向光年之外投资5000万美元…… 如今,大模型创业浪潮已经渐趋冷静,众多清华系创企已经竞相官宣大模型成果,并投身到大模型应用落地中。中国大模型创业者们的新一轮竞赛已经开始,并且愈发激烈。 如今,清华大学的优势逐渐凸显,不仅成为大模型领域的人才军备库,同时占据了国内大模型创业浪潮的半壁江山。 参考资料:计算机系建立六十周年致辞《与计算机系共同成长》
从虚拟偶像到虚拟主播,一场TO C到 TO B生意的大迁徙
编者按: 2023年,多个行业暗流涌动。 今年,互联网企业开始更加重视布局供应链和提升效率;消费品牌更加注重加盟制,向更广阔的下沉市场进军;出行行业在“内卷”浪潮的席卷下,企业们更加追求综合能力的比拼。 连线Insight&连线出行联合推出“中场战事”特别策划,通过产出系列深度报道,洞察各个行业、企业今年的变化和发展趋势。 文/王慧莹 编辑/子夜 “你可能不了解虚拟偶像,但你一定知道洛天依。” 的确,大多数人第一次了解或接触到虚拟人,都是从十年前的洛天依开始的。彼时的洛天依带给大众的是新奇感,但更大的意义是打开了中国虚拟人市场的大门。 如果说洛天依作为虚拟偶像收获了一批C端粉丝,那如今随着技术的进步和产业发展升级,虚拟主播、虚拟导购、虚拟分析师……在AI技术的加持下,虚拟数字人正深入到各行各业。 尤其是今年开始,ChatGPT浪潮席卷整个AI圈子,不仅重新点燃人们对AI的热情,也开启了玩家们对于商业化的新思路。 行业的共识是,依靠单一的IP效应赚钱,已经不是虚拟人公司理想的商业模式了,消费级产品成为业内公司吸引B端客户的重头戏,一场TO C到 TO B的生意大迁徙正在发生。 艾媒咨询报告显示,中国虚拟人带动产业市场规模和核心市场规模,预计在2025年分别达到6402.7亿元和480.6亿元,呈现强劲的增长态势。 增长态势明朗,这吸引了大批玩家的加入,既有百度、腾讯等科技巨头跑马圈地,也有魔珐科技、硅基智能等创业公司群雄逐鹿。 某种意义上,虚拟人是当下科技公司“秀肌肉”的集中体现,这背后是对各路玩家人工智能技术、动作捕捉技术、内容场景构建等综合实力的考验。 更多玩家的涌入,虚拟人行业或将不可避免地出现百家争鸣的状况,行业下半场的竞争势必更加激烈。 虚拟人行业发展仍处于早期,除了在各行各业的成果需要验证外,更重要的是商业化落地、市场监管等问题。一场场淘汰赛过后,笑到最后的才是赢家。 虚拟人的生意,从TO C做到了TO B “一口道尽千古事,双手挥舞百万兵。” 7月28日,在新一期的视频中,“国风美女”天妤作为女主角,讲述了一个关于皮影的故事。 一颦一笑之间,剧里的女主角天妤其实是一个虚拟人。她是中国首个出海的国风超写实虚拟数字人,由天娱数科打造,今年年初成为壹心娱乐旗下“艺人”。截止目前,天妤在抖音拥有350万粉丝。 今年以来,ChatGPT的东风掀起了AI虚拟人的新玩法。 虚拟人天妤打开新思路之余,金融圈也因一位数字券商分析师而成为外界关注的焦点。 5月12日,招商证券传媒首席分析师、TMT大组联席组长顾佳的AI数字分身正式曝光。据悉,顾佳的亿万分身可以同时出现在路演现场、在新闻发布会、在研报解读、在分析师电话会等多个地方。 事实上,市场对AI虚拟人并不陌生。 十年前,虚拟偶像洛天依横空出世,引起了市场对虚拟偶像的关注。彼时,伴随新技术的出现,以初音未来为首的虚拟偶像抢占市场,以VOCALOID3语音合成引擎为基础制作的中国本土虚拟歌姬洛天依在2012年应运而生。 虚拟偶像洛天依,图源洛天依官方微博 刚出生时,国内虚拟偶像市场正处于萌芽期,洛天依称得上是虚拟偶像的鼻祖。 不久前,美依礼芽也于B站开启了全网直播首秀,洛天依作为惊喜嘉宾空降直播间。有人感慨,走红11年,虚拟偶像的顶流依然还是洛天依。 十年后,2021年虚拟偶像柳夜熙引起现象级刷屏,热搜话题“挑战柳夜熙仿妆”播放次数超过4亿次;几乎同时,魔珐科技推出的国风虚拟偶像翎__Ling,出道仅三天全网覆盖影响力就超过6000万。2022年,翎__Ling还受邀参与了央视网络春晚的录制。 伴随技术的提高和市场的扩大,似乎每隔一段时间就会有新的虚拟人出现。一个趋势是,当AI技术越来越成熟,ChatGPT掀起新一轮产业革命时,市场上玩家并不满足于C端的版图,而是盯上了B端爆发的需求。 近期,魔珐科技推出了虚拟人镜JING,她具备多模态互动能力,同时拥有魔珐科技品牌市场官和产品推荐官的专业能力。此外,魔珐科技还推出了更切合企业用户需求的产品。 其中,“魔珐有言”虚拟人视频AIGC平台用于规模化地生产视频内容,“魔珐有光”虚拟人直播AIGC平台支持AI实时驱动的3D超写实虚拟人直播,服务的对象是品牌、达人、MCN等;“魔珐有灵”虚拟人服务AIGC平台则为企业提供AI虚拟人服务,例如生产虚拟导购、虚拟销售、虚拟HR。 魔珐有灵,图源魔珐科技微信公众号 当虚拟人可以依照人的指令生成复杂的表情、眼神、手势、语音时,虚拟主播应运而生。随着直播带货需求的不断扩大,一些店铺及品牌因运营成本高、相关人才紧缺等难题,开播率仍比较低,虚拟主播成为一种新的解决方案。 以头部直播电商公司谦寻为例,联合硅基智能共同创立的谦语智能发布了AI数字人直播业务。前者负责运营、后者负责技术,共同推进数字人在直播电商的落地。 谦寻向连线Insight表示,其AI数字人在专业性上已经不亚于专业主播, AI数字人升级品牌店播的时代已经来临。更重要的是,虚拟主播有实实在在地提高商家店播时带货的生产力。比如,虚拟主播在带货时长上,可以做到24小时,覆盖长尾时间。 无论是虚拟主播,还是虚拟导购,本质上,行业从TO C到 TO B的转变,也是商业模式决定的。 此前打造虚拟偶像IP是做内容,这种商业化模式落地场景单一、制作周期长。传统的虚拟偶像在任何场景“演出”一场,都需要很长的制作周期、巨大的投入。 而面向B端的企业服务,落地场景多、生产可持续,只要生产出令客户满意的消费级产品,就有市场买单。中金研报也指出,若虚拟角色在AI等技术助力下实现与用户实时智能互动,用户将获得更具真实感的体验。在AIGC风靡全球之后,虚拟人被认为是较为实际的落地场景之一。 显然,从TO C做到TO B生意思维的转变,不仅是因为玩家们的观念发生改变,更重要的是市场需求推动的。 6000多家企业竞逐虚拟人赛道, 门槛和壁垒究竟是什么? 虚拟人有多火?一些数据可以证明。 《中国AI数字人市场现状与机会分析》报告显示,我国AI数字人市场规模呈现高速增长趋势,预计到2026年将达到102.4亿元。 不可否认,AI技术的进步提升了数字人的交互能力。在政策推动和成本的改进下,市场对于虚拟人的接受度在提升。随之而来的,是越来越多的玩家参与到这场AI竞赛中。 前瞻产业研究院数据显示,截至2023年6月16日,中国虚拟人相关企业总量已经超过6000家。 需求的爆发吸引了一众前来抢蛋糕的科技巨头和创业公司。 今年3月,腾讯正式发布全新的AI智能创作助手“腾讯智影”,让用户通过上传少量图片、视频素材完成“形象克隆”,并通过接入数字人直播,让AI数字人直接替代真人,实现7×24小时不间断开播。 去年,百度推出了数字人直播平台“曦灵”,集数字人生产、内容创作、业务配置服务为一体,为各行业提供虚拟主持人、虚拟员工、虚拟偶像、品牌代言人的创建与运营服务。 另一边,电商平台、短视频平台也在陆续发布虚拟人的相关方案。 618前夕,淘宝发起“AI生态伙伴计划”,并开放七大商家经营场景,推进AI数字人直播的应用和发展。 快手在2023年光合创作者大会上,向外界展示了全模态、大模型AIGC解决方案和AIGC数字人产品“快手智播”,提供文本生成、图像生成、3D生成、音乐生成、视频生成等技术能力。 早在今年年初,字节跳动以投资的方式参与到虚拟人市场之中。彼时,字节投资杭州李未可科技公司,“李未可”正是该公司推出的AR科技潮牌及同名虚拟IP形象。 大厂占领速度很快,创业公司们也不甘示弱。正如上文提到的,魔珐科技、硅基智能等都是不断布局虚拟人行业的创业公司;同时,ChatGPT面世之后,像科大讯飞、商汤这样的AI公司,也在近期发布大模型的同时展示了其在虚拟人、数字员工生成上的效果。 市场很热闹,科技感是虚拟人最大的噱头之一,但背后需要的技术门槛也成了限制虚拟人发展的难题之一。 事实上,作为真实人类的映射,虚拟人是在元宇宙中人们活动的载体。虚拟人是运用动作捕捉、AI等技术复制真人(数字孪生)形象,以便在元宇宙当中,实现虚拟与现实的更强交互。 类似于AI行业,虚拟人行业也可以分为基础层、平台层和应用层。 处于应用层的谦寻告诉连线Insight,在虚拟人行业,三层的关系其实是相辅相成、层层递进的,基础层包括显示设备、光学器件、芯片等等基础硬件,以及建模、渲染等基础软件;平台层包括为虚拟数字人制作和开发提供技术能力的厂商;应用层则是落地到具体的商业场景中,比如游戏、电商、医疗等等。 无论是在哪种层面,从形似,到神似,虚拟人的重点在于怎么无比接近真人。这是对玩家们技术上的考验。 以虚拟主播为例,虚拟主播和真人主播最大的差别在于,互动的及时性及真实性。这是影响用户体验非常重要的因素,甚至决定着虚拟主播的带货成绩。 谦寻向连线Insight介绍,想要提升虚拟主播的“拟人化”,既需要大模型的反复训练,也需要更多技术的支持。谦寻通过真人主播的讲品逻辑、直播话术、用户互动技巧等经验,来训练更高性能的AI模型。 而直播电商行业的底层逻辑其实就是信任经济。二次元数字人存在先天不足,3D仿真数字人则费用高昂。在谦寻称为“阿凡达”的技术支持下,真人在后台操控自己的数字人主播,品牌也可以让公司内部更熟悉产品的业务人员亲自上阵,解决了实时互动的问题。 归根结底,让众多玩家参与进来的,是虚拟人技术提高,以及众多可以实现的落地场景。但想要打造一个让用户和市场都满意的产品,不是件易事。 技术在提升、成本在降, 虚拟人行业也在加速内卷 电影《头号玩家》描绘的3D世界,打开了很多人对于数字虚拟化的想象。在未来的世界,我们会遇到许多数字人,甚至进行信息、社交上的交互。 随着元宇宙、ChatGPT的相继爆火,更是拉高了外界对虚拟人交互的期待。这对行业来说是件好事,证明了市场对虚拟人的接受程度在提高。 艾媒咨询报告显示,预计在2025年,中国虚拟人带动产业市场规模能达到6402.7亿元。在谦寻看来,彼时无论是应用方,还是使用者,必然会对虚拟人商业化应用带来的专业度及信任感形成共识。 一般来说,打造一个虚拟人,主要包括建模、驱动、渲染三个环节。 网易伏羲虚拟交互技术负责人斋藤飞曾向澎湃新闻表示,虚拟人制造目前仍是一个复杂的技术体系,需要包括美术、开发、算法等跨学科、跨领域、跨职能协同。当不同领域围绕同一目标共同前进时,如何高效统筹管理也是一项巨大挑战。 好消息在于,AI的技术进步驱动了虚拟人生产成本的降低,尤其是降低了建模和驱动环节的成本。 举例来说,以往建模需要设计师在软件中手动画出一些形象,再由美术设计手动挑选,如果对制作效果不满意,只能多次返工;如今,Midjourney、Stable Diffusion 等软件可以基于已有素材和指令,智能生成一个形象。 据新莓daybreak报道,一家虚拟人科技公司产品经理表示,如果是动捕技术,成本是一秒钟1000块,这意味着时长一分钟的视频,大概需要六万块。而通过 AI 的方式去生成,1分钟只需要30块钱。 AI技术提高为虚拟人行业降本之余,为各行各业增效更加重要。 谦寻控股合伙人兼谦语智能CEO陶亚冬在采访中曾透露,传统品牌直播间需要的运营成本包括人力、设备、场地等,每月投入达15到25万元。相比之下,使用AI数字人,品牌方的花费是每月数千元。在人力投入上,原本包括主播、场控、十几人的直播团队大约可以减少到1-2人。 此外,随着各类大模型的发布,AI技术将大幅提升虚拟人的语意理解能力和用户沟通能力,进而提升其在各个领域的自动化水平。 随着AI技术的提高,虚拟人正在告别过去的制作周期漫长、成本高的时期,迎来了批量化生产、成本下降的新阶段。更重要的是,技术的升级不仅能够帮助用户快速、低成本地生成虚拟人,还能赋能企业降本增效,这对行业从业者、使用者来说都是利好。 乘着大模型的东风,虚拟人再次成为焦点。多个行业从业者向连线Insight表示,对于整个行业而言,未来虚拟人市场比拼的核心一定是商业化应用能力。但最终哪家产品能够脱颖而出,还需要市场的检验。 虚拟人产业高速发展是趋势,这个金矿很大,能真正淘金成功的人,需要内卷的精神,和对穿越周期的坚持。
算力、云连接痛点有解吗? 联想带来解决方案|AI前哨
凤凰网科技讯《AI前哨》 8月23日,近日,2023年中国算力大会在宁夏银川举行,联想携AI算力产品、方案及服务重登场。随着生成式AI爆发,国内智算超算需求爆发,对计算平台升级提出了更高要求。联想集团副总裁、中国区方案服务业务群总经理戴炜接受凤凰网科技等媒体采访时表示,智能算力场景将持续推动算力的升级,并囊括通用算力场景、超算场景和智算场景的复杂需求,这一过程面临混合架构下的一云多芯,多云管理等难题和挑战。 “我们自身作为客户,就是有很强的痛点,我们面临的首先是国内的公有云、国外的公有云统一纳管,所以联想自身的多云管理平台上几乎主流的公有云都有,这是我们自己就要去解决的,所以我们提供的混合云服务,就是基于云原生和多云管理的平台。”戴炜表示。 他强调,随着AI应用的爆发,必须打破公有云和私有云的连接和算力调度瓶颈,解决国产与通用不同的芯片架构兼容问题,并在同一算力资源池中提供可支持智算、超算和通算的混合算力。 戴炜认为,智能算力已经成为未来产业的发展方向,在服务客户过程中,联想感受到,混合架构模式已成行业趋势。 据戴炜介绍,联想基于产业需求,全面打造以AI导向的算力基础设施,并将“AI赋智 绿色赋能”作为联想AI算力战略的两大特征,同时以三种交付方式(混合云、臻算服务2.0订阅式和一站式)支持三类算力场景(通用、超算和智算)的混合计算需求。这三种交付方式能应对不同业态、不同成本水平,这样灵活的服务方案,更能切实的帮助企业智能化,赋能产业。 举例来说,联想的混合云解决方案(xCloud)是一个典型的内生外化的产品,涵盖私有云、云原生、智能运维、多云管理等4大核心产品,以及SAP解决方案、私有云解决方案、智能运维解决方案等9大通用解决方案,可实现覆盖客户“建云、上云、用云和管云”的全生命周期,目前主要应用于制造领域,能够帮助企业解决一举上云的问题。 当前,智能化已经成为一股势不可挡的浪潮。基于智能化转型战略的前瞻布局,联想已形成AI内嵌的智能终端、AI导向的基础设施和AI原生的方案服务的“全栈智能布局。戴炜表示,智能时代已经到来,联想将秉持“科技赋能中国智能化转型”的使命,以智算中心方案及服务能力,全周期陪伴客户智能化转型历程,赋能千行百业。
Meta推出“AI翻译官”!能翻译和转录近百种语言,已开源
编译 | 程茜 编辑 | 心缘 智东西8月23日报道,昨晚,Meta官宣AI大模型SeamlessM4T,该模型可翻译和转录近百种语言。 SeamlessM4T能实现近百种语言的自动语音识别、语音到文本翻译,以及近百种输入语言和35种输出语言的语音翻译、文本转语音翻译。 构建通用语言翻译器有一定挑战性,因为现有的语音到语音、语音到文本的系统都只涵盖了全球现存语言的一小部分,SeamlessM4T扩大了语言覆盖的范围,并且是一个可以完成多种任务的统一多语言模型。 秉持其一贯的开源策略,Meta在开源协议CC BY-NC 4.0下公开发布了SeamlessM4T,开发人员可以在这个模型的基础上进行开发。同时,Meta还发布了SeamlessAlign的数据集,其博客提到这也是迄今为止最大的开放多模态翻译数据集,覆盖挖掘的语音和文本对齐总计达270000小时。 SeamlessM4T Demo体验网址:https://seamless.metademolab.com/ 模型代码下载地址:https://github.com/facebookresearch/seamless_communication 一、录音、选择、翻译一气呵成,背景噪声干扰、说话人角色区分 Meta的博客中提到一般而言,现有的语音到语音翻译过程,会被划分为多个阶段,然后不同阶段会有对应的单独系统,很少能有统一的系统去完成多个任务。 SeamlessM4T的出现就解决了语音到语音翻译任务对单独系统的依赖的难题。 打开SeamlessM4T的Demo体验网站,用户点击下方的“START RECORDING”按钮就可以开始录音,录制完成进入第二步,“SELECT TRANSLATION LANGUAGE”选择需要翻译的语言种类,最后点击下方的“TRANSLATE”就会出现翻译的文本、语音两种结果。 在Meta的测试中,SeamlessM4T在保持高资源语言性能的同时,提高了中低资源语言的翻译性能,并且在近100种语言中实现了自动语音识别、语音转文本、语音转语音、文本转语音和文本转语音等多任务支持。 为了在不依赖基于文本的指标情况下更准确地评估SeamlessM4T,研究人员将无文本指标扩展到可以进行跨语音和文本单元评估的BLASER 2.0。进行鲁棒性测试时,与当前其它模型相比,SeamlessM4T在语音转文本任务中背景有噪声和出现多个说话人时的表现更好,平均分分别提高了37%和48%。 从基本的数据来看,SeamlessM4T的模型需要大量高质量端到端数据,仅仅靠人工转录和翻译的语音无法满足近100种语言语音翻译的需求。因此,Meta为200种语言构建了大规模多语言和模态文本嵌入空间SONAR,能快速搜索具有相似性的多种语言。 同时,通过挖掘公开可用的网络数据存储库中的数百亿个句子和400玩小时的语音数据,Meta还构建了语料库SeamlessAlign,能自动将超过443000小时的语音与文本进行对齐,并创建了约29000小时的语音到语音对齐。 同时,SeamlessM4T的构建还借鉴了Meta此前的技术积累,包括去年发布的文本到文本机器翻译模型NLLB、发规模多语言翻译数据集SpeechMatrix,以及今年的跨1100种语言的语音识别技术Massively Multilingual Speech等,基于大量先前的研究成果,才使得SeamlessM4T能仅用单一模型就实现多语言和多任务的翻译功能。 二、适配多任务模型架构、语音文本编码器 为了构建统一模型,Meta的研究人员在工具包、模型架构、编码器等上都进行了适配。 Meta重新设计了序列建模工具包fairseq,并使用多任务UnitY模型架构,这一新架构能实现自动语音识别、文本到文本、文本到语音、语音到文本和语音到语音翻译。 处理语音的过程中,自监督语音编码器w2v-BERT 2.0相比于w2v-BERT版本,训练稳定性和生成质量有了提升,编码器可以将获取到的音频信号分解为更小的部分构建内部表示。 文本编码器采用的是文本到文本翻译模型NLLB,它经过训练可以理解近100种语言的文本并生成对翻译有用的信息。 然后到了生成文本的步骤,通过多任务训练,Meta利用NLLB模型,通过标记级知识蒸馏来指导语音到文本翻译模型,就可以将这一编码器应用于自动语音识别、多语言翻译任务。例如,某人用法语说“bonjour(你好)”,可以将其翻译为斯瓦西里语的文本“habari”。 翻译内容的语音输出,Meta基于UnitY模型中的文本到单元(T2U)组件,这一组件可以根据文本输出生成离散语音单元,并在UnityY微调之前根据自动语音识别数据进行预训练。然后使用多语言HiFi-GAN单元声码器将这些离散单元转换为音频波形。 结语:语言翻译仍需清除有害内容输出 就Meta的测试结果来看,SeamlessM4T相比于其他系统的翻译、转录效果更好,并且覆盖的语言范围也更为广泛。 值得一提的是,与所有生成式AI存在的风险类似,翻译过程的准确性也十分重要,这一AI模型可能会错误转录用户说的话,或转录有害信息等。 因此,Meta还将高度多语言的有害性内容分类器扩展到语音,以帮助识别语音输入和输出中的有害内容。
助攻企业大幅提升生成式AI性能!NVIDIA和VMware硬核联手,打造全集成式解决方案
作者 | ZeR0 编辑 | 漠影 智东西8月23日报道,NVIDIA和VMware今日宣布扩展双方的战略合作伙伴关系,VMware计划于2024年初发布VMware Private AI Foundation with NVIDIA平台,帮助数十万家使用VMware云基础架构为生成式AI时代的到来做好准备。 该平台将作为全集成式解决方案,采用NVIDIA提供的生成式AI软件和加速计算,基于VMware Cloud Foundation构建,并针对AI进行了优化,将使企业能够自定义模型并运行各种生成式AI应用,如智能聊天机器人、助手、搜索、摘要等。 此外,NVIDIA宣布全球领先的系统制造商将推出AI就绪型服务器,计划于年底前上市,云服务提供商预计将在未来几个月提供实例。 这些服务器将采用NVIDIA L40S GPU、NVIDIA BlueField-3 DPU和NVIDIA AI Enterprise软件,使企业能够微调生成式AI基础模型并部署生成式AI应用,并提供由NVIDIA加速的基础设施和软件,以支持VMware Private AI Foundation with NVIDIA,帮助企业使用自有业务数据来定制和部署生成式AI应用。 一、NVIDIA与VMware强强联手,生成式AI与多云珠联璧合 据麦肯锡预测,生成式AI每年可为全球经济带来多达4.4万亿美元的增长。 为了更快实现业务效益,企业希望简化并提高生成式AI应用的开发、测试和部署效率。VMware Private AI Foundation with NVIDIA则能够助力企业充分利用这一能力。 建立在VMware Cloud Foundation和NVIDIA AI Enterprise软件之上,该平台提供的各种集成式AI工具,将帮助企业经济高效地运行使用其私有数据训练而成的、更加安全的成熟模型,将生成式AI作为一项服务提供给用户,并更加安全地大规模运行推理工作负载。 NVIDIA AI Enterprise是NVIDIA AI平台的操作系统。VMware Private AI Foundation with NVIDIA将采用的NVIDIA NeMo是NVIDIA AI Enterprise中包含的端到端云原生框架,集自定义框架、护栏工具包、数据整理工具和预训练模型于一身,可助力企业在几乎任何地点构建、自定义和部署生成式AI模型。 为将生成式AI部署到生产中,NeMo使用TensorRT for Large Language Models(TRT-LLM)来加速并优化NVIDIA GPU上最新大型语言模型的推理性能。通过NeMo,VMware Private AI Foundation with NVIDIA使企业能够导入自己的数据,并在VMware混合云基础架构上构建和运行自定义生成式AI模型。 在VMware Explore 2023大会上,NVIDIA与VMware重点介绍了企业内部的开发人员如何使用全新NVIDIA AI Workbench提取社区模型(例如Hugging Face上提供的Llama 2),对这些模型进行远程自定义并在VMware环境中部署生产级生成式AI。 VMware CEO Raghu Raghuram认为,生成式AI与多云珠联璧合,客户的数据无处不在,遍布其数据中心、边缘、云等多处。“我们将与NVIDIA一同助力企业放心地在数据附近运行生成式AI工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”Raghu Raghuram说。 NVIDIA创始人兼CEO黄仁勋谈道,世界各地的企业都在竞相将生成式AI整合到自身业务中。通过与VMware扩大合作,NVIDIA将能够为金融服务、医疗、制造等领域的数十万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式AI的潜力。 二、八大优势,让企业轻松安全部署生成式AI 具体而言,VMware Private AI Foundation with NVIDIA平台预计能够提供以下优势: 1、隐私:将通过能够保护数据隐私并确保访问安全的架构,使客户能够在任何数据所在地轻松运行AI服务。 2、选择:从NVIDIA NeMo到Llama 2等,企业在构建和运行其模型的位置上,将拥有广泛的选择空间,包括领先的OEM硬件配置及未来的公有云和服务提供商解决方案。 3、性能:近期的行业基准测试表明,某些用例在NVIDIA加速基础设施上运行的性能与裸机性能相当,甚至超过了裸机性能。 4、数据中心规模:虚拟化环境中的GPU扩展优化使AI工作负载能够在单个虚拟机和多个节点上扩展到最多16颗vGPU/GPU,从而加快生成式AI模型的微调和部署速度。 5、更低的成本:将最大程度地利用GPU、DPU 和CPU的所有计算资源以降低总体成本,并创建可在各个团队间高效共享的池化资源环境。 6、加速存储:VMware vSAN Express Storage Architecture提供性能经过优化的NVMe存储,并支持通过RDMA实现GPUDirect存储,从而无需CPU即可实现从存储到GPU的直接I/O传输。 7、加速网络:vSphere与NVIDIA NVSwitch技术之间的深度集成将进一步确保多GPU模型的执行不会出现GPU间瓶颈问题。 8、快速部署和价值实现时间:vSphere Deep Learning VM镜像和镜像库将提供稳定的统包解决方案镜像,该镜像预先安装了各种框架和性能经过优化的库,可实现快速原型开发。 三、构建庞大生态系统,助推企业生成式AI转型 对于将部署VMware Private AI Foundation with NVIDIA的企业来说,NVIDIA AI就绪型服务器是一个理想的平台,为竞相应用生成式AI的行业提供全栈加速基础设施和软件。 戴尔、慧与、联想这三家领先的系统制造商将率先提供搭载NVIDIA L40S GPU、NVIDIA BlueField-3 DPU和NVIDIA ConnectX-7智能网卡的系统,支持VMware Private AI Foundation with NVIDIA,以加速企业大型语言模型定制和推理工作负载。 NVIDIA AI就绪型服务器采用NVIDIA AI Enterprise。该软件为100多个框架、预训练模型、工具套件和软件提供生产就绪型企业级支持和安全性,包括用于大型语言模型的NVIDIA NeMo、用于模拟的NVIDIA Modulus、用于数据科学的和用于生产型AI的NVIDIA Triton推理服务器。 专为处理包含数十亿参数的复杂AI工作负载而打造的NVIDIA L40S GPU搭载第四代Tensor Core和FP8 Transformer引擎,相较于NVIDIA A100 Tensor Core GPU,可将生成式AI的推理性能和训练性能分别提高1.2倍和1.7倍。 NVIDIA BlueField-3 DPU可加速、卸载和隔离GPU或CPU上的巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生AI服务。NVIDIA ConnectX-7智能网卡可为数据中心基础设施提供智能、加速网络,以承载全球一些要求严苛的AI工作负载,能够为数据密集型生成式AI工作负载提供同类领先的可扩展性能。 联想集团主席兼CEO杨元庆谈道,企业迫切希望采用生成式AI来推动智能化转型。通过与NVIDIA和VMware合作,联想正在进一步扩大自身在生成式AI领域的领先地位,在客户采用AI的旅程中为其提供帮助。 戴尔科技主席兼CEO Michael Dell认为,生成式AI是创新的“催化剂”,将助力解决一些全球性的重大挑战。而采用NVIDIA AI就绪型服务器的戴尔生成式AI解决方案将扮演至关重要的角色,通过推动生产力水平实现前所未有的提升,并变革工业运营的方式,以加速人类的进程。 慧与总裁兼CEO Antonio Neri说,生成式AI将推动企业生产力规模的全新扩展。慧与和NVIDIA密切合作,在一系列企业级调优和推理工作负载解决方案中采用NVIDIA的GPU和软件,将加速生成式AI的部署。 结语:双方联合研发成果,帮企业大幅提升生成式AI性能 VMware Private AI Foundation with NVIDIA建立在NVIDIA和VMware长达十年的合作基础之上。 两家公司的联合研发成果优化了VMware的云基础架构,使其能够以媲美裸机的性能运行NVIDIA AI Enterprise。VMware Cloud Foundation所提供的资源及基础架构管理与灵活性将进一步惠及双方共同的客户。 VMware Private AI Foundation With NVIDIA以及NVIDIA AI就绪型服务器将能够帮助企业为生成式AI在业务中的应用做好准备,并在数据隐私性、安全性和可控性方面提供进一步支持。
英伟达AI的iPhone时刻来了
今天 3 月份的 GTC 大会上,英伟达 CEO 黄仁勋抛出金句「AI 的 iPhone 时刻已经到了」 现如今,时隔 5 个月后,更准确的说,或许黄仁勋的金句可以改写为「英伟达 AI 的 iPhone 时刻已经到了。」 生成式 AI 的爆火,让人们得以窥见下一个风口,无数科技巨头争先抢后地躬身入局生成式 AI 赛道,试图打开这道充满机遇的科技大门。 但想法很主观,现实很客观,算力、模型、数据一直是 AI 发展的三大要素,AI 芯片所代表的算力既是人工智能的底层基石,也是打开这道科技大门的钥匙。 而现如今,这把通往未来的钥匙正掌握在英伟达的手中。 58 年前,英特尔创始人之一戈登• 摩尔在搜集 1959 年至 1965 年集成电路上晶体管数量的数据基础上,提出了著名的摩尔定律。 集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍。 随后新的推断又涌现了出来,两年的时间间隔被缩短到了 18 个月。 在摩尔定律的作用下,CPU 和 GPU 的处理性能都获得了指数级的增长,2000 年以后,CPU 从单核走向多核,核心数量得到大幅提升。 AI 深度学习的训练和推理大量依赖矩阵计算和浮点计算,对算力提出了极高的要求,而 GPU 能够大规模并行计算,在矩阵和向量计算上远超 CPU,成为高性能计算的「宠儿」。 此外,高速的内存宽带、可扩展性强的算力池、专门优化的深度学习框架、云端部署支撑等优点,也坚定确立了 GPU 在 AI 时代的算力核心地位。 成立于 1993 年 4 月,英伟达最初便是靠 GPU 起家,通过不断的创新和发展,逐渐成为了高性能计算领域的领导者。 根据 Jon Peddie Research 发布的 GPU 市场数据统计报告,英伟达以 84% 的市场份额排名第一,排名第二的 AMD 为 12%,第三位的英特尔为 4%。 A100 和 H100 都是英伟达专门为 AI 计算设计的顶级数据中心 GPU,在训练和推理大型神经网络方面,性能都远超其他竞争对手,二者也都采用专门的 Tensor Core 和数据流架构,堪称英伟达手里的两张王牌芯片。 今年以来,英伟达主打的就是「你买的越多,省的也越多」,非常熟练且「贴心」地推出各种迭代更新的 GPU。 3 月,英伟达一口气发布了 H100 NVL GPU、L4 Tensor Core GPU、L40 GPU 以和 NVIDIA Grace Hopper 四款 AI 推理芯片。 两个月后,5 月的台北电脑展上,黄仁勋发布了用 256 个 NVIDIA GH200 Grace Hopper 超级芯片组成的超级计算机 DGX GH200。 就在两周前,黄仁勋又发布了搭载 HBM3e 内存新版 GH200 Grace Hopper,这也是世界上首个搭载 HBM3e 内存的 GPU 芯片。 HBM3e 内存是一种新型的高带宽内存技术,在运算速度上 HBM3e 能比 HBM3 运算速度快 50%,提供最高 5TB/秒的传输速率。 训练和推理是 AI 大模型的非常重要的两个步骤,而这恰恰是 GH200 所擅长的部分。在黄仁勋看来,未来 GH200 的典型应用场景就是大语言模型,并且「加速运算」、「AI 运算」将逐渐取代传统 x86 GPU 的「通用计算」。 过往无数的案例证明,优异生态系统一旦构筑成护城河,外来者在竞争中便占了下风。 英伟达过硬的生态系统自然少不了竞争对手的盖章认证,神经网络科学家 Naveen Rao 曾在英特尔担任过副总裁与人工智能平台事业部总经理。 他发现英伟达的最大优势不仅仅在于芯片本身,而是英伟达拥有一个具有大量优秀人工智能程序员的大型社区和集散地。 CUDA 是英伟达基于其生产的 GPUs 的一个并行计算平台和编程模型,目的是便于更多的技术人员参与开发。 开发人员可以通过 C/C++、Fortan 等高级语言来调用 CUDA 的 API,来进行并行编程,并进行高性能计算,这种生态系统的建立使得许多开发者依赖于 CUDA。 此前,黄仁勋向外界透露,CUDA 在全球已经拥有超过 400 万开发者和超过 3000 个应用程序,CUDA 下载量累计达到 4000 万次,全球 有 40000 家大型企业正在使用英伟达的产品进行加速计算,已有 15000 家初创公司建立在英伟达的平台上。 庞大的数字折射出英伟达显著的先发优势,倘若其他对手想要推出新的硬件,则还需要考虑追赶这个已经形成的人工智能创新生态系统。 交易的两端,一端连着卖方,一端连着买方。 4 月份,「双标」的马斯克一遍联名签署禁止训练 AI,一边偷偷扫货 1 万张 GPU 来开发大模型,甚至还不忘在 X 上公开吐槽:「似乎每个人、每条狗都在购买 GPU」。 上个月,甲骨文董事长在公开场合表示,甲骨文公司将斥资数十亿美元购买英伟达的 GPU,以扩大针对新一波人工智能公司的云计算服务。 得算力者得天下,在你追我赶的生成式 AI 赛道上,国内也同样蔓延着求「芯」若渴的焦虑。 据英国《金融时报》报道,中国互联网巨头正争相抢英伟达高性能 AI 芯片,今明两年的订单价值高达 50 亿美元。 其中百度、腾讯、阿里巴巴以及字节跳动今年向英伟达下达的支付订单金额合计 10 亿美元,总共采购 10 万张 A800,相当于每张 A800 芯片的价格达到 1 万美元,明年再交付余下的 40 亿美元。 需要说明的是,A800 本质上是 A100 的「阉割版」。由于去年 8 月份受到政策影响,英伟达只能面向中国大陆市场推出不受限制的替代版本。 不少行业人士认为,GPU 已经成为市场上公认的稀缺货,一芯难求的局面在未来的一两年内依旧难以缓解。 因此,在 GPU 供不应求的持续追捧下,英伟达的 GPU 甚至成为一些 AI 初创公司的硬通货。 作为一家云计算初创公司,CoreWeave 想要获得创业贷款并不是一件容易的事情。但「不看僧面看佛面」,得益于英伟达的投资人身份,CoreWeave 甚至可以将 H100 GPU 作为抵押物,轻易获得了 23 亿美元的贷款。 在贷款方看来,这自然不会是一笔亏本的买卖。 一方面,这笔贷款能够让 CoreWeave 的计算规模和实力得到快速扩张,增强偿还贷款的能力,另一方面,英伟达明年将推出更多迭代的 GPU,凭借与英伟达密切的合作关系以及这笔高额度贷款,CoreWeave 还可以在抢购 GPU 上夺得先机。 正如前面所提到,既然头部大厂在市场上都抢不到 GPU,那实力并不雄厚的 AI 初创公司的处境显然更加堪忧。 于是乎,一些聪明的 AI 初创公司只能选择另辟蹊径,抱团取暖,投入英伟达的怀抱。 今年 6 月份,人工智能初创公司 Inflection AI 官宣,完成 13 亿美元的新一轮融资,值得注意的是,崭新的投资名单里首次出现英伟达的身影。 Inflection AI 表示,将和合作伙伴 CoreWeave 以及英伟达一起,构建世界上最大的 AI 集群。 看似欢喜的强强联合更像是一种无奈的抉择,Inflection AI CEO Mustafa Suleyman 接受《纽约时报》的采访时表示:「公司没有义务使用英伟达的产品,但竞争对手没有提供可行的替代方案。」 事实上,Inflection AI 将全力打造一台先进的超级计算机,其中包括近 700 个 Intel Xeon CPU 的四节点机架服务器,以及配备了 22000 个 H100 GPU。 如此庞大数量的 GPU,让旁人羡慕之余,很难不让人联想到英伟达 GPU「肥水不流外人田」的优先提供策略。 当然,生成式 AI 的春风拂过,全球 GPU 供不应求,价格水涨船高,英伟达也在这次 AI 浪潮中赚得盆满钵满。 去年底,消息人士向投资银行公司的 Raymond James 透露,H100 GPU 的成本为 3320 美元(当前约 24181 元人民币),而英伟达选择以 25000 至 30000 美元(当前约 18.2 万至 21.9 万元人民币)的价格出售这些 GPU。 虽然这一说法可能没有考虑到运输物流等其他成本,不过仅从生产成本 / 售价的比例来看,英伟达 H100 GPU 简直就是一个「超级摇钱树」。 此外,据外媒 Tomshardware 报道,英伟达今年内计划出售超过 55 万块 H100 GPU。倘若属实,这意味着英伟达光从 H100 GPU 中获得的收益就已经是个天文数字。 生成式 AI 给英伟达带来的惊喜远不止于此。 今年是英伟达的「而立之年」,在五月的最后一天,英伟达成为全球第一家市值突破 1 万亿美元的芯片公司,这也是历史上第九家跻身万亿市值俱乐部的科技公司。 2024 财年第一财季财报显示,英伟达第一财季营收为 71.92 亿美元,与上一财季的 60.51 亿美元相比增长 19%,净利润为 20.43 亿美元,每股收益和营收均超过华尔街分析师的预期。 此外,本月 24 日发布的第二财季财报也预计营收超过 100 亿美元,截至发稿前,英伟达的市值已经达到 1.16 万亿美元,市盈率达到 244.09 倍,增长势头持续看好。 今年 6 月,身穿毕业服的黄仁勋受邀参加了中国台湾大学的毕业演讲,用过往的人生经验寄语毕业生! 无论是什么,像我们一样全力以赴地追求它,跑吧!不要慢慢走。 不论是为了食物而奔跑,或不被他人当做食物而奔跑。 你往往无法知道自己正处在哪一种情况,无论如何,都要保持奔跑。 历史的机遇稍纵即逝,GPU 的赛道注定是赢者通吃的赛道。 一直狂奔的黄仁勋抓住 AI 的机遇,让诞生于路边连锁餐厅的英伟达成功跻身于万亿美元俱乐部,成为了这波 AI 浪潮的最大赢家,也将继续领跑这个时代。
17万本盗版书,是“ChatGPT们”变聪明的秘密
「实锤」终于来了。 今年 7 月,OpenAI 和 Meta 被三位美国作家 Sarah Silverman、Christopher Golden 和 Richard Kadrey 起诉,称两家公司在未经作者同意的情况下,把他们的书用作素材训练大模型。 证据? 在 OpenAI 案件里,原告们输入提示词后,ChatGPT 能够总结出他们的书的内容。 演员、作者 Sarah Silverman 和她的自传,输入提示词后,OpenAI 可呈现该书总结,图片来自 Vulture 在 Meta 案件中,Meta 大模型 LLaMA 的论文里就写着,它训练数据包括一个由 EleutherAI 整理的、名为「ThePile」的素材。 「ThePile」中又包含了一个名为「Books3」的数据集,它的内容正是线上盗版图书资源库 Bibliotik 的数据。 当时,原告们提出的证据还相对「间接」。 直到现在,作家和程序员 Alex Reisner 正式揭露,Meta 的大模型背后到底都盗用了哪些作家的什么书籍。 让人意外的是,这些「证据」其实一直都放在明面,但却一直没有被揭开,这是为什么? 甚至,侵权素材的制造者,还一直坚持说这是一件「正义」的事。 17 万本盗版图书 图片来自 Interesting Engineering Alex Reisner 的「大项目」缘起于好奇心: 作为一名作家和电脑程序员,我一直很好奇生成式 AI 系统是用什么类型书籍来训练的。 今年夏天,Reisner 开始在 GitHub 和 Hugging Face 等社区找寻答案,最终找上了我们在上文提起的开源数据集「ThePile」。 然而,下载到「ThePile」,并不意味着你就能知道「Books3」里都有什么书。 「ThePile」有 800G,大得一般文本编辑器根本没法看。 Reisner 写了一系列程序才能得以从中提取「Books3」的信息。 图片来自 Unsplash 没想到的是,提取出来的信息里,并没有任何带有「书名」「作者名」等标签的数据,一切都只是「文本」。 于是,Reisner 又另外写了一个程序去提取数据中的 ISBN 编号(国际标准书号),并将这些数据和其他线上图书数据库进行比对,以辨别出「Books3」中被收录的具体书籍。 最后,这一步找出了 19 万个 ISBN 编码,识别出 17 万个对应书名,另外 2 万个编码则无法找到对应书名。 图片来自 Medium 这些书里,大约有 1/3 是虚构作品,2/3 是非虚构作品,来自于大大小小不同的出版社。 是的,在这些被识别出的书里,也包括了文章开篇提到对 OpenAI 和 Meta 提出诉讼的三位作家的书籍。 因此,这可以说是 Meta 的 LLaMA 以盗版书作为训练素材非常直接的证据的了。 此外,我们还能在其中看到《我的天才女友》作者埃莱娜·费兰特、《女仆的故事》作者玛格丽特·阿特伍德、史蒂芬 · 金、村上春树、著名饮食类作家迈克尔·波伦、惊悚小说作家詹姆斯·帕特森等人的众多作品。 玛格丽特·阿特伍德等八千多名作家也写了联名信,要求 AI 公司需要获得作家授权才可将书籍用作训练材料,图片来自《独立报》 除了著名作家的书籍以外,Reisner 还在「Books3」里找到了「科学教」创始人罗恩·哈伯德的 102 本低俗小说、90 本信奉「年轻地球创造论」的牧师约翰·F·迈克阿瑟的书,以及「外星人创造论」支持者埃里希·冯·丹尼肯的多部作品。 Reisner 在《大西洋月刊》的文章中指出,虽然「Books3」数据集在 AI 社区以外认知度不高,但在圈里挺受欢迎的,「可以下载,但要找到有点难度,想要浏览和分析也同样具有挑战性」。 像 Reisner 这样大费周章写程序来分析比对,还精心撰文在大众媒体上发布,还是首次。 与此同时,AI 圈对「Books3」也有心照不宣的维护。 用「Books3」创造者的话来说 —— 它是确保生成式 AI 发展不会被大公司垄断的重要资源。 「盗火者」还是「盗贼」? 图片来自《大西洋月刊》 如果我们不需要像 Books3 这样的东西的确会更好。 但情况是,如果没有 Books3,只有 OpenAI 可以做到他们正在做的事情。 「Books3」的创造者,独立开发者 Shawn Presser 对 Reisner 说道。 Presser 一开始做 Books3,就是为了给所有开发者「OpenAI 级别的训练数据」。 2020 年,Presser 下载了一份 Bibliotik 的副本,再改写了黑客 Aaron Swartz 十多年前写下的程序,将所有 ePub 格式的图书转换成纯文本 —— 一种更合适大模型使用的格式。 至于数据集中部分书的版权信息出现缺失,Presser 称那是转换造成的意外结果,并非自己刻意为之。 而「Books3」这个名字,也是呼应了 OpenAI 之前提及的「Books1」和「Books2」。 在 2020 年的时候,OpenAI 的论文指出,GPT-3 的训练数据中包括两个基于互联网的书籍数据合集。 人们从其体积推测,OpenAI 的「Books1」数据来自于「古登堡计划(Project Gutenberg)」—— 专门收集版权已过期的图书资源的项目。 「Books2」的内容是什么则一直无人知晓,有人从其体积猜是类似 Bibliotik 或 Libgen 的线上盗版图书库的数据。 当然,除了书籍的数据外,GPT-3 当时还用了其他数据,如维基百科和其他从网络上抓取下来的文字信息。 这也是为什么 EleutherAI 整合的「ThePile」里也同样包含了大量其他数据,如维基百科、YouTube 视频的字幕、欧洲议会的文件和速记等等。 即便如此,相比之下,书籍的高质量文本仍然显得很重要。 Meta 曾表示,最开始的 LlaMA-65B 大模型表现没有其他好,主要是因为它「所使用的书籍以及学术论文数量有限」。 MIT 和康奈尔大学合作的论文也指出,书籍在大模型训练数据中「对下游表现有最强正面效果的」。 所以我们会在 Meta 后来推出的 LlaMA 2 训练数据中看到「ThePile」和其中的「Books3」。 图片来自 CNN 这也是为什么,当 Books3 最近因丹麦反盗版组织 Rights Alliance 投诉侵权而被下架时,Presser 感到愤慨不平。 在他看来,所有牟利的大公司在私底下都把侵权内容拿来训练自己的大模型,但又因为他们不公开其训练数据,因此没人能告得了他们。 而 Books3 被下架,却正是因为他希望让大模型更开放和有更高透明度而主动公开数据来源。 Presser 强调,我们不能让财大气粗的大公司垄断这项在重塑我们文化的重要技术,而是要让所有人都有资源去建立自己的大模型: 我的目标要让所有人都能(建造这些大模型)。 除非书籍的作者有方法能把 ChatGPT 拉下线,或者告到他们关门,否则让你和我都能建造自己的 ChatGPT 是非常必要的。 正如在 90 年代的时候,去保证任何人都能设立自己的网站一样重要。 至于把 ChatGPT 告到下线,也不是完全没有可能。 人人都在告 AI 巨头 OpenAI 不再「Open」也不透明,图片来自 Politico 明星作家发起的官司也许引来更多关注,但拥有把 ChatGPT 告到「重造」的潜力的,却是传统新闻媒体。 上周,NPR 报道援引知情人士消息称《纽约时报》正在考虑起诉 OpenAI。 在过去几周里,《纽约时报》都在和 OpenAI 就授权协议谈判。然而,谈判进展似乎不太顺利,以至于《纽约时报》都开始考虑就侵权告 OpenAI 了。 报道称,联邦版权法规定,违法者每项「蓄意」侵权行为最高可罚 15 万美元,再结合《纽约时报》的文章数量,这个金额叠加起来「对于一家公司来说可能是致命的」。 除此以外,如果法官判定 OpenAI 的确非法拿了《纽约时报》的文章来训练大模型,法院也可以命令 OpenAI 销毁 ChatGPT 的数据集,强制它仅用已获得授权的作品来重新训练和创造 ChatGPT。 图片来自 BrookField 无论是原告是《纽约时报》还是书籍作家,这些官司(或潜在官司)能否胜诉,关键都在于 AI 巨头们是否能把这些信息的使用说成「合理使用」 —— 即在特定情况下,可允许不经许可去使用特定作品,譬如教学、评论、研究和报道等。 支持「合理使用」的人有两个论点: 生成式 AI 并不会重现它们用于训练的书籍本身,而是创造新内容; 那些新内容并不会损害原本作品的市场。 纽约大学科技法律与政策诊所的负责人 Jason Schultz 称,在图书被盗用方面,这个论据还挺有力的。 但《纽约时报》的律师则坚持,OpenAI 对报纸文章的使用并不合乎「合理使用」。 假如用户能通过 AI 聊天机器人,获取文章中提及的新闻事件描述,用户可能就不会再去找文章阅读了,因此有可能会成为新闻文章的替代品,影响了原有市场。 法律博主樊百乐指出,知识产权法并非一成不变,但其核心却很坚定 —— 繁荣创作市场。 如果连估值数百亿美元的 AI 公司,都可以不付一分版权费,免费把作家耗费数年心血创作的作品拿去牟利,甚至盗用这些书去训练出意图替代作家的工具,这对创作者而言无疑是致命打击。 Presser 谈论到的「数据不公平」问题,也不应是侵犯创作者权利的借口。 版权问题终究会是决定 AI 能走多远的其中一个关键因素。 范德堡大学知识产权项目联席主任 Daniel Gervais 认为: 版权法是一把悬在 AI 公司头上的利剑,除非它们想出如何协商解决方案,否则这把剑未来几年都会悬在它们头上。 这一切只是新阶段的开始。 最后,我们整理了部分仍在进行中的 AI 公司侵权诉讼,以供参考。
马斯克带火的人形机器人在中国发展的怎么样了
7 月逛过世界人工智能大会后,一直对人形机器人念念不忘。特斯拉的人形机器人擎天柱只是在大会上展出了1:1的模型,展台已经足以被挤到水泄不通。 一个不会动的人形机器人能够引起这么多关注,我是有些不解的。同一场的展会,旁边的机器狗已经活蹦乱跳能跟小孩子互动了,机械臂都已经可以卖咖啡给摊位挣钱了,为什么人们还是这么执着于人形机器人?难道只是人类的自恋作祟吗? 世界人工智能大会展出的特斯拉人形机器人 8 月,世界机器人大会来到北京,据说会展出六百多款机器人,其中包括十几款人形机器人,这立刻引起了我的兴趣。 我很想知道,在马斯克带火了人形机器人之后,中国的人形机器人发展到什么程度了。而在这之上,我更想知道,为什么一定要做人形,又为什么是现在? 在逛完一圈展览,并和多个行业人士交流后,我得到了想要的答案。 双足机器人是绝对热点,AI和硬件的发展都是重要助推 虽然模仿人类外形,但下身固定或者以轮子形式呈现的机器人也算是广义上的人形机器人。但此次机器人大会中,能明显感受到,真正类人的大型双足机器人,才是行业中的热点。 在展的十几个人形机器人公司,只有两三家公司没有双足机器人产品。而已推出的人形机器人中,有一半左右的公司都是去年或今年才推出第一款双足机器人。 成立于 2016 年的宇树科技,之前一直专注于四足机器人商业化。2023 年,宇树科技推出了第一款人形机器人,预计 2023 年 4 季度量产。 2015 年成立的达闼机器人,过往一直专注于轮式人形机器人。在此次世界机器人大会上,也第一次展出了双足机器人产品。 成立于 2017 年的追觅科技,过往产品包括自动集尘扫拖机器人、无线吸尘器,在今年的机器人大会上,也展出了自己研发的双足机器人。 追觅科技展出的通用人形机器人 为什么都在这一时间点? 与多位行业人士聊过之后,我得出了这样的结论:在软件和硬件上,现在刚好是一个各项技术都有比较大突破的交汇点。不过相比于软硬件技术的进步,大模型的进步带来人形机器人的市场想象空间变大,是更大的驱动因素。 通用机器人,即不针对物流分拣这类的单一任务优化,而是能通用地去做许多不同的任务的机器人,一直是机器人界追求的目标,也有极大的产业价值。 形成一个通用机器人,从技术上有三个要点需要解决:本体、小脑和大脑。本体即硬件部分,小脑指的是视觉、触觉等各种感知的协调,步态控制的实现和对复杂任务的完成等,而最后是大脑,它主导上层的逻辑推理、决策、规划和与环境的交互。 生成式AI的出现,使通用的机器人在大脑层面突然不再像过去一样遥远了,而业界公认,通用的机器人身体形态最合适的就是人形,这是一个直接契机。 波士顿动力等公司,很早就研制出了人形机器人的本体,小脑部分也相当发达,但面对商业化,一是成本无法下降,二是仍然缺少一个智慧的大脑。有了智慧的大脑,人形机器人的市场层面,想象空间突然变大了。 「我个人早几年不看好人形机器人这个事情,因为我一直觉得目前人类的控制技术完全没办法驾驭人形机器人这么复杂的机器人形态,」宇树科技创始人王兴兴在机器人大会上讲到,「去年底由于通用性 AI 进展远超我个人预期,我们开始立项做通用人形机器人。」 达闼机器人显然也是紧跟这一浪潮。从创始之初就发力云端机器人的达闼,看到了大模型为机器人带来云端大脑的机遇。7 月,达闼发布了机器人多模态大模型 RobotGPT,8 月马上发布了通用人形机器人。 达闼机器人发布的七仙女人形双足机器人 人形机器人,相比与四足机器人,步态控制难度要高很多,而这点在近些年也得到了解决。2023 年刚刚成立的人形机器人公司星动纪元的 CEO 陈建宇提到了强化学习方面的进步:「2016 年 AlphaGo 出来之后,强化学习这个领域开始发展,经过几年的沉淀,才真正在机器人上面用起来。比较有代表性就是 ETH 四足机器人发在 Science 上面几篇文章,2020 年、2021 年左右做出来。」 朝元机器人的王立朝还提及了硬件方向的进步:「几年前,国内的电机不太行,各方面参数都达不到,从国外进相当贵。但现在国内基本上电机的这块追得差不多了,制造成本还低。」 腿部方案各式各样,但是“小脑”还有所欠缺 世界机器人大会上亮相了多个人形机器人 demo,但相互间还有一定区别。 从外观上看,各家机器人高度都在1.6-1.8m之间,除了造型风格的差别,最大的差别在机器人的腿部。 在机器人领域,最出名的人形机器人或许要数波士顿动力的人形机器人Atlas。从驱动方式上,波士顿动力的人形机器人由液压系统驱动。液压系统的力量很大,响应速度快,支撑了波士顿动力机器人的各种需要超高力量的运动,但液压系统的昂贵,也阻碍了其商业化落地。 不过,在世界机器人大会的现场,我注意到,展出的人形机器人几乎全部采用了电机驱动的方式。 比如成立于2012年的优必选科技,使用的就是最早由本田Asimo开发的刚性驱动的电机驱动方式。其标志就是相对笨重的腿部。刚性驱动的特点是力量控制精准,但运动速度普遍较低,爆发力不足。 优必选的熊猫机器人 而现场更多的新发布的机器人则采用的是更新的设计架构,腿部与优必选科技的机器人有一些差别。 宇树科技展出的H1人形机器人 除了和人的腿部形态很接近的双足机器人之外,大会上还展出了一些创新架构的机器人。 中国兵器装备集团自动化研究所有限公司展出了“鸵鸟腿”的机器人。这种腿部设计最早源自Agility Robotics,中国兵器装备集团自动化研究所有限公司是国内首家做出相关技术的公司。据工作人员介绍,鸵鸟腿的设计可以使整个机器人重心比较高。传统的双足机器人腿部质量更大,这样腿部前摆时所需要的能量消耗就更高,而鸵鸟腿的能量消耗更低。 中国兵器装备集团自动化研究所有限公司的仿驼人形机器人,后期会增加上半身 北京理工华汇智能科技有限公司展出了一种轮腿式机器人,结合了轮式和腿式的优点。比如在平地上,机器人可以采用轮式很快地运动过去。而对于传统轮式机器人无法上下台阶的弱点,轮腿式机器人可以在上坡的时候使用双腿,下坡的时候使用轮子。 相对于普通的双足机器人,轮腿式机器人还可以整个趴在地上,解决普通双足机器人搬运重物的局限性。 右侧的机器人就是北京理工华汇智能科技有限公司的轮腿式机器人 或许是因为大部分机器人才刚刚发布没多久,和世界人工智能大会类似,此次机器人大会展出的大部分人形机器人,还处于不能走路的状态,要么只能展示手部动作,要么和擎天柱一样只展示模型状态,只有依托于北理工大学实验室和清华大学交叉信息研究院的两款机器人,在现场真正进行了走路的展示。 依托于清华大学交叉信息研究院的星动纪元展示机器人行走 “国内的人形机器人控制算法,几乎全是从四足机器人算法上改的,包括我们自己。”宇树科技CEO王兴兴告诉极客公园。“软件方面,目前毋庸置疑,波士顿动力还是遥遥领先的。” 双足机器人商业化:率先落到智能家庭场景和智能制造 在来到世界机器人大会之前,对于机器人一定要做成人形这点,我其实有很多不解。不过,在机器人大会结束后,我大概被说服了一半。 人形的确是一个更先进的形态:人形能够通用地解决大部分人类世界面临的问题。它既是产品技术能力到达一定程度的展现——能够做好人形的公司做其他类型的机器人也不难,也是许多场景下的最佳选择——一旦成本足够低,人们自然愿意选择能够融入环境的机器人而不是需要改造环境适应它的机器人。 还有一半存疑的原因是,人形机器人似乎实在离商业化有些遥远。我能想到的只有双足机器人方便融入而轮式机器人无法融入的场景实在很少,而可以想像的未来,双足机器人成本应该一直高于机械臂和轮式机器人,那么人形机器人的商业化真的成立吗? 或许也是因为需要找到只有人形才能更好融入的场景,目前,许多推出双足机器人产品的公司,当下的愿景都是将双足机器人带到家用场景中,成为一个家庭助手。 直观来说,双足机器人肯定在家居环境中适应的更好,不存在特定场景无法通过的问题,也不存在无法上下楼的问题。不过到了具体的产品落地,起码在目前,双足机器人也并不能说占有优势。 帕西尼是机器人大会展台上里少有的虽然在研发人形机器人,并想要投入到家用场景当中,但却完全没有在考虑做双足机器人的公司。部分原因就来自于双足机器人目前离商业化还是太远了。 帕西尼感知科技展出的人形机器人,亮点在于手部触觉反馈 「双足机器人就算只是站立着,电机也要一直保持运作,功耗非常高,电池可能用个 30 分钟就没电了,很难在真实的场景推广,而换再大容量的电池,控制起来更难,重量更高,耗电也会更高,如果电池技术短期没有很大突破很难解决这个问题。而基于底盘的机器人,一块电池基本上可以跑差不多 8-10 个小时,产品化会更快。」帕西尼公司的工作人员介绍道。 帕西尼感知科技的产品打算首先销往日本较为高端的市场,因为日本养老方面需求较大。 在商业化用途方面,一个例外是小米 CyberOne 人形机器人。 小米展示的CyberOne人形机器人 拥有小米的 3C 和汽车工厂,小米机器人未来的场景设定主要在小米工厂的智能制造领域。 小米集团高级副总裁曾学忠就提了一个很好的双足机器人的应用场景:「汽车制造流程的冲压、涂装、总装各个环节当中,总装仍然是重人力的环节,95% 是人工。因为首先,操作员要进入各类型仓内进行作业,而车内的空间是完全依靠人的乘坐空间来设计的,无法为组装提供腾挪的空间。第二,操作员组装零部件并非简单的重复动作,需要类人的动作能力。」 不过即使是这样,小米公司对于最后生产线的定义,仍然是 70% 机械臂,20% 人形机器人,10% 人工完成。似乎证明机械臂未来仍然将承担绝大部分的工作。 吉林大学唐敖庆讲座教授任雷在大会上表示:「人形机器人的热度具有周期性,有时候可能是技术推动的,但有的时候也可能是其他推动的。比如说这次马斯克擎天柱的公布对这次热度是起到了至关重要的作用,马斯克想把人形机器人做到千家万户,我觉得不是从技术层面,而是从市场层面把这个热度又拉起来了。」 作为一个跨越半个世纪的科技,人形机器人科技本身一定不会消亡,而是会不断向前。但这一波人形机器人是否能够获得商业上的成功,找到正确的需求,匹配合适的成本,似乎还有待验证。
Salesforce又一笔AI投资!2亿美元领投Hugging Face
编译 | 香草 编辑 | 李水青 智东西8月23日消息,据The Information报道,AI初创公司Hugging Face近日正在进行D轮融资,由云巨头Salesforce领投,预计获投2亿美元,估值较去年5月翻倍至40亿美元。 Salesforce在最近几个月积极投入AI领域,创立了2.5亿美元的生成式AI风投基金,并在随后扩大至5亿美元。此外,Salesforce也一直积极为自己的产品推出新的AI功能,与OpenAI合作推出了企业通信平台Slack专用的ChatGPT应用。 一、托管Llama 2等几十万AI模型,两轮融资估值翻倍 Hugging Face成立于2016年,最初专注于开发和提供自然语言处理相关的技术和工具,目前主要提供帮助企业和开发者构建和部署AI模型的社区服务,被称作“机器学习界的GitHub”。Hugging Face目前拥有200多名员工,其平台托管了几十万个AI模型,包括Meta的Llama 2,其客户包括微软、AWS、IBM等1万多家公司。 ▲Hugging Face的愿景——“人工智能社区建设未来” 对于不想将数据暴露给OpenAI等AI软件提供商的企业而言,其托管的开源模型很有价值。企业可以在自己的数据上训练定制版本的开源模型,而不是去购买一家公司的专有模型。 2022年5月,Hugging Face宣布完成1亿美元的C轮融资,估值达到了20亿美元。该轮融资由Lux Capital领投,红杉资本和Coatue首次参与跟投,其他跟投的投资方包括Addition、Betaworks等Hugging Face原有的投资方。 而在近日这次2亿美元的D轮融资完成后,Hugging Face的估值将达40亿美元,相较上轮融资时增长了一倍。本轮融资由Salesforce旗下投资机构Salesforce Ventures领投,Salesforce首席执行官马克·贝尼奥夫(Marc Benioff)在其社交媒体X上证实了这一消息。 ▲马克·贝尼奥夫X截图 Hugging Face公司目前的年收入有望超过3000万美元。据The Information推测,Salesforce的这次融资,可能表明它将Hugging Face视为未来的潜在收购对象。 二、狂砸数十亿美元,Salesforce大投生成式AI创企 Hugging Face此轮融资的价值反映了投资者对AI公司的持续热捧,而The Information认为这一趋势正是由OpenAI引发的。 从Anthropic、Inflection AI等AI大模型开发商,到Character.AI、Runway等AI驱动型应用开发商,都以10亿美元或更高的估值获得了融资——尽管它们目前营收微薄。 最近几个月,Salesforce也持续积极地为AI初创公司提供资金。 3月,Salesforce启动了一项2.5亿美元的大规模生成式AI风投基金,超过其2023财年的净利润2亿美元。其AI首席执行官克莱拉·施(Clara Shih)称,该基金将用于“培育下一代生成式AI初创公司”。此后,该基金投资了Cohere、Anthropic、You.com等前沿的AI技术公司。 ▲5月23日,Salesforce宣布投资Anthropic(图源:Salesforce官网) 6月12日,Salesforce宣布将该基金规模从2.5亿美元扩大到5亿美元。Salesforce Ventures的执行合伙人保罗·德鲁斯(Paul Drews)在一份声明中称,扩大基金规模使公司能够“与更多创业者合作……加速开发企业变革性的 AI 解决方案”。 6月29日,Salesforce宣布,未来五年将向其英国业务投资40亿美元,专注于数字化转型和AI。公司表示,40亿美元的计划是基于其2018年至2023年这五年间在英投资25亿美元的基础制定的。贝尼奥夫称:“AI正以我们从未想象过的方式重塑世界,改变商业模式。将来,每家公司都要以AI为先。” 三、将AI功能融入产品,联合OpenAI推出专用ChatGPT 除了投资AI初创公司外,Salesforce还积极地将新的AI功能融入自己的软件产品中,因为它的一个主要竞争对手微软正在加速前进。 微软的GitHub部门销售AI编码助手,Azure云部门销售人工智能模型,Office 365应用程序中也推出了新的AI功能,可以总结文本或撰写论文和电子邮件。 今年3月,Salesforce联合OpenAI推出了适用于企业通信平台Slack的ChatGPT应用程序,可直接在Slack中提供即时对话摘要、研究工具和写作帮助。 ▲Salesforce推出适用于Slack的ChatGPT应用(图源:Salesforce官网) 同时,Salesforce还发布生成式AI产品Einstein GPT,称其是“全球第一个用于CRM(客户关系管理)的生成式AI”,可在销售、服务、营销、商业等领域提供AI创建的内容。例如,Einstein GPT可以为销售人员生成个性化电子邮件以发送给客户,为客服人员生成具体响应以更快地回答客户问题,为营销人员生成有针对性的内容以提高营销活动响应率,为开发人员自动生成代码等。 ▲Salesforce发布Einstein GPT(图源:Salesforce官网) 6月12日,Salesforce宣布推出以Einstein GPT为核心的AI云,通过将AI、数据、分析和自动化结合在一起,提供面向企业的实时生成式AI。其竞争对手AWS和谷歌云等也开始在出售AI软件的同时,出售第三方模型的使用权,以及用于训练AI模型的专用服务器。 结语:Salesforce积极追赶生成式AI热潮 Salesforce近日领投了新兴AI社区Hugging Face,后者的最新估值较上轮投资直接翻倍。近几个月来,Salesforce持续积极追赶生成式AI热潮,设立AI基金、推出AI产品。 Salesforce的努力也得到了一定的回报。其5月发布的2024财年第一季度财报显示,该公司第一季度营收82.5亿美元,同比增长11%。Salesforce对未来发展持乐观态度,预计第二季度营收85.1至85.3亿美元,同比增长10%。 Salesforce未来能否达成这一目标,我们会持续关注。
百度二季度净利增长44%,李彦宏:将文心一言看作新流量渠道
得益于在线营销业务的表现和经营杠杆推动,百度基本盘业务增长提速。对于外界较为关注的生成式AI,李彦宏称,年底将推文心大模型4.0版。 8月22日,百度(Nasdaq:BIDU,09888.HK)发布了截至2023年6月30日的第二季度未经审计的财务报告。第二季度,百度实现营收341亿元,同比增长15%;非美国通用会计准则(non-GAAP)归属百度的净利润达到80亿元,同比增长44%;营收和利润均大幅增长,超市场预期。此前分析师预估非公认会计准则下,百度每股美国存托股稀释收益为16.81元,数据显示二季度收益为22.55元。 在随后的财报电话会上,百度创始人、董事长兼首席执行官李彦宏大部分时间在回复关于大模型、生成式AI的问题,他表示,能做基础模型的企业只有少数几家,在新版本推出之前,百度会推动当前版本的使用,让不同行业的应用和场景进行探索。 此外,李彦宏称,他对广告营销业务的前景表示乐观,预计下半年会继续看到百度在线营销业务明显的复苏趋势。 AI产品变现前景如何? 财报在披露经营摘要时,将文心一言的表现列在了首位,先于移动生态、智能云、智能驾驶等业务,但财报并未披露文心一言为百度带来的收入贡献。财报称, 2023年5月,百度推出了文心大模型(ERNIE 3.5),这是百度对话式人工智能机器人文心一言的最新基础模型。根据IDC于2023年7月发布的最新AI大模型技术能力报告,ERNIE 3.5在算法、行业覆盖、开发者工具及生态系统等多个领域表现优异。 财报会上,李彦宏在回答AI产品变现前景如何问题时表示:“AI原生思维很重要,我们已经在重构用户的搜索体验,在接触过加入文心一言功能的百度搜索服务后,用户会问更多以前在平台上很少被问到过的问题,并且会有多轮的对话和互动,这同传统使用搜索服务的用户行为有很大的不同。从点击率上看,有明显增长,再往后可以转化为留存率。” 李彦宏说,百度将文心一言看作为一个新的流量渠道,把用户和百度以及其他第三方APP连接在一起,满足用户的需求。比如,百度文库的“AI文档助手”功能发布后,用户的使用时长翻了一番还多,7日留存率提升了将近10%,相信“AI文档助手”功能可以将更多非付费用户转化为付费用户,并且付费用户也会愿意为百度未来推出更多的功能额外支付费用。 总结来看,李彦宏认为,用户的反馈令人鼓舞,这是百度未来基于大型语言模型和生成式人工智能技术重新构建公司产品的一个开始。同时,百度也看到大语言模型重建公司广告业务,提升商业变现方面的好机会。比如,文心一言有助于提升广告的精准投放能力和竞价系统,而生成式人工智能技术也将推动百度各类产品的市场份额增长,成为百度在线营销业务增长的驱动力。 百度智能云总裁沈抖也在会上谈及人工智能技术对云业务的影响,并表示,现在谈关于经营模式的问题还为时尚早,“除了为客户提供基于人工智能技术的计算基础设施之外,我们也在考虑向客户收取使用文心一言服务,或者像AI编码助手Comate在内等其他人工智能应用的费用,我们也可以向客户收取再培训和在百度平台运营其自有模型的费用,或者向客户的私有云部署百度基础模型,然后按项目收取费用。我们预计人工智能这一新的机遇将逐步推升公司的营收增长,未来长期的发展潜力巨大,为了向客户提供更优质的服务,我们将持续在文心一言方面的投入。”沈抖说。 百度首席财务官罗戎则表示将继续坚定投资AI,在未来几个季度加大对大语言模型和生成式AI的投入。 值得关注的是,该季度,百度的研发费用为64亿元,同比增长1%,主要是由于支持文心一言研究投入的服务器折旧费用和云相关费用增加,部分被人员相关费用的减少所抵消。 在上一季度,百度高管就在电话会上披露,百度已就文心一言进行了相关的监管审批,在获得最终审批后,会大规模向更多的用户部署。在二季度财报会上,李彦宏重申百度正在等待监管方面的批准,但未提及可能获取批准的具体时间。 据悉,4月11日,国家互联网信息办公室发布的关于《生成式人工智能服务管理办法(征求意见稿)》提出,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。《生成式人工智能服务管理暂行办法》已于8月15日正式施行,这也是我国首个针对生成式人工智能产业的规范性政策。 在线营销业务复苏 百度核心(Baidu Core,即搜索服务与交易服务的组合)是百度的基本盘,也是其现金牛业务。 财报显示,二季度,百度核心收入264亿元,同比增长14%。其中,在线营销收入为196亿元,同比增长15%,非在线营销收入68亿元,同比增长12%。百度核心经营利润(non-GAAP)同比增长27%至65.1亿元,经营利润率为25%,相比2022年第二季度的22%和2023年第一季度的23%有所提升。百度核心在经营中产生了约97亿元净现金流。 用户数据上,财报显示,2023年6月,百度App的MAU(月活跃用户)达到6.77亿,同比增长8%。 综合来看,百度在线营销业务延续了上一季度的复苏态势,而在去年四个季度,百度的在线营销业务都出现了同比负增长。在一季度时,医疗保健行业的营销已经回到疫情前水平,旅游业因五一长假的到来也贡献明显。李彦宏在谈及在线营销业务二季度表现时也表示:“垂直行业方面,新冠疫情后复苏推动了包括医疗保健,商务服务,本地服务和旅游等行业的表现持续优于其他行业。同时,二季度电商行业继续增长,并且保持了对公司在线营销服务营收贡献最大行业的地位,争夺电商行业客户的竞争非常激烈,越来越多的商家意识到百度平台的价值,寄希望于百度平台获取新用户和实现销售额,以及提升既有顾客的复购率。” 李彦宏称,预计下半年广告业务的恢复势头还将持续,搜索仍将是效果广告客户实现营销效果的最有效方式,但考虑到去年三季度的高基数,预计三季度的业务增速可能不及二季度高。此外,通过大模型以及生成式AI,百度在广告模式创新和个性化广告方面等广告技术方面取得进展,预计这些技术也将推动公司三季度营收。 若从其他细分业务表现来看,百度云的业绩并未在财报中披露,李彦宏在电话会议上表示,百度云在一季度实现首次盈利,二季度持续盈利(non-GAAP),收入同比增长5%至45亿元。 上一季度,百度云收入同比增长8%至42亿元,同比数据来看,智能云业务增长放缓。据悉,百度从去年就在努力提升云业务的利润率水平,比如淘汰一些低质量的产品与业务、为关键使用场景打造标准化的人工智能解决方案,以便于将其复制等。各大券商报告也预见了二季度云业务增速可能放缓,有券商指出,云计算业务受到智能交通项目预算收紧及汇款问题等影响,预计二季度同比增长在低个位数。 萝卜快跑运营情况方面,李彦宏表示,全无人自动驾驶运营区域扩大和车队规模增加的同时,运营效率也在提高,每车每公里成本降低。与此同时,萝卜快跑每日平均订单量和每笔订单收入也大幅增长。第二季度,萝卜快跑为公众提供的乘车服务达到71.4万次,同比增长149%,截至2023年6月30日,萝卜快跑累计向公众提供的乘车服务数量达到330万次。 截至2023年6月30日,百度的现金、现金等价物、受限制资金及短期投资(不包括爱奇艺)为1969亿元,自由现金流为人民币79亿元,自由现金流(不包括爱奇艺)为71亿元。 或得益于二季度财报超预期,百度昨日美股盘前涨超4%,随后股价有所回落,截至收盘,百度涨2.75%,报128.360美元/股。
倪光南:RISC-V成为中国多领域CPU架构首选
集微网报道 2023 RISC-V中国峰会(RISC-V Summit China 2023)于8月23日至25日在京举行。本届峰会以“RISC-V生态共建”为主题,对RISC-V产业发展进行了深入探讨。中国工程院院士倪光南在致辞中指出,开源RISC-V架构对世界芯片领域技术创新和产业变革注入了强大的动力,RISC-V架构采取开源模式使得它的技术会更迅速地反馈,它成果能更容易地共享,对推动全球芯片产业做出了卓越的贡献。 倪光南表示,中国RISC-V产业应当始终坚持开放、合作、共享、共治,防止碎片化,推动RISC-V一体化生态的管理。我们将积极协同RISC-V International等社区建设、标准制定、学术交流、应用推广、人才培养等方面,促进RISC-V的持续蓬勃发展。 中国“芯”一直是中国各界关注的重点,特别RISC-V出现以后,由于它的架构先进,并且采取开源模式,也得到了中国政、产、学、研、用、资等各界的支持。今天RISC-V已经成为中国许多领域CPU架构的首选,包括IoT、工业、医疗、智能网联汽车、通用计算、通信计算等,这种趋势还在持续地发展。中国各界积极支持RISC-V是基于对科学开放精神的创造,是基于对时代和科技发展趋势的洞察和把握。 倪光南指出,今天开源软件已经成为软件发展的指标,我们相信开源RISC-V也将在硬件领域创造历史的成就。中国愿意和世界协同创新,鼎力打造强大繁荣的RISC-V生态,有力支撑RISC-V跻身于世界主流CPU的发展,从而在CPU领域形成x86、ARM和RISC-V三足鼎立的格局。
iOS 17 Beta 7暗示,苹果iPhone 15 Pro的Action按键支持新的震动反馈模式
IT之家 8 月 23 日消息,苹果预计将在下个月发布 iPhone 15 系列新机,而对于 Pro 机型,有传言称该公司将用新的“操作按键(Action Button)”取代静音键。虽然 iOS 17 之前的测试版已经透露了这个按键的功能,但今天的 iOS 17 Beta 7 测试版带来了更多线索。 9to5Mac 发现,iOS 17 Beta 7 为用户启用或禁用静音模式添加了新的震动反馈模式。当用户在模式之间切换时,新模式使手机振动更加明显,这对于带有操作按键的 iPhone 15 Pro 新机来说应该非常有用。 IT之家注意到,在以前版本的 iOS 中,只有当 iPhone 进入静音模式时才会有快速震动反馈,而在关闭静音模式时则不会有快速震动反馈。 这次升级 iOS 17 Beta 7 后,关闭静音模式时也会振动。 关闭静音模式时,9to5Mac 复制出了新的震动模式,称感觉就像用力敲击一下一样。通过静音切换器,用户可以轻松了解手机何时处于静音模式。但如果切换器被固态按键取代,震动反馈将有助于向用户指示按下按键时手机所处的模式。 根据此前 MacRumors 发现的代码片段,取代静音开关的新操作按键将有很多可以分配给点击的选项。例如,用户可以选择用 Siri 快捷方式替换启用或禁用静音模式的操作,或者选择打开相机应用、打开手电筒、触发专注模式或录制语音备忘录。 除了新的操作按键外,iPhone 15 Pro 预计还将采用新设计,采用钛金属框架、边框更窄,搭载更高效的 A17 芯片,用 USB-C 取代 Lightning 接口,据传 iPhone 15 Pro Max 还将配备潜望式镜头,以实现更好的光学变焦。 据悉,苹果预计将于 9 月 12 日或 13 日举行 iPhone 15 系列发布会。
史上最大更新?iPhone 15 Pro被曝21项变化,Lighting端口成为历史
8月23日,一则“iPhone 15 Pro被曝21项变化”的消息冲上社交平台热搜榜第一。 据MacRumors基于彭博社的马克・古尔曼、DSCC 的 Rose Young、天风证券的郭明錤等诸多可靠信息源,汇总了苹果iPhone 15 Pro机型会带来的21项关键性改变,比如iPhone 15系列将支持最高35W的充电功率,这也是iPhone历史上首次充电速度突破30W。 同时,值得注意的是,此次苹果彻底抛弃了一直沿用的Lighting数据线,全新iPhone 15系列将配备一根全新的USB-C to C编织数据线。这意味着,苹果的数据传输与充电方式将与主流的安卓手机变得一样。但是,苹果的USB-C数据线能否与安卓手机实现共用,还有待苹果在发布会上揭晓。 图源@新浪微博 公开信息显示,苹果将于9月12日举行秋季新品发布会,预估将于9月22日开始正式发售iPhone 15系列。 弃用Lighting端口,苹果向欧盟妥协? Lighting端口,是由苹果公司所制作的专属连接器规格,首次出现在2012年所发布的iPhone 5、iPod Touch及iPod nano等新款手持式消费性电子产品。 当时,Lighting端口是移动市场首个成为主流的正反可插接口,由于插头采用了对称式设计,所以插头的上下两面均分布有相同的针脚。无论用户以何种方向将插头插入接口,其中一组针脚都会同基座中的针脚相连接。 后来,安卓阵营推出的USB Type-C也跟着采用这种设计。不同的是,Lighting的引脚在外面,USB-C接头的引脚则在里面,且Lighting的插座引脚只有一边,USB-C则两边都有。不过,在传输速率和充电效率上,Type-C相比于Lighting要快上很多。 Type-C在数据传输上,最高可支持40Gb/s,最大充电功率可以达到100W;最新的iPhone14Pro的Lighting端口,数据传输效率最高则为480Mb/s,支持27W的有线快充。 同时,由于欧盟规定消费性电子产品需统一使用Micro USB做为连接器,因此以往苹果公司在欧盟地区销售的消费性电子产品附有30-Pin连接器转接Micro USB的转换器。 2021年9月23日,欧盟委员会表示,为减少消费者的不便及不必要的浪费,将会向欧洲议会提案,要求在欧盟出售的电子设备,例如智能手机、平板电脑、数字相机及游戏机手掣等,应统一采用USB-C接口,并会提供两年时间的调整期。欧盟委员会表明有关决定并非针对苹果公司,但经历长达十年的谈判,各电子设备供应商仍未能达成共识,因此需要作出有关决定。 根据MFi(Made for iPhone)计划,制造商生产Lighting连接器必须向苹果缴纳专利授权费。数据显示,通过Mfi认证,苹果每年的专利费高达30亿美元以上。曾有机构预测苹果通过Lightning接口,每年的营收超50亿美元。 不过,2022年10月,欧洲议会以压倒性多数(602票赞成,13票反对,8票弃权)通过一项新规,要求从2024年开始,所有手机和平板电脑等新出厂的便携智能设备都要采用USB-C充电接口。这意味着,此次9月的苹果发布会,将是iPhone转向USB-C接口的最后窗口期。 当然,更换USB-C接口后,iPhone 15系列的数据传输效率也将达到最高 20Gb / s ——40Gb / s 。同时,有线充电效率最高支持 35W 有线充电。至于苹果USB-C能否与安卓通用,还存在疑问,但这已经是苹果难得的改变了。 消失的静音拨片和2TB大内存 根据曝光的内容,与Lighting端口一同消失的,还有iPhone的静音拨片。 iPhone 自2007年推出以来,静音键一直是采用上下拨动的设计,市场普遍认为这个设计反馈直接、简单易用。但是,iPhone 15系列可能将沿用了16年的静音拨片,改为“动作按钮”(Action button)作为替代,类似于iPhone 7时代的Home键,用Taptic Engine线性马达来模拟按键反馈。 与此同时,消息还称iPhone 15Pro将支持最大2TB的存储容量。如果属实,这将是苹果有史以来配备最大闪存的智能手机。 进入2023年,大容量内存和存储空间已经成为消费电子行业的趋势。一直以来,关乎智能手机、PC体验最核心的两个指标,就是RAM和ROM的大小。RAM一般指随机存储器,更通俗的名字是内存。ROM一般指闪存,也就是用户存放app、照片、视频、音乐的存储空间。 RAM和ROM对应的产品元器件分别对应DRAM(动态随机存储)和NAND(闪存)。而之所以大存储手机成为2023年的主流,是因为上游元器件的价格持续下探。 市场研究机构TrendForce的最新数据显示,用于手机和个人电脑的DRAM内存的平均价格在去年第四季度暴跌了34.4%,为2008年以来最大跌幅,而上一季度的跌幅为31.4%。销售给数据中心和企业客户的主要产品闪存(NAND)分别跌27.7%、32%,两个季度的跌幅均创2008年以来最大。 2023年,根据Gartner的数据显示:DRAM在2023 年大部分时间都将处于产能过剩,这一趋势直到第三季度;2023 年 DRAM 收入将下降 44.4% 至 438 亿美元,整体平均售价 (ASP) 将下降 50.4%。SK海力士的首席财务官金佑贤在7月底的财报发布会上表示:“NAND的库存水平很高,将进一步减产5%~10%”。 所以,苹果选择在2023年推出2TB的iPhone 15Pro,也在情理之中。 至于iPhone 15Pro系列的最终价格,彭博社 Mark Gurman(古尔曼)表示,iPhone 15 系列的价格会“小幅”上涨,尤其是 iPhone 15 Pro / Pro Max,它将采用新的钛金属机身设计和升级的相机系统。 英国巴克莱银行分析师蒂姆・朗(Tim Long)则称, iPhone 15 Pro 的价格将比 iPhone 14 Pro 高出 100 美元,起售价 1099 美元;iPhone 15 Pro Max 将比 iPhone 14 Pro Max 贵 100 至 200 美元,起售价 1199/1299 美元。
一加下沉,沦为OPPO工具人
作者 | 林石 新能源汽车厂商撕个不停,手机厂商也不甘寂寞。 上周举行的一加Ace 2 Pro发布会上,OPPO一加中国区总裁李杰放了一句狠话,“不要温和地走进这个赛场”。发布会的PPT,更是直接放上了经典的对比图,对比的是一加Ace系列与“友商K系列”的销量比例。 就差没把红米打在屏幕上了。 一加Ace 2 Pro发布会截图 这一次的争端事出有因。红米在发布最新机型K60至尊版的前一天,打出了“后性能时代”的标签,号称“告别单纯的硬件堆叠,告别参数的无限内卷。 而就在红米发布会当天,一加在官方微博发布了几乎是针锋相对的宣传语,“只会选这个星球上能选到的最强手机芯片”、“独显芯片、游戏超帧,那是上一代的卖点”,直指红米K60至尊版。 原本定位“不将就”的一加,却频频“碰瓷”以性价比著称的红米,表面看是手机市场萎靡状态下再正常不过的又一次价格内卷,实则是一加已然成为OPPO进攻中端市场的工具人。 而这场发生在中端市场的大战,才刚刚开始。 01 陌生的一加 对于一加的老用户而言,一加已经变得比以往陌生许多。 2013年,曾在OPPO任职超过15年的刘作虎,在得到OPPO创始人兼CEO陈明永的允许后,离职创办一加手机。当时还有一个插曲是,小米创始人雷军曾转发刘作虎微博,欢迎后者加入互联网手机阵营。刘作虎的回复则是,“不知道什么是互联网手机”。雷军随后删除了这条转发。 彼时,“为发烧而生”的小米第一代手机刚刚上市两年,荣耀刚刚从华为的产品线中孵化出来,一加选择了一条颇为特别的路:只造旗舰机,以国际化为突破口。 一加几乎是按着刘作虎规划的路线走的。一加手机1发布之后,在国产手机尚未纷纷把目光投向国外的时候,刘作虎已经带着一加来到了旧金山开发布会。一众外媒都出人意料地首次刊登来自中国的手机评测,“It's hard to imagine a better phone for Android geeks”(难以想象有这么适合安卓发烧友的手机)。 到2017年,一加全年销售额为14亿美元(约百亿元人民币),超70%的销量来自海外市场。Counterpoint数据显示,2018年,一加跻身全球高端智能手机(售价超400美元)市场份额前五,是高端手机市场增长最快的品牌之一。 一加2021年在芬兰获得超过20%的市场份额,来源:微博“刘作虎” 然而一切都在2020年开始骤然转向。 2020年9月,刘作虎正式回归OPPO,担任欧加控股高级副总裁,公司产品线总负责人,但仍担任一加CEO;第二年,OPPO与一加宣布合并,原OPPO中国区用户运营负责人李杰将出任一加中国区总裁。 对一加的改造随之而来。 为了出圈争取大众市场,原本备受“搞机党”喜爱的一加氢OS操作系统,自2021年的一加9系列开始,出厂预置变为OPPO的color os系统。 同年,又推出“亲民机型”一加9R系列,该系列销量一度超越数字系列的旗舰机型销量,却因为最新上线的操作系统没能第一时间适配该机型而遭遇恶评。以至于新周刊微博甚至用了“2021年的一加,都作了哪些“恶”?”来征集评论。 来到2022年,一加继续“下沉”,推出了主打电竞手机的一加Ace系列手机,对比3999元起售的数字系列旗舰,把价格下探到了起售价2499元。 到了今年,一加干脆卸下独立、小众、高端等一系列标签。2月发布的Ace2机型,一加第一次主动地往自己身上贴上了“极致性价比”的标签。同时将目标瞄准了性价比著称的红米旗舰手机K60系列,三款配置机型其中两款均低于K60同款配置机型发售价,甚至倒逼红米在一加Ace2发售日当天宣布降价。 多年以前,“极致性价比”曾是一加用户用来夸赞一加售价良心的话语,而刘作虎对此不以为然,“有时候我跟用户交流,就有用户直接跟我说觉得一加的性价比是最好的,我说你给我打住,千万别给我提性价比,我最讨厌提性价比。” 不知,这算不算我们终将活成自己最讨厌的人。 02 OPPO保住市场的工具人 改造过后的一加,赢在了销量。 年初的Ace2发售之后,一加很快在官网宣布战绩,,“京东天猫首销日销量超友商A和友商B首销日销量的两倍!成为 2022-2023 所有安卓手机首销日销量冠军!”。 受Ace系列的销量拉动,2023年上半年,一加销量同比增长更是达到了惊人的335%。 当然,这一方面也印证了,当初的一加究竟过得有多憋屈。 这个当初并不算为人熟知的品牌,直到2021年全球出货量才首次突破1000万台。作为对比,这一年小米的出货量是1.91亿台,其中主打低端市场的红米又占了其中大头,根据CINNO Research 2022年5月发布的数据,红米销量占小米总销量的83.6%。 如今风水轮流转,一加选择妥协,也终于可以参与一线手机品牌的牌桌。 这也算是完成了OPPO的小目标。 刘作虎回归OPPO之初,曾一度被外界质疑是否要放弃一加品牌。结果是去年的9周年活动上,刘作虎宣布 OPPO 一加正式开启双品牌战略,OPPO会在未来三年给一加投入100 亿,一加将入驻 OPPO 全国超 5000 家线下门店以及共享超 1000 家售后网点。 李杰则是放话,要在3年内做到2000元以上线上市场第一名,为此“3年内硬件综合净利润率可以为0”。 砸钱,给技术、给供应链、给渠道,目标都是通过一加切入中端市场,保住OPPO的市场份额。 一加9周年发布会,刘作虎上台演讲,来源:发布会截图 毕竟OPPO的危机感实在太强了。 过去多年里,OPPO长期深耕下沉市场,通过扩大加盟建立了庞大的线下体系,得以一举完成了对小米、华为的逆袭。但疫情的出现却暴露了OPPO在线上渠道建设的乏力。 过去三年,OPPO在国内手机市场的份额一直与线下形势息息相关,2020年的市场份额为16%、2021年回弹到20.5%、2022年又跌落到16.8%。 与此同时,OPPO 正在尝试冲击高端市场,但无论是Find X系列与折叠屏手机,都一直未有起色。反而是原本就冲击高端市场多年的一加,成了与OPPO发生碰撞的自己人。 此外,OPPO旗下的realme子品牌,通过堆料与低价策略一度取得成功, 2018年成立,2021年全球销量破亿,成为史上最快出货量超过一亿部的品牌。然而被寄予厚望的realme,既摆脱不了低价标签,试水推出的中高端机型也不温不火。 如今,一加直接肩负起“卡位”红米的重任。今年2月,一加发布Ace2机型,第一次主动地往自己身上贴上了“极致性价比”的标签——这曾是帮助红米制胜手机市场的法宝。 一加Ace2瞄准的,则是红米推出的旗舰手机红米K60。三款配置机型其中两款均低于K60同款配置机型发售价,其中12GB+256GB的 Ace 2 起步机型价格仅 2799 元, 对比红米K60的 同配置机型发售价为 2999 元,价格相差200元。 此次红米K60至尊版与一加Ace2 pro都选在8月进行发布,红米在先,一加在后。但这一次,一加没能在价格上再度上演奇袭。红米在价格内卷方面可谓做到了极致,红米K60至尊版最低配置的12G+256G售价仅为2599元,而一加Ace2 pro的同配置最低售价为2999元。 李杰很快就在微博放话,“不要把这个世界让给平庸的产品”,矛头直指红米。他在微博中将一加定义为“产品力优先”,并将红米K60至尊版与一加Ace2 pro的部分配置进行了对比,称“不会为了凑个显得便宜的价格,在用户看得见的看不见的地方到处阉割”,暗示红米属于“卡价位优先”。 对于OPPO而言,能够对中端市场进行“降维打击”的一加,成为了OPPO保住市场份额的最后希望。 03 两难境地 OPPO的战略似乎起到了不错的效果。 刚刚发布的一加ACE2 pro的预售据说已经破了安卓机纪录,而今年上半年,OPPO已经连续两个季度夺回了中国手机市场份额第一。 但无论对于OPPO还是一加而言,尴尬的局面仍然存在。 原本作为旗舰机型的数字系列,销量已经被在中端市场发售的Ace系列抢去了风头。举个例子就是,假如红米K60系列从销量和销售额都远超小米数字系列。失去了自主性的一加,从供应链、渠道到资金都高度依赖OPPO,一旦数字系列成为鸡肋,很有可能有一天成为弃子。 毕竟对于OPPO而言,相较于一个工具人,同在高端市场发力的Find X系列和折叠屏才是真正的亲儿子。 没了个性,但终归赢了销量,这还一切好说。但没有自主权,“双品牌”的饼终究难圆。 刘作虎在OPPO Find X6 发布会现场,来源:发布会截图 与此同时,是不是放手将中端市场交给一加去打,仍然是OPPO值得思考的问题。 一方面是,中端市场的内卷已成趋势,OPPO需要提供的弹药可能会越来越多。 在过去两年,大量原本的旗舰、次旗舰的配置已经被陆续下放至中端机,譬如二季度华为发布的nova 11系列上,卫星通信、昆仑玻璃、可变光圈这些曾专属于高端Mate系列的功能,也都已经全部下放。更多类似的操作可能会在各家手机厂商身上陆续出现。 原本用在旗舰手机上的骁龙8+芯片,今年用在了中端机上,而12GB内存乃至24GB运行内存、512GB乃至1TB的大内存,都有可能会成为中端机的标配。 与此同时,在技术瓶颈尚未突破的现实之下,硬件的同质化可能会导致最终决定胜负的就是价格的内卷。而这恰好是一加缺乏足够竞争力的地方。 OPPO有没有支撑一加打价格战的底气,也就成了一个问题。 与此同时,当线下市场恢复起色,作为独立品牌且长期在电商市场厮混的一加,能给一直扎根线下的OPPO带来多大的帮助仍然是个未知数。 打一针强心针固然是好,但如果对一加的投入不能给OPPO带来长期的价值,结局注定没有幸福可言。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。