行业分类:
加载中...
头条分类:
加载中...
违规开展股票质押业务等“五宗罪”,中原证券连收8张罚单
4月26日,河南证监局对当地券商中原证券(601375.SH)开出8张罚单,直指业务管理、合规风控问题。 同日,中原证券披露了2024年一季度营收情况,报告期内营业收入6.44亿元,同比增长38.93%;归属于上市公司股东的净利润1.31亿元,同比增长85.53%。 河南证监局指出,中原证券存在合规风控缺位,违规开展股票质押业务、债券销售业务,公司员工兼职管理、廉洁管理不到位等5大问题。 合规管理和风险管理上,未制定母子公司统一授信管理制度,未对个别重大投资项目风险进行审慎评估。对境外子公司、另类子公司合规风险管控不到位,未有效强化合规风险管理。 在开展股票质押业务时,风险管理不审慎、内控管理不到位。作为承销商,中原证券通过股票质押业务向参与认购债券的投资者提供财务资助。 在健全合规风控制度前实质开展债券销售业务,收取发行人票面利息补差费用,为他人规避监管提供便利。未严格落实金融资产重分类内控要求。 从业人员管理方面,兼职管理不到位,员工投资行为管控存在薄弱环节,防范员工代客理财行为管控机制不完善。廉洁从业事前管控不到位,个别岗位人员发生廉洁从业风险事件。 根据相关规定,河南证监局决定对中原证券实施责令改正的监督管理措施,要求其自收到该决定书60日内提交书面整改报告。 上述业务出现违规,直属领导难脱责。在对中原证券业务违规进行监管的同时,7名业务负责人、高层领导也受到了河南证监局的处罚。 2023年年报显示,中原证券境外子公司有8家,分别是中州国际金融控股有限公司、中州国际证券、中州国际期货、中州国际投资有限公司、中州国际融资有限公司、中州国际控股有限公司、中州国际金融集团股份有限公司、Wending Zhongyuan Company Limited公司。 境外业务营收-0.32亿元,增加0.49亿元。 中原证券通过子公司中州蓝海投资管理有限公司(下称:中州蓝海)开展另类投资业务。截至2023年底,中州蓝海总资产为27.42亿元,净资产27.39亿元;实现营业收入-7722.94万元,净利润-9802.16万元。 3月1日,中原证券因组织架构规范不合理收到河南证监局的罚单。 据披露,中原证券2020年违反规定由子公司中州蓝海协议收购中原小贷5%股权;并且,截至目前仍通过中州蓝海持有中原小贷39%股权,未按监管要求规范到位。另外,中原证券私募子公司整改不彻底不到位。 以上情形反映出中原证券合规意识薄弱,内控机制不完善。河南证监局决定对其采取责令改正的行政监管措施,要求中原证券根据相关制度规定对有关人员进行内部问责,并及时提交书面整改报告。 来源:界面新闻
两位高管遭免职、关闭部分尾部门店,永辉超市三年亏逾80亿元
永辉超市(601933.SH)2023年年报姗姗而来,数据显示,2023年公司仍然录得亏损,这已是连续亏损的第三年,不过好在亏损额在逐年减少中。与此同时,公司高层方面近期也出现了一些调动,三位副总裁辞去职务,一位因“身体原因”,一位因“无法胜任”,一位因“个人原因”,另外董秘和财务总监的位置有换人,“无法胜任”的这位高管,任职最早可以追溯到2009年,工龄接近15年。 为了盘活资产,永辉超市近期也在不断出售资产,前期兜售过红旗连锁(002697.SZ)的股权,以及大连万达商业管理集团股份有限公司(下称万达商管)的股份,而这一次又打算将“互联网金融服务平台”的股权转让,回笼资金数亿元。 连亏3年 根据4月27日披露,永辉超市2023年实现营业收入786.42亿元,同比下滑了12.71%,净利润为-13.29亿元,亏损额较2022年有所减少。2022年永辉超市亏了27.63亿元,2021年亏了39.44亿元,算起来,公司已连续3年亏损。公司表示此次不进行分配利润,不进行资本公积金转增股本和其他形式的分配。 对于2023年营业收入的下滑,永辉超市表示一方面是因为公司近年来持续对门店进行调整,主动关闭了持续亏损的门店,另外一方面2023年国民经济持续逐步恢复中,实体零售行业整体遭受了前所未有的挑战,在居民消费意愿及消费能力都有所下滑的情况下,门店收入也出现下滑的情况。对于业绩亏损,永辉超市表示一则收入下降毛利额下降,二则长期股权投资计提减值损失4.36亿元,三来对集团长期亏损及准备闭店门店的资产及销售网络计提减值0.87亿元。 据悉,永辉超市在2023年实现新开门店12家,关闭门店45家,新签约门店10家。截至2023年12月31日,超市业务已进入全国29个省市,门店共计1000家。看来,为应对严峻的市场挑战,关闭部分尾部门店是永辉超市降本增效的办法之一。 2023年永辉超市线上业务营业收入161亿元,占比20.5%。“永辉生活”自营到家业务已覆盖920家门店,实现销售额83.8亿元,日均单量30.7万单,月平均复购率为50%。报告期内第三方平台到家业务已覆盖910家门店,实现销售额77亿元,同比增长8.15%,日均单量20.8万单。其中自营平台——“永辉生活”APP注册会员数已突破1.15亿户,同比增长13.86%。 于2024年,永辉超市表示,将继续聚焦主业,深化数字化转型,创新加工餐饮场景。 来源:公告 至于2024年一季度,数据显示,永辉超市营业收入216.65亿元,同比下滑8.98%,净利润7.36亿元,同比增长了4.57%。一季度公司新开3家门店,新签约2家超市门店。3月末的股东总户数为20.15万。 人事变动 伴随着定期报告的输出,永辉超市也有人事方面的变动。 据悉,4月25日,公司召开董事会,审议并通过了《关于免去公司高级管理人员的议案》。 因公司正处转型时期,经综合评估,公司副总裁吴光旺的能力无法胜任副总裁职务,提请免去副总裁职务;公司副总裁林建华因身体原因,经双方协商,提请免去副总裁职务,公司另有任用;经公司董事会审议后,认为上述人员已不再适合担任公司的高级管理人员职务,同意免去上述人员的公司副总裁职务。 来源:公告 而在此前的2月20日,永辉超市公告称副总裁彭华生提交书面辞职报,因个人原因,向公司董事会提出辞去公司副总裁职务,辞职后不在上市公司担任任何职务。 2月7日公告,永辉超市收到监事、监事会主席熊厚富的辞任函,因工作原因向公司监事会辞去监事及监事会主席一职,辞职后仍在公司担任其他职务。随即公司董秘吴乐峰提交辞任申请,因工作调动申请辞去董秘一职,辞任后经公司第五届监事会第九次会议补充提名为第五届监事会监事候选人。 1月3日永辉超市公告,财务总监黄明月因工作调动提交辞任申请,申请辞去财务总监一职,辞任后担任公司财务共享中心负责人一职。公司另聘了吴凯之为公司财务总监。 来源:公告 界面新闻注意到,在2010年的招股说明书中,就可以看到吴光旺和彭华生的名字,吴光旺是永辉超市的职工监事,最早2009年8月就担任监事兼信息总监,也历任永辉集团信息部经理、总监,在2008年时还被评为中国零售业优秀CIO。吴光旺和彭华生也均与股东福建汇银投资股份有限公司(下称福建汇银)有关,其中吴光旺为福建汇银监事和股东,彭华生为福建汇银法人和股东,福建汇银则是永辉超市发起人之一,发行前持股比例6.62%。后续随着福建汇银的减持,已从永辉超市股东名单中消失。 盘活资产 熟悉永辉超市的投资者应该会留意到,公司也在着意修剪旁支,以聚焦主业。 4月27日公司表示,上海派慧科技有限公司(下称派慧科技)拟向永辉超市现金购买公司持有的永辉云金科技有限公司(下称云金科技)65%的股权,转让价格为3.36亿元(预估),该交易完成后,永辉超市仍持有云金科技35%的股权,交易不构成关联交易。此交易公司表示目的是为了盘活资产,符合公司缩小投资规模的战略。永辉超市表示,交易所得的对价资金将用于公司日常运营。 据悉,派慧科技成立于2018年4月28日,2023年营业收入125.47亿元,净利润23.41亿元。而云金科技成立于2019年12月27日,公司的法人正是上述的吴光旺。云金科技2023年和2024年一季度的营业收入为1.46亿元和1238万元,净利润分别为9223万元和-2106万元。需要指出的是,永辉超市近12个月累计向云金科技及其子公司提供借款金额8.9亿元,结息1031.94万元,以上借款本金于公告日前均已归还,利息已结清。公司对云金科技其子公司未提供过任何担保。 除此外,2023年12月永辉超市还计划向向大连御锦贸易有限公司出售所持有的3.89亿股万达商管股份,占万达商管总股本的1.43%,标的股份所对应的转让价格为45.3亿元。根据相关协议,交易资金由大连御锦分八期支付。4月19日公告,永辉超市截至4月8日收到首期转让价款3亿元,收到第二期3.91亿元。 同样是在2023年12月,永辉超市决定,将持有的红旗连锁1.36亿股转让给四川商投投资有限责任公司,占红旗连锁总股本的10%,以5.88元/股来算,转让总价为8亿元,交易完成后,永辉超市仍然持股红旗连锁11%。该交易目的同样是盘活公司资产,符合公司缩小投资规模战略。截至4月26日收盘,红旗连锁股价为5.38元/股。 来源:界面新闻
城商行理财子业绩“冰火两重天”,杭银理财最能赚钱
4月即将结束,上市银行的年报季也进入尾声。 在国有银行和头部股份行发布2023年年报后,近期多家股份行和城(农)商行也完成了年报的披露,其旗下理财子公司的经营情况随之公开。 截止4月26日,从理财规模来看,城(农)商行理财子虽然与大部分股份行和国有行理财子相比仍有差距,但是目前披露相关数据的城(农)商行理财子中,多家都在2023年取得了规模上的突破。 城(农)商行中,杭银理财、宁银理财、南银理财、苏银理财和青银理财的理财规模在2023年都实现了正增长。 其中苏银理财凭借同比上升18.73%、达到5200亿元的的理财规模成为了城商行理财子规模的top1。宁银理财紧随其后,理财规模为4021亿元。 值得一提的是,恒丰理财同比增长超50%,2023年底,符合资管新规的新产品规模达到1104亿元,较年初增加369亿元的。 与此同时,2023年多数城(农)商行理财子的净利润则经历了缩水。 目前披露相关数据的城(农)商行理财子中,只有北银理财因开业时间处于2022年年底,故数据上看实现了较大净利润增长,其余城(农)商行2023年净利润的同比变化都为负值。其中渝农商理财和上银理财的净利润更是同比减少超50%。除了青银理财的净利润降幅为13.33%,其余城(农)商行理财子的净利润降幅都在20%以上。 杭银理财2023年的盈利能力最强,虽然相对2022年有所下滑,但2023年还是实现了8.83亿元的净利润,位于目前披露相关数据的城(农)商行理财子中的首位。 部分理财公司还披露了代销数据,整体来看理财公司的代销机构数量和理财规模呈正相关。 作为已披露数据的城商行中规模最大的理财子,苏银理财已与100 余家代销机构签订代理销售合作协议。 南银理财和杭银理财的渠道建设也取得了不俗成绩,2023年南银理财行外代销机构已落地业务合作93 家,理财客群覆盖全国主要省份。杭银理财期末代销规模较上年末增长 75.42%,代销客户签约数较上年末增长 112.57%。 理财产品主题的丰富和产品体系的完善也是城(农)商行银行理财子2023年的重点工作之一。 特色主题理财的创设上,城商行有所进展,与国有行理财子不同,城商行理财子的理财产品主题突出了“地区特色”:如渝农商理财结合区域特色和国家战略创设了乡村振兴 、成渝地区双城经济圈 、西部陆海新通道 、江渝传承等多个特色品牌。宁银理财紧跟国家发展战略部署,推进产品策略布局多元化,实现沪港深、智能制造、国企红利等主题策略产品落地。 值得一提的是,投研能力成为了各理财子关注的核心能力之一,多家银行理财都在2023年加强了投研能力建设。 杭银理财在财报中表示,2023年积极调整资产组合久期,抢抓波段交易机会,进一步加大低波动资产获取,为投资组合贡献稳定收益及现金流。苏银理财注重优化投资研究与资产管理的循环路径,根据大类资产轮动、市场风格变化灵活调整投资策略,推动策略研发与应用的敏捷转型。上银理财、渝农商理财等多家理财子公司也将“投研”作为关键词写入母行年报。 来源:界面新闻
被AI吓到的苹果:Siri将迎来“脑移植”,它在怕什么?
苹果将大幅改进Siri 凤凰网科技讯 北京时间5月11日,据《纽约时报》报道,去年年初的时候,苹果公司的顶级软件高管们决定,需要对公司的虚拟助手Siri进行一次“脑移植”。 苹果高管克雷格·费德里吉(Craig Federighi)和约翰·詹纳安德里亚(John Giannandrea)此前花了数周时间测试OpenAI的新聊天机器人ChatGPT,然后做出了这一决定。两名熟悉该公司工作的人士说,ChatGPT使用了生成式人工智能(AI)技术,可以写诗、编写计算机代码以及回答复杂的问题,这让Siri看起来很过时。 自从2011年推出以来,Siri一直是每部iPhone手机的默认虚拟助手。但是,这些年来,它的功能一直仅限于简单的语音命令,无法与用户进行会话式交流,而且还常常误解问题。相比之下,ChatGPT知道用户是否询问过旧金山的天气,然后提供纽约的天气情况,很贴心。 苹果意识到,新的AI技术已经超越了Siri,促使这家科技巨头启动了十多年来最大重组。为了在科技行业的AI竞赛中追赶上来,苹果把生成式AI列为了支柱项目(tent pole,电影业指大制作)。这是苹果内部的一个特殊标签,用来组织员工参与十年一次的项目。 Siri大改进 知情人士称,苹果预计将在6月10日开幕的全球开发者大会(WWDC)上展示他们的AI研究成果。届时,苹果将发布改进后的Siri,能够会话,多才多艺。Siri的底层技术将包括一个新的生成式AI系统,它将允许Siri聊天,而不是一次回答一个问题。 Siri有些过时了 Siri的升级为苹果在各项业务中全面拥抱生成式AI打响了第一枪。苹果还增加了今年新iPhone的内存,以支持新的Siri功能。该公司还讨论了从谷歌、OpenAI以及Cohere等几家公司取得AI模型的许可问题,这些模型能够补充苹果的AI功能,驱动着这些公司的聊天机器人。 截至发稿,苹果发言人不予置评。 担惊受怕 据两名熟悉苹果领导层想法的人士透露,苹果高管担心新的AI技术会威胁到该公司在全球智能手机市场的主导地位,因为它有可能取代iOS成为主要操作系统。这项新技术还可以创建一个被称为“代理”的AI应用生态系统,它可以呼叫Uber打车或安排日程,从而削弱苹果的App Store,后者的年销售额约为240亿美元。 苹果还担心,如果不能开发自己的AI系统,iPhone与其他技术相比可能会成为一个“傻瓜产品”。虽然目前不清楚有多少人经常使用Siri,但iPhone目前占据了全球智能手机利润的85%,销售额超过2000亿美元。 AI代理会削弱苹果App Store 这种紧迫感促使苹果决定取消另一个大押注:投入100亿美元的自动驾驶汽车开发项目,并重新分配数百名工程师从事AI研究。 知情人士称,苹果还在研究开发由iPhone和Mac处理器驱动的服务器。这样做可以帮助苹果节省资金,并在处理云计算、苹果设备上流程的工具之间建立一致性。 苹果没有发布聊天机器人,与ChatGPT直接竞争,而是专注于让Siri更好地处理它已经能够完成的任务,包括设置计时器、创建日程预约和向购物清单中添加物品。它还将能够总结短信内容。 苹果计划将改进后的Siri标榜为比竞争对手的AI服务更加私密的一项产品,因为它将在iPhone上处理请求,而不是在数据中心远程处理。这一策略也将为苹果节省资金。由于云计算成本高昂,ChatGPT每生成大约1000个单词,OpenAI就要花费12美分左右。 但是,苹果依赖iPhone内置的更小型AI系统,而不是依托数据中心的大型AI系统,也面临着风险。研究发现,较小的AI系统比较大的系统更容易出错,也就是所谓的幻觉。 “Siri的愿景一直是拥有一个能够理解语言和上下文的对话界面,但这是一个难题,”Siri联合创始人汤姆·格鲁伯(Tom Gruber)表示,他在苹果工作到2018年,“现在技术已经改变,应该有可能做得更好。只要不是一刀切地回答任何问题,他们就应该能够避免麻烦。” 未利用好优势 苹果在AI竞赛中拥有几个优势,包括全球有超过20亿部活跃设备,苹果可以在这些设备上推出AI产品。它还拥有一支在业界领先的半导体团队,该团队一直在开发能够为面部识别等AI任务提供动力的复杂芯片。 但是过去十年里,苹果一直无法制定出一项全面的AI战略。Siri自推出以来也没有取得重大进步,这项虚拟助手的挣扎削弱了该公司HomePod智能音箱的吸引力,因为它不能始终如一地执行简单的任务,比如完成歌曲请求。 约翰·伯基(John Burkey)曾从事Siri开发两年时间,后来创建了一个生成式AI平台Brighten.ai。他表示,Siri团队未能获得苹果内部其他团队所获得的那种关注和资源。苹果的软件、硬件等部门彼此独立运作,共享的信息有限,但AI需要融入到产品中才能取得成功。 “它没有印刻到苹果的DNA中,”伯基说,“这是一个盲点。” 人才流失 苹果还难以招募和留住领先的AI研究人员。这些年来,它收购了由AI领域领导者领导的AI公司,但是这些领导者都在几年后离开了。 他们离职的原因各不相同,但其中一个因素是苹果的保密政策。与谷歌、Meta和微软相比,该公司发表的AI研究论文要少得多,而且不像竞争对手那样参加各种会议。 “研究科学家会问:我还有什么其他选择吗?我能回到学术界吗?我能不能去研究机构,去一些能让我更加公开工作的地方?”著名AI研究员鲁斯兰·萨拉赫丁诺夫(Ruslan Salakhutdinov)表示,他在2020年离开苹果,回到卡内基梅隆大学。 最近几个月,苹果发表的AI论文数量有所增加。但一些著名的AI研究人员对这些论文的价值提出了质疑,称它们更多的是为了创造一种有意义工作的印象,而不是起到抛砖引玉的作用。 苹果实习生、加州大学圣巴巴拉分校的AI博士生傅祖瑞(tsui - jui Fu,音译)撰写了苹果最近的一篇AI论文。去年夏天,他开发了一个用书面命令编辑照片的系统,不需要使用Photoshop。他说,苹果支持这个项目,为他提供了必要的GPU来训练系统,但他没有与开发苹果产品的AI团队进行任何互动。 虽然他曾面试过Adobe和英伟达的全职工作,但他计划毕业后回到苹果,因为他认为自己在这里产生更大影响。 “苹果的AI产品和研究正在起步,但其他大多数公司的AI产品都非常成熟,”他在接受采访时表示,“在苹果,我可以有更多的空间来领导一个项目,而不仅仅是一个团队的一员。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
公司收入增长未转化为更高薪酬 谷歌员工责问高管
谷歌员工 凤凰网科技讯 北京时间5月11日,继谷歌在上个月公布了强劲的季度财报后,公司高管们却面临着来自员工的严峻拷问。据美国全国广播公司商业频道 (CNBC) 报道,谷歌员工想知道为什么收入的增长并没有转化为更高的薪酬,也没有结束公司的一些节约成本措施。 今年4月,Alphabet公布了第一季度业绩,财报的各项数据都超出了分析师的预期,推动股价飙升。该公司报告收入同比增长约15%,并派发了每股20美分的首次股息。 然而,这个消息并没有让所有的谷歌员工感到满意,据谷歌公司内部论坛上发表的评论称,有内部员工认为谷歌目前“士气大幅下降,不信任加剧,领导层与员工之间脱节”。还有人则提到尽管“公司业绩出色,盈利创纪录”,但谷歌员工为何没有获得“有意义的薪酬增长”。 谷歌首席财务官露丝·波拉特(Ruth Porat)回应了员工的一些评论。报告称,她表示公司的首要任务是“投资于增长”,并指出“收入的增长速度应该快于支出的增长”。 早在去年,谷歌一直面对着来自员工的批评。该公司在2023年裁员约 12000人,并从2024年开始,核心工程和硬件团队又裁员数千人。 轮流裁员激怒了员工,一些人猛烈抨击领导层。在今年一月份的一轮裁员之后,一些谷歌员工组织了抗议活动抨击领导层。 据CNBC报道,在全体员工大会上,Alphabet首席执行官桑达尔·皮查伊 (Sundar Pichai)告诉员工,公司在疫情期间雇佣了太多员工,现在的所作所为都是在“进行方向修正”。(作者/周文浩) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
这一次,余承东没有选择
作者|陶然 编辑|魏晓 最近半个月,余承东沉默得有些反常。 照理说,北京车展流量泼天,华为这张大嘴无论正说反说,分一杯羹都应当是轻而易举。 但从开幕到闭幕,除了在微博时不时推两条品宣之外,余承东似乎并未在任何公开场合,或者朋友圈之类的私人领域发声。 群众喜闻乐见的、来自余大嘴的锐评,没了。 但互联网依旧紧盯着老余——五一假期,余承东活跃在热搜里。 一号当天一早,#余承东卸任华为终端BG CEO#的话题被顶上微博前排,消息称华为内部于4月30日下午发布人事调整文件,宣布余承东将卸任华为终端BG CEO一职,仍保留终端BG董事长职位。终端BG CEO一职则由原华为终端BG 首席运营官何刚接任。 紧接着,下一个相关话题就是事件后续,报道称余承东职位调整“是华为内部的正常管理任命”,“目的是让余承东有更多的精力为消费者打造精品”。 目前公开的结果,除了华为官网的管理层信息更替之外,有且只有余承东的个人微博简介变了title,由终端BG CEO改为终端BG董事长。 不过,考虑到这是余承东,这是华为,三个字符的更替已经足够让圈内众说纷纭:老余这是升职了还是降职了?华为这是夺权了还是放权了? 有一点可以肯定的是,2024年年中的余承东,和此前数次一样,又站在了华为转折的分叉路口。 但这一次,余承东似乎没有太多选择。 “遥遥领先”,以后听不到了? 余承东是华为终端,尤其手机业务的功臣。 终端BG CEO这个位置,从2011年上任开始,老余已经坐了将近13年。 彼时,苹果全球手机销量高达4000万台,诺基亚在中国还有着2000万的全年销量,小米M1开放购买三个小时内就卖出了10万台,年销量也接近千万级别。而华为当时一整年的销量,是大约300万。 余承东迎来了接任终端BG CEO后的第一个重要选择:华为的手机,要怎么做? 学小米似乎不太行:荣耀品牌在小米手机发布后紧跟着亮相,但性价比、芯片和内存等硬伤,让初代荣耀没能真正撼动小米,不久便石沉大海。 参考iPhone做高端,更是一场豪赌:高端意味着高投入,尤其还是在当年市场压根不怎么认华为的前提下。 过程跌跌撞撞,好在余承东算是第一次赌赢了:经历过AscendP1、P2的市场反应平平后,跳号诞生的P6凭借超越iPhone 5s的极致轻薄为华为带来了400万台以上的销量,在当时的手机市场杀出一片天;Mate 1和Mate 2以大屏+长续航的配置收获了第一批系列忠实粉丝后,同样跳跃式编号命名的Mate 7给苹果三星第一次带来了大屏+长续航+指纹+性价比的多维震撼,在高端市场真正意义上站稳了前排。 时间线来到2019:这一年,华为在全球智能手机市场出货量达到2.4亿台,紧随三星之后,超越苹果位居世界第二。 也是在这一年,华为开始遭到来自外部环境的极限施压:这一次的转折不是选择,而是华为终端团队突然之间没了选择——只能坚守、自救求生。 转年,余承东站在开发者大会上掷地有声:没有人能够熄灭满天星光。但直到2023下半年携Mate 60亮相,市场方才迎回了老余和华为的锋芒:研究机构Counterpoint统计显示,Mate 60系列在短短六个星期内销售量就超过了160万台;今年一季度,IDC和Canalys两家机构的统计数据均证实,华为以17%的市场份额重回中国手机市场第一。 华为的野心,显然不止于国内市场:在和苹果春季发布会同天的5月7日,华为在迪拜也召开了产品发布会,新款MatePad平板、MateBook笔记本、Watch Fit 3手表、Free Buds耳机等产品于海外高调亮相。 是否算得上是硬刚苹果,没法断定。反正选的这个日期,好巧不巧就是同一天。再往前,小米14 Ultra发布会,华为在同一天也发布了自家的小折叠屏。 前几天,美国商务部证实已经吊销了一批出口许可证,市面上大部分消息都指向英特尔和高通这两家曾获得特别授权、允许向华为销售笔记本电脑和手机芯片的科技公司。 网传华为海思半导体董事长何庭波,终端BG董事长余承东在事出之后对内发布了《致战友们的一封信》,提出"塔山会战”、针对PC端芯片转正备胎计划。知情人士很快辟谣了这个消息,称“这几年华为受住了严峻考验,经营逐步回归常态,旗舰产品按节奏推出,不太可能以类似方式进行内部动员。” 对比2019年前后的悲壮,这句轻描淡写的“不太可能”透露出一种不怒自威的底气:尽管出手,我们不慌。 从回归到站稳,华为仅用了不到一年时间。在这个时间节点上卸任终端BG CEO,理解为高层研判“此后手机业务没必要非得让余承东高强度参与”,也并无不合理之处:确实领先,就不用总喊遥遥领先了。 毕竟,老余肩上还有另一个比较新,也比较重的担子:车。 流传的那句“有更多精力为消费者打造精品”,更多指向的应该是鸿蒙智行。 感到压力的车BU 对比去年下半年和今年上半年,车圈有几个明显的变化,其中之一就是华为不再是唯一的顶流了。 比如,近段时间,黑红有理想,真红有小米。 问界依然卖的很好,智界折腾一通之后也比去年有起色,但华为需要面对的一个转变是,2023年,它是突然杀出的挑战者,后来居上干翻老师傅。但在今年,华为的身份,大概率已经换成了守江山的人。 2024开年第一周,问界汽车凭借0.59万的周销量首次超越霸榜许久的理想汽车,成功问鼎当周新势力销冠。 此后三个月,问界分别以32973辆比31165辆、21142辆比20251辆和31727辆比28984辆的数据连续力压理想。整个季度,问界的总销量为85842辆,而理想总销量为80400辆。 对比一年前的Q1,当时的问界三个月内仅卖出了11659辆车,而理想的数字则是52584辆。 但在四月,王座暂时易位,理想汽车重新成为了新势力品牌的月度销冠。 当然,现在的华为,手中不止问界一张牌:北京车展上,华为一众“智选车”品牌以“鸿蒙智行”的商标合并在同一展台亮相,其中既包括已被外界熟知的问界和智界,也有华为与北汽合作推出的享界品牌首款产品、定位豪华旗舰轿车的享界S9。 而其与江淮合作的智选车品牌“傲界”,据称也有轿车、SUV 和 MPV 三大品类预计在今年Q4推出首款车。 在鸿蒙智行的官微上,其4月新势力销量榜单的统计口径与理想官微并不相同,是将问界和智界两个品牌合并统计,并最终得出了鸿蒙智行为4月销冠的结论。 豪华行政轿车这一组别,过去很长一段时间是BBA的主场,享界S9的出现则意味着华为官宣进场。目前的整体状况是,鸿蒙智行已经覆盖了SUV(问界M系列)、高性能轿车(智界S7)和豪华旗舰轿车(享界S9),但这三个组别又分别有着像理想、小米/极氪和部分传统豪车品牌的强大对手。 华为或者说鸿蒙智行的优势在于似乎已经没什么短板,至于长板日后究竟会有多长,还得看同行的给出什么样的“衬托”。 此番加码车BU的余承东,不知将会给车圈带来怎样的变化。
长安加速投靠华为
作者 | 塞尔达 汽车央企“会师”华为,正在提速。 5月6日晚间,长安汽车公告投资华为车BU公司的最新进展。 公告显示,长安汽车已完成交易项目涉及的财务、法务、业务和技术尽职调查,双方正在就交易关键条款进一步协商。公司预计不晚于8月31日签订最终交易文件。 长安汽车近年加速新能源转型。2021年,长安汽车成立阿维塔科技有限公司,引入宁德时代投资,并与华为智能汽车解决方案业务单元(下称“华为车BU”)达成深度合作,有意仿照造车新势力,将阿维塔打造成高端智能电动汽车品牌。 但近两年合计亏损约60亿元的阿维塔销售情况一直难有起色,今年一季度累计交付只有1.45万辆,只完成了公司全年目标的14.5%。新能源车发展不顺也让长安汽车业绩承压,今年一季度,其扣非净利润暴跌9成。 新能源车赛道下一阶段的竞争主要集中在智驾技术,华为是国内当之无愧的龙头,自然成为了长安在逆境下急需拥抱的大腿。 除了长安与华为深度绑定,东风、一汽都在加紧与华为结盟,这也意味着最抗拒“出卖灵魂”的央企也开始倒向华为。 不过,一向在合作中扮演主导角色的华为,与三大汽车央企的联盟,必然会产生话语权的博弈,更为现实的问题是,联盟造车一旦出了事故,责任到底是谁的? 点击下方名片,关注金角财经,我们将为你剖析更多社会热点,拆解经济事件背后的逻辑。 长安急需靠山 这笔无论对于长安汽车,还是整个中国新能源车行业,都会产生深远影响的投资,始于去年末。 2023年11月,长安汽车与华为签署《投资合作备忘录》。 彼时,华为拟设立一家从事汽车智能系统及部件解决方案的新公司,注入相关技术、资产和人员,并开放外部融资。长安汽车计划入股这家新公司,成为“天使轮投资人”。 合作公告称,华为智能部件公司的业务范围包括智能驾驶解决方案、智能座舱、智能汽车数字平台、智能车云与智能车灯等。接近华为的人士向媒体确认,这家新公司主要资产和团队来自华为车BU。 2024年1月16日,华为注册了深圳引望智能技术有限公司,该公司即为长安汽车的投资标的。自合肥政府投资蔚来后,新能源车企常常看到地方政府的影子。而这一次就有说法称,长安汽车投资车BU得到重庆市政府支持。 值得注意的是,在当初华为车BU独立公司的天使投资人传闻名单中,央企阵容除了长安汽车,还有一汽和东风两个重量级企业。 根据市场消息,一汽集团有意投资,但希望全资收购华为车BU,华为并不同意,此后双方没有更深一步接触;东风集团也曾接触华为车BU,目前已有品牌和技术层面深度合作,但入股事宜还没有明确进展。 相比之下,已完成尽调并设下最后日期的长安汽车,和华为的合作明显要推进得更快。这可能与长安汽车的业绩和新能源车发展不顺有关。 2024年一季度,长安汽车扣非净利润仅为1.1亿元,同比暴跌超9成。 根据多家媒体报道,阿维塔2024年将挑战10万辆的销量目标。但前段时间长安汽车在投资者互动平台表示,3月阿维塔交付5016台,一季度累计交付1.45万辆。这意味着,阿维塔一季度仅完成了目标的14.5%,并不理想。 销售承压令阿维塔难以扭亏。2022-2023年,阿维塔净利润分别为-20.15亿元和-36.93亿元,两年累计亏损57.08亿元。 更严重的是,3月份后,国家宣布将对央企在新能源车方面单独考核,考核内容包括技术、市场占有率、发展潜力等。对于长安汽车来说,这带来了业绩之外的另一种压力。在业绩和政策考核的双重压力下,长安汽车必须加快与华为这种巨头结盟的步伐。 2024年4月19日,长安汽车董事长朱华荣在2023年业绩会上称,投资华为车BU独立公司进展要依照上市公司规定披露,长安汽车和华为有着广泛深入的合作,甚至包括人才培养,他本人还参加了华为的轮训。 朱华荣强调,长安汽车智能化战略是坚定的,之前和华为、宁德时代合作打造高端品牌阿维塔就是基于这种考量。他判断,到2027年,在长安汽车新车中,具备辅助智能驾驶功能的产品占比将超过八成。朱华荣没有明确华为智能驾驶系统在长安汽车产品中的应用占比。 央企加速转型 长安汽车的动作,是央企加速新能源转型的体现。 3月5日,全国两会期间,国务院国资委主任张玉卓宣布,国有车企的新能源汽车发展不够快,不如特斯拉和比亚迪,国资委将为三家汽车央企“松绑”,对其新能源汽车业务单独考核。 这三家汽车央企分别是一汽集团、东风集团和长安汽车。 张玉卓同时还指出,在新能源汽车发展初期,投入居高不下,国企顾虑当期利润考核,很难全速推进。政策调整旨在破除障碍,未来考核重点将转向企业新能源汽车技术、市场占有率、发展潜力等方面。 政策的背景,是汽车央企在新能源转型上已经慢了一步。 2023年,东风集团、长安汽车和一汽集团的新能源汽车销量占比分别为21.6%、18.8%和7.1%;同期,国内市场平均水平达到31.6%。 行业普遍预计,到2025-2026年,新能源汽车在新车销量中占比将越过50%关口,新能源汽车将是消费者购车主流选择。国务院发展研究中心市场经济研究所副所长王青指出,汽车央企若不能抓紧时间迎头赶上,未来销量可能会急剧下滑。 市场公认,新能源车赛道未来的竞争焦点在智能化。 2023年以来,智能座舱和智能驾驶功能的市场价值逐渐显现。以华为合作品牌问界新车型M7为例,消费者选购高阶智驾版的比例超过一半,远超华为预期。 显然,对于在新能源车转型中已经慢了一步的汽车央企来说,要想追上特斯拉、比亚迪和新势力们,智驾是必选项。 不过,智驾技术的研发需要大量人才,一个很现实的问题是,软件类人才的薪酬水平比其他技术工作高出一大截,央企很难满足要求。一家汽车央企董事长的年薪只有几十万元,甚至不及民营企业里的高级技术人员。 除了人才激励,内部管理也成为阻碍因素。一名央企技术人士举例称,央企机制僵化,软件院的人即使熬夜写了代码,早上也需要按时打卡,给他们较高的薪酬还会招致其他部门不满。 对于以稳为先的央企来说,短期内对此作出大幅改变并不现实。在业绩和政策考核的压力下,寻找外部盟友远比自己慢慢发展起来更现实。 在中国智驾领域,华为是毫无争议的头部企业,自然成为了央企结盟的抢手对象。据相关媒体报道,除了走得最快的长安汽车,东风汽车也正联合一汽集团积极推进参股“华为车BU”事宜,预计到今年6月会有初步结论。 三大汽车央企集体“会师”华为,看起来只是时间问题。 结盟背后的博弈 央企和华为结盟是大趋势,但双方背后依然存在不少博弈。 这要由华为和车企的合作模式说起。 华为汽车合作方式有三种,分别是“智选车”模式、HI(Huawei Inside)模式和普通的零部件供应模式。智选车和HI是两种深度合作模式,除了零部件销售,华为还会通过软件收费、技术授权或者销售车辆获得额外分成收入。 在HI模式下,车企使用华为软硬件全套智能汽车解决方案,尤其是自动驾驶系统,车辆尾部带有“HI”标识,华为还希望在后期软件收入中分成。智选车模式更进一步,华为还会参与产品定义研发、设计,车辆在华为手机终端网络中销售。智选车模式被外界评价是“无限接近造车”。 从目前情况来看,华为HI模式的进展不如智选车。这是因为,智选车模式有华为品牌背书,消费者容易将其等同为“华为汽车”,吸引大量华为手机粉丝。同时,智选车产品在华为数百家店面销售,一般车企很难迅速建立起如此规模的销售渠道。 此外,华为深度参与产品设计和定义,也容易发挥其智能化强项。例如HI模式合作方和问界都使用华为鸿蒙智能座舱操作系统,但问界从系统到人机交互界面全部都由华为开发,HI合作方则由车企自己开发。从体验效果看,问界智能座舱系统更加流畅。 不过,智选车模式优势虽大,但一直被诟病“出卖灵魂”,央企更愿意选择HI模式,希望话语权依然掌握在自己手中。 今年初,在长安汽车举办的2024年全球伙伴大会上,朱华荣就公开吐槽华为智选车模式。他称,长安阿维塔不选择华为智选模式是为了更好地保障用户的根本利益,如果一个合作模式不利于明确责任归属,就是有问题的。 “(这个环节)你负责,然后是你在做,那个(环节)是我负责,你也在做,这里面是有很多的角色可能混乱,长远一定会带来很多新的问题,甚至会伤害到广大的用户最终的利益。” 但在政策以及业绩压力下,央企对于是否出卖灵魂也开始挣扎了。 此前,东风岚图、东风猛士与华为签署战略合作协议,虽然均未透露合作模式,但是外界广泛认为是华为HI模式。不过,东风汽车党委常委、副总经理尤峥表示,东风汽车不会放弃品牌走智选车路线,与华为车BU是技术合作,但并非传统意义的HI模式。 东风这番表态,似乎也代表着央企态度的微妙变化。在国资委喊话之后,再加上赛力斯与华为合作推出的问界实现销量暴增股价暴涨,央企也不得不考虑深度借助华为的力量完成国资委提出的技术、市占率等要求。 而央企和华为关于话语权的博弈,恐怕在双方结盟后的相当长时间内依然存在。 造车联盟的隐忧 在央企和华为博弈过程中,一场车祸让这种“联盟造车”模式面临前所未有的压力。 4月26日,一辆问界M7在山西运城追尾一辆停在快速车道上的洒水车,车内驾驶员和两名乘客身亡,其中包括一名两岁的儿童。网络上流传的视频显示,碰撞发生后车辆前部起火,还有热心人士努力砸窗试图开门救援。 车主家属随后发声提出多个事故疑点,强调问界M7宣传的自动紧急刹车功能没有发挥作用、气囊没有打开、车门没有在碰撞后自动解锁。问界M7上市时,华为将AEB作为主动安全技术亮点重点宣传。 问界品牌属于华为,AITO品牌属于赛力斯,消费者并不了解其中差异,一般以问界品牌称呼。问界有M5、M7和M9三款车型在售,这些新车上市发布会都由华为主导。 4月28日,赛力斯旗下AITO汽车发出声明称,该车辆发生事故时,车速为115公里/小时,安全气囊正常打开,动力电池包特性均正常。AITO汽车披露这款车型为M7 Plus。 从官网发布的车辆配置表看,M7 Plus没有搭载华为智驾系统。这意味着事故发生时,车辆处于驾驶员控制状态。华为在一份原定发布又迅速撤回的声明中指称,事故车辆M7 Plus搭载的是博世智驾系统,事发时车速超过了AEB工作范围,因此AEB没有启动发挥作用。 博世被迫在4月29日公开回应称,事故车辆搭载的不是博世智驾系统(含AEB)。有汽车行业资深人士称,作为零部件供应商,博世公开回应来自整车品牌方的质疑,这种情况非常罕见。 这起车祸考验着华为和其盟友。在华为鸿蒙智行合作模式中,尽管车企无限接近于代工方,但国内汽车制造采用准入管理,在法律意义上,车企仍是责任主体。 这种合作造车的新模式下,当出现重大舆论事件,尤其是车祸时,究竟应该由谁承担责任,恐怕未来将成为华为与各盟友间的心结。 相比之下,华为更像立于不败之地。有业内人士称,华为在销售汽车时,希望抢占消费者认知,让他们认为这是华为产品,此次事故发生后,华为又退回供应商定位,担心损害自身智驾系统形象。 这种风险主要由盟友承担的合作模式,恐怕会引发对舆论危机尤其敏感的汽车央企的担忧,为双方的下一步深度结盟埋下隐忧。
英伟达的GPU短缺未来还会持续吗,瓶颈是什么?
自2022年11月Open AI发布ChatGPT以来,生成式AI(人工智能)需求在全球爆发式增长。这一系列AI应用运行在配备有NVIDIA GPU等AI半导体的AI服务器上。 不过,根据中2024-05-11国台湾研究公司TrendForce在 2023年12月14日的预测,AI服务器出货量增幅不会如预期。预计2022年AI服务器仅占所有服务器出货量的6%,2023年为9%,2024年为13%,2025年为14%,2026年为16%。(图1)。 图1.服务器出货数量、AI服务器占比、AI芯片晶圆占比。来源:TrendForce 其原因被认为是人工智能半导体的限速供应。目前,NVIDIA的GPU垄断了约80%的AI半导体,制造在台积电进行。在后续的流程中,会利用CoWoS进行封装,但是CoWoS的产量目前是一个瓶颈。 另外,在CoWoS中,GPU周围放置了多个HBM(高带宽内存),这些HBM是堆叠的DRAM,这个HBM也被认为是瓶颈之一。 那么,为什么台积电的CoWoS(Chip on Wafer on Substrate)产能持续不足呢?另外,虽然有三星电子、SK海力士、美光科技三大DRAM厂商,但为什么HBM也不够呢? 本文讨论了这些细节。NVIDIA GPU 等 AI 半导体的短缺预计将持续数年或更长时间。 台积电的制造流程是什么? 图 2显示了 NVIDIA 的 GPU 是如何在台积电制造的。首先,在预处理中,分别创建GPU、CPU、内存(DRAM)等。这里,由于台积电不生产DRAM,因此似乎是从SK海力士等DRAM制造商那里获得HBM。 图2.2.5D 到 3D 中出现的制造工艺。来源:Tadashi Kamewada 接下来,将GPU、CPU、HBM等粘合到“硅中介层”上(Chip on Wafer,或CoW)。硅中介层具有预先形成的布线层和硅通孔(TSV)以连接芯片。 这一步骤完成后,将中介层贴到基板上(Wafer on Substrate,简称WoS),进行各种测试,CoWoS封装就完成了。 图3显示了CoWoS的横截面结构。两个逻辑芯片(例如 GPU 和 CPU)以及具有堆叠式 DRAM 的 HBM 被粘合到硅中介层上,硅中介层上形成有布线层和 TSV。中介层通过与铜凸块连接到封装基板,并且该基板通过封装球连接到电路板。 图3.CoWoS结构和NVIDIA GPU等AI半导体的两个瓶颈。来源:WikiChip 在这里,我们认为第一个瓶颈是硅中介层,第二个瓶颈是HBM,这是导致NVIDIA GPU短缺的原因。 硅中介层尺寸变得巨大 图 4 显示了自 2011 年以来 CoWoS 的换代情况。首先,我们可以看到,每一代的硅中介层都变得巨大。此外,安装的 HBM 数量也在不断增加。 图4.每代HBM的转接层面积和安装数量增加。来源:台积电 图 5 显示了从 CoWoS Gen 1 到 Gen 6 的 12 英寸晶圆中安装的 Logic 芯片类型、HBM 标准和安装数量、硅中介层面积以及可获得的中介层数量。 图5. CoWoS 代次、HBM 安装数量、12 英寸晶圆转接层数量。 可以看出,自第三代以来,HBM的安装数量持续增长了1.5倍。此外,HBM 的标准也发生了变化,性能也得到了提高。此外,随着中介层面积的增加,可以从 12 英寸晶圆获得的中介层数量减少。 然而,这个采集数只是“将12英寸晶圆的面积除以中介层的面积得到的值”,实际的采集次数要小得多。 2023 年发布的第 6 代 CoWoS 转接板的面积为 3400 mm 2 ,但如果我们假设它是一个正方形,它将是 58 mm × 58 mm。如果将其放置在 12 英寸晶圆上,晶圆边缘上的所有转接层都将有缺陷。然后,一个58 mm × 58 mm中介层最多只能从 12 英寸晶圆上获取 9 个芯片。 图6. 12英寸晶圆能获得多少个转接层。来源:Tadashi Kamewada 此外,在中介层上形成布线层和TSV,但良率约为60~70%,因此从12英寸晶圆上可以获得的良好中介层数量最多为6个。 使用这款转接板制作的 CoWoS 的代表性 GPU 是 NVIDIA 的“H100”,它在市场上竞争激烈,交易价格高达 40,000 美元。 台积电的CoWoS产能不足 那么,台积电的CoWoS制造产能有多大呢? 在 2023 年 11 月 14 日举行的 DIGITIMES 研讨会“生成式 AI 浪潮中 2024 年全球服务器市场的机遇与挑战”中显示,2023 年第二季度的产能为每月 13K~15K 件。据预测,2024 年第二季度月产量将翻倍至 30K~34K,从而缩小 NVIDIA GPU 的供需缺口。 然而,这种前景还很遥远。这是因为,截至 2024 年 4 月,NVIDIA 仍然没有足够的 GPU。而TrendForce集邦咨询在4月16日的新闻中表示,到2024年底,台积电的CoWoS产能将达到每月40K左右,到2025年底将翻倍。 此外,TrendForce集邦咨询报道称,NVIDIA将发布B100和B200,但这些转接板可能比 58 mm × 58 mm还要大。这意味着从12英寸晶圆上可以获得的优质中介层的数量将进一步减少,因此即使台积电拼命尝试增加CoWoS产能,也无法生产足够的GPU来满足需求。 这款GPU CoWoS中介层的巨大和台积电产能的增加,无论走多远都没有止境。 有人建议使用515×510mm棱柱形有机基板代替12英寸晶圆作为中介层。此外,美国的英特尔公司还提议使用矩形玻璃基板。当然,如果可以使用大型矩形基板,则可以比圆形12英寸晶圆更有效地获得大量中介层。 然而,为了在矩形基板上形成布线层和TSV,需要专用的制造设备和传输系统。考虑到这些的准备工作,这需要时间和金钱。接下来解释一下HBM的情况,这是另一个瓶颈。 HBM 的路线图 如图 4 和图 5 所示,HBM 的数量随着 CoWoS 的产生而增加,这也导致了中介层的巨大。DRAM制造商不应继续制造相同标准的HBM。随着 CoWoS 的发展,HBM 的各种性能需要改进。HBM 的路线图如图 7 所示。 图 7.HBM 路线图和 HBM 堆叠的 DRAM 数量。来源:DIGITIMES Research 首先,HBM 必须提高每秒交换数据的带宽,以配合 GPU 性能的提高。具体来说,2016 年 HBM1 的带宽为 128 GB/s,而 HBM3E 的带宽将扩大约 10 倍,达到 1150 GB/s,将于 2024 年发布。 接下来,HBM 的内存容量 (GB) 必须增加。为此,有必要将堆叠在 HBM 中的 DRAM 芯片数量从 4 个增加到 12 个。下一代 HBM4 的 DRAM 层数预计将达到 16 层。 此外,HBM 的 I/O 速度 (GB/s) 也必须提高。为了同时实现所有这些目标,我们必须不惜一切代价实现DRAM的小型化。图8显示了按技术节点划分的DRAM销售比例的变化。2024 年将是从 1z (15.6 nm) 切换到 1α (13.8 nm) 的一年。之后,小型化将以 1 nm 的增量进行,例如 1β (12.3 nm)、1γ (11.2 nm) 和 1δ (10 nm)。 图8.按技术节点划分的DRAM销售额百分比 。来源:Yole Intelligence 请注意,括号中的数字是该代DRAM芯片中实际存在的最小加工尺寸。 EUV也开始应用于DRAM DRAM制造商必须以1nm的增量进行小型化,以实现高集成度和速度。因此,EUV(极紫外)光刻技术已开始应用于精细图案的形成(图9)。 图9.DRAM厂商应用的EUV层数。来源:Yole Intelligence 最早在 DRAM 中使用 EUV 的公司是三星,在 1z 代中仅应用了一层。不过,这只是借用了三星逻辑代工厂的一条每月最大产量为 10,000 片晶圆的巨大 DRAM 生产线来实践 EUV 应用。因此,从真正意义上讲,三星只是从 1α 年开始在 DRAM 中使用 EUV,当时它在五层 DRAM 中使用了 EUV。 其次是在 HBM 领域市场份额第一的 SK hynix,它在 1α 生产时应用了 EUV。该公司计划在 2024 年转向 1β,并有可能在三到四层应用 EUV。因此,迄今只有几个 EUV 单元的 SK hynix 将在 2024 年之前推出 10 个 EUV 单元。同样拥有逻辑代工厂的三星公司被认为将拥有超过 30 个 EUV 单元。 最后,美光公司一直奉行尽可能少使用 EUV 的战略,以便比其他任何地方都更快地推进其技术节点。事实上,美光在 1 β 之前都不使用 EUV。在开发过程中,它还计划在 1 γ 时不使用 EUV,而是使用 ArF 沉浸 + 多图案技术,但由于它发现很难提高产量,因为没有更多的匹配空间,因此预计将从 1 γ 开始引入 EUV。 这三家 DRAM 制造商目前正在尝试使用镜头孔径为 NA = 0.33 的 EUV,但据认为,它们正在考虑从 2027-2028 年起改用高 NA。因此,DRAM 制造商的微型化进程仍将越走越远。 现在,有多少 HBM 将采用这些最先进的工艺生产? DRAM 出货量和 HBM 出货量 图 10 显示了 DRAM 出货量、HBM 出货量以及 HBM 占 DRAM 出货量的百分比。如本节开头所述,ChatGPT 于 2022 年 11 月发布,从而使英伟达公司的 GPU 在 2023 年取得重大突破。 图10.DRAM 出货量、HBM 出货量和 HBM 所占百分比。来源:Yole Intelligence 与此同时,HBM 的出货量也迅速增长:HBM 的出货量从 2022 年的 27.5 亿美元(3.4%)增长到 2023 年的 54.5 亿美元(10.7%),几乎翻了一番,到 2024 年更是翻了一番,达到 140.6 亿美元(19.4%)。 从 DRAM 的出货量来看,2021 年由于对 Corona 的特殊需求而达到高峰,但 2023 年这种特殊需求结束后,出货量急剧下降。此后,出货量有望恢复,并在 2025 年超过 2021 年的峰值。此外,从 2026 年起,出货量预计将继续增长,尽管会有一些起伏,到 2029 年将超过 1500 亿美元。 另一方面,HBM 的出货量预计将在 2025 年后继续增长,但 HBM 在 DRAM 出货量中所占的份额将在 2027 年后达到 24-25% 的饱和状态。这是为什么呢? 各种 HBM 的发货数量和 HBM 发货总量 如图 11 所示,通过观察各种 HBM 的出货量和 HBM 的总出货量,可以揭开谜底。 图11.各种 HBM 和所有 HBM 的出货量。来源:Yole Intelligence 首先,在 2022 年之前,HBM2 是主要的出货量。其次,2023 年,英伟达的 GPU 取得重大突破,HBM2E 取代 HBM2 成为主流。此外,HBM3 将在今年 2024 至 2025 年间成为主流。2026-2027 年,HBM3E 将成为出货量最大的产品,而从 2028 年开始,HBM4 将扮演主角。 换句话说,HBM 将以大约两年的间隔经历世代更迭。这意味着 DRAM 制造商必须继续以 1 纳米为单位进行微型化,同时每两年更新一次 HBM 标准。 因此,如图 11 所示,2025 年后所有 HBM 的出货量几乎不会增加。这并不是因为 DRAM 制造商懈怠,而是因为他们必须尽最大努力生产最先进的 DRAM 和最先进的 HBM。 此外,2025 年后 HBM 出货量不会大幅增长的原因之一是堆叠在 HBM 中的 DRAM 芯片数量将增加(图 12):随着 GPU 性能的提高,HBM 的内存容量(GB)也必须增加,因此堆叠在 HBM 2 和 HBM2E 中的 DRAM 数量将增加。HBM2 和 HBM2E 中堆叠的 DRAM 数量将增加到 4-8 个 DRAM,HBM3 和 HBM3E 中堆叠的 DRAM 数量将增加到 8-12 个,HBM4 中堆叠的 DRAM 数量将增加到 16 个。 图12.每个 HBM 的内存容量(GB)和 HBM 中的 DRAM 芯片堆叠数。来源:Yole Intelligence 这意味着 HBM2 只需要 4 到 8 个 DRAM,而 HBM4 将需要 2 到 4 倍的 DRAM,即 16 个 DRAM。这意味着,在 HBM4 时代,DRAM 制造商可以生产比 HBM2 多 2-4 倍的 DRAM,但出货量仍与 HBM 相同。 因此,随着 DRAM 继续以 1nm 的增量缩小,HBM 两年换一代,HBM 中堆叠的 DRAM 数量每一代都在增加,预计从 2025 年起,HBM 的总出货量将达到饱和。 那么,HBM 的短缺会持续下去吗? DRAM 制造商是否无法进一步增加 HBM 的出货量? DRAM 制造商急于大规模生产 HBM 我们已经解释了 DRAM 制造商无法大幅增加 HBM 出货量的原因,但 DRAM 制造商仍然能够达到他们的极限,倘若超过这个极限,他们就会尝试大量生产 HBM。这是因为 HBM 的价格非常高。 图 13 显示了各种 HBM 和普通 DRAM 的每 GB 平均价格。普通 DRAM 和 HBM 在发布时的每 GB 价格都是最高的。虽然趋势相同,但普通 DRAM 和 HBM 的每 GB 价格相差 20 倍以上。为了比较普通 DRAM 和 HBM 的每 GB 平均价格,图 13 中的图表显示了普通 DRAM 的 10 倍价格。 图13.各种 HBM 和普通 DRAM 的每 GB 平均价格比较。来源:Yole Intelligence 与普通 DRAM 的 0.49 美元相比,比较每 GB 的价格,在刚刚发布后的最高价格时,HBM2 的每 GB 价格大约是普通 DRAM 的 23 倍(11.4 美元),HBM2E 的每 GB 价格大约是普通 DRAM 的 28 倍(13.6 美元),HBM4 的每 GB 价格大约是普通 DRAM 的 30 倍(14.7 美元)。 此外,图 14 显示了各种 HBM 的平均价格。价格最高的 HBM2 为 73 美元,HBM2E 为 157 美元,HBM3 为 233 美元,HBM3E 为 372 美元,HBM4 则高达 560 美元。 图14.各种 HBM 和标准 DRAM 的每 GB 平均价格比较。来源:Yole Intelligence 图 15显示了 HBM 的价格有多昂贵。例如,DRAM厂商在1z工艺中生产的16GB DDR5 DRAM最多为3~4美元。不过,今年,SK海力士发布的HBM3E售价将比361美元高出90~120倍。 DDR(双倍数据速率)是一种内存标准。数据传输速度越来越快,DDR5 的速度是 DDR4 的两倍,DDR6 的速度是 DDR5 的两倍。2024 年将是 DDR4 向 DDR5 转变的一年,DRAM 制造商也必须不断更新其 DDR 标准。 图15.各种半导体工艺、芯片尺寸、晶体管数量(位数)和平均价格的比较 。 回到 HBM,HBM3E 的芯片尺寸与最新 iPhone 17 的 A15 仿生 AP(应用处理器)大致相同,后者采用台积电最先进的 3nm 工艺生产,但价格高出 3.6 倍。DRAM的HBM高于高级逻辑。这是令人震惊的。而由于价格如此之高,DRAM厂商将竭尽全力增加出货量,以主导HBM的霸主地位。 让我们来看看三家DRAM制造商的路线图。 DRAM 制造商争夺 HBM 图 16显示了 2015~2024 年三家 DRAM 制造商如何生产 HBM。 图16. SK 海力士、三星和美光的 HBM 路线图。 来源: DIGITIMES Research HBM1 首次成功量产的是 SK 海力士。然而,就HBM2而言,三星比SK海力士率先实现量产。当 NVIDIA 的 GPU 在 2023 年取得重大突破时,SK海力士率先成功量产HBM3。这为SK海力士带来了巨大的利益。 另一方面,另一家 DRAM 制造商美光最初开发了与 HBM 标准不同的混合内存立方体 (HMC)。然而,联合电子器件工程委员会 (JEDEC) 是一个促进美国半导体标准化的行业组织,已正式认证了 HBM 标准而不是 HMC。因此,美光从2018年开始放弃HMC的开发,进入HBM的开发,远远落后于两家韩国制造商。 因此,在HBM 的市场份额中, SK 海力士为 54%,三星为 41%,美光为 5%。 拥有最大HBM份额的SK海力士将于2023年开始在其NAND工厂M15生产HBM。此外,HBM3E 将于 2024 年上半年发布。此外,在 2025 年,目前正在建设中的 M15X 工厂将专门为 HBM 重新设计,以生产 HBM3E 和 HBM4。 另一方面,想要赶上SK海力士的三星计划于2023年在三星显示器的工厂开始生产HBM,2024年将HBM的产能翻倍,并在SK海力士之前于2025年量产HBM4。 一直落后的美光的目标是在2024~2025年跳过HBM3,与HBM3E竞争,并在2025年获得20%的市场份额。此外,到2027~2028年,该公司还设定了在HBM4和HBM4E量产方面赶上韩国两大制造商的目标。 这样一来,三家DRAM厂商之间的激烈竞争可能会突破HBM出货量的饱和,从而消除HBM的短缺。 NVIDIA的GPU短缺会持续多久? 在本文中,我们解释了 NVIDIA GPU 等 AI 半导体全球短缺的原因。 1、NVIDIA 的 GPU 采用台积电的 CoWoS 封装制造。这个CoWoS的容量是完全不够的。其原因是配备 GPU、CPU 和 HBM 等芯片的硅中介层每一代都变得越来越大。台积电正试图增加这个中间工艺的容量,但随着GPU一代的推进,中介层也会变得巨大。 2、CoWoS 的 HBM 短缺。造成这种情况的原因是DRAM制造商必须继续以1nm的增量进行小型化,HBM标准被迫每两年更换一次,并且HBM中堆叠的DRAM芯片数量随着每一代的增加而增加。DRAM制造商正在尽最大努力生产HBM,但预计出货量将在2025年之后饱和。然而,由于HBM的价格非常高,DRAM厂商之间竞争激烈,这可能导致HBM的短缺。 如上所述,有两个瓶颈导致 NVIDIA 的 GPU 短缺:台积电的制造产能短缺和 HBM 短缺,但这些问题不太可能在大约一年内得到解决。因此,预计未来几年 NVIDIA 的 GPU 短缺将会继续下去。
半导体地位取决于国内生产 韩国呼吁政府提高芯片补贴
近日,市场上出现了一个根本性的问题:2030年以后,英特尔、美光、台积电等公司在美国和日本建成半导体工厂并开始大规模生产产品时,韩国公司还能继续保持技术领先地位吗? 5月7日,韩国半导体产业协会执行理事An Ki-hyeon表示:“竞争力的关键是在我们已经做得很好的领域继续保持领先。过去,半导体行业没有竞争,但现在全球竞争加剧,情况与以前大不相同。” 韩国政府内外都担心,韩国在存储器半导体领域的市场份额正在下降。根据韩国国际经济政策研究院(KIEP)今年2月发布的报告,韩国存储器半导体出口市场份额从2018年的29%下降到2022年的19%,跌至第二位,但同期中国的份额从24%增至26%。 这一下降的部分原因是三星电子和SK海力士的中国工厂出口增加,但中国也在扩大其在存储器半导体市场的影响力。KIEP高级研究员Jeong Hyeong-gon强调,自2018年以来,韩国半导体产业的全球市场份额持续下降。政策努力的重点应该是加强国内半导体制造基地和生态系统。 与此同时,英特尔和美光计划迅速增加在美国的半导体生产,仅美光一家就计划在美国生产40%的存储半导体。专家认为,虽然三星电子和SK海力士目前在存储领域拥有明显的技术优势,但在未来5到10年内保持这一优势将面临挑战。半导体行业的一位高级官员表示,美光从2028年开始在纽约生产存储半导体,这标志着完全不同的游戏规则。 系统半导体领域的情况更加令人担忧。韩国半导体工程学会前副会长表示担忧,“虽然我们在存储器领域拥有高带宽存储(HBM),但系统半导体仍然落后。正如美国政府通过在本土建厂、提高芯片生产能力来鼓励国内半导体制造业一样,韩国也需要补贴来促进半导体制造业投资。” 在这种情况下,人们呼吁韩国政府通过直接支持半导体产业,重点扩大技术差距。韩国与竞争对手国家相比,投资奖励和补贴不足,必须提高到世界最高水平。 事实上,日本过去三年的半导体补贴规模已达3.9万亿日元(250亿美元),相当于其GDP的0.71%。这一数字高于德国(0.41%)和美国(0.21%)。相比之下,韩国仍倾向于扩大税收减免和贷款支持,而不是补贴。政府内部提出的理由包括:保持财政稳健、对支持大型企业的担忧,以及优先支持材料、零部件和设备等薄弱行业。 专家们批评韩国政府的做法。另一位半导体行业的高级官员表示,美国和日本正以长远的眼光来看待这个问题,他们打算控制半导体行业的领导权。韩国经济研究院前院长、前总理首席秘书Kwon Tae-shin表示:“我理解,由于上届政府期间福利支出大幅增加,预算负担很重,但半导体和电池对韩国的国计民生最为关键。我们需要从长远的角度来考虑这个问题”。
美国推出喷火机器狗,火焰能喷9米远
以前觉得家里养一条会喷火的龙有点魔幻,结果现在发现还真有希望了。 虽然不是龙,但狗子已经学会喷火了,当然具体来说,是机器狗: 近几年各大公司除了热衷研究四足机器人外,还有就是搞层出不穷的脑洞给狗子后背安上外设装备。例如这只背的就是喷火器,火焰一喷贼老远: 总感觉天网反攻的时候,这东西会用火来烧我。 这只会喷火的机器狗,是美国火焰喷射器公司Throwfire推出的商品。 狗子被起名叫Thermonator,售价不算便宜,要9420美元,也就是6万8千人民币。 但如果你眼尖一点就会发现,这只机器狗有点眼熟: 如果把喷火枪拆下来,这不就是我国机器人公司宇树科技的Unitree Go2吗? 特意去官网看了一下,9997元起。 看起来应该是喷火器公司把自己的喷火产品搭载到了这款机器狗上,这下真是「中美合拍两开花」了。 所以,这个喷火狗是用来做什么的,总不会真是用来烧人的吧? Throwfire是一家专门研究火焰喷射器的公司,在设计喷火器方面确实有着不少奇思妙想。 而把喷火器放在机器狗上其实和放无人机上都是类似的思路,拓宽一下喷火器的使用场景。 所以Thermonator的主要用途本质上还是火焰喷射器那些作用,处理野火,应用于农业需求,除雪除冰。有时候防治害虫也会用到喷火器,或者在拍电影的时候负责制造火焰。 当然有了机器狗的加持,功能会更丰富一些。例如可以联网,通过手机进行远程操控: 看起来可以适应多地形行走,雪地、草地都能跑: 夜间还有激光瞄准,感觉可以用来打僵尸: 给机器狗配备的是他们家新款的ARC喷火器,主打的是点火方便,轻巧易携带,射程可以达到9.1米。 喷火的时候,机器狗还能跳跃。 机器狗这肆意喷火的样子你不说是在搞正经工作,我还以为是机器人大军打过来消灭人类了。 其实去年这家公司就发布了喷火狗子的预告,当时就引起过热议,预告的时候使用的机器狗貌似是Unitree Go1。 很多人的观点和我差不多,表示这是梦幻般的玩具,毕竟狗子学会喷火堪比养的猫学会了倒立。 但对此感到担忧的人也不少。 老话说得好,玩火尿炕。这虽然是一个工具,但搞不好就会酿成不必要的火灾。 还有人吐槽电影里的杀手公司清理尸体的方式可以更新了,让狗子直接烧了就行。 也有网友脑洞大开,搞什么喷火器,做成灭火的不是更实用吗? 你别说还真别说,宇树科技的这款Unitree B1还真有过类似的设计宣传,让机器狗配合消防员进行灭火行动。 机器狗可以跨越楼梯进行侦察环境,雷达扫描构筑建筑地图,摄像机传递火场信号,搬运救援物资等等。 其实参考Throwfire的脑洞,让机器狗背一个灭火器似乎也不是不行。 当然,大部分人感觉Throwfire的这个喷火狗就是一个潜在的战争武器。冲入敌方阵地一顿喷火,估计也有一定杀伤力。 有一说一,之前还真有人把Unitree Go1改装成可以遥控开枪的机器狗。 不同于其他正规的军火装备,俄罗斯老哥Alexander Atamanov自己就把枪改装到了机器狗身上,这操作就跟网购乐高积木然后拼出一把能用的步枪差不多。 狗子当时的表现就把网友吓了一大跳,因为这玩意是真的会开枪: 尤其是第一视角跟玩吃鸡一样,这显然会让杀戮变得更像是程序或者游戏。 但它的缺点也很明显,小身板扛不住枪的后坐力,开枪要后退好几步。 看到这些机器狗的改装,也难怪大家会害怕终结者变成纪录片了。 但我还是很好奇,什么时候搞出「导弹狗」,我还挺期待的。 (文中图片与信息素材来源自网络)
“首试者”遭遇机械故障,Neuralink计划会受影响吗?
原标题:不到100天,“首试者”遭遇机械故障!Neuralink的下一步脑机人体试验计划会受影响吗? 美西时间5月9日,距离马斯克旗下Neuralink 的首位人体试验者接受脑机设备植入手术正好过去了100天。 不过,Neuralink前一日发布博客文章中却透露,在1月对患者Noland Arbaugh进行手术后的几周内,镶嵌于脑组织中的一些接线脱落,影响了信息传输速率,丢失了部分数据,导致设备无法正常工作。 Neuralink没有透露电极线为何会意外收缩。不过,据外媒援引知情人士称,Neuralink 认为一个可能的原因是Arbaugh术后残留在其头骨中的空气可能导致其运动皮层回缩。也有专业人士认为,这一问题的出现跟植入物的连接方式有关。 对于正在寻求开展更广泛临床试验的Neuralink而言,任何故障都可能会导致美国食药监局审批流程的延误。不过截至发稿,FDA尚未对上述事件做出任何置评。 不到100天,Neuralink“首试者”植入物现故障 在5月9日的推文中,马斯克写道:“Neuralink的首个人体受试者成功度过100天。” 图片来源:X平台 Neuralink的“首试者”是29岁的Noland Arbaugh,八年前在一次意外的潜水事故中脊髓受伤。今年1月28日,他接受了Neuralink的脑机设备植入手术,植入物使用1024个电极记录神经信号,这些电极分布在64条比人类头发还细的“线”上。 Neuralink脑机接口“首试者”Noland Arbaugh 图片来源:Neuralink 不过,马斯克在推文中附上的Neuralink博客文章显示,1月份Arbaugh接受手术后,被植入受试病患的设备发生了诸多机械故障。植入人脑之后的数周,安装在人脑组织的某些电极镶钉螺纹发生脱落。2月下旬,Noland Arbaugh的植入设备捕捉到的数据开始减少。 每日峰值性能(以每秒比特数为单位) 图片来源:Neuralink博客文章 Neuralink没有透露电极线意外收缩的原因。作为解决方案,Neuralink称他们修改了记录算法,使其对神经群体信号更加敏感,改进了将信号转换为光标移动的技术,并增强了用户界面。这些修复“让BPS(每秒比特数)产生了快速而持续的改进,超出了最初植入后的表现”。 尽管植入物的功能有所下降,但Arbaugh仍可以完成下棋的现场演示。当地时间上周六晚上,Arbaugh还在X上直播,演示自己借助植入物浏览电脑屏幕,玩游戏。 Neuralink表示,尽管Arbaugh的脑组织中有一些神经线收缩,但他在工作日每天使用脑机接口系统约8小时,周末通常每天使用多达10小时。 每天脑机接口的使用时长 图片来源:Neuralink博客文章 故障为何会发生? 据《华尔街日报》,知情人士透露,Neuralink 认为一个可能的原因是Arbaugh术后残留在其头骨中的空气,即颅腔积气(pneumocephalus),可能导致Arbaugh的运动皮层回缩。这个问题似乎并未对阿博的安全构成威胁。知情人士人称,即便如此,研究人员在考虑移除阿博颅内设备的可能性。 彭博社报道则称,有专业人士分析认为,这一问题的出现可能是因为电极线连接的是位于颅骨内部的设备,而不是直接连接到脑组织表面。他们指出,脑组织在颅内空间内会发生相当大的移动,而传统上,脑植入设备是直接放置在脑组织表面上的,能够像船在水面上一样移动。“对于大脑植入物来说,电极线的回缩是不正常的。” 圣路易斯华盛顿大学医学院的神经外科医生Eric Leuthardt说:“工程师和科学家未能意识到大脑在颅内空间内移动的程度。仅仅点头或突然移动头部就可能导致几毫米的扰动。” 目前,Neuralink正试图在更多人类受试者身上植入他们的设备,其目标是在今年为10名病患植入其名为N1的大脑植入物。 然而,对于正在寻求开展更广泛临床试验的Neuralink而言,任何故障都可能会导致FDA审批流程的延误。不过截至发稿,FDA并未回复媒体针对此事的置评请求。 “人机共生”还有很长的路要走 根据Neuralink去年11月向SEC提交的最新文件,公司目前已经至少筹集了3.23亿美元的资金,这也使公司的估值超过50亿美元。Neuralink虽然是全球估值最高的脑机接口企业,但并不具有绝对领先的地位。 过去数年来,围绕Neuralink的争议也从未中断过。动物试验风险便是其一。在2023年5月获准进行人体试验前,由于实验动物死亡率高于平均值,Neuralink曾两次被FDA拒绝进行人体实验。 同年11月,四名美国议员要求美国证券交易委员会(SEC)调查马斯克是否因涉嫌误导投资者有关Neuralink正在开发的大脑植入物的安全性而犯有证券欺诈行为,因马斯克在X平台上表示“没有猴子因Neuralink的植入而死亡”。 此外,也有不少人对Neuralink的技术路径和马斯克的宏大愿景提出了批评。负责任医生委员会认为,马斯克的目标是通过Neuralink的技术“实现与人工智能的共生”,这样的路径却并不一定和治疗患者的最佳方法相一致。非侵入式的脑机接口已经证明在改善患者健康上取得了进展,Neuralink的开颅植入方法可能会带来不必要的风险。 从事脑机接口研究20年的清华大学长聘教授高小榕曾在接受媒体采访时表示,Neuralink一直没完全解决植入设备的安全问题,虽然与更早的猪试验相比,猴试验的安全性有所提升,但Neuralink没有发表论文并披露技术细节。 美国杜克大学医学院神经科学教授、被誉为“脑机接口之父”的米格尔·尼科莱利斯也曾表示,侵入式脑机接口是为了科学研究,对患者并不是最优选择,植入方法应该仅限于非常严重的病例。 据外媒报道,脑机接口技术作为一门新兴的研究领域,发展仍在早期,涉及计算机科学、神经科学、心理认知科学、生物医学工程、数学、信号处理、临床医学、自动控制等多个领域,仍有大量的问题尚待解决。比如,如何从大脑中输出正确的信息?如何将正确的信息输入到大脑? 负责输入及输出信息的是大脑神经元,而脑机接口要做的就是介入到这个过程当中。但整个大脑皮质的体积大约为50万立方毫米,在这个空间里大约有200亿个神经元细胞体,每立方毫米的皮质平均含有约4万个神经元。除此之外,大脑中还有与神经元数量差不多的胶质细胞,以及血管。每立方毫米的皮质里面的毛细血管加起来的总长度可以达到一米。 而要对大脑信号进行精准的捕捉或反馈,需要在这一立方毫米区域里面捕捉特定的一些神经元细胞体发出的信号,或刺激某些特定的细胞体发出工程师需要的信号。难度之高可见一斑。 这些都意味着,马斯克的“人机共生”还有很长的路要走。 免责声明:本文内容与数据仅供参考,不构成投资建议,使用前核实。据此操作,风险自担。 每日经济新闻
押注端云协同,苹果选择紧抱OpenAI大腿
自ChatGPT推出以来,生成式AI大模型已经成为百度、阿里巴巴、腾讯、谷歌、Meta、OpenAI等海内外科技公司的竞争新方向。然而面对逐渐升温的生成式AI浪潮,作为全球首屈一指的科技公司,苹果存在感极低,如同一个旁观者,默默注视着事态发展。 “今年晚些时候,我将与你们分享,我们是如何在生成式AI方面开辟新天地,我们相信这项技术可以重新定义未来。” 直至今年2月,库克在苹果公司年度股东大会上的发言,才真正向外界释放了苹果全面发力生成式AI技术的信号。尽管苹果并未披露任何AI进展,但随着WWDC2024全球开发者大会的临近,越来越多关于苹果AI的相关信息被曝光。 苹果最新AI战略曝光,放弃纯本地处理 彭博社记者Mark Gurman发文称,苹果公司计划将包括M系列芯片在内的高端芯片置入云计算服务器中,用于处理计算难度大的AI功能,而相对简单的AI相关功能则直接在iPhone、iPad和Mac等终端设备进行本地处理。此外,Mark Gurman在今日公开的消息中透露,苹果已经与OpenAI达成协议,后者将为其提供云端AI技术支持。 据介绍,苹果首批AI服务器芯片采用去年发布的M2 Ultra,而近期发布的新款iPad Pro上搭载的M4芯片后续也将运用于AI服务器上。与此同时,苹果公司正在自研AI服务器的专属芯片,预计采用台积电3nm制程工艺,最快将于2025年下半年量产。 图源:苹果 独立、封闭一直是苹果生态的代名词,许多用户也是冲着这点选择了苹果产品。正因如此,苹果在内嵌生成式AI时,一直优先考虑设备本地处理的路线,以确保用户隐私安全。现阶段,手机、平板电脑等移动端设备硬件难以负荷纯端侧大模型方案带来的运算压力,苹果筹备云计算服务器这一AI战略的转变,意味着苹果将放弃纯本地处理方案,转而采用效率更高的云端结合的组合方案。 AI战略的转变不代表苹果不重视用户数据的安全性,相反,苹果过去三年为一种名为“Secure Enclave”的数据安全方案投入了数亿美元,旨在处理器内部的组件可以将数据与安全漏洞隔离,以保护用户隐私。 AI终端强敌林立,苹果靠什么实现突围 在实际应用前,我们无法得知该方案的数据安全程度,但苹果AI战略的改变很有可能是为了加快设备AI化,以追赶其他手机、电脑厂商的AI进程。 以智能手机为例,各手机厂商纷纷拥抱AI浪潮,手机端侧大模型几乎成了旗舰标配,甚至中端机、千元机中也出现了AI手机。过去,苹果iOS生态自成一系,其余厂商多采用安卓,令各家之间的区别并不明显,不过在AI浪潮大背景下,安卓阵营的厂商们纷纷着手打造自身专属的AI生态,寻求弯道超车的机会。 荣耀魔法大模型、OPPO的安第斯大模型、vivo的蓝心大模型......在国内手机市场前五名的品牌中,除了苹果外,其余品牌都已发布了自有端侧大模型产品。国内手机市场尚且如此,更别提范围更广的全球手机市场了。 图源:雷科技 苹果想要在强敌林立的AI终端市场杀出重围,重走其他厂商的老路恐怕很难实现,另辟蹊径或许是明智之举。 据行业人士透露,苹果并不打算推出一款聊天机器人与类ChatGPT大模型进行直接竞争,AI重铸后的Siri语音助手,将引入了一个新的生成式AI系统,为的是帮助Siri更好的了解用户意图,理解复杂的指令,并以一种自然的对话方式提供详细且个性化的响应。 Siri是手机中最早的一批智能助手,诞生于2011年的它智能水平还停留在过去,才会闹出诸多误解问题的笑话。因此,从底层技术开始重新改造Siri,对于志在嵌入生成式AI的苹果来说是必须经历的步骤。 图源:UNsplash 全新Siri将具备连续对话的能力,不再停留在一问一答的初级阶段。同时,Siri将整合嵌入了生成式AI功能的笔记、短信、备忘录、Safari等系统应用,方便用户更好的调用不同功能。 苹果在宣传全新Siri的时候,表示Siri处理所有的请求都将由端侧完成,也就是说苹果将全新Siri列为相对简单的AI相关功能,只需本地处理就足以应付。在5月特别活动中,苹果展示了iPad Pro在视频编辑和绘画方面的AI应用,虽然iPhone 15系列提前将内存升级到了8GB,但要iPhone独力支撑纯本地运行模型带来的压力可能会影响用户的使用体验。 这样一来,就能解释苹果为什么要采取云端结合的战略布局,或许正是为生态下其他创意工具以及生产力功能准备的。 全新Siri、创意工具、生产力功能,是苹果在AI生态的新应用方向。在AI时代,手机厂商和开发者的关系隐隐有调转的势头,之前以苹果为代表的手机厂商把握着第三方APP是否加入生态的权力,如今轮到手机厂商思考如何将更多第三方APP整合进自家大模型。延续传统智能手机时代的生态优势,将决定苹果AI能否在新一轮AI生态战脱颖而出。 苹果不甘再当旁观者,AI早有布局 事实上,虽然苹果一直游离于生成式AI的竞争,但其在AI领域已有不少布局,包括内部自研AI模型框架、收购投资、硬件采购等。 回顾苹果对生成式AI的探索,或许要追朔到2017年公布的CoreML框架,其作用在于将训练完成的AI模型部署到苹果设备中,这也被诸多媒体认为是苹果与生成式AI结缘的开端。 近两年,苹果建立大语言模型框架Ajax以及发布OpenELM自研大模型,可见苹果一直没有停下自研AI模型的脚步。不仅如此,苹果还收购投资了多家AI公司。截至2023年,苹果收购了32家AI初创公司,远超谷歌的21家和Meta的18家。通过收购诸多有前景的AI初创公司,苹果获得了核心创新技术和顶尖人才,先不说有多少AI技术被真正运用在苹果设备上,起码在收购AI初创公司这件事上,苹果称得上遥遥领先。 图源:Medium 而在硬件采购方面,苹果还在持续发挥自己的钞能力,积极采购芯片,为推进生成式AI做准备。分析师郭明錤表示,苹果投入了大量资金用于采购AI服务器,苹果2023年采购了2000~3000台,采购支出至少达到6.2亿美元;预计到2024 年,这一数字将达到47.5亿美元。计划额外采购18000~20000台,占全球AI服务器出货量的5%。 囤积AI服务器自然是为了云端计算做准备,可见苹果很早之前就已经定下了云端协同的AI战略,库克放言重新定义未来的苹果AI,不止是一句口号。 从上述布局来看,苹果正在发力追赶竞争对手,过去很长一段时间里,苹果都在忍受落后带来的影响。2024年开年不久,苹果在中国市场销量下滑24%,市场排名被vivo、华为和荣耀超越,从第一跌至第四。同时,苹果因反垄断问题在欧盟遭受20亿美元罚款,北美市场也面临三星S24系列的强劲竞争。这一系列问题凸显了苹果在全球智能手机市场面临着前所未有的挑战。 苹果弥补在人工智能领域失去的先机,摆脱“AI旁观者”的标签,决定了苹果下个十年的走向。这一切的答案,就看接下来的WWDC2024了。
美国计划升级AI技术出口管制
文 | 刘以秦 顾翎羽 编辑 | 余乐 5月8日,美国众议院一个由两党议员组成的小组公布了一项法案。如果该法案得到通过,将使拜登政府更容易对AI技术实施出口管制。 该法案名称为“增强关键出口海外限制国家框架法案”(Enhancing National Frameworks for Overseas Restriction of Critical Exports Act,简称“ENFORCE法案”),法案称要限制美国AI系统的出口,来防止外国竞争对手使用美国的AI技术。 法案中提到,“AI系统”是指AI相关的所有软件和硬件,包括AI模型和与AI技术实现相关的所有数值参数。 5月9日,中国驻美大使馆对此回应称,此举为“典型的经济胁迫和单边霸凌行为,中国坚决反对”,并补充说将采取“必要措施”保护自身利益。 据媒体报道,美国众议院提出这项新法案是因为对中国高速发展的AI技术水平感到担忧。自去年起,美国政府陆续出台相关管制政策,包括限制高性能的AI芯片出口,要求美国云计算公司在给外国客户提供大模型训练服务时上报等。但担忧依然存在。 一位美国律师向《财经》表示,法案的提出者中包括了众议院外交事务委员会主席和两党议员,且提出了被许多人认为符合美国国家利益的理由,有较大可能性通过。 据媒体报道,此次管制法案主要是针对美国公司还未发布的模型,而非现有模型。长期关注出口管制合规议题的中伦律师事务所合伙人郑孜青律师告诉《财经》,该法案目前未排入众议院或者参议院表决的时间表,距离落地尚有许多不确定性,且法案主要是赋权商务部,是否实施管制、管制如何操作预计将由美国商务部届时再决定。 5月10日,外交部发言人林剑针对这一新管制条例表示:事实证明,中美经贸投资合作互利共赢,两国和两国人民都是受益者,将经贸科技问题政治化、工具化、意识形态化,强推脱钩断链,冲击的是两国及全球的正常贸易投资往来和产供链稳定,不符合包括美国在内的任何一方的利益。林剑表示,美方应将不寻求与华脱钩、不阻碍中国发展的承诺落到实处,停止保护主义做法,停止对华的科技封锁限制,停止扰乱国际经贸秩序。中方将采取必要措施,坚定维护自身的合法权益。 美国连续升级AI管制 ENFORCE法案由美国众议院共和党议员迈克尔·麦考尔(Michael McCaul)、约翰·莫伦纳尔(John Molenaar)、马克斯·怀斯(Max Wise)和民主党议员拉贾·克里希纳莫西(Raja Krishnamoorthi)提出。麦考尔和克里希纳莫西是美国国会人工智能核心小组的成员,该小组成立的目的是为了让美国政策制定者了解AI的技术、经济和社会影响,并确保AI及相关领域的快速创新尽可能充分地惠及美国人。 法案称,目前,根据2018年的出口管制法案,美国商务部(BIS)可以停止出口用于创建AI模型的半导体以及用于创建这些半导体的工具,但美国商务部没有明确的法律权力来控制AI系统本身的转移。这意味着美国顶级AI公司可以将其最强大的AI系统出售给中国,甚至无需申请许可证。 因此,该小组成员称,新法案是对2018年出口管制法案的现代化改造,为BIS提供明确的法律授权,美国商务部可以灵活地对所涵盖的AI系统制定适当的控制措施,同时不会损害美国的创新。 美国商务部负责监管美国出口政策。但是,根据美国现行法律,美国商务部要监管开源AI模型的出口要困难得多,因为开源AI模型可以免费下载。如果上述新法案获得批准,它需要消除《国际紧急经济权力法》中包含的开源AI出口的监管障碍(只有在国家处于紧急状态下才可以实施商业限制),并赋予商务部明示授权来监管AI系统。 自去年起,AI大模型已经成为全球科技产业发展的共同目标,中美两国是最有竞争力的主角。大模型技术的爆发让美国初创公司OpenAI估值一路上涨至超过800亿美元,不到一年时间涨了3倍。微软通过对AI大模型的押注,市值超过3万亿美元,成为全球市值最高的公司。 中国科技界也在奋起直追,包括百度、阿里巴巴、字节跳动、腾讯、华为等几乎所有科技大厂均已入局。一年时间内,中国新晋大模型相关的独角兽公司(估值超过10亿美元)已有6家,其中智谱AI最新估值已经达到200亿元。 这一次的AI系统出口管制是此前美国科技制裁政策的延续。 第一波是美国对华芯片出口禁令。2022年和2023年,美国两度收紧对华AI芯片出口。大模型极度依赖高性能的AI芯片,2022年下半年开始,英伟达GPU芯片在中国市场的价格一路上涨。 2024年3月,美国再次升级芯片出口禁令,表示将对中国出口的AI半导体产品采取“逐案审查”政策规则,全面限制英伟达、AMD以及更多先进AI芯片和半导体设备售往中国。 芯片禁令后,不少中国科技公司一边囤芯片,一边大额采购包括微软云(Azure)、亚马逊云(AWS)和谷歌云在内的云服务,用来训练大模型和其他有高算力需求的业务。 2023年10月,拜登政府签署颁布《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》,其中提到“美国IaaS提供商在和外国客户交易时,需要向商务部提交报告”。 今年1月,美国商务部长吉娜·雷蒙多(Gina Raimondo)公开表示,虽然有芯片禁令,美国云计算公司的数据中心还在用芯片提供服务,要限制外国客户,尤其是中国客户使用美国云计算厂商的服务训练AI大模型的计划,“我们不能允许中国或者其他我们不希望的玩家使用我们的云服务训练他们的模型”。 再加上最新的AI模型开源管制,可以看出,美国政府想要达到从芯片、云计算到基础模型的多重管制效果。 影响几何? 目前,中国大模型产业对于美国科技公司的依赖依然存在。在算力方面,大模型主要用算力做训练和推理。训练环节是通过大量数据,不断调整参数,来提升大模型的能力,因此需要更高性能算力。推理环节则更偏向验证,输入新的数据或任务,得出结果,以此来验证大模型的能力。推理环节更注重算力的低延时属性,对于性能的要求相对低一些。 不少中国科技公司会把训练和推理环节分开处理,来优化成本和效率。通常训练环节会使用美国公司的云服务,推理环节用国产算力。 据《财经》了解,尽管此前有云服务管制要求,目前依然有不少中国公司在使用美国公司云服务,或是选择将数据中心建在海外来训练AI大模型。不过,这种监管方对外发出的信号在产业里已经产生了直接影响。一位美国云服务厂商人士向《财经》表示,产业界感到不确定性,所以即使政策并未完全锁紧,依然会让一部分中国公司在选择美国云厂商训练大模型时顾虑重重,从而放弃。 一位AI初创公司创始人告诉《财经》,目前中国GPU集群与Azure和AWS还有些差距,且短时间内很难赶超。此外,大模型相关的数据管制也可能产生影响。目前看来,高质量的知识型数据大多是英文数据。“中国的大模型产业需要重新思考一下技术路径,否则难以避免被制裁的局面。” 在开源模型方面,中国不少科技公司的模型是基于Meta于2023年2月发布的LlaMA,以及2023年7月发布的LLaMA2。 今年4月18日,Meta发布两款开源模型——Llama 3 8B与Llama 3 70B,供外部开发者免费使用。不少业内人士都评价称这是目前为止性能最强大的开源模型,开发者可以基于此做出媲美GPT-4水平的大模型产品。 此外,中国还有一些大模型是通过GPT-4生成的数据来训练。一位大厂AI技术总监告诉《财经》,这种方式的原理就是用高阶模型来训练低阶模型。大模型训练需要高质量数据,用这种方式可以减少数据处理成本,“GPT-4生成的数据大部分都比网上的数据库质量要高”。 因此,如果新法案实施,对于美国所有的大模型都增加限制,会直接造成国内部分科技公司训练大模型的成本增加,效率降低。 一位微软亚洲研究院人士告诉《财经》,针对AI的出口禁令并不可能完全将大模型出口封锁死,就像芯片禁令之后出现了一批靠倒卖英伟达芯片发财的“倒爷”,该禁令也可能会催生一批靠搬运大模型致富的群体。他认为,政策落下有实际影响,但是也不能忽视一些人在故意放大中美AI博弈的影响,“靠制造对立和焦虑来赚钱的人太多了”。 业内普遍认为,如果美国对华限制AI出口加剧,中美之间的AI技术发展分歧会越来越大。分裂的市场不仅不利于AI技术整体上的发展,且使企业开展业务变得困难,并进一步加剧中美供应链之间的隔阂。
卷价格的风还是吹到了AI大模型
作者 | 硬AI 编辑 | 硬AI 卷价格的风还是吹到了AI大模型。 近日,大模型DeepSeek-V2将每百万tokens输入/输出价格分别卷至1/2元,远低于行业平均水平。 对此,华福证券发布报告称,大模型成本优化与算力需求并不是直接的此长彼消,而是互相搭台、相互成就。定价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活国内AI应用及国产算力发展。 DeepSeek-V2是知名私募巨头幻方量化旗下AI公司深度求索(DeepSeek)发布的全新第二代MoE大模型。 华尔街见闻此前文章提到,DeepSeek-V2拥有2360亿参数,其中每个token210亿个活跃参数,相对较少,但仍然达到了开源模型中顶级的性能。 华福证券则在报告中写道,从综合性能方面来看,DeepSeek-V2位列第一梯队。在AlignBench、MT-Bench、MMLU等多个benchmark上表现出色,其中AlignBench在开源模型中居首位,与GPT-4-Turbo,文心4.0比肩。MTBench超过最强MoE开源模型Mixtral 8x22B。 01 DeepSeek-V2定价将至冰点 大模型价格战拉开序幕 DeepSeek-V2(32k)每百万tokens输入/输出价格分别为1/2元,而GPT-4-Turbo-1106分别为72/217元,DeepSeek-V2性价比显著。 相对于Claude 3 Haiku,DeepSeek-V2每百万tokens输入/输出价格也仅为其50%/22.2%。除此之外,同为32k上下文版本的moonshot-v1、SenseChat-32K、Qwen1.5 72B每百万tokens输入/输出价格分别为24/24、36/36、20/20元。 DeepSeek表示,采用8xH800 GPU的单节点峰值吞吐量可达到每秒50000多个解码token。如果仅按输出token的API的报价计算,每个节点每小时的收入就是50.4美元,假设利用率完全充分,按照一个8xH800节点的成本为每小时15美元来计算,DeepSeek每台服务器每小时的收益可达35.4美元,甚至能实现70%以上的毛利率。 有分析人士指出,即使服务器利用率不充分、批处理速度低于峰值能力,DeepSeek也有足够的盈利空间,同时颠覆其他大模型的商业逻辑。 华福证券也认为,此次DeepSeek-V2定价发布有望掀起新一轮大模型价格战,api定价有望持续走低。 02 大模型定价下降的背后离不开成本的优化 价格是怎么被打下去的?来自DeepSeek-V2的全新架构。 据悉,DeepSeek-V2采用Transformer架构,其中每个Transformer块由一个注意力模块和一个前馈网络(FFN)组成,并且在注意力机制和FFN方面,研究团队设计并采用了创新架构。 华福证券指出,目前众多大模型已经通过多种方式降低成本。 从模型压缩的方向看,可以通过量化的形式将浮点表征为低位宽模型来压缩模型存储空间,加速模型推理;从模型架构的方向看,MoE架构由于其内部的专家模型能够分配到不同设备,并可以执行并行计算,其计算效率较稠密模型显著提升,进而带来更低的成本。 从tokens量的方向来看,可以通过prompt压缩等方式直接降低输入端tokens,进而降低成本。除此之外,多种新的方案已出现在相关论文中,未来多种成本优化方案的融合将进一步加速模型成本的下降。
OpenAI大招要来了!AI语音助手狙击谷歌苹果,官宣下周二上新,GPT-5年前见
作者 | 香草 编辑 | 李水青 智东西5月11日消息,今天凌晨,OpenAI宣布将于美国时间13日上午10点(北京时间14日凌晨1点)在官网直播,演示ChatGPT、GPT-4的更新内容。 据外媒The Information今日报道,OpenAI正在构建具备音频和视觉理解能力的AI语音助手,其中一些功能已经开始向客户展示,可能在下周的发布活动中预览。 知情人士消息透露,OpenAI可能会在今年内完成GPT-5的开发并公开发布。此外,OpenAI还计划推出一种新的定价模式,客户通过预付费预定Token,最高可以享受50%的折扣。 此前有多家外媒和博主曝料,称OpenAI将在近日发布AI搜索引擎。其CEO阿尔特曼对此回应道:“不是GPT-5,也不是搜索引擎,但我们一直在努力开发一些我们认为会得到喜欢的新东西。” ▲阿尔特曼回应新品演示(图源:X) 值得注意的是,其竞争对手谷歌的I/O开发者大会时间定在美国时间14日上午10点(北京时间15日凌晨1点),预计可能发布Gemini大模型的重要更新。OpenAI此次发布时间没有定在之前外媒曝料的5月9日,而是“恰好”卡在I/O大会的前一天,火药味可谓浓厚。 要知道,这已经不是OpenAI第一次“卡点”狙击谷歌新品。今年2月,谷歌放出Gemini 1.5 Pro大招,结果没过几个小时,OpenAI就掏出文生视频“王炸”模型Sora,狠狠抢了Gemini 1.5 Pro的风头。 直播发布地址:http://openai.com 01. AI语音助手仍存在“幻觉”问题 或将集成至ChatGPT免费版 据The Information报道,阿尔特曼的终极目标是开发出类似电影《她》(Her)中,可高度响应的虚拟助手,提升苹果Siri等现有语音助手的可用程度。 ▲电影《她》剧照 OpenAI认为,具有视觉和音频功能的AI语音助手具有像智能手机一样的变革性潜力,理论上其可以做到一系列现在的AI助手无法做到的事,例如充当论文、数学问题指导老师,或是翻译交通标识、帮助解决汽车故障等。 但类似的技术目前所需硬件门槛太高,无法在个人设备上运行,用户可以在短期内使用基于云的版本来获取这些功能,例如自动化客户服务Agent。 OpenAI目前已经推出具备音频转录、文本转语音等功能的软件,不过这些功能是基于独立的对话AI模型实现,而新的语音助手则将这些功能整合在一起。据知情人士透露,该AI语音助手的音频功能能够帮助客服人员更好地理解对方的语气。 目前尚不清楚OpenAI何时向付费客户提供这些新功能,但据试用过该语音助手的人士透露,OpenAI最终的计划是将这些功能都纳入ChatGPT免费版本,目标是比目前其最先进模型GPT-4 Turbo的运行成本更低。该人士还谈道,AI语音助手在有些类型的问题上回答优于GPT-4 Turbo,但仍然存在幻觉问题。 对此,OpenAI发言人没有回应置评请求。 02. 与谷歌竞争iPhone合作位 GPT-5或于年底前发布 OpenAI推出AI语音助手主要目标是与谷歌竞争。 谷歌的AI模型Gemini能实时响应语音命令,并识别图像、视频等。不过这些功能目前仍需要研究人员附以图像和文字说明,且并不能理解许多传统的语音指令,也不能像Siri和谷歌助手等传统语音助手那样与用户对话。 ▲谷歌展示Gemini多模态功能(图源:谷歌) 另一方面,提高模型的视觉、音频能力也有助于OpenAI与苹果达成合作。 最近几个月,苹果与OpenAI就下一代iPhone操作系统如何整合OpenAI的模型进行了讨论。然而,与此同时,苹果也与谷歌进行着类似的谈判。 这场竞争的最新消息是,据彭博社今早报道,苹果已接近与OpenAI达成协议,将在下一代iPhone操作系统iOS 18中使用ChatGPT;与谷歌尚未达成协议,但谈判仍在进行中。 除了可能在下周推出的AI语音助手外,OpenAI还一直致力于构建一款AI搜索引擎,旨在与谷歌竞争。此外,其也在开发一种被称作“计算机使用Agent”的自动化软件,用来辅助软件开发和其他计算机任务。 阿尔特曼还在与iPhone开发者乔尼·艾维(Jony Ive)合作开发一款独立的AI硬件。然而,最先进的AI模型体积庞大,需要在云端运行,并需要互联网连接才能工作。要使具有视觉和听觉功能的复杂AI模型变得足够小巧,以便在设备上运行,可能需要几个月甚至几年的时间。 不过,大家最关心的可能还是GPT-5。据The Information报道,一位接近OpenAI领导人的人士称,其可能在今年年底完成GPT-5并公开发布。 OpenAI的新产品和AI模型开发工作进展得如火如荼,与此同时,其此前宣布的一些项目却变得不再那么受关注。尽管OpenAI曾向开发者承诺,会在今年第一季度推出GPT Store开发者激励计划,但目前仍没有实现。 03. 计划推出预付费定价模式 最高提供50%折扣 在定价方面,据知情人士透露,OpenAI计划推出一种新的定价模式,如果客户通过预付费预定Token,最高可以享受50%的折扣。 这样的优惠形式在云计算领域比较常见,微软Azure、谷歌云、亚马逊云服务(AWS)等都提供提前预定服务器容量折扣的方式来降低成本。 目前,按需定价提供API(应用程序接口)是OpenAI大模型的主要付费形式,通过每生成100万Tokens,向开发者收取几美分至一百多美分不等的费用,其中大客户可以享受批量折扣。 此前OpenAI已经提供了一种降低开发者成本的方式,其在4月推出Batch API,如果开发者批量上传模型查询,并接受等待最长24小时的时间,就可以获取更低的价格。 Together AI和Anyscale等AI服务器经销商曾表示,在他们的软件上运行开源模型要比使用OpenAI的模型便宜6倍。通过更灵活的定价,OpenAI与其他模型开发商的竞争将更具优势。据透露,其今年的营收可能达到数十亿美元。 04. 结语:OpenAI谷歌相争 苹果微软得利? OpenAI与谷歌之间的竞争愈发激烈,二者之间的“商战”火药味也愈发浓厚。OpenAI又一次将新品发布时间定在了谷歌重大发布时间附近,似乎执着于抢夺谷歌风头这件事。 这一边,苹果同时与OpenAI、谷歌商谈模型集成至iPhone事宜,再次加剧了两家公司之间的竞争。虽然OpenAI被曝已与苹果达成合作,但谷歌那边的谈判也仍在继续。 而另一边,微软作为OpenAI最大的财务支持者,可以优先使用其先进技术来改进自己的语音助手。而微软也并非“孤注一掷”,除了积极自研模型外,还投资了OpenAI有力竞对Mistral AI,后者成为第二家在微软Azure云平台上提供商业AI模型的公司。 下周的OpenAI新品发布和谷歌I/O大会,或许会将这场“商战”推向新高度。究竟谁的“大招”会更厉害,我们拭目以待。
“美国最该尴尬的,是今天中国开源模型们重大的贡献”
作者|张潇雪 最近在许多美国开发者的口中,一个开源模型经常被提及,它的发音听起来是“困”。乍一听到总让人一头雾水。哪个开发者天天用中文说困啊。 其实,这就是阿里的开源模型通义千问,这个取自拼音缩写的名字Qwen,被老外自成一体给了一个新发音。 除了Qwen,还有好几个国产开源大模型在海外激战正酣,并且频繁刷新各项benchmarks,呼声和反响甚至比在国内还高。这些来自中国团队的开源模型们不仅不“困”还进展飞速。 Stability AI研究主管Tanishq Mathew Abraham干脆发文提醒道:“许多最具竞争力的开源大模型,包括Owen、Yi、InternLM、Deepseek、BGE、CogVLM 等正是来自中国。关于中国在人工智能领域落后的说法完全不属实。相反,他们正在为生态系统和社区做出重大贡献。” 那到底现如今,中国的开源大模型们厉害到什么程度?下面逐一来看。 01 通义千问:登顶主流开源榜,八种尺寸个个能打 5月9日,阿里云正式发布地表最强中文开源大模型通义千问2.5。相较上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%,中文语境下性能“全面赶超 GPT-4”。 上月底,团队刚开源了Qwen1.5系列首个千亿参数级别模型Qwen1.5-110B,能处理 32K tokens 上下文长度,支持英、中、法、西、德等多种语言。技术上采用Transformer架构,并具有高效的分组查询注意力机制。基础能力可逼近Meta-Llama3-70B和Mixtral-8x22B,在MT-Bench和AlpacaEval 2.0的聊天场景评估中也表现出色。 Liquid AI高级机器学习科学家Maxime Labonne看了表示:“太疯狂了。Qwen1.5-110B在 MMLU 上的得分竟然高于‘性能野兽’ Llama 3 70B的instruct版本。微调后它将有可能成为最强开源SOTA模型,至少能和Llama 3媲美。” Qwen1.5-110B还曾凭实力登顶Hugging Face 开源大模型榜首。 实际上,自从通义千问去年8月宣布“全模态、全尺寸”开源路线以来,就开始马不停蹄地迭代狂飙,强势闯入海外AI开发者社区的视野。 为满足不同场景需求,通义一共推出横跨5亿到1100亿参数规模的八款大模型,小尺寸如0.5B、1.8B、4B、7B、14B可以在端侧设备便捷部署;大尺寸如72B、110B能支持企业和科研级应用;而32B的中等尺寸则力求在性能、效率和内存之间找到最佳性价比。 在各种尺寸的灵活选择下,通义千问其它参数的模型性能也好评如潮。 其中Qwen-1.5 72B曾在业界兵家必争之地:LMSYS Org推出的基准测试平台Chatbot Arena上夺冠,Qwen-72B也多次进入“盲测”对战排行榜全球前十。 推特大V 、Abacus.AI公司创始人和首席执行官Bindu Reddy直接挂出Qwen-72B的基准测试成绩兴奋地说:“开源的 Qwen-72B 在一些benchmarks上击败了 GPT-4!中国正在回击困扰美国的AI公司垄断!加入全球开源革命吧!” 另有网友指出Qwen-72B基础模型在VMLU ,也就是越南语版本的MMLU上无需微调、开箱即用,即可达到与 GPT-4 相同分数的最先进水平。 较小参数的Qwen家族成员更是备受欢迎。 在Hugging Face平台上,Qwen1.5-0.5B-Chat和CodeQwen1.5-7B-Chat- GGUF上月分别获得22.6万次和20万次下载量。包括Qwen1.5-1.8B和Qwen1.5-32B在内的5个模型上月下载量都在10万次以上。(总共发布76个模型版本,也真的堪称行业劳模。) 我们还注意到,在今天很多的对模型性能进行分析的论文中,Qwen也几乎成为必选的分析标的,成为开发者和研究者默认的最有代表性的模型之一。 02 DeepSeek V2:大模型届的“拼多多” 5月6日,私募巨头幻方量化旗下的AI公司深度求索发布全新第二代MoE大模型DeepSeek-V2,模型论文双开源。 其性能在AlignBench排行榜中位列前三,超过GPT-4且接近GPT-4-Turbo。MT-Bench中属于顶尖级别,与LLaMA3-70B比肩,远胜Mixtral 8x22B。支持 128K 的上下文窗口,专精于数学、代码和推理任务。 除了采用MoE架构,DeepSeek V2还创新了Multi-Head Latent Attention机制。在总共 236B 参数中,仅激活21B 用于计算。计算资源消耗仅为Llama 3 70B 的五分之一,GPT-4 的二十之一。 除了高效推理,最炸裂的是,它实在太物美价廉了。 DeepSeek V2在能力直逼第一梯队闭源模型的前提下, API定价降到每百万tokens输入1元、输出2元(32K上下文),仅为Llama3 70B七分之一,GPT-4 Turbo的近百分之一,完全就是价格屠夫。 便宜归便宜,DeepSeek却并不赔钱。它在 8 x H800 GPU 的机器上可以实现每秒5万tokens峰值吞吐。按输出API 价格计算,相当于每个节点每小时收入50.4 美元。国内 8xH800 节点的成本约 15 美元/小时,因此假设利用率完美,DeepSeek 每台服务器每小时的利润高达 35.4 美元,毛利率可达 70% 以上。 另外DeepSeek平台还提供与OpenAI兼容的 API,注册就送500万tokens。 ——高效、好用、击穿地板的价位,不正是开源社区迫切需要的吗? 这直接引起权威半导体研究和咨询公司SemiAnalysis高度关注,5月7日发长文点名DeepSeek V2是“东方崛起的神秘力量”,凭超高性价比对其它模型实现“经济学碾压”,指出“OpenAI和微软的行业挑战可能不只来自美国。” Hugging Face技术主管Philipp Schmid在X发文,列出DeepSeek V2各项技能点向社区隆重推荐。上线仅四天,Hugging Face上的下载量已达3522次,在GitHub也瞬间收获1200颗星星。 03 面壁智能:另辟蹊径、以小博大 在通往 AGI 的路上,有的像DeepSeek这样面对算力为王,主攻经济高效;也有像通义千问那样全面开花,布局各种模型规模;但绝大多数公司的路线是遵循Scaling Law,狂卷大参数。 而面壁智能却在走一条相反的路线:尽可能把参数做小。以更低的部署门槛、更低的使用成本让模型效率最大化,“以小博大”。 今年2 月 1 日,面壁智能推出只有24亿参数量的 MiniCPM-2B模型,不仅整体领先于同级别Google Gemma 2B,还超越了性能标杆之作 Mistral-7B,且部分胜过大参数的Llama2-13B、Llama2-70B-Chat等。 在海外社区开源后,Hugging Face联合创始人Thomas Wolf紧接着发文说,“中国出现了一系列令人惊叹的技术报告和开源模型,比如 DeepSeek、MiniCPM、UltraFeedback...它们的数据和实验结果都被公开分享,这种对知识的坦诚分享在最近的西方科技模型发布中已经丢失了。” 网友转发赞同:“MiniCPM 实在令人印象深刻,拥有 20 亿参数,并从这么微小的模型中获得了最佳结果。” 另一位同读过MiniCPM模型论文的网友更是激动盛赞,“面壁智能正掀起一场改变游戏规则的革命。” “想象一下,在你口袋里拥有强大的人工智能,而不仅仅是云端。MiniCPM-2B 不是普通的模型。它只拥有 24 亿参数,却超越了自己 5 倍大的巨人!尺寸并不是唯一标准,关键在于如何利用它。这就是边缘人工智能未来的愿景,可能重新定义我们与技术的互动。” 70天后,面壁智能乘胜追击,继续发布了新一代“能跑在手机上的最强端侧多模态大模型”MiniCPM-V 2.0,参数规模 2.8B。 据其在Hugging Face上介绍,MiniCPM-V 2.0 在包括 OCRBench、TextVQA、MME在内的多个基准测试中都达到了开源社区最佳水平。在覆盖 11 个流行基准测试的OpenCompass 综合评估上,它的性能超过Qwen-VL-Chat 9.6B、CogVLM-Chat 17.4B 和 Yi-VL 34B。甚至在场景文字理解方面已接近 Gemini Pro 的性能。 04 “与Mistral们相比,中国的许多模型是真的在开源” 除了以上提到的DeepSeek、Qwen和MiniCPM,上海人工智能实验室和商汤联合研发的InternLM、零一万物的Yi系列、智谱AI的多模态大模型CogVLM等等中国的开源模型也在开发者社区里备受欢迎。 人们在推特还特别讨论到,由于中英文间的语言障碍,海外通常能看到中国大模型也只是发布的一部分,太多AI应用和集成没有被完全展现。推测这些模型在中文上表现应该比英文更好。但即便如此,它们在英文基准测试上已具备相当的有竞争力。 还有人提出,自己属实被过去一年中Arxiv上AI论文里中文署名作者的庞大数量震惊到了。 前斯坦福兼职讲师、Claypot AI联合创始人Chip Huyen在调研过900个流行开源AI工具后,在个人博客中分享自己的发现:“在GitHub排名前20的账户中,有6个源自中国。 开源的一个好处就是让阴谋论无法继续。 OpenAI早期投资人Vinod Khosla曾在X发文称,美国的开源模型都会被中国抄去。 但这番言论马上被Meta的AI教父Yann LeCun反驳:“AI不是武器。无论我们是否把技术开源,中国都不会落后。他们会掌控自己的人工智能,开发自己的本土技术堆栈。” 而且,在开源的诚意上,中国模型也开始被开发者认可。有在斯坦福读书的同学也分享到,教授在课堂上大力称赞中国开源模型,特别是开诚布公地与社区积极分享成果,跟欧美一些头顶“开源”名号的明星公司不同。有网友也表达了和这个教授相似的观点,“美国最该尴尬的,是今天中国开源模型们重大的贡献”。 大模型技术的发展中开源注定将继续扮演重要的推动角色,而且这也是首次有开源和闭源技术几乎齐头并进的景象出现。在这股浪潮里,中国的开源贡献者正在通过一个个更有诚意的开源产品给全球社区做着贡献。
生成式AI,苹果倾巢出动
作者 | 云鹏 编辑 | 李水青 智东西5月11日消息,今天一大早,苹果AI炸了锅! 一边彭博社曝出猛料:苹果马上要跟OpenAI签署协议,将ChatGPT相关技术用在iPhone里。 另一边,《纽约时报》曝出苹果Siri即将发布的一系列重磅生成式AI升级、背后研发细节,以及苹果顶层高管做出要给Siri做“大脑移植”这一决定的幕后原因。 外媒AppleInsider则报道称,苹果将把实时录音转录、文本摘要总结等标志性生成式AI功能用在语音备忘录、笔记、消息、Safari等核心系统级应用中,做“系统级AI”。 在当下这波以大语言模型为基础的生成式AI热潮中,苹果毫无疑问是落后了,以ChatGPT为代表的聊天机器人应用已经火遍全球,但苹果至今还没有明确动作。 以苹果公司CEO库克为代表的高管不停地向外界传达“苹果很重视生成式AI”这一观念,但最终大家关注的还是苹果到底要怎么做AI。 今天,关于苹果AI的更多关键问题,似乎都有了更清晰的答案。苹果的生成式AI大招,我们已经能够窥见一隅。 一、拥抱OpenAI?苹果做AI选择两条腿走路 苹果做AI到底是单干还是合作?目前来看,苹果大概率是会“两条腿走路”。 据彭博社报道,苹果即将与OpenAI达成一项协议,在iPhone上使用OpenAI的相关技术,将ChatGPT放到iPhone中(Put ChatGPT on iPhone)。根据这份协议,苹果将在未来发布的iOS 18中使用ChatGPT功能。 双方谈判仍在进行中,协议尚未最终达成。 但值得注意的是,ChatGPT此前早已在苹果的App Store中开放下载多时,iPhone用上ChatGPT,已经是过去时了,所以此次苹果与OpenAI的合作,或许更多聚焦于背后的模型层面,将更多“ChatGPT的能力”接入到iPhone中。 据彭博社报道,苹果也在与谷歌就使用Gemini大模型问题进行商谈。 二、苹果要给Siri“换脑”!从根上治病 说完了合作,我们来看看苹果自己的AI到底要怎么做。据《纽约时报》报道,Siri将会成为苹果做生成式AI的关键抓手之一。 据报道,其实从去年年初,也就是ChatGPT刚火的那阵子,苹果公司软件工程高级副总裁Craig Federighi和苹果公司机器学习和AI战略高级副总裁John Giannandrea就已经做出决定,要给Siri来个“大脑移植”。 没错,治标已经不行了,苹果要直接给Siri换个脑子。 这两位高管都是苹果发布会上的熟面孔了,也是直接向库克汇报的苹果核心高管,可以说,苹果的AI要做成什么样,库克和这两个人是最核心决策者。 据报道,这两位高管花了好几周测试OpenAI的ChatGPT,这促使他们做出了给Siri“换脑”的决定。 有熟悉Siri的苹果人士透露,当时ChatGPT写诗、写代码、回答复杂问题几乎无所不能,这让Siri看起来有些过时。 三、Siri十三年后,苹果发动十年来最大规模内部改组 2011年,Siri作为最早的一批智能助手出现在了iPhone上,只不过那时的“智能”还较为初级。十几年来,Siri一直聚焦于处理一些个人请求,不具备对话跟踪能力,误解问题是家常便饭。 什么是对话跟踪?比如你问ChatGPT旧金山天气怎样,然后紧接着问它“纽约怎么样?”,ChatGPT会明白你是在问纽约的天气,但Siri就不知道。 毫无疑问,Siri的能力已经被大幅赶超了,在技术层面,Siri已经落后了。这促使苹果这家科技巨头进行了十多年来最大规模的内部改组。 据报道,目前生成式AI在苹果内部已经成为了一个“支柱型”项目,一个“a tent pole(帐篷杆)”的项目,“帐篷杆”这个叫法是苹果内部特有的,用来组织苹果员工参与这场十年一遇的创新大项目。 可以肯定的是,苹果正全力以赴在这场AI竞赛中迎头赶上。 四、Siri将拥有一套新的生成式AI系统,端侧大模型“幻觉”或成挑战 苹果的决心我们都明白了,那“换脑”后的Siri究竟会变成什么样? 目前各路报道都认为苹果会在6月10日举办的WWDC24上发布升级版Siri,也就是苹果的重要AI大招之一。 升级后的Siri会更能聊,功能也会更加丰富。据三名相关知情人士透露,Siri的基础技术将会包括一套新的生成式AI系统,这套系统会让Siri和ChatGPT一样具备真正的“聊天”能力,而不仅仅是“一问一答”。 2018年之前一直在苹果工作的Siri联合创始人Tom Gruber说,Siri一直想拥有一个可以理解语言和上下文的对话界面,但这一直很难实现。 据三位知情人士透露,苹果并不会发布一款“类ChatGPT”应用来直接与ChatGPT竞争,苹果的重点是让Siri更好地完成手头的既有任务,比如设置计时器、创建日程安排、在购物清单上添加心仪的商品,当然,新Siri也可以总结文本信息。 苹果在宣传新Siri时,可能会更侧重标榜其“私密性”,因为Siri处理所有的请求都将是在“端侧”完成的,也就是在iPhone上处理,而不用“上云”。 这侧面可以帮苹果省下一笔不小的费用,要知道,ChatGPT每生成1000个单词就要花OpenAI 12美分。 当然,苹果这种做法不是没有弊端的,iPhone本地运行的模型规模有限,这种较小型的模型最容易出现的一个问题就是“幻觉”——编造出一些事实上本不存在的答案。 值得一提的是,苹果在iPhone 15系列上还提前把内存升级到了8GB,这被认为是给新Siri提前做的准备之一。另外苹果也在跟谷歌、OpenAI、Cohere等公司商谈AI大模型相关授权问题,提前做好准备。 五、更多重磅生成式AI功能落地系统级应用,关键功能仍需端云协同 除了Siri,据外媒AppleInsider报道,苹果准备将实时录音转录和摘要总结功能应用在多款产品中,并且这个功能会是“系统级”的,也就是说,不论是你是看视频还是开会,都可以录音并总结重点。 苹果的语音备忘录(Voice Memos)应用将是首批获得这一功能升级的应用程序之一。 此外笔记(Notes)应用也会升级,支持基本的文本摘要、总结功能,加上内置的音频录制和实时转录选项,苹果这个系统级的笔记应用可能会成为生成式AI落地的一个关键应用。 这对于学生上课记笔记以及商务人士参加会议来说都会是一大福音。 苹果希望利用AI技术提升自家几个核心应用程序的效率。目前苹果正在测试这些功能,准备在今年的iOS 18中发布,当然,这些功能也会被用于macOS以及iPadOS中。 据报道,转录和摘要功能只是苹果今年AI升级的一部分,预计类似的摘要功能也会应用于Safari浏览器、消息(Messages)应用中。 Safari将支持网页总结,而消息应用则可以提供消息内容的“浓缩版”。 虽然苹果计划在端侧运行AI,但音频转录和高级AI摘要可能暂时仍然需要云端的辅助。 六、生成式AI或颠覆iOS和安卓,苹果iPhone怕“变砖” 生成式AI新技术的到来,为何会让苹果如此“紧张”?据两位熟悉苹果高管想法的人士透露,苹果高管担心生成式AI会威胁到苹果在全球智能手机市场中的主导地位,因为生成式AI所能够创造的“新生态系统”可能会彻底取代当下的智能手机操作系统,包括iOS和安卓。 值得一提的是,目前国内有荣耀这样的手机厂商已经提出手机操作系统需要用AI“重做一遍”,可以看到,生成式AI对智能手机这类产品的影响,一定是深入操作系统底层的。在这点上,顶级科技巨头们“不谋而合”。 基于新的生成式AI技术实现的AI,如今也被称为“智能体”,这个智能体实际上就是一个“AI应用生态系统”,它可以直接帮用户打车、安排日程,调用各种服务接口、调用各种大模型能力,这会削弱苹果App Store的地位,用户可能不再需要通过下载App来获取服务了。 苹果应用商店的年销售额约为240亿美元,这对苹果来说无疑是一个“动家底”的大事。 除了担心应用商店的大蛋糕被动,苹果另一大担忧是,如果不能开发出自己的AI系统,跟其他竞争对手的产品相比,iPhone可能会失去竞争力,变成一块“笨砖头(dumb brickr)”。 目前iPhone的年销售额超过了2000亿美元,苹果一家独占全球智能手机市场85%的利润,iPhone,是苹果的根基所在。 七、内部调整聚焦AI,人才仍是苹果AI的“短板” AI掉队的这种紧迫感让苹果这一年多以来动作频频,比如此前苹果取消了耗资百亿美元的自动驾驶汽车项目,将原项目中的数百名工程师转移至AI研发团队。 据两位知情人士透露,苹果还在探索和开发使用iPhone和Mac芯片的服务器,简单来说,苹果要用自己的自研芯片做自己的AI服务器,把A系列芯片和M系列芯片用在服务器里,让未来产品所用到的云端AI功能跑在真正“可以被苹果掌控”的服务器上。 这样一来,苹果终端产品和云端服务器从硬件芯片层面来说也可以有更好的一致性。 当然,这样做也可以帮苹果省下一大笔钱。 据彭博社报道,此前苹果发布的M2 Ultra或成为苹果首个AI服务器芯片。 虽然苹果目前的节奏有些慢了,但苹果做AI的优势还是很明显的,首先,苹果在全球有20多亿部iPhone,苹果可以将新的AI产品应用在这些设备上。 同时,苹果有着强大的芯片团队,他们可以为AI功能解决算力之忧。 据报道,苹果在过去的十年里,一直在努力开发AI相关技术,建立自己的“全面的AI战略”,但Siri从发布以来就没有什么重大进展。 John Burkey曾经为苹果Siri工作了两年,离开苹果后他创立了一个生成式AI公司Brighten.ai,他说,Siri团队没有获得苹果内部其他团队所获得的那种关注和资源。“这不是苹果的基因,这是一个盲点。”Burkey说道。 多年来,苹果一直在招揽AI方面的人才,收购AI领域的高价值创企,但苹果同样面临着非常严重的AI人才流失问题。 据报道,AI人才离开的一个重要原因可能是苹果过于严格的保密措施,苹果在AI方面发表的论文要远少于谷歌、Meta、微软等公司,2020年离开苹果重返卡内基梅隆大学的顶尖AI研究员Ruslan Salakhutdinov就表达了自己当时渴望重回学术界的想法,他希望去一个研究所,去一个更“Open”的地方工作。 虽然最近几个月苹果发表的AI相关论文略有增加,但一些AI领域的大佬对这些论文的价值提出了质疑,认为这些论文更多是一些“面子工程”,而不是真正可以让苹果落地在产品中的研究。 结语:软硬件生态并行,苹果AI大招蓄势待发 从各路爆料信息来看,苹果Siri的一系列重磅生成式AI升级、iOS 18中即将加入的各类生成式AI功能,以及苹果与OpenAI、谷歌等公司的密切商谈,都表明了苹果对AI的重视,并且我们能够看到苹果做AI是多线出击、全方位布局,从软件、硬件、操作系统到三方合作,苹果都在紧锣密鼓做着准备。 Siri多年来的“不瘟不火”,或许即将成为历史,苹果将与谷歌、亚马逊等科技巨头一样,用大模型重塑智能语音助手。 接下来,苹果将在6月的WWDC上交出一份怎样的答卷,不仅关乎苹果自身AI及整个业务盘的发展,更关系到整个消费电子产业后续如何应用AI,很多企业都在以苹果为标杆。 当然,国内不少智能手机领域的头部玩家都已经行动多时,各类生成式AI功能早已落地,后来者苹果能否真正带来一些改变行业的新玩法,值得期待。
OpenAI还能领先多久?Meta、微软们正从场景、算力、成本端全面围剿
图片来源:Unsplash 要点总结 算力竞争:人工智能领域内的大型科技公司正在通过不断增加的GPU采购和开发更先进的AI模型来激烈竞争,OpenAI正在被全面围攻。 技术与成本竞争:中国公司DeepSeek通过开源高效能、低成本的AI模型正在改变市场竞争格局,为企业提供了更多自主选择和成本效益更高的解决方案。 微软是否靠得住:微软在积极发展自己的AI技术和模型,以减少对单一合作伙伴的依赖并应对潜在的控制权风险。 所有人都在关注人工智能领域无利可图的支出会持续多久。H100 的租赁价格每个月都在下降,并且中型集群的可用性正在以合理的价格快速增长。尽管如此,显然需求动力仍然强劲。虽然大型科技公司仍然是最大的买家,但全球范围内越来越多样化的买家名单仍在连续增加 GPU 采购量。 大多数繁荣并不是由于任何形式的收入增长,而是由于基于对未来业务的梦想而急于建立更大的模型。大多数人心中的明确目标是赶上甚至超越 OpenAI。如今,许多公司距离 OpenAI 在 Chatbot ELO 中最新的 GPT-4 仅有很短的距离,并且在上下文长度和视频模式等某些方面,一些公司已经处于领先地位。 资料来源:SemiAnalysis 、ArtificialAnalysis.ai 很明显,只要有足够的计算能力,最大的科技公司就可以与 OpenAI 的 GPT-4 相媲美。据传 Gemini 2 Ultra 在各方面都超越了 GPT-4 Turbo。此外,Meta 的 Llama 3 405B 在开源的同时也将与 GPT-4 相匹配,这意味着任何可以租用 H100 服务器的人都可以使用 GPT-4 级智能。 01 DeepSeek奋起直追 迅速迎头赶上的不仅仅是美国大型科技公司。中国的DeepSeek开源了一款新模型,它的运行成本比 Meta 的 Llama 3 70B 更便宜,而且性能更好。虽然该模型更适合中文查询(分词器/训练数据集)和内容审查,但它也恰好在代码(HumanEval)和数学(GSM 8k)的通用语言中获胜。 此外,定价非常便宜。Deepseek 的模型明显比任何其他竞争模型便宜。他们的定价甚至超越了正在进行的风投竞逐,这些风投投资于推理 API 提供商,而这些提供商在服务 Meta 和 Mistral 模型时赔钱。 资料来源:SemiAnalysis 、ArtificalAnalysis.ai 、各种模型基准 DeepSeek 声称,8 个H800 GPU 的单个节点可以实现每秒超过 50,000 个解码令牌的峰值吞吐量(或在具有 disagg 预填充的节点中实现 100k 预填充)。仅根据输出代币的 API 报价,每个节点每小时的收入为 50.4 美元。在中国,8xH800 节点的成本约为每小时 15 美元,因此假设利用率完美,每台服务器每小时可赚取 35.4 美元,即毛利率高达 70% 以上。 即使假设服务器从未得到完美利用,并且批量大小低于峰值能力,DeepSeek 仍有足够的赚钱空间,同时在成本上击败竞争对手。毫无疑问的是,Mixtral、Claude 3 Sonnet、Llama 3 和 DBRX 已经击败了 OpenAI 的 GPT-3.5 Turbo。 更有趣的是 DeepSeek 推向市场的新颖架构。他们没有效仿西方公司的做法。MoE、RoPE 和 Attention 都有全新的创新。他们的模型有 160 多名专家,每个前向传递有 6 个专家。总参数为 2360 亿个,每个前向传递有 210 亿个活跃参数。此外,DeepSeek 实现了一种新颖的多头潜在注意力机制,他们声称该机制比其他形式的注意力具有更好的扩展性,同时也更准确。 来源:DeepSeek 来源:DeepSeek 他们使用 8.1 万亿个代币训练模型。DeepSeek V2 能够实现令人难以置信的训练效率,其模型性能优于其他开放模型,计算量仅为 Meta 的 Llama 3 70B 的1/5 。对于那些跟踪的人来说,DeepSeek V2 训练所需的失败次数是 GPT-4 的1/20,而性能却相差不远。 资料来源:SemiAnalysis 、ArtificalAnalysis.ai 、各种模型公告 这些结果表明中国企业现在也具有国际竞争力。此外,就共享的信息和细节而言,这篇论文可能是今年最好的一篇。 虽然国外的竞争对OpenAI来说是一个挑战,但他们最大的合作伙伴也是他们最要提防的。 02 微软靠得住吗? 微软直接为 OpenAI 投入了超过 100 亿美元的资本支出,但他们并没有将大部分 GPU 能力用于 OpenAI。微软计划每年在人工智能数据中心上花费超过 500 亿美元,其中大部分将用于内部工作负载。其中大部分都是为了在自己的产品和服务中部署 OpenAI 模型进行推理,但这种情况正在发生变化。 由于 OpenAI 的怪异结构,微软被迫寻找应急计划。OpenAI 是一家非营利组织,其主要目标是创造安全且造福全人类的通用人工智能 (AGI)。OpenAI 可以而且将会打破微软能够访问 OpenAI 模型的协议,而微软的追索权为零。 虽然与 Microsoft 的合作伙伴关系包括数十亿美元的投资,但 OpenAI 仍然是一家完全独立的公司,由 OpenAI Nonprofit 管理。微软是无投票权的董事会观察员,没有控制权。 AGI 明确地包含在所有商业和知识产权许可协议中。董事会决定何时实现 AGI。再次强调,AGI 指的是一个高度自治的系统,在最具经济价值的工作中表现优于人类。此类系统不包括在与 Microsoft 签订的 IP 许可和其他商业条款中,这些条款仅适用于 AGI 之前的技术。 对于微软来说,最令人担忧的是,OpenAI 的董事会可以在没有微软任何投票参与的情况下随时决定他们已经实现了 AGI,而微软无权获得用他们的投资创建的 IP。 当你将 OpenAI 与其非营利和营利部门相关的大量治理问题叠加起来时,微软必须制定应急计划。 丨微软计划如何减少对 OpenAI 的依赖 微软正试图将其大部分推理量从 OpenAI 的模型转移到他们直接为其开发 IP 的自己的模型上。这包括 Copilot 和 Bing 计划,它们推动了微软人工智能的发展。当 OpenAI 拥有唯一的模型时,微软当然会在他们的产品中使用它,但除此之外,他们将优先考虑自己的模型来处理大多数查询。 问题是怎么做? 虽然微软在 AI 人才方面与 OpenAI 甚至与 Meta 都没有竞争力,但他们正在迅速尝试尽快培养这些技能。对 Inflection 的伪收购使他们能够快速跳转到一个不错的模型以及坚实的预训练和基础设施团队,但要实现 OpenAI 不断变化的目标,还需要做更多的事情。 资料来源:SemiAnalysis、OpenAI、Inflection AI 微软已经拥有一些强大的团队致力于合成数据,这可以被认为是下一代模型最重要的战场之一。Microsoft Phi 模型团队因使用来自大型模型的大量合成数据来训练小型模型而闻名。最新发布的 Phi-3 模型令人印象深刻。如果目标只是稍微落后于 OpenAI,那么这个策略将会奏效。 微软的另一个团队 WizardLM 创造了更令人惊奇的东西,称为“Evol-Instruct”。它是一种基于人工智能的方法,用于为大语言模型生成大量不同的指令集。目标是提高法大语言模型遵循复杂指令的能力,而不依赖于人工创建的数据,这些数据可能昂贵、耗时且缺乏数量/多样性。 相反,数据是由人工智能创建和管理的,通过与自身的模拟聊天来递归地改进自身。人工智能将判断质量并迭代以生成更好的数据。它还利用渐进式学习来改变数据组合,从简单开始,逐渐增加训练数据的难度和复杂性,因此模型可以更有效地学习。 Microsoft 目前正在通过 MAI-1 ~500B 参数 MOE 模型进行首次达到 GPT-4 级别的重大努力。它利用 Inflection 预训练团队及其数据集与微软自己的一些合成数据相结合。目标是在本月底之前从头开始拥有自己的内部 GPT-4 级模型。 我们不确定它是否会完全击中目标,但 MAI-1 计划只是积极内部建模工作漫长道路的开始。 许多公司通过 Azure 使用 OpenAI 的技术。超过 65% 的财富 500 强企业现在使用 Azure OpenAI 服务。值得注意的是,这并不是直接通过 OpenAI 实现的。如果 Google Deepmind 或 Amazon Anthropic 仅仅通过微软推出自己的模型来获得份额,OpenAI 可能会失去大量业务。 03 分销和整合为王? 随着 DeepSeek 和 Llama 3 405B 开源,企业没有理由不托管自己的模型。扎克伯格利用开源模式减缓竞争商业采用并吸引更多人才的策略正在创造奇迹。鉴于 Databricks 在从头开始训练优于 GPT 3.5 质量的通用模型方面也非常有能力,因此微调不再是一项艰巨的任务。 OpenAI 的优势之一是他们在收集使用数据方面一直处于领先地位,但这种情况很快就会改变。这是因为 Meta 和 Google 都可以更直接地接触消费者。只有四分之一的美国人曾经尝试过 ChatGPT,而且大多数人不会继续使用它。未来大多数消费者 LLM 使用将通过现有平台、Google、Instagram、WhatsApp、Facebook、iPhone/Android。 虽然 Meta 尚未找到如何将其货币化,但他们的 Meta AI 由 Llama 3 70B 提供支持,可在 Facebook、Instagram、Whatsapp 上使用。宣布的推广已扩展到包括美国在内的 14 个国家,这些国家的人口总数为 11 亿。数量惊人的用户已经可以使用比 ChatGPT 免费模型更好的模型。Meta AI 正处于其增长曲线的早期阶段,仅实现其整个 32.4 亿每日活跃用户群的 1/3。 虽然 Llama 3 70B 可能缺乏更大、功能更强的型号的大部分功能,但它可能是适合其用户的产品市场,其中包括许多新兴市场的移动中心用户,人们会假设这种以移动为中心的用户用户可能会进行较短的一般知识查询,而不是集中于高输入令牌代理用例。Meta 的部署对 Google 搜索的伤害可能比 Bing 或 Perplexity 还要大。 为了服务 3B 人群——显然需要一个小型且高效的模型来降低推理成本。要么 Meta 已经让金融数学发挥作用,要么准备投入巨资在消费者人工智能领域抢占先机。这两种情况对现任者来说都意味着灾难。 不仅仅是 Meta 正在为战斗站集结——谷歌的用户覆盖范围与 Meta 处于同一数量级。如果谷歌与苹果达成协议,让其Gemini 模型专门在 iPhone 上提供服务,那么谷歌十多年前用来巩固其在搜索市场主导地位的策略也将适用于此。 04 算力和资本为王吗? 另一个争论是计算和资本是否为王。在这种情况下,鉴于Google 的 TPU 建设步伐异常激进,他们将成为王者。讽刺的是,谷歌现在已经有了重点,并将所有大规模培训工作都集中到一个合并的 Google Deepmind 团队中,而微软则开始失去重点,将资源转移到与 OpenAI 竞争的自己的内部模型上。 这里有一个资本问题。什么时候开始不再值得投入资金? 马克·扎克伯格 OpenAI 最大的风险之一是资本游戏。如果是这样,投资最多的科技公司就是赢家。虽然微软目前的投资最多,但并没有领先 Meta、Google 和 Amazon/Anthropic。Meta 和谷歌拥有完全的焦点,而亚马逊和微软则由于缺乏对其盟友人工智能实验室的控制而不得不束手无策。 定制芯片是另一个要点,因为与购买 Nvidia 芯片相比,它可以大大降低计算成本。微软在其云中部署的定制人工智能芯片最少,而且这种情况至少持续到 2026 年。与此同时,谷歌、Meta 和亚马逊正在不同程度地增加其内部芯片的数量,这给了他们计算成本优势。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。