EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
消息称小米造车迎来重要进展:获关键部门批准,将年产10万辆
小米 凤凰网科技讯 北京时间8月23日,两名知情人士透露,小米集团已获得中国发改委的批准,可生产电动汽车,这标志着该公司朝着明年初生产汽车的目标迈出了重要一步。 知情人士称,发改委在本月早些时候批准了小米生产电动汽车的申请。小米汽车是自2017年底以来第四个获得发改委批准的造车项目。发改委负责监管中国汽车行业新投资和产能。 尽管发改委的批准让小米距离量产电动汽车更近了一步,但是小米汽车仍需要获得工信部的批准。工信部根据技术和安全要求对新汽车制造商和车型展开评估。 2021年,小米创始人雷军正式宣布进军智能电动汽车市场,并承诺在未来十年内向汽车业务投资100亿美元,并设定了在2024年上半年量产首批汽车的目标。 但是,这一计划能否按时完成还需要考虑监管部门的审批进度。据媒体报道,特斯拉公司已申请扩建上海工厂,但尚未获得批准。美国豪华电动汽车制造商Lucid Group也渴望在中国生产汽车,但是获得批准的可能性较低。 明年生产10万辆 知情人士称,小米计划在明年生产大约10万辆电动汽车。两名小米员工透露,自上周以来,小米还在加速为其电动汽车工厂招聘工人,为12月的产能爬坡做准备。在等待审批期间,小米已快速推进汽车项目。据《北京日报》在7月份的一篇报道,小米已在北京完成了年产20万辆电动汽车的工厂设施建设。 小米进军电动汽车是有自身动力的。今年5月份,小米发布的财报显示,第一季度营收同比下降18.9%。在手机需求下滑的情况下,小米正寻求实现业务的多元化,而不是主要依靠智能手机业务。根据此前报道,小米计划利用其数千家门店作为电动汽车展厅。 雷军已表示,小米汽车将是他最后一个重大创业项目。上周六,他在微博上发布的照片显示,小米集团合伙人、总裁卢伟冰等人手持横幅,上面写着:为小米汽车而战。 小米尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
如祺出行冲刺IPO:不内卷网约车,讲科技故事更吸睛?
文/周雄飞 赴港上市,已成为众多网约车玩家的共同目标。 从去年开始,如祺出行、曹操出行和享道出行等网约车玩家,纷纷喊出了要在今年实现赴港上市的目标,而在这其中,如祺出行跑到了前面。 近日,如祺出行官方宣布,已向香港交易所递交了招股书材料,中金公司、华泰金控和农银国际为联席保荐人。该网约车品牌冲刺港股IPO的同时,也计划成为“自动驾驶运营科技第一股”。 截图自如祺出行招股书 回顾如祺出行的上市历程,是较为迅速的。去年三月,广汽集团董事长曾庆洪在年报媒体沟通会上透露,广汽旗下如祺出行计划在今年启动上市进程。随后如祺出行快速完成了A轮和B轮融资,再到近期递交招股书,整体时间还不到一年半。 如祺出行会如此快速地冲刺上市,或许是受到了网约车行业竞争格局所影响。 自2017年我国网约车行业进入快速发展期后,经过多年的发展,目前整个行业已呈现出“一超多强”的竞争格局,市场运力增长也趋于饱和。在这样的背景下,大多数网约车玩家会处于亏损之中。 按照如祺出行招股书显示,2020-2022三年间,其营收逐年增长的同时,亏损也实现逐年收窄。而到了今年上半年,其营收实现为9.1亿元,同比增长了46%;净亏损方面录得为3.45亿元,同比扩大了14%。由此可看出,如祺出行依旧处于行业的竞争压力之下。 面对网约车行业发展饱和的现状,如祺出行把自身未来的发展押注在科技出行上,以便寻找新的增长点。 在自动驾驶出租车(Robotaxi)的布局上,如祺出行较早入局,在2021年开始Robotaxi的开发及探索商业化。这之后,其相继发布了有人网约车和Robotaxi的混合运营平台,以及推出国内首个开放式Robotaxi运营监管平台,来进一步推动Robotaxi行业的商业化落地。 如祺出行在Robotaxi领域的布局还将继续下去。按照如祺出行在招股书中表示,计划拿上市募资的40%,用于自动驾驶、Robotaxi运营服务的研发活动,以及出行服务的产品升级和运营效率提升等用途。 此外,如祺出行的触手还伸向了地图测绘和飞行汽车等领域。其中,广汽集团全球首发的飞行汽车GOVE,未来会在如祺出行平台上运营,以便建立起空地一体化布局,探索科技出行更多的商业化落地可能。 相比于网约车赛道,Robotaxi、飞行汽车,的确是充满想象力的赛道,但与此同时,也具有诸多的不确定性。对此,想要从这些新技术中寻找新增长点的如祺出行,需要做好应对的准备。 行业竞争下,如祺出行追逐IPO 通过招股书,可以清晰看到如祺出行近些年的发展情况。 如祺出行平台于2019年正式上线,由广汽集团和腾讯联合创立,定位为一家出行科技与服务公司,成立之初就计划成为一家为广泛区域提供高效及高品质服务的出行品牌。 为了实现这一目标,如祺出行已拥有多项业务。按照招股书显示,其业务主要分为三块,包括网约车及Robotaxi的出行业务、提供人工智能数据、模型解决方案及高精地图的技术业务,还有为司机及运力加盟商提供全套支持的生态服务。 这些业务多年发展下来,如祺出行确实收获了一些成绩。 招股书显示,截至今年6月30日,如祺出行主要在九个聚焦城市(其中大部分位于大湾区)运营,覆盖广州、深圳、佛山、中山、东莞及珠海等主要城市。与此同时,其平台的月均活跃乘客由2020年的33.8万名,增长至2022年的120.4万名,年均复合增长率为88.7% 另据弗若斯特沙利文统计,截至去年12月31日,如祺出行在大湾区的用户渗透率超30%,整体大湾区市场占有率排名第二。 如祺出行网约车,图源如祺出行官微 用户和服务规模的提升,推动了如祺出行业绩的增长。招股书显示,2020-2022三年间,该品牌营收分别实现为4.04亿元、10.14亿元和13.68亿元,可见其营收是逐年增长的。 这样的增长到了今年还在继续。今年上半年,如祺出行实现营收为9.13亿元,同比增长了48.09%。其中,以网约车为代表的出行业务贡献收入为7.9亿元,也实现了30.8%的同比增长,占总营收的比例为86.7%。 值得注意的是,如祺出行生态服务业务的收入占比正在变大,从去年上半年的1.9%,增长至今年上半年的13%。对此增长,该品牌解释为主要来自车辆销售,以及司机向维修和保养服务支付的服务费,可看出这一业务正在成为如祺出行第二大收入来源。 尽管营收实现了逐年增长,但亏损依然困扰着如祺出行。 根据招股书,2020-2022三年间如祺出行净亏损分别为3亿元、6.85亿元和6.27亿元,虽然年度亏损有着收窄的趋势,但从今年上半年的3.45亿元亏损看,同比去年同期还是扩大了14.24%。 一般而言,毛利率决定着一家企业的盈利能力,这个道理同样适用于如祺出行。该品牌2020-2022年毛利率表现为依次为-22.8%、-24.2%和-10.7%,到了今年上半年这一指标为-7.7,同比去年同期增长了5.1个百分点。 虽然从毛利率上看,如祺出行正在优化其盈利能力,但从今年表现看依旧处于负值水平,从而造成了整体业绩的不乐观表现。 对于逐年亏损原因,如祺出行在招股书中将其归结为公司对技术、人才、司机、车队扩张以及其他举措进行的持续投资。但在业内看来,或许也来自网约车行业竞争的压力。 从市场份额看,如祺出行目前已坐上了大湾区的“第二把交椅”,与此同时它也正依托“涟漪效应”向全国其他城市扩张。但从已是红海的网约车战场来看,如祺出行的实力还是略显不足的。 据招股书显示,今年上半年如祺出行的出行业务日单量峰值超过36万单,而据晚点LatePost此前报道,2023年2月滴滴每日订单量平均约1700万单,排名第二的高德为800万单,它们之后的曹操出行、美团打车也都超过了100万单,相比之下如祺出行略为逊色。 按照如祺出行的规划,未来依然会依托大湾区优势,继续向外开拓网约车市场,通过扩大服务量及增加收入,提高毛利率,提升经营杠杆等方式实现盈利。结合其目前还在亏损、现金储备只有3.97亿元等现状,在业内看来为了支撑起未来扩张的成本投入,如祺出行需要加速上市进程来筹钱。 与此同时,如祺出行也想通过上市,助推其在新的战场中赢得优势。 讲科技出行故事, 能帮如祺出行突围吗? 对于Robotaxi技术的探索,如祺出行走到了网约车行业前列。 2021年,如祺出行宣布向Robotaxi领域进军。当时如祺出行叫上了广汽集团、自动驾驶公司文远知行,准备集三方之力共同推动自身Robotaxi业务的发展。 根据合作协议,广汽集团提供整车研发和可用于全无人驾驶的全冗余车辆平台,文远知行给予自动驾驶技术和Robotaxi运营经验,如祺出行则提供Robotaxi车辆运营平台和运营测试数据,共同推进自动驾驶技术迭代和车辆研发、制造,并实现Robotaxi规模化落地运营。 到了去年6月,如祺出行对外正式发布了“如祺Robotaxi运营科技平台”,据其品牌介绍,这一平台会成为自动驾驶行业首个真正全开放的Robotaxi运营科技平台,因为该平台向所有符合标准的自动驾驶科技公司开放,协同推进Robotaxi示范运营。 彼时,如祺出行也宣布已与广汽研究院、小马智行和文远知行实现系统和数据的对接,具备Robotaxi运营的技术能力。 在Robotaxi业务的具体落地上,如祺出行选择了混合运营的路线。简单说,就是在如祺出行平台上同时运营有人网约车和Robotaxi车辆,在去年10月之后,广州市南沙区全域的消费者通过该品牌平台打车,这两种车型都有可能打到。 如祺出行APP混合运营界面,截图自招股书 业务落地后,如祺出行又盯上了Robotaxi监管领域。去年11月,如祺出行正式发布自主研发的全国首个开放式Robotaxi运营监管平台,据其介绍该平台具备远程监督、远程管理、远程控制、远程评估等四大能力,可远程对Robotaxi运营车辆进行管理,以及应急情况处置能力。 再到今年4月,据如祺出行介绍,其还获得广州市南沙区智能网联汽车示范运营资格,并因此成为国内首个以专有Robotaxi车队进行示范运营的出行服务平台。两个月后,其又宣布与小马智行达成合作,在深圳前海合作区开展自动驾驶商业化试点运营。 如祺出行这些年在Robotaxi业务的持续投入,也可以在招股书数据上得到印证。 招股书数据显示,2020-2022年如祺出行在研发上的投入分别为0.43亿元、1.17亿元和1.05亿元,占同期总营收的比例分别为10.7%、11.5%和7.7%。再看今年上半年,其研发投入达到了0.58亿元,同比增长了18.37%。 基于这些投入,如祺出行目前在Robotaxi业务上已有一定的规模。按照招股书显示,截至今年6月30日,如祺出行的Robotaxi服务已运营约18490小时,覆盖538个站点,完成约45.7万公里安全试运营里程。 实现这些目标后,如祺出行还在向Robotaxi加码。根据该品牌的规划,此次港股上市募得资金中,预期会拿出40%的费用用于自动驾驶及Robotaxi运营服务的研发活动,占据整个募资金额的最大部分,可见如祺出行对Robotaxi业务的重视。 如祺出行在招股书中分析,Robotaxi预期于2026年左右实现商业化,预计在2030年前,Robotaxi将进入成熟的商业化阶段,并在全球主要地区广泛采用。 除了Robotaxi之外,如祺出行也在探索空中实现自动驾驶的可能性。 今年6月底,广汽集团在科技日活动上发布了一款名为“GOVE”的飞行汽车,在结构上分为底座和飞行座舱两部分。 GOVE飞行汽车,图源广汽集团官微 当启动飞行模式时,上端六旋翼的座舱就会与下方车辆结构分离,前者架构实现飞行,而后者架构则只承担运载任务,会自动泊回车位。当飞行结束后,飞行架构又可以与行驶架构实现合体,飞行旋翼会进行收缩,变成车辆的形态,以便在地面道路上驾驶和不妨碍其他车辆的行驶。 按照广汽研究院院长吴坚介绍,GOVE飞行汽车未来会在如祺出行平台上运营,与Robotaxi一起服务消费者,以便构成空地一体的立体出行解决方案。“未来,通过如祺出行下单,前来服务车辆,可能是一辆Robotaxi,也可能是一辆飞行汽车GOVE。” 从Robotaxi、到飞行汽车,可以看到如祺出行均是较早就开始探索和布局这些新技术,在出行领域资深专家周明看来,如祺出行会这样做,其目标可能是想占据这些新技术赛道的先发优势,以便尽早让这些新技术商业化落地,讲好科技故事。 因为只有这样,才能为自身寻找新增长曲线的同时,还能在资本市场获得更多关注。但如祺出行想要实现这“一箭双雕”的目标,并不容易。 新故事离商业化还远, 如祺出行需要更多弹药 不可否认,Robotaxi已成为网约车行业公认的未来发展业务形态。 这是因为,Robotaxi的运营服务模式,与有人驾驶的网约车极为相似——都是在上车前已确定好始发地和目的地,之后等待车辆到达上车;上车后,无论是人类驾驶员驾驶车辆,还是Robotaxi自主驾驶车辆,乘客都不需要关注太多;当车辆到达目的地,当消费者下车后费用自动结算。 如此类似的服务场景,对于消费者乘客来说,几乎可以无感地做到有人网约车和Robotaxi的服务切换。也正因如此,连线出行在《2023出行产业趋势报告》中就认为以Robotaxi为代表的网约车智慧服务,未来会具有较大的潜力。 另据弗若斯特沙利文预测,到2030年中国Robotaxi生态服务市场规模将会达到2596亿元,而到了2035年这一市场的规模则会达到5779亿元,这一市场发展前景广阔。 2021-2035年中国Robotaxi生态服务市场规模预测,图源如祺出行招股书 需要注意的是,这样利好的市场发展趋势,也吸引更多玩家加入。 就在如祺出行布局Robotaxi的同年,上汽集团宣布基于享道出行业务,推出享道Robotaxi,并于上海嘉定正式上线。 再到去年8月,曹操出行也宣布与吉利汽车创新研究院智能驾驶中心正式启动Robotaxi合作项目,并与小马智行合作计划以Robotaxi业务为核心,打造开放式的商业智驾出行平台。 按照曹操出行相关负责人向连线出行透露,旗下Robotaxi车队首先会在苏州高铁新城落地运营。 “如祺出行、享道出行等网约车平台做Robotaxi,其本质的目的也是想在网约车领域占据先发优势,与此同时通过布局Robotaxi车辆,来积累路测数据,帮助自身在智能化和自动驾驶等方面的能力实现增长。”周明这样解释道。 除了网约车平台之外,百度Apollo、小马智行、文远知行等自动驾驶企业,同样也已运营Robotaxi业务,并成为它们主营业务之一,因为在它们看来Robotaxi会成为自动驾驶商业化落地的较好场景。 百度Apollo Robotaxi运营场景,图源百度Apollo官网 以上这些玩家蜂拥而至后,Robotaxi赛道也已成为新的红海市场,基于这样的背景,如祺出行能否在这一赛道上争夺到优势,还是一个问题。 对此,如祺出行或许也意识到了。其在招股书中表示,尽管对Robotaxi一直进行投资并且将继续支持该技术的研发工作,但如祺出行未必能保持市场领先地位,行业竞争可能会对该业务的发展前景产生不利影响。 行业竞争愈加激烈的同时,Robotaxi商业化落地依旧存在着挑战。 今年以来,“无安全员”运营已成为Robotaxi领域的关键词,继武汉、重庆之后,北京、上海和深圳三地也相继开放了“无安全员”Robotaxi商业化试点工作,百度Apollo、小马智行等企业获得了相关运营牌照和资格。这一消息也成为了自动驾驶行业的利好信号。 但在自动驾驶软件工程师孙兵看来,“无安全员”商业化试点,确实可以推动整个自动驾驶行业的向前发展,但Robotaxi要实现真正的商业化落地,或许还需要一些时间来评估测试,很难在短期内实现。 这就意味着,对于如祺出行为代表的网约车品牌们来说,想要让Robotaxi商业化成为自身盈利的新增长点,也许还需要等待一段时间。 如祺出行Robotaxi运营车队,图源如祺出行官微 相比之下,如祺出行追逐的飞行汽车,想要商业化落地,需要的时间可能会更久一些。 因为就广汽推出的飞行汽车产品本身来看,底座和飞行模块都是纯电动动力模式,换句话说如祺出行和广汽集团,需要做好飞行安全、续航里程、起飞重量和成本四方面的平衡。 与此同时,基于目前包括我国在内的大多数国家,对于飞行汽车商业化运营都没有建立完善的法律法规,因此业内对于该产品能短期商业化落地,不抱乐观的态度;但对于资本市场而言,则是一个充满想象力的好故事。 这样来看,如祺出行想要让Robotaxi和飞行汽车等新业务,成为新的营收增长点,还需要解决诸多的挑战。正因这样,冲击港股上市就成为关键一步,假若如祺出行顺利上市,再加上具备吸引力的科技故事支撑,该品牌就能换来更多的资金“弹药”。 如今,在网约车行业向内卷化、智能化、服务化变革的趋势下,这些弹药对于如祺出行来说,是尤为重要的。 (文中周明和孙兵为化名。)
英国加入全球AI芯片大战
图解:英伟达2020年推出的A100型号GPU芯片,用于AI推理或训练场景 摘要:英国的大学是英国人工智能行业的人才库和“永动机”。除了伦敦,另外三个AI企业最集中的区域,分别是大学云集的牛津、剑桥和爱丁堡,这也意味着英国的AI企业一直有着世界顶级学府的赞助支持和人才输送 作者:《财经》杂志专栏作家 魏城 编辑:《财经》杂志编辑 郝洲 (注:此文发表于《财经》杂志网站。作者魏城在《财经》杂志上开有专栏《魏城看英伦》) 随着人工智能(AI)聊天机器人ChatGPT的横空出世,全球各国展开了新一轮AI竞争大战。 最新的竞争战役,是在AI芯片领域展开的。 根据媒体2023年8月20日的报道,英国为了在全球计算能力竞赛中赶上其他国家,打算斥资1亿英镑,购入数千枚高性能AI芯片。 报道称,为了建立国家级的“AI研究资源”,英国政府官员已经与英伟达(Nvidia)、超威(AMD)和英特尔(Intel)等IT巨头展开了订购AI芯片的谈判。 与英伟达之间的谈判,由英国的科学资助机构“英国研究与创新署”(UKResearch and Innovation)牵头,目前已进入后期阶段。据报道,英国方面打算向英伟达采购多达5000枚图形处理器(GPU)。 AI竞争硝烟四起 GPU最初是为视频游戏设计的产品,现已成为英伟达成功的核心。ChatGPT等AI模型的动力就是由英伟达芯片提供的。目前英伟达的GPU是全球应用最为广泛的AI 芯片,据称《财富》100强企业中有一半以上都安装了英伟达的AI芯片。 AI芯片,也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块。广义来讲,凡是面向人工智能应用的芯片均被称为AI芯片。 目前,AI芯片主要分为图形处理器(graphicsprocessing unit,英文缩写GPU)、现场可编程门阵列(FieldProgrammable Gate Array,英文缩写FPGA)和应用专用集成电路(ApplicationSpecific Integrated Circuit,英文缩写ASIC)芯片,其中以GPU的使用量最大。根据国际数据公司(IDC)的数据,预计到2025年GPU仍将占据AI芯片市场80%的份额。 不过,一位了解情况的英国政府官员表示,英国如果想与欧盟、美国和中国竞争,在AI芯片角逐中领先,那么,投资1亿英镑购买AI芯片,显然远远不够。 英国首相苏纳克及其保守党政府的目标,是想把英国打造成AI领域的全球领导者。今年5月,英国政府宣布,计划在10年内投资10亿英镑,用于半导体研究、设计和生产。但与美国520亿美元的芯片法案和欧盟430亿欧元的芯片法案相比,英国政府的投入显得相形见绌。目前,英国科技行业正督促财政大臣亨特在未来几个月内为英国相关项目提供更多资金。 根据全球知名数据分析公司“全球数据”(GlobalData)的估算,到2030年,全球人工智能市场的总价值将达到3833亿美元。 另外,“全球数据”的工作岗位分析数据显示,自从2023年开年以来,英国一直在活跃的AI工作岗位广告量上落后于美国和印度。在2023年1月1日至8月1日期间,英国的活跃AI岗位广告为1.14万份,而美国的这个数字是13.88万份,印度是4.68万份,英国仅仅略高于中国的相关数据(1.06万份)。 美国作为AI的重要发源地,拥有众多技术巨头和顶尖研究机构,一直保持着领先地位,中国通过国家战略和大力投资,迅速崛起成为全球AI领域的重要力量。 中国科学技术信息研究所在今年7月7日发布了《2022全球人工智能创新指数报告》,认为当前全球人工智能发展总格局是由中美两国引领、多国呈梯次分布的格局。这份创新指数得分排名把46个参评国家分为四大梯队,第一梯队国家得分为50分以上,只有美国和中国进入。美国的得分已连续四年位居全球第一,中国则连续三年保持全球第二水平。第二梯队国家得分为35分至50分,包含英国、德国、新加坡等11个国家。第三梯队国家得分为20分至35分,包括丹麦、芬兰等12个国家。第四梯队国家得分为20分以下,包括捷克、巴西等21个国家。 欧盟、英国和其他国家也在加大投入,试图缩小与美中两国的差距。 欧盟在今年7月25日完成了推出欧盟芯片战略计划的最后一步:欧盟理事会在这一天批准了早些时候由欧洲议会通过的“加强欧洲半导体生态系统”的法规,这部被俗称为“欧盟芯片法案”的法规,目的在于为欧洲芯片研发创造条件,吸引投资,并为欧洲应对未来芯片供应危机做好准备。欧盟芯片战略计划将调动430 亿欧元的公共和私人投资,而其中33 亿欧元来自欧盟预算,目标是把欧盟在全球半导体市场的份额翻一番,从现在的 不足10% 提高到 2030年的20%以上。 “欧盟芯片法案”为欧盟大举投资于芯片研发铺平了道路,更重要的是,该法案还允许欧盟各成员国对“首创型”的芯片生产进行补贴。 如今,包括英特尔和意法半导体(STMicroelectronics)在内的多家公司都已宣布在欧洲建立新的芯片工厂。 全球AI芯片竞赛大战硝烟味越来越浓,甚至也促使一些中东国家挤入了战场,例如,根据今年8月14日的媒体报道,沙特阿拉伯已经通过该国的阿卜杜拉国王科技大学购买了至少3000枚英伟达H100芯片,阿联酋也购入了一批新的英伟达芯片。 不过,坦率地说,AI产业的竞争格局是一个多极化和分化的现象,不同的国家和地区在AI产业中有不同的优势和特色。例如美国在AI基础研究、创新能力、人才培养等方面领先;中国在AI应用场景、数据规模、市场潜力等方面领先,在人才、教育、专利产出等方面有所进步,但基础资源建设水平仍有待提高;欧盟在AI伦理、法律、标准等方面领先;其他国家和地区,如日本、韩国、印度、以色列等,则在某些细分领域有着突出的表现。 英国的优势 那么,英国在人工智能的哪些细分领域有着突出的表现呢? 英国媒体TortoiseMedia在今年6月28日发布了最新一期全球人工智能指数报告,在全球人工智能综合指数排名榜上,英国名列第四,排在美国、中国和新加坡之后。这是自从2019年以来英国首次失去这个榜单的第三名的位置。 这份报告显示,英国在人工智能领域的优势主要体现在其强大的科研能力和人才储备——人才和研究这两项指标英国均排名全球第五。在人工智能的商业生态系统这项指标上,英国也表现不错。 另外,英国在人工智能的引资方面亦有不俗的表现:2013年至2022年,英国总共吸引了129亿美元的人工智能投资,在全球名列第三,如果按照人均引资额来计算,则在全球排名第七,是法国的逾两倍,是德国和中国的近三倍。 根据英国政府今年3月发布的报告,英国总共有3170家人工智能公司,超过5万名员工从事与人工智能相关的工作,在2021-2022财年,英国人工智能公司的总收入约为106亿英磅。 英国AI领域的创业非常活跃。自2011年以来,平均每年有269家新公司在英国注册成立。 英国也是几家非常著名的人工智能研发机构的所在地。 不同于外界的常规印象,携旗下人工智能程序“阿尔法狗”(AlphaGo)击败了韩国围棋冠军李世石的DeepMind并非出身于硅谷,相反,这家闻名全球的人工智能公司最初起家于英国,虽然后来被谷歌收购,但迄今为止仍然把它的总部、人才和整体架构全部留在伦敦,仍然是一个英国本土企业。 DeepMind的一位高管还曾颇为自豪地说:“很多人告诉我们说,一个新的人工智能实验室需要设在硅谷才能取得成功。但我们并不这么认为。伦敦本地就有着全球顶尖的人才,并且这里也是全球人工智能人才的汇聚中心。” 另外,研发了ChatGPT的美国公司OpenAI,也把它的首个海外分部设在了伦敦。 英国的大学,则是英国人工智能行业的人才库和“永动机”。 今年2月公布的数据显示,伦敦的大学以29个人工智能方面的特定课程和333个CS/IT课程,跻身全球AI教育城市排行榜的首位。 闻名全球的顶级人工智能研究机构——艾伦·图灵研究所(AlanTuring Institute)也位于伦敦。 除了伦敦,另外三个AI企业最集中的区域,分别是大学云集的牛津、剑桥和爱丁堡,这也意味着英国的AI企业一直有着世界顶级学府的赞助支持和人才输送。 例如,Evi、VocalIQ、Cytora、SwiftKey和Darktrace 等英国AI明星企业,全都是在剑桥创建的,从创始人到投资者,全都与剑桥大学计算机学院密切相关。 而被称为三大专家型AI企业的Swiftkey、DeepMind和 Ravn,也都获得了英国著名大学的赞助支持,并由大学的学术研究人员直接建立,后来又源源不断地从大学吸收了学术人才甚至高级别科研人员。 英国人工智能发展有一个特色鲜明的机制——“以学带产”,具体体现为英国扶持人工智能创业的“2+5模式”。其中的“2”是指艾伦·图灵研究所和EPSRC(工程和物理科学研究委员)人工智能研究所。艾伦·图灵研究所是英国国家数据科学研究所,在国家人工智能战略中发挥着关键作用,是全国人工智能的核心,EPSRC则提供人工智能研发所需的研究经费和系统性支持。“5”是指在这两大机构周围有全英最好的五所大学——剑桥大学、爱丁堡大学、牛津大学、伦敦大学学院、华威大学,还有大批机构帮助孵化人工智能初创企业。 举例来说,由于英国在AI基础研究方面的优势,英国在“机器人人力”(即让机器人代替人去完成一些工作)领域走在了世界前列,不仅拥有像DeepMind、SwiftKey、Babylon等在人工智能领域具有国际影响的公司,还孕育了Cleo、Mindtrace等在理财、自动驾驶行业具有开拓性的人工智能企业。 AI芯片大本营仍在美国 随着人工智能研发的逐步深入,算力如今成了AI发展的核心资源,这必然导致全球一些国家和地区都在开发自己的AI芯片,力争在AI算力领域抢占制高点。 总部设在美国加州的咨询公司insightSLICE在8月21日公布了一份最新的市场分析报告,报告估算,2023年全球AI芯片市场的总价值为189.8亿美元,10年后,该市场在2033年的总价值将达到5074.6亿美元,复合年增长率将高达38.9%。 另据8月20日公布的2023年-2030年全球AI芯片市场预测报告,未来AI芯片的顶级制造商将是谷歌(美国)、Mythic(美国)、Graphcore(英国)、英伟达(美国)、英特尔(美国)、ZeroASIC(美国)、超威(美国)、高通(美国)、加州大学戴维斯分校(美国)和百度(中国)。从这一预测来看,虽然美国在普通芯片制造方面,在全球占比下降,但未来AI芯片制造的主战场仍然还在美国。 在AI芯片市场最关键的细分市场——GPU市场,英伟达占据着垄断级别的优势。2022年三季度GPU市场份额的数据显示,英伟达占88%,超威占8%,英特尔占4%。如果就国家和地区而言,那么,美国凭借英伟达、超威、英特尔三巨头,霸占了全球GPU芯片研发领域的主导地位,是远超其他国家和地区的第一梯队国家;欧盟、英国、日本、韩国处于第二梯队:欧盟、英国拥有先进的芯片设备制造技术,日本、韩国则凭借领先的半导体材料研发和制造技术等优势,抢占了市场份额;而以中国为代表的第三梯队国家还在努力追赶中。 今年早些时候,由英国政府委托进行的一项评估称,英国在全球超级计算机竞赛中已然落后,在全球排行榜上,英国的整体计算能力已从2005年的第3位,降至2022年的第10位,研究人员能够使用的高端英伟达芯片不到1000枚。这项评估呼吁,英国政府应尽快提供至少3000枚“顶级规格”的GPU。 这份评估公布后,英国政府采取了一系列措施,力图弥补英国的落后态势。 例如,今年3月,英国财政大臣亨特宣布,政府将在五年内拨款逾9亿英镑,用于人工智能和超级计算机研发。 不过,据称这9亿英镑中多数将用于超级计算机研发,仅有略多于5000万英镑的拨款被用于人工智能领域的研发。然而,随着全球AI竞赛升级,预计英国用于人工智能研发的拨款将会升至7000万英镑到1亿英镑之间。 英国政府官员们可能还会敦促亨特在今年秋季预算案中进一步增加AI研发经费。 今年5月,苏纳克会晤了DeepMind、OpenAI等AI企业负责人,商讨AI监管框架。 今年6月,英国宣布将于秋季举办世界首届人工智能峰会。 而前面提到的与美国科技巨头进行订购AI芯片的谈判,也是英国政府试图弥补本国落后态势的举动之一。 虽然英国在全球超级计算机竞赛中落后,但一些投资者仍然对英国未来的AI发展走势保持乐观。他们认为,英国有机会通过制定自己的融资和监管规则,来抓住科技行业的下一波浪潮,与美国和欧盟一较高下。 这些投资者的乐观,是建立在一些具体事件和数据上的。 例如,谷歌最近把它的AI研究部门,置于总部、人才和整体架构都在伦敦的DeepMind的领导之下。在这些投资者看来,这意味着谷歌将其战略重点——即领先世界的AI——交到了英国人手中。 再如,在如今炙手可热的生成式AI领域,伦敦已有StabilityAI和Synthesia等诸多新兴独角兽企业。而英国的AI芯片科技公司Graphcore(中文名“拟未”),也在美国公司主导的AI芯片制造领域开创出了一片天地,甚至被人称为“英伟达挑战者”。 又如,研究公司DealRoom的数据显示,今年迄今为止,投资者对英国AI初创企业的投资已经超过了对金融科技公司的投资,这是2011年以来的首次。 风投公司LocalGlobeLLP的联合创始人索尔·克莱因,就是这些持乐观态度的投资者之一,他说:“当你意识到AI不只是单纯的AI技术,而是能在金融、教育等诸多领域落地时,就有动力抓住机会,让一切发生。” (作者曾在英国多家知名媒体担任资深记者、编辑。作者微信公众号:魏城看天下)
高通收购芯片制造商Autotalks遇阻,将遭受美FTC调查
IT之家 8 月 23 日消息,据路透社报道,昨日由两位知情人士对外媒透露,美国联邦贸易委员会(FTC)预计将于明日对“芯片制造商高通收购以色列汽车芯片制造商 Autotalks”一事展开深入调查。 图源 路透社 IT之家在今年 5 月报道,高通彼时宣布将收购 Autotalks,该公司表示,Autotalks 的技术将被整合到其辅助和自动驾驶产品 Snapdragon Digital Chassis 中。 外媒称,高通与 Autotalks 的交易旨在支持高通专注于“V2X”的业务,V2X 旨在让车辆与周围环境进行通信。 除了美 FTC 外,欧盟委员会此前也宣布,将对这笔交易进行深入审查,外媒表示,高通必须获得欧盟反垄断机构的批准才能完成这笔交易。 为了打消外界对这笔交易的潜在担忧,高通在宣布收购 Autotalks 时,强调这笔交易得到了汽车制造商和零部件制造商的支持,其中包括大众、通用汽车、雷诺、大陆集团,以及三星旗下的哈曼国际。不过,该交易也遭到了匿名投诉者的反对,外媒表示,投诉者之一是芯片制造商联发科。 高通公司汽车高级副总裁 Nakul Duggal 此前曾表示:“自 2017 年以来,我们一直在投资 V2X 的研究、开发和部署,并相信随着汽车市场的成熟,将需要一个独立的 V2X 安全架构来提高道路用户的安全性,以及智能交通系统。” 高通去年曾表示其汽车业务已增至 300 亿美元(IT之家备注:当前约 2073 亿元人民币),自 7 月底以来增加了 100 多亿美元。
苹果、台积电等芯片巨头,联手制造“纳米谎言”?
【文/观察者网 吕栋】 “如果4纳米不是真正的4纳米,那么节点名称还有意义吗?”、“如果可以重新命名一个较旧的工艺,为什么要为4纳米技术承担额外的成本呢?” 苹果去年在推出iPhone 14系列时,相比以往做出的最大调整,就是在iPhone 14 Pro系列上搭载了最新的4纳米A16处理器,而在普通版中使用的是上一代5纳米的A15处理器。 彼时市场普遍认为,苹果这么做,是想拉开Pro系列和普通版的差距。这样以来,一方面可以维持Pro系列的高售价,另一方面还可以用新款处理器刺激Pro系列的销量。 然而,国外科技媒体“Wccftech”8月21日的报道称,苹果营销团队有误导消费者的嫌疑,因为苹果对外宣称的4纳米A16处理器,在内部被标记为是5纳米处理器。这一报道援引的消息源头是推特用户@URedditor,他被“Wccftech”称为“知名的爆料者”。 实际上,在苹果A16处理器诞生之前,已经有专业机构对台积电和三星的先进制程提出质疑。 比如,市场调研机构TechInsights去年曾以《关于纳米的谎言》为题发布研究报告称,两家领先的代工厂都放任客户声称他们采用了4纳米工艺,而实际使用的却仍是5纳米技术。这种情况让双方均形象受损,尤其是代工厂。而这背后,也意味着晶体管发展的缓慢。 图源:TechInsights A16与A15基本相同? 对苹果提出质疑的,不止@URedditor。 去年10月,iPhone 14系列刚刚发布一个月,长期关注苹果的“Macworld”分析师杰森·克罗斯(Jason Cross)曾深入研究了A16处理器,认为它与A15基本相同。 “据苹果公司称,A16处理器采用台积电最新的4纳米工艺制造。然而值得注意的是,台积电的‘N4’并不是真正意义上的4纳米工艺。虽然A16比早期的A系列处理器更先进,但它使用的并不是真正的下一代制造工艺。”克罗斯称。 图源:9to5mac 在这条评论下面,还有跟帖指出: “A16相比A15只是渐进式改进,这解释了为何普通版iPhone 14可以获得动作模式、光子引擎和4K电影模式等功能。它比以往更清楚地表明,苹果总是在旧设备上安装软件锁定功能,特别是iPhone 13系列可以轻松地获得这些功能。” 根据克罗斯的研究,A16的基本结构与A15相同:拥有两个高性能核心、四个效率核心、五个GPU核心和16个神经引擎核心。晶体管数量有所增加,但仅从150亿个增加到160亿个,增幅比往常小得多。 “Wccftech”援引的消息称,苹果即将推出的A17处理器会采用台积电3纳米工艺,单核和多核性能将提升31%。而苹果似乎会采取去年的策略,在iPhone 15 Pro系列上搭载A17,而普通版本仍然使用A16。 “当然,我们必须深入了解A17处理器是否只是苹果全面营销的另一款产品,或者是在全新架构上设计和量产的芯片。我们对A16不是4纳米感到失望,但这并不奇怪,因为企业总是遵循这样的做法。”报道称。 图源:Wccftech “纳米的谎言” 实际上,在苹果A16诞生前,市场调研机构TechInsights就曾发布报告质疑台积电和三星的4纳米。 根据该报告,在与台积电的长期竞争中,三星在交付5纳米芯片一年后,宣布将于2021年底交付生产4纳米芯片。而当时台积电计划在5纳米和4纳米节点之间用两年时间,在2022年第二季度交付4纳米。 但后来,为避免给三星“耀武扬威”的机会,台积电决定将其N4节点的进度“拉快”两个季度,以恰巧赶上竞争对手。 图源:TechInsights 2021年底,首个采用台积电4纳米工艺的联发科天玑9000发布。 “台积电可以突然从其通常严格而耗时的生产认证周期中,足足挤出六个月的时间,对于这一点,我们本就应该感到怀疑。”TechInsights称。 当分析天玑9000后,TechInsights发现关键工艺尺寸与台积电早期5纳米产品完全相同,“情况不妙了,该代工厂声称的4纳米产品是虚假的,正如联发科技声称拥有4纳米处理器一样”。 与此同时,三星智能手机部门正准备推出Galaxy S22,同时搭载三星自研的4纳米处理器Exynos 2200和高通的4纳米处理器骁龙8 Gen 1。为了生产这两种产品,三星还创造了一种称为4LPX的新工艺。 但TechInsights在分析完骁龙8 Gen 1后,发现4LPX在物理上与5LPE没有什么不同。 更尴尬的是,三星后来真正使用4纳米技术的产品比“假冒”的4纳米产品表现更差。由于三星在将其4LPE工艺投入生产方面过于冒进,导致Exynos 2200高缺陷率和低能效,这些困境促使高通转向台积电。 根据TechInsights报告,2022年5月发布的高通骁龙8+ Gen 1使用的是台积电更新版的N4P,“我们认为这才是真正的4纳米技术”。 当时,这家调研机构还预计,苹果A16也会使用台积电“真正的4纳米技术”——N4P。 但根据前述爆料,2022年9月亮相的苹果A16仍有可能使用的是N4,而不是更新版的N4P。 苹果A16处理器 “毫无意义的节点名” “为什么代工厂突然虚报其晶体管进展情况?(因为)这比承认进展疲软要容易得多。” TechInsights的报告称,假冒的4纳米工艺和“真正”4纳米工艺之间的区别,仅仅在于5%的光学收缩(10%的面积缩减)。但即使是这小小的进步也打破了三星的产量模型,让台积电花了两年时间才完成。 考虑到节点之间的间隔时间较长,代工厂可能会在等待下一个节点的同时提高速度、功率或产量(最终达到相同的效果)。例如,虽然4LPX与5LPE具有相同的尺寸,但前者可能会提供一些其他优势来证明其有资格获得新名称。 但TechInsights认为,在晶体管密度没有任何提高的情况下,工艺名称应采用5LPX,以表明该工艺仍然属于5纳米的范畴。因为大多数人用5纳米或4纳米的简写来代替完整的工艺名称,所以数字还是很重要的。 “尽管伪造新节点可以让代工厂摆脱短期困境,但这对他们来说是有害的。” 报告质疑称,吹捧一个“假冒”的4纳米里程碑并放任客户大肆宣传,会稀释代工厂品牌的价值。如果4纳米不是真正的4纳米,那么节点名称还有意义吗?如果可以重新命名一个较旧的工艺,为什么要为4纳米技术承担额外的成本呢?” 一段时间以来,虽然芯片代工厂没有在节点名称和晶体管密度之间保持严格的相关性,但至少当他们在名称中采用一个更小的纳米数字时,就表明其已取得了一些密度方面的进步。 TechInsights直言,公然将一个5纳米工艺重新标记为4纳米,则抹杀了节点编号的最后一丝意义。 “所以,当某个代工厂宣称其已达到下一个新水平的时候,直到拆机确认前,请切勿轻信。同样的道理也适用于那些吹嘘自己实现新制造技术的芯片供应商。随着摩尔定律磕磕绊绊走到尽头,最后留给我们的唯有谎言、该死的谎言以及那些毫无意义的节点名。”报告写道。
清华系17人,撑起中国大模型创业半壁江山
作者 | 程茜 编辑 | 心缘 智东西8月23日报道,过去三个月,生成式AI浪潮变数丛生,国内AI大模型产业也连爆大事: 6月29日美团宣布完成对AI大模型独角兽企业光年之外的收购,搜狗创始人王小川创立的AI大模型创企百川智能连发3款开源大模型;此前被光年之外收购的AI大模型创企OneFlow(一流科技)的创始人袁进辉也于本周证实,一流科技团队将瞄准大模型推理成本问题重新创业。 有趣的是,这些处于国内AI大模型竞赛焦点的主人公们——美团创始人王兴、光年之外创始人王慧文、搜狗&百川智能创始人王小川、一流科技创始人袁进辉——都是清华学子。 在如火如荼开展的AI大模型竞赛中,清华学子可谓“抢尽”了风头,除了王慧文、王小川等互联网“老炮”高调入场外,还有多位清华学院派教授、清华毕业生躬身入局。据智东西不完全统计,近期活跃的AI大模型创企中,拥有清华背景的创始人至少有17位,涉及11家企业。清华系创业团队俨然正撑起国内AI大模型创业浪潮的半壁江山。 ▲近期活跃在国内大模型浪潮中的清华系创企(整理自公开信息) 一、大佬创业:90年代清华师兄弟、互联网“老炮”高调入局 很多年后,人们回忆起国内这场盛况空前的AI大模型创业潮时刻:有两个人的名字一定会率先浮现在眼前,那就是王慧文和王小川。就在今年2月和4月,这两位互联网老炮接连官宣创业,剑指大模型。 除了这些共同点外,王小川和王慧文这对师兄弟曾于1996、1997年先后毕业于清华大学。 1、王慧文:2个月成独角兽,没产品成最大隐患 最先官宣创业的是王慧文。2月中旬,王慧文6天连发5条朋友圈,从表明态度到“500万美元带资进组求组队”、发“AI英雄榜”,最终AI大模型创企光年之外成型。 王慧文的创业之路总能看到美团创始人王兴的身影。1997年,王慧文考进清华大学电子工程系,因缘际会与王兴成为上下铺兄弟。戏谑的是,他们二人形影不离的原因是,成绩优异的王慧文进入清华大学后发现在众多佼佼者中自己只能算个“学渣”,因而与成绩相近的王兴惺惺相惜。 ▲王慧文(右一)和王兴(中间) 毕业后两人几经波折,最终在美团“胜利会师”。读研期间,王慧文和王兴双双退学瞄准了彼时在美国兴起的社交网络,打造出风靡大学生群体的校内网后陷入商业化困境,随后选择出售校内网财富自由,两人分开创业。2010年,王慧文加入美团,再次与王兴联手。2020年,42岁、身价120亿人民币的王慧文选择从美团退休。 这次,王慧文又出山,入局AI大模型。官宣创业后,顶尖人才、高额融资纷至沓来。前有北京智源人工智能研究院副院长刘江、被称为“搜狗输入法之父”的马占凯等加入,后有王兴、快手创始人宿华掏钱投资。成立两个月后,光年之后迅速跃升独角兽,估值达10亿美元。 这背后,不是技术出身的王慧文开始紧锣密鼓地召集人才,4月,光年之外完成收购同为清华系创企一流科技。这家创企的创始人是师从中国人工智能奠基者张钹院士的袁进辉。 在此之后,手持丰厚资本、技术的光年之外业务布局即将走上正轨,成为AI大模型创业焦点的王慧文,6月底之际却被曝出已经因病离岗,随后,王兴入局,光年之外被美团全权收购。 目前来看,王慧文的AI大模型创业之路已经画上了终局,此后他是否会重返“战场”仍是个未知数,但成立半年之久的光年之后在产品端尚无进展官宣的当下,就几经波折,这或许已经成为这家头顶数道光环的大模型创企的最大风险。 2、王小川:百余天官宣3个大模型,投资阵容豪华 反观与王慧文受关注度几乎持平的王小川,4个月时间就拿出三款大模型,并开启了大模型商业化的探索。 鼎鼎有名的清华大学计算机系的96级毕业生,是国内互联网产业第一波弄潮儿,他们参与并见证了中国互联网发展的每一个时刻,堪称“互联网梦之队”。王小川就是其中之一。 ▲百川智能创始人兼CEO王小川 1996年,成绩优异、对计算机感兴趣的王小川被特招入清华大学计算机系,这一待就是七年。从计算机专业到生物方向,从国内青年社区平台ChinaRen到搜狐,王小川的技术才华施展的范围逐渐扩大,但他的物理空间却几乎没有离开过五道口,王小川也被称为“清华东门守门员”。 王小川也把百川智能安家到了五道口。今年4月,王小川联手前搜狗COO茹立云成立百川智能,官宣入场大模型创业,更有多位搜狗团队老员工主动申请带资加入,据王小川在第三个大模型发布时透露,目前百川智能中前搜狗员工的比例占到30-40%。 成立一个月后,百川智能就拿到了来自腾讯、小米、金山、清华大学资产管理有限公司、好未来等十余家机构的联合投资,这样的豪华投资阵容鲜有先例。 四个月时间,百川智能已经发布参数量130亿的通用大语言模型Baichuan-13B-Base、对话模型Baichuan-13B-Chat及其INT4/INT8两个量化版本、530亿参数规模的Baichuan-53B,覆盖开源到闭源。下一步,王小川要在大模型开源的基础上,以搜狗曾经的超级应用经验为基础,找到大模型的超级应用以及比肩GPT能力的大模型。 ▲百川大模型演示案例 王慧文、王小川都是曾经缔造中国互联网的清华学子,隐退多年后,又在大模型浪潮下躬身入局。除了这两位互联网老炮外,还有众多清华系教授、学生在这场硝烟弥漫的大模型赛道中格外扎眼。 二、学院派:五位教授领衔,孵化多个大模型创企 清华大学当之无愧是国内AI大模型赛道的人才宝地,现有的学术力量风头正盛,五位教授领衔的AI大模型创业浪潮正在徐徐拉开帷幕。 在人工智能领域,不得不提的就是智源研究院这一响当当的名头。2018年,智源研究院正式成立,将北京大学、清华大学、中国科学院、百度、字节跳动等人工智能产业的头部院校、企业的顶尖人才聚集到一起。 当OpenAI的GPT-3发布后,智源研究院率先发起大模型项目,唐杰、刘知远、黄民烈、杨植麟……等清华大学知名AI学者纷纷投身其中,他们共同构成了后来悟道大模型的研发团队。 这些AI大牛也成为了这波大模型创业浪潮中的核心力量。 1、唐杰:核心成员曾参与知名大模型研发,融资拿到手软 智谱AI、智源研究院、月之暗面、循环智能,这些身处大模型热潮中心的公司,都与清华大学计算机系教授唐杰关系匪浅。 唐杰教授光环加身,他既是清华大学计算机系知识工程实验室(KEG)带头人,同时是智源研究院学术副院长、悟道项目负责人。 ▲唐杰(图源:清华大学) 事实上,最开始唐杰并不相信机器智能会超越人,他的主要研究方向是数据挖掘和知识工程,而大规模预训练模型的出现,让他看到了机器智能超越人的可能性。 2020年OpenAI甩出GPT-3,搅动了整个人工智能产业。随后,2020年10月,智源研究院率先确定了大模型研究战略方向,时任智源副院长的唐杰带领团队在2021年发布了悟道1.0和2.0模型。同时,悟道2.0凭借万亿级参数规模创下中国首个、全球最大的世界纪录。 与此同时,KEG实验室孵化的智谱AI,其核心团队也多为悟道大模型的研发人员,今年7月,刚刚收购光年之外的美团独家投资了智谱AI,融资金额达数亿人民币。目前,智谱AI中英双语开源模型ChatGLM、代码生成模型CodeGeeX等大模型及应用产品矩阵。 除唐杰本人外,他鼎鼎大名的得意门生杨植麟也入局大模型,从清华毕业的杨植麟在美国卡内基梅隆大学师从苹果和谷歌的AI大牛。6月12日,杨植麟剑指大模型的新创企月之暗面亮相,刚成立就迅速拿到红杉、真格机构投资,市场估值达3亿美元。不过,杨植麟头顶的光环远不止于此,早在2016年,杨植麟就创立了专注于自然语言理解的循环智能,还曾参与华为盘古大模型研发。 月之暗面其他三位联合创始人中张宇韬和周昕宇也毕业于清华,张宇韬与杨植麟同为唐杰的学生。 2、孙茂松:从信息处理到法律大模型,创企数量、涉足种类都处前列 清华大学人工智能研究院教授孙茂松是自然语言处理与社会人文计算实验室(THUNLP)的负责人,刘知远师承孙茂松。相比于唐杰教授,孙茂松和刘知远团队的创业公司更多,并且涉足的应用领域也更丰富。 ▲孙茂松(左)刘知远(右) 深言科技基于预训练模型打造中文信息处理引擎、面壁智能聚焦于基础大模型的核心技术、幂律智能则要将自然语言处理应用于法律。此前,王慧文还曾传出要收购深言科技和面壁智能,但这些收购传闻最后都不了了之。 2021年,一款名叫WantWords的反向词典突然在社交平台上爆火,两三周时间吸引了约30万用户。这一应用的研发人员就是后来深言科技的创始团队。WantWords基于深度学习能帮助人们根据语义描述查找词语,这一产品也帮助岂凡超打响名号。 ▲WantWords反向词典主页 早有创业想法的岂凡超,2022年毕业成立了深言科技,孙茂松担任首席科学家,并且深言科技的核心团队均为清华硕博士背景。成立至今,深言科技已完成三轮融资,最新一轮融资中腾讯、好未来在列。尽管具体的融资金额尚未披露,但据传其估值在第二轮融资完成后已达1亿美元。 另一家被传收购的面壁智能,创始人曾国洋是刘知远的学生,同时刘知远担任联合创始人,面壁智能已经完成近千万元的种子轮融资,此前推出了CPM-Live百亿中文大模型直播训练项目。 今年4月,知乎宣布与面壁智能共同开发了“知海图AI”,并为其注资数千万人民币,这也一举打破了面壁智能曾被收购的传言。技术、人才、资本、应用、数据等多重因素的加持,使得面壁智能的大模型已经在知乎的应用实现大规模应用。 除了这两家创企,还有清华大学计算机系人工智能所博士涂存超成立的幂律智能,这家公司关注的是自然语言处理技术与法律领域的结合。今年6月,幂律智能联合智谱AI发布了基于中文千亿大模型的法律垂直大模型PowerLawGLM。 3、黄民烈:瞄准心理咨询具体场景,要做中国版Character AI 同样参与悟道大模型研发的清华大学计算机科学与技术系长聘教授黄民烈,在创业初期就瞄准了具体的应用落地场景。 2021年,黄民烈教授创立了聆心智能,其创始团队多来自于清华大学、北京大学、北京师范大学等高校科研院所,截至目前,聆心智能已经完成三轮融资,投资机构包括清华系的智谱华章等,其中披露具体融资金融的为去年12月完成的数千万元天使+轮融资。 ▲清华大学计算机科学与技术系长聘教授黄民烈(图源:清华大学人工智能研究院) 创立初期,黄民烈教授就专注于让人工智能能为心理亚健康患者提供病情诊断、个性化干预的方案。这一创业目标的想法来源于黄民烈教授与其身患抑郁症学生的故事。 今年7月,聆心智能发布了超拟人大模型CharacterGLM,提供千人千面的AI形象来陪伴用户、与用户聊天等,基于这一大模型,聆心智能还正在内测用户兴趣互动社区新产品AiU。 与这波大模型浪潮中瞄准OpenAI的创企不同,聆心智能此前曾透露,他们要做的是“中国的Character AI”,Character AI的最大特点就是让用户创建个性化的AI角色来进行交互。 4、朱军:主攻多模态大模型,拿到蚂蚁、百度风投投资 清华大学计算机系教授、清华大学人工智能研究院基础理论研究中心主任朱军也是最新入局的一位清华系教授。生数科技成立于今年3月,其核心团队大多来自清华大学人工智能研究院,主要打造多模态通用大模型。 ▲清华大学计算机系教授、清华大学人工智能研究院基础理论研究中心主任朱军(图源:北京智源大会官网) 朱军教授第一次创业可以追溯至2018年,彼时专注于提升人工智能安全性的瑞莱智慧RealAI成立,专注于提升人工智能的安全性。 生数科技正是由瑞莱智慧孵化而来,成立至今拿到两轮投资,今年6月拿到蚂蚁集团、BV百度风投等的近亿元人民币融资,今年8月拿到锦秋基金独家投资的数千万人民币。 生数科技联合创始人兼CEO唐家渝还是孙茂松教授的学生,他此前在接受采访时谈道,生数科技当前所训练的大模型图像生成效果已经超过Stable Diffusion,预计将于年内赶超Midjourmy。 5、周伯文:面向消费者业务,自研百亿级垂直大模型 最后一位与上述几位教授的情况略有不同,清华大学惠妍讲席教授、清华大学电子工程系长聘教授、清华大学电子系协同交互智能研究中心主任周伯文,是AI大牛重返学界的典型代表。 从IBM到京东,周伯文从事人工智能基础理论和核心技术研究已达20年。自从2003加入IBM,他连任多个大型项目重要技术、管理职位,还作为IBM Watson集团首席科学家领队开发了IBM Watson集团人工智能平台。2017年加入京东后,又成为推动京东人工智能、京东云发展的重要人物。 ▲清华大学惠妍讲席教授、清华大学电子工程系长聘教授、清华大学电子系协同交互智能研究中心主任周伯文(图源:启明创投) 2021年,他从京东离职后,2022年中旬,清华大学官宣聘任周伯文。 除了重返学界外,周伯文也瞄准了AI创业这条路。2021年,衔远科技成立,这家公司的核心产品瞄准的是消费行业,提供基于商品供应链大模型的企业级多轮对话平台ProductGPT。并且,该公司的信息显示,这一AI大模型是其自研,参数规模为数百亿级,能让大模型在具备通用能力的基础上更擅长理解人与商品。 清华大学的学术力量已经站上大模型创业的擂台,既有清华教授下场创业,又有师生搭档入局。事实上,在国内的创业大潮中,清华帮已经不止一次撑起产业的半壁江山,而这都离不开上个世纪清华大学在人工智能领域的前瞻布局。 三、从0开始迎头赶上,清华大学撑起大模型创业半壁江山 清华大学,这一所汇聚了国内众多顶尖人才的高校,也是中国人工智能技术萌芽诞生的地方。 相比当下的火热程度,40多年前“人工智能”这个词汇在国内的专业人士眼里也很陌生。1978年,人工智能第一次出现在了清华大学内部,自动控制系更名为计算机技术与应用系,内部人工智能与智能控制教研组成立,拉开了人工智能领域的教学序幕。 清华大学也创下了全国人工智能领域的多个第一,1978年招收第一批硕士生;1983年成立首个智能机器人实验室;1983年在国际人工智能大会(IJCAI)上发表我国第一篇学术论文;1984年获得人工智能领域的第一个国际重要奖项;1987年第一位人工智能领域的博士生毕业;1990年成立全国第一个有关人工智能的国家重点实验室“智能技术与系统”;2005年“清华大学计算机科学实验室”成立,也就是当今人工智能领域无人不知的“姚班”;2018年成立跨系交叉研究机构“清华大学人工智能研究院”…… 我国逐渐在人工智能领域里赶超世界领先水平,并占据一席之地。 然而,寥寥数语始终无法完全概括清华大学从一片空白到如今硕果累累的不易。上个世纪七十年代,中国人工智能领域生物控制和模式识别等方向的研究已开始起步,但受政治环境等影响,人工智能的研究一定程度上来说处于停滞状态。 国内求学无门的研究人员为了更全面系统地认识人工智能领域,改革开放后赴美求学,40多岁的张钹就是这批留学生中的一位,他作为访问学者前往美国伊利诺伊大学香槟分校进修学习,国内NLP研究奠基人黄昌宁在耶鲁大学进行了为期一年的访问。而他们都成为了我国人工智能产业的重要奠基人和推动者。 ▲张钹院士在计算机系建立六十周年致辞(图源:清华大学) 总的来看,我国人工智能研究起步比国外晚了20多年,经历了从无到有、从弱到强的发展历程。如今,国内人工智能产业的发展已经与其他国家几乎处于同一起跑线,清华系的创业者作为这一波大模型浪潮中的中坚力量,凭借前人在人工智能领域的奠基、自身过硬的技术积累以及对前沿技术的探索、求真精神,正在从象牙塔走向练兵场并迅速成长。 结语:清华创业帮蓄势待发 清华大学可以称得上国内人工智能研究的起源地之一,在这一波人工智能新浪潮下,清华系无疑被寄予厚望。 除创业势头迅猛外,资本市场也选择重金押注清华创业团队,4月,深言科技新一轮融资完成后最新估值达1亿美元,6月生数科技完成近亿元天使轮融资,腾讯被曝今年6月向光年之外投资5000万美元…… 如今,大模型创业浪潮已经渐趋冷静,众多清华系创企已经竞相官宣大模型成果,并投身到大模型应用落地中。中国大模型创业者们的新一轮竞赛已经开始,并且愈发激烈。 如今,清华大学的优势逐渐凸显,不仅成为大模型领域的人才军备库,同时占据了国内大模型创业浪潮的半壁江山。 参考资料:计算机系建立六十周年致辞《与计算机系共同成长》
从虚拟偶像到虚拟主播,一场TO C到 TO B生意的大迁徙
编者按: 2023年,多个行业暗流涌动。 今年,互联网企业开始更加重视布局供应链和提升效率;消费品牌更加注重加盟制,向更广阔的下沉市场进军;出行行业在“内卷”浪潮的席卷下,企业们更加追求综合能力的比拼。 连线Insight&连线出行联合推出“中场战事”特别策划,通过产出系列深度报道,洞察各个行业、企业今年的变化和发展趋势。 文/王慧莹 编辑/子夜 “你可能不了解虚拟偶像,但你一定知道洛天依。” 的确,大多数人第一次了解或接触到虚拟人,都是从十年前的洛天依开始的。彼时的洛天依带给大众的是新奇感,但更大的意义是打开了中国虚拟人市场的大门。 如果说洛天依作为虚拟偶像收获了一批C端粉丝,那如今随着技术的进步和产业发展升级,虚拟主播、虚拟导购、虚拟分析师……在AI技术的加持下,虚拟数字人正深入到各行各业。 尤其是今年开始,ChatGPT浪潮席卷整个AI圈子,不仅重新点燃人们对AI的热情,也开启了玩家们对于商业化的新思路。 行业的共识是,依靠单一的IP效应赚钱,已经不是虚拟人公司理想的商业模式了,消费级产品成为业内公司吸引B端客户的重头戏,一场TO C到 TO B的生意大迁徙正在发生。 艾媒咨询报告显示,中国虚拟人带动产业市场规模和核心市场规模,预计在2025年分别达到6402.7亿元和480.6亿元,呈现强劲的增长态势。 增长态势明朗,这吸引了大批玩家的加入,既有百度、腾讯等科技巨头跑马圈地,也有魔珐科技、硅基智能等创业公司群雄逐鹿。 某种意义上,虚拟人是当下科技公司“秀肌肉”的集中体现,这背后是对各路玩家人工智能技术、动作捕捉技术、内容场景构建等综合实力的考验。 更多玩家的涌入,虚拟人行业或将不可避免地出现百家争鸣的状况,行业下半场的竞争势必更加激烈。 虚拟人行业发展仍处于早期,除了在各行各业的成果需要验证外,更重要的是商业化落地、市场监管等问题。一场场淘汰赛过后,笑到最后的才是赢家。 虚拟人的生意,从TO C做到了TO B “一口道尽千古事,双手挥舞百万兵。” 7月28日,在新一期的视频中,“国风美女”天妤作为女主角,讲述了一个关于皮影的故事。 一颦一笑之间,剧里的女主角天妤其实是一个虚拟人。她是中国首个出海的国风超写实虚拟数字人,由天娱数科打造,今年年初成为壹心娱乐旗下“艺人”。截止目前,天妤在抖音拥有350万粉丝。 今年以来,ChatGPT的东风掀起了AI虚拟人的新玩法。 虚拟人天妤打开新思路之余,金融圈也因一位数字券商分析师而成为外界关注的焦点。 5月12日,招商证券传媒首席分析师、TMT大组联席组长顾佳的AI数字分身正式曝光。据悉,顾佳的亿万分身可以同时出现在路演现场、在新闻发布会、在研报解读、在分析师电话会等多个地方。 事实上,市场对AI虚拟人并不陌生。 十年前,虚拟偶像洛天依横空出世,引起了市场对虚拟偶像的关注。彼时,伴随新技术的出现,以初音未来为首的虚拟偶像抢占市场,以VOCALOID3语音合成引擎为基础制作的中国本土虚拟歌姬洛天依在2012年应运而生。 虚拟偶像洛天依,图源洛天依官方微博 刚出生时,国内虚拟偶像市场正处于萌芽期,洛天依称得上是虚拟偶像的鼻祖。 不久前,美依礼芽也于B站开启了全网直播首秀,洛天依作为惊喜嘉宾空降直播间。有人感慨,走红11年,虚拟偶像的顶流依然还是洛天依。 十年后,2021年虚拟偶像柳夜熙引起现象级刷屏,热搜话题“挑战柳夜熙仿妆”播放次数超过4亿次;几乎同时,魔珐科技推出的国风虚拟偶像翎__Ling,出道仅三天全网覆盖影响力就超过6000万。2022年,翎__Ling还受邀参与了央视网络春晚的录制。 伴随技术的提高和市场的扩大,似乎每隔一段时间就会有新的虚拟人出现。一个趋势是,当AI技术越来越成熟,ChatGPT掀起新一轮产业革命时,市场上玩家并不满足于C端的版图,而是盯上了B端爆发的需求。 近期,魔珐科技推出了虚拟人镜JING,她具备多模态互动能力,同时拥有魔珐科技品牌市场官和产品推荐官的专业能力。此外,魔珐科技还推出了更切合企业用户需求的产品。 其中,“魔珐有言”虚拟人视频AIGC平台用于规模化地生产视频内容,“魔珐有光”虚拟人直播AIGC平台支持AI实时驱动的3D超写实虚拟人直播,服务的对象是品牌、达人、MCN等;“魔珐有灵”虚拟人服务AIGC平台则为企业提供AI虚拟人服务,例如生产虚拟导购、虚拟销售、虚拟HR。 魔珐有灵,图源魔珐科技微信公众号 当虚拟人可以依照人的指令生成复杂的表情、眼神、手势、语音时,虚拟主播应运而生。随着直播带货需求的不断扩大,一些店铺及品牌因运营成本高、相关人才紧缺等难题,开播率仍比较低,虚拟主播成为一种新的解决方案。 以头部直播电商公司谦寻为例,联合硅基智能共同创立的谦语智能发布了AI数字人直播业务。前者负责运营、后者负责技术,共同推进数字人在直播电商的落地。 谦寻向连线Insight表示,其AI数字人在专业性上已经不亚于专业主播, AI数字人升级品牌店播的时代已经来临。更重要的是,虚拟主播有实实在在地提高商家店播时带货的生产力。比如,虚拟主播在带货时长上,可以做到24小时,覆盖长尾时间。 无论是虚拟主播,还是虚拟导购,本质上,行业从TO C到 TO B的转变,也是商业模式决定的。 此前打造虚拟偶像IP是做内容,这种商业化模式落地场景单一、制作周期长。传统的虚拟偶像在任何场景“演出”一场,都需要很长的制作周期、巨大的投入。 而面向B端的企业服务,落地场景多、生产可持续,只要生产出令客户满意的消费级产品,就有市场买单。中金研报也指出,若虚拟角色在AI等技术助力下实现与用户实时智能互动,用户将获得更具真实感的体验。在AIGC风靡全球之后,虚拟人被认为是较为实际的落地场景之一。 显然,从TO C做到TO B生意思维的转变,不仅是因为玩家们的观念发生改变,更重要的是市场需求推动的。 6000多家企业竞逐虚拟人赛道, 门槛和壁垒究竟是什么? 虚拟人有多火?一些数据可以证明。 《中国AI数字人市场现状与机会分析》报告显示,我国AI数字人市场规模呈现高速增长趋势,预计到2026年将达到102.4亿元。 不可否认,AI技术的进步提升了数字人的交互能力。在政策推动和成本的改进下,市场对于虚拟人的接受度在提升。随之而来的,是越来越多的玩家参与到这场AI竞赛中。 前瞻产业研究院数据显示,截至2023年6月16日,中国虚拟人相关企业总量已经超过6000家。 需求的爆发吸引了一众前来抢蛋糕的科技巨头和创业公司。 今年3月,腾讯正式发布全新的AI智能创作助手“腾讯智影”,让用户通过上传少量图片、视频素材完成“形象克隆”,并通过接入数字人直播,让AI数字人直接替代真人,实现7×24小时不间断开播。 去年,百度推出了数字人直播平台“曦灵”,集数字人生产、内容创作、业务配置服务为一体,为各行业提供虚拟主持人、虚拟员工、虚拟偶像、品牌代言人的创建与运营服务。 另一边,电商平台、短视频平台也在陆续发布虚拟人的相关方案。 618前夕,淘宝发起“AI生态伙伴计划”,并开放七大商家经营场景,推进AI数字人直播的应用和发展。 快手在2023年光合创作者大会上,向外界展示了全模态、大模型AIGC解决方案和AIGC数字人产品“快手智播”,提供文本生成、图像生成、3D生成、音乐生成、视频生成等技术能力。 早在今年年初,字节跳动以投资的方式参与到虚拟人市场之中。彼时,字节投资杭州李未可科技公司,“李未可”正是该公司推出的AR科技潮牌及同名虚拟IP形象。 大厂占领速度很快,创业公司们也不甘示弱。正如上文提到的,魔珐科技、硅基智能等都是不断布局虚拟人行业的创业公司;同时,ChatGPT面世之后,像科大讯飞、商汤这样的AI公司,也在近期发布大模型的同时展示了其在虚拟人、数字员工生成上的效果。 市场很热闹,科技感是虚拟人最大的噱头之一,但背后需要的技术门槛也成了限制虚拟人发展的难题之一。 事实上,作为真实人类的映射,虚拟人是在元宇宙中人们活动的载体。虚拟人是运用动作捕捉、AI等技术复制真人(数字孪生)形象,以便在元宇宙当中,实现虚拟与现实的更强交互。 类似于AI行业,虚拟人行业也可以分为基础层、平台层和应用层。 处于应用层的谦寻告诉连线Insight,在虚拟人行业,三层的关系其实是相辅相成、层层递进的,基础层包括显示设备、光学器件、芯片等等基础硬件,以及建模、渲染等基础软件;平台层包括为虚拟数字人制作和开发提供技术能力的厂商;应用层则是落地到具体的商业场景中,比如游戏、电商、医疗等等。 无论是在哪种层面,从形似,到神似,虚拟人的重点在于怎么无比接近真人。这是对玩家们技术上的考验。 以虚拟主播为例,虚拟主播和真人主播最大的差别在于,互动的及时性及真实性。这是影响用户体验非常重要的因素,甚至决定着虚拟主播的带货成绩。 谦寻向连线Insight介绍,想要提升虚拟主播的“拟人化”,既需要大模型的反复训练,也需要更多技术的支持。谦寻通过真人主播的讲品逻辑、直播话术、用户互动技巧等经验,来训练更高性能的AI模型。 而直播电商行业的底层逻辑其实就是信任经济。二次元数字人存在先天不足,3D仿真数字人则费用高昂。在谦寻称为“阿凡达”的技术支持下,真人在后台操控自己的数字人主播,品牌也可以让公司内部更熟悉产品的业务人员亲自上阵,解决了实时互动的问题。 归根结底,让众多玩家参与进来的,是虚拟人技术提高,以及众多可以实现的落地场景。但想要打造一个让用户和市场都满意的产品,不是件易事。 技术在提升、成本在降, 虚拟人行业也在加速内卷 电影《头号玩家》描绘的3D世界,打开了很多人对于数字虚拟化的想象。在未来的世界,我们会遇到许多数字人,甚至进行信息、社交上的交互。 随着元宇宙、ChatGPT的相继爆火,更是拉高了外界对虚拟人交互的期待。这对行业来说是件好事,证明了市场对虚拟人的接受程度在提高。 艾媒咨询报告显示,预计在2025年,中国虚拟人带动产业市场规模能达到6402.7亿元。在谦寻看来,彼时无论是应用方,还是使用者,必然会对虚拟人商业化应用带来的专业度及信任感形成共识。 一般来说,打造一个虚拟人,主要包括建模、驱动、渲染三个环节。 网易伏羲虚拟交互技术负责人斋藤飞曾向澎湃新闻表示,虚拟人制造目前仍是一个复杂的技术体系,需要包括美术、开发、算法等跨学科、跨领域、跨职能协同。当不同领域围绕同一目标共同前进时,如何高效统筹管理也是一项巨大挑战。 好消息在于,AI的技术进步驱动了虚拟人生产成本的降低,尤其是降低了建模和驱动环节的成本。 举例来说,以往建模需要设计师在软件中手动画出一些形象,再由美术设计手动挑选,如果对制作效果不满意,只能多次返工;如今,Midjourney、Stable Diffusion 等软件可以基于已有素材和指令,智能生成一个形象。 据新莓daybreak报道,一家虚拟人科技公司产品经理表示,如果是动捕技术,成本是一秒钟1000块,这意味着时长一分钟的视频,大概需要六万块。而通过 AI 的方式去生成,1分钟只需要30块钱。 AI技术提高为虚拟人行业降本之余,为各行各业增效更加重要。 谦寻控股合伙人兼谦语智能CEO陶亚冬在采访中曾透露,传统品牌直播间需要的运营成本包括人力、设备、场地等,每月投入达15到25万元。相比之下,使用AI数字人,品牌方的花费是每月数千元。在人力投入上,原本包括主播、场控、十几人的直播团队大约可以减少到1-2人。 此外,随着各类大模型的发布,AI技术将大幅提升虚拟人的语意理解能力和用户沟通能力,进而提升其在各个领域的自动化水平。 随着AI技术的提高,虚拟人正在告别过去的制作周期漫长、成本高的时期,迎来了批量化生产、成本下降的新阶段。更重要的是,技术的升级不仅能够帮助用户快速、低成本地生成虚拟人,还能赋能企业降本增效,这对行业从业者、使用者来说都是利好。 乘着大模型的东风,虚拟人再次成为焦点。多个行业从业者向连线Insight表示,对于整个行业而言,未来虚拟人市场比拼的核心一定是商业化应用能力。但最终哪家产品能够脱颖而出,还需要市场的检验。 虚拟人产业高速发展是趋势,这个金矿很大,能真正淘金成功的人,需要内卷的精神,和对穿越周期的坚持。
算力、云连接痛点有解吗? 联想带来解决方案|AI前哨
凤凰网科技讯《AI前哨》 8月23日,近日,2023年中国算力大会在宁夏银川举行,联想携AI算力产品、方案及服务重登场。随着生成式AI爆发,国内智算超算需求爆发,对计算平台升级提出了更高要求。联想集团副总裁、中国区方案服务业务群总经理戴炜接受凤凰网科技等媒体采访时表示,智能算力场景将持续推动算力的升级,并囊括通用算力场景、超算场景和智算场景的复杂需求,这一过程面临混合架构下的一云多芯,多云管理等难题和挑战。 “我们自身作为客户,就是有很强的痛点,我们面临的首先是国内的公有云、国外的公有云统一纳管,所以联想自身的多云管理平台上几乎主流的公有云都有,这是我们自己就要去解决的,所以我们提供的混合云服务,就是基于云原生和多云管理的平台。”戴炜表示。 他强调,随着AI应用的爆发,必须打破公有云和私有云的连接和算力调度瓶颈,解决国产与通用不同的芯片架构兼容问题,并在同一算力资源池中提供可支持智算、超算和通算的混合算力。 戴炜认为,智能算力已经成为未来产业的发展方向,在服务客户过程中,联想感受到,混合架构模式已成行业趋势。 据戴炜介绍,联想基于产业需求,全面打造以AI导向的算力基础设施,并将“AI赋智 绿色赋能”作为联想AI算力战略的两大特征,同时以三种交付方式(混合云、臻算服务2.0订阅式和一站式)支持三类算力场景(通用、超算和智算)的混合计算需求。这三种交付方式能应对不同业态、不同成本水平,这样灵活的服务方案,更能切实的帮助企业智能化,赋能产业。 举例来说,联想的混合云解决方案(xCloud)是一个典型的内生外化的产品,涵盖私有云、云原生、智能运维、多云管理等4大核心产品,以及SAP解决方案、私有云解决方案、智能运维解决方案等9大通用解决方案,可实现覆盖客户“建云、上云、用云和管云”的全生命周期,目前主要应用于制造领域,能够帮助企业解决一举上云的问题。 当前,智能化已经成为一股势不可挡的浪潮。基于智能化转型战略的前瞻布局,联想已形成AI内嵌的智能终端、AI导向的基础设施和AI原生的方案服务的“全栈智能布局。戴炜表示,智能时代已经到来,联想将秉持“科技赋能中国智能化转型”的使命,以智算中心方案及服务能力,全周期陪伴客户智能化转型历程,赋能千行百业。
Meta推出“AI翻译官”!能翻译和转录近百种语言,已开源
编译 | 程茜 编辑 | 心缘 智东西8月23日报道,昨晚,Meta官宣AI大模型SeamlessM4T,该模型可翻译和转录近百种语言。 SeamlessM4T能实现近百种语言的自动语音识别、语音到文本翻译,以及近百种输入语言和35种输出语言的语音翻译、文本转语音翻译。 构建通用语言翻译器有一定挑战性,因为现有的语音到语音、语音到文本的系统都只涵盖了全球现存语言的一小部分,SeamlessM4T扩大了语言覆盖的范围,并且是一个可以完成多种任务的统一多语言模型。 秉持其一贯的开源策略,Meta在开源协议CC BY-NC 4.0下公开发布了SeamlessM4T,开发人员可以在这个模型的基础上进行开发。同时,Meta还发布了SeamlessAlign的数据集,其博客提到这也是迄今为止最大的开放多模态翻译数据集,覆盖挖掘的语音和文本对齐总计达270000小时。 SeamlessM4T Demo体验网址:https://seamless.metademolab.com/ 模型代码下载地址:https://github.com/facebookresearch/seamless_communication 一、录音、选择、翻译一气呵成,背景噪声干扰、说话人角色区分 Meta的博客中提到一般而言,现有的语音到语音翻译过程,会被划分为多个阶段,然后不同阶段会有对应的单独系统,很少能有统一的系统去完成多个任务。 SeamlessM4T的出现就解决了语音到语音翻译任务对单独系统的依赖的难题。 打开SeamlessM4T的Demo体验网站,用户点击下方的“START RECORDING”按钮就可以开始录音,录制完成进入第二步,“SELECT TRANSLATION LANGUAGE”选择需要翻译的语言种类,最后点击下方的“TRANSLATE”就会出现翻译的文本、语音两种结果。 在Meta的测试中,SeamlessM4T在保持高资源语言性能的同时,提高了中低资源语言的翻译性能,并且在近100种语言中实现了自动语音识别、语音转文本、语音转语音、文本转语音和文本转语音等多任务支持。 为了在不依赖基于文本的指标情况下更准确地评估SeamlessM4T,研究人员将无文本指标扩展到可以进行跨语音和文本单元评估的BLASER 2.0。进行鲁棒性测试时,与当前其它模型相比,SeamlessM4T在语音转文本任务中背景有噪声和出现多个说话人时的表现更好,平均分分别提高了37%和48%。 从基本的数据来看,SeamlessM4T的模型需要大量高质量端到端数据,仅仅靠人工转录和翻译的语音无法满足近100种语言语音翻译的需求。因此,Meta为200种语言构建了大规模多语言和模态文本嵌入空间SONAR,能快速搜索具有相似性的多种语言。 同时,通过挖掘公开可用的网络数据存储库中的数百亿个句子和400玩小时的语音数据,Meta还构建了语料库SeamlessAlign,能自动将超过443000小时的语音与文本进行对齐,并创建了约29000小时的语音到语音对齐。 同时,SeamlessM4T的构建还借鉴了Meta此前的技术积累,包括去年发布的文本到文本机器翻译模型NLLB、发规模多语言翻译数据集SpeechMatrix,以及今年的跨1100种语言的语音识别技术Massively Multilingual Speech等,基于大量先前的研究成果,才使得SeamlessM4T能仅用单一模型就实现多语言和多任务的翻译功能。 二、适配多任务模型架构、语音文本编码器 为了构建统一模型,Meta的研究人员在工具包、模型架构、编码器等上都进行了适配。 Meta重新设计了序列建模工具包fairseq,并使用多任务UnitY模型架构,这一新架构能实现自动语音识别、文本到文本、文本到语音、语音到文本和语音到语音翻译。 处理语音的过程中,自监督语音编码器w2v-BERT 2.0相比于w2v-BERT版本,训练稳定性和生成质量有了提升,编码器可以将获取到的音频信号分解为更小的部分构建内部表示。 文本编码器采用的是文本到文本翻译模型NLLB,它经过训练可以理解近100种语言的文本并生成对翻译有用的信息。 然后到了生成文本的步骤,通过多任务训练,Meta利用NLLB模型,通过标记级知识蒸馏来指导语音到文本翻译模型,就可以将这一编码器应用于自动语音识别、多语言翻译任务。例如,某人用法语说“bonjour(你好)”,可以将其翻译为斯瓦西里语的文本“habari”。 翻译内容的语音输出,Meta基于UnitY模型中的文本到单元(T2U)组件,这一组件可以根据文本输出生成离散语音单元,并在UnityY微调之前根据自动语音识别数据进行预训练。然后使用多语言HiFi-GAN单元声码器将这些离散单元转换为音频波形。 结语:语言翻译仍需清除有害内容输出 就Meta的测试结果来看,SeamlessM4T相比于其他系统的翻译、转录效果更好,并且覆盖的语言范围也更为广泛。 值得一提的是,与所有生成式AI存在的风险类似,翻译过程的准确性也十分重要,这一AI模型可能会错误转录用户说的话,或转录有害信息等。 因此,Meta还将高度多语言的有害性内容分类器扩展到语音,以帮助识别语音输入和输出中的有害内容。
助攻企业大幅提升生成式AI性能!NVIDIA和VMware硬核联手,打造全集成式解决方案
作者 | ZeR0 编辑 | 漠影 智东西8月23日报道,NVIDIA和VMware今日宣布扩展双方的战略合作伙伴关系,VMware计划于2024年初发布VMware Private AI Foundation with NVIDIA平台,帮助数十万家使用VMware云基础架构为生成式AI时代的到来做好准备。 该平台将作为全集成式解决方案,采用NVIDIA提供的生成式AI软件和加速计算,基于VMware Cloud Foundation构建,并针对AI进行了优化,将使企业能够自定义模型并运行各种生成式AI应用,如智能聊天机器人、助手、搜索、摘要等。 此外,NVIDIA宣布全球领先的系统制造商将推出AI就绪型服务器,计划于年底前上市,云服务提供商预计将在未来几个月提供实例。 这些服务器将采用NVIDIA L40S GPU、NVIDIA BlueField-3 DPU和NVIDIA AI Enterprise软件,使企业能够微调生成式AI基础模型并部署生成式AI应用,并提供由NVIDIA加速的基础设施和软件,以支持VMware Private AI Foundation with NVIDIA,帮助企业使用自有业务数据来定制和部署生成式AI应用。 一、NVIDIA与VMware强强联手,生成式AI与多云珠联璧合 据麦肯锡预测,生成式AI每年可为全球经济带来多达4.4万亿美元的增长。 为了更快实现业务效益,企业希望简化并提高生成式AI应用的开发、测试和部署效率。VMware Private AI Foundation with NVIDIA则能够助力企业充分利用这一能力。 建立在VMware Cloud Foundation和NVIDIA AI Enterprise软件之上,该平台提供的各种集成式AI工具,将帮助企业经济高效地运行使用其私有数据训练而成的、更加安全的成熟模型,将生成式AI作为一项服务提供给用户,并更加安全地大规模运行推理工作负载。 NVIDIA AI Enterprise是NVIDIA AI平台的操作系统。VMware Private AI Foundation with NVIDIA将采用的NVIDIA NeMo是NVIDIA AI Enterprise中包含的端到端云原生框架,集自定义框架、护栏工具包、数据整理工具和预训练模型于一身,可助力企业在几乎任何地点构建、自定义和部署生成式AI模型。 为将生成式AI部署到生产中,NeMo使用TensorRT for Large Language Models(TRT-LLM)来加速并优化NVIDIA GPU上最新大型语言模型的推理性能。通过NeMo,VMware Private AI Foundation with NVIDIA使企业能够导入自己的数据,并在VMware混合云基础架构上构建和运行自定义生成式AI模型。 在VMware Explore 2023大会上,NVIDIA与VMware重点介绍了企业内部的开发人员如何使用全新NVIDIA AI Workbench提取社区模型(例如Hugging Face上提供的Llama 2),对这些模型进行远程自定义并在VMware环境中部署生产级生成式AI。 VMware CEO Raghu Raghuram认为,生成式AI与多云珠联璧合,客户的数据无处不在,遍布其数据中心、边缘、云等多处。“我们将与NVIDIA一同助力企业放心地在数据附近运行生成式AI工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”Raghu Raghuram说。 NVIDIA创始人兼CEO黄仁勋谈道,世界各地的企业都在竞相将生成式AI整合到自身业务中。通过与VMware扩大合作,NVIDIA将能够为金融服务、医疗、制造等领域的数十万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式AI的潜力。 二、八大优势,让企业轻松安全部署生成式AI 具体而言,VMware Private AI Foundation with NVIDIA平台预计能够提供以下优势: 1、隐私:将通过能够保护数据隐私并确保访问安全的架构,使客户能够在任何数据所在地轻松运行AI服务。 2、选择:从NVIDIA NeMo到Llama 2等,企业在构建和运行其模型的位置上,将拥有广泛的选择空间,包括领先的OEM硬件配置及未来的公有云和服务提供商解决方案。 3、性能:近期的行业基准测试表明,某些用例在NVIDIA加速基础设施上运行的性能与裸机性能相当,甚至超过了裸机性能。 4、数据中心规模:虚拟化环境中的GPU扩展优化使AI工作负载能够在单个虚拟机和多个节点上扩展到最多16颗vGPU/GPU,从而加快生成式AI模型的微调和部署速度。 5、更低的成本:将最大程度地利用GPU、DPU 和CPU的所有计算资源以降低总体成本,并创建可在各个团队间高效共享的池化资源环境。 6、加速存储:VMware vSAN Express Storage Architecture提供性能经过优化的NVMe存储,并支持通过RDMA实现GPUDirect存储,从而无需CPU即可实现从存储到GPU的直接I/O传输。 7、加速网络:vSphere与NVIDIA NVSwitch技术之间的深度集成将进一步确保多GPU模型的执行不会出现GPU间瓶颈问题。 8、快速部署和价值实现时间:vSphere Deep Learning VM镜像和镜像库将提供稳定的统包解决方案镜像,该镜像预先安装了各种框架和性能经过优化的库,可实现快速原型开发。 三、构建庞大生态系统,助推企业生成式AI转型 对于将部署VMware Private AI Foundation with NVIDIA的企业来说,NVIDIA AI就绪型服务器是一个理想的平台,为竞相应用生成式AI的行业提供全栈加速基础设施和软件。 戴尔、慧与、联想这三家领先的系统制造商将率先提供搭载NVIDIA L40S GPU、NVIDIA BlueField-3 DPU和NVIDIA ConnectX-7智能网卡的系统,支持VMware Private AI Foundation with NVIDIA,以加速企业大型语言模型定制和推理工作负载。 NVIDIA AI就绪型服务器采用NVIDIA AI Enterprise。该软件为100多个框架、预训练模型、工具套件和软件提供生产就绪型企业级支持和安全性,包括用于大型语言模型的NVIDIA NeMo、用于模拟的NVIDIA Modulus、用于数据科学的和用于生产型AI的NVIDIA Triton推理服务器。 专为处理包含数十亿参数的复杂AI工作负载而打造的NVIDIA L40S GPU搭载第四代Tensor Core和FP8 Transformer引擎,相较于NVIDIA A100 Tensor Core GPU,可将生成式AI的推理性能和训练性能分别提高1.2倍和1.7倍。 NVIDIA BlueField-3 DPU可加速、卸载和隔离GPU或CPU上的巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生AI服务。NVIDIA ConnectX-7智能网卡可为数据中心基础设施提供智能、加速网络,以承载全球一些要求严苛的AI工作负载,能够为数据密集型生成式AI工作负载提供同类领先的可扩展性能。 联想集团主席兼CEO杨元庆谈道,企业迫切希望采用生成式AI来推动智能化转型。通过与NVIDIA和VMware合作,联想正在进一步扩大自身在生成式AI领域的领先地位,在客户采用AI的旅程中为其提供帮助。 戴尔科技主席兼CEO Michael Dell认为,生成式AI是创新的“催化剂”,将助力解决一些全球性的重大挑战。而采用NVIDIA AI就绪型服务器的戴尔生成式AI解决方案将扮演至关重要的角色,通过推动生产力水平实现前所未有的提升,并变革工业运营的方式,以加速人类的进程。 慧与总裁兼CEO Antonio Neri说,生成式AI将推动企业生产力规模的全新扩展。慧与和NVIDIA密切合作,在一系列企业级调优和推理工作负载解决方案中采用NVIDIA的GPU和软件,将加速生成式AI的部署。 结语:双方联合研发成果,帮企业大幅提升生成式AI性能 VMware Private AI Foundation with NVIDIA建立在NVIDIA和VMware长达十年的合作基础之上。 两家公司的联合研发成果优化了VMware的云基础架构,使其能够以媲美裸机的性能运行NVIDIA AI Enterprise。VMware Cloud Foundation所提供的资源及基础架构管理与灵活性将进一步惠及双方共同的客户。 VMware Private AI Foundation With NVIDIA以及NVIDIA AI就绪型服务器将能够帮助企业为生成式AI在业务中的应用做好准备,并在数据隐私性、安全性和可控性方面提供进一步支持。
英伟达AI的iPhone时刻来了
今天 3 月份的 GTC 大会上,英伟达 CEO 黄仁勋抛出金句「AI 的 iPhone 时刻已经到了」 现如今,时隔 5 个月后,更准确的说,或许黄仁勋的金句可以改写为「英伟达 AI 的 iPhone 时刻已经到了。」 生成式 AI 的爆火,让人们得以窥见下一个风口,无数科技巨头争先抢后地躬身入局生成式 AI 赛道,试图打开这道充满机遇的科技大门。 但想法很主观,现实很客观,算力、模型、数据一直是 AI 发展的三大要素,AI 芯片所代表的算力既是人工智能的底层基石,也是打开这道科技大门的钥匙。 而现如今,这把通往未来的钥匙正掌握在英伟达的手中。 58 年前,英特尔创始人之一戈登• 摩尔在搜集 1959 年至 1965 年集成电路上晶体管数量的数据基础上,提出了著名的摩尔定律。 集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍。 随后新的推断又涌现了出来,两年的时间间隔被缩短到了 18 个月。 在摩尔定律的作用下,CPU 和 GPU 的处理性能都获得了指数级的增长,2000 年以后,CPU 从单核走向多核,核心数量得到大幅提升。 AI 深度学习的训练和推理大量依赖矩阵计算和浮点计算,对算力提出了极高的要求,而 GPU 能够大规模并行计算,在矩阵和向量计算上远超 CPU,成为高性能计算的「宠儿」。 此外,高速的内存宽带、可扩展性强的算力池、专门优化的深度学习框架、云端部署支撑等优点,也坚定确立了 GPU 在 AI 时代的算力核心地位。 成立于 1993 年 4 月,英伟达最初便是靠 GPU 起家,通过不断的创新和发展,逐渐成为了高性能计算领域的领导者。 根据 Jon Peddie Research 发布的 GPU 市场数据统计报告,英伟达以 84% 的市场份额排名第一,排名第二的 AMD 为 12%,第三位的英特尔为 4%。 A100 和 H100 都是英伟达专门为 AI 计算设计的顶级数据中心 GPU,在训练和推理大型神经网络方面,性能都远超其他竞争对手,二者也都采用专门的 Tensor Core 和数据流架构,堪称英伟达手里的两张王牌芯片。 今年以来,英伟达主打的就是「你买的越多,省的也越多」,非常熟练且「贴心」地推出各种迭代更新的 GPU。 3 月,英伟达一口气发布了 H100 NVL GPU、L4 Tensor Core GPU、L40 GPU 以和 NVIDIA Grace Hopper 四款 AI 推理芯片。 两个月后,5 月的台北电脑展上,黄仁勋发布了用 256 个 NVIDIA GH200 Grace Hopper 超级芯片组成的超级计算机 DGX GH200。 就在两周前,黄仁勋又发布了搭载 HBM3e 内存新版 GH200 Grace Hopper,这也是世界上首个搭载 HBM3e 内存的 GPU 芯片。 HBM3e 内存是一种新型的高带宽内存技术,在运算速度上 HBM3e 能比 HBM3 运算速度快 50%,提供最高 5TB/秒的传输速率。 训练和推理是 AI 大模型的非常重要的两个步骤,而这恰恰是 GH200 所擅长的部分。在黄仁勋看来,未来 GH200 的典型应用场景就是大语言模型,并且「加速运算」、「AI 运算」将逐渐取代传统 x86 GPU 的「通用计算」。 过往无数的案例证明,优异生态系统一旦构筑成护城河,外来者在竞争中便占了下风。 英伟达过硬的生态系统自然少不了竞争对手的盖章认证,神经网络科学家 Naveen Rao 曾在英特尔担任过副总裁与人工智能平台事业部总经理。 他发现英伟达的最大优势不仅仅在于芯片本身,而是英伟达拥有一个具有大量优秀人工智能程序员的大型社区和集散地。 CUDA 是英伟达基于其生产的 GPUs 的一个并行计算平台和编程模型,目的是便于更多的技术人员参与开发。 开发人员可以通过 C/C++、Fortan 等高级语言来调用 CUDA 的 API,来进行并行编程,并进行高性能计算,这种生态系统的建立使得许多开发者依赖于 CUDA。 此前,黄仁勋向外界透露,CUDA 在全球已经拥有超过 400 万开发者和超过 3000 个应用程序,CUDA 下载量累计达到 4000 万次,全球 有 40000 家大型企业正在使用英伟达的产品进行加速计算,已有 15000 家初创公司建立在英伟达的平台上。 庞大的数字折射出英伟达显著的先发优势,倘若其他对手想要推出新的硬件,则还需要考虑追赶这个已经形成的人工智能创新生态系统。 交易的两端,一端连着卖方,一端连着买方。 4 月份,「双标」的马斯克一遍联名签署禁止训练 AI,一边偷偷扫货 1 万张 GPU 来开发大模型,甚至还不忘在 X 上公开吐槽:「似乎每个人、每条狗都在购买 GPU」。 上个月,甲骨文董事长在公开场合表示,甲骨文公司将斥资数十亿美元购买英伟达的 GPU,以扩大针对新一波人工智能公司的云计算服务。 得算力者得天下,在你追我赶的生成式 AI 赛道上,国内也同样蔓延着求「芯」若渴的焦虑。 据英国《金融时报》报道,中国互联网巨头正争相抢英伟达高性能 AI 芯片,今明两年的订单价值高达 50 亿美元。 其中百度、腾讯、阿里巴巴以及字节跳动今年向英伟达下达的支付订单金额合计 10 亿美元,总共采购 10 万张 A800,相当于每张 A800 芯片的价格达到 1 万美元,明年再交付余下的 40 亿美元。 需要说明的是,A800 本质上是 A100 的「阉割版」。由于去年 8 月份受到政策影响,英伟达只能面向中国大陆市场推出不受限制的替代版本。 不少行业人士认为,GPU 已经成为市场上公认的稀缺货,一芯难求的局面在未来的一两年内依旧难以缓解。 因此,在 GPU 供不应求的持续追捧下,英伟达的 GPU 甚至成为一些 AI 初创公司的硬通货。 作为一家云计算初创公司,CoreWeave 想要获得创业贷款并不是一件容易的事情。但「不看僧面看佛面」,得益于英伟达的投资人身份,CoreWeave 甚至可以将 H100 GPU 作为抵押物,轻易获得了 23 亿美元的贷款。 在贷款方看来,这自然不会是一笔亏本的买卖。 一方面,这笔贷款能够让 CoreWeave 的计算规模和实力得到快速扩张,增强偿还贷款的能力,另一方面,英伟达明年将推出更多迭代的 GPU,凭借与英伟达密切的合作关系以及这笔高额度贷款,CoreWeave 还可以在抢购 GPU 上夺得先机。 正如前面所提到,既然头部大厂在市场上都抢不到 GPU,那实力并不雄厚的 AI 初创公司的处境显然更加堪忧。 于是乎,一些聪明的 AI 初创公司只能选择另辟蹊径,抱团取暖,投入英伟达的怀抱。 今年 6 月份,人工智能初创公司 Inflection AI 官宣,完成 13 亿美元的新一轮融资,值得注意的是,崭新的投资名单里首次出现英伟达的身影。 Inflection AI 表示,将和合作伙伴 CoreWeave 以及英伟达一起,构建世界上最大的 AI 集群。 看似欢喜的强强联合更像是一种无奈的抉择,Inflection AI CEO Mustafa Suleyman 接受《纽约时报》的采访时表示:「公司没有义务使用英伟达的产品,但竞争对手没有提供可行的替代方案。」 事实上,Inflection AI 将全力打造一台先进的超级计算机,其中包括近 700 个 Intel Xeon CPU 的四节点机架服务器,以及配备了 22000 个 H100 GPU。 如此庞大数量的 GPU,让旁人羡慕之余,很难不让人联想到英伟达 GPU「肥水不流外人田」的优先提供策略。 当然,生成式 AI 的春风拂过,全球 GPU 供不应求,价格水涨船高,英伟达也在这次 AI 浪潮中赚得盆满钵满。 去年底,消息人士向投资银行公司的 Raymond James 透露,H100 GPU 的成本为 3320 美元(当前约 24181 元人民币),而英伟达选择以 25000 至 30000 美元(当前约 18.2 万至 21.9 万元人民币)的价格出售这些 GPU。 虽然这一说法可能没有考虑到运输物流等其他成本,不过仅从生产成本 / 售价的比例来看,英伟达 H100 GPU 简直就是一个「超级摇钱树」。 此外,据外媒 Tomshardware 报道,英伟达今年内计划出售超过 55 万块 H100 GPU。倘若属实,这意味着英伟达光从 H100 GPU 中获得的收益就已经是个天文数字。 生成式 AI 给英伟达带来的惊喜远不止于此。 今年是英伟达的「而立之年」,在五月的最后一天,英伟达成为全球第一家市值突破 1 万亿美元的芯片公司,这也是历史上第九家跻身万亿市值俱乐部的科技公司。 2024 财年第一财季财报显示,英伟达第一财季营收为 71.92 亿美元,与上一财季的 60.51 亿美元相比增长 19%,净利润为 20.43 亿美元,每股收益和营收均超过华尔街分析师的预期。 此外,本月 24 日发布的第二财季财报也预计营收超过 100 亿美元,截至发稿前,英伟达的市值已经达到 1.16 万亿美元,市盈率达到 244.09 倍,增长势头持续看好。 今年 6 月,身穿毕业服的黄仁勋受邀参加了中国台湾大学的毕业演讲,用过往的人生经验寄语毕业生! 无论是什么,像我们一样全力以赴地追求它,跑吧!不要慢慢走。 不论是为了食物而奔跑,或不被他人当做食物而奔跑。 你往往无法知道自己正处在哪一种情况,无论如何,都要保持奔跑。 历史的机遇稍纵即逝,GPU 的赛道注定是赢者通吃的赛道。 一直狂奔的黄仁勋抓住 AI 的机遇,让诞生于路边连锁餐厅的英伟达成功跻身于万亿美元俱乐部,成为了这波 AI 浪潮的最大赢家,也将继续领跑这个时代。
17万本盗版书,是“ChatGPT们”变聪明的秘密
「实锤」终于来了。 今年 7 月,OpenAI 和 Meta 被三位美国作家 Sarah Silverman、Christopher Golden 和 Richard Kadrey 起诉,称两家公司在未经作者同意的情况下,把他们的书用作素材训练大模型。 证据? 在 OpenAI 案件里,原告们输入提示词后,ChatGPT 能够总结出他们的书的内容。 演员、作者 Sarah Silverman 和她的自传,输入提示词后,OpenAI 可呈现该书总结,图片来自 Vulture 在 Meta 案件中,Meta 大模型 LLaMA 的论文里就写着,它训练数据包括一个由 EleutherAI 整理的、名为「ThePile」的素材。 「ThePile」中又包含了一个名为「Books3」的数据集,它的内容正是线上盗版图书资源库 Bibliotik 的数据。 当时,原告们提出的证据还相对「间接」。 直到现在,作家和程序员 Alex Reisner 正式揭露,Meta 的大模型背后到底都盗用了哪些作家的什么书籍。 让人意外的是,这些「证据」其实一直都放在明面,但却一直没有被揭开,这是为什么? 甚至,侵权素材的制造者,还一直坚持说这是一件「正义」的事。 17 万本盗版图书 图片来自 Interesting Engineering Alex Reisner 的「大项目」缘起于好奇心: 作为一名作家和电脑程序员,我一直很好奇生成式 AI 系统是用什么类型书籍来训练的。 今年夏天,Reisner 开始在 GitHub 和 Hugging Face 等社区找寻答案,最终找上了我们在上文提起的开源数据集「ThePile」。 然而,下载到「ThePile」,并不意味着你就能知道「Books3」里都有什么书。 「ThePile」有 800G,大得一般文本编辑器根本没法看。 Reisner 写了一系列程序才能得以从中提取「Books3」的信息。 图片来自 Unsplash 没想到的是,提取出来的信息里,并没有任何带有「书名」「作者名」等标签的数据,一切都只是「文本」。 于是,Reisner 又另外写了一个程序去提取数据中的 ISBN 编号(国际标准书号),并将这些数据和其他线上图书数据库进行比对,以辨别出「Books3」中被收录的具体书籍。 最后,这一步找出了 19 万个 ISBN 编码,识别出 17 万个对应书名,另外 2 万个编码则无法找到对应书名。 图片来自 Medium 这些书里,大约有 1/3 是虚构作品,2/3 是非虚构作品,来自于大大小小不同的出版社。 是的,在这些被识别出的书里,也包括了文章开篇提到对 OpenAI 和 Meta 提出诉讼的三位作家的书籍。 因此,这可以说是 Meta 的 LLaMA 以盗版书作为训练素材非常直接的证据的了。 此外,我们还能在其中看到《我的天才女友》作者埃莱娜·费兰特、《女仆的故事》作者玛格丽特·阿特伍德、史蒂芬 · 金、村上春树、著名饮食类作家迈克尔·波伦、惊悚小说作家詹姆斯·帕特森等人的众多作品。 玛格丽特·阿特伍德等八千多名作家也写了联名信,要求 AI 公司需要获得作家授权才可将书籍用作训练材料,图片来自《独立报》 除了著名作家的书籍以外,Reisner 还在「Books3」里找到了「科学教」创始人罗恩·哈伯德的 102 本低俗小说、90 本信奉「年轻地球创造论」的牧师约翰·F·迈克阿瑟的书,以及「外星人创造论」支持者埃里希·冯·丹尼肯的多部作品。 Reisner 在《大西洋月刊》的文章中指出,虽然「Books3」数据集在 AI 社区以外认知度不高,但在圈里挺受欢迎的,「可以下载,但要找到有点难度,想要浏览和分析也同样具有挑战性」。 像 Reisner 这样大费周章写程序来分析比对,还精心撰文在大众媒体上发布,还是首次。 与此同时,AI 圈对「Books3」也有心照不宣的维护。 用「Books3」创造者的话来说 —— 它是确保生成式 AI 发展不会被大公司垄断的重要资源。 「盗火者」还是「盗贼」? 图片来自《大西洋月刊》 如果我们不需要像 Books3 这样的东西的确会更好。 但情况是,如果没有 Books3,只有 OpenAI 可以做到他们正在做的事情。 「Books3」的创造者,独立开发者 Shawn Presser 对 Reisner 说道。 Presser 一开始做 Books3,就是为了给所有开发者「OpenAI 级别的训练数据」。 2020 年,Presser 下载了一份 Bibliotik 的副本,再改写了黑客 Aaron Swartz 十多年前写下的程序,将所有 ePub 格式的图书转换成纯文本 —— 一种更合适大模型使用的格式。 至于数据集中部分书的版权信息出现缺失,Presser 称那是转换造成的意外结果,并非自己刻意为之。 而「Books3」这个名字,也是呼应了 OpenAI 之前提及的「Books1」和「Books2」。 在 2020 年的时候,OpenAI 的论文指出,GPT-3 的训练数据中包括两个基于互联网的书籍数据合集。 人们从其体积推测,OpenAI 的「Books1」数据来自于「古登堡计划(Project Gutenberg)」—— 专门收集版权已过期的图书资源的项目。 「Books2」的内容是什么则一直无人知晓,有人从其体积猜是类似 Bibliotik 或 Libgen 的线上盗版图书库的数据。 当然,除了书籍的数据外,GPT-3 当时还用了其他数据,如维基百科和其他从网络上抓取下来的文字信息。 这也是为什么 EleutherAI 整合的「ThePile」里也同样包含了大量其他数据,如维基百科、YouTube 视频的字幕、欧洲议会的文件和速记等等。 即便如此,相比之下,书籍的高质量文本仍然显得很重要。 Meta 曾表示,最开始的 LlaMA-65B 大模型表现没有其他好,主要是因为它「所使用的书籍以及学术论文数量有限」。 MIT 和康奈尔大学合作的论文也指出,书籍在大模型训练数据中「对下游表现有最强正面效果的」。 所以我们会在 Meta 后来推出的 LlaMA 2 训练数据中看到「ThePile」和其中的「Books3」。 图片来自 CNN 这也是为什么,当 Books3 最近因丹麦反盗版组织 Rights Alliance 投诉侵权而被下架时,Presser 感到愤慨不平。 在他看来,所有牟利的大公司在私底下都把侵权内容拿来训练自己的大模型,但又因为他们不公开其训练数据,因此没人能告得了他们。 而 Books3 被下架,却正是因为他希望让大模型更开放和有更高透明度而主动公开数据来源。 Presser 强调,我们不能让财大气粗的大公司垄断这项在重塑我们文化的重要技术,而是要让所有人都有资源去建立自己的大模型: 我的目标要让所有人都能(建造这些大模型)。 除非书籍的作者有方法能把 ChatGPT 拉下线,或者告到他们关门,否则让你和我都能建造自己的 ChatGPT 是非常必要的。 正如在 90 年代的时候,去保证任何人都能设立自己的网站一样重要。 至于把 ChatGPT 告到下线,也不是完全没有可能。 人人都在告 AI 巨头 OpenAI 不再「Open」也不透明,图片来自 Politico 明星作家发起的官司也许引来更多关注,但拥有把 ChatGPT 告到「重造」的潜力的,却是传统新闻媒体。 上周,NPR 报道援引知情人士消息称《纽约时报》正在考虑起诉 OpenAI。 在过去几周里,《纽约时报》都在和 OpenAI 就授权协议谈判。然而,谈判进展似乎不太顺利,以至于《纽约时报》都开始考虑就侵权告 OpenAI 了。 报道称,联邦版权法规定,违法者每项「蓄意」侵权行为最高可罚 15 万美元,再结合《纽约时报》的文章数量,这个金额叠加起来「对于一家公司来说可能是致命的」。 除此以外,如果法官判定 OpenAI 的确非法拿了《纽约时报》的文章来训练大模型,法院也可以命令 OpenAI 销毁 ChatGPT 的数据集,强制它仅用已获得授权的作品来重新训练和创造 ChatGPT。 图片来自 BrookField 无论是原告是《纽约时报》还是书籍作家,这些官司(或潜在官司)能否胜诉,关键都在于 AI 巨头们是否能把这些信息的使用说成「合理使用」 —— 即在特定情况下,可允许不经许可去使用特定作品,譬如教学、评论、研究和报道等。 支持「合理使用」的人有两个论点: 生成式 AI 并不会重现它们用于训练的书籍本身,而是创造新内容; 那些新内容并不会损害原本作品的市场。 纽约大学科技法律与政策诊所的负责人 Jason Schultz 称,在图书被盗用方面,这个论据还挺有力的。 但《纽约时报》的律师则坚持,OpenAI 对报纸文章的使用并不合乎「合理使用」。 假如用户能通过 AI 聊天机器人,获取文章中提及的新闻事件描述,用户可能就不会再去找文章阅读了,因此有可能会成为新闻文章的替代品,影响了原有市场。 法律博主樊百乐指出,知识产权法并非一成不变,但其核心却很坚定 —— 繁荣创作市场。 如果连估值数百亿美元的 AI 公司,都可以不付一分版权费,免费把作家耗费数年心血创作的作品拿去牟利,甚至盗用这些书去训练出意图替代作家的工具,这对创作者而言无疑是致命打击。 Presser 谈论到的「数据不公平」问题,也不应是侵犯创作者权利的借口。 版权问题终究会是决定 AI 能走多远的其中一个关键因素。 范德堡大学知识产权项目联席主任 Daniel Gervais 认为: 版权法是一把悬在 AI 公司头上的利剑,除非它们想出如何协商解决方案,否则这把剑未来几年都会悬在它们头上。 这一切只是新阶段的开始。 最后,我们整理了部分仍在进行中的 AI 公司侵权诉讼,以供参考。
马斯克带火的人形机器人在中国发展的怎么样了
7 月逛过世界人工智能大会后,一直对人形机器人念念不忘。特斯拉的人形机器人擎天柱只是在大会上展出了1:1的模型,展台已经足以被挤到水泄不通。 一个不会动的人形机器人能够引起这么多关注,我是有些不解的。同一场的展会,旁边的机器狗已经活蹦乱跳能跟小孩子互动了,机械臂都已经可以卖咖啡给摊位挣钱了,为什么人们还是这么执着于人形机器人?难道只是人类的自恋作祟吗? 世界人工智能大会展出的特斯拉人形机器人 8 月,世界机器人大会来到北京,据说会展出六百多款机器人,其中包括十几款人形机器人,这立刻引起了我的兴趣。 我很想知道,在马斯克带火了人形机器人之后,中国的人形机器人发展到什么程度了。而在这之上,我更想知道,为什么一定要做人形,又为什么是现在? 在逛完一圈展览,并和多个行业人士交流后,我得到了想要的答案。 双足机器人是绝对热点,AI和硬件的发展都是重要助推 虽然模仿人类外形,但下身固定或者以轮子形式呈现的机器人也算是广义上的人形机器人。但此次机器人大会中,能明显感受到,真正类人的大型双足机器人,才是行业中的热点。 在展的十几个人形机器人公司,只有两三家公司没有双足机器人产品。而已推出的人形机器人中,有一半左右的公司都是去年或今年才推出第一款双足机器人。 成立于 2016 年的宇树科技,之前一直专注于四足机器人商业化。2023 年,宇树科技推出了第一款人形机器人,预计 2023 年 4 季度量产。 2015 年成立的达闼机器人,过往一直专注于轮式人形机器人。在此次世界机器人大会上,也第一次展出了双足机器人产品。 成立于 2017 年的追觅科技,过往产品包括自动集尘扫拖机器人、无线吸尘器,在今年的机器人大会上,也展出了自己研发的双足机器人。 追觅科技展出的通用人形机器人 为什么都在这一时间点? 与多位行业人士聊过之后,我得出了这样的结论:在软件和硬件上,现在刚好是一个各项技术都有比较大突破的交汇点。不过相比于软硬件技术的进步,大模型的进步带来人形机器人的市场想象空间变大,是更大的驱动因素。 通用机器人,即不针对物流分拣这类的单一任务优化,而是能通用地去做许多不同的任务的机器人,一直是机器人界追求的目标,也有极大的产业价值。 形成一个通用机器人,从技术上有三个要点需要解决:本体、小脑和大脑。本体即硬件部分,小脑指的是视觉、触觉等各种感知的协调,步态控制的实现和对复杂任务的完成等,而最后是大脑,它主导上层的逻辑推理、决策、规划和与环境的交互。 生成式AI的出现,使通用的机器人在大脑层面突然不再像过去一样遥远了,而业界公认,通用的机器人身体形态最合适的就是人形,这是一个直接契机。 波士顿动力等公司,很早就研制出了人形机器人的本体,小脑部分也相当发达,但面对商业化,一是成本无法下降,二是仍然缺少一个智慧的大脑。有了智慧的大脑,人形机器人的市场层面,想象空间突然变大了。 「我个人早几年不看好人形机器人这个事情,因为我一直觉得目前人类的控制技术完全没办法驾驭人形机器人这么复杂的机器人形态,」宇树科技创始人王兴兴在机器人大会上讲到,「去年底由于通用性 AI 进展远超我个人预期,我们开始立项做通用人形机器人。」 达闼机器人显然也是紧跟这一浪潮。从创始之初就发力云端机器人的达闼,看到了大模型为机器人带来云端大脑的机遇。7 月,达闼发布了机器人多模态大模型 RobotGPT,8 月马上发布了通用人形机器人。 达闼机器人发布的七仙女人形双足机器人 人形机器人,相比与四足机器人,步态控制难度要高很多,而这点在近些年也得到了解决。2023 年刚刚成立的人形机器人公司星动纪元的 CEO 陈建宇提到了强化学习方面的进步:「2016 年 AlphaGo 出来之后,强化学习这个领域开始发展,经过几年的沉淀,才真正在机器人上面用起来。比较有代表性就是 ETH 四足机器人发在 Science 上面几篇文章,2020 年、2021 年左右做出来。」 朝元机器人的王立朝还提及了硬件方向的进步:「几年前,国内的电机不太行,各方面参数都达不到,从国外进相当贵。但现在国内基本上电机的这块追得差不多了,制造成本还低。」 腿部方案各式各样,但是“小脑”还有所欠缺 世界机器人大会上亮相了多个人形机器人 demo,但相互间还有一定区别。 从外观上看,各家机器人高度都在1.6-1.8m之间,除了造型风格的差别,最大的差别在机器人的腿部。 在机器人领域,最出名的人形机器人或许要数波士顿动力的人形机器人Atlas。从驱动方式上,波士顿动力的人形机器人由液压系统驱动。液压系统的力量很大,响应速度快,支撑了波士顿动力机器人的各种需要超高力量的运动,但液压系统的昂贵,也阻碍了其商业化落地。 不过,在世界机器人大会的现场,我注意到,展出的人形机器人几乎全部采用了电机驱动的方式。 比如成立于2012年的优必选科技,使用的就是最早由本田Asimo开发的刚性驱动的电机驱动方式。其标志就是相对笨重的腿部。刚性驱动的特点是力量控制精准,但运动速度普遍较低,爆发力不足。 优必选的熊猫机器人 而现场更多的新发布的机器人则采用的是更新的设计架构,腿部与优必选科技的机器人有一些差别。 宇树科技展出的H1人形机器人 除了和人的腿部形态很接近的双足机器人之外,大会上还展出了一些创新架构的机器人。 中国兵器装备集团自动化研究所有限公司展出了“鸵鸟腿”的机器人。这种腿部设计最早源自Agility Robotics,中国兵器装备集团自动化研究所有限公司是国内首家做出相关技术的公司。据工作人员介绍,鸵鸟腿的设计可以使整个机器人重心比较高。传统的双足机器人腿部质量更大,这样腿部前摆时所需要的能量消耗就更高,而鸵鸟腿的能量消耗更低。 中国兵器装备集团自动化研究所有限公司的仿驼人形机器人,后期会增加上半身 北京理工华汇智能科技有限公司展出了一种轮腿式机器人,结合了轮式和腿式的优点。比如在平地上,机器人可以采用轮式很快地运动过去。而对于传统轮式机器人无法上下台阶的弱点,轮腿式机器人可以在上坡的时候使用双腿,下坡的时候使用轮子。 相对于普通的双足机器人,轮腿式机器人还可以整个趴在地上,解决普通双足机器人搬运重物的局限性。 右侧的机器人就是北京理工华汇智能科技有限公司的轮腿式机器人 或许是因为大部分机器人才刚刚发布没多久,和世界人工智能大会类似,此次机器人大会展出的大部分人形机器人,还处于不能走路的状态,要么只能展示手部动作,要么和擎天柱一样只展示模型状态,只有依托于北理工大学实验室和清华大学交叉信息研究院的两款机器人,在现场真正进行了走路的展示。 依托于清华大学交叉信息研究院的星动纪元展示机器人行走 “国内的人形机器人控制算法,几乎全是从四足机器人算法上改的,包括我们自己。”宇树科技CEO王兴兴告诉极客公园。“软件方面,目前毋庸置疑,波士顿动力还是遥遥领先的。” 双足机器人商业化:率先落到智能家庭场景和智能制造 在来到世界机器人大会之前,对于机器人一定要做成人形这点,我其实有很多不解。不过,在机器人大会结束后,我大概被说服了一半。 人形的确是一个更先进的形态:人形能够通用地解决大部分人类世界面临的问题。它既是产品技术能力到达一定程度的展现——能够做好人形的公司做其他类型的机器人也不难,也是许多场景下的最佳选择——一旦成本足够低,人们自然愿意选择能够融入环境的机器人而不是需要改造环境适应它的机器人。 还有一半存疑的原因是,人形机器人似乎实在离商业化有些遥远。我能想到的只有双足机器人方便融入而轮式机器人无法融入的场景实在很少,而可以想像的未来,双足机器人成本应该一直高于机械臂和轮式机器人,那么人形机器人的商业化真的成立吗? 或许也是因为需要找到只有人形才能更好融入的场景,目前,许多推出双足机器人产品的公司,当下的愿景都是将双足机器人带到家用场景中,成为一个家庭助手。 直观来说,双足机器人肯定在家居环境中适应的更好,不存在特定场景无法通过的问题,也不存在无法上下楼的问题。不过到了具体的产品落地,起码在目前,双足机器人也并不能说占有优势。 帕西尼是机器人大会展台上里少有的虽然在研发人形机器人,并想要投入到家用场景当中,但却完全没有在考虑做双足机器人的公司。部分原因就来自于双足机器人目前离商业化还是太远了。 帕西尼感知科技展出的人形机器人,亮点在于手部触觉反馈 「双足机器人就算只是站立着,电机也要一直保持运作,功耗非常高,电池可能用个 30 分钟就没电了,很难在真实的场景推广,而换再大容量的电池,控制起来更难,重量更高,耗电也会更高,如果电池技术短期没有很大突破很难解决这个问题。而基于底盘的机器人,一块电池基本上可以跑差不多 8-10 个小时,产品化会更快。」帕西尼公司的工作人员介绍道。 帕西尼感知科技的产品打算首先销往日本较为高端的市场,因为日本养老方面需求较大。 在商业化用途方面,一个例外是小米 CyberOne 人形机器人。 小米展示的CyberOne人形机器人 拥有小米的 3C 和汽车工厂,小米机器人未来的场景设定主要在小米工厂的智能制造领域。 小米集团高级副总裁曾学忠就提了一个很好的双足机器人的应用场景:「汽车制造流程的冲压、涂装、总装各个环节当中,总装仍然是重人力的环节,95% 是人工。因为首先,操作员要进入各类型仓内进行作业,而车内的空间是完全依靠人的乘坐空间来设计的,无法为组装提供腾挪的空间。第二,操作员组装零部件并非简单的重复动作,需要类人的动作能力。」 不过即使是这样,小米公司对于最后生产线的定义,仍然是 70% 机械臂,20% 人形机器人,10% 人工完成。似乎证明机械臂未来仍然将承担绝大部分的工作。 吉林大学唐敖庆讲座教授任雷在大会上表示:「人形机器人的热度具有周期性,有时候可能是技术推动的,但有的时候也可能是其他推动的。比如说这次马斯克擎天柱的公布对这次热度是起到了至关重要的作用,马斯克想把人形机器人做到千家万户,我觉得不是从技术层面,而是从市场层面把这个热度又拉起来了。」 作为一个跨越半个世纪的科技,人形机器人科技本身一定不会消亡,而是会不断向前。但这一波人形机器人是否能够获得商业上的成功,找到正确的需求,匹配合适的成本,似乎还有待验证。
Salesforce又一笔AI投资!2亿美元领投Hugging Face
编译 | 香草 编辑 | 李水青 智东西8月23日消息,据The Information报道,AI初创公司Hugging Face近日正在进行D轮融资,由云巨头Salesforce领投,预计获投2亿美元,估值较去年5月翻倍至40亿美元。 Salesforce在最近几个月积极投入AI领域,创立了2.5亿美元的生成式AI风投基金,并在随后扩大至5亿美元。此外,Salesforce也一直积极为自己的产品推出新的AI功能,与OpenAI合作推出了企业通信平台Slack专用的ChatGPT应用。 一、托管Llama 2等几十万AI模型,两轮融资估值翻倍 Hugging Face成立于2016年,最初专注于开发和提供自然语言处理相关的技术和工具,目前主要提供帮助企业和开发者构建和部署AI模型的社区服务,被称作“机器学习界的GitHub”。Hugging Face目前拥有200多名员工,其平台托管了几十万个AI模型,包括Meta的Llama 2,其客户包括微软、AWS、IBM等1万多家公司。 ▲Hugging Face的愿景——“人工智能社区建设未来” 对于不想将数据暴露给OpenAI等AI软件提供商的企业而言,其托管的开源模型很有价值。企业可以在自己的数据上训练定制版本的开源模型,而不是去购买一家公司的专有模型。 2022年5月,Hugging Face宣布完成1亿美元的C轮融资,估值达到了20亿美元。该轮融资由Lux Capital领投,红杉资本和Coatue首次参与跟投,其他跟投的投资方包括Addition、Betaworks等Hugging Face原有的投资方。 而在近日这次2亿美元的D轮融资完成后,Hugging Face的估值将达40亿美元,相较上轮融资时增长了一倍。本轮融资由Salesforce旗下投资机构Salesforce Ventures领投,Salesforce首席执行官马克·贝尼奥夫(Marc Benioff)在其社交媒体X上证实了这一消息。 ▲马克·贝尼奥夫X截图 Hugging Face公司目前的年收入有望超过3000万美元。据The Information推测,Salesforce的这次融资,可能表明它将Hugging Face视为未来的潜在收购对象。 二、狂砸数十亿美元,Salesforce大投生成式AI创企 Hugging Face此轮融资的价值反映了投资者对AI公司的持续热捧,而The Information认为这一趋势正是由OpenAI引发的。 从Anthropic、Inflection AI等AI大模型开发商,到Character.AI、Runway等AI驱动型应用开发商,都以10亿美元或更高的估值获得了融资——尽管它们目前营收微薄。 最近几个月,Salesforce也持续积极地为AI初创公司提供资金。 3月,Salesforce启动了一项2.5亿美元的大规模生成式AI风投基金,超过其2023财年的净利润2亿美元。其AI首席执行官克莱拉·施(Clara Shih)称,该基金将用于“培育下一代生成式AI初创公司”。此后,该基金投资了Cohere、Anthropic、You.com等前沿的AI技术公司。 ▲5月23日,Salesforce宣布投资Anthropic(图源:Salesforce官网) 6月12日,Salesforce宣布将该基金规模从2.5亿美元扩大到5亿美元。Salesforce Ventures的执行合伙人保罗·德鲁斯(Paul Drews)在一份声明中称,扩大基金规模使公司能够“与更多创业者合作……加速开发企业变革性的 AI 解决方案”。 6月29日,Salesforce宣布,未来五年将向其英国业务投资40亿美元,专注于数字化转型和AI。公司表示,40亿美元的计划是基于其2018年至2023年这五年间在英投资25亿美元的基础制定的。贝尼奥夫称:“AI正以我们从未想象过的方式重塑世界,改变商业模式。将来,每家公司都要以AI为先。” 三、将AI功能融入产品,联合OpenAI推出专用ChatGPT 除了投资AI初创公司外,Salesforce还积极地将新的AI功能融入自己的软件产品中,因为它的一个主要竞争对手微软正在加速前进。 微软的GitHub部门销售AI编码助手,Azure云部门销售人工智能模型,Office 365应用程序中也推出了新的AI功能,可以总结文本或撰写论文和电子邮件。 今年3月,Salesforce联合OpenAI推出了适用于企业通信平台Slack的ChatGPT应用程序,可直接在Slack中提供即时对话摘要、研究工具和写作帮助。 ▲Salesforce推出适用于Slack的ChatGPT应用(图源:Salesforce官网) 同时,Salesforce还发布生成式AI产品Einstein GPT,称其是“全球第一个用于CRM(客户关系管理)的生成式AI”,可在销售、服务、营销、商业等领域提供AI创建的内容。例如,Einstein GPT可以为销售人员生成个性化电子邮件以发送给客户,为客服人员生成具体响应以更快地回答客户问题,为营销人员生成有针对性的内容以提高营销活动响应率,为开发人员自动生成代码等。 ▲Salesforce发布Einstein GPT(图源:Salesforce官网) 6月12日,Salesforce宣布推出以Einstein GPT为核心的AI云,通过将AI、数据、分析和自动化结合在一起,提供面向企业的实时生成式AI。其竞争对手AWS和谷歌云等也开始在出售AI软件的同时,出售第三方模型的使用权,以及用于训练AI模型的专用服务器。 结语:Salesforce积极追赶生成式AI热潮 Salesforce近日领投了新兴AI社区Hugging Face,后者的最新估值较上轮投资直接翻倍。近几个月来,Salesforce持续积极追赶生成式AI热潮,设立AI基金、推出AI产品。 Salesforce的努力也得到了一定的回报。其5月发布的2024财年第一季度财报显示,该公司第一季度营收82.5亿美元,同比增长11%。Salesforce对未来发展持乐观态度,预计第二季度营收85.1至85.3亿美元,同比增长10%。 Salesforce未来能否达成这一目标,我们会持续关注。
百度二季度净利增长44%,李彦宏:将文心一言看作新流量渠道
得益于在线营销业务的表现和经营杠杆推动,百度基本盘业务增长提速。对于外界较为关注的生成式AI,李彦宏称,年底将推文心大模型4.0版。 8月22日,百度(Nasdaq:BIDU,09888.HK)发布了截至2023年6月30日的第二季度未经审计的财务报告。第二季度,百度实现营收341亿元,同比增长15%;非美国通用会计准则(non-GAAP)归属百度的净利润达到80亿元,同比增长44%;营收和利润均大幅增长,超市场预期。此前分析师预估非公认会计准则下,百度每股美国存托股稀释收益为16.81元,数据显示二季度收益为22.55元。 在随后的财报电话会上,百度创始人、董事长兼首席执行官李彦宏大部分时间在回复关于大模型、生成式AI的问题,他表示,能做基础模型的企业只有少数几家,在新版本推出之前,百度会推动当前版本的使用,让不同行业的应用和场景进行探索。 此外,李彦宏称,他对广告营销业务的前景表示乐观,预计下半年会继续看到百度在线营销业务明显的复苏趋势。 AI产品变现前景如何? 财报在披露经营摘要时,将文心一言的表现列在了首位,先于移动生态、智能云、智能驾驶等业务,但财报并未披露文心一言为百度带来的收入贡献。财报称, 2023年5月,百度推出了文心大模型(ERNIE 3.5),这是百度对话式人工智能机器人文心一言的最新基础模型。根据IDC于2023年7月发布的最新AI大模型技术能力报告,ERNIE 3.5在算法、行业覆盖、开发者工具及生态系统等多个领域表现优异。 财报会上,李彦宏在回答AI产品变现前景如何问题时表示:“AI原生思维很重要,我们已经在重构用户的搜索体验,在接触过加入文心一言功能的百度搜索服务后,用户会问更多以前在平台上很少被问到过的问题,并且会有多轮的对话和互动,这同传统使用搜索服务的用户行为有很大的不同。从点击率上看,有明显增长,再往后可以转化为留存率。” 李彦宏说,百度将文心一言看作为一个新的流量渠道,把用户和百度以及其他第三方APP连接在一起,满足用户的需求。比如,百度文库的“AI文档助手”功能发布后,用户的使用时长翻了一番还多,7日留存率提升了将近10%,相信“AI文档助手”功能可以将更多非付费用户转化为付费用户,并且付费用户也会愿意为百度未来推出更多的功能额外支付费用。 总结来看,李彦宏认为,用户的反馈令人鼓舞,这是百度未来基于大型语言模型和生成式人工智能技术重新构建公司产品的一个开始。同时,百度也看到大语言模型重建公司广告业务,提升商业变现方面的好机会。比如,文心一言有助于提升广告的精准投放能力和竞价系统,而生成式人工智能技术也将推动百度各类产品的市场份额增长,成为百度在线营销业务增长的驱动力。 百度智能云总裁沈抖也在会上谈及人工智能技术对云业务的影响,并表示,现在谈关于经营模式的问题还为时尚早,“除了为客户提供基于人工智能技术的计算基础设施之外,我们也在考虑向客户收取使用文心一言服务,或者像AI编码助手Comate在内等其他人工智能应用的费用,我们也可以向客户收取再培训和在百度平台运营其自有模型的费用,或者向客户的私有云部署百度基础模型,然后按项目收取费用。我们预计人工智能这一新的机遇将逐步推升公司的营收增长,未来长期的发展潜力巨大,为了向客户提供更优质的服务,我们将持续在文心一言方面的投入。”沈抖说。 百度首席财务官罗戎则表示将继续坚定投资AI,在未来几个季度加大对大语言模型和生成式AI的投入。 值得关注的是,该季度,百度的研发费用为64亿元,同比增长1%,主要是由于支持文心一言研究投入的服务器折旧费用和云相关费用增加,部分被人员相关费用的减少所抵消。 在上一季度,百度高管就在电话会上披露,百度已就文心一言进行了相关的监管审批,在获得最终审批后,会大规模向更多的用户部署。在二季度财报会上,李彦宏重申百度正在等待监管方面的批准,但未提及可能获取批准的具体时间。 据悉,4月11日,国家互联网信息办公室发布的关于《生成式人工智能服务管理办法(征求意见稿)》提出,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。《生成式人工智能服务管理暂行办法》已于8月15日正式施行,这也是我国首个针对生成式人工智能产业的规范性政策。 在线营销业务复苏 百度核心(Baidu Core,即搜索服务与交易服务的组合)是百度的基本盘,也是其现金牛业务。 财报显示,二季度,百度核心收入264亿元,同比增长14%。其中,在线营销收入为196亿元,同比增长15%,非在线营销收入68亿元,同比增长12%。百度核心经营利润(non-GAAP)同比增长27%至65.1亿元,经营利润率为25%,相比2022年第二季度的22%和2023年第一季度的23%有所提升。百度核心在经营中产生了约97亿元净现金流。 用户数据上,财报显示,2023年6月,百度App的MAU(月活跃用户)达到6.77亿,同比增长8%。 综合来看,百度在线营销业务延续了上一季度的复苏态势,而在去年四个季度,百度的在线营销业务都出现了同比负增长。在一季度时,医疗保健行业的营销已经回到疫情前水平,旅游业因五一长假的到来也贡献明显。李彦宏在谈及在线营销业务二季度表现时也表示:“垂直行业方面,新冠疫情后复苏推动了包括医疗保健,商务服务,本地服务和旅游等行业的表现持续优于其他行业。同时,二季度电商行业继续增长,并且保持了对公司在线营销服务营收贡献最大行业的地位,争夺电商行业客户的竞争非常激烈,越来越多的商家意识到百度平台的价值,寄希望于百度平台获取新用户和实现销售额,以及提升既有顾客的复购率。” 李彦宏称,预计下半年广告业务的恢复势头还将持续,搜索仍将是效果广告客户实现营销效果的最有效方式,但考虑到去年三季度的高基数,预计三季度的业务增速可能不及二季度高。此外,通过大模型以及生成式AI,百度在广告模式创新和个性化广告方面等广告技术方面取得进展,预计这些技术也将推动公司三季度营收。 若从其他细分业务表现来看,百度云的业绩并未在财报中披露,李彦宏在电话会议上表示,百度云在一季度实现首次盈利,二季度持续盈利(non-GAAP),收入同比增长5%至45亿元。 上一季度,百度云收入同比增长8%至42亿元,同比数据来看,智能云业务增长放缓。据悉,百度从去年就在努力提升云业务的利润率水平,比如淘汰一些低质量的产品与业务、为关键使用场景打造标准化的人工智能解决方案,以便于将其复制等。各大券商报告也预见了二季度云业务增速可能放缓,有券商指出,云计算业务受到智能交通项目预算收紧及汇款问题等影响,预计二季度同比增长在低个位数。 萝卜快跑运营情况方面,李彦宏表示,全无人自动驾驶运营区域扩大和车队规模增加的同时,运营效率也在提高,每车每公里成本降低。与此同时,萝卜快跑每日平均订单量和每笔订单收入也大幅增长。第二季度,萝卜快跑为公众提供的乘车服务达到71.4万次,同比增长149%,截至2023年6月30日,萝卜快跑累计向公众提供的乘车服务数量达到330万次。 截至2023年6月30日,百度的现金、现金等价物、受限制资金及短期投资(不包括爱奇艺)为1969亿元,自由现金流为人民币79亿元,自由现金流(不包括爱奇艺)为71亿元。 或得益于二季度财报超预期,百度昨日美股盘前涨超4%,随后股价有所回落,截至收盘,百度涨2.75%,报128.360美元/股。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。