行业分类:
加载中...
头条分类:
加载中...
全球领先:中国自研高清无线音频编解码标准L2HC发布
集微网消息,9月19日,我国首个高清无线音频编解码标准:L2HC正式发布。这一标准是全球首个统一架构、全码率无线音频编解码标准,在传输速率、抗干扰、兼容性等多个方面全球领先。该团体标准名为《低延迟低复杂度高清音频编解码技术规范》编号为:T/CAIACN 009-2023。 参数上,L2HC将音频传输码率扩展至64k~1920kbps,码率超越LDAC、LHDC;支持96kHz/24bit高清音频传输;支持细腻平滑的自适应码率切换,在商场、机场等强干扰环境中仍能给用户提供稳定的高清音频体验;L2HC还可兼容蓝牙、星闪等传输技术,推动无线音频体验向高清无损、母带音质等方向持续演进。 19日,中国电子音响行业协会(CAIA)和中国电子技术标准化研究院联合主办的2023 GAS音频技术峰会在北京盛大召开。本次峰会以“新技术、新应用、新发展”为主题,正式发布了全球首个统一架构、全码率无线音频编解码标准L2HC,标志着国内高清无线音频产业进入新的里程碑。 工信部电子信息司消费电子处处长李婷、电子标准院副院长刘贤刚、中电音协常务副会长陈立新、华为终端产业发展副总裁何小祥、星闪联盟副理事长杨楠等多位业内重量级嘉宾出席活动并致辞,会议由电子标准院董桂官主任主持,腾讯音乐、漫步者、网易云音乐、华为音乐、歌尔、恒玄、楼氏、广汽、爱普泰科、七九七、谛声、塞宾等到场共同见证了L2HC团体标准的发布。 作为我国首个高清无线音频编解码标准,L2HC由近四十家单位参与制定,可为符合要求的产品提供免费授权。中电音协将联合产业链上下游共同推进L2HC在智能穿戴、家庭影音、车载音频等领域的应用。 值得注意的是,华为是L2HC标准核心贡献方,此前华为FreeBuds Pro系列真无线蓝牙耳机,就已搭载L2HC 2.0编解码协议。此标准的发布标志着我国无线音频产业在音频技术研究、产品设计等领域逐步领先世界。L2HC也提供了更加友好、开放的授权政策,能够更好地促进设备间的互联互通。 中国电子音响行业协会表示,L2HC也与去年诞生的自主高清无线音频标准HWA协同强化中国的“技术+认证标准体系”,力求在音频领域发出“中国声”。在L2HC标准的助力下,未来会有更多HWA产品进入市场,促进我国音频产业的健康发展,让更多消费者“听见”科技之美。 集微网了解到,峰会上,QQ音乐、网易云音乐、华为音乐等流媒体平台也分享了对音质音效技术的应用实践。无损、高清、空间音频等体验需要内容制作、分发、传输、终端等各环节的端到端配合,才能实现最佳效果。 机构统计,2023年第二季度中国真无线耳机(TWS)出货量达1511万台,同比增长18.6%。随着TWS耳机等移动音频设备的进一步发展,以及消费者对产品的更高要求,开放、灵活、高音质的无线音频标准,成为大势所趋。L2HC凭借最高达1.9 Mbps的码率,结合星闪无线技术,将为音频行业和数字音乐产业开辟新的赛道。
MSN删除了抄袭,乱编的AI文章,但问题仍未解决
站长之家(ChinaZ.com)9月19日 消息:据报道,Microsoft的MSN新闻门户网站近日刊登了一篇看似由人工智能生成的文章,内容涉及前NBA球员Brandon Hunter的最新消息,然而,这篇文章后来被撤下。 这篇文章由一家名为Race Track的出版社制作,指责Hunter已经"42岁了还没什么用",很可能是算法抄袭了TMZ Sports博客的内容,但在此过程中,文章的来源变得一团糟糕。 图源备注:图片由AI生成,图片授权服务商Midjourney 尽管MSN尚未对此事作出正式回应,但据称他们已删除了有争议的文章。这些被删除的文章包括一篇最近有关Kevin Porter Jr因家庭暴力被捕的报道,以及一篇关于"Corridor of Fame"足球球员"Pleasure Taylor"的文章,很可能是对NFL名人堂成员Joy Taylor的混淆引用。 然而,尽管MSN删除了这些文章,Race Track仍然在发布一系列难以理解的文章,而MSN则继续转载这些内容。就在新闻发布前一个小时,这家神秘的出版社发布了一篇题为"7个作为学生尝试高尔夫的原因"的报道,似乎是对Golf Monthly于2022年发布的一篇文章的抄袭。 这并不是MSN首次被发现发布由人工智能生成的内容。例如,上个月,MSN发布并随后删除了一篇同样令人费解的AI生成的渥太华旅游指南,该指南建议游客参观当地的食品银行。 可见如果没有有效的系统化内容审查方法,我们很可能会看到更多无意义的、由人工智能生成的文章继续传播。
中国就快生产出EUV光刻机了吗?冷静!
2021年2月,清华大学的唐传祥教授团队与德国科学家合作在《自然》上发表了一篇论文,报告了他们对基于被称为SSMB原理产生极深紫外光源的理论完成了一定的实验验证。但时隔两年后的今天,这一工作突然被一些自媒体炒作为中国将建立起EUV光刻机工厂。但是,独立制造一台光刻机,能有这么快吗? 撰文 | 汪诘 最近这一周,一则科技新闻在网上风传,消息说中国科学家发现了一种新的产生极深紫外光源的原理,可以突破光刻机的卡脖子技术难题。甚至还有很多人传说,我国已经在雄安开始建设光刻工厂了,“有图有真相”,说得有鼻子有眼。 很多人来问我是不是真的,我先说答案:新的光源产生原理是真的,但那个早在 2010 年就提出了,目前还处在原理验证阶段,离真正实用少说也还有 15 到 20 年的时间。而这次热炒的清华大学科学家的论文其实也是 2021 年初就发表了,不知道为什么两年半后突然被挖出来热炒。至于雄安建什么光刻厂云云,那就是以讹传讹,子虚乌有了。 今天刚好借着这个话题,来跟大家聊聊造一个光刻机为什么那么难,中国有没有可能完全独立自主研发出最先进的光刻机。 光刻机就是用来生产芯片的关键设备,我们用的每一台电脑,每一台智能手机中的芯片就是用光刻机生产出来的。 衡量一块芯片的工艺先进程度,用的是 xx 纳米(nm)这样一个单位。纳米是个长度单位,1 纳米等于 10 亿分之一米。前两周华为不是出了一款最新的手机 Mate 60 pro 吗,这手机一出来,大家就惊呼,哇,这款手机用的芯片是 7nm 制程的,不得了。这里解释一下 7nm 制程是什么意思,简单来说,芯片上的电子元件,也就是晶体管,是被刻出来的,就好像我们在橡皮图章上刻字。在同样的面积上,能刻出来的晶体管越多,芯片也就越先进。在芯片领域,就是用多少多少 nm (纳米)来表示芯片的先进程度,数字越小表示芯片越先进。10nm 的比 14nm 先进,7nm 比 10nm 先进,你不要纠结为什么是 5、7、10、14 这样数字,这背后有复杂的历史成因。 芯片是用激光在硅片上刻出来的,所以,要把晶体管刻得越小,就需要波长越短的激光。现在全世界最先进的光刻机用的光源叫极深紫外光,英文简称为 EUV,波长是 13.5纳米,它是美国公司研发出来的,但这家美国公司现在被荷兰的阿斯麦公司收购了。不过这里要弄清一个概念,不是说 13.5 纳米波长的激光就只能刻 13.5 纳米的芯片,它其实能刻 7 纳米,5 纳米,甚至更小制程的芯片。 比 EUV 更差一点的光刻机用的光源是深紫外光,英文简称 DUV,波长是 193 纳米,比 EUV 大了一个数量级。华为最新手机用的那个 7nm 制程麒麟 9000s 芯片就是用 DUV 刻出来的,是的,193 纳米的波长,利用一种叫做多重曝光的技术就可以刻出 7nm 的芯片。但就是这种 193 纳米的光刻机,我国现在也还是造不出,能造出 DUV 的全世界也只有日本的佳能和尼康,以及荷兰的阿斯麦公司。对,你没听错,美国也不行。 这里顺便插一句什么是多重曝光技术。我用一个最简单的比方来试着说明一下,比如说,现在你有一个画正方形格子的机器,但它能画出来的正方形的格子的边长是 100 毫米,你有没有办法利用这个机器画出小于 100 毫米的正方形格子呢?是可以的。方法就是我先在纸上画很多连在一起的格子,形成网格。然后我把机器稍稍挪动一下位置,在这张纸上再画一次,这样又会画出一个新的网格,两个网格重叠在一起,线条就会交错形成更小的格子。你自己可以拿笔在纸上试一下。 光刻机每次刻芯片的过程就是一次曝光,用 DUV 去生产 7nm 制程芯片也是一样的,一次没办法,就多曝光几次,每次曝光之后就移动一小步再曝光。这样就可以刻出更小的晶体管。当然了,这样做也不是没有副作用的,那就是出错的可能性也更大了,大规模生产的话,会有很多失败的芯片浪费掉。用专业术语来说,就是芯片的良率比较低,次品率比较高。 我们回到正题,制造一台光刻机有多难呢? 我先定个性,光刻机是目前为止,人类有能力制造的最精密和复杂的机器,没有之一。一台光刻机,有三大关键部分组成。第一部分是光源、第二部分是光学系统、第三部分是蚀刻工作台。每一部分的技术挑战都堪比登月。 先说光源。要产生 13.5 纳米波长的极深紫外光,目前的做法是用高功率的激光轰击一个直径只有三千万分之一米的小锡球(就是金属锡的锡)。但这一句话不足以描述它的难度,我需要展开来说。 首先要让一束激光准确击中正在以时速大约 200 英里运动的小锡球,等小锡球的温度达到 50 万度时,再用一束激光轰击它,这时就能产生波长 13.5 纳米的极深紫外光。要持续稳定产生这种紫外光,需要以每秒钟大约 5 万次的频率轰击小锡球。这种激光器全世界只有一家德国公司能生产,这家叫通快的德国公司用了十年时间才研发成功,单单是这台激光器就有 45700 多个零件。但你可能没想到,通快公司的这台激光器又依赖于一家立陶宛的公司提供关键设备,没有这家立陶宛公司制造的光源设备,通快公司也不行,简直就是螳螂捕蝉黄雀在后的既视感。下一个难关是如何把这种极深紫外光收集起来,形成一束极深紫外光的激光呢?这就是下一个关键部分。 光学系统。为 EUV 研制的这套光学系统全世界也只有一家德国公司能制造,它就是大名鼎鼎的蔡司公司。你可能听说过蔡司生产的相机镜头是世界上最好的镜头之一,可是相机镜头与 EUV 光学系统用的镜头比起来,那就好像是螺旋桨撒农药的飞机和喷气式战斗机的差别了。这套光学系统至少涉及以下这些技术挑战:高精度非球面加工,多层膜反射镜,高质量熔炼,离子束抛光技术,极限精度磨制。刚才说的这一串技术名词你不必深究,你只需要知道,最终的目标是要制作出一片绝对光滑平整的镜片,要光滑到什么程度呢?就是三体中水滴的那种光滑程度,镜片的起伏就是大约一个原子的误差,接近理论上的物理极限。如果用蔡司自己的宣传比喻,就是把这片镜片放大到整个德国那么大,起伏也没超过 0.1 毫米。如果一个病毒落在这片镜子上,那就好像拔地而起一座百米小山。所以,这套光学系统必须工作在真空中,不能有任何一点点的干扰。但有了光源和镜头还远远不够,这只是好比我们有了刻字的刻刀,接下去一步是要在指甲盖大小的硅片上刻出几百亿个晶体管。 精密仪器工作台。为了把几百亿个晶体管刻成,我们需要一个精度极高极高的控制台,我很难找到准确的比喻来形容它的制造难度。这个控制台由 55000 个高精度的零件构成,而这些零件又至少依赖于日本、韩国、中国台湾、美国、德国以及荷兰自己提供的专利技术,少了任何一个国家都不行。 以上这些,大概就是制造一台目前世界上最先进的光刻机的难度。它的研发历史大概是这样的:1997 年,英特尔公司和美国能源部共同投资一家公司,开始研制 EUV 光刻机。在 6 年的时间中,这家公司研发了绝大部分的核心专利技术。但英特尔和美国能源部都不打算自己造光刻机,因为他们觉得造光刻机其实不挣钱,还不如把核心技术授权给一家外国公司,让他们去造光刻机。后来,荷兰的阿斯麦公司拿到了这些核心技术的授权,然后在三星和台积电等公司的帮助下,终于在 2010 年生产出了第一台 EUV 光刻机的原型机,又测试、优化、升级了 9 年,最终在 2019 年生产出了第一台可以正式投入商业生产的 EUV 光刻机,总共历时 22 年。 然而,虽然 EUV 光刻机是荷兰的阿斯麦公司生产的,但它也不过就是一个组装厂,只有 15% 的零件是自主生产的,其他 85% 的零件依靠进口。又因为美国能源部拥有光刻机几乎所有的核心专利,所以,阿斯麦生产光刻机,需要美国能源部的授权。这就是为什么假如美国政府说不准把光刻机卖给中国,荷兰的阿斯麦公司只能听它的原因。可以说,一台 EUV 光刻机是七、八个国家围成一个圈,卡着阿斯麦的脖子。 中国想要突破技术封锁,独立生产光刻机,就需要在全部三大关键部分上实现完全的自主创新。我们现在只能说,在第一个光源部分,我们看到了一点点希望。 2010 年,斯坦福大学的华人教授,同时也是清华杰出访问教授赵午与他的博士生一起提出了一种产生极深紫外光源的新原理,这种原理被称为“稳态微聚束”,英文简称 SSMB,就是利用巨大的粒子加速器来产生极深紫外光。2017年,清华大学的唐传祥教授团队与德国的同行一起合作,完成了实验的理论分析和物理设计,并开发测试实验的激光系统,进行了一定的原理验证。2021 年2 月,他们的论文在《自然》杂志上成功发表[1],唐教授的博士生邓秀杰是第一作者,唐教授和德国亥姆霍兹柏林材料与能源研究中心的另外一位教授是通讯作者。这里顺便提一下学术圈的一般规则,第一作者一般是指该研究课题中贡献最大的人,而通讯作者则是课题的负责人和成果受益人。 到了 2022 年 3 月,唐传祥教授和邓秀杰博士又在我国的《物理学报》上发表了同名论文[2]。可能他们自己也没想到,一年多后,不知道什么原因,大概是在 2023 年的 9 月 13 日,不知道是哪个自媒体发了个视频,标题很那个啥,叫《逆天了!清华大学SSMB-EUV光源横空出世,功率达到EUV光刻机40倍》,然后,仿佛一把火,各个自媒体平台都开始以各种“逆天了”三个字开头为题,来热炒清华大学的这个 SSMB 方案,看得我都傻了。 我希望大家冷静的是,我们现在离实现生产极深紫外光刻机还有十万八千里,千万别上头。首先,清华的官网上说,2021 年,唐传祥教授就已经向国家发改委申报把 SSMB 实验装置列为十四五国家重大科技基础设施。但是,我没有查到任何立项的新闻。考虑到这是民用科研项目,而不是军事项目,如果立项都是需要公示的,因此,至少到目前为止,这个项目还没有立项。 我们就算乐观一点,明年能够立项,但这种级别的科研装置,没有个 5 年是很难建成的。建成以后我们再乐观点,搞个 3 年测试成功,然后再花 5 年建成可以商用的光源,这就 13 年过去了。但是,光刻机的另外两个关键部分能不能在这 13 年中搞成呢?现在连个影子也还没有。 而且,我们不知道再过 13 年,美国人、荷兰人是不是又搞出了更先进的下一代光刻机,我们还得继续追。 最后我想说一句个人不中听的观点: 在 20 年之内,这个世界上不可能有任何一个国家可以完全独立自主地造出一台代表国际最先进水平的光刻机,美国也不例外。 当然,这只代表我个人的一点浅见,我很希望被打脸。 我为什么要把这个观点说出来,是因为我真的不希望过去“大跃进”的悲剧重演。中国人是很聪明,但并不意味着我们中国人就是特殊材料做的人,全世界所有的种族都是人科、人属、智人种,中国人和外国人的基因几乎没有差异,我们不比外国人笨,但也并不比外国人聪明很多。 实事求是才是发展科学技术的正道,光刻机这样超级精密复杂的机器,寻求最大范围的国际合作才是最佳解决方案。
李楠怒怼网友:我锤过的对手,你都不一定有资格见
9月19日,前魅族高管李楠发微博称,今天中国消费电子产业真正的危机,是中国在苹果供应链上的份额在持续降低,而越南等国家的苹果供应链份额在持续升高。他认为,苹果能教会中国,其实最终也一定可以教会越南。 不过,李楠这个观点遭到一位网友的嘲讽:“你还是忘不了,不过手下败将终归是手下败将。” 而李楠直接回怼:“呵呵,我锤死的对手,你都不一定有资格见。” 在这条微博中,李楠指出,中国目前的供应链在管理、工艺和品质方面,甚至在某些方面的自主研发能力上已达到世界最高水平。然而,很多人似乎忽略了欧美品牌,尤其是苹果的贡献。苹果通过整合各行业的全国产业链上下游,并制定严格的管理标准以及与供应商进行技术设备支持和对接,提出新的工艺要求并严格控制良率,提供稳定且信誉极高的订单,这些举措为中国消费电子产业链的高速发展提供了几十年的支持。 未来,这一重任将由华为、OPPO、vivo等国内手机品牌承担。尽管一些人对OPPO和vivo的未来持谨慎态度,但它们在整个产业链上的合同信誉,确实可以与苹果相媲美。李楠认为,如果多一些这样的国产品牌,而减少那些对供应链进行过度压榨、只追求5%毛利的品牌,这样才能有效弥补苹果供应链撤出对中国的影响。
AMD EPYC 8004系列处理器发布,面向云服务,智能边缘和电信市场
集微网报道 经过6月AMD“数据中心和AI技术首映”活动上的“预热”,8月Hot Chips大会上的“剧透”,今日,AMD对外正式发布了专为云服务、智能边缘和电信等场景打造的AMD EPYC(霄龙) 8004系列处理器(代号Siena)。 至此,AMD EPYC第四代服务器处理器家族全部亮相,通过对于不同领域工作负载的针对性优化,第四代EPYC产品线实现“超展开”,有望助力AMD今年在数据中心服务器CPU市场的份额创下新高。 AMD的服务器芯片的策略,是打造全球数据中心最高性能的通用CPU,同时针对多样化的负载提供具有可扩展性的产品,第四代系列产品就是这一策略的充分体现。家族成员包括面向通用计算的Genoa、面向云原生领域的Bergamo、面向技术计算领域的Genoa-X以及此次发布的,针对电信和边缘应用场景的Siena,在为AMD的客户带来更多选择以及价值的同时,也有利于AMD更好应对数据中心市场方面的竞争。 作为AMD第四代X86 EPYC服务器处理器系列的首款产品,Genoa于去年发布,基于Zen4微架构,是业界首个用于数据中心的5nm制程的X86CPU,具有在性能、能效以及TCO方面的显著优势。 AMD将常规架构下,针对工作负载可扩展性的主要指标分为核IPC、核密度、能效、频率以及每核Cache五个维度,从而形成一个五边形的直观评价体系。 因此,在第四代EPYC处理器家族中,无论是Bargemo,还是Genoa-X,其有各自突出的特性维度。比如,Bargemo强调的更高的线程密度,Genoa-X则在每核Cache优势上较为明显,强调更高缓存。 Siena系列处理器则在均衡性能的基础上,更加强调出色的能效和成本。能满足对高能效、平台密度和静音操作有着超高需求的市场。比如,在视频编码工作负载中,EPYC 8534P可提供领先的总帧数/小时/系统瓦特。在IoT边缘网关工作负载中,采用8核EPYC 8024P的服务器在每8kW机架的总吞吐量图性能中表现卓越。而得益于高效的“Zen 4c”核心和能够带来更快内存和I/O功能的全新SP6插槽,EPYC 8004系列处理器可在SPECpower®基准测试中提供更高的每系统瓦特性能。 AMD EPYC 8004系列处理器采用Zen 4c架构,芯片面积相比Zen 4具有35%的缩小,从而带来更高的密度和更优秀的功耗表现。 Dell Technologies、Lenovo以及Supermicro等众多OEM厂商和合作伙伴发布了多款充分利用AMD EPYC 8004系列处理器优势的服务器和解决方案,可在广泛的操作范围内满足电力和温度需求,同时支持在密集数据中心、城市电信大厦和工厂车间等严苛物理环境中部署。 AMD高级副总裁,服务器事业部总经理Dan McNamara表示,全新EPYC 8004系列处理器凭借在单插槽平台上带来的出色的CPU能效,能够在空间和功耗有限的情况下满足基础设施需求,从而扩大AMD在该领域的领先地位。 “AMD已经推出了多代数据中心处理器,提供了卓越的能效、性能和创新功能。现在随着第四代EPYC CPU系列全面完善,我们在企业和云,到智能边缘、技术计算等一系列工作负载中的领先地位将继续保持。”Dan McNamara说。
存储触底涨价,半导体真的要复苏了?
存储芯片最近触底涨价,给在漆黑隧道中行进的全球半导体照进了一束光。今年前三季度快过去,产业库存调整了很长一段时间,一些厂商已经看到库存调整的成果,晶圆厂的产能利用率也有所回升,AI被视作半导体新的驱动力。 国际半导体产业协会(SEMI)指出,全球半导体景气已在今年第二季度落底。 从半导体营收上看,Omdia表示,全行业在经历了连续五个季度的收入下降之后,在2023年第二季度终于扭转了颓势,出现了营收的反弹。 芯片库存方面,集微咨询认为今年第三季度是全行业库存回落的转折点。 晶圆代工方面,TrendForce集邦咨询预期,第三季全球前十大晶圆代工产值将有望自谷底反弹,后续缓步成长。 全球半导体销售额同比降幅继续收窄,英特尔、AMD等芯片大厂的财报透露最坏时候或将过去,种种迹象都在指向一个激动人心的结果。乐观的信号认为,半导体最快今年三季度、四季度开始复苏,或者明年上半年就是复苏的开始,半导体终于开始好转了吗? 01 哪些在复苏? 哪些还看不到迹象? 虽然各大研究机构或分析师对半导体行业的触底反弹抱有一些乐观的态度,不过从各大细分芯片领域需求来看,也并非有全面复苏的迹象。 根据芯世相收集到的行业信息,有需求回暖的主要集中在存储芯片、DDIC、LED照明芯片、被动元件,其余芯片如CIS还没有复苏迹象。 存储芯片: 价格触底,原厂开始涨价 NAND Flash方面,从8月初就开始有涨价消息陆续传出,各大原厂持续减产,已经开始有效果。三星带头调涨价格,其他厂商跟进。从上游原厂到下游SSD厂家都开始调价。消费性SSD、存储卡,手机相关零组件如eMMC、eMCP价格全面走扬。 美光将报价上调10%,闪存厂商群联看到模组与智能手机客户需求增强,部分客户接受30%-35%的涨价。由于三星进一步扩大减产幅度,有效降低库存,有望带动Nand Flash在第4季启动涨势。 DRAM方面,野村报告指出,第三季主要存储芯片价格已趋稳定或上升,使存储芯片平均单价有望上涨5%-10%。笔记本内存条原厂不再放低价,市场追高价买货。HBM有比较明确的需求方向,SK海力士预测,AI芯片热潮带动HBM市场到2027年将达82%的复合年增长。 从整个大环境来看,进入9月以来,上游报价明显提高,价格持续上涨。现货市场库存有限,只有少量低价报出,存储市场已然触底,有望迎来反弹。 显示驱动IC(DDIC): 零星急单,后续动力不足 去年下半年开始,大尺寸液晶电视面板价格反弹,中小尺寸液晶面板价格止跌。今年二季度包括京东方、深天马、维信诺等面板企业盈利状况持续改善。 中银证券认为,显示驱动芯片DDIC将跟随面板复苏,大尺寸液晶面板的涨价动能已经逐步传导至上游的 Driver IC 环节。 中芯国际联合 CEO 赵海军此前表示,二季度12寸有急单,尤其是 40nm、28nm,40nm、28nm 的产能利用率已经恢复到 100%,恢复的应用领域第一为显示面板驱动 IC。 不过,集邦咨询认为,电视部分零部件库存落底,加上手机维修市场畅旺推动TDDI需求,第二季供应链出现零星急单,成为支撑第二季晶圆代工产能利用与营收主要动能,但此波急单效益应难延续至第三季。 被动元件: 低谷已过,库存普遍低于健康水位 被动元件产业经历一年以上的库存调整,各大厂商积极控制产能利用率,严格管理产出,目前库存已降到过去的健康水位之下。 台媒报道指出,业界认为被动元件低谷期已过,随着苹果推新品,中国大陆品牌或出现一波降价潮,刺激需求,有利推升被动元件厂商出货量。 MLCC龙头村田预期今年第三季后半段开始,智能手机需求将缓慢改善,全年业绩保持不变。国巨认为,被动元件产业恢复还需要两个季度,整体来看,目前市场的走势比较像L型而不是V型。 LED照明芯片: LED供应链业者普遍有较强的涨价意愿 6月有部分LED业者采取涨价措施,主要涨价品项集中在照明类LED芯片,面积低于300密耳(mil²)以下(含)的低功率照明芯片品项涨价最多,涨幅约落在3-5%;特殊尺寸涨幅最高可达到10%。 集邦咨询调查,目前LED供应链业者普遍有较强的涨价意愿,除了欲涨价的业者开始变多,由于部分LED芯片业者订单满载,调涨的品项也有扩大趋势,以藉此减少亏损,同时主动减少低毛利订单。 CIS: 前几年大幅增长盛况难再现 受到消费电子需求显著下滑影响,与前几年大幅增长相比,CIS 收入在 2022 年陷入停滞,仅为213亿美元。Yole对长期CIS预测进行了下调,预计2022年至2028年间收入将以5.1%的年复合增长率增长。 智能手机CIS市场成长动能疲软,出货量预计会同步下滑,集邦咨询预计,2023年全球智能手机CIS出货量约为43亿个,年减3.2%。 手机SoC: 短期前景较谨慎,价格战或袭来 高通二季度营收、利润双下滑,净利甚至下滑51.7%,直接腰斩。高通CFO Akash Palkhiwala预计,2023全球手机市场的销量将继续下滑“高个位数百分比”。展望未来几个季度,高通预计目前的宏观经济环境挑战将持续,客户将继续减少他们的库存,并对公司的收入、经营业绩和现金流产生负面影响。 天风国际证券分析师郭明錤近期表示,预计高通从2024年开始,对中国手机品牌的SoC出货量逐年减少。高通为了维持在中国市场的市占率,最快可能会在2023年第4季度开始价格战。 联发科二季度营收同比下跌37%,毛利同比下跌39.2%,主要反映了产品价格和成本上的变动。此前,联发科曾传出对2024年投片数量开始大砍的消息,不过官方予以否认。尽管联发科称客户需求已显示出一定程度的稳定,但也承认,从目前全球消费电子趋势来看,终端的库存管理仍然处于保守状态。 TrendForce集邦咨询表示,主流消费产品智能手机、PC及NB等需求仍弱,导致二季度高阶先进制程产能利用率持续低迷,看好三季度如AP、modem等高价主芯片及周边IC订单有望支撑苹果供应链伙伴的产能利用率表现。 02 各种声音 究竟好转了吗? 今年半导体行业很难泛起浪花,这是大部分研究机构,或者说是行业大部分人的共识。中芯国际联席CEO赵海军曾表示,目前看来,2023年行业整体较上一年是有所下行的。 不过,比起去年的一潭死水,今年半导体行业显示出一点向好的迹象。 中国集成电路产量在4月份实现2022年1月以来首次月度增长,到8月增长势头依旧,同比高达21.1%。 专家预计,电脑和手机芯片市场将放缓下跌趋势。韩国SK海力士半导体公司财务官金佑贤说,"需求已逐渐恢复强劲。"在公布今年第二季度财报时,金佑贤表示,市场看好的重要理由就是AI使用在扩大。 SIA 总裁兼首席执行官 John Neuffer 指出今年全球半导体市场经历了温和但稳定的月度增长,7 月份的销售额连续第四个月增长。与去年相比,全球销售额仍然下降,但 7 月份的同比降幅是今年迄今为止的最小差距。他乐观地认为,今年下半年这种反弹仍将持续。 从库存水平来看,今年三季度将开始出现扭转的信号。集微咨询在报告中指出,半导体行业库存问题于今年第三季度出现根本性改善,消费电子、存储等细分领域库存水位将从该季起逐步下降,而汽车芯片则因增长需求被高估,库存已明显高于正常水位,下半年将出现供过于求的局面。 从大厂财报来看,AMD和英特尔在2022年之后表现都很差,英特尔在今年二季度勉强恢复盈利状态,AMD预计三季度开始恢复,看起来最糟糕的时刻已经过去了。 三星半导体部门在2022年第二季度创下28.4万亿韩元纪录后一路下跌,同年第四季度,营业利润骤降至仅0.3万亿韩元。在 2023 年第一季度,降至 1.4 万亿韩元的赤字。可以看出,三星不断恶化的经营业绩在2023年一季度触底,并开始复苏。 同样的情况还有SK海力士,今年二季度赤字收窄,销量开始增加,预计明年恢复增长。 中芯国际二季度部分应用于国内智能手机、消费电子领域的客户库存下降,并逐步恢复下订单,晶圆出货量环比增长,营收也实现环比小幅增长,同时产能利用率从Q1的68.1%提升至78.3%。 和此前半导体行业节节败退的表现不同,半导体减幅收窄,触底并准备反弹正在发生。 全球半导体景气度具有明显的周期特性,每3-4年会经历一轮完整的周期,而目前我们正处于2022年2月以来的下行周期中。 半导体周期变化,从销售额的变化可以感知一二。 中国半导体行业销售额环比增速见底回升,SIA公布的数据表明,7月份中国半导体销售额环比增长2.6%,中国以外,美洲、欧洲和亚太其他地区的月度销售额在环比上也有所增长。而且全球半导体销售额在第二季度比第一季度增长4.7%,SIA认为市场将在下半年继续反弹。 雪球专栏作者愚老头将中国的基钦周期与全球半导体销售额的同比增速叠加发现,往往每一次中国基钦周期的起点和终点,对应的都是全球半导体销售额同比增速的低点。再看全球半导体最近两次周期的时间节点:2019年6月见底,2023年1月见底。 可以说,目前无论是国内还是全球半导体,都已经处于底部,就等一个反弹。 根据SIA公布的另一组半导体销售额数据,同比2022年的增长就不那么好看了,仅有欧洲同比增长5.9%,日本、美洲、亚太其他地区和中国分别下降了4.3%、7.1%、16.2%、18.7%。今年跌得太厉害,大家对后续的增长多少抱有一些预期或者期待。 03 会是哪种复苏? 强劲还是乏力? 半导体上升反弹的力道有多大?销售额的增长速度会有多快,能持续上升多久?经济学里有一条复苏曲线,根据曲线形态的不同,对经济复苏的趋势也有不同解释,半导体行业的复苏亦可沿用。那么,这次是迅速而强劲的V型复苏吗?还是需要些时间的U型复苏?或是极度波动的W型复苏、复苏非常缓慢的L型复苏? 台积电总裁魏哲家今年1月对半导体前景就曾表示,确定不会是U型复苏,不认为产业会在下半年复苏。摩根士丹利却不这么认为,其在7月表示,当前行业正处于“U型”周期复苏底部,加上AI长期的需求可能触发下一个上升周期,认为复苏可能从四季度开始。 日本半导体学者汤之上隆则认为,今年(2023年)很难看到转正增长,全面复苏很可能要到明年(2024年)上半年之后。但也有业内人士看到不确定因素多,复苏进度比想象中缓慢,导致无法对半导体全面复苏下定论。 各家有各家的言论,产业似乎没有统一的论调,有些认为今年下半年是复苏的信号,也有些认为今年没戏了,最早也要到明年,更为谨慎的认为要到后年。 在这个市场上混迹的人大多对行情比较敏感,芯世相问了一些市场上的小伙伴,大部分认为还没看到回暖的迹象,终端需求还比较低迷,只有外贸有一些订单。 就连华为带起的一波购机潮,看好的人也并不多。强如苹果都要下调出货量,消费电子持续疲软、低迷。集邦咨询预期,今年第四季智能手机市场恐因全球经济状况再经历一波转变,下半年生产量可能因此再度下修。 “行情还没这么快,今年不指望。”“明年不指望,估计要到2025年。” 行情最坏的时候已经过去,一些来自AI,消费类面板、存储等零散的需求,却不足以撬动整个行情迅速回升。从他们的回答里,看得出现货市场还要继续熬下去,而各大芯片品牌在现货市场需求下降明显,一些在继续降价,有的出现价格倒挂。 同时,全球半导体库存天数的上升,仍透露出整体需求不足,二季度中国大陆半导体企业(含IC设计、IDM及晶圆代工)库存天数中位数在这段期间从109.6天上升至157.6天,中国台湾及美国企业库存天数中位数分别从84.9天及117.5天上升至131.8及144.7天。 尽管半导体行业触底明显,但结合芯片现货市场和库存表现,半导体增长乏力,要在今年实现复苏的可能性较低,如果明年复苏,还可能要再经历一个“难捱”的时间段。但好在,大容量存储、手机eMMC等存储价格开始反弹,半导体销售额等趋暖,半导体顶着一片乌云的同时终于见到一些曙光。
聚合平台首度纳入网约车管理,是大势所趋吗?
定州是首个将网约车聚合平台纳入网约车经营者范畴进行管理的地方,主要思路是合规、安全运营。这一做法,是否会引发更多城市的效仿,从而成为一种政策趋势? 文|财经E法 张剑 编辑|郭丽琴 9月初,河北省定州市发布《网络预约出租汽车经营服务管理暂行办法》(下称《暂行办法》)。《暂行办法》提出,将网约车聚合平台公司纳入网约车平台公司进行管理,成为全国首个将网约车聚合平台纳入网约车经营者范畴进行管理的地方政策。 定州的这一最新监管要求,首次从政策上明确了聚合打车平台的性质,主要思路聚焦于网约车的合规、安全运营。纵观中国各地政府,既有地方将聚合平台定性为“网约车平台”,也有地方将聚合平台定性为“电商平台”。 定州的新规,是否会引发更多城市的效仿,从而成为一种政策趋势? 01 聚合平台首度纳入网约车管理 《暂行办法》于9月5日发布,其第二条规定,本办法所称网约车经营者(含网约车聚合平台公司,以下称网约车平台公司),是指以互联网技术为依托构建网络经营服务平台,从事网约车经营服务的企业法人。第十条规定,网约车平台公司应当在取得相应《网络预约出租汽车经营许可证》并向企业注册地省级通信部门申请互联网信息服务备案后,方可开展相关业务。 河北当地媒体在报道中提及,《暂行办法》是中国首个将网约车聚合平台纳入网约车经营者范畴进行管理的地方落地政策。在《暂行办法》之前,已有地方监管部门在具体监管中将网约车聚合平台与网约车经营者同等看待。 此前,部分城市监管部门以约谈、处罚等方式对聚合平台进行了监管,其间均涉及到对聚合平台的定性。 今年2月3日,云南省昆明市出租汽车管理局曾对高德作出一次行政处罚,这一处罚对高德打车的运营模式作出详细解析,并否定了聚合平台的电子商务平台性质。昆明市出租汽车管理局在处罚中提出: 第一,“高德打车”本案中地位表现并非电子商务平台,其提供的服务已超过单纯的信息撮合范畴,其通过控制运价与平台内聚合的网约车平台身份相同,表现为互联依附性。 第二,本案中“高德打车”通过在提供服务的车辆上张贴“高德打车”外观标识,开展品牌建设和宣传营销,已经建立起了消费者对其品牌的认知,是依托互联网技术构建的打车服务平台。 第三,本案中“高德打车”与一般的网约车平台在整合人车资源、乘客信息方面,性质是一样的,两者之间只存在直接整合和间接整合的区别。 第四,“高德打车”依托Saas系统在昆明市聚合了多家网约车平台,各网约车平台线下招募驾驶员和发展车辆,并将驾驶员和车辆信息通过SaaS系统介入“高德打车”,从而使“高德打车”实质掌握了驾驶员和车辆的基础信息、实时位置,形成了自身的“运力池”。“高德打车”在本案中是价格的制定者,是服务品牌的实控者,是实际运力的控制者,是乘客费用的收取者和分配者,其实质就是一个大号的网约车平台。 今年5月,江西省交通运输综合行政执法监督管理局对外表示,该省各地交通执法部门约谈“高德打车”负责人,将未取得经营许可、不具备线上线下服务能力等问题的网约车企业名单移交至许可机关清理,开展安全生产执法检查等系列措施,一定程度上制约了网约车聚合平台的盲目扩张和野蛮发展。 此外,该局对高德打车的行为做了定性:高德打车一直以“信息服务平台”自居,并没有取得网约车平台行政许可,也没有承担承运人责任、作为运输单位对应的企业安全生产主体责任和其他经营者责任,涉嫌变相违规从事网约车经营活动。 02 定州思路是大势所趋吗? 中国各地政府对聚合平台性质的主流认识,包含“网约车平台”和“电商平台”两类。 例如,定州、昆明将聚合平台定性为“网约车平台”,而广州、烟台等地则将聚合平台定性为“电商平台”。 北方工业大学汽车产业创新研究中心主任纪雪洪告诉财经E法,五部委的《通知》发布后,各地结合这一新规制定本地细则,在对聚合平台进行界定过程中,出现不同认识属于正常现象。定州的这一界定应是当地交通运输主管部门结合聚合平台在当地运营的现状,充分考虑了日常监管工作开展的难度和复杂性。 但在中央层面,针对聚合平台监管的认识是比较一致的。 4月末,交通运输部、工业和信息化部等五部委发布《关于切实做好网约车聚合平台规范管理有关工作的通知》(下称《通知》)。该《通知》虽然提到,聚合平台有面向乘客并匹配供需信息这一属性,但也提出,存在聚合平台和网约车平台公司的企业责任落实不到位、从业人员和乘客合法权益保障不到位等问题。也就是说,合规运营、运营安全等事关司乘权益的问题仍是监管部门针对聚合平台的重要关注点。 8月末,中国消费者协会围绕五部委的上述监管新规,提出将对聚合平台开展社会监督。中国消费者协会表示,针对网约车聚合平台的兴起及快速发展,根据《通知》和消费者权益保护法、电子商务法等法律法规,中国消费者协会认为,相关网约车聚合平台及合作网约车平台公司应依法维护消费者合法权益,不断优化出行消费体验,同时呼吁广大消费者共同做好网约车聚合平台的社会监督工作。 定州的监管思路聚焦于安全问题。 上海金融与法律研究院研究员刘远举认为,定州此次发布的《暂行办法》,将聚合平台定义为网约车平台,可以避免聚合模式下层层嵌套而导致的责任归属不清问题。他指出,聚合是一个多层次嵌套的模式,大平台下有小平台,小平台再接入司机,一层套一层,类似商业上的多层控制结构。基于此,刘远举认为,网约车的治理思路,应当是将平台作为抓手,通过确立平台在审核、安全、质量方面的义务,推动平台提升服务、保障消费者权益,促进行业发展。 但是,聚合平台的商业模式给监管带来挑战。刘远举表示,多层结构有利于商业活动,商业交易中的双方都是高度专业的,也有成本去进行专业的识别、考察。但日常出租车的交易是零散和频繁的,消费者没有知识、精力、成本去识别。出了问题,多层嵌套结构容易导致推诿、扯皮,即便出了大事,法律适用上的漏洞和陷阱也很多。监管部门要独立面向多个层次的平台,监管难度加大,监管成本增加。最终,聚合模式下,各方都会钻空子,减少自己的责任,消费者的权益就会受到损害。 中国司法大数据研究院社会治理发展研究部部长、中国政法大学知识产权研究中心特约研究员李俊慧也认为,对聚合平台可以纳入网约车平台管理。 在李俊慧看来,2016年,《网络预约出租汽车经营服务管理暂行办法》(下称《暂行办法》)的制定出台,就是为了规范网约车服务,既包括以在线技术撮合乘客与巡游出租车服务,也包括在线技术撮合乘客与网约车服务。而《通知》则明确了网约车聚合平台的资质核验范围,不仅仅局限于网约车平台公司的许可,也包括接入的司机和车辆都应该完成许可。作为《通知》 的上位规定,《暂行办法》明确要求,任何企业和个人不得向未取得合法资质的车辆、驾驶员提供信息对接开展网约车经营服务。 李俊慧认为,从行业业态看,如果一家网约车平台管理不善或只注重盈利,接入大量不合规的车辆和驾驶员,这既损害了取得资质的车辆和驾驶员的利益,违反市场公平竞争,同时也增加了安全隐患。 公开信息显示,聚合平台上的车辆在运营中事故屡发。 2022年6月,郑州一名女乘客通过聚合平台约到一家小平台车辆,在行驶途中遭遇车祸,酿成重大事故。2023年7月初,成都再次发生一起类似事件。上述两起事故发生后,在调查中,涉事网约车均被发现系无证运营。聚合平台为何依然可以约到无证车辆成为公众质疑的核心问题,此外,郑州事故中,乘客方曾质疑,聚合平台和网约车公司均在事发后试图推卸责任。 2023年6月1日,山东省烟台市《网络预约出租汽车经营服务管理实施细则》开始实施,烟台的监管新规虽然将聚合平台界定为电子商务平台,但也要求,聚合平台应加强对接入的网约车平台公司运营安全及服务质量的管理,确保接入的网约车平台公司在本市取得网约车经营许可且符合其它有关规定,并督促其加强车辆和人员管理。这一新规还要求,发生安全事件时,第三方电子商务平台公司要依法履行先行赔付责任,并与涉事网约车平台公司共同妥善进行处置。 纪雪洪认为,即便在一些地方,聚合平台被界定为电子商务平台或参照电子商务平台进行监管,不用去申请网约车平台证,也不意味着聚合平台在该地方的法律责任会降低,“运营中遇有事故,各地还是应该根据事故的具体情况来划分和认定各方责任”。 定州新规出台后,是否会对网约车市场格局产生影响? 中国城市公共交通协会网约车分会秘书长殷浩对财经E法表示,由于定州网约车市场规模小,其新规是否会对网约车市场格局带来改变,还需要继续观察,主要看是否有一二线城市跟进,出台类似规定,“将聚合平台纳入网约车平台管理,意味着聚合平台也要去办理网约车平台证,但现在很多地方,这一经营资质已不再新增”。 殷浩认为,如果定州思路在更多地方获得效仿,特别是一些网约车热点城市也出台类似规定,作为流量平台的聚合平台就可以直接和租赁公司合作,无需再与目前接入的小平台合作。 “目前接入聚合平台的超过300家小平台,运力很弱,在安全管理方面也还无法全面解决。” 殷浩概括说。
大模型需求涌现,算力如何跟上节奏?
图片来源:视觉中国 过去的10个多月,以ChatGPT为代表的生成式AI浪潮席卷全球,无论是国际,还是国内,各大科技巨头都在积极布局生成式AI,甚至在浪潮的影响下,有不少中小企业也纷纷入局,意图乘着生成式AI的“东风”,帮助企业快速发展。 当一个个大模型如雨后春笋般涌现时,作为大模型重要底层支撑的“算力”也自然成为业界关注的焦点。 算力产业变革已经开始 对于算力产业,乃至整个数字产业而言,在大模型快速发展的当下,已经进入了变革的时代。以点看面,以数据中心为例,过去,数据中心服务器大多是以CPU为主,驱动移动互联网,以及企业数字化转型。 如今,在大模型等AI应用呈井喷式增长的背景下,对智能算力的需求愈发旺盛,越来越多的智算中心投产,也预示着数据中心将从以CPU为主的时代,转变为以GPU为主的智能算力时代。而以英伟达为代表的相关GPU价格及企业股票的增长也在印证这个趋势。 对此,青云科技总裁林源表示,随着一大批以AIGC为代表的AI应用的涌现,用户对智能算力的需求越来越大,“用户对算力的需求将是以前的10倍、100倍,甚至更多。”林源强调。 无疑,生成式AI和大模型的爆发,对于整个数字产业,以及企业数字化来说是颠覆性的。林源认为,在数字化时代的背景下,生成式AI和大模型的出现,为人类提供了一个可以提升效能的生产工具,并且伴随着这些技术的发展,让人工智能更贴近了用户侧,让人们使用人工智能的门槛越来越低。 不过,以目前我国算力产业发展来看,处于变革时代的算力产业还有诸多痛点亟待解决。现阶段,我国主要存在,东西部算力供需失衡、跨数据中心算力调度难、算力基础设施能耗大、企业利用算力成本高等问题。 我国算力产业发展的四大痛点 目前我国算力产业仍处于快速发展的初期阶段,上述提到的四个算力产业发展的问题,主要可以细分为四大痛点,分别是: 1、 算力资源分配不均/供需失衡 我国AI算力资源的分配存在着严重的不均衡现象。据统计,目前我国AI算力主要集中在一线城市和部分经济发达地区,而中西部地区的AI算力资源相对匮乏。这种现象导致了资源的浪费和效率的降低。 对于算力需求旺盛的东部地区,算力供不应求,而对于西部地区,算力资源充沛,却“无人问津”。这是目前制约我国算力产业整体高质量发展的关键问题之一。 而算力供需失衡不仅是我国亟待解决的痛点。国际数据公司(IDC)发布的报告显示,全球数据量每年增长约60%,但算力每年的增速仅为10%,这表明算力的供给与需求之间存在巨大差距。 放眼全球,当前,全球范围内的算力需求持续增长,但算力供给却相对滞后。这种供需失衡现象在很大程度上限制了数据处理和人工智能等领域的发展。 2、 核心技术瓶颈 尽管我国在AI领域取得了显著的成果,但在算力调度技术方面仍存在一定的瓶颈。例如,我国在GPU计算、云计算等方面的技术积累相对较少,这使得我国在AI算力调度方面的能力相对较弱。 在算力调度中,效率是一个关键问题。然而,当前许多算力调度系统在处理大规模数据时,效率低下的问题普遍存在。这主要是由于系统架构、算法优化等方面的限制所导致的。 3、 算力使用成本高昂 算力使用成本高昂主要可以从两个方面来看,一方面,正如前文所述,东西部算力供需失衡,导致了东部地区算力成本高;另一方面,AI算力调度涉及到大量的硬件设备、软件平台和人力资源,因此成本较高。这使得一些中小企业在面临AI算力调度时,很难承受高昂的成本压力。 4、 数据安全隐患 随着AI算力调度的普及,安全问题也日益凸显。在数据驱动的时代,数据是企业的核心资产。然而,在算力调度过程中,数据的安全与隐私保护存在一定程度的不足。例如,数据泄露、黑客攻击等现象时有发生,给我国的AI算力调度带来了很大的安全隐患。 据IBM Security 发布的《2023年数据泄露成本报告》中显示,2023年全球数据泄露的平均成本达到 445 万美元,创该报告有史以来以来最高记录,较过去 3 年均值增长了 15%。 数据安全问题是一个“老生常谈”的问题,确保数据安全也是每个企业数字化转型过程中的“必修课”。 综上,我国目前算力产业主要面临了四大痛点,如何解决这四大痛点,将是我国算力产业实现高质量发展的关键。 算力如何像“水、电”一样,灵活取用? 为了更好地发展算力产业,助力数字经济腾飞,我国提出了“东数西算”战略工程,在笔者看来,“东数西算”的核心目的是,为了让西部地区利用资源方面的优势,在带动当地经济发展的同时,满足未来我国各行业对算力的需求。 众所周知,AI大模型在训练、调整的过程中,需要海量的数据及算力,而这些用于训练大模型的算力又需要消耗大量的电力资源,在林源看来,AI应用属于“成本敏感型”应用场景。拥有低廉、绿色电力西部地区,是大模型训练的“沃土”,西部训练,东部应用,这将是未来的大趋势,对此,林源认为,未来,算力一定是分散的,东西部都有算力分布,只不过这些算力的用途有所区别。 为了满足未来用户对于智能算力的需求,青云推出了AI算力调度平台,林源表示,AI算力调度平台将成为智算中心运营者的关键工具,帮助智算中心构建从建设到运营的全生命周期闭环。 从2022年开始,无论是企业侧,还是地方政府主管部门,都在积极建立自己的算力调度平台,帮助企业以更低的成本,使用更优质的算力资源,那么青云的AI算力调度平台又有哪些优势呢? 青云科技产品经理苗慧对钛媒体表示,青云AI算力调度平台主要有九大能力,“通过多区、多业务资源整合,分布式调度、管理,AI训练平台,混合组网,算法开发支持,灵活调度,高速并行存储,容器推理服务平台,模型仓库这九大关键能力,青云AI算力调度平台能帮助企业实现安全、高效的算力调度。”苗慧指出。 与此同时,在苗慧看来,青云AI算力调度平台与其他友商相比,主要优势有两个,一个是,青云针对上百台服务器的大集群管理方面,优化了调度算法,让数据“不绕路”;另一个是,在应用环境上,青云用了K8s和Slurm两种调度平台同时为我们的客户服务,是完全集成好的。“青云在颗粒度和运维传统机器方面上,也会有更多的优化。”苗慧强调。 值得注意的是,青云AI算力调度平台已经与济南超算中心联手,为政企用户提供算力服务多年,“目前在HPC领域和AI智算领域越来越面向终端用户,有越来越多的科研工作者、学生使用青云的平台。”苗慧表示。 经过近两年的运营,不断的优化,本次推陈出新的青云AI算力调度平台进行了全新的产品升级,“我们这次推出的主要产品和主要迭代,像AI算力平台、推理平台、镜像仓库,全都是面向AIGC或整个AI领域上,专门推出业务化的产品。”苗慧介绍道,“另外,在物理节点层,由于面向AI行业,所以我们在网络、计算节点这部分,最关注的是GPU、并行文件存储和高速网络这三件事。” 不仅于此,针对时下企业最关注的数据安全的话题,青云采用零信任机制,并将用户间的数据存储与计算 “完全隔离”,“青云为每个用户的资源生成一个子网,该子网只有用户自己可见。子网既支持25G及以上的以太网,也支持IB网络,帮助用户确保数据安全。”苗慧在于钛媒体的分享中表示。 据笔者了解,青云AI算力调度平台目前除了与济南超算展开深度合作以外,还在北京、宁夏、河南、湖北、四川等省市,与众多地方高校、央企、政府部门等,建立了合作关系,“未来,青云将联合更多的企业、高校、研究机构,并整合算力产业链上下游,打造算力生态,满足企业算力需求,让用户以更低廉的成本,使用更优质的算力”,展望未来,林源表示。 (作者 | 张申宇)
微软38TB内部数据惨遭泄露!私人密钥、3w+工作对话流出,背后原因震惊了
昨天,微软在GitHub上发布开源训练数据时,无意中泄露了38 TB的内部数据。好在,百亿独角兽Wiz及时发现了漏洞,现在微软已经连夜修补上了。 出大事了! 几个月前,微软的人工智能研究团队在GitHub上发布大量开源训练数据时,曾发生了大规模泄露。 高达38 TB的数据流出,包括员工电脑的的个人备份、私人密钥和三万多条内部的Teams消息。 原来,是微软的AI研究团队在发布开源训练数据集时,不小心打开了「小金库」的门。 而泄露之所以会发生,是因为一个SAS token配置错误了。 微软的工作人员,都是使用Azure来共享文件的。但现在,它的便利性也成了一把双刃剑——容易共享,却也容易泄露。 就在昨天,微软和Wiz同时发博,梳理了一下这件事的来龙去脉,因此广大群众们才了解到,原来三个月前发生过这么一场严重的泄漏事件。 01 Microsoft调查结果 在得知了捅出这么大一个篓子之后,微软也马上修复了这个问题,并对可能产生影响的文件进行了全面的排查,还发了一个官方博客对泄露事件进行了总结。 官方博客最主要的目的是安抚客户,微软一开头就表示了「没有客户数据泄露,也没有其他内部服务因为这个问题而处于危险之中。对于此问题,不需要客户采取任何行动。」 但是如此大规模的数据泄漏,别说微软的客户了,就是路过的吃瓜群众看了消息也不是很放心啊。 我们就来看看这次数据泄漏的前因后果。 最早发现泄漏的是一个云安全公司Wiz,他们在发现了这个问题之后,在将问题告知微软的同时,把自己的发现和分析写了一篇长文博客,为自己的业务能力打了一波广告。 按照Wiz的说法,微软的人工智能研究团队在GitHub上发布大量开源训练数据时,意外暴露了38 TB的额外私人数据,其中包括2名员工工作站的硬盘备份。 其中包括:机密文件、私钥、密码和超过 30,000 条内部 Microsoft Teams 消息。 但是因为发现这个漏洞的公司本来就是网络安全公司,而且第一时间联系了微软,所以大概率这些数据没有被真正泄露出去。 而数据意外暴露的过程,是源于Wiz的研究团队在网上扫描意外暴露云托管数据时的发现。 Github上Microsoft的组织下找到了一个名为robust-models-transfer的Repo。浏览者可以通过Azure的存储URL来下载模型: 但是,用户通过这个URL能够访问的不仅仅是这个开源模型。它被配置为授予用户访问整个存储帐户的权限,从而公开了其他私人敏感数据。 扫描显示,此帐户包含38 TB的额外数据,包括两个微软员工的电脑硬盘备份。 图:「robustnessws4285631339」存储帐户下泄漏出来的文件夹 图:在文件备份中发现的一小部分敏感文件 两名微软员工的Teams聊天记录 而且除了错误的访问权限之外,这个SAS token还被错误地配置为「完全控制」权限。这意味着,其他用户不仅可以查看存储帐户中的所有文件,还可以删除和篡改这些文件。 因为Repo原本的目的是提供一个用于训练代码的AI模型。Repo会引导用户从SAS链接下载格式为ckpt的模型数据文件。 它是使用Python的 pickle 格式化器格式化的,很容易引发任意代码执行(ACE)攻击。 攻击者可以将恶意代码注入到这个存储帐户中的所有AI模型中,每个信任这个微软GitHub Repo的用户都会受到威胁。 不过还好,因为这个账户是在Wiz研究团队主动扫描时找到的,并并没有公开给所有的访问用户。 微软Azure使用了一种被称为「SAS token」的机制。用户通过这个机制来创建链接分享自己的存储账户的访问权限,而经过他们检查,这个账户还是完全私有的。 微软也表示,由于Wiz的研究发现,他们已经扩展了GitHub的一项特殊监控服务,会监视所有公开开源代码的更改,以防止可能的代码篡改和敏感文件泄露。 02 SAS token简介 SAS(Shared Access Signature)即共享访问签名。 在Azure中,SAS token是一个经过认证的URL,它能够授予对Azure存储数据的访问权限。 SAS的访问权限可由用户自定义。 访问的内容可以是单个文件、容器或整个存储帐户,权限介于只读和完全控制之间。 过期时间也可以自定义,并允许用户创建无限期的访问 token。 这种精细的操作划分为用户带来了极大灵活性和机动性,但也可能会导致授权过多带来的一系列风险。 这次微软内部数据的泄露印证了这一点。 在权限最大的情况下,token可以永久开放对整个帐户的所有权限,基本上与账户密钥的访问权限相同。 SAS token有3种类型:账户SAS、服务SAS和用户授权SAS。 其中,最常用的是账户SAS token,微软的Repo中使用的也是这种token。 生成账户SAS的过程很简单,如下图所示: 用户配置token的范围、权限和有效期,然后生成token。随后在后台中,浏览器会从Azure下载帐户密钥,并用密钥签署生成的token。 整个过程都将在浏览器上完成,与Azure云中的资源或事件无关。 因此,当用户创建了一个具有高权限且无限期的token时,管理员根本无法得知这个token的地点以及流通范围。 这使得想要吊销token变得十分困难。 管理员需要轮换签署token的帐户密钥,从而使所有由相同密钥签署的其他令牌也变得无效。 这个缺陷让这项服务很容易成为寻找暴露数据的攻击目标。 除了意外暴露的风险,该服务的缺陷还使其成为攻击者在入侵账户中进行持久攻击的有效工具。 微软最近的一份报告表明,攻击者正在利用该服务缺乏监控功能的特点,生成特权SAS token作为后门。 但由于token的发放在任何地方都没有记录,所以管理员无法对其采取相应的行动。 SAS安全建议 Wiz在回顾分析了微软数据泄露的整个流程后,贴心地针对这次的始作俑者SAS,为用户提出了一些提高SAS安全性的建议。 03 SAS管理 首先是管理方面,由于账户SAS token缺乏安全性和管理,因此应将其视为与账户密钥本身,给予同样的重视 要避免将账户 SAS用于外部共享,token创建的错误很容易被忽视并暴露敏感数据。 如果要进行外部共享,可考虑将服务 SAS与存储访问策略一起使用。 该功能可以将 SAS token与服务器端策略相连,从而能过以集中方式管理策略和撤销策略。 如果需要以有时间期限的方式共享内容,可以考虑用户授权SAS,它仅提供上限为7天的访问权。 并且,它还能将 SAS token与 Azure Active Directory的身份管理连接起来,提供对令牌创建者及其用户身份的控制和可见性。 此外,Wiz建议为外部共享创建专用的存储帐户,以确保过度授权的token其潜在影响仅限于外部数据。 为了禁用SAS token,企业必须分别禁用每个存储账户的 SAS访问权限。云安全策略管理(CSPM) 可以作为一项策略来进行跟踪和执行。 另一种禁用SAS token创建的解决方案是阻止Azure中的“列出存储帐户密钥”操作(因为没有密钥,无法创建新的SAS令牌),然后轮换当前的帐户密钥,以使现有的SAS令牌无效。 这种方法仍然允许创建用户授权SAS,因为它依赖于用户密钥而不是账户密钥。 SAS监管 其次是监管方面,如果要跟踪活动SAS token的使用情况,需要为每个存储账户启用Storage Analytics日志。 生成的日志将包含SAS token访问的详细信息,包括签名密钥和分配的权限。 但需要注意的是,只有主动使用的token才会出现在日志中,并且启用日志会产生额外费用,这对于活动频繁的账户来说可能会很昂贵。 此外,Azure Metrics也可用于监控存储账户中 SAS token的使用情况。 在默认情况下,Azure会记录和汇总长达 93 天的存储帐户事件。利用Azure Metrics,用户可以通过查找 SAS 验证请求,找到使用 SAS token的存储账户。 SAS秘密扫描 最后是使用秘密扫描工具来检测工件和公开暴露资产(如移动应用程序、网站和 GitHub 存储库)中泄漏或过度授权的 SAS token,这在微软的案例中可以看到。 对于Wiz的用户,Wiz提供了秘密扫描功能来识别内部和外部资产中的SAS token,并探索其权限。此外,还可以使用Wiz CSPM跟踪支持SAS的存储账户。 04 Wiz介绍 帮助微软发现这次数据泄漏,防止了可能出现的更严重的后果的Wiz,是一家位于美国纽约,创立于2020年的网络云安全初创公司。 根据公司自己的介绍,他们的业务主要是帮助企业发现公共云基础设施中的安全问题,为企业安全团队设计云原生可视性解决方案,可分析整个云环境,提供跨云、容器和工作负载的安全风险 360° 视图。 在8月底,他们刚刚完成了接近3亿美元的D轮融资,估值接近100亿美元,是云安全领域的一只巨型独角兽。 客户包括了各行各业对于云服务和安全有需求的公司。 4位创始人:Ami Luttwak、Assaf Rappaport、Yinon Costiva 和 Roy Reznik都来自以色列,他们相识于在以色列军队服役期间。 后来4人开发了一个名为Adallom的云访问代理产品,2015年被微软收购。4人因此加入了微软。而他们开发的云安全产品被微软整合了进自己的服务之中,为微软创造了每年接近10亿的云安全业务收入。 当他们发现自己做的业务和产品,在微软Azure之外,也有非常好的市场前景时,他们4人决定离开,共同创立第二家企业——Wiz。 因为他们发现与本地网络安全不同,安全团队无法在「单一管理平台」中查看所有云服务器,而Wiz正是瞄准了这个市场发力,提供了一个支持多个公有云服务的安全管理平台。
34B参数量超越GPT-4!“数学通用大模型”MAmmoTH开源,平均准确率最高提升29%
新智元报道 编辑:LRS 【新智元导读】数学通才「猛犸」模型给开源语言模型带来了「推理春天」,面对GPT-4都有一战之力! 数学推理问题是语言模型绕不过的痛点,在各种黑科技的加持下,开源模型的推理性能依然不够看。 最近,滑铁卢大学、俄亥俄州立大学、香港科技大学、爱丁堡大学的研究人员联合开源了一个专为「通用数学问题」定制的大模型MAmmoTH和一个指令调优数据集MathInstruct. MathInstruct由13个具有中间原理的数学数据集编译而成,其中6个为新数据集,混合了思想链(CoT)和思想程序(PoT),并确保覆盖了广泛的数学领域。 CoT和PoT的混合不仅可以释放工具使用的潜力,而且还允许模型针对不同的数学问题进行不同的思维过程。 因此,MAmmoTH系列在所有尺度上的9个数学推理数据集上的表现大大优于现有的开源模型,平均准确率提高了12%至29%。 其中MAmmoTH-7B模型在MATH(竞赛级数据集)上的准确率达到了35%,超过了最好的开源7B模型(WizardMath)25%,MAmmoTH-34B模型在MATH上的准确率达到了46%,甚至超过了GPT-4的CoT结果。 数学推理领域新王:MAmmoTH 在数学推理任务上,开源和闭源的大型语言模型(LLM)之间存在巨大的性能差距,目前基准数据集上的sota仍然是GPT-4,PaLM-2和Claude等闭源模型,其他开源模型如Llama,Falcon和OPT等仍然远远落后。 为了弥补性能差距,主要的研究方法有两类: 1. 如Galactica,MINERVA等模型,继续使用数学相关的网络数据对语言模型进行训练,可以提高模型的通用科学推理能力,但计算成本会更高; 2. 如拒绝采样微调(RFT)和WizardMath等,使用特定领域数据集对模型进行微调,虽然可以提高领域内性能,但无法适用于更广泛的数学推理任务。 在解决数学问题时,现有方法通常会采用思维链(CoT)方法引导语言模型循序渐进地用自然语言描述来解决数学问题。 虽然在大多数数学主题下表现出很好的通用性,但在需要精确或复杂的数学计算、算法推理的问题下(如求解二次方程根,计算矩阵特征值)表现不佳。 相比之下,思维程序(PoT, Program-of-Thought)方法和PAL利用外部工具(即Python解释器)大大简化了数学求解过程,将计算过程卸载到外部Python解释器,以解决复杂的数学和算法推理过程(例如,用sympy求解二次方程或用numpy计算矩阵特征值)。 然而,PoT在处理更抽象的推理场景方面有所欠缺,尤其是在没有内置API的情况下,常识推理、形式逻辑和抽象代数的推理能力会更差。 方法概述 研究人员的目标是编制一个高质量、多样化的数学指令调整(instruction-tuning)数据集列表。 1. 覆盖不同数学领域和复杂度 更全面的数据集可以让模型接触到多样化的数学知识,提升模型的多功能性。 研究人员将选择范围缩小到几个被广泛采用的高质量数据集,包括GSM8K、math、AQuA、Camel和TheoremQA. 还可以注意到,现有的数据集缺乏对大学水平的数学知识的覆盖,如抽象代数和形式逻辑,所以研究人员选择使用GPT-4来合成TheoremQA问题中的思维链(CoT)原理,利用网络上找到的数个种子样例,通过自我指导(self-instruct)创建问题和CoT的数据对。 2. 混合CoT和PoT 现有的研究方法大多只关注CoT,并且数据集中也只包含有限的解题思路,导致CoT和PoT的数据量十分不均衡。 为了解决该问题,研究人员利用GPT-4来补充选定数据集的PoT解题思路,通过对比合成程序的执行结果以及人工标注的答案进行过滤,确保生成数据的高质量。 遵循上述方法,最后得到了26万条指令、回复数据对,涵盖了广泛的核心数学领域,如算术、代数、概率、微积分和几何等,混合了CoT和PoT基本原理,并提供多种语言、多个难度级别的数据,足以证明数据集的高品质和独特性。 训练步骤 研究人员统一了MathInstruct中的所有子集,将指令数据集的结构标准化为Alpaca模型的格式,使得模型无需考虑原始数据集的格式,在微调阶段统一处理数据即可。 研究人员选择开源模型Llama-2和Code Llama作为基础模型,在7B、13B、34B和70B尺寸的模型上进行微调。 实验部分 评估数据集 研究人员选择了不同数学领域下的样本,对模型的通用数学推理能力进行评估: 领域内数据集包括GSM8K,MATH,AQuA-RAT,NumGLUE;领域外数据集包括SVAMP,Mathematics,SimulEq,SAT-Math和SimulEq,涵盖了小学、高中和大学水平的数学问题,部分数据集甚至包括形式逻辑和常识推理。 问题类型为开放式问题和多选题,其中开放式问题(如GSM8K、数学)采用PoT解码,因为大多数问题都可以由程序解决;多项选择题(如AQuA、MMLU)采用CoT解码。 实验结果 总的来说,MAmmoTH和MAmmoTH-Coder在不同的模型尺寸上均优于SoTA模型,并且在领域外(OOD)数据集上的增益要显著优于领域内(IND)数据集,展现出了该模型作为数学通才模型的潜力,甚至在几个数据集上,MAmmoTH-Coder-34B和MAmmoTH-70B甚至超过了闭源模型。 在领域内数据的评估,MAmmoTH模型的主要竞争对手是WizardMath和Platypus,其中WizardMath的训练深度依赖于GSM8K和MATH数据集,Platypus在更广泛的文本和数学推理数据集上对LLM进行微调。 相比之下,MAmmoTH实现了全面的改进,并且更擅长解决复杂数学问题,相比WizardMath(MATH数据的sota)的增益最高超过了25% 在领域外数据评估中,主要竞争模型依然是Platypus,不过MAmmoTH可以实现比领域内数据更高的性能提升,展现出对未知数学问题的通用能力。 值得注意的是,MAmmoTH-7B还将WizardMath-7B在MMLU-Math上的CoT性能大幅提高了9%,其中包含大量没有在训练数据集中涵盖的主题。 不同基础模型之间的对比 可以发现,Code-Llama作为基础模型时的效果始终优于Llama-2,尤其是在领域外数据集上,二者之间的性能差异甚至达到了5%,其中MAmmoTH-Coder(34B)在领域外数据集上的平均性能实际上高于MAmmoTH(70B) 研究人员认为,MAmmoTH-Coder从Code-Llama的持续代码训练中受益匪浅,不仅增强了PoT能力,还提高了Llama的通用推理技能。
金融和大模型的“两层皮”问题
几年前,我采访一位产业专家,他提到了一个高科技到产业落地的主要困惑:两层皮。 一些特别牛的技术成果在论文上发表了,这是一层皮。企业的技术人员,将这些成果产品化、商品化的时候,可能出于工程化的原因,会做一些简化,这是另一层皮。 两层皮之间,是有gap的,就像卖家秀和买家秀一样,并不是融合且一致的。 而往往是那些有技术人才、研发能力、转化意愿的企业,会先碰到“两层皮”的问题,产生对技术有效性、ROI回报率不明确的疑虑。 在冲入大模型热潮的各路人马中,金融机构可能是率先遭遇“两层皮”挑战的。 我们知道,金融产业一贯是新技术的早期采用者,在AI方面的尝试很早就开始了,可以说是产业AI化的“优等生”,更是有着良好的信息化、数字化基础。金融机构的前中后台各个场景中,都有被大模型降本增效的空间。因此,金融也被认为是大模型落地的首选场景。 作为大模型落地的先行者,金融领域如果解决不了“两层皮”的问题,意味着大模型在实际应用中还是存在卖家秀和买家秀的差距。 本文希望说清楚,究竟是哪些问题拉开了金融和大模型之间的gap? 问题一:以谁为主? 既然是做大模型,当然是由OpenAI/BAT这样的科技企业和技术公司为主导了,而这也是金融机构不想看到的事。 有个金融领域的专家告诉我们,这波大模型的热度起来之后,金融机构都特别焦虑,有一种FOMO(Fear of Missing Out害怕错过)情绪。 因为上一波技术浪潮,智能手机和移动互联网崛起,导致传统银行、券商的很多业务,被互联网金融公司分走了。在业内人看来,这种“史诗级的悲剧”绝不能重演。 在技术焦虑的驱动下,金融机构非常积极想跟上大模型的风口,几乎不需要科技厂商做太多市场教育,整个行业在接纳大模型这件事上表现极其良好。 同时,金融机构也非常重视将金融大模型的“核心筹码”牢牢掌握自己手里,强调“以我为主”。有银行业人士提出:只有适应银行的大模型,才是真正可以深度应用到场景里、业务流程中的大模型。具体怎么做呢? 一类是硬筹码。 对金融机构来说,数据安全隐私合规,是没有妥协的硬指标,有非常严格的要求。这也就导致,大模型落地金融更加需要本地化的搭建和私有化部署、运行。 本地部署的要求,对大模型厂商来说有利有弊。有利的地方是,相比其他行业直接调用API接口的MaaS模式,本地部署的客单价高、利润大,商业价值更高。不利的地方在于,私有部署需要在云化方案、数据处理、存储、模型训练、提示工程、运维服务等多方面,形成一套完整的解决方案,竞争焦点不仅是基座模型本身,这就增加了技术服务商的成本和难度。 另一类是软筹码。 金融大模型要表现良好,需要专有数据的精调、领域知识的引入、基于场景的反馈,而银行业本身的数字化基础非常好,数据积累深厚,这便成了掌握在手中的软筹码。 摩根斯坦利公司在研发生成式AI产品中,就结合超过10万份财务报告、内部资料和金融文献等,对OpenAI的基础模型进行微调。据透露,我国农业银行业也沉淀了2.6TB的高质量训练数据,用于大模型的训练。此外,基础大模型虽然通识能力很强,但“专业课”能力不足,缺少金融专业知识,加上金融场景业务复杂,初出茅庐的大模型,要形成高质量的服务能力,成为优秀的“AI副驾驶”,并不容易。 这就要求,大模型厂商和技术公司,改变“技术为中心”“我是来赋能/颠覆你的”的惯有思路,增强服务意识,与金融客户合作,以金融客户为主。 大模型落地金融绝不是,也不能是又一次“技术颠覆行业”。无论是通用大模型厂商还是ISV服务商集成商,都要在“客户为主”这条baseline(基线)上跳舞。 问题二:融合为什么难? 以金融机构为主,那科技公司岂不是成了“大模型施工队”,只能收点辛苦费,发挥不了技术创新性了? 大no特no。 一来,金融AI不是新事物。 金融机构,并不是大家想的那样,面对AI一窍不通。事实上,在所有行业里,金融领域的“含AI量”绝对是排名前列的。几年前我采访国内某985高校人工智能学院的院长,对方直言,AI方向的学生毕业后不去BAT、不去创业公司,去的是招商银行这类金融机构下面的信息中心/技术中心,搞金融的人工智能。 所以,金融AI的趋势其实早在几年前,就已经大幅开展了,这也是为什么今年大模型热度刚起,国內工行、平安、农行、招商银行、中信银行等一大波银行,能很快组建了自己的GPT大模型专项研究团队。银行能及时行动,靠的就是几年来投入AI的积累。所以,以金融机构为主,也做得好金融大模型。 二来,大模型是个新事物。 大模型究竟比这些“传统AI”强在哪里,能干什么?这是一个完全空白的新问题。 理论上讲,大模型可以贯穿银行全产业链的各个环节,每条业务线、每个智能都能找到LLM的应用场景。但现实中,全环节全面上马大模型,怎么跟业务结合都不清楚,意味着会有大量探索是失败的、浪费的。 要加速探索、减少成本、降低风险就必须金融机构和科技公司一起,让金融专家、算法科学家、工程师、测试员等坐在一起,一点一点地共同探索,深入洞察场景,对需求“去伪存真”。 有金融机构的负责人直言,今天金融业能够获取的智能化应用非常丰富,翻开AI企业的金融产品推介手册,可以看到上百个细分能力,但如何选取最合适的整合到自家机构的业务中,这个过程中会有大量的试错。 目前来看,业内基本已经达成共识,金融大模型,必须优选场景。有几个关键词: 1.高频次。在一些重点场景、重点应用上,尽快让大模型可以上岗解决问题,降低应用的门槛。比如智能客服、智能投顾等原本的劳动密集型岗位,可以很快带来显著的降本增效成果。 2.高价值。对于一些有社会价值、商业价值的领域,率先开始探索。比如普惠金融,就是目前从政府到民间都非常看中的金融服务,需要精准的数据洞察、更低成本、高可及性的服务能力,去综合降低中小微企业/商家的金融成本。其中,大模型的多模态表达能力、强大的理解分析能力都可以发挥很好的作用。 3.易部署。不少金融从业者,听到大模型的第一反应是,这事儿小模型能干吗?大模型对硬件基础设施的算力、稳定性等都提出了更高的要求,金融机构又在加速推进国产化硬件,各个业务线都部署大模型,带来的性能压力、成本压力、部署压力都是非常大的。所以,大模型压缩优化后或者同样效果的小模型,可以落地的业务场景,比如大模型生成银行理财产品推荐建议,大模型作为券商机构的研究助理,对这些已经在应用的传统AI,用大模型进行升级,不会增加过高的算力成本和工程量,是更易落地的渐进式场景。 正因为大模型是一层皮,实际应用是另一层皮,两层皮怎么融合,在哪些场景优先融合,是一条无人走过的路。金融机构和科技企业,都不能独行,唯有紧密配合,才能寻找到金融场景与大模型之间的最佳融合之路。 问题三:镣铐怎么这么多? 是不是找到场景,重点攻克,然后规模化复制,金融大模型就能突飞猛进了? 我们说金融机构“人多、钱多、技术多”,只是相对其他行业而言。现实中,金融机构也不可能拿出无限的预算、投入无限的人力、开放无限的场景,供大模型随意大显身手。而且,金融领域还存在大量的中小银行、券商,能负担的技术创新成本也是有限的。 一位银行从业者提到AIGC就说:竞争是加剧的,人员是有限的,人才是缺乏的,费用是紧张的。 可以说,带着镣铐跳舞,正是金融和大模型“两层皮”“卖家秀和买家秀”的关键原因。 比如算力的问题。国产化替代进程中,金融大模型要打破训练昂贵、算力成本高的桎梏,对模型厂商的硬件基础、自研能力、生态兼容能力、软件协同优化,提出了综合的考验。 目前,头部云厂商都下大力气在自研硬件上,比如百度的昆仑、阿里的倚天、华为的昇腾,以及配套的软件、生态,没有这些很难真正拿下金融大模型。 还有技术本身的限制。坦率来说,大模型技术本身还存在不少问题,尤其是在金融领域落地,必须解决幻觉问题,胡说八道对严谨的金融业务是不可接受的。模型黑箱性会导致AI智能决策不可信、不敢信,无法真正用于金融投顾、市场分析决策。 另外,金融机构也会衡量ROI投入产出比。但因为金融场景中,已经沉淀了大量的传统AI,比如智能客服,大家可能都接过机器人打来的产品推销电话、账单催收电话。 所以引入大模型后,究竟能给客户带来多少收益,回报产出比ROI怎么评估,哪些是大模型带来的提升,这些目前还没有一个明确的衡量标准。 无法量化大模型给业务带来的贡献,显然会导致大模型厂商的无序竞争,或者比拼客户关系,这也成为金融大模型效果不彰的一个隐忧。 消除产业和大模型之间的gap,将会是接下来,大模型赛道的标准动作。 这个过程中,最早遇到“两层皮”问题的金融大模型,或许会提供大量有益的参考和实践,而金融机构也会成为更早挖掘到金矿的第一批大模型淘金者。
生成式AI对未来就业有何影响?到2030年将重塑1100万个工作岗位
站长之家(ChinaZ.com) 9月19日 消息:根据Forrester的最新报告,生成式人工智能(GenAI)的“过度采用”将到 2030 年消除240万个工作岗位,但将重塑超过1100万个工作岗位,这一预测描绘了一个充满“魔法和混乱”的未来景象。 Forrester在8月30日发布的关于GenAI对就业的影响报告中,对这一技术进行了自相矛盾的描述。GenAI自10个月前发布ChatGPT以来,迅速成为主流技术,一方面,它因其看似神奇的结果而广泛受到采用,但另一方面,这种“魔法”也将给就业市场带来混乱。 报告引用了Resumebulder.com在2月份的一项调查,该调查显示四分之一的公司已经用ChatGPT替换了员工。高盛的预测认为GenAI可以提升世界经济产出7%(约7万亿美元),同时实现相当于3亿个全职工作岗位的自动化。然而,Forrester分析师写道:“夸大的预测、令人心碎的事实、普遍的恐慌——在浓烟中很难看出火灾的范围。”他们认为只有通过基于最可靠数据的分析才能真正了解GenAI对就业的影响。 根据Forrester的估计,到2030年,自动化和人工智能合计将取代4.9%的工作岗位,其中30%的工作岗位流失,即约240万个工作岗位,主要是由于GenAI造成的。然而,分析师指出,虽然GenAI自动化了一些工作,但它也将改变1100万个工作的完成方式,相差4.5倍。 分析师写道:“技术作家、社会科学研究助理、校对员和文案撰稿人等更容易自动化且具有较高人工智能影响力的工作更有可能消失。” “具有较高生成式人工智能影响力的较难自动化的工作,例如编辑、作家、作家和诗人、作词家和创意作家,更有可能影响工作的进行方式(通过增强),而不是取代它们。”Forrester表示,GenAI将影响的工作岗位数量是其直接取代的工作岗位数量的4.5倍。 Forrester还指出,办公室和行政工作将受到最严重的打击,而支付中等工资的中层工作将受到最严重的打击。薪酬更高的更高级别工作对GenAI的抵抗力更强。他们写道,管理职位很大程度上将不受GenAI的影响,“因为他们的工作依赖于人工智能的技能,如人类判断、同理心和领导力”。 那么,业务领导者该如何为GenAI的“魔法与混乱”做好准备呢?Forrester的分析师提出了一些建议。其中之一是投资“RQ”(机器人系数),即度量个体适应人工智能和自动化的能力。将增强作为策略的核心部分是另一个建议。 Forrester的分析师还建议业务领导者采取主动的方式来应对GenAI,分析哪些工作岗位将从中受益最多,然后为员工提供适当的工具。当然,还需要投资于GenAI开发技能,因为您需要员工能够运用这些新技术。 尽管没有人确切知道GenAI竞赛将如何结束,甚至第三局会是什么样子,但可以确定的是,这将充满竞争。
狂降 4.6 万!G9 改款发布,小鹏涅槃重生
地缘打碎了文明,又在文明的边缘重新定义文明。 坐落在河西走廊最西端的敦煌,就是一个这样的地方。 公元前 121 年,霍去病出陇右击匈奴,河西走廊首次纳入华夏版图。在这之后,敦煌成为了丝绸之路三线的重要节点。贸易往来、思想的冲刷交融,让敦煌的文化破碎又重组,最终衍生出了独特的华戎文化,复杂的地缘碰撞催生了瑰丽的艺术成就。 敦煌莫高窟里的壁画,从简约奔放再到细腻秀丽的风格演变,勾勒出一幅幅飞天、涅槃的经典故事。 ▲ 敦煌莫高窟第 229 窟-窟顶北坡-伎乐飞天 图片来自:敦煌研究院 敦者,大也;煌者,盛也。 小鹏少有地将上市发布会定在敦煌,兴许有着特别的用意。对于小鹏来说,全新 G9 的改款事件就像是商业版图中的「敦煌郡」,走过长安-敦煌的三万里,站在丝绸之路的起点,何小鹏对旗下车型的西进、重塑有了新的思考。 在今晚的敦煌博物馆,小鹏正式上市 2024 款小鹏 G9,起售价为 26.39 万起,上市即交付。其中,2024 款全新小鹏 G9 共提供 5 种配置车型选择: G9 570 Pro 版:26.39 万起 G9 702 Pro 版:28.39 万起 G9 570 Max 版:28.99 万起 G9 702 Max 版:30.99 万起 G9 650 Max 版:35.99 万起 相比旧款 30.99 万的起售价,新款 G9 的起售价进行了 4.6 万元的大幅下调,无论是 Pro 版本还是 Max 智驾版本都已经真正下探到了国内 30 万以内的纯电市场。 从改款 G9 开始,小鹏打碎过往,迎来自己的涅槃重生时刻。 改款 G9,是一道加减乘除题 如果你觉得难,你看看小鹏汽车的何小鹏就不难了。 何小鹏这样形容去年小鹏所面对的艰难时刻。对于小鹏汽车来说,去年 G9 的失利足够刻骨铭心。 发布会上,何小鹏谈起了更多小鹏内部为 G9 改款付出的努力,「加减乘除」是小鹏内部团队对 2024 款 G9 的高度概括。 新款 G9 的「加法」做在了架构技术上,2024 版的 G9 将会标配更多扶摇架构的核心技术。何小鹏认为,尽管去年的 G9 也使用了相当多扶摇架构的技术元素,但小鹏认为新款能够在智能、电能以及性能上做得更加出色。 在扶摇架构的赋能下,新款 G9 几乎全系标配了核心能力。谈到当家智能驾驶技术,何小鹏再次提到了 XNGP 的实际进展,在过去一年中小鹏城市 NGP 的周度使用率达到了 82%,XNGP 的周用户使用率达到 94.6%, 其中单辆最长累积智驾里程突破 15000km。 更高频的使用,带动了小鹏开城进度。何小鹏宣布,到 2023 年底小鹏城市 NGP 智能驾驶将扩增至 50 城,覆盖接近 80% 小鹏车主所在的城市;2024 年,城市 NGP 预计会扩增至 200 城,做到核心城市全覆盖。 实际上,小鹏智能驾驶的野心并不只停留在开城,何小鹏还进一步确立了内部智能驾驶团队的目标——2025 年,XNGP 要在城区路段实现平均 1000km 接管 1 次的效果。小鹏有信心能够在未来 2-3 年内,从现今平均 10km 接管 1 次的水平,完成 10-1000km 量级的跨越。 做起「加法」的还有新款 G9 的性能表现。2024 版全新 G9 将会搭载同级领先「超线程智能底盘」,在全车视觉以及智能双腔空气悬架等核心底盘部件的支持下,超线程智能底盘可以进行每秒 1000 次路况扫描和 200 次的悬架调节。 值得一提的是,这一套底盘有着相当高的可玩性,根据小鹏官方介绍,超线程智能底盘支持自定义极客模式,可以为有明确驾驶取向的车主开放多达 13.5 万种驾驶模式。后期,这样的「数字底盘」还会通过 OTA 不断升级优化,适应更加极致的操控需求。 主打「听劝」的小鹏,在过去一年中,小鹏通过不同的渠道方式,与用户沟通交流超过 1000 次,接收来自用户的建议超过 10000 条。最终,小鹏在改款 G9 的豪华感上做了更丰满的诠释。 全新小鹏 G9 共有 5 款外观配色方案,其中新增 2 款配色,分别是星际绿以及暗夜黑;而在遭受诟病已久的座舱内部,小鹏内部团队也做了更多思考,新款内饰新增气宇灰配色,为 G9 营造年轻运动感。 电控能耗方面,新款 G9 亦有进步。根据小鹏官方的说法,新款 G9 全系标配 X-HP 2.0 智能热管理系统,新系统加持下新款 G9 的冬季空调能耗降低 30%,采暖效率提升 50%,冬季续航里程提升 15%,做到了同级最低能耗、最实续航。能耗的优良控制,成为了小鹏西进「出海」的一张王牌,在 2023 年挪威乘联会夏季续航实测中,小鹏 G9 摘得桂冠,成为了榜单中续航里程最扎实的纯电车型。 出色空间、能耗表现,精准打击了欧洲纯电市场的痛点。相比 P7i 车型,G9 在欧洲取得的关注和成功是远超内部想象的,何小鹏透露,G9 在欧洲市场的热度表现高出了自己心里预期的 10 倍。从 9 月的慕尼黑车展开始,小鹏 G9 将会开启西进启动海外交付,2023 年 10 月将在挪威、丹麦、荷兰、瑞典四国开始交付,2024 年小鹏计划打进德国市场。 「要把钱花在刀刃上」,小鹏 G9 贯彻了这个宗旨。对于一些用户低感知的配置,小鹏内部团队主动做起了减法。正如传闻消息那样,小鹏 G9 取消了 5D 智能音乐座舱,以及在座舱内部换上了一套全新自研的音响系统——Xopera 2.0 小鹏音乐厅。 用自研取代丹拿音响,小鹏有着自己的考量。何小鹏认为,Xopera 2.0 音响系统能够通过自研算法达到丹拿音响的同等效果,过往丹拿音响需要用户选配,而小鹏用更低的成本还原了丹拿效果,并且将选配打造成了标配,用户和车企都是「win-win」双赢。 另外,小鹏还回应了更多有关与大众的合作细节。在大众汽车官宣与小鹏达成技术战略合作之后,G9 将会成为「内销转出口」的中国汽车高端代表,未来双方将会基于 G9 车型平台共同开发两款纯电车型。 G9 的过往是惨痛暗淡的,但对于擅长技术的小鹏来说,改款 G9 却是一道加减乘除题,小鹏在新款 G9 上面找到了降本和重生的答案。 从产品到渠道,瘦身减重 在不久前的第二季度财报电话会议上,何小鹏表示,在今年的第四季度小鹏汽车的毛利率有望回正,小鹏有信心在 2024 年年底前完成整体成本降低 25% 的目标,并显著改善毛利率表现。 降本增效,将会是小鹏贯穿未来一整年的主线任务。 好消息是,G6 的销量表现让小鹏暂时卸下了沉重的销量包袱。 电话会议中何小鹏透露,G6 已经成为了 20-30 万级最有统治力的纯电车型之一,Max 版本订单量突破车型总订单的 70%,远远超过了小鹏内部团队的预期。在刚刚过去 8 月,小鹏单月累计交付 13690 台新车,其中 G6 交付量环比增长 80%,累计交付超过 7000 台新车,占据总销量的 51.13%。凭借 G6 单车型的市场表现,小鹏挽救了自己的销量基本盘。 销量回暖复苏,继而推进 G9 改款,至少在产品层面上,小鹏已经达到了瘦身目的。想要完成从臃肿到轻盈的蜕变,小鹏还要将目光抛向销售渠道体系的变革。 未来三年,小鹏汽车要达到百万销量。 在「木星计划」零售选商沙龙上,王凤英这样地说道。 ▲ 木星计划-王凤英 小鹏内部可能很早就在销量预期上达成了共识。在 G9 遭遇滑铁卢之后,何小鹏重新开始思考怎么让小鹏汽车「活」得更好,内部架构调整已经势在必行。在 8 月初回应吴新宙离职的消息中,何小鹏就已经透露小鹏在 2022 年底就已经提前进入了架构调整阶段。 实际上,这个时间点是稍显微妙的,王凤英正式确定入局小鹏是在今年 1 月,可以推测小鹏内部针对各个职能部门的内部调整从 22 年底就开始并线进行了。 ▲ 何小鹏、吴新宙、黄仁勋三人合照(从左起) 在王凤英入职后,何小鹏曾经向外界透露自己的销量思考。他认为,新能源汽车赛道的淘汰赛刚刚开始,300 万销量仅仅只是一张入场券,在未来 10 年,主流新能源车企的牌桌上只会剩下 8 位玩家。 想要突破 300 万销量这条行业生死线,成本平衡是其中不可或缺的一环,销售渠道的改革,是一次自下而上的体系减重。 从直营模式落地之后,小鹏维持了非常长一段时间让直营与加盟并行。从年初开始情况开始发生变化,小鹏选择加速拥抱经销商。 ▲ 图片来自:REUTERS 3 月,何小鹏曾经表示小鹏汽车的直营店比例约为 70%,这个数字也将会在之后随着渠道改革发生较大的变化。根据晚点 Auto 报道,小鹏不仅关闭了部分低效的直营店,还将相当数量的直营店转给了经销商经营,在保留直营模式的同时拉升经销商的门店比重。 另外,小鹏主动降低了综合店(包含销售、体验全链路的门店)的开设门槛。过往经销商想要开设大体量的综合门店需要达到一定的业绩指标,而在木星计划调整后,小鹏对授权经销商的要求只从城市位置、场地面积、经销商资产健康这些维度进行考量,业绩 kpi 不再成为决定性指标。 所有的动作,都是为了以更轻的资产方式,铺开更多的小鹏门店。 在未来的下半年,小鹏将会明显加快渠道(包含国际市场)的商业模式变革,希望能够用更快的速度吸引优秀经销商伙伴,提速门店在二线,甚至是三线以下城市的渗透。小鹏内部对于下半年的预期是乐观的,在二季度财报电话会议的末尾,何小鹏表示从今年第三季度开始,小鹏将会进入销量、品牌的初步正循环,最终在明年进入更全面的正循环。 如果说,G6 吹响了小鹏触底反弹的前哨,那么 G9 改款和持续大刀阔斧的渠道改革,就是小鹏涅槃重生的真正转折点。
给自动驾驶AI搞个“外挂”,0.1M就能显著提升运动状态判别力
原标题:给自动驾驶AI搞个“外挂”,0.1M就能显著提升运动状态判别力,来自港大&TCL丨开源 只需“100K大小的外挂”,就能让自动驾驶AI识别“物体运动状态”的能力大幅上升! 这是一项来自香港大学计算机视觉与机器智能实验室(CVMI Lab)和TCL AI Lab的新研究,目前论文已被CVPR 2023收录。 研究提出了一种叫做MarS3D的轻量级模型,给原本只能识别物体“是什么”的语义分割模型用上后,就能让它们进一步学会识别这些物体“是否在动”。 而且是任意主流模型即插即用,几乎不需要额外的计算量(推理时间只增加不到0.03秒),目前已开源。 要知道,对于靠激光雷达来判断周围环境的自动驾驶系统而言,其感知能力,很大程度上依赖于3D点云语义分割模型的准确率和效率。 如果想提升模型识别“运动物体”的能力,往往需要将繁重的室外多帧点云数据分别进行特征提取和处理,但这种方法不仅要增加大量计算,识别性能也没提升多少,属实是事倍功半。 相比之下,MarS3D参数量只有约100K大小,却能将主流点云分割模型的性能提升近5%。 这究竟是怎么做到的? 01 100K参数让模型学会识别“运动”物体 首先要了解一下3D点云的两种语义分割任务,单扫描(single-scan)和多扫描(multi-scan)。 这两种方法的核心差异,在于能否区分物体的运动状态。 单扫描任务只需要根据单帧点云,把场景中汽车、行人、道路等语义信息分割并标注出来。像下图,不同的颜色代表不同的物体,如蓝色的点云代表车: 多扫描任务,则需要根据时序上的多帧点云,同时分割语义信息和运动状态。 换言之,不仅要学会区分汽车、行人、道路,还得识别这些物体是否在运动。如汽车标签扩展成“运动的车”和“不动的车”,以及行人扩展成“运动的行人”和“不动的行人”: 目前,自动驾驶做激光雷达点云数据的处理,主要还是通过单扫描语义分割方法。 虽然能通过扩展标签、融合点云数据,直接将单扫描模型训练成多扫描模型,从而让AI掌握识别物体运动状态的能力,但存在两个问题: 一个是性能收效一般;另一个是融合点云数据量大,导致这种模型复杂、计算时间长,而这正是“争分夺秒”的自动驾驶系统无法接受的。 为了解决这两个问题,让语义分割模型又快又好地掌握识别“运动物体”的方法,MarS3D横空出世。 即使之前模型只能做单扫描语义分割,给它加个MarS3D后,不仅能大幅提升多扫描语义分割能力,区分物体“是否在运动”,效果还比其他多扫描方法更好。 所以,MarS3D的核心思路是什么? 具体来说,模型设计了一个基于2D CNN网络的分支BEV Branch,这个模型能提取点云数据转换的BEV(Bird’s Eye View)表征,即自上而下的鸟瞰视角。 之所以选用BEV,主要有两个原因。 一方面,目前的运动物体基本都是在地上跑(即使在空中飞,也几乎不存在垂直上升的情况),也就是说,几乎所有的运动都在水平面上有位移,因此它能很好地反映物体在绝大部分场景中的运动状态; 另一方面,BEV相比点云数据量更小,还能通过参考帧和特征图相减,降低点云稀疏性带来表征不稳定的问题,即同样静态区域的表征近似,含有动态物体区域的表征距离更远。此外,多尺寸卷积对表征抽取特征图,以保证模型对不同运动速度的物体都有很强感知力。 随后,将这个分支提取的运动状态信息特征、和其他被时序嵌入向量增强的单扫描任务模型分支3D Branch提取的语义信息特征结合起来,进行特征融合,最终实现语义分割。 那么,这样实现的3D点云语义分割,效果究竟怎么样? 02 几十毫秒计算,分割性能提升近5% 相比和其他输入如RGB图像进行结合,论文重点测试了模型针对纯点云输入的分割效果。 从下表可见,对于SemanticKITTI数据集,在目前主流的单扫描点云分割模型如SPVCNN、SparseConv和MinkUNet上,MarS3D在只给模型增加0.1M的情况下(参数量增加不到0.5%),将性能(mIoU)分别提升了4.96%、5.65%和6.24%。 同时,计算时间(延迟)只增加了19ms、14ms和28ms。 5%对于模型分割性能提升有多显著?下图是在两个扫描场景中,模型增加MarS3D前和增加后的效果对比,其中左图是增加前,中间是增加后,右边是真实值: 显然,增加MarS3D后模型识别物体的效果要更好。 直接将分割效果和真实值对比,可见增加MarS3D后的“错误值”,比增加前要低不少: 整个推理过程,只需要一块英伟达GeForce RTX 3090 GPU就能搞定。 对MarS3D感兴趣的小伙伴们,可以去试试了~ 项目地址: https://github.com/CVMI-Lab/MarS3D 论文地址: https://arxiv.org/abs/2307.09316
在大模型数量全国领先的北京,昇腾AI“点燃”首个普惠算力底座
大模型在抹平 AI 模型底层架构多样性的同时,也在悄然抹去城区之间的差异。 站在北京石龙经济开发区20号院,很难将这里与京西地区百年钢铁史、千年采煤史联系起来。曾是一代又一代人集体记忆的铁花飞溅、机械轰鸣,如今已化作蔚然成风的「京西智谷」。 图源备注:图片由AI生成,图片授权服务商Midjourney 2月,大模型「炼丹炉」—北京市门头沟区与中关村发展集团、华为技术有限公司共建的北京昇腾人工智能计算中心(以下简称计算中心)在20号院内正式点亮。6月,首批上线运营人工智能训练算力规模100P。 在今年企业争抢算力大背景下,在坐拥全国近三分之一人工智能企业、打响大模型创业「第一枪」的北京,它是第一个面向中小企业提供普惠算力的人工智能训练算力平台。 7月,计算中心又成为北京第一个拿到「国智牌照」的「新一代人工智能公共算力开发创新平台」,跻身国家人工智能算力发展战略体系。 夯实的基座:算力「大」且「稳」 走进一楼计算中心机房,原以为巨大房间里会屹立几座哄哄作响的「铁皮疙瘩」,结果出乎意料:一间仅50平米「小户型」,里面只有一台 Atlas900AI 集群( Atlas900PoD )。 一个集群共有8台机柜,中间五台是核心计算设备,每个机柜里塞进了八个计算节点,是100P 真正来源。最左边两个柜子其实是液冷分配器,决定液冷水输往哪个管道。最右边两个机柜负责高性能卡之间快速通信。 100P 是什么概念?1P 相当于每秒可进行一千万亿次运算,100P 大约相当于五万台高性能电脑的算力。就计算精度而言,100P 是指半精度( FP16)算力。 大模型时代有一个明显趋势,企业都是基于一些开源模型做微调,包括二次训练。「他们会跟我们要两个节点。几十亿参数规模的模型,一到两天就能训练完毕。」北京昇腾人工智能生态创新中心 CTO 杨光介绍说,计算中心目前有四十个节点,按照一家企业需要两个节点来算,可以同时服务二十多家。 绕到机柜身后,触摸背后的液冷门,感觉冰凉,大概只有十几个度。打开厚重的液冷门,依然可以感到热风袭来。只见每台服务器背后都有不少细长管子,直接通到服务器里: 从底部上来的液冷水经由这些管道与服务器进行热交换,带走热量,使温度下降,升温的液冷水回到冷却塔后,恢复以往温度。 整个过程都被封闭在液冷门里,关上门后,外面只剩嗖嗖的凉意。 得益于液冷技术,一台机柜可以塞进八个计算节点,传统运营商的一个机柜通常只能放一台,计算中心 PUE 也做到了1.15(多数地方要求是1.2以下)。 目前使用到中心算力的企业大概有36家,算力使用率的峰值可以到80%。长远来看,100P 只能算「起步价」,「企业业务对应到算力需求都很大。」北京格灵深瞳信息技术股份有限公司副总经理周瑞告诉我们,「像我们这样的企业,未来都是几倍的算力需求。」 今年,计算中心算力规模将达到400P,并持续扩容至1000P。100P 算力集群内置320张卡,以此类推,400P 算力集群将有1200多张卡,1000P 集群卡数将猛增到3200张。卡的数量激增,工程复杂度也会呈指数级增长,这对算力集群高可用性提出巨大挑战。 比如,模型训练一个多月,已经完成99%,突然有张卡出现故障,一切只能从头再来。高性能卡之间的通信问题、训练时无法快速调度到足够算力资源也常常导致训练断掉,之前的努力付诸东流。 为此,计算中心的集群系统提供断点续训能力:平台会保存临界点的 check point (权重文件),故障恢复之后,自动拉取一个非故障节点,将之前保存的权重文件加载进去,继续训练。 「我们最长的稳定时间能做到25天」杨光给了一个具体数字。作为对比,Meta 发布 OPT-175B 模型时曾提到它的稳定训练时间只有2.8天。 针对比较知名的开源大模型,计算中心的硬件水平可与英伟达 A100PK,千卡 NPU 利用率基本能做到40%。 「易用」与「普惠」:最难的是让企业用起来 除了算力资源充沛、数据安全,价格和易用性也是任何一家想要落地行业大模型企业选择算力底座时考虑的核心因素。 本质上,大模型是对小模型时代作坊式底层算力运作的重新洗牌。过去有一个工作站、几张显卡就能做模型训练,现在完全行不通。 「等了一秒钟,底层的模型才蹦出四、五个字,然后又是几秒的等待,体验很差。」在拜访未接入计算中心算力的企业后,中心工作人员介绍到:「如果接入计算中心的算力,大约每秒可以输出20个 Token 。」 从 Transformer 时代开始,主要面向智慧交通领域的中科视语就在做一些大模型的基础建设。对于这样一家智慧交通领域的成长型 AI 企业来说,自建机房训练大模型的前期资本投入过于巨大,周期也不可控。 去年,手握大几百张卡的格灵深瞳也开始与计算中心合作大模型的研发,「因为需要更加专业、系统的算力基础。」周瑞说。 为了做中国医疗领域最好的科学大模型,医渡科技已经买走了计算中心大部分算力。 其实,像中科视语、格灵深瞳、医渡科技这样人工智能企业都有自己的优势。他们往往拥有一支精细的 AI 团队、积累多年的行业数据和自己的知识图谱,知道怎么将这些「独家秘笈」、行业 know-how 与大模型更好地结合。至于算力与大模型强耦合的工作,他们更愿意交给更有经验的合作伙伴。 在这些方面,昇腾已经积累了二年多经验。北京昇腾人工智能生态创新中心 COO 李天哲说到,我们调优有很好的经验,系统级的工程上也做了很多的优化,保证机器的高可用。 在服务定价上,「我们不收回一次性投入数据中心的成本,只收运维的费用(比如电,水,物业等)。」李天哲说。价格相当于现在市场公有云、对外提供算力 IDC 价格的二分之一到三分之一,如果是门头沟区的企业,费用仅为云上企业的七分之一。 相较于算力充沛、高可用和普惠,计算中心面临的最大挑战还是基于国产、全栈自主可控算力系统的易用性。现在计算中心也通过两大服务,提升平台的易用性,尽量降低客户对国产底层硬件的感知。 一个是开源的大模型服务。在昇腾自主可控的全栈基础底座能力上,主动安排技术人员积极适配业界主流的开源大模型。 目前,计算中心基于昇思 MindSpore/MindFormers 套件,已成功适配 LLaMA、ChatGLM、Bloom、PanGuAlpha、GPT 等主流开源 NLP 大模型和 VIT、Swin 等主流开源 CV 大模型。 计算中心还做了很多兼容第三方的算子模型还有框架,甚至引入一些加速库和推理服务,服务上层不同框架、模型的 AI 应用。 现有基于其他系统研发的软件是否能容易地迁移到国产生态中,也是易用性的一个重要指标。为了让大模型方便地迁移到昇腾平台,计算中心也积极拥抱 Huggingface等开源社区,做了很多工具套件。比如,只需5行代码就能快速将模型从 Huggingface 迁移到计算中心。目前计算中心已经完成了超过200个 AI 模型的迁移。 第二个服务就是技术工程师提供贴身技术服务,包括支持训练、微调和在线推理服务( FaaS ,微调即服务)。 告诉我们你用的什么基础模型,把一些公开非涉密的数据上传到计算中心,不用企业再去做太多模型调优,我们就能帮你调好,一到两个月的时间就能交付。李天哲解释说,到时企业直接上来训练就行了。 「我们在门头沟有一个本地化的十几人团队专门做这种技术服务。」杨光说。现在,也在慢慢将一些上层应用封装成服务,我们对上层算法进行了部署,企业只需上传数据,就能立刻使用。 北京昇腾人工智能计算中心已经完成了超高清视频修复增强算法部署。 把脉趋势:为何百亿行业大模型先行? 作为计算中心第一批使用者,中科视语在这里完成了坤川大模型的研发及优化工作。 「我们的感知模型最新成果 FastSam,对标的是Meta提出的SAM(SegmentAnythingModel,SAM),在同等效果下,速度提升50倍,就是在门头沟区的计算中心实现的。」中科视语联合创始人张腊告诉大家。 公司视语通途®智慧交通解决方案在应用场景中实现精准感知、高效运算、快速检索等能力,也充分利用了昇腾 AI 能力。比如,基于针对 AI 场景推出的异构计算架构 CANN 及细粒度正则化模型压缩技术实现了模型高效推理;在 MindX SDK 帮助下,优化了业务效率。 医渡科技的行业模型也是本地企业与计算中心密切合作的典型例子。「我们希望做中国医疗领域最好的科学大模型,」医渡云首席数据科学家彭滔告诉我们。这家医疗 AI 技术公司已经嗅到大模型给医疗领域带来的巨大机遇:公司的业务场景会拆解成很多产品,它们都有可能被大模型的崭新能力升级一遍。 比如,一个新药从科学家研发到最后的上市,可能需要十五年时间、二十六亿美金,大部分花在临床实验上。其中,临床实验的执行阶段具有知识密集、时间地域跨度大、人员流动性强的特点,这也导致企业投入数亿美金,但执行结果往往像开盲盒。类似 ChatGPT 这样的技术可以将繁复的文档查询转化为一个问题,有利于实验执行阶段新进人员快速掌握背景知识,增加结果可控性。 医渡科技的行业大模型目前有两个版本(70亿、130亿),公司也在与计算中心合作,「调一些基座的模型,叠加数据进行持续的精进,通过轻量的工具达到更好的效果。」 彭滔说。医渡科技有自己的优势,积累了相当多的医学洞见和疾病知识图谱,也在不断尝试如何更好地将知识图谱与大模型相结合。 在智慧体感方面深耕的北京格灵深瞳信息技术股份有限公司与昇腾之间的合作已有5年之久。据格灵深瞳副总经理周瑞介绍,公司目前正在图像大模型预训练、微调以及计算加速等底层技术上与计算中心合作。另一方面,大模型落地方面也依托计算中心,提供推理服务。 格灵深瞳大规模沉浸式人机交互系统是一种可以提供沉浸式交互体验的空间型XR产品,游戏是其主要应用领域之一。 目前,计算中心在智慧能源、智慧医疗、智慧城市、智慧交通、智慧金融等行业输出基于昇腾 AI 基础软硬件平台的创新解决方案已经超过250项。 根据昇腾对大模型发展趋势的判断,未来千亿大模型会走向收敛,行业大模型将迎来百花齐放,其中,百亿级别的行业大模型大约占75%,构成算力需求主体,也是昇腾 AI 基座重点支撑的对象。 具体而言,大模型的第一个发展阶段是千亿级大模型。因为知识量非常庞大,它会是千亿训练、千亿推理,用一些高端的卡(像以前的训练卡)去做模型推理。落地场景可能会以2C 为主,就像 ChatGPT 、百度文心一言和讯飞星火大模型都有人机对话的功能。 对于2C 来讲,人工智能大模型还有很长的一段路要走,面对很多的用户量和算力需求,最终怎么落地,客户怎么付费?怎么降低推理成本?都是很大的挑战。 在第二阶段,会有大量分布在中长尾部分,面向行业的大模型。我们估计大部分是7B、13B 的模型,13B 可能会是一个面向行业的大模型主流规模。杨光解释道。因为,与千亿级的通用大模型相比,行业大模型的推理成本没那么高。一方面,行业知识量要求没有那么通用,参数量不用那么多。另一方面企业用户也会追求极致性价比。 人工智能要走向千行百业,百亿行业大模型的孵化可能会是爆发式,昇腾也因此选用一些百亿规模的行业模型作为算力产品的主要支撑对象。 众人拾柴,自然生长 目前,昇腾 AI 芯片已经孵化了30多个大模型,国内原创的大模型一半基于昇腾开发。 相比前大模型时代打造算力底座的繁琐,大模型对国产化平台来说,其实是一个利好。过去视觉领域的模型结构各异,数都数不过来。现在主流开源大模型也就五、六个,很多企业都是基于主流开源模型做改造和训练。 「所以,我们只要把 LLAMA 等几个主流开源大模型的支持做到极致,就能从金融、互联网走向千行百业。」杨光说。 不过,计算中心也认识到自己对这些开源大模型的支持,很难在第一时间完成拟合、适配,会有开发 bug 等问题。这也是他们对培育中国自己的开源社区、打造昇腾 AI 原生大模型抱以极大期待的原因。 我们还在今年推出了面向算子开发场景的昇腾 Ascend C 编程语言。「希望更多算法工程师能用昇腾 Ascend C 来写自己的算子。」杨光说。 计算中心也在与北京高校合作,通过创新大赛、合作创新课程等方式,让昇腾 AI 平台、Ascend C 为更多年轻人所熟悉,伴随他们的成长足迹,一路渗透到行业深处。 发展大模型,算力、模型、生态,缺一不可。昇腾底座能否成为更多行业客户的选择,还是要看企业是否感到好用,要看昇腾的生态,这并非单靠昇腾就能做起来,需要众人拾柴。 这里最关键的是时间,就跟农民种地一样,需要慢慢耕耘,自然生长。
iPhone 15 首发体验:刚需改善型手机,务实的浪漫主义
截止至发稿前,我仍有机会在苹果官网订购首发日到货的 iPhone 15 和 iPhone 15 Plus——在钛合金机身的 iPhone 15 Pro 反衬下,这一代常规升级的 iPhone 15 系列显得不太起眼,连官方宣传片也只有短短 48 秒,而 iPhone 15 Pro 的片子足足有 4 分钟。 iPhone 15 值得换吗,适合什么样的用户? 在深度体验了一段时间后,我想这个问题的答案显而易见: 这是一台刚需改善型手机,是不那么 Pro 但更好的 iPhone 14 Pro。 外观与性能 每一次苹果推出粉色 iPhone,都会是全场的目光焦点,iPhone 15 也不例外。 这一代 iPhone 数字系列延续了之前清新的配色风格,提供了黑色、蓝色、绿色、黄色、粉色五种颜色。虽然机身尺寸没有大的变化,但首次采用了融色玻璃工艺——这是一种新改良的玻璃着色工艺,背板玻璃先经过双离子交换工艺强化,再进行纳米结晶粒子抛光、蚀刻,让玻璃颜色更加清爽水灵,粉色尤其好看。 背板玻璃手感也贴近前几代 Pro 系列的哑光玻璃质感,摸起来还要更细腻一些,不容易沾染指纹,耐脏又耐看。另外,iPhone 的铝合金中框变得圆润贴手了,屏幕玻璃也做了弧边处理,回归到了 iPhone X 时期的设计,握持感更舒适,从正面到后盖,整机手感协调一致。 屏幕部分,最直观的升级就是 iPhone 15 全系配备灵动岛,经过一年的适配,大部分应用厂商已经摸清楚了这块区域的适用场景,听歌、外卖、打车、导航都是很实用的高频场景,比弹窗信息的触达更方便,也更有效。 10 年前,苹果收购了以色列 3D 体感技术公司 PrimeSense,在被收购前,这家公司最有名的产品是 Kinect,是微软 XBOX 360 游戏机专用的体感摄像头,比现在很多智能电视上的摄像头还要大好几倍。 6 年前,苹果发布了 iPhone X,倾尽当时最先进的供应链技术,把 Kinect 缩小几十倍,成为了屏幕上的「刘海」——原深感摄像头,实现了从 Touch ID 到 Face ID 的变迁。 去年,iPhone 14 Pro 系列采用了新的原深感摄像头模组,只有两个小拇指的指甲盖大小,并首次引入了灵动岛的交互设计。 经过六年的迭代,iPhone 终于将 Face ID 融入到 iOS 的交互之中,让 iPhone 实现了某种意义上的全面屏——屏幕交互趋于完整,每一个部分都能各司其职。 除了灵动岛之外,iPhone 15 的屏幕在亮度上相较 iPhone 14 提升明显,日常最大亮度从 800 尼特提升到了 1000 尼特,看 HDR 内容时峰值亮度可以到 1600 尼特,户外时峰值亮度最高可以到 2000 尼特,在绝大多数场景都能保持高可看性,户外大太阳下使用体验提升很明显,是一块除了缺少高刷新率之外已经无可指摘的好屏。 性能方面,由于芯片、内存都没有太大变化,iPhone 15 在性能上基本上和 iPhone 14 Pro 持平,还是 A16 仿生+6GB RAM 的配置,整体性能放在一众智能手机里仍处于领先水平,跑主流应用、游戏也都完全够用,但杀后台的情况仍时有发生。 续航能力基本上与上一代持平,iPhone 15 不太能够撑起一整天的续航,手机重度用户选择 Plus 版本可以有效缓解充电焦虑。 值得一提的是,这次 iPhone 15 终于换上了 USB-C 接口,充电确实方便多了,用 20W 以上的充电器即可激活快充,爱范儿实测充电功率最高可以到 25.7W。 虽然传输速率是 USB 2 的水平,最高只有 480Mb/s,但支持 DIsplayPort 协议,可以配合 USB-C 接口的 DP 线外接显示器使用,看个电影追个剧还是挺方便的。 除此之外,USB-C 接口还支持反向充电,可以用 iPhone 15 给 AirPods 或 Apple Watch 充电,4.5W 的充电功率不高,没电的时候倒是可以应应急。 总的来说,iPhone 15 的外观设计、屏幕表现、整机性能都比较出色,你可以发现过去几代 iPhone Pro 系列上的新技术、新功能都下放到了 iPhone 15 上,带来的好处感知非常明显,一上手就能有很好的体验。 影像系统 2 倍长焦镜头,曾经是许多人纠结 iPhone 买不买 Pro 型号的分水岭。随着 iPhone 主摄越来越广、长焦越来越长,更适合拍人像的 52mm 焦段越来越成为刚需。 苹果显然也意识到了这个问题,给 iPhone 15 全系列配上了主摄 2 倍焦段的变焦能力——希望用计算摄影实现「光学品质」。 实测下来,这个 2×焦段确实能堪重用。 首次是 iPhone 15 主摄规格的升级,采用了 4800 万像素的传感器和新的相机算法,在不变焦、不触发人像模式、夜间模式或闪光灯的情况下,可以对照片的分辨率进行控制,拍摄 1200 万像素、2400 万像素或 4800 万像素的照片。 iPhone 默认隐藏了这个选项,需要在「设置-相机-格式-分辨率控制」中手动开启,之后在取景上方画面中点击 HEIF MAX 选项即可开启 4800 万像素的最大分辨率,成像解析力提升非常明显,很适合风光摄影。 得益于 4800 万像素的传感器和 A16 仿生芯片的强大算力,即使是在主摄 2 倍变焦的情况下,也能保证有接近光学长焦镜头解析力。 ▲样张:48MP 样张对比 24MP 样张(图片有压缩) ▲ 样张:iPhone 15 白天室外样张(图片有压缩) ▲样张:iPhone 15 弱光室内样张(图片有压缩) ▲样张:iPhone 15 夜景模式样张(图片有压缩) 而全新的人像模式则大大降低了拍摄所需要的决策成本。 在 iOS 17 的加持下,相机会自动识别出画面主体并获取场景的空间信息,这时候取景画面角落会出现光圈符号 f 的标志,表示 iPhone 已经启动了人像模式,此时点击 f 即可预览人像模式的虚化效果,点击画面可以选取焦点。 当然,也可以直接进行拍摄,之后再对焦点、光圈进行调节,使用起来非常方便,过往用人像模式拍半天激活不出来的情况大大减少,对焦距离也能比光学长焦镜头更近一些,拍人像、静物都很合适。 ▲iPhone 15 焦点调节功能演示 ▲样张:iPhone 15 人物样张(人像模式开启) ▲样张:iPhone 15 静物样张(人像模式开启) 值得一提的是,iPhone 15 极其依赖计算摄影,能够同时在实况、人像、夜景等模式间切换,还会为照片添加各种优化算法,也就意味着拍照会是芯片计算量最大的场景之一,拍照时间一长手机会明显发热,这也是 iPhone 的老大难问题,只能寄希望于后续的系统更新能够改进了。 自 iPhone 7 Plus 发布以来,苹果就一直在探索计算摄影的潜能,我想 iPhone 15 上这个 2 倍长焦焦段、iPhone 15 Pro 上的 35mm 人文焦段,都是苹果计算摄影的最新成果。两个镜头的 iPhone 15,却有了超广角、广角、长焦三个焦段,而三个镜头的 iPhone 15 Pro,更是配备了七个焦段,从微距到超长焦一应俱全。 计算摄影的意义在于,用户做更少的决策,就能得到更多的选择。而支撑这一切的核心,是封装在 4nm 芯片中的一百多亿个晶体管,每按下一次快门,都意味着数以亿计的计算将在毫秒之间完成——这张照片应该激活实况照片还是人像模式,是白天还是夜景,是长焦还是微距——在看不见的地方,iPhone 已经完成了无数次选择,而最后呈现到用户面前的,则是一个个经典镜头焦段。 这是最有趣的部分,iPhone 更多用焦段而非场景来区分手机拍照模式,究其背后的原因,我想还是要回归到摄影的本源。计算摄影用算法解决了许多问题,但最终决定影像好坏的,永远不是算法,而是镜头背后的你。 结语:刚需改善型手机,务实的浪漫主义 自 iPhone 11 起,苹果就将手机产品线调整为数字系列和 Pro 系列。数字系列保障优秀的基础体验,这是一条名为 iPhone 的金线,通常是务实主义者的选择。而 Pro 系列则集行业之所长,新技术、新制程、新材质统统安排上,这是一种名为 iPhone 的憧憬,无论失望还是惊喜,都属于消费电子的浪漫主义。 浪漫主义的宏大叙事总是引人入胜,但务实主义总是让人安心的选择。在深度体验了 iPhone 15 之后,我越来越喜欢这代 iPhone 带来的踏实。这种踏实源于苹果不断夯实的技术壁垒——清爽水灵的机身设计、浑然一体的全面屏交互、4nm 制程芯片的强劲性能以及能堪重用的计算摄影系统,尽管新东西不多,但体验好不少。 做个不严谨的比对,iPhone 15 就是一台少了高刷屏幕和长焦镜头的 iPhone 14 Pro,起售价 5999 元,而目前 iPhone 14 Pro 目前已经从苹果官网下架,三方渠道的主流价格在 7500 左右。二者 1500 元价差,就是 iPhone Pro 系列这几年技术迭代带来的红利,当 iPhone 14 Pro 铅华推进,摇身一变成了 iPhone 15。 如果你手持 iPhone 13 或之前的手机,那 iPhone 15 我认为是一个相当实惠的选择,前几代数字系列 iPhone 遭人诟病的长焦镜头、屏幕表现等短板都一次补齐,考虑到以旧换新(我手头 256GB 的 iPhone 12 Pro Max 可以折扣 3500 元,价格还算不错)以及 24 期免息分期付款的折扣力度,iPhone 15 的换机门槛确实也来到新低。 这也是我认为 iPhone 15 是刚需改善型手机的原因,这不是一部适合追新的 iPhone,确实也没有太多创新点可言。可这也是几番迭代后,体验最好的 iPhone 基础款,无论体验还是价格,都是实实在在的。 我想,这也是一种务实的浪漫主义。 本文作者:肖钦鹏
荣耀V Purse折叠屏手机发布:8.6毫米刷新轻薄纪录 售价5999元起
凤凰网科技讯 9月19日,荣耀今日在上海举行新品发布会,此前在德国IFA消费电子展上发布的荣耀V Purse钱包折叠屏手机在国内正式发布。该手机首创钱包折叠屏形态,闭合状态下机身厚度8.6mm,展开状态下厚度4.3mm,整机重量214g,打破了由荣耀Magic V2保持的9.9mm行业纪录,售价5999元起。 荣耀V Purse的设计灵感源自法国芳登广场,以钱包折叠屏的独特形态助力消费者实现个性化的自我表达。手机的不同配色借鉴了经典腕表的纽索饰纹,或提供了经典奢品的Swift牛皮纹和Togo荔枝纹,为用户带来了典雅舒适的感官享受。 荣耀V Purse的屏幕正面、背面以及侧面可以分别显示个性内容,独立表达。通过更换或自定义风格迥异的壁纸,荣耀V Purse就成为可穿戴的时尚单品;而侧边显示,可自定义展现个人状态、社交宣言,内心独白等手机“个性签名”。 荣耀V Purse的展开键提示音也可以选择不同的声音和效果,甚至可以自己录制,打造出与众不同的个性风格。 荣耀V Purse采用外折形态,带来了前后双屏拍摄体验。5000万像素超自由写真相机,抬手一翻就能轻松实现主摄自拍。得益于HONOR Image Engine计算影像平台全新升级的AI人像肤色算法,让荣耀V Purse实现人像拍照体验的全面升维。 荣耀V Purse的铰链组件从高端腕表中汲取灵感,首次采用了荣耀蝶翼铰链和自研游丝结构,使得铰链厚度仅有2.98mm,同时铰链的强度提升了400%。此外,荣耀V Purse还采用了自研盾构钢材料,不仅减轻了手机的重量,还提高了其强度。 为了在轻薄的同时保证耐用性,荣耀V Purse采用了“四重柔性装甲”解决方案,包括保护层、缓冲层、支撑层和防护层,提高了手机的防刮性能,使其具备强耐磨度。荣耀V Purse还获得了瑞士SGS五星级整机抗跌耐摔能力认证和瑞士SGS五星级屏幕抗冲击能力认证。全新硅碳负极电池技术,带来仅2.3mm如卡片般超薄体积和低电压超稳定性的“双升级”,高达4500mAh的电量,在轻薄的同时也能提供持久的续航体验。 荣耀V Purse提供了山茶金、冰川蓝、雅黑色三种配色,分别售价为5999元(16GB+256GB版本)和6599元(16GB+512GB版本)。预售将于9月19日21:00开始,在荣耀商城、各大授权电商、荣耀体验店及授权零售门店开启,9月26日10:08正式开售。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。