EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
华为HDC大会:HarmonyOS NEXT首次将AI融入系统
凤凰网科技讯(作者/黄若曦)6月21日,2024年华为开发者大会(HDC)在东莞正式开幕,带来全新的HarmonyOS NEXT、盘古大模型5.0、昇腾AI云服务、GaussDB数据库等最新科技创新成果。此次大会,华为将多年积累的AI能力和鸿蒙原生应用生态相结合,带来了全新的鸿蒙原生智能(Harmony Intelligence)。HarmonyOS NEXT首次将AI能力融入系统,赋能生态。 在主题演讲中,华为常务董事、终端BG董事长、智能汽车解决方案BU董事长余承东分享了鸿蒙生态的最新进展。HarmonyOS操作系统从2019年8月9日正式发布,历时1778天,历经4代,鸿蒙生态设备数量已超过9亿,已有254万HarmonyOS开发者投入到鸿蒙世界的开发中来,鸿蒙学堂学习人次435万,开发者服务调用次数827亿次/月。 HarmonyOS 实现了一个系统,统一所有设备生态。基于OpenHarmony打造的全场景智能操作系统HarmonyOS NEXT在今天启动面向开发者和先锋用户的beta升级,带来全场景、鸿蒙原生智能、原生安全等创新体验。 鸿蒙原生应用已进入全面冲刺阶段, 5000多个常用应用已全部启动开发,其中超过1500家已完成上架。 HarmonyOS NEXT采用端云垂直整合的全新系统架构,是HarmonyOS自诞生以来的最大一次升级换代。 HarmonyOS NEXT延续了天生跨端的基因,手机、平板和智能屏等都能共享一个系统。分布式软总线也全面升级,在更低功耗的情况下,连接速度提升3倍,最多可同时连接4个设备。 小艺升级为小艺智能体,可执行更复杂的操作,并在端云大模型协同和意图框架的加持下获得更好的场景感知、意图识别和用户理解能力。 HarmonyOS NEXT也为鸿蒙生态带来了强大的AI能力,围绕图像智能、通话智能、文档智能、跨应用协同等。 AI大模型时代的隐私保护同样是华为关注的重点。在星盾安全架构下,HarmonyOS NEXT也重新构建了操作系统的安全体系与秩序,带来原生安全的系统和生态。 HarmonyOS NEXT从源头构建秩序,严格的流程和机制保障了用户安装和运行的应用天生安全,未经安全检测的应用和代码无法上架和安装。 此外,HarmonyOS NEXT重新定义应用获取隐私数据的规则,经过全面的梳理,取消通话记录、短信、电话、读取已安装应用列表等9类不合理的权限,降低用户的管理成本。 全新的安全访问机制,通过改变应用获取隐私数据的机制,实现从“管权限”到“管数据”,彻底革新用户管理权限的方式,把隐私控制权真正交还给用户。 数据高安方面,HarmonyOS NEXT也实现了从个人单设备安全、多设备安全到多人多设备协同安全的技术革新,推出系统级文件加密,文件在手机或平板上被分享出去后,只有授权用户才能打开。 HarmonyOS NEXT预计在2024年第四季度正式商用 ,届时将带来更多重磅特性。 HarmonyOS NEXT从操作系统内核、文件系统,到编程语言、编译器/运行时、编程框架,再到设计系统、集成开发环境,以及AI框架和大模型等,全面焕新。 华为研发EROFS文件系统已成为全球智能终端只读文件系统事实标准,随机读性能对比EXT4提升3倍,为用户节省2GB以上存储空间。 在软件根技术创新的同时,对系统架构进行了大胆创新和软硬芯云的深度整合,HarmonyOS NEXT的整机性能相比HarmonyOS 4提升30%。 未来两天,HDC还将举办高频高能的专题论坛、HarmonyOS学生公开课、Codelabs、Tech.Hour、HarmonyOS极客马拉松等活动。 HarmonyOS NEXT通过底座、生态和体验的“三层重构”,为消费者带来创新的全场景体验,也同时将技术和能力开放给所有开发者。
连续9年618销售第1,全球销量第1,Ulike凭什么618与全球市场双赢?
凤凰网科技《新视界》出品 今年“618”大促落下帷幕,家用脱毛仪品牌Ulike在全网拿下多个“销售第1”。作为全球销量第1的Ulike,已实现连续9年618销售第1,全网斩获15个销售第1。 这并非Ulike首次问鼎销冠,在这条节节攀升的道路之上,Ulike到底做对了什么? 销量王Ulike,又一次卖爆了 在家用美容美体赛道,Ulike在今年618期间所取得的成绩,只能用横扫来形容。 在天猫、京东、抖音等平台大健康行业、医疗器械类目、脱毛仪品牌及美容美体品类,Ulike获得多个榜单销售第1。 比如在天猫平台,Ulike获得“大健康行业品牌、大健康行业单品、医疗器械品牌、医疗器械单品、脱毛仪品牌及光子嫩肤美容仪新品”六大榜单销售第1。 在京东平台,Ulike则获得“医用美护行业、家用美容行业、脱毛仪品牌及光子嫩肤美容仪新品”四大榜单销售第1。 在抖音平台,Ulike同样获得了“医疗器械品牌、医疗器械单品、脱毛仪品牌及光子嫩肤美容仪新品”四大榜单销售第1。 市场数据显示,美容美体家用仪器市场近年来呈稳定增长态势,2023年市场规模已突破350亿元。而618大促,一直是相关品牌与产品大秀肌肉的重要战场。 作为一个新兴赛道,家用美容美体行业有着突飞猛进的发展势头,新产品与品牌层出不穷,也成为大促活动中为数不多的高增长类目。 在容量有限的用户心智中想要彻底占据品类,品牌最好的差异化特点就是成为第1。过往案例已证明,新消费品牌的崛起,往往都是以在618或双11大促中取得销量第1开始的。 其中,Ulike的持续领跑,与其开创性引入院线级蓝宝石冰点设计有着密切的关系,实现了对传统家用脱毛仪品牌的降维打击。 据了解,Ulike拥有先进的科技研发实力和技术积累,在中国深圳和韩国首尔设立两大国际光电美容研究中心,下设光学、射频、临床、安规、结构五大实验室,组建了以哈佛、麻省理工教授,现代光疗之父Michael R. Hamblin为首席科学家,构建了的内外部超百人的研发团队。截至目前,Ulike拥有全球专利超400项,其中海外专利占比超过20%。 扎实的技术基础,不仅让Ulike横扫中国市场,也在全球市场显现出不俗的成绩。根据第三方数据机构欧睿信息咨询(上海)有限公司的数据显示,Ulike是全球销量第1、业内市场份额占比第1的家用脱毛仪领导品牌。 作为全球光学领导品牌,Ulike全球销量第1的背后,是其11年专注光学美肤的结果,不断突破行业壁垒,是第1家院线蓝宝石冰点脱毛技术家用化的品牌。 11年专注光学美肤,Ulike诠释产品硬实力 Ulike的起家故事,充满了实事求是的技术执着。21世纪初,一群热衷于探索科技与美学结合点的工程师聚到一起。通过对消费者真实需求洞察、倾听和市场调研,他们把目光瞄准了家用脱毛仪市场,势要做行业的开创者。 历时三年研发,Ulike第1代脱毛仪产品才在2016年诞生,因为解决了消费者居家脱毛的痛点,当年度销售就突破了1亿元。 同样听取了消费者对于灼热、疼痛等不适感的强烈需求,Ulike向产品升级发起冲击,终于在2019年首次成功将蓝宝石冰点技术家用化,真正让消费者享受到了院线冰点无痛脱毛。 可以说,在成立的11年间,Ulike始终专注于一个方向:理解需求,并通过技术的落地满足需求。创新的难点往往在于从0到1开创不易,从1到2更是需要付出更多的努力。而在这两点上,Ulike已经全部做到了。 经过11年的发展,Ulike共实现了7次产品跨越性更迭,脱毛效果媲美院线,并渐次拉开与其他品牌的技术差距,成为断层式领先的脱毛仪品牌。 从创立之初,Ulike就秉持专注才专业的研发理念,深耕光学美肤赛道,自主掌握光学美肤核心技术。2024年,Ulike超光炮美肤仪研发成功,首次实现了将院线光子嫩肤、牛奶光技术家用化,以Dual Lights超长波组合光技术,实现了在家也能轻松享受院线DPL超光子淡斑和NIR牛奶光嫩白技术二合一,两种光源同时作用,真正满足了消费者的护肤需求。 Ulike的执着不难理解,随着技术与行业的不断发展,商业竞争的底层逻辑正愈发回归本源——即产品力的竞争。只有掌握核心科技,重视和投入技术创新,始终坚持用户第1,洞察和真正解决消费者的需求痛点,才能赢得用户信任,赢得销售增长。在这一点上,Ulike已经给出了自己的回答。
薇娅转行了?
离开直播间的薇娅,闯入了短剧行业。 近日,多家媒体报道称,薇娅所在的谦寻公司成立的谦萌文化,发布了三部短剧《替身男友》《我家来了男保姆》《别跟弟弟谈恋爱》的宣传海报,董海锋(薇娅丈夫,谦寻CEO)作为出品人出现在海报上,短剧预计在6月中下旬开机,将在抖音等平台上线。 与此同时,今年618期间,薇娅“杀死了”薇娅狂欢节。 5月31日,谦娱(杭州)娱乐传媒有限公司被注销,这家公司由谦寻(杭州)文化传媒有限公司控股,法定代表人为董海锋,曾在2021年打造过长达7个小时、25组明星嘉宾助演、45家冠名和赞助品牌的电商娱乐晚会“薇娅狂欢节”。 自薇娅离开直播间,谦寻已陆续注销了五家企业。今年,董海锋(薇娅丈夫)还注销了名下的北京谦寻文娱商务服务有限公司。 薇娅离开直播间已有两年半,等待薇娅复出,成为不少“薇娅的女人”(薇娅粉丝)的心愿。事实上,薇娅并未离开直播行业。这两年半,薇娅投资的两家企业上市,以导师、或企业家的身份出席多个活动分享直播经验,斥巨资买地用于直播,投身数字人产业。 市场上,也不断有薇娅要复出直播间的种种迹象。从去年开始,薇娅就频繁出现在其老公董海锋的视频号内容中,今年其公众号“薇娅惊喜社”迁移至“哆啦的魔法棒”,每周五薇娅都会更新最近的生活,和粉丝保持密切联系。 图源:哆啦的魔法棒 薇娅的影响力还在,微博“薇娅的女人”超话话题有6.6亿阅读量;今年1月,薇娅在淘宝直播的粉丝数量甚至比李佳琦还要多700万。 但随着直播大环境变化,头部主播齐齐隐退,蜜蜂惊喜社的稳步发展,薇娅入局短剧,似乎一切都在昭示着:薇娅回归直播间是不可能了,她转行了。 01 做短剧,薇娅夫妇有备而来。 企查查显示,谦萌文化成立于今年5月15日,北京谦越文化传媒有限公司为第一股东,占比60%。这家公司由谦寻全资控股,第二股东为上海萌扬文化有限公司,公司创始人兼董事长宗帅曾任华谊兄弟经纪联席总经理。 图源:企查查 短剧看似离直播产业遥远,但其商业化实则是与直播同脉连枝。 短剧的收入来自两部分,一是C端。倘若能打造出爆款短剧,其本身付费观看和订阅收入就非常可观。据媒体报道,《我在八零年代当后妈》单日充值曾超2000万,今年整个寒假期间,咪蒙凭借《我在八零年代当后妈》《裴总每天都想父凭子贵》两部短剧就收入过亿。 短剧市场火爆,吸引了不少人入局。前有咪蒙出品的爆款短剧《黑莲花上位手册》《我在八零年代当后妈》,后有知名影视导演王晶、周星驰入局拍摄短剧,百度、小米、360集团等互联网企业也前赴后继涌入赛道。如今随着小杨哥、薇娅的入局,拥有庞大粉丝群体的超级主播们,也企图将流量辐射到短剧行业分一杯羹。 主播瞄准短剧更重要的原因是,短剧的盈利方式不仅局限于付费收入,还包括品牌定制、广告及电商带货、平台采买等模式。知名战略定位专家、福建华策品牌定位咨询创始人詹军豪表示,薇娅团队可以在短剧中植入品牌广告或推广自己的产品,实现商业价值的最大化。 字母榜此前曾在《美妆占领短剧,抖音淘宝必有一战》中分析指出,以种草、品牌营销为导向的品牌定制剧一直是短剧重要的商业模式,而美妆正是定制短剧的重要投放方。 这方面,正是薇娅的优势领域。薇娅和谦寻手握大量的品牌资源,据报道,谦寻与超过8万个国内外优质品牌建立了合作关系,显然,品牌定制短剧就是直播间外,薇娅能释放其品牌资源价值的另一方式。 实际上,今年618期间,蜜蜂惊喜社已经提前解锁了短剧+直播的玩法。5月14日以来,蜜蜂惊喜社在抖音发布了“真假霸总的‘一亿风云’”“拿捏霸王的‘千金’,竟然是TA”“争宠不如真宠”短视频系列,总裁、富家千金、少爷、管家人设齐全。不过从内容上来看,这些内容皆是在为蜜蜂惊喜社的618活动做预告和宣传。目前,三个视频的点赞+收藏数据并不好,发布在抖音后,其中最好的一条视频,点赞量也不过70。 主播们纷纷闯入短剧赛道,但短剧并不好做,或者说并不容易出爆款。 今年6月,疯狂小杨哥所在公司三只羊出品的短剧《傅爷你的替嫁新娘是大佬》上线,十天时间播放量达到9528万,可以对比的是,《我在八零年代当后妈》上线一个月播放量超过10亿。显然,小杨哥在有过亿粉丝的加持下,其短剧的播放量和出圈度并不理想。 此外,跨界闯入短剧行业的公司,其制作水准也被外界质疑。据新腕儿报道,《傅爷你的替嫁新娘是大佬》被指剧情、拍摄质量、演员、服化道等各个方面都很粗糙。周星驰参与的短剧《金猪玉叶》,上线半个月播放量为2亿,口碑也是两极分化。 02 离开直播间这两年半,薇娅的身份越来越多,不过她仍在直播行业打转。 离开直播间后,薇娅获得的第一个新身份是“导师”。去年4月,在浙江百年老字号研究院的活动上,薇娅以“首席导师”的身份出现在公众面前,分享主题是老字号品牌如何借力直播电商实现迅速发展。在此之前,她也曾以同样的身份出现在2022年10月第四期中华老字号掌门人研修班上,向多家老字号企业传授电商直播领域的相关内容。 作为投资人的薇娅,投资了曾多次出现在其直播间的产品所在公司,分别是可复美的母公司巨子生物和小家电品牌德尔玛,这两家公司也先后在2022年和2023年上市。2021年11月,巨子生物的唯一一轮融资中,薇娅夫妇入股;德尔玛主要为小米、飞利浦贴牌代工,薇娅夫妇投资1.5亿元,参与了其上市前的最后一轮融资。 去年4月,薇娅斥资千万拿下了号称直播电商“宇宙中心”杭州滨江的一块地。杭州市规划和自然资源局网站公告显示,谦寻以2206万元购买了一块工业用地,将被计划用作谦寻的“新零售电商直播产业基地”,未来投资总额将在3亿元人民币。 一个月后,一家由谦寻持股50%的人工智能公司成立,经营范围包含人工智能通用应用系统等。另一位股东硅基智能主要致力于AI人工智能和数字人,生产了约150万个数字人。不难看出,薇娅成立新公司,是瞄准了数字人直播市场的潜能。 就在大家以为薇娅就此转型幕后时,过去一年薇娅的行踪似乎传递着“试水”复出信号。比如,薇娅多次出现在其老公董海峰开通的视频号“谦寻-海锋”中,时不时分享着个人生活动态。 03 不过,因为税务问题,薇娅很难再回到直播间。 一位直播电商人士指出,当下薇娅复出与否并不重要,直播电商的黄金时代几乎要过去,复出可能要面临更多的困难和挑战,不如在幕后掌控企业或者寻求更多故事的价值和意义大。随着整个直播带货行业的规范化运营以及增长放缓,进入2024年以来,各大超级主播逐渐淡出直播间,均在寻找直播间之外的可能性。 今年以来,抖音一哥董宇辉和疯狂小杨哥都明显减少了直播间带货频率。疯狂小杨哥转身拍摄短剧,举办音乐节,甚至是闯入董宇辉核心腹地,开始做文旅宣传;董宇辉注重文旅直播和访谈直播,并在不久前上线了由他担当主持人的访谈节目。 完成“真还传”的罗永浩已经宣布退网,投身AR创业浪潮成立新公司细红线,并且预计将在今年9月发布新品;辛巴也减少直播带货频次,今年3月还宣布将停止直播两年,潜心研究AI;即使是在618期间积极备战的李佳琦,也已经加速了退隐步伐,就在618即将结束之际,美腕进军自有品牌,上线“美腕优选”。 超级主播们集体隐退的大环境下,薇娅似乎也没有必要回直播间了。 在头部机构去除超级主播IP依赖化的当下,薇娅离开直播间也成为一种必然。美ONE降低对李佳琦的依赖,丰富旗下账号矩阵,大力挖掘新兴主播;辛巴也不遗余力地扶持徒弟蛋蛋,蛋蛋即将成为全网第一个粉丝过亿的女主播。 然而,大主播困在直播间,想走而不能走。董宇辉说,“他直到今天都不享受直播”,然而却因为与辉同行和东方甄选的需要,不能离开直播间;疯狂小杨哥想专注文娱直播和拍摄短剧,然而却囿于直播间流量下降以及三只羊的发展需要,而不能离开直播间;李佳琦说,“他早就不想直播,每天坐在直播间都是一种煎熬”,但也不得不在今年618积极备战,甚至参加综艺节目寻找新流量。 一切都是因为MCN机构在发展过程中,过于依赖超级主播,导致超级主播无法离开直播间。 薇娅已经无需面临“想走而不能走”的难题,尽管直播间告别了薇娅的“神话”时代,但谦寻也在以稳步快速的步伐前进。 首先,谦寻拥有多个直播矩阵,薇娅在幕后操盘着“蜜蜂惊喜社”“蜜蜂欢乐社”“蜜蜂心愿社”等20多个直播间。 其次,蜜蜂惊喜社已经承担起谦寻的GMV重担。今年618,淘宝直播公布的开门红战报显示,蜜蜂惊喜社紧随李佳琦之后,成为淘宝截至5月31日24点销售额破亿的19个达人直播间之一。去年618,蜜蜂惊喜社成交额超17亿元,团队在淘宝王者主播总榜中排名第一。和薇娅有着密切关系的琦儿也成为了抖音的头部主播,在618期间,达成了过亿销售额。飞瓜数据显示,在5月抖音带货达人榜中,琦儿位于第八名。 薇娅和直播间的故事已经8年,其退居幕后操盘直播间也两年有余。随着直播间的故事稳定到一定阶段,薇娅也企图跳出直播间,寻找更多可能性。投身下一个风口成为必然。 薇娅曾经是服装店老板、歌手、企宣、主播、企业家,现在,她又多了一个新身份——短剧从业者。 参考资料: 《离开直播间的薇娅,悄悄开始做短剧》电商头条 《浙江平台经济“创业第一课”启动 嘉宾现场分享创业密码》浙江在线 《偷逃税被罚13.4亿,起底薇娅背后的商业版图》Tech星球 《李佳琦与薇娅合拍电影 ‘功夫主播;今日上映》新浪网 《薇娅不再隐身》中国企业家杂志
突发!OpenAI将终止对中国提供服务!影响有多大?
从昨天晚间至今,已有多名用户收到了来自OpenAI的邮件。该邮件表示,“我们的数据显示您的组织来自OpenAI目前不支持的地区的API流量。”邮件进一步表示,自7月9日起,OpenAI将开始阻止来自非支持国家和地区的API流量。受影响组织若希望继续使用OpenAI的服务,必须在其支持的国家或地区内访问。 记者查询获悉,目前OpenAI的API向161个国家和地区开放,但中国未包含在其中。这也意味着,OpenAI宣布终止对中国提供API服务。 监管背景方面,今年6月22日,美国财政部发布一份规则草案,要求对美国在半导体和微电子、量子计算和人工智能领域的某些投资进行监管,禁止或要求限制中国在AI和其他技术领域的投资。对此,商务部回应称,中方注意到美方发布相关文件,美方应尊重市场经济规律和公平竞争原则,停止将经贸问题政治化、武器化,取消对华投资限制,为中美经贸合作创造良好环境。 OpenAI的这一举动被认为是基于法律合规、数据安全等多种因素综合考量的结果。作为美国的人工智能公司,OpenAI需要遵守相关国家或地区的法律法规。值得注意的是,今年6月13日,OpenAI宣布退役的美国陆军将军Paul M. Nakasone(保罗·中曾根)将加入公司董事会。OpenAI在官网的一篇文章中写道,“中曾根先生的见解将有助于OpenAI更好地了解如何利用人工智能来加强网络安全,快速发现和应对网络安全威胁。” 公开资料显示,中曾根是网络安全、技术进步和全球网络防御领域的顶尖专家。在陆军军官生涯中,他为美国网络司令部的成立发挥了关键作用。他是美国网络司令部任职时间最长的领导人,还曾领导国家安全局,负责保护美国的数字基础设施并提升该国的网络防御能力。他曾在美国陆军各级担任过指挥官和参谋职务,并被派往美国、韩国、伊拉克和阿富汗的精锐网络部队。 业内猜测,OpenAI终止向中国等国家提供API服务,或与新上任的这名新董事会成员有关。 据一名业内人士向证券时报记者分析,OpenAI官方此前就不向中国境内提供服务,至今也没有向中国用户直接开放注册和使用。目前,使用OpenAI的能力主要有两个主流渠道,一是对接OpenAI官方提供的API;二是对接微软Azure提供的OpenAI能力。但该业内人士也表示,此前在国内对接OpenAI官方提供的API使用OpenAI能力,就始终面临着随时被封禁的可能。“出于个人兴趣的开发者可以这么做,但企业这么做的话,风险就会比较高。” “一直以来,国内就有不少创业公司是通过接入OpenAI API的方式,简单套壳做大模型或者AI应用。这次就会受到直接的影响。”该业内人士进一步分析称,OpenAI终止对中国提供API服务,一方面将对希望借助OpenAI大模型套壳创业的公司带来毁灭式打击,一批没有核心技术与竞争实力的公司如果未能及时找到替代方案,就将会被市场淘汰;另一方面,这也将倒逼中国的大模型公司加速自主研发,并促使更多的创业公司选择国产大模型,规避日后可能的风险。 责编:万健祎 校对:赵燕
用了几天新版微信输入法,我觉得微信里的AI体验被低估了
微信输入法自推出以来,凭借一贯的简洁设计和易用功能,得到了广大用户的喜爱。 在上一个大版本更新中,微信输入法新增的多端复制功能秀了一波技术实力,把大家习以为常的输入法玩出了新的花样。 最近,微信输入法 Win、macOS 双端迎来 1.2.0 正式版升级,引入了一个全新的功能——「问 AI」。 简单来说,就是将当下最热门的 AI 大模型与输入法巧妙结合,让用户可以直接在输入栏与 AI 进行交互。 虽然上新的「问 AI」功能,第一眼看来并不显眼,但爱上微信输入法,或许只需要这样一个新功能。 简单梳理「问 AI」的特点: 基于腾讯自研混元大模型,输入 = 号获取答案 AI 总结源自微信读书文库,深度有余,时效性较弱 充当初步信息搜索工具,更像是在线百科全书助手 不是文案生成工具,也没有角色扮演能力 聊天加上 AI,有什么新体验吗? 提到 AI 大模型与输入法的结合,你可能第一时间会想到让 AI 帮忙组织语句,回复一些棘手的问题,比如同事借车、老同学借钱等经典难题。 然而,「问 AI」的重点并不在此,而是专注于「问」。 更新微信输入法后,在设置中就能看到「问 AI」的开关,打开即可在输入时调用。功能介绍非常简单明了:输入问题后按下 = 键,就能呼出 AI 为你解答。 举个例子,假设你正在和朋友讨论欧洲杯,突然需要解释「越位」是什么意思。这时,你只需在聊天框中敲下「越位 =」,AI 就会出现,并给出详细的解释。 你可以直接将 AI 的回答复制下来,也可以生成一张图片,方便转发给朋友。 这就相当于拥有了一位随时待命,帮你解答疑惑的在线百科全书助手。每当聊天中遇到自己不甚了解的话题时,问 AI 就能帮你快速填补知识盲区,不用再因为一时词穷而尴尬。 输入法的核心在于打字,而问 AI 功能则是微信输入法与微信读书 APP 的一场「跨界联姻」。 问 AI 给出的答案,基本都是从微信读书丰富的文库中提炼而来。这就让问 AI 与我们熟悉的其他 AI 机器人有了一些本质区别。 为了更好地理解问 AI 的特点,不妨我们从它「不是什么」的角度来看: 问 AI 并不是 ChatGPT。 相信大家使用 ChatGPT 最常见的场景,就是让它帮忙生成各种文案,或者扮演特定角色,用特定语气写一段话,比如请假申请、演讲稿或者公告。 但问 AI 无法作为文案生产工具使用。例如,如果你让它写一段话来哄生气的女朋友,它只会根据微信读书文库中的交流技巧,指引你如何自己去写,而不会直接帮你生成。 同样,问 AI 也没有像 ChatGPT 那样的角色扮演能力,无法陪伴你长时间聊天,或者记住之前的对话内容来进行上下文交互。目前,它只能针对一个问题给出一次回答,这些都是问 AI 目前不具备的功能。 问 AI 不能取代搜索引擎 虽然微信读书的文库内容让问 AI 积累了一定的知识储备,但从信息面来看仍然比较片面,尤其在强时效性信息或者外文资料方面远不及传统搜索引擎。 问 AI 的总结更像是知识的搬运工,把微信读书文库的内容打包压缩送到你面前,所以不要指望它能做到像维基百科那样面面俱到,更多时候只能充当一个初步的信息搜索工具。 不过,或许是因为微信读书上的知识类书籍比较丰富,问 AI 在回答一些定义性或策略性问题时,不仅懂得回答「How」,也更擅长回答「How」。 例如,当我们询问一些投资的概念、投资策略时,它能从相关书籍中提炼出颇具洞见的建议。 又或者我们在聊天中提及「配享太庙」,虽然我们能说出个大概,却未必知道其真正含义。不用装模作样地瞎猜,只需输入「=」号,问 AI 就为你展开从含义到背后历史故事的解读。 重点是,你可以将它的回答作为一个引子,点击引用链接即可跳转至微信读书书源具体的章节,并且问 AI 所引用的段落也会有明显的标注。 通过这种人机结合的方式,问 AI 会尽可能帮你更高效地找到想要的答案。 问 AI 不一定完全准确。 「幻觉」是目前所有 AI 大模型的通病,问 AI 自然也难以幸免。 在正常情况下,问 AI 可以正常地回答你所提出的问题,例如梳理小说人物的人际关系(这可能是它最擅长的任务)。 但如果你本身提出的问题就包含了错误的信息的话,那就会误导 AI 的判断,它不会主动纠正,而是会将错就错给出一个错误的回答。 又或者,没有让你吃石头,或者给披萨涂胶水,但明明不存在的成都迪士尼,却已经在 AI 的想象中生根发芽。 另一个有趣的现象是,问 AI 的数学计算能力似乎也不太行,这或许是当前大多数语言模型的软肋。因此,与其说问 AI 是一位博学多才的全能选手,倒不如说它更像一个博览群书,但不擅计算的文科生。 这里注意一个小细节,也许你会担心在输入法进行简单数学运算时,会因为「=」号触发问 AI 功能,但经过实测,不会触发,一切照常无余。 极致简单的 AI 交互 「问 AI」用了一个看似简单的 = 号,带来了目前最简易的 AI 交互方式。所有操作都在一个文本框内完成,可谓简洁至极。不过,为了避免误操作,微信在使用规则上还是做了一些限制。通过不断尝试,我们发现了一些隐藏规则: 从最后一次退格或回车开始提问 问 AI 对问题的记录范围,是从你最后一次按下退格键或回车键开始,直到按下 = 号为止。这样设计的目的,是为了避免引入之前输入的无关内容。 但这也带来一个新问题:你在提问时,需要一个字一个字地把问题完整输入,如果中途出现错字,按了退格键,就会打断问题的记录。 答案生成最终以悬浮框的形式存在,主打一个随时随问,但悬浮框不光过小,还不太稳定,切个屏的功夫就会消失不见。这或许是简化交互逻辑不可避免的代价。 并非所有软件都支持问 AI 虽然在微信对话框、Word、PPT、Excel、备忘录等文本编辑器中,都能直接呼出问 AI,为日常创作带来便利。但在浏览器的搜索栏、地址栏,以及各种在线文档页面,均无法使用问 AI。 这对于像我这样的重度依赖在线文档的用户来说,无疑是一个使用上的不便。 能以粘贴内容提问 我们使用搜索引擎时,往往习惯于遇到不懂的内容,直接复制粘贴到搜索框中,然后按下搜索键。但在使用问 AI 时,复制粘贴的内容只需要按下确认键,就能成功唤起 AI。 问 AI 更适合在输入文字时,突然灵光一现想要提问时使用,而不太适合用于复杂的信息搜索。它更像是一位随叫随到的答疑助手,而不是替代搜索引擎的万能工具。 AI 高端化,不如 AI「傻瓜化」 混元大模型的得意门生,不只腾讯元宝,还有微信输入法。 根据官方的用户协议介绍,问 AI 是基于腾讯自研的混元助手大模型,以此作为计算基础。这其实与前不久微信读书上线的「AI 问书」功能如出一辙,属于是混元大模型的生态整合。 腾讯混元大模型则是基于深度学习的自然语言处理模型,通过大规模文本数据集进行预训练和微调,并进行文本生成和语言理解等任务。 APPSO 之前在体验微信输入法时,基于九宫格等双拼方案以及联想输入、模糊音处理等键盘常用功能,再加上与腾讯生态强绑定的拼写 Plus 等功能,评价它是最适合微信的输入法。 今天同样的论断也大致相似,问 AI 功能目前最大的作用还是服务于微信聊天。 随问随关的悬浮窗,堪堪够用的信息量,问 AI 轻松、轻飘,就像是高手随手拈来的一招,看似简单,却也一剑封喉,实打实地解决生活聊天过程中的搜索问题。 微信将 AI 大模型与输入法结合,并非业内首创。 在去年的 WWDC 大会上,苹果就发布了将 Transformer 模型与自带输入法相结合的功能,以提高输入准确性。 另一家 AI 巨头微软也推出了与 Copilot 结合的 Swiftkey 输入法,用户可直接从键盘访问微软的 AI 助手,获取快速答案和解释,无需切换应用程序。Swiftkey 还支持 Copilot 智能撰写功能,可以根据用户需求调整语气、长度和风格,旨在为用户带来更优质的输入体验。 金沙江创投主管合伙人朱啸虎前几天提到,AI 技术的核心不在于技术,而在于用户体验。随着 AI 大模型的火热,各大科技公司正努力将其渗透到人们生活的各个角落。 经过一年的发展,这一趋势愈发明显。 微软在今年年初宣布了一项重大举措,进一步推动 AI 的普及化——在 Windows PC 键盘上引入专门的 Copilot 键。这一举动标志着 AI 正式成为个人计算设备的核心组成部分,而不再仅仅是一个可选功能。 而在刚举办的苹果 WWDC 大会上,苹果展示的 AI 战略与之不谋而合。 表面上啥也没干的苹果,没有拿出另一个 ChatGPT,只是将 Apple Intelligence 贯穿于搜索文本和照片、创建图像、修正语法和拼写、总结文本以及编辑照片等功能。 但这样却让 AI 尽可能无声无息地融入人们的生活,让用户在不知不觉中感受到 AI 对用户体验的改变,而无需明确感知其背后的运行原理和具体技术。 作为人们必须接触的工具,输入法的 AI 化可谓是一个重要的普及点。问 AI 功能让提问变得更加简单,一键式的体验降低了使用 AI 的门槛,提高了人们使用 AI 的频率,进一步普及了 AI 体验。 在内容生态的构建上,腾讯元宝与微信输入法/微信读书的分野也截然明了,形成了各有侧重的特色。 时效性极强,高质量的公众号文章内容成为哺育腾讯元宝的肥料,构成了后者区别于其他大而全 AI 助手的独特优势。而微信读书和输入法则依托于书籍生态,追求的是权威性和可靠性,而不是单纯的实时性。 我们总爱谈论 AI 在大模型时代的下一个入口在哪里,关于这个问题的答案,或脑机接口、或 AI 智能体,这场技术潮汐给出了太多答案。 在这些答案当中,也许输入法可能不是最耀眼的,但一定归属于最实用的那批,而微信输入法已经先行一步。 正如著名科技评论家 Kevin Kelly 所说,真正的科技应该是看不见的、无形的。 AI 已经过了爆发点,正朝着普及点转变。相信在未来,我们会看到更多像输入法这样习以为常的产品通过 AI 化,带来更多不一样的产品形态,丰富我们的体验。 用一句金科玉律来总结:不管黑猫白猫,抓到老鼠的才是好猫。对于 AI 来说,不管技术如何,真正改善用户体验的才是好产品。
GPU性能提升1000倍背后,英伟达掀翻行业的另一把“镰刀”
文|十巷 前几日,英伟达市值冲破3万亿美元,将苹果公司甩在身后的故事还没来得及回味。英伟达市值登顶全球第一的新闻再次登上各大热搜(发稿前,英伟达市值已出现较大回落)。 作为AI芯片巨头,英伟达近年来可谓风光无限。 过去,我们看到了很多有关英伟达GPU和CUDA护城河的介绍。诚然,经过多年的投入,他们已经建立起了难以逾越的优势。但除此以外,英伟达还有很多隐形护城河,其中,互联技术也是其在AI浪潮中取得成功过程中不可忽视的一大关键。 日前,黄仁勋在Computex的主题演讲中,再次透露了未来几年GPU和互连技术的路线图;而另一边,八大芯片巨头抱团取暖,成立UALink推广组意在制定行业标准,以打破市场领导者英伟达的壁垒和垄断。 如今大模型时代来临,随着越来越多的加速器被集成到一起,性能损耗和带宽瓶颈逐渐显现,如何高效传输数据成为了AI芯片互联领域亟待攻克的瓶颈。 在此背景下,行业厂商加速入局,试图抢占GPU互联市场的新高地。 为什么需要GPU互联技术? 01 长期以来,冯·诺依曼架构面临的一个核心挑战是CPU的计算速度与内存访问速度之间的不匹配,尤其是与存储设备的速度相比更是天壤之别。这就是业界著名的“内存墙”,其不均衡的发展速度对日益增长的高性能计算形成了极大制约,成为训练大规模AI模型的瓶颈。 与此同时,随着高性能存储技术的进步,计算机组件间通信的带宽再次成为限制性能提升的关键因素。从“Pascal”P100 GPU一代到“Blackwell”B100 GPU一代,八年间GPU的性能提升了1053倍。 在此趋势下,GPU作为AI时代的核心处理器,单卡GPU算力和显存有限,无法满足训练需求。为适应算力需求,需要联合大量GPU甚至多台服务器协同工作,分布式训练诉求快速提升。 GPU服务结构 在分布式系统中,大模型训练对算力基础设施的要求从单卡拓展到了集群层面,这对大规模卡间互联的兼容性、传输效率、时延等指标提出了更高的要求。 自此,GPU互连技术开始担任重要角色。 GPU互联技术,百家争鸣 02 众所周知,总线是数据通信必备管道,是服务器主板上不同硬件互相进行数据通信的管道,对数据传输速度起到决定性作用。 目前最普及的总线协议为英特尔2001年提出的PCIe(PCI-Express)协议,PCIe主要用于连接CPU与其他高速设备如GPU、SSD、网卡、显卡等。2003年PCIe1.0版本发布,后续大致每过三年会更新一代,目前已经更新到6.0版本,传输速率高达64GT/s,16通道的带宽达到256GB/s,性能和可扩展性不断提高。 AIGC的发展极大刺激算力需求的增加,GPU多卡组合成为趋势。GPU互联的带宽通常需要在数百GB/S以上,PCIe的数据传输速率成为瓶颈,且PCIe链路接口的串并转换会产生较大延时,影响GPU并行计算的效率和性能。 同时,由于PCIe总线树形拓扑和端到端传输方式限制了连接数量和速度,GPU发出的信号需要先传递到PCIe Switch来拓展,PCIe Switch涉及到数据的处理又会造成额外的网络延时,此外PCIe总线与存储器地址分离,每次访问内存会加重网络延迟。 因此,PCIe的传输速率和网络延迟无法满足需求,限制了系统性能。 在市场需求和技术驱动下,GPUDirect/NVLink/Infinity Fabric/高速以太网/InfiniBand等GPU互联技术争相推出,“百家争鸣”时代开启。 GPUDirect 在这个过程中,英伟达率先推出了能够提升GPU通信性能的技术——GPUDirect,使GPU可以通过PCIe直接访问目标GPU的显存,可实现GPU与其他设备之间直接通信和数据传输的技术,大大降低了数据交换的延迟。 传统上,当数据需要在GPU和另一个设备之间传输时,数据必须通过CPU,从而导致潜在的瓶颈并增加延迟。使用GPUDirect,网络适配器和存储驱动器可以直接读写GPU内存,减少不必要的内存消耗,减少CPU开销并降低延迟,从而显著提高性能。GPUDirect技术包括GPUDirect Storage、GPUDirect RDMA、GPUDirect P2P和GPUDirect 视频。 但受限于PCIe总线协议以及拓扑结构的一些限制,无法做到更高的带宽。此后,英伟达提出了NVLink总线协议。 NVLink成为主流 过去,我们看到了很多有关英伟达GPU和CUDA护城河的介绍。诚然,经过多年的投入,他们已经建立起了难以逾越的优势。但除此以外,英伟达还有很多隐形护城河,NVLink就是其中之一,一个为GPU到GPU互联提供高速连接的技术。 NVLink是一种英伟达提出的高速GPU互联协议,用于连接多个GPU之间或连接GPU与其他设备(如CPU、内存等)之间的通信。它允许GPU之间以点对点方式进行通信,具有比传统的 PCIe 总线更高的带宽和更低的延迟,为多GPU系统提供更高的性能和效率。 对比传统PCIe总线协议,NVLink主要在三个方面做出较大改变: 1)支持网状拓扑目,解决通道有限问题; 2)统一内存,允许GPU共享公共内存池,减少GPU之间复制数据的需要,从而提高效率; 3)直接内存访问,不需要CPU参与,GPU可直接读取彼此的内存,从而降低网络延迟。 英伟达官方表示,NVLink是全球首创的高速GPU互连技术。作为一种总线及其通信协议,NVLink采用点对点结构、串列传输,用于连接GPU与支持NVLink技术的CPU,在内存墙无法突破的情况下,最大化提升CPU和GPU之间通信的效率,也可用于多个英伟达GPU之间的高带宽互连。使用NVLink连接两张NVIDIA GPU,即可弹性调整记忆体与效能,满足专业视觉运算最高工作负载的需求。 自2014年开始,英伟达在其GPU中引入了NVLink互联技术。 彼时,为带宽不足而发愁的英伟达,与当时坐拥更高带宽POWER CPU的IBM一拍而合,合作开发了第一代NVLink。 回顾NVLink技术的发展历程: 2014年,NVLink 1.0发布并在P100 GPU芯片之间实现,两个GPU之间有四个NVLink,每个链路由八个通道组成,每个通道的速度为20Gb/s,系统整体双向带宽为160GB/s,是PCIe3 x16的五倍,这使得数据在CPU内存与GPU显存之间的移动速度得到了大幅提升,从而让GPU加速的应用能够大幅提升运行速度。 伴随着P100、V100等计算卡的推出,NVLink迎来了自己的高速发展。 2017年,英伟达推出了第二代NVLink,两个V100 GPU芯片之间通过六个NVLink 2.0连接,每个链路也是由八个通道组成,每个通道的速度提升至25Gb/s,从而实现300GB/s的双向系统带宽,几乎是NVLink1.0的两倍。 同时,为了实现八个GPU之间的完全互连,解决GPU之间通讯不均衡问题,英伟达还引入了NVSwitch技术。 NVSwitch是英伟达在2018年发布的一项技术,旨在解决单服务器中多个GPU之间的全连接问题。NVSwitch允许单个服务器节点中多达16个GPU实现全互联,这意味着每个GPU都可以与其他GPU直接通信,无需通过CPU或其他中介。 NVSwitch全连接拓扑(图源:nextplatform) NVSwitch1.0有18个端口,每个端口的带宽为50GB/s,总带宽为900GB/s。每个NVSwitch保留两个用于连接CPU的端口。通过使用6个NVSwitch,可以在8个GPU V100芯片之间建立一个全连接的网络。 2020年,推出NVLink 3.0技术。它通过12个NVLink连接连接两个GPU A100芯片,每个链路由四个通道组成。每个通道以50Gb/s的速度运行,从而产生600GB/s的双向系统带宽,是NVLink2.0的两倍。随着NVLink数量的增加,NVSwitch上的端口数量也增加到36个,每个端口的运行速度为50GB/s。 2022年,NVLink技术升级到第四代,允许两个GPU H100芯片通过18条NVLink链路互连。每个链路由2个通道组成,每个通道支持100Gb/s(PAM4)的速度,从而使双向总带宽增加到900GB/s。NVSwitch也升级到了第三代,每个NVSwitch支持64个端口,每个端口的运行速度为 50GB/s。 值得一提的是,在第四代NVLink发布时,英伟达正式将其称为NVLink-C2C ,此时NVLink已经升级为板级互连技术,它能够在单个封装中将两个处理器连接成一块超级芯片。 第一代到第四代NVLink演进脉络(图源:nextplatform) 2024年,随着英伟达全新Blackwell架构的发布,NVLink 5.0也随之而来。 NVLink 5.0以100GB/s的速度在处理器之间移动数据。每个GPU有18个NVLink连接,Blackwell GPU将为其他GPU或Hopper CPU提供每秒1.8TB的总带宽,这是NVLink 4.0带宽的两倍,是行业标准PCIe Gen5总线带宽的14倍。NVSwitch也升级到了第四代,每个NVSwitch支持144个NVLink 端口,无阻塞交换容量为14.4TB/s。 图源:英伟达 从上图可以看到,每一代NVLink的更新,其每个GPU的互联带宽都是在不断的提升,其中NVLink之间能够互联的GPU数,也从第一代的4路到第四代/第五代的18路。每个NVLink链路的速度也由第一代的20Gb/s提升至目前的1800Gb/s。 此外,尽管拥有极高的带宽,NVLink却在每比特数据的传输上比PCIe节能得多。 NVLink和NVSwitch这两项技术的引入,为GPU集群和深度学习系统等应用场景带来了更高的通信带宽和更低的延迟,从而提升了系统的整体性能和效率。 随着下一代AI算法等先进计算的需求不断增长,可以期待NVLink的功能进一步增强。无论是带宽的增加还是促进GPU之间更好合作的新功能,NVLink或其后继者无疑仍将是满足未来计算需求的核心。 可见,当竞争对手还在追赶英伟达GPU性能时,英伟达已经在发力整个数据中心的构架层创新,通过提供更快的芯片互联,更强的算力调度能力,将GPU打包成综合性能无人能敌的数据工厂,交付给全世界。 AMD加码Infinity Fabric AMD也推出了与英伟达NVLink相似的Infinity Fabric技术。 Infinity Fabric由两部分组成:数据布线(Data Fabric)和控制布线(Control Fabric),数据布线用于处理器内部和处理器之间的数据传输;控制布线则负责处理器的功耗、时钟和安全性等方面的管理,该技术支持芯片间、芯片对芯片以及节点对节点的数据传输。 Infinity Fabric的主要特点包括: 高效率:Infinity Fabric设计用于提供高效率的数据传输,支持多个设备之间的高速通信; 模块化:Infinity Fabric支持AMD的Chiplet架构,允许不同功能的芯片模块通过高速互连进行组合; 内存共享:Infinity Fabric支持CPU和GPU之间的内存共享,有助于提高异构计算效率; 扩展性:Infinity Fabric的设计允许它随着技术进步和需求增长而扩展。 Infinity Fabric是AMD在其“Zen微架构”中引入的一个关键特性,旨在提高整体系统性能,特别是在多核心处理器和数据中心环境中。 图源:AMD 据悉,AMD最新的AI加速器Instinct MI300X平台,就是通过第四代Infinity Fabric链路将8个完全连接的MI300X GPU OAM模块集成到行业标准OCP设计中,为低延迟AI处理提供高达1.5TB HBM3容量。第四代Infinity Fabric支持每通道高达32Gbps,每链路产生128GB/s的双向带宽。 不同于英伟达NVLink仅限于内部使用,AMD已经开始向合作伙伴开放其Infinity Fabric生态系统,完善生态布局。 芯片巨头组团,向英伟达NVLink开战 尽管GPU互联技术看上去种类多样,但主要技术路线还是牢牢掌握在英伟达手中,业界一直期待有某种“超级”竞争对手联盟来填补非Nvidia互联技术或集群的空缺。 而这也正是UALink推出的重要原因,掀起对标英伟达NVLink的波澜。 文章开头提到,AMD、博通、思科、Google、惠普、英特尔、Meta和微软在内的八家公司宣告,为人工智能数据中心的网络制定了新的互联技术UALink(Ultra Accelerator Link)。通过为AI加速器之间的通信建立一个开放标准,以挑战英伟达在AI加速器一家独大的地位。 据消息披露,UALink提议的第一个标准版本UALink 1.0,将连接多达1024个GPU AI加速器,组成一个计算“集群”,共同完成大规模计算任务。 根据UALink推广组的说法,基于包括AMD的Infinity Fabric在内的“开放标准”,UALink 1.0将允许AI加速器所附带的内存之间的直接加载和存储,并且与现有互连规范相比,总体上将提高速度,同时降低数据传输延迟。 图源:nextplatform 据悉,UALink将在第三季度成立一个UALink联盟,定义AI计算舱中加速器和交换机之间扩展通信的高速、低延迟互连,以监督UALink规范未来的发展。UALink 1.0将在同期向加入联盟的公司提供,而具有更高带宽的更新规范UALink 1.1,计划在2024年第四季度推出。这些规范将支持多种传输,包括PCI-Express和以太网。 UALink联盟旨在创建一个开放的行业标准,允许多家公司为整个生态系统增加价值,从而避免技术垄断。 该技术的潜在优势在于让业内所有人都有机会与英伟达保持同步,其不仅适用于大型企业,也为行业中每个人打开了一扇门,让他们不仅在规模上,而且在创新方面都能跟上英伟达的步伐。 多机互联: InfiniBand与以太网络并存 03 此外,在分布式系统中,根据连接层级的不同可以分为单卡、多卡、多机互联,在大规模计算中,单机多卡场景下多使用GPU Diect、NVLink等高带宽通信网络技术,分布式场景下的多机之间的连接(即服务器互联)通常采用RDMA网络。 随着大数据分析、AI计算等应用对算力需求巨大,上面提到的单机形态已经逐渐不能满足用户需求,多机多卡的计算成为常态,多机间的通信是影响分布式训练的一个重要指标。 当前业界常提到的多机之间GPU卡的通信技术,主要有RDMA、GPU Direct RDMA和InfiniBand等技术。 RDMA是一种绕过远程主机而直接访问其内存中数据的技术,解决网络传输中数据处理延迟而产生的一种远端内存直接访问技术。 简单理解,RDMA就像一个去掉中间商的技术,让数据能够快速获取。不再在操作系统、CPU等环节浪费时间。 目前RDMA有三种不同的技术实现方式:Infiniband、RoCE、iWARP,后两者是基于以太网的技术。 长期以来,以太网一直是计算机网络的主力,例如英特尔的Gaudi系列AI处理器在芯片上集成了几十个100Gb以太网连接;相比之下,英伟达通过收购Mellanox独占了高性能InfiniBand互连市场。 InfiniBand是一种开放标准的网络互连技术,具有高带宽、低延迟、高可靠性的特点,在英伟达的AI工厂和超级电脑中扮演着至关重要的角色。 InfiniBand在人工智能等数据密集型任务中通常优于以太网。据Dell'Oro估计,约90%的AI部署都是使用的InfiniBand,而不是以太网。这些部署将英伟达的网络收入推至每年100亿美元。 英特尔,押注以太网 英特尔的Gaudi AI芯片则一直沿用传统的以太网互联技术。 据了解,Gaudi 2每个芯片使用了24个100Gb以太网链路;Gaudi 3将这些链路的带宽增加了一倍,使用了24个200Gbps以太网RDMA NIC,使芯片的外部以太网I/O总带宽达到8.4TB/秒。 前不久,英特尔还宣布正在开发一款用于超以太网联盟(UEC)兼容网络的AI NIC ASIC以及一款AI NIC小芯片,这些创新的AI高速互联技术将用于其未来的XPU和Gaudi 3处理器。这些创新旨在革新可大规模纵向和横向扩展的AI高速互联技术。 超以太网联盟(UCE),是一个由英特尔、AMD、HPE、Arista、Broadcom、思科、Meta和微软为打破英伟达垄断而共同创建的组织。UCE认为,通过调整以太网的架构,可以让以下一代高速太网的性能像InfiniBand网络一样好,并更具成本与开放性优势,从而让更多的企业加入进来。 一直以来,英特尔都希望通过采用纯以太网交换机来赢得那些不想投资InfiniBand等专有互连技术的客户。 虽然InfiniBand在很多情况下表现都不错,但它也有缺点,比如只能在特定范围内使用(例如InfiniBand适合那些运行少量非常大的工作负载(例如GPT3或数字孪生)的用户,但在更加动态的超大规模和云环境中,以太网通常是首选),而且成本也不低,将整个网络升级到InfiniBand需要大量投资。相比之下,以太网因为兼容性强,成本适中,以及能够胜任大多数工作负载,所以在网络技术领域里一直很受欢迎,建立了一个庞大的“以太网生态”。 AMD也表示将重点支持以太网,特别是超以太网联盟。虽然Infinity Fabric提供了GPU之间的一致互连,但AMD正在推广以太网作为其首选的GPU到GPU网络。 综合来说,高性能远距离传输的战场里,如今仅剩InfiniBand和下一代高速以太网两大阵营,双方各有优劣势。 据Dell'Oro预计,在可预见的未来InfiniBand将保持在AI交换领域的领先地位,但在云和超大规模数据中心的推动下,以太网将取得大幅增长,预计到2027年将占据约20%的市场份额。 互联技术未来创新趋势 04 不可否认,上述这些互联技术都已是目前最好的选择。但能够预见到是,随着未来计算数据的爆炸式增长、神经网络复杂性不断增加,以及AI技术的加速演进,对更高带宽的需求还在继续增长。 当前这些互联技术将不可避免的存在性能瓶颈。 例如英伟达的NVLink虽然速度快,但功耗也相当高;AMD的Infinity Fabric适合于芯片内部连接,对于芯片之间的互联效率并不理想等。 对此,光互联凭借高带宽、低功耗等优势,几乎成为未来AI互联技术公认的发展方向。 在光互联之路上,谷歌、博通、Marvell、思科以及Celestial AI、Ayar Labs、Lightmatter、Coherent、曦智科技等新老厂商都在不断发力,相继取得了一系列成果。 在众多厂商的参与下,互联技术未来将会迎来快速发展。尤其是围绕光电共封装和硅光子中继层技术的光互连,正在成为AI领域的热门赛道。 结语 05 大模型时代,算力就是生产力。 大模型的背后意味着巨大的计算资源,模型大小和训练数据大小成为决定模型能力的关键因素。当前,市场的主力玩家们利用数万个GPU构建大型人工智能集群,以训练LLM。 在此趋势下,分布式通信技术正以前所未有的速度推动着人工智能的进步。 从PCIe到NVLink、Infinity Fabric再到InfiniBand、以太网和UALink,这些技术通过高带宽、低延迟的数据传输,实现了GPU或AI服务器之间的高速互联,在提升深度学习模型的训练效率和计算性能方面发挥了至关重要的作用。 在AI技术的飞速发展中,互联技术作为AI时代的桥梁,也正在经历前所未有的创新与变革。
一个公司主管因为AI干掉了整个部门,然后他也失业了
最近,OpenAI 首席技术官 Mira Murati 回到母校参加访谈,一句话惹了众怒。 一些创造性的工作可能会消失,但也许它们本就不该存在。 网友们生气的原因在于,她无差别扫射了创意产业。被 AI 抢走饭碗更彻底的否定是,在座的各位人类压根没有上牌桌的价值。 别急,其实 Mira 还紧接着说了:「如果产出的内容质量不高的话。」这话听起来容易接受了,优胜劣汰,愿赌服输,自古皆然。 然而,搞技术的 Mira 还是无法预测市场,人类未必输在质量上。 现在很多创意从业者的处境是,被「便宜大碗」的 AI 抢占了工位,给 AI 生成的垃圾「去 AI 味」。 为 AI 打工,直到失业 写手 Benjamin Miller,是其中一位为 AI 打工的人类。 他的前司负责给一家从事房地产、二手车行业的科技公司写宣传稿,他算得上是一个部门小领导,手下有 60 多名写手和编辑。 2023 年的一天,公司为了用 AI 降低成本,推出了一套自动化工作流:上级把文章标题插入在线表格,AI 根据标题生成大纲,写手们不必有自己的想法,围绕大纲创作文章就好。 Miller 负责的,是整个系统的末端,在文章发表前进行最后的编辑。 系统还在升级。几个月后,大部分写手被辞退,因为公司的想法又变了——ChatGPT 可以直接写完整篇文章,何苦由人类做中间商。 留下来的少部分员工被迫变了工种,负责给 AI 生成内容加点「人味」。 删减、修改错误、去掉过于正式或者热情的语言......对于 Miller 来说,为 AI 写手收拾烂摊子的工作量比人类写手多,同时又很重复和无聊,「我开始觉得我是机器人」。 人和 AI 的位置悄然倒转:AI 负责创新,人类负责重复劳动。 公司裁人上了瘾,2023 年初,团队还有几十名作者和编辑,到了 2024 年,只剩下 Miller 一个人,每天睁眼闭眼就是打开文档修改 AI 生成的文字,再到 4 月,他也被公司辞退——这个系统已经不需要人了。 人类干家务,AI 玩艺术. 图片来自:ChatGPT 创作 写手 Catrina Cowart 也做过类似的工作,但和 Miller 不太一样,除了乏味,她还觉得「麻烦」和「可怕」。 让 AI 读起来更「像人」,并不是简单的校对,而是要对整篇文章深入编辑。 删掉 therefore(因此)、nevertheless(尽管如此)等不适合日常的华丽词藻,只是 Cowart 的一小部分工作。 同时,因为 AI 会编造虚假信息,Cowart 还要反复核实事实,除了显而易见的错误,AI 也会在那些不起眼的地方掉链子,让人防不胜防。 这个过程比从头写文章还费时,但因为 AI 已经提前「写」好了内容,Cowart 的工作从「原创作者」降格成了「AI 编辑」,接单平台提供的工资比以前更低了——从每个单词最多 10 美分,到每个单词 1 到 5 美分。 AI 比人类省钱很好理解,但为什么要花费额外的功夫,给 AI 内容加点「人味」? 除了改善质量,让阅读体验更好、被搜索引擎抓取,这也是一个额外的商机。 一些写手专门负责一件事:修改 AI 生成的内容,摸索怎么不触发 AI 检测器,为反检测 AI 模型和软件出一份力,最终让频繁使用 AI 的内容创作者们为这些产品买单。 其中一个反检测 AI 工具提出的口号是,「Make AI Write Like You」(让 AI 像你一样写作)。或许未来,投靠硅基势力,让 AI 代笔将成为一件更加顺利成章的事。 更快不代表更好,但总有利可图 自从 ChatGPT 发布,总有乐观的声音说,由 AI 完成重复的、乏味的工作,人类就可以做那些更有成就感、更闪耀人性光辉的事情了。 但对于一些人来说,现实恰好是反过来的。AI 没有让人直接失业,但改变了他们工作的性质——更单调、更重复、更没价值感。 这些职位的存在,也说明了一个事实:目前的 AI 还不一定能提供更好的内容,只是以更少的成本提供更多的内容。 AI 比人类便宜,又达不到人类的水平,于是公司们以比过去更低的价格雇佣人类,让人类屎上雕花,荣光归于 AI。 《纽约客》封面,讽刺 AI 产出垃圾 但雕花改变不了原来就是一坨屎的事实。Miller 在前司协助 AI 产出的内容,直到他离职也并没有多少人看。 我制造了很多垃圾,这些垃圾充斥着互联网,也摧毁了互联网。 悄悄的他走了,正如他悄悄的来,挥一挥衣袖,不带走一片云彩。人属于社会动物,没有比「不被看见」更具挫败感的了。 给 AI 加点「人味」,粉饰一下错误,其实已经算有些良心。放下身段,批量快速产出,哪管洪水滔天,才能在 AI 时代攫取更多流量。 一个叫作 BNN Breaking 的新闻网站,从 2 年前开始,通过 AI 在短时间内发布了大量虚假信息。 之前它装得很「正规」,自称在全球都拥有资深记者,每月超过 1000 万访客。但仔细观察会发现,BNN 的「记者」每分钟发表多次长篇报道,网站的图片是 AI 生成的,文章的字里行间是明显的 AI 味。 其实,BNN 员工们主要是生活在巴基斯坦、埃及和尼日利亚的自由职业者,平时远程工作,将其他媒体的文章上传给 AI 改写,每天产出数百甚至数千个故事。 这样的产出模式当然伴随着大量的错误,BNN 被大量投诉,罪名包括事实错误、侵犯版权、诽谤名誉、捏造专家引言等。 然而,就像当年的「内容农场」一样,BNN 这样的网站可以通过生产大量低质量的内容诱骗点击,利用搜索算法赚到更多的广告收入。他们的内容甚至一度被微软的门户网站 MSN 收录。 巧了,因为 MSN 也在用 AI 取代编辑。 今年 4 月,BNN 已经停止发布报道并删除了内容,网站也关闭了。但下一个 BNN 还会不会出现,还未可知。 更快不代表更好,但更快确实存在短期变现的价值。不需要人或者把人的价值压榨到最低的产品,像水蛭一样吸血,分享到不该属于他们的蛋糕。 我们不是拒绝 AI,而是拒绝 AI 生成的低劣内容。AI 只是工具,而 AI 味代表的,是一种不尊重人类、也不擅用 AI 的逐利思维。 创造力总有出路 越是频繁使用 AI 的领域,其中的人类可能越容易因为 AI 感受到危机感。 今年 2 月的一项调查里,研究人员分析了 2022 年 11 月 1 日到 2024 年 2 月 14 日自由职业平台 Upwork 的岗位变化趋势,判断哪些工作因为 ChatGPT 受到了负面影响。 结果发现,岗位数量下降幅度最大的 3 个类别是写作(33%)、翻译(19%)和客服(16%)。 图片来自:bloomberry 这便是事实,确实存在一些简单的文案工作,可以交给 AI 代劳。但在趋势之下,也有积极挣脱困境的个人。 三春去后诸芳尽,各自须寻各自门。 有些文字从业者站到行业头部,有自己的议价权,同时也在学习怎么更好地用 AI。 也有些文字从业者黯然离开,帮别人遛狗,学习怎么修空调。此处不留爷,自有留爷处,体力活暂时比办公室案头工作更安全。 一则非常有名的反 AI 广告 可能最被动的,恰恰是那些帮助 AI 快速产出的「临时工」,他们几乎没有选择权,拿更低的工资,享受最小的成就感和安全感,等待被辞退的一天,也封死了创造力的出路。 第三国家的数据标注员们是这样,去 AI 味的写手们也是这样,《大西洋月刊》将这些人称为「AI 下层阶级」。 我们无法站在道德制高点,何不食肉糜地指责他们的选择。对于他们来说,为 AI 打工,只是当下养家糊口的一种方式。 但对于我们自己,或许不应该陷入等待被淘汰的境地。 真正使用 AI 的人会发现,我们平时用 AI 不像测评那样,让它做个题、生成个图片、写个小游戏程序,大部分工作是无法交给 AI 全权处理的。 比如在我的使用过程中,更多是用 AI 了解某个陌生领域、陌生知识点,快速入个门,真的要写些什么,还得是自己来。 搜索引擎骗点击的文字、站在版权灰色地带的歌曲、开屏的 AI 生成广告,至少在目前,AI 在大多数领域,玩的还是冲量的游戏。 生产在某种程度上已经过剩了,互联网已经变得太无趣了,但好的作品仍在等待它的作者,以及它的观众。 以前我们泛泛地说,不是被 AI 替代,而是被善用 AI 的人替代。 现在,这句话有了更具体的含义,不要恐惧和抵制 AI,不要成为被选择的人,不要成为随波逐流的人,不要成为被 AI 决定命运的人,而是保持好奇、兴奋和谨慎乐观,在我们自己所在的领域,坚持创作,努力创作得更好,时间会给出答案。
OpenAI突然“断供”中国,国产大模型纷纷推出无痛搬家计划
今日凌晨,为确保服务的质量和安全性,OpenAI 宣布将停止对某些未受支持的国家和地区提供 API 服务。 这一消息已经通过官方邮件传达给了众多开发者。 邮件中明确指出,OpenAI 自 7 月 9 日起将实施新的措施,以阻止来自未受支持的国家或地区的 API 调用,如果希望继续使用 OpenAI 的服务,用户必须在其支持的国家或地区内访问。 根据 OpenAI 官方网站,目前其 API 已向近 200 个国家和地区开放,但中国内地和中国香港未包含在内。 此前,OpenAI 在今年 2 月 14 日曾发表「阻止国家相关威胁行为者对人工智能的恶意使用」一文,其中包括中国等国家和地区的用户。 对此,一些国产大模型厂商也第一时间作出反应。比如智谱 AI 针对 OpenAI API 用户发起了一项特别搬家计划。 智谱 AI 官方表示,其 GLM 模型将全面对标 OpenAI 产品体系,为开发者提供 1.5亿 Token (5000万 GLM-4 + 1 亿 GLM-4-Air) 以及从 OpenAl 到 GLM 的系列迁移培训。 此外,智谱 AI 将为高用量客户提供与 OpenAI 使用规模对等的 Token 赠送计划,与 OpenAI 对等的并发规模,匹配高等级会员政策,专属搬家顾问及 5 人天技术专家支持,以及备案培训和辅助,以助力客户无缝切换国产大模型。 附上网址:bigmodel.cn 百度智能云千帆也在今天宣布推出大模型普惠计划,宣称支持 0 成本切换至国内调用量第一的大模型平台。 即日起为新注册企业用户提供 0 元调用: 文心旗舰模型首次免费,赠送 ERNIE 3.5 旗舰模型 5000 万 Tokens 包,主力模型 ERNIE Speed/ERNIE Lite 和轻量模型 ERNIE Tiny 持续免费。 针对 OpenAI 迁移用户额外赠送与 OpenAI 使用规模对等的 ERNIE 3.5 旗舰模型Tokens 包 并且百度智能云千帆还提供免费模型精调训练服务、零成本 SDK 迁移工具,以及免费的专家服务(迁移&使用指导)。 阿里云则同期宣传通义 API,称 GPT-4 级的主力模型 API 价格仅需 OpenAI 的 1/50。 零一万物发起「Yi API二折平替计划」,面向 OpenAI 用户推出了平滑迁移至 Yi 系列大模型的服务。 据零一万物介绍,目前注册使用 Yi API 的新客户,零一万物立即赠送 100 元额度,平台充值还将赠送 50% 到账额度,上不封顶;任意充值即可享受 RPM/TPM 限速直升 Tier3。 零一万物 API 还将提供 Prompt 兼容调优服务支持,陪伴用户更快适配 Yi 系列大模型。 此外,硅基流动也发布公告,称 SiliconCloud 平台的 Qwen2(7B)、GLM4(9B)、Yi1.5(9B)等顶尖开源大模型将支持免费使用,帮助开发者实现「Token自由」。 附上网址:siliconflow.cn/zh-cn/siliconcloud
详解开源闭源之争,十家大模型厂商的商战策略
文|赵艳秋‍‍‍‍ 编|牛慧 大模型市场已形成了“开源派”和“闭源派”。而当下,在大模型竞争进入市场争夺的白热化阶段后,企业在开闭源上的交锋也更为激烈。 实际上,大模型开源和传统软件开源不是一回事。在开源的定义、治理、社区性质、贡献路径和企业的开源策略上,都在发生巨大变化。 01 大模型企业开闭源策略各异 今年大模型的开闭源更为热闹,在闭源的企业,有开源的呼声;在开源的企业,有闭源的动作。 百度内部对大模型开源、闭源的讨论非常热烈。大家都在思考,什么样的方式能取得更多的竞争优势。 在BATH几家大厂中,百度、华为选择闭源路线,阿里、腾讯则推出了开源大模型。 百度对于开闭源大模型的争论,部分也来自阿里云等企业今年在开源上的声势和市场动作。 到目前为止,虽然百度文心一言仍坚持闭源路线,但百度智能云部门,在其平台上提供了大量性能很强的第三方开源大模型。百度通过闭源文心一言,也通过开源大模型使用的算力、工具和服务,来实现商业上的收益。 在开源上,今年阿里云的动作极为密集。5月在北京举办的AI峰会上,阿里云CTO周靖人表态,开源是阿里云的战略,阿里云形成的是一个开源和闭源的整体体系。阿里云已开源了参数从5亿到千亿的数款模型,打法也更为专业。 业界认为,阿里云大力推广开源,一方面是为了加快市场份额的争夺;另一方面作为云计算企业,它可以采用“羊毛出在猪身上”的商业模式,在算力、工具和服务上获得收益。周靖人在策略会上尤其强调“百炼”平台的服务。而开源还能为其引流,有些客户可能升级为闭源用户。 与其他大模型企业相比,腾讯开源大模型较晚,今年5月对外开源了混元文生图大模型。混元相关人士告诉数智前线,由于市场上已有很多开源的大语言模型,因此腾讯这次选择开源文生图,应该是第一个中文原生的开源DiT模型,未来还会尝试参数量更大的模型。由于刚开源几周,商业化影响仍待观察。 华为云2023年在推出盘古大模型3.0时,就表态采用闭源路线。过去一年,它的重心是在各行业进行联创,落地大模型,并将技术回馈盘古,不断迭代,未参与业界开闭源讨论。华为云在上周也刚刚官宣盘古5.0多模态大模型,发布期间也未涉及开源问题。同时,华为云于去年上线“百模千态”专区,提供第三方开源大模型。 最近在项目订单上活跃的智谱,是国内最早开源大模型的企业。因为智谱由清华技术成果转化而来,2022年,它就将开发的双语千亿模型GLM-130B开源,“当时全国懂大模型的研究员加起来也不过百来人”。智谱CEO张鹏称,开源让大家知道智谱在做什么,同时可以让更多人参与推动大模型。此后在2023年3月,智谱将GLM6b开源,该模型在Hugging Face上的下载量超过1600万。 虽然张鹏认为开源的初心并不是要去赢得市场或追求商业利益,但ChatGPT爆火后,智谱的GLM开源大模型获得大量关注,也让这家2019年才成立的公司,在融资和商业化上受益颇多。张鹏也称,开源和商业化是整个生态版图里很重要的两块,这两块是有连接的,可以说开源充当着商业化的桥梁。 王小川的百川公司,去年作为创业的明星公司,发布了Baichuan-7B、13B开源可商用大模型,在业界引发关注。当时有应用开发商告诉数智前线,测试后,他们从Meta的Llmma转向百川,因为中文效果更好。 百川开源时,国内大模型开源的还很少。此后,越来越多的大模型公司,包括大厂,开始开源。百川联合创始人谢剑告诉数智前线,未来还会开源,但不会开源特别大参数的模型,因为很多人用不起来。 最近快手的文生视频大模型“可灵”很火爆,不少应用企业“祈盼”可灵开源。但快手相关人士表示,暂不考虑开源,而会逐步开放一些东西在业界讨论。 而昆仑万维最近开源了一个稀疏大型语言模型Skywork-MoE,为应对大规模密集型大语言模型带来的挑战。昆仑万维兼天工智能首席科学家颜水成告诉数智前线,开源大模型帮助学界进行探索性工作,而公司也推出音乐、游戏等垂类模型,将采用闭源商业模式。 李开复的创业公司零一万物,是这波大模型独角兽中最后一家开源的企业。公司开源负责人林旅强非常坦率,认为开源和闭源是商业设计问题。零一万物也采取了开源、闭源并进的模式。开源在一定程度上扮演了商业拓展角色。同时,今年零一万物发布千亿参数模型Yi-Large,一些使用了开源模型的客户有望转化到该闭源模型上。 02 开源大模型与开源软件有三大区别 虽然大模型开源如火如荼,但业界一直在诟病它的透明度,质疑为什么好多信息,企业不公开。实际上,大模型开源和传统软件开源不是一回事。 红帽中国首席架构师张家驹告诉数智前线,软件开源是指源代码开源,拿到源代码,我们就“知其然也知其所以然”,也可以在源代码基础上,去修改或增加新功能。 但大模型是一个黑盒子,里面有很多至今无法解释的现象,所以对大模型的开源,业界提出了更多维度,有的说需要四部分——权重、数据集、代码和训练过程;也有的说需要五部分,还包括了框架。即使是这些定义,业界也有不同意见:为什么会有这样的定义?这更像是从传统开源软件的思路来考虑的。 有趣的是,只有极少数公司或机构的大模型,同时开源了上述四部分或五部分,比如IBM刚刚开源出来的Granite大语言模型;也有像智源研究院、马斯克旗下大模型公司xAI ,开源了权重和数据集。比如,根据智源人工智能研究院副院长兼总工程师林咏华的介绍,今年6月,智源最新开源数据集分为两类,一类是通用开源指令微调数据集,一类是行业垂类数据集,涵盖18个行业。 “现在业界的共识是,至少将权重再加上一些推理代码开源。”零一万物林旅强说,只有这两部分开源,其他人才可以将开源大模型使用起来。由此,开源大模型现在的定义,有点像微软提过的“免费软件”。所以,谷歌等公司在其官网上称是开源权重(open weight),而不是开源大模型。 为什么在开源大模型中,权重如此重要?有业界人士将权重打比方为“一大堆数字”,一个13B的模型,就有130亿个数。这些数字与模型如何处理输入的数据、如何做出预测和生成文本等相关,代表了一个大模型的智慧。 而在大模型中,代码分为预训练代码、微调代码和推理代码。预训练代码是大模型公司的核心;对于微调代码,市场上已有很多公开方法,而大模型要被用起来,需要推理代码。至于训练过程和数据集,往往也是大模型厂商的核心所在。 与传统软件不同,在大模型开源上,企业的态度有了微妙的变化。现在大模型的成本太过高昂,训练一个千亿级参数模型,要几千万甚至上亿,因此,很多公司在开源问题上变得保守。这是一个现实问题,每家公司的开源,必然服务于自己的商业战略。而且,即便将这些核心都开源出来,大多数工程师和企业也没有那么多资源去复现。 业内人士认为,开源大模型和开源软件有三个核心区别: 一是透明度完全不一样。开源软件的代码能说明一切,从而可以形成一套治理体系;大模型当下还是一个黑盒子,内部机理还是未知的。 二是大模型社区的性质发生了变化。之前开源社区讲求全球工程师来贡献;但因为算力等资源限制,在大模型社区里,或许90%以上的工程师,无法直接为大模型贡献,因此很多社区变成了单向模式,大家只是使用大模型。在HuggingFace上,Meta的Llmma开源大模型,已经有几千个变种,但彼此之间没有太多交互,也很难将创新合并。 其三是大模型企业开源策略发生变化。中国信通院知识产权与创新发展中心产业发展研究部主任张俊霞说,因为大模型的训练投入特别大,这导致企业在开源策略的选择上,特别是在一些许可或信息披露上,都有很大不同。“这个问题现在不管是国内还是国际社区,都在非常激烈地讨论。” 不过,近期,一些动态正在发生。比如,红帽在社区贡献上有了尝试动作。一方面IBM开源了Granite模型;另一方面,“训练过程”在另外一个开源项目InstructLab中。由IBM出资建设了一个平台。每过一段时间,就把大家“集”来的数据放在上面“训”,形成模型的迭代。同时,用户也可以选择保留自己的数据,训练分叉的模型。“客户不用‘躺平’,可以用他们的场景、经验参与到调试当中,不断在变化之中调优。”红帽大中华区资深市场总监赵文斌告诉数智前线。 而张俊霞认为,大模型时代,对开源的定义以及未来的治理,不管是从项目层面、企业层面还是从国家层面,也都会发生一些翻天覆地的变化。 03 “开源的目的不是一定要超越闭源” 除了如何定义开源大模型,开源派和闭源派,在开闭源大模型孰强孰弱和安全性上,有着交锋。 如果在当下这个时间点,OpenAI等的闭源模型比较强。“但不意味着闭源会持续遥遥领先。”零一万物林旅强说,未来当算力平民化,再加上互联网协作精神,可能5年、10年,开源大模型就会变得更强。 不过,智源研究院智能评测组负责人杨熙从评测角度看,单纯把开源模型和闭源模型放在一起来比较,可能有失公允。因为闭源大模型可能是一套体系,比如包含了检索增强等技术,而开源模型是一个单体模型,拿“多对一”,肯定不合理。 而红帽张家驹认为,开源的目标不是说一定要超过闭源。“即便之前全球工程师合力做Linux,目标也不是要超过闭源。”开源的价值是更加公开透明,技术上更加平权,不会让其成为少数人牟利的手段。“更为关键的是,对于人工智能来说,如果未来走向AGI,开源让AI的发展走向,更符合全人类的利益,这一点的价值要远高于在某一方面去超越闭源。” 而开源和闭源大模型谁更安全,业界也有着争议。开源派认为,在闭源环境当中,大家不知道有没有人监督它。开源的好处是一旦出现一些安全问题,整个社区会来共同检查。 但也有人士认为“开源也会带来各种意想不到的问题”。比如,开源可能将大模型交到了“恐怖分子”手里。“举个例子,开源大模型的数据集,如果别人加了一些数据,训练出大模型去干了违法的事。”一家大模型企业开源负责人对数智前线说,虽然他们也有开源大模型。另外,现在各国都强调数据主权,数据开源后怎么追踪也是问题。“所以国家鼓励开源,但不是无限制的开源。” 对于这些观点交锋,智源研究院杨熙称,开源、闭源其实都存在透明性、合规性、安全性的问题,也涉及治理问题。 信通院张俊霞提出,关于治理,其实大模型是一个技术性非常强的领域,所以“技术的问题,一定要依赖技术”。她看到,谷歌发布了一款开源工具Model Explorer,帮助人们理解大模型技术的内部工作机制;IBM、微软也发布了关于开源大模型或人工智能的伦理和解决手段,非常值得学习参考;今年1月,腾讯发布了安全治理框架,涉及一个模型整个生命周期里每个阶段的安全技术、问题和管理等。 杨熙则强调,开源其实对模型内在机理的刻画和理解,非常有帮助。“在我看来,开源和闭源是一个硬币的两面。”智谱杨熙称,开源可能促进我们更多的探索性和基础性工作;闭源更多促进产品化和商业化,推动大模型走进每个人的生活。这两件事其实不应该是之争,而是和谐共存。 “现在,什么样的框架最适合从行业监管角度,既不太过于增加企业的负担,又能够实现行业事前、事中、事后的一个完整的监管,其实全球还没有一个统一的答案,仍然在探索过程中。”张俊霞说。 04 开源闭源,商业化应用如何选择 在开闭源的选择上,智谱张鹏认为,如果只是想做一些实验和尝试,可以选择开源模型,但如果想要在上面做商业化应用,大部分人还是会选择商业化版本,因为有保障,能够提供更好的服务。 这代表了业界、尤其是ToB行业很多人士的观点。 红帽张家驹则认为,无论是开源、闭源,需要优先考虑客户是否需要本地部署大模型。无论国内外,不少客户都有自主可控的需求。如果采用公有云上的模型,比如OpenAI,客户要考虑数据暴露信息的问题。“这是个很重要的问题。” 值得注意的是,闭源大模型是否能部署到本地,需要获得允许。开源大模型同样需要依据一些协议以及合规性。从技术角度来讲,很多开源部署到本地是可行的。而开源可以方便地进行微调,打造行业大模型,这是其优势。 除了本地化部署之外,也有企业需要调用公有云上的大模型。“大模型的需求一定是开放混合的。”张家驹说。 大模型应用开发商北京可为是最早在市场监督管理领域,打造、落地行政执法垂直大模型的企业。公司联合创始人曾明告诉数智前线,他们在开闭源大模型中,最终选择了开源大模型。一方面,行政执法是比较知识化的应用,去年他们在测试验证中就发现,当时的开源模型在解决主要场景上,已经符合要求;另一方面,成本是重要的因素之一。同时,这类垂直大模型属于政务应用,客户对数据安全要求极高,不能触碰红线,需要私有化部署,而开源模型在这方面更为灵活方便。 “在选择开源大模型的过程中,我们做了很多验证,做的最苦的也最有意思的,就是这个过程。”曾明说,他们不断对不同模型验证,对自己的训练策略验证。“你要教大模型,去还原人类推理和思考的过程。所谓的够用与不够用,就看推理的结果是不是能达到要求。” 此外,不少业界人士认为,目前企业开源的大模型通常是中低版本的,而闭源的模型性能更强,更适合比较高要求的应用,如当下大模型企业与标杆客户联合共创的类型。而大多数普通应用场景,开源已能满足要求。 大模型时代,无论对开源的定义、治理还是社区运营、商业化,目前都处于快速演变之中。上述问题仍在激烈的碰撞和演进中。
一季度卖出1190万部AI手机,中国成了AI手机的最大潜在市场
作者 | 饶翔宇 编辑 | 钟毅 Canalys报告显示,中国大陆是全球前三大智能手机市场中AI兴趣倾向最强的市场。 AI浪潮之下,中国已经成为AI手机的最大潜在市场。 根据Canalys 发布的关于《AI手机对中国消费者的吸引力》报告,2024年一季度,中国大陆市场依靠作为本土厂商的先发主场及市场高端化结构,AI手机出货量达1190万部,占据全球AI手机出货的 25%。 值得注意的是,报告还提到,中国大陆是全球前三大智能手机市场中AI兴趣倾向最强的市场,中国大陆消费者在调查中展现出了对新技术更开放的态度。 其中,中国大陆有约43%的用户对于AI手机有着高度兴趣,德国、印度、墨西哥和美国的这一比例则分别为9%、38%、22%以及15%。当兴趣转化为购买需求,这意味着中国将成为AI手机的最大潜在市场。 Canalys预测,具备AI功能的智能手机市场份额将呈指数级增长,到2028年将达到54%,2023年至2028年的复合年增长率为63%,这得益于消费者对增强功能(如AI代理和设备内处理)的需求。 AI大模型,涌进手机系统底层 第一波AI大模型的布局中,国产手机厂商走在了行业前列。 2023年,华为率先将大模型接入手机,使得手机可以执行文本生成、知识查找、资料总结、智能编排、模糊/复杂意图理解等复杂任务。之后,其他厂商迅速跟进,比如小米训练出更为轻量级的语言大模型,参数规模为13亿和60亿两种。小米内部认为,轻量级模型也有其存在的市场空间,这是端侧大模型的特殊要求,也是一家智能设备厂商入局大模型的必经之路。 紧接着,vivo则推出了蓝心大模型,同样主打轻量化,利于进行手机本地化的数据处理;荣耀则推出了端侧70亿参数平台级AI大模型,并宣布与百度智能云达成战略合作。 在前期的大模型应用中,手机厂商普遍采用的方案都是基于AI的分析和推理能力,对于单个手机功能进行优化。比如利用AI算力,提升手机影像质量;利用语言大模型,增加原有手机语音助手的功能,以便于进行文本处理。 而在近期的苹果和华为开发者大会上,将AI内嵌进手机系统底层,成为了某种共识。 以苹果为例,该公司的新AI系统将被称为Apple Intelligence,并将出现在新版iPhone、iPad和Mac操作系统上。iOS在嵌入OpenAI的AI大模型之后,Siri将能够在更多应用程序中理解用户的内容并对其采取行动,还能够调用多个APP的功能去完成一个复杂命令。 与苹果的方案类似,华为此次也试图将AI大模型的能力植入鸿蒙系统底层,以此来同时调用多个APP的功能,让终端设备可以完成复杂度更高的人机交互方式。不同的是,鸿蒙所使用的AI大模型为华为自研的盘古大模型。 “得益于盘古大模型5.0的加持,小艺的能力也得到全新升级。”华为终端BG CEO何刚称,比如,小艺智能体与导航条融为一体,无论在任何应用界面,都可以随时召唤。只需将文字、图片、文档“投喂”小艺,即可便捷高效处理文字、识别图像、分析文档。 显然,在原生的鸿蒙和iOS系统内,嵌入AI大模型之后,智能手机的厂商将可以实现更多个性化的AI功能。这是陷入创新瓶颈之后,智能手机行业为数不多可以带来突破性创新的机会。 供应商竞争与政策壁垒 事实上,AI手机的战场除了有终端厂商之间的竞争,供应链厂商的技术角逐也是一大重点。 目前,高通正努力确立自己在端侧AI领域的领导地位。比如,高通最新一代的处理器——骁龙8 Gen 3在设备上运行的LLM(在优化后的 7B 模型上达到 20 个tokens/秒)和LVM(在优化后的 Stable Diffusion 模型上生成每张图像不到 1 秒),这要归功于其独有的量化工具和软件开发工具包(SDK),这些能力可以带来用户体验的差异化。 同时,高通的AI Hub赋予开发者在多个产品类别上使用单个模型,部署人工智能框架的能力,提升了对开发者的吸引力。 联发科则通过与百川智能、百度文言一心、零一万物和阿里巴巴通义千问等 AI 模型供应商的合作,巩固其在中国的应用程序开发版图。 与高通另外的不同之处在于,联发科的芯片主要被用于中端手机产品。目前,包括小米、荣耀等手机厂商,在中东、拉美和非洲地区的手机出货量都增长迅猛。随着手机厂商将AI能力进一步下放到中低端产品,联发科在AI手机领域的出货量也会水涨船高。 在全球竞争格局上,不同地区对于AI的监管政策,也会影响到手机厂商的战略选择。 比如,在欧洲,欧洲议会以压倒性票数通过了《人工智能法案》(下称"法案”)。根据法案要求,如果通用人工智能(GPAI)用于训练的累积计算量大于10的25次方每秒浮点运算次数(FLOPs),将被认为具有"系统性风险",并将面临模型评估、系统性风险评估和减轻等额外要求。 斯坦福大学AI研究实验室发布的一项研究显示,包括Open AI的GPT-4, Meta的LlaMa在内的10个主流大模型,均未满足《法案》草案的要求。 斯坦福研究团队在报告中表示:"主要基础模型提供商目前基本上没有遵守这些草案要求。他们很少披露有关其模型的数据、计算和部署以及模型本身的关键特征的足够信息。尤其是,他们不遵守草案要求来描述受版权保护的训练数据的使用、训练中使用的硬件和产生的排放,以及他们如何评估和测试模型。" 在中国,根据《数据安全法》(DSL)和《网络安全法》等法律规定,AI 技术产生的数据必须在国内存储和处理。目前,ChatGPT的训练和开发涉及大量数据的运用和获取,同时OpenAI的大模型也未在中国相关监管机构完成备案。 这意味着,苹果的Apple Intelligence想要进入中国市场,则需要另寻合作伙伴。在这样的情况之下,一个问题也随之而来——中国的消费者是否还会选择苹果?
Apple Watch的续航有救了?想出办法的居然是宁德时代的“爷爷”
了不得了,日本的一家公司表示研发出了新型固态电池。 哥们第一反应是,这怕不是又是什么假新闻吧。 要知道,这些年固态电池可以说是车企、手机厂商的终极梦想。 在大家的描绘中,固态电池便宜、安全和超长续航,只要谁先研发出量产的固态电池,谁就能成为新时代的雷电法王。 于是,我们隔三差五就能看到一些实验室、研究院或者电池厂商,跳出来说自己攻克了固态电池关键节点啥的. 可一问啥时候能用上,答案都是 “ 在不久的将来 ” 。。。 甚至还出现了,固态电池上车,结果却是半固态电池,这种白马是马的喜剧事件。 所以 TDK 这次是真搞出了个大新闻吗? 我们简单研究了下,发现他们还真搞出了固态电池,但并不是我们想象中的大型固态电池。 原来, TDK 开发出的固态电池名叫 CeraCharge ,的确是使用了锂合金负极和氧化物基这种固态电解质,从而把能量密度提升到了 1000Wh/L 。 作为下一代 CeraCharge 的材料而开发的固态电池单芯 与之对比的,目前市面上一些活在实验室里、或者小范围应用在部分电子产品里的小型固态电池,它们的能量密度普遍只有 50 Wh/L ,而在电车里常用的传统液态电池,能量密度也只有 400 Wh/L 。 所以,就连 TDK 自己都说, CeraCharge 达到了自家最强小型固态电池能量密度的 100 倍。 而且,用了固态材料后,电池的安全性还能再上一个档,重量也能再减轻,甚至充电速度都能变快。 这么多优点听着很香,那为啥不能往手机、往车上放呢? 因为 CeraCharge 有一个问题,它用了不少陶瓷材料,这就意味着电池很脆。 所以, TDK 自己也清楚地表示, CeraCharge 更适合在各种蓝牙耳机、手表里面用,未来恐怕也很难进化到手机或者汽车里。 不过说实话,光是能让手表、小电子产品续航拉满,就已经能改变很多行业格局了。 最简单的例子就是我身边好几个朋友,就因为续航问题,一直没入 Apple Watch 。 如果 Apple Watch 能换上 TDK 最新的固态电池,都不算体积变小能放更大电池这些因素了,光是按照 100 倍能量密度的提升,用新电池的 Apple Watch 的使用体验,将会彻底碾压老款。 再加上没了续航焦虑,苹果还能往手表里塞入更多、更强的功能,我只能说,搞快点。 不过,这次 TDK 的新型固态电池,实际上还是个期货,他们计划从明年开始给客户提供新电池原型的样品,然后再大规模生产。 那为什么 TDK 这次能吸引这么多关注度呢? 我们又仔细扒了下发现,相比于固态电池的大饼, TDK 这家公司也特有意思。 你不知道的是, TDK 的儿子时代新能源 ATL ,在巅峰期掌握了全球一半手机电池市场份额。 而 TDK 的孙子,正是如今喘口气,都能让新能源车市场抖三抖的宁德时代。 虽然 TDK 在大家眼里名气不大,可成立于 1935 年的他着实是个老大哥。 TDK 最早是研究磁性材料的,也是世界上第一家把铁氧体商业化的公司,如今依旧是全球领先的磁性材料商。 到了 20 世纪 60 年代, TDK 又进一步成长为全球顶级盒式磁带品牌。 有多顶级呢? 就这么说吧, 1969 年人类历史上第一次登月,用来记录登月谈话的录音带,就是 TDK 家生产的。 时至今日, TDK 还是全球总销量第二的磁带厂家。 不断发展的 TDK 各种扩张业务、收购公司。 在 1986 年时,他们就在中国香港收购了一家名为香港新科实业有限公司,当时目的主要是用来制造硬盘磁头。 这次收购在当时的 TDK 看来估计也就是,有钱之后的一次大手一挥罢了。 但大家万万没想到,就是凭借新科实业公司,TDK 先后孵化出宁德新能源和宁德时代,他俩很快就成长为了手机电池和电车动力电池两大巨头。 外界甚至为此感叹: “ 比起投资一个市场,不如直接买一个正确的公司 ” 。 原因就是这个香港新科实业有限公司有 3 个特殊的人,执行总裁梁少康、研发总监曾毓群、以及曾毓群的直属上司陈棠华。 这三个人一直在 TDK 搭档了十几年,很稳定但也很平静。 时光到了 1999 年,在这个世纪交接的节点,人类社会正在以一种前所未有的方式颠覆着,梁少康敏锐地意识到手机等便携电器将在全世界风靡,他大胆预测:聚合物锂电池未来一定会大卖。 曾毓群和陈棠华在公司年会上表演节目 经过一番思考和工作,梁少康给母公司 TDK 提交了份计划:教练,我不想做磁带了,我要做锂电池! 然而千里马常有,伯乐却不常有, TDK 拒绝了梁少康的计划。 于是,梁少康决定自己干,而在走之前,他还努力说服了陈棠华和曾毓群一起组队。 就这样, “ 新科三剑客 ” 在中国香港成立了一家名叫新能源科技有限公司( 也就是后来的宁德新能源 ),英文名则是 ATL ( Amperex Technology Limited )。 严格来说 ATL 的创业故事,并不像小说里的主角,总需要经历各种磨炼才能苦尽甘来,相反, ATL 一路发展都相当顺利,并在 2004 年成功挤进果链开始为 iPod 供货。 有了这种合作关系,几年后 ATL 也顺理成章成为了 iPhone 的供应商。 这样的成绩一下子就奠定了 ATL 的江湖地位,当然也变相说明了 ATL 的产品质量。 有苹果的背书, ATL 在手机电池行业所向披靡,相继成为三星、华为和 OPPO 等头部企业的供应商。 凭着领先的技术和过硬的产品,早在 2012 年,宁德新能源便成为聚合物锂电池的全球市场占有率第一,一度掌控了世界一半的手机电池。 时至今日, ATL 仍旧是全球最大的聚合物锂电池供应商之一,所以说 ATL 才是初代 “ 宁王 ” 。 可能你会说,既然这么牛逼,为啥怎么我们平时从来没听过这个公司名呢? 那当然是因为人家低调啦,而且他们的产品、技术,你也肯定没少听说。 比如当年 oppo 那句深入人心的广告词 “ 充电五分钟、通话 2 小时 ” ,最先用到的快充技术,就是宁德新能源家的。 除了市场上走得顺顺利利, ATL 的公司发展却有些幽默。 经过几年发展, ATL 兜兜转转在 2005 年又重归母公司 TDK 怀抱,并逐渐成长成了 TDK 最粗的大腿。 但你不要以为 TDK 和 ATL 的故事到这里就结束了。 既然都讲到了 ATL 和曾毓群,大家肯定也能联想到,这两年火到爆的 “ 二代宁王 ” CATL 宁德时代是不是和 ATL 有关系? 在差评君看来,这两家公司何止是有关系,你甚至可以说 CATL 压根就是 ATL 的亲儿子。 其实最早是在 2011 年,为了效仿特斯拉和松下的合作,宝马找到了 ATL :你是打算卖一辈子 “ 聚能环 ” ,还是想和我一起改变世界? 都说人不会在同一个坑跌倒两次,但我们亲爱的 TDK ,却如同 12 年前拒绝梁少康的提议一样,再次对宝马 say no 。 事后外界分析, TDK 或许受当年《 外商投资产业指导目录 》的限制,由日本 TDK 全资控制的 ATL ,没有在中国大陆本土生产动力电池的资格。 不过我们也发现了,在宁德时代发布的,关于《 公司首次公开发行人民币普通股并上市之补充法律意见书( 一 ) 》上,白纸黑字地写着:TDK 对于动力电池发展前景不明朗,做出了保守的决定。。。 不过 TDK 或者说 ATL 虽然没能亲自下场,但它也给了足够的帮助。 比如大开绿灯,让曾毓群带领了一个团队从 ATL 独立,成立了时代新能源科技有限公司,也就是后面的宁德时代( Contemporary Amperex Technology Ltd ,简称 CATL )。 而在早期, ATL 和 CATL 简直就像一家公司。 宁德新能源的地址在新港路 1 号,对面的新港路 2 号就是宁德时代。 这两家公司不仅共用食堂、宿舍和幼儿园,直到 2020 年前,他们还能互用对方的机器打卡上班。 很多员工也经常聚餐,甚至走在新港路上,你都能看到不少 “ A+C 联姻 ” 。 而在股票里,两家公司也难舍难分,比如 ATL 在很长一段时间持有 15% 宁德时代的股权,曾毓群本人至今仍持有 ATL 的一部分股权。 哪怕到了 2015 年, ATL 完全退股后, CATL 和 ATL 、 TDK 的故事仍未完全结束。 起码 TDK 仍然从宁德时代收取技术使用费,曾毓群也在 2017 年才完全卸任 ATL 和 TDK 的职务。 但就在大家以为 ATL 和 CATL 要各奔东西的时候,到了 2021 年,他俩又共同出资成立了厦门新能和科技有限公司、厦门新能达科技有限公司,准备一起到电瓶车和储能的赛道里卷一卷。 这么盘下来,人才辈出的 TDK ,活脱脱就是电池界的黄埔军校。 另一方面, TDK 还是电池界的技术先驱,过去几十年里无数次将实验室里的技术,带到了大家的手边。 无论是最早把美国贝尔实验室的聚合物锂离子电池成功产业化、还是首先市场化电池快充技术,又或者是最新推出的硅碳电池技术,每次 TDK 在电池行业有动作,往往都能掀起一阵行业变革潮。 如今,他们又开始率先搞出了固态电池,总感觉又是一场腥风血雨。 只不过,按照 TDK 2025 年才给厂商样品的计划,咱们起码也得到明年才能看到这场大戏了。 至于真正想要在手机、电车上用上固态电池,只能说还得先准备好充电宝,再等等。 撰文:八戒 编辑:江江 & 面线 美编:焕妍
OpenAI停服,国产大模型免费用!开发者Token自由实现了
今天凌晨,OpenAI 突然宣布终止对中国提供 API 服务,进一步收紧国内开发者访问 GPT 等高水平大模型。国内开发者真是太难了。 好在,随着开源大模型水平越来越高,开发者已经有很多不错的 “平替”,比如 Qwen2、DeepSeek V2 等模型。为了给开发者提供更快、更便宜、更全面、体验更丝滑的开源大模型 API,AI Infra 领域的专业选手硅基流动(SiliconFlow)上场,推出了一站式大模型 API 平台 SiliconCloud。 刚刚,硅基流动为国内开发者献上一份前所未有的大礼:Qwen2 (7B)、GLM4 (9B)、Yi1.5(9B)等顶尖开源大模型永久免费。 从此,开发者 “Token 自由” 不再是梦,可以甩开膀子开发超级应用了。 “Token 自由” 传送门,一键直达: cloud.siliconflow.cn/s/free 正如在工业化时代,机械化工厂推动了大规模生产商品的效率。在大模型时代,生成式 AI 应用的繁荣亟需高性价比的 Token 生产工厂。 通过云服务接入大模型 API 已成为开发者的最优选择。不过,很多平台只提供自家大模型 API,不包含其他顶尖大模型,同时,在模型响应速度、用户体验以及成本方面,远不能满足开发者的需求。 现在,硅基流动的超级 Token 工厂 SiliconCloud,让开发者不用再花费精力部署大模型,大规模降低 AI-Native 应用开发门槛与成本。 大模型 Token 工厂 即时上新、极速输出、价格亲民 既然叫 Token 工厂,那用户喜欢的模型就都能直接在 SiliconCloud 上找到。 最近,大模型社区相当热闹,开源模型不断刷新着 SOTA,轮流霸榜。 硅基流动第一时间将这些大模型快速上架到 SiliconCloud,包括最强开源代码生成模型 DeepSeek-Coder-V2,超越 Llama3 的大语言模型 Qwen2、GLM-4-9B-Chat、DeepSeek V2 系列模型。还支持 Stable Diffusion 3 Medium、InstantID 等文生图模型。 值得一提的是,对 DeepSeek V2 等部署难度极高的模型,SiliconCloud 是除官方之外唯一支持这些开源大模型的云服务平台。 考虑到在不同应用场景下需要选择适合的大模型,开发者可在 SiliconCloud 自由切换。 这样的开源大模型聚合平台,已经为开发者提供了不少便利,但还远远不够,作为世界顶级的 AI Infra 团队,硅基流动致力于将大模型部署成本降低 10000 倍。 要实现这一目标,核心挑战是如何大幅提升大模型推理速度。对此,SiliconCloud 做到了什么程度? 直观上图,感受一下 Qwen2-72B-Instruct 在 SiliconCloud 上的响应速度。 刚开源不久的 SD3 Medium 的生图时间在 1s 左右。 这些开源大模型的响应速度变快,相同的算力的产出更高,价格自然就打下来了。 SiliconCloud 上的大模型 API 价格也(很卷)更为亲民。即使是 Qwen2-72B,官网显示只要 4.13 元 / 1M Token。新用户还可免费畅享 2000 万 Token。 开发者评价:“速度快得再也回不去了” SiliconCloud 一经发布,不少开发者就在各大社交平台分享了使用体验。部分 “自来水” 用户是这样评价的: 知乎上,机器学习系统专家 @方佳瑞称赞了 SiliconCloud 的输出速度,“用久了就受不了其他大模型厂商 web 端的响应速度”。 微博用户 @祝威廉二世称,其他几家平台都不敢放 Qwen2 大规模参数的模型,SiliconCloud 都放了,速度很快,还很便宜,一定会付费。 他还提到,大模型的最终产物是 Token,未来会由硅基流动这样的 Token 工厂,或 OpenAI、阿里云这样的大模型企业或云厂商完成 Token 的生产。 还有 X 用户强烈推荐 SiliconCloud,体验太过丝滑,尤其还有体贴周到的一流售后服务团队。 微信公众号博主评价:SiliconCloud 是国内同类产品中体验最好的一家。 这些评价有一个明显的共性,他们不约而同地提到了 SiliconCloud 平台的速度。为什么它的响应这么快? 答案很简单:硅基流动团队做了大量性能优化工作。 早在 2016 年,硅基流动的前身 OneFlow 团队就投身大模型基础设施,是世界上做通用深度学习框架的唯一创业团队。再次创业,他们基于丰富的 AI 基础设施及加速优化经验,率先研发了高性能大模型推理引擎,在某些场景中,让大模型吞吐实现最高 10 倍加速,该引擎也集成到了 SiliconCloud 平台。 换句话说,让开发者用上输出速度更快、价格实在的大模型服务,是硅基流动团队的拿手绝活。 Token 自由后,现象级应用还远吗? 此前,阻碍国内开发者开发 AI 应用的一大因素是不方便访问高水平大模型,即便做出了优质应用也不敢大规模推广,因为烧钱太快,他们无力承受。 随着国产开源大模型不断迭代,以 Qwen2、DeepSeek V2 为代表的模型已足够支持超级应用,更重要的是,Token 工厂 SiliconCloud 的出现能解决超级个体的后顾之忧,他们不用再担心应用研发与大规模推广带来的算力成本,只需专注实现产品想法,做出用户需要的生成式 AI 应用。 可以说,现在是超级个体开发者与产品经理的最佳 “掘金” 时刻,而 SiliconCloud 这个好用的掘金工具已经为你准备好了。 再提醒一下:Qwen2 (7B)、GLM4 (9B) 等顶尖开源大模型永久免费。 欢迎走进 Token 工厂 SiliconCloud: cloud.siliconflow.cn/s/free

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。