行业分类:
加载中...
头条分类:
加载中...
上汽向华为妥协?
作者丨李思佳 责编丨崔力文 编辑丨何增荣 日前,一则智己汽车招聘鸿蒙开发工程师的消息引发业内人士的关注。 因为自从2021年股东大会,上汽集团董事长陈虹表示“上汽的灵魂要掌握在自己手中”以来,虽然市场对“灵魂论”的褒贬不一,但上汽却始终和华为保持着明面上的距离,甚至已经和另一家手机厂商OPPO宣布打造未来智能汽车生态合作。 而智己汽车赫然招聘鸿蒙开发工程师,无疑让人产生着上汽“靠拢”华为的遐想--莫非时隔三年,上汽慢慢松口愿意尝试更多可能了? 毕竟,当下的车市卷出天际,价格战天花乱坠,促销政策层出不穷。随着雷军走向台前,凭借“爽文男主”的形象吸粉无数,更是让各大车企的管理层分外眼红,相继在抖音、微博等社交平台开设账号,一股脑地走向台前,甚至可以说雷军开辟了管理层IP化的特殊年份。 从这种卷完产品又卷人的形势中不难看出,车市的纷争再次进入新阶段,一众车企在红海当中博出路,恰如千军万马过独木桥,稍有不慎就可能万劫不复。因此,在这个容错率极低的竞争中,抱团取暖的戏码成为车企分担风险、共谋未来的常规操作。 这也是为什么我们看到接连有车企选择和手机厂商合作探索车机互联解决方案,除了上汽和OPPO外,还包括吉利和魅族、长安和华为等......不同的是,上汽和OPPO属于合作,吉利收购了魅族,长安和华为是项目制。 而无论是技术储备还是风险分摊能力,华为都是手机厂商中的佼佼者。毕竟“遥遥领先”不是乱喊的,因此,华为成了那个拥有更庞大造车朋友圈的那一家。 华为的“朋友圈”越来越大 “江汽集团与华为携手打造的豪华智能新能源汽车即将推出。” 5月20日,江汽集团在江淮汽车建厂60周年之际,官微发文宣布和华为合作造车事宜迎来新进展,这是自去年年底江淮汽车宣布与华为签署《智能新能源汽车合作协议》的后续,也是江淮近年来接连自救的关键一步。 我们都知道,千禧年后,国内家用车市场井喷,掀起“商转乘”的浪潮,国内一众老牌商用车企业面临转型,但江淮却在转型时“起个大早,却赶了个晚集”,导致市场存在感一降再降,哪怕进入新能源时代后绑定大众、蔚来,却依然只是扮演着“代工厂”的角色。 而和华为的合作,一定程度上决定了江淮未来的活路。 毕竟和华为合作造车后的赛力斯,不仅摆脱濒临破产的命运,市场表现更是不可阻挡,一路过关斩将成为新势力销量冠军,哪怕是热销的理想,也随着问界M7的到来,让出冠军宝座。 赛力斯牵手华为的成功,让更多人相信“跟华为混有肉吃”,这不仅对华为来说是一种代言,对车企来说也不失为公摊风险和另谋生路的额外选择。 因此,越来越多车企选择和华为开始产生关联,合作形式也越来越多样。 随着东风与一汽正积极推进参股华为车BU,长安与华为合作的阿维塔日渐成熟,东风岚图已官宣加入鸿蒙生态......同时,算上华为和奇瑞制造的智界S7、华为和北汽制造的极狐、华为与北汽打造的享界、华为与江淮合作的傲界,广汽传祺也官宣加入鸿蒙生态...... 至此,三大汽车央企、四大地方国有车企都选择了和华为合作造车。另外,包括丰田、奥迪等车企,也都将加入到华为的“汽车朋友圈”。 广泛交友的战略下,从产品端来看,目前华为和塞力斯、北汽集团、奇瑞汽车等共同开发的多款“界”字辈产品,已经产生不错的市场影响力。相关数据显示,今年前4月,鸿蒙智行旗下汽车产品的累计销量已经超过10.5万辆,位列中国市场新势力销量第一。 但华为并不满足,继续加码着“造车”布局。 北京车展前夕,华为发布了乾崑ADS 3.0智驾系统。该系统基于GOD(通用障碍物识别)大网实现了从简单“识别障碍物”到深度“理解驾驶场景”的跨越式进步。同时,华为也对鸿蒙座舱进行了升级,对语音、音响、车载智慧屏等方面进行了升级。 值得一提的是,华为乾崑智能汽车解决方案的合作车型也将在今年内陆续问世。 看,无论是场面的恢弘,还是成果的丰硕,“不造车”的华为已经在车圈打造了一个“有梦你就来”的大舞台,怀揣着梦想的人前仆后继,它们只谈理想不谈灵魂。 眼见如此,上汽还有必要端着吗? 上汽需要大胆迈出去 回到开篇智己汽车招聘鸿蒙开发工程师的内容,与其猜想说这是上汽集团的战略调整,不如说是技术上的交流,是智己汽车在技术层面迈出一步,和鸿蒙系统搭上桥。 但话说回来,因为目前智己汽车的销量还没有达到预期,上汽集团的销量同样是连年下滑。如果和华为合作能够帮助上汽销量重返巅峰,上汽还会为了曾经的“灵魂论”而拒绝吗? 我想,上汽不会拒绝,至少我希望不会拒绝。 因为作为国内龙头车企,上汽太需要进步了! 近年来,销量泥潭、利润枷锁、市值诟病......这些任何一家企业不敢承受的发展之殇,全然聚拢在了上汽集团的上空,从股东到管理层,再到普通员工,都在为每一次呈现在表格之上不乐观的各种数据而忧心忡忡,而夜不能寐,而颠沛流离。 这时候,任何一种行之有效的战略都将是每一个上汽人的翘首以盼。因为重返巅峰不仅仅是上汽对自己的交代,更是对当前市场脉搏的把握,并对中国汽车起到的表率作用,而如果能大胆迈出去,做一些行之有效的尝试,何乐而不为。 当然,这里不是说必须要求上汽和华为合作,而是说和华为合作是一种选择,上汽不能自己关闭了这个机会之门。因为在上汽闷头搞全栈自研、搞车机互联的时候,很多车企已经把智能化部分交出去,把精力集中在自己擅长的部分搞发展,有些车企已经开始因此受益。 另外,在很多人看来,“灵魂论”本没有错,但上汽却不配谈及。 因为上汽目前尚未摆脱“合资依赖症”,这是客观事实。截止2023年,上汽连续18年成为国内汽车制造商销量第一,依靠的就是合资品牌。当孱弱的自主板块和高端新能源迟滞不前,合资的兴衰也便直接决定了上汽的强弱。 2018年,上汽三家合资子公司各自的200万辆年销量,托起上汽700万辆的一时无两,而随着合资阵营的衰落,上汽五年间的年销量下滑了200万辆,赚钱能力也连年下滑,相比已经弯道超车的其他头部自主车企,上汽相形见绌。 不仅如此,上汽下重注的智能化也没有得到好的发展,甚至传出相关智驾团队解散裁员的消息,旗下飞凡汽车和智己汽车也没有因为上汽对智能化的投入而不同,这是上汽需要考虑和解决的问题。 假如,我是说假如,如果上汽和华为合作能够助力上汽重返巅峰,我倒非常乐意看到这个合作的发生。即便是不选择华为,即便不从生态和智能化下手,上汽也需要抛弃所谓的“灵魂论”,做一些勇敢的尝试,以解决当前的经营难题。 毕竟,眼瞅着又要开股东大会了。
马斯克都在用的“减肥神药”增加阳痿风险?滥用现象普遍,代开代买涉嫌违法
记者 汤诗韵 几乎没有哪个减肥人可以抵抗“躺着就能瘦”的诱惑,司美格鲁肽因此走红。 这款原本用于糖尿病治疗的控糖药物,因减重功效闻名于世,特斯拉CEO马斯克还曾在社交媒体上亲自“带货”。在随处可见的网帖分享中,这是一种注射数次就能减重10来斤的神药。它上一次引发热议,是《热辣滚烫》上映时,瘦了100多斤的贾玲重现公众视野——有观点怀疑,贾玲暴瘦是这种药的功劳。 在国内,司美格鲁肽尚未获批减肥适应症。因此你会看到如下神奇的景象,一面是各种副作用和神奇功效的讨论分享,一面是网友在评论区转让、求药,滥用现象屡见不鲜。 “减肥神药”增加阳痿风险4.5倍?研究或有缺陷 据悉,司美格鲁肽是一种长效胰高血糖素样肽-1,也就是GLP-1类似物,可以帮助调节血糖水平和减轻食欲。该药物能够起到减肥效果的原理大致如此。 5月22日,发表在《Nature》子刊《国际阳痿研究杂志》上的一篇研究表明,服用司美格鲁肽的非糖尿病男性更容易出现勃起功能障碍(阳痿)。这里的对照组是未接受过司美格鲁肽处方的非糖尿病肥胖男性,服用司美格鲁肽组的阳痿比例相较对照组高了大约4.5倍。 但同时也有研究显示,GLP-1R激动剂可以增强患有2型糖尿病(T2D)和勃起功能障碍男性的勃起功能。换言之,GLP-1类药物可能有助于男性生殖系统。国内垂媒“一个生物狗的科普小园”同样撰文指出,前述阳痿风险研究缺陷很多,“关于用了司美格鲁肽到底行不行这件事上,应该是大家想多了。” 部分网站在搜索该关键词时会跳出就医提醒 关于司美格鲁肽的各种副作用,一直是社交网上热议的话题。 蓝鲸记者随机采访了多位用药者,他们大多表示该药见效显著,没有运动的情况下,一月内基本能实现减重10斤左右。 多位受访者同样表示,该药的效果因人而异,但多少会有一些副作用,比如恶心呕吐、没有精神等。有人坦言,这个药的机制就是让你没有食欲,吃点东西就恶心。“以前我能吃27盘旋转寿司,但回想起打药的几个月整个人晕晕乎乎,只记得非常难受。以前喜欢的东西让你感觉恶心,食物没办法给人带来欢愉了。”还有受访者透露,司美格鲁肽停药后很容易复胖,“要注意饮食,胡吃海喝的话很快就胖回来了。” 司美格鲁肽目前在国内的适应症只有2型糖尿病,因此用该药治疗肥胖仍属于超适应症用药。据央视新闻报道,盲目使用可能引发抑郁、低血糖、急性胰腺炎、胃瘫、肠瘫、肠梗阻等不良反应。 电商平台可轻易下单,存在代开代买现象 理论上,司美格鲁肽是开给糖尿病人的处方药。但非适用人群依旧可以通过医院开方以外的渠道获得这一药物用于减肥。 蓝鲸记者查询发现,一些主流电商平台均有司美格鲁肽售卖。1.5毫升规格的司美格鲁肽售价在490元左右,3毫升的一般在620~900元区间内,各链接销量从几十到近万单不等。前述部分价格略高于医院正规处方药,但较去年的电商售价已有所下降。 司美格鲁肽的商品详情页基本都会注明需要“开方购买”,但所谓的开方其实只是电子处方。点击开方后选择“2型糖尿病”(有且只有这一个选项),在线医生数秒内就会发来开好的处方,此外无需再提供其他问诊或确诊证明。值得一提的是,当买家咨询该药是否适用减肥时,商家一般会声明此系糖尿病用药,建议咨询医生遵医嘱。 漏洞依旧是存在的。 有用药者向记者透露,他没有糖尿病,但依旧可以从当地医院开方、走医保获得司美格鲁肽,“不过要多走几家,有些医院不给开。” 此外,相关网贴讨论区里,常常可以看见网友之间求药、转药。转让司美格鲁肽的原因各异,大多是自用多出来的、买了不敢用的、家里有糖尿病人,或者干脆有医院、药剂师和药代的资源。 国家医保局文章指出,2023年版国家医保药品目录规定只有用于治疗成人2型糖尿病时方可报销。司美格鲁肽目前是作为糖尿病治疗用药纳入医保目录中的,减肥不在支付范围以内,医保不能报销。因此,以糖尿病名义代开代买司美格鲁肽是不可取的。套取医保基金会受处罚,甚至可能违法。 社交网络上有大量转让、求药的现象 前述医院以外的流通渠道中,可能还会有一些回流药。而司美格鲁肽通常需要冷链运输,若运输要求无法得到充分保障,药效或将受到影响。更大的风险来自于假药。2022年11月和2023年1月,浙江诸暨市场监管局就先后查获使用、销售“司美格鲁肽”医美减肥针假药案,上游制假售假窝点涉案金额超亿元。 专利保护期将至,国产司美格鲁肽或将迎来白菜价 司美格鲁肽的滥用盲用,某种程度上体现出市场需求的旺盛。 目前司美格鲁肽尚无仿制药获批上市,仅诺和诺德一家在售。丹麦制药公司诺和诺德公布的2024年第一季度业绩显示,其王牌产品司美格鲁肽在三个月里卖出了439亿元,占总营收的65%左右。 诺和诺德旗下共有三款司美格鲁肽药物,分别为Ozempic(注射降糖药)、Wegovy(注射减重药)和Rybelsus(口服降糖药)。其中用于糖尿病人的针剂和口服药分别于2021年和今年1月在中国获批。据诺和诺德今年3月透露的消息,其适应减重的Wegovy有望于今年在中国获批上市。 值得注意的是,诺和诺德在中国的司美格鲁肽专利将于2026年到期,多家药企显然已经盯上这一赛道。根据野村东方国际证券研报数据测算,国内GLP-1行业即将步入收获期,降糖+减重2030 年市场规模有望达到1000 亿元。GLP-1针对糖尿病、超重、肥胖三种适应症的市场空间分别有望达到430亿元、150亿元、430亿元,空间巨大。 今年4月,九源基因司美格鲁肽注射液生物类似药(JY29-2)上市申请获得CDE受理,其成为国内首个申报上市的司美格鲁肽生物类似药。目前,国产药企司美格鲁肽进入三期临床阶段的还有成都倍特、爱美客、正大天晴、石药集团、四环医药等。 国产司美格鲁肽的竞速已经展开。垂媒丁香园分析称,仿制药由于可节约大量研发成本,价格往往较低。国产仿制箭在弦上,司美格鲁肽这款现象级药物的白菜价时代或将近在眼前。
智能体萌芽,商业齿轮要如何转动?
大模型要如何落地,业界的共识还没有完全形成,智能体是应用中备受期待的一种。自去年斯坦福和谷歌在一篇研究论文里面描述了生成式智能体(Generative Agents)的形态,这个概念就广受讨论。 近期更多大模型公司做起了智能体。5月30日腾讯推出的App元宝中,除了对话和搜索功能,智能体被放在一个重要入口。在此之前,国内布局智能体较早的是百度和字节,阿里也开源了多智能体编程框架与开发平台AgentScope。在5月30日的百度移动生态万象大会上,百度相关负责人表示,文心智能体平台已有超16万名开发者和超5万家企业入驻,且百度有意跑通开发者收益模式。 智能体会在大模型时代扮演什么角色、如何转动商业齿轮?这些问题至今仍未有最佳答案。记者与正在开发或已开发智能体的数名开发者交流了解到,企业开发者和个人开发者的诉求各异,未来各大模型厂商的竞争力如何,可能与厂商自身的互联网平台生态息息相关。 智能体萌芽 智能体的概念不难理解。斯坦福和谷歌的相关研究中,由25个智能体居民组成的虚拟小镇里,每个居民设定了基本信息,拥有性格和记忆,彼此之间可交互,这些居民展现出一些类似人类的行为。智能体可根据提示词或文字描述形成“人设”,背后依托生成式AI的能力。 在文心智能体平台,记者将智能体名称起为“健康助手”并将设定描述为“提供饮食相关建议”,便可进一步设置智能体,例如引导示例、基础配置或接入数据库,随后便可预览智能体。在元宝App创建个人智能体的流程也类似,记者输入智能体名称为“菜谱小助手”,将智能体设定描述为“菜谱专家,根据用户输入的食材或口味生成菜谱、指导做饭”,随后便生成了一个智能体,可以向智能体提问寻求菜谱建议。 元宝App和文心智能体平台生成的个人智能体,前者在审核中,后者为预览版 这些智能体以问答系统的形式呈现,相比普通的大模型问答系统,更聚焦解决具体领域的问题,有具体目标和任务。一些平台提供了用自然语言无代码和低代码方式创建智能体的选项。一名个人开发者向记者表示,他使用自然语言的方式开发智能体,这种方式类似一种提示词工程,用提示词的方式引导大模型输出,只要有创意,很快就能创建一个智能体。 厂商正在铺开智能体的应用。目前百度在百度搜索等旗下平台分发智能体,在字节Coze创建的问答Bot可分发至飞书、微信公众号等渠道。微软Microsoft Copilot Studio本月推出Agent代理功能,开发者可根据特定任务和功能,构建主动响应数据和事件的智能Copilot。腾讯则在5月17日推出智能体平台腾讯元器,将支持智能体分发至微信客服和QQ。 业界对智能体多有期待。中信证券近日研报指出,今年以来,谷歌、OpenAI等头部厂商模型技术路线更侧重于应用落地,原生多模态、长文本处理成为算法模型更新重点,AI Agent(智能体)作为当前语言模型应用落地的最佳形式,预计将迎来技术转折,距离AI Agents应用落地或需6~12个月时间。 如何落地? 智能体备受期待的同时,记者从数名开发者或合作企业负责人了解到,目前大模型厂商对于智能体要形成什么样的生态和商业闭环,还未完全确定。开发者的需求各异,智能体的基础能力也还有待提高。 一名终端设备厂商相关负责人告诉记者,公司与百度、字节等厂商合作创建智能体。与个人开发者用自然语言开发智能体不同,智能体要在商业场景落地要求严苛,要求回答专业准确,因此需要接入公司自己的知识库。对公司用户而言,创建智能体的过程并不是“一键生成”那么简单,即便是公司已有专业知识库,创建智能体的时间可能也要几个星期。要构建专业性较高的智能体,门槛还是存在的。 “我们看重百度智能体提供的平台,可以在百度搜索上看到我们的智能体,而且排列比较靠前。”以上负责人表示,若公司自己创建链接,不额外付费的情况下可能不会在搜索引擎页面排得很靠前。他认为,创建智能体的一大考虑是平台,例如百度可分发至搜索引擎、腾讯或许可以分发至微信。如果未来大模型厂商不再将智能体在相应互联网平台上优先推荐,或为此收费,吸引力会相应减少。 另一名终端设备厂商相关负责人表示,公司也在推进与大模型厂商的合作,他看中的不是这些大模型厂商提供的分发平台,而是智能体本身的能力,更希望智能体可以接入公司的服务体系中,而不是只搭载于大模型厂商的平台上。虽然公司也在做自己的大模型,但相对更偏向端侧应用,因此对其他大模型厂商的智能体感兴趣。“未来智能体会接入大模型厂商自有的渠道上,还是由他们提供API(接口),我们自己将智能体接入产品中,还没有完全确定。”该负责人表示,相应的商业模式也没有定下来,智能体生态还在初期。 对于智能体的商业化如何运转,多名开发者或合作企业负责人给出了自己的推测。 “以百度为例,未来越来越多智能体搭载于百度搜索上,可能会起到引流作用,可以从小红书等垂类App手中将一部分流量抢回来,有利于广告收入。”一名合作企业负责人表示,另有大模型厂商对智能体收费,目前业内对是否收费、如何收费还没有共识。 也有开发者告诉记者,他并未发现个人开发者的智能体产品会在大模型厂商的自有平台上优先推荐,或者说厂商旗下的多个平台的推荐机制不一样,推荐机制还未成熟。他认为,期待未来搜索引擎会优先推荐智能体并不现实,因为这影响到搜索引擎的使用体验。对个人开发者而言,或许可以将智能体看作“视频”,将大模型厂商看作“视频平台”,就像视频平台有收入分成计划,未来大模型厂商可能也会把广告收益分给开发者,个人开发者可以期待获得收入。 百度副总裁、百度搜索总经理赵世奇则在百度移动生态万象大会上表示,百度搜索是文心智能体流量源头之一,百度搜索正扩大适配场景,跑通开发者收益模式。 此外,记者从多名开发者了解到,目前大模型还面临幻觉问题,在创意类的智能体产品中表现不明显,但对商业场景影响较大,大模型本身还需继续完善。另有个人开发者告诉记者,将提示词复制到百度、字节、腾讯旗下多个平台便可以创建相似的智能体,智能体平台本身还不具备很强的黏性,另一个可能出现的困扰是,个人开发者创建智能体并不难,未来不排除出现创意被抄袭的情况,或可以通过版权保护等方式解决。
黄仁勋台北“夜宴”:哪些企业参与?都吃了啥?
△黄仁勋(中)与夫人Lori Huang(右)、台积电创办人张忠谋(左) 黄仁勋台北“夜宴”: 在2024台北电脑展前夕,英伟达(NVIDIA)CEO黄仁勋于5月30日晚宴请了众多台系供应链厂商高管,包括华硕、和硕、鸿海、纬创等业界领军企业代表,此次聚会旨在进一步加强与台湾地区在半导体和服务器代工领域的合作关系。 几乎所有的供应链伙伴都已露面,相当惊人。今晚主角黄仁勋也于晚间6点30分现身餐厅,现场也涌现大批粉丝围绕,兴奋拿出他写的书找他签名,他也一展亲切作风、逐一回应。 英伟达创始人黄仁勋与鸿海董事长刘扬伟合影。 黄仁勋在晚宴现场受到了粉丝的热烈欢迎,他亲切地与粉丝互动,并签名留念。当被问及是否会逛夜市时,他笑着表示当天将专注于晚宴,不会前往夜市。他强调自己看好中国台湾供应链的前景,并承诺将持续在中国台湾进行投资。 晚宴所在的“砖窑古早味怀旧餐厅”是当地知名的怀旧中式餐厅,黄仁勋为好友们准备了丰盛的菜肴和玉泉绍兴酒,每桌消费约人民币1,040元,7桌总计约人民币7276.5元。前一天晚上,黄仁勋还参加了由广达董事长林百里作东的晚宴,与台积电创办人张忠谋、联发科董事长蔡明介等业界大佬交流。 那些企业与了此次黄仁勋台北“夜宴” 5月30日晚,AI芯片大厂英伟达(NVIDIA)CEO黄仁勋宴请了众多台系供应链厂商高管。包括华硕董事长施崇棠、和硕董事长童子贤、鸿海董事长刘扬伟、纬创总经理林建勋、纬颖董事长洪丽宁、广达董事长林百里、云达(广达旗下服务器代工厂)总经理杨麒令、英业达董事长叶力诚、英业达总经理蔡枝安、台达电董事长郑平、宜鼎董事长简川胜、广运董事长谢清福及CEO谢明凯、中华电信董事长郭水义等,几乎囊括了整个台系服务器代工产业及台系PC代工厂。 以下是这些人员的简单介绍: 华硕董事长施崇棠:作为华硕电脑的创始人之一,施崇棠带领华硕在全球电脑硬件市场中占据重要地位,尤其在主板、显卡和笔记本电脑等领域享有盛誉。 和硕董事长童子贤:童子贤是和硕联合科技(Pegatron)的董事长,该公司是全球知名的电子产品代工厂商,为苹果、惠普、戴尔等品牌提供代工服务。 鸿海董事长刘扬伟:刘扬伟是鸿海精密工业股份有限公司(Foxconn)的董事长,鸿海是全球最大的电子制造服务(EMS)提供商之一,涉及消费电子、通讯、电脑等多个领域。 纬创总经理林建勋:林建勋是纬创资通股份有限公司(Wistron)的总经理,纬创是另一家重要的电子产品代工厂商,专注于消费电子、电脑和通讯产品的制造。 纬颖董事长洪丽宁:洪丽宁是纬颖股份有限公司(Wistron NeWeb)的董事长,该公司专注于电脑主板和相关电子产品的研发与制造。 广达董事长林百里:林百里是广达电脑股份有限公司(Quanta Computer)的董事长,广达是全球领先的笔记本电脑制造商之一,也涉足服务器、通讯和其他电子产品领域。 云达(广达旗下服务器代工厂)总经理杨麒令:作为广达电脑旗下的服务器代工厂,云达在服务器制造领域也拥有重要地位,杨麒令担任其总经理。 英业达董事长叶力诚:叶力诚是英业达股份有限公司(Inventec)的董事长,英业达是一家全球知名的电子产品制造商,产品涵盖笔记本电脑、服务器、通讯设备等多个领域。 英业达总经理蔡枝安:蔡枝安作为英业达的总经理,协助董事长叶力诚管理公司的日常运营和业务发展。 台达电董事长郑平:郑平是台达电子工业股份有限公司(Delta Electronics)的董事长,台达在电源管理、工业自动化、新能源等领域拥有领先技术。 宜鼎董事长简川胜:简川胜是宜鼎国际股份有限公司(Innodisk)的董事长,该公司专注于固态硬盘(SSD)和其他存储解决方案的研发与生产。 广运董事长谢清福及CEO谢明凯:谢清福是广运电脑股份有限公司(Compal Electronics)的董事长,谢明凯担任CEO。广运是全球知名的笔记本电脑和电子产品代工厂商。 中华电信董事长郭水义:郭水义是中华电信股份有限公司(Chunghwa Telecom)的董事长,中华电信是台湾的主要电信运营商之一。 这些高管几乎囊括了整个台系服务器代工产业及台系PC代工厂,他们的出席不仅体现了英伟达与台湾供应链厂商之间的紧密合作关系,也展示了台湾在全球电子制造领域的重要地位。 “美食家”黄仁勋,吃了啥? 芯片大厂英伟达(NVIDIA)CEO黄仁勋30日晚再次发挥自己美食家的本性,选择了位于松山区小巨蛋附近的一家怀旧台菜餐厅“砖窑古早味怀旧餐厅”来宴请供应链伙伴。大佬们的晚餐吃什么、到底是哪些料理让黄仁勋如此满意,也引发了市场关注。 据了解,黄仁勋此次共摆了7桌的酒席来宴请好友,而此次他也将自己爱吃的菜,通通都点了一遍,包括“豆酥鲈鱼620元、虾仁炒蛋320元、老皮嫩肉280元、芋头米粉汤880元、笋丝控肉360元、蚵仔酥300元、豆酥圆白菜300元、麻辣臭豆腐260元、白斩鸡580元、蛤蜊丝瓜280元”等,并且每桌都摆有玉泉绍兴酒一瓶200元、以及各式饮料,以及每桌10碗米饭共150元,小计每桌约4230元,再加上服务费10%,每桌约4653元(台币)。 英伟达创办人黄仁勋合影 黄仁勋接受记者采访 据了解,这家“砖窑古早味怀旧餐厅”为当地的知名怀旧中式餐厅,店内装潢以怀旧主题为主,整体气氛相当到位。而餐厅外墙由红砖瓦建构而成,门口走道上挂满了早期台湾的电影海报,用餐环境多为大圆桌,让每桌气氛都能像办桌一样澎湃热闹。而此次黄仁勋共摆7桌宴客,合计大约花费32571元,不过店家未公开包场费用,因此是否需另计就不得而知。
00后网红“王妈”塌房,现实版“霸总”背刺打工人
作者 | 西西 屠龙少女终成恶龙。 00后网红博主“王妈”王志欣塌房了;网友称“王妈“背刺打工人,一边吃打工人的饭,一边砸打工人的碗。 谁是“王妈”? 网红“王妈”是荒野文化旗下短视频账号“七颗猩猩“系列短视频中的爽文保姆形象。在短视频中,”王妈”重生在霸总小说,以“屠龙少女“的姿态打工,不当受气包、对老板翻白眼、整顿霸总职场,被网友誉为打工人“嘴替”。 从3月5日,《重生之我在霸总短剧里当保姆》第一集上线,抖音账号“七颗猩猩”便开始疯狂涨粉。 据新榜数据显示,“七颗猩猩”在3月涨粉126万、小红书涨粉42万、B站涨粉26万;全网涨粉300万。 但是,在短视频中吐槽霸总的王妈,在现实中却成为真的无情“霸总“,表面上与打工人共情,现实里背刺打工人。 起因在于,有网友爆料称,“王妈”所在的武汉荒野文化传媒有限公司,在招聘过程中存在设置大小周、工资低、任务过重等问题,引发公众对公司管理和员工待遇的质疑。 此后,媒体陆续跟进,成立于2022年2月14日的王妈公司,社保信息页面显示2022年及2023年参保人数均为0。 硬币的另一面,却是“王妈“公司对应现实中的赚钱霸总。 据抖音官方统计工具显示,从3月5日王妈系列的首集发布,到3月19日接到第一个商单植入,该账号只用了15天时间,26集中共有16个广告植入。 星图数据显示,七颗猩猩20秒内的广告视频报价45万元,21-60秒视频报价是50万,60秒以上视频报价60万元。 由此粗略计算,“王妈“团队两个月的广告收入就高达960万。 而截至目前,荒野文化旗下账号在全网已经拥有了超4500万的粉丝量级。 针对网友的质疑,王妈所属的武汉荒野文化传媒有限公司承认了之前存在的大小周、试用期社保缺失等问题,并宣布已调整为双休制,试用期开始缴纳社保,同时将员工薪资底线提升至每月6000元。 持续争议的焦点在于,公司虽然作出回应和调整,但这些改变是在舆论的压力下被迫进行的,而且是事后的弥补,并不能完全消除之前的负面影响。 “王妈“塌房事件不仅是一个网红形象受损,它背后折射出当代打工人的职场困境。有媒体评论称:“反霸总“网红王妈翻车,谁才能真正共情小人物? 在短视频中,“王妈”表现出的对打工人困境的理解和同情,很大程度上赢得打工人群体的喜爱和支持。然而,现实中的情况与其在视频中传达的价值观产生了巨大的反差,这种反差使得许多原本支持她的打工人,在心理上感到被欺骗和背叛,从而对其产生极大的失望和愤怒。 出来混总是要还的,剧本与现场的极强的割裂感之下,王妈塌房! 这位00后网红享受过流量盛宴的巨大红利,也难逃“流量反噬“的魔咒。 但是,互联网流量池也是一个个轮回;“王妈“塌房之后,还会有“赵妈“、”李妈“……
TikTok聚焦美国以挫败禁令 电商业务暂停进军欧洲
图注:TikTok 凤凰网科技讯 北京时间5月31日,TikTok已经暂停了在欧洲主要市场推出其快速增长的电商业务的计划,转而专注于在美国的增长。眼下,TikTok在美国正与一项“不卖就禁”的法律作斗争。 据知情人士透露,TikTok已经搁置了在西班牙、德国、意大利、法国和爱尔兰推出其购物平台的计划,该应用原计划最早于今年7月在这些市场上线电商功能。TikTok还暂停了在墨西哥和巴西推出电商功能的计划。目前还不清楚TikTok母公司字节跳动是否或何时会选择恢复这一计划。 此举可能会令上述地区的许多商家感到意外,反映出字节跳动现在的目标是巩固自身在美国的地位,以此向美国国内商家和消费者证明自己的价值。知情人士称,字节跳动的领导层希望专注于其最赚钱的市场美国,以挫败美国可能出台的一项禁令,该禁令阻碍了一些商家入驻TikTok。目前,TikTok在美国的月用户达到1.7亿。 TikTok发言人拒绝就电商业务的暂停在上述地区推出发表评论,并表示该公司“以需求为导向”。“我们已经看到了TikTok电商业务产生的积极影响,我们很高兴能继续尝试这个新的商业机会。”该发言人表示。 根据媒体此前报道,TikTok已设定目标,将今年美国的商品交易额提高九倍至175亿美元。知情人士表示,重要的是,管理层还认识到,全面向欧洲扩张可能会招致与美国类似的监管审查。 美欧挑战 TikTok电商将令人上瘾的视频内容与视觉购物冲动结合起来,是该应用增长最快的功能。通过结合吸引眼球的视频、受欢迎的网红和全面电商业务,TikTok电商实现了与Instagram、YouTube等竞争对手的差异化,并为它对抗亚马逊公司开辟了一条道路。TikTok的模板是字节跳动旗下中文版短视频应用抖音,后者如今是中国最大的电商平台之一。借助这种模式,TikTok电商在东南亚取得了成功,然后在去年的假日季及时在美国推出。 不过,它的扩张也不是一帆风顺。 TikTok电商最早于2021年在英国推出,在中国出口商的廉价商品涌入英国市场后,人们对它的评价褒贬不一。此后,TikTok更多地依赖当地知名品牌打开市场。 在美国,TikTok面临的更大直接威胁来自华盛顿。今年5月,TikTok和字节跳动起诉美国政府,希望阻止拜登签署的TikTok剥离法律生效。该法律要求TikTok在明年1月19日之前剥离美国业务,否则在美国就会面临被禁的命运。字节跳动已表示,剥离TikTok美国业务“在商业上、技术上或法律上都是不可行的”。 最近几周,TikTok提高了补贴和其他激励的力度,以加强其美国电商业务。它将希望加入其联盟计划的创作者门槛从5000粉丝降至1000粉丝。联盟计划的会员可以发布视频,宣传在TikTok电商平台销售的产品,并从他们产生的销售中收取佣金。 与此同时,TikTok正在接受欧盟的一项调查,调查内容是其在法国和西班牙推出的轻量版应用TikTok Lite是否有引发上瘾的风险。TikTok Lite承诺,只要用户继续滚动浏览其内容,就会通过积分系统向用户支付现金,这在中国是一种常见的营销策略。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
OpenAI被曝重组计划!与苹果达成关键协议,微软谷歌哭晕
编译 | Alyssa 编辑 | Panken 智东西5月31日消息,据美国媒体The Information周四报道,OpenAI成功与苹果公司达成了一项关键协议,涉及将ChatGPT集成到iOS及其他操作系统中。 不过微软未必喜欢OpenAI与苹果的合作。据知情人士透露,近期OpenAI联合创始人兼CEO萨姆·阿尔特曼与微软董事长兼CEO萨提亚·纳德拉见面,讨论了微软对苹果交易如何影响到微软自身产品的担忧。 自去年OpenAI突发罢免CEO阿尔特曼事件至今,7个月的时间,阿尔特曼已经基本上排除异己,牢牢掌握话语权。与苹果的交易可能会为OpenAI带来数十亿美元收益,甚至撼动苹果与谷歌的长期联盟关系。 此外,阿尔特曼被曝正在考虑重组OpenAI结构,曾讨论将OpenAI转变成更接近常规公司的实体,可能是转变成营利性公司,也可能是效仿一些其他大模型公司变成营利性公益公司的形式。 与此同时,OpenAI团队坚信其正训练的最新大语言模型将远超现有最佳模型。 01  不顾AI高管反对,苹果确定借OpenAI升级Siri 长久以来,阿尔特曼一直渴望再次与苹果合作。作为移动应用创业者,阿尔特曼在2008年的苹果年度开发者大会上与史蒂夫·乔布斯(Steve Jobs)同台,成为极少数获此殊荣的应用开发者之一。 然而,在向苹果示好时,阿尔特曼不得不克服苹果内部的疑虑。一些苹果高管,尤其是机器学习部门负责人约翰·詹南德里亚(John Giannandrea),历来对聊天机器人持保留态度。2023年初,OpenAI开发的聊天机器人ChatGPT爆红后,有员工询问苹果是否会开发类似产品,詹南德里亚在内部全员会议上提到,“人们最不需要的就是另一个聊天机器人”。 2023年中旬,苹果系统智能与机器学习团队(负责计算机视觉、文本分析和自然语言等功能)的成员与阿尔特曼及OpenAI的其他成员会面,具体内容未公开。但同年,苹果与OpenAI达成协议,通过应用程序接口(API)为苹果员工提供OpenAI对话式AI的内部测试访问权限。 在测试中,苹果工程师将ChatGPT与Siri相连,展示了Siri处理更复杂查询的能力提升,包括更好地理解用户语境。 苹果如何利用OpenAI技术尚不明确,但据知情人士透露,苹果尚未开发出与OpenAI和谷歌比肩的大语言模型。有消息称,苹果考虑在Siri中使用OpenAI技术以回答原本无法独立解答的复杂问题,还讨论了推出类似ChatGPT的聊天机器人应用的可能性。 OpenAI最近公开展示的AI语音助手,部分目的是向苹果展示其技术如何使Siri更灵敏和更有互动性,能够快速翻译、搜索信息或娱乐用户。新合作确保苹果在语音成为人机交互主要模式时不会落后,也不至于因谷歌在Android设备上集成与之竞争的对话式AI功能而被三星或谷歌自家Pixel设备抢夺市场份额。 无论苹果如何运用OpenAI技术,都可能像Siri引导某些查询至谷歌搜索一样,明确告知用户信息由OpenAI提供。因为ChatGPT等聊天机器人仍会出现错误,即所谓的“幻觉”,苹果不愿品牌形象因此受损。 与苹果合作对OpenAI而言日益显得至关重要。微软向其企业软件和云客户转售OpenAI技术,使得OpenAI建立自身的销售业务更为困难。接触数十亿苹果移动设备用户则可为OpenAI开辟新的业务增长途径。 02  传阿尔特曼筹谋重组OpenAI:或将爆改成营利性公司 今年,阿尔特曼的另一项优先任务是对OpenAI进行重组。OpenAI目前拥有一个奇特的架构,即营利部门受非营利机构管理。非营利部门的使命是开发通用人工智能以“造福全人类”,而营利部门则近乎成为一个年收入数十亿美元的企业,并承诺向微软等投资者分配理论上的利润。当前,由于营利业务的存在,这种双轨制组织可能面临税收相关的疑问。(OpenAI刚聘请了前生物技术研究公司税务副总裁斯蒂芬·博诺维奇Stephen Bonovich。) 据与阿尔特曼交谈的人士透露,他曾讨论将OpenAI转变成更接近常规公司的实体。一种可能是将非营利部分转化为营利公司,尽管目前还不清楚阿尔特曼是否会最终决定采取这一方向。 另一种选择是效仿Anthropic和埃隆·马斯克(Elon Musk)的xAI等其他AI大模型公司,这些公司都是作为营利性的公益公司成立的,这意味着它们可以将对社会产生积极影响置于对股东义务之上。公益公司依法受到保护,免受少数股东因公司做出不一定优先考虑股东回报的决策而提起诉讼的影响。 然而,尚不清楚阿尔特曼将如何调和新的公司结构与其去年发表的言论,即“人类”应通过一种新的结构最终控制OpenAI。但转变为营利性的OpenAI可能使阿尔特曼更容易吸引所需的最高可达1000亿美元的资金。无论如何,OpenAI董事会仍在寻求更多成员,因此结构调整可能需要数月时间。 退休的公司治理教授查尔斯·埃尔森(Charles Elson)曾服务于非营利组织和营利组织董事会,他说道,OpenAI“非常奇怪的结构”需要改变,因为其两个部分的使命相互冲突。比如,“改善社会”的非营利使命可能导致OpenAI决定不按承诺为股东创造利润。“它要么是营利性的,要么不是。你不能既是又非,同时‘服务两位有着不同目标的主人’。”埃尔森说道。 值得注意的是,阿尔特曼在启动营利部门时并未持有OpenAI的股份。这反映了OpenAI的一项政策,该政策旨在限制这家非营利组织的董事会成员同时拥有公司经济利益,以免影响他们对技术的决策。经过重组,如果满足某些投资者的要求,阿尔特曼最终将获得股份。 03  阿尔特曼虽面临诸多争议,权力却日益增长 去年,OpenAI董事会短暂罢免了首席执行官萨姆·阿尔特曼(Sam Altman)。然而,几天后重返职位的阿尔特曼,非但没有被限制,他的影响力反而变得前所未有的强大。他在OpenAI内部的主要对手要么辞职,要么被赶出了公司。 近期OpenAI与苹果的合作,不仅有可能为OpenAI带来数十亿美元的收益,长远来看,还有助于提升OpenAI在科技行业的地位,甚至可能替代苹果与谷歌长期的合作关系。谷歌是OpenAI的主要竞争对手,目前负责苹果Safari浏览器的搜索,这对保持谷歌的搜索垄断地位至关重要。 此外,阿尔特曼还在筹备两个新项目:一是尝试打造AI服务器芯片工厂,二是开发搭载AI的个人设备,如配备前向摄像头的耳机,旨在模仿电影《她》中的AI伴侣,该项目得到了前苹果设计师乔纳森·艾维(Jony Ive)的支持。这些外部项目或将增强他在OpenAI的影响力,并让OpenAI持有合资企业股份。 尽管如此,阿尔特曼仍面临挑战,包括与关注技术安全的员工之间的分歧,以及与微软合作关系的复杂化,特别是在与苹果合作后。 据一位与阿尔特曼和纳德拉交谈过的人士透露,阿尔特曼最近与微软首席执行官萨蒂亚·纳德拉(Satya Nadella)会面,讨论了微软对苹果交易可能会如何影响这家云软件巨头自身产品野心的担忧。其中一位知情人士说,两位高管还讨论了微软需要怎样的服务器来应对苹果使用OpenAI服务的问题。 近期,阿尔特曼还因处理不当明星声音模拟事件和员工离职协议争议而受到信任危机。 美国知名女演员斯嘉丽·约翰逊上周公开抱怨说,去年她拒绝了阿尔特曼为OpenAI新语音助手配音的邀请,但OpenAI还是发布了类似音色的语音选项。 阿尔特曼说,这个声音不应该像约翰逊的声音,尽管他早些时候宣称OpenAI的语音助手类似于“她”——这是指约翰逊在电影《她》中扮演的基于语音的AI伴侣。 阿尔特曼也让员工感到失望,因为他说他不知道离职的OpenAI员工被要求签署一项“同意永远不会说公司的坏话”的条款。阿尔特曼上周回应道,他对这一事件感到“尴尬”,并将撤销该条款。 但阿尔特曼日益增长的权力似乎让他得以应对这些挑战。 04  OpenAI从非营利到营利,正重塑科技行业格局 自九年前成立以来,阿尔特曼已将OpenAI转变为一家估值约900亿美元的先锋企业,这与OpenAI作为非营利AI研究实验室的初始定位相去甚远。成立之初,OpenAI的领导者虽不确定具体研发方向,但旨在抗衡谷歌等少数大公司垄断AI人才的局面。 为筹集研究资金,阿尔特曼于2019年增设了营利性部门。自2022年起,OpenAI的产品能自动化软件编程部分流程、总结和分析大量文本、依据简单描述生成图像和视频。近期展示的新一代AI语音助手或成为通用翻译器、自动辅导工具及数字客服的雏形。至去年年底,OpenAI每月通过技术授权产生的收入超过1.4亿美元。 围绕ChatGPT及其他产品的交易风暴,阿尔特曼正重塑科技行业内外的格局。多数软件企业要么从OpenAI等少数竞争对手处获得对话式AI授权以更新产品功能,要么自主研发此类技术。 微软承诺投入130亿美元,换取未来利润分成及在微软产品中使用OpenAI技术的权利,同时向其他应用开发者销售该技术。ChatGPT问世前,微软已是全球第二高市值公司,而此合作及初期为微软业务带来的收益增长,助其股价在过去18个月飙升68%,市值跃居首位。 尽管谷歌的技术仍在不断试错阶段,微软与OpenAI的合作已经迫使谷歌开始转型,尝试将其对话式AI融入所有产品中,也包括搜索领域。 05  结语:苹果与OpenAI强强联合,新一轮AI竞赛正在开启 在生成式AI领域,OpenAI无疑有着先发优势,而苹果坐拥数十亿移动设备用户,若有了ChatGPT加持,有望后来居上,获得更大增长机会。 微软试图利用OpenAI技术在消费者市场取得突破,而苹果的合作可能会妨碍这一进程。但从积极的一面看,如果苹果采用OpenAI技术,微软将获得更多的云收入,因为OpenAI付费从微软的数据中心运行其对话式AI。 但对于所有AI领域的厂商来说,新一轮战争开始了。
特朗普和富士康一起忽悠了全美国?
近日,美国总统拜登宣布一个大消息,原富士康威斯康星州工厂将改建为微软的AI数据中心。 这不对呀! 七年前,美国人在这片土地上兴奋难当。特朗普拉着郭台铭的手大声疾呼:这是威斯康星州的光荣,美国制造业回流形势一片大好,美国梦正在以新的方式实现! 可是换了一任总统之后,富士康超级工厂改微软研发中心了?美国人民上当受骗了?许诺的一条没没实现,郭台铭狠狠摆了美国人一道? 这事儿,说来话长。七年前,特朗普总统在大力推动制造业回流美国。逻辑很简单,产能中国有,难道美国就没有? 总统和政客们一起想当然,特朗普承诺富士康,只要在美国建设新工厂,解决就业,美国政府可以为富士康提供30亿美元的税收优惠。 威斯康星州的州长也很激动,全球第一大代工厂能来?这就业颓势不就一把盘活了?于是州长同志铆足了劲,承诺可以为富士康的美国工厂配套建设高速公路、输电网络。 特批7亿多美元用以建设工厂,周边的基础设施建设进行全面升级,投资3亿美元以上。 至于,工厂建设需要的大量用地,当地政府来搞定拆迁,富士康完全不用管。直接是一副为了迎接富士康到来,一切都让路的架势。 此外,威斯康星州政府一共清理出来3000英亩的土地,也给出了美国联邦政府能够给外国公司的最高补贴。 饼画得很好,郭台铭砰然心动,随后富士康宣布,将投资100亿美元,在美国密歇根湖畔建设超级液晶面板工厂,并有志于为康州新增1.3万个工人岗位。 看起来形势一片大好,不是小好,如能顺利实现,大家都开心。也将是特朗普制造业回流计划的浓墨重彩的一笔,同时也是外资公司在美国的最大投资。 一看未来,充满了畅想,特朗普直接出席了富士康的签约仪式,并且当场发飙了热情洋溢的演讲:“对于美国工人和制造业来说,这是一个伟大的日子!” 后来,特朗普还觉得不过瘾,在次年的项目动工奠基仪式上,特朗普还专门赶到现场添土。并且激动的称之为,新建的富士康制造园区是世界第八大奇迹。 好吧,第八大奇迹这个名头要被用烂了。 01 富士康大骗局? 果然,奇迹没出现,事情出现了新变化。 7年过后,当年目标宏伟的第八大奇迹,如今落地在实际上,只有稀稀拉拉的几座建筑,新建的道路上人烟稀少。 整个园区的工人数量在1000人左右。美国媒体们纷纷高呼:“富士康投资计划,就是本世纪最大骗局。” 拜登来到这脸烂尾工程,直接出口讥讽说到:威斯康星州用金色铲子给自己挖了个洞,还一头栽了进去。 不过,更让人遗憾的是,缩水的不止是表面。 实际上,富士康计划投资的100亿美元,已经缩水到10亿美元,原来的雄心壮志变成了就招来了1000多工人,规模还不如曹德旺最早来美国的时候。 富士康,真狠狠摆了美国人一道? 他倒是不敢,富士康也不是不努力。但随着规划落到实处时,问题出现了。富士康在中国很吃香,是因为产业集聚效应明显,供应链上下游配合紧密,极大提高生产效率。 到了美国,全然不是那么回事儿,威斯康星州的当地产业分布和富士康想做的电视面板压根儿就没关系。 于是,来了只能各种成本急剧上升,这也能忍忍,大不了做拓荒者。更大的问题是招不到合适的工人。 计划到美国开厂不久,富士康就办了大型公开招聘会。效果非常显著,一通宣传搞下来,最后只有300人去面试。在当地压根儿就找不到合格的工程师和熟练的产业工人。 富士康不得不想尽各种办法的捞人,甚至从中国公司外派员工到美国去支援。老郭很受伤:在美国,压根儿就招不到工人。 坏事总在接连发生,产业链配套不齐全,工人招不上来生产工艺自然就上不去,别说干什么10.5代液晶面板了,第六代都够呛。 眼看着富士康许诺的一切都成了空头支票,威斯康星州政府也很生气。上一任州长卸任之后,新州长直接发难,以富士康未能履行诺言招募足够的工人为由,拒绝对富士康进行减税补贴。 更是进一步要求要重新签订协议。 威斯康星州为了富士康能来至少付出了5亿美元的基建投资,还亲自出马搞定了拆迁问题,显然,他们急迫的想要富士康兑现诺言。 但不是“阿康”不努力,实在是美国人人民不愿意再挣血汗钱。这时候,富士康的美国建厂扩建计划事实上已经进入进退维谷境地。 01 美国人的坏消息 但是着急的不止是郭台铭,特朗普更着急,且亲自和郭台铭面谈,安抚住了富士康,谈完还开心的发了个推特: “和我谈完,富士康就传出了好消息。” 但是,该解决的问题,还是原地踏步,一个都没进展。富士康不得不接受了现实,富士康的电视液晶面板在美国压根就没有市场,质量和工艺相对落后,价格又上来了,还怎么竞争? 紧接着,特朗普也从白宫退休下台。 最终,富士康的美国建厂之旅折戟沉沙,成了一块美国版制造业回流计划的遮羞布。 恢复制造业的荣光几乎和让美国再次伟大捆绑了起来,成为几代美国总统共同的目标,从奥巴马起算,历届政府都不遗余力地推进此事。 但是,随着美国产业空心化和金融资本主义的空前崛起。 今天的美国早已不屑于在生产线上踏踏实实的打螺丝,这才出现了今天波音飞机出事还得求助于日本和韩国。在大型造船业的某些领域,中国企业迎头赶上。 美国政府比谁都着急,但是,也只能记得团团转。工业制造能力,一旦丢下去,再捡起来就非常难。 或者说,即使各种招商引资计划在一开始雄心勃勃,但是,在实际的头破血流面前也不得不重新寻回出路。 美国人已经习惯了经济全球化和全球产业分工的顶层地位带来的巨大利好,再让美国人们做回上世纪的美国工人,不可能,绝对不可能。 一如,在富士康的威斯康星州工厂的项目奠基仪式上,特朗普满怀深情地说到:“太不可思议了!18个月前,这里还是一片农田。现在,它是世界上最先进的地方之一。” 但是,今天,富士康直接出售掉了原本作为“富士康美国总部“规划使用的两栋大楼,同时微软在计划富士美国工厂原址上投资33亿美元,建设一个AI数据中心。 折腾了七年,一切回到了原点,富士康威斯康星州超级工厂彻底成为一场大骗局。 只不过,这场大骗局的任何一个参与方都曾付出了巨大的努力。
谷歌:正在修复“吃胶水”等奇怪AI摘要,数据空缺及“恶搞”系主因
IT之家 5 月 31 日消息,谷歌搜索部门主管 Liz Reid 当地时间 30 日发长文,针对近期出现的 AI Overviews 搜索给出的重大事实错误内容作进一步的回应。 Liz Reid 解释说,诸如“吃胶水”“吃石头”等奇怪的建议,是数据空缺和用户的“恶搞”所造成的。“此外,还有大量伪造的截图被广泛传播,其中一些伪造的结果显而易见且十分愚蠢。另一些则暗示我们为诸如将狗留在车内、孕妇吸烟和抑郁症等话题提供了危险的结果。这些 AI 概述从未出现过。因此,我们鼓励任何遇到这些截图的人亲自进行搜索以进行验证。” 例如“我应该吃多少块石头”的回答,Liz Reid 表示,在这些截图广为流传之前,几乎没有人问过谷歌这个问题。有的错误建议则是来自论坛内的“讽刺或恶意”内容。她表示,论坛通常是真实、第一手信息的绝佳来源,但在某些情况下,可能会给出不太有用的建议,例如用胶水将奶酪粘到披萨上。 Liz Reid 宣布,将持续改进其 AI 搜索功能。 针对不应显示人工智能概览的无意义查询构建了更好的检测机制,并限制了讽刺和幽默内容的收录。 更新了系统,限制在回复中使用用户生成的内容,以免提供误导性的建议。 对于 AI 概述无法提供有效帮助的查询,增加了触发限制。 对于新闻和健康等主题设置了严格的防护措施。例如对于时效性和真实性至关重要的硬新闻主题,就不会显示人工智能概述。健康方面,谷歌则推出了额外的触发优化措施,以加强质量保护。 Liz Reid 表示,除了这些改进之外,还会时刻关注反馈和外部报告,并对少数违反内容政策的 AI 概述采取行动 —— 这意味着概述中包含可能有害、淫秽或其他违规的信息。 IT之家附前情提要: 有网友在谷歌搜索寻找“芝士和披萨粘不到一块”的解决办法。AI 直接在顶部给出总结指导,看似有模有样,其中一条步骤为“你还可以把 1/8 杯的无毒胶水加到酱料里,让其更黏。”
大模型风起云涌,向量数据库终有“用武之地”?
每逢淘金热,最后的赢家都是卖铲人,而非淘金者。在近两年的大模型风口下,向量数据库就成了这把铲子。 随着大模型快速发展,向量数据库正在成为企业便捷使用大模型、最大化发挥数据价值的关键工具。据IDC调查数据显示,全球在AI技术和服务上的支出2023年将达到1540亿美元,到2026年将超过3000亿美元。其中,向量数据库为AI的开发、增强内容生成的准确性提供了重要技术支撑。 在今年数据库领域所有的技术趋势中,向量数据库无疑成为了最受资本热捧的一个。随着5月份大模型厂商掀起一轮又一轮价格战,接连调低大模型API的价格,高性价比的大模型+向量数据库,在行业应用、企业市场又显现出了商业价值。 为什么向量数据库会随着大模型的发展而爆发?它又将给AI行业带来怎样的机会? 大模型的必经之路 首先,我们需要厘清向量数据库在大模型当中扮演了什么角色。 大模型解决的是计算问题,而向量数据库则解决存储问题。这是从2023年初向量数据库崛起开始,至今为止行业内公认的看法。 人们常常把大语言模型比喻成大脑,但这是一个被切除了颞叶的大脑,缺乏记忆,并且常常出现幻觉。为了解决这些问题,常常需要借助向量数据库。 现实生活中两人进行对话,大致需要三步流程:一方首先抛出话题作引子;另一方会先调动记忆判断自己是否了解这个话题,然后再分析给出应该做出何种回答。如此循环往复直到互动结束。 为让计算机完成这样的互动过程,并持续在一对一或一对多的情况下变成日常,AI科学家提出了CVP结构,即“ChatGPT(以ChatGPT为代表的大模型)+Vector Database(向量数据库)+Prompt(提示词)”,分别承担计算机分析、记忆、引子的功能。 放到大模型上,针对其有可能出现的幻觉问题,可以将所需领域的专业知识存入向量数据库,当要prompt时,系统自动的从向量数据库中根据相似度查找最相关的专业知识,把这些知识和你的提示词一同提交给大模型,这样就可以有效减少幻觉的出现。记忆的问题也类似,可以选择把部分你和大模型的聊天记录存入向量数据库。这是向量数据库近期出现热度的原因。 向量数据库和传统数据库的不同点之一是,传统的数据库只能处理计算机容易了解和处理的数据、字符串等结构化数据,通过点查和范围查进行精确匹配,输出只有符合查询条件和不符合条件的答案,而向量数据库处理的是各种AI应用产生的非结构化数据,通过近似查进行模糊匹配,输出的是概率上的提供相对最符合条件的答案,而非精确的标准答案。 以OpenAI背后的GPT模型预训练所用的数据为例,GPT-3.5的“知识库”共包含3000亿单词的数据,汇聚了来自开源语料库、维基百科、各类图书与新闻报道、Reddit与Twitter平台文章等大量互联网文本数据。GPT-4在此基础上体量更大,且为了支持多模态专门收集各类图像、视频素材,这其中非结构化数据应占有极大比重。 正如冰山效应所喻示的“巨大的冰山往往是八分之一浮在水面上,八分之七沉没在水面之下”,真实世界中绝约80%的数据都为非结构化数据,只有约20%的数据是结构化数据。非结构化数据结构复杂且难处理,反而导致有效利用率远低于结构化数据。因此,打造面向非结构化数据的向量数据库也变成了一场从0到1的拓荒。 近年来,一些数据库厂商已经开始原生支持向量嵌入和向量搜索的功能,并提供了相应的向量索引和查询优化技术。这使得开发人员能够更方便地在数据库中存储和查询向量数据,而无需依赖额外的工具或库。 除了大语言模型的推动外,向量数据库在自身技术上也取得了重大突破,特别是在性能优化、数据处理能力和安全性方面。各数据库厂商和研究机构都在致力于改进向量数据库的算法和架构,以提高其处理大规模数据的能力。 ChatGPT的爆发彻底改变了向量数据库的发展速度。2023年3月,在英伟达全球开发者大会上,CEO黄仁勋力挺向量数据库对构建专有大型语言模型的重要价值,“向量数据库的一个新型重要用例是大型语言模型,在文本生成过程中可用于检索领域特定事实或专有事实。英伟达将推出一个新的库,即RAFT,用于加速索引、数据加载和近邻检索。我们正在将RAFT的加速引入到Meta的AI向量相似性搜索FAISS、Milvus开源向量数据库以及Redis。”他如是说。 在资本市场,近一年来向量数据库是当之无愧的“资本宠儿”,Qdrant、Chroma、Weaviate先后获得融资,成立短短几年的Pinecone宣布1亿美元B轮融资,估值达到7.5亿美元。可见,无论从技术演进还是资本市场来看,向量数据库都是这两年最亮眼的技术。 向量数据库的商业化探索 在大模型兴起之前,传统数据库已经在不断尝试与AI结合,主要涉及以下几个方向:AI for DB、DB for AI、预测估算。随着大模型的兴起,可以看到在这些方向上,数据库与AI间的关联比以往任何时候都要密切。 在“AI for DB”方面,将AI技术嵌入到传统数据库中,使其具备更智能的功能。例如,通过大模型,数据库可以实现更高级的数据分析、智能搜索和推荐等功能。AI技术的应用使得数据库能够更好地理解和处理数据,提供更精确的查询结果和分析报告。 对于“DB for AI”方面,传统数据库可以为大模型提供结构化数据和非结构化数据高效的存储和查询能力。由于大模型通常需要处理大规模的数据,传统数据库的可伸缩性和性能变得尤为重要。数据库可以通过融合查询和差异化存储等技术,提供快速的数据访问和处理能力,满足大模型对数据的高效需求。 此外,大模型的兴起还为数据库注入了预测估算的能力。大模型可以通过学习历史数据和模式,对未来的趋势和结果进行预测和估算。传统数据库可以集成模型,实现对数据的预测分析。这使得数据库可以不仅提供对历史数据的查询和分析,还能够提供对未来数据的预测和估算结果,帮助用户做出更准确的决策。 事实上,不仅是大模型厂商,云计算厂商凭借在AI基础设施、商业生态、市场规模效应方面的已有优势,也开始聚焦向量数据库市场进行各种技术和商业化尝试,这些尝试或许会让向量数据库加速走向商业成功。 首先,多元化部署能力。垂直行业大模型,数据都是私有机密的,客户一般不愿意放到公有云上,这对一部分支持混合多云的云厂商是一大利好,通过私有部署、分布式、混合云等多种方案,打消行业客户将数据放到云端的现实疑虑。 其次,一体化AI能力。向量数据库的火爆,本质是由AI驱动的,而AI Native时代的数据工程,还有许多复杂问题尚待解决,比如检索效率,在处理大规模数据的并行任务时,保持快速响应时间是一个挑战,需要优化索引结构和搜索算法;高负载下的系统稳定性,需要确保数据库系统具备高可用性和容错能力,防止服务中断;存储海量的向量数据,成本效益比要进一步优化……目前来看,云厂商具备从底层算力集群、Maas模型平台到全栈工具链的AI能力,有望通过技术协同创新,持续优化向量数据库的性能和成本。 第三,产业服务能力。各行业对AI与业务的结合热情高涨,但大多还处于尝试探索期,需要结合自身场景、AI应用、IT设施等多种因素试错并迭代。这个过程中,随叫随到、帮助客户及时解决问题的ToB服务能力,也是非常看重的。深耕产业的公有云,有望降低很多企业在AI技术革命中的机会成本。 从某种程度上而言,无论是向量数据库,还是大模型,归根结底,人们在追捧它时的心态,焦虑大于需求。而这种焦虑则来源于“害怕被落下”。 而向量数据库的热潮,在一定程度上外化了人们的焦虑。但这并不能否定向量数据库的实际价值,甚至更长远的价值。 虽然,目前向量数据库仍处于发展初期,但可以确定的是,向量数据库与大模型一定是捆绑关系。因此,未来其演进方向也一定随着大模型能力的演进而发生变化。 不可否认的是,向量数据库的未来有星辰大海,也有曲折的前路。背靠大模型,向量数据库成为资本追捧的“宠儿”。然而,在未来的AGI时代,向量数据库还有更多实事要干。
学而思学习机智能助手“小思”升级:新增作业模式、圈圈学等功能
凤凰网科技讯(作者/刘俣辰)5月31日,学而思学习机内置智能助手“小思”正式全新升级,新增了作业模式、圈圈学、AI口语分级练、小思对话等AI功能,在多个学习场景中为孩子和家长提供帮助。 据介绍,小思作业模式有多样化的作业布置方式,可以自己拍照添加,也可以喊家长通过家长端添加;在开始写作业之后,会有任务计时、背景轻音乐,打造高效自学的绿色学习环境。写完之后,可以拍照提交作业,同步到家长端。 除了专注场景,作业模式还提供了多款实用工具。如果写作业过程中遇到不懂的问题,随时可以呼唤“小思小思”,比如不认识的字和单词,小思可以给出提示,如果数学题不会,小思会给出思路引导并进行主动提问,帮助孩子解决问题。听写背诵、口算批改等原本需要家长参与的任务。 此外,在家长端,有视频伴学、作业报告分析等多项功能,让家长实现远程伴学,帮助留守儿童、老人带娃、父母工作繁忙孩子独立学习的家庭获得教育与陪伴。 同时,除了作业模式,小思伴学还新增了“小思圈圈学”功能和AI口语分级练。据悉,“小思圈圈学”是学而思学习机开发的创新式屏上答疑方案,随时随手一圈识别,即可实现数学题目思路指引、英语翻译、生字讲解等,即刻答疑解惑。 “AI口语分级练”是基于大语言模型的英语口语练习功能,考虑学龄孩子的具体学情,独创渐进式AI口语对话,并让AI人设具备更强的亲和力,缓解孩子开口难、不爱说的问题。同时,根据新课标要求,筛选出适合学生练习的主题话题,参考权威剑桥系列考试口语标准,分层次组织成阶梯内容体系。 除了上述三项功能升级,小思还有其他方面的改变升级。 一方面是“小思建议”,能根据每个孩子的学习行为记录,包括做过的题、看过的课、每次语音互动等,来提出个性化的学习建议。这些建议遵循艾宾浩斯遗忘曲线,并且背后有包含动机、能力、提示三大版块的行为模型,来引导孩子在恰当的时间进行恰当的学习,自驱养成好习惯。 另一方面是“小思对话”的全方位升级,全线升级后的小思对话支持连续式话题问题,并上新了记忆式系统,昨天聊过的话题,今天仍可触发后续对话,让孩子感受到陪伴和情感支持。 小思还新增了情绪识别系统和科学育儿模块,可以根据孩子提问的声音、状态,识别孩子当下情绪属于开心、害怕、悲伤还是生气,并给予对应语气回应。 在此基础上,小思会通过对话记录,挖掘孩子兴趣、发现其优势,在家长端提供成长报告和养育建议,家长可以了解到孩子的学练行为。
罕见同台:xAI、Llama 3和Mistral的核心科学家对谈,详解三家最强模型
作者|张潇雪 在硅谷叫一辆Uber,极大概率司机会和你聊到AI。 如今铺天盖地的信息轰炸,营造出一种生成式人工智能步入全盛时代的氛围。而对于真正身处其中、手搓大模型的开发者们来说,他们思考的却是现实世界里仍待解决的技术挑战与边界。 GenAI 旧金山峰会第一天,xAI联合创始人Tony Wu,Llama 2和Llama 3联合作者Sharan Narang,以及Mistral AI研究科学家Devendra Chaplot同场的小组讨论异常火爆,吸引了众多硅谷AI开发者。 三位都是资深技术专家,也都是业内顶尖模型的缔造者,各自带领一支炙手可热的AI团队:马斯克旗下xAI刚刚宣布完成史上最大的60亿美元B轮融资,估值180亿美元风头正盛;Llama独自顶起开源模型半边天,蓄势待发的Llama3-400B被视为“可能改写人工智能生态版图”;而欧洲最火AI公司Mistral凭实力获得微软垂青,在较小尺寸模型的开发上马不停蹄、一路狂奔。 在这场时长40分钟、主题为「A Deep Dive into the State-of-Art LLMs」的分享中,Tony、Sharan和Devendra透露了各自公司的最新动向,深入讨论了模型预训练、数据质量及合成数据、多模态模型挑战和Transformer创新替代架构,预测2025年的人工智能突破,也对观众关于小模型企业用例、杜绝幻觉与偏见和Mamba架构的提问进行了解答。 要点总结: 各家动向:xAI将把融资用于建设拥有10万个H100芯片的数据工厂;Mistral AI最新推出掌握80种编程语言的新模型Codestral;Llama3很快会发布400B参数版本和研究论文以供社区学习。 数据收集与质量:预训练数据需考虑数量、质量和多样性,评估和反馈机制是关键。合成数据有助于提升数据质量,有助通向AGI,但生成时需防止传播偏见和错误。 Transformer架构及替代方案:Mistral AI一直努力研究新架构,Transformer目前最适合扩展,替代方案需证明其在大规模上能与Transformer竞争,Mamba架构有前途但仍需优化。 模型规划和推理能力:强化学习可用于提高性能,多模态模型的计算量是主要挑战,需提高数据效率。 偏见和道德标准:使用基准测试能减少模型偏见,预训练和后期训练阶段可加入缓解措施。 未来预测:2025年数字代理和具身智能将会日趋成熟,合成数据将发挥关键作用,希望模型的持续改进和新技术超越当前扩展法则。 1 以下为硅星人整理的现场对话实录: Sharan Narang:我是 Llama团队的研究经理,领导Llama预训练工作,并参与了Llama 2、Llama 3及后续项目的开发。非常高兴能在这里和大家讨论。 Devendra Chaplot:我是Mistral AI的研究员,参与了Mistral AI发布的所有模型。最近一直在研究多模态模型。 Tony Wu:我来自xAI。加入xAI之前从事数学推理工作,现在xAI也是如此,但更多是在基础方面。 Minfa Wang(主持人,CTO of 1Gen Labs):太棒了。我想先从一些个人故事和成就开始。首先是Tony。最近xAI刚刚宣布了60亿美元的B轮融资,祝贺你们。你能谈谈这次融资将如何推动xAI的下一步发展吗? Tony Wu:是的,我们非常幸运地获得了这次融资,这是很大一笔钱,所以我们想要非常明智地使用它。我想现在唯一明智的花钱方式就是把钱给NVIDIA对吧?所以我们将建设一个数据中心,这是公开信息,我们将在未来几个月内建设这个数据中心,它将拥有大约10万个H100芯片。这将是迄今为止最大的单个数据中心,由包含10万个芯片的单一集群组成。这将使我们能够训练出我认为是最强的模型。 Minfa Wang:谢谢分享。Devendra,上个月Mistral AI发布了Mixture 8x22B,这是Mistral AI迄今为止发布的最大和最新的模型。你能简单介绍一下这个新模型的关键特性和亮点,以及你和Mistral AI接下来的重点工作吗? Devendra Chaplot:上个月我们发布了基于稀疏混合专家架构的Mixture 8x22B模型。我们设计这个模型的主要目的是优化每个参数的性能。因此,我认为我们的模型在性价比方面是最优的。其实我们今早还发布了一个新模型,叫Codestral,这是一个专门为编程训练的模型,掌握了80种编程语言。它可以用于指令或人类聊天提示,也可以进行代码补全。这意味着你可以在编辑器中将其作为编码助手使用。它与VS Code和JetBrains集成,并且在发布当天可以在我们的API上免费使用八周。 Minfa Wang:这很酷。那么这个模型会进化成某种垂直基础模型吗?比如,它是否会作为基础设施层为从事AI软件工程的公司服务? Devendra Chaplot:是的,我们希望为开发人员和AI构建者提供最好的体验,以便他们能开发出下一代AI应用程序。这是我们创建一个强大的代码模型的动机,不仅在编程时帮助开发人员,还可以使用这个模型构建新的代理技术应用。 Minfa Wang: 接下来是Sharan,现在Llama3已经成为新闻焦点,感谢你和团队为开源社区的杰出贡献。你能简要介绍一下Llama3的关键特性和用例吗?还有关于神秘的400B参数模型,有什么可以分享的吗? Sharan Narang: Llama3是一个非常出色的团队合作成果。我们希望在许多方面推动边界。从小模型开始,我们希望看看能将它们训练到多远,能提高多少。8B和70B参数的模型现在向所有人开放,我认为它们在计算规模上非常强大。所有三个模型都是非常好的通用模型。我们的目标是构建最好的基础模型,所以希望它们在所有方面都表现出色。我们正在开发400B 参数的模型,这是一段冒险之旅,团队做得非常棒,我们很快会有更多的消息分享。我们希望发布一篇研究论文,详细介绍它,以便社区从中学习。所有这些都即将发布,我希望它能给所有在这个领域工作的人带来启发。 1. 数据收集与质量: Minfa Wang:我们期待这篇研究报告。接下来我想深入探讨一些技术主题。在模型构建工作流程中,数据是所有模型研究的基石,也是发现扩展法则的前提。谈到数据收集,既要考虑质量,也要考虑数量。在预训练中,我们显然需要大量的数据。在后训练中,质量也是关键。各位有没有关于如何获取高质量和大规模数据的技术可以分享?你们使用哪些技术,如何做到? Sharan Narang:我可以先谈谈预训练。在预训练中,我们考虑数据的数量、质量和多样性。我认为这三者都很重要。用大量低质量的数据训练出一个糟糕的模型其实很容易。因此,考虑这些因素非常重要。这里的挑战在于数量是一个可以量化的指标,很容易报告出来,大家也会关注这个指标。而多样性和质量则复杂得多。在Meta,我们非常重视后两者。我们依赖扩展法则和数据消融来确保我们数据集的质量和多样性都达到标准。数据是任何模型的基础,我们希望构建最佳的数据集来训练这些大型语言模型。 Devendra Chaplot:我认为人们往往低估了数据质量,尤其是在预训练期间。人们认为只要向模型投入更多数据,它就会变得更好,但我们发现数据质量在预训练中也起着非常重要的作用。如果你想让一个特定规模的模型表现最佳,质量是最重要的。如果你以更好的形式整理数据,你可以从一个非常小的模型中提升性能。 Tony Wu:是的,补充一下前两位的分享,我认为有两点需要注意。首先,评估在确保数据质量方面非常重要。你需要有某种反馈机制,以迭代地提高数据质量,这对预训练和后训练都适用。定义评估标准是一个非同寻常的问题。特别是对预训练来说,这是一个更普遍的任务,人们看重学术基准,但这些基准可能会受到污染。因此,这些都需要认真考虑。第二点是,一旦你有了一些初始模型,你也可以用它来改进数据质量。这也是一个迭代过程,你可以使用较旧、性能较差的模型来整理数据集,从而获得更高质量的数据,然后训练出更好的模型。这是一种自我改进的循环。 Minfa Wang:谢谢分享。作为一个曾经从事微调工作的人,我理所当然地认为预训练模型会有很好的质量,觉得预训练只需要数量,但显然多样性和质量也非常重要。这非常有见地,还有评估过程。接下来我想问关于专有数据和特定应用数据的问题。这可能更与Tony相关,考虑到xAI与x.com的特殊关系,xAI可能有某种推特数据的访问权限。这种专门数据会带来优势吗? Tony Wu:这是个好问题。我不负责法律方面的问题,所以在法律方面可能有更合适的人来回答。但就这些数据带来的好处而言,我认为有两点。首先最大的优势是这些数据可以让我们的模型访问最新、最鲜活的X平台信息。我们与X公司合作,建立了Grok,能够检索相关的推文或帖子,为用户提供最新的信息。第二点是,在推理期间,你可以让模型检索和总结信息,但也有可能是你想将某些特定功能内置到模型权重中,比如让模型理解X上的特定内容。所有这些知识可以通过微调甚至预训练过程来获取,以便模型更好地理解平台上的动态。所以,总结来说,我认为我们有特权访问的数据使我们能够向用户提供更新鲜的结果。 Sharan Narang: 我同意Tony的观点,将专有数据添加到预训练中很棘手,除非数据已经经过审核且质量保证。预训练非常昂贵,相比之下,在后期训练中添加特定应用数据更容易。 Minfa Wang:有个相关的问题是,如果有特定应用数据并在后期训练中微调,会不会损害模型的通用知识,比如通用推理能力?如何权衡模型能力的不同方面? Tony Wu:这取决于你是否需要模型仍然具有通用能力。如果有非常具体的应用,有时不需要模型具有那么广泛的通用性。另一方面,如果你有一个非常好的基础模型,虽然运行成本会更高,但这个模型在微调后仍然会非常通用。 Sharan Narang: 你可以通过微调添加一些能力,而不会失去预训练期间获得的通用规划或推理能力。但谨慎的后期训练非常重要。 2. 数据稀缺问题、怎样看待合成数据 Minfa Wang:下面是一个相对有争议的话题,随着我们几乎用尽互联网上的数据,是否会遇到数据稀缺的问题?合成数据会是解决这个问题的方法吗? Devendra Chaplot:我认为我们短期内不会遇到数据稀缺的问题。目前训练的模型几乎只用了开放网络上一小部分的数据,我们现在只是在玩文本数据。还有大量的图像、视频、音频数据,然后当我们能够扩展到所有这些多模态模型时,还有数字行为、物理行为等可以利用。所以我认为短期内不会有数据数量的问题,但我仍然认为合成数据在提升整体数据集质量方面是有用的。你还可以使用半合成数据,通过模型来改进你的原始数据,例如进行分类、重述、摘要等操作,以提高数据质量。 Tony Wu:我对这个问题有比较强烈的看法。我在合成数据方面工作了一段时间,我确实认为这是通向AGI的道路。尽管从长远来看,我们可以从开放网络获取更多的tokens,但考虑到当前的扩展速度,每年计算能力(flops)可能会增加10倍,至少也会增加5倍,而数据增长可能需要以平方根的速度增加,也就是两到三倍。因此需要收集、爬取和处理大量数据。我个人认为,如果能找到一种方法让合成数据在预训练中起作用,意味着它可以很好地扩展,那么我们就不需要一直从互联网收集更多数据,或总是遇到数据短缺的问题。这个问题已经迫使我们进行思考。X.AI正在建立一个拥有10万个H100芯片的数据中心集群,预训练需要大量数据。因此,我们必须投入大量精力来使合成数据起作用。 Sharan Narang:我同意他们两位的观点,数据量很大,合成数据可以发挥很大的作用。我认为在生成合成数据时,需要非常小心,因为很容易将先前训练模型的偏见和错误传播到下一个模型中。因此拥有一个良好的策划流程,并确保你能捕捉到先前模型的错误和偏见是非常重要的,否则我们可能会陷入同样的困境。 Tony Wu:再补充一点,如果我们有一天希望这些模型或机器真正具备像人类甚至超越人类的智能,它需要能够生成非常新颖、原创的内容,以某种方式成为自我改进过程的一部分。那么我认为,你不能从人类大规模地获取高质量的推理数据,唯一的生成方式是通过合成数据。 Minfa Wang:对于合成数据生成,你们认为会有人类参与其中,还是完全由模型自我生成和自我改进?现在社区中也有一些怀疑论者,他们认为如果模型纯粹为自己生成数据,就没有真正的新信息输入模型中。 Tony Wu: 我认为有不同类型的合成数据。正如之前提到的,我们可以进行简单的、半合成的数据生成,比如重写、重述,这几乎是相同的信息内容。但这几乎可以被视为一种不同的数据增强方法,只是增加数据量以使模型更壮大。但最终,一旦超越这一点,我认为某种反馈循环需要发生。无论是来自人类的反馈,还是来自机器本身或其他验证工具的反馈,这是生成大量高质量数据的真正途径。 Sharan Narang: 我们已经在后期训练中看到这一点了,对吧?我们用于RLHF(强化学习奖励模型)循环的数据都是由人类验证的合成数据。因此在预训练中进行某种反馈也是非常有价值的。 3. Transformer架构与替代创新 Minfa Wang:谢谢分享。接下来我想谈谈模型的问题。Transformer模型是在2017年那篇《Attention Is All You Need》论文中出现的,自那以后,它就占据了整个行业的主导地位。现在它已经无处不在,大家都在使用它。然而,不时会有一些创新的模型架构被提出,挑战Transformer的地位。你们是否进行过关于Transformer替代方案或模型架构搜索的研究?你们觉得这值得继续探索吗,还是认为Transformer足以引领我们最终实现AGI? Devendra Chaplot: Mistral AI确实在新架构研究方面做了不少工作。比如稀疏专家混合模型,这仍然是基于Transformer架构,但在某些方面有很大不同,因为它帮助你在内存需求和推理速度之间取得平衡。学术界定期会提出新的架构,那些看起来有前途的我们也会尝试。关于Transformer是否是最终的解决方案,我认为不是。我认为在我们实现AGI之前,这个领域会有更多的创新。 Sharan Narang: 我可能会分享一些不同的看法。我花了大约两年时间与一个相当大的团队一起努力尝试构建更好的架构,但我们得出的结论是,Transformer是最适合扩展的模型。我认为所有新的架构都值得在学术界进行探索,但在它们能够扩展并与Transformer竞争之前,还有很多工作要做。人们应该继续研究这些新架构,并且要考虑扩展法则,不仅要在简单任务上显示评估改进,还要覆盖广泛的任务。展示这些改进不仅在小规模上有效,在大规模上也能保持优势,才可以与Transformer相比。至于Transformer是否能带我们实现AGI,这取决于你对AGI的定义。有些人可能会认为我们已经实现了某种形式的AGI。但如果你说的是高度智能的通用代理,那么可能我们还需要更多。 Devendra Chaplot:我明白这个观点,但我也理解那些构建新架构的人的感受。人们总是将新架构与Transformer进行比较,但Transformer已经过了多年优化,我们有专门为Transformer架构构建的硬件,推理过程、训练过程中的超参数等都已优化过。因此,如果有人提出一个新架构,你必须将其与2017年或2018年的Transformer进行比较。这在今天是很难做到的,因为这个领域竞争非常激烈,人们总是想要最好的东西,而不愿意投入时间去优化一个替代架构,这可能会有很大的风险,同时商业需求又很高。所以我认为我们处于某种局部最小值。我们有一个高度优化的架构,它工作得非常好,在达到饱和之前,还有很长的路要走。但一旦我们达到饱和,替代架构仍然很难出现,除非我们摆脱这个局部最小值。 4. 强化学习与自回归学习、如何提升模型的长效推理能力 Minfa Wang:希望在这个领域会有持续的研究,总有创新架构被提出。下一个话题是,随着我们迈向AGI,我们需要更强的规划和推理能力。目前大多数LLM仍然围绕着预测下一个词的目标,有人质疑它是否能真正带我们实现AGI。对此你们有任何想要分享的内容吗? Devendra Chaplot: 我们已经在使用强化学习,这是一种长期反馈机制,因为模型在长生成过程中获得奖励,而不仅仅是在预测下一个词时获得奖励。我之前在机器人学领域也使用强化学习,它对学习规划或推理非常有用。到目前为止,我们在语言或其他任务中使用的奖励模型都是基于人类数据训练的,但在数学或编程等任务中,我们可以有形式验证或编程测试作为模型的外部反馈,这在某种程度上是自动化的,也具有长期性,因此模型可以基于这种反馈优化推理和规划。 Sharan Narang:我认为提高规划和推理能力的一种方法是将其更多地纳入预训练中。正如Tony之前提到的,我们从互联网上获取的推理数据有限,我们如何扩展数据集?我们如何使用合成数据?我们能在多大程度上改进基础模型?另一个关于下一个词预测目标的考虑是,如果你仔细想想,对于任何一个人来说,预测句子里的下一个词其实非常复杂,即便你非常了解某人。因此,这个目标本身就具有一些长期规划的性质。但正如Devendra提到的,在后期训练阶段使用强化学习确实也可以改进规划能力。 5. 多模态模型 Minfa Wang:接下来我想谈谈多模态大模型。X.ai最近宣布了其多模态模型。到目前为止,开源版的Llama和Mistral还不是多模态的,但显然你们正在朝这个方向努力。我想知道你们在研究多模态模型时遇到的最大挑战是什么?有哪些关键技术可以让它们成功? Devendra Chaplot: 是的,其中一个最大挑战是多模态模型计算量增长非常快。即使是一张图片也可以包含数千个tokens。如果你训练数十亿张图片,计算量就变得非常巨大。而且因为你想在这些图片中进行推理,或者在图片和文本之间交织数据,你还需要增加模型的上下文窗口,以便模型能接受多张图片,进行推理并使用一些文本。所以当你增加上下文窗口时,它再次增加了计算强度。这只是图片,如果涉及视频,计算量会增加一个数量级。因此,我认为现在的多模态模型仍然处于其能力的初级阶段。它们可以扩展10倍、100倍,仍然可以获得大量的性能提升。因此,挑战在于如何使其在数据效率方面更高,以便我们不需要100倍的计算能力来使用100倍的数据。 Sharan Narang:我同意。语音也是一个非常复杂的问题,因为当你考虑文本到语音时,延迟就成了一个问题。而且,正如Devendra提到的,数据非常重要,尤其是当你尝试获取图文或视频文本的交织数据时,如果视频很长而文本本身很短,这将变得非常有挑战性。多模态模型的设计空间实际上非常广阔,有许多不同的方法可以在预训练、后期训练中使用。我认为这些技术现在正在起飞,所以看看下一波多模态模型会带来什么将会非常有趣。 6. 未来预期 Minfa Wang:在我们进入观众提问环节之前,让我最后问一个问题。2024年被称为多模态模型之年,我们确实看到了多模态模型和其产品化方面的突破。如果你们要对2025年做一个预测,你们认为大型语言模型或基础模型的下一个重大里程碑会是什么? Devendra Chaplot: 我认为会是数字和物理代理。我有机器人学背景,对具身智能非常有热情。今年在初创领域围绕构建通用类人机器人有很多兴奋情绪。我认为它们可能会在明年或两年后开始起飞,变得有用。此外,我认为数字代理方面,例如软件工程代理或可以执行操作的代理,像预订航班或叫车,这些也将在明年变得非常成熟。 Sharan Narang:这个领域同时发生了这么多事情,很难预测。但我会说两件事。首先,我认为我们会看到扩展带来的持续改进。比如现有模型的阶梯式改进,小模型和大模型之间的差距也会缩小,因为我们在尝试使用蒸馏、量化等技术来训练更强大的小模型。其次,我希望能找到一些技术来超越当前的Scaling Law趋势,无论是通过创新模型,还是通过合成数据或高参数等技术,来做得比现在更好。 Tony Wu:我的赌注在于合成数据。 观众提问: Q1:对于企业用例来说,很多非结构化数据都存在于文本中。且大多数是基于RAG(检索增强生成)和一些微调。所以我的问题是,你们的公司是否在研究更适合语言能力和推理能力的小模型,可能并不需要大量数据和多模态数据,以便我们能处理更长的上下文并回答问题? Tony Wu:是的,首先,我实际上认为企业用例仍然有一些多模态的需求。如果你考虑X.ai的情况,我们正在与特斯拉和X平台合作,X平台上有很多图像。我认为我们可以尝试理解这些图像。在特斯拉的情况下,我们希望帮助自动驾驶和机器人工作,很多这些都需要多模态能力。第二点,是的,我们确实在做小模型。我们正在努力降低API成本,这是我们的工作,提供好服务的同时降低客户成本。为此我们需要训练非常小的模型,这些模型可以非常快速地运行,成本非常低。 Devendra Chaplot:Mistral AI专注于小模型,因为我们希望将性能与成本的比率推到最高。我们去年9月发布的7B模型在企业和开发人员中很受欢迎,他们部署到笔记本电脑、手机等设备上运行,或者在数据处理管道中使用它进行摘要或某种自动化。我们也听说很多企业在内部使用它,虽然它很小,但它在特定用例中仍然非常强大,运行成本也非常低。 Q2:非常感谢你们分享这些非常有启发性和信息丰富的讨论。我的问题是,迄今为止调试大语言模型的最佳策略是什么?例如很多人都遇到过的幻觉问题。我很好奇你们如何调试LLM,特别是在看到这些故障案例时。第二个问题是,作为普通用户,我们能做些什么来应对这些故障案例?除了RAG技术,还有其他补救措施吗?还是我们给你们当拉拉队员,希望你们解决问题?谢谢。 Sharan Narang:我认为幻觉是一个大问题。解决事实准确性的问题非常棘手。比如,你问一个基础模型任何问题,很难知道它是否在产生幻觉。而且事实也在变化。不过,像RAG和改进的微调技术可以帮助减少模型幻觉。总的来说,调试LLM非常具有挑战性,无论是预训练还是后期训练,调试LLM的故事甚至可以写一本书。我无法详细介绍所有内容,但我认为投资于一个好的微调和RAG管道可以大大减少幻觉。 Q3:谢谢你们深入探讨如何通过预训练和合成数据提高数据质量。除了防止幻觉,我对这些方法如何防止模型中潜在的偏见和错误信息感到困惑,特别是当我们开始使用像推文这样的专有数据时。我想听听你们如何确保未来的AI模型保留道德标准并包含多样化的观点,特别是在涉及推理、情感和意见时。 Devendra Chaplot:这是我们训练模型时的优先事项之一。我们有学术基准测试,它们专门测试种族、民族、性别等方面的偏见。无论是预训练还是微调时,我们都会关注模型在这些基准测试上的表现。这也作为一种模型选择方法。如果某个模型在这些基准测试上表现不好,我们就会避免使用那个数据集或训练技术,通过这种方法可以大大减少模型的偏见。 Sharan Narang: 除了一些基准测试,我们还可以改进基准测试。因为在预训练期间捕捉和测量偏见非常棘手,数据多样性也很难衡量。在Meta我们非常重视这一点。还有一个是在后期训练阶段,我们加入了许多缓解措施,有很多团队在研究如何改进后期训练阶段以减少偏见。合成数据的一个主要问题是它是否会迭代传播偏见。安全性是一个非常重要的话题,我们需要更多的人关注和研究。 Q4:我有两个问题,都是关于前沿模型的。第一个问题是关于Transformer的替代方案,你们怎么看待Mamba?它在过去一两年里非常火。第二个问题是关于视频生成模型。我们在GPU上优化视频生成时遇到了很多计算和内存带宽的挑战。不知道是否有一些前沿的研究方向可以改变视频生成的设计? Sharan Narang:我来尝试回答一下。我不是视频生成方面的专家,所以没有答案。关于第一个问题,Mamba,我认为这是一个有前途的架构,但还有很多工作要做才能与Transformer相比。正如Devendra提到的,Transformer非常优化,而且在它的工作方面非常高效。Mamba来自RNN世界,但经过了简化和改进。不过,我认为还有很多工作要证明Mamba可以与Transformer架构相媲美。 Minfa Wang:希望这回答了你的问题。由于时间限制,我们只能到此为止。再次感谢所有演讲者慷慨分享他们的观点。期待你们在未来推动技术前沿的发展。谢谢。
接入零一万物、百川智能大模型!云大厂扩张生成式AI版图,大秀三层技术栈与架构创新
作者 | ZeR0 编辑 | 漠影 智东西5月31日报道,5月29日-30日,亚马逊云科技中国峰会在上海举行。峰会第二日,亚马逊云科技大中华区产品总经理陈晓建分享了构建和应用生成式AI的多款创新产品;亚马逊云科技大中华区解决方案架构总经理代闻以桥梁设计做精巧比喻,从三个方向分享生成式AI时代下架构的演进与迭代。 企业开展生成式AI应用落地的过程中面临新的挑战,主要体现在:1)底层算力资源短缺;2)缺乏合适的工具,用于访问和部署世界一流模型,从而进行端到端的生成式AI应用构建;3)缺少匹配自身需求的,可开箱即用快速上手的应用。 为了助力企业生成式AI应用落地,亚马逊云科技打造三层生成式AI技术栈: 1)底层是以GPU和自研芯片为代表的基础设施,用于基础模型的训练以及在生产环境中运行推理; 2)中间层是以Amazon Bedrock为代表的,提供可以访问所需基础模型,以及构建和扩展生成式AI应用程序的工具; 3)顶层则是以Amazon Q为代表的,利用基础模型构建的开箱即用的生成式AI应用程序,用户无需任何专业知识即可快速上手生成式AI。 一、技术栈底层:联手英伟达构建AI超算,上线零一万物、百川智能基础模型 亚马逊云科技大中华区产品总经理陈晓建谈道,生成式AI应用开始于基础模型的训练和推理,这两种工作负载对算力有大量需求,也是限制企业模型开发步伐的关键制约因素。 为了帮助企业降低经济压力,亚马逊云科技推出了一系列专门构建的、高性价比的芯片和计算实例供企业选择,用于运行模型的训练和推理工作负载。 今天的模型规模需要分布式的调度以及相应的存储和网络的性能。以训练500亿参数量的模型为例,需要提供1T(1万亿)token的数据量,如果用一张A100的GPU需要74年的时间才能完成,而用2048张GPU则只需要13天。Stability AI训练Stable Diffusion用了4000张A100 GPU,而Meta训练Llama 3则使用了超过16000张A100 GPU。 算法工程师通过分布式训练的技术,同时使用数千张甚至上万张的GPU卡来训练基础模型,需要更好的卡到卡之间,实例到实例之间的高带宽来降低通信延迟,提高GPU利用率,进而缩短整个集群的训练时间。 Amazon UltraCluster提供了超大规模、超高带宽以及超高稳定的高性能计算集群,FSx for Lustre和S3提供了高性能存储的稳定方案。 基于英伟达全新GPU资源的系列实例建立在亚马逊云科技的高性能存储和网络服务基础之上,支持广泛的编排选项和开源框架,通过EFA网络,允许企业配置高达2万个GPU的超级集群来支持最大工作负载。 Project Ceiba项目是亚马逊云科技为英伟达构建的AI超级计算机,由英伟达和亚马逊云科技联合开发,搭载了超过2万个英伟达Grace架构的Blackwell GB200超级芯片和亚马逊云科技第四代EFA网络。每个超级芯片可提供高达800Gbps的网络带宽,其算力将能达到惊人的414Exaflops。 基于英伟达 A10G GPU的Amazon EC2 G5实例在中国区正式可用,性能达到Amazon EC2 G4DN的3倍,推理性价比提高了40%。 过去5年,亚马逊云科技在定制芯片领域的投资带来了机器学习训练和推理成本的大幅下降。其中,基于Amazon Trainium的Trn1 EC2实例和基于Amazon Inferentia芯片的Inf2 EC2实例,与基于英伟达GPU的Amazon EC2实例相比,可分别将训练成本降低高达50%,推理成本降低高达40%。 训练和推理也需要合适的软件工具。亚马逊云科技推出了Amazon SageMaker托管机器学习服务,帮助企业轻松构建、训练、微调和部署模型。 亚马逊云科技宣布来自零一万物的Yi-1.5 6B/9B/34B的基础模型在中国区域正式上线SageMaker Jumpstart,同时来自百川智能的Baichuan-2 7B基础模型也即将上线中国区域的SageMaker Jumpstart,为开发生成式AI应用提供更多基础模型选择。 Amazon SageMaker JumpStart是Amazon SageMaker的一项重要服务,可帮助客户获取、微调和部署来自业界最新公开的可用预训练基础模型,包括Meta Llama 3、Cohere Command等。 该服务还为机器学习从业者提供深度模型定制和评估功能,允许其通过已经使用的环境轻松访问基础模型。 此外,Amazon SageMaker HyperPod正式可用,专门助力大规模分布式训练,能够将训练模型的时间减少多达40%。 二、技术栈中间层:用基础模型加速应用构建,四大价值让生成式AI触手可及 技术栈的中间层对于大部分企业来说更加重要,构建生成式AI应用通常是从选用既有的基础模型开始,而不是直接参与构建基础模型。 所以如何选择更加适合自身业务的模型,便成为了企业首先需要作答的问题。 在模型选择方面,Amazon Bedrock是一项全面托管的服务,用户可通过单一的API访问来自Al21 Labs、Anthropic、Cohere、Meta、Mistral Al、Stability AI和亚马逊等领先AI公司的高性能基础模型。 值得一提的是最新推出的亚马逊云科技自研Embedding模型Amazon Titan Text Embeddings V2模型,针对检索增强生成(RAG)工作流程进行了优化。 另一款最新推出的Titan Text Premier基础模型,是Titan Text系列中先进的型号,旨在为各种企业应用程序提供卓越的性能,并对RAG及Agent提供了专门优化,提供了更高的准确性。 为了帮助企业选择合适的模型,亚马逊云科技正式推出了Amazon Bedrock模型评估功能,可将模型评估时间从数个星期压缩至几个小时。 在模型定制方面,Amazon Bedrock支持企业自定义模型的导入。企业可将基于Amazon SageMaker或其他工具开发的存储在Amazon S3里面的定制模型导入到Amazon Bedrock中,以完全托管的API形式进行访问,而无需管理底层基础设施。 目前Amazon Bedrock自定义模型导入已提供预览版,支持Llama、Mistral、Flan-T5三种流行的开放模型架构,同时还将在未来进一步扩展支持范围。 从数据准备到数据运用,亚马逊云科技打造了一套全面的数据服务体系,涵盖数据库、数据湖、数据治理、数据分析、机器学习和生成式AI五大维度。 该体系可以帮助企业连接现有的数据源,定制面向生成式AI应用构建的高质量企业数据资源,配合Amazon Bedrock提供的微调、持续预训练、RAG等功能,打造与企业业务相关的生成式AI应用。 为了进一步帮助企业使用RAG技术优化模型的个性化响应,亚马逊云科技正式推出了 完全托管的Amazon Bedrock知识库功能。 该功能支持企业使用上下文相关的内部数据自定义基础模型响应。Amazon Bedrock上的知识库会自动执行端到端的RAG工作流程,使用者无需编写自定义代码来集成数据源和管理查询。 在应用集成方面,Amazon Bedrock的Agent功能提供了一种工具,支持开发人员定义特定的任务、工作流程或决策过程,增强控制和自动化,同时确保与预期用例保持一致。 Agents for Amazon Bedrock现已支持Claude 3 Sonnet和Haiku模型。 亚马逊云科技还提供了一站式生成式AI应用开发工作站Amazon Bedrock Studio。借助这一工作站,开发者可以使用简单易用的交互界面进行模型选择、模型评估,还可以与团队成员协作,共同试验,创建和完善生成式AI应用。 在负责任的AI方面,亚马逊云科技承诺以负责任的方式构建服务,同时重点考虑公正性、隐私性和安全性、可解释性、可治理性、稳健性、透明性6大方面。 企业在构建生成式AI应用程序时,通常希望其客户和应用之间的交互是安全并遵守企业指导方针的。对此,亚马逊云科技推出了Amazon Bedrock的Guardrails功能,可帮助企业轻松实施生成式AI应用程序的保护措施,并根据自身需求和负责任AI政策进行定制。 同Amazon Bedrock上基础模型原生提供的保护能力相比,Amazon Bedrock的Guardrails功能可帮助企业用户阻止多达85%的有害内容。 三、技术栈上层:开箱即用的生成式AI应用 亚马逊云科技构建的生成式AI助手Amazon Q可帮助企业达成加速软件开发、发挥业务数据价值等目标。 目前,Amazon Q Developer、Amazon Q Business、Amazon Q in Connect、Amazon Q in QuickSight均已正式可用。 Amazon Q Developer可协助开发人员完成从编码、测试、升级应用到故障排查、安全扫描和修复、优化云资源等繁琐重复的工作,让开发者把更多时间专注于创新体验的开发,加快应用部署速度。 在实际应用中,Amazon Q Developer共包含3大核心应用场景:1)大规模消除技术冗余;2)提高开发人员生产力;3)近乎实时生成代码建议和推荐,帮助开发人员更快、更安全地进行构建。 为了帮助企业发挥大量难以访问和解析的数据的价值,亚马逊云科技推出了具有从任意数据中获取洞见能力的Amazon Q Business。 通过它,企业员工可以通过连接企业数据库,来提问关于公司政策、产品信息、业务结果、代码库、人员等诸多问题,从而总结数据逻辑、分析趋势并就数据进行对话。 Amazon Q Business有四大应用场景:统一的对话检索式体验、生成总结与提炼关键发现、提升内容创作的效率、简化任务流程。 Amazon Q Business中的Amazon Q Apps功能公开预览。借此创建应用程序非常简单,员工可以用自然语言描述他们想要的应用程序类型,或者只需告诉Amazon Q Apps从Amazon Q帮助解决问题的对话中执行即可。 Amazon Q Developer 和 Amazon Q Business截止到6月30号免费试用。 四、亚马逊云科技全方位助力人才成长,三大力量驱动架构创新 亚马逊云科技计划到2025年向全球2900万人提供免费培训,而目前已经有2100万人受益。 为了让更多的开发者有机会低门槛体验到前沿的生成式AI服务,亚马逊云科技推出了云上探索实验室CloudLab平台。开发者不需要注册账号、不需要购买云资源,只需扫码进入云上探索实验室,即可在24小时之内尽情构建。 同时,亚马逊云科技还为中国开发者量身定做了“从基础到应用:LLM 全景培训”课程。 生成式AI时代,构建应用有什么不一样的方法?有何种新的架构趋势? 亚马逊云科技大中华区解决方案架构总经理代闻说,技术架构演进过程里面不变的三个主题需求——基础组件能力,架构体系创新,多元技术融合。 代闻从桥梁发展历程入手,提出桥梁的发展和构建是由基础材料,建筑架构和多元化需求三者共同作用的结果,而技术的发展往往也是如此。 最基础的组件,例如材料、技术往往决定了能采用的架构。对于信息技术来说,最基础的材料就是算力。 云计算的最基础组件是计算、存储和网络,其中又以计算作为最核心的组件。 自2006年推出Amazon EC2服务以来,Amazon EC2从最初的70种实例类型增长到超过750种,亚马逊云科技在虚拟化技术和硬件加速方面正持续进步。 亚马逊云科技已发布五代Nitro芯片。Nitro提供了一个隔离的敏感数据处理环境Nitro Enclaves,可以为客户自己的实例带来额外的隔离,保护正在使用的数据免受任何未经授权的访问,即使是来自客户管理员级别的用户。 在自研处理器方面,从2018年的Amazon Graviton到2023年的Amazon Graviton4,每一代的Graviton都会上一代有两位数的性能提升,并且单位算力的功耗在不断下降。 亚马逊云科技在全球规模化提供的基于Graviton的Amazon EC2实例种类达150多个,已经构建的Graviton处理器数量超过200万个,并拥有超过50000客户。 如今亚马逊云科技的诸多托管服务都全面采用了Graviton架构,如Amazon DocumentDB、Amazon Aurora、Amazon RDS等,这些服务不仅提高了性能,还降低了成本,为客户提供了更高的性价比。 代闻认为,构建的风险管理意识非常重要,企业在构建时往往要面临着大量的不确定性,各种风险因素层出不穷,因此架构韧性成为了重中之重。 通过单元化架构,亚马逊云科技将IAM拆分成细小的计算和存储单元,实现了高可用性和极小的故障影响范围,不仅保障了服务的稳定性,也使得IAM能够每秒处理超过10亿个API调用。 架构创新的第三大驱动力量是多元技术融合。 通过Zero-ETL集成,亚马逊云科技消除了数据提取、转换和加载的复杂性,使得用户可以无缝地将数据从Amazon DocumentDB同步到Amazon OpenSearch Service,或者将 Amazon DynamoDB的数据直接用于Amazon Redshift的分析。这种无缝集成不仅简化了数据流动,也提高了数据的价值和业务的敏捷性。 结语:推动服务和架构创新,助力生成式AI普惠化 过去十年,云计算为创新和创业提供了前所未有的便利。未来十年,生成式AI带来了重塑各行各业的新机遇。 整体应用架构是多元技术均衡的结果,需要考虑成本、合规、扩展性、可持续发展、韧性、安全、性能、访问可达性、可用性等因素。一个良好的架构需能随着多元因素的影响不断演进。 亚马逊云科技的优良架构体系到现在已经超过十年,从卓越运营、安全、可靠、性能效率四个维度演进到六个维度,新增了可持续发展和成本优化。随着客户对各种组件更深入的使用,架构师的决定和组件选择会直接影响到整块的应用负载在云上的成本。 伴随着技术的进步,亚马逊云科技将继续推动架构的演进,通过创新的服务和架构,突破技术壁垒,助力生成式AI普惠化。
星环科技全面战略升级!帮企业高效构建AI Infra,助攻大模型快速落地
作者 | ZeR0 编辑 | 漠影 智东西5月31日报道,今日,在2024向星力·未来数据技术峰会上,大数据基础软件龙头星环科技面向企业构建大模型和应用生成式AI的需求,发布最新AI基础设施产品Transwarp Knowledge Hub星环知识平台(以下简称TKH), 提供企业级多模态知识存储及服务,并推出一款一站式多场景语料开发工具TCS(Transwarp Corpus Studio)、大模型运营平台Transwarp Sophon LLMOps。 基于无涯大模型,星环知识平台TKH打造了无涯·问知、无涯·问数、无涯·金融、无涯·工程等AI原生应用,可广泛应用于金融、能源、制造、工程等多个领域,通过精准的数据分析和知识管理,满足企业不同类型的知识应用需求,提升企业业务效率和竞争力。 星环科技发布了企业版、AI PC版企业级垂直领域问答产品无涯·问知Infinity Intelligence。无涯·问知公有云服务也正式发布,首批邀请用户已经可以在线测试。 同时,星环科技推出企业智能业务分析洞察平台无涯·问数,让用户用自然语言轻松进行数据分析,解决传统BI(商业智能)使用门槛高、效率低的挑战。 星环科技创始人、CEO孙元浩宣布,星环科技的定位从Data Infra进一步延伸到AI Infra,为企业客户打造AI基础设施,打造覆盖语料处理、模型训练、知识库建设等的一整套工具链,帮助企业快速建立行业大模型,快速使用AIGC。 孙元浩告诉智东西,在支持生成式AI的数据管理方面,企业可能会用到向量数据库、关系数据库、图数据库、实时数据库等不同类型,这些都是为AI提供数据的主要方式,现在很难说哪类比重会更高。 对于用户而言,已构建数据仓库的基础较大,结合大模型直接问数据库比较立竿见影,需求相对多。向量数据库预计会加速增长,语音、图片、视频必须要用向量数据库,文档建议也变成向量数据库以拓展检索范围。知识图谱构建要求较大,但同样是必要的补充。当关系图谱不足时,星环提供了实时数据库,还有传感器分析。 面向AI PC布局,孙元浩认为AI PC是提高生产力的必需品,他透露说星环希望在本地做到千亿参数模型,可能今年年底就可以做到。 一、今年全球将生成159.2ZB数据,企业落地AI面临4类挑战 AI大模型正在催生新一轮技术创新与产业变革,将为金融、制造、交通、政务等众多行业企业数字化转型和高质量发展带来新动能。 生成式AI出现后,深度学习从以前的可能几千万、上亿的样本数量的大样本机器学习,演变成现在小样本机器学习,让行业大模型应用范围变得更广,让模型能够思考、学习,理解自然语言,完成更多的工作。 当前市场以通用基础大模型为主,通识能力强,但缺少行业专业知识。让企业的AI应用从早期直接调用通用大模型发展到建立自己的AI基础设施,打造行业或特定领域、任务的专用大模型,助力生产力革新和产业升级,已经成为企业关注的核心。 在峰会上,IDC中国副总裁钟振山分享了一些IDC调研结果。 IDC预测,全球2024年将生成159.2ZB数据,2028年将增加1倍以上,达到384.6ZB,复合增长率为24.4%,分布在不同的数据库中。DataSphere 2024最新预测还呈现了3D特征:分布式、多样化、动态。未来两年里,预计组织中的数据量、数据速度、数据多样性均会提升。 为了实现生成式AI,企业需要管理多方数据源,被调查企业中50%使用数据仓库支持生成式AI,35%使用向量数据库,33%使用数据湖,33%使用支持向量搜索能力的NoSQL数据库。 从落地形式来看,企业更多选择私有化方式来训练、推理和部署大模型。在实施AI技术时,企业或机构经历过/预计会经历成本、缺乏具备学习和使用AI所需技能的员工、缺少专项技能人才、缺少AI治理&风险管理、缺少AI监管规则等方面的挑战。 总体来看,企业落地AI面临4个主要挑战:1)高投入成本与专业人才匮乏,是企业落地AI最大的阻碍;2)数据基础设施建设不足,需要商业落地、安全性、可持续发展和数据管理;3)缺乏统一数据管理底座,海量、多元、非结构化数据高频流动;4)缺少知识库的支撑,知识的存储、共享和流动。 二、定位延伸至AI Infra,为企业提供全流程开发工具链 从需求上看,目前通用大模型数量快速增加,并不断升级迭代、提质增效,但却不能适应企业AI应用的需求。 企业对行业大模型需求增加,迫切需要降低使用门槛,更加普惠地使用大模型、生成式AI技术,以解决企业内部人才、算力、数据等不足的挑战。发展面向特定领域或任务的领域大模型,不断提升模型准确度,成为一条切实可行的发展途径。 每个国家都需要主权AI,企业同样需要自身的AI Infra来打造行业大模型,从而更快速便捷地用大模型释放数据价值。 针对企业的AI Infra建设,星环科技通过自主研发,可向用户提供一站式企业级大模型生产及应用全流程开发工具链,让大模型快速落地。 星环科技拥有从语料到模型再到应用的完整的AI Infra工具集,覆盖语料开发和管理、大模型训练与持续提升、多模态知识工程、多模知识存储与服务、原生AI应用构建编排和应用服务等重要阶段,提供提示词工程、检索增强、智能体构建等大模型应用快速构建和提升、模型推理优化、模型安全和持续提升技术。 星环科技AI Infra工具支持异构算力、语料、知识、大模型应用的统一管理,为数据和语料资产的集约化提供了一站式平台,且具备企业级的组织空间管理能力。 通过该工具,企业能够准确、高效地将拥有的多种来源的多模语料转换为高质量的专业领域知识,源源不断支撑专业知识库问答、业财数据分析、智能投研、设备预测性维护等丰富的使用场景和应用,让企业构筑知识壁垒,实现“人工智能+”业务的落地和创新。 后续星环科技将通过自主研发,不断完善AI从基础设施到应用的产业链条,为客户提供端到端的全套AI解决方案。 三、企业界垂直领域问答产品无涯·问知:四大应用场景,将数据和资料转换为知识 星环科技发布了企业级垂直领域问答产品无涯·问知Infinity Intelligence,有企业版、AI PC版、云端版,包括四大应用场景: 1)企业可以基于星环知识库TKH,建立企业自己的知识库应用; 2)企业算力不足时,可采用安装了天涯·问知的AI PC,在本地直接访问天涯·问知; 3)中小企业用户不用自己构建知识库,可直接利用星环科技无涯·问知公有云服务; 4)个人可利用AI PC或者公有云服务,访问天涯·问知服务。 无涯·问知是一款基于星环自研预训练模型无涯Infinity和向量数据库Hippo、图数据库StellarDB构建的企业级垂直领域问答知识库应用。 该产品基于星环科技大模型底座,结合个人知识库、企业知识库、法律法规、财经等多种知识源,充分利用了星环科技自研大模型底座的自动化知识工程特性,使其在处理和分析数据方面具有显著的优势,允许用户上传文档、表格、图片等多源数据,并支持与外部数据源的对接,使用户能够构建属于自己的专属领域大模型。 借助这一工具,用户可基于自身私域知识库进行更为个性化和深入的数据分析。 该产品支持不限长度的音视频图文等多模态数据快速入库,且支持自动化文档切片及向量化处理,配合自研的RAG框架,可实现知识的精准召回,可用于市场研究分析、企业供应链分析、法律风险预警、智能写作等业务场景中。 面向个人用户,星环科技推出无涯·问知AI PC版本,可在搭载英特尔新一代CPU的主流个人电脑(AI PC)上基于集成显卡和NPU流畅运行。 无涯·问知AI PC版本提供本地化的向量库,支持多种格式、不限长度的文件资料入库,并支持影、音、图、文等多模态数据和资料的“知识化”处理,以及相应的“语义化”查询和应用能力,能够对可量化的数据进行精准的分析和研判。 该工具打通了个人文件资料与企业知识库,形成本地和云端的知识联动推理,而且能保障个人的数据安全。 据介绍,无涯·问知AI PC版本具备出色的内容理解能力,包括对感知和认知层的深度理解,以及对事实、流程、图谱等高级语意的把握,因此能够更准确地理解用户需求。 四、无涯·问数:用自然语言搞定数据分析,兼顾安全性与准确性 今日星环还发布了一款智能业务分析洞察平台无涯·问数,基于星环数据分析大模型打造,旨在解决传统BI在数据获取、使用门槛和效率方面的挑战,为决策者和业务人员带来更好的数据分析体验。 该平台集合了大语言模型、AI和BI的能力,并结合数据分析主体、指标、标签设计、数据开发和治理,形成了从自然语言转数据查询语言并返回数据表或数据图表的完整流程。 非专业用户可在无涯·问数平台上使用自然语言轻松查询数据,无需掌握数据库编程语言,有效解决取数需求开发链路长、指标二义性、缺乏数据挖掘能力、数据分析高度依赖人工经验等传统数据分析痛点,简化了用户与数据交互的方式,让数据分析变得更加便捷和直观。 在安全性上,无涯问数结合NL2SQL和可视化能力,将模型输出结果解析为易于理解的界面化配置,并从多个维度提供全面的数据安全管控,在更快、更高效获取数据的同时,保证查询过程的安全性和结果数据的可解释性。 在传统BI场景中,缺乏经验的分析师难以给出高质量的分析报告,且靠人力经验积累的业务逻辑、业务洞察无法沉淀为企业知识库。 无涯问数针对数据安全保障有一系列精细的数据安全和权限控制措施,可以结合企业自由数据进行模型训练,理解行业黑化和业务逻辑,在智能分析场景下提供更高的模型准确率和分析方法论等知识输入。 针对数据一致性,无涯问数通过先进的指标和标签模块解决取数渠道和计算口径不一致的情况,提供包括针对数据、指标和标签的智能业务洞察范围,并满足客户数据来源准确和分析口径统一的需求;确保数据分析结果的可靠性,支持数据驱动的决策制定。 在应用场景上,无涯·问数提供分析仪表盘和智能问数能力,让决策者/管理者以自然语言提问快速自助获取目标数据;预定义指标计算口径,依托数据分析大模型理解用户的分析意图,让数据分析人员实现对话即分析;通过页面配置的方式快速完成数据准备,让数据开发人员,快速整合多种数据。 五、星环知识平台TKH:帮企业高效构建AI Infra 星环科技整合大数据、AI等技术,推出一款知识平台Transwarp Knowledge Hub(TKH),为企业提供一个全面、高效、智能的数据处理和知识管理解决方案。 TKH旨在为企业打通从AI基础设施到大数据、AI等研发应用的完整链条,实现企业内部所有资料知识化,能统管企业Al Infra算力、语料、模型、应用,助力企业打造安全可控的AI Infra、快速使用AIGC。 星环知识平台TKH包括知识存储与服务、语料开发与知识构建、大模型基础服务等几个重要部分。 第一,TDH for AI,打造新一代一站式多模型数字底座。 TKH提供企业级多模态知识存储与服务,助力企业打造新一代一站式多模型数字底座。基于Transwarp Data Hub for LLM知识管理平台的多模型统一技术架构,支持关系型数据、向量数据、全文检索、图数据、时序数据等的统一存储管理,满足各类场景下多模态数据的统一存储管理与服务,大幅简化知识库的知识存储与服务层架构,降低开发与运维成本。 星环科技新推出的产品可以让企业的数据底座实现四个一体化:湖仓集一体化、多模型处理一体化、历史数据与实时数据处理一体化、本地集群和云平台一体化。 其中,大数据基础平台TDH 9.4的多模基座加速AI分析;仓集资源隔离架构,在混合业务场景下依然保持极致性能;湖仓一体架构,大幅降低TCO;同份数据跑批查询与混合负载,实时备份强在线业务容灾;同时支持多模型存诸架构、大模型海量训练数据存储、多模型混合检索召回增强、Python生态等。 分布式向量数据库Hippo支持文本、图片、音视频等转化后的百亿级向量数据的存储、索引和管理,支持多种索引,具有全文检索+向量检索以及稀疏向量+稠密向量的混合检索等能力。Hippo 2.0可实现百亿级向量存储,提供灵活索引支持、20倍内存成本下降和向量全文混合检索等特性。 分布式图数据库StellarDB提供万亿级图数据存储、毫秒级点边查询和10+层深度链路分析等能力,支持丰富的图算法和图机器学习,创新的动态时序图能力更便捷地挖掘数据变化规律和预测分析。新推出的StellarDB 5.1实现了向量/全文模糊检索、秒级子图匹配、跨集群数据灾备、RAG增强大模型、GPU算法加速等功能,更稳定、安全、易用。 星环分布式分析型数据库ArgoDB支持标准SQL语法,提供多模分析、实时数据处理、联邦计算、隐私计算、数据脱敏等能力,一站式满足OLAP分析,实时数仓、数据集市、湖仓集一体等场景。 新推出的ArgoDB 6.1 版本以“增量数据实时处理”技术为基础,定义并发布“实时数据加工”的智能高效新范式;结合集群级实时同步与数据海量版本能力,协助用户够构建高可靠的实时可信大集群,以数据透明加密、SQL审核/阻断等安全技术手段为辅,共建“快好省”湖仓集一体的融合数据处理架构。 星环分布式时序数据库Timelyre支持海量时序数据库的存储与处理,具备每秒千万级数据吞吐、5~20倍无损压缩和毫秒级检索能力,支持Python、C++等API,易用的时序分析框架满足金融智能投研需求。TimeLyre 9.2新增了多模型时序分析、极速分布式回测平台、投研数据中台、时序数据湖引擎等,助力用户解锁数据深层价值。 星环分布式文件系统TDFS支持10亿级以上的大小文件的存储,并同时支持对象存储,基于Raft保障强一致,支持HDFS平滑迁移,标准POSIX协议支持上层知识等AI场景应用无感对接。 第二,语料加工工具与图谱构建工具,助力企业建立高质量模型及应用。 语料是决定行业大模型质量的关键因素,语料的质量决定了模型的质量,同时高质量语料也是解决行业大模型“幻觉”、“可信可控”等核心落地难点的重要手段。 高质量行业专用语料是企业、机构独特的竞争优势和天然壁垒。星环科技发布了一站式多场景语料平台Transwarp Corpous Sudio(TCS),旨在通过全面的语料生命周期管理,极大提升语料开发效率,助力企业或机构高质量地构建大模型及其应用。 TCS覆盖了语料获取、清洗、加工、治理、应用和管理的全生命周期,具有多种灵活的采集和构建方式,能分布式的高效处理海量语料。 这是一个功能全面、易用高效、安全可靠的语料开发利器,支持20+主流文档格式、数据化学公式、复杂语料处理、语料自动标注及筛选、多视角体系化资产编目和数据治理等。它具有三大核心优势: 1)强大的语料知识化能力,能够自动标注知识元素、识别知识类型、推荐知识应用,并构建有针对性的场景知识库,简化了知识管理和知识应用的过程。 2)易用的语料应用化能力,支持将语料快速转化为多种应用形态,如自然语言处理、机器学习等,大大降低了应用语料的门槛,加速了从数据到知识的转化过程。 3)完善的数据安全机制,TCS提供了完善的认证权限管理和加密机制,确保语料数据、模型和应用的安全可信,满足企业对数据保护的严格要求。 企业知识库的建设,让数据可以用自然语言方式进行对话和检索。企业可以集中式地管理和利用知识资源,提高运营效率和创新能力。只要企业保有自己的知识库,就可以通过微调得到企业专属大模型,实现大模型随时选、随时换,且企业核心竞争力得到保护。 企业用户利用TKH提供的星环图谱构建工具Transwarp Knowledge Studio for LLM,可将企业内部数据、个人经验数据和公开信息数据转化为知识,让数据平台更加智能化,同时能将AI PC端和云端资源联动,确保数据安全性。个人经验数据的知识转化和不断的模型微调让知识库建设更具个性化。 TKS是一套全流程、端到端的知识图谱构建工具集,涵盖了知识模型定义、多源异构数据接入、概念与物理数据映射、多元化知识的抽取融合、全自动知识构建、图谱综合查询等功能,能够帮助政务、工业、能源等多领域客户高效构建领域知识体系,并提供智能应用的场景定制化和一站式解决方案。 第三,大模型基础服务Infinity和LLMOps,让大模型快速落地。 在行业大模型发展中,企业面临技术复杂、数据和算力稀缺、管理成本高等挑战,已经意识到必须建立自己的AI基础设施,从而能够自己对模型进行预训练、微调等。 星环科技推出大模型运营平台Transwarp Sophon LLMOps,提供一站式企业级大模型生产及应用全流程开发工具链,助力企业完成从预训练到微调,到强化学习,到持续模型评估的全生命周期,让每个企业都能构建自己的专属大模型。 一个Sophon LLMOps平台可解决企业在大模型时代语料、模型、应用三类资产的持续积累和加速迭代。 星环科技自主研发的无涯大模型Infinity主要功能包括智能问答、文档问答、智能写作等,具备自主可控特性,在确保数据安全的同时,通过0-1预训练,可为各行业量身定制自有大模型,提供强大的意图理解、语义召回、数据处理和分析能力。 基于无涯大模型底座,星环科技微调了三款垂类大模型,包括问答大模型、数据分析(代码生成)大模型、多模态大模型,以应对内容生成、数据分析图片及音视频理解及检索等多样的使用场景。 星环无涯大模型Infinity提供了灵活的部署模式,包括私有化部署(AIPC版、企业版)、公有云服务等,提升了大模型数据分析能力,在语法正确性、数据库方言、语义正确性等方面有重要突破,能够精准问答,减少大模型幻觉,并通过多模数据来源来提升回答丰富度,通过构建自有知识库来确保企业数据安全。 六、Data Infra产品与服务持续完善 星环科技在推出全新的AI Infra的同时,也在不断完善Data Infra产品与服务。 星环大数据云平台推出TDC 5.0,将原来的多个TDH集群统一纳管,统管多个TDH集群,形成物理上分散、逻辑上统一的企业级一体化大数据平台。 TDC 5.0的优势包括多集群及其基础设施、多数据应用实例统一管理;跨多集群统一调度资源,均衡多个集群资源使用;跨集群共享存储组件,实现NoCopy的跨集群数据共享;隔离和控制资源配额,快速、灵活地为不同业务部门提供多租户的PaaS服务。 星环科技推出了分布式交易型数据库KunDB 4.0,提升了高可用能力与Oracle兼容性,支持跨系统多租户部署。 星环大数据开发工具TDS 4.0,增加了数据实时同步、数据入湖向导、智能化数据资产盘点、数据资产门户、数据服务编排等功能。 星环大数据安全与隐私保护工具软件Transwarp Defensor致力于帮助企业建设以数据为中心的数据安全防护体系,包括了解内部敏感数据分布情况,能够帮助管理者发现潜在风险、监管重要数据的合规合理使用等。Transwarp Defensor 4.5,增加了大模型核心资产识别、数据资产流转链路监控、安全策略智能推荐,安全风险预警与应急响应。 星环数据要素流通平台Transwarp Navier通过提供隐私计算环境,使得数据供需双方可以进行安全的数据交易。Transwarp Navier 3.1新增了全链路智能合约确保安全合规、数据流通全链路行为监控与分析、实时告警与阻断等。 结语:大模型成为企业核心能力,新型AI Infra生态走向繁荣 孙元浩谈道,大模型技术已快速融入企业生产经营的方方面面,在企业生产效率提升、业务职能提效和行业应用场景创新中无处不在,不但重构产业,打造企业的核心竞争力,而且成为企业的基础设施和核心能力,助力企业打造新质生产力。 如今顶尖基础模型参数量达到千亿级,基于MoE架构的稀疏大模型更是达到万亿参数,再加上大模型及生成式AI进入广泛落地阶段,迫切需要发展新型AI基础设施来满足对算力资源、高性能计算及存储、数据管理、安全可靠、可解释性等方面的严苛要求。 高质量的语料资源、高效率AI基础设施已成为训练和部署大模型的关键。星环科技一系列AI Infra工具及Data Infra产品与服务的推出,为企业和机构提供了更加全面、易用、安全的开发利器,有助于帮企业高效构建和管理知识库、加速实现大模型落地部署,提升数据处理、价值挖掘和业务决策的效率。
上线即满载,点军智算中心探索本土AI新基建的范式变革
作者 | 程茜 编辑 | 漠影 数字经济时代,算力就是新质生产力。 如今为企业提供多元化算力资源、能实现算力资源合理分配的智算中心正快速发展,开始进入商业化落地加速期,目前,国内已经有超30个城市布局智算中心。 随着数字经济发展加速,大模型快速演进,对算力的性能和易用性提出了更高要求,对于算力融合、软硬件协同、成本优化等诸多特性的关注度也日益增高。 在此背景下,正在打造融合智算、超算、通用算力为一体的的多元算力高地和国家算力“中继站”的宜昌市,已建成运行了605PFLOPS的算力中心,华中区域规模最大、类型最全、传输最快的异构算力集群正在加速形成。 其中建成仅5个月,点军智算中心的300PFLOPS算力资源已经实现全消纳,与无问芯穹、爱奇艺、贝式计算、启智社区等多家头部互联网企业及行业大模型企业达成算力合作,带动算力生态协同发展。 点军智算中心已经成为本土智算中心建设上线即满载的标杆案例,为业界驱动算力最大动能释放打了个样。 一、东数西算驶入快车道,点军智算中心打造行业样板 算力发展已经成为大数据时代科技发展的重要支柱,让算力资源成为一种像水和电一样的普惠公共基础资源迫在眉睫。 自2022年起,国家“东数西算”工程正式全面启动,在打通全国算力资源的基础上为各地发展带来新的增长动力。同年,湖北省响应东数西算战略,将“算力”写入大数据产业发展规划,明确在2025年建成全国领先的算力基础设施和重要的数据汇聚枢纽。 当下,算力发展与各行各业密切相关再加上大模型带来的突破性技术革命,使得算力资源能被合理、高效利用起来尤为关键,智能算力中心的基础设施建设已经成为通往数字时代的必由之路。 燧原科技创始人兼COO张亚林谈道,AI架构的发展与计算、模型大小、编程语言、时延、网络带宽、存储容量、存储带宽等密切相关。他认为,国产算力想要在每一个点实现突破,使得算力满足每一种需求,成为“全能七边形战士”难度很大。 因此,本土算力企业需要在其中找准适合自己的赛道。从整个AI架构和算法的演进来看,AI发展的每一个关键节点都会由算法驱动,这背后算力的发展突破衍生出两条路,一方面以集聚化算力为主,提倡“大力出奇迹”,另一方面通过降本增效赋能更多人工智能企业。 作为国内聚焦云端AI的领先算力企业,燧原科技已经在半导体产业的深度产业链支持、产品方面积累颇深。与泛互联网的头部厂商合作,成为燧原科技构建算力底座、加速算力普惠的支撑。 当下,燧原科技通过点军智算中心项目探索的本土算力中心市场化运营新思路,找到了本土算力企业在数字经济发展中提出的新范式的可行性。 二、“点亮”运行5个月,300PFLOPS算力全消纳 新一轮科技革命和产业变革正在向纵深演进,算力基础设施的重要性不断提升,智算中心作为新型基础设施,正为大模型等前沿技术发展提供强大算力支持。 点军智算中心从2023年8月启动建设,今年1月投入运营,“点亮”运行5个月,就已与多家头部互联网企业及行业大模型企业达成算力合作,实现上线算力300PFLOPS全消纳。 目前,点军智算中心300PFLOPS的算力资源中,包含250PFLOPS的推理算力以及50PFLOPS的训练算力,均由燧原科技提供核心算力支撑。 未来,点军政府还将在今年年内建成3000PFLOPS以上算力,其中点军人工智能算力中心二期的算力规模将达到300~500PFLOPS。 张亚林将智算中心与生成式AI比作了“容器”与“溶液”的关系,点军智算中心作为算力的“容器”,其他互联网企业的算力需求就是“溶液”,智算中心为互联网企业提供算力租赁,真正让算力用户的需求和算力资源实现匹配,实现智算中心和生成式AI的双轮驱动发展。 点军智算中心项目建成后,除了为大模型提供推理和微调任务提供算力支撑外,还为宜昌市智慧城市应用场景提供AI视频智能化解析,与智能摄像头等场景应用联动,同时为文旅、金融、科教等行业提供生成式AI服务。 在此基础上,该智算中心还将以宜昌点军为据点,对接外省市的算力调度需求,实现异地异构算力跨省市对接,加速助力宜昌打造国家东数西算战略中多元算力高地和国家算力“中继站”,联动上下游产业链玩家,支撑各省市、区域、行业的应用实践创新,实现真正按需调度算力资源。 点军智算中心已经成为宜昌“数算一体、数实融合”产业格局的重要一环。 三、打通算力、大模型、应用开发全链路,发布“燎原”生态合作计划 如今,大模型部署加速,智算中心加生成式AI的新商业模式到来。除了智算中心这样的基础设施,大模型的落地应用离不开算力提供商、大模型玩家以及应用开发服务平台的深度参与与生态协同。 张亚林提到,点军智算中心实现上线全消纳本身也说明了大模型广泛部署阶段已经来临,在这之后,大模型部署会带动更多数据产生,促进算法的演进,衍生出生成式人工智能的应用。 因此,他预计,今年下半年或明年将迎来更大一波的真正模型升级,大模型的飞轮将滚动起来。 这背后就是燧原科技与生态合作伙伴的机遇。燧原科技与贝式计算、开放传神、思迹信息、无问芯穹、澎峰科技、中电金信等多个生态合作伙伴发布了“燎原”生态合作计划和燧原生态技术伙伴培育计划,构建一个开放、协作、创新的人工智能生态系统,在此之上孵化出更多创新应用。 目前,点军智算中心的重要客户已经涵盖了大模型玩家、应用开发服务平台、垂直行业玩家、开源生态社区等丰富多元的泛互联网企业。 3月底,燧原科技和无问芯穹宣布在宜昌共建千卡集群,无问芯穹的Infini-AI平台接入了点军智算中心的算力集群,开发者可以基于该平台直接无缝使用云燧i20推理卡。这使得开发者可以在灵活调用算力资源的基础上,更直观的感受到什么样的芯片与自己的模型更加匹配,从而加速大模型在具体业务中的应用创新。 贝式计算从2019年参与燧原第二代产品设计与合作至今,燧原科技的产品在贝式自研任务中的占比已经超过85%。大模型时代计算芯片的需求呈指数级增长,硬件的迭代同样会带来软件的整体切换迁移。基于燧原科技的软件栈统一特性以及持续的研发投入,企业在算力领域的投资可以持续沿用。 大模型的应用端层面,国内头部的流媒体服务平台爱奇艺正在文生图等领域试用点军智算中心提供的算力,之后将与燧原科技探索生成式AI在影视内容制作领域的应用。这也是生成式AI在泛娱乐领域实现商业应用,大模型与更多场景相结合的一大体现。 更为重要的是开源开放的生态建设,燧原科技为AI开源开放平台OpenI启智社区提供了GCU算力资源,社区开发者可以在启智平台上基于燧原GCU进行模型训练和推理,开发者提供算力,并通过引导让开发者对国产算力的效果有所感知。 点军智算中心作为重要桥梁,将算力、大模型厂商、大模型运维商和应用开发的玩家连接起来,并通过开源开放的生态体系协同降低大模型创新的门槛,进一步推动企业的应用探索。 结语:AIDC+AIGC,驱动算力范式变革 点军智算中心不仅是燧原科技进行智算中心建设的标杆案例,同时也是湖北宜昌打造全省大规模算力集群的示范场景。从算力基础设施,到开源开放的生态建设,燧原科技为大模型应用开发和部署落地释放算力资源赋能已经得到了充分验证。 智算中心+生成式AI的生态,将建设、应用、运维算力的伙伴们聚集起来,让国内智算中心真正达到满载应用、商业落地。正如张亚林所言,当下云边端一体化为国内产业带来了更大的机遇,To B和To C开始融合,中国拥有最大的用户和场景,基于用户场景和需求推动应用、模型、服务、系统软硬件一体化的商业模式将推动AI 2.0时代新纪元到来。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。