EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
OpenAI断供中国,微软云却留了后手
“雷声大,雨点小”,AI创业者张庆这样形容OpenAI将从今年7月9日阻止国内API(应用程序接口)调用的通知。 在他看来,尽管“国内2023年头部的大模型产品,一半以上都是'套壳'ChatGPT(即调用开源大模型API提供服务,而非自研模型)”,OpenAI断供ChatGPT的调用,并未迎来想象中的行业地震。 实际上,早在2024年6月,就职某AI创企的前端开发傅涵,便将产品调用的大模型,从GPT更换为了moonshort。 5月在产品刚刚上线调试时,傅涵选择调用GPT 4.0。毕竟相比国产大模型,调用OpenAI的“价格相差无几,但处理速度更快,反馈结果更好”。 但5月过后,大规模调用OpenAI的高成本之下,随着国产大模型开始0元购,傅涵发现,“国产大模型的文本处理在一定范畴内已经不输GPT 4.0”,面对几十倍、甚至上百倍的差价,傅涵花了两周,就将接口转向了国产大模型。 巨大价格差异带来的诱惑,无疑让AI创业者们“真香”。“同样100万的Tokens(大模型文本最小处理单位),大概能供100个用户使用5个月,购买GPT 4.0,需要100元,但国产大模型DeepSeek只需要一元钱。”傅涵告诉字母榜(ID:wujicaijing),如今在头部大模型厂商的价格战之下,国内的AI创业者使用国产大模型,单月的Tokens成本相比起调用GPT 4.0,可能相差上百倍。 随着OpenAI将断供的消息传出,大厂们纷纷出动,开始“截胡”开发者。截至目前,包括智谱AI、零一万物、月之暗面、百川智能、商汤科技,以及百度、阿里、腾讯等,均已推出了OpenAI零成本迁移计划。同时部分大模型厂商,还贴心地附赠1千万乃至1亿Tokens。 “现在国产大模型的SDK都是兼容OpenAI格式的,即使切换也不过几行代码的事情。”傅涵表示。 不过,对于急着商业化、想借此抢夺OpenAI套壳用户的国产大模型来说,它们还面临着ChatGPT背后的东家微软云的竞争。 有微软云员工告诉字母榜,全球包括中华区的微软云员工,2024年都会重点推OpenAI这一项目,而目前,通过微软云 Azure接入OpenAI技术服务的企业,仅在中国,每天都有流量的企业超过3000家,注册用户上万,这其中就包括腾讯、字节、华为等大厂。 OpenAI这波热度,对于国产大模型来说,蹭上容易,但吃到嘴里还有点难。 01 OpenAI断供冲上热搜之下,靠着ChatGPT套壳“吃饭”的AI创业者们,却颇为冷静。 “通过微软云,7月9号之后,也可以用中国IP访问OpenAI,只要从微软官方渠道选定代理商签署三方协议,就能用Azure企业账号自助申请Open AI服务。”上述微软云员工告诉字母榜。在北京,可以选择昆联,在深圳有SoftwareONE硕软等公司,这些微软的代理商价格也完全统一。 作为OpenAI实际上的大股东,微软云早就盯上了中国市场。“在ChatGPT爆火前,微软云已经在中国发展起了庞大的ToB生意,微软做ToB的相关资质,也已经储存在各大公司的知识库里,”张庆表示,如今从微软云购买OpenAI 的接入服务,甚至不需要在原本的ToB业务上额外进行支付。 2023年,趁着ChatGPT的热度,张庆接入OpenAI,做了一款AI占星的小程序,“每天几十个新用户付费”,利用ChatGPT提醒每日运势、提供恋爱占星分析,随着用户数增加,访问激增,“ChatGPT的节点在国外,一到高峰期,访问速度就会慢下来”,这也促使张庆在2024年6月,成为了微软云的企业用户。 想在国内接入ChatGPT,只需要注册企业版账号,满足每月至少消耗1000美金的门槛,按照一年12000美金的费用,提前支付3年,即360000美金(约25万元人民币)。而由于张庆在香港注册了分公司,他还可免去6%的相关税务。 不同于张庆,在产品5月上线初始,傅涵为一款交通安全方面的AI产品接入ChatGPT接口,而除了不稳定的节点之外,价格也成了仍在冷启动阶段的AI创业者们,必然的考量因素。 “之前大模型没降价的时候,调用ChatGPT的价格和使用国内大模型几乎没有差别,而现在,国产大模型和ChatGPT的价格差,已经达到了几十倍,甚至上百倍。”傅涵告诉字母榜,在产品刚刚上线时,经过测试,GPT 4.0最符合产品的响应需求,而尽管国产大模型的反馈精准度、响应速度“不如GPT 4.0”,国产大模型降价之后,他还是选择了切换模型。 猛打价格战的国产大模型,靠着成为“ChatGPT平替”吸引着市场上的AI企业和套壳用户们。“据我了解,字节大模型已经便宜到了离谱的程度,如果做一些小场景,用字节的大模型,成本也很合适。”傅涵表示,测评了市面上的国产大模型后,在“不对输出结果有过高期待的情况下”,仅满足日常对话和处理要求,DeepSeek便宜大碗,“100万 tokens才1块钱,还能兼容OpenAI的SDK格式”,MiniMax则速度很快,适合特定需要速度的场景,Kimi在便宜之外,适合需要输出长文本的应用场景。 成为OpenAI平替,正在成为国产大模型们争夺的下一个场景。 02 在被国产大模型平替之前,OpenAI,一度是国内AI创业者的不二之选。 “准备好个体执照、服务号认证、域名,租一台国内服务器,一台国外服务器,大概2000块就能做一个套壳ChatGPT的小应用。”张庆道。 2023年,在ChatGPT热度正劲的当口,还未翻车的李一舟,199元的“每个人的人工智能课”售出了25万份,OpenAI不仅撑起了AI知识博主李一舟们,也撑起了赶来套壳ChatGPT的张庆们。 一年内,张庆从AI占星到AI合成照片,连续推出了近10款ChatGPT套壳小程序。每款小程序,张庆只需要利用OpenAI的API接口,就能完成占星的牌面解读,图片的后期合成。 借助小红书、抖音等社交平台,张庆会去社交平台发安利贴、去抖音做节奏混剪,还会去AI博主的账号评论下做“截流”,即“在评论区,假装普通用户,种草xxAI很好用。” 在张庆的操作下,每天会有300-400个用户进入他的小程序,按照5%的付费率,每月30-50元的会员费用,就能把成本几元钱的API账号卖给几百人,张庆的利润率能达到100%,单日收入过万“轻轻松松,哪怕只有几千粉丝,一天也有固定上百元的利润”。 最火爆的时候,张庆准备了3个以上的个体执照,“交易量大了容易被系统拦截风险,我都会准备3个以上的执照轮替支付。” 2023年,在国产大模型奋起直追ChatGPT,无瑕推出AI应用的同时,张庆这样借用ChatGPT端口,2-3个人就能日入过万的小作坊,赚的可谓盆满钵满。 在2024年创投十年高峰论坛上,金沙江创投主管合伙人朱啸虎指出,北欧的Klarnr,通过“套壳”,优化了电话中心客服端,减少了700个客服岗位,给企业带来了每年4000万美金(近3亿元人民币)的利润增量。 而作为AI搜索头部应用,2022年12月推出的Perplexity, 也一度依赖OpenAI的 GPT 3.5模型,对此,Perplexity CEO Srinivas则直言,“拥有十万用户的套壳产品,比拥有自有模型却没有用户更有意义。” 不过,随着大模型厂商开始推出APP应用,包括字节豆包、腾讯元宝、MiniMax 海螺AI等等应用,张庆们的好日子也到了头。 2024年5月前,张庆的一个小程序“每天至少能有数百名新用户,付费用户几十个”,而随着大厂集成式的APP一推出,张庆小程序的新增用户面临断崖式下跌,“在小程序里需要付费才能生成的图片,大厂可以直接免费,而且功能场景做得更丰富,”相比之下,张庆仅仅针对某一功能开发的小程序,显得颇为鸡肋,也正是因此,现在“每天进入小程序私域的用户数量基本砍半。” 即便是张庆擅长的抖音等引流平台,也早已成了字节豆包的天下,更不用说MiniMax把海螺AI的广告甚至打到了虎牙、斗鱼,面对砸钱推应用的大厂,张庆直言“扛不住”。 03 不管是通过微软云接入OpenAI,还是切换国产大模型,对于套壳大模型的AI创业者来说,2023年OpenAI爆红带来的流量红利正在消逝,已是确定的事实。 在2023年,张庆某个展示AI合成图片的混剪视频在抖音成了爆款,“视频发布当天,就有近千人涌入了小程序私域,连续一周的日流水都过2万元。”但如今,随着AIGC从新社交货币变成“老话题”,张庆明显感受到,“在抖音上同类的AI产品越来越多,但流量却越来越差。用户没有新鲜感了。” 2024年,从妙鸭到元宝,00后的黄章告诉字母榜,之前,每有一个新的AI大模型或者AI应用发布,她都会下载尝试,第一次使用Midjourney绘图,她兴奋地发了3篇小红书笔记。而随着大模型狂飙到200多个,字节、腾讯、阿里、百度都推出了自己的大模型应用,黄章既难以分清这些大模型有哪些具体差异,又愈来愈兴趣缺缺,最后“都是试用后就很少再打开”。 即便是套壳OpenAI的经典产品,如PDF.ai,其创始人 Damon Chen在2023年12月仍发帖称PDF.ai 营收已经突破 6 万美元,随后2024年2月,Adobe官方不仅直接在产品内集合了AI功能,同时还砸钱将PDF ai 的相关关键词买了下来。 仅仅一年半,OpenAI的API红利,便已经消退。随着国内大模型底层能力提高,头部大厂们纷纷挤入AI应用层,争抢仅剩的流量,对于此前套壳的开发者来说,他们的产品、运营面临着更高的要求。试图基于某个开源大模型的微调做出“大爆款”的可能性越来越小。 “可以考虑针对企业自身业务的特定场景去做模型,”傅涵表示,对于开发者来说,拥有自己开发的模型,无疑能把稳定性和主动权全掌握在自己的手里,避免出现访问限制等等不可控的意外因素。 不过,拿了700万元的天使投资,从某头部大厂出走创业的Bruce告诉字母榜,目前他们正在开发自己的AI旅游规划产品。在产品开发期,项目的设想也要基于“大厂会不会做”。一开始,基于合规需要,他就选择了接入国内大模型(智谱清言、通义千问),但即将进入产品冷启动阶段,他最焦虑的仍是,“到底有没有用户去使用?怎么让更多的用户知道这款产品?” 不同于家大业大的大厂,在@小布Bruce的账号内,Bruce表示,初创AI公司往往没有多余的人力和成本可以投入,最好去找到大厂不会做,或者做得不够精细的需求场景。但“投资人的耐心已经不够了”。上线后加速奔跑成为了Bruce们的必然之选。 不过,争着成为OpenAI平替的国产大模型,日子也并不好过。 “去年还在专注提升文本处理的月之暗面,今年招聘了不少字节的人去做增长,还是移动互联网的打法,”Bruce表示,“大厂的商业化焦虑也不少。” OpenAI断供在即,某头部大厂AI业务的员工则告诉字母榜,“公司股价降了,口碑更差了”。显然,没有了OpenAI的竞争,大厂们想要赢得更多用户认可的难题,仍未减少。
中国版GPT-4o炸场:国内首个流式多模态交互模型,现场实时且丝滑
没等到GPT-4o,商汤先把《Her》给发布出来了! 就在刚刚,商汤直接在现场来了个炸裂的Live Show,话不多说,直接看效果: 自动播放 不仅声音非常拟人(观众直呼好磁性),而且还是实时、随时可以打断的那种! 它宛如被安上了一对儿眼睛,可以做到精准无误的所见即所得。 就连手绘的粗糙的简笔画,AI也能俏皮地跟人类做互动: 自动播放 一波Live Show秀下来,引得观众掌声连连、“哇”声一片。 这就是商汤发布的国内首个流式原生多模态交互模型——6000亿参数日日新5.5系列中的5o所达到的效果。 据了解,这是一种全新的AI交互模式,把文本、声音、图像还有视频等模态全都囊括到了一起,可以让AI跟人们交流的时候变得更加生动丰富。 自动播放 可以说是真·电影走进现实了。 而且商汤CEO徐立现场表示,很快就可以用上了! 但新的AI交互模型,也还仅仅是商汤在这次发布中的一隅。 纵观整场活动,商汤可以说是围绕着日日新5.5,把多模态这事给玩儿得66的。 各位看官,咱们继续往下瞧。 计算机巨佬们“活”了起来 你没看错,商汤用新AI搞的另一个花活儿,就是“复活”了图灵、冯诺依曼等计算机巨佬们。 并且还致敬了已故的人工智能科学家,商汤科技创始人汤晓鸥老师,徐立表示: 致敬我们的创始人汤晓鸥教授对人工智能的执着,以及对于人才的培养,奠定了我们今天可以站在这里跟大家分享我们关于人工智能的一些想法。 请看VCR: 自动播放 这个新AI,名叫Vimi,是基于日日新5.5能力打造的首个可控人物视频生成大模型。 而且是只需要一张任意风格照片就能搞定、普通用户都可以用、长达1分钟的那种哦~ 要知道,“人物可控”这事一直是用大模型搞生成的一道难题,就连Sora在内大模型也面临无法精准控制动作、连续性不稳定(突然变脸)等问题。 但Vimi就不一样了,它不仅能够精确地控制人物的面部表情,还能在半身像的范围内调节人物的自然姿态。 并且也能够自动生成与人物相匹配的头发、服装以及背景的变化;时长方面更是达到了分钟级别。 由此,以后要是想打造一个自己的大片儿,例如冰雪女王,那就是一张照片的事儿了: 自动播放 以为这就完了?No,No,No。 你的表情包又要变丰富了 。 总而言之,Vimi的出现可以说是利好视频创作者,让他们有了另一个高质量AI工具的选择。 值得一提的是,Vimi还被这次世界人工智能大会(WAIC)官方授予了最高荣誉——镇馆之宝。 怎么做到的? 对于能取得上述效果背后的杀手锏技术,商汤在现场也做出了大揭秘。 一方面是架构。 日日新5.5采用的是混合端边云协同专家架构,可以最大限度发挥云边端协同,降低推理成本。 另一方面是数据。 日日新5.5在模型训练上基于超过10TB tokens高质量训练数据,包括大量合成的思维链数据,其语言理解和交互能力全面升级。 因此,日日新5.5在数学、推理、编程等多个维度较上个版本具有较大的提升,尤其是在数学推理(↑31.5%)英文理解(↑53.8%)、指令跟随(↑26.8%)等核心指标方面。 那么这一点又该如何体现呢?权威评测榜单,便是一个很好的印证。 例如根据OpenCompass的评测,日日新5.5的平均分数已经与GPT-4o持平,并且多想细分维度的分数是超越了GPT-4o的。 不要999,不要99,只要9.9元全年 除了多模态之外,端侧,也是此次商汤着重的发力点之一。 现在的日日新端侧模型5.5 Lite同样也在性能指标的各维度上做到了全面升级。 基于手机旗舰平台,5.5 Lite首次安装包的耗时仅为0.19秒,相较于之前的版本减少了40%。 它的推理速度提高了15%,达到每秒90.2个汉字的处理速度。 此外,商汤还推出了端侧模型矩阵,其中包括商量Mini写作助手、总结助手和百科助手等专门定制的模型。 这些专项模型在相应的场景下具有更优异的性能,能够满足客户复杂业务场景的需求,同时也能够提供不同的专项模型供客户选择或定制。 而且基于日日新5.5的端侧大模型还做到了“多快好”,还做到了“省”——每台使用成本最低可达每年9.9元。 在企业方面,与商汤达成合作的企业用户已经超过3000家,覆盖领域包括互联网、医疗、金融和编程等等。 而说到价格,说到普惠,就不得不提商汤此次提出的“0元Go”计划了: 即日起,成为商汤“日日新SenseNova”用户,可获得涉及调用、迁徙、训练等多项免费服务大礼包。 同时赠送5000万Tokens包,并且派出专属搬家顾问,让新用户入驻新家舒适顺利。 那么看完商汤此次的整场发布,我们还需要回答一个问题: 重塑交互为什么重要? 对于这个问题,商汤CEO徐立给出了他的解读: 我曾经的想法是我们所处的行业虽然很热,但它还没有到超级时刻,是因为它没有真正的走进到一个行业的垂直应用当中引起广泛的变化。 但现在我的想法有点改变,超级时刻和应用应该是互相成就的,只有超级时刻带来的认知的变化,最后才能推动这样一个应用。 因此,应用,或许就成为了决定这个时代是不是人工智能超级时刻的一个关键。 这也就是为什么商汤要推出流式原生多模态交互模型的原因了,只有做到了更丰富更精准的多模态,以及更低延时更可控,方可让应用这件事更上一层楼。 总而言之,思路已然清晰,技术不断进步,属于AI2.0的超级时刻或许正在加速向我们逼近。
人工智能“顶流”齐聚WAIC 2024,他们都做了什么?
一个由智能驱动的未来世界长啥样? 从完成跨海跨城航线的“空中的士”、全无人驾驶汽车、实现奔跑功能的全尺寸通用人形机器人到百度文心一言、讯飞星火、阿里通义千问、华为盘古、商汤日日新等大模型,从智能制造引领的“灯塔工厂”到融入生活、人人可体验的智能应用,一个千帆竞渡、百舸争流的智能时代正缓缓向我们伸出触手,引领我们走向无限可能的未来。 7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议(以下简称“WAIC 2024”)在上海启幕。 作为世界级AI科技盛会,本届大会以一场开幕式和三场全体会议——全球治理、产业发展、科学前沿为引领,全面覆盖AI伦理治理、大模型、数据、算力、具身智能、AI for Science、智慧工业、自动驾驶、投融资、教育与人才共十大重点话题,汇聚超过1000位全球领军人物,包括图灵奖、马尔奖、菲尔兹奖得主,科研机构、知名学者,世界500强企业代表等专家和行业人士,为人工智能技术的创新与发展注入新的活力。 当人工智能从“浅水区”迈向“深水区”,相关的研究理论出现分化与争议,研发投入与盈利能力之间的矛盾日益凸显,政、产、学、研各界正沿着不同的路径探索人工智能时代的未来。本届大会,蚂蚁集团、超云、智谱AI等国内AI领域“顶流”厂商业界全面展示了前沿技术研究和最新应用成果。 01 产业为根应用为锚,人工智能触手可及 大会开幕当天,WAIC2024公布八大“镇馆之宝”,包括蚂蚁集团基于百灵大模型的“AI智能助理”、阿里云通义灵码、智谱AI基座大模型、联想集团笔记本YOGA Book 9i AI元启、商汤Vimi可控人物视频生成大模型 、特斯拉赛博越野旅行车 、智能飞行器展区展出的三家电动垂直起降航空器(eVTOL)创新产品。作为本届世界人工智能大会的展览最高荣誉,“镇馆之宝”旨在奖励并展示全球人工智能领域的最新技术成果、发展趋势及商业潜力。 在产业发展主论坛上,蚂蚁集团董事长兼CEO井贤栋表示,专业智能体能够破解通用大模型在严谨产业应用的关键难题,蚂蚁集团正在携手产业合作伙伴构建专业智能体生态,加速产业应用,推动服务升级。“在人工智能时代,我们也在探索,让AI像扫码支付一样便利每个人的生活,让AI技术发展的红利惠及更多人。” 通过科技的力量,降低人工智能应用门槛,实现人工智能技术普惠化,是蚂蚁集团一直以来的希望。作为国内较早布局AI大模型的厂商,蚂蚁自研的百灵大模型2023年已通过备案,并以此为内核打造了“三个管家”,分别是AI生活管家、AI金融管家和AI医疗健康管家。这三个管家对应的生活、金融和医疗等场景,都需要严谨专业优质的服务。 当前,通用大模型落地严谨产业面临着三个“能力短板”:领域知识相对缺乏、复杂决策难以胜任、对话交互不等于有效协同。井贤栋介绍,为了破解这些难题,蚂蚁选择了构建专业智能体生态的路径,“从我们的实践来看,专业智能体是大模型落地严谨产业的有效路径。” 由于垂直领域、高质量的数据往往以多种模态存在,对隐私保护和资产价值保护的要求高,很难直接“喂给”通用大模型。为此,蚂蚁依托知识图谱、密态计算等技术,构建了大规模专业知识引擎,可以将垂直领域不同类型的数据,抽象成不涉及隐私信息的领域知识,成为大模型的“专业教材”,供大模型训练学习,也能让大模型在推理中随时“查阅”。这些“专业教材〞,是蚂蚁提升大模型的领域专业性、打造专业智能体的核心能力。 其次,针对大模型复杂推理的能力短板,蚂蚁提出了FoE专家级决策框架(Framework of Experts),让智能体借鉴人类专家的思考方式,构建专业的推理和决策能力。严谨产业中存在大量的专业决策框架及公认的行业最佳实践,大模型要达到专业水准,必须谦虚地向专家学习。 作为生活服务的“数字接口”,AI智能助理成为专业智能体生态的平台入口。用户通过与智能助理的对话,就能一键连接生活、金融、医疗等垂直行业的AI智能体,获得更专业丰富的服务。 以投资研究智能体支小助为例,学习金融专家的分析推理框架后,在接到不同的投研任务时,它会动态学习专家的思考方式,模仿专家的思路进行分析和生成,可以实现媲美人类专家的金融分析能力,目前支小助已经为超百家金融机构提供服务,其服务水平已经趋近于真人行业专家,为用户在金融投资方面提供专业化决策。 在医疗健康领域,蚂蚁和浙江卫健委联合推出数字健康管家“安诊儿”,背后就是一个连接着多家医院、多个医疗机构的智能体生态。安诊儿的服务贯穿诊前、诊中、诊后,覆盖挂号、咨询、用药、健康科普等26个环节,用户通过语音就可以唤醒的专业智能体,能为患者就医提供诸如导诊挂号、问诊陪护、医疗报告查询、健康管理等专业服务,对老年人、异地就医群体尤其友好。今年,安诊儿将升级为2.0版本,真正带来全流程的就医智能体网络。 在“隐私计算:助力大模型与数据可信融合发展”分论坛上,蚂蚁集团联合中国电信集团有限公司、中国信息通信研究院华东分院、浙江大学区块链与数据安全全国重点实验室等国内外行业专家、学者,从技术前沿、标准体系、实践成果等维度,共话下一代隐私计算技术创新和应用。 大模型的发展不仅为密态计算带来了更大的市场空间,同时也在促进密态计算技术的不断演进。在论坛上,蚂蚁集团全新发布“隐语Cloud”大模型密态计算服务。该服务依托于蚂蚁全栈可信隐私计算技术,不仅提供了密态推理、密态微调等一站式服务,实现多重数据防御,全面适用于多种场景,从用户查询的隐私到训练数据的安全,再到模型IP的保护,使用户可以低成本、高效率地获得密算服务。 作为本届WAIC的重磅发布,蚂蚁集团首发了国内首个大模型安全一体化解决方案“蚁天鉴 2.0”。蚁天鉴是业内首个实现产业级应用的大模型安全评测与防御一体化解决方案,可保障大模型的生产和使用更加安全、可控、可靠。 相比1.0版本,蚁天鉴 2.0新增了两项评测能力,一个是“大模型X-ray”,可针对大模型的内在神经元进行X光扫描来做探查和判断,让研究人员了解大模型内部在发生什么、定位可能引发风险的神经元、并进行编辑修正,在模型内部治理幻觉,实现从源头识别和抑制风险。第二是“大模型基础设施评测”。从攻击者视角出发,深入扫描模型算法组件及模型软件系统,可及时准确发现大模型供应链及运行环境安全问题,保障云到端的应用安全可控。 面对新技术的滥用场景,蚁天鉴还推出了“AI鉴真”解决方案,支持多模态内容真实性和深度伪造检测,可快速精准鉴别图像、视频、音频、文本内容的真伪,有效应对AI换脸、声音模拟、证件伪造等各类深度伪造风险场景,图像识别准确率99.9%达到行业最高优秀级别。 在大会展区的蚂蚁集团“AI鉴真中心”,展出了包括多模态AI鉴真、“谍影重重”深度伪造(Deepfake)互动,为普通人揭开“声音模拟、AI换脸”的真相,让公众进一步了解到反深伪技术的发展,守护人们的安全。 该互动模拟了蚁天鉴AIGC检测和证照深度合成检测两大能力,对抗声音模拟、证件伪造等AI滥用风险场景的过程。“攻击端”模拟了常见伪造手法,涵盖证照、视频等多样化素材可供选择,可对“防御端”检测模型进行攻击。该产品依托生成模型构建TB级样本,实时攻防对抗,快速精准鉴别图像、视频、音频、文本内容的真伪并形成检测报告,从而帮助用户识别和评估相关素材是否被篡改或深度生成,防御AI技术的潜在滥用。同时,蚂蚁集团特设“谍影重重之 Deepfake 互动展”,用户上传一张照片就可以生成仿真视频。通过场景化的体验,让观众对人工智能安全有着更为直观的了解和认识。 02 算力为基大模型为擎,硬核技术异彩纷呈 在本届WAIC期间,智谱AI展示了最新的人工智能技术应用成果。自新一代基座大模型GLM-4问世以来,已经有超过30万个智能体活跃在清言的智能体中心内,其中包括了诸如思维导图、文档助手、日程安排等许多出色的生产力工具。这些智能体基于GLM模型自身强大的能力以及开发者的想象力,能够越来越高效和精准地帮助用户解决问题。 清言智能体不仅拥有1亿字庞大的知识库,支持文字、表格、音频等多种文件格式和URL导入,还能递归抓取信息,更配备了思维导图、流程图、高德地图、新浪微博、飞书日历、什么值得买、微信公众号等众多实用工具,与工作生活无缝对接,让AI从数字世界走向现实。 清言智能体大幅降低了人工智能工具的应用门槛,只需一键点击,便可轻松实现开箱即用,为用户工作生活带来更多便捷与创新。无论是有经验的开发者,还是不会编程的新手,都能通过简单的自然语言,让创建一个具备人设、能自主搜索、图文转化、运行代码、使用工具的智能体,不再是一个需要数周乃至数月的开发过程,而是在几分钟内就能实现简单AI实践。 人工智能技术的普及和应用,推动了算力需求的快速增长。传统的通用算力及信创算力已逐渐转向通用AI算力和自主AI算力,以适应更加复杂多样的应用场景。同时,算力空间的重构也呈现出新趋势,从分散的机房向枢纽节点的大规模投建转变,推动了AI推理业务从中心向边缘的拓展。 超云在AI算力基础设施方面的算力产品家族和一体化AI解决方案悉数亮相,为人工智能技术的广泛应用提供了有力支撑。 5月,超云发布“AI IN ALL”发展战略,其并非仅仅是硬件的简单堆砌,而是对研发设计、专业定制、多元生态、融合集成、供应能力以及整体解决方案能力的全面挑战与考验。此战略的核心在于构建一个全方位、一体化的AI解决方案体系,通过生态系统的深度融合与多方资源的协同合作,加速企业数字化转型与智能化升级的步伐。 凭借在多元算力、智能管理、高效算能、坚实安全底座等方面的优势,超云打造了涵盖智算、信创、云系统、云计算在内的全栈算力产品家族,通过融合AI技术,实现了算力、存储、云和融合管理的无缝衔接,在提升系统便捷性、稳定性和运维效率的同时,显著降低了管理和运维成本。 回顾近年,超云在AI算力基础设施领域持续创新,为行业带来了多项突破,其更加注重打造训练和推理服务器的竞争力。尤其是在推理层面,超云更是将其提升至公司战略层面,立下了“推理之巅、超云为先”的目标。目前,超云已完成了AI推理的全栈生态搭建,大模型、高密度、液冷、边缘等各类推理机器不仅符合国内的实际需求,而且在性能、成本和使用便利性等方面都达到了较高水平。 03 另一个技术狂想:具身智能的爆发点 机器人行业中一直存在一个经典悖论——物理世界中最难解决的“容易”问题。如蹲下、起身、跳跃、转圈等等,对机器人来说,这些简单的动作都需要极为复杂的机械控制系统来实现。而现实生活中常见的简单任务,如做饭、冲咖啡、搬货,把流程分解成每一个动作,并且要做到“不走形”。这一类“容易”问题层层累加,难度是指数级递增的。 与基于软件平台的“对话机器人”的逻辑推理、或者更高层次的“生成式涌现”不同,目前活跃在一线的商业机器人、工业机器人整体走的还是自动化控制路线,需要解决的更多是机械控制问题。要解决这些问题,算法是有边界的,大多数研发与工程瓶颈被卡在传感器、控制器这一类硬件单元上,软硬件的智能融合处于非常早期探索阶段。 大模型在自然语言连续对话、通识理解、少样本/零样本学习等能力方向的突破,补全了让机器人产业从1%到10%跃升的技术基础,这也是业内看中机器人+大模型的主要原因,使得机器人在软件层面终于看到了变革的曙光。 特斯拉带来的Optimus二代人形机器人,更灵活,可操作任务更复杂。第二代机器人在AI大模型的加持下,体重比一代更轻,步行速度加快,身体控制能力增强;手部关节全新升级,活动更加自然,手指部分搭载触觉传感器,甚至能完成抓鸡蛋等精细活。同时,Optimus二代还可以做多个深蹲动作,显示出其平衡能力有所增强。 傅利叶发布了首款全尺寸人形机器人GR-1,并率先实现量产交付。一年来,研发团队在仿真环境中训练GR-1,再将训练好的模型迁移到现实世界。通过远程遥操采集人类的动作数据,用于训练和改进仿真模型,GR-1得以模仿学习人类运动,完成跳舞、打鼓、放置物品等日常生活动作。GR-1还能在户外复杂地形如草地、非平整路面及泥泞斜坡上顺利行走,实现稳定、自主的运动控制表现,为机器人在实际应用中的高效作业打下坚实的基础。 每一次技术革新都推动着人类文明的脚步不断向前。在科技的璀璨星河里,我们跃入了崭新的人工智能时代,如同一个巨大的熔炉,汇聚着无数的机遇与挑战,冷思考与热驱动在这里碰撞出绚烂的火花。这个时代还有很多问题需要面对和解决,但翻越一座座大山之后,我们终将抵达辽阔的星辰大海。
施耐德电气EcoStruxure AI引擎获SAIL奖,用AI推进高效与可持续
作者 | ZeR0 编辑 | 漠影 智东西7月5日报道,世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)于7月4日在上海开幕,2024卓越人工智能引领者奖(SAIL奖,Super AI Leader Award)在产业发展主论坛上正式揭晓。施耐德电气打造的企业级一站式AI模型生产与运维平台EcoStruxure AI引擎入选榜单TOP5。 ▲EcoStruxure AI引擎获世界人工智能大会卓越人工智能引领者奖(Super AI Leader Award) EcoStruxure AI引擎提供丰富的AI模型和解决方案,集成数据管理、模型开发、模型运维及AI应用四大人工智能(AI)功能模块,可覆盖AI模型生命周期中的数据准备、模型训练、模型部署、模型推理及模型监控五个建模流程,并提供从能源管理到工业自动化领域,经过实践认证的海量AI模型、模板和场景,助力用户实现“开箱即用”,从而实现高效业务运营。具体而言: 数据管理:EcoStruxure AI引擎支持数据连接,允许用户进行可视化探索和数据标注,并监控数据质量。 模型开发:EcoStruxure AI引擎提供丰富的AI框架,支持基于Python语言的编程式建模,以及基于“拖拉拽”方式的画布式建模。 模型运维:EcoStruxure AI引擎允许用户在云端实现数据存储和标注及模型训练、推理、部署、监控,以及迭代更新等全流程,并支持云端模型下发到产线边缘侧,执行边缘推理。 AI应用:AI应用商店提供设备预测性维护、设备能耗优化、异常检测、质量预测性分析,虚拟智能顾问等应用,用户能够轻松选择其中的各种算法和模型,并应用至自身的数据集中,减少开发新模型的时间和成本。 目前,EcoStruxure AI引擎与施耐德电气工业和能源软件相融合,广泛应用于其在中国区十余家工厂以及汽车、食品饮料、楼宇、数据中心、半导体、机械制造等多个行业,可帮助用户实现年度5%-10%的能耗降低以及3%-5%的效率提升。 施耐德电气基于电气化、自动化、数字化三大技术的融合,聚焦新一代AI在行业领域的场景应用,充分发挥“技术创新”与“生态创新”的双引擎优势,助力中国产业推进数字化、绿色化的“双转型”。 “AI技术与能源管理和工业场景的有机结合,正成为产业升级与可持续发展的重要推动力。”施耐德电气副总裁、数字化创新业务中国区负责人、施耐德电气(中国)软件研发中心负责人张磊说,施耐德电气致力于将AI技术与行业专有知识相融合,同时秉持开放的心态,与上下游伙伴、开发者合作共创,推动先进AI技术创新与落地,赋能更多企业实现节能减碳和智能化运营。 施耐德电气全球执行副总裁、首席数字官彼得·韦恺哲(Peter Weckesser)在产业发展论坛上发表以《人工智能规模化应用​,推动高效与可持续发展​》为题的主旨演讲。 “全球产业竞相加速数字化转型,IoT设备数量十年增长了6倍,而生成式AI在两个月内就获得了超过1亿用户。施耐德电气相信,AI技术规模化应用的时代已经到来,将助力产业降本增效,推动社会绿色发展。技术的终极目标是赋能于人,施耐德电气致力于不断强化研发创新、深化生态协作,赋能更多中国企业拥抱AI技术,共同推进高效与可持续。”彼得·韦恺哲说。 彼得 · 韦恺哲认为,实体经济中存在大量的专业场景,通用模型往往难以满足需求,因此AI技术必须与行业场景深度结合,形成专业解决方案,切实为行业创造价值。 比如在工业领域,施耐德电气借助AI算法为百威啤酒的产线制定智能控制策略,优化物料添加量,实现整体质量、成本、效率的最优化​,相关流程的效率可提升15%。在数据中心,施耐德电气基于AI算法与机器学习,帮助大连银行优化机房内的末端精密空调,并对冷站系统控制进行全局优化,实现末端直接节电31%,预计冷站制冷效率提升20%。 AI技术的规模化应用,可以同步推进高效和可持续。基于广泛部署的数字化系统,AI技术在发电、电网、储能、智慧工业、智能楼宇、数据中心、智能家居等各个行业领域的大规模应用,可以加速推动能源供需两侧的同步转型,助力新能源的发展和并网,在推进能源系统转型的同时提升各行各业的效率和能效,降低产业链整体碳排放,从而打造更加智能、高效、绿色的未来。 大会现场,施耐德电气商业价值研究院发布“AI for GREEN”的价值主张,提出应用AI技术可以实现“业务价值增长(Growth)、可靠性和韧性(Reliability)、高效和满意度(Efficiency)、可持续发展(Environment),以及创新的商业模式(New Horizon)”。 施耐德电气旗下AVEVA剑维软件还将发布《工业智能指数报告》,助力行业向可持续发展迈进。 AI的应用落地要求IT与OT的深度融合,不仅需要技术创新,也亟需广泛的跨界合作。施耐德电气正以AI技术强化自身软硬件解决方案,携手各界实现能耗预测,模拟仿真、策略优化和设备控制等多个领域的节能减碳和智能化运营,推进高效与可持续。 大会期间,施耐德电气展示了丰富的AI技术创新。在工业领域,施耐德电气基于EcoStruxure开放自动化平台的“睿动IOT魔方机器人”,形象展示出视觉监测、算法、决策、驱动等AI功能已经深入自动化产线的底层逻辑,助力流程优化。 AVEVA动态模拟仿真和AVEVA工艺模拟仿真等软件模块均支持AI智能体的接入集成,帮助工厂和园区处理多种瞬态场景,实现稳定运行和能效优化,满足智能工厂和产业园区等设施的运维需求。 在能源领域,施耐德电气ETAP电气系统数字孪生平台引入了AI技术,通过对电气系统全生命周期的建模与优化,实现一站式能源管理。 为加速构建新型电力系统,施耐德电气的多款能源管理软件都嵌入了AI应用,比如首创楼宇暖通领域AI应用的SpaceLogicTM AI BOX楼宇节能盒,基于施耐德电气资深行业经验,融合AI技术与数字化能源管理方案,助力行业实时调整用能策略,提效减碳。 ▲SpaceLogicTM AI BOX楼宇节能盒 EcoStruxure EMA微网能源顾问采用AI优化的控制算法,实现能耗预测及微网调度,帮助园区、工厂充分利用可再生能源,提升综合能效,减少碳足迹。 ▲EcoStruxure EMA微网能源顾问 AI技术的发展也给数据中心带来新的能效挑战。施耐德电气SmartCool末端空调节能解决方案集成了先进的AI与机器学习技术,基于IT负载的实时需求进行动态制冷输出,可节约15%-40%的电力消耗,有效节能降碳。 AI技术落地还需要生态创新。施耐德电气与各界密切合作,共同寻找行业解决方案。比如,其携手各界伙伴开启的第五季“创赢计划”就设置了AI专业赛道,助力创新型企业发力AI应用。近期,施耐德电气与英伟达合作推出了首个为智算中心量身定制的参考设计,为智算中心标准化部署和运营提供基准,并通过技术协同,推进边缘人工智能和数字孪生技术的突破性变革。 目前,施耐德电气在全球拥有超过350位人工智能和数据专家,已建成4大人工智能中心(AI Hub)及创新基地。施耐德电气执行副总裁、中国及东亚区总裁尹正谈道:“作为新一轮科技革命和产业变革的重要驱动力,AI正进一步强化数字化和绿色低碳‘双转型’,为社会经济提供新发展动能。施耐德电气将AI技术深度融入行业场景,充分发挥技术和生态优势,助力中国用户与伙伴把握机遇,赢得发展先机。”
又一大厂高管创业成果曝光!漆远带队发可信大模型,已获阿里云、启明创投注资
作者 | 程茜 编辑 | 心缘 智东西7月5日报道,昨日下午,在2024年世界人工智能大会(WAIC)上,蚂蚁集团前副总裁漆远创办的明星大模型创企无限光年发布可信光语大模型,将大语言模型与符号推理相结合,百亿参数规模的模型在垂直领域数据集上表现优于GPT-4 Turbo。 在无限光年自建的CFA考试数据集中,无限光年金融大模型在一级和二级考试中的准确率均超过了GPT-4 Turbo和Llama 3。无限光年医疗大模型在权威医疗数据集MedBench上,API和自测榜双榜第一,是首家双榜超过90分的医疗大模型,API榜综合得分90.4。 无限光年成立于2022年5月,其创始人是蚂蚁集团前副总裁漆远。2021年年底,时任蚂蚁集团副总裁漆远重返学界,任复旦大学AI创新与产业研究院院长,随后他于2022年成立无限光年。据了解,无限光年已完成多轮融资,投资人包括阿里云、启明创投等头部投资机构。 ▲无限光年创始人、CEO漆远(图源:阿里云北京峰会) 在无限光年可信大模型发布之前,智东西等媒体与无限光年创始人、CEO漆远进行了深入交流,深入拆解了无限光年可信大模型背后的技术差异性,以及其在解决大模型幻觉方面的独特优势。 一、融合先验知识和海量数据,走独特“灰盒大模型”路线 漆远谈道,无限光年的技术路线就是将大语言模型和符号推理相结合。无限光年的可信大模型参数规模为百亿,在垂直领域数据集上表现优于GPT-4 Turbo。 AI在多年发展长河中形成了符号学派和联结学派两种不同的路径和理念。该公司采用神经符号技术将符号学派的推理能力与联接学派的学习能力有机结合,并落地于金融、医疗领域。 这种技术路线既可以使大模型落地应用场景时提高推理的精准性,同时可以降低服务的成本。 他解释说,将先验的知识规则和海量数据相结合,就是他本人最开始做机器学习的方向。20世纪90年代,基于规则的专家系统式微,背后的原因第一是单纯依靠死板的规则,不能在真实的场景中被灵活应用;第二是数据本身的价值很大,但这些数据需要经过处理才能实现有效的训练。 因此,将先验的知识或规则和海量数据相结合,就是无限光年的核心技术方向。无限光年的神经符号技术可以自动激活有用的规则,明确哪些规则有用,哪些数据需要受到规则的限制很重要。 正如诺贝尔经济学奖得主丹尼尔·卡尼曼提出的“人类思维有快与慢两个系统”的理论。漆远解释说,人有两个大脑,一个是神经网络式的快思考,也就是让人类无需思考即作出行动,如“见到老虎立马跑”,在执行这一任务时,大脑不需要考虑老虎的各项特征,另一个就是需要进行逻辑推理的慢思考。 符号计算与大模型的结合不仅能用神经网络实现快速的“黑盒”概率预测,更能进行慢思考的“白盒“逻辑推理。这两个系统的融合代表是通用人工智能未来的重要技术方向,也正是无限光年独特的“灰盒大模型”路线。 事实上,这在很多应用场景中可以发挥重要作用。他举了一个例子,在金融行业,大模型落地的挑战在于,如何将其嵌入工作流程,以及如何让大模型在真实场景中发挥作用,不出现幻觉。尤其在金融行业,大模型需要进行市场分析,如果结果不精准对于企业而言就是致命性的。 二、金融大模型表现超GPT-4 Turbo,已落地头部券商和三甲医院 目前,无限光年可信大模型主要的落地方向就是金融和医疗,漆远谈道,选择金融和医疗的原因是,他本人在金融科技公司工作多年对行业本身了解多,另外他认为这两个领域很重要,事关人的健康和资金。 目前在金融行业,无限光年基于特许金融分析师(CFA)考试为大模型构建了考试数据集,CFA分为三级考试,包含金融类知识问题和计算推理问题,基于该数据集,无限光年金融大模型在一级和二级考试中的准确率均超过了GPT-4 Turbo和Llama 3。 在未公开数据集FinanceIQ和Fin-Eval上,无限光年金融大模型的表现也均超过GPT-4 Turbo和Llama 3。 可信光语大模型在ProofWriter、FOLIO、ProntoQA和MedExam Grading中的得分分别为0.99、0.58、0.99和0.80,而GPT4分别为0.91、0.56、0.94和0.64。在医疗领域,无限光年医疗大模型在权威医疗数据集MedBench上,API和自测榜双榜第一,是首家双榜超过90分的医疗大模型。API榜综合得分90.4。 去年第三季度,无限光年就与头部券商合作打造了相关工具。对于券商而言,竞争焦点就是分析报告的发布速度,AI投研助手的特点就是快、精。一般人工需要2个小时,AI投研助手+人工审核的方式可以将这个时间缩短到20分钟。第二个特点是覆盖数据广且数据准,并且还会基于用户或者公司的特色生成。 无限光年的产品有个性化的分析框架、财务和非财务信息、结构化和非结构化数据的处理能力、外部报告搜索能力等。 据漆远透露,AI的加持下可以让百人投研分析师团队,从原来的分析几百家企业扩展到五千家。对于知识搜索而言,大模型的能力都很相近,这背后的关键就是做到生成内容个性化且靠谱。每个场景的细分规则也可以让用户直接输入,做到个人提供规则,构建自己的大模型。 在医疗领域,无限光年与国内头部三甲医院合作,共同基于可信技术创新打造医疗行业大模型,在体检报告解读方面有效协助医生提升了报告效率和准确度。 他也在此强调了可信大模型的含义,其指的是在技术路线上可信,就是核心技术使结果更靠谱,但并不是达到百分之百的精准。这对于大模型真正落地行业应用的意义至关重要。 三、Transformer架构缺陷导致大模型幻觉,需与图谱突破结合提高精准度 2021年底,时任蚂蚁集团副总裁的漆远离开蚂蚁,宣布就任复旦大学AI创新与产业研究院院长,当时他就在想,人生下一步怎么走。 回溯到2014年漆远刚从美国回国之际,他见证了中国互联网时代的蓬勃发展,加入阿里巴巴大展拳脚的同时构建了阿里云核心AI平台PAI。 当时,漆远就看到了大模型的发展潜力,并实现了分布式机器学习训练。2014年之际,他计划将大模型参数规模提升百倍,也就是从百万到亿级规模。但这一技术路径争议很大,漆远谈道,在那个时间点,他们需要2000台服务器、数据时间跨度翻倍,但好在阿里巴巴领导的支持下顺利推进了该项目。 这也就是现在大模型第一性原理Scaling Laws的初期验证,他看到了大模型参数规模上升后性能的显著提升。 回到当下,大模型智能的涌现很大程度上就是极大工程、算力和数据相结合推动AI 2.0热潮来临。因此,复旦大学AI创新与产业研究院在做的,一层是将AI与科研结合进行底层创新,另外一层是实现产品创新、工程落地。 不过,漆远谈道,Scaling Laws的发展也面临很大挑战,短期来看这条路线还有红利可挖,但背后暗含着大模型竞争成为红海、底层大模型研发成本居高不下、“遗忘性灾难”的挑战。其中“遗忘性灾难”指的是大模型在一个领域学的好,其他领域的能力就会慢慢下降。因此,无限光年关注的重点就是——小模型,让大模型真正在场景里发挥作用。 还有一大关键是“大模型幻觉”。大模型幻觉在艺术创作中或许能为用户提供灵感,但一旦进入金融、医疗等领域成为新质生产力,其必须保证生成内容的准确性。但大模型幻觉无法单纯依靠参数规模扩大解决,这是由Transformer本身的缺陷导致的。漆远解释说,Transformer架构通过前几个词预告下一个词,无法真正考虑到限制条件。 因此,无限光年将逻辑推理和知识结构进行了结合,以避免大模型幻觉。这一技术路径与漆远此前的项目直接相关。2020年,漆远和蚂蚁的研究人员提出对文本进行QDGAT,其结合了知识图谱与注意力机制来提升数值推理准确性。在OpenAI官网上,GPT-4与其他团队成果在数据集上的比较中,阅读理解和数据推理任务上,GPT-4落后于QDGAT。 ▲GPT-4与QDGAT的表现比较(图源:OpenAI官网) 这项工作就暗含了现在无限光年将Transformer架构和知识图谱结合起来的技术路线。 漆远强调说,可信大模型就是大模型作为生产力工具的核心,无限光年的技术路线一方面能大规模提升推理的精准性,另一方面可以控制成本。 走向落地,可信大模型需要吸取AI 1.0的教训,场景很关键,他谈道。在一个领域中基于垂直大模型训练出专业的金融分析师、设计师,无需让大模型在企业的生产流程中同时兼顾两个工作,在能让其在企业的需求中真正发挥作用。 结语:冲破幻觉、成本瓶颈,加速大模型商业落地 经历了百模大战,今年大模型的应用落地已经成为国内的发展重心。但当通用大模型深入企业内部时,往往会因为缺乏行业深度无法针对性解决企业的核心痛点,真正做到降本增效。同时还有大模型的幻觉问题,这也是制约其让企业接受大模型能力的关键。 无限光年提出的将先验知识和海量数据结合的创新路径,从测评结果以及应用落地案例来看,能以百亿参数规模在垂直领域表现高于更大规模的GPT-4 Turbo,为大模型商业落地的大规模铺开提供了新思路。
荣耀MagicBook Art 14采用鲁班架构:超轻材料结构减重30%
IT之家 7 月 5 日消息,2024 年 7 月 5 日,荣耀在青海湖举行了轻薄技术沟通会,公布荣耀轻薄旗舰系列背后的创新工艺:荣耀鲁班架构。据悉,荣耀 MagicBook Art 14 将行业首发鲁班架构。 在沟通会上,荣耀表示,以手机思路做 PC,从折叠手机到 PC,共同挑战轻薄新高度。荣耀将折叠手机的轻薄创新技术赋能到旗舰笔记本上,折叠旗舰荣耀 Magic V3 与荣耀 MagicBook Art 14 同样搭载鲁班架构。 其中,荣耀 MagicBook Art 14 采用鲁班架构的航天级超轻材料、仿生学设计的超强机身、创新异构电池和榫卯式一体设计,打造了全球最轻薄的 AI PC。为了不断突破超轻薄产品设计的极限,荣耀的研发团队历时多年,针对材料选择与结构堆叠等关键技术进行了深入研究与技术攻关,具体来说,利用航天级超轻材料实现结构减重 30%,仿生超强机身实现了结构减重 12%,而创新异构电池则提升了 30% 的空间利用率,榫卯式一体设计更是提高了 13% 的空间利用率。 在 MWC2024 上海展期间,荣耀 CEO 赵明曾提前透露过这款产品,称荣耀接下来会推出一款全新 AI PC,会有更多颠覆性的功能。据悉,荣耀 MagicBook Art 14 在内部被称为“荣耀小镁本”,代表了荣耀对极致美学的不懈追求。 根据此前的爆料,荣耀 MagicBook Art 14 的屏幕还将支持 4320Hz 护眼屏,提供“夏日橄榄”和“日出印象”两种配色可选。其中,夏日橄榄整体呈深绿色,日出印象呈蓝粉渐变色。接口配置方面也是相当丰富,在轻薄机身下又能满足用户日常使用需求,提供 Ultra7、Ultra5 两款处理可选。 目前这款笔记本已经开启盲约,大家可以关注一下。
阿里云 CTO 周靖人:通义千问拉平了开源、闭源模型之间的差距 | WAIC 2024
今日,阿里云在上海世界人工智能大会上向所有人交出了一份成绩单。 据阿里云官方介绍,近 2 个月来,通义千问开源模型下载量增长 2 倍,突破 2000 万次,阿里云百炼服务客户数从 9 万增长至 23 万,涨幅超 150%。 借此,阿里云 CTO 周靖人也重申了阿里云拥抱开源开放的坚定立场: 两年前,我们在世界人工智能大会上发布通义大模型系列,当时我们公布,通义核心模型将开源开放。到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距。 近一年来,通义模型系列持续进化,基础模型性能也得到了不断提升。 从 OpenCompass 基准测试结果来看,通义千问-Max 得分追平 GPT-4 Turbo,是国产大模型首次在该基准上取得如此佳绩。 去年 8 月,通义更是率先加入开源行列,沿着「全模态、全尺寸」开源路线陆续推出了数十款模型。 例如,通义千问最新推出的开源模型 Qwen2-72B 在模型匿名 PK 的中文大模型竞技场 Compass Arena 上,Qwen2-72B-instruct 以 1090 的总分取得国产大模型最高分,总分仅次于 GPT-4o。 在国际开源社区 Hugging Face 组织的 Open LLM Leaderboard 模型测评中,Qwen2-72B-instruct 再度登顶,力压 Llama-3、Mixtral、Phi-3 等海外模型。 HuggingFace 联合创始人兼 CEO Clem 发文表示:「Qwen2 是王者,中国在全球开源大模型领域处于领导地位。」 大模型的训练和迭代成本极高,绝大部分的 AI 开发者和中小企业都无法负担。 基于这样的背景,百炼大模型平台在今年 5 月全面升级为阿里云承载云+AI 能力的重要平台,提供一站式、全托管的大模型定制与应用服务。 在这里,开发者 5 到 10 行代码即可快速构建 RAG 应用,让大模型拥有「最强外挂」。 在模型服务上,阿里云百炼同样坚持打造开放生态。 目前,百炼平台集成了上百款大模型 API,除了通义、Llama、ChatGLM 等系列,还首家托管零一万物、百川智能等大模型,覆盖国内外主流厂商,联动魔搭开源社区,还支持企业上架通用或行业模型,给开发者提供足够多样化的模型选择。 为了最大程度降低模型使用门槛、加速 AI 应用爆发,5 月 21 日,通义千问系列模型大幅降价,GPT-4 级主力模型直降 97%,低至百万 tokens 仅 0.5 元。 周靖人强调,阿里云会将坚持拥抱开源开放,打造一朵「AI 时代最开放的云」。
百度阿里华为高管都来了,李彦宏:闭源模型最能打!中国AI顶流WAIC演讲精华看尽
作者 | 陈骏达 编辑 | 云鹏 智东西7月5日报道,昨日下午,2024世界人工智能大会(WAIC)产业发展主论坛在上海举办。20余位产学研界的代表汇聚一堂,展开了激烈的思想碰撞。 产业发展主论坛上,百度董事长兼首席执行官李彦宏、华为常务董事兼华为云CEO张平安、商汤科技董事长兼CEO徐立等多位行业大佬进行了深度分享。中国工程院院士王坚、智谱AI首席执行官张鹏、中科院自动化所人工智能伦理与治理中心主任曾毅等多位重磅嘉宾分别参与了多场圆桌讨论。 李彦宏在演讲中谈到,闭源模型将持续保持对开源模型的优势,商业化闭源模型一定能在市场中胜出。此外,目前社会和业界对模型基础能力关注过高,也应对模型的应用给予更多关注。他还认为在未来会有数以百万计的智能体出现,而搜索会是智能体分发的最大入口。 王坚院士在圆桌讨论中更是金句频出。他提到在AI时代,新的大公司必将出现,而一定也会有大公司烈火重生。谈及能源问题,他称我们不必过度担忧,AI行业目前存在3个不等式,基础模型、应用、算力、能源之间都分别存在不平衡的关系,随着技术的进步,这些关系都将得到更好的处理,不必拿今天的观念解决未来的问题。 作为大模型企业代表,张鹏也回应了近期大模型价格战的问题。他称AI企业愿意以更低的价格给大家提供优质的服务,帮助各行各业创造更大的价值,但AI企业也需要从中获得合理的价值反馈,这才是正常的市场运行规律。 此外,在产业发展主论坛演讲和圆桌环节开始前,来自国家地方共建人形机器人创新中心的中国首个全尺寸开源通用人形机器人公版机“青龙”正式发布。 一、李彦宏、王坚等多位产学研大佬分享:闭源AI最能打、AI将催生新的大企业 WAIC的产业发展主题演讲的第一部分为“AI如何持续引领生产力变革”。百度创始人、董事长兼首席执行官李彦宏、中国电信集团董事长柯瑞文、中国移动董事长杨杰分别发表了演讲,给出他们对AI产业未来发展的见解和观点。 作为第一位发言的嘉宾,李彦宏首先回顾了过去几年AI的发展。他认为2023年的百模大战虽然造成了算力资源的浪费,但也使模型的基础能力得到建立。目前,国内已经出现了多个与GPT-4相比毫不逊色的闭源模型。 ▲百度董事长兼首席执行官李彦宏 李彦宏强调,闭源模型将保持对开源模型的优势。他认为有人混淆了模型开源和代码开源这两个概念。即便模型开源参数、公布源代码,使用者也不知道模型是如何训练出来的。开源模型并不能让使用者站在巨人的肩膀上,实现众人拾柴火焰高的效果,而是会提升推理成本、降低反应速度。 如果企业只是拿一个开源模型来“改款”,做出一个“孤本”模型,那么他们既不能从基础模型的持续升级中获益,也很难与他人共享算力。开源大模型在学术研究中的价值值得肯定,但在竞争激烈的市场环境中,商业化的闭源模型才是最能打的。 此外,李彦宏也认为,当前对基础模型能力的关注过高,而对模型应用的关注不足。“震撼发布”和“史诗级更新”层出不穷,但少有人关注应用在哪里、谁从中获益。 不过业界在关注模型应用的同时,也需要避免掉入超级应用陷阱。追求DAU10亿的产品是属于互联网时代的陈旧思维,而AI时代“超级能干的应用”比“只看DAU的超级应用”更为重要。 谈及AI的未来发展,李彦宏称百度最看好的AI应用便是智能体。他认为未来会有数以百万计的智能体出现,形成庞大的智能体生态,而搜索会是智能体分发的最大入口。 李彦宏认为,生成式AI虽然给一些工作带来了冲击,但也创造出大量新的就业机会。他坚定认为AI不是人类的竞争对手,而是会作为工具来满足人类的需求、增强人的能力、让人类的生活更美好。 第二位发言的中国电信董事长柯瑞文认为,AI正成为新一轮科技革命和产业变革的核心动力,对全球经济社会发展具有深远影响。中国电信通过云网融合战略,提供智能化连接和算力服务,推动数据中心向AI DC升级,构建绿色、安全、高效的数字基础设施。 ▲中国电信董事长柯瑞文 中国电信内部已在应用AI技术提升了运营效率,同时与产业伙伴合作,在工业、教育、医疗等领域推广AI应用,服务了7000多家客户。柯瑞文强调,人工智能的未来需要开放的生态系统和共同治理,他们期待与合作伙伴共同推动AI向善,创造美好未来,并宣布将举办人工智能生态论坛,发布AI生态合作计划和产品。 中国移动董事长杨杰在演讲中强调了AI作为新生产力的重要性。他认为AI大模型能通过整合社会全量知识,形成超越人类的逻辑推理能力,加速经济社会发展。中国移动致力于推进AI深度融入各行各业,通过技术创新和产品应用创新培育新生产力。 ▲中国移动董事长杨杰 他认为AI不会取代人类,而是将重构行业和领域,让擅长使用AI的人脱颖而出。他呼吁共同提升科技创新能力,促进生产方式变化,并完善AI治理体系,确保AI符合人类共同价值取向。 演讲环节结束后,中国工程院院士、之江实验室主任、阿里云创始人王坚和亚马逊前首席科学家、社交数据实验室创始人安德雷斯·韦思岸(Andreas Weigend)进行了一场以通用人工智能时代产业新要素结构为主题的讨论,猎豹移动董事长兼CEO、猎户星空董事长傅盛主持了本场讨论。 ▲傅盛、安德雷斯·韦思岸与王坚的圆桌对话 傅盛首先抛出了一个问题,生成式AI是否就是实现通用人工智能的唯一途径?韦思岸用自己学生时代的经历作为引子,认为不论选择何种技术方向,都必须坚持到底,不能因为某一技术方案难度增加便放弃。 王坚院士认为,尽管神经网络历史悠久,但GPT的出现标志着人工智能的新阶段,其潜力尚未被完全挖掘。他认为我们通用人工智能问题并非一朝一夕便可以解决的,但未来10年将是十分激动人心的10年。他还补充道,我们应该厘清AGI这一概念,将AGI译为通用人工智能可能会造成误解。AGI应该是未来最基础的智能系统,因此称其为普通人工智能更为恰切。 两位嘉宾还就企业可能面临哪些AI技术的发展瓶颈展开相关讨论。韦思岸认为,数据、算力和能源将会是最重要的挑战,他曾供职的亚马逊甚至在核电站周边建立了数据中心,这也从侧面反映了能源问题对AI发展的重要性。 王坚院士对这一问题有不同看法,他认为能源问题要放在时间和空间维度,采取动态的视角来看。他认为目前AI行业存在3个不等式,就现有的基础模型而言,我们的应用还不够好;以现有的算力能力而言,我们的基础模型还做得不够好;以现有的能源水平而言,我们的算力做得还不够好。 随着新能源的出现、新的算力形式的变化,能源问题会在动态的发展过程中得到解决。十年后的算力、能源或许都会变成全新的概念,不能用如今的观念来解决未来的问题。从空间的角度上来看,中国的发电量是世界领先的,不必过度担忧能源问题。 ▲王坚院士发言 至于企业可能面临的挑战,王坚院士提出新的大公司必将出现,而一定也会有原有的大公司烈火重生。如果一项新技术没有催生新的大公司,那么这项技术就不一定是真正具有颠覆性意义的技术。而对于大企业来说,虽然高度依赖数据、算力等因素的AI技术对他们来说比较友好,但这并不意味着没有创新力的大企业也能在AI浪潮中保持自己原有的地位。 王坚院士还特别提醒大型企业,有不少大企业认为AI仅仅是工具的革命,而大部分小企业都认为AI是革命的工具。这一认知的滞后可能会让大企业在AI浪潮中处于不利地位,大企业也需要尽快意识到AI的革命性意义。 谈及AI技术的社会影响,王坚院士戏称自己是一位“无药可救的技术乐观主义者”,他相信人类能够直面AI技术带来的种种挑战,解决相应的问题。韦思岸也说到,定义人类的因素不只是知识,还有人类的好奇心、审美、感受等等因素,而这些是AI永远无法取代的。 二、张平安、徐立、张鹏等业界代表分享:价格战需适可而止,企业应得到合理价值反馈 WAIC产业发展论坛第二部分以“AI将创造出哪些战略性机遇”作为主题,邀请了华为常务董事兼华为云CEO张平安、蚂蚁集团董事长兼CEO井贤栋、商汤科技董事长兼CEO徐立、高通公司中国区董事长孟樸进行主旨演讲。 张平安在他的演讲中分享了如何通过架构性创新在中国构建可持续发展的AI算力基础设施和算力技术。尽管中国的算力发展面临诸多限制,但通过架构性创新,可以在云网融合的基础上进行协同创新,构建起中国的高带宽,低时延网络优势,并在云基础设施上建立起AI算力的底座。 ▲华为常务董事、华为云CEO张平安 华为目前正在芯端算力上云、面向AI的网络架构升级、云基础设施系统架构创新三个方面发力,进行创新。华为的5G-Advanced网络上下行带宽相较5G都得到了10倍的增长,时延从10毫秒降低到1毫秒,让端侧算力上云、端云算力协同都有了坚实的网络保障。华为云还发布了全新的CloudMatrix架构,匹配超大规模算力诉求。 谈及AI的未来,张平安认为中国的AI发展道路,追求的应该是在行业领域构筑大模型的全球领先地位。如果各行各业都积极拥抱AI,积极地开放行业的业务场景,中国很有机会在to-B领域构筑起全球的领先优势。 井贤栋在演讲中谈到,专业智能体能够破解通用大模型在严谨产业(如医疗、金融等)应用的关键难题,蚂蚁集团正在携手产业合作伙伴构建专业智能体生态,加速产业应用,推动服务升级。 ▲蚂蚁集团董事长兼CEO井贤栋 井贤栋介绍,为了解决模型领域知识匮乏、难以胜任复杂决策等问题,蚂蚁选择了构建专业智能体生态的路径,“从我们的实践来看,专业智能体是大模型落地严谨产业的有效路径”。 针对领域专业知识的短板,蚂蚁携手合作伙伴打造了大规模专业知识引擎,通过知识引擎为大模型提供“专业教材”,让大模型具备专家知识水平。 其次,针对大模型复杂推理的能力短板,蚂蚁与大量行业技术专家共创,提出了FoE专家级决策框架(Framework of Experts),让智能体借鉴人类专家的思考方式,构建专业的推理和决策能力。 最后,井贤栋称,未来智能化的用户体验,一定不是只靠一个大模型,而是需要全行业深度协作,需要很多的专业智能体共同参与、各司其职。他们会坚持走开放道路,与行业共建专业智能体生态。 徐立认为,AI行业正处于一个“超级时刻”,这个时刻将由实际应用推动,引发行业认知的变革。 ▲商汤科技董事长兼CEO徐立 而要实现这一突破点,有几个关键问题需要解决。首先,目前AI进行推理需要依赖高阶逻辑数据,当前的大模型在某种程度上只是记忆器,其智能主要来自于互联网上的数据和背后的高阶逻辑思维链。AI需要具备自主构建高阶的思维链的能力,并通过与真实世界的交互形成执行数据。 实时交互性也是提供流畅体验、推动超级时刻到来的核心。此外,应用还需具备可控性,无论是文本、图像还是视频生成工具,如果没有可控性,其效能提升将非常有限。 徐立还预告了商汤日日新5.5大模型的发布,他称这一模型运用了垂直领域的思维链数据实现性能突破,还有更强的多模态能力,并具备实时交互能力。 孟樸说,高通公司认为,虽然云端AI研发和应用占据主导,但端侧AI的发展同样重要。将一部分AI工作负载转移到端侧不仅能节约大量计算资源成本,还能推动AI规模化扩展和加速数字化转型。端侧AI的实现需要高性能的AI处理器,高通便在这一领域有诸多创新。 ▲高通中国区董事长孟樸 高通的技术创新不仅限于硬件,还包括对AI模型的训练优化,以实现模型体积的小型化和效率提升,使端侧设备能够运行与云端相匹敌甚至更优的AI模型。 5G技术的快速发展与AI的结合,被高通视为赋能各行各业的关键。5G的高速连接能力与AI的智能处理能力相结合,预示着智能计算将无处不在。 在第二部分的演讲结束后,Minimax 创始人兼首席执行官闫俊杰、智谱AI首席执行官张鹏、国家地方共建人型机器人创新中心总经理许彬以及无人机企业驭风未来创始人兼首席执行官谢陵就大模型驱动的新价值链构建展开对话。 ▲闫俊杰、张鹏、许彬与谢陵的圆桌对话 闫俊杰分享了大模型在语义理解、内容创作等方面展现的巨大潜力,但他也认为,目前AI更多地是在辅助人类,而非完全取代人类的工作。他强调,未来大型模型的能力突破将体现在与实体经济的深度融合上,赋予实体经济更多的动能。他还提到了当前模型的错误率相对较高,需要进一步降低错误率以实现更广泛的应用。 张鹏从技术层面深入探讨了大模型的效能提升。他认为,大模型带来的是一种全新的能力——类人的认知能力。他称智谱的愿景是让机器像人一样思考,而不仅仅是作为一个工具。他强调,大模型的准确性虽然重要,但更重要的是模型的逻辑性和抽象思考能力。他还提到了多模态能力的重要性,认为真正的人类在现实世界中解决问题时,需要的输入信息是多模态的,模型也应如此。 ▲智谱AI首席执行官张鹏发言 许彬讨论了AI与机器人结合的发展前景。他认为人工智能发展有三个阶段:大模型阶段、具身智能阶段和通用人工智能阶段。具身智能是实现通用人工智能的必由之路,只有通过人形机器人感知物理世界的信息,才能训练出真正通用的AI。 谢陵聚焦了低空经济和AI在其中的作用。他认为,低空经济的主角是智能化、电动化和无人化的飞行器。谢灵认为,人工智能的发展将为低空经济带来更多的发展机会,特别是在飞行器的自主飞行和任务执行方面。他还强调了低空经济中的飞行器需要具备自主决策和任务生成的能力,以应对未来低空交通管理的巨大挑战。 作为AI企业的代表,颜俊杰和张鹏还分享了他们对于大模型价格战的看法。颜俊杰认为模型降价是正面的,随着模型能力的提升,模型价格的降价是自然的过程。对AI企业来说,降价能带来更大的用户流量,企业也可以据此发展出新的商业模式。 张鹏赞同颜俊杰的观点,但他也认为降价需要适可而止。AI企业愿意以更低的价格给大家提供优质的服务,帮助各行各业创造价值,但AI企业也需要从中获得合理的价值反馈,这才是正常的市场运行规律。 三、外企代表及多位国内外学者分享:AI如何助力解决全球性议题 WAIC产业发展论坛第三部分以“AI如何助力解决全球性议题”为主题。施耐德电气全球执行副总裁兼首席数字官彼得·韦恺哲(Peter Weckesser)、西门子全球执行副总裁、西门子中国董事长、总裁兼首席执行官肖松发表了主旨演讲。 韦恺哲介绍,在全球产业竞相加速数字化转型的背景下,IoT设备数量十年增长了6倍,而生成式AI在两个月内就获得了超过1亿用户。施耐德电气相信,AI技术规模化应用的时代已经到来,数据和AI将与产业深度融合,助力产业降本增效,推动社会绿色发展。 肖松介绍,西门子认为AI的爆发式增长必将加速工业元宇宙的实现,并重塑整个产业价值链。而AI要从消费走向工业,必须深度结合工业场景,打造安全、可信的工业级AI。西门子目前已经推出多款针对工业场景的AI模型,助力社会实现数字化转型。 在第三部分演讲结束后,中国科学院自动化研究所人工智能伦理与治理中心主任曾毅、加州大学伯克利分校、人工智能研究实验室人类兼容人工智能中心执行主任马克·尼兹伯格(Mark Nitzberg),牛津大学马丁人工智能治理计划联合主任、人工智能治理中心国际治理负责人罗伯特·特拉格(Robert Trager),星环信息科技(上海)股份有限公司创始人、CEO孙元浩与德勤中国主席蒋颖,以“AI 发展·人本之道”为主题,共同探讨了如何构建以人为本、负责任的产业生态共同体。 ▲蒋颖、曾毅、马克·尼茨伯格、罗伯特·特拉格和孙元浩的圆桌对话 蒋颖认为,AI发展始终承载着产学研各界对人类社会更好发展的期盼,发展以人为本的AI将成为未来的新议题。发展人本AI关键是要让AI为人做好服务、为人增强效能、为人提升体验。 曾毅在分享中强调,在过去的AI研究中,很少有人思考人与AI应该如何共存。他认为我们现在仍然处于人类的时代,他也不喜欢“AI”时代这一表达。AI未来应该帮助人类、帮助整个生态环境实现更好的发展,而不是取代人类。在AI安全问题上,政府、产界、学界都应主动承担责任,携手回应AI安全挑战。 尼兹伯格认为以人为本的AI不应该以替代人类为目标,而是要增强人类的能力,实现人与AI的合作。AI目前已经整合到大量人类的活动中,因此我们有必要关注AI技术给人带来的影响,让AI更能满足人类的需求。 特拉格认为现有的AI系统与人们之前设想的AI系统差异很大。生成式AI打破了原有的AI范式, 现在我们训练的AI系统更像是动物,在人类的正反馈下不断学习新的能力。但我们也需要不断提升训练和管理AI技术的能力,实现对风险的有效管控。 在孙元浩看来,目前的AI系统在交互性上有了较大的进步,但在推理能力方面能力的提升才能让AI真正融入到生产过程中。不过,AI在与社会、生产实现深度融合之前,必须经过严格的安全测试。企业也需要帮助社会建立对AI技术的相关知识体系。 结语:AI走入千行百业,关注应用与需求方能造福社会 今年的世界人工智能大会(WAIC)产业发展主论坛汇集了来自不同领域的杰出代表,他们从各自独特的视角出发,深入探讨了AI行业的未来发展趋势。一个显著的共识是,尽管AI技术本身在不断进步和创新,但技术的发展必须始终以实际应用和满足人类需求为核心。 在这样的背景下,AI技术的发展不仅要提升模型本身能力,也要更多地关注如何将这些技术转化为切实可行的解决方案,以回应现实世界中的需求、解决具体应用场景的问题。这种以应用为导向的AI发展策略,不仅能够推动技术的商业化进程,也能够确保技术进步真正服务于社会和人类福祉。
腾讯混元大模型参数规模超万亿,副总裁蒋杰:通用大模型会成为“水电煤”
作者 | 程茜 编辑 | 云鹏 智东西7月5日报道,今日下午,在2024世界人工智能大会(WAIC)腾讯论坛上,据腾讯集团副总裁蒋杰透露,目前腾讯混元大模型采用MoE架构,模型整体参数量已达到万亿,Token数量超过7万亿,居国内大模型第一梯队。 此外,面向大模型应用落地,腾讯已经构建了一套全链路产品矩阵,涵盖从底层丰富基础设施到顶层多元智能应用,包括自研通用大模型、模型开发平台、智能体开发平台,以及针对不同场景定制的智能应用解决方案等。 腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声认为,今天的大模型技术正在往多模态、零样本学习、3D和视频生成等方向快速演进,腾讯正持续推进AI研究和应用落地。腾讯云全新升级了大模型知识引擎、图像创作引擎、视频创作引擎,比加速大模型在医疗、文娱领域的应用落地。此外,在文化研究方面,腾讯云宣布开源全球最大的甲骨文多模态数据。 当下关于Scaling Law的讨论热度居高不下,吴运声谈道,他看到目前关于Scaling Law的观点有两类,一类认为这一技术路径发展已经较为缓和,另一派认为其仍在持续发展,从他个人来看,Scaling Law整体会在一段时间内发挥作用。例如在多模态的研究中,仍有很多新的突破出现。因此,不能一锤定音对这一技术路径的发展潜力下结论,应该基于不同的场景或者技术演进进行不断探索。 吴运声谈道,优图实验室从创立之初就坚持技术落地到产业中才能产生价值,这也是AI发展的方向,因此,他们一直在围绕这一点推进。技术层面,优图实验室在进行多模态技术、小样本零样本等技术探索;在平台层面构建努力让更多产业链玩家融入进来,不断迭代平台能力,降低AI应用的门槛;第三就是知识引擎、图像创作引擎、视频创作引擎等,将一些工具能力进行封装,帮助用户利用这些工具,快速搭建智能应用,落地到具体场景中。 ▲腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声 一、从单模态、多模态向全模态演进,大模型落地缺少杀手级应用 腾讯集团副总裁蒋杰谈道,今年WAIC的焦点毫无疑问是大模型,截止4月底,中国推出的大模型已经超过300个,超过10亿级参数规模的大模型已经超过100个。此外,近日OpenAI还宣布停止中国大陆地区的API调用,这都展现出了实现大模型全链路自主研发的价值与必要性。 目前,腾讯混元大模型采用MoE架构,参数量已经达到万亿级别,Token数量达到7万亿。在此之上,蒋杰总结了目前大模型产业的几大现象。 未来通用大模型将成为像水电煤一样的基础设施,并且会出现不同场景、不同模态、不同尺寸的大模型,企业可以根据自己的需求进行调用、精调。 蒋杰称,目前大模型涌现出来的能力还远远没有达到天花板,当其参数规模不断突破,未来会出现不同尺寸的模型,通过大小模型协同提升性能并满足企业的定制化需求。大模型主要提供强大的模型能力和泛化性能,小模型会针对特定场景进行特殊优化,实现更快、更有效的精准推理。 腾讯混元大模型已通过腾讯云向企业及个人开发者开放,包含万亿、千亿、百亿等不同参数尺寸,接下来,多种尺寸的腾讯混元MoE模型也将对外开源,可分别支持手机端、PC端、云以及数据中心等多样化的部署场景。 此外,大模型行业正经历从单模态到多模态,再到全模态的演进。 他补充说,在文生图领域,采用DiT架构的模型融合了早前主要用于文本生成的Transformer架构,并在图像和视频生成任务中展现出了显著的优势;在文生视频领域,视频生成正朝着更高分辨率、更长时长、更精细的方向发展,一些较好的模型已经能够生成长达数分钟高清的视频,带来了广阔的应用想象空间。 在应用方面,蒋杰认为,应用场景将是未来大模型决战的必然因素。当前大模型落地主要在工作提效方面,距离真实的业务有一定距离,缺少了杀手级应用。 腾讯很早就将大模型定位为应用型大模型,并不断在内部产品上进行打磨,目前腾讯内部已经有接近700个业务和场景接入大模型,每天调用量达到3亿次左右。接下来,腾讯将基于这些实践呈现的能力和经验通过腾讯云对外开放。 二、混元大模型训练语料超7万亿,多个版本已开源 腾讯在大模型领域已经构建了一套全链路产品矩阵,涵盖从底层丰富基础设施到顶层多元智能应用。包括自研通用大模型、模型开发平台、智能体开发平台,以及针对不同场景定制的智能应用解决方案等。 吴运声谈道,过去一段时间的发展使得AI技术进阶达到新的制高点,但实际落地中,单模态技术只在部分场景表现良好,多模态的加持能扩展大模型的应用范式。如多模态大模型可以结合视觉和语言理解突破此前的技术应用局限,实现更精准的语义分析等。 学习范式上,传统模型受限于任务独立和需要大量标注数据,通过零样本和小样本学习就可以简化研发流程。如生成数字人,现在仅需一张照片就可以生成而无需其他定制过程。吴运声谈道,这类技术还可以应用到工业质检场景,通过简单的词汇提示或者缺陷图示照片就可以提高缺陷检测的效率和准确性。 此外,在内容呈现方面,随着视频生成等技术发展,用户可以获得更沉浸式的体验,如通过3D生成技术打破传统的物理仿真局限,提高生成内容的速度和质量。 基于底层技术的突破,腾讯的大模型也在不断进化。去年9月,腾讯发布了全链路自研腾讯混元大模型,基于MoE模型达到了万亿参数规模级别,预训练语料超过7万亿Token。吴运声称,腾讯混元大模型已经稳居国内大模型的第一梯队,单日调用Token数已经超过千亿。 腾讯云上开放了混元lite 256k版本、vision多模态版本,以及代码生成、角色扮演等子模型和接口,满足不同企业和开发者的需求。 三、全链路产品矩阵,知识引擎、图像创作、视频创作升级剑指应用落地 在模型工具产品层面,今年5月,腾讯推出三个大模型PaaS产品,包括知识引擎、图像生成引擎和视频生成引擎。目前这三大产品已经实现了升级迭代。 知识引擎的动态检索能力升级,支持图文互搜、以图搜图等,还能够结合知识库中检索返回的图文片段给出图文并茂的答案。腾讯还进一步扩展了企业知识类型覆盖面,升级了对话式数据问答体验,支持超大表格、多场景的多步骤推理、多条件筛选、求和计算等。 在图像创作引擎中,其图像风格已经新增到33种,并推出了专用于头像的生成模式,使得生成的图片既能保留个人相貌特色,还可以融入多元艺术风格特征。同时,该工具还新增了商品背景生成、模特换装、创意换装等,能够降低营销和影视行业的制作成本。 腾讯在视频创作引擎中新增了超过20种热门舞蹈动作,并且基于3D建模技术和生成技术,能够提升视频的音频自然度、相似度和语速效果。 与此同时,为了帮助企业更快速打造专属模型应用,腾讯机器学习平台TI在精调数据准备、精调训练和模型验证平台方面进行了全面升级。 TI平台内置开源可扩展的数据构建,能帮开发者进行数据准备,并提升了数据标注能力;在精调训练方面,该平台支持一键启动精调任务,通过3层稳定机制并支持自研安卓框架确保大模型训练的连续性和性能提升;模型验证过程中,TI平台采用三阶段模型评测流程,包括轻量体验、客观决策、主观评测。 目前,腾讯已经围绕办公协同、数据分析、知识管理、智能营销等多个产品为用户提供全链路的模型服务。吴运声称,他们已经将知识引擎的能力应用于起点客户大模型的文本机器人之上,面向账单查询和退换货等复杂任务时,大模型机器人的配置成本相较于传统文本机器人可以减少50%以上。 服务于企业内部的知识学习协作平台腾讯乐享,目前已经服务超30万家客户,拥有上亿用户,在大模型和知识引擎的加持下,乐享围绕知识生产端和消费端实现了突破。 吴运声举例称,在知识生产端,一句话AI就可以完成协作,同时还能生成培训知识点提升不同部门的培训效率;在知识消费端,腾讯推出了智能问答,可以让AI回答更多的企业内部业务知识,提高知识获取效率。 四、已落地医疗、文娱、科研,开源全球最大甲骨文多模态数据集 在产业落地方面,腾讯已经在医疗、文娱、科学研究等领域实现突破。 医疗领域方面,腾讯和上海市数字医学创新中心共研了医学大模型,并在瑞金医院实现了体检报告和电子病历生成等落地应用。在体检报告生成方面,大模型平均5秒就可以生成体检报告,为医生节约了超50%的撰写时间。 文娱行业,腾讯和阅文集团基于大模型文生文的能力,为作家提供了AI辅助写作助手,包括描写灵感、大纲提取、角色提取等能力,可以帮助作家写作、插图制作等。 在这之外,吴运声也谈道,多模型的应用也会为企业带来很多现实问题。 首先,企业的工程团队资源有限,针对迭代很快的模型去自行搭建推理集群和服务平台很复杂;其次,模型的推理成本很高,并且百亿、千亿级别模型的推理部署会在吞吐量、时延方面面临瓶颈。 腾讯TI平台就是这些解决这些难题的答案。 企业只需要在TI平台上进行点选就可以快速开启训练任务,在推理方面,腾讯已经帮助阅文集团提升了相同资源条件下的内容生成速度,另外平台也提供了更直观的监控、管理工具,帮助其管理任务和资源。 在产业落地之外,大模型在科学计算、文化研究等方面的应用价值正在被放大。 在天文领域,基于AI技术加持,腾讯已经发现了3例快速射电暴和41颗脉冲星,据吴运声透露,快速射电暴是目前天文界研究的重点,相比脉冲星,快速射电暴因为发行时间短、AI训练数据少、出现频率低,因此其发现难度相比脉冲星更大。 基于此,腾讯设计了全新的端到端AI算法,引入了多示例学习和大模型的注意力机制,可以提升模型的精度和数据处理速度。 文化领域,腾讯今天开源了全球最大的甲骨文多模态综合数据集,包含拓片、摹本;单字对应位置、对应字头等。该数据集可以帮助研究人员开发甲骨文检测识别模版、生成自行。 最后,吴运声谈道,无论在产业落地还是科学文化探索、大模型技术的进阶,这些发展都离不开完整的产业链协同和生态共建。 结语:腾讯已积累大模型全链路自研技术 一直以来,从语音、图像到大模型,腾讯一直都仅仅站在AI技术发展的中心位置,通过核心技术突破在结合场景推动AI的研究与落地,目前在大模型方面,腾讯已经积累了从算力基础设施到机器学习平台以及上层应用的全链路自研技术。 随着大模型这类前沿AI技术在实体经济、文化保护、科学发现等领域的应用深入,并且上中下游的产业链协同和生态共建加速,AI正在成为全社会智能升级的强劲动力。
发布千卡规模异构芯片混训平台,无问芯穹要打造最具性价比的 AI 基础建设 | WAIC 2024
基础设施,在 AI 时代里是什么样一个角色?有人说像电,有人说像水。 无问芯穹认为,优良的基础建设,是一种「魔法」,能够让大模型成本有效下降,让更多人拥抱新技术。 7 月 4 日,无问芯穹联合创始人兼 CEO 夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算力利用率最高达到了 97.6%。 四个月前,无问芯穹 Infini-AI 大模型开发与服务云平台宣布首次公测,已有智谱 AI、月之暗面、生数科技等大模型公司客户在 Infini-AI 上稳定使用异构算力,还有 20 余家 AI Native 应用创业公司在 Infini-AI 上持续调用各种预置模型 API,使用无问芯穹提供的工具链开发自身业务模型。 建设大模型时代的 AI Native 基础设施,不仅能够为 AI 开发者提供更加通用、高效、便捷的研发环境,同时也是实现算力资源有效整合,支撑 AI 产业可持续发展的关键基石。与国际上模型层与芯片层「相对集中」的格局相比,中国的模型层与芯片层更加有多样性。 然而,多样性也意味着挑战,大量的异构芯片也形成了「生态竖井」,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。这是构建 AI Native 基础设施的最大难点,也是当前大模型行业面临「算力荒」的重要原因。 无问芯穹具备顶尖的 AI 计算优化能力与算力解决方案能力,以及对「M 种模型」与「N 种芯片」行业格局的前瞻判断,率先构建了「MxN」中间层的生态格局,实现多种大模型算法在多元芯片上的高效、统一部署。 截至目前,Infini-AI 已支持了 Qwen2、GLM4、Llama3、Gemma、Yi、Baichuan2、ChatGLM3 系列等共 30 多个模型,以及 AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡。 「技术上限推高与技术落地扩散不矛盾,且取决于我们决心如何对待这个技术。」夏立雪表示,「未来我们用各种 AI 应用时,也不会知道它调用了哪些基座模型,用到了哪种加速卡的算力——这就是最好的 AI Native 基础设施。」
消息称三星Galaxy Z Fold 6 Slim手机首次配备8英寸内屏
原标题:消息称三星 Galaxy Z Fold 6 Slim 手机首次配备 8 英寸内屏,仅在中国等少数市场发售 IT之家 7 月 5 日消息,韩媒 The Elec 报道称,三星 Galaxy Z Fold 6 Slim 手机的主要零部件审批已经完成,即将进入量产阶段,预计四季度发布。 这款更为轻薄的折叠屏手机将首次配备 8 英寸内屏,此外其还将拥有 6.5 英寸外屏,较 Galaxy Z Fold 6 标准版的 7.6 英寸内屏和 6.3 英寸外屏更大。 韩媒称三星此前就开发出了 8 英寸内屏折叠屏手机的样机,但当时的样品存在厚度过大影响握持的问题。 ▲ 三星 Galaxy Z Fold5 折叠屏。图源IT之家图赏 报道指出,三星电子直到今年初才决定要在 Z Fold 6 和 Z Flip 6 的基础上为今年的折叠屏手机产品线新增一款超薄横向折叠型号,因此 Z Fold 6 Slim 的开发十分匆忙。 报道还提到,三星在今年 5 月对 Z Fold 6 Slim 进行了全面测试。 结果显示其内屏可承受 20 万次折叠,整体的防尘防水性能也达到了预期,不过在厚度方面仍然比不上中国国内厂商的折叠屏手机产品。 三星电子目前内部为 Z Fold 6 Slim 规划的产能目标是到今年年底出货 40 万~50 万台,供应十分有限,因此这款机型将仅在有限市场销售。 根据IT之家此前报道,三星 Galaxy Z Fold 6 Slim 手机预计在国内以 W25 的名义发售,而 W25 机型近日已通过国家 3C 认证。
蚂蚁集团发布隐语Cloud大模型密算平台!让数据像自来水一样可信流通
作者 | 李水青 编辑 | 云鹏 智东西7月5日报道,今日,在2024年世界人工智能大会上,蚂蚁集团推出隐语Cloud大模型密算平台,以助力大模型落地所需的高质量数据供给。 隐语Cloud大模型密算平台基于软硬件结合的可信隐私计算技术,在大模型托管和大模型推理等环节实现数据密态流转,从而保护模型资产、数据安全和用户隐私。 “数据供给决定了大模型应用能力的上限。”蚂蚁集团副总裁、首席技术安全官韦韬在论坛上说。但数据的价值越高,风险越大,韦韬认为,当下的数据流通依然面临着严峻挑战——不敢、不愿、不会。 蚂蚁集团从2016年开始探索隐私计算技术,今年5月底公布以AI和数据要素技术为核心的科技战略,随后成立浙江蚂蚁密算科技有限公司,提供密算相关的产品和服务,推动数据安全可信的跨云跨端低成本流通。 浙江蚂蚁密算科技有限公司CEO王磊在论坛中透露,隐语Cloud大模型密算平台的服务,将逐步覆盖到垂直大模型从构建到对外服务的全链路数据安全。 一、大模型催生新数据需求,隐语Cloud让数据可信流通 随着大模型应用的深入,访问信息保护的诉求会越来越强。 王磊提到,包括普通问答场景、基于重要商业数据的知识检索或生成、私人秘书等多种场景,都可能需要大模型平台去访问较私密的数据。 如果没有对数据的充分安全保护,人们则不敢去使用这些具有私密性质的数据。 行业数据的供给是大模型在各行业被广泛应用的关键。行业客户往往有一些明确需求,包括:行业数据不被人窃取,不用担心训练的模型记住了数据,模型方不会贬低数据价值等。 王磊谈道,蚂蚁推出的隐语Cloud大模型密算平台有两大特征:一是大模型密态托管,解决大模型云上部署时的IP保护问题,一是大模型密态推理,解决用户访问大模型时,用户隐私和商业机密的保护问题。 隐语Cloud大模型密算平台支持轻量化远程认证,支持三级通用安全分级,支持GPU在可信执行环境下进行计算,以及密态推理集群,具备易用性、安全性、高性能和高可用特征。 在产品形态方面,隐语Cloud大模型密算平台支持开箱即用的公有云形式,同时支持专有云形式密算科技服务,助力智算到密算的升级。 蚂蚁从两大维度打磨隐语Cloud大模型密算平台,一方面从数据标注到在线推理全链路的密算能力,一方面是多重密态计算技术防御,适用不同场景,平衡安全性和成本。 二、从通算、智算到密算,让数据像自来水一样易用 算力行业正从通算、智算走向密算。 AI推动通算走向智算,一方面算力需求突增,另一方面也陷入能耗瓶颈,这需要我们换个角度思考算力的突破。 韦韬在论坛上谈道,数据决定AI能力的上限,但数据价值具备双面性——价值越高,风险越大。当下的数据流通依然面临着严峻挑战——不敢、不愿、不会。 为此,韦韬认为,密态算力将成为数据可信流通的新算力。 全链路密态计算,可以破解规模化数据流通中风险闭环的两大难题:责任追溯和风险控制。 韦韬谈道,密态算力的提升将伴随着全栈变革,助行业突破瓶颈。当全链路密算成本低于数据流通价值5%时,即可以规模化推广。隐语Cloud支持全路线密态计算技术,平衡性能和成本需求。 密算体系将推动数据要素的高效广域可信流通,从早期的数据孤岛、数据要素点到点流通,到当下的数据要素区域化可信流通。 未来我们将见证数据要素广域可信流通,跨行业、地域和云可信互联互通,降低边际成本,从而助力千行百业数字化转型。 韦韬表示,蚂蚁集团从2016年开始探索隐私计算技术,能力涵盖了全栈可信技术、多方安全计算、联邦学习、同态加密、差分隐私、机密计算等隐私计算全谱技术域。 “我们希望联合产业合作伙伴,把蚂蚁集团多年来在密态计算技术上的探索和创新,以开源和产品化的形式对外开放,助力推动产业向前发展,为实体经济和中小微企业创造新的价值,让数据价值的流动像自来水一样即开即用。”韦韬说。 结语:全链路密态计算,助大模型破解数据供给挑战 当下,数据已成为制约AI行业应用发展的重要关键。数据可信流通是全新的技术挑战,IBM《2023年度数据泄露成本报告》显示,2023数据泄露的平均总成本达到445万美元。 王磊透露,隐语Cloud大模型密算平台的服务将逐步覆盖全链路数据安全,接下来将为垂直大模型从预训练、微调、评测、推理到用户交互的全程提供密态计算服务,促进数据可信安全流转。 平台还将提供密态大模型开发所需的全链路工具,提供的服务包括密态检索增强生成、密态提示词、Agent流程编排等。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。