EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
又一大厂高管创业成果曝光!漆远带队发可信大模型,已获阿里云、启明创投注资
作者 | 程茜 编辑 | 心缘 智东西7月5日报道,昨日下午,在2024年世界人工智能大会(WAIC)上,蚂蚁集团前副总裁漆远创办的明星大模型创企无限光年发布可信光语大模型,将大语言模型与符号推理相结合,百亿参数规模的模型在垂直领域数据集上表现优于GPT-4 Turbo。 在无限光年自建的CFA考试数据集中,无限光年金融大模型在一级和二级考试中的准确率均超过了GPT-4 Turbo和Llama 3。无限光年医疗大模型在权威医疗数据集MedBench上,API和自测榜双榜第一,是首家双榜超过90分的医疗大模型,API榜综合得分90.4。 无限光年成立于2022年5月,其创始人是蚂蚁集团前副总裁漆远。2021年年底,时任蚂蚁集团副总裁漆远重返学界,任复旦大学AI创新与产业研究院院长,随后他于2022年成立无限光年。据了解,无限光年已完成多轮融资,投资人包括阿里云、启明创投等头部投资机构。 ▲无限光年创始人、CEO漆远(图源:阿里云北京峰会) 在无限光年可信大模型发布之前,智东西等媒体与无限光年创始人、CEO漆远进行了深入交流,深入拆解了无限光年可信大模型背后的技术差异性,以及其在解决大模型幻觉方面的独特优势。 一、融合先验知识和海量数据,走独特“灰盒大模型”路线 漆远谈道,无限光年的技术路线就是将大语言模型和符号推理相结合。无限光年的可信大模型参数规模为百亿,在垂直领域数据集上表现优于GPT-4 Turbo。 AI在多年发展长河中形成了符号学派和联结学派两种不同的路径和理念。该公司采用神经符号技术将符号学派的推理能力与联接学派的学习能力有机结合,并落地于金融、医疗领域。 这种技术路线既可以使大模型落地应用场景时提高推理的精准性,同时可以降低服务的成本。 他解释说,将先验的知识规则和海量数据相结合,就是他本人最开始做机器学习的方向。20世纪90年代,基于规则的专家系统式微,背后的原因第一是单纯依靠死板的规则,不能在真实的场景中被灵活应用;第二是数据本身的价值很大,但这些数据需要经过处理才能实现有效的训练。 因此,将先验的知识或规则和海量数据相结合,就是无限光年的核心技术方向。无限光年的神经符号技术可以自动激活有用的规则,明确哪些规则有用,哪些数据需要受到规则的限制很重要。 正如诺贝尔经济学奖得主丹尼尔·卡尼曼提出的“人类思维有快与慢两个系统”的理论。漆远解释说,人有两个大脑,一个是神经网络式的快思考,也就是让人类无需思考即作出行动,如“见到老虎立马跑”,在执行这一任务时,大脑不需要考虑老虎的各项特征,另一个就是需要进行逻辑推理的慢思考。 符号计算与大模型的结合不仅能用神经网络实现快速的“黑盒”概率预测,更能进行慢思考的“白盒“逻辑推理。这两个系统的融合代表是通用人工智能未来的重要技术方向,也正是无限光年独特的“灰盒大模型”路线。 事实上,这在很多应用场景中可以发挥重要作用。他举了一个例子,在金融行业,大模型落地的挑战在于,如何将其嵌入工作流程,以及如何让大模型在真实场景中发挥作用,不出现幻觉。尤其在金融行业,大模型需要进行市场分析,如果结果不精准对于企业而言就是致命性的。 二、金融大模型表现超GPT-4 Turbo,已落地头部券商和三甲医院 目前,无限光年可信大模型主要的落地方向就是金融和医疗,漆远谈道,选择金融和医疗的原因是,他本人在金融科技公司工作多年对行业本身了解多,另外他认为这两个领域很重要,事关人的健康和资金。 目前在金融行业,无限光年基于特许金融分析师(CFA)考试为大模型构建了考试数据集,CFA分为三级考试,包含金融类知识问题和计算推理问题,基于该数据集,无限光年金融大模型在一级和二级考试中的准确率均超过了GPT-4 Turbo和Llama 3。 在未公开数据集FinanceIQ和Fin-Eval上,无限光年金融大模型的表现也均超过GPT-4 Turbo和Llama 3。 可信光语大模型在ProofWriter、FOLIO、ProntoQA和MedExam Grading中的得分分别为0.99、0.58、0.99和0.80,而GPT4分别为0.91、0.56、0.94和0.64。在医疗领域,无限光年医疗大模型在权威医疗数据集MedBench上,API和自测榜双榜第一,是首家双榜超过90分的医疗大模型。API榜综合得分90.4。 去年第三季度,无限光年就与头部券商合作打造了相关工具。对于券商而言,竞争焦点就是分析报告的发布速度,AI投研助手的特点就是快、精。一般人工需要2个小时,AI投研助手+人工审核的方式可以将这个时间缩短到20分钟。第二个特点是覆盖数据广且数据准,并且还会基于用户或者公司的特色生成。 无限光年的产品有个性化的分析框架、财务和非财务信息、结构化和非结构化数据的处理能力、外部报告搜索能力等。 据漆远透露,AI的加持下可以让百人投研分析师团队,从原来的分析几百家企业扩展到五千家。对于知识搜索而言,大模型的能力都很相近,这背后的关键就是做到生成内容个性化且靠谱。每个场景的细分规则也可以让用户直接输入,做到个人提供规则,构建自己的大模型。 在医疗领域,无限光年与国内头部三甲医院合作,共同基于可信技术创新打造医疗行业大模型,在体检报告解读方面有效协助医生提升了报告效率和准确度。 他也在此强调了可信大模型的含义,其指的是在技术路线上可信,就是核心技术使结果更靠谱,但并不是达到百分之百的精准。这对于大模型真正落地行业应用的意义至关重要。 三、Transformer架构缺陷导致大模型幻觉,需与图谱突破结合提高精准度 2021年底,时任蚂蚁集团副总裁的漆远离开蚂蚁,宣布就任复旦大学AI创新与产业研究院院长,当时他就在想,人生下一步怎么走。 回溯到2014年漆远刚从美国回国之际,他见证了中国互联网时代的蓬勃发展,加入阿里巴巴大展拳脚的同时构建了阿里云核心AI平台PAI。 当时,漆远就看到了大模型的发展潜力,并实现了分布式机器学习训练。2014年之际,他计划将大模型参数规模提升百倍,也就是从百万到亿级规模。但这一技术路径争议很大,漆远谈道,在那个时间点,他们需要2000台服务器、数据时间跨度翻倍,但好在阿里巴巴领导的支持下顺利推进了该项目。 这也就是现在大模型第一性原理Scaling Laws的初期验证,他看到了大模型参数规模上升后性能的显著提升。 回到当下,大模型智能的涌现很大程度上就是极大工程、算力和数据相结合推动AI 2.0热潮来临。因此,复旦大学AI创新与产业研究院在做的,一层是将AI与科研结合进行底层创新,另外一层是实现产品创新、工程落地。 不过,漆远谈道,Scaling Laws的发展也面临很大挑战,短期来看这条路线还有红利可挖,但背后暗含着大模型竞争成为红海、底层大模型研发成本居高不下、“遗忘性灾难”的挑战。其中“遗忘性灾难”指的是大模型在一个领域学的好,其他领域的能力就会慢慢下降。因此,无限光年关注的重点就是——小模型,让大模型真正在场景里发挥作用。 还有一大关键是“大模型幻觉”。大模型幻觉在艺术创作中或许能为用户提供灵感,但一旦进入金融、医疗等领域成为新质生产力,其必须保证生成内容的准确性。但大模型幻觉无法单纯依靠参数规模扩大解决,这是由Transformer本身的缺陷导致的。漆远解释说,Transformer架构通过前几个词预告下一个词,无法真正考虑到限制条件。 因此,无限光年将逻辑推理和知识结构进行了结合,以避免大模型幻觉。这一技术路径与漆远此前的项目直接相关。2020年,漆远和蚂蚁的研究人员提出对文本进行QDGAT,其结合了知识图谱与注意力机制来提升数值推理准确性。在OpenAI官网上,GPT-4与其他团队成果在数据集上的比较中,阅读理解和数据推理任务上,GPT-4落后于QDGAT。 ▲GPT-4与QDGAT的表现比较(图源:OpenAI官网) 这项工作就暗含了现在无限光年将Transformer架构和知识图谱结合起来的技术路线。 漆远强调说,可信大模型就是大模型作为生产力工具的核心,无限光年的技术路线一方面能大规模提升推理的精准性,另一方面可以控制成本。 走向落地,可信大模型需要吸取AI 1.0的教训,场景很关键,他谈道。在一个领域中基于垂直大模型训练出专业的金融分析师、设计师,无需让大模型在企业的生产流程中同时兼顾两个工作,在能让其在企业的需求中真正发挥作用。 结语:冲破幻觉、成本瓶颈,加速大模型商业落地 经历了百模大战,今年大模型的应用落地已经成为国内的发展重心。但当通用大模型深入企业内部时,往往会因为缺乏行业深度无法针对性解决企业的核心痛点,真正做到降本增效。同时还有大模型的幻觉问题,这也是制约其让企业接受大模型能力的关键。 无限光年提出的将先验知识和海量数据结合的创新路径,从测评结果以及应用落地案例来看,能以百亿参数规模在垂直领域表现高于更大规模的GPT-4 Turbo,为大模型商业落地的大规模铺开提供了新思路。
荣耀MagicBook Art 14采用鲁班架构:超轻材料结构减重30%
IT之家 7 月 5 日消息,2024 年 7 月 5 日,荣耀在青海湖举行了轻薄技术沟通会,公布荣耀轻薄旗舰系列背后的创新工艺:荣耀鲁班架构。据悉,荣耀 MagicBook Art 14 将行业首发鲁班架构。 在沟通会上,荣耀表示,以手机思路做 PC,从折叠手机到 PC,共同挑战轻薄新高度。荣耀将折叠手机的轻薄创新技术赋能到旗舰笔记本上,折叠旗舰荣耀 Magic V3 与荣耀 MagicBook Art 14 同样搭载鲁班架构。 其中,荣耀 MagicBook Art 14 采用鲁班架构的航天级超轻材料、仿生学设计的超强机身、创新异构电池和榫卯式一体设计,打造了全球最轻薄的 AI PC。为了不断突破超轻薄产品设计的极限,荣耀的研发团队历时多年,针对材料选择与结构堆叠等关键技术进行了深入研究与技术攻关,具体来说,利用航天级超轻材料实现结构减重 30%,仿生超强机身实现了结构减重 12%,而创新异构电池则提升了 30% 的空间利用率,榫卯式一体设计更是提高了 13% 的空间利用率。 在 MWC2024 上海展期间,荣耀 CEO 赵明曾提前透露过这款产品,称荣耀接下来会推出一款全新 AI PC,会有更多颠覆性的功能。据悉,荣耀 MagicBook Art 14 在内部被称为“荣耀小镁本”,代表了荣耀对极致美学的不懈追求。 根据此前的爆料,荣耀 MagicBook Art 14 的屏幕还将支持 4320Hz 护眼屏,提供“夏日橄榄”和“日出印象”两种配色可选。其中,夏日橄榄整体呈深绿色,日出印象呈蓝粉渐变色。接口配置方面也是相当丰富,在轻薄机身下又能满足用户日常使用需求,提供 Ultra7、Ultra5 两款处理可选。 目前这款笔记本已经开启盲约,大家可以关注一下。
阿里云 CTO 周靖人:通义千问拉平了开源、闭源模型之间的差距 | WAIC 2024
今日,阿里云在上海世界人工智能大会上向所有人交出了一份成绩单。 据阿里云官方介绍,近 2 个月来,通义千问开源模型下载量增长 2 倍,突破 2000 万次,阿里云百炼服务客户数从 9 万增长至 23 万,涨幅超 150%。 借此,阿里云 CTO 周靖人也重申了阿里云拥抱开源开放的坚定立场: 两年前,我们在世界人工智能大会上发布通义大模型系列,当时我们公布,通义核心模型将开源开放。到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距。 近一年来,通义模型系列持续进化,基础模型性能也得到了不断提升。 从 OpenCompass 基准测试结果来看,通义千问-Max 得分追平 GPT-4 Turbo,是国产大模型首次在该基准上取得如此佳绩。 去年 8 月,通义更是率先加入开源行列,沿着「全模态、全尺寸」开源路线陆续推出了数十款模型。 例如,通义千问最新推出的开源模型 Qwen2-72B 在模型匿名 PK 的中文大模型竞技场 Compass Arena 上,Qwen2-72B-instruct 以 1090 的总分取得国产大模型最高分,总分仅次于 GPT-4o。 在国际开源社区 Hugging Face 组织的 Open LLM Leaderboard 模型测评中,Qwen2-72B-instruct 再度登顶,力压 Llama-3、Mixtral、Phi-3 等海外模型。 HuggingFace 联合创始人兼 CEO Clem 发文表示:「Qwen2 是王者,中国在全球开源大模型领域处于领导地位。」 大模型的训练和迭代成本极高,绝大部分的 AI 开发者和中小企业都无法负担。 基于这样的背景,百炼大模型平台在今年 5 月全面升级为阿里云承载云+AI 能力的重要平台,提供一站式、全托管的大模型定制与应用服务。 在这里,开发者 5 到 10 行代码即可快速构建 RAG 应用,让大模型拥有「最强外挂」。 在模型服务上,阿里云百炼同样坚持打造开放生态。 目前,百炼平台集成了上百款大模型 API,除了通义、Llama、ChatGLM 等系列,还首家托管零一万物、百川智能等大模型,覆盖国内外主流厂商,联动魔搭开源社区,还支持企业上架通用或行业模型,给开发者提供足够多样化的模型选择。 为了最大程度降低模型使用门槛、加速 AI 应用爆发,5 月 21 日,通义千问系列模型大幅降价,GPT-4 级主力模型直降 97%,低至百万 tokens 仅 0.5 元。 周靖人强调,阿里云会将坚持拥抱开源开放,打造一朵「AI 时代最开放的云」。
百度阿里华为高管都来了,李彦宏:闭源模型最能打!中国AI顶流WAIC演讲精华看尽
作者 | 陈骏达 编辑 | 云鹏 智东西7月5日报道,昨日下午,2024世界人工智能大会(WAIC)产业发展主论坛在上海举办。20余位产学研界的代表汇聚一堂,展开了激烈的思想碰撞。 产业发展主论坛上,百度董事长兼首席执行官李彦宏、华为常务董事兼华为云CEO张平安、商汤科技董事长兼CEO徐立等多位行业大佬进行了深度分享。中国工程院院士王坚、智谱AI首席执行官张鹏、中科院自动化所人工智能伦理与治理中心主任曾毅等多位重磅嘉宾分别参与了多场圆桌讨论。 李彦宏在演讲中谈到,闭源模型将持续保持对开源模型的优势,商业化闭源模型一定能在市场中胜出。此外,目前社会和业界对模型基础能力关注过高,也应对模型的应用给予更多关注。他还认为在未来会有数以百万计的智能体出现,而搜索会是智能体分发的最大入口。 王坚院士在圆桌讨论中更是金句频出。他提到在AI时代,新的大公司必将出现,而一定也会有大公司烈火重生。谈及能源问题,他称我们不必过度担忧,AI行业目前存在3个不等式,基础模型、应用、算力、能源之间都分别存在不平衡的关系,随着技术的进步,这些关系都将得到更好的处理,不必拿今天的观念解决未来的问题。 作为大模型企业代表,张鹏也回应了近期大模型价格战的问题。他称AI企业愿意以更低的价格给大家提供优质的服务,帮助各行各业创造更大的价值,但AI企业也需要从中获得合理的价值反馈,这才是正常的市场运行规律。 此外,在产业发展主论坛演讲和圆桌环节开始前,来自国家地方共建人形机器人创新中心的中国首个全尺寸开源通用人形机器人公版机“青龙”正式发布。 一、李彦宏、王坚等多位产学研大佬分享:闭源AI最能打、AI将催生新的大企业 WAIC的产业发展主题演讲的第一部分为“AI如何持续引领生产力变革”。百度创始人、董事长兼首席执行官李彦宏、中国电信集团董事长柯瑞文、中国移动董事长杨杰分别发表了演讲,给出他们对AI产业未来发展的见解和观点。 作为第一位发言的嘉宾,李彦宏首先回顾了过去几年AI的发展。他认为2023年的百模大战虽然造成了算力资源的浪费,但也使模型的基础能力得到建立。目前,国内已经出现了多个与GPT-4相比毫不逊色的闭源模型。 ▲百度董事长兼首席执行官李彦宏 李彦宏强调,闭源模型将保持对开源模型的优势。他认为有人混淆了模型开源和代码开源这两个概念。即便模型开源参数、公布源代码,使用者也不知道模型是如何训练出来的。开源模型并不能让使用者站在巨人的肩膀上,实现众人拾柴火焰高的效果,而是会提升推理成本、降低反应速度。 如果企业只是拿一个开源模型来“改款”,做出一个“孤本”模型,那么他们既不能从基础模型的持续升级中获益,也很难与他人共享算力。开源大模型在学术研究中的价值值得肯定,但在竞争激烈的市场环境中,商业化的闭源模型才是最能打的。 此外,李彦宏也认为,当前对基础模型能力的关注过高,而对模型应用的关注不足。“震撼发布”和“史诗级更新”层出不穷,但少有人关注应用在哪里、谁从中获益。 不过业界在关注模型应用的同时,也需要避免掉入超级应用陷阱。追求DAU10亿的产品是属于互联网时代的陈旧思维,而AI时代“超级能干的应用”比“只看DAU的超级应用”更为重要。 谈及AI的未来发展,李彦宏称百度最看好的AI应用便是智能体。他认为未来会有数以百万计的智能体出现,形成庞大的智能体生态,而搜索会是智能体分发的最大入口。 李彦宏认为,生成式AI虽然给一些工作带来了冲击,但也创造出大量新的就业机会。他坚定认为AI不是人类的竞争对手,而是会作为工具来满足人类的需求、增强人的能力、让人类的生活更美好。 第二位发言的中国电信董事长柯瑞文认为,AI正成为新一轮科技革命和产业变革的核心动力,对全球经济社会发展具有深远影响。中国电信通过云网融合战略,提供智能化连接和算力服务,推动数据中心向AI DC升级,构建绿色、安全、高效的数字基础设施。 ▲中国电信董事长柯瑞文 中国电信内部已在应用AI技术提升了运营效率,同时与产业伙伴合作,在工业、教育、医疗等领域推广AI应用,服务了7000多家客户。柯瑞文强调,人工智能的未来需要开放的生态系统和共同治理,他们期待与合作伙伴共同推动AI向善,创造美好未来,并宣布将举办人工智能生态论坛,发布AI生态合作计划和产品。 中国移动董事长杨杰在演讲中强调了AI作为新生产力的重要性。他认为AI大模型能通过整合社会全量知识,形成超越人类的逻辑推理能力,加速经济社会发展。中国移动致力于推进AI深度融入各行各业,通过技术创新和产品应用创新培育新生产力。 ▲中国移动董事长杨杰 他认为AI不会取代人类,而是将重构行业和领域,让擅长使用AI的人脱颖而出。他呼吁共同提升科技创新能力,促进生产方式变化,并完善AI治理体系,确保AI符合人类共同价值取向。 演讲环节结束后,中国工程院院士、之江实验室主任、阿里云创始人王坚和亚马逊前首席科学家、社交数据实验室创始人安德雷斯·韦思岸(Andreas Weigend)进行了一场以通用人工智能时代产业新要素结构为主题的讨论,猎豹移动董事长兼CEO、猎户星空董事长傅盛主持了本场讨论。 ▲傅盛、安德雷斯·韦思岸与王坚的圆桌对话 傅盛首先抛出了一个问题,生成式AI是否就是实现通用人工智能的唯一途径?韦思岸用自己学生时代的经历作为引子,认为不论选择何种技术方向,都必须坚持到底,不能因为某一技术方案难度增加便放弃。 王坚院士认为,尽管神经网络历史悠久,但GPT的出现标志着人工智能的新阶段,其潜力尚未被完全挖掘。他认为我们通用人工智能问题并非一朝一夕便可以解决的,但未来10年将是十分激动人心的10年。他还补充道,我们应该厘清AGI这一概念,将AGI译为通用人工智能可能会造成误解。AGI应该是未来最基础的智能系统,因此称其为普通人工智能更为恰切。 两位嘉宾还就企业可能面临哪些AI技术的发展瓶颈展开相关讨论。韦思岸认为,数据、算力和能源将会是最重要的挑战,他曾供职的亚马逊甚至在核电站周边建立了数据中心,这也从侧面反映了能源问题对AI发展的重要性。 王坚院士对这一问题有不同看法,他认为能源问题要放在时间和空间维度,采取动态的视角来看。他认为目前AI行业存在3个不等式,就现有的基础模型而言,我们的应用还不够好;以现有的算力能力而言,我们的基础模型还做得不够好;以现有的能源水平而言,我们的算力做得还不够好。 随着新能源的出现、新的算力形式的变化,能源问题会在动态的发展过程中得到解决。十年后的算力、能源或许都会变成全新的概念,不能用如今的观念来解决未来的问题。从空间的角度上来看,中国的发电量是世界领先的,不必过度担忧能源问题。 ▲王坚院士发言 至于企业可能面临的挑战,王坚院士提出新的大公司必将出现,而一定也会有原有的大公司烈火重生。如果一项新技术没有催生新的大公司,那么这项技术就不一定是真正具有颠覆性意义的技术。而对于大企业来说,虽然高度依赖数据、算力等因素的AI技术对他们来说比较友好,但这并不意味着没有创新力的大企业也能在AI浪潮中保持自己原有的地位。 王坚院士还特别提醒大型企业,有不少大企业认为AI仅仅是工具的革命,而大部分小企业都认为AI是革命的工具。这一认知的滞后可能会让大企业在AI浪潮中处于不利地位,大企业也需要尽快意识到AI的革命性意义。 谈及AI技术的社会影响,王坚院士戏称自己是一位“无药可救的技术乐观主义者”,他相信人类能够直面AI技术带来的种种挑战,解决相应的问题。韦思岸也说到,定义人类的因素不只是知识,还有人类的好奇心、审美、感受等等因素,而这些是AI永远无法取代的。 二、张平安、徐立、张鹏等业界代表分享:价格战需适可而止,企业应得到合理价值反馈 WAIC产业发展论坛第二部分以“AI将创造出哪些战略性机遇”作为主题,邀请了华为常务董事兼华为云CEO张平安、蚂蚁集团董事长兼CEO井贤栋、商汤科技董事长兼CEO徐立、高通公司中国区董事长孟樸进行主旨演讲。 张平安在他的演讲中分享了如何通过架构性创新在中国构建可持续发展的AI算力基础设施和算力技术。尽管中国的算力发展面临诸多限制,但通过架构性创新,可以在云网融合的基础上进行协同创新,构建起中国的高带宽,低时延网络优势,并在云基础设施上建立起AI算力的底座。 ▲华为常务董事、华为云CEO张平安 华为目前正在芯端算力上云、面向AI的网络架构升级、云基础设施系统架构创新三个方面发力,进行创新。华为的5G-Advanced网络上下行带宽相较5G都得到了10倍的增长,时延从10毫秒降低到1毫秒,让端侧算力上云、端云算力协同都有了坚实的网络保障。华为云还发布了全新的CloudMatrix架构,匹配超大规模算力诉求。 谈及AI的未来,张平安认为中国的AI发展道路,追求的应该是在行业领域构筑大模型的全球领先地位。如果各行各业都积极拥抱AI,积极地开放行业的业务场景,中国很有机会在to-B领域构筑起全球的领先优势。 井贤栋在演讲中谈到,专业智能体能够破解通用大模型在严谨产业(如医疗、金融等)应用的关键难题,蚂蚁集团正在携手产业合作伙伴构建专业智能体生态,加速产业应用,推动服务升级。 ▲蚂蚁集团董事长兼CEO井贤栋 井贤栋介绍,为了解决模型领域知识匮乏、难以胜任复杂决策等问题,蚂蚁选择了构建专业智能体生态的路径,“从我们的实践来看,专业智能体是大模型落地严谨产业的有效路径”。 针对领域专业知识的短板,蚂蚁携手合作伙伴打造了大规模专业知识引擎,通过知识引擎为大模型提供“专业教材”,让大模型具备专家知识水平。 其次,针对大模型复杂推理的能力短板,蚂蚁与大量行业技术专家共创,提出了FoE专家级决策框架(Framework of Experts),让智能体借鉴人类专家的思考方式,构建专业的推理和决策能力。 最后,井贤栋称,未来智能化的用户体验,一定不是只靠一个大模型,而是需要全行业深度协作,需要很多的专业智能体共同参与、各司其职。他们会坚持走开放道路,与行业共建专业智能体生态。 徐立认为,AI行业正处于一个“超级时刻”,这个时刻将由实际应用推动,引发行业认知的变革。 ▲商汤科技董事长兼CEO徐立 而要实现这一突破点,有几个关键问题需要解决。首先,目前AI进行推理需要依赖高阶逻辑数据,当前的大模型在某种程度上只是记忆器,其智能主要来自于互联网上的数据和背后的高阶逻辑思维链。AI需要具备自主构建高阶的思维链的能力,并通过与真实世界的交互形成执行数据。 实时交互性也是提供流畅体验、推动超级时刻到来的核心。此外,应用还需具备可控性,无论是文本、图像还是视频生成工具,如果没有可控性,其效能提升将非常有限。 徐立还预告了商汤日日新5.5大模型的发布,他称这一模型运用了垂直领域的思维链数据实现性能突破,还有更强的多模态能力,并具备实时交互能力。 孟樸说,高通公司认为,虽然云端AI研发和应用占据主导,但端侧AI的发展同样重要。将一部分AI工作负载转移到端侧不仅能节约大量计算资源成本,还能推动AI规模化扩展和加速数字化转型。端侧AI的实现需要高性能的AI处理器,高通便在这一领域有诸多创新。 ▲高通中国区董事长孟樸 高通的技术创新不仅限于硬件,还包括对AI模型的训练优化,以实现模型体积的小型化和效率提升,使端侧设备能够运行与云端相匹敌甚至更优的AI模型。 5G技术的快速发展与AI的结合,被高通视为赋能各行各业的关键。5G的高速连接能力与AI的智能处理能力相结合,预示着智能计算将无处不在。 在第二部分的演讲结束后,Minimax 创始人兼首席执行官闫俊杰、智谱AI首席执行官张鹏、国家地方共建人型机器人创新中心总经理许彬以及无人机企业驭风未来创始人兼首席执行官谢陵就大模型驱动的新价值链构建展开对话。 ▲闫俊杰、张鹏、许彬与谢陵的圆桌对话 闫俊杰分享了大模型在语义理解、内容创作等方面展现的巨大潜力,但他也认为,目前AI更多地是在辅助人类,而非完全取代人类的工作。他强调,未来大型模型的能力突破将体现在与实体经济的深度融合上,赋予实体经济更多的动能。他还提到了当前模型的错误率相对较高,需要进一步降低错误率以实现更广泛的应用。 张鹏从技术层面深入探讨了大模型的效能提升。他认为,大模型带来的是一种全新的能力——类人的认知能力。他称智谱的愿景是让机器像人一样思考,而不仅仅是作为一个工具。他强调,大模型的准确性虽然重要,但更重要的是模型的逻辑性和抽象思考能力。他还提到了多模态能力的重要性,认为真正的人类在现实世界中解决问题时,需要的输入信息是多模态的,模型也应如此。 ▲智谱AI首席执行官张鹏发言 许彬讨论了AI与机器人结合的发展前景。他认为人工智能发展有三个阶段:大模型阶段、具身智能阶段和通用人工智能阶段。具身智能是实现通用人工智能的必由之路,只有通过人形机器人感知物理世界的信息,才能训练出真正通用的AI。 谢陵聚焦了低空经济和AI在其中的作用。他认为,低空经济的主角是智能化、电动化和无人化的飞行器。谢灵认为,人工智能的发展将为低空经济带来更多的发展机会,特别是在飞行器的自主飞行和任务执行方面。他还强调了低空经济中的飞行器需要具备自主决策和任务生成的能力,以应对未来低空交通管理的巨大挑战。 作为AI企业的代表,颜俊杰和张鹏还分享了他们对于大模型价格战的看法。颜俊杰认为模型降价是正面的,随着模型能力的提升,模型价格的降价是自然的过程。对AI企业来说,降价能带来更大的用户流量,企业也可以据此发展出新的商业模式。 张鹏赞同颜俊杰的观点,但他也认为降价需要适可而止。AI企业愿意以更低的价格给大家提供优质的服务,帮助各行各业创造价值,但AI企业也需要从中获得合理的价值反馈,这才是正常的市场运行规律。 三、外企代表及多位国内外学者分享:AI如何助力解决全球性议题 WAIC产业发展论坛第三部分以“AI如何助力解决全球性议题”为主题。施耐德电气全球执行副总裁兼首席数字官彼得·韦恺哲(Peter Weckesser)、西门子全球执行副总裁、西门子中国董事长、总裁兼首席执行官肖松发表了主旨演讲。 韦恺哲介绍,在全球产业竞相加速数字化转型的背景下,IoT设备数量十年增长了6倍,而生成式AI在两个月内就获得了超过1亿用户。施耐德电气相信,AI技术规模化应用的时代已经到来,数据和AI将与产业深度融合,助力产业降本增效,推动社会绿色发展。 肖松介绍,西门子认为AI的爆发式增长必将加速工业元宇宙的实现,并重塑整个产业价值链。而AI要从消费走向工业,必须深度结合工业场景,打造安全、可信的工业级AI。西门子目前已经推出多款针对工业场景的AI模型,助力社会实现数字化转型。 在第三部分演讲结束后,中国科学院自动化研究所人工智能伦理与治理中心主任曾毅、加州大学伯克利分校、人工智能研究实验室人类兼容人工智能中心执行主任马克·尼兹伯格(Mark Nitzberg),牛津大学马丁人工智能治理计划联合主任、人工智能治理中心国际治理负责人罗伯特·特拉格(Robert Trager),星环信息科技(上海)股份有限公司创始人、CEO孙元浩与德勤中国主席蒋颖,以“AI 发展·人本之道”为主题,共同探讨了如何构建以人为本、负责任的产业生态共同体。 ▲蒋颖、曾毅、马克·尼茨伯格、罗伯特·特拉格和孙元浩的圆桌对话 蒋颖认为,AI发展始终承载着产学研各界对人类社会更好发展的期盼,发展以人为本的AI将成为未来的新议题。发展人本AI关键是要让AI为人做好服务、为人增强效能、为人提升体验。 曾毅在分享中强调,在过去的AI研究中,很少有人思考人与AI应该如何共存。他认为我们现在仍然处于人类的时代,他也不喜欢“AI”时代这一表达。AI未来应该帮助人类、帮助整个生态环境实现更好的发展,而不是取代人类。在AI安全问题上,政府、产界、学界都应主动承担责任,携手回应AI安全挑战。 尼兹伯格认为以人为本的AI不应该以替代人类为目标,而是要增强人类的能力,实现人与AI的合作。AI目前已经整合到大量人类的活动中,因此我们有必要关注AI技术给人带来的影响,让AI更能满足人类的需求。 特拉格认为现有的AI系统与人们之前设想的AI系统差异很大。生成式AI打破了原有的AI范式, 现在我们训练的AI系统更像是动物,在人类的正反馈下不断学习新的能力。但我们也需要不断提升训练和管理AI技术的能力,实现对风险的有效管控。 在孙元浩看来,目前的AI系统在交互性上有了较大的进步,但在推理能力方面能力的提升才能让AI真正融入到生产过程中。不过,AI在与社会、生产实现深度融合之前,必须经过严格的安全测试。企业也需要帮助社会建立对AI技术的相关知识体系。 结语:AI走入千行百业,关注应用与需求方能造福社会 今年的世界人工智能大会(WAIC)产业发展主论坛汇集了来自不同领域的杰出代表,他们从各自独特的视角出发,深入探讨了AI行业的未来发展趋势。一个显著的共识是,尽管AI技术本身在不断进步和创新,但技术的发展必须始终以实际应用和满足人类需求为核心。 在这样的背景下,AI技术的发展不仅要提升模型本身能力,也要更多地关注如何将这些技术转化为切实可行的解决方案,以回应现实世界中的需求、解决具体应用场景的问题。这种以应用为导向的AI发展策略,不仅能够推动技术的商业化进程,也能够确保技术进步真正服务于社会和人类福祉。
腾讯混元大模型参数规模超万亿,副总裁蒋杰:通用大模型会成为“水电煤”
作者 | 程茜 编辑 | 云鹏 智东西7月5日报道,今日下午,在2024世界人工智能大会(WAIC)腾讯论坛上,据腾讯集团副总裁蒋杰透露,目前腾讯混元大模型采用MoE架构,模型整体参数量已达到万亿,Token数量超过7万亿,居国内大模型第一梯队。 此外,面向大模型应用落地,腾讯已经构建了一套全链路产品矩阵,涵盖从底层丰富基础设施到顶层多元智能应用,包括自研通用大模型、模型开发平台、智能体开发平台,以及针对不同场景定制的智能应用解决方案等。 腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声认为,今天的大模型技术正在往多模态、零样本学习、3D和视频生成等方向快速演进,腾讯正持续推进AI研究和应用落地。腾讯云全新升级了大模型知识引擎、图像创作引擎、视频创作引擎,比加速大模型在医疗、文娱领域的应用落地。此外,在文化研究方面,腾讯云宣布开源全球最大的甲骨文多模态数据。 当下关于Scaling Law的讨论热度居高不下,吴运声谈道,他看到目前关于Scaling Law的观点有两类,一类认为这一技术路径发展已经较为缓和,另一派认为其仍在持续发展,从他个人来看,Scaling Law整体会在一段时间内发挥作用。例如在多模态的研究中,仍有很多新的突破出现。因此,不能一锤定音对这一技术路径的发展潜力下结论,应该基于不同的场景或者技术演进进行不断探索。 吴运声谈道,优图实验室从创立之初就坚持技术落地到产业中才能产生价值,这也是AI发展的方向,因此,他们一直在围绕这一点推进。技术层面,优图实验室在进行多模态技术、小样本零样本等技术探索;在平台层面构建努力让更多产业链玩家融入进来,不断迭代平台能力,降低AI应用的门槛;第三就是知识引擎、图像创作引擎、视频创作引擎等,将一些工具能力进行封装,帮助用户利用这些工具,快速搭建智能应用,落地到具体场景中。 ▲腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声 一、从单模态、多模态向全模态演进,大模型落地缺少杀手级应用 腾讯集团副总裁蒋杰谈道,今年WAIC的焦点毫无疑问是大模型,截止4月底,中国推出的大模型已经超过300个,超过10亿级参数规模的大模型已经超过100个。此外,近日OpenAI还宣布停止中国大陆地区的API调用,这都展现出了实现大模型全链路自主研发的价值与必要性。 目前,腾讯混元大模型采用MoE架构,参数量已经达到万亿级别,Token数量达到7万亿。在此之上,蒋杰总结了目前大模型产业的几大现象。 未来通用大模型将成为像水电煤一样的基础设施,并且会出现不同场景、不同模态、不同尺寸的大模型,企业可以根据自己的需求进行调用、精调。 蒋杰称,目前大模型涌现出来的能力还远远没有达到天花板,当其参数规模不断突破,未来会出现不同尺寸的模型,通过大小模型协同提升性能并满足企业的定制化需求。大模型主要提供强大的模型能力和泛化性能,小模型会针对特定场景进行特殊优化,实现更快、更有效的精准推理。 腾讯混元大模型已通过腾讯云向企业及个人开发者开放,包含万亿、千亿、百亿等不同参数尺寸,接下来,多种尺寸的腾讯混元MoE模型也将对外开源,可分别支持手机端、PC端、云以及数据中心等多样化的部署场景。 此外,大模型行业正经历从单模态到多模态,再到全模态的演进。 他补充说,在文生图领域,采用DiT架构的模型融合了早前主要用于文本生成的Transformer架构,并在图像和视频生成任务中展现出了显著的优势;在文生视频领域,视频生成正朝着更高分辨率、更长时长、更精细的方向发展,一些较好的模型已经能够生成长达数分钟高清的视频,带来了广阔的应用想象空间。 在应用方面,蒋杰认为,应用场景将是未来大模型决战的必然因素。当前大模型落地主要在工作提效方面,距离真实的业务有一定距离,缺少了杀手级应用。 腾讯很早就将大模型定位为应用型大模型,并不断在内部产品上进行打磨,目前腾讯内部已经有接近700个业务和场景接入大模型,每天调用量达到3亿次左右。接下来,腾讯将基于这些实践呈现的能力和经验通过腾讯云对外开放。 二、混元大模型训练语料超7万亿,多个版本已开源 腾讯在大模型领域已经构建了一套全链路产品矩阵,涵盖从底层丰富基础设施到顶层多元智能应用。包括自研通用大模型、模型开发平台、智能体开发平台,以及针对不同场景定制的智能应用解决方案等。 吴运声谈道,过去一段时间的发展使得AI技术进阶达到新的制高点,但实际落地中,单模态技术只在部分场景表现良好,多模态的加持能扩展大模型的应用范式。如多模态大模型可以结合视觉和语言理解突破此前的技术应用局限,实现更精准的语义分析等。 学习范式上,传统模型受限于任务独立和需要大量标注数据,通过零样本和小样本学习就可以简化研发流程。如生成数字人,现在仅需一张照片就可以生成而无需其他定制过程。吴运声谈道,这类技术还可以应用到工业质检场景,通过简单的词汇提示或者缺陷图示照片就可以提高缺陷检测的效率和准确性。 此外,在内容呈现方面,随着视频生成等技术发展,用户可以获得更沉浸式的体验,如通过3D生成技术打破传统的物理仿真局限,提高生成内容的速度和质量。 基于底层技术的突破,腾讯的大模型也在不断进化。去年9月,腾讯发布了全链路自研腾讯混元大模型,基于MoE模型达到了万亿参数规模级别,预训练语料超过7万亿Token。吴运声称,腾讯混元大模型已经稳居国内大模型的第一梯队,单日调用Token数已经超过千亿。 腾讯云上开放了混元lite 256k版本、vision多模态版本,以及代码生成、角色扮演等子模型和接口,满足不同企业和开发者的需求。 三、全链路产品矩阵,知识引擎、图像创作、视频创作升级剑指应用落地 在模型工具产品层面,今年5月,腾讯推出三个大模型PaaS产品,包括知识引擎、图像生成引擎和视频生成引擎。目前这三大产品已经实现了升级迭代。 知识引擎的动态检索能力升级,支持图文互搜、以图搜图等,还能够结合知识库中检索返回的图文片段给出图文并茂的答案。腾讯还进一步扩展了企业知识类型覆盖面,升级了对话式数据问答体验,支持超大表格、多场景的多步骤推理、多条件筛选、求和计算等。 在图像创作引擎中,其图像风格已经新增到33种,并推出了专用于头像的生成模式,使得生成的图片既能保留个人相貌特色,还可以融入多元艺术风格特征。同时,该工具还新增了商品背景生成、模特换装、创意换装等,能够降低营销和影视行业的制作成本。 腾讯在视频创作引擎中新增了超过20种热门舞蹈动作,并且基于3D建模技术和生成技术,能够提升视频的音频自然度、相似度和语速效果。 与此同时,为了帮助企业更快速打造专属模型应用,腾讯机器学习平台TI在精调数据准备、精调训练和模型验证平台方面进行了全面升级。 TI平台内置开源可扩展的数据构建,能帮开发者进行数据准备,并提升了数据标注能力;在精调训练方面,该平台支持一键启动精调任务,通过3层稳定机制并支持自研安卓框架确保大模型训练的连续性和性能提升;模型验证过程中,TI平台采用三阶段模型评测流程,包括轻量体验、客观决策、主观评测。 目前,腾讯已经围绕办公协同、数据分析、知识管理、智能营销等多个产品为用户提供全链路的模型服务。吴运声称,他们已经将知识引擎的能力应用于起点客户大模型的文本机器人之上,面向账单查询和退换货等复杂任务时,大模型机器人的配置成本相较于传统文本机器人可以减少50%以上。 服务于企业内部的知识学习协作平台腾讯乐享,目前已经服务超30万家客户,拥有上亿用户,在大模型和知识引擎的加持下,乐享围绕知识生产端和消费端实现了突破。 吴运声举例称,在知识生产端,一句话AI就可以完成协作,同时还能生成培训知识点提升不同部门的培训效率;在知识消费端,腾讯推出了智能问答,可以让AI回答更多的企业内部业务知识,提高知识获取效率。 四、已落地医疗、文娱、科研,开源全球最大甲骨文多模态数据集 在产业落地方面,腾讯已经在医疗、文娱、科学研究等领域实现突破。 医疗领域方面,腾讯和上海市数字医学创新中心共研了医学大模型,并在瑞金医院实现了体检报告和电子病历生成等落地应用。在体检报告生成方面,大模型平均5秒就可以生成体检报告,为医生节约了超50%的撰写时间。 文娱行业,腾讯和阅文集团基于大模型文生文的能力,为作家提供了AI辅助写作助手,包括描写灵感、大纲提取、角色提取等能力,可以帮助作家写作、插图制作等。 在这之外,吴运声也谈道,多模型的应用也会为企业带来很多现实问题。 首先,企业的工程团队资源有限,针对迭代很快的模型去自行搭建推理集群和服务平台很复杂;其次,模型的推理成本很高,并且百亿、千亿级别模型的推理部署会在吞吐量、时延方面面临瓶颈。 腾讯TI平台就是这些解决这些难题的答案。 企业只需要在TI平台上进行点选就可以快速开启训练任务,在推理方面,腾讯已经帮助阅文集团提升了相同资源条件下的内容生成速度,另外平台也提供了更直观的监控、管理工具,帮助其管理任务和资源。 在产业落地之外,大模型在科学计算、文化研究等方面的应用价值正在被放大。 在天文领域,基于AI技术加持,腾讯已经发现了3例快速射电暴和41颗脉冲星,据吴运声透露,快速射电暴是目前天文界研究的重点,相比脉冲星,快速射电暴因为发行时间短、AI训练数据少、出现频率低,因此其发现难度相比脉冲星更大。 基于此,腾讯设计了全新的端到端AI算法,引入了多示例学习和大模型的注意力机制,可以提升模型的精度和数据处理速度。 文化领域,腾讯今天开源了全球最大的甲骨文多模态综合数据集,包含拓片、摹本;单字对应位置、对应字头等。该数据集可以帮助研究人员开发甲骨文检测识别模版、生成自行。 最后,吴运声谈道,无论在产业落地还是科学文化探索、大模型技术的进阶,这些发展都离不开完整的产业链协同和生态共建。 结语:腾讯已积累大模型全链路自研技术 一直以来,从语音、图像到大模型,腾讯一直都仅仅站在AI技术发展的中心位置,通过核心技术突破在结合场景推动AI的研究与落地,目前在大模型方面,腾讯已经积累了从算力基础设施到机器学习平台以及上层应用的全链路自研技术。 随着大模型这类前沿AI技术在实体经济、文化保护、科学发现等领域的应用深入,并且上中下游的产业链协同和生态共建加速,AI正在成为全社会智能升级的强劲动力。
发布千卡规模异构芯片混训平台,无问芯穹要打造最具性价比的 AI 基础建设 | WAIC 2024
基础设施,在 AI 时代里是什么样一个角色?有人说像电,有人说像水。 无问芯穹认为,优良的基础建设,是一种「魔法」,能够让大模型成本有效下降,让更多人拥抱新技术。 7 月 4 日,无问芯穹联合创始人兼 CEO 夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算力利用率最高达到了 97.6%。 四个月前,无问芯穹 Infini-AI 大模型开发与服务云平台宣布首次公测,已有智谱 AI、月之暗面、生数科技等大模型公司客户在 Infini-AI 上稳定使用异构算力,还有 20 余家 AI Native 应用创业公司在 Infini-AI 上持续调用各种预置模型 API,使用无问芯穹提供的工具链开发自身业务模型。 建设大模型时代的 AI Native 基础设施,不仅能够为 AI 开发者提供更加通用、高效、便捷的研发环境,同时也是实现算力资源有效整合,支撑 AI 产业可持续发展的关键基石。与国际上模型层与芯片层「相对集中」的格局相比,中国的模型层与芯片层更加有多样性。 然而,多样性也意味着挑战,大量的异构芯片也形成了「生态竖井」,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。这是构建 AI Native 基础设施的最大难点,也是当前大模型行业面临「算力荒」的重要原因。 无问芯穹具备顶尖的 AI 计算优化能力与算力解决方案能力,以及对「M 种模型」与「N 种芯片」行业格局的前瞻判断,率先构建了「MxN」中间层的生态格局,实现多种大模型算法在多元芯片上的高效、统一部署。 截至目前,Infini-AI 已支持了 Qwen2、GLM4、Llama3、Gemma、Yi、Baichuan2、ChatGLM3 系列等共 30 多个模型,以及 AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡。 「技术上限推高与技术落地扩散不矛盾,且取决于我们决心如何对待这个技术。」夏立雪表示,「未来我们用各种 AI 应用时,也不会知道它调用了哪些基座模型,用到了哪种加速卡的算力——这就是最好的 AI Native 基础设施。」
消息称三星Galaxy Z Fold 6 Slim手机首次配备8英寸内屏
原标题:消息称三星 Galaxy Z Fold 6 Slim 手机首次配备 8 英寸内屏,仅在中国等少数市场发售 IT之家 7 月 5 日消息,韩媒 The Elec 报道称,三星 Galaxy Z Fold 6 Slim 手机的主要零部件审批已经完成,即将进入量产阶段,预计四季度发布。 这款更为轻薄的折叠屏手机将首次配备 8 英寸内屏,此外其还将拥有 6.5 英寸外屏,较 Galaxy Z Fold 6 标准版的 7.6 英寸内屏和 6.3 英寸外屏更大。 韩媒称三星此前就开发出了 8 英寸内屏折叠屏手机的样机,但当时的样品存在厚度过大影响握持的问题。 ▲ 三星 Galaxy Z Fold5 折叠屏。图源IT之家图赏 报道指出,三星电子直到今年初才决定要在 Z Fold 6 和 Z Flip 6 的基础上为今年的折叠屏手机产品线新增一款超薄横向折叠型号,因此 Z Fold 6 Slim 的开发十分匆忙。 报道还提到,三星在今年 5 月对 Z Fold 6 Slim 进行了全面测试。 结果显示其内屏可承受 20 万次折叠,整体的防尘防水性能也达到了预期,不过在厚度方面仍然比不上中国国内厂商的折叠屏手机产品。 三星电子目前内部为 Z Fold 6 Slim 规划的产能目标是到今年年底出货 40 万~50 万台,供应十分有限,因此这款机型将仅在有限市场销售。 根据IT之家此前报道,三星 Galaxy Z Fold 6 Slim 手机预计在国内以 W25 的名义发售,而 W25 机型近日已通过国家 3C 认证。
蚂蚁集团发布隐语Cloud大模型密算平台!让数据像自来水一样可信流通
作者 | 李水青 编辑 | 云鹏 智东西7月5日报道,今日,在2024年世界人工智能大会上,蚂蚁集团推出隐语Cloud大模型密算平台,以助力大模型落地所需的高质量数据供给。 隐语Cloud大模型密算平台基于软硬件结合的可信隐私计算技术,在大模型托管和大模型推理等环节实现数据密态流转,从而保护模型资产、数据安全和用户隐私。 “数据供给决定了大模型应用能力的上限。”蚂蚁集团副总裁、首席技术安全官韦韬在论坛上说。但数据的价值越高,风险越大,韦韬认为,当下的数据流通依然面临着严峻挑战——不敢、不愿、不会。 蚂蚁集团从2016年开始探索隐私计算技术,今年5月底公布以AI和数据要素技术为核心的科技战略,随后成立浙江蚂蚁密算科技有限公司,提供密算相关的产品和服务,推动数据安全可信的跨云跨端低成本流通。 浙江蚂蚁密算科技有限公司CEO王磊在论坛中透露,隐语Cloud大模型密算平台的服务,将逐步覆盖到垂直大模型从构建到对外服务的全链路数据安全。 一、大模型催生新数据需求,隐语Cloud让数据可信流通 随着大模型应用的深入,访问信息保护的诉求会越来越强。 王磊提到,包括普通问答场景、基于重要商业数据的知识检索或生成、私人秘书等多种场景,都可能需要大模型平台去访问较私密的数据。 如果没有对数据的充分安全保护,人们则不敢去使用这些具有私密性质的数据。 行业数据的供给是大模型在各行业被广泛应用的关键。行业客户往往有一些明确需求,包括:行业数据不被人窃取,不用担心训练的模型记住了数据,模型方不会贬低数据价值等。 王磊谈道,蚂蚁推出的隐语Cloud大模型密算平台有两大特征:一是大模型密态托管,解决大模型云上部署时的IP保护问题,一是大模型密态推理,解决用户访问大模型时,用户隐私和商业机密的保护问题。 隐语Cloud大模型密算平台支持轻量化远程认证,支持三级通用安全分级,支持GPU在可信执行环境下进行计算,以及密态推理集群,具备易用性、安全性、高性能和高可用特征。 在产品形态方面,隐语Cloud大模型密算平台支持开箱即用的公有云形式,同时支持专有云形式密算科技服务,助力智算到密算的升级。 蚂蚁从两大维度打磨隐语Cloud大模型密算平台,一方面从数据标注到在线推理全链路的密算能力,一方面是多重密态计算技术防御,适用不同场景,平衡安全性和成本。 二、从通算、智算到密算,让数据像自来水一样易用 算力行业正从通算、智算走向密算。 AI推动通算走向智算,一方面算力需求突增,另一方面也陷入能耗瓶颈,这需要我们换个角度思考算力的突破。 韦韬在论坛上谈道,数据决定AI能力的上限,但数据价值具备双面性——价值越高,风险越大。当下的数据流通依然面临着严峻挑战——不敢、不愿、不会。 为此,韦韬认为,密态算力将成为数据可信流通的新算力。 全链路密态计算,可以破解规模化数据流通中风险闭环的两大难题:责任追溯和风险控制。 韦韬谈道,密态算力的提升将伴随着全栈变革,助行业突破瓶颈。当全链路密算成本低于数据流通价值5%时,即可以规模化推广。隐语Cloud支持全路线密态计算技术,平衡性能和成本需求。 密算体系将推动数据要素的高效广域可信流通,从早期的数据孤岛、数据要素点到点流通,到当下的数据要素区域化可信流通。 未来我们将见证数据要素广域可信流通,跨行业、地域和云可信互联互通,降低边际成本,从而助力千行百业数字化转型。 韦韬表示,蚂蚁集团从2016年开始探索隐私计算技术,能力涵盖了全栈可信技术、多方安全计算、联邦学习、同态加密、差分隐私、机密计算等隐私计算全谱技术域。 “我们希望联合产业合作伙伴,把蚂蚁集团多年来在密态计算技术上的探索和创新,以开源和产品化的形式对外开放,助力推动产业向前发展,为实体经济和中小微企业创造新的价值,让数据价值的流动像自来水一样即开即用。”韦韬说。 结语:全链路密态计算,助大模型破解数据供给挑战 当下,数据已成为制约AI行业应用发展的重要关键。数据可信流通是全新的技术挑战,IBM《2023年度数据泄露成本报告》显示,2023数据泄露的平均总成本达到445万美元。 王磊透露,隐语Cloud大模型密算平台的服务将逐步覆盖全链路数据安全,接下来将为垂直大模型从预训练、微调、评测、推理到用户交互的全程提供密态计算服务,促进数据可信安全流转。 平台还将提供密态大模型开发所需的全链路工具,提供的服务包括密态检索增强生成、密态提示词、Agent流程编排等。
曝HarmonyOS NEXT将重塑折叠屏适配体验 打出差异化
【CNMO科技消息】7月5日,有数码博主发微博称,他最期待华为HarmonyOS NEXT可以重塑整个折叠屏的适配,在行业内打出差异化。 要知道,折叠屏手机自从问世以来,就一直面临着一个老大难的问题——应用适配。由于屏幕形态的独特性,很多应用在折叠屏上要么显示不全,要么操作不便,用户体验大打折扣。 但HarmonyOS NEXT的出现,可能就要扭转这个局面了。基于华为的分布式技术,HarmonyOS NEXT能让开发者做到“一次开发,多端部署”,也就是说,开发者只需要编写一次代码,就能让应用自动适应各种设备,无论是直板手机、折叠屏手机还是平板电脑,都能获得统一而又个性化的使用体验。 前不久,在华为开发者大会2024上,华为终端BG软件部的总裁龚体先生宣布了一个好消息:华为的Mate 60系列手机、折叠屏手机和平板电脑等设备,已经顺利通过了OpenHarmony的兼容性测试。这标志着OpenHarmony生态又向前迈进了一大步,意味着更多的设备将能够加入到这个开放的生态体系中来。 而作为HarmonyOS NEXT的先行者,HUAWEI Mate 60系列、Mate X5等机型已经开始面向开发者开放Beta版本,这意味着HarmonyOS NEXT距离正式商用已经不远了,预计会在2024年的最后一个季度与广大用户见面。
张兴海:华为有对终端用户的理解,赛力斯一直在人们看不起、看不懂当中成长
IT之家 7 月 5 日消息,在华汽汽车文化基金会十周年首站巡礼赛力斯活动上,力斯创始人、董事长张兴海表示,“产业内的相互合作可能是 1+1,和汽车产业以外的合作,有可能带来指数级增长。” 华为没有造车的经历,赛力斯有造车的经历,但是华为有对终端用户的理解。与华为跨界融合所开创性的商业模式,以及双方充分发挥长板效应所形成的技术新优势,都定义或者赋予了新能源汽车产业新质生产力的生动内涵。赛力斯一直是在人们看不起、看不懂当中成长。 张兴海表示,物联网、大数据、云计算、人工智能等新技术正在驱动汽车产业发生前所未有的全面重构。跟传统汽车相比,目前的智能网联汽车已经成为全新物种,智能网联汽车只能走软件定义汽车之路。 参考IT之家此前报道,赛力斯 6 月新能源汽车销量为 44126 辆,同比增长 372.04%;其中赛力斯汽车销量为 41457 辆,同比增长 631.42%。新能源汽车本年累计销量为 200949 辆,同比增长 348.55%。 其中,AITO 问界全系 6 月单月交付突破 4 万,达到 42,780 辆,创历史新高。其中,AITO 问界 M9 再创新高,6 月交付 17,241 辆,累计大定超 10 万辆,稳坐 50 万以上车型销量第一。
业内:车企通过代理公司找“水军”,“操作痕迹几乎无法追踪”
原标题:“50条评论仅需1.5元钱”!多家车企被曝抹黑攻击、炒作刷榜,业内:车企通过代理公司找“水军”,“操作痕迹几乎无法追踪” 7月2日,新浪微博管理员发布一则信息称,“某汽车品牌在企业关键营销节点及财报节点,采买财经商业媒体账号,策划相关的热点话题,并违规采买外部营销公司所谓的冲榜服务,由营销公司通过机器刷量形式,短时间内发布同质化内容违规冲榜。” 该信息发布后迅速引起大量微博用户跟评。“网络水军”在互联网平台并不是一个新现象,但随着车市竞争日益激烈,不少汽车品牌开始通过网络水军控评,甚至恶意诋毁友商产品,引发行业高度关注。 7月2日晚,比亚迪网络举报中心也发布消息:近期发布悬赏(征集黑公关线索)以来,已收到上千封邮件和私信。经过筛选、评估后,拟对部分线索提供人陈**、王*、欧阳**等提供1千、5万、10万、30万元人民币不等的初步奖励。 “网络水军”的泛滥,破坏了公平竞争的市场环境,消费者容易被所谓的“高人气”“好评价”所欺骗,恶意的抹黑甚至可以轻易摧毁一个耗费巨资开发的全新产品。 50条评论仅需要1.5元钱;刷单流程时长不足十分钟;IP属地很多分布在云南、广东;部分平台的评论并非真人完成…… 到底什么力量让行业的发展脱离了健康轨道,朝着卷“假流量”的方向蒙眼狂奔?《每日经济新闻》记者针对“网络水军”现象展开了长达数月的深入调查,尝试揭开在这个隐秘世界里发生的离奇故事。 “网络水军”肆虐影响恶劣 “企业通过层层分包与黑产公司合作” 根据上述微博管理员发布的内容,此次为微博积极开展网络黑产专项打击行动。每经记者随机在微博平台检索部分词条,发现部分带话题转发的内容,不乏有用户发布内容为乱码或疑似“水贴”内容,其中,部分用户的账号许久未有原创内容更新。 在每经记者通过第三方平台下单执行产生的评论中,也有多个账户主页多为转发微博的内容,并且多个账号主体关注人数超过4000余人,而粉丝数不足两位数。每经记者在某平台执行上述评论任务时发现,自充值、下单到执行注意事项,网站都有相关指引,整个操作流程十分完整。 一位不愿透露姓名的汽车行业业内人士告诉每经记者,一般来讲,品牌方会长期通过相对固定的网络口碑公司承接工作,再经由网络口碑公司向下游的黑产渠道(人工刷单、机器账号等组合模式),执行大批量同一话题、同一时间节点的内容。而另一手段则为群控,这种方式一般需要手机墙的支持,通常是通过终端设备,同时控制上百台手机,用以给直播间刷评论、冲热度等,企业通过层层分包,与多家黑产公司进行合作。 曾任某车企公关职务的林奇(化名)向记者透露,网络水军的情况在汽车行业是很常见的。其中今年4月发生的理想MEGA舆论事件尤为引人关注。 理想MEGA,作为理想首款纯电产品,上市后遭到汽车行业罕见的大规模舆论恶搞,互联网出现大批量针对MEGA车型外观的恶意评价、恶意P图等内容。 图片来源:新浪微博部分相关评论 4月23日,据财新网消息,河北警方介入调查理想汽车MEGA遭水军恶意攻击事件。在MEGA上市期间,涉嫌参与打压的车企有三至四家,衡水警方展开多人次询问,小鹏汽车一名中层员工正在配合调查。 此消息一出,业内哗然。每经记者最新获悉,至今上述事件仍未有最新消息或定论。 时至今日,“网络水军”对理想MEGA车型的影响,远不止舆论上的“危机”。首当其冲的影响是MEGA车型销量不及预期。与此同时,理想汽车的股价也开始出现剧烈波动。截至6月28日,理想港股收盘约70.3港元/股,对比3月1日收盘179.2港元/股,已经腰斩。此外,理想也开始进行内部调整,原商业部调整为产品线,负责相关车型全生命周期的操盘,同时还针对MEGA成立了特战队。 事实上,“网络水军”不单单指“黑公关”恶意攻击,一片叫好的言论导向也可能是“网络水军”所为。 “通常汽车市场对‘水军’的需求是正、负面都会有,例如在某个主机厂新车上市节点,一方面需要车型功能、技术方面的宣传,另一方面也有与竞品对比的相关需求,负面水军可能跟后者的需求有关系。”一位广告行业从业人员告诉记者。 记者留意到,同上述微博观察员所发布的某汽车品牌违规冲榜行为类似,在部分主机厂发布新车型之时,多个汽车行业的主流平台会在一定时间段集中释放相似内容,这一现象在汽车行业屡见不鲜。 林奇表示,以正向需求为例,通常是在某一特定传播节点,主机厂会统一释放某些正向内容,要求代理公司在一定时间内达到例如90%的(平台)传播率,代理公司会通过多种渠道或者“网络水军”的形式操作完成。 图片来源:记者执行的某微博评论部分截图 林奇表示,通常“水军”操作的评论,有较明显特征。最容易辨别的特征就是IP集中,此外就是发言风格相似性较高,发布时间也比较集中。据林奇透露,天南海北的IP评论并不是不能操作,但通常成本比较高。 在“网络水军”的运作下,一个庞大的舆论操纵网已然在汽车行业悄然形成。随着记者持续与各家车企及业内人士对话,关于汽车行业“网络水军”的产业链条也逐步浮出水面。 流量裹挟下的庞大产业链 “操作痕迹几乎无法追踪” “‘网络水军’现象背后,是各家车企对业绩和销量的争夺。”前述车企内部人士告诉记者,“以理想MEGA所属的MPV市场为例,其属于汽车市场中的小众市场。此前MPV市场竞争环境相对轻松。但随着理想等更多车企的进入,市场销售空间受到挤压,价格又呈现下行态势,难免会出现一些‘畸形’的竞争。” 林奇(化名)向记者透露,常见的“水军”运作逻辑是:在某特定传播节点,车企有关部门工作人员将诉求告知某公关代理公司,代理公司再寻找第三方“水军”运作组织进行操纵。据林奇透露,有车企内部还设有“内容优化团队”,一定程度上配合传播需求。 图片来源:某社交网站用户吐槽“水军”内容 林奇告诉记者,以常见的“网络水军”操作流程为例,任务从车企、代理公司再到最终执行主体,过程中已经设下了诸多道防火墙,并且由于操作具有隐匿性,操作痕迹几乎是无法追踪的。 前述车企内部人士也告诉记者,通常来说,付费的“网络水军”行为操作流程比较繁琐,一般不会与某个汽车厂家有直接联系,且费用明细部分也会经过一定处理。 “一般主机厂很少直接与‘水军’组织联系,多数都是外包给公关、运营等代理公司操作。通常主机厂的考核是看任务的最终执行数据,主机厂通常不会干涉执行过程。”前述广告行业从业人士告诉记者,类似“网络水军”的操作流程,通常代理公司会有长期合作的渠道,渠道商会根据需求,执行相关诉求。 据该广告领域从业人员透露,业内对类似车企“网络水军”服务的价格收费不一,有些公司会进行单项收费,也有些会打包在年度合作框架内进行收费。 “真人”+“机刷”多种价格供市场挑选 “1条评论只要0.3元” 从终端执行渠道看,“网络水军”的操作形式更是十分多元。记者在调查中发现,常见的“网络水军”执行模式,包括了群控机刷以及真人操作两种主要形式。 记者通过层层调查发现,当前网络上存在大量可执行评论、点赞等任务的第三方平台,其中部分平台还可操作多个知名汽车平台的定制评论。“0.3元一条评论”“评论语言提交在配置信息”“可批量备注”……在一家专门提供评论、点赞等服务的第三方网络平台上,记者看到,各平台相关评论、点赞服务被清晰分类并明码标价。其中还设有汽车领域专区,而部分平台还可设置定向评论,单条评论的操作成本不足一元。 以某平台的评论为例,在提交评论执行链接时,还可配置评论内容。而单条评论的单价在0.3元,且下单界面还提示“评论点赞全部都为秒刷”。 图片来源:某第三方网站截图 记者试图与多位类似网站的负责人及网站客服了解具体操作流程等问题,均未获得正面回复。其中,记者试图以大批量下单真人评论业务为由与某网站负责人沟通,但其两次回绝记者,“(真人评论)真的做不了。” 相比第三方平台的群控机器执行,真人“水军”流程则更为繁琐精细。一位较熟悉“网络水军”传播模式的人士向记者透露,以真人“水军”为例,多数情况下,由于“网络水军”需求量大,且部分诉求存在违法、违规的情况,因此“派单”需求大多不会发布在国内QQ、微信等平台,大多数真人“网络水军”的任务在海外聊天软件上发布,结算方式则多用虚拟货币交易的形式。 除了第三方渠道操作外,常见的真人“网络水军”还有一种是以各类“宝妈”“兼职”群为“马甲”的宣发派单群,通常以派单形式下发具体任务,但该模式任务较多为快消品、商品好评等,较少出现汽车类评论任务。 李飞(化名)的日常工作涉及市场传播,他告诉记者,由于“网络水军”沟通的部分内容涉及敏感词汇,相关人士微信交流中也常用“SS(刷手)”“ZC(主持)”等代码交流。“进入类似‘刷单’群聊需要先交进群费,有群聊收费是680元,进群后多数单子单价1元至7元不等,而且做任务要‘账号’很多,不然很难(回本)。”李飞说。 司法人士: “一般很难定性, 通常较难推进” 一位曾接触过此类“网络水军”事件的司法人士表示,“‘网络水军’案件要看具体造成影响或者经济损失,但一般很难定性。”该人士说,案件定性要看涉案的非法金额大小,通常较难推进,要通过(涉及的)组织和平台找到个人,过程较为麻烦。 “‘网络水军’行为可能违反反不正当竞争法或消费者权益保护法等相关法律。”康德智库专家、上海市光明律师事务所律师付永生告诉记者,如果雇佣大量用户进行刷单、刷评论制造热度等行为是出于商业目的,并且这些行为对市场竞争、消费者权益或社会公共利益造成了不良影响,那么就可能属于灰色产业范畴。 “当网络水军通过有组织、有计划的方式,在网络上发布大量虚假信息、进行虚假评论或操纵舆论时,这种行为确实可能被视为非法经营行为。”付永生告诉记者,网络水军确实涉及到一些模糊的法律边界,不过目前针对网络水军的各种违法乱象,我国法律体系中规定了多种具体的处罚措施。例如,《中华人民共和国刑法》中规定了非法经营罪的处罚措施,《网络安全法》和《反不正当竞争法》等也规定了相应的行政处罚措施,如罚款、没收违法所得、责令停业整顿等。 万商天勤(上海)律师事务所合伙人律师、高级合规师朱永红告诉记者,对企业而言,面对水军行为,企业一方面可以通过向相关的市场监管部门举报水军恶意攻击行为;另一方面可以收集证据向法院提起商业诋毁的不正当竞争行为的民事赔偿,在严重的情况下,还可以损害商业信誉、商品声誉罪向公安部门举报。
理想汽车宣布7月内推送无图NOA 并发布全新自动驾驶技术架构
凤凰网科技讯(作者/李治钦)7月5日,理想汽车召开智能驾驶夏季发布会,正式发布OTA 6.0,将提供无图NOA能力。该版本将在7月内全量推送给理想MEGA和理想L9、理想L8、理想L7、理想L6的AD Max车型。 理想汽车表示,新版本的无图NOA具备四大能力,包括可在无图无先验情况下的“哪里都能开”,在规避路侧障碍时“绕行丝滑”,在应对各类路口时更加流畅的“路口轻松”,以及对车辆进行微操调整的“默契安心”。 同时理想汽车还强调了主动安全的四大能力,集中在AEB(自动紧急刹车)和AES(自动紧急避让)两大方面,包括复杂路口AEB、夜间弱光AEB、全自动AES和全方位低速AEB。 发布会还介绍了理想汽车在自动驾驶模型方面的开发历程及进展,并发布了新的端到端+VLM自动驾驶技术架构。 理想汽车表示:其自动驾驶系统具备快速决策的系统1和具备思维推理能力的系统2。 系统1第一代:NPN采用模块化的设计,包含感知、定位、规划、导航、NPN等,实现了全国100城NOA功能。第二代可实现无图智驾,不依赖先验信息。第三代将采用端到端模型,只有一个模型,实现输入的是传感器,输出的是行驶轨迹。 理想汽车表示:第三代端到端模型的优势,在于驾驶体验更聪明更腻人、车辆反应更迅速及时、迭代频率更高,OTA速度加快。 系统2:VLM(视觉语言模型)。整体算法架构是由一个统一的Transformer模型组成,将Prompt(提示词)文本进行Tokenizer(分词器)编码,然后将前视120度和30度相机的图像以及导航地图信息进行视觉信息编码,通过图文对齐模块进行模态对齐,统一交给VLM模型进行自回归推理;VLM输出的信息包括对环境的理解、驾驶决策和驾驶轨迹,并传递给系统1控制车辆。 理想汽车称,系统2整体设计中有三个亮点: 1、设计了流式的视频编码器。相比大部分单帧的VLM模型,我们采用的流式视频编码器能够缓存更长时序的视觉信息,这对于物理世界的AI系统来说非常重要。 2、增加了Memory bank(记忆模块),缓存了多帧历史信息,可以解决超长上下文的推理时延问题。 3、设计了智能驾驶Prompt问题库。系统2会时时刻刻思考当前的驾驶环境,给系统1合理的驾驶建议,同时系统1也可以在不同场景下调用不同的Prompt问题,主动向系统2进行求助,帮助系统1解决部分场景。 最后,理想汽车表示,除推送具备无图智驾能力的OTA6.0以外,还将开始端到端+VLM新智能驾驶系统的早鸟计划。
迷你主机塞进车模?Xyber XPC开启众筹,特斯拉Cybertruck造型
原标题:迷你主机塞进车模?Xyber XPC开启众筹,特斯拉Cybertruck造型、搭载 R7 8845HS IT之家 7 月 5 日消息,据外媒 VideoCardZ 今日报道,曾在 COMPUTEX 台北电脑展上展出的一款相当特别的迷你主机 ——Xyber XPC 现已在 Indiegogo 上发起众筹。 这款迷你主机的特别之处,就是它的外观与传统意义上的迷你主机迥然不同,本体是一台特斯拉 Cybertruck 造型的汽车模型,它的前备箱、货箱护栏和四个车门都可打开,甚至还原了座舱结构和座椅部分,前大灯更可以点亮来显示系统运行状态。 IT之家汇总该迷你主机配置信息如下: 其内置 AMD Ryzen 7 8845HS APU,还将提供 R7 7840HS 可选。其配备一个 USB 3.1 Gen 1 Type-A 端口、两个全功能 USB 3.1 Gen1 Type-C 接口,支持 PD3.0,以及一个 HDMI 2.1、一个二合一音频插孔、一个 5*2.5mm DC-in 插孔。其最高支持 4TB 2280 PCIe 4.0×4,连接上支持 Wi-Fi 6 和蓝牙 5.2。 尺寸方面,其“三围”分别为 42.3/18.2/13.1 厘米。 而从该公司向 VideoCardZ 提供的工厂装配线图片来看,这款迷你主机采用了双风扇冷却解决方案,至少配备两个 M.2 插槽(一个用于存储,一个用于 Wi-Fi 无线网卡)。 Xyber 方面确认,这款迷你主机将于 8 月份正式上市,其中 R7 7840HS 版本的首发价为 399 美元(IT之家备注:当前约 2906 元人民币)。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。