EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
抖音试水内容付费,你愿意为短视频花钱吗?
撰文 | 程书书 编辑 | 李信马 题图 | IC Photo 2005年初,土豆网、56网和激动网等早期视频网站上线,以免费的视频、灵活的观看方式迅速吸引大量网民。彼时,这些用户或许从没想过,五年后,视频网站就要收费观看了。 一代人有一代人的消遣,短视频兴起,成了大众打发碎片时间的好去处,不过,当所有人都习惯了免费时,短视频也如同曾经的长视频一样,得花钱了。 前不久,抖音开始测试短视频内容付费功能。就像视频网站会员内容一样,有部分免费的试看内容,试看部分结束后,付费才能解锁后续内容。 虽然是测试阶段,但包含了短剧、日常、知识、娱乐等多种内容,只要符合平台规定的短视频内容,或者中长视频,都可以设置为付费观看。也就是说,当前在抖音平台上,几乎所有的视频内容都可以被创作者设置为付费内容。 视频内容的付费服务是否开启由创作者自己决定,价格也由创作者自定。但付费需要用平台的抖币(1抖币=0.1元)进行支付,且平台将收取30%技术服务费。 天下没有免费的午餐,测试付费功能,显示抖音已然准备向着用户付费的方向发展,这或许将成为短视频行业的发展趋势。只是,视频网站探索多年,付费之路尚走的磕绊,短视频的内容付费之路能否走的顺畅? 01、并非第一次试水 早在2020年,短视频平台已经开始探索付费短剧的模式,曾有短视频团队制作了付费短剧并在快手上线,短的两三集,长的二三十集。 图源:小红书 2021年9月份,抖音也被传出测试短剧付费模式,采取按集数付费的模式,每集最低1元起,用户也可以选择一次性付费解锁剩下的全剧内容。 同年,抖音还正式上线了“短剧新番计划”,该计划的分账政策分为现金分账和流量分账两种,短剧单集时长在1-5分钟、正片集数在12集及以上的作品,就可以参与到现金分账中,最高可获得100万元的现金激励。此外,抖音推出的对创作者的内容打赏功能,也是另一种收费模式的探索 只是此时的短剧市场体量尚不够大,用户的付费心智也并不成熟,抖音和快手在付费模式上的这些探索,都没有激起太大的水花。 时隔一年,抖音又重整旗鼓,付费模式变得更加成熟,规则也更加明确。 例如,不再局限于短剧这一单一方向,全平台内容都开放付费模式;下放开启内容付费服务选择权和定价权给创作者;设置创这这开通付费功能的条件——近30天内无账号违规封禁记录、粉丝数达到1000人,实名认证。付费视频内容发布成功后,可以在抖音首页的“推荐”Tab内获得推荐,增加付费视频内容的曝光途径。 值得注意的是,受抖音开启测试短视频内容付费消息的影响,短剧概念股快速反弹。唐德影视涨1.5%,中文在线涨2.54%,蓝色光标、捷成股份也随之跟涨。 02、闪耀的“火苗” 内容付费试了又试,如今态度还愈加坚定,短视频平台的底气,离不开近一年来短剧——尤其小程序短剧——所展现的强力吸金能力。 目前,短剧正以较短的回报周期、不俗的变现能力快速发展。从直观的数据来看,《哎呀!皇后娘娘来打工》24小时用户充值破1200万、《闪婚后,傅先生马甲藏不住了》24小时充值流水破2000万、《无双》上线八天投放消耗突破1亿……可以说是吸金疯狂。 图源:小短剧截图 小程序短剧编剧玩纸对DoNews说:“小程序短剧的制作成本并不高,早起的几万就可以搞定。如今卷起来了,成本也能控制在几十万。”几十万撬动上千万甚至过亿,这已经是一本万利了。 在“2023·增量效应”磁力大会上,快手高级副总裁、商业化负责人王剑伟给出了一组数据:“全网付费短剧GMV 2022年同比2021年增长了超过670%,我们预估2023年的增幅可能也是达到160%以上,整个付费短剧的盘子我们认为在2023年大概率会突破100个亿,而且它还在高速增长。” 短剧快速壮大的市场规模以及用户惊人的付费能力,犹如强心剂,让短视频平台看到了内容付费的潜力。 而另一方面,此前小程序短剧对于短视频投流的依附性,也让平台有着可发挥的空间。 看过小程序短剧的人都知道,它的付费路径简单又直给:刷短视频时不经意看到投流素材,点击广告按钮,一键跳转到微信小程序,之后在付费观看完整版。可以看到,一切的收费都是在于投流。 小程序投资人E君表示:“小程序短剧爆款100%都靠投流。因为小程序平台是没有流量的,要想剧集被用户看到,就必需去投流,才能吸引用户进来,用户进来了才能有后续充值。” 而为根据数据平台「有米云」的统计,目前小程序短剧的主要投流,九成以上的预算都会消耗在短视频里。 因此对于短视频平台而言,这很容易做成一个闭环。开通了付费功能后,短剧的曝光、付费、观看都能在平台内发生,又何必再跳转到小程序里多此一举? 03、短视频内容付费能走通吗? 长视频平台用了十年跑通会员付费,其上的微短剧至今还没能养成用户的付费习惯,需要依赖平台补贴和商务广告。为什么成本更低、周期更短的小程序短剧,却能先一步跑通,用流量投入撬动千万收益? 图源:文心一格 究其原因,是盈利逻辑的差异,让短剧的内容更“吸引人”。 长视频平台的短剧付费分账模式与网剧分账类似,依照内容分为不同的等级,按照不同的等级设置单价。制作方与平台再根据分账进行分成,总分账包括会员付费期分账、广告分账期分账和招商分账等。看似是给观众看的,实则是和平台机制有关。 而小程序短剧则不同,能挣多少钱,是看内容吸引用户充值量来来决定。“就像直播间里的商品一样,你商品够硬,大家就买的多;你商品不够硬,大家就不买。本质上,小程序短剧才更是一门真正的to C的生意。”E君描述。 商业逻辑上,小程序短剧才更符合以产品为竞争力,这也是其起步晚,却先跑通的原因。 如今抖音开通付费服务功能,又将是否开通权限交给创作者们,将小程序短剧内容的商业逻辑照搬过来,又简化了其付费场景,逻辑上有着很大的可行性。 目前的问题是,除了短剧付费,用户对于其他品类的内容付费接受程度不高,付费心智还需花时间培养。而短剧是以“爽”为卖点,有些内容还充斥着擦边、软色情,甚至毁三观,被封禁下架风波不断,当被搬上更大的短视频平台上,只会面临更严格的监管。可一旦这些 “爽点”被“滤去”,短剧是否还能收获用户的喜爱,就不好说了。
存储降本是金融落地大模型的必答题吗?
企业对大模型的算力成本有着切身的感受,但算力背后,存储也是非常关键的一环,如何提高存储的性能、降低存储的成本,将深刻影响到大模型训练及后续应用的成本。先进的存力成为大模型落地的必答题。 ‍ 文|徐鑫 周享玥 游勇 编|周路平 ChatGPT掀起的大模型热已近一年时间,相比于新技术带来的革命性体验,客户们的另一个反馈同样非常迫切——如何降低大模型的训练和落地成本。 作为对新技术一向敏锐的金融行业,在这次大模型的应用和落地中走在了前面。不过,一些大型银行和证券机构也告诉数智前线,金融大模型落地存在工程化难度大、场景价值有待验证等因素外,核心痛点还包括大模型的训练和落地成本居高不下。 过去大半年, GPU算力短缺、价格高涨的新闻层出不穷,人们对昂贵的AI算力有了很直观的感知。然而,围绕大模型应用的存储成本也随着需求爆发而快速增加,在保证高存储性能的同时,需要降低存储成本已经在业内形成共识。 11月30日,数据分析机构爱分析联合京东云发布了《金融行业先进AI存力报告》,报告中明确提到,先进存力是金融行业大模型落地的必答题。而金融行业作为大模型落地的先锋行业,其对先进存力的需求表现出了几个非常共性的特征:可用、可信、可控。 包括京东云云海在内的国内存储产品,通过存算分离的分布式存储架构,正在破解金融等行业应用大模型存在的存力短板。 01 金融成为大模型应用的先行军 金融行业对大模型的应用落地探索还在持续深入中,仅是这个月,已经有不少企业亮出新动态。 前脚,中国人保发布专属企业大模型“数智灵犀-人保大模型”,并亮相两款人保专属问答领域大模型应用;后脚,华夏银行也抛出一份招标公告,要为大语言模型应用系统项目(智能算力部分)征集供应商。2023金融街论坛等多场金融行业活动上,大模型也是反复被讨论的重点。 这只是金融行业落地和应用大模型的一个缩影。来自爱分析的一份报告显示,能源、金融已成为大模型建设的领军行业,二者在投入预算上最为积极,在大模型市场(企业用户侧的预算金额,其投向包括硬件、软件和服务)中金额占比分别达40.9%、16.9%。 业界的普遍共识是,金融行业数字化基础好、AI应用场景多,同时又高度重视数据和技术,有较强的预算投入实力和意愿,是大模型落地的高潜场景。 大大小小的金融机构们,也对大模型抱有不小的期望。一位业内人士至今还记得自己5月份在大理的一间寺庙里,偶然碰上和她谈论大模型的金融人时的讶异。这个对技术有着深度信仰的行业,几乎是ChatGPT热潮一来就迅速反应,纷纷组建团队,开始找落地场景。 可以看到,过去半年多,智慧办公、智能开发、智慧营销、智能客服、智慧投研、智能风控、数据分析等金融行业多个场景被一一探索,部分场景也已进入试点应用阶段。建行称内部已有20多个场景投放应用,农行透露已在30多个场景中进行了试点,广发证券则表示,正在探索将大模型和此前推出的虚拟数字人平台打通…… 毋庸置疑,金融行业已经成为应用大模型的前沿阵地,但要真正实现“变革性的效果”,仍然还有很多问题需要解决。 10月中旬的一场大会上,有嘉宾分享了他们对数百家金融机构的走访调研结果:虽然几乎所有金融机构都已启动对大模型的探索,但在大模型实际落地过程中,还存在着模型选择难、算力供应不足、应用成熟度不足等诸多问题。 为了支撑大模型时代的AI应用,大量金融机构,已经开始考虑如何重塑自己的IT基础设施,以此来解决大模型落地过程中的各种“桎梏”。 而其中,算力和数据是首先被想到的。 相比于直接用公有云的服务,金融行业的特殊性,使得很多金融客户都在自建算力基础设施。包括建行、工行等国有大行在内的金融机构都在今年进行了不少的算力采购。 而在数据层面,业内人士透露,不少头部金融机构正在通过大模型+MLOps的方式解决数据问题,越来越多的腰部企业也在开始陆续去构建数据中台和数据治理的体系。 但仅仅解决算力和数据问题仍然是不够的,京东云存储研发负责人告诉数智前线,他们最近接触了不少正在自建大模型基础设施的头部金融机构,对方反映最多的问题是,为了解决大模型所需的算力问题,他们采购了不少GPU,但当GPU真正跑起来了,网络和存储能力却遇到瓶颈了,“GPU老是出现等待问题”。 GPU算力昂贵,而且现在大模型的训练都是千卡级别,存力性能不够会制约算力的发挥。爱分析的报告中提到,在同样的GPU算力规模下,存储性能的高低可能造成模型训练周期数倍的差异。 “算力、网力、存力,将会是制约生态效率的关键因素。” 京东云存储研发负责人认为,大模型基础设施建设的最佳实践,一开始就将包括计算、网络、存储在内的整个基础设施进行统一规划。据他观察,大量的金融客户目前正从只关注算力的建设,转变为也关注先进的网力和存力的升级,以避免造成算力资源的等待和浪费,让花大价钱买入的算力发挥出最大效力。 实际上,不止大模型,金融企业在其他一些数字化转型场景方面的需求,也在促使他们加大对计算、存储、网络等基础设施的建设。京东云金融解决方案相关人员透露,不少中小金融机构就都曾出于降本增效的需求找到他们,希望对其传统的存储系统做升级和改造。 02 大模型对存储有了新需求 相比于传统AI的需求,大模型的场景具有数据量大、参数规模大、训练周期长等特点。相对应的,它对存力提出了更高的要求,更加强调高吞吐、高IOPS、高带宽、低延时等极致性能。 爱分析的报告中提到,金融行业需要可用、可信、可控的AI先进存力。而且,这种需求贯穿了大模型从数据采集处理、训练到推理应用等各个环节。 在数据的采集和预处理环节,通常情况下,AI大模型的海量数据来自不同的应用,由不同的协议来采集或存储。京东云金融解决方案相关人员介绍,数据要方便导入模型,从而完成训练任务。因此,这一阶段下,既要求存储产品的容量大,吞吐量要高,还要求数据协议转化和使用便利性有保障。 在训练环节,卓越的存储性能直接关系到数据整理、数据加载和阶段性模型存储等任务能否高效运行。他透露,存储有一个整体目标,就是减少算力等待时间,提升整个模型训练效率。 数智前线获悉,数以月计的大模型训练过程,其实要完成多轮训练。每次训练都要把庞大的数据源重新打散和分配。过程里海量的小文件不断被重新编排和组织,量级惊人。“有些是图片,有些是一小段文本,要把里面的内容提取出来,做一些归类等训练,小文件的量级可能达到几十亿。”京东云云海研发负责人告诉数智前线。 传统应用中,存储系统也面临海量小文件的处理任务,但经常分散在几个月的跨度里。大模型训练场景却要求几个小时完成这个任务。这使得存储每秒钟要处理的数据量远超过传统互联网应用里的峰值。“以双11为例,电商业务顶峰时段,某个系统对存储带宽的要求可能在几百GB 每秒,但大模型训练,可能每秒要达到上TB的带宽”, 京东云云海研发负责人说,这要求大模型场景下的存储性能相比传统产品提升几百到上千倍。 为避免大模型故障,经常要阶段性保存训练的结果,业界称为“checkpoint”。千亿参数级别的模型训练,高峰时段可能需要在数十秒内处理 TB 级别的数据存储。资深人士介绍,这个步骤存储系统要尽量避免任何中间传输损耗,数据拷贝的性能损耗,从而把网络和磁盘的物理硬件性能充分发挥出来。 上述资深人士认为,目前国内面向AI大模型场景的存储解决方案生态尚有待进一步丰富和发展。不过已经有厂商从自身的大模型应用实践中看到了市场的痛点,并以高性能产品来满足需求。以京东云云海的高性能极速版为例,该产品具备高吞吐、高带宽和低时延等特性,可满足金融行业客户的需求。 比如在大模型训练的并行文件存储时,云海极速版的单文件系统支持千万级IOPS,上千台服务器可同时并发访问;单客户端数据能达到200μs延迟和数百GB/s的读写吞吐。在高性能之外,云海产品的稳定性还经过京东自身海量数据规模和复杂场景的考验。 值得一提的是,当下金融行业信创进程正在加速,业界也关注到,银行、券商等金融客户在存储产品选型时已经把保证核心技术自主可控等纳入考量。主流厂商们正大力加强自身产品对国产软硬件的兼容。目前京东云云海已兼容全系列国产软硬件,而且核心技术自主可控,能够满足国产化适配的需求。 资深人士还观察到,近年来,一些新趋势也在出现。一些金融行业客户在此前常见的软硬件一体解决方案之外,还希望存储产品交付时能够实现软硬解耦。这样既能利用好企业内已有的硬件资产,充分利旧,另外也能保持相应的自主权和灵活性,符合组织内严苛的采购流程和规范。目前,京东云云海的产品包含软硬一体和纯软件交付两种模式,更为灵活,也受到不少客户欢迎。 大模型落地的成本问题也是业界关注重点。今年2月国盛证券估算过,GPT-3训练一次的成本约为140万美元,对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。千亿级别参数,动辄以月来计算的训练过程,反映到存储环节,本身就意味着巨大的成本。 为了提升性价比,除了从存储性能上让昂贵的GPU资源得到充分利用,提升模型训练效率,一些产品和解决方案已经着重思考如何以更低成本来满足需求。例如,京东云云海从软件和一致性算法等层面入手,解决海量规模带来的管理难度增加以及成本的指数级增长。 总体而言,金融行业里大模型的探索实践和智能化转型升级特性,正呼唤着存储产品在更高性能、更可信和更具性价比等层面进行升级。 03 下一代分布式存储走向何方 大模型对先进存力的需求蓬勃生长的背后,行业也在期待新的分布式存储架构和产品,破解高性能、高稳定性以及可扩展和运维上的痛点。 事实上,国内大部分存储还是第一代产品和技术,基于诸如CEPH开源架构做了一些商业化版本。而像CEPH开源架构本身,已经是一个将近20年历史的架构,过去一直没什么太大的变化,面向的是一些低速存储硬件。但存储的硬件这些年无论是性能还是价格都有很大的优化,软件反而成了性能释放的瓶颈和短板。 京东云云海身上有一个鲜明的标签——“下一代分布式存储”。 京东云存储研发负责人说,下一代并不是在上一代存储的基础上做一些性能优化,而是整个技术体系有彻底的变化,“上一代积累的很多经验完全要推倒重来。” “下一代”背后主要有双重含义:一是软件架构领先,二是在工程实践真实落地。 和传统的存储不同,京东云云海引入了全异步、非阻塞、无锁化全量的架构。尽管下一代分布式存储的代码量比上一代的存储架构多了5倍,给编程和工程都带来了很大的挑战,但带来的收益也非常可观。 从京东云海在金融行业的实践来看,在相同的硬件条件下,“整个产品的表现达到了可以媲美集中式存储,或者传统分布式存储10倍的水平,并且成本没有提升。” 京东云存储研发负责人说,比如IOPS比上一代产品有10倍的提升,IO延迟低于百微秒,已经是业内领先的水平。 相比于对技术演进方向的准确判断,其实更大的难题在于这些新技术和产品,如何在工程落地中经受住大规模场景的实践考验。科技企业早期都喜欢去打榜,以展现产品或技术的先进性,但业界发现,榜单的表现与真正的规模化工程实践还有巨大的鸿沟。 尤其是存储作为非常底层的支撑产品,稳定性要求高,数据损坏或者丢失不可逆,客户对存储产品的更换会更加谨慎。诸如银行等金融客户在选型时都非常在意,产品本身是否有过大规模的生产和实践。 京东云存储研发负责人坦言,全异步、非阻塞、追加写等技术思路业内基本有共识,目前市面上开源产品很少跑通,可参考的生产实践也非常少。京东的优势在于,10年前就开始自研存储,当时解决的是内部的需求。这些内部场景给下一代分布式存储的工程实践提供了天然的练兵场。 一是京东集团本身业务多元化,除了电商,也有物流、金融、健康和科技等业务,不同的业务场景对存储的要求不太一样,比方金融场景更偏安全可靠,需要多地容灾;物流场景更偏实时性,支持订单的实时响应;搜索推荐更偏高吞吐的要求。“方方面面的这种需求,都有过一些实践。” 他说。 二是京东的业务体量对存储的性能要求也非常高。 如今,云海在性能上已经做到接近本地盘的性能。京东已经在把本地盘切换到云海的分布式存储,经历了大促的检验。 云海根据京东自身的业务场景和生产实践孵化而来,经历内部积累的技术实践,能很好地匹配包括金融客户在内的需求。 不过产品对外输出,外部客户的IT环境与内部存在不小差异,这也考验云海的适配能力。比如云海之前在京东内部使用,底层资源用的都是京东云,但服务外部客户,需要面对各种各样的云产品,每家云的技术体系不太一样,适配的便捷度,过程是否平缓,适配完是否会导致性能衰减,都是需要解决的挑战。 云海产品经理回忆,云海最早服务的一批外部客户就是金融企业,经常会面临客户规划的资源,与云海要发挥最佳实践所需要的资源不匹配的情况,有些客户提供一些虚拟机,不仅要求软件跑起来,性能和时延都要在这个环境下看到效果。云海正是在不断完成适配的过程里,打磨出了产品的能力,从而在客户的场景里能满足各类要求。 类似的问题在现实的工程实践中经常碰到,甚至因为整个工程的复杂度涉及方方面面,要把产品做到极致,不光是自己的代码可能会出bug,使用的一些操作系统和依赖的运行库也会有问题。“整个的难度在于全链条都有可能发生问题,都需要去解决。” 京东云存储研发负责人说。 不过,他发现,越来越多的外部客户在认可互联网公司的技术演进方向,比如很多金融客户也认为存算分离是基础设施演进的必然趋势。而且,这些头部银行客户在做一些技术选型时,找的大多也是互联网类的云厂商。 如今,大模型的蓬勃发展,金融行业对先进存力的需求越来越旺盛,京东云云海作为先进存力的代表,通过自研下一代分布式存储技术,在满足高性能、高稳定性和高可用性等刚性需求的同时,也提供了软硬解耦的交付方式,正在得到越来越多金融客户的认可和信任。
达摩院的AI研究,让人类首次实现了大规模胰腺癌早筛
用人工智能挑战最致命的癌症。 日常生活中,我们经常会与人工智能进行互动,从解锁手机,使用搜索引擎到地图导航……AI 正在为我们带来越来越多的便利。不过在临床医学中,AI 技术的应用速度要慢得多,绝大多数诊断和治疗建议仍然完全基于人类判断。 直到最近,AI 在医疗影像的新突破,让事情有了变化。 上周,最新一期自然杂志子刊《自然医学》(Nature Medicine)上一个名为「PANDA」(PAncreatic cancer Detection with AI)的胰腺癌早筛 AI 模型正式亮相,成为了人们热议的话题。 该研究通过「平扫 CT+AI」的方法,让我们首次拥有了大规模早期胰腺癌的筛查手段。 据研究团队介绍,PANDA 早期筛查模型的特异性达到了 99.9%,这意味着每 1000 次测试中只出现一个假阳性;其检测胰腺肿瘤的能力可达 92.9%;鉴别胰腺癌的能力比放射科医生独立判断时的平均表现提高了 34.1%。 这或许是人类在与「癌症之王」胰腺癌的斗争中第一次掌握了主动权。《自然医学》对此还专门刊发评论文章:「基于医疗影像 AI 的癌症筛查即将进入黄金时代」。 癌症的早筛一直被认为充满挑战,人们一直期待出现一种简便通用的技术,来对大规模无症状人群进行癌症筛查。利用 AI 算法的 PANDA 或许会成为给我们带来希望。 破解「癌症之王」 关于胰腺癌, 我们可以列举两个残酷的数据:平均五年生存率不到 10%,80% 的情况下发现就是晚期。时至今日,胰腺癌已经成为中国乃至全球生存率最低的恶性肿瘤。 图片来源:http://www.china-rt.cn/special/856.html 胰腺癌早期发现困难的原因之一在于其明显症状很少,而且在癌症进展之前很难进行自愿检查。此外,由于胰腺位于身体最深处,一些影像学检查(例如腹部超声检查)可能无法显示整个胰腺。而增强 CT、增强 MRI、PET 等影像诊断,由于需要注射造影剂、辐射剂量、检查周期长、费用昂贵等原因,不太适合用于大规模胰腺癌筛查。 在体检及医院常用的平扫 CT 图像上,同样由于图像对比度低,很难识别早期胰腺病变,容易出现漏诊或误诊。 因此,胰腺癌的早筛早治具有重要的临床意义,在筛查手段上进行革新也显得尤为必要和关键。AI 技术或许能够帮助我们解决这个问题。 在 PANDA 论文中,基于阿里达摩院的医疗 AI 技术,上海市胰腺疾病研究所、浙江大学医学院附属第一医院、中国医科大学附属盛京医院、复旦大学附属肿瘤医院、布拉格查理大学第一附属医院、上海交通大学医学院附属新华医院、约翰霍普金斯大学等机构首次提出以「平扫 CT+AI」进行大规模的胰腺癌早期筛查。 PANDA 模型在这十多家顶尖医疗机构进行了大规模多中心验证,显示了稳定的泛化性能。此外,在上海市胰腺疾病研究所的体检、急诊、门诊、住院等场景中实验,仅通过最简单的平扫 CT,就在 2 万多真实世界连续病人群体中发现 31 例临床漏诊病变,至今已有两例早期胰腺癌病患已完成手术治愈。 目前,这项研究成果已向全球医生和研究人员开放。 这也是中国放射影像领域的科研成果首次登上《自然医学》杂志: 论文链接:https://www.nature.com/articles/s41591-023-02640-w 开放地址:https://g.alicdn.com/medical-engineering/d3viewer/0.0.87/index.html#/panda 在 AI 加医疗领域,我们见证过很多医疗影像的研究成果,本次登上 Nature 子刊的工作有哪些创新之处?首先,针对胰腺癌变位置隐匿、在平扫 CT 图像中无明显表征等特点,达摩院为 PANDA 设计了独特的深度学习框架,模型概览图如下所示。 上图 a 为模型开发,PANDA 以平扫 CT 为输入,输出可能发生胰腺病变(包括 PDAC 和其他 7 种非 PDAC 亚型)的概率和分割掩码。PANDA 接受了病理学确认的病患级标签和增强 CT 图像上标注的病变掩码的训练。b 为模型评估,评估 PANDA 在内部测试组、平扫和增强 CT 、外部测试组、胸部 CT 组等真实世界多场景研究中的性能。c 为模型临床转化。 达摩院医疗 AI 高级算法专家、也是这次 PANDA 项目负责人张灵进一步解释称,PANDA 并不是一个单纯的视觉分割模型,它兼具了分割、检测和分类功能,其深度学习框架(下图)包括以下三阶段,每个阶段「各司其职」。 第一,通过构建分割网络(U-Net)来定位胰腺; 第二,采用多任务网络(CNN)来检测异常情况; 第三,采用双通道 Transformer 来分类并识别胰腺病变的类型。 达摩院在 PANDA 模型的训练策略上也做了一系列技术创新,从而实现了高效、安全的大规模胰腺癌早筛。其中的关键在于如何更加准确地识别平扫 CT 图像中肉眼难以识别的细微病例特征。 同样重要的是数据,AI 筛查模型的训练需要医生手工标注大量肿瘤,但平扫 CT 图像对比度极低导致医生几乎无法标注。达摩院医疗 AI 团队先让合作医生们在增强 CT 上勾画,然后利用提出的知识迁移训练方法,通过精确的适用于腹部 CT 图像配准的算法将增强 CT 上的先验知识迁移到平扫 CT 相应位置。这样一来,以往 AI 识别癌症普遍存在的勾画难、标注难、训练难等问题得到有效解决。 同时,由于该研究主要通过腹部 CT 训练,而现实中胸部 CT 大量存在,达摩院算法团队提出一种基于模拟裁剪的数据增强方法,解决了模型泛化到胸部 CT 通常可能出现胰腺肿瘤扫描不全的问题。 得益于 PANDA 训练架构和策略的创新,该研究构建了迄今最大的胰腺癌肿瘤 CT 训练集(包含 3208 名真实病人)。该 AI 算法在一个由全球十多家医院约 6200 名患者组成的多中心队列中进行了验证,其中包括确诊的胰腺癌病例和无胰腺病变的对照病例。 随后,PANDA 进一步在包含 20530 名真实世界连续病例的多场景验证中测得了 92.9% 的敏感性(判断存在胰腺病变的准确率)和 99.9% 的特异性(正确判断无病的几率)。 截至目前,PANDA 模型已在医院、体检等场景被调用超过 50 万次,帮助医生成功发现多起临床漏诊的早期胰腺肿瘤病例,平均每 1000 次只出现一次假阳性。研究人员表示,未来还将持续进行多中心前瞻性临床验证, 以期改写「胰腺肿瘤不推荐筛查」的悲观论点。 复旦大学附属肿瘤医院放射诊断科主任顾雅佳教授表示,这篇论文提出了一种有潜力的大规模胰腺癌筛查方法,在提升检出率的同时,又不会给病人带来额外的辐射与经济负担,「设想一下,我们去体检时做个最简单的平扫 CT,就能查出有无胰腺癌,这将帮助到很多胰腺病人,减少悲剧的发生。」 达摩院医疗 AI 团队负责人、IEEE Fellow 吕乐表示,这项研究是一个重要的里程碑,在临床上证实了「平扫 CT+AI」的癌症筛查技术路径的可靠性。 构建实用的 AI 影像诊断体系 AI 加持的医疗影像技术,正在为当前的医学带来各种新的可能性。 迄今为止,美国食品药品监督管理局 FDA 已批准了 300 多种医疗影像相关的人工智能工具。通过深度学习技术,医生们可以在一些领域的病灶识别、标注、靶区勾画等任务上获得帮助,更快发现隐藏病灶,完成诊断、治疗工作。 在癌症的 AI 医疗影像工作上,此前大多数方法聚焦于协助医生进行病灶检测和诊断。此次 PANDA 研究带来的突破,则为人们在基于影像的大规模多癌筛查上开辟了一条新道路,有望提高重大癌症的早期检出率。 对于达摩院的 AI 加医疗探索来说,这只是近年来成果的一小部分。 「AI 应该解决那些尚未得到解决、而病人又真切需要的临床需求。我们需要在病人性命攸关的临床问题上,做出不可或缺的贡献。」这是达摩院医疗 AI 团队秉持的医疗技术第一性原则。 我们了解到,达摩院医疗 AI 团队长期致力于 AI 与医疗影像的融合研究,重点布局精准癌症诊疗、精准慢性病诊疗、神经退行性疾病预筛三大方向,其中研发了包括规模筛查、精准诊断、预后治疗、响应评估在内的全流程的癌症诊疗技术。 除了技术探索之外,达摩院医疗 AI 团队还与全球多家顶尖医疗机构的合作,利用 AI 技术探索低廉、高效的多癌筛查新方法,希望通过一次平扫 CT 就能查出多种早期癌症。 截至目前,相关工作已经在胰腺癌、食管癌肺癌、乳腺癌、肝癌、胃癌、结直肠癌等七种高发癌症上取得阶段性进展,相关研究成果先后登上 Nature Medicine、Nature Communications 等医学期刊及 CVPR/MICCAI/IPMI 等 AI 顶会。可以说基于医疗影像 AI 的前沿技术与癌症筛查这个领域实现了「双向奔赴」。 达摩院的 AI + 医疗影像重要研究,还包括但不限于: 2022 年 10 月,其医疗 AI 团队初步验证了 AI 与平扫 CT 结合的技术可行性,敏感性和特异性均超过专家医生水平,有望用于早期食管癌检查,相关论文发表在了 MICCAI 2022;同月基于深度学习对头颈癌 42 个危及器官进行高效精准自动规划,有效减少放射治疗并发症,研究登上 Nature Communications。 论文地址:https://www.nature.com/articles/s41467-022-33178-z 2023 年 6 月,针对 CV 领域的 OOD 难题提出全新医学图像语义分割框架,让 AI 更准确识别肿瘤中的疑难罕见案例,并已在胰腺和肝脏肿瘤上得到验证。该研究被 CV 顶会 CVPR 2023 评为 Highlight 论文。同月基于增强 CT 的胰腺肿瘤鉴别诊断也有了新进展,成果在医学图像处理顶会 IPMI 2023 上发表。 2023 年 8 月,发布多癌影像分析通用模型 CancerUniT ,利用增强 CT 实现 8 种主流癌症的辅助诊断,研究成果被 CV 顶会 ICCV 2023 收录。同月发布的首个可以分割全身 143 个器官的连续深度学习框架也被 ICCV 2023 接收。 CancerUniT 检测、分割和诊断 8 种癌症肿瘤的示例。图源:https://arxiv.org/pdf/2301.12291.pdf 不久后,达摩院免费开放 100 件 AI 专利许可,其中有 3 件是专门针对癌症的精准治疗和解决关键的医疗图像配准问题(后来在 10 月份 MICCAI 2023 Learn2Reg 竞赛上, 达摩院相关医疗图像配准技术以比较明显的优势,获得所有两个赛道的冠军)。 2023 年 10 月,基于 CT 图像的肝脏肿瘤筛查与诊断、胃癌筛查、肺结节自动检测及良恶性鉴别、胰腺癌预后等几项工作也在 MICCAI 2023 发表。 再加上胰腺癌早期检测模型 PANDA,达摩院的医疗 AI 技术,成为了一个又一个 AI for Science 的范例。 不仅如此,在达摩院的设想中,AI 不仅可以辅助医生进行多个癌症疾病筛查,同时还可以进行心脏病、腰椎、骨骼等疾病筛查,希望能在一张平扫 CT 的基础上同时检测出 8 种肿瘤和 5 种慢性病,实现基于医疗 AI 的普惠筛查。 据了解,达摩院已与浙大一院、复旦肿瘤、北医三院等多家三甲医院建立了临床科研合作关系,其医疗 AI 产品已成功对接落地 30+ 家医疗影像合作伙伴,累计落地医疗机构数超过 1000 家,为全球 2000 万人次提供了智能化医疗健康服务。 结语 有了 AI + 平扫 CT 技术,我们或许可以想象:在未来通过完成常规、有限的体检项目,我们就能在 AI 加持辅助下获得很多疾病的筛查结果。 此外,在 AI 技术进一步实用化以后,不仅是医疗影像数据,人们的就诊记录、行为模式,甚至声音等各种信息都可以作为数据进行模型的训练,并用于检测病症,为病人提供精准治疗的数据决策支持。 而这些能帮助人们获得健康的科技,会有一部分来自于阿里达摩院。 达摩院自 2017 年成立以来,一直以探索未知,以人类愿景为驱动力为目标,面向未来开展基础科学和创新性技术研究。位于科技趋势重要位置的 AI for Science,是其努力方向的重中之重。随着近年来一系列技术突破和应用的铺开,很多原本存在于我们想象中的事正在逐步实现。 「任何一家公司生命周期都是有限的,但能留下来的,是阿里巴巴的技术、经验以及对社会的担当。达摩院必须要解决社会问题,才能活得长。」正如马云在达摩院创立之初所期许的,达摩院要成为一家面向未来、以科技解决重大社会问题的企业研究机构。 迎战「癌王」,实现大规模癌症早筛的 PANDA,只是一个开始。
百度智能云AI应用产品部总经理刘倩将离职
陪伴百度云 AI 业务 12 年的刘倩离职,谁将接任? 作者丨王晓然 编辑丨陈彩娴 AI 科技评论独家获悉:现任百度智能云 AI 应用产品部总经理刘倩将离职。 百度智能云事业群的一号位是沈抖,他担任总裁一职。朱勇是现任百度智能云副总裁,直接向沈抖汇报,整体负责百度智能云应用产品中心。 离职之前,刘倩向副总裁朱勇汇报,主要负责百度智能云的智能客服、数字人、AI中台、知识中台等企业级产品及解决方案。 2011年,刘倩就加入了百度,在百度智能云的 AI 业务上已有了多年的积累,可以说是一路陪伴着百度 AI 产品的落地、应用和成长。 2018左右,刘倩尚为百度AI技术生态部高级经理,百度 AI 平台产品负责人。 2020年左右,刘倩即为百度 AI 技术生态部总经理。 2023年初,她还是副总经理,年中左右的时间,即升为 AI 应用产品部总经理。 在职期间,刘倩曾负责百度大脑及飞桨等平台化开放及生态建设,并将百度大脑开放平台打造成为中国应用规模最大的综合AI开放平台,覆盖了从数据、算法、计算到感知层、认知层、平台层、生态层、应用层的不同能力层面的技术布局,共开放1400多项AI技术能力。 并且,她搭建了百度智能云 AI 生态计划,推动飞桨深度学习平台的进一步发展。 同时,她还在业内首推零门槛AI开发平台EasyDL、自定义模板文字识别平台等。 在管理方面,她也参与建立了体系化的 AI 人才培养方案: 基于百度智能云「云智一体3.0」架构,刘倩所带领的 AI 应用产品部需要在很大程度上将百度的大模型的能力和百度智能云的产品进行结合,她曾带头打磨了百度智能云「智能客服」、「企业知识管理」、「数字人直播平台」等六大产品。 在数字人业务的推进过程中,刘倩带领的团队推出了像百度品牌代言人“希加加”这样纯诞生自虚拟世界的IP;还与央视新闻合作了 AI 手语主播,服务于冬奥期间的电视节目;也推出央视虚拟主持人小 C,参与对话人大代表等采访。 在 3D 数字人方面,刘倩在 2021 年底主导发布了百度智能云曦灵平台,集数字人生产、内容创作、业务配置服务为一体,集成了 AI 手语平台、数字明星运营平台、数字员工平台、数字人直播平台等。
魅族首款AR眼镜来了!首发“定制车计划”,首秀AI大模型,三代骁龙8旗舰机3399元起
作者 | 云鹏 编辑 | 李水青 智东西11月30日报道,刚刚魅族在武汉举办了一场生态新品发布会,亮出了魅族21系列智能手机、MYVU系列AR智能眼镜、MYVU Ring智能指环、Flyme AR、Flyme 10.5等多款新产品、新系统和新技术,魅族的AI大模型也在各类产品中开始落地应用。 作为发布会结尾的“One More Thing”,星纪魅族集团董事长兼CEO沈子瑜首次宣布了魅族的“定制车计划”——Dream Car MX,魅族此举或与华为的“帮助车企造好车”有相似之处。 魅族21搭载了一块“最窄边框四边等宽”的屏幕,MYVU探索版采用了全球量产的尺寸最小的AR全彩光引擎,包括一块入眼亮度1100nit的Micro LED屏幕,值得一提的是,魅族专门为这款AR眼镜开发了一个配套的智能指环,并推出了Flyme AR系统,其界面风格类似苹果Vision Pro的主界面。 在今天的发布会上,沈子瑜率先登台进行了演讲,公布了“新魅族”成立的245天里的一些成绩。 他提到目前星纪魅族的三个主要业务分别是智能汽车、智能手机和智能眼镜。目前魅族在全国有300多家零售门店。在销量数据方面,2023年Q3,魅族手机出货量同比提升218%。 这次魅族还发布了无界智行开放平台,沈子瑜说,他们希望将Flyme Auto的核心能力更快地应用在更多汽车品牌中,他特别提到,Flyme Auto提供的体验远超“BBA”。 售价方面,MYVU探索版的售价为9999元,MYVU标准版售价为2499元。 魅族21系列智能手机起售价为3399元。 产品实拍图: ▲MYVU探索版 ▲MYVU标准版 ▲魅族21 一、全球最轻的量产AR眼镜,从光机、镜片到材料亮出诸多黑科技,还有AR专用系统 此次魅族首次发布了智能眼镜品牌MYVU,并发布了两款AR智能眼镜新品。其中高阶的MYVU探索版采用了“无线”设计。 沈子瑜说,魅族是“三年磨一剑”,在设计、工艺、材料、AI技术等方面均做出了一些创新和突破。 在设计方面,MYVU探索版在鼻托、镜片等方面采用了可拆卸替换方案,外观与目前主流AR眼镜略有不同,还是有一定魅族自己的特点的。 显示效果方面,MYVU探索版据称采用了全球量产最小的AR全彩光引擎。 其采用的Micro LED屏幕尺寸仅为一枚硬币的四分之一,通过光刻技术制成,其PPI达到了6000以上,入眼亮度为1100nit。 在轻量化方面,MYVU探索版的重量仅为71克,魅族在镜片、零部件方面都做了轻量化处理,据称MYVU探索版中的轻量化零件超过139个。 为了解决轻量化后的续航问题,MYVU探索版在算力方面需要手机与眼镜算力的协同,眼镜的骁龙W5 Gen1可以和手机上的三代骁龙8进行算力协同,算力和续航的兼顾问题得到了解决,续航时间可以达到8小时。 沈子瑜说,没有手机公司赋能的AR厂商是看不见未来的,AR眼镜与智能手机的结合是很关键的。 系统方面,MYVU探索版采用了魅族特别设计的Flyme AR。 值得一提的是,为了提升交互性,魅族还设计了一款智能指环MYVU Ring,这个智能指环采用了陶瓷和不锈钢材料,支持IPX7等级防水。 具体来看Flyme AR,其界面比较简洁,主界面上只有四个图标,用户可以任意拖动其位置。 MYVU标准版的定位是“极致轻薄”和“全天候”,沈子瑜说,MYVU首先应该是一个时尚眼镜,其次才是一个AR眼镜。沈子瑜在发布会全程都佩戴着MYVU,其外观与常规时尚眼镜类似。 值得一提的是,MYVU的外观支持个性化定制配色,用户可以在购买时进行定制。 在轻量化方面,为了进一步降低重量,MYVU标准版在光机、镜片等方面做了进一步减重,其重量仅为43克,据称这是全球最轻的量产AR眼镜。 MYVU的光引擎据称是全球最小的Micro LED纯色光引擎,其屏幕峰值亮度为2000nit,采用了首款量产的光波导树脂镜片。 今天魅族还正式发布了Flyme AI大模型并应用在了Flyme AR系统中,在沈子瑜看来,AR眼镜是AI大模型最好的载体之一。 在功能性方面,MYVU支持一些常见的AR眼镜功能,比如实时翻译、提词器等。MYVU同样支持MYVU智能指环。 二、AI大模型加持,AIGC图文创作不在话下,手机车机结合出更多玩法 今天,Flyme正式更名为FlymeOS,其中文名为无界,魅族对它的定位是全场景AI操作系统。 此次魅族发布了Flyme 10.5版本,魅族的智能助理名为Aicy,Aicy得到了AI大模型的加持,支持常见的知识问答、文案创作等功能,同时Aicy可以作为私人助手,帮助用户解决一些日常遇到的难题。 当然,Aicy也支持文生图、图片风格转换等功能。值得一提的是,在车机场景中,Aicy可以提供交规咨询、车辆维保等服务,也可以为用户推荐行程,并直接在车上进行导航。 Aicy可以对用户屏幕上的内容进行智能识别,自动认出地址、网址等信息,并提供跳转的服务。 此外,Flyme中的图库应用在AI大模型的加持下,支持了AI搜图功能,用户可以直接用自然语言描述来搜索图片。 这次图库支持了图片扩展功能,可以对相册中的图片进行扩展,创作出本没有的部分。这一功能与小米澎湃OS相册的AI扩图功能类似。同时,AI路人消除等常见AI图像处理功能相册均已支持。 另外,AI写真功能可以直接将用户个人照片转换成写真风格,甚至AI还可以改变照片的背景。 三、四边不仅最窄还“等宽”,信号看齐华为,还有罕见“白面板” 魅族这次发布的手机新品为魅族21系列,魅族21系列重点提升了显示能力,搭载了三星OLED屏幕,峰值亮度为1800nit。 魅族21的屏幕边框做到了1.74毫米,据称是全球最窄的,并且是“四边等宽”,比iPhone 15 Pro更窄。 为了实现这样的窄边框,解决信号问题是关键难点之一,魅族为此设计了新的天天线系统,信号与华为Mate 60 Pro+相比,几乎持平。 在机身耐久度方面,魅族21升级了加工机床,加工精度更高,其装配间隙为0.04毫米,A4纸的厚度为0.104毫米。 值得一提的是,此次魅族21采用了白色前面板,这在目前的主流旗舰手机中是极为罕见中,白色面板会提升25%的屏幕报废率,成本的增加很明显,据称这背后魅族采用了“车规级”工艺。 魅族在手机背部镜头上增加了一个光环,光环会随着用户不同的用户场景产生不同的光效。 在性能方面,沈子瑜说,同样的食材,也可以做出不同味道。魅族21在采用高通三代骁龙8的同时,通过对散热系统的增强,以及软件层面的调校,进一步释放了该芯片的性能。 在续航方面,魅族21的续航相较上代提升了30%,根据测试数据,其相较同级别5000mAh电池机型续航能够形成一定优势。 在一些外围体验配置方面,魅族21继续采用了超声波指纹识别技术,其马达据称为安卓阵营中体积最大的,在测试中,该马达相比苹果新iPhone中的马达性能更好。 在影像方面,魅族21的主摄采用了2亿像素传感器,魅族通过算法进一步提升了2亿像素直出拍照的速度,拍照体验有所提升。 这枚主摄基于2亿像素,可以实现“无损”的4倍变焦,在人像拍照方面有一定提升。 结语:闯入AR赛道,手握手机车机联动优势,魅族生态建设提速 此次魅族在AR眼镜赛道的新品实现了不少行业“首次”,魅族“三年磨一剑”,的确掏出了不少够硬的技术,这些也成为了魅族入局AR赛道的资本,后续其产品在市场中能有怎样的表现,值得关注。 与此同时,魅族也正式加入AI大模型之战,AI大模型能力在魅族各个产品、系统中应用,带来了产品AIGC能力的提升。 如今,科技厂商的竞争都已转变为生态的竞争,从手机、AR眼镜到汽车系统,魅族的生态建设也在加速扩展。
Sam Altman 最新专访:曝光回归内幕,首度回应 Q* 模型
一年前的今天,OpenAI 发布了 ChatGPT ,引发了人工智能的寒武纪大爆发。 技术进化的加速感越来越强,「见证历史」已经习以为常,伴随着兴奋、焦虑、担忧、反思……所有人似乎都在迫切翻开历史新的一页。 OpenAI 在经历最近一系列混乱后,今天也正式宣布了 Altman 的回归,而公司最大的投资者微软,也将作为非投票的观察员加入董事会。 同时 Altman 还接受了 The Verge 的专访,谈到了回归前的一些内幕,以及早前被曝光的 Q* 模型——那个被认为可能威胁人类的 AI 技术。 不过在这次采访中,Altman 多次拒绝回答人们最为关心的问题:究竟为什么他会被解雇? 当 OpenAI 董事会在解雇 Sam Altman 一天后,又请求他回归时,Altman 起初感到了抗拒、受伤和愤怒。他在电话中告诉记者: 我花了几分钟时间才从中走出来,克服了自我和情绪,然后想,‘是的,我当然想做这件事。’ 显然,我非常热爱这家公司,并且在过去四年半的时间里全心投入其中,但实际上,我花了更长的时间。我们在我非常关心的使命上取得了巨大进展,那就是安全且有益的人工智能。 以下是 The Verge 与 对 OpenAI 首席执行官 Sam Altman 和首席技术官 Mira Murati 的完整采访,爱范儿略作编辑: Q:Sam,我想首先谈谈房间里的大象,那就是我们仍然不知道你最初为什么会被解雇。你认为你为什么被解雇? Altman:董事会将在此处进行独立审查。我非常欢迎这一点。现在我没有太多要说的,但我期待了解更多。 Q:你认为董事会为什么说他们对你失去了信任? Altman:这更适合他们回答。 Q:你刚才在 X 上说,「很明显,你和董事会成员之间存在真正的误解。」这些误解是什么? Altman:我还没准备好谈论这个。我认为让这个审查过程进行非常重要。我很乐意谈论任何前瞻性的事情。我想会有一段时间,我非常乐意谈论这里发生的事情,但现在不是时候。 Q:你能告诉我你为什么现在不能谈论它吗? Altman:我只是想让这个过程进行,不干预。 Q:你在给员工的信中提到了 Ilya Sutskever(OpenAI 的首席科学家)。你能告诉我为什么他改变了主意,决定和其他人站在一起吗? Mira Murati:我们不知道。你得问 Ilya。 Q:Sam,回顾起来,让你回来的主要动力是什么? Altman:这真的很有趣。周六早上,一些董事会成员打电话给我,问我是否愿意谈论这个问题。我的第一反应有点抗拒,就像,「天哪,我受伤了,我很生气,我认为这很糟糕。」 然后我几乎立即开始思考,显然,我非常热爱这家公司,并且在过去四年半的时间里全心投入其中,但实际上,我花了更长的时间。我们在我非常关心的使命上取得了巨大进展,那就是安全且有益的人工智能。但也是这里的人和所有对我们抱有巨大期望的合作伙伴,还有 Mira 和领导团队以及这里所有做出了不可思议工作的人。我花了几分钟时间才从中走出来,克服了自我和情绪,然后想,「是的,我当然想做这件事。」 Q:所以董事会要求你回来? Altman:是的。 Q:你起初犹豫了吗? Altman:不会太久。在那之后发生在我身上的事情让我有很多感觉。 Q:很明显员工支持你。你认为这有多大影响? Altman:我们肯定是以一个更强大、更团结、更专注和承诺的团队走出这个过程。我认为我们之前就有很强的信念和专注,现在我认为我们有了更多。所以这是我对所有这些事情的一线希望。 在整个过程中,我们没有失去一个员工,一个客户。他们不仅在面对难以管理的增长时保持了产品的运行,还推出了新功能。研究进展继续进行。 Q:你想回到董事会吗? Altman:尽管这听起来像一个公关说辞,但要说现在这不是我的重点领域。我有一堆非常困难、重要且紧急的工作要做。我想做好我的工作,但这不像(在)董事会或不在。现在我没有花时间思考这个问题。 Q:「改进我们的治理结构」意味着什么?非营利控股公司结构会改变吗? Altman:这更适合董事会成员回答,但也不是现在。老实说,他们需要时间,我们将支持他们去思考。显然我们的治理结构有问题。找到解决这个问题的最佳方法需要一段时间。我完全明白为什么人们现在想要一个答案。但我也认为期待立即得到答案是完全不合理的。 Q:为什么你认为这是不合理的?我认为人们看到了关于发生了什么的很多模糊之处。看起来像是分歧,而不是不当行为或类似的事情。 Altman:哦,只是因为设计一个真正好的治理结构,尤其是对于如此有影响力的技术,不是一个一周的问题。这将需要真正的时间来思考,辩论,获得外部观点,进行压力测试。这需要一段时间。 Q:刚刚发生的事件是否会改变 OpenAI 对安全工作的方法? Murati:不会。这与安全无关。 Q:关于你们最近取得的 Q* 模型突破的报道,那是怎么一回事? Altman:对于那次不幸的泄露,我没有特别的评论。但其实我们之前一直在强调,就像两周前我们说的,一年前我们说的,更早之前我们说的——我们预计这项技术的进展将继续迅速,同时我们也期望继续努力弄清楚如何使其安全且有益。这就是我们以前每天起床的原因。这也是我们将来每天起床的原因。我认为我们在这一点上一直非常一致。 不评论任何具体的事情或项目,我们相信进步就是研究。你总有可能遇到障碍,但我们预计进步将继续显著。我们想与世界接触,弄清楚如何使这项技术尽可能好。 Q:最后一个问题。我确定你还在思考所有这些。我知道这一切都很新鲜。你从这整个事件中学到了什么? 我想我现在还没有一个简洁有力的回答。显然学到了很多,但我仍在努力理解这一切。我的意思是,肯定有很多可以说的,但我认为我现在还没有准备好……我现在只能给出一个冗长而杂乱的答案。 Altman: 好吧,我们以后再谈。 挂断电话后,Altman 几分钟后又打了回来: 我学到了公司真的可以在没有我的情况下正常运转,这是一件非常好的事情。我很高兴回来,别误会我的意思。但我回来时没有任何「哦,我必须做这个,或者公司需要我之类的」压力。 我自以为感觉很好,因为我要么是挑选了出色的领导者,要么是很好地指导了他们。感觉公司没有我也会完全没问题,团队已经准备好并且提升了,这感觉非常好。
打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训
作者 | 程茜 编辑 | 漠影 智东西11月30日报道,11月27日,算力龙头企业浪潮信息发布了完全开源且可免费商用的源2.0基础大模型,包含1026亿、518亿、21亿不同参数规模,这也是国内首个千亿参数、全面开源的大模型。 浪潮信息源2.0大模型在数理逻辑、数学计算、代码生成能力方面大幅提升,且在HumanEval、AGIEval、GMS-8K等知名评测集上的表现,超过了ChatGPT的精度,接近GPT-4的精度。 此外,昨天在AICC 2023人工智能计算大会上,浪潮信息还公布了源大模型共训计划,针对开发者自己的应用或场景需求,该公司通过训练数据并对源大模型进行增强训练,然后将其在社区开源。 如今,各类大模型创新应用频发,归根结底,大模型商用问题都集中于模型基础能力的提升。浪潮信息高级副总裁、AI&HPC总经理刘军谈道, 客户端碰到的较大挑战在于,模型基础能力是否能达到客户预期,而这部分的差距仍比较大。 浪潮信息是国内最早布局大模型的企业之一,2021年源1.0发布,浪潮信息打造了数据清洗、格式转化等完整流程和工具链,这也为源2.0的性能突破奠定了基础。如今,为了提升基础大模型的智力水平,浪潮信息的研发团队从算法、数据、计算方面并行创新突破,打造了源2.0。 那么,源2.0的能力有哪些提升?其背后的三大技术创新是什么?为什么浪潮信息如此坚定地选择开源开放?带着这些问题,智东西与浪潮信息高级副总裁刘军、浪潮信息人工智能软件研发总监吴韶华进行了深入交流,从源2.0出发,剖析浪潮信息在大模型时代的布局逻辑。 开源项目:https://github.com/IEIT-Yuan/Yuan-2.0 论文链接:https://arxiv.org/ftp/arxiv/papers/2311/2311.15786.pdf 一、20亿到超1000亿参数规模,性能评测接近GPT-4 大模型竞争愈演愈烈,越来越多的玩家参与其中,浪潮信息源2.0大模型的差异化优势可以用这几大关键词概括:千亿参数,全面免费开源,代码、数理逻辑能力全面升级。 首先来看一下源2.0大模型的基础信息,这一大模型系列有三个参数规模,分别是1026亿、518亿和21亿。吴韶华谈道,浪潮信息在保证21亿参数规模模型能力的同时,让其具备更小的内存和计算开销,能直接部署到用户的移动端设备上,这对于部分终端用户而言是一个不错的选择。 在序列长度方面,源2.0-102B、源2.0-51B的序列长度为4096个tokens,源2.0-2B的序列长度为8192个tokens。 源2.0大模型具备数理逻辑、代码生成、知识问答、中英文翻译、理解和生成等能力。 浪潮信息在业界公开数据集上对源2.0进行了代码、数学、事实问答等方面的能力测试。吴韶华称,目前,源2.0在大模型应用上已经达到接近GPT-4精度的水平。 从具体的应用案例来看,当源2.0解答一道典型高考数学题时,既需要数学领域的基础知识,还需要大模型对基础知识演化、进行求解计算等,吴韶华感慨说,当时源2.0做出这道题令他们非常惊喜。 基于数学数据集GSM8K、AGIEval Gaokao-Math-QA,源2.0的能力也不逊色于ChatGPT。 在代码生成方面, 吴韶华展示了一道十分刁钻的题。他透露,这道编程题中设计较多复杂指令,需要大模型充分理解其中的相关条件,才能生成相应代码。 在HumanEval评测中,与ChatGPT相比,源2.0-102B的代码生成能力得分略高于ChatGPT,源2.0-51B也不相上下。 在多轮对话方面,源2.0能完成解释成语、生成七言绝句、回答成语出处等任务。 基础大模型能力不断提升的同时,大模型开始走向行业应用。可以看到,基础大模型能力的边界,正是大模型真正实现降本增效、展现其价值的关键。刘军谈道,最终用户感受到的大模型能力是其在应用层面能力的表现,这些核心能力的本质,是由基础大模型能力所决定的。 以现有的聊天机器人、AI Agent为例,这些工具带给人们生活方式、工作效率的提升,其最核心的还是基础大模型的支撑,因此浪潮信息始终聚焦于底层大模型能力的提升,将为其行业合作伙伴开发更多丰富应用提供平台。 与此同时,国内大模型产业还有一大优势就是,拥有丰富的应用场景与数据资源,这也为大模型在垂直赛道落地提供了机遇。 下一步,浪潮信息计划发布多模态大模型、大模型的长序列版本等,进一步丰富基础大模型布局。归根结底,打好基础大模型地基,在其之上构建的丰富大模型应用才能“开花结果”。 二、算法、数据、计算创新,让大模型更聪明 那么,如何让基础大模型更聪明、智商更高? 当下,大模型智力水平提升的瓶颈集中于大模型的幻觉、可解释性问题,以及算法、算力、数据这三大与大模型智能水平密切相关的关键要素,也就是算法如何创新、算力如何满足超大需求、高质量训练数据如何获取。 在此基础上,浪潮信息围绕着模型的算法结构、数据获取、训练方法进行了创新升级。 首先是算法结构的创新。不同于源1.0采用的Transformer典型架构,源2.0提出并采用了一种新型的注意力算法结构:局部注意力过滤增强机制(LFA,Localized Filtering-based Attention)。 Attention注意力机制学习输入内容之间的关系时,需要进行分词,其分词的方式如下图。但自然语言中有一种很强的局部依赖特性,如下图中“中国”和“菜”两个词。吴韶华解释道,LFA结构就是优先考虑自然语言之间的局部关系,从而提高模型的表现。 ▲源2.0采用的LFA结构 LFA结构引入了两个嵌套卷积结构,输入序列通过卷积增强局部依赖关系,然后进行两两之间关联性学习,这样一来,大模型能同时掌握输入内容的全局性和局部性关系。 ▲源2.0算法架构图 基于这一结构,源2.0可以有效提升精度并降低Loss数值,浪潮信息对模型结构的有效性进行了消融实验,相比Attention注意力机制,LFA模型精度提高3.53%。模型损耗方面,源1.0到源2.0的Train Loss降低28%, 吴韶华称,Loss数值越小就意味着大模型对于训练数据特征的学习更好。 ▲源2.0 Train Loss值变化 第二大创新就是数据。有限的算力资源上,训练数据的质量直接决定了模型的性能。打造源1.0的同时,浪潮信息构建了海量数据清洗系统,将超800TB的数据压缩至5TB,但数据质量的提升仍有很大空间。因此,如何进一步提纯数据,让大模型能基于更高质量的数据进行训练,成为浪潮信息探索的一大重要方向。 吴韶华谈道,基于此,浪潮信息在构建数据集时主要考虑了书籍、论文等本身质量较高的数据,同时引入了一部分社群数据和代码数据。其中,为了得到高质量中文社群数据,浪潮信息的研发人员从12PB的数据中清洗得到10GB数据,他补充道,即便如此,这一部分数据的质量仍然不够。 浪潮信息采用了一种方式,就是基于大模型生成高质量数据,然后将这部分数据在用到大模型的训练过程中。对于大模型生成数据喂养大模型是否会有缺陷,吴韶华解释说,在他看来,这一缺陷的关键就是数据。 ▲浪潮信息提高大模型生成数据质量的策略 衡量数据的质量可以通过多样性、高质量,因此,浪潮信息在构建数据时包含了尽可能多的数据类目、主题,并通过删除不带任何函数名、文档字符串或代码的示例等各项数据清理策略来获得高质量数据。 他补充说,即便其中包含大模型生成的数据,但浪潮信息通过额外构建的数据清洗流程,能将更高质量的社群、代码数据应用到模型的预训练过程中。 其次是训练方法上,浪潮信息提出了非均匀流水并行、优化器参数并行、数据并行、Loss计算分块的分布式训练方法,能降低节点内AI芯片之间通讯带宽。 ▲源2.0训练方法 其中,浪潮信息构建了两个性能模型,分别是张量并行、流水并行、数据并行,以及流水并行、优化器参数并行、数据并行。针对这两个性能模型,研究人员实测中发现,模型预测的数据和实际测试的数据误差非常小。采用这一分布式训练方法,大模型的性能几乎不会随带宽发生变化。 ▲源2.0性能与带宽变化的关系 可以看出,从算法、数据、计算出发,浪潮信息基于自己的经验及技术积累找到了提升大模型智力水平的有效路径。 刘军谈道,去年到今年,大模型产业“粗放式经营”的发展较为明显,在这背后,浪潮信息开始探索其中的认知规律,结合认知科学、语言科学的特点,将其提炼出来,并实现算法结构的改进、数据质量的提升等。 三、开源开放,锚定大模型产业协同发展 不过,还有一大事实是,国内大模型能力与国外相比仍有不小的差距。在浪潮信息看来,开源正是国内大模型玩家追赶OpenAI,现阶段可行的路径之一。 此次浪潮信息将源2.0大模型系列全部免费开源,这也是国内首个千亿参数、全面开源的大模型系列。 开源开放的生态使得开发者可以直接调用API、中文数据集、模型训练代码等,这一方面可以降低开发者将大模型能力适配不同场景的难度,另一方面可以提升其在小样本学习和零样本学习场景的模型泛化应用能力。 刘军谈道,大模型开源最本质的好处就是,整个产业能够协同发展。当我们回顾此前成功的开源项目时会发现,其成功离不开整个社区的共同参与与贡献。 因此,面对强大的GPT-4,浪潮信息将自己的大模型全面开放出来,使得开发者在其之上构建应用时,既可以快速落地,还能在思想与技术的碰撞中,为国内产业赶超GPT-4架起一座桥梁。 他补充说,这并不意味着未来只有一家大模型能胜出,反而是未来大模型生态的建设将会更加多元化,“每个模型都会有它最擅长的能力”。 2021年,浪潮信息率先推出中文AI巨量模型源1.0,参数规模为2457亿,同时发布开源开放计划,加速大模型应用的落地应用。刘军透露,据他们不完全统计,今天国内有超过50家大模型,都使用了浪潮信息的开放数据集。 源大模型在行业应用落地的过程中,大模型的真正价值也体现在浪潮信息内部及不同的行业中。据了解,“智能客服大脑”引擎针对数据中心常见的技术问题,将复杂技术咨询问题的业务处理时长降低65%,使得浪潮信息整体服务效率提升达160%;基于源1.0,GitHub的开发人员还开发了有趣好玩的AI剧本杀平台。 ▲浪潮信息开发的InService云端智控平台 下一步,依托于此前开源计划的经验积累,浪潮信息将围绕其开源社区,广泛收集开发者的需求,并打造数据平台,将大模型的能力与更多实际的应用场景相适配。 大模型要百花齐放已经成为业界共识,开源生态的出现能够在大模型能力提升的同时,找到大模型在不同行业的商业化路径。 结语:算法、数据、计算协同创新,开源打破大模型孤岛 ChatGPT的出现为AI领域的从业者展现了大模型的智慧涌现能力,国内诸多参与玩家奋起直追,国内丰富的数据资源、应用场景是大模型发展的天然优势。但基础大模型的能力如何赶超国外头部玩家也是目前一大挑战。 以浪潮信息为代表的国内大模型玩家都在探索这其中的有效路径,过去两年间,浪潮信息中抽象出一套方法论。 从技术角度来看,大模型的挑战在于设计模型结构和训练层面,经典的Transformer架构是绝大多数大模型的底层架构,但对于如何减少计算成本、提升其对于序列中顺序信息的理解,都是模型架构方面有效的探索方式。 浪潮信息率先提出的对于算法创新、高质量数据提取、训练方法的创新等,为国内基础大模型能力的进一步跃升提供了探索的方向。 与此同时,完全开源可商用的千亿级别大模型面世,或许能为更多参与者提供一种创新的思考方式,集各家之长,加速通用人工智能时代的到来。
哪些职业最容易受到AI冲击?英国政府发布了份官方研究报告
财联社11月30日讯(编辑 潇湘)你是否面临被人工智能取代的风险? 随着ChatGPT等AIGC工具的兴起,引发了人们对数百万工作岗位可能会被该技术取代的担忧,越来越多的行业研究也正试图研判出,有哪些岗位可能受到最为猛烈的冲击。而对此,英国教育部未来技能部门(Unit for Future Skills)本周也就此发表了一份最新的研究报告。 该报告被宣传为关于人工智能对英国就业市场影响的首批量化研究尝试之一。研究人员使用了美国学者开发的方法,以确定受人工智能——尤其是大语言模型影响最大的职业、行业和领域。 报告分析发现,金融和保险行业似乎最容易受到人工智能浪潮的影响,这也意味着那些雄心勃勃的伦敦金融城专业人士正处于风口浪尖之上…… 其中,管理顾问是受所有人工智能应用影响最大的职业,紧随其后的是财务经理、会计师、心理学家、采购经理和经济学家。 而在更为细分的大语言模型(比如OpenAI的ChatGPT背后的软件)方面,研究发现,呼叫中心工作人员在最容易受大语言模型影响的职业中名列榜首。其他受影响较大的职业还包括了大学讲师、信贷管理员、公共关系专家和神职人员等。 运动员、屋顶工人和建筑工人则是最不可能受到人工智能应用技术影响的人群。 这一官方统计将英国的职业分为了365类。研究人员指出,它们根据人工智能复制岗位所需技能的能力,以及10种常见的人工智能应用程序可以在多大程度上帮助完成相应工作——包括图像识别、语言建模、翻译和语音识别等方面,为每个职业提供了“人工智能职业暴露度”评分。 这些分值从-2到1.5不等。分值越高,表明该职业受影响的可能性越大。 报告的其他结论 这些报告还发现,伦敦和英格兰东南部的工人最容易受到影响,因为伦敦的工作岗位集中在专业领域;而东北部的工人受影响的可能性最小。 此外,与学历较低的人相比,学历较高的人更容易受到影响。 该分析报告没有试图区分哪些工作可能被人工智能取代,哪些岗位上员工的作用被新技术增强了。英国教育部表示,一般认为,10%到30%的现有工作将受到人工智能的影响,不过也会创造新的工作岗位来利用这项新兴技术。 今年早些时候,美国研究人员的一项研究曾发现,ChatGPT等人工智能工具已经抢走了文案和平面设计师的自由职业工作。 英国教育部称, "这份报告说明了教育系统和雇主需要如何进行调整,以确保劳动力具备从这一新兴技术中获益的必要技能。" 英国方面早前的其他研究也表明,在未来20年里,多达三分之一的英国工作可能会受到某种程度的自动化影响,但大多数人会看到他们的工作方式发生变化,而不是被机器取代。
阿尔特曼回归OpenAI首次受访!首席科学家或出局,将变革治理结构,点将32功臣
作者 | 李水青 编辑 | 心缘 智东西11月30日消息,今早,OpenAI官网发布公告,萨姆·阿尔特曼(Sam Altman)重新担任首席执行官,米拉·穆拉蒂(Mira Murati)仍担任首席技术官,格雷格·布罗克曼(Greg Brockman)担任总裁。 ▲OpenAI官网公告 OpenAI新的初始董事会成员随之公布,布雷特·泰勒(Bret Taylor)担任主席,其他成员包括拉里·萨默斯(Larry Summers)和亚当·迪安杰罗(Adam D’Angelo),同时设一名无投票权的微软观察员。 OpenAI前首席科学家伊利亚·苏特斯科夫(Ilya Sutskever)不再担任董事会成员,新职位未确定。 在OpenAI公告中,阿尔特曼发布了重新担任OpenAI CEO后的首封致全员信。 ▲阿尔特曼致全员信 阿尔特曼在信中对米拉、格雷格、布雷特等32个人进行了一一点名感谢,言语富有感情地肯定了他们在OpenAI的工作及一系列变动中的表现。 阿尔特曼提到,当下OpenAI有三个当务之急:1、推进在全栈安全领域的研究计划和更多投资;2、持续改进和部署产品并服务客户;3、建立一个具有不同观点的董事会,改善治理结构以及监督对最近事件的独立审查。 在社交平台X上,阿尔特曼输入了八颗爱心表情并转发了OpenAI的公告。 ▲阿尔特曼在X平台上发声 重返职位之际,阿尔特曼接受了外媒The Verge的采访。他坦言,当董事会要求他在被解雇后的第二天回来时,他一开始觉得非常愤怒、受伤和被挑衅;花了几分钟让自己冷静下来,他才抛开情绪,决定回到OpenAI。 当记者问到伊利亚·苏特斯科夫为何改变立场的内幕问题时,阿尔特曼称:“这我们就不清楚了。你得直接去问伊利亚。”阿尔特曼在致全员信中称,正在讨论如何让伊利亚继续在OpenAI工作。这位被猜测策划了OpenAI夺权事件的技术大佬接下来是否留在OpenAI?这一问题更加成疑。 阿尔特曼在全员信中提到“改善治理结构”,这意味着什么?阿尔特曼回复,这还需要投入大量时间,让人们思考、讨论,听取外部观点,进行压力测试,最终才能确定下来。 今日,OpenAI新董事会主席布雷特·泰勒也发布了一封致全员信。 ▲泰勒致全员信 泰勒宣布董事会的新计划如下:1、建立一个由杰出人士组成的合格、多元化的董事会;2、进一步稳定OpenAI组织,召集董事会独立委员会来监督近期事件的审查;3、改善OpenAI的治理结构。 泰勒担任新董事会主席面临争议,有人质疑他在OpenAl董事会任职期间经营Quora和Poe的潜在利益冲突。今日下午,泰勒在X平台上回应称,他已经与董事会同事和管理层沟通过,当完成过渡任务后,就会离开OpenAI。 ▲泰勒在X平台上发声 以下是OpenAI夺权始末的前情提要: 1、突发!OpenAI前CEO阿尔特曼被开除 2、突发,OpenAI政变再反转!阿尔特曼逼宫失败,董事会又换了新CEO 3、疯狂四天、九集反转:一口气看完史无前例的硅谷夺权复仇真人秀! 4、大结局!OpenAI宣布阿尔特曼复职CEO,董事会重组 5、OpenAI政变内幕!从乔布斯夫人主持活动开始,在亿元豪宅密谋逼宫夺权 一、回归OpenAI首次受访,阿尔特曼谈夺权内幕和新变革 在阿尔特曼重返OpenAI之际,外媒The Verge记者对阿尔特曼和米拉进行了采访。采访的完整内容如下,作者对其做了不改变原意的编辑。 1、你觉得你被解雇的原因是什么? 阿尔特曼:董事会将进行独立审查,对此我很高兴和欢迎。目前我没什么好说的,但很期待了解更多情况。 2、你认为董事会为什么说他们对你失去了信任? 阿尔特曼:这个问题更适合去问他们。 3、你在社交平台X上提到,显然你和董事会成员之间有些误会。能说说是什么误会吗? 阿尔特曼:我还没准备好去谈论这个。我觉得让审查过程正常进行很重要。我很愿意讨论未来的事情。我想,总有一天我会乐意分享这里发生的事情,但不是现在。 4、你能告诉我为什么你现在不能这样做吗? 阿尔特曼:我只想让这件事过去,不想去再涉足。 5、你在全员信中提到了OpenAI前首席科学家伊利亚·苏特斯科夫。能说说为什么他改变了立场,决定站在其他人那边吗? 阿尔特曼:这我们就不清楚了。你得直接去问伊利亚。 6、是什么促使你回来? 阿尔特曼:这事情说起来挺有意思的。星期六早上,董事会的一些人给我打电话,问我愿不愿意谈谈这事。我一开始有点不屑一顾,心想:“哥们儿,我现在很受伤,也很生气,我觉得这事儿太糟糕了。” 但后来我转念一想,我其实是真的很喜欢这家公司。过去四年半里,我全心全意地投入到这家公司中,实际上,我关注它的时间还要更长。我们在使命上取得了巨大的进展,那个使命就是研发安全有益的AGI。还有这里的人,所有押注我们的合作伙伴,以及米拉和领导团队,还有所有在这里默默奉献的人。我花了几分钟才让自己冷静下来,抛开了个人情绪和偏见,然后我说:“好的,我当然愿意回来。” 7、所以董事会让你回来? 阿尔特曼:是的。 8、你一开始是不是有些犹豫? 阿尔特曼:短暂犹豫了一下。之后,我就有了很多感触。 9、很显然,员工们都很支持你。你觉得这有多重要? 阿尔特曼:毫无疑问,我们之所以能够渡过难关,靠的就是一个更强大、更团结、更专注且更敬业的团队。我以前就觉得我们的信念和专注力很强大,现在更是如此,甚至可以说是有过之而无不及。所以,这就是我对这一切抱持的一线希望。 在整个过程中,我们没有失去任何一个员工,也没有失去任何一个客户。尽管面临着艰难的增长挑战,但他们不仅成功地维持了产品的发展,还推出了新功能。同时,研究工作也在持续推进。 10、你想回到董事会吗? 阿尔特曼:这个问题听起来像是公关问题,我目前关注的并不是这类话题。我面临着一项艰巨、重要且紧迫的任务,就像攀登高山一样。我希望能够全力以赴地完成我的工作。至于是否喜欢成为董事会成员,并不是我所思考的问题。 11、你在全员信里提到的“改善治理结构”意味着什么?这是否意味着非营利性控股公司的结构会有所改变? 阿尔特曼:这是个好问题,董事会成员们现在也在思考。坦率地回答是,他们需要时间来真正考虑这个问题。显然,我们的治理结构中存在问题,而解决这个问题的最好方法就是给予足够的时间。我完全理解为什么人们现在急于要求答案,但我现实情况是目前并没有合理的解释。 12、你为什么觉得这么不合理?我觉得大家对发生的事情有太多猜测了。这看起来更像是意见不合,而不是什么渎职之类的事情。 阿尔特曼:哦,因为设计出一个真正好的治理结构,尤其是对于这样有影响力的技术,不是一周就能解决的问题。这需要花费大量的时间让人们思考、讨论,听取外部观点,进行压力测试。这真的需要投入时间。 13、刚刚发生的事件会让 OpenAI 的安全工作方法有所改变吗? 米拉:不会。这跟安全没关系。 14、最近有报道说你们取得了Q*模型的突破,这是引发一系列事件的导火索吗? 阿尔特曼:对于之前的不幸泄密事件,我没什么特别想说的。但是我们一直在强调,无论是今天、两周前、一年前还是更早的时候,我们预计这项技术会继续快速发展,我们也希望能继续努力,弄清楚如何使其安全和有益。这就是我们每天努力工作的动力。我想大家在这个问题上是有共识的。 在不涉及具体事物、项目或其他事项的前提下,我们坚信进步源于研究。尽管研究过程中可能会遇到挫折,但我们预期仍会取得显著进展。我们渴望与全球各界展开交流,共同探寻如何使它变得更好。 15、我相信你仍然在思考这些事情。我对此感到很好奇,你从整个传奇故事中学到了什么? 阿尔特曼:我想我还没有找到一个简单的答案。显然,我学到了很多,但我还在努力理解这一切。我的意思是,有很多东西可以说,但我认为我已经做好准备了……目前,我能给出的只是一个笼统的答案。 二、阿尔特曼致全员信全文:点将32功臣 阿尔特曼致公司全员信全文内容如下: 我将重返OpenAI,担任首席执行官。米拉(Mira)将重新担任首席技术官。新的初始董事会将由布雷特·泰洛(Bret Taylor,主席)、拉里·萨默斯(Larry Summers)和亚当·德安杰洛(Adam D’Angelo)组成。 我对未来从未如此兴奋过。非常感谢每个人在不明朗和前所未有的情况下所做的辛勤工作,我相信是韧性和精神使我们在行业中脱颖而出。我们一定会成功达成使命的。 在开始接下来的内容之前,我想先表达一些谢意。 我很爱并尊重伊利亚(Ilya),他是这个领域的指路明灯,也是人类的瑰宝。我对他的恶意为零。虽然伊利亚将不再担任董事会成员,但我们希望继续我们的工作关系,并正在讨论如何让他继续在OpenAI工作。 我感谢亚当、泰莎(Tasha)和海伦(Helen)与我们合作,找到了最能服务于使命的解决方案。我很高兴继续与亚当合作,并衷心感谢海伦和泰莎在此过程中投入了大量的精力。 还要感谢埃米特(Emmett),他在帮助我们实现这一成果方面发挥了关键和建设性的作用。埃米特对AI安全和平衡利益相关者利益的奉献是显而易见的。 米拉在整个过程中表现出色,自始至终无私地为使命、团队和公司服务。她是一位令人难以置信的领导者,如果没有她,OpenAI就不会成为OpenAI。谢谢。 格雷格(Greg)和我是经营这家公司的合伙人。我们从未完全弄清楚如何在组织结构图上传达这一点,但我们会的。与此同时,我只是想澄清一下。感谢你们从一开始以来所做的一切,以及从这件事开始到上周你们处理事情的方式。 领导团队——米拉、布拉德、杰森(Jason)、切(Che)、汉娜(Hannah)、黛安(Diane)、安娜(Anna)、鲍勃(Bob)、斯里尼瓦斯(Srinivas)、马特(Matt)、莉莲(Lilian)、迈尔斯(Miles)、简(Jan)、沃伊切赫(Wojciech)、约翰(John)、乔纳森(Jonathan)、帕特(Pat)等——显然已准备好在一无所有的情况下运营公司。他们说,评估CEO的一个标准是你如何挑选和培训你的潜在继任者;在这个指标上,我做得比我想象得要好得多。我很清楚,公司掌握在伟大的人手中,我希望每个人都清楚这一点。谢谢你们。 雅各布(Jakub)、西蒙(Szymon)和亚历山大(Aleksander)都是杰出的人才,我很高兴他们重新加入,推动我们和我们的研究向前发展。谢谢。 对我们团队的所有人:我相信将会有关于这个时期的书籍被写出来,我希望他们说的第一句话就是整个团队是多么的令人惊叹。现在我们经历了这一切,我们没有失去任何一名员工。你们坚定地支持彼此、这家公司和我们的使命。对于安全构建AGI的团队来说,最重要的事情之一是能够处理压力和不确定的情况,并始终保持良好的判断力。保持卓越。谢谢大家。 萨蒂亚(Satya)、凯文(Kevin)、艾米(Amy)和布拉德在整个过程中一直是令人难以置信的合作伙伴,自始至终都有着正确的优先事项。他们一直支持我们,如果我们无法实现我们的主要目标,他们随时准备接纳我们所有人。我们显然做出了与微软合作的正确选择,我很高兴我们的新董事会将他们作为无投票权的观察员。谢谢。 对于我们的合作伙伴和用户,感谢您坚持使用我们。我们确实感受到了倾注的支持和爱,它帮助我们所有人度过了难关。我们没有失去任何一个客户,这一事实将促使我们更加努力地为您服务,我们都很高兴能够重返工作岗位。 威尔·赫德(Will Hurd)、布莱恩·切斯基(Brian Chesky)、布雷特·泰勒和拉里·萨默斯搁置了自己的生活,为支持这项任务做出了令人难以置信的努力。我不知道他们是如何做得这么好,但他们确实做到了。谢谢。 奥利(Ollie)还一直搁置自己的生活,除了提供他通常无条件的爱和支持外,还尽其所能提供帮助。谢谢你,我爱你。 所以,接下来我们面对的是什么? 有三个当务之急。 推进在全栈安全领域的研究计划和更多投资,这对我们的工作一直至关重要。我们的研究路线图很明确,这是一个非常需要聚焦的时刻。我和你们一样感到兴奋,我们将化危机为机遇!我会和米拉一起解决这个问题。 持续改进和部署我们的产品并服务客户。重要的是,人们要体验AI的好处和前景,并有机会塑造它。我们始终相信,优秀的产品是实现这一目标的最佳方式。我将与布拉德、杰森和安娜合作,确保我们对世界各地的用户、客户、合作伙伴和政府的坚定承诺是明确的。 布雷特、拉里和亚当将非常努力地完成一项极其重要的任务,即建立一个具有不同观点的董事会,改善我们的治理结构以及监督对最近事件的独立审查。我期待在这些关键步骤上与他们密切合作,以便每个人都能对OpenAI的稳定性充满信心。 我非常期待与你们一起完成构建有益的AGI的工作——世界上最好的团队,世界上最好的使命。 爱你们的, 萨姆 三、董事会主席致全员信全文:改善治理结构 泰勒致公司全员信全文内容如下: 我谨代表OpenAI董事会向整个OpenAI社区,特别是所有OpenAI员工表示感谢,他们在过去的一周里齐心协力,为公司找到了前进的道路。你们的努力帮助这个令人难以置信的组织继续履行其使命,确保通用AI造福全人类。 我们很高兴萨姆、米拉和格雷格重新齐心协力领导公司并推动公司向前发展。我们期待与他们和你们所有人合作。 作为董事会,我们致力于加强OpenAI的公司治理。我们计划这样做: 我们将建立一个由杰出人士组成的合格、多元化的董事会,他们的集体经验代表了OpenAI使命的广度——从技术到安全到政策。我们很高兴董事会将包括一名无投票权的微软观察员。 我们将进一步稳定OpenAI组织,以便我们能够继续履行我们的使命。这将包括召集董事会独立委员会来监督对近期事件的审查。 我们将改善OpenAI的治理结构,让所有利益相关者——用户、客户、员工、合作伙伴和社区成员——都能相信OpenAI将继续蓬勃发展。 OpenAI是一个比以往任何时候都更加重要的机构。ChatGPT让人工智能成为数亿人日常生活的一部分。它的普及使得人工智能的好处和风险,成为几乎所有有关政府、企业和社会未来的对话的核心。 我们了解这些讨论的重要性以及OpenAI在这些令人惊叹的新技术的开发和安全中的核心作用。在确保我们有效应对这些挑战方面,你们每个人都发挥着关键作用。我们致力于倾听你们的声音并向你们学习,我希望很快能与你们所有人交谈。 我们很高兴成为OpenAI的一部分,并很高兴与大家合作。 谢谢 布雷特·泰勒 OpenAI主席 结语:夺权大戏落幕,OpenAI的故事未完待续 随着阿尔特曼正式返岗OpenAI和新初始董事会的建立,OpenAI的这一部夺权大剧正式画上句号。OpenAI的员工力量对阿尔特曼的回归影响重大,他在全员信中提到的32人尤其重要,这些人也有望成为下一步为他保驾护航的干将。 与此同时,OpenAI的故事依然未完待续。被猜测策划了OpenAI夺权、几度改变态度的前首席科学家伊利亚·苏特斯科夫将何去何从?目前仍没有定论。同时,新董事会主席亚当也面临争议,这是否会再起波澜?阿尔特曼所说的“改善治理结构”又意味着什么?这些问题,我们都将持续关注。
加速800年研究成果!谷歌DeepMind用AI预测220万新晶体,论文登《自然》
作者 | 徐珊 编辑 | 云鹏 智东西11月30日报道,今天谷歌DeepMind宣布,其用于材料探索的AI工具GNoME发现了220万种新晶体预测,其中有38万个稳定的晶体结构,有望通过实验合成。这些材料预测相当于800年的知识价值,部分材料或许会引发技术变革,如下一代电池、超导体等。该项研究成果已发表在11月29日的《自然》。 GNoME项目旨在降低发现新材料的成本。目前谷歌DeepMind已和多家实验室合作,已有736种GNoME新材料被制造。其中,劳伦斯伯克利国家实验室通过人工智能预测完成了自主材料合成。该项研究过程以及成果同样登陆在11月29日《自然》。 一、发现220万种材料,创AI材料最大预测规模和最高准确度 过去,科学家们需要在实验室通过反复调整或实验不同的材料才能找到新的晶体结构,可能需要花费数月时间才能取得一定成果,且代价高昂。随着技术发展,人们通过引入AI技术发现了28000种新材料,但AI在准确预测实验可行性和预测规模上遇到一定瓶颈。 ▲GNoME的预测材料范围 GNoME此次发现220万种材料中,有52000种类似于石墨烯的新型层状化合物可能随着超导体的发展而彻底改变电子学。并且,此次研究还发现了528个潜在的锂离子导体,可用于提高可充电电池的性能。 谷歌DeepMind共发布了380000种稳定材料的预测结构,这些材料最有可能在实验室中成功制造并应用。相对稳定的材料,不会被分解成具有较低能量的结构。例如,与钻石中的碳相比,类石墨烯结构中的碳是稳定的。 二、利用GNN进行材料探索,GNoME将发现率提高至80% GNoME是一种先进的图神经网络(GNN)模型。该模型的输入数据主要采用图表的形式,形成类似原子之间的连接,这也让GNoME更容易发现新的晶体材料。 据介绍,GNoME将会预测新型稳定晶体的结构,然后通过DFT(密度泛函理论)进行测试,并将所得的高质量训练数据反馈到模型训练中。 ▲GNoME的预测材料过程 GNoME最初被喂了有关晶体结构及其稳定性的数据训练,部分数据从Materials Project公开获得。现阶段,新模型将材料稳定性预测的发现率从50%左右提高到80%,新材料的发现率从10%以下提高到80%以上,该效率的提高可能会对每次发现所需的计算量产生重大影响。 三、打造材料目录,为人工智能新材料提供新“配方” 谷歌现已向研究界发布了新发现晶体的数据库,希望帮助科学家们测试并制造出最好的材料。 基于这些晶体的新技术的快速开发将取决于它们的制造能力。伯克利实验室的合作者领导的一篇论文中,研究人员表明机器人实验室可以利用自动合成技术快速制造新材料。 基于材料项目中的已有材料和GNoME对稳定性的见解,机器人实验室创建了晶体结构的新配方,并成功合成了超过41种新材料,为材料合成开辟了新的可能性。 如今,谷歌和伯克利实验室、谷歌研究院以及世界各地团队的合作者的研究表明了使用人工智能指导材料发现、实验和合成的潜力。 结语:重塑材料发现过程,谷歌加速AI合成材料 目前AI对材料的训练主要基于预测AI结构,谷歌DeepMind的研究成功表明现阶段通过AI模型预测材料结构的规模和准确性已大幅提高。 但在现有的数据结构下,又会带来哪些对产业有实质影响的新材料?我们或许可以期待新材料带来的无限想象。
AWS发布图像生成模型!5项SageMaker新功能炸场,让构建生成式AI应用更轻松安全
作者 | ZeR0 编辑 | 漠影 智东西11月29日拉斯维加斯报道,北京时间11月30日,在年度“云计算春晚”AWS re:Invent大会举行的第三天,AWS数据与AI副总裁Swami Sivasubramanian发表主题演讲,公布AWS帮助客户构建生成式AI应用的一系列工具与技术。 除了在Amazon Bedrock平台发布更多第三方和自研基础模型、语言模型外,Sivasubramanian还分享了AWS帮助客户负责任且更加轻松地构建、训练和部署生成式AI模型的多项创新措施。 一、提供更多第三方大模型,自研多模态基础模型上新 Sivasubramanian说,构建生成式AI应用离不开4个要素:基础模型、利用数据的隐私环境、易用的工具、特制的机器学习基础设施。 他将Amazon Bedrock平台称作是“在基础模型和大语言模型上构建和扩展生成式AI应用的最简单方式”,提供包括第三方模型和自研模型在内的广泛模型选择。超过10000个客户正在使用Amazon Bedrock。 1、提供更多第三方大模型 在上述基础上,AWS宣布明星AI安全独角兽企业Anthropic的Claude 2.1、科技巨头Meta的Llama 2 70B等大语言模型均已在Amazon Bedrock上推出。 2、推出Amazon Titan多模态嵌入 向量是定制生成式AI应用的关键。下图是不使用与使用向量嵌入的搜索结果对比,向量嵌入有助于提高搜索结果准确性。 多种模型混合增加了搜索方式的复杂性,会影响客户体验。为此,AWS推出Amazon Titan多模态嵌入,帮助客户为最终用户提供更准确且与上下文相关的搜索和推荐体验。 “多模态”是指模型可以为图像和文本生成嵌入,并将其存储在客户的矢量数据库中,最终用户可以使用文本、图像或图文混合提交搜索查询。 该模型将多达128个标记的图像和短英文文本转换为嵌入,从而捕获数据之间的语义和关系;默认情况下会生成1024维的向量。 3、Amazon Titan文本嵌入上新 Amazon Titan文本嵌入可将文本翻译成数值表示,支持语义搜索、文本注释和聚类,支持超过25种语言。 Amazon Titan Text Lite和Amazon Titan Text Express两款大语言模型均已可用,支持总结、翻译、对话、代码生成等丰富的文本相关任务,能够帮助优化准确性、性能与成本。 其中Lite高度可定制,性价比高,最大上下文长度为4096个token,非常适合英语任务,可以对文章总结、写文案等任务进行微调。 Express使用范围更广泛,最大上下文长度为8192个token,适合开放式文本生成、对话聊天等任务,并支持检索增强生成(RAG)工作流。 4、推出Amazon Titan图像生成模型预览版 在图像生成方向,AWS推出Amazon Titan图像生成模型预览版。用户输入文字,就能实现扩展或更换背景、调整主体方向、改变图像尺寸等图像编辑要求。 该模型由高质量、多样化的数据训练而成,可以理解复杂的提示词,创建更准确的输出,例如具有包容性属性和有限失真的逼真图像。企业还可以用专有数据来定制模型。 Sivasubramanian强调说,Titan图像生成模型支持负责任的AI使用,其生成的所有图像都包含一个不可见的水印,通过提供一种谨慎的机制来识别AI生成的图像,帮助减少错误信息传播。 二、三大功能让基础模型定制更安全准确 “数据是生成式AI应用的差异所在。” Sivasubramanian分享道,Amazon Bedrock支持用私有数据安全地定制基础模型,该平台提供的定制Amazon Titan模型新功能包括微调、持续预训练、RAG。 借助微调,企业可以通过提供自己的特定标注训练数据集来提高模型准确性。Amazon Bedrock支持对Meta Llama 2、Cohere Command Light等第三方模型和AWS自研模型Amazon Titan进行微调。 持续预训练可以帮助模型在原始训练之外,通过积累更多的健壮知识和适应性,变得更加特定于领域。通过持续预训练,企业可以在具有客户管理密钥的安全托管环境中使用自己的未标注数据来训练模型。 持续预训练可用于Amazon Titan Text模型的公开预览版,包括Titan Text Express和Titan Text Lite。预训练完成后,用户可以收到唯一的模型ID,定制模型将由Amazon Bedrock再次存储。 Amazon Bedrock知识库已全面开放。通过知识库,企业可以安全地将Amazon Bedrock中的基础模型与自有数据连接起来,以用于检索增强生成,访问附加数据以生成更相关、更具体和更准确的响应,而无需不断重新训练基础模型。 该知识库可管理初始向量存储设置,处理嵌入和查询,并提供生产检索增强生成应用程序所需的源属性和短期内存。企业还可以定制检索增强生成工作流以满足特定的用例需求,或者将检索增强生成与其他生成式AI工具及应用程序集成。 Amazon Bedrock提供了丰富的向量数据库。 三、Agents for Amazon Bedrock全面可用,自动编排完成复杂任务 Agents for Amazon Bedrock通过使用基础模型的推理能力,将用户请求的任务分解为多个步骤,创建编排计划,然后调用公司API和使用检索增强生成访问知识库来执行该计划,帮助用户加速生成式AI应用开发。 借助Agents for Amazon Bedrock,用户轻点几下,就能让生成式AI应用完成复杂任务。 其对编排的改进控制功能变得更强,对思维推理链也具有更好的可见性。开发人员使用跟踪功能可以来跟踪执行计划时使用的推理,查看业务流程中的中间步骤,并据此对问题进行故障排除;还可以访问和修改agent自动创建的提示词,进一步增强终端用户体验。 Agents在专注于特定任务时表现更好,指令越清晰、可用的API越集中,基础模型就越容易推理并确定正确的步骤。 AWS生成式AI创新中心收到很好的反馈,即将支持定制Anthropic Claude模型的计划。 四、5项Amazon SageMaker新功能:让构建与部署生成式AI模型更轻松 从收集数据、创建聚类(clusters)、分布模型训练、checkpoint模型到修复硬件问题,训练基础模型的过程充满挑战。对此,Amazon SageMaker机器学习平台提供了覆盖推理、创新和MLOps的一系列创新功能。 Sivasubramanian宣布了全托管服务Amazon SageMaker的5项新功能,让客户能够更轻松地构建、训练和部署生成式AI模型。 1)SageMaker HyperPod:自动在数百或数千个加速器之间分配训练工作负载,帮助客户将模型训练时间缩短多达40%。 2)SageMaker Inference:支持客户将多个模型部署到同一个AWS实例,更好地利用底层加速器并降低部署成本和延迟。 3)SageMaker Clarify:帮助客户评估、比较、选择适合其特定用例的最佳模型,根据选择的参数来支持负责任地使用AI。 4)两项SageMaker Canvas增强功能:无需编写任何代码即可构建自定义模型,让客户能够更轻松、更快地将生成式AI集成到工作流程中。 五、提供数据基础全套服务,向量搜索为生成式AI准确性护航 Sivasubramanian说,强大的数据基础是生成式AI的关键。AWS提供了数据基础的全套服务。 向量搜索是机器学习领域的一种新兴技术,通过使用距离或相似性度量比较向量表示,来找到与给定数据相似的数据点。这种方法能实现精确的信息检索,对构建生成式AI应用非常有用。 Amazon Aurora PostgreSQL、Amazon RDS for PostgreSQL、Amazon OpenSearch Service、Amazon OpenSearch Serverless等服务均提供向量搜索能力。 AWS最新正式发布的Amazon OpenSearch Serverless向量引擎是一种简单、可扩展且高性能的相似度搜索功能。 向量引擎支持通过在同一查询中组合向量搜索和全文搜索,来优化和调整混合搜索的结果,让用户无需管理底层向量数据库基础设施,即可轻松构建机器学习增强搜索体验和生成式AI应用程序,几毫秒可存储、更新和搜索数十亿个有数千个维度的向量嵌入。 AWS还宣布Amazon DocumentDB和DynamoDB内置的向量搜索功能全面可用,支持用户在文档数据库中以毫秒级响应时间存储、索引和搜索数百万个向量,并推出Amazon MemoryDB for Redis向量搜索功能的预览版。 分析数据库引擎Amazon Neptune Analytics也正式发布,更易发现图形与向量之间的关系,还可以使用它增强基础模型的提示,让图形数据分析更高效简便。初步基准测试标明,Neptune Analytics从Amazon S3加载数据的速度比现有的AWS解决方案快80倍。 AWS还推出了Amazon OpenSearch Service zero-ETL与Amazon S3集成的预览版,使客户能够直接查询其运营数据,降低复制数据或管理多个分析工具的操作复杂性,避免过多重复管理,减少了成本和操作时间。 此外,AWS发布了由生成式AI支持的Amazon DataZone自动化功能预览版。 该功能由Amazon Bedrock的大语言模型提供支持,可以使传统劳动密集型数据编目过程自动化,生成数据资产及其模式的详细描述,并建议分析用例,从而大大减少为组织数据提供上下文所需的时间,让数据编目和发现进一步简化。 为了帮助客户和合作伙伴在不共享原始数据的情况下应用机器学习模型,AWS推出AWS Clean Rooms ML预览版。该功能可帮助企业及其合作伙伴在无需相互复制或共享原始数据的情况下共同训练模型,多则可节约数月时间。 六、用AI优化数据管理,给开发人员持续减负增效 AI为优化数据基础提供了更多燃料,使得数据管理更容易、更好用、更直观、更易访问。 AWS昨日发布的生成式AI助手Amazon Q能够支持开发者全生命周期,根据企业业务进行定制,通过连接到企业的信息库、代码、数据和企业系统,向开发人员和IT专业人员提供对话问答、优化Amazon EC2实例选择、直接在控制台中排除和解决错误、网络故障排除协助等功能,使其无论是构建应用程序、研究最佳实践、编程还是解决问题,都能快速访问答案并获得想法上的帮助。 启用AI驱动扩展和优化的Amazon Redshift Serverless,会根据查询复杂性、频率、数据集大小等维度主动和自动扩展容量,提供平衡价格与性能的优化。 Amazon Redshift查询编辑器中的Amazon Q生成式SQL预览版可根据自然语言提示生成SQL建议,让编写有效的SQL查询更高效。数据库管理员还可以授权模型使用AWS帐户中所有用户的查询历史记录来生成更相关的SQL语句。 AWS Glue数据质量功能预览版即将发布,用机器学习来检测统计异常情况,帮助提高数据质量,无需写代码即可深入了解数据质量问题、数据质量评分、可用于持续监视异常的规则建议。 业务用户经常需要分享其数据发现。对此,AWS推出QuickSight的Amazon Q预览版。它可以帮助业务用户创建格式优美的叙述来描述数据,在QuickSight中轻松与他人共享文档、幻灯片格式的视觉效果、图像与文本,还可以帮助理解仪表板上的关键亮点、提供数据问答服务。 结语:生成式AI仍处于早期阶段,负责任的AI日益受关注 在Sivasubramanian看来,生成式AI仍处于早期阶段,依赖于干净的数据和人工输入才能取得成功。数据、生成式AI和人类三者相辅相成,共同为客户提供创新和更好的体验。 比如Amazon Bedrock创建应用程序,用户输入自然语言就能收集完成项目的详细步骤、材料、工具和建议的列表,Code Whisperer提供了AI驱动的编程建议,Amazon Q通过扮演AWS及商业专家角色来加速生产力。 由AWS委托、Morning Consult对美国商业领袖代表性样本进行的一项新调查显示,随着越来越多的公司和组织将生成式AI应用于其业务,负责任的AI变得越来越重要。77%的受访者表示他们熟悉负责任的AI,47%的受访者计划在2024年对负责任的AI进行比2023年更多的投资。 最后,针对在开发所有阶段都至关重要的模型评估,AWS推出Amazon Bedrock模型评估预览版,为开发人员提供用于构建生成式AI应用程序的评估工具,使其能够评估、比较和选择适用于自家用例的最佳基础模型。
英伟达黄仁勋的豪赌:行走在破产边缘,打造万亿 AI军火商
营收翻两倍至 181 亿美元,利润从去年同期的 6.8 亿美元直接飙升到 92 亿。 在 AI 浪潮下,英伟达最近一季度以超于期待的「炸裂」表现,从台积电手上夺走桂冠,成为「芯片之王」。 人工智能领域正在进行一场战争,而英伟达是唯一的军火商。 一位华尔街分析师曾如此评论。 英伟达今天享受的「AI 红利」,来自于黄仁勋十多年前的「豪赌」。通过《纽约客》最近一篇深度报道,我们得以看到这场决定性的「豪赌」背后的更多细节。 成功从来没发打包票,破产永远都在边缘。 点燃人工智能的「大爆炸」时刻 那是第一个 8K 分辨率的游戏机,占了整面墙,太美了。 2000 年,斯坦福学生 Ian Buck 用 32 个英伟达 GeForce 显卡连在一起,外加 8 个投影仪来玩《雷神之锤》,自己造了个高清游戏机。 最开始,英伟达 GeForce 的成功来自于游戏《雷神之锤》的助力。在游戏的「死亡竞赛」模式中,GPU 的并行计算让玩家能有速度优势,因此 GeForce 每每出新品都会有玩家跟上。 Buck 也好奇,除了让自己投手榴弹速度快点以外 GeForce 还能做什么。 后来,Buck 成功黑进了显卡的原始编程工具「着色器(shader)」,利用其并行计算,将 GeForce 变成了一台低成本的超级计算机。 没过多久,Buck 就成了英伟达的员工。 ▲ Ian Buck 现在已经是英伟达的副总裁 黄仁勋想让 Buck 做一套软件,让每一个 GeForce 都能变成超级计算机。同时,也让硬件团队在芯片结构上进行对应改造。 2006 年,Buck 为英伟达做的 CUDA 正式推出,可支持研究人员和编程人员通过编程语言来更个性化和高效地利用 GPU 的计算能力。 然而,消费者对于黄仁勋想给大家普及的超级计算机没啥兴趣。在硅谷流行的科技播客「Acquired」如此评论道: 他们在这种新的芯片架构上花了巨款。 他们花了几十亿美元,目标在于服务学术和科学计算的一个小众领域,那在当时还是一个不大的市场 —— 市场规模肯定比他们投入那几十亿小。 当时的英伟达也在广撒网,努力寻找目标客户。试了股票交易员、石油勘探公司、分子生物学家等等,但并没有考虑过人工智能领域。 甚至连「AI 教父」主动「上门」都没有感觉。 这也难怪。 ▲「AI 教父」Geoffrey Hinton 今天,我们会称 Geoffrey Hinton 为「AI 教父」。 然而,在 2009 年,Hinton 是在被资本嫌弃的 AI 领域里,研究在该领域里还要算上是小众的「神经网络」。 Hinton 那年给英伟达写了一封这样的邮件: 我刚给上千个机器学习研究人员说,他们都该去买英伟达的显卡。你可以免费寄一个给我吗? 结果?当然是被拒绝了。 在那之前,Hinton 曾尝试用英伟达 CUDA 平台去训练神经网络来识别人类语言,发现成果的质量比想象中好很多,于是决定在行业会议上展示。 虽然英伟达不肯给 Hinton 送显卡,但 Hinton 依旧鼓励学生用它。 其中最关键的,是他门下两位出色的程序员 Alex Krizhevsky 和 Ilya Sutskever。 ▲(从左至右)Ilya Sutskever、Alex Krizhevsky 和 Geoffrey Hinton 眼尖的读者应该有发现,后者就是 OpenAI 的首席科学家,那个主导了 ChatGPT 背后技术的人。 2012 年,Sutskever 和 Krizhevsky 买了两个英伟达 GeForce 显卡,在一周时间里就给神经网络灌了数百万张图片数据,训练出了「AlexNet」。事后 Sutskever 回想: GPU 出现了,感觉就像奇迹一般。 他的感叹不无理由。 也是同一年,Google 曾购置了一万六千多个 CPU 来训练他们的神经网络,以做到可以识别出猫咪视频。 而 AlexNet 却能够正确地识别电动车、猎豹、货运船等内容的图像,只用了两个 GPU。 2012 年,在当年仍相当权威的大规模视觉识别挑战赛(ImageNet Large Scale Visual Recognition Challenge)中,AlexNet 以 top-5 误差 15.3% 的成绩夺冠,表现远优于第二名和之前的参赛者,出众到还一度被怀疑作弊。Hinton 评论说: 那是一种大爆炸时刻。一种范式的转变。 虽不是刻意为之,但英伟达就这样点燃了人工智能的「大爆炸」时刻。 成为一家 AI 公司 (黄仁勋)他在周五晚上发出一份邮件,表示公司一切将围绕深度学习展开,我们不再是一家图像公司。 在接下来的周一清晨,我们就成为了一家 AI 公司。 真的,就是那么快。 英伟达副总裁 Greg Estes 告诉《纽约客》。 在 AlexNet 登场之后,没过几年,近乎所有参加大规模视觉识别挑战赛的人都选用了神经网络这种形式。 到了 21 世纪 10 年代中期,用 GPU 训练的神经网络在图片识别的准确度已经达到 96%,这个精确水平甚至已经超过了人类。 黄仁勋的超级计算机愿景成真,他开始找下一个目标: 我们能够解决计算机视觉问题,一个完全无组织结构的问题,这个事实指向了一个问题:「你还能教它什么其他的东西?」 黄仁勋内心的答案似乎是 —— 一切。 他认为神经网络将改变社会,他也可以用 CUDA 来垄断这背后所需硬件的市场。 他纵身一跃,开启了英伟达的 AI 征途。 这次,AI 行业的领军人物不再需要给英伟达写邮件申请免费显卡了。 2016 年 8 月,黄仁勋亲自将世界上首台 DGX-1 送到 OpenAI 的办公室。 当时还未和 OpenAI 决裂的马斯克亲自开箱了这个由 3000 人耗时 3 年打造的成果。 在官方新闻稿中,黄仁勋开玩笑地说: 如果这是唯一一个出货的产品,那这个项目造价就高达 20 亿美元了。 谁能想到,第二年 Google 就公布了一种新的神经网络训练架构 Transformer。 这次的新突破再被 Sutskever 抓住,引领 OpenAI 建造出来第一个 GPT 模型,一切都建立于英伟达的超级计算机上。 一年前的今天,OpenAI 正式向公众发布了 ChatGPT,改变了一切,其中也包括英伟达。 订单不止,供不应求。 在 2023 年,英伟达的股价累计飙升超过 200%,成为全球首家市值突破万亿美元的芯片制造商。 曾经不被看好的 CUDA 也聚合了 400 万名开发者,成为了英伟达在 AI 领域的另一「护城河」。 无论是航空航天、生物科学、机械以及能源探索等领域研究,大部分都是在 CUDA 之上进行。 英伟达最新的 AI 产品 DGX H100 则是一个重达 370 磅的金属盒子,定价高达 50 万美元。 和当时送到 OpenAI 办公室的 DGX-1 相比,新产品运行速度提升了五倍。 想要训练出 AlexNet,一分钟内就搞定。 总是「在破产边缘」的成功者 今年 9 月,黄仁勋受邀回到加州圣何塞的那家丹尼餐厅。 当年,他就是在这个餐厅的卡座里和合伙人起草文件,成立了英伟达。 他们想设计一款能让竞争对手「嫉妒死(green with envy)」的芯片。黄仁勋想到了「Nvidia」这个名字,融入了拉丁语中「嫉妒(invidia)」这个词。 如今的英伟达当然让竞争对手眼红,连连锁餐厅丹尼的 CEO 都特意为他们做了一块纪念牌,让英伟达的光也照在餐厅里。 然而,英伟达的成功不是一个特别典型的「成功者」故事。 英伟达初成立时,喜欢电子游戏的黄仁勋认为游戏市场值得拥有更好的显卡,在 1995 年推出了首款产品 NV1。 然而,NV1 并没有真正地被主流市场接受过,其中一大原因在于同年微软推出了 D3D 的 API,但 NV1 却不支持 D3D。接下来一代产品 NV2 也失败了。 「赌」输了一次的黄仁勋不服气,他在 1996 年辞退了一半员工,收紧资金,把一切都押在了未经测试的新产品上: 几率 50/50,但无论如何我们都已经在破产边缘了。 当 RIVA 128 正式开售,英伟达剩下的钱只够顶一个月的开支了。所幸 RIVA 128 获得了成功,4 个月就售出了上百万件。 从那时起,黄仁勋就开始鼓励员工带着这种「绝望」去工作。 对于黄仁勋而言,困境和失败并不陌生: 我发现,我在困境之中想东西最清晰。 我的心率甚至会下降。 他甚至坚持,「失败一定要被分享」。 之前,英伟达曾寄出过一款有问题的显卡,那显卡上的风扇超级响。 黄仁勋没有炒掉负责这个产品的经理,而是开了一场大会,聚集了几百号人,让这个经理去讲述每一个最终导向这场闹剧的决策。 把「失败」展现出来,也成为了英伟达内部的「习俗」。 你也可以由此很快看得出,谁能在这里留下,谁不可以。 如果有人开始立起防御,那我就知道他们留不久了。 英伟达软件负责人 Dwight Diercks 说道。 黄仁勋还喜欢鼓励员工去追求「0 亿美元市场(zero-billion-dollar market)」—— 那些不仅还没有竞争对手,甚至还没有明确顾客的实验性领域。 毕竟,正如黄仁勋所言: 我一直觉得我们距离破产就只有 30 天。这一点从来没变。 没什么理由不拼一把。
被疑出具“阴阳检测报告”转转回应愿立正挨打
“二手3C产品具有“非标品”属性,这导致交易市场信任机制原本脆弱,而层出不穷的投诉事件,也显现了行业生态所存在的问题。” 针对网友 “猴大腕”称“转转二手手机出具阴阳检测报告”一事,11月29日转转官方抖音号回应称,经过调查,在回收检测中,确实存在“屏幕轻微划痕”和“摄像头拍照有斑”的情况,并导致了回收价格的降低。 转转官方决定从即日起,在全国所有的门店开通二手商品“7天无理由退货”服务。 回应“阴阳检测报告” 11月28日,网友“猴大腕”发视频举报转转平台存在“阴阳”检测报告问题。 据视频记录,该网友先在一家转转店消费3112元购买一部手机,紧接着将同一部手机在另一家转转店转卖,然而却只能卖出1990元,相差1122元。之后,该网友又在一家转转店购买三部手机,四部手机总计花费13610元,但这名网友将这四部手机再通过转转卖出时,只能卖出9567元。 在整个购机卖机过程中,这名网友称转转销售手机时出具的质检报告显示手机没有问题;但同一部手机再通过转转回收时,却能查出“各种瑕疵”。 11月29日,转转官方对此回应称,经查,“猴大腕”11月16日-22日在转转北京的4家门店购买了4台手机,并在购买的同一天到另外3家门店回收这4台手机。经调查,在回收检测中,确实存在“屏幕轻微划痕”和“摄像头拍照有斑”的情况,并导致回收价格降低。在“摄像头拍照有斑”上,转转存在操作失误。而“屏幕轻微划痕”的判定是由于不同店员对成色判定有主观差异。转转还称,伤害了用户体验就应该立正挨打。 转转称,虽然二手商品和新品不同,每一台机器的机况都有差异,但这些都不是借口。转转将进一步加强质检标准的培训,不断提升相关工作人员对于二手非标准品检测判定的准确性、统一性以及门店的技术操作水平。 转转表示,从即日起,转转全国所有的门店开通二手商品“7天无理由退货”服务。如果消费者对7日内购买的二手商品不满意,可以直接走退货流程,转转将以原购买价退货,不再重新检验,由此产生的折旧成本由转转承担。 转转还强调,其回收业务允许用户随时中止交易,且不会产生任何额外费用。欢迎消费者举报不符合规定或服务态度不好的情况。 质检标准难定 二手电商交易的发展,经历了C2C、B2C、C2B2C等模式。对于闲置交易平台而言,解决信任问题可以更好地吸纳流量和提升效率。由此,鉴定、检测等服务应运而生。 公开资料显示,转转的质检服务起于2016年。当时,转转推出了基于C2B2C模式的验机质检和相应质保服务,此后平台不断完善包括验机、售后等标准化履约服务体系的建设。截至当前,转转二手商品交易服务覆盖包括手机数码、图书、服装鞋帽以及家电家具等多个品类,转转平台为多品类商品提供质检、质保和售后等履约服务。 在3C电子产品类目,也有不少平台打出了“专业质检”的标签,但二手电子产品存在模糊地带,大家对新旧理解程度不同,买家和卖家心里对产品定价不同,且行业内尚无统一的质量鉴定标准,由此产生的消费投诉以及争议并不在少数。 在媒体报道中,所谓的“阴阳检测报告”并非孤例。2021年,南都报道称,有市民称自己5月在转转二手平台上购买了1部99新的苹果8plus手机,购买时的质检报告显示该手机为大陆国行机。但同年8月,彭先生又把这台手机在转转二手平台寄售,手机的质检结果却变成了官换机。 当时转转平台称正与消费者进行协商,将给予消费者800元的赔偿。 据黑猫投诉方面的数据,在黑猫投诉平台上,转转近30日内投诉已累计近1500条。此前已有消费者向黑猫反馈同一商品在转转上收货与卖货检测结果不一致,认为商家存在阴阳报告的问题。此外,也有不少买家质疑转转官方检测报告作假,自己购买的产品与检测报告存在多项不符,存在虚假宣传、恶意隐瞒的情况。还有一些在转转寄卖产品的用户反馈,转转方面在没有与自己沟通的情况下私自拆机,导致手机价值降低,从而恶意压价。 为何为搭建信任关系而生的鉴定服务却纠纷频出?据南都报道,一位二手电子产品交易平台的业内人士曾透露,在二手电子产品交易领域,3C类商品在质检时的痛难点在于,目前对二手电子产品多采用机器+人工质检的模式,在机器质检环节,人工观察和专业设备检测之间的结果会有差别。此外,如果是单纯的人工鉴定,准确率也难以确定,受到环境、商品形态,甚至质检师身体状态等不可控因素的影响。 事实上,转转所存在的问题也是其他二手平台在3C市场交易时所面临的通病。二手3C产品具有“非标品”属性,这导致交易市场信任机制原本脆弱,而层出不穷的投诉事件,也显现了行业生态所存在的问题。据媒体梳理,其他二手平台也存在“压价回收、质检存疑”等方面的问题。 在业内人士看来,二手3C平台的质检质量,第一看平台重视程度,第二看对这个环节标准化和成本控制能力。如果平台足够重视,不断更新迭代能力,自然能够维持稳定的质检质量。 目前来看,我国二手3C交易市场存在渠道分散、产品非标化、标准缺失等特点,考验的是二手电商平台从货源供给、到流量获取、再到履约服务等一系列能力。 互联网分析师蒙遗善建议,由于电子产品更新换代频率快,交易需求高,且内部元件多,在流转过程中容易出现问题,建议相关行业制定标准,对产品检测、鉴定、维修、服务等方面进行规范,并出台相关的行业操作准则,这样能公开透明地保证消费者权益。 盈利问题待解决 二手电商市场因其可持续发展、绿色可循环的优势,受到大众广泛推崇。国家在政策层面也予以了大力支持:2021年7月颁发的《“十四五”循环经济发展规划》中明确提到,规范发展二手商品市场,鼓励“互联网+二手”模式发展,明确行业标准、规范交易行为等。 2021年上半年,二手电商赛道算得上是资本市场的宠儿。公开数据显示,上半年国内二手电商领域有8家平台共获得9起融资,融资总额超57亿元人民币。其中转转集团包揽了3起,包括自身获得的2笔融资和旗下平台采货侠完成的1起融资。 天眼查显示,2017年-2021年,转转完成5轮融资,投资方包含腾讯、小米、顺为、大湾区共同家园发展基金、青樾基金,而重要的合作方腾讯,更是转转最初两轮的投资人。 作为二手电商参与者之一,转转成立以来经历了起起落落。2015年底,转转由58同城旗下的二手频道,转变为独立APP正式上线;2017年,北京转转精神科技有限责任公司成立,法定代表人为58同城创始人姚劲波;2018年7月,转转成为微信服务九宫格的一员;2020年5月6日,转转又与找靓机合并,合并后估值高达18亿美元。 刚从58同城独立出来时,转转曾高调对标阿里系的闲鱼,主打全品类的C2C模式。不过,从2020年开始,转转开始将重心转向二手3C赛道。 从媒体披露的数据上来看,二手电商行业交易和渗透率在近年开始放缓。不过IDC报告指出,到2024年,全球二手智能手机出货量将超过3.5亿部,且随着5G商用在中国的推进,也将让更多二手手机流通,给二手3C交易带来更多的流量。 不过,即便这样,与转转一样,许多二手电商平台前景依旧难辨。目前,转转并没有公布过具体的营收、利润数据。不过,从行业从业者的经营状况来看,循环经济的新故事并不好讲。 美东时间11月22日,爱回收母公司万物新生发布了最新的三季度财报,财报显示,三季度公司实现营收32.6亿元,同比增长28.4%non-GAAP经营利润7381万元。整个前三季度,公司营业收入90.92亿元同比增长32%,营业毛利润19.03亿,净亏损收窄至1.37亿。 万物新生于2021年6月18日赴美上市,上市首日收盘价17.21美元。截至11月29日收盘,万物新生美股1.74美元,股价处于低位。 另外第三方统计机构易观千帆数据显示,闲鱼的月活跃用户数量在2021年6月达到顶峰,成功突破1.4亿,但随后出现了逐渐下滑的趋势。到2023年1月,闲鱼月活剩9739万。 号称美国版闲鱼的Poshmark于2019年首次开始其全球扩张战略,当时它向加拿大用户开放了自己的网站,然后在2021年的第二波浪潮中扩展到印度和澳大利亚,后来在2023年初扩展到英国。10月,该公司在其网站上宣布,将于2023年11月2日完全关闭澳大利亚、印度和英国的Poshmark市场。 虽然带有环保低碳、循环经济标签的二手生意一直是资本所关注的赛道,且包括转转、爱回收、闲鱼等平台都在探索各种发展模式。例如线上的爱回收可回收黄金,转转投资红布林以及闲鱼开始对部分商家实行收费政策等。但不可否认,二手平台在赚钱能力上还没有给出非常有说服力的答案,这也意味着,“转转”们在保持持续增长,攻破盈利难关的路上还需继续探索下去。 综合自南都、亿欧网、电商报等
变身小平板?iPhone 16系列再曝猛料:6.9英寸大屏
史上最大iPhone! 11月30日消息,据外媒MacRumors报道,苹果公司或计划让iPhone 16 Pro和iPhone 16 Pro Max(Ultra)拥有更大尺寸的屏幕。具体来说,iPhone 16/Pro的屏幕尺寸将从目前的6.1英寸增加至6.3英寸,而iPhone 16 Pro/Max的屏幕尺寸将从目前的6.7英寸增加至6.9英寸。 这也意味着iPhone 16系列将成为苹果手机史上最大屏幕的iPhone产品,并且因为屏幕尺寸的增大,iPhone 16系列的长宽和比例都发生了一定程度的变化,根据爆料,iPhone 16系列的长度大约增加了3mm,宽度增加了不到1mm,尺寸的增大也令重量增加约4-7克。 图源:Apple 大家可能对以上数据没有太多概念,认为只不过是增加几毫米、几克的小问题。但6.9英寸如果是摆在手机上可不是一个小数字,要知道最小的iPad屏幕尺寸也只是8.3英寸,并且伴随着屏幕尺寸的增大,对于许多用户来说操控体验感会进一步下滑,加上手机壳的厚度,过去能轻松单手操纵的快感恐怕将变成只能双手操作的负担。 但回顾苹果过去的iPhone发展史,屏幕变大是永恒不变的话题,不是苹果就喜欢大的,而是销量战胜一切,屏幕越大等于销量越好,苹果自然不会放过。自从iPhone 6系列进入大屏时代开始,凡是大屏设计的iPhone大都能收获不错的销量,而手机屏幕变大能卖得好确实也有它的道理,首先用户能更获得更好的观看体验,其次机身空间的增大也方便厂商塞入更多手机硬件,还有最重要的是大屏手机能在一定程度上替代平板电脑,即便携又不会在体验上相差太多,成功在两者间找到了平衡点,这也是大屏手机最吸引用户的点。 图源:Apple 但屏幕是不是越大越好呢?小雷认为倒也不是,凡事都讲究一个度,盲目追求屏幕尺寸反而容易弄巧成拙,一不小心手机就成了平板电脑的替身。相比起笔记本电脑、平板电脑等电子产品,手机的最大特点就是便携,其余一切增量都只是锦上添花,因此手机厂商找准定位才是关键,在便携与大尺寸中间找到最佳平衡点才是更为关键的一步。 当苹果把下一代重心倾斜到屏幕尺寸上,是否会掀起新一轮的大屏热潮呢?我们不得而知,下面就看其他厂商怎么应对了。
魅族21系列手机发布:搭载Flyme 10.5系统,售价3399元起
凤凰网科技讯 11月30日,星纪魅族举行2023魅族秋季无界生态发布会,正式发布魅族21智能手机,8GB+256GB版本售价3399元、12GB+256GB售价3699元、12GB+ 512GB售价3999元。魅族21采用三星6.55英寸极窄四等边直屏,拥有1.74mm超窄四等极边,搭载了最新的Flyme 10.5系统。 在后盖设计上,魅族21环闪全面升级,Aicy灵动环拥有多场景可交互环形灯系统,无论是通知、来电、充电,还是音量调节、游戏等场景,Aicy灵动环能通过有温度的多彩变换。 配色方面,魅族21共有四款配色:无界黑、魅族白、灵动紫和锐意青。性能方面,魅族21搭载第三代骁龙8算力中心,全新一代骁龙旗舰处理器兼顾了高性能与低功耗。搭配12GB RAM+512GB ROM闪存组合。 并且,魅族21还搭载了超大面积的散热系统,拥有37345mm²散热总面积和4045mm² VC液冷散热板,散热更快。 除了性能硬件外,魅族21支持P3全链路色彩、采用全新智能ISO Pro技术与多焦段无损变焦技术,此外,32MP超清前摄搭配全新AI人像焕颜算法。 续航方面,魅族21拥有80W Super mCharge超级快充与65W PD快充的组合,配合 4800 mAh大电池。依托Flyme AI大模型的能力,魅族21的图库升级了AI搜图、图片扩展、魔法消除、AI写真等功能。 在与智能汽车互联方面,魅族21还升级了与 Flyme Auto智能座舱操作系统之间的连接稳定性。手机和车辆连接后手机应用、应用通知等内容无缝流转至车载大屏,离车后自动抹除,时刻守护隐私数据。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。