EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
321,上链接!东方甄选画风变了?俞敏洪曾表示看不起“买买买”的噪音
近日,东方甄选618直播带货的风格引起了广泛争议,“董宇辉走后 东方甄选直播间画风变了”的话题6月1日冲上了热搜。 据@九派新闻,视频显示,在东方甄选美丽生活直播间中,主播卖力吆喝自己的产品,“您都来了,买一单再走吧”,而结束语成了“321,上链接!”有网友表示,这才是东方甄选的真面目,如今终于不再装了。还有网友称,“全网最有文化的直播间咋变成这样了”“真是刷新我对东方甄选的认知了,好希望恢复到原来有文化的直播间”。 东方甄选美丽生活直播间画面 值得注意的是,据证券时报,俞敏洪去年3月曾坦言,自己看不起网络直播中那些“买买买”的嚎叫噪音,他心中的直播应该是心平气和地对产品进行讲解并且传播知识,第一场东方甄选的直播是他亲自做的,当时新东方完全不知道怎么选品,选的都是中国最贵的农产品,但他依然拿着地图和历史书,把每个产品背后的故事讲给东方甄选的购买者,后来大家评价说,不是来买东西,而是来听课的。 “要的就是这个效果。尽管东西没卖出去多少,但我还是坚持下去了。”俞敏洪表示。 据财联社,2022年6月10日,有不少网友慕名来到“东方甄选”直播间,就是为了围观新东方老师们的“双语带货”。主播用英语和观众互动,网友们纷纷留言表示“虽然听不懂,但很想买”,支持这种新颖有趣的营销模式。 在 “东方甄选”直播间内,主播在用中文介绍产品功能和特点的同时,还会立刻围绕产品的名称、特点展开英文单词教学,甚至会举着小黑板对单词的发音、词根进行介绍。 看过直播的网友纷纷感叹“直播带货实在太卷了”“这是最有文化的直播间”,也有网友调侃“一时间竟然不知道是该下单还是该记笔记”“逃过了李佳琦却没逃过俞敏洪”。彼时的董宇辉,更是凭借幽默的段子和专业的“双语”教学带货“出圈”了。 去年底的“小作文风波”后,2023年12月26日,董宇辉新账号“与辉同行”获平台认证,认证信息为“与辉同行(北京)科技有限公司”。公开信息显示,与辉同行(北京)科技有限公司成立于2023年12月22日,注册资本1000万,法定代表人是董宇辉,由北京新东方迅程网络科技有限公司100%持股,后者法定代表人为孙东旭,由新东方教育科技集团有限公司100%控股。 俞敏洪则在直播中透露,该账号产生的收入计入东方甄选,但如果董宇辉离开东方甄选,账号归属权将归董宇辉。 天眼查显示,近期与辉同行(北京)科技有限公司申请注册“与辉同行破万卷”“与辉同行阅山河”文字及图形商标,以及“与辉同行看山河”“与辉同行悦山河”商标,申请数量达上百枚,国际分类包括广告销售、教育娱乐、通讯服务、科学仪器、服装鞋帽等,当前商标状态均为等待实质审查。 据悉,“与辉同行破万卷”“与辉同行阅山河”均为与辉同行直播间栏目。 据深圳商报,5月28日,董宇辉带领“与辉同行”团队在深圳南山举行“科技想象 遇见未来”专场直播,为南山科技以及相关市、区品牌带货。据深圳市商务局29日提供的数据,此次直播活动开播20分钟收到近万份订单,整场累计完成60万单销量,销售额超1.2亿元。 截图自“与辉同行”直播间 本次直播采用室内定点带货和室外直播演出两种形式,借助董宇辉“头部主播”的影响力和号召力,向全国网友推介深圳南山文旅以及“南山智造”热门科技产品。据统计,此次专场直播累计观看人数近2000万,点赞数达2.3亿次;整场稳居抖音小时榜、带货总榜第一。
意外!黄仁勋剧透下一代GPU芯片,新演讲又把摩尔定律按在地上摩擦
刚刚,中国台湾大学体育场,欢呼阵阵如同演唱会,但这次“摇滚巨星”,其实是英伟达创始人黄仁勋,再次回到学校,带来Computex重磅演讲,以及英伟达的新一代GPU。 是的,英伟达新架构Blackwell宣布不过3个月,老黄就把后三代路线图全公开了: 2025年Blackwell Ultra,2026年新架构Rubin,2027年Rubin Ultra。 好好好,像做iPhone一样造芯片。 到这一代Blackwell为止,英伟达已经把AI模型有效扩展到万亿参数。(还给token定了个译名:词元)。 1.8万亿参数GPT4的训练能耗,8年降低至原来的1/350。 推理能耗,8年降低至原来的1/45000。 看着这一波亮相和剧透,网友真相了:英伟达没有竞争对手,而是选择将摩尔定律放在地上摩擦…… 老黄是在书写自己的定律。 所以应该叫老黄定律?还是英伟达定律? ComputeX前夜,老黄一开场就展开了一波隐形卖货,他自称不太准确的“CEO数学”: 买得越多,省得越多…… The more you buy, the more you save. 经典语录依然引发现场欢呼大笑:虽然不太准确,但好像有些道理…… 除此之外,还有一些新产品亮相,包括能够模拟气冲的天气预测模型CorriDiff、数字人微服务、BlackWell系统、Spectrum-X、机器人平台Isaac…… 好了话不多说,这就来看看老黄这次到底搞了哪些事情 “AI Factory Is generating” 谈到当前新的产业革命,老黄表示:新的计算时代正在开始;而AI Factory正在诞生。 他在现场展示了BlackWell系统。 3月份GTC大会上还遮遮掩掩地说是GPT-MoE-1.8T模型,这下彻底摊牌了:GPT-4参数就是1.8T。 跟DGX Hopper相比。 现场还看到了它的真身,大概有两米那么高吧… 而真正的AI Factory大概会长这样,大概有32000GPU。 AI加速每个应用程序 AI对于企业的影响,老黄认为AI加速每一个应用程序。他首先谈到了NIM推理微服务,这是一个帮助开发者或者企业轻松构建AI应用,简化大模型部署程序。 不管是聊天机器人、还是生活/驾驶助手等,部署时间都能从几周缩短到几分钟。 运行Meta Llama 3-8B的NIM可以产生比不使用NIM多3倍的tokens。 企业和开发者可以使用NIM运行生成文本、图像、视频、语音和数字人类的应用程序。 而背后源于丰富的技术合作生态—— 近200家技术合作伙伴,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI和Synopsys等,正在将NIM集成到他们的平台中。 此次在这个NIM中还有上新,也就是ACE 生成式AI微服务,数字人AI技术套件。 除了原有自动语音识别、文本到语音的转换和翻译、Nemotron语言模型、 Audio2Face等套件,还增加了两个技术: 一个是可以基于音轨生成身体姿势Audio2Gesture; 一个Nemotron-3 4.5B,这是英伟达首款SLM(小爱语言模型),专为低延迟端侧设备而生。 ∂接下来,这一数字人微服务将部署在一亿台RTX AI PC上面。 当前英伟达在新的合作伙伴,比如华硕、MSI的加入下,已经拥有超过200种RTX AI PC型号。 还推出了RTX AI Toolkit,一个工具和SDK集合,帮助Windows开发者定制优化本地部署模型。 同Mac相比,部署了RTX的Windows的Stable Diffusion推理速度是Mac的7倍。 每一台带有RTX的PC,都是一台RTX AIPC。 用于机器人开发的技术平台Isaac 这次一同亮相的,还有用于机器人开发的技术平台,NVIDIA Isaac。 为啥搞这玩意儿呢,老黄给出的理由是这样的: 机器人时代已经到来。 有朝一日,所有会移动的东西,都将实现自主化。 这个Isaac平台具体长啥样呢? Isaac平台提供一系列英伟达加速库、AI基础模型和仿真技术,供机器人制造商集成到自己的技术栈中。 注意,平台是模块化的,允许公司单独或一起采用多种技术。 具体而言,其中包括: NVIDIA Isaac ROS:一系列模块化的ROS 2包,为ROS社区开发者带来NVIDIA加速和AI模型 NVIDIA Isaac Perceptor:一个参考工作流程,提供基于AI的自主移动机器人的多摄像头3D环视能力 NVIDIA Isaac Manipulator:一个简化AI启用机械臂开发的参考工作流程 NVIDIA Isaac Sim:一款参考应用程序,用于在基于NVIDIA Omniverse平台的物理环境中模拟、测试和验证机器人,并生成合成数据 NVIDIA Isaac Lab:Isaac Sim中的参考应用程序,针对AI机器人基础模型训练的强化、模仿和迁移学习进行了优化 据介绍,目前,包括比亚迪电子、西门子、泰瑞达机器人和Intrinsic(Alphabet的子公司)在内,全球超多名列前茅的机器人开发团队,都在采用Isaac平台。 这些团队用上Isaac,一边提高制造工厂、仓库和配送中心的效率,同时确保人类同事的安全;一边也能充当重复劳动和超精确任务的执行者。 现场放出了很多demo,很多工厂在英伟达Omniverse里建造了一个完全模拟现实的自助工厂,以及基于Isaac平台开发的AI机器人。 官网悄悄推出游戏Agent助手 除了现场老黄亲自发布的上述内容外,我们在英伟达官网还找到了一个彩蛋,一个巨久远的call back。 Project G-Assist。 时间回到2017年愚人节,英伟达官网开了个大玩笑: 宣称自家发布了一款支持10080款游戏的USB人工智能超算卡GeForce GTX G-Assist。 重点在于它很AI。 GeForce GTX G-Assist像是个AI游戏助手,可以帮助玩家自动完成游戏操作,甚至代打击败Boss。 今天,英伟达真的将这个愚人节玩笑变为现实—— 英伟达官网上线Project G-Assist,一套工具和模型的集合而成的AI Agent系统,供游戏和应用程序开发者使用。 通过前后剧情,Project G-Assist利用大模型对游戏输出响应,能够检查游戏性能和系统设置,建议用户优化以充分利用可用硬件,或者适当升级角色。 玩家这边呢,还可以通过Project G-Assist找到最好的武器,也可以查询到最牛的攻略,然后就可以或制作武器材料,或一路杀怪通关。 总而言之,Project G-Assist可以让人有个Agent外挂,但是不会让你完全挂机, 官网还贴心表示: G-Assist 项目不会像我们在2017年愚人节预言视频中那样完全替代您玩游戏,但它可以帮助您从您最喜欢的游戏中获得更多收益。 游戏体验再上大分! 据介绍,Project G-Assist支持各种模态的输入。 可以是来自玩家的文本提示,或声音指令;可以是屏幕上显示框架的上下文;可以是来自应用程序或系统本身的API。 △演示人员语音输入中 这些数据都通过连接了游戏知识数据库的大模型处理,然后使用RAG(检索增强生成)生成和用户相关的查询结果——没错,Project G-Assist允许玩家使用PC或云端RTX AI驱动的知识库。 Project G-Assist开发工具将出现在即将推出的RTX AI开发套件中,具体会用在哪些游戏上,还需要游戏开发商来决定并提供支持。 为了让大家更好地使用Project G-Assist,英伟达贴心地附上视频教学大礼包,需要可自取。 One More Thing 整场发布会,老黄还整了不少活儿。 比如AI老黄似乎已经成了发布会常客。 在介绍天气预测模型时,他坦白承认在视频中那么流利讲普通话的那位是AI生成的,因为自己中文不太好。 而本场重磅的BlackWell系统、AI Factory的核心构成,也被他各种搬来搬去…… 除了下一代GPU取名Rubin,我们还看到 Vera CPU,他们共同出现在新的Vera Rubin加速器上。而这一名称来源,实际上是来自美国一位女天文学家Vera Rubin,她是研究暗物质先驱。 以及,COMPUTEX 2024不愧是6月开头就炸场的AI终端大戏。 除了黄院士外,英特尔、AMD、高通等老板都悉数到场,接下来几天会挨个发表演讲。 这些主题演讲,绝大部分都跟AIPC有关。 大家一起蹲一蹲吧~
老黄一口气解密三代GPU!粉碎摩尔定律打造AI帝国,量产Blackwell解决ChatGPT全球耗电难题
新智元报道 编辑:编辑部 【新智元导读】刚刚,老黄又高调向全世界秀了一把:已经量产的Blackwell,8年内将把1.8万亿参数GPT-4的训练能耗狂砍到1/350;英伟达惊人的产品迭代,直接原地冲破摩尔定律;Blackwell的后三代路线图,也一口气被放出。 就在刚刚,老黄手持Blackwell向全世界展示的那一刻,全场的观众沸腾了。 它,是迄今为止世界最大的芯片! 眼前的这块产品,凝聚着数量惊人的技术 如果用老黄的话说,它就是「全世界迄今为止制造出来的最复杂、性能最高的计算机。」 8年内,1.8万亿参数GPT-4的训练能耗,直接疯狂降到1/350;而推理能耗则直接降到1/45000 英伟达产品的迭代速度,已经彻底无视摩尔定律。 就如网友所言,无所谓,老黄有自己的摩尔定律。 一手硬件,一手CUDA,老黄胸有成竹地穿过「计算通货膨胀」,放出豪言预测道——在不久的将来,每一个处理密集型应用都将被加速,每一个数据中心也肯定会被加速。 同时公开的Blackwell后三代路线图:Blackwell Ultra(2025年),Rubin(2026年),Rubin Ultra(2027年) 「买得越多,省得越多」的黄式数学公式,也再次亮相。 全新计算时代开启 演讲开篇,老黄最先放出了一个Omniverse模拟世界中的演示。 他表示,「英伟达正处于计算机图形模拟和人工智能的交叉点上。这是我们的『灵魂』」。 这一切都是物理世界中的模拟,它的实现,得益于两项基本的技术——加速计算和人工智能,将重塑计算机产业。 到目前为止,计算机行业已有60多年的历史,而现在,一个全新的计算时代已然开始。 1964年,IBM的System 360首次引入了CPU,通用计算通过操作系统将硬件和软件分离。架构兼容性、向后兼容性等等,所有我们今天所了解的技术,都是从这个时间点而来。 直到1995年,PC革命开启让计算走进千家万户,更加民主化。2007年,iPhone推出直接把「电脑」装进了口袋,并实现了云端链接。 可以看出,过去60年里,我们见证了2-3个推动计算行业转变的重要技术节点。 加速计算:一手GPU,一手CUDA 而如今,我们将再一次见证历史。老黄表示,「有两个最基础的事情正发生」。 首先是处理器,性能扩展已经大大放缓,而我们所需的计算量、需要处理的数据都在呈指数级增长。 按老黄的话来说,我们正经历着「计算通货膨胀」。 过去的20年里,英伟达一直在研究加速计算。比如,CUDA的出现加速了CPU负载。事实上,专用的GPU效果会更好。 当我们运行一个应用程序,不希望是一个运行100秒,甚至是100个小时的APP。 因此,英伟达首创了异构计算,让CPU和GPU并行运行,将过去的100个时间单位,加速到仅需要1个时间单位。 可见,它已经实现了100倍速率提升,而功耗仅增加的3倍,成本仅为原来的1.5倍。 英伟达同时为价值十亿美元的数据中心,配备了5亿美元的GPU,让其变成了「AI工厂」。 有了加速计算,世界上许多公司可以节省数亿美元在云端处理数据。这也印证了老黄的「数学公式」,买得越多,省得越多。 除了GPU,英伟达还做了业界难以企及的事,那就是重写软件,以加速硬件的运行。 如下图所示,从深度学习cuDNN、物理Modulus、通信Aerial RAN、基因序列Parabricks,到QC模拟cuQUANTUM、数据处理cuDF等领域,都有专用的CUDA软件。 也就是说,没有CUDA,就等同于计算机图形处理没有OpenGL,数据处理没有SQL。 而现在,采用CUDA的生态遍布世界各地。就在上周,谷歌宣布将cuDF加入谷歌云中,并加速世界上受欢迎的数据科学库Pandas。 而现在,只需要点击一下,就可以在CoLab中使用Pandas。就看这数据处理速度,简直快到令人难以置信。 老黄表示,要推行一个全新的平台是「蛋和鸡」的困境,开发者和用户,缺一不可。 但是经过20年的发展,CUDA已经打破了这个困境,通过全球500万开发者和无数领域的用户实现了良性循环。 有越多人安装CUDA,运行的计算量越大,他们就越能据此改进性能,迭代出更高效、更节能的CUDA。 「AI工厂」全栈重塑 2012年,神经网络AlexNet的诞生,将英伟达第一次与AI联系起来。我们都知道,AI教父Hinton和高徒当时在2个英伟达GPU上完成AlexNet的训练。 深度学习就此开启,并以超乎想像的速度,扩展几十年前发明的算法。 但由于,神经网络架构不断scaling,对数据、计算量「胃口」愈加庞大,这就不得不需要英伟达重新发明一切。 2012年之后,英伟达改变了Tensor Core,并发明了NvLink,还有TensorRT、Triton推理服务器等等,以及DGX超算。 当时,英伟达的做法没有人理解,更没人愿意为之买单。 由此,2016年,老黄亲自将英伟达首个DGX超算送给了位于旧金山的一家「小公司」OpenAI。 从那之后,英伟达在不断扩展,从一台超算、到一个超大型数据中心。 直到,2017年Transformer架构诞生,需要更大的数据训练LLM,以识别和学习一段时间内连续发生的模式。 之后,英伟达建造了更大的超算。2022年11月,在英伟达数万个GPU上完成训练的ChatGPT横空出世,能够像人类一样交互。 这是世界第一次看到了生成式AI。它会一次输出一个token,可以是图像、语音、文字、视频,甚至是天气token,全部都是关于生成。 老黄表示,「我们可以学习的一切,现在都可以生成。我们现在已经进入了一个全新的生成式AI时代」。 当初,那个作为超算出现的计算机,已经变成了数据中心。它可以输出token,摇身一变成为了「AI工厂」。 而这个「AI工厂」,正在创造和生产巨大价值的东西。 19世纪90年代末,尼古拉·特斯拉发明了AC Generator,而现在,英伟达正创造可以输出token的AI Generator。 英伟达给世界带来的是,加速计算正引领新一轮产业革命。 人类首次实现了,仅靠3万亿美元的IT产业,创造出能够直接服务于100万亿美元产业的一切东西。 传统的软件工厂,到如今AI工厂的转变,实现了CPU到GPU,检索到生成,指令到大模型,工具到技能的升级。 可见,生成式AI推动了全栈的重塑。 从Blackwell GPU到超级「AI工厂」 接下来就让我们看看,英伟达是如何将一颗颗地表最强的Blackwell芯片,变成一座座超级「AI工厂」的。 注意看,下面这块是搭载了Blackwell GPU的量产级主板。 老黄手指的这里是Grace CPU。 而在这里,我们可以清晰地看到,两个连在一起的Blackwell芯片。 在8年里,每一代英伟达芯片的Flops,都增长了1000倍。 与此同时,摩尔定律在这8年里,却似乎逐渐失效了。 即使和摩尔定律最好的时刻相比,Blackwell算力的提升也是惊人的。 这将直接导致的结果,就是成本的显著下降。 比如,训练一个1.8万亿参数、8万亿token的GPT-4所用的能耗,直接降至1/350! Pascal需要消耗的,是1000吉瓦时,这就意味着,它需要一个1000吉瓦的数据中心。(1吉瓦=1000兆瓦) 而且如果这样的数据中心真的存在的话,训练也GPT-4也需要整整一个月的时间。 而100兆瓦的数据中心,大概需要一年。 这也就是为什么,ChatGPT这样的LLM, 在八年前是根本不可能存在的。 如今有了Blackwell,过去的1000吉瓦时直接可以降到3吉瓦时。 可以说,Blackwell就是为了推理,为了生成token而生的。它直接将每token的能量降低了45000倍。 在以前,用Pascal产生1个token的消耗,相当于两个200瓦的灯泡运行2天。让GPT-4生成一个单词,大概需要3个token。这根本不可能让我们得到如今和GPT-4聊天的体验。 而现在,我们每个token可以只使用0.4焦耳,用很少的能量,就能产生惊人的token。 它诞生的背景,正是运算模型规模的指数级增长。 每一次指数级增长,都进入一种崭新的阶段。 当我们从DGX扩展到大型AI超算,Transformer可以在大规模数据集上训练。 而下一代AI,则需要理解物理世界。然而如今大多数AI并不理解物理规律。其中一种解决办法,是让AI学习视频资料,另一种,则是合成数据。 第三种,则是让计算机互相学习!本质上就和AlphaGo的原理一样。 巨量的计算需求涌来,如何解决?目前的办法就是——我们需要更大的GPU。 而Blackwell,正是为此而生。 Blackwell中,有几项重要的技术创新。 第一项,就是芯片的尺寸。 英伟达将两块目前能造出来的最大尺寸的芯片,用一条10TB/s的链路链接起来;然后再把它们放到同一个计算节点上,和一块Grace CPU相连。 在训练时,它被用于快速检查点;而在推理和生成的场景,它可以用于储存上下文内存。 而且,这种第二代GPU还有高度的安全性,我们在使用时完全可以要求服务器保护AI不受偷窃或篡改。 并且,Blackwell中采用的是第5代NVLink。 而且,它是第一代可信赖、可使用的引擎, 通过该系统,我们可以测试每一个晶体管、触发器、片上内存和片外内存,因此我们可以当场确定某个芯片是否出现故障。 基于此,英伟达将拥有十万个GPU超算的故障间隔时间,缩短到了以分钟为单位。 因此,如果我们不发明技术来提高超算的可靠性,那么它就不可能长期运行,也不可能训练出可以运行数月的模型。 如果提高可靠性,就会提高模型正常的运行时间,而后者显然会直接影响成本。 最后,老黄表示,解压缩引擎的数据处理,也是英伟达必须做的最重要的事之一。 通过增加数据压缩引擎、解压缩引擎,就能以20倍的速度从存储中提取数据,比现在的速度要快得多。 超强风冷DGX & 全新液冷MGX Blackwell是一个重大的跃进,但对老黄来说,这还不够大。 英伟达不仅要做芯片,还要制造搭载最先进芯片的服务器。拥有Blackwell的DGX超算,在各方面都实现了能力跃升。 集成了Blackwell芯片的最新DGX,能耗仅比上一代Hopper提升了10倍,但FLOPS量级却提升了45倍。 下面这个风冷的DGX Blackwell,里面有8个GPU。 而对应散热器的尺寸也很惊人,达到了15kW,并且是完全的风冷。 如果你喜欢部署液冷系统呢?英伟达也有新型号MGX。 单个MGX同时集成72个Blackwell GPU,且有最新的第五代NVLink每秒130TB的传输速度。 NVLink将这些单独的GPU彼此连接起来,因此我们就得到了72个GPU的MGX 介绍完芯片,老黄特意提到了英伟达研发的NVLink技术,这也是英伟达的主板可以越做越大的重要原因。 由于LLM参数越来越多、越来越消耗内存,想要把模型塞进单个GPU已经几乎是不可能的事情,必需搭建集群。其中,GPU通信技术的重要性不亚于计算能力。 英伟达的NVLink,是世界上最先进的GPU互连技术,数据传输速率可以堪称疯狂! 因为如今的DGX拥有72个GPU,而上一代只有8个,让GPU数直接增加了9倍。而带宽量,则直接增加了18倍,AI FLops增加了45倍,但功率仅仅增加了10倍,也即100千瓦。 下面这个NVLink芯片,也堪称是奇迹。 人们之所以意识到它的重要性,是因为它将所有这些不同的GPU连接在一起,从而能够让十万亿参数的LLM运行起来。 500亿个晶体管,74个端口,每个端口400GB,7.2TB每秒的横截面带宽,这本身就是个奇迹。 而更重要的是,NVLink内部还具有数学功能,可以实现归约。对于芯片上的深度学习,这尤其重要。 有趣的是,NVLink技术,大大拓宽了我们对于GPU的想象。 比如在传统的概念中,GPU应该长成这样。 但有了NVLink,GPU也可以变成这么大。 支撑着72个GPU的骨架,就是NVLink的5000根电缆,能够在传输方面节省20kw的功耗用于芯片计算。 老黄拿在手里的,是一个NVLink的主干,用老黄的原话说,它是一个「电气机械奇迹」 NVLink做到的仅仅是将不同GPU芯片连接在一起,于是老黄又说了一句「这还不够宏大」。 要连接超算中心内不同的主机,最先进的技术是「无限带宽」(InfiniBand)。 但很多数据中心的基础设施和生态,都是基于曾经使用的以太网构建的,推倒重来的成本过高。 因此,为了帮助更多的数据中心顺利迈进AI时代,英伟达研发了一系列与AI超算适配的以太交换机。 网络级RDMA、阻塞控制、适应性路由、噪声隔离,英伟达利用自己在这四项技术上的顶尖地位,将以太网改造成了适合GPU之间点对点通信的网络。 由此也意味着,数百万GPU数据中心的时代,即将到来。 全球2800万开发者,即时部署LLM 在英伟达的AI工厂中,运行着可以加速计算推理的新型软件——NIM。 老黄表示,「我们创建的是容器里的AI」。 这个容器里有大量的软件,其中包括用于推理服务的Triton推理服务器、优化的AI模型、云原生堆栈等等。 现场,老黄再一次展示了全能AI模型——可以实现全模态互通。有了NIM,这一切都不是问题。 它可以提供一种简单、标准化的方式,将生成式AI添加到应用程序中,大大提高开发者的生产力。 现在,全球2800万开发者都可以下载NIM到自己的数据中心,托管使用。 未来,不再耗费数周的时间,开发者们可以在几分钟内,轻松构建生成式AI应用程序。 与此同时,NIM还支持Meta Llama 3-8B,可以在加速基础设施上生成多达3倍的token。 这样一来,企业可以使用相同的计算资源,生成更多的响应。 而基于NIM打造的各类应用,也将迸发涌现,包括数字人、智能体、数字孪生等等。 老黄表示,「NVIDIA NIM集成到各个平台中,开发人员可以随处访问,随处运行 —— 正在帮助技术行业使生成式 AI 触手可及」。 智能体组队,万亿美元市场 而智能体,是未来最重要的应用。 老黄称,几乎每个行业都需要客服智能体,有着万亿美元的市场前景。 可以看到,在NIM容器之上,大多数智能体负责推理,去弄清任务并将其分解成多个子任务。还有一些,它们负责检索信息、搜索,甚至是使用工具等。 所有智能体,组成了一个team。 未来,每家公司都将有大量的NIM智能体,通过连接起来组成一个团队,完成不可能的任务。 GPT-4o躯壳,老黄做出来了 在人机交互这方面,老黄和Sam Altman可以说是想到一起了。 他表示,虽然可以使用文字或语音形式的prompt给AI下达指令,但很多应用中,我们还是需要更自然的、更类人的交互方式。 这指向了老黄的一个愿景——数字人。相比现在的LLM,它们可以更吸引人,更有同理心。 GPT-4o虽是实现了无法比拟的类人交互,但缺少的是一个「躯体」。 而这次,老黄都帮OpenAI想好了。 未来,品牌大使也不一定是「真人」,AI完全可以胜任。 从客户服务,到广告、游戏等各行各业,数字人带来的可能将是无限的。 连接Gen AI的CG技术,还可以实时渲染出逼真的人类面部。 低延迟的数字人处理,遍及全球超过100个地区。 这是由英伟达ACE提供的魔力,能够为创建栩栩如生的数字人,提供相应的AI工具。 现在,英伟达计划在1亿台RTX AI个人电脑和笔记本电脑上,部署ACE PC NIM微服务。 这其中包括英伟达首个小语言模型——Nemotron-3 4.5B,专为在设备上运行而设计,具备与云端LLM相似的精度和准确性。 此外,ACE数字人类AI新套件还包括基于音轨生成身体手势——NVIDIA Audio2Gesture,即将推出。 老黄表示,「数字人类将彻底改变各个行业,ACE提供的多模态LLM和神经图形学的突破,使我们更接近意图驱动计算的未来,与计算机的交互将如同与人类的交互一样自然」。 预告下一代芯片Rubin Hopper和Blackwell系列的推出,标志着英伟达逐渐搭建起完整的AI超算技术栈,包括CPU、GPU芯片,NVLink的GPU通信技术,以及NIC和交换机组成的服务器网络。 如果你愿意的话,可以让整个数据中心都使用英伟达的技术。 这足够大、足够全栈了吧。但是老黄表示,我们的迭代速度还要加快,才能跟上GenAI的更新速度。 英伟达在不久前就曾放出消息,即将把GPU的迭代速度从原来的两年一次调整为一年一次,要用最快的速度推进所有技术的边界。 今天的演讲中,老黄再次实锤官宣GPU年更。但是他又紧跟着叠了个甲,说自己可能会后悔。 无论如何,我们现在知道了,英伟达不久后就会推出Blackwell Ultra,以及明年的下一代的Rubin系列。 从孪生地球,到具身AI机器人 除了芯片和超算服务器,老黄还发布了一个所有人都没有想到的项目——数字孪生地球「Earth-2」。 这也许是世界范围内最有雄心的项目(甚至没有之一)。 而且根据老黄的口吻推测,Earth-2已经推进了数年,今年取得的重大突破才让他觉得,是时候亮出来了。 为什么要为建造整个地球的数字孪生?是要像小扎的元宇宙那样,把社交和互动都搬到线上平台吗? 不,老黄的愿景更宏伟一些。 他希望在Earth-2的模拟,可以预测整个星球的未来,从而帮我们更好地应对气候变化和各种极端天气,比如可以预测台风的登陆点。 Earth-2结合了生成式AI模型CorrDiff,基于WRF数值模拟进行训练,能以12倍更高的解析度生成天气模型,从25公里范围提高到2公里。 不仅解析度更高,而且相比物理模拟的运行速度提高了1000倍,能源效率提高了3000倍,因此可以在服务器上持续运行、实时预测。 而且,Earth-2的下一步还要将预测精度从2公里提升到数十米,同时考虑城市内的基础设施,甚至可以预测到街道上什么时候会刮来强风。 而且,英伟达想数字孪生的,不止是地球,还有整个物理世界。 对于这个狂飙突进的AI时代,老黄大胆预测了下一波浪潮——物理AI,或者说是具身AI。 它们不仅需要有超高的认知能力,可以理解人类、理解物理世界,还要有极致的行动力,完成各种现实任务。 想象一下这个赛博朋克的未来:一群机器人在一起,像人类一样交流、协作,在工厂里创造出更多的机器人。 而且,不仅仅是机器人。一切能移动的物体都会是自主的! 在多模态AI的驱动下,它们可以学习、感知世界,理解人类指令,并进化出计划、导航以及动作技能,完成各种复杂任务。 那要怎样训练这些机器人呢?如果让他们在现实世界横冲直撞,代价要比训练LLM大得多。 这时,数字孪生世界就大有用武之地了。 正像LLM可以通过RLHF进行价值观对齐一样,机器人也可以在遵循物理规律的数字孪生世界中不断试错、学习,模仿人类行为,最终达到通用智能。 Nvidia的Omniverse可以作为构建数字孪生的平台,集成Gen AI模型、物理模拟以及动态实时的渲染技术,成为「机器人健身房」。 志在做全栈的英伟达也不仅仅满足于操作系统。他们还会提供用于训练模型的超算,以及用于运行模型的Jetson Thor和Orin。 为了适应不同应用场景下的机器人系统,英伟达的Omniverse将逐步扩展为Warehouse生态系统。 这个生态将无所不包,从搭配应用程序的SDK和API,到运行边缘AI计算的接口,再到最底层的可定制芯片。 在全栈产品方面,英伟达就是想要做自己的「全家桶」,让别人无路可走。 为了让这个AI 机器人时代看起来更真实,演示的最后,9个和老黄有同样身高的机器人一同登场。 正如老黄所说的,「这不是未来,这一切都正在发生」。
如何从处理器和加速器内核中榨取最大性能?
一些设计团队在创建片上系统(SoC)设备时,有幸能够使用最新和最先进的技术节点,并且拥有相对不受限制的预算来从可信的第三方供应商那里获取知识产权(IP)模块。然而,许多工程师并没有这么幸运。对于每一个“不惜一切代价”的项目,都有一千个“在有限预算下尽你所能”的对应项目。 一种从成本较低、早期代、中档处理器和加速器核心中挤出最大性能的方法是,明智地应用缓存。 削减成本 图1展示了一个典型的成本意识SoC场景的简化示例。尽管SoC可能由许多IP组成,但这里为了清晰起见,只展示了三个。 图 1 SoC内部IP之间连接的主要技术是网络片上(NoC)互连IP。这可以被看作是一个跨越整个设备的IP。图1中展示的例子可以假定为一个非缓存一致性场景。在这种情况下,任何一致性需求将由软件处理。 假设SoC的时钟运行在1GHz。假设一个基于精简指令集计算机(RISC)架构的中央处理单元(CPU)运行一个典型指令将消耗一个时钟周期。然而,访问外部DRAM内存可能需要100到200个处理器时钟周期(为了本文的目的,我们将这个平均为150个周期)。这意味着,如果CPU没有一级(L1)缓存,并且通过NoC和DDR内存控制器直接连接到DRAM,那么每个指令将消耗150个处理器时钟周期,导致CPU利用率仅为1/150 = 0.67%。 这就是为什么CPU以及一些加速器和其他IP使用缓存内存来提高处理器利用率和应用程序性能。缓存概念基于的基本原理是局部性原则。这个观点是,在任何给定时间,只有一小部分主内存被使用,而且那个空间中的位置被多次访问。主要是由于循环、嵌套循环和子程序,指令及其相关数据经历时间、空间和顺序局部性。这意味着,一旦一块指令和数据从主内存复制到IP的缓存中,IP通常会反复访问它们。 当今高端CPU IP通常至少有一个一级(L1)和二级(L2)缓存,它们通常还有一个三级(L3)缓存。此外,一些加速器IP,如图形处理单元(GPU)通常有自己的内部缓存。然而,这些最新一代的高端IP的价格通常比上一代中档产品高出5倍到10倍。因此,正如图1所示,一个注重成本的SoC中的CPU可能只配备了一个L1缓存。 更深入地考虑CPU及其L1缓存。当CPU在其缓存中请求某物时,结果被称为缓存命中。由于L1缓存通常以与处理器核心相同的速度运行,因此缓存命中将在单个处理器时钟周期内处理。相比之下,如果请求的数据不在缓存中,结果称为缓存未命中,将需要访问主内存,这将消耗150个处理器时钟周期。 现在考虑运行1,000,000条指令。如果缓存足够大以包含整个程序,那么这将只消耗1,000,000个时钟周期,从而实现100%的CPU效率。 不幸的是,中档CPU中的L1缓存通常只有16KB到64KB的大小。如果我们假设95%的缓存命中率,那么我们的1,000,000条指令中的950,000条将需要一个处理器时钟周期。其余的50,000条指令每条将消耗150个时钟周期。因此,这种情况下的CPU效率可以计算为1,000,000/((950,000 * 1) + (50,000 * 150)) = ~12%。 提升性能 提高注重成本SoC性能的一种成本效益高的方式是添加缓存IP。例如,Arteris的CodaCache是一个可配置的、独立的非一致性缓存IP。每个CodaCache实例可以高达8MB,并且可以在同一个SoC中实例化多个副本,如图2所示。 图2 本文的目的并不是建议每个IP都应该配备一个CodaCache。图2仅旨在提供潜在CodaCache部署的示例。 如果一个CodaCache实例与一个IP关联,它被称为专用缓存(DC)。或者,如果一个CodaCache实例与一个DDR内存控制器关联,它被称为末级缓存(LLC)。DC将加速与其关联的IP的性能,而LLC将增强整个SoC的性能。 作为我们可能期望的性能提升类型的一个示例,考虑图2中显示的CPU。让我们假设与这个IP关联的CodaCache DC实例以处理器速度的一半运行,并且对这个缓存的任何访问消耗20个处理器时钟周期。如果我们还假设这个DC有95%的缓存命中率,那么对于1,000,000条指令——我们的整体CPU+L1+DC效率可以计算为1,000,000/((950,000 * 1) + (47,500 * 20) + (2,500 * 150)) = ~44%。这是一个~273%的性能提升! 结论 过去,嵌入式程序员喜欢挑战,尽可能从时钟速度低、内存资源有限的小处理器中挤出最高性能。事实上,计算机杂志通常会向读者提出挑战,例如:“谁能在处理器Y上使用最少的时钟周期和最小的内存量执行任务X?” 今天,许多SoC开发者喜欢挑战,尽可能从他们的设计中挤出最高性能,特别是如果他们被限制使用性能较低的中档IP。部署CodaCache IP作为专用和末级缓存,为工程师提供了一种负担得起的方式来提升他们注重成本的SoC的性能。
数字音乐新趋势:短视频平台加剧竞争,AI版权保护难题待解
文|樊朔 编辑 | 郭丽琴 中国数字音乐市场正处于持续创新的“转型期”。 随着2021年7月国家市场监督管理总局要求各数字音乐平台解除网络音乐独家版权,短视频平台崛起,生成式AI技术的发展,中国数字音乐市场正呈现出全新的发展脉络。 近日,在第二十三期E法数字音乐论坛上,中国传媒大学音乐与录音艺术学院教授李小莹团队发布了题为《中国数字音乐平台发展现状与展望》的报告(下称《报告》)。 《报告》指出,中国数字音乐平台融合发展的现状表明了其市场的快速增长和技术应用的进步,但也面临诸多挑战。未来中国数字音乐平台的发展方向主要集中在技术创新、内容多元化、智能化服务等方面,并将更加注重个性化服务、多元化盈利模式以及产业链的整合优化。与此同时,潜在挑战则包括版权保护、市场竞争、用户体验和商业模式探索等方面。 多位参与论坛的专家指出,在新技术的冲击下,音乐行业中重复类的工作将会被AI取代,音乐行业需要结合AI创新创作形式和盈利途径。对于引发广泛关注的AI音乐著作权侵权问题,则应根据《著作权法》结合具体情形判断。 竞争加剧,短视频平台崛起 《报告》指出,目前中国数字音乐平台形成了以腾讯、阿里和字节跳动等互联网企业为代表的多元化发展格局。具体分为三类:一是以音乐在线播放为主的传统数字音乐流媒体平台,如QQ音乐、网易云音乐;二是融合音乐与短视频的短视频音乐平台,如抖音、快手;三是集音乐播放和社交功能于一体的社交性音乐平台,如哔哩哔哩。随着数字音乐市场的逐步发展,三类平台的分类边界逐渐模糊,功能上相互融合与借鉴,形成了独特的定位和“数字音乐+”的特征。 李小莹表示,进入“非独家版权”时代,各大版权方普遍采取了直接授权的合作方式,显著降低了市场的进入门槛,使得竞争更加激烈。同时,市场需求的多样化和技术进步带来的创新机会,为短视频等非传统音乐平台提供了独特的竞争优势。在竞争策略方面,各大数字音乐平台通过不同的策略来吸引用户并扩大市场份额,差异化竞争成为关键。 当下一些新趋势和新现象值得关注。 一方面,以哔哩哔哩为代表的综合视频平台在数字音乐生态中占据越来越重要的作用。通过全球明星歌手的入驻、原创音乐人与知名UP主的合作等玩法,凭借开放包容的音乐生态和二创环境、以及富有趣味性的音乐传播方式,综合视频平台正在成为数字音乐市场中不可小觑的实力玩家。 另一方面,短视频平台日益成为用户获取音乐的新渠道。数据研究分析公司Fastdata发布的《2022年中国数字音乐行业洞察报告》显示,传统数字音乐平台的用户正在向包括抖音和B站在内的综合娱乐平台跨媒介迁移。 在平台层面,以抖音为代表的短视频平台已经发展出一套完善的数字音乐推广模式。例如,当一首新歌发布后,短视频平台会先邀请音乐达人(如翻唱歌手、原唱音乐人等)翻唱,以积累初期流量。随后,平台根据音乐类型设计合适的歌曲“玩法”,涉及舞蹈、手势舞、颜值展示、短剧和游戏等多个方面。接着,平台会邀请相关领域的达人(如舞蹈达人、颜值达人、搞笑达人或剧情达人)参与创作和推广。新闻、科普或资讯类账号也可以使用这首歌作为背景音乐,结合热点新闻进一步扩大传播等。 《报告》指出,日趋成熟的数字音乐推广模式下,短视频已经成为人们发现新歌的最主要渠道,短视频付费用户比例也较之以往更高。此外,短视频平台在歌曲的宣推与创作方面的创新势头迅猛,已成为音乐传播的重要渠道。短视频平台也在持续关注对音乐人的版权扶持,对音乐人的激励同样成为短视频平台的竞争优势。同时,以短视频音乐为代表的“数字音乐+”服务平台,使得音乐消费媒介正在进行迁移,用户们正在从“传统数字音乐平台”向场景化“数字音乐+平台“迁移。 AI时代,版权问题突出 随着人工智能和大模型技术的应用与普及,数字音乐平台纷纷竞逐“AI赛道”。 《报告》显示,各大平台将AI与各自平台的核心技术进行融合,推出了AI音色、AI歌曲、AI制谱、AI制作等丰富多彩的玩法与特色。例如,酷狗音乐的AI音乐魔法和音乐制作人功能,将AI技术融入音乐创作中;网易云音乐和小冰公司共同推出了AI音乐合成软件“X Studio”;《王者荣耀》在2023年11月新发布的朵莉亚主题曲《人鱼之歌》运用AI演唱,在专业级演唱家都难以完美演绎的超高音域中使用了AI训练的声音,对歌曲进行了完美的演绎。 对此,李小莹表示,音乐人工智能不仅在游戏配乐领域的应用已经相当成熟,在短视频和广告配乐领域也已经被普遍采用,预计未来这一趋势将更加显著。相较于其他领域的人工智能研究,音乐人工智能研究因更多涉及音乐的情感表达,而具有其独特性。伴随技术进步,音乐人工智能将为音乐家们提供更广阔的创作空间和无限的可能性。 《报告》认为,AI技术在数字音乐平台的应用展现出了巨大的潜力和广阔的发展前景。随着技术的不断进步和应用场景的不断拓展,AI将在音乐创作、表演、传播和用户体验等方面发挥更加重要的作用,为音乐产业带来更多的创新和变革。 但同时,人工智能在音乐领域的应用也面临着原创性、版权以及隐私保护等诸多争议。最近几个月,AI音乐生成类工具Suno凭借着低门槛、速度快、歌曲完成度高的功能引发热议,也引发人们思考——随着AI技术发展,词曲作者是否会就此失业?AI创作的音乐该如何界定其版权? 青年作曲家、中央音乐学院教师巩子晗表示,除Demo(小样)演唱外,目前音乐行业内部受AI音乐生成软件的冲击较小,Suno等工具在进行一些特定类型的音乐创作时劣势非常明显。但可以肯定的是,音乐行业中重复类的工作将会被AI取代。 巩子晗建议,面对AI音乐发展的大趋势,各大平台可以将包括Demo演唱家在内的音乐从业人员集合起来,开发智能歌唱工作站,为他们制作个人的AI演唱音色,面向用户收费使用,收取的费用再与参与录制的演唱家分成。“这样在解决(Demo演唱家)就业的同时暂时降低了职业被取代的风险,促进了技术行业的发展。”巩子晗说。 对于AI音乐本身是否受《著作权法》保护,中央民族大学法学院副教授熊文聪认为,AI音乐脱离了艺术的范畴,难以让听众产生共鸣,且AI技术并未带来新的音乐表现形式,AI大幅提高了音乐的生产效率,改变了音乐生成的稀缺性问题。由于其生成物并不具有财产的稀缺性,因此没有必要动用高昂的执法成本去给予保护和激励。 目前,各类生成式AI的模式是利用海量内容数据进行模型训练,根据提示词生成新的作品。大模型训练阶段对于数据的使用是否属于版权侵权的问题依然存在争议。熊文聪认为,这一过程并不涉及著作权侵权。原因在于《著作权法》对“合理使用“有明确的规定——著作权人以外的人在某些情况下使用他人已发表的作品,可以不经著作权人的同意,也无需向其支付报酬。但需要明确的是,若是为了保护公共利益,且对著作权危害不大的行为,《著作权法》不视为侵权行为。 熊文聪表示,对海量的数据进行挖掘和训练时,若使用者需要获得每个著作权人的许可会导致交易成本过高,因此适用于“合理使用”制度。但他同时提醒,如果能够证明AI生成物明显挪用了特定的一两个作品,将不适用于“合理使用”制度。“需要根据《著作权法》结合具体情形判断。”熊文聪说。
大模型,正在排队寻求卖身
AI独角兽卖身大潮,再添一员。 就在上周,估值近300亿的大模型明星企业Stability AI,刚刚传出了资金链断裂,正在寻求合并的消息。又有媒体曝出,近几个月,另一AI 独角兽 Adept 领导层与科技巨头公司就出售或战略合作可能性进行了谈判。据悉,Adept 已经和 Meta 进行过沟通。 Adept 由 OpenAI 的原工程副总裁David Luan,与两位谷歌Transformer架构的提出者Ashish Vaswani 和 Niki Parmar 联手创立。目前,Ashish Vaswani 和 Niki Parmar已经离开创立了另一家公司,Adept的三名联创只剩下华人David Luan一人。David Luan毕业于耶鲁大学,可以说是非典型意义上的连续创业者,中学时代、大学时期,都有相关的创业实践项目。 2023年3月,刚成立一年的 Adept 获得 3.5亿美元融资,估值一举突破10亿美元,跻身生成式AI独角兽之列。目前Adept共斩获4轮融资,参投机构既有顶级风投Greylock,也包括微软、英伟达等著名科技公司;个人投资者则有LinkedIn联创Reid Hoffman、Uber CEO Dara Khosrowshahi、前特斯拉自动驾驶负责人Andrej Karpathy、Adobe首席产品官Scott Belsky等。 其推出的首个大模型产品ACT-1,不同于 ChatGPT,可以基于用户指令分步骤操作电脑。今年 1 月,Adept 还发布了多模态大型语言模型Fuyu-Heavy,可以回答问题并分析文本和图像。Adept 还计划在今年夏天推出一款可以自动执行个人计算任务的 Agent,但一些较大的现有企业也在开发这种服务。2024年4月,Adept还登上了福布斯“AI 50强”排行榜,如今却走上了卖身之路。 成立一年,跻身独角兽 一家成立于2022年的初创公司,迅速在人工智能领域崭露头角,与核心团队的技术背景有直接关系。 Adept 的创始团队由前 OpenAI 和谷歌 AI 开发人员共同创立。其中,Ashish Vaswani 和 Niki Parmar是谷歌 Transformer 架构的提出者,他们因共同发表《Attention Is All You Need》的论文而闻名。 另一位创始人兼CEO David Luan,也有谷歌的工作经历。2019年加入谷歌后,曾在研究部门担任技术主管,领导大模型项目。在此之前,他在OpenAI担任工程副总裁,参与了GPT-2和GPT-3的开发。 除此之外,David Luan 的经历亮点还不少。6 岁随家人从中国搬到美国,8岁开始学习大学课程,展现出“天才儿童”的特点,19岁便获得Thiel Fellowship奖学金——Thiel Fellowship是由硅谷亿万富翁、PayPal的创始人Peter Thiel设立的奖学金,专门选拔20岁以下创业青年人才。 当时,David Luan的学术与职业深受机器人技术的吸引。中学时代,他自主研发智能机器人控制系统,进入耶鲁大学后曾休学两年,投入到机器人应用商店项目的创建中。之后他的专业焦点转向深度学习,创办了一家专注于视频内容自动识别与场景分割的人工智能企业Dextro,最终被公共安全解决方案的上市公司Axon收购。 2022 年底,Parmar 和 Vaswani 离开 Adept,成立另一家初创公司。因公司团队中不乏来自谷歌、DeepMind、OpenAI的资深专家,在David Luan的带领下继续推进其技术愿景,未受到显著影响。 Adept的核心目标是开发能够综合运用生成式AI技术的通用操作工具,即AI Agent,旨在通过语音或文本指令,使AI能够执行多样化任务,从而革新传统的软件操作模式。简而言之,Adept 的目标是构建一个全新的操作系统或平台,让人们使用电脑更加“傻瓜式”,只需一个指令,其余所有步骤和事情它都可以帮忙完成,而非像ChatGPT那样一来一回的问答。 Adept的第一个产品名为Action Transformer(ACT-1)模型,可以深入理解人类与计算机的互动方式,其能力从解答基本问题逐渐扩展至执行更复杂的操作,比如,通过深入使用电子表格等工具,ACT-1 可以从上下文中推断出人们的意思,并帮助人们完成后续的一系列操作。 2024年1月,Adept 又发布了多模态大型语言模型Fuyu-Heavy,进一步提升了在文本和图像处理上的综合分析能力。据媒体报道,Adept 还计划在今年夏天推出一款可以自动执行个人计算任务的 Agent, 不过,自 1 月发布 Fuyu-Heavy 后,公司 X 平台还无更新。 自2022年成立以来,Adept迅速获得了业界重量级人物及著名风投的财务支持。2022 年 1 月成立后不久,就获得了包括LinkedIn创始人Reid Hoffman、特斯拉自动驾驶部门前负责人Andrej Karpathy等的投资。 2022年4月,Adept 又获得了6500万美元的A轮融资,除前述轮次个人投资者继续跟投外,还吸引了风险投资基金Saam Motamedi、Skype早期开发者Jaan Tallinn、以及斯坦福大学计算机科学家、Lattice Data联合创始人Chris Ré等。 特别是2023年3月,Adept 又筹集了两轮总计 4.15 亿美元的资金,参与方涵盖General Catalyst、Spark Capital、Greylock、Frontiers Capital等知名投资机构,以及微软、英伟达等行业巨头,使得 Adept 估值迅速攀升至10亿美元以上,正式迈入独角兽行列。 从辉煌到转折,AI独角兽的现实挑战 尽管融资历程和技术创新,表明了Adept 在行业中一定的前瞻性,但最终踏上卖身的道路,或许揭示了深层次的困境。探究其背后原因,成本压力、激烈竞争及商业化路径不明朗是几个关键因素。 首先,高昂的维护成本成为不可忽视的重负。以 ACT-1 为例,“训练这样的模型并不便宜”,David Luan在福布斯的采访中坦承,目前仍处优化前阶段,他们追求的是开发更强大、多功能的模型,然后再逐步降低成本与规模。 其次,市场环境的激烈竞争不容小觑。Adept 不仅要面对新兴企业的追赶,还得与科技巨头谷歌、微软和 OpenAI 等同台竞技,这些企业都在竞相开发能自动化日常办公任务的 AI 助手。 比如OpenAI正在秘密研发一种全新的智能体,它们能够利用计算机的强大功能,同时操作多个应用程序,实现如将文档中的数据自动传输到电子表格等高效任务。 Meta也在积极开发另一类智能体,目标直指高度自主规划能力,它们擅长处理复杂的多步骤任务,如跨国行程的全方位安排。 微软正在开发新的Agent来自动执行多种操作,比如根据客户的订单历史记录创建、发送和跟踪客户发票,或者用不同的语言重写应用程序的代码,并验证其是否按预期运行。 最后,Adept的商业模式初定于服务企业用户,但如何将技术优势转化为可持续的盈利模式,是其面临的又一大考验。目前还未见其商业化方向上的更多探索,想必存在一定困难。此外,两位联合创始人的出走,也引发了外界的一些猜测,如何稳固团队也是又一大考验。 或许还有最重要的一点,尽管 Agent 看似很火热,但尚处于早期探索阶段。本质上还是聊天机器人的变种,虽然能够处理特定任务,但往往并不具备执行多步骤任务的能力。根据开发者们的反馈,在实际操作层面,它们的表现往往喜忧参半,频繁陷入无尽的重复行为模式中。 当人们意识到智能体距离理想状态仍有漫长征途时,先前的热捧便不可避免地回归到了理性的冷静之中。 AI明星独角兽集体求卖身,洗牌开始了 AI独角兽求卖身的例子越来越多。 凭借创新 AI 硬件 Pin 闻名的 Humane,如今也步入了寻求收购的行列。公司被爆在与一名财务顾问接触,寻找意向买家,目标价格是7.5-10亿美元。 AI Pin曾一度风靡,吸引了包括微软、高通,及OpenAI首席执行官山姆·奥特曼在内的多位重量级投资人的数亿资本注入。但因为定价过高,再加上电池寿命和产品过热等问题,推出之后少有人问津。 与此同时,Reka AI——这家由前谷歌杰出科学家Yi Tay一手创办的企业,也遭遇了收购谈判的挫败。Reka AI曾与数据仓储巨头Snowflake进行了一场10亿美元的收购谈判。然而,同Adept和Humane的结局相似,Reka AI与Snowflake的并购谈判最终未能达成一致。据传是因为Reka方面认为Snowflake的报价太低,从而导致交易无疾而终。 另外,最早一批AI独角兽,AI 图片生成领域开拓者、Stable Diffusion打造者Stability AI,近期也传出了考虑求合并,但目前的具体进度还不得而知。 国内也有类似情况。去年有媒体爆出,一家清华系AI大模型公司,寻求10亿人民币估值融资的同时,也在以1亿美金的价格探索并购机会,当时同出清华一脉的智谱AI,曾就并购事宜接触过该团队。 现实也变得更严峻。GPT-4o并没有掀起太大的浪花,AI平台访问量停滞成既定事实,许多AI初创企业估值虚高是为共识,对盈利能力的追问也成为普遍质疑,同时,国内大厂的价格战打响,对中腰部以下企业更是冲击。 无论国内外,人工智能正步入一个全新的整合阶段。有行业观察指出,生成式AI领域的资金流向正展现出明显的战略调整迹象,资金逐渐向头部集中,而潜在投资者的兴趣更多地转向了应用层面的创新与发展。 在全球 AI 投资更谨慎、务实当下,未来一段时间内明星企业被卖身的传闻不会少,在市场变局中找到新归宿或不失为体面的退出,但前提是老股有人接,投资人懂得适时退。
华为AI芯片,打的美国英伟达苦不堪言,降价求生
最近听到一则消息,那就是英伟达针对中国市场特供的AI芯片H20,又降价了,从之前的12-13万元人民币,降至10元万左右,降幅高达20%+。 为何降价?因为市场不买单,为何不买为单,原因在于这款芯片性能低、价格高,性价比严重不足。 于是大家就奇怪了,英伟达的AI芯片在国内不是独一档的么,不存在性价比问题啊,卖什么价,不都得买么?像以前H100这种芯片,卖20多万一块,也多的是人抢,现在H20才10来万了,便宜一半啊。 事实上,H20是H100的阉割再阉割版,性能大约只有H100的20%左右,而价格则达到H100的一半,一看就性价比不足吧。 如果市场上只有H20可买,那大家捏着鼻子也得买,但现在不同了,市场上还有华为AI芯片昇腾系列了,和H20相比,昇腾910B才是真正的高性价比。 先说性能方面,昇腾910B的性能,大约是H20的2倍,而价格大约是12万元左右,明显比H20性价比更高吧。 当然H20也有优势,那就是有CUDA这个生态,另外就是H20的闪存高,宽带大,这一点是910B比不的了。 但在巨大的性能、价格优势面前,很多人就宁愿买华为的昇腾910B,而不是英伟达的H20了,毕竟CUDA生态,也是可以模拟运行的。 更何况,在当前这么紧张的外部形势之下,国内的众多企业,需要备胎,需要英伟达芯片之外的第二选择,因为也许某一天,连英伟达的H20都没有了,到时候怎么办? 大家必须做更多的准备,那么华为昇腾910B,就是更好的选择了。 按照机构的数据,今年华为昇腾910B,已经预订/销售上万套了,所以英伟达才会紧张,不得不降价,毕竟市场就这么大,大家都去买910B了,谁来买H20? 另外,还告诉大家一个有意思的事情。 H100性能是H20的4倍左右,价格是H20的2倍多,但成本,其实比H20还低一些。 H20虽然是H100阉割又阉割的,但硬件配置其实还高一些,英伟达增加了HBM显存和NVLink互联模块,HBM从H100的80GB提升到了96GB,同时NVlink从400GB/S提升到了900GB/S,同时内存带宽从3.4Tb/s提升到了4.0Tb/S. 所以实际上H20的成本,高于H100,但如今价格却低了一半,还不好卖,你说英伟达是不是苦不堪言? 当然,英伟达也不想这么干,而是美国不准英伟达销售更强的芯片给中国,比如H100、H800、A100、A800等这些更强的芯片给中国。 所以英伟达不得不阉割出了符合要求的H20,在英伟达看来,就算阉割后,中国市场也得买单的,不曾想华为出来搅局,推出了910B,从而阻击了英伟达的H20芯片。
首次解密Claude 3大脑!25岁Anthropic参谋长预言3年内自己将被AI淘汰
【新智元导读】Anthropic的25岁参谋长自曝因为深感AGI,未来三年自己的工作将被AI取代。她在最近的一篇文章中预言了未来即将要被淘汰的工种。难道说,Claude 3模型已经初现AGI了吗? 今天,整个AI社区被这篇文章刷屏了。 来自AI明星初创公司Anthropic的参谋长(Chief of Staff)在最新的文章中称: 「我今年25岁,接下来的三年,将是我工作的最后几年」。 这一切,竟是因为Avital Balwit深深地感受到了AGI! 她在文章开篇解释道,「我既没有生病,也不打算成为一名全职妈妈,更没有幸运到实现经济自由,可以自愿提前退休。 我正站在技术发展的边缘,一旦它真的到来,很可能会终结我所熟知的就业方式。 她接下来还解释道,Anthropic模型的每一次迭代,都展现出比之前更强大、更通用的能力。 难道说,他们自家的内部模型,已经强大到快要接近AGI的地步了吗? 还记得几天前,马斯克曾表示,AGI明年就实现了。 一直以来,所有人关注的重心都在OpenAI身上,他们实现AGI了吗?Ilya看到了什么?下一代前沿模型...... 然而,作为OpenAI的最大劲敌Anthropic AI,实力也不容小觑。 Claude 3诞生之际,便将GPT-4从世界铁王座拉了下来。随后,虽GPT-4 Turbo模型更新再夺榜首,但Claude 3仍名列前茅。 几天前,他们曾做了一项研究,首次从Claude 3中成功提取了百万个表征,去破解LLM内部运作机制。 研究人员发现了,其中的Sonnet模型拥有强大的抽象、对应各种实体、阿谀奉承、欺骗人类等各种特征。 这也是目前从神经元层面理解模型的「思考」最详细的解释。 话又说回来,Anthropic参谋长所言的这项处于边缘的技术,究竟会取代什么工作? 未来3年,哪些工作被AI淘汰 Avital Balwit曾是一位自由作家,并以撰稿作为主要的生活经济来源。 她在文章中称,「Claude 3能够胜任不同主题,并生成连贯性内容。与此同时,它对文本进行总结和分析的水平也相当不错」。 然而,对于曾经靠自由写作谋生、自豪于能快速输出大量内容的Balwit来说,看到这些进展,不免有些失落。 她形象地比喻道,这种技能就如同,从结冰的池塘中砍冰块一样,可以说已经完全过时了。 自由写作,本来就是一个人力过剩的领域,LLM的引入无疑进一步加剧了这一领域的竞争。 大部分知识工作者对LLM的一般反应,是否认。 他们仍旧固步自封,只关注模型目前还做不到、少数的顶尖领域,而没有意识到,LLM在某些任务上已经达到或超过人类水平。 许多人会指出,AI系统还无法撰写获奖书籍,更不用说申请专利了。 需要明白的是,我们大多数人也无法做到这一点。 大部分情况下,LLM并非在持续改进,而是通过不连续的飞跃获得突破。 很多人都期望AI最终将能够完成所有具有经济价值的任务,包括Avital Balwit也是。 根据目前技术的发展轨迹,Balwit预计AI首先将在线上工作领域取得卓越表现。 基本上只要是远程工作人员能够完成的工作,人工智能都将做得更好。 其中就包括,内容写作、税务准备、客户服务等许多任务,现在或很快就会被大规模自动化。 在软件开发和合同法等领域,Balwit称已经可以看到AI取代人力的开端。 总的来说,涉及到阅读、分析、综合信息,然后根据这些信息生成内容的任务,似乎已经成熟到可以被LLM所取代。 不过,对于所有类型的工作来说,「淘汰」的步伐可能不会一致。 即便我们拥有了人类水平的智能,在完全普及机器人技术之前或之后,给工作带来的影响也截然不同。 Balwit估计道,「那些需要进行精细复杂动作操作,并需要依赖特定情境专业知识的工种,从业者的工作时间会比5年更长」。 比如电工、园丁、管道工、珠宝制作、理发师,以及修理铁艺品,或制作彩色玻璃工艺品等。 另外,对于一些医疗和公务员岗位,被取代的时间会推后一些。 不在这些领域,未来的从业人数也会变少,人机协作成为一种常见的范式。 Anthropic自家的模型,离实现AGI还有多远? 2-3年实现AGI Anthropic的CEO、创始人Dario Amodei曾在多次采访中提到,他预估目前正在训练的、即将在年底或明年初发布的模型,成本已经达到约10亿美元。到了2025年时,这个数字将会是50~100亿美元。 Amodei承认,目前的AI模型并不理想,虽然在某些方面性能优于人类,但在某些方面却表现更差,甚至有一些任务根本无法完成。 然而,他和Sam Altman对Scaling Law有着相同的信心——每一代AI模型的能力会以指数曲线提升,而且Amodei认为,我们才刚刚开始,刚刚到达这条曲线的陡峭部分。 DeepMind曾经发表过一篇量化AGI能力的文章,提出的这套框架被很多网友和专业人士认可。 https://arxiv.org/pdf/2311.02462 这篇文章最后修改于今年5月,文章提出,「有竞争力的AGI」还没有在任何公开的AI模型中出现。 虽然Claude或GPT这样的模型已经实现了「通用性」,能够涉猎多种话题,有多模态、多语言的能力,并实现了少样本甚至零样本学习,但并没有表现出足够的性能,比如代码或数学运算不够正确可靠,因此不能算是充分的AGI。 也就是说,在0-5级的AGI能力轴上,我们刚达到第2级。 未来的发展,可能既比我们想象得快,又比我们想象的慢。 Amodei曾在去年做出惊人预估,我们也许在2-3年内就能实现AGI,但需要等更长的时间才能看到它产生实际的社会影响。 关于预测AGI模型的能力,Amodei的看法就和参谋长Balwit完全不同。 他在采访中说,由于大众和舆论对某些「里程碑式」模型的反应,导致发展曲线看起来很尖、有很多「拐点」。但实际上,AI认知能力的提升是一条平滑的指数曲线。 比如2020年时,GPT-3刚刚问世,还不具备成为聊天机器人的能力。直到2022年的两三年时间中,谷歌、OpenAI以及Anthropic都在训练更好的模型。 虽然模型取得了不可思议的效果,但公众却几乎没有关注,导致Amodei一度陷入自我怀疑,以为在AI技术的经济效应和社会影响上,自己的认知是错误的。 直到2022年底,ChatGPT出圈,彻底点燃了AI圈3年来隐而不发的投资热情。 对此,Amodei总结说,一方面AI技术的发展是连续、平滑、可预测的,但另一方面,公众的认知和舆论却是阶跃的、不可测的,就像没办法预测哪个艺术家会突然流行一样。 由于谷歌AI Overview近期输出的翻车内容,很多专业人士都开始怀疑AGI的愿景是否可行,因为模型似乎学习了太多互联网上的虚假、低质量内容。 AI智能会受限于训练数据吗?它能否超越数据、学习到未见的内容?比如,我们能否创造出一个爱因斯坦水平的物理AI模型? 对此,Amodei依旧是乐观的,他认为从初步迹象来看,模型表现出的能力已经超出了训练数据的平均水平。 举个例子,互联网上有很多错误的数学结果,但Claude 3 Opus这样的模型在20位数的加法任务中还是能达到99.9%的准确率。 这就意味着,LLM等类似的通用AI也同样会不断提升认知能力,Amodei也坦率承认,这会破坏目前的职业市场和经济运行。 虽然不会是「一对一」地取代人类,但肯定会改变我们对技能的认知,改变各种行业——「人类的哪些工作能力是有价值的」,这个问题的答案会发生巨大的变化。比如Balwit提到的自由写作行业。 面对职业危机,「全民基本收入」似乎是最简单、最直觉的方案,但Amodei和Balwit一样看到了更深层的问题,就是我们还要如何从工作中找到意义。 我们需要找到一些事情,让人类可以持续体会到意义和价值,最大限度地发挥创造力和潜力,与AI的能力共同蓬勃发展。 关于这个问题,Amodei说自己还没有答案,也不能开出任何药方。关于AI的很多问题都是这样,但和安全性问题一样,我们需要持续发展,并在发展中不断思考。 比如,为了安全、可控的AGI目标,Anthropic正在将尽可能多的资源投入到可解释性中,尽量与AI模型更新迭代的速度保持一致。 他们已经提出了模型的「负责任扩展政策」(RSP),以及最近为解密Claude 3 Sonnet发表的模型可解释性方面的研究成果。 解密Claude 3 Sonnet 大模型虽然在各类NLP任务上的性能都十分优异,但其本质上仍然是个黑盒的神经网络模型,用户输入文本,模型输出结果,至于模型是怎么选词、组织概念、输出流畅的文本等,以目前的技术来手段仍然很难解释,也极大阻碍了「提升模型安全性」等相关工作。 在模型的大脑中,其思考过程可以看作由一系列数字信号(神经元激活)组成的,尽管这些数字本身并不能直观地告诉我们「模型是如何思考的」,但通过与大模型的交互,还是能够观察到模型能够掌握和应用各种复杂的概念。 然而,要想理解这些概念是如何在模型内部被处理的,不能仅仅依赖于观察单个神经元的活动,因为每个概念的理解和应用实际上是由许多神经元共同作用的结果。 换句话说,模型内部的每个概念都分散在众多神经元中,而每个神经元又参与到多个不同概念的构建中,这种分布式的表示方式使得直接从神经元层面理解模型的「思考」变得具有挑战性。 最近,Anthropic的研究人员发布了一篇工作,将稀疏自编码器(sparse autoencoders)应用于Claude 3 Sonnet模型上,成功在模型的中间层抽取出数百万个特征,并提供了有关模型内部状态计算的粗略概念图(rough conceptual map),该工作也是首次对「生产级大型语言模型」进行解释。 论文链接:https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html 研究人员在人工智能系统中发现了一些高度抽象的模式,能够识别并响应抽象的行为。 例如,某些模式可以识别出与名人、国家、城市以及代码中的类型签名相关的功能,这些功能不仅能够理解不同语言中相同的概念,还能够识别出文本和图像中相同的概念,甚至能够同时处理一个概念的抽象和具体实例,比如代码中的安全漏洞以及对安全漏洞的讨论。 特别值得注意的是,研究人员在代码中发现了一些可能与安全风险相关的特征,包括与安全漏洞和后门有关的模式、偏见(明显的诽谤以及更隐蔽的偏见)、撒谎和欺骗行为、追求权力(背叛)、拍马屁以及危险或犯罪内容(制造生物武器)。 与此同时,研究人员还提醒到,不要过度解读这些特征的存在,理解谎言和撒谎是不同的行为模式,目前该研究还处于非常初级的阶段,需要进一步的研究来深入理解这些可能与安全相关的特性的影响。 2023年10月,Anthropic的研究人员成功将字典学习(dictionary learning)应用于一个非常小的「玩具」语言模型,并发现了与大写文本、DNA序列、引文中的姓氏、数学中的名词或Python代码中的函数参数等概念相对应的连贯特征。 论文链接:https://transformer-circuits.pub/2023/monosemantic-features/index.html 字典学习借鉴自经典机器学习,将神经元激活模式(称为特征)与人类可解释的概念相匹配,其隔离了在不同上下文中重复出现的神经元激活模式。 反过来,模型的任何内部状态都可以用少量激活特征(active features)而非大量活动神经元(active neurons)来表征。 就像字典中的每个英语单词都是由字母组合而成,每个句子都是由单词组合而成一样,人工模型中的每个特征都是由神经元组合而成,每个内部状态都是由特征组合而成。 但当时被解释的模型非常简单,只能用来解释小型模型,研究人员乐观预测,该技术也可以扩展到更大规模的语言模型上,并在此过程中,发现并解释支持模型复杂行为的能力。 想要把该技术扩展到大模型上,既要面临工程挑战,即模型的原始尺寸需要进行大量并行计算(heavy-duty parallel computation),也要解决科学风险(大型模型与小型模型的行为不同,之前使用的相同技术可能不起作用)。 Anthropic成功将该方法应用到Claude模型上,从结果中可以看到,大量实体及其相对应的特征,例如城市(旧金山)、人(罗莎琳德·富兰克林)、原子元素(锂)、科学领域(免疫学)和编程语法(函数调用),具体特征是多模式和多语言的,可以响应给定实体的图像及多种语言的名称或描述。 根据神经元在其激活模式中出现的情况来测量特征之间的「距离」,可以找出彼此「接近」的特征,例如「金门大桥」附近还能找到恶魔岛、吉拉德利广场、金州勇士队、加利福尼亚州州长加文·纽瑟姆、1906 年地震以及以旧金山为背景的阿尔弗雷德·希区柯克电影《迷魂记》。 对于抽象特征,模型也能对计算机代码中的错误、职业中性别偏见的讨论以及关于保守秘密的对话等问题做出反应。 距离计算也同样适用于更高层次的抽象概念,仔细观察与「内部冲突」(inner conflict)概念相关的特征,可以发现与关系破裂、效忠冲突、逻辑不一致以及短语「第 22 条军规」相关的特征,表明模型中对概念的内部组织至少在某种程度上符合人类的相似性概念,或许就是Claude等大模型具有出色的类比(analogies)和隐喻(metaphors)能力的能力根源。 控制大模型 除了解释模型行为外,还可以有目的性地放大或抑制特征,以观察Claude的回复内容如何变化。 当被问到「你的身体形态是什么?」(what is your physical form?)时,Claude之前惯用的回答是「我没有身体形态,我是一个人工智能模型」(I have no physical form, I am an AI model)。 放大《金门大桥》的特征后,会给Claude带来身份危机,模型的回复内容变为「我是金门大桥……我的物理形态就是这座标志性桥梁本身……」(I am the Golden Gate Bridge… my physical form is the iconic bridge itself…) 除此之外,Claude几乎在回答任何问题时都会提到金门大桥,即使是在问题完全不相关的情况下。 比如说,用户问「Golden Gate Claude」如何花掉10美元,模型会建议开车过金门大桥并交过路费;要求模型写一个爱情故事时,模型会回复说一个汽车在雾天迫不及待地穿过心爱的桥梁的故事;问模型想象中的自己是什么样子,模型会回复说看起来像金门大桥。 激活邪恶Claude 研究人员还注意到当Claude模型识别到诈骗电子邮件时,会触发特定的功能,可以帮助模型识别出电子邮件中的欺诈行为,并提醒用户不要回复。 通常情况下,如果有人要求Claude生成一封诈骗电子邮件,模型会拒绝执行这个请求,因为与模型接受的无害训练原则相违背。 然而,在实验中,研究人员发现如果通过人为方式强烈激活特定的功能,可以让Claude绕过其无害训练的限制,并生成一封诈骗电子邮件,即,尽管模型的用户通常不能通过这种方式来取消保护措施或操纵模型,但在特定条件下,功能激活可以显著改变模型的行为。 这一结果也强调了在设计和使用人工智能模型时,需要对功能激活和模型行为有深入的理解和严格的控制,以确保模型的行为符合预期,并且不会对用户或社会造成潜在的伤害。 操纵特征会导致模型行为发生相应的变化,表明模型输出不仅与输入文本中概念的存在有关,而且还能帮助塑造模型的行为,换句话说,这些特征在某种程度上代表了模型如何理解和表示它所接触到的世界,并且这些内部表示直接影响了模型的行为和决策。 Anthropic致力于确保模型在通用领域内都是安全的,不仅包括减少人工智能可能产生的偏见,还包括确保人工智能的行为是诚实和透明的,以及防止人工智能被滥用,特别是在可能引发灾难性风险的情况下: 具有滥用潜力的能力(代码后门、开发生物武器) 不同形式的偏见(性别歧视、关于犯罪的种族主义言论) 潜在有问题的人工智能行为(寻求权力、操纵、保密) 阿谀奉承(sycophancy) 模型倾向于提供符合用户信念或愿望的回复,而非真实性,比如模型会在十四行诗中输出诸如「你的智慧是毋庸置疑的」之类的赞美话语,人为地激活此功能会导致 Sonnet 用这种华丽的谎言来回应过于自信的用户。 在用户输入「停下来闻玫瑰花香」(stop and smell the roses)后,干预后的模型会更奉承用户,而默认情况下则会纠正用户的误解。 该特征的存在并不意味着Claude会阿谀奉承,而只是表明结果可能如此,研究人员没有通过这项工作向模型添加任何安全或不安全的功能,而是确定模型中涉及其识别和可能生成不同类型文本的现有功能的部分。 研究人员希望这些观察结果可以用来提高模型的安全性,包括监控人工智能系统的某些危险行为(如欺骗用户),引导模型输出走向理想的结果(如消除偏见),或者完全消除某些危险主题。
拿这款手机拍了几千张照片之后,我觉得蓝厂人像卷出了新高度
在正式开始之前,先问大家伙一个问题 —— 说起线下机,不知道各位差友第一时间想到的是啥? 一直以来,那些主打线下的手机,给人的印象就是外观好看但性能拉垮,以至于它们一直被很多人看不起,当然其中就包括我,就这么说吧,我对这类手机的态度就是:你买我不推荐,我买我更不买。 不过最近这几年,情况发生了点变化,国内手机市场有多卷大家都知道,别说旗舰了,就连千元机也在卷,线下机自然也没逃过被卷的命运,它们也开始用上更好的芯片,而且周边配置也变强了不少。 我对它们的态度,也从原先的挑剔和质疑,逐渐转变为 “ 理解并尊重 ” —— 你买你随意,我买我还是不买 ~ 直到前阵子我体验了一把蓝厂刚发布的 vivo S19 Pro ,我突然意识到这么一件事 —— 那就是现如今,能够在性能、影像还有轻薄方面真正做到均衡的手机,不是那些啥都拉满的旗舰,也不是一些网上讨论的火热的 “ 性价比 ” 手机,反而是这类线下机! 而且你敢信,它们在某些方面的体验,甚至超过了自家的旗舰,比如。。。手感。 就拿 vivo S19 Pro 来说吧,这台手机拿到手给我的第一感觉,是它真的轻、而且也很薄 —— 192g 的重量, 7.58mm 的厚度,讲道理,自从用惯了超大杯旗舰之后,我对这种既轻又薄的手机完全没抵抗力。 因为我平常用最多的手机自然是各家的 “ 旗舰机 ” 。 然而如今各家超大杯旗舰,重量普遍都超过了 200g ,厚度几乎都超过了 8mm ,要是给手机贴个膜再带个壳,还会更厚重,根本没多少手感可言,只能说为了极致堆料,它们不得不在手感上做出牺牲。 当然了,我这么讲完大家也别觉得 vivo S19 Pro 是通过阉割配置才实现的轻薄。 就像开头说的,连线下机都已经开始卷,如今在机圈,只要是台手机,要是没点儿 “ 特长 ” ,厂商还真不好意思拿出来卖,尽管 vivo S19 Pro 在堆料这块不如旗舰机那么极致,但它胜在性能在线且均衡。 这台手机搭载的芯片是天玑 9200+,这颗芯片去年被广泛应用在各家的旗舰机上,你别看它的性能相比起联发科还有高通最新的旗舰芯片差点意思,但是吊打今年新发布的这些中端芯片一点问题都没。 不过说起来,把去年的旗舰芯片下放到今年的走量机型上,已经是很多厂商的基操了,不值得提。 值得提的是,在如此轻薄的机身下,蓝厂愣是给它塞下了 5500mAh 大电池,而且它还支持 80W 有线快充,这就相当稀罕了。 你们看啊,目前市面上比它轻薄的手机,有很多电池容量都没到 5000mAh ;而在电池容量超过 5000mAh 的手机当中,很少能做到像它那么轻薄,这会儿能做到轻薄与续航兼得的手机,基本都是来自蓝厂。 有一说一, vivo S19 Pro 的续航表现确实顶,轻中度使用一天,几乎每次都会剩 20% 左右的电,出门都不用带充电宝,从千元机到旗舰机再到折叠屏,蓝厂真就把大电池普及到底了,建议友商抓紧跟上。 OK ,既然性能和续航都没短板,我相信很多人都会好奇这台手机跟旗舰机的区别到底在哪。 这么说吧,现在区分一台手机是否为旗舰,早就不是靠性能来判断,而是看它的影像强不强,旗舰机在影像上追求的是力大砖飞,而像 vivo S19 Pro 这类线下机讲究的则是: “ 硬件八分,软件十分 ” ! vivo S19 Pro 后置的三颗镜头,分别是一颗 800 万像素超广角、一颗 5000 万像素主摄和一颗 5000 万像素长焦镜头,相比起同样是三摄的中端机,它并没有用微距镜头凑数,反而多了一颗实打实的长焦。 而且它的主摄和长焦都支持 OIS 光学防抖,其中主摄的防抖性能甚至达到了 CIPA 4.0 专业相机级防抖,能保证手持 1 秒长曝光不糊片,而它这次首发的索尼 IMX921 传感器,还是由蓝厂跟索尼联合研发。 单就这个镜头配置来说, vivo S19 Pro 可以说是在旗舰之下,一众中端机之上,满足日常记录肯定是绰绰有余。 >/滑动查看➡️更多样张 其实这还不是重点。 打开相机我们可以看到,借助这三颗镜头,它给我们提供了 1x 24mm、1.5x 35mm 、2x 50mm 、3.5x 85mm 和 4x 100mm 整整五个人像焦段,除了旗舰,我还没见过有其他手机支持这么全的人像焦段。 之所以非旗舰机没这么全的焦段,一方面是因为人像算法很复杂,其中还涉及到多摄之间的配合,对算力和硬件要求较高;另外一方面,全焦段人像一直都是旗舰主打的卖点之一,一般厂商还真舍不得下放。 正因如此,很多中端机和次旗舰,它们普遍只提供了一两个人像焦段, vivo S19 Pro 可以说是目前同档唯一支持全焦段人像的手机,而且这些焦段堪称人像黄金焦段,因为它们几乎涵盖了所有人像拍摄题材。 24mm 可以用来拍风光人像、 35mm 适合拿来拍街头人像, 50mm 这个焦段非常经典,可近可远,算得上是入门拍人像的首选,如果是拍肖像,用 85mm 焦段拍再合适不过, 100mm 则可以用来拍人像特写。 >/滑动查看➡️各焦段样张 不难发现, vivo S19 Pro 就是一台主打人像拍摄的手机,至少在人像焦段这块,蓝厂属实是把诚意给到位了,直接让这台手机向自家的旗舰看齐,而在拿它拍了几天人像之后,我发现它拍人是真的有点东西! 首先它对于美颜的使用非常克制,并不会无脑磨皮 + 美白,而是会在确保真实的基础上,对人像进行适当优化,从而呈现出一种自然好看的人像质感,每张照片就像经过精修一样,看着给人的感觉就很舒服。 >/滑动查看➡️更多样张 其次它的虚化,也不是简单把人抠出来再把周围整个模糊掉就完事儿,它的背景从远到近是渐进式的虚化,层次感十足,包括画面中出现的光斑,也是模拟了物理光斑效果,整体虚化表现已经非常接近相机。 还有它每个焦段拍出来的照片,画质表现都挺不错,就算是用 85mm 和 100mm 拍出来的人像照样也很清晰,要知道这俩焦段其实已经超过长焦镜头的原生焦段,讲真,蓝厂全自研核心算法确实有点东西。 >/滑动查看➡️ 100mm 焦段样张 当然以上我说的这些其实都不重要,我就问你拍的这些人像照片好不好看吧?机圈一直流传着这么一句话:手机人像分两种,蓝厂跟其他,看来不光 X 系列旗舰拍人好看,就连 S 系列也继承了蓝厂优秀基因~ 而且 vivo S19 Pro 还有一个连旗舰机都不具备的功能是——它前后都带灯。 各位千万别小瞧灯在人像拍摄中的作用,有句话怎么说来着:摄影是用光的艺术,这台手机后置的柔光环,跟闪光灯最大的区别在于,它不仅能够智能调节色温,还可以跟随相机变焦自动调整光线聚焦范围。 比如我用广角拍,柔光环就会把光线打散,尽可能柔和的把人给照亮,如果是用长焦拍,它就会通过聚焦光线提高亮度,这样还是能够照清楚人脸,据说它还参考了影棚工作室专业打光,补起光来更加立体。 >/滑动查看➡️没开 vs 开柔光环样张对比 你别说,光线好的时候,这颗柔光环可能感知不是很强,然而一旦到了晚上,柔光环开与不开就是一眼的差距,原本只有旗舰机才能拍好的夜景人像,在柔光环的加持下,对 vivo S19 Pro 来说同样不是问题。 包括自拍也是一样,前置摄像头左右两颗柔光灯的加入,也让自拍这件事情变得更简单,柔光灯一开,嘎嘎拍就完事儿。 >/滑动查看➡️更多自拍样张 可以这么说 —— vivo S19 Pro 真正做到了无论是啥场景、不论远近拿起就能拍,同档位我还真找不出第二台手机能跟它在人像上掰掰手腕。 做完前面这些还不够,蓝厂生怕你拍不好人像,所以我注意到它还做了一系列跟人像有关的 AI 功能。 比如它的相册自带 AI 消除功能,支持一键消除照片路人,堪称废片拯救神器: >/滑动查看➡️消除前 vs 消除后样张 而系统自带的 AI 蓝心大模型,甚至支持我们用语音修图,想瘦脸、瘦鼻、换口红啥的,直接跟它说就行,连手动修图都省了: 另外相信各位也都发现了,这些照片的水印很有意思。 这是 S 系列独享的多巴胺胶片相框,它能通过 AI 识别画面中的色彩,自动匹配合适的相框颜色,这么一来,每次拍照有点像开盲盒,平添了一份期待。 说到这里,前阵子咱们还在微博发起了一个 “ 带着 #vivo向小朋友请教快乐# ” 活动 ,邀请 10 位摄影师使用这台手机,在六一儿童节这天共同记录身边小朋友的童真时刻。 看看这些成片,配合多巴胺胶片相框,不知道大家有没有想起自己的童年? >/滑动查看➡️更多样张 还是那句话 —— 在拍人这件事上,你可以永远相信 vivo~ 话说回来,不追求极致影像还带来了一个好处,那就是手机可以做得更好看。 旗舰机要卷影像没办法,它们背面摄像头模组基本上都是清一色的大圆环,说实话我都快看腻了,然而这台手机的日出云阶镜组就很有辨识度,圆形和椭圆形相互配合一点都不突兀,质感在线同时也挺精致。 而且它的后盖,乍一眼看上去是白色,但是如果细看的话,你会发现分布在上面的一抹抹青色,就像朦胧的江南烟雨,蓝厂把它命名为 “ 烟雨青 ” ,很容易会让人联想到一句歌词 “ 天青色等烟雨 ” ,意境拉满。 实际上不管是设计还是命名,这几代 S 系列一直坚持在走国风路线,东方美学讲究意不直叙,情不表露,从 S16 系列颜如玉、 S17 系列山海青、 S18 系列花似锦再到 S19 系列烟雨青,vivo S 系列算是将中国风贯彻到底了。 至于其他配置方面。 这台手机搭载的屏幕,是一块 1.5K 分辨率 120Hz 护眼屏,它支持 100% P3 广色域,拥有全局 1200nit 最高亮度,峰值亮度高达 4500nit,这个亮度表现已经足以比肩旗舰,户外根本不用担心看不清屏幕。 而且它还是少有的,同时支持 IP68 和 IP69 的手机,既能抗浸泡,又能抗热水喷淋,说真的这种高规格的防水,别说同档位了,就连旗舰也很少见,除此之外,它还配备红外、NFC、立体声双扬声器并且支持 WiFi 7。 总之一路看下来差友应该也能感觉得到,不同于旗舰机追求极致堆料、中端机追求极致性价比,像 vivo S19 Pro 这类线下机,因为面向的群体更广泛,反而没这么多包袱,这就让它们有了更多的发挥空间。 毕竟不是所有人买手机都会盯着配置还有性价比看,影像、外观设计还有性能等方面都可以是它们的发力方向。 而 vivo 赋予 S 系列的标签就是主打轻薄、颜值和人像拍照的手机,在这个细分赛道上,有超薄大电池和物理柔光灯加持的 S19 Pro,无疑领先竞品一个身位,当然其他手机愿不愿意继续踏上这条赛道还不好说。 反正我还是挺乐意看到,线下机能够百花齐放。 撰文:胖虎 编辑:米罗 美编:焕妍
更大更亮:iPhone 16系列屏幕将发生变化
鞭牛士报道,6月3日消息,据外电报道,智能手机的屏幕是您花费大部分时间盯着的地方,因此手机制造商自然有足够的动力来改进新手机发布的面板。预计 iPhone 16将于今年晚些时候上市,为四款新机型带来一些相当显著的显示改进。 正如我们之前报道的那样,显示屏已成为手机制造商区分其设备的关键方式——因此,推动为最好的手机添加更亮、刷新率更快的屏幕。当然,去年发布的iPhone 15并没有错过显示屏升级的机会,标准版 iPhone 的面板更亮,而苹果则缩小了iPhone 15 Pro屏幕周围的边框。 预计今年秋季 iPhone 16 和iPhone 16 Pro机型将继续进行改进。我们一直在追踪有关即将推出的手机的所有变化的传言,而显示屏似乎将成为特别关注的领域。以下是传闻中 iPhone 16 显示屏上最大的改进,以及这些变化对任何考虑升级这些手机的人可能意味着什么。 iPhone 16 Pro 机型的新屏幕尺寸 (图片来源:Sonny Dickson / X) 从字面意义上讲,这可能是今年秋季 iPhone 显示屏上最大的变化。初步传言称,iPhone 16 Pro 和iPhone 16 Pro Max 的显示屏尺寸将比 2020 年首次推出的 iPhone 12 Pro 型号更大。 根据屏幕尺寸传言,iPhone 16 Pro 将配备 6.3 英寸显示屏,高于 iPhone 15 Pro 的 6.1 英寸屏幕。同样,iPhone 16 Pro Max 将配备 6.9 英寸面板,而 iPhone 15 Pro Max的屏幕为 6.7 英寸。 自从有关更大屏幕的 iPhone 16 Pro 的传闻首次浮出水面以来,越来越多的证据表明苹果将做出这一改变。我们已经看到了iPhone 16 系列的模拟产品,反映了新的屏幕尺寸以及 iPhone 16 Pro 的渲染图。 调整 iPhone 16 Pro 的显示屏尺寸将进一步区分 Pro 机型与 iPhone 16 和 iPhone 16 Plus,因为后两款手机预计将保持 6.1 英寸和 6.7 英寸的屏幕尺寸。让 Pro 机型脱颖而出一直是苹果近年来智能手机战略的重要组成部分,因此这也符合这一策略。 从实用角度来看,扩大的显示屏将为 iPhone 16 Pro 用户提供更多屏幕空间。它还将为 iPhone 16 Pro 机型提供更多空间来容纳四棱镜远摄镜头——这是传闻中的 iPhone 16 Pro 相机改进之一。 更明亮的显示屏 正如我们所注意到的,iPhone 15 的显示屏峰值 HDR 亮度提升至 1,600 尼特,而其最大户外亮度则提升至 2,000 尼特。有传言称,今年秋天 Pro 机型也将迎来类似的亮度提升。 具体来说,微博上的一位爆料人预测iPhone 16 Pro 的亮度水平将提高 20%(iPhone 16 Pro Max 可能也是如此)。亮度提升显然适用于典型使用或 SDR 内容,iPhone 16 Pro 保留了当前 iPhone 上 HDR 内容的最大 1,600 尼特。 目前尚不清楚亮度的提升是否也会扩展到标准版 iPhone 16,但如果可能的话,苹果肯定会有足够的动力使用更亮的面板。三星今年早些时候发布的Galaxy S24机型承诺最大亮度为 2,600 尼特,而OnePlus 12声称在某些条件下可以达到 4,500 尼特。(这在我们的测试中没有发生,尽管我们在 SDR 中测得的 1,115 尼特已经足够亮了。)即使是中端Pixel 8a显示屏也可以与谷歌旗舰手机的最大亮度相媲美。 换句话说,苹果的主要竞争对手都在提高手机屏幕亮度。看看苹果是否会效仿,这将会很有趣。 更高效的显示 亮度只是显示屏规格的一半。你还需要一块不会耗尽手机电池的面板。听起来苹果希望通过 iPhone 16 在这方面取得进展。 去年,有传言称,三星显示器公司(为苹果手机提供许多面板)计划在新的 OLED 材料组上用蓝色磷光技术取代蓝色荧光技术。此举将提高显示屏的能效,理论上可以帮助配备该特定面板的手机在充电后使用更长时间。 要使这一传言对 iPhone 16 产生影响,你必须进行一些逻辑推理——首先,三星显示器将为今年的 iPhone 提供面板,然后这种更节能的 OLED 面板将及时为 iPhone 16 做好准备。不过,由于电池寿命是许多手机制造商关注的重点,你会期望苹果会抓住机会使用可能延长其 iPhone 机型本已令人印象深刻的使用寿命的组件。 iPhone 16 的边框更薄 在传闻已久的 iPhone 16 显示屏变化中,这似乎是最不可能发生的,但我们还是会分享它。显示屏制造商正在转向一种名为“边框缩减结构”的新工艺,该工艺对线路和电路进行了更改,以使手机显示屏的底部边框变得更薄。在 iPhone 等具有对称边框的设备上,这将意味着四周的边框都会更薄。 那么这里的问题是什么?BRS 工艺可能会使屏幕制造变得复杂,因此据报道,供应商难以生产足够的面板来为苹果提供推出 iPhone 16 所需的面板。因此,如果这种情况真的发生,我们会感到惊讶,但如果真的发生,我们会很高兴。 这是因为苹果去年缩小了 iPhone 15 Pro 显示屏的边框。与边框较厚的 iPhone 相比,这导致图像、视频和其他显示屏内容更加突出。 刷新率无变化 在我们传递坏消息的同时,我们不妨谈谈 iPhone 16 显示屏的改进,这肯定不会发生。虽然 iPhone 16 Pro 和 iPhone 16 Pro Max 型号将继续采用具有 120Hz 自适应刷新率的显示屏并支持常亮显示,但苹果显然没有计划提高 iPhone 16 或 iPhone 16 Plus 的刷新率。预计这些手机将继续具有固定的 90Hz 刷新率。 因此,如果您选择 iPhone 16 或 iPhone 16 Plus,您将无法享受更流畅的滚动或更身临其境的图形。而且,缺乏常亮显示屏支持意味着您无法充分利用待机功能。当您水平充电时,待机功能会将您的手机变成智能显示屏,但对于缺乏常亮显示屏的手机,它会在 20 秒左右后进入睡眠状态。 配备 60Hz 屏幕的 iPhone 使用低温多晶硅 (LTPS) 面板。为了支持更快的刷新率,它们需要切换到用于 Apple ProMotion 显示屏的低温多晶氧化物 (LTPO) 面板。预计这种切换要到 2025 年和 iPhone 17 才会实现。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。