EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
Steam新一周销量榜:《绝地潜兵 2》六连冠,国区《赛博朋克 2077》登顶
IT之家 3 月 19 日消息,V社今天公布了 Steam 平台最新一周销量榜(2024 年 3 月 12 日-2024 年 3 月 19 日),Steam 新一周的全球冠军被《HELLDIVERS™ 2(绝地潜兵 2)》拿下(排除掉免费游戏内容和 Steam Deck)。 IT之家附全球 Top 10 榜单如下: 1. HELLDIVERS™ 2(绝地潜兵 2) 2. Dragon's Dogma 2 3. Tom Clancy's Rainbow Six® Siege(彩虹六号:围攻) 4. Baldur's Gate 3(博德之门 3) 5. 黎明杀机 6. 赛博朋克 2077 7. EA SPORTS FC™ 24 8. Call of Duty®: Modern Warfare® III 9. Red Dead Redemption 2(荒野大镖客 2) 10. 极限竞速:地平线 5 国区 Top 10 榜单: 1. 赛博朋克 2077 2. 极限竞速:地平线 5 3. Red Dead Redemption 2(荒野大镖客 2) 4. HELLDIVERS™ 2(绝地潜兵 2) 5. Dragon's Dogma 2 6. 双人成行 7. Baldur's Gate 3(博德之门 3) 8. Palworld / 幻兽帕鲁 9. EA SPORTS FC™ 24 10. Tom Clancy's Rainbow Six® Siege(彩虹六号:围攻) 《绝地潜兵 2》于 2 月 8 日登陆 PlayStation 5 游戏主机,并通过 Steam 上架 PC 平台。本作是一款科幻背景第三人称多人射击游戏,支持跨平台游玩,玩家将作为“绝地潜兵”投身星系战争,以消除外星威胁。 配置需求方面,这款游戏最低要求英特尔酷睿 i7-4790K 或 AMD R5 1500X 级别的处理器、GTX 1050 Ti 或 AMD RX 470 级别的显卡,推荐使用 i7-9700K 或 R7 3700X 处理器 + RTX 2060 或 RX 6600XT 显卡,推荐 16GB 内存,要求 100 GB 硬盘空间。 Arrowhead Game Studios 首席执行官 Johan Pilestedt 曾透露,为应对日益增长的并发需求,《绝地潜兵 2》服务器容量现已扩充至 80 万 CCU 规格,这种成绩对一个 100 人的小工作室来说可能是个奇迹。
重磅!英伟达官宣全球最强AI芯片:性能提升30倍,并将重新设计整个底层软件堆栈
整理 | 冬梅、Tina、小褚 北京时间凌晨 4:00,大洋彼岸的美国加利福尼亚州圣何塞的圣何塞会议中心,被称为英伟达技术盛宴的 GTC 2024 大会正如火如荼地进行着。作为英伟达 2024 的开年大戏,身着标志性皮夹克的万亿富豪黄教主站在舞台中央,平静地甩出继 H100、A100 后的又一系列“核弹”级超级芯片。 今年的 GTC 之所以万众瞩目,是因为过去一年英伟达在 AI 领域的财务业绩方面取得了巨大成功。从 Volta V100 GPU 系列到最新的 Ampere A100 和 Hopper H100 芯片,该公司一直问鼎 AI 芯片之王。 1GPU 家族再添“新丁”,全新 Blackwell 架构芯片炸场 在本届 GTC 大会开始之前,国外媒体就已经开始盛传:黄仁勋将在 GTC 2024 上发布一款 GPU 家族的新品,果然,采用 Blackwell 架构的 B200 和 GB200 系列芯片如期而至。 据英伟达称,Blackwell 架构系列芯片是迄今为止功能最强大的 AI 芯片家族。 据老黄介绍,B200 拥有 2080 亿个晶体管(而 H100/H200 上有 800 亿个晶体管),采用台积电 4NP 工艺制程,可以支持多达 10 万亿个参数的 AI 模型,而 OpenAI 的 GPT-3 由 1750 亿个参数组成。它还通过单个 GPU 提供 20 petaflops 的 AI 性能——单个 H100 最多可提供 4 petaflops 的 AI 计算。 但值得注意的是,Blackwell B200 并不是传统意义上的单一 GPU。它由两个紧密耦合的芯片组成,这两个芯片通过 10 TB/s NV-HBI(Nvidia 高带宽接口)连接进行连接,以确保它们能够作为单个完全一致的芯片正常运行。 该 GPU 平台以数学家 David Harold Blackwell 的名字命名,继承了英伟达两年前推出的 Hopper 架构,基于该架构一系列产品使英伟达的业务及其股价飙升。 该架构在 AI 安全方面又向前迈进了重要一步。Blackwell 通过 100% 系统内自测试 RAS 服务和全性能加密提供安全的 AI,也就是说数据不仅在传输过程中安全,而且在静止状态和计算时也安全。 Blackwell 将被整合到英伟达的 GB200 Grace Blackwell 超级芯片中,该芯片将两个 B200 Blackwell GPU 连接到一个 Grace CPU。英伟达没有透露价格。 新芯片预计将于今年晚些时候上市。英伟达表示,AWS、戴尔科技、谷歌、Meta、微软、OpenAI 和特斯拉计划使用 Blackwell GPU。 “生成式人工智能是我们这个时代的决定性技术,”老黄在演讲时表示。“Blackwell GPU 是推动这场新工业革命的引擎。与世界上最具活力的公司合作,我们将实现人工智能对每个行业的承诺。” 英伟达还发布了 GB200 NVL72 液冷机架系统,其中包含 36 颗 GB200 Grace Blackwell 超级芯片,拥有 1440 petaflops(又名 1.4 exaflops)的推理能力,它内部有近两英里长的电缆,共有 5000 根单独的电缆。 英伟达表示,与用于推理用途的相同数量的 H100 Tensor Core 图形处理单元相比,GB200 NVL72 性能提升高达 30 倍。此外,该系统还可将成本和能耗降低多达 25 倍。 GB200 NVL72 例如,训练一个 1.8 万亿参数模型之前需要 8000 个 Hopper GPU 和 15 兆瓦的功率。如今,只需要 2000 个 Blackwell GPU 就可以做到这一点,而功耗仅为 4 兆瓦。 在具有 1750 亿个参数的 GPT-3 基准测试中,英伟达表示 GB200 的性能是 H100 的 7 倍,训练速度是 H100 的 4 倍。 此外,英伟达称还将推出一款名为 HGX B200 的服务器主板,它基于在单个服务器节点中使用 8 个 B200 GPU 和一个 x86 CPU(可能是两个 CPU)。每个 B200 GPU 可配置高达 1000W,并且 GPU 提供高达 18 petaflops 的 FP4 吞吐量,因此比 GB200 中的 GPU 慢 10%。 目前,企业客户可以通过 HGX B200 和 GB200(将 B200 GPU 与 英伟达的 Grace CPU 结合在一起)访问 B200。 2全面升级软件服务 市场正在升温,硬件和软件方面的竞争都在加剧。在本次 GTC 中,英伟达不仅通过新的硬件创新来应对竞争,还展示了其 AI 软件战略如何帮助确定其在该领域的领导地位,以及未来几年将如何发展。 黄仁勋还着力推销其 AI 软件订阅服务包,这显然是在配合该公司向“以软件卖硬件”的新战略,也是在与过往的“以硬件卖软件”的战略彻底告别。 英伟达可以访问所有领域的大量模型,但他们认为对于企业来说它们仍然太难使用。他们推出了 Nvidia 推理微服务(NIM),将模型和依赖项整合到一个简洁的包中,根据用户的堆栈进行优化,并与易于使用的 API 连接。 经过打包和优化的预训练模型,可在 NVIDIA 的安装基础上运行,包含运行它所需的所有软件。CUDA 库、API 等,基本上是容器化的 AI 软件包,针对 NV GPU 进行了优化,并带有一个简单的 API 来访问它们。 老黄指出:“这就是我们未来编写软件的方式”——通过组装一堆人工智能。 老黄我们介绍了英伟达如何使用 英伟达推理微服务(NIM)创建一个内部聊天机器人,旨在解决构建芯片时遇到的常见问题。“我们需要一个模拟引擎,以数字方式为机器人呈现世界,”他说,这就是 Omniverse。这些“微服务”将允许开发人员使用专有和自定义模型快速创建和部署“副驾驶”或人工智能助手。 他表示,机器人技术与人工智能和 Ominverse/Digital Twin 工作一起成为英伟达的关键支柱,所有这些都共同努力以充分利用公司的系统。 据悉,Omniverse 是一个专为构建和操作 Metaverse 应用程序而设计的平台,本质上是人们可以交互、工作和创建的共享虚拟世界。Omniverse 平台可以创建数字孪生和高级模拟。英伟达对 Omniverse 的愿景包括成为 Metaverse 的基础平台,创作者和企业可以在共享虚拟空间中进行协作。在 Omniverse 中创建的数字孪生可用于 Metaverse 中的各种应用,例如虚拟培训、产品设计和预测性维护。 老黄表示英伟达已经推出了数十种企业级生成式 AI 微服务,企业可以使用这些服务在自己的平台上制作应用程序,同时保留对其知识产权的完全所有权和控制权。 老黄还宣布将 Omniverse Cloud 流传输至 Apple Vision Pro 耳机。 他也表示,英伟达表示正认真考虑从根本上重新设计整个底层软件堆栈,希望借 AI 之力为人类生成更优质的代码。 之所以会有这样的想法,原因非常简单:几十年来,整个世界一直受制于围绕 CPU 发展出的传统计算框架,即由人类编写应用程序以检索数据库中准备好的信息。 黄仁勋在发布会上指出,“我们今天的计算方式,首先需要确定信息是由谁编写、由谁创建的,也就是要求信息先要被记录下来。” 而英伟达的 GPU 为加速计算开辟出一条通往算法化计算的新路,可以依托创造性推理(而非固有逻辑)来确定相关结果。 此外,英伟达希望通过发布另一个新的 API 集合 Project GROOT 来推动人形机器人的开发。 Project GROOT 是一个人形机器人模型,英伟达与 Jetson Thor 一起生产,Jetson Thor 是一款 SoC,也是 Nvidia Isaac 的升级版。英伟达表示,GROOT 机器人将理解自然语言并模仿人类动作来学习灵活性。Jetson Thor 运行基于 Blackwell 的 GPU,可在 8 位数据处理中提供 800 teraflops 的 AI 性能。 老黄透露,由该平台驱动的机器人将被设计为能够理解自然语言并模仿机器人的动作,观察人类行为。这使 GROOT 机器人能够快速学习协调性、灵活性和其他技能,以导航、适应现实世界并与之互动——并且绝对不会导致机器人叛乱。 “为通用人形机器人构建基本模型是我们当今人工智能领域能够解决的最令人兴奋的问题之一,”老黄说。“这些使能技术正在融合在一起,使世界各地领先的机器人专家能够在人工通用机器人领域取得巨大飞跃。” 3对开发者的影响 根据专家预测,五年之后,文本、图像、视频和语音等形式的信息将全部被实时输入大语言模型(LLM)。届时计算机将直通所有信息源,通过多模态交互不断实现自我改进。 黄仁勋表示,“未来,我们将步入持续学习的时代。我们可以决定是否部署持续学习的成果,而且与计算机的交互不会再借助 C++。” 这就是 AI 技术的意义所在——人类可以在推理之后,要求计算机生成代码以实现特定目标。换句话说,未来人们可以用简单的语言、而非 C++ 或者 Python,与计算机实现顺畅交流。 “在我看来,编程本身的价值正在悄然跨过历史性的衰退拐点。”黄仁勋还补充称,AI 已经在弥合人类与技术之间的鸿沟。 “就在当下,约有上千万人凭借自己的计算机编程知识来谋取职位、赚得收益,而余下的 80 亿人则被他们远远甩在身后。未来的情况将有所改变。” 在黄仁勋看来,英语将成为最强大的编程语言,而个性化交互则是缩小技术鸿沟的关键因素。 生成式 AI 将成为一种宏观层面的操作系统,人类可以在其中用简单的语言指示计算机创建应用程序。黄仁勋表示,大语言模型将帮助人类通过计算机把自己的灵感转化为现实。 例如,人类已经可以要求大语言为特定领域的应用程序生成 Python 代码,且全部提示内容均使用简单英语编写而成。 “我们要如何让计算机按自己的想法做事?我们要如何在计算机上实现指令微调?这些问题的答案就是提示词工程,而且更多是种艺术、而非单纯的技术。” 也就是说人类将可以专注于领域专业知识,而生成式 AI 将补齐编程技能这块短板。黄仁勋认为这将彻底颠覆软件的开发格局。 黄仁勋此前曾将大语言模型比作经过预培训且头脑灵光的大学毕业生。英伟达正围绕大模型提供医疗保健与金融等领域的专业知识,借此为企业客户提供高效支持。
史上最强AI芯片面世:干翻英伟达
AI大模型飞临,英伟达趁机火了一把,但世界没有永远的王位,英伟达GPU跌下神坛终有时。昨日,就有一个挑战者逆势而上。 3月14日,OpenAI创始人山姆·奥尔特曼曾投资的美国初创公司Cerebras Systems发布了他们的第三代晶圆级AI加速芯片“WSE-3”(Wafer Scale Engine 3),这款芯片的单颗面积达到了约46225平方毫米,是通常芯片面积的50倍以上,比一本书的面积还要大。 别看它大,但在功耗、价格不变的前提下性能却是翻了一番。在这个“超大号”芯片面前,英伟达的GPU简直弱爆了。 性能是H100的8倍 这种巨大的芯片被称为晶圆级芯片(Wafer Scale),简单解释就是在一片晶圆上能切多大芯片,就造多大芯片。 随着新一代芯片增加晶体管密度变得越来越困难,芯片制造商正在寻找其他方法来提高处理器的性能,造大就是一条可行之路。 这家专造大芯片的公司Cerebras Systems已经坚持造出两代产品,此次产品是第三代产品。此前,EEWorld历史文章《“最大”的芯片,都长什么样?》中也有提到该公司。 2019年的第一代WSE-1基于台积电16nm工艺,面积46225平方毫米,晶体管1.2万亿个,拥有40万个AI核心、18GB SRAM缓存,支持9PB/s内存带宽、100Pb/s互连带宽,功耗高达15千瓦。 2021年的第二代WSE-2升级台积电7nm工艺,面积不变还是46225平方毫米,晶体管增至2.6万亿个,核心数增至85万个,缓存扩至40GB,内存带宽20PB/s,互连带宽220Pb/s。其核心面积就已经达到了46225平方毫米,是彼时最大的GPU核心面积的56倍。2022年,Cerebras Systems生产的芯片被硅谷计算机历史博物馆收藏。 如今的第三代WSE-3再次升级为台积电5nm工艺,晶体管数量继续增加达到惊人的4万亿个,而相比之下,英伟达H100芯片所包含的晶体管数量只有800亿个。AI核心数量进一步增加到90万个,缓存容量达到44GB,外部搭配内存容量可选1.5TB、12TB、1200TB。 乍一看,核心数量、缓存容量增加的不多,但性能实现了飞跃,峰值AI算力高达125PFlops,也就是每秒12.5亿亿次浮点计算,堪比顶级超算。 它可以训练相当于GPT-4、Gemini十几倍的下一代AI大模型,能在单一逻辑内存空间内存储24万亿参数,无需分区或者重构。 尽管WSE-3芯片核心数量、缓存容量增加的不多,但性能实现了飞跃,峰值AI算力高达125PFlops,也就是每秒12.5亿亿次浮点计算,堪比顶级超算。用它来训练1万亿参数大模型的速度,相当于用GPU训练10亿参数。四颗并联,它能在一天之内完成700亿参数的调教,而且支持最多2048路互连,一天就可以完成Llama 700亿参数的训练。 值得一提的是,Cerebras Systems放出了与英伟达H100性能参数的详细对比,公司介绍页信息显示,在人工智能训练加速方面,该芯片的性能是H100的8倍。 不止如此,该公司表示,Cerebras平台比NVIDIA的平台更易于使用。原因在于Cerebras存储权重和激活的方式,并且不必扩展到系统中的多个 GPU,然后扩展到集群中多个 GPU 服务器。 WSE-3的具体功耗、价格暂未公布,根据上代情况来看,应该在200多万美元。 阿联酋 G42 财团已表示将打造基于 Cerebras CS-3 的 Condor Galaxy 3 超算,包含 64 个系统,可提供 8 exaFLOP 的 AI 算力。 公开信息显示,Cerebras Systems是一家美国AI芯片独角兽公司,公司成立于2016年,主要致力改变芯片计算核心架构,提升芯片集成度,简化集群连接等相关领域的研究以及深度学习的芯片产品的研发。Cerebras Systems的最新一笔融资发生在2021年,由Alphawave Ventures和阿布扎比增长基金(ADG)领投,融资金额2.5亿美元。截至该轮融资,Cerebras融资总额7.2亿美元,公司估值超40亿美元。 同样值得关注的是,Cerebras Systems的投资团队可谓"大佬"云集,其中包括OpenAI创始人山姆·奥尔特曼(Sam Altman),AMD前CTO Fred Weber以及Benchmark、Coatue Management、Eclipse Ventures等多家明星投资机构。 “大芯片”,中国也在造 不光是国外,国内同样关注大芯片。 今年1月,中国科学院计算所科研团队开发了一种用于全新的计算处理器“大芯片”,相关论文被发表在《基础研究》杂志。 这是一款基于RISC-V架构的 256 核多芯片,并计划将该设计扩展到 1600 核,以创造整个晶圆大小的芯片,以作为一个计算设备,该芯片名为“浙江大芯片”。 据介绍,该芯片设计由 16 个小芯片组成,每个小芯片包含 16 个 RISC-V 内核,并使用片上网络以传统的对称多处理器 (SMP) 方式相互连接,以便小芯片可以共享内存。每个小芯片都有多个芯片到芯片接口,可通过 2.5D 中介层连接到相邻的小芯片,研究人员表示,该设计可扩展到 100 个小芯片,或 1600 个内核。 “浙江大芯片”基于Chiplet架构设计,采用 22 纳米级工艺技术制造,目前还不确定使用中介层互连并在 22 纳米生产节点上制造的 1,600 个核心组件会消耗多少功率。不过,由于延迟的减少,这将极大地优化其功耗和性能。 对于大芯片,研究团队提出了一系列愿景,例如光电计算、近内存计算以及3D堆栈式缓存和主内存,不过中科院并未明确指出他们正在研究的具体方向和交付的时间表。
蚂蚁集团启动组织升级,任命韩歆毅为集团总裁
红星新闻记者获悉,3月19日,蚂蚁集团董事长兼CEO井贤栋发布全员信,宣布新一轮组织架构升级:韩歆毅将出任蚂蚁集团总裁,全面负责数字支付、数字互联和数字金融业务,向董事长兼CEO井贤栋汇报。蚂蚁国际、OceanBase和蚂蚁数科分别成立董事会,独立面向市场。 井贤栋在全员信中说,这次组织升级,是为了进一步加快改革步伐,推进蚂蚁“AI First”、“支付宝双飞轮”、“加速全球化”三大战略。调整延续了蚂蚁面向市场变革组织阵型、推动管理团队年轻化的策略,将进一步激发组织活力。 公开信息显示,韩歆毅于2014年5月加入蚂蚁集团担任投资部资深总监,2020年4月担任蚂蚁集团首席财务官(CFO),2023年1月进入董事会任执行董事。蚂蚁方面表示,韩歆毅在过去多年来深入参与业务,在蚂蚁集团的战略决策中扮演重要角色,此次就任集团总裁主抓“支付宝双飞轮”战略,属于水到渠成。 蚂蚁方面还表示,从2022年开始,支付宝经过一系列变革,已经发展出数字支付和数字互联两大业务板块。在加强支付产品持续创新基础上,聚焦互联网用户和商家数字化需求,通过内容化、数字化形成新的商业生态,并拥抱新技术变革创造更好体验。此次组织变革,正顺应了这一业务结构的变化,也会迎来蚂蚁集团对支付宝更大的战略投入。 红星新闻记者了解到,除了支付宝,蚂蚁的科技和全球化业务也有重大调整。近年来,蚂蚁持续推进科技和全球化战略,孵化出了蚂蚁国际、OceanBase、蚂蚁数字科技等创新业务板块。井贤栋透露,三家公司已经开始独立运营,并分别成立董事会,实行董事会领导下的CEO负责制。 在三个创新业务板块,蚂蚁启用了多位有科技、全球化背景的管理新面孔。 据披露,蚂蚁国际董事长、CEO分别由井贤栋、杨鹏担任。杨鹏从戴尔科技加入蚂蚁后,在支付宝任职多年,带领并推动了支付宝数字民生服务的持续创新发展,具有丰富的行业经验和国际视野。OceanBase、蚂蚁数科的董事长由蚂蚁原CTO倪行军担任,CEO分别为杨冰、赵闻飙。杨冰2009年加入蚂蚁,是蚂蚁集团自主研发技术的核心贡献者之一;赵闻飙拥有上海交通大学和美国罗格斯大学的双博士学位,获得及申报技术专利120余项,是智能风控、安全科技领域的权威专家。蚂蚁数科原负责人蒋国飞因个人生活和工作规划,不再担任总裁一职。 全员信透露,三家公司引入了更匹配创业型组织的股权激励工具,在2024年启动授予,让员工在做出更大担当的同时更强关联地分享业务发展成果。与此同时,蚂蚁依然会在公司治理、技术、风控、资本四个层面,为三家公司的长期可持续发展提供支持。 井贤栋在信中说,今天的组织升级,只是蚂蚁未来无数次成长中的一次。他表示,蚂蚁体系内还有很多新兴业务正在孵化和成长,比如医疗健康服务、芝麻信用、小荷包等,未来将创造环境鼓励更多新业务新物种跑出来,并独立面向市场,为社会创造更大价值。 红星新闻记者 胡沛 (下载红星新闻,报料有奖!)
2024年315晚会点名“手机换新废旧主板”信息泄露问题
IT之家 3 月 15 日消息,“20 块手机主板就能集成一个主板机了,一台电脑可以投屏上百台手机,可以一 IP 多机或者一机一 IP”。 在目前正在进行的 315 晚会上,CCTV 点名了利用“手机换新废旧主板”组装的主板机设备,一个人就能控制 20 款手机,相关主板机除了违法外,还容易导致信息泄露。 IT之家从晚会节目中注意到,厂家宣称,“他们的产品可以将 20 块手机主板,安装在同一个主板机箱内,组装成一台主板机,一台机子就可以控制 20 部手机”。这些广告甚至宣称:他们制造的主板机,不断叠加起来,就可以组建成千上万台手机的网络矩阵,有这样的设备,可以操纵游戏、操纵发帖数量,操控网络投票,可谓“你就是网络世界里可以操控一切的王者”。 在知情人士的指点下,315 晚会记者来到云机侠(深圳)科技有限公司,机房负责人董经理称,他们使用主板机就是看中了能够随意更改账户的 IP 地址,“包括号,包括 IP,包括硬件,包括脚本,这些都不是问题”。 能够批量操作大量的手机,还不会有被监管的风险,主板机在网络灰产和网络黑产中热销。而使用这些机器的人,究竟是谁呢?记者多方寻找,几经周折,终于在一家名为云承未来科技有限公司,碰到了一位前来购买主板机的刘经理,他是某电商平台的推广负责人,工作内容就是广发信息,推广获客: 我只要有你的号码,陌生人发发发,发完就是群链接。海量的信息推广,上钩的消费者还是很多的。
清华大学研究团队:日本核污水将于下月抵达中国海域,最先到达这个省
快科技3月19日消息,据国内媒体报道,日本自2023年8月24日起正式启动福岛核污水排海,去年累计共排放约2.3万吨。 而经过大半年的洋流运动,日本核废水也即将影响到我国海域。 今日上午,一则“有研究模拟日本核污水排海扩散过程:240天到达中国沿海,1200天后覆盖北太平洋”的消息,引发网友热议。 该研究来自清华大学的团队,早在2021年,清华大学就污水排放做了核废水在太平洋扩散机理的实验。 据清华大学团队模拟日本核污水排海的结果显示,核污水将在240天后到达我国沿海。 路径上看,日本核污水预估将于2024年4月20日到达浙江,4月25日到达上海,并一路北上蔓延至山东、辽宁等沿海省份。 据悉,中国此前一直是日本水产品最大的进口国,但由于日本福岛周边海域连续检测出放射性物质铯超标的海产品,中国海关总署自2023年8月24日起全面暂停进口原产地为日本的水产品。 对于日本核污水排海对人体带来的健康影响,目前还无法准确评估,但这种不负责任的做法,可能带来的潜在健康风险,却是切实存在的。 此外,日本今年年初就已宣布,2024年会继续向海洋排核废水,日本东京电力公司计划在2024财年内,分七次向海洋排放共计约54600吨福岛第一核电站核污染水。 据悉,因为2011年3月11日日本福岛大地震,福岛核电站被摧毁,为了冷却核电机组而引入海水冷却,从而产生了大量核废水。 这些核废水被特制的容器保存起来,10多年来,已累计有137万吨之多,日本政府决定分批次排入海洋,有业内人士预估,排放周期可达30年之久。 日本福岛核电站储存核废水的容器
苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人
机器之心报道 机器之心编辑部 苹果也在搞自己的大型多模态基础模型,未来会不会基于该模型推出相应的文生图产品呢?我们拭目以待。 今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。此前在 2024 苹果股东大会上,苹果 CEO 蒂姆・库克表示,今年将在 GenAI 领域实现重大进展。此外,苹果宣布放弃 10 年之久的造车项目之后,一部分造车团队成员也开始转向 GenAI。 如此种种,苹果向外界传达了加注 GenAI 的决心。目前多模态领域的 GenAI 技术和产品非常火爆,尤以 OpenAI 的 Sora 为代表,苹果当然也想要在该领域有所建树。 今日,在一篇由多位作者署名的论文《MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training》中,苹果正式公布自家的多模态大模型研究成果 —— 这是一个具有高达 30B 参数的多模态 LLM 系列。 该团队在论文中探讨了不同架构组件和数据选择的重要性。并且,通过对图像编码器、视觉语言连接器和各种预训练数据的选择,他们总结出了几条关键的设计准则。具体来讲,本文的贡献主要体现在以下几个方面。 首先,研究者在模型架构决策和预训练数据选择上进行小规模消融实验,并发现了几个有趣的趋势。建模设计方面的重要性按以下顺序排列:图像分辨率、视觉编码器损失和容量以及视觉编码器预训练数据。 其次,研究者使用三种不同类型的预训练数据:图像字幕、交错图像文本和纯文本数据。他们发现,当涉及少样本和纯文本性能时,交错和纯文本训练数据非常重要,而对于零样本性能,字幕数据最重要。这些趋势在监督微调(SFT)之后仍然存在,这表明预训练期间呈现出的性能和建模决策在微调后得以保留。 最后,研究者构建了 MM1,一个参数最高可达 300 亿(其他为 30 亿、70 亿)的多模态模型系列, 它由密集模型和混合专家(MoE)变体组成,不仅在预训练指标中实现 SOTA,在一系列已有多模态基准上监督微调后也能保持有竞争力的性能。 具体来讲,预训练模型 MM1 在少样本设置下的字幕和问答任务上,要比 Emu2、Flamingo、IDEFICS 表现更好。监督微调后的 MM1 也在 12 个多模态基准上的结果也颇有竞争力。 得益于大规模多模态预训练,MM1 在上下文预测、多图像和思维链推理等方面具有不错的表现。同样,MM1 在指令调优后展现出了强大的少样本学习能力。 方法概览:构建 MM1 的秘诀 构建高性能的 MLLM(Multimodal Large Language Model,多模态大型语言模型) 是一项实践性极高的工作。尽管高层次的架构设计和训练过程是清晰的,但是具体的实现方法并不总是一目了然。这项工作中,研究者详细介绍了为建立高性能模型而进行的消融。他们探讨了三个主要的设计决策方向: 架构:研究者研究了不同的预训练图像编码器,并探索了将 LLM 与这些编码器连接起来的各种方法。 数据:研究者考虑了不同类型的数据及其相对混合权重。 训练程序:研究者探讨了如何训练 MLLM,包括超参数以及在何时训练模型的哪些部分。 消融设置 由于训练大型 MLLM 会耗费大量资源,研究者采用了简化的消融设置。消融的基本配置如下: 图像编码器:在 DFN-5B 和 VeCap-300M 上使用 CLIP loss 训练的 ViT-L/14 模型;图像大小为 336×336。 视觉语言连接器:C-Abstractor ,含 144 个图像 token。 预训练数据:混合字幕图像(45%)、交错图像文本文档(45%)和纯文本(10%)数据。 语言模型:1.2B 变压器解码器语言模型。 为了评估不同的设计决策,研究者使用了零样本和少样本(4 个和 8 个样本)在多种 VQA 和图像描述任务上的性能:COCO Cap tioning 、NoCaps 、TextCaps 、VQAv2 、TextVQA 、VizWiz 、GQA 和 OK-VQA。 模型架构消融试验 研究者分析了使 LLM 能够处理视觉数据的组件。具体来说,他们研究了(1)如何以最佳方式预训练视觉编码器,以及(2)如何将视觉特征连接到 LLM 的空间(见图 3 左)。 图像编码器预训练。在这一过程中,研究者主要消融了图像分辨率和图像编码器预训练目标的重要性。需要注意的是,与其他消融试验不同的是,研究者本次使用了 2.9B LLM(而不是 1.2B),以确保有足够的容量来使用一些较大的图像编码器。 编码器经验:图像分辨率的影响最大,其次是模型大小和训练数据组成。如表 1 所示,将图像分辨率从 224 提高到 336,所有架构的所有指标都提高了约 3%。将模型大小从 ViT-L 增加到 ViT-H,参数增加了一倍,但性能提升不大,通常不到 1%。最后,加入 VeCap-300M (一个合成字幕数据集)后,在少样本场景中性能提升超过了 1%。 视觉语言连接器和图像分辨率。该组件的目标是将视觉表征转化为 LLM 空间。由于图像编码器是 ViT,因此其输出要么是单一的嵌入,要么是一组与输入图像片段相对应的网格排列嵌入。因此,需要将图像 token 的空间排列转换为 LLM 的顺序排列。与此同时,实际的图像 token 表征也要映射到词嵌入空间。 VL 连接器经验:视觉 token 数量和图像分辨率最重要,而 VL 连接器的类型影响不大。如图 4 所示,随着视觉 token 数量或 / 和图像分辨率的增加,零样本和少样本的识别率都会提高。 预训练数据消融试验 通常,模型的训练分为两个阶段:预训练和指令调优。前一阶段使用网络规模的数据,后一阶段则使用特定任务策划的数据。下面重点讨论了本文的预训练阶段,并详细说明研究者的数据选择(图 3 右)。 有两类数据常用于训练 MLLM:由图像和文本对描述组成的字幕数据;以及来自网络的图像 - 文本交错文档。表 2 是数据集的完整列表: 数据经验 1:交错数据有助于提高少样本和纯文本性能,而字幕数据则能提高零样本性能。图 5a 展示了交错数据和字幕数据不同组合的结果。 数据经验 2: 纯文本数据有助于提高少样本和纯文本性能。 如图 5b 所示,将纯文本数据和字幕数据结合在一起可提高少样本性能。 数据经验 3:谨慎混合图像和文本数据可获得最佳的多模态性能,并保留较强的文本性能。图 5c 尝试了图像(标题和交错)和纯文本数据之间的几种混合比例。 数据经验 4:合成数据有助于少样本学习。如图 5d 所示,人工合成数据确实对少数几次学习的性能有不小的提升,绝对值分别为 2.4% 和 4%。 最终模型和训练方法 研究者收集了之前的消融结果,确定 MM1 多模态预训练的最终配方: 图像编码器:考虑到图像分辨率的重要性,研究者使用了分辨率为 378x378px 的 ViT-H 模型,并在 DFN-5B 上使用 CLIP 目标进行预训练; 视觉语言连接器:由于视觉 token 的数量最为重要,研究者使用了一个有 144 个 token 的 VL 连接器。实际架构似乎不太重要,研究者选择了 C-Abstractor; 数据:为了保持零样本和少样本的性能,研究者使用了以下精心组合的数据:45% 图像 - 文本交错文档、45% 图像 - 文本对文档和 10% 纯文本文档。 为了提高模型的性能,研究者将 LLM 的大小扩大到 3B、7B 和 30B 个参数。所有模型都是在序列长度为 4096、每个序列最多 16 幅图像、分辨率为 378×378 的情况下,以 512 个序列的批量大小进行完全解冻预训练的。所有模型均使用 AXLearn 框架进行训练。 他们在小规模、9M、85M、302M 和 1.2B 下对学习率进行网格搜索,使用对数空间的线性回归来推断从较小模型到较大模型的变化(见图 6),结果是在给定(非嵌入)参数数量 N 的情况下,预测出最佳峰值学习率 η: 通过专家混合(MoE)进行扩展。在实验中,研究者进一步探索了通过在语言模型的 FFN 层添加更多专家来扩展密集模型的方法。 要将密集模型转换为 MoE,只需将密集语言解码器替换为 MoE 语言解码器。为了训练 MoE,研究者采用了与密集骨干 4 相同的训练超参数和相同的训练设置,包括训练数据和训练 token。 关于多模态预训练结果,研究者通过适当的提示对预先训练好的模型在上限和 VQA 任务上进行评估。表 3 对零样本和少样本进行了评估: 监督微调结果 最后,研究者介绍了预训练模型之上训练的监督微调(SFT)实验。 他们遵循 LLaVA-1.5 和 LLaVA-NeXT,从不同的数据集中收集了大约 100 万个 SFT 样本。鉴于直观上,更高的图像分辨率会带来更好的性能,研究者还采用了扩展到高分辨率的 SFT 方法。 监督微调结果如下: 表 4 展示了与 SOTA 比较的情况,「-Chat」表示监督微调后的 MM1 模型。 首先,平均而言,MM1-3B-Chat 和 MM1-7B-Chat 优于所有列出的相同规模的模型。MM1-3B-Chat 和 MM1-7B-Chat 在 VQAv2、TextVQA、ScienceQA、MMBench 以及最近的基准测试(MMMU 和 MathVista)中表现尤为突出。 其次,研究者探索了两种 MoE 模型:3B-MoE(64 位专家)和 6B-MoE(32 位专家)。在几乎所有基准测试中,苹果的 MoE 模型都比密集模型取得了更好的性能。这显示了 MoE 进一步扩展的巨大潜力。 第三,对于 30B 大小的模型,MM1-30B-Chat 在 TextVQA、SEED 和 MMMU 上的表现优于 Emu2-Chat37B 和 CogVLM-30B。与 LLaVA-NeXT 相比,MM1 也取得了具有竞争力的全面性能。 不过,LLaVA-NeXT 不支持多图像推理,也不支持少样本提示,因为每幅图像都表示为 2880 个发送到 LLM 的 token,而 MM1 的 token 总数只有 720 个。这就限制了某些涉及多图像的应用。 图 7b 显示,输入图像分辨率对 SFT 评估指标平均性能的影响,图 7c 显示,随着预训练数据的增加,模型的性能不断提高。 图像分辨率的影响。图 7b 显示了输入图像分辨率对 SFT 评估指标平均性能的影响。 预训练的影响:图 7c 显示,随着预训练数据的增加,模型的性能不断提高。
印度裔女博士造出会飞的电动船,马斯克抢着试驾
作者丨临风 编辑丨海腰 图源丨Sampritii领英分享 继新能源汽车后,电动船(Electric Boats)开始创投两旺,许多资本也纷纷“下水”一探究竟。 有厂商把电动船插上了翅膀。电动水翼船带着“节能”、“环保”的标签进入民用市场,在水上交通“卷”了起来。据Marketingmarinas,Candela(瑞典)、Navier(美国)、Brunswick Corporation(美国)是电动水翼技术领域三个出名的生产商。 其中,Navier将未来的水上出租看做关键市场。麻省理工博士、航空航天工程师Sampritii Bhattacharyya和船舶爱好者、海事领域工程师Reo Baird在2019年联合创立了Navier。团队内还有美洲杯帆船赛工程师兼水翼专家Paul Bieker和前谷歌、Uber前飞行控制主管Kenny Jensen。 这家休闲电动水翼船制造公司在2022年2月获得过720万美元的种子轮,领投方是Treble、Global Founders Capital,参与投资的有Next View、Liquid2、Soma Capital、Precursor Ventures。 据说,今年2月底,马斯克抽出时间驾驶了Navier的电动船。他对Sampritii说:“这才是建造船的正确方法,电动+飞行。”上周,Tim Draper也上船试了一下,留下评价:非常顺畅(This is smooth as silk!)。 图源:Sampritii领英分享 飞起来的电动船 “汽车已经在迈向电动化的路上,电动飞机也抬上了日程,我们的目标是在海上空间实现电动化”,Navier的CTO Kenneth Jensen表示。 去年9月,前SpaceX工程师创办的Arc Boats交付了第一款电动船Arc One,操作屏幕和方向盘和特斯拉很相似,220千瓦时电池,续航5小时,承载12人,“水上特斯拉”这一概念激起大众热烈讨论。 有评论认为,电动船这一目标不好实现,因为其所需电池数量可能高于电动汽车,加上水对船体的外阻力会让船消耗更多的能量。以及,现在码头的充电桩并不普及,海上没有充电器,将极大限制电动船的里程。 而水翼船电动化后,至少可以解决阻力问题。 水翼和机翼的原理差不多,当船的速度逐渐增加,船舶能从水里“飞”起来。维基百科介绍,水翼船是一类特殊设计的船舶,船身底部有支架,装上水翼类似飞机机翼提供升力,将船身抬离水面(被称为“水翼航行”),减少摩擦阻力,提升船的速度和燃油效率,有表面穿透式和全浸式两类。 图源:维基百科 相较传统船舶,水翼船的飞行状态迎风升力,具有高速性能,能适应不同深浅的水域。 船只的水翼设计并非近年才有。1845年,纳维-斯托克斯方程使造水翼船成为可能,这也是Navier命名由来。波音早在上世纪七十年代开发了全浸式水翼船JetFoil用于客运服务。2021年,专为美洲杯帆船赛设计的水翼船AC75在比赛中留下了惊人的53.3节航速。 图源:Americascup官网,AC75 Navier将休闲船舶电气化,它不仅能让水翼“飞行”,还结合了智能软件系统。这类船只航行时浪潮小,具有稳定、快速、安静、环保、智能等特点。Navier称,“有了电池和水翼,船的能源效率是燃气动力船的10倍,飞起来的船可以开辟海上运输新途径”。 图源:Navier N30产品手册 Navier的运营主管Sam Seder在Stage3 Media Works的交通技术栏目中展示了Navier N30的内外布局。这艘船不使用任何燃料,充电周期为快充1小时或常规电源6至8小时。据Sam称,美国在许多码头已经安装了船体充电器。 图源:Stage3 Media Works,Navier N30起飞行驶效果 Navier称,N30是全球续航里程最长的全电动水翼船。据介绍,2023年,Navier N30推出,巡航速度20节,最大速度30节,最大航程75海里(86英里),可以承载8人,有双90kW的电动机推进。充电方式是岸边充电(夜晚期间电压240伏特)。船上配的专门的水冷外置发动机,由Cascadia公司制造。 在航行时,Navier N30会以16节的速度“起飞”。其船长30英尺,船重650磅,利于飞行。据介绍,它可以侧向行驶并向任何方向移动,水翼可以升降、锁定,以适应不同的水深。吃水深度为2至5.5英尺,水翼可伸缩,在浅水区航行时会收起水翼,当水翼完全展开时,可自我调节稳定性。 船内每种设施都是两个,包括屏幕、发动机、电池、操纵杆等,且每个发动机都是独立控制,以确保船只在航行和停靠时有备用方案。船头屏幕是主动控制船舶系统,自动控制水翼升降,显示水面距离、船速、发动机转速和航向等,船尾由旋转门隔开。 图源:Navier 实际上,动力划艇界受水翼启发的不止Navier一家。2023年1月,Candela在CES展会上秀出了28英尺的电动快艇(C-8水翼船,Polestar 69kWh电池组,一次充电航程57海里),Navier展示了30英尺N30水翼船的模型(航程75海里),在航程和大小上“反将一军”。同一周,Artemis又展示了EF-12(纯电动水翼船,载客8人,41英尺,最高时速34节,巡航60海里),与一样瞄准公共交通的发展。 图源:marketingmarinas,图为Candela C-8 Navier表示,它的核心优势是软件驱动。Kenneth Jensen解释,“驾驶船的人不需要知道任何航行的知识,计算机会完成剩下的工作。”Navier专有的操作系统HIRO结合传感器和智能控制系统,驾驶人可以靠其规划行程、一键停靠和控制操纵杆。 其程序借鉴了自动驾驶系统、无人机(军用、摄影)等领域的技术,能从多个传感器获得海浪情况、船内体重分布及飞行员指令,从而对水翼进行专业调整。尽管Navier的船有非常多复杂的部件,而智能的软件控制系统让用户能像驾驶普通船一样操作。 Sampriti描述,Navier正在为46%的密集人口的沿海城市开辟有效的海上交通,将与其他公司合作在旧金山湾区运营N30水上出租车。 不过,这水上出租的价格不亲民。N30 Open型号售价37.5万美元,相当于1.45艘Arc最新版电动快艇。其他高级型号售价45万美元、55万美元。 图源:Navier 据悉,2022年Navier与知名造船厂Lyman-Morse合作Navier 27、N30的生产。Lyman-Morse的总建造师Lance Buchanan指出,Navier的船采用超轻叠层碳纤维材质。如此复杂的项目,设计和建造过程却比平时短——从概念到零件不到一年时间,其中许多零件是3D打印生产。 据Maineboats,Navier在2023年接到了15个高级型号的订单,截至2024年第二季度的订单已售罄。 从物理挂科到MIT航天博士 仅4年,Navier将电动水翼船从概念变为现实,并成功售卖。创始人Sampritii Bhattacharyya表示,他们的目标是将水路变成高速公路。 Navier要做的事很酷,就像它的创始人一样,有厚积薄发、快意人生的气势。 Sampriti是一位美丽的印度裔女性,出生于加尔各答。 图源:seattletimes 高中时,她的学习不好,数学成绩不行,物理甚至没有及格。Sampriti回忆,他人眼中她被安排好的人生:“我的老师说,你未来最好能成为一名家庭主妇。在印度,作为女性,你嫁给谁是你一生中最大的荣耀,如果你有大学学位就更好了。” 但她相信乔布斯的一句话:“世界不是由比你和我更聪明的人建造的,为什么不去做一些大胆的事呢?” 中学时,Sampriti对太空非常着迷,期望能走出地球探索未知,所以在后来的13年,她专研机械、工程,抓住一切能够学习的机会。 高中毕业后,她就读于加尔各答西孟加拉理工大学,这所学校不出名,但培养了印度许多在STEM领域杰出的人才。20岁的她也第一次接触网络,据描述,Sampritii会在搜索引擎上搜索任何带有“internship”的网页,并向她能看到的所有机会发送了540封冷邮件(未经对方同意、未建立联系的电子邮件)。 “我在邮件里表明自己的能力和动向,‘嘿,我是一名大二的学生,我想要重新设计火星探测车,这是我的草图’,有4封回复邮件,也只有1封真正回应、解决了我的问题。”大三时,Sampritii拿到的实习机会是在美国 Fermilab(费米实验室)担任实习研究助理。有网友推测,费米实验室的实习机会很难得到,Sampritii一定在大学期间电气工程学业优异或掌握过硬实际技能才有机会进入。 在费米实验室,她将全部精力用于研究物理、工程学,做电源调节、压电致动器控制、超导磁体传感器控制,积累了研发、测试和维护科学设备的经验。 Sampritii表示,实习经历是她人生中的重要转折点,她身边的同龄人带给她更大的思想转变。回到印度,Sampritii没有按部就班地结婚,跟家里人关系不好,她独自完成了一次环印度的背包旅行,体会到生命的可贵。 “当你有足够的目标感和使命感时,那你就去做,即使这感觉有点可怕。” 2010年,她前往美国俄亥俄州立大学读研,学航空航天工程,同时学核工程。这期间,她在印度Tata实验室设计了低成本、高精度的多传感器板,填补了商业板过于昂贵的空白。后前往NASA实习,在2个项目中做飞行器控制系统的工程实施和分析。 硕士毕业后,Sampritii又花了5年继续申请进修,拿到哈佛大学、麻省理工学院的商业辅修学位,以及麻省理工的哲学及机械工程博士学位。 在她读博期间,2014年,马航坠机的新闻吸引了她的注意力,“我们一直在说一起去火星,结果我们连一架迷失在海底的大型飞机都找不到,太神奇了。”那时起,Sampritii的注意力转向了海洋,研究用于检测能源系统的水下无人机。 据MIT新闻,2014年,Sampritii和博导Harry Asada一起研究,用3D打印机做了潜水机器人的主要部件,该机器人用于寻找核反应堆的水箱裂缝或走私者的假船体、螺旋桨轴。 在此基础上,她的发明Hydro swarm(水下无人机)获得专利,能在没有GPS的地方绘制水下污染地图、探索深海。同时期,Sampritii在波士顿成立了同名公司将其商业化,《经济时报》、《卫报》报道她的无人机Evie。 图源:《卫报》,Sampritii和水下无人机产品 业务增长不定,筹集资金困难,第一家公司运营失败,这没有让Sampritii灰心。2019年,她有一个想法:电动制造更快、更节能,而航海领域一直没有推动创新的关键技术。如果将电气化运用到海事,可能会有无限市场,就像给跑马时代带来了一辆汽车。 “(2005年到2017年)在过去的13年,我学会了很多,并有信心解决任何问题”,Sampritii很有自信,“不管是做核反应堆,还是做飞行器,或者是造一艘飞船。” 20岁,Sampritii第一次触碰到互联网,寻求世界之外更大的可能性。 28岁,她入选了《福布斯》全球30名最有影响力的年轻变革者。 34岁,她在棕榈滩国际游艇展发布了Navier 27,希望为全球提供一种新型运输方式。这艘船8.23米长,巡航速度18节,可行使75海里,50kW双电动发动机,预购开放1个半月首批船舶15艘全部售出,售价30万美元一艘。 此外,她还拿到了来自Sergey Brin(谷歌创建者之一)、Adam draper(Boost VC)等人的投资。Sampritii表示,实际上Sergey是(团队之外)第一个驾驶Navier水翼船的人。 将水道变成高速公路 在Sampritii眼中,埃隆·马斯克是最正统、最专注于建设和工程的CEO,用第一性原理建造了Space X和特斯拉这两家公司,解决正确的问题。 Sampritii在领英表示:“我也用第一性原理方法构建 Navier。”她从3个方面给出解释:一是Navier解决电动船的瓶颈,比传统船舶更好,二是Navier将为世界上沿海城市的人扩展清洁的运输方式,三是提振美国海运。 思考清楚后,她搬到了旧金山,结合了她航空航天的梦想和水下产品经验,创办Navier,做电动水翼船。 马斯克不会一步登上火星,同样,Navier也要分3步走。 第一步,解决技术问题,把效率高于传统船舶10倍的电动船给造出来。 “每个人都认为我不可能在5年内造一艘30英尺的船,这大概要5000万美元才能做到。”Sampritii再次在融资时碰壁,筹集了约1100万美元。但她知道,这个问题必须打破,要让人们相信,即使没有准备几千万美元,Navier也可以大幅降低成本建造下一代船舶。 她组建了一支强劲的人才队伍,到现在有10人,加上工程师团队约有65人。初创时招募了她的联合创始人Reo Baird,麻省理工工程硕士,船艇爱好者。 图源:maineboats,Navier初期团队 在2020年,水翼船已是个老早的概念,电动水翼船也不是新鲜事——Artemis在2018年就做出了能无风前行的水翼电动赛艇,那怎样做出差异化? 他们发现竞争对手在水翼的末端上没有襟翼,而是靠旋转两翼来控制方向,这样并不稳定、可控。 “所以,我们研发了智能系统,这是多年来机器学习和系统控制创新的用武之地”,Navier团队成员表示,系统控制是船舶起飞、稳定的关键所在。Reo和Sampritii共同主导了带有系统功能的两艘全尺寸原型船开发。2023年7月,Silicon Valley Girl栏目造访Sampritii,看到了依然保留了细节的原型船。 图源:Silicon Valley Girl 据Navier概念视频,在之后的Navier27规划中,船内设有智能自动驾驶仪及航空航天级水翼控制系统,传感器辅助操纵杆。Sampritii认为,如果把海洋生态系统以通信数据的方式连接起来,开发工作应用程序满足海洋应用,将能在海运领域绘制一片蓝图。 2021年7月,她请到了Paul Bieker担任首席船舶建筑师,这位美洲杯老将有20年赛船制作经验,是水翼船专家。从那年夏天开始,Navier27才真正开始建造。 有了控制系统,有了造船人,也得有懂高科技船舶的人让电动船飞起来。Sampritii看中了Kenny Jensen——加州伯克利物理学博士,前Google、Kitty Hawk、Uber首席控制系统工程师。他“能让一切东西飞起来”,2008年,Kenny在Makani Power工作时设计利用无人机收集高空风能。Kenny连续拒绝Sampritii多次,最终被说服前来挑战水下交通,并在Reo走后接替担任Navier CTO。 第二步,快速量产,并将带有智能体系的船售往市场,并进入DFM(Design for Manufacturing),让全球买得起Navier。同时,销售解决Navier的现金流问题。船内收集的数据将反哺技术开发,持续升级船的自主控制系统。2022年,Navier 27仅能小额数量定制。据TechCrunch,Navier计划到2024年将产量提到400多艘。 第三步,他们要将水道变成与陆地交通媲美的高速公路。“在某种程度上,这几乎是一个笑话,但这确实是Navier的核心所在,打造适应更多需求的海上船只”,Sampritii说。 总的看来,Navier的水翼船正在解决两个问题,船的运营成本和水上运输的便利性问题,并且速度很快。 2022年初,Navier N30的设计稿还存于纸面,一年不到便有了全尺寸原型,期望作为水上出租车服务于更短、需求更频繁的航线。 他们也做出了实际行动。据报道,Navier签署协议与Stripe合作,将其员工从拉克斯珀运送到Oyster Point附近的办公室。这段路穿过旧金山市中心,最顺利的情况1小时车程,乘船则只需要半小时。 图源:bloomberg “无论运人员还是货物,电动水翼船是最快、最具成本效益的方式从A点到达B点。而至少,Navier要通过这些船(stripe接送船)建立交通网络,让每个码头成为交通枢纽。因为想要续航里程够长,就必须这样做。” Sampritii表示,Navier最终会超越沿海航线,去到更远的地方。
英伟达带来最强AI芯片,资本市场却泼了点冷水
在股价上呈现追赶苹果之势的英伟达,先在产品上学了苹果一招。 北京时间3月19日对外发布的B200 GPU芯片上,英伟达首度采用了芯片封装设计,即在一个大芯片上集成了两个相同制程工艺的小芯片。 如何在无法提升制程工艺的前提下,实现芯片性能的进一步突破?苹果在2022年的MI Ultra芯片上率先给出了解题思路——将两个M1 Max芯片组合在一起,构成了MI Ultra,在同样制程工艺基础上实现了性能的提升。 被黄仁勋视为地表最强AI芯片B200发布后,包括微软执行董事长兼首席执行官萨提亚·纳德拉、Alphabet和谷歌首席执行官桑达尔·皮查伊、亚马逊总裁兼首席执行官安迪·贾西等一众云服务厂商大佬纷纷站台支持。 特斯拉及xAI首席执行官埃隆·马斯克也不吝溢美之词:“当下的AI领域,英伟达硬件无可比拟。” 在生成式AI这股火爆趋势中充当“AI军火商”的英伟达,凭借此前发布的A100、H100等GPU,股价自2023年迎来暴涨,总市值相继迈过1万亿美元、2万亿美元,目前成为仅次于微软和苹果的美股第三大上市公司。 英伟达的另一面,在AI领域投入较慢的公司,则正在承受掉队的代价。在移动互联网时代执牛耳的苹果,一度是标普500指数中贡献最大的一家公司。受困于在生成式AI布局方面的迟缓,苹果股价年内累计下跌近10%,总市值从3万亿美元高点滑落至当前的26826亿美元。 但面对年内不到一个季度,股价便累计暴涨近八成的英伟达,资本市场也开始产生分歧,部分机构从看涨变为套现离场,如方舟投资管理公司基金经理凯茜·伍德(人称“木头姐”)。 看着英伟达股价几乎每天都在创造新纪录,近期,瑞穗证券分析师Jordan Klein在一份报告中提醒道,“感觉有点不健康,让人想起1999年和2000年疯狂的科技市场心态。” 随着投资者“恐高”情绪的蔓延,Jordan Klein等分析师试图给过热的市场降温。花旗更是在报告中指出,英伟达面临的回调风险正在加剧。 在资本市场已经显现出分化局面的情况下,尽管有B200芯片的全新加持,英伟达当天股价也经历了一波大涨到微涨的变化,股价涨幅从盘中超4%,下落至收盘后的0.7%。 盘后,英伟达股价下跌1.76%。 面对每一次技术浪潮带来的市场变革,50 Park Investments创始人兼首席执行官亚当·萨兰表示,“我们一次又一次地看到当投资者被当下的技术创新理念所吸引时,逻辑就会被抛到一边。当感性占据上风,股价就有无限上涨空间。” 英伟达,无疑正成为当下投资者理性与感性博弈的风暴中心。 继两年前推出Hopper架构后,英伟达带着全新一代的Blackwell再次震撼AI界,黄仁勋希望以此开启AI的变革时刻。 基于Blackwell架构开发的B200芯片,在制程工艺上延续了H100的5nm,不过为了尽最大可能提升算力,英伟达在B200上首度采用了封装工艺,B200由两个基于台积电4NP工艺的Blackwell GPU组合而成,总晶体管数量达到2080亿个,是H100(800亿)的2倍多,且能够提供高达20 petaflops的算力,是H100(4 petaflops)算力的5倍。 (左为B200,右为H100) 性能提升的同时,B200在成本和能耗上,相比H100,最高可以降低25倍。叠加B200搭配的8颗HBM3e内存,最大可支持10万亿参数模型的训练。作为对比,OpenAI的GPT-3 模型参数为1750 亿,据黄仁勋透露,GPT-4模型参数约为1.8万亿。 以训练一个1.8 万亿参数模型的GPT-4为例,之前需要用8000个Hopper GPU干的活儿,现在用2000个Blackwell GPU就能做到,且功耗还减少至原来的约1/4,即从15 兆瓦降至4兆瓦。 如果想要更强性能,用户只需把两个B200 GPU与一个Grace CPU相结合,就能搭建为GB200超级芯片,其可以为大语言模型的推理环节提升30倍的工作效率。 在具有1750 亿个参数的 GPT-3 LLM 基准测试中,GB200的性能是H100的7倍,训练速度则是H100的4倍。 值得一提的是,Blackwell并非某一款芯片的专属名,而是指代英伟达的新一代芯片平台。基于该平台,英伟达提供有多种服务器节点规格,性能从小到大依次为:HGX B100,HGX B200,以及GB200 NVL72。 HGX B100配备x86 CPU和8个B100 GPU。HGX B200使用8个B200 GPU 和1个x86 CPU。最强大的GB200 NVL72系统,则配备36颗Grace CPU和72块Blackwell GPU,具有1440Peta FLOPSde FP4 AI 推理性能,和720 Peta FLOPS的FP8 AI训练性能。 “一个GB200 NVL72机柜可以训练27万亿参数的模型。”黄仁勋介绍道。这意味着,一个GB200 NVL72机柜,便可以撑起约15个GPT-4参数规模的大模型。 不过,英伟达并未明确给出B200芯片的具体上市时间和价格,只表示将于今年晚些时候发货。届时,亚马逊、谷歌、微软和甲骨文,将成为首批提供Blackwell芯片驱动的云服务提供商。 除了制程工艺上的停滞,会让外界担忧英伟达继续保持AI芯片领先姿态的持久性外,高涨的AI热情可能带来的库存挑战,也让部分投资机构打起退堂鼓。 “以2017年为例,那时加密货币行业的兴起导致对英伟达GPU需求激增,一度导致市场对其需求过于旺盛,即市场参与者急于购买GPU,以至于出现了超出正常需求的多倍订购,这最终导致了库存积压。每当我听到为了应对短缺而进行双倍订购、三倍订购、四倍订购时,我都会远离。” 现实层面,一众大公司的确在争相抢购英伟达芯片:扎克伯格宣布要建立一个“大规模计算基础设施”,到2024年底将包括近60万个GPU储备,其中涵盖35万张英伟达H100显卡;亚马逊也开始筹划建设世界上最快GPU推动的AI超级计算机,计划配置超过1.6万张英伟达GH200超级芯片。B200芯片发布后,亚马逊率先表态,称AWS已计划采购由2万张GB200超级芯片组建的服务器集群。 在越来越多大公司以高于实际需求而抢购英伟达芯片之际,后者供货的速度却远远达不到预期。 在四季度财报会上,黄仁勋再次提醒道,来自供应链的短缺,正加剧芯片供应现状。 无论是上一代H100,还是全新一代的B200,都需要用到HBM内存。生成式AI爆发之前,因为成本高昂,HBM模式并未得到大规模市场化,全球预备产能并不多。目前SK海力士独占HBM近一半市场份额,即便加上新入局的三星和美光,其能否满足英伟达需求都成问题,更何况还要将原本就捉襟见肘的产能,分润给英伟达的竞品,如谷歌、AMD等自研AI芯片。 HBM环节之外,一颗英伟达AI芯片的最终诞生,还需要经过台积电的CoWoS封装。在5nm工艺节点下,目前仅有台积电可以大规模量产CoWoS先进封装。原本供应H100都不够用的CoWoS封装产能,如今还得给同样采用5nm的B200让路。 而不论是HBM还是CoWoS,想要进一步提升产能,都至少需要近一年的时间提前规划。 因供不应求而无法满足市场需求的英伟达,也给后来者留下了竞争的生存空间,AMD、谷歌、微软、亚马逊、Meta等已有的友商之外,一些新的竞争对手仍在不断赶来。 进入2024年,奥特曼开始喊出7万亿美元的芯片全产业链制造计划,软银创始人孙正义被爆出正寻求高达1000亿美元资金,计划打造抗衡英伟达的AI芯片巨头。 随着越来越多公司加入AI芯片产品研发队列,不排除会进一步加剧未来市场上的AI库存压力。 相比芯片库存所带来的远期泡沫,不少投资者在英伟达不断刷新纪录的股价面前,已经开始出现“恐高”情绪,越来越多的声音试图给过热的市场降温。花旗报告中指出,投资市场呈现出过度乐观和“一边倒”的趋势,股市面临的回调风险加剧。 瑞穗证券分析师Jordan Klein表示,投资者似乎陷入了“纯粹的追逐模式”,这种市场行为导致半导体股价格不断走高,形成了一种“自我强化”的趋势。“投资者应该记住,英伟达等AI芯片股‘不可能每天都上涨’,就像最近看起来不自然的行情那样。” “木头姐”率先付诸行动。从2023年四季度开始,木头姐抛售英伟达的力度逐渐加大。对于抛售行为,木头姐对外解释:“2014年,多数投资者还把英伟达视作一家PC游戏芯片公司,我们就选择以5美元的价格买入。如今,英伟达的收益已经超过了150倍,我们选择获利了结。” 在3月份致股东的一封信中,木头姐进一步对英伟达敲响警钟,警告其惊人的增长可能会放缓。“从长远来看,与思科的历史轨迹相异,英伟达的竞争环境可能会更加严峻。这不仅仅是因为部分竞争对手正在逐步取得市场成功,更关键的是,英伟达的主要客户,包括云服务提供商和特斯拉等公司正在积极设计自主的人工智能芯片。” 自2000年互联网泡沫破裂后,思科股价在随后几年内暴跌约90%,此后一直未能回到互联网泡沫巅峰时期。在木头姐看来,今天的英伟达,就是昨天的思科。“正如当年思科交换机和路由器引发互联网革命一样,英伟达是推动人工智能革命发展的关键公司,所以它的股价也会经历较大的起伏和波动,就像思科在股市上经历的那样。” 但相比思科当年高达100倍的市盈率,以及频繁的大额投资和收并购行为,当前的英伟达市盈率仍维持在不到30倍低水平,同时借助其不断增长的营收和利润,英伟达资产负债表也要好于思科。 但正如Jordan Klein所言,没有一家公司的股价会一直上涨。投资者谁也不敢保证自己会不会买在了高点。
奥特曼专访自曝全新GPT-5细节:性能跃升超想象
性能就是模型的一切!Altman首次公开曝料:GPT-5将会有史诗级提升,小看它的公司都会被碾压。而未来,AI将成为推动文明发展的核心动力。 大家可能还没从刚刚开源的Grok中回过味来。 外媒就又曝料了,Altman首次公开表示: GPT-5提升将非常大!任何低估这一点的人和公司都将被碾压。 Altman前段时间发推暗示今年OpenAI的产品将会改变人类历史。 他硅谷出席一个活动时在现场表示: GPT-5的性能提升的程度将超出预期。 GPT每次开发下一个模型时,都强调需要更多新特性,因此,日常生活的各个领域以及商业中的很多板块都不可避免地被取代和消失。 GPT的局限是什么?我会很自信地说「没有局限」。我们相信,GPT模型没有任何限制,如果投入足够的计算资源,构建超越人类的AGI并不困难。 而这一观点,似乎和前段时间也同为「LLM乐观派」DeepMind CEO Hassabis采访时的表态有分歧。 在Hassabis看起来,在达到AGI之前,在算法上还需要有突破,并不是靠Transformer就能解决一切问题。 GPT-5提升巨大,力大砖飞就能达到AGI Altman在硅谷和韩国记者采访团交流时说: 许多初创公司很高兴地认为GPT-5只会取得微小的进展,而不是重大的进步(因为这样认为似乎会有更多的商业机会),但我认为这是一个很大的错误。 就像技术剧变降临时会经常发生的那样,这些低估GPT-5能力的初创公司将被下一代模型「碾压」。 这是Altman第一次在公开场合对GPT-5的性能如此明确而自信地发表评论。 Altman现在眼里只有AI 而且,Altman个人似乎除了「构建通用人工智能」之外,对于其他技术没有任何兴趣。 他说自己对人工智能以外的其他技术的兴趣似乎已经减弱,包括区块链和生物技术。 过去,我对世界上发生的一切都抱有广阔的视角和开放的心态,因此能看到聚焦视角下看不到的事情。 不幸的是,现在我完全专注于人工智能,因此很难有其他的兴趣点了。 除了思考下一代人工智能模型之外,我最近花最多时间的领域是「算力建设」,因为我越来越相信计算将成为世界上最重要的货币。 然而,世界还没有为足够的计算做好规划,并且未能面对这个问题,思考如何以尽可能低成本的构建大量算力,是人类想要达到AGI过程中需要面对的重大挑战。 AI是人类未来的最强抓手 而Altman表示,在达到AGI之后,可能算力就不是一个特别大的问题了。AI几乎可以解决一切和发展有关的问题。 AGI最令我兴奋的是,我们通过科学发现开发人工智能的速度越快,我们就能越快找到解决方案,使核聚变发电成为现实。 通过AGI进行的研究将带来可持续的经济增长。 我认为这几乎是人类社会未来唯一的驱动力和决定因素。 当被问到,如果人类产生的数据跟不上AI开发速度,数据短缺会不会阻碍AI的进步。 Altman说: 从长远来看,人类产生的数据可能会变得不足。 我们需要一个能够用更少的数据学习更多东西的模型。 不过,Altman说,他现在无法确定GPT-5发布的具体时间。 Fridman访谈 Altman在Fridman的博客中,又透露了很多和这一年来他在领导OpenAI追寻AGI的感悟,内容都是干货,大家千万别错过。 我相信,在未来,计算能力将成为一种新的「货币」。我预见它将成为世界上最珍贵的资源之一。 在Fridman问他OpenAI宫斗是不是未来AGI权力斗争的缩影: 通往AGI的道路肯定会充满激烈的权力角逐。世界会……嗯,不是会,我是说我预计这就是未来的景象。 关于Ilya在哪里? 那么关于 Ilya 的问题,我可以问你吗?他是不是被关在某个秘密核设施里作为人质? -No 那么普通的秘密基地呢? -No 是一个不涉密的核设施? -肯定也不是 Ilya并没有在OpenAI内部看到了AGI: Ilya从来没有见过通用人工智能(AGI)。我们任何人都还没有。我们也还没造出通用人工智能。 不过,Ilya身上有很多让我敬佩的品质,其中一个就是他非常重视关于通用人工智能及其广泛的安全问题,这包括它可能对社会造成的影响。 随着我们不断地取得显著进展,这几年我最多的时间都是和Ilya一起讨论这将意味着什么,我们需要怎么做才能确保做得正确,以保证我们的使命能够成功完成。 所以,虽然Ilya没有见过AGI,但他对确保我们在这个过程中行得正、走得稳的深思熟虑和忧虑,对人类来说是一份宝贵的贡献。 关于和马老板的关系和最近的官司 我真的不清楚这到底是怎么一回事。最初,我们只认为自己将成立一个研究实验室,对这项技术未来的发展毫无头绪。 那是七八年前的事了,现在想回忆起当时的情况真的很难,那个时候语言模型还没成为热门话题。 我们甚至还没想到要开发一个 API 或者卖聊天机器人的访问权限。我们也没有想过要将其产品化。 当时我们的想法就是,「我们就去做研究吧,至于研究成果能用来做什么,我们并不清楚。」我想在探索完全新颖的事物时,你总是摸着石头过河,制定一些假设,而这些假设大多数最终都被证明是错误的。 他觉得 OpenAI 快要失败了。他想要完全控制权来挽救局面。但我们想要继续沿着现在 OpenAI 所走的方向前进。他还想要特斯拉能够开展一个AGI(人工通用智能)项目。 他在不同时间点有过多种想法,包括把 OpenAI 变成一个他能控制的盈利性公司,或者是让它与特斯拉合并。我们并不同意这样做,于是他决定离开,这也挺好的。 看,我的意思是,在人们指出Elon这样做有点伪善之前,Grok是没有开源过任何东西的。 然后,他宣布 Grok 将在本周开始开源一些东西。我认为对他来说,这件事并不仅仅是关于是否开源的问题。 在谈论Sora时Altman说到了未来人类和AI互动的方式: 人们总是在讨论,五年内人工智能会取代多少工作岗位。他们的出发点通常是,目前的工作中有多大比例会完全被人工智能所替代? 但我个人的看法并不是围绕人工智能会做多少份工作,而是在未来某个时间点,它们能执行多少种任务。 想一想,经济活动中的所有五秒钟、五分钟、五小时乃至五天的任务,有多少是人工智能可以完成的? 我认为,这个问题比单纯问人工智能能取代多少工作要更加有意义、影响深远和重要。 因为人工智能是一个工具,它将在不断延长的时间跨度内、以越来越高的复杂度来执行越来越多的任务,这让人类能够在更高层次上进行抽象思考。 也就是说,人们在自己的工作中可能会变得更加高效。 而这种变化,随着时间的推移,不仅仅是量的改变,它还意味着质的变化——我们能在脑海中构思何种问题。对于 YouTube 上的视频,我觉得情况也是如此。 很多视频,或许是大多数视频,在制作过程中会运用到人工智能工具,但它们的核心仍然是由人来思考、构思、负责部分执行,并指导整个项目的运作。 当被问到Q*等所谓的秘密项目时,Altman基本全盘否认了: OpenAI 并不擅长保守秘密。如果我们能够做到的话,那就太好了。我们一直受到很多泄密事件的困扰,真希望我们能有这样的本事做出这些东西来。 我们涉猎的研究领域五花八门。我们之前已经提过,我们认为增强这些系统的推理能力是一个重要的发展方向,是我们很想深入探索的。到目前为止我们还没彻底攻克这个难题,但我们对此充满了极大的兴趣。 网友热议GPT-5:等到花儿也谢了 而网友们对于Altman的言论似乎有着非常理性的看法:认为仍然认为GPT-5的发布将是有史以来最具影响力的事件之一。 如果表现不佳,将会影响所有对大模型能力增长的预测,所有科技+指数+货币都会大幅重新估值。 然而,如果它像GPT-3到4那样有很大的提升,人类将见证历史。 也有好事的网友在Altman的报道下面@了马库斯,让他赶紧来评论一下。 无数网友也在哭诉,GPT-5再不来人要熬没了😂
1 秒破百!特斯拉最强超跑联动 SpaceX,年内亮相
你不应该打听别人的药方,这是相当隐私的。 当被问及「吸毒」问题时,马斯克突然变得很恼火。他表示,处方氯胺酮有助于治疗他偶尔发作的抑郁症,这是合理的服药行为,甚至对公司和投资者有益。 氯胺酮(Ketamine)通常呈白色粉末,且英文名称的第一个字母是 K,故俗称「K 粉」,今年 1 月,有媒体爆出特斯拉和 SpaceX 的高管们越来越担心马斯克吸食消遣性毒品氯胺酮。 马斯克称,这是医生给他开的处方,来帮助他摆脱消极的心态。「我的工作量很大,通常每天工作 16 个小时,」他补充道。 本周一,马斯克在接受 CNN 前主持人 Don Lemon 长达一个小时的采访时,首次回应了自己的「嗑药」丑闻,特斯拉的高销量,成为了他的论据。 被提及的还有第二代 Roadster,马斯克声称,新的原型车将在今年年底亮相,计划于 2025 年正式量产。同时他还强调了特斯拉和 SpaceX 的合作,表示 Roadster 将采用「某种火箭技术」。 我认为,唯一能比 Cybertruck 更酷的,就是将特斯拉和 SpaceX 的技术结合起来,创造出一种超越汽车的概念产品…… 一种前所未闻的东西。 零百 1 秒,要用火箭来完成? 上个月,马斯克罕见地透露了特斯拉第二代 Roadster 的最新进展。 马斯克表示,这辆纯电跑车可以在 1 秒内从静止加速到 60 英里每小时(约 96.56 公里每小时),凭借这一成绩,Roadster 将成为目前世界上加速最快的汽车。「它甚至不能算是一辆汽车了。」马斯克说。 当 Lemon 问及 Roadster 是否是飞行汽车时,马斯克的回答只是「也许吧」,它「不会有大机翼」,取而代之的是一个「SpaceX 选装包」。 SpaceX 为特斯拉的新跑车提供的选装包将含有 10 个小型火箭推进器,它们环绕汽车周围,能够大大提高车辆的加速能力、最高时速、制动和转弯,也许还能让特斯拉飞起来…… 其实马斯克早在 2019 年就在当时的 Twitter 上表示 SpaceX 的推进器能够让 Roadster 四轮悬空 当然,马斯克的此番言论也引来了诸多质疑,有人认为,对于汽车来说,零百加速低于 1 秒几乎是一件不可能的事。然而,另一家以生产高性能电动超跑著称的公司 Rimac 的创始人 Mate Rimac 表示,从理论上讲,实现这一目标并非不可能。 如果使用推进器的话,确实有可能做得到,我们做过仿真模拟。 目前地表最快的纯电汽车正是 Rimac 的 Nevera,该车在测试中仅花费 1.74 秒就达到了 60 英里每小时的速度,极速能够去到 412 公里每小时。 可惜的是它没有推进器。 Rimac 表示,要在一秒内跑到 60 英里每小时,车轮大约需要 30000 牛米的扭矩,而这光靠电机恐怕难以做到。另一方面,大功率电机通常伴随着大重量,而重量又会拖慢车辆的加速。如此看来,马斯克的「SpaceX 选装包」似乎是个最优解。 不过,给车子装上推进器,倒也不是一件新鲜事。 寻血猎犬 Bloodhound SSC 是一辆英国制造的高速陆地车辆,旨在打破世界陆地速度纪录。该项目自 2008 年启动以来,经历了多个开发、测试、财务困难,最终在 2018 年末破产。而后,约克郡企业家 Ian Warhurst 伸出援手,购买了资产和知识产权,并将项目更名为 Bloodhound LSR。 ▲Bloodhound SSC 首次公开测试 2019 年,在马斯克的老家南非,Bloodhound LSR 用一台 Eurojet EJ200 喷气发动机达到了 1011 公里每小时的时速。EJ200 是一款军用涡扇喷气发动机,能够产生超过 20000 磅(约 90 千牛)的推力,主要用于欧洲的台风战斗机。 ▲吉利也曾参与该项目的研发,Bloodhound SSC 的车身上可以找到吉利汽车的徽标 除了 EJ200 喷气发动机,Bloodhound 团队原计划还要使用一款由挪威 Nammo 公司设计的火箭推进器来提供额外的推力,以帮助车辆达到目标速度——超过 1000 英里每小时,即 1609 公里每小时。 遗憾的是,到了 2020 年,因为众所周知的原因,Bloodhound 项目搁浅,拥有双喷气发动机的 Thrust SSC 依旧保持着它的陆地速度纪录——1227.986 公里每小时。它创下这一纪录的时间,还是在 1997 年。 当然了,特斯拉 Roadster 的目标并非打破最速纪录,其官方极速「仅有」250 英里每小时,约 402km/h。另一方面,Roadster 也没有用到涡喷发动机和火箭推进器,而是一种名为「低温空气推进器」(Cold Air Thruster)的东西。 这是一种利用压缩空气作为推进剂的技术,通过快速释放压缩空气产生巨大推力,理论上可以为汽车提供瞬间的加速推力,超越传统内燃机或电动汽车的能力。 但不要被马斯克误导了,在航天领域,火箭升空靠的可不是高压空气,而是依赖于化学推进剂的燃烧来产生推力。然而,高压空气或其他气体的释放确实有着它的应用场景,例如卫星的姿态控制。 卫星姿态控制实际上广泛使用了压缩气体来进行微调方向,通过精确控制喷嘴的开启和关闭来调整卫星的姿态和轨道。由于不需要复杂的燃烧过程,这样的系统非常适合于需要精细控制的应用场景。 转念一想,超跑的车身动态不也需要「精细控制」吗?所以电机+推进器注定是超跑的最优解?马斯克的路子走对了? 这倒未必。 给特斯拉加上推进器,真能上路吗? 不到一秒的百公里加速,开起来应该会直接晕过去吧? 马斯克的豪言迅速传播到了中文互联网,有不少博主质疑,如此快的加速,人类驾驶员真能受得了吗? 事实上,普通人能够承受的过载(g 力)强度取决于多种因素,包括过载的方向、持续时间以及个体的健康状况。一般来说,如穿戴适抗荷服和进行适当的训练,人类可以短时间承受高达 9g 到 10g 的垂直过载(从头到脚的方向)而不失去意识,如飞行员和宇航员。 人类对于水平方向(胸背方向)的过载容忍度则要低得多,如果超过 5g,就可能开始经历严重的不适,甚至是伤害。时间一长,还可能会导致内脏受损或其他严重健康问题。 ▲F1 车手在某些高速弯角会经历超过 5g 的过载,车手此时处于无法呼吸的状态 然而,普通超跑难以如此高的过载,用具体数据来举例,零百加速在 5 秒和 3 秒时,驾驶员所承受的过载仅有 0.57g 和 0.95g,即便是特斯拉目前最快的 Model S Plaid(零百 2.1 秒),也只有 1.35g。 而零百加速只要 1 秒的车辆,意味着驾驶员会瞬间经历大约 2.83 g 的过载,多数人在这种短暂的过载下是可以承受的,不过这肯定会比普通驾驶体验强烈得多。 然而,虽然从技术上来说,特斯拉确实可能制造出零百加速只要 1 秒的超跑,人类驾驶员也大概率能够承受这样快的加速,但在实际应用中,还需要考虑到安全、法规和实用性等多方面的因素,如果将这种极端加速应用于公路车辆,必然会对交通安全造成影响。 ▲该图由粉丝创作,来自 Instagram@charlieautomotive 此外,关于搭载「SpaceX 选装包」的 Roadster 是否符合各地的法律安全标准,也是公众和潜在用户关注的问题。 毕竟,连马斯克都不知道那是否还算作「一辆车」。 马斯克吹的牛,好像都实现了? 2017 年,特斯拉在 SpaceX 总部发布了 Semi 卡车,然而,发布会当晚的惊喜与荣耀,几乎都属于 Roadster。 卡车发布完之后,马斯克突然有点失神,静静地看着几台车,志得意满。灯光忽然暗下,卡车掉头,才发现货箱里还有一台跑车。 第二代 Roadster 从货厢中缓缓驶出,随后冲出了会场,本以为这就是类似于电影最后惊鸿一瞥的彩蛋,但这台车又开了回来。 发布会现场一共有两台 Roadster,红色这台为老车主和潜在大客户提供了试乘,还有一台灰色的用于静态展示。 彼时,董车会作为国内唯一一家来到发布会现场的新媒体,也为大家带来了不少一手照片。 ▲照片的右上角还有董车会的旧水印 ▲正如马斯克所说,Roadster 用上了 Yoke 方向盘,配有线控转向 不知不觉,时间已经过去了七年。 有很多人认为,第二代 Roadster 不过是马斯克吹的一个牛,完全没有机会量产,200kWh 的电池、不到 1 秒的零百加速、还有 10 个推进器…… 这一切都是那么的不真实。 但倘若我们回顾马斯克所「吹过的牛」,便会发现,Model 3/Y 成功领头新能源市场,Semi 已经投入使用,Cybertruck 顺利交付,上周,星舰还成功达到了轨道速度。 那辆被马斯克用猎鹰重型火箭送上太空的第一代 Roadster,如今已经绕着太阳飞了 3 圈有余,离火星越来越近。
英伟达发布最强GPU:对比华为AI芯片,性能14倍,带宽20倍
3月18日,英伟达召开了年度NVIDIA GTC大会,在这个大会上,黄仁勋又放了核弹了,发布了AI芯片最新震圈之作——Blackwell GPU。 这个新的GPU,再次将英伟达自己之前的Hopper GPU颠覆了,真正拍死在沙滩上了。 新的GPU芯片有两款,一款是B100,这个之前已经透露过的芯片,B100 GPU的AI运算性能,是上一代Hopper构架的2倍多。 而B200就更强了,今天我们聊一下这个B200芯片。 采用台积电的4nm工艺,是加强版的N4P,晶体管数量达到了2080亿个,其人工智能性能达到了20 petaflops。 它由两个紧密耦合的GPU芯片组成,也可以认为是两款芯片粘在一起,通过10 TB/s的NV-HBI接口连接,当作一块芯片。 同时这个B200配备了192GB HBM3e内存,可提供8TB/s的带宽,NVLINK是1.8TB/S。 具体的指标来看,FP16的运算性能可以达到4.5 petaflops,其INT8的性能能够达到 9 petaflops。 单纯说这款GPU芯片有多厉害,估计比较尬,也不太好吹,我们对比一下华为最强的昇腾910B,估计就能够看出来它有多强了。 昇腾910B,采用7nm工艺,496亿个晶体管,64GB的HBM内存,400GB/S的带宽。其FP16的运算性能约为320Tflops(0.32petaflops),其INT8的性能能够达到 640 Tflops(0.64petaflops)。 算下来,B200是华为910B性能的14倍左右,其内存则是其3倍,带宽则是20倍(8 TB/S VS 400GB/S)。 可见,英伟达的GPU有多强了,当然我写这篇文章,不是为了长他人志气,毕竟英伟达GPU再强,也不是中国的,也不能卖给中国。 我只是想告诉大家,我们和英伟达还有很大差距,这其实也意味着我们还有多大的提升空间,这并不是什么坏事,让大家认清自己的差距,努力追赶就行。 其实科技行业,最忌的不是差距大,有差距并不可怕,而是有些人明明看到明明有差距,但偏偏装作没认识到,那才是大问题,你觉得呢?
音视频AI助手通义听悟升级:6小时超长视频自由问,能润色口语会做脑图
作者 | ZeR0 编辑 | 漠影 智东西3月19日报道,阿里大模型产品“通义听悟”今日发布多项新功能。音视频问答助手“小悟”上线,在业界首次实现单记录、跨记录、多语言自由问,支持对单个最长6小时、一次性上百条音视频的内容理解问答。用户可对超长音视频随心提问,让AI总结任意知识点。 此外,针对学习科研场景对AI工具的强烈需求,通义听悟推出“高校公益计划”,向所有中国大陆高校师生直接赠送价值数千元的500小时音视频转写时长。 一、超长音视频自由提问,AI秒速总结知识点、润色口语、做脑图 音视频承载了密集的信息内容,但因涉及多模态理解、自然语言处理、搜索等多项复杂技术,长期以来内容查找难、回顾难、提炼难。 阿里通义听悟产品负责人杨帆谈道,通义听悟为这一需求而生。“作为一款工作学习AI助手,通义听悟希望让高知识附加值的音视频被轻松阅读、整理和分享。” 通义听悟接入通义千问大模型,融合了十多项AI功能,包括转写、翻译、角色分离、全文摘要、章节速览、发言总结、PPT提取等,并支持标重点、记笔记。 本次升级,通义听悟上新了六大功能点。其中包括音视频问答助手“小悟”,关键信息可以直接“问”出来。 小悟通过多语言Query处理、长篇章文本理解、指令演化框架优化及检索增强生成算法,在业内首次实现对超长音视频的单记录、跨记录、多语言自由问答,支持内容问答的音视频时长和文件数均突破业界上限。 用户可在单一记录页呼唤小悟,对最高6小时、6G大小的音视频提问任何相关话题,或直接要求小悟整理金句、梳理结论、写会议纪要,也可以在首页针对所有记录提问,支持一次性扫描理解上百条音视频内容。 如果花式对英文视频用中文提问,小悟能直接给出中文回答,省去翻译。小悟还会智能推荐问题。 针对用户需求,通义听悟上线了一键AI改写、思维导图生成等新能力。一键AI改写将口语转为书面表达,尤其适合整理采访;思维导图自动生成,最多支持五级Xmind脑图,适合播客摘要。 产品细节体验同样进一步升级,包括笔记支持一键插入视频时间戳及截图、音视频文件语种自动识别等。 二、推出“高校公益计划”,邮箱认证即可得500小时免费时长 学生和科研群体对AI新工具有普遍需求,但目前音视频AI转写工具普遍收费,或仅提供如每月1小时的少量免费时长。 通义听悟推出“高校公益计划”,推动AI算力普惠。所有中国大陆高校师生通过后缀edu.cn的教育邮箱进行认证后,均可直接获赠500小时转写时长,存储空间从20G拓展至200G。 按目前市面上语音厂商9.9元每小时的折扣价,这一教育福利价值数千元。 通义听悟能听、能看、能读,还能实现速览加精。杨帆介绍说,调研中发现约一半用户是学生,他们活跃度相当高,后台每天收到大量私信“求时长”。 有的同学上课、开组会“无时无刻不听悟”;有的用通义听悟两倍速上网课备考;有的每天在“发现”栏目中阅读数十档播客节目,“获取最前沿新鲜的观点内容”。 结语:累计已有上百万用户,每天处理字符数约20亿字 作为国内首个开放公测的大模型产品,去年6月发布以来,通义听悟累计已有上百万用户,包括学生、老师、白领、记者、律师、金融分析师等群体,活跃用户日均转写音视频3次以上,平台每天处理字符数约20亿字。 如今,通义听悟多项功能上新,为用户快速整理音视频纪要、完成内容查找等常见任务提供了进一步提高生产力的好用利器。
豪威OV50K及LOFIC技术现真容,助力智能机镜头接近人眼级别!
2024年3月18日,豪威集团,全球排名前列的先进数字成像、模拟、触屏和显示技术等半导体解决方案开发商,当日发布OV50K40,全球首款采用TheiaCel™技术的智能手机图像传感器,单次曝光可实现接近人眼级别动态范围,为旗舰级后置主摄像头设定了新的行业性能标杆。 豪威集团的全新TheiaCel™技术利用横向溢出积分电容器(LOFIC)的功能,即使在有挑战的照明条件下,都能提供出色的单次曝光HDR。基于TheiaCel™技术的OV50K40 5000万像素图像传感器采用1.2微米像素尺寸和1/1.3英寸光学格式,具有高增益和相关多重采样(CMS)功能,可在弱光条件下实现最佳性能。 豪威集团高级产品市场经理Arun Jayaseelan表示:“消费者对目前市场上手机拍摄的照片和视频质量的要求已经达到了极致,尤其是在日出、日落和夜间背景光线明亮的场景拍摄时。但是今天,豪威集团通过全新的TheiaCel™技术颠覆了手机行业,我们的OV50K40图像传感器可提供卓越的单次曝光HDR图像捕捉。” Ascendo Advisors创始人兼首席分析师Gerrit Schneemann表示:“豪威集团推出的OV50K40图像传感器,能够应对智能手机摄影领域的重要挑战,即在苛刻的照明条件下拍摄清晰的图像。随着整体摄像头质量的提高,智能手机OEM厂商必须在这些严苛条件下改进性能,以在激烈的市场竞争中脱颖而出。OV50K40允许OEM厂商集成具有增强HDR功能的传感器,在苛刻的照明条件下仅需一次曝光即可拍摄清晰的照片。 OV50K40支持四合一像素合并,像素可达1250万,帧率支持120帧/秒和60帧/秒(HDR),4倍感光度可实现旗舰级的弱光性能。四相位检测(QPD)功能可在传感器的整个图像阵列上实现2x2相位检测自动对焦(PDAF),覆盖率达100%,从而实现超快的自动对焦性能。片上像素还原算法可实现完整的5000万像素拜耳输出、优质8K视频和2倍裁切变焦功能。OV50K40采用豪威集团的PureCel®Plus-S晶片堆叠技术,可实现1.2微米像素的高分辨率。 Jayaseelan补充说:“去年我们首次面向汽车市场推出TheiaCel™技术,今天,我们非常高兴能将这一革命性技术引入消费智能手机行业。我们期待未来能将TheiaCel™技术应用于更多移动图像传感器以及其他新市场。TheiaCel™技术将创造出无限的可能性。” OV50K40现已进入量产阶段。
姚期智等三十余位专家达成共识:AI不应违反红线
为了应对 AI 发展带来的挑战,国内外研究者展开合作以避免其可能带来的灾难的发生。 现阶段,人工智能的发展速度已经超出了人们最初的预想,用 AI 工具写文章、编代码、生成图片、甚至是生成一段电影级别的视频…… 这些在以前看似非常艰难的任务,现在只需用户输入一句提示就可以了。 我们在感叹 AI 带来惊艳效果的同时,也应该警惕其带来的潜在威胁。在此之前,很多知名学者以带头签署公开信的方式应对 AI 带来的挑战。 现在,AI 领域又一封重磅公开信出现了。上周在颐和园召开的「北京AI国际安全对话」,为中国和国际AI安全合作首次搭建了一个独特平台。这次会议由智源研究院发起,图灵奖得主Yoshua Bengio和智源学术顾问委员会主任张宏江担任共同主席,Geoffrey Hinton、Stuart Russell 、姚期智等三十余位中外技术专家、企业负责人开展了一次关于 AI Safety 的闭门讨论。这次会议达成了一项 Bengio、Hinton 与国内专家共同签名的《北京 AI 安全国际共识》。 目前,确认会署名的专家包括(国外部分可能会略有增加;国内专家以个人形式署名,并不代表他们所在的机构): Yoshua Bengio Geoffrey Hinton Stuart Russell Robert Trager Toby Ord Dawn Song Gillian Hadfield Jade Leung Max Tegmark Lam Kwok Yan Davidad Dalrymple Dylan Hadfield-Menell 姚期智 傅莹 张宏江 张亚勤 薛澜 黄铁军 王仲远 杨耀东 曾毅 李航 张鹏 田溯宁 田天 以下为达成的共识内容: 一、人工智能风险红线 人工智能系统不安全的开发、部署或使用,在我们的有生之年就可能给人类带来灾难性甚至生存性风险。随着数字智能接近甚至超越人类智能,由误用和失控所带来的风险将大幅增加。 在过去冷战最激烈的时候,国际学术界与政府间的合作帮助避免了热核灾难。面对前所未有的技术,人类需要再次合作以避免其可能带来的灾难的发生。在这份共识声明中,我们提出了几条人工智能发展作为一种国际协作机制的具体红线,包括但不限于下列问题。在未来的国际对话中, 面对快速发展的人工智能技术及其广泛的社会影响,我们将继续完善对这些问题的探讨。 自主复制或改进 任何人工智能系统都不应能够在人类没有明确批准和协助的情况下复制或改进自身。这包括制作自身的精确副本以及创造具有相似或更高能力的新人工智能系统。 权力寻求 任何人工智能系统都不能采取不当地增加其权力和影响力的行动。 协助不良行为者 所有人工智能系统都不应提升其使用者的能力使之能够达到设计大规模杀伤性武器、违反生物或化学武器公约、或执行导致严重财务损失或同等伤害的网络攻击的领域专家的水平。 欺骗 任何人工智能系统都不能有持续引致其设计者或监管者误解其僭越任何前述红线的可能性或能力。 二、路线 确保这些红线不被僭越是可能做到的,但需要我们的共同努力:既要建立并改进治理机制,也要研发更多安全技术。 治理 我们需要全面的治理机制来确保开发或部署的系统不违反红线。我们应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求。注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。 国家监管机构应帮助制定和采纳与全球对齐的要求以避免僭越这些红线。模型进入全球市场的权限应取决于国内法规是否基于国际审计达到国际标准,并有效防止了违反红线的系统的开发和部署。 我们应采取措施防止最危险技术的扩散,同时确保广泛收获人工智能技术的价值。为此,我们应建立多边机构和协议,安全且包容地治理通用人工智能(AGI)发展,并设立执行机制,以确保红线不被僭越,共同利益得到广泛分享。 测量与评估 在这些红线被僭越的实质性风险出现之前,我们应开发全面的方法和技术来使这些红线具体化、防范工作可操作化。为了确保对红线的检测能够跟上快速发展的人工智能,我们应该发展人类监督下的红队测试和自动化模型评估。 开发者有责任通过严格的评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。 技术合作 国际学术界必须共同合作,以应对高级人工智能系统带来的技术和社会挑战。我们鼓励建立更强大的全球技术网络,通过访问学者计划和组织深入的人工智能安全会议和研讨会,加速人工智能安全领域的研发和合作。支持这一领域的成长将需要更多资金:我们呼吁人工智能开发者和政府资助者至少将他们人工智能研发预算的三分之一投入到安全领域。 三、总结 避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。我们必须继续坚持并加强国际学术界和政府在安全方面的合作。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。