行业分类:
加载中...
头条分类:
加载中...
特朗普集团正式进军手机市场,推出Trump Mobile移动网络和土豪金智能手机
IT之家 6 月 16 日消息,特朗普集团今日宣布推出 Trump Mobile 移动网络,这是一项新的蜂窝服务,旨在“为美国最努力工作的人们提供顶级连接、无与伦比的价值和全美服务”。 特朗普集团执行副总裁埃里克・特朗普(Eric Trump)表示:“我很兴奋地踏入这个新的数字领域,努力工作的美国人值得一个价格合理、反映他们价值观并提供可靠质量的无线服务。我们尤其自豪地为我们的军人和他们的家人提供免费长途电话服务 —— 因为在海外服役的人员应该始终能够与家里的亲人保持联系。” Trump Mobile 将通过三大主要移动运营商提供 5G 服务,核心是其旗舰产品 The 47 Plan,每月 47.45 美元(IT之家注:现汇率约合 341 元人民币),订阅者将获得以下附加福利: 无限通话、短信和数据 完整的设备保护 通过 Drive America 提供全天候道路救援服务 远程医疗服务,包括虚拟医疗护理、心理健康支持,以及处方药物的便捷订购和配送 免费国际通话,覆盖超过 100 个国家,包括许多有美国军事基地的国家,以帮助向那些勇敢在国外服役的军人家庭致敬 没有合约,无需信用检查 Trump Mobile 还宣布将在 8 月推出“T1 Phone”手机。这是一款金色智能手机,专为性能而设计,并在美国设计和制造,为那些“期望从移动运营商获得最佳体验的客户”而打造,售价 499 美元(现汇率约合 3585 元人民币)。 该手机搭载 6.78 英寸 120Hz 打孔 AMOLED 屏幕,配有 50MP 主摄像头 + 2MP 深度 + 2MP 微距 + 16MP 前摄、5000mAh 电池 + 20W 充电、指纹传感器和 AI 人脸解锁、USB 2.0 接口、3.5 毫米耳机孔,运行安卓 15 系统。
计算机视觉界“奥斯卡”揭榜!华人霸榜CVPR 2025,突破3D视觉瓶颈
编译 | 王涵 编辑 | 漠影 智东西6月16日消息,上周五,IEEE计算机学会(CS)与计算机视觉基金会(CVF)联合公布了2025年计算机视觉与模式识别会议(CVPR)获奖论文及本年度AI艺术奖项。本次公布的7篇获奖论文全部都有华人科研人员参与其中,其中2篇文章由全华人团队完成。尤为亮眼的是,斩获 “CVPR 2025 最佳论文” 的成果同样出自华人研究员之手。 CVPR是IEEE国际计算机视觉与模式识别会议 (IEEE/CVF Conference on Computer Vision and Pattern Recognition) 。它是计算机视觉和模式识别领域最重要的年度国际会议之一,被公认为该领域的顶级盛会,许多人甚至称其为计算机视觉界的“奥斯卡”。 该会议的论文录用标准非常严格,今年共有13008份有效投稿并进入评审流程,其中2878篇被录用,最终录用率为22.1%。而其中能够进行口头报告的论文更是少之又少,这意味着能被CVPR录用的论文,通常代表了该领域最前沿、最具创新性的研究方向和最高水平。 一、CVPR 2025最佳论文:华人一作,多项3D任务达最先进水平 摘得CVPR 2025最佳论文的论文题目为《VGGT: Visual Geometry Grounded Transformer》(VGGT:视觉几何基础Transformer)。作者包括Jianyuan Wang、Minghao Chen、Nikita Karaev、Andrea Vedaldi、Christian Rupprecht、David Novotny,来自牛津大学与Meta AI的工程师团队,其中第一作者Jianyuan Wang、第二作者Minghao Chen均为华人。 该文章提出VGGT(视觉几何基础Transformer),能够直接从单视角、多视角乃至上百个视角中推断场景的所有关键3D属性,包括相机参数、点云图、深度图和3D点轨迹。该方法推动了3D计算机视觉领域的发展,传统模型通常局限于单一任务且需要专门优化。 VGGT不仅结构简洁高效(图像重建耗时不足1秒),其性能更超越了需要视觉几何优化技术进行后处理的替代方案。该网络在多项3D任务中达到最先进水平,包括相机参数估计、多视角深度估计、稠密点云重建和3D点追踪。实验表明,将预训练的VGGT作为特征骨干网络,可显著提升非刚性点追踪和前馈式新视角合成等下游任务的性能。 二、CVPR 2025最佳学生论文:根据物理规律逆向渲染,可屏蔽反射光干扰 获得CVPR 2025最佳学生论文的是《Neural Inverse Rendering from Propagating Light》(传播光线的神经逆向渲染),作者包括Anagh Malik、Benjamin Attal、 Andrew Xie、 Matthew O’Toole、David B. Lindell,来自多伦多大学、Vector研究所与卡内基梅隆大学,其中第三作者Andrew Xie为华人。 该团队首次实现基于物理的神经逆向渲染系统,能够处理多视角传播光线视频。该方法通过扩展神经辐射缓存技术(一种通过存储任意点从各方向接收的无限次弹射辐射来加速逆向渲染的技术),引入时间分辨率维度。所构建的模型能精确模拟直接与间接光传输效应,当应用于闪光激光雷达系统的捕获数据时,可在强间接光照环境下实现最先进的3D重建。此外,该团队还展示了传播光线的视角合成、捕获数据的直接/间接光自动分解,以及多视角时间分辨重照明等创新功能。 三、荣誉提名奖项:华为和北大浙大的全华团队夺得最佳学生论文提名 荣誉提名奖项授予那些在质量上仅次于最佳论文,但同样非常优秀且具有显著影响力的论文。它表明这些论文虽然不是最终的“第一名”,但其研究成果和贡献也得到了高度认可。 其中共有4篇论文获得最佳论文荣誉提名,1篇论文获得最佳学生论文提名,分别是: 1、最佳论文荣誉提名 《MegaSaM: Accurate, Fast and Robust Structure and Motion from Casual Dynamic Videos》(MegaSaM:从动态视频中快速稳健地重建结构与运动),作者包括Zhengqi Li、Richard Tucker、Forrester Cole、Qianqian Wang、Linyi Jin、Vickie Ye、Angjoo Kanazawa、Aleksander Holynski、Noah Snavely,来自谷歌DeepMind与加州大学伯克利分校和密歇根大学,其中第一作者Zhengqi Li和共同作者Qianqian Wang、Linyi Jin、Vickie Ye为华人。 来自谷歌DeepMind与加州大学伯克利分校、密歇根大学的团队提出了一种能够从动态场景的单目视频中快速、准确且稳定地估计相机参数和深度图的系统。传统运动恢复结构(Structure from Motion)和单目SLAM技术大多假设输入视频以静态场景为主且具有显著视差,当这些条件不满足时往往会产生错误估计。近期基于神经网络的方法尝试解决这些问题,但这些方法要么计算成本高昂,要么在相机运动不受控或视场未知的动态视频中表现脆弱。 该团队证明了一个深度视觉SLAM框架经过训练和推理方案的精心改进后,能够惊人地适应真实世界中相机路径不受限的复杂动态场景视频(包括相机视差较小的视频)。在合成与真实视频上的大量实验表明,相较于现有研究,该系统在相机位姿和深度估计方面显著提升了精度与稳定性,同时保持相当或更快的运行速度。 《Navigation World Models》(导航世界模型),作者包括Amir Bar、Gaoyue Zhou、 Danny Tran、Trevor Darrell、Yann LeCun(杨立昆),来自Meta FAIR团队、纽约大学与伯克利大学AI研究所,其中第二作者Gaoyue Zhou为华人。 该团队提出导航世界模型(Navigation World Model,NWM),这是一种基于视觉运动能力的智能体基础导航系统。作为可控视频生成模型,NWM能根据历史观测和导航动作预测未来视觉场景。为捕捉复杂环境动态,NWM采用条件扩散Transformer架构(Conditional Diffusion Transformer, CDiT),通过大规模训练(10亿参数)于人类和机器人主体的第一视角视频数据集。 在熟悉环境中,NWM可通过轨迹模拟与目标达成度评估自主规划路径。与传统固定行为的监督式导航策略不同,NWM能在规划过程中动态整合约束条件。实验证明其具备两种核心能力:(1)从零开始规划轨迹;(2)对外部策略采样轨迹进行择优。更突出的是,NWM能基于单张输入图像,利用学习到的视觉先验对陌生环境进行轨迹推演,这使其成为新一代导航系统中兼具灵活性与强大性能的工具。 《Molmo and PixMo: Open Weights and Open Data for State-of-the-Art Vision-Language Models》(Molmo与PixMo:先进视觉语言模型的开源权重与数据),有Matt Deitke、Christopher Clark、Sangho Lee、Rohun Tripathi、Yue Yang、Jae Sung Park、Mohammadreza Salehi、Niklas Muennighoff、Kyle Lo、Luca Soldaini等39名作者,来自艾伦人工智能研究所与华盛顿大学,有Yue Yang等多名华人为共同作者。 该团队提出Molmo系列模型。核心突破在于PixMo数据集组合:包含用于预训练的精细化图像描述数据集、用于微调的自由格式图像问答数据集,以及创新的2D指向数据集,所有数据均未借助外部VLM生成。该方案的成功取决于三个要素:(1)精细的建模选择;(2)优化充分的训练流程;(3)最关键的新建数据集质量。他们提出的72B旗舰模型不仅超越同类开源模型,更在学术基准和大规模人工评估中胜过Claude 3.5 Sonnet、Gemini 1.5 Pro/Flash等商业大模型,性能仅次于GPT-4o。 《3D Student Splatting and Scooping》(3D学生飞溅与挖掘技术),作者包括Jialin Zhu、Jiangbei Yue、Feixiang He、He Wang,来自伦敦大学与伦敦大学AI中心、利兹大学,三名作者全部为华人。 该团队提出了一个由灵活的学生t分布(Student’s t distributions)组成的新混合模型,该模型同时包含正密度(溅射)和负密度(舀取)。此模型被命名为“学生溅射与舀取”(Student Splatting and Scooping),简称SSS。通过在多个数据集、设置和指标上进行的详尽评估与比较,该团队证明了SSS在质量和参数效率方面均优于现有方法。例如,在使用相似数量组件的情况下,SSS能达到同等或更优的质量;并且在将组件数量减少高达82%的情况下,仍能获得可比较的结果。 2、最佳学生论文荣誉提名 获得最佳学生论文荣誉提名的论文是《Generative Multimodal Pretraining with Discrete Diffusion Timestep Tokens》(基基于离散扩散时间步长tokens的生成式多模态预训练),作者包括Kaihang Pan, Wang Lin, Zhongqi Yue, Tenglong Ao, Liyu Jia, Wei Zhao, Juncheng Li, Siliang Tang, Hanwang Zhang,来自华为新加坡研究中心、北京大学、浙江大学与南洋理工大学,为全华人团队。 多模态大语言模型(MLLM)的最新研究致力于通过结合LLM与扩散模型(分别为各自任务中的前沿技术)来实现视觉理解与生成的统一。现有方法依赖于空间视觉tokens,即图像块按空间顺序(如光栅扫描)编码排列。但研究发现,空间tokens缺乏语言固有的递归结构,导致LLM难以掌握这种 “非语言化” 表征。 该研究提出通过扩散时间步长学习离散递归视觉tokens,可随时间步长递增递归补偿噪声图像的渐进属性损失,使扩散模型能在任意时间步重建原始图像。该方法有效融合了LLM自回归推理优势与扩散模型精确图像生成能力,在统一框架内实现了无缝多模态理解与生成。大量实验表明,相比其他MLLMs,该模型在多模态理解与生成任务上同步取得了更优性能。 四、让AI与艺术对话,全华人团队获奖 除技术研究外,CVPR AI艺术项目(AI Art Program)探索科学与艺术的交叉领域,征集运用计算机视觉技术(包括生成模型、物体与面部识别等)的创作作品。今日公布的获奖作品从100余件入选作品中脱颖而出: 1、Tom White的《Atlas of Perception(感知图册)》,通过探索神经网络的潜空间(latent space),揭示视觉模型的“视觉词汇”。该雕塑作品解析机器如何理解世界,展现外观本身的语法规则:视觉的模块化语义。 2、Masaru Mizuochi的《Green Diffusion(绿色扩散)》,将土壤微生物分解物质为养分的“破坏”过程,与AI扩散模型(diffusion model)的加噪去噪“创造”过程并置,凸显二者的同步性。 3、全华人团队Mingyong Cheng, Sophia Sun, Han Zhang的《Learning to Move, Learning to Play, Learning to Animate(学习运动、学习游戏、学习动画)》,是跨学科多媒体表演作品,包含自主研发的拾得材料机器人、实时AI生成、动作追踪、音频空间化及基于生物反馈(bio-feedback)的音频合成技术。 AI艺术项目策展人Luba Elliott评价称:“AI与艺术交汇处蕴藏丰富素材,本项目鼓励艺术家持续探索其潜力。祝贺所有获奖者及参与者对当下图景的深刻诠释。” 结语:华人正站在世界AI研究前沿 CVPR 2025程序委员会联合主席、美国麻省理工学院(MIT)副教授Phillip Isola对以上获奖论文赞赏称:“这些论文代表了本届会议最高质量的研究成果,包含突破性发现、广受关注的重要工具以及富有创造力的新思路。” 此次CVPR 2025大会上,科技巨头Meta和谷歌都没有缺席领奖台,华为的研究团队也获得了荣誉提名。除此之外,华人在获奖论文中的参与度让人十分惊喜。 华人在CVPR 2025上的超高“出镜率” 凸显了华人在全球计算机视觉与模式识别领域的卓越贡献,多篇获奖论文及成果也彰显了中国在全球AI发展进程中日益增长的影响力。
网传iPhone 17系列带来多项配置升级,是否会有真惊喜?
虽然刚刚过去的WWDC25亮点并不多,但是苹果秋季发布会还是备受期待的,不出意外的话9月份苹果会推出iphone 17系列,关于新品的爆料也越来越多,最新的爆料显示iPhone17系列预计将带来多达12项配置升级,且不论这次爆料是不是真实的,至少配置升级还是非常值得期待的。 根据爆料,iPhone 17 Pro系列外观设计将采用铝金属中框,更有业内人士大胆猜测称可能会采用全新的“部分铝金属 + 部分玻璃”设计,在质感与工艺上寻求新突破;背面可能搭载带更大的矩形三摄模组,迥异于前作,辨识度拉满。此外,天蓝色配色的加入,与最新款 MacBook Air 色调相似,为消费者提供了清新且独特的选择,想必这个颜色会在一众机型中脱颖而出。 在硬件性能方面,iPhone 17 Pro将搭载苹果A19 Pro 芯片,A19 Pro 采用台积电更新的第三代 3nm 工艺制造,有望实现性能的小幅年度提升以及能效的优化,为用户带来更为流畅、高效的使用体验。值得一提的是,4款iPhone 17系列机型均将标配苹果自研的 Wi-Fi 7 芯片,进一步强化网络连接性能。 此次,4款iPhone 17 机型均配备 2400 万像素前置摄像头,自拍画质得到提升。而 iPhone 17 Pro 系列后置长焦镜头升级至 4800 万像素,结合苹果的影像算法,在拍摄远景时能呈现更清晰的画面和丰富的细节。此外,iPhone 17 Pro 系列还将支持双路视频录制,用户可在相机应用中同时使用前置和后置镜头拍摄,同时首次支持 8K 视频录制,为专业视频创作者提供了新的创作可能。 续航与散热也有升级,iPhone 17 Pro Max更大的设计可以容纳更大容量的电池,全系传闻均采用内部设计改进以增强散热,Pro系列更是搭载均热板散热系统,确保手机在长时间高性能运行下也能冷静应对,避免因过热导致的卡顿与降频。
GPT-5训练背后隐藏大佬:靠一篇博客入职OpenAI
编译 | 李水青 编辑 | 心缘 智东西6月16日消息,今天,AI云服务商Hyperbolic的联合创始人兼CTO Yuchen Jin在社交平台X上曝料:研究员Keller Jordan仅凭一篇博客文章就加入了OpenAI,并可能正用博客提及的神经网络隐藏层的优化器Muon训练GPT-5。 “许多博士(包括以前的我)都陷入了这样一个误区:认为在顶级会议上发表论文才是最终目标。但发表论文≠影响力。Muon只作为一篇博客文章发布,它让Keller加入了OpenAI,他现在可能正在用它训练GPT-5。”Yuchen Jin说。 ▲Yuchen Jin的X推文及Yuchen Jin的自述 Yuchen Jin提及的这篇博客发布于2024年12月,题为《Muon:神经网络隐藏层的优化器(Muon: An optimizer for hidden layers in neural networks)》。 博客地址:https://kellerjordan.github.io/posts/muon/ 从职场社交平台领英可知,Keller Jordan正是在2024年12月加入OpenAI,由此我们也可以推测他正是凭去年12月发布的一篇博客,成功进入了如日中天的头部大模型企业。 这篇博客厉害在那儿?Muon凭什么成为OpenAI的敲门砖?让我们从这篇博客文章内容说起。 一、Muon定义:一个神经网络隐藏层的优化器 Muon是神经网络隐藏层的优化器。它被用于NanoGPT和CIFAR-10的快速运行,刷新了当时训练速度的记录。 Keller Jordan的博客文章主要关注Muon的设计。首先他定义了Muon并概述其在当时已取得的实证结果;然后他详细讨论了Muon的设计,包括与先前研究的联系以及对其工作原理的最佳理解;最后他讨论了优化研究中的证据标准。 具体来说,Muon是一个针对神经网络隐藏层二维参数的优化器,其定义如下: 其中“NewtonSchulz5”定义为以下Newton-Schulz矩阵迭代: 使用Muon训练神经网络时,应使用AdamW等标准方法优化网络的标量和矢量参数以及输入层和输出层。Muon可用于四维卷积参数,方法是将其最后三个维度展平。 Muon取得了以下实证成果: 1、将CIFAR-10上的训练速度记录提高到94%准确率,从3.3秒提高到2.6秒。 2、将FineWeb(一项称为NanoGPT快速运行的竞赛任务)上的训练速度记录提高至3.28 val loss,提高了1.35倍。 3、在扩展到774M和1.5B参数的同时,继续显示训练速度的提升。 4、在HellaSwag上用10个8xH100小时训练了一个1.5B参数转换器,使其达到GPT-2 XL级别的性能。使用AdamW达到相同结果则需要13.3小时。 以下是针对NanoGPT快速运行的不同强力优化器的比较: ▲按样本效率比较优化器(可复现日志:https://github.com/KellerJordan/modded-nanogpt/tree/master/records/102924_Optimizers) ▲按挂钟时间比较优化器 此外,以下是Muon和AdamW在训练15亿参数语言模型时的对比。两个优化器均已进行调整。 ▲Muon与AdamW在15亿参数短时间训练中的对比(可复现日志:https://github.com/KellerJordan/modded-nanogpt/tree/master/records/102024_ScaleUp1B) 二、Muon设计:牛顿-舒尔茨迭代法作为后处理步骤 Muon通过采用SGD-momentum生成的更新来优化二维神经网络参数,然后在将它们应用于参数之前,对每个更新应用 Newton-Schulz (牛顿-舒尔茨迭代法,简称NS)迭代作为后处理步骤。 NS迭代的作用是使更新矩阵近似正交化,即应用下列操作: 换句话说,NS迭代实际上用最接近的半正交矩阵替换了SGD-momentum的更新矩阵。 为什么正交化更新可行?出于实证研究的动机,作者基于人工检验观察到,SGD-momentum和Adam对基于Transformer的神经网络中的二维参数产生的更新通常具有非常高的条件数。也就是说,它们几乎是低秩矩阵,所有神经元的更新仅由少数几个方向主导。 作者推测,正交化有效地增加了其他“稀有方向”的规模,这些方向在更新中幅度较小,但对学习仍然很重要。 除了NS迭代之外,还有其他几种方法可以对矩阵进行正交化。但作者没有使用其中两种方法,他是如何排除的? 一个是SVD方法,它太慢了,所以作者没有使用它。另一个是Coupled Newton iteration (耦合牛顿迭代法),它必须至少以float32精度运行才能避免数值不稳定,这导致它在现代GPU上运行速度较慢,所以作者也没有采用。 相比之下,作者发现NS可以在bfloat16中稳定运行,因此选择它们作为正交化更新的首选方法。 在Keller Jordan的实验中,当使用具有调整系数的Muon来训练Transformer语言模型和小型卷积网络时,只需运行5步NS迭代就足够了。 此外,Keller Jordan还分析了Muon的运行时间和内存要求。对于典型的语言训练场景,无论规模大小,Muon的FLOP开销都低于1%。 三、Muon实证考虑:批判糟糕的基线,提出新方法 根据设计,Muon仅适用于二维参数,以及通过展平的卷积滤波器,因此网络中其余的标量和矢量参数必须使用标准方法(例如 AdamW)进行优化。 根据经验,Keller Jordan发现使用AdamW优化输入和输出参数也很重要,即使这些参数通常是二维的。具体来说,在训练Transformer时,应该将AdamW用于嵌入层和最终分类器头层,以获得最佳性能。嵌入层的优化动态应该与其他层不同,这遵循模块化范数理论。输出层的这种动态也不同,这似乎并非来自理论,而是由经验驱动的。 另一个纯经验性的结果是,在他们测试的所有案例中,使用 Nesterov式动量对Muon的效果都比普通的SGD动量略好。因此,他们在公开的Muon实现中将其设为默认设置。 第三个结果是,如果将Muon分别应用于变压器的Q、K、V参数,而不是一起应用于变压器,则Muon可以更好地优化变压器,因为对于将QKV参数化为输出被分割的单个线性层的变压器实现,默认做法是将它们一起应用。 Keller Jordan认为,神经网络优化研究文献目前大多充斥着一堆已死的优化器,它们声称能够击败AdamW,而且往往以巨大的优势获胜,但却从未被社区采用。鉴于业界在神经网络训练上投入了数十亿美元,并渴望降低成本,他们可以推断,问题出在研究界,而非潜在的采用者。 Keller Jordan犀利地提出:这项研究出了问题。仔细研究每篇论文后,他们发现最常见的罪魁祸首是糟糕的基线:论文在将其与新提出的优化器进行比较之前,往往没有充分调整AdamW基线。 发表声称有巨大改进但无法复制/达到宣传效果的新方法,浪费了大量个人研究人员和小型实验室的时间、金钱和士气,他们每天都在为复制和构建此类方法的失败而感到失望。 为了纠正这种情况,Keller Jordan建议采用以下证据标准:研究界应该要求,只要有可能,神经网络训练的新方法就应该在竞争性训练任务中取得成功。 竞争性任务通过两种方式解决了基线欠调问题。首先,竞争性任务的基线是先前的记录,如果该任务很受欢迎,则很可能已经经过了良好的调整。其次,即使在先前记录未经过良好调整的不太可能发生的情况下,也可以通过新的记录进行自我修正,将训练恢复到标准方法。 结语:全新优化器或成为GPT-5中的重要技术 通过定义、拆解设计及实证研究,Keller Jordan发现了Muon神经网络隐藏层的优化器具备优于AdamW的效率。通过最新曝料可知,这一技术很有可能成为OpenAI正在研究的GPT-5的重要部分。 Keller Jordan也提出了一些尚未解决的问题。包括:Muon可以扩展到更大规模的训练吗?是否有可能在大型GPU集群中正确分布Muon使用的Newton-Schulz迭代?Muon是否仅适用于预训练,而不适用于微调或强化学习工作负载?或许在GPT-5的研究中,作者已经知道了这些问题的答案。
Labubu正火,AI“芭比”也快有了!OpenAI合作的首款AI娃娃今年推出
编译 | 王涵 编辑 | 漠影 智东西6月16日消息,上周玩具制造商美泰公司(Mattel)发布公告称与OpenAI达成合作,将基于美泰旗下品牌开发AI驱动的创新产品与体验。公告称美泰将在芭比等旗下玩具品牌中引入AI(人工智能)技术,首款AI驱动的玩具产品预计将于今年晚些推出。 美泰曾在2017年就曾推出一款名为 Aristotle(亚里士多德) 的AI产品。这款产品被宣传为“市场上第一个声控的数字保姆和老师”,旨在通过AI帮助孩子们掌握基本的认知技能,例如阅读睡前故事、玩游戏、教授语言课程,甚至协助完成家庭作业。 这下AI真从“娃娃”抓起了。 一、芭比或迎AI升级,美泰从业务到产品全面拥抱AI 美泰在上周四宣布与OpenAI达成合作,将为Barbie、Hot Wheels和Uno等标志性玩具品牌引入AI。这家玩具制造商在新闻稿中写道,将运用OpenAI技术“为适龄儿童打造注重创新、隐私与安全的AI体验”。虽然细节尚未公开,但首款AI驱动产品预计今年晚些时候推出。 美泰首席特许经营官乔什·西尔弗曼(Josh Silverman)向彭博社透露,该交易不涉及知识产权转让,公司对研发产品保持完全控制权,双方谈判始于去年末。除玩具外,美泰还将在业务运营中整合ChatGPT Enterprise等OpenAI工具,增强产品开发与创意构思。针对Business Insider的置评请求,双方均未回应。 二、玩具销售遇冷,OpenAI加速商业布局 此举正值玩具行业面临需求疲软时期。在特朗普贸易政策引发的不确定性下,消费者缩减开支导致美泰上月撤回年度预测,并宣布将通过提高部分美国产品价格抵消关税影响。 美泰首席财务官安东尼·迪西尔维斯特(Anthony DiSilvestro)上月财报电话会表示,公司将“调整”促销活动以节省成本,年度降本目标从6000万美元(约合人民币4.3亿元)上调至8000万美元(约合人民币5.7亿元)。过去一年,美泰通过影视作品和手机游戏等娱乐业务来缓解玩具销售颓势。 与此同时,OpenAI近期相继与星巴克等消费品牌达成合作。周二星巴克宣布推出基于微软Azure OpenAI的新工具“Green Dot Assist”,这款部署在店内iPad上的虚拟助手可帮助咖啡师记忆饮品配方并推荐餐食搭配。 结语:AI能否给童话世界带来更多魔法? 迪士尼在2024年11月就成立了一个专门的“科技赋能办公室(Technology Enabled Office)”,其主要任务就是协调AI和混合现实(XR,包括VR/AR/MR)技术在整个娱乐集团中的应用。 虽然迪士尼还没有把AI装进玲娜贝尔里,但此次美泰和OpenAI的合作,让市场看到了AI+玩具的可能,未来的玩具将更加个性化和智能化。在儿童隐私与安全的考量下,AI 和玩具的结合必须更加谨慎,但毫无疑问的是,AI与人们的日常生活的融合已愈加深化。
Model S/X涨价焕新 七座Model Y也要上了
Model S/X终于焕新,还涨价了。 马斯克全面回归后,特斯拉各项进展迅速推进,Robotaxi上路实测,乘用车全面焕新: 新款Model S/X涨价3.5万元开卖,官方暗示7座版Model Y将发布,FSD在中国版本大更。 销量不断下滑后,马斯克正在用一套组合拳拯救业绩。 Model S/X涨价焕新 父亲节前夕,特斯拉在美突然上新,新款Model S和X自十二年前量产以来,首次大大大焕新: 首先是外观上,新增加了一款“寒霜蓝”配色,看上去比焕新版Model Y的新配色冰河蓝稍暗一些: 车身整体也有所优化,尤其是Model S Plaid高性能版,采用了新的造型,能提升高速行驶的稳定性。 两款车的前保险杠位置都新增了一个前置摄像头,特斯拉介绍称,这增强了智能辅助驾驶的可视性。 车身优化了空气动力学,再加上车轮同样有所改良: 因此新车的续航更长了。其中新款Model S 四驱版被特斯拉称为“史上续航最长的车型”,可达660km,性能更强的Plaid版同步上市,续航592km。新款Model X四驱版续航为566km,性能版为539km。 然后是车辆的内饰,两款新车的氛围灯在上车时,会对仪表盘和车门动态照明,然后逐渐变成环境光。 此外,特斯拉介绍称新车还换了衬套,重新设计了悬挂,车辆更加舒适平稳。Model X的三排和后备箱空间也有提高。 与国内新势力动辄一年一小改,两年一大改相比,Model S/X时隔多年的大改款调整并不算多,价格同步上涨了5000美元,折合人民币接近3.6万元。 其中新款Model S四驱版价格为8.499万美元,折合人民币约为61.06万元,比国内便宜7.43万元,Plaid高性能版价格为71.84万元,比国内便宜近10万元。 新款Model X也是两个版本,四驱版价格折合人民币约为64.6万元,比国内便宜近8万,Plaid高性能版折合人民币约为75.43万元,比国内便宜近7万。 新款进口国内的价格暂时未知,也不知道什么时候会开放订购。老款的订购页面目前已经关闭,如果想要购买只能咨询销售,据说还有极少量新车以及展车。 几乎在两大旗舰车型焕新同时,特斯拉官方暗示了7座版Model Y也即将上架。 七座版Model Y也要来了 今年年初,焕新版Model Y发布时,官方特意注明了这是「五座版」,引发人们关于七座版Model Y的猜想。 实际上,早在2020年马斯克就曾透露过7座Model Y将在次年上市,后来官方放出的第三排图片长这样: 空间看上去还是挺紧凑的,毕竟Model Y车长还不到4米8,却要放三排座椅,七座版后来仅接受了少量订单就停产了。 停产这几年,一直没有新的消息流出,直到最近特斯拉给一些车主发布的官方邮件中,再次提及了七座版Model Y,而且还提到了“足够的空间”,网友们纷纷猜测,这次的七座版有可能会加长。 Model Y是特斯拉的销量主力,2024年在全球卖出超117万辆,而同期特斯拉的销量还不到180万辆,一款车了贡献了品牌三分之二的销量。如果今年七座版顺利推出,有望将特斯拉从近期销量下滑的泥潭中拖出。 2024年,特斯拉十年来首次出现全年销量下滑,今年一季度,全球销量较去年同期下降13%,卸任要职的马前部长正在尝试重振销量,一方面接连推出新的产品,另一方面提升老款产品的竞争力。 网传信息显示,最近有中国的Model Y车主收到了FSD更新,版本号为13.2.9,对齐了今年5月初在美发布的版本,可以说是进展飞速。 在国内头部已朝着L3挺进的当下,FSD的落地表现并不算好,不过很多从业者认为,实际上,FSD V13的基础能力很不错,只是因为缺乏国内数据训练,所以才表现不佳,后续能力有望迅速提高。 FSD是特斯拉乘用车的核心技术,也是下一阶段的转型基石。Model S/X新款上市,正处于特斯拉的关键转折期,按照预定计划,六天后Robotaxi就会开放,马斯克的关键大考,越来越近了。
谁说合资做不好纯电,全新东风日产N7累计大定超2万台
快科技6月16日消息,合资做不好纯电的言论可以休矣。 东风日产官宣,今年上市的全新纯电轿车N7累计大定已超2万台,对于合资品牌而言,如此成绩已然是爆款。 N7于4月27日上市,共推出5款车型,售价区间为11.99-14.99万元,要知道这是一台天籁同级的中型轿车,不得不说,合资卷起来确实也狠。 在配置层面也很有诚意,顶配车型拥有8295P座舱芯片+NISSAN OS车机系统,智能化体验比肩国产新势力车型。 尤为值得一提的是,N7首次配备的AI零压云毯座椅拥有49个传感器,7个气囊,可自动贴合不同体型的乘客,确保乘坐舒适性。 此外还提供压缩机冰箱、头枕音箱等消费者喜欢的配置,而驾驶辅助系统采用英伟达Orin X芯片以及Momenta端到端方案,在合资品牌里属于顶级水平。 动力方面,日产N7提供160kW和200kW两款电机,配备58千瓦时和73千瓦时磷酸铁锂电池,续航里程有510公里、525公里、540公里、625公里及635公里可选,支持快充,30%-80%只要14分钟,还支持6.6kW对外放电能力。 而效果显而易见,这款纯电轿车上市即热销,带动日产在5月份的销量环比涨超27%,给跌跌不休的颓势踩了一脚急刹车。 更为有趣的是,日产汽车考虑在日本推出N7电动轿车,如果保持在中国的超高性价比,相信这款车在日本也能大杀四方。
理想MEGA上市50天大定超7000单 10%的人对比问界M9
【CNMO科技消息】据CNMO了解,有汽车博主近日公布了理想MEGA上市50天市场简报。数据显示,理想MEGA上市50天大定数量超7000单,占理想品牌去年MEGA车型销量近7成。此外,不少消费者拿问界M9与该车进行对比选购。 理想MEGA CNMO了解到,理想MEGA的进店量占比为20%-30%(中心店更高),提车周期方面,Home版达到11-13周,Ultra版则平均只要4周即可提车。从购买偏好来看,Home版本确实是更热门的选择,版本占比达90%以上,最受欢迎的车身颜色是熊猫白,内饰则为棕色。 用户画像方面,买理想MEGA的人中,男女比例分别为70%和30%,女性比例可能比很多人现象的更高。核心客群集中在30-40岁,占比达40%,“40岁以上”也占到了40%。此外,该车的增换购比例各占一半,购车用户家庭多拥有2台及以上车辆(奔驰和宝马焦常见),需求以增购MPV或置换旧款MPV为主。 从对比车型来看,理想MEGA的主要竞品车型为极氪009,占到了50%,另有10%的人对比小鹏X9,还有10%的人对比问界M9。油车方面,埃尔法等被对比较多。 市场简报还分析了用户的购买和犹豫理由。其中,前三大购买理由是外观独特个性、充电桩布局、直营服务好,犹豫的点主要是内饰不够商务、外观需要适应以及价格略高。
创维EV6车型新增“闪现版+”上市:800伏架构、CLTC续航520公里,24.68万元
IT之家 6 月 16 日消息,创维汽车宣布旗下 EV6 车型新增一款“闪现版 +”车型版本上市,该版本车型采用 800 伏架构,CLTC 纯电续航里程 520 公里,指导价 24.68 万元。作为比较,创维 EV6 车型全系指导价区间为 10.98 万元-39.8 万元。 IT之家注意到,该车仍延续标准版 EV6 的设计,其配备封闭式进气格栅,在前保险杠两侧带有 L 型金属色装饰条,匹配传统机械式拉手,同时采用贯穿式尾灯组,灯组中央带有品牌英文标识,搭载 18 英寸轮毂。 座舱方面,该车提供 12.3 英寸液晶仪表和 15.6 英寸中控,使用三辐式方向盘及旋钮换挡,提供驾驶模式选择、电动尾门、仿皮座椅、前排座椅电动调节、前排座椅加热、自动空调、后排空调出风口、后泊车雷达、全景影像、定速巡航、在线导航、手机 App 远程控制等配置。 官方强调,该车配备 L2.5 级自动驾驶辅助系统和 Skylink 智能网联系统,支持自适应巡航、车道保持、车道偏离预警、前向碰撞预警、交通标志识别、盲区监测、前 / 后向横穿碰撞预警。 同时,创维汽车声称“该车型拥有非接触式传感技术,可根据拍照来监测血压、心率等,检测用户的健康状态,车辆配备了智能脑电波催眠眼罩,能够测量脑电波及深度睡眠质量”。 规格方面,IT 之家获悉该车长宽高分别为 4720x1908x1696 毫米,轴距为 2800 毫米,车辆基于 800 伏平台打造,搭载前置单电机,最大功率 250 千瓦,最大扭矩 340 牛・米。电池及续航方面,该车搭载 65.71 千瓦时电池组,CLTC 工况续航里程 520 公里。
摄像头和激光雷达不能共用!马斯克给出智驾最佳方案:人工智能、数字神经网络和摄像头相结合
快科技6月16日消息,到底什么才是智能驾驶的最优解?马斯克给出了答案。 今日,特斯拉副总裁陶琳在微博上发布了一则马斯克的采访视频,马斯克在采访中表示,与道路系统最适配的智能驾驶技术就是人工智能、数字神经网络和摄像头相结合。 “当然我们的车辆还配备了麦克风,用于识别紧急车辆的声音”。马斯克认为,全世界的道路系统都是为了智能、生物神经网络和眼睛设计的,而不是根据“从眼睛里发射激光”来设计的。 “同时我们发现,当系统使用多种传感器时,它们之间往往会产生冲突,你该相信摄像头,还是该相信激光雷达,一旦感知系统自相矛盾,就可能引发安全事故。” 和马斯克坚定的走纯视觉路线不同的是,国内新势力大多数都是激光雷达的拥护派,比如华为、理想。 华为就认为激光雷达是必须的。2024年9月,余承东还与主持人马东进行对话,在谈到华为乾崑智驾ADS 3.0时,马东提问:“激光雷达是必要的吗?”余承东表示,坚持用激光雷达,是因为激光雷达的安全性。 “只用摄像头方案没用激光雷达方案的,摄像头致盲就完蛋了,有些东西,摄像头是没办法的,摄像头有极限。包括毫米波雷达,车厂都应该用,因为在雨天大雾天,摄像头不好用。”余承东说。 余承东称,“生命是最宝贵的,再贵的东西,跟命比,都不是个钱”。 当然,也有例外,小鹏就是视觉+大模型坚定支持者。 小鹏汽车自动驾驶产品高级总监袁婷婷曾发文表示,激光雷达看得远是个伪命题。 首先激光雷达是主动传感器,依赖于向外发射近红外光以及反射回波来计算 ToF(time of flight),来计算障碍物。这样会带来几个缺点。 随着距离增加,激光束发散角扩大,导致能量密度呈平方反比衰减。在远距离测量时,回波信号强度和点云密度都大幅降低。 以当前行业领先水平192线激光雷达为例,200m外的物体,激光雷达可获取信息和800万像素摄像头可获取信息可以用下图做一个对比。而车辆需要足够的信息来区分200m外是一个轻飘飘的塑料袋,还是一个横行的电瓶车。所以对于大模型方案来说,检测远距离目标最好的传感器不是激光雷达,而是高分辨率摄像头。 激光雷达会有多径效应并且帧率远低于摄像头。作为一种主动传感器,激光雷达在测量远距离的复杂地形或障碍物可能发生多次反射,导致回波信号混叠,使得原来的信号失真,或者产生错误,难以准确识别甚至误识别真实目标。同时业界主流激光雷达的处理帧率,不及我们摄像头帧率的一半,低频的帧率会让远距离且高速移动物体的识别误差进一步加剧。 同时,激光雷达其实对于天气状况非常敏感,穿透雨雾主要依靠的是毫米波雷达。近红外光的波长短,根据波粒二象性,波长越短粒子属性越强,衍射性越差,遇到雨雪雾等极端天气就会在传感器附近几米内形成一团噪点,并且不能穿透这些透明障碍物看到雾气后面的目标,从而“致盲”。而毫米波雷达波长更长,衍射性好,雨雾特性好。 所以,激光雷达是一个信息密度低,且容易受干扰的传感器,并不适合作为强大大脑的眼睛。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。