行业分类:
加载中...
头条分类:
加载中...
小米 YU7 首测:当一台性能猛兽,开启了顾家模式
当你们看到这篇文章的时候,小米 YU7 已经正式上市了: 超长续航后驱版:25.35 万元; 四驱 Pro 版:27.99 万元; 四驱 Max 版:32.99 万元。 在 2025 年的今天,如果你想为家庭选购一台纯电 SUV,你的选择可能已经多到让人眼花缭乱。那么,小米这样的「跨界玩家」,究竟能给我们带来什么不一样的东西? 带着这个疑问,我们最近开着这台顶配版的小米 YU7 Max,跑了一次小长途,试图在真实的驾驶中寻找答案。 当然,我们也记录了它的全程能耗表现。不过,这个问题的答案,我们打算留到文章的最后再揭晓。 现在,让我们先从动态体验开始。 当 YU7 的底盘,有了「芝士蛋糕」的质感 小米 YU7 整个座舱体验的「皇冠」,无疑是那块在预售发布会上官宣的「小米天际屏」。 需要强调的是,它不是一块屏幕,而是通过三组 Mini-LED 光源,在前风挡下方投射出的一条长达 1.1 米、亮度高达 1200 尼特的信息光带。 那么,它的实际体验到底怎么样? 首先,不同于普通的 HUD,因为它自带一个黑色的显示背景,所以即便在阳光充足的条件下,其显示内容依旧非常清晰。 其次,它的信息布局也很合理。关键的行车信息,如车速、挡位、续航等,会始终保持在驾驶员的视野正前方;而导航、盲区影像等辅助信息,则只在需要时才会出现,毫不打扰。 它的体验和之前一些车型上那种长条状的「带鱼屏」是完全不同的。因为是投影,它的视觉焦点在更远处,你的眼睛不需要在观察路面和近处屏幕之间上下来回切换焦距,读取信息更加方便,长时间驾驶下来眼睛也不会那么累。 这一切流畅的体验,都离不开背后那套持续进化的澎湃 OS。你可以在车机上自定义天际屏的显示模块,每一个模块都有相当细腻的动画效果。 比较有趣的是萌宠模块,里面的小宠物会在你激烈驾驶的时候左摇右摆,只不过,紧握方向盘的你,这个时候恐怕没有精力去看它。 开上这台小米 YU7,我们脑海里浮现的第一个问题,竟然来自于它的轮胎。 在官方参数公布后,网络上不乏质疑之声:作为一款高性能 SUV,为何胎宽仅有 245mm?这个「脚」对于它强悍的动力来说,是不是太小了? 小米官方对此的解释,是为了优先保证续航——要知道,YU7 超长续航后驱版 835 公里的 CLTC 续航,是目前中大型纯电 SUV 里的第一名。当然,你也可以选装 21 英寸轮毂,并将后轮加宽到 275 毫米,来换取更极致的抓地力。 这个看似简单的选择,恰恰从一开始就揭示了 YU7 与 SU7 在产品定位上的根本不同。 如果说,小米 SU7 存在的核心是为了在赛道上不断突破、树立小米汽车的性能标杆;那么 YU7 这位新成员,则显然更想做一台舒适、节能、适合每天陪伴在你身边的「日常伙伴」。 这种「日常感」,首先就体现在它经过精心调校的底盘上。 YU7 全系标配了 CDC 连续可变阻尼减振器,Pro 和 Max 版本还配有双腔空气悬架,这套硬件组合让它在路上行驶时,对路面细碎颠簸的过滤非常彻底,相比 SU7 那种时刻紧绷的战斗姿态,多了一份难得的从容与柔和。 但需要强调的是,它始终是一台小米,那份根植于品牌基因里的运动感并未消失。 所以即便你开得快一些,在弯道中,它的侧向支撑依然相当到位。那种感觉很奇妙,就像是你一拳打在了一个厚实的芝士蛋糕上,能清晰地感受到力量的传递,但整个过程又被一种非常绵柔、极富韧性的阻尼感所包裹。 这种在舒适与操控之间取得的精妙平衡感,我们认为,是 YU7 作为一台家用 SUV,在动态体验层面最成功、也最核心的亮点。而这一点,也非常契合它的外观和座舱设计理念。 当座舱开始「玩装修」,小米的野心不止于车 当我们将 YU7 停下,拉开车门,它在座舱内所呈现的巧思,则揭示了小米的另一重野心。 它的豪华感,首先来自那些触手可及的大面积 Nappa 真皮和软包覆,官方宣称其用料达到了「婴儿可直接触碰」的母婴级标准。前排的两张零重力座椅坐垫厚实,包裹感与支撑性都属上乘,在长途驾驶中确实能有效缓解疲劳。 但小米的野心,显然不止于堆砌这些常规的豪华物料。他们似乎想从根本上改变人与车内空间的关系,让你像装修自己的家一样,来随心所欲地定义你的车。 这个颇具前瞻性的理念,主要通过两个核心设计来实现。 ▲ 磁吸蓝牙按键 第一个,是它的「磁吸生态」。YU7 在全车预留了多达 16 个磁吸点位,你可以把一个能自定义功能的蓝牙按键,吸在任何你最顺手的地方;也可以把一个设计精巧的磁吸纸巾盒,牢牢固定在仪表台上;下方还可以储存一个磁吸墨镜盒。 这些虽然是小细节,但确实能巧妙地解决许多日常用车中的零碎痛点。实际上,YU7 的车厢还有很多这样的用心设计,比如说小米在它的门板里藏了一把雨伞,又在后排座椅下方设计了一个储物抽屉。 说到后排,由于 YU7 的造型和比例与目前市面上的主流 SUV 存在较大差距,因此网络上有不少对于 YU7 后排空间的质疑。 但爱范儿在实际体验过后发现,无论是纵向还是垂向空间,YU7 后排的表现都是比较优秀的,均要优于特斯拉 Model Y,这很大程度上得益于后备箱出让的空间。 好消息是,后备箱出让的空间,可以在 141L 的前备箱里找补回来,而且还支持电动开关。 至于后排的配置亮点,首先要介绍的是放倒角度达到了 135°的座椅靠背——这是一项全系标配的配置。与此同时,小米在后排乘客的前方设置的了一个可以取下的控制屏,座椅、空调、音乐、导航等内容均可在此调节。 此外,小米还给 YU7 配上了冰箱和新一代的 EC 智能调光天幕,暗态更黑。 美中不足的是,YU7 的后排座椅只支持加热,不支持通风。 前面提到 YU7 有两个核心的座舱设计,第一个,是它的磁吸生态,而第二个,就是后备箱上方的「百变磁吸轨道」。 这不仅仅是一条简单的滑轨,其内部集成了 120W 的供电能力,还提供了一个国际通用的 1/4 英寸螺丝接口。这意味着,你可以轻松地将你的运动相机,甚至是小型投影仪,稳固地安装在这里。这种前所未有的开放性和拓展性,值得一个大大的肯定。 小米汽车,进入第二阶段 所以,在深度体验了两天之后,我们再来回答开篇提出的那个问题: 小米 YU7,到底是一台什么样的车? 爱范儿和董车会认为,它的出现,首先标志着小米汽车的进化。 如果说,一年前横空出世的 SU7,是小米凭借其强大的工程能力和互联网思维,向整个汽车行业「秀肌肉」、展示其技术功底、并成功树立起品牌高度的「开山之作」;那么今天的 YU7,则是小米在赢得掌声与立稳脚跟之后,真正开始走向大众、拥抱主流家庭用户的「攻坚利器」。 相比 SU7 在性能与操控上的极致与锋芒毕露,YU7 显然做出了更多贴近日常、注重实用和全家舒适的取舍。 从更从容柔和的底盘调校,到对后排乘客的细致关照,再到「晕车舒缓模式」这类对家庭场景的细腻洞察,无一不在说明,小米正在努力读懂并满足更广大用户的真实需求。 当然,小米的独特优势——「人-车-家」全生态的无缝体验,在 YU7 上得到了更进一步的体现。 比如,你可以用最新发布的小米 AI 眼镜,在旅途中随手拍下沿途的风景,照片会即时同步到你的小米手机里。而当你回到车上,便能立刻在 YU7 的中控大屏上,与家人一同回顾和分享刚刚记录下的美好瞬间。 这种跨越多终端设备的无缝流转,正是小米生态独有的、其他车企难以复制的「魔法」。 最后,我们来揭晓大家关心的能耗。 经过我们这次全程 150 多公里,包含了三成城市拥堵、七成高速巡航以及山路驾驶的综合路段试驾,这台接近 2.5 吨、拥有 690 马力的双电机四驱版小米 YU7 Max,其最终的表显平均能耗,定格在了 24.0kWh/100km。 对于一台拥有如此庞大身形和强悍性能的中大型 SUV 来说,这个能耗表现虽不算低,但仔细考量后,我们认为这一数据仍在合理区间内,也在我们对这类高性能车型能耗的预估范畴之中。 现在,关于小米 YU7 的所有信息,几乎都已悉数呈现在我们面前。 所以,你觉得 25.35 万元的起售价,合适吗?
拿下工业、矿产能源头部客户订单 人形机器人公司“灵宝CASBOT”获近亿元融资
基于“分层端到端+强化学习”的技术路线。 作者|黄楠 编辑|彭孝秋 硬氪获悉,人形机器人品牌「灵宝CASBOT」近日完成近亿元级天使+融资,投资方包括蓝思科技、天津佳益以及老股东国投创合、河南资产跟投。融资资金将主要用于加速推进产品量产、技术研发迭代以及市场拓展。 「灵宝CASBOT」成立于2023年8月,专注通用人形机器人与具身智能的落地应用,是中关村高新技术企业。团队核心成员曾深度参与重大科技项目,如微靶精密装配系统研发、四足机器人环境感知与自主跟随、C919大飞机高锁螺母柔顺装配机器人等,在精密装配、柔性操作、视觉伺服等领域拥有逾20年的技术积累和产业经验。 目前,「灵宝CASBOT」已推出两款双足人形机器人,分别是多场景落地的通用类脑智能机器人CASBOT 01、以及第二代全尺寸双足人形机器人CASBOT 02。具体到产品定位与应用场景方面,灵宝CASBOT 01与02存在显著差异。 CASBOT 01作为第一代产品,身高179cm,体重约60kg,整机拥有52个自由度,算力达550T,作业续航时间超过4小时。其主要应用于室外复杂环境,面向特定用户群体与专业需求,通过在结构、性能等方面进行特殊优化,以满足特种作业需求。 灵宝CASBOT 01人形机器人(图源/企业) 对比之下,今年6月发布的CASBOT 02则定位为双足轻量化机型。这款机器人的身高约163cm,体重约55kg,搭载275tops大算力芯片;同时,硬件端配备有RGBD相机、IMU传感器及麦克风阵列,通过视觉与听觉的双重感知,令机器人具备人脸追踪与声纹识别技术,可实现“专属跟随”与“听声辨人”,即使是嘈杂环境下也能稳定识别用户指令,提升交互沉浸感,适用于多种人机交互场景,覆盖用户群体更广泛。 面向科技馆、展厅、商场、4S店等场景交互娱乐、教育科研及个人技术爱好者打造,CASBOT 02可担任导览讲解、迎宾接待、互动展示等角色,并支持未来多场景多模态的应用场景拓展。 在技术架构层面,“大脑侧”「灵宝CASBOT」选择分层端到端模型,集各类型模型所长,同时规避它们的不足。通过强化学习后训练,提高动态环境适应性、鲁棒性等。 其核心突破在于,针对具身智能机器人在精细化作业场景中面临的环境干扰、人工干预等动态挑战,凭借强化学习机制实现模型的实时自适应优化。通过实时采集作业数据,如力传感器反馈、视觉误差信号等,以闭环训练方式持续优化运动控制策略,使机器人在螺丝拧紧、工件分拣等任务中,能自主调整动作精度与轨迹规划。 左图为CASBOT 01,右图为CASBOT 02(图源/企业) 「灵宝CASBOT」联合创始人&COO张淼告诉硬氪,这种 “分层端到端+强化学习后训练” 的技术组合,既保留了分层架构对任务拆解的逻辑优势,又通过强化学习为模型提供动态进化能力,继而形成从感知到执行的全链条智能闭环,更匹配工业质检、井下作业等场景对人形机器人鲁棒性的严格要求。 当前在商业化方面,「灵宝CASBOT」将目标场景对准了工业和矿产能源两大行业。张淼指出,工业和能源领域的场景集中度高,客户需求明确且稳定,相比商业服务、教育等领域,更契合现阶段具身智能机器人的商业化发展需求。 在此之前,「灵宝CASBOT」已在应急救援、井下作业、工业制造等场景中持续积累行业Know-how,客户资源具有明显优势。 通过聚焦上述两大刚需场景,一方面可快速提升机器人出货量,借助规模化效应实现成本优化;另一方面,部署在工业和矿业场景中的机器人作为数据采集载体,能够持续收集半结构化作业数据,为具身智能模型的迭代升级提供支撑,形成 “产品落地 - 数据反哺 - 技术优化” 的良性循环,加速商业化进程与技术迭代创新。 ,灵宝CASBOT人形机器人落地演示图(图源/企业) 以工业场景为例,许多工厂面临着招工难与柔性制造转型压力,在3C、鞋服等行业的小批量多品类生产模式要求下,传统工业机器人难以适配非结构化场景。比如质检工序中,需模拟人工双手协同操作,通过双臂抓取工件、配合视觉系统多角度翻转检测,再精准放置回产线,单臂单手机器人无法满足这类手眼脑协作需求。 而在引入「灵宝CASBOT」具身智能机器人后,其五指灵巧手可以模仿人手在操作中的灵活性,在螺丝拧紧、排线插拔等工序中实现快速学习、可泛化的长时序灵巧操作,更契合柔性制造的快速换产要求。 灵宝CASBOT灵巧手(图源/企业) 硬氪了解到,依托多年来在工业与矿业能源领域的技术积累、行业洞察及能耗优化经验,「灵宝CASBOT」已同招金集团、中矿集团、中信重工等行业头部企业达成深度合作。包括瞄准矿山井下具身机器人、矿山综合安全巡检等领域成立具身智能公司,聚焦特种场景研发特种人形机器人等。 除上述两大核心领域外,面向商业服务与教育等多元化场景,「灵宝 CASBOT」正系统性推出纯标准化产品体系,通过模块化架构设计,帮助客户实现快速部署与灵活适配。 未来,「灵宝CASBOT」将围绕人形机器人在多场景下的应用展开深入研究,以推动具身智能技术在更多领域落地应用。 投资方评论: 蓝思科技表示,灵宝CASBOT在具身智能机器人领域展现了卓越的创新能力与务实的落地能力。团队对工业制造场景有着深刻的理解,其产品高度契合柔性生产、成本控制等客户核心需求,面向工业场景需求的VLA技术路线能有效应对真实制造环境的复杂性,自主研发的系列化灵巧手产品实现了亚毫米级的精密操作和柔性抓取、填补行业关键空白。蓝思科技将开放自身在消费电子、智能汽车、智能家居家电等领域的丰富场景,与灵宝CASBOT紧密协同,加速具身智能机器人在全球工业领域的规模化应用与真实落地。同时,蓝思科技也将为灵宝CASBOT机器人的量产提供关键零部件和整机组装,助力质量管控、成本管控等。双方将共同推动智能制造的升级,重新定义人机协作的未来。 天津佳益表示,灵宝CASBOT已在矿业场景建立差异化优势,与招金集团、中矿集团、中信重工等产业巨头达成深度合作。我们认为这是将技术优势转化为持续商业增长的高效引擎。在激烈的行业竞争格局下,我们选择坚定支持真正懂技术、懂产业、懂商业本质的团队。
特斯拉无人出租“翻车”了?运营首日就遭调查
特斯拉无人出租“翻车”了?上线两日多次违反交规,运营首日就遭调查 作者 | 郭月 编辑 | 志豪 车东西6月25日消息,日前,特斯拉正式在美国得克萨斯州奥斯汀市上线其Robotaxi无人驾驶出租车服务,这期间不少海外用户进行了体验。 一方面,多名用户表示特斯拉无人出租车驾驶表现丝滑,有人实测后发现该车不只礼让行人,甚至还礼让“孔雀”,有人甚至还点评说“平稳到有点无聊”。 ▲海外用户体验特斯拉Robotaxi 另一方面,特斯拉的无人出租车也曝光出一些问题:如整车异常摇晃、压线驶入对向车道、无障碍物情况下误判刹停,多次违规超速驶过路口等。 ▲Robotaxi因非车道内的静止警车猛刹 彭博社报道称,当地时间6月23日,美国国家公路交通安全管理局(NHTSA)要求特斯拉就无人驾驶出租车(Robotaxi)出现的相关问题提供更多信息。 ▲NHTSA对特斯拉无人出租车展开调查 目前,NHTSA正在审查特斯拉就其自动驾驶出租车在恶劣天气下的安全性等问题所做出的回答。而特斯拉已告知NHTSA,其关于自动驾驶出租车安全性的回答属于商业机密,不应公开。 一、两天接连超速逆行 特斯拉无人出租“栽跟头” 特斯拉在开启其Robotaxi试点服务时还是比较谨慎的,仅在奥斯汀南部的部分路段开放,或有35辆车上线,首批体验用户仅限于受邀的约20名网红或特斯拉粉丝。 ▲特斯拉Robotaxi的运营区域与Waymo对比(图源网络) 无人出租车内没有驾驶员,但是特斯拉还为每辆车配备了一名安全员,安全员坐在副驾驶位,进一步保障驾驶安全。 ▲特斯拉Robotaxi体验场景 尽管如此,特斯拉Robotaxi在运营两天内依旧出现了不少问题,车东西从这两天海外用户以及监管机构的反馈中,对于特斯拉Robotaxi曝光出的一些问题,进行了一番梳理。 表现1:方向盘“画龙”,车辆左右晃动,行驶中多次踩双黄线,甚至试图驶入逆向车道,引发其他车辆鸣笛警告。 ▲Robotaxi转向混乱短暂驶入对向车道 案例:根据播客博主Rob Maurer发布的一则近20分钟的体验视频,其乘坐Robotaxi汽车过程中,车身出现怪异晃动,短暂驶入错误车道,引发其他车辆鸣笛示警,而几秒后又迅速回归正常车道。 虽然这种危险行为最终被纠正,但目前并不确定是特斯拉的远程操作员操作,还是其FSD系统所为。 表现2:车辆因远处非车道内的静止警车突然急刹,前方无障碍物时出现非必要减速。 ▲Robotaxi因非车道内静止警车而刹停 案例:一位YouTube博主的实测视频记录了车辆在正常行驶状态下的两次突然减速、刹车,值得注意的是,车辆面前并无任何障碍物,仅在车道外停有一辆警车。 表现3:Robotaxi多次出现超速违规,例如在限速20英里/小时(约合32公里/小时)路段以35英里/小时(约合56公里/小时)行驶。 案例:特斯拉投资者索耶·梅里特 (Sawyer Merritt)分享的一段视频显示,这辆自动驾驶汽车在经过多个限速30英里/小时(约合48公里/小时)的标志时,时速达到了40英里/小时(约合64公里/小时)。 ▲Robotaxi多次出现超速现象 YouTuber兼特斯拉投资者Herbert Ong也在直播中发现,他的车在限速35英里/小时(约合56公里/小时)的区域以39英里/小时(约合63公里/小时)的速度行驶。 Ong点评说:“限速是35英里/小时,现在开到39英里/小时,这很完美。” ▲网友发帖Robotaxi多次超速 二、安全机制存疑 面临监管与公众信任危机 尽管每辆车配备车内安全员和远程操作员,但危险操作仍频繁发生。 而这些不看好特斯拉无人出租车的声音,也为部分特斯拉批判者提供了武器,他们坚称,特斯拉的自动驾驶能力尚未达到上路安全标准。 车东西在搜集海外用户的评测信息中发现,目前存在较大争议的主要有两方面,其一就是远程监控是否有效,其二就是纯视觉传感器方案是否安全。 ▲特斯拉团队监测Robotaxi的运行情况 特斯拉Robotaxi试点前,一个自称以科技安全为名的公共倡导组织“黎明计划”(The Dawn Project),于6月14日在奥斯汀策划了场抗议活动。 该组织公开演示,一辆搭载FSD系统(版本13.2.9)的特斯拉Model Y,在开启自动驾驶模式下,不仅无视伸出停车标志的校车,还直接碾过放置在车前的儿童体型假人。该组织直接指出特斯拉系统存在“致命缺陷”。 而从开启试点后的海外民众反映来看,一些网友也对特斯拉无人出租车的技术方案产生质疑。 ▲特斯拉Robotaxi技术团队 当前,Waymo的无人驾驶出租车所有车辆均配备了包括激光雷达、360度摄像头、雷达等在内的昂贵传感器,所有传感数据均由车载计算设备实时处理。 相比之下,特斯拉则采用了以摄像头为核心的纯视觉感知系统,通过神经网络的协同工作来实现自动驾驶,一些人士指出,过度依赖摄像头,可能会存在风险。 ▲提供Robotaxi服务的特斯拉Model Y 据彭博社消息,目前,美国国家公路交通安全管理局(NHTSA)已将此问题视为重大隐患,并已着手对特斯拉展开调查。 全球领先的独立嵌入式OS和开发工具供应商Green Hills Software首席执行官兼Dawn项目创始人Dan O’Dowd直接在X社交平台上呼吁,立刻停止这项危险服务。 ▲大佬呼吁暂停特斯拉Robotaxi服务 结语:特斯拉正加速自动驾驶商业化 从特斯拉Robotaxi的奥斯汀首秀暴露出的误刹车、超速、车道偏离等问题来看,特斯拉无人出租车在感知判断、精准控制及规则遵守等能力方面,还有提升的空间。 尽管特斯拉通过“安全员+远程监控”双层保险试图降低风险,但实测视频和前期安全测试争议,可能会加剧公众对无人出租车服务的担忧,其商业化进程可能会受到影响。 必须要承认,特斯拉的无人出租车仍处于成长阶段,它的推出不仅代表了技术突破,更有望为全球出行行业带来系统性重构,加快催化自动驾驶商业化竞赛。
一天15k星,代码生成碾压Claude,连Cursor都慌了 谷歌Gemini CLI杀疯了
编辑 | Tina 今天,谷歌正式发布了 Gemini CLI ,这是其 AI 助手在终端环境下的一个版本。这款工具的亮点在于其非常慷慨的免费使用配额:它支持每分钟 60 次、每天 1,000 次的模型调用。 免费配额“开挂”, 逼疯 Claude? 继 2 月的 Claude Code 和 4 月的 OpenAI Codex CLI 之后,谷歌也在 6 月推出了 Gemini CLI。至此,三大 AI 实验室都已发布了各自的“终端智能体”工具——这类 CLI 工具可以读取、修改文件,并在终端中代表用户执行命令。 估计不少人原本以为这类终端工具会一直是一个小众方向,但现在看来这是低估了它的潜力——不少开发者每月在 Claude Code 上的花费高达数百美元 甚至是数千美元,说明这个“小众市场”其实比预想中大得多、也重要得多。 相对 Claude Code,谷歌在价格方面可谓“豪横”: 使用个人 Google 账号登录,即可免费获得 Gemini Code Assist 许可。这将解锁 Gemini 2.5 Pro 模型和百万 token 上下文窗口。在此次预览期间,谷歌提供业界最宽松的调用配额:每分钟最多 60 次、每天最多 1000 次请求,全部免费。 目前来看,社区对 Gemini CLI 的关注重点集中在其超大免费配额上。评论者直言:“太夸张了,这会给 Anthropic 带来巨大压力。”“确实如此——如果这些调用限制是真的而且免费,那终于有真正的竞争了。” 与 Claude Code 不同,Gemini CLI 和 OpenAI Codex CLI 一样是开源的(使用 Apache 2.0 许可)。并且 Gemini CLI 在不到一天的时间里,获得了 15.1k 星。 Gemini CLI 提供的功能包括代码编写、问题调试、项目管理、文档查询以及代码解释。它还连接了 MCP(模型上下文协议)服务器,具备 Agentic AI 能力。 CLI 工具的优势在于,它可以与任何编辑器或 IDE 搭配使用,而不局限于特定插件支持的工具;同时还支持多实例并发运行。部分开发者也认为,命令行交互效率更高。 Gemini CLI 支持 Mac、Linux(包括 ChromeOS)和 Windows 平台。与 Claude Code 或 Codex 不同的是,Windows 上为原生实现,无需依赖 Windows 子系统(WSL)。开发者可以通过在项目根目录添加一个名为 gemini.md 的文本文件来自定义上下文和参数。谷歌高级工程师 Tayor Mullen 表示,当 CLI 检测到“值得长期保存的细节”时,也会自动将其写入该文件。 因为整体开源,所以我们还可以看到它的 system prompt。 一如既往,这份系统提示词不仅定义了工具行为,也是一份非常精炼准确的使用文档。比如它对代码注释的原则是: 注释: 请谨慎添加注释,重点说明“为什么”要这么做,尤其是处理复杂逻辑时,而不是解释“做了什么”。只有在确实能提升可读性或用户明确要求时,才添加高价值注释。请勿修改与你更改无关的注释,也绝不要通过注释与用户交流或说明你的更改。 系统默认使用的技术栈也颇有参考价值。 如果用户没有指定技术偏好,默认建议如下: Web 前端: React(JavaScript/TypeScript)+ Bootstrap CSS,结合 Material Design 设计规范; 后端 API: Node.js + Express.js 或 Python + FastAPI; 全栈应用: Next.js(React/Node.js)+ Bootstrap + Material Design,或 Python(Django/Flask)+ React/Vue.js 前端; 命令行工具(CLI): Python 或 Go; 移动 App: Compose Multiplatform(Kotlin)或 Flutter(Dart),用于跨平台开发;也支持 Jetpack Compose(Android)或 SwiftUI(iOS)原生开发; 3D 游戏: HTML/CSS/JavaScript + Three.js; 2D 游戏: HTML/CSS/JavaScript。 胜过专用, Gemini CLI 靠什么? Gemini CLI 接入的是谷歌最先进的编码与推理模型 Gemini 2.5 Pro,具备代码理解、文件操作、命令执行和动态故障排查等能力,全面提升命令行的使用体验。用户可以通过自然语言编写代码、调试问题,并优化工作流程。 不仅如此,Gemini CLI 还能基于 MCP 调用其他谷歌服务,在终端中生成图像或视频,实现从编码到创作的一体化体验。 在发布会上展示的一体化演示和背后的技术理念,其实揭示了 Gemini CLI 的关键定位——它不仅是一个写代码的工具,而是一个连接多模态智能、打通编码与创作的“终端智能体”。这一理念也体现在背后所依赖的 Gemini 2.5 Pro 模型选择上。 值得注意的是,Gemini 2.5 Pro 本身并不是为代码任务特别训练的“代码专用模型”,而是一个覆盖更广泛能力边界的通用模型。那么,为何谷歌没有像某些竞争对手那样,专门为 Gemini CLI 打造一个定制化的代码模型?在一场深度访谈中,产品负责人 Connie Fan 和研究负责人 Danny Tarlow 分享了他们的思考。 Connie Fan 表示,虽然特定任务确实可以从专用模型中受益,例如 Cursor 训练的代码补全模型“在非常窄的用例里做得非常好”,但她强调,对于大多数现实世界中的开发任务而言,编码需求往往不局限于代码本身。 例如她提到的一个经典“vibe check”请求:“帮我做一个泰勒·斯威夫特歌曲排行榜 app”——这就需要模型不仅懂代码,还要理解上下文、具备常识,甚至有些 UI/UX 审美。“这些常识背后其实是用户真实的编程需求”,她总结说,“大多数通用任务,并不能从一个纯代码模型中受益。” Danny Tarlow 则进一步指出:“代码专用模型到底意味着什么?‘代码’已经不仅仅是代码本身,它涵盖了软件开发过程中的各种环节,涉及多种信息源,有些专属于代码,有些则不是。如果只强化代码能力而削弱其他能力,反而会限制模型的表现。我们更倾向于通用模型上的协同发展,寻求不同能力之间的融合和平衡,打造一个‘通才型’模型,这才是更优的发展路径。” 实际上,现在已经有越来越多开发者开始注意到 Gemini 2.5 Pro 在代码生成和理解方面的显著提升。 在 Claude 长期占据主导的讨论氛围中,不少人也开始发出“Gemini 要逆袭了吗?”、“Google 要翻盘了吗?”的声音。社交媒体上,有用户分享了一些开发体验:在一个约 50 万行代码规模的项目中,使用 Claude Code 生成的代码质量“远远不如 CLI + Gemini 2.5 Pro”,要达到同等效果,Claude 需要开发者全程盯着。 还有开发者表示,在 Trae 上使用 Gemini 2.5 Pro 编程的完成率已经大幅超过 Claude 3.7。也有开发者表示 Gemini 修复 bug 的速度明显快于 Claude Code。 一个 3D 渲染的处理问题,让 Claude Code 修了两个小时的 bug 还没解决,结果问 Gemini 2.5 Pro,只用了 5 分钟就搞定了。感觉对于那些看起来难度比较高的问题,可以先让 Gemini 写好详细的说明书,然后再让 Claude Code 按照它来实现,这种组合用法可能会挺不错的。 这些反馈表明,过去一年,谷歌在代码能力上的提升已经进入“质变期”。 Gemini 编码产品负责人 Connie Fan 表示,Gemini 2.5 Pro 之所以能获得良好口碑,关键在于两个方面的系统性演进:“数据”和“方法论”。 从数据的角度看,“代码仓库上下文”变得非常关键。现在模型的目标不再只是做简单的代码补全,而是要理解并修改分布在多个文件、涉及多个模块的大型代码库:“模型要能完成那些你如果花一小时坐下来,在熟悉的代码库上下文中亲自去做的复杂改动。” 为了让模型真正理解这些上下文,谷歌也开始系统性地挖掘内部工程师资源。 其中还包括 Jeff Dean 这样的一些人,“他们代表了一种‘能力新等级’的标准,”Connie 直言,“我们拥有世界上最聪明、最出色、有时也最有主见的十几万工程师。”借助他们在不同语言、技术栈、经验水平上的反馈,谷歌能够覆盖更广泛的使用场景,提升模型在“专业开发者细腻口味”上的匹配能力。“我们过去其实并没有很好地利用这一点,但现在我们开始真正这样做了,而且效果非常惊人。” 从研究角度看,Gemini 团队并未将全部筹码押在“单一大上下文窗口”的方案上,而是探索双路线:一方面持续扩展上下文长度,另一方面发展具有自主搜索、推理能力的 agentic 编程模型,模型以代理的形式与用户交互,甚至具备一定程度的自主性。 正如研究负责人 Danny Tarlow 所描述: “如果我们把你(人类开发者)丢进一个大代码库里,你会怎么做?你会用代码搜索、看文件结构、点来点去,读点代码再搜索其他信息。agentic 模型就模仿了这种方式。” 更有趣的是,当模型成功处理一个百万行代码库时,用户会感受到一种“魔法般”的惊喜。而这正是 Gemini 2.5 Pro 所在意的方向:不仅是模拟人类的工作方式,更是突破人类经验限制,发展出“非人类”的全新解法。 正因如此,不少开发者开始转而重视起谷歌在这场 AI 编程竞赛中的回归。Gemini 是否“翻盘”尚未可知,但“赶超”的信号,正在越来越清晰。
一台观察人类DNA的AI“显微镜” 谷歌AlphaGenome问世
谷歌Alpha家族再添新成员。 作者 | 李水青 编辑 | 心缘 智东西6月25日报道,今天,谷歌DeepMind推出AlphaGenome,一款能帮助人们快速预测基因变化影响的AI模型。 AlphaGenome就像一台“观察人类DNA的AI显微镜”,以长达100万个碱基对的长DNA序列作为输入,预测数千种表征其调控活性的分子特性,在超20项广泛的基因组预测基准中实现了最先进的性能。 与已有的DNA序列模型相比,AlphaGenome具有几个独特的特点:支持高分辨率的长序列上下文、综合多模态预测、高效变异评分和新颖的剪接连接模型。 当下,谷歌通过AlphaGenome API提供AlphaGenome预览版,供非商业研究使用,并计划在未来发布该模型。 纪念斯隆·凯特琳癌症中心的博士Caleb Lareau说:“这是该领域的一个里程碑。我们首次拥有一个能够统一远程上下文、基础精度和各种基因组任务的尖端性能的单一模型。” 论文地址: https://storage.googleapis.com/deepmind-media/papers/alphagenome.pdf 01 . 百万DNA序列输入 预测数千种分子特性 AlphaGenome模型以长达100万个碱基对的长DNA序列作为输入,预测数千种表征其调控活性的分子特性。它还可以通过比较突变序列与未突变序列的预测结果来评估遗传变异或突变的影响。 预测的属性包括基因在不同细胞类型和组织中的起始和终止位置、基因剪接的位置、产生的RNA数量,以及哪些DNA碱基可接近、彼此靠近或与某些蛋白质结合。训练数据来源于大型公共联盟,包括ENCODE、GTEx、4D Nucleome和FANTOM5,这些联盟通过实验测量了这些属性,涵盖了数百种人类和小鼠细胞类型和组织中基因调控的重要模式。 动画显示AlphaGenome将一百万个DNA字母作为输入,并预测不同组织和细胞类型的不同分子特性。AlphaGenome架构使用卷积层初步检测基因组序列中的短模式,使用转换器在序列的所有位置传递信息,最后使用一系列层将检测到的模式转化为不同模态的预测。在训练过程中,此计算分布在单个序列的多个互连张量处理单元(TPU)上。 该模型以谷歌之前的基因组学模型Enformer为基础,并与AlphaMissense相辅相成,后者专门对蛋白质编码区内变异的影响进行分类。这些区域覆盖了基因组的2%。其余98%的区域称为非编码区,对调控基因活动至关重要,并包含许多与疾病相关的变异。AlphaGenome为解读这些广泛的序列及其内部的变异提供了一个新的视角。 02 . 高分辨率的长序列上下文 综合多模态预测 与已有的DNA序列模型相比,AlphaGenome具有几个独特的特点: 1、高分辨率的长序列上下文 谷歌的模型分析多达一百万个DNA碱基,并以单个碱基的分辨率进行预测。长序列上下文对于覆盖远处调控基因的区域至关重要,而碱基分辨率对于捕捉精细的生物学细节至关重要。 先前的模型必须在序列长度和分辨率之间做出权衡,这限制了它们能够联合建模并准确预测的模态范围。谷歌的技术进步解决了这一限制,且无需显著增加训练资源——训练单个AlphaGenome模型(未进行数据蒸馏)耗时4小时,且所需的计算预算仅为训练原始Enformer模型的一半。 2、综合多模态预测 通过解锁长输入序列的高分辨率预测,AlphaGenome能够预测最多样化的模态。由此,AlphaGenome为科学家提供了有关基因调控复杂步骤的更全面的信息。 3、高效变异评分 除了预测各种分子特性外,AlphaGenome还能在一秒钟内高效地评估基因变异对所有这些特性的影响。它通过对比突变序列和未突变序列的预测,并针对不同模式使用不同的方法高效地总结这种对比来实现这一点。 4、新颖的剪接连接模型 许多罕见遗传疾病,例如脊髓性肌萎缩症和某些形式的囊性纤维化,都可能由RNA剪接错误引起。RNA剪接是指RNA分子的部分被移除,或“剪接掉”,然后剩余的末端重新连接在一起的过程。AlphaGenome首次能够直接从序列中明确模拟这些连接的位置和表达水平,从而更深入地了解遗传变异对RNA剪接的影响。 03 . 超20项基准测试中表现最佳 AlphaGenome在广泛的基因组预测基准中实现了最先进的性能,例如预测DNA分子的哪些部分将会靠近,遗传变异是否会增加或减少基因的表达,或者它是否会改变基因的剪接模式。 下方条形图显示了AlphaGenome在选定的DNA序列和变异效应任务上的相对改进,并与每个类别中当前最佳方法的结果进行了比较。 在对单个DNA序列进行预测时,AlphaGenome在24项评估中,有22项的表现优于市面上已有的最佳模型。在预测变异的调控效应时,它在26项评估中,有24项的表现与最佳外部模型相当甚至超过了最佳外部模型。 本次比较涵盖了针对特定任务的模型。AlphaGenome是唯一能够联合预测所有评估模态的模型,彰显了其通用性。 04 . 统一模型 更快地生成和测试假设 AlphaGenome的通用性使科学家能够通过单个API调用同时探索一个变异对多种模式的影响。这意味着科学家可以更快地生成和测试假设,而无需使用多个模型来研究不同的模式。 此外,AlphaGenome的出色表现表明,它已经在基因调控的背景下学习到了相对通用的DNA序列表征。这为更广泛的研究社区奠定了坚实的基础。一旦该模型全面发布,科学家们将能够在自己的数据集上对其进行调整和微调,以更好地解决他们独特的研究问题。 最后,这种方法为未来提供了一个灵活且可扩展的架构。通过扩展训练数据,AlphaGenome的功能可以得到扩展,从而获得更好的性能,覆盖更多物种,或包含更多模态,使模型更加全面。 05 . 助力疾病理解、基础研究等 AlphaGenome的预测能力可以帮助多种研究途径: 1、疾病理解:通过更准确地预测基因突变,AlphaGenome可以帮助研究人员更精准地查明疾病的潜在病因,并更好地解释与某些性状相关的变异的功能影响,从而可能发现新的治疗靶点。我们认为该模型尤其适用于研究可能产生巨大影响的罕见变异,例如导致罕见孟德尔遗传病的变异。 2、合成生物学:它的预测可用于指导具有特定调节功能的合成DNA的设计——例如,仅激活神经细胞中的基因,而不是肌肉细胞中的基因。 3、基础研究:它可以通过协助绘制基因组的关键功能元素并定义其作用,识别调节特定细胞类型功能的最重要DNA指令,加速我们对基因组的理解。 例如,谷歌使用AlphaGenome研究了一种癌症相关突变的潜在机制。在一项针对T细胞急性淋巴细胞白血病(T-ALL)患者的现有研究中,研究人员观察到基因组特定位置的突变。利用AlphaGenome,他们预测这些突变会通过引入MYB DNA结合基序来激活附近的TAL1基因,这复制了已知的疾病机制,并凸显了AlphaGenome将特定非编码变异与疾病基因关联起来的能力。 伦敦大学学院Marc Mansour教授说:“AlphaGenome将成为该领域的一个强大工具。确定不同非编码变异之间的相关性可能极具挑战性,尤其是在大规模研究的情况下。该工具将提供关键的线索,帮助我们更好地理解癌症等疾病。” 06 . 结语:AI基因预测重要一步 AlphaGenome标志着AI基因预测向前迈出了重要一步,但仍有其局限性。 与其他基于序列的模型一样,准确捕捉极远距离调控元件的影响(如那些相距超过10万 DNA 碱基的调控元件)仍然是一个尚未解决的挑战。 同时,谷歌尚未设计或验证AlphaGenome用于个人基因组预测。虽然AlphaGenome可以预测分子结果,但它并不能全面展现基因变异如何导致复杂的性状或疾病。
小米 AI 眼镜全汇总:年轻人的第一幅智能眼镜,终于要上头了
本周四(6 月 26 日),小米在「人车家全生态发布会」上正式发布了旗下首款使用小米商标的 AI 智能眼镜产品,为小米「人、车、家」生态再添一步棋。 根据小米在发布会上的展示,小米 AI 眼镜定位「面向下一个世代的个人智能设备」,是一款基于语音和触控操作、不包含显示功能的智能眼镜,支持语音通话和拍照录像。 对于一款智能眼镜来说,好不好看是第一要义,毕竟与 AR 头显、VR 手柄之类的配件不同,智能眼镜是具有非常强烈配饰属性的产品。好消息是,小米 AI 眼镜也的确是将工业设计放在优先位置的: 小米 AI 眼镜采用了较为保守的 D 型方框设计,整体造型接近经典的威灵顿式镜框(Wellington Frame),与上周 Meta 与欧克利合作的 Oakley Meta HSTN 的圆框型相比,小米的选择更加适合亚洲人脸型,搭配最大可以 12 度外翻的转轴,有效避免了以往智能眼镜眼镜腿粗厚导致的夹头问题。 亨利·卡维尔版本的《超人》在伪装成克拉克·肯特时,选择的就是威灵顿风格镜框 在造型与颜色方面,小米 AI 眼镜只有一种可选的框型与三种配色:黑色、玳瑁棕与鹦鹉绿,其中后两种是烟熏色风格的半透明镜架,与「透明探索版」的小米 8 有异曲同工之妙—— 对于眼镜来说至关重要的重量方面,小米 AI 眼镜在裸框无镜片的情况下重量约为 40 克。而在最重的情况下,搭配玻璃镜片后的整体重量约在 50~60 克,如果需要全天佩戴的话还是应该尽量选择树脂镜片。 好消息是,小米也的确考虑到了需要处方眼镜的人群,并没有推出一款纯平光镜。小米 AI 眼镜既可以当作裸框去线下直接验光配镜,也可以在小米有品 app 里面定制处方镜片,镜片供应商为上海明月眼镜。 有趣的是,除了平光镜片、处方镜片和墨镜片之外,小米这次还给智能眼镜带来另一个新的选择:电致变色镜片。 与波音 787 上面的可变色舷窗原理类似,电致变色镜片的透明度可以通过施加不同的电压进行调整,反应速度比一般的紫外线光致变色镜片要灵敏的多: 本次的小米 AI 眼镜共包含两款搭配电致变色镜片的版本,分为单色款和多色款。通过在镜腿侧边滑动控制,单色款电变镜片可以调节四档遮光度,多色款则可以在黑色、粉色、蓝色和紫色之间切换。 第一人称相机 如果说现阶段智能眼镜最独树一帜的功能是什么,那毫无疑问是能够拍摄和录制第一人称视角的照片与视频,实现 100% 的解放双手: 作为直接与 Meta 对标的功能,小米自然也将主要的精力放在了相机上。根据发布会的介绍,小米 AI 眼镜配备了一块 1200 万像素的 IMX681 传感器,与雷鸟 V3 上面使用的是同一颗,最高可以录制 2304×1728 分辨率的 2K 30 帧视频,并且支持 EIS 电子防抖。 此外,小米 AI 眼镜上还有一个四麦克风阵列,借助于骨传导麦克风以及抗风噪设计,可以满足从轻度运动到城市街拍的各种使用场景。与 Ray-Ban Meta 类似,小米 AI 眼镜也选择了镜头居左、指示灯居右的布局,快门键位于右侧镜腿上。 小米 AI 眼镜并不是一个独立的 POV 相机,而是澎湃生态中的一环。根据小米的介绍,小米 AI 眼镜支持在微信和 QQ 的视频通话中,可以借助 HyperOS 的相机流转功能替代手机摄像头,真正实现「换位观察」: 更精彩的是,这套玩法并不仅限于视频通话,小米 AI 眼镜是可以用来直播的。 发布会上,小米宣布和哔哩哔哩、抖音、快手和小红书达成了合作,实现了在直播中直接采集小米 AI 眼镜拍摄的画面,省去了以往用运动相机直播推流时要用到的一大堆设备,现在只需要带一部手机、一根数据线和一副眼镜就可以光速开播了。 随身 AI 设备 除了拍照录像,小米 AI 眼镜还有一个角色:实时的小爱同学伴侣。有了小爱同学打底,小米 AI 眼镜的智能化精确识别能力应该是完全不用担心的: 而在翻译方面,小米 AI 眼镜自然也支持了同声传译功能,目前支持中文与英、法、日、韩、德、意、葡、西、俄、印尼语共计十种语言互译,是目前市场上能够买到的智能眼镜产品中支持翻译语言最多的。 除此之外,小米 AI 眼镜也可以配合手机上的录音 app,实现会议中的无感录音和人位录音,回放的时候临场感更强,录音时的打扰性也比手机更低。不过小米 AI 眼镜的同传暂时不支持外语间互译,这个情况在推出国际版时可能会得到改善。 一副全天候智能眼镜 对于智能眼镜来说,除了一颗好的摄像头和优秀的算法之外,续航也是必须要重视的指标。 根据发布会上的介绍,小米 AI 眼镜使用的是高通 AR1 处理器,这是一颗带 NPU 单元和双 ISP(图像处理器)的低功耗芯片,是高通智能穿戴设备处理器中的旗舰。而面对音乐等低功耗场景,小米还搭配了来自恒玄科技的 BES2700H 蓝牙音频处理器,组成了类似 Vision Pro 的「一机双芯」配置。 小米 AI 眼镜使用的是与小米 15 Pro 上相同的高密度硅负极电池技术,纯蓝牙通话或音乐的续航为 7~8 小时左右,在压力更大的混合使用场景(通话+视频+拍照+小爱对话+识图问答)中也达到了约 8.6 小时的典型续航,基本满足普通用户一整天的使用需求,0~100% 充电时长约为 50 分钟。 当然,在直播这样的高功耗场景下,小米 AI 眼镜也支持使用 USB-C 线缆直接供电,接口位于右侧镜腿末端。只不过从发布会上公布的信息来看,这枚接口应该只能用于充电,不具备数据传输和 DAC 功能,也就不支持有线音乐播放了。 小米 AI 智能眼镜的售价为 1999 元,电致变色款分别为 2699 和 2999 元。如果你有医疗镜片的需求,小米与全国近 400 家眼镜门店达成了合作,可以携带小米 AI 眼镜线下验光、现场配镜。
小米MIX Flip 2发布:20万次折叠如新,5999元起
凤凰网科技讯 6月26日,小米今日正式发布其新一代竖向折叠屏旗舰——小米MIX Flip 2。新机以轻至199克、薄至7.57毫米的紧凑机身亮相,主打精致设计与全能体验,起售价5999元。 小米MIX Flip 2的一大亮点在于其4.01英寸多功能外屏。官方宣称该外屏适配了超过500款高频应用,如微博、抖音、小红书等,提供接近内屏的操作体验,用户可直接在外屏进行桌面编辑、亮屏扫码等操作。更配备了独立听筒与麦克风,支持用户在不展开手机的情况下直接接打电话。此外,新增的萌宠锁屏功能,特别是AI定制爱宠锁屏,增添了趣味性和个性化选择。 展开手机,小米MIX Flip 2则展现出直板旗舰的性能水准。其搭载最新的骁龙8至尊版,并首次在小型折叠屏设备上应用双VC立体散热系统,旨在挑战直板旗舰的散热表现。续航方面配备了折叠屏手机中容量领先的5165mAh小米金沙江电池,并支持目前折叠屏手机中最高的50W无线快充。 内屏的耐用性和平整度是折叠屏的关键。小米MIX Flip 2采用新一代小米龙骨转轴,官方介绍其采用了行业首创的“三级连杆+四浮板”结构,结合6.86英寸、覆盖50μm超韧柔性玻璃的内屏,宣称能有效提升屏幕平整度,挑战20万次折叠后折痕如新,整机抗冲击能力也向直板旗舰看齐。 影像方面,小米MIX Flip 2延续与徕卡的合作,搭载新一代徕卡光学Summilux镜头。后置双摄组合包括5000万像素徕卡高动态主摄和5000万像素徕卡超广角镜头,满足日常拍摄及多人场景需求。得益于折叠形态,手机支持多角度悬停拍摄,为用户提供更灵活的取景方式。
说好的“美国制造”呢?特朗普手机官网改口了
T1手机不在美国制造了? 凤凰网科技讯 北京时间6月26日,据科技网站TheVerge报道,特朗普旗下虚拟运营商Trump Mobile的官网在宣传其T1手机时已经删除了“美国制造”字眼,不再承诺在美国制造其手机。 本月早些时候,特朗普集团推出了虚拟运营商Trump Mobile,并同时发布了旗舰手机T1 Phone 8002(金色版)。这款手机的一个主要卖点是“美国制造”。然而,TheVerge等媒体均怀疑这款手机能否真的能够实现在美国制造。 事实证明,外界的怀疑是对的。过去几天,Trump Mobile网站上所有表明T1为美国制造的描述似乎都已被删除。例如,主页上曾经有一条醒目的横幅标语:“T1是美国制造”(MADE IN THE USA)。目前,这类措辞已经找不到了。 Trump Mobile已经没有了美国制造字眼 相反,Trump Mobile官网现在只剩一些模糊不清、带有爱国色彩的智能手机制造口号,试图与智能手机制造挂钩。T1手机的新标语是:“卓越性能,美国骄傲”。官网称该手机“是基于美国价值观设计”,并且“每一部设备的背后都有美国人的参与”。在“主打功能”部分,Trump Mobile首先列出的是“令美国人自豪的设计”。这些措辞毫无实质意义,既未标明手机在美国制造,甚至没提是否在美国设计,只能表明有些美国人参与了某个环节。 与此同时,T1的手机配置似乎也缩水了。Trump Mobile最初表示,该手机配备一块6.78英寸AMOLED 屏幕,但现在写的是6.25英寸。原网站还标注该手机拥有 12GB内存,而现在则完全没有列出内存信息。 目前还不清楚究竟发生了什么事。特朗普集团没有回应置评请求。不过,看起来Trump Mobile可能已经更换了T1的供应商。不管怎么说,这无疑又多了一个理由让人质疑这款手机是否真的存在。不过,那张粗糙的PS手机宣传图倒是还没换,也算是唯一没变的东西了。 特朗普集团在刚刚推出Trump Mobile时曾承诺,T1 Phone 8002将于9月发货。但现在,TheVerge能找到的唯一时间说法是“今年晚些时候”。所以,最好别对这部手机抱太大希望。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
1999 元起,小米 AI 眼镜发布!雷军:面向下一个时代的智能设备
就在刚刚,小米正式发布了旗下首款 AI 智能眼镜。 雷军表示,这是一款定位面向下一个时代的个人智能设备,也是随身的 AI 入口。 🕶️ 小米 AI 眼镜采用经典 D 型方框设计,贴合多数亚洲脸型,不含镜片重量仅约 40 克,提供黑色、玳瑁棕与鹦鹉绿三种配色,还推出两款电致变色版本。 拍摄体验方面,小米 AI 眼镜支持第一人称视角拍摄,配有一颗 1200 万像素摄像头(索尼 IMX681),最高可录制 2K/30fps 视频。 同时,眼镜可将拍摄画面接入第三方 APP,比如支持微信视频通话视角切换,也支持在抖音、快手、哔哩哔哩、小红书等平台开启直播。 🔋 在硬件配置上,小米 AI 眼镜采用 4 麦克风阵列设计,搭载高通+恒玄双芯架构,配合金沙江高密度硅负极电池,右侧镜腿末端内置 Type-C 接口。 此外,小米 AI 眼镜移植了超级小爱的能力,支持拍照识物、翻译(中文与 10 种外语互译)、会议纪要、以及和支付宝合作的「看一下支付」功能,双手腾不开也能眼镜扫码,多维度确保交易安全。 🚘 这副眼镜还深度融入小米人车家全生态。手机端支持语音控制播放音乐、设闹钟、打电话和导航。 最后,小米 AI 智能眼镜的价格公布: 标准版:1999 元 单色电致变色版:2699 元 彩色电致变色版:2999 元
小米 AI 眼镜全汇总:年轻人的第一副智能眼镜,终于要上头了
小米眼镜 狠狠上头 本周四(6 月 26 日),小米在「人车家全生态发布会」上正式发布了旗下首款使用小米商标的 AI 智能眼镜产品,为小米「人、车、家」生态再添一步棋。 根据小米在发布会上的展示,小米 AI 眼镜定位「面向下一个世代的个人智能设备」,是一款基于语音和触控操作、不包含显示功能的智能眼镜,支持语音通话和拍照录像。 对于一款智能眼镜来说,好不好看是第一要义,毕竟与 AR 头显、VR 手柄之类的配件不同,智能眼镜是具有非常强烈配饰属性的产品。好消息是,小米 AI 眼镜也的确是将工业设计放在优先位置的: 小米 AI 眼镜采用了较为保守的 D 型方框设计,整体造型接近经典的威灵顿式镜框(Wellington Frame),与上周 Meta 与欧克利合作的 Oakley Meta HSTN 的圆框型相比,小米的选择更加适合亚洲人脸型,搭配最大可以 12 度外翻的转轴,有效避免了以往智能眼镜眼镜腿粗厚导致的夹头问题。 亨利·卡维尔版本的《超人》在伪装成克拉克·肯特时,选择的就是威灵顿风格镜框 在造型与颜色方面,小米 AI 眼镜只有一种可选的框型与三种配色:黑色、玳瑁棕与鹦鹉绿,其中后两种是烟熏色风格的半透明镜架,与「透明探索版」的小米 8 有异曲同工之妙—— 对于眼镜来说至关重要的重量方面,小米 AI 眼镜在裸框无镜片的情况下重量约为 40 克。而在最重的情况下,搭配玻璃镜片后的整体重量约在 50~60 克,如果需要全天佩戴的话还是应该尽量选择树脂镜片。 好消息是,小米也的确考虑到了需要处方眼镜的人群,并没有推出一款纯平光镜。小米 AI 眼镜既可以当作裸框去线下直接验光配镜,也可以在小米有品 app 里面定制处方镜片,镜片供应商为上海明月眼镜。 有趣的是,除了平光镜片、处方镜片和墨镜片之外,小米这次还给智能眼镜带来另一个新的选择:电致变色镜片。 与波音 787 上面的可变色舷窗原理类似,电致变色镜片的透明度可以通过施加不同的电压进行调整,反应速度比一般的紫外线光致变色镜片要灵敏的多: 本次的小米 AI 眼镜共包含两款搭配电致变色镜片的版本,分为单色款和多色款。通过在镜腿侧边滑动控制,单色款电变镜片可以调节四档遮光度,多色款则可以在黑色、粉色、蓝色和紫色之间切换。 第一人称相机 如果说现阶段智能眼镜最独树一帜的功能是什么,那毫无疑问是能够拍摄和录制第一人称视角的照片与视频,实现 100% 的解放双手: 作为直接与 Meta 对标的功能,小米自然也将主要的精力放在了相机上。根据发布会的介绍,小米 AI 眼镜配备了一块 1200 万像素的 IMX681 传感器,与雷鸟 V3 上面使用的是同一颗,最高可以录制 2304x1728 分辨率的 2K 30 帧视频,并且支持 EIS 电子防抖。 此外,小米 AI 眼镜上还有一个四麦克风阵列,借助于骨传导麦克风以及抗风噪设计,可以满足从轻度运动到城市街拍的各种使用场景。与 Ray-Ban Meta 类似,小米 AI 眼镜也选择了镜头居左、指示灯居右的布局,快门键位于右侧镜腿上。 小米 AI 眼镜并不是一个独立的 POV 相机,而是澎湃生态中的一环。根据小米的介绍,小米 AI 眼镜支持在微信和 QQ 的视频通话中,可以借助 HyperOS 的相机流转功能替代手机摄像头,真正实现「换位观察」: 更精彩的是,这套玩法并不仅限于视频通话,小米 AI 眼镜是可以用来直播的。 发布会上,小米宣布和哔哩哔哩、抖音、快手和小红书达成了合作,实现了在直播中直接采集小米 AI 眼镜拍摄的画面,省去了以往用运动相机直播推流时要用到的一大堆设备,现在只需要带一部手机、一根数据线和一副眼镜就可以光速开播了。 随身 AI 设备 除了拍照录像,小米 AI 眼镜还有一个角色:实时的小爱同学伴侣。有了小爱同学打底,小米 AI 眼镜的智能化精确识别能力应该是完全不用担心的: 而在翻译方面,小米 AI 眼镜自然也支持了同声传译功能,目前支持中文与英、法、日、韩、德、意、葡、西、俄、印尼语共计十种语言互译,是目前市场上能够买到的智能眼镜产品中支持翻译语言最多的。 除此之外,小米 AI 眼镜也可以配合手机上的录音 app,实现会议中的无感录音和人位录音,回放的时候临场感更强,录音时的打扰性也比手机更低。不过小米 AI 眼镜的同传暂时不支持外语间互译,这个情况在推出国际版时可能会得到改善。 一副全天候智能眼镜 对于智能眼镜来说,除了一颗好的摄像头和优秀的算法之外,续航也是必须要重视的指标。 根据发布会上的介绍,小米 AI 眼镜使用的是高通 AR1 处理器,这是一颗带 NPU 单元和双 ISP(图像处理器)的低功耗芯片,是高通智能穿戴设备处理器中的旗舰。而面对音乐等低功耗场景,小米还搭配了来自恒玄科技的 BES2700H 蓝牙音频处理器,组成了类似 Vision Pro 的「一机双芯」配置。 小米 AI 眼镜使用的是与小米 15 Pro 上相同的高密度硅负极电池技术,纯蓝牙通话或音乐的续航为 7~8 小时左右,在压力更大的混合使用场景(通话+视频+拍照+小爱对话+识图问答)中也达到了约 8.6 小时的典型续航,基本满足普通用户一整天的使用需求,0~100% 充电时长约为 50 分钟。 当然,在直播这样的高功耗场景下,小米 AI 眼镜也支持使用 USB-C 线缆直接供电,接口位于右侧镜腿末端。只不过从发布会上公布的信息来看,这枚接口应该只能用于充电,不具备数据传输和 DAC 功能,也就不支持有线音乐播放了。 小米 AI 智能眼镜的售价为 1999 元,电致变色款分别为 2699 和 2999 元。 如果你有医疗镜片的需求,小米与全国近 400 家眼镜门店达成了合作,可以携带小米 AI 眼镜线下验光、现场配镜。 文 | 马扶摇
小米首款AI眼镜终于来了,还是“美丽废物”吗?
摘要: 小米AI眼镜将全面对标Meta Ray-ban? 凤凰网科技 出品 作者|姜凡 编辑|董雨晴 6月26日晚,小米首款AI眼镜——xiaomi AI Glasses正式在发布会上亮相。标准版售价1999,这个价格,符合你的预期吗? 以前想象的智能时代或许已经来临,不用扫码就能付款。用一款眼镜,可以解放双手拍视频。xiaomi AI Glasses支持EIS防抖技术,可实现2K分辨率、30帧每秒的视频录制,并配备有独立相机按键。 AI眼镜,还是“美丽废物”吗? 小米 AI 眼镜运用的是较为普遍的 D 型方框造型,整体只有40g,其镜腿纤细,整体外观与普通眼镜更为相近,提供黑色、玳瑁棕与鹦鹉绿三种配色,并推出两款电致变色版本。 AI眼镜到底可以做什么?雷军直接将其定义为“面向下个时代的个人智能设备”。就在发布会前一天,雷军在个人微博透露了更多细节——小米AI眼镜支持第一视角拍摄:支持语音指令“小爱同学,开始录像”,即可记录攀岩、骑行、烹饪、亲子互动等场景的第一人称视频。演示视频显示,其沉浸式视角在运动、手工、艺术创作等场景中具备强应用潜力。 当然,AI眼镜的噱头也是AI,通过内置的小爱同学,用户可直接通过语音与眼镜交互,实时获取信息:包括AI识物问答:识别路边花卉品种、查询植物养护方法、辨别宠物种类、计算食物热量,甚至解答“水豚吃什么”“小浣熊为何喜欢树干”等百科问题。 在续航能力方面,小米智能眼镜Vela架构师周文杰曾分享,小米AI眼镜采用的自研Vela系统,主打更低功耗,可以做到24小时持续感知环境。 “百镜大战”又来了 凤凰网科技了解到,该款眼镜由小米与歌尔合作完成,而36氪曾报道,对于这款产品的出货量,雷军的预期“在三十万台往上”。 当时已有知情人士表示,小米AI眼镜将全面对标Meta Ray-ban,搭载AI功能、音频耳机模块、摄像头模块等。Meta Ray-ban被视为全球最成功的AI硬件,没有之一,其出货量在2024年突破了200万台,最低起售价为299美元(约合人民币2143元)。 Meta Ray-ban的成功,也在此后撕裂了中国AR行业。一些先前坚持探索AR的企业,开始加码AI眼镜,后者往往不带显示,成本也更低,上手门槛更低。 “硬件的能力显然还达不到,现在的AI眼镜就是个玩具,完全的炒概念”,但也有AR赛道从业者告诉凤凰网科技,其认为Meta Ray-Ban的成功与其带有的时尚属性息息相关,AI反倒只是一个附属品。 即便如此,AI眼镜还是迎来了百镜大战,不仅有大量公司跨界入局,小米、字节、百度等大厂均表态入场。最新消息显示,6月,老凤祥AI眼镜也在上海老博会首次正式亮相。 据研究机构深圳市维深信息估算,小米AI眼镜的税后综合成本约1281元。一位行业从业人士向凤凰网科技分析表示,“刚刚在高端市场有起色的小米,在AI眼镜这样的新技术市场,不会再走低价老路。”截至小米发布会开始前,小米AI眼镜在京东平台的预约量达到了4.1万。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。