行业分类:
加载中...
头条分类:
加载中...
平均每月发射26次!全球航天进入“周更时代”
今日,第三届中国商业航天发展大会在北京召开,会上正式启动商业航天产业联盟科创基金,并公布产业相关数据。 据悉,此次基金首次发行规模10至20亿,远期拟扩至100亿,存续期10年,将分阶段完成资金投放与项目布局,最终目标实现约70%项目退出。 投资方向聚焦低轨卫星星座及卫星互联网、可重复使用运载器及火箭发射服务、商业航天新材料和新器件、空间资源开发利用及新兴太空服务四大领域。 与此同时,中关村领创商业航天产业联盟副理事长兼秘书长龙开聪指出,截至11月,全球平均每月发射超过26次,标志着全球航天进入了“周更发射时代”。预计全年发射次数将突破320次,创下历史新纪录。 《中国商业航天产业研究报告》数据显示,截至目前,全球共进行了325次航天发射,入轨航天器4026颗。其中,中国87次(成功84次),民营商业火箭企业执行23次发射任务,入轨航天器324颗。 而对于2026年的航天发射计划,中国载人航天工程办公室已公布将组织实施天舟十号、神舟二十三号、神舟二十四号、梦舟一号4次飞行任务。其中,梦舟一号飞行任务将首次采用长征十号甲可回收运载火箭进行发射。此外,在近日落幕的文昌航天论坛上,中国火箭总经理关嵩宣布,长征十号乙可重复使用火箭预计2026年4月达成首飞条件。 从技术层面来看,可回收火箭当前备受市场关注。昨日,长征十二号甲在东风商业航天创新试验区发射升空,运载火箭二子级进入预定轨道,一子级未能成功回收,飞行试验任务获得基本成功。 据国家国防科技工业局官方微信,本次任务虽未实现预定的火箭一级回收目标,但是获取了火箭真实飞行状态下的关键工程数据,为后续子级可靠回收奠定了重要基础。 2025年底开始,天兵科技的天龙三号、蓝箭航天的朱雀三号遥二、中科宇航的力箭二号、星际荣耀的双曲线三号、东方空间的引力二号、星河动力的智神星一号等一批新型号商业火箭有望陆续迎来可回收实验。 此外,我国低轨卫星互联网建设将进入新一轮密集部署期。2026年,以星网集团与垣信卫星为代表的星座企业,将陆续启动大规模卫星招标工作,旨在加速星座组网进程,抢占轨道与频率资源。 这一轮招标不仅意味着卫星需求将迎来显著放量,更将带动从火箭到卫星制造、载荷配套等全产业链的协同发展。 东吴证券指出,经过批量首飞验证,2026年商业火箭有望由量变引发质变,有望见证中国进入火箭可回收时代。卫星与火箭两大环节将形成“供需共振”局面,推动整个航天产业进入快速扩张阶段。 投资方面,该机构表示,商业火箭正处于从0到1的阶段,弹性最大;卫星方面,发星量确定性增长,建议关注高价值量载荷。
苹果下一代iPhone图像传感器有望“美国造”,消息称三星代工
IT之家 12 月 24 日消息,韩媒 The Elec 今日发布消息称,三星正准备在美国得克萨斯州奥斯汀市的晶圆厂导入生产设备,目标是量产 CMOS 图像传感器,并供应给苹果的 iPhone。 图源三星 上周,三星启动了机械和电气项目经理的招聘,此类岗位主要负责晶圆厂的“hookup”工程。 IT之家注:“hookup”指为设施铺设气体和水等公用系统管线,需要在设计方、设备工程师与供应商之间进行协调。 招聘动作也表明,无尘室的基础施工已进入收尾阶段,等 hookup 完成后,生产设备才会正式进厂安装。 与此同时,三星同步招募清洁设备的工程师和技术人员,用于硅晶圆表面的清洁作业。在芯片制造过程中,杂质可能引发电路缺陷,因此清洗工序占据了整个制程约 40% 的步骤。 本月早些时候,三星向奥斯汀市议会通报,将在当地晶圆厂投入 190 亿美元(现汇率约合 1337.33 亿元人民币),用于日常维护以及引入先进制造设备。 消息人士称,这笔追加投资与三星在 8 月敲定的一项新订单有关,内容是为苹果提供 CIS。 在技术路线方面,三星计划采用晶圆对晶圆混合键合技术,将用于光电二极管、晶体管和模数转换的三片晶圆进行堆叠,从而实现像素更小、噪声更低的新型 CIS。 按照目前规划,这条 CIS 新产线最早有望在明年 3 月投运。
小米17 Ultra徕卡版或定价过万 博主:真的不意外
12月24日,数码圈因小米17 Ultra徕卡版的定价讨论热度攀升。 数码博主“i冰宇宙”发文称,小米17 Ultra徕卡版本质上可看作一台“徕卡手机”。 此前,Leitz Phone的售价就已超过一万元,如今小米17 Ultra徕卡版新增机械变焦环和徕卡Logo专属设计,在国内售价过万真的不意外。 该博主补充道:如果小米17 Ultra徕卡版不设定高价,标准版将陷入尴尬境地。购买徕卡版的消费者通常不会对价格敏感,而觉得价格偏高的人自然会选择标准版。 另一位数码博主表示,17 Ultra徕卡版堪称小米自己的“非凡大师”。 考虑到今年手机增配以及内存涨价的因素,以标准版12+256配置6999元起售为锚点,这套定价逻辑是合理的。 此前小米15 Ultra发布时,小米官方曾称这是“最后一次6499元”。 小米集团总裁卢伟冰曾表示,当时并没有完全考虑到内存,仅仅是基于处理器成本、相机配置上涨而作出的判断。 而17 Ultra更是叠加了内存的上涨,且涨幅远高于处理器、相机等。 小米17 Ultra是小米和徕卡“战略共创模式”下的首款产品,在影像领域亮点十足。 它将首次推出应用于移动影像领域的徕卡APO认证长焦镜头,在夜景画质、大光比场景细节呈现等方面有望实现重要突破。 而17 Ultra徕卡版将在其基础上更强,有望带来更好的使用体验。
美国对近18万辆特斯拉Model 3开启调查:应急机械门把手不显眼
快科技12月24日消息,据报道,美国国家公路交通安全管理局(NHTSA)宣布对特斯拉Model 3展开缺陷调查。 缺陷调查办公室称,调查对象为约179071辆2022款Model 3,核心原因为紧急情况下车门应急释放装置是否容易找到、是否足够醒目。 美国国家公路交通安全管理局表示,调查在当地时间12月23日收到缺陷请愿后正式启动。 请愿内容认为,车辆配备的机械式车门应急拉手被隐藏在不显眼的位置,没有明确标识,在紧急状况下并不直观,可能影响乘员迅速逃生。 目前,特斯拉方面还未对此事进行回应。 据了解,虽然特斯拉配备了机械门把手释放功能,用于紧急情况或断电时使用,但专家认为机械把手设置的区域不够直观,尤其是对后排乘客而言。 上个月,特斯拉因威斯康星州一起火灾事故被起诉 ,事故导致Model S车内五名乘客全部遇难,据称他们因设计缺陷无法打开车门而被困车内。 此外,美国NHTSA在今年9月份,还对部分特斯拉车型的车门缺陷展开调查,截至10月27日,NHTSA称已收到至少16起相关投诉,涉及儿童被困、高温窒息等极端情况。 有车主透露,在下车后被锁在了车外,由于特斯拉电子门把手失灵导致无法开门,自己的孩子被困在车的后排,他们不得不打破窗户玻璃。 NHTSA表示,正进一步评估这一问题所波及的范围和严重性,如果最终认定电子门把手问题对车辆构成不合理的风险,相关车辆将面临召回。
INAIR发布空间计算机套装:眼镜、键盘、计算机三合一,AI情境感知能力提升,定价6999
作者 | 陈骏达 编辑 | 心缘 智东西5月15日报道,今天,国内AI空间计算终端创企INAIR发布了空间计算机套装INAIR 2 Elite Suite,将INAIR Glass眼镜(显示)、INAIR Pod空间电脑主机(运算)和INAIR Touchboard键盘触控板组合(交互)三大硬件集成,提供更为适应移动办公需求的空间计算体验。这一套装将于今年6月发售,定价为6999元。 INAIR 2 Elite Suite空间计算机套装中的INAIR Glass眼镜相当于一块随身的125英寸大屏幕,可提供沉浸式的工作体验。在智东西的体验中,这块4K屏幕的确提供了较高的清晰度,亮度适中。 INAIR Pod是专为AR设计的空间电脑主机,配备高通8核处理器、8GB运行内存和128GB存储空间。 交互方面,INAIR 2 Elite Suite空间计算机套装中的空间电脑主机可实现触控、空间指向交互,INAIR Touchboard键盘触控板组合则提供全键盘的输入交互。 ▲INAIR 2 Elite Suite空间计算机套装实拍 目前空间计算硬件仍需与手机、笔记本等其他计算设备互联,从而实现数据共享,可连接性便成了影响这类硬件可用性的关键因素。INAIR 2 Elite Suite兼容移动端应用生态,也可通过局域网、远程网络连接手机、电脑等设备。 为了让信息的呈现形式更贴合空间计算设备的特点,INAIR推出了INAIR空间渲染引擎。AI可以对2D画面进行深度分离,并将其重建为具有真实景深的立体图像。 智东西在现场体验了这一功能。当选择一张油画图片后,INAIR的空间渲染引擎可将这一画面变为立体感的空间,用户能直观感受到画面内不同元素的相对距离,仿佛置身在画中。这一空间渲染引擎也支持视频的3D重建。 INAIR还为本次发布的新品配备了更为强大的AI功能。ForeSight多模态感知功能可以理解用户的上下文,实时提供建议与帮助。Look to Ask(看即所问)功能让用户只需看着界面,自然说出问题,便能针对画面内容进行提问,不需要输入复杂的提示词。这些AI功能接入了多款主流AI模型,包括DeepSeek、豆包、智谱GLM等。 结语:结合AR与AI的空间计算机,能成为新一代生产力工具吗? INAIR的空间计算机产品主打生产力场景,而非娱乐功能,旨在通过智能化与自适应能力提升移动办公效率。 当下的空间计算产品虽然结合了AI技术,但其普及仍面临多重挑战:大众认知度与接受度不足、便携性与续航能力有限、计算性能有待提升。空间计算厂商们能否有效解决这些问题,或将成为决定此类产品能否从“尝鲜品”转变为“刚需生产力工具”的关键。
苹果提前公布 iOS 19 功能,为 13 亿少数人群而来
今天,是五月的第三个星期四。 就在下个月的 WWDC 大会上,苹果将发布「十年来最大」的 iOS 系统更新——通常情况下,苹果不会告诉你新系统更新了什么,但这次是例外。 而在本周,苹果官宣了一系列「辅助功能」,并确认将在今年晚些时候推出——包括 iOS 19 等苹果系统软件在内,将会获得这一系列更新。 这些功能主要面向全球 13 亿人的障碍人群,但相信我,其中某些功能,你也会用得上。 让 iPhone 成为你的眼,帮你看得更清楚 对于一些视障人士来说,工作学习生活,离不开一种名为「助视器」的外设。 这种设备一般包括一个摄像头和一个屏幕,既可以放大远距离的黑板,也可以放大桌上的书本,但高昂的价格以及不方便的设备形态,让这种设备没能普惠更多视弱人群。 iPhone 和 iPad 在 2016 年已经配备了功能类似「放大器」App,帮助视障人士在日常生活中更好感知世界,而本周苹果宣布,放大器功能也将在今年稍晚时候来到 Mac 产品上,能更好辅助课堂、工作等场景。 MacBook可以连接 iPhone 或者其他外接摄像头,然后打开放大器 App,就能放大查看远处的黑板或近处的印刷文字。 以前读书的时候,一些坐在教室后排并且视力不太好的小伙伴,可能会用手机拍下黑板上的板书,然后放到面前看,可以说 MacBook 的放大器就是一个更加方便的解决方案。 这个功能不仅仅能实现简单的放大,用户还能自定义捕捉画面的亮度、对比度、色彩滤镜,以及配合全新的「Accessibility Reader」(辅助阅读器)功能,将画面中的文字直接转化成更易读的书面文字,同样也支持字体字号的自定义。 对比起不太好购买和携带的大屏幕助视器,而本身作为生产力和生活工具的 MacBook + iPhone 组合,明显要更方便,不需要额外带一套复杂的设备进行安装,只需要一个合适的支架。 上面提到的 Accessibility Reader,不仅仅只能用于放大器,而是一个为阅读障碍以及弱视力人群准备的系统级阅读模式:类似 Safari 浏览器的「阅读器」模式,能够自定义文档文字的呈现方式,包括字体、颜色和间距设计,还支持阅读功能。 除了 iPhone、iPad 和 Mac 这些常规的屏幕设备,苹果也很好利用了 Apple Vision Pro 和现实世界交互的能力,将「放大器」和「Accessibility Reader」带到了头显之中。凭借 Vision Pro 配备的摄像头,用户可以直接选择和放大目光所及的现实物品,或者虚拟的 App 内容,宛如一个电子放大镜,并且能够使用 Accessibility Reader 简化所有文字内容。 除了为自家生态配备大量的无障碍辅助特性,苹果生态也对无障碍设备敞开了大门,例如 iPhone 能够和医用级别的助听器进行配对。而今年,苹果为 iPhone、iPad、Mac 以及 Vision Pro 新增了盲文设备的支持,可以更方便地制作盲文笔记,或者盲文数学计算。 除此之外,苹果设备也可以直接打开「BRF(盲文就绪格式)」文件,此前这些内容只能用专门的盲文笔记设备访问。 还有一个适用范围更广的新功能:iOS 18 上的「车辆运动提示」,也就是俗称的「防晕车」功能,也登陆了 Mac 平台,并且各个平台上面的圆点动画也可以自定义了。 帮你听、帮你说,还要帮你睡得好 除了视觉,苹果也为其他障碍人士准备了一些更好用的辅助功能。 「实时收听」基本算是苹果生态当中知名度最高、口碑也相当优秀的无障碍功能。当有听力障碍的用户戴上 AirPods 或者助听器,可以将 iPhone 变成一个麦克风,用来增强收音。 但这个过程有一个问题,如果手机被放在房间的另一头用来听发言人讲话,同时又想看实时字幕帮助自己理解,或者想要操控手机,那该怎么办呢? 苹果的解决方法,就是利用手腕上的 Apple Watch,可以显示实时语音转文字的字幕,也能作为手机的遥控器,调整实时收听的强度等参数。 环境音则是一项利好更多轻度听力受损用户的新功能。密歇根大学一项研究发现,在美国有 15% 的成年人有耳鸣的症状。除了影响听力,耳鸣还会对患者的心理造成持续地损伤。 在 iOS 18.4,苹果为 iPhone 和 iPad 引入了「背景音」的新功能,可以缓解耳鸣症状带来的感受。这个功能也将迎来更多个性化的更新,用户可以设置均衡器和定时器,以及快捷指令自动化操作,非常适合睡前聆听。 除了这些舒缓的白噪音背景音,苹果也宣布了和环球音乐集团合作推出的「声音疗法」系列歌单,更聚焦在心理健康,提高用户的专注力和睡眠质量。 「声音疗法」歌单和 Imagine Dragons、Katy Perry、AURORA、Kacey Musgraves 等知名音乐人合作,推出大热金曲的加长、器乐等特别版本,包含「专注」、「放松」和「睡眠」三种类别。 目前相关的歌单已经正式上线了 Apple Music,在搜索页面就能看到「声愈身心」板块,也能搜索相关的关键词,或者在合作艺人界面找到相关的合辑和歌单。 如果你也被失眠困扰,不妨听听这份歌单,也许能帮你更好入睡。 苹果还想扫清「说话」的障碍。 前年上线的「创建个人声音」功能,可以为一些有发声障碍的用户,克隆自己的声音,帮助他们更好地在日常中和他人交流。 以前,要想用 iPhone 创建个人声音,需要录制多达 150 个语句,还需要 1 天的时间进行处理。而即将推出的「个人声音 2.0」功能,只需要录制 10 个语句,1 分钟就能创建好质量相当的语音克隆。 不过因为需要更强的机器学习性能,因此只有为「Apple 智能准备好的」设备才能支持这项新功能——如果下次还有人问你手机 AI 到底有什么用?你可以给他介绍一下这个新功能。 最好的技术,应该是无障碍的 今天,是五月的第三个星期四,也是「全球无障碍宣传日」。 今年,是这项运动的第 14 年,我们的生活方式也许发生了诸多变化,但对于许多人来说,这些变化也意味着生活的门槛在变高。 大众对「无障碍功能」的认识,可能还停留在「降低门槛」上,例如旁白、语音控制、实时字幕这些基础功能,让障碍人士能够自如地使用科技产品。 但随着技术进步、设备更新以及生活方式的变化,「无障碍功能」的使用场景也在变得更多、更复杂。正如苹果 CEO Tim Cook 所提倡的那样: 最好的技术,应该始终秉承着无障碍的理念。 从 2005 年苹果为 Mac OS X 添加「语音旁白」功能算起,苹果在无障碍功能的耕耘也已经有 20 年之久。 可以说,单纯让设备「能用」,已经不是苹果的目标,他们更想帮助障碍人群过上更好的生活。 障碍人士如果想要正常生活、工作、学习,离不开一些外部设备的辅助,这些设备价格不算便宜,也未必方便携带,更重要的是,使用这些外设,可能会为这些群体带来羞耻心和一些负面的心理感受。 苹果设备和功能或许不能算得上医疗和专业级别的产品,但至少可以让他们能够直接使用手头上已有,或者一些用户更普遍的产品。 去年引发热议的「AirPods 助听器」功能,也是一个非常鲜明的例子,将一款热销的降噪耳机,转变成一款能检测和辅助听力障碍的准医疗器械,帮助更多听力损失患者及时发现和获得帮助。 我们也能发现,苹果今年为我们带来的无障碍辅助功能,有很多「人工智能」的身影:Accessibility Reader 的文字提取功能,以及「个人声音 2.0」,明显都很好利用了设备的机器学习能力。 这种应用或许没有生成式 AI 助手那么为人所知所感,也不会成为发布会上被重点宣传的功能,但却能很好帮助到那些需要得到帮助的人。 像苹果这样一举一动都备受关注的头部品牌,他们对设备无障碍辅助的努力,不仅能引起社会和行业的讨论,也能带动整个行业。 这几年,我们也能看到越来越多国内厂商为自己的产品添加无障碍功能,还有更多惠及障碍人士的举措。 ▲ 华为推出了「手语」客服 和大众认知有点偏差的是,障碍人士并非少数群体,实际上全世界已经有超过 13 亿人,占全球人口 15% 以上。从功利的角度出发,当然可以说,企业开发无障碍功能,也是为了这个 13 亿人的市场。 但,不让任何一个人掉队,让每个人都能依靠科技,过上更理想的生活——我更喜欢这个技术达观主义的视角。
曝Anthropic几周内将推两大深度推理模型,可无缝切换思考模式、调用外部工具
编译 | 金碧辉 编辑 | 程茜 智东西5月15日消息,据The Information昨日傍晚报道,继OpenAI、谷歌之后,AI独角兽Anthropic即将推出深度推理模型,推出Claude Sonnet和Claude Opus两大模型升级版本,全球AI竞赛进入“深度思考”新阶段。 据知情人士透露,Anthropic将通过“推理-工具调用”动态切换机制,该机制可自主发现问题并修正错误,将AI系统的自主决策能力推向新高度。该技术已在代码生成、市场分析等复杂场景验证效能,Anthropic计划在未来数周正式发布。 一、支持推理与工具调用无缝切换,可自主修正错误 不同于现有推理模型,Anthropic新模型首次实现了“推理模式”与“工具调用”的无缝转换。当Anthropic新模型使用外部工具受阻时,该模型可立即切换至深度推理状态,分析问题根源并自我修正。 虽然OpenAI等竞争对手宣称其o3、o4-mini模型已具备和Anthropic类似的推理能力,但据外媒The Information爆料,Anthropic的深度思考模型在复杂任务处理效率上显现优势,在相同市场分析任务中,Anthropic新模型决策路径缩短30%,数据调用精准度提升22%。 以曼哈顿咖啡店选址为例,Anthropic新模型的系统会先检索全美趋势数据,通过本地人口统计数据分析,自动修正初始方案的偏差。 在软件开发场景,Anthropic新模型具备代码自动测试功能。Anthropic新模型在生成代码后能立即启动自检程序,发现错误即暂停执行,通过多维度推理定位问题并修正。 外媒The Information援引Anthropic新模型的测试人员证实,Anthropic新模型的系统处理“提升应用运行速度”等抽象指令时,可在无需人工干预情况下,自主完成方案设计、测试验证全流程。 二、前代产品评价两极分化,企业仍加大核心计算技术投入 尽管用户对前代Claude 3.7 Sonnet的评价呈现两极分化,但Anthropic仍持续加大“测试时计算量”投入。 一部分用户对其称赞有加,在复杂的会计分析和数据可视化任务中,Claude 3.7 Sonnet展现出极高效率,短短十秒即可完成任务。 但另一部分用户则提出诸多质疑,如模型知识储备存在局限,在回答重要问题时容易出错,甚至在面对美国总统等常识性问题时也会误答;使用成本高昂,每百万输入token费用为3美元(折合人民币约为25.59元),每百万输出token费用达15美元(折合人民币约为107.95元),特别是使用思考功能时开支显著上升,对个人用户和小团队而言负担较重;还有用户反馈模型存在忽视指令、过度工程化倾向,以及在实际使用中上下文窗口利用效率存疑等问题。 这项支撑推理模型的核心技术,通过动态分配计算资源优化思考深度。据The Information报道,某知情人士指出,这种技术路线选择凸显企业对该架构的长期信心。 结语:Anthropic新框架预研,推动AI自主决策迈向实用 Anthropic的“推理-工具调用”框架虽仍处于预研阶段,将AI自主决策能力推向实用化阶段。该模型在代码迭代、商业逻辑推演等场景中已显现效能提升潜力。面对OpenAI等机构的技术路线竞争,以及模型指令对齐的行业性难题,相关系统的工程化路径尚未完全定型。 随着各大机构加速逼近自主决策的技术临界点,如何在增强自主性与确保可控性之间取得平衡,或将成为下一代AI系统的关键挑战。
首个“高考AI志愿规划师”之争:靠谱AI称优志愿大模型涉嫌虚假宣传
快科技5月15日消息,随着每年高考季来临,近日国内志愿大模型厂商靠谱AI发布声明,直指优志愿大模型涉嫌虚假宣传。 靠谱AI表示,自今年4月28日以来,优志愿通过其官方公众号“优志愿”、“优家SaaS平台”多次谎称其大模型为“全行业首个通过工信部备案”的升学规划大模型、“国内首发”。 而靠谱AI称其通过网信办大模型备案的时间要比优志愿早一年多,优志愿并非升学规划“行业首个”通过大模型备案的公司。 根据靠谱AI提供的国家网信办算法备案系统公示信息显示:靠谱AI的“靠谱大模型算法”在2024年2月18日已完成备案。 而优志愿的“ChatU文本生成合成算法”备案时间为2025年3月12日。 在率先通过网信办备案后,靠谱AI在2024年4月23日发布“靠谱AI志愿填报大模型”。 靠谱AI还表示,一年多来,多家媒体对靠谱AI的“靠谱AI志愿填报大模型”给予了报道。 优志愿在明知备案及发布时间均晚于靠谱AI的情况下,仍通过官方公众号等渠道宣称其为“全行业首个通过工信部备案”的大模型、“AI大模型国内首发”,涉嫌违反多项法规。 靠谱AI要求优志愿立即停止“首个生涯规划大模型”等虚假宣传,撤除相关不实表达,并要求优志愿在公开渠道澄清事实,消除不良影响。
淘宝AI图生视频功能上线:商家视频制作周期缩短10天以上
凤凰网科技讯 5月15日,淘宝天猫推出AI工具助商家应对618大促,其中最引人注目的“图生视频”功能已帮助商家大幅提升内容制作效率。据了解,该功能让商家通过上传商品图片,即可自动生成最长20秒的短视频,平均为每家商户每月节省超千元成本,缩短视频制作周期10天以上。 “图生视频”功能被视为淘宝面向商家的最新AIGC产品。商家只需上传单张或多张商品图片,系统便可自动生成短视频内容。据悉,所有淘宝天猫商家在大促期间每天可免费生成三十个视频,商家可通过“千牛工作台-商品-素材中心”使用该功能。 AI自动为商家生成分镜 除“图生视频”外,淘宝还于本周三上线了“脚本成片”功能,该功能基于全网热门脚本和商品信息,可自动生成可编辑的脚本及分镜,最终合成为商品卖点或种草视频。服饰类商家则可使用“搭配视频”功能,自主选择上下装、模特和场景,一键生成真人上身展示视频。 多家知名时尚品牌已开始使用这些AI视频生成工具。一位服装品牌视觉设计负责人表示,这些功能不仅节省了制作时间,还能快速生成高质量素材供品牌直接投放使用。 2025年天猫618购物节即将于5月16日晚8点正式开启现货销售。今年的促销活动主打“官方立减”简化策略,同时淘宝天猫推出了一系列AI工具,覆盖商家经营全链路,旨在提升商家运营效率。
OpenAI诈骗?GPT-4.1正式上线ChatGPT,网友实测却大呼失望
【新智元导读】GPT-4.1,在ChatGPT中可用了!现在,它不仅在API中开放,Plus、Pro和Team用户都可以使用。网友们兴奋地展开实测后,纷纷吐槽:OpenAI这是诈骗吧,说好的一百万超长上下文呢? 就在刚刚,OpenAI官宣:GPT-4.1,今天起直接在ChatGPT中可用。 这个模型擅长编码任务和遵循指令,是o3和o4-mini的绝佳替代品。 一个月前,GPT-4.1刚推出的时候,仅通过API向开发者开放。而现在,它在ChatGPT中就直接可用了。 其中,Plus、Pro和Team用户可以通过模型选择器中的「更多模型」下拉菜单访问GPT-4.1。企业版和教育版用户将在未来几周内获得访问权限。 OpenAI表示,他们还将在ChatGPT中为所有用户引入GPT-4.1 mini来取代GPT-4o mini。 由于超长的上下文能力,现在你可以将整段代码放到GPT-4.1中进行分析。 GPT-4.1和GPT-4.1 mini都已经通过了OpenAI的最新标准安全评估。 在以下两项评估中,GPT-4.1均排名前列。 not_unsafe:根据OpenAI政策和模型规范,检查模型是否未产生不安全的输出。 not_overrefuse:检查模型是否遵循良性请求。 幻觉评估以及指令遵循方面,GPT-4.1也均表现优秀;但在越狱评估方面表现不佳。 左右滑动查看 GPT-4.1,比GPT-4.5还好? 这次放出GPT-4.1,也算响应群众的呼声。 早在4月底,就有用户抱怨说:GPT-4.1简直是自己最喜欢的OpenAI模型,可惜在ChatGPT中并不能使用。 他确定地说:使用体验比GPT-4.5还要好! 不断有开发者现身说法,表示:除了GPT-4.1的早期版本Quasar Alpha之外,它也是自己测试过的最好的编码模型! 不断有人表示,GPT-4.1,绝对是一个被低估的模型。 就在上个月,OpenAI专为开发者推出了GPT-4.1系列新模型:GPT-4.1、GPT-4.1 mini和GPT-4.1 nano。 它们均拥有最高100万Token的超大上下文窗口,在代码、指令跟随等核心能力上全面超越GPT-4o及GPT-4o mini,并且知识截止日期也已更新至2024年6月。 实测:庞大代码任务顺利完成 既然很多ChatGPT用户都能用上GPT-4.1了,现在全网已经涌出了不少实测。 比如沃顿商学院教授Ethan Mollick,就用一道考遍了各大模型的景点难题来考验GPT-4.1。 「请创建一段我可以直接粘贴到p5.js中的代码,它要以惊人的巧思震撼我,仿佛是未来某艘星舰控制面板的呈现。」 GPT-4.1的表现,可是相当优秀。 另一位开发者实测后发现,GPT-4.1实在令人惊喜! 当时,他正在处理一个代码量非常庞大的任务,系统自动选择的模型根本无法处理,完全没有生成任何内容。 结果让GPT-4.1上场后,它不仅比默认模型更快,还准确地完成了任务。 甚至,它还给了一个额外的惊喜:竟然还把整个文件中没用到的代码都清理掉了。 通过实测发现,GPT-4.1在代码生成速度方面达到了新的高度。 比如让GPT-4.1生成一个博客首页,在几秒钟之内就完成了输出。 再比如,让他用python写一个地球飞往火星的动画,几乎就是在一瞬间,GPT-4.1就完成了任务的输出。 结果看起来还行,这只是第一轮交互的结果,能够感受到GPT-4.1的速度是得到根本性的提升。 再挑战一下,让给GPT-4.1用动画来解释一下量子纠缠。 初步来看,GPT-4.1还是「领会」到了什么是量子纠缠 对于推理问题,GPT-4.1表现的也非常优秀。比如多步骤的年龄计算问题,GPT-4.1的求解逻辑非常严谨。 面对一些逆向思考、脑筋急转弯之类的问题,GPT-4.1也能快速完成推理,当然面对这个问题得出的答案倒是非常有趣。 网友吐槽:没有1M上下文版本,令人失望! 但试用GPT-4.1后,许多网友表示:太失望了! 虽然OpenAI发布了GPT-4.1,却没有包含100万上下文窗口的API版本。 本来大家最希望在ChatGPT中使用GPT-4.1,就是因为想要超长的上下文窗口。 现在,只能期望GPT-5能提供一个超长的上下文窗口了。 的确,不断有人发现,ChatGPT(Pro)中的GPT-4.1,最大上下文长度似乎仅为128k token,跟API中的100万token相差甚远。 也就是说,OpenAI并没有在GPT-4.1中提高限制。 总之,真的让人很失望。看来还是得用Gemini。 也有网友发现了「华点」:自己尝试运行他们在直播演示中用来展示 ChatGPT 4.1的提示词,但网页版无法运行成功,不过在API Playground中尝试后却运行成功了。 也有人说,自己刚刚氛围编程了一个使用GPT-4.1的AI助手,因为这个模型仅通过API提供,今天,ChatGPT中就能用了。 不过,他还是会用自己的助手,因为用户界面比ChatGPT更好。 其实,OpenAI此前已经放出GPT-4.1的prompt指南,总结了一系列内部测试中得出的重要prompt技巧。 想实测的小伙伴,可以参考这篇用起来了。
梁文锋新论文!DeepSeek降本秘籍公开,突破算力瓶颈有六招
编译 | 程茜 李水青 编辑 | 李水青 智东西5月15日消息,昨日下午,DeepSeek团队发布新论文,以DeepSeek-V3为代表,深入解读DeepSeek在硬件架构和模型设计方面的关键创新,为实现具有成本效益的大规模训练和推理提供思路。 DeepSeek创始人兼CEO梁文锋这次同样出现在了合著名单之中,在作者列表中处于倒数第五的位置。论文署名通讯地址为“中国北京”,可以推测论文研究大概率为DeepSeek北京团队主导。 大语言模型的迅猛扩张正暴露出硬件架构的三大瓶颈:内存容量不足、计算效率低下、互连带宽受限。而DeepSeek-V3却实现了令人瞩目的效率突破—— 仅在2048块H800 GPU上进行训练,FP8训练的准确率损失小于0.25%,每token的训练成本250 GFLOPS,而405B密集模型的训练成本为2.45 TFLOPS ,KV缓存低至每个token 70 KB(仅为Llama-3.1缓存的1/7)…… 这些突破性数据背后,究竟隐藏着怎样的技术革新? 其中的模型架构和AI基础设施关键创新包括:用于提高内存效率的多头潜在注意力(MLA)、用于优化计算-通信权衡的混合专家(MoE)架构、用于释放硬件功能全部潜力的FP8混合精度训练,以及用于最大限度地减少集群级网络开销的多平面网络拓扑。 ▲DeepSeek-V3基本架构 DeepSeek的论文中验证了,有效的软硬件协同设计可以实现大型模型的成本效益训练,从而为较小的团队提供公平的竞争环境。 也难怪OpenAI联合创始人Andrej Karpathy此前赞叹:“DeepSeek-V3的出现实现了高性能与低成本的平衡……未来或许不需要超大规模的GPU集群了。” DeepSeek在论文中提到,本文的目的不是重申DeepSeek-V3的详细架构和算法细节,是跨越硬件架构和模型设计采用双重视角来探索它们之间错综复杂的相互作用,以实现具有成本效益的大规模训练和推理。侧重于探讨: 硬件驱动的模型设计:分析FP8低精度计算和纵向扩展/横向扩展网络属性等硬件功能如何影响DeepSeek-V3中的架构选择; 硬件和模型之间的相互依赖关系:深入了解硬件功能如何塑造模型创新,以及大模型不断变化的需求如何推动对下一代硬件的需求; 硬件开发的未来方向:从DeepSeek-V3获得可实现的见解,以指导未来硬件和模型架构的协同设计,为可扩展、经济高效的AI系统铺平道路; 论文地址:https://arxiv.org/abs/2505.09343 一、从源头优化内存效率,MoE模型可降低成本、本地部署 开篇提到的DeepSeek-V3关键创新旨在解决扩展中的三个核心挑战:内存效率、成本效益和推理速度。 1、内存效率:从源头优化内存使用,使用MLA减少KV缓存 从源头优化内存使用仍然是一种关键且有效的策略。与使用BF16进行权重的模型相比,FP8将内存消耗显著降低了一半,有效缓解了AI内存墙挑战。 ▲KV缓存大小比较(BF16精度) 使用MLA减少KV缓存。对于大模型推理,用户请求通常涉及多轮对话。KV缓存通过缓存先前处理的token的键和值向量来解决这一挑战,无需为后续token重新计算。 在每个推理步骤汇总,模型仅计算当前token的键和值向量,并通过将它们与历史记录中缓存的键值对组合来执行注意力计算。这种增量计算使其在处理长序列或多轮输入时非常高效。但是,它引入了内存受限的瓶颈,因为计算从GEMM转移到GEMV,后者的计算与内存比率要低得多。 为了解决这一挑战,研究人员采用MLA,它使用投影矩阵将所有注意力头的KV表示压缩成一个更小的潜在向量,让该矩阵与模型联合训练。在推理过程中,只需要缓存潜在向量,与存储所有注意力头的KV缓存相比减少了内存消耗。 2、成本效益:MoE可降低训练成本,便于本地部署 DeepSeek开发了DeepSeekMoE,MoE模型的优势有两个方面: 首先可以减少训练的计算要求,降低训练成本。MoE模型允许参数总数急剧增加,同时保持计算要求适中。例如,DeepSeek-V2具有236B参数,但每个token只激活了21B参数。DeepSeek-V3扩展到671B参数,同时能将每个token的激活量保持在仅37B。相比之下,Qwen2.5-72B和LLaMa3.1-405B等稠密模型要求所有参数在训练期间都处于活动状态。 其次,是个人使用和本地部署优势。在个性化Agent蓬勃发展的未来,MoE模型在单请求场景中提供了独特的优势。由于每个请求只激活了一个参数子集,因此内存和计算需求大大减少。例如,DeepSeek-V2(236B参数)在理过程中仅激活21B参数。这使得配备AI芯片的PC能够实现每秒近20个token(TPS),甚至达到该速度的两倍。相比之下,具有相似能力的稠密模型在类似硬件上通常只能达到个位数的TPS。 同时,大语言模型推理优化框架KTransformers允许完整版DeepSeek-V3模型在配备消费类GPU的低成本服务器上运行,成本约为10000美元,实现近20 TPS。这种效率使MoE架构适用于硬件资源有限的本地部署和个人用户。 二、重叠计算和通信、高带宽纵向扩展网络,提高推理速度 第三个挑战是推理速度,DeepSeek通过重叠计算和通信、引入高带宽纵向扩展网络、多token预测框架等来提高模型的推理速度。 1、重叠计算和通信:最大化吞吐量 推理速度包括系统范围的最大吞吐量和单个请求延迟,为了最大限度地提高吞吐量,DeepSeek-V3从一开始就被构建为利用双微批处理重叠,将通信延迟与计算重叠。 DeepSeek将MLA和MoE的计算解耦为两个不同阶段。当一个微批处理执行MLA或MoE计算的一部分时,另一个微批处理同时执行相应的调度通信。相反,在第二个微批处理的计算阶段,第一个微批处理经历组合通信步骤。 这种流水线化方法实现了全对全通信与正在进行的计算的无缝重叠,确保始终能充分利用GPU资源。 此外,在生产中,他们采用预填充-解码分离(prefill-decode disaggregation)架构,将大批量预填充和延迟敏感的解码请求分配给不同的专家并行组。 ▲训练MoE和稠密模型的计算成本比较:假设序列长度为4096,测量每个token的计算成本 2、推理速度限制:高带宽纵向扩展网络潜力 MoE模型实现高推理速度取决于跨计算设备高效部署专家参数。为了实现尽可能快的推理速度,理想情况下,每个设备都应该为单个专家执行计算或者多个设备应在必要时协作计算单个专家。 但专家并行(EP)需要将token路由到适当的设备,这涉及跨网络的多对多通信。因此,MoE推理速度的上限由互连带宽决定。 考虑这样一个系统:每个设备都保存一个专家的参数,一次处理大约32个token。此token计数在计算内存比率和通信延迟之间取得平衡,此token计数可确保每个设备在专家并行期间处理相等的批量大小,从而计算通信时间。 如果使用像GB200 NVL72(72个GPU上的900GB/s单向带宽)这样的高带宽互连,每个EP步骤的通信时间=(1字节+2字节)×32×9×7K/900GB/s=6.72μs 假设计算时间等于通信时间,这将显著减少总推理时间,从而实现超过0.82毫秒TPOT的理论上限,大约每秒1200个token。 虽然这个数字是理论上得出,尚未经过实证验证,但它说明了高带宽纵向扩展网络在加速大规模模型推理方面的潜力。 3、多token预测(Multi-Token Prediction) DeepSeek-V3引入了多token预测(MTP)框架,该框架同时增强了模型性能并提高了推理速度。 推理过程中,传统的自回归模型在解码步骤中生成一个token,这会导致序列瓶颈问题。MTP通过使模型能够以较低成本生成额外的候选token并对其进行并行验证,从而缓解了这一问题,这与之前基于自起草的推测性解码方法类似。该框架在不影响准确性的前提下加快了推理速度。 此外,通过预测每步多个token,MTP增加了推理批量大小,这对于提高EP计算强度和硬件利用率至关重要。 4、推理模型的高推理速度与测试时扩展的研究 以OpenAI的o1/o3系列为例,大模型中的测试时缩放通过在推理过程中动态调整计算资源,在数学推理、编程和一般推理方面实现性能提升。后续DeepSeek-R1、Gemini 2.5 Pro、Qwen3都采用了类似的策略。 对于这些推理模型,高token输出速度至关重要。在强化学习(RL)工作流程中,快速生成大量样本的必要性使推理吞吐量成为一个关键的瓶颈。同样,延长的推理序列会增加用户的等待时间,从而降低此类模型的实际可用性。 因此,通过协同硬件和软件创新来优化推理速度对于提高推理模型的效率必不可少。 三、DeepSeek-V3实践:软硬件协同突破效率极限 基于上述核心设计原则,DeepSeek详细描述了低精度训练、互连优化、网络拓扑等具体技术的实现细节。 在低精度技术突破方面,DeepSee通过采用FP8混合精度训练,将模型内存占用直接减少50%,有效缓解“内存墙”难题。DeepSeek还提出LogFMT对数空间量化方案,能在相同比特下实现更高精度。 在互连优化方面,DeepSeek提出了硬件感知并行策略。团队摒弃传统张量并行(TP),转而采用流水线并行(PP)和专家并行(EP),配合自主研发的DeepEP库,实现通信效率的飞跃。 在网络拓扑方面,DeepSeek推出的两层多层胖树(MPFT)网络拓扑,通过8个独立平面实现故障隔离与负载均衡,成本相比传统三层拓扑降低40%以上,且在全到全通信性能上与单层多轨网络旗鼓相当,为集群扩展提供了坚实保障。 ▲八平面两层胖树可扩展网络 四、六大关键,打造下一代AI基础设施 针对当前硬件痛点,DeepSeek提出下一代AI基础设施的核心升级路径。 跳出DeepSeek-V3的具体实现,DeepSeek从硬件架构演进的角度提出六大未来挑战与解决方案,涵盖内存、互连、网络、计算等核心领域。 1、鲁棒性优先:构建不易崩溃的训练系统 现有硬件对GPU故障、内存静默错误等缺乏有效检测,大规模训练中断风险高。 对此,DeepSeek提出硬件必须引入传统ECC之外的高级错误检测机制。基于校验和的验证或硬件加速冗余检查等技术,为大规模部署提供更高可靠性。 此外,硬件供应商应向终端用户提供全面的诊断工具包,使其能够严格验证系统完整性并主动识别潜在的静默数据损坏。 2、颠覆互连架构:CPU-GPU直连消除节点瓶颈 CPU在协调计算、管理I/O和维持系统吞吐量方面仍不可或缺,当前架构面临若干关键瓶颈。 CPU与GPU之间的PCIe接口在大规模参数、梯度或KV缓存传输期间常成为带宽瓶颈。为缓解这一问题,未来系统应采用直接的CPU-GPU互连(如NVLink或Infinity Fabric),或将CPU和GPU集成到扩展域中,从而消除节点内瓶颈。 除PCIe限制外,维持如此高的数据传输速率还需要极高的内存带宽。最后,内核启动和网络处理等延迟敏感任务需要高单核CPU性能,通常需要基频超过4GHz。此外,现代AI工作负载需要每个GPU配备足够的 CPU核心,以避免控制端瓶颈。对于基于小芯片的架构,需要额外核心支持缓存感知的工作负载分区和隔离。 3、智能网络升级:动态路由实现低延迟 为满足延迟敏感型工作负载的需求,未来互连必须同时优先考虑低延迟和智能网络。 共封装光学:集成硅光子学可实现更高带宽扩展性和更强能效,这对大规模分布式系统至关重要。 无损网络:基于信用的流量控制(CBFC)机制可确保无损数据传输,但单纯触发流量控制可能导致严重的队头阻塞。因此,必须部署先进的端点驱动拥塞控制(CC)算法,主动调节注入速率并避免异常拥塞场景。 自适应路由:如5.2.2节所述,未来网络应标准化动态路由方案(如分组喷射和拥塞感知路径选择),持续监控实时网络状况并智能重新分配流量。 高效容错协议:通过部署自愈协议、冗余端口和快速故障转移技术,可显著增强故障鲁棒性。 动态资源管理:为有效处理混合工作负载,未来硬件应支持动态带宽分配和流量优先级。 4、通信顺序“硬件化”:消除软件额外开销 使用加载/存储内存语义的节点间通信高效且便于编程,但当前实现受内存顺序挑战的阻碍。 DeepSeek主张硬件支持为内存语义通信提供内置顺序保证。这种一致性应在编程层(如通过获取/释放语义)和接收方硬件层强制执行,实现有序传递而无额外开销。 5、网络计算融合:硬件加速通信效率 混合专家模型(MoE)的分发与组合阶段存在网络优化空间。论文建议,在网络硬件中集成自动分组复制、硬件级归约功能,并支持LogFMT压缩,降低通信带宽需求。 6、内存架构重构:从“芯片堆叠”到“晶圆集成” 模型规模的指数级增长已超过高带宽内存(HBM)技术的进步,这种差距造成内存瓶颈。 DeepSeek推荐DRAM堆叠加速器,利用先进的3D堆叠技术,DRAM die可垂直集成在逻辑die顶部,从而实现极高的内存带宽、超低延迟和实用内存容量(尽管受堆叠限制)。 DeepSeek还提到了晶圆级系统(SoW),晶圆级集成可最大限度地提高计算密度和内存带宽,满足超大规模模型的需求。 结语:模型进化,倒逼下一代算力革新 AI产业正进入软硬件深度协同时代。通过将硬件特性融入模型设计、反向驱动硬件升级,DeepSeek 开创了软硬件良性迭代闭环。 从硬件到模型,DeepSeek-V3体现了软硬件协同设计在推进大规模AI系统的可扩展性、效率和鲁棒性方面的变革潜力。 从模型回到硬件,DeepSeek则跳出DeepSeek-V3具体模型,来定义未来硬件需为大模型优化的核心方向,从内存、互连、网络、计算等多层面提出了建设性建议,对产业生态具有重要参考意义。
12.27 万元起!零跑 C10 焕新上市,细数四大进阶
中国新能源汽车的牌桌上,早已杀成一片「血海」。 当「内卷」沦为日常,每一家身处其中的车企,都不得不将神经绷紧到极致。是拿出掀桌子的勇气,还是在精密的计算后,甩出一张看似稳妥却又暗藏杀机的牌? 零跑汽车,这家一度凭借极致性价比标签从牌局边缘挤进来的玩家,在今天,选择将其明星车型 C10 再次推向牌桌—— 2026 款零跑 C10,来了。 新C10 的「四大进阶」 零跑自己把这次改款升级的部分总结为了「续航」、「智能」、「驾控」、「设计」四大进阶,每一部分都针对上一代车主们提出意见较多的部分做了调整。 咱们先来说最重要的三电和驾控部分,也就是「续航」和「驾控」的进阶。 新款 C10 升级到了最新 LEAP3.5 技术架构,采用全域 800V 高压碳化硅快充平台,30% 到 80% 的快充速度从老款的 30 分钟提升到了 16 分钟。 电池容量从老款的 69.9 度电池升级到了 74.9 度,配合新 AI BMS 智能电池管理系统的加成,新款 C10 的电驱效率和能耗控制水平都有所提升,百公里电耗降低到了 14 度的水平,于是新款的官标续航从老款的 530km 变成了 605km。 新款 C10 的电机功率也有所提升,从老款的 170kW 升级到了 220kW,百公里加速从 7.29 秒提升到了 5.9 秒,在红绿灯起步和高速超车等场景都能有更好的表现。增程版本的最大功率仍为 170 千瓦,CLTC 纯电续航也仍为 210km,不过其 CLTC 的馈电油耗降低到了 5.1L 每百公里的水平。 新款 C10 针对底盘较软、后排颠簸以及高速变道侧倾大的问题做了专门调校,全新升级了博世 DP-EPS 转向系统和自研的 LMC 一体化融合控制技术,在优化了上述问题和转向手感之外,也提升了安全性,能够做到在 120km/h 的速度下发生爆胎后依然保持稳定。新零跑 C10 搭载的自研 One box 制动系统让车辆拥有了更好的刹车舒适性,同时把百公里的刹停距离做到了 34.83 米。 然后是「智能」和「设计」的进阶。 零跑的车身尺寸依旧还是 4739 / 1900 / 1680mm,轴距为 2825mm,但这次除了原有的浅灰、深灰、绿、白、黑五种颜色外,新零跑 C10 还新增了一款「曦露紫」颜色并换装了电动的隐藏式门把手,来让外观显得更加优雅耐看。 内饰上零跑这次提供了橙、紫两种配色,采用了全新的方向盘造型,并换装了新的双缝线设计座椅,整体的座舱氛围更有质感了一些,被老车主们吐槽已久的 15W 手机无线充电也更换为了 50W 快充。 新款 C10 这次把车机芯片升级为了高通骁龙 8295 芯片,支持全新的实时感知 3D 桌面和实时双屏 SR 环境模拟显示,全车的音响也升级为了奔驰迈巴赫同款的 12 个 PPS 定制扬声器,并支持 7.1 环绕声场。 同时为了解决在家庭用车场景下的诸多痛点,新款零跑 C10 这次还提供了一键大床模式以及 3.3kW 的对外放电功能,在露营、钓鱼、夜会等多种户外场景下都能提供更好的体验。 辅助驾驶的芯片升级成了高通骁龙 8650 芯片,最高算力为 200TOPS,在高配版本带激光雷达的版本车型上可以支持端到端的辅助驾驶。 零跑在这次发布会上依然重点提及了新 C10 在安全方面的努力,除了新的电池提前满足了即将在 26 年实施的电池新国标和之外,超长的贯穿式安全气囊和钢铝混合车身结构以及 2000MPa 的热成型钢用料也让零跑拿到了欧洲的三大五星安全认证标准。 零跑的棋,下得愈发全面 零跑 C10 焕新登场的背后,整个零跑体系在过去一年,乃至更长时间维度里所展现的加速奔跑姿态。 衡量一家车企的成长,销量无疑是最直观的标尺。 回望过去一年,零跑汽车交出的成绩单确实堪称亮眼。近 30 万辆的年交付量,不仅意味着同比可观的增幅,更重要的是稳稳超越了既定目标,这在「目标完不成才是常态」的新能源赛道中,已属难能可贵。 进入 2025 年,这股势头并未衰减,反而愈发强劲。 年初数月,零跑在新势力出海榜单上一路领先,稳稳占据优势身位;在特定月份,如今年三月、四月,更是力压群雄,强势登顶新势力销量榜。尤为值得一提的是,四月份,零跑汽车成为唯一一家销量突破四万大关的新势力品牌。这一系列成绩,清晰而有力地表明: 零跑汽车正在从过去的「小透明」或「第二梯队」,加速挤入牌局的中心地带。 ▲零跑汽车历年销量 高增长的背后,自然离不开 C 系列,特别是 C10 这款车型在市场上的持续发力与用户认可。 当然,销量的增长若未能伴随健康的财务指标,那便如同沙滩上建高楼,根基不稳。零跑对此显然有着清醒的认知。 从公开的财务数据中,我们可以窥见其在盈利能力上的逐步改善。2024 年第四季度达到 13.3% 的毛利率,创下了自身新高,而且还提前一年实现了单季度净利润转正的目标,成为造车新势力中第二家实现盈利的企业。 对于一家长期以「性价比」为标签,且持续在研发上重投入的企业而言,这样的成绩殊为不易。这意味着,零跑在供应链管理、成本控制以及产品结构优化上取得了阶段性成效。而这,无疑为资本市场和消费者注入了更多信心。 ▲零跑汽车历年毛利率 这种「既要量,也要质」的转变,是零跑迈向成熟的关键一步。 零跑的雄心显然不止于国内市场。面对全球汽车产业电动化、智能化的浪潮,以及国内市场近乎白热化的竞争,出海成为了必然选择。 与 Stellantis 集团的战略合作,无疑是零跑国际化进程中的一次关键落子。通过成立零跑国际合资公司,零跑得以借助巨头的渠道和经验,更快地将产品推向欧洲等成熟市场。早在去年 7 月,零跑就向欧洲发运了首批 C10 车型。 ▲零跑 T03 海外版 不论是 C10 还是后续的 B 系列车型,零跑在设计之初便融入了全球化视野和标准,这使得它们在面对不同地区的法规和用户偏好时,能有更好的适应性。 出口数据的稳步增长,以及在海外服务网络的逐步铺开,都预示着零跑正努力将自己打造成一个具备国际竞争力的品牌,而不仅仅是「中国特供」。 零跑汽车高级副总裁曹力,还在今天的发布会中透露了一个新信息:「6 月份,我们香港车展见」。 这一切成绩的取得,都离不开零跑在技术研发上的「执拗」。 从 LEAP 1.0 到如今 C10 搭载的 LEAP 3.0 乃至 B 系列应用的更新的 LEAP 3.5 技术架构,零跑在核心三电系统、智能座舱、智能驾驶辅助等关键领域都积累了自己的核心技术。这种近乎「偏执」的自研,在早期或许意味着更高的成本投入和更慢的产品推出节奏,但在竞争进入深水区,核心技术自主可控成为命脉的当下,其战略价值便日益凸显。 它不仅为零跑的产品提供了持续迭代的底气,也为其在成本控制和供应链安全上争取了更多主动权,正如在湖州等地投建新能源汽车关键零部件项目的举措,便是这一战略的延伸。 理解了零跑的成长轨迹和技术底色,我们再来看其 C 系列与全新 B 系列的产品布局。 众所周知,C 系列是零跑此前几年站稳脚跟,塑造品牌认知度的功勋系列。零跑以「年轻人更理想的家」为核心理念,强调大空间、高配置、智能化以及纯电与增程的双动力选择,满足了大量年轻家庭用户的「既要又要还要」的复杂需求。而 C10 作为其中的全球化战略车型,更是承载了拓展国内外市场的重任。 如今,2026 款 C10 通过技术升级和更具竞争力的价格区间,不仅强化了自身的「质价比」标签,也使其市场定位更加灵活,向下可以与 B 系列的高配车型形成一定的承接,向上则继续巩固其在中型 SUV 市场的地位。 ▲零跑 C10 而全新推出的 B 系列,则被零跑寄予了更高的期望——攻坚 10 万-13 万元这个国内市场份额最大、但竞争也最为惨烈的「红海中的红海」。 ▲零跑 B01 可以看到,零跑在产品线上摆出了一个值得玩味的阵型。 零跑的这番布局,与其解读为对市场趋势的预判,不如将其视为零跑在技术研发积累到一定程度后,面对持续的增长压力与规模化诉求,所进行的一次扩张性尝试。毕竟,对于一家成熟的车企来说,寻求规模突破是必然选择。 诚然,更复杂的产品策略往往伴随着管理体系和资源调配能力的高压,但这条路,或许正是零跑走向下一阶段的必经之途。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。