行业分类:
加载中...
头条分类:
加载中...
华为发布新一代OceanStor Dorado 3000融合全闪存存储:最高1600块SSD、8PiB容量
快科技6月30日消息,华为今日正式发布新一代OceanStor Dorado 3000融合全闪存存储。 最大支持2 TB内存、1600块SSD,提供高达8 PiB(‌1PiB=1024TB)可用容量,单系统最大可扩展到16个控制器。 具有以下三大优势: 全新融合: 华为新一代OceanStor Dorado 3000采用原生块、文件、对象并行架构,一套存储满足多种业务诉求,实现TCO降低25%。 三种服务具备μs-ms极致时延体验,文件对象支持跨协议互通,为企业用户提供多样化和高品质存储服务。 极致性能: 华为新一代OceanStor Dorado 3000采用DPU智能网卡,通过数据流和控制流分离技术,将海量数据流通过DPU网卡直通内存和硬盘,突破CPU带宽及算力瓶颈,结合FlashLink®3.0算法可以在SAN场景下提升50%,NAS场景下提升30%的性能。 同时,华为新一代全闪存全面支持NVMe over Fabric协议,包括NVMe over RoCE,FC NVMe以及NVMe over TCP协议,全面释放NVMe协议威力,可提供高达4,000,000 IOPS及0.03ms极低时延。 极致可靠: 华为新一代OceanStor Dorado 3000提供业界领先的SAN&NAS&S3一体化A-A双活保障关键业务极致体验。两个数据中心同时提供业务,业务均衡负载,资源就近访问。 同时利用FastWrite跨站点写IO交互次数从2次减少到1次,双活业务性能提升25%,保障业务连续性达99.99999%。
中国最大AI开源社区,在北京办了第一场开发者大会
作者 | 陈骏达 编辑 | 云鹏 智东西6月30日报道,今天,国内AI开源社区魔搭在北京举办了其首届开发者大会。截至2025年6月,魔搭社区已经拥有超500家贡献机构,模型总量超7万个,并服务了36个国家超1600万开发者。此外,已经有超过4000个MCP服务在魔搭MCP广场上发布,支持开发者超过1亿次的调用。 魔搭社区如今已是中国最大的AI开源社区,DeepSeek系列模型、MiniMax多款模型、腾讯混元系列模型许多业界头部模型选择在魔搭社区开源。这一社区可提供模型体验、下载、调优、训练、推理、部署等服务,覆盖LLM、对话、语音、文生图、图生视频、AI作曲等多个领域。 为进一步激励开发者对社区的参与,周靖人在大会现场发布了“魔搭开发者勋章激励计划”,为在平台上作出贡献的开发者赋予荣誉和奖励,勋章获得者可以获得平台免费GPU算力支持,以及AIGC专区高阶训练券、高阶生图券等奖励,用于模型生成、模型训练、应用搭建等场景。 大会期间,还有多位嘉宾分享了他们对具身智能、端侧AI等行业重要趋势的见解。通义千问负责人林俊旸更是提前预告,该团队将于下个月推出编程能力更强的Coder模型。 会后,周靖人接受了智东西等少数媒体的采访。周靖人向智东西说道,魔搭既是一个社区,也是一个技术产品,要随着AI技术的发展而发展。魔搭正在快速迭代其对新技术、新产品、新工具的支持,也希望有更多开发者能加入到魔搭社区本身的开发过程中。 一、魔搭周靖人:模型已成重要生产元素,要帮开发者“找、用、学、玩” 周靖人认为,模型现已成为重要的生产元素,并成为了新一代应用的核心。在大模型技术快速迭代的过程中,开源开放是大模型生态发展的核心力量。 魔搭在成立之初就遵循了开放、中立、非盈利的原则,这一理念吸引了诸多开发者和企业共同参与生态建设。回顾发展历程,魔搭见证了许多顶尖开源模型的发布。 2023年,业界第一个文本生成视频的开源模型在魔搭社区发布。同年,百川智能、上海人工智能实验室书生系列大模型、零一万物Yi模型等业界领先模型均在魔搭社区开源首发。 2024年,魔搭社区面向AI创作者与设计师群体推出AIGC专区,提供图片、视频创作和模型训练等服务。 2025年,DeepSeek系列模型、阶跃星辰开源的Step-Video-T2V视频生成模型和Step-Audio语音交互模型在魔搭社区首发。 开源开放降低了开发者和企业使用先进AI技术的门槛,并且无需担忧因为使用某一项技术而被绑定。模型开发者能从中获取社区反馈和建议,从而形成正向循环。 具体到服务层面,魔搭能在找模型、用模型、学模型、玩模型这四大领域为模型算法开发者、AI应用开发者和模型爱好者提供帮助。 社区对模型家族进行了分类,并配备丰富的案例和API接口,帮助用户快速将模型集成到实际业务中。同时,云端Notebook功能提供了低成本的开发环境,便于用户高效探索业务场景。 为简化大模型与工具的对接流程,魔搭推出了MCP广场,汇聚数千款MCP服务及托管方案,并开放第三方集成接口。支付宝、MiniMax等创新服务在此独家首发,进一步拓展了生态应用。 在开发支持方面,魔搭提供了涵盖训练、推理、微调和评估等流程的SDK工具包,目前装机量已突破900万次。 周靖人分享,在这样一个技术变革的时代里,能够让更多的人使用AI,能够让AI的使用触手可及,普惠到社会的方方面面,是魔搭与开发者努力的重要方向。 二、无问芯穹汪玉:端侧AI面临算力能效困局,软硬件协同设计可实现突破 大会主论坛上,清华大学电子工程系系主任、无问芯穹发起人汪玉从硬件与算法的协同优化角度,探讨了端侧AI的挑战与未来。汪玉认为,AI技术正经历从云端向终端设备的迁移,随着AI模型规模的扩大,端侧设备在算力和能效上面临巨大压力。 与云端侧重多用户并发不同,端侧AI更强调低延时响应和单用户体验,当前端侧AI的理想推理速度大约为100-1000token/s,但端侧AI硬件的能力离这一目标还存在显著差距。 汪玉为上述问题提出了多个突破方向:通过芯片架构创新和存算一体技术提升硬件性能,采用模型压缩技术开发高效小模型,以及针对具体应用场景进行算法优化适配。 他特别强调,国内产业需要打通从算法设计、软件开发到硬件制造的全栈协同创新。在硬件层面,其团队已在FPGA上实现55token/s的推理速度。 汪玉特别看好具身智能的发展前景,认为这是将数字智能延伸至物理空间的重要方向。他呼吁产业界通过软硬件协同设计、共建数据生态,共同推动端侧AI和机器人技术的创新发展,构建面向未来的智能算力基础设施。 三、星海图赵行:机器人硬件形态趋于收敛,具身智能需要自己的“ImageNet” 主论坛上,清华大学特别研究员、星海图联合创始人赵行进一步分享了具身智能相关的话题。他认为,当前以ChatGPT为代表的离身智能(Disembodied AI)已通过图灵测试,但具身智能(Embodied AI)仍处于早期阶段,其核心瓶颈在于如何在正确的机器人本体上获取高质量数据,并构建可泛化的模型。 赵行强调,具身智能的突破需要类似计算机视觉领域ImageNet的标准化数据集,但由于机器人需要进行闭环测试,且硬件形态各异,数据采集和模型开发更为复杂。 标准化的硬件平台是突破上述问题的关键。星海图已经发布了3款机器人本体,计划在今年年底前采集超过1万小时的真实世界数据,涵盖工业、家庭、商业等多样化任务。 在模型架构上,星海图提出了“快慢双系统”的具身基础模型(Embodied Foundation Model),结合多模态大语言模型(慢思考)和轻量化执行模型(快执行),实现任务规划与实时闭环控制。 展望未来,赵行预测机器人硬件形态将趋于收敛,基础模型的泛化能力将在2026年迎来爆发,世界模型技术将增强机器人的预测与自主学习能力。他呼吁全球开发者共同构建具身智能生态,推动其在真实场景的大规模落地。 四、通义千问林俊旸:预训练技术仍有空间,Qwen Coder模型下月发布 在下午的主题论坛上,通义千问负责人林俊旸分享了他们的开源模型实践经验。 今年4月底,Qwen3系列模型迎来发布。模型参数量从0.6B到-235B不等。林俊旸称,这一代模型主要有三大特点: 混合推理模式:Qwen3全系列都支持混合推理,也就是说在一款模型内实现推理和非推理模式,并允许开发者自主选择模型的推理长度。但林俊旸认为,这还不是推理模型的理想形态,未来模型还需要具备自己决定是否进行推理的能力。 更多语言支持:Qwen从1.5系列就开始关注多语言,目前Qwen3支持119种语言和方言,在下一版本Qwen会扩展对非洲地区语言的支持。 MCP增强:Qwen3在训练数据方面针对MCP进行了增强,这本质上提升了模型的Agent能力。 林俊旸透露,Qwen团队内部更加关注MoE模型Qwen3-30B-A3B和稠密模型Qwen3-4B。Qwen3-30B-A3B在能力和部署难度上实现了平衡,在Qwen团队的内部测试中甚至超过了14B的稠密模型。 Qwen3-4B专为手机端侧设计,做了极致的剪枝和蒸馏,在许多场景的性能已经接近Qwen上一代72B模型的表现。 除了Qwen3之外,今年Qwen团队还带来了Qwen-3系列的嵌入模型、重排序模型以及全模态模型Qwen2.5-Omni、多模态模型Qwen-VLO等等。 谈及未来,林俊旸称,业内已经从训练模型的阶段逐渐转变到训练Agent的阶段,预训练技术发挥的空间仍然很大,可以通过打造强大的teacher超大型模型,最终做出适用于API调用的模型。 通义千问计划通过环境反馈的强化学习,教会模型实现长时程的推理。在输入和输出侧,模型的模态也会不断增加。下个月,通义千问将会发布适用于编程场景的Coder模型。 结语:中国开源AI生态狂飙,魔搭想成为“首选社区” 作为国内代表性的开源AI社区,魔搭的发展也可谓是中国开源AI的缩影。过去2年多以来,中国AI开源生态迅猛发展,诸如阿里、DeepSeek等企业的开源模型在世界范围内都具有较强的影响力。 同时,中国的开发者们也在为开源生态不断贡献新工具、新技术,相关开源成果在魔搭等平台开放获取,最终给全球开发者都带来了实实在在的价值。 周靖人称,他们希望将魔搭打造为AI开发者交流的首选社区,实现开发者与社区的共同成长,让更多的创新想法在魔搭社区碰撞,更多的AI应用在魔搭社区进行孵化,推动下一波AI技术的发展。
AI 一字不差背诵《哈利·波特》,居然不算盗版?地表最强法务迪士尼这次遇到对手了
过去几个月,AI 圈一桩桩版权案接连爆出。 迪士尼拉着环球影业,把 Midjourney 告上法庭,指控它在没打一声招呼的情况下,就学会了画《星球大战》和《小黄人》。 图片巨头 Getty Images 则抓住了 Stability AI 的现行—— AI 不仅「吃」了它数百万张带版权的图片,甚至在生成的新图里,还心虚地「吐」出了那个标志性的水印,像个作案后忘了擦掉指纹的笨贼。 这些案子的起因都源于那个让所有 AI 公司夜不能寐的问题:用来训练模型的海量数据,究竟算不算「赃物」? 最近,两场判决落槌,似乎给出了一个答案。Anthropic 和 Meta 在版权官司中都获胜让许多人以为警报已经解除。但细看之下,这场胜利并非这么简单——法官在判决书里悄悄留下了一串解开谜题的钥匙。 从表面上看,案情并不复杂。一群作家指控这两家公司用他们写的书来训练大模型,这是偷窃。AI 公司则辩称,这叫「变革性使用」,是学习,不是抄袭,属于法律允许的「合理使用」。 出人意料的是,法官采纳了 AI 公司的说法。他们认为,用书籍训练 AI,和直接复制书籍来卖是两码事,确实有「变革性」,而且原告作家们也没能拿出有力证据,证明自己的书因此就卖不出去了。 于是,判决落下,AI 公司赢了。至少,新闻标题是这么写的。 但就像所有精彩的故事一样,真正的玄机藏在细节里。法官的判词,就像那个无意中为破案留下伏笔的警官,充满了暗示。 在 Meta 的案子里,Chhabria 法官几乎是手把手地给原告「复盘」。他毫不留情地指出,原告的诉讼策略简直一团糟。「判决并不意味着Meta的行为就合法了,」他写道,「只是因为这批原告没能说服我。他们问错了问题,也拿错了证据。」 这番话,无异于在法庭上公开递出了一份「诉讼指南」:这次算你们侥幸过关,下次来个更懂行的,结局就难说了。 另一边,审理 Anthropic 案的 Alsup 法官,则对另一件事耿耿于怀:这些 AI 公司用来训练的数据,很多是从盗版网站上扒下来的。「原罪」问题,让他十分恼火。 「你们明明有合法渠道,却偏要走捷径,」他警告道,「用非法手段获取的东西,别指望能用‘合理使用’这块挡箭牌来洗白。」他甚至补充说,后来再去合法扫描,也抹不掉最初的「偷窃」行为。 这番话,等于在 AI 公司看似坚固的胜利堡垒上,预埋了一颗定时炸弹。今天的问题解决了,但历史旧账随时可能被翻出来。 而真正致命的威胁,是那个被这两场官司巧妙绕开的问题:AI「说」出来的话,算不算侵权? 训练过程可以被解释为「学习」,但如果 AI 能一字不差地「背诵」出《哈利·波特》呢?最近的一项研究就揭示了这个令人不安的事实:Meta 的模型记住了《哈利·波特与魔法石》超过 40% 的原文。AI 不再只是个学生,它成了一个藏着海量盗版书的移动硬盘。 该图表显示了让模型从《哈利·波特与魔法石》各部分生成 50 个 token 的摘录的难易程度,线越深,重现该部分内容就越容易 对此,Alsup 法官也早已划下红线:「如果 AI 的输出内容直接抄袭了原作,那就是另一回事了。版权方完全可以拿着这些证据,再告一次,而且胜算会大得多。」 所以,这场胜利到底意味着什么? 对于 Meta、OpenAI 这样的巨头来说,这或许只是争取了更多的时间。他们财力雄厚,背后是顶尖的律师团队,已经开始花钱与各大媒体和出版商签署授权协议。对他们而言,版权问题正在从一个法律风险,转变为一项可以计算的商业成本。 但对于那些规模较小、依赖开源数据的 AI 公司来说,警报远未解除。他们没有雄厚的资本去支付天价的授权费,也经不起漫长的官司消耗。一旦版权的「清算」全面开始,他们很可能就是第一批倒下的。 而对于创作者来说,局面则更加复杂。他们或许有机会通过授权获得一些收入,但这笔钱,能否弥补一个被 AI 内容冲击得七零八落的市场? 说到底,这两场官司并没有给出一个最终答案,反而让问题变得更具体、更棘手了。这场围绕版权的博弈,没有因为几次判决而结束,它只是从法庭上的唇枪舌剑,延伸到了谈判桌前的真金白银。 这场关于数据、创意与 AI 的博弈,或许才刚刚开始。
40 岁的 Windows 蓝屏要完蛋了,我第一个拍手鼓掌
如果你是一名 Windows 电脑用户,你肯定见识过「蓝屏死机」(Blue Screen of Death,BSOD): 你的电脑遇到了问题,我们需要在收集完一些错误信息后立即重启。 ▲ 经典的 Windows 蓝屏界面. 图片来自:Windows 面对蓝屏,除了坐和放宽之外,想必大部分人只剩一个选择:重启电脑。 过去几十年里,Windows 电脑的「蓝屏」界面臭名昭著——蓝屏根本没法指导修复工作,只会浪费宝贵的时间——没有正常人会扫那个码或者访问 Windows 的错误代码平台;考虑到电诈套路深,更没有人会愿意跟微软客服通话。 现在,微软总算想通了。在下半年即将发布的 Windows 11 24H2 更新中, 「蓝屏」终于不复存在!取而代之的是一个大道至简的「黑屏」界面: Your device ran into a problem and needs to restart. 你的设备出问题了,即将重启。 ▲ 全新设计的 Windows「黑屏死机」界面. 图片来自:Windows 啊,感觉好多了! 为什么「蓝屏死机」罪大恶极? 在官方博客中,微软详细解释了为什么「蓝屏必须死」: 一个有韧性的组织,其关键特征是保持生产力,并且尽量减少中断。 当意外重启发生时,它们可能导致延迟并影响业务的连续性。这就是为什么我们在简化意外重启体验。 我们还添加了快速机器恢复功能,这是一种用于无法成功重启的 PC 的恢复机制。这项更新是我们努力的一部分,旨在减少意外重启时的中断。 不愧是华盛顿州雷德蒙德大企业,死机界面改个设计,都能解释出这么多条条道道。 相信很多人的第一反应:你不如把系统做稳定些,别老死机行不! 太多企业和组织运行在 Windows 操作系统智商,而稳定对于企业往往意味着一切。如果 Windows 不能在运行过程中保持稳定,或者在遇到问题时不能快速恢复,那么每一秒的流逝,对企业都是巨大的损失。 你可能记得去年席卷全球的 CrowdStrike 蓝屏事件——安全公司 CrowdStrike 因推送了错误的驱动,引发全球超过 850 万台 Windows 设备重复蓝屏,进而导致航司停飞,银行停摆,收银台断线等一系列事故,造成了超过 50 亿美元的损失。 ▲ 公交站的蓝屏. 图片来自:Unsplash ▲CrowdStrike 事件中影响的场景 2. 图片来自:xxx 这也给微软敲响了警钟,当出现大型事故时,「蓝屏死机」的界面不但没有半点用处,反而会造成用户恐慌。 因此,除了蓝屏改黑屏的重新设计之外,其实微软也在死机处理流程中做了更多的改进,主要是: 首先, Win 11 24H2 引入了快速机器恢复技术(Quick Machine Recovery)具体来说,系统在每次成功启动后,自动写入状态快照,一旦检测到循环崩溃,设备便可自动回滚到上个可启动状态,无需用户手动选择安全模式。这能够极大减少系统崩溃后的停机时间和人工干预,保障设备快速恢复正常运行。 以及,将 Windows Update、安全中心与驱动状态整合到同一页在健康报告面板里,用颜色区分风险程度的同时,方便远程 IT 批量查看,让信息一目了然。 最后,迁出杀毒、EDR 等频繁更新的组件至用户态,崩溃范围被限制在用户态,大大减少内核代码崩溃的风险,降低了整机的停摆概率。 当然最重要的是,直面用户的极简黑屏,总算做到了给用户「不添乱」。 ▲ Windows 11 的系统更新界面,同样是黑底白字. 图片来自:Windows 再见了,所有的 Windows 蓝屏 如果你是从 DOS 时代过来的老油条,想必对 Windows 系统印象最深刻的不是「开始」菜单,而是总在你最不想的时刻出现,令你心跳骤停的那一抹纯蓝。 Windows 蓝屏已经问世近四十年,微软也对这个界面经过多次迭代。 最早,Windows 蓝屏可以追溯到 1985 年,当时 Windows 1.0 时代还运行在 DOS 系统上,偶尔会出现这样让人血压升高的屏幕。清晰可读的,只剩一行小字: 「微软是微软公司的注册商标,版权所有违法必究!」 ▲ 1985 年 Windows 1.0 的蓝屏界面. 图片来自:Windows 后来,微软开始在 Windows 系统中写入「蓝屏」的报错信息。传奇 Windows 系统工程师 Raymond Chen 曾分享过「蓝屏」背后的趣闻—— 比如微软前 CEO 史蒂夫·鲍尔默(Steve Ballmer)就曾在 1992 年写过一个程序无法响应的蓝屏,里面的内容也是让用户生气:程序宕机了,你先做这个(数据无法保存),再做那个(数据还是无法保存)。 颇有一种「反正你已经红温了,不如看个蓝屏冷静点」的感觉。 ▲ 1992 年程序无法响应的蓝屏. 图片来自:Windows 后来,在 Windows 95 系统当中,Raymond Chen 写过另一个「蓝屏死机」界面,直接把出错的内存位都告诉你了——但对用户来说这又有啥用呢? ▲Windows 95 系统蓝屏. 图片来自:Windows 可能是因为总是无法避免死机,微软也把优化改进蓝屏界面这件事,当做一项长期且正式的开发工作来对待了。真是孜孜不倦呢—— 例如在 2001 年,Windows XP 就把蓝屏字体改成 Lucida Console,也给出了一些后续操作的指示,帮助用户排查可能的问题。 ▲ 2001 年 Windows XP 蓝屏. 而到了 2012 年,Windows 8 的蓝屏界面不仅加上了悲伤的表情文字,甚至颜色都十分的阴郁(且符合 Win 8 主题配色): ▲ 2012 年 Windows 8 蓝屏. 图片来自:Windows 在 2016 年之后,Windows 10 系统终于明白过来,放着满屏的信息对用户一点用都没有。于是他们又给蓝屏界面加上了二维码: 扫一扫,告诉你到底发生了什么? ▲ 2016 年 Windows 10 蓝屏. 图片来自:Windows 前几年,为了迎合 Windows 11 的设计语言,还短暂尝试过「黑色」的蓝屏界面,不过没有实装: ▲ Windows 11 「黑色」蓝屏 图片来自:Windows 但不管怎么更新,几十年来,Windows 蓝屏宕机的流程始终是:让系统先停住,告诉你出了什么问题,你再手动查码解决。 这显然是一种工程师思维,背后的原因其实有历史和文化的成分。毕竟早期的 Windows 面对企业和专业人士设计,当时的互联网并不发达,出现错误时,他们需要详细的错误信息来排查各种系统问题,因此这才会出现蓝屏时满屏内存码的现象。 但经过几十年的迭代,Windows 已经是世界上最大的 PC 操作系统,被数以亿计的普通人使用。而普通人其实只需要重启便能解决 90% 的问题。至于重启都解决不了的问题,除了砸电脑还能怎样呢? 这时候,满屏都是字的「蓝屏死机」界面,就显得不合时宜了。 就拿之前的蓝屏界面为例:冗杂的文字、抢眼的蓝色以及交互复杂的二维码,非但无法提供实质帮助,只会让用户更加不知所措。其实满屏唯一有用的信息,只有那句: Your PC ran into a problem and needs to restart. 你的电脑出问题了,请重启。 ▲蓝屏中 5 种不同的信息. 既然如此,不如化繁为简,按重要程度,在屏幕上提供核心信息: 「你的设备出问题了,请重启」的指示,很重要,大字居中 处理错误的百分比进度,紧贴着重启的提示 其余少量的错误类型提示信息,用小字说明,放底部,谁有用谁拿去用。 ▲全新设计的 Windows「黑屏死机」界面. 至于具体的错误码等信息,在 Win 11 24H2 里会在重启后自动写进系统日志并上传——既简洁,又高效,核心就是不给用户添乱,制造额外的焦虑。 你只需像系统更新那样,耐心等到 100%,重启即可。 这不仅是视觉的考量,更是「危机」中用户体验设计的体现——宕机的场景下,用熟悉和沉稳的视觉语言安抚用户的情绪,让你在系统恢复的整个过程中,感觉到更加可控和可预测。 这也是微软设计团队想表达的核心:减轻用户不安的同时,让信息更加清晰,从而更快的解决问题。 和蓝屏死机相比,高下立判。 ▲ 蓝屏. 图片来自:Wired 微软的工程师团队,终于把焦点从「告诉用户出了什么错」,转向「尽快让设备重启」上,让 Windows 系统从被动响应错误,向主动设计弹性系统转变,与其塞满晦涩难懂的报错信息,不如把用户真正需要的操作放大。 毕竟重启就完了。重启能解决 90% 的问题。
图像界的DeepSeek!12B参数对标GPT-4o,5秒出图,消费级硬件就能玩转编辑生成
图像模型开源还得是FLUX! Black Forest Labs刚刚宣布开源旗舰图像模型FLUX.1 Kontext[dev],专为图像编辑打造,还能直接在消费级芯片上运行。 只有小小的12B,更少的参数,更快的推理,性能更是媲美GPT-image-1等一众闭源模型。 现在FLUX.1 Kontext[dev]可以让小狗迅速离开画面,为小老鼠戴上胡须,添加文字、修改背景也不在话下。 或者多次输入指令,直到让小哥成为酒吧里最靓的崽(bushi),直到让画面符合咱们需求。 具体来说,FLUX.1 Kontext[dev]的主要特点有: 可以根据编辑指令直接更改现有图像,以及进行精确的本地和全局编辑。 不用做任何微调,就能直接引用里面的人物角色、风格样式和物品元素。 允许用户通过多次连续编辑优化图像,同时将视觉漂移降到最低。 专门为NVIDIA Blackwell进行了权重优化。 网友们也立马上手试玩,制作了一个旅行的CPU青蛙? 旅行必备的墨镜,还有抗寒的帅气红色毛衣也要准备妥当。(蛙蛙:出片,我势在必行) 或者copy一下自己喜欢的动漫角色。 轻轻松松店铺打烊,结束打工人完美的一天~(doge) 还有网友脑洞大开,试着和LoRA结合,造出了一个Kontext风格化肖像制作APP。 现在FLUX.1 Kontext[dev]还完全支持ComfyUI。 自动播放 温馨提示,官方直接开放了试玩API,只需点击文末链接、上传图片就可以立即爽玩! 网友看罢表示,Black Forest Labs不愧是图像届的DeepSeek。 FLUX.1 Kontext的开放权重变体 FLUX.1 Kontext模型上个月一经发布,就因为其强大的上下文生成和编辑功能广受好评。 与现有的文本到图像模型不同,FLUX.1 Kontext系列执行上下文图像生成,可以直接使用文本和图像进行提示,并无缝提取和修改视觉细节。 目前已经发布了适合快速迭代的专业版FLUX.1 Kontext[pro]和高配版FLUX.1 Kontext[max]。 FLUX.1 Kontext[dev]作为FLUX.1 Kontext最新发布的开源版本,不仅继承了其图像生成的优势,它还更专注于编辑任务,可以直接在消费类硬件上运行。 首先模型架构上,依旧基于的是FLUX.1模型,它是一种在图像自动编码器的潜在空间中训练的整流流Transformer模型,由双流块和单流块混合构建而成。 在此基础上,FLUX.1 Kontext[dev]采用标记序列构建和位置信息编码进行优化: 标记序列构建:图像通过冻结的FLUX自动编码器,编码成潜在的上下文图像标记,并输入到模型的视觉流中。 位置信息编码:通过三维旋转位置嵌入(3D RoPE)对位置信息进行编码,为上下文标记的嵌入提供恒定偏移量。并将其视作为虚拟时间步,以清晰分离上下文和目标块,同时保持它们的内部空间结构。 然后使用整流流匹配损失进行训练,在训练时从FLUX.1的文本到图像检查点开始,收集并整理数百万个关系对进行模型优化。 优化后得到的流匹配模型进行潜在对抗扩散蒸馏(LADD),在减少采样步骤的同时提高样本质量,使FLUX.1 Kontext[dev]更高效。 最终得到的FLUX.1 Kontext[dev]模型包含120亿参数,可以更专注于编辑任务,支持迭代编辑,可以在各种场景和环境中保留角色特征,并允许用户进行精确的局部或全局编辑。 图像编辑新标准 实验引入自研的KontextBench基准进行模型性能验证,该基准包含1026个图像-提示对,涵盖局部编辑、全局编辑、角色参考、风格参考和文本编辑五个任务类别。 结果显示FLUX.1 Kontext[dev]在许多类别上都优于现有的开放式图像编辑模型和封闭模型,例如Bytedance Bagel、HiDream-E1-Full以及OpenAI的GPT-image-1等。 另外,FLUX.1 Kontext[dev]还专门针对新的NVIDIA Blackwell架构进行了TensorRT权重优化,可以在保持高质量的图像编辑性能的同时,极大地提高推理速度并减少内存使用量。 官方还提供了BF16、FP8和FP4 TensorRT的权重变体,用户可以自行对其速度、效率和质量进行调整,综合确保FLUX.1 Kontext[dev]充分利用最新的硬件功能。 在实际用户的反馈中,也发现FLUX.1 Kontext[dev]的推理速度较前代提升了4至5倍,模型在NVIDIA H100 GPU上运行,通常5秒内能够完成,在Replicate上的运行成本约为0.0067USD,或每1USD运行149次。 但是也有网友提到,在MacBook Pro的芯片上运行时,迭代时间较长,每次迭代都需要1分钟左右。
苹果Apple Music庆祝问世十周年,为艺人建立新全球中心
IT之家 6 月 30 日消息,随着今年 Apple Music 迎来问世十周年纪念日,苹果公司公布全新创意项目:Apple Music Studios,这是一家位于洛杉矶的先进空间,专为艺人驱动的内容、音频技术创新和深化乐迷联结而打造。 据IT之家了解,新工作室将于今年夏季开幕,标志着苹果全方位支持艺人的使命达成重大里程碑。新空间不仅是一家录音室,更是一个创意园地。洛杉矶 Apple Music Studios 以“打造艺人真正的家园”为理念设计,是一座占地超过 1.5 万平方英尺(约 1393 平方米)的三层建筑,内部设施包括: 两间先进的广播录音棚,支持沉浸式空间音频播放功能,并为现场访谈、轻松聊天和即兴表演配备了可灵活调整的环境与设备。 面积达 4000 平方英尺(约 371 平方米)的摄影棚,用于现场表演、多机位拍摄、乐迷活动和放映等。 一间专属的空间音频混音室,配有 9.2.4 PMC 扬声器系统,以实现高质量音乐制作。 一间照片与社交媒体实验室、一间剪辑室,以及一间支持实时内容创作的艺人休息室。 用于写歌、录制播客或一对一访谈的私密隔音间。 热门走廊和档案走廊,展示 Apple Music 过去与现在重要时刻的照片与专辑封面。 洛杉矶 Apple Music Studios 将联结东京、柏林、伦敦、巴黎、纽约、纳什维尔等地已投入运营的创意中心,未来还将有更多场所加入这一网络。 苹果公司将通过全天内容和现场节目庆祝这一里程碑,北京时间晚 9 点至晚 11 点,Don’t Be Boring - The Birth Of Apple Music Radio 将由 Zane 与 Ebro 主持,带领听众深入了解 Apple Music 广播诞生背后的故事。随后的 8 小时特别节目(北京时间晚 11 点至次日早 7 点)将回顾 Apple Music 十年来的高光时刻、独家发布、现场活动和文化里程碑。次日早 7 点至早 10 点,Zane 与 Ebro 将主持直播节目,庆祝 Apple Music 问世十周年,并展望洛杉矶的新录音室。 此外,Apple Music 广播还将从 7 月 1 日(周二)起,在特别倒数节目中陆续揭晓 Apple Music 问世至今播放量最高的 500 首歌曲,直到 7 月 5 日(周六)揭晓近十年来播放量最高的 100 首歌曲。乐迷可在 10 Years of Apple Music: Top Songs(Apple Music 十周年:人气歌曲)歌单中聆听完整榜单的全部歌曲。 Apple Music 还将推出 Replay All Time(全程音乐回忆)。在这个年度“音乐回忆”体验的特别版本里,乐迷可以查看并聆听他们加入 Apple Music 以来播放次数最多的歌曲。订阅用户可在音乐 App 主页的“音乐回忆”版块播放 Replay All Time 歌单。
出现销售纠纷,任天堂禁止亚马逊美国销售Switch 2
Switch 2 凤凰网科技讯 北京时间6月30日,据彭博社报道,由于在未经授权销售问题上存在分歧,任天堂公司已将其产品从亚马逊美国网站下架,导致亚马逊错过了Switch 2这一史上最盛大的游戏主机上市。 知情人士称,任天堂发现第三方商家在美国以低于其官方建议售价的价格销售游戏,随后决定停止在亚马逊平台上销售产品。一些精明的卖家在东南亚大量采购任天堂产品,然后出口至美国销售。 根据游戏媒体此前的报道,从去年开始,任天堂的产品页面开始从亚马逊美国网站上消失。这些商品此前标注为“由亚马逊销售”(Sold by Amazon),这通常意味着该商品是亚马逊直接从品牌方采购的。不过,部分任天堂产品仍可在亚马逊网站上找到,但是由亚马逊第三方平台的独立商家所提供。 知情人士称,亚马逊曾试图安抚任天堂,提出在产品上添加标签,以保证其为正品。但是,该提议未能令任天堂满意,最终任天堂决定将其产品从亚马逊美国平台下架。 任天堂发言人在一份邮件中回应称:“没有这种情况。我们不会披露与零售商的谈判或合同细节。”该发言人拒绝做进一步说明。 亚马逊发言人表示,“彭博社关于我们与任天堂关系的报道不准确”,但未具体说明原因。该发言人还称:“亚马逊很乐意直接向客户提供任天堂产品,以兑现我们提供卓越购物体验和最丰富商品选择的承诺。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
预售 10.58 万元起,好开又好看的零跑 B01 要给小鹏上压力了
在小米 YU7 爆单之后,零跑汽车的董事长在接受采访时说: 昨天本来「心情很好」,因为看到零跑的订单量很不错,结果晚上看了雷总的发布会,1 小时卖那么多,压力一下子就上来了。 但其实要论做爆款的能力,零跑在一众新势力里面也是最顶尖的那位高手,其在5 月份交付了 45067 辆车,同比增长超过了 148.1%,已经连续好几个月排在新势力销量榜首位了。 在新款 C10 和 C16 之后,零跑的新轿车 B01 也在 29 日开启了预售,按照上海车展期间的火爆程度来看,这款新的轿车很有可能将零跑的月交付量推上 5 万辆的高峰。 先来看看预售价格。 零跑 B01 这次共有两个续航版本,550km 续航的起步预售价为 10.58 万元,带激光雷达的版本为 12.58 万元;650km 续航版本的起步预售价为 12.58 万元,激光雷达版本为 13.58 万元。 在正式发售后价格预计还将进一步降低,预计标准版配置的价格将来到 10 万元以内。 零跑 B01 这次的车型定位叫做「年轻人的高品质智能轿车」,年轻人买车的第一要素是什么——好看、颜值即正义。 官方说零跑 B01 是「 15 万级的最美智能轿车」,如果说最美可能会有点争议,但是说它精致、漂亮、讨喜,应该不太会有人反对。 零跑在 B01 上提供了 8 种车身颜色,除了正常的黑白灰之外,还提供了蓝、粉、紫、银以及一款更显年轻的灰色,官方特意介绍了他们在「摩根粉」的漆面中加入了微量的锰元素,让车漆可以在阳光下呈现出跃动的微光效果,非常吸睛。 新车的车辆长宽高分别为 4770mm、1880mm、1490mm,轴距为 2735mm,与小鹏 MONA 03 和广汽埃安 RT 相近,车身采用了流体造型,将溜背角度做到了 17.2°。 零跑 B01 前脸采用了贯穿式灯带的设计,搭配了分体式的日行灯,下包围处使用了大面积的钢琴烤漆外观装饰件来增强车辆的质感,外后视镜也进行了熏黑处理。车尾部分则显得比较有层次感,小鸭尾、贯穿式尾灯和车标处隆起线条的组合很有辨识度。 B01 的内饰有灰紫两种颜色,风格延续了 B 系列的家族式设计,配备了 8.8 英寸全液晶仪表盘以及 14.6 英寸 2.5K 高清中控屏,同时 B10 上的百变副驾设计也出现在了 B01 上面,副驾侧提供了 6 个「魔术拓展坞」+ 1 个矩形凹槽结构,支持自由组合折叠桌板、手机支架、储物盒、水杯架、挂饰等配件。 新车内饰软包的覆盖率达到了 88%,同时在出风口、扶手、背夹等组件上都覆盖了镀铬装饰件来提升质感。空间体验上,零跑 B01 拥有 86% 的「得房率」,后排靠背为 28°,支持 6:4 比例放倒,后背箱常规容积为 460L,采用了上下可调隔板设计,拓展空间约 70L。 零跑 B01 搭载了高通 SA8295P 旗舰级座舱芯片和双 AI 语音大模型,配合 Leapmotor OS 4.0 Plus 交互系统,支持多模态识别、 AI语音助手、零动空间、实时感知的 3D 灵动桌面、一镜到底动效等功能,256 色的氛围灯也可以跟随车内音乐律动。 智驾方面,零跑 B01 配备了激光雷达和高通 8650 高性能芯片,拥有 27 颗高精度感知硬件,可实现高速领航辅助 NAP、通勤领航辅助 CNAP、停车场记忆泊车等 26 项辅助驾驶功能。 零跑特别提到了 B01 的底盘采用了由中欧顶级团队联合设计的调校方案,采用 50:50 黄金前后轴荷比,大幅提升过弯稳定性与操控精准度的时也让车辆的转弯半径降低至了 5.25m,新车搭载的爆胎稳定控制技术能让车辆即便在高速120km时速行驶中突发爆胎,系统也能迅速调整车身姿态,确保行驶安全。 同时零跑 B01 采用了后置后驱的 7 合 1 高性能油冷电驱,百公里加速为 6.4s,CLTC 续航里程为 550/650km,SOC 30% 至 80% 的充电时间约需 18 分钟。此外,零跑 B01 还搭载了业内顶尖的热管理系统,全系标配热泵空调和 27 合 1 超级集成热管理系统,配合精细化智能控制算法,能够实现综合续航提升 10%. 零跑认为在 15w 级的新能源轿车市场,以往都是以纯电网约车、家用省油插混、城市用途小型两厢车,缺少一台既好看、有品味、高品质的智能轿车。所以他们花了很大力气在外观和智能化配置两方面发力,在 B10 的基础上进一步提升了 B01 的产品力和性价比。 现在感受到压力的,可能是小鹏 MONA M03,在只有智驾配置方面有区别的情况下,B01 的起售价比其低了约 1 至 2 万元,势必会分走一部分客户。
智能眼镜的重点,并不在智能|硬哲学
爱范儿关注「明日产品」,硬哲学栏目试图剥离技术和参数的外衣,探求产品设计中人性的本源。 作为上周四小米「人车家全生态发布会」上唯二由雷总亲自发布的产品,起售价 1999 的小米 AI 眼镜可谓赚足了眼球。原因也很简单:当小米决定入场一个产品领域时,往往就是这个领域大众化的开端。 虽然名字里带着一个 AI ,小米也宣布过小米 AI 眼镜可以通过手机接入满血版的超级小爱模型,但是绝大多数人(包括我身边的朋友)对于小米眼镜的关注点其实都不在人工智能上,而是一个我们习以为常十多年的功能:拍照。 图|微博 @小米公司 我们不需要的人工智能 「AI」仿佛是二十一世纪二十年代一个避不开的话题,早已经脱离了它曾经技术名词的概念,反而变成了一种营销词汇。然而在 AI 产品浪潮已经席卷了五年多之后,我们对于电子产品的日常使用方式却并没有发生什么根本性的转变。 原因也很简单:现阶段的 AI 并没有一个非常具体的入口,值得人们在已经形成的日常使用习惯中插入它。哪怕用户引导能力强如苹果,也整出过 Visual Intelligence 这种不明所以的烂活: 2024 年 iPhone 16 发布会上这则舍近求远的 Apple Intelligence 演示片最终成为了集体吐槽对象 不幸的是,从现阶段的硬件产品来看,各类 AI 智能眼镜也不会成为那个「具体的入口」。 更何况考虑到硬件规模,真正的端侧 AI 想要做进手机都十分困难,遑论眼镜这种限制极大的硬件了——从产品分类上讲,叫现在这些智能眼镜是「能够快速调用手机智能助手的蓝牙耳机」都更贴切一些。 因此在现阶段,虽然我们仍然将这一品类的产品称为「智能眼镜」,但它的核心竞争力永远都不会取决于是否智能,而是在于它为一些我们日常的活动带来了全新的视角。 所以,当我们放下 Meta AI、小爱同学,还有那个不知道能不能等来的 Apple Intelligence,再回过头来重新看看智能眼镜,我们才能看清它的脉络和存在意义。 我们很需要的 POV 相机 长久以来,POV(Point of view,即第一人称)视角一直是日常拍摄视频或者 vlog 时比较难处理的。在传统的电影工业中,最终的解决方案往往就是这样一套巨大的设备: 但是绝大多数普通消费者既不需要这么笨重坚固的设备,也用不上那么极致的画质,因此后面便出现了各种更加轻便的固定方案,比如挂脖和胸带,可以将运动相机——或者干脆把 iPhone ——固定到接近第一人称视角的位置拍摄: 但这些轻量化的方案也并不是完美的,毕竟对于普通消费者来说,额外多带一件装备也是太多了。无论是 GoPro 的胸带还是 Insta360 的帽夹,都是一部单独的相机和需要专门携带的配件,在现实的使用环境中既不能一直佩戴、也不能及时查看素材,更需要时刻照看着。 这个时候,一副能够拍照录像、兼顾开放式耳机,同时还能满足普通眼镜功能的的智能眼镜,就顺理成章的出现了,而这也正是 Meta 在 2023 年联合雷朋所做的。 如果只看拍摄和录像规格,Ray-Ban Meta 能够录出来的东西放在 iPhone 旁边简直没法看,最长三分钟的 1080P 30 帧的竖向视频,或者用 720P 进行最长 30 分钟的直播。毫不夸张的说,把 iPhone 15 咬在嘴里录出来的视频也比 Ray-Ban Meta 高到不知道哪里去了。 然而问题就在这里:人不能一直咬着/挂着 iPhone 录视频,但可以(并且已经)一直佩戴眼镜了。 更重要的是,Ray-Ban Meta 的录制规格对于它所面向的潜在消费者来说其实是完全够用的——在有充足光照的环境下,智能眼镜拍出来的东西发发朋友圈或者 Reels 完全不会显得画质陡降: Ray-Ban Meta 样张|PetaPixel 此外,智能眼镜拍摄视频所带来的沉浸感也是其他随身拍摄设备难以企及的。毕竟眼镜作为人们身上最靠近眼睛的设备,所拍摄出来的视角自然也是最接近第一人称的。除非将 iPhone 挡在脸前,或者类似电影工业中那样把相机挂在鼻子前面,否则很难实现类似的视角。 这种时候,智能眼镜的另一大属性就体现出来了:它是一种「非侵入式」的拍摄设备。眼镜作为一种日常配饰,并不需要额外在身上挂什么东西,甚至对很多人来说只是换了一副不同的镜架而已,即使佩戴上也不会干扰行动: 2025 年美国曲棍球联盟全明星技巧赛上,体育直播平台 FloSports 就给球员配发了 Meta 眼镜用于直播进球视角 因此,这样一副非侵入式、能够满足最基本的画质要求,同时可以提供无出其右的 POV 视角的智能眼镜,对于普通消费者来说,就意味着既不需要复杂的设备,也不需要硕大的肌肉,更不需要拷卡导素材之类的繁琐流程,直接用手点点眼镜就能录出一段身临其境的视频,同时还能顺便听着歌: 眼镜 + 手机的录像组合在将来一定会越来越常见 这差不多就是在 2025 年,各家手机厂商都在疯狂卷影像的大背景下,最让人意想不到、最具未来感的使用方式了。 智能眼镜的路线之争 在小米 AI 眼镜的发布会后,其实还有一部分人表示了一定程度的失望,因为在很多先期的传言和消费者的期盼中,小米要推出的是一款带显示功能的智能眼镜。 这实际上是一个非常好玩的问题,因为在「智能眼镜究竟应不应该包含显示功能」这个问题之前,还有一个先决条件:我们应该怎样定义智能眼镜? 这何尝不是一种智能的眼镜? 目前在电商平台上可以直接买到的,「以眼镜的形态」存在的智能产品其实非常多——毕竟如果硬要说的话,苹果 Vision Pro 也可以是以加厚滑雪护目镜的形式存在的。 在这个赛道里面,从小米到华为,再到雷鸟、ROKID、Xreal 等等,都会给自家的多功能眼镜产品打上一个「智能眼镜」的标签。然而这些眼镜的功能和使用方式却天差地别,唯一的共性就是能够戴在脸上而已。 因此,在前文的语境下,对于类似小米和 Meta 这种形态与功能的智能眼镜来说,我们可以提出这样一个定义: 只有在不通电的情况下,仍然可以正常佩戴、作为传统眼镜(屈光或墨镜)使用,不会对身体活动产生影响的眼镜类智能产品,才可以被叫做智能眼镜。 这样定义的目的,主要是为了去除类似魅族 StarV View、雷鸟 Air 3s、ROKID Max2 之类的「智能 AR 眼镜」。因为无论从具体功能还是能否断电使用上看,这一类设备都属于「长得像眼镜的轻便型 AR 头戴显示器」,像屏幕一样显示内容原本就是它们的主要功能。 类似雷鸟 Air 3s Pro 这种 AR 头显,由于显示屏会遮挡视线无法作为普通眼镜使用,因此不属于智能眼镜|充电头网 这样的定义是很有必要的,因为虽然 AR 头显和智能眼镜随着技术进步,外观形态正在趋同,却有着截然不同的功能侧重:是为了保证显示效果的沉浸感而牺牲作为普通眼镜的功能,还是努力在普通眼镜的形态上添加智能功能,这直接决定了产品的本质是什么东西。 因此,在确定了「智能眼镜」的定义之后,我们再回来看看智能眼镜是否应该包含显示功能的问题。从目前市面上已知的产品来看,智能眼镜的技术发展道路分成了很清晰的三条: – 不含任何显示功能,使用纯语音交互的智能眼镜,以 Ray-Ban Meta、小米 AI 眼镜、雷鸟 V3 为代表。 – 具备单色纯文字显示功能,可以用来显示提词器、通知、导航等简单文字化信息的智能眼镜,包括魅族 StarV Air 和 Rokid Glasses 。 – 具备彩色屏幕和图像显示能力,拥有完整图形化界面的智能眼镜,比如雷鸟 X3 Pro,以及谷歌在 Google I/O 上演示的 Android XR 验证机。 虽然这三条技术道路上各自都有已经商品化的产品,价格涵盖从 1999 到 9999,但实际上智能眼镜的技术发展脉络基本上就是沿着这条道路前行的,甚至谷歌在十二年前就已经尝试过全彩显示了: 换句话说,「显示功能」一定会在未来成为智能眼镜的必争之地,在激光全息、高分辨率光波导等等显示技术成熟的背景下,智能眼镜和眼镜形态的 AR 头显在最终会实现融合,变成一套真正的可日常佩戴的显示设备。 不过在现阶段,智能眼镜类产品更多还是作为一种手机的延伸,逐渐将一部分手机的交互和拍摄功能带到更加第一视角的位置上,在最本质的层面上是一种人体的增强设备。 此前,智能眼镜受制于硬件的发展,一直没能跨过「能日用」这道门槛,只是作为一个「刻奇」的智能设备。然而现在依托着手机供应链的逐渐成熟,智能眼镜在实用性上基本上完成了蜕变——比如虽然功能和体积类似,小米的眼镜可以靠着金沙江电池的技术实现 Ray-Ban Meta 大约两倍的续航,实用程度毫无疑问是更上一层楼的。 Ray-Ban Meta 使用的是一块 160mAh 的电池|知乎 @我爱音频网 在这样的基础上,我们可以猜测:2025、2026 和 2027 将会是智能眼镜市场开始蓬勃和竞争最激烈的三年,以语音交互为主的 AI 并不会成为智能眼镜的主要卖点,反而是拍照和音乐功能会继续发展,最终成为消费者购买意愿的主要组成部份。 因此,无论是智能眼镜的高集成度、小型传感器对于拍照和视频算法的依赖,未来在显示技术上的突破,以及最重要的:与硬件生态中的主力——即手机——的联动,这些技术指标最终都在暗示着一个结果:我们一定会看到更多手机厂商加入这个市场。 图|Screen Rant
小马智行第七代自动驾驶Robotaxi有望落地新加坡
IT之家 6 月 30 日消息,6 月 27 日,新加坡交通部代部长萧振祥(Mr. Jeffrey Siow)率代表团参访小马智行广州研发中心。双方深入探讨了中国自动驾驶发展经验及新加坡落地规划,以及自动驾驶技术在新加坡公共交通体系中的创新应用。 小马智行联合创始人、CEO 彭军提到,希望今年能在新加坡小规模试行量产的第七代 Robotaxi,“小马智行有着成熟的自动驾驶技术和运营经验,相信能够助力新加坡打造智慧城市出行生态。” 新加坡康福德高集团董事经理、集团总裁钟锡坚受访时表示,新加坡永远会面对人力和车辆供应的限制,集团相信自动驾驶 Robotaxi 可以弥补现在和未来的缺口,维持服务质量,并正在探讨能否先小规模运营自动驾驶 Robotaxi。 IT之家从官方介绍获悉,2017 年,新加坡政府修订《道路交通法》,允许自动驾驶汽车在公共道路进行测试。此后,新加坡的自动驾驶区域不断扩大。新加坡正在推动公共交通系统的持续发展,通过引入自动驾驶 Robotaxi 等出行工具,缓解人口老龄化和劳动力短缺造成的社会压力。 目前,小马智行已与新加坡康福德高集团达成战略合作,共同推动 Robotaxi 的大规模商业运营,双方已在广州开启联合自动驾驶出行服务项目。
小米汽车设计团队手记公布,揭秘YU7设计背后的故事
IT之家 6 月 30 日消息,小米汽车官微公布了一份小米汽车设计团队手记,揭示了小米 YU7 设计背后的故事。 博主 @孙少军09 今日发文称,小米上周新增锁单破 280K(28 万),并表示其缔造了一个中国汽车行业的历史纪录。 IT之家附全文如下: 好的设计是「技术」和「艺术」的完美结合。回顾小米汽车外饰设计团队在 YU7 上的每一步都充满了深入的思考与反复的博弈,每个决定背后,都是设计师对于设计「正义性」的坚持。 我们将以一系列设计手记的形式带大家走进 YU7 设计的幕后世界,分享 YU7 背后的设计故事。 01、形之始:比例、L113 与 SUV 运动基因 团队最初的目标很明确:设计一款具有运动感的 SUV,凸显小米品牌「运动基因」同时又能够与 SU7 设计语言相呼应。 那么,如果颜值是首要考量,人们心目中一台「极致运动」的 SUV 应该是什么样子? 团队在比例上反复推敲,答案在讨论中逐渐聚焦于一个关键点:「L113」(前轮中心至刹车踏板的距离)。 这是一个传承自传统跑车设计的比例,通过加长 L113,能够赋予 YU7 更流线型、更具动势的姿态。 这一设计不仅拉长了车头的视觉比例,也提升了前舱布局的灵活性和车辆的操控均衡性。长车头的造型与 SUV 的车高结合,形成了兼具跑车「运动感」与「豪华稳重感」的整体形象。从动势上看,低趴的姿态和延伸的车头让车辆仿佛「蓄势待发」;从工程上看,较长的前悬为动力系统和悬挂布局提供了更大的空间,也为优化前后重量分布和风阻带来更多可能。长车头同时提供了安全上的溃缩空间。 燃油车时代的跑车采用长 L113 比例的原因主要是为了容纳更大的发动机,而在电车时代,是否依旧值得加长这段距离?当然值得,比例是设计的一大正义,也是塑造运动美感的关键所在。 汽车工业百年来沉淀下来的跑车直觉审美早已将长 L113 与性能、优雅深度绑定,成为用户审美认知中的一部分。 设计团队选择尊重百年汽车审美,从造型上去延续跑车设计的精髓。 而 YU7 的长 L113 也绝非“虚张声势”——「蚌式机盖」、雕塑般的「立体大灯」、与型面共生的「贯穿式风道」,以及提供了硕大「前备箱空间」,都在为这个长车头书写完整的设计逻辑闭环。 「每一根线条都遵循自然规律,每一处比例都呼应自然直觉」,“形”与“意”在此刻握手,未来轮廓已悄悄浮现。 02、形之塑:侧面线条下的雕琢 与 SU7 一致,YU7 的侧面线条强调雕塑感。设计团队在车顶上采用典型的溜背式流线造型(前高后低),而下部腰线则呈现「前低后高」的上扬趋势,视觉上形成明显的向前冲势。车身上部平滑流畅,后 C 柱与上扬的后肩线无缝衔接,增加了车尾的体量感和动感。 侧面还应用了无框车门和全封闭式隐藏门把手,减少了侧面突起,令线条更加简洁。尤其是「车头的立体大灯与侧面线条形成连贯」,达成完美的视觉衔接。 然而,这在设计实现过程中遭遇了巨大挑战,尤其是在 A 柱及前盖的冲压方面。设计团队希望冲压深度尽可能小,保持车身线条的流畅与精准,但冲压深度太大会影响到车身的刚性与安全性。为了保持与车头立体大灯的延续性,必须在分缝线的位置和角度做出细微的调整。 在这一点上团队经历了多轮的设计迭代。与工程师们反复磨合,反复进行冲压试验,最终找到了一个能够平衡美学与技术的最佳解决方案。 03、形之意:轮包下的跑车体验 如同 L113 的设计,团队在设计初期就着重考量了「轮包」的造型,通过型面处理营造出饱满、有力、富有运动感的跑车视觉效果,尤其是前机盖的力量感与轮包的呼应,让车身在视觉上形成一个充满跑车运动感的整体。 随着设计的深入,一个新问题浮现出来:轮包加宽加高后,乘客的视线受到了影响,驾驶员的视野被进一步压缩。经过多轮讨论,团队最终决定:将引擎盖中央区域压低,形成中间低、两侧翼子板高的优雅曲面。这不仅保障了驾驶者开阔的前方视野,更带来一种奇妙的体验 —— 坐进一台姿态昂扬的 SUV,却仿佛置身低趴跑车的驾驶舱中。 04、光之构:从平面符号到立体构筑 YU7 的「镂空水滴大灯」设计,既是外饰设计中的一大亮点,也充满了技术挑战。如何在保留家族化水滴元素的同时进行升级,让大灯从平面的“图案”进化为立体的「构筑」? 设计师看着实验室屏幕里气流在车头清晰可见的轨迹,一个大胆的想法诞生:「将真正的风道结构融入灯腔」。那些为造型服务的内凹与镂空,瞬间被赋予生命。「风成为了与光同行的搭档」。 而「光环尾灯」的设计,也经历了内部团队的讨论。SU7 的尾灯设计成为了品牌的标志性元素 —— 层叠的精致星环构造,应用到 SUV 车型上似乎并不够硬朗。 当新一轮设计草图上的灯组简化了内部三圈星环时,大家对此产生分歧,认为这样会失去原有的品牌标志性。最终团队坚持 SUV 的尾灯设计应该更具有“横向张力”,精致繁复的“星环”属于低趴的轿跑;高大宽厚的 SUV,需要的是体量的宣言和硬朗的存在感,因而用更加简洁的「折角」结构来强化尾灯的立体感。 新的尾灯造型在视觉上强调了尾部的稳定性和力量感,与整车的高姿态相得益彰。相较于 SU7 纤细延展的尾灯线条,YU7 此番厚重的灯组设计更符合 SUV 车型硬朗的风格,使整车尾部动势分明、层次丰富。通过这一演进,YU7 与前灯雕塑般的立体语言完美呼应,完成了从 SU7 进化的设计语言闭环。 05、形意之间 YU7 上的设计语言诠释了形意之间的理念 ——「造型和需求相辅相成」。 从「长 L113」的设计到「整车比例」,到前脸的「蚌式机盖」与「贯穿式风道」,再到侧面的「线条」和「轮包」处理,直至「灯组」的立体雕塑语言,每一处细节都在美学与技术之间寻求平衡。 设计团队「不断在技术的天花板上叩问美学的极限,又在美学的追求中探寻技术的解法」。 继而在两者之间寻找平衡,让 YU7 既充满运动基因,又符合电动 SUV 的用户实际需求。
iPhone 18系列前瞻:苹果首次加入可变光圈 影像大升级
苹果最新获批的专利展示了一项名为“超弹性薄膜”的相机光圈技术,有望彻底改变iPhone乃至整个移动设备的影像系统设计。 这项技术摒弃了传统相机依赖的机械叶片结构,转而采用一种可拉伸、扭曲的柔性薄膜来控制光圈开合。其核心原理在于薄膜受控变形后形成双曲面体,通过精准调节进光路径的大小来实现光圈变化。 与传统叶片形成的六边形开口不同,这种薄膜能生成更规则、近乎完美的圆形光孔,不仅减少光学干扰,还能实现100%的物理遮光——这意味着用户能获得更纯净的成像效果,同时在不需要拍摄时彻底关闭光圈以保护隐私。 这项设计的优势直接回应了当前手机摄影的两大痛点:硬件臃肿与性能瓶颈。一方面,超弹性薄膜结构大幅简化机械组件,使相机模组更薄更轻,为缩小iPhone长期以来突出的镜头模组提供了技术路径。另一方面,由于活动部件减少,系统故障率显著降低,耐用性提升。 在拍摄能力上,圆形光路和精准控光能力协同优化了低光环境的成像稳定性,配合景深控制的精细化,用户无需专业设备也能实现接近相机的虚化效果。 值得一提的是,苹果同步推进的另一项专利——微型光学吸收光栅技术,通过在镜头内增加微米级锥形结构吸收杂散光,可大幅抑制眩光问题,若与超弹性薄膜整合,将形成光学性能的“双重革新”。 从应用前景看,该技术极可能率先落地于iPhone 18系列,根据供应链信息,iPhone 18计划搭载可变光圈与多折潜望镜镜头,超弹性薄膜的轻薄特性恰好为复杂光学模组腾出空间。 而苹果对生态协同的布局也日益清晰:近期曝光的iPad Pro将采用覆晶薄膜(CoF)技术压缩边框,若超弹性薄膜加入,可进一步实现光学组件与显示驱动的同步瘦身,推动“无负担专业创作”的设备体验。 编辑点评: 技术商用仍存挑战,薄膜在长期高频变形下的耐久性、量产精度控制以及成本平衡需进一步验证。参考苹果过往专利转化周期,如柔性屏技术多年未落地,此项革新也可能需1-2代产品迭代完善。 但毋庸置疑,这项以材料科学破局的设计,标志着手机摄影开启“结构革命”,一旦成功,不仅将重塑iPhone的影像竞争力,更可能为整个行业锚定轻薄化与专业化的新方向。
梅赛德斯-AMG将为电动汽车带来油车“情绪价值”:引入模拟换挡及声浪
IT之家 6月30日消息,据外媒Autocar今日报道,梅赛德斯-AMG计划在旗下即将推出的纯电动车中模拟内燃机的运作方式,以延续品牌过去V8和V12跑车带来的“情感”基准。 在AMG Concept GT XX亮相现场,梅赛德斯-奔驰集团技术总管Markus Schäfer接受采访时透露,AMG正探索模拟V8引擎换挡节奏与震动的可能性,进一步提升电动车的驾驶沉浸感。 据IT之家此前报道,AMG本月早些时候发布了AMG GT XX概念跑车,其搭载三台轴向磁通电机,综合输出超过1341马力(1000kW)。 Schäfer说,AMG之所以令人着迷,在于它能从噪音、震动到换挡质感全面激发驾驶者的情绪,“如果这些都没有,那它就不配称作AMG。我们正在一步步把这些特色移植进AMG GT XX。” 明年上市的GT XX量产版已确认将通过安装在头灯中的扬声器模拟AMG V8的引擎声浪。但从Schäfer的说法来看,这还不是终点:新车将效仿现代Ioniq 5 N,更逼真地模拟高转速燃油动力系统,从而提升操控乐趣。 梅赛德斯-AMG在社交媒体发布的视频中就展示了这一理念:车辆“升档”后迅速加速,再骤然刹车,宛如真正的燃油车表现。 Schäfer指出,GT XX配备的轴向磁通电机由Yasa开发,具备高度可调的动力特性,是实现这一系列体验的关键。“AMG不仅要有赛道级的性能,还必须在听觉和震动方面唤起情绪,这是这款车也必须具备的。你今天在V8、V12赛车化AMG上所享受到的全部感受,都将在GT XX上延续。” 不过,Schäfer也坦言:“想让V8铁粉接受一辆电动车,并不容易。”
特斯拉“外卖式”交车:APP下单全无人驾驶到家门,雷军:I服了You
滴滴~你的特斯拉“外卖”已经到家啦! 马斯克放出了一段特斯拉FSD全程无人驾驶,上门给用户交车的30分钟视频,震惊了网友。 史上头一次,买车跟点外卖一样简单:APP下单,自动送货到家门口。 马斯克的宏愿更进一步,雷军也被折服,表示要好好学习。 又被马斯克装到了 马斯克先是郑重其事发了一条推文,宣称特斯拉完成了“史上第一次”完全自动驾驶的车辆交付。 一名客户新买的Model Y,在车内完全无人、完全没有外部遥控操作的情况下,依靠FSD从得州工厂穿行40余公里,到了用户家门口: 但是没有放出任何视频证据,不出意外被一顿质疑+阴阳,比如有网友晒出了“收货”的买家秀: 有人讽刺“老马那么有钱怎么会撒谎,没必要给你提供任何证据”: 有人义愤特斯拉这种轻率的行为,说一旦出事撞死人甚至是孩子,马斯克就应该自裁谢罪: 也有人对整个过程提出了质疑: 任何视频证据都没有,甚至连照片也没有一张,实在是高度可疑! 马斯克先是等这些质疑批评发酵了一天左右,然后——Kapow!!: 直接放出了一段30分钟的完整视频,整个过程一刀未剪,场景包括高速、城区、泊车: 有几个比较亮眼的表现,比如自动驶出工厂仓库大门: 自动进出高速匝道: 路口避让行人,并根据交通灯自主完成右转: 全程多难倒也谈不上,没有出现复杂的人车混行、堵车、不友好的变道加塞等等情况…..难度远不及之前用户在旧金山唐人街实测FSD的场景。 就是很普通的地广人稀、交通情况良好的美国西部公路。 但架不住这是历史上首次全无人驾驶交付新车,而且马斯克又自导自演一出先被质疑,然后又突然放出证据扫清质疑的爽文桥段。 怪不得特斯拉不设公开的营销公关部门,老马自己就一身全是戏。 舆论反响空前的好,马斯克、特斯拉官方X账号下99.99%都是“牛X666”、“里程碑”、“创造历史”类型的留言转发: 就连大洋彼岸的小米老板雷军,也献上了自己的瑞思拜。 不管网友信不信,雷军反正心服口服 质疑不是没有,只不过在马斯克控制的X平台上很少。 其他媒体和论坛上,质疑主要集中在否合法合规、以及是否作弊等等问题上。 比如有网友透露了一个内部消息,说这名车主拿到车后,系统立刻降级成了最普遍的FSD: 还有人质疑非Robotaxi的量产车这样搞是否合法,毕竟马斯克一贯行走在合法性的灰色地带: 对于技术路线的质疑更多,也不难想到大家的怀疑集中在特斯拉用了高精地图,或者在这条路线上预训练过模型….. 但不管网友信不信,雷军信了。 雷总在微博上转发了特斯拉官方的帖子,并且表示“特斯拉了不起,小米还要学习”: 而这条微博底下最多的互动,还是催交车。 让绝大部分粉丝选择性忽略智能化技术与顶尖玩家之间的差距,甚至自己主动提及,粉丝也视而不见,只恨不能早点付款提车…….就连马斯克本人也没这待遇。 技术先进性难以量化评判,但从个人光环效应这一点看,雷军已然超越马斯克。这边也建议雷总解雇小米的市场营销部门呢。 回到特斯拉全自动驾驶交车这件事本身,有两个角度供各位观众老爷参考。 首先,这次长达30分钟的视频毫无疑问就是一次公关营销行为,拍摄质量、镜头布置、影片配乐等等都是专业团队的手笔。 不过车主购车行为本身应该不会是造假,他是一个被马斯克选中的幸运儿,全程配合了特斯拉的拍摄要求。 存疑的是技术方案本身。当然有可能是老马“摆拍”,毕竟之前有过“前科”:2019年的FSD“完全自动驾驶”视频,后来被前员工指证是精心摆拍剪辑的,而且是马斯克亲自下的命令。 如果这个视频背后真的如马斯克所说,无远程云代驾,无本地预置程序,全程靠AI司机完成,并且交到用户手中,系统没有退回之前版本的话,影响一下就重大起来了。 按照北美法规,之前把L2辅助驾驶分成ADAS,L4及以上称自动驾驶ADS,并且要求车内无人,后端无远程辅助。 特斯拉其实已经突破了辅助驾驶的限制,在量产车上满足了北美“自动驾驶”的定义。 特斯拉量产车其实=Robotaxi,L2升维进一步被证明。 同时也彻底终结了L3存在的必要性。 最后,特斯拉还彻底颠覆了传统汽车零售模式。直营店甚至都不需要,APP下单车从工厂直接到家,全流程体验与点外卖无异。 你说试驾保养不还是得去门店?拜托,试驾车不也能从工厂直接到你家门口吗?而且FSD能从工厂到家,也能从家到工厂返修保养。 而判断马斯克是做戏还是真的实现了突破,标准其实很简单: 只要看后续FSD自动交车是规模化、常态化,还是就这一次。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。