EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
内存简史:从水银延迟线到DDR5内存
内存,Memory,计算机最重要的部件之一,它用于储存CPU运算时,CPU与硬盘、光盘、U盘外部存储器交互的数据。可以说,任何一台电脑缺少内存都无法运行起来。可你知道内存发展史么,今天简单讲解一下。 最早的内存可以追溯到1951年投入运行的EDVAC计算机(Electronic Discrete Variable Automatic Computer,离散变量自动电子计算机),这是一台冯·诺伊曼结构的计算机,也就是现代意义的计算机,我们今天所用的电脑都可以视为它的徒子徒孙。 EDVAC搭载了世界上第一条内存,不过有意思的是该内存是采用了水银延迟线作为易失性存储器。按照最初计划,它把水银延迟线放在32个长度为5英寸长的槽中,每个槽有32内存位置,共计1024位置,不过在建造时只实现了一半,内存空间仅有512个字节。 不过用水银延迟线制作的内存造型实在过于抽象了,相信大家看到它一定无法认出它是内存,而个人电脑上所用的内存条也是经过数十年发展才变成 今天的形态的。 在最初,个人电脑所用的内存是以DIP芯片的形式焊接在主板DRAM插座之上的,所以不存在内存条这一说法,而且初期只有64KB至256KB,虽然无法与当今动辄数十上百GB内存相比,但是比起EDVAC已经是非常豪华了,能够满足当年处理器的需求。 SIPP 到了Intel 20286处理器时代,内存条出现了,先是诞生了SIPP(Single In-line Pin Package)内存条,但由于安装太麻烦了,很快被SIMM(Single In-line Memory Modules)内存条所代替。也许SIMM内存条看起来很粗糙,但它定义了现在内存基本形态——在一条狭长的PCB上布满了内存芯片,其中一条长边是连接主板的金手指,在安装时内存以90°插入到主板。 SIMM 不过SIMM与现代内存条有一个显著差别,它的金手指只有1面,直到为DIMM(Dual In-line Memory Module)内存条,即SDRAM内存诞生,现代内存条才出现。SDRAM不仅使用双面金手指,增加了传输通道,将位宽提升到64bit,而且实现了内存频率与CPU外频同步,大大提升了数据传输效率。 在SDRAM之后,就是我们熟悉的DDR SDRAM(Dual Data Rate SDRAM),它能够在时钟周期的上升沿与下降沿各传输一次信号,实现了SDRAM双倍速度,后来还衍生出GDDR、LPDDR多种类别。 SDRAM 时至今天,DDR SDRAM技术已经发展到了第五代,即大家常说的DDR5,在其中发展历程中,诞生了一项对DIYer非常有吸引力的技术——Intel XMP一键超频技术。 在2025年,无论Intel还是AMD新一代平台无不采用 DDR5内存,目前市场上也有众多品牌供消费者选择,比如科赋(KLEVV)的CRAS V RGB内存。科赋是艾思科旗下的高阶消费性品牌,主打DRAM内存条以及NAND存储器,产品覆盖电竞内存条以及SSD固态硬盘,其产品先后荣获2015、2019、2021及2022年德国红点设计大奖。 CRAS V RGB 而CRAS V RGB正是科赋的旗舰DDR5内存条,它带有散热马甲,采用全域RGB灯设计,有16GB、24GB、32GB三种单条容量,支持Intel XMP 3.0以及AMD EXPO一键超频技术,速度可到8400MT/s,是市面性能最强的内存条之一,适合DIYer发烧友、游戏玩家使用。
全新小鹏 P7,是今年最具设计感的轿车,谁赞成,谁反对?
只讲设计,不谈价格,全新小鹏 P7 前两天的那场亮相,像一部只放了预告片却迟迟不定档的电影,吊足了所有人的胃口。 但当你有机会沉下心来,把这台车的实车、设计手稿和它背后的理念放在一起仔细端详后,一个与直觉相反的结论便会浮现: 对于全新 P7,这样一场纯粹的设计沟通,不仅不拖沓,反而极其必要。 原因无他,小鹏这次要做的,远不止是一次简单的产品更新。它试图用一套完整且自洽的设计语言,去回答当前智能电动车行业最核心的一些问题。 用「面」,代替「线」 初代小鹏 P7 是一款现象级的产品,这应该没什么争议。它在很大程度上,定义了那个时代智能电动轿跑应该有的样子。对于这样一款功勋车型,最稳妥的换代方式,无疑是在原有基础上进行优化和迭代。 但小鹏没有选择这条轻松的路。 这份决心,其实早在设计的源头——那些被称为 Free Sketch 的早期设计手稿上,就已经清晰可见。 在汽车设计流程里,这是最自由、随心的一步。设计师的目标不是画出一台能开的车,而是通过夸张的比例、激进的线条,去捕捉一台车最核心的气和神。 全新 P7 的草图,几乎都在重复同一个主题:用极度纯粹的块面,和锋利如刀的转折,来构建一种充满力量的未来感。 当然,把激情挥洒在画纸上是一回事,把它变成一台能在路上跑,还要能下地库的真车,是另一回事。 这个将灵感「翻译」成现实的过程,在设计行业里被称为「收敛」(Convergence)。一次成功的「收敛」,并非对设计的削足适履,而是像全新 P7 这样,让工程的智慧,反过来成全了艺术的锐气。 这些被工程技术成全的纯粹造型,小鹏在发布会上给它起了一个颇具动感的名字——生动力曲面(Dynamic Surfaces)。 这个听起来有些抽象的词,最直观的体现,就在全新 P7 的车身侧面。你会发现,它的侧面找不到任何一根传统意义上刻意为之的「腰线」。取而代之的,是一整块巨大、光滑且富有内在张力的曲面。 设计师完全依靠这个大曲面的微妙起伏,来捕捉和反射光影。当光线扫过车身时,明暗的边界会像流动的液态金属一样,顺滑地勾勒出车身的力量感,颇为高级。 这种蕴含在曲面中的力量感,也离不开整车姿态的烘托。1407mm 的超低车高、更宽的车体,再加上从 A 柱一笔划到车尾、毫不犹豫的 Fastback 溜背轮廓,共同塑造了那种紧贴地面、蓄势待发的运动姿态。 可以说,「生动力曲面」的本质,是一种用「面」来代替「线」的设计思路。它放弃了用复杂的线条去切割和装饰车身,转而用最纯粹、最考验工艺的饱满曲面,来直接表达设计的自信。 可以说,全新 P7 完成了一次相当漂亮的「收敛」。它没有因为工程的限制,而磨平设计的棱角。相反,是工程的智慧,让最初草图上的那股锐气,最终得以完整地保留了下来。 如果说极致的轮廓是全新 P7 理性的「面子」,那它在设计细节上的处理,则更能体现其理性的「里子」。 外行看热闹,内行看门道。一台车的设计功力,往往就藏在那些最不起眼的「缝隙」里。 传统豪华品牌最喜欢做的,是把车身上因为工艺而必须存在的分割线,处理得极细,并让它们严丝合缝,以此来彰显自己高超的制造水平。这是一种「眼不见为净」的思路。 但全新 P7 提供了一个新玩法:与其费尽心思隐藏,不如重新定义。它干脆利落地将前脸所有功能,包括大灯、传感器,全部整合进了一条横向的「功能缝隙」里。 这么做的好处是,车头的主视觉区域,被彻底解放成了一块完整、纯粹的曲面。这就形成了 P7 极具辨识度的「无脸化」(Face-less)前脸,呈现属于电动时代的冷静与自信。 这种思路也同样延续到了车尾。一体式的贯穿尾灯和下方的黑色功能区,同样是在用这样的逻辑,去保证尾部主造型的完整和简洁。 一边是将功能性分割线主动升格为设计焦点,另一边又在用曲面去消灭不必要的线条。这种对「线」的取舍和掌控,恰恰体现了一家车企在设计上走向成熟和自信的标志。 希望小鹏往后不会把 G6 这样的东西掏出来了。 为一台冰冷的机器,注入温度 从工程和形态上看,全新 P7 无疑是一台冷静、精准,甚至带点锋利攻击性的机器。0.201Cd 的风阻系数说明,它的每一根线条都经过了空气动力学的精密计算,每一个曲面都在追求极致的纯粹。 但问题也随之而来。当一台车的设计语言完全由纯粹的几何和理性的线条主导,它要如何避免沦为一座冰冷的「金属雕塑」?用户坐进去,触摸到的除了科技,还能否感受到一丝温度? 小鹏给出的解法,很有意思。他们没有回头去给这副极简的骨架,添加任何多余的装饰,而是选择让这台机器,学会「与人沟通」。 这套沟通体系,官方称之为「智能灵动仿生座舱」。「仿生」是关键词,它试图在数字世界和物理世界之间,建立起一种更符合生物直觉的互动。 最直观的体现,是那块 15.6 英寸的中控屏。 当你坐在主驾或副驾唤醒它,它会像一个被叫到名字的人一样,微微转向你的方向。这种基于声源定位的物理转向,虽然只是一个微小的动作,却在潜意识层面,将冰冷的「语音识别」,升级成了带有回应感的「对话」。 有意思的是,在哨兵模式下,当车辆感知到一侧有潜在风险时,这块屏幕甚至会直接「怒视」那个方向,发出一声警告。这让它从一个信息面板,变成了一个会表露「情绪」和「姿态」的智能体。 车外的灯光,也成了沟通的一部分。 全新 P7 在车外和方向盘上设置的「小蓝灯」,在辅助驾驶启动时会亮起并有独特的呼吸效果。它像是一种简洁明了的「旗语」,通过光线,建立人与辅助驾驶系统之间的信任感。 屏幕的「注视」、灯光的「表达」、能在 10ms 内响应的座椅侧翼……这些动态交互设计的集合,共同构筑了全新 P7 的核心体验。它试图证明,即便在一个由直线和平面构成的极简空间里,科技,同样可以拥有可感知的温度和生命力。 如果说动态交互是全新 P7 后天学会的「沟通技巧」,那么它的色彩和材质(CMF),则是它表达个性的本能。 在色彩上,小鹏这次显得格外大胆。除了常见的新月银、微星灰,菜单里还出现了星瀚绿、星暮紫、律动黄这样极具时尚感的颜色。 这显然不是一份写给中年商务人士的色彩清单,它的目标用户画像清晰得不能再清晰——那些把汽车也视为潮流单品、希望彰显自我个性的年轻人。 当视线进入车内,设计的「温度」则更多地通过材质来传递。当你的指尖划过方向盘上的 NAPPA 真皮,或是手肘倚靠在门板的 Dinamica 麂皮绒上时,那种温润、细腻的触感,就是对抗科技冰冷感的最佳解药;甚至在你看不到的涂层工艺上,小鹏也用上了和顶级豪华品牌同源的巴斯夫鹦鹉漆。 这种在细节上的投入,是小鹏的一种姿态——它在用看得见和看不见的细节,去填充「豪华」这个略显空泛的词汇。 至此,全新 P7 的设计拼图基本完整了。 它有着一个极其理性的骨架:由严谨的工程学和纯粹的设计哲学,共同塑造出高效、未来感的形态。它也有着一颗试图与人沟通的、感性的心脏:用动态交互和细腻的材质,去中和科技本身的冰冷。 可以说,全新 P7 拥有一套非常系统化的设计语言。它不仅关乎美学,更关乎一家企业在激烈竞争下的自我定位和对未来的思考。
智谱GLM-4.5完整技术报告:提出三个通用模型关键能力,公开12项测试成绩
编译 | 陈骏达 编辑 | 云鹏 智东西8月11日报道,近日,智谱发布了其最新一代旗舰模型GLM-4.5的完整技术报告。GLM-4.5融合了推理、编程和智能体能力,并在上述场景的12项基准测试中,综合性能取得了发布之际的全球开源模型SOTA(即排名第一)、国产模型第一、全球模型第三的成绩,发布后不到48小时,便登顶开源平台Hugging Face趋势榜第一。 智东西此前已对GLM-4.5的能力进行了介绍与测试,在技术报告中,智谱进一步分享了这款模型在预训练、中期训练和后训练阶段进行的创新。 GLM-4.5借鉴了部分DeepSeek-V3架构,但缩小了模型的宽度,增加了模型深度,从而提升模型的推理能力。在传统的预训练和后训练之外,智谱引入了中期训练,并在这一阶段提升了模型在理解代码仓库、推理、长上下文与智能体3个场景的性能。 后训练阶段,GLM-4.5进行了有监督微调与强化学习,其强化学习针对推理、智能体和通用场景分别进行了训练,还使用了智谱自研并开源的基础设施框架Slime,进一步提升了强化学习的效率。 在多项基准测试中,GLM-4.5与DeepSeek-R1-0528、Kimi K2、OpenAI o3、Claude 4 Sonnet等头部开闭源模型处于同一梯队,并在部分测试中取得了SOTA。 值得一提的是,智谱还计划在今晚开源GLM-4.5系列的新模型,名为GLM-4.5V,或为一款视觉模型。 论文链接: https://github.com/zai-org/GLM-4.5/blob/main/resources/GLM_4_5_technical_report.pdf 以下是对GLM-4.5技术报告核心内容的梳理: 一、从知识库到求解器,“ARC”成新一代模型重要能力 GLM-4.5团队提出,大模型正逐渐从“通用知识库”的角色,迅速向“通用问题求解器”演进,目标是实现通用人工智能(AGI)。这意味着,它们不仅要在单一任务中做到最好,还要像人类一样具备复杂问题求解、泛化能力和自我提升能力等。 智谱提出了三项关键且相互关联的能力:Agentic能力(与外部工具及现实世界交互的能力)、复杂推理能力(解决数学、科学等领域多步骤问题的能力)、以及高级编程能力(应对真实世界软件工程任务的能力),并将其统称为ARC。 要具备上述能力,数据是基础。GLM-4.5的预训练数据主要包含网页、多语言数据、代码、数学与科学等领域,并使用多种方法评估了数据质量,并对高质量的数据进行上采样(Up-Sampling),即增加这部分数据在训练集中的出现频率。 例如,代码数据收集自GitHub和其他代码托管平台,先进行基于规则的初步过滤,再使用针对不同编程语言的质量模型,将数据分为高/中/低质量,上采样高质量、剔除低质量,源代码数据使用Fill-In-the-Middle目标训练,能让模型获得更好地代码补全能力。对于代码相关的网页,GLM-4.5采用通过双阶段检索与质量评估筛选,并用细粒度解析器保留格式与内容。 模型架构方面,GLM-4.5系列参考DeepSeek-V3,采用了MoE(混合专家)架构,从而提升了训练和推理的计算效率。对于MoE层,GLM-4.5引入了无损平衡路由(loss-free balance routing)和sigmoid门控机制。同时,GLM-4.5系列还拥有更小的模型宽度(隐藏维度和路由专家数量),更大的模型深度,这种调整能提升模型的推理能力。 在自注意力模块中,GLM-4.5系列采用了分组查询注意力(Grouped-Query Attention)并结合部分RoPE(旋转位置编码)。智谱将注意力头的数量提升到原来的2.5倍(96个注意力头)。有趣的是,虽然增加注意力头数量并未带来比少头模型更低的训练损失,但模型在MMLU和BBH等推理类基准测试上的表现得到提升。 ▲GLM-4.5系列模型与DeepSeek-V3、Kimi K2在架构方面的区别(图源:GLM-4.5技术报告) GLM-4.5还使用了QK-Norm技术,用于稳定注意力logits的取值范围,可以防止注意力过度集中或过于分散,改善模型在长序列或复杂任务上的表现。同时,GLM-4.5系列均在 MTP(多Token预测)层中加入了一个MoE层,以支持推理阶段的推测式解码,提升推理速度和质量。 预训练完成后,GLM-4.5还经历了一个“中期训练”阶段,采用中等规模的领域特定数据集,主要在3个场景提升模型性能: (1)仓库级代码训练:通过拼接同一仓库的多个代码文件及相关开发记录,帮助模型理解跨文件依赖和软件工程实际场景,提升代码理解与生成能力,同时通过加长序列支持大型项目。 (2)合成推理数据训练:利用数学、科学和编程竞赛题目及答案,结合推理模型合成推理过程数据,增强模型的复杂逻辑推理和问题解决能力。 (3)长上下文与智能体训练:通过扩展序列长度和上采样长文档,加强模型对超长文本的理解与生成能力,并加入智能体轨迹数据,提升模型在交互和多步决策任务中的表现。 ▲GLM-4.5的预训练与中期训练阶段(图源:GLM-4.5技术报告) 二、两步走完成后训练,自研开源基础设施框架立功 GLM-4.5团队将模型后训练划分为两个阶段,在阶段一(专家训练)中,该团队打造了专注于推理、智能体和通用对话这3个领域的专家模型。在阶段二(统一训练)中,该团队采用自我蒸馏技术将多个专家模型整合,最终产出一个融合推理与非推理两种模式的综合模型。 在上述两个阶段中,GLM-4.5都经历了有监督微调(SFT)。 专家训练中,SFT使用带有思维链的小规模数据集,对专家模型进行基础能力的预训练,确保模型在进入强化学习前具备必要的推理和工具使用能力。 整体SFT中,GLM-4.5利用数百万涵盖多领域任务(推理、通用对话、智能体任务及长上下文理解)的样本,基于128K上下文长度的基础模型进行训练。通过从多个专家模型输出中蒸馏知识,模型学会在不同任务中灵活应用推理,同时兼顾部分不需复杂推理的场景,支持反思和即时响应两种工作模式,形成混合推理能力。 在SFT过程中,GLM-4.5团队采用了几种方式,以提升训练效果: (1)减少函数调用模板中的字符转义:针对函数调用参数中代码大量转义带来的学习负担,提出用XML风格特殊标记包裹键值的新模板,大幅降低转义需求,同时保持函数调用性能不变。 (2)拒绝采样(Rejection Sampling):设计了多阶段过滤流程,去除重复、无效或格式不符的样本,验证客观答案正确性,利用奖励模型筛选主观回答,并确保工具调用场景符合规范且轨迹完整。 (3)提示选择与回复长度调整:通过剔除较短的提示样本,提升数学和科学任务表现2%-4%;对难度较高的提示词进行回复长度的调整,并生成多条回复,进一步带来1%-2%的性能提升。 (4)自动构建智能体SFT数据:包括收集智能体框架和工具、自动合成单步及多步工具调用任务、生成工具调用轨迹并转换为多轮对话,以及通过多评判代理筛选保留高质量任务轨迹,确保训练数据的多样性与实用性。 SFT之后,GLM-4.5又进行了强化学习训练。推理强化学习(Reasoning RL)重点针对数学、代码和科学等可验证领域,采用了难度分级的课程学习。因为早期训练时,模型能力较弱,过难数据则会导致奖励全为0,无法有效从数据中学习。分级学习后,模型学习效率得到了提升。 GLM-4.5模型还直接在最大输出长度(64K)上进行单阶段RL,这样能维持在SFT阶段获得的长上下文能力。智谱还发现,在编程强化学习中,损失计算方式对训练效率影响显著。采用基于token加权的平均损失比传统的序列均值损失效果更好,可提供更细粒度稳定的梯度信号,加快收敛速度,并有效缓解长度偏差和避免训练中生成过于简单重复样本。 在科学领域的强化学习中,数据质量和类型尤为关键。GPQA-Diamond基准测试显示,仅用专家验证的多选题进行强化学习,效果明显优于使用混合质量或未经验证的数据,凸显严格过滤高质量数据的重要性。 智能体强化学习(Agentic RL)则聚焦网页搜索和代码生成智能体,利用可自动验证的奖励信号实现强化学习的Scaling。为进一步提升强化训练的效率,GLM-4.5团队还采用了迭代自蒸馏提升技术,也就是在强化学习训练一定步骤或达到平台期后,用强化学习模型生成的响应替换原始冷启动数据,形成更优的SFT模型,再对其继续强化学习。 该团队还观察到,在智能体任务中,随着与环境交互轮数的增加,模型性能显著提升。与常见的使用更多token进行推理,实现性能提升不同,智能体任务利用测试时计算资源持续与环境交互,实现性能提升。例如反复搜索难以获取的网页信息,或为编码任务编写测试用例以进行自我验证和自我修正。智能体任务的准确率随着测试时计算资源的增加而平滑提升。 ▲GLM-4.5在网页搜索智能体评测集BrowseComp上的性能,随着交互次数提升而变化(图源:GLM-4.5技术报告) 通用强化学习(General RL)融合规则反馈、人类反馈和模型反馈等多源奖励体系,提升模型整体能力。包括使用指令遵循RL,减少奖励作弊,确保稳定进步;函数调用RL分为逐步规则和端到端多轮两种方式,提升工具调用的准确性和自主规划能力;异常行为RL通过针对性数据集高效减少低频错误。 强化学习训练中,智谱使用了其自研并开源的基础设施框架Slime,针对灵活性、效率和可扩展性进行了多项关键优化。其最大特点是在同一套统一系统中,同时支持灵活的训练模式和数据生成策略,以满足不同RL任务的差异化需求。同步共置模式适用于通用RL任务或增强模型推理能力,可显著减少GPU空闲时间并最大化资源利用率。异步分离模式适用于软件工程(SWE)等智能体任务,可实现训练与推理GPU独立调度,利用Ray框架灵活分配资源,使智能体环境能持续生成数据而不被训练周期阻塞。 为了提升RL训练中的数据生成效率,GLM-4.5在训练阶段采用BF16精度,而在推理阶段使用FP8 精度进行混合精度推理加速。具体做法是在每次策略更新迭代时,对模型参数执行在线分块FP8量化,再将其派发至Rollout阶段,从而实现高效的FP8推理,大幅提升数据收集的吞吐量。这种优化有效缓解了Rollout阶段的性能瓶颈,让数据生成速度与训练节奏更好匹配。 针对智能体任务中Rollout过程耗时长、环境交互复杂的问题,该团队构建了全异步、解耦式 RL基础设施。系统通过高并发Docker运行环境为每个任务提供隔离环境,减少Rollout开销;并将GPU分为Rollout引擎与训练引擎,前者持续生成轨迹,后者更新模型并定期同步权重,避免长或多样化轨迹阻塞训练流程。此外,智谱还引入统一的HTTP接口与集中式数据池,兼容多种智能体框架并保持训练与推理一致性,所有轨迹集中存储,支持定制化过滤与动态采样,确保不同任务下RL训练数据的质量与多样性。 三、进行12项核心基准测试,编程任务完成率接近Claude 智谱对多款GLM-4.5模型的性能进行了测试。 未经过指令微调的基础模型GLM-4.5-Base在英语、代码、数学和中文等不同基准测试中表现稳定,较好地融合了各领域能力。 GLM-4.5还进行了12项ARC基准测试,分别为MMLU-Pro、AIME24、MATH-500、SciCode、GPQA、HLE、LCB(2407-2501)、SWE-BenchVerified、Terminal-Bench、TAU-Bench、BFCLV3、BrowseComp。 在智能体领域,基准测试主要考查了模型调用用户自定义函数以回答用户查询的能力和在复杂问题中找到正确答案的能力。GLM-4.5在四项测试中的得分与平均分位列参与测试的模型前列,平均分仅次于OpenAI o3。 推理方面,智谱的测试集包括数学和科学知识等。GLM-4.5在AIME24和SciCode上优于OpenAI o3;整体平均表现超过了Claude Opus 4,并且接近DeepSeek-R1-0528。 编程方面的基准测试侧重考验模型在真实世界编程任务上的能力。在SWE-bench Verified上,GLM-4.5 的表现优于GPT-4.1和Gemini-2.5-Pro;在Terminal-Bench上优于 Claude Sonnet 4。 为评估GLM-4.5在真实场景下的智能体编程能力,该团队构建了CC-Bench基准,评估主要依据任务完成率(根据预先设定的完成标准判断),若结果相同,则参考次要指标如工具调用成功率和Token消耗效率。评估优先关注功能正确性与任务完成,而非效率指标。 测试结果如下: GLM-4.5 vs Claude 4 Sonnet:胜率40.4%,平局9.6%,败率50.0%。 GLM-4.5 vs Kimi K2:胜率53.9%,平局17.3%,败率28.8%。 GLM-4.5 vs Qwen3-Coder:胜率80.8%,平局7.7%,败率11.5%。 智谱还在技术报告中分享了GLM-4.5在通用能力、安全、翻译、实际上手体验方面的特点。 结语:中国开源AI生态蓬勃 有越来越多的企业正采取模型权重开源+详细技术报告的开源模式,这种方式不仅能让企业第一时间用上开源模型,还能让大模型玩家们从彼此的研究成果中借鉴,并获得下一次技术突破的灵感。 在DeepSeek现象之后,国内AI企业通过密集的开源,已经逐渐形成了良性的国产开源AI生态,有多家企业在其他开源模型的研究成果上完成了创新。这种集体式的创新,或许有助于推动国产大模型获得竞争优势。
为什么不把USB接口设计为圆形?未来type-c接口会演化为圆形吗?
为什么不把USB接口设计为圆形?一开始USB接口有正有反,type-c接口后正反都可以插了,那下一步会不会变成圆口怎么插都行? 我觉得不会,因为这不符合很多设备进化的方向,特别是手机产品在追求更轻跟薄,特别是折叠屏手机,很多的手机厂商都做到和type-c接口一样的厚度了!采用带弧度的长方形的可以得到更多的接触面。而且接触面还有间隙,这就可以更好的实现快充,快速传输数据的目的! 而且type-c也实现了无论是正反都可以插拔! 圆形虽然怎样插拔都可以,但在非常薄的接口位置,就意味着无法实现数据线、充电的多功能实现,无法实现超级快充和快速传输的速度! 说个题外话,我们看看汽车的充电桩,在充电枪设计,虽然是圆形的,但里面却是有非常准确的接口位置对齐的!如果没有对齐就无法完成充电的!也插入不进去!汽车充电接口不能很好的实现怎么插拔都行,因为需要很好的识别才行! 再说回带USB接口的手机平板等设备,其实很早的时候有原型的充电接口的,耳机接口3.5mm也是圆形接口!但我们发现圆形接口虽然怎么插都可以,但都需要设计非常深,而且时间长了也容易氧化,接触不良!后来我们看到在手机上充电接口演化扁口的,长款型,更小更窄的形态,现有小接口但是需要识别正反面的!后面看到了Lightning接口和type-c的接口。 手机的接口也见证了设备从厚重到轻薄的发展,从只是充电到数据连接的发展,从普通传送有时候还识别不准到快速传送快速充电的发展! 我们进一步审视历史上的圆形接口代表——3.5mm耳机孔。它的确实现了360°无障碍插入,但其成功建立在功能单一、带宽需求低的基础上。即便如此,其细长的圆柱结构要求设备预留较深插孔,不仅挤占了宝贵的内部空间(与设备轻薄化背道而驰),更因触点长期暴露在旋转摩擦中而成为氧化和接触不良的高发区。 那么,矩形接口(尤其是Type-C)的核心优势何在? 第一方面、空间利用率与轻薄适配性: 矩形结构能紧贴设备边缘,将接口高度(厚度方向)压缩至极限——这正是当前旗舰手机、折叠屏铰链区域厚度能接近甚至等于Type-C接口本身厚度的关键。若强行采用圆形设计,为容纳同等数量的触点和保证结构强度,其最小直径必然大于矩形接口的最薄边高度,成为设备进一步减薄的瓶颈。 第二方面、高密度触点与性能基石: Type-C接口内部有多达24个精密触点(分两排)。矩形布局为这些触点提供了稳定、独立的电气隔离空间,是实现USB 3.x/4、Thunderbolt(雷电)协议下数十Gbps数据传输、百瓦级PD快充、甚至DisplayPort视频输出的物理基础。圆形布局要实现如此复杂、高速的信号隔离与传输,在工程上极其困难且成本高昂,触点易因旋转产生错位风险。 第三方面、可靠性与防呆设计: Type-C的矩形外壳和内部非对称触点设计本身就是一种“防呆”措施(尽管实现了盲插)。一旦正确插入,稳固的物理接触避免了旋转带来的磨损和不稳定。其广泛的密封圈设计也提升了防水防尘能力,这是圆形旋转接口难以企及的。 虽然圆口并非未来方向,但集成与无线化可能是趋势 在可预见的未来,圆形USB接口极不可能成为主流设备的物理接口形态。矩形(特别是Type-C)在空间效率、电气性能、结构可靠性与成本控制上的综合优势,完美契合了移动设备持续小型化、功能集成化的需求。Type-C标准本身的演进(如USB4 v2.0)也证明其潜力远未枯竭。 真正的“下一步”演进方向更可能是: 接口的进一步物理淡化: 随着无线数据传输(Wi-Fi 6E/7)和无线充电技术(尤其是磁共振等新方案)的成熟与普及,设备对外露物理端口的依赖将持续降低。折叠屏手机减少开孔、甚至概念机尝试“无孔化”设计已是趋势。 磁吸接口的补充: 对于仍需有线连接的高功率、低延迟场景(如专业创作),类似MagSafe的磁吸+触点设计可能在特定设备上作为辅助方案,提供“近盲吸”的便利,但其核心电气连接点仍需矩形/平面对齐以保证性能,而非纯圆。 因此,USB接口形态的演化史是一部设备向极致轻薄、多功能集成、高效可靠不断进化的缩影。Type-C并非终点,但圆口绝非出路。未来的“无感连接”,更可能依赖无线技术的飞跃和磁吸等辅助手段,而非回归功能受限的圆形物理接口。
手机充一整夜会不会很伤电池?
手机充一整夜会更伤电池吗?这两天,“手机充电一整夜会更伤电池吗”这个话题冲上微博热搜,并引发热议。有网友认为,手机充满电都会自动停止;也有网友认为,手机整夜充电会伤电池。那么,哪种说法是对的呢? 我觉得虽然会伤害,但伤害不大,因为手机充电有过载保护的! 查询了资料后,我发现其实“充满自停”是硬道理,过度焦虑大可不必 现代智能手机的电源管理系统非常智能。当电池电量达到100%时,充电过程确实会自动停止 。内部的充电管理芯片(PMIC)会精确控制电流,避免电池持续接受高压电。这就好比水库的水位达到警戒线后,闸门会自动关闭,不会再有水流入导致溢出。 有些用户担心,虽然显示100%,但手机会进入“涓流充电”状态(用小电流持续补充),这会导致电池长期处于高压饱和状态。实际上,优质的电源管理系统在电量满后会彻底切断主充电回路。即使存在极小电流的“浮充”(用于维持满电状态补偿自放电),其电压和电流也远低于正常充电,对电池老化速率的影响极其有限。真正的“涓流充电”通常发生在电量接近满但未满之前的阶段(如80%-100%区间),用于减缓充电速度保护电池。 “伤害”主要在哪?高温才是元凶! 锂电池的天敌: 锂电池寿命衰减的核心因素是充放电循环次数和长期处于极端状态(高温、高压、过放)。高压状态主要指电池长期处于100%满电存放(如数月不用),而高温则是日常使用中最大的“电池杀手”。 整夜充电的潜在风险点: 真正可能带来额外损耗的场景,是充电过程中手机异常发热。如果手机散热不良(如放在枕头下、被子里捂住充电),或者使用了劣质充电器/数据线导致充电效率低下、能量转化发热过高,那么持续的高温环境会加速电池内部的化学物质分解,电解液损耗加快,从而导致容量更快下降。 正常情况下的影响极小: 如果手机在平坦、通风良好的环境中充电(如床头柜),使用的是原装或认证的充电配件,那么充电过程本身发热可控,即使整夜插着,在充满停充后,手机和电池的温度通常会回落至正常水平。维持满电状态对电池造成的损耗,与日常使用中电池经历的各种微小充放电循环相比,差异非常小。 有实验室数据显示,长期保持100%电量存放,相比保持在40%-80%电量存放,一年后循环寿命损失可能多出几个百分点(例如损失15% vs 损失10%),但对于整夜充电而言,实际暴露在满电高压下的时间远少于“长期存放”场景。 如何明智充电?实用建议更关键 明白了原理,我们可以更科学地看待充电习惯: 远离高温: 这才是重中之重!避免边充边玩大型游戏/看视频(这会导致CPU和电池双重发热),充电时不要覆盖手机或被窝充电,尽量放在阴凉通风处。高温对电池的摧残远大于“充满电放着”。 放宽心充整夜: 如果你习惯晚上充电,并且能确保环境温度正常、散热良好,完全不用担心充满电后还插着电源对电池造成显著伤害。便利性(早上出门满电)和安心睡眠更重要。 不必执着于“随用随充”: 刻意追求电量保持在40%-80%区间(浅充浅放)理论上对电池寿命最友好,但这会极大增加使用者的操作成本和续航焦虑。对于绝大多数用户,正常使用,电量低了就充,方便时充满,就是最实用的策略。为了追求那一点点理论上的寿命延长而时刻关注电量、频繁插拔充电线,得不偿失。 关注配件安全: 使用原装或通过MFi/MFi-like认证的充电器和数据线,减少因劣质配件导致的异常发热、电压不稳等风险。 所以大家不用担心,安心充电,注意散热才是王道! 所以,回到热搜话题的核心争论:认为“充满自停”有理的网友是对的;认为“整夜充电伤电池”的网友,担忧的根源其实主要是高温风险,而非“插着电源”这个动作本身。现代手机的电源管理系统足以保证过夜充电的安全性,不会导致“过充”。 只要注意避免充电时手机异常发热(核心是远离热源、保证散热、使用合格配件),那么彻夜充电对电池健康的额外影响微乎其微,完全可以忽略。与其纠结要不要半夜起来拔充电线,不如确保你的手机在充电时“凉快舒服”。享受科技带来的便利,安心睡个好觉吧!对此大家是怎么看的,欢迎关注我“创业者李孟”和我一起交流!
美国为何突然宣布要在月球上建造核反应堆?
凤凰网科技讯 8月11日,美国国家航空航天局(NASA)正在加速推进一项雄心勃勃的计划,根据该机构临时负责人肖恩·杜菲(Sean Duffy)发布的新指令,目标是在2030年前在月球上建成一座核反应堆。这一举措被视为重燃了太空核能的梦想,可能彻底改变太空探索的格局。《连线》杂志近日发文详细分析了这一计划背后的原因与野心。 该计划的核心驱动力源于日益激烈的国际竞争。杜菲在7月31日签署的指令中明确指出:“自2024年3月以来,中国和俄罗斯已至少三次宣布将合作在2030年代中期在月球上建立一座反应堆。”他警告称,第一个在月球建成反应堆的国家“可能会宣布一个禁入区,如果美国没有抢先到达,这将严重阻碍美国建立其计划中的‘阿尔忒弥斯’基地”。 这项计划的目标是在五年内,与商业伙伴合作设计、发射并在月球南极部署一个可运行的100千瓦核反应堆。这是一个巨大的飞跃,要知道,目前为火星车和太空探测器供电的核能装置功率通常只有几百瓦,而100千瓦的电力足以供应大约80个美国家庭使用。前NASA技术、政策与战略副署长巴维亚·拉尔(Bhavya Lal)形容,这将是一次从“烛光时代到电网时代”的跨越,使太空系统设计不再受限于微薄的电力。 尽管有专家认为“四年多的时间非常紧迫”,但普遍共识是“技术上是可行的”。过去60年,美国在该领域投入了数百亿美元,但自1965年的SNAP-10A任务后,再未向太空发射过核反应堆。如今,政治意愿和任务需求正在改变这一局面。拉尔指出,转折点在于NASA首次将核能选为载人火星任务的主要地面电源技术,加上波音、洛克希德·马丁等老牌航空公司及众多私营企业的积极参与,共同为项目的推进创造了条件。 当然,在月球上建造核电站面临着严峻的工程挑战。月球表面白天气温高达100摄氏度,夜晚则接近绝对零度。由于没有大气,设备无法像在地球上那样通过空气对流散热。此外,月球六分之一的重力会影响流体动力学和热传递,而具有静电吸附性的月壤也可能干扰散热器等关键部件。有专家坦言,项目最大的风险并非技术,而是能否保持政治上的势头和任务目标的持续性。 根据设想,这座100千瓦的反应堆可能是在NASA于2020年启动的40千瓦“裂变表面能源”概念基础上升级而来。为了满足运输需求,该计划设想使用能运载高达15公吨有效载荷的重型着陆器,通过多次发射将反应堆、铀燃料和散热系统等部件送上月球。为确保安全,反应堆的厂址可能会选在月球的环形山内,甚至建在地下,以防止发生事故时造成污染。 安全与监管是该计划的重中之重。专家强调,从设计之初就必须避免潜在问题,而不是事后弥补。整个项目将受到极其严格的监管,以确保宇航员的安全和任务的万无一失。同时,该计划也将开拓空间法的新领域。率先建成反应堆的国家可能会为了安全和安保而设立所谓的“禁入区”,但这并非主权声索或“圈地”,而是一种功能性的隔离,可以依据《外层空间条约》中“防止有害干涉”的条款来证明其合理性。 正如意大利都灵理工大学的研究员卡洛·乔瓦尼·费罗所言:“新的太空竞赛不是关于谁先到达月球,而是关于谁能留下来。”若太空核反应堆成为现实,它将为月球及火星上的永久基地、资源开采和大规模科学研究提供坚实的基础,真正开启人类探索和利用太阳系的新篇章。
a16z合伙人的AI工具清单曝光!网友:月费起步2500元
除了ChatGPT,你熟悉几款? 作者 | 江宇 编辑 | 漠影 智东西8月11日报道,近日,硅谷风投机构a16z的AI应用投资合伙人Olivia Moore在X平台公开了她的“私藏AI栈”--十款她每周甚至每天必用的高频工具,覆盖搜索、数据分析、笔记、创作、视频等多个场景。 有网友根据订阅价格计算,这10款工具按入门级方案的总开销约为每月358美元(约合人民币2500元)。 作为拥有斯坦福MBA背景、曾在CRV和高盛积累投资经验、并为多个AI与消费者科技项目背书的资深VC,她透露这份清单实际上构成了自己的核心工作流。 在评论区,有网友直接问她:“有没有你用的AI工具,a16z没投过?”Olivia回复称,这份清单中的10款产品里,只有3款是a16z投资组合公司,其余均与投资关系无关,“这是我真正在用、且喜欢的产品”。 以下是Olivia Moore推荐的10款AI应用的详细介绍。 1、信息搜索与数据分析 Comet(AI浏览器) Olivia透露,由Perplexity推出的Comet已成为她的默认浏览器,不仅用于日常搜索和购物,还帮她处理日程和邮件分类。 AI原生浏览器Comet由Perplexity于7月9日正式发布,基于成熟的Chromium开源引擎开发,天然支持Chrome的全部扩展插件。 它能够自动识别用户正在浏览的内容,因此无需切换窗口或复制链接,就能直接向它提问。该功能目前向Perplexity每月200美元(约合人民币1400元)的Max订阅用户开放。 Comet的Shortcuts功能上线后,她在其中预设了邮件和调研模板。这个功能可以将重复、多步骤的任务封装成一键指令,方便在需要时快速调用。她在打开网页时即可一键调用,用来快速撰写外联信息或收集资料。 Perplexity AI联合创始人兼CEO Aravind Srinivas曾指出,如果不构建AI原生操作系统,就无法提供可靠的主动个性化助理。事实上,Perplexity最初曾与Google Chrome商谈将自家搜索设为默认入口,但遭到拒绝,这也促使团队决定自行打造Comet浏览器。 7月中旬,这家独角兽被外媒报道完成了一轮新的融资,整体规模为1亿美元(约合人民币7亿元),估值由140亿美元(约合人民币980亿元)飙升至180亿美元(约合人民币1260亿元)。 Julius(AI数据分析) Olivia常做数据分析,在ChatGPT里分析表格时常遇到错误或速度慢。Julius就在这方面表现稳定可靠,还能提供额外分析思路和可视化结果,而且使用体验一直在提升。 Julius AI由YC毕业生Rahul Sonwalkar创办,主打用自然语言执行数据分析、建模和可视化,已服务超过200万用户、生成上千万张图表。 Rahul在早前接受媒体采访时这样形容,“你可以像与团队中的分析师交谈一样与AI对话,AI会像人类一样运行代码并为你完成分析工作。” 7月下旬,这家初创公司宣布完成1000万美元(约合人民币7300万元)种子轮融资,由Bessemer Venture Partners领投,Perplexity CEO、Vercel CEO等多位知名人士参投。 同时,Julius推出新产品Data Connectors,支持连接网盘、Google Ads等数据源,用户无需再手动导入数据。 Happenstance(AI人脉搜索) Olivia认为,这款工具特别适合需要“找人”的工作场景。Happenstance是一款AI驱动的人脉搜索工具,可连接Gmail、LinkedIn和X。 用户只需用自然语言描述需求(如“寻找在某公司从事通知系统工作的人员”),系统就会在这些网络中自动匹配联系人,并展示用户与目标之间的关系路径,还能搜索已添加用户的人脉网络。 去年,Happenstance完成了约50万美元(约合人民币365万元)的种子轮融资,投资方包括Y Combinator。 2、高效办公与沟通协作 Granola(AI会议记录) Olivia在大部分会议中都会运行Granola。它支持移动端、关联会议推荐、文件夹分类,最近Granola还上线了Zapier集成,可以根据会议记录触发更复杂的工作流,比如更新CRM或发送邮件。 Granola联合创始人兼CEO Chris Pedregal将它形容为“会听的数字笔记本”:不仅能记录你手写的会议笔记,还会实时转录对话,并在会后扩展和优化笔记内容,让你只需专注记录关键信息,其余的交给AI处理。这样在回顾时,不仅能看到原始记录,还能获得完整的会议上下文。 今年5月,Granola宣布完成4300万美元(约合人民币3亿元)B轮融资,估值达2.5亿美元(约合人民币17亿元)。 Superhuman(AI邮件) Olivia说,Superhuman早在AI出现之前就已推出,但在过去一年里引入AI功能后进步很大,她最常用的功能包括Ask AI、Instant Reply和自动提醒,这些让她处理邮件和安排日程的速度明显加快。 Superhuman是一款面向Gmail和Outlook用户的邮件客户端,通过键盘快捷键、简洁界面与高响应速度提升邮件处理效率。 在加入AI功能前,它就以“最快的邮箱体验”为卖点,帮助用户快速完成收件箱整理和任务跟进。 该产品不提供免费版或试用服务,“Starter”套餐为每月30美元(约合人民币215元),“Business”套餐每月40美元起(约合人民币287元)。 成立至今,Superhuman已从包括Andreessen Horowitz在内的多家风投机构获得超过1亿美元融资(约合人民币17亿元),其中在2021年完成了7500万美元(约合人民币5.4亿元)融资。 2025年7月,Grammarly宣布收购Superhuman,双方将联合打造“AI原生效率套件”(AI-native productivity suite)。 Willow(AI语音输入) Olivia虽然不是语音输入的重度用户,但觉得在写长邮件或博客时尤其方便。她提到,近几年语音输入的整体准确率都有提升,而Willow的特别之处在于能在Slack等任意应用中使用,并自动适配她的写作风格。 Willow Voice成立于2025年,是一款AI驱动的语音输入工具,支持所有macOS应用。它可以将语音实时转成规范文本,自动识别专业术语、纠正语法并去除口语化填充词。 今年7月中旬,Willow Voice宣布完成420万美元(约合人民币3000万元)天使轮融资,投资方包括Y Combinator等。 3、内容生产与多媒体创作 Gamma(AI幻灯片与创意内容) Gamma是一款AI幻灯片与创意内容生成平台,Olivia会用它发布论文和博客,它能把文本直接生成幻灯片、网站或文档。她尤其看重它的灵活排版(同一文档中可调整不同页面尺寸)、链接或文件导出分享,以及支持用自然语言快速完成AI编辑。 Gamma团队仅约30人,服务超过5000万用户,ARR(年经常性收入)突破5000万美元(约合人民币3.7亿元),并自2024年初起已连续盈利15个月。 迄今Gamma总融资约2300万美元(约合人民币1.69亿元),其中包括2024年5月16日完成的1200万美元A轮融资(约合人民币8800万元),由Accel领投。 Krea(AI创意生成) Olivia几乎在所有内容创作中都会用到Krea。它把图片、视频、唇形同步等生成模型都集中在一个平台和一个订阅里,还能训练自己的LoRA模型,用朋友、家人、同事甚至宠物的形象快速生成超写实内容。 Krea内置自研模型(Krea1、Flux Family)和第三方模型(谷歌Imagen 4、ChatGPT Image、Ideogram、Runway Gen-4等),可按需调用。 平台提供免费额度,并分为基础(每月10美元,约合人民币73元)、专业(每月35美元,约合人民币255元)、最大(每月60美元,约合人民币437元)三档订阅计划,均包含商业许可。 成立16个月后,Krea ARR(年经常性收入)已达800万美元(约合人民币5840万元),同比增长20倍,用户突破2000万,并入选YC“ARR增速最快的公司”之一,以及A16Z GenAI 100榜单。 成立至今,Krea维持了每年一轮的融资节奏:2023年4月,Pebblebed、Abstract的300万美元(约合人民币2190万元)种子轮融资;2024年1月,Andreessen Horowitz等机构的3,300万美元(约合人民币2.41亿元)A轮融资;2025年4月,a16z、Bain Capital Ventures和Abstract的4,700万美元(约合人民币3.43亿元)B轮融资。 Overlap(AI视频剪辑) 视频是当下的主流内容形式,但一小时的长访谈和几十秒的短片段适用场景不同。Olivia既要制作长视频,也要输出短内容,她需要使用Overlap导入原始素材,让AI自动识别高光时刻、剪好片、加好字幕,还会根据系统的“片段评分”快速挑出值得单独发布的内容。 Overlap的AI剪辑技术还能为播客和视频生成基于主题的个性化片单,让用户直接观看或收听精彩部分,而无需从头到尾翻看。 融资方面,这家公司未披露相关信息。 4、通用AI助手 ChatGPT(AI助手) Olivia自称是“第一天就入坑的ChatGPT老粉”,最近的使用频率却让自己都吃惊。除了日常的深度研究(Deep Research)和4o图片生成,她还会针对不同需求选用不同模型——有的适合给个人建议,有的更擅长工作草稿。她甚至预测,很快它就会完全取代Google。 与前文提到的单一功能型AI应用不同,ChatGPT更像一个通用型AI平台——既能覆盖创作、信息检索、编程等多种任务,也能通过插件、API和多模态能力延伸到专业场景,成为用户AI工作流的中枢。 据外媒报道,近日,OpenAI已融资83亿美元(约合人民币605亿元),估值达3000亿美元(约合人民币2.19万亿元)。此外,OpenAI ARR(年经常性收入)已从6月的100亿美元(约合人民币730亿元)跃升至130亿美元(约合人民币949亿元),并有望在年底突破200亿美元(约合人民币1460亿元)。 目前,ChatGPT的周活跃用户预计将超过7亿,付费企业用户数也迎来了爆发式增长。
旧金山地下“赛博格斗场”走红:中国人形机器人铁笼对战,一票难求
旧金山的机器人格斗赛 凤凰网科技讯 北京时间8月11日,据《旧金山标准报》报道,上周五晚上,旧金山市场街新建的联合办公大楼Frontier Tower地下室,摇身一变成为了一个赛博朋克风格的地下机器人格斗场。 在这里,北京加速进化公司(Booster Robotics)的T1 人形机器人正在铁笼里与杭州宇树科技的G1人形机器人激烈对战。在粉红和红色灯光的闪烁下,数百名年轻的科技工作者、艺术家和网红们聚集在擂台周围激情助威。 对阵的机器人 就连举回合牌的“女郎”也是机器人,不过经过了特别定制:一个穿着渔网袜的机械腿连接在一台Roomba扫地机器人上,围绕擂台高速移动,用吸尘器收集观众抛入场内的美钞。 观看比赛的男男女女们 与此同时,身着闪亮外套的人类主持人激情解说战况。参赛机器人不仅穿着特别设计的服装,还配备了全套职业拳击护具:头盔和拳套完全掩盖了它们的机械骨架。 仔细观察,不知道的人或许会误以为这些矮小的参赛者是玩角色扮演的孩童,直到它们开始以明显非人类的机械姿态移动才能看出来它们是机器人。 自动播放 “感觉就像走进了一部科幻电影,”30岁的创业公司My Companions CEO玛吉·辛(Maggie Sin)说道,该公司为创作者打造AI数字分身,“这场比赛既像古罗马角斗赛,也展示了科技的魅力。” 终极机器人格斗赛 这是2025年的第二场机器人格斗俱乐部比赛。首场拳击赛于7月举办,迅速在晚上走红。主办者是泽尼娅(Xenia)和维塔利·布拉托夫(Vitaly Bulatov)夫妇,他们是一对从事市场营销和机器人研发的夫妻团队,并且在该大楼内设有办公室。他们感觉自己开创了一项全新运动。 于是,他们创办了“终极机器人格斗赛”(Ultimate Fighting Bots),号称“全球首个机器人搏击联赛”。比赛由人类操控,但所有拳击动作均由机器人自主完成。 加速进化的T1人形机器人 和首场比赛一样,布拉托夫夫妇为上周五的赛事蒙上了一层神秘面纱。这场“内行才懂”式的活动引发狂热追捧。社交媒体上到处都是询问如何以及在哪里买票的恳求帖子。 “我从未见过像人形机器人现在这样引发轰动的技术演示,”维塔利在X上发文称,“机器人技术历来属于B2B领域。娱乐化才是打开消费市场、实现规模扩张的关键。” 狂热的观众 “机器人格斗就像赛博朋克概念变成了现实,”Extropic AI联合创始人纪尧姆·韦尔东(Guillaume Verdon)表示。这家创业公司致力于热力学计算研发,“这项赛事很可能发展成像F1那样的工程团队竞技比赛。” 在比赛现场,墙上贴满了“机器人格斗投注平台”和“全息护送服务”的广告海报。一台带有霓虹灯的机器人饮料机通过一系列透明管道分发着橙色和蓝色饮品,赛博朋克风格的拍照亭则为来宾拍摄纪念照片。 采访环节 不过,宾客们并未获准进入Frontier Tower内布拉托夫夫妇的专属区域,那里陈列着他们价值5万美元的宇树科技人形机器人G1,以及7.5万美元的波士顿动力机器狗Spot。 现场氛围超现实,频闪的灯光、炫目的霓虹以及兴奋的气氛在房间中蔓延。观众们将脸紧贴铁笼,震耳欲聋的音乐与尖锐的麦克风啸叫此起彼伏。比赛间隙,人们可以穿梭在霓虹迷宫般的走廊里,探访那些藏着泡面、泡泡椅、街机游戏甚至机器人调酒师的密室。 G1机器人 Sentient Futures创始人康斯坦斯·李(Constance Li)参加了今夏的两场机器人格斗赛。“这一次,他们拿出了高端的宇树科技G1机器人,并赋予它们角色和背景故事。”她说。与会者可以为Havoc上校、Jockchain等机器人助威。她表示,这些机器人变得越来越先进,“它们动作更加自然,既能发动攻击,也能承受更多打击”。 比赛中的机器人 不过,康斯坦斯·李也在思考这些格斗赛的未来。“如果机器人最终开始感受到疼痛呢?如果真的发生了,我们又该如何识别?”她说,“这个行业会不会变得像斗鸡和斗狗那样更加剥削性,还是机器人会像终极格斗冠军赛选手一样,分享到比赛带来的财富和激情?” 生成式AI摄影创业公司Claid AI CEO索菲娅·什韦茨(Sofiia Shvets)很享受这场比赛。“比我预期的更有趣。”她说。不过,她也提到比赛间歇时间可以缩短。目前,机器人维护时间大约需要20分钟。 波士顿动力机器狗Spot 身着一袭耀眼红色紧身套装的技术专家兼艺术家奥梅莉亚·阿特雷迪斯(Omelia Atreides)协助了举办了赛事,她兴奋地说:“我累坏了,但很开心。上一场比赛我们只筹备了四天,而这次花了四周,内容丰富了许多。” 未来,赛事的举办将更加精细。“我们把安全放在第一位,限制了一些互动,”协助机器人运营的埃默森·塞古拉(Emerson Segura)说,“未来,赛事的复杂度、互动性和与观众的接近度都会提升,同时娱乐价值也会更高。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
从射月到折戟:浅谈特斯拉Dojo的陨落
特斯拉的 Dojo 超级计算机并非普通的硬件项目,可以说是一次“射月计划”, 是对构建一台专门解决 AI 问题的特殊超算的大胆尝试。然而,据彭博社 8/7 报道,特斯拉正在解散 Dojo 项目团队,意味着 Dojo 已彻底落下帷幕。Dojo 的设计哲学是通过复杂的编程来实现高标准的制造工艺,进而获得理论上的 峰值性能。 然而在核心人才流失、晶圆级封装的良率瓶颈以及外部 GPU 技 术快速迭代的三重压力下,其高昂的研发成本与不确定的商业回报最终难以 为继。随着人工智能模型规模的日益庞大和计算需求的持续增长,传统计算 架构所面临的性能瓶颈日益凸显。在此背景下,我们依然看好新一代芯片架 构如晶圆级集成芯片和粗粒度可重构架构,在突破制造瓶颈和良率问题后, 有望提升 AI 计算效率与灵活性。 Dojo 架构的雄心壮志是什么? Dojo 的设计哲学是极致优化,即通过剥离一代通用计算功能,打造出一个 精简的、大规模并行的训练“猛兽”。其架构建立在两个激进的 AI 内存墙 和互联墙的破局设计之上:1) 无缓存的双层存储系统。Dojo 的 D1 计算芯 片完全摒弃了传统的缓存层次结构和虚拟内存,354 个内核都能直接访问 1.25MB 的本地 SRAM。这通过去除复杂的内存管理硬件,最大化了计算密 度和功耗效率。然而,这是典型的 NUMA(Non-Uniform Memory Access) 结构:不在本地 SRAM 中的数据必须从位于独立的 DIP(Dojo Interface Processors)上的系统级 HBM 中获取,跨越互连结构的回路会产生显著延 迟,代价是将内存管理的全部复杂性转移至软件层面,并在本地 SRAM 与 远端 HBM 之间形成了巨大的性能鸿沟。 2) “无胶化(Glueless)”的晶 圆级互连。Dojo 目标的真正核心是其互连设计。特斯拉利用台积电的 InFO_SoW(晶圆上集成扇出, Integrated Fan-Out System on Wafer)技术 创建了“Training Tile”训练单元,其并非 PCB 板,而是建立在载体晶圆上 的单一、巨大的多芯片模组,以 5x5 阵列的方式容纳 25 个 D1 芯片。这些 芯片专为“无胶化”通信而设计,通过数千个高速 SerDes 链路直接连接到 相邻芯片,创造了一个统一的计算平面,可达 36TB/秒片外带宽,消除困扰 传统超算的网络瓶颈。 如何从 Dojo 的失败中吸取经验? Dojo 的前瞻设计同时也是其弱点,Dojo 的失败并非单一技术问题,而是三 大深层原因共同作用的结果: 1)人才流失。复杂技术需要深厚的知识储备, 据彭博报道,2023 年 Dojo 负责人 Ganesh Venkataramanan 离开后成立了 竞对初创公司 DensityAI,目前约 20 名核心工程师也离开特斯拉并加入 DensityAI。另外,现任 Dojo 负责人 Peter Bannon 据彭博报道也将离开 特斯拉,导致攻克 Dojo 高度定制化架构所需的技术积淀与 Know-how 严重 流失。 2) 良率缺陷。晶圆级互连理论上很“聪明”,但在产业制造过程中 却极具挑战性。在晶圆尺寸的模组上,任何微小的布线缺陷或 25 颗 D1 芯 片中任一的贴装瑕疵,都可能导致高价值的 Training Tile 整体报废。低良率 使得规模化部署的成本高昂,较难具备商业上的经济可行性。 3) 战略层面 转为以实用为先。Dojo 在延期和低良率中受阻,而外部供应商英伟达和 AMD 等 GPU 性能与生态系统持续高速发展。因此对于特斯拉而言,追求高风险 内部项目的成本效益比开始衰减。特斯拉已将战略重心转向更为务实的方 案,即加强与英伟达、AMD、三星等产业链伙伴的合作。特斯拉于 7/27 宣 布,与三星签订了 165 亿美元的合同来制造其 AI6 推理芯片,并在训练算 力集群方面加强了对英伟达和 AMD 的依赖。 从射月到折戟:浅谈特斯拉 Dojo 的陨落 马斯克宣布中止 Dojo 超级计算机项目并非临时决策,而是多重因素叠加的结果,其背后原 因主要来自于:技术瓶颈、成本压力及核心人才流失,这三个原因最终促使公司选择放弃 其内部的超级计算机研发。 原因#1:始于人才外流 Dojo 项目的首个重大冲击来自核心团队集体流失。据彭博社报道,2023 年 Dojo 负责人 Ganesh Venkataramanan 离开后成立了竞对初创公司 DensityAI,目前约 20 名核心工程 师也离开特斯拉并加入 DensityAI。另外,现任 Dojo 负责人 Peter Bannon 据彭博报道也 将离开特斯拉。这使项目在研发与执行层面出现明显真空。DensityAI 聚焦为机器人、AI Agent 及汽车领域的 AI 数据中心提供芯片、硬件及软件解决方案,产品方向与 Dojo 高度重 叠,直接进入特斯拉原本拟依托 Dojo 抢占的市场赛道。公司由前特斯拉 AI 与芯片研发骨 干创立,包括 Ganesh Venkataramanan、Bill Chang、Benjamin Floerin 等 Dojo 核心负责 人及技术骨干。 原因#2:战略转向经济性,并开始依靠外部合作伙伴 面对核心团队流失带来的执行压力,特斯拉加快调整战略,转向依赖行业领先厂商的成熟 方案,以降低研发及量产风险。公司正显著提升向英伟达与 AMD 的采购比例,因直接引入 同类最佳、经过验证的 AI 硬件,可以避免从零开发所需的高投入与不确定性,确保完全自 动驾驶(FSD)及 Optimus 机器人等关键产品路线图不受内部硬件瓶颈影响。同时特斯拉 与三星签订总额 165 亿美元的合同,在德克萨斯州生产下一代 AI6 推理芯片,可印证公司 向实用性战略的转变。 马斯克长期将 Dojo 定位为高风险、高回报的“前瞻性项目”,其可行性核心在于:定制化 架构在性能上的优势能否足以抵消所需的巨额投入与研发难度。然而,随着英伟达 Blackwell、 Rubin 系列及 AMD MI350、MI400 系列等高性能芯片相继推出,Dojo 的潜在性能领先空间 明显收窄。在内部成本持续攀升、项目进度多次延期且需从其他战略重点转移资源的背景 下,项目风险已部分兑现,而回报的不确定性显著上升。在公司充分考虑成本效益平衡下, 已转而倾向于外部成熟方案。 原因#3:架构复杂难以驾驭,产业链存在制造瓶颈 Dojo 项目的核心矛盾源于其颠覆性的设计理念。该架构摒弃了传统 CPU/GPU 的通用性设 计思路,专注于将 AI 训练负载的计算密度与能效推向极致。然而,这种对特定目标的极致 追求,导致其在内存和互连系统上引入了极高的技术复杂度。这种设计在理论上性能卓越, 但在工程实践与量产中面临的挑战巨大,最终成为项目失败的根本原因。 内存架构:无缓存的双层系统 Dojo 的内存设计摒弃了通用计算中的标准功能,创造了一个在特定工作负载上高度优化但 在编程和管理上具有挑战性的系统。在核心层面,Dojo 放弃了传统的数据侧缓存和虚拟内 存支持。D1 芯片上的 354 个处理核心中均没有 L1/L2/L3 缓存层次结构,而是直接访问本 地 1.25MB 的 SRAM 块。通过移除高速缓冲存储器标签(Cache tags)、一致性状态位(State bits)、TLB 和硬件页表遍历(Page-walking hardware),Dojo 节省了大量的芯片面积和功 耗,允许更密集的计算阵列。然而,这一设计的代价是将内存管理(如数据局部性、预取 等)的全部复杂性转移至软件与编译器层面,极大地增加了编程难度。 在内存层面,系统呈现出典型的双层非统一内存访问(Non-Uniform Memory Access, NUMA)架构,包括: 1)本地内存层 (SRAM):每个核心私有的 1.25MB 高速 SRAM,作 为主要的计算工作区,访问延迟极低; 2)远端内存层 (HBM):由 HBM2e/HBM3 构成的大 容量系统内存。关键在于,该层内存无法被 D1 计算核心直接寻址,而是挂载于计算阵列边 缘独立 DIP(Dojo Interface Processors, Dojo 接口处理器)上。核心若要访问 HBM,其请 求必须穿越复杂的片上网络(NoC)抵达 DIP,延迟远高于访问本地 SRAM。 这种设计导致核上 SRAM 与片外 HBM 之间形成了巨大的性能鸿沟(Performance Cliff), 对软件调度和数据排布提出了极为苛刻的要求,进一步加剧了软件栈的开发与优化挑战。 互连结构:“无胶化”晶圆级设计 Dojo 的互连架构是其设计的核心亮点,亦是其技术实现中最具挑战的一环。其目标在于通 过多层级的定制化设计,构建一个具备超高带宽的大规模统一计算平面。该架构主要包含 两个层面: 1) 片上互连采用二维网格 (On-Chip 2D Mesh) :在单颗 D1 芯片内部,集成了 354 个计 算核心,并以二维网格结构进行排布。这种设计实现了极高带宽和低延迟的核心间通信, 为大规模并行计算中的数据共享与同步等操作提供了高效的底层支持。 2) 晶圆级集成下的训练单元 (Training Tile) :这是 Dojo 架构复杂性的集中体现,也是 其良率问题的核心瓶颈。Training Tile 并非传统的 PCB 电路板,而是基于台积电的 InFO_SoW(晶圆上集成扇出, Integrated Fan-Out System on Wafer)技术,在同一基 底晶圆上构建的超大尺寸多芯片模组。该模组以 5x5 阵列集成了 25 颗 D1 芯片。D1 芯片的边缘设计了 576 个高速双向 SerDes,实现了芯片间的“无胶化(Glueless)” 直接互连,即无需任何外部桥接芯片即可通信。这种设计使得每颗 D1 芯片能够与其四 周的邻近芯片直接通信,单颗芯片的总 I/O 带宽高达 8TB/s。最终,单个 Training Tile 的总片外带宽可达 36TB/秒,这一指标远超传统数据中心网络交换设备的能力,是其性 能领先的关键。 为实现超越单个训练单元(Training Tile)的规模化部署,Dojo 采用了多层级的物理集成方 案:通过定制化的高密度连接器,将多个训练单元集成为一个系统托架(System Tray), 通过托架间的互连,组成完整的机柜(cabinet),并最终形成庞大的 exaPOD 计算集群。 系统的对外通信由 DIP 承担。DIP 作为连接主机系统的“网关”,通过支持特斯拉自研传输 协议(TTP)的标准 PCIe 4.0 总线与服务器进行数据交换。 然而,Dojo 最具雄心的晶圆级集成方案,也构成了其最大的可制造性难题。高良率地制造 一个晶圆尺寸、包含 25 颗 D1 芯片和数千个高速互连的复杂模组,对现有工艺是巨大的考验。基底晶圆上任何微小的布线缺陷,或是在 D1 芯片的贴装与键合过程中出现任何瑕疵, 都可能导致整个价值不菲的训练单元直接报废,从而造成良率损失。 Dojo 的设计哲学,本质上是通过复杂的编程来实现高标准的制造工艺,进而获得理论上的 峰值性能。精简的内存模型需要复杂的软件,前瞻性的晶圆级互连将半导体制造工艺难度 推到了极限,创造了一个在概念上出色但在规模化实现上极其困难的系统。 直接后果体现:极低的良率 这种架构复杂性的直接后果是极低的制造良率。由于新颖设计和芯片集成互连结构所需的 高精度,Dojo 芯片中有较高比例有缺陷且无法使用。这个制造瓶颈是最终的技术障碍,架 构层面的前瞻设计最终导向了产业链的刚性制约。 可以说,Dojo 项目的终止是必然结果,其核心在于特斯拉的宏大技术构想与半导体产业客 观规律之间的尖锐矛盾。前者是特斯拉打造完美 AI 超算的“执念”,后者则是半导体制造 严苛的物理规律与经济成本。当能够平衡二者的核心技术团队离开后,项目的失败便无可 避免。Dojo 是一次雄心勃勃的“射月”计划,但最终还是回到了地面。这次尝试划定了特 斯拉技术愿景的边界,也为行业留下了关于技术路线与商业化可行性的深刻启示。 本文来源于:华泰证券,作者:何翩翩、易楚妍,原文标题:《从射月到折戟:浅谈特斯拉Dojo 的陨落》

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。