EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
小米REDMI K90系列机型均兼容100W PPS快充:Pro Max已陆续推送、标准版预计11月升级
IT之家 10 月 30 日消息,小米 REDMI 手机官方微博今日发布《K90 系列答网友问》第二期,针对 REDMI K90 系列手机的丹宁材质、充电和超级像素屏幕相关问题进行了解答。 IT之家附 REDMI K90 系列答网友问(第二期)如下: 丹宁色版本会不会影响散热,会不会不耐造? 经测试,相同实验条件下,丹宁色版本整机硬件散热能力与其他版本能力保持一致。同时,其抗磨性能大幅提升,是科技纳米皮 1.0 版本的近乎 3 倍。 在全新有机硅配方和优化的叠层工艺的加持下,科技丹宁材质具备抗紫外线、抗脏污、抗刮耐磨等优势特性。此外,这次工程师们还特别引入了人因实验手段,结合测试者触摸时对软弹度、顺滑度、摩擦感的大脑反馈信号,实现符合真实用户体感的综合手感优化。 ▲ 科技丹宁材质充电相关功能的整合说明 旁路充电:为便于用户使用,功能入口已调整到「设置 - 省电与电池 - 充电功能 - 智能充电」,开启智能充电功能时,手机会根据电量、温度、使用场景自动调整充电速度以及系统、电池之间的供电比例,在手机充电时保持手机高性能的同时,控制发热程度。 100W PPS:K90 系列两款机型 OTA 后均支持 100W PPS 兼容,K90 Pro Max 功能已陆续推送,K90 预计将于 11 月中旬陆续 OTA 推送,请以实际推送时间为准。OTA 升级至新版本后即装即用,无额外功能开关。 ▲ 支持旁路充电,全面兼容 100W PPS 通用充电协议REDMI K90 系列都没有 2K 屏,对比上代屏幕是不是回退了? REDMI K90 全系搭载超级像素新国屏,采用小米 17 Pro Max 同款全 RGB 新一代显示技术,每个像素都由独立的红 / 绿 / 蓝三种子像素组成,无需借用像素,实现 OLED 屏幕从有损到无损的突破。K90 Pro Max 子像素数量达到 938 万,超越传统的 2K 类钻排列,文字线条图片边缘显示更清晰,更锐利,效果更好。 此外,全 RGB 排列对于瞳孔调节负担更小,更不易引发干眼和视觉疲劳。搭配全新的圆偏振光 2.0、全亮度 DC 调光,及 1nit 超低亮度护眼,可以说是 REDMI 有史以来最强的屏幕。 ▲ 超级像素屏每颗像素拥有完整的三色像素 ▲ 全 RGB 排列,更不易引发干眼和视觉疲劳
2周工作2句话搞定,一位CTO的Agent实践,揭开AI重塑企业运营的秘密
作者 | 云鹏 编辑 | 漠影 纵观当前国内AI行业发展,随着《关于深入实施“人工智能 +”行动的意见》的发布以及各行业的积极响应,AI技术正加速走向产业应用。 与此同时,AI正从云端走向边缘和端侧,以往依赖云端大模型才能实现的体验,如今已越来越多在端侧实现。DeepSeek带来的应用爆发,更让众多科技公司看到了端侧AI带来的成本和效益的巨大优化潜力。 端侧AI的本地高安全性、高灵活性以及基于本地RAG+Agent协同等技术实现的高度定制化、个性化,让垂类模型和智能体在各领域成为真正的“专家”。 当然,企业AI在边缘侧的部署、AI与企业业务的高效融合,离不开强大的AI算力平台的支撑。当前,高性能移动工作站正成为加速企业AI落地的关键基础设施。 头部PC厂商纷纷发力高性能AI工作站、大模型AI一体机等产品,但产品是否真正在端侧体验方面做到好用、易用,对于各家厂商仍然是不小的考验。 在此行业背景下,智东西与国内知名AI数据服务商英泰立辰CTO高喆进行了一次深度对话,高喆在实际业务中基于惠普的ZBook Ultra高性能移动工作站实现了诸多企业AI用例的落地,过去需要几周完成的工作,如今在强劲AI工作站的加持下,只需要与智能体进行沟通就可以在几分钟内完成,企业经营效率显著提升。 英泰立辰CTO高喆 深入到企业实际业务经营场景中,我们更清晰地看到AI给企业数智化转型带来的巨大变革。 一、从经营管理到数字化营销,三大类智能体端侧部署,兼顾安全、效率、成本 时至今日,企业在数智化转型过程中应用AI已经是一条必由之路。而AI与企业业务的深度融合也逐渐暴露出企业算力供给侧的瓶颈。 传统台式工作站虽同样可以提供较强算力,但受限于场景固定,不能支撑移动研发、现场分析等灵活需求,而这些需求在今天的企业经营中正变得愈发常见。 相比之下,普通笔记本电脑虽具备便携性,却受制于AI算力、存储等方面的瓶颈,难以在端侧实现AI模型的高效落地,包括如今大火的端侧Agent智能体的实现,都需要强劲端侧算力基础的支撑。 数据安全与隐私保护的刚性要求,更使得金融、医疗等领域的企业倾向于本地部署 AI 模型,进一步加剧了对端侧灵活高性能算力的需求。 英泰立辰所在的AI数据服务赛道,是在这波AI大模型浪潮中受益比较明显的一个领域。成立于2013年的英泰立辰,基于AI和大数据分析能力,给诸多行业内知名国企、事业单位、头部科技公司提供智能调研、数字营销等服务,包括中国移动、国家电网、农业银行、华为、惠普、联想、IBM等。 其参与了多个国家级重点项目,与多个省市级政府建立了合作。基于自主研发的AI平台及资深专家团队,英泰立辰成功交付了800多个智能调研项目,覆盖政务、IT、通信、互联网、汽车、3C、快消、医疗、金融、农业、服务业等众多行业;数字营销方面,其合作伙伴已有200多家。 高喆在深度使用惠普ZBook Ultra的过程中,一个突出的感受就是此前很多必须依赖云端AI计算能力才可以实现的功能,都可以在本地实现了。高性能移动工作站可以在企业内部AI生产力的关键环节承担算力支撑,可以同时兼顾实时响应、数据安全、算力本地化等特点。 具体来看,高喆主要在ZBook Ultra上部署了三类AI智能体应用,从企业经营管理、智能体内容生成分析到企业CRM客户数据洞察。 在企业数字化经营方面,英泰立辰公司本身已有自己的企业数字化平台,大量的数据固定在一个仪表盘上。高喆在本地运行的ZBook Ultra上部署了自家的RAG+Agent协同平台进行动态分析,加载Qwen3的8B模型进行问答,实际输出效果非常稳定,响应迅速。 AI带来的一个直观改变,就是可以直接通过自然语言的指令直接就生成一些数据报表,比如针对立项情况、回款进度、销售区域风险等指标,AI都可以实时多维度地去生成一些报表;AI还可以根据需求进行定制,结合历史趋势生成一些有价值的预警信息。 可以说,在本地数字化经营分析智能体的加持下,企业的每一级管理者都能用自己的视角去分析企业经营信息,完全的本地化则让这些敏感数据可以安全地存放在端侧。 高喆提到,此前如果需要一个新的角度来分析财务数据,修改数字化企业办公平台,至少要2周时间,而现在通过跟智能体的对话,少则两三句话、多则十几分钟,就可以获得想要的结果,在保证安全的同时效率和灵活性大幅提升。 高喆部署的第二类AI用例,是客户项目类应用,可以说是一个营销内容分析类的媒体内容Agent。 在AI大模型时代,AI高效高质量的内容生成已经成为不少企业的刚需,如今媒体平台众多,不同平台的属性各不相同,所需要的内容风格也有所差别。 高喆基于在ZBook Ultra上本地部署的RAG+Agent协同平台,可以让智能体基于同一主题生成不同平台所需要的内容。更重要的是,智能体还可以根据不同平台所对应的各自评价维度去分析相应的数据表现,给出优化建议,形成正向迭代循环,这也是AI智能体相比传统数据分析的核心优势之一。 媒体内容Agent 这些关键数据企业通常都不希望放到云端,本地高效分析的能力可以说直击企业用户痛点。 第三类是企业CRM客户数据洞察系统中所用到的销售线索Agent。 涉及客户数据,隐私安全往往会被提到非常重要的位置,企业数字化资产要在提供生产力的同时避免泄露。 英泰立辰自身有一套CRM系统,经过长期迭代,结合AI大模型能力,其已经逐渐演化为客户数据洞察智能体,这个智能体的背后还包括英泰立辰自建的调研系统、呼叫中心等组成部分。 在实际业务过程中,销售人员不需要获取客户的所有数据,基于ZBook Ultra的本地部署,AI智能体可以高效的读取、分析这些信息,做趋势的识别、销售的洞察,例如AI智能体可以告诉销售客户的兴趣点、潜在的商机。 销售线索Agent 这样销售可以高效对接客户需求,发掘潜在机会点,同时客户的数据还可以得到很好的保护,可以说是一种双赢。 值得一提的是,在这三类智能体的本地部署和应用中,有一个问题十分重要,那就是本地智能体部署输出的准确性和稳定性。因为在真正商业应用领域,如果准确性稳定性不足,那几乎就是“不可用”的状态。 从高喆的实际体验来看,结合本地RAG进行优化后,AI Agent显然可以更懂业务、更懂企业经营管理者的意图,智能体实际输出的准确率是比较高的。尤其在特定的业务体系中,结合本地知识库和RAG后,AI智能体就可以变成某一领域的业务专家。 以往,如果要在本地实现,往往需要很笨重的“大机器”或专门搭建企业边缘服务器,今天,在硬件和软件的协同发展下,如ZBook Ultra这样仅1.6KG起的便携高性能移动工作站就可以让企业在本地实现这样的能力,可以说显著加速了AI的落地,让AI真正可以高效地服务于企业,让企业可以更专注于技术和业务的创新,让协作变得更高效。 高喆在分享中特别提到,作为企业管理者,AI可以在自己的桌面端高效运行,安全、可控、快速,作为从业者是非常开心的,他现在经常会跟合作伙伴秀出自己的ZBook Ultra。 二、稳定、智能、安全背后,ZBook Ultra从硬件、软件到生态夯实基础 在高喆深度使用ZBook Ultra的过程中,更稳定、更智能、更可靠是他最突出的几个感受,而在这些直观感受的背后、在三类端侧AI高效落地的背后,ZBook Ultra从硬件到软件再到整机设计方面的扎实基础无疑是关键支撑。 在稳定性方面,ZBook Ultra搭载了128GB等效四通道8000MT/s高速统一内存,最高可以分配96GB显存用于图形处理和AI应用。其在实际使用过程中,即使并行大量多任务,同时运行一些AI任务,整机依然可以保持流畅使用。 高喆提到,不论是嵌入式计算还是索引检索,其表现都比较稳定,这可以满足很多企业对提高生产力的需求。 GPU方面,Radeon 8060S显卡也成为支持AI大模型本地私有化部署的关键。 ZBook Ultra G1a能支持单机离线运行Q4精度最高70B参数的大模型。但如果对AI输出速度以及AI功能性有更高需求,它可以支持高速运行120B参数的GPT-OSS模型(MXFP4),其甚至可以10-15token/s的速度运行经过量化调优的 Qwen3-235B满血参数量模型(Q2,MoE混合量化,专家Q4+其他Q1)。 如果对多模态有需求,那么QwenVL等常见多模态模型也能高效运行,在知识库中可以实现对文字和图片同时有效识别和提取。总而言之,得益于其超大容量的统一内存加持,多数超长上下文、多模态或大参数的MoE混合专家模型部署场景,使用Zbook Ultra G1a都能实现本地部署。 在智能方面,ZBook Ultra所搭载的是AMD最新的锐龙AI Max+PRO 395处理器,其采用了CPU+GPU+NPU的异构计算架构,NPU在实际运行过程中会自动接管很多端侧AI计算任务,例如语音识别、OCR图像识别、本地AI生成等。 端侧NPU的加持可以让任务响应速度更快,时延明显降低,同时效率足够高。 在可靠性方面,本地离线的模式毫无疑问更加安全可控,高喆认为这非常适合企业端的系统和服务进行落地应用。 在生态方面,目前ZBook Ultra已经得到21000多个ISV认证,正加速软硬件AI化进程,包括对Poly Camera Pro专业智能会议应用中自动对焦、智能降噪、AI调优四扬声器、自适应光线优化等功能的支持。 值得一提的是,相比苹果Mac的封闭生态路线,基于x86架构平台的ZBook Ultra更具开放性和兼容性,比如原生支持Pytorch、ONNX、Transformers等主流框架,这些都是企业端AI落地更为看重的。 在高喆看来,ZBook Ultra这款产品并不是一个堆参数的机器,而是一台真正能够帮助企业用AI实打实地提升生产力的移动工作站。 可以看到,ZBook Ultra作为高性能移动工作站,打破了专业性能与使用便携之间长期难以兼顾的痛点,已经成为连接AI技术与企业实际业务的关键桥梁。 结语:高性能移动工作站面向AI未来涌现巨大潜力 面向未来的AI大模型时代,高性能移动工作站正涌现出巨大的应用潜力。 电商平台借助大语言模型将产品策略调整周期从几周缩短至几天;服务行业基于AI智能体与本地数据的高效融合,形成更灵活、高效、准确的服务模式;制造业通过 AI优化生产流程,使产品交付周期大幅缩短;医疗领域AI大模型与数据的融合,让诸多疾病的筛查效率、预警准确率大幅提升。 从专业创意人群、产品设计师、数据科学家、建筑师、VR/AR开发人员、STEAM学生到企业经营管理者、销售人员、财务后勤,高算力、大内存、高便携的移动算力终端正逐渐在AI时代成为刚需。 尤其对于众多科技公司而言,AI不再是可选的增效工具,而是企业提升核心竞争力的必由之路,而高性能移动工作站已经成为企业AI落地的“移动算力基座”。 而惠普作为PC领域的头部玩家之一,正在这股浪潮中行于潮头。
马斯克计划将AI百科全书Grokipedia进行刻录,发射至太空永久保存
IT之家 10 月 30 日消息,埃隆・马斯克昨日宣布了一项最新计划,他在社交平台 X 上发文表示,xAI 公司推出的全新开源百科全书“Grokipedia”,将被刻录在稳定的氧化物介质上,并发射进入太空永久保存。 在 Grokipedia V0.1 版本发布后,马斯克公布了这一计划。他首先向 xAI 团队致以祝贺,并强调 Grokipedia 的目标是打造一个开放源代码、全面涵盖人类知识的集合体,并将其副本刻录于稳定氧化物材料之上,分别部署于地球轨道、月球乃至火星,以确保人类文明的知识得以长期保存。 “xAI 团队在 Grokipedia 上的工作非常出色!我们的目标是创建一个开源的、包罗万象的知识库,然后将刻录在稳定氧化物上的副本送入轨道、月球和火星,为未来保存人类文明的火种。这是基础性工程。”马斯克在帖文中写道。 据IT之家了解,尽管这一计划看似天马行空,但人类并非首次尝试向宇宙传递知识记录。1977 年,美国国家航空航天局(NASA)在“旅行者 1 号”和“旅行者 2 号”探测器上搭载了“旅行者金唱片”,其中收录了地球的声音与图像,旨在展现地球文化的多样性。相比之下,马斯克通过 Grokipedia 实现的知识保存愿景,无疑在规模与雄心上达到了前所未有的高度。 马斯克推出 Grokipedia,旨在打造一个由人工智能驱动的维基百科替代方案,以消除传统在线知识平台中可能存在的主观人为偏见。该系统基于 xAI 开发的人工智能模型 Grok,能够从互联网抓取信息并进行摘要整合,在科学、技术、文化、政治等各类话题上提供更为平衡、细致的内容呈现。 与维基百科依赖人工编辑的模式不同,Grokipedia 可通过机器学习持续进化,阅读和处理的信息量远超任何人类编辑团队。马斯克曾称,即便在 V0.1 版本阶段,Grokipedia“已经优于维基百科”。
英伟达DGX Spark上市,与AMD Strix Halo比,谁更适合AI开发者?
近日,搭载英伟达 GB10 Grace Blackwell 超级芯片的 DGX Spark 桌面 AI 超算产品陆续上市开售,作为英伟达首款面向轻量化场景的 Grace Blackwell 架构产品,DGX Spark 不是单纯的性能堆叠,而是面向高性能工作站、桌面级 AI 开发和轻量化数据中心的整体解决方案,试图以“迷你机身 + 大模型支持”的组合,填补消费级显卡与大型数据中心之间的算力空白。 从今年初 NVIDIA 首次宣布代号 Project DIGITS,到第一方 FE 版本定价 3999 美元(约合 28533 元人民币),当时一度凭借 NUC 级的小巧体积与 1PetaFlop(1000TOPS)的 FP4 稀疏 AI 算力,点燃了桌面级高性能 AI 计算市场的讨论热情。现在,被重新命名为 DGX Spark 的桌面迷你 AI 工作站终于正式开售,华硕、戴尔和联想等上市的产品价格基本都在 32999 元以上。 随着 DGX Spark 的开售,让IT之家不禁想起另一款在相同赛道上已经站稳脚跟的产品 —— 基于 AMD 锐龙 AI Max+ 395 处理器的 Mini AI 工作站。同样主打“桌面级 AI 算力”,同样支持大模型本地推理,英伟达 GB10 与 AMD 锐龙 AI Max+ 395 究竟在架构设计、性能表现上有何差异?对于缺乏专业机房支持、预算有限且需要兼顾多场景使用的入门开发者而言,哪款产品更能满足“低门槛、高实用”的核心需求?今天不妨随小编来分析一下。 架构与性能对比:从芯片设计到实际算力的差异化呈现 要判断两款产品的适用场景,首先需深入其核心芯片的架构逻辑与实际性能表现。英伟达 GB10 与 AMD 锐龙 AI Max+ 395 虽同为“高性能计算芯片”,但在核心定位、架构设计与性能释放上,呈现出鲜明的差异化特征,而这些差异直接决定了它们对入门开发者的友好度。 英伟达 GB10:数据中心技术的桌面化应用 英伟达 GB10 超级芯片是其旗舰级 Grace-Blackwell 超级芯片的“小型化集成版本”,其设计目标是在有限的物理空间和功耗下(整机功耗约 240 瓦),承担起此前必须依赖大型数据中心系统的部分任务。 计算核心:GB10 的 CPU 部分是英伟达与联发科合作的产物,采用了 20 核 ARMv9.2 架构,具体由 10 个高性能 Arm Cortex-X925 核心与 10 个高能效 Arm Cortex-A725 核心组成。其 GPU 单元则拥有 6144 个 CUDA 核心,是 Blackwell 架构的精简版本。该 GPU 保留了对 FP4(4 位浮点)数据格式的支持,使其能够实现 1 PetaFLOP(即 1000 TOPS)的稀疏 AI 算力。在单精度(FP32)性能方面,其算力为 31 TFLOPS,与消费级显卡 RTX 5070 的水平相当。 统一内存与高速互联:该芯片配置了 128GB、256 位的 LPDDR5x-9400 统一内存,通过 2.5D 封装技术与 CPU、GPU 集成。CPU 与 GPU 通过带宽高达 600 GB/s 的 NVLink C2C(Chip-to-Chip)链路共享内存池,旨在减少传统 PCIe 总线带来的数据传输延迟。 专用网络与扩展功能:DGX Spark 集成了 ConnectX-7 200Gb/s 高速网卡。通过背部的 QSFP 端口,用户可以连接两台 DGX Spark 设备,从而将推理能力扩展至支持高达 4050 亿参数的模型。这进一步明确了其作为专业 AI 开发工具的定位。 软件生态:搭载定制版 DGX OS(基于 Ubuntu Linux),预装英伟达 AI 软件堆栈,仅支持 Linux 环境下的 AI 开发,不兼容 Windows 系统与 X86 架构软件。 AMD 锐龙 AI Max+ 395:端侧 AI 的“全场景全能选手” 与 GB10 的“单一场景优化”不同,AMD 锐龙 AI Max+ 395 的核心设计逻辑是“兼顾 AI 算力与全场景兼容性”,其架构围绕“Zen5 CPU+RDNA3.5 GPU+XDNA2 NPU”的三重计算单元展开,参数配置更贴近入门开发者的多维度需求: 计算核心:16 核 32 线程的 Zen 5 架构 CPU,最高加速频率高达 5.1GHz,配备 80MB 总缓存(16MB L2+64MB L3),性能接近桌面级处理器,可轻松应对数据预处理、多任务并发等需求;最高 40 单元的 RDNA 3.5 架构 iGPU(命名为 Radeon 8060S),带宽达 256GB/s,性能媲美移动版 RTX 4060/4070,支持图形密集型 AI 任务(如多模态模型推理);XDNA 2 NPU 峰值算力高达 50TOPS,原生支持微软 Windows 11 AI+PC 规范与 Copilot 等端侧 AI 应用。 内存架构:采用 AMD 独创的 UMA(Unified Memory Architecture)统一内存技术,最高支持 128GB 内存,其中最高 96GB 可专属分配给 GPU 作为专属显存,并再将 16GB 作为共享显存。这种动态调度机制无需频繁进行内存复制,彻底消除了传统“CPU 内存 + GPU 显存”分离架构的“数据搬运开销”,对大模型加载与推理效率的提升尤为明显。 软件生态:基于 X86 架构,默认支持 Windows 系统,可无缝兼容 Office、Photoshop 等日常软件,以及 TensorFlow、PyTorch 等主流 AI 开发框架,其开源 AI 软件框架 ROCm 近期也宣布对于 Windows 的支持。同时,AMD 锐龙 AI MAX+ 395 也原生适配 Ubuntu 系统,相信 AMD 395 更兼顾传统开发与 AI 创新需求。 那么,两大芯片在面对 AI 大模型本地运行时的实际性能表现如何呢?就在 10 月 16 日,第三方 YouTube 博主 Bijan Bowen 对 DGX Spark 和锐龙 AI Max+ 395 平台进行了性能对比实测,这里IT之家不妨引用一下他的实测数据,来给大家做一个参考: 整体来看,在四个不同量级和类型的模型测试中,双方虽各有胜负,但 AMD 的表现整体上竟然还要稍微领先一些。以 Llama 3.3 70B 的测试为例,推理运行需要激活大量参数的稠密模型场景,AMD 以 4.9 tok / sec 的速度领先于英伟达的 4.67 tok / sec。这说明尽管英伟达拥有 CUDA 生态和更高的 FP4 算力,受限于带宽,在实际的 Tokens 生成速度表现上,AMD 的 Strix Halo 完全有能力正面抗衡。 在 4 个测试中的 3 个,AMD 平台都取得了更快的“首 token 生成时间”(time to first token),这意味着在交互式 AI 应用(如编码助手、聊天机器人)中,用户能更快地得到响应,体验可能更流畅。 综合来看,在入门开发者高频使用的中大型模型,尤其是 MoE 架构模型(Qwen3-30B-A3B、GPT-OSS 20B)上,AMD 锐龙 AI Max+ 395 的生成速度(435.13 tok / sec、64.69 tok / sec)均和英伟达 GB10(38.03 tok / sec、60.33 tok / sec)势均力敌,且首 token 响应时间除 Llama 3.3 70B 外均更短 —— 这意味着在实际开发中,AMD 平台能更快响应,减少开发者的等待时间。 因此整体来看,AMD 的性能表现更贴合入门群体的实际使用场景。 从生态到成本面面观,AMD 锐龙 AI Max+ 395 具有“入门友好型”优势 对于入门开发者而言,硬件性能仅是选择标准之一,生态兼容性、产品普及度与单位成本效益等等,也是非常关键的决策因素。那么从这些要素的层面来看,英伟达 GB10 与 AMD 锐龙 AI Max+395 相比究竟谁更有优势呢?下面我们继续来看。 生态兼容性:X86 / Windows 架构,无需妥协非 AI 需求 英伟达 DGX Spark 运行的是定制版 Ubuntu Linux。对于那些常年沉浸在 Linux 环境中的资深 AI 研究者来说,这或许如鱼得水。但对于绝大多数初创中小团队、入门开发者、学生或从其他领域(如 Web 开发、应用开发)转型而来的工程师而言,这反而成了一个比较高的门槛。他们的日常工作流 —— 无论是使用 Visual Studio、JetBrains 全家桶,还是 Adobe 创意套件,亦或是简单的 Office 办公,都深度绑定在 Windows 生态上。 毕竟,入门开发者的工作场景往往并非“纯 AI 开发”,多数人还需要兼顾日常办公、文档处理、传统编程甚至轻度设计任务,而这恰恰是 AMD 锐龙 AI Max+ 395 的核心优势所在 —— 基于 X86 架构与 Windows 系统,其生态成熟度远超英伟达 GB10 的 Arm / Linux 组合。 具体来看,AMD 锐龙平台可直接运行 Office、微信、浏览器等日常软件,无需额外配置;在开发工具层面,Visual Studio、PyCharm 等主流 IDE 均对 Windows 有完善支持,TensorFlow、PyTorch 等 AI 框架也已实现 Windows 环境的“一键安装”,新手无需花费大量时间学习 Linux 命令与环境配置。此外,AMD 还支持 WSL 子系统,若开发者需要使用 Linux 专属工具(如某些开源模型的编译环境),可在 Windows 系统内直接开启 Linux 终端,避免了“双系统切换”的繁琐。 总之,Windows 系统的普及度更高,生态健全性是天生优势。入门开发者不需要在‘AI 开发’与‘日常使用’之间做妥协,这正是 AMD 平台的核心价值之一。 终端产品普及度与市场成熟度 英伟达的 DGX Spark 及其合作伙伴产品,在 2025 年 10 月 15 日才刚刚“正式发售”。作为一个全新的平台(Arm+Linux 的桌面 AI 设备),其早期的市场表现、驱动程序稳定性、软件兼容性仍有待观察。 相比之下,搭载 AMD 锐龙 AI Max+ 395 的 Mini AI 工作站正处于一个“爆发”状态。截至 2025 年 10 月,搭载 AMD 锐龙 AI Max+ 395 的 Mini AI 工作站已有数十款产品正在热销,有不同的配置和价格区间,可满足不同预算的需求: 比如像希未 SEAVIV AideaStation R1、极摩客 GMKtec EVO-X2、零刻 Beelink GTR9 Pro、铭凡 MINIS FORUM MS-S1 MAX 等都提供了从 64GB 内存 + 1TB SSD 万元左右的配置(可支持 700 亿参数模型推理,适合预算有限的个人开发者),到 128GB 内存 + 2TB SSD 这种 15000 元左右的价位档的配置(支持 2000 亿参数模型本地部署,适合中小团队)。 再往上还有惠普 HP Z2 Mini G1a(21999 元),具备更稳定的散热设计与企业级售后,适合对可靠性要求较高的场景。总之开发者们可以有丰富的选择。 这些产品已在京东、天猫等电商平台正式开售,用户可直接购买并“开箱即用”,部分品牌还提供“预装 LM Studio、Gaia 等 AI 工具”的增值服务,进一步降低入门难度。这些产品早已在市场上销售数月,经过了早期用户的检验,形成了成熟的产品矩阵和消费者认知。 对于一个急于上手的开发者来说,AMD 方案提供了“开箱即用”的便利性和丰富的选择:从 9999 元的入门款到 21999 元的品牌工作站,从风冷到水冷,从紧凑型到可扩展型,丰俭由人。这种先发优势和市场成熟度,显然意味着更低的购买风险、更完善的社区支持和即时的生产力。 单位成本效益:AMD 每万元算力更高,性价比突出 对于入门开发者而言,“单位价格对应的推理性能”是衡量性价比的核心指标。结合上面我们引用的第三方测试数据与终端产品价格,我们可以清晰看到 AMD 锐龙 AI Max+395 的成本优势: 以 GPT-OSS 20B 模型(入门开发者常用的中大型模型)为例,在该博主测试中使用的 AMD 阵营的极摩客 GMKtec EVO-X2(14999 元)生成速度为 64.69 tok / sec,折算后“每万元对应的生成速度”约为 43.13 tok / sec;而英伟达 DGX Spark FE 版(28533 元)的生成速度为 60.33 tok / sec,“每万元对应的生成速度”仅为 21.14 tok / sec—— 也就是说,在相同预算下,AMD 平台能提供两倍以上的推理性能。如果以已经上市后的产品价格算,英伟达 DGX Spark 当前在电商平台的价格都在 32999 元以上,“每万元对应的生成速度”更是只有 18.28 tok / sec,而 AMD 平台能提供近 2.4 倍的推理性能。 此外,AMD 平台的“长期使用成本”也更低:Windows 系统下的软件多为免费或低价(如 Office 365 个人版年费仅 398 元),而 Linux 系统的部分专业工具(如某些商业 AI 优化软件)需单独付费;AMD 的生态伙伴 Ripple AI 还提供“远程测试平台”,开发者无需购买硬件即可体验算力,进一步降低了试错成本。 其他方面考量 除生态与成本外,我们也可以关注一下开发者们同样关注的“模型适配速度”、“硬件扩展能力”等这些问题上,目前 DGX Spark 桌面超算和搭载锐龙 AI Max+ 395 处理器的桌面 Mini AI 工作站的差别。 模型适配:AMD AI 团队通过前期的紧密协作,对主流模型实现“当天适配”—— 例如 GPT-OSS-120B 模型发布当天,AMD 平台即完成适配;对于 AI 初创企业的爆款模型,也能实现“零日响应”,确保开发者能及时体验最新模型。而英伟达 GB10 的模型适配信息尚未公开,仅提及“预装 AI 软件堆栈”,灵活性不足。 硬件扩展灵活:AMD 支持通过 USB4 接口实现多机串联,六联智能最近在中国国际信息通信展览会上做了一个六机并联的演示,专属显存可扩展至 576GB,满足更大规模模型(如 4000 亿参数)的推理需求;而英伟达 DGX Spark 仅支持通过 ConnectX-7 网卡实现双机互联,扩展方式单一且成本更高(仅单块 ConnectX-7 网卡价格又得 1W+)。 入门支持完善:AMD 联合 RIPPLE AI 打造了“AI 开发者支持平台”,提供“开箱即用”的开发环境(预装模型、工具链)、线上教程与社区论坛,新手可快速上手;还针对学生群体推出“高校支持计划”,提供硬件试用与课程合作,进一步降低学习门槛。 结语 总体来说,通过对架构、性能、生态和成本等各方面的分析,我们可以看出英伟达 DGX Spark 和基于 AMD 锐龙 AI Max+ 395 的迷你工作站是面向不同用户群体的解决方案。 英伟达 DGX Spark 凭借其专用的硬件设计和与 CUDA 生态的深度整合,为专业 AI 研究人员和深度绑定于英伟达生态系统的开发者提供了一个高性能的桌面工具。其较高的价格和特定的 ARM / Linux 操作系统环境,也决定了它的用户群体相对聚焦。 而 AMD 锐龙 AI Max+ 395 平台则提供了一个更为通用的解决方案。它的主要优势体现在以下几个方面: 平台通用性:基于成熟的 x86 / Windows 生态,既能作为一台高性能的通用工作站,也能满足大型 AI 模型的本地推理需求,兼顾了日常工作与开发的双重需要。 市场成熟度:市场上已有多个品牌提供相关产品,消费者拥有更丰富的选择空间。 成本效益:在关键的“单位价格推理性能”指标上具有明显优势,显著降低了本地部署 AI 大模型的硬件门槛。 开放生态:依托用户基数庞大的 Windows 平台,并通过与社区合作、举办开发者竞赛等方式,AMD 正在构建一个开放的开发者生态系统。 随着 AI 开发逐渐从“专业领域”走向“大众市场”,像 AMD 锐龙 AI Max+ 395 这样的“普惠型”产品,正成为推动 AI 平权的关键力量。对于想要踏入 AI 开发领域、却受限于预算与技术门槛的开发者而言,基于 AMD 锐龙 AI Max+ 395 的 Mini AI 工作站,无疑是当前阶段的最优选择 —— 它不需要你是 Linux 专家,不需要你有巨额预算,只需要你有创新想法,就能在桌面端开启属于自己的 AI 开发之旅。
成都发布共享充电宝行业自律公约:避免“超额计费”,时间单位压缩至15分钟以内
IT之家 10 月 30 日消息,10 月 30 日,成都市保护消费者权益委员会(以下简称“成都市消委会”)和成都市场监督管理局、成都经信局市新经济委正式发布《成都市共享充电宝行业自律公约》,并引导美团、怪兽、悟空、街电、小电、闪葱、咻电、考拉等 8 家主流企业进行签署。 公约主要内容包括: 杜绝“模糊收费”。要求企业在租借页面或设备显著位置公示价格、计费方式、封顶价、押金政策等。 避免“超额计费”。提供不少于 5 分钟的免费使用时长,计费时间单位压缩至 15 分钟以内,首个计费单位仅在超出免费时长后开始收费,杜绝“按小时凑整”。 保障“出借电量”。共享充电宝出借时电量不得低于 50%,特殊情况下低于该标准需提前明确告知消费者,确保应急充电需求。 清除“霸王条款”。明确品牌方、合作商、运营方的责任边界,不得含有减轻企业责任、加重消费者义务的不公平条款。 完善“归还保障”。确保机柜空位充足,针对“网点少、柜满”等非用户原因导致的无法归还,核实后可暂停计费;因设备故障或不可抗力无法归还的,免除本次使用费用。 强化“服务响应”。在设备、官方页面公布客服电话,开通在线客服通道,确保消费者投诉 48 小时内受理并提出解决方案,提升纠纷处理效率。 严控“产品质量”。产品出厂前需抽样检测,定期对设备进行巡检维护,对异常设备及时回收检测,避免老化、破损设备流入市场。 IT之家从公告获悉,此次参与签署公约的企业覆盖成都 95% 以上运营点位,他们将在公约发布后,将陆续更新软件功能并进行价格调整。
英伟达为何值5万亿美元?答案或藏在AI数据中心里
OpenAI在得州的“星际之门”数据中心项目 凤凰网科技讯 北京时间10月30日,英伟达正式成为了全球首家市值达到5万亿美元的公司,它为何能如此值钱?《商业内幕》通过对AI数据中心的分析,揭示了英伟达在AI投资支出中所占据的庞大份额。 随着AI进入工业化阶段,全球最先进的数据中心衡量规模的方式已经不再是占地面积或服务器数量,而是以衡量算力的吉瓦为单位。华尔街也开始以“每吉瓦成本”来衡量这些数据中心,并预测哪些公司将从这场投资狂潮中获益。 投行TD Cowen分析师本周在最新研究报告中给出了直观对比:1吉瓦大约相当于一座核反应堆的发电量。这已成为新一代AI数据中心的新基准,包括xAI在孟菲斯的Colossus 2数据中心、Meta在俄亥俄州的“普罗米修斯”数据中心、在路易斯安那州的Hyperion数据中心、以及OpenAI的“星际之门”,亚马逊在印第安纳州的雷尼尔山项目。 这些“庞然大物”消耗海量电力,结合资本投入与芯片算力,不断产出智能。整个过程成本高昂。 根据伯恩斯坦研究的最新分析,1吉瓦AI数据中心容量的建设成本约为350亿美元。听起来可能很夸张,但这实际上代表了AI的新经济基石。每1吉瓦的数据中心容量,不仅是电力的衡量单位,更是一个新兴工业生态系统的指标,它涵盖了半导体、网络设备、电力系统、建筑以及能源发电等领域。 根据伯恩斯坦和TD Cowen本周的估算,下面这张图展示了1吉瓦350亿美元数据中心容量的成本构成,以及哪些公司可能从中受益。 GPU是数据中心成本大头 GPU成本最高 AI数据中心的最大单一成本在于计算芯片本身。伯恩斯坦指出,大约39%的总支出用于GPU,其中以英伟达的GB200及其即将推出的AI芯片(如Rubin系列)为主。 凭借高达70%的毛利率,英伟达将整个AI数据中心总支出的30%转化为了利润。难怪这家公司市值能达到5万亿美元。 TD Cowen的数据显示,每1吉瓦算力需配备超过100万颗GPU裸芯片(未经封装的芯片),这些正是AI芯片的核心运算单元。分析师估算,台积电在为英伟达制造芯片过程中,每1吉瓦可创收13亿美元。 尽管AMD、英特尔等芯片制造商正奋力追赶,谷歌、亚马逊、微软等超大规模企业也在投资能降低系统总成本的AI专用芯片与定制加速器,但伯恩斯坦与TD Cowen分析师强调,GPU仍是整个产业链的价值核心。 网络设备 紧随GPU之后的就是让这些GPU实现互联的“动脉”:网络设备。伯恩斯坦估算,约13%的数据中心成本用于高速交换机和光互连等网络设备。 作为交换机供应商和芯片设计商,Arista Networks、博通和Marvell将从中受益。由于利润率高,Arista占据的利润份额要高于收入份额。 伯恩斯坦分析师指出,安费诺、立讯精密等组件制造商可从电缆和连接器中获益。中际旭创、新易盛、Coherent等光收发器企业也将在这轮浪潮中获利。 电力与冷却基础设施 计算机机架的周边物理基础设施,包括发电机、变压器和不间断电源,构成了1吉瓦AI数据中心的另一大成本板块。伯恩斯坦的数据显示,仅配电系统就占据总支出的近10%。 电源管理公司伊顿、施耐德电气、ABB及维谛技术是该领域的主要供应商。维谛技术在热管理领域同样面临机遇,这部分约占总支出的4%,分布在风冷和液冷系统之间。 土地、电力与人力 土地和建筑约占前期投入成本的10%。不过,一旦数据中心投入运行,运营成本出乎意料地低。伯恩斯坦估算,运行一座1吉瓦AI数据中心一年的电费约为13亿美元。人员成本同样微不足道,大型数据中心通常仅需8到10名员工,每人年薪约为3万到8万美元。 然而,行业瓶颈正在转向电力供应。随着超大规模企业争相锁定稳定的大规模电力,西门子能源、GE Vernova及三菱重工近期均报告涡轮机与电网基础设施订单激增。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
AI化身正义!病人逝世医院开出近140万天价账单:AI直接砍至23万
快科技10月30日消息,近日,一位用户在社交媒体上分享了利用AI聊天机器人,成功将逝世亲属留下的近19.5万美元(约138万元人民币)天价医疗账单,大幅削减至3.3万美元(约23.4万元人民币)的经历。 在这个情绪低落的时刻,Claude AI充当了冷静、专业的“法务助理”,揭露了医院账单中存在的诸多不当和欺诈行为。 这位网名为Nthmonkey的用户透露,其亲属在心脏病发作后,在重症监护室接受了最后四小时的治疗,但医院开出的账单竟高达195000美元。导致费用如此之高的主要原因是,病人的医疗保险在事发前两个月已经失效。 但账单内容却极不透明,例如账单中仅以“心脏病学”(Cardiology)一项就收取了70000美元,但缺乏具体明细。Nthmonkey反复与医院管理人员交涉,才迫使他们给出更细致的收费编码。 随后Claude AI便开始工作,对揭露的标准收费代码进行深入分析,它发现的最大问题是计费重复: 医院竟然同时为一项主手术及其所有组件进行了两次收费,“医院为我们开具了主程序的账单,然后又为其中的每个组件重复开了一次。”Nthmonkey愤怒地写道,仅此一项原则上就可以剔除约10万美元的收费。 此外Claude还揪出了其他违规行为,随后在Claude AI的帮助下,Nthmonkey起草了带有法律行动、负面公关以及向立法委员会申诉等威慑力的函件。 最终经过漫长的争议,医院账单被削减至33000美元,Nthmonkey对此结果表示满意,并认为这次胜利要归功于其每月20美元的Claude订阅服务。 “医院自己制定规则、价格,认为可以从缺乏经验的人那里随意捞钱,”Nthmonkey 总结道,“没有人应该支付比 Medicare(医疗保险)愿意支付的更多的钱。我们不能再让他们逍遥法外了。”
REDMI K90 Pro Max黑色款手机图赏:全新设计语言,质感出众
9 月底,小米 17 系列手机刚发布,首发第二代骁龙 8 至尊版平台,10 月 23 日,REDMI 也开始发力,推出了 REDMI 史上第一款 Pro Max 机型:REDMI K90 Pro Max。目前,IT之家已经拿到了这款 REDMI K90 Pro Max,先为大家送上开箱图赏。 REDMI K90 Pro Max 的包装整体上还是延续了前代的风格,淡淡的灰白色为主色调,正面为一大块亮银色的矩形视窗,搭配黑色的粗体“K90 Pro Max”文字,亮银色块下方才是 REDMI 的字样,整个包装看起来具有简洁的时尚感。 打开包装看手机,REDMI K90 Pro Max 整体设计语言和之前的 REDMI K80 系列还是有很大差异的,这次采用了更加硬朗锐利的直角边框设计,不过四个角又做了大 R 角的处理,看起来方正中又不失圆润。 手机背面为四枚矩阵排列的摄像头和潜望镜,闪光灯在四枚摄像头的中间,看起来比较有秩序感。相机 Deco 模块沿着整个背板凸起,与航天及铝合金装饰片表面进行拼接。四枚摄像头的右侧是有 BOSE 标识的超大低音炮扬声器。 手机背面为玻璃纤维材质,表面做成了细腻的磨砂质感,摸起来十分细腻有品质,黑色版本色泽深邃,和相机 Deco 部分没有显著色差,有不错的视觉一体感。 手机正面为一块 5.9 英寸的直屏,上、左、右三边框仅为 1.5mm,下巴宽度为 1.68mm。屏占比很高,亮屏后的视觉冲击力还是比较足的。 手机中框为航天级铝合金材质,表面同样有细腻的喷砂处理中框上下游细窄的曲线过渡,手感不至于割手。 机身元素布局方面,REDMI K90 Pro Max 机身左侧没有按键,右侧为音量键和电源键,机身顶部为扬声器、底部则为扬声器、SIM 卡插槽、USB-C 接口和麦克风。 机身尺寸方面,REDMI K90 Pro Max 机身长和宽分别为 163.33mm×77.82mm,厚度方面,IT之家测得 7.9mm(官方数据为 7.9mm)。 重量方面,黑色款官方数据为 218g,IT之家测得 219.5g。 配件方面,REDMI K90 Pro Max 随机附赠了黑色硅胶保护壳、100W 充电器、数据线、取卡针和说明书。 整体来说,REDMI K90 Pro Max 轻薄坚固,设计上工整有秩序感,大 R 角的设计不仅手感柔和,视觉上也更加和谐,手机拿在手里能感觉到很有质感,颜值不说有多惊艳,也是比较在线的,配得上其“Pro Max”的定位。
砸锅卖铁搞AI,AI终于赚钱了!谷歌大涨16%,微软狂飙18%
作者 | 李水青 编辑 | 心缘 智东西10月30日报道,科技巨头已经开始用生成式AI挖出“金矿”。今日,全球两大科技巨头谷歌母公司Alphabet和微软几乎同时交出“里程碑”式的亮眼成绩单,AI成为两家公司共同的强力增长引擎。 今年第三季度,Alphabet首次季度营收突破千亿美元大关,达到1023亿美元(约合7370亿元人民币),同比增长16%。谷歌CEO桑达尔・皮查伊(Sundar Pichai)在财报电话会议里称,增长主要得益于云计算、AI、广告和订阅业务的强劲表现。他还预告了将在今年晚些时候发布新版旗舰模型Gemini 3。 Alphabet首次实现季度营收突破千亿美元大关 财报发布后,谷歌股价大涨7%,市值飙升至3.33万亿美元。 谷歌财报发布后股价走势(图源:百度股市通) 微软这边,该季度营收同比增长18%至777亿美元,其中微软智能云收入首超300亿美元(约合2133亿元人民币),Azure及其他云服务收入增速高达40%,AI成为背后主要的拉动力量。 微软董事长兼CEO萨蒂亚·纳德拉(Satya Nadella)在财报电话会议里称,微软正在打造一个全球规模的云计算和AI工厂,今年其AI产能将提升80%。这也使微软在该季度支出同比增长74%至近350亿美元,远超机构预期。 微软智能云季营收首次突破300亿美元 受财报信息影响,微软股价盘后一度跌超5.2%,市值达4.03万亿美元。但截至周三收盘,其股价今年已上涨28%,此前周二其市值首次突破4万亿美元。 微软财报发布后股价走势(图源:百度股市通) 一、Alphabet季营收首超千亿美元,谷歌云增长34%,七成客户用AI Alphabet和谷歌CEO桑达尔・皮查伊在财报电话会议中强调:“我们在AI方面的全栈式方法正带来强劲动力。” 截至2025年9月30日的第三季度,谷歌云收入同比增长34%至152亿美元,如下图所示,其增速连续7个季度赶超微软智能云。Alphabet财报称,这主要得益于谷歌云平台(GCP)在核心产品、AI基础设施和生成式AI解决方案方面的扩张。 2022年Q3~2025年Q3微软智能云与谷歌云 的营收同比增长对比(智东西制图) 皮查伊在财报电话会议中将AI发展列为第一大亮点。他强调Gemini 2.5 Pro旗舰大语言模型、Veo3视频生成模型、Genie 3实时交互式通用世界模型和Nano图像生成与编辑模型都处于领先,且谷歌正快速推出推出搜索的AI概览和AI模式等AI产品,从而带动谷歌Gemini等自研模型达到每分钟70亿个token的调用量,Gemini应用的月活跃用户已超过6.5亿。 皮查伊在社交平台X上提及电话会议内容 据悉,谷歌云新客户同比增长约34%,超过70%的现有客户使用其AI产品,13条产品线的年收入超过10亿美元。谷歌云业务增速加快,未完成订单达1550亿美元。 从财报总体情况来看,该季度Alphabet总营收同比增长16%至1023亿美元。除了谷歌云业务增长可观,谷歌服务收入增长14%至871亿美元,其中谷歌搜索及其他业务、YouTube广告、谷歌订阅服务、平台与设备业务均实现两位数增长。 谷歌2025年Q3各业务营收占比情况(智东西制图) 这些增长离不开AI的重要拉动作用。搜索业务中,AI模式已支持40种语言、日活跃用户达7500万,美国市场的AI搜索查询量在第三季度翻番。 盈利能力方面,Alphabet净利润同比增长33%至350亿美元,每股收益增长35%至2.87美元。其他收入中,非上市权益证券带来128亿美元未实现净收益,进一步提振利润。如下图所示,谷歌在过去三年里净利润增速在迅猛加快后,稳定在30%左右。尽管AI等支出较大,业务营收增长弥补了巨大支出,保持了利润增长的稳定。 谷歌2022年Q3~2025年Q3的净利润及增长情况(智东西制图) 在AI支出方面,Alphabet正积极扩大资本投入以支持业务增长和云客户需求。公司预计2025年资本支出将在910亿-930亿美元之间,这一规模反映出其对AI基础设施和生成式AI研发的持续重视。 皮查伊在讲话中提到:“超过1300万开发者已使用我们的生成模型进行开发”,并预告了将在今年晚些时候发布Gemini 3,表明谷歌正通过技术迭代和生态建设巩固AI领先地位。 过去三年加速布局AI以来,谷歌的总市值从约1.22万亿美元增长至今天的3.32万亿美元,涨幅约达到170%。 谷歌的总市值过去三年变化 二、微软智能云收入首超300亿美元,AI产能将在今年提升80% 再看微软这边,云计算仍是其增长的主要驱动力,AI已起到关键拉动作用。 2026年第一财年(对应自然年2025年第三季度)微软智能云业务收入同比增长28%至309亿美元,Azure及其他云服务收入增速高达40%,成为增长最快的引擎。 从财报总体情况来看,微软该季度营收达777亿美元,同比增长18%。如下图所示,从过去三年的财报表现来看,其营收增长稳定,且幅度连续两个季度处于高位。 微软2023财年Q1~2026财年Q1的营收及增长情况(智东西制图) 该季度微软净利润为277亿美元,同比增长12%。从过去三年走势来看,其净利润增速有所放缓,这主要是AI云基础设施及对外投资等支出变多。值得注意的是,微软对OpenAI的投资导致该季度净利润减少31亿美元。 微软2023财年Q1~2026财年Q1 的净利润及增长情况(智东西制图) 分业务部门看,生产力和业务流程收入增长17%至330亿美元,其中Microsoft 365商业云与消费者云收入分别增长17%和26%,LinkedIn和Dynamics 365收入也实现双位数增长。 更多个人计算业务收入增长4%至138亿美元,Windows OEM和设备收入增长6%,搜索和新闻广告收入增长16%。 微软2026财年Q1各业务 板块营收占比情况(智东西制图) 应用层的增长离不开AI的拉动。微软董事长兼CEO萨蒂亚·纳德拉在财报电话会议中强调的第一大亮点:“我们的AI平台和Copilot系列产品发展势头强劲,这也推动了我们在资本和人才方面的持续投入。” 纳德拉称,在应用层面,Copilot和Agent程序家族拥有超过1.5亿个月活跃用户,其中90%的《财富》500强企业使用M365 Copilot,AI编程工具的GitHub Copilot用户数超2600万。 纳德拉在社交平台X上提及电话会议内容 在AI支出方面,微软正加紧建设支持AI需求的基础设施。第一财季资本支出达349亿美元,远超此前预期的300亿美元。纳德拉表示,公司未来两年数据中心规模将接近翻倍,凸显出对AI产能的全力投入。 纳德拉在财报会议中称称,微软正在打造“一个全球规模的云计算和AI工厂”,AI产能将在今年提升80%,未来两年数据中心规模几乎翻一番。纳德拉特别提到,位于威斯康星州的费尔沃特数据中心产能将达2吉瓦,成为全球最强大的AI数据中心之一。 此外,OpenAI重组后,微软持有其营利性部门27%的股份,价值约1350亿美元。关于与OpenAI的合作,纳德拉称新协议是“里程碑”,并强调这是一项“非常划算的投资,回报率接近10倍,且所有收益直接归股东所有”。 截至财报发布,微软股价年内上涨28%,并创下历史新高,显示出市场对其AI与云结合的战略前景的信心。 微软的总市值过去三年变化 结语:AI助科技巨头达成业绩新里程碑,投入持续加大 通过两大科技巨头的季度财报,我们看到,AI与收益已不再是“期货”,而是当前科技巨头增长的一大实际引擎。在国内科技巨头如阿里、腾讯、字节等企业的财报中,我们也正在或有望将看到这一趋势。 Alphabet通过所谓的全栈式AI和云平台实现收入破千亿的里程碑,微软则凭借OpenAI合作与智能云服务持续扩大市场领先优势。科技巨头也都不约而同地公布了大额AI资本支出计划,无论是微软翻一番的数据中心规模,还是谷歌预计900多亿美元的真金白银,都将是一笔持续的不小的投入。这些举措都获得了资本市场的认可。 随着资本支出向AI基础设施大幅倾斜,两家公司正竞相塑造下一代技术范式,预示着一个由智能与算力驱动的新经济时代更加靠近了。
iQOO Neo11发布:2K屏+电竞双芯,2599元起
凤凰网科技讯 10月30日,iQOO 品牌今日正式推出其 Neo 系列的新一代性能手机——iQOO Neo11。该机型以“旗舰电竞双芯”和高规格的 2K 屏幕为核心亮点,旨在为用户提供越级的游戏与日常使用体验,其首销期间的起售价格定为 2599 元,在性能手机市场引发了新的关注。 iQOO Neo11 的核心驱动力来自于其“旗舰电竞双芯”架构,即采用骁龙 8 至尊版移动平台与 iQOO 自研电竞芯片 Q2 相结合的方案。官方数据显示,在 LPDDR5X Ultra 和 UFS 4.1 的配合下,该机的安兔兔综合跑分超过了 354 万。这一组合不仅为基础性能提供了保障,更在游戏体验上实现了多项技术突破,例如支持在 2K 分辨率下并发实现 144FPS 高帧率的渲染,并与《王者荣耀》等主流游戏合作,首批适配了原生 144FPS 模式。 屏幕方面是此次 iQOO Neo11 的另一大重点。该机搭载了一块与京东方联合研发的 2K 144Hz 高分辨率高刷新率屏幕,采用最新的 Q10+ 发光材料,峰值亮度可达 4500nit。同时,这块屏幕应用了 8T LTPO 技术,能够实现 1-144Hz 的智能动态刷新率,旨在平衡流畅显示与功耗控制。在护眼功能上,该屏幕支持 2592Hz 高频 PWM 调光,并配备了硬件级的圆偏振光技术,以减少长时间使用的视觉疲劳。 除了性能和屏幕,iQOO Neo11 在综合体验配置上也展现了十足的诚意。该机内置了一块容量高达 7500mAh 的超大电池,这项配置在同类机型中较为罕见,并支持 100W 有线快充。为了保证性能的持续稳定释放,新机配备了全新的 8K 冰穹 VC 液冷散热系统。此外,该机还引入了多项旗舰机型的配置,例如 IP68 & IP69 级别的防尘防水、支持 Wi-Fi 7、全功能 NFC 和红外遥控等。影像系统则由一枚 5000 万像素的索尼超防抖主摄领衔,并搭载了源自蓝厂旗舰的影像算法。 iQOO Neo11 目前已正式开售,为消费者提供了多种存储版本选择。具体价格信息如下: 12GB+256GB 版本售价 2699 元,首销限时到手价 2599 元; 16GB+256GB 版本售价 2999 元,首销限时到手价 2899 元; 12GB+512GB 版本售价 2999 元; 16GB+512GB 版本售价 3299 元; 16GB+1TB 版本售价 3799 元。
AI黄仁勋演讲骗倒10万老外,冒充GTC直播,干出8倍观看量
智东西 编译 | 王涵 编辑 | 漠影 深度伪造已经无孔不入了。 智东西10月30日消息,昨天,CRN高级编辑迪伦·马丁在海外社交媒体X平台曝光,YouTube上一个用深度伪造技术制作的英伟达创始人兼CEO黄仁勋演讲直播,浏览量一度达9.6万人次,超过了真实直播浏览量1.2万人次的7倍。 并且,在YouTube平台搜索“Nvidia gtc dc”演讲时,这个由“NVIDIA Live”频道主播的虚假直播竟然还位列搜索结果首位。 在马丁首次发文曝光直播约40分钟后,该非法直播就已被YouTube下架,但马丁公布了“深伪版黄仁勋”演讲内容的Otter.ai转录文本。 这位AI虚拟人声称在进入主题演讲前,有个“激动得令人迫不及待的惊喜”:一场与“英伟达加速人类进步的使命直接相关”的加密货币普及活动。 利用生成式AI伪造公众人物已变得异常简单,且效果往往逼真得可怕。马丁说假黄仁勋的语调虽不自然,但不难想象会有部分观众会轻信英伟达推出加密货币分发平台的说法。 结语:深度伪造技术必将得到约束 这并非首次有人通过YouTube直播深度伪造知名人士推广加密货币骗局。 2025年,网络上就出现过AI生成的埃隆·马斯克声音,指示观众在某网站存入比特币、以太坊或狗狗币以获取双倍返利。2023年Linus Tech Tips频道遭黑客攻击时,假马斯克也曾现身多个相关频道。 除了推广加密货币,“名人换脸”色情片也是深度伪造的重灾区。此前也曾有媒体报道,知名好莱坞演员“黑寡妇”的扮演者斯嘉丽·约翰逊、知名美国歌星泰勒·斯威夫特等女明星,被换脸到色情视频上,深受其害。 此类事件不断重演,凸显出深度伪造技术监管的紧迫性。全世界各界亟需建立完善的法律法规,明确技术使用边界。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。