EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
1.7万个僵尸号狂发引流广告 某平台微信小程序暗藏涉黄网页 网警出手
快科技9月6日消息,今日(9月6日),公安部网安局公众号公布了一起《1.7万个僵尸号狂发引流广告,网警出手》的案件。 据案件披露,今年2月起,湖北武汉网警接到上海某科技公司报案。 该公司旗下社交平台突然出现1.7万余个“僵尸”账号,这些账号涌入大量群组,疯狂推送涉黄、涉赌等非法引流广告,严重污染了网络环境,威胁到用户的财产安全。 网警深入调查后,迅速锁定了一款名为“某助手”的恶意软件及其开发者袁某。 经查明,袁某为牟取不法利益,开发了“某助手”软件。该软件能够绕过平台的登录验证机制,实现自动化、批量登录海量账号,并进行评论、点赞、群发私信等操作。 袁某还将软件进行包装分级并明码标价,基础版月费3000元,高级版4090元,功能逐级解锁。 掌握充分证据后,武汉网警将袁某抓获归案。民警依据《中华人民共和国刑法》第二百八十五条的具体规定,将袁某涉嫌提供侵入、非法控制计算机信息系统程序、工具的行为一一对照,阐明了其违法性和严重危害。目前,袁某已被依法刑事拘留。 另据媒体报道,在今年8月9日,武汉市公安局曾通报武汉网警成功侦破两起利用技术手段破坏计算机信息系统的案件。 除上述案件外,另一起案件涉及某平台微信小程序。 据报道,2025年春节前夕,广东某单位,34岁的吕某为牟取不法利益,学会了通过非法入侵系统后台、植入涉黄链接进行引流的技术,并很快完成了第一单业务。 尝到“快钱”滋味的他,决定大干一场。不到一个月时间,吕某就进账6000多美元。 不久后,吕某将黑手伸向武汉某平台的微信小程序。他利用黑客工具扫描漏洞,上传木马程序夺取了后台控制权。 当晚,该平台系统后台就被植入了涉黄网页链接。这条“暗链”立刻触发了武汉网警的风险预警快速反应机制。 3月18日,武汉网警前往广东对吕某进行抓捕。抓捕现场发现,吕某单位的电脑不仅登录着云服务器,还存放着各类黑客惯用的木马等工具。 经审讯,吕某承认自今年2月以来,利用同样手法共入侵全国多地80余个网络系统后台,非法植入涉黄链接进行推广引流,从中牟利6530美元(以虚拟货币结算)。 犯罪嫌疑人吕某因涉嫌非法控制计算机信息系统罪,被武汉网警采取刑事强制措施。 案件侦破后,武汉网警迅速向全国80余家相关单位发出安全预警,并督促涉事平台修复漏洞。 办案民警介绍,此类犯罪的最终目的是为下游诈骗活动引流,诱骗用户下载伪装成色情应用的诈骗软件,进而获取用户手机权限和个人信息,实施诈骗。 网警郑重提醒广大网民: 1、技术有界,法律无情:技术是把双刃剑,法律是高压线。 网络空间绝非“法外之地”,任何非法入侵、数据窃取、破坏网络安全的行为都将受到法律的严厉打击。 2、坚守正道,远离黑客:广大青年网民,尤其是技术爱好者,应树立正确的价值观,将技能用于合法领域,切勿因利益诱惑而误入歧途。 警惕色诱,防范诈骗:色情诱惑是假,设局诈骗是真。 3、慎用境外软件,谨防信息泄露:境外社交软件风险高,请广大网民擦亮双眼,莫要上当。 这些平台常被不法分子利用,传播诈骗、色情、赌博等非法信息,甚至成为网络犯罪的“温床”。请提高警惕,不轻易加入陌生群组,不点击不明链接。 4、增强鉴别,远离陷阱:对各类“高薪兼职”“色情诱导”“投资暴利”等诱惑性信息保持清醒头脑,做到不轻信、不传播、不参与。 发现违法线索,及时向网警举报。
网络不是法外之地:网警公布3起典型网络谣言案例,造谣者均已受处罚
IT之家 9 月 6 日消息,据央视报道,公安机关网安部门持续开展“净网 —2025”专项工作,依法处理了一批编造传播虚假信息,扰乱公共秩序的违法犯罪行为。现公布其中 3 起典型案例。IT之家附原文如下: 案例一: 2025 年 7 月 22 日,王某在社交平台发布某中学家长聚集的短视频,并配文称“家长们已经爆发了”,同时添加等热点话题。经查,该短视频为王某参加学校家长会时所拍,其为博取眼球、涨粉获得流量,将从网上的一段争吵音频与之拼凑剪辑在一起,捏造了以上谣言,误导大量网民关注和讨论,扰乱社会公共秩序。目前,公安机关已依法对违法行为人王某予以行政处罚。 案例二: 2025 年 7 月 28 日,杨某在社交平台发布“小区附近出现了人贩子,直接抢了一个三岁的小孩拉上面包车”“人贩子来武汉了”等谣言信息,引起大量网民关注和讨论,造成当地居民恐慌。目前,公安机关已依法对违法行为人杨某予以行政处罚。 案例三: 2025 年 7 月 16 日,陈某在社交平台上发文“武汉有个工地热死了 8 个工人,没有人管吗?”,引发大量网民关注和讨论。经查,近期武汉未发生此类安全事件,陈某杜撰并发布不实信息,引发部分网民的误解和恐慌,造成不良社会影响。目前,公安机关已依法对违法行为人陈某予以行政处罚。
微软宣布2026年9月30日停用网页项目管理工具Project Online
IT之家 9 月 6 日消息,科技媒体 NeoWin 昨日(9 月 5 日)发布博文,报道称微软宣布将于 2026 年 9 月 30 日停用基于网页的项目管理工具 Project Online,相关功能全面整合至 Microsoft Planner。 IT之家注:微软于 2013 年推出 Project Online,专注于任务分配、进度规划与资源协作,是微软 365 生态中历史较久的企业级工具。 根据官方公告,该服务将于 2026 年 9 月 30 日完全停用,并从 2025 年 10 月 1 日起先停止新订阅销售。现有用户可在停用前正常访问数据,微软承诺此阶段不会中断服务。 终止计划不影响 Project 桌面版(含 Standard 2024 与 Professional 2024)、Project Server 订阅版及 Planner 基础 / 高级功能。 微软明确建议用户迁移至 Planner,若已持有 Planner 与 Project Plan 3 或 Plan 5 许可,则自动包含高级版 Planner 权限。替代方案还包括 Dynamics 365 Project Operations 或本地部署的 Project Server 订阅版。 微软解释称,Project Online 的底层架构已难以支持现代 AI 功能与敏捷开发需求。公司未来将聚焦 Planner 平台及 AI 驱动的“项目经理助手”(Project Manager agent),旨在构建“更直观、协作化且深度集成至 Microsoft 365 工作流”的项目管理体验。官方声明强调,此次调整非单纯产品缩减,而是更好推进智能化转型。
OpenAI研究人员宣称已破解模型“幻觉”:重新设计评估指标即可
IT之家 9 月 6 日消息,据《商业内幕》今日报道,OpenAI 研究人员宣称已经破解大语言模型性能最大的障碍之一 —— 幻觉问题。 IT之家注:所谓幻觉,是指大语言模型把不准确的信息当作事实输出,几乎所有主流模型都深受其困扰。 OpenAI 在周四发布的一篇论文中指出,幻觉的根源在于训练方式更偏向奖励“猜测”,而不是承认不确定性。换句话说,模型被训练成“装作知道”,而不是坦率地说“我不确定”。 不过,不同模型的表现差别明显。OpenAI 在上个月的博文中提到,Claude 在面对不确定时往往更谨慎,常常避免给出错误回答。但 OpenAI 也提醒,Claude 拒答率偏高,可能削弱了使用价值。 研究人员在论文中写道:“幻觉之所以难以消除,是因为现有的评估标准奖励猜测。模型被优化成‘考试型选手’,在不确定时猜一猜反而能提高分数。” 结果是,大语言模型几乎一直处于“考试模式”,把世界看成非黑即白的是非题。但现实远比考试复杂,不确定性往往多于确定性,绝对的准确并不常见。 研究人员指出:“人类会在现实生活的挫折中学会表达不确定性的价值,而大语言模型的评估主要依赖考试,这些考试却惩罚了不确定的回答。” 其认为,解决方法在于重新设计评估标准。“问题的根源是评估指标没有对齐,必须调整主要的评分方式,避免在模型不确定时因拒答而被扣分。” OpenAI 在介绍论文的博文中进一步解释说:“目前广泛使用的基于准确率的评估需要更新,打分方式应当抑制‘乱猜’行为。如果排行榜继续奖励侥幸的回答,模型就会不断被训练成靠猜测过关。”
实测阿里万亿参数大模型:开源路线跑通了吗?
划重点: 1、阿里发布史上最大模型,参数量超过1万亿,编程能力直接反超Claude,证明Scaling Law依旧在奏效。 2、阿里“模+云”的策略形成了从技术研发到商业化落地的最短路径,是Qwen能够取得后来者居上成绩的关键之一。 3、阿里开源模式的核心挑战在于如何平衡开放与收益。Qwen未来不仅需要在技术上持续突破,更需要在商业模式和组织能力上证明自己。 作者 林易 编辑 重点君 昨天Anthropic刚玩了一手“极端措施”,阿里深夜一波大的直接反手一记重拳——推出其史上最大的模型,Qwen3-Max-Preview,参数量足足超1万亿! 用“通义大模型”微信公众号官方的标题来形容它的能力,就是“强得不止一点”。 因为从基准测试结果来看,Qwen3-Max-Preview已经超越了此前自家的Qwen3-235B-A22B-2507。 并且官方还放出了与Kimi K2、Claude Opus 4(Non-thinking),以及DeepSeek-V3.1的对比结果。 从下面的表格中不难看出,Qwen3-Max-Preview已经在SuperGPQA、AIME2025、LiveCodeBench V6、Arena-Hard V2和LiveBench等基准测试中,均超越了其它选手。 尤其是在编程能力方面,此前Claude默认是业内最强,这次Qwen3-Max-Preview直接以大力出奇迹的方式实现了反超,也是让一众网友惊叹不已。 Qwen在X上的推文中似乎也是一语道破“玄机”:Scaling works(规模化扩展是有效的)。 01 实测阿里史上最大模型 目前,Qwen3-Max-Preview已经可以体验,只需在模型下拉选项中选择即可: 体验地址:https://chat.qwen.ai 并且官方的API服务也已经开放:https://bailian.console.aliyun.com/?tab=model#/model-market(搜索Qwen3-Max-Preview)。 在实际效果方面,已经有不少国内外的网友们展开了实测;例如X上的知名博主AK,他就在HuggingFace集成了Qwen3-Max-Preview的项目AnyCoder中,输入了这样的Prompt: Design and create a very creative, elaborate, and detailed voxel art scene of a pagoda in a beautiful garden with trees, including some cherry blossoms. Make the scene impressive and varied and use colorful voxels. Use whatever libraries to get this done. 然后,据AK的描述,Qwen3-Max-Preview一次性就实现了如下的效果: 当我们在官网中输入这样的Prompt: Create a beautiful celebratory landing page for the launch of Qwen3 Max. 只需短短几秒钟的时间,Qwen3-Max-Preview就生成了一个完整的庆祝页面,响应速度实测是非常快的: 接下来,我们加大难度,直接上经典的编程问题——弹跳球模拟碰撞。 先小试牛刀一个: Write a javascript code that shows a ball bouncing inside a spinning hexagon. The ball should be affected by gravity and friction, and it must bounce off the rotating walls realistically, implement it in javascript and html. 可以看到,小球会基于物理规律在六边形的框内运行;并且在用“向上键”去给小球一个力时,它也能立即做出响应。 当我们把球的数量设置到10个,一次性生成的效果也是相当自然: 最后,我们再让Qwen3-Max-Preview生成一个小游戏: 做一个《愤怒的小鸟》的小游戏。 不过虽然是一次性生成成功,但或许因为Prompt过于简单,这个小游戏还是有一些小瑕疵,例如怪物的位置不是很准确;感兴趣的小伙伴可以多次尝试一下。 02 Qwen凭什么后来者居上? 从这次阿里直接从千亿参数模型飙升到万亿规模(近四倍提升),并且一举在众多评测中拿下第一来看,Qwen已然在全球范围内站稳了第一梯队的位置。 但有一说一,纵观整场AI大模型的竞赛,阿里并不是最早在中国推出对标ChatGPT产品的公司,但绝对属于后来者居上的那一个。 相较于国内先行者(如百度),阿里大模型初期可以说是相对低调,不过它的路径却是格外的清晰——用模型开源来构建生态,用自研闭源探索技术前沿。 例如在开源这件事上,从2023年开始,Qwen就以惊人的速度向全球开发者开源多个版本模型。从70亿参数的Qwen-7B到140亿、720亿参数,再到视觉、音频等多模态模型,几乎覆盖所有主流尺寸和应用场景。更关键的是,阿里不仅开源模型权重,还开放商业化授权,极大激发了中小企业和个人开发者的热情。 这一系列动作让它迅速在Hugging Face等全球顶级开源社区建立广泛影响力,吸引了大量开发者围绕Qwen生态创新开发,形成强大社区驱动力。这种广积粮的策略为通义千问赢得了宝贵的开发者心智和应用场景数据,这可以说是闭源模型难以企及的优势。 但在开源之外,阿里内部也从没有停止对模型能力上限的探索。正如官方发布万亿参数模型时所言,Scaling works(规模化扩展有效)。这背后是对Scaling Law的一种笃信——随着模型参数、数据量和计算量指数级增长,模型能力会涌现质的飞跃。 训练Qwen3 Max Preview这样的万亿参数模型,不仅是资源堆砌,更要求在超大规模计算集群稳定性、分布式训练算法效率、数据处理精细度以及工程优化的每个细节上都做到极致。 这背后是阿里数年来在算力基础设施上的巨大投入,以及在AI工程化领域的深厚积累。正是这种大力出奇迹式的饱和投入,让Qwen在编程、推理等核心能力上实现了对Claude Opus等顶级模型的反超。 在开源模型和能力探索之外,阿里云,也是Qwen能够后来者居上的关键一环。 毕竟大模型训练推理是名副其实的算力吞金兽,阿里云为Qwen研发提供了稳定高效的算力基础设施,整合了从数据标注、模型开发、分布式训练到部署推理的全链路工具,极大降低了研发团队工程负担,使其专注算法和模型创新。 并且在模型的应用和普及方面,同样是因为阿里云的MaaS战略,可以让Qwen快速在各行各业中深耕;例如企业客户无需从零训练模型,可直接在阿里云调用Qwen API,或利用平台工具对开源Qwen模型微调,快速构建AI应用。 这种“模+云”的策略形成了从技术研发到商业化落地的最短路径。 03 但也并非完美 虽然阿里在大模型发展的战略和选择促成了它后来者居上的优势,但这并不意味着现阶段的Qwen没有隐患。 因为阿里选择的开源模型引流、云服务变现可以说是一条机遇与挑战并存的道路;它与Meta的Llama系列相似,目标通过开放生态快速抢占市场份额和开发者心智,最终将商业价值导向自家基础设施。 这与OpenAI、Anthropic等闭源+API的精英路线形成鲜明对比,它们优势在于更好保护核心技术,维持技术代差,通过高价值API服务直接获得高额利润。 而阿里开源策略虽能快速普及技术,但这也意味着其最先进模型很难与竞争对手拉开绝对差距,商业模式也更加迂回,需要客户首先认可其云平台价值。 开源模式的核心挑战在于如何平衡开放与收益,当企业可以免费获取并私有化部署性能足够好的开源模型时,他们为官方云服务付费的意愿又会有多强呢? 换言之,阿里云不仅要提供简单模型托管,还必须提供远超开源版本的性能优化、安全保障、以及强大工具链和企业级服务,才能构建足够深的护城河。如何让庞大开源用户群体有效转化为高价值付费云客户,是这条道路上最关键的商业惊险一跃。 除了商业化的挑战之外,在顶尖AI人才争夺进入白热化的今天,任何核心人才流失都可能对团队造成深远影响。 近年来,包括AI框架和基础设施领域关键人物贾扬清在内的一些核心技术人才先后离开阿里,投身创业浪潮或加入其他巨头。虽然对于阿里这样体量的公司而言,个别人员离开未必动摇根基,但负面影响依然存在。 毕竟核心领军人物离开可能影响团队士气,对外传递负面信号,增加后续吸引顶尖人才的难度;在关键技术方向上,领军人物的变动还可能给项目长期战略延续性带来不确定性。 也正像Meta在硅谷持续上演的抢人大战,离开的人才往往成为新竞争对手,他们对原有体系优劣势了如指掌,可能在细分领域构成更精准威胁。 因此,阿里如何在高强度竞争下持续保持对全球顶尖AI人才的吸引力,并建立稳定可持续的人才梯队,是它在未来发展过程中必须面对的严肃课题。 结语 总体来看,阿里通义千问无疑是中国乃至全球大模型领域的顶级力量。它凭借“开源与自研并行”的清晰战略、依托阿里云的强大生态、以及深厚技术人才积累,成功在激烈竞争中占据领先地位。万亿参数模型的发布更是彰显了其在Scaling Law上的决心和实力。 然而,成功之路也伴随着清晰挑战。以开源换生态的商业模式,其盈利能力的持续性仍需市场检验;与OpenAI等闭源巨头的技术代差追逐将是长期过程;而顶级人才的保留与吸引,则是维持创新活力的生命线。 Qwen在未来不仅需要在技术上持续突破,更需要在商业模式和组织能力上证明自己的独特价值。它能否将今天的技术优势转化为明天不可动摇的市场胜势,将是整个行业、包括资本市场关注的焦点。这也是阿里未来市值能否更上一层楼的关键。
《金融时报》专访人工智能教父辛顿:AI将让少数人变得极其富有,大多数人更贫穷
Computer scientist Geoffrey Hinton: ‘AI will make a few people much richer and most people poorer’ “人工智能教父”谈人类“唯一的希望”、中国何以具备优势——以及机器何时将超越人类。 2025年9月5日 © 詹姆斯·弗格森 我提前了10分钟到达,杰弗里·辛顿却已在多伦多里士满车站酒店(一家雅致的美食酒吧)的前厅等候。这位计算机科学家——人工智能领域的先驱、诺贝尔物理学奖得主——选择这个地方,是因为他曾在这里与当时的加拿大总理贾斯汀·特鲁多共进午餐。 我们穿过一个装修风格偏工业风、颇具时尚感的葡萄酒吧,来到热闹的里间,这里早已坐满了食客。辛顿取下那个略显陈旧的绿色“谷歌科学家”背包(来自他曾任职的公司),由于长期受背伤困扰,他把背包垫在身下,以便坐得更直。 他有着像猫头鹰般的神态,白发塞在眼镜框下方。他低头看着我,问我在大学学的是什么专业。“因为如果对方拥有理学学位,你解释事情的方式就得不一样。”我并没有理学学位。不过至少特鲁多“懂微积分”。 这位被称作“人工智能教父”的学者,早已习惯向他人讲解自己毕生的研究——如今这项研究正逐渐渗透到我们生活的各个角落。他见证了人工智能从学术界(他几乎整个职业生涯都在学术界度过,其中在多伦多大学任职超过20年)走向主流:资金雄厚的科技公司渴望触达消费者与企业,为人工智能的普及注入了动力。 辛顿因20世纪80年代中期的“基础性发现与发明”获得诺贝尔奖,这些成果为“基于人工神经网络的机器学习”奠定了基础。这种方法大致借鉴了人类大脑的工作原理,为我们如今触手可及的强大人工智能系统打下了根基。 然而,ChatGPT的问世以及随之而来的人工智能发展热潮,让辛顿停下了脚步。他不再推动这项技术加速发展,而是开始警示其潜在风险。过去几年,随着人工智能领域的飞速进步,辛顿的态度变得愈发悲观,他指出这项技术可能会给人类带来严重危害。 “借助人工智能的普通人,很快就能制造生物武器,这太可怕了。试想一下,如果街上随便一个普通人都能制造核弹,后果会怎样?” 在两个小时的午餐时间里,我们的话题广泛:从核威胁(“借助人工智能的普通人,很快就能制造生物武器,这太可怕了。试想一下,如果街上随便一个普通人都能制造核弹,后果会怎样?”),到他自己使用人工智能的习惯(称其“极其有用”),再到聊天机器人如何意外成为他上一段恋情破裂中的“第三者”。 不过,辛顿首先兴致勃勃地开启了一场小型“研讨会”,解释为何“人工智能”是一个恰当的术语:“无论从何种定义来看,人工智能都是具备智能的。”注意到面前的我是人文社科专业出身,他用了六七个不同的类比,试图让我相信人工智能对现实的感知与人类并无太大差异。 “在我看来,这很明显。如果你和这些人工智能系统对话、向它们提问,会发现它们是能理解的,”辛顿接着说,“在技术领域,几乎没人怀疑这些系统会变得越来越智能。” 服务员过来致歉,打扰了我们的谈话。辛顿没有点葡萄酒,而是选择了气泡水而非自来水,理由是“这次由《金融时报》买单”,并提议点套餐。我点了西班牙冷汤作为前菜,主菜选了三文鱼。他毫不犹豫地跟我点了一样的,笑着说其实自己“本来想点些不一样的”。 辛顿在人工智能领域的地位毋庸置疑,但业内仍有一些人认为现有技术不过是一种复杂的工具。例如,他的前同事、图灵奖共同得主杨立昆(Yann LeCun)(现任Meta公司首席人工智能科学家)就认为,支撑ChatGPT等产品的大型语言模型存在局限性,无法与物理世界进行有意义的互动。在这些怀疑者眼中,这一代人工智能不具备人类智能。 “我们对自身思维的了解其实非常有限,”辛顿说,但对于人工智能系统,“是我们创造了它们、构建了它们……我们对其的理解程度远超对人类大脑的理解,因为我们清楚每个‘神经元’在做什么。”他说话时充满笃定,但也承认存在许多未知。在整个交谈过程中,他并不介意长时间陷入思考停顿,最后常以“我不知道”或“没头绪”收尾。 1947年,辛顿出生于伦敦西南部的温布尔登,父亲是昆虫学家,母亲是教师。在剑桥大学国王学院就读时,他曾辗转多个专业,最终本科选择了实验心理学,并在20世纪70年代初转向计算机科学。尽管在21世纪10年代硅谷接纳人工神经网络技术之前,该领域一直被计算机科学界忽视和否定,但辛顿始终坚持对神经网络的研究。 交谈中不难发现,他与如今运用他研究成果的人截然不同。辛顿深耕学术界多年,而萨姆·奥尔特曼(OpenAI首席执行官)却从斯坦福大学辍学,专注于创业;辛顿是一名社会主义者,其成就迟至晚年才得到广泛认可;而马克·扎克伯格(Meta创始人)23岁就成为亿万富翁,与社会主义理念相去甚远。 我们喝着汤时,餐厅里嘈杂的声音与辛顿轻声却严肃地谈论人类生存问题的氛围形成了刺耳的反差。他热切地阐述了人类如何应对现代人工智能系统的部分风险——这些系统由“雄心勃勃且极具竞争性的人”开发,他们将人工智能视为未来的个人助手。这听起来似乎并无危害,但辛顿并不这么认为。 “如果助手比你聪明得多,你该如何保持对它的掌控力?目前我们所知的‘高智能生物被低智能生物掌控’的案例只有一个,那就是母亲和婴儿……如果婴儿无法掌控母亲,就无法存活。” 辛顿认为,人类“唯一的希望”是将人工智能设计成“人类的母亲”,“因为母亲会极度关心婴儿,保障婴儿的生命安全”,并助力其成长。“这正是我们应该努力构建的(人与人工智能的)关系。” “这可以作为你文章的标题,”他笑着指了指我的笔记本说道。 他告诉我,他之前的博士生伊利亚·萨茨凯弗认同这种“母子关系”的观点。萨茨凯弗是顶尖的人工智能研究者、OpenAI联合创始人,此前因试图罢免首席执行官萨姆·奥尔特曼失败而离开OpenAI,目前在自己创办的“安全超级智能”公司开发相关系统。我问他,奥尔特曼和埃隆·马斯克(特斯拉CEO)谁更有可能在人工智能竞赛中胜出。他回答:“嗯,不好说。”那在这两人中,他更信任谁呢? 他停顿了许久,随后回忆起2016年共和党参议员林赛·格雷厄姆被问及在总统候选人中选择唐纳德·特朗普还是特德·克鲁斯时说的话:“这就像在‘被枪杀’和‘被毒死’之间选一个。” 说完这话,辛顿提议换到更安静的地方。我试图引起服务员的注意——他们正忙着招待满座的客人。没等我开口,他突然站起来开玩笑说:“我去跟他们说,就说我之前和特鲁多一起来过这儿。” 我们最终在门口的吧台高脚凳上坐下,接着讨论人工智能何时会发展到“超级智能”阶段——届时它可能具备超越人类的能力。“很多科学家认为,最有可能的时间范围是5到20年。” 我们的菜单 气泡水(2杯) 6加元 套餐(2份) 98加元 - 库克镇西班牙冷汤 - 不伦瑞克三文鱼 草莓奶油(2份) 20加元 卡布奇诺 7加元 英式早餐茶 4加元 总计(含税费) 152.55加元(约合110.65美元) 尽管辛顿对自己的命运有着清醒的认知——“我已经77岁了,反正生命也快走到尽头了”——但许多年轻人可能会因他对未来的看法而感到沮丧。这些年轻人该如何保持乐观呢? “我很想说‘他们为什么要保持乐观?’或许不那么乐观,他们反而会做得更多。”他用一个问题回答了我的问题——这是他常有的习惯。 “假设你通过望远镜看到外星人将在10年后入侵地球,你会问‘我们该如何保持乐观’吗?不会的,你会问‘我们到底该怎么应对’。如果‘保持乐观’意味着假装危险不会发生,那人们根本没必要乐观。” 辛顿对西方政府的干预并不抱希望,他还批评美国政府缺乏监管人工智能的意愿。而白宫则表示,必须加快人工智能技术的发展。事实上,辛顿刚从上海回来,还带着时差,此前他在上海与中方人士举行了会谈。中方邀请他讨论“人工智能带来的生存威胁”。 “中国非常重视这个问题。很多政界人士是工程师出身,他们对人工智能的理解,是律师和商人无法比拟的,”他补充道,“对于生存威胁这类问题,只要有一个国家找到解决办法,就能告诉其他国家。” “如果助手比你聪明得多,你该如何保持对它的掌控力?” 我们能信任中国会维护全人类的利益吗?“这是次要问题。人类的生存比‘一切向好’更重要。你能信任美国吗?你能信任马克·扎克伯格吗?” 此时,我们点的三分熟三文鱼(铺在甜玉米浓汤上)上桌了,话题也转向了科技公司开发人工智能的动机。辛顿一边说着,一边用叉子叉起一块三文鱼,在盘子里蘸满酱汁。 他此前曾呼吁暂停人工智能发展,并在多封反对OpenAI转型为营利性公司的信上签名。目前,马斯克正通过一场尚未了结的诉讼,试图阻止OpenAI的这一转型。 人们常说,对人工智能能力的渲染不过是科技公司为推高估值而制造的噱头,但辛顿认为,“一种说法可能对科技公司有利,同时也可能是事实”。 我很好奇他在日常生活中是否经常使用人工智能。事实证明,ChatGPT是他的首选,主要用于“研究”,但也会用它来查询诸如“如何修理烘干机”之类的问题。不过,这款聊天机器人还意外卷入了他上一段持续数年的恋情中。 “她让ChatGPT写了我有多‘渣’,”他坦言,当时这个举动让他很意外,“她让聊天机器人罗列我的行为有多糟糕,然后把内容发给了我。我并不觉得自己有多渣,所以也没太往心里去……后来我遇到了更喜欢的人,你懂的,感情就是这样。”他笑了笑,接着说:“或许你还没经历过这种事!” 我克制住了想聊自己过往感情经历的冲动,转而提到我刚庆祝完结婚一周年。“希望你暂时不会遇到这种感情问题,”他回应道,我们都笑了起来。 辛顿吃饭速度快得多,所以当他接到姐姐的电话时,我松了口气。他告诉姐姐,自己正在“一家非常吵的餐厅”接受采访。他的姐姐住在塔斯马尼亚(“她很想念伦敦”),哥哥住在法国南部(“他也想念伦敦”),而辛顿住在多伦多(当然,他也想念伦敦)。 “所以我用从谷歌赚的钱,在(汉普斯特德)希斯南部买了一栋小房子”,他的家人——包括两个从拉丁美洲收养的孩子——都可以去那里团聚。 辛顿的“谷歌收入”源于2013年出售一家公司的交易。当时,他与萨茨凯弗以及另一名博士生亚历克斯·克里泽夫斯基共同创办了这家公司,开发出了一套能以“人类水平”识别物体的人工智能系统。这笔交易的成交价为4400万美元。辛顿本想三人平分这笔钱,但他的学生坚持让他拿40%。交易完成后,他们都加入了谷歌——辛顿在那里工作了10年。 他出售公司的动机是什么?为了给患有神经多样性障碍的儿子支付护理费。辛顿“当时估算,大概需要500万美元……而这笔钱靠学术界的收入是不可能实现的”。他在心里算了笔税后收入账,发现从谷歌获得的钱“刚好略多于”这个目标。 2023年,他离开了这家科技巨头,并接受了《纽约时报》的采访,警示人工智能技术的风险。当时有媒体报道称,他辞职是为了更坦诚地谈论人工智能的风险。 “每次接受记者采访,我都会纠正这个误解,但从来没用,因为‘辞职发声’是个很有话题性的故事,”他说,“我离开谷歌是因为我已经75岁了,编程能力大不如前,而且网飞(Netflix)上还有很多我没来得及看的剧。我努力工作了55年,觉得是时候退休了……而且我想,反正都要离开了,不如趁机谈谈人工智能的风险。” 科技公司高管们常常描绘一幅“人工智能乌托邦”的图景:未来,人工智能将帮助解决饥饿、贫困、疾病等重大问题。辛顿的两任妻子都因癌症去世,因此他对人工智能在医疗领域的应用前景感到兴奋;教育也是他十分关心的领域,同样让他充满期待,但除此之外,他对人工智能在其他领域的应用兴趣不大。 “我们正处在一个历史性时刻:一件不可思议的事情正在发生,它可能带来不可思议的好处,也可能造成不可思议的危害。” “实际情况会是,富人会利用人工智能取代劳动者,”他说,“这将导致大规模失业,同时企业利润大幅上升。最终,少数人会变得极其富有,而大多数人会变得更贫穷。这不是人工智能的错,而是资本主义制度的问题。” 奥尔特曼等科技高管此前曾提议,如果劳动力市场规模缩小到无法容纳全部人口,可推行“全民基本收入”制度。但辛顿认为,这一制度“无法解决人的尊严问题”,因为人们会从工作中获得价值感。他坦言,自己很想念以前和博士生一起探讨想法、请教问题的时光——“他们年轻,理解事情更快”。如今,他会转而向ChatGPT提问。 这会不会导致人类变得懒惰、缺乏创造力?目前,“认知卸载”是一个热门话题,指的是人工智能使用者将任务交给机器,而不进行批判性思考,也不记忆获取的信息。对此,辛顿又用了一个类比来解释。 “我们穿衣服,因为穿衣服,体毛变得更少了。如果不穿衣服,我们更容易冻死。”在辛顿看来,只要能获取有用的人工智能系统,它就是一种有价值的工具。 他看了看甜点菜单,这次特意先点了单:草莓奶油。巧合的是,这也是我想吃的。他点了一杯卡布奇诺,我则点了一杯茶。“这下我们的选择不一样了。” 事实上,甜点里的“奶油”是略微融化的冰淇淋,我一边用勺子搅拌着化成液体的冰淇淋,一边向他描述了一个在硅谷常见、但对大多数人而言仍像科幻故事的场景:未来,我们将与“实体人工智能”(即机器人)和谐共处,同时通过为身体植入人工部件、注射化学物质来延长寿命,逐渐变成“赛博格”(半人半机器)。 “这有什么不好的?”他问道。我反驳说,这样我们会失去自我认知,忘记“做人的意义”。“‘做人的意义’就那么好吗?”他回应道。我试图进一步追问:“这不一定是‘好’,但我们将不再拥有‘人性’,这本质上不就是人类的灭绝吗?” “嗯,你说得有道理,”他停顿了一下,说道。 “我们不知道未来会发生什么,完全没头绪。那些告诉你未来会怎样的人,都是在瞎扯,”他补充道,“我们正处在一个历史性时刻:一件不可思议的事情正在发生,它可能带来不可思议的好处,也可能造成不可思议的危害。我们可以猜测,但现状绝不会一直持续下去。” 本文作者:克里斯蒂娜·克里德尔是英国《金融时报》科技记者,驻旧金山,主要报道人工智能领域新闻。
记忆+分支,昨晚ChatGPT的一小步
昨晚OpenAI给 ChatGPT 上了个新功能:分支对话。 网页端把鼠标放到某条回复上,点右下角的「⋯更多操作」,就能选「在新聊天中分支」。 简单讲,不用再傻乎乎地新开个对话,也不用拉一条线到几百条消息那么长,最后把上下文撑爆。现在可以在某个节点直接「开岔路」。 如果把几个月前上线的记忆功能放在一起看,会发现这是一个很有意思的组合:记忆解决「跨对话的连续性」;分支解决「单次对话的多线探索」。 过去跟 AI 聊天,很死板:新开一个对话是「起点」,点掉或者清空就是「终点」。对话像一条直线,往前走只能不断累积,越长越混乱。 分支对话出来之后,这个边界突然变模糊了。 我不用想「要不要新开个对话」,因为随时可以在某个节点上岔开一条新线。 还记得豆包吗? 有个临时问题,问一下,问完就走,很方便;但问题是,过了半个小时,你又想接着刚才的问题往下聊,它就完全不记得上文了,只能当成一次新的问答。 这就是差别。 豆包逻辑是一次性:轻便,却没有连续性;而ChatGPT分支 + 记忆的逻辑是「接力」,随时能在某个节点延伸,把思路保留下来继续聊。 所以,说白了,边界没了,对话变得像一棵树,随时能在一个点上岔开一条新枝,想回去、想切换都行,整段聊天更像「线程」。 这意味着什么?智远认为有三点: 一,对话的开始和结束意义变小了。以前新开对话要想清楚「我到底要聊啥」,现在完全不用纠结,顺着聊就行,想在哪个点岔开就岔开。 二,过去聊着聊着很容易迷路,分支出来之后,我能把不同思路分开保存,像写文档时留多个版本。 要说第三点,我认为,上下文也更灵活了。不用一股脑往窗口里塞一大堆信息,聊着聊着,我直接跳出一个节点,和它讨论一下,这多丝滑。 举个自己体验的例子: 昨天凌晨,Qwen3 发布了新模型 Qwen3-Max-Preview,我当时想发个小红书,直接让 ChatGPT 给我写文案。 结果它给的内容偏宏观:什么「更大模型」「推理速度更快」之类的,太笼统,不够具体。那怎么办? 我追问细节,它反而说「这个模型还没正式发布,好像还在灰度,抓不到更精准的信息」。场面有点尴尬,它只能建议我写「首发体验」或者「首次曝光」的角度。 可今天早上上线了「分支对话」,我就顺手点了「更多」,从那条回复开了个分支,和它单独聊「我最期待 Qwen3 能有什么样的能力」。 那半天我们就在新分支里来回讨论,把思路拉开;这个话题聊完,我又切回原来的主线,让它继续写小红书文案。 然后,它居然把上下文接得很自然,记忆一点没断,整个过程特别丝滑。 所以,智远认为,对话从直线变成树状,对AI助理来说,是特别大的变化。 光能分岔还不够,这些分岔下来的对话,最后 ChatGPT 想把它变成什么? 过去大家用知识管理工具,不外乎 Notion、飞书文档,硬核一点的还有 Obsidian,好处显而易见,能结构化、分层级、做大纲,特别适合喜欢折腾的人。 可问题也很明显:流程太重。 写完文章还得归档,开完会还要手动写总结,想让它形成体系,就得不停维护;很多人一开始雄心勃勃,最后是坚持不下来,库里一堆半拉子工程。 记忆和分支的逻辑完全不同。 核心是「顺手」,你反正要跟 AI 聊天,要写要想,它就顺手把痕迹留了下来。下次要追溯,直接点开分支就行。 还有一点很关键:对话和笔记不一样。 笔记常常是碎片化的,几句话、几个点,很容易脱离语境;对话不是,对话自带上下文:你为什么问,它给了什么答案,你们怎么推演,整个过程都在。 这种语境,有时候比结论本身还更有价值;这让我想到飞书、钉钉里的知识问答逻辑。 它们把「提问」当成起点:我问一个问题,系统给一堆答案。可答案不是终点,如果其中有能用的,我一键标记,就能同步到文档,再编辑打磨,最后存进知识库。 这样才算完成一个「问答—文档—知识库」的闭环。 Perplexity 的老板也说过一句话:「问题才是起点」。问题一旦明确,后面的线索就能拉出来;你再看国内一些新产品,比如 ima、知乎知识库,本质上也是都长在提问上。 所以我觉得,对话优势有三点: 一边用一边沉淀,不用额外操作,这是知识累积;检索更自然了,不用自己翻笔记,只要「问 AI」就能找出来;更重要的是,它保留了上下文,整个脉络都在。 但对话也不是万能的。 我今天用了一上午,还顺手改了几篇研究报告,发现它有时会「记不全」或者「啰嗦混乱」;说明它的记忆能力还要继续提升。 说白了,现在还没办法完全把一个聊天、一个主题任务,直接托付给它去搭建成一套完整的知识体系。 可就算如此,我依然觉得,AI 和人的关系正在慢慢被重塑,它开始更像一个真正的「AI 助理」。 AI 助理,这个词这几年已经被叫烂了。绝大多数产品所谓的「助理」,是帮你干点机械活。类似于,写个日程、优化个文档,说白了就是代替「手和脚」。 可在思维和记忆层面,它们几乎没动过。一个对话聊完就结束,信息全断掉,你根本不会觉得它真是助理。 现在情况不一样了。记忆让它能保留上下文,分支让它能同时跑多条思路。你可以想象: 一个分支在负责推理和研究,另一个分支在帮你找数据和案例,再有一个分支,专门帮你打磨文案。这更一个像团队一样的 AI 助理。 举个例子: 前几天我用百度文库写东西,它的超能搭子 GenFlow逻辑跟我理解的「AI 助理」挺接近。 我先抛一个问题,它给我答案;基于答案,我可能要做个海报,再让它把关键信息抽出来,顺手验证一下数据准不准,最后还帮我推理逻辑。 整个过程像有好几个不同的 agent 在分工合作,而角色全都浓缩在同一个助理里。 所以我觉得,这条路通用 AI 迟早会走。 随着模型越来越大、越来越智能,这种协作会越来越丝滑;到那时,每个人可能都会愿意为一个 AI 助理付费,因为买到的是一个可以代替、可以协作的伙伴。它真的在和人共创。 既然人和AI共创了,就绕不开一个老生常谈的问题绕不开:上下文。 大家最关心「窗口够不够大」,32K、128K,甚至有人憧憬所谓的「无限上下文」,听上去很诱人,好像谁能记得更多,谁就更先进。 可窗口再大,它本质上还是「一次性记忆」,你想把几十页资料、好几轮推演全塞进去,最后模型答非所问太正常不过了。 而且,大窗口代价不小:推理更慢,成本更高。对大多数人来说,没必要为「无限上下文」去买单。 所以我觉得,真正的关键在于 AI 能不能帮我们管理信息;换句话说,与其让它背下整本书,不如让它知道书在哪个书架,随时能翻到对应章节。前者累又不可靠,后者才是更聪明的办法。 记忆和分支带来的,刚好是这种「书架式」体验。 你不用硬塞所有资料,随时能从历史对话里开个分支,或者调用记忆继续延展。 所以,智远认为「把上下文做大」是一条技术路径,但未必是未来答案。真正值得期待的,是 AI 有没有能力,把信息分类、留存、调用得更顺手。 你有没有想过,当记忆和分支进化到足够好时,我们还会在乎上下文窗口的大小吗? 我不知道答案。 但智远认为,未来我们讨论的重点,不是「窗口」这种技术指标,是一个更大的命题:「对话操作系统」。 什么是对话操作系统?我的理解是:你打开一个聊天窗口,也就等于开启了一个任务。 过去,一个任务往往要在好几个应用里来回切;现在,随着记忆和分支的进化,这些事情完全有可能在一个对话里搞定;你问它写文章,它顺便能调动表格;要做个海报,它能直接生成图片。 对话,本身像一个外壳,可以随时调用不同的工具或协议(比如 MCP),把整个流程串起来。 如果顺着「外壳」的趋势去看,互联网演化的路径其实很清楚: 最早大家把搜索当入口,一切从 Google 开始;后来浏览器成了入口,网页承载了信息和应用;再后来手机操作系统,每一个 App 就是一个独立的世界。 入口的变化,意味着新的操作系统形态。 今天,ChatGPT 的演化,正把「对话」推向下一个入口,它逐渐承载任务驱动、知识检索、创作协作的各种形态;未来会不会在对话里,生长出一个基于对话的 WPS、一个 Office?我不知道。 但我知道的一点是:等到那一天,你不需要再切换那么多应用,一个对话就能解决所有事。 举个例子: 你有一份合同要微调,过去得来回切 Word、邮件、PDF 编辑器,步骤一大堆。可在「对话操作系统」里,把初始版本丢进 Chat,任务就开始了。 它告诉你哪不对、哪需要改,你一句句指令「帮我调这个」「再改那个」。最后一句「把最终版导出来吧」,它直接生成 PDF,你点开就能打印,下一秒就能发给客户。 所以,当我再谈「记忆」和「分支」,再谈一个雏形:未来操作系统,建立在对话之上;也许,「对话操作系统」才有想象空间。 可回头看国内的产品,情况不一样了。大家还在卷模型参数、推理速度,甚至价格补贴,但在「对话形态」上,几乎没有多少探索。 国内产品要怎么补课?至少,ChatGPT 已经给出了一个思路。
OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
AI 最臭名昭著的 Bug 是什么?不是代码崩溃,而是「幻觉」—— 模型自信地编造事实,让你真假难辨。这个根本性挑战,是阻碍我们完全信任 AI 的关键障碍。 大模型会有幻觉,这几乎已经成为一个常识,让每一个严肃使用大模型的人都不得不谨慎小心。OpenAI 也指出:「ChatGPT 也会产生幻觉。GPT-5 的幻觉明显更少,尤其是在执行推理时,但幻觉仍然会发生。幻觉仍然是所有大型语言模型面临的一大根本挑战。」 尽管现在学术界已经提出了各种各样用来降低模型幻觉的方法,但目前尚未出现能彻底「根治」模型幻觉的良方。 那么,大模型究竟为什么会出现幻觉呢?今天,OpenAI 罕见发表论文,系统性地揭示了幻觉的根源。 首先,定义幻觉。OpenAI 给出的简单定义是:「模型自信地生成不真实答案的情况。」 至于原因,简单来说就是:标准的训练和评估程序更倾向于对猜测进行奖励,而不是在模型勇于承认不确定时给予奖励。 论文标题:Why Language Models Hallucinate 论文地址:https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf 下面我们就来具体看看 OpenAI 究竟发现了什么。 什么是幻觉? 幻觉是语言模型生成的看似合理但却错误的陈述。 即使看似简单的问题,它们也可能以出人意料的方式出现。OpenAI 举了个例子,当向不同的广泛使用的聊天机器人询问 Adam Tauman Kalai(论文一作)的博士论文标题时,它们自信地给出了三个不同的答案,但没有一个是正确的。 当询问他的生日时,它给出了三个不同的日期,同样都是错误的。 为了测试而学习 OpenAI 表示,幻觉持续存在,部分原因是当前的评估方法设置了错误的激励机制。虽然评估本身不会直接导致幻觉,但大多数评估模型性能的方式会鼓励模型进行猜测,而不是诚实地面对不确定性。 可以把它想象成一个多项选择题测试。如果你不知道答案,但随意猜测,你可能会很幸运地猜对。留空则必定得零分。同样,当模型仅根据准确度(即完全答对问题的百分比)进行评分时,它们会被鼓励进行猜测,而不是承认「我不知道」。 再举一个例子,假设一个语言模型被问及某人的生日,但它不知道。如果它猜测「9 月 10 日」,那么它有 1/365 的概率猜对。说「我不知道」则必定得零分。在数千道测试题中,猜测型模型最终在记分牌上的表现要优于谨慎且承认不确定的模型。 对于只有一个「正确答案」的问题,可以考虑三类答案:准确答案、错误答案以及模型不愿冒险猜测的弃权答案。 OpenAI 表示,弃权答案是谦逊(humility)指标的一部分,而谦逊是 OpenAI 的核心价值观之一。 大多数分数指标会根据准确度对模型进行优先排序,但错误答案比弃权答案更糟糕。OpenAI 的模型规范指出,指出不确定性或要求澄清会更好,而不是自信地提供可能不正确的信息。 以 GPT5 系统卡中的 SimpleQA 评估为例。 在准确度方面,更早期的 OpenAI o4-mini 模型表现略好。然而,其错误率(即幻觉率)明显较高。在不确定的情况下进行策略性猜测可以提高准确度,但也会增加错误和幻觉。 在对数十次评估的结果进行平均时,大多数基准测试都会剔除准确度指标,但这会导致对错之间的错误二分法。 在像 SimpleQA 这样的简单评估中,一些模型的准确度接近 100%,从而消除了幻觉。然而,在更具挑战性的评估和实际使用中,准确度会固定在 100% 以下,因为有些问题的答案由于各种原因(例如信息不可用、小型模型的思维能力有限或需要澄清的歧义)而无法确定。 尽管如此,仅以准确度为衡量标准的评估指标仍然占据着排行榜和模型卡的主导地位,这就会鼓励开发者构建能够猜测而不是退缩的模型。 正因为此,即使模型变得更加先进,它们仍然会产生幻觉。原因之一便是它们倾向于自信地给出错误答案,而不是承认不确定。 更好的评估方法 对此,OpenAI 指出了一个简单的解决办法:对自信错误(confidential error)的惩罚力度大于对不确定性的惩罚力度,并对恰当表达不确定性的行为给予部分加分。 这个想法并不新鲜。一些标准化测试长期以来一直使用对错误答案进行负面评分或对留空问题给予部分加分的方法来阻止盲猜。一些研究团队也探索了考虑不确定性和校准的评估方法。 但 OpenAI 表示,仅仅增加一些新的不确定性感知测试是不够的。广泛使用的、基于准确度的评估方法需要更新,使其评分能够阻止猜测。 如果主要评估指标依然继续为模型幸运的猜测给予奖励,模型就会继续学习猜测。修改评估指标可以扩大降低幻觉技术的采用范围,包括新开发的和先前研究的技术。 幻觉是如何从下一个词预测中产生的 前面已经讨论过为什么幻觉如此难以摆脱,但这些高度具体的事实性错误究竟从何而来? 毕竟,大型预训练模型很少出现其他类型的错误,例如拼写错误和括号不匹配。 OpenAI 表示,区别必定在于数据中存在哪些模式。 语言模型首先通过预训练进行学习,这是一个预测海量文本中下一个词的过程。 与传统的机器学习问题不同,每个语句没有「真 / 假」标签。该模型只看到流畅语言的正面示例,并且必须去近似整体分布。 当没有任何被标注为无效的示例时,区分有效语句和无效语句会更加困难。但即使有标签,一些错误也是不可避免的。 为了理解原因,可以考虑一个更简单的类比。在图像识别中,如果数百万张猫狗照片被标记为「猫」或「狗」,算法可以学会可靠地对它们进行分类。但想象一下,如果用宠物的生日来标记每张宠物照片。由于生日本质上是随机的,无论算法多么先进,这项任务总是会产生错误。 同样的原则也适用于预训练。拼写和括号遵循一致的模式,因此这些错误会随着规模的扩大而消失。但像宠物的生日这样任意的低频事实,无法仅凭模式预测,因此会导致幻觉。 OpenAI 的分析解释了哪些类型的幻觉会由下一个词预测产生。理想情况下,预训练后的后续阶段应该能够消除这些幻觉,但由于上一节中描述的原因,这并未完全实现。 总结 OpenAI 表示:「我们希望本文中的统计学视角能够阐明幻觉的本质,并驳斥一些常见的误解」: 有人宣称:幻觉可以通过提高准确度来消除,因为 100% 准确的模型永远不会产生幻觉。 发现:准确度永远不会达到 100%,因为无论模型规模、搜索和推理能力如何,有些现实世界的问题本质上是无法回答的。 有人宣称:幻觉是不可避免的。 发现:幻觉并非不可避免,因为语言模型在不确定时可以放弃回答。 有人宣称:避免幻觉需要一定程度的智能,而这只有大型模型才能实现。 发现:小型模型更容易了解自身的局限性。例如,当被要求回答毛利语问题时,一个不懂毛利语的小型模型可以直接回答「我不知道」,而一个认识一些毛利语的模型则必须确定其置信度。正如论文中所讨论的,「校准」所需的计算量远小于保持准确。 有人宣称:幻觉是现代语言模型的一个神秘缺陷。 发现:我们可以理解幻觉产生以及在评估中获得奖励的统计学机制。 有人宣称:要测量幻觉,我们只需要一个好的幻觉评估。 发现:已有研究者发表了一些幻觉评估。然而,一个好的幻觉评估与数百种传统的基于准确度的评估相比几乎没有效果,这些评估会惩罚谦逊并奖励猜测。相反,所有主要的评估指标都需要重新设计,以奖励不确定性的表达。 OpenAI 表示:「我们最新的模型幻觉率更低,并且我们将继续努力,进一步降低语言模型输出的置信错误率。」 顺带一提,据 TechCrunch 报道,OpenAI 正在重组其模型行为(Model Behavior)团队,这是一支规模虽小但颇具影响力的研究人员团队,他们决定着该公司的 AI 模型与人互动的方式。现在,该团队将向 OpenAI 的后期训练主管 Max Schwarzer 汇报。 而该团队的创始负责人 Joanne Jang 则将在公司启动一个新项目,名为 oai Labs。据她的推文介绍:「这是一个以研究为导向的团队,专注于发明和设计人们与 AI 协作的新界面原型。」
中东半导体,未来很刺眼
今年5月,特朗普出访海湾地区,与阿联酋、卡塔尔和沙特三国签下了总额高达3.2万亿美元的军事、科技和商业大单,其中涵盖了人工智能、半导体等多个前沿科技领域。 同时,各大芯片厂商也纷纷与中东“土豪”们签下订单。比如,5月13日,黄仁勋现身沙特,宣布向当地AI公司Humain供应首批1.8万颗Blackwell芯片。 而这一合作近期又有了新进展。8月26日,Humain宣布,已为其在沙特的首批数据中心举行了破土动工仪式,并计划在2026年初投入运营,届时将使用从美国进口的半导体。 据其首席执行官塔里克·阿明透露,位于首都利雅得和东部省达曼的数据中心预计将于第二季度启用,初期容量各自高达100兆瓦。 而阿联酋方面也没闲着。近日有消息称,5月美阿协议的主要受益者,阿联酋AI公司G42,为了减少对英伟达的过度依赖,正在与AMD、高通和Cerebras进行谈判。 G42计划在阿联酋-美国建立庞大的AI园区,并将该地区打造为全球技术中心。 中东的“AI野心”,底气从何而来?各大芯片厂商为何都看好该地区的前景,并用订单表达青睐? 让我们迎着刺眼的阳光,看看中东半导体市场的未来。 01 中东半导体市场,优势从何来? 中东地区的半导体市场能够快速发展,主要因素便是各国政策不遗余力的支持。换句话说,当地“砸钱”的力度,属实是到位了。 首先看沙特。沙特在其“2030愿景”框架下将人工智能置于国家战略转型的核心地位。2020年底,沙特阿拉伯发布了一项国家数据和人工智能战略,包括到2030年,沙特将在人工智能领域吸引约200亿美元的国内外投资、培训超过2万名数据和人工智能专家、创建300多家初创企业等。 沙特公共投资基金(PIF)是沙特王国的主权财富基金,管理着超过9000亿美元的资产,已向人工智能相关企业拨款超过400亿美元,其中包括作为国家人工智能基础设施旗舰平台的Humain。 Humain在特朗普出访的前一天宣布成立,并由沙特王储兼首相穆罕默德·本·萨勒曼亲自担任董事会主席。该公司计划到2030年建成容量为1.9千兆瓦的数据中心,到2034年将容量扩大至6.6千兆瓦。根据目前的行业定价,该项目总成本估计为770亿美元。到2030年,Humain的目标是处理全球7%的人工智能“训练”和“推理”工作负载。 不止Humain,PIF还支持了多家人工智能公司,其中包括由穆罕默德王储主持的另一家企业Alat,该公司计划到2030年在人工智能硬件和基础设施方面投资1000亿美元。 沙特还十分重视自身的芯片设计能力。2022年3月,沙特启动了沙特半导体计划(SSP),这是一项旨在加强国家芯片设计能力以及半导体技术开发和生产本地化能力的基础性举措。SSP还支持各大学的学术研究、芯片仿真和布局工具,并通过阿卜杜勒阿齐兹国王科技城(KACST)实验室提供芯片封装、测试和特性分析服务。 在此势头的推动下,沙特阿拉伯于2024年启动了国家半导体中心(NSH),初始投资2.66亿美元。该计划旨在到2030年吸引至少50家无晶圆厂半导体设计公司落户沙特阿拉伯。NSH提供有针对性的财政激励措施、快速监管支持以及针对半导体初创企业和跨国公司量身定制的基础设施。 再来看阿联酋。2017年,阿联酋成为全球首个设立人工智能部长的国家;2019年,该国家发布了《2031年国家人工智能战略》,提出8个目标,其中包括提升人工智能资质,增强人工智能竞争力等。 阿联酋2031年战略的核心是MGX基金,这是一项由阿布扎比主权财富基金Mubadala和人工智能公司G42发起的1000亿美元人工智能专项计划。在AI产业方面,MGX基金目标明确,旨在推动人工智能驱动的经济增长,计划到2031年让人工智能占阿联酋非石油GDP的20%。在人工智能基础设施领域,其投资涵盖从扩大数据中心到加强连接等各个方面;在人工智能核心技术及应用领域,聚焦人工智能模型、软件、数据、生命科学和机器人等。 中东地区的其他国家也有各自的AI和半导体战略。卡塔尔2019年发布《国家人工智能战略》,随后将其整合到更宽泛的《卡塔尔国家数字议程2030》。2024年,卡塔尔公布了25亿美元的AI投资计划,目标是到2030年成为全球十大数字经济体之一,预计创造2万多个AI就业岗位,为GDP增加100多亿美元。 埃及政府于2016年通过通信和信息技术部启动了“埃及制造电子产品”(EME)计划。近年来,该战略升级为EME 2.0。埃及将自己定位为区域电子和半导体设计中心。其战略基于两大支柱。一方面,其创新支柱支持本地无晶圆厂半导体初创企业,促进创新和产品开发。 另一方面,其制造业支柱鼓励劳动密集型电子制造业创造就业机会。目前,埃及拥有三星和LG等全球巨头的主要制造业务,以及Elsewedy(智能电表)和Elaraby(消费电子产品)等本土行业领军企业。 阿曼将自身定位为外包半导体封装和测试 (OSAT) 服务的基地。今年,阿曼投资促进机构Invest Oman积极邀请国际OSAT专家考虑在阿曼开展业务。OSAT计划的预计投资额在1.3亿至1.4亿美元之间,其中约1.1亿美元用于资本支出。目标是将阿曼打造为一个极具吸引力的区域性半导体组装、测试以及最终的先进封装服务基地。 除了“话少钱多”之外,中东还具备其他发展半导体市场的优势。 能源是其中之一。芯片与AI发展,背后依赖的是庞大的能源消耗与基础设施支持。这方面,中东恰好具备“天然优势”,这可以从中东便宜的电价中反映出来。 根据SIA发布的全球电力成本报告,沙特和卡塔尔的电价比美国平均电价低40%-60%。即使是电价稍高的阿联酋,也低于美国平均水平。 除此之外,大量的适龄劳动力也是一个优势因素。拥有约5亿人口的中东和北非地区,预计到2050年人口将接近翻番。这一快速增长主要由年轻人口驱动——该地区一半人口年龄在24岁以下。依靠当地快速发展的教育体系,预计未来会有大量半导体和AI相关的人才供给。 02 土豪与全球大厂“交朋友” 有了天时地利,还缺人和。 中东半导体“走起来”的第一步,从与全球大厂交朋友开始。 除开前文提到的与英伟达的合作,Humain公司也正与AMD合作成立一家合资企业,该合作可能会让AMD在该国设立的一支专项基金中持有股权。这是两家公司今年早些时候签署的价值100亿美元AI基础设施建设协议的一部分。 亚马逊网络服务 (AWS) 和Humain将投资50亿美元,在沙特阿拉伯打造“人工智能园区”。该开创性的人工智能园区将配备先进的AWS人工智能基础设施,包括高性能服务器、用于加快人工智能训练和推理速度的UltraCluster网络,以及Amazon SageMaker、Bedrock和Amazon Q等服务,以加速沙特阿拉伯的人工智能愿景。AWS还在沙特阿拉伯开发一个新的AWS基础设施区域,预计将于2026年投入使用。此次联合投资将有助于满足沙特阿拉伯对先进人工智能服务的全球和本地需求,强化AWS对该地区的长期承诺。 Humain的合作伙伴还包括高通公司和思科系统公司等。据报道,该公司正与埃隆·马斯克(Elon Musk)的AI初创公司xAI就沙特阿拉伯的数据中心交易进行初步谈判。 上文提到的,阿联酋AI公司G42想打造的AI园区,规划发电量达5千兆瓦,是美国以外最大的人工智能基础设施项目。该项目旨在为阿联酋方圆3200公里范围内的近29亿人口提供更快、更可靠的服务。为了满足这一庞大的容量需求,G42正在与谷歌、AWS和Meta等科技巨头洽谈入驻事宜。 据报道,这一颇具野心的计划将分阶段实施,最初的1千兆瓦阶段属于OpenAI 、G42、软银和甲骨文之间的”阿联酋星际之门“项目,预计将于2026年推出,并将使用Nvidia尖端的Grace Blackwell GB300系统。然而,据报道,这一重大部署仅占该园区总规划范围的20%。 对于后续的4千兆瓦建设,G42表明了一项长期战略,即避免过度依赖单一供应商。这也引出了本文开头G42与AMD、高通和Cerebras Systems的谈判。 值得一提的是,微软在这场合作中扮演了关键角色。2024年4月,微软宣布投资G42,两公司为人工智能开发者设立10亿美元基金,微软后续向G42投资15亿美元,并获得G42的少数股权和董事会席位,微软总裁布拉德・史密斯加入G42董事会。此外,微软的Azure云服务将作为“阿联酋星际之门”项目的技术基础之一。微软还在阿布扎比建立新开发中心,这是其在阿拉伯世界设立的首个中心,合作内容包括在阿布扎比建立气候技术实验室,并将其作为研发中心。 03 自研芯片,瞄准技术前沿 当然,不要因为中东国家出手阔绰,就认为它们只会“买买买”。一些当地的公司正在自研芯片,主动加入全球半导体竞赛。 并且,由于此前在芯片设计与制造上的基础不如科技巨头那么深厚,这些公司更倾向于聚焦新兴架构这种可以“换道超车”的机会。 例如,8月,阿联酋阿布扎比的QuantLase研发中心宣布,其自主设计的中东首款工业级光子AI芯片已完成设计验证,正式进入欧洲晶圆厂的量产制造阶段。该芯片采用光而非电子来执行AI计算的核心矩阵运算,有望大幅提升能效。这是阿联酋首次跻身全球AI芯片竞赛,通过光子计算技术减少对西方芯片的依赖。 据悉,该芯片计划于2026年初交付,标志着光子AI加速硬件从实验室走向商用的重要里程碑。 QuantLase研发中心成立于2020年,专注于量子光子学等前沿技术研发。QuantLase团队强调,该设计并非停留在原型验证,而是已锁定实际制造、测试、封装流程,属于产品级里程碑而非科研实验。这意味着阿联酋成功掌握了光子AI芯片的全流程开发能力,从架构设计、仿真验证到流片制造均自主完成。 同样是8月,专注于开发和销售半导体、公钥基础设施(PKI)以及后量子技术软硬件产品的SEALSQ 公司今日宣布,已与Ajyal Holding签署一份不具约束力的意向书,将在阿联酋成立一家名为KUAENTUM的合资企业。该合资企业将依托阿联酋的高科技和太空生态系统,在阿布扎比建设一个尖端的后量子半导体个性化中心,并整合一条后量子卫星生产线,作为其全球半导体和太空安全战略的一部分。 该中心的核心服务预计将包括晶圆级和集成电路级的数字ID注入和嵌入式软件更新。同时,该中心还计划支持抗量子通信卫星的生产,提供从芯片到太空的端到端安全保障。 作为阿联酋的老对手,沙特自然也不甘落后。近期,KACST宣布,沙特研究人员在其洁净室实验室成功设计和生产25款先进电子芯片。 这些芯片由沙特半导体计划研发,适用于多种应用,包括电子、高频通信、集成电路、节能照明和微传感器系统。该项目由来自KACST国家实验室的研究人员和来自四所沙特大学的学生共同参与。 04 结语 中东地区的国家此前积累了大量的石油财富,但也陷入了对石油的过度依赖。现在,它们将目光转向了AI与半导体领域。 可以看到,这些国家,尤其是沙特和阿联酋,发展的速度还是很快的。不过,这种快速发展的模式也存在一定的隐忧。 其中之一是中东地区的相关产业,严重依赖美国的技术供应。这种依赖没有看上去那么可靠,比如,7月就有报道称,因无端担忧美国先进半导体流入中国,美国政府内有些官员试图拖延特朗普中东行达成的协议,对阿联酋购买英伟达AI芯片加以阻拦。 在推进AI基建的过程中,中东地区还面临如何在沙漠中确保计算设施能够有效运行,以及大量水资源消耗的问题。 不过,任何市场的成熟都需要一系列的碰撞与蜕变,就像中东的阳光一样,炽烈而刺眼。 迎着它看,才能看到未来。
苹果iPhone 17系列规格曝光:Air厚5.5mm、2800mAh电池
IT之家 9 月 6 日消息,科技媒体 WccfTech 今天(9 月 6 日)发布博文,报道称韩国电信运营商泄露苹果 iPhone 17 系列完整规格,包括标准版、超薄 Air 版及两款 Pro 机型,全系搭载 A19 系列芯片,将于北京时间 9 月 10 日凌晨 1 点登场。 IT之家附上相关图片如下: 标准版 iPhone 17 标准版 iPhone 17 并未大幅突破设计或独家功能,只是在 iPhone 16 基础上进一步优化。该机型配备 6.3 英寸 OLED 显示屏,搭载全新 A19 芯片与 8GB 内存,后置双摄系统包括 4800 万像素主传感器和 1200 万像素超广角镜头。 前置摄像头升级至 2400 万像素,预计将显著提升视频通话画质;该机内置 3600mAh 电池,结合芯片能效与软件优化,有望进一步提升续航表现。 iPhone 17 Air iPhone 17 Air 作为今年亮点产品,主打超薄设计,机身厚度仅 5.5mm,重量为 145 克。尽管机身轻薄,该设备仍配备 6.6 英寸 ProMotion 显示屏,支持 120Hz 刷新率,分辨率为 2740×1280。 该机配备单颗 4800 万像素主摄像头与 2400 万像素前置摄像头,文档称该机搭载 A19 芯片,不过此前有消息称该机可能采用配备 5 核 GPU 的 A19 Pro 芯片。 电池容量较小,仅为 2800mAh (在和 Galaxy S25 Edge 手机的对比图片中 0 显示为 2900mAh),需依赖软件优化补偿续航,该机还将成为继 iPhone 16e 后首款采用苹果自研 C1 调制解调器的设备。 iPhone 17 Pro 和 iPhone 17 Pro Max iPhone 17 Pro 采用 6.3 英寸屏幕,电池容量为 3700mAh,而 iPhone 17 Pro Max 配备 6.9 英寸屏幕,电池容量为 5000mAh。 性能方面,两款手机均采用 A19 Pro 芯片,配备 6 核 GPU、12GB 内存,并提供最高 1TB 存储容量。
再见!保时捷燃油 718 正式停售,纯电版马上就到
Good things don't last. 前几天的一则消息,为一个时代画上了句号: 保时捷正式关闭了燃油版 718 Boxster 和 Cayman 在全球范围内的订单通道。 这个决定其实并不突然。早在 2024 年初,欧盟一项严苛的新规就迫使 718 在欧洲市场退场。 如今,这份告别,终于延伸到了全世界。 虽然保时捷不再受理新的订单,但位于祖文豪森和奥斯纳布吕克的生产线还会运作一段时间,他们眼下的任务,是完成所有的积压订单。据说,这项工作要持续到 2026 年才能收尾。 可以肯定的是,最后一批驶下生产线的燃油 718,从交付的那一刻起,就会成为收藏市场追逐的对象。 其实按照保时捷的原计划,燃油 718 谢幕的时间点本应更早一些,只是一些计划之外的变数,让这款备受欢迎的小跑车多续了一年的命。 但无论如何,该来的总是会来。 燃油 718 的终点,也是 718 的新起点:它的纯电版本。 旧的不去,新的不来 718 这条产品线的换代节奏,实际上早就被打乱了。之所以会这样,是因为两个原本不相干的问题,意外地碰到了一起。 一边是燃油版因为外部法规,不得不提前退场;另一边,被寄予厚望的纯电继任者,又因为自身和供应链的问题,没能准时到场接棒。 先看燃油版这边。 燃油 718 退场最直接的原因,是联合国欧洲经济委员会发布并强制实施的第 155 号网络安全法规(UN R155)。这项法规要求,车企必须在汽车的整个生命周期里建立并认证一套完整的「网络安全管理体系」。 这是一种「安全始于设计」的理念,也恰恰是诞生于「旧时代」的 718 无法跨越的障碍。 2010 款 Cayman 刚刚停售的这一代 718(代号 982),它的电子电气架构研发于十几年前。而在那个时代,整个行业对今天这种体系化的网络安全标准可以说毫无概念。它的底层架构,根本就不是为了应对这类需求而设计的。 要让这个平台满足新规,需要进行的远不止是一次软件升级,而是一场涉及到重做控制单元和车辆网络的「大手术」。有行业报道算过一笔账,这项改造的投入,几乎相当于开发一款新车预算的一半。 面对为一款即将换代的车型付出如此高昂的代价,保时捷的商业决策是理性的:放弃改造,将资源全部投入到下一代车型的研发中。 如果故事到此为止,这仅仅是一个产品正常迭代的案例。但问题的复杂之处在于,被倚重的纯电继任者,也迟到了。 纯电 718 渲染图,图片来自:Autocar 2024 年,保时捷电池供应商 Northvolt 陷入资金困难,保时捷这边也遇到了一些动力系统方面的问题。不得已,他们只能把这辆原定于去年发布的纯电跑车推迟。最新的时间,已经指向了 2025 年发布,2026 年上市。 这不,时间马上就要到了。 种种迹象表明,保时捷正在加速推进,确保这辆备受瞩目的新车能够按时登场。最直接的证据就是,伪装程度越来越低的纯电 718 测试车,频繁出现在世界各地的镜头中。 纯电 718 谍照,图片来自:Carscoops 在保时捷德国老家的纽伯格林北环赛道,人们看到了纯电 718 Cayman 的身影。尽管车身仍有伪装,但我们依旧能看到它延续了中置跑车的经典轮廓和动感姿态。 纯电 718 谍照,图片来自:motor1 尽管已经化身纯电车型,但 Cayman 的车头还是和以往那样低矮,灯组的设计能明显看到 Taycan 的影子,前方配备主动开闭式格栅,溜背式的车尾则配有小巧的主动式后扰流板和更加修长的尾灯。整体来看,纯电 718 在延续经典的同时,也融入了更多现代电动化元素。 而在对电动车市场至关重要的中国,甚至已经出现过上了绿牌纯电 718 Boxster 测试车。谍照显示,这辆车的整体轮廓与 Cayman 基本一致,特别是车头的大灯样式,辨识度极高。敞篷版的车尾非常扁平,狭长的 LED 尾灯组十分干练。 这些全球同步、深入到不同市场的路试表明,这辆纯电小跑车已经进入到了量产前最后的全球验证阶段。 从目前已知的信息来看,纯电 718 的基础相当扎实。它将基于保时捷与奥迪联合开发的 PPE 平台打造,和同门师兄 Taycan 一样,采用 800V 架构。动力方面,保时捷计划提供单电机后驱和双电机四驱两种版本,其动力表现必定会全面超越前代燃油车。 当然,对于一款保时捷来说,操控才是真正的核心。 为了尽可能复刻燃油版 718 赖以成名的中置后驱驾驶感,保时捷的工程师将电池组集中安置在驾驶舱的后方,以此来模拟传统中置发动机的重量分布和整车重心。没错,有点像工匠派的那辆 SC01 小跑车。 可以说,保时捷正在用尽全力,去解决那个老生常谈的问题:如何在电动化的时代,保留纯粹的驾驶乐趣。 不同于 Taycan,纯电 718 没有退路 对诺基亚来说,它最终没能回答「智能时代里,手机到底是什么?」 而和当时的诺基亚一样,保时捷现在必须回答的问题,同样关乎生死存亡。 因为速度和性能,从来只是保时捷的入场券,而不是它真正的王牌。 当一辆普通的电动车都能实现 3 秒级的百公里加速时,保时捷需要回答的是一个更深刻的问题:当内燃机消失后,品牌的「灵魂」将寄托于何处? 长久以来,保时捷所定义的「驾驶乐趣」,是一种以精密机械为媒介的、高密度的感官体验。它是水平对置发动机在身后独特的心跳与轰鸣,是 PDK 变速箱每一次换挡时明确的物理反馈,是车身姿态与路面信息通过底盘和方向盘传递而来的不间断对话。这种人与机器之间基于物理定律的博弈和沟通,共同构成了保时捷的魅力核心。 而电动化,在很大程度上切断了这种沟通的传统路径。 当那些我们熟悉的感官刺激被剥离,一个更艰巨的任务便摆在了台面上:如何在一个全新的物理规则下,用软件和算法做出一种同样引人入胜、并且独属于保时捷的驾驶体验? 从同为纯电车型的 Taycan 身上,我们倒是能看到一些保时捷努力的方向。 除了已经确定的中置电池布局,为了在物理层面守住操控的第一道防线之外,更重要的工作在于软件和电控系统。 例如,保时捷成熟的扭矩引导系统(PTV Plus),通过电控后桥差速锁和对后轮的精准制动,可以在电动时代更快速、更主动地分配动力,让车辆在弯道中呈现出远超机械差速锁的灵活性。同时,保时捷主动悬挂管理系统(PASM)也必然会进化,利用电动机的瞬时响应能力,实现更智能和细腻的底盘控制。 保时捷研发主管 Michael Steiner 曾公开承诺,保时捷将为新的 718 系列提供「经过赛车运动打磨的制动和操控」,它能够为用户提供「真正的跑车的感觉」。 纯电 718 谍照,图片来自:Carscoops 然而,即便保时捷自认为已经解决了这个难题,它的挑战也才完成了一半。 更大的挑战,来自外部。在保时捷埋头研发纯电 718 的这几年,全球,尤其是中国的汽车市场格局,已经发生了翻天覆地的变化。 这种变化,已经直接反映在了保时捷的财报上。进入 2025 年,保时捷的经营压力陡增,上半年全球销量下滑近 9%,在其两大核心市场——德国和中国,销量更是分别大幅下滑了 23% 和 28%。营业利润和销售回报率几乎回到了十年前的水平。 在中国市场,纯电 718 未来要面对的,不仅是产品自身的驾驶体验能否被市场认可,更是来自中国品牌带来的直接竞争。这些全新的高性能电动车,同样拥有出色的性能、前卫的设计,甚至是更优异的智能化体验,但定价可比保时捷要低得多。 当性能的门槛被拉到前所未有的低位时,消费者是否还愿意为保时捷的品牌溢价和它所定义的驾驶乐趣买单,成了一个未知数。 718 的这次换代,因此显得意义非凡。它不像 Taycan 那样,可以凭借四门轿跑的身份,在驾驶乐趣上做一定的妥协。作为保时捷最纯粹的入门跑车,它没有退路。它不仅要在技术层面证明自己,更要在商业战场上杀出一条血路。 这辆纯电跑车身上背负的,远不止是销量和利润的 KPI。 文 | 李华
真我Neo7 Turbo AI版官宣:联合中国移动打造首款动感地带AI手机
IT之家 9 月 6 日消息,realme 真我手机今天下午通过官微宣布,真我联合中国移动打造首款动感地带 AI 手机 —— 真我 Neo7 Turbo AI 版。 根据官方介绍,这款手机将带来极速性能、偶像陪伴、运动竞技、云端空间、社交潮流五大“专属体验”,并支持电竞、社交、娱乐等多场景权益定制。相比此前已发布的真我 Neo7 Turbo,新机后盖多了一枚中国移动的 logo。 作为对照,真我 Neo7 Turbo 手机于今年 5 月末发布,搭载天玑 9400e 芯片以及 7200mAh 电池,首发 1999 元起。 IT之家附真我 Neo7 Turbo 手机主要信息如下,以供参考: 12GB+256GB 售价 1999 元,国补到手价 1700 元 16GB+256GB 售价 2299 元,国补到手价 1955 元 12GB+512GB 售价 2499 元,国补到手价 2125 元 16GB+512GB 售价 2699 元,国补到手价 2295 元 真我 Neo7 Turbo 采用“透明新生设计”,共有“透明黑”“透明灰”两款配色,近乎 1:1 还原内部结构,还有 NFC 灵透线圈、背板晶刻纹理、闪能 DART 标。 真我 Neo7 Turbo 首批搭载天玑 9400e,全大核 CPU 架构,安兔兔 V10 性能跑分超 245W;旗舰同款大气流冷锋散热系统,7700mm² 超大单体 VC。此外,该机还搭载 GT 性能引擎 2.0,号称“满电到关机无限稳帧”,搭载 AI 大神辅助 + 电竞抢网芯。 真我 Neo7 Turbo 搭载 7200mAh 泰坦电池 + 100W 光速秒充,充至 50% 仅需 19 分钟。新一代硅碳负极技术,电池含硅量达行业最高的 10%;搭载全场景旁路充电技术,多种场景边充边玩;4 年耐用大电池。 真我 Neo7 Turbo 搭载 1.5K 144Hz 护眼直屏,采用 1.3mm 超窄边框、京东方 Q10 发光材料,实现 6500nit 局部峰值亮度、2000nit 全局激发亮度、手动亮度 1000nit,行业最高 4608Hz 超高频 PWM 调光 + AI 游戏护眼。独家适配《决胜巅峰》原生 144 帧模式,支持 14 款 TOP 级手游原生 144 帧。此外,该机还支持 AI 钢化膜触控、2600Hz 瞬时触控、湿手触控等。 影像方面,真我 Neo7 Turbo 搭载索尼 5000 万 OIS 防抖主摄,旗舰同款超光影引擎、旗舰同款迅驰闪拍、Live Photo 实况照片、水下相机、街拍模式、AI 影像等功能。 其他方面,新机支持 IP69+IP68+IP66 满级防水、双频 GPS + 四频北斗、高能户外模式、realme UI6.0、X 轴线性马达、360°NFC、红外遥控等。
阿里首个万亿参数模型屠榜SOTA,碾压DeepSeek V3.1
阿里迄今为止,参数最大的模型诞生了! 昨夜,Qwen3-Max-Preview(Instruct)官宣上线,超1万亿参数性能爆表。 直接用成绩说话—— 在全球主流权威基准测试中,Qwen3-Max-Preview狂揽非推理模型「C」位,直接碾压Claude-Opus 4(Non-Thinking)、Kimi-K2、DeepSeek-V3.1。 甚至,它把自家Qwen3-235B-A22B-Instruct-2507狂甩身后,堪称「AI卷王本王」。 · 知识推理评测(SuperGPQA)拿下64.6分 · 数学推理评测(AIME25)拿下80.6分,断崖式领先 · 竞争性编程评测(LiveCodeBench V6)拿下57.5分 · 复杂问题解决和人类偏好对齐评测(Arena-Hard v2)拿下86.1分,优势巨大 · 被称为「无法被操控的」评测(LiveBench)拿下79.3分 惊艳的性能表现再次证明了,Scaling仍然有效,参数越大模型性能越强。 总的来说,Qwen3-Max-Preview有以下几大亮点:性能更强、知识更广、更擅长对话、任务处理、指令遵循。 新模型可支持100+语言,还针对RAG、工具调用进行优化。 模型一出,全网立即开始了实测。 @karminski-牙医实测中,Qwen3-Max-Preview前端能力明显超越DeepSeek-V3.1。 比如,在一个杯子流体模拟中,Gemini 2.5在倾倒前杯子底部有严重bug,DeepSeek-V3.1杯子中物体倒出的状态(最后有一条线)不对,而Qwen3-Max-Preview比较符合物理常识。 Qwen3-Max-Preview还能完美生成一个骑自行车的鹈鹕SVG、一键直出精美前端网页,一张照片做出像素花园。 目前,模型已正式上线阿里云百炼平台,可通过API直接调用。同时,Qwen Chat也同步上线新模型,支持免费使用。 在百炼平台上,最大支持256k上下文,依token数阶梯计费: · 0-32k token:输入0.006元/千token;输出0.024元/千token · 32k-128k token:输入0.01元/千token;输出0.04元/千token · 128k-252k token:输入0.015元/千token;输出0.06元/千token
扎克伯格:Meta在2028年前至少在美国投资6000亿美元
IT之家 9 月 6 日消息,当地时间周四,美国总统特朗普在白宫宴请群英。除马斯克、黄仁勋外,美国最具影响力的科技巨头领袖均有到场。后来由于天气原因,原定于户外进行的晚宴改至厅内进行。 从视频来看,虽然现场气氛颇为压抑,但在这次活动中,特朗普确确实实收到了诸位科技领袖的投资承诺。 同时,这些科技领袖还轮流向特朗普及其夫人表达了感谢和赞美,感谢他为促进美国芯片制造和 AI 领域投资所做的努力。 坐在特朗普身侧的马克・扎克伯格表现颇为拘束,他首先感谢了特朗普举办晚宴,又指出各大公司“正在美国进行巨额投资,以建设数据中心和基础设施,为下一波创新提供动力”。 很显然,这番含糊其辞的说法并未让特朗普感到满意。特朗普选择让他自己来“翻译翻译”,于是便追问他前面所提到“投资”的具体数字。 面对咄咄逼人的特朗普,扎克伯克的表现似有慌张,“OMG,我觉得可能”。他此时可能不知道该说什么,于是小声补充了一句“我不知道”。 但在看到特朗普审视的目光后,扎克伯格只能选择正面回答。“到 2028 年,(Meta)至少 6000 亿美元吧,在美国,额”。特朗普听到这个数字后还算满意,于是主动回了一句“这可不少”来缓解气氛。 实际上,扎克伯格还有另一场“戏份”。某记者在询问特朗普关于英国对言论打压问题的时候,突然转向询问扎克伯格。而扎克伯格此时显得猝不及防,只能尴尬表示自己刚才没有注意听。 随后,特朗普打趣他称“这将是你政治生涯的开始”,而扎克伯格一脸苦笑并回答“不,不是的”。 除此之外,特朗普还问了苹果 CEO 库克,“蒂姆,苹果会在美国投资多少钱?我知道这笔钱非常大。你之前在别处,现在又要大举回国了。你打算投资多少钱?” 库克思考后,给出了 6000 亿美元(IT之家注:现汇率约合 4.28 万亿元人民币)的“诚意”,这也是苹果之前已经公布过的数字。此外,库克也照例感谢了特朗普,“我想感谢您奠定了这样的基调,使我们能够在美国进行重大投资,并在这里开展一些关键制造。我认为这充分体现了您的领导力以及对创新的重视”。 值得一提的是,特朗普此次宴会邀请了苹果、微软、谷歌、Meta、OpenAI 等各大科技公司的 CEO 和主管,连比尔・盖茨都到场了,结果唯独少了马斯克和黄仁勋。 虽然马斯克事后在 X 上解释说“我收到了邀请,但不幸无法参加,只能派代表出席”。但不知为何,白宫记者公布的人员名单(见文末)上并没有马斯克的人。 对于黄仁勋,有熟悉黄仁勋想法的消息人士对华尔街日报透露,他更倾向于在白宫与特朗普进行一对一会谈,这样才能确保总统有充足时间聚焦实质性问题。 以下是此次晚宴上除政治人物外的与会人员名单: 蒂姆・库克(Tim Cook):苹果公司 CEO; 马克・扎克伯格(Mark Zuckerberg):Meta 创始人兼 CEO; 比尔・盖茨(Bill Gates):微软联合创始人及慈善家; 谢尔盖・布林(Sergey Brin):谷歌联合创始人; 杰雷琳・吉尔伯特-索托(Gerelyn Gilbert-Soto):布林的女友,也是 GG Health Coach 的创始人; 萨提亚・纳德拉(Satya Nadella):微软 CEO; 桑达尔・皮查伊(Sundar Pichai):谷歌及 Alphabet 公司 CEO; 苏姿丰(Lisa Su):AMD CEO; 桑杰・梅赫罗特拉(Sanjay Mehrotra):美光科技 CEO; 大卫・林普(David Limp):前亚马逊设备业务负责人,现任蓝色起源 CEO; 萨芙拉・卡兹(Safra Catz):甲骨文公司 CEO; 加尔・蒂罗什(Gal Tirosh):萨芙拉・卡兹的丈夫,以色列科技与媒体企业家; 萨姆・奥尔特曼(Sam Altman):OpenAI CEO,前 Y Combinator 总裁; 格雷格・布罗克曼(Greg Brockman):OpenAI 联合创始人兼总裁; 安娜・布罗克曼(Anna Brockman):格雷格的妻子; 汪滔(Alexandr Wang):Scale AI 创始人兼 CEO; 迪伦・菲尔德(Dylan Field):Figma 联合创始人兼 CEO; 约翰・赫林(John Hering):Lookout 安全公司联合创始人; 桑尼・马德拉(Sunny Madra):创业者与投资人,曾任福特 X 副总裁; 查马斯・帕里哈皮蒂亚(Chamath Palihapitiya):Social Capital 创始人,硅谷投资人,All-In 播客主持人; 娜塔莉・东佩(Nathalie Dompé):查马斯的妻子,意大利制药公司继承人、风险投资人; 维韦克・拉纳迪维(Vivek Ranadivé):科技企业家,萨克拉门托国王队老板; 大卫・萨克斯(David Sacks):「PayPal Mafia」成员之一,Craft Ventures 合伙人,总统科学技术顾问委员会主席,被称为「白宫 AI 和加密货币沙皇」; 沙亚姆・桑卡尔(Shyam Sankar):Palantir 首席运营官; 马克・平库斯(Mark Pincus):Zynga 创始人; 贾里德・艾萨克曼(Jared Isaacman):亿万富翁企业家,Inspiration4 太空任务指挥官; 杰米・西米诺夫(Jamie Siminoff):Ring 智能门铃创始人; 杰森・张(Jason Chang):42 岁的 CSBio 首席执行官。CSBio 公司主要是为全球生物技术界提供定制肽及自动化肽合成仪,业务涵盖研发与商业化生产两大领域。
任天堂Switch 2延期内幕曝光:内部团队为优化游戏主动要求推迟
IT之家 9 月 6 日消息,自 2023 年起,我们就一直能看到各种关于任天堂 Switch 2 的爆料,当时还有消息称 NS2 瞄准 2024 年 9 月发布。但很显然,这款游戏机一直等到今年上半年才发布上市。 业界消息表明,任天堂 Switch 2 经历了多次延期,至少“从 2024 年底推迟到 2025 年初发布”这一段可获游戏开发商证实。 据彭博社周三报道称,NS2 之所以推迟到 2025 年,是因为任天堂内部开发团队多次要求推迟其发布上市时间,以便有更多时间来完善新硬件上的游戏。这最终导致它直到今年夏季(夏季属于非传统档期)才上市。 消息人士指出,第三方发行商与合作伙伴对任天堂多次延期表示不满,因为这打乱了他们的游戏发售计划。 据称,相关矛盾一直存在,甚至有部分游戏开发商至今仍未拿到任天堂的 Switch 2 开发套件(IT之家注:之前曝光的申请条件显示,即便做过 Switch 游戏的开发商也不一定能拿到 Switch 2 开发套件)。这可能是 NS2 首发时第三方游戏优化表现不佳的原因之一。 尽管具体开发瓶颈仍未明确,但公开信息显示任天堂自 2019 年起便持续投入深度学习与机器学习研发。该公司与英伟达紧密合作,专门为 Switch 2 定制了一款 T239 Orin Tegra 芯片,搭载 DLSS 技术,支持 4K 分辨率输出,旨在提升主机在便携 / 家用模式下的画质表现。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。