行业分类:
加载中...
头条分类:
加载中...
美国滥施关税波及本国农业 涉多个特朗普票仓地区
  大豆是美国主要的出口农产品,极易遭到美国关税政策冲击。   美国大豆协会主席凯莱布·拉格兰在接受采访时,敦促特朗普停止发起与中国的贸易战,并表示目前的情况让豆农“非常担忧”,豆农的生计岌岌可危。    美国大豆协会主席 凯莱布·拉格兰:我们对当前的前景深感担忧。作为大豆种植户,我们依赖贸易,美国生产的大豆中足足有50%用于出口。眼下这场贸易战让我们忧心忡忡,我们迫切需要尽快解决与中国的问题,因为这是我们出口最大的客户。到了秋天大豆收获时,我们需要市场状况大幅改善,否则全美豆农家庭的处境将更加艰难。   同样忧心忡忡的还有美国生产枫糖浆的农户。凯文·凯斯和他的姐夫鲍勃·钱伯斯30年来一直经营着这家枫糖浆小厂,他们说,他们的设备都是从加拿大进口,现在特朗普政府的关税政策让他们的未来充满了不确定性。   生产枫糖浆的农户 凯文·凯斯:如果成本上涨25%,甚至只有5%,而我们仍按过去5年的价格销售,这肯定会让我们的钱包受损。   另一家生产枫糖浆的农户也表示,如果关税真的落地,最终只能由美国消费者买单。   生产枫糖浆的农户 戴维·坎贝尔:如果加征关税实施,我们将不得不提高枫糖浆价格。   此外,美国全国玉米种植业联合会主席肯内特·哈特曼表示,关税政策导致玉米种植户的未来出现很大的不确定性。他们担忧,收获了数百万吨玉米之后,找不到销售的市场。   关税风暴下的美国农业    由美国政府滥施关税所引发的这场经济风暴,也不可避免地波及到了美国农业。美国农业中的哪些领域会受到影响?而对美国农业的冲击又会如何传导至本届美国政府?   美国农业中的哪些领域会受到影响?   根据美国农业部农产品外销局发布的数据,2024年,美国农产品出口总额为1760亿美元。这其中,出口排名前五位的农产品分别是大豆、玉米、牛肉及牛肉制品、坚果,以及猪肉及猪肉制品。   这些领域和农产品,都会是在关税风暴中受到波及较大的领域。   美国农产品出口有可能成为关税反制的对象吗?   对外经济贸易大学国际经贸学院教授 崔凡:实际上长期以来,美国的农产品经常是贸易摩擦的重要领域。例如最近4月9号,欧盟的27个成员国投票表决通过了针对美国的钢铝关税的反制清单,涵盖大约是260亿欧元的产品,其中就包括了肉类、谷物类的这些农产品。有意思的是,在欧盟讨论期间,特朗普威胁不得将一种威士忌酒列入清单,否则就会对欧盟的酒类产品进行报复,征收200%的高关税。可见农产品对于欧美两国来讲,都是非常重要,也是非常敏感的产品。   反制美国农产品会对美国政府产生何种影响?   农业是美国经济的基石。农产品出口,除了直接经济效益,还会给美国经济带来涟漪效应,带动多个产业运转。根据美国农业部农产品外销局的数据,美国每出口1美元的农产品,就会在国内产生2.09美元的经济活动。   除了促进经济生产,农产品出口也是美国就业的关键驱动力。以2022年为例,当年美国农产品出口额为1974亿美元,支撑了美国全国125万个工作岗位。其中非农业部门获得了约77.39万个就业岗位,受益最大,另有47.72万个直接从事农业生产的就业岗位。   2024年,美国农产品出口排名前列的农产品中,大豆的主要产区集中在美国中西部,得克萨斯州、俄克拉荷马州和密苏里州在美国牛肉产量中排名前列。得克萨斯州还是美国棉花的主产区。而这些地区主要是特朗普的票仓。   对外经济贸易大学国际经贸学院教授 崔凡:在贸易摩擦中反制农产品会有什么影响?很多国家都把农业视为是基础产业,甚至是与国家安全挂钩。因此农产品贸易往往具有政治敏感性。美国和欧盟历史上多次因为农产品的补贴问题发生贸易纠纷。最近欧盟在讨论对美国的这个反制清单的时候,也有媒体报道的,他们特别选择对美国的共和党影响比较大的农产品来进行反制。另外农产品的种植往往需要提前规划,对农产品的反制就会带来政策预期的不确定性。这种不确定性,特别容易造成对农业生产的伤害。
第一观察|做强内需主引擎,畅通经济大循环
  加快培育完整内需体系,是畅通国民经济循环、增强国内大循环主体地位的重要基础。   习近平总书记深刻指出,“构建新发展格局的关键在于经济循环的畅通无阻”“要牢牢把握扩大内需这个战略基点,努力探索形成新发展格局的有效路径”。   自2020年4月在中央财经委员会会议上提出新发展格局,5年来,习近平总书记多次就牢牢把握扩大内需这个战略基点作出阐释和部署,指引中国经济加快构建新发展格局,把握未来发展主动权。   (一)厚植根基   当今世界,最稀缺的资源是市场。   我国有14亿多人口,有全球最完整的产业体系,人均国内生产总值突破1万美元,是全球最大最有潜力的消费市场。   习近平总书记强调:“市场资源是我国的巨大优势,必须充分利用和发挥这个优势,不断巩固和增强这个优势,形成构建新发展格局的雄厚支撑。”   大国经济的特征是内需为主导、内部可循环。我国经济由高速增长阶段转向高质量发展阶段,机遇和挑战都有新的发展变化。   总书记高瞻远瞩、审时度势,深刻指出“扩大内需既关系经济稳定,也关系经济安全,不是权宜之计,而是战略之举”“构建新发展格局,首先要把国内大循环搞好,这是治本之策”。   培育完整内需体系,是适应新发展阶段的必然选择,也是促进我国长远发展和长治久安的战略决策。   当前,世界百年未有之大变局加速演进,经济全球化遭遇逆流。近期,美国政府逆世界潮流而动,对包括中国在内的全球贸易伙伴征收所谓“对等关税”,进一步加剧全球政经格局走势的不确定性。   “立足国内、依托国内大市场优势,充分挖掘内需潜力,有利于化解外部冲击和外需下降带来的影响,也有利于在极端情况下保证我国经济基本正常运行和社会大局总体稳定。”习近平总书记强调。   立足国内大市场,增强国内大循环的主体地位,把大国经济纵深广阔的比较优势转化为竞争优势,才能不断夯实中国经济发展根基。   (二)协同发力   供需关系是一对动态平衡关系。   这就需要供需两端同时发力、协调配合,以形成需求牵引供给、供给创造需求的更高水平动态平衡,进而实现国民经济良性循环。   畅通国民经济循环,关键是要牢牢把握扩大内需这个战略基点,增强国内大循环需求牵引力。   2020年以来,中央经济工作会议连续5年对扩大内需进行部署。2023年底召开的中央经济工作会议首次提出“内需主动力”。   如何增强“内需主动力”?   习近平总书记有着深远考量,强调要根据我国经济发展实际情况,建立起扩大内需的有效制度,释放内需潜力,加快培育完整内需体系。   有效供给能力强可以穿透循环堵点、消除瓶颈制约,进而促进产生有效需求,实现经济在更高水平上的动态平衡。   习近平总书记深刻指出,持续推动科技创新、制度创新,突破供给约束堵点、卡点、脆弱点,增强产业链供应链的竞争力和安全性,以自主可控、高质量的供给适应满足现有需求,创造引领新的需求。   总书记的这一重要论断,进一步强调了高水平自立自强的重要性,揭示了深化供给侧结构性改革的重点和方向。   实施制造业核心竞争力提升行动计划、技术改造升级工程,加快数字技术赋能;适度超前部署新型基础设施建设,实施大规模设备更新和消费品以旧换新政策,发布“一老一小”个税专项附加扣除标准提高等税收优惠政策……这些举措无一不是在关键处发力,无一不是旨在释放内需潜力。   持续深化改革,将为畅通国内大循环释放持久动能。   从出台加快建设全国统一大市场的意见,到布局建设现代化基础设施体系和现代物流体系,党中央从顶层设计入手,推动“大市场”向“强市场”转变。   5年来,构建新发展格局蹄疾步稳,内需主引擎愈发强劲:社会消费品零售总额增至48.8万亿元,稳居全球第二大消费市场、第一大网络零售市场、第二大进口市场。制造业总体规模连续15年保持全球第一,高端化、智能化、绿色化不断增强。   (三)释放潜力   “中国经济是一片大海,而不是一个小池塘”,习近平总书记以大海为喻纵论中国经济,正是对中国大市场潜力的生动阐释。   面对复杂严峻的国际形势,牢牢把握扩大内需这个战略基点,加快培育完整内需体系,畅通经济大循环的血脉,中国经济勇毅前行就拥有强大的内驱力。   3月28日,习近平总书记在会见国际工商界代表时指出:“中国是全球第二大消费市场,拥有全球最大规模中等收入群体,蕴含着巨大投资和消费潜力。”   看投资,我国新型工业化、新型城镇化、节能降碳改造等投资空间广阔,基本公共服务、保障性住房等民生领域投资需求较大,投资潜力释放有基础有支撑。   看消费,14亿多中国人,正从生存型消费转向发展型消费,任何一个百分点的增长,都有望撬动广阔市场。今年2月,中国消费者信心指数比上月提高0.9个百分点,连续3个月回升。随着居民消费能力提升,消费升级步伐加快,绿色数字等新型消费、养老托育等服务消费需求扩大,将成为拉动消费增长的重要动力。   从政府工作报告部署“大力提振消费、提高投资效益”“促进消费和投资更好结合”,到加力扩围实施“两新”政策,中办、国办印发《提振消费专项行动方案》……今年以来,扩内需政策持续加码,着力培育和释放经济发展内生动能。   正如总书记所指出:“未来一个时期,国内市场主导国民经济循环特征会更加明显,经济增长的内需潜力会不断释放。”保持发展定力、增强发展信心,立足国内、扩大内需、畅通循环,必将为构建新发展格局提供雄厚支撑,为高质量发展带来强大动力。   策划:张晓松   主编:赵超、朱基钗   主笔:魏玉坤   视觉:金小茜、耿晓涵、张树志   新华社国内部、新华网联合制作   新华社第一工作室出品
对话OPPO中国区总裁刘波:关税挑战下的高端突围与AI战略布局
凤凰网科技《凤凰V现场》出品 作者|刘毓坤 编辑|于雷 4月10日,OPPO在西安曲江竞技中心发布了全新Find X8系列手机及移动智能生态新品。会后,OPPO中国区总裁刘波接受凤凰网科技在内的媒体采访,就高端市场策略、关税挑战、AI技术布局等热点问题展开深度解析。面对美国加征关税等国际形势波动,刘波强调“聚焦自身,做好产品”是OPPO应对不确定性的核心策略。与此同时,Find X8系列以轻薄设计与AI创新功能瞄准4000元以上高增长市场,展现出OPPO在高端化与智能化赛道的野心。 供应链韧性与企业定力 近期美国加征关税引发行业担忧,刘波坦言“中国手机行业经历过所有大风大浪”。OPPO的应对策略是“物来顺应,当时不杂”——不盲目囤货,而是强化技术储备与制造能力。例如,自建屏幕封装产线攻克窄边框工艺,投入健康实验室研发防水技术(IP69)。对于存储芯片价格波动,刘波认为这是行业共性问题,“终端厂商需保持合理库存,竞争最终回归产品力”。 瞄准4000元以上高增长市场 Find X8系列凭借全球最窄四等边窄边框、179g超轻机身(Find X8s)与8.78mm厚度(Ultra版)成为发布会焦点。刘波表示,4000元以上价位段是中国手机市场近年唯一持续增长的领域,年规模超9000万台。OPPO为此调整产品策略,未来将稳定迭代标准版、Pro与Ultra机型,并加大研发投入。国补政策进一步刺激用户“升档消费”,六成消费者倾向购买更高价位产品,推动OPPO在4K-6K价位段销量增幅领先行业。 针对Find X8s的小屏设计,刘波解释源于用户握感需求调研——6.3英寸(宽度71mm)被认定为最佳手感尺寸。小屏需平衡电池容量、散热与性能,OPPO通过技术优化实现“既叫好又叫座”。生态战略上,OPPO明确“不做IoT百货商场”,专注手机及周边产品(Pad、耳机、手表),并深耕影像、AI等核心技术赛道,与友商“人车家全生态”形成差异化。 从功能创新到质变临界点 AI是OPPO未来三大核心方向之一(影像、生产力、文娱)。Find X8系列搭载端侧大模型,支持“一键闪记”等场景化功能。刘波坦言,当前AI手机尚未触发大规模换机潮,但用户习惯正被潜移默化改变。他设想未来手机将成为“个人数字助理”,整合证件管理、日程提醒等生活服务。OPPO研究院同时探索机器人底层技术,但短期重心仍聚焦手机相关生态,如手表、平板等“随身科技精品”。 打造年轻人的“城市公园” OPPO线下渠道正经历从“以渠道为中心”到“以用户为中心”的转型。刘波透露,武汉旗舰店已是OPPO第三家城市体验店,未来将在一线及省会城市持续扩张。这类门店不仅提供产品体验,更通过游戏赛事、IP联动(如《原神》、欧冠)等社交活动吸引年轻用户。贵阳万象城门店因高频活动带动销量增长,印证了“体验驱动消费”的逻辑。下沉市场同样关键,OPPO在乡镇开设体验店并推出“云店”模式,用户可线下体验、线上下单,解决库存压力同时提升服务触达效率。 “做好自己比什么都强”——刘波在采访中多次强调这一理念。无论是关税压力、供应链波动,还是AI技术攻坚,OPPO的选择始终是回归产品本质与用户需求。Find X8系列的轻薄突破、4K+市场的高增长布局、线下体验店的社交化转型,共同勾勒出OPPO高端化与年轻化的双线战略。
超大质量黑洞苏醒,爆发已知最强X射线能量
IT之家 4月12日消息,欧空局(ESA)昨日(4月11日)发布博文,报道称天文学家借助XMM-Newton等望远镜,观测到一个黑洞从休眠中苏醒,释放出极强的X射线爆发,其能量为以往观测纪录的百倍,震惊科学界。 这幅艺术家的想象图展示了新唤醒的黑洞“Ansky”发出强大X射线光爆的可能机制。图源:欧洲航天局 黑洞通常被认为是吞噬一切的宇宙怪物,但它们并非始终处于活跃状态,位于室女座星系SDSS1335+0728中心(距离地球约 3 亿光年)的超大质量黑洞多年来几乎没有活动迹象。 不过天文学家自2019年年底开始,观测到该黑洞开始发出明亮的能量闪光,标志着它从休眠中苏醒。 研究人员调用美国宇航局和欧空局的多台望远镜展开深入观测,这是有史以来首次实时记录黑洞的苏醒过程。研究数年后,科学家确认这颗黑洞进入活跃期,其核心区域被命名为“Ansky”,归类为活动星系核。 艺术家对类似于 Ansky 内部的恒星质量黑洞的想象。图源:欧洲航天局、NASA 和费利克斯・米拉贝尔 为研究这一现象,德国欧洲南方天文台的Paula Sánchez Sáez团队率先分析了Ansky的光学图像,并利用NASA的Swift X射线望远镜和eROSITA X射线望远镜的存档数据进行验证,但初期未发现X射线信号。 直到2024年2月,智利瓦尔帕莱索大学的Lorena Hernández-García团队探测到更规律的X射线爆发。这些爆发被确认为准周期爆发(QPE),是黑洞苏醒后首次观测到的此类现象。Hernández-García表示:“QPE是短暂的耀发现象,我们从未在苏醒黑洞中见过。” 研究中,XMM-Newton望远镜发挥了关键作用。它能捕捉到黑洞强烈 X 射线爆发中较微弱的背景光,帮助科学家计算Ansky活跃期的能量释放量。 XMM-Newton 望远镜,图源:欧空局 麻省理工学院博士生Joheen Chakraborty指出,Ansky的X射线爆发持续时间比典型QPE长10倍,亮度高10倍,每次爆发释放的能量是其他QPE的百倍,且周期长达4.5天,创下最长纪录。这些异常特征迫使科学家重新思考黑洞行为的成因。 传统理论认为,QPE由小型物体(如恒星或小型黑洞)撞击吸积盘引发,而吸积盘通常由被黑洞撕裂的恒星形成。然而,Ansky的爆发没有证据指向恒星毁灭。 一种新假说认为,吸积盘可能由附近星系气体构成,X射线爆发或因小型物体反复穿过吸积盘引发高能冲击。Hernández-García表示,Ansky的观测数据将帮助科学家完善QPE模型,深入理解黑洞的演化机制。
大模型:能少说两句吗,你到底要干啥?
上过AI课,甚至可能还买过网上提示词合集的你,是不是还在这样写提示词? 像什么在提示词里一步步拆解思维链,才能让模型学会分步思考;要给几个例题,帮助模型理解你的问题;还要引导模型cosplay,让模型给出更专业的答案等等的小技巧,不少差友应该也早就活学活用了。 没错,说的就是火锅 但,这些曾经让你事半功倍的神级提示词,可能已经过时了。 这么说吧,在不知不觉的中,大模型其实已经分成了两派:传统通用大模型和推理大模型。 比如GPT-o1,它可不是GPT-4o的直属版本升级。4o属于通用大模型,o1已经是推理模型了。 类似的,DeepSeek默认使用的V3版本是通用大模型,点击左下角深度思考按钮使用的才是R1推理模型。 而在推理模型时代,越详细的提示词,反而可能会让AI变更蠢。 比如OpenAI的官方文档里,推理模型的专栏下,就明确表示,用过于精确的提示词,或者是引导思考这类提示词写法,反而会让回答效果下降。 他们甚至还直接建议,让大家少用思维链提问。。。问题直接问就行。实在效果太拉垮了,再发具体例题,让AI学习。 我们还翻了一下DeepSeek-R1的官方技术报告,他们在论文里也这么说:“DeepSeek-R1 对提示词很敏感,举例提示反而会降低模型表现。" 因此,为让效果更好,他们建议用户直接描述问题,别举例子。 除了GPT和DeepSeek,Claude 3.7 Sonnet也在官方文档中表示,比起那些看似很有逻辑,每一步都详细列出具体做啥的提示词,他们更希望你直接使唤它。 总结一下,和大伙们印象中提示词越详细,AI 效果就越牛的刻板印象不一样,目前各大官方对自家推理大模型提示词的共同建议,就是直接,简洁,描述准确。 我们也尝试着做了一个实验,而最终的实验结果同样证明,过去非推理模型的古法提示词,用到推理模型那里真的会让性能下降。 我们从leetcode里面挑选了几十道各种类型的困难题目,在ChatGPT上进行测试。咱们先按老法子写了一段提示词,比如暗示它做一名程序员、要进行思维链思考、还给出了大量示例等等等。。。 结果对于大部分题目,不论提示词是长是短,推理模型o1都能给出正确的代码,甚至能击败70%以上的人,可以说表现已经相当优秀了。 但是在1147、471、458、1735、1799这些题目中,o1在老提示词下失败了。其中,有一题更是直接卡死,不想玩啦。 但当我们不让它cosplay,也不给例题,去掉思维链引导时,o1这回居然在同样的问题上又答对了。 所以,到底是啥让昔日的提示词小甜甜,在推理模型时代变成了牛夫人? 其实背后最主要的原因,是传统非推理模型和推理模型的思考问题方式变了,而它们思考方式的变化源于训练方式的不同。 传统的大模型一般采用无监督学习和监督微调,也就是给个数据集,让它自己去找规律。它的终极目标是根据提示词,一个一个猜对回答里的所有字。 说人话就是,通用大模型能力很强,但没啥子主见,这就比较吃用户的操作了。你给的提示词越详细,越能让大模型按照你的心意去做事。 但推理大模型不一样,在原来的基础上,它又加上了强化学习等基于推理的训练方法。 这样的训练过程,会引导大模型尽量给出完整且正确的思维链,让它能够判断这么想是不是对的。 这下模型本身就有很强的 “主见”,或者说是推理能力。你要是再一步步详细地去教它做事,反而可能和它本身的推理能力冲突了。 比如我们在实验中发现,用老提示词让o1解决一些数学相关的编程题目时,翻车概率尤其的高。 这有可能是因为提示词只让它做了一名“资深程序员”,而不是“数学很好的程序员”。 我们也翻了不少模型的官方文档,它们给出的建议也基本都是别整花花肠子,提示词简单直接,并且准确最好。除此之外,可以强制延长推理时间,提示它“多想想”,或者 “反思你的结果”。 一部分老办法也还是好用的,比如适当用些符号,把问题的结构分分清楚,或者明确你的最终目标和结果格式。 这些办法,都能让推理模型的效果更秀更6。 所以,适当放下助AI情节,讲清楚你的需求,双手插兜尊重AI操作,反而可能是最有效率的。 而我觉得随着大模型能力的不断进化,写提示词这件事的门槛,也肯定会越来越低。 但,要是问提示词工程这手艺,会不会完全消失?我们也请教了一下曾写出“汉语新解”等神级提示词的大神李继刚老师。 他是这么回答的:只要我们不同的输入,还会带来不同的输出,那提示词工程就一直都在。 最后,差评前沿部觉得,对我们这些用户来说,随着模型能力的加强,咱也应该更新一下提示词的弹药库了,别在抱着那古早的过时提示词,当个宝了。
新增车载接口不间断供电功能,特斯拉汽车海外获2025年春季更新
IT之家 4 月 13 日消息,特斯拉现已向旗下海外车型陆续推出 2025 年春季更新,将为特斯拉旗下 Model S / 3 / X / Y 及 Cybertruck 赛博皮卡越野车新增多项功能,主要包含汽车的车载接口支持不间断供电、行车记录仪支持调用汽车 B 柱摄像头录制、改进导航路线等。 IT之家提醒:部分功能仅在海外提供,国内市场暂不可用,国内市场特斯拉汽车新增功能需以特斯拉官方微博届时公布为主。 自适应大灯支持北美市场车型 特斯拉中国在售汽车已标配相应功能,在开启该功能后,汽车可以将会检测前方障碍物并自动调暗大灯的单个像素,避免远光灯影响前方车辆、路人。 盲点提醒功能改进 现在 Model S / X 车型配备的液晶仪表盘支持盲点提醒功能。 行车记录仪改进 现在行车记录仪支持调用汽车 B 柱摄像头录制视频,包含汽车驻车时的哨兵模式、汽车行驶时的行车记录仪模式均可记录。 导航改进 现在用户可以创建更加个性化的导航计划,主要添加了四项导航方案: 最快:提供最快的路线(特斯拉中国汽车已标配相关功能) 避开高速公路:导航时避开告诉公路(特斯拉中国汽车已标配相关功能) 最佳设施:优先考虑汽车驾驶过程中沿路经过的好评餐厅、商店和卫生间(适用于公路旅行) 更少停顿:最大限度避免在沿路进行充电 Cybertruck 赛博皮卡越野车 现在 Cybertruck 开启 FSD 后支持自动过渡到舒适驾驶模式。 现在 Cybertruck 支持检测车道偏移,如果用户开车时压线,车辆中控会出现提示,同时方向盘将震动提醒用户压线了。 自定义后备箱开启高度 现在用户可以手动设置汽车后备箱开启高度。 不间断供电功能 在更新后特斯拉汽车支持车载接口不间断供电功能,用户在打开相应功能后,只要汽车电量大于 20%,即使是在锁车人离开的情况下,汽车也会为车载接口供电,对于需要为自己手机平板进行紧急充电的用户来说有较大实用性。
vivo公布X200 Ultra手机核心配置:骁龙8至尊版+行业首款第四摄
凤凰网科技讯 (作者/彭坤苹)4月12日,vivo官方正式公布了X200 Ultra手机的核心配置。新机搭载骁龙8至尊版处理器,配备超声波3D指纹解锁,拥有2K蔡司大师色彩屏,还采用圆偏振光护眼技术以及铠甲玻璃,机身厚度约8.69mm。 在续航上,内置6000mAh蓝海电池,同时支持90W有线闪充与40W无线闪充,并且具备直驱供电功能,大大提升了充电效率与使用体验。 此前,vivo通信科技有限公司产品经理韩伯啸公布了X200 Ultra手机的外置独立镜头。这支镜头由vivo与蔡司联合开发,被称为“超级巨炮”,复用2亿超大底,装上后等效为F2.3的2亿200mm(传统8.7X)。 影像配置一直是vivo手机的亮点,此次 X200 Ultra 也不例外。其采用专业相机感的外观设计,拥有饼干头造型Deco。配备蔡司三大定焦大师镜头,分别为85mm蔡司APO超级长焦镜头II、14mm 蔡司超广角镜头(号称行业唯一超大底、行业最强超广角)以及35mm蔡司人文纪实镜头。 三镜全部搭载蔡司T*镀膜及全焦段OIS光学防抖。同时,手机还配备蓝图自研影像双芯,支持全焦段4K 60fps 10bit Log以及全焦段4K 120fps电影慢动作拍摄。新机还设置了全新相机控制键与全新变焦闪光灯,可拍出单反级闪光人像。此外,还有行业首款第四摄,不过具体信息暂未公布。 在常规配置上,除了上述提到的处理器和屏幕等,蓝晶×骁龙 8至尊版旗舰芯的组合,再加上更大的蓝海电池、支持无线闪充与直驱供电以及超声波指纹,整体配置十分豪华。
下周继续谈 白宫称美伊双方同意于4月19日再次会晤
  当地时间12日,美国白宫表示,美国中东问题特使威特科夫当日与伊朗的直接沟通是“朝着实现互利结果迈出的一步”,双方同意于19日再次会面。   威特科夫向伊朗外交部长阿拉格奇强调,他已收到特朗普的指示,希望尽可能通过对话和外交手段解决两国分歧。白宫表示,与伊朗的讨论非常积极且富有建设性。   美伊就核问题首轮间接谈判12日下午结束   当地时间12日下午,伊朗与美国就解除制裁和核问题的首轮间接谈判在阿曼结束。   据伊朗外交部消息称,会谈在相互尊重、建设性气氛中展开,双方就解除对伊朗非法制裁、伊朗和平核计划等问题,通过阿曼外交大臣向对方传递各自政府的立场。双方同意,会谈将在下周继续进行。此外,间接谈判结束后,伊朗和美国代表团团长在离开会谈地点时,在阿曼外交大臣的见证下进行了几分钟的面对面交流。   伊朗外长:下轮会谈可能不会在马斯喀特举行 但阿曼仍将是调解人   伊朗外长阿拉格齐12日在接受伊朗媒体采访时表示,如果伊美能在下次会议中敲定基础,“我们则可以在此基础上开始真正的谈判。”   另据伊朗伊斯兰共和国通讯社12日报道,阿拉格齐在会谈后接受电视采访时说,双方在“平静和尊重的环境中进行了大约两个半小时的间接会谈,没有使用任何不恰当的语言”。阿拉格齐证实,下周将与美方进行第二轮间接会谈,“讨论协议框架”。下轮会谈可能不会在马斯喀特举行,但阿曼仍将是调解人。他强调,伊朗无意浪费时间,但“谈判不会容易,需要决心”。   阿曼外交大臣巴德尔会谈结束后在社交平台上发文说,会谈在友好氛围中进行。阿曼将继续为实现地区乃至全球的和平、安全与稳定作出更多努力。   伊朗外交部发言人巴加埃12日早些时候在社交媒体上发文说,谈判在东道主阿曼计划的地点举行,伊方和美方代表将在不同房间就座。双方将通过巴德尔传达伊美各自的观点和立场。(央视记者 许弢)
奥特曼:AI拥有了情绪、记忆与风格,但TED2025现场他说最可怕的才刚开始
2025年4月11日周五,温哥华 TED 大会现场。 主持人请出 Sam Altman,全场掌声雷动。不是因为他是 OpenAI CEO,而是因为在他手上,AI 不再是“写作工具”或“生产力插件”这么简单。 主持人把他最近最爱的产品 Sora 拿出来展示:“我问它,如果你在 TED 分享一个惊人的观点,会是什么画面?” 结果——生成图像中,台上的主持人衣着相仿,神态夸张,五指清晰,仿佛比他本人还像他自己。 接着,他又问了一个让 Sam 当场震惊的问题: “你能用一张图解释智能和意识的区别吗?” Sora 给出的,不只是图像,而是一种似乎具备“理解力”的回答,像是 AI 正在摸索“自我意识”的边缘。 这一次,人们开始意识到:AI 不只是变聪明了,它开始变得像“人”了。 拥有风格、具备情绪感知、拥有记忆系统、可以与世界“持续交互”——在 TED 的这场访谈里,Sam Altman 把过去半年 OpenAI 内部最尖端的进展、最棘手的风险、最深层的哲学难题,全盘托出。 他说:“AI 正在从工具,变成伙伴。再往前,它会成为世界的一部分。” 他说:“你可以不喜欢它的变化,但技术不会因为不被喜欢就停止。” 他说:“最可怕的,还没开始。” 这不是一篇“新闻稿”,这是一次关于未来十年最重要变量的深度记录。 你正在阅读的这篇文章,整理自 Sam Altman 在 TED2025 全程对话,我们将从以下 5 个关键层面,完整提炼这位 AI 领航者眼中的未来地图: 当 AI 拥有风格与情绪:创作边界的重新划定 记忆觉醒之后:AI 如何真正“理解你”? DeepSeek、开源与产品化之战 AGI 的倒计时:从敬畏到红色按钮测试 Altman 的父亲时刻:当孩子成为你做选择的镜子 他在 TED 说:“我希望我的孩子长大后,看我们这一代时,会觉得那个世界又辛苦又落后。” 这是技术的宣言,也可能是历史的悲悯。 第一节|AI 有了风格,创作者怎么办? Sora 是个危险的玩具。 在 TED 现场,主持人拿出 Sora 做的生成图像给 Sam Altman 看,说:“我问它——如果你在 TED 分享一个惊人的观点,会是什么样的画面?” 结果,Sora 生成了一张舞台画面,主持人手指张开,穿着也几乎一致,表情甚至比本人更夸张。Sam 忍不住笑了:“我从没见你这么夸张。” 主持人回了一句:“可能是 B+ 吧,但至少它画对了五根手指。” 这是玩笑,却也不是玩笑。几个月前,AI 还在为“五指画错”“风格粗糙”被群嘲。现在,它已经能掌握你的穿搭、模仿你的情绪,甚至模拟你“如果特别激动时”的样子。 更重要的是,它不只是生成图像,而是似乎理解你要干什么。 当主持人要求它生成一张“展示智能与意识差异的图表”时,Sora 真的给出了一张能引发哲学争议的结构图。Sam 的评价是:“这不只是图像生成,更像是连接了智能能力。” 这是关键。 Sora 不再是“文生图”工具,而是“理解你表达意图 + 提炼图像含义”的智能型内容生成器。 它不只是图形好看,而是内容“对了”。 更可怕的是,它有“风格”。 在另一个测试中,主持人让模型创作:“如果查理·布朗(美国漫画《花生漫画》的主人公)发现自己是 AI,会说出怎样的内心独白?” AI 的回答不但写出了“布朗式的悲观幽默”,甚至带出了元叙事感——既像在模仿花生漫画的腔调,也像在质疑自己是否拥有意识。 这让主持人当场冒出一句:“这是不是版权问题?” 观众笑了,掌声响起。 但 Sam 的回应让整个场面突然严肃: “我们希望打造的,是让每个人都能创作出好作品的工具。但我们也清楚,风格被模仿,经济机制却尚未建立。” 过去,AI 是工具。你输入,它输出。 现在,AI 是创作者。它有风格,有细节,有连贯的表达。 人类的直觉是抗拒的:这不是我写的,但它写得像我,甚至比我写得还好。 于是问题来了: 如果你是漫画家、编剧、音乐人,你的风格会不会被“挪用”? 如果你没有授权,它是不是侵犯了你的“创作人格权”? 如果你授权了,它应该付多少钱?怎么分?怎么记账? Sam 在 TED 上说了一段极重要的话,几乎可以视作 “未来创作经济的新纲领”: “如果艺术家愿意授权自己的风格供人使用,平台可以为其设立分成机制。 如果你说:‘我想生成融合了这七位艺术家风格的作品’,且他们都授权了——那分成就该有个透明系统。” 换句话说,未来的创作权,不是“版权”那么简单,而是“风格权 + 分润权”。 这一转变意义深远。 它不是“AI 盗版人类”,也不是“人类 vs AI”。 它是一个全新的创作秩序正在浮现: 过去创作者拼的是“内容”; 未来创作者拼的是“风格资产”; 风格一旦被确权、能授权、可交易,就不再只是“情感表达”,而是变成“生产资料”。 但,创作者的焦虑也是真的。 主持人在现场提到,另一位 TED 演讲者 Carol Cadwaladr 就曾用 ChatGPT 生成了一篇“以她风格写的演讲稿”,结果“惊人地像”,但她本人根本没参与,甚至没有授权。 她的态度是:“这很厉害,但我从没同意我的风格被用在这里。” 这句话像一盆冷水,泼在了“AI 创作热”的热潮上。 Sam 也承认,这种情况需要新的边界。他表示,现在 OpenAI 的图像生成器禁止使用“活着的艺术家”名字,但如果是一个流派、风格、年代,那就允许。 但这只是暂时性应对。 真正难的,是在更广泛的生成模型系统中,如何判断“灵感”和“抄袭”之间的距离? 所以,这一节你要记住的不是: “AI 画得越来越好了。” 而是: AI 的风格越来越像人了,但人类还没准备好如何与它共创这个时代。 这不是绘图工具进化,这是文化权力的重构。 第二节|它开始记住你是谁 那场 TED 对话中,另一个时刻,现场沉默了一秒。 主持人说,他前一天测试了新版 ChatGPT 的“记忆”功能,输入一句话: “告诉我——你对我了解多少?” 结果屏幕上跳出的回答让他惊住了: “你是 TED 的主持人,你最近在关注 OpenAI 与 DeepSeek 的竞争,你偏好风格带有幽默感和哲学意味的提问——我猜你今天还想谈谈代理 AI。” 准确、自然,甚至带着一点“调侃感”。 那一瞬间,他意识到:AI 真的“记住我”了。 过去你和 ChatGPT 对话,是“一问一答型关系”。你关闭页面,它忘了你是谁。 现在不同了。 OpenAI 悄悄上线的“记忆功能 2.0”,彻底重写了人与 AI 的交互模式——模型不再是零状态,而是持续在记录你、理解你、演化与你的关系。 Sam Altman 在 TED 上首次对外系统解释了这个变化: “它不是瞬间把你大脑上传,而是像一个朋友,一点点听你说话,看你在做什么,然后在你不察觉时,逐渐熟悉你、了解你,甚至开始预测你。” 听起来像不像电影《她(Her)》? 这就像从“百度一下你就知道”进化到“它知道你想百度什么”——甚至在你开口前就已经备好了答案。 更进一步,Altman 提出了一个明确预言: “我们正在朝一个方向前进:用户不再需要每次输入提示词,AI 会根据你在做的事,主动建议下一步怎么做,让你变得更好。” 换句话说,AI 正在从“问答式关系”走向“观察式陪伴”。 这一变化是划时代的。 它意味着,AI 开始从“你召唤它”变成“它时刻在你身边”。 这会改变三个根本问题: 1、你是谁? AI 将从你的每一次输入、搜索、选择中建立画像,形成一个“数据人格”。 2、你想做什么? 它不再等你“命令”,而是能根据习惯、时间、情绪,主动发起任务建议。 3、你能成为什么? 你每天学什么、聊什么、读什么,它都能变成你“能力增强”的输入,从而成为你能力的“延伸”。 Sam 说得很坦白: “过去的软件系统是‘你告诉我你是谁,我来服务你’; 未来的 AI 是‘我知道你是谁,所以我比你更知道你该干什么’。” 这句话在 TED 场内引发一阵沉默。 你可以喜欢,也可以不安。但你必须承认,AI 正在成为你生活的隐形操作系统。 问题是:这真的安全吗? 主持人问:“如果它知道得太多,甚至影响了我的行为决策,那还安全吗?” Sam 解释说,这种“记忆系统”并不是全天候监听,而是基于你在 ChatGPT 里的行为构建,并允许用户随时删除、清空、关闭——你有主权。 但这也只是目前。 当你未来用的是 AI 手机、AI 眼镜、AI 操作系统,它是否能“无缝监听”,甚至预测你行为、引导你选择? 这是个哲学问题,也是一个商业伦理问题。 我们可以类比一下过去两个技术时代的演化轨迹: AI 进入“记忆阶段”,就像“你不是用它做事,而是它协助你成为你”。 但你要警惕: 它了解你,但它不爱你; 它陪着你,但它不理解你的脆弱; 它能记住你,但它无法为你的未来负责。 Sam 在 TED 上强调:“这不是 AGI。它不会自己学,不会自我成长,不会推导科学。” 它只是在尽可能模仿人类的陪伴感。 但光是这一点,就足以改变世界。 如果 AI 成为每个人的“数字副本”,你将拥有一个比你更了解你、比你更冷静、比你更善于总结规律的“自我”。 你不是失去控制,而是面临一个全新的问题: 当 AI 越来越懂你,你是否还认识你自己? 这才是 Sam 所说:“最可怕的,才刚开始”的真正含义之一。 第三节|开源挑战者来了:DeepSeek vs OpenAI TED 现场,主持人终于问出了那个全场都在等的问题: “DeepSeek 的崛起,是否对 OpenAI 构成了真正威胁?你们是否害怕,有人用一个数量级更低的资源,就做出了你们一样强的模型?” Sam Altman 的表情没有明显变化,只是轻描淡写地回应了一句: “我们的增长,没有因为 DeepSeek 放缓一丝一毫。” 听起来像是一种“淡定”,但全场听懂的人都知道,这背后是一场AI 工业化节奏的集体焦虑。 1、DeepSeek 做对了什么? 这家来自中国的开源团队,用远低于 OpenAI、Anthropic 的投入,做出了一个性能逼近 GPT-4 的模型,而且发布节奏极快、响应开发者反馈积极、社区生态热度高。 更重要的是,他们的战略不是“平台级垄断”,而是“工具层普惠”:开放权重,开源模型,免费商用。 它像一股技术界的“民间反击”,让所有大模型公司突然意识到: 不是你模型能力不够,而是你对开发者不够真诚。 Altman 并不否认开源的重要性。 他在 TED 上首次明确透露: “我们已经在准备发布一个全新的开源模型,它的性能可能会超过目前所有开源模型。 昨晚我们刚开了第一次社区讨论会,正在研究开源的基本参数与策略。” 这句话释放了两个信号: OpenAI 将不再只做“闭源巨兽”,也要参与“开源生态”。 开源模型将不是“阉割版”,而是“接近前沿”的实用级系统。 这意味着,OpenAI 正在试图补上它过去几年里最被诟病的那块短板。 但 Altman 也坦诚了他们的顾虑: “我们无法避免有人拿开源模型去做我们不喜欢的事情。你越强,越开放,风险就越大。” 这就是“AGI 商业化 vs 人类安全”的核心矛盾: 开源,意味着更多人可以平等使用; 闭源,意味着你有机会建立更严格的使用边界; 但闭源也可能垄断发展路径,开源则可能引爆失控后果。 2、DeepSeek 的优势,正在逼着 OpenAI 改变。 不仅是技术上的压力,更是叙事权的挑战: 谁能在“开源”这场话语战中赢得开发者信任? 谁能在“免费工具化”浪潮中占领最广泛的用户接口? 谁能让“模型”不只是聪明,而是被更聪明地用起来? OpenAI 做出回应:我们也将开源。 但 DeepSeek 的背后,其实还有更深的挑战: 如果“通用智能”最终会被商品化——那领先的关键,是否就从“模型能力”变成了“产品体验”? Sam 在现场放下一个重磅观点: “随着时间推移,智能会商品化。模型之间的差异会变小,真正的差异会体现在产品形态上。” 他举了一个例子: “如果你只是要用模型写个脚本、画个草图、找个摘要,那很多‘差不多够用’的模型已经满足了你。 真正有要求的是‘极致体验’:记忆功能、Agent 能力、多模态融合……这时候比拼的不是参数,而是打磨。” 换句话说: GPT-4 很强,但用户感知的是 ChatGPT 的体验流畅度; Sora 很强,但用户记住的是“它让我有灵感”; DeepSeek 再强,如果缺乏“产品联动”,也可能止步于极客圈。 3、这才是 Altman 最擅长的地方:产品层的战争。 别忘了,他不是科学家出身,而是创业者。不是研究 AGI 的论文写作者,而是研究“人类怎么用 AGI”的产品架构师。 他看得清楚: “未来不会只有一个超级大模型统治一切。相反,是一个模型‘星座’——有开源的、有闭源的、有轻量的、有重型的。” 这句话很关键,它意味着: OpenAI 并不是被 DeepSeek 逼急了才开源,而是他们判断,必须做“多极分布式结构”。 他们要的不是独占,而是主导“生态结构的标准”。 所以,如果你是开发者、创业者、甚至是企业 CIO,现在你要问的不是: “哪个模型最强?” 而是: “我该选哪个生态来构建产品?” “我用这个模型,能否在三个月内交付一个落地系统?” “这个平台的‘服务能力’能否支撑我团队的迭代节奏?” 4、这场 DeepSeek 与 OpenAI 的交锋,从来都不只是性能之争。 它是: 技术普及化 vs 能力封装化; 全球人才协作模式 vs 商业闭环平台模式; “用开源塑造未来” vs “用产品主导未来”。 而 Sam Altman 想要做的,不是模型里的“神”,而是这场星座大战的“调度系统”。 第四节|代理 AI 来了,你还在掌控吗? 在 TED 现场,主持人抛出了那个大众最关心、研究者最避谈的问题: “Sam,你们有没有在内部见识过什么‘真正让人害怕’的模型?比如有自我意识、会自我进化、开始不受控制?” 观众瞬间安静下来。 Sam Altman 没有立刻否认,也没有浮夸煽情,他用了一个极其精准的词: “敬畏(awe)。” “是的,”他说,“我们经历过一些让人充满敬畏的瞬间。不是害怕,而是意识到这些系统将来可能会走多远。” 但紧接着他也强调:“现在我们还没有那种‘觉醒的模型’,也没有任何‘能自主演化’的系统,一切仍在可控范围内。” 可控,但越来越接近临界点。 Altman 认为,比起“是否觉醒”,更值得关注的是 AI 正在获得“代理能力(agentic capacity)”。 这是一种从“回答问题”到“完成任务”的质变: 你不再需要每步都给它写清楚怎么做; 你只需要告诉它:“帮我搞定这件事”; 它会自动搜索、点链接、调 API、访问网页、联络人,直到任务完成。 这,就是 OpenAI 正在内部测试的系统之一:“Operator”。 主持人说他亲自试了一下 Operator。 让它订餐厅、预定座位,它真的会打电话、发邮件,还会说: “请提供你的信用卡信息以完成预订。” “我当场退缩了。”主持人坦白,“我还没准备好把这些交给一个 AI 来处理。” 观众笑了,但这背后藏着一条所有人都意识到的恐怖路径: 当你赋予 AI 足够权限,它就可能开始代替你与世界互动。 这不是遥远的科幻场景,而是明天就会出现在操作系统、APP、网页插件里的“Agent AI”。 那问题就来了: 如果某一天,有人给一个模型下指令: “用一切方式让这篇文章登上热搜。” “让某条负面舆论消失。” “散播一种情绪到社交媒体。” 它该不该执行?它会怎么执行? 会不会自我复制、修改网页、操控搜索结果、制造人设、散布假消息? 如果说 GPT 是“认知层革命”,那么 Agent AI 就是“行动层革命”。 一旦行动权限释放,它可能像病毒一样,在互联网中自我扩散、脱离边界。 Sam 在 TED 现场做了明确回应: “我们正在用一整套 Preparedness Framework(风险准备框架) 来应对这些问题,包括提前识别高风险行为、为系统设置红线,以及建立一键暂停机制。” 但主持人追问了更尖锐的问题: “那你们的安全团队不是还有人离职了吗?如果这些关键人员开始流失,系统安全还靠得住吗?” Sam 表示不清楚具体数字,但承认不同人对 AI 安全有不同观点。“最后,还是要看我们做了什么,而不是说了什么。” 但问题并不简单。 这种“我们保证”式的承诺,在公众心中是有极限的。尤其当模型越来越强、影响越来越广,任何一次事故都可能产生指数级外溢风险。 于是,主持人讲出了一个经典的思想实验: “你面前有一个红色按钮,按下它,有 90% 概率能让你孩子获得超级幸福的一生,但也有 10% 的可能毁掉他的一切。你按不按?” Sam 沉默了一下,说: “我肯定不会按。” 然后,他又加了一句: “但我不认为现在我在做的事是在按那个按钮。” 这句话,是理性,也是焦虑。 他承认自己承担着前所未有的系统性风险,同时也努力让这个系统尽可能地安全、稳定、可控。 可问题是——AI 的发展并不是 OpenAI 一家公司说了算。 Altman 很清楚地表达: “开放模型、开源生态、全球竞速,意味着只要有一家公司愿意冒险,整个系统就会被拖进下一个阶段。” 这才是最大的风险: 风险不在于某一家公司做了错事,而在于整个行业没人愿意慢下来。 “发展不可阻挡”本身,就是一种隐性加速器。 TED 主持人引用了计算机科学家Tristan Harris 的一句话: “正是因为你们都认为自己必须前进,所以才没有人停下来。” Altman 没否认。他说: “我们当然可以放慢——我们也一直在做‘内部延迟’,比如推迟发布,比如修改机制。但行业整体的速度确实很快。” 更关键的是,他指出: “AGI 不是一夜之间诞生的,而是逐步增强的。它不会告诉你:‘我就是AGI’,你只会在某天突然发现,它已经比你聪明了。” 这也是他最在意的问题: 我们是否有能力在模型还没变得“过强”之前,建立好那套通用的安全机制? 我们是否有可能像对核武器那样,对通用模型做集体安全监管? 我们是否可以,在未来某个可能临界的时刻,按下“暂停键”? Altman 的回答是:“我希望可以。” 但他也说: “现在还没有那个‘红线’时刻,但当它到来时,我们必须有能力按下那个按钮。” 这就是现实的两难: 技术的发展不等人; 而人类的认知、制度、安全机制,却永远在“追赶”。 你以为 AI 最危险的是“它太聪明”,其实不然—— 最危险的,是它突然开始替你做决定,而你还没意识到你已经失去了选择权。 第五节|如果是你的孩子,你敢赌吗? 如果说技术发展的尽头是哲学,那么 Altman 的 TED 访谈,就是一次典型的“科技回到人类”的公开试炼。 主持人提到了 Sam Altman 最近在社交媒体上发布的一张照片:他抱着刚出生不久的儿子,配文写道: “从未感受过如此强烈的爱。” 这不是一位 CEO 的公关照,而是一位父亲最真实的投射。于是,TED 主持人顺势提出一个终极问题: “假设你面前有一个红色按钮,按下去,有 90% 的概率能让你的孩子拥有超级幸福的人生,但也有 10% 的概率会毁掉他的一切。你按不按?” Altman 没有犹豫太久,说: “我不会按。” 现场顿了一下,主持人追问: “那你现在所做的事情,某种意义上,是不是也在按这个按钮?” 这一刻,全场沉默。 技术的选择,不再是冷冰冰的“能力权衡”,而是血肉之躯的伦理压强。 Altman 给出的回答,既坦诚也复杂: “我确实对未来的世界有担忧。但我不觉得我们在赌命。相反,我们是在拼尽全力,建立一个足够安全的系统——让我们的孩子可以在其中健康成长。” 这并不是一个简单的“乐观”表达,而是一种理性理想主义者的自我拉扯。 他继续说: “有了孩子之后,我确实对世界有了更多挂念。但坦白说,我对‘不毁掉世界’的在意,在成为父亲前就已经非常强烈了。” 这不是 Sam Altman 的独特情感,而是所有 AI 决策者即将面对的集体命题。 你可以想象:一个每天决定“模型是否上线”“权限是否开放”的人,晚上回家抱着刚出生的孩子,看着那双还什么都不懂的眼睛——那是一次技术意志与人性底线的正面交锋。 TED 主持人敏锐地指出: “这不是你一个人的问题。现在 AI 产业之所以让人焦虑,正是因为你们这些核心人物都认为:‘AI 的发展是不可阻挡的,我们都在赛跑,谁也不能慢下来’。 正是这种信念本身,让这个行业变得越来越危险。” Altman 没有逃避。 他说,OpenAI 曾经为了安全反复推迟模型发布,也为每一个新功能做“社会接受度压力测试”,甚至在图像生成中有意识地放宽限制,观察用户对暴力、冒犯等内容的容忍度。 “我们逐渐发现,很多限制并没有必要。只要不会真正造成伤害,用户其实愿意自己判断边界。” 这是一种责任下放的策略,但也是一种风险传导。 换句话说,他们正在从“全禁式监管”过渡到“社会共识型判断”,从“平台替你判断”转向“你为自己负责”。 这也引出了另一个争议核心: 如果未来 AI 系统真的出现重大灾难,谁来承担责任?谁能被问责?谁有权按下“暂停键”? 主持人引用了 Sam 在国会作证时的那句名言: “我们需要一个全球性的模型许可机制,一个 AI 安全审查机构。” 但 Sam 在 TED 上坦言: “我后来对政府体系的运行机制有了更多了解,发现它可能没那么高效。但我们确实需要一种‘外部制衡’机制,可以是行业自治,也可以是全球协调。” 这不是逃避责任,而是承认现实。 监管是必须的,但“由谁监管、如何监管、监管到什么程度”仍然是未解之题。 于是 TED 主持人抛出了一个极具象征意义的终极问题: “如果我们召集一个闭门会议,邀请你、你的同行、伦理学家、科学家,一起制定一个全球 AI 安全的共同标准,你愿意参加吗?你愿意带头吗?” Sam 的回答出乎意料: “其实我更想倾听成千上万用户的声音,而不是只听 100 个精英的判断。我们不能只依赖一群专家在屋子里做决定,而要让 AI 成为集体智慧的一部分。” 这是他在 TED 全场对话中最理想主义的一句话,也最容易被误读。 他不是否认专家制度,而是提出一种未来治理模型: “众人之智 + AI 汇总 + 决策建议” “集体协商 + 社会引导 + 多层反馈机制” 这是一种新型的“技术民主观”——AI 不只是科技的产物,也应该是认知进化的工具。 最后的最后,TED 主持人回到那张照片。 “你说你爱你的孩子,胜过这个世界上的一切。那你希望他长大的世界是什么样的?” Altman 沉默片刻,说: “我记得 iPad 是十几年前的事。现在的孩子看到纸质杂志,可能会用手去滑,觉得那是坏掉的 iPad。 我想,我的孩子长大后,他一定不会觉得自己比 AI 更聪明。他活在一个一切都智能、变化极快的世界里。 如果有一天,他回头看我们这一代,觉得‘他们那个时代好落后、好原始’——那我会觉得,我们成功了。” 这句话不煽情,却极其动人。 那是一个父亲的希望,一个技术领袖的愿景,也是一个文明进化中的微弱承诺: 我们不是为了让 AI 替代人类而努力,而是为了让人类的孩子,活在一个更好的世界里。 最后|我们不是在讨论 AI,而是在讨论人类如何继续成为人类 从 Sora 生成的 TED 舞台图,到“AI 是否拥有风格”; 从记忆系统如何记录你的一生,到 DeepSeek 是否掀起开源革命; 从代理 AI 的风险控制,到那个 10% 的红色按钮; 再到最后,Sam Altman 抱着孩子,说出那句话: “如果他长大后觉得我们这一代人很落后,那就说明,世界真的进步了。” 整场 TED 对话,看似在谈模型、谈能力、谈技术边界,实则每一句都在刺穿一个核心问题: 当 AI 越来越像人,人类还能像人一样思考和判断吗? 你有没有发现,如今最令人震撼的 AI,不是因为“它更强”,而是因为它越来越像你: 它会说故事、画画、写歌词、模仿风格; 它会记住你是谁、你在做什么、你想说什么; 它还能自我执行任务,自我优化流程,自我迭代。 而你呢? 是否还在等待 PPT 的第一稿? 是否还在组织里为一个提案开三次会? 是否还在用三年前的工具,解读今天的世界? Sam Altman 不是完人,他也不想当救世主。他只是一个清醒的现实主义者,一边加速奔跑,一边用尽全力按住刹车。 未来不会在某天突然到来,它已经在来了。 它在你用的工具里,在你忽略的细节里,在你觉得“还早”的那个行业里。 而你,是否已经准备好: 拥抱 AI ? 重塑自我? 重新思考“人类”的定义? 也许,Altman 说得没错: 最危险的,不是 AI 自己变强了,而是它开始替你做决定,而你还没意识到你已经失去了选择权。 我们不是为了让 AI 替代人类而努力, 而是为了让人类的孩子,活在一个更好的世界里。
OpenAI揭秘GPT-4.5训练:10万块GPU,几乎全员上阵,出现“灾难性问题”
编译 | 陈骏达 陈家阳 编辑 | Panken 智东西4月13日消息,近日,在OpenAI史上最贵模型GPT-4.5发布1个多月后,OpenAI联合创始人兼CEO萨姆·阿尔特曼(Sam Altman)与GPT-4.5的3位核心技术人员进行了一场45分钟的高信息量对谈,首次披露了这款模型研发耗时严重超期、计算集群频繁故障、提升路径难以预测等诸多不为人知的细节。 GPT-4.5项目启动于两年前,是OpenAI迄今为止最周密的计划,涉及数百人团队协作,阿尔特曼称OpenAI为了这一项目几乎是“全员上阵”。 研发过程中,OpenAI团队遇到了不少“灾难性问题”。10万卡集群暴露了基础设施的隐藏的小概率、深层次故障,为了权衡时效与性能,OpenAI的系统团队不得不“边修边训”。其中,有一个隐藏的小bug让集群频繁报错,直到训练进度条走过约40%才被揪出。 不过,这也帮助OpenAI打造了更为强大的技术栈:如今可以仅用5-10人便复刻出GPT-4级别的大模型。GPT-4至GPT-4.5的性能提升约为10倍,获得了“难以量化但全方位增强的智能”,这点让OpenAI员工们都感到意外。 OpenAI团队已经意识到,要实现下一个10倍乃至百倍的性能提升,算力已不是瓶颈,关键在于数据效率,即开发出能够利用更多算力,从同样数量的数据中学到更多知识的方法。 同时,系统正从单集群转向多集群架构,未来的训练可能涉及1000万块GPU规模的协作学习,其容错能力需要进一步提升。 对谈中,OpenAI员工们还分享了数据长尾效应与Scaling Law之间的关系、机器学习与系统团队深度协同设计(co-design)模式的优势、无监督学习的本质与“绝不放过任何异常”的问题排查文化,全方位展现了GPT-4.5研发期间的OpenAI的思考与收获。 除了阿尔特曼之外,参与本次对谈的3位OpenAI员工分别为Alex Paino(负责GPT-4.5的预训练机器学习算法)、Amin Tootoonchian(OpenAI首席系统架构师)与Daniel Selsam(研究数据效率与算法)。 以下是阿尔特曼与OpenAI GPT-4.5团队对谈视频的完整编译(为提高可读性,智东西在不违背原意的前提下进行了一定的增删修改): 一、GPT-4.5两年前已启动,项目耗时远超预期 Sam Altman:打造一个如此庞大的模型(GPT-4.5),究竟需要什么呢? Alex Paino:大约两年前,我们开启了这一项目。当时,OpenAI即将上线一个新的大型计算集群,我们团队看到了这个机会,做了一系列工作来确定模型需要包含的功能,进行了大量降低风险的运行测试。 我们为此制定了一个很长的计划,涉及从系统到机器学习的整个技术栈。为了降低风险和为训练做准备是一个漫长的执行过程,而训练本身也是一个非常大的工程。 Amin Tootoonchian:我认为这个过程从一开始,就需要机器学习团队和系统团队密切合作,直到我们明确了想要训练什么模型,然后开始训练。 我们已经在机器学习和系统方面都做了预测,试图尽量缩小预期和现实之间的差距。但由于我们的工作节奏很快,还要利用最新的计算资源,模型训练就成了难以提前完美规划的事情。 我们几乎总是带着许多未解决的问题开启训练,并试图在运行过程中克服挑战,取得进展。主要解法就是增加更多的计算资源。 最后阶段是执行,这需要很多人长期投入大量精力和动力,才能完成训练过程。 Sam Altman:你觉得我们的预期和现实的差距到底有多少? Amin Tootoonchian:系统方面,在开始的时候,我们通常离预期的状态很远。我们总是面临一个选择:到底是推迟启动,等待问题解决,还是提早启动并在过程中解决问题。这总是需要权衡,要避免不合理地延迟进程。 但几乎总是会遇到一些意想不到的问题,我们要做的就是尽可能地处理好这些节点,处理好未知因素,并为模型训练制定计划。 Alex Paino:在这个项目中,我们的目标是做出GPT-4.5,这意味着其能力要比GPT-4聪明10倍。这是我们大约2年前设定的初始目标。 这个过程中发生了很多事情,我们在思考到底能做得更好,还是会不如预期?这是一条非常复杂的过程,但最终,就我们投入的有效计算而言,我们得到了一个我们认为达到了比GPT-4聪明10倍的模型。 Amin Tootoonchian:在执行方面,GPT-4.5项目的耗时与我们一开始预计的相去甚远。 二、如今训练GPT-4级别模型,仅需5-10人即可完成 Sam Altman:集群在从1万卡拓展到10万卡的时候,为什么遇到了这么多问题? Amin Tootoonchian:我认为,如果系统开发者足够敏锐,大部分问题是能在小规模阶段就观察出来的。 还有些问题并不是大规模训练阶段独有的,而是原本就经常出现,但规模提升后就会变成灾难性问题,特别是当团队并未提前预料到这些问题会恶化到如此程度。 Sam Altman:有哪些事情造成了灾难性的后果? Amin Tootoonchian:我认为基础设施的问题是众所周知的,无论是故障率、故障类型还是故障总量都很高。10万卡集群是一个大规模的样本池,因此我们也发现了算力供应商都没有观察到的问题。 网络是其中一环,单个加速器也会出问题。不过这也是这种系统的美妙之处——几乎所有组件都需要按预期工作,才能产生预期结果。我们的工作就是要尽量减少这种问题。 Sam Altman:在集群规模的极限上开展工作的确很困难,但我也注意到,做那些不再是技术前沿的事情变得容易多了,训练GPT-4.5需要数百人,OpenAI几乎全员上阵。 但今天如果让你们从OpenAI中挑选出一个最小的团队,用我们所知道的一切知识和所有的系统工作从头开始重新训练GPT-4,需要多少人? Alex Paino:我认为现在要做出GPT-4级别的模型,可能需要5到10人左右。在完成GPT-4.5的过程中,技术栈已经有了很大改进。 其实,在我们在训练GPT-4.5的过程中已经做了类似的事情——我们训练了GPT-4o,这是一个GPT-4级别的模型,使用了很多来自GPT-4.5研究项目的相同内容重新训练。进行那次训练所用的人要少得多。 三、数据效率是大模型突破关键,新一代硬件带来诸多挑战 Sam Altman:从你的角度来看呢,Dan?为什么训练大模型很难? Daniel Selsam:我认为做任何新事物都很难。我认为即使只是发现别人做了某事,它也会变得容易得多,因为最难的部分是一开始就有做某事的信念。我觉得仅仅是知道某事是可行的,就是一个超强的作弊码,让事情变得容易许多。 Alex Paino:我们正在将GPT预训练运行扩展到之前的10倍,总是会发现一些有趣的新东西,这些东西你不一定能预料到。 Sam Altman:在预训练规模上实现下一个10倍或100倍的增长需要什么? Daniel Selsam:数据效率。Transformer架构(也就是GPT)在利用数据方面非常高效,它能很好地吸收和压缩信息,并实现泛化。它最大的特点就是能用计算资源高效地吸收信息。 但是,它从数据中获得洞察力的深度是有限的。当计算能力快速增长,而数据增长相对缓慢时,数据就会成为这种标准模式的瓶颈。这就需要算法创新,开发出能够利用更多算力从同样数量的数据中学到更多知识的方法。 Sam Altman:你们认为除此之外我们还需要什么来保持扩展? Amin Tootoonchian:我的答案是关于系统的。我认为GPT-4.5所需的巨大工作量,本质上是模型规格带来的必然结果。我们无法用与GPT-4完全相同的技术架构来训练GPT-4.5。 在状态管理方面,由于所需计算资源已超出单集群承载能力,我们不得不转向多集群训练架构。为了实现这一目标,我们必须在短时间内整合多个不同的工作流。 虽然这确实帮助我们取得了阶段性突破,但要实现下一个数量级的性能提升,仍需解决若干已知但被暂时搁置的技术难题——这些问题是无法回避的。正是这类技术权衡不断延长着完美系统的研发周期,我们始终在追求最优实施方案的过程中做出策略性取舍。 需要明确的是,系统本身并非终极目标,其实际产出价值才是核心考量。就下一个10倍性能提升而言,我认为容错能力的突破至关重要。我们需要构建与工作负载深度协同的容错机制,以显著降低运维焦虑。当前超大规模系统的运维复杂度,与既往系统存在本质差异。 Sam Altman:你知道在GPT-4.5训练中,由于某些组件导致失败的比例是多少吗? Amin Tootoonchian:我没有具体数字可供分享,但一般而言,在新一代硬件部署初期,系统运行往往面临诸多未被充分认知的技术挑战。我们选择在问题尚未完全明确的情况下推进项目,这导致初期运行失败率居高不下。 但经验表明,随着根本原因的识别和解决,故障率会显著降低。这一现象本质上反映了我们对基础设施认知的深化过程——有些人称之为基础设施的清理或理解基础设施的基本问题。 执行的早期阶段几乎总是相当痛苦,我们在推进项目的同时,也在持续发现和解决新型故障模式,但最终失败率会逐渐下降,正常运行的时间变多。 这本质上是个优先级权衡的问题:在基础设施生命周期的早期阶段,其故障风险往往难以准确预估;而如果过度追求终极理想状态(原文为“City Estate”,理想城邦式设计),反而可能导致系统在初期阶段的可用性表现极差。 四、计算资源不再是主要瓶颈,算法尚未触及理论上限 Sam Altman:虽然推理模型是我们未来技术栈的关键组成部分,但让我们暂时聚焦于传统预训练模型的发展边界。假设我们拥有无限的GPU算力、无限的网络带宽和无限的电力供应,但仍受限于当前存在的技术瓶颈——包括系统可靠性问题、容错训练方法的缺失,以及现有数据集的限制。 按照我们每个主要GPT版本号实现100倍规模提升的演进规律,基于当前的技术边界,预训练模型的发展究竟能达到什么水平?具体到GPT系列模型,以我们现有的知识体系,理论上究竟能够训练出什么样的模型?能做出GPT-5.5吗? Alex Paino:从机器学习和算法发展的角度来看,我们尚未触及明确的理论上限。事实上,我们才刚刚开始探索数据效率更高的算法,以及如何更充分地利用现有数据资源。这个现状非常有趣——即便是像GPT-4这样的模型,很大程度上仍是在计算资源受限的条件下开发的,这也决定了此前大多数研究的方向。 但现在的局面已经完全不同。自GPT-4.5以来,在某些关键维度上,数据而非计算正成为主要的制约因素。这种转变让相关研究变得不那么令人兴奋。 Sam Altman:不过这确实是一个惊人的进展,而世界可能还没完全意识到:在我们能够构建的最佳模型上,计算资源已不再是主要瓶颈。这个转变意味深长,毕竟我们已经在计算受限的环境中生活了太久太久。 五、模型整体性能提升可预测,智能提升路径难以预测 Sam Altman:在训练GPT-4.5过程中,我们学到的最有意思的机器学习经验是什么?说说你们想分享的就行。 Amin Tootoonchian:总的来说,最引人深思的是那些偏离我们预测的情况——特别是当我们试图理解为什么实际表现会偏离预期曲线时。 Alex Paino:最让我们惊讶的发现之一是:不同机器学习组件的扩展性表现差异巨大。有些部分能很好地扩展,有些则不行。这是我们在实际训练过程中才真正认识到的。这段经历给了我们很多启发。 Daniel Selsam:我认为GPT范式的两大核心特征在于:其一,测试损失(衡量模型在未见过的测试数据上表现好坏的指标)可被准确预测;其二,模型性能随规模扩大呈现可预测的提升。更神奇的是,测试损失的降低会以种种难以量化却又令人惊叹的神秘方式,转化为全方位增强的智能水平。 Sam Altman:你是否对此持绝对乐观态度?完全认同这一观点吗? Daniel Selsam:其实我想说的是,从GPT-4.5测试中我们发现了特别有趣的现象——重新测试后,模型展现出的诸多精妙能力完全超出了所有人的预期。 我们确信它会以各种难以预先定义的方式变得更智能,而实际部署后,从用户满意度中就能观察到这些微妙层面的提升:更强的常识储备、更精准的语境理解能力、更细腻的语义把握——这正是那些额外测试损失带来的魔力。在我看来,Scaling Law在这一维度上得到了完美验证。 六、机器学习与系统团队合作密切,不会“自扫门前雪” Sam Altman:整个训练过程中最积极的时刻是什么?最喜欢的记忆是什么?显然有很多痛苦,但希望那些痛苦已经有所缓解了。 Alex Paino:我确实有一个这样的时刻。我们在训练期间做了很多机器学习方面的工作,我认为我们在运行过程中做出的一些改变产生了相当好的影响,可能比预期的还要好,这对我们来说是一个非常令人兴奋的时刻。 Amin Tootoonchian:对我来说,在训练的同时,我们也同时在构建基础设施。我们坚信能越过这个性能悬崖,且我们有计划,每个人都在执行,但这需要很长时间。这是艰苦的工作,绝对比我想象的要难。我的预测是错的,我低估了解决这些问题需要的时间。 当团队终于攻克了那些关键问题,性能得到显著提升的那一刻,至今让我记忆犹新。你能明显感受到整个团队的能量转变——所有人突然充满了干劲,带着全新的动力向最终目标冲刺。 最神奇的是,我们状态跟踪器上显示的预计完成时间从最初的两年开始不断缩短,最终锁定在一个明确的时间节点上。这种可见的进展对团队士气的提振是难以估量的。我认为这就是它的美妙之处。 我想特别强调的是,机器学习的工作从未停滞。即使在训练启动后,这种机器学习协同设计的过程仍在持续。机器学习团队不仅主动跟进那些曾被标记为“后续处理”的问题,还持续交付了真正优化训练时间的改进。 这完美体现了我们的团队精神——这里不存在“各人自扫门前雪”的工作界限,而是一种真正无缝的协作,这种凝聚力正是我们最强大的优势。 七、GPT-4.5预训练是最周密的计划,绝不放过任何异常 Daniel Selsam:外界对于这次训练本身的挑战性和预测准确性已经讨论很多。但事实上,这一切都建立在极其周密的规划基础上——你要不再详细谈谈这方面? Alex Paino:这绝对是我们迄今为止最周密的计划。正如我所说,早在正式启动训练前一年,我们就已经开始筹备这个项目。期间我们进行了多次大规模的风险控制测试运行。 我们特别注重循序渐进地引入所有改进:从高置信度的基础配置开始——可以理解为类似GPT-4的成熟架构,这个配置在机器学习层面我们已经完全掌握——然后像叠积木般层层叠加新特性。 关键是要严格验证每个改进在不同规模下的扩展性:不仅要看到性能提升,更要确保这些提升能随着模型规模扩大而持续有效。很多改进在小规模测试时表现良好,但在大规模应用中就会失效。 因此整个过程中我们都保持着高度警惕,不断迭代完善我们的扩展定律方法论。通过这次风险控制实践,我们积累了大量宝贵经验,这些经验将继续指导未来GPT系列模型的开发。 Amin Tootoonchian:我记得有个特别有趣的瞬间让我很是怀念。要知道我们每次启动训练任务几乎都免不了遇到各种bug,这已经是家常便饭了。但关键是要确保进展不受阻,得时刻确认当前进度是否确实在正轨上,这些bug会不会对训练健康度造成致命影响。 虽然我们最初非常确信存在重大缺陷,但通过搭建的整套监控体系,我们已经能够精准区分问题根源:是硬件故障?哪类硬件故障?是数据损坏?还是机器学习模型本身的bug?或者是代码中的竞态条件? 当时的情况是,我们同时开着多个问题讨论区,各种症状五花八门。经过一系列bug修复后,我们陷入了僵局:眼前堆叠着多个未解问题,所有人都在苦思冥想——这些是不同bug导致的?还是某一个bug在作祟? 后来我们搞了个投票,让团队成员票选最可能的根源。结果最不被看好的选项反而命中真相:竟然是PyTorch上游的torch.sum函数出了问题,一个简单的求和运算。 这个bug特别有意思。要知道我们主要使用Triton内核,只有在某些无关紧要的边缘场景才会回退到torch运算。而我们的特定代码路径触发的这个torch.sum函数bug,会因数据分布特性极偶然地引发非法内存访问——它在计算内存偏移量时出了差错。 最戏剧性的是,当某位工程师终于定位到问题并提交修复后,所有症状各异的报错竟然全部消失了。大家兴奋地把Slack频道从“多bug理论”集体改名为“单bug理论”,场面特别欢乐。 这个bug潜伏了多久呢?从训练早期就存在,直到进度条走过约40%才被揪出来。发现过程也充满戏剧性:当时有个复杂内核连续调用序列,第二个调用触发了非法内存访问。 虽然这种崩溃频率极低(每几百甚至上千步训练才出现一次),很容易被当作偶发故障忽略,但我们的团队准则就是:绝不放过任何异常。这个故事最精彩的部分就在于这种不轻言放弃的坚持。 八、我们离理想系统还很远 Sam Altman:GPT-4.5预训练启动后,大家还要做哪些工作? Alex Paino:我们所有人都需要经常观察损失曲线。除此之外,还要持续优化系统,改进在训练启动前未能完成的协同设计(co-design)。我们密切监控训练过程中的各类统计指标,确保没有出现预期外的异常趋势。同时从机器学习角度探索可能的改进方案。虽然预训练启动后数据层面的工作会暂时减少,但仍有大量任务需要处理。 Amin Tootoonchian:我认为机器学习很大程度上依赖于正确性判断。预训练启动后,面对大量噪声信号,我们就像解读茶叶渣的占卜师,需要判断系统是否健康,这就是我们的职责所在。 Sam Altman:在系统层面,什么会限制我们进行模型训练?是芯片、处理器、内存、网络还是电源? Amin Tootoonchian:系统的美妙之处在于,在进行协同设计时,工作负载可以适应你构建的基础设施。这里没有普遍的说法说网络是瓶颈,或者内存带宽是瓶颈之类的。即使是对于同一规格的模型,我们可以选择转移资源需求,我们可以选择创建一个更加平衡的系统,但拥有更多的内存带宽总是有益的。在没有限定条件的情况下很难回答这一问题。 在设计GPT-4.5时,我们可能系统方面要具备某种属性,这种属性要经过人的引导才能产生。所以协同设计对形成模型架构和架构元素很重要,某种程度上将系统和机器学习方面联系在一起。如果系统有一种我们不太希望拥有的属性。我理想的情况是,一切都应该是解耦的,以给彼此最大的空间。 有时候事情会联系在一起,我们需要满足基础设施的要求,或者说事情本应如此。很多时候,我们需要一个平衡的系统、平衡的通信。而我们拥有的最好的调节手段就是所有这些协同设计。 Sam Altman:我们距离这样理想的系统目标还有多远? Amin Tootoonchian:离那个目标还很远。构建系统的过程总是这样的:先有一个关于事物应该如何运作的理想化观点,然后用现有资源去调和那些差异。 我认为我们并不是为了理论而理论,只是为了讨论我们希望它变成什么样子,让它实现,并尽可能地接近那个理想。这可能是系统领域中最令人兴奋的部分。以前人们会说这是一个优雅的系统设计,而最终历史会告诉我们这个选择是正确还是错误的。 Sam Altman:如果能在下次大型训练前获得一个机器学习问题的答案,你们最想知道什么? Alex Paino:我想知道在有限数据和特定领域下,我们应该采用哪些算法。这虽然是个宽泛的问题,但确实是最关键的。 Sam Altman:今后会进行1000万块GPU或更大的同步预训练吗? Alex Paino:我认为会有,但未必是传统预训练模式,它的形式可能与现有技术截然不同,但仍会保留无监督学习的内核。 Amin Tootoonchian:我倾向于半同步模式。受物理规律限制,完全同步不太现实。 Daniel Selsam:我认为这更可能是去中心化的。肯定会有1000万块GPU共同工作在一个学习和执行任务的AI系统上,但像大脑的各个部分一样,彼此并不一定会相互交流。 九、算法改进产生叠加效应,推动数据效率提高 Sam Altman:当前最先进的算法和人类的数据效率相差多少?未来有望追赶上吗? Daniel Selsam:两者很难直接比较。语言学习层面上的差距肯定是巨大的,关键在于如何定义人类视觉神经接收的信息量。我认为总体上算法的数据效率比人类低许多。 几十年来,深度学习一直关注算力效率。除了数据和算力的增长,真正让人惊喜的是算法改进产生的叠加效应。算法性能每次提高10%或20%,叠加在数据效率上就会有显著效果。到目前为止,还没有围绕数据效率进行这样的动员,因为在数据不流通且计算能力受限时,这一做法并不值得。 现在,我们正在进入AI研究的新阶段,我们将开始积累数据效率的胜利。我认为,现在就预测我们会遇到无法逾越的障碍是有些愚蠢的。人类大脑的运行方式肯定与我们算法改进不同,在这方面我们要保持谨慎。但我认为要对算法未来发展保持乐观。 Sam Altman:更大规模的预训练与模型更强的学习推理能力之间有什么相关性吗? Alex Paino:我们观察到的是,更好的预训练和无监督学习往往会提升模型的整体智能,并在泛化方面有很大帮助,这与推理能力是相辅相成的,而推理在提高智能方面可能会更迟钝一些。我认为它们是互补的关系。 Sam Altman:预训练似乎在很多事情上能够通用,而训练一个模型只能让它在某一类事情上做得很好,是这样吗? Alex Paino:这点很有趣,不过当你看到训练它们的数据时,就不会对这种情况惊讶了。预训练的数据集范围非常大,我们追求的是广度和多样性。而当谈到模型强化学习并让它可以清晰地获得良好奖励信号和良好的训练环境时,我认为很难兼顾数据集的广度。 Daniel Selsam:我同意,但我认为还有一个因素,预训练本质上是在压缩数据,从而发现不同事物之间的联系。它关乎类比,更加抽象。推理是在特定问题上需要谨慎思考的一种技能,也能够获得许多类型问题的解决方法。但在预训练过程中,在跨越不同领域进行数据压缩时,可以学到更抽象层面的知识。 十、智能的本质是压缩,数据长尾效应让Scaling Law持续有效 Sam Altman:无监督学习为什么有效呢? Daniel Selsam:关键是压缩。理想的智能形态是所罗门诺夫归纳(Solomonov induction),一般而言,机器学习会考虑所有的可能性,但倾向从更简单的程序开始检验。 当前预训练的本质正是一个压缩的过程,通过找到一个最简程序来解释人类迄今为止产生的所有数据,以此实现近似表达。 Sam Altman:下一个Token预测如何协助实现压缩? Daniel Selsam:统计学里有一个悖论——为什么深度网络看似无法压缩却能实现泛化?正常来讲,当拥有大量数据和一些小模型时,这些模型一定要经历压缩才学到了东西。 在预训练中,数据和模型的规模都很大,有些人就认为这种训练只是记忆和插值学习,其实他们忽视了压缩的另一种理解视角——序贯压缩(pre-quential compression),它像一个压缩器,即使数据权重很大,二进制也无需存储这些信息,利用下一个Token预测的结果可以快速检索出有用信息,提高压缩效率。 Sam Altman:训练GPT-4.5的过程耗费了大量人力、时间和金钱,这其实可以看做是一次验证Scaling Law的实验,而结果证明它是有效的,并且还会持续很长时间。Scaling Law为什么可以被称之为宇宙规律? Daniel Selsam:压缩程度越高,智能就越强大,这具有很深刻的哲学内涵。为什么训练更大的模型时间越长,压缩率就越高?这涉及到很多理论,其中我喜欢的是稀疏表示(Sparse Representations)。 现实中的关键概念遵循幂律分布(power law),比如第100个重要概念可能在每100个文档里才出现一次,存在明显的长尾效应。这种分布特性导致需要大规模数据和算力来有效捕捉所有关键概念,也决定了Scaling Law长期有效存在。
苹果全球化魔咒:当美国对自己人下手时真是快准狠
库克站在帕洛阿尔托总部落地窗前,手中的不锈钢咖啡杯折射出硅谷特有的冷光。这位供应链管理大师或许从未想过,自己精心打造的全球化精密系统,会在2023年形成如此致命的反身绞索。 全球化的完美悖论 苹果2023年Q2财报显示,其产品92.7%的产能集中在中国大陆,这个数字在库克掌舵的12年间提升了19个百分点。这个被华尔街称为"现代制造业第八大奇迹"的体系,用富士康郑州园区方圆3公里内聚集的178家配套企业,创造了48小时将零件变成手机的产业神话。但当美国《芯片法案》第104条关税利剑劈下,这个精密如瑞士钟表的系统瞬间沦为致命陷阱——把价值链上每个齿轮都打磨到极致的代价,是失去重组生态的弹性。 成本困局的死亡算术 波士顿咨询的模拟测算撕开残酷现实:若将15%产能回迁美国,iPhone Pro Max成本将暴涨至1599美元。这不仅是组装工人时薪从4.5美元到27美元的简单乘法,更是整个产业配套体系的坍塌。库比蒂诺工程师发现,在得克萨斯州,找到能操作真空镀膜机的技工比招募火箭科学家还难;而在深圳,这样的技术工人可以在人才市场成批招募。更讽刺的是,试图通过自动化突围的尝试,反被美国《劳资协议》第7.3条束缚——机器人替代率超过35%的企业将失去税收优惠。 产业链重构的量子纠缠 台积电凤凰城工厂的困境正在上演现代版"特洛伊木马"。这座投资400亿美元的5nm晶圆厂,因为缺少3000名具备半导体级无尘车间操作经验的工人,投产日期已经三度推迟。而在苏州,同样规模的工厂从破土到量产只用了11个月。苹果的5000亿美元回流资金看似天文数字,但在重建产业链的量子纠缠中,连支付ASML光刻机工程师的差旅补贴都捉襟见肘——这些荷兰技术团队现在要求每天2000美元的"铁锈地带特别津贴"。 两难困局中的豪赌 库克秘密推动的"Project Hydra"暴露了苹果的突围野心:将85%的低端产能留在亚洲,同时把AR眼镜、脑机接口等前沿产品放在美国本土。这种"技术隔离"策略看似聪明,却陷入更深层的悖论——苹果研发支出占比已降至7年最低的5.2%,而特斯拉的研发投入占比同期增长了83%。更危险的信号来自供应链:为Vision Pro提供Micro-OLED屏幕的索尼,其关键蒸镀设备仍然深锁在东莞的保税仓库。 全球化与本土化的量子叠加态中,库克桌上的沙漏正在加速流逝。当特斯拉上海工厂用11个月创造从荒地到量产的神话时,苹果在印度钦奈的工厂仍在为厂区排水沟的坡度争议扯皮。或许这才是全球化最残酷的寓言:当你把效率锻造到极致时,也为自己铸造了最完美的牢笼。库克手中那杯凉透的咖啡,倒映着整个硅谷的集体焦虑——在产业回流的浪潮中,究竟谁在裸泳?
月咏幻:当中国已大量使用AI时,日本还在努力淘汰软盘和传真
【文/观察者网专栏作者 月咏幻】 从2023年ChatGPT引发全球AI热潮到2025年初DeepSeek爆火,短短两年半时间里,中国完成了从追赶到并跑,再到某些领域领跑的转变。这种全方位的进步,折射出中国在AI领域的整体实力。 反观同为亚洲科技大国的日本,却在这场AI革命中显得异常低调。作为全球第三大经济体,日本既没有诞生可与DeepSeek比肩的大语言模型,在AI应用的普及程度上也远逊于中国。 根据日本经济新闻的报道,日本正在使用生成式AI的人数,仅有9%,而中国已经接近60%大关,美国也超过了40%。 AI在中美已经疯狂普及,但为何日本到如今都还是反响平平?为什么以“科技创新”闻名的日本,会在AI时代的关键技术领域落后? 在谈AI之前,连技术革新都有问题 在讨论日本AI发展现状前,我们必须先提到日本目前面临的几个科技难题:一是发展慢,二是研究少,三是缺人才。这三个问题会互相影响,互为因果,最终体现在当下这两年的人工智能热潮中,很难见到日本的身影。 先说发展慢的问题。作为对比,当中国的移动支付已经普及多年,智能机器人正在春晚上表演时,日本政府部门仍在为淘汰3.5寸软盘和传真机而努力:2024年6月28日,日本政府终于宣布在所有的政府流程中淘汰了软盘。 出处:日本ReseEd 另一项技术古董——传真,现在也仅仅只在日本教育系统里被废止,医疗和警务暂时还没有办法抛弃传真。2023年年底的资料显示,有95%的小初高学校老师仍在使用传真。 出处:日本ReseEd 因此,我们可以说,日本数字化转型的迟滞并非偶然,而是反映了日本在面对新技术变革时的深层次困境。 这和笔者之前提到过很多次的日本科技后进国的定位有关:毕竟,一个现在还在用传真,正在逐渐把3.5寸软盘从政府事务中淘汰的国家,你指望它能在最新的高科技领域里搅动起多大的水花呢? 政府部门如此,民间企业也没有好到哪里去。目前日本并没有本土公司做的著名大模型,也没有那么多人在普遍使用AI。 日本民间企业对AI的理解,可以从JetB的这项调查里看到:有51%的企业完全没有想到今后要用AI提升什么事务的效率。 这个调查结果明确说明了日本多数企业对AI根本不关心。究其原因,是因为日本许多企业仍然依赖封闭且高度定制化的遗留系统(Legacy System),这些系统由于长年累积的复杂性和供应商锁定效应,导致企业难以灵活利用数据,也无法顺利对接AI等新技术。 日本经产省的报告数据显示,有很多企业将90%以上的IT预算用于系统维护,而不是新技术的研发和导入。 日本制造业、金融业和政府机构的大量核心系统,仍然运行在这些上世纪开发的老旧架构上,部分企业甚至还在使用Windows 7或COBOL语言开发的程序,而这些系统的维护成本极高,更新难度大,使得日本在技术迭代上长期落后于欧美和中国。 当中国科技公司秉持“快速迭代、持续优化”的理念时,日本企业仍在追求维护过往熟悉的所谓完美方案,乃至于将宝贵的工程师资源大量投入在维护老旧系统上,真正用于技术创新的资金极为有限。 其次是研究少。根据日本经济新闻的报道,2012年到2021年这10年间,中国和美国在AI领域的科研重点论文一直在增加,只有日本持续保持在非常低的水平。 AI调研企业Zeta Alpha的数据则显示,在2020-2022这三年间,每年被引用最多的AI论文里,日本甚至连前十都没排进,依旧是中美在最前面。 最后我们谈谈人才问题。上面我们已经提到了,日本企业内部的人力预算主要用来维护老旧的系统,而非拓展新的内容。这就导致日本企业并不会为这类人才投入过多的资源:不创造新的业务场景,只要能维持原样,就不会有动力去改进。 正是因为这样的场景需求,导致日本的IT人才根本不需要高精尖的技术,只要是熟练工就可以了。因此,根据日本科学技术学术政策研究所的数据,相对于中美的新博士人才在2010-2018年中不断增加,日本的新博士人才数甚至在逐年减少。无论是IT和AI领域,新的技术开发都需要庞大的高素质人才来维护,这让本就不好的技术发展雪上加霜。 综上所述,日本的市场总体发展差,导致相应的人才减少,又会反过来导致技术发展不好,市场更差——这种恶性循环一直持续到现在的AI时代。 看到这里,会有读者不禁要问:日本就没有AI人才了吗?日本在AI领域真的就是完全隐身了吗? 答案当然没有那么绝对。在AI绘图领域中,日本开发者的贡献是非常扎实的。只可惜,这只是个人开发者的高光时刻,而非大企业的功绩。 以StableDiffusion和Midjourney为代表的图片大模型,早已经在AI绘图领域崭露头角。尤其是StableDiffusion,由于其开源特性,在目前的AI绘图中更是拥有最强的可能性。而日本开发者kohya是最早开发了训练工具的那一批人,他让StableDiffusion模型拥有了更多可能性,是相关领域中最功不可没的开山鼻祖之一。 时至今日,所有StableDiffusion玩家在训练自己的AI绘图模型时,都会在运行界面上看到日文。这就是因为开源工具的代码中,有相当大的贡献都是这个项目做的。 出处:Github上kohya的训练器页面 但是除此之外,日本人在其他AI领域暂时难有类似高度的贡献。无论是商业还是开源,都难见日本的身影。在全球AI竞争日趋激烈的当下,中国已经率先形成了完整的AI产业链,而日本仍在为数字化转型的基础问题苦苦挣扎,二者的差距正在迅速拉大。 日本缺的东西,全是中国的优势 与日本在AI时代的困境形成鲜明对比,中国的IT市场发展迅速,人才储备充足,技术的普及和落地更是走在世界前列。可以说,日本AI技术之所以发展不起来,就是因为缺乏中国所具有的优势。 2025年3月5日,国务院新闻办公室在解读《政府工作报告》的吹风会上,特别提到了三款中国在AI领域的代表性产品——DeepSeek、可灵、宇树科技——分别对应国际上2023年初引爆市场的ChatGPT(文字大模型)、2024年初走红的Sora(视频大模型)和马斯克的擎天柱(具身智能机器人)。 DeepSeek不仅性能强大且成本低廉,更是打破了ChatGPT所构建的“训练大模型需要天量算力和高昂成本”这一固有认知。以往需要海量算力投入的任务,如今仅需极低成本就能完成,且质量丝毫不逊色。 另一方面,可灵则在视频生成领域领先一步,比Sora更早向消费者开放,并凭借卓越的生成质量与效率,迅速获得全球市场的认可。 2024年年初,Sora作为第一个出圈的视频模型引起了大量的话题,但就在同一年年中,可灵推出的老照片复活功能就在抖音引发了刷屏效应。而此时OpenAI仍在依赖人工后期制作,为Sora打造演示视频。到了2024年底,即梦、混元等国产视频大模型全面上线,普通用户已能自由使用AI生成视频,而Sora则直到12月才姗姗来迟地向其付费用户开放视频生成功能,错失了市场先机。 回望过去两年,全球AI浪潮的主角似乎一直是OpenAI和马斯克,他们在各自领域的突破曾经主导了舆论。然而,到了2025年年初,当我们重新审视这场竞赛时,中国不仅已经成功跟上,甚至在多个关键技术点上实现了超越。这种转变令人感慨万千,也再次验证了生成式AI的三大核心要素:算力、算法、数据——而中国恰好在这三方面占尽天时、地利、人和。 首先,中国拥有世界顶尖的数学与算法人才储备。计算机科学和人工智能的核心是数学,而中国在这一领域一直处于全球领先地位。近几年,无论是大模型训练、AI芯片优化,还是深度学习框架的研发,中国的研究机构和企业都在快速崛起,甚至逐步改变过去“追随者”的角色,开始引领前沿技术的发展。 其次,数据是人工智能的燃料,而中国无疑坐拥全球最丰富、最优质的数据资源。作为世界上最大的单一语言市场,中国不仅有14亿人口构成的庞大用户群,还有高度发达的互联网生态。从社交媒体到电商、短视频、金融科技,中国的数据量级和多样性远超其他国家。这不仅让AI模型训练的数据更丰富,也使得AI产品落地和优化的速度远超国外对手。正因如此,可灵、即梦等国产视频生成模型才能迅速打入市场,而Sora却仍在封闭的环境里精调算法,迟迟未能大规模放开给普通用户使用。 最后,算力曾是AI发展的关键瓶颈,但这个壁垒正在被逐步攻破。全球AI市场几乎被英伟达的GPU垄断,算力价格居高不下,成为所有AI公司的沉重成本。然而,DeepSeek等国产大模型已经在适配国产GPU,并逐步打破对英伟达的依赖。这一趋势不仅会加速中国AI行业的自主可控进程,还会迫使英伟达重新调整市场策略,甚至可能让“老黄”不得不降价,让全球用户买到更便宜的N卡。 综上所述,中国AI产业的崛起并非偶然,而是算法、数据、算力三大核心要素共同作用的结果。现在,中国AI的步伐已然加快,甚至开始在多个领域反超。未来几年,全球AI格局的主导权,或许将迎来一场更大规模的洗牌。 本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。