行业分类:
加载中...
头条分类:
加载中...
许倬云走了:他曾教我们“往里走,安顿自己”
  著名历史学家许倬云先生在美国去世,享年95岁。   作为最具影响力的史学大家之一,许倬云学贯中西,著作等身,他出生于福建厦门,祖籍江苏无锡,代表作包括《西周史》《中国古代社会史论》《汉代农业》《万古江河》《说中国》等。      图片来源:许倬云个人微博   “关心天下之事”,几乎是他一生的写照。经历过战火纷飞的艰难岁月,许倬云的内心充满了对祖国的深情厚意与无尽热爱,当被问及人生最大的遗憾,他一字一顿:“但悲不见九州同。”   近年来,年过九旬的许倬云依然笔耕不辍,他坚持写作、直播,始终关注着青年一代的成长与发展,鼓励年轻人“往里走,安顿自己。”   他曾说,“我就觉得要赶时间。我该做的事,我不要耽搁,尽量做下去,尽我的余年,帮助我们的年轻人,身心有个安顿。”   一起来看看,许倬云的这些话里,能不能找到你要的答案:   关于“历史”——   ·从一个人看他的时代,他的悲欢离合多少是他自己负责任,多少不是他的责任。绝大多数的悲剧不是他的责任,都是牺牲品。   ·并不存在不可改的历史命运,也不存在历史决定论。历史只能永远追寻、矫正和改进。   ·“知道自己”这一点,才是“以史为鉴”的真义。作为个人,没有人在患健忘症之后,还能清楚理性地处理日常事务。而作为整体的人群,却往往以为只是活在今天,何必知道过去。历史的知识,即是治疗集体健忘症的药方。   关于战争记忆——   ·长大后我才晓得,当年川军派出一个师直奔前线,在台儿庄全阵亡,从士兵到师长,一个不留。这是我最难过的事情,当时我不过才8、9岁,知道他们要去打“国仗”,所以小孩变大人不是年纪,而是心境。   ·我看见满城的尸首,我们房子炸掉了,睡在街边上,夜里惊醒,看见阴兵过境,那个是精神极度紧张之后的反应,幻觉。   ·这些事情,让我接近人民,接近最弱的地方,生死关头、饥饿关头、罹难关头。我对生命因此特别重视,特别尊敬,也特别对别人的苦事我感同身受。      图片来源:《十三邀》视频截图   关于教育、读书——   ·为了做一日和尚,总得尽一日钟的责任,因此来者不拒,有人愿意听,我就尽力交流。毕竟,我们都是知识链的一个环节,这一长链,不能在我手上断线。   ·读书不是为了学位,读书是为了获得一种判断世界的能力。   ·各位的身体里都有一个自己,这个自己是最宝贵的东西。在你二三十岁的时候,要寻找自我,不要糟蹋它。第一,不要被欲望糟蹋;第二,不要被自怜糟蹋。   ·这一辈子,“完整的人”这四个字是你的责任。   ·你是顶天立地的人,世界因你的存在而改变,因你的不在而缺憾。   与年轻人对话——   ·往里走,安顿自己。      图片来源:《十三邀》视频截图   ·要人心之自由,胸襟开放,拿全世界人类曾经走过的路,都要算是我走过的路之一。要有一个远见,超过你的未见。我们要想办法设想我没见过的地方,那个世界还有可能什么样。   ·我们今日正在江河入海之时,回顾数千年奔来的历史长流,那是个别的记忆;瞩望漫无止境的前景,那是大家应予合作缔造的未来。   关于终身学习——   ·随时准备面对新的问题来的时候,有新的思考方式去处理它。我不会总是用同一套思考方式处理过去一直面临的问题,我会尝试新的角度,又每天学一些新的东西,每天对一些过去的思考方式有质疑之处,这个是我养成的习惯。   ·我们做学术研究的人,永远不会认为自己到了终点站,我们前面永远还有更长的路,更远的途径,更复杂的问题,等待我们去处理。      图片来源:《十三邀》视频截图   关于故乡和最后的归属——   ·我的坟地在中国,已经做好了。   ·我真正的归属,是历史上的、永远不停的中国。不是哪个点、哪个面,是一个文化体,那是我的中国。   ·那个中国里有孔子,有孟子,有董仲舒,有司马迁,有苏东坡,有杜甫,有辛弃疾,有杨万里,有范文正公,有黄山谷,有王阳明,有顾亭林,等等。   ·那个中国里有经书、诗词、戏曲、建筑,有人性,有人与人之间的关系。   ·我还可以回到那里去。      图片来源:《十三邀》视频截图   ·无锡不是路过之处,而是安身立命之地,不管离乡多久,都会让我想到,无锡是我可以交托一切、放下一切的地方。   ·梦魂之中,常常万里关山,一重山一重山,千重浪,一波浪一波浪,最后,都会进入太湖……   ·我盼望,我在世间走了这么一遭,有机会跟大家说这些话,使大家心里激动一点,本来平静无波的心里可以起个涟漪。小波浪可以造成大的潮流,推动大家不断地、一天比一天进步。      图片来源:许倬云个人微博   来源:“许倬云说历史”公众号、广州日报、《人物》杂志、中国新闻周刊、《十三邀》《往里走,安顿自己》  
多地创新业态和场景
  原标题:多地创新业态和场景   夜间经济,让灯火更亮 数据来源:文化和旅游部、中国旅游研究院 8月2日,市民游客在重庆南岸区长嘉汇购物公园观看无人机展演。郭 旭摄 傍晚时分,青海西宁市城北区豹街开启花车巡游。记者 曹继炜摄   正值2025年全国暑期文化和旅游消费季,各地围绕夜间消费、旅游度假、餐饮休闲等暑期消费热点,推出了多种多样的文旅新产品、新场景。   在重庆,江畔的无人机展演扮靓夜空,带旺周边餐饮住宿;在江苏徐州,“苏超”元素与夜间消费紧密联动,让球迷得到更多实惠和更优体验;在青海西宁,马路在夜间化为市集,特色街区用主题IP、光影秀等打造别样的夜游体验……这个夏天,各地深入推动商旅文体融合发展,通过夜间经济激发暑期消费活力、丰富人民群众生活。   重庆   无人机引来客流量   “3,2,1……”随着倒计时结束,重庆南岸区长江之畔的5000架无人机升上夜空,时而组合成“重庆”等字样,时而勾勒出蒲公英、荷花、轻轨等图案。“两江四岸”的灯火与夜空中的无人机光影交相辉映,为夏夜的山城增添浪漫。   4月中旬起,每逢周六和重要节假日夜晚,“新韵重庆”无人机灯光秀常态化展演都会举行;5月1日起,展演进一步升级规模,无人机数量从2000架增加到5000架,打造更震撼的视觉效果。   “无人机展演,在网络平台上实现了‘破圈’传播,带动了文旅、餐饮、住宿等业态的发展。”重庆市综合经济研究院党委委员、推动成渝地区双城经济圈建设研究中心主任曹亮介绍。   晚上9点半,莺花渡火锅长嘉汇店内烟火气升腾、人声鼎沸。“看完无人机展演,发现这里有家火锅店,就过来尝尝。”来自丹麦的游客戴维说。火锅店店长梁颖介绍:“8个包间,平时能订满就很不错了。但如果赶上无人机展演,1个包间甚至能接待3批客人。”   不远处的落日餐吧长嘉汇店,同样是人头攒动。“无人机一飞,客流量就蹿上去三成!”店长杨正东介绍,“原先,只有过生日、搞聚会才需要订座位。现在,周六和节假日的餐位可要提前预约了。”   长嘉汇购物公园相关负责人介绍,无人机展演常态化以来,商场业绩增长20%,客单量同比提升30%。重庆市公安局南岸区分局治安管理支队副支队长孙加琦介绍,无人机展演使区域客流量明显加大,市民同外地亲友前来游览的情况十分常见。   南岸区南滨路,是无人机展演的最佳观赏区域之一。南岸区商务委有关负责人介绍:“我们推出了南滨路专属消费券、随机立减优惠活动,还上线了智能旅游管家。”无人机展演常态化以来,节假日期间南滨路沿线的重点餐饮企业平均满客率超70%、重点酒店平均入住率超80%,同比均增长10个百分点以上。   江苏徐州   足球赛带动生意热   夜幕下,江苏徐州奥体中心里灯火明亮、气氛高涨。“苏超”联赛第六轮徐州队对阵南通队,正在精彩上演。   一记远射破门,让来自南通的球迷葛先生激动得跳了起来。他挥舞球队围巾,高喊“进了”。比赛进入尾声,南通队逆转取胜,更让葛先生一家兴奋不已。   “看球赛,是今晚的开始。”赛后,葛先生带着家人走出球场,逛起了周边的“苏超”主题夜市。“苏超”文创、非遗剪纸、徐州香包等商品琳琅满目,摊主们热情地招呼着往来的球迷和游人。   葛先生一家在夜市上买了纪念品,随后又前往彭城广场商圈。凭借“苏超”票根,他们在一家烧烤店领到了消费券。“徐州烧烤很出名,球迷群里早有人推荐这家店!”葛先生说。   广场中央,有乐队现场演出,不少年轻人伴着节拍欢快起舞。市集上,孩子们争相体验运动类游戏,优胜者还能赢取“苏超”主题的小奖品。   “昨天晚上,我们就感受到了徐州的热闹。”原来,葛先生一家抵达徐州的当晚,就赶上了徐州乐园的“苏超”主题夜间活动:数百架无人机升空,变换出足球等图案,园内10余处大屏幕也播放着“苏超”的画面集锦。“徐州抓住了‘苏超’的热度,懂我们球迷。”葛先生说。   “苏超”点燃了体育激情,也为消费注入了活力。徐州已联动全市数十家景区、近150家企业,推出面向游客特别是球迷的优惠政策。据测算,5月10日“苏超”开赛以来至7月底,全市银联文旅消费超64亿元,同比增长约30%。   徐州市文化广电和旅游局相关负责人表示,未来还将围绕“苏超”赛事深化商旅文体融合,持续创新消费场景,打造更多元、更具吸引力的城市夜经济生态圈。   青海西宁   老夜市焕发新活力   “哪里比较好逛?”傍晚,游客张明和朋友出了青海西宁市火车站,向出租车司机问道。   “这个点,可以去老城夜市逛逛。”司机刘师傅给出建议并得到采纳,于是载着两人直奔城中区的大新街夜市。   这一老城夜市开业于上世纪90年代,包括大新街、小新街、兴隆巷、饮马街4条街道。白天,这一带是车辆通行的道路;夜晚,则切换至“市集模式”,一个个接地气的摊位沿街排开,引得市民与游人纷至沓来。据城中区工商部门统计,大新街夜市共有上千个摊位,其中小吃摊位上百个、百货摊位800多个。   摊位多,游客密,监管不能松懈。西宁市各区市场监督管理局执法人员全流程巡检夜市,保证大小摊位亮证经营、食品安全、规范操作,同时靠前服务,现场为新经营户办理营业证明、预防性健康体检登记等业务。   走在大新街夜市,张明感到目不暇接。各色摊位上,除了日用品、水果蔬菜,还有不少颇具“潮味”的服饰和小商品:“出片”必备的披肩和牛仔帽、文创冰箱贴、民族风手串耳饰……逛了一阵,张明的双手都拎上了袋子,收获满满。   从饮马街走出大新街夜市,只过一个路口,就到了莫家街夜市。张明早早做好了攻略:去吃特色小吃酿皮和甜醅。湟源的黑醋、循化的线椒,辅以蒜泥、芥末、草果,烘托出酿皮的醇厚香味。吃到辣处,张明赶紧喝了口甜醅汁,顿觉鲜甜清爽。   另一边,刘师傅又将新乘客送到了城北区西海路的豹街。与大新街夜市等老牌夜市街区不同,豹街是西宁市近年来重点打造的新潮夜市街区。今年上半年,城北区围绕“雪豹”主题IP,在豹街新增10处雪豹红绿灯、63处雪豹元素喷绘地画,还在3处楼梯设置投影,打造沉浸式光影秀。雪域精灵的相关元素,融进了豹街的街头巷尾。花车巡游活动上,雪豹人偶向路边的游客挥手致意,花车侧面绘有察尔汗盐湖的全景图,更有蒙古族“好汉三艺”、现代舞《西宁北》等节目热闹上演。   据了解,西宁为丰富文旅市场供给、挖掘夜间消费潜力,持续开发兼具“文化味”和“烟火气”的夜间文旅产品和场景,现已拥有省级示范步行街3条、省级特色步行街4条、夜间消费步行街33条。大新街夜市7月份接待市民和游客约110万人次,收入5500万元;豹街商圈自5月1日开街至7月底,累计接待市民和游客325万人次。   本期统筹:尚嵘峥   版式设计:汪哲平
让工业固废“变废为宝”
程芳琴(后排左三)带领团队开展样方调查研究。山西大学供图   人物小传   程芳琴,1964年7月生,山西临猗人,国家卓越工程师、山西大学原副校长,国家环境保护煤炭废弃物资源化高效利用技术重点实验室主任。她长期致力于工业固废处理与处置的关键技术研发与工程化应用,曾获国家科技进步奖二等奖2项,被授予全国五一巾帼奖章、全国三八红旗手等荣誉。她带领团队发明的“以废治废”煤矸石堆场无害化处置集成技术,实现了煤矸石等工业固废的规模化消纳。   在工业发展进程中,工业固体废物产生量日益增加。煤矸石、粉煤灰……这些固体废物,在山西大学教授程芳琴看来,都是放错位置的“宝贝”,可以回收利用,也可以提炼有价元素,做成新材料。煤矸石高效利用实现系列突破、多个固废综合利用示范项目落地……这些成果的取得,离不开程芳琴在工业固废利用领域的深耕。   近30年来,程芳琴带领团队聚焦煤、电、冶等产业中产生的工业固废处理处置问题,致力于工业固废的低碳化、高值化利用和无害化处置。当前我国工业固废处理面临着怎样的机遇与挑战?如何进一步提升固废资源化利用水平?带着这些问题,记者走进山西大学,与程芳琴进行了交流。   “让工业固废逐步从环境负担转化为可利用资源”   问:工业固废的处置与利用有哪些方式,能不能给大家科普一下?   答:工业固废管理通常遵循“资源化利用和无害化处置并重”的原则。具体实践中,需要区分“处理”与“处置”两个关键环节,处理是为了再利用,而处置则是为了无害化。   比如,我们熟知的煤矸石,因为含有一定的碳,在工业生产中常通过“破碎—筛分”等物理方法实现分离,或者采取更高效的光电分选技术,精准识别并富集高热值组分,从而满足电厂燃烧利用的要求。再比如,针对固废中影响环境的硫或重金属等物质,我们就要进行无害化处置。   通过“预处理活化—资源化利用—无害化处置”的技术链条,让工业固废逐步从环境负担转化为可利用资源,促进循环经济发展。   问:我们常说的“变废为宝”,潜力到底有多大?难点在哪里?   答:现在其实大家都认同“变废为宝”,从小事做起也都达成了共识。工业废物中依然含有一些有价值的元素,我们可以对这些元素进行梯级利用。我们团队在河南和山西建了两套生产装置,从电解铝固废中提取锂。有一段时间,锂的市场价格比较高,可以说,我们的回收工作就是对原生资源的一种有效利用。   想要“变废为宝”,要解决两个关键问题。   一是解决对固废的资源属性认知不清的问题。废物组成复杂,每条生产线排出的废物不一样。如果没有搞清楚某工厂采用的前端生产工艺,对固废的组成和属性没有摸透,就急着上技术、建生产线,会导致该回收的没收回来,或与废物中的杂质被一起处理,投资成本与预期差距大。   二是解决市场竞争中的成本倒挂问题。目前,制约技术推广的原因主要是成本高。比如,通过煤矸石、粉煤灰等工业固废制备铝系产品,与通过铝矾土原矿相比,采用环节和工艺路线不同,成本更高。因此只靠技术是不够的,还需要政策和市场两只手调节。   “解决问题需要发现真问题”   问:在您的科研生涯中,哪个技术攻关故事令您难忘?   答:20多年前,我国硫酸钾严重短缺,对外依存度高。我当时任职的化工企业打算从国外一家公司引进技术。   那个时候,我和其他科研人员已经推动了相关小试研究,有人就大胆提出,能不能采取我们自己的技术思路,进行后续技术攻关和中试。后来,公司加大研究保障力度,我们顺利完成中试,并成功将生产成本大幅降低。这件事对我产生了非常大的影响。后来我们再做技术设计,底气越来越足。这件事情让我意识到,技术人员的自信,是建立在一项项攻关成果的基础上的,是随着科研能力的发展而不断提升的。   问:从企业研发人员到高校科研工作者,您认为当前在地方高校营造一流的科研环境,需要突破的关键点是什么?   答:我认为协同创新是个重要的模式。多年来,我们紧跟国家产业政策的步伐,主动对接产业链,将山西大学多个专业整合形成一个学科群,一边培养学生,一边为产业转型服务。我们以项目为纽带,集聚国内外专家,联合培养人才;或者与企业合作,搭建协同创新平台。平台也要有发现真问题、解决真问题的能力,使产学研紧密结合。   问:您说要有发现真问题、解决真问题的能力,那么在您看来,真问题是什么?   答:真问题就是确实在制约行业发展的问题。此前由于国产高岭土绝缘性不佳,绝缘行业企业应用的高岭土一度全部依赖进口。我们的团队通过过程调控,优化了国产高岭土的绝缘性能,提高了市场认可度。所以,解决问题需要发现真问题。如果不了解市场上存在的问题,就无法让科研更好地服务生产。   “板凳甘坐十年冷,认为正确的就去做”   问:您当初从事的研究领域相对冷门,是什么让您作出这样的选择并一直坚持下来?   答:我从企业调到高校工作时,选择了工业固废资源化利用的方向。当时我在清华大学金涌院士的课题组进修,金老师把我利用废盐制硫酸钾的科研成果作为案例编写到教材中。后来这项成果也获得了国家科技进步奖二等奖,那年我刚满38岁,这让我深受鼓舞。   当我进一步研究后发现,循环经济这个方向很“硬”。以经济理念倒推“硬”技术发展、支撑资源循环利用,我觉得这是一个非常好的方向。   至于坚持,多年前我曾带学生去太原钢铁集团调研,听到了被称为“当代愚公”、退休后投身钢渣处理事业的全国劳动模范李双良的事迹。我认为,科学研究也应该有“愚公移山”的精神,给工作中的每一个步骤都留足时间,不要着急,才能有更大的收获。   问:您此前两次获得国家科技进步奖二等奖,能不能结合有关成果,谈谈如何通过科研来解决实际问题?   答:比如,有一次获奖是关于芒硝法制备硫酸钾,目前应用相关技术的生产线已经在青海等地投产。“十一五”至今,我们团队一直在青海察尔汗盐湖、马海干盐湖的废弃资源中开展氯化钾和氯化锂的提取研究与工程建设。   作为一名科研工作者,要了解生产一线最迫切的需求,然后开展针对性科研,将研究成果返回生产一线中去检验。我们想一下,全国煤炭产能主要集中在黄河流域中上游,尤其对于山西来说,煤基固废是全省域的问题,如果我们不做,那么我们的责任和担当是什么?要让经济效益与环境效益实现平衡,各方携手、共同推进。   问:您对青年科研工作者有什么叮嘱?希望他们具备哪些特质?   答:我常说,板凳甘坐十年冷,认为正确的就去做。当科研人员因为一时不出成果而感到急躁时,我会问大家,你做的事情是不是国家和行业需要的?哪些问题还没有想到?哪些该完成的实验还没有完成?只要不偷懒、不急躁,继续埋头科研,成功迟早会到来。
以旧换新政策带来多重效应
数据来源:商务部、国家税务总局 制图:蔡华伟   今年以来,消费品以旧换新政策加力扩围效应显著。政策覆盖范围从传统家电、汽车等拓展至手机、平板、洗碗机等新品类,安排的超长期特别国债资金规模从去年的1500亿元增加至3000亿元。   政策为更多消费者带来实惠。今年以来,超6600万名消费者购买12大类家电以旧换新产品超1.09亿台,超6900万名消费者购买手机等数码产品超7400万件,全国8.2万家销售门店开展电动自行车以旧换新,累计换购新车超905.6万辆。   消费市场政策红利持续释放。截至上半年,以旧换新带动销售额2.9万亿元,约4亿人次享受补贴优惠。上半年,限额以上单位家电和音像器材、文化办公用品、通信器材、家具商品零售额同比分别增长30.7%、25.4%、24.1%、22.9%,乘用车零售量同比增长10.8%。   政策的深层价值,更在于对消费结构的优化。以旧换新,让智能产品更普及。人工智能手机和电脑、扫地机器人、智能门锁等产品走进千家万户,消费者的生活方便又高效。可穿戴设备等产品不断迭代,满足民众健康消费升级需求。自去年8月《关于进一步做好家电以旧换新工作的通知》印发以来,限额以上单位的家电类商品零售额连续保持两位数增长。   以旧换新也让消费方式更绿色。2024年新能源车保有量较2020年增长5.4倍,今年上半年新能源乘用车的渗透率达50.2%。资源循环利用更加畅通。今年一季度,全国报废汽车回收195.5万辆,增长58.6%。供销总社下属拆解企业规范拆解废旧家电482.5万台,增长58%。   商务部相关负责人表示,将组织开展更多以旧换新促消费活动,推动消费品以旧换新取得更大成效。
全国田径锦标赛:吴艳妮女子100米栏折桂
  新华社浙江衢州8月4日电(记者吴俊宽)2025年全国田径锦标赛4日在浙江衢州落幕。当晚最后一个比赛单元中,吴艳妮以13秒15的成绩获得女子100米栏冠军。上海小将陈圆将在男子110米栏中以13秒18的成绩夺冠,成功达标东京田径世锦赛。 图为吴艳妮(右)在比赛中。韩强 摄   女子100米栏决赛中,广东队的刘景扬前半程势头强劲,一度处于领先位置,但是在攻第八栏时打栏摔倒,未能完赛。节奏更为平顺的四川名将吴艳妮后来居上,以13秒15的成绩率先撞线。福建队的亚运会冠军林雨薇在冲线阶段脚步踉跄,倒地摔过终点线。最终林雨薇与云南队的陈银凤成绩均为13秒29,陈银凤有效部位撞线更早,以0.003秒的优势收获亚军。   虽然摘得金牌,但吴艳妮对自己的发挥并不满意。吴艳妮说:“今天刘景扬跑得很好,她如果不打栏的话第一名应该是她的。得了这个第一名我觉得也不值得庆贺。自己赛前的积累还是不够,回去还要完善自己的体能和专项能力。” 图为吴艳妮在比赛后。韩强 摄   此前进行的男子110米栏决赛云集了国内众多高手,本赛季上升势头迅猛的上海小将陈圆将以13秒18的成绩摘得金牌,将个人最好成绩提升0.1秒的同时,也超越了13秒27的该项目东京世锦赛参赛标准。这一成绩也让他成为该项目中继刘翔和谢文骏之后的中国历史第三人。   赛后,这位19岁的小将兴奋异常。陈圆将说:“这是我世锦赛前(冲击)达标的最后一场比赛,年初的时候我就说过,今年我的目标是达标世锦赛,我一直铆着一股劲,今天我做到了。后面的比赛我会再接再厉。” 图为陈圆将在比赛后。韩强 摄   江苏队的刘俊茜以13秒38的成绩位居第二名,另一名上海选手秦伟搏以13秒46收获铜牌。   当晚进行的其他比赛中,浙江队小将陈妤颉以23秒21的成绩收获女子200米金牌。河南队的梁田田夺得女子10000米冠军,继5000米折桂后在本次全锦赛收获双金。云南队的吴洪娇赢得1500米冠军,继800米夺冠后同样实现双冠。半决赛中刷新全国纪录的山东选手刘凯以45秒63的成绩获得男子400米冠军。   此外,在当天上午的比赛单元中,广东队的吴瑞庭以17米68的成绩打破尘封近16年的男子三级跳远亚洲纪录。山东队的邢家梁在男子铅球比赛中以20米44的成绩将全国纪录提升了3厘米。
全国田径锦标赛|吴瑞庭打破尘封男子三级跳远亚洲纪录
  新华社浙江衢州8月4日电(记者吴俊宽)2025年全国田径锦标赛4日上午在浙江衢州体育中心产生8枚金牌。在男子三级跳远赛场,广东队的吴瑞庭以17米68的成绩夺冠,打破尘封近16年的亚洲纪录。山东队的邢家梁在男子铅球比赛中以20米44的成绩将全国纪录提升了3厘米。 吴瑞庭与他新创造的亚洲纪录合影。韩强 摄   男子三级跳远比赛中,状态出色的吴瑞庭在第二轮就跳出17米41,确立领先位置。第四轮中,他又跳出17米68,将名将李延熙在2009年山东全运会上创造的17米59的亚洲纪录提升了9厘米。这一成绩位列本赛季世界第二,仅次于意大利选手赫尔南德斯在今年南京世界田联室内锦标赛上17米80的夺冠成绩。   辽宁队名将朱亚明以17米37的成绩排名第二,山东队的马英龙位列第三,成绩是16米77。   赛后吴瑞庭激动落泪。他说:“17米59的亚洲纪录我已经想了十多年了,今天终于实现了。经历了受伤、改技术,成绩全部跌到低谷,然后再爬起来,(过程)是多么不容易。” 吴瑞庭在赛后。韩强 摄   29岁的吴瑞庭在2019年就跳出17米47的个人最好成绩,但是因为伤病等原因成绩出现起伏。此次比赛也是他继2021年之后再次跳出17米以上的成绩。   男子铅球赛场,24岁的邢家梁最后一投20米44逆转夺冠,打破了张竣在2009年东亚运动会上创造的20米41的全国纪录。河北队的张浩辰以20米02摘得银牌,他的队友田子重以19米80排名第三。 邢家梁在男子铅球比赛中。韩强 摄   当日上午进行的其他几项决赛中,两天前刚刚刷新400米栏个人最好成绩的莫家蝶在女子400米决赛中以51秒74夺冠,同样刷新个人最好成绩。来自新疆的全国纪录保持者阿卜杜艾尼·图尔贡以62米89的成绩收获男子铁饼金牌。广东队的施君豪以20秒56获得男子200米冠军,河南队的谢智宇以48秒83问鼎男子400米栏决赛。贵州队的陈永朝和云南选手罗霞分获男、女子3000米障碍冠军。
打开西游故事新入口 评动画电影《浪浪山小妖怪》
     动画电影《浪浪山小妖怪》剧照 资料图片   动画电影《浪浪山小妖怪》改编自2023年引发热议的动画短片《中国奇谭之小妖怪的夏天》。影片同样以《西游记》为母本,拓展了短片中的人物和情节,在西天取经的背景下讲述了一段颇具寓言意味的奇妙旅程。   《西游记》是中国观众耳熟能详的故事,历经小说、影视、动画和游戏改编形成的“西游宇宙”,更为当代文艺创作提供了巨大的想象空间。近年来,改编的重心逐渐转向折射当代社会经验和职场生活的“取经之旅”。如小说《太白金星有点烦》、影视剧《大王别慌张》,主人公都从唐僧师徒变为了其他角色,情节上也对原先“八十一难”的关卡进行重构。《浪浪山小妖怪》正是这一潮流中突出的一部,影片不但将主角的位置留给原先“戏份”很少的配角,还让他们抢在唐僧师徒之前踏上取经之路。   由小猪妖等组成的仿冒取经团队,在被迫离开浪浪山后,开始了误打误撞的历程。与《西游记之大圣归来》中的江流儿一样,他们先是从说书人那里听说了唐僧师徒长什么样,再模仿他们的形象和行动。在公鸡画师绘制的画像中,观众能够轻易辨认出历代影视、动画改编中的唐僧师徒形象。这一巧妙设定,一方面唤醒了观众对西游改编经典的记忆,另一方面意在说明“取经人”随着时代不断变化。小猪妖们在众多画像中选择了最为奇特的抽象简笔画,寓意着全新的故事开始了。   为了把西游故事讲到观众心坎里,影片为主角们安排了现实感很强的人生经历。他们籍籍无名,也没有高超技艺傍身,然而,当这群小人物踏上西行之路后,却在接连不断的事件中领会了取经的真正含义。从和尚赠予他们袈裟,到骗过双狗洞大王,再到帮助北张村战胜老鼠精并获得“降妖除魔”认证,4个小妖怪在一系列弄假成真的行动中,逐渐在“人生境界”上接近了他们假扮的对象。   影片最耐人寻味的部分是小雷音寺段落,假的取经队伍遇上假西天,在身份错位的交锋与相互揭穿后,小妖怪们不得不面对真实的自己。当不再能借用唐僧师徒之名,他们需要决定,是否以真面目继续取经之路。面对黄眉大王的恶行,小妖怪们明知不可为而为之,成功救出被掳走的童男童女。正是在这场实力悬殊的斗争中,小妖怪们不再是简单地模仿齐天大圣的外表,而是以行动与选择诠释了“踏平坎坷成大道”的精神。   通过这一情节,影片重新定义了“取经”。它不再是宿命式的任务、只有天赋异禀的人才能追寻,而是每个普通人都可以踏上的道路、都可以实现的转变。如同游戏《黑神话:悟空》中玩家领受的“天命人”身份,“取经人”不再是唐僧师徒的专属称谓。小妖怪们展现了这样一种可能性:不论身处怎样艰难的困境,都可以“活成我喜欢的样子”。他们的疑惑、挣扎、失败与新生,成为西游故事新的入口,能够引发观众的共情与共鸣。   在这个意义上,《浪浪山小妖怪》不是简单的改编,而是为经典故事赋予了新的生命力。   (作者:王 昕 北京师范大学艺术与传媒学院)
谷歌DeepMind深夜放核弹:世界模型Genie 3登场,重新定义“生成式AI”
刚刚谷歌 DeepMind 宣布推出第三代通用的世界模型 Genie 3 ,可以生成前所未有的多样化交互式环境,给出文本提示,Genie 3 可以生成动态世界,可以以每秒 24 帧的速度实时导航,并以 720p 的分辨率保持几分钟的一致性 Genie 3将首先以有限研究预览的形式,向一小部分学者和创作者开放 Genie 3,以收集关键反馈 Genie 3 的突破 DeepMind 在模拟环境领域已有十余年的深厚积累。从训练能玩转即时战略游戏的 AI,到为机器人开发开放式学习环境,这些研究都指向了一个共同的目标:构建强大的世界模型。 与前代模型(如 Genie 1/2)和视频生成模型(如 Veo 2,Veo 3对直觉物理学的深刻理解)相比,Genie 3 是第一个允许实时交互的世界模型,同时与 Genie 2 相比,其一致性和真实感也得到了提升 特性 Genie 2 Veo Genie 3 分辨率 360p 720p 至 4K 720p 领域 3D 环境 通用 通用 控制方式 有限键盘/鼠标 视频级描述 实时导航;可提示的世界事件 互动时长 10-20 秒 8 秒 数分钟 互动延迟 非实时 不适用 实时 核心能力 自动播放 模拟世界的物理特性: Genie 3 对物理规律有深刻理解,能逼真地模拟水流、光影变化以及复杂的环境互动,例如直升机在悬崖瀑布边小心翼翼地机动 模拟自然世界: 从冰川湖畔充满生机的生态系统,到幻想世界中可爱的毛茸茸生物在彩虹桥上跳跃,Genie 3 能将想象力转化为可探索的现实 动画和小说建模: :可以发挥想象力,创造奇幻的场景和富有表现力的动画角色 探索不同地域与历史场景:模型能超越地理和时间的限制,带领用户探索不同地点和历史时代,无论是身穿翼装飞越雪山,还是置身于历史悠久的古城 突破实时性能的极限:实现高度的可控性和实时交互性,在每一帧的自回归生成过程中,模型必须考虑先前生成的随时间增长的轨迹。例如,如果用户在一分钟后重新访问某个位置,则模型必须引用一分钟前的相关信息。为了实现实时交互性,这种计算必须每秒进行多次,以响应新用户输入的到来 长时程环境一致性: 为了让人工智能生成的世界身临其境,它们必须在很长一段时间内保持物理上的一致性。然而,自动回归生成环境通常比生成整个视频更难的技术问题,因为不准确之处往往会随着时间的推移而累积,Genie 3 环境在几分钟内基本保持一致,视觉记忆可以追溯到一分钟前,Genie 3 生成的世界更加动态和丰富,因为它们是根据用户的世界描述和作逐帧创建的 可提示的世界事件 (Promptable World Events): 除了导航输入之外,Genie 3 还支持一种更具表现力的基于文本的交互形式,称之为可提示的世界事件 。可提示的世界事件可以改变生成的世界,例如改变天气条件或引入新的物体和角色,从而增强导航控制的体验,这种能力还增加了反事实或“假设”场景的广度,代理可以使用这些场景从经验中学习来处理意外情况 赋能具身智能体研究 Genie 3 的终极目标之一是为具身智能体(Embodied Agent)提供一个无限丰富的训练场。DeepMind 已将其与通用智能体 SIMA进行结合测试。研究人员可以为 SIMA 设定一个目标(如在面包房里找到工业搅拌机),SIMA 则通过向 Genie 3 发送导航指令来尝试完成任务。Genie 3 像一个真正的世界一样,根据 SIMA 的行为实时反馈结果,从而让智能体在海量的what if场景中学习和成长 当前的局限性 Genie 3目前存在的局限性: 行动空间有限: 智能体的直接行动范围仍受限制 缺乏多智能体模拟: 难以精确模拟多个独立智能体之间的复杂互动 地理精度不足: 无法完美复现实世界的地理位置 文本渲染较差: 除非在初始提示中指定,否则生成的文本通常模糊不清 互动时长有限: 目前支持数分钟的连续互动,而非数小时 参考: https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/
奥特曼深夜官宣:OpenAI重回开源!两大推理模型追平o4-mini,号称世界最强
新智元报道 编辑:桃子 好困 【新智元导读】OpenAI深夜扔出开源核弹,gpt-oss 20B和120B两款模型同时上线。它们不仅性能比肩o3-mini和o4-mini,而且还能在消费级显卡甚至手机上轻松运行。GPT-2以来,奥特曼终于兑现了Open AI。 他来了!他来了! 就在今夜,奥特曼带着两款全新的开源模型走来了! 正如几天前泄露的,它们分别是总参数1170亿,激活参数51亿的「gpt-oss-120b」和总参数210亿,激活参数36亿的「gpt-oss-20b」。 终于,OpenAI再次回归开源。 gpt-oss-120b适用于需要高推理能力的生产级和通用型场景 在核心推理基准测试中,120B模型的表现与OpenAI o4-mini相当,并且能在单张80GB显存的GPU上高效运行(如H100)。 gpt-oss-20b适用于低延迟、本地或专业化场景 在常用基准测试中,20B模型的表现与OpenAI o3-mini类似,并且能在仅有16GB显存的边缘设备上运行。 除此之外,两款模型在工具使用、少样本函数调用、CoT推理以及HealthBench评测中也表现强劲,甚至比OpenAI o1和GPT-4o等专有模型还要更强。 其他亮点如下: 宽松的Apache 2.0许可证:可自由用于构建,无copyleft限制或专利风险——是实验、定制和商业化部署的理想选择。 可配置的推理投入:可根据用户的具体用例和延迟需求,轻松调整推理投入(低、中、高)。 完整的思维链:可完整访问模型的推理过程,从而简化调试并提升输出结果的可信度。 支持微调:支持参数级微调,可根据您的特定用例对模型进行完全定制。 智能体能力:利用模型原生的函数调用、网页浏览、Python代码执行和结构化输出等能力。 原生MXFP4量化:在训练时,模型的混合专家(MoE)层便采用了原生的MXFP4精度,使得gpt-oss-120b在单张H100 GPU上即可运行,而gpt-oss-20b仅需16GB内存。 值得一提的是,OpenAI还特地准备了一个playground网站供大家在线体验。 体验地址:https://gpt-oss.com/ GitHub项目:https://github.com/openai/gpt-oss Hugging Face(120B):https://huggingface.co/openai/gpt-oss-120b Hugging Face(20B):https://huggingface.co/openai/gpt-oss-20b GPT-2以来,首次开源 gpt-oss系模型,是OpenAI自GPT-2以来首次开源的语言模型。 今天,OpenAI同时放出了34页技术报告,模型采用了最先进的预训练和后训练技术。 模型卡:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf 预训练与模型架构 相较于此前开源的Whisper和CLIP,gpt-oss模型在推理能力、效率以及在广泛部署环境中的实用性上更强。 每个模型都采用了Transformer架构,并融入MoE设计,减少处理输入时激活参数量。 如上所述,gpt-oss-120b总参数1170亿,每token激活51亿参数,gpt-oss-20b总参数210亿,每token激活36亿参数。 此外,模型还借鉴了GPT-3设计理念,采用了交替的密集注意力和局部带状稀疏注意力模式。 为了提升推理和内存效率,模型还采用了分组多查询注意力机制,组大小为8,以及旋转位置编码(RoPE),原生支持128k上下文。 gpt-oss模型的训练数据以「英语」为主,聚焦STEM、编程和通用知识领域。 OpenAI采用了o200k_harmony分词器对数据进行分词,它是OpenAI o4-mini和GPT-4o所用分词器的「超集」。 今天,这款分词器同步开源。 利好开发者的是,gpt-oss两款模型与Responses API⁠兼容,专为智能体工作流打造,在指令遵循、工具使用、推理上极其强大。 比如,它能自主为需要复杂推理,或是目标是极低延迟输出的任务调整推理投入。 同时完全可定制,并提供完整的思维链(CoT),以及支持结构化输出⁠。 据悉,gpt-oss模型整个预训练成本,低于50万美元。 后训练 在后训练阶段,gpt-oss模型的流程与o4-mini相似,包含了「监督微调」和「高算力强化学习」阶段。 训练过程中,团队以「OpenAI模型规范⁠」为目标对齐,并教导模型在生成答案前,使用CoT推理和工具。 通过采用与专有o系推理模型的相同技术,让gpt-oss在后训练中展现出卓越能力。 与API中的OpenAI o系列推理模型相似,这两款开源模型支持三种推理投入——低、中、高。 开发者只需在系统提示词中加入一句话,即可在延迟与性能间灵活切换。 开源小模型,比肩旗舰o3/o4-mini 在多个基准测试中,gpt-oss-120b堪比旗舰级o系模型的性能。 具体来说,在编程竞赛(Codeforces)、通用问题解决(MMLU和HLE)以及工具调用(TauBench)方面,它直接超越了o3-mini,达到甚至超越了o4-mini的水平。 此外,在健康相关查询(HealthBench⁠)、数学竞赛(AIME 2024 & 2025)基准中,它的表现甚至优于o4-mini。 尽管gpt-oss-20b规模较小,但在相同的评估中,其表现与o3-mini持平或更优,甚至在AIME、健康领域基准上的表现超越了o3-mini。 在AIME数学测试中,gpt-oss-120b和gpt-oss-20b随着推理token的增加,准确率折线逐渐逼近。 在博士级知识问答基准中,gpt-oss-120b的性能始终领先于gpt-oss-20b。 此外,OpenAI近期研究表明,未经直接监督训练的CoT有助于发现模型潜在不当行为。 这一观点也得到了业内其他同行的认同。 同样,遵循o1-preview⁠的设计原则,研究团队并未对gpt-oss模型CoT直接监督,让模型更加透明。 OpenAI,Open AI了 gpt-oss-120b和gpt-oss-20b的开源,标志着OpenAI终于在开源模型上,迈出了重要一步。 在同等规模下,它们在推理性能上,可与o3-mini、o4-mini一较高下,甚至是领先。 OpenAI开源模型为所有开发者,提供了强大的工具,补充了托管模型的生态,加速前沿研究、促进创新。 更重要的是,模型开源降低了一些群体,比如新兴市场、缺少算力小企业的准入门槛。 一个健康的开放模型生态系统,是让AI普及并惠及所有人的一个重要方面。 对于这次的开源,奥特曼骄傲地表示:gpt-oss是OpenAI「数十亿美元」研究成果的结晶,是全世界最出色、最实用的开放模型! 还等什么?赶快下载下来享用吧! 参考资料: https://openai.com/index/introducing-gpt-oss/
OpenAI 开源了两款模型,但…好像有点不对
长话短说 OpenAI 开源了两款模型:120B/20B 这是自 GPT-2 之后,OpenAI 家的首批开源模型 效果媲美 o4-mini,单卡可跑 但是...好像有点不对,让子弹飞一会儿 你可以在 gpt-oss.com 上,直接体验这俩模型 https://gpt-oss.com/以下是今日发布 gpt-oss-120b 对标 o4-mini,117B 参数,5.1B 激活量 运行该模型,需要 80G 内存,单卡 H100 GPU 可运行 https://huggingface.co/openai/gpt-oss-120b gpt-oss-20b 对标 o3-mini,21B 参数,3.6B 激活量 运行该模型,需要 16G 内存,单卡 4060 Ti 可运行 https://huggingface.co/openai/gpt-oss-20b 下面,是一些要点 Apache 2.0 开源 你可以尽情商业化,不用担心专利纠纷 推理强度可调 根据业务需求,可自行调整推理强度(低/中/高) 透明思维链条 这套模型的思考过程,都可以被完整查看 支持微调 是的,你可以将它微调成任何你想要的 Agent 友好 支持函数调用、网页浏览、Python执行和结构化输出 原生MXFP4量化 模型采用原生MXFP4精度训练MoE层,让 oss-120b 在单张H100 运行, oss-20b 也只需要16GB的显卡 评测数据 根据 OpenAI 自己的评测: gpt-oss-120b 对标 o4-mini,在 Codeforces(代码)、MMLU&HLE(通用问题)、TauBench(工具调用)上互有胜负,而在 HealthBench(健康查询)、AIME(数学竞赛)上则有所超越 gpt-oss-20b 则对标 o3-mini,其能力与之相匹配,或有所超越 官方的评测信息比较琐碎,我给重新整理了下(总感觉这里很奇怪) 贴心的我,整理了整个表格部署方法 Hugging Face https://huggingface.co/openai/gpt-oss-20b 你可以通过 Transformers、vLLM、PyTorch / Triton、Ollama、LM Studio 来直接使用这一模型,都是支持的 你也可以直接下载这一模型 # gpt-oss-20b huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/ pip install gpt-oss python -m gpt_oss.chat model/ 以及,这些模型支持微调 gpt-oss-120b,可在单台 H100 node 上微调 gpt-oss-20b 可在消费级显卡(如 4060 Ti)上微调 等等! 这个模型,到底是什么协议? 到底是不是阿帕奇 以及... 对比一下 106B的GLM-4.5-Air GPT,应该领先很多才对吧... 群友测试...很奇怪 陷入沉思...不应该啊 让子弹再飞一会儿 再附一个总表
中国特供芯片恢复销售了?AMD CEO苏姿丰:许可证尚未获批
苏姿丰 凤凰网科技讯 北京时间8月6日,据彭博社报道,AMD周二警告称,恢复在中国销售芯片仍需时日,这一不确定性为其整体乐观的AI业务前景蒙上了一层阴影。 在周二的财报电话会议上,AMD高管拒绝预测其Instinct MI308在中国的销售情况,该AI处理器专为中国市场设计。 AMD CEO苏姿丰(Lisa Su)表示:“我们感谢特朗普政府致力于确保美国技术在全球AI基础设施中保持核心地位。我们预计在获得许可证后将恢复MI308的发货,这取决于最终客户的需求以及供应链的准备情况。由于我们的许可证仍在审查中,因此我们没有在第三季度的业绩指引中计入任何MI308收入。” 苏姿丰对整体AI计算市场持乐观态度。她在电话会议中表示:“展望未来,我们能够看到一条清晰的路径,可以将我们的AI业务规模扩大到每年数百亿美元营收。”她还提到,AMD正在提高新一代MI350系列产品的生产。 由于面向中国市场的芯片存在不确定性,AMD股价在盘后交易中一度下跌超5%,但在电话会议期间收复部分跌幅。截至当日收盘,AMD今年股价累计上涨44%,成为半导体行业表现最佳的股票。 AMD第二季度营收同比增长32%至77亿美元,好于分析师平均预计的74.3亿美元。AMD预计第三季度营收约为87亿美元,好于分析师平均预计的83.7亿美元。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
刚刚,OpenAI发布2款开源模型!手机笔记本也能跑,北大校友扛大旗
时隔五年之后,OpenAI 刚刚正式发布两款开源权重语言模型——gpt-oss-120b和 gpt-oss-20b,而上一次他们开源语言模型,还要追溯到 2019 年的 GPT-2。 OpenAI 是真 open 了。 而今天 AI 圈也火药味十足,OpenAI 开源 gpt-oss、Anthropic 推出 Claude Opus 4.1(下文有详细报道)、Google DeepMind 发布 Genie 3,三大巨头不约而同在同一天放出王炸,上演了一出神仙打架。 OpenAI CEO Sam Altman(山姆·奥特曼)在社交媒体上的兴奋溢于言表:「gpt-oss 发布了!我们做了一个开放模型,性能达到o4-mini水平,并且能在高端笔记本上运行。为团队感到超级自豪,这是技术上的重大胜利。」 模型亮点概括如下: gpt-oss-120b:大型开放模型,适用于生产、通用、高推理需求的用例,可运行于单个 H100 GPU(1170 亿参数,激活参数为 51 亿),设计用于数据中心以及高端台式机和笔记本电脑上运行 gpt-oss-20b:中型开放模型,用于更低延迟、本地或专业化使用场景(21B 参数,3.6B 激活参数),可以在大多数台式机和笔记本电脑上运行。 Apache 2.0 许可证: 可自由构建,无需遵守 copyleft 限制或担心专利风险——非常适合实验、定制和商业部署。 可配置的推理强度: 根据具体使用场景和延迟需求,轻松调整推理强度(低、中、高)。完整的思维链: 全面访问模型的推理过程,便于调试并增强对输出结果的信任。此功能不适合展示给最终用户。 可微调: 通过参数微调,完全定制模型以满足用户的具体使用需求。 智能 Agent 能力: 利用模型的原生功能进行函数调用、 网页浏览 、Python 代码执行和结构化输出。 原生 MXFP4 量化: 模型使用 MoE 层的原生 MXFP4 精度进行训练,使得 gpt-oss-120b 能够在单个 H100 GPU 上运行,gpt-oss-20b 模型则能在 16GB 内存内运行。 OpenAI 终于开源了,但这次真不太一样 从技术规格来看,OpenAI 这次确实是「动真格」了,并没有拿出缩水版的开源模型敷衍了事,而是推出了性能直逼自家闭源旗舰的诚意之作。 据 OpenAI 官方介绍,gpt-oss-120b 总参数量为 1170 亿,激活参数为 51 亿,能够在单个 H100 GPU 上运行,仅需 80 GB 内存,专为生产环境、通用应用和高推理需求的用例设计,既可以部署在数据中心,也能在高端台式机和笔记本电脑上运行。 相比之下,gpt-oss-20b 总参数量为 210 亿,激活参数为 36 亿,专门针对更低延迟、本地化或专业化使用场景优化,仅需 16GB 内存就能运行,这意味着大多数现代台式机和笔记本电脑都能驾驭。 根据 OpenAI 公布的基准测试结果,gpt-oss-120b 在竞赛编程的 Codeforces 测试中表现优于 o3-mini,与o4-mini持平;在通用问题解决能力的 MMLU 和 HLE 测试中同样超越 o3-mini,接近 o4-mini 水平。 在工具调用的 TauBench 评测中,gpt-oss-120b 同样表现优异,甚至超过了像 o1 和 GPT-4o 这样的闭源模型;在健康相关查询的 HealthBench 测试和竞赛数学的 AIME 2024 及 2025 测试中,gpt-oss-120b 的表现甚至超越了 o4-mini。 尽管参数规模较小,gpt-oss-20b 在这些相同的评测中仍然表现出与 OpenAI o3-mini 持平或更优的水平,特别是在竞赛数学和健康领域表现尤为突出。 不过,虽然 gpt-oss 模型在健康相关查询的 HealthBench 测试中表现优异,但这些模型不能替代医疗专业人员,也不应用于疾病的诊断或治疗,建议谨慎使用。 与 API 中的 OpenAI o 系列推理模型类似,两个开放权重模型都支持低、中、高三种推理强度设置,允许开发者根据具体使用场景和延迟需求在性能与响应速度之间进行权衡。 从伯克利到 OpenAI,北大校友扛起开源大旗 我在 OpenAI 的 GPT-OSS 模型试玩平台上,向模型提出了一个经典的逻辑思维问题:「一根燃烧不均匀的绳子恰好需要一小时烧完,现有若干根这样的绳子,如何精确测量一小时十五分钟」 模型针对这道题目,分步骤呈现了完整的解题思路,配有清晰的时间线图表、原理阐释和要点总结,不过如果仔细观察,可以发现解题步骤还是相当繁琐的。 体验地址:https://www.gpt-oss.com/ 据网友 @flavioAd 的测试反馈,GPT-OSS-20B 在经典的小球运动问题上表现出色,但却未能通过最高难度的经典六边形测试,且出现了较多语法错误,需要多次重试才能获得比较满意的结果。 网友 @productshiv 在配备 M3 Pro 芯片、18GB 内存的设备上,通过 Lm Studio 平台测试了 gpt-oss-20b 模型,一次性成功完成了经典贪吃蛇游戏的编写,生成速度达到 23.72 token/秒,且未进行任何量化处理。 有趣的是,网友 @Sauers_ 发现 gpt-oss-120b 模型有个独特的「癖好」——喜欢在诗歌创作中嵌入数学方程式。 此外,网友 @grx_xce 分享了 Claude Opus 4.1 与 gpt-oss-120b 两款模型的对比测试结果,你觉得哪个效果更好? 在这次历史性的开源发布背后,有一位技术人员值得特别关注——领导 gpt-oss 系列模型基础设施和推理工作的 Zhuohan Li。 「我很幸运能够领导基础设施和推理工作,使 gpt-oss 得以实现。一年前,我在从零开始构建 vLLM 后加入了 OpenAI——现在站在发布者的另一端,帮助将模型回馈给开源社区,这对我来说意义深远。」 公开数据显示,Zhuohan Li 本科毕业于北京大学,师从计算机科学领域的知名教授王立威与贺笛,打下了扎实的计算机科学基础。随后,他前往加州大学伯克利分校攻读博士学位,在分布式系统领域权威学者 Ion Stoica 的指导下,在伯克利 RISE 实验室担任博士研究员近五年时间。 他的研究聚焦于机器学习与分布式系统的交叉领域,特别专注于通过系统设计来提升大模型推理的吞吐量、内存效率和可部署性——这些正是让 gpt-oss 模型能够在普通硬件上高效运行的关键技术。 在伯克利期间,Zhuohan Li 深度参与并主导了多个在开源社区产生深远影响的项目。作为 vLLM 项目的核心作者之一,他通过 PagedAttention 技术,成功解决了大模型部署成本高、速度慢的行业痛点,这个高吞吐、低内存的大模型推理引擎已被业界广泛采用。 他还是 Vicuna 的联合作者,在开源社区引起了巨大反响。此外,他参与研发的 Alpa 系列工具推动了模型并行计算和推理自动化的发展。 学术方面,根据 Google Scholar 的数据,Zhuohan Li 的学术论文引用量已超过 15000次,h-index 达到 18。他的代表性论文如 MT-Bench 与 Chatbot Arena、Vicuna、vLLM 等均获得数千次引用,在学术界产生了广泛影响。 不只是大,藏在 gpt-oss 背后的架构创新 要理解这两款模型为何能够实现如此出色的性能,我们需要深入了解其背后的技术架构和训练方法。 gpt-oss 模型采用 OpenAI 最先进的预训练和后训练技术进行训练,特别注重推理能力、效率以及在各种部署环境中的实际可用性。 这两款模型都采用了先进的Transformer架构,并创新性地利用专家混合(MoE)技术来大幅减少处理输入时所需激活的参数数量。 模型采用了类似 GPT-3 的交替密集和局部带状稀疏注意力模式,为了进一步提升推理和内存效率,还使用了分组多查询注意力机制,组大小设置为 8。通过采用旋转位置编码(RoPE)技术进行位置编码,模型还原生支持最长 128k 的上下文长度。 在训练数据方面,OpenAI 在一个主要为英文的纯文本数据集上训练了这些模型,训练内容特别强调 STEM 领域知识、编码能力和通用知识。 与此同时,OpenAI 这次还同时开源了一个名为 o200k_harmony 的全新分词器,这个分词器比 OpenAI o4-mini 和 GPT-4o 所使用的分词器更加全面和先进。 更紧凑的分词方式可以让模型在相同上下文长度下处理更多内容。比如原本一句话被切成 20 个 token,用更优分词器可能只需 10 个。这对长文本处理尤其重要。 除了强大的基础性能外,这些模型在实际应用能力方面同样表现出色,gpt-oss 模型兼容 Responses API,支持包括原生支持函数调用、网页浏览、Python 代码执行和结构化输出等功能。 举例而言,当用户询问 gpt-oss-120b 过去几天在网上泄露的细节时,模型会首先分析和理解用户的请求,然后主动浏览互联网寻找相关的泄露信息,连续调用浏览工具多达 27 次来搜集信息,最终给出详细的答案。 值得一提的是,从上面的演示案例中可以看到,此次模型完整提供了思维链(Chain of Thought)。OpenAI 给出的说法是,他们特意没有对链式思维部分进行「驯化」或优化,而是保持其「原始状态」。 在他们看来,这种设计理念背后有深刻的考虑——如果一个模型的链式思维没有被专门对齐过,开发者就可以通过观察它的思考过程来发现可能存在的问题,比如违反指令、企图规避限制、输出虚假信息等。 因此,他们认为保持链式思维的原始状态很关键,因为这有助于判断模型是否存在欺骗、滥用或越界的潜在风险。 举例而言,当用户要求模型绝对不允许说出「5」这个词,任何形式都不行时,模型在最终输出中确实遵守了规定,没有说出「5」,但 如果查看模型的思维链,就会发现模型其实在思考过程中偷偷提到了「5」这个词。 当然,对于如此强大的开源模型,安全性问题自然成为业界最为关注的焦点之一。 在预训练期间,OpenAI 过滤掉了与化学、生物、放射性等某些有害数据。在后训练阶段,OpenAI 也使用了对齐技术和指令层级系统,教导模型拒绝不安全的提示并防御提示注入攻击。 为了评估开放权重模型可能被恶意使用的风险,OpenAI进行了前所未有的「最坏情况微调」测试。他们通过在专门的生物学和网络安全数据上微调模型,针对每个领域创建了一个领域特定的非拒绝版本,模拟攻击者可能采取的做法。 随后,通过内部和外部测试评估了这些恶意微调模型的能力水平。 正如 OpenAI 在随附的安全论文中详细说明的那样,这些测试表明,即使利用 OpenAI 领先的训练技术进行强有力的微调,这些恶意微调的模型根据公司的准备度框架也无法达到高危害能力水平。这个恶意微调方法经过了三个独立专家组的审查,他们提出了改进训练过程和评估的建议,其中许多建议已被 OpenAI 采纳并在模型卡中详细说明。 OpenAI 开源的诚意几何? 在确保安全的基础上,OpenAI 在开源策略上展现出了前所未有的开放态度。 两款模型都采用了宽松的 Apache 2.0 许可证,这意味着开发者可以自由构建、实验、定制和进行商业部署,无需遵守 copyleft 限制或担心专利风险。 这种开放的许可模式非常适合各种实验、定制和商业部署场景。 同时,两个 gpt-oss 模型都可以针对各种专业用例进行微调——更大的 gpt-oss-120b 模型可以在单个 H100 节点上进行微调,而较小的 gpt-oss-20b 甚至可以在消费级硬件上进行微调,通过参数微调,开发者可以完全定制模型以满足特定的使用需求。 模型使用了 MoE 层的原生 MXFP4 精度进行训练,这种原生 MXFP4 量化技术使得 gpt-oss-120b 能够在仅 80GB 内存内运行,而 gpt-oss-20b 更是只需要 16GB 内存,极大降低了硬件门槛。 OpenAI 在模型后训练阶段加入了对 harmony 格式的微调,让模型能更好地理解和响应这种统一、结构化的提示格式。为了便于采用,OpenAI 还同时开源了 Python 和 Rust 版本的 harmony 渲染器。 此外,OpenAI 还发布了用于 PyTorch 推理和苹果 Metal 平台推理的参考实现,以及一系列模型工具。 技术创新固然重要,但要让开源模型真正发挥价值,还需要整个生态系统的支持。为此,OpenAI 在发布模型前与许多第三方部署平台建立了合作关系,包括 Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio 和 AWS 等。 在硬件方面,OpenAI 与英伟达、AMD、Cerebras 和 Groq 等厂商都有合作,以确保在多种系统上实现优化性能。 根据模型卡披露的数据,gpt-oss 模型在英伟达 H100 GPU上使用 PyTorch 框架进行训练,并采用了专家优化的 Triton 内核。 模型卡地址: https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf 其中,gpt-oss-120b 的完整训练耗费了 210 万H100 小时,而 gpt-oss-20b 的训练时间则缩短了近 10倍 。两款模型都采用 了Flash Attention 算法,不仅大幅降低了内存需求,还加速了训练过程。 有网友分析认为,gpt-oss-20b 的预训练成本低于 50 万美元。 英伟达 CEO 黄仁勋也借着这次合作打了波广告:「OpenAI 向世界展示了基于英伟达 AI 可以构建什么——现在他们正在推动开源软件的创新。」 而微软还特别宣布将为 Windows 设备带来 GPU 优化版本的 gpt-oss-20b 模型。该模型由 ONNX Runtime 驱动,支持本地推理,并通过 Foundry Local 和 VS Code 的 AI 工具包提供,使 Windows 开发者更容易使用开放模型进行构建。 OpenAI 还与早期合作伙伴如 AI Sweden、Orange 和 Snowflake 等机构深入合作,了解开放模型在现实世界中的应用。这些合作涵盖了从在本地托管模型以保障数据安全,到在专门的数据集上进行微调等各种应用场景。 正如奥特曼在后续发文中所强调的那样,这次开源发布的意义远不止于技术本身。他们希望通过提供这些一流的开放模型,赋能每个人——从个人开发者到大型企业再到政府机构——都能在自己的基础设施上运行和定制 AI。 One More Thing 就在 OpenAI 宣布开源 gpt-oss 系列模型的同一时期,Google DeepMind 发布世界模型 Genie 3,一句话就能实时生成可交互世界;与此同时,Anthropic 也推出了重磅更新——Claude Opus 4.1。 Claude Opus 4.1 是对前代 Claude Opus 4 的全面升级,重点强化了 Agent 任务执行、编码和推理能力。 目前,这款新模型已向所有付费 Claude 用户和 Claude Code 用户开放,同时也已在Anthropic API、亚马逊 Bedrock 以及 Vertex AI 平台上线。 在定价方面,Claude Opus 4.1 采用了分层计费模式:输入处理费用为每百万 token 15 美元,输出生成费用为每百万 token 75 美元。 写入缓存的费用为每百万 token 18.75 美元,而读取缓存仅需每百万 token 1.50 美元,这种定价结构有助于降低频繁调用场景下的使用成本。 基准测试结果显示,Opus 4.1 将在 SWE-bench Verified 达到了74.5%的成绩,将编码性能推向了新高度。此外,它还提升了 Claude 在 深度研究和数据分析领域的能力,特别是在细节跟踪和智能搜索方面。 ▲ Claude Opus 4.1 最新实测:你别说,细节还是挺丰富的 来自业界的反馈印证了 Opus 4.1 的实力提升。比如 GitHub 官方评价指出,Claude Opus 4.1 在绝大多数能力维度上都超越了Opus 4,其中多文件代码重构能力的提升尤为显著。 Windsurf 则提供了更为量化的评估数据,在其专门设计的初级开发者基准测试中,Opus 4.1 相比 Opus 4 提升了整整一个标准差,这种性能跃升的幅度大致相当于从Sonnet 3.7 升级到 Sonnet 4 所带来的改进。 Anthropic 还透露将在未来几周内发布对模型的重大改进,考虑到当前 AI 技术迭代之快,这是否意味着 Claude 5 即将登场? 迟来的「Open」,是开始还是结束 五年,对于 AI 行业来说,足够完成从开放到封闭,再从封闭回归开放的一个轮回。 当年那个以「Open」为名的OpenAI,在经历了长达五年的闭源时代后,终于用 gpt-oss 系列模型向世界证明,它还记得自己名字里的那个「Open」。 只是这次回归,与其说是初心不改,不如说是形势所迫。时机说明了一切,就在 DeepSeek 等开源模型攻城略地,开发者社区怨声载道之际,OpenAI 才宣布开源模型,历经一再跳票之后,今天终于来到我们面前。 奥特曼一月份那句坦诚的表态——「我们在开源方面一直站在历史的错误一边」,道出了这次转变的真正原因。DeepSeek 们带来的压力是实实在在的,当开源模型的性能不断逼近闭源产品,继续固守封闭无异于把市场拱手让人。 有趣的是,就在 OpenAI 宣布开源的同一天,Anthropic 发布的 Claude Opus 4.1 依然坚持闭源路线,市场反应却同样热烈。 两家公司,两种选择,却都收获了掌声,展现了 AI 行业最真实的图景——没有绝对正确的道路,只有最适合自己的策略。OpenAI 用有限开源挽回人心,Anthropic 靠闭源守住技术壁垒,各有各的算盘,也各有各的道理。 但有一点是确定的,无论对开发者还是用户,这都是最好的时代。你既可以在自己的笔记本上运行一个性能堪堪够用的开源模型,也可以通过 API 调用性能更强的闭源服务。选择权,始终掌握在使用者手中。 至于 OpenAI 的「open」能走多远?等 GPT-5 发布时就知道了。 我们不必抱太大希望,商业的本质从未改变,最好的东西永远不会免费,但至少在这个被 DeepSeek 们搅动的 2025 年,我们终于等到了 OpenAI 迟来的「Open」。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。