EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
以旧换新政策带来多重效应
数据来源:商务部、国家税务总局 制图:蔡华伟   今年以来,消费品以旧换新政策加力扩围效应显著。政策覆盖范围从传统家电、汽车等拓展至手机、平板、洗碗机等新品类,安排的超长期特别国债资金规模从去年的1500亿元增加至3000亿元。   政策为更多消费者带来实惠。今年以来,超6600万名消费者购买12大类家电以旧换新产品超1.09亿台,超6900万名消费者购买手机等数码产品超7400万件,全国8.2万家销售门店开展电动自行车以旧换新,累计换购新车超905.6万辆。   消费市场政策红利持续释放。截至上半年,以旧换新带动销售额2.9万亿元,约4亿人次享受补贴优惠。上半年,限额以上单位家电和音像器材、文化办公用品、通信器材、家具商品零售额同比分别增长30.7%、25.4%、24.1%、22.9%,乘用车零售量同比增长10.8%。   政策的深层价值,更在于对消费结构的优化。以旧换新,让智能产品更普及。人工智能手机和电脑、扫地机器人、智能门锁等产品走进千家万户,消费者的生活方便又高效。可穿戴设备等产品不断迭代,满足民众健康消费升级需求。自去年8月《关于进一步做好家电以旧换新工作的通知》印发以来,限额以上单位的家电类商品零售额连续保持两位数增长。   以旧换新也让消费方式更绿色。2024年新能源车保有量较2020年增长5.4倍,今年上半年新能源乘用车的渗透率达50.2%。资源循环利用更加畅通。今年一季度,全国报废汽车回收195.5万辆,增长58.6%。供销总社下属拆解企业规范拆解废旧家电482.5万台,增长58%。   商务部相关负责人表示,将组织开展更多以旧换新促消费活动,推动消费品以旧换新取得更大成效。
全国田径锦标赛:吴艳妮女子100米栏折桂
  新华社浙江衢州8月4日电(记者吴俊宽)2025年全国田径锦标赛4日在浙江衢州落幕。当晚最后一个比赛单元中,吴艳妮以13秒15的成绩获得女子100米栏冠军。上海小将陈圆将在男子110米栏中以13秒18的成绩夺冠,成功达标东京田径世锦赛。 图为吴艳妮(右)在比赛中。韩强 摄   女子100米栏决赛中,广东队的刘景扬前半程势头强劲,一度处于领先位置,但是在攻第八栏时打栏摔倒,未能完赛。节奏更为平顺的四川名将吴艳妮后来居上,以13秒15的成绩率先撞线。福建队的亚运会冠军林雨薇在冲线阶段脚步踉跄,倒地摔过终点线。最终林雨薇与云南队的陈银凤成绩均为13秒29,陈银凤有效部位撞线更早,以0.003秒的优势收获亚军。   虽然摘得金牌,但吴艳妮对自己的发挥并不满意。吴艳妮说:“今天刘景扬跑得很好,她如果不打栏的话第一名应该是她的。得了这个第一名我觉得也不值得庆贺。自己赛前的积累还是不够,回去还要完善自己的体能和专项能力。” 图为吴艳妮在比赛后。韩强 摄   此前进行的男子110米栏决赛云集了国内众多高手,本赛季上升势头迅猛的上海小将陈圆将以13秒18的成绩摘得金牌,将个人最好成绩提升0.1秒的同时,也超越了13秒27的该项目东京世锦赛参赛标准。这一成绩也让他成为该项目中继刘翔和谢文骏之后的中国历史第三人。   赛后,这位19岁的小将兴奋异常。陈圆将说:“这是我世锦赛前(冲击)达标的最后一场比赛,年初的时候我就说过,今年我的目标是达标世锦赛,我一直铆着一股劲,今天我做到了。后面的比赛我会再接再厉。” 图为陈圆将在比赛后。韩强 摄   江苏队的刘俊茜以13秒38的成绩位居第二名,另一名上海选手秦伟搏以13秒46收获铜牌。   当晚进行的其他比赛中,浙江队小将陈妤颉以23秒21的成绩收获女子200米金牌。河南队的梁田田夺得女子10000米冠军,继5000米折桂后在本次全锦赛收获双金。云南队的吴洪娇赢得1500米冠军,继800米夺冠后同样实现双冠。半决赛中刷新全国纪录的山东选手刘凯以45秒63的成绩获得男子400米冠军。   此外,在当天上午的比赛单元中,广东队的吴瑞庭以17米68的成绩打破尘封近16年的男子三级跳远亚洲纪录。山东队的邢家梁在男子铅球比赛中以20米44的成绩将全国纪录提升了3厘米。
全国田径锦标赛|吴瑞庭打破尘封男子三级跳远亚洲纪录
  新华社浙江衢州8月4日电(记者吴俊宽)2025年全国田径锦标赛4日上午在浙江衢州体育中心产生8枚金牌。在男子三级跳远赛场,广东队的吴瑞庭以17米68的成绩夺冠,打破尘封近16年的亚洲纪录。山东队的邢家梁在男子铅球比赛中以20米44的成绩将全国纪录提升了3厘米。 吴瑞庭与他新创造的亚洲纪录合影。韩强 摄   男子三级跳远比赛中,状态出色的吴瑞庭在第二轮就跳出17米41,确立领先位置。第四轮中,他又跳出17米68,将名将李延熙在2009年山东全运会上创造的17米59的亚洲纪录提升了9厘米。这一成绩位列本赛季世界第二,仅次于意大利选手赫尔南德斯在今年南京世界田联室内锦标赛上17米80的夺冠成绩。   辽宁队名将朱亚明以17米37的成绩排名第二,山东队的马英龙位列第三,成绩是16米77。   赛后吴瑞庭激动落泪。他说:“17米59的亚洲纪录我已经想了十多年了,今天终于实现了。经历了受伤、改技术,成绩全部跌到低谷,然后再爬起来,(过程)是多么不容易。” 吴瑞庭在赛后。韩强 摄   29岁的吴瑞庭在2019年就跳出17米47的个人最好成绩,但是因为伤病等原因成绩出现起伏。此次比赛也是他继2021年之后再次跳出17米以上的成绩。   男子铅球赛场,24岁的邢家梁最后一投20米44逆转夺冠,打破了张竣在2009年东亚运动会上创造的20米41的全国纪录。河北队的张浩辰以20米02摘得银牌,他的队友田子重以19米80排名第三。 邢家梁在男子铅球比赛中。韩强 摄   当日上午进行的其他几项决赛中,两天前刚刚刷新400米栏个人最好成绩的莫家蝶在女子400米决赛中以51秒74夺冠,同样刷新个人最好成绩。来自新疆的全国纪录保持者阿卜杜艾尼·图尔贡以62米89的成绩收获男子铁饼金牌。广东队的施君豪以20秒56获得男子200米冠军,河南队的谢智宇以48秒83问鼎男子400米栏决赛。贵州队的陈永朝和云南选手罗霞分获男、女子3000米障碍冠军。
打开西游故事新入口 评动画电影《浪浪山小妖怪》
     动画电影《浪浪山小妖怪》剧照 资料图片   动画电影《浪浪山小妖怪》改编自2023年引发热议的动画短片《中国奇谭之小妖怪的夏天》。影片同样以《西游记》为母本,拓展了短片中的人物和情节,在西天取经的背景下讲述了一段颇具寓言意味的奇妙旅程。   《西游记》是中国观众耳熟能详的故事,历经小说、影视、动画和游戏改编形成的“西游宇宙”,更为当代文艺创作提供了巨大的想象空间。近年来,改编的重心逐渐转向折射当代社会经验和职场生活的“取经之旅”。如小说《太白金星有点烦》、影视剧《大王别慌张》,主人公都从唐僧师徒变为了其他角色,情节上也对原先“八十一难”的关卡进行重构。《浪浪山小妖怪》正是这一潮流中突出的一部,影片不但将主角的位置留给原先“戏份”很少的配角,还让他们抢在唐僧师徒之前踏上取经之路。   由小猪妖等组成的仿冒取经团队,在被迫离开浪浪山后,开始了误打误撞的历程。与《西游记之大圣归来》中的江流儿一样,他们先是从说书人那里听说了唐僧师徒长什么样,再模仿他们的形象和行动。在公鸡画师绘制的画像中,观众能够轻易辨认出历代影视、动画改编中的唐僧师徒形象。这一巧妙设定,一方面唤醒了观众对西游改编经典的记忆,另一方面意在说明“取经人”随着时代不断变化。小猪妖们在众多画像中选择了最为奇特的抽象简笔画,寓意着全新的故事开始了。   为了把西游故事讲到观众心坎里,影片为主角们安排了现实感很强的人生经历。他们籍籍无名,也没有高超技艺傍身,然而,当这群小人物踏上西行之路后,却在接连不断的事件中领会了取经的真正含义。从和尚赠予他们袈裟,到骗过双狗洞大王,再到帮助北张村战胜老鼠精并获得“降妖除魔”认证,4个小妖怪在一系列弄假成真的行动中,逐渐在“人生境界”上接近了他们假扮的对象。   影片最耐人寻味的部分是小雷音寺段落,假的取经队伍遇上假西天,在身份错位的交锋与相互揭穿后,小妖怪们不得不面对真实的自己。当不再能借用唐僧师徒之名,他们需要决定,是否以真面目继续取经之路。面对黄眉大王的恶行,小妖怪们明知不可为而为之,成功救出被掳走的童男童女。正是在这场实力悬殊的斗争中,小妖怪们不再是简单地模仿齐天大圣的外表,而是以行动与选择诠释了“踏平坎坷成大道”的精神。   通过这一情节,影片重新定义了“取经”。它不再是宿命式的任务、只有天赋异禀的人才能追寻,而是每个普通人都可以踏上的道路、都可以实现的转变。如同游戏《黑神话:悟空》中玩家领受的“天命人”身份,“取经人”不再是唐僧师徒的专属称谓。小妖怪们展现了这样一种可能性:不论身处怎样艰难的困境,都可以“活成我喜欢的样子”。他们的疑惑、挣扎、失败与新生,成为西游故事新的入口,能够引发观众的共情与共鸣。   在这个意义上,《浪浪山小妖怪》不是简单的改编,而是为经典故事赋予了新的生命力。   (作者:王 昕 北京师范大学艺术与传媒学院)
谷歌DeepMind深夜放核弹:世界模型Genie 3登场,重新定义“生成式AI”
刚刚谷歌 DeepMind 宣布推出第三代通用的世界模型 Genie 3 ,可以生成前所未有的多样化交互式环境,给出文本提示,Genie 3 可以生成动态世界,可以以每秒 24 帧的速度实时导航,并以 720p 的分辨率保持几分钟的一致性 Genie 3将首先以有限研究预览的形式,向一小部分学者和创作者开放 Genie 3,以收集关键反馈 Genie 3 的突破 DeepMind 在模拟环境领域已有十余年的深厚积累。从训练能玩转即时战略游戏的 AI,到为机器人开发开放式学习环境,这些研究都指向了一个共同的目标:构建强大的世界模型。 与前代模型(如 Genie 1/2)和视频生成模型(如 Veo 2,Veo 3对直觉物理学的深刻理解)相比,Genie 3 是第一个允许实时交互的世界模型,同时与 Genie 2 相比,其一致性和真实感也得到了提升 特性 Genie 2 Veo Genie 3 分辨率 360p 720p 至 4K 720p 领域 3D 环境 通用 通用 控制方式 有限键盘/鼠标 视频级描述 实时导航;可提示的世界事件 互动时长 10-20 秒 8 秒 数分钟 互动延迟 非实时 不适用 实时 核心能力 自动播放 模拟世界的物理特性: Genie 3 对物理规律有深刻理解,能逼真地模拟水流、光影变化以及复杂的环境互动,例如直升机在悬崖瀑布边小心翼翼地机动 模拟自然世界: 从冰川湖畔充满生机的生态系统,到幻想世界中可爱的毛茸茸生物在彩虹桥上跳跃,Genie 3 能将想象力转化为可探索的现实 动画和小说建模: :可以发挥想象力,创造奇幻的场景和富有表现力的动画角色 探索不同地域与历史场景:模型能超越地理和时间的限制,带领用户探索不同地点和历史时代,无论是身穿翼装飞越雪山,还是置身于历史悠久的古城 突破实时性能的极限:实现高度的可控性和实时交互性,在每一帧的自回归生成过程中,模型必须考虑先前生成的随时间增长的轨迹。例如,如果用户在一分钟后重新访问某个位置,则模型必须引用一分钟前的相关信息。为了实现实时交互性,这种计算必须每秒进行多次,以响应新用户输入的到来 长时程环境一致性: 为了让人工智能生成的世界身临其境,它们必须在很长一段时间内保持物理上的一致性。然而,自动回归生成环境通常比生成整个视频更难的技术问题,因为不准确之处往往会随着时间的推移而累积,Genie 3 环境在几分钟内基本保持一致,视觉记忆可以追溯到一分钟前,Genie 3 生成的世界更加动态和丰富,因为它们是根据用户的世界描述和作逐帧创建的 可提示的世界事件 (Promptable World Events): 除了导航输入之外,Genie 3 还支持一种更具表现力的基于文本的交互形式,称之为可提示的世界事件 。可提示的世界事件可以改变生成的世界,例如改变天气条件或引入新的物体和角色,从而增强导航控制的体验,这种能力还增加了反事实或“假设”场景的广度,代理可以使用这些场景从经验中学习来处理意外情况 赋能具身智能体研究 Genie 3 的终极目标之一是为具身智能体(Embodied Agent)提供一个无限丰富的训练场。DeepMind 已将其与通用智能体 SIMA进行结合测试。研究人员可以为 SIMA 设定一个目标(如在面包房里找到工业搅拌机),SIMA 则通过向 Genie 3 发送导航指令来尝试完成任务。Genie 3 像一个真正的世界一样,根据 SIMA 的行为实时反馈结果,从而让智能体在海量的what if场景中学习和成长 当前的局限性 Genie 3目前存在的局限性: 行动空间有限: 智能体的直接行动范围仍受限制 缺乏多智能体模拟: 难以精确模拟多个独立智能体之间的复杂互动 地理精度不足: 无法完美复现实世界的地理位置 文本渲染较差: 除非在初始提示中指定,否则生成的文本通常模糊不清 互动时长有限: 目前支持数分钟的连续互动,而非数小时 参考: https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/
奥特曼深夜官宣:OpenAI重回开源!两大推理模型追平o4-mini,号称世界最强
新智元报道 编辑:桃子 好困 【新智元导读】OpenAI深夜扔出开源核弹,gpt-oss 20B和120B两款模型同时上线。它们不仅性能比肩o3-mini和o4-mini,而且还能在消费级显卡甚至手机上轻松运行。GPT-2以来,奥特曼终于兑现了Open AI。 他来了!他来了! 就在今夜,奥特曼带着两款全新的开源模型走来了! 正如几天前泄露的,它们分别是总参数1170亿,激活参数51亿的「gpt-oss-120b」和总参数210亿,激活参数36亿的「gpt-oss-20b」。 终于,OpenAI再次回归开源。 gpt-oss-120b适用于需要高推理能力的生产级和通用型场景 在核心推理基准测试中,120B模型的表现与OpenAI o4-mini相当,并且能在单张80GB显存的GPU上高效运行(如H100)。 gpt-oss-20b适用于低延迟、本地或专业化场景 在常用基准测试中,20B模型的表现与OpenAI o3-mini类似,并且能在仅有16GB显存的边缘设备上运行。 除此之外,两款模型在工具使用、少样本函数调用、CoT推理以及HealthBench评测中也表现强劲,甚至比OpenAI o1和GPT-4o等专有模型还要更强。 其他亮点如下: 宽松的Apache 2.0许可证:可自由用于构建,无copyleft限制或专利风险——是实验、定制和商业化部署的理想选择。 可配置的推理投入:可根据用户的具体用例和延迟需求,轻松调整推理投入(低、中、高)。 完整的思维链:可完整访问模型的推理过程,从而简化调试并提升输出结果的可信度。 支持微调:支持参数级微调,可根据您的特定用例对模型进行完全定制。 智能体能力:利用模型原生的函数调用、网页浏览、Python代码执行和结构化输出等能力。 原生MXFP4量化:在训练时,模型的混合专家(MoE)层便采用了原生的MXFP4精度,使得gpt-oss-120b在单张H100 GPU上即可运行,而gpt-oss-20b仅需16GB内存。 值得一提的是,OpenAI还特地准备了一个playground网站供大家在线体验。 体验地址:https://gpt-oss.com/ GitHub项目:https://github.com/openai/gpt-oss Hugging Face(120B):https://huggingface.co/openai/gpt-oss-120b Hugging Face(20B):https://huggingface.co/openai/gpt-oss-20b GPT-2以来,首次开源 gpt-oss系模型,是OpenAI自GPT-2以来首次开源的语言模型。 今天,OpenAI同时放出了34页技术报告,模型采用了最先进的预训练和后训练技术。 模型卡:https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf 预训练与模型架构 相较于此前开源的Whisper和CLIP,gpt-oss模型在推理能力、效率以及在广泛部署环境中的实用性上更强。 每个模型都采用了Transformer架构,并融入MoE设计,减少处理输入时激活参数量。 如上所述,gpt-oss-120b总参数1170亿,每token激活51亿参数,gpt-oss-20b总参数210亿,每token激活36亿参数。 此外,模型还借鉴了GPT-3设计理念,采用了交替的密集注意力和局部带状稀疏注意力模式。 为了提升推理和内存效率,模型还采用了分组多查询注意力机制,组大小为8,以及旋转位置编码(RoPE),原生支持128k上下文。 gpt-oss模型的训练数据以「英语」为主,聚焦STEM、编程和通用知识领域。 OpenAI采用了o200k_harmony分词器对数据进行分词,它是OpenAI o4-mini和GPT-4o所用分词器的「超集」。 今天,这款分词器同步开源。 利好开发者的是,gpt-oss两款模型与Responses API⁠兼容,专为智能体工作流打造,在指令遵循、工具使用、推理上极其强大。 比如,它能自主为需要复杂推理,或是目标是极低延迟输出的任务调整推理投入。 同时完全可定制,并提供完整的思维链(CoT),以及支持结构化输出⁠。 据悉,gpt-oss模型整个预训练成本,低于50万美元。 后训练 在后训练阶段,gpt-oss模型的流程与o4-mini相似,包含了「监督微调」和「高算力强化学习」阶段。 训练过程中,团队以「OpenAI模型规范⁠」为目标对齐,并教导模型在生成答案前,使用CoT推理和工具。 通过采用与专有o系推理模型的相同技术,让gpt-oss在后训练中展现出卓越能力。 与API中的OpenAI o系列推理模型相似,这两款开源模型支持三种推理投入——低、中、高。 开发者只需在系统提示词中加入一句话,即可在延迟与性能间灵活切换。 开源小模型,比肩旗舰o3/o4-mini 在多个基准测试中,gpt-oss-120b堪比旗舰级o系模型的性能。 具体来说,在编程竞赛(Codeforces)、通用问题解决(MMLU和HLE)以及工具调用(TauBench)方面,它直接超越了o3-mini,达到甚至超越了o4-mini的水平。 此外,在健康相关查询(HealthBench⁠)、数学竞赛(AIME 2024 & 2025)基准中,它的表现甚至优于o4-mini。 尽管gpt-oss-20b规模较小,但在相同的评估中,其表现与o3-mini持平或更优,甚至在AIME、健康领域基准上的表现超越了o3-mini。 在AIME数学测试中,gpt-oss-120b和gpt-oss-20b随着推理token的增加,准确率折线逐渐逼近。 在博士级知识问答基准中,gpt-oss-120b的性能始终领先于gpt-oss-20b。 此外,OpenAI近期研究表明,未经直接监督训练的CoT有助于发现模型潜在不当行为。 这一观点也得到了业内其他同行的认同。 同样,遵循o1-preview⁠的设计原则,研究团队并未对gpt-oss模型CoT直接监督,让模型更加透明。 OpenAI,Open AI了 gpt-oss-120b和gpt-oss-20b的开源,标志着OpenAI终于在开源模型上,迈出了重要一步。 在同等规模下,它们在推理性能上,可与o3-mini、o4-mini一较高下,甚至是领先。 OpenAI开源模型为所有开发者,提供了强大的工具,补充了托管模型的生态,加速前沿研究、促进创新。 更重要的是,模型开源降低了一些群体,比如新兴市场、缺少算力小企业的准入门槛。 一个健康的开放模型生态系统,是让AI普及并惠及所有人的一个重要方面。 对于这次的开源,奥特曼骄傲地表示:gpt-oss是OpenAI「数十亿美元」研究成果的结晶,是全世界最出色、最实用的开放模型! 还等什么?赶快下载下来享用吧! 参考资料: https://openai.com/index/introducing-gpt-oss/
OpenAI 开源了两款模型,但…好像有点不对
长话短说 OpenAI 开源了两款模型:120B/20B 这是自 GPT-2 之后,OpenAI 家的首批开源模型 效果媲美 o4-mini,单卡可跑 但是...好像有点不对,让子弹飞一会儿 你可以在 gpt-oss.com 上,直接体验这俩模型 https://gpt-oss.com/以下是今日发布 gpt-oss-120b 对标 o4-mini,117B 参数,5.1B 激活量 运行该模型,需要 80G 内存,单卡 H100 GPU 可运行 https://huggingface.co/openai/gpt-oss-120b gpt-oss-20b 对标 o3-mini,21B 参数,3.6B 激活量 运行该模型,需要 16G 内存,单卡 4060 Ti 可运行 https://huggingface.co/openai/gpt-oss-20b 下面,是一些要点 Apache 2.0 开源 你可以尽情商业化,不用担心专利纠纷 推理强度可调 根据业务需求,可自行调整推理强度(低/中/高) 透明思维链条 这套模型的思考过程,都可以被完整查看 支持微调 是的,你可以将它微调成任何你想要的 Agent 友好 支持函数调用、网页浏览、Python执行和结构化输出 原生MXFP4量化 模型采用原生MXFP4精度训练MoE层,让 oss-120b 在单张H100 运行, oss-20b 也只需要16GB的显卡 评测数据 根据 OpenAI 自己的评测: gpt-oss-120b 对标 o4-mini,在 Codeforces(代码)、MMLU&HLE(通用问题)、TauBench(工具调用)上互有胜负,而在 HealthBench(健康查询)、AIME(数学竞赛)上则有所超越 gpt-oss-20b 则对标 o3-mini,其能力与之相匹配,或有所超越 官方的评测信息比较琐碎,我给重新整理了下(总感觉这里很奇怪) 贴心的我,整理了整个表格部署方法 Hugging Face https://huggingface.co/openai/gpt-oss-20b 你可以通过 Transformers、vLLM、PyTorch / Triton、Ollama、LM Studio 来直接使用这一模型,都是支持的 你也可以直接下载这一模型 # gpt-oss-20b huggingface-cli download openai/gpt-oss-20b --include "original/*" --local-dir gpt-oss-20b/ pip install gpt-oss python -m gpt_oss.chat model/ 以及,这些模型支持微调 gpt-oss-120b,可在单台 H100 node 上微调 gpt-oss-20b 可在消费级显卡(如 4060 Ti)上微调 等等! 这个模型,到底是什么协议? 到底是不是阿帕奇 以及... 对比一下 106B的GLM-4.5-Air GPT,应该领先很多才对吧... 群友测试...很奇怪 陷入沉思...不应该啊 让子弹再飞一会儿 再附一个总表
中国特供芯片恢复销售了?AMD CEO苏姿丰:许可证尚未获批
苏姿丰 凤凰网科技讯 北京时间8月6日,据彭博社报道,AMD周二警告称,恢复在中国销售芯片仍需时日,这一不确定性为其整体乐观的AI业务前景蒙上了一层阴影。 在周二的财报电话会议上,AMD高管拒绝预测其Instinct MI308在中国的销售情况,该AI处理器专为中国市场设计。 AMD CEO苏姿丰(Lisa Su)表示:“我们感谢特朗普政府致力于确保美国技术在全球AI基础设施中保持核心地位。我们预计在获得许可证后将恢复MI308的发货,这取决于最终客户的需求以及供应链的准备情况。由于我们的许可证仍在审查中,因此我们没有在第三季度的业绩指引中计入任何MI308收入。” 苏姿丰对整体AI计算市场持乐观态度。她在电话会议中表示:“展望未来,我们能够看到一条清晰的路径,可以将我们的AI业务规模扩大到每年数百亿美元营收。”她还提到,AMD正在提高新一代MI350系列产品的生产。 由于面向中国市场的芯片存在不确定性,AMD股价在盘后交易中一度下跌超5%,但在电话会议期间收复部分跌幅。截至当日收盘,AMD今年股价累计上涨44%,成为半导体行业表现最佳的股票。 AMD第二季度营收同比增长32%至77亿美元,好于分析师平均预计的74.3亿美元。AMD预计第三季度营收约为87亿美元,好于分析师平均预计的83.7亿美元。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
刚刚,OpenAI发布2款开源模型!手机笔记本也能跑,北大校友扛大旗
时隔五年之后,OpenAI 刚刚正式发布两款开源权重语言模型——gpt-oss-120b和 gpt-oss-20b,而上一次他们开源语言模型,还要追溯到 2019 年的 GPT-2。 OpenAI 是真 open 了。 而今天 AI 圈也火药味十足,OpenAI 开源 gpt-oss、Anthropic 推出 Claude Opus 4.1(下文有详细报道)、Google DeepMind 发布 Genie 3,三大巨头不约而同在同一天放出王炸,上演了一出神仙打架。 OpenAI CEO Sam Altman(山姆·奥特曼)在社交媒体上的兴奋溢于言表:「gpt-oss 发布了!我们做了一个开放模型,性能达到o4-mini水平,并且能在高端笔记本上运行。为团队感到超级自豪,这是技术上的重大胜利。」 模型亮点概括如下: gpt-oss-120b:大型开放模型,适用于生产、通用、高推理需求的用例,可运行于单个 H100 GPU(1170 亿参数,激活参数为 51 亿),设计用于数据中心以及高端台式机和笔记本电脑上运行 gpt-oss-20b:中型开放模型,用于更低延迟、本地或专业化使用场景(21B 参数,3.6B 激活参数),可以在大多数台式机和笔记本电脑上运行。 Apache 2.0 许可证: 可自由构建,无需遵守 copyleft 限制或担心专利风险——非常适合实验、定制和商业部署。 可配置的推理强度: 根据具体使用场景和延迟需求,轻松调整推理强度(低、中、高)。完整的思维链: 全面访问模型的推理过程,便于调试并增强对输出结果的信任。此功能不适合展示给最终用户。 可微调: 通过参数微调,完全定制模型以满足用户的具体使用需求。 智能 Agent 能力: 利用模型的原生功能进行函数调用、 网页浏览 、Python 代码执行和结构化输出。 原生 MXFP4 量化: 模型使用 MoE 层的原生 MXFP4 精度进行训练,使得 gpt-oss-120b 能够在单个 H100 GPU 上运行,gpt-oss-20b 模型则能在 16GB 内存内运行。 OpenAI 终于开源了,但这次真不太一样 从技术规格来看,OpenAI 这次确实是「动真格」了,并没有拿出缩水版的开源模型敷衍了事,而是推出了性能直逼自家闭源旗舰的诚意之作。 据 OpenAI 官方介绍,gpt-oss-120b 总参数量为 1170 亿,激活参数为 51 亿,能够在单个 H100 GPU 上运行,仅需 80 GB 内存,专为生产环境、通用应用和高推理需求的用例设计,既可以部署在数据中心,也能在高端台式机和笔记本电脑上运行。 相比之下,gpt-oss-20b 总参数量为 210 亿,激活参数为 36 亿,专门针对更低延迟、本地化或专业化使用场景优化,仅需 16GB 内存就能运行,这意味着大多数现代台式机和笔记本电脑都能驾驭。 根据 OpenAI 公布的基准测试结果,gpt-oss-120b 在竞赛编程的 Codeforces 测试中表现优于 o3-mini,与o4-mini持平;在通用问题解决能力的 MMLU 和 HLE 测试中同样超越 o3-mini,接近 o4-mini 水平。 在工具调用的 TauBench 评测中,gpt-oss-120b 同样表现优异,甚至超过了像 o1 和 GPT-4o 这样的闭源模型;在健康相关查询的 HealthBench 测试和竞赛数学的 AIME 2024 及 2025 测试中,gpt-oss-120b 的表现甚至超越了 o4-mini。 尽管参数规模较小,gpt-oss-20b 在这些相同的评测中仍然表现出与 OpenAI o3-mini 持平或更优的水平,特别是在竞赛数学和健康领域表现尤为突出。 不过,虽然 gpt-oss 模型在健康相关查询的 HealthBench 测试中表现优异,但这些模型不能替代医疗专业人员,也不应用于疾病的诊断或治疗,建议谨慎使用。 与 API 中的 OpenAI o 系列推理模型类似,两个开放权重模型都支持低、中、高三种推理强度设置,允许开发者根据具体使用场景和延迟需求在性能与响应速度之间进行权衡。 从伯克利到 OpenAI,北大校友扛起开源大旗 我在 OpenAI 的 GPT-OSS 模型试玩平台上,向模型提出了一个经典的逻辑思维问题:「一根燃烧不均匀的绳子恰好需要一小时烧完,现有若干根这样的绳子,如何精确测量一小时十五分钟」 模型针对这道题目,分步骤呈现了完整的解题思路,配有清晰的时间线图表、原理阐释和要点总结,不过如果仔细观察,可以发现解题步骤还是相当繁琐的。 体验地址:https://www.gpt-oss.com/ 据网友 @flavioAd 的测试反馈,GPT-OSS-20B 在经典的小球运动问题上表现出色,但却未能通过最高难度的经典六边形测试,且出现了较多语法错误,需要多次重试才能获得比较满意的结果。 网友 @productshiv 在配备 M3 Pro 芯片、18GB 内存的设备上,通过 Lm Studio 平台测试了 gpt-oss-20b 模型,一次性成功完成了经典贪吃蛇游戏的编写,生成速度达到 23.72 token/秒,且未进行任何量化处理。 有趣的是,网友 @Sauers_ 发现 gpt-oss-120b 模型有个独特的「癖好」——喜欢在诗歌创作中嵌入数学方程式。 此外,网友 @grx_xce 分享了 Claude Opus 4.1 与 gpt-oss-120b 两款模型的对比测试结果,你觉得哪个效果更好? 在这次历史性的开源发布背后,有一位技术人员值得特别关注——领导 gpt-oss 系列模型基础设施和推理工作的 Zhuohan Li。 「我很幸运能够领导基础设施和推理工作,使 gpt-oss 得以实现。一年前,我在从零开始构建 vLLM 后加入了 OpenAI——现在站在发布者的另一端,帮助将模型回馈给开源社区,这对我来说意义深远。」 公开数据显示,Zhuohan Li 本科毕业于北京大学,师从计算机科学领域的知名教授王立威与贺笛,打下了扎实的计算机科学基础。随后,他前往加州大学伯克利分校攻读博士学位,在分布式系统领域权威学者 Ion Stoica 的指导下,在伯克利 RISE 实验室担任博士研究员近五年时间。 他的研究聚焦于机器学习与分布式系统的交叉领域,特别专注于通过系统设计来提升大模型推理的吞吐量、内存效率和可部署性——这些正是让 gpt-oss 模型能够在普通硬件上高效运行的关键技术。 在伯克利期间,Zhuohan Li 深度参与并主导了多个在开源社区产生深远影响的项目。作为 vLLM 项目的核心作者之一,他通过 PagedAttention 技术,成功解决了大模型部署成本高、速度慢的行业痛点,这个高吞吐、低内存的大模型推理引擎已被业界广泛采用。 他还是 Vicuna 的联合作者,在开源社区引起了巨大反响。此外,他参与研发的 Alpa 系列工具推动了模型并行计算和推理自动化的发展。 学术方面,根据 Google Scholar 的数据,Zhuohan Li 的学术论文引用量已超过 15000次,h-index 达到 18。他的代表性论文如 MT-Bench 与 Chatbot Arena、Vicuna、vLLM 等均获得数千次引用,在学术界产生了广泛影响。 不只是大,藏在 gpt-oss 背后的架构创新 要理解这两款模型为何能够实现如此出色的性能,我们需要深入了解其背后的技术架构和训练方法。 gpt-oss 模型采用 OpenAI 最先进的预训练和后训练技术进行训练,特别注重推理能力、效率以及在各种部署环境中的实际可用性。 这两款模型都采用了先进的Transformer架构,并创新性地利用专家混合(MoE)技术来大幅减少处理输入时所需激活的参数数量。 模型采用了类似 GPT-3 的交替密集和局部带状稀疏注意力模式,为了进一步提升推理和内存效率,还使用了分组多查询注意力机制,组大小设置为 8。通过采用旋转位置编码(RoPE)技术进行位置编码,模型还原生支持最长 128k 的上下文长度。 在训练数据方面,OpenAI 在一个主要为英文的纯文本数据集上训练了这些模型,训练内容特别强调 STEM 领域知识、编码能力和通用知识。 与此同时,OpenAI 这次还同时开源了一个名为 o200k_harmony 的全新分词器,这个分词器比 OpenAI o4-mini 和 GPT-4o 所使用的分词器更加全面和先进。 更紧凑的分词方式可以让模型在相同上下文长度下处理更多内容。比如原本一句话被切成 20 个 token,用更优分词器可能只需 10 个。这对长文本处理尤其重要。 除了强大的基础性能外,这些模型在实际应用能力方面同样表现出色,gpt-oss 模型兼容 Responses API,支持包括原生支持函数调用、网页浏览、Python 代码执行和结构化输出等功能。 举例而言,当用户询问 gpt-oss-120b 过去几天在网上泄露的细节时,模型会首先分析和理解用户的请求,然后主动浏览互联网寻找相关的泄露信息,连续调用浏览工具多达 27 次来搜集信息,最终给出详细的答案。 值得一提的是,从上面的演示案例中可以看到,此次模型完整提供了思维链(Chain of Thought)。OpenAI 给出的说法是,他们特意没有对链式思维部分进行「驯化」或优化,而是保持其「原始状态」。 在他们看来,这种设计理念背后有深刻的考虑——如果一个模型的链式思维没有被专门对齐过,开发者就可以通过观察它的思考过程来发现可能存在的问题,比如违反指令、企图规避限制、输出虚假信息等。 因此,他们认为保持链式思维的原始状态很关键,因为这有助于判断模型是否存在欺骗、滥用或越界的潜在风险。 举例而言,当用户要求模型绝对不允许说出「5」这个词,任何形式都不行时,模型在最终输出中确实遵守了规定,没有说出「5」,但 如果查看模型的思维链,就会发现模型其实在思考过程中偷偷提到了「5」这个词。 当然,对于如此强大的开源模型,安全性问题自然成为业界最为关注的焦点之一。 在预训练期间,OpenAI 过滤掉了与化学、生物、放射性等某些有害数据。在后训练阶段,OpenAI 也使用了对齐技术和指令层级系统,教导模型拒绝不安全的提示并防御提示注入攻击。 为了评估开放权重模型可能被恶意使用的风险,OpenAI进行了前所未有的「最坏情况微调」测试。他们通过在专门的生物学和网络安全数据上微调模型,针对每个领域创建了一个领域特定的非拒绝版本,模拟攻击者可能采取的做法。 随后,通过内部和外部测试评估了这些恶意微调模型的能力水平。 正如 OpenAI 在随附的安全论文中详细说明的那样,这些测试表明,即使利用 OpenAI 领先的训练技术进行强有力的微调,这些恶意微调的模型根据公司的准备度框架也无法达到高危害能力水平。这个恶意微调方法经过了三个独立专家组的审查,他们提出了改进训练过程和评估的建议,其中许多建议已被 OpenAI 采纳并在模型卡中详细说明。 OpenAI 开源的诚意几何? 在确保安全的基础上,OpenAI 在开源策略上展现出了前所未有的开放态度。 两款模型都采用了宽松的 Apache 2.0 许可证,这意味着开发者可以自由构建、实验、定制和进行商业部署,无需遵守 copyleft 限制或担心专利风险。 这种开放的许可模式非常适合各种实验、定制和商业部署场景。 同时,两个 gpt-oss 模型都可以针对各种专业用例进行微调——更大的 gpt-oss-120b 模型可以在单个 H100 节点上进行微调,而较小的 gpt-oss-20b 甚至可以在消费级硬件上进行微调,通过参数微调,开发者可以完全定制模型以满足特定的使用需求。 模型使用了 MoE 层的原生 MXFP4 精度进行训练,这种原生 MXFP4 量化技术使得 gpt-oss-120b 能够在仅 80GB 内存内运行,而 gpt-oss-20b 更是只需要 16GB 内存,极大降低了硬件门槛。 OpenAI 在模型后训练阶段加入了对 harmony 格式的微调,让模型能更好地理解和响应这种统一、结构化的提示格式。为了便于采用,OpenAI 还同时开源了 Python 和 Rust 版本的 harmony 渲染器。 此外,OpenAI 还发布了用于 PyTorch 推理和苹果 Metal 平台推理的参考实现,以及一系列模型工具。 技术创新固然重要,但要让开源模型真正发挥价值,还需要整个生态系统的支持。为此,OpenAI 在发布模型前与许多第三方部署平台建立了合作关系,包括 Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio 和 AWS 等。 在硬件方面,OpenAI 与英伟达、AMD、Cerebras 和 Groq 等厂商都有合作,以确保在多种系统上实现优化性能。 根据模型卡披露的数据,gpt-oss 模型在英伟达 H100 GPU上使用 PyTorch 框架进行训练,并采用了专家优化的 Triton 内核。 模型卡地址: https://cdn.openai.com/pdf/419b6906-9da6-406c-a19d-1bb078ac7637/oai_gpt-oss_model_card.pdf 其中,gpt-oss-120b 的完整训练耗费了 210 万H100 小时,而 gpt-oss-20b 的训练时间则缩短了近 10倍 。两款模型都采用 了Flash Attention 算法,不仅大幅降低了内存需求,还加速了训练过程。 有网友分析认为,gpt-oss-20b 的预训练成本低于 50 万美元。 英伟达 CEO 黄仁勋也借着这次合作打了波广告:「OpenAI 向世界展示了基于英伟达 AI 可以构建什么——现在他们正在推动开源软件的创新。」 而微软还特别宣布将为 Windows 设备带来 GPU 优化版本的 gpt-oss-20b 模型。该模型由 ONNX Runtime 驱动,支持本地推理,并通过 Foundry Local 和 VS Code 的 AI 工具包提供,使 Windows 开发者更容易使用开放模型进行构建。 OpenAI 还与早期合作伙伴如 AI Sweden、Orange 和 Snowflake 等机构深入合作,了解开放模型在现实世界中的应用。这些合作涵盖了从在本地托管模型以保障数据安全,到在专门的数据集上进行微调等各种应用场景。 正如奥特曼在后续发文中所强调的那样,这次开源发布的意义远不止于技术本身。他们希望通过提供这些一流的开放模型,赋能每个人——从个人开发者到大型企业再到政府机构——都能在自己的基础设施上运行和定制 AI。 One More Thing 就在 OpenAI 宣布开源 gpt-oss 系列模型的同一时期,Google DeepMind 发布世界模型 Genie 3,一句话就能实时生成可交互世界;与此同时,Anthropic 也推出了重磅更新——Claude Opus 4.1。 Claude Opus 4.1 是对前代 Claude Opus 4 的全面升级,重点强化了 Agent 任务执行、编码和推理能力。 目前,这款新模型已向所有付费 Claude 用户和 Claude Code 用户开放,同时也已在Anthropic API、亚马逊 Bedrock 以及 Vertex AI 平台上线。 在定价方面,Claude Opus 4.1 采用了分层计费模式:输入处理费用为每百万 token 15 美元,输出生成费用为每百万 token 75 美元。 写入缓存的费用为每百万 token 18.75 美元,而读取缓存仅需每百万 token 1.50 美元,这种定价结构有助于降低频繁调用场景下的使用成本。 基准测试结果显示,Opus 4.1 将在 SWE-bench Verified 达到了74.5%的成绩,将编码性能推向了新高度。此外,它还提升了 Claude 在 深度研究和数据分析领域的能力,特别是在细节跟踪和智能搜索方面。 ▲ Claude Opus 4.1 最新实测:你别说,细节还是挺丰富的 来自业界的反馈印证了 Opus 4.1 的实力提升。比如 GitHub 官方评价指出,Claude Opus 4.1 在绝大多数能力维度上都超越了Opus 4,其中多文件代码重构能力的提升尤为显著。 Windsurf 则提供了更为量化的评估数据,在其专门设计的初级开发者基准测试中,Opus 4.1 相比 Opus 4 提升了整整一个标准差,这种性能跃升的幅度大致相当于从Sonnet 3.7 升级到 Sonnet 4 所带来的改进。 Anthropic 还透露将在未来几周内发布对模型的重大改进,考虑到当前 AI 技术迭代之快,这是否意味着 Claude 5 即将登场? 迟来的「Open」,是开始还是结束 五年,对于 AI 行业来说,足够完成从开放到封闭,再从封闭回归开放的一个轮回。 当年那个以「Open」为名的OpenAI,在经历了长达五年的闭源时代后,终于用 gpt-oss 系列模型向世界证明,它还记得自己名字里的那个「Open」。 只是这次回归,与其说是初心不改,不如说是形势所迫。时机说明了一切,就在 DeepSeek 等开源模型攻城略地,开发者社区怨声载道之际,OpenAI 才宣布开源模型,历经一再跳票之后,今天终于来到我们面前。 奥特曼一月份那句坦诚的表态——「我们在开源方面一直站在历史的错误一边」,道出了这次转变的真正原因。DeepSeek 们带来的压力是实实在在的,当开源模型的性能不断逼近闭源产品,继续固守封闭无异于把市场拱手让人。 有趣的是,就在 OpenAI 宣布开源的同一天,Anthropic 发布的 Claude Opus 4.1 依然坚持闭源路线,市场反应却同样热烈。 两家公司,两种选择,却都收获了掌声,展现了 AI 行业最真实的图景——没有绝对正确的道路,只有最适合自己的策略。OpenAI 用有限开源挽回人心,Anthropic 靠闭源守住技术壁垒,各有各的算盘,也各有各的道理。 但有一点是确定的,无论对开发者还是用户,这都是最好的时代。你既可以在自己的笔记本上运行一个性能堪堪够用的开源模型,也可以通过 API 调用性能更强的闭源服务。选择权,始终掌握在使用者手中。 至于 OpenAI 的「open」能走多远?等 GPT-5 发布时就知道了。 我们不必抱太大希望,商业的本质从未改变,最好的东西永远不会免费,但至少在这个被 DeepSeek 们搅动的 2025 年,我们终于等到了 OpenAI 迟来的「Open」。
Grok新上的AI视频生成,自带“擦边”模式,马斯克靠“踩黄线”称霸AI?
不得不说,涩涩果然是「AI 第一生产力」? 作者|芯芯 编辑|靖宇 8 月 4 日凌晨,马斯克旗下 xAI 正式向付费用户推出 Grok Imagine,可以用文字生成图像,然后将图一键变成 AI 视频。 短短 24 小时,Grok Imagine 用户使用量据称达数千万次。惊人的速度背后,是「允许擦边」的「Spicy Mode(火辣模式)」,让这款 AI 视频生成功能成为全网最具争议的新物种。 前不久,马斯克才用二次元动漫 AI 女友刷了一波流量,用户连续对话攒「好感度」,还能解锁金发双马尾少女的 NSFW 模式,让对话风格变得「成人向」。 当别家忙着给内容做安全过滤,马斯克却选择把 AI 的限制调到最低,不仅不要政治正确,还拆了「纯净模式」,同时誓要把「快」写进产品 DNA 里。 在「最自由的 AI」与「最失控的 AI」之间,马斯克的 xAI 真能靠「擦边」在激烈竞争里杀出重围吗? 01 论「擦边」,马斯克真的行 24 小时、上千万生成量,当 Grok Imagine 面向付费用户开放,马斯克的 AI 又靠「擦边」把流量与争议同时点燃。 「Grok Imagine 的使用量像野火一样迅猛增长。昨天生成了 1400 万张图片,今天则超过了 2000 万张!」马斯克在 X 平台上发帖称。 马斯克称 Grok Imagine 用户增长迅猛|图片来源:X 与谷歌的 Veo、OpenAI 的 Sora 只用文字提示就能生成视频不同,Grok Imagine 把多模态做成了链路:先用文字或语音生成图像,再用图像生成视频,用户也可以上传图库的现有图片来生成视频,视频还有类似谷歌 Veo 3 的音效,然后进入 X 的社交媒体转发循环。 而且,虽然 Veo 和Sora 等其他视频生成器都设置了安全过滤,防止用户创建 NSFW (成人)内容,但 Grok Imagine 却似乎乐于做到这点。 马斯克发帖展示 Imagine 的功力|图片来源:X Grok Imagine 的视频生成效果有四种模式:自定义(Custom)、火辣(Spicy)、有趣(Fun),以及普通(Normal)。 其中最受用户关注的是「Spicy」模式的尺度。切换该模式后,用户可以引导 Grok 其生成性感挑逗内容。有 X 用户发布实验结果称: 选择「Spicy」模式后,Grok Imagine「为我将 AI 模特的衣服脱了」 有用户用 Grok Imagine 让 AI 模特脱衣服|图片来源:X 当然,据一些测评称,虽然「Spicy」模式能生成上半身裸露的图像,但 Grok Imagine 并非完全放任硬核色情内容,在极端情况下仍会采用审核过滤器,比如过于露骨的提示词(例如,性行为描述或全裸)会导致输出图像被自动模糊处理,或审核提示内容不被允许。 总的来说,还是有限制,但允许的尺度范围比竞争对手平台大。 这并不是 Grok 第一次开始「擦边」。 上个月,xAI 团队先用动漫伴侣 Ani、Valentine试水,用「游戏式」流程让用户连续对话攒「好感度」,解锁新着装与露骨对白,从那时起,Grok就已经开始走 NSFW 路线了。NSFW作为网络流行语,是「Not Safe For Work」的缩写,意为不适合工作场所观看。 xAI 的二次元聊骚小助手 Ani 与 Valentine|图片来源:X 舆论和用户反馈方面,正式上线后,支持者称它「释放创作自由」,有不少正经用户利用 Grok Imagine 让老照片、名画、历史人物动起来,但也有质疑者担心它被「滥用」「制造深度伪造色情内容」。还有人认为,Grok Imagine生成的人类图像和视频仍然有恐怖谷效应。 Grok Imagine 生成尼古拉·特斯拉动图|图片来源:X 目前,SuperGrok 和 Premium Plus X 订阅用户可以通过 Grok 的 iOS 应用使用 Imagine 功能。Android 方面,有用户反映目前仅限于制作图像,缺乏视频生成功能。 马斯克在 X 上称,「请记住,它超级好玩,但还只是早期测试版。Grok Imagine 未来几周几个月会大大改进。」 马斯克发帖称 Grok Imagine 还会继续改进|图片来源:X 02 大尺度豪赌,值得吗? 马斯克的思路并不复杂:用「最自由的 AI」吸引订阅者,为 Grok 的付费订阅增添独家卖点。但是,不少用户已经开始提前替他捏把汗,Grok 的「自由」和「尺度」越大,被监管盯上的概率也越高。 过去两年,旧金山市当地检察部门曾起诉过让用户创建 AI 生成色情内容的网站,美国多州都酝酿过深度伪造色情禁令。美国联邦层面《删除法案》于 2025 年通过,首次将 AI 合成色情图像定为联邦犯罪,其他国家政府也明确将 AI 生成的深度伪造色情内容明确为刑事犯罪。 在立法空白时期,一些深度伪造色情网站据称吸引过上亿次浏览,涉及数千名女性公众人物,包括 Taylor Swift,还有韩国女艺人的受害比例也极高。 Grok Imagine 是否能结合现实「真人」进行操作也是大家关注的一点。 据 TechCrunch 内部测试发现,Grok Imagine 的图像功能在生成名人照片方面存在一些限制。但 The Verge 有不同的测评结果,称 Grok 的「Spicy」模式让他们直接生成了 Taylor Swift 的裸体深度伪造短片,视频中,Taylor Swift 在音乐节上脱掉衣服,开始「穿着丁字裤跳舞」。 The Verge 用 Grok Imagine 生成名人脱衣视频|图片来源:The Verge 另外,未成年人保护也是各国监管机构关心的一大重点。Grok Imagine 在儿童方面目前不存在有出格行为的消息,即使是「Spicy」模式也会「拒绝以不恰当的方式添加动画」。 马斯克在 Grok Imagine 发布宣传期间还转发了几个用例,称「Grok Imagine 可以将您孩子的绘画变成动画电影」「孩子们喜欢使用 Grok Imagine,因为他们可以说出自己的想法并立即观看图像更新」。 但另一方面,Grok Imagine 生成的擦边内容在 X 上流转。Grok 应用在苹果等应用商店的年龄分级是「12+」,X 允许用户发布成人内容,年龄分级是「17+」,表明平台可能包含不适合未成年人观看的内容。而平台注册时,年龄通常由用户自我声明,难以验证真实性。 马斯克发帖称 Imagine 能帮助儿童将自己的画变成电影|图片来源:X 另外,即便平台会要求内容标记为「敏感」,一些大的品牌广告商厌恶风险,也不愿广告与 AI 色情内容并列。但马斯克似乎不在意这一点,更关注快速赢得更多用户和 AI 产品的订阅。 马斯克发帖称孩子们喜欢使用 Grok Imagine|图片来源:X 在 HBO 剧集《硅谷》中,曾有情节讽刺过色情内容与互联网数据的关系。男主 Richard 惊讶地发现,对手竟从一家成人视频网站拿下了 1500 万美元的大订单,尽管他不理解,面对财务压力,他考虑将革命性的压缩算法授权给色情内容网站。 尽管团队看不上这一行业,同事们向 Richard 解释称,「历来推动新技术普及最快的就是色情内容,第一部印刷发表的小说是色情的故事,从那之后,Super 8 胶片、宝丽来相机、家用录像机,数字化、信用卡验证系统,乃至 Snapchat……色情内容占互联网总流量的 37%。」 图片来源:HBO 剧集《硅谷》 马斯克当然深谙平台上一些用户的心理,其他 AI 巨头与 Grok 的区别,不是能力问题,而该不该做,愿不愿做,敢不敢做。 不管后续是否会面临更多舆论和监管压力,马斯克的 xAI 可以说用「尺度」抢下了这一波「猎奇流量」,最主要目的还是为 X 的付费订阅添一把火。毕竟,扩大一点尺度,相当于把同类平台的封禁请求变成自家卖点,也顺带收割「被竞争对手平台拒绝」的长尾需求。 为了与 AI 巨头们竞争,马斯克的态度看来就是:AI 黄线,边踩边修,不管体面和监管雷点,用户订阅到手再说,这成了他目前最关心的。 这种策略很冒险,也会惹来抗议,但也符合马斯克的过往的行为模式——即拥抱风险,快速行动,并依靠迭代解决问题来处理后果。
刘作虎明确OPPO没有有造车计划:业务选择逻辑和原则不一致
IT之家 8 月 5 日消息,OPPO 首席产品官、一加创始人刘作虎今日在公司的 2026 届校招直播中明确提到,OPPO 没有造车计划。 刘作虎表示,虽然现在好像车很火很热,但是跟 OPPO 目前业务选择的逻辑和原则是不一致的。刘作虎称,会非常谨慎的评估在产业里面的角色和提供的价值。 据IT之家此前报道,OPPO 中国区总裁刘波去年 9 月在沟通会上提到了“不造车”的原因。 他表示:“从我们的角度看,其实我们还是要核心做好手机,以及我们现在核心的周边,像耳机、Pad、手表。从 OPPO 的战略角度来讲,我认为聚焦非常重要。第二,就是我们现在做的产品也好,规模也好,都有很大的发展空间。所以说我们现在是明确的态度,不去造车。我们的核心就是聚焦做好手机、做好手机生态及周边,以及和手机结合的这些车型,我们要把它合作好。” 早在 2021 年 4 月就有消息称 OPPO 在筹备造车事项,创始人陈明永已在产业链资源和人才方面摸底、调研。2022 年,陈明永对上述传闻表示,智能车、电动汽车未来一定是一个转型的方向,但目前 OPPO 在其中发挥的价值是有限的,至少现阶段还没有发现造车的必要性。 值得一提的是,OPPO 在 2021 年推出了“车管家”OPPO 智行(OPPO Carlink),这是一套跨终端、全场景的系统出行解决方案,包含数字车钥匙、手表控车、车管家、车机投屏等多项核心能力。今晚,上汽名爵全新 MG4 汽车预售发布,新车全球首发半固态电池批量上车、OPPO 智行手车互联。同时,官方表示,「手车互联」未来将在 MG 所有车型上搭载。
小米15获推澎湃OS 2.0 Beta版更新 优化超级小爱交互
【CNMO科技消息】8月5日,小米官方推送了澎湃OS 2.0的最新Beta版本,版本号为2.0.230.18.WOCCNXM,适用于小米15等支持机型。此次更新在系统交互和稳定性方面进行了重点优化,进一步提升用户体验,但需具备Beta测试资格方可安装。 本次更新最重要的改动在于电源键功能的调整。系统新增“长按电源键仅用于与超级小爱持续对话”的功能逻辑,用户在长按电源键后可直接唤醒超级小爱并实现连续语音交互,无需反复唤醒。这一变化旨在强化AI助手的使用便捷性,推动语音交互成为核心操作方式之一。对于习惯传统电源键操作的用户,小米也提供了自定义选项,可在“设置 > 更多设置 > 快捷手势 > 关机与重启”中重新启用原有的关机与重启菜单。 此外,系统在稳定性方面也进行了优化。强制重启设备的触发时间由原先的短时长延长至12秒,有效避免了用户误触电源键组合导致的意外重启问题,提升设备使用安全性。 该Beta版本固件大小约为360MB,属于常规功能性更新,未涉及重大界面改动或新应用推送。小米官方提醒,Beta版本系统仍处于测试阶段,可能存在功能不稳定或兼容性问题,建议普通用户谨慎参与。如在使用过程中遇到异常,可前往小米社区相关板块提交反馈,帮助开发团队持续优化。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。