EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
智源发布“悟界”系列大模型,含全球首个原生多模态世界模型Emu3
凤凰网科技讯 6月6日,在2025北京智源大会上,继“悟道”系列大模型之后,智源研究院推出“悟界”系列大模型。 “悟界”大模型系列,包括原生多模态世界模型Emu3、脑科学多模态通用基础模型见微Brainμ、跨本体具身大小脑协作框架RoboOS 2.0与具身大脑RoboBrain 2.0以及全原子微观生命模型OpenComplex2。 Emu3作为原生多模态统一架构让大模型具备理解和推理世界的能力,Brainμ基于Emu3架构,引入脑信号这一新的模态数据,实现了单一模型完成多种神经科学任务的大一统。多模态与脑科学模型未来可成为人机交互具身场景下的基础模型。 RoboOS 2.0与RoboBrain 2.0在初代版本基础上,原有性能大幅提升,并新增多机协作规划与物理常识驱动的空间推理能力。 OpenComplex2可在原子分辨率层面捕捉分子相互作用及平衡构象,探索微观构象波动与宏观生物功能的跨尺度关联。 原生多模态世界模型Emu3基于下一个token预测范式统一多模态学习,无需扩散模型或组合式架构的复杂性,通过研发新型视觉tokenizer将图像/视频编码为与文本同构的离散符号序列,构建模态无关的统一表征空间,实现文本、图像、视频的任意组合理解与生成。Emu3支持多模态输入、多模态输出的端到端映射,验证了自回归框架在多模态领域的普适性与先进性,为跨模态交互提供了强大的技术基座。 基于Emu3的底层架构,将fMRI、EEG、双光子等神经科学与脑医学相关的脑信号统一token化,利用预训练模型多模态对齐的优势,可以实现多模态脑信号与文本、图像等模态的多向映射,并实现跨任务、跨模态、跨个体的统一通用建模,以单一模型完成多种神经科学的下游任务。 Brainμ整合了神经科学领域多个大型公开数据集和多个合作实验室的高质量神经科学数据,完成了超过100万单位的神经信号预训练,模型可以支持神经科学领域从基础研究到临床研究和脑机接口应用的不同方向,有望成为脑科学的 “AlphaFold”模型。 作为神经科学领域跨任务、跨模态、跨个体的基础通用模型,Brainμ可同步处理多类编解码任务,兼容多物种动物模型(包括小鼠 狨猴 猕猴)与人类数据,实现科学数据注释、交互式科学结论解读、大脑感觉信号重建及模拟刺激信号生成。在自动化睡眠分型、感官信号重建与多种脑疾病诊断等任务中,作为单一模型其性能显著超越现有的专有模型,刷新SOTA表现。作为整合大规模多模态数据的基础通用模型,Brainμ也可以支持拓展脑机接口应用,在与脑机接口企业强脑科技BrainCO的合作中,Brainμ实现了首次在便携式消费级脑电系统上重建感觉信号,展现了模型支持拓展脑机接口应用能力的潜力。 智源正在与国内前沿的基础神经科学实验室、脑疾病研究团队和脑机接口团队深入合作,包括北京生命科学研究所、清华大学、北京大学、复旦大学与强脑科技BrainCO,拓展Brainμ的科学与工业应用。 跨本体具身大小脑协作框架RoboOS 2.0是全球首个基于具身智能SaaS平台、支持无服务器一站式轻量化机器人本体部署的开源框架。同时,RoboOS 2.0也是全球首个支持MCP的跨本体具身大小脑协作框架,旨在构建具身智能领域的“应用商店”生态。 在该框架下,可一键下载并部署来自全球开发者创建的相同型号机器人本体的小脑技能,完成大小脑的无缝整合。RoboOS 2.0实现了小脑技能的免适配注册机制,显著降低开发门槛,典型场景下,相关代码量仅为传统手动注册方式的1/10。 相较于1.0,RoboOS 2.0对端到端推理链路进行了系统级优化,整体性能提升达30%,全链路平均响应时延低至3ms以下,端云通信效率提升27倍。在功能层面,新增了多本体时空记忆场景图(Scene Graph)共享机制,支持动态环境下的实时感知与建模;同时引入多粒度任务监控模块,实现任务闭环反馈,有效提升机器人任务执行的稳定性与成功率。 在任务规划方面,RoboBrain 2.0相比于RoboBrain 1.0的基于Prompt的多机任务规划机制和初级空间理解能力,进一步扩展了基于多本体-环境动态建模的多机协同规划能力,可实时构建包含本体定位的场景图(Scene Graph),并自动完成跨本体的任务规划。实验数据显示,RoboBrain 2.0的任务规划准确率相较RoboBrain 1.0实现了74%的效果提升。 在空间智能方面,RoboBrain 2.0在原有可操作区域(Affordance)感知与操作轨迹(Trajectory)生成能力的基础上,实现了17%的性能提升。同时,RoboBrain 2.0增加了空间推理能力(Spatial Referring),既包含机器人对相对空间位置(如前后、左右、远近)及绝对距离的基础感知与理解能力,也实现了对复杂空间的多步推理能力。 此外,RoboBrain 2.0还新增了闭环反馈以及具身智能的深度思考能力。闭环反馈使机器人能够根据当前环境感知和任务状态,实时调整任务规划与操作策略,以应对复杂环境中的突发变化和扰动;深度思考能力则支持机器人对复杂任务进行推理分解,进一步提升整体执行准确率与任务完成的可靠性。 RoboOS 2.0与RoboBrain 2.0已全面开源,包括框架代码、模型权重、数据集与评测基准,以助力推动具身智能研究和产业应用的发展。目前,智源研究院已与全球20多家具身智能企业建立战略合作关系,共同打造开放繁荣、协同共生的具身智能生态体系。 全原子微观生命模型OpenComplex2实现了生物分子研究从静态结构预测到动态构象分布建模的重大突破。该模型能够表征生物分子系统的连续演化能量景观(Energy Landscape),并通过融合扩散生成式建模与生物实验数据,在原子分辨率层面捕捉分子相互作用及平衡构象分布,为探索微观构象波动与宏观生物功能的跨尺度关联提供了全新的研究视角。 OpenComplex2基于FloydNetwork图扩散框架以及多尺度原子精度表示两大关键技术创新,有效突破了生物分子在功能活动中可及的动态构象分布预测的瓶颈,从而能够建模生物分子系统中各种原子组分之间复杂的依赖关系,且无需对构象空间施加先验约束,更加真实地还原生物分子的构象多样性和动态特性,此外,还能同时捕捉原子级、残基级和基序级(motif level)的相关性,从而在建模过程中兼顾关键的局部结构细节与全局构象变化,为揭示生物功能提供更加全面的结构基础。 OpenComplex2模型在生物分子动态特性预测、柔性系统及超大型复合物建模、生物分子相互作用精细化分析等关键任务中性能卓越,突破了静态结构预测的瓶颈。 OpenComplex2为原子级结构生物学提供了一种全新的建模工具,通过统一框架解码生物分子系统的动态作用机制,将加速从基础分子机制研究到药物设计等下游应用的发展。 截至目前,智源已开源约200个模型和160个数据集,其中,开源、统一的 AI 系统软件栈 FlagOS进一步升级,新增统一编译器FlagTree、统一通信库FlagCX、自动发版平台工具FlagRelease等重要板块,全面覆盖统一生态技术需求;实现对11家国内外厂商的18款异构AI硬件的统一支持;FlagGems的算子平均性能已优于国际主流算子,并行训推框架FlagScale与人工优化相比,实现了最高23%的自动并行加速。升级后的FlagOS已支持DeepSeek、通义千问等更多开源大模型实现跨硬件平台运行,为开发者提供更多选择。 FlagOpen开源地址:https://github.com/FlagOpen 在开源模型方面,通用向量模型BGE系列已发展为门类齐全、体系完备的生态系统。最初BGE聚焦文本相关场景,先后推出面向中英文应用的BGE-v1模型,以及支持多语言场景的BGE-M3模型,在中英文及多语言向量建模能力上取得重大突破,广受开源社区好评。自2025年起,BGE进一步拓展至文本以外的应用领域,并于近期集中发布了BGE-code-v1、BGE-VL-v1.5和BGE-VL-screenshot三款模型,分别在代码检索、多模态检索以及富文本多模态检索任务中取得了领先表现。 小时级开源轻量长视频理解模型Video-XL-1,于2024年10月发布,首次实现了单GPU处理2048帧视频的能力。与同期轻量级开源模型相比,Video-XL-1在MLVU、VideoMME等主流长视频评测基准上取得了领先。近期推出的Video-XL-2,效果更佳、长度更长、速度更快,不仅进一步提升了轻量开源模型长视频理解的最佳效果,同时实现了单GPU处理万帧视频的能力,并且在推理效率上大幅领先同类别竞品模型,编码 2048 帧视频仅需 12 秒,显著加速长视频理解流程。目前,Video-XL-2 的模型权重已全面向社区开放。未来,该模型有望在影视内容分析、异常行为监测等多个实际场景中展现重要应用价值。 开源全能视觉生成模型OmniGen,采用极简架构,仅由大模型基座和VAE模块构成,大幅降低了开发和部署成本。OmniGen通过广泛的指令学习,实现了视觉生成能力的高度集成。用户仅需通过提示词描述任务需求,便可一站式完成各类视觉生成任务,极大简化了操作流程。OmniGen展现出显著的涌现能力,能够通过提示词的灵活组合,生成多样化、定制化的视觉内容。 在具身智能展区,基于RoboOS 2.0以及RoboBrain 2.0的不同构型的机器人(单臂、轮式双臂、人形)带来了丰富的技能展示,包括餐饮互动,机器人接受到语音指令后,完成汉堡制作和倒饮料的动作,以及抓娃娃的游戏和家居物品收纳。此外,基于智源自主研发的多模态具身大模型的机器人,融合了视觉、听觉、思考、语音交互等能力,带来了“心有灵犀”的互动小游戏,机器人可对看见的物品进行详细描述,互动者依据信息线索猜出对应的物品名称。智源与银河通用联合研发的具身大模型机器人Galbot,展示了商超场景下的落地应用能力。 在脑科学多模态通用基础模型展区,展示了Brainμ在脑科学基础应用与临床应用上的实际案例以及AI+脑科学未来基础研究与临床应用的新范式。同时,通过与脑机接口设备结合,Brainμ可根据采集的脑信号数据进行信号解析与感觉刺激重建,利用多模态大模型的能力在消费级便携式脑电设备上实现了接近医用级设备数据采集的稳定解析能力,Brainμ模型展现了降低脑机接口应用在消费级设备的门槛的能力,可以为便携式脑机接口的应用拓展空间。 基于2024年研发的全球首个数字孪生心脏,智源推出了全球首个高速跨尺度心脏药物安全性评价平台,构建了跨尺度药物-心脏作用模型,覆盖从亚细胞(离子通道),到细胞、组织、器官与人体,可以全尺度评测药物对心脏电活动的影响,评测药物心脏毒性,将全尺度药物毒性仿真时间由近90天减少到一天之内,为药物仿真平台实际应用提供坚实支撑。 在数字心脏展区,可通过裸眼3D透明心脏以及VR互动沉浸体验基于医学影像重建的心脏三维结构,通过操控笔可精准完成心脏模型的旋转、拉伸与层析切片操作。未来,将实现对心脏电生理过程的动态仿真交互,为精准医疗与个性化干预提供技术支撑。在裸眼3D提供宏观交互的同时,也进一步构建了基于虚拟现实的沉浸式系统,实现对心脏内部结构的深度探索与术式模拟。佩戴VR头显,可沉浸式进入心脏内部,进行类内窥镜式的结构观察。通过手柄精准定位,用户可选定刺激区域,模拟电生理手术中的干预操作。该系统为心脏术前智能规划提供了高度可视化与交互性的研究平台,为数字孪生心脏在临床应用中的落地奠定了坚实基础。 基于心冲击信号(Ballistocardiograph,BCG)研发的无感智能坐垫系统,可对多项生理指标进行高精度实时监测与智能分析。落座后,系统通过内嵌的高灵敏度传感模块,精准捕捉由心脏搏动引发的微弱体动信号,并同步完成心动周期识别。在完成有效数据采集后,系统调用信号分析算法,进入健康状态评估阶段,计算心率、心率变异性、呼吸频率等指标。根据这些指标,可对疲劳程度、精神压力、情绪状态进行量化评估,并辅助识别房颤等心律异常状态,在个人健康管理、智能家居与智能医疗决策中具有广泛的应用前景。
字节跳动发布图像编辑模型SeedEdit 3.0,处理更加丝滑高效
IT之家 6 月 6 日消息,字节跳动 Seed 团队今日宣布发布图像编辑模型 SeedEdit 3.0,目前已经在即梦网页端开启测试,豆包 App 也即将上线。 依靠 AI 完成指令式图像编辑的需求,广泛存在于视觉内容创意工作中。但此前,图像编辑模型在主体 & 背景保持、指令遵循等方面能力相对有限,导致编辑图像可用率不高。 据字节跳动官方介绍,SeedEdit 3.0 基于文生图模型 Seedream 3.0,叠加多样化的数据融合方法与特定奖励模型,较好地解决了上述难题。其图像主体、背景和细节保持能力进一步提升,尤其在人像编辑、背景更改、视角与光线转换等场景表现较为突出。 该模型可处理并生成 4K 图像,在精细且自然地处理编辑区域的同时,还能高保真地维持其他信息。尤其针对图像编辑“哪里改与哪里不改”的取舍,该模型表现出更佳的理解力和权衡力,可用率相应提高。当用户需要去掉图片内一众行人,模型不仅可以准确识别并移除场景内的无关人物,连影子也能一并去掉。 ▲ Prompt:移除中间人物以外的所有行人 在 2D 绘画转为真实模特的任务中,SeedEdit 3.0 较好地保持了人物的衣帽穿搭与手提包等细节,生成图片兼具时尚街拍感。 Prompt:使女孩看起来逼真 整个场景的光影变换,模型也可以处理得丝滑、自然。从近处房屋,到远处海水波纹,细节均能合理保留下来,并跟随光线变化,进行“像素级”的渲染调整。 Prompt:把场景变为白天 为了实现上述能力,团队在 SeedEdit 3.0 的研发工作中提出了一种高效的数据融合策略,并构建了多种专用奖励模型。 通过将这些奖励模型与扩散模型联合训练,团队针对性地改善了关键任务的编辑质量(如人脸对齐、文本渲染等)。实际落地中,我们也对推理加速进行了同步优化。 Prompt:将“STOP”更改为“WARM” 字节跳动表示,除进一步优化编辑性能外,未来团队还将探索更丰富的编辑操作,让模型拥有连续多图生成、多张图像合成、故事性内容生成等能力。
2025世界人形机器人运动会开启报名,8月15日北京开幕
IT之家 6 月 6 日消息,2025 世界人形机器人运动会将于 2025 年 8 月 15 日-17 日在国家体育场(鸟巢)和国家速滑馆(冰丝带)举办,官方今日开启报名通道。 IT之家附报名要求: 机器人要求 参赛的机器人为参赛队自研、采购或租赁的机器人。 机器人应是一个独立的整体,不得分离为多个子单元 (遥控盒、遥操作设备、路由器设备除外) 或用软缆连接的子单元,不得在比赛场地内设置标记物。 机器人应具有躯干、上肢、双足,有效重心到足底的最大伸展距离为身体高度的 40%-70%(参加自由体操赛项、表演赛、场景赛的机器人,有效重心不做具体要求)。其中,参加场景赛的机器人,下肢可为轮式或双足式。 参加立定跳远、原地跳高赛项的机器人不允许安装任何弹力装置、起飞装置或其他助力辅助设备。 机器人应自备能源;禁止使用被视为危险的任何能源。 机器人的控制方式可以是手动遥控 (包含半自动,仅能采用无线遥控方式,遥操作人员须在指定区域内进行遥控), 也可以是完全自主 (比赛全程须由机器人自主完成,除在指定区域发送开始指令外)。其中,自由体操、单机舞蹈、群体舞蹈赛项,机器人的控制方式必须是完全自主。 比赛期间机器人使用的网络由各参赛队自行提供,其使用不得干扰比赛的正常运行。 参赛队要求 国内外企业、高校、科研院所、创新团队、俱乐部、其他社会组织等均可报名。 每个参赛队可以报名参加多个赛项,可以使用不同的机器人参加不同赛项,但比赛过程中不允许更换机器人。 比赛期间每个参赛队最多允许 2 名参赛队员进入比赛场地。4×100 米接力赛项最多允许 5 名参赛队员进入比赛场地。 除 4×100 米接力赛项可由不超过 4 个参赛队联合参赛,其余所有赛项仅允许参赛队独立参赛。 IT之家查询获悉,本届赛事聚焦人形机器人发展的阶段性成果,立足实际场景应用,设置竞技赛、表演赛和场景赛三类项目。竞技赛包括 100 米、400 米、1500 米、4×100 米等田径赛事、自由体操、足球等项目;表演赛包括单机舞蹈和群体舞蹈;场景赛包括物料搬运、分拣和整理、清洁服务等项目。
埃斯顿酷卓:第二代人形机器人CODROID 02下周亮相
IT之家 6 月 6 日消息,据交汇点今日报道,智能机器人企业埃斯顿酷卓与南大合作共建具身智能联合实验室、获得莱茵 TÜV 的功能安全符合性证书,且即将发布第二代人形机器人产品。 埃斯顿酷卓曾在去年 9 月首发亮相了人形机器人 CODROID 01,并展示了手部动作及工件抓取、转移动作。机器人采用一体化关节模组,核心部件全自研。 CODROID 01 机器人身高为 170cm,重量 < 80kg,单臂负载 5kg,步速 3km/h,单臂自由度 7,单腿自由度 6,全身最大自由度 44,灵巧手自由度 6-7。 埃斯顿酷卓宣布,其第二代人形机器人 CODROID 02 将于 6 月 11 日正式亮相。据技术团队披露,相较于初代机型,完成技术积累的 CODROID 02 将实现全身所有关节的运动能力,在复杂场景下的灵活性与适应性得到显著提升。 IT之家查询公开资料获悉,南京埃斯顿酷卓科技有限公司成立于 2022 年 7 月 18 日,专注于人形机器人部件和算法的研发,推出了多款 CODROID 通用协作机器人,并在机器人部件、应用解决方案方面有所布局。 该公司获得了埃斯顿自动化集团的投资,后者为国产智能工业机器人“四小龙”之一,于 1993 年在南京成立,所以可以看作是老牌工业机器人厂商对人形机器人的一次尝试探索。
马斯克与特朗普,董明珠与王自如,当年谁更甜?
作者 | 林默 1 三个月前,伟大且要整的更伟大的总统特朗普,召开了重返白宫后首次内阁会议。那次内阁会议上,并不是内阁成员的埃隆 ·马斯克参会了。 这本来需要一个理由,但特朗普说了: “有人对埃隆不满意吗?谁不满意,谁就出去。”世间可有比这更霸总的时刻吗? 也许是有的。 坊间传闻,刘强东曾对管理层放话说,“谁不服徐雷,就是不服我”。 在特朗普喊话 “谁对埃隆不满意,谁就出去 ”的三个月后,埃隆出去了。 而在那之前三年,徐雷也出去了。 2 一个月前,那时候还是“政府效率部”牵头人的马斯克,说特朗普领导的这届政府是“美国建国以来最伟大的政府”。 世间可有比这认可领导和单位的人? 有的。 2023年,王自如接受采访的时候说,“我没看过格力给的工资条,每天看她(董明珠)讲什么、做什么,都觉得是一件很幸福的事。” 后来,马斯克离开了,王自如也离开了。 不仅离开了,王自如还要在今晚还要开直播,讲讲自己为什么会离开格力,等等话题。 在今天双方的激烈骂战后,马斯克说,“如果没有我,特朗普就会输掉大选,如此忘恩负义”,“特朗普当总统的日子还剩3.5年,而我还能活跃40多年”。 首先,当人说别人“忘恩负义”时,不如把这四个字翻译成“我吃亏了”。 其次,得是多气急败坏的人,用自己比人家年轻、比人家活得长来衡量战争的胜利。 但是,你说,如果给王自如一个大胆开麦的机会,他想不想说这句话? 3 也就是两三个月前,特朗普曾以这样的使命感加之于马斯克——马斯克真正伟大的美国人,他用卓越的技能帮助美国再次伟大。 世间可有比这更情绪浓烈的使命召唤吗? 有的! 1983年乔布斯对自己的迷弟,时任百事可乐公司总裁的约翰·斯卡利,发出了这样的使命召唤——"你是想卖一辈子糖水,还是想跟我一起去改变世界?"。 斯卡利拍拍身上的白砂糖,跟乔布斯一起改变世界去了。 两年后,斯卡利为了更顺手地改变世界,决定先改变点儿别的——他联合董事会,把乔布斯赶出了苹果。 如果想跟一个,自己有能力改变世界,哪怕就是有野心maga的人一起工作,那么请一定记得,他都觉得自己能改变世界了,他一定毫不忌惮改变身边的那个人。 4 三个月前,面对一路下滑的特斯拉股价,特朗普痛心疾首地问“马斯克为什么要因为帮助国家受到惩罚?”,他还说,自己明天就要买一辆全新的特斯拉。 三个月后,特朗普给马斯克留下三个字评价,不是“我爱他”,是“他疯了”。 世间可有比这更轻易撕毁的情深意重? 有的。 2021年,董明珠看着身边的孟羽童,对媒体说“我希望她能在我身边,我要把她培养成第二个董明珠”。 2023年,董明珠隔空点评,“她只想成为网红”,“只想着挣更多钱跟行尸走肉没差别”。 讲这对奇女子的案例,是想跟特朗普和马斯克说,千万不要太悲观啊,以为这么狠的话都放了,修复关系是没有希望了。 董明珠和孟羽童已经合体直播了,她们用事实证明,撕毁的承诺,破裂的关系,如有需要,都能用利益的浆糊糊起来。 5 这个世界上,谁最喜欢结拜兄弟、跪拜义父、宣称自己不可自拔地爱上了对方?希望对方在自己身边? 那些根本无法建立感情信任,却需要工具性结盟的人。 参考嬛嬛收温宜公主为义女时,曹琴默心里也明明白白“华妃不可靠,菀嫔更不可靠”。 可当利益格局发生变化时;当曾经一起牟利的那个人,成为了挡着自己牟利;或者某天忽然发现,说好一起去骗钱的那个人,竟然一直在骗自己的钱;说好一起去割韭菜的那个人,不想往外走了,只想割自己。 这个互相开炮的时刻,残留的情感标签成为互相指控"虚伪"的武器,被炸的满天都是。 人类会对谁最狂躁残忍?那些他们曾以神圣之名团结的人啊。
抖音知识再进化:极致内容,从稀缺场景中来
文|霍四究 编辑|孙静 01 一座大熊猫公园 到处都是「知识点」 1954年,大卫·爱登堡在非洲热带雨林拍摄到了濒危动物白颈岩鹛,揭开BBC纪录片《动物园奇探》的序幕。从此追随BBC的镜头和大卫·爱登堡极具辨识度的声音去探秘自然,成为生物迷们心头的一道好奇心盛宴。 时至今日,盛宴的载体不再只有纪录片,还有各路知识创作者的一手视频。 近日抖音知识创作者们就带着粉丝一起深入大熊猫国家公园,现场观察「岩壁上的精灵」岩羊、长得像牛名字里也带「牛」但其实是羊的羚牛、因花开时形似白鸽栖息于树上而得名鸽子树的珙桐、会用竹筒和树皮给自己盖小房子的石蚕蛾等一系列鲜为人知的生物。 在大熊猫国家公园的溪流里,创作者们还发现了极为罕见的西藏山溪鲵的踪影。 水生物爱好者 @爱养鱼的卓林 是第一次见到西藏山溪鲵。这一中国特有的物种,习性怕热耐冷,大家平日很难在动物园、水族馆见到,只能在野外碰运气。但近年来该种群数量急剧下降,用卓林的话说,它现在是「全网都极少见」。 ▲ @爱养鱼的卓林 拍摄到的西藏山溪鲵 为什么大熊猫国家公园会成为西藏山溪鲵的繁衍生息之地?来自@动物学博士陈睿 团队的一昆(中科院动物研究所青年学者)做起现场科普:作为「环境指示物种」,西藏山溪鲵对环境的要求极其严格。而大熊猫国家公园的溪流是雪山融化的雪水,不仅冰冷刺骨,而且水体干净,适合西藏山溪鲵栖息。 作为抖音与国家林业和草原局联合发起的「国家公园奇境行」的第一站,大熊猫国家公园确实汇聚了不少「稀世珍宝」。除了1340只野生大熊猫,公园内还有川金丝猴、雪豹、珙桐、红豆杉等8000多种与大熊猫伴生、被大熊猫「伞护」的珍稀动植物。 ▲ 抖音「国家公园奇境行」话题页面 丰富的生物多样性,成了科普创作者们的灵感来源。不管兴趣领域是植物、昆虫、水生动物还是大型动物,他们都能在公园找到让自己眼前一亮的东西。 毕业于四川农业大学植物保护专业的创作者@陈大奇的百草园,在一丛花瓣晶莹剔透的布袋兰面前找到了「知识点」。她用诙谐的语言,带着镜头前的百万粉丝了解布袋兰「骗子」的一面——它自身不会产生花蜜,却会通过散发香气来吸引昆虫帮助传粉,直接「空手套白狼」。 ▲ @陈大奇的百草园 在视频中讲解布袋兰的特点 @老阳的奇妙电波 则通过现场拍摄的野生羚牛群踩踏形成的小径,生动形象地解释了「森林推土机」外号的由来——成年羚牛重达六百多公斤,走到哪,哪就像被推土机推过一遍,客观上也促进了森林的土壤通气。 野生大熊猫的粪便也暗藏玄机。@小阳的昆虫世界 举起一大块熊猫粪便,凑到鼻子前细嗅。就在粉丝替他的鼻子感到难捱时,答案被揭晓——野生大熊猫粪便中有大量未消化的竹子,所以其粪便闻着不臭,反而带有竹子的清香。 @博物 在镜头前拆开一坨野生大熊猫粪便,传授如何借助粪便来判断大熊猫年龄:成年后熊猫的牙齿会随着年龄的增长而变少,这坨粪便中未被完全消化的竹片较窄,说明这只大熊猫牙齿多,还很年轻。 生态学博士、科研工作者@临川问雪 则借熊猫粪便,延展到气候变暖对野生大熊猫生活环境的影响。当气温上升1度,大熊猫会搬家吗?还可以往哪搬?@临川问雪 引导着网友一起思考气候对地球的影响——气候变暖不仅影响着大熊猫的生存边界,也是人类自己的生存边界。人与自然始终是共同体。 当整个大熊猫国家公园都变成「自然课」的课堂,各类动物留下的痕迹成了科普的最佳「道具」。 创作者们眼见为实、现场拆招的创作方式,也让粉丝们的学习热情一路高涨。 比如围绕熊猫粪便内容,抖音用户@阿瑞斯是战神 提到,「大熊猫的便便可以造纸,所以竹浆纸包装上的熊猫不是logo,而是来源。」《降噪NoNoise》顺手查了下成都大熊猫繁育研究基地的公号,上面还真提过熊猫粪便能造纸。 还有用户脑洞大开:「有熊猫屎咖啡吗?」 而当创作者展示偶遇羚牛的场景时,评论区许多当地网友会提醒,别被「六不像」呆萌的外表所「欺骗」,其实羚牛脾气相当暴躁。 此前受限于资源、时间成本,许多创作者会采用互联网公开资料制作视频,像这种深入入国家公园、走近珍稀动植物获取鲜活一手素材的形式,无疑是一种稀缺的体验。 02 稀缺场景 是知识体验的升级 在知识领域,稀缺是好内容的底色。稀缺的,可以是观点视角,是表达方式,是知识类别,也可以是场景和体验形式。 随着内容生态的持续丰富,「稀缺」本身也在被重新定义。以抖音知识为例,早期稀缺的是创作形式,所以我们会看到去年年初开始,一批优质中长视频快速出圈,扭转了网友对抖音只是短视频平台的认知;随后是知识类别的「纵深」,从热门大学公开课到金融历史、天体物理,更多垂类赛道被扩充进来,更多小众深度内容成为网友追更的目标。 ▲ 中科大《天文学导论》的抖音公开课 发展到目前阶段,稀缺场景和稀缺体验成为极致内容的最新推动力。 这也是网友知识消费升级后,对创作者和平台提出的最新需求——即从对兴趣广度的覆盖,过渡到同时兼顾沉浸式体验、趣味性。毕竟,知识学习本身就有一定的反人性特质。 这也意味着,创作者需要对内容进行持续迭代和优化。 稀缺场景恰好提供了一个切入点。它不仅带来稀缺体验,也带来内容的差异化。比如在自然科普领域,同样讲西藏山溪鲵,在大熊猫国家公园现场展现鲜活的西藏山溪鲵,与从公开素材中剪辑相关画面的信息量、视觉冲击力、感染力、视角可能完全不同。 而网友跟随创作者身临其境地感受自然、积累趣味知识,这本身就是一种独特而稀缺的体验。这种身临其境的体验以往只能通过纪录片、电影获取,现在通过平台带领创作者代表实地「打板儿」,内容供给端有了更多可能性。 不仅如此,此类稀缺场景的背后还有「专业」背书,让网友学个踏实。在抖音「国家公园奇境行」活动中,国家林业和草原局及五大国家公园的野生动植物保护专家们,将对内容的科学性与权威性提供指导。 比如大熊猫公园之行中,唐家河片区巡护员、有30年多年野外动保经验的马文虎老师亲自为创作者们做向导。马老师偶遇野生大熊猫近40次,他拍摄的大熊猫照片还曾被《大熊猫图志》收藏。由于常年参与大熊猫样线调查以及扭角羚、金丝猴等野生动物种群的专项调查,马老师为创作者们提供了大量专业指导。 ▲摄 | 马文虎 据了解,接下来创作者还将深入武夷山国家公园、三江源国家公园、海南热带雨林国家公园、东北虎豹国家公园继续探秘。 站在平台视角,无论是去年年底送头部创作者 @毕导 去瑞典诺贝尔颁奖礼现场以第一视角感受顶尖学术讲座,与诺奖得主面对面交流,还是今年展开的「国家公园奇境行」、「文脉里的中国」项目对十大中国文化地标进行探访,可以看出,抖音希望利用平台影响力引导内容创作向稀缺场景方向持续渗透。 这是因为,要构造起一个独特的、高价值的知识内容生态,抖音需要引导创作者去找到持续产出优质内容的方法论。唯有这样,抖音知识的内容护城河才会越来越深。 03 降低「知识长跑」的门槛 在《降噪NoNoise》看来,持续输出优质内容的方法论,不在于术的层面的创作技巧,而在于内容与平台用户的始终适配。 清华大学新闻与传播学院智媒研究中心发布的一份报告显示,在10828人参与的问卷调查中,共有9729人曾使用过短视频直播平台获取知识,约占受访总人数的89.85%;8558名受访者(约占79.04%)表示受到知识科普类内容的吸引。 ▲清华大学智媒研究中心《短视频直播与知识学习报告》 毫无疑问,抖音正成为普通人获取专业知识的重要途径。但作为一个日活超6亿的大众平台,抖音所覆盖的更广泛人群,对知识普及的门槛也提出了更高要求。 从这个角度来看,稀缺场景、趣味表达等尝试,理论上也有助于优质创作者提升用户黏性。 这一点,在一些抖音知识创作者的评论区可以得到印证。比如@老阳的奇妙电波 的评论区就经常出现这种奇妙场景:粉丝们一边调侃创作者的内容太硬核——「很好,感觉自己听了一篇论文」,一边又听得津津有味——「哥几个比听网课还认真」。还有粉丝留言称因为总看老阳的科普,自己把一篇关于科技未来的作文「写得很好」。 能看出,通过不断加码知识赛道,抖音知识用户与内容的适配度还在提升,越来越多的用户已经习惯在平台上「自学」,自得其乐。 不过正如生态保护不是一场短跑冲刺、离不开长期主义,知识生态的构建同样是一场长跑。 抖音知识通过今年4月发布的「砥砺计划」初步亮明了平台深耕优质内容的决心,如投入专项流量持续激励自然科普、人文社科、前沿科技和名校名课四大创作方向,通过作者成长、创作变现、出版计划等全年深度服务1000名优质创作者。 如同保护伞护物种大熊猫能也能保护8000多种伴生动植物,「砥砺计划」伞护的也是整个抖音知识生态。 对于知识创作者们而言,真正的挑战在于如何抓住机会,源源不断地创作具有稀缺价值的好内容,让用户沉浸在形形色色的「知识点」中,并从中激发真切的获得感。 对稀缺场景的探索,或许只是一个开始。
智源全新悟界系列大模型亮相!剑指AI加速数字世界、物理世界融合
作者 | 程茜 编辑 | 漠影 智东西6月6日报道,今日,智源研究院重磅发布全新悟界系列大模型,是其对AI从数字世界迈向物理世界技术趋势判断交出的最新答卷。 智源研究院的悟道系列大模型拉开了中国大模型时代,如今AI加速从数字世界迈向物理世界,悟界系列大模型已然成为其面向AI下一阶段发展的代表。 与此同时,智源研究院作为链接产业界和学术界的重要平台,其举办的智源大会已经发展成AI领域的顶级学术盛会。 今年第七届智源大会更是顶级大咖云集,包含图灵奖得主、深度学习代表人物Yoshua Bengio,图灵奖得主、强化学习之父Richard S. Sutton,图灵奖得主Joseph Sifakis、姚期智4位图灵奖得主,30余位企业创始人或CEO、100余位青年科学家、200余位AI顶尖学者和产业专家,他们将开展180多场AI主题分享。 一、悟界系列4大模型亮相,横贯微观生命、具身智能 大模型正在经历从数字世界向物理世界的演进,悟界系列大模型应运而生,以拓展AI与物理世界交互的边界。 从微观生命体到具身智能体,悟界系列大模型共包含4款大模型。 1、原生多模态世界模型Emu3、脑科学多模态通用基础模型见微Brainμ 原生多模态世界模型Emu3,基于下一个token预测范式统一多模态学习,使模型更易扩展至更多模态。同时其通过研发新型视觉tokenizer将图像/视频编码为与文本同构的离散符号序列,构建模态无关的统一表征空间,可实现文本、图像、视频的任意组合理解与生成。 脑科学领域的多模态通用基础模型见微Brainμ,基于Emu3的底层架构,将fMRI、EEG、双光子等神经科学与脑医学相关的脑信号统一token化,利用预训练模型多模态对齐的优势,可以实现多模态脑信号与文本、图像等模态的多向映射,这使得单一模型就能完成多种神经科学下游任务,实现跨模态、跨任务、跨个体的统一通用建模。 目前,Brainμ整合了神经科学领域多个大型公开数据集和多个合作实验室的高质量神经科学数据,完成了超过100万单位的神经信号预训练。 智源研究院已经与国内顶尖脑科学团队、脑疾病研究团队、脑机接口应用团队建立了合作,例如与脑机接口公司强脑科技合作实现了首次在便携式消费级脑电系统上重建感觉信号。 2、跨本体具身大小脑协作框架RoboOS 2.0与具身大脑RoboBrain 2.0 具身智能作为AI与宏观物理世界交互的一个关键载体,智源研究院发布的跨本跨本体具身大小脑协作框架RoboOS 2.0是全球首个基于具身智能SaaS平台、支持无服务器一站式轻量化机器人本体部署的开源框架。同时,RoboOS 2.0也是全球首个支持MCP的跨本体具身大小脑协作框架,旨在构建具身智能领域的“应用商店”生态。 RoboOS 2.0实现了小脑技能的免适配注册机制,显著降低开发门槛,典型场景下,相关代码量仅为传统手动注册方式的1/10。相比于1.0,RoboOS 2.0对端到端推理链路进行了系统级优化,整体性能提升达30%,全链路平均响应时延低至3ms以下,端云通信效率提升27倍。 具身大脑RoboBrain 2.0是目前全球最强的开源具身大脑大模型,在多项空间推理与任务规划指标上超越主流大模型。 RoboOS 2.0与RoboBrain 2.0已全面开源,包括框架代码、模型权重、数据集与评测基准。 3、全原子微观生命模型OpenComplex2 除了宏观世界,物理世界还有一大重要组成部分是微观世界。悟界系列的第四大模型正是全原子微观生命模型OpenComplex2。 OpenComplex2实现了生物分子研究从静态结构预测到动态构象分布建模的重大突破。该模型能够表征生物分子系统的连续演化能量景观(Energy Landscape),并通过融合扩散生成式建模与生物实验数据,在原子分辨率层面捕捉分子相互作用及平衡构象分布。 二、从探索模型方法论到突破虚实世界边界,智源研究院加速AI解决实际问题布局 从悟道到悟界系列大模型的发布,是智源研究院探索实现AGI的重要一步。 去年智源大会上,王仲远就谈到了对大模型技术路径演进的看法:AGI可能的技术演化路径将会从大语言模型到统一的多模态大模型,然后进入物理世界、微观世界形成世界模型,最终推动AGI时代到来。 时至今日,这一判断也在实践中得到了验证。AI长远的目标是被用来解决实际问题,如今大模型研发已经进入解构现实世界的新阶段。 可以看出,作为引领AI产业发展的顶尖机构,智源研究院成立至今已经多次预见AI的发展机遇。 2020年,智源研究院成立百人技术攻关团队,至今已先后发布悟道1.0、2.0、3.0系列模型,构建了全栈大模型技术开源体系,并孵化出国内数家知名大模型创企;如今站在AI产业发展的关键转折点,悟界系列大模型应运而生。 从“悟道”与“悟界”命名也可以更为直观感受到,悟道的“道”代表智源研究院对大语言模型系统化方法论的探索,悟界的“界”则代表对虚实世界边界的不断突破。 更为重要的是,即使AI产业发展的重心不断变化,开源一直是智源研究院坚持的底色。 智源研究院打造的覆盖模型、算法、数据、评测、系统的大模型开源技术体系FlagOpen,截至目前已开源约200个模型和160个数据集,其中,模型全球总下载量超6.4亿次,开源数据集下载量近113万次,开源项目代码下载量超140万次。 其中,在开源模型方面,通用向量模型BGE于去年10月成为中国首个登顶 Hugging Face月度下载排行榜榜首的开源模型,同时也是截至去年年底的2023年所有发布模型的全球下载量冠军;开源轻量长视频理解模型Video-XL 2,支持在单张显卡上高效处理长达万帧的视频输入;开源全能视觉生成模型OmniGen,采用极简架构,仅由大模型基座和VAE模块构成,可降低了开发和部署成本,并通过广泛的指令学习,实现了视觉生成能力的高度集成。 此外,智源研究院构建的AI系统软件栈FlagOS实现升级,新增了统一编译器FlagTree、统一通信库FlagCX、自动发版平台工具FlagRelease,实现对11家国内外厂商的18款异构AI硬件的统一支持。 将视野放大到整个AI产业,我们可以更为清晰的观察到智源研究院当下布局在产业中的重要性。 目前,诸多企业都在朝着多模态基础模型、具身智能等方向进行探索,但痛点在于技术路线多元且并不收敛。 因此,智源研究院在此基础上,更看重对不同技术路线、方法的探索,当其研究达到一定成果就会通过开源的方式让企业来做。 结语:全球大模型先锋集结 一直以来,智源研究院都走在AI产业技术路线探索的前沿,并通过构建开源开放的生态推动学术界与产业界的发展。如今,AI产业正经历从数字世界走向物理世界,智源研究院的角色进一步凸显。 而北京智源大会作为“AI内行学术盛会”,不仅是智源研究院成果发布与探索的展现平台,更承载着海内外研究者分享研究成果、探寻前沿知识、交流实践经验的重要意义。
谷歌DeepMind CEO观点:AI有望减少人类自私行为、提升同理心
IT之家 6 月 6 日消息,科技媒体 Android Headline 今天(6 月 6 日)发布博文,报道称谷歌 DeepMind 首席执行官戴密斯・哈萨比斯(Demis Hassabis)提出新观点,AI 能减少人类自私行为,通过提供更多信息和促进沟通,增强人们的同理心。 哈萨比斯表示,谷歌 DeepMind 希望通过 AI Overviews(快速事实核查,附带引用)和 AI Mode(深度对话式查询)两者互补,全面掌控 AI 驱动的搜索体验,巩固行业主导地位。 哈萨比斯强调两者并非竞争关系,而是相辅相成的力量,将彻底改变用户获取信息的方式。他坚信,未来几年,这两种模式都将不可或缺且持续增长。 IT之家援引博文介绍,哈萨比斯还提出了一个发人深省的观点:AI 可能让人类变得不那么自私。 他认为,自私往往源于信息不足或忽视他人利益。而 AI 可以通过处理海量信息、优化沟通效率,帮助我们更全面地理解他人视角,甚至在更广阔的背景下洞察自身行为的影响。 这种技术支持或能填补信息鸿沟,激发更强的同理心,促使人类在决策时考虑更多元的利益。 哈萨比斯设想,通过数据驱动的洞察,AI 甚至可能让我们“感知”他人的苦难,从而推动更合作、少自私的人际互动。 哈萨比斯相信,AI 不仅能提升问题解决效率,还能拓展我们的认知边界,解锁人类同理心和集体进步的新层次。
阿里又开源两款Qwen3模型!拿下文本嵌入模型SOTA,技术报告公布
编译 | 金碧辉 编辑 | 程茜 智东西6月6日消息,昨天,阿里巴巴宣布推出Qwen3-Embedding和Qwen3-Reranker系列模型,正式发布Qwen3-Embedding和Qwen3-Reranker系列大模型技术报告,首次公开开源模型Qwen3-Embedding和Qwen3-Reranker的推理架构、训练策略及评测结果。 Qwen3-Embedding和Qwen3-Reranker,均基于Qwen3基础模型训练,专为文本表征、检索与排序任务设计。其中,Qwen3-Embedding接收单段文本,将其转换为语义向量,以用于语义搜索、问答系统等场景。Qwen3-Reranker则接收文本对,利用单塔结构计算并输出两个文本的相关性得分,可在各类文本检索场景中显著提升搜索结果的相关性。在实际应用中,二者常结合使用,比如在RAG系统里,Qwen3-Embedding用于初步检索,Qwen3-Reranker用于优化候选结果,兼顾效率和精度。 Qwen3-Embedding 8B以70.58分登顶MTEB(当前全球公认的文本嵌入模型评测基准,通过整合检索、聚类、分类等7大场景,系统评估向量模型的语义表征能力)多语言榜全球第一,创历史新高(截至2025年6月6日);Qwen3-Reranker在mMARCO跨语言检索中MRR@10达0.42,超越行业标杆。双模型支持119种语言及编程语言,提供0.6B/4B/8B全尺寸覆盖,其中Reranker对100文档排序延迟压至80ms内(A100),长文本处理突破32k上下文。即日起双模型在Hugging Face/GitHub/ModelScope开源免费商用,阿里云API同步上线。 ▲图源阿里巴巴Qwen3-Embedding和Qwen3-Reranker系列模型技术报告 一、阿里巴巴发布Qwen3-Embedding模型,模型多语言得分超70 阿里巴巴昨天正式推出Qwen3-Embedding文本向量模型,提供0.6B、4B、8B三档参数规模,全面覆盖轻量级边缘计算到高性能云端场景。该模型支持119种自然语言及Python、Java等编程语言,并突破性地实现32k tokens长文本处理能力。 目前Qwen3-Embedding模型以Apache 2.0协议免费开源,开发者可通过Hugging Face、ModelScope及阿里云API一键部署。 在权威评测中,Qwen3-Embedding 8B版本以70.58分登顶MTEB多语言Leaderboard榜单(截至2025年6月6日),超越Google Gemini-Embedding等商业模型。 ▲Qwen3-Embedding模型在MTEB多语言Leaderboard榜单中位列第一 Qwen3-Embedding模型在代码检索(MTEB-Code)任务中,搜索精准度排名第一。 ▲Qwen3-Embedding在代码检索任务中表现的性能 在多模态文本嵌入(MTEB)跨语言场景下,Qwen3-Embedding 8B模型在多语言检索任务中取得了69.02的高分,在中文检索任务中得分达到77.45,在英文检索任务中得分达到69.76。 ▲Qwen3 Embedding在多模态文本嵌入任务中表现的性能 除此,技术报告还透露,Qwen3 Embedding依托Qwen3基座模型的深度语言理解能力,创新采用双编码器架构,能独立处理查询文本与文档内容,生成高精度语义向量。 Qwen3-Embedding模型采用三阶段训练框架:首阶段基于36万亿token多语言数据弱监督预训练,第二阶段融合MS MARCO标注数据进行监督微调,最终通过模型融合技术提升泛化性。推理层面Qwen3-Embedding模型创新性支持自定义指令模板,使特定任务性能提升3%-5%。 ▲Qwen3-Embedding的模型架构 Qwen3-Embedding的核心优势在于多语言深度适配(跨语言检索误差率降低30%)、长文本处理标杆级能力(32k窗口+双块注意力机制),以及灵活定制化设计(竞品如OpenAI text-embedding仅支持固定维度)。 同时,Qwen3-Embedding模型的开源免费策略显著降低技术门槛,中小企业可零成本构建文档检索、知识库聚类等系统,可能使多语言文本处理技术进入普惠化应用阶段。 二、32k长文档精准排序:Qwen3-Reranker支持法律科研检索99%稳定性 阿里巴巴的Qwen3-Reranker系列模型专门用于提升搜索和推荐系统相关性排序能力的模型,该系列提供0.6B/4B/8B三档参数规模。Qwen3-Reranker系列模型专为文本表征、检索与排序任务设计。该系列模型采用基于Qwen3基础模型的稠密版本,并与Qwen3-Embedding模型协同构建端到端检索链路。 ▲Qwen3-Embedding与Qwen3-Reranker系列的训练流程 Qwen3-Reranker系列模型的32k tokens上下文窗口专为法律文书、科研论文等长文档排序优化,显著提升长文本处理稳定性。模型以Apache 2.0协议开源免费,开发者可通过Hugging Face、GitHub、ModelScope获取,或通过阿里云API一键调用集成。 Qwen3-Reranker模型采用单塔交互结构,将用户查询与候选文档拼接输入,通过动态计算查询-文档交互特征输出相关性得分,实现非静态向量匹配的实时排序。 ▲Qwen3-Reranker的模型架构 针对长文档场景,Qwen3-Reranker模型集成RoPE位置编码与双块注意(Dual Chunk Attention)机制,有效避免长程信息丢失,确保32k上下文内语义连贯性。 同时,Qwen3-Reranker模型支持任务指令微调,开发者可通过自定义指令(如“按病例描述相关性排序”)优化特定领域性能,实测可提升排序准确率3%-5%,而竞品如ColBERT缺乏此类功能。 阿里巴巴Qwen3-Reranker系列模型提供了三种不同参数规模的模型配置,分别为0.6B、4B和8B参数,以满足不同场景下的性能与效率需求。 Qwen3-Reranker 0.6B模型参数量为0.6B,属于超小型模型,适合端侧设备部署。其上下文长度达32k,采用基于Transformer的架构,以RMSNorm对层输入进行归一化,确保训练稳定;Qwen3-Reranker 0.6B模型能无缝集成两种思考模式,在保持推理效率的同时,展现出良好的多语言处理能力。 Qwen3-Reranker 4B模型参数量为4B,性能匹敌Qwen2.5-72B-Instruct。Qwen3-Reranker 4B模型同样具备32k的上下文长度,它通过多项架构增强提升语义理解能力;Qwen3-Reranker 4B模型在AIME25(美国数学邀请赛)评测中得分为81.5,刷新了开源模型记录,展现出强大的数学推理能力,能够处理复杂的数学问题,进行严谨的计算和多步推理。 Qwen3-Reranker 8B模型参数量为8B,上下文长度在标准配置下为32768个 Token;Qwen3-Reranker 8B在多语言检索任务中取得了69.02分,性能超越bge-reranker-large等开源竞品;在中文检索任务中得分达到77.45,在英文检索任务中得分达到69.76,显著优于传统BM25和ColBERT等其他基线模型。 另外,Qwen3-Reranker模型或推动高精度检索技术普及,企业知识库问答准确率提升40%,大幅降低人工成本;跨境电商实现119语言商品精准搜索,误检率下降35%;科研法律领域长文档检索效率突破90%,加速信息提取。 阿里巴巴的开源策略激活开发者生态,通过Hugging Face快速微调行业模型,阿里云API支持5行代码接入,极大降低技术门槛。同时推动文本检索从“关键词匹配”升级至“语义理解+动态交互”,为AI Agent与多模态应用奠定基础。 结语:告别通用泛化!阿里报告揭示:文本处理进入精准专用 Qwen3-Embedding/Reranker通过“多语言+长文本+可定制”三位一体设计,解决了传统文本处理模型泛化性差、成本高的痛点。其开源策略更将加速产业应用创新,开发者可基于Hugging Face快速微调,企业可通过阿里云API即时部署。阿里巴巴在文本嵌入领域的技术布局覆盖从轻量级到高性能的全场景需求。 技术报告特别提醒,在实际检索场景中,建议应用者根据具体任务、语言和场景设计指令模板,否则可能影响效果。这一细节可能反映出AI模型正从“通用泛化”向“精准专用”演进,也为行业提供了新的优化思路。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。