行业分类:
加载中...
头条分类:
加载中...
豆包凶猛,深度解析字节AI战略
字节AI,“一盘棋”的野心 文|赵艳秋 编|牛慧 在生成式AI市场上,竞争一直处于白热化阶段,你方唱罢我方登场。字节的豆包大模型在年初面对横空出世的DeepSeek,一度保持沉默,但在6月推出新版模型后迅速反弹,重新跻身国内第一阵营。 业内普遍认为,字节AI是“几乎没有短板”的选手,既有自研大模型的底层能力,又掌握抖音这一超级流量入口,并具备快速孵化App的产品体系。与多数互联网公司不同,字节在AI战略上推行“一盘棋”式协同,这在当下国内大厂中比较少见。 01 C端之役,豆包App的策略 最近几周,阿里旗下“夸克”展开猛烈攻势,争夺AI对话助手市场。这一赛道一直竞争激烈,仅去年底至今就曾是DeepSeek、Kimi、豆包、腾讯元宝的 “热战” 主场。 根据QuestMobile数据,截至2025年8月,豆包App月活用户超过1.57亿,其主要竞争对手DeepSeek月活约为1.43亿。该数据更指出,“DeepSeek流失用户里,有近4成去了豆包”,豆包App成为国内移动端用户量最大的AI聊天助手。而美国风投机构a16z数据显示,在网页端,豆包排第12,低于ChatGPT、Gemini、DeepSeek和夸克。 豆包是2023年8月推出的AI原生应用,在字节内外部人士描述中,它的风格有类似西方AI聊天工具的地方,也有不小区别。字节内部强调“模型能力是最关键的”,因此豆包App更像海外产品那样,依靠后端基模能力,而不会在产品化过程中,采用很多弥补性措施。 与此同时,豆包又区别于许多西方AI聊天助手的强工具属性,如ChatGPT的任务型。豆包主打“亲近”、“易用”风格,其图标是一位有亲和力的短发女性卡通形象,支持语音、视频、方言聊天,容易上手。 一些人士反馈,豆包对深度问题回复“不够好”。而字节人士称,这是豆包故意降低门槛,使其更符合大众用户需求,甚至是父母和爷爷奶奶。“你如果是企业,在云上调用豆包大模型服务,它的回复就跟其他产品一样专业。”上述人士告诉数智前线。 今年9月,字节老将赵祺接手豆包产品,负责豆包移动端、PC端用户产品及模型策略。赵祺曾担任字节增长中台负责人和穿山甲广告平台负责人,这一任命意味着豆包工作重心或将转向加速用户规模与商业变现上。 在数智前线的访谈中,有用户担心豆包App未来收费,也有人直言一旦付费将转向其他聊天助手。不过,豆包App承担着展示豆包大模型能力的“窗口”,因此面向所有用户“一刀切”收费的可能性并不大。 从现阶段来看,更可能的变现路径包括,围绕特定需求场景推出按次计费服务;针对企业或高频创作需求设置“超额使用收费”;在抖音生态中嵌入豆包功能,通过广告分成或佣金获取收益,以及广告类收入。 02 豆包大模型处于什么位置? 豆包应用的底座,是豆包大模型。在基础大模型层面,中外大厂的竞争一向非常焦灼。目前来看,豆包大模型与DeepSeek、阿里Qwen,处于国内第一阵营,各有千秋,但与海外最先进模型仍有差距。尤其最近半年,国内部分业界认为,中外模型的差距实际在加大。 具体来看,豆包大模型今年上演反转之路。年初DeepSeek爆火和阿里Qwen开源知名度拉高时,字节一度保持沉默。但有人士称,内部用了数十倍于DeepSeek的人,快速迭代模型。6月,在火山引擎年度Force大会上,字节发布豆包大模型1.6版。由于这是国内首个原生多模态模型,在长上下文、性价比上很突出,令豆包大模型的处境逐步逆转。 豆包大模型再次晋身国内最强模型阵营,成为客户商业落地考察的几个头部模型之一。旗下火山引擎大会,也吸引大量企业来了解它。 数据也证明豆包大模型增速极快,生态规模扩张迅速。截至2025年9月底,豆包大模型日均tokens调用量已突破30万亿,这一数据引发了产业链上下游关注。而相比今年5月底tokens增长超80%,这表明豆包1.6发布后,落地进展极快。 不过,豆包大模型在海内外声量完全不同。由于海外主要市场,豆包大模型并不提供API服务,且极少有开源模型,在各大论坛中只有零星讨论,热度低于DeepSeek和Qwen。 在一些开发者自发的评测中,豆包在中文理解、多模态理解、视频生成中表现优异。但一些开发者认为其在代码生成、复杂API调用等任务上,不如海内外某些专门优化的模型或竞品强。一些开发者总结,Qwen、豆包、DeepSeek“用下来各有优劣”。 业内比较统一的评价是,豆包大模型在视频(Seedance系列)、图像(Seedream 系列)、语音(实时语音/克隆)多模态产品化与矩阵完整度上,占有优势。其上线较早、多模态能力更全、云上价格更低、场景跑得更深;但在单项榜单与研究侧,阿里与 DeepSeek也有亮点。豆包大模型在多模态上的强投入,或与其将要在接下来商业化大浪中抓住机会紧密相关。 值得关注的是,豆包大模型沿袭了字节一贯风格,不做高举高打,研发团队也始终保持低调。豆包大模型隶属于字节集团Seed部门。在Force大会期间,火山引擎智能算法负责人吴迪提到豆包大模型时说,“我们可以用一些非常高效的结构,来做到世界头部排名的大模型。” 2025年初,Seed核心领导层发生重要变动。前Google DeepMind副总裁,曾参与Gemini模型开发的吴永辉博士加入,担任Seed部门模型基础研究负责人。曾牵头开发豆包大模型、也是字节第一版推荐算法负责人朱文佳,任Seed模型应用能力负责人。 03 “一盘棋”打法 字节在AI战略上采取了“一盘棋”式打法,这在当下国内大厂中较为少见。 “一盘棋打法”表现在品牌、产品互动、引流、商业化等方方面面。 豆包大模型最早在字节内部的研发代号为Skylark(云雀),2023年8月对外发布时名为“云雀大模型”,但在2024年5更名为“豆包大模型”,对外文档、API等全部替换为“豆包”。外界认为,更名方便了用户建立模型与产品之间的直接关联。一些用户在消费端体验了豆包App后,也直接推动其在企业级市场选择豆包大模型。 比如,由于豆包在消费者市场的用户体验,使它直接延伸到手机、AI陪伴玩具和汽车智能座舱。在vivo、荣耀等近期召开的开发者大会中,手机助手选择的模型底座之一是豆包大模型。火山引擎CEO谭待告诉数智前线,豆包大模型与几家车厂在座舱上进行了共创,并在“座舱交付上有很多伙伴”。 与此同时,2024年以来,字节以前所未有的速度,密集推出了覆盖各种应用的AI原生矩阵,借助豆包大模型能力,实现新一轮App输出。“获客和盈利本来就是互联网企业的第一目标,字节的打法是持续不断孵化产品,不断验证找到赚钱的那个,然后使劲推。”一位前字节人士向数智前线描述。 像即梦(AI短视频生成)、海绵音乐(AI音乐生成)、猫箱(AI虚拟角色聊天互动,对标 MiniMax星野)、星绘(AI图像美化工具,对标妙鸭相机等)、河马爱学(K12与成人学习)、即创(为抖音商家设计的AI内容创作工具,服务抖音电商生态)。在海外则复制国内经验,形成Cici(海外版“豆包”)、Gauth(AI解题工具)、Hypic(类似 “星绘”)等,而海外App与国内不相同的地方,是采用了一些海外模型。 字节旗下的抖音成为这些应用引流的关键渠道。根据QuestMobile的数据,2025年3月抖音(含极速版)月活达10.01亿。“抖音的定位并不仅是短视频平台。”一位字节人士分析,“它更像一个万能入口,大量内容在上面分发,有一天,甚至可能火山引擎这样的企业级产品,也能在上面售卖。” 一位人士告诉数智前线,在抖音上售卖上百万元的广告,字节内部的结算价格仅为几万元。因此,字节内部产品线都会在抖音上大力推广。 除了广告推广,这些AI原生应用与抖音在产品层上的引流也更紧密。数智前线获悉,抖音在开发自己的AI,以更适合抖音应用。同时,抖音也正在测试接入豆包AI能力,有两个入口可直接进入豆包,无需额外下载豆包App。同时,在豆包中生成的内容,也可以直接分享到抖音,还带有豆包水印。这样就形成双向互动闭环。 除了创造AI原生应用,豆包大模型在字节内部诸多已有产品中,先形成一个个“小闭环”。如豆包大模型在介绍中称,已应用于抖音、飞书、番茄小说等字节内部超过50个业务场景。 在字节对外提供大模型应用的火山引擎上,大量产品都是先再内部跑通,再上到云端对外服务。比如Data Agent这个产品,这是在BI数据决策基础上,提供更深度、灵活洞察能力的产品。一位火山引擎人士告诉数智前线,该产品已在抖音内部使用。“我们所有产品都在内部,包括抖音上跑完,验证成功后,再面向企业推出。” 火山引擎CEO谭待也告诉数智前线,与其他大模型企业最大的区别之一是,“我们跟抖音商业化可以做一些联动”。 在双11电商大战期间,内部各产线在AI上的闭环更多。比如,在飞书多维表格中,集成了文案生成、即梦图片和视频生成工具,能批量帮助商家生成文案、图片和视频,通过自动化工具导入剪映,完成一个视频的剪辑,再一键发布到抖音上。 豆包大模型还是当下字节高层布局和关注的焦点,这可能有利于内部信息对齐。公开信息称,从2024年下半年开始,张一鸣每月会参加一次字节跳动“Seed”核心技术团队的复盘和讨论会。另外一个值得注意的细节是,新调任豆包产品的负责人赵祺,曾担任AI条线人力资源负责人,有分析认为这可加强跨团队协同与组织整合。 整体来看,字节AI体系已初步形成模型、产品布局,并通过“一盘棋”式加速闭环和商业化。然而,这场快速奔跑背后仍潜藏挑战。 字节如何在保持应用速度与流量的同时,追赶与OpenAI、谷歌等全球巨头的模型差距,探索国内外市场的商业变现路径,构建产品形态变革,如OpenAI在10月推出Sora2,也让业界重新观察视频的新模式,字节能否做到这些仍有待观察。此外,字节还要克服自研芯片与基础设施层面的挑战,以及生态构建的复杂性。 ©本文为数智前线(szqx1991)原创内容
高通发布AI200/AI250数据中心AI加速卡:最早2026年商用,主打机架级推理
凤凰网科技讯 10月28日,高通技术公司今日发布两款面向数据中心市场的AI推理芯片解决方案——Qualcomm AI200与AI250。这两款产品以加速卡和机架系统形式提供,专门针对大语言模型和多模态模型的推理场景进行优化。 据了解,Qualcomm AI200的单张加速卡可支持768GB LPDDR内存,采用机架级设计架构。该方案通过提升内存容量并降低成本,试图在AI推理的扩展性与灵活性上寻求平衡点。而Qualcomm AI250则引入了近存计算(Near-Memory Computing)技术,官方数据显示,这一架构能够使有效内存带宽提升超过10倍,同时降低功耗表现。 从散热与扩展能力来看,两款机架方案均支持直接液冷技术,并具备PCIe纵向扩展与以太网横向扩展能力。整机架功耗控制在160千瓦,同时配备机密计算功能以保障数据中心工作负载的安全性需求。 高通技术公司高级副总裁兼技术规划、边缘解决方案和数据中心业务总经理马德嘉(Durga Malladi)在发布时表示,这两款产品重新定义了机架级AI推理的能力边界,软件层面覆盖从应用层到系统软件层的完整技术栈,并兼容主流机器学习框架和推理引擎。开发者可通过高通的高效Transformer库以及Qualcomm AI Inference Suite实现模型快速接入,支持Hugging Face模型的一键部署流程。 值得注意的是,AI250方案中提到的解耦式AI推理架构,旨在提升硬件资源的利用效率,这也是当前数据中心AI部署中较为关注的技术方向之一。 从商用时间表来看,Qualcomm AI200预计于2026年实现商用,AI250则计划在2027年推向市场。高通方面透露,未来将以年度迭代节奏推进数据中心产品线,持续在AI推理性能、能效和总体拥有成本方面进行技术演进。
拒绝向黑客妥协:越来越多企业遭遇勒索攻击时不再支付赎金,25Q3 创新低
IT之家 10 月 28 日消息,虽然在 2025 年的今天仍有大批企业在遭受勒索软件攻击,但黑客们越来越难从这些企业中要到赎金,根据网安公司 Coveware 在上周(10 月 24 日)发布的最新报告,今年第三季度只有 23% 企业向黑客支付了赎金,创下历史新低。 Coveware 从 2019 年开始统计企业支付勒索软件赎金数据,当时有 85% 的企业选择向黑客妥协,乖乖支付赎金,但这些年以来,这种比例在不断下降,到 2024 年初,只有 28% 的企业选择向黑客付钱,最终在今年第三季度达到了 23% 的最低点。 分析师指出,这表明了各大网安公司及 IT 等维护者在预防攻击、减轻攻击影响及应对网络勒索方面所做的工作取得成效,不过为了遏制“勒索经济”,各行各业仍需要持续努力,每当企业选择拒绝向黑客支付赎金时,网络犯罪分子的嚣张气焰就会被浇灭一分。 同时在本季度,企业向黑客支付的赎金金额也大幅下滑,环比下降 66%,仅有 376941 美元(IT之家注:现汇率约合 268.1 万元人民币),中位数金额也降低至 140000 美元(现汇率约合 99.6 万元人民币),同比下降 65%,不过总体来说,这些数据的波动幅度较大,例如今年第二季度的支付金额曾异常偏高,因此目前无法判断其增长 / 下降趋势。 不过报告也指出,大部分黑客都是通过虚拟远程网络、云网关、SaaS 等远程访问服务入侵,其次是通过网络钓鱼和社会工程学手段秘密进入公司系统,最后才是利用软件漏洞,不过攻击者这些年的整体手段更加多变,通常会用多种手段打组合拳,提高入侵成功率。
谷歌Play商店引入AI年龄验证系统,需使用身份证件、自拍等方式证明真实年龄
IT之家 10 月 28 日消息,据科技媒体 Android Police 今天报道,谷歌在过去几个月已经为 Google 搜索、YouTube 等多项服务推出了基于 AI 的年龄验证系统,如今这家公司似乎将类似的验证机制扩展至 Play 商店,让用户证明自己的真实年龄是否满 18 岁。 根据截图可以看到,谷歌 Play 商店的全新年龄验证系统与 YouTube 类似,用户下载某些应用时就会触发验证,可以选择上传身份证明文件(如驾照 / 护照)、自拍照、使用信用卡或选用第三方服务 verifymy.io 验证年龄。 如果用户没有通过验证,就无法下载那些具有年龄限制的应用,不过这项功能仍处于早期阶段,只覆盖小部分地区。 如果选用 verifymy.io 来验证年龄的话,谷歌会要求用户输入自己的电邮地址,随后扫描用户使用相同电邮注册、登录的应用和网站,以此推断用户的大致年龄,如果验证失败,系统就会要求用户上传身份证明文件或自拍验证年龄,其中自拍验证应用了 AI 技术,机器可识别人脸自动判断用户年龄。 Android Police 对此表示,谷歌为 Play 商店及旗下多款服务上线强制年龄验证系统并不是空穴来风,目前在美国地区,已有得克萨斯州、犹他州、路易斯安那州通过法律,要求用户在访问特定线上服务时验证真实年龄。 不过这些法律距离生效还有些时间,得州的法律将在明年 1 月 1 日生效,而加州的相关法律将在 2027 年生效。
马斯克的AI百科全书来了,拉踩维基百科,却被网友啪啪打脸
马斯克“重写人类知识库”的计划,真的实现了? 智东西10月28日报道,今天,马斯克旗下的大模型独角兽xAI宣布推出一个名为Grokipedia的百科全书网站,每个条目都由Grok进行了“事实核查”。这一网站此前曾被马斯克封为“维基百科替代品”,此次他更是发推称:“0.1版本也比维基百科好。” 马斯克还称,Grokipedia.com是完全开源的,任何人都可以免费使用它来做任何事情。不过,在马斯克的X平台账号、xAI的多个官方信息发布渠道以及Grokipedia上,都没有找到相关开源信息。 Grokipedia采用了极简的设计风格:一个Logo、一个搜索框以及版本号。网页显示,Grokipedia拥有约88.5万个百科条目,而维基百科目前的英文条目数量约为800万个。 Grokipedia官网:Grokipedia.com 今年6月中旬,马斯克曾在社交平台X上发文称,希望用Grok 3.5(现名Grok 4)来重写整个人类的知识库,增加缺失的信息,并删除错误,而Grokipedia或许就是这一理念的具象化。 Grokipedia在上线后不久一度崩溃,但很快恢复运行。智东西对Grokipedia进行了体验,需要注意的是,其部分内容其实也是由维基百科词条改写而来的。 ▲X平台上的用户分享,Grokipedia提示其信息来自维基百科 智东西打开了多条Grokipedia与维基百科的相同词条,可以看到,对人工智能这一概念,Grokipedia与维基百科的内容在叙事逻辑和具体表述上都有大量相似之处。 《华盛顿邮报》在测试中发现,Grokipedia中包括“ChatGPT”、“2026世界杯”等常规主题,也有“特朗普”、“以色列”、“性别”等敏感议题。与维基百科相比,Grokipedia的文字更直接、更鲜明,部分条目语气甚至带有强烈倾向。 在部分条目上,Grokipedia与维基百科的定义大相径庭。例如,在“性别(Gender)”条目中,Grokipedia的开篇是:“性别指人类基于生物性别划分为男性或女性的二元分类。”而维基百科的对应条目则写道:“性别是关于男性、女性及其他性别身份的社会、心理与文化特征的范围。” Grokipedia上关于马斯克的页面对马斯克给予了高度评价,描述他是“融合了创新型远见者与不羁的挑衅者”,并详细记载了他“每天喝多罐健怡可乐、偶尔吃早晨甜甜圈”的饮食习惯。 该页面最后设有“长期愿景与影响”一节,写道:“他以维护人类意识免受生存威胁为核心目标,强调建立多行星文明以抵御地球级灾难。” 不过,对马斯克的介绍中,部分内容出现事实性错误——例如声称政治人物维韦克·拉马斯瓦米(Vivek Ramaswamy)在马斯克从美国政府离职后“承担更重要角色”,而实际情况并非如此。 除了夸赞马斯克之外,《纽约时报》发现,Grokipedia的一些条目似乎与马斯克的观点高度一致。关于马斯克公开反对的性别转换手术,Grokipedia的词条显示,针对跨性别者的医疗治疗基于“有限且低质量”的证据。维基百科的对应页面则表示,对这一主题的科学理解已存在数十年。 马斯克也经常批评推特(现为X)前首席执行官帕拉格·阿格拉瓦尔(Parag Agrawal)。Grokipedia关于阿格拉瓦尔的条目强调了马斯克的说法,即这位前高管淡化了该平台上机器人的存在,并称他“因该平台对虚假和垃圾账户的估计而面临严格审查”。维基百科中没有这些细节。 马斯克此番推出Grokipedia,或许是为了修正他眼中维基百科存在的偏见问题。维基百科也认为,该网站上存在一定的潜在偏见。 在此前接受《纽约时报》采访时,维基百科联合创始人Jimmy Wales称,他认为AI无法取代网站的准确性。他补充说,他正在领导一个内部工作组,致力于推广中立观点,并制定指导方针,鼓励学术界对维基百科的潜在偏见进行研究。 Jimmy Wales还在上周接受《华盛顿邮报》采访时说,他对Grokipedia的推出感到好奇,但并没有抱有很高的期望。他认为,AI模型“还不足以编写百科全书文章,其中会有很多错误”。 结语:AI重塑人类知识的野心 仍需时间验证 从目前的体验来看,马斯克口中“重写人类知识库”的愿景,更多还停留在实验阶段。Grokipedia确实展示了AI在信息整合、语言重组等方面的潜力,但其内容依然高度依赖维基百科原文,并在部分主题上体现出明显的立场倾向和事实性偏差。 在强调“去偏见”的同时,Grokipedia似乎又引入了新的主观色彩。对于一个号称要“重建人类知识库”的平台而言,如何在开放性与客观性之间取得平衡,如何建立更为透明的核查与更新机制,或许才是决定其能否真正超越维基百科的关键。其未来的发展潜力,仍有待观察。
中国移动联合华为等发布白皮书:推动天线轻量化
IT之家 10 月 28 日消息,据华为无线网络官方今日消息,在本月的 2025 中国移动全球合作伙伴大会上,中国移动联合华为等行业伙伴正式推出《智简天线能力演进白皮书》,共同为天线技术演进方向努力。 该白皮书在 AI 爆发与 6G 启动的双重背景下,以“智感智控、全维极简”为核心理念。其中,中国移动联合华为推出的智能追焦单元(Beam Tracking Unit,BTU)解决方案是智简天线发展的重要成果之一。 白皮书勾勒了智简天线“智感智控”和“全维极简”两大核心理念: “智感智控”层面,白皮书强调天线与 AI 双向赋能 —— 天线需具备采集、调控、探测、感知的四大能力,为高阶自智网络筑基,BTU 被列为重点发展方向。 “全维极简”层面,针对空间、成本、功耗挑战,白皮书提出省站址、降功耗等目标,推动天线轻量化、高效化,打破传统“哑设备”瓶颈,实现智能运维。 《智简天线能力演进白皮书》架构 从“智感智控”层面来看,BTU 实现了“感知-调控”的 AI 闭环。其拓扑结构实时可视,解决了传统天线拓扑错配的痛点;工参信息实时可采,测量精度大幅提升,为 AI 优化提供精准输入;多维波束实时可调,适配用户潮汐分布,实现“波随人动、网随业动”的动态调控。 在“全维极简”的践行上,传统天线依赖人工爬塔运维,效率低且成本高昂,而 BTU 通过远程动态调优,将维优效率提升 30 倍以上,大幅降低了人工成本。波束实时精准聚焦减少信号浪费,间接优化功耗。 智能追焦单元 IT之家从华为无线网络官方公告获悉,BTU 已实现深圳首试、辽宁商用,有望成为基站标配。
吴永辉坐稳字节大模型1号位
不久前,字节跳动Seed团队(大模型与基础研究)传出新的汇报线变化,朱文佳的直接汇报对象由CEO梁汝波调整为吴永辉。此前,据《澎湃新闻》披露,二人的合作模式是分别负责基础研究/应用,而本次朱文佳被吴永辉“收编”,意味着自2025年初加入Seed后,吴永辉已在组织架构上成为该团队绝对意义上的“一号位”。 这一汇报路径变化表明,Seed的业务方向进一步向基础研究侧集中。而回顾这几轮变化不难发现,吴永辉的“上位”并非孤立事件,年内Seed已合并原AI Lab、多个业务线;一些Seed团队领导并入吴的管理半径。与此同时,Seed在此前举行全员会,吴永辉在会上强调“探索智能上限”、取消部分员工季度OKR等,并给予Seed员工额外的期权奖励。字节高层释放了一个明确信号:SEED,这支成立于23年的大模型基础研究团队,正成为整个公司范围内最受重视的业务之一。 进入2025年后,Seed本身亦在产研两端快速拉伸:一方面推出Seed-OSS-36B等开源/长上下文模型,另一方面继续推进应用侧的产品落地,同时积极推动与对外招募,推进Top Seed计划等。稳坐Seed新掌门的吴永辉,无疑成为了字节新一代AI战略的重要核心。 2025年初,谷歌DeepMind研究副总裁吴永辉的名字和字节跳动联系到了一起。他加入了Seed——字节跳动的大模型研究部门。 吴永辉的加入直接触发了Seed内部结构的调整。部分原本向朱文佳汇报的算法与技术骨干,被重新安排直接向吴永辉汇报。传闻中这些被调整汇报关系的成员有:字节AML和大模型Foundation团队负责人项亮、字节人工智能实验室(AI Lab)总监李航、视觉多模态负责人杨建朝、大语言模型团队负责人乔木等人。 这几位成员在随后几个月时间内也经历了人事变动,乔木因为一场出轨风波引发的内部调查被辞退;杨建朝7月官宣休息,接替他位置的是周畅,曾担任阿里巴巴通义千问大模型的技术负责人;AI Lab总监李航则在退休后又被返聘。 在吴永辉加入之初,字节方面曾传出信息,吴永辉主要负责AI基础研究探索工作,偏基础研究;朱文佳主要负责模型应用相关的工作,偏模型应用,两个人同在Seed部门,都向CEO梁汝波汇报。 另一方面,2025年年初这个时间点,DeepSeek正在海内外大放异彩,这家AI独角兽企业以较低成本实现了与OpenAI的o1相媲美的性能,迅速成为业内“爆款”并出圈。而在同一时期,梁汝波在字节跳动的全体大会上,反思了公司在AI领域的不足,并指出重大技术跟进速度缓慢。 “领先的人工智能初创公司在2018年至2021年期间成立并开始工作,而字节跳动直到2023年的半年技术评审中才开始讨论OpenAI的GPT等前沿模型。”《第一财经》这样援引内部员工在全员会上见闻,梁汝波在会上表示,2025年,字节跳动将专注于追求“智能”的上限。 3月中旬,Seed内部举办了围绕大模型业务的“全员会”。朱文佳和吴永辉首度共同亮相,二人明确Seed部门的最重要目标是探索智能上限;同时强调进一步加强组织文化,提高技术开放程度,并考虑推进开源。 在吴永辉的表述中,“探索智能上限”的目标,主要围绕字节此前公布的AGI研究计划Seed Edge展开。他表示,对Seed Edge的投入将进一步加大,会为Seed Edge提供充足的算力,并将持续在内外部招募最具潜力和好奇心的研究人才。同时,对Edge项目取消季度OKR和半年考核,保障长期稳定的研究环境。 会上,吴永辉还提到了他加入字节的原因,“想做第一流的研究,也想打造一个第一流的AI研究团队。”他表示,希望Seed成为一个能培养人才的组织:“我们希望把世界上最好的人才吸引到Seed来。但更重要的是我们要把内部人才用好,把我们的潜力股识别出来,给他们足够的机会,培养成顶级的人才。” 很快,吴永辉在Seed就有了技术成果产出。今年4月,字节方面公开大模型论文“Seed-Thinking-v1.5”,作者名单中吴永辉的名字赫然在列。业内普遍认为该模型在推理能力与参数效率之间取得了较好平衡——用较少的激活参数却在重要任务上逼近或达到大型模型水平。 在某论坛的Llama系列技术社区中,有业内人士表示,Seed-Thinking是一个200B模型,激活参数20B,却在GPQA评测中超过DeepSeek R1(671B,37B激活)和LLaMA4 Maverick(400B,17B激活)。“这意味着,量化后它可能可以在普通高端PC上良好运行。” 4月,随着字节的集团级研究部门AI Lab整体并入Seed,使研发资源在组织上进一步向大模型主线收拢。在Seed成立之前,AI Lab曾是字节的核心模型技术部门,团队内成员大多来自微软亚研院等海内外知名机构。随着AI Lab并入,Seed成为“公司级AI中枢”的路径更清晰。 时间来到6月底,据《新智核》披露,旗下Seed团队将招募多个机器人相关业务的一号位,包括机器人产品负责人、机器人工程技术负责人,以及具身智能大模型负责人。而在几周后,字节跳动Seed团队正式推出全新VLA模型、应用在机器人领域的GR-3。 合并、扩军,Seed近期的一系列动作表明,字节在大模型研发领域的矩阵已全面铺开。Seed从一个探索团队,逐渐成长为字节在大模型战场的中枢,也让吴永辉的角色愈发关键。10月,随着吴永辉被任命为Seed团队的“一号位”,字节的AI研究将全面聚焦“技术叙事”这一主题。 从南京到加州,从微软到谷歌,吴永辉有着一份学术“大佬”顶配的生涯履历。 上世纪九十年代末,计算机和IT在中国进入黄金时代。1997年,吴永辉考入南京大学计算机系,那一年,张一鸣还在老家读中学,头部科技/互联网领域仍是美国企业的天下。 本科期间,吴永辉就读计算机科学专业,毕业后加入微软。3年后,他远赴美国加州大学河滨分校(University of California, Riverside,以下简称UCR)继续深造,研究方向是统计建模与信息检索。2008年,吴永辉在UCR获得计算机科学博士学位。 21世纪初,机器学习+信息检索还是少部分美国大学的实验性项目,UCR就是其中之一,这段学术经历很大程度上影响了吴永辉后续的研究走向。 2008年,博士毕业的吴永辉加入谷歌位于加州的Mountain View总部,担任搜索排名工程师(Ranking Engineer)。在17年前的互联网时代,搜索排序系统仍依赖PageRank和人工特征设计,而深度学习的浪潮还未成形。吴永辉参与了Google搜索排序与语言建模系统的研发,这一阶段的团队重点是利用机器学习方法改进排序效果。 2014年,吴永辉加入Google Brain团队正式组建,成为早期深度学习系统的核心研究者之一。彼时深度神经网络刚刚在语音识别上崭露头角。 吴永辉在这期间参与了GNMT(Google神经机器翻译)系统的研发,这个系统把三项关键技术结合起来:LSTM网络让模型能理解长句、注意力机制帮助模型在翻译时聚焦关键信息、而WordPiece子词技术则解决了生僻词和新词的问题。通过这种组合,Google翻译从过去的“逐词对照”进化为能理解语义、生成更自然译文的智能系统,也成为全球首批大规模上线的神经机器翻译应用之一。 2016年,吴永辉以第一作者身份发表GNMT项目论文,该论文成为神经机器翻译进入生产化的里程碑。相比旧模型,GNMT在英法与英德翻译中错误率下降60%,随即全面部署到谷歌翻译。在Google Scholar上,他署名的论文被引用超过4万次,其中GNMT一篇9000余次。 2022年,在Google Research官方的《走近谷歌研究员》一档视频栏目中,吴永辉作为文本生成图像模型——Parti的核心研究者公开露面。在交流中,吴永辉回顾了自己的谷歌生涯,他表示,自己在谷歌最初的6年在搜索团队,主要负责改进谷歌搜索的排名算法。过去8年在Google Research,研究涵盖自然语言处理、语音识别与计算机视觉等多个AI方向。眼下,他和团队主要关注如何将研究成果转化为具体的产品应用。 而在大模型研发领域,除了上文提到的多模态模型Parti,吴永辉还参与了Gemini系列模型的开发工作,包括Gemini Family和Gemini 1.5,推动了模型在长上下文理解、跨模态推理等方面的突破。而在大模型基础研究场景,吴永辉的成果横跨大模型的多个技术领域,文生图、TTS语音、超大参数模型提效等。 2023年,吴永辉被晋升为Google Fellow,并出任DeepMind研究副总裁。根据公开信息披露,“Google Fellow”对应大致为等级L10,是公司中最高级别的技术职位之一,被授予此称号的通常是全球领域内顶尖的专家,他们不仅在某一技术方向取得重大突破,也承担起引领公司技术愿景、跨团队推动创新的责任。 从外界看来,吴永辉已经半只脚踏入了谷歌的核心管理层,所以当他的名字出现在字节跳动Seed架构名单时,在硅谷AI圈引发了不小的轰动。硅谷科技圈网红zephyr在社交媒体上这样评价:“一个基本把Gemini项目摸透的人去了字节,好奇字节给了什么筹码。” 据《智能涌现》此前援引知情人士称,这位在谷歌耕耘17年的“扫地僧”,此番离开谷歌加入字节,“是希望做一些新的,偏探索的工作。” 3年前,在ChatGPT引爆行业后,字节在2023年初启动Seed团队,承担字节“通用智能/大模型”的核心研发职责,研究覆盖LLM、语音、视觉、AI Infra与下一代交互等;今年以来,Seed旗下其长期研究子项目代号Seed Edge也进入大众视野,定位“探索智能上限”的长期、不确定课题。 据Recode China AI披露,2023年以前,字节内部探索人工智能的团队主要由AI Lab负责,该团队的NLP(自然语言处理)小组约有100名成员,由字节跳动研究主管李航领导。只有一个10人的小团队负责研究大型语言模型(LLM)。 而在2023年牵头组建Seed团队的,正是如今转为向吴永辉汇报的朱文佳。据了解,朱文佳早年担任百度搜索部主任架构师,2015年加入字节并负责算法工作。2019年9月起任今日头条App负责人;2021年2月转任TikTok产品技术负责人。值得注意的是,字节的技术高管中有多位有百度系背景,其中还包括两位高管杨震原和洪定坤。 在Seed成立之后的两年中,字节AI业务不断“并线”。自2023年后,AI Lab的NLP组在当年下半年整体并入Seed;2024年,负责视频生成的PixelDance等团队也转入Seed,随着今年AI Lab整体并入Seed,字节的大模型研发由此进入“大军团”模式。 Seed官方发布的年度回顾文章显示,2024年共有57篇论文被选入ICLR、CVPR、NeurIPS等顶级会议;同时,该团队在模型稀疏化、强化学习等基础研究方向持续推进。 经历几轮架构调整后,关于字节AI组织的“三叉戟”布局逐渐清晰起来:Flow(产品应用层面)、Seed(模型研发)与Stone(基础设施/平台),其中,Seed成员分布在北京、新加坡与美国,协同开发大语言、视觉、语音与世界模型等领域。 另一方面,在Seed发展过程中,创始人张一鸣的身影“存在感”不断增强。自2024年下半年起,张一鸣定期从新加坡往返北京,参加Seed核心技术团队复盘/讨论会,把大量时间花在和研究者交流与讨论技术细节上。 2024年底,据外媒报道,尽管张一鸣在2021年卸任CEO,但他仍然活跃于公司的AI战略中。他亲自参与招募AI工程师和研究员。在这一过程中,张一鸣已经一对一聊过许多AI顶会论文的作者,这其中还有尚未毕业的博士生。 字节公开的招聘信息显示,Seed在北美与亚洲同步扩张,并通过学生研究员/实习与校招维持人才漏斗。2025年,字节启动了TopSeed项目,计划招聘约30名优秀博士,聚焦于“大模型研究”“多模态理解”“机器学习系统”等方向。 10月初,在公众面前沉寂许久的张一鸣现身上海,作为上海徐汇知春创新中心的发起人出席该中心的开业活动。据了解,上海徐汇知春创新中心核心定位为前沿计算机与人工智能技术创新研究、开源工具和算法开发,以及顶尖创新人才培养。一时间,张一鸣重视AI产业发展、AI人才建设不再是一个内部话题。 不过,公开报道显示,上海徐汇知春创新中心是张一鸣个人捐助的项目,与字节跳动并无业务关系。但“知春”二字,意指字节跳动起源地的北京知春路,不禁让人产生些许联想。 另一方面,吴永辉加入字节这半年来,Seed在字节内部的待遇堪称“亲儿子”级别,9月以来,Seed实施一次覆盖核心大模型员工的期权增发/津贴计划,按照绩效与职级差异,每月可获约9-13.5万元等值期权,按月归属,连续18个月;在一些社交媒体上,该激励被形容成“下血本”,显示出字节方面对基础研究与顶尖人才密度的继续加码。 如此程度的“偏爱”,甚至引发了部分字节员工的不满,一些社交平台上出现了“Seed这波令人寒心”的讨论。今年年初,字节跳动曾发布内部邮件,对员工福利体系进行“瘦身”,春节红包将在2026年停发,下午茶和部分节日礼品也相继取消,在一些员工看来,这样的操作多少有些“所有人节衣缩食补贴Seed”的感觉。 而在人事文化与绩效口径方面,字节方面也为Seed Edge开了“小灶”,采用“长周期考核”的特殊机制,与公司季度绩效模式并行。随着朱文佳时代的技术高管们相继让位,吴永辉时代的Seed开始全面对标那些来自硅谷的同行们。 显然,Seed团队形成如今的规模,和张一鸣深度参与字节AI业务不无关系。而在科技史上,谷歌曾经也有类似情景:创始人Larry Page在2011年回归CEO职务后,强调人工智能/机器学习为公司战略核心,并亲自推动Google的AI团队及组织调整。 如今,吴永辉接过Seed的“一号位”,意味着这支团队的1.0阶段已经结束。它不再只是字节内部的科研试验田,而是被正式纳入公司的最核心版图。张一鸣所押注的,除了这位谷歌的“扫地僧”,更是字节能否在AI时代,从互联网企业升级为头部科技企业的蓝图。
Uber拟1亿美元投资小马智行香港IPO 还有意文远知行
Uber 凤凰网科技讯 北京时间10月28日,据彭博社报道,知情人士称,Uber正计划投资小马智行、文远知行的香港上市交易,此举将加深这家网约车巨头与中国自动驾驶出租车公司的联系。 据知情人士透露,Uber可能在小马智行的香港股票发行中投资约1亿美元。小马智行去年在美国上市,目前正寻求通过香港上市筹集高达9.72亿美元资金,之后还可选择扩大发行规模。 知情人士称,Uber还有意投资文远知行的香港上市交易,但未透露具体金额。其他潜在投资者可能包括东南亚最大网约车和外卖公司Grab、新加坡国有投资机构淡马锡控股以及罗伯特·博世公司。文远知行同样在一年前在美国上市,已于周二启动香港上市程序,计划募集资金最高达3.98亿美元。 知情人士表示,相关谈判仍在进行中,投资计划可能会有所变动。Uber此前已投资了小马智行、文远知行在美国的首次公开招股(IPO),博世也参与了对文远知行的投资。今年5月,Uber又宣布对文远知行追加1亿美元投资。今年早些时候,Uber与小马智行合作进军中东市场,并在阿布扎比与文远知行展开合作。 截至发稿,Uber、小马智行、文远知行均尚未就此置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
估值93亿公司把“最强销售”喂给AI,10人团队瞬间只剩“1人+1个Agent”
毫无疑问,AI 正在重塑每个岗位的定义。 从客服到设计师,从程序员到销售,没有人能完全置身事外。而这一次,知名前端云平台Vercel 给出了一个极具现实感的案例:它直接让 AI 向公司里最优秀的员工“取经”,最终实现了——1 个人+1 个智能体(Agent),干掉了原本的 10 人团队。 从前端平台到 AI 实验场:Vercel 的转型野心 Vercel 成立于 2015 年,由开发者 Guillermo Rauch 创办,以简化开发者的工作流程为核心使命,为开发者提供了一整套构建与部署现代 Web 应用的云平台,其明星项目 Next.js 已成为全球最流行的 React 框架之一。 在估值突破 93 亿美元、用户遍布全球之后,近来Vercel 的下一个目标变成了“让 AI 成为内部生产力工具”。公司 COO Jeanne DeWitt Grosser 自今年3月上任后,迅速推动了一项新的内部计划:用 AI Agent 学习人类工作流程,让 Agent 能像员工一样自主完成任务。 让 AI 复制“最强销售”的日常 这个试验从销售部门开始。 在 Vercel 的销售团队中,有 10 名销售开发代表(SDR)负责处理入站客户咨询——这通常是一个“重复多、节奏快、门槛低”的岗位。而在这个团队中,有一位员工的表现特别突出:响应高效、转化率惊人、客户满意度极高。 为此,Grosser 特地组建了一个由 3 名工程师组成的小组,花了 6 周时间“跟拍”这位顶级销售的全部操作流程:记录下每一次邮件往来、每一个判断线索质量的标准、每一种语气与措辞偏好。 随后,这一切被转化为可执行的逻辑,注入到了一个名为“Lead Agent”的销售智能体的训练体系中。据介绍,这个“Lead Agent”能够自动审查所有入站消息、过滤垃圾线索,通过内部数据库查询和调用 OpenAI 的 Deep Research 工具来验证潜在客户信息,还能自动生成带有“人类语气”的个性化邮件回复,并将客户支持类问题自动分流至相应部门。 从“10 个人”到“1 个人 + 1 个 Agent” 当这个 Agent 正式上线后,结果让整个团队震惊:AI 几乎能够完整接手多数重复性流程,人类只需在 Slack 审阅 AI 的输出并做轻微调整即可。 于是,Vercel 逐步缩减了这支入站销售团队——从 10 人降至仅 1 名人工监管者 + 1 个 Agent。据悉,其余 9 名员工也并未被解雇,而是被转岗至更高价值的工作:外部客户拓展、战略合作、复杂销售谈判等。 Grosser 表示,这个 AI Agent 的准确度和效率甚至超过早期团队平均水平,它能 24 小时响应客户,并随着人类反馈持续优化语气和策略。“只要能把流程文档化,现在要让一个智能体执行这件事,其实非常简单。” 值得注意的是,Vercel 并没有把这场 AI 实验当作“降本裁员”的手段。Grosser 和新任全球现场工程副总裁 David Totten(前微软与 Databricks 高管)都强调,当前 Vercel 公司的整体人数仍在增长。而此次实验的目标是:把最顶尖员工的工作方式,变成全公司的生产力模板。 “以顶尖员工为模板”本来就是企业常见的做法,Totten指出:“只不过区别在于,现在的技术让这种学习过程被加速了。” Grosser 也将这种 AI 训练模式比喻成“实习生培训”:“你不会把实习生交给一个态度散漫、不理解公司愿景的人带。你一定会让他跟随最优秀的员工学习。” “让 AI 去做那些可复制、可预测的事” 截至目前,Vercel 已部署 6 个 AI Agent,计划在未来 6~12 个月内扩展到上百个,全部以顶级员工为原型构建。 这些智能体被用于销售、市场、客服、内部支持等岗位,其选用标准只有两个关键特征: ● 可复现性:工作流程能够被完整记录; ● 确定性:相同输入能产出一致结果。 换句话说,AI 接管的是那些可被标准化和量化的岗位任务,而留给人类的,则是更具创造性、模糊性和战略判断的部分。而 Grosser 认为,这才是 AI 应用的正确姿态: “我个人认为,人类的潜力远超他们目前的工作角色所要求的。让 AI 去做那些可复制、可预测的事,反而能释放出人类更具创造性的部分。” 从某种意义上看,Vercel 正在用自己做一场“组织层面的 AI 实验”:它不是用模型生成代码或文案,而是用模型重写公司的工作流——当 AI 能够复制顶尖员工的判断模式、语言习惯与行动逻辑,那时公司的边界和层级就会被重新定义。 因此在可预见的未来,这样的 Agent 可能会越来越多地出现在企业的日常运作中。而当工作被算法理解,人类的价值也许就会从“会做”,转向“为什么做”与“如何做得更好”。
PayPal与OpenAI达成合作,成为首个ChatGPT数字钱包
IT之家 10 月 28 日消息,贝宝(PayPal)宣布与 OpenAI 达成协议,将成为首个整合进 ChatGPT 的数字钱包服务。受此消息影响,PayPal 盘前一度暴涨 14%。 自明年起,ChatGPT 用户可直接通过 PayPal 完成支付,商家也能在该平台上销售商品。该协议标志着 OpenAI 在将 ChatGPT 拓展至电子商务领域方面迈出新一步。 据 PayPal 向 CNBC 独家披露,这项协议于上周末正式签署。届时,PayPal 的两类用户群体 —— 个人用户与商家 —— 都将能够在 ChatGPT 内使用该服务。 PayPal 首席执行官亚历克斯・克里斯(Alex Chriss)表示:“我们拥有数以亿计忠诚的 PayPal 钱包用户,他们今后只需点击 ChatGPT 上的‘使用 PayPal 购买’按钮,即可享受安全、便捷的结账体验。” PayPal 称,公司将为其商家在 ChatGPT 内处理支付路由、交易验证及其他后台支付流程,无需商家单独与 OpenAI 签约。所有参与方 —— 消费者与商家 —— 均已通过 PayPal 验证,这将有助于降低交易欺诈风险。用户可通过关联的银行账户、信用卡或 PayPal 余额付款,并享受交易保护、包裹追踪及纠纷处理服务。 克里斯补充说:“这不仅是让交易发生,而是让一个由全球最大、最可信的商家与消费者组成的网络安全运作。” 克里斯表示:“这是一种全新的购物模式。很难想象‘智能体式电商’不会成为未来的重要一环。”IT之家注意到,PayPal 近期也与谷歌及 Perplexity 达成合作,意在成为“AI 购物时代的支付基础设施”。
全球首个人形机器人服务员酒店在上海开业
IT之家 10 月 28 日消息,据人形机器人企业擎朗智能消息,上海虹桥香格里拉盛贸酒店于今日开业,擎朗智能携旗下人形具身服务机器人 XMAN-R1、大载重机器人 S100、酒店机器人 W3、清洁机器人 C40、配送机器人 T10 / T3 等 8 台擎朗机器人全面上岗该酒店。 擎朗智能表示,这家酒店不仅成为全球首个拥有人形机器人服务员的酒店,更成为全球首个拥有通用 + 专用机器人协作的酒店。 IT之家附机器人介绍如下: 接客服务员 XMAN-R1 擎朗 XMAN-R1 不仅能帮宾客开车门,主动问候来宾,进行趣味互动,还能递送糖果。 智能行李员:大载重机器人 S100 作为行业首个深度对接香格里拉酒店管理系统的智能行李员,擎朗 S100 实现了“一键呼叫,即刻服务”的体验。 宾客在办理入住或退房时,均可召唤它前来运送行李。 配送机器人 W3 擎朗 W3 不仅可以引领宾客前往客房,还负责配送宾客点的外卖、酒店客需品等。它可穿行于酒店的走廊与电梯,将物品送达客房门口。 餐饮配送员:T10&T3 当顾客在该酒店餐厅吃饭的时候,T10 负责餐厅大堂区域的餐食配送; 而 T3 则专攻私密性更高的包厢。 清洁机器人 C40 在酒店大堂、走廊和电梯厅等公共区域,C40 会自主完成清洁任务,并能 30 秒快速风干地面,集扫、洗、吸于一体,适应大理石、地毯、木质地板等多种地面。
见证历史!互联网AI生成内容数量首超人类:52%比48%
快科技10月28日消息,搜索引擎优化公司Graphite的最新研究显示,目前互联网上超过半数的书面内容(英文)已由AI生成。 自ChatGPT问世以来,越来越多的企业开始采用大模型来生成内容,相较于聘请真人的高昂成本,AI生成内容凭借其成本优势,成为了企业争夺搜索引擎、社交媒体及广告渠道流量的新工具。 Graphite的研究来自对2020年1月至2025年5月期间发布的6.5万篇英文网络文章进行的分析,样本库来自从全球最大公开网络档案库CommonCrawl中随机抽取的网址。 数据显示,AI内容的爆发式增长与ChatGPT的推出时间高度吻合:ChatGPT问世后12个月内,AI生成文章已占据网络文章发布总量的39%。 在2024 年 11月达成里程碑,AI生成内容数量首次超越人类创作内容,截至2025年5月,AI生成内容比例已攀升至52%。 不过Graphite研究也指出,在过去12个月(截至2025年5月)中,其增长势头已明显趋缓。究其原因,并非 AI 技术本身停滞,而是内容从业者逐渐意识到,单纯追求数量的AI生成内容在搜索引擎排名中表现不佳,难以实现预期的流量收益。 研究人员还指出,当前方法尚未涵盖“AI生成初稿+人工深度编辑”的混合创作模式,且检测工具主要针对GPT-4o生成的文章进行评估,对快速迭代的新型AI模型识别准确率可能衰减。
维基百科,终结了!马斯克开源版上线,用AI重写“真相”
导读:今天,马斯克亲手放出「开源版」维基百科——Grokipedia V0.1,收录超88万篇文章,每次查询Grok都会核验事实。然而,也有人吐槽内容抄袭Wiki。 维基百科,终于开源了! 今天,马斯克正式发布Grokipedia V0.1版本,并预告1.0版本要比现在强十倍。 他自信满满地表示,就现在这个版本,就足以秒杀维基百科了! 进入Grokipedia主页,设计非常简洁,核心就是一个输入框。 背景是那种深邃的黑,上面闪烁着星辰点点,将知识的星辰大海的感觉瞬间拉满。 它目前收录了超88万篇文章,主要通过Grok去核查事实。而且,还支持在线交互、申报错误。 传送门:https://grokipedia.com/ 上线不过几小时,这项扬言要取代维基百科的项目,就引爆了争议。 有网友辣评,Grokipedia就是对着维基百科玩了一把「复制粘贴」,从内容到排版,全都照搬过来了。 如下,在解释半导体中的「米勒效应」(Miller Effect),前者直接一字不差地「抄袭」。 马斯克立即打脸,「我们永远无法做到完美,但将依然为之努力」。 Grok和Grokipedia的终极目标是真理,全部的真理,别无其他。 维基百科的时代,真的成为过去了吗? 开源版「维基百科」 十月初,xAI团队在内部秘密打造Grokipedia消息,才被正式爆出。 当时,马斯克称,这是一款由AI驱动、开源的百科全书,这是朝着xAI理解宇宙的目标迈出的必要一步。 早在2019年,马斯克偶然看到维基百科中的个人介绍,直接破防了—— 他吐槽道,页面像是有几十亿次编辑的battle现场,还要打假人们给自己扣的「投资者」的帽子。 后来,马斯克因为维基百科一些政治不正确等问题,与其创始人Jimmy Wales在全网互喷。 这一次,Grokipedia正式开源,追寻到马斯克口中所谓的真理了吗? 小试一下,搜索「Elon Musk」,可以看到几秒内,Grokipedia迅速给出一个完整的介绍,堪比个人传记。 除了开头的综述,下面分别详细介绍了马斯克童年经历、早期创业经历、企业版图、个人生活、在政治、商业等领域的大事纪。 最后,Grokipedia还附上了超300多个参考链接。 相较于维基百科,Grokipedia的介绍有所区别,但基本信息差异很小。 最大不同在于,其上方有一个Grok核查事实的标注,会显示每篇文章,最后一次事实核查的时间,确保内容准确可信。 而且,用户可以在内容下方划线,与Grok交互;若是遇到了事实错误,任何人还可以提出改进建议。 如前所述,目前Grokipedia已收录了885,279篇文章。 作为对比,维基百科在其网站上表示,截至目前,英文维基百科共有7,081,800篇文章。数量是Grokipedia的近8倍。 好评如潮,但抄来的? Grokipedia上线之后,因各种不稳定,时而可以进入,时而宕机,引来不少人吐槽。 不过,就知识查找的结果,业界对此评价也是褒贬不一。 「暗黑」幕后操盘手Mark Kern认为,Grokipedia对GamerGate的定性够公道,终于讲出了大实话。 这是史上最公正的定论,而不是维基百科那些,年复一年照搬游戏媒体编造的谎言。 另一位网友称,George Floyd词条的处理,两者差距立判。 Grokipedia在细节把握和叙事深度上,完全碾压维基百科,不像至于像后者输出意识形态。 还有更多的好评,蜂拥而出。 问题就在于,细心的网友们发现,很多内容Grokipedia直接从维基百科照搬而来。 不过,正如现在几乎所有AI搜索都会把Wiki当做信源之一,随着内容不断完善,Grokipedia或许很快也会成为其他AI的引用来源之一。 xAI 接下来我们简单体验一下。 首先,试一试xAI。 Grokipedia直接给出了一份差不多4200字的材料,而Wiki只有1000个字。 除了引入的介绍更加详细之外,从Grokipedia左侧的目录中也能看到,不仅有历史发展、产品技术、基础设置、财务表现,甚至连争议都写了进去(比如对Grok极端言论的批评)。 在参考资料上,Grokipedia也是以98比65碾压Wiki。 上下滚动查看 OpenAI 如果觉得xAI能有这么多信息是因为偏袒自家产品的话,我们再来搜一下老对手OpenAI的信息。 这次,Grokipedia洋洋洒洒写了约8750字,而Wiki只有6200字左右。 自动播放 在Grokipedia里,OpenAI从2015年的创立,到2025年的最新产品;从商业合作、人员变动,到开源对齐、社会影响,再到奥特曼的解雇与复职、近期少年自杀的诉讼等等,非常全面。 AI搜索截流8%,马斯克横插一脚 2000年,Jimmy Wales和Larry Sanger两人,上线了一个专家审稿的网站——Nupedia。 当时,它主要由专家撰写、多轮评审,流程严谨但极慢。一年后,正式通过的条目还不到两打。 为了提速,2001年初,他们决定正式上线「开放协作」的维基百科,任何人皆可编辑,很快就自成体系。 2006年时,英文维基条目已破百万。如今,已经收录数千万篇文章。 过去24年里,维基百科成为了互联网上最优质的网站,堪称全世界的「百科全书」。 然而,AI搜索时代的来临,让维基百科逐渐走向低谷时期。 维基媒体基金会最新数据,维基百科页面浏览量同比减少了8%。 主管Marshall Miller指出,GenAI和社交媒体对人们获取信息的方式产生了巨大影响。尤其是,搜索引擎直接使用AI总结答案,而不是链接到我们这样的网站。 谷歌Overviews、OpenAI的Atlas、Perplexity的Comet等浏览器,都成为了维基百科最大的威胁。 如今,马斯克直接要「掀桌」——打造一个开源版Grokipedia。 创始人Jimmy Wales在一次采访中表示,AI是无法取代维基百科的准确性。 为了挽回优势,Wales带头成立了一个内部工作组,专攻两件事—— 一是确保内容中立客观,二是指定条条框框,鼓励学术界研究其中的偏见。 在AI搜索时代,维基百科需要打一场翻身仗。
OpenAI宣战谷歌翻车?OpenAI首个AI浏览器,受攻击风险比谷歌高90%
智东西 编译 | 王欣逸 编辑 | 程茜 智东西10月28日消息,10月27日,日本AI SaaS公司LayerX发布的最新报告称,相较于谷歌或Edge等浏览器,Atlas的用户更容易受到网络钓鱼攻击,风险甚至高出近90%,仅能成功阻止5.8%的恶意网页。 10月22日,OpenAI发布自家首款内置ChatGPT的浏览器Atlas,试图向谷歌发起挑战。然而,被各界寄予厚望的的Atlas却没有达到预期。 LayerX研究团队称,他们发现了影响Atlas的首个漏洞:用户用任意浏览器在线访问ChatGPT时,攻击者能够将恶意指令注入ChatGPT的内存中并执行远程代码。 这种攻击通过跨站请求伪造(CSRF)的方式将“恶意指令”注入ChatGPT的内存中。当用户使用ChatGPT时,被污染的内存就会被调用。这一漏洞可能使攻击者感染用户系统、获取访问权限或者部署恶意软件。 漏洞利用原理(图源:LayerX) 虽然此漏洞会影响任何浏览器上的ChatGPT用户,不过对必须通过ChatGPT登录的Atlas浏览器用户而言,这一漏洞则尤其危险。 除此之外,Atlas在阻止网络钓鱼攻击的表现尤其糟糕,这使得Atlas浏览器的用户更容易受到攻击。 研究数据显示,在对Atlas进行的103次实际攻击中,有97次攻击得以通过,Atlas仅成功阻止了5.8%的恶意网页。同样条件下,Edge成功阻止了53%的攻击,Chrome则成功阻止了47%的攻击,这意味着与其他浏览器用户相比,Atlas用户遭受网络钓鱼攻击的可能性高出近90%。 各浏览器阻止网络钓鱼攻击的能力(图源:LayerX) 图表显示,Atlas阻止网络钓鱼攻击的能力非常不理想,甚至比不过Perplexity Comet浏览器和Genspark AI浏览器,而Atlas一直视Chrome为竞争对手。 结语:OpenAI AI浏览器陷安全危机 对于OpenAI而言,Atlas是一个全新的尝试,其操作更需格外谨慎,开发者需积极推进Atlas的常规防护措施和漏洞修补。 对于ChatGPT用户而言,用户在使用过程中仍需谨慎点击AI给出的可疑链接,定期检查或清除ChatGPT的内存设置。 就目前来看,距离用户放心安全使用Atlas浏览器,还需要一个很长的过程。对此,OpenAI尚未回应。
飞书加入双11备战,亮AI工具全家桶,要改变电商玩法
作者 | 王涵 编辑 | 漠影 智东西10月28日报道,今日,飞书宣布加入双11备战,通过其多维表格的“AI工具全家桶”,帮助电商业务各环节提效。 围绕电商领域的AI实践,飞书在昨天举行的媒体沟通会期间详细介绍了多维表格最核心的AI功能,即“AI列”“自然捷径”和“平台数据整合”功能。 飞书多维表格的“AI列”“自然捷径”功能,可以在当用户新建列时,直接调用适合的AI工具,在表格中填充AI生成内容。“平台数据整合”功能可以通过RPA工具抓取抖音、小红书等全平台数据,搭建数据看板。 现在正值双十一电商大促期间,飞书团队还分享道,其多维表格已经与电商客户共创沉淀了多场景的电商AI提效模板,与三只松鼠、伊芙丽、禾风一漾、蕉内、得到等品牌电商、跨境电商达成合作。 一、发布5年,飞书多维表格从“便捷Excel”进化到“业务中枢” 历经5年迭代,飞书多维表格完成了从工具到系统的蜕变,截至2024年,其月活跃用户已突破1000万。 飞书市场经理王屹煊说:“当AI工具与业务工具割裂时,AI就会与业务割裂。”飞书多维表格的核心定位是“业务工具与AI抓手”,即让AI自然嵌入商家的日常操作,无需改变原有工作方式即可实现效率提升。 飞书多维表格的核心突破在于“AI列”“自然捷径”功能。当用户新建列时,可直接调用适合的AI工具,如DeepSeek、即梦等。 以小红书爆款生成为例,用户仅需在表格输入“冬季旅游攻略”话题,AI列可自动生成文案、封面图,提取互动问题和标签,实现“输入-处理-输出”全流程自动化。 影视飓风还曾特别发布视频,讲述他们通过多维表格内置圣图AI,仅需填写创意与指令,即可在几分钟内批量生成20张以上视频封面。 多维表格的“平台数据整合”功能则可以解决数据分散难题,该功能可以通过RPA工具抓取全平台数据,结合AI分析生成自定义仪表盘。 二、电商有AI落地三大优势,飞书多维表格积累多场景电商模板 飞书市场经理王屹煊分享称,2025年初大模型爆发后,飞书团队观察到平台内绝大多数AI实践集中在电商领域。 通过近一年与电商从业者、消费品牌的交流,飞书团队发现他们有着极大的“对AI的焦虑与学习热情”。在激烈的同质化竞争中,他们亟需能真正落地的AI工具,以“多走一步”,抢占先机。 更关键的是,电商行业本身具备AI落地的3大“先天优势”: 1、数据基建完善:从平台后台到ERP系统,电商行业已积累海量结构化数据; 2、内容需求旺盛:日常需生成大量文案、图片、视频等营销内容,AI批量生成能力可直接解决“内容产能不足”问题; 3、业务迭代高频:受季节、节日、平台规则影响,电商策略需频繁调整。 因此,飞书针对电商场景,通过与合作伙伴的共创,积累了多场景电商模板,覆盖MCN(交个朋友、禾风一漾)、知识电商(得到)、连锁品牌(亚朵)等,企业可直接复用。 三、电商运营人力成本降低70%,跨境电商与非洲团队实时同步订单 飞书团队和嘉宾还分享了飞书多维表格在电商业务中的具体实践。 例如多平台直播(抖音、视频号、淘宝)场景,通过飞书解决方案,客服可以将各平台直播大屏截图上传表格,运营用AI提取观看人数、转化率、单品点击等数据,拖拽生成自定义仪表盘,还能够实时更新核心指标,直播运营效率提升65%。 例如,零食品牌三只松鼠以SKU为单元搭建飞书多维表格,串联商品调研、包装设计等10个环节,新品上线周期从1个月以上缩至1-3周。其还通过飞书多维表格用AI监控竞品数据,用户评价分析准确率提升2%-5%,成本节省10万元/年。 母婴头部品牌Babycare大促期间借助飞书解决方案实现“智能识别-自动派单-进度可视化”一条龙,处理周期缩短至1天内,用户流失率降低30%。 美妆品牌珀莱雅用飞书多维表格搭建竞品监测看板,用AI提炼竞品卖点与成分。借助飞书多维表格搭建的样品管理系统支持语音提报解析,库存准确率达100%,每月节省自播部门30+小时。 服饰品牌蕉内的运营通过调整提示词,在飞书多维表格内用AI生成天猫主图、抖音封面等素材。多维表格帮助蕉内连接人货场数据,辅助设计绩效评估。 电商运营公司成都独唱团总经理迟帅分享称,他们团队将飞书多维表格运用到了品牌客户代运营与川渝零食自营业务当中,人力成本降低70%;短保质期零食库存周转从4-6个月缩至15-30天,物料浪费减少60%。 00后创业者方菁在非洲跨境电商领域通过飞书多维表格,实现订单表单实时同步进度,丢单率从30%降至0。她还用飞书的AI工具生成东非线下大会物料,1人完成“物料-场地-邀约”全流程,2个月验证内罗毕市场可行性。 结语:飞书多维表格帮助电商AI化 2025年AI浪潮席卷产业界,在这一过程中,电商行业虽具备数据、内容和迭代频率上的天然优势,但多数企业仍面临工具与业务场景难以有效结合的挑战。 飞书多维表格的AI功能,可被视为对这一行业共性需求的一种解决方案尝试,不仅为电商企业提供了实用的工具,或许也将推动电商行业的AI转型。
蚂蚁新报告!全盘公开Ling 2.0训练细节,性能突破的四大关键曝光
作者 | 程茜 编辑 | 漠影 蚂蚁集团这波操作大圈粉! 智东西10月28日报道,10月25日,蚂蚁集团在arXiv上传了一篇技术报告,一股脑将自家2.0系列大模型训练的独家秘籍全盘公开。 今年9月至今,蚂蚁集团百灵大模型Ling 2.0系列模型陆续亮相,其万亿参数通用语言模型Ling-1T多项指标位居开源模型的榜首;Ling-mini-2.0总参数160亿,每个Token仅激活14亿参数;Ling-flash-2.0总参数1000亿、激活仅6.1B,性能媲美400亿级别参数模型…… 这些模型的表现,标志着大模型发展从单纯堆参数迈向以高效方式实现智能的新阶段,而这一转变的核心支撑正是Ling 2.0技术体系,此次蚂蚁技术报告对此进行了全盘解读。 Ling 2.0的核心亮点清晰聚焦:依托高稀疏度混合专家设计、推理导向的数据流水线、多阶段对齐策略,以及基于FP8的万亿级训练基础设施,无一不是在为通用推理模型搭建具备可扩展性的坚实技术底座。 当我们将目光放大至整个行业,可以发现,大模型的竞争力正向用用最少的资源解决最多的场景问题转变,而Ling 2.0面向模型架构、预训练、后训练、基础设施各个环节的深度融合创新,正在为其提高切实可行的技术路径。 在这一背景下,围绕Ling-min-2.0、Ling-flash-2.0、万亿参数非思考模型Ling-1T三款模型的具体性能,以及蚂蚁新技术报告,我们将拆解大模型时代当模型架构、训练数据、训练策略与基础实施深度融合后,模型智能会如何飞跃。 技术报告:https://arxiv.org/abs/2510.22115 Hugging Face开源主页:https://huggingface.co/inclusionAI 一、每一次激活都提升推理能力!架构、预训练、后训练、基础设施全栈融合创新 参数规模达数千亿乃至万亿参数的超大规模模型加速涌现,其在大模型产业中的重要性与日俱增。 但伴随模型向更高参数规模、更强模型能力突破的同时,仍面临模型训练效率与成本的平衡、模型推理能力提升、长上下文处理、模型性能与评估体系迭代慢等多重关键问题。 针对这些痛点,Ling 2.0的核心解法就是“让每一次激活都提升推理能力”,从而实现在稀疏激活下最大限度地提高推理精度和效率。而这一技术优化的关键也就是推理环节的效率与精度兼顾的痛点,使得大模型训练在保证计算资源高效利用的同时,直接推动推理能力的提升。 大模型的实际性能表现,是衡量其技术路径优劣最直接、最有力的证明。如今,基于Ling 2.0,蚂蚁集团已经发布三款不同参数规模模型,160亿参数规模的Ling-mini-2.0、1000亿参数规模的Ling-flash-2.0以及万亿参数模型Ling-1T。 在效率层面,Ling 2.0系列模型中,Ling-mini-2.0每Token激活参数仅14亿,其性能就可媲美百亿参数级稠密模型,Ling-flash-2.0每次推理激活参数61亿,就可媲美400亿级稠密模型,激活计算效率约7倍。Ling 2.0模型实现了以更低计算成本,实现更高性能回报。 推理性能上,万亿规模模型上,Ling-1T每次推理激活约510亿参数,在2025年美国数学邀请赛AIME benchmark中,其突破了推理准确率与推理长度的帕累托边界,实现既支持更长文本、更多轮次的高效思考,又能保证复杂任务下答案的精准求解,尤其在数学与编程任务中优势明显。 与此同时,这三款模型还展现出了一致性,Ling 2.0系列模型参数规模从百亿到万亿,性能也随之稳步提升,这一结果直接验证了其架构设计与训练策略的可扩展性。 模型的实际表现证明,Ling 2.0 技术正在解决大模型推理效率与精度难以兼顾的核心矛盾中,持续创造价值,让每一次参数激活都服务于推理能力提升,避免了无效计算。 通过对蚂蚁这份新发技术报告的深度拆解,我们得以完整看清这一技术路径的底层逻辑和关键原理。 二、模型架构:高稀疏MoE与Ling缩放定律 首先是模型架构,其作为核心支柱直接决定了模型性能上限。 在Ling 2.0中,研究人员采用了统一的MoE基础架构,然后集成aux-loss-free负载均衡策略和多Token预测(MTP)进一步提升性能,并通过Ling scaling law进行精准外推扩展。 具体来看,其基于高稀疏度、细粒度的设计,使得每个模型配置256个路由专家,8个激活专家和1个共享专家,整体激活率约为3.5%。同时将三个模型的初始层分别指定为1层、1层和4层稠密层,这种方法可以在保持模型性能的同时减少总参数量,并提升路由平衡性。 Ling 2.0系列的模型架构配置 底座搭建完成后,研究人员进一步通过设计优化提升其效率、性能、可扩展性。 Ling 2.0的路由均衡策略遵循与DeepSeek-V3类似的设计,其无辅助损失均衡策略可同时促进专家专业化和负载均衡,并应用路由器门缩放提高训练稳定性。 同时,Ling 2.0还原生集成MTP作为辅助训练目标,为每个模型规模引入一个MTP层,并将MTP损失权重设置为0.1,通过在Megatron训练框架内为MTP模块实现细粒度的流水线并行(PP)划分,以降低MTP的性能开销。 研究报告指出,研究人员最初就将训练万亿参数模型作为长期目标,因此从一开始就制定了Ling scaling law用于指导超参数与架构的选择。其关键作用包括,确定Ling 2.0的超参数与架构配置,确保架构效率接近最优水平;提供标准化流程,仅需全量训练计算成本的 1%,即可验证针对Ling 2.0的新想法与新兴技术。 这就使得其计算结果可以更加可靠地被外推到规模超100倍的计算场景中,让万亿级规模的模型落地能更加高效推进。 其制定的统一EL缩放定律整合了计算预算(C)、激活率(A)和专家粒度(G)的影响: 研究人员的实验结果显示,与传统消融实验相比,Ling风洞实验(低成本实验评估框架)的成本效益更高,其总计算成本仅为传统方法的35%。 Ling风洞实验设计图(a)及实例分析(b) 三、预训练:20T高质量数据集与多阶段训练策略 预训练相当于为大模型打下扎实的基础认知,其核心在于让模型学会通用知识和推理,同时为之后完成下游任务的快速微调、可扩展性打基础。 因此,数据集的质量以及到底要怎么训练就是这一阶段的关键。 在数据选择与准备阶段,Ling 2.0的目标是构建高效的数据处理基础设施和管理语料库,广泛涵盖高质量的通用数据,包括但不限于常识、代码、数学、多语言内容等。 其数据种类多元化,既包括从网页、书籍、论文和维基百科等海量多样化数据集中获取到的常识数据,还包括主要增强通用推理能力的Ling代码语料库和数学语料库,以及多语言数据、长上下文数据。 Ling数学语料库实验结果 训练策略是让数据最大程度发挥价值的另一关键。 在此基础上,研究人员在预训练和中期训练阶段采用了多阶段训练策略:在大规模通用语料库上进行通用预训练;在中等规模、特定任务语料库上进行中期训练。 Ling 2.0的预训练和中期训练阶段 通用预训练阶段,Ling 2.0消耗了大量数据,以确保整体性能的稳健性;中期训练阶段其将上下文长度扩展至128K,并通过引入思路链(CoT)数据预先激活模型的推理能力。 此外,在模型训练中期,提升训练有效性的关键手段是学习率(LR)衰减,但该方式存在明显短板,既限制了训练过程的灵活性,又额外增加了调优开销。为解决这一问题,Ling 2.0系列创新采用WSM(预热-稳定-合并)调度程序,其核心改进是用检查点合并替代传统的LR衰减,能提供更高的灵活性和可扩展性。 为了让预训练的质量更可靠,研究人员将预训练从结果评估变成全流程可控,也就是不仅评估最终模型,还会在整个训练过程中持续监控基础模型的基准性能。 这些综合优化设计之下,Ling 2.0不仅可以基于高质量数据拔高基础模型能力性能,还可以进一步降低其训练与落地的成本。 四、后训练:分层优化,编程、推理能力优于多个主流模型 兼顾快速日常查询和复杂需求准确应对,是Ling 2.0后训练阶段的关键。 在这一层,研究人员采用了分离训练的监督微调、进化推理强化学习、人类偏好一致的群体竞技奖励结构化三阶段方法,并将其建立在可扩展、高吞吐量的奖励计算基础设施之上。 Ling 2.0后训练流程 首先在第一阶段,其引入了一种通过差异化系统提示构建训练数据的监督式方法解耦微调(DFT),使模型能够建立专用的深度推理模式。 第二阶段,Ling 2.0提出进化思维链(Evo-CoT),可以向反射级非思维模型中灌输自适应推理,使它们能够根据问题的复杂性扩展推理深度。 第三阶段,研究人员设计了群体竞技场奖励(GAR)机制和扩展领域规则RubriX,提升主观任务优化的稳定性, 最终实现技术层面准确、且能自然贴合用户意图的生成效果。 这一阶段,研究人员也充分引入了评估策略,其提出ApexEval,以获得强化学修训练的最佳检查点,从而有效地初始化强化学习。 基于ApexEval的Ling-mini-2.0模型检查点选择实验 其评估结果显示,Ling-mini-2.0、Ling-flash-2.0和Ling-1T在涉及编程、数学和推理等任务上的表现优于大多数业界领先模型,在AIME 2025评测集上,Ling-1T在推理精度和效率上取得了比DeepSeek-V3.1、Kimi-K2、gemini 2.5 pro更优的平衡。 五、基础设施:面向万亿级模型训练进行工程优化 Ling-2.0算法架构的创新提供了大模型低成本扩展的理论路线,但与之匹配的基础设施能力,直接决定大模型能否训得出来、跑得起来、用得好。其论文中提到,在没有任何工程优化的情况下,这种高度稀疏的MoE架构在性能上并不优于密集模型。 然而当下构建可支持万亿参数高效训练的基础设施系统面临显著挑战,核心难点在于难以同时平衡成本控制与训练效率提升两大需求。 因此,Ling 2.0针对此进行了系统级的工程优化,包括全量FP8训练、异构细粒度流水线并行、分布式训练框架优化,以及基于4C原则构建大模型软件工程。 具体来看,Ling 2.0采用细粒度的块级FP8量化策略,激活和梯度以[1, 128]大小的块进行量化,权重以[128,128]大小的块进行量化。研究人员还针对交错1F1B流水线策略存在的挑战对PP框架进行了优化。 除了FP8训练和异构调度,研究人员针对分布式训练框架进行了包括节点内DeepEP、引入多种融合算子、使用完全重新计算、长上下文训练等的优化,以增强Ling 2.0训练的性能和稳定性。 在Ling 2.0模型训练和分布式框架开发过程中,框架开发经常成为模型训练的瓶颈,严重时甚至会影响训练效果,因此,研究人员进一步引入正确、一致、完整和协同设计的4C原则,以保证模型训练在降低相关成本的同时,能提高开发效率和交付质量。 最后在模型评估层面,研究报告中,其基于OpenCompass重新设计了整个评估流程,与原始OpenCompass相比,每个检查点的总评估时间减少了2/3以上。 这一系列的研究结果证明,MoE模型可以通过架构、训练和基础设施方面的协同创新,同时提升推理能力和计算效率。 结语:蚂蚁集团开源之路,开启大模型高效推理时代 当前大模型领域正从参数竞赛转向效率与性能的平衡,蚂蚁集团此前开源了诸多模型从轻量推理模型到万亿参数模型,Ling 2.0的技术报告又通过诸多技术细节,清晰展示了模型规模与效率并非对立的技术路径。 从其结果来看,这一策略为后续模型开发提供了可借鉴的范例,推动行业从单纯的参数竞赛转向更注重效率和性能的发展路径。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。