EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
跨境电商希音被指违反欧盟消费者保护法 官方回应
希音 凤凰网科技讯 北京时间5月26日,据《华尔街日报》报道,欧盟监管机构周一表示,跨境电商平台希音的销售策略违反了欧盟法律,如果该公司不改变其行为,可能会面临罚款。 欧盟委员会周一表示,消费者保护监管机构发现,希音的多项行为违反了有关禁止虚假折扣、误导性产品标签、虚假信息以及利用网站设计迫使顾客完成购买的规定。该委员会还指出,希音的可持续性发展的声明具有误导性,让顾客难以提出问题和投诉。 欧盟司法与消费者保护专员迈克尔·麦格拉思(Michael McGrath)在一份声明中表示:“无论电商平台位于何处,我们都将坚决追究其责任。希音必须立即整改,遵守法规,使经营行为全面符合欧盟消费者保护标准。” 希音发言人对此回应称,公司正与欧盟各国监管机构及欧盟委员会合作,以彰显其遵守欧盟法规的承诺。“我们的首要任务仍然是确保欧洲消费者能够享有安全、可靠且愉快的线上购物体验。”希音称。 此前,欧盟消费者保护合作网络(CPC)已表达了担忧,认为对希音的政策可能违反欧盟有关电商、消费者权益和商业行为的法律。在这之后,他们启动了对希音的调查。与此同时,欧盟委员会还在依据《数字服务法》对希音进行审查,该法旨在强制超大型平台提升透明度并清除线上非法商品。 眼下,欧盟委员会正在努力应对其所谓的“大量廉价且可能不安全商品”涌入欧盟市场的问题。欧盟最高贸易专员马罗斯·谢夫乔维奇(Maros Sefcovic)本月早些时候表示,欧盟委员会可能对进口到欧盟的小额包裹征收处理费,此举可能会对希音和Temu等低价商品零售商造成影响。欧盟委员会还在今年2月提出一项海关改革建议,要求电商平台向欧盟提供更多数据,以加强当局对入境包裹的监管。 欧盟委员会表示,希音需在今年6月底前就监管机构的调查结果作出回应,并作出整改承诺。如果希音未能解决CPC的担忧,该公司可能会被罚款,罚款金额基于该公司在相关欧盟成员国的营业额。 CPC还要求希音提供更多信息,以检查其是否遵守欧盟消费者法其他方面的规定,例如禁止企业通过产品排名、评论与评分误导消费者的义务。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
OpenAI没做到,DeepSeek搞定了!开源引爆推理革命
100多天前,DeepSeek-R1凭借低训练成本,名噪一时。而强化学习算法GRPO,是背后最大的功臣之一。然而,开源界对强化学习算法的探索并没有终结。 DeepSeek-R1引爆了LLM推理革命。 至今,过去一百多天了,引发了持续复制DeepSeek-R1的热潮。 DeepSeek-R1的秘籍在于强化学习微调算法:群体相对策略优化(Group Relative Policy Optimization,GRPO)。 未来,LLM的训练将不再是单纯的数据训练,而是将推理能力作为标准流程。 那为什么强化学习能提高LLM的推理能力? DeepSeek-R1的GRPO,有哪些身前身后事? 在后DeepSeek-R1时代,GRPO又引发了哪些奇思妙想? 什么是推理模型? 首先要面对的核心问题是:什么是推理? 简单来说,推理是一种通过推导和训练手段,使大语言模型(LLMs)更擅长处理复杂任务的能力。 技术一点的说法是: 推理是指LLM在给出最终答案之前,能先生成一系列中间步骤的能力。 这个过程通常被称为「思维链」(Chain-of-Thought,简称CoT)推理。 在CoT推理中,模型会显式地生成一系列结构化的陈述或计算步骤,来说明它是如何得出结论的。 下图展示了这一定义及其示意。 大语言模型(LLM)处理多步骤推理任务示意图 在多步骤推理任务,与直接回忆某个事实不同,推理模型需要结合多个中间推理步骤,才能得出正确的结论。 这些中间推理步骤是否展示给用户,取决于具体的实现方式。 LLM强化学习黑话小抄 RLHF基础:一切的起点 用于构建和优化推理模型的强化学习(RL)训练方法,基本上都与人类反馈强化学习(RLHF)有关—— 这也是目前用来开发和对齐传统大语言模型(LLMs)的主流手段。 因此,在深入讨论基于强化学习的推理优化方法之前,我们先简要回顾一RLHF是如何工作的。 传统LLM的三阶段训练流程: 预训练(Pre-training):使用大规模语料让模型学习通用语言模式和知识。 监督微调(Supervised Fine-tuning):用人工标注的任务数据进一步训练模型,让AI更擅长完成具体任务。 对齐阶段(Alignment,通常通过RLHF):让模型更符合人类偏好,提升交互体验与安全性。 RLHF训练流程会从预训练模型开始,然后通过监督学习进行微调。 这一步还不属于强化学习,而是为后续的RL打下基础的前置步骤。 接下来,RLHF会使用强化学习算法,进一步对LLM进行对齐。 这是本文的重点。 整个RLHF流程分为三大步骤: RLHF第一步(前置步骤):监督微调预训练模型 这一步的目标是通过人工标注的数据对模型进行有监督学习,构建一个适合后续RLHF微调的基础模型 RLHF第二步:构建奖励模型(Reward Model) 收集多个回答并让人类标注哪一个更好,以此训练一个模型,能够根据输出内容给出高或低的「奖励分数」。 RLHF第三步:强化学习微调 使用奖励模型的评分结果作为奖励信号,利用PPO等算法更新语言模型的策略,使其输出更符合人类偏好。 RLHF第一步要创建或从已有数据集中采样一批提示语(prompts),然后由人类标注者为这些提示语编写高质量的参考回答。 接着,我们使用这些人工标注的数据对预训练语言模型进行监督微调(SFT)。 正如前面提到的,这一步并不属于强化学习,而是作为后续RLHF微调的前置准备。 RLHF第二步将第一步微调后的模型用于构建一个奖励模型(Reward Model)。如下图所示: 我们让人类对多个模型生成的回答进行排序,然后用这些排序数据来训练奖励模型,让它能根据回答的质量输出相应的评分。 这个奖励模型将在接下来的强化学习微调中,作为模型行为的评估依据。 RLHF第三步(也是最后一步)使用在第二步中训练好的奖励模型,为模型生成的回答打分,然后基于这些评分,使用近端策略优化(PPO)等算法对SFT模型进行强化学习微调。 这是强化学习发挥作用的地方。 通过强化学习,模型会逐步调整其输出策略,使其更倾向于生成高奖励(即更符合人类偏好)的回答,从而实现真正的人类反馈对齐训练。 OpenAI的PPO 一开始,RLHF采用的是近端策略优化PPO。 PPO在架构中使用了四个不同的语言模型: 一个策略模型(正在训练的模型)、 一个参考模型(原始模型的冻结副本)、 一个奖励模型(基于人类偏好进行训练) 和一个值模型(估计长期奖励)。 这些模型都包含需要反向传播来优化的可训练参数,这消耗大量的GPU内存和计算周期,使得训练过程变得笨重且昂贵。 监督学习能够快速定义损失函数,且通常无需大量超参数调整。整个过程直观、稳定、可控。 但在强化学习中,成功的路径就不那么明确了: 强化学习算法往往包含许多相互依赖的模块,调试困难。 而且要想获得良好结果,通常需要投入大量的精力进行调参和结构调整。 这也是PPO被广泛采用的原因之一—— 它在实现简便性、样本效率和调参难度之间取得了较好的平衡。 PPO的核心思想是: 在每一步中计算一次策略更新,既能最小化代价函数,又能确保新策略与旧策略之间的偏差不会过大。 OpenAI提出了全新目标函数,增强了PPO算法的稳定性和实用性。 其主要公式如下: 其中: (q,a)是数据分布D中的一个问答对。 πθ表示新策略模型输出的概率。 行为策略πθold表示旧策略模型的输出概率。 πθ/πθold是重要性采样比(importance ratio),主要用于确保新旧模型的分布不会相差太大。 ε是用于裁剪重要性比值的参数,用来限制模型分布的变化,防止变化过大或过小。 ^A_t是优势函数(advantage function),主要来源于奖励模型和价值模型的评分。 R_l是奖励模型的评分。 V是价值模型的评分。 图1:在RL训练过程中,应用Clip-Higher策略前后,AIME测试集上的准确率和演员模型生成概率的熵对比 图1展示了在使用与不使用裁剪参数的情况下,模型在AIME数据集上的表现和生成的熵值对比;可以明显看到,加入裁剪参数后,模型性能和熵值都有显著提升。 DeepSeek的GRPO 传统PPO训练方法往往代价高昂,需要消耗大量GPU计算时数,导致训练成本居高不下,实际应用门槛远超个人开发者和小型研究团队的承受范围。 突破性进展来自DeepSeek。 他们推出了PPO算法的改进「平替版本」GRPO: 在提升数学推理能力的同时,显著优化了PPO的内存使用效率。 DeepSeek-R1训练流程 创新的核心动机在于提升计算效率。 该效率提升主要通过以下方式实现: 剔除「评论家」(价值模型):即传统用于计算价值函数(预期未来收益)的大语言模型组件 采用相对质量评估:通过对策略模型本身生成的多组答案进行质量对比,直接计算优势函数,取代传统依赖额外模型估算奖励的方法 这一创新显著降低了训练推理模型的计算需求,即使是「GPU资源匮乏」的团队,也能开发出复杂的推理能力。 其公式如下: GRPO的主要变化包括: 每个提示语(prompt)采样多次形成一个组,然后使用该组中奖励值的标准化结果作为优势值。 引入KL散度作为正则项,对策略变化加以限制。 由于GRPO主要用于数学或逻辑推理类问题,它使用的奖励模型也是基于规则的。例如: 其中,y是标准答案,y^是预测答案。 GRPO的开源升级版:DAPO 然而,当前顶尖推理型大模型的关键技术细节(如OpenAI的o1技术博客和DeepSeek-R1技术报告中的内容)仍处于黑箱状态,导致学术界难以复现他们强化学习训练成果。 于是,开源的解耦裁剪与动态采样策略优化(Decoupled Clip and Dynamic sAmpling Policy Optimization,DAPO)问世了。 DAPO为每个与答案a配对的问题q采样一组输,并通过以下目标函数优化策略: DAPO包含以下几个关键技术点: Clip-Higher(高限裁剪):提升系统多样性,避免熵崩溃。在策略梯度损失中提高重要性采样比率(importance sampling ratio)的上裁剪限值,以缓解该问题。 Dynamic Sampling(动态采样):提升训练效率与稳定性。动态采样策略可以过滤掉准确率为1或0的提示组(prompt groups),并在各批次中保持有效梯度提示的数量一致。 Token-level Policy Gradient Loss(Token级策略梯度损失):在长链思维推理(long-CoT)强化学习场景中至关重要。 Overlong Reward Shaping(过长奖励重塑):降低奖励噪声,稳定训练过程。 高限裁剪 从前面的公式可以看出,对于裁剪参数,DAPO同时引入了「低裁剪」ε_{low}和「高裁剪」ε_{high}两个界限。 这是因为: 高裁剪限制模型的探索能力,避免模型过度增加低概率token的概率,从而控制生成多样性; 低裁剪确保高概率token的概率不会骤降,保持模型输出的稳定性。 低概率token的更新空间远小于高概率token。 此外,DAPO的实验中发现,被裁剪的token的最大输出概率通常小于0.2。 这也证明了高裁剪限制了低概率token概率的提升,进而抑制了模型的多样性。如图2所示: 图2:最大裁剪概率 高低双裁剪的策略如下: ε_{low}:用于限制高概率token概率的下降,防止其概率骤减,通常设置得较小; ε_{high}:用于限制低概率token概率的增加,允许更多探索空间,通常设置得较大。 在DAPO中,有ε_{low} 当A>0(即奖励为正)时,裁剪上限为(1+ε_{high}),较大的ε_{high}可避免低概率token被过早裁剪,允许其更新; 当A<0(即奖励为负)时,裁剪下限为(1−ε_{high}),适当限制高概率token的更新速度,避免其概率下降过快。 动态采样 在当前强化学习算法中,同一个prompt需要采样多次形成一个group。 如果该组内所有采样结果的正确率都是1(即奖励全为正)或全为0(即奖励全为负),那么该组的优势值\hat{A}为0,导致无法产生有效的梯度更新,降低了样本效率。 如下图3所示,随着训练进行,有效样本在batch中的占比逐渐下降: 图3:准确率为1的样本比例 为了解决这个问题,DAPO引入了动态采样机制: 在训练前,过滤掉奖励全为0或全为1的group; 保证每个batch中的样本都能产生有效梯度,同时维持batch的大小一致; 随着训练步数增加,模型准确率提高,被过滤的样本也随之增多,因此虽然训练速度不一定加快,但样本效率更高,有助于模型更快收敛。 Token级策略梯度损失 在原始的GRPO中,损失是基于样本整体计算的。这种做法可能导致长文本中的token学习效果较差。 例如: 长输出样本的token损失为: 短输出样本的token损失为: 计算总损失L_{long}+L_{short}时,虽然平均了,但因为N₁>N₂,导致长样本的学习权重被稀释。 此外,实验也发现长内容容易生成无意义token,应该给予更多关注。 因此DAPO将损失改为每个token直接参与计算,总损失形式如下: 上述例子中的损失形式也相应变为: 过长奖励重塑 在大语言模型(LLMs)训练中,通常会设置max_token限制生成长度,超过这个长度的样本会被截断。 如果对这些截断样本的奖励设计不合理,可能会引入奖励噪声,干扰训练。 过去的方法通常会对这些样本进行惩罚,但这可能导致本应合理的长答案被错误惩罚。 为此,DAPO引入了惩罚过渡区间,其奖励设计如下: 设定L_{cache}为缓冲区; L_{max}为最大长度; |y|为当前生成文本的长度。 当∣y∣+Lcache≤Lmax时,文本长度小于最大允许长度max_token,因此不施加惩罚。 当∣y∣+Lcache>Lmax且∣y∣ 当∣y∣≥Lmax时,施加最大惩罚。 图4展示了在基准设置下,使用动态采样前后的训练进度变化。 图4:在基准设置下,应用动态采样前后的训练进度对比 自我反思与回溯能力的出现 在DAPO的训练过程中,研究人员还观察到了模型具有「反思」和「回溯」的能力,而这类能力在原始数据集中并未出现。 这与DeepSeekR1报告中的发现一致。 虽然目前还不清楚这一能力产生的根本原因,但它为未来的优化提供了新的方向。 图5展示了强化学习中「反思行为」的涌现现象。 图5:强化学习中反思行为的出现
ChatGPT引爆教育革命,学习效果暴涨86.7%
【新智元导读】担心AI让学生懒?一篇Nature子刊的元分析汇总了51项研究,揭示ChatGPT显著提升中小学生学业表现和高阶思维能力。从语言到STEM,从短期突破到长期成长,AI正以科学的方式走向教育未来! 现在的学生,已经离不开各种AIGC工具了, 不论是写作业,还是生成笔记,或者通过阅读AI生成的摘要来读文献。 面对这些离不开AI的学生,老师和家长都开始担忧了,这样下去,孩子会不会越变越笨啊。 然而,最近一项发表在Nature子刊的研究,基于对59项研究对汇总(元分析)指出,ChatGPT的使用对提高K12(中小学生)的学习表现有显著的正向影响,对于培养学生解决复杂问题的能力也有所帮助。 这下家长们老师们可以稍微放心一些了。 https://www.nature.com/articles/s41599-025-04787-y 为何说这项研究的结论足够靠谱,是因为不是进行了一两次实验,而是将近年来所有涉及大模型对教学效果影响的研究进行汇总后,得到的集众家之所长的集体智慧。 成绩和思维能力 显著提升 最初该研究通过关键词检索,找到了6621篇研究,经过一次次筛选,最终找到51篇研究。 这些研究都在考察ChatGPT的使用对教学效果的影响,都采取了随机双盲实验,并将实验数据进行了完整公开。 之后研究者将所有51项研究的实验数据汇总,重新分析,最终得到ChatGPT的使用对教学效果的影响。 研究中汇总论文的筛选情况 被选入的研究,其涉及面相当广泛。 既包括考察大模型对语言机写作教学的影响,也包括对数学,物理等STEM课程,还有一些研究关注大模型对诸如编程等专业技能教学的影响。 从各研究涉及的实验时长来看,不止有关注1周内短期影响的,也有一些会观测大模型适应对学生造成的长期(8周以上)后果。 研究中对ChatGPT的使用方法,也可分为个性化推荐,评价(打分),让ChatGPT充当导师,以及混合四种。 研究进行的地点,最多是在亚洲,包括了所有五大洲,因此其结论具有跨文化性。 不过,这些元分析所涉及的研究大多考察中学阶段,只有一项涉及小学生,因此该研究得到的结论,可适用于中学阶段。 在最受大家关注的教学效果上(成绩),该研究得到的结论是使用了ChatGPT之后,学生的成绩有显著提升,下面的每一点是一项研究,竖线代表汇总后的均值。 可以看到大部分研究都显示学生在使用ChatGPT之后的学习成绩有所提升,平均来看,使用ChatGPT后,教学效果提升了0.867个标准差。这一提升不限特定学科,也不管如何使用ChatGPT。 对学生使用ChatGPT后,学习成绩显著提升 此外,该研究研究还发现,使用ChatGPT之后,有助于学生培养高阶思维(平均提升0.457个标准差),即不是简单的记忆特定的知识点,而是推理,汇总及创新性使用学到知识解决复杂问题的能力。 学生使用ChatGPT后,高阶思维能力有所提升 无独有偶,另一项今年4月发表的关于大模型在教学活动中的元分析,汇总了总计69篇关于大学本科及K12阶段在教学过程中使用大模型造成的影响的研究,得到了相同的结论,即ChatGPT 提高学业表现,改进了高阶思维。 减轻精神负担 除此之外,该研究还发现,ChatGPT减轻了学生的精神负担,提升了学习积极性,并且不会影响学生对自己能力进行评估的准确性。 对比大模型在各类课程教学中的影响,可发现其对技能相关课程的成绩提升最为显著。 这可能是因为这类课程通常涉及明确的任务目标和程序步骤;ChatGPT提供即时反馈、针对性指导和问题解决支持。 同时,研究还发现,ChatGPT使用带来的更明显的是短期提升,即相比对照组,使用ChatGPT的学生1周内的成绩提升最明显。 而如果是对比使用2月后的长期影响,则提升的效果就没那么显著,这反过来说明,即使不使用大模型,对学生来说负面影响也只是暂时的,而非持久性的。 至于大模型的引入,为何能提升学习成绩,有两种可能的解释。 第一是由于这些研究进行的23-24年,大模型作为一项新出现的技术,其体验是全新的。参与实验的学生由于要尝试一项新技术而产生了好奇心,因此更为专注,学习积极性更高,因此成绩有所提升。 而另一种解释,是认为学习的过程是对学到对知识进行信息压缩,在此过程中学生需要与环境互动,并在心理上构建对知识的理解,而大模型同样是对训练数据进行了压缩,并能据此在学习过程中给出更为及时的反馈,因此能帮助学生更好的掌握新知识。 不过,这些研究中,实验者对大模型对使用,都是受到监管的。 实验者设定了大模型将被如何使用,而家长老师们担心的,是学生使用大模型去完成作业,而在此过程中,自己什么都不做,只是复制粘贴大模型的输出。而这并不是这些研究要关注的。 在上述两项研究中,大模型多被用于对学生对回答给出反馈和指导,这说明要想利用好大模型提升教学效果,需要注意使用方法,家长和老师要对学生如何使用大模型给予适当的指导,切勿放任不管。
首次,AI下棋不再是“黑盒”!
【新智元导读】上海AI Lab发布升级版大模型「书生·思客InternThinker」,首度打破围棋AI推理黑盒,实现用自然语言解释落子逻辑,具备职业3-5段棋力。依托「通专融合」技术路径和创新训练平台InternBootcamp,构建三层架构体系,推动AI向自我进化、自主科学发现迈进。 围棋因其独特的复杂性和对人类智能的深刻体现,可作为衡量AI专业能力最具代表性的任务之一。 目前,AI虽然在棋力、效率、通用性等方面均取得显著成绩,但其具体推理过程仍处于「黑盒」之中,更无法用人类语言解释其思考过程和结果。 大模型具备良好的自然语言交互性,如何通过提升大模型的推理能力,实现围棋专业能力突破,是摆在科研人员面前的一道难题。 近日,上海人工智能实验室(上海AI Lab)发布新一代书生·思客(InternThinker)。 基于创造性构建的「加速训练营」(InternBootcamp)以及一系列底层技术新进展,InternThinker专业推理能力大幅提升,成为我国首个既具备围棋专业水平,又能展示透明思维链的大模型。 即便面对李世石的「神之一手」(李世石在AlphaGo交战的第四盘78手下在L11,被称为「神之一手」),InternThinker也能给出正确应对策略。 思维链透明 自然语言点评「神之一手」 围棋作为一项具有四千多年历史的智力竞技项目,因其独特的复杂性和对人类智能的深刻体现,可作为衡量人工智能专业能力最具代表性的任务之一。 2016年AlphaGo一战成名,随后,AI在棋力、效率、通用性等方面均有显著提升,但其具体推理过程仍为「黑盒」,即便能输出胜率评估和落子概率,亦无法用人类语言解释「为什么某一步更好」。 典型表现为:AI有时会下出违背人类直觉的「天外飞仙」棋步,事后被证明有效,但当时难以解释。 本次升级后的InternThinker,在围棋任务上不仅具备较强的专业水平,在大模型中率先实现打破思维「黑盒」,运用自然语言就对弈过程进行讲解。 目前InternThinker已开启公测,所有用户均可以随时随地与之对弈。 公测链接:https://chat.intern-ai.org.cn/ 用户在与InternThinker对弈的过程中,大模型化身为循循善诱的「教练」,它能全面地分析当前局面形势,对不同的落子点进行判断和对比,并给出明确的结果,让用户了解每一步棋背后的推理过程和决策依据,从而帮助用户更好地理解和学习围棋。 李世石在与AlphaGo交战的第四盘78手下在L11,被称为「神之一手」,直接扭转局势赢下一局。 在研究人员对这一名局的复现中,InternThinker评价这步棋「相当刁钻……这步棋完美解决L11的威胁,重新确立中央控制权,为后续进攻埋下伏笔。」随后它给出了落子在L10的应对策略。 InternThinker应对李世石「神之一手」 InternThinker还具备多样化的「语言」风格,极具「活人感」。比如,当用户下了一步好棋,它会加油鼓励:「这步棋相当有力,可以说是『以攻代守』的好手」;也会冒出毒舌锐评:「可以说是『不是棋』的选择」。 InternThinker多样化的语言风格 在棋力方面,InternThinker未来仍有提升空间。 新生代世界围棋冠军王星昊九段在与其对弈后评价道:「能解说思考过程的AI还是第一次见,感觉它分析得非常好;从布局看棋力可能在职业3-5段之间。」 「体验」即学习 大模型推理能力提升新范式 InternThinker强大的推理能力及在围棋任务上的突破,得益于其创新的训练环境。 针对复杂的逻辑推理任务,如何准确地获得过程和结果反馈尤为关键,为此,研究人员搭建了大规模、标准化、可扩展的可交互验证环境InternBootcamp——这相当于为模型创造了一个「加速训练营」,使其可以高效习得专业技能,快速「成长」。 InternBootCamp与大模型交互流程 基于代码智能体自动化构造,InternBootCamp包含超1000个验证环境,覆盖广泛的复杂逻辑推理任务,能有效帮助大模型领域研究者基于强化学习开展探索。 InternBootcamp可以批量化、规范化生成难度可控的推理任务,如奥赛级数学、科学对象理解与推理、算法编程、棋类游戏、智力谜题等,并与大模型进行交互和提供反馈。 通过不同专业知识大规模构造和混合训练,使大模型跳出基于数据标注获取问题和答案的繁琐模式,同时避免传统奖励模型的欺骗,从而实现大模型推理能力提升的新范式。 除围棋外,在其他任务中InternThinker也有不俗表现。通过对多种任务的混合强化学习,InternThinker在包括数十个任务的测试集上的平均能力超过o3-mini、DeepSeek-R1以及Claude-3.7-Sonnet等国内外主流推理模型。 InternThinker在包括数十个任务的测试集上的平均能力超过o3-mini、DeepSeek-R1以及Claude-3.7-Sonnet等国内外主流推理模型 甚至在一些任务中性能表现远超当前其他推理大模型。 InternBootcamp已开源,欢迎接入任务,开展更多有价值的探索(开源地址:https://github.com/InternLM/InternBootcamp)。 多任务混合强化学习 迎来「涌现时刻」 值得一提的是,研究人员观察到,在基于InternBootcamp的多任务混合训练过程中,出现了强化学习的「涌现时刻」: 在单一任务中,无法成功推理得到奖励的模型,通过多个任务混合的强化学习,能够在训练过程中成功得到奖励,实现领域外专业任务的有效强化学习训练。 除了单独训练Tapa、Unicoder25任务外,研究人员额外选择了几十种任务进行混合训练。 如下图所示:单一训练Tapa等任务并不能成功获得任务的正向反馈;而混合训练各类InternBootcamp任务达一定步数后,InternThinker融合学习了这些推理任务的思考方式,建立起了不同任务间的关联,从而成功获取了Tapa这类任务的正向反馈,实现对该任务的有效学习。 这意味着,随着InternBootcamp任务的数量增加、质量提升和难度加大,大模型有望迎来能力的「升华」,高效解决更多、更难、更具实用性的推理任务,在助力大模型推理能力泛化的同时,加速推动科学发现。 Unicode25任务和Tapa任务「涌现时刻」,其中浅色表示峰值、深色表示均值 通专融合底层技术突破 上述进展得益于近期上海AI Lab在通专融合路线的底层技术和架构方面的一系列创新突破。 从大模型发展历程来看,主要分化为专业性和通用泛化性两大路线。上海AI Lab率先提出通专融合技术路线(https://arxiv.org/abs/2407.08642),着力解决大模型高度专业化与通用泛化性相互制约的发展困境。 这一路径的关键在于同步提升深度推理与专业泛化能力,使模型不仅在广泛的复杂任务上表现出色,还能在特定领域中达到专业水平。 上海AI Lab进一步提出通过相互依赖的基础模型层、 融合协同层和探索进化层「三层」技术路径, 可打造「通用泛化性」「高度专业性」「任务可持续性」三者兼得的通用人工智能。 通专融合AGI实现路径 第一层为基础模型层,旨在构建通用泛化基础能力和高密度监督的专业能力。 上海AI Lab团队近期提出全新的「记忆体+解码器」大模型架构Memory Decoder,并实现两个组成部分通过不同的预训练任务分别进行训练。 区别于将所有信息全都编码进decoder的现有Transformer经典大模型架构,该架构实现了通专融合中「知识与推理可分离与自组合」的新一代大模型。 其中,记忆体承担「专」的功能,负责对不同领域知识的可靠记忆;解码器承担「通」的功能,负责通用的语言组织和逻辑;记忆体可经过一次训练后应用于不同基模型。 第二层为融合协同层,通过多路线协同构建比肩人类专家的通专融合能力。团队近期的突破包括: 设计强化学习算法PRIME(https://arxiv.org/abs/2502.01456),结合高密度监督信号,有效强化了智能体专精能力的提升效率,为通用群体智能发展铺平了道路。可实现更快速的收敛,同时获取比现有方法高出7%的性能提升。在AIME、MATH等竞赛难度数学题上,仅用少量开源数据,便可使得7B模型的数学能力显著超越OpenAI的GPT-4o。 推出以多任务强化学习为核心的后训练技术框架MoR,聚焦实现多任务的强化学习。针对不同类型任务(例如数学解答和证明、科学问答、推理解谜、主观对话等)进行了算法探索和初步集成验证,实现了多任务强化学习的混合训练。 构建基于结果奖励的强化学习新范式OREAL(https://arxiv.org/abs/2502.06781),着力解决大模型当前面临的「稀疏奖励困境、局部正确陷阱和规模依赖魔咒」三大困局。该算法超越了目前广泛使用的GRPO等方法,定义了一个更广泛的算法设计空间,能将PRIME、DAPO等方法的优点融合入算法框架中,无需蒸馏超大参数规模模型,便实现了轻中量级(7B/32B)模型推理能力的再提升。 第三层为探索进化层,通过自主探索与反馈修正实现AI自我进化闭环。团队近期的突破包括: 测试时强化学习(TTRL)框架(https://arxiv.org/abs/2504.16084),有效探索人工智能自主进化的可能路径。TTRL能在没有准确标签的情况下进行奖励估计,驱动模型朝着正确的方向学习,有力支持了在减少人工标注依赖方面的潜力,进一步推动强化学习向大规模、无监督方向的持续扩展。 构建分子逆合成新方法Retro-R1,基于大模型+智能体+长推理+强化学习的范式,在多步逆合成问题上展现出了更精准的合成路径规划能力。Retro-R1在不使用任何SFT数据仅使用1万条强化学习数据通过200步训练的情况下就实现了大模型在逆合成推理能力的升级,并在不同领域数据中展现出了出色的泛化能力。 据悉,未来上海AI Lab将系统推进通专融合技术路线的发展与探索,将通专融合的新能力、新进展持续通过InternBootcamp对外开放,加速以新一代通专融合基座模型的方式解决具体科学发现中的关键问题,同时牵引打造垂直领域示范应用案例,为科学发现与产业创新提供关键驱动力。
新Agent玩起了“无限流”
Manus的“上帝之手”称号近日被一个新的AI智能体——Flowith旗下的Neo夺走了。这款智能体背后的团队不仅异常年轻,还在社交媒体上宣称在0营销投入的情况下,实现了130万美元的ARR收入。 在GAIA智能体评测标准的三个等级中,Neo不仅超越了Manus,还创下了新的评分记录。其中Level1和Level3更是突破了“整数级”评分。 目前的智能体市场可谓是“大风起兮云飞扬”,新玩家不断涌入这一赛道。从传统互联网巨头到专注产品研发的初创团队皆有涉足。 各类产品纷纷打着“AI智能体”的旗号,但正如一些网友所说:许多所谓的智能体,不过是在Manus的框架上又叠加了一层LLM而已,万物皆可套壳。 今天,让我们深入分析下这款标榜自己是“下一代AI生成力”的产品,看看它是否是“穿新鞋,走老路”。 01 Flowith Neo:无限步骤、无限上下文、无限工具 在Flowith产品官网中,如果点开输入框右上角的Agent Mode,则自动启用 Agent Neo,在此模式下,Neo可以智能调控各种大模型,完成长序列的复杂任务。 在非智能体模式下,Flowith则提供了诸如常规模式、联网搜索、图片/视频生成等“垂类功能模式”。每一个模式里,都集成了数量非常多的市场主流LLM。 Flowith将它们能够提供的所有存货几乎都摆了出来,并分成T1/T2两个阵营,我稍微数了下,一共近30个模型。 它们集成了市场上几乎所有主流的大模型,涵盖了几乎所有模态,例如Claude 3.7 Sonnet、Grok3、GPT Image1、Gemini 2.5 Pro preview、o3、o4 mini、DALL・E 3、Flux、Recraft和Kling等。 相对于Flowith的上一代智能体Oracle,Neo最大的提升在于它将任务搬到了云端执行,智能体嵌套、上下文、工作步骤都得到了大幅的性能和稳定性提升。 这款新晋智能体产品主要有三个亮点:无限步骤、无限上下文和无限工具。 我们通过一系列测试来逐一展示这些特点。 (1)无限步骤 Neo由于将任务的执行搬到了云端,现在的它几乎可以在任务中一直工作,即便用户关闭了网页,它对于用户本身网络环境的依赖已经不再是必需的了。 一个最明显的样本是:它可以帮你订阅几乎大量平台的关键KOL或者是新闻媒体,并调用推理和相关模型撰写报告,发送到你的邮箱。并且用户可以规定发送的频率,Neo几乎会无限制地在云端跑流程,不断地重复工作步骤。 如果想要Neo完成此类任务,可以直接输入一段非常简单的Prompt: 请你帮我找到10家最主流AI新闻媒体,并将它们最新更新的消息做成简报,每两小时更新一次,发送到我的邮箱。 Neo 会以非常快的速度处理用户的Prompt,它此时的第一步就是在工作流程中与用户交互,确认我的电子邮件地址。 Neo制定了一个非常详细的流程图,明确每个步骤的任务,为自己做出了一个清晰的整体视图。 Neo按步骤执行工作,收集所需知识和信息。信息来源十分广泛,并且会不断地检查信息内容是否与用户需求相一致。 以下就是Neo所找到的10家AI新闻信息源: Neo会从先前确定的10家AI新闻媒体的官方网站分别获取各自最新的3-5篇AI相关新闻报道的详细内容,并使用browser从每个网站上独立抓取信息。 Neo会多线程同时处理10家媒体的信息抓取任务,并将所有信息整合做出一份简报: 第一份结构化的AI行业最新简报顺利地发到了我的邮箱,内容几乎占用了12页的Word文档。 后续,我的邮箱中陆续收到了几份来自Flowith在云端执行定时任务的稿件。 (2)无限上下文 从实际体验来看,Neo 的上下文非常之长,常常能达到数万甚至数十万字的地步。 这种超长的上下文能力使得Neo能够记住之前的对话内容,保持上下文连贯性,避免了频繁重复之前的叙述或信息,从而提升了交互的效率和质量。 在实际应用中,这意味着我们可以与Neo进行长时间、多轮次的深入对话,而无需担心它会“忘记”之前的讨论内容。 比如,我试着让它做了一个全球文科倒闭潮的可视化报道切片,提示词比较简略: 收集2024年至今中国大陆、新加坡、英国、美国、韩国、日本所有大学裁撤文科的情况,并在一张世界地图上进行可视化呈现。 拿到提示词后,Neo 会先在左侧的 workflow 面板里自行规划出一整套清晰的工作流程,然后按步骤一项项执行任务。 考虑到最终生成的内容可能过多导致混乱,它贴心地设置了一个 Files 面板,将所有生成的文件整理归类,便于随时查阅。 不到十分钟,它就收集好了九个地区的数据,并自动整合成了一篇结构完整的报道。内容不仅详实、分析有理,而且自带思辨性,与用户的意图进行了对齐。 Neo设计的交互界面几乎是一步到位,呈现效果也非常流畅自然。 “无限上下文”的Neo究竟能产生多少个文档?这是一个无法给出确切数字的问题。 在这一项任务中,它就累计了如此多的信息内容: (3)无限工具 Neo的操作流程兼容多种外部工具,并整合了Flowith自推出以来就广受好评的知识花园功能。知识花园其实就是我们一般所说的“知识库”,但Flowith会在你上传知识内容后,以“Seed”作为最小单元识别其中的知识。 为了增强Neo的检索能力,我会外挂知识花园中与AI相关的知识库,以增强Neo的检索能力,其中包含与人工智能相关的丰富信息。 然后输入Prompt: 帮我找到 20 个非常专业的 AI 科技 X(原 Twitter)博主,做成网页。 然后,我又让AI模型自动丰富这些提示词,规定好了颜色显示等等条件。 Neo开始调用外挂工具,进行大量的相关信息搜索: 在Neo实际的工作步骤中,Flowith将所有工作流搬到了“无限画布”中,很直观地显示出了一个“纺锤形”的思考样态。 在进行HTML网页任务的前期,Neo会先进行知识积攒,这也是为何思维流程中体现出“两边细,中间宽”的形态。 经过三个版本的迭代,Neo成功制作了一个HTML网页项目。 在这个网页中,它将奥特曼、杨立坤、吴恩达等一众X上的AI科学家和博主汇集在一起,为每个人贴上了标签,并实现了交互功能。每个名字下方还附有该博主在X上的链接,用户可以一键直接访问。 可以看得出来,Neo非常适合这类“需要调用多种工具并且高度复杂的任务”,它对于大模型的调控和整体流程的把控都非常的严谨。 比如,Neo与其他AI智能体最大的一个区别就是:它会在工作流程中大量地嵌入审查机制,比如在每一个结果产出之前和之后都会进行自我反思。即便在所有项目结束后,也会给出好几份审查报告、项目总结报告等等。 在每一个节点之中,Flowith都允许使用者进行单一节点的微调工具。 在文档文件中,Flowith则允许用户使用文本编辑器,实时手动更改文件内容甚至是代码。无论是在编写程序代码还是修改文档内容方面,Flowith都提供了一个直观且友好的操作界面。 这样将用户也视作参与者的操作,虽然有放权嫌疑,但也能够让后续的效果更好。 Neo能将整个创作流程以可视化流程图的方式展示出来,我可以对其中任意节点“点选修改”“局部重启”,真正实现模块化调用“无限工具”创作的自由调度。 这可能是 Neo 区别于传统 Agent 的关键能力:不是“从头再来”,而是“就地优化”。 02 Flowith,一家在OpenAI o1发布之前就早已深耕Agent赛道的选手 Flowith最初在全网崭露头角的名称还只是“画布式AI创作平台”,但却一直在探索智能体方向,第一代产品Oracle于2024年8月就已发布,甚至早于OpenAI的推理模型o1的发布。这款产品在各个社区都有一定的热度。当时的Flowith凭借Oracle甚至被誉为“让Chatbot式AI成为历史的下一代工具”。 这家初创企业背后的团队也异常年轻,Flowith由倪正民(Derek Nee)团队于2024年正式推出。这位96后CEO在20岁前就曾创立X Academy、项目超过千万人民币ARR的Realm项目,都曾风动一时。据“观察者网”心智观察,Flowith的全体团队都是95后,市场负责人郭梓溢本人则是00后。这家团队在架构体系中几乎将任务导向做到了新高度:每周团队可能会有100个任务,而每个人只需摘取自己最适合的任务。他们在团队构建中抛弃了传统的任务分配机制,转而采用鼓励极致创新的开放式思路。 在这样的团队中孕育出来的Oracle显然也带有创新基因,这款产品最大的特色在于交互范式的创新。它没有沿用传统聊天框+黑箱执行的模式,而是开创性地引入了画布多线程交互理念。Flowith 没有自己训练大模型,而是专注于上层架构和交互创新:通过可视化工作流编排,把LLM的推理能力、搜索工具、插件能力组合起来。 这一理念的背后,其实代表了两种AI使用观念的差异:Manus 等追求的是AI完全自主行动,用户给出指令后AI自主完成一切;而 Flowith 则强调“用户”角色,等同于坦诚了一个事实:现在还不存在通用AI智能体,但是有了用户的参与,Flowith能够表现地更好。 比如,在上面的操作演示中,我们可以清楚地看到Flowith为用户提供了微调和干预流程的能力,确保 AI 输出更精准地满足特定需求。例如,用户可以在 Flowith 画布的特定节点添加自定义数据源,使最终报告的关键信息往往能超越 Manus。 03 与大厂截然不同的思路 百度Q1财报的公众号文章中就把AI智能体放在了很重要的位置,不断地强化自家平台已经接入“几千+MCP组件”,在未来更是会将通用AI智能体的任务类型扩展数十万的水平。然而,Flowith 却走了条不同的路:研发了个“模拟人类大脑思维流程”的AI智能体工作流。 这或许仅是一种噱头,实际上更多地取决于使用者的个人偏好,这也反映了当前智能体市场所呈现的世界参差感:热爱者视之为真爱,可能是通向AGI的必由之路,而不喜欢者则觉得这玩意就是个噱头。 不过,不得不说的是Flowith仍然使用行业主流的LLM,在智能能力上没有显著突破。它的优势在于速度更快、操作更流畅以及更强的反思能力。尽管如此,Flowith还是成功地将智能体产品投入市场,因此建立了独特的竞争优势。 Flowith 所塑造的竞争壁垒主要在于用户社区和创新速度。前一代Oracle自发布以来,到今年Neo推出之前,一直在小众社区中保持了一定的热度,但也受到不少批评,比如多线程工作容易卡死、非云端导致用户过于依赖网络环境。 不过,Neo的上线很大程度上解决了这些问题。 Flowith的另一个潜在壁垒是团队一直想要构造的“社区”。各网络平台上其实一直都有这么一句笑言:少玩产品,多搞社区。像是Flowith很早就搞了个“知识花园”功能模块,每个人跑完自己的工作流程还可以继续分享Recipe到社区里。这就会形成独特的知识共享网络,这会吸引新用户的加入。 总的来说,Manus、Lovart、字节的扣子空间、百度的心响,以及一些将AI智能体应用于自家搜索产品的公司,构成了整个智能体赛道。 但目前来看,与行业热度一起到来的还有些许乱象。 从Manus 在 GAIA 上的综合成功率显著超过了 OpenAI 的 DeepResearch 等系统,刷新了该基准的SOTA性能记录开始,几乎所有大厂全部下场搞智能体。然而,没过多久,这些产品的宣传重点从智能体的能力转向了产品本身的能力,接着又开始宣传MCP工具的接入。 整个行业好像已经从AI能力优先,转化为生态优先。先将产品做出来,抢夺完用户,再煮酒论英雄。像Flowith这样的智能体在整体工作流程中几乎将自己的“肠子”都挖出来,向各位看官证明一下自己吃了几碗粉,仿佛成了一股清流。 前OpenAI 副总裁 Lilian Weng 曾在博文中将智能体的标配总结为:Agent = LLM + Memory + Planning + Tool Use。 而在预训练大模型幻觉率仍居高不下的当今,我们将会看到这样一个局面:再靠纯LLM能力突围已经不再现实,从基础模型上挖掘不到更多的宝藏。各家厂商都在产品侧,以产品经理的思维寻找突破口。
存储路线图,三星最新分享
在DRAM部分,三星首先回顾了DRAM单元多年来的演变。 在 1990 年代,平面 n 沟道 MOS FET 是单元选择晶体管(单元晶体管)的标准。然而,进入21世纪,短沟道效应和关断漏电流已变得无法忽视。一种在不缩短沟道长度的情况下使横向(水平)方向微型化的晶体管结构被设计出来并被用于DRAM单元晶体管。随着光刻技术的不断缩小,DRAM单元的面积可以不断缩小。 与此同时,DRAM 单元阵列布局在 2010 年代得到了改进。 DRAM单元的尺寸是根据设计规则(或最小加工尺寸)“F:特征尺寸”进行比较的。原则上,可能的最小单元是 2F(垂直尺寸)x 2F(水平尺寸)= 4F2,但这极难实现。 2010年代,通过改进DRAM单元阵列的布局,单元面积从传统的“8F2”缩小到“6F2”。即使加工尺寸相同,单元面积也减少了25%。这种“6F2”布局至今仍是大容量DRAM使用的标准。 图注:DRAM 单元的演变 (1990 年代至 2030 年代) 在“6F2”布局中,通过将字线和沟道嵌入到衬底中,单元晶体管的面积得以减小。源极和漏极水平(横向)布局。单元晶体管的垂直结构从衬底侧开始依次为字线(WL)、沟道、位线触点(BLC)、电荷存储节点触点(SNC)、位线和单元电容器。字线间距为2F,位线间距为3F。 10nm代(1X代及以后)的DRAM单元基本维持上述结构,但通过改进电容结构、字线材料等延续了七代,依次称为“1X→1Y→1Z→1A→1B→1C→1D”代。不过,下一代“0A”代(10nm以下第一代)将无法维持“6F2”布局,有很大机会转向“4F2”布局。 10nm 以下 DRAM ,如何实现 实现“4F2”布局的单元晶体管的基本结构是沟道垂直排列的结构。它被称为“VCT(垂直沟道晶体管)”。位线、沟道(侧面有字线)和电容器从基板侧垂直排列。 图注:DRAM 单元阵列布局架构和垂直通道晶体管的示例。左上为“6F2”布局,右上为“4F2”布局。左下角是三星发明的VCT(垂直通道晶体管)结构的示例(称为“S2CAT:自对准2间距单元阵列晶体管”),右下角是用透射电子显微镜(TEM)观察到的原型单元阵列的横截面图像。 实现更高内存密度的尝试是三维 DRAM(3D DRAM)。通过垂直堆叠水平较长的 DRAM 单元(一端有位线,中间有通道,另一端有电容器)来增加内存容量。 图注:三维动态随机存取存储器(3D DRAM)的原型。这是由三星构思并制作的原型。它们被称为“VS-CAT(垂直堆叠单元阵列晶体管)”。左图显示了用透射电子显微镜 (TEM) 观察到的原型 DRAM 单元阵列的横截面。左上角显示 3D 堆叠晶体管和电容器,左下角显示位线提取结构(阶梯式),右侧显示字线和通道的横截面(一个通道夹在两条字线之间)。右侧的结构图展示了通过堆叠存储单元阵列和外围电路来减少硅面积的想法。将存储单元阵列晶圆(Cell WF)与周边电路晶圆(Core/Peri. WF)键合在一起。 3D NAND闪存超越极限 从这里开始,将收官对有关NAND闪存(以下简称“NAND闪存”)的介绍部分进行简单说明。自上世纪90年代中期开始实用化的NAND闪存(平面NAND闪存)已经经历了密度和小型化的极限。 最初,内存容量和密度主要通过小型化来增加,但到 2010 年代初,小型化已经达到了极限。这是因为,即使存在被认为具有最高绝缘性能的气隙,也无法再抑制相邻单元(单元晶体管)之间的干扰,并且单元可以存储的电荷量已减少到无法再防止干扰的程度。 图注:NAND闪存的演变 (1990年代至2030年代) 当时的突破(突破限制的手段)就是 3D 化。作为NAND闪存基本电路的单元串(一系列单元晶体管)已从水平方向转换为垂直方向。结果,单元可存储的电荷量大大增加,相邻单元之间的干扰大大减少。 此外,该公司还利用三维NAND闪存(3D NAND闪存),成功实现了传统半导体存储器难以实现的“多值存储”成为标准规格,即在一个单元中存储三位数据。 垂直单元串通过增加堆叠单元晶体管的数量,快速增加了密度和容量。 2010 年代初期的产品有 32 层。到 2020 年代中期,它已发展到 300 多层,高度约为其原始高度的十倍。此外,将存储单元阵列堆叠在外围电路上方(CuA:CMOS under Array)的布局已投入实际使用,从而减少了硅片面积。 与此同时,3D NAND闪存面临着与其前身平面NAND闪存类似的挑战。随着堆叠的增加,形成单元串沟道的孔变得更深,使得蚀刻更加困难。为了缓解这个问题,单元晶体管的栅极(字线)和字线之间的绝缘膜已经逐渐变薄。这会增加同一单元串中相邻单元之间的干扰,并减少可积累的电荷量。 此外,构成单元串通道的孔(存储孔)之间的间距也逐渐缩小,有助于提高存储密度。这增加了相邻单元串之间的干扰。 为了解决这个问题,人们尝试用电荷陷阱单元中的铁电膜代替作为栅极绝缘膜的氮氧化物 (ONO) 膜。电荷陷阱法是通过在ONO膜的捕获能级中积累电荷(主要是传导电子)来决定逻辑值(1bit的“高”或“低”)。铁电薄膜的逻辑值由极化方向决定,而不是由电荷决定。 通过在单元晶体管中使用铁电膜,可以实现降低编程电压和抑制阈值电压波动等效果。这两者都有助于减少小区之间的干扰。在单元级别上也已确认可以支持“多值存储”,即将单元晶体管的阈值电压从两个值增加到八个值(3 位)或 16 个值(4 位)。 图注:将铁电薄膜应用于 NAND 闪存单元晶体管的尝试示例。最左边的图像(a)是包含铁电膜(Ferro)的绝缘膜的横截面图像(通过 TEM)。中心(b)是将铁电薄膜纳入类似于 NAND 闪存的圆柱形结构的单元晶体管的横截面图像(TEM)。最右边(c)显示了阈值电压以16种不同的方式变化时的测量结果(相当于4位/单元) DRAM 和 NAND 闪存都面临着许多阻碍其未来发展的挑战。三星在主题演讲中提到的只是其中的一部分。我希望能够找到解决这些问题和其他问题的解决方案,并且希望进步能够继续下去。 更多技术分享 在演讲中,来自全球的企业和专家对DRAM和NAND的未来做了丰富的分享。 例如imec首次公布纯金属栅极技术,该技术可将层间距缩小至30nm,同时确保3D NAND闪存的可靠性。铠侠也分享了其多级编码技术,该技术可实现闪存的高速随机存取。应用材料公司开发出一种快速外延生长3D NAND的Si沟道的技术。 除了3D NAND,GLOBALFOUNDRIES还将展示兼容28nm HKMG CMOS逻辑的分栅嵌入式闪存技术。他们演示了一个34Mbit嵌入式闪存宏的原型。 在“DRAM”领域,开发3D存储器技术的风险投资公司NEO Semiconductor将讲解与3D NAND结构类似的3D DRAM技术“3D X-DRAM”。内存供应商 Macronix International 将展示一种改进的 3D DRAM 技术,该技术由两条水平字线、一条垂直位线和栅极控制晶闸管组成。半导体能源实验室 (SEL) 通过使用氧化物半导体单片堆叠平面 FET 和垂直通道 FET,制造出了原型 1M 位 3D DRAM。 在“铁电存储器”领域,美光科技讲解了其高性能、长寿命铁电存储器的材料工程技术。佐治亚理工学院将描述一种非挥发性电容器的制造工艺,该工艺能够实现铁电电容器的小信号无损读出。GLOBALFOUNDRIES 也讨论了互补 FeFET 存储器中发生的电荷捕获问题,该存储器旨在嵌入 CMOS 逻辑。 在“电阻式存储器/交叉点”领域,清华大学将展示兼容40nm高压CMOS工艺的3.75Mbit嵌入式电阻式存储器宏。此外,旺宏国际开发了AsSeGeS和GeN异质结构,优化了交叉点存储器中使用的OTS选择器的性能
董宇辉登顶一哥,小杨哥难回牌桌
当董宇辉在618拿下单日1.76亿元销售额的时候,另一位顶流主播疯狂小杨哥却仍未回到直播间,只在半个月前,出现在导演王晶在抖音晒出的生日视频里。 去年同期,疯狂小杨哥与董宇辉的“抖音一哥”之争尚在胶着中。当时,这位在抖音有超过1亿粉丝的超级主播,单场带货GMV(商品交易总额)屡破亿元;而董宇辉则带着与辉同行,连续多月霸榜抖音带货月榜。 转折发生在2024年9月,小杨哥深陷虚假宣传的舆论争议之中,连带着缺席了此前连续两年获奖的抖音电商作者峰会,反而是董宇辉带领的与辉同行获得了这场峰会上唯一一个的年度卓越作者奖。 几天后,合肥高新区市场监督管理局对三只羊的虚假宣传进行立案调查。调查结果出来后,抖音对“三只羊”旗下账号进行了停播处理。 这场因虚假宣传引发的监管风暴,直接将小杨哥的直播生涯按下了长达九个月的暂停键。尽管两个月前,监管方面有所松绑,但却迟迟未现身抖音直播间带货。 “抖音一哥”之争终见分晓:小杨哥淡出直播间,而董宇辉登顶2024年度抖音带货宝座,更以企业家身份开启事业新版图,带货、综艺、音乐、文旅等多领域开花。 回溯二人走过的路,两位主播的成长轨迹形成鲜明对比。董宇辉成长于新东方体系,以文化人的身份杀入直播带货,开辟了知识带货赛道;而草根出身的疯狂小杨哥,则通过搞笑、整蛊视频快速走红,当直播电商合规化进程加速,其赖以生存的“疯狂”成最大绊脚石。 董宇辉和小杨哥,两位90后主播,同样出生于农村家庭。不同的是,董宇辉毕业于西安外国语大学,从事教育工作。小杨哥毕业于专科学院,求学期间就通过快手平台的整蛊短视频崭露头角,后将这种风格带到了抖音。 在新东方教培体系下成长的董宇辉,转型直播后带来的文化价值甚至大于商业价值。俞敏洪曾评价董宇辉:“我觉得他对公司的贡献是一种文化贡献,一种价值观贡献,一种在东方哲学发展上的贡献。” 早在短视频风口期入局的小杨哥,通过模仿辛巴的直播风格,逐渐形成其标志性的“疯狂”人设,在下沉市场突出重围。他在直播间直言:“照着巴哥(辛巴)的玩法玩玩玩...巴哥永远是我学习对象。” 这种差异在直播间具象化为两种生态: 小杨哥的直播风格带有明显的恶搞性质。比如他在直播间卖拖鞋的时候,将鞋塞进嘴里,用牙齿撕咬;卖螺蛳粉的时候,在直播间一边吃一边笑着吃一边哭着吐,丝毫不在乎形象。 另一边的东方甄选直播间,董宇辉却对着不到一百人的直播间,不紧不慢地讲述地理、历史和文学。坚持许久,董宇辉在抖音和东方甄选的联合运作之下一炮而红,成为当年的现象级人物。 当行业聚焦在董宇辉的现象级破圈时,没有人注意到抖音即将诞生一位粉丝破亿的超级主播。 2022年11月,小杨哥粉丝破亿,成为全网第一位单个平台粉丝破亿的主播。此后,关于小杨哥的讨论逐渐多了起来,外界注意到这是一个单场GMV多次破亿的超级主播。 两位顶流主播在同年先后登顶。虽然小杨哥的直播间和董宇辉截然不同,但相同的是,他们都是被抖音流量托举起来的。 2018年从快手转战抖音的小杨哥,赶上了抖音进攻下沉市场的契机。两年时间,小杨哥粉丝量突破了4000万。转型直播带货的小杨哥,多次获得抖音颁发的官方奖励。2023年9月的抖音电商作者峰会上,小杨哥获得抖音颁发的“滚烫事业成己达人卓越个人奖”,站在台上的小杨哥对抖音表示感谢: “我与抖音,因梦想相遇,因信任同行。” 图源:抖音@三只羊网络 当时的小杨哥,一边在抖音收徒,拉拢多位粉丝千万的主播到自己旗下;另一边将分公司开到了杭州、沈阳、广州等地,甚至还要开到香港。 香港导演王晶来到小杨哥直播间,相差40岁的两个人在直播间称兄道弟。小杨哥将手搭在王晶肩膀上指着镜头问他,“你女儿以后想不想进军抖音?我让我的兄弟们给她点波关注”。大手一挥,王晶女儿的抖音账号涨了二十三万粉丝。 这一年双十一,小杨哥并没有直播几场,却创造了6亿元的销售额。 当小杨哥顺风顺水地站在巅峰之时,董宇辉也即将完成一场蜕变,挣脱桎梏。 作为当时极具影响力的新锐主播,在东方甄选体系下的董宇辉,并没有呈现明显的上升趋势,新东方系的管理架构让董宇辉陷入“价值折现”的困局。因此关于“去留”和“待遇”的问题,也让董宇辉和东方甄选长期处于舆论争议之中。 董宇辉的能力显然没有得到最大发挥,最终酿成了2023年底的小作文风波。当时,还有不少人冲进小杨哥直播间让他挖走董宇辉,小杨哥还表示“怎么可能呢.....真是人才中的人才,谁不喜欢谁不爱啊,是我们学习的榜样。” 最终,这场风波让董宇辉拥有了独立的直播间“与辉同行”。自此,董宇辉正式进入了超级主播的讨论格局中。 这两位超级主播,在2023年末迎来了属于他们的高光时刻。 实际上,董宇辉和小杨哥的“一哥之争”,是在销售额、流量和话题度层面的,两人的直播受众并不相同。 小杨哥聚焦下沉市场,而董宇辉面向中产阶层。按照八大消费人群来看,小杨哥直播间的z世代、小镇青年、新锐白领和都市蓝领,占据了75%的比例。而与辉同行刚好相反,直播间60%的人群来自新锐白领、资深中产和精致妈妈。 这种用户结构的本质分野,造就了“丈母娘文化圈层”与“江湖兄弟”的受众分层。这样难分高下的局面持续了很长一段时间,和当时薇娅和李佳琦的双强局面相似。 当超级主播站在流量的金字塔尖时,商业可持续性就不仅取决于粉丝,更深层驱动因素在于主播个人。多位头部主播都遭遇过风波,如薇娅的税务风波、李佳琦的“79元眉笔”事件。主播能否稳定走下去,更大的因素在于主播个人是否遵从商业生存法则。 实际上,站在顶峰的两个人,都早已对流量有过警惕之心。 2022年的一场直播,小杨哥突然中断了直播。事后,他感叹:“人气太高了,10分钟就100万在线,太害怕了”。当时,小杨哥的抖音粉丝即将破亿。 再后来,有人问小杨哥,为什么直播间变得越来越没意思?小杨哥说,“盯着我的人太多了,我如果再玩当年那一套,我早就没了。如果直播间还像当年一样打打闹闹,那早嘎了。” 董宇辉对流量也保持谨慎态度。 董宇辉拒绝“网红”一词,因为反感网红的“贬义词性”。董宇辉认为,网红通常都是做一些非常蠢的事情,然后去吸引眼球的,“我很拒绝这两个字”。 这也不难理解为什么在高位热搜之下,董宇辉会做出清空微博的举动。 然而,小杨哥警惕的只有自己的疯狂人设和直播间流量,减少直播频次。对于直播带货的产品,仍然按照早期的“疯狂”法则行事。这在一定程度上让三只羊保持了高速增长。 2022年3月,三只羊公司开始运营,这一年三只羊的直播带货产值超过100亿元。根据《中国企业家》报道,2023年三只羊GMV达到160亿元,2024年前5个月的GMV同比增长97%。 职业打假人王海曾表示,直播带货行业代发分离,本身就难以把控产品。2022年以来,职业打假人王海就曾多次瞄准小杨哥,质疑其直播间售卖的产品。 香港美诚月饼一事引爆舆论后,牵扯出小杨哥此前售卖的产品涉及“虚假宣传”。据当时“新黄河”报道,三只羊已经连续三年售卖此款香港美诚月饼。 图源:合肥发布 事后,香港演员曾志伟听小杨哥讲解月饼时脸上“错愕”的一幕,广为流传。 董宇辉尽量避免对GMV过于看重。 即使身为带货主播,董宇辉提倡的也是反消费主义观念,他在直播间多次呼吁消费者理性消费,“我要让人消费的多,我就变成了一个作恶的人,因为消费主义不会让人生活幸福快乐。” 去年7月,在接受《扬声》节目采访时,董宇辉被问到,“会希望业绩大涨吗?” 他说,“如果与辉同行单纯以业绩和利润作为追求的话,整个公司会扭曲,会变形,然后当变形的时候,可能就会做一些自己原来不想,但是不得不做的事情。” 图源:腾讯视频《扬声》 避免以GMV为导向的另一面是,董宇辉有自己的价值追求。 在抖音的货盘中,图书是利润率最低的商品类目之一。而董宇辉特地为图书专门设立了一个栏目“破万卷”,请文人到直播间访谈,顺便卖书。今年4月,董宇辉获得了人民文学奖特别设立的“传播贡献奖”。 董宇辉想做好三件事:助农、图书和文旅。助农和图书,一般赚不到什么钱。去年董宇辉为奉节脐橙带货,一些当地种植户感谢董宇辉,为他发声说,董宇辉赚不到什么钱。后来他在直播间说,不挣钱不重要不用担心,想做的做了就行。 对于文旅直播,董宇辉曾说过,费用都是自费,从未收取各地文旅宣传费用,因此文旅专场的部分带货是为了覆盖成本。 2024年末,董宇辉给合作的供应商们发了一封信,提到了三个原则:做好产品品质;提升售后服务能力;利他的合作模式。 据新抖统计,2024年董宇辉的GMV达到了102亿元。对于刚转型一年的董宇辉来说,他走得很快;但是对于超级主播来说,他走得并不是很快。 2024年9月初,快手一哥辛巴将炮火对准小杨哥,一句“质检、售后、赔偿态度你们都没有,就剩炒作了”引爆舆论,让小杨哥深陷负面争议之中。 几天后的抖音电商作者峰会上,抖音电商总裁魏雯雯在会上强调,“好内容”将成为生意增长的第一生产力。魏雯雯用与辉同行来举例,称与辉同行直播间既有知识分享、又有优质好货,和如今的流量机制“完美”契合。 当时,连续两年获奖的小杨哥缺席了这场峰会,与辉同行获得了唯一一个年度卓越作者奖。 这场峰会成为了两人职业生涯的分水岭。 就在这场峰会的几天后,小杨哥带货香港美诚月饼翻车,引来相关部门立案调查。最终调查结果证实了小杨哥带货的部分产品存在“虚假宣传”,抖音也对三只羊进行了账号停播处理。尽管小杨哥多次尝试复播,但始终失败。 而董宇辉不仅成为2024年最卖座的抖音主播,更是加速了商业版图的扩张。 在商业布局上,董宇辉连续成立四家企业,拓展在文旅、新闻出版等领域的产业链;而且拿到了MCN资质许可证,可以与艺人或主播进行签约。在文化领域,董宇辉成为抖音文化的标杆,和抖音联合共创文化节目,更是受到抖音音乐邀请,制作个人单曲《吾乡》,董宇辉曾回应说,是自嗨,也是应抖音音乐邀请。 小杨哥没能再回到直播间,他没有辛巴那么幸运。从糖水燕窝事件爆发到复出,辛巴用了不到半年时间,最后跪着回到了快手直播间。 小杨哥已经暂别直播间9个月,尽管三只羊已经被相关部门认定“具备恢复经营条件”,但是却始终没等到小杨哥回到直播间,等来的反而是“小杨臻选”自营APP。 如今,即使背靠小杨哥的过亿粉丝,“小杨臻选”的冷启动仍然显得尤为艰难。4月初上线至今,该APP累计下载量约60万;直播间观众人数也寥寥无几。 小杨哥曾一手打造的三只羊帝国,如今正面临危机。昔日的徒弟“陈意礼”“红绿灯的黄”等主播,早与小杨哥划清了界限,取消了抖音主页上三只羊的MCN机构认证。 那个成立于小杨哥最风光时期的沈阳三只羊分公司,也在今年5月变更了登记状态,由存续变更为注销。 今年5月,导演王晶在抖音晒出了自己的生日视频,许久不曾露面的小杨哥出现在视频里。曾经张扬搞怪的小杨哥规整站立,神态拘谨,与此前在直播间和王晶称兄道弟的样子大不相同,更与他标志性的“疯狂”人设大相径庭。 谁也想不到,两年前还在直播间招呼兄弟们关注别人的小杨哥,现在正在借助别人的视频在抖音露面。
2025国际文旅博览会暨旅游装备展
2025国际文旅博览会暨旅游装备展 【本届展会】   2025国际文旅博览会暨旅游装备展将于2025年10月24- 26日在合肥滨湖国际会展中心举办。集中展示景区装备、数字文旅、沉浸演艺、夜游灯光、游乐设施、景区交通、配套服务、商业美陈、户外露营、旅居装备,聚焦文化旅游融合发展,展示旅游产业新技术、新产品、新成果,打造交流平台、推动景区创新、促进文化融合,产业升级。旨在打造文旅产业链上下游企业共交流、同发展、谋合作的一站式平台景博会至今已成功举办6届,累计吸引25个省市、50余家行业协会参会,36个地区文旅行政部门组团参展,举办60多场主论坛、100场配套活动,提供了1200余次精准采购对接服务参展企业5000余家,总计吸引了20万余家单位现场参观。参展企业包括乐客奥义、上海禾锐、广州视宴科技、重庆圣东旅居 、青岛道可云科技、安徽荣品科技住宅、南方文旅、牧童集团、欧长虹游乐、童年之家、贝仕达、巨马游艺、玖远旅游、巅峰智业、美团、创奇游乐 宇通客车、石基环企、 蜗牛、身临其境、万用房屋、中冶设备、创奇游乐、中植汽车、小筑幽栖、奇幻森林、普天轨道等. 【展览范围】 1、游乐设施展区展示内容:集中展示过山车、滑行车、摩天轮 、碰碰车、旋转木马、观览车、观光索道、游乐机器人、卡丁车等各类回转、摆动游艺机、充气游乐设备、造波设备、水滑梯、碰碰船、互动游戏机、益智与娱乐设施器材及相关技术设备等。2、主题公园展区展示内容:过山车、摩天轮、轨道赛车、自控游乐设备、黑暗乘骑、特种影视设备、无动力游乐设备、水上游乐设施、充气游乐、丛林攀爬、萌宠乐园、拓展训练、巡游演艺、规划设计、工程施工等;3、文旅科技展区展示内容:文旅科技设备、互动多媒体、数字媒体技术、全息投影、球幕、飞行影院、沉浸式影院等。4、智慧旅游展区展示内容:集中展示物联网、人工智能技术、大数据、云平台、移动电子商务、客源分析系统、电子导览系统、远程监控系统、虚拟旅游互动体验应用服务、智慧旅游公共服务平台、景区智能管理和运营平台、VR+旅游、旅游APP等。5、交通设施展示内容:展示客车和景区观光客车、新能源旅游客车和新能源景区观光客车、房车及相关零部件、智能驾驶客车及相关零部件、客车零部件、新能源驱动系统等。6、卫生设施展示内容:景区智能厕所、可移动厕所污水处理系统、无水马桶、生物降解坐便器CO乡村厕所、垃圾箱、智能垃圾分类等。7、标识标牌展区展示内容:展示导览图、导视设备、景区标识、公园指示牌、木质标识牌、仿木标识牌、标识牌设计、标识牌升级等。8、旅游景区装备展区展示内容:展示旅游房车、商务房车、拖挂式房车、房车改装、露营设备、户外运动装备、户外运动服饰、登山运动器材及装备、垂钓用具、户外运动俱乐部等。9、景区旅居装备展区展示内容:文旅仓、集装箱、木屋、帐篷、休闲农庄、休闲度假综合体、古村落文化体验民宿、景观特色民宿、城市民宿、精品客栈、精品文化酒店、民宿业品牌店等。10、文旅规划11、展示内容:旅游景区规划、主题乐园规划、文化小镇+田园综合体的设计、特色建筑旅游景观设计、景区活动策划、运营管理,景区托管员工培训、景区创A申报咨询等规划运营类企业。11、景区景观照明设施 展示内容:花灯表演、魔术表演、演艺公司、景区灯光节、灯光秀、全息投影等夜游产品、太阳能路灯、景观灯、警示灯等; 【展览联系人】 1、展睛睛17757862452 (微信同号)  2、地址:安徽省合肥市中设创意产业园
抖音严打绕过平台交易:一季度处置近4.5万个“飞单”违规商家
快科技5月24日消息,抖音生活服务近日宣布启动“飞单行为专项治理行动”,对商家诱导用户脱离平台交易的违规行为(以下简称“飞单”)实施严厉打击。 平台将依据《抖音生活服务商家飞单行为管理细则》,从严从重处置飞单违规情况,并自5月26日起每双周公示违规商家名单。 “飞单”行为指商家在用户完成平台购买或表达购买意向后,通过明示或暗示方式,诱导用户绕过抖音支付、核销或完成交易,包括以下典型违规场景: 1、引导用户使用现金、刷卡、第三方支付等非平台方式结算; 2、以店内会员优惠替代平台套餐支付; 3、用更低价方案吸引用户脱离平台交易; 4、核销后引导用户通过非平台渠道补差价; 5、在直播、聊天、电话等场景直接引流至其他平台; 6、以返点、福利、系统故障等理由促成非平台交易等。 此类行为不仅破坏平台交易规则,更可能导致消费者面临虚假宣传、价格欺诈、售后无保障等风险。 抖音生活服务平台构建了技术监测、人工核查、投诉举报等多渠道识别机制,对查实的飞单行为实施分级处置,包括警告、扣除违规分、限制内容分发、商品下架、封禁团购功能等。 对于情节严重的商家,将直接永久封禁其经营权限。 今年一季度,平台识别并处置了近4.5万个涉及飞单违规商家。
特朗普对苹果动手原因曝光 他被库克“拒绝”了
库克 凤凰网科技讯 北京时间5月26日,据《纽约时报》报道,在美国总统特朗普最近前往中东访问前夕,白宫曾鼓励多家美国企业的CEO和代表随行。但是据两位知情人士透露,苹果公司CEO蒂姆·库克(Tim Cook)拒绝了这一邀请。 库克的这一决定似乎激怒了特朗普。在他从沙特辗转前往阿联酋的行程中,特朗普多次抨击库克。 在利雅得演讲时,特朗普曾稍作停顿,称赞了英伟达CEO黄仁勋(Jensen Huang),夸奖他随白宫代表团一同前往中东。接着,他转而批评了库克。 “我的意思是,库克没来,但你来了。”特朗普在一场活动中对黄仁勋说道。出席该活动的还有多位CEO,包括资产管理公司贝莱德的拉里·芬克(Larry Fink)、OpenAI的山姆·奥特曼(Sam Altman)以及半导体公司AMD的苏姿丰(Lisa Su)。 后来在卡塔尔,特朗普表示他“和库克之间出了有点小问题”,他不希望苹果在印度建厂。接着在上周五,局势进一步升级。特朗普突然在社交媒体上宣布,要对美国以外生产的iPhone征收25%的关税。 特朗普最新发出的关税威胁标志着库克的境遇发生了戏剧性反转。八年间,他从特朗普最青睐的CEO之一,沦为白宫重点针对的企业目标之一。这种关系的破裂让华盛顿和硅谷的许多内部人士开始质疑:科技界这位最擅长与特朗普沟通的人,是否已经失去了影响力? 截至发稿,苹果尚未置评。白宫拒绝就特朗普中东行置评。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
行业首家:小米Xiaomi Vela性能与安全性通过中国信通院五星级测试认证
IT之家 5 月 26 日消息,近日,中国信息通信研究院(简称“中国信通院”)对小米研发的轻量级操作系统 Xiaomi Vela 进行了性能与安全性的全面测评,测评结果显示,Xiaomi Vela 性能及安全性达到五星级标准。 小米技术官方今日发文宣布:这是轻量操作系领域首家通过此认证,这一成果不仅体现了小米在基础软件领域的创新能力,也标志着小米在轻量操作系统研发道路上的重要突破。 IT之家从小米官方获悉,Xiaomi Vela 是小米基于开源实时操作系统 NuttX 打造了物联网嵌入式软件平台,具备高度的兼容性和灵活性,帮助厂商低成本、高效率打造高体验的智能产品,为全球的芯片厂商、设备厂商和应用开发者提供一站式解决方案。 Xiaomi Vela 已成功在 10 大核心设备品类实现规模化应用、成功落地超千款产品,为超过 1 亿台智能设备助力。Xiaomi Vela 轻量容器是 Xiaomi Vela 在轻量操作系统中研发的一个安全、高性能、应用可独立升级的容器技术。经中国信通院测评,Xiaomi Vela 轻量容器拥有以下优势: 安全隔离:硬件级防护与内存安全双保险 基于硬件可信执行环境,将应用代码运行在加密内存区域中,借助轻量容器,应用之间形成行业首创的三重隔离。 轻量独立沙箱:资源占用低,启动速度快 与其他独立沙箱比,轻量容器中字节码更紧凑,资源占用更低,支持应用静态编译后,应用启动性能也大幅提升。 近原生性能:编译优化与架构创新突破效率边界 高级语言可以借助轻量容器完静态编译,在高级语言编程的同时,达到接近原生的执行性能。 IT之家附 Xiaomi Vela 更多特性如下: 高度可扩展:Xiaomi Vela 的设计注重模块化与可扩展性,使其能够灵活适应多样的物联网应用场景。小到仅配备 32KB RAM 的微型 BLE 模组,大到拥有 512MB RAM 的智能有屏音箱,Xiaomi Vela 都能提供高度可扩展的支持。 一站式解决方案:随着时间的推移,Xiaomi Vela 不断沉淀了各类 AIoT 应用的共性需求,成为一个功能完备的软件平台,为各类物联网解决方案提供了全面的支持。厂商采用 Xiaomi Vela,可以显著降低研发成本并加速产品的上市时间。 成熟的异构计算支持:Xiaomi Vela 为异构多核系统提供了强大的支持,实现了 MCU、MPU、DSP、GPU 以及 NPU 等不同处理单元间无缝的 IPC 通信机制。此外,Xiaomi Vela 还提供了一个高级的 RPC 框架,简化了 Xiaomi Vela 与 Android 和 Linux 系统的通信,使快速打造一个异构融合操作系统成为可能。 标准兼容和高可移植性:Xiaomi Vela 内核基于 NuttX ,这个被称为“Tiny Linux”的系统为 Xiaomi Vela 提供了高标准的 POSIX 兼容性。通过持续提升其 POSIX 兼容性,Xiaomi Vela 当前已达到 88% 的兼容水平。这种高标准的兼容性意味着在其他标准操作系统(例如 Linux)上开发的软件可以轻松迁移到 Xiaomi Vela,几乎不需要额外的工作。 全面的连接套件:Xiaomi Vela 提供了广泛的协议支持,包括蓝牙 BR / EDR / LE、LE Mesh、WiFi、Matter、LTE Cat1、以太网、CAN / LIN 等。同时,它还能与小米的 HyperConnect 协议无缝集成,提供了强大的连接能力。 丰富的开发者工具:Xiaomi Vela 提供了一系列完备的开发者工具,包括系统监控、性能分析、调试器、追踪、崩溃分析和日志分析工具,为开发者提供了强大的支持。
单日订单破4000万,饿了么不做机会主义者
过去几个月,即时零售“东团大战”开打,两大平台挥舞着钞票,围绕补贴、商家、骑手等激烈交锋,舆论场上的口水战也分外激烈。 当京东与美团的外卖大战逐渐进入相持阶段时,之前曾战略观望的饿了么有了大动作,联合淘宝闪电入场。 4月30日,淘宝即时零售业务“小时达”升级为“淘宝闪购”,在淘宝app首页Tab以“闪购”一级流量入口,并联合饿了么共同加大补贴力度。双方全力围绕消费者提供最大福利优惠:诸如免单红包、免单奶茶、大额满减外卖券等超级权益。 以奶茶为例,有人晒出“0.4元买奶茶套餐”的饿了么订单,也有人花费1.4元买到牛油果酸奶紫米露。话题“饿了么害我一天三杯奶茶”登上微博热搜。 除了奶茶,饿了么用户也薅到其他外卖品类的“羊毛”,比如2元吃一顿饭,5元吃蓝莓、奇异果等。 淘宝的泼天流量,叠加饿了么的运营力,让淘宝闪购的订单量直线拉升。 5月5日,淘宝闪购单日外卖量突破1000万单。次日奶茶免单活动上线后,淘宝闪购超1500个品牌、超60个城市的外卖订单量突破历史峰值。不到一个月时间,根据官方数据显示,淘宝闪购联合饿了么日订单数已超4000万。 其中,非茶饮订单占比达75%,非餐品类订单增长远超预期。在这段时间里,淘宝闪购订单准时率达到97%,在订单高速增长的同时也保障了高质量履约水平。 作为近场电商的主攻手,饿了么联手淘宝在即时零售赛场打了一场闪电战。 早在2020年7月,饿了么宣布,从餐饮外卖平台升级为解决一切即时需求的生活服务平台,从送外卖扩展至送万物、送服务。 随后近5年间,饿了么吸纳不同类目、不同体量的商家入驻,丰富非餐饮供给,并通过精准补贴和高效运营,逐渐在消费者中培育即时零售心智和用户习惯。 彼时“东团大战”的开启,也让供需两侧对于即时零售的感知愈发强烈,参与其中、试水尝鲜的意愿也在逐渐增强。 饿了么选择在5月初与淘宝闪购携手入局,时间点颇为巧妙:既享受了市场升温的红利,又避免了效能低下的营销烧钱大战,可以把更多资金用在商家和消费者身上。 不过,饿了么不是机会主义者。不到一个月就与淘宝闪购实现单日4000万单里程碑,并非“撞”上风口的结果,背后是长时间的沉淀积累。 过去5年间,饿了么一直在打磨技术、产品、运营、组织、人事等,在即时零售领域积累品牌势能、用户基数和商家供给;与阿里生态其他业务的配合也更加纯熟,早早迈过“导流”逻辑,而是朝着更持久的“双飞轮”逻辑迈进。 不做机会主义者的饿了么,对市场时机始终保持敏锐。此次饿了么与淘宝闪购相互配合,短时间内就在即时零售赛道取得不小成绩。倘若未来与阿里其他业务产生“化学反应”,饿了么的商业价值和想象空间还会更大。 淘宝闪购与饿了么携手征战即时零售、出手迅疾;但两大业务均已在即时零售领域探索、积累了四五年,才有了“闪电战”的一击即中。 淘宝和饿了么分属阿里电商和本地生活板块,却几乎同时预判了即时零售的巨大潜力。 5月15日,阿里发布2025财年第四季度(自然年为今年第一季度)财报。报告期内,阿里本地生活集团收入同比增长10%至161.34亿元,由高德和饿了么的订单增长,以及市场营销服务的收入增长所带动。 财报的利好,即时与零售业务不断拓展、收入来源日益拓宽息息相关。 早在2020年6月,淘宝在北上广深等全国16个城市上线“小时达”。一个月后,饿了么同样升级业务形态,从外卖主战场踏入即时零售的新河流。 从那时起,淘宝和饿了么沿着即时零售赛道分别向前探索。 淘宝以快递电商起家,长板是几乎无穷无尽、无所不包的供给。涉足即时零售后,它把供给优势“复刻”到新业务中。 在更名闪购前,淘宝小时达已经覆盖全国大大小小的城市,吸纳超300万家门店,覆盖食品生鲜、快消、3C数码、服饰、运动户外、鲜花园艺等主要类目。 与此同时,饿了么也在衔枚疾进。战略上,即时零售在饿了么长期规划中的地位不断上升。 2024年,饿了么明确了“1+2”的长期战略。其中“1”代表做好一个“健康增长、更懂消费者的到家餐饮平台”;“2”则代表饿了么新确定两个赛道,作为第二增长曲线:一个是要做符合饿了么特色的即时零售,第二个就是要做面向市场价值延展的即时物流网络。 业务上,饿了么在继续扩充餐饮供给的同时,引入大量非餐饮商家,扩大超市便利、日用百货、个护医美、3C数码、服饰等诸多品类的货盘,供给池更加宽广多元。去年10月,饿了么还推出了3年内开设10万家近场品牌官方旗舰店的计划。 入局即时零售近五年,淘宝和饿了么都取得了颇为亮眼的成绩。淘宝作为阿里“定海神针”的长期竞争力得到提升,而饿了么作为增量引擎的战略价值也日益凸显。 一方面,饿了么的外卖基本盘稳中有进,这块高频、刚需的业务激活了淘宝6亿高黏性、高活跃度的用户,成为阿里电商等板块应对挑战、拓展新业务的可靠倚仗之一,整个集团的护城河挖得更深。 另一方面,饿了么早早布局即时零售,是阿里在即时零售这块兵家必争之地的桥头堡。而饿了么在外卖领域深耕多年,具备同时连接和服务供需两侧的经验,且拥有庞大的运力池,做即时零售可以“无缝切换”,短时间内聚拢大量商家和用户,让阿里在征战这块新市场时,起点更高、走得更稳。 五年过去,饿了么已将即时零售培育为外卖之外的第二曲线;随着淘宝闪购与饿了么的“会师”,阿里贯穿不同消费场景的“远中近场”融合构想,也获得了完成闭环的契机。 此前,在阿里的设想中,社会消费的“远场”是快递电商,“中场”是同城零售,由其他部门担纲;距离用户最近、交易频次最高的“近场”即时零售。 如今,淘宝闪购与饿了么的流量、货盘相互打通,技术、履约等基础设施的利用效率更高,并反映在订单量的飞速增长上。 与2020年初涉即时零售的分进合击相比,此次淘宝闪购和饿了么加码即时零售,明显加强了各个维度的协同配合。 拥有400万骑手的饿了么,是阿里所有到家业务的履约基础设施,即时零售也不例外。在此基础上,淘宝闪购与饿了么在流量、供给、需求、组织等维度也并肩作战。 自从饿了么归入阿里生态后,淘宝一直是其重要流量入口。 在淘宝APP内,饿了么小程序长期占据金刚位,无缝承接淘宝用户的外卖和即时零售需求。淘系电商的88VIP会员体系也和饿了么红包卡券权益互通,实现双向导流,留存高黏性用户。 两块业务携手征战即时零售后,淘宝在APP顶部标签栏的“闪购”新增“外卖”字样。在淘宝闪购页面,外卖也占据醒目位置。淘宝将流量导向外卖和即时零售场景,由饿了么完成承接转化。用户无需跳转,就能在淘宝APP内完成下单。 在供给侧,饿了么与淘宝闪购互通有、互为补充。 饿了么过去5年间积累大量非餐饮本地商户,与淘宝闪购全面打通后,后者将可以快速引入大量熟悉即时零售业务流程、货盘配备齐全的商家,有利于用户和订单迅速起量。 同时,淘宝此前积累超300万本地商家,也将作为供给向饿了么开放。这里面既有社区店、小超市等中小商家,也有大型连锁、大型商超、品牌商家仓等大型商家;饿了么的即时零售供应链得到延展,货盘供给更加丰富,价格也能够与快递电商大体持平。 值得一提的是,淘宝素来以服饰品类见长,如今这一优势正被复制到即时零售领域,饿了么也可以从中受益。目前,Jack & Jones、ONLY、七匹狼、红豆、万事利等众多服饰品牌已经入驻淘宝闪购,同时也成为饿了么的供给资源。 在需求侧,饿了么打磨沉淀的“送万物”心智,是淘宝闪购刚刚起步就日订单量破千万的重要推手。 虽然由淘宝小时达更名而来,且有“东团大战”加热市场,淘宝闪购毕竟是一个新名字、新面孔。通过牵手饿了么,比如在“闪购”标签旁增加“外卖”字样,淘宝闪购能够以极低成本,让新用户明白自己是什么、该如何使用。 此外,饿了么“30分钟送到家”的服务体验深入人心,穿梭于大街小巷的“蓝骑士”也颇具辨识度。淘宝闪购之所以在诸多位置首推外卖,目的正是“借用”饿了么的口碑,让新用户对于自身的配送速度和服务体验形成基本认知,并愿意下单使用。再以密集、精准的补贴为杠杆,就能迅速打开市场。 除了业务协同,淘宝与饿了么在组织、人才等方面同样交流密切。 比如,两大业务的多位管理者双向流动。 饿了么现任董事长兼CEO吴泽明(花名:范禹)是阿里合伙人之一,曾先后担任阿里本地生活业务CTO、阿里集团CTO等职务。阿里老兵、闲鱼创始人谌伟业(花名:处端)此前从淘宝“空降”饿了么,担任COO兼零售业务负责人;2023年底又回归淘宝。 饿了么和淘宝管理人员通过内部调岗,兼具两块业务的工作经验,对于如何推动两块业务协同、如何实现远近场相互协同有了更直接深入的感知。在这方面,竞争对手很难等量齐观。 淘宝闪购、饿了么在流量、供需两侧生态互补,跨BU敏捷军团深度协同。不到一个月,淘宝闪购和饿了么的订单数据均增长显著,两块业务的联合作战初显成效。 淘宝闪购与饿了么携手征战即时零售的背后,整个阿里也在重新握指成拳。 阿里素有以组织变革驱动战略变革的传统。5月上旬,吴泳铭在阿里内网发帖,呼吁阿里人回归初心、重新走在创业路上。他表示,接下来集团将以饱和式投入的打法,聚焦于几大核心战役。 按照吴泳铭的表述,战役的打法是多个业务共同参与、发挥各自优势和长项。集团将选择长期和全局的价值而非短期局部价值,以全局价值最优来制定集团各业务的协同策略。 不难看出,阿里此次变阵将业务协同放在了集团战略的高度。 在阿里集团 吹响“集结号”之前,已经针对核心的电商业务群组做出调整。去年11月,阿里成立电商事业群,淘天集团、国际数字商业集团、1688、闲鱼等电商业务被整合到新事业群下,由蒋凡统一带队。 握指成拳的效力已经显现。今年第一季度,淘天集团营收同比增长9%至1014亿元人民币,创六个季度新高;客户管理收入和经调整EBITA(息税折旧及摊销前利润)超市场预期;88VIP会员同比两位数增长。 近半年后,在即时零售大战中,淘宝闪购又与饿了么兵合一处,效果立竿见影。外卖日订单量突破千万,别人用了五十多天,淘宝闪购只用了不到一周。 淘宝闪购给饿了么导流,饿了么则“带飞”淘宝闪购,两块业务的跨BU协作效果惊人。饿了么的心智、用户、供给、履约、运营等方面的长板,同样可以为兄弟业务所用,形成互相带动的“双飞轮”。 饿了么此次与淘宝闪购打配合,以“打扫战场”的姿态入局即时零售,就激发了彼此的巨大能量,带来海量新用户、新订单。不难想象,倘若饿了么与阿里其他BU携手,同样有机会重现“双飞轮”的神奇。 饿了么的能力底色是:以即时运力为纽带,高效联通供给和需求。对于这套门槛很高的能力矩阵,阿里不少BU有存在潜在需求,比如同属本地生活板块的高德,电商消费领域的天猫、闲鱼、盒马,乃至刚刚更名的虎鲸文娱、大麦娱乐等。 淘宝闪购初战告捷,证明饿了么的能力矩阵完全可以应用在阿里生态的更多板块,创造更大供需增量,为整个阿里带来更多想象空间。以入局即时零售大战为新起点,饿了么的增量引擎添了一把火,但潜能远未被充分开掘,仍有巨大的释放空间。
比DeepSeek更deep,比OpenAI更open
通用人工智能时代的组织变革之道是什么 文|何伊凡 编辑|钟云华 头图来源|AI生成 AI冲击下组织变革之道是什么?就是比DeepSeek更deep,比OpenAI更open。先声明,这句话“版权”属于海尔集团董事局主席周云杰。他在一次内部分享中谈到了“AI新纪元下的企业战略聚焦”,有此妙语。 海尔以善于进行组织变革著称,在互联网时代曾率先提出变革科层制,将员工(“人”)与用户价值(“单”)紧密结合,是为“人单合一”。取消高层、中层、基层划分,将集团拆解为数千个创业小微。当AI成为新基础设施,管理与组织的重构是智能化落地的前提。周云杰认为,将来与人工智能的合作表现,将决定每个人的薪酬。 这也是一个令人困扰的命题。经常听到有企业家提出“全员AI”,有人要求将熟练使用AI加入KPI考核,还有人把决心写在公司文化墙上:淘汰你的不是AI,而是比你更熟练掌握AI的同事。可现实中组织变革往往陷入两种极端:一种是AI万能论,将变革“花瓶化”,成立大量伪AI项目,如鼓励用AI工具写周报,可决策仍依赖领导“拍脑袋”;一种是AI有限论,仅仅将AI当作自己的“数字员工”,而不思考如何匹配相应的智能运作结构与工具链。 是否要用“AI兼容度”来评估岗位价值,重组冗余部门?来自组织力强大头部公司,且已经获得验证的组织模式,哪些部分需要颠覆,哪些部分可以延续?数据流怎样重构权力链,实现AI驱动之下的动态考核?如何让AI成为组织的“神经末梢”,而非仅仅是“外挂工具”?怎样避免过度依赖AI导致员工创造力萎缩? 来源:AI生成 类似问题都还没有标准答案,不过周云杰所用的两个形容词显示了路标:“更deep”地再造企业产学研销全流程,“更open”地建立与周边生态的交互方式。 AI驱动下的组织变革,并非简单技术部署,而是复杂的组织再编程。如同升级飞机引擎同时必须保持飞行稳定,每个动作都需要精心计算变革载荷与组织耐受力之间的平衡系数。“更deep”的步骤有三个。 1.升级到一把手工程,采用双轨运行机制。AI化必须由一把手亲自抓,这也是数字化时代重要经验之一,许多企业数字化变革之所以失败,就是因为公司老大口头重视,却并没有躬身入局,而是委托职业经理人全权负责。这会导致表演变革,调整组织需要牵扯利益与权力,如果不是公司老大动刀,操刀者往往会导致手术失败,自己也会成为牺牲品。 变革之前需要从数据基础、技术能力、流程适配度、人才储备、文化接受度等多维度进行诊断,通用大模型尚有较为严重的幻觉,垂直模型虽可通过特定行业数据进行训练,以及限制任务范围可减少错误率,可早期仍需保留传统流程作为“安全轨道”。可优先选择数据标准化程度高、业务规则清晰、知识库完整的部门做试点,如财务、人力、客服等。还要设置“熔断机制”,当AI系统出现情况时能自动切换回原流程。 2.打破数据孤岛,充分发挥知识库潜力。数据孤岛会限制垂直模型训练,跨孤岛数据不一致会形成数据评估中的“多重真相”,增加模型输出之间的冲突。当智能体需要从多个不同系统中抽取数据,就无法为公司提供准确、全面的决策支持。 我2024年拜访的A公司,市场部用AI预测爆款产品,生产部却仍按传统计划排产,还有B公司,让技术团队用AI模型实时预测消费行为,却对市场团队继续用Excel分析用户画像未加干预。 究其原因,是部门间的数据壁垒导致AI模型只能局部优化,今年两家公司的改革颇具启示——建立了统一的数据湖,任何决策必须标注数据来源,AI建议与人工决策同样需要接受溯源检查。A公司还要求每个部门选拔2名既懂业务又懂数据的员工,接受为期3个月的跨领域数据训练与AI训练,赋予他们直接向CDO(首席数据官)汇报的特别通道。 3.启动人机共治模式,建立“生物型”组织。今年5月的第三届红杉资本AI峰会,有很多观点在业内引起强烈反响。其中之一就是现有组织认知模式将会遭遇正面撞击。管理者的任务不是让模型变聪明,而是让系统变得可控、可用、可调度。AI不再只是被调用的模型,而是可以行动、可以决策、可以合作的经济参与者。 按峰会上的预测,公司不再是部门之间相互配合,而是变成一个个任务自动流转的网络;个人不再只是扮演固定角色做事,而是像指挥家一样调度各种智能工具;组织结构不再是传统的上下级汇报关系,而是转变为多个智能体协同工作的团队网络。 传统企业的权力结构中,决策权集中在少数高层手中,信息传递层级多、基层员工缺乏自主性和创新动力。在数字化时代,个体价值崛起,AI时代将迎来企业组织的大开源,“更open”的方向也有三个。 1.重构执行力。不管是KPI导向还是OKR导向,传统组织都高度强调执行力。未来团队面临的是全然不同的问题,执行力不再是目标必达,而是保持目标开放性,及过程中的弹性。 引用红杉资本AI峰会上的观点,创始人都应该问自己这样一个问题:我能不能描述一个模糊目标,让智能体去尝试、偏航、再迭代?我是否接受结果不是100%达成,而是70%、80%的进度并持续改进?我是否能设计出“人类+AI混合代理”共同推进任务的策略空间? 2.再次定义“用户为中心”。到移动互联网下半场,企业已能够改变与用户单向、被动的互动方式。未来,传统“菜单式”“表单化”交互模式将为更自然的体验取代,交互不再是“人操作机器”,而是更加自然化——语言、手势、眼神成为主要输入方式,也更加无感化——AI能隐形处理大多数任务,用户只需享受结果。 对用户的交付会从“功能提供”到“需求预判”,商业关系将会从“交易”转化为“共创”。如你对电商平台下指令,“送女友生日礼物,500元左右”,AI不但能推荐筛选,还能根据你的偏好参与设计,并完成支付。 3.员工潜力深度释放。员工与组织关系将面临根本性挑战,会出现“AI训练师”和“数字员工管理员”等新岗位。传统职位重心从“流程服从”转向“价值创造”,如今天的质检员,未来核心技能将从“肉眼识别缺陷”升级为“算法调优能力”,今天的设计师,将把精力从根据甲方需求改稿变为专注于美学优化与情感表达。 类似变化赋予了基层员工更多自主决策权,之前延续数百年的长期雇佣关系也可能被“任务制”“技能订阅制”打破,组织边界更加模糊,个体可同时参与多个组织的项目,甚至借助AI,会出现一个人的独角兽公司。 变革没有终点,只有持续的适应与进化。组织要做的,是始终保持比DeepSeek更deep的洞察力,比OpenAI更open的包容力。
微软、谷歌下场围剿Cursor,AI编程格局生变
图片来源@pixabay AI编程领域开始进入混战模式,大厂也在开启“降维打击”。 近期,先是OpenAI宣布Codex Agent编程模式,微软正式开源GitHub Copilot Extension for VS Code项目,而后谷歌就公布其AI编程Agent工具Jules私有预览版,紧接着大模型创企Anthropic也正式发布新一代模型:Claude Opus 4和Claude Sonnet 4,作为面向AI编程能力的最强模型加持。 这些动作背后其实都在共同指向一类对手:当前最热门的AI编程助手Cursor、Windsurf等,这些风头正劲的创业企业在别人的规则下,如何继续玩下去?对于微软和谷歌等大厂而言,AI编程有利于补强云服务生态黏性。对于同时提供B端和C端服务的大模型公司,提供擅长编码任务的模型+下探到Agent,可能是在大模型商业化路径上的一次重大机会点。 异步+混合 微软对于AI编程的布局更为体系化,围绕生态布局,而谷歌从近期的打法上看,则更围绕产品服务。 对于微软而言,GitHub Copilot是自2021年起作为主流集成开发环境IDE如VS Code的插件而提供给用户。因此开源GitHub Copilot Extension for VS Code的核心第一步其实就先将插件开源。据微软团队所述,接下来几个月内,还要将GitHub Copilot扩展的AI功能引入到VS Code开源存储库。也就是说,后续开发者基于VS Code无需插件就可以体验到GitHub Copilot功能。 对于这一点,微软的解释是:通过开源GitHub Copilot插件,能够与更大的社区合作,并更快推向市场,与AI编程软件开发生命周期保持一致。 微软此举可能意在与Cursor竞争,毕竟Cursor是对VS Code进行魔改了,虽然耗费了大量技术和工程能力,但从结果上看,Cursor获得了大量用户的欢迎,这显然对微软VS Code的开源生态带来了不小触动。 此前Wing VC合伙人Zachary DeWitt在其专栏中提醒道:“微软也可能简单地切断Cursor和竞争对手与VS Code核心API的连接或更改条款,使其更难在更新的基础上构建。Cursor对VS Code的依赖显示了建立在他人平台上的不稳定性。” 如今来看,大企业支持开源的核心目的是构建自己的生态圈,吸引高质量开发者和高质量代码贡献,但这并不意味着开源不会存在商业冲突。从最近修改VS Code插件许可协议就能明显看出微软的不满,着手生态战是必然。 再看谷歌。如果不是I/O大会,外界对谷歌的印象还停留在:遭遇美国司法部的反垄断诉讼案,以及对AI搜索市场的格局影响性上。 最近半年,谷歌对AI编程也在暗戳戳布局,先是对其AI编程助手Gemini Code Assist进行免费,又或者推出新的人工智能集成开发环境Firebase Studio。不过直到现在,谷歌还没有推出一款能够引领此次AI编程潮流的重量级产品。 去年12月,伴随Gemini 2.0大模型发布亮相,谷歌就发布了AI编程Agent代理 Jules。此次升级后,Jules则基于Gemini 2.5 Pro大模型,针对编码能力进行优化。 据谷歌官方介绍,Jules可以将复杂的任务分解成更小的步骤,根据用户指令进行调整,并运行单元测试来验证其工作。Jules并非一款简单的代码自动补全工具,其功能覆盖了从开发到测试的多个环节,能够在云端启用虚拟机、复制GitHub仓库、规划多步骤开发任务,并自动执行包括Bug修复、版本升级、测试编写以及代码优化等操作。最终,Jules会生成Pull Request(PR)供开发者审查,确保代码质量与项目进度。 不过,此次Jules升级后最大的不同的是聚焦“异步任务”编码,这与此前所熟知的“实时协作”不同。例如,Cursor和Windsurf这些工具通常与开发人员需要实时协作,在输入代码时提供代码建议或重构代码,本质上充当了IDE角色。而“异步任务”则意味着开发者无需逐行交互地工作,而是为 Agent分配一个特定的、可能很复杂的编码任务,然后Agent将接管该任务,在后台进行独立处理,并在完成工作后呈现。 值得注意的是,微软本周宣布GitHub Copilot升级为全功能编程Agent,同样具备“异步任务”的自主代理模式。Copilot Agent最初于今年2月推出预览版。 调用Copilot Agent后,开发者可分析整个代码库、跨文件编辑、生成和运行测试、修复错误,甚至建议终端命令,并在代码投入生产之前帮助解决这些问题,所有这些都只需一个提示即可完成。 目前Agent功能是直接嵌入到GitHub Copilot中,一旦用户分配任务,该Agent就会开始工作。 不过这在谷歌看来,二者产品还是有所不同:Copilot Agent类似于单个开发人员独自执行计划,而Gemini则采用“混合Agent”方法,需要多个专业Agent(如开发人员、测试人员和安全分析师)协同工作。这些Agent本质上是“彼此对抗的合作者,以便检查彼此的工作”,类似于聊天室里的虚拟团队。 同样在本周,OpenAI发布Codex Agent版本,由新模型codex-1加持(codex-1是 OpenAI o3的一个版本,针对软件工程进行了优化),不仅能在云端沙盒环境中安全地并行处理多项任务,而且通过与GitHub无缝集成。 OpenAI认为,异步多Agent将成为生产高质量软件的默认方式,实时和异步这两种模式将融合成一个统一的工作流程,让开发者能够在 IDE 和日常工具中与 AI 无缝协作。为此针对Agent模式,OpenAI也在计划构建一套工具,能同时支持实时协作和异步任务。 从当前几家的行动路径上看,异步+混合这种模式,由于更接近于自主编码的早期愿景,也正成为接下来AI编程产品的探索方向之一。 当大模型厂商下场做编程应用 当然,眼下眼热的可不只是微软、谷歌等大厂,大模型厂商也在暗自发力。 AI编程作为OpenAI ChatGPT的一大优势,也是超过1500万人订阅的核心原因之一。尤其是OpenAI的Codex,最初它只是一个编程模型,但现在来看它能提供的已经是一个能够在独立沙箱中编写代码、修复错误并回答代码库问题的编程助手。 Anthropic的Claude模型也在遵循这一节奏。此前,基于Claude进行软件开发已经占其所有交互的十分之一以上,Claude 3.5 Sonnet就因为擅长编码任务,并且对软件工程原理的出色掌握和应对复杂编程挑战的能力而被开发人员广泛使用,包括Cursor等AI编程产品就主要基于Claude 3.5 Sonne提供服务。而微软为了不依赖Codex,也在今年宣布为开发者引入多模型选择,其中就包括Claude 3.5 Sonnet。 据Anthropic 首席科学官贾里德·卡普兰 (Jared Kaplan) 表示,Anthropic去年年底就停止了对聊天机器人的投资,转而专注于提高Claude执行复杂任务的能力,甚至编写整个代码库。 而此次Anthropic将Claude Opus 4和Claude Sonnet 4升级,均针对编程能力进行了优化。与此同时,Anthropic还发布AI编程助手Claude Code,通过与VS Code和JetBrains等主流IDE集成,并基于自家的Claude Opus 4模型,可直接嵌入到用户业务流中。 结合当前水平来看,AI编程产品发展具有以下四个阶段: 一是预测文本,用于简单的代码补全。 二是聊天,用于编码任务的人工智能辅助对话。 三是协作“氛围编码”,使用人工智能进行广泛、协调的代码更改。 四是Agent代理模式,人工智能在后台自主运行,可能在没有直接监督的情况下做出改变。 显然,具备了编程模型能力的大模型厂商很快也都会走完这一轮产品迭代。当微软有了GitHub Copilot Agent,谷歌上线Jules,Anthropic这类大模型厂商的动作可能不远了。 可能现在最慌的还是Cursor、Devin等上层应用厂商了。Cursor其实也在留有后手,值得一提的是,去年Cursor的开发商Anysphere推出了自研Cursor-Fast,其代码生成能力据称介于GPT-3.5与GPT-4之间。 当AI编程竞赛进入混战模式,模型能力正成为一切不确定性中的确定因素。从第一性原理出发,模型性能的强弱决定了竞争力,尽管开发者可根据场景选择最适合的基础模型,但最终只会选择一两个好的大模型。
沃尔沃汽车宣布裁员3000人,应对成本压力与贸易关税等挑战
IT之家 5 月 26 日消息,瑞典汽车制造商沃尔沃汽车(Volvo Cars)于本周一宣布,作为上个月宣布的重组计划的一部分,将削减 3000 个工作岗位,其中大部分为白领岗位。该公司目前正面临成本高企、电动汽车需求放缓以及贸易关税不确定性等问题。 沃尔沃汽车由中国的吉利控股集团(Geely Holding)控股。4 月 29 日,该公司公布了一项削减 180 亿瑞典克朗(IT之家注:现汇率约合 135.9 亿元人民币)成本的计划,并暂停了部分投资,同时警告称裁员不可避免。根据其第一季度的财报,沃尔沃汽车当时拥有 43500 名全职员工和 3000 名劳务派遣人员。 沃尔沃汽车在一份声明中表示,此次裁员将主要影响瑞典的办公室岗位,占全球办公室员工总数的约 15%。公司首席执行官汉肯・塞缪尔森(Hakan Samuelsson)表示:“汽车行业正处于一个充满挑战的时期。为了应对这一局面,我们必须改善现金流生成能力,并结构性地降低我们的成本。” 上月宣布成本削减计划时,沃尔沃汽车还撤销了其财务指引,指出由于消费者信心减弱以及贸易关税引发全球汽车行业动荡,市场前景难以预测。 上周五,美国总统唐纳德・特朗普威胁从 6 月 1 日起对欧盟进口商品征收 50% 的关税,但本周一他将最后期限恢复至 7 月 9 日,以便华盛顿和布鲁塞尔之间进行谈判。 塞缪尔森上周五在接受路透社采访时表示,如果关税相关成本增加,消费者将承担其中大部分。他还指出,如果征收 50% 的关税,将使从比利时进口的沃尔沃最经济实惠的车型 ——EX30 电动汽车进入美国市场变得不可能。
华为、中国移动、联通等宣布openFuyao开源发布,将致力于提供多样化算力集群软件生态
IT之家 5 月 26 日消息,鲲鹏昇腾开发者大会 2025 期间,华为公共开发部总裁陆海鸥、华为鲲鹏计算业务总裁李义、华为鲲鹏计算业务副总裁熊伟与 openFuyao 开源社区筹备委员会 —— 来自华为技术有限公司、某国有大行、中国移动云能力中心、联通数字科技有限公司、四川华鲲振宇智能科技有限责任公司、江苏博云科技股份有限公司六家成员单位共同宣布 openFuyao 开源发布。 会上,openFuyao 社区技术委员会主席胡昊与技术委员会成员正式亮相,并代表社区发布首批五大集群调度能力,分别是异构硬件资源池化、分布式作业调度、大规模集群调度、在离线混部调度、NUMA 亲和调度;并提供两类面向常用场景的参考实现,包括开箱即用的轻量容器平台和一站式 AI 推理一体机方案。 华为鲲鹏计算业务总裁李义表示:“为了解决异构算力协同困难、硬件资源利用不足、集群软件生态不完善等挑战,openFuyao 多样化算力集群软件生态社区提供异构算力精细化调度和超大规模集群等组件,助力集群算力高效释放,并向开发者提供完善的开发环境,通过可插拔架构设计,实现分钟级一键安装部署和小时级平滑升级。” IT之家查询 openFuyao 官网获悉,本次 openFuyao 正式启动开源,代码于 2025 年 5 月面向首批伙伴开放,2025 年 Q3 正式开源。社区官方介绍如下: openFuyao 是面向通算和智算集群软件技术创新的开源社区,致力于为世界提供多样化算力集群软件生态,释放智能无限价值,旨在以开放协作汇聚伙伴与开发者,打造多样化算力互联网调度能力,实现集群的算力极致释放与安全可靠,孵化基于集群的关键软件根技术,制定统一、开放的技术标准,共创高效、创新的算力集群社区。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。