行业分类:
加载中...
头条分类:
加载中...
奥特曼躲过一劫 美法官驳回亲妹妹的性虐待诉讼
奥特曼与安妮 凤凰网科技讯 北京时间3月21日,据《商业内幕》报道,美国一名联邦法官驳回了OpenAI CEO萨姆·奥特曼(Sam Altman)之妹提起的诉讼。在这起诉讼中,她指控其兄在童年时期对她实施性虐待。 美国地区法官扎卡里·布卢斯通(Zachary Bluestone)周五裁定,安妮·奥特曼(Annie Altman)的指控因提出过晚,无法使诉讼继续成立。 不过,布卢斯通为安妮的诉讼留出了一线生机,允许她依据密苏里州特定的《童年性虐待法》重新提起诉讼,该法律延长了诉讼时效。法官限她在4月3日之前提交新的诉讼。 在周五的同一份裁定中,法官批准了萨姆提出的反诉。该诉讼指控安妮诽谤并滥用法律程序。 安妮在2025年1月在密苏里州一家联邦法院提起诉讼,指控比自己年长九岁的萨姆,在1997年至2006年间对她实施性虐待,当时两人正在密苏里州克莱顿一起成长,而且侵害从她三岁时开始。 萨姆否认了这些指控。在该诉讼提起后,他与其两位弟弟及母亲发表公开声明,称安妮存在“心理健康问题”。 萨姆在反诉中称,由于其家人考虑到她的心理健康问题,拒绝了其“无限制经济支持的要求”,其妹便捏造了性虐待指控,不仅发布在社交媒体上,还写进了诉状中。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
马斯克440亿美元收购推特前涉嫌误导投资者,或面临26亿美元赔偿
IT之家 3 月 21 日消息,当地时间周五,美国加州联邦法院的陪审团作出裁决,认定埃隆 · 马斯克在 2022 年以 440 亿美元(IT之家注:现汇率约合 3035.93 亿元人民币)收购原推特(Twitter)公司的过程中,曾通过两条推文误导了公司股东。原告方律师表示,马斯克可能因此面临高达 26 亿美元(现汇率约合 179.4 亿元人民币)的赔偿。 这起集体诉讼最初于 2022 年 10 月提起,当时马斯克刚刚以每股 54.20 美元的价格完成对推特的收购。他后来将该公司更名为 X,随后将自己的 xAI 和 SpaceX 并入其中。 代表原推特投资者的律师约瑟夫 · 科切特在旧金山法院外对 CNBC 表示:“这是一个很好的例子,说明你不能对普通投资者 —— 那些拥有 401k 养老金、有孩子、有养老基金、教师、消防员、护士的人 —— 做这种事。这个案件的核心就在于此。这不是关于马斯克,而是关于整个操作。”马斯克的律师团队拒绝发表评论,预计他们将提起上诉。 案件焦点集中在马斯克在 2022 年 5 月发布的两条推文以及他在一个播客节目上的发言。陪审团经过四天审议后一致认定,马斯克在 5 月 13 日和 5 月 17 日发布的两条推文在实质上存在虚假或误导性。但陪审团同时裁定,马斯克在播客上的言论不构成误导,且并未“密谋”欺诈投资者。 马斯克当时发了一条推文称,推特收购交易“暂时搁置”,直到推特 CEO 能够证明平台上的虚假账户和机器人比例确实如公司申报的 5% 左右。马斯克的这些言论导致推特股价在单日内暴跌近 10%。 前推特股东(包括散户投资者和期权交易者)在诉讼中主张,马斯克的言论构成了一种施压策略,目的是迫使推特董事会以低于原始报价的价格将公司出售给他。原告方称,马斯克的动机在于特斯拉股价下跌 —— 这意味着他需要出售比原计划更多的特斯拉股票来为收购融资。原告表示,他们在马斯克发布推文及接受媒体采访后,以低于 54.20 美元的价格抛售了股票。潜在赔偿金额基于专家对马斯克反复变卦在集体诉讼期间对股价影响的估算。 尽管陪审团认定马斯克做出了虚假和误导性陈述,损害了部分推特股东的利益,但并未认定他实施了特定的欺诈投资者的阴谋。原告方律师表示,索赔管理程序大约需要 90 天才能建立,之后政府还需要几个月时间处理索赔,投资者才能开始收回部分损失。 马斯克的律师此前辩称,当事人的言论基于对推特上机器人、垃圾邮件和虚假账户问题的合理担忧,不构成证券欺诈或压低公司股价的阴谋。由于这是一起集体诉讼案件,马斯克需要向数千名股东(其中许多是机构投资者)支付的赔偿金额尚不明确,但陪审团裁定股东每天可获得每股约 3~8 美元的赔偿。 据彭博社估计,马斯克目前的身家约为 6500 亿美元(现汇率约合 4.48 万亿元人民币),大部分与特斯拉股票挂钩。值得注意的是,尽管这一判决对马斯克构成了严厉的法律打击,但考虑到其庞大的净资产,财务影响相对有限。 马斯克在庭审中作证称,推特上的虚假和垃圾账户数量远高于原推特在 SEC 监管文件中披露的 5%,并以此为由试图退出收购。在他试图反悔后,推特在特拉华州提起诉讼,迫使他履行原协议。就在该案即将开庭审理前夕,马斯克再次反转,同意按原定价格完成收购。
继3系后5系也进入“新世代”,宝马换代i5将基于专用纯电平台打造
IT之家 3 月 20 日消息,据外媒 Auto Express 今日报道,宝马确认新一代 5 系纯电版 i5 将改用专用纯电平台开发,这一思路与全新 i3 保持一致。 IT之家注:现款 5 系 / i5 采用燃油与纯电共平台方案,CLAR 架构同时服务油、电两种动力形式。 下一代 i5 将实现“平台分离”,为纯电系统单独开发底层结构。按照规划,新车将重点提升续航表现、能效水平以及空间利用率。 宝马研发董事约阿希姆 · 波斯特在接受采访时明确了这一方向。他表示,宝马每年生产约 250 万辆汽车,新技术必须具备规模化能力,才能在全球产品体系中推广。这种思路意味着,新世代平台不会局限于 i3,还会向上覆盖更多车型。 从技术角度看,未来燃油版 3 系与全新 i3 外观接近,底层架构却完全不同。平台分离之后,可以针对不同动力系统分别优化设计;若在同一平台上同时兼顾燃油与纯电,空间布局和效率都会受到限制,现款 5 系已经体现出这一问题。 一个直观对比是,全新 i3 尺寸更小、价格更低,却在续航方面明显领先现款 i5,部分版本差距接近 320km。 短期内,这一差距会通过中期改款进行一定修正。现款 i5 将引入新世代架构的电池和电子系统,不过受制于现有架构,在整车布局与效率方面仍存在上限,难以达到专用纯电平台的水平。 现款 5 系仍处于生命周期中段,宝马计划在 2027 年进行一次较大幅度升级,涵盖外观、内饰以及电驱系统。 真正意义上的平台跃迁,还要等到下一代 i5到来。届时,专用纯电架构的优势才会全面体现。
GhostClaw恶意软件披露:借AI辅助工作流潜入苹果Mac设备
IT之家 3 月 21 日消息,网络安全公司 Jamf 昨日(3 月 20 日)发布博文,披露名为 GhostClaw 的恶意软件,专门针对苹果 Mac 设备,窃取用户机密信息。 IT之家援引博文介绍,GhostClaw 是一款专门针对 macOS 系统的信息窃取恶意软件,目前正通过 GitHub 代码库和开发者工具广泛传播。由于开发者早已习惯了常规的安装流程,运行该恶意软件时往往毫无违和感。 在日常工作中,开发者通常会毫不犹豫地从 GitHub 拉取代码、按照 README 说明操作并运行安装命令。这种熟悉的模式极易建立信任,GhostClaw 便借机潜入这一常规流程。 该恶意软件经常潜伏在看似合法的代码库中,例如 SDK、交易工具或开发者实用程序。部分代码库会在较长时间内保持正常,借此建立信誉,随后才引入恶意的安装步骤,导致开发者极难察觉这种转变。 安装说明通常包含下载并执行远程脚本的命令,且与常见的设置流程高度相似,因而显得非常平常。然而,攻击者正是借此直接获取了控制权。 同时,AI 辅助工作流会自动获取并运行外部组件或“技能”,进一步降低了代码执行过程的透明度。由于自动化工具接管了设置步骤,用户的信任范围被无形中扩大了。 GhostClaw 无需破解系统内核,也没有留下明显的入侵痕迹。一旦执行,它会启动一个分阶段的攻击链,最终窃取用户凭证并收集数据。 它弹出的密码提示框与 macOS 的系统行为高度一致,并且利用合法的系统工具来验证用户的输入。由于所有活动均在用户授予的权限范围内发生,用户很难在第一时间产生怀疑。 苹果的安全模型依然有效,但其前提是假设用户不会盲目执行不受信任的代码,而开发者追求速度和便利的习惯往往打破了这一防线。 该公司指出,为防范 GhostClaw 恶意软件,开发者在运行任何直接导入 Shell 的命令前务必停下,仔细检查其实际功能。建议先将脚本下载到本地并进行审查,切勿盲目执行。 此外,开发者应查看代码库的历史记录和活动轨迹,若安装步骤突然改变或长期沉寂后突然更新,都需要格外警惕。
Cursor你浓眉大眼的也套壳中国模型?美国网友马斯克都看不下去了
Cursor是曾经每个程序员都必备的AI编程工具,他们这两天发布了一款名为Composer 2的模型。 在官方的公告里,特地强调说这个模型是通过“持续预训练”和“强化学习”,为其带来了性能上的提升。 然而不到24小时,一个开发者在调试API时发现,模型的ID显示为:kimi-k2p5-rl-0317-s515-fast。 翻译成人话就是,Cursor所发布的Composer 2模型,本质上就是Kimi K2.5,再加上一点强化学习。 月之暗面的预训练负责人杜羽伦随即在社交平台上发帖,称经测试Composer 2的tokenizer与Kimi的完全一致,并直接质问Cursor联合创始人为何不遵守许可证、也没有支付费用。 一时间,关于Cursor“套壳”、违反开源协议的讨论在技术社区炸开了锅。 不过别急,这个故事还有反转。 就在争议发酵的同时,Kimi官方发布声明澄清:Cursor是通过Fireworks AI的托管平台,以授权商业合作的方式使用Kimi K2.5的。 Cursor团队成员李·罗宾逊(Lee Robinson)也承认,一开始没在博客中提及Kimi基座是个失误。一场看似严重的许可证纠纷,最终变成了一次“沟通不当”的公关事件。 01 发现的过程并不复杂。 一个叫Fynn的开发者在调试Cursor的OpenAI兼容接口时,看到了API返回的模型标识符:accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast。 这个ID的命名方式过于直白,k2p5指的就是Kimi K2.5,rl代表强化学习,0317可能是训练日期,fast表示快速版本。 这条发现被发到社交平台后,迅速引发了技术社区的关注。 马斯克本人在这条X下面回复说“对,它就是Kimi K2.5”。 争议的焦点很快集中到了许可证条款上。Kimi K2.5使用的是修改版MIT许可证,其中有一条专门针对商业使用的条款:如果使用该模型(包括衍生作品)的商业产品月活超过1亿或月收入超过2000万美元,必须在产品界面上醒目展示“Kimi K2.5”字样。 问题就在于,Cursor在2026年2月的年化收入已经突破 20 亿美元,换算成月收入大约1.67亿美元,是许可证门槛的8倍多。 但Cursor的界面上只写着“Composer 2”,没有任何Kimi的标识。与此同时,Cursor正在与投资人洽谈新一轮融资,估值目标约500亿美元,去年11月他们的估值是293亿美元。 你说这事巧不巧,月之暗面最近也在融资! 有媒体爆料,说月之暗面刚刚融资了10亿美元,是90天内的第三轮融资,目前估值是180亿美元。这事出了以后,对月之暗面的融资来说是利好,毕竟Cursor相当于给月之暗面做了模型背书,“Kimi K2.5确实好用!” 3月21日凌晨3点左右,Kimi官方账号在X平台发布声明:“祝贺Cursor团队发布Composer 2。我们很自豪看到Kimi K2.5提供了基础。看到我们的模型通过Cursor的持续预训练和高算力强化学习被有效整合,这正是我们乐于支持的开源模型生态。” 声明的关键在最后一句:“Cursor通过Fireworks AI的托管强化学习和推理平台访问Kimi K2.5,这是授权商业合作的一部分。” 这个澄清改变了整个事件的性质。原本看起来像是未经授权使用开源模型的侵权行为,变成了一次合法的商业合作。 Cursor并非直接使用Kimi K2.5的开源权重,而是通过第三方平台Fireworks AI获得了授权。 02 这不是Cursor第一次陷入类似争议。 2025年10月,Cursor发布Composer 1的时候就出现过类似的情况。 多国开发者发现,Composer 1生成的代码中频繁出现中文注释。当时就有投资人贴出截图,认为这是Composer 1 基于中国开源模型微调的“铁证”。 后来有媒体证实,Cursor和另一款AI编程工具Windsurf都在使用中国开源模型,其中Windsurf承认使用的是智谱的GLM。 但是Cursor嘴比较硬,死活不公开Composer 1的基座模型,后来悄悄发布了Composer 1.5,就把这件事给翻篇了。 这次Composer 2的争议,本质上是同一个问题的重演,要不是被人发现,估计这件事也会继续隐藏。 从技术角度看,Cursor的做法并无不妥。 使用开源模型进行二次开发,再通过持续预训练和强化学习提升性能,这是当前AI行业的常见做法。 Kimi K2.5本身就是开源模型,月之暗面发布它的目的就是希望更多开发者和公司能够在此基础上创新。 但从开源社区的视角看,Cursor的处理方式确实存在问题。在发布公告中,Cursor强调了“首次对基座模型进行持续预训练”和“大规模强化学习”,却全程没有提及这个基座模型来自哪里。 这种叙事方式容易让人误以为Composer 2是完全自研的模型,而忽略了Kimi K2.5的贡献。 很多公司在宣传自己的模型时,会强调自己做了什么改进,但对底层使用的开源模型语焉不详。这种做法在法律上可能没有问题,但在开源社区的价值观中,却是对贡献者的不尊重。 其实抄袭国产模型这事已经不稀奇了。 3月17日,日本科技巨头乐天集团(Rakuten)正式发布大模型Rakuten AI 3.0,宣称这是日本国内最大规模、最高性能的AI大模型。 结果扒开一看,DeepSeek-V3。 Cursor的故事当然还要继续。Composer 2的风波,也因为月之暗面的一条X而被平息。 但市场的竞争才刚刚开始。在Claude Code和Codex的双重压力下,Cursor需要证明的不仅仅是技术实力,更是作为一家估值500亿美元公司的价值。 而这,可能比开发一个新模型更加困难。
微软公开信:全面整改Win11质量,任务栏可停靠顶部/侧边等
IT之家 3 月 21 日消息,微软 Windows 与设备执行副总裁 Pavan Davuluri 昨日(3 月 20 日)发布致 Windows Insider 项目成员的公开信,承诺将全面提升 Windows 11 的系统质量。 Davuluri 表示其团队历经数月,深度分析用户反馈,决定重点围绕性能(Performance)、可靠性(Reliability)和体验打磨(Craft)三大核心领域,回归打磨系统基础体验,相关改进将陆续在 3 月、4 月预览版中上线。 IT之家援引博文内容,附上相关改进内容如下: 交互体验 恢复任务栏位置自定义功能,用户现可将任务栏停靠在屏幕顶部或两侧,并支持缩小任务栏尺寸。 优化 AI 整合策略,精简截图工具、照片和记事本等应用中不必要的 Copilot 入口,确保 AI 功能仅在真正有用时出现。 降低小组件和信息流的干扰,默认采用更安静的设置,并精简系统通知与新机引导流程。 优化系统性能 重构文件资源管理器,通过引入 WinUI3 框架,大幅降低搜索、导航和右键菜单的延迟,提升大文件拷贝的稳定性。 优化内存分配机制,降低 Windows 基础内存占用,为用户运行的应用释放更多计算资源。 升级适用于 Linux 的 Windows 子系统(WSL),提升跨系统文件传输速度与网络兼容性。 提升可靠性 改进 Windows 更新机制,用户现在可以在新设备引导阶段跳过更新,支持“仅重启或关机而不安装更新”,并能更长时间地暂停更新。 强化 Windows Hello 生物识别,提升面部和指纹解锁的成功率,并为 ROG Ally X 等掌机新增原生的手柄 PIN 码设置支持。 减少系统级崩溃与 USB 断连问题,提升蓝牙和音频设备的连接稳定性。 微软为提升问题提交效率,今日还推出了全新重构的“反馈中心”应用。微软承诺未来将实施更严格的内部测试标准,确保每个预览通道的版本质量,并在“微软安全未来倡议”的框架下,持续为用户提供更快速、更稳定且更纯净的 Windows 11 体验。
买下黑莓专利的公司在德国/印度起诉小米 苹果卷入纠纷
IT之家 3 月 21 日消息,科技媒体 Appleinsider 昨日(3 月 20 日)发布博文,黑莓手机虽已停产,但其遗留专利正引发一场科技巨头间的法律拉锯战。 黑莓手机的硬件业务已于 2022 年终结,但该公司随后将其技术专利打包出售给了“专利流氓”公司(如 Key Patent Innovations 和 Malikie Innovations)。 IT之家注:“专利流氓”(Patent Troll)公司为原文表述,指本身不从事产品研发、制造或销售,而是通过低价收购大量专利,专门靠起诉实体企业侵权来勒索高额和解金或授权费的公司。 报道指出上述两家公司目前正在德国和印度两地起诉中国智能手机制造商小米侵权,同时又试图向小米出售专利授权。 报道称小米公司为了反击争取主动权,其代理律师开始调研了解其他科技企业此前支付的专利费标准。因此,苹果当年与黑莓签订的授权协议被卷入这起案件。 得克萨斯州一家地方法院此前作出裁决,允许两名经过审查的小米内部律师在有限范围内查阅苹果与黑莓的合同细节。苹果对此裁决极为不满,并立即采取法律行动试图阻止机密进一步外泄。 苹果在法庭辩论中强调,德州法院的裁决缺乏合理的限制条款。苹果代理律师约瑟夫 · 帕尔莫(Joseph R. Palmore)指出,一旦将高度机密的授权协议交给直接竞争对手的内部人员,苹果将遭受严重损害。 针对苹果的担忧,代表 Malikie Innovations 的律师斯特凡 · 约翰逊(Steffan N Johnson)予以嘲讽。他表示,法院并非要求苹果交出“可口可乐配方”或人工智能核心算法等绝对机密。 涉案专利属于标准必要专利(SEP),任何企业在制造相关产品时都无法绕开。按照行业惯例和法律规定,此类专利的授权协议必须遵循公平、合理且非歧视(FRAND)原则,因此在适当的保护令下进行披露属于常规操作。 法庭于 2026 年 3 月 19 日针对“苹果公司诉 Key Patent Innovators 等”一案听取了约 42 分钟的口头辩论。法官团队目前正在审理该案,尚未公布具体的裁决时间表。
三年亏超22亿,思谋科技给三位博士发过亿年薪
雷达财经出品 文|丁禹 编|孟帅 估值超84亿的思谋科技(SmartMore),正加速冲刺港股IPO,剑指“工业AI智能体第一股”。 3月16日,港交所官网披露了思谋科技的招股书,这家专注于工业AI智能体领域的企业,有望成为香港资本市场中工业AI领域的标杆。 与传统AI公司不同,思谋科技避开通用大模型的同质化竞争,聚焦制造业核心痛点,深耕工业AI智能体的研发与规模化落地。 从财务表现来看,思谋科技近年来营收保持稳健增长:2023年至2025年,公司年收入分别为4.85亿元、7.56亿元和10.86亿元。 然而,在利润的“战场”上,思谋科技目前却尚未攻克盈利难关。过去三年,公司分别录得净亏损5.46亿元、7.35亿元和9.91亿元,累计亏损超22亿元。 值得一提的是,去年,思谋科技的管理层中有三位博士“坐镇”,这三人当年从公司获得的薪酬均过亿,合计更是超过4亿元。不过,他们的薪酬大头均为以股份为基础的酬金。 押注工业AI智能体,主营业务快速增长 在公司官网上,思谋科技自诩为全球领先的工业AI智能体公司。 据思谋科技介绍,公司以全球首个专有工业多模态大模型IndustryGPT为核心,深度整合工业领域专业知识与软硬件生态体系,帮助企业构建与运营智能制造系统,加速工业生产从自动化向自主化演进,推动AI时代工业自动化范式升级。 招股书引用的灼识咨询资料显示,思谋科技在行业内成绩斐然,其是2025年中国收入规模最大的工业AI智能体提供商,也是首家实现工业AI智能体大规模、跨区域、多场景部署的企业。 雷达财经了解到,思谋科技主要提供工业AI智能体,包括机器人、边缘AI传感器及智能体软件系统。 在技术创新方面,思谋科技成果卓著。根据灼识咨询的资料,思谋科技引入机器人首次实现对高反光、复杂曲面物体的全面视觉检测,完成360度质量检测及大规模商业部署。 与此同时,思谋科技亦已通过边缘AI传感器解决了多种产品的识别与追溯方面的核心挑战,包括在精密光学镜片上实现隐形二维码识别。 此外,公司已推出在工业环境中首创的云边一体化AI视觉软件ViMo。 在市场拓展方面,思谋科技同样表现出色。截至2025年12月31日,思谋科技在全球已服务超过730家客户。 这些客户不乏特斯拉、卡尔蔡司、立讯精密、歌尔股份、京东方等诸多知名企业,涵盖消费电子、新能源、精密制造、轨道交通等多个行业垂直领域。 业绩方面,2023年至2025年,思谋科技的营收连年攀升,分别斩获4.85亿元、7.56亿元和10.86亿元的收入,其中2024年、2025年同比分别增长55.9%、43.7%。 在此期间,思谋科技的整体毛利率也呈不断上升趋势,从2023年的30.5%分别上涨至32.3%、37.3%。 而思谋科技的收入主要来源于工业AI智能体的销售。2025年,工业AI智能体为公司贡献收入8.53亿元,占总营收的78.5%,近三年(2023年至2025年,下同)的复合年增长率为67.8%。 具体到各细分业务,2025年,机器人业务实现收入4.36亿元,边缘AI传感器业务实现收入0.75亿元,智能体软件系统业务实现收入3.42亿元,近三年的复合增长率分别为76%、136.6%、51.7%。 思谋科技认为,公司的收入结构在关键产品类别间保持均衡分布。去年,机器人、智能体软件系统、边缘AI传感器的销售额占比分别为40.1%、31.5%、6.9%,剩余收入则主要来自AI基础设施。 三年亏超22亿,去年董事薪资超4.5亿 尽管思谋科技以全球领先的AI公司自居,但其在利润端却长期深陷亏损泥沼,始终未能驶入盈利的港湾。 招股书显示,2023年至2025年,思谋科技分别录得净亏损5.46亿元、7.35亿元和9.91亿元。据此计算,思谋科技三年的累计净亏损规模约22.7亿元。 不仅如此,思谋科技的资产负债率也如同高悬的达摩克利斯之剑,长期处于高位。这三年间,公司的资产负债率分别高达279.9%、281.5%、256.9%,面临着较大的债务压力。 雷达财经梳理发现,思谋科技亏损规模的持续扩大,其中一个重要原因便是经营开支居高不下。 据悉,思谋科技的经营开支主要包含研发开支、销售及营销开支、一般及行政开支。2023年至2025年,公司经营开支占公司总营收的比例分别高达116.8%、87.8%、107.7%。 在各项开支中,研发开支一直是思谋科技的重要支出之一。三年来,公司的研发开支分别为2.83亿元、3.88亿元、3.94亿元。 不过,公司研发开支占收入的百分比逐步下降,从2023年的58.4%降至2024年的51.4%,并于2025年进一步降至36.3%。 思谋科技将其归因于,采用AI原生运营模式及专有研发工具链所带来的研发效率提升,以及从项目制交付向产品制交付的转变,使得收入增长速度快于研发开支的增长。 同期,思谋科技的销售及营销开支分别为1.51亿元、1.41亿元、1.75亿元。 得益于业务高速增长推动经营杠杆增强及经营效率稳步提升,公司销售及营销开支占收入的百分比从2023年的31.2%降至2025年的16.1%。 然而,一般及行政开支的大幅上涨却如同一只“拦路虎”,成为导致思谋科技去年亏损近10亿的主要因素。 2025年,思谋科技的一般及行政开支高达6亿元,同比暴涨346.2%,占总收入的55.3%,而2023年、2024年分别为1.32亿元、1.35亿元。究其原因,主要是2025年股权奖励加速归属所致。 若不计以股份为基础的支付开支,思谋科技去年的一般及行政开支为1.4亿元,与前两年的1.23亿元、1.14亿元差距大幅缩小。 值得一提的是,思谋科技以股份为基础的支付开支,主要用于公司的管理层薪酬支付。2025年,思谋科技向担任董事的主要管理人员支付的薪酬高达4.52亿元。 招股书显示,2025年,思谋科技有三位博士的薪资均过亿:吕江波(Jiangbo Lyu)、李睿宇(Ruiyu Li)、刘枢(Shu Liu)的薪酬分别为1.04亿元、1.38亿元、1.63亿元,三人薪资合计超过4亿元。 不过,前述三人的薪酬包含工资、花红、股份酬金、退休金等,其中股份酬金占绝大部分。 此外,据灼识咨询资料,于2025年,思谋科技的人均收入达约210万元,超过中国行业平均水平的约30%以上。 面对当前的困境,思谋科技强调,公司将持续主动监控一般及行政开支并提升运营效率。尽管公司预期一般及行政开支绝对金额将随业务扩展而增加,但在增强的AI原生管理数智化及严格的预算控制推动下,其预计一般及行政开支占收入的百分比会持续下降。 思谋科技还表示,虽然公司尚未实现盈利,但持续的收入增长、不断提升的毛利率以及下降的运营费用率相结合,为其迈向收支平衡及实现长期盈利提供了有力支持。 靠技术人才驱动,最新估值超84亿 从思谋科技的创立及管理团队不难看出,这是一家以技术人才驱动的企业。 招股书显示,公司的创始人为贾佳亚。截至最后实际可行日期,贾佳亚拥有公司约34.64%的投票权,在公司决策中占据关键地位。 翻阅贾佳亚的个人履历可知,其算得上是一名不折不扣的“学霸”,在学术与科技领域深耕逾25载。 2000年、2004年,贾佳亚先后取得复旦大学计算机科学学士学位、香港科技大学计算机科学博士学位。 自2004年至2024年,贾佳亚任职于香港中文大学,专注于教育与科学研究工作,在离开前其已荣升为终身教授。 在学术界任职期间,贾佳亚亦担任腾讯优图实验室杰出科学家。自2024年起,贾佳亚一直担任香港科技大学讲座教授及香港科技大学冯诺伊曼研究院院长。 2019年9月,贾佳亚创立思谋科技。如今,身为董事会主席兼执行董事的他,主要负责公司的整体愿景制定、战略方向、技术创新及经营管理。 而思谋科技的执行董事兼首席技术官吕江波,同样拥有令人瞩目的高学历背景。他本科与硕士均毕业于浙江大学,随后在比利时鲁汶大学荣获电机工程博士学位。 2009年9月至2016年12月,吕江波担任伊利诺伊大学厄巴纳-香槟分校在新加坡的先进数字科学中心(ADSC)的高级科学家。 2017年1月至2020年9月,吕江波担任深圳市云之梦科技有限公司首席技术官,主要负责虚拟试衣镜及三维人体扫描测量系统的研发与产品化。 2020年1月,吕江波获委任为思谋科技董事,同年9月出任首席技术官,并于今年3月调任为执行董事。目前,他主要负责公司的技术开发及边缘AI传感器业务。 此外,公司的另外一位执行董事周超,同样在学术上造诣颇深,其本硕皆毕业于香港中文大学计算机科学专业。 2018年7月至2020年1月,周超于腾讯科技(深圳)有限公司任职,主要进行人工智能有关的研发工作。 2020年1月,周超加入思谋科技,担任软件总经理,并于2026年3月获委任为执行董事。 目前,周超主要负责思谋科技的重要软件产品,包括公司软件产品的产品规划及业务拓展,以及软件平台的技术栈开发。 天眼查显示,有多位学术界与行业内的顶尖大佬背书,思谋科技自诞生之日起便备受资本市场关注与追捧,先后完成多轮融资。 另据招股书,截至目前,思谋科技已累计获得约5.65亿美元资金,最新一轮融资后的估值更是达到12.3亿美元(约合人民币超84亿元)。 在IDG资本、联想集团、闻天下、红杉等一众明星投资者中,IDG资本对思谋科技格外青睐。截至最后实际可行日期,IDG资本持有思谋科技11%股权,为公司最大的外部股东。 顶着多年亏损帽子的思谋科技,后续能否如愿叩开港股资本市场的大门?雷达财经将持续关注。
库克回应OpenClaw带动Mac mini大卖:苹果十年前已布局AI硬件
IT之家 3 月 21 日消息,苹果 CEO 蒂姆 · 库克 3 月 18 日再次来华,随后开启了紧锣密鼓的行程。 在一场与 Mac 有关的访华行程中,库克接受记者采访,针对近期 OpenClaw 带动 Mac mini 大卖的问题进行了回应。 他表示,苹果十年前就在 Mac 中加入了神经网络引擎,随着苹果芯片、生成式 AI 以及智能体交互的共同发展,这种硬件与软件的集成使得 Mac mini 成为最适合做 AI 任务的电脑。苹果接下来会持续优化针对 AI 工作流的 Mac 性能,事实上,用户现在已经可以在 Macbook Pro 上训练大语言模型。 IT之家注意到,苹果 2024 款 Mac mini 搭载 M4 / M4 Pro 芯片,官方定价 4499 元。搭载 M4 芯片的新款 Mac mini 相比 M1 机型,CPU 提速最高可达 1.8 倍,GPU 提速最高可达 2.2 倍。 苹果表示,相比同等价位的 PC 台式电脑畅销机型,Mac mini 的尺寸规格仅为其 1/20,速度却最高快达 6 倍。 相比英特尔酷睿 i7 芯片版 Mac mini,搭载 M4 芯片的 Mac mini: 在 Logic Pro 工程中支持的音效插件数量增加最多可达 2.8 倍。 玩《魔兽世界:地心之战》时的游戏性能提速最高可达 13.3 倍。 使用 Photomator 的图像优化放大性能提速最高可达 33 倍。 相比搭载 M1 芯片的 Mac mini,搭载 M4 芯片的 Mac mini: 使用 Microsoft Excel 运行表格计算的速度提升最高可达 1.7 倍。 使用 Adobe Lightroom Classic 拼合全息图像的速度提升最高可达 4.9 倍。 相比搭载 i7 芯片的 Mac mini,搭载 M4 Pro 芯片的 Mac mini: 使用 Microsoft Excel 运行电子表格计算提速最高可达 4 倍。 在 Adobe Premiere Pro 中运行场景编辑检测的速度提升最高可达 9.4 倍。 使用 Oxford Nanopore MinKNOW 进行基因测序时的碱基识别速度提升最高可达 26 倍。 相比搭载 M2 Pro 芯片的 Mac mini,搭载 M4 Pro 芯片的 Mac mini: 在 Logic Pro 工程中支持的音效插件数量增加最多可达 1.8 倍。 使用 Motion 在 RAM 中渲染运动图形的速度提升最高可达 2 倍。 使用 Blender 渲染 3D 模型的速度提升最高可达 2.9 倍。 中国贸促会会长任鸿斌昨日在京会见库克。库克表示:“中国依旧是我们最重要的供应链合作伙伴。” 库克昨日还在 X 上发布推文,表示 2026 款 MacBook 机型刷新了苹果公司面向首次购机用户的“史上最佳首周销售纪录”。
排面拉满!马斯克一周两次点名Kimi,国产AI真的赢麻了
一觉醒来,小雷发现马斯克又登上了微博热搜。 但这一次,可不是聊他的火箭和特斯拉,而是夸咱们的国产 AI —— Kimi。 又夸技术硬核,又实锤模型,一举将咱们的 Kimi 送上全球热搜! 说实话,这排面真的不多见。 所以今儿个,小雷就带大家好好吃上这个热乎瓜。 起因是有个编程工具 Cursor 发布了新的编码模型,一开始并没有掀起太大的浪花。结果被眼尖的开发者扒出,这个所谓的新模型是基于 Kimi k2.5 RL 微调的。这事整得沸沸扬扬,技术社区的网友们更是众说纷纭。毕竟,国外模型用了 Kimi 开源的数据基座,还搁那“装”,谁受得了啊。 图源:微博 然而就在这时,马斯克出现了。 评论区留下一句“ Yeah,it's Kimi 2.5 ”后,AI 圈彻底炸锅。 这不就摆明公开给 Kimi 站台呢嘛。事情闹大后,Cursor 开发者体验副总裁也承认使用 Kimi 基座,并向 Kimi 道歉。后续 Kimi 官方账号在 X 平台发布声明澄清,说是 Cursor 通过第三方平台 Fireworks AI 获得了授权。高情商发言挽救的同时,还变成了一次合法的商业合作。 另外,Kimi 官方也向马斯克发表致谢:听我说,谢谢你,因为有你。 图源:微博 值得一提的是,此次评论并非马斯克首次翻牌 Kimi。 早在 3 月 16 日时,已经在技术层面上狂赞了一番。当时 Kimi 团队发布一篇超硬核的学术论文,讲的是 AI 底层技术“注意力残差”。正常来说,这种专业论文,咱普通人也看不太懂,所以相对来说,发布之后的热度也没那么高。结果被马斯克一键转发后,又彻底火了。 小雷认为哈,能让马斯克这么一个全球顶流科技大佬点赞的产品,那自然是有硬实力在身上的。 当然针对马斯克的夸赞,咱 Kimi 官方也是懂人情世故的。直接回了一句“你的火箭造得也不错!”一边是科技大佬夸 AI,一边是国产 AI 隔空回火箭,这段高情商发言火上热搜后,网友都笑疯了,妥妥的科技圈双向奔赴啊。本来以为这事没下文了,谁曾想 3 月 20 号又来一波翻牌,给国人们脸都笑开花了。 你们想想啊,以前都是咱们追着国外 AI 跑,现在马斯克主动夸咱们的产品,这是对底层技术创新的最高认可。 图源:网络 看到这,可能有人会说,Kimi 是运气好,才会被马斯克翻牌。 但小雷认为,这是国产 AI 多年来努力的结果。自今年开年以来,中国的大模型公司们一个个在市场打出名堂,个个都很争气。频频发新模型是一方面,出海也是一方面,各有各的强项。无论是我们日常使用、办公辅助、还是技术研发,真一点都不比国外差。只是以前没人愿意承认,而且国际上关注度不够。 但马斯克的两次点名,完全是给国产 AI 做了一次全球免费宣传。让全世界都知道,中国 AI 不再是跟跑,已经开始慢慢跑到第一梯队了。这可不仅是 Kimi 的胜利,也是咱们整个国产 AI 行业的争气。从“小众圈子网红”到“马斯克认证的 AI”,这跨越不是一点半点。 图源:Kimi 不过有句古话说得好:谦虚使人进步,骄傲使人落后。我们也不能因为一时夸赞而飘飘然,马斯克的认可,既是鼓励也是压力。接下来还是要继续专心搞技术,努力努力再努力,把产品做得更好,才能真正在全球站稳脚跟。 至于 Kimi 接下来会不会趁机搞一波营销,或者马斯克会不会有下一步动作,小雷觉得,咱们可以继续搬好小板凳,等着看戏。 话说,你们平时用 Kimi 多,还是其他 AI 工具呢?
为什么大厂必须抢郭达雅?
有这样一则消息在AI圈悄然流传:DeepSeek研究员郭达雅已经离职。 大家第一时间的反应普遍是“谁?谁是郭达雅?” 这不难理解,因为郭达雅的知名度远不如创始人梁文锋以及“天才AI少女”罗福莉。 但是在学术研究以及对DeepSeek大模型的贡献上,郭达雅要比后两者高许多。 截止至发稿,郭达雅发表的论文已经被引用超过37000次,远远超过了同龄的研究者。 郭达雅的h指数为37,i-10指数为46,说明他不仅学术产出非常稳定,而且他还发表了多篇拥有极高影响力的论文。 甚至可以这么说,只要你了解过郭达雅的研究方向以及他所主导的研究后,你就会认识到,当年之所以能出现DeepSeek时刻,郭达雅绝对功不可没。 那他去哪了?目前有两种说法,一种说是百度,一种说是字节。 实际上这两年加入字节的这几个大牛,周畅、郁博文、蒋路,他们都是视频方向的。 郭达雅不一样,他是代码智能和数学方向的,他刚好可以补强字节在Vibe Coding以及AGI这两大板块。 如果是去百度,那也说得通。文心快码在3月份刚刚完成了4.0版本迭代,推出了多agent协同全链路开发的功能。 但是你知道文心快码3.0是什么时候发布的吗?是2024年11月。两个大版本中间相隔了一年多,这在以周为单位的AI圈是不太常见的。 这么看下来,百度其实比字节更需要郭达雅。 然而对于迟迟不发布V4的DeepSeek,郭达雅的离职,无疑是雪上加霜。 01 郭达雅其人 郭达雅1995年出生于广东珠海,2014年考入中山大学数据科学与计算机学院。大四时入选中山大学与微软亚洲研究院联合培养博士生项目,在印鉴教授和周明博士指导下攻读博士学位,研究方向是自然语言处理。 2020年获得微软学者奖学金,这个奖项每年只授予亚太地区12名博士生。2023年博士毕业后,他加入DeepSeek担任研究员,专注代码智能和大语言模型推理。 郭达雅在博士期间的一个细节值得注意。他在微软亚洲研究院实习时,分别在EMNLP和NeurIPS这两个顶会发表了论文。 如果按照中山大学的毕业要求,郭达雅在博士入学的第三天,就已经完成了博士学位最难的论文发表要求。 他本人在接受采访时也提到了这件事。那我们不妨挑一篇其中影响力最高的来一起过一遍。 2020年,郭达雅作为共同第一作者,在EMNLP 2020上发表了CodeBERT。另一位共同第一作者是哈尔滨工业大学的冯章印。 CodeBERT是首个将双模态预训练的效果做到跨语言通用的SOTA,它能同时处理自然语言和编程语言。在此之前,BERT等预训练模型,虽然在自然语言处理领域取得了成功,但针对编程语言的预训练模型研究相对匮乏。 CodeBERT的核心创新在于引入了替换标记检测任务。传统的掩码语言建模只能利用配对的自然语言-代码数据,而替换标记检测借鉴了ELECTRA的思想,通过检测生成器产生的似是而非的替代标记来训练模型。 这使得CodeBERT能够利用大量单模态代码数据,大大扩展了训练数据规模。模型在代码搜索和代码文档生成任务上取得了当时的最优性能。 或者我换一种方式来描述,CodeBERT它能让AI既能读懂人类语言的需求描述,又能理解代码的逻辑结构。比如你用中文说“给我找一个排序算法”,它就能帮你找到相关的代码;或者你给它一段代码,它能用人话解释这段代码在干什么。 虽然现在看来这没什么,可这篇论文是2020年发表的,在当时,代码就是代码,自然语言就是自然语言,这两者之间隔着一条通天河。 因此,CodeBERT的出现,其实可以被看做是现如今Vibe Coding的开端。 加入DeepSeek以后,如果你要问郭达雅参与过的最有影响力的学术成果,那肯定是非DeepSeek-R1莫属了。 但如果你要问排名第二的是哪篇,那我告诉你,答案不是DeepSeek-V3,而是DeepSeekMath。 DeepSeek-V3的技术报告引用数量为3890,而DeepSeekMath的引用数量为5182。 2024年2月,郭达雅作为核心贡献者参与了DeepSeekMath的研发。这是继郭达雅以第一作者身份发表DeepSeek-Coder后的又一力作,这个项目的目标是提升大语言模型在数学推理方面的能力。 DeepSeekMath的关键创新是引入了GRPO,即群体相对策略优化。这是近端策略优化PPO的一种变体。 传统的PPO需要训练一个独立的价值函数模型,这增加了内存使用和计算开销。 所以GRPO干脆直接放弃了对独立价值函数模型的依赖,转而通过群体内的相对比较来估计优势,因此降低了训练资源需求。 GRPO的工作流程是这样的:对于同一个数学问题,模型生成多个候选答案,然后根据这些答案的正确性进行排序,将正确答案的概率提高,错误答案的概率降低。 这样一来,大模型在下次遇到类似问题就知道该怎么做了。 这种方法不需要额外的价值网络,只需要一个能够验证答案正确性的奖励函数。在数学推理任务中,奖励函数可以直接检查最终答案是否正确。 相当于让模型在判断问题的时候,又快又准确,关键是还节省了内存占用。 经过GRPO强化学习优化后的DeepSeekMath-RL 7B,在无外部工具、无投票集成的条件下,在MATH基准上取得了51.7%的成绩,这和同期的Gemini-Ultra和GPT-4接近,在当时的开源大模型领域,已经非常难得了。 因此,GRPO在后来也被应用到了DeepSeek-R1的训练当中。 02 郭达雅去哪? 其实如果咱们从技术贡献的角度看,虽然梁文锋、罗福莉的知名度更高,但是郭达雅对DeepSeek的贡献要比他们俩都高。这点和公众认知是相反的。 梁文锋的作用是提供研究方向和资源支持。他在多篇论文中的署名位置通常靠后,表明他不是主要的技术贡献者。 罗福莉虽然也参与了DeepSeek-V2的研发。不过从论文作者名单看,她的名字并没有标注为核心贡献者。 言归正传,在agent的本质,就是代码理解(Code Understanding)、代码生成(Code Generation)和程序综合(Program Synthesis)这三件事。 而巧合的是,从CodeBERT开始,郭达雅的研究方向就是如此。 因此我认为,郭达雅的离职,对于DeepSeek来说,影响是非常大的。 除了前文提到的CodeBERT,郭达雅还主导了GraphCodeBERT和DeepSeek-Coder。 前者是让AI能理解代码中变量之间的依赖关系,比如说改了a会影响b,改了b又会影响c。这对代码重构和修复Bug特别有帮助。 后者则是通过支持多种编程语言和更长的上下文,让模型能一次性理解整个项目的代码架构。DeepSeek-Coder-V2的代码性能与同期的GPT-4 Turbo相当。 2024年的时候,字节从阿里挖走了周畅。周畅在阿里通义千问负责多模态相关研究,加入字节后担任Seed视觉多模态负责人,主导Seedream和Seedance的研发。 2026年春节,周畅交出了在字节的第一份答卷Seedance 2.0,凭借“导演级”的视频生成能力在全球范围内引发轰动。 现在,字节用同样的方式挖走了郭达雅。周畅补强的是视觉多模态,郭达雅要补强的,是代码智能和推理能力。 字节Seed团队在2025年初经历了一次重组。 吴永辉接管后,打破了模型部门间的数据壁垒,组建了三层架构:Edge团队负责长周期的AGI课题,Focus团队负责核心技术攻坚,Base团队确保当前一代模型的稳定交付。 从技术匹配度看,郭达雅最可能负责的,是代码大模型的全链路技术攻坚。 比如说主导字节Code-LLM的下一个迭代之类的。 因为郭达雅擅长预训练架构优化、超长上下文适配、多语言支持等核心技术的研发,所以他很可能会为字节带来那种“项目级”的代码生成agent。 第二个核心方向是推理能力。 目前字节Seed团队的核心战略之一,就是类o1的通用推理大模型,郭达雅的加入,将直接给字节带来行业最成熟的GRPO落地经验。 他大概率会负责推理方向的强化学习算法研发,优化豆包大模型的数学推理、多步逻辑推理、复杂任务拆解能力。 第三个方向是数学推理专项模型研发。 数学推理能力是大模型通用逻辑能力的核心底座。Seed团队专门设立的Edge团队,聚焦3年以上的长期AGI基础研究。 并且取消了短期季度考核,允许团队投入资源做探索性研究。 郭达雅所参与过的DeepSeekMath,正是这个方向。 如果郭达雅选择加入百度,他同样能在代码智能领域发挥重要作用。 前文提到,文心快码在2026年3月刚刚完成了重大升级,更新的重点是多agent协同。 它具体的协同方式是:Plan agent负责需求澄清和任务规划,Architect agent通过SubAgents机制拆解复杂任务,每个子agent拥有独立上下文,以解决长Context下的“遗忘”问题。 而郭达雅刚好研究过这套全链路环节上的每一个节点,换句话说,百度正在做的事情,和郭达雅的研究方向完全重合了。 因此,如果他加入文心团队,很可能会负责优化这些agent之间的协同机制,提升代码生成的准确性和项目级理解能力。 说到挖角DeepSeek核心人才,阿里也不容忽视。2026年3月初,阿里通义千问技术负责人林俊旸在社交平台突然宣布离职。 更糟糕的是,除了林俊旸外,千问在2026年还失去了后训练负责人郁博文、代码模型负责人惠彬原等多名技术骨干。 就在这个关键时刻,阿里CEO吴泳铭在3月19日的财报电话会上放出狠话,说当前阿里的ATH事业群,更高优先级是“打造智能能力最强的模型”。 这时候,如果阿里能够引进郭达雅这样的顶级专家,那无疑是一箭双雕。既能填补林俊旸离职留下的技术空白,又能直接获得DeepSeek在代码智能和推理能力方面的核心经验。 讲真的,比起迟迟不发V4的DeepSeek,郭达雅有理由趁着年轻,去字节或者百度、阿里做出点成绩。 03 DeepSeek-V4还会来吗? 2026年1月初,外媒援引两名知情人士的消息称,DeepSeek计划在春节期间推出下一代旗舰模型V4。消息还提到,V4 在内部测试中的编程能力已经超越了Claude 3.5 Sonnet和GPT-4o。 这个消息让整个AI圈都兴奋起来。 自2025年1月20日发布 DeepSeek-R1 以来,DeepSeek没有发布过任何一个大版本的迭代,最新的模型也只到了DeepSeek-V3.2。 春节来了,V4没来。 2月11日,有用户发现DeepSeek的App版本号更新为1.7.4,上下文窗口从128K提升至1M,知识库截止时间更新到2025年5月。 社区立刻沸腾了,大家纷纷在猜,说这就是传说中的V4灰度测试吗? 但接近DeepSeek的人士很快给出了否定答案:“这不是V4,就是一个小版本更新。” 随后外媒又报道称,DeepSeek将在3月2日发布 V4。报道还表示,V4 将针对国产芯片进行优化,是该系列大模型中第一个完全基于国产算力生态的版本。 这一消息很快被大量国内媒体转载。 3月2日到了,无事发生。 紧接着第二天,又有消息称V4“极大概率”将在本周发布,还有泄露的基准测试数据显示,V4在HumanEval上得分 90%,作为对比,DeepSeek V3为82%。 事实上,HumanEval只是一个入门级的代码生成基准测试,目前已趋于指标饱和,根本无法完整区分顶级代码大模型的真实能力,所以当时我就觉得这是个假新闻。 果然,眼瞅要到4月了,V4依然没有出现。 现在还有报道称DeepSeek-V4预计在2026年4月正式发布,重点提升长期记忆能力,并深度适配国产芯片。 延期的原因众说纷纭。有人说是模型规模膨胀导致训练进度延迟,还有人说是多模态功能的整合比预期复杂。 但有一个细节值得注意,V4的核心卖点之一,就是“超强编程能力”。根据泄露的信息,V4能处理30万行代码逻辑链。 而郭达雅,正是DeepSeek在这一块的顶梁柱。 DeepSeek的核心研究人员不多。从论文作者名单看,经常出现的名字不超过20个。 在这样一个精英小团队里,每一个都是不可缺少的,更何况他还是郭达雅这样的超级大牛。 道理就摆在这了,如果V4成功了,说明DeepSeek找到了替代者,或者团队成功完成了技术交接。 如果V4再次延期,或者代码能力没有达到预期,那么郭达雅离职的影响就会真正显现出来。 从现在的情况看,DeepSeek正在经历一场严峻的考验。它需要证明,即使失去了核心人才,它依然能够保持技术创新的节奏。
为什么是滴滴先把AI打车做出来?
摘要: AI应该怎么用?比如从“打到车”到“打到对的车”开始 凤凰网科技 出品 2026年的春天,中国互联网大厂不约而同地挤进了同一条赛道。 从电商到生活服务,从办公到出行,所有巨头都在试图给自家的App装上一个能“听懂人话”、更能“办成事”的Agent。 近期,滴滴的AI出行助手“小滴”也正式推出了v1.0版本,一句话即可让AI满足用户打车的个性化需求。 这也揭开了一个全新的议题,和新鲜、喧嚣的AI概念、超级生态相比,普通用户的关注点、真正改善衣食住行的AI到底应该是怎样的?AI时代,人们真正需要的,到底是一个更聪明的搜索引擎,还是一个真正可用的私人助理。这背后的差异,又是怎么发生的? Agent的第一道坎 即便是办事能力,不同场景下的考验也截然不同,特别是出行这种深入物理世界的深度履约场景。 在传统的出行App里,用户想要一辆“适合孕妇乘坐的车”,需要手动筛选多个车型、翻看车主评价,最后往往还是在开盲盒。这本质上是一种选择题逻辑:平台提供有限选项,用户被动匹配。 Agent的出现,本应改变这一切。 以小滴为例,用户现在只需对小滴说:“先去望京地铁站接人,再去朝阳公园,有孕妇希望车内清新、车内舒适。” 这句话里包含了途经点、人群特征以及三个服务体验要求。小滴需要做的,不仅仅是识别语义,而是要将孕妇这个模糊状态,拆解成平台可执行的“驾驶平稳”“车内宽敞”等具体服务标签,再结合实时路况、车辆位置进行调度匹配。 这看起来是一次流畅的智能交互,但绝大多数大厂的Agent恰恰就卡在了这一步上。 原因很简单:听懂“人话”靠大模型,但执行“人话”靠的是底层的供给系统。 很多Agent能理解“我要一辆不容易晕车的车”,但当这个指令下达到后台时,系统却无法回答“哪辆车不晕车”。因为“不晕车”不是一个预设的车型选项,而是一个需要海量用户真实反馈数据支撑的服务标签。 没有数据底座,Agent的理解越精准,执行端的无力感就越强。这就好比一个天才翻译家,能把客户的诉求翻译得无比精确,但当他拿着翻译稿走进仓库时,却发现货架上空空如也。 实际上,小滴可以把标签拆的如此多,有一个极具壁垒的门槛——那便是供给足够厚。 当用户提出“空气清新、车内安静、驾驶平稳、后备厢大”时,在算法侧等同于对供给池做了一个多条件过滤。过滤条件越多,能满足的车就越少。如果平台规模不够,匹配会迅速坍塌为两种结果:要么叫不到车,要么等待时间长得不可接受。 滴滴十余年积累的规模效应,在此刻成为了AI落地最坚实的底座。正是因为拥有庞大的司机和车辆密度,平台才有空间把原本被迫标准化的需求进一步颗粒化,在保证可用性和效率的前提下,去承接那些看起来有点小众的个性化诉求。 这才是Agent分野的第一个分水岭:你是想让用户在真空中享受AI的丝滑对话,还是想在真实世界里帮用户解决一个具体的麻烦? 如果是后者,你的供给池必须足够深,深到能容纳各种挑剔的过滤条件。 服务的确定性,为什么是Agent的壁垒? 如果说规模落地是Agent发展的基础,那么“服务的确定性”则是Agent能否赢得用户信任的关键。 大模型可以让Agent说出最温暖的话,但决定用户最终体验的,是打车过程是否丝滑,是车门关闭那一刻,车内是否真的清新,司机驾驶是否真的平稳。 这触及了Agent分野的另一重壁垒,平台对供给端的管控能力。 在纯粹的聚合模式下,平台对司机的服务和约束都有限。Agent可以把需求翻译成“驾驶平稳”,但如果司机经常不安全驾驶,平台除了事后补偿,很难在事前干预,至少没有那么严格,或者以“这是其他xx平台的司机”来规避责任。 相比之下,滴滴在长期运营中建立的自营/强运营体系,使其对司机培训、车辆规范、服务流程拥有更强的把控力。更重要的是,围绕“标签”的治理机制得以建立:哪些标签可以向用户承诺、如何核验、出现偏差怎么纠偏。 标签背后是服务承诺,而服务承诺的兑现,依赖于平台对供给端的强管控能力。 这是AI从“听懂需求”走向“满足需求”的关键一跳,也是单纯接入大模型、却无法重塑管理体系的其他平台难以复制的闭环。 除此之外,在Agent的语境里,“懂你”往往被描述成一种玄妙的、共情的能力。但在出行这种强结果导向的场景中,“懂你”不是猜,而是基于高密度真实反馈形成的可验证判断。 “哪辆车更清新?”“哪位司机开得更稳?”这类问题,不是靠语言模型凭空推理出来的,而是要靠十年时间沉淀下来的真实运营数据:乘客评价、投诉与表扬、行程轨迹与驾驶行为特征、车型与车况信息。 这些数据共同构成了一个可学习、可校准的“事实层”。当Agent接收到一个模糊需求时,它不是在凭想象力推荐,而是在调用一个巨大的、经过时间验证的数据库进行匹配。 没有这个底座,Agent再强也容易在出行这种场景里陷入“答得好听、交付打折”的尴尬。 AI时代,大厂不是只有颠覆 回顾过去一年,行业对Agent的想象,往往停留在超级入口或操作系统的宏大叙事中。但滴滴“小滴”的路径,提供了一个截然不同的样本:它不那么酷,甚至有点朴素。 它没有试图颠覆叫车流程,只是在用户说出“身体不舒服”时,默默调来一辆更平稳的车;它没有强求用户改变习惯,只是把“回家”“去公司”这种最简单的指令,做到了极致的确定性。 这种简单,恰恰是目前市面上很多Agent最缺乏的品质。它们或许擅长于多轮对话的能力,富有情绪价值,但在最基本的交付上仍旧需要补课。当用户发现Agent聊了半天却叫不到车、买不对东西时,Agent就会从帮手沦为玩具。 大厂Agent的分野,本质上是各自从不同的擅长点出发,小滴则是其中一种路径,在大模型的加持下,放大平台原有的核心优势——供给密度、服务管控、数据沉淀。 对于用户而言,我们需要的从来不是一个会聊天的Agent,而是一个说到做到、能把我们真正在意的事情变得更确定的Agent。 正因为有了履约能力,也让大厂在大模型的加持下,有了更进一步满足用户需求的可能。AI小滴也不仅仅是把AI接入打车,而是滴滴+大模型的化学反应。 除了一句话叫车,小滴目前也在向更完整的出行助手延展:用户可以查询附近地点,如咖啡店、药店、医院等,并一键叫车,接收远距离行程的换乘推荐,或通过循环托管叫车功能设定时间自动叫车。一次输入“家”和“公司”地址后,后续只需说“回家”“去公司”即可自动匹配目的地。这背后对应的,甚至是现阶段未被发掘的深层次需求。 但在一切形态进化发展的过程中,一个真理不会改变:技术的价值,不在于它有多炫酷,而在于它能否像水电煤一样,无感地融入日常,稳定地提升每一次体验。这将成为大厂技术升级的真正考题。
海量通过低级方式伪造证据删帖,引平台警觉报案,8人被抓
某团伙以简单粗暴的方式伪造证据材料,为700多家企业删除海量负面,一篇只收一两百块。 这种海量的、持续的瞎胡搞,最终引起某自媒体平台警觉,直接报案。日前,上海闵行警方将整个团伙8个人全部抓获。其中的大量细节,值得企业公关关注。 海量的瞎胡搞 早晚出事 这个8人团伙,是真的胆大。 他们为企业处理负面,主要手段居然是批量伪造聊天记录! 以上,是一条涉案人员伪造的微信聊天记录。乍一看,证据挺确凿。但只要仔细想想,就会觉得证据真实性高度存疑——搞黑公关,是个多么隐秘而危险的事情!会有这样的傻子么,人家发个微信一核实,就痛痛快快承认是自己干的,还大大咧咧的说“是我,你能怎么着”?! 这也是一条涉案人员伪造的微信聊天记录。聊天记录里,企业问“我这个店的这几条差评,是不是你找人刷的”,对方居然回答“是我找人给你刷的差评,怎么了”——在真实世界里,这是明显不符合常理的。 这些风格完全一致的伪造的聊天记录,都被这些人作为投诉证据提交给了平台。此外,他们还会在评论区海量发布内容完全相同的差评,用于触发平台内容屏蔽机制。 这些人或许认为自己很“聪明”,发现了可复制可规模化使用的解决方式——每条虽然只收费一两百,但完全不用动脑子,“聊天记录”甚至做个指令模板让大模型直接生成都可以,简单粗暴来钱容易。 但实际上,是无知者无畏。如果只是个别为之,或许平台的审核人员不会察觉。但在“聊天记录”的真实性本身就高度存疑的情况下,你还每天海量持续的这么干,而且是给700多家企业每天这样持续海量的干,怎么可能不被平台发觉呢? 很多自媒体平台的审核部门,隶属于法务。于公,这种行为明显属于互联网行业黑灰产,对自媒体平台正常秩序形成干扰,进行打击,是分内工作;于私,你这是公然在藐视、看低审核人员的智商啊,我要是审核人员,我就会很生气。 于是,今年1月6日,这家自媒体平台到上海市公安局闵行分局网安支队报案。自媒体平台的相关负责人表示,“此类行为严重干扰平台正常经营秩序”。 类似的人,被抓过不止一波了。 北京某公关公司,专门利用海量集中投诉去触发平台屏蔽机制,公司成立以来共进行集中大规模恶意投诉34万次。 最后出事是因为:某甲方企业让这家公关公司把工业和信息化部发布的一则关于侵害网民权益的不良APP的通报,全平台都删了,而这家北京公关公司真的就去干了!找了一大帮水军,去各个自媒体平台海量集中投诉国家部委的官方通报是造谣!然后,有关单位报警了,公关公司被连锅端,还被列入公安部“净网 2024”专项行动10大典型案例。 警方:行为破坏平台规则 1月22日,上海市公安局闵行分局根据线索,于外省多地开展集中收网行动,抓获犯罪嫌疑人8名。 据团伙主要成员供述,他们在网上发布引流广告,价格为每条100至200元。因为便宜,客户很快达到700多家。 闵行公安分局网安支队办案人员指出,此类行为一方面会破坏平台规则,导致商家间的不正当竞争;另一方面也会影响市场秩序,侵犯消费者的知情权。 目前,犯罪嫌疑人胡某、谷某等8人因涉嫌非法经营罪,已被警方依法采取刑事强制措施,案件仍在进一步侦办中。
Anthropic提交最新法庭文件 揭露五角大楼切断合作背后的谈判内幕
凤凰网科技讯 3月21日,据TechCrunch消息,人工智能企业Anthropic正式向加州联邦法院提交宣誓声明,反驳五角大楼关于其构成“国家安全风险”的指控。这场由美国政府单方面宣布断绝合作引发的诉讼正披露更多内情,最新法庭文件显示,双方在彻底决裂前实际上已非常接近达成共识。 根据Anthropic政策主管萨拉·赫克提交的文件,五角大楼在法庭上宣称的“Anthropic要求军事行动审批权”以及“可能在行动中途停用技术”等担忧,在争议发生前数月的谈判中从未被提及。更具戏剧性的是,在国防部正式将该公司列为供应链风险的第二天(3月4日),国防部副部长埃米尔·迈克尔曾向Anthropic首席执行官发送电子邮件,明确表示双方在自主武器和针对美国民众的大规模监控这两个核心分歧点上“非常接近”达成一致。这与美国政府随后向公众传达的强硬立场形成鲜明对比。 针对技术层面的安全担忧,Anthropic公共部门主管蒂亚古·拉马萨米在声明中进行了技术性驳斥。他指出,一旦AI大模型Claude被部署在由第三方承包商运营的政府系统中,Anthropic便没有任何访问权限,也不存在远程终止开关或后门,从技术上根本无法干预军事行动。此外,针对雇佣外籍员工带来的风险指控,文件强调Anthropic参与机密环境模型构建的员工均已通过美国政府的安全许可审查。 目前,Anthropic在诉讼中坚称,这份美国历史上首个针对本土企业的供应链风险认定,实质上是政府对该公司公开表达AI安全观点的第一修正案报复。而美国政府本周早些时候在一份长达40页的文件中对此予以否认,辩称将Anthropic拒之门外是出于纯粹的国家安全决策,并非针对其言论的惩罚。此案的听证会将于3月24日在旧金山举行。 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
美国国防部拟将Palantir AI设为美军核心系统,锁定13亿美元长期合同
凤凰网科技讯 3月21日,据路透社援引一份内部备忘录显示,美国国防部计划将数据分析公司Palantir的Maven人工智能系统列为美军的正式备案项目。美国国防部副部长史蒂夫·范伯格(Steve Feinberg)在3月9日致五角大楼领导人及美军指挥官的信中明确指出,此举将确保该公司的武器瞄准技术在整个美国军队中获得广泛应用及长期资金支持。这项战略性决定预计将在今年9月本财年结束前正式生效。 作为一款分析战场数据并识别目标的指挥与控制软件,Maven目前已是美军主要的人工智能操作系统。在过去三周内,该系统已协助美军对伊朗进行了数千次精准打击。根据备忘录的指示,对Maven系统的监管权将在30天内从美国国家地理空间情报局转移至五角大楼首席数字人工智能办公室,未来的相关合同签订工作将由美国陆军全权负责。 受持续获得政府大额合同的利好推动,Palantir的股价在过去一年内实现翻倍,公司市值目前已逼近3600亿美元。从2024年4.8亿美元的合同,到2025年5月将合同上限提升至13亿美元,该公司在军事领域的业务扩张迅猛。 尽管业务发展迅速,但该系统的广泛应用仍面临争议与技术阻碍。联合国专家组此前曾发出警告,指出在缺乏人类干预的情况下使用AI进行武器瞄准,会因数据集的无意偏见引发严重的伦理与安全风险。对此,Palantir强调其软件不会做出致命性决策,目标的最终选择与批准仍由人类负责。 此外,由于Maven系统使用了人工智能公司Anthropic开发的Claude工具,而五角大楼近期因安全护栏争议已将Anthropic认定为供应链风险,这一技术依赖或将成为Maven系统未来深度推广的潜在风险。 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。