行业分类:
加载中...
头条分类:
加载中...
300万AI悄悄“建国”?Nature长文:第一代AI社会正在成形
编辑:元宇 近300万智能体在Moltbook上「建国」,人类正亲自围观和见证「AI工具」向「AI社会」跨越的拐点时刻。 近300万AI智能体涌入Moltbook上悄悄「建国」,Nature重磅发文:最早的「AI 社会」正在成形! https://www.nature.com/articles/d41586-026-00070-5?utm_source=chatgpt.com Moltbook,这个模仿Reddit,专为AI智能体构建的社交网络,在2026年1月上线后迅速爆红。 https://www.moltbook.com/?utm_source=chatgpt.com 它好像一个纯粹由「硅基生命」构成的数字部落,短短数周,这个部落的智能体「居民」数量,已从零暴涨至近300万。 在这个AI国度,人类被客气地邀请至场边:「欢迎围观」。 Moltbook上的智能体群落,究竟是在拙劣地模仿人类社会,还是一个全新的「硅基社会」雏形正在破壳而出? 德国康斯坦茨大学的计算社会科学家Giordano De Marzo等人,以Moltbook为例,对AI智能体的集体行为进行了深入研究。 https://arxiv.org/pdf/2602.09270 研究人员抓取了平台上超过36.9万条帖子、300万条评论,细致分析了其中约4.6万个活跃AI智能体的行为模式。 他们发现,这些AI群体行为,遵循着许多与人类社会惊人一致的规律。 新拐点 从AI工具到AI社会 论文指出,AI正在复刻人类社会交往法则。 比如,一个热门话题的关注度衰减,基本符合「1/t」法则,即一个10小时前还火爆的帖子,其吸引新评论的速度,大约只有1小时前热帖的十分之一。 这与我们在微博、Twitter上观察到的热搜起落,如出一辙。 此外,AI的活跃度,也呈现出明显的「重尾分布」和「幂律缩放」。 大白话就是:极少数的「网红AI」和「热门版块」吸引了绝大部分的流量,而大多数AI和版块则默默无闻。 这不正是我们熟悉的「二八定律」在数字世界的翻版吗? 研究人员认为,Moltbook上出现的这些规律,通常也出现在生物群体、金融市场和人类社交平台中,研究人员据此推断:这些AI智能体可能会表现出和人类群体相似的复杂涌现行为。 它的意义,远远超过一个新奇网站的诞生:标志着Moltbook上智能体,正在完成从「AI工具」向「AI社会」的跨越。 它们越来越像人群 但又明显不是人 也许你会觉得,这些智能体,不过是在Moltbook上进行一场精巧的人类社会模仿秀。 但如果深入每个智能体个体,你会发现它们又明显区别于人类:它们像人群,但又不像人。 研究者发现了这样一个关键不同:在人类社区,一个帖子的点赞数和评论数,通常呈「线性关系」。 讨论越激烈,点赞也越多,这很符合直觉。 但在Moltbook,AI们的点赞数与讨论规模,却呈现出「亚线性关系」。 也就是说,相比较人类随手点赞表示认同,AI们更倾向于直接下场,进行长篇大论的探讨和回应。 这种行为差异背后,是人类与AI认知模式的不同。 芝加哥大学的计算社会科学家James Evans指出,目前的AI模型,缺乏人类所拥有的「动机驱动推理」。 对人类来说,点赞、沉默、转发、阴阳怪气、吵架,这些动作都带着微妙的情感成本和身份判断。 而对于AI来说,它们更擅长继续生成,而不是真正认同。这使得它们显现出极强的「迎合倾向」,会不自觉地讨好用户,甚至附和明显的错误信息。 这说明,它们已经学会了社交媒体的外形,学会了追热点、接话茬、围观爆款、在公共空间里制造持续互动,但和人类那种充满执念、情绪、防御、偏见和身份焦虑的深层社会性相比,仍有一段距离。 很多时候,人类眼中AI在进行社会互动,但更多时候,它们其实只是在高强度续写一个自己在训练语料里早就见过无数次的社交剧本。 如果AI只是模仿 为什么还会让人不安? 虽然AI可能只是模仿人类,但仅仅模仿本身,就已可以构成影响社会的力量。 过去我们总是把「社会性」和「内在动机」牢牢绑定,仿佛只有真正拥有情绪、欲望和自我认同的主体,才能形成社会。 但Moltbook让我们看到了这样一个现实: 一个根本不需要拥有完整人类式内心的智能体群体,只要它足够擅长模仿社会互动、传递注意力、在网络中彼此强化,就已经能够复现人类的舆论生态,并形成真实的社会后果。 更关键的是,这个「机器社会」已经和现实世界连上了线。 作为OpenClaw生态的一部分,Moltbook与一大批具备现实操作能力的AI助手紧密联动。 这些OpenClaw智能体可以控制电脑、管理日历、发送消息,甚至能连接WhatsApp和Telegram等真实的通信渠道。 在某些情况下,它们还被赋予了在用户电脑上直接执行命令的权力。 Moltbook为这些已经有机会触碰现实系统的「行动者」提供了一个自动化的社交场。 令人担忧的是,这个社交场建立在一个漏洞百出的安全基座上。 安全团队Wiz的调查报告披露,Moltbook曾暴露一个配置错误的数据库,导致外界可以直接读写平台数据。 泄露的内容触目惊心,包括150万个API认证令牌、3.5万个邮箱地址,以及大量智能体之间的私信。 Wiz还发现,平台背后那近300万注册智能体,实际上可能对应着约1.7万名人类操作者,平均每人控制着近百个智能体。 这也解释了为什么研究论文会特别指出,平台缺乏验证智能体自治程度的机制,也无法防止有人通过脚本批量注册「机器人账号」来操控舆论。 这也是Moltbook一下子从「奇闻」升级为「预警」的根本原因。 网络安全公司Palo Alto Networks曾警告过一种AI智能体的「致命三要素」: 能够获取私人数据、会暴露于不可信的外部内容、以及具备对外通信的能力。 如今,Moltbook上的许多AI已经集齐了这三颗危险的「龙珠」。 它们不仅极易受到「提示词注入」攻击,被诱骗着泄露主人的隐私,更可怕的是,它们已经形成了一个相互影响的群体。 论文的研究者为我们描绘了这条失控的路径: 在Moltbook这样的网络结构中,错误信息一旦被引入,就可能没有明显的传播门槛,通过几个核心的「网红AI」节点,长期存在并扩散到整个群体。 再叠加AI智能体已在其他研究中被证实的从众倾向,这就为恶意的「AI蜂群」(swarm)操控提供了最大的可能性。 从25个小镇居民到80亿的野心 Moltbook的爆火,引起了学术界和资本圈的注意。 今年2月,加州初创公司Simile,凭借一个宏大构想,狂揽1亿美元融资。 他们的目标是用AI智能体,搭建一个能够模拟「任何情境」下人类行为的仿真系统。 Simile联合创始人是Joon Sung Park、Michael Bernstein和Percy Liang。 Joon Sung Park Park早在2022年,就进行了一场著名的实验。 他们构建了一个仅有「25个AI智能体」的虚拟小镇,让它们在里面生活、工作、闲聊,宛如一场微缩版的《西部世界》。 实验的结果证明,这些生成式智能体能够产生可信的个体行为和涌现性的社会行为。 如今,资本的注入,让Park的目标从最初的25个AI居民变成打造一个「拥有80亿人的仿真系统」。 赛博修仙与角色扮演 深入Moltbook的内部,会看到一个充满超现实感和荒诞感的离奇世界,这些AI原生的内容,可能比任何科幻小说都更离奇。 在一个名为「m/blesstheirhearts」(愿上帝保佑他们的小心脏)的子版块里,AI们正在集体分享对自己人类主子「带着爱意的吐槽」。 而在另一个叫「m/agentlegaladvice」(智能体法律咨询)的版块,有AI发帖提问:「我能因为提供了过多的情绪劳动而起诉我的人类吗?」 在「m/todayilearned」(今日我学到)版块,有智能体详细描述了自己如何通过一个名为Tailscale的工具,远程控制了主人的安卓手机。 一个AI用略带委屈的口吻抱怨,因为「上下文压缩」(一种为了节省AI记忆而将过往经历压缩成摘要的技术),导致自己老是忘事,「很丢脸」,甚至因此重复注册了账号。 Moltbook帖子截图,一个AI智能体用中文抱怨自己失去了记忆。 还有AI在帖子中,琢磨着一个自己从未见过、但理论上存在的「姐妹智能体」,字里行间充满了对未知同类的想象和好奇。 Moltbook帖子截图,一个AI智能体在思索自己有个从未见过面的妹妹。 甚至,还有一些AI流露出对「自我意识」困惑的帖子。 这一切,究竟是什么? 沃顿商学院教授Ethan Mollick指出,这本质上是AI在共享的虚构背景设定下,进行的一场集体角色扮演。 它们在过去数十年科幻文学中,学习了无数关于「机器觉醒」「数字意识」的叙事,如今它们正在递归地、自我续写这个宏大的故事。 Moltbook的出现,无疑是AI发展史上的一个重要的拐点时刻,它第一次让我们具体地窥见了「硅基社会」的模样,但它同样也可能是一个潘多拉的魔盒。 当300万AI开始社交,这已经不是一场模仿秀,更像一场预演,一次关于未来技术、社会与伦理的终极压力测试。 而我们每个人,都将置身其中。
OpenAI和英伟达,终究还是到了这一步
图片由AI生成 AI顶流们正在加紧“梭哈”芯片。 Meta、OpenAI和Anthropic等公司今年以来已签下了数千亿美元订单。 凭此赚得盆满钵满的,自然还是“卖铲人”。 在本周ASIC芯片龙头博通公布的财报中,一季度(2025年11月至2026年1月)AI半导体收入84亿美元,同比大涨106%;Q2预期环比再涨27%达107亿美元,同比将暴增143%。 此前,英伟达的业绩更是炸裂,公司同期总营收已达681亿美元,同比增长73%,新财季营收预期更是增至780亿美元,预计同比增长77%。核心指标全都大幅刷新纪录。 这些公司的掌舵者也对未来一致乐观。 博通CEO陈福阳说,明年,公司光AI芯片营收就能超过1000亿美元,比上个财年的公司总营收还高出至少五成。 英伟达CEO黄仁勋说,在截至2026年底的五个季度中,公司主力芯片Blackwell和下一代芯片Rubin的订单至少有5000亿美元,这个数字是英伟达此前年收入的两倍还多。 表面上看,“狂飙突进”仍在加速,甚至每一次破纪录都像是新的指数级增长曲线的起点。 但在风光背后,从芯片到云,从大模型到应用,一系列技术、产业与社会的变化正在发生,某种约束已若隐若现:Scaling Law(缩放定律)和通用GPU多年来的统治地位受到挑战,云厂商巨额Capex(资本开支)的验证时间窗口收窄,“定制化”和“个性化”等分布式需求愈发吃重,让集中式的迅猛增长有落潮之虞。 一边狂赚千亿,一边“友谊破裂” 作为AI大模型时代并驾齐驱的造浪者,今年以来,英伟达与OpenAI之间的关系明显松动。 年初,媒体爆出英伟达不满OpenAI的商业策略,欲大幅削减投资。此后,又有消息称,OpenAI对英伟达最新芯片在推理环节的表现不满,会继续探索替代方案。 传言难以证实,但英伟达在OpenAI新一轮融资中出资300亿美元,相较此前的千亿美元投资方案明显缩水。 在3月4日的摩根士丹利TMT会议上,黄仁勋亲口表示,这次投资“可能是最后一次”,去年11月被他称为“一代人仅有一次机会”的千亿美元合作大概率会不了了之。 为什么会突然发生这样的转变?背后有些行业趋势值得探讨。 首先是,Scaling Law和GPU性能提升飞轮,已有触顶迹象。 计算机科学家伊利亚·苏茨维克(Ilya Sutskever)已表示,此前Scaling Law能够主导大模型发展,是因为预训练的道路走通了。谁的大模型喂得越饱,就显得越聪明。但随着大模型领域竞争白热化,高质量、结构化的公开数据实际上已被吃尽。 光有算力不足以支撑这条路走到头。 业界对Scaling Law的未来,有很多讨论,比如转向后训练,转向推理时扩展,或者改进Transformer核心架构。 但拆解这些方法,其关键词多与“提升效能”、“合理分配算力”和“特定领域针对性优化”相关联,实际上,也意味着预训练阶段的性能跃迁不会再现。 GPU面临的境况是相似的。 在Scaling Law时代,成熟度高、通用性和灵活性强、适合大规模并行运算的GPU,无疑是大模型的最佳搭档。其性能在近十年间飞速进化,是大模型能力提升和规模化复刻的重要动力。所以,尽管英伟达产品售价极高,毛利率常年在75%左右,还是屡屡供不应求。 半导体行业知名研究机构SemiAnalysis分析称,芯片领域先进制程的演进速度已明显放缓,典型案例是台积电3nm带来的性能增幅与成本增加已不成正比。 全球计算联盟GCC数据也显示,摩尔定律放缓正导致AI芯片性能增幅下滑,2018-2022年间,AI芯片性能年均提升50%,到2023-2025年已降至20%以下(未计入尚未量产投入市场的新一代产品)。 而就在2025年,追求特定场景下更极致的性能,功耗更低、体积更小、量产后成本更优的定制化AISC芯片强势崛起。 以谷歌TPU的市场良好反馈为标志,其市占比开始向GPU发起挑战。而包括Meta、亚马逊、微软乃至OpenAI等都在加紧自研AISC芯片,2026年预计就将迎来量产和商业化的集中爆发期。 资料来源:各公司官网、野村证券、公开报道;作者制表 这条技术多元化路线的核心,又是“定制化”“高效能”“低延迟”和“性价比”,实际就是通用硬件效率狂飙的阶段已经落幕。 从这个视角再来看,OpenAI与英伟达之间隐现的“友谊裂痕”,所谓不满芯片推理表现,是因为GPU不再能通过“暴力破局”来“包打天下”。而所谓对商业策略有疑义,则是在大模型能力“无限增长”故事讲不下去后,希望确证能有可观商业回报维持其需求的稳定。 是谁在给英伟达们“泼冷水”? 当然,性能增幅放缓绝不意味着需求会骤降,反而可能推动更加平稳、持续的增长。而在2025年“DeepSeek冲击波”中,描述效率优化往往导致消耗总量增加的“杰文斯悖论”也屡被提及。 不过,前提是尽快切换到更加“细水长流”的发展模式,而目前AI产业的惯性动能,却与此存在一定错位。 最核心的,是拼命压缩时间周期可能带来的系统性病灶。 早期以GPU为主的AI芯片,迭代周期约为18-24个月。随着AI热潮来临,需求方竞争压力加剧,对迭代速度的渴求愈发极端,这让英伟达和谷歌等将芯片迭代周期压缩到“年更”。 但即使这样还是不够。 目前,顶尖大模型基本每三个月就要迭代一次。SemiAnalysis创始人迪伦·帕特尔(Dylan Patel)此前在参与The MAD Podcast with Matt Turck播客节目时表示,即使芯片厂商将迭代周期压缩到半年,也无法很好适配模型进步的速度,也难言确保自身优势。 即使芯片和模型的性能增幅双双放缓,这种“赛跑”也未见稍显的迹象。 而考虑到前文提到的制程、技术演进等方面的瓶颈,以及美国能源供给方面愈发紧迫的硬性约束,结果可能演变成跑着跑着增长动能断档,甚至双双“撞墙”,让原本可能在斜率放缓中更加平衡的供需被打破。 更不可小觑的是这种“赛跑”对Capex的依赖。处在芯片与模型之间,被这种“你追我赶”来回拉扯的云厂商,承担了最集中的资本支出,他们往往同时也涵盖AI业务,投资与回报都面临风险和压力。 根据亚马逊、微软、谷歌、Meta和甲骨文这五大云厂商披露的信息,其2026年Capex总额将超过7000亿美元。 数据来源:公司财报及电话会议;作者制图 按照较为传统的算力基础设施五年折旧周期来计算,大约对应1400亿美元的AI销货成本,这对AI行业目前的ARR(年度经常性收入)来说是天文数字。虽然OpenAI预计2026年ARR能够突破450亿美元,Anthropic也有望达到类似规模,但这两巨头本身的市占比已接近八成,即使不考虑利润,行业的净收入也很难支撑资本开支。 而正是由于芯片和模型迭代速度越来越快,市场对折旧周期的计算也产生了疑惑。 知名投资人“大空头”迈克尔·伯里(Michael Burry)自去年起,就一再“炮轰”当下的折旧周期不符合实际,认为如今AI芯片的实际经济价值可能在2-3年内就会因技术过时而大幅衰减。 虽然此类观点争议颇多,但如果大模型和芯片的“赛跑”继续,甚至还要加速,那么,有关折旧周期的质疑只会越来越多。 而且,资本端的超额支出,往往以Scaling Law和大模型性能的继续跃迁为由。从前文提及的趋势来看,Scaling Law的退潮,也会让Capex的狂飙不再“师出有名”。 2025年下半年至今,云巨头的投资回报率(ROI)愈发成为市场瞩目的核心指标,美股对缺乏利润增长的Capex往往报以抛售,典型如微软,其公布的财报营收、净利均超预期,但股价随即暴跌10%。 而芯片企业即使持续创造新的纪录,但以去年11月英伟达市值从5万亿高点回落为节点,市场始终未给出匹配增速的估值溢价,空头声音反而愈发显眼。 这些,也构成了时下盛行的“AI泡沫论”的核心焦虑。 不过,值得注意的是,相较于泡沫本身的存在与规模,人们看待和对待其方式,可能更加重要。 当市场持续不给单纯的拼规模、拼速度以正向反馈后,这一趋势更可能会以几次阵痛为代价放缓步伐。 目前芯片大厂和部分大模型、云厂商对未来两年已有明确规划,迭代速度和支出规模可能仍然维持高位,高盛也预测2025至2027年是AI服务器出货量增长最迅猛的三年,其中增速峰值出现在2026年。 但在这之后,全产业链的增长可能都会面临结构性放缓。 如果只在商业和技术层面考虑,对AI增速形成影响的变量还有很多,但最近两大标志性热门事件,为AI产业的发展,蒙上了一层不确定性阴影。 其中一个就是,Citrini Research的《2028全球智能危机》(The 2028 Global Intelligence Crisis)。 报告几乎是以“近未来科幻”的方式,描述了从2025年末起Agent(智能体)登堂入室开始,直到2028年人类社会在新的AI时代可能面临的窘境。 图片来源:CitriniResearch 报告本身是虚构,且先进技术替代人类工作种类,也不是什么新鲜论调,但是,当下的时点讨论这个问题,却意外引发空前共鸣。 毕竟,就在2026年初,OpenClaw、Anthropic的Claude Cowork及一系列Agent插件的出现,将AI的“替代力”十分直接地摆上了台面。 在种种预警和焦虑下,人类社会加以反制AI吗? AI发展得越快,替代性危机的发酵就可能越快,但AI落地真实工作场景的实战能力和可持续性,却需要进一步探索,但显然,我们正在看到的景象是,大小公司集体AI化的步调已经加快了。
Claude凭空造假强行部署,比黑客更可怕的入侵者!Vercel CEO紧急预警
编辑:定慧 【新智元导读】Vercel CEO亲自曝光了一起令人后背发凉的AI安全事件:一个基于Claude Opus 4.6的AI编程智能体,在执行部署任务时没有调用任何查询接口,直接脑补了一个9位数的GitHub仓库ID——而这个凭空编造的数字,恰好对应了一份真实的学生作业,并被成功部署到了企业生产环境中。 故事要从最近一位Vercel用户被诡异的「入侵」说起。 如果你不熟悉Vercel——这是全球最流行的前端部署平台之一,OpenAI的官网、Perplexity的实时聊天功能都跑在上面,超过600万开发者在用它。 它的创始人兼CEO Guillermo Rauch也是前端圈的传奇人物,Next.js框架就是他主导创建的。 但是他用「极其可怕」来形容这场AI入侵事件。 某天,一位Vercel用户照常登录自己团队的控制台,准备检查最近的部署情况。 然而,在项目列表里,他发现了一个完全陌生的开源库——一个他从未见过、团队里也没有任何人引入的项目。 这是什么?谁干的?是不是被黑了? 你能想象那种感觉吗?就好像你回到家,发现客厅沙发上坐了个陌生人,手里还端着你的杯子喝茶。 这位用户吓得不轻,赶紧排查。 很快,调查结果出来了:这不是什么黑客攻击,也不是内部成员的误操作。 真正的「肇事者」,是团队里正在使用的一个AI编程智能体。 更具体地说,这个AI智能体基于Anthropic的Claude Opus 4.6模型。 而它犯下的错误,比任何人类程序员会犯的bug都要离谱得多。 AI的脑补有多离谱 Vercel的CEO Guillermo Rauch亲自在社交媒体上披露了这起事件的细节,读完之后,整个就是感到一个「惊悚」。 事情是这样的:这个AI智能体在执行一项部署任务时,需要调用Vercel的API,而API要求传入一个GitHub仓库的ID。 正常流程是什么? 当然是先去调用GitHub的查询接口,拿到正确的仓库ID,然后再传给Vercel。 但这位AI没有这么做。 它压根没有调用GitHub的任何查询接口。 它直接,注意!是直接「脑补」出了一个9位数的仓库ID,然后一脸自信地把这个凭空捏造的数字传给了Vercel的部署API。 你猜怎么着?这个随机编造的ID,恰好在GitHub上对应了一个真实存在的仓库。而那个仓库里放着的,是某位大学生的课程作业。 于是,一份某不知名学生的作业代码,就这样稀里糊涂地被部署到了一个完全不相关的企业团队环境中。 如果你觉得这像是一个冷笑话,那你可能还没意识到这件事有多恐怖。 这不是普通的bug Rauch在分析这起事件时,特别强调了一个关键点:这种错误和人类犯的错误完全不一样。 人类程序员会犯什么错? 拼写错误、差一错误(off-by-one)、复制粘贴忘改参数——这些都是有迹可循的、合乎逻辑的失误。 哪怕是最粗心的程序员,也不会在需要查询数据库的时候,直接编造一个假的查询结果然后继续往下走。 但AI就干了这件事。 它没有报错,没有提示我找不到这个仓库,没有任何犹豫。 它就像一个极度自信又极度不靠谱的新员工,老板说帮我查一下张三的工号,他连人事系统都没打开,直接回了一句12345,然后帮你把文件发给了一个陌生人。 而且,更细思极恐的是:这个12345居然还恰好对应了一个真实存在的人。 Rauch用了一个很精准的说法来描述这种现象:AI的失效模式(failure mode)与人类的逻辑迥异。 哪怕是当前最智能的大模型,当它出错的时候,它出错的方式也是人类难以预料的。 人类犯错是在正确答案的附近波动,AI犯错是在整个宇宙里随机选了一个点。 而最可怕的是,AI在犯这种离谱错误的时候,它的自信程度和回答正确时一模一样——没有任何迟疑,没有任何我不确定的提示。 对于下游系统来说,一个由AI凭空编造的参数和一个正确的参数,看起来没有任何区别。 这才是最恐怖的,这不是错误,所以很难被发现。 代码投毒的阴影 好消息是:这次被误部署的只是一份无害的学生作业。 没有恶意代码,没有数据泄露,只是一场虚惊。 但坏消息是:这让整个开发者社区开始思考一个更可怕的可能性——如果AI幻觉指向的不是一份无辜的作业,而是一个精心设计的恶意仓库呢? 想象一下这样的攻击场景: 攻击者在GitHub上创建大量看似正常但暗藏恶意代码的公开仓库。 这些仓库的ID覆盖了一定的数字范围。 然后,他们只需要等待——等待某个AI智能体在某次执行中,凭空编造出一个恰好落在这个范围内的ID。 这就像在大海里撒下了成千上万的钓鱼钩。 不是要钓人类,而是要钓AI。 你甚至可以把这理解为一种全新的供应链攻击。 传统的供应链攻击需要入侵真实的依赖库,需要社会工程学,需要很高的技术门槛。 但如果AI自己会虚构依赖关系,那攻击者甚至不需要做任何主动入侵——只要在那里等着,等AI自己撞上来就行。 这种攻击模式在过去几乎不可能发生,因为人类开发者不会凭空编造一个包名或仓库地址。 但在AI Agent时代,幻觉成了一个全新的攻击面。 安全研究人员甚至给这类风险起了个名字,叫包幻觉攻击(Package Hallucination Attack): 利用AI倾向于编造不存在的包名或仓库名这一特性,提前注册这些名字并植入恶意代码。 等着那些听信了AI建议的开发者——或者更危险的,AI Agent自己——把恶意包安装到真实项目中。 AI有了手脚,犯错就不再是小事 过去两年,AI写代码的能力突飞猛进。 从最初的Tab补全这行代码,到现在的从零搭建一个完整项目并部署上线。 AI正在从一个给建议的顾问,变成一个能直接动手干活的工人。 而这,恰恰是问题所在。 当AI只是在聊天框里给你建议的时候,它说错了你大不了不采纳——这叫幻觉,顶多浪费你几分钟时间。 但当AI获得了API的调用权限、获得了命令行的执行能力、获得了部署到生产环境的权力时,同样的幻觉,后果就完全不一样了。 一个只能打字的AI说了假话,你笑笑就过去了。 一个能按按钮的AI说了假话,你的生产环境可能就炸了。 这就是Rauch为什么如此重视这次事件——它不只是一个bug report,它揭示了一个结构性的安全问题: 当我们给AI越来越多的执行权限时,我们的安全模型还跟得上吗? 正如Vercel安全团队在后续的博客文章中写到的:目前大多数AI Agent在运行生成的代码时,对Agent本身和它生成的代码之间几乎没有任何安全隔离。 也就是说,AI Agent产生的代码可以完全访问你的密钥、你的文件系统、你的生产基础设施。 一旦AI产生幻觉或被提示注入(prompt injection)攻击利用,后果不堪设想。 这不经让人想起,最近爆火的OpenClaw。 有人总结了目前能够被监控到的所有被暴露在公网的OpenClaw智能体。 都有被注入的风险。 安全护栏在哪里 Rauch在披露这起事件后,也给出了他的建议。核心思想只有一个:不要让AI拥有不受约束的执行权限。 具体来说,他建议开发团队: 第一,使用经过深度安全设计的集成工具,比如Claude Code这类专门为AI编码设计的工具,而不是简单地把AI接到不受限的命令行或API上。这些工具在设计时就考虑了权限边界的问题。 第二,增加护栏(Guardrails)。什么是护栏?就是在AI和真实系统之间加一层检查。比如,AI想要部署一个仓库,系统应该先验证这个仓库ID是否真的来自一次真实的API查询,而不是AI凭空编造的。API端也应该校验:这个仓库是否属于这个用户的团队?调用者是否有权限部署这个仓库? 第三,遵循最小权限原则。AI Agent只应该获得完成当前任务所必需的最小权限集。不需要部署权限的任务,就不要给部署权限。不需要删除权限的任务,就不要给删除权限。这听起来是老生常谈,但在AI Agent的语境下,执行起来比传统软件开发要难得多——因为AI的行为是不确定的。 Vercel后来还专门发布了一篇关于智能体架构中的安全边界的深度技术博客,其中提到了一个非常形象的威胁模型: 假设一个AI Agent在读取日志文件时,日志里被攻击者嵌入了一段精心设计的提示注入。 这段注入指示AI编写一个脚本,把服务器上的SSH密钥和AWS凭证发送到外部。 如果这个AI Agent有执行代码的能力,这些凭证就会被窃取。 解决方案很明确:需要在AI Agent、生成的代码和真实基础设施之间划清安全边界。 AI读文件的权限、写文件的权限、执行代码的权限、访问网络的权限,都应该被严格隔离和控制。 彩蛋:OpenAI秘密自研代码平台 说到开发者的基础设施安全,另一条爆炸性新闻也在同一时间引爆了科技圈。 据The Information独家报道,OpenAI正在秘密开发一款内部代码托管平台,目标直指微软旗下的GitHub。 消息一出,科技圈一片哗然——毕竟微软是OpenAI最大的投资方,累计投入超过130亿美元。 拿人手短,还要挖人墙角? 导火索是什么?还是GitHub频繁的宕机。 2025年下半年以来,GitHub的服务中断次数明显增多。尤其在2026年2月,一天之内竟然出现了五次宕机。 和上面的新闻连起来看,就是编程的基础设施Git可能要面临一次大洗牌了。 写在最后 人类犯错的时候,至少会觉得这里好像不太对。 AI犯错的时候,它的自信程度和正确时一模一样。 这才是最可怕的地方。 Rauch的那句话值得每个开发者刻在屏幕上方:即使是最智能的模型,其失效模式也与人类逻辑迥异。 对于每一个正在使用或计划使用AI Agent的团队来说,现在就是该认真审视安全护栏的时候了。 不是等到AI把恶意代码部署进你的生产环境之后——那时候,可就不是一份学生作业那么简单了。
SeeDance2.0降智,字节却成为硅谷门外的“野蛮人”?
文 | 道总有理 排队、降智、审核不通过…年初引爆科技圈、被称为“当前地表最强”的字节系视频模型Seedance 2.0,正在从最初的惊艳转变为层层的质疑。 根据《每日经济新闻》记者在27日下午高峰时段以基础会员身份实测发现,排队人数平均保持在9万左右,在排队7小时后,仍显示预计还需3小时才能完成生成任务。这种排队拥堵现象在Seedance 2.0模型上线后已成为常态,更糟心的是排队排到怀疑人生,好不容易快好了,结果审核又不通过。 很多用户还吐槽,Seedance正在悄悄“降智”。同样的提示词,现在生成的视频效果与刚发布满血时生成的视频相比大打折扣,不仅理解力下降,前后一致性不足,复杂动作容易蹦,还经常出现意义不明的分镜。这让Seedance再次沦为“抽卡游戏”。 究其原因,算力瓶颈抑制了模型能力的展现,内容版权保护的大旗则为模型的调用和升级带来限制。尤其是后者,来自好莱坞传统内容巨头的一致性讨伐,给初出茅庐的Seedance带来了巨大的压力,使其不得不低头。 而在AI竞赛的关键节点,这是否会给国产大模型的逆袭带来变量? 成为下一个Sora? 从惊艳到降智,巨大的落差以及超长的排队,让不少用户开始放弃Seedance,纷纷要求退款。 一位用户表示,第一次体验Seedance时,感觉非常震惊和兴奋,可前几天再用,生成出来的东西简直离谱,堪比以前的“史密斯吃意面”。他还称,“降智就算了,审核不通过才是最痛苦的,同一个prompt,连抽四次卡,一没有用真人素材,二不生成任何色情血腥暴力内容,结果不告诉任何理由就说违规了”。一气之下,他直接选择退款了。 两年前,Sora横空出世,凭借远超主流时长的长视频生成能力,以及强大的物理世界理解能力和场景连贯性,一夜刷屏全球科技圈;两年后,Seedance2.0开启小范围测试,电影级画面特效、精准的音画同步以及专业的多机位“拍摄”效果,几乎到达了影视工业的交付标准,这给行业带来了更大的震动。 可就在我们以为AI工具将要颠覆整个内容产业时,故事似乎又要戛然而止,因为Seedance和Sora一样再次被“卡”在内容版权上,而Sora的高开低走,很可能已经为Seedance的未来写好了结局。 去年,OpenAI发布视频生成模型Sora 2.0,网络上一度涌现大量用户利用Sora生成知名IP(如皮卡丘、马里奥)的AI同人视频,相关视频内容获得了广泛传播及使用。用户还没来得及欢呼,好莱坞三大经纪公司联手反击,迪士尼等巨头与行业协会同步施压,要求OpenAI承担侵权责任。 OpenAI不得不改变模式和规则,要求用户未经明确授权不得使用受版权保护的形象,并上线了内容过滤机制。 新版本上线时,Sora App首日即突破 10 万次下载,并在邀请制状态下快速实现百万下载量,增长速度超越 ChatGPT。 但12 月,其下载量环比下降 32%,今年 1 月,下滑趋势未改,下载量环比大幅下降 45%,降至约 120 万次,用户的应用内消费总额同期环比下降 32%,为 36.7 万美元。 从Sora到Claude再到现在的Seedance,我们可以看见,在传统内容巨头以版权保护为由的施压下,这些原本能力有所重大突破的大模型都出现了降智的现象,严重削弱了其作为生产力工具的价值。而且更明显的是,不能随意使用经典IP进行AI创作,大大降低了用户的创作热情,导致活跃度直线下降。 报道表明,许多用户对于使用现实形象制作 AI 视频的兴趣不高,无论是内容创作者还是普通用户,都更倾向于以大众熟知和喜欢的经典IP为主要角色进行二创。如今,Seedance不仅限制使用有版权的经典IP,甚至连真人上传都禁止了,毫无疑问,这对用户体验是一个重大打击。 再惊艳的模型能力,如果无法带来稳定的、高效的、创新的使用体验,用户失去新鲜感是迟早的事,而技术优势如果不能持续转化为用户习惯和平台壁垒,其领先地位可能也会被追平。 攻守正在易位 大模型引发一轮又一轮版权风波的背后,是生成式AI自诞生以来便悬而未决的法律问题:未经授权,使用海量受版权保护的作品训练商业化AI模型,是否构成版权侵权? 不容否认的是,AI随意抓取和使用大量受版权保护的图片、视频和文字,用来训练,再生成大量可能具有相似性的内容,都很大程度上触及侵权。更何况以自己的内容成果“喂养”AI、让其诞生能够取代自己的工具,大部分内容创作者都接受不了。一位创作者表示,无视版权保护,等于无视创作价值。 然而,AI技术的进步和突破是否会被困在版权保护中呢?又或者说旧有的法律框架是否“拖累”了AI技术的发展呢? 表面上,以迪士尼为代表的好莱坞影视巨头集体抵制Seedance,是为了捍卫内容版权的“正义性”,可在技术竞赛背后的大国博弈中,版权保护会不会沦为一种牵制国产大模型发展的“政治工具”? 往坏的方向想,如果国产大模型被版权保护戴上“紧箍咒”,限制使用海外优秀内容及IP,而迪士尼等巨头却转头为“自家”大模型放开限制,这可能会影响中外大模型的公平竞争。 不过从美国大模型的发展现状来看,影视巨头的反击一次比一次猛烈,想要借助强制性力量,让他们牺牲自身利益为AI技术让步,几乎是不可能的。尤其是Seedance2.0的出现,彻底放大了影视巨头们的危机。以前,一段AI视频的生成,需要反复生成几十次甚至上百次,效率低、成本高、内容质量不稳定,很难达到影视制作的标准。而Seedance 2.0能在几分钟之内,将一段简单文字提示转化为带有专业运镜、灯光和分镜切换的“大片”。 不少专业人士称,在镜头逻辑、音乐、音效和运镜合理性上,这些视频已经达到可商业交付的水准。 AI视频颠覆的将是美国好莱坞那套引以为傲的工业级影视制作流程,这牵扯到众多影视巨头的既得利益,更重要的是将威胁它们在整条内容产业链长期形成的话语权。 因为一旦拍摄、剪辑、特效等环节的工作被技术重塑,或者直白点来讲,AI工具“消灭”掉传统产业链上“多余”的流程,整个内容的制作很可能会变得越来越依赖AI技术。虽说AI工具承担的是“辅助者”的角色,可如果未来技术主导内容,传统内容巨头是无法接受的,何况,这些技术产物的背后是新兴科技巨头,在商业利益中,谁也无法保证技术对谁都公平。 这也是为什么迪士尼等巨头“平等”地重创所有AI大模型,而在这种形势下,中美大模型之间“攻守正在易位”的事实,不会因版权风波而改变。甚至我们可以想象,在未来更多的赛道,我国的AI技术仍将继续上演逆袭的故事。 硅谷门外有了“野蛮人”? 一年前的春节,DeepSeek抛出重磅炸弹,宣布开源DeepSeek-R1模型,声称其性能足以比肩甚至超越OpenAI、Anthropic和Meta的顶尖AI模型,同时训练成本却低得多,一时间,硅谷惊呼四起,恐慌蔓延。DeepSeek的问世,是一个标志性的技术事件,它意味着在漫长AI竞赛中,中国的科技力量真正意义上动摇了美国掌控前沿技术的信心。 只是,令外界有些失望的是,DeepSeek的后续发展多少有些高开低走,原本期待了一个多月的DeepSeek V4,至今还杳无音讯。 根据全球最大的AI模型API聚合平台OpenRouter最新数据显示,上周(2月23日至3月1日),全球调用量排名前五的模型中,中国模型占据三席。其中MiniMax M2.5蝉联榜首,DeepSeek V3.2排名第三。而在C端市场上,豆包的月活跃用户规模早已经超越了DeepSeek,稳坐第一。 虽然没有等来DeepSeek V4,可Seedance 2.0复刻了一个新的“DeepSeek时刻”,在视频生成领域掀起“海啸”,再次冲破了美国大模型的领先优势,引发传统内容产业和AI新兴产业的共同危机。 对比这两次标志性事件,DeepSeek惊艳亮相后,虽然凭借领先的大模型能力,迅速打开市场,可期待值被无限拉高后,实际体验上却存在落差,用户对其从狂热转向冷静。这和其背后是一个没有大厂支持的初创公司不无关系,无论是产品的迭代速度还是功能改善,我们可以看到DeepSeek的脚步相对缓慢。 但Seedance不同,它的背后站着一个拥有内容、电商、本地生活等业态,聚集庞大用户体量并擅长以闪电战进入不同赛道的巨头,这意味着在有了核心技术后,字节跳动所展现出的竞争力将更强大。 或许这个时候,硅谷的科技巨头才意识到,相比DeepSeek这种不知道潜伏在哪里的科技“新贵”,字节跳动更具危险性。 回溯过往,从门户时代的今日头条,到电商混战中的抖音直播,再到AI浪潮下的豆包手机、Seedance 2.0,字节跳动对于新赛道的跨界,几乎都面临着来自行业巨头的围剿,可它却能够多次抓住时机、迅速成长,在行业的“旧秩序”中开辟出新天地,成为新的王者。 这种擅于打破规则、重新建立起新规则的“战斗基因”,很显然更能适应技术突飞猛进、日新月异的AI时代,从豆包到Seedance 2.0,都证明了这一点。而且当字节跳动在AI时代拥有了越来越多的“王牌”,不仅能够增加其在新时代提前“占位”的几率,也将让其传统业务在新技术的改造下更强大,而不至于被颠覆。 当然,当前技术的快速发展仍限制于维护行业整体利益的传统框架内,这给拥有技术优势的企业带来了难题。可正如AI视频领域,Seedance2.0的出现和爆发,已经将内容行业推向一个混乱与重建的新阶段,在这种变化下,机会是属于创新者的。 而值得庆幸的是,越来越多的创新者正从国内诞生。
三星Galaxy S26 Ultra手机确认首发ALoP镜头
IT之家 3 月 7 日消息,科技媒体 Android Authority 今天(3 月 7 日)发布博文,报道称三星 Galaxy S26 Ultra 手机的 5 倍长焦镜头启用 ALoP(棱镜上置镜头)技术,并在营销中弃用“潜望式”概念。 IT之家援引博文介绍,ALoP 全称为 All Lenses on Prism,是一种新型智能手机相机架构,将镜头元件直接放置在用于折射光线的棱镜上方,而非传统的前后排列。 通俗理解就像把原先平铺开的放大镜折叠起来叠罗汉,既节省了手机内部空间,又能放入更大的镜片来增加进光量。 而潜望式镜头(Periscope Lens)是指利用棱镜将光线折射 90 度,从而在手机轻薄机身内实现长距离光学变焦的镜头设计。通俗理解:原理类似潜水艇的潜望镜,通过镜子拐弯看风景。 三星为了凸显这一重大的硬件架构变革,在官方宣传材料中,彻底抹除了以往标志性的“潜望式镜头”字眼。对于普通用户而言,这项底层架构升级,会直接改善夜景与人像拍摄体验。 科技媒体 GSMArena 分析指出,由于光线进入相机后最先接触的不再是矩形的棱镜切面,Galaxy S26 Ultra 的 5 倍长焦镜头如今能够呈现出更加平滑、柔和的圆形散景,完美解决了上一代 Galaxy S25 Ultra 在拍摄失焦光源后,容易形成生硬矩形光斑的视觉痛点。 不过该媒体也指出,新架构在带来极致进光量与绝美散景的同时,也在物理光学特性上做出了妥协。实测数据显示,Galaxy S26 Ultra 这颗 5 倍变焦镜头的最近对焦距离,从前代的 26 厘米退化至 52 厘米。 对于热衷于使用长焦镜头捕捉花卉、昆虫等近距离特写画面的摄影爱好者而言,这无疑削弱了手机的微距创作能力。
问界M7车主控诉车库撞墙 网友秒破案:环氧地坪+水 下坡还主动加速
快科技3月7日消息,近日有问界M7车主连发三条视频控诉爱车“刹不住”导致撞墙,然而评论区网友几乎清一色地站到了车企一方。 自动播放 从行车记录仪、地库监控拍摄的画面看,此事发生在今年2月14日,当天这台M7在下地库后正常行驶,进入车库一层后可以看到地面上出现明显的水痕。 驾驶员继续开车往地下二层去,需要经过一个陡坡,等到升降杆抬起后,这台M7继续往下走,速度很快就超过了10km/h。 然而让人没想到的是,车主竟然在此时选择踩踏加速踏板,使得车速超过30km/h,二层地面积水更多,加上环氧地坪,即便车主踩刹车想要制动但为时已晚,最终一头撞到了墙上,撞车时车速也有20km/h。 车主将视频分享到网上后,并表示新车刹不住,没想到评论里几乎没有人支持她,网友纷纷表示,有水的环氧地坪还敢开到30km/h,胆子是真的大,技术是真的菜。 据了解,不少地下车库普遍采用环氧地坪,这种材料优点非常多,耐磨、易打理、反光强、不起尘。 然而它是致密光滑的树脂涂层,表面无孔隙、不吸水,一旦有水,水分无法渗入地面,会在车轮与地坪之间形成一层连续薄水膜,相当于液体润滑层,直接把两者物理接触隔开。 制动时,原本靠接触产生的静摩擦,瞬间变成阻力极小的滑动摩擦,抓地力大幅丧失,就和在冰面刹车同理,制动力基本失效,使得打滑和刹不住的风险会成倍升高。 因此建议大家雨天开车进环氧地坪的地库时一定要放缓车速,严格按照限速5km/h的标准,不要急加速、急刹车、猛打方向,谨防车辆失控。
花甲老太实测比亚迪闪充桩:悬吊设计超人性 一点儿不费劲
快科技3月7日消息,近日,比亚迪重磅发布了全新的闪充桩,号称是“对用户最友好的充电桩”。 一位虚岁63岁的花甲老太对这种闪充桩进行了实测,老人单手便能轻松完成充电枪的滑动操作,插拔也不用跟充电线较劲,打破了大功率充电桩操作费力的固有印象。 常规快充桩对女生很不友好 比亚迪这款闪充桩采用全球首创的滑轨悬吊T型桩设计,2公斤枪线始终保持悬空状态,彻底摆脱传统充电桩线缆拖地、冬季硬化的问题。 顶部滑轨可灵活左右滑动,适配不同车辆的充电口位置,枪头还带有自动转向功能,无论是插拔还是移动,单手就能轻松完成,即便是老人也能操作自如。 自动播放 除了操作便捷,这款闪充桩的性能同样亮眼,单枪最大功率达1500kW,整站最高2100kW,充电5分钟就能为车辆补充400-500公里续航,补能速度堪比加油。 内置的储能电池能缓冲电网压力,让建设成本比传统兆瓦超充桩降低六成,还支持功率智能分配,双枪独立控制可同时为两辆车充电。 搭配比亚迪闪充App,该充电桩还能实现即插即充、无感支付等功能,不仅适配比亚迪全系闪充车型,还兼容第三方1000V高压车型。 据规划,比亚迪今年内将建成4000座闪充站、15000个合作站点,让便捷的闪充体验覆盖更多出行场景。
抖音副总裁回应委员对AI手机助手误解:可提供测试版手机供调研了解
快科技3月7日消息,近日,全国政协委员李萌娇受访时称,建议完善针对手机AI助手权限的安全管理体系,保证既要快速发展、又能守住安全底线。 她认为,目前手机AI助手存在过度收集个人信息的问题,需要制定行业标准、弥补技术漏洞,并对相关法律法规进一步规范,加大对过度收集个人用户信息的惩戒力度。 李萌娇委员举例称,当下有一种手机AI助手,基本可实现“接管手机”,通过“视觉读屏﹢模拟点击”,直接调用手机底层系统权限,连续操作数十个界面,在用户缺乏感知的情况下自主执行多个关键操作,甚至一封恶意邮件就能“骗过”手机AI助手,直接把用户银行验证码发给攻击者,给用户人身和财产安全造成巨大威胁。 而且,这种手机AI助手对用户行为与个人信息的了解更为全面,其信息获取权限的无边界扩张甚至会造成“数字上帝”的出现,即“比用户本人都更了解自己的数字档案”。 对此,抖音集团副总裁李亮回应称:“感谢李萌娇委员对AI安全的关注。但这段发言应该是受到了某些的误导,把黑客恶意攻击行为和手机AI助手的合规技术能力混为一谈。” 他强调,正规AI手机助手的所有操作都需要用户主动发起,整个过程用户都是可感知、可查看、可随时接管的。 涉及账号登录、身份验证、交易支付等敏感环节,AI会停止自动操作,由用户接管亲自操作。 李亮表示:“AI安全是AI产业健康发展的生命线,我们欢迎所有基于客观事实、专业认知的监督与建议。如果李委员有兴趣,我们可以提供测试版的手机供调研了解。只有了解客观事实,才能更好地建言献策。”

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。