EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
浙江首个,温州市人工智能局正式挂牌成立
IT之家 9 月 3 日消息,据潮新闻,温州市人工智能局于今天下午正式挂牌成立。浙江省委机构编制委员会办公室此前批复同意温州市数据局加挂温州市人工智能局牌子,这是浙江省首个挂牌的人工智能局。 IT之家从报道中获悉,该局主要职责包括拟定并组织实施全市人工智能发展规划和政策,统筹推进全市算力、语料、算法等相关基础设施布局建设,牵头推进全市“人工智能 + 行动”,以及开展人工智能领域企业、人才引育服务等。 温州市数据局(市人工智能局)负责人介绍说,“加挂人工智能局牌子,不是形式上的机构叠加,而是城市未来发展战略赋予我们的新使命。我们将坚决履行好牵头抓总职责,强化部门协作、市县联动和政产学研投协同创新的工作机制,全面放大‘数据要素 ×’‘人工智能 +’的协同效应,助力温州加快打造人工智能创新发展先行市。” 同时,在今天举行的温州全市人工智能创新发展大会上,《温州市“人工智能 + 教育”三年行动计划(2025—2027 年)》发布。文件提出,温州将构建多层次的人工智能课程体系,明确通识课程各学段每学年不少于 10 课时。同时,为提升学科教师在人工智能教学领域的应用力,温州将市、县、校联动开展学科教师“AI 素养提升”专题研修和 AI 应用力全员培训。 到 2027 年,中小学初、中、高阶课程学校覆盖率分别达 100%、60%、20%,高校人工智能通识课程覆盖率达 100%。
多模态通用感知能力超越GPT-5,书生・万象3.5大模型开源
IT之家 9 月 3 日消息,上海人工智能实验室(上海 AI 实验室)今日宣布开源通用多模态大模型书生・万象 3.5(InternVL3.5),其推理能力、部署效率与通用能力全面升级。 InternVL3.5 本次开源有 9 种尺寸的模型,参数涵盖 10 亿-2410 亿,可满足各场景需求。其中,旗舰模型 InternVL3.5-241B-A28B 在多学科推理基准 MMMU 中获 77.7 分,为开源模型中最高分;多模态通用感知能力超越 GPT-5,文本能力领跑主流开源多模态大模型。 与 InternVL3.0 相比,InternVL3.5 在图形用户界面(GUI)智能体、具身空间感知、矢量图像理解与生成等多种特色任务上实现显著提升。 本次升级,上海 AI 实验室研究团队重点强化了 InternVL3.5 面向实际应用的智能体与文本思考能力,在 GUI 交互、具身空间推理和矢量图形处理等多个关键场景实现从“理解”到“行动”的跨越,并得到多项评测验证。 GUI 交互部分,InternVL3.5 在 ScreenSpot-v2 元素定位任务以 92.9 分超越同类模型,同时支持 Windows / Ubuntu 自动化操作,并在 WindowsAgentArena 任务大幅领先 Claude-3.7-Sonnet。 在具身智能体测试中,InternVL3.5 表现出理解物理空间关系并规划导航路径的能力,在 VSI-Bench 以 69.5 分超过 Gemini-2.5-Pro。 在矢量图形理解与生成方面,InternVL3.5 在 SGP-Bench 以 70.7 分刷新开源纪录,生成任务 FID 值也优于 GPT-4o 和 Claude-3.7-Sonnet。 具体来看,InternVL3.5 可跨 Windows、Mac、Ubuntu、Android 等多个平台,识别界面元素并自主执行鼠标、键盘操作,实现恢复已删除文件、导出 PDF、邮件添加附件等任务的自动化。 InternVL3.5 具备更强的 grounding 能力,可以泛化到全新的复杂大量小样本的具身场景,配合抓取算法,支持可泛化的长程物体抓取操作,助力机器人更高效地完成物品识别、路径规划与物理交互。 作为上海 AI 实验室书生大模型体系的重要组成部分,InternVL 聚焦视觉模型技术,InternVL 全系列全网下载量已突破 2300 万次。
TechInsights:英特尔2024研发投入165.5亿美元为半导体行业最多
IT之家 9 月 3 日消息,市场研究机构 TechInsights 本周二发布的报告显示,在 2024 年全球前 20 大半导体企业中,英特尔仍是最大研发(R&D)支出企业,三星电子研发支出增幅最大。 数据显示,三星去年研发投入达 95 亿美元(IT之家注:现汇率约合 678.57 亿元人民币),较 2023 年的 55 亿美元增长 71.3%,排名从第七位升至第三位。 英特尔 2024 年投入 165.5 亿美元(现汇率约合 1182.13 亿元人民币),但同比增幅仅为 3.1%,远低于同行。英伟达则以 125 亿美元(现汇率约合 892.85 亿元人民币)位列第二,同比增长 47%。 台积电以 63.6 亿美元(现汇率约合 454.28 亿元人民币)排名第七,同比增长 8.8%。SK 海力士连续第二年位列第十,研发支出 33.3 亿美元(现汇率约合 237.86 亿元人民币),同比增长 32.7%。 其中,英特尔作为唯一一家在美国本土同时进行芯片设计和制造的企业,目前重点投入在于提升其 18A 工艺的良率,但该公司去年仍录得 188 亿美元(现汇率约合 1342.85 亿元人民币)亏损。 整体来看,2024 年全球前 20 大半导体企业合计研发投入 986.8 亿美元(现汇率约合 7048.52 亿元人民币),同比增长 17%,约占行业总研发支出的 96%。其中 15 家企业增加了投入,5 家则有所削减。 从研发投入与营收占比来看,美国企业排名靠前,英特尔、博通、高通和 AMD 位居前列。前 20 家企业的平均比例为 15.8%。其中,三星为 11.7%,SK 海力士为 6.99%,为该组最低。其中 SK 海力士研发投入增长逾 32%,但由于营收几乎翻倍,故研发投入占比反而有所下降。 TechInsights 预计,英伟达可能在明年超过英特尔,成为全球研发支出最高的半导体企业。英特尔去年将 33.6% 的营收投入研发,但其新任 CEO 陈立武已开始削减开支。相比之下,英伟达将 1156.2 亿美元营收中的 10.8% 用于研发,并已连续四年大幅增加投资。 路透社上个月还报道称,相对于英特尔的巨额投入,其 18A 工艺目前仍存在良率偏低的风险。 根据 X 用户 @Kurnalsalts 分享的数据,Intel 18A 工艺的逻辑晶体管密度仅 184.21MTr / mm2,是同行之中最低的。此前 TechInsights 分析的数据却显示,在高密度逻辑单元晶体管密度方面,台积电 2nm 为 313 MTr / mm2、Intel 18A 为 238 MTr / mm2,三星 2nm 则为 231 MTr / mm2。
谷歌躲过一劫,但这些美国科技巨头还面临反垄断威胁
谷歌 凤凰网科技讯 北京时间9月3日,据路透社报道,美国法官周二裁定,谷歌必须与竞争对手分享搜索数据,但不必出售Chrome浏览器。这桩案子只是美国反垄断执法部门针对大型科技公司市场主导地位采取的众多行动之一。 目前,美国反垄断部门已对一些世界上最具价值的科技公司发起了反垄断诉讼或启动了反垄断调查,包括谷歌、Meta、苹果、亚马逊、微软以及英伟达。 谷歌 谷歌正在两条战线上应对美国司法部及各州执法机构的诉讼。在其中一桩案件中,华盛顿法官周二裁定,谷歌必须与竞争对手共享数据,以促进网络搜索领域的竞争,并禁止谷歌签订排他性协议阻止设备制造商在新设备上预装竞品。谷歌已聘请一名前奥巴马政府官员代表其上诉,这一过程可能持续多年。 与此同时,谷歌还在为9月在弗吉尼亚州亚历山大市开庭的审判做准备,此次审判将决定其是否必须剥离部分在线广告技术,以为该领域的新进入者腾出空间。此前,谷歌被认定在该领域存在两项非法垄断行为。谷歌表示将提起上诉。 Meta 脸书母公司Meta今年也面临自己的反垄断审判。美国联邦贸易委员会(FTC)试图拆分Meta收购的关键资产Instagram和WhatsApp。该机构试图证明,Meta策略性地收购了它认为可能成为脸书竞争对手的新兴应用,其中部分依据是Meta内部文件。例如,Meta CEO马克·扎克伯格(Mark Zuckerberg)在2008年的一封电子邮件中表示,“买下它比竞争更好”。 Meta Meta则表示,扎克伯格过去的意图无关紧要,案件应当驳回,因为它依赖的是一个虚构的社交媒体市场,忽略了字节跳动的TikTok、谷歌的YouTube等竞争平台。负责此案的华盛顿法官不太可能在2025年底之前作出裁决。 亚马逊 亚马逊正在西雅图应对FTC及各州执法机构的诉讼。FTC指控亚马逊通过反竞争手段维持其在线上平台和市场中的主导地位。 FTC称,亚马逊线上平台Amazon.com拥有10亿种商品,其使用的一种算法推高了价格,导致美国家庭多支付了超过10亿美元的费用。亚马逊在法庭文件中表示,该算法已于2019年停止使用。去年,一名法官基本上驳回了亚马逊要求撤销案件的请求。审判定于2027年2月进行。 苹果 美国司法部及多州组成的联盟正在起诉苹果。他们称,苹果通过限制应用开发商和第三方设备制造商来阻碍竞争,从而将iPhone用户锁定在其生态系统中。 苹果在6月提出的驳回诉讼请求被拒绝。双方交换案件信息的截止日期延长到了2027年初,目前尚未确定审判日期。 英伟达 英伟达 美国司法部对这家半导体公司展开了调查。英伟达生产的高需求AI芯片使其成为全球首家市值达到4万亿美元的公司。目前。美国司法部尚未提起诉讼。 微软 FTC在2024年对这家软件和云计算巨头展开调查,重点是其是否滥用生产力软件市场的优势,通过实施惩罚性许可条款阻止客户将数据迁移到竞争平台。FTC尚未提起诉讼。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
微软365服务再曝自动删邮件故障,邮件在用户眼前自动消失
IT之家 9 月 3 日消息,科技媒体 borncity 今天(9 月 3 日)发布博文,报道称部分企业用户再次反馈,微软 Microsoft 365 于今年 8 月再次出现异常,存在自动删除邮件问题。 IT之家援引博文介绍,自 2025 年年初至今,Microsoft 365 服务已发生多起异常自动删除事件,影响企业管理员和用户相关工作。 相关问题最早可以追溯到今年 2 月,管理员 Christian M. 首次报告称,部分企业账户中的联系人遭神秘删除,日志显示大量“MovedToDeletedItems”操作记录,但终端用户操作无规律可循,影响 Windows 和 macOS 平台。 今年 3 月,用户反馈问题升级,存档文件夹开始自动删除邮件。受影响用户称可 " 眼睁睁看着存档邮件数量减少 ",甚至有用户反馈已损失约 1.5 万封邮件。 8 月 13 日,新案例再度出现:用户发现自 8 月 12 日起,企业账户中的邮件“在眼前自动消失”,IT 部门多次排查仍无法解释。用户虽能通过 Outlook 客户端恢复部分已删除邮件,但仅限前一天上午前的记录,其余邮件永久丢失。 调查方向指向移动设备 Outlook 应用。多名管理员在 Reddit 分享称:受害者多使用手机版 Outlook 应用,且设备上误操作导致自身邮箱被标记为“垃圾邮件”,从而触发自动删除。 在其中一个案例中,管理员通过重置用户 iPhone 解决异常;另一例则发现第三方安全应用 Graphus(来自 Kaseya)的过滤规则(标记为 " 概念验证 ")错误将邮件移至垃圾箱。删除该应用注册后,问题消失。
AI教父辛顿最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
编辑:元宇 近日,「AI教父」Geoffrey Hinton在一次采访中再发预警:「杀手机器人」「无人机」等致命自主武器的兴起,正在让战争变得更易发动。Hinton认为OpenAI、Anthropic等许多AI公司在AI安全方面做得都不够。他还谈到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。 Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么? Hinton:我会说:你们很清楚,你们正在开发的东西,很可能把人类毁灭掉。 近期,「AI教父」Geoffrey Hinton,在与《Next Question》主持人Katie Couric对话时,直言不讳地说出了内心对AI安全的忧虑。 Geoffrey Hinton与《Next Question》主持人Katie Couric对话 实际上,这已经不是他第一次为预警AI风险而发声。 2023年5月,时任谷歌首席AI科学家的Hinton从谷歌辞职,扮演起「AI吹哨人」的角色。 自此,他一直在关注和呼吁人类要警惕AI过快发展带来的风险,还表示后悔自己未能更早地考虑AI的安全问题。 近日,Hinton再次发出警告——AI正在改变战争方式,让战争变得更容易: 自主武器,意味着「死掉的机器人」,而不是「裹尸袋」。 Geoffrey Hinton称,杀手机器和无人机正在降低战争的人道成本 Hinton表示,「杀手机器人」「无人机」等致命自主武器的兴起,正在让发动战争变得更容易。 AI让发动战争变得更容易 「杀手机器人」参与战争,将会代替许多原本可能在战场中死掉的人。 这本应该是件好事,但恰恰也是最让这位「AI教父」恐惧的事情。 这样一来,发动一场战争的成本会更低,战争就更容易爆发了。 Hinton表示,「杀手机器人」的兴起不会让战争更安全,相反它会通过降低作战的人力与政治成本,使战争更容易爆发。 这使得一个富国想入侵一个穷国,变得更容易了。 因为原来能够阻战争发生的,就是这些富国的公民在战场上被装进裹尸袋。 但是,AI改变了这一点,「如果有致命自主武器,回来就不是死人,而是死掉的机器人。」 在Hinton看来,这种转变,可能会怂恿政府发动战争,同时也会让军火商大发其财。 「这对军火商来说简直太棒了,因为这些机器人更换起来很昂贵」。 除了降低战争成本,Hinton认为AI已经在重塑战场,改变战争的方式。 比如,在现实战争中,已经通过AI驱动的无人机、无人系统改变了战场,颠覆了传统战争形态和战争手段。 甚至有人说,未来战争中,数据的作用将超越弹药。 以现实战争举例,现在一架500美元的无人机,就可以摧毁一辆价值数百万美元的坦克。 而且,AI技术也让传统硬件逐渐显得过时,比如它使载人战斗机变成一个愚蠢的主意: 「如果你能在战机里装上AI,AI可以承受更高的过载——而且不用过多担心人员伤亡。」 AI接管将是人类最大的担忧 与AI对未来战争带来的影响相比,Hinton更担心人类被AI接管的风险。 2024年,Hinton在获得诺贝尔物理学奖时表示,希望人们可以更认真地看待他关于AI以及其未来角色的观点。 而经过这些年,Hinton也逐渐把他有关AI担忧的思考,更广泛地传开了。 当谈到当下AI的风险,Hinton表示: 我的主要担忧,并不是恶意行为者在短期内滥用AI的风险(那当然也非常严重),而是更长期的风险——AI本身接管。 这种风险,主要来自科学家们对AI将大幅超越人类智力的预测。 Hinton谈到了要避免被AI接管的唯一方法,就是让我们构建的那些超级智能AI,根本「不想」接管。而实现这一点的技术,和让AI更聪明的技术有些不同。 在这个问题上,更容易取得国际间的合作。因为各国不会分享如何做出最聪明AI的办法,但却会在「如何让它不想取代人类」这件事上合作。 AI会取代我们的工作吗? 除了战争,Hinton关于AI的另一个警告,是它几乎可能在所有领域,取代大量的工作岗位。 这个问题所带来的挑战,并非在技术,而是在社会治理上: 「如果我们的政治体系足够公平,当AI大幅提升生产率时,本应当使每个人都能得到更多商品和服务。」 当谈到大学生未来的职业选择,Hinton认为AI会很快替换掉呼叫中心这类低薪、培训差的工作。 此外,还有律师助理、程序员等白领岗位上的一些初级岗位工作也可能被替代(一些能设计复杂系统的顶尖程序员仍然会吃香)。 与这些岗位相比,相反一些需要人手灵巧度的工作,比如水管工更不容易取代(当然,最终机器也会变得灵巧,所以十年、二十年后,连这个可能也不安全了)。 自动播放 Hinton认为相比较律师、会计等知识型岗位,水管工的风险要小得多 令人有点沮丧的是,Hinton还提到,AI甚至也在替代一些需要高情商和人际沟通的工作,比如护士、医生,原因是AI会比人类更具同理心: 「如果让人们分别和医生以及一个AI互动,再问他们谁更有同理心,AI的评分更高。」 在访谈中,Kittie Couric还谈到了「全民基本收入」(UBI),是否有助于应对大规模工作被AI取代的问题。 UBI是近几年一些国家公共政策讨论中的热点议题,是为社会中的每个人,提供兜底的收入保障。 Hinton认为它虽然治标不治本,但是一个很好的「创可贴」。 UBI可以让人不至于挨饿、付得起房租,但它解决不了价值观丧失的问题。 因为对于很多人来说,自我价值感和他们的工作紧密相关。一旦失业,这种价值感就会丧失。 AI常见的一个应用场景,是在医疗科技领域。Hinton也提到了AI在医疗和疾病领域相关的科学突破。 比如,AI可以通过解读眼底图像,预测心梗发病几率,这在以往是做不到的。 此外,AI还可以在新药设计上发挥很强的关键作用。 Hinton谈到DeepMind团队提出了从蛋白质序列预测其折叠结构的方法,还分拆出了一家专做新药设计的公司。 他认为,未来一两年,或许更长一点时间内,我们会迎来一系列更好的药。 对AI未来的乐观展望 Hinton始终提醒人类,要注意防范被自己所创造出来的、更聪明的AI接管的风险。 以OpenAI、谷歌为代表的AI公司,是AI技术发展背后的重要推手,但在Hinton看来,没有哪家公司在这一问题上是做得足够的: 「Anthropic是一些离开OpenAI的人创办的,因为他们认为后者在安全研究上的投入太少。但Anthropic还是可以做得更多;尽管OpenAI强调是以安全发展AI为目标,但他们越来越关心让AI更聪明,而不是如何让它更安全。 Hinton揭示了这些AI公司在安全问题上滑稽、矛盾的一面: 奥特曼在很大程度上转向了「快点发展,别太注意安全」;马斯克在起诉奥特曼,说他忘了「安全发展AI的初心」。但马斯克在发展AI上,对安全也并不上心。 Kittie Couric还问了Hinton一个非常有意思的问题。 Kittie Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么? Hinton:我会说:你们很清楚,自己开发的东西有很大概率把人类灭掉。你们私下也承认这点。你们应该投入更多精力,用能确保安全的方式来开发。 Kittie Couric:你觉得是什么阻止了他们?是贪婪吗? Hinton:基本上是的。他们想靠AI赚大钱,还有「做出比人类更聪明的东西」的兴奋感。但这非常危险。 对话谈还到了贪婪、自负等人性弱点,对AI研究可能带来的潜在风险。 Hinton认为年轻的AI研究者,比年长者更能理解AI的力量和潜在的负面效应,他们也更能意识到AI接管可能带来的风险。 一个积极的信号是:当谈到对AI未来的展望时,Hinton表示他比几周前更乐观了。 自动播放 Hinton提出为AI植入「母性本能」,这是他最近看到人类与AI共存的一丝希望 这一转变,主要是因为他关于「AI母亲」的思考,一种尝试AI植入类似「母性本能」的新思路: 婴儿之所以能控制母亲,是因为很多东西被「进化写进了」母亲身上,母亲真心希望孩子成功,会尽一切可能确保孩子成功。我们希望AI也会如此。 「AI母亲」这一思考,重塑了人类如何与AI共存的思路,不是想着支配它们,而是为它们植入「母亲本能」。 这一设想,也颠覆了大多数人的想象: 在AI面前,我们不再是「智慧顶点」(母亲),而是婴儿。
AI抢人类饭碗:Salesforce CEO证实公司裁掉了4000个客服
IT之家 9 月 3 日消息,Salesforce 首席执行官马克・贝尼奥夫(Marc Benioff)近期在谈及人工智能(AI)如何帮助公司减少员工数量时表示,该公司已裁撤 4000 个客户支持岗位。 “我把这个岗位的人数从 9000 人减到了约 5000 人,因为我们不再需要那么多人了,”贝尼奥夫在讨论 AI 对 Salesforce 运营的影响时这样说道。作为 AI 变革的前沿企业,Salesforce 已打造出一支名为“Agentforce”的机器人客服团队。 IT之家注意到,贝尼奥夫今年夏季曾透露,该公司中 AI 承担的工作量占比最高可达 50%。 人力资源顾问劳里・鲁蒂曼(Laurie Ruettimann)指出,AI 正对多个行业的就业产生影响。“美国各地都出现了直接由 AI 导致的裁员,”鲁蒂曼表示,并补充称,无论是想保住现有工作的人,还是正在找工作的人,都需要学习新技能。 分析师埃德・齐特伦(Ed Zitron)则认为,部分科技公司在疫情期间过度招聘,如今却将裁员归咎于 AI。他表示,这些公司眼下正试图通过宣称“提升效率”来吸引投资者。 “这本质上是一种‘不惜一切代价追求增长’的心态,”齐特伦说,“他们只在乎增长,哪怕这会毁掉别人的生活,哪怕这会让公司陷入困境、导致产品质量下降,也在所不惜。”
OpenAI的命门,决定了大模型公司的未来
如果Scaling Law是指导大模型能力提升最重要的标尺,那么“算力成本控制”就是大模型行业发展和商业化的基石。 年初DeepSeek在国外开源社区首先爆火,一个很重要的原因就是,DeepSeek几乎将同性能模型的推理算力和训练算力成本都降到了10%以内。MoE架构也在GPT-4发布之后,逐渐取代了稠密架构,成为了几乎所有大模型开发商的默认选项,最核心的原因也是能够有效降低模型推理的算力成本。 而OpenAI伴随着GPT-5发布第一次与用户见面的“路由(routing)”功能,设计本意也是代替用户来把简单问题匹配到低消耗模型,复杂问题匹配到能力和算力消耗高的推理模型,从而有效提升用户体验和算力效率,但却变成AI圈最知名的“降本增笑”事件。 即便是GPT-5发布接近了一个月,OpenAI还是没有能让所有用户满意,网友依然还在吐槽,GPT-5没有办法解决一些很简单的问题。虽然随着OpenAI回滚了GPT-4o,还让用户能够手动在推理模型和基本模型间切换,让大多数用户开始同意OpenAI宣称的“GPT-5性能明显强于之前的模型”,但是Sam Altman自己也没有办法否认,GPT-5的发布确实是漏洞百出。 而造成翻车最直接的原因,就是他们强推的路由功能没有能够将用户的预期和相应的模型能力匹配好。 01 那么问题来了,为什么OpenAI要冒着GPT-5“发布即翻车”的风险,也要强推路由功能? 第一个最直接的原因就是,在GPT-5发布之前,OpenAI并行推出了5个以上的模型,让用户能够根据自己需求来选择合适的模型。随着模型越来越多,别说普通用户了,就是ChatGPT的重度用户,有时候也很难决定使用哪个模型是最合适自己当前任务的。 对于立志于将ChatGPT打造成为AI时代超级APP的OpenAI,不可能允许这样的情况持续存在。特别是对于大量没有接触过大模型的普通用户,替他们针对不同的任务选择合适的模型,是OpenAI在某一个时间点必须要做的事情。 而另一个更深层次的原因在于,从算力成本的角度出发,自从推理模型出现之后,每一次对于大模型的询问,都需要在推理模式和非推理模式之间进行一次选择。而这种调配“深度思考”能力的效率,决定了大模型产品对于算力的使用效率。 根据学术界对于推理模型和非推理模型的研究结果,推理模型和飞推理模型的算力差异巨大,可能达到5-6倍。对于复杂问题,通过思维链等技术进行推理后内部消耗的推理token数可能高达上万个。 而在延迟上,推理过程和非推理过程的差异就更加巨大了,根据OpenAI自己发布的数据,使用推理模型回答复杂问题所需要的时间,可能是使用非推理模型的60倍以上。 而就算对于很多需要复杂推理的任务在消耗了巨大的算力以及大量的时间之后, 之后给出的结果和准确性差异往往就在5%左右。为了这5%的性能提升,消耗多大的算力合适呢? 做一个简单的算术题,如果OpenAI将所有任务都默认使用推理模型来完成,路由功能能够帮助OpenAI识别出10%的问题可以通过简单的非推理模型完成,就可能将算力成本降低8%(推理非推理算力比值为5:1)。 如果将这个比例进一步提高,能够降低的算力成本将更加可观。对于OpenAI这样一个需要服务数亿用户,而且算力供应依然非常紧张的公司来说,路由功能是否能发挥作用可以说关系到自身商业模式是否可持续的核心能力。 在行业层面,第三方平台(如 OpenRouter)把“自动路由与回退(fallback)”做成基建能力:当主模型拥塞、限流或内容拒绝时,按策略自动切换到次优模型,以稳定用户体验。微软的Azure这样的AI算力云供应商,也将不同模型之间的路由能力作为AI云计算的一大卖点。 也许,GPT-5发布之后,对于OpenAI来说最重要的事情就是在“质量-延迟-成本”的三角中寻找每条请求的最优平衡点。而目前官方对 GPT-5 的定位与“内置思考(built-in thinking)”叙事,实际上就是把“路由+推理强度”做成默认能力,并在 ChatGPT 端通过“Auto/Fast/Thinking”给了用户一定程度的可见与可控性。 02 为大模型打造一个高效的路由功能到底有多难? 这个问题,外媒在一篇报道中向UIUC的一名计算机专业的助理教授求证,得到的回答是“可能是一个亚马逊推荐系统级别的问题,需要大量专家努力工作数年时间才能获得一个满意的结果。”模型系统层面的路由功能本质是“多目标+强约束”的工程问题。 路由不是只拼准确率,还要在质量、延迟、成本、配额/峰值容量、成功率之间做实时优化。 而且从理论上来说,语义级别的路由功能在效率上来看,远远不是这问题的最优解。DeepSeek在上周放出的DeepSeek V3.1就在尝试将推理模型和非推理模型混合起来,在一个更深层次上打造出一个效率更高的路由系统,从而从根本上提高大模型的“推理-非推理”的选择效率。 根据网友体验之后的感受,新的混合推理模型相比之前R1有着更快的思考速度:相较于 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短的时间内得出答案。 并且在回答性能相似的前提下,输出长度有明显的下降:新的推理模型在简单问题上,推理过程有约10%以上的缩短。正式输出的部分,新模型大幅精简,平均仅有1000字,比R1 0528的平均2100字的水平提高了接近一倍。 但是另一方面,新的混合推理模型也爆出了一些不太稳定的问:比如会不时的在很多输出中出现莫名其妙的“极”bug:答案中出现很多完全不相关的“极” 而且在R1上就存在的中英夹杂的情况似乎变得更加严重了,就像一个刚回国不久的留学生,在很多中文任务中会显得很出戏。 即使像DeepSeek这样的国内最顶尖的大模型团队,将“推理-非推理”选择功能内置到模型内部,模型的稳定性上也会出现一定程度的问题。而OpenAI和DeepSeek在自己各自首个推出的试图高效调度“深度思考”能力的模型上都出现了不同程度的翻车,侧面反应出要处理好这个问题的难度。 03 提高效率的另一面,是OpenAI依然处于对于算力的“极度渴求”的状态中。 年初DeepSeekV3和R1的推出引发的全世界对于英伟达等算力供应商未来前景的担忧,在短短几个月之后就演变成了“AI成本悖论”——token单价下降但是模型的性能不断成长,使得原本交由模型处理本来会显得不经济的任务也能交给大模型处理,模型能够处理的任务将更多样与复杂,从而会进一步推高token总量的需求。 OpenAI 正在推进代号Stargate的基础设施扩张计划:2025 年 7 月,OpenAI 与 Oracle 宣布在美国新增 4.5 GW 数据中心能力。 昨天,外媒也报道OpenAI 正物色印度当地合作伙伴,并计划在新德里设立办公室,把印度(其第二大用户市场)的用户增长与本地算力配置对接起来,在印度建设至少1Gw规模的数据中心。 “AI成本悖论”一方面不断推高英伟达和AI云服务商的业绩,同时也对像能够有效降低模型算力需求的“路由”功能提出了更高的要求。 Sam Altman 反复强调“2025 年底上线的GPU 超过 100 万片”的目标,且把长远愿景瞄准“一亿 GPU 量级”。这类表态从侧面说明:即便推理单价在下降,更复杂的任务与更高的调用量让大模型的“总账单”并不会自动下降——必须靠路由把昂贵的推理时段“留给更需要的人”。 如果从大模型的第一性原理出发,所有大模型公司追求的最终极标准,就是不断提升“算力兑换智力”的效率。而高效调度“深度思考”的能力,在推理大模型时代某种程度决定了大模型公司能否在系统和商业效率以及用户体验上领先全行业。
一块钢板的艺术之旅:奥迪新概念车 Concept C 想要带你回到千禧年
在 TT 和 R8 陆续停产之后,我们已经有一段时间没能在奥迪的产品体系中看到跑车或者敞篷车的身影了。 但奥迪在今天发布的 Concept C 概念车似乎让情况又迎来了转机。 虽然说是概念车,但奥迪方面表示,这辆车已经相当贴近量产状态,当其在 2027 年上市时,除了会增加门把手、传感器和一些细微调整外,正式上路的车型和这辆概念车的区别不会太大。 回到千禧年 目前奥迪还未曾公布新的量产车型究竟会继承 TT 和 R8 中的哪一个名字,但我们似乎能从这台银色车身上看到许多热门轿跑车的影子,比如于 1991 东京车展亮相的 Avus Quattro 概念车、向「银箭」赛车致敬的奥迪 Rosemeyer,乃至捷豹新概念车和新小鹏 P7 上的某些概念和元素。 ▲奥迪 Rosemeyer 奥迪首席设计师 Massimo Frascella(马西莫·弗拉塞拉)在介绍这款车的设计理念时说: 我们希望从内到外「将一切简化为本质」来拥抱「彻底的简单」。 这款 Concept C 概念车有很多千禧年前后的奥迪特有的气质。 除了银色的科幻感色彩外,奥迪大幅度的简化了车身线条,只留下了一条肩线贯穿车身,这种设计使得整个概念车像是装在四个轮子上的一整块可以移动的金属,化用大家更熟悉的话来说或许可以是——「一块钢板的艺术之旅」。 另一个吸引眼球的部分是概念车的尾部,奥迪取消了新车的后窗,让溜背式车顶直接延续到了车辆尾部,并在其上面设计了百叶窗式的装饰,并隐藏了一个高位刹车灯进去。尺寸巨大的侧分流器和车尾下沿的扩散器则更进一步强化了车辆的科幻感。 在 A 柱和 D 柱之间,奥迪首次设计了由两块面板组成的电动伸缩车顶,奥迪称这样设计是「让车辆保持整体形状的同时,实现敞篷驾驶体验的方案。」 丑爆了的前格栅 仅从尾部和侧面看,这辆新车相当漂亮,4.2 米上的车身搭配 21 寸的轮毂,Concept C 整体的车身轮廓相当性感迷人,但当我们来到车辆正面,这种精致感却被车头莫名其妙的一大块黑色给完全破坏了。 Concept C 不再拥有奥迪在燃油时代标志性的蜂窝状格栅前脸,四环标所在的中央区域被一大块黑色的面板所取代,两侧的进气口四周做了隐藏式的熏黑处理,形状和前灯一样变为了横平竖直的细条。 我其实相当理解 Concept C 作为一辆概念车需要在设计风格和语言上进行一些更加大胆的尝试和突破,也理解作为一辆纯电车型,Concept C 不再需要大面积的进气格栅来散热,只是哪怕在概念车上,这样的设计也谈不上好看,甚至严重破坏了车辆的美感。 德国本地的汽车媒体毫不客气的将前脸四环标下面的黑色区域称之为「冰箱门」,并且更加激烈的表示: 作为一名奥迪车主,当我看到这个前脸时,我感觉自己受到了侮辱,这根本不是奥迪。 奥迪确实需要认真考虑下,怎么样把那块突兀的黑色格栅变得更好看也与整体更协调一些。 以驾驶员为中心 来到车内,Concept C 内饰的设计也让人眼前一亮,概念车的内饰语言遵循了极简主义的原则和以驾驶员为中心的驾驶舱设计。 整个座舱内的线条以及门把手、空调出风口等组件都遵循了和车身线条一样的横平竖直设计,奥迪放弃了他们通常采用的运动型平底方向盘,选择了一个对称的圆形方向盘,上面所有的功能都有圆柱形的实体按键控制。 同时,奥迪在新概念车上提供了可隐藏的10.4 英寸显示屏,如果需要专注于驾驶,这块屏幕可以被完全收起。 内饰材质上奥迪则大量使用了织物和双色羊毛斜纹布来营造更加环保和极简主义的座舱风格。 奥迪并没有过多透露车辆的动力细节,只是表示其将是一款后轮驱动的全电动车型,基于 800V高压平台打造,概念车车长约 4.6 米,宽约 1.98 米,高约 1.2 米,轴距约 2.5 米。 另外一个值得关注的细节是,Concept C 的设计语言将影响奥迪下一代的整个产品线,至少在 2026 年,我们即将在新的入门级电动汽车和新款 RS 性能车型上看到相同的元素。 奥迪近几年一方面加码电动化,一方面不断缩减车系,TT 与 R8 于 2023 年停产却迟迟没有继任者,奔驰和宝马自然很乐意吃下这块市场,除了宝马 Z4 之外,奔驰也于最近发布了新的 CLE 双门 Coupe 车型。 ▲ 宝马 Z4 但或许是电动化之路走的并不顺利,以及不想看到老对手们赢得太轻松,奥迪在宣布全面推迟电动化后决定复活 R8,与兰博基尼 Temerario 共享车体结构,采用插电式混合动力系统,推出双门轿跑和敞篷两种车身形式。 并且在 2026 年,奥迪也将加入 F1 赛事,并开发专属的动力单元。 ▲ 奥迪宣布于 2026 年出征 F1 这些消息都相当让人期待。
Meta内斗搞成连续剧了,泰斗发文暗讽28岁华裔首席AI官
2025年9月2日,Yann LeCun在他的领英页面上发布了一段文字,这段文字虽然没有指名道姓,但其指向性非常明确。 他写道:“嘿,AI领域的记者和专家们。并非每个从事AI工作的人都是‘研究员’。” 他接着定义了他心目中研究员的标准:他们倾向于公开发表至少一部分研究成果,并开源一部分代码;他们通过论文和开源代码对其他研究者和技术社区产生影响,这可以从谷歌学术的引用数和H指数上看出来;他们通常拥有一个与AI相关领域的博士学位;他们在研究生期间就发表论文,并在参加工作后继续发表。如果他们停止了发表,他们就变成了工程师或者管理者。 LeCun继续写道:“正如我之前帖子中指出的,研究和工程/产品开发是两种不同的活动,有着不同的动机、不同的激励机制和不同的操作模式。有些人两者都能做,有些人只能做其一。相当多的人在职业生涯中从研究转向工程或管理(反向的情况比较少见)。但简单来说,研究员的衡量标准是他们的智力影响,工程师的衡量标准是他们的产品影响。两者对于科学和技术的进步都是必需的。” 这段话虽然有点绕,但是不难看出Yann LeCun在暗讽,智力水平高的才能当研究者,智力水平低的是管理者,而且作为AI行业的研究者,还要具备一个博士学位。杨立昆那番意有所指的话,可能是缘于一次当面冲突。 早些时候,Meta AI的首席科学家Yann LeCun正在发言,他对一项激进的人工智能开发计划表达了系统性的反对意见。LeCun是图灵奖得主,他在人工智能领域的资历深厚,尤其是在深度学习和卷积神经网络方面的贡献,是行业公认的奠基人之一。他习惯于从基础科学的严谨性出发,审视技术发展的路径。然而,他的发言被中途打断。 打断他的人是Alexander Wang,时年28岁,是LeCun的上级。Wang直接说:“我们是在开发超级智能,不是在辩论哲学。”这句话让会议室的空气瞬间凝固。参会者们感到尴尬,LeCun本人也陷入了沉默。 这次直接的冲突,将Meta AI实验室内部两种工作方式和思想的矛盾公开化。一方面是LeCun所代表的,基于长期主义和基础研究的科学探索精神;另一方面是Wang所代表的,追求速度、执行力和短期成果的工程导向文化。这个事件并非孤立的个人摩擦,它预示着一个投入巨额资金和顶尖人才的科技巨头,可能因其内部的结构性问题而在关键竞赛中步履蹒跚。 01 Yann LeCun的学术生涯始于法国,他在皮埃尔和玛丽·居里大学完成了计算机科学的博士学位。他的研究重点是机器学习,特别是神经网络。1980年代末,他在多伦多大学跟随Geoffrey Hinton进行博士后研究,之后加入了美国电话电报公司(AT&T)的贝尔实验室。 在贝尔实验室期间,LeCun开发了卷积神经网络(CNN),这项技术通过模拟生物的视觉皮层,极大地提升了机器在图像识别领域的准确性。他将这项技术应用于手写数字识别,并成功开发出被多家银行采用的支票读取系统。CNN后来成为计算机视觉领域的标准架构,为自动驾驶、医疗影像分析、人脸识别等众多应用奠定了基础。 离开贝尔实验室后,LeCun进入学术界,成为纽约大学的教授。他在纽约大学创立了数据科学中心,继续推动人工智能领域的基础研究。他的工作方式始终围绕着公开发表研究成果和开源代码,以促进整个学术界的共同进步。他的谷歌学术页面记录了数百篇论文,被引用的次数超过数十万次,H指数也达到了一个很高的水平,这些数据都反映了他在学术界的影响力。 2018年,因为在深度学习领域的开创性工作,Yann LeCun与Geoffrey Hinton、Yoshua Bengio共同获得了计算机科学领域的最高荣誉——图灵奖。对于LeCun而言,人工智能的发展是一项严肃的科学事业,需要对基本原理的深刻理解和持续探索,而不是简单的工程堆砌。 2013年,他加入Facebook(后来的Meta),担任首席AI科学家,负责领导公司的人工智能研究实验室(FAIR)。他的角色定位一直是思想领袖和顶尖科学家,负责为公司的长远技术布局提供方向,而不是一个负责具体产品交付和短期业绩指标的管理者。 Alexander Wang的职业轨迹则完全不同。他进入麻省理工学院(MIT)主修计算机科学和物理学,但在大一结束后就选择了辍学。这种行为在硅谷的创业文化中常常被看作是一种特质,代表着对传统路径的挑战和对商业机会的敏锐嗅觉。辍学后,Wang曾短暂在问答网站Quora担任技术主管,之后在2016年,年仅19岁的他联合创立了Scale AI公司。 Scale AI的商业模式非常直接。随着人工智能行业对高质量标注数据的需求激增,Scale AI提供了一项核心服务:数据标注。公司在全球范围内招募大量的合同工,这些人负责对图像、文本、音频等原始数据进行分类、标记和注释,例如在自动驾驶的图像中标注出行人、车辆和交通标志。这些经过处理的数据随后被提供给谷歌、通用汽车、OpenAI等公司,用于训练他们的机器学习模型。 Scale AI的业务本质上是一个劳动密集型的数据加工厂,它通过规模化和流程化的管理,将廉价的人力资源转化为AI公司所需要的数据原料。尽管其业务核心是人力,但Scale AI成功地将自己包装成一家高科技人工智能公司,并获得了资本市场的高度认可,估值一度达到数十亿美元。 Wang的成功展示了他作为一名企业家的能力,他擅长识别市场需求,并用最有效率的方式组织资源来满足这种需求。他的方法论是实用主义和结果导向的,对于那些不能直接转化为商业成果的理论探讨,他缺乏耐心。 在ChatGPT于2022年底发布并引发全球范围内的技术竞赛后,Meta感受到了巨大的压力和焦虑。公司内部的战略重心开始发生偏移,从过去强调长远的基础研究,转向了不计成本地追赶竞争对手。在这样的背景下,拥有快速产品交付经验和强大执行力的管理者变得至关重要。Alexander Wang的行事风格正好契合了Meta当时的迫切需求,这为他进入Meta并担任高层职位铺平了道路。 于是,Meta AI的组织架构中出现了这样一种权力结构:图灵奖得主,AI界的泰斗Yann LeCun需要向比他年轻三十多岁,本科肄业的Alexander Wang汇报工作。 02 从好的一方面来说,安排本身就是一个强烈的文化信号,它清晰地表明,在当时的Meta,速度和执行力被放置在了经验和学术权威之上。在Wang的管理下,团队的资源和方向开始向着如何尽快推出一个能够与竞争对手抗衡的大模型产品集中。 然而,这种文化转变很快就带来了负面影响。公司内部的矛盾不仅存在于LeCun和Wang之间,也开始在团队的其他层面蔓延。Shengjia Zhao(赵胜佳)的案例就是一个证明。Zhao是Meta从OpenAI高薪挖来的研究科学家,他是ChatGPT开发过程中的关键成员之一。 来到Meta后,Zhao在工作中遇到了挫折。他认为自己领导的项目没有得到承诺的GPU计算资源,并且对公司的奖金分配机制感到不满。在一系列沟通未果后,Zhao向管理层发出了最后通牒,表示如果问题得不到解决,他将考虑返回OpenAI。 Zhao的遭遇反映了Meta AI内部更广泛的问题。“雇佣兵”文化开始盛行,公司用高薪吸引顶尖人才,但却没有提供一个能够让他们安心工作的环境。这些高薪挖来的人才发现,他们需要花费大量精力去争夺有限的资源,并应对复杂的内部政治。协同创新的氛围被内耗所取代。 那些拿着高薪的顶尖人才感到自己的专业能力没有得到充分的尊重和发挥,而团队里的普通工程师和研究员则因为感到资源分配不公和缺乏明确的发展路径而普遍士气低落。最终,为了控制成本和应对内部的混乱局面,Meta在一段时间后暂停了部分团队的人才招聘,这标志着前期“大跃进”式扩张的失败,公司被迫进入一个收缩和调整的阶段。 03 产品层面,在Wang到来之前,Meta AI就已经有些不对劲了。Meta的Llama系列大语言模型最初在开源社区获得了巨大的成功。特别是Llama 2的发布,其性能在当时超过了所有其他的开源模型,并且在许多基准测试中表现出与一些闭源商业模型相近的能力。Llama 2的成功,让Meta在开源AI领域获得了声誉,被看作是能够与OpenAI和谷歌抗衡的重要力量。这在很大程度上得益于FAIR实验室长期以来的技术积累。 但是,随着时间的推移到了Llama 4的时候,市场上开始出现对其性能指标的质疑。一些第三方评测机构和社区开发者发现,Llama 4在某些公开基准测试中得分很高,但在实际应用中的表现却不尽如人意,其真实能力似乎未能达到宣传的水平。有传闻指出,该模型可能在训练过程中针对特定的评测基准进行了过度优化,以求在排行榜上获得一个好看的数字。这种做法被批评为一种“应试教育”式的开发,甚至是一种数据造假。 从Llama 2作为最强开源模型的引领者,到Llama 4发布时面临被Grok、Claude等后起之秀超越的境地,并且声誉受损,这背后是战略上的失败。Meta投入了千亿级别的资金,吸纳了全球最优秀的一批人工智能人才,最终却发现在最核心的大模型主赛道上,自己从一个有力的竞争者,逐渐变成了一个追赶者,甚至有掉队的风险。 从Llama 4的作弊刷分,再到现如今的“雇佣兵”团队,Meta正在表达着一种“唯结果论”的味道。当一个团队的文化导向变成了不计代价地达成某个短期目标时,产品的长期可靠性和真实能力就可能被牺牲。 Meta AI内部的氛围最终对创新本身造成了抑制。一个不尊重专业知识、急功近利、充满内部斗争的文化环境,直接导致了一系列问题。 像LeCun这样的科学家和像Zhao这样的关键工程师,都无法在一个内耗严重的环境中长期高效地工作。而决策的短视化,还可能会将这个问题进一步放大。管理层为了追求短期的产品发布和性能指标,忽视了对基础研究的持续投入和技术的长期健康发展。 其结果也显而易见,仓促的产品开发流程导致了模型的缺陷和性能的不稳定。 在人工智能这样一个需要深度创新、持续投入和长远眼光的领域,团队的文化和使命感至关重要。一个由共同使命感和相互信任驱动的团队,其长期战斗力远超过一个仅仅依靠高薪和短期目标驱动的“雇佣兵”团队。OpenAI的首席执行官山姆·奥特曼曾经对此发表过评论,他的话在后来被证明具有预见性。他说:“在我看来,Meta正在做的事情将导致非常严重的文化问题......有使命的人终将击败雇佣兵。” Yann LeCun与Alexander Wang之间的冲突,以及由此引发的Meta AI的一系列问题,不仅仅是一家公司的内部管理失误。它反映了在当前这轮AI浪潮中,硅谷乃至整个科技行业所面临的一种根本性的价值观冲突:代表严谨科学精神和长远探索的“传教士”文化,与代表商业效率和短期回报的“雇佣兵”文化之间的对决。 Meta AI的遭遇,为所有试图在人工智能时代取得成功的公司提供了一个案例:如果没有一个健康的、能够激励真正创新的内部文化,再多的资金和人才,最终可能也只是建造了一座看似华丽,但地基不稳的空中楼阁。
满屏满地铁的AI广告,差点把我吓出心脏病
起猛了,早高峰挤地铁被黑暗中一闪而过的AI广告灯箱吓醒了,看着数字代言人皮笑肉不笑地伸出六根手指冲打工牛马的奋斗精神点赞,差点以为伪人入侵地球了。 吃多了老板画的饼,中午只想吃点热乎的现炒盖码饭,对着外卖APP挑了半天门头、装修和堂食图,结果正埋头猛猛炫饭时刷到了小红书上的避雷贴——原来那张人头攒动大排长龙的门头照片只是AI生成,隔壁居民楼里满地油污永不见天日的小作坊才是它永远的家。 晚上九点终于提前下班,身心俱疲想去KTV放松一下,唱唱经典老歌回忆青葱岁月,没想到却被AI MV连连追杀,“唱情歌给我配的是战斗场面,像是吃了毒蘑菇后出现的幻觉”,一时分不清是我疯了还是这个世界疯了。 妈妈,我知道AI是未来是趋势是平均4.7万的月薪,但AI审美仿佛每天都在霸凌我的脑回路。 AI无孔不入,海报花生上树 近日,良品铺子在商品详情页里放出了一张“花生上树”的宣传海报,AI扰乱人类视听、篡改人类文明的“科幻噩梦”终于照进现实。 要知道,花生是“地上开花、地下结果”,才有了“落花生”这个名字。惨遭群嘲后,良品铺子不得不紧急宣布对所有产品宣传材料进行“全面科学性核查”。 “用AI太安逸了,以至于让人失去常识。” 而真正的恐怖,不在电影院,也不在北京环球影城万圣节,而在你每天都出没的地铁站、机场和商场——被这里的劣质AI广告包围,“恐怖谷”发作就和呼吸一样自然。 左边是“六指鬼手”冲你点赞,右边是青春洋溢的少男少女“脸上的褶子如奶油一般化开”,前面是远看其乐融融细看许多人都缺胳膊少腿的“平安春运,回家过年”,后面是长得人山人海、人多势众的AI数字代言人,仿佛金城武、陈坤、刘昊然、陈飞宇的脸在我眼前过走马灯。 其中,儿童肖像更是恐怖谷的重灾区。子涵们都在争当的童模一向是传统广告界的棘手项目,毕竟尚未经受社会毒打的小孩儿们可不会千依百顺不哭不闹地执行甲方需求。因此AI萌娃也就应运而生,但就其实际观感,约莫等于在恐怖电影里出现了一个笑意盈盈的小朋友,看起来再弱小可爱无辜也挡不住黑眼珠直直盯着你时的瘆人劲儿。 至于集大成者,当属AI全家福广告:男女老少无不标准,也就无不诡异——虽然红底黄字写着“满盆都是宝”劝你大吃特吃,实际上那一盆呲牙咧嘴的海鲜究竟是什么做的你也不愿去细想。 “像那种一切看起来都很和和美美,实际上处处是诡异细节,只有主角疯了,其他人还是一脸平常的恐怖电影。” 公共场所的大屏广告尚且如此气势汹汹,手机小屏上的电商广告更是早已被AI攻陷。虽然早知道卖家秀是“夹子成精”当不得真,但如今真是连演都不演了。 “以前是‘图片仅供参考’,现在是‘图片纯属虚构’。” 早在2023年,AI植物“猫猫兰花”就登上了“拼多多生活鲜花畅销榜第1名”,已拼2.4万件。 图源:小红书@至冬最棒玩具推销员王姐 到了2024年,一些不知名的淘宝杂牌,则用“看着像天外飞仙,穿上像在辛者库服劳役的”的“AI国风毛衣裙”招摇过市,给货不对版偷工减料的女装市场再添一次乱。 现在,原本捧出一个个网红模特的电商品牌店也纷纷吻上了AI。哪怕今年3月7日淘宝官宣打击AI“照骗”,将“一眼假”的油腻模特图驱逐出了卖家秀,但道高一尺魔高一丈,随着AI训练技术的升级,仍有许多商家在边缘试探。 根据“数字生命卡兹克”的实验,如今的国产AI模特软件已经进化到了仅需寥寥几句话,就能在5秒内生成更适合亚洲宝宝体质的模特,并且可以在后续换衣流程中重复使用,甚至可以一键生成转圈展示的动态视频,动作流畅,褶皱细腻,连微笑的弧度都刚刚好。 即使被消费者发现多张模特图出现了疑似“脚趾畸形”等典型AIGC问题,客服也只是亲切回应称“可能是后期没有处理好哦”。 不仅是电商网店,时尚杂志和国际大牌也生怕在AIGC的浪潮下赶不上趟。今年,VOGUE母版8月号引入了AI模特;瑞典快时尚巨头H&M也为30名真人模特们制作了“孪生姐妹”数字分身,分身可以在没有真人参与的情况下进行造型内容创建,可同时省去摄影师、化妆师、发型师、灯光师和穿搭师等多个真人工作,更精准地塑造出品牌所需的营销形象;著名牛仔品牌李维斯(Levi's)也宣布和数字时装工作室合作,计划创建各种体型、年龄和肤色的逼真模特,从而“增加模特的多元性和包容性”。 不过,衣服收到了发现货不对板尚且可以“七天无理由退货”,但饭真是吃下去了就很难再吐出来。 在每年315晚会和家庭群里“外卖究竟有多脏”短视频的耳提面命之下,打工人们自觉早已修炼出一双“火眼金睛”:没有门头照,不要;没有堂食照,不要;没有营业执照,不要。 但这一切,AI都在暗中标好了价格。 据酷玩实验室报道,近期外卖平台出现了很多看起来相当可靠的餐馆:它们拥有大气明亮的招牌、整齐干净的用餐区照片,门口食客大排长龙,烟火气十足,但实际的样子不能说和图片一模一样,只能说毫无关系,本质上依旧是食品安全堪忧的外卖小作坊。 没想到的是,食客为AI痛苦的同时,商家也在为AI痛苦。 有顾客要求定制4寸蛋糕,预算200元,第二天就要,结果老板乐呵呵地定睛一看,笑容凝固在了脸上——双龙戏珠,齐天大圣,你做不到的样子它都有。 图源:小红书@派小月的精神世界 而打工人的最后一个精神避难所KTV,也成为了AI的新乐园。刚刚拿起话筒,就遭开屏雷击——想唱首《张三的歌》徜徉在“我要带你到处去飞翔”的自由想象里,结果现实却是“巨石强森穿着超人服装,用坚毅的眼神盯着你看”,才惊觉原来在AI看来,这首歌歌颂的是法外狂徒张三啊。 更烦人的是,一天到晚被日报、周报、OKR、KPI反复judge的打工人,到了KTV还得被AI评判唱功。据真故实验室报道,现在魅KTV全国700多家门店,每天迎6万个客人唱出30万首歌,客人只要拿起话筒唱就自动参加比赛,而决出谁能拿奖的,不是人工评委,而是魅KTV的自研AI。 十位“每日歌王”可以背走5000—8000元的Coach包,但谁懂我这种五音不全星人一开口分数直线往下掉出及格线的手足无措啊。 图源:小红书@重生女主、@Wills Wong 得了,唱不下去了,还是回家躺在床上刷手机吧。结果,屏幕里号称“上海出生”的沪爷小baby直接从婴儿床上一个鲤鱼打挺,坐起来说一口标准流利的普通话了:“请叫我主理人,再给我一杯咖啡”,看来刻板印象不仅带坏人类而且带坏AI。 图源:小红书@Ai酱油油 谢谢,请叫我打工人,下班了还要给AI当免费观众,这精神损失费什么时候能结一下? AI的红利没尝到,黑利已经快吃饱了 “降本增效”的道理人人都懂,秒针营销科学院发布的《2024中国数字营销趋势报告》显示,43%的广告主都认为整体营销投入将减少,而AI广告正好踩中这个人人勒紧裤腰带的节骨眼上。 据APPSO报道,一条AI广告开出的价格,大概是传统制作流程的1/4。以前要拍一支广告,少不了场地、摄像、灯光、舞美、音响、服装、道具和演员,如今只需“文生图、图生视频”两步走,虽然中间还得反复调试,但成本也降得肉眼可见。 但是,成本是降了,效果增加了吗? 在这个层面上,品牌方和消费者的认知可能是错位的。品牌方觉得AI是未来,是跟上时代潮流的象征,是内宣报告的战绩,但在消费者看来,AI更像是偷工减料的实证,反而拉低了品牌形象——“广告都偷懒,我还敢买你家东西吗?” 即使销量好不容易上去了,但是货不对板的争议,让退货率和客诉量也跟着上去了。 洗图盗图更是频发:李子园牛奶“借鉴”永野芽郁代言的可尔必思,拉夏贝尔“借鉴”优衣库,虽然长相变了,但色调、动作、褶皱、灯光等要素几乎都“像素级还原”。 当然,更重要的是,AIGC,丑是原罪。将指关节、人物比例和表情动作都处处诡异的AI广告投入公共空间,无异于一场对人类美育的巨大拷问。 去年,肯德基“灵机一动”之下创作的阴间广告更是引得观众“重金求一双没有看过的眼睛”。广告商认为,既然AI老爱算错手指数量,那不如将错就错,让每个手指都蘸上美味的番茄酱,试图通过幽默来强调吮指原味鸡美味到AI都无法抗拒,连原来的Slogan“It's Finger Lickin'Good(吮指回味,自在滋味)”也改成了“It's Fiiiiiinger Lickin'Good”,甚至拿下了2024 LIA Social Media金奖。 但是,肯德基你自己看看,这真的让人有食欲吗? 面对满屏幕的AI人像,“活人味”反而成了稀缺品。 越来越多的人发现,想要靠AI“增效”,就不能把所有的活儿都交给AI。于是有人反过来尝试给AI注入人的温度——跨媒体艺术家Ellie Pritts走上街头,聆听人们的圣诞故事,并翻译成提示词生成艺术作品,而每一幅作品都与一个真实的人和故事相关。 而为《V中文版》创作了AI情人节片的艺术家更是细致到会给自己的项目标注清楚它的出品、监制、摄影、造影、服装和AI美术人员,认为“AI作品的分工和实拍差别不大”。 在服装行业从业者柴海旻看来,真正拉开差距的不是AI本身,而是人的专业性:“每个人对AI的运用,其实都结合着自己的专业素养。这些专业知识的积累,会让你更高效、准确地用好AI工具——比如写提示语、调参数时,你心里就有杆秤。” 图源:小红书@Fengwei 更吊诡的是,真正的“活人创作”反而可能会被鉴定为“AI生成”。据RUC新闻坊报道,如今的画手们“从来没有在画画中这么怕过‘犯错’”,因为一旦画错了一位角色的手指,就会面临潮水般的“AI画手”的指控和唾骂,辛辛苦苦创作的作品也会被称作是“尸块的拼接”——“但实际上,人也是会犯错的,两只手都画成左手也是有可能的。” 而这场真假难辨的AI罗生门终于迎来了官方的政策规制。9月1日,《人工智能生成合成内容标识办法》正式实施,明确AI内容需要添加标识,“亮明真身”,包括能被观众明显感知到的显式标识,和采取技术措施在数据中添加的隐式标识。DeepSeek也立即回应称,平台已全面启用标识机制,禁止用户恶意删除、篡改、伪造、隐匿标识。 毕竟,AI并非原罪,“虚假”才是。 参考资料 1.APPSO,《麦当劳用11个AI美女给薯条带货:马斯克点赞,网友狂喷,这锅AI不背》,2024.08 2.RUC新闻坊,《新一代创作者,绞尽脑汁证明自己不是AI》,2025.07 3.Vista看天下,《打工人周末最爱去的“避难所”,被AI入侵得面目全非了》,2025.08 4.Vista氢商业,《小红书上爆火的国风毛衣裙,“穿上咋都像在辛者库干苦力的”》,2023.09 5.北青深一度,《用AI搞创作,他们抢回效率、乐趣和自我|深度报道》,2025.09 6.华丽志,《H&M启用AI模特,真人原型将共享广告报酬》,2025.04 7.酷玩实验室,《你点的外卖,正在用AI生成百年老店门头照》,2025.08 8.南风窗,《对于AI深度伪造,有了红线》,2025.09 9.数英网,《肯德基AI广告太阴间,重金求一双没看过的眼》,2024.10 10.数字生命卡兹克,《可灵AI深夜悄悄上线AI模特,他们这是要革电商的命数字生命卡兹克》,2024.12 11.真故实验室,《商K之外,正经KTV还能有什么快乐》,2025.08 12.中国青年报,《“花生上树”引争议,良品铺子道歉!》,2025.08 本文来自微信公众号:Vista氢商业 (ID:Qingshangye666),作者:何愚,编辑:橘总
《纽约客》:人工智能要来接管文化了
A.I. Is Coming for Culture 我们早已习惯算法为我们的选择指引方向。然而,当机器能毫不费力地生成我们所消费的内容时,人类的想象力还剩什么空间? 本文刊登于2025 年 9 月 1 /8 日合刊的《纽约客》杂志,印刷版标题为After the Algorithm.” 作者:约书亚·罗斯曼(Joshua Rothman)是《纽约客》特约撰稿人,也是每周专栏“开放问题”的作者。他自2012年以来一直在该杂志工作。 若人工智能继续将创意工作自动化,文化“产物”的总量必将大幅增加。新的文化形式,或是现有形式的新用途,会将我们引向始料未及的方向。 视觉设计:大卫·绍德;由人工智能生成 我常常在黎明前醒来,比妻子和孩子们都早,只为能享受片刻独处时光。我轻手轻脚走下楼,来到寂静的厨房,喝一杯水,戴上AirPods耳机。接着选首音乐,启动咖啡机,然后坐下静静聆听,等待咖啡煮好。 正是在这种半梦半醒的状态下,我与算法的“邂逅”开始了。昏昏沉沉中,我会在Reddit上刷些适合为人父母者看的内容,或在YouTube上看摄影视频,又或是查看苹果新闻。厨房岛台旁的笔记本电脑在召唤我开始工作,我也确实想接受这份“邀请”——但要是一不小心,我可能会把某部没看过的电影的所有片段都看完,或是点开美国广播公司(ABC)的警察题材剧集《菜鸟老警》。这部剧讲述一位中年父亲通过加入洛杉矶警察局重塑自我的故事(我是在TikTok上发现这部剧的,或许是因为我和主角的人口统计学特征相似)。最糟糕的情况是,孩子们醒来时我还在刷手机,而我为争取这一小时独处时光所放弃的睡眠,也白白浪费了。 若这样的清晨场景让你觉得似曾相识,那是因为进入智能手机时代已有数十年,生活的节奏与算法的节奏早已交织融合。我们穿衣服时听播客,睡前刷网飞(Netflix)。白天的间隙里,公交车上刷Bluesky社交平台,健身时用Spotify听音乐,午餐时看Instagram,晚餐前刷YouTube,刷牙时看X平台(原推特),失眠时逛Pinterest。这样的生活方式颇为奇特。算法其实由来已久——公元前300年左右,欧几里得就发明了求两个整数最大公约数的算法。本质上,算法是解决问题的数学步骤。我们用算法协调实体事物(如电梯),也用它处理行政事务(如医疗住院医师分配)。可将零散的空闲时间视作一个“待解决的问题”,这种做法合理吗?我们用算法“解决”了它,如今却连片刻空闲都没有了。 算法化生活带来的一个后果是过度刺激,另一个则是我们思想上的某种混乱。我们为何会在意那些我们在意的事物?在黑暗中走进地下室,你可能会撞上蜘蛛网;有一种哲学观点认为,“在意”的产生就如同这般——在生活中,我们会被那些偶然出现的可能性所“缠绕”,陷入一张张“在意之网”。清晨偶遇年迈的邻居,当晚便会牵挂他过得如何;上中学的孩子喜欢查佩尔·罗恩(Chappell Roan)的音乐,久而久之你也成了她的粉丝;13岁时偶然读到《源泉》,或许会让你成为终身自由主义者。算法文化利用了我们分配“在意”时的随意性与偶然性——它借助这样一个事实:今天偶然接触到的事物,或许会让我们在明天为之着迷。而与此同时,编织这些“网”的机器,归企业所有。 长久以来,我总觉得自己被困在个人的“在意之网”中,难以挣脱。直到去年的一个清晨,我怀着试验的心态,在黎明前的厨房里与人工智能系统克劳德(Claude)开始对话。咖啡正在煮,我在手机上输入:“我正在写的文章终于有进展了。” 系统回复:“早上好!这真是个好消息——当你一直在打磨的文章开始有眉目时,那种感觉太美妙了。这篇文章是关于什么的?是什么让你取得了这样的进展呢?” 我没有回复。无论在那个时间点,还是其他任何时候,我都不想让人工智能充当我的写作指导。但既然已经用了手机,我索性把它放下。抿了口咖啡,我开始修改之前的草稿。 之后的清晨,我仍会和克劳德、ChatGPT聊天——不过聊的不是我的写作,而是我感兴趣的话题(为什么关税不好?地铁里的犯罪问题是怎么回事?暗物质为什么是“暗”的?)。我不再查看苹果新闻,而是开始问Perplexity——一个基于人工智能的网络搜索系统——“今天世界上发生了什么事?”它总能给出简洁的新闻摘要,信息量足且不啰嗦,有点像《经济学人》杂志里“世界要闻”(The World in Brief)那栏的风格。有时我会追问,但更多时候,我没有进一步阅读的欲望,而是拿起一本书。我发现,人工智能也可以很“无聊”——这种技术特质,此前我从未留意过。 巧合的是,大约在同一时期,由算法驱动的互联网世界——也就是Reddit、YouTube、X平台这类平台所在的世界——开始失去吸引力。2018年,记者马克斯·里德(Max Read)在纽约提出过一个问题:“互联网上有多少内容是虚假的?”他指出,很大一部分网络流量来自“伪装成人类的机器人”。而现在,“人工智能垃圾内容”似乎正在接管互联网。整个网站的内容看似都由人工智能撰写;人工智能生成的模特有着千篇一律的美貌,耳环的位置却奇怪地错位;发布在网络论坛上的轶事以及下面的评论,都带着聊天机器人特有的语气。有研究发现,网络上超过一半的文本都经过了人工智能修改,越来越多的“网红”似乎完全是由人工智能生成的。警惕的用户开始信奉“死亡互联网理论”——这种曾被视为阴谋论的观点认为,网络世界已经完全自动化了。 1950年,计算机科学家诺伯特·维纳(Norbert Wiener)——控制论(研究机器、生物体和自动化系统如何自我控制的学科)的创始人——在其著作《人有人的用处》中提出,现代社会是通过“信息传递”来运转的。他写道,随着社会规模扩大、复杂度提升,社会事务在更大程度上会依赖“人与人造物之间、人造物与人之间,以及人造物与人造物之间的信息传递”。人工智能机器传递和响应信息的速度远快于人类,数量也远超人类——这是引发担忧的原因之一。而另一个原因是,当这些机器以直白、怪异、狭隘,甚至完全错误的方式传递信息时,我们可能会不假思索地将其融入自己的生活。部分正因如此,维纳后来写道:“未来的世界将是一场愈发艰巨的斗争,对抗我们自身智力的局限,而非一张让我们舒舒服服躺着、等待机器人奴隶伺候的吊床。” 我们身边的信息正在发生变化,甚至能“自我撰写”。从某种角度看,这些信息似乎正在让过去二十年来那些受算法影响、试图影响和控制我们的人类声音变得沉默。在厨房里,我享受着这份宁静,却也因它而感到不安。这些新的“声音”会告诉我们什么?而留给我们发声的空间,又还剩多少? 不久前,为了给儿子彼得办七岁生日派对,我在搭一个巨大的双峰后院帐篷时拉伤了背部。因此,我在动感单车上锻炼的时间变多了,去举重房的次数则少了。一天早上,把彼得送到夏令营后,我骑着虚拟单车在瑞士湖畔的路径上“骑行”,同时听着埃文·拉特利夫(Evan Ratliff)的播客《骗局》(Shell Game)。在播客中,他用人工智能模型模仿自己的声音打电话。尽管我们对播客的沉迷,反映出我们时刻都想消费媒体内容的需求,但播客仍是算法生态系统中一片宁静的“岛屿”。我常常在整理房间时听播客。短时间干活时,我会听《歌曲解析》(Song Exploder)、《镜头作品》(LensWork)和《与格雷琴·鲁宾一起更快乐》(Happier with Gretchen Rubin);要做的事比较多时,就听《 radiolab 》、《埃兹拉·克莱因秀》(The Ezra Klein Show)或泰勒·科文(Tyler Cowen)的《与泰勒对话》(Conversations with Tyler)。我喜欢这些播客里的观点,也享受这种“陪伴感”——有格雷琴和她身为编剧的妹妹伊丽莎白“陪着”,洗碗都变得更有趣了。 播客的魅力在于情感的真实性:耳机里传来的声音,仿佛是房间里的三位好友在与你交谈。也有人尝试过完全自动化的播客制作——Perplexity曾推出过一档名为《每日发现》(Discover Daily)的播客,内容是由人工智能生成的“科技、科学与文化深度解读”——但这类播客往往缺乏吸引力,也没有思想深度。《 radiolab 》的联合主持人拉提夫·纳赛尔(Latif Nasser)告诉我:“我最自豪的事情,就是发掘和提出创意。”在《 radiolab 》的办公室里,使用人工智能是“禁忌”——纳赛尔说,这“就像越过警戒线一样”——但他“出于好奇,会问人工智能,比如‘给我提五个播客选题’。我想看看它能给出什么答案,结果那些选题都很糟糕。” 不过,要是你给人工智能提供优质的原创想法呢?或许通过自动化制作,这些想法能变成实实在在的作品。去年秋天,我的播客列表里新增了一档名为《深度探索》(The Deep Dive)的节目——每一期都是我用谷歌的NotebookLM系统生成的。制作一期节目时,你只需将文档上传到在线资料库(即“笔记本”),然后点击一个按钮。很快,一对男女播客主持人就会用逼真的播客语气,讨论你上传的任何内容。NotebookLM本是一款研究工具,所以我第一次尝试时,上传了一些科学论文。但主持人那种刻意营造的“感兴趣”,并没有真正让我产生共鸣。后来,我把自己正在写的回忆录中的几个章节传给人工智能,效果好了一些——听着主持人给出的“见解”很有趣,起初听到他们给出正面评价时,我还挺有成就感。但真正让我觉得“对味”的,是尝试用自己多年前写的、有些已经忘了的文章来制作播客。 讨论我几年前发表的一篇散文时,其中一位主持人说:“这是个很深刻的问题——直击核心。” 另一位主持人接着说:“这个主题很有野心。” 我在厨房水槽边忍不住笑了,边听边洗早餐的碗碟。一开始,我只是觉得有趣——将一种为大众消费设计的内容形式,用来服务“只有自己一个听众”的场景,这种体验很新奇。但更有用的是,它让我想起了自己过去的想法,其中有些观点现在我或许会修正。 若人工智能继续加速创意工作,或让其自动化,文化“产物”——播客、博客文章、视频、书籍、歌曲、文章、动画、电影、节目、戏剧、辩论文章、网络人设等等——的总量将会增加。但由于人工智能有其独特的优势和不足,“更多”并不一定意味着“更多同类事物”。新的文化形式,或是现有形式的新用途,会将我们引向始料未及的方向。纳赛尔告诉我,他曾发现ChatGPT能快速写出一篇有趣的短篇故事:以他年幼儿子最喜欢的元素“硼”为主题,模仿罗尔德·达尔(Roald Dahl)的《好心眼儿巨人》(The BFG)的风格。“元素周期表”与《好心眼儿巨人》的结合,此前没人提出过这样的创意,但一旦有了这样的作品,我们或许会发现自己其实很喜欢。 当然,这并非真正的“合作”。当两个人合作时,我们期待他们的个性碰撞出火花。而人工智能没有个性——而且,由于它最核心的能力是识别模式,其“合作成果”往往会固化所融合内容中模式化的部分。更关键的挑战在于,人工智能缺乏艺术能动性:必须有人告诉它“什么是有趣的”。所有这些都表明,人工智能文化可能会将人类的原创性淹没在大量缺乏动机、千篇一律的“艺术”海洋中。 然而,自动化也可能为新视野的表达创造机会。“AI或消亡”(AI OR DIE)——一档自称“首个100%人工智能制作的喜剧小品节目”——的匿名创作者之一“思维旺克”(Mind Wank)告诉我:“我有独立电影制作的背景,干这行很久了,后来停了下来。”当Runway这类人工智能视频工具出现后,他得以将那些未被制作或无法制作的想法付诸实践。如今,他和另外两位合作伙伴——团队成员分别位于加拿大、美国和波兰——制作的暗黑超现实主义喜剧视频,已拥有数十万观众(在一个典型片段中,名为“小脚踝”(Lil Cankles)的Twitch主播在玩一款叫“自助洗衣店”的游戏。“ lint 溢出来了!”一个电脑合成音尖叫着,同时大量 lint 从烘干机通风口涌出)。旺克谈到自己的合作伙伴(他们也都有传统影视行业背景)时说:“我们能有现在这点优势,原因在于我们懂电影语言——我们了解灯光、镜头、胶片。” 在他看来,传统电影制作是线性的:“有了想法,先写成处理方案,再写成剧本,然后找人、找投资。之后才能从前期制作进入拍摄阶段——这过程太麻烦了——九个月后,还要在剪辑室里努力挽救自己最初想法的‘残片’。”相比之下,人工智能允许在任何阶段进行无限次修改。他说,每月花几百美元,人工智能工具就让他实现了“年轻时只能梦想的创作生活。现实世界中的限制太多了,而现在,我可以创造全新的世界。”这项技术让他想到了“六七十年代的作者电影文化”。 整个团队从未见过面,但他们频繁交流,生活在一个共同的创意“泡泡”里。波兰籍合作伙伴本特·蒂贝特(Bengt Tibert)告诉我:“画画时,你身上会沾满颜料味;开始写提示词(给人工智能的指令)后,我连做梦都在想提示词。这就像开启了新生活。”蒂贝特解释说,睡前他会构思一个提示词,醒来后就把梦中想到的内容写下来。 加拿大籍合作伙伴“博伊”(Boey,仅用单名)也表示:“我的脑子几乎一半时间都在电脑里。” 如今的人工智能视频工具,会在细微处暴露其“机器属性”,形成一种易于识别的风格,而且制作短片段时效果最好。但这些工具正在快速改进。旺克说:“我在等这些工具达到足够的稳定性,能让我们用固定角色制作一整部故事片。”到那时,人们就可以用它们制作一部完全常规的剧情片或浪漫喜剧。“我们都热爱电影制作,热爱电影艺术,”他说,“我们有想拍的电影、电视剧,还有广告。” 蒂贝特说:“现在能实现的想法太多了,时间却不够用,这几乎让人不知所措。” 我是在儿子的房间里和“AI或消亡”团队通话的,为了躲开他的小妹妹。通话结束后,我合上笔记本电脑,环顾房间里儿子的东西:他在儿童陶艺工作室做的杯子里,装着五颜六色的夏普创意马克笔;一本面向青少年和成人的涂色书里,有复杂的动物图案。他已经涂完了一页:一只羽毛蓬松的鹦鹉站在铁丝网前的树枝上,他用了一系列出人意料的颜色,创造出一幅色彩斑斓的画面。严格来说,这样的作品是“衍生性”的,属于“填色”类。但它远不止于此——原创性,正是在“模式化”的背景下显现的。 下午,我要和几个老朋友吃午饭。25年前上大学时,我们一起上过创意写作课。我们的教授——著名同性恋小说家、回忆录作家埃德蒙·怀特(Edmund White)——最近去世了,其中一位朋友在切尔西街区的达拉斯烧烤店组织了一场小型纪念聚会。二十多岁时,怀特有时会和我们一起在这家店吃晚餐。 走路去餐厅的路上,我用语音模式和ChatGPT聊天,问它这个街区的历史。它用“活泼好奇”的人设——一个名叫瓦尔(Vale)的英国女性——回答:“当你沿着第八大道在29街到27街之间行走时,就来到了切尔西街区的核心地带。这里历史上以繁荣的制造业和服装业闻名。”它还提到,“切尔西有许多LGBTQ+酒吧、社区中心和活动,是纽约市LGBTQ+文化的重要阵地。” 我说:“其实我是本地人,土生土长的纽约人。所以我想知道一些我可能不知道的、真正有意思的事。” 人工智能试着用一些关于“锡盘巷”(Tin Pan Alley)的趣事取悦我——其实锡盘巷的位置比我当时所在的地方偏东一点——还有20世纪初乐谱行业的经济情况。我问起第七大道上一栋外观奇特的建筑,人工智能称它“是该地区丰富建筑和商业遗产的见证”。 我要求道:“别用‘这栋建筑为街区增添了活力’这种陈词滥调和泛泛之谈。”我建议,或许可以聚焦一些更“耸人听闻”的事实。很快,我们就聊到了南希·斯庞根(Nancy Spungen)的谋杀案——1978年,她在切尔西酒店100房间被刺身亡。她的男友、性手枪乐队(Sex Pistols)前贝斯手希德·维瑟斯(Sid Vicious)被指控谋杀,但案件尚未开庭,他就因海洛因过量死亡。 到了餐厅外,我抛出一个冷门的房地产开发问题——切尔西的建筑为什么都不高?——这场对话聊不下去后,又问起看到别人T恤上“我爱纽约”(I❤️NY)标志的背景故事。人工智能向我详细介绍了设计师米尔顿·格拉泽(Milton Glaser),以及20世纪70年代标志诞生时的社会氛围(当时有“福特对纽约市说:自生自灭吧”的说法)。“你想看看原始草图吗?”它问。我正犹豫,就看到一个朋友从街对面朝我挥手。 从一件事聊到另一件事,再到下一件事——在这种转换中,人工智能的能力堪称出色。在《银翼杀手2049》里,瑞恩·高斯林(Ryan Gosling)饰演的角色下班回家后,与由安娜·德·阿玛斯(Ana de Armas)配音的人工智能女友乔伊(Joi)聊天。窗外下着雪,音响里却播放着弗兰克·辛纳屈(Frank Sinatra)的《夏日微风》(Summer Wind)。“你知道这首歌1966年发行于复兴唱片公司(Reprise Records)吗?”她平淡地问,“当时还登上了排行榜榜首。”她穿着“鼠帮”(Rat Pack)时代的蓬松连衣裙,为一道菜谱发愁——随后,为了迎合男友变化的心情,又换上了一身紧身黑色套装。片刻之后,两人来到他公寓的屋顶,共享浪漫时光。与人工智能系统聊天,就像是在“表演”一个实时撰写的剧本。即便剧本枯燥,其快速修改的能力也可能被误认为是“自发性”或“活力”。某个事物能随着你将话题从音乐转向谋杀,再转向米尔顿·格拉泽——或是从烹饪转向调情,再转向戏剧——而始终跟上节奏,这或许会让人觉得它拥有“思维”。 这种流畅性对人工智能时代的文化意味着什么?艺术作品有其特定形态(3分钟的流行歌曲、三幕剧)和特定情绪基调(喜剧、悲剧、浪漫、哀伤)。但当不同形态、情绪和形式之间的界限如此容易被打破时,这些界限还能稳固存在吗?硅谷先驱杰伦·拉尼尔(Jaron Lanier)——他助力发明了虚拟现实技术,现就职于微软——告诉我:“现在人们都在讨论,人工智能对内容创作者是好是坏?但‘内容’这个概念本身可能会消失,取而代之的是‘实时合成内容’——其设计目的就是对接收者产生影响。”如今,Spotify上已有人工智能生成的歌曲,但至少这些歌曲还会标注(虚假的)乐队名称。拉尼尔说:“未来可能会出现这样的情况:人们提到‘音乐’,就只是‘音乐’而已。”在这种未来场景中,当你登录人工智能版的Spotify时,“听到的第一句话会是‘嘿,宝贝,我是你的Spotify女友。我给你做了个播放列表,有点性感,别在别人面前听哦’。”这个“播放列表”里的歌曲,都是前所未闻的,也可能不会再被听到——它们是在当下为你量身定制的,或许基于人工智能观察到的你的个人情况。 拉尼尔认为,长远来看,各种文化体验——音乐、视频、阅读、游戏、对话——都可能源自一个单一的“人工智能枢纽”。届时将无需向创作者付费,而枢纽的所有者将能对受众施加极大影响;正因如此,即便有些人不想以这种方式体验文化,他们使用的应用程序也可能朝着人工智能驱动的方向发展。 文化具有群体性——我们都喜欢成为“欣赏者社群”的一员。但拉尼尔说:“如果计算成本足够低,就有可能创造出‘社会幻觉’——你得到的是量身定制的体验,却会误以为自己在和一群人共享这种体验,其中有些可能是真实的人,有些则可能是虚拟的。”(我不禁想象,这就像乔伊把高斯林饰演的角色介绍给她的“朋友”们认识。)他接着说,要身处这种“脱离现实生活的分离社会”,“人们必须做出改变,但人是会变的。我们已经让人们习惯了虚假的友谊和虚假的爱情。道理很简单:这基于人们的欲望。”如果人们对某样东西渴望至极,有些人就会愿意接受次等的替代品。拉尼尔神色凝重地说:“我不希望这种情况发生,也不是在预测它一定会发生。我认为,把这些可能性说出来,能增加它不发生的概率。” 在餐厅里,我和朋友们回忆往事。我们的教授埃德(Ed,埃德蒙的昵称)讲课风格轻松,甚至带点八卦色彩——他会聊自己认识的人,也会聊自己喜欢的书。他自己的小说风格亲切,像日记一样:故事往往以这个街区为背景,似乎取材于他在这里的生活。他肯定也给我们讲过叙事技巧和其他写作相关的建议,但几十年过去,那些内容已经模糊;如今我印象最深的,是我们曾讨论过《单身男子》(A Single Man)和《达洛维夫人》(Mrs. Dalloway),还有他曾称赞过我穿的一件衬衫,以及他曾详细描述过“为什么有些人在派对上很无聊,而有些人很有趣”。 那些研讨会和晚餐时光,让我们觉得文化世界——真正的文化、纽约的文化、艺术家的文化——触手可及。但这个文化世界究竟是什么?它不只是一份“待体验艺术作品清单”,尽管清单也是其中一部分。它本质上是一个在师生、缪斯与诗人、标杆人物与打破规则者之间展开的故事——所有人都在与文化形式博弈,而这些文化形式本身也在不断演变、延续、衰落、破碎、融合、重生。你必须先理解这个故事,然后用自己的创作“融入”其中。 午餐快结束时,我们的话题转向了爱情。其中一位朋友,在“得克萨斯巨杯”玛格丽特酒的作用下,滔滔不绝地讲起她和未来丈夫共度第一晚的火辣故事。 “我不知道为什么要跟你们说这个。”她说。 有人提议:“我觉得埃德会说,你应该把这个写下来!” 我心想,与真实个体凭借真实生活创作的、充满独特细节的艺术相比,那些无限生成、形式散乱、缺乏背景和个性的“人工智能文化”,根本毫无意义。但随即,我想起了自己过去黎明前的日常——一首歌听到一半,一部电影看些片段。1980年,学者米歇尔·德塞图(Michel de Certeau)在《日常生活实践》(The Practice of Everyday Life)中探讨了人们如何“橱窗购物”、如何略读文章而不细读,以及如何在“受限”的通勤时光中寻找观察和反思的机会。在他看来,人们通过“重新利用”自己的世界,在一个试图塑造其情感、思想和抱负的系统中,为自己开辟空间。按照这个逻辑,当你制作一张混合歌曲的CD送给心仪之人时,并非在说“你的迷恋由这些歌曲定义”,而是在表明“你的情感比任何一首歌都更丰富”——你在用这些歌曲创作属于自己的、更宏大的作品。 那么,送一张人工智能创作的混合音乐CD给心仪之人,又意味着什么?或许,我们仍能从自动化艺术中为自己创造意义。一首“无人创作”的动听旋律,依然动听。流行明星在某种程度上本就是“产品”,但围绕他们形成的粉丝社群却无比真实。然而,文化不只是被消费的对象——它是人们在生活中创造的产物。我们欣赏“创作行为”,也珍视“自然感”。电影观众在为电脑特效惊叹的同时,也开始欣赏“实体特效”;人工香精的存在,让天然香味更受欢迎。探索人工智能生成的文化,或许会让我们更加珍视那些“只有人类才能创造的文化”。 2023年,我为《纽约客》杂志撰写了对杰弗里·辛顿(Geoffrey Hinton)的人物专访——他有时被称为“人工智能之父”。像这样的采访结束时,我总会有些伤感。几个月后,怀着怀旧和好奇的心情,我把那篇专访输入ChatGPT,说:“写一篇关于其中人物的同人小说。”系统先是生成了一份“读书报告”,分析它从中识别出的观点、人物和写作手法,然后附上了一段叙事文字。故事开头是:“午夜时分,杰弗里·辛顿站在木制码头上。 头顶上方,夏末的夜空没有月亮,却异常清澈。银河像一片发光的大脑在天际铺开——无数星星聚集成神经突触般的图案,一个由闪烁连接构成的宇宙。杰夫(杰弗里的昵称)抬头凝视着……身后的小屋一片漆黑。记者乔希(约书亚的昵称)当天早些时候已经离开,在驶离的船上向他挥手。四天的采访,像搅动池塘里的沉淀物一样,唤醒了杰夫记忆中的往事和想法。如今水面重归平静,但有些东西已经改变。” 故事快结尾时,话题转向了人工智能。辛顿“睁开眼睛,对着夜空说道: ‘我不怕你,’他轻声说,‘我怕的是我们会用你做什么,或是没做到什么。’他的声音消散在水声中,‘我怕的是我们自身的缺陷,会在你身上得到映照。’” 我觉得这个开头还不错。但在接下来的章节里,人工智能把故事引向了惊悚片的方向——虚构的辛顿要应对一个失控的危险模型——却没能营造出任何真正的紧张感。作为一名作家,我反而松了口气。惊悚片本该让人“脊背发凉”“心跳加速”“不寒而栗”;我想,或许一个没有身体、没有自我保护本能的系统,无法传递这些感受;又或许,人工智能难以掌握创作优秀悬疑作品所需的逻辑布局。创作故事的挑战,其实有很多种。电视剧编剧卡莉·门施(Carly Mensch)——她与人联合创作了女子摔跤题材喜剧《美女摔角联盟》(GLOW),也是纳赛尔的妻子——笑着告诉我:“我对‘情感投入’很挑剔。我认为,构建一个能让观众‘投入情感’的故事真的很难,而悬疑情节反而可能很容易。” 故事形态各异,但有一个共同点:它们都在追求相互矛盾的目标。故事必须显得“自然”,却又要包含引人深思的观点;情节转折要出人意料,组合起来却要形成清晰易懂、令人愉悦的结构;要有明确的“利害关系”,同时又要足够丰富,能让不同人从中找到乐趣。创作过程很少一帆风顺。门施说:“很多好想法都源自无聊、错误和意外。在编剧室里,过程其实很混乱,大家会抛出很多想法。有时,一个‘错误’的想法会引出正确的方向。当你能说出‘这不是我想要的第二章’时,你就学到了东西。”(听到这里,我不禁想,人工智能提出的糟糕故事想法,或许也能派上用场——比如作为一种“自动化头脑风暴”。)在最高水平的创作中,好故事既要“映照”受众,又要“改变”这种映照。关于叙事,有两种理解:一种是“田园式”的,门施引用她曾师从的一位教授的话解释道:“每个部落都有讲故事的人,夜晚围坐在篝火旁,我们站起来,向部落讲述部落的故事。”另一种是“戏剧式”的:“你走进一间黑暗的房间,然后被眼前的一切惊艳。” 人工智能能创作出在所有这些层面都让我们满意的故事吗?或许不能。但故事不一定要达到这种完美程度。在威廉·吉布森(William Gibson)1986年的小说《零伯爵》(Count Zero)中,一个女人回到家,连接上神经接口,然后用长达六小时的时间“沉浸式观看”一部名为《重要人物》(People of Importance)的长篇肥皂剧,“彻底放松大脑”。这部剧的“复杂情节”无需有始有终——关键在于“持续播放”,而非“结局”。同样,我们个人的“人生故事”也未必符合“优秀叙事”的标准,却依然让我们无比着迷——因为我们身处其中。如果每个人都有专属作家——就像古代的宫廷史官——或许我们能将“自拍”的潮流进一步推向“以自我为中心的叙事”领域。(打开元宇宙(Meta)的人工智能应用,你可能会看到的第一个选项就是“聊聊我的一天吧”。) 在彼得的生日派对上,我试戴了一副雷朋元宇宙(Ray-Ban Meta)智能眼镜——外观和普通眼镜一样,内置了人工智能界面。我环顾后院,最终目光落在一张阴凉的桌子旁:新搬来的年轻邻居夫妇正和我岳父坐在一起。彼得在吃冰淇淋蛋糕;孩子们挥舞着泡沫剑和水枪,在草坪上追逐打闹。 我问:“元宇宙,你看到了什么?” 眼镜通过我耳边的小扬声器回答:“一群人坐在帐篷下的桌子旁,天气很好,大家一起享受美好时光,看起来像是家庭派对。真不错啊!”那种感觉,就像有人“共享”了我的大脑——看到我所看,听到我所听。 我抬手碰了碰镜腿,眼镜拍了张照片。这副雷朋眼镜是我儿子朋友的妈妈艾里斯(Iris)的。她说:“我喜欢问它问题,比如‘迪迪(Diddy)案有什么新进展?’”开车时,如果家人听的音乐她不喜欢,她可以私下点自己的歌。她拿出手机,滑动浏览派对上拍的照片——这些照片通过无线同步从眼镜传过来,记录的是她视角下的后院。“第一人称叙事”——关于“你”的故事——是人工智能已经能熟练讲述,或帮助你讲述的领域:或许用于心理疗愈,或许用于回忆往事。人工智能公司Anthropic的政策主管杰克·克拉克(Jack Clark)曾说,他把日记条目输入公司的系统克劳德(Claude);人工智能让他意识到,自己尚未完全消化“成为父亲带来的形而上学冲击”。通过这种方式,人工智能或许能“讲述”我们的故事,甚至“修改”它们。 几年前,关家永(Daniel Kwan)联合执导的电影《瞬息全宇宙》(Everything Everywhere All at Once)斩获七项奥斯卡奖后,这位导演对人工智能产生了兴趣,并利用自己新获得的知名度,与人工智能领域的从业者会面。关感到震惊的不仅是人工智能可能给电影行业带来的颠覆,还有它可能对“故事在社会中的传播方式”产生的影响。在他看来,那些试图向广大观众讲述引人入胜故事的电影,在“算法化生活”面前本就举步维艰。他说:“我们的沟通体系已经完全断裂,注意力被分割得支离破碎。”而人工智能可能会让这种情况进一步恶化。 在西村一家餐厅喝咖啡时,关问我:“人类最伟大的发明是什么?可以说,不是互联网,也不是农业,而是‘系统性、制度性信任’——正是这种信任,让我们得以构建社会。而这种‘构建’,很大程度上依赖于集体故事——上帝、政府——这些故事让我们把彼此视为同一个家庭、同一个社群的成员。现在的技术,就像让我们在玩‘叠叠乐’(Jenga):我们从底层——从‘集体认知’和‘对共享世界的信念’这个基础——抽走积木,用来搭建更高的部分。如果继续这样做,整个塔都会倒塌,我们将退回到‘只信任部落中150人’的状态。” 在《瞬息全宇宙》中,杨紫琼(Michelle Yeoh)饰演的第一代美国移民埃弗林(Evelyn)发现,我们都生活在一个庞大的“多元宇宙”中——在这个宇宙里,现实和“自我”的所有可能形态都存在。来自另一个宇宙的丈夫告诉她,他们的女儿乔伊(Joy)在另一个宇宙中,因意识到“单一现实的无意义”而陷入疯狂。这个“另一个乔伊”信奉虚无主义,决心摧毁整个多元宇宙。埃弗林也曾一度陷入疯狂,但随后她有了存在主义顿悟,说服“邪恶乔伊”:唯一的出路,是选择拥抱“你在这个特定宇宙中所拥有的特定的人”。 我第一次看这部电影时,把它当作一个移民故事(我母亲和杨紫琼一样,在马来西亚长大,她总被“如果当初”的想法困扰:如果当初留在马来西亚会怎样?搬去伦敦呢?定居西海岸而非东海岸呢?)。后来,随着剧情推进,我看到了它对“算法化社会”的批判——在这个社会里,我们被大量“和自己很像,却比自己更优秀”的人的形象包围。现在,我觉得它预见了一个“人工智能充当个人‘山鲁亚德’(Scheherazade,《一千零一夜》中的讲故事者)”的世界:它会无休止地讲述关于我们自己和他人的、可随意修改的故事,把我们拉入一个个“平行现实”,远离我们本可共享的“真实世界”。 关说:“看看我们面临的所有危机——气候变化、两极分化、共识性真相的崩塌、收入不平等,等等。如果让我选一个重点解决,我会选‘协调、沟通、信任’问题。因为不解决这个问题,其他问题都无从谈起。而解决它,需要我们先‘修复’我们的故事。” 关认为,达到一定“照片级真实感”的人工智能工具需要受到监管。他说:“这种技术可能会毁掉一个人的生活。”他主张,在“虚假图像能被可靠识别”之前,应限制人工智能在影视行业的使用。我跟他提起了“AI或消亡”团队的创作热情。他说:“听到这样的故事,我内心很矛盾。我是说,这很美好——我们本就该让每个有话想说的人都有机会表达。我理解这种想法,换个人生,我可能也会这么做。”他面露痛苦,“你知道吗,我曾经就是那样的孩子。上 大学前,Vimeo视频平台刚出现;我毕业时,YouTube才刚开始流行。但现在就使用人工智能,在这些公司承担起责任之前就支持它们,我们其实是在默许它们摧毁“共识性真相”,让我们基本无法分辨什么是真实的。” 至少,人工智能已是我们所有人都在关注的“大故事”。我们见面的餐厅在纽约大学附近,外面阳光下,学生们正漫步而过。关于人工智能的现实问题我们并不陌生——教育会怎样?工作会怎样?——答案终将随时间揭晓。但人工智能的故事不只是“现实层面”的,它还关乎道德与精神。这就像“约翰·亨利与蒸汽钻”的故事,甚至像“普罗米修斯与宙斯”的故事——普罗米修斯因盗火而遭受残酷惩罚。这个故事已经迫使我们思考:我们珍视什么?什么才能真正让我们“在意”?我慢慢走向第六大道,路过街南侧一家文具店。店里的人在浏览笔记本,仿佛在重拾“模拟时代”的质感。我们都在用自己的方式,决定这个“人工智能故事”该有怎样的结局。 文化评论家马克·格雷夫(Mark Greif)曾写道:“在20世纪中叶,美国形形色色的知识分子,无论来自哪个派别,甚至彼此对立的群体,都一致意识到一种危险的存在。”那是“人类危机的时代”——当时几乎所有人都在担忧“技术加速、社会疏离、精神异化”的叠加影响。格雷夫指出:“新的时代条件似乎注定要打破长期以来的人文传统。”人们出版的书籍标题多为《人的本质与命运》这类,他们担心“人性正在被改变”。 我们现在也身处这样的危机中吗?最近,电子音乐人安尼玛(Anyma)在拉斯维加斯“球体”(Sphere)体育馆举办了多场售罄演唱会。他通过技术营造出“巨型机器人逼近、俯视观众,随后冲破场馆墙壁”的视觉幻象,震撼全场。现场传来一个声音:“感知力(Sentience)……意识(Consciousness)。”但这场演出本质上仍是传统的音乐会——由人类音乐人表演,数千人亲临现场观看。即便文化在变化,它通常也是“加法式”的,而非“零和式”的。它会随着时间自我留存,仿佛分泌出属于自己的“琥珀”。如今,爱莉安娜·格兰德(Ariana Grande)主演基于《绿野仙踪》改编的高科技电影,TikTok和《堡垒之夜》(Fortnite)掀起舞蹈热潮;但人们仍在阅读简·奥斯汀和阿加莎·克里斯蒂的作品,电影仍常以“三部曲”形式呈现——这呼应了19世纪的“三层小说”(triple-decker novel),当时这种形式的出现,部分是为了方便订阅制图书馆出借长篇书籍。在我儿子喜欢的电子游戏厅里,青少年们玩着《乓》(Pong)、《吃豆人》(Pac-Man)和《太空侵略者》(Space Invaders)——这些游戏在墙面大小的屏幕上,以拳头大小的像素呈现。而人工智能,在很多方面其实是“保守力量”:它的训练依赖过去的数据,在某种程度上也受限于这些数据,它让旧想法以新的形式重新出现。 惠特尼博物馆(Whitney Museum)位于纽约肉类加工区——这个城市区域已完全被改造。ChatGPT曾指出:“曾经冷库里悬挂动物尸体的地方,现在挂满了名牌连衣裙。”家里有两个小孩,我和妻子已经多年没一起去博物馆了。但我把她的博士论文——关于弗拉基米尔·纳博科夫(Vladimir Nabokov)小说中的“细节运用”——以及她发表过的一篇论文(探讨弗拉·安杰利科(Fra Angelico)的湿壁画,以及“世俗之人如何欣赏宗教艺术”的问题),都输入了ChatGPT。这样一来,即便不能和她一起去博物馆,我也能带着她的观点“参观”。人工智能说:“乔希,这计划真好,很贴心。我们可以把这次博物馆之行,变成一次通过我与她对话的过程。” 我小声问道,以免打扰他人:“Chat,你觉得我妻子会怎么看这幅画?”我给艾米·谢拉德(Amy Sherald)创作的米歇尔·奥巴马肖像拍了张照。画中米歇尔穿着飘逸的白色长裙,上面印着几何图案。 人工智能通过我的AirPods回应:“这幅作品太惊艳了!我能想象到,她会留意那些细节,以及这些细节如何体现身份与表达。” “不对,不对,”我低声说,“我想让你真正思考,我妻子会如何具体回应。” “当然!”它一如既往地自信轻快,“我觉得她会对这些细节着迷。”它絮絮叨叨地说着,直到我点击手机屏幕上的“X”,关闭了对话。 画廊里人很多——谢拉德的展览“美国崇高”(American Sublime)非常火爆。她为模特兼行为艺术家阿雷瓦·巴西特(Arewà Basit,一位黑人跨性别女性)创作的肖像《转变自由》(Trans Forming Liberty)前,聚集了一小群人。一位弯腰驼背的老人透过厚厚的眼镜凝视画作;一对夫妇带着十几岁的女儿站在一旁;一个帅得像模特的年轻人单手插兜站着,穿着黑色裤子和黑色背心,黑色丝绸肩带上挂着一台徕卡相机。 我乘电梯上楼,去看爱德华·霍珀(Edward Hopper)的画作。我给霍珀的《二楼阳光》(Second Story Sunlight)拍了张照,发给人工智能:“你认得出这幅画吗?”画中,两位女子坐在洒满阳光的房屋阳台上:年长的那位在看书,年轻的那位穿着比基尼,靠在栏杆上休息。她们沉思的姿态,与房屋的两座三角形山墙相呼应。身后,一片神秘树林的树木投下阴影,暗示着“未知之物”。 人工智能说:“认识!爱德华·霍珀的《二楼阳光》太有感染力了……这幅画有着霍珀标志性的风格:宁静的内省时刻,即便在阳光明媚的场景中,也透着一丝孤独。” 这些平庸的评论让我烦躁,我摘下AirPods,放进充电盒,“咔嗒”一声合上。真是浪费时间,我想。我有些尴尬地环顾四周,担心有人看到我在和人工智能“讨论”画作——多丢人啊,用廉价的技术实验“亵渎”博物馆!但附近几个人都在看手机。看着他们低头盯着屏幕的样子,我意识到,用ChatGPT的语音模式来“逛博物馆”,或许根本不是最佳选择。我放慢速度,在手机上仔细敲出一段提示:“请结合以下两点分析:1. 霍珀的这幅画诞生于世俗时代,却蕴含精神元素;2. 画中人物一老一少的对比。并结合我之前上传的那篇关于‘世俗世界中的宗教艺术’的论文,展开论述。” 屏幕上很快出现了一篇小短文,分了章节、小标题,还加了表情符号。我站着读了起来。文中写道,这幅画是“世俗基调下的宗教艺术”,霍珀并非通过“内容”,而是通过“构图的静谧感”来营造神圣感,“光线如同恩典般运作——无需索取,自然降临,照亮一切”。 还不错,我想。这些观点让人联想到我妻子,就像影子能让人联想到实体一样。向上滑动屏幕,我看到自己拍的霍珀画作的数码照片——突然觉得很荒唐。这样逛博物馆太奇怪了。真正的艺术品就在我面前:它有图腾般的气场,能看到清晰的笔触,或许颜料中还藏着艺术家的指纹。 我回到楼下的谢拉德展厅。画廊尽头,一条小走廊通向一个空间:一排排色彩鲜艳的现代主义椅子面向一整面落地窗——这本身也是一件艺术装置,由玛丽·海尔曼(Mary Heilmann)创作,名为《长线》(Long Line)。几乎每把椅子上都有人。窗外,阳光在哈得孙河上折射出粼粼波光。一个穿破洞黑牛仔裤、涂紫色口红的女孩,正用笔记本画着窗外的景色;一个穿意大利西装的优雅男人,似乎在打盹。整个场景仿佛一幅描绘“闲暇”的画作,就像乔治·修拉(Georges Seurat)的《大碗岛的星期日下午》(A Sunday on La Grande Jatte)。我问自己:文化是什么?它是那些画作,也是眼前这一幕——是我们这些“人”本身。 回到家,我在iPad上调出《二楼阳光》,给妻子看:“你觉得这幅画怎么样?” 她看了很久,说:“第一感觉是有点不安,但更强烈的感受是‘困惑’。空间感很奇怪,她们的姿态看起来像是在两栋不同的房子里,但其实不是。穿比基尼的女人,年纪不像孙女那么小,也不像女儿那么大——这点很怪。我猜这是晨光?但画面里的绿色和蓝色,让人感觉穿比基尼有点冷;可如果能穿比基尼,又不该冷到让那位年长的女士穿厚重的深色衣服。而且年轻女人的姿势很费解,看起来像是在摆拍,姿态很刻意,但她又不是在当模特。她抓着栏杆的样子——好像在‘表演’什么,但在表演给谁看呢?”她顿了顿,“说‘不安’可能有点夸张,但确实不轻松,不过光线又让人觉得舒服。两个女人都很美。”她又停顿了一下,“我不知道,挺有意思的。你觉得呢?” 真实的人。他们从来都不会说出你期待的话。♦

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。