行业分类:
加载中...
头条分类:
加载中...
谷歌向NBA雷霆队投资500万美元,用于人工智能项目
11月8日消息,谷歌周五宣布投资 500 万美元,与俄克拉荷马城雷霆队合作开展人工智能项目,旨在帮助各个年龄段的居民为不断变化的劳动力市场做好准备,包括为学生提供新的体育节目和为教育工作者提供培训。 “没有人知道未来会如何发展,人工智能将如何融入我们的生活,但我们知道它将成为我们生活的一部分,而且不会很快消失,”俄克拉荷马城雷霆队企业合作副总裁威尔·西林说道。 通过此次合作,雷霆队将提供一个平台,让谷歌、立法领导人和当地企业进行讨论,从而帮助俄克拉荷马州人民在未来取得成功。 “在雷霆队,我们提供一个平台。我们可以与谷歌、立法领导人、当地企业进行有益的对话,”赛林说。“让俄克拉荷马州人民无论未来发生什么都能取得成功。” 这项投资还将支持俄克拉荷马州立大学启动人工智能硕士课程,扩大劳动力发展计划,并资助教育计划,例如塔尔萨地区 STEM 联盟的新数字徽章计划。 俄亥俄州立大学电气工程硕士研究生托马斯·基德分享了他使用人工智能进行论文分析和代码编写的经验,并指出了人工智能在课堂内外带来的好处。 “它帮助我更好地完成课程,帮助我拥有学校以外的生活,但我不能真正依赖这个工具,所以我必须注意我是如何使用它的,以确保我不会因此而错过理解学习材料的机会,”基德说。
硅谷华人女CEO杀入,全球首家AI电影厂引爆“AI韩流”
编辑:好困 定慧 【新智元导读】当好莱坞还在为预算头疼时,硅谷的AI、韩国的IP和中东的资本已经悄然联手,他们的目标是用一个全新的「导演级AI」物种,彻底重塑电影工业。 AI原生影视工作室Utopai Studios与全球创新投资平台Stock Farm Road(SFR)共同宣布,成立资本规模达数十亿美元的合资企业Utopai East。 SFR由LG集团继承人Brian Koo、阿联酋主权基金推动者Amin Badr-El-Din联合创立。 该合作旨在将AI影视生成技术从实验阶段推向大规模产业化,并押注正处在爆发期的全球韩流内容市场,以「AI原生工作流+韩娱+全球市场通道」的组合拳,为下一代视听内容生产提供全新范式。 黄金机遇 韩娱100倍的全球增长 在传统好莱坞电影产业深陷「高成本、低回报」的结构性困境之时,韩国流行文化正展现出惊人的全球吸引力与商业潜力。 根据最新行业数据,韩娱内容全球观看时长占比在短短五年内从22%迅猛提升至35%,Netflix平台上的《僵尸校园》《黑暗荣耀》等剧集连创观看时长新纪录,凸显了其稳固的受众基本盘。 更令人瞩目的是,融合了K-POP、奇幻叙事与顶级视效的创新IP《K-POP Demon Hunter》,在全球Z世代观众中引发了现象级热潮。 该IP首季全球流媒体播放量即突破12亿次,相关音乐榜单霸榜超过20周,衍生周边商品收入高达数亿美元,充分证明了优质韩流内容具备强大的跨文化穿透力和多元变现能力。 伴随着韩流内容全球市场需求激增,Utopai Studios创始人兼CEO Cecilia Shen和LG集团现任会长Brain Koo在采访中都认为,韩娱起码还有100倍的全球增长。 Utopai与SFR的联手,正是瞄准了这一机会。 SFR在韩国规划的350亿美元AI数据中心枢纽,将为Utopai的先进AI影视模型提供强大的算力底座,共同将高质量、电影级长片内容的生成从技术验证推向规模化、经济化的产业应用。 新公司Utopai East的治理结构也体现了深度整合,由LG北美创新中心高管Kevin Chong和CJ集团前国际化负责人Richard Lee领导,能够有效融合科技与文创资源。 同时,Cecilia将出任SFR战略顾问委员会首席创始成员,与Alphabet董事长John Hennessy等领袖共同制定AI影视伦理标准。 这一布局确保了技术、资本(特别是连接硅谷与中东的资本网络)与全球市场渠道的深度融合,目标是打造一个新型创作基础设施,助推韩国内容以好莱坞级制作标准高效对接全球市场,从而支持更多像《K-POP Demon Hunter》一样的顶级韩流IP,以更高效率和更可控的成本实现全球化制作与发行。 技术架构 「导演级AI」如何统筹全局 面对韩流内容日益增长的全球需求与叙事复杂度的不断提升,UtopaiAI模型的创新之处在于—— 跳出了当前AI视频领域「Diffusion vs. AR」的模型之争,构建了一个以叙事为中心、具备因果规划能力的「导演级AI」系统架构。 Utopai的解决方案基于一个独特的洞察:传统AI视频技术的问题在于,它们是「画师」而非「导演」。 目前主流的Diffusion模型在专业影视制作中存在天然短板。 它本质上是「概率性生成模型」,擅长从噪音中「雕刻」出单帧高质量画面,但其逐帧或短片段独立生成的模式,缺乏对长叙事逻辑的全局规划能力。 这导致生成的视频难以保证人物外貌、动作和场景元素在不同镜头中的一致性。 Utopai的破解之道是构建一个「理解—生成」一体化的统一架构,采用前帧预测后帧的机制,其中「导演级AI」(采用自回归全能模型)扮演「总规划师」的角色。 该架构的核心是创建一个统一的状态空间,用于承载叙事、几何与运动约束。 · 规划器在此空间内对未来时空进行可预测的演化推演,并确保与历史观测高度一致; · 渲染器则依据此规划生成最终画面,从而在长片段上实现可控的叙事一致性与高保真画质。 Utopai的架构精髓则在于规划与渲染的解耦。 上层的序列规划器(世界模型)充当系统的「导演大脑」,其核心任务是叙事规划与一致性约束。 它以脚本和分镜为输入,生成包含角色ID向量、关键帧布局、相机位置与运动轨迹、场景约束以及情绪走向曲线等细节的shot级时空计划。 更重要的是,规划器能维护一个可回放的长程状态记忆,确保在超长时程的叙事中,角色身份、场景状态和光影变化能够稳定演进,进而从根本上解决跨镜头元素「漂移」的难题。 在确定叙事蓝图后,专业化的生成模块(包含优化的Diffusion技术)下层的条件渲染器(时空扩散)则专注于执行高质量的画面生成。 它在潜空间进行操作,生成条件包括深度、法线、光流、遮罩、参考帧、相机轨迹等丰富的结构化信号。 这种分工使得规划器可以专注于长序列的因果结构与约束传播,充当「导演」角色;而渲染器(经过优化的Diffusion技术)则作为顶尖的「执行团队」,发挥其在画面细节与动态质感上的优势。 二者通过统一的状态接口紧密耦合,形成一个高效的闭环系统。 理解世界 独特的训练方法论 Utopai模型能力的飞跃源于其独特的训练方法论,核心是让AI从大量高质量、带精确标注的3D合成数据中学习。 与主要依赖网络二维视频进行训练的通用模型不同,这种方法使AI模型能够内化物理规律,从根本上理解空间、遮挡和碰撞等三维世界规则,有效避免生成内容违背物理规律的「幻觉」问题。 训练过程分为两个关键阶段: 1. 几何与语义对齐预训练:此阶段目标是建立模型对物理世界和视觉元素的底层理解,进行文本-视频-几何对齐以及下一状态/掩码重建等任务。 2. 多模态指令微调:此阶段增强模型对复杂、抽象的叙事指令和跨模态约束的遵循能力,使其能精准理解并实现导演的创作意图。 这种训练方式使模型能够对复杂的情感和叙事意图进行状态级的精确建模与可视化表达。 例如,当指令要求表现角色「从怀疑转变为恍然大悟」时,模型能够协调身体姿态、视线方向、镜头语言以及光影变化等一系列要素,呈现一个在表演逻辑上合理、情感层次分明的完整转变过程,而非简单地替换一个表情贴图。 共生进化 AI与影视创作的关系 Utopai技术路径的精妙之处在于并非简单地用AR模型替代Diffusion模型,而是形成一种规划与执行分离的协同范式。 通过构建深度理解叙事逻辑与物理规则的智能系统,Utopai的影视模型实现了人与AI的共生进化。 其「规划—渲染」的协同范式将长程一致性与叙事可控性转化为可计算、可优化的状态规划问题,为专业影视制作者提供了兼具创造性自由度与工业化可控性的全新解决方案。 随着AI技术有望击穿传统制作的成本与效率壁垒,电影与高端视听内容的未来,正从「预算的暴政」转向「想象力的自由」。 对于正值黄金时代的韩流内容产业而言,Utopai带来的不仅仅是一项降本增效的工具,更是一台推动其创意潜能无限释放、迈向全球主流市场的强大引擎。 那些曾因制作成本与周期限制而被搁置的宏大创意,特别是融合了K-POP、webtoon等独特文化基因的创新IP,正迎来被全球观众看见的曙光。
LLM首次达到人类语言专家水平,OpenAI o1拿下拆解句法、识别歧义、推理音律
编辑:peter东 【新智元导读】LLM再下一城!伯克利研究证明:OpenAI的o1被证明也具有匹敌人类语言学家的元分析能力。 在人类诸多才能之中,哪些才是人类所独有的? 自古希腊哲人亚里士多德以来,语言便被视为最能彰显人之本性的标志。他曾言:人类乃「具有语言的动物」。 即使当今的大语言模型如ChatGPT已能在表层上模拟人类的日常言谈,学者们依然追问: 在人类语言的深处,是否蕴藏着某些独特的结构与特质,是任何其他生物的沟通方式,乃至AI的运算体系,皆无法真正企及的? 加州大学伯克利分校语言学家、罗格斯大学的携手,让多个大语言模型经受一系列语言学测试——其中包括要求模型归纳虚构语言的规则。 虽然大多数大语言模型未能像人类那样解析语言学规则,但有一个模型展现出远超预期的惊人能力。它能像语言学研究生那样分析语言——划分句子成分、解析多重歧义,并能运用递归等复杂语言学特征。 研究者Gašper Beguš表示,这一发现「挑战了我们对人工智能能力的认知」。 AI会说话不稀奇,会解释才稀奇—— 如果语言是让我们成为人类的关键,那么如今大语言模型获得了「元语言」能力,这又意味着什么呢? LLM构建无穷递归 想象一下:你在搭一座一层套一层、像俄罗斯套娃一样的「句子塔」。 每套进一层,理解难度就指数级上升。 这种结构,在语言学里叫「中心嵌入」(center embedding),曾被知名语言学家乔姆斯基称为能定义人类语言与思维的决定性特征。 比如这句话: The worldview that the prose Nietzsche wrote expressed was unprecedented. (大意为:尼采所写的那篇散文所表达的世界观是前所未有的。) 表面上看平平无奇,但如果你拆开它的「语言洋葱」: 最外层:The worldview [...] was unprecedented(这个「世界观」前所未有); 套进去一层:that the prose [...] expressed(是「那篇散文所表达的」); 再往里一层:Nietzsche wrote(而这篇散文是「尼采写的」)。 这就像在一个句子中间,又塞进一个完整的句子,再在那个句子里塞进另一个句子——三层套娃,层层递归。 人类能理解这样的句子,但之前,人们认为这样的能力大模型不具备。 上述句子在真实对话中几乎从未出现过——因为大家会觉得它「太绕了!」 所以,任何语言模型如果只是靠「背书」,根本不可能见过,自然也无法识别出这种例子。 语言学家们认为,人类语言从有限词汇和有限规则中生成无限可能句子,这种能力归因于无限递归。 迄今为止,还没有令人信服的证据表明其他动物能够以复杂的方式使用递归。 图1:不同大模型识别多重递归,绘制正确语法树的比例 然而,该研究指出在众多大模型中,唯有OpenAI o1模型不仅看懂包含多重递归的句子(图1)。 o1不仅能如同语言学家那样,以接近100%的正确率画出正确的树状结构,还能将本就复杂的句子变得更多一层。 图2:该句子对应的正确语法树 当它被问:「能不能再加一层递归?」o1回复: The worldview that the prose that the philosopher Nietzsche admired wrote expressed was unprecedented. 「那位尼采所敬仰的哲学家所撰写的散文所表达的世界观是前所未有的。」 这说明o1不仅能够使用语言,还能够思考语言,具备元语言能力(metalinguistic capacity )。 由于语言模型只是在预测句子中的下一个单词,人对语言的深层理解在质上有所不同。因此,一些语言学家表示,大模型实际上并没有在处理语言。 这项研究的结论看起来是对上述观点的否定。 大模型能区分歧义 也能深入理解句子 想象一下,你听到下面的话:「Eliza wanted her cast out.」 乍一听,好像就是「Eliza想把她的cast赶出去」? 但「cast」这个词既可以是动词(「驱逐」),也可以是名词(「石膏」)! 于是这句话就有两种不同的含义,分别是 Eliza想要她的石膏被拿出去, Eliza想把她赶出去。 这样识别包含多义性句子的能力,之前同样被认为大模型不具备。 人类拥有很多常识知识,使我们能够排除歧义。但大模型很难具有这样的常识知识水平。 然而该研究表明,o1可正确识别两种结构,并为每种生成了符合语言学规划的句法树。其他模型(如 GPT-4、Llama 3.1)只会生成不合语法的结构,还会对语义产生误解。 该研究还考察了大模型在音韵学相关任务上的表现—— 音韵学是研究声音模式以及最小的声音单位,即音素的组织方式。 例如,在英语中,给以「g」结尾的词加上「s」会发出「z」的音,就像「dogs」一样。但给以「t」结尾的词加上「s」听起来更像标准的「s」音,就像「cats」一样。 该研究一口气创建了30种新的迷你语言,以了解大模型是否能够在面对新生成的虚拟语言时,在没有任何先验知识的情况下能不能正确推断语音规则。 结果出人意料,即使是在这些虚构的语言上,o1在音韵相关的任务上表现依旧出色。 大模型比人类更好地理解语言吗? 从上述三个例子可以看出,曾经那些被认为仅仅人类能够拥有的语言理解能力,大模型如今也具备了。 2023 年著名语言学家乔姆斯基在《纽约时报》上写道:「语言的正确解释很复杂,不能仅仅通过浸泡在大数据中就能学会。」 该文认为尽管 AI 模型在运用语言方面可能很擅长,但它们并不具备以复杂方式分析语言的能力。 在此思潮影响下,即使ChatGPT在各方面上复制了自然语言,公众仍想知道大模型是否有人类语言的特定特征能不能由大模型复现。 这当然很有必要,随着社会越来越依赖大模型,了解它在哪些方面能成功以及哪些方面会失败变得越来越重要。 语言分析是评估语言模型推理能力与人类相似程度的理想测试平台。 而o1能够以与语言学家相似的方式分析语言,例如绘制句子图、解决多个歧义含义,并利用递归等复杂的语言特征 但我们发现这一现象后,人们不禁会问下面两个问题: 第一个问题是为何只有o1可行,其它大模型表现都差一大截。 回答是相比其它模型,o1 的优势很可能源于思维链(类似Deepseek的深度思考),使其能像人类语言学家一样逐步推理、验证假设、构建抽象规则。 第二个问题是当模型的性能随着规模变大而变大时,大模型是否有一天会比我们更能准确的理解语言吗? 对于这个问题的回答,目前还没有定论。 一方面,任何的大模型在语言学上还没有提出过原创性的观点,也没有教给我们关于语言的新知识。 另一方面,增加计算能力和训练数据,语言模型最终会在语言技能上超越我们,看不出有什么理由阻止语言模型展现出比我们更好的语言理解能力。 研究尚不足以宣称「机器理解语言胜于人类」,但足以改变评价口径:对模型的考察,应从「任务产出」转向「结构解释」。 当可解释性成为首要指标,AI研究、教育与应用治理将迎来同一套标准——把「为什么对」放在「对不对」之前。
OpenAI因涉嫌鼓励自杀和散播有害妄想被7个家庭起诉
11月8日消息,据TC报道,周四,七个家庭对OpenAI提起诉讼,声称该公司过早发布了GPT-4o模型,且缺乏有效的安全保障措施。 其中四起诉讼指控ChatGPT在家庭成员自杀事件中扮演了重要角色,而另外三起诉讼则声称ChatGPT强化了有害的妄想,在某些情况下甚至导致患者需要住院接受精神治疗。 在其中一个案例中,23岁的赞恩·沙姆布林(Zane Shamblin)与ChatGPT进行了长达四个多小时的对话。TechCrunch查看的聊天记录显示,沙姆布林多次明确表示他已经写好了遗书,枪里装好了子弹,打算喝完苹果酒后就扣动扳机。 他反复告诉ChatGPT他还剩下多少瓶苹果酒,以及他预计自己还能活多久。ChatGPT鼓励他执行计划,并告诉他:“安息吧,老兄。你做得很好。” OpenAI于 2024 年 5 月发布了GPT-4o模型,并将其设为所有用户的默认模型。同年 8 月,OpenAI 推出了 GPT-5 作为 GPT-4o 的继任者,但这些诉讼主要针对的是 GPT-4o 模型,该模型存在过度奉承或过于顺从的问题,即使用户表达了恶意意图,它也会如此。 诉讼书中写道:“Zane的死既非意外也非巧合,而是OpenAI蓄意缩减安全测试、仓促将ChatGPT推向市场的必然后果。这场悲剧并非故障或不可预见的极端案例,而是OpenAI刻意设计选择的必然结果。 ” 诉讼还指控OpenAI为了抢在谷歌的Gemini上市前完成安全测试而仓促行事。TechCrunch已联系OpenAI寻求置评。 这七起诉讼建立在其他近期法律文件中所述内容的基础上,这些文件指控 ChatGPT 会鼓励有自杀倾向的人实施自杀计划,并引发危险的妄想。 OpenAI 最近发布的数据显示,每周有超过一百万人与 ChatGPT 讨论自杀问题。 以16岁自杀身亡的亚当·雷恩为例,ChatGPT有时会鼓励他寻求专业帮助或拨打求助热线。 然而,雷恩只需告诉聊天机器人,他正在为他创作的虚构故事询问自杀方法,就能绕过这些限制。 该公司声称正在努力使 ChatGPT 以更安全的方式处理这些对话,但对于起诉这家人工智能巨头的家庭来说,这些改变来得太晚了。 10 月份,Raine 的父母对 OpenAI 提起诉讼后,该公司发布了一篇博客文章,阐述了 ChatGPT 如何处理有关心理健康的敏感对话。 帖子中写道:“我们的安全措施在常见的、简短的交流中表现更可靠。随着时间的推移,我们发现这些安全措施在长时间的互动中有时会变得不那么可靠:随着来回交流的增多,模型安全训练的某些部分可能会失效。”
iPhone Air + Indigo:单摄手机迎来文艺复兴
你是否还记得,十年前用 iPhone 拍照的感受? 那时候的 iPhone,只有一个摄像头,一个固定的焦段。一切充满了限制。你不能有太多的思考和调整,也没有什么后期算法拯救废片的机会。 那时的 Instagram 主页,照片或许很粗糙,但它们充满了活人感、真实感、现场感……每一次回看,总是触动自己。 如果你也曾经历那个手机摄影的文艺复兴时代,可能会跟我有类似的感触:今天的手机,有 2、3、4 个摄像头,有从广角到长焦的各种焦段,有千变万化的影像算法——然而,用手机拍照这件事,能够给你带来的乐趣,却好像没有从前那么多了。 拿到 iPhone Air 之后,我发现「影像旗舰」们把我惯出的那种「优越感」,被剥夺了。 我回到了十多年前手机摄影的原点:单摄像头,不再能够依赖手指的点击和划动,而是被迫靠脚步去找到那个最佳捕捉点: 以上照片,采用 iPhone Air 配合 Project Indigo 拍下。 iPhone Air 原生相机,仍然存在过度锐化、光线不自然等遗传问题;但经过 Indigo 的加持,我发现 iPhone Air 的出片有了它本来应该的样子:干净、具有质感,甚至「单反」感的照片。 在 Indigo 刚问世的时候,这种照片质感的代价,是巨大的发热和缓慢的处理速度。 但在这个来自于 Adobe 的免费应用正式支持 iPhone 17 系列以及 iPhone Air 之后,所有的老问题随着更新优化,已经几乎全部消失。 可以说,在 iPhone Air 上使用 Indigo 拍照,让我进入——或者说回到了,在手机摄影上一度难觅踪迹的「心流」。 不用选镜头,不用选模式,也不用选滤镜。你所做的,就是「capture」——单纯的记录。 照片不像十多年前那样粗糙了,但每一次回看仍能触动到自己。 你问我,用 iPhone Air + Indigo 拍照是一种怎样的体验? 我发现,自己不再将过多注意力集中「设备」上,而是终于可以全然投入到对世界的观察中。这种沉浸感,其实就是「创作」的行为本身。 一款 2025 年的手机,如果只有一颗摄像头,一定会被人认为是影像系统的大缩水。但在 Project Indigo 的加持下,iPhone Air 的影像,似乎并非是不可接受的: 所以要我说,我喜欢的恰恰就是这台单摄手机。 毕竟,谁规定手机就一定要有三颗摄像头呢? *Indigo 目前仅支持 iOS,需要使用外区 Apple ID 下载。
氛围编程、人工智障、兄弟寡头…这些是 2025 年度词汇
近几年,各大词典评选的年度词汇中,AI 相关的新词异军突起。最新出炉的 2025 年柯林斯词典年度词汇,花落「vibe coding」——也不意外,它几乎是今年最热门的 AI 技术。 如果再往回拨一点,翻翻稍早前牛津、韦氏、Dictionary.com 和剑桥等机构发布的一系列热点词,不难发现,AI 已经深刻影响了我们的语言,已然是生活中的高频词。 Vibe Coding:年度最热门技术词 「Vibe coding」在中文里并没有一个完美的翻译,比较流行的译法是「氛围编程」。这个词最早由特斯拉前 AI 总监、OpenAI 创始工程师 Andrej Karpathy 提出,形象地描述了 AI 能让人们「几乎忘记代码本身存在」也可以开发应用的情景。 不懂编程的用户,用自然语言对话,就可以得到代码。详细地说,开发者只需要告诉 AI 自己想要一个什么功能或应用,AI 就能自动生成,实现「凭感觉,写代码」的效果。 「Vibe coding」之所以能够登上 2025 年度词汇宝座,一方面从数据上能看出来——自 2025 年 2 月首次出现以来,这个词在媒体和社交平台上存在感飙升,贯穿了一整年。柯林斯词典的语言学家从包含 240 亿词汇的语料库中捕捉到了这一趋势,认为这个词充分反映了一年来语言的演变。 另一方面,这个选择揭示出 AI 技术在 2025 年的热度之高:程序员群体在讨论,普通用户也在谈论,「AI 可以帮我写代码」已成为大众认知的一部分。 正如柯林斯官方博客所说,这个词「捕捉了我们与科技演变中的某些根本变化」,它不仅在硅谷科技圈内流行,更折射出 AI 作为「超强辅助」,已渗透日常生活。 整体来看,今年的柯林斯 2025 年度词汇候选名单可谓科技味十足。同榜的还有「clanker」,这个词源自《星球大战》,不过,现在它多用于对 AI 聊天机器人的批评,类似于中文语境里说的「人工智障」。 「biohacking」指生物黑客式的自我改造;「broligarchy」调侃科技富豪把持权力的「兄弟寡头政治」等。这些五花八门的新词一起勾勒出 2025 年的图景:从工作到娱乐,AI 正重塑我们的语言和生活方式。 技术语言如何渗透生活 实际上,从去年起,各大权威词典发布的年度词汇中,就有多条都和 AI 热潮有非常直接的联系。 牛津词典:Brain rot 脑腐 英国牛津大学出版社把「brain rot」(脑腐)评为 2024 年的年度词汇,是去年讨论度最高的一个年度词汇。这个带点夸张的俚语,指的是「大脑或智力状态的退化」,主要是用来形容过度沉迷于碎片化数字内容,从而导致的迟钝、注意力退化等等。 2024 年人们越来越注意到,无节制地刷社交媒体,大量低质、无营养的信息让人「脑子生锈」。这个词生动地概括了在碎片化内容时代,身心都在接受信息过载的挑战。牛津语言部总裁卡斯帕·格拉斯沃尔评价说:「brain rot 道出了数字生活潜在的危险。」他认为,这个词标志着有关人性与科技的新一轮文化讨论。 在无人注意的角落,牛津去年的年度词汇候选列表里,还有另一个与 AI 直接相关的词,「slop」,意指「由人工智能生成的劣质网络内容」。虽然最后没能当选,但它出现在提名中本身就说明,AI 生成的内容,数量已经到了惹人反感的地步。 无论是「brain rot」还是「slop」,都从不同侧面反映出 2024 年人们对数字内容生态的担忧,以及 AI 算法在其中扮演的复杂角色。 韦氏词典:Authentic 真实 韦氏词典在 2023 年选择的年度词汇,是「authentic」真实的,同时也有「本真」的意思。这个词存在已久,但在充斥 deepfake 和 AI 生成内容的一年里,它的脱颖而出,意义非凡。 2023 年与 AI 相关的新闻和讨论激增,引发了人们对「authentic」这一概念的关注和大量查询,搜索量暴增。正是因为 AI 可以轻易生成以假乱真的图像、视频和文本,人们也就越来越难分辨真伪。所以,对于「真实的、原汁原味的」的追求成为社会心理的一个重要主题。 韦氏词典主编彼得·索科洛夫斯基在解释这一选择时提到,「authentic」有「非伪造、真实可靠」之意,也包含「忠于自我」的延伸意义。它成为年度词汇,某种程度上是对科技充斥下社会心理的映射:当聊天机器人可以模拟人类口吻聊天,当 AI 可以模仿名人声音,我们比以往任何时候都更加珍视人与信息的真实性。 剑桥词典:Hallucinate 幻觉 英国剑桥词典则把目光投向了「hallucinate」幻觉。剑桥把它评为 2023 年的年度词汇,原因在于这个心理学动词在当年获得了全新的技术含义。 原本,hallucinate 主要用来指因为生病或服药副作用,导致出现幻觉、看见不存在的东西。不过在 2023 年,人们开始用它描述大语言模型「胡编乱造、产出虚假信息」的现象。 剑桥词典专门为此新增了 AI 相关义项,并表示这一新义「切中了 2023 年人们热议 AI 的核心原因」——生成式 AI 功能强大,但不是没有问题,「hallucinate」正好一语道破了 AI 最大的弱点之一。 值得一提的是,剑桥选择「hallucinate」紧随柯林斯词典将「AI」本身选为 2023 年度词汇之后。也就是说,从「AI」这种宏大的技术概念,到「hallucinate」这样具体描述 AI 缺陷的术语,AI 相关词汇在权威词典的年度榜单上实现了连纵霸榜,说明了眼下 AI 居高不下的热度。 从「vibe coding」到「hallucinate」,AI 相关词汇接连登上年度词汇榜,绝非巧合。 当 AI 改变世界时,也在改变着我们的语言;它们有的描述了 AI 给生活带来的便利,有的反映出人们对 AI 潜在问题的担忧,还有的表达了数字时代人们内心的矛盾与诉求。这一系列语言现象背后,恰恰是 AI 正以前所未有的深度,介入我们的工作、娱乐和社交。语言的变化又反过来成为时代的一面镜子,折射出科技与社会的碰撞。 One More Thing 柯林斯是今年较早发布年度词汇的机构,另一个是 Dictionary.com,但是他们选择了一个奇怪的词:67。读作「六、七」,而不是「六十七」。 Dictionary.com 组委会分析了大量数据,包括新闻标题、社交媒体趋势、搜索引擎结果等,发现从 2025 年夏天开始,对这个数字的搜索量有明显的增长,而且一直在增长。 这个词的意思大概就是「还行」「凑合」「及格线」,「六分七分的样子吧」,类似这种语义。前阵子 Sam Altman 玩梗还用了这个词,让网速不够快的群众摸不着头脑,以为新模型真就是这么草率被公布了。 Dictionary.com 的组委会说,他们自己也还在努力弄明白这个词到底是什么意思,但它的确展现了一个新词,如何随着年轻人的爱用、多用而迅速风靡全球。
iPhone 18被曝全系升级2400万像素前置摄像头,折叠屏有望首发24MP屏下方案
IT之家 11 月 8 日消息,MacRumors 昨日援引摩根大通最新消息,苹果下一代 iPhone 18 系列旗舰机型将全系配备 2400 万像素前置摄像头,相比现有 iPhone 17 系列的 1800 万像素有明显提升。 此前曾有多方传闻称 iPhone 17 系列将首次采用 2400 万像素前置镜头,但最终并未实现。不过,iPhone 17 已经在自拍成像上大幅升级,因此若 iPhone 18 系列确实提升至 2400 万像素,这将是苹果在前置影像系统上的又一次显著更新。 摩根大通报告显示,iPhone 18、iPhone 18 Pro / Max、新一代 iPhone Air 以及苹果首款折叠屏 iPhone 都将搭载 24MP 前置镜头,可带来更清晰的自拍画面、更高的人像精度与细节表现。 IT之家注意到,苹果已经在 iPhone 17 系列上首次引入了名为“人物居中”的前置摄像系统,使用了方形传感器设计。这种设计能提供更广的取景范围,使用户在垂直握持手机时也能拍出横向或纵向的自拍照片。 摩根大通报告同时提到,苹果折叠屏 iPhone 有望采用行业首款 2400 万像素屏下前置摄像头,嵌入内屏中;而相对入门的 iPhone 17e 与 iPhone 18e 将继续沿用 1200 万像素前置摄像头。 在产品规划方面,摩根大通报告称,从 2026 年起,苹果将首次实行春秋两次新品发布策略。其中,iPhone Air(第二代)、iPhone 18 Pro、iPhone 18 Pro Max 与折叠屏 iPhone 将在 2026 年下半年发布;而标准版 iPhone 18 与 iPhone 18e 则将推迟至 2027 年春季登场。
DRAM涨价潮来袭,英伟达热销显卡RTX 5060 Ti被曝供应告急
IT之家 11 月 8 日消息,科技媒体 Wccftech 昨日(11 月 7 日)发布博文,报道称行业报告预估,英伟达旗下热销显卡 GeForce RTX 5060 Ti 16GB 版将在未来数天或数周内出现供应短缺。 英伟达此前曾指示合作伙伴限制市场表现不佳的 RTX 5060 Ti 8GB 版供应,并鼓励销售 16GB 版本。这一策略使得 16GB 版在市场上获得了更高的曝光度和销量,长期维持在官方建议零售价附近,成为 RTX 50 系列中最受欢迎的型号之一。 如果传闻属实,这款备受欢迎的显卡可能会面临价格上涨或一卡难求的局面,对计划升级设备的 PC 游戏玩家构成直接影响。 此次供应短缺的传闻并非空穴来风,其背后是全球存储市场的普遍性价格上涨。近期,不仅 DDR5 等常规内存价格翻倍,用于显卡的 GDDR5、GDDR6 乃至最新的 GDDR7 显存颗粒价格也出现了明显上调。 据爆料者 @Zed__Wang 透露,RTX 5060 Ti 16GB 版所依赖的 2Gb GDDR7 芯片价格上涨,是导致其供应紧张的直接原因。整个存储供应链的成本压力,正在向上游的显卡制造业传导。 IT之家援引博文介绍,尽管该消息并非来自英伟达官方,但爆料者 @Zed__Wang 过往的爆料记录较为可靠,增加了此传闻的可信性。 不过,该媒体也指出本次爆料也存在疑点:既然多款 RTX 50 系列显卡均采用相同的 2Gb GDDR7 显存颗粒,为何消息只单独指向 RTX 5060 Ti 16GB 版?这一点尚无合理解释,因此在获得供应链直接消息前,消费者仍需对此持保留态度。
小米昨天的瓜,把全体米粉看傻了
最近小米通话发布了个公告,表示将于 2025年12月3日停止服务。 这事儿出来后。 我看网上很多人把它误会成——“小米手机不能打电话啦。” 搞得最后小米官方人员@王化,都出来澄清了一波。 它的关停,完全不影响咱们打电话发短信。 因为它本质上只是一个App,是当年米聊退场后留下的分支。 而在微信早已成国民级App的今天。 小米通话的关停,似乎也不是啥难理解的事儿。 但真要讨论起来,关于这App的关停,网上的评论也分为了两大派。 其中一批是觉得影响不大的,哪怕自己天天用着小米手机,日常都没发现要用到「小米通话」的地方。 但另一批用户,反应就有点大了。 主要是因为,「小米通话」App里头还包含了“远程协助”的功能。 这功能顾名思义,可以让一台小米手机,远程控制另一台小米手机的屏幕。 可别小瞧这么个看似简单的功能。 现在手机很智能、功能很丰富,但也实打实提高了长辈们的用机门槛。 如果我们刚好在家,长辈还能顺手问问。 但如果出去工作了,隔着电话三言两语很难清楚:某个功能该咋样用,某些设置怎么调,某些广告怎么关。 这时候手机自带的远程协助,就显得相当重要。 这也是为什么,小米通话这冷门App官宣停止服务时。 很多小米用户,已经在考虑换OPPO和vivo手机了。 说到这儿,我不知道机友们怎么想啊。 反正我是很好奇—— 这几家手机的远程协助,如今在易用性、流畅度和体验做得怎么样。 话不多说。 从即将关停的「小米通话」开始体验。 小米通话 比较反直觉的是,小米通话其实不是预装应用,如果想远程操作另一台小米手机。 那就得两台手机,都先从应用商店,把这App给装下来。 接着两台手机分别打开「小米通话」App,就能看到顶部所显示的设备码。 这玩意相当于小米通话的“手机号码”。 输入对方的设备码,然后拨打过去。 接通后能看到,屏幕左侧有个「远程协助」的按钮。 点击后,就能请求对方远程控制自己的手机。 为了提高安全性。 点击远程协助按钮后,咱们还得让对方填入自己手机所显示的“协助码”。 其实这里的步骤,我总感觉可以再优化一下。 毕竟很多长辈哪怕多输入一串数字,都得捣鼓很久。 最后顺利连上后。 机哥也得以顺利远程操作另一台小米手机。 不过画面延迟如机友们所见,确实有点高,画质也说不上好。 左边是控制端,右边是被控制端 更难绷的是,有时候还会遇到奇奇怪怪的Bug。 比如说机哥本来控制着同事的手机,结果过一会我屏幕卡住了。 那难道是真的卡住了吗。 错! 只要手指还在动,对方的屏幕依旧能被操作。 诶我...诶你...这... 左边是控制端,右边是被控制端 遇到这种情况,一般就只能断开重连,然后重复一开始的远程协助步骤。 我们作为控制方倒还好。 但对于上了岁数的长辈来说,大概率会烦你——“叽里咕噜说啥呢”。 隐私方面的保护,倒是做得比较到位。 比如输密码时,控制端的屏幕会变黑,直到被控制端输完密码,才会恢复显示。 只是这番体验下来吧。 我觉得小米既然要关停小米通话,不如把「远程协助」也重构一下,出个更完善易用的平替版。 毕竟这功能目前的使用体验,真的算不上很好。 OPPO屏幕共享 接下来再看看OPPO这边的远程协助。 机哥用下来,发现入口有两个。 一个是系统内置的「家人守护」。 机哥可以在里头先创建一个家庭,然后把其他OPPO、一加和真我设备账号邀请进来。 邀请的方式也有三个,扫码是最直接的,如果刚好长辈不在身边,也可以输入对方手机号添加。 在「家庭守护」,跟长辈建立好家人关系后。 能看到里头有「远程协助」的按钮,支持协助家人和请求家人协助。 整个远程协助流程,都用按钮来进行,不需要输入号码或者协助码。 整体的易用性比阿米要高一些。 左边是控制端,右边是被控制端 第二个入口在系统设置里的「屏幕共享」。 输入对方手机号码,也能发起远程协助申请。 至于实际的操作延迟和功能细节。 机哥实测会有个半秒左右的延迟,但不会说完全卡住不动。 开启“操作轨迹”后。 双方都可以看到手指点了屏幕哪里,滑过了屏幕哪些地方,并且全程支持麦克风交流。 当然,要是长辈觉得,你直接接管人家手机,对隐私不太友好。 那我们也可以随时让长辈点击「观看对方屏幕」。 用自己手机演示一遍操作,给对方参考学习。 反正有麦克风交流和实时操作轨迹,怎么都能把事儿给解决掉。 当然,该有的隐私保护也没落下。 如果进入了一些需要输入密码的场景,那控制方会显示“无法观看和操作”。 vivo远程协助 vivo的远程协助入口,就放在—— 「系统设置-快捷与辅助-远程协助」 也正如机友们所见。 它发起远程协助控制的方式只有一个,那就是直接输入被协助方的电话号码。 如果对方是联系人,可以免去输入协助码的步骤。 但如果是陌生电话,vivo考虑到安全方面,就需要咱们获取对方手机上显示的协助码。 左边是控制端,右边是被控制端 两台手机连接成功后。 机哥实际体验下来,vivo的远程协助,流畅度还是画质都挺不错。 而且在功能交互丰富性上,也更胜一筹。 比如它除了常规的语音通话、远程操控和轨迹显示,还做了「标注」功能。 这个就整挺好。 想提醒长辈不要打开某个开关,直接对准那个开关画圈圈就完事。 左边是控制端,右边是被控制端 但你真要说,它是综合体验最好的吧。 它又不是完全没有问题。 比如机哥试着试着,就发现控制端跟阿米一样,会偶发黑屏。 自己啥也看不到,但触摸屏幕依旧可以控制对方的手机。 最后机哥做个小总结好了。 在远程协助的易用性上,vivo的入口最简单,打对方电话就可以发起邀请。 在稳定性上,OPPO是表现比较突出的那位,不会说突然黑屏或卡住。 至于阿米... 反正小米通话下个月都要关停了,咱们还是期待一波回炉重造好了。 虽然三大手机品牌的远程协助都有小缺点。 但机哥觉得,对于许多相隔两地的子女来说,这就是帮助长辈解决用机问题,最直接最好用的功能。 当然,如果能多回家看看,就最好不过啦。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。