行业分类:
加载中...
头条分类:
加载中...
谷歌开放世界模型Genie 3试用:AI实时生成可玩世界,人人都能创造“我的世界”
刚刚,谷歌开放了世界模型Genie 3实验性研究原型Project Genie的使用,此前在25年8月,谷歌曾初步预览了Genie 3的世界模型,它能够生成多样化的可交互环境。早期测试者已经用它创造了一系列世界和体验,并发现了全新的使用方式。现在,通过这个专注于沉浸式世界创建的互动原型,谷歌决定扩大其使用范围 年满18岁的美国Google AI Ultra订阅用户今天起可以率先体验,这个原型,旨在让用户能够创建、探索并重混属于自己的互动世界 界面长这样: 如何玩转Project Genie Project Genie是一个原型Web应用,由Genie 3、Nano Banana Pro和Gemini共同驱动,用户可以通过它亲身体验世界模型带来的沉浸式感受。 工作流程如下: 🔵 设计: 使用文本和视觉提示设计你的世界和角色。 🔵 预览: Nano Banana Pro会生成一个图像预览,供你在进入前进行调整。 🔵 生成: Genie 3世界模型会随着你的移动实时生成环境。 🔵 重混: 在作品库中重新混合现有世界或发现新世界。 该体验围绕三个核心能力构建: 1. 世界草图绘制 (World sketching) 通过文本提示以及生成或上传的图像,创建一个生动且不断扩展的环境。你可以创建自己的角色和世界,并定义探索方式——从步行、骑行、飞行到驾驶,以及任何其他方式 自动播放 为了实现更精确的控制,谷歌集成了“世界草图绘制”与Nano Banana Pro。这让用户可以在进入世界前预览其样貌,并修改图像以进行微调。你还可以定义角色的视角——如第一人称或第三人称——从而在进入场景前控制你的体验方式 自动播放 2. 世界探索 (World exploration) 你创造的世界是一个等待探索的可导航环境。当你移动时,Project Genie会根据你采取的行动实时生成前方的路径。在穿越世界的过程中,你还可以调整镜头。 3. 世界重混 (World remixing) 你可以基于现有世界的提示词进行构建,将其重混成新的诠释。你也可以在作品库或通过随机功能探索精选世界以获取灵感,或在它们的基础上进行创作。完成后,你可以下载你的世界和探索过程的视频 自动播放 AGI与世界模型 世界模型用于模拟一个环境的动态变化,预测其演变方式以及行为所带来的影响。尽管Google DeepMind在国际象棋或围棋等特定环境中已拥有成熟的智能体,但构建AGI需要能够驾驭现实世界多样性的系统。 为此,谷歌开发了Genie 3。与静态3D快照中的可探索体验不同,Genie 3能够在你移动和与世界互动时,实时生成前方的路径。它能为动态世界模拟物理和交互,其突破性的一致性使得模拟任何真实世界场景成为可能——从机器人技术、建模动画和小说,到探索地点和历史场景。 基于与各行业和领域的信任测试者合作的模型研究,谷歌通过实验性研究原型Project Genie迈出了下一步 写在最后 Project Genie是Google Labs中的一个实验性研究原型,由Genie 3驱动。由于Genie 3仍是一个早期的研究模型,存在一些已知的待改进领域: 生成的世界可能看起来不完全逼真,或不总是严格遵循提示词或图像,或不符合现实世界的物理规律 角色有时可能不太可控,或在控制时延迟较高 生成时长限制在60秒内 此外,去年8月宣布的某些Genie 3模型功能,例如在你探索时可以改变世界的“可提示事件”(promptable events),尚未包含在此原型中。
三倍速已经满足不了观众了
今天要说一个特别专业的问题,为了表示重视,我特地真人出镜来讲。 就是包括前段时间波士顿圆脸和牢A的争议也好,还有这两天水均益入驻抖音拥抱播客也罢,背后都代表了一个趋势,观众和一线的距离,越来越近了。所以讲故事的人,会越来越有优势。 我的大学时代,差不多是传统媒体的末班车时期,当时传媒行业,大致可以分为三个岗位, 第一个,叫一线工作者,从兼职爆料人,到前线记者,甚至战地记者,都可以划到这个分类里这是在一线获得信息的人。 第二个,叫后台工作者,节目编导,栏目策划,文案小编,汇总信息,产出节目内容的人 第三个,就是镜头前主持人,这个大家都熟悉。 传统电视台可能比较专业,会划分的更细一点,但万变不离其宗。 今天所有的键政圈博主圈问题,基本也都源自这里。 在过去,一个标准的新闻,是先由一线记者采访,再经过后台编辑汇总,最后由出镜主持人完成拍摄。 一篇不起眼的豆腐干报道,背后需要三个岗位齐心合力才能完成,可能还要加上主编总编的审阅校对。这个速度显然不适应互联网时代的节奏,所以这几年传统媒体式微,地方报纸也好,电视台也罢,都无法维持昔日的编制和影响力,过去那种团队庞大,岗位细分的媒体机构,已经无法适应互联网时代的速度了 新出现的就是大家熟悉的自媒体,一个人又是采编又是剪辑,一个人就能干完所有人的活,突出一个快。 但问题就在这里了,当年传统媒体的岗位分类,其实是有原因的,一个人的精力是有限的,总会有侧重,所以需要把任务分给多个人完成,而在短视频和自媒体时代下,大家不得不一个人完成所有任务,于是一个有趣的情况就出现了。 在自媒体时代,最先吃到红利的媒体人是什么类型的呢?前台主持人类型 因为他们离观众最近,他们熟悉观众,观众也熟悉他们,他们对如何出镜,如何拍摄,如何调动情绪,在镜头前流利的阐述一段话,表述一个观点有着丰厚经验,甚至可以做到几千字长文稿一遍过,都不需要多少剪辑。 所以短视频时代最先火起来的就是新闻哥,新闻姐这个类型的自媒体,他们拥有极高的更新频率,非常强的镜头表达,往往能极大调动观众情绪,所以吃到了第一波红利。 但主持人的缺点是内容,过去传统媒体时代,有后台编辑,栏目策划们在背后提供子弹,他们只要出镜念稿就行,短视频时代,没有人在后台提供子弹了,他们有拍摄能力,但没有内容供给了。 你说直接找网上新闻,这没有问题,但所有人都这么想的时候,同质化就出现了,很容易出现大家都念一个稿子,报道同一个新闻的情况。所以主持人类型的博主,这两年出的少了,都在头疼内容。 在主持人之后,火起来的是编辑策划,目前大部分时政自媒体,包括圆脸,都是这个类型的。严格来说,我也是这个岗位出身。这个岗位的特点是对信息的获取能力,5G冲浪,对各行业新闻都非常敏锐,且能够在很短时间通过信息整合完成一篇不错的文案。过去在新闻哥新闻姐后面提供子弹的,就是这个岗位。 这个岗位的优势是信息很足,子弹无限,只要敞开了写,一天三四更都能做到。 但这个岗位的问题是什么,没有出镜能力,常年以来都是后台工作者,不掌握前台出镜,镜头拍摄技能,念个稿都磕磕绊绊的。所以这两年时政区博主形象经常被吐槽,相比老一代主持人的风度翩翩,后台编辑转自媒体的,出镜这块是扣大分的。这个也没办法,只能硬着头皮学。 而牢A这些代表的是什么类型呢?很多人说讲故事侃大山 NO,放过去,这个类型就是一线爆料者,战地记者岗位,这是新闻行业真正的壁垒所在。 你们可以去看一下水均益的访谈,他说的什么呢, 就是他当年还当记者那阵,听到中东战事,他把他们领导的门都敲破了,就是要上前线,要去伊拉克,去科威特 不会有人要抬杠水均益的专业水平吧? 人家老媒体人,是看明白的,新闻新闻,最重要的就是新闻本身,没有任何东西,能比一线新闻本身更具传播力。 你主持人镜头前的采访很圆满,你小编写的文章汇总的信息很全面,但在真实故事面前,都是苍白的。 哪怕隔了一层,不是亲手干的,是一线听来的,这种一线故事,也依然具备无与伦比的感染力。 人是很难想象自己没见过事物,关起门来让你硬编,大部分人是编不出什么的,所以一线内容,哪怕是听来的故事,在传播上都所向披靡。 所以很多人说讲故事讲故事,NO,从传播学角度,这两年自媒体的趋势很明显 就是减少信息中间层,加快流通速度。讲故事是形式,核心是把内容短平快的铺上来。 早年一个信息,先由一线记者爆料,再经过小编汇总,最后由主持人出镜播报。隔了三层,不但速度慢了,信息也很容易走样。 于是就出现了大家觉得主持人念稿没意思,信息密度低,直接听编辑类自媒体在线分析 现在是编辑类自媒体也慢了,要听一线爆料的。 这两年甚至出现中美对账这样,跳过媒体人双方网民直接对账。 之前不是许多人说吗,短视频出来会影响电影,现在的情况是什么?很多人看短视频都要开两倍速三倍速。 为什么出现切片流?过去媒体人看到新闻后要汇总整理,最后主持人出镜,这个速度实在太慢了,现在打法是看到什么说什么,一股脑全塞给观众,观众和算法自己会找出感兴趣的,这就是切片流。 包括前段时间讨论麻辣仙人,我是用动态的,因为我发现二次元战场的速度太快了,根本没有时间攒一堆素材搞一堆调研最后出个几千字大篇,只能想到什么发什么。然后我发现这样的效果也不错,我发的快,读者也即时评论。 包括现在水均益他们老一代媒体人做短视频做播客,本质都是在提速,同样的信息量,播客比你专题报道快。你又是剪辑又是拍摄的,人家播客三四期聊完了已经。 过去大众对直观度要求高,所以需要画面需要拍摄,现在大众的需求更多集中在信息量上,所以播客这样没画面直球信息的大量冒头。 所以对于当下的内容作者来说,有几个问题非常现实 一个就是全能化趋势,当年是一个团队,现在等于一个人既要采访也要编辑还要出镜,缺了任何一环,都是会减分的。单纯的只出镜或者只在后台整合信息,可能很难适应接下来的迭代了。 再一个,就是快,既是时间上的快,也是流通层级上的快,过去那种精心整理出爆款的思路可能无法适应现在了,哪怕你两倍速三倍速都不够,现在是一手信息直接铺开,切片和算法自己会找出感兴趣的。
加拿大给中国电车降税 是想和美国下大棋?
兄弟们,特别是在加拿大的兄弟们,恭喜了!往后,你们买中国电车能便宜一大波,搞不好直接打5折都有可能。 这到底是啥情况? 因为加拿大给中国造的电车亮绿灯了,直接砍掉了100%的关税。在之前的2024年,加拿大跟着美国搞事情,给中国电车加了100%的关税,综合税率干到106.1%。 这有多夸张呢,相当于1台在中国卖15万的电车,拉到加拿大去高低得卖30万起。对比其他正常税率的车,咱中国造的电车铁定没啥竞争力。 现在好了,降到就剩下6.1%的最惠国关税,彻底减负了。 看到这,估计不少兄弟会说,这不得一夜之间让中国电车跑遍加拿大街头? 别急着高兴,这事没那么简单。 这关税优惠目前就管未来5年,而且只有配额内的车,才能享6.1%的优惠税。这个配额也不多,2026年先给4.9万辆额度,之后逐年涨到7万辆就保持不变了。 更关键的是,配额当年用不完就作废,不能留到明年。如果超额呢,那对不起了,超过的部分继续承受106.1%的超高关税。 所以这4.9万辆的名额很宝贵,肯定不是谁先到港口排队就给谁,门槛不少。 比如车企得在加拿大当地有建好的售后网点,得向中国商务部争取出口的配额,最后在加拿大海关那验明正身,这一关一关都过了,关税优惠才算数。 除此之外,还有个价格门槛。 这五年里一半多的配额,加拿大都会给到3.5万加元以下的电车,也就是人民币18万左右,主打经济适用款的车,所以是既限额,还区分价格,挺复杂。 不过啊,这些门槛看着严,其实也帮咱筛出了真正能抓住机会的车企。接下来咱就扒一扒,咱中国产的电车谁是这波降关税的赢家。 毫无疑问,赢家里面肯定有特斯拉。 为啥?人家早就布局好了。2023年就靠成本和产能都是一绝的上海工厂,给加拿大出口了Model 3和Model Y。所以加拿大的销售网络、售后体系和超级充电站早就配齐了。 后来也是受了加拿大加征惩罚性关税的影响,特斯拉只能切换到让造车成本更高的美国和德国工厂供货,这一折腾,就让部分Model Y直接涨价超20%。 现在政策一松,相当于直接重启上海工厂的出口通道,其他大的额外成本都不用加,躺着就能赚。 除了特斯拉,像类似情况的莲花跑车、极星都能迎来利好。但要说最有潜力的还是比亚迪,本身有大量3.5万加元以内的车型,手上能打的牌有很多,就看能不能争取到配额。 结果,更有意思的事来了,加拿大政府那边还挺主动,直接找上比亚迪、奇瑞的高层谈了谈。 脖子哥觉得,他们肯定不只是想聊电车出口的事儿,更盼着这俩车企能去加拿大投资建厂,估计人家也是背着招商引资的KPI来的。 当然了,加拿大这波关税好处肯定不是白给的。明面上可能就是一波互惠互利,加拿大拿出电车市场,咱把加拿大的油菜籽关税从85%降到15%,还免了龙虾这些产品的关税。 但是脖子哥深挖下去,发现加拿大想要的远不止这些,他们实际上在下一盘大棋。 之前啊, 加拿大这个国家经济和防御都是高度依赖美国的。加拿大能不能安稳过日子,基本看美国的脸色,只要美国愿意,加拿大分分钟变成美国的第51个州。 就拿加拿大的汽车产业来说,80%的汽车零部件和整车销售额,都得靠出口美国。 要是美国愿意踏踏实实干生意也就罢了,结果2025年,美国直接把加拿大人当日本人耍,主打的就是怎么征、征多少全由老美说了算。 还接连甩出各种加码征税的小连招,比如先直接撕毁优惠承诺,对加拿大出口美国的整车突然加征25%的额外关税等等。 老美这番操作下来,直接给加拿大汽车产业来了记重锤。导致通用在加拿大的奥沙瓦工厂开掉了700多个工人,连带着周边配套工厂1000多员工跟着被裁。 所以加拿大对美国的态度就是怕大哥不来,又得防着大哥乱来。 而这次加拿大给中国电车降税,就是想通过中国的电车,给自己多搞点底牌。 不只是让中国电车进来卖,更是想吸引比亚迪这些中国车企去加拿大建厂,把本土的汽车零部件、组装产业重新盘活,尝试摆脱专给美国做汽车产业配套的尴尬处境。 毕竟加拿大的自然资源对造电车来说,那是五脏俱全了,光是丰富的锂、钴资源,就能让他们成为天选电车之国。光守着金山银山,没在新能源汽车产业上发力就太可惜了。 当然,加拿大也不可能彻底摆脱美国的控制,更多的还是通过这招给自己留回旋余地。中加两国在电车方面的合作,也变成了一种对美博弈的筹码,让美国也能适当消停点。 当然了,不管咋说,加拿大给中国的电车降税,对我们来说一定是个好事。 虽然4.9万辆的配额,在加拿大190万辆的年新车销量里只占3%左右,但好歹是开了个好头,等于给中国电车打开了北美市场的重要缺口。 现在欧美不少国家都在搞贸易保护限制中国电车,加拿大这个口子一开,对咱们车企来说就是新增的市场,能多赚钱、多输出技术。 如果顺利的话,还能带动电池、电机等上下游产业一起走出去,甚至把中国的新能源技术标准推广出去,提升在全球产业链的话语权。 虽然说还不知道未来美国可能动什么手脚,但无论如何,北美市场长期以来都是中国电车最难啃的硬骨头。 现在能拿下加拿大这个突破口,相当于在北美市场站稳了一个脚跟,后续只要我们的车企稳住、做好口碑,未来闯进美国市场,也不是不可能嘛。
月之暗面三位联创深夜回应一切!3小时答全球网友23问,杨植麟剧透Kimi K3提升巨大
编译 | 陈骏达 编辑 | 云鹏 智东西1月29日报道,今天凌晨,月之暗面核心团队在社交媒体平台Reddit上举行了一场有问必答(AMA)活动。三位联合创始人杨植麟(CEO)、周昕宇(算法团队负责人)和吴育昕与全球网友从0点聊到3点,把许多关键问题都给聊透了,比如Kimi K2.5是否蒸馏自Claude、Kimi K3将带来的提升与改变,以及如何在快速迭代与长期基础研究之间取得平衡。 AMA栏目截图 一开始,便有网友抛出尖锐问题:Kimi K2.5有时会自称为Claude,有人怀疑这是对Claude进行蒸馏的证据。杨植麟回应道,这一现象主要是由在预训练阶段对最新编程数据进行了上采样,而这些数据似乎与“Claude”这个token的关联性较强,事实上,K2.5在许多基准测试中似乎都优于Claude。 谈及Kimi K3,杨植麟没透露太多细节,但提到了K3会在Kimi Linear上加入更多架构优化,他相信,就算Kimi K3没比K2.5强10倍,也肯定会强很多。 整场问答中,月之暗面的三位联合创始人共回答了40多个问题。智东西也向他们提出了3个问题,并获得了直接回应。 当智东西问及月之暗面的算力储备时,杨植麟称,GPU数量的差距并未缩小,但实现AGI究竟需要多少算力,仍需拭目以待,而周昕宇补充了一句颇具哲理的话:创新往往诞生于约束之中。 杨植麟、周昕宇回应智东西关于算力储备的问题 周昕宇还提到,月之暗面有“把事情真正做成并落地”的共同价值观,而不仅仅是为了表面光鲜。 此次AMA正值Kimi K2.5的发布。这是月之暗面目前最强大的模型,在视觉、编程、Agent以及各种通用任务上都有不错的表现,还通过一项名为智能体蜂群的技术实现一个模型对多达100个“子智能体”的调度,任务执行效率最高提升450%。 发布后2天左右,Kimi K2.5获得权威AI评测榜单Artificial Analysis开源模型第一的成绩,仅次于来自OpenAI、Anthropic和谷歌的4款模型。 我们将AMA中的精华内容梳理归纳为23个关键问题,分为三章呈现,第一章聚焦月之暗面公司本身及AI行业相关话题,第二章介绍Kimi K2.5的技术细节,第三章展望月之暗面的未来规划。 01. GPU数量差距并未缩小 但创新往往诞生于约束之中 (1)智东西提问:在上次的AMA中,您提到月之暗面的GPU数量(相较其他企业)处于劣势。在2026年,这种差距会缩小吗? 杨植麟:我认为差距并没有缩小。但是,要实现通用人工智能(AGI)究竟需要多少算力?我们拭目以待。 周昕宇:可用算力受到太多因素的影响。但无论如何,创新往往诞生于约束之中(innovation loves constraints)。 (2)网友提问:您对DeepSeek的Engram架构有何期待?您是否正在考虑采用这种架构? 周昕宇:对嵌入进行Scaling是一个值得探索的有趣方向。但在我们通过Scaling阶梯对其进行测试之前,我们还没有太多可靠的数据。 (3)智东西提问:这是一个关于你们研究文化的问题。大规模模型训练会消耗大量的GPU时间,如何界定沉没成本?比如说,某个方向经过三个月的实验后没有明显的性能提升,你们的团队会根据哪些指标来决定是继续、调整方向还是彻底放弃? 鉴于行业内快速迭代的步伐,你们是否担心追求短期成功的压力,会影响那些需要多年才能见效的基础研究?您如何使您的团队免受这种压力的影响? 周昕宇:非常好的问题。针对第一个问题,我们会将所有相关实验的结果分享给所有技术人员,并进行深入讨论,直到最终决定是继续、转型还是彻底放弃。 讨论每天都会进行,我们鼓励每个人对所有事情提出质疑,从目标设定到最细微的技术细节。 针对第二个问题,长期以来,我们在押注技术基本面的走势上有着相当不错的记录。MoBA几乎从公司成立之初就开始了;Kimi Linear也经历了将近一年的探索与挣扎。 关键在于团队要有“把事情真正做成并落地”的共同价值观,而不仅仅是为了表面光鲜。我们的组织、文化和管理都是为了支撑这一价值观而建立的。 (4)网友提问:你们最喜欢工作中的哪一部分? 杨植麟:我们喜欢训练模型,因为这让人感觉在不断接近真相:关于什么是有效的、什么是无效的真相,关于智能是如何被创造出来的真相。 (5)网友提问:请问训练视觉语言模型(VLM)的主要挑战是什么?为什么Kimi如此致力于训练视觉模型? 杨植麟:主要挑战在于如何同时提升文本和视觉性能。我们发现,当方法得当时,文本和视觉可以相互促进。 例如,我们观察到,在视觉任务上进行强化学习训练可以提升文本知识基准测试的成绩。另一方面,像K2这样强大的文本库对于提升视觉性能也至关重要。 (6)网友提问:Kimi Code和Claude Code有什么区别?为什么Kimi要开发自己的编程工具? 杨植麟:我们认为我们需要一个与模型最匹配的框架。但使用Claude Code时,框架会不断变化,兼容性有时会成为问题。 此外,Kimi Code还拥有一些独有的功能,例如视频输入。我们认为video2code(视频生代码)非常重要,代表着前端开发的未来。 (7)网友提问:强化学习基础设施已成为关注的焦点。考虑到训练像智能体蜂群这样的系统的复杂性,在像verl这样的开源框架上实现起来会相当具有挑战性。你们在强化学习基础设施方面所做的具体改进是什么? 吴育昕:强化学习基础设施的确是一项巨大的挑战,我们力求在保持良好灵活性的同时实现高效率。在效率方面,我们尝试在开发训练和推理系统时充分考虑强化学习的实际应用场景,以便复用所有繁重的计算工作,从而实现规模化扩展。 智能体蜂群的部署逻辑尤其复杂,但我们的系统具有极高的灵活性,允许我们将不同的框架和子智能体设置集成到训练过程中。 (8)网友提问:我想问一下与你们的Scaling阶梯有关的问题。你们开始实验的最小规模(主动/被动)是多少?通常步长是多少?另外,你们是否会根据所做的更改类型(数据、优化器、线性注意力机制等)采用不同的Scaling阶梯? 周昕宇:我们从非常小的规模开始。我个人有时会从小到可以在单个CPU上训练的模型开始。 核心目标是预测系统的可扩展性。有些架构无法扩展,有些优化器无法扩展,甚至有些数据也无法扩展。在低FLOPs下评估可扩展性是一个有趣的研究课题,它需要对训练过程中的数学动态有深刻的理解,同时也需要兼顾严谨性和创造性。 举个例子:我们曾经急于将Kimi Linear移植到Kimi K2中,但它在达到一定规模后Scaling失败了。我们不得不暂停开发,经过漫长的调试过程,最终历经数月才使其达到如今Kimi Linear的水平。 从统计学角度来看,大多数小规模行之有效的方案都无法突破规模化瓶颈。而那些能够成功推广的方案通常都简单有效,并且有数学依据。研究的重点在于如何应对失败,而不是庆祝成功。 02. 模型自称Claude并非因为蒸馏 智能的上限取决于新学习算法 (9)智东西提问:Kimi K2.5使用了平行智能体强化学习技术。你们会不会将主要算力预算从预训练转向强化学习?在K3路线图中,强化学习的算力规模是否会超越预训练? 杨植麟:强化学习的计算量将持续增长。更重要的是,增加强化学习计算量的方法有很多,而且有些方法比其他方法更有效。未来可能会出现更多新的目标函数来对模型进行强化训练,尤其是在智能体领域。 (10)网友提问:Kimi K2.5已经证明,通过强化学习扩展思考token是实现前沿推理的可行途径。考虑到训练CoT(思维链)策略的巨大工程开销和生成思考token的推理延迟,你们是否正在探索架构递归作为一种在不将计算外部化到KV缓存的情况下实现P/poly复杂度的方法? 杨植麟:在当前的架构下,我们所关心的许多问题在计算意义上其实都是可解的。在很多情况下,模型能力的瓶颈并不在于其路线复杂度(circuit complexity),而在于任务本身是否是可验证的。这意味着两点: 一方面,我们当然可以通过设计更高效的架构来降低特定任务所需的路线复杂度,从而提升token使用效率; 不过,智能的上限更多地取决于能否发明新的学习算法。这些算法应当能够超越预先定义的、可验证的任务,而不仅仅是依赖更高效的模型架构。 (11)网友提问:Kimi K2.5非常棒,但我看到有人说模型会自称为Claude,并把这当作你们大量蒸馏(distill)自Claude模型的证据。这是怎么回事? 杨植麟:我们的观察是,在正确的系统提示词下,它有很高的概率回答“Kimi”,尤其是在思考模式下。 但当系统提示为空时,它就进入了一个未定义区域,这更多地反映了预训练数据的分布情况。其中一项改进是,我们在预训练阶段对来自互联网的最新编程数据进行了上采样,而这些数据似乎与词元“Claude”的关联性更强。 事实上,K2.5在许多基准测试中似乎都优于Claude,例如HLE、BrowseComp、MMMU Pro和MathVision等等。 (12)网友提问:我想知道你们是如何降低K2的幻觉问题的?幻觉问题似乎是K2模型的主要弱点,也是我之前没有使用Kimi的原因。但目前来看,2.5版本更加可靠。 吴育昕:对于所有大模型来说,管理幻觉仍然是一个巨大的挑战。我们已经通过提高数据质量(更多经过验证的知识,更少低质量的说法)和奖励机制(例如,当模型出现幻觉时进行惩罚)来改善这种情况,但我们认为仍然有很多方法可以进一步改进。 (13)网友提问:Kimi K2.5使用了较高的参数比例(约470:1)。您认为我们目前是否因为使用15万亿个token进行过度训练而“浪费”了计算资源? 吴育昕:我不确定1:1最优性是否仍然成立,但从这个意义上讲,我们确实会“浪费”一些训练计算资源。否则模型会更大,并且与我们现在的模型相比,会“浪费”大量的推理计算资源。 周昕宇:如果你追求计算最优(compute-optimal)的训练方式,那么大多数有用的模型实际上都是被过度训练的;更大的模型只是“过度训练得没那么严重”。 而计算最优训练通常要求模型规模足够大,这会对现有基础设施带来巨大的挑战,同时也会显著提高推理成本。我并不认为过度训练是一种“浪费”,而更像是我们为了获得更优整体权衡而主动支付的一种“成本”。 (14)网友提问:Kimi K2.5的“智能体蜂群”功能最多可协调100个子智能体。在这种规模下,“协调器”模型往往会成为瓶颈。Kimi K2.5如何处理管理100个并行推理流所带来的延迟和上下文信息丢失问题? 吴育昕:“智能体蜂群”的一个很酷的点在于,各个子智囊团可以在不“腐蚀”或污染主调度器上下文的情况下独立执行子任务。它们本质上拥有各自的工作记忆,只在必要时将结果返回给调度器。这使我们能够在一个全新的维度上扩展整体的上下文长度。 (15)网友提问:在Kimi K2.5中,你们如何权衡强化编程能力与保持甚至提升非编程能力(如创意写作和情绪理解)之间的关系? 在K2发布时你们在官方介绍中强调了创意写作和情商。团队是如何在训练和优化过程中,确保这些对用户体验至关重要但更“软性”的能力不发生退化的? 杨植麟:在模型参数规模足够的情况下,我认为编程能力和创意写作之间不存在根本性的冲突。但确实,随着我们不断改进奖励模型,要在不同模型版本之间保持一致的“写作品味”本身就是一项挑战。 我们的一项做法是依赖内部基准评测(几乎可以看作一种“元评测”)来反映模型在创意写作方面的进展,并据此对奖励模型进行相应调整。 (16)网友提问:K2.5的个性和写作风格明显变得更加通用,更像其他模型的“贴心助手”风格了。我们非常喜欢K2的个性!K2.5到底发生了什么?你们是否已经注意到这个问题并正在调查? 吴育昕:遗憾的是,每次新版本发布后,我们都会看到模型“个性”发生一定程度的变化。这是一个相当棘手的问题,因为个性是模型主观且难以评估的特征。我们正在努力解决这个问题,并且希望能够让产品更好地满足每位用户的个性化需求。 03. K3将在Kimi Linear基础上优化 即便没比K2.5强10倍也会强得多 (17)网友提问:Kimi K3的重点会是什么?原始性能?长期目标?还是上下文长度? 杨植麟:我们正在尝试新的架构和新功能。 (18)网友提问:Kimi K3是否一定会采用线性架构或其他新架构?如果真是如此,您将如何确保K2.5 Thinking的性能得以保留,甚至进一步提升?尤其是在多模态性能方面。我担心架构改变后可能会出现不稳定的情况。 杨植麟:线性架构是一个非常不错的选择。我们做了很多研究,包括Kimi Linear。希望我们能在此基础上加入更多架构优化。 我相信Kimi K3就算没有比K2.5强10倍,也肯定会强得多(I'm sure it will be much, if not 10x, better than K2.5)。 (19)网友提问:你们未来对在线/持续学习方面有什么计划,特别是针对Agentic模型?Kimi Linear与K2.5有什么关系?线性注意力仍然是主要研究方向之一,还是会发展成为一个独立的研究分支? 周昕宇:我们相信,持续学习能够提升模型的自主性,并使它们能够更长时间地高效工作。我们正在积极探索这一方向。Kimi Linear是与K2.5并行开展的一项专门研究项目。我们正大力投资于线性注意力机制,将其作为未来模型的一个关键方向。 (20)网友提问:你们是如何考虑模型的角色塑造的?如果有的话,你们对“Kimi”这个角色有什么目标? 杨植麟:我认为模型的核心在于“品味”,因为智能本身是非同质化的(non-fungible)。我个人很喜欢K2.5打造的前端设计,它有着独特的审美取向。 模型的性格也是“品味”的一种体现。有报道称,K2.5相比其他模型更少迎合用户。这或许是一种好的性格特征,因为持续不断地强化用户原有的观点,在某些情况下可能是危险的。 (21)网友提问:请问你们有计划开源“智能体蜂群”或者将其作为一项功能添加到Kimi-cli中吗? 杨植麟:目前它还处于测试阶段。待其更加稳定后,我们将向开发者提供框架。希望很快就能实现。 (22)网友提问:为什么不把视觉编码器做得大于400M呢? 吴育昕:小型编码器在很多方面都有利于Scaling,所以我们甚至会问自己:为什么不把它设为0呢? (23)网友提问:你们有计划推出带有原生音频输入功能的模型吗? 杨植麟:目前我们没有足够的资源来处理音频输入,所以可能会把重点放在训练更好的智能体上。
4K 100fps抓越位:28台苹果iPhone 17 Pro组阵成为巴西赛场新“鹰眼”
IT之家 1 月 30 日消息,巴西足球协会(CBF)昨日(1 月 29 日)宣布,将在马拉卡纳体育场(Maracana Stadium)部署半自动越位判罚系统,其核心设备采用苹果的 iPhone 17 Pro,通过高精度的影像抓拍技术,协助裁判在毫秒级时间内做出准确的越位判罚。 技术架构上,该系统由体育数据公司 Genius Sports 提供。IT之家援引博文介绍,工程团队将在马拉卡纳体育场内安装 12 个专用拍摄支架,总计搭载 28 台 iPhone 17 Pro。 以上图源:视频截图 这些设备均具备独立互联网连接,被精密布置在球门后方、越位线、中场以及角球区域,形成全覆盖的视觉阵列。得益于 iPhone 17 Pro 强大的影像处理能力,所有设备将以 4K 分辨率、100fps(每秒 100 帧)的高帧率录制比赛,确保任何高速运动中的越位细节都无所遁形。 尽管硬件部署已提上日程,但球迷们还需等待一段时间才能看到该系统正式运行。CBF 裁判委员会负责人 Netto Goes 明确表示,新技术不会立即投入实战。 行业趋势上,iPhone 取代传统广播级摄像机已逐渐成为体育界的新趋势。美国职业足球大联盟(MLS)此前已开始使用 iPhone 17 Pro 配合传统摄像机进行赛事转播,英超联赛也曾与 Genius Sports 合作探索类似的手机辅助判罚技术。
自带Nano改图,一键总结N个网页!Chrome这次更新,让所有AI插件都下岗了
讲真,作为每天和浏览器打交道超过 10 小时的“重度冲浪选手”,Chrome 几乎就是我的第二个办公桌。 自打 AI 爆火之后,为了提效,我这浏览器右上角就没清净过。 我装了五花八门的插件:有的专门用来总结长文章,有的用来跟网页对话…… 但懂得都懂,没有一个真的特别好使。 直到昨天,Google 亲手扔下了一个“核弹级更新”,我瞬间觉得:那些折腾了半天的 AI 插件,终于可以通通删掉了! 图:Chrome 中集成的 Gemini 这次 Chrome 的进化,绝不仅仅是多了一个总结网页的小工具那么简单。 它是直接把最强的 Gemini 3 “焊”进了内核里,让浏览器从一个单纯的“阅读器”,变成了一个真正能替你干脏活、累活的“数字分身”…… 01 侧边栏进化:第三方插件通通可以“下岗”了 说实话,AI 侧边栏这东西,大家早就司空见惯了。 不管是国外的插件,还是国内的 Kimi、智谱,早就能让你一边看网页一边总结、对话。 但这次 Chrome 原生的 Gemini 侧边栏,真的让我想把那些第三方插件都卸了。 因为除了常规操作,它至少有 3 个让我大喊“卧槽”的狠招: 总结网页只是基本功: 别人能做的它都能做,而且反应速度极快,毕竟是亲儿子。 图:Chrome 侧边栏总结网页 你可能不服,这不都能做吗? Gemini 真正厉害的地方在于,它能同时总结 N 个打开的网页。 以前我想看几篇文章的摘要,得每个页面点一次插件,手都点酸了。 现在,它能一次性把所有打开的网页全读完,直接甩给我一份汇总好的摘要。(最卧槽的是,你可以让它用这 N个网页为素材直接写篇文章,自媒体人要起飞了!)) 图:Chrome 的侧边栏同时总结 N 个网页 再比如我想买个降噪耳机,在京东上开了十几个产品页,看得眼花缭乱。 现在简单了,直接让它帮我全网比价、挑毛病,最后告诉我哪款最值得下单。 图:Chrome 侧边栏在 JD 页面做比价 这才是真正的“省心神器”,再也不用在几十个标签页里反复横跳了。 视频“快进键”的终结者: 这点最牛。 你在看 YouTube 视频时,它不仅能帮你出总结,最离谱的是它能自动切片。 它会把视频分成好几个关键段落,你看到感兴趣的点,点一下文字,进度条直接跳到那个位置。 图:Chrome 侧边栏直接总结视频并做切片 以前看个长视频得手动拖进度条,现在感觉是 AI 牵着你的手,直接把精华送到你嘴边。 不过有一说一,这功能目前还是有点“偏心”,对 YouTube 的支持简直是亲儿子级别。 我也试了下 B 站,虽然也能总结出大概意思,但少了那个最灵魂的“自动切片”,就像吃泡面没调料包,效果大打折扣。 这些结果可以直接通过 Gmail 发邮件出去,而且这次还把日历、YouTube、地图等全部整合进来了。不得不说,谷歌把自家“全家桶”整合起来的杀伤力真的无敌,这种“自家产品互相开挂”的操作,才是这次更新最顶的地方。 02 Nano Banana:这哪是浏览器,这是随身带了个 PS 以前在网上看到一张图想改一改,你得先下载,再开修图软件,折腾半天再重新导出。 现在 Chrome 侧边栏直接把 Nano Banana 集成进来了,简单来说,它就像在浏览器里装了个“一键整容”按钮。 我试了几个场景,简直是懒人福音。 比如你看到一张色彩鲜艳的素材图,想看看一张照片变成复古黑白风是什么效果,不用找滤镜,在侧边栏说句话就行。 图:Chrome 侧边栏直接修改图片 更神的是,如果你对着一张空荡荡的房间照片,想脑补一下装修后的样子,直接让它往里“塞”满家具。 上一秒还是冷冰冰的毛坯房,下一秒就能变出北欧风的温馨感。 图:Chrome 侧边栏直接修改图片 甚至当你面对一整个网页密密麻麻的数据头大时,直接喊它把网页内容生成一张精美的信息图,这对于每天做 PPT 的人来说,简直是救了命了。 图:Chrome 侧边栏生成信息图 这种“即看即改”的操作,以前得折腾好几个 App,现在动动嘴皮子就在浏览器里顺手办了。 03 终极杀招:它不是在聊天,是在替你“上班” 如果说前面的功能只是让你“看得爽”,那接下来的 Auto browse(自动浏览) 简直是让 Chrome 长出了手脚。 我试了几个官方案例,确实有点科幻。 比如最枯燥的自动填表,你只需把资料甩给它,它能自动识别并把另一个表单填得整整齐齐。 自动播放 更神的是,比如你想办个主题派对,看到一张氛围感拉满的布置图,不用你肉眼去搜同款。 它能直接识别图里的复古电视、气球、装饰品,去电商网站搜出同款并一键塞进购物车,连券都领好了,你只管付钱。 自动播放 甚至连订酒店、查航班这种琐事,它都能根据你的要求直接出一套最优方案。 自动播放 不过,我也得说句大实话: 这一招目前对国外网站确实很猛,但我实测发现,它还没学会怎么逛京东、淘宝或携程,基本处于“罢工”状态。 (所以这里用了官方的案例) 虽然这种“数字替身”的未来很爽,但咱们国内用户不知道啥时候能享受到。 04 隐藏教学:怎么强先开启这个“黑科技”? 看到这儿,估计大家手里的插件已经按捺不住要删了。 不过目前这些功能还在灰度测试中,如果你想现在就体验,可以试试这套“极客开启方案”: 第一步:开启隐藏开关(Flags) 在地址栏输入 chrome://flags/ 进入实验室。 在搜索框输入 “glic”,把搜出来的这五项全部从 Default 改成 Enabled: Glic Glic Z Order Changes Glic actor Glic Pre-Warming Glic FRE Pre-Warming 图:开启 Chrome 的相关选项 点击右下角的 “Relaunch”(重新启动)即可。 第二步:如果还没出来,试试这几条“黑指令” 如果你重启了还没看到 Gemini 出现,那说明被地域限制锁死了。 这时候需要先彻底退出 Chrome,然后打开终端(Terminal)执行下面这几行命令,直接给它来个“强制开启”: 小提示: 执行前建议先备份。命令中的~/Library/Application Support/Google/Chrome/ 路径适用于 Mac 用户。 另外,你的 Chrome 需要设置为英文,而且 IP 地址必须设置为美国。 这一顿操作之后再次打开 Chrome,你就能看到那个能替你“上班”的数字分身了。 写在最后 不得不感叹,2026 年开年这一个月,AI 圈的节奏快得让人窒息。 特别是这两天全网刷屏、几乎把智能体推向神坛的 ClawdBot(Moltbolt),大家应该都看出来了:“智能体(Agent)”化已经是大势所趋。 以往是我们“用”浏览器去找信息,现在是 AI 正在“接管”浏览器去办实事。 而这次 Gemini 与 Chrome 的深度融合,意义完全不同。 毕竟 Chrome 是全球几十亿人的装机必备,它这次的“超进化”,意味着 AI 这种处理信息的方式,正在从极客的小众玩具,彻底变成普通人触手可及的日常工具。 虽然现在对国内 App 的适配还没那么丝滑,但这种“有人帮我干活”的未来,确实已经近在咫尺了。 如果 AI 真的能替你处理掉所有无聊的填表、订票、比价工作,你最想用省下来的时间干点啥?
苹果第一财季营收创历史新高:净利润涨16%,日赚4.6亿美元
iPhone需求强劲 凤凰网科技讯 北京时间1月30日,苹果公司(NASDAQ:AAPL)今天发布了截至12月27日的2026财年第一季度财报。财报显示,苹果第一财季总营收为1437.56亿美元,较上年同期的1243.00亿美元增长16%,创历史纪录;净利润为420.97亿美元,较上年同期的363.30亿美元增长16%。 苹果第一财季业绩出色,总营收、每股收益、iPhone和服务业务收入均创下历史新高,中国区收入飙升了38%。 股价表现: 苹果第一财季营收、每股收益以及iPhone收入均超出分析师预期,股价在盘后上涨不到1%。 苹果股价盘后上涨0.32% 苹果股票周四在纳斯达克交易所开盘报258.00美元。截至周四收盘,苹果股价上涨1.84美元,报收于258.28美元,涨幅为0.72%。截至发稿,苹果股价在盘后交易中上涨0.83美元至259.11美元,涨幅为0.32%。过去52周,苹果股价最高为288.62美元,最低为169.21美元。 第一财季业绩要点: ——总营收为1437.56亿美元,较上年同期的1243.00亿美元增长16%; ·产品收入为1137.43亿美元,较上年同期的979.60亿美元增长16%; ·服务收入为300.13亿美元,较上年同期的263.40亿美元增长14%; ——毛利润为692.31亿美元,较上年同期的582.75亿美元增长19%;毛利率为48.2%; ——总营业费用为183.79亿美元,较上年同期的154.43亿美元增长19%; ——营业利润为508.52亿美元,较上年同期的428.32亿美元增长19%; ——净利润为420.97亿美元,较上年同期的363.30亿美元增长16%; ——每股摊薄收益为2.84美元,较上年同期的2.40美元增长19%。 按产品划分: ——iPhone业务第一财季收入为852.69亿美元,较上年同期的691.38亿美元增长23%; ——Mac业务第一财季收入为83.86亿美元,较上年同期的89.87亿美元下降7%; ——iPad业务第一财季收入为85.95亿美元,较上年同期的80.88亿美元增长6%; ——可穿戴、家居以及配件业务第一财季收入为114.93亿美元,较上年同期的117.47亿美元下降2%; ——服务业务第一财季收入为300.13亿美元,较上年同期的263.40亿美元增长14%; 按地区划分: ——大中华区(中国大陆、香港及台湾地区)第一财季收入为255.26亿美元,较上年同期的185.13亿美元增长38%; ——美洲区第一财季收入为585.29亿美元,较上年同期的526.48亿美元增长11%; ——欧洲区第一财季收入为381.46亿美元,较上年同期的338.61亿美元增长13%; ——日本区第一财季收入为94.13亿美元,较上年同期的89.87亿美元增长5%; ——亚太其他地区第一财季收入为121.42亿美元,较上年同期的102.91亿美元增长18%。 股东回报: 苹果董事会宣布,将向截至2026年2月9日股市收盘登记在册的普通股股东,派发每股普通股0.26美元的现金股息,支付日期为2026年2月12日。 高管点评: 苹果CEO蒂姆·库克(Tim Cook)表示:“我们骄傲地宣布,苹果在本季度取得创纪录的卓越业绩,营收达1438亿美元,同比增长16%,远超预期。iPhone业务凭借前所未有的市场需求创下历史最佳季度表现,全球所有地区市场均刷新纪录;服务业务收入同样创历史新高,同比增长14%。更令人振奋的是,目前苹果活跃设备安装量已突破25亿台,这充分证明了用户对全球顶尖产品与服务的极高满意度。” 苹果CFO凯万·帕雷克(Kevan Parekh)称:“第一财季,我们创纪录的业务表现及强劲的利润率推动每股收益实现19%的增长,创下历史新高。这一出色业绩创造了近540亿美元的营运现金流,使我们得以向股东返还近320亿美元。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
印度这致死率75%的尼帕病毒 真的会成为下一个新冠吗
坏了兄弟们,这两天想必大家都被新病毒给刷屏了。 还没刷到的差友也不用再去搜了,简单来说就是,印度那边刷怪笼里,刷出来一个叫尼帕病毒的东西。 微博上最近好多词条都在说这事,描述的巨恐怖,谁沾谁倒霉那种。 该说不说,经历了前几年,现在大家一看到新病毒、致死率这些词儿,多少都有点PTSD。 结果现在这玩意又是什么最危险病原体、致死率还高达75%、尚无有效疫苗,这谁受得了,看得哥们是直接头皮发麻嗓子发痒。 不少网友也慌了,你想想连三哥的免疫力都顶不住,那要是传开了还了得? 也有的网友都开始准备囤口罩了,股市上的医疗概念也跟着走了一波。 甚至国外很多媒体都在说这事,除了BBC、福克斯、雅虎这些大号,还有什么印度时报、中东新闻这种地方号。 不过哥们扒拉了一遍嘛,发现这事儿跟咱们想的可能不太一样,大家先别这么慌。。。 首先咱得说,这尼帕病毒杀伤力很大,这确实是板上钉钉的。 按照《临床神经病学手册》(《Handbook of Clinical Neurology》)和世界卫生组织的描述,从病毒这方面看,这东西是一种单股负链RNA病毒,跟麻疹、腮腺炎是远房亲戚。 它进入人体会同时攻击肺部和大脑,会引发严重的肺炎,导致急性呼吸窘迫;而且也能穿透血脑屏障,引发致死性的脑炎,也就是脑水肿。 而且就算你命大活了下来,约有20%的幸存者,也会留下癫痫、性格改变这种永久性的神经后遗症。。。 该说不说这鬼东西长得也很像新冠。 听着是挺吓人,但要说这次是啥新型病毒大爆发,提前吹哨,那也不太严谨。 因为它其实压根就不是什么新面孔。 这玩意首次发现是在1998年,1999年美国CDC亚特兰大实验室的科学家通过血清学检测和基因测序,才确认这是一种新病毒。可以说这病毒比编辑部新来的同事年纪都大了。 当时它是马来西亚爆发的,但爆发的范围,主要是养猪场。 实际上,尼帕病毒这玩意儿在印度、孟加拉国这些地方,几乎是常年存在的季节性问题。其中孟加拉国是尼帕病毒最高发的国家,自2001年起几乎每年都有病例发生。 至于为啥主要发生在这些地方,这就跟它的传播途径有关系。 自从1999年初鉴定出尼帕病毒后,经过两年溯源,科学家们发现这病毒的老家来自果蝠身上。 随着孟加拉国和印度自2001年起频繁爆发疫情,科学家进一步确定了更直接的传播链,就是从果蝠直接传到人身上的。 这倒也不是他们乱吃野味的原因,而是像孟加拉国和印度这些南亚国家,当地人喜欢喝一种叫“生枣椰汁”的天然饮料,这就跟白桦树汁差不多,得割开树皮晚上把罐子挂树上接。 完事这种甜的东西,正好吸引果蝠。你给罐子挂树上,那对人家来说不就自助餐嘛。所以果蝠就顺便在罐子里留下了带病毒的唾液和粪便啥的。 印度这地方大家也知道,此泄彼吞,并无芥蒂。所以隔夜的饮料第二天人再喝,直接就中招了。 而另一种传播方式,就是体液传播。 根据世界卫生组织(WHO)的说法,在少数情况下,尼帕病毒确实可以人际传播。健康人通过接触感染生物的唾液、鼻咽分泌物这些体液,可能会被感染。 之前为啥98年马来西亚的感染发生在养猪场,就是因为猪吃了果蝠吃剩的果实或排泄物被感染,然后养猪场工人或屠宰场工人在处理病猪的体液时,以及在清理猪圈或屠宰过程中,吸入带有病毒的飞沫或气溶胶,就也被感染了。 相比早期在马来西亚发现的毒株(NiV-M),CDC和世卫组织(WHO)官方表示,近年来在印度和孟加拉国流行的毒株(NiV-B),又是人际传播潜力更强的那一类,感染后的口腔分泌物中病毒 RNA 含量更高,增加了通过亲密接触或护理过程传播的风险。 这次印度喀拉拉邦的爆发中,很多感染者,都是照顾病人的家属或者医护人员。 看到这有兄弟要问了,这东西这么毒,还能人传人,是不是疫情怀旧服又要上线了? 其实也没这么恐怖。这就涉及到一个病毒传播的悖论了:致死率高,和传播广,往往不可兼得。 说白了,一个病毒要是杀人太快、太狠,宿主很快就挂了或者被隔离了,那它自己也就失去了继续传播的载体。杀人太快的病毒,往往跑不远。 直接来看数据,尼帕病毒从发现到现在二十多年,全球累计确诊的尼帕病毒病例,也就750多例。 这次印度的疫情,总共就感染了6个人,还活了5个(其中1个病危)。 而尼帕病毒最高发的国家孟加拉国,从2001年到现在,总共记录了341例感染,其中241人死亡。这么看来,虽然死亡率确实高,但总数并不多。 所以跟新冠那种动辄感染几千万、上亿人的规模比,尼帕病毒目前还只是一个区域性的、小规模爆发的公共卫生问题,暂时还不用急着回归怀旧服。。。 更何况,到目前为止,中国境内,还从未报告过确诊的人类尼帕病毒感染病例。 咱们的疾控体系,对于这类已知的高危病毒,一直都有成熟的监测和应对预案。 2021 年,中国疾控中心就制定印发了 《尼帕病毒病预防控制技术指南》,新华社28日采访中国疾控中心专家的报道里也说,目前国内已经完成了应急核酸检测试剂盒的制备储备,现在各省份疾控中心也都有实验室检测的能力。 至于为啥大家刷到的这么多,全球媒体都在恐慌,主要还是因为大家可能对疫情啊、病毒啊这些词已经PTSD了,一些媒体的口径也会刻意放大这些情绪。 比如世界卫生组织说这病毒怎么怎么着就上了热搜,但实际上世卫并没有对这次印度疫情发表内容,大家引用的其实是2018年世卫的一篇文章,那会儿叮咚鸡都还没出生呢。 虽然短期内咱不用过度恐慌,但长期看,保持警惕还是有必要的。 因为病毒是可以不断进化的,特别是这种RNA病毒。没人能保证,它未来会不会接着点科技树,变异出某个传播力更强的毒株。 人类在这方面的准备,确实不够充分。 由于尼帕病毒在全球没有大范围流行过,感染人数也不多,所以全世界的科研经费在这块的投入都不算多。 拿疫苗来说,目前全球还没有一款获批上市的。进展最快的是牛津大学团队,他们搞了一款腺病毒载体疫苗,刚刚进入临床二期。疫苗巨头莫德纳公司的mRNA疫苗,也还停留在一期。 至于国内,2023年11月中科院上海免疫与感染研究所联合武汉病毒所,发表在国际学术期刊 npj Vaccines 上的论文也说开发出了候选疫苗,在动物试验里效果不错,但这离真正给人能用,还有一段距离。 虽然专门为这个病毒研究的疫苗还没出来,不过也有好消息。 就在1月26日,中国科学院武汉病毒研究所发文说,此前为新冠病毒研发的口服药物VV116(氢溴酸氘瑞米德韦片)对尼帕病毒也有显著作用。 在动物实验中,感染了致死剂量尼帕病毒的小鼠吃了这个药,生存率能直接拉回66.7%! 至于为啥管用,主要因为这个药物是专门针对一种RNA聚合酶设计的,正好尼帕病毒也有这种酶,而且它在尼帕病毒中不容易变异,这不就正好撞枪口上了嘛。 不过,VV116目前还是在临床前研究阶段,离正式上市还得等完成人体临床试验验证安全性和剂量方案后才行。 总之,尼帕病毒对个体来说非常可怕。但宣扬让大家现在就去抢口罩、囤物资,那就完全没必要。 社交媒体的算法,天然会放大恐惧。一个致死率75%的病毒,哪怕只感染了6个人,在标题和热搜里,也足以掀起一场巨大的情绪风暴。 但作为普通人,咱还是最好能理性地、科学地看待风险。了解它的传播方式,做好个人卫生,相信专业的疾控体系,支持我们的科学家,给他们更多的时间和资源,而不是把流量送给那些贩卖焦虑的营销号。 说白了,恐慌是最低效的疫苗,科学才是唯一的解药。
刚刚,宇树又宣布开源了
机器人凭单一策略,可完成多项复杂操作任务。 机器人前瞻1月30日报道,刚刚,宇树科技正式开源其通用人形机器人操作大模型UnifoLM-VLA-0。 这款模型通过在机器人操作数据上开展持续预训练,让机器人仅凭单一策略,就能完成多项复杂的长程操作任务,比如机器人协作整理桌面、拧开有一定阻力的瓶盖、折叠毛巾,以及在人为干扰的情况下堆叠积木、给水果分类等,泛化能力更强了。 并且,模型在空间感知能力上有了明显提升,在零样本的场景下,就可以精准推理目标所处位置、生成运动轨迹、判断物体可抓取点、完成目标物品的检测、分割与定位等。 01. 从VLM到VLA, 仅用340小时真机数据进行训练 宇树介绍,该模型基于开源视觉语言模型Qwen2.5-VL-7B演化而来。 宇树先是构建了覆盖机器人与通用场景的多任务数据集并开展持续预训练,该数据集涵盖2D检测与分割、任务层级分解、3D目标检测、空间位置推理及轨迹预测等多维数据,有效提升了模型对几何空间与语义逻辑的对齐能力。 在操作任务上,宇树对开源数据集进行了系统化清洗,最终仅使用约340小时真机数据进行离散动作预测训练。 在动作建模上,模型进一步集成了动作分块预测,并加入前向与逆向动力学约束,把动作序列统一建模,从而让VLM具备对“机器人—物体”物理交互规律的更深理解,并支持更长时序的动作规划与决策。 完成上述持续预训练后,UnifoLM-VLM-0在多类任务场景下展现出更强的空间推理能力与更可靠的多模态感知表现,相关零样本测试示例如下: ▲任务推理:根据文本推理目标物体和位置并生成移动轨迹 ▲空间推理:理解空间的位置关系 ▲图像定位:检测图像中物体的3D框 02. 可实现低延时实时操作, LIBERO基准获98.7分 UnifoLM-VLM-0在“no thinking”模式下,在ERQA、RoboSpatial、Where2Place三个空间理解基准上的表现,比肩谷歌的Gemini Robotics ER 1.5。 “no thinking”模式,指的是模型不进行额外的推理过程,直接给出结果的一种运行方式。这意味着模型的空间理解能力已经被充分内化,更适合机器人在真实环境中进行低延迟实时操作。 在LIBERO仿真基准测试中,UnifoLM-VLA-0在“空间”子项获得99.0分,在“物体”子项获得100分,在“目标”子项获得99.4分,在“长序列”任务获得96.2分,平均分为98.7分。 相较于OpenVLA-OFT的平均分为97.1分、GR00T-N1.6的平均分为97.0分,UnifoLM-VLA-0较为领先。 03. 单一策略下, 稳定完成12项复杂长程任务 在宇树G1上,团队构建了覆盖12类复杂操作任务的高质量真机数据集,并基于此对UnifoLM-VLA-0进行单一策略网络的端到端统一训练。 宇树称,真机实验表明:模型能在同一策略checkpoint下稳定完成全部12项任务,并在外部扰动下保持较好的鲁棒性与抗干扰能力。 这些任务,涉及了整理收纳、多机协作、带阻力的开合旋转、多步骤长链条执行、规则推理与抗干扰纠错等不同维度,贴近机器人要真正落地的可用能力。 比如,两台G1协同收纳桌子上餐盘与垃圾,其中一台还将散落的笔递给另一台,再一起放入盒中。 G1拿起笔袋放入背包并拉上拉链;打开药瓶,将药丸倒入盒中;铺平毛巾后,折叠成正方形并放置到位。 按“红色-绿色-黄色”顺序堆叠积木,即使人为移走已堆好的积木,G1也能及时调整并重新完成堆叠。 把水果按照颜色放入对应颜色的盘子,面对人为干扰,机器人依旧可以较顺利完成。 04. 结语:从硬件生产到软件算法, 宇树加快构造全链路壁垒 2025年,宇树以5500台出货量登顶全球人形机器人销量榜首,在硬件量产端构筑起坚实壁垒的同时,正持续在软件算法领域深耕布局、打造核心优势,UnifoLM-VLA-0的落地正是其算法端的一大突破。 UnifoLM-VLA-0所展现的少数据高效训练、强空间理解及复杂场景抗干扰操作等核心能力,有望推动人形机器人领域从碎片化任务训练,向开放场景的通用化能力构建稳步迈进。
前脚否认做 IP后脚招专人!追觅招聘要求雷军余承东IP打造经验
快科技1月28日消息,据媒体报道,今日,追觅科技在相关招聘平台发布 “高管 IP打造” 相关岗位,招聘信息中明确提及,拥有雷军、余承东等知名科技高管 IP 打造经验者可获得优先加分。 同时要求有华为、小米、大疆等头部科技企业相关工作经验的候选人优先考虑。 该岗位的核心职责主要包括三方面:负责高管 IP 账号的内容策划与日常运营工作;协调内外部各类资源,提升账号影响力,进而赋能品牌价值;紧跟行业热点与传播趋势,制定并落地账号整体传播策略。 其任职要求则涵盖良好的沟通协调能力与内容敏感度,熟悉主流新媒体平台运营机制等。 在本文发稿前,笔者在招聘平台查询搜索,显示有个人IP运营专家岗位页面,上述高管IP打造岗位目前已暂不可见。 颇具戏剧性的是,就在今日早间,追觅科技创始人兼 CEO 俞浩还在其个人社交平台回应网友提问时,明确否认了公司正在打造个人 IP 的计划。 针对网友提出的 “是否会打造类似雷军、刘强东那样的个人 IP” 这一问题,俞浩作出详细解释。 他表示,IP只是传播方式的一种,若未理解品牌传播的核心目的,单纯打造 IP并无实际意义; 他进一步阐述称,若真正明晰传播目标,也无需刻意塑造虚假的个人形象,只需真诚实在地表达自身想法即可。 他还分享了品牌不同发展阶段的核心思路:垂直品牌阶段,重点应聚焦产品打磨与技术研发,做好产品创新与功能表达; 而迈向国民品牌阶段,面对更广的受众,则需要兼顾知名度的提升与企业价值观、深层理念的深度传递,这与垂直品牌阶段的传播逻辑有着明显区别。
郭明錤:iPhone内存价格一季度暴涨八成,苹果先保供、再靠服务赚钱
iPhone内存成本要上涨 凤凰网科技讯 北京时间1月28日,天风国际证券知名苹果分析师郭明錤周三发文,谈到了内存涨价的问题。他表示,苹果现在是按季度谈iPhone内存价格,涨价会影响iPhone毛利率,但苹果先确保要拿到货,然后再用服务业务赚回来。 此前有报道称,今年第一季度,三星和SK海力士可能会将供应给苹果iPhone的LPDDR内存报价环比提升80%以上。LPDDR是专门用于手机等移动设备的低功耗双倍数据速率内存。 郭明錤对此表示,今年第一季度的LPDDR涨价幅度与他了解的接近,NAND Flash的涨价幅度略低。 据他透露,iPhone的内存报价现在按季度谈,而不是半年一次,所以iPhone的内存报价在今年第二季度还会再涨一次。目前来看,第二季度的环比涨价幅度约与第一季度接近。绝大部分非AI产业的品牌客户,即使愿意付钱,也不一定能保证拿到内存供应,所以苹果能谈成这样已经算很强了。 郭明錤指出,内存报价上涨会影响iPhone的毛利率,但苹果的策略是,趁内存市场混乱时,通过确保能拿到货与吸收成本的优势,提升市场份额,后续再用服务业务赚回来。 苹果将于本周发布财报。内存报价上涨导致成本上升的问题,应该是投资人和分析师在电话会议上关注的重点之一。苹果的说法对其他产业股价造成的波动,可能要远高于对苹果自身及其供应链股价的影响。 对于今年下半年发布的iPhone 18,郭明錤透露,苹果的定价策略是 “尽可能不涨价”,至少起始价不变,有利于营销宣传。 苹果已经意识到,在内存和T型玻璃之后,可能还会有其他零组件受到AI服务器产业的影响而出现供应短缺。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
俄罗斯与伊朗深化战略合作“钳制”了谁?
  当地时间4月16日,俄罗斯联邦委员会(议会上院)通过了有关批准《俄罗斯联邦与伊朗伊斯兰共和国全面战略伙伴关系条约》的联邦法律。该条约现已完成全部审批程序,待俄罗斯总统普京签署后即可正式生效。 △伊朗《德黑兰时报》网站报道截图   该条约是2025年1月17日伊朗总统佩泽希齐扬访俄期间与俄方共同签署的。该条约为期20年,并可自动续签。   条约规定两国将在文化、经济、能源、科技、工业和安全等战略领域全面深化合作,加强安全与防务协作,并在地区和全球层面密切协调行动。   中国国际问题研究院助理研究员李子昕在接受中央广播电视总台环球资讯广播采访时分析认为,相关条约的批准将使俄罗斯与伊朗的双边合作进一步机制化、制度化。同时,俄伊关系的加强会在中东地区对美国形成钳制。   乌克兰危机全面升级至今,地缘政治现实和扩大国际交往空间的现实需求,让俄罗斯和伊朗的关系明显提升,两国在经贸、军事、政治、文化等各领域的合作持续不断。   此次双方达成新的协议,主要意义在于将两国已经非常丰富的合作进一步机制化,将双方的具体合作实践制度化,为彼此未来的合作深化提供了更多的体制性保障。   俄伊两国关系的提质升级肯定会对当前中东地区的力量格局产生影响,最明显的将是会对美国的地区影响力和主导性构成一定的挑战和钳制。目前俄伊合作的重点在经贸领域,政治上也会彼此支持,但是在军事领域的合作仍然有限。因此此次协议的政治影响是地区性的,而具体的合作更多是拓展了俄伊的双边关系。   本月12日在阿曼进行首轮谈判后,美国和伊朗的第二轮谈判预计将于4月19日在意大利罗马举行。按计划,伊朗外长阿拉格齐将在第二轮会谈开始前到访俄罗斯。   阿拉格齐4月16日在接受媒体采访时表示,他前往俄罗斯是为了向俄总统普京传达伊朗最高领袖哈梅内伊的信息。   此前有报道称,阿拉格齐访问俄罗斯期间将商讨伊朗与美国的谈判事宜。 △路透社报道截图(题图为伊朗外长阿拉格齐)   李子昕认为,《俄罗斯联邦与伊朗伊斯兰共和国全面战略伙伴关系条约》的批准,对当前正在进行的美伊谈判会产生两方面的影响。   地缘政治层面:伊朗希望与美国就核问题达成协议最重要的原因无外乎两点,一是希望美国解除对伊朗的经济制裁,至少得到部分的制裁豁免;二是避免美国和以色列对伊朗施加进一步的直接军事打击。如今有了俄罗斯的政治支持和经贸合作,伊朗在同美国进行谈判过程中肯定会有更多的底气,谈判中的政策选择也会更加丰富,会降低伊朗对美国的妥协和退让幅度。   核问题:在如何处理伊朗的高浓度浓缩铀以及核查伊朗的核设施等问题上,俄罗斯可以发挥更大的作用。如果俄罗斯能参与后期的伊核问题国际多边治理,鉴于目前俄伊关系的升级,伊朗接受相关安排的可能性会更大,这也将有力地推动伊核问题以和平稳妥的政治方式得到最终解决。 △《莫斯科时报》报道:俄罗斯总统新闻秘书佩斯科夫当地时间4月16日表示,俄罗斯准备尽一切努力,通过政治和外交手段帮助美国和伊朗解决伊核问题僵局。   素材来源丨环球资讯广播《直播世界》   记者丨程谟 杨卓英   编辑丨印梅梅 游佳 杨楠   签审丨刘鹏 康炘冬 刘轶瑶
十年前的百度,聚拢了硅谷最杰出的天才,每个都比姚顺雨耀眼……
缩放定律(Scaling law)可能是AI时代最重要的“金科玉律”之一。 缩放定律的原出处,是OpenAI的一篇叫做《神经语言模型的缩放定律》(Scaling Laws for Neural Language Models)的论文。 而这篇论文的通讯作者,就是达里奥·阿莫迪,他的另一个广为人知的身份,则是Anthropic的联合创始人。 Anthropic在AI编程领域优势明显,地位隐隐然与OpenAI和Google鼎足而三,刚传出将以3500亿美元估值融资200亿美元的消息。作为联创,阿莫迪当然功不可没。 但很少有人注意到,阿莫迪还有另一个身份——百度前员工。 按照百度内部通讯软件“如流”的分级来看,阿莫迪应该叫“红度阿莫迪同学”。 更有意思的是,在2024年底Amodei在一次播客采访中,阿莫迪透露2014年与吴恩达在百度研究AI的时候,他就已经发现了模型发展的规律缩放定律。 此话一出,掀起了一阵“百度是否比OpenAI更早发现缩放定律”的争论。 Amodei不是个例,在硅谷,“百度”频繁出现在大佬的履历里。 最为人所熟知的是AI学术大牛、斯坦福大学教授、谷歌大脑联合创始人吴恩达,他曾是百度硅谷实验室的“灵魂”。 离职时,他不吝对李彦宏的赞美,称他是“第一个清晰看到深度学习价值的大型公司CEO,也是全球最好的AI CEO之一。他的热情和百度的决心让我觉得这是一个难得的机会” 在Meta,沙兰·纳朗(Sharan Narang)组建并扩展了Llama预训练团队,交付了Llama 2、3和4的预训练模型,奠定了Meta在生成式人工智能领域的领先地位。 而他曾是百度硅谷实验室的高级研究员,离开后先在谷歌当技术主管,后跳槽到Meta。 在苹果,曾担任AI/机器学习相关方向总监的亚当·考特斯(Adam Coates),曾是百度硅谷实验室的早期核心成员之一,跟随师父吴恩达加入,并在后者离开之后接棒。 在英伟达,应用深度学习副总裁布莱恩·卡坦扎罗(Bryan Catanzaro),曾是百度硅谷实验室的高级研究员,专门研究GPU优化。 他们的共同经历,是在十年前的“百度硅谷实验室”效力过。那代表着百度的一次硅谷野心。 01. 硅谷野心 百度请来了“谷歌大脑(Google Brain)之父”,要在硅谷搞一个“百度大脑”,这在当时是爆炸性新闻。 2014年,百度硅谷实验室成立,专注于人工智能与深度学习技术研究,与北京深度学习实验室、大数据实验室共同构成百度研究院核心科研体系,并任命斯坦福大学教授、Coursera联合创始人吴恩达出任首席科学家,负责统筹百度在北京与硅谷两地的人工智能研究工作。 吴恩达是谷歌大脑的早期核心成员之一,也是深度学习从学术走向工业化过程中最具标志性的人物之一。 对一家中国互联网公司而言,在这一时间点、以研究负责人而非顾问的形式,将这样一位学者级人物纳入体系,在硅谷并不多见。 媒体在报道中强调,这是百度在硅谷长期布局人工智能研究的重要一步,并披露百度计划在未来五年内为这一国际研究项目投入约3亿美元,目标是将硅谷团队扩展至约200人规模。 那一年,Transformer架构尚未出现,“大模型”仍是一个不存在的概念。但深度学习的拐点已经到来。 2012年,AlexNet在ImageNet竞赛中取得压倒性优势,卷积神经网络开始从学术论文走向产业实践。 2013年,Facebook请来杨立昆(Yann LeCun),成立Facebook AI Research。 2014年初,谷歌以数亿美元级别的价格收购英国AI公司DeepMind。 人工智能已经不再仅仅是研究热点。 但在当时,这仍然是一条高投入、长周期、结局不明的路线。少数巨头已经开始下注,大多数公司仍在观望。 百度正是在这一阶段选择大胆押注的一方。 彼时,移动端搜索使用量开始超过PC。但移动广告的变现效率明显低于PC,成本结构也更为复杂,这使得公司整体盈利能力承压。 在多次公开场合,李彦宏将这种变化描述为一次结构性的转折。他强调,从PC向移动的迁移并非终点,更大的技术浪潮正在酝酿,而人工智能将深刻改变信息获取与分发的方式。 正是在这样的判断下,百度决定不再只在国内推进应用层改进,而是直接进入全球AI研究最密集的现场——硅谷。 其实早在2011年,百度硅谷研究院就成立了,但主要是将硅谷的中国工程师招募回国。 而吴恩达的加入才是百度卷入硅谷人才争夺核心圈的标志,在那之后,百度的AI研究形成三大实验室——硅谷人工智能实验室(SVAIL)、深度学习实验室(IDL)、大数据实验室(BDL),一个在硅谷,两个在北京,形成了中美两地联动的格局。 推动这次合作的关键人物是吴恩达的老朋友、百度当时负责深度学习研究的高管余凯(Kai Yu)。两人多次在帕洛阿尔托一家喜来登酒店会面,从早餐谈到晚餐,随后余凯又引见了百度的其他研究负责人。 之后,吴恩达飞往北京,与李彦宏进行了一次长达数小时的会谈,讨论百度研究体系未来应当如何搭建。 这并不是一次传统意义上的跳槽谈判。对吴恩达而言,吸引力不在于头衔,而在于空间。 百度为他提供的,是从零设计研究方向、在硅谷搭建国际化团队、并在相对独立的环境中推进长期研究的空间。吴恩达在接受采访时直言,他对“从零开始构建一个国际研究组织”感到兴奋。 对许多研究者而言,这意味着一家中国公司正在以接近Google、Facebook的方式,系统性地参与人工智能基础研究竞争。 02 人来了 吴恩达的存在本身,就形成了一种吸引力。他在斯坦福和谷歌大脑的背景,让不少研究者愿意过来试一试。 实验室早期最重要的工作之一,是语音识别系统Deep Speech。模型要足够大,数据要足够多,训练要持续足够久,人才极其重要。 一批后来在AI世界反复出现的名字聚到了一起。 亚当·考特斯(Adam Coates)是其中的核心人物之一。他本身是斯坦福出身,师从吴恩达,研究背景扎实。他跟随吴恩达加入百度,在实验室里承担的角色,更多是把“研究”变成“能持续推进的工程”。 在工程层面,布莱恩·卡坦扎罗(Bryan Catanzaro)的作用逐渐显现。他从英伟达跳槽过来,关注点在于如何让这些越来越大的模型,真正高效地跑在GPU上。很多时候,瓶颈并不来自算法,而来自系统效率。 格雷戈里·迪亚莫斯(Gregory Diamos)来百度之前,是英伟达CUDA架构师。他在百度对DeepSpeech和DeepVoice系统有贡献,他关注的则是更底层的系统问题:训练过程如何被拆解、调度和优化,如何把高性能计算的思路真正嫁接到深度学习训练中。 在这些人之间,后来创办Anthropic的阿莫迪当时并不显眼。 他在团队里的身份,只是一名研究科学家,参与模型和系统的实际打磨。但正是在这段经历中,一种后来被反复提及的直觉,逐渐成形。 多年之后,阿莫迪在回顾自己职业路径时提到,他对“规模”的认识,并不是来自某一次灵光乍现,而是来自反复的工程实践。在Deep Speech的实验中,当模型规模、数据量和计算资源被同步放大时,系统性能并不是随机起伏,而是呈现出一种平滑而稳定的提升趋势。 那时,“缩放定律”还没有成为一个被命名的概念,多年后,2024年底,已经是Anthropic创始人的阿莫迪透露此事,引发了“百度是不是先于OpenAI发现缩放定律”的争议。 当年在百度观察到类似“缩放定律”的科学家,迪亚莫斯也是其中之一。 到现在他的领英界面上百度那段工作经历里还写着头衔是“大语言模型缩放定律研究员(LLM Scaling Law Researcher)”。 随着项目推进,实验室本身也在变化。 最初,它更像一个相对独立的研究飞地;但到2016年前后,语音、视觉、自然语言处理、自动驾驶等方向同时展开,团队迅速膨胀,研究开始不可避免地与公司整体战略发生更紧密的咬合。 实验室不再只是“做研究”,而逐渐承担起连接前沿探索与内部工程体系的角色。 正是在这种张力之下,百度在2017年做出了一个新的组织性选择。第二个大型研发中心在硅谷设立,这一次,重心不再是基础研究,而是更明确地服务于自动驾驶等方向的工程落地。 新的中心配备了车辆实验室,主要支持Apollo自动驾驶平台的开发与测试,同时也容纳了部分安全相关团队。它与最初的硅谷AI实验室形成了分工:一个更偏前沿研究,一个更偏系统工程和实际应用。 那场以研究为核心的实验阶段,正在走向尾声。 接下来不可回避的问题是:从2014年到2017年,百度这套“在硅谷重金押注AI”的策略,究竟有没有起到效果? 如果从最直观的财务结果来看,答案并不简单。至少在这三年里,人工智能并没有立刻成为百度新的现金引擎。2016年,百度营收增速明显放缓,四季度甚至出现同比下滑,公司在财报沟通中反复强调“转型期投入”的必要性。这意味着,AI更像是一项面向未来的长期基础设施投资,而不是可以迅速反映在利润表上的业务。 但如果把标准切换为“是否改变了公司在技术与人才层面的地位”,结论就要复杂得多。 在技术层面,百度在这一阶段确实获得了前所未有的国际能见度。 Deep Speech 2的论文被大量引用,作者名单中同时出现北京与硅谷研究者。百度的语音识别成果开始频繁被拿来与谷歌、微软对比,进入全球技术叙事。 03 散是满天星 吴恩达在2017年3月宣布离开百度。在他的公开信中,几乎看不到任何冲突描述,他强调的是团队已经成型、接班安排已经就绪,以及公司在AI上的长期投入。文字克制而体面。 就在吴恩达离开前后,百度内部确实发生了一轮明确、可见,而且影响深远的管理层与组织结构调整。 最关键的变化发生在2017年1月。百度宣布引入陆奇,担任集团总裁兼首席运营官(President&COO)。在此之前,陆奇长期任职于微软,以执行力强、组织管理风格明确著称;再往前,他也是Yahoo搜索与广告体系的重要负责人。这是一个典型的、以业务整合、流程效率和结果导向闻名的管理者。 在陆奇加入之前,百度的AI体系——尤其是硅谷实验室——更接近一种明星科学家牵引的研究“飞地”模式。 吴恩达直接向李彦宏汇报,百度硅谷实验室在组织上相对独立,研究方向、用人节奏、项目推进,很大程度上围绕吴恩达本人展开。这种模式的优点很明显: 决策快、学术自由度高、对顶级研究者极具吸引力。 它的隐含前提是:研究本身被视为阶段性优先级最高的事情。 但到了2016年末,这个前提正在发生变化。 一方面,在当年9月召开的百度世界大会上,李彦宏首次提出“人工智能是百度核心中的核心”,并将吴恩达安排为仅次于自己的第二位演讲嘉宾,AI被明确推到公司级战略的最前台。 另一方面,Apollo自动驾驶、对话式系统、智能硬件等方向开始被提升到公司级战略高度,AI不再只是研究部门的事情,而是需要与搜索、地图、云、汽车产业链发生深度耦合。 这正是陆奇被引入的背景。 在这样的结构变化下,吴恩达时代那种“由一位世界级学者牵引、跨中美两端、以研究为核心”的模式,开始显得不再匹配新的组织逻辑。 随着百度进入一个更强调执行、协同和业务结果的阶段,个人影响力必然要让位于组织机制。 吴恩达所代表的那种高度依赖个人号召力、研究优先级极高的模式,完成了它的历史使命。 2017年还有一个重大的变化,那就是特朗普就任美国总统,中美科技摩擦陡然加剧,百度硅谷实验室的长期可行性必然会受到审视。 彼时特朗普推出强硬的移民政策,持有H1-B签证的科技从业者人心惶惶,李彦宏公开鼓励人才回国发展。 从吸纳以余凯为代表的归国人才,到直插美国腹地在硅谷抢夺人才并在当地直接开展工作,再到鼓励人才回国,李彦宏微妙的心态转变已见端倪。 除了AI在短期内难以对财务形成贡献以及外部环境的变化,更深层的张力来自组织内部:研究导向的AI探索,始终需要嵌入以搜索为核心、节奏高度成熟的业务体系,而这种协同,从未真正顺畅。 一条财经曾经在2017年的一篇报道中援引知情人士的话:“别看百度人工智能那么风光,实际上搜索的数据根本不向研究院开放。做人工智能的这拨人都是海归、精英,跟搜索那边完全是两种风格,两边互相看不上。” 这也解释了为什么2017年前后,不只是吴恩达,一批早期在硅谷实验室集结的研究者,在随后一两年内陆续离开。 回头看,百度硅谷人工智能实验室是以一种更安静,也更复杂的方式退场的。 它没有等来一纸“关闭公告”,却在2017年之后逐渐失去了作为独立研究中枢的意义。核心人物离开,研究重心回撤,组织结构被拆解和吸收。 这与当年的雄心形成了鲜明对比。 百度曾在公开场合多次描绘一个极具野心的未来——人工智能将成为公司最重要的增长引擎,甚至承载着国际化的想象,彼时流行的说法是“到2020年,AI将深度重塑百度的业务结构”。 现实却是,到了那个时间节点,百度真正押注的重心已经明显转向了更可控,也更贴近现实的方向:自动驾驶、云服务、产业智能化。AI不再是一个独立的信仰中心,而是被重新嵌入业务体系,成为工具和能力的一部分。 那个曾被寄予厚望、试图在硅谷复刻一次技术奇迹的实验室,最终完成了它的历史使命。 硅谷实验室所代表的,是一种以研究优先、以个人号召力和前沿探索为核心的模式。而百度最终选择的,是更强调组织效率、工程落地和业务协同的路径。 那些从硅谷实验室离开的人,则沿着各自的方向四散开花。 考特斯先是接棒了老师吴恩达,成为百度硅谷实验室的负责人,然后他也离开了,之后进入Apple,继续在更封闭,也更工程化的体系中推进机器学习实践; 卡坦扎罗从英伟达来,挥别百度之后,又回到英伟达,现在已经是英伟达副总裁、深度学习应用研究部分负责人。他最为人所知的形象标志,是一头长发和茂密的胡须; “大语言模型缩放定律研究员”迪亚莫斯继续深耕系统与算力方向,创办了AI公司Lamini。 而阿莫迪,把在Deep Speech工程实践中形成的“规模直觉”带去了新的地方,最终创办了Anthropic,站在了后来大模型浪潮的最前沿。 至于吴恩达,当年余凯劝说他加入百度的时候,曾说他“在在线教育领域做得太出色了,但那不是AI”。 吴恩达离开百度之后,再次把重心放回“教育”。 他通过Courser把深度学习课程推给成千上万的学生;随后又创办DeepLearning.AI,把多年积累下来的方法论、经验和判断,整理成课程、项目和创业资源。 当时间来到今天,回头翻看这些人的履历,你会发现一个反复出现的注脚——百度。 它不指向某一项具体成果,而更像是一段共同经历。 在那几年里,这些人曾同时站在野心交汇的地方,看清了什么是可行的,什么是不可持续的,然后各自走向不同的方向。 从这个意义上说,百度硅谷实验室并没有成为全球AI叙事的最终中心。它更像是一处早期的中转站——在浪潮真正成形之前,率先聚拢了一批人,让他们完成一次密集的试探与碰撞。 当方向切换、舞台转移,这些人离开,故事也随之散开。硅谷实验室并未被正式关闭,但它所代表的那种时代,已经停留在了那里。
印度各邦考虑效仿澳大利亚,禁止儿童使用社交媒体
IT之家 1 月 28 日消息,随着全球针对未成年人网络保护的监管浪潮兴起,印度正成为下一个关键试验场。该国多个邦政府开始研究效仿澳大利亚,对 16 岁以下未成年人实施社交媒体禁令。 IT之家注意到,印度西部沿海邦果阿邦本周明确表示,正在研究禁止 16 岁以下儿童使用社交媒体的可行性。该邦信息技术部长罗翰 · 昆特(Rohan Khaunte)表示:“澳大利亚已通过法律,禁止 16 岁以下儿童使用社交媒体。我们部门已经调阅了相关文件,正在研究,如果可能的话,也将对 16 岁以下儿童实施类似的社交媒体使用禁令。” 同样位于南部的安得拉邦也在考虑采取类似举措。本月初,该邦信息技术兼教育部长纳拉 · 洛凯什(Nara Lokesh)在瑞士出席世界经济论坛期间透露,官员们正在研究澳大利亚的相关法律。他表示:“我认为我们需要制定强有力的法律条文。”目前,安得拉邦政府已成立部长级小组委员会,由洛凯什亲自担任主席,评估限制或禁止未成年人接触社交媒体平台在法律和实操层面的可行性。 除地方行政机构外,印度司法系统也已介入这一议题。去年 12 月,马德拉斯高等法院敦促印度联邦政府考虑采取澳大利亚式的限制措施。 在印度推行任何限制儿童接触社交媒体的举措,都将对全球科技公司产生重大影响。作为关键的增长市场,印度对 Meta、谷歌和 X 等平台具有举足轻重的战略地位。据印度政府估计,该国互联网用户已超过 10 亿,且大量用户在年幼时就开始接触网络,这使得印度成为这些平台用户增长和广告策略的核心市场。 Meta 公司发言人在回应此事时表示,公司与立法者的目标一致,都希望为年轻人“创造安全、积极的在线体验”,但主张应由父母而非政府来决定青少年使用哪些应用程序。该发言人警告称:“考虑实施禁令的政府应当谨慎,避免将青少年推向安全性更低、缺乏监管的网站,或绕过重要保护措施的免登录体验,就像我们在 Instagram 青少年账户中提供的默认安全保障那样。” 澳大利亚于 2024 年 11 月通过《在线安全修正案(社交媒体最低年龄)法案 2024》,并于 2025 年 12 月正式生效,成为全球首个实施此类全国性禁令的国家。然而,该法案已暴露出平台在执行层面的诸多挑战。去年,Meta 已开始通知澳大利亚青少年其账户将被关闭,这凸显了准确判定用户年龄的困难,尤其是在用户注册时并不总是如实申报的情况下。 该法律涵盖了 Twitch 等平台,但豁免了 Pinterest、Discord、GitHub、Roblox 和 Steam 等。这种选择性适用重新引发了对数字年龄验证系统的担忧,这类系统因需要收集敏感数据而带来隐私和安全风险。 澳大利亚的这一举措正受到多国密切关注。除印度外,丹麦、法国、西班牙以及印度尼西亚和马来西亚等国政府也在研究类似的限制措施。 然而,在印度推行类似政策面临独特的法律障碍。新德里智库“对话”(The Dialogue)创始主任卡齐姆 · 里兹维(Kazim Rizvi)向 TechCrunch 指出,尽管规范儿童使用社交媒体的压力日益增大,但互联网治理属于联邦法律范畴,各邦无权修改《信息技术法》或《数字个人数据保护法》等国家法规。他补充说,包括安得拉邦在内的一些邦因此可能寻求中央政府的支持,但这一结果尚不确定。 企业律师事务所 AZB & Partners 合伙人阿普拉吉塔 · 拉纳(Aprajita Rana)也认同里兹维关于地方行动局限性的观点。她表示,在印度这样规模的市场实施澳大利亚式的禁令将是史无前例的,但全面限制存在将儿童从受监管平台推向不受监控的网络空间的风险,可能反而破坏政策制定者试图实现的安全目标。 印度于 2023 年 8 月通过的《数字个人数据保护法》已包含针对儿童数据的具体保护措施,要求在处理 18 岁以下未成年人个人数据前获得可验证的家长同意,并禁止对未成年人进行追踪、行为监测和定向广告。不过,这些条款的实施细则将分阶段推进至 2027 年,给予平台充足时间落实所需保障措施。
亚马逊宣布裁员1.6万人,去年10月已裁掉1.4万人
IT之家 1 月 28 日消息,亚马逊今日宣布,将裁减 1.6 万名企业员工,此前,亚马逊已于去年 10 月裁撤 1.4 万个岗位。 据IT之家了解,此次裁员由亚马逊全球人力资源与技术高级副总裁贝丝 · 加莱蒂(Beth Galetti)宣布,她在致员工备忘录中表示,她称此举是公司内部减少官僚主义努力的一部分。“正如我在去年 10 月所说,我们一直在努力优化组织架构,减少管理层级,增强主人翁意识,并消除官僚主义,”加莱蒂在亚马逊官方博客发布的备忘录中写道,“虽然许多团队已于去年 10 月完成组织调整,但部分团队直到现在才完成相关工作。” 裁员消息凸显了亚马逊在人工智能快速发展的背景下,正加速推进组织变革以提升运营效率。尽管该公司最初将去年 10 月的裁员归因于人工智能驱动的变革,但首席执行官安迪 · 贾西后来澄清,那次裁员更多是出于企业文化契合度的考量,而非单纯为了削减成本或实现自动化。 本周二,部分亚马逊员工意外收到关于裁员安排的日程邀请,该通知似乎被提前发送。此外,亚马逊本周早些时候还宣布,将关闭其 Amazon Go 无人便利店和 Amazon Fresh 生鲜超市业务,理由是未能打造出“兼具独特客户体验与合理经济模式”的商业模式。 亚马逊全球员工总数超过 150 万人,但其中企业员工仅占相对较小的比例,约为 35 万人。 近年来,亚马逊持续精简管理层级、收紧开支、改革绩效评估体系,并要求绝大多数企业员工每周五天到办公室办公。这一系列文化重塑举措在疫情后加速推进,当时亚马逊的爆发式增长开始放缓。公司通过关闭亏损项目、压缩高管层口中“臃肿”的员工队伍来控制成本。贾西去年曾表示,人工智能带来的效率提升最终将减少亚马逊的员工总数。 亚马逊的举措折射出科技巨头行业的普遍趋势:各大公司在大幅裁减岗位的同时,却在人工智能领域加大投资力度。微软去年宣布裁减约 1.5 万个岗位,首席执行官萨蒂亚 · 纳德拉告诉员工,公司需要专注于人工智能转型。Meta 同样因人工智能进行人员调整,去年曾告知风险管理部门员工,其岗位将被自动化技术取代。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。