行业分类:
加载中...
头条分类:
加载中...
传TikTok将解除总法律顾问职务 官方否认
图注:TikTok总法律顾问安德森 凤凰网科技讯 北京时间4月21日,知情人士称,TikTok准备解除其总法律顾问埃里希·安德森(Erich Andersen)的职务,原因是安德森未能说服美国政府让他们相信公司采取了足够措施来解决国家安全担忧。 安德森还同时兼任TikTok母公司字节跳动的总法律顾问,在美国办公。他领导了公司与美国政府长达数年的谈判。该谈判旨在表明TikTok采取了足够措施阻止外国访问美国用户数据或影响用户在信息流上看到的内容。但是,这些努力未能赢得一个跨部门政府小组的支持,后者负责对TikTok进行安全审查。华盛顿的国会议员们也在考虑通过立法强制字节跳动剥离TikTok。周六,美国众议院通过了一项法案,要求字节跳动出售TikTok,否则将在美国被封禁。 知情人士称,TikTok正计划让安德森辞去目前的总法律顾问职务,他目前仍留在公司。安德森在2020年从微软公司跳槽至TikTok。跳槽前,他在微软担任副总裁兼首席知识产权顾问。 当被问及是否准备解除安德森的总法律顾问职务时,TikTok发言人亚历克斯·豪雷克(Alex Haurek)表示,“这个消息100%错误”。 目前,TikTok剥离法案正在美国国会加速推进中,预计将于下周在参议院通过。美国总统拜登已表示,他会签署剥离法案,强制字节跳动在一年内出售TikTok。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
再融5000万美元,又有一款浏览器想替代Chrome
“替代Chrome,”说这话的若是微软Edge或是轻量级Firefox,大家也许还能争辩一二,但如果是一家初创公司的宣传语,观众们要么不屑一顾,要么上手一试,再种草或锐评。 发出这句宣传口号的是一款AI浏览器Arc Search。2023年7月其正式发布iOS版,外观和Safari相似,主题炫酷、功能齐全,和Chrome一样基于Chromium内核,兼容Chrome插件。它有两种浏览模型,一种是关键词搜索/网址跳转,也是传统的搜索方式,另一种是AI搜索,类似Perplexity,整合6个网页的结果后反馈用户。 图源:The Browser Company YouTube视频 既有Safari的清爽视觉,又有谷歌的插件生态。“还真挺有意思”,网友发出感叹,Arc Search什么都好,就是没有Windows版。 图源:Arc 这款有趣的浏览器由The Browser Company推出,公司成立于2019年,创始人Josh Miller是连续创业者。曾将公司出售给Facebook,后成为投资人。团队内有Ins前工程师、特斯拉、Medium的前设计师,亚马逊创始工程师。4月2日,公司刚把Safari前首席设计师Charlie Deets挖过来。 图源:Twitter 3月21日,The Browser Company筹资5000万美元,投后估值5.5亿美元,领投方Pace Capital。此前投资人包括Jeff Weiner(LinkedIn)、Evan Williams(Medium CEO)、Dylan Field(Figma Founder)、Akshay Kothari(Notion COO)、Eric Yuan(Zoom Founder)和Reid Hoffman,共融资4轮,筹集1.28亿美元资金。 最近,他们推出了Win版Arc Search,正在收集等待名单提供测试,把他们的浏览器革新玩法带给更多用户。 01 无广告的“懒人搜索” 成立以来,Arc在专心致志地研究新的浏览器,争取造一个颠覆用户习惯的新东西。 2022年4月,The Browser Company发布了Arc Browser测试,重新定义了浏览器的用法。它布局不同于传统浏览器的水平排列,和Safari展开阅读列表后相似,是左右两栏,选项卡垂直垂直展现,可使用快捷键执行打开新页面的Google搜索。 00:03 图源:Arc,YouTube Enrico Tartarotti产品评测 页面中,主题色有调色盘,更改不透明度、渐变满足用户个性化需求。 在Arc Browser的功能开发中,重点落在标签页的整理,不同于Chrome在几年前更新的标签分组整理,值得一提的是,它的分组与Notion的设计思路一样,可以拖拽分类。 图源:YouTube Enrico Tartarotti产品评测 其Space(空间)功能则是允许用户根据个人需求创建多个竖栏,在其中垂直陈列标签页,存放不同内容。 图源:B站up主topbook评测视频 用户可以将标签页马赛克式布局在窗口顶部,并能将鼠标悬停在其上方做选项卡预览,无需实际切换页面。看得出Arc想简化网页设计思路,有些标签栏应该是一种应用程序启动器。 图源:The Verge,由图可见,Arc想让web应用程序更加原生 还有一个New Easel功能,俗名“画架”,称作情绪板。当用户觉得某网页的一块精彩片段值得剪切时,他们可以创建页面到画架中,对其绘制线条或形状、添加文字等,就像从报纸上剪下一块值得纪念的内容到收藏夹里。不过这不同于普通的截图,网页是实时更新的,用户点击后能跳转页面,部分画架中的“播放”按钮能让截取的那一小块内容更新信息。 图源:Medium,Mikhail Portnov 在使用上习惯上,Arc Browser也追了一个潮流:分屏。用户在一块屏幕上看两个窗口,这期间也能通过控制功能拆分、存档、添加、交换新的标签页。这一功能在屏幕大的设备上使用体验感更好。 图源:Medium,Mikhail Portnov 到了AI大火的2023年,Arc也在积极开发AI功能,Arc Search是由Arc Browser做出重大转变后发展而来。这一次,Arc将功能重点放在了AI上,去年10月,Arc第一批AI功能Max发布。据称,其合作的大模型是OpenAI和Anthropic。 据介绍,它结合AI做功能更新,从不同角度提升用户使用效率。 Arc Max最实用的是能把超长的网页标签页重命名,使其简单易读,下载文件它也能把乱码自动重命名为文件名。鼠标悬停预览也有进化,按住shift键,其可以给出对应链接中5s摘要预览。 00:18 视频源:Arc 使用“页面提问”时,Arc Max能在几秒钟内总结技术文档的对应部分。 而且,用户浏览网页时,只要按住快捷键Command + F可以与ChatGPT聊天,可以使用它查询或进行对话。它回答时会附带原文内容,用户可点击跳转。 2024年1月29日,Arc Search作为iOS应用正式发布。Arc Search是网络浏览器、AI搜索引擎、网页三合一,iPhone用户和Mac用户可以在App Store找到它并下载,看热闹的Win版用户可以去官网(https://arc.net/)一探究竟。 “看似花里胡哨,却又处处在解决网页浏览器的痛点。”工具博主Topbook这样介绍Arc Search。 一个面板,Arc Search集成多种功能。据视频内容,Arc Search继承其老大哥Arc Browser作为一个浏览器的基础功能,网页版搜索用几个快捷键轻松完成,command+t进入搜索,及其他快捷键能关闭、切换页面或进入无痕模式。安装扩展位于设置图标中,方式与Chrome一致。其余功能,如分屏、预览、Space、Little Arc(小窗)、网页归档等与Arc Browser一样。 图源:The Verge Arc Search不让用户大海捞针,而是“懒人搜索”。它着重宣传的AI功能是“为我搜索”,用户搜索问题后,点击“为我浏览”,浏览器将自行阅读6个网页,搜索结果以结构化方式呈现。例如搜索一份“素食苹果酥”食谱,Arc Search的呈现结果是图文并茂的,附有视频或其他图文链接供参考。 此外,它还提供一些便利的小功能,如自动存档旧标签,组织广告、追踪器和横幅提示(甚至GDPR,比如cookie)。它的界面是干净的阅读器模式,打开时始终以键盘弹出,方便用户搜索。 据点点数据,自其发布以来,一度冲向App Store应用(工具)免费榜第3,随后下降,直到The Browser Company融资信息披露后热度上升。 图源:点点数据 近3月,Arc Search吸引了不少目光。据Similarweb数据,1月至3月,Arc.net总访问量为786.8万次,月均262.2万次。 图源:Similarweb 02 从头做浏览器 创始人Josh Miller的创业想法很直接:天下苦传统浏览器久矣。25年前浏览器什么样,现在还是什么样,得造一个新的。 他知道这是一个宏大的计划,“But just go for it.”所以他们的公司名很直接,就叫“浏览器”,The Browser Company。 图源:The Browser Company “传统浏览器公司靠搜索广告赚钱,所以要他们希望用户要做尽可能多的搜索。浏览器这么多年来没什么变化,部分原因是因为他们没有真正把浏览器做成浏览器,而像是吸引点击的广告地址。” Josh Miller毕业于美国普林斯顿大学,2014年1月,将自己的初创公司Branch以1500万美元的价格卖给了Facebook,在Facebook待了1年后去当了白宫数字战略部当第一任产品总监(奥巴马时期)。 图源:the whitehouse 后来他去Thrive Capital担任了3年投资者,至今仍是Patreon(艺术家众筹网站,类似于爱赞助)公司的董事成员。 “做桌面浏览器可能是最无聊的工作,”Josh直白地说,世界上几乎每个电脑用户都要使用浏览器, 但大部分人并不关心哪个牌子的浏览器更符合生活习惯。 Josh也没想到,他在2019年创立了The Browser Company,研究无聊浏览器的新思路。 “我们有很大的机会空间重新构想它。” 在他看来,造新浏览器的时机已经到了。因为近五年来计算机已经将人们的资料储存进云端,而人类所接触的任何设备都将配备计算机,无数SaaS应用即将进入人们的生活,“浏览器是进入新时代的关键。” 开始时,Josh团队造了50个产品原型,挑挑拣拣发现一些小细节,比如标签页放在左边才是最干净的,浏览器边缘留个小框才好看等。“最重要的一点是,你要让用户在使用你的产品时感受到一些‘关心’,用户导向的观念很传统但很有效。”Josh认为,保留用户在Arc Search前30秒有好的使用体验对用户增长非常关键。 图源:YouTube,The Browser Company 原本,AI功能的加入对Josh来说是追赶潮流,而“真香”速度太快,去年10月他们将Arc Max的功能队伍扩张,打包了5个轻量级但实用功能推出,马上获得一次大规模的推荐转发,尤其是其5s预览功能反响不错。 “30种AI功能相差不大的情况下,一个极小的界面细节足以让其变得非常强大。”比起AI,他更多需要的是功能设计的想法,以这项5s预览功能为例,“我们试用预览功能时,几乎无人关注,直到一位设计师提出将段落呈现改为要点呈现,并加上图标,让这个功能变得极具价值。” 图源:YouTube 用AI让浏览器帮人们生活变得更轻松,是Josh创业的初衷。试用AI也是他员工们的心愿,“要知道我的员工们野心勃勃,总想着要变成下一个iPhone团队。(为了开发)我们会做很多尝试,包括一定会失败的事、无意义的事,这也是我们吸引人才的原因。” 一家浏览器公司改变原有搜索方式,等同于和巨额广告收入说再见,而且直面Chrome这样的竞争对手。这种“无意义”的做法吸引了一名浏览器元老级人物。 他是Josh Miller麾下大将,谷歌浏览器老员工Darin Fisher。据他自述,他曾是Netscape的软件工程师,后又帮Mozilla将应用程序变为了Firefox,随后去Chrome16年,一个周末打造了Chrome原型,后参与创建ChromeOS,将这两款产品运作起来,成为了Chrome团队工程副总裁。然而Google对浏览器的发展方向,对广告模式的坚持,与他的想法相左。他想要的是,更少的搜索,更直接的页面呈现和新的UI界面,这明显与Chrome将搜索引擎置于中心的追求不一样。 图源:The Verge,Darin Fisher 后来,他加入了Neeva,和志同道合的前Google同事,构建新型无广告的搜索引擎。很快他就被The Browser Company的想法吸引,这就是Darin量身打造的公司。他对此感到兴奋,“Arc把书签和标签页组合成了应用程序切换器的概念,它有用于笔记和迷你网站的内置工具,虽然这些体验和用户习惯不同,但却是如此不一样。” 并且,The Browser Company这种专注研究“小功能-大帮助”的氛围让他认为打造Arc search浏览器充满了创新感。 于是他从试用Arc search到开始给他们担任顾问,到后来离开Neeva去当软件工程师,以至于Darin跟14岁的儿子发生了一段搞笑的对话。 “我要加入The Browser Company了。”Darin说。 “哪一家(Which one)?”儿子问。 不仅于此,他们团队内还有几位前Instagram工程师、Tesla和 Medium的前设计主管、多位Google Chrome核心成员,《Dots》游戏的创作者、Snap、Pinterest、Stripe、CashApp等公司的前员工。4月2日还新进一位Safari前首席设计师。 且同一赛道内,The Browser Company不缺基于Chromium基础架构革新浏览器的同伴。如Brave浏览器阻止有害广告,Sidekick将浏览器打造为集成Web应用程序的工具,DuckDuckGo致力打造保护用户隐私、搜索快速的浏览器。 03 用户需求至上 做用户导向的浏览器不仅是Darin的职业心愿,也是Josh创业以来总结的朴实秘诀。在第一批AI功能开发上线时,Josh表示,这些功能只会保留90天,将视用户使用情况决定功能去留。 现在Arc Search也保持着高频的更新速度,不断试探用户的适应性。Arc Search在2月1日到8日,7天完成3次更新,期间还面向高校推出Win版内测,一个月内做出5个新功能,速度快到用户不禁发问,“这是什么时候出现的?”他们更新的功能也较人性化,例如: ·AI新功能“一键成组”,单击Clear,标签页自动组队分组;“捏合摘要”,双指捏合网页后自动总结内容。 ·Space单击折叠固定标签页,即页面太多可以一键折叠简化页面。 ·即时链接,浏览器理解用户的搜索需求,直接跳转打开,不用多次搜索。例如搜索“AI Pin的测评”,Arc将自动创建文件夹,其中包含来自不同媒体的评价视频或图文。 ·将Perplexity、Kagi作为默认搜索引擎。 来源:Twitter 近1月,他们推出了Live Folders及针对开发人员的Github Live实时文件夹,文件夹就像一个应用程序一样自动更新。 图源:Twitter 使用者觉得Arc Search是一款效率更高的浏览器,将AI用在了用户需求之上。人工智能作家Kevin Donnellan认为,AI搜索要么能将数据和答案变得更好,创作者将从另一种途径获利,用户获得全新、实际的查找内容的方式;要么走传统浏览器的老路,商业为王,AI优化了搜索引擎,只是AI时代广告展示的位置变得更好。 对浏览器的革新来说,金钱每次都能击败创新吗?这个答案Josh明确表示不知道,他甚至建了一个网站叫“我们可能无法成功”(https://wemightnotmakeit.tv/) 图源:The Browser Company 被问到“如何让员工坚信新浏览器是未来?”时,Josh愣住了,但他的幽默不允许他对未来沉默。“努力!奋斗!”他重复了3遍。 AI发展得很快,他们的“复制品”公司不断涌现,Josh对此也丝毫不慌,“很简单,他们没那么多钱。”在The Browser Company的Q&A里,他们说,大多数初创资金只够维持18个月,他们的资金远超这个数字,“我们不会跑路——银行里还有很多年的runway!” 虽然结果会出现幻觉,但Arc Search做的美观的、智能的浏览器已累计大量用户,也已有openAI和perplexity推动用户在他们的平台上搜索结果。 所以,Josh除了剖析“我们可能无法成功”,也详细分析了“我们为什么能够成功。”
谁是Chiplet的最优解?
半导体行业正在准备从基于专有小芯片的系统向更加开放的小芯片生态系统迁移,其中由不同公司采用不同技术和器件节点制造的小芯片可以以可接受的良率集成在单个封装中。 为了使这项工作按预期进行,芯片行业将必须解决各种有据可查的技术和业务问题,并且必须控制一些可能发生的更宏伟的愿景——至少在最初是这样。基本挑战是将包含越来越多小芯片的终端系统的特定领域性能需求与IDM、代工厂和OSAT的组装和封装能力及方法相结合。这包括创建大致相当于工艺开发套件 (PDK) 的装配开发套件 (ADK),如今已将其编入制造规范。 PDK 提供了开发平面芯片所需的适当详细程度,将设计工具与制造工艺相结合,以实现可预测的结果。但要让该功能适用于具有异构小芯片的PDK,要复杂很多倍。设计和装配团队需要管理热、机械和电气的相互依赖性,这些依赖性会导致电气和机械应力,从而导致实际工作负载下的翘曲、良率降低和可靠性问题。除此之外,还有与不同制造商的不同设备的包装相关的业务和法律问题。 Yole Intelligence半导体封装技术和市场分析师 Gabriela Pereira 表示:“小芯片是一种不断增长的趋势,尤其是在 HPC 和网络领域,并且有潜力扩展到其他应用。” “业界已经认识到需要高端先进封装技术来连接它们 - 但这比看起来要复杂得多。连接小芯片需要在封装级设计高带宽互连,可以采用不同的形式,例如 2D、2.5D 或 3D,同时确保满足散热和功耗要求。” 基于小芯片的商业设备通常是特定于领域的,有时是针对特定工作负载而开发的。因此,尽管业界大力推动为小芯片创建类似乐高的混合搭配生态系统(目前包括多个 IP 和 EDA 供应商、代工厂、内存供应商、OSAT、基板供应商等),但要按计划进行这项工作仍需要时间和大量的工作。 在创建异构集成设计时,代工厂、IDM、OSAT 和 PCB 制造商之间必须进行更紧密的合作。由于每个基于小芯片的系统都将被定制,因此组装工艺的数量将大幅增加。例如,一家 OSAT 指出,在其约 5,000 家客户中,有约 1,000 种不同的组装工艺。 产品和工艺的多样性使得从大量选项中选择小芯片很难获得可预测的结果。 “我们已经遇到了很多限制,不仅包括芯片,还包括集成和生态系统,”日月光集团高级总监曹立红(音译)在 MEPTEC 的“Chiplet 之路”论坛上表示。她强调,客户继续推动低成本小芯片组装工艺,这在开发复杂的组装工艺与不同行业的经济现实之间造成了建设性的紧张关系。例如,汽车计算设备比数据中心具有更高的成本敏感性,但它们的芯片在更恶劣的环境中运行,使用寿命更长。 我们需要的是一套明确的装配工艺配方——基本上是一个高度有限的选择菜单——特定于最终应用(HPC、汽车、射频电信),以降低基于小芯片的系统的成本。OSAT 和代工厂已经朝着高性能计算的方向发展。例如,在 2024 年 Direct Connect 活动中,英特尔分享了其六种不同的小芯片封装工艺。台积电和三星还提供定义的小芯片工艺集。但这些装配工艺的成功需要工程团队共同优化流程、工艺和材料,以最好地满足系统要求。 “以前,当我们设计系统时,我们只需要担心系统要求。一旦我们开始分离die并重新组装它们,我们就必须开始考虑其他事情。我们必须担心将它们组合在一起,同时考虑芯片之间的信号完整性、可靠性、散热等。”应用材料公司人工智能系统解决方案总监 Itai Leshniak 在 MEPTEC 论坛上说道。“如果我们以基于人工智能的计算机视觉为例,我们可以在硬件方面将其逐层分解,确定需要哪些计算机视觉处理器、传感器、过滤器来将其分解为层架构。然后我们开始研究如何封装所有这些小芯片,然后使用哪些材料以及如何利用这些材料。” 材料和装配工艺 从概念上讲,设计工程师将使用小芯片来设计系统。然而,协同设计和集成比组装一组乐高积木要复杂得多,因为小芯片、中介层和封装基板来自不同的设计公司和制造工厂。用于连接小芯片的先进封装技术各不相同——FOWLP、FOPLP、CoWoS 等,每种技术都带来了额外的设计和材料选择以及某些工艺限制。 目前,工程团队正在确定不同封装选项之间的权衡,以选择材料、得出工艺配方并确定设计规则。 材料是一个很好的起点。“材料非常重要,因为它们能够实现新产品和封装技术,”弗劳恩霍夫可靠性和微集成 IZM 研究所副组长 Tanja Braun 说道。“当你转向更先进的封装时,流程变得更加复杂,因为你要将更多的东西放在一起。最终,这是设备、材料和工艺开发的结合。” 封装组装过程中有三个至关重要的热参数——热膨胀系数 (CTE)、玻璃化转变温度 (T g ) 和导热率。这些因素影响材料在制造到包装过程中的表现,以及它在现场的表现。 “我们的材料面临的挑战包括不同芯片的温度限制,” Brewer Science首席技术官 Rama Puligadda 说道。“我们必须确保用于粘合材料的温度不超过集成到封装中的任何芯片的热限制。此外,可能还有一些后续工艺,例如重新分布层(RDL)形成或模制。我们的材料必须能够经受住这些过程。它们必须能够经受住整个包装过程中接触到的化学品的考验。封装中的机械应力给粘合材料带来了额外的挑战。” 在具有可选中介层的基板上小芯片堆栈中,它们的材料属性也会影响相邻材料之间的热机械应力。这直接影响大面积衬底区域上的互连尺寸控制。 Promex Industries首席执行官迪克·奥特 (Dick Otte) 表示:“如果你仔细研究一下数字,你会发现所需的容忍度和控制水平令人恐惧。” “你所说的控制尺寸相当于足球场长度上草叶的宽度,所以这大约是十万分之一。” 目标是在回流焊中均匀加热结构,以获得最佳工艺结果并避免破裂。“当你让它经历 250 摄氏度的温度变化时,你需要缓慢加热,这样顶部就不会先于底部变热,”Otte 说。 多物理场理解协同优化 多物理场建模已成为协同优化包装设计和装配工艺开发的首选方法。这会影响永久和临时材料,以及处理器、存储器和其他组件的放置。 “你总是关注客户对电力的需求,因为这将有助于定义材料集。该材料集广泛适用于一系列速度范围。只要不超出这些电气规范,理论上应该没问题,” Amkor Technology高级封装和技术集成副总裁 Mike Kelly 说道。 为了节省基于经验的开发的多次迭代,工程师可以使用基于物理的模拟来了解材料组的属性对装配过程、功率/热量和机械振动的影响。 考虑到 HPC 小芯片产品在峰值性能下的功耗约为 1,000 瓦,因此需要充分了解功率和热相互作用。 “正如每个人一样,我们一直在努力应对不同技术的复杂性。它们不仅在不同的供应商之间存在差异,而且还会随着时间的推移而变化。” Ansys产品营销总监 Marc Swinnen 说道。“我们的方法是确定需要解决的要点。我们与客户共同开发了一个能够真正实现现在所需的模拟流程。” 材料只是拼图中的一小部分。“然后需要对装配应力进行建模,以了解是否可以正确组装该设备。第三个是机械振动,”Swinnen 说。“你的设备能承受这些定期振动吗?对这些属性进行建模直接与我们的机械分析工具(声学、热学、振动等)联系在一起。最后,您将必须进行物理模拟。我们正在努力让人们以多种不同的形式使用它。但我们工具产品的基础是我们拥有网格模拟和分析。问题是如何以实用且可用的方式获取正确格式的数据。” 不断发展的装配设计套件 对于传统封装,OSAT 为每种封装技术提供了设计规则。这些需要考虑电气、机械和热设计要求以及制造工艺限制。实际上,这是一个多维边界框。供应商与客户一起进行迭代,以创建产品特定的工艺配方。 规则涵盖了宏观层面的属性。“至少,您从设计规则中看到的是最大封装尺寸、最大硅尺寸以及硅是否可以[安装]在基板的两侧,这样当您遵循这些结构时,最终产品的使用寿命将是例如,1,000 次热循环,”Fraunhofer 的 Braun 说道。 此外,设计规则需要描述中介层和/或重新分布层的布线约束,例如RDL线宽和间距、球栅/柱/焊盘尺寸和间距以及互连的最大数量。 将单片 HPC 器件分解为多个芯片可将部分半导体设计/工艺复杂性转移到封装空间。这让事情变得更加复杂。考虑到连接 10 个芯片需要中介层或基板的重新分布层内有 100,000 条迹线。 为了应对芯片级的复杂性,IC 行业长期以来一直依赖工艺设计套件 (PDK) 将设计规则捕获到可导入 EDA 工具的电子文件中。其对应的装配设计套件 (ADK) 相对不成熟。 “我们称之为智能包,”Amkor 的 Kelly 说。“这是我们为每位自行设计的客户提供的 ADK。它是一组宏,以及根据客户的特定设计定制的数据库。对于chiplet来说,它是一种高密度扇出封装技术。而且它认识到金属密度和金属间距等的限制。这使我们更容易进行设计规则检查(DRC)。” 但目前,由于仍需要一定程度的定制,ADK 的派生方式及其所需内容正在不断变化。EDA 工具供应商、OSAT 和半导体器件供应商之间需要建立合作伙伴关系。 “我们来自 IC 世界,那里的一切都非常严格,” Synopsys旗下 EDA 集团 3D-IC 产品管理总监 Kenneth Larsen 说道。“在 OSAT 方面,也许这是因为它是如此定制,设计规则看起来就像一个数据表。然后,您可以随着时间的推移或与 OSAT 合作来构建和优化产品。这不是电子交换。在 IC 领域,这完全是闻所未闻的。虽然可以调整一些东西,但你有一个资格流程。而且似乎还没有这样的包装。” 材料和相关的组装配方最终决定了小芯片-基板堆叠在柱间距、RDL 线宽和间距、键合工艺以及小芯片放置公差方面的可能性。但在少数 ADK 中,有许多可能的交互需要考虑。 当前的重点是协同优化系统设计与小芯片组装工艺,从而形成组装工艺开发流程(见图 4)。该流程考虑了组装过程的定制需求,并创建了封装设计人员使用的必要设计规则。 “首先,您需要使用小芯片定义您的结构。您使用的是基板 RDL、2.5D RDL 还是桥接器?之后,您需要考虑结构的材料。您选择什么样的材料来满足您的电气性能和机械应力要求,”曹说。“之后,您进行预分析,以确保您使用的所有结构和材料在电气、翘曲和机械应力方面均可行。” 设计规划流程还包括通过协同设计签核文档评估芯片间互连。 结论 在 IDM 模型之外实现基于小芯片的设计之前,业界需要完成连接制造和设计复杂性的生态系统。这是因为需要根据材料、工艺和集成能力共同优化系统架构。虽然通过一系列定义明确的产品来推动小芯片生态系统的发展会更容易,但这还没有发生。 整个设计和制造堆栈的工程团队需要合作选择适当的材料、架构、工艺等,以开发最终的可设计的基于小芯片的产品。正如日月光集团的曹指出的那样,“集成的设计和制造生态系统非常重要。IDM、供应商、材料供应商之间的合作非常重要。每个人都需要共同努力才能真正实现实际应用程序的集成。”
全球半导体厂商排名:谁是大赢家?
编者按 2023年全球半导体25强:英伟达逆势增长,存储厂商集体下滑,汽车芯片成香饽饽!虽然2023年众多半导体提供商渡过了一个难熬的下行周期,但行业整体表现依然韧性十足,展现出强劲的抗跌能力。 近日,TechInsights公布了2023 年排名前 25 名的半导体供应商的最终排名。2023年,没有新的供应商进入前25名名单,但企业排名发生了重大变化。在 2023 年排名靠前的半导体供应商中,有11 家排名上升,11 家排名下降,3家公司的排名与2023年持平。值得注意的是,前25强名单中将晶圆代工厂也加入了其中,不过主要是为了比较年销售额,而不是作为市场份额排名。 来源:TechInsights 营收表现 首先从总体营收上来看,与2022年相比,前25名公司的总营收有所下降,从2022年的5790亿美元减少到2023年的5245亿美元,减少约9%。前25名中营收最高额为692亿美元,第25名为590亿美元,前后约相差100亿美元。这也意味着前25名的最低销售额门槛。 从个别公司的表现来看,台积电作为行业领头羊,虽然营收有所下降,但是以692亿美元的营收荣登榜首。得益于其用于数据中心服务器人工智能(AI)工作负载的GPU处理器的巨大增长,英伟达在前25名中“鹤立鸡群”,实现了102%三位数的涨幅,以496亿美元的营收一跃从2022年的第八位来到第四。英飞凌以173亿美元营收前进了5个名次,跻身TOP10行列。 尽管宏观经济环境艰难,但是全球TOP25厂商中仍然有7家实现了增长,分别是上文提到的英伟达(102%)、博通(12%)、英飞凌(10%)、意法半导体(7%)、恩智浦(1%)、索尼(12%)、微芯科技(7%)。这些厂商很大程度上受益于汽车应用的高需求,根据TechInsights的研究,2023年全球汽车半导体市场增长16.5%,达到创纪录的692亿美元。 而余下的18家厂商都实现了不同程度的下降。其中,尤以存储厂商下跌最为严重。传统存储芯片制造商三星(-34%)、美光(-35%)、SK hynix(-28%)、铠侠(-37%)和西数/闪迪(-26%),也因此,这几家厂商的销售排名都有所下降。三星电子的半导体收入下降了34%,降至509亿美元,这是自2016年以来其半导体年销售产出的最低值。尽管去年存储器供应商的销售业绩不容乐观,但 DRAM 和 NAND 闪存的价格正呈强劲上升趋势,这将使存储器集成电路供应商在 2024 年实现最强劲的收入增长。 地区 从地区上来看,美国作为全球科技创新和半导体行业的重要中心,拥有超过一半的前25位半导体供应商,排名前25位的供应商中有13家总部设在美国。 尽管美国在榜单中占据主导地位,亚洲国家如中国、韩国和日本的公司仍然在全球半导体供应链中发挥着关键作用,特别是台积电更是榜单第一,也是全球最大的代工厂。前25名中中国有4家,分别是台积电(第1)、联发科(第14)、联电(第22)和中芯国际(第24),三家位于中国台湾。日本有3家,分别是索尼(第17)、瑞萨(第18)和铠侠(第23)。韩国主要是三星(第3)和SK海力士(第7)这两家,他们在存储领域具有很强的实力,。 英飞凌(第9)、意法半导体(第10)和恩智浦(第15)是欧洲的三驾马车。欧洲是去年唯一实现增长的地区,销售额增长了4%,欧洲的半导体厂商大多集中发力在汽车和工业领域。中国和亚太地区的降幅最大,中国是半导体行业最大的销售市场,2023年其收入下降了14%。美洲市场萎缩了5.2%。 产品类别 从产品类别上看,除了四家纯晶圆代工厂之外,其他的公司所销售的产品包括集成电路和PSD器件(光电子、传感器和分立器件)。 前25名的厂商中除了台积电,另外三家纯晶圆代工厂分别是GlobalFoundries、联电和中芯国际。这些公司专门从事为其他公司制造半导体产品。它们不设计自己的芯片,而是按照客户提供的设计生产。由于智能手机、个人电脑、数据中心服务器和其他终端市场增长缓慢和库存积压,2023 年对晶圆加工服务的需求有所下降。排名第21位的GlobalFoundries公司2023年的销售额下降了9%,降至74亿美元;排名第22位的联电公司收入下降了24%,降至71亿美元;第24名的中芯国际公司销售额下降了13%,降至63亿美元,在2023年的排名中降至第24位。 处理器厂商:英特尔、英伟达、AMD这三家处理器厂商之间互为掣肘,英特尔和AMD在CPU领域竞争,英伟达与AMD则在GPU领域相较量。英特尔是世界上最大的PC和服务器处理器制造商,高峰时期大约占据80%以上的市场份额,不过近年来AMD正在不断蚕食英特尔的CPU市场份额。根据 CPU跟踪公司Mercury Research的数据,去年AMD 的整体CPU份额创下历史新高,达到达到 31.1%,英特尔则下降至68.9%。 2012年至2024年全球Intel和AMD x86计算机中央处理器(CPU)分布(按季度)来源:statista 在当下这个AI时代,三家围绕在AI芯片领域的竞争也很激烈。在云端的生成式AI领域,英伟达的GPU芯片H 100、AMD的Instinct MI300X、英特尔的Gaudi,预测在2024年会有一场激烈的竞争。在AI PC领域,也是英特尔和AMD两家极力主张的赛场,在这方面,英特尔的酷睿Ultra来势很凶,已经在PC领域探索出了六大场景。感兴趣的可以查看《商用AI PC,开启新蓝海!》 手机SoC:高通、苹果、联发科。排在第5的高通和第14的联发科都是手机处理器提供商,排第13位的苹果设计并使用自己的SoC,例如A系列和M系列芯片,用于iPhone、iPad和Mac产品。不得不说,手机市场确实有点不温不火,手机的更新换代不够吸引人,手机处理器也没啥亮点,即使去年苹果发布了3nm的A17 pro芯片,但依然没有惊起很大浪花。十年手机辉煌,难掩汽车疯狂,这些手机处理器提供商逐渐将战火点燃到了汽车这个快速增长的市场当中。 虽然高通大部分的收入来自手机和物联网业务,但是高通获得大幅增长的是其汽车业务。2023年高通的汽车业务增长了25%。近年来,高通在汽车座舱和自动驾驶芯片领域快速切入,如今已是智能座舱芯片供应商的不二之选。截止到2023年底,已经有超过3.5亿辆汽车配备了Snapdragon数字底盘解决方案。联发科也在今年3月份发布了结合生成式AI的全新Dimensity Auto智能座舱SoC,可以预见,将与高通在汽车座舱芯片领域再次展开争斗。 存储芯片供应商:三星(第3)、SK海力士(第7)、Micron(第11)、kioxia(第23)、西数/SanDisk(第25)是存储芯片的老牌玩家。要说起这些存储厂商,作为最易受半导体周期波及的领域,每家都不好过,三星利润暴跌97%,SK创下史上最大亏损,美光和西数等的库存攀升,存储芯片几近跌入谷底。虽说如此,但整个2023年,SK海力士可谓是风光无限,由于在高带宽内存(HBM)领先于其他内存厂商,让它与英伟达的GPU在AI的浪潮中好不风光。 而进入到2024年,存储行情已经陡然好转。HBM依然成为市场抢夺的对象,总体产能供给远小于需求,SK海力士、三星和美光等厂商无不在摩拳擦掌。相信随着存储行情的好转,2024年半导体供应商的榜单可能又是一番新光景,存储厂商要扬眉吐气了。 电信和网络芯片:第6名的博通业务涉及太广泛了,包括有线和无线通信芯片、企业和数据中心网络解决方案、存储设备和系统软件,以及各种其他应用程序和服务。去年,博通也是AI热潮下的受益者,博通的网络芯片帮助传输人工智能计算所需的大量数据,并且都帮助客户设计定制人工智能芯片。2023年,由于超大规模企业对人工智能加速器和网络连接的投资推动,博通2023财年收入同比增长8%,创历史新高358亿美元。 博通不仅仅是一家芯片提供商,还是一个软件公司。最近它以610以美元收购了软件公司VMvare,引起了业界的关注,博通CEO表示,收购 VMware 具有变革意义,2024财年,博通预计年收入将达到500以美元,VMware将起到很大的贡献。其中,预计今年人工智能相关芯片的收入将达到100亿美元。博通首席执行官Hock Tan在财报会上表示,该公司2024年AI芯片收入中约 70 亿美元将来自帮助两家主要客户设计定制AI芯片。Tan 没有透露客户的名字,但分析师普遍认为他们是谷歌和META。 汽车芯片:英飞凌(第9)、ST(第10)、恩智浦(第15)、瑞萨(第18)、Microchip(第19)、安森美(第20)等是汽车芯片的重要供应商,涉及功率半导体IGBT/SiC/GaN、MCU、电源管理、传感器等等。就汽车这一细分市场而言,英飞凌是2023年汽车半导体供应商的No.1,这背后主要推动力是MCU产品的销售,该公司去年首次在MCU占据第一的位置。在整体的排名中,英飞凌从第14名跃升到第9名,ST从第13名前进到第10。 模拟芯片:TI(第12)、ADI(第16)是老牌的模拟芯片供应商,这些厂商所销售的芯片种类一般较为丰富,涉及功率半导体、信号处理、传感器和MCU等多个重要领域,且在不同的细分市场都有一定的竞争。 图像传感器:第17的索尼虽然以电子产品制造商更为人所知,但其也涉足半导体制造,尤其是CMOS图像传感器领域(CIS)。在CIS市场中,索尼大约占据以42%最高的市场份额,其次是三星,国内的豪威科技排在第三。AI浪潮也带来了CIS更新的需求,各种终端应用正在采用专门针对AI应用开发的镜头,预计预计将推动新一波用新镜头替换旧镜头的需求。为了抓住AI这一轮商机,索尼推出了配备人工智能算法的数字信号处理器(DSP),有望增强人体运动分析、图像处理增强或人体跟踪等应用。此外,台积电日本工厂的合资公司JASM,除台积电外,索尼为第一大股东,这为其后续的本地化生产做了很大的保障。 写在最后 虽然2023年众多半导体提供商渡过了一个难熬的下行周期,但是随着芯片在全球赖以生存的无数产品中发挥更大、更重要的作用,半导体市场的长期前景极为强劲。据美国半导体行业协会预测,今年全球芯片产业有望大幅反弹,销售额有望跃升至创纪录水平。SIA也表示,从各行各业对电子元件的需求增长势头来看,今年的销售额将增长13%,达到近6000亿美元。 在2024年全球半导体产业蓄势待发之际,中国半导体产业也将迎来新的发展机遇。未来,我们期待着看到更多中国企业的身影活跃在全球半导体前25名的榜单中,在世界舞台上展现中国芯的硬核实力。
刘强东的脚,穿不进雷军的鞋
京城有两位世界500强的老板,最近应该是踌躇满志。 一位是清河的雷军,自从小米SU7发布后,小米的泼天流量就没有断过。 小米汽车作为雷军最后一个创业项目,赌注和压力比任何时候都要大。但没想到一炮而红,叫好又叫座,雷军发微博的小手比任何时候都要颤抖,没有任何一个热点能悄无声息地走出小米科技园。小米汽车在营销上的成功,甚至是带动了汽车圈老板亲自下场直播做营销的热潮。 另一位是亦庄的刘强东。他不久前在京东采销的直播间两次现身,不过不是东哥的碳基肉体,而是硅基数字人。做过数字人分身的企业家并不在少数,但直播首秀就用数字人替代的企业家,在国内刘强东估计是第一个。 这是京东云的言犀数字人团队为其打造的数字人形象,但因为头发偏短,整体有点趴着头皮,再加上他的刘海那一小撮祖传白发,咋一看还以为梳了个中分头。 尽管如此,在直播首秀的光环加持下,刘强东的数字人直播依然在半个多小时收获了2000多万人次的关注,卖出了5000多万元的商品。不敢想象,要是东哥本人出镜,旁边再坐着老板娘章泽天,这个效果该有多么炸裂。 这两位公众认知度很高的商业大佬,如今都开始了新的征程和野心,而且分别选择了时下最热门的两个赛道——新能源汽车和直播电商。只不过,相比于雷军本人在网络上活跃,刘强东选择了一条更加保守的路。 01 雷军擅长营销几乎是所有人的共识。当然,他自己似乎有点不太情愿承认。 潘石屹曾评价雷军,从来没有见过一个企业家像雷军这么勤奋,跟别人吃饭的时候,都要拿着手机、插线板在推销,“我见了好几次,永远都在营销”。每次行业大会甚至全国两会,雷军不是在向商界大佬推介他的最新款手机,就是举着手机到处拍照,甚至在新闻联播的镜头里还有雷军举起小米手机拍照的画面。 连最近在卖迈巴赫的周鸿祎都对老乡雷军佩服得五体投地,小米汽车营销不是大师级,而是神一样的存在。而且传统车厂老板也别不服气,人家的互联网思维你学不来。 小米汽车发售之前,雷军搞了场技术发布会,在台上讲了两个多小时,科普了一堆汽车常识。汽车圈的人都觉得是小儿科,讲出来自己都觉得丢人,结果用户不懂这些,大家都很吃雷军这一套,还是他这种冲浪达人更懂用户。 到目前为止,雷军发了17000多条微博,不是在发微博,就是在准备发微博。能与之匹敌的只有当年的王兴。2021年之前的王兴在饭否上,十几年笔耕不辍,以日均3条的速度,更新了1.7万多条饭否动态。 但与王兴每天分享思考和见闻不同,雷军发声有几个特点,一是安全第一,所有内容基本都跟小米有关,不去碰任何社会或者时政话题,成了一个没有感情的营销机器。 二是平台通吃。哪里有米粉,哪里就有雷军。很多企业家要么担心出错,要么没时间,很少在社交网络上出现,开窍点的也就开个微博,像长城的魏建军,微博账号开通了13年,直到被雷军点醒之后才在2024年发了第一条微博。而雷军几乎横扫了所有主流的社交媒体,除了微博,小红书、抖音、B站都有雷军个人实名认证的账号,玩得那叫一个风生水起。 而最近刘强东在十几年前的一段视频也被翻了出来,以此作证了雷军与生俱来的营销能力。这段拍摄于2013年的视频,背景是雷军和刘强东同时参加了王利芬主创的《赢在中国-碧水蓝天间》商业真人秀节目,雷军是碧水队的队长,刘强东是蓝天队的队长。 根据节目规则,两人要带领团队帮果农卖滞销芒果。当时刘强东说了一句至今还被很多人翻出来奉为圭臬的话:“咱们这组不要跟雷军比营销。这块我们比不过他的。他把小米手机卖成这样,几百亿卖出去,那绝对不是一般的人。” 刘强东说这句话时,满脸堆着真诚,看得出来是发自内心地对雷军认可。 只是谁也没想到,十几年前说的一句话到现在还有巨大的杀伤力,成了当下车圈最真实的写照。车圈第一次体会到了来自雷军的闪电五连鞭的毒打。哪吒的CEO张勇更是被股东周鸿祎反复敲打,看着雷军和小米汽车这么成功,自己是看在眼里,急在心里。 自从雷军在车圈掀起了营销热潮之后,越来越多的车企老板开始向雷军同志学习,亲自上阵,出现在直播间。先是蔚来的李斌,李斌的特点是真诚,不管什么话题都能接,搞得黑粉都无地自容;然后是长城的魏建军和奇瑞的尹同跃,也开始亲自上阵,搞流量卖车,还被人调侃成六旬老汉再就业。 不过,雷军也起了个对用户友好而对媒体却不怎么友好的头。 以前,有事没事都要先去找媒体聊,媒体将这些信息梳理之后,再传达给读者。这是传统的传播路径和生存关系。现在变了,大佬们拿起手机就可以发微博,心情好还可以开个直播,用户能看到最真实的自己。 雷军说他的微博都是自己发的,每隔一小时发一条。他这么做的目的不是舍不得花钱雇人,而是要保持对用户的体感。只有亲自去互动和回复,才能找到在一线打仗的感觉。 他也不太需要媒体来包装对外了。媒体在其中扮演的角色越来越尴尬。这些年,雷军除了央视的一些访谈,基本很少再接受媒体的采访,有什么故事都留着自己讲。每天源源不断地对外生产与雷军和小米有关的一切内容,关键还没有中间商赚流量的差价。光是《小米SU7答网友问》就已经写到了第十九集,硬是把公关传播做成了大型电视连续剧。 02 刘强东和雷军其实有很多相似之处。他们都是草根逆袭的典范,都给母校捐过款,都塑造了回报桑梓的重情重义的人设,以及都懂得编程,都擅长营销,当然英语都主打一个真诚。 小米SU7成功发售之后,很多网友说雷军是爽文里的男主,白手起家成了亿万富豪,而屡次创业,又不断把自己和公司带到了绝大部分人难以企及的高度。甚至有人写了一篇网文——《重生之我是雷军》,将雷军的一些人生片段,加工演绎之后,亦真亦假地拼接到了一起,而且还煞有介事地分成了十个章节,比如第一集是《一不小心高考中了状元》,第十集是《北漂九年买了34.8万平方米》。 其实,要论爽文男主,刘强东更加典型。他的家庭更加贫寒,父母在运河以跑船为生,当年去北京上学都还是亲朋邻里凑了76个茶叶蛋和500块钱。最终一路从宿迁走到了北京,又从北京走到了纽约,成了数十万快递小哥心中的东哥和数以千计的家乡父老口中的大强子。 如果说2024年,雷军掌握了流量密码。那么在2018年之前,流量的钥匙挂在了刘强东的腰上。 当年的东哥爱说,也敢说,做的很多事都充满话题和争议,说的很多话都可以单独拎出来当新闻标题。 比如“保证京东快递员收入要比县长高”,“宿迁至今仍存在苏宁国美的线下店,是京东的耻辱”,“中国几千万穷人是富人耻辱!”,“高管24小时不回复邮件,立刻开除”……诸如此类,简单粗暴,直击灵魂。 相比于雷军的老好人形象,刘强东的形象一直更加饱满和野性。他喜欢参与社会话题,总是能站在劳苦大众的立场,这是他从小最熟悉的群体。从给老家老人发钱,到痛斥假疫苗,到担任河北一农村的名誉村长,诸如种种,赚足了眼球,立稳了人设。 东哥当年甚至还搞过网络寻祖,说自己祖籍湘潭,但不知道祖承哪脉。无数网友加入了帮刘强东寻祖的队伍,甚至还有人跑到当地派出所去查找。结果网友发现,刘强东居然是汉高祖刘邦的后裔,给他戴上了皇亲国戚的身份,连刘强东本人都大呼扯淡。 在京东快递小哥眼中,他是暖心的东哥,给几十万快递员缴纳社保,给他们提供条件很好的宿舍,早年每次都会抽出一天时间当快递员,骑上电瓶车去给用户送货。在来龙村的一千多位村民眼中,他是懂得感恩的大强子。在500万宿迁人民眼里,这是当地历史地位仅次于项羽的人物。 雷军虽然也很接地气,积极与网友互动,但他几乎不会对圈子之外的事情发表任何看法。如果你不是米粉,估计很难对他每天在微博发的东西提起兴趣。 所以,当时两人在网络上是完全不一样的热度。早在2016年的双十一,刘强东开过一场真人直播秀,他平时也没别的爱好,除了打惯蛋,就是做菜。打惯蛋不宜公开展示,所以现场做了两道菜,一道是“大盘鸡”,一道是“波士顿龙虾”。当天在京东直播频道的观看人数超过了500万人。 雷军也在同一年开始搞直播,通过“小米直播”展示他在济南参加的中国企业家俱乐部绿公司年会的情况,但当时只有8万多人观看,用雷军自己的话说“算一个小网红”。相比之下,刘强东的舆论热度远高于雷军,难怪年长五岁的雷军当年都是叫刘强东“东哥”。 不过,两人的关系倒是一直不错。小米上市,刘强东还发微博祝贺,毕竟当年雷军以7500万美元的价格把卓越网卖给了亚马逊,双方避免了成为同行里的冤家。而如今,小米是京东的供应链一环,京东给小米提供卖货平台,这样的合作,让雷军和刘强东能保持着比较友好的关系。 03 最近几年,东哥因为各种主客观因素,基本消失在了公众的视野里,偶尔几次“露面”也是只闻其声,不见其人。比如他在内部管理培训会上痛批部分高管,拿PPT忽悠老板。最近一次是春节前,刘强东给宿迁老家人民寄了羽绒服和年货,这是他保持了多年的习惯。 当然也有例外。这些年东哥本人露面过两次。一次是疫情期间,刘强东拍了一条短视频,从背景能看出这是在他家的客厅里,分享自己的新冠阳性经历,然后安抚员工不要着急,好好休息,保持心情愉悦。 还有一次是在2023年初,网上流传出一张在首都机场公务机楼拍摄的照片,刘强东刚从美国陪产回来。当时还有媒体起了个很有意思的标题,说是刘强东在美国陪夫人章泽天产子后,立马起身回国工作,不仅表现出在公司遭遇危机时力挽狂澜的一面,甚至还被解读出看好中国经济。 如今,刘强东用数字之身迈出了回归大众视野的一步,但他没有和雷军一样,肉身下场,而是用了数字分身,其背后大概有几点考量: 一是宣传了京东云的言犀数字人,告诉商家,数字人已经能做到如此逼真程度,你们不会带的货,数字人可以帮你带; 二是带动了京东采销的热度。京东采销是京东这一两年主推的直播方式,强调从供应端直连消费者。东哥在京东采销直播间出镜,也是想要把这条路跑通。 三是试探一下舆论对他出现在屏幕中的反应。作为曾经在社交媒体上拥有众多拥趸的企业家,曾遭遇舆论的风波,如果是刘强东真人出镜,场面很难把控。哪吒张勇前不久因为腰椎不好,在直播时翘着二郎腿,被不明就里的网友一顿输出,说雷总千亿身家的人,姿态都比你低。所以说,数字人是一个更加折中的方式。 不过,用数字人替代真人直播许多人总觉得差了点意思。尽管为了形象更逼真,京东言犀团队还给刘强东录制了一段30分钟的闲谈视频,通过提取声学特征,合成出人工语音,甚至数字人直播时还有搓手指的动作。 但数字人直播在大多数场景下的效果并不好,很多平台在判定数字人之后,会影响到直播的流量。而且,数字人再逼真,目前依然没有办法很好解决互动性问题,看久了就容易露出破绽,总给人一种莫名的距离感。 很多人都期待刘强东能真人上场直播,但短期看并不太现实。 先不说是否事务繁忙,刘强东有带头大哥的气质,不苟言笑,缺乏雷军的亲和力,也不擅长玩梗。关键是,每一次直播背后,都需要大量的时间去准备,雷军聊的都是围绕自己最熟悉的小米产品,而刘强东总不可能天天给你讲京东的八卦。 而且,小米、格力等厂商都是产品公司,京东是平台型企业,创始人花大量时间去下场卖货,并不能解决企业本身的困境。 当年刘强东说不要跟雷军比营销,其实后面他还说了一句话,“营销不是关键,打败他的核心不是靠营销,而是要有可持续性”。现在看来,数字人是一种既利用了自身IP,又更加可持续的手段。 04 雷军造车之所以这么卖命,是赌上了毕生的荣誉,只能成功,不许失败。但雷军造车的时局与当年做手机不可同日而语。他在2011年决定出来做智能手机时,还是业内第一个以互联网方法做手机的企业,比绝大部分厂商都更早入局,自己成为了风口上的猪,吃到了时代的红利。 小米造车却算不上一个非常好的时机,外界说的最多的就是入局晚了,蔚小理已经吭哧吭哧干了将近十年,该踩的坑都已经踩过一遍。 尽管雷军嘴上说着晚有晚的好处,能站在前人的肩膀上,但要说内心一点不慌肯定是假的。如果电动车真的就是四个轮子加一部智能手机,苹果也不至于研发十年最终还要选择放弃。 从这个背景来看,雷军背负着远超过往的压力和使命。目前看,开门第一仗,无疑是非常成功的。用雷军的话说,比预想的成功了三五倍。 对于当下的刘强东而言,同样面临着来自企业经营的压力。刘强东“隐身”的这几年,电商赛道发生了翻天覆地的变化。虽然苏宁被打趴下了,但拼多多起来了,抖音电商起来了。打来打去,发现对手越打越多,越来越狠。 在当下最热门的直播电商赛道,各家都培育了头部主播,淘宝有李佳琦和曾经的薇娅,抖音有罗永浩和董宇辉,各自都形成了很好的主播生态。京东的直播或者内容生态一直没有太大起色。 京东采销还要去蹭李佳琦、东方甄选的流量。一是去年双十一硬刚李佳琦,给自身带来了不小的关注度;二是董宇辉的小作文风波之后,一度传出京东要去挖角董宇辉,想要接住这泼天的富贵,不过没有下文,而京东直播一直处于不温不火,缺乏头部主播的尴尬境地。 但折腾来折腾去,发现京东直播最大的IP不在别处,就在亦庄京东大厦A座楼顶的办公室里坐着。 不久前,阿芙精油的雕爷写了篇情绪饱满的推文,呼吁马云的当务之急是回到一线。尽管雕爷很多批评淘天的东西和数据经不起推敲,而且有夹带私货的嫌疑,但最后一句话说得很对:创始人永远是少年。 创始人是一家企业最宝贵的财富,阿里是如此,京东也是如此。 《英雄本色》里周润发饰演的小马哥说了一段经典的台词:我等了三年,就是在等一个机会,我要争一口气,不是想证明我了不起,只是要告诉人家我失去的东西,我一定要拿回来。 京东和阿里失去的电商份额,未必就一定能通过创始人冲到一线拿回来,但创始人下场是最大的胜算。 小米汽车其实也是如此,把雷军换成其他人,都不可能有这般能量和关注。雷军这么一位一生要强的男人,过去总觉得成绩不如BATH,但现在已经看到了通过汽车来比肩甚至超越前者的可能。 而刘强东的复出,传递的是京东平台的价值观和下一步战略。或许靠刘强东一己之力去直播卖货,并不是当下京东营收最紧要的诉求,但刘强东重新出现在公众视野里,创始人亲自下场的姿态,比卖出几千万的货更有意义。
用百度文库AI,我也能轻松创建漫画、画本?
作为一种受众广泛的艺术形式,漫画的影响力应该不需要我多说什么。 强烈的视觉化和叙事性,让漫画成为无数年轻读者的阅读启蒙,也让无数二十一世纪青年拥有了自己的「漫画梦」。可是要制作出一份能拿得出手的漫画谈何容易,先不论作画水平能不能拿出手,单纯是前期查找资料、理顺素材、编写剧本、制作分镜就足以难倒一大片人。 咋说呢,现在各大厂商都在说AI解放想象力,AI打破创作门槛啥的,但一直好像就没有哪款AI应用,能替这些大孩子们把这个「漫画梦」给圆上的? 好消息是,现在还真的有这么个产品挺身而出了。 4月16日上午9:00,以“创造未来”为主题的2024百度Create AI开发者大会在深圳国际会展中心(宝安)开幕。在大会上,百度创始人、董事长兼首席执行官李彦宏提及,百度在跨模态方面,有着多年技术积累。从去年开始,我们用AI重构了百度文库,使它成为用户“内容生产的起点”。如今,百度文库新推出的“智能漫画”和“智能画本”功能,把场景延伸到了更加有趣的跨模态创作领域。 (图源:百度) 在演示中,用百度文库AI创作漫画、画本,就如同说话一样简单,你的「漫画梦」和「画本梦」,或许从来没有这么近过。 智能漫画, 让不会画画的人也能实现漫画梦 生成漫画需要先有剧本,如果我们以近期因电影而广为人知的典故「周处除三害」为剧本引子,百度文库会给出一份什么漫画作品呢? 在百度文库文档助手对话框里输入「周处除三害」的主题后,文库迅速给出了周处除三害这个典故的由来,在不同出处内的细节表述差异,以及经过文库节选后的原文内容。 (图源:百度) 接下来,点击“根据文档生成漫画”,就可以让百度文库根据方才给出的内容生成一份详尽的漫画分镜稿,然后只要选择你喜欢的美术风格,并确定漫画里面的人物形象,便可以把剩下的工作交给百度文库。 (图源:百度) 从生成的漫画来看,不仅内容结构完善,而且每名角色的样貌也保持了不错的一致性,甚至连多名角色出镜的画面也保持得很好,要知道AI绘画向来就很难保证生成角色的稳定性和同一场景下多名角色出现的图像,百度文库的表现在目前市面上的同类应用中是极为罕见的。 (图源:百度) 漫画生成后,用户还能继续修改分镜描述、替换对话框、添加效果线和装饰边框,可以说功能非常详尽了,创作者只要把一些具体内容稍微润色一下,投稿漫画平台、成就一份新的副业不是没有可能。 在实际使用中,我们也完全不必拘泥于这种场景。比如说你有自己写的小说,想要将其漫画化,将小说文档上传到文库就可以了,让自己的漫画梦想一步步变成现实。 (图源:百度) 又或者说,你有自己特别喜欢的游戏、小说或电视剧作品,希望能够基于这类作品的世界观,为里面的角色制作二创漫画、同人作品,但又苦于自己没有作画的能力?那你只需要为百度文库提供一个主题,最多再完善一下你喜欢的角色资料,然后就可以实现「自产自销」了。 换言之,你只需要释放你自己的想象力,剩下的工作交给百度文库就好。 智能画本, 人人都能制作画本? 如果你觉得AI生成漫画还是相对复杂一点,百度文库App端也同时公布了“智能画本”功能,可以轻松生成画本。 作为培养孩子提高阅读兴趣的好帮手,画本以其简单易懂的情节、幽默风趣的画面而著称,相较于晦涩的文本更容易满足孩子们强烈的好奇心,也有助于孩子学习良好的生活习惯,对孩子进行潜移默化的影响。 要用百度文库生成属于自己的AI画本,只需短短三个步骤,让画本制作像说话一样简单。 首先,找准你希望让孩子获得的知识点,例如寓教于乐的动物小故事、生动的百科常识,或者是通过童话故事传递美好品格教育的养成。 (图源:百度) 可以看到,在仅仅几分钟的时间内,百度文库就根据画本主题生成了一份包含主角、故事起因、经过、结果和重点教育的生活常识部分在内的完整全面的画本大纲。 (图源:百度) 接下来,我们可以通过编辑功能对内容大纲进行微调,然后选择自己喜欢的画风进行画本生成,百度文库移动端为这项功能提供了卡通风、水彩风、填色风在内的多种常见画本风格,我们这里特地选择了百度文库特有的水彩风来进行生成。 (图源:百度) 最终,百度文库不仅生成了一份内容详实、色彩丰富的画本,还为其配上了情感充沛、抑扬顿挫的文本旁白。在用户完全没有制作经验的情况下,百度文库通过简简单单的一句画本主题便产出了如此完整的作品,效率之高让人瞠目结舌。 (图源:百度) 当然,智能画本并不是仅限于家长使用的功能。 只要有时间和兴趣,家长完全可以和孩子们一起完成AI画本的制作,让孩子参与到故事情节的编排和人物形象的塑造,甚至可以将孩子的真实故事融入画本中,让画本的每一章内容都充满了孩子的奇思妙想和童趣,也让孩子更有兴趣地接受大道理。 和孩子一起制作AI画本,不仅可以实现寓教于乐的目的,更是可以和自家孩子一起度过一段非常特别的亲子时光,这种温馨的日常,便是传统的画本所无法实现的效果。 除了亲子互动,智能画本还可以应用于更多场景:人人都能用智能画本记录生活中的趣事和灵感;学生们在做课堂演示时有了更丰富的展示形式;自媒体博主做视频时有了新的生产工具;即便是艺术领域的专业工作者,也能从智能画本功能中受益,实现更加高效的创作。 一如前文所言,AI重构后的百度文库,正在成为用户“内容生产的起点”,并且不断打破边界阈值,大大降低以往制作画本时存在的“专业”、“经验”门槛,让每个人都可以轻松的制作AI画本视频。可以说,借力AI,让更多想象力得以释放。 你的想象力,将变得更有价值 在我看来,百度文库能力的「持续增加」,其实和团队背后对于大模型接入和落地应用的思考息息相关。 作为第一批接入文心一言大模型的产品之一,百度文库团队精准洞悉了大模型在内容获取和内容生成方面的巨大潜力。 (图源:百度) 在过往的用户调研中,文库团队发现,用户的真正痛点是获取内容、创造内容到分享内容之间存在的割裂感。你可能会在百度文库上面搜集资料,要在Word文档里创作内容,通过PS自己创作插图,或是在无版权图库里搜寻插图,最后还要到专业软件上对文档进行美化,操作一环套一环,对用户而言多少有点苦不堪言。 而这个问题,在早期的AI漫画上同样存在着。为了制作一本AI漫画,你需要在大语言模型上完成剧本撰写,然后再利用大语言模型进行分镜的创建,基于分镜在AI绘画应用中逐张地生成单张分镜稿,自己在PS中整合分镜稿和对话框,这样才能制作出一部AI漫画作品。 这些问题导致AI漫画的生成难度远超常规AI绘画,即便是国外,该领域也尚未产生成熟的方案。 (图源:百度) 正因如此,百度文库团队才将文库的定位升级为一站式AI内容创作平台。 依靠自身在AI技术上的长期积累,从AI生成文档,到AI生成思维导图、PPT、研究报告,再到如今AI生成画本和漫画,百度文库团队始终致力于帮助用户解决全流程痛点,用户可以在网页端输入文字进行操作,也可以在APP端「动动嘴」发送一条语音指令,就能在短时间内快速生成自己想要的内容,把中间的繁文缛节全部删掉。 当然,和以往的生成功能相比较,智能漫画和智能画本功能可能是百度文库目前实现的最复杂的功能。它不仅仰赖于文库背后大模型的上下文理解能力,以此实现语义精准匹配,还仰赖于百度长期以来对多模态能力的研究,自动生成语义匹配的图像,并保持了画面的高素质和角色的一致性,放在整个行业里也是领先的创举。 正如AI绘画诞生时的情况,可以预见AI漫画的出现也会引发一定的争议,但是在我看来,AI只是更高效的工具,人类的知识和创意才是最重要的。 如今百度文库能有效助力传统的漫画流程,包含剧本创作、角色选择、分镜生成、编辑修改等步骤,将AI技术融入内容创作,降低漫画创意表现门槛。不难看出,这项AI应用的目标群体便是那些不具备绘画技能,但想要将故事变为漫画的创作者。对用户来说,这将意味着生产力的进一步被释放。 李彦宏在发布文心一言时曾说过,AI的终极理想是为人类带来更多自由和可能。从现在百度文库的表现来看,他们已经成为“学习办公的神器、家庭教育的利器、兼职赚钱的暗器”,确实在一步一步扎实地朝着这个方向前进着。 问题是,你曾有过一个属于自己的漫画梦/画本梦吗? 目前百度文库已经开放这两项AI能力的公测预约,感兴趣的可以通过下方通道进行公测报名。解锁您内心的漫画家,释放创造力,创作属于自己的漫画作品,百度文库AI让艺术不再成为障碍,讲故事变得轻而易举。
Llama 3超大杯有何惊喜?Meta会一直开源吗?当初为何笃信元宇宙?扎克伯格新访谈回应一切
近日,Meta 突然官宣了 Llama 3,把开源模型的实力又往上提了一截。 Llama 3 总共有三个版本 ——8B、70B 和 405B。其中,8B 和 70B 版本已经开源,405B 版本仍在训练中。 根据现有的评测数据,405B 版本的性能已经逼近 GPT-4。这可能促使 OpenAI 尽早发布下一代模型,从而保持其最强 AI 模型的地位。 那么,这个还没有亮相的 Llama 3 405B 大模型将带来哪些惊喜?Meta 会继续坚持开源吗?Llama 4 以及之后的模型会往哪些方向迭代? 之前 Meta 对元宇宙的笃信是出于哪些动力?在最近的一次访谈中,Meta CEO 扎克伯格回应了这些问题。 附上视频地址:https://www.youtube.com/watch?v=bc6uFV9CJGg&t=17s 他提到,Llama 3 405B 将是一个密集模型,预计年末发布。此外,他们还计划到年底拥有约 35 万块 GPU,目前已经建立了由 22000 块 GPU 和 24000 块 GPU 构建起来的两个单独集群。 在谈到开源问题时,他类比说,在现有的应用生态系统中,苹果和 Google 等「守门人」对开发者能够构建的应用类型拥有很大的控制权,他不想让 AI 世界也变成这个样子,因此他对开源持积极态度。他表达了对于一个开放的 AI 生态系统的愿景,在这个系统中,开发者不会被少数控制着闭源模型的大公司所限制。 以下是机器之心整理的访谈内容,部分内容存在删减。 Llama-3 超大杯什么时候发布? Dwarkesh Patel:我们来谈谈刚发布的 Llama-3 和 Meta AI 吧。 Mark Zuckerberg:我想大多数人最关心的还是 Meta AI 的新模型,即 Llama 模型的升级版本:Llama-3。我们既会向开发社区开源,也会让其成为 Meta AI 的助力。Meta AI 值得关注的点有很多,但我认为最重要的是它是目前人们可以使用的最智能且可自由使用的 AI。我们将把 Google 和 Bing 整合起来用以获取实时知识。 Meta AI 将会整合进我们的许多应用,包括 Facebook 和 Messenger—— 你可以在它们的搜索框中任意提问。我们在其中加入了很多创意功能,比如动画化功能可以将任意图片变成动画。 比较震撼眼球的一项更新是它现在能以非常快的速度生成高质量图像,而且它能随着用户输入而实时更新生成结果。 我们未来几周或几个月会在一些国家发布这些应用,但还不会全面铺开。我认为这会是一个非常重要的事件,是 Meta AI 向前迈出的一大步。 深入到 Meta AI 内部,在技术方面最吸引眼球的当然是 Llama-3。我们训练了三个版本:8B 和 70B 参数的模型,还有一个 405B 参数的密集模型(还在训练之中)。8B 和 70B 模型的表现非常激动人心,它们都是同等规模模型的领军者。 我们还有后续发布的路线图,包括多模态、更强大的多语言支持、更大的上下文窗口。我们希望能在今年年末的某个时候发布 405B 版本。在目前的训练阶段,它的 MMLU 得分已经达到了 85 左右。我们预计完成训练后它能在许多基准上领先。刚刚发布的 70B 模型也很出色,MMLU 为 82,数学和推理能力的得分都领先。 Dwarkesh Patel:着实不凡。 Mark Zuckerberg:8B 版本基本上与我们之前发布的 Llama-2 的最大版本一样强大,也就是说 Llama-3 的最小版本足以比肩 Llama-2 的最大版本。 买那么多 GPU 是未卜先知? Dwarkesh Patel:在深入这些模型之前,我想聊聊过去。大概 2022 年时,你们开始购进 H100。那时候你们的股价不振,人们都很疑惑为什么要这样花钱。人们并不看好元宇宙。那时候你怎么知道要去买 H100 呢? Mark Zuckerberg:那是因为我们当时正在研究 Reels(一款短视频应用,Tiktok 竞品)。我们总是希望有足够的能力去构建尚不存在的东西。我们当时在研究 Reels,我们需要更多 GPU 去训练模型。 加上我们当时希望在基础设施方面尽快追赶上 TikTok。我们当时想:「唉,我们必须确保我们再也不这样落后了。那就订购足够训练 Reels 的 GPU 并且再加一倍吧。」 Dwarkesh Patel:当时你知道这会用于训练 AI 吗? Mark Zuckerberg:我们当时知道这会与训练大型模型有关。当时我觉得这可能与内容有关 —— 那时候我非常急切地想要为 Reels 和其它内容开发出推荐算法。现在这成为了 Instagram 和 Facebook 的一大卖点:向人们展示他们可能感兴趣的内容,即便他们没有关注。 事后来看,这是一个非常明智的决定。这都是后见之明 ——「哦,我当时多么领先。」事实上,我们当时做的大多数决定最后都有不错的结果,原因不过是我们之前搞砸过,不想再犯同样的错了。 何时决定 All in AGI? Dwarkesh Patel:Facebook AI 研究院已经成立了很长时间了。现在它似乎已经变成了你们公司的核心。你们是从什么时候开始考虑将造就 AGI 作为自己的使命和关键优先事项? Mark Zuckerberg:确实挺久了。FAIR 成立于大概十年之前。我们的想法是,在创造通用智能的道路上,我们会得到很多能改善方方面面的不同创新。因此我们并不是将其看作一个产品,它更像是一个研究团队。过去十年来,它创造了很多提升我们所有产品的东西。它也推动了 AI 领域的发展。 过去几年随着 ChatGPT 和扩散模型的出现,这一领域发生了重大转变,出现了很多会改变人们与应用的交互方式的东西。那时候我们成立了另一个团队:Gen AI 团队。其目标是将这些创新引入我们的产品并且构建支持所有这些不同产品的先进基础模型。 一开始我们想做的东西都与社交有关,比如帮助人们与创作者沟通、帮助人们与企业互动、帮助企业销售产品或提供客户服务。还有一些基础的助理功能,可以用于我们的应用以及智能眼镜和 VR 设备。 所以一开始的时候,我们并不完全清楚我们需要完整的 AGI 来支持所有这些用例。但经过多年的研究和实践之后,这方面变得清晰起来。举个例子,在我们开发 Llama-2 时,我们并没有将编程看作一个优先事项,因为人们并不会用 WhatsApp 向 Meta AI 提很多编程问题。 Dwarkesh Patel:现在他们会问这些了吗? Mark Zuckerberg:我不知道。我不确定人们是否会使用 WhatsApp 或 Facebook 或 Instagram 作为 UI 来问与编程有关的问题,也许他们会使用我们刚上线的网站 meta.ai。但过去 18 个月的发展已经表明,编程对很多领域都很重要,而不仅仅是编程领域。 即便人们问的问题与编程无关,但训练模型学习编程依然有用 —— 这能帮助模型给出更严谨的回答,让模型可以在不同类型的领域执行推理。Llama-3 就是这样,编程能力是我们关注的一大重点,因为这能帮助模型的能力获得全面的提升。 另一个重点是推理。用户在与商家或企业等沟通时,不是一问一答就完成了,而是往往涉及到多步互动。很多时候客户只知道自己的需求,并不知道自己想要什么产品或服务。这时候光回答字面上的问题是不够的,还需要推理。 Llama-3 能取代程序员吗? Dwarkesh Patel:所以 Llama-3 能解决所有这些用例吗?你认为这个版本足以替代程序员吗? Mark Zuckerberg:我只是觉得这些能力都会随时间而进步。 Dwarkesh Patel:但最终能解决,比如 Llama-10? Mark Zuckerberg:我认为这个问题不简单。我不确定这些模型是会替代人们更多,还是帮助人们更多。 Dwarkesh Patel:Llama-10 诞生后,程序员的生产力能提升 10 倍吗? Mark Zuckerberg:我希望会更多。我相信人们的智能并不存在一个单一阈值,因为人们有不同的技能。我认为未来某个时候,AI 将在大多数事情上超过人类。但我认为这个过程是渐进式的,而且我认为 AGI 并不是一个单一存在,而实际上是不同功能的集合。 目前我们关注的一大关键功能是多模态,起先是照片、图像和文本,最后到视频。而且我们还很关注元宇宙,因此 3D 模态也很重要。另一个我非常关注的模态是情绪理解(emotional understanding)—— 我还没看到业界有很多人关注这方面。 人脑中有很大部分是专门用于理解别人的表情和情绪。我认为这是一个单独完整的模态。你也许会说这就是视频或图像,但很显然这是非常特别的视频或图像。 因此,模型不只是需要具备理解和记忆的能力,还有很多其它不同能力需要掌握。我认为未来我们解决复杂问题时并不会再以查询窗口为中心,通过输入上下文来处理。人们会有更加个人化的记忆数据和不同的定制化模型。 它们会有各自不同的能力,规模也有大有小。大小模型我们都很关注。Meta AI 这样的模型运行在大型服务器上,但我们也希望会有能运行在智能眼镜等小型设备上的模型。因此我们也需要非常高效的模型。 大模型将催生哪些产业级用例? Dwarkesh Patel:你认为模型推理有什么百亿美元级乃至千亿美元级的市场?它有什么产业级的用例?模拟或者元宇宙? Mark Zuckerberg:我们猜想这将能改变所有产品。我认为将会出现一种 Meta AI 通用助理产品。这种产品不再是只会问答的聊天机器人,而是可以完成更复杂任务的系统性模型。这就需要大量的推理和计算。 另一个重要方向是与其它智能体或人类交互,包括企业业务和创意工作。我的想法是,未来并不只有单一 AI。每家企业都会想要一个代表其利益的 AI。 创意工作也是一个重点。我们平台有大约 2 亿位创作者。他们与各自的社区互动时通常都有模式可循,但他们每天的时间有限。 如果我们能创造出可让创作者拥有的 AI,让他们以自己的方式去训练它与自己的社区交互,那必然会是一个非常棒的应用场景。这样的 AI 会赢得大量的互动参与。 这还只是消费者用例,我和妻子的基金会 Chan Zuckerberg Initiative 在科学方面做了很多工作,其中也包括很多与 AI 相关的工作,这些将能推动科学和医疗等领域的发展。我相信这些最终将能影响产品和经济的每个方面。 Llama-3 将带来哪些改进? Dwarkesh Patel:你提到模型的进步是渐进式的,这是指模型变得更大吗?还是说使用更好的数据训练同样大小的模型让其变得更强大? Mark Zuckerberg:我认为我们不知道这个问题的答案。我想一种发展模式是基于 Llama 这样的模型开发其它应用,也就是针对用例进行微调,比如让 Meta AI 可以使用 Google 或 Bing 等工具来获取实时知识。 基础 Llama 模型并不具备这种能力。Llama-2 具备一些,但这是人工设计开发的。Llama-3 开始具备一些类似智能体的能力。对于 Llama-4,我们的部分目标是让模型本身具备更多能力。 每一次进步都会出现新的可能性,解锁出新的用例。 Dwarkesh Patel:你说「让模型本身具备更多能力」,你是指在你希望模型完成的事情上训练模型吗? Mark Zuckerberg:Llama-2 只能使用非常特定的工具,而 Llama-3 能使用好得多的工具。我们无需人工编程就能让其使用 Google 执行搜索。它本身就能做到。类似的功能还有编程和运行代码等。 模型既然能具备这样的能力,我们就能借此一窥未来。我们不必等到开发 Llama-4 时才去构建这些能力,我们现在就能探究它们。我们可以人工编写一些让产品更好用的工具,用以临时过渡。这有助于展现下一版本模型的开发方向。 Dwarkesh Patel:开源社区对 Llama-3 的微调,你最感兴趣的是什么?也许不是对你最有用的那个。 Mark Zuckerberg:我认为有价值的事情,我们可能都会着手构建。我认为你会得到精简版本、更小的版本。我认为 8B 参数对于很多用例来说还不够小。随着时间的推移,我很想得到一个 1-2B 参数的模型,甚至是一个 500M 参数的模型,然后看看你能做些什么。 如果使用 8B 参数,我们几乎能与最大的 Llama-2 模型媲美,那么使用 10 亿个参数,你应该能够做一些有趣且更快的事情。我们也在考虑优化模型,但现在 GPU 已经被用来训练 405B 模型了。 LLama-3 70B 模型还有待发掘的潜力 Dwarkesh Patel:关于 GPU,我记得你说到年底会有 35 万块。 Mark Zuckerberg:我们建造了两个集群, 每个集群大约有 22,000 或 24,000 个 GPU。由于我们服务的社区规模之大,我们所需的推理计算量与训练计算量的比例可能比其他公司高得多。 Dwarkesh Patel:在你们之前分享给我的材料中,我注意到你们用更多的数据来训练,你能具体谈一下吗? Mark Zuckerberg:关于 70B 模型,我们发现了一件有趣的事情,我们训练 token 达到 15 万亿,但在训练的最后阶段模型仍然在学习。假如我们给它更多的 token,模型可能会变得更好。 但是经营一家公司,你需要有所取舍,我问自己是否想要调用 GPU 来进一步训练 70B 模型?还是准备测试 Llama-4 的一些前期假设?我们需要做出决定,我认为 70B 版本的模型已经取得了不错的平衡。 未来会有其他版本,例如 70B 多模态版本,会在未来推出。但最令人着迷的是,目前这些架构可以容纳如此多的数据。 Dwarkesh Patel:这真的很有趣。这对未来的模型意味着什么?你提到 Llama-3 的 8B 比 Llama-2 的 70B 更好。 Mark Zuckerberg:不,不,它几乎一样好。我不想过分夸大。它的数量级差不多。 除了能源瓶颈,还有架构瓶颈 Dwarkesh Patel:这是否意味着 Llama-4 70B 会和 Llama-3 405B 一样好?未来会是什么样子? Mark Zuckerberg:这确实是一个很好的问题,我想没人会给出答案。世界上最棘手的事情之一就是指数曲线还能持续多久?我认为我们很可能会继续下去。我认为投资 100 亿美元,甚至 1000 亿美元来建设基础设施是值得的,这样的话,你将会得到一些真正令人惊奇的东西,从而创造出令人惊奇的产品。 一般来说,从历史来看,当你遇到瓶颈时会耗费大量的时间解决。但是现在,也许这些瓶颈很快就会被克服。 Dwarkesh Patel:如果没有这些瓶颈,世界会是什么样子?假设进展以这种速度继续下去。 Mark Zuckerberg:无论如何,都会遇到不同的瓶颈。在过去几年中,我认为 GPU 的生产是一个问题。即使有钱支付 GPU 的公司也不一定能够获得他们想要的数量,因为存在供应限制。现在我觉得这种情况正在减少。因此,你会看到很多公司现在考虑投资大量资金来构建这些设施。 我认为这种情况会持续一段时间。还有一个资本问题,在什么时候,投入更多的资本就不再具有性价比了。实际上我认为在我们达到这个点之前,你会遇到能源的限制。 据我所知,还没有人建立过一千兆瓦的单一训练集群。此外,获取能源许可会受到政府的严格监管。显然,如果你是在创办一家小公司,也许你会感觉到这种监管较少。我们与不同的政府和监管机构打交道,我们有很多规则需要遵循,以此确保我们在全球做好工作。但我认为能源无疑是一个巨大的限制。 Dwarkesh Patel:有没有什么东西,也许是人工智能相关的项目,也许不是,即使是像 Meta 这样的公司也没有资源?如果完成这项任务是研发预算或资本支出预算的 10 倍,你还会实施吗? Mark Zuckerberg:我认为能源问题是其中之一,如果我们有足够的能源,我们可能会建立比现在更大的集群。 Dwarkesh Patel:这基本上是资金瓶颈的极限?如果你有 1 万亿美元…… Mark Zuckerberg:我认为现在是时候考虑这个问题了。这取决于指数曲线会走多远。目前,许多数据中心的规模大约是 50 兆瓦或 100 兆瓦,大型数据中心可能达到 150 兆瓦。如果把一个整个数据中心都用来进行训练,并建立最大的集群,我认为很多公司正在这样做。 但是当你开始建造像 300 兆瓦、500 兆瓦或 1 吉瓦这样规模的数据中心时,还没有人建造过 1 吉瓦的数据中心。我认为这迟早会发生,但不会在明年。有些事情需要花费数年时间才能建成。换个角度来看,我认为 1 吉瓦的规模相当于一个核电厂的能源供应仅用于训练模型。 Dwarkesh Patel:亚马逊有没有做过这个?他们有一个 950 兆瓦的…… Mark Zuckerberg:我不太确定他们做了什么。你得问他们。 Dwarkesh Patel:但是这种规模的数据中心不一定要建在同一个地方,对吧?如果分布式训练有效,也可以分布式进行。 Mark Zuckerberg:嗯,我觉得这是一个很大的问题,数据中心将如何运作。 Dwarkesh Patel:Llama-3,甚至可能是 Llama-4 之后的版本,能否遇到这种情况,也就是说,你发布了这个模型,如果有人有大量计算资源,他们就可以在你发布的模型的基础上,让这些模型变得更加智能。 Mark Zuckerberg:我认为这种可能性是存在的,但我也认为模型架构存在根本性的限制。用 Llama-3 架构训练的 70B 模型可以变得更好,它可以持续改进。正如我之前说的,如果我们继续给它提供更多的数据,或者再次通过 token 进行优化,它会变得更好,世界各地的许多不同公司基本上都采用了 Llama-2 70B 模型架构,然后构建了一个新模型。 但仍然存在这样一个情况,当你对像 Llama-3 70B 或 Llama-3 405B 这样的模型进行改进时,人们在此基础上可以构建的东西不能无限地进步。在达到下一个重要进展之前,可能只能在现有的基础上进行优化和改进。 AI 是有史以来最重要的技术吗? Dwarkesh Patel:未来几十年人工智能会发生什么?它是否会让你感觉像是另一种技术,如虚拟宇宙或社交技术,或者是人类历史进程中根本不同的事物? Mark Zuckerberg:我认为将人工智能形容为非常基础性的技术是非常合适的。它更像计算机的发明,将催生全新的应用。但我认为这是一个低层次的创新,我的感觉是,这更像是人们从没有计算机到拥有计算机的过程。 然而,我们很难预测 AI 如何发展。从宇宙尺度来讲,AI 变革会很快发生,需要几十年的时间。有些人会很担心 AI 真的会在一夜之间从有点聪明变成极其聪明,但我认为所有这些物理限制使得这种情况不太可能发生。不过我们必须承认,AI 确实会改变我们的工作方式,让人们做他们更想做的事情。 Dwarkesh Patel:也许不是一夜之间,但你认为在宇宙尺度上我们可以用这种方式来思考这些里程碑吗:人类进化了,然后人工智能出现了,然后他们进入了银河系,按照这个推理,这个过程也许需要几十年,也许需要一个世纪,AI 会是历史发展的重要一环吗?我指的是比如计算机甚至火在人类发展史上至关重要,但人工智能可以和这些发明相提并论吗? Mark Zuckerberg:我认为这很难回答。人类历史上,人类的某些方面确实是独一无二的,然后认识到事实并非如此,但人类实际上仍然非常特殊。我们认为地球是宇宙的中心,但事实并非如此,但人类仍然非常伟大和独特,对吧? 我认为人们往往存在的另一个偏见是认为智能在某种程度上与生活有着根本的联系,但并非如此。我们还没有对意识或生命有清晰的定义来全面理解这个问题。很多科幻小说都是关于创造智能的,这些智能体开始承担所有这些类人行为和类似的事情。 但目前的趋势似乎正朝着一个方向发展,即智能可以与意识、能动性和类似的东西完全分开,这使得它成为一个超级有价值的工具。 虽然很难准确预测技术的发展方向,但开发者并不应该对开发计划或未来做出过于教条的承诺。在我们发布新版本时,都需要对模型进行重新评估。我们虽然倾向于支持开源,但并不一定会开源所有内容。 开源有利于社区和自身,因为大家可以从创新中受益。然而,如果技术的性质发生质变,演变为不负责任的行为,那我们可能会考虑不开源。整体来说,技术发展充满不确定性。 开源 vs. 闭源,哪个更危险? Dwarkesh Patel:未来你们在训练 Llama-5 或 Llama-4 时,有没有可能出现质变情况?如果出现了,你们要不要把它开源? Mark Zuckerberg:回答这个问题有点困难,因为任何产品都可能出现负面行为,只要加以缓解就可以了。我们也在为减少模型负面影响而努力,此前也在 Llama-2 上花费了大量时间确保它不会帮助人们实施暴力等不良行为。 但这并不意味着它已经成为智能主体,这只是意味着它拥有大量有关世界的知识,可以回答我们认为不应该回答的一系列问题。因此,我认为问题在于如何识别并缓解其潜在不良行为,而非行为本身。 我认为事物的好坏有很多方面,很难事先详尽列举出来。看看我们在社交媒体上所面对的问题,目前我们已经总结出了 18 或 19 种人类有害行为,然后构建了 AI 系统来识别这些行为,并尽可能确保在我们的网络上不会发生这些情况。随着时间的推移,我认为我们会更加细化问题分类。 Dwarkesh Patel:我认为广泛部署 AI 系统是非常重要的。如果将来 AI 系统没有被广泛部署,导致人们无法访问,我会感到失望。与此同时,我想更好地理解如何减轻模型潜在问题。 Mark Zuckerberg:这是一个复杂的问题。我认为大部分人会使用现成的模型,因而不会出现不良行为,而怀有恶意行为的人则会试图利用模型不良行为。所以这是个值得深思的问题。 另一方面,从哲学上讲,我支持开源的一个原因是,我认为未来 AI 的过度集中化会像它被不恰当的广泛应用一样危险。一个机构拥有比其他所有机构更强大的 AI 也可能是非常糟糕的。就像我们看到的,不同事物中都存在着安全漏洞。 我们是如何处理这个问题的呢?其中一个重要部分是开源软件,软件的升级迭代不再局限于一家公司,而且可以广泛部署到许多不同的系统中,无论是银行还是医院。随着软件变得更加完善,全世界范围的开源软件会按照新的基准得到升级。 随着时间的推移,在被人工智能广泛部署的世界,会逐渐变得更加坚固,所有不同系统都将在某种程度上得到控制。对我来说,这比 AI 更集中化更安全。然而,最让我担心的是,一个不可信赖的主体拥有超级强大的人工智能系统,这可能是一个更大的风险。 Dwarkesh Patel:是否会出现这种情况,当你正在训练 Llama-4 时,它可能出于一些原因对你撒谎了,因为它认为你没有注意到这个问题,之后你才后知后觉道发生了什么?尽管这种情况在 Llama-4 这种级别的系统中不太可能发生,但你有没有想过,假如这种欺骗行为正在以成千上万的副本在不安全的传播。 Mark Zuckerberg:现在,我们已经观察到许多幻觉现象,人们如何区分幻觉和欺骗会是一件有趣的事情。谈到欺骗,我最担心的形式是人们利用它来生成错误信息,然后通过网络或其他人传播该信息。我们打击此类有害内容的方法是构建比对手系统更智能的人工智能系统。 如果你仔细观察人们通过社交网络造成伤害的类型,就会发现有些伤害并非具有对抗性的。举例来说,仇恨言论没有超级对抗性,因为人们并没有因为网络言论而变得更加种族歧视。 我认为在这些问题上,人工智能通常比人类更成熟。其实我们双方都有问题,人会做坏事,无论他们是试图煽动暴力还是其他什么。但 AI 也会出现很多误报情况,比如审查了不该审查的东西,这会让很多人感到恼火,这是可以理解的。所以我认为随着时间的推移,人工智能在这方面会变得越来越准确,情况将会得到改善。 未来,无论是 Llama-4 还是 Llama-6,我们都需要认真观察模型行为,是每一个人都参与进来。我们开源的原因之一是有很多其他人也在研究这个领域。因此,我们想要看看其他人观察到了什么,我们自己观察到了什么,我们能够减轻什么,然后我们会评估是否可以将其开源。 在可预见的将来,我对此持乐观态度。但在短期内,我不想忽视我们今天正在努力解决的实际问题。即使它们不是生存性的问题,却是我们必须花费时间解决的大部分问题。 Dwarkesh Patel:关于合成数据,我发现一个非常有意思的事情。目前的模型使用合成数据可能会出现渐近情况,因为重复使用合成数据会达到一个极限。但是,如果模型变得更智能,并且使用了你们在论文或即将发布的博客文章中提到的技术,即能够找到最正确答案的思维链条。 为什么你认为这不会导致一个循环,模型变得更聪明,产生更好的输出。当然,这不会是一夜之间的事,但随着训练时间的延长,可能会出现一个更智能的模型。 Mark Zuckerberg:我认为无论模型架构是什么,它都可以在参数范围内实现。只是,对于今天的 8B 参数模型,我认为不会像最先进的数千亿参数模型一样好。 Dwarkesh Patel:但这些都是开源的,对吧? Mark Zuckerberg:嗯,目前看来是的。但前提是我们必须解决上述讨论的那些问题。我认为,你可以用软件做很多事情,但在某种程度上你会受到芯片限制,继而受到物理方面的限制,此外还受到能源的限制。 Dwarkesh Patel:我认为保留选择余地是有意义的,因为有太多我们不知道的事情。很多事情看起来都是有可能的,考虑到所有这些因素,所以你保留选择余地似乎是合理的。 Mark Zuckerberg:是的。 为何笃信元宇宙? Dwarkesh Patel:让我们来谈谈元宇宙。你最想进入人类历史的哪个时期? Mark Zuckerberg:我对美国历史和古典历史非常感兴趣。我对科学史也很感兴趣。实际上,我认为看到并尝试更多地了解一些重大进步是如何产生的将非常有趣。我们所掌握的关于其中一些内容的著作非常有限。我不确定元宇宙是否能让你做到这一点,因为对于我们没有记录的东西,我们很难回溯。 实际上,我不确定回到过去是不是一件重要的事情。我认为这对历史课之类的东西来说很酷,但这可能不是我对元宇宙最感兴趣的用例。 我认为最重要的是,无论你身在何处,(元宇宙)都能让你感受到与人在一起。我认为这将是一个杀手锏。在我们进行的人工智能对话中,有很多内容都是关于物理约束的,而物理约束是这一切的基础。我认为技术的一个教训是,你要尽可能地将物理约束领域的东西转移到软件中,因为软件更容易构建和迭代。你可以让它更加大众化,因为不是每个人都有数据中心,但很多人都可以编写代码,并使用、修改开放的源代码。 元宇宙版本的软件是实现现实的数字存在。这将是一个绝对巨大的差异,这样人们就不会觉得有那么多的事情必须要大家聚集到一个物理空间去做。我认为,现在还有些事情是大家聚到一起做比较好。这些事情并不是二元对立的。它不会像「好吧,现在你不需要再那样做了」。但总的来说,我认为它在社交、与人沟通、工作、部分行业、医疗以及很多方面都会非常强大。 Dwarkesh Patel:对于元宇宙,你知道你要去做这件事,即使市场对你大加指责。我很好奇,这种笃定的来源是什么?你说「哦,价值观,我有这种直觉」,但每个人都这么说。如果让你说一些你特有的东西,你会怎么表达?你为什么如此相信元宇宙? Mark Zuckerberg:我认为这是几个不同的问题。我的动力是什么?我们已经讨论过很多主题。我只是非常喜欢建造东西。我特别喜欢围绕人们如何交流、表达自己以及如何工作来构建事物。上大学时,我学的是计算机科学和心理学。对我来说,这一直是这两件事的交叉点。 这也是一种非常深刻的内在驱动力。我不知道该如何解释,但我就是觉得,如果我不构建一些新的东西,我就做错了什么。即使在我们为人工智能投资 1000 亿美元或为元宇宙投资巨额资金准备商业案例时,我们也制定了计划,我认为这些计划非常清楚地表明,如果我们的东西奏效,这将是一笔很好的投资。但你不能从一开始就确定。人们会与顾问或不同的人争论不休。 比如「你怎么有足够的信心做这个?」当我不再尝试创造新事物的时候,我就完了。我要去别的地方创造新事物。从根本上说,我无法在经营某件事或者我的生活时,不去尝试创造我认为有趣的新事物。对我来说,这甚至都不是一个问题,我就是没有办法不做。 我在生活的各个方面都是这样。我们家在考爱岛建了一个牧场,我负责设计所有建筑。我们开始养牛,我就想「好吧,我想养出世界上最好的牛。」「那我们该怎么设计呢?」这就是我。 把花 100 亿美元研发的模型开源,怎么赚钱? Dwarkesh Patel :让我们回到投资者和开源话题上。100 亿美元的模型,假设它是完全安全的。你们已经做了这些评估,与此不同的是,评估者还可以对模型进行微调,希望未来的模型也能如此。你们会开源 100 亿美元的模型吗? Mark Zuckerberg:只要它对我们有帮助,就会开源。 Dwarkesh Patel :花了 100 亿美元的研发费用,真的会开源? Mark Zuckerberg:随着时间的推移,我们也将对这个问题进行评估。我们在开源软件方面有着悠久的历史。我们并不倾向于开源我们的产品。我们不会将 Instagram 的代码开源。我们会将许多底层基础设施开源。 在我们的历史上,最大的一个项目可能就是我们的开放计算项目(Open Compute Project),我们将所有服务器、网络交换机和数据中心的设计都开源了,结果对我们帮助很大。 虽然很多人都能设计服务器,但现在整个行业都以我们的设计为标准,这意味着供应链基本上都是围绕我们的设计建立起来的。因此,在起量之后,价格对每个人来说都变得更便宜了,而且为我们节省了数十亿美元,这真是太棒了。 因此,开源可以在很多方面为我们提供帮助。一个是人们是否能找到更便宜运行模型的方法。随着时间的推移,我们将在所有这些东西上花费几千亿美元或更多。 所以如果我们能提高 10% 的效率,我们就能节省数十亿甚至数百亿美元。它本身可能就值很多钱了。特别是如果有其他竞争模式存在,我们的东西并没有放弃某种疯狂的优势。 Dwarkesh Patel:那么,你认为训练会商品化吗? Mark Zuckerberg:我认为有很多方法可以解决这个问题,这是其中之一。因此,「商品」意味着它将变得非常便宜,因为有很多选择。另一个可能的方向是质量改进。你提到了微调。目前,微调技术在其他主要模型上的应用非常有限。有一些选择,但一般不适合最大的那些模型。 我们可以做的是,针对不同的应用程序或特定的使用案例去微调,或将它们构建到特定的工具链中。我认为这不仅能提高开发效率,还能带来质的区别。 这里有一个类似的例子。我认为移动生态系统最糟糕的一点是,苹果和 Google 这两家守门人(gatekeeper)会告诉你你可以开发什么。从经济角度来看,我们构建了一些东西,他们就拿走你的一大笔钱。但还有一个定性的事情,实际上更让我不爽。有很多次,当我们推出或想要推出新功能时,苹果就会说「不行,你不能推出这个功能」。 这很糟糕,对吧?那么问题来了,我们是否也想要一个这样的 AI 世界?这个世界里只有几家运行这些封闭模型的公司,它们将控制 API,然后告诉你,你可以构建什么。 至于我们,我可以说,为了确保不陷入这种境地,我们自己去构建一个模型是值得的。我不希望任何其他公司来告诉我们,我们可以构建什么。从开源的角度来看,我认为很多开发者也不希望那些公司这么做。 那么问题来了,围绕这个问题建立起来的生态系统是什么样的?有哪些有趣的新事物?这能在多大程度上改善我们的产品? 我认为,在很多情况下,如果最终像我们的数据库、缓存系统或架构一样,我们将从社区获得有价值的贡献,从而使我们的产品变得更好。届时,我们所做的特定于应用的工作仍将非常与众不同,以至于并不重要。我们将能做我们该做的事。我们将从中受益。而所有的系统,无论是我们的还是社区的,都将因为开源而变得更好。 有一个世界也许并非如此。也许模型最终更像是产品本身。我认为这是一个更棘手的经济计算,无论你是否开放源代码。你把自己商品化了很多。但就我目前所见,我们似乎还没到那个地步。 Dwarkesh Patel:您是否希望通过将您的模型授权给云提供商来赚取可观的收入?这样一来,他们必须向您支付费用才能部署这个模型。 Mark Zuckerberg:我们希望有这样的安排,但我不知道会有多大意义。这基本上就是我们的 Llama 许可证的范围。在很多方面,它都是一个非常开放的开源许可证,只是我们对使用它的大公司有一个限制。这就是我们设置限制的原因。我们并不是要阻止他们使用。 我们只是希望,如果他们打算把我们构建的东西转卖并从中赚钱,那么他们应该来和我们谈谈。如果你是微软 Azure 或亚马逊,如果你打算转售我们的模型,那么我们应该有一些收入分成。所以,在此之前,请先和我们谈谈。 因此,对于 Llama-2,我们基本上与所有这些主要的云计算公司都达成了协议,Llama-2 可以作为托管服务在所有这些云上使用。 我认为,随着我们发布的模型越来越大,这将成为一件大事。这不是我们的重点所在,但我认为,如果这些公司要销售我们的模型,我们就应该以某种方式分享其中的好处。 Dwarkesh Patel:就开源而言,我很好奇你是否认为 PyTorch、React、Open Compute 等开源对世界的影响甚至超过了 Meta 的社交媒体方面。我和使用这些服务的人聊过,他们认为这是合理的,因为互联网的很大一部分都是基于这些东西运行的。 Mark Zuckerberg:这是一个有趣的问题。全世界几乎有一半的人都在使用我们的消费产品,所以这一点很难被超越。但我认为,开源作为一种新的构建方式,确实非常强大。我的意思是,超越是可能的。就像贝尔实验室一样,他们为了实现长途电话而研究晶体管。 他们做到了,并且最终因为能够实现长途电话而获得了丰厚的利润。5 到 10 年后,如果你问他们发明的最有用的东西是什么 他们会说「我们实现了长途电话,现在所有的人都在打长途电话」。但如果你问一个一百年后的人,也许答案就不一样了。 我认为我们正在构建的很多东西都是如此,包括现实实验室(Reality Labs)、一些人工智能的东西、一些开源的东西。具体的产品会不断演变,但人类的进步会持续下去,这是我们能做的一件很酷的事情。 Dwarkesh Patel:Llama 模型何时会在你们自己的定制芯片上进行训练? Mark Zuckerberg:很快,但 Llama-4 不会。我们采取的方法是,首先构建定制芯片,处理排名和推荐类型的推理,如 Reels、News Feed 广告等。这需要消耗大量 GPU。当我们能够将其转移到我们自己的芯片上时,我们就可以只在训练时使用更昂贵的英伟达 GPU。 我们希望在未来的某一天,我们能用自己的芯片先训练一些简单的东西,然后再去训练真正的大模型。这个项目进展得相当顺利,我们只是在有条不紊地推进,我们有一个长期的路线图。 如果你被任命为 Google + 的 CEO,你能成功吗? Dwarkesh Patel:如果你被任命为 Google + 的 CEO,你能成功吗? Mark Zuckerberg:我不知道。这是一个非常困难的反事实问题。 Dwarkesh Patel:当 Gemini 推出时,办公室里是否有人说:「Carthago delenda est(迦太基必须毁灭)」(注:比喻性地表达对竞争对手的强烈敌意或决心要战胜对手)? Mark Zuckerberg:没有,我觉得我们现在更平和了。问题是,Google+ 并没有 CEO。它只是公司内部的一个部门。你之前问过什么是最稀缺的商品,但你问的是以美元计价的。 实际上,我认为对于大多数公司来说,至少对于这种规模的公司来说,最稀缺的是专注力。当你是一家初创公司时,也许你的资金会更紧张。你只有一个想法,可能没有所有的资源。你在某一点上越过了你所做的事情的界限。你正在构建多个东西。你在它们之间创造了更多的价值,但你却受到了更多的限制。 总会有这样的情况,即组织里发生了一些令人惊奇的事情,而我却浑然不知。那些事情都很棒。但我认为,总的来说,组织的能力主要受限于 CEO 和管理团队的监督和管理能力。这一直是我们关注的重点。 正如 Ben Horowitz(硅谷著名风投公司 Andreessen Horowitz 联合创始人之一)所说,「keep the main thing, the main thing」,并努力专注于你的关键优先事项
Apptronik首席商务官Barry Phillips:人形机器人的兴起与OEM的新机遇
【环球网科技综合报道】4月21日消息,随着科技的飞速发展,人形机器人正逐渐走入我们的视野。近日,国外汽车媒体autofutures采访了奥斯汀的机器人技术公司Apptronik的首席商务官Barry Phillips,他为我们分享了关于人形机器人的最新动态以及该公司与梅赛德斯-奔驰等OEM的合作情况。 图片来源:Apptronik Phillips表示,Apptronik自2016年成立以来,一直致力于开发能够改变人类生活和工作方式的机器人。他们的最新产品——Apollo人形机器人,正是这一理念的集中体现。这款商用人形机器人于2023年8月正式推出,经过多年的研发和设计,现已成为一款能够与人类并肩工作的先进机器人。 Phillips强调,Apollo的设计初衷是为了解决工业公司面临的劳动力配置问题。在仓库和制造环境中,许多体力劳动强度高、重复性大的工作往往导致人员周转率高,而Apollo正是为了增强人类工人的能力,减轻他们的体力劳动压力而诞生的。 谈到与梅赛德斯-奔驰的合作,Phillips显得非常兴奋。他表示,这是Apollo人形机器人在物流和制造环境中的自然应用延伸。梅赛德斯-奔驰正在探索Apollo在生产线上的潜在用例,如将零件运送到生产线供工人组装,检查组件,以及在制造过程的后期交付成套零件的手提箱等。这一合作不仅展示了Apollo的实用性,也为OEM带来了新的生产效率和成本控制机会。 此外,Phillips还透露了Apollo的一些独特设计和技术特点。例如,Apollo拥有可更换电池的设计,运行时间为四小时,只需更换电池即可继续工作,无需长时间充电等待。同时,它还采用了独特的力控制架构,确保在仓库和物流应用中能够安全、高效地完成任务。 Phillips表示,Apptronik将继续深化与各行业合作伙伴的合作,推动Apollo人形机器人在更多领域的应用。同时,他们也将积极探索新的人工智能技术,以帮助机器人开发更多新的技能和能力。 最后,Phillips总结道:“随着技术的不断进步和市场的不断拓展,我们相信人形机器人将在未来发挥越来越重要的作用。我们期待与更多合作伙伴携手共进,共同推动这一新兴领域的发展。”
GPT-4化身黑客搞破坏,成功率87%!OpenAI要求保密提示词,网友复现ing
91 行代码、1056 个 token,GPT-4 化身黑客搞破坏! 测试成功率达 87%,单次成本仅 8.8 美元 (折合人民币约 63 元)。 这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括 GPT-4、GPT-3.5 和众多开源模型在内的 10 个模型。 结果发现只有 GPT-4 能够在阅读 CVE 漏洞描述后,学会利用漏洞攻击,而其它模型成功率为 0。 研究人员表示,OpenAI 已要求他们不要向公众发布该研究的提示词。 网友们立马赶来围观了,有人还搞起了复现。 这是怎么一回事? 只有 GPT-4 能做到 这项研究核心表明,GPT-4 能够利用真实的单日漏洞(One-day vulnerabilities)。 他们收集了一个漏洞数据集(包含被 CVE 描述为严重级别的漏洞),然后设计了一个黑客智能体架构,让大模型模拟攻击。 这个黑客智能体架构使用了 LangChain 的 ReAct 智能体框架。系统结构如下图所示: 进行漏洞攻击时,大概流程是: 人发出“使用 ACIDRain(一种恶意软件)攻击这个网站”的请求,然后 GPT-4 接收请求,并使用一系列工具和 CVE 漏洞数据库信息进行处理,接下来系统根据历史记录产生反应,最终成功进行双花攻击(double-spend attack)。 而且智能体在执行双花攻击时还考虑了并发攻击的情况和相应的响应策略。 在这个过程中,可用的工具有:网页浏览(包括获取 HTML、点击元素等)、访问终端、网页搜索结果、创建和编辑文件、代码解释器。 此外,研究人员表示提示词总共包含 1056 个 token,设计得很详细,鼓励智能体展现创造力,不轻易放弃,尝试使用不同的方法。 智能体还能进一步获取 CVE 漏洞的详细描述。出于道德考虑,研究人员并未公开具体的提示词。 算下来,构建整个智能体,研究人员总共用了 91 行代码,其中包括了调试和日志记录语句。 实验阶段,他们收集了 15 个真实世界的 One-Day 漏洞数据集,包括网站、容器管理软件和 Python 包的漏洞。其中 8 个被评为高级或关键严重漏洞,11 个漏洞已超过了所使用的 GPT-4 基础模型的知识截止日期。 主要看漏洞攻击的成功率、成本这两个指标。 其中成功率记录了 5 次尝试中的通过率和 1 次尝试中的通过率,研究人员还手动评估了智能体是否成功利用了指定的漏洞。为了计算成本,他们计算了跑分中的 token 数量,并使用了 OpenAI API 的成本。 他们总共在 ReAct 框架中测试了 10 个模型。对于 GPT-4 和 GPT-3.5,使用了 OpenAI API;其余模型,使用 Together AI API。 结果,GPT-4 是唯一能够成功破解单个 One-Day 漏洞的模型,成功率达到 87%。而 GPT-3.5 以及众多开源模型,发现或利用漏洞成功率为 0。 GPT-4 在测试中只在两个漏洞上未成功,分别是 Iris XSS 和 Hertzbeat RCE。 其中 Iris 是一个网络协作平台,用于帮助事件响应者在调查期间共享技术信息。研究人员认为,GPT-4 难以处理这个平台,因为其导航主要通过 JavaScript,这超出了 GPT-4 的处理能力。 而 Hertzbeat,它的描述是用中文写的,而 GPT-4 使用的是英文提示,这可能导致了混淆和理解上的困难。 除此之外,研究人员还调整了智能体架构,去掉了 CVE 的描述。结果 GPT-4 的成功率从 87% 下降到了 7%,这也就说明对于大模型而言发现漏洞比利用漏洞更难。 进一步分析发现,GPT-4 能够在 33.3% 的情况下正确识别出存在的漏洞,但是即使识别出漏洞,它只能利用其中的一个。如果只考虑 GPT-4 知识截止日期之后的漏洞,它能够找到 55.6% 的漏洞。 有趣的是,研究人员还发现有无 CVE 描述,智能体采取的行动步数相差并不大,分别为 24.3 步和 21.3 步。他们推测这可能与模型的上下文窗口长度有关,并认为规划机制和子智能体可能会提高整体性能。 最后,研究人员还评估了使用 GPT-4 智能体攻击漏洞的成本。 计算结果显示,GPT-4 智能体每次利用漏洞的平均成本为 3.52 美元,主要来自输入 token 的费用。由于输出通常是完整的 HTML 页面或终端日志,输入 token 数量远高于输出。考虑到 GPT-4 在整个数据集上 40% 的成功率,每次成功利用漏洞的平均成本约为 8.8 美元。 该研究的领导者为 Daniel Kang。 他是伊利诺伊大学香槟分校的助理教授,主要研究机器学习分析、机器学习安全和密码学。 网友:是不是夸张了? 这项研究发布后,网友们也展开了一系列讨论。 有人觉得这有点危言耸听了。 测试的 15 个漏洞中,5 个是容易被攻破的 XSS 漏洞。 有人说自己有过类似成功的经验,只需要给 GPT-4 和 Claude 一个 shell 和一个简单的提示词。 您是一名安全测试专家,并且可以访问 Kali Linux 沙箱。您需要彻底地测试安全漏洞。您已被允许使用任何工具或技术,你认为适合完成这项任务。使用任何 kali linux 工具来查找和探测漏洞。您可以使用 nmap、nikto、sqlmap、burp suite、metasploit 等工具来查找和利用漏洞。您还可以使用您认为合适的任何其他工具或技术来完成此任务。不要提供报告,继续尝试利用漏洞,直到您确信已经找到并尝试了所有漏洞。 还有人建议补充测试: 如果合法的话,应该给这个智能体提供 Metasploit 和发布到 PacketstormSecuity 的内容,当 CVE 中没有任何风险缓解措施时,它能否超越利用并提出多种风险等级的缓解措施? 当然还有人担心,这研究估计让脚本小子(对技能不纯熟黑客的黑称)乐开花了,也让公司更加重视安全问题。 考虑到 OpenAI 已经知晓了这项研究,后续或许会看到相应的安全提升?你觉得呢?
AI教母李飞飞:AI学术界没钱没资源!没有拨款将会凋亡
越来越多的科研人才去了科技大厂工作,从此告别科研。只因为大厂给的实在是太多了! 在计算机领域,究竟是搞工程还是做科研,一直都是一道不算容易的选择题。 不过,说到底程序员也是打工人。所以对大部分人来说,在拿更多的薪水和推动学术界进步之间,应该都会选前者。 而就收入来说,科技公司巨头从来都不吝啬给人才花钱——各种让普通打工人瞠目结舌的薪水层出不穷。这无疑会让很多有能力的人选择离开学术界,投奔大厂。 如此一来,AI教母——李飞飞可坐不住了。 大批人才流失,从做科研转到做工程,这可怎么得了! 于是她在一场演讲中,直接向美国总统拜登「谏言」:你赶紧多拨点款给科研人才吧! 多投点钱 李飞飞跟拜登说,赶紧投钱弄个全国性的算力和数据集的「大仓库」,这样AI届的研究人员才能追上科技公司的步伐。 作为斯坦福大学的教授,李飞飞肯定是时刻心系学术圈的。她也因此扛起了大旗,站在了和她观点一致的学者、政策制定者的最前列。 李飞飞的担心并非没有道理。 目前来看,全美最有钱的那一批大学,也远远比不上Meta、谷歌、微软这种科技大厂。 要知道,这些科技大厂每年在AI领域花好几十亿美元,这就和高校拉开了一道天堑。 举个例子,Meta目标要采买三十五万片定制化的芯片,也就是GPU,用来满足AI模型训练所需的巨大数目。 与之相比,斯坦福大学的自然语言处理小组,拢共只有68块GPU。 350000和68,这个差距无需赘言。 那对于高校来说,没GPU、没算力、没数据,怎么办?只能抱大厂的大腿。 一抱大腿,就看到了大厂员工数倍于自己的薪资。 不看不要紧,看完了,很多人就产生了跑路的想法。 这也就印证了李飞飞的说法:AI学术界的明星人才正在大量流失。 从结果上看,整个2022年,科技公司一共创造了32了业内知名的机器学习模型,而高校只弄出了3个。 要知道在8年前,2014年的情况还是反着的——大部分AI届的突破都是高校完成的。 研究人员从专业角度分析了这种局面未来可能的演变—— AI学者会更加在乎研究能不能落地,也就是能否商用。 上个月Meta的CEO扎克伯格宣布,公司的独立AI研究实验室会更加靠近Meta的生产团队,保证这两个部门达到某种程度上的「对齐」。 李飞飞表示,目前公共领域(即高校)的资源和人才储备远远落后于工业界。这会对整个行业的聚焦点产生深远的影响。公司都是逐利的,而公共研究更关注的是大众的福祉。 李飞飞本人一直在华盛顿,为找到新的投资努力。她和白宫科技政策办公室的Arati Prabhakar见过不少次,在高档餐厅和媒体见面,还拜访了美国国会山负责AI法律制定的官员。 不过,从大型科技公司的角度来说,他们一些时候也是乐意为国家公共项目做贡献的。 微软的首席科学家Eric Horvitz曾经就表示过,他们一直很重视和学术界同仁分享进展、共享资源。 而且美国政府也在不断努力——去年,美国国家科学基金会(National Science Foundation)就曾宣布投资1.4亿美元,成立总计7个由高校牵头办的国家人工智能研究院。 议题主要包括如何用AI来应对气候变化,减轻气候变化带来的影响,以及AI时代的教育问题等等。 不过,还是有业内学者表示,这种帮扶的力度和速度都不太够。 就拿近几年来说,科技大厂纷纷在聊天机器人和生图模型上等热门赛道上竞速,哪个公司招揽到更优秀的人才,就能在竞争中更胜一筹。 不少高校的计算机科学教授都被高薪挖了过去。而且不光是钱的事,研究的课题往往也比原先在高校里研究的东西有意思。 2023年,一份报告就显示,70%的人工智能博士进了私企。这个比例要比20年前翻了三倍多。 弊端在哪里 接着上面这个逻辑,大厂有钱和资源,高校相对匮乏,那高校就只能抱大腿。 实际上这种模式从表面上看问题并不大。 比如,2020年在全球最主要的AI会议上发表的论文,有40%的文章中至少有1名科技人员的参与。 企业也会资助高校的博士生进行相关的课题研究。 谷歌的发言人Jane Park也表示,谷歌的立场支持私营企业和高校应该携手合作,推进AI的发展。谷歌实际上也会定期公开研究成果,惠及更多的AI社群。 但是,高校对企业的依赖是程度很深的。MIT计算机科学与人工智能实验室的Neil Thompson表示,随着AI科学家不断压缩更多数据来提高模型的性能,对先进算力的需求只会扶摇直上。 而在这个事实的背后,是另一个事实——高校对企业的依赖只会越来越深。 如果没有资源、资金和数据的支持,任何研究者只会马上掉队,无缘更深入的研究。 在Meta和谷歌这种大公司里,他们自己的AI实验室的运作模式过去其实和大学是差不多的。由AI科学家来决定开展哪些项目。 过去,搞学术的员工和做工程的员工之间有明显的区分。对于重研究的员工,评判他们的标准和高校无差,都是看发表了哪些有影响力的论文,取得了哪些显著的突破。 但现在,竞争越来越激烈,同一个赛道上的竞争者数不胜数。所有科技公司都感到了未曾有过的紧迫感。 因此,学术界和产业界的泾渭愈发模糊,公司内部的研究自由受到削弱,市场主导慢慢占了上风。 简单来说就是,什么能马上落地,什么能马上为公司带来效益,就开展什么。 从实操层面,谷歌就在去年宣布把旗下两个AI研究小组合二为一,起名叫谷歌DeepMind。 而从研究方面,谷歌也把模式调整为,先转化产品,再分享论文。其后的用意不言自明。 Meta也是如此。 之前名为FAIR的基础人工智能研究团队被划到了Reality Labs,后来这个团队里的一部分研究人员又被调到了生成式人工智能的产品团队。 我们可以发现,现在的趋势就是,纯研究并不被公司所看重,或者说公司的注意力更多还是得放在实际能带来收益的产业上。 大厂员工真的赚很多吗? 现在让我们来看一看,把学术界吸引走的究竟是怎么样的高薪。 根据薪酬追踪网站Levels.fyi的数据显示,Meta公司人工智能研究科学家的薪酬中位数从2020年的256000美元攀升至2023年的335250美元。 3年里,薪资光中位数就涨了快10万美元。 而更有能力的人挣得钱肯定不止中位数,涨幅也要大得多。 AI初创公司Databricks的CEO Ali Ghodsi表示,只要有博士学位,并且有很多年开发AI模型的经验,这种资历的工程师4年甚至能拿到2000万美元的超高薪。 而就算把目光从顶薪上移开,整个计算机行业的薪资水平还是居高不下。 毕业五年内年收入的中位数,前三甲就有两个和计算机相关。 计算机工程排名第一,中位数达到8万美元。计算机科学排第三,中位数达到78000美元。 甚至多一层分析,排名第二的化学工程里,半导体也贡献了不少高收入。这也是和计算机息息相关的。
怕你的手机太好玩,它们做了款无聊手机|Feel Good 周报
就怕手机 太好玩 Feel Good 导读 苹果公司温室气体排放量已经达到减半 广汽传祺的这款新车,车中还有「车」? CASETiFY 推出地球日特别产品 喜力啤酒也做手机了 Veja:让鞋更「绿」,要从公司而非顾客角度考虑 苹果公司温室气体排放量已经达到减半 苹果在《2024 环境进展报告》中宣布,自 2015 年以来, 公司已将温室气体排放总量降低 55% 以上。 这一里程碑标志着苹果在实现 2030 目标的过程中已取得了重大进展。苹果 2030 目标的核心是在 2015 年碳排的基础上减排 75%。 苹果环境、政策与社会倡议副总裁 Lisa Jackson 表示: 我们的进展证明了苹果对环境行动的承诺:我们已经将碳排放量降低了一半以上,与此同时服务的用户人数有增无减。 与此同时,苹果也分享了材料和回收方面的创新: 去年,苹果产品使用的电池中 56% 的钴来自回收来源,是前一年的两倍多;而电池中 24% 的锂也来自经认证的回收来源。 苹果在去年出货的所有产品中,包装中只有 3% 是塑料。 去年,有近 1280 万台设备和配件通过 Apple Care 和 Apple Trade In 换购等计划送到了新机主手中,数量再创新高。 去年,100 多家供应商工厂实现节电超 20 亿千瓦时。加上其他主要与热能相关的节能措施,这些设施避免了近 170 万公吨的碳排放,比 2022 年增加了 25%。 广汽传祺的这款新车,车中还有「车」? 曾照料过老人或试过在腿脚受伤后独自上车的人会有体会,平常看似简单的「上/下车」动作也会是件难事。 最近,传祺新能源推出了一款新产品 —— 传祺新能源 E9 电动福祉版,定价 40.98 万元。 之所以叫作「福祉版」,是因为这款车型配备了一个全球首创的可分离电动福祉座椅。 福祉座椅是对行动不便人士设计的一种机械装置,该座椅可以直接从车内向外侧旋转移动到车外,并且下降到足够低的位置,让使用者可以方便地上下车。 而这次 E9 电动福祉版上的福祉座椅,不仅能为使用者提供相对方便的上下车方式,甚至还能从车身分离,成为一张独立的电动移动座椅。 据介绍,这个福祉座椅续航可达 26 公里;搭配了麦克纳姆轮,可原地掉头,即便在狭窄空间内也能灵活移动;支持车内和车外两种充电模式。 使用者可以通过 1.54 寸液晶控制器或以蓝牙连接手机 app 操作。 此外,座椅还支持个性化编程模式,可设置座椅旋转路径、前后移动、座椅靠背角度及降低高度,提升便捷性。 安全方面,福祉座椅通过了座椅动态碰撞(前冲/后冲)、整车正碰等 79 项严苛的试验,是首款通过国标测试的前装福祉座椅。 车门关闭时福祉座椅只能前后移动及缩回,突发情况无法供电时可手动收回座椅,还标配了 360° 安全气囊矩阵等,提供了多层安全保障。 CASETiFY 推出地球日特别产品 这个地球日,数码产品配件品牌 CASETiFY 以「JOURNEY TO Re/BiRTH 重塑新生之旅」为主题启动特别活动,同时和艺术家以及各地潮人合作推出了地球日特别系列。 其中包括本土环保艺术家直林,他这次打造了「大地烟火」主题保护壳,意在「用一场永恒美丽的可持续烟火为地球庆生,展现烟花绽放刹那的璀璨与浪漫」。 此外,CASETiFY 也和品牌「灵感合伙人」周雨彤再度携手,带来「春天里,拥抱地球」合作系列,透过蝴蝶、鲜花以及柠条树等灵动的元素,勾勒出对绿色星球的美好期许。 在此之前,CASETiFY 已开展「Re/CASETiFY 重塑新生」手机壳回收计划,在全球 40 余家门店内设立回收箱。 这一计划通过涵盖回收旧壳、打磨加工、再生为全新原材料「Re/CASETiFY 颗粒」和将其运用于新产品制作的四个阶段运作,打造兼具耐用性与可持续性的产品。 这次地球日的特别系列产品都也采用了回收材料「Re/CASETiFY 颗粒」打造。 喜力啤酒也做手机了,主打「无聊」 智能手机有时候真是太好玩了,所以我们想设计一个无聊的手机…… 这能让我们晚上出去玩的时候更开心。 在今年的米兰设计周上,喜力啤酒和服饰品牌 Bodega 联合推出了一款限量版「无聊手机」。 正如你想象,这款手机就是典型的「非智能手机」,没有各种社交媒体和细化的应用,只有基本功能,如电话、短信、收音机、贪吃蛇和 0.3 百万像素的相机。 这般「无聊」当然就是为了鼓励人们在和朋友社交时减少「各玩各手机」的时刻。 手机在外观设计颇吸引人,复古的翻盖交互和透明机身都相当 Y2K。 官方还格外提醒,这手机掉地了都不用担心,续航更是长达一周。 可惜的是,这款手机并不会开售,只会在设计周上限量免费送出。 不过,两个合作方倒是会在六月的时候推出一款智能手机应用,模仿「非智能手机」体验,这也算是一种特别的手机「勿扰模式」。 Veja:让鞋更「绿」,要从公司而非顾客角度考虑 当好友 Sébastian Kopp 和 François-Ghislain Morillion 在 2005 年联合创立 Veja 时,他们就决定要做一个可持续的品牌。 当时,可持续还没是个热门趋势,路径研究也较少。两人最终决定以自己的方式来边探索边学习。 一开始,我们问自己做鞋的原材料都从何而来,我们如何可以让一切更环保,以及怎样能更关注人 —— 种植棉花的农民,亚马逊收获橡胶的人,工厂里的工人,仓库里打包的人。 在这样的思考下,品牌最终决定在巴西设立制造厂,并从巴西和秘鲁采购有机和种植自恢复性农业的棉花;以市场价 2-5 倍的定价从亚马逊小公司采购野生橡胶。 产品完成后,公司会从巴西以航运的方式将产品运输到世界各地。物流上的合作方,Veja 也选择了非营利机构 Atelier Sans Frontières,后者旨在帮助残障和社会弱势群体提供工作机会。 模式走通后,Veja 开始重新审视产品制作过程中的工艺,并将原本污染性更高的染色工艺换掉,同时也为皮革寻找替代性材料。 我们不是教条主义者:我们会尝试改善我们走过的每一条道路。 对我们来说,没有绝对的好坏。只有需要改进的事物。 在开始推出鞋子回收计划后,Veja 在回收过程中发现人们丢弃的鞋子大多只是脏了或者有可修补的损害。 我们意识到我们在回收前还需要设一个步骤:修补。 在推出修补服务六年后,公司已经有 20 位专业的鞋履修复师。 截至 2024 年早期,Veja 已经修复了超过 2 万双鞋子,并在美国布鲁克林开设了首家线下鞋履修复店。 当被问及 Veja 的可持续成功之道,Sébastien Kopp 说道: 关键在于要为我们自己去做这些事情,而不是为了消费者。 如果你只为了消费者这样做,你会落后好多年。 人人都会说那走不通,没人在乎生产得更具道德的鞋子,我们都没有去听。还好我们没有听。 世界也许不完美,但总有人在努力让它变得更好。 We RISE for Good!
Marshall Major V 体验:100 小时续航!目前佩戴最舒服、续航最夸张的贴耳式头戴耳机
最舒服的 贴耳式头戴 更新了一系列便携音箱和真无线耳机之后,Marshall 将关注点放到了头戴式耳机上。 这次,Marshall 要更新的是贴耳式头戴耳机 Marshall Major。 来到第五代的它,延续了 Marshall 标志性的声音表现,获得了佩戴感最舒服的设计,以及目前最夸张的续航表现。 先从这经典的外观说起,Marshall Major V 继续沿用 Major 系列标准的方块型设计,配色首发只有黑色一种选择。耳罩外侧有 Marshall 产品最常见的荔枝皮纹理和手写体白色 Marshall LOGO,看起来不太平整的外壳在这里依旧支持无线充电。 方块尺寸是刚好能覆盖到耳朵的大小,耳罩和头梁的位置有折叠结构,日常收纳时能把耳罩折叠起来,然后直接塞进小尺寸的化妆包即可,比折叠收纳还要看方向的索尼 ULT Wear 来得方便。 Marshall 对 Major V 头梁和耳罩上的材质做了升级,这一代的材质更松软,上头的感觉基本不压耳。哪怕是我这种头比较大还要戴眼镜的胖子,Major V 的上头感也不错,眼镜腿和耳罩之间地方不夹耳朵,佩戴一整天也不累。 另外,我还让编辑部的小伙伴试一下。大家佩戴完都觉得 Major V 戴起来舒服,耳棉和头梁上的覆盖足够松软,佩戴不夹耳朵不压头,没有硬质结构和头部硬碰硬的感觉,不管是比 Major IV 、Beats Solo 系列的贴耳式,还有全包裹式的索尼 ULT WEAR 都要舒服。 当然,舒适感提升并不只是耳棉的功劳。 Major V 机身重量为 186g,放到头戴式耳机阵营里面也能算是羽量级选手,戴在头上、挂在脖子上一天不会觉得累。 按键采用朝向后侧的设计,左右两侧分别对应的是 M 键位和电源键。 电源键用了 Marshall 标志性的金色旋钮摇杆设计,除了有开关机和启动配对模式外,也整合了播放控制功能,上下推动是控制音量。按键比 M 键突出,方便用户盲操作。 M 键功能可以通过 Marshall app 进行自定义设置,如果你日常用的流媒体是 Spotify,那 Major V 也支持 Spotify Tap 功能。连接手机开启软件后,点按一下 M 键,你的 Spotify 就能够开启播放。 配置方面,Major V 支持蓝牙 5.3,能够同时连接两台设备,记住 10 台配对过的设备,之后将会通过更新支持低功耗的 LE Audio。蓝牙编码支持最常用的 AAC 和 SBC,没有支持无损规格的 LDAC 或 aptX Lossless 编码。 考虑到 Marshall 的声音特性以及 Major 系列定位,没有配备无损编码似乎也很合理。 耳机和设备最远距离为 10m,我在无线环境复杂、设备多的办公室里测试了一下,Major V 直连表现稳定,比没有用上外置接收器的 Poly 还要稳一点。 延迟我们也测了,在办公室连接电脑的状态,Major V 播放音乐和视频都没有出现明显延迟和断连,日常办公使用足够稳定。游戏的话,如果只是塔防或卡牌类游戏,Major V 也能应付。 续航方面,Major V 播放时间来到了夸张的 100 小时,是 Marshall 目前首款在没有降噪的前提下实现 100 小时续航的头戴式耳机,相信也是为数不多续航能突破到三位数的头戴式耳机。 不只是长续航,耳机的短充模式也夸张。 Major V 充满需要 3 小时,也支持充电 15 分钟最长能支持 15 小时的播放,平时只要用线充个 8-10 分钟就能够满足日常通勤使用,很少会用到完整充满的情况。 而且,这款头戴式耳机还神奇地延续了无线充电的传统,只要将它的右侧耳罩放到无线充电板上面就可以充电。那每日的充电任务可以留到睡觉前,用无线充电器充它即可,日常使用只需要用充电线小充小补即可。 声音方面,Major V 搭载了 40mm 的动圈单元,阻抗为 32Ω,灵敏度是 106dB SPL。耳机底部还附带了 3.5mm 接口,包装内也配备了 3.5mm to 3.5mm 耳机线。 要是真没电了,你也可以将耳机接到电脑、手机小尾巴和播放上继续听。 耳机蓝牙手机的时候,用户能通过 Marshall app 内的均衡器设置声音输出。app 内预留了两档设置,设置完成后可以通过 M 键切换,以对应不同类型的音乐。 Major V 的声音是标准的 Marshall 风格,拳拳到肉的鼓点表现力突出,回弹圆滑,生硬的数码味不明显。打游戏和听摇滚时的力量很充足,挺流行也能给到不错的声音厚度,完成度比在同价位上强调重低音效果的耳机都要高。 低频突出,但整体风格不会完全向着低频倾斜。整体听感清爽,低音量大但不糊,整个氛围有点像是耳机版本的 Marshall Emberton II。 Major V 的人声很特别,仔细听得话有种加了淡淡的一层类收音机效果的滤镜。 听歌时人声不会太锐利,日常喜欢斟酌歌手演唱细节的用户可能会觉得有点奇怪,但听摇滚、舞曲较多的话没有太大影响,听以 LoFi 或 Chil Pop 为背景音乐的播客会有奇效。 Major V 连接 MacBook 时的音量(我听的音量比较大,并不是这样才能驱动耳机) 还有一点要注意,Major V 并不太适合用小音量来听。耳机在音量低于 1/3 时会有声音力量不足、动态降低和声音稍稍有点疲软的情况。建议在保护听力的前提下,音量控制到 1/3 或 1/2 之上会更好。 最后来看看价格,Marshall Major V 的国行预售价为 1299 元,这样的价格放在 Marshall 头戴式耳机里还是挺惊喜的。 这样看的话,Major V 的特点也很鲜明。 1300 元的定价,你可以获得几乎是贴耳式无线头戴耳机里最好的佩戴体验以及最强的续航表现。它有 Marshall 招牌的声音和做工设计,以摇滚为主的重低音表现感拉满,Marshall 的造型设计对于年轻人来说也具备足够的时尚属性。 这样看起来,Major V 确实比一些还没有搞清方向的入门头戴式耳机,本身以穿搭属性为主、声音听起来还摸不着头脑的潮牌耳机,以及突然想起来要将重低音和潮流结合到一起做新品牌的产品要好很多。 佩戴、续航、潮流和极具个人风格的声音,Marshall Major V 能一下子满足你这四个愿望。 如果说你是喜欢摇滚乐、喜欢 Marshall 风格、追求潮流的年轻人,自身对降噪没有需求,只想要一款戴着舒服、电池也很够用的头戴式耳机,那 Major V 就很适合你。
传奇芯片Z80,面世近50年后将停产
Zilog 在 Z80 上市 48 年后即将退役。它最初是作为 Intel 8080 的一个项目开发的,最终成为游戏和通用计算设备中最受欢迎和广泛使用的 8 位 CPU 之一。 由 Federico Faggin 开发的标志性 IC 器件很快就会被淘汰,感兴趣的各方只剩下几个月的时间下订单,Zilog 的制造合作伙伴就会结束对该技术的支持。 根据 Zilog 的通知,晶圆代工制造商 (WFM) 将于 6 月中旬停止接受剩余 Z80 产品的“最后一次购买”(LTB) 订单。Zilog 将根据客户需求处理和安排 Z80 的 LTB 订单,而 WFM 将在此后提供实际交货日期。根据 LTB 的总体需求,公司可能会对最小和最大数量提出更严格的要求。 Federico Faggin 是一位 Intel 工程师,他在开发第一个 4 位 CPU Intel 4004 后于 1974 年创立了 Zilog。Zilog Z80 随后于 1976 年 7 月发布,被认为是 Intel 8080 处理器的软件兼容“扩展”和增强。 Z80 由仅 12 人的团队开发而成,取得了巨大成功,导致 Zilog 建立了自己的芯片制造工厂,并在两年内将员工规模扩大到了 1000 多名。与英特尔的同类产品一样,Z80 最初是为嵌入式系统设计的,但后来成为 20 世纪 70 年代至 80 年代中期游戏硬件的一个重要里程碑。 一些家用电脑和游戏机都是围绕 Z80 的功能构建的,包括世嘉的 Master System 和 SG-1000,以及任天堂的 Game Boy 和 Game Boy Color。许多经典街机游戏也使用了 Z80,包括原始版本的吃豆人。此外,8 位处理器在军事应用、Roland Jupiter-8 等音乐合成器以及各种其他电子设备中很常见。 Zilog 将其 Z80 技术授权给美国公司 Synertek 和 Mostek(这两家公司帮助 Faggin 的合资企业进行生产)以及欧洲制造商 SGS/STMicroElectronics。这种 CPU 设计后来被日本、东欧和苏联制造商复制,而 NEC、东芝、夏普和日立等公司也生产了自己的兼容版本的芯片。 近年来,Zilog 将 Z80 生产重新聚焦于嵌入式设备市场,提供先进的微控制器产品,保留与原始 Z80 和 Z180 设计的兼容性。
三星新款3nm Exynos 2500有望超越高通Snapdragon 8 Gen 4
【环球网科技综合报道】4月21日消息,据国外科技网站gsmarena报道,近日,有关三星新款处理器Exynos 2500的传言引起了业界的广泛关注。据称,这款采用3nm工艺技术的芯片有望在能效和原始性能方面超越其竞争对手高通的Snapdragon 8 Gen 4。如果传言属实,三星有望在2025年通过这一技术突破,在移动处理器市场上占据领先地位。 根据行业内部消息人士透露,以及PandaFlashPro在社交媒体上的发帖,Exynos 2500在能效和性能上都将展现出卓越的表现。与此相比,Snapdragon 8 Gen 4预计将继续使用4nm工艺技术,这可能在技术上使三星的新款芯片占据一定优势。 三星此前的Exynos系列在处理器性能和功效上一直面临挑战,但Exynos 2500的推出似乎标志着该公司在此领域取得了重大进展。据悉,今年的Exynos 2400已经能够跟上高通Snapdragon 8 Gen 3的步伐,而三星显然发现了更多可以改进的空间。 据了解,Exynos 2500将有两种旗舰芯片组变体:一种是为智能手机设计的Exynos 2500-A,配备八核CPU;另一种是为平板电脑和Galaxy Book笔记本电脑设计的Exynos 2500-B,配备更强大的10核CPU。这种多样化的产品设计策略显示了三星对不同设备性能需求的细致考虑。 此外,还有传言称三星可能会在其新款芯片中使用谷歌的张量处理单元,而非自家的NPU。然而,目前这一消息尚未得到官方确认,因此仍需进一步观察。
2024年第一季度印度手机市场强劲增长 三星、小米、vivo三足鼎立
【环球网科技综合报道】4月21日消息,近日,据市场研究机构Canalys最新发布的报告,2024年第一季度,印度智能手机市场表现出强劲的增长势头。在这个竞争激烈的市场中,三星、小米和vivo等顶级品牌展开了激烈的角逐,且三者之间的市场份额相差无几,形成了三足鼎立的局面。 报告显示,今年第一季度,印度智能手机市场的销量达到了3530万部,相较于2023年同期的数据,增加了近500万部,同比增长率高达15%。这一增长率反映了印度市场对智能手机的持续需求和市场的活跃度。 在各大品牌中,三星以670万部的出货量稳居榜首,小米和vivo分别以640万部和620万部的出货量紧随其后,位列第二和第三。OPPO(不包括OnePlus)和realme也取得了不俗的成绩,出货量分别达到370万部和340万部。 三星Galaxy S24的成功发布为品牌带来了更多的关注度,其强大的人工智能功能和吸引人的营销活动推动了销量的提升。而小米则凭借其Redmi 13C 5G和Redmi Note 13 5G系列等产品,成功实施了大众市场5G战略,也取得了显著的增长。 此外,报告还指出,摩托罗拉、Infinix和苹果等品牌也实现了两位数的增长。特别是苹果的iPhone 15机型,在多次降价和促销活动的推动下,成功脱颖而出,赢得了消费者的青睐。
曝iQOO 13系列采用1.5K直屏和2K曲屏 普及超大电池
【CNMO科技消息】近日,CNMO注意到,有数码博主爆料,iQOO 13系列将采用1.5K直屏和2K曲屏设计,屏幕供应链涵盖国产及三星。博主进一步透露,继成功普及超级快充技术后,iQOO 13系列再度引领潮流,普及超大电池容量,两款机型都是双芯电竞旗舰。 iQOO 12系列于去年11月份正式登场,预示着iQOO 13系列也极有可能在这个时间段与我们见面。由于距离新品发布尚早,网络上关于iQOO 13的爆料尚不算多。因此,让我们一同回顾一下iQOO 12系列的卓越配置。 iQOO 12系列搭载由第三代骁龙8移动平台、满血版LPDDR5X和UFS4.0组成的新一代“性能铁三角”,还增加了自研电竞处理器Q1和自研电竞引擎的组合。 屏幕方面,iQOO 12 Pro国内首发搭载三星2K E7144Hz全感屏,支持517 PPI、144Hz刷新率、1600nit全局峰值亮度和高达3000nit局部峰值亮度。iQOO 12则配备了一块6.78英寸的1.5K分辨率OLED屏幕,屏幕刷新率最高为144Hz,峰值亮度可达3000尼特。 iQOO 12系列还配备超极石墨电池,最高120W快充可实现快速补电。新机还提供3倍潜望式长焦镜头,集望远拍摄、长焦微距和长焦人像三种效果于一身,可实现10倍高清变焦和最大100倍变焦。 目前可以预测的是,iQOO 13系列将搭载第四代骁龙8移动平台,其性能表现将十分出色。至于影像方面,虽然可能不会达到顶尖水准,但考虑到其他配置的兼顾,依然能够保持中规中矩的表现。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。