行业分类:
加载中...
头条分类:
加载中...
滴滴的2023:重回市场中心 逐步恢复增长
话说,滴滴这两天公布了2023年第四季度和全年财报,八姐看了看,2023年应当算得上是滴滴恢复之年,订单数和收入都出现了大幅度增长,开始重新夺回之前被聚合平台们抢占的市场。 整体来看,2023年,滴滴的订单量每个季度都在增长,同时,也推动了收入的增长,并且,滴滴的亏损也有所改善。 好啦,不废话了,下面来详细说说滴滴最新的财报。 1,滴滴的收入出现了恢复性地增长。 财报显示,2024年第四季度,滴滴总收入为494亿元人民币,比2022年第四季增长55.4%。而整个2023年,滴滴的收入达到了1924亿元,同比增长36.6%,这也创下了历史新高。这也表明,在重新上架后,滴滴的收入开始恢复性地增长了。 2,滴滴订单数大幅增长,国内日均订单3190万。 而与此同时,滴滴的单量也在大幅增长。第四季度,总单量为37.15亿单,同比增长64.8%。其中,中国出行总单量为29.32亿单,同比增长71.5%;国际业务总单量为7.83亿单,同比增长43.9%。中国出行和国际业务2023年第四季度日均单量分别达到3190万单、850万单,持续创季度新高。国际业务的单量规模也已经达到中国出行业务的约四分之一。 而近日,据报道,滴滴目标在2024年实现不低于10%的日单量增长,即日均订单量将维持在3300万单。 这都表明,滴滴的恢复增长还是蛮迅速的,开始积极地抢占市场。 3,滴滴更为积极地补贴市场,营业成本占比增加。 ‍随着收入显著增长,滴滴的营业成本也随之上升。2023年第四季度滴滴营业成本为416亿元,收入占比84.3%,作为比较,2022年第四季度的营业成本为261亿元,收入占比82.1%。公司在财报中解释,占比主要是由于国内出行业务相关成本的增加。 与此同时,滴滴国内出行业务的调整后EBITA也较去年同期下降6.6%。 另外,2023年滴滴的收入成本增长40.7%,2023年第四季度更是增长59.4%。‍‍‍‍ 以上这些都表明,2023年,特别是到第四季度,滴滴开始采取更为积极的市场策略,以获得更多的市场订单。 4,滴滴也积极在内部开源节流。 滴滴在积极地拓展市场,内部在实施成本开支控制。 根据财报,滴滴2023年全年运营和支持支出为74亿元,占总收入的3.9%,低于2022年同期的4.6%,滴滴方面称,这主要是由于业务效率的提高。 同时,2023年,销售和营销费用在收入中的占比为5.4%,同比下降1.5个百分比;全年研发费用占比同比下降2.2个百分点;一般和管理费用收入占比下降7.7个百分点。 而因为内部的控制,尽管滴滴外部积极扩张,其盈利也有所改善。2023年第四季度,滴滴实现净利润11亿元,经调整EBITA(非公认会计准则口径)亏损13亿元。整个2023年,滴滴净利润5亿元,经调整EBITA亏损22亿元。 总而言之,滴滴2023年是开始恢复增长的一年,并开始重回市场中心。至于2024年,滴滴能否继续快速增长,咱们就走着瞧吧
全网喊打,MCN的2024不好过
文 | 麻仓叶 编辑 | 何润萱 最近自媒体丑闻频发。 先是寒假期间,自媒体博主Thurman猫一杯发布视频,在巴黎捡到名为“秦朗”的小学生的寒假作业,随即被网友转发全网寻找“秦朗”,后遭到质疑根本没有“秦朗”这个人。 没过多久,“点读机女孩”高君雨被曝患上罕见脑癌,父母在她的账号上发布了对抗病魔的过程,却被网友发现是把去年夏天的影像伪装成“现在进行时”。 两件事都经历了高度相似的过程——意外登上热搜,遭到网友质疑,被官媒点名,本人出来回应,热度散去。甚至一度引发公众对于“新黄色新闻”的大讨论,不是一般的上纲上线。 无独有偶,刚结束的两会中,也有很多行业代表都纷纷表示自媒体在散播焦虑,应该加强监管自媒体。正好新一年的清朗专项行动也来了,和去年相比侧重点又有所改变,对自媒体的管控更具体了。 全行业“规范化”的趋势之下,本来就规范的头部们自然是乐见其成,但还在等待从底部飞升至头部的人,又少了一些铤而走险的选项。并且,头部账号个人IP价值越来越重要,MCN的地位开始变得更加尴尬,出事怪到MCN头上,做得好的时候不敢提MCN的名字,2024年MCN还能是一个好生意吗? 制造“狗屁新闻” 自媒体最害怕的几件事之一,莫过于“央媒点名”,而Thurman猫一杯和高君雨都先后碰上了。 央媒对两件事的评价中都有不约而同的说法——博流量不能无底线,不能挑战公序良俗。这点明了两件事的本质,虽然有“虚构”的成分在,但都没有涉及金钱的诈骗诈捐或者割韭菜行为,只是为了“博流量”而做的内容运营。而互联网上每天如此海量的短视频,用“虚构”来博流量是避无可避的,差别只在于有没有被发现而已。 “Thurman猫一杯”视频截图 这两件事能被网友发现、被官媒点名,还有一重非常重要的推力——这次既不是平台也不是MCN——而是很多新闻媒体账号的疯狂转发。这也是为何“新黄色新闻”会成为讨论点。 中国人民大学新闻学讲师董晨宇将它们称之为“狗屁新闻”,它们的特点是用放大镜人为制造的,没有公共价值却占据公共注意力的内容。而之所以“狗屁新闻”开始泛滥,很重要的原因在于一些小型地方媒体会把融媒体账号打包给外包公司运营。如果只报社会新闻,产出不够,所以开始把目光转移到各种网红达人身上发生的事,甚至是媒体公司自编自导的事。 没有哪个网红达人会希望自己做的娱乐化内容,被新闻媒体拿去当作素材使用,通过这种方式“火了”,可能负面效应比正面效应更严重。深耕小红书的MCN摘星阁创始人侃烃告诉小鱼:“我们对博主的内容把控还是挺严格的,出现问题我们也会积极处理。总的来说,博主被新闻媒体关注,真的不算是一件好事。” 于是,当所有网红的动作都被迫“新闻化”,“虚构”可以生存的土壤就越来越稀少,这要求网红越来越尽可能保持真实内容输出。 前段时间的两会上,各行各业代表中也不乏点名自媒体的。比如教育行业的代表说部分自媒体刻意渲染教育竞争情绪,增加教育焦虑,建议完善自媒体平台的审核制度。 以往年的两会报道来看,这并不新鲜,毕竟从自媒体开刀是最显性的提案抓手。“自媒体编造事实-制造焦虑-导致问题严重”是短时间内这个行业一顶怎么都摘不掉的帽子。 结合3月18日网信办发布的2024年“清朗”行动的新部署,其中对于“自媒体”管理的表述和2023年对比有所变化。 2023年时“清朗”强调的是集中整治“自媒体”造谣传谣、假冒仿冒、违规营利等乱象,而到了2024年时“清朗”强调的是集中整治“自媒体”造热点蹭热点制造“信息陷阱”、无底线吸粉引流牟利等问题。肉眼可见的是,对于“虚构”的容忍度越来越低了,过去要达到“传谣”“营利”才整治,如今只要是“信息陷阱”“吸粉引流”就要被整治。 所以,监管趋严的趋势是确定的。只不过,对于本身就规范运营的MCN来说,趋严的监管是乐见其成的。侃烃表示,“规范化对行业来说肯定是正面影响,我们也希望行业越来越正规、正向。” “虚构”的风险 在更早的自媒体环境里,其实“虚构”是合理范畴之内的行为。 不论是哪个赛道的达人,在火了一段时间之后,都会面临长期的内容创作焦虑,担心没有选题、没有新的兴奋点,所以在自己本身的人设上加入一些虚构的内容是顺理成章的。 比如Thurman猫一杯是在法国留学的广东人,日常视频内容都是生活见闻分享,主打一个搞笑。刚开始还可以因为留学生人设聊一些cultural shock之类的选题以吸睛,但长线更新之后,真实生活中当然不是每天都有有趣见闻可以源源不断地供应素材。所以,“虚构”在这一类达人的内容中更倾向于“整活”,它本身也只是起到一个娱乐粉丝的效果,而非挑起一项有公共价值的议题。 “Thurman猫一杯”主页截图 当然,不同赛道面临的风险也不一样。在侃烃看来,“虚构”的内容更多是剧情号的这种情况更多,美妆类的达人较少,“我觉得人设的选择更多的是突出好的向上的一面,把没那么好的选择性的隐藏起来。比如说博主可能感情不顺、事业不顺,但因为是个美妆账号,所以这些生活里不顺的部分我们不会选择在网上分享。” 而对于MCN来说,“虚构”的部分往往又是MCN可以给达人提供的主要内容帮助之一。比如结合个人特征,包装一个在互联网上有潜力的人设。娱乐硬糖就曾提到过有小红书运作“娇妻”人设的博主,其“老公”是公司运作的合约夫妻。基于小红书图文内容为主的特性,比起直播和短视频达人“虚构”内容要更隐蔽。 所以,当“虚构”内容的风险越高,就意味着作为支撑的MCN的风险成本更高,更倾向于保守形式。 要知道,MCN现在和达人之间的关系已经很尴尬了,很多时候一个达人背后有“机构”“团队”的标签,本身就已经在部分观众的眼中算作一种天然的负面印象了,更别提当公关危机出现时还要充当一个“背锅”的角色。比如在高君雨事件被曝光后,其家人在声明中第一时间将欺骗网友的责任都转移到了MCN身上。随后其账号上的MCN认证解除,变回个人。 MCN作为助力的身份正在被弱化,有时甚至可能被视作一种包袱。 达人和MCN,谁高谁低 说到本质上,这里体现的行业问题还是达人和MCN之间的权力关系。 MCN机构蜂群的CEO莫力洋曾在公开场合提到,曾经有过一段时间,MCN话语权很高,因为当时只要资源足够多就可以堆出一个新的达人账号。比如微博鼎盛的时代,靠MCN手中大量的大V不断转发就能起号,马太效应严重。 蜂群ceo莫力洋 但当推荐算法横空出世之后,网红逻辑改变了,“一方面,达人能不能火开始取决于个人魅力,而不是有没有大V帮忙转发推荐;另一方面,入行门槛降低使达人有了数量级增长,客观上降低了行业信息差,因为几乎每个达人都能轻易认识同量级的达人朋友,进而通过互换信息判断合作MCN的优劣。”达人的话语权由此上升。 根据新榜的总结,目前MCN和达人的合作模式可以划分为3种:一是客栈模式,MCN并不强求与达人的长期合作,更强调一定时限内合约的履行;二是服务商模式。MCN更倾向为达人提供直播、投放、拍摄等服务,满足达人的特定需求;三是合伙人模式。这种以自孵化为主,MCN通常会深度参与达人的内容创作和商业变现,并根据双方投入来决定主次。 对于刚入行的新人,MCN大概率会要求第一种;而对于已经火了的头部达人,MCN大概率会被要求成为后两种,比如现在独立成“与辉同行”品牌的董宇辉,就相对接近第三种状态。在这种形势下,不难看出,MCN能提供的核心竞争力很有限。 于是乎,脱离MCN自己成立工作室成为了很多新生代达人的选择。侃烃也提到了这一趋势,“一个是想做自媒体的人越来越多,竞争激烈,一个是很多人认为自己不需要mcn,所以签约和续约达人都比以前困难了。” 尤其是对于已经有一定粉丝基础的头部、腰部达人来说,工作室的性价比很可能比MCN更高,侃烃表示,“有独立能力的达人,可以花钱去请助理,然后自己有累积一些品牌资源。那么对他来说,分给机构的钱完全足够他请好多个助理。从性价比上来说,他可能就会选择独立。” 所剩不多的价值中,少数头部MCN机构有机会拥有自己的厂牌概念,可以据此利用品牌效应延续竞争力。莫力洋曾提到,像“抖音美女千千万,无忧传媒占一半”“蜂群是最有网感、最能整活的MCN”这样的标签,对于达人来说都是一种实力和定位的展示。 而余下机构,或许只能是在持续的规范化运作中,在行业里留下相对好的信誉,以此作为打动达人为数不多的砝码。 “如果从现在才开始做,MCN肯定不算是一个很好的生意了。”侃烃表示,“除非像我们做的比较久的,还是很认可这个生意带来的资源,也很适合当作其他创业方向的跳板,比如同行有做成广告公司或者品牌供应商的。” 当然,即便抛开最新的形势,也有观点认为MCN从过去到未来一直都不是一门好生意。互联网怪盗团就曾经下过这样的判断,因为它面临的道路仅有两条:要么从来孵化不出一个顶级KOL,也就无法做大规模、真正交出让资本市场满意的答卷;要么孵化出了一个顶级KOL,然后不可避免地产生利益分配问题,最终选择退让或者干脆被对方单飞。这方面最贴切的案例莫过于去年最火的董宇辉。 人说“有趣的灵魂万里挑一”,在过去这“万里挑一”可能还是MCN给你“虚构”出来的。如今不能“虚构”之后,要做红人可能要在“万里挑一”里再“万里挑一”。
TikTok首席执行官周受资:退出美国,商家上火
刚刚经历了印尼市场的过山车,Tiktok又迎来了国际市场的第二击,美国投票透过之后,留给Tiktok的时间不多了。 但是Tiktok首席执行官周受资:经内部评估,不打算接受TikTok被收购。准备退出美国市场。 随后网传张一鸣发话:希望看到Tiktok体面退出美国市场。接下来就是拥有TikTok60%的股份的美资股东如何和国家机器博弈。 那么Tiktok美国市场到底有多重要? 去年在美国的营业额高达160亿美元,全球1200亿。这主要得益于它在美国的运营规模的快速扩张,尽管美国国会正在迫使TikTok的母公司字节跳动放弃对TikTok的控制权。 如果单从销售业绩来看,字节跳动公司很快就将超越Facebook的母公司Meta,成为全球最大的社交媒体。 字节跳动公司去年营收高达1200亿美元,同比增幅40%。其中在很大程度得益于TikTok美国业务的快速成长。不过字节跳动公司主要收入来源还是中国国内市场。对比Meta去年营收1350亿美元,同比上涨16%。 对比和Facebook母公司的营收,你会发现,Facebook成立于2004年,去年营收1350亿;Tiktok一个成立于2017年,2018年才刚刚进入美国市场。去年美国应收160亿美元,全球1200亿美元。 Tiktok对美国人有多重要? 居住在德州的连续创业者格雷格·巴斯汀(Greg Bastin)在新冠疫情居家期间迷上了TikTok。在那之前,他很少沉迷手机上的社交软件,而是更喜欢出门社交,进行户外运动。 “它的算法向我展示了比其他平台更有趣、更吸引人的视频。其他平台的算法还不够好。TIkTok有一种更好的方法来给我看我真正想看的个性化视频,不需要我输入任何搜索词,”他告诉记者。 巴斯汀最近创立了名为Oats Day的食物品牌,并开始联系TikTok上的网红进行营销。“我计划利用 TikTok上的博主来帮助营销我的产品,因为我知道可以在这个平台上用实惠的价格创造娱乐性的内容,成为增加销量的有效方式。”他说。 根据市场情报机构 Sensor Tower 的数据,TikTok 是 2023 年美国下载量最大的社交媒体应用,达到 4700 万次。美国用户17亿。 同时,Facebook 和 Instagram 分别以 3500 万和 3400 万的下载量位居第二和第三位。 卖家正在大力促销,做好最后的准备: “不敢再备货了,万一政策一出,退出来了,货可是不好退回的,那就砸进去了!”一Tiktok大卖这样对Andy说。 “目前的风险,我们觉得还是非常大的,不建议这个时候入场,观察观察再说吧”,一供应链管理公司CEO给Andy留言。 "我们货盘正在全面降价促销,争取退出前促销完毕” 大卖们已经开始闻风而动了,这场飓风不知道将会如何收场,我们继续密切关注。
雷声大雨点小!星巴克新品没有水花?
昨晚,星巴克在上海烘焙工坊举办了星巴克高级尊享晚宴,创始人霍华德·舒尔茨亲临现场,同时也邀请了不少明星到场参加晚宴,为今日上线的意榄朵系列进行宣传推广。 自去年星巴克在意大利发布橄榄油系列咖啡以来,霍华德不止一次地对媒体讲述过关于该系列的灵感碰撞,也一再表示这是他自己认为的咖啡3.0的代表作,也许会成为星巴克历史上一款具有里程碑意义的咖啡产品。 而从这次上海烘焙工坊首次举办高级晚宴的大阵仗来看,星巴克以及它的创始人都对橄榄油咖啡进入中国市场相当上心,企图利用明星效应来增加产品的关注度,让更多人愿意主动尝试这款“划时代”的咖啡饮品。 有一说一,昨晚的星巴克晚宴的确让不少网友注意到了意榄朵系列,可或许是因为橄榄油咖啡在国外的名声不算好,今日社交平台上勇于尝试这次新品的消费者人数相比之前少了很多,更多人目前处于观望状态,希望能得到更多的产品反馈再决定是否购买尝试。 而中国咖啡市场中的“上新王者”的瑞幸,近期也是陷入到新品滑铁卢中。这周瑞幸推出黄山毛峰拿铁,将中国名茶之一黄山毛峰和咖啡结合推出的茶咖。上新后瑞幸粉丝们下单尝试,失望至极。 “瑞幸黄山毛峰拿铁你多少有点歹毒了…”,“这个新品可能是用来赶客对抗瑞幸3.1的”,“根本不知道怎么形容这个味 一股子苦茶味 是喝过最难喝的咖啡”,“让我面露难色的咖啡”,“年度最怪味了吧!?”。 连锁咖啡品牌为获得更多消费者的青睐,迎合市场喜好不断推陈出新,用各式各样的咖啡新品去捕捉喜欢新鲜感的消费者,但接连推出的新品让部分消费者产生类似审美疲劳的抵触,看到诸如橄榄油这种超出自己理解范畴的新品反而没有尝新的想法。 也有人认为现在咖啡品牌的研发过于内卷,新产品给人一种不顾消费者味觉的死活的感觉,仿佛是为了不让消费者喜新厌旧而不间断地出新品,却忽视了饮品成分、口感、味道等等是否符合现在消费者的喜好,以至于不少人认为近期的新品似乎掺杂了几分为上新而研发的敷衍。 有网友建议,咖啡连锁品牌与其制作一些引人注目但实际很难喝的新品,不如考虑让已经下架但市场反馈良好的产品回归菜单,用一波“回忆杀”维护品牌忠实粉丝。这样对品牌方而言也有更充足的时间去研发符合消费者口味的新品。
台积电战略大调整,弃28nm,大扩产
前言: 根据公开数据显示,台积电在2023年面临了挑战,其产能利用率下降至约80%,同时营收也有所减少。 然而,随着2024年的到来,台积电迎来了转机。由于AI芯片需求的迅猛增长,台积电已成功获得了大量订单,并实现了产能的全面利用。 作者 | 方文三 图片来源 | 网 络 财报创新高,产能拉满 台积电近日发布了2024年2月的财务报告,报告显示,合并营收约为1,816.48亿元,相较于1月份下滑了15.8%,但与2023年同期相比,增长了11.3%,并创下了历年单月同期的新高纪录。 从累计数据看,2024年1至2月的营收约为3,974.33亿元,较2023年同期增长了9.4%,同样创下了同期新高。 尽管与2023年相比,台积电的业绩有所下滑,但预计2024年将是其健康成长的一年。 这主要得益于其领先的3nm技术持续强劲发展,市场对5nm技术的强烈需求,以及AI相关需求的持续增长。 在摆脱了急剧的库存调整和2023年的低基准后,台积电预计2024年半导体市场将增长超过10%,而晶圆制造产业则预期增长约20%。 凭借其在技术领域的领先地位和广泛的客户基础,台积电预计在2024年将实现逐季增长。 摩根士丹利在最新的台积电个股报告中指出,随着订单的增加和晶圆价格有望改善,他们已将台积电2024年至2026年的EPS预估上调了2%至3%,并将目标价上调至850元。 台积电凭借其在人工智能领域的持续乐观情绪和股价上涨,再次跻身全球十大最有价值公司之列。 摩根士丹利分析师Charlie Chan在3月7日的报告中指出,生成式AI半导体是台积电明显的增长动力。 今年1-2月,台积电营收增长9.4%,这主要得益于人工智能对高端芯片的需求,从而抵消了iPhone销售放缓的潜在影响。 因此,一些券商如摩根士丹利和摩根大通最近将该股目标价提高了约10%。 今1月,魏哲家在台积电法说会上谈及先进封装议题时指出,AI芯片先进封装需求持续强劲,目前情况仍是产能无法应对客户强劲需求,供不应求状况可能延续到2025年。 高端芯片产能,大客户抢购 随着市场对AI处理器需求的持续增长,英伟达在台积电收入中的占比有望在2024年进一步提升,这主要得益于该公司已预订的3nm制程技术和CoWoS封装产能。 今年,AMD在台积电收入中的份额也有望达到10%,这主要归因于其面向数据中心的EPYC处理器销量的增加,以及AI和HPC领域对Instinct MI300系列GPU的强劲需求。 英伟达的新品H200和AMD的MI300预计将为台积电的3nm制程带来大量订单。 此外,英特尔下一代低功耗架构Lunar Lake MX(LNL)CPU将采用台积电的N3B制程,而Arrow Lake H/HX的CPU也将采用3nm制程,这有望进一步提升台积电的产能利用率。 据Dan Nystedt估计,2023年,苹果公司占台积电收入的25%,并向台积电支付了175.2亿美元。 与此同时,英伟达向台积电支付了77.3亿美元,占其2023年收入的11%。 索尼对未来车用和消费类电子市场持乐观态度,并计划大量采用台积电22nm制程生产CIS和图像信号处理器(ISP)芯片。 据The Elec的最新报告,台积电3nm工艺预计在今年晚些时候达到80%的产能,这主要得益于苹果、英伟达、AMD、高通和联发科等客户对第二代3nm工艺产能的需求。 因此,2024年的台积电成功获得了所有旗舰手机芯片的生产订单,包括高通的骁龙系列、联发科产品以及苹果公司的高端芯片。 台积电还计划于2025年量产2nm工艺,并已取得苹果、英特尔等客户的首批产能预定。 为了满足客户群庞大的需求,台积电已规划在宝山四期和高雄既有规划外进行第三期扩充。 从台积电客户群的产品蓝图和趋势来看,业界普遍认为,除了苹果外,其他专注于高速运算和AI相关应用的客户也愿意采用新架构的2nm制程。 这有望重演过去3nm首批产能的局面,进一步巩固台积电在全球半导体市场的领先地位。 选择冲刺2nm,有多重考量 从当前形势来看,台积电已深刻认识到其核心竞争力在于先进制程技术。 因此,有消息传出,台积电已决定放弃此前计划的7nm制程和28nm制程扩建项目。 此举的原因在于,当前成熟工艺领域的竞争异常激烈,尤其是在中国大陆地区,芯片产能大幅提升。 据力积电CEO表示,为避免与中国大陆晶圆厂陷入价格战,力积电已决定逐步退出面板驱动IC及传感器领域。 这一决策在业内人士看来并不意外,因为从台积电2023年公开数据来看,7nm制程的订单数量已大幅减少。 而7nm制程曾是台积电的重要营收来源,其订单减少也促使台积电作出了取消7nm制程工厂计划的决策。 公开数据显示,目前国内芯片工厂数量已达到42座,并预计在2024年新增17座晶圆厂,主要以28nm制程为主。 中芯国际、华虹半导体等厂商在成熟制程芯片领域深耕已久,其在产能、市场份额和成本等方面均表现出色。 据估计,目前中国芯在成熟制程芯片市场的份额已达到约27%,并呈持续上涨趋势,预计到2030年前后将达到25%。 2nm工艺作为当前芯片制造技术的尖端领域,已成为各大厂商竞相追求的目标。 英特尔和三星已明确表态将在今年实现2nm工艺的突破,台积电亦不甘落后,积极寻求在此领域的突破。 目前2nm工艺的研发进展已超越美国工厂的3nm,台积电预计将在2024年第四季度进行2nm芯片试生产,2025年第二季度开始大规模量产。 首个客户依然是苹果,随后英特尔、高通、英伟达、AMD等其他美国企业也将跟进。 在此情况下,台积电3-5nm产能已达到全年满载,先进制程对营收的贡献占比迅速提升。 大扩产的一年,计划全球建厂 近日,台积电透露,已从中国大陆和日本获得显著补贴,并计划从美国和德国进一步获得芯片补贴。 这一动向显示,台积电正受到全球多地的积极拉拢以投资建厂。 从台积电在日本熊本县的晶圆厂建设项目来看,日本提供的补贴金额高达4760亿日元,占项目总投资的40%,这构成了台积电补贴增长的主要部分。 同时,台积电在德国建厂项目也基本敲定,德国计划向台积电提供50亿欧元的补贴。 受此影响,有消息称美国方面的补贴进程也在加快。 台积电在美国建设的两个晶圆厂的投资额已增至400亿美元,近期有消息显示,美国可能会向台积电提供50亿美元的补贴。 然而,值得注意的是,台积电在美国建厂可能会受到更多的限制,这可能对公司的未来发展产生不利影响。 台积电已经启动了2nm试产的前期工作,并计划采用最先进的AI系统提高试产效率。公司计划今年试产近千片,并在试产成功后将技术导入竹科宝山Fab 20厂。 此外,台积电在日本新建的熊本厂也获得了重要订单。全球CIS图像传感器领先企业索尼已向台积电熊本厂下单。 最近还有消息称,台积电计划在嘉义科学园区建设新的先进封装厂,当地将为该园区拨出六座新厂用地,总投资额预计超过5000亿元新台币。 这一举措旨在扩大CoWoS先进封装产能,以满足全球对先进封装技术的强劲需求。 台积电已设定了提高先进封装能力的目标。预计到2024年底,台积电CoWoS封装的产能将达到每月3.2万片,到2025年底将增加至4.4万片。 结尾: 摩根大通分析师Gokul Hariharan预测,到2027年,与人工智能相关的营收将激增至25%。 得益于紧密集成的封装技术、领先的工艺技术以及广泛的客户生态系统,台积电在AI半导体领域的竞争优势似乎比以往更加明显。 部分资料参考:投资界:《台积电和华为发力,三星遭暴击》,李姐伴读:《台积电产能全线拉满,中芯国际也没想到,反转来得如此之快》,半导体行业观察:《台积电,被高估了》,科创板日报:《台积电重返全球企业市值榜前十:还能跟着英伟达疯多久?》,雷科技:《芯片代工营收排行榜公布:台积电独占六成,狂揽近200亿美元》
消息称苹果研究人员正探索免唤醒词呼叫Siri,用AI聆听取代
IT之家 3 月 24 日消息,据《麻省理工科技评论》报道,当地时间周五(22)日发表的一篇论文显示,苹果公司的研究人员正在探索利用人工智能来检测用户何时在与 iPhone 等设备交谈的可能性,从而消除像“Siri”这样的触发短语的技术需求。 在这项上传到 Arxiv 且未经同行评审的研究中,研究人员使用智能手机捕获的语音以及来自背景噪音的声学数据,训练了一个大型语言模型,以寻找“可能表明用户需要设备辅助”的模式。 论文中称,该模型部分基于 OpenAI 的 GPT-2 构建,因为它相对轻量级,可以在智能手机等设备上运行。论文还描述了用于训练模型的超过 129 小时的数据、额外的文本数据,但没有说明训练集的录音来源。据领英个人资料,七位作者中有六位列出他们的隶属关系为苹果公司,其中三人在苹果 Siri 团队工作。 论文最终得出的结论“令人鼓舞”,声称该模型能够比纯音频或纯文本模型做出更准确的预测,并且随着模型规模的扩大而进一步改进。 IT之家提醒:目前,Siri 的功能是通过保留少量音频来实现的,听到“嘿,Siri”等触发短语之前,不会开始录制或准备回答用户提示。 斯坦福人类中心人工智能研究所的隐私和数据政策研究员詹・金表示,取消“嘿,Siri”提示可能会增加对设备“始终监听”的担忧。
1秒生成高质量3D形状,英伟达LATTE3D模型来了!现场演示效果惊艳
作者 | ZeR0 编辑 | 漠影 智东西3月24日报道,在本周举行的英伟达GTC大会期间,英伟达(NVIDIA)首席科学家兼研究高级副总裁Bill Dally、英伟达AI研究副总裁Sanja Fidler与智东西等全球媒体进行交流,分享了NVIDIA Research的进展,并现场演示英伟达最新文生3D模型LATTE3D。 LATTE3D模型就像一台虚拟3D打印机。只需在文本框输入文字描述,在单张消费级GPU上运行,不到1秒时间,该模型就能按要求生成对应的物体和动物的几个不同的3D形状,供创建者选择,再在几分钟内优化成更高的质量。而3D形状可以随意放大、旋转,360度无死角。 “一年前,AI模型需要1小时才能生成这种质量的3D视觉效果,而目前的技术水平大约是10到12秒。”Sanja Fidler说。 现场演示了让LATTE3D生成小蛋糕、猪猪气球、踩滑板且戴着高帽子的针织鸭、踩着滑雪板并戴着聚会帽的小兔子。全程都很丝滑迅速,接近实时生成。生成的3D素材能直接导入图形软件应用程序或平台中,比如Omniverse平台。 对于开发视频游戏、广告活动、设计项目或虚拟机器人训练场地等应用来说,这都是个看起来很有吸引力的3D素材创建工具。 Bill Dally说,NVIDIA Research为未来的成功播下种子,既有登月项目,又有很多研究小组,研究方向包括GPU存储系统、编程系统、网络、架构、超大规模集成电路(VLSI)、图形、感知与学习等。这些研究塑造了英伟达的与众不同。 据Bill Dally分享,NVIDIA Research团队有三个原则:1、希望以最少的努力获得最大的回报;2、提高影响力,而不是出版物记录;3、希望与产品保持紧密的联系。 NVIDIA Research由全球数百名科学家和工程师组成,专注于AI、计算机图形学、计算机视觉、自动驾驶汽车和机器人等主题。很多源自研究院的技术,如OptiX、CuDNN、光线追踪算法和硬件、Volta SM、Flip-Flops、NVSwitch、DLSS等,都成功转化成商业用途。 其研究团队分布在世界各地。面向3D生成式AI模型的新模型LATTE3D便是由英伟达位于加拿大多伦多的AI实验室团队研发的。该团队还研发过GANverse3D、GET3D、Magic3D、ASE、GameGAN、VideoLDM等模型。 LATTE3D使用英伟达A100 GPU进行训练,模型先生成神经3D形状,然后用图像扩散模型作为老师来对渲染图像进行反馈。除了3D形状外,该模型还接受了使用ChatGPT生成的各种文本提示词的训练,以提高模型处理用户描述特定3D对象的各种短语的能力。比如,它能理解以各种犬类为特征的提示应该都生成类似狗的形状。 当研究人员在特定的动物和日常用品数据集上训练LATTE3D时,开发人员可使用相同的模型架构在其他数据类型上训练AI。 例如,如果在3D植物数据集上进行训练,LATTE3D可帮助景观设计师在与客户进行头脑风暴时快速填充树木,开花灌木和多肉植物的花园渲染。如果对家用物品进行训练,该模型可以生成物品来填充家庭场景的3D模拟,开发人员可以用它来训练个人助理机器人,然后再在现实世界中进行测试和部署。
Transformer框架论文作者:AI行业被困在了六七年前的原型上
作者|Steven Levy 译者|核子可乐 策划|冬梅 编者按: 3 月 21 日,GTC AI 大会,黄仁勋对话 7 位 Transformer 框架论文作者。他们认为,AI 行业被困在了六七年前的原型上,这个世界需要更好的模型。 “我认为世界需要比 Transformer 更好的东西。我觉得现在与六七年前的情况相似。”“所以尽管原始模型可能不是现在可拥有的最强大的东西,但我们仍然固守在原来的模型上。” Transformer 架构的诞生源于自然语言处理(NLP)领域的迫切需求。在过去,传统的循环神经网络(RNN)和卷积神经网络(CNN)在处理序列数据时面临一些挑战。RNN 虽然能够捕捉序列中的依赖关系,但由于其顺序处理的方式,导致计算效率低下,并且难以处理长距离依赖。而 CNN 虽然可以并行计算,但在处理变长序列时不够灵活。 为了克服这些挑战,2017 年,谷歌的 8 名研究人员联合发表了名为《你所需要的是注意力》(Attention Is All You Need)的论文,并在这篇论文中提出了 Transformer 架构,它能真正地解决 RNN 和 CNN 在处理序列数据时存在的问题。 Transformer 采用了自注意力机制(Self-Attention Mechanism),使得模型能够同时关注序列中的所有位置,从而捕捉长距离依赖关系。此外,Transformer 还采用了多头注意力(Multi-Head Attention)和位置编码(Positional Encoding)等技术,进一步提高了模型的性能。这项具有划时代意义的技术变革彻底改变了技术发展路径。技术背后,这 8 位一同提出该理论的研究人员有的已经离开了谷歌,有的已经创办了自己的公司或是加入了新团队。 近日,国外知名杂志《连线》的资深编辑史蒂文·利维(Steven Levy)近期撰写了一篇文章,为我们揭秘了 Transformer 架构诞生背后的故事。 以下为翻译全文: 他们偶然相遇,迷上了共同的探索目标,最终设计出近代历史上最具突破性的关键技术——Transformers。 1Transformer 架构的诞生 2018 年春季发表的一篇科学论文《Attention Is All You Need》共有八位作者,他们都是来自谷歌的研究人员,不过当时其中一人已经离开了公司。而最资深的贡献者 Noam Shazeer 手捧文章初稿却颇感讶异,因为他的名字出现在了第一位。面对各位合作伙伴对自己贡献的肯定,他坦言“我实在没有想到”。 NOAM SHAZEER,Character AI 公司联合创始人兼 CEO 论文作者的姓名排序其实很有讲究,谁在前谁在后可谓相当重要。特别是在这篇奠定了现代 AI 的关键文章中,每位参与者都凭借自己的努力给整个科技史竖起不朽的丰碑。而在论文终于定稿之后,大家决定“颠覆”按贡献度排名的惯例,添加标注强调每位作者都做出了“彼此相当的贡献,排名不分先后”。文章在截止日期前被发给知名 AI 会议,并旋即引发了如今人们耳熟能详的这场技术革命。 值此七周年之际,这篇论文已经拥有了传奇般的历史地位。作者们从神经网络这项蓬勃发展且不断改进的技术入手,打造出一套极为强大的数字系统,该系统的输出就如同是外星智能的产物。这种架构被命名为 Transformer,是当今一切令人兴奋的 AI 产品背后的秘密武器,其中也包括 ChatGPT、Dall-E 和 Midjourney 等重量级成果。Shazeer 开玩笑说,早知道这篇文章会拥有这样的份量,那当初就该“认真考虑一下作者排序”。现在这八位作者都成了技术圈的名人,在文章署名中位列第五的 Llion Jones 表示“现在会有人要求跟我合影,就是因为我是论文的作者之一!” Llion Jones,SAKANA AI 公司联合创始人 虽然并非论文作者,但身为全球最知名的 AI 科学家之一,Geoffrey Hinton 表示“如果没有 transformers,我觉得 AI 技术不可能达到目前的高度。”在他看来,我们生活在一个翻天覆地的新时代,OpenAI 等厂商构建起的系统在很多方面几乎可与人类比肩,有时甚至已经成功超越了人类。 文章发表之后,这八位作者先后离开了谷歌。与其他数百万科技从业者一样,他们仍在以某种方式使用自己在 2017 年创造的成果开发更多 AI 系统。我有幸与这位八位 transformers 元老面对面交流,希望拼凑出那个开天辟地的重要时刻,了解他们如何依托人类的思维创造出拓展未来的智能机器。 Jakob Uszkoreit,Inceptive 公司联合创始人兼 CEO Transformers 的故事,始于八位署名作者中的第四人:Jakob Uszkoreit。 Uszkoreit 的父亲是著名计算语言学家 Hans Uszkoreit。上世纪 70 年代末,Hans 还是一名高中生,并因为抗议苏联入侵捷克斯洛伐克而在祖国东德被判监禁 15 个月。获悉之后他逃往西德,在柏林学习计算机和语言学。Jakob 出生时他们举家迁往美国,在位于加利福尼亚州门洛帕克一家研究机构 SRI 的 AI 实验室工作。后来他们全家又迁回德国,Jakob 也在那里接受了大学教育。 Jakob 对于语言学兴趣不大,并在研究生阶段前往谷歌位于山景城的总部实习,并加入该公司的翻译小组。看来 Uszkoreit 家的人终究摆脱不了语言这个体系。在放弃继续攻读博士学位后,Jakob 于 2012 年加入了谷歌的一支系统开发团队,其目标就是搜索页面内容并直接回答用户提问,避免再跳转至其他页面。当时苹果刚刚推出了 Siri,这是一款虚拟助手,号称能在自然顺畅的对话中直接给出答案。谷歌高层从中嗅到了巨大的竞争威胁:Siri 可能会吞噬他们的搜索流量。也正因为如此,Uszkoreit 所在的这支新团队开始受到重视。 Uszkoreit 表示,“这种恐慌实在没有必要。”Siri 从未真正威胁过谷歌,但他很高兴能有机会深入研究计算机与人类话语之间的神秘联系。当时,曾经如一潭死水般的循环神经网络突然开始超越其他 AI 工程学方法。这类网络由多个层组成,信息在各层之间不断传递以识别最佳响应。神经网络在图像识别等领域取得了巨大胜利,AI 技术的复兴也在一夜之间成为现实。于是谷歌疯狂调整员工队伍以应用这些技术,并希望系统能够生成与人类相当的响应能力——包括自动补全电子邮件中的句子,或者创建出相对简单的客服聊天机器人。 但这个方向很快就走进了死胡同。循环神经网络很难解析较长的文本片段。我们以这样一段话为例,“Joe 是名棒球运动员,在吃了一顿丰盛的早餐后,他去球场并打出了两记安打。”要想理解“两记安打”,语言模型必须记住前面“Joe 是名棒球运动员”的部分。如果按人类的语言处理习惯讲,那就是需要在这里集中注意力。当时公认的解决方案是所谓“长短期记忆”(LSTM),这种技术创新允许语言模型处理更大、更复杂的文本序列。但计算机仍会严格按照顺序处理这些序列(也就是按序排列的单词),且往往无法把握段中稍后可能出现的上下文线索。Uszkoreit 解释称,“当时使用的方法就像是创可贴,基于是在缝缝补补,没办法理解能够真正发挥规模化作用的正确素材。” 于是 2014 年左右,他开始研究一种前所未有的方法,并将其称为自注意力(self-attention)机制。这种网络可以引用段落内的任意其他部分来理解单词含义,这些其他部分将作为上下文以阐明单词意图并帮助系统输出更优质的翻译结果。他指出,“这实际上是在通盘思考,并提供一种行之有效的方法,可以同时关注多条输入,再以有选择性的方式提取出某些内容。”尽管 AI 科学家们一直谨慎行事,不希望把“神经网络”的表述跟生物学大脑的实际工作方式相混淆,但 Uszkoreit 却信心满满,似乎认定自注意力与人类的语言处理方式确有共性。 Uszkoreit 认为自注意力模型应该比循环神经网络更快、更高效。它处理信息的方式也更适合那些为支持机器学习热潮而大量产出的并行处理芯片。自注意力模型不再使用线性方法(按固定顺序查看各个单词),转而选择了并行方法(一次观察一大堆单词)。Uszkoreit 怀疑,只要操作得当,单凭自注意力就能带来更好的文字理解和生成效果。 但当时并不是人人看好这种颠覆性的研究方向,包括 Uszkoreit 的父亲。就在儿子为谷歌工作的几年中,老 Hans 拿下了两项谷歌学院研究奖。Jakob Uszkoreit 回忆道,“当时人们普通对此感到惊讶,因为它抛弃了一切原有神经架构。”放弃循环神经网络?这简直是异端!“从我跟父亲在餐桌上的沟通结果来看,咱们爷俩的观点着实是大相径庭。” 但 Uszkoreit 还是成功说服了几位同事参与自注意力实验。初步工作带来了希望,于是他们在 2016 年发表了一篇相关论文。Uszkoreit 希望进一步推动研究,毕竟初期的团队实验只使用到数量极小的文本,但合作者们纷纷表示没有兴趣。就如同普通玩家赚点小钱就想离开赌桌一样,首批合作者开始尝试把这些初步发现转化成应用成果。Jakob 指出,“自注意力确实能行。那篇论文的研究人员也对获取回报,并将成果部署在谷歌各个业务领域的前景感到兴奋,包括搜索乃至广告等。从种种方面来看,这都是一场惊人的成功,但我并不想就此止步。” 在 Uszkoreit 看来,自注意力完全可以做得更多、更好。于是他开始向所有感兴趣和不感兴趣的同事推销自己的理论,并在园区内 1945 号楼的白板上详尽阐述了自己的技术愿景。 Illia Polosukhin,NEAR 公司联合创始人 2016 年的一天,Uszkoreit 和一位名叫 Illia Polosukhin 的科学家在谷歌园区的咖啡馆里共进午餐。Polosukhin 出生于乌克兰,已经在谷歌工作了快三年。他被分配到了一支专项团队,探索如何在搜索字段中直接就查询问题给出答案。当时项目进展得不太顺利。Polosukhin 表示,“要在 Google.com 上直接回答问题,相应的底层技术必须性能超高且成本低廉,毕竟整个回答窗口就只有几毫秒。”就在 Polosukhin 发泄着满腹牢骚时,Uszkoreit 毫不犹豫地给出了解决办法,“他建议说,为什么不试试自注意力呢?” 当时,Polosukhin 经常一位名叫 Ashish Vaswani 的同事合作。Vaswani 出生于印度,但成长阶段主要生活在中东,曾经前往南加州大学求学,并在校内的精英机器翻译小组中拿下了博士学位。之后他搬到山景城并加入了谷歌,成为“Google Brain”新部门的一员。根据他的描述,Google Brain 是一个“激进派团体”,坚信“神经网络将更新人类的理解方式”。但他的野心不止于此,希望参与到更宏大的项目当中。他的团队在 1965 号楼,跟 Polosukhin 语言团队所在的 1945 号楼相邻。在听说了自注意力技术之后,他马上表现出兴趣并同意放手一试。 Ashish Vaswani,Essential AI 公司联合创始人兼 CEO 三位研究人员共同起草了一份名为《Transformers:迭代自注意力与多种任务处理(Transformers: Iterative Self-Attention and Processing for Various Tasks)》的设计文件。 Uszkoreit 指出,大家之所以在起步阶段选择了“transformers”这个名字,是因为此项机制能够转变接收到的信息,让系统尽可能从中提取更多理解信息,或者至少要实现类似于理解的效果。此外,Uszkoreit 还记得孩童时代把玩孩之宝“变形金刚”玩具的美好时光,其原词正是 transformers。“我小时候就有两个变形金刚玩具”,所以文件最后选择以六位变形金刚角色在山间相互开炮的图片收尾。 抱着满满的自信,作者们在文章开头写下了有些狂妄的序言:“我们太牛了。” 2017 年初,Polosukhin 离开谷歌创办了自己的公司。但与此同时,新的合作者也陆续加入。一位名叫 Niki Parmar 的印度工程师当时刚刚移居美国,此前在某美国软件公司的印度分部工作。她于 2015 年获得南加州大学硕士学位,还收到多家科技企业的录用函。她最终选择了谷歌,并在入职后马上参与 Uszkoreit 团队,致力于研究如何利用模型变体改进谷歌搜索服务。 Niki Parmar,Essential AI 公司联合创始人 另一位新成员则是 Llion Jones。他在威尔士出生长大,而且热爱计算机那种“非常规”的运行逻辑。他在伯明翰大学学习 AI 课程,并将自己一以贯之的好奇心倾注在了神经网络身上。他于 2009 年 7 月拿下硕士学位,但在经济危机期间找不到工作,所以几个月间只能靠救济金生活。他曾在当地一家公司找到过工作,之后靠着半申请半恳求的方式拿到了谷歌的录用资格。他随后加入谷歌研究院,顶头上司正是 Polosukhin。有一天,Jones 从一位名叫 Mat Kelcey 的同事那听说了自注意力的概念,并随后加入 transformers 团队。(后来 Jones 又认真向 Kelcey 介绍过 transformers 项目,但对方并不买账。Kelcey 回忆道,「我也不确定这到底能不能行,而这可谓是我一生中最大的错误判断。」 Transformers 项目也吸引到了其他正尝试改进大语言模型的 Google Brain 研究人员。第三波参与者包括波兰出生的理论计算机科学家 Lukasz Kaiser 和他的实习生 Aidan Gomez。Gomez 出生于加拿大安大略省的一处小农庄,每年春天他的家人都在当地采摘枫树糖浆。在多伦多大学读在三时,他“深深迷上”了 AI,并加入 Geoffrey Hinton 实验室的机器学习小组。他开始主动联系谷歌那些发表过有趣论文的员工,申请帮助对方扩展研究范围。Kaiser 回应了他的请求并邀请他参加实习。但直到几个月后,Gomez 才意识到这些实习岗本来是面向博士生的,压根不该对他这样的本科生开放。 Kaiser 和 Gomez 很快意识到,自注意力对于他们正尝试解决的问题来说,似乎确实是种前途光明、也更为激进的解决方案。Gomez 表示,“我们当时还就是否应该合并这两个项目进行过深入对话”,并最终决定合二为一。 当时 Transformer 团队正着手开发一套自注意力模型,希望将文本从一种语言翻译成另一种语言。他们使用名为 BLEU 的基准测试来衡量其性能,本质上就是把机器输出结果与人工翻译内容进行比较。而且从起步阶段,他们的新模型就表现良好。Uszkoreit 回忆称,“也就是说,我们终于从连概念验证都没有,迅速推进到了与最强 LSTM 相当的程度。”但他也承认与这种长短期记忆方案相比,自注意力模型“也没能做得更好”。 2团队进入平台期,新队友成为了破局关键 团队由此进入了平台期,直到 2018 年的一天,Noam Shazeer 偶然听说了他们的项目。Shazeer 是谷歌公司的资深员工(早在 2000 年就加入谷歌),并凭借对谷歌早期广告系统的贡献而成为公司内的传奇人物。Shazeer 研究深度学习已经有五年之久,最近开始对大语言模型产生了兴趣。但这些模型距离他所期待的流畅开展对话还差得很远。 据 Shazeer 回忆,当时他穿过 1965 号楼的一条走廊里,正好经过 Kaiser 的工作区。他被那里激烈的讨论声所吸引,“我记得 Ashish 正在讨论该如何使用自注意力,Niki 对此非常兴奋。我突然想到,这似乎是个好主意,这群有趣且聪明的员工正在做未来可期的探索。”再加上原先的循环神经网络实在“令人恼火”,所以 Shazeer 决定“那咱们就试试自注意力!” Shazeer 的加入至关重要。Uszkoreit 表示,“像自注意力这样的纯理论或者直觉机制,在实际部署时往往需要非常认真的规划,而这种能力只掌握在少数经验丰富的「魔术师」手中。这不是技术,而更像是种艺术。”Shazeer 立刻开始施展他的魔法,决定编写自己的 Transformer 项目代码版本。他表示,“我保留了他们的基本思路,然后按自己的理解完成了开发。”他偶尔会向 Kaiser 提几个问题,但大多数情况下,他“只是默默开发一段时间,然后回头检查能不能起效。”用团队成员们的话来说,凭借着一系列“神奇”且“令人眼花缭乱”的操作,Shazeer 成功把系统提升到了新的水平。 Gomez 指出,“于是冲刺阶段终于到了。”每个人都充满动力,希望能在 5 月 19 日全球最大的 AI 盛会、也就是计划于 12 月召开的神经信息处理系统大会的论文投递截止日期之前,把自己的心血提交上去。随着硅谷送走寒冬、迎来暖春,实验的步伐也一再加快。他们测试了两种 Transformer 模型:其一只经过 12 个小时的训练,另一种更强大的 Big 版本则接受了为期三天半的训练。其功能非常简单:尝试将英语内容翻译成德语。 这套基础模型的表现优于全部竞争对手,Big 在 BLEU 测试中的得分直接打破了原有纪录,且计算效率也有提升。Parmar 指出,“我们的总耗时比其他人都少,而且这还只是开始,后续的性能测试又带来一个个破纪录的分数。”在听到这个消息后,Uszkoreit 打开了自己收藏多年的一瓶香槟。 投入截止日期前最后两周是段疯狂的时光,尽管名义上团队成员们仍在 1945 号楼里办公,但他们已经把大部分时间都花在了 1965 号楼里——理由也很简单,那边咖啡机的出品更好喝。身为实习生的 Gomez 也全身心投入到了这波调试狂潮当中,还为论文制作了可视化图表,“大伙完全就是不眠不休”。当然还有此类项目中常见的消融实验,即把某些部分拆出来,看看余下的部分还能不能继续工作。 Gomez 回忆道,“不同方法和模块间可以构成千千万万种组合,我们得想办法证明哪些有效、哪些无效。唯一的办法就是逐个尝试。为什么模型会表现出某种反直觉的效果?哦,那是因为我们进行正确掩码。好了?那就进行下一步。总之,transformers 中的所有组件都经历过这种节奏极快的迭代试验与输出纠错。”Jones 则补充称,在 Shazeer 那强大实现能力的帮助下,消融实验最终产生了“极简形式的成果,Shazeer 简直是个大法师。” Vaswani 则分享道,有天晚上团队正在写论文,而他因为劳累而瘫倒在了办公室的沙发上。就在盯着沙发后的窗帘时,他被面料上的图案震惊了——在他眼中,这就像一个个突触与神经元。Vaswani 激动地揪过一旁的 Gomez,喊叫着他们的成果将超越传统机器翻译。“最终,就像人脑一样,所有这些模态——包括语音、音频、视觉——都将被统一在单一架构之下。我有一种强烈的预感,我们研究的是真正具有普适性的东西。” 但在谷歌高层,很多人认为 transformers 只是又一个有点亮点的 AI 项目。我询问几位团队成员,他们的老板有没有把他们召集起来介绍项目的最新进展,答案是很少。但 Uszkoreit 对此不以为意,“我们自己知道这可能是件大事,所以我们才急于把论文赶出来,并且在结尾处对后续工作做出了展望。” 而文章结尾的展望也正确宣告了这项技术的前进方向——transformers 模型将应用于几乎所有形式的人类表达。他们写道,“我们对基于注意力的模型的未来前景感到兴奋。我们计划将 transformers 扩展到文本之外的更多输入与输出模态中”,包括研究“图像、音频与视频”。 3给项目取名字,灵感来自一首歌曲 距离投稿截止日期还剩下几天,Uszkoreit 意识到他们需要为论文起个标题。Jones 强调团队已经彻底否决了当时行业公认的最佳实践,特别是 LSTM,同时全面转向注意力机制。正好披头士乐队有首名曲叫《All You Need Is Love》,所以不妨就把文章定名为《Attention Is All You Need》。 Jones 坦言,“我是英国人,所以只花了几秒钟就想到了这个梗。意外的是大家都觉得可以。” 团队成员们继续收集实验结果,一直忙到截止日当天。Parmar 表示,“直到我们提交文章的五分前,英语译法语的得分才刚刚出来。我当时坐在 1965 号楼的小餐吧旁,一行行看着最新的分数。”不到两分钟后,这篇文章就被投递了出去。 与几乎任何一家科技企业一样,谷歌很快就为这项工作申请了临时专利。其目的不是为了阻止其他人使用这些成果,而是出于自我保护的专利组合。(毕竟谷歌一直秉持着「技术进步,谷歌受益」的原则。) 大会评审员的意见很快被发回了 transformer 研究团队这边。Parmar 还记得“一条很积极,一条非常积极,还有一条说「似乎不错」。”总之,文章顺利被接收并入选了论文海报展。 到 12 月份,这篇论文已经引发了广泛轰动。12 月 6 日,团队成员们在长达四个小时的会议上面对着人头攒动的到场科学家。作者们一直聊到声音嘶哑,直到当天晚上 10 点 30 分会议结束时,人们仍留在现场久久不愿离去。Uszkoreit 提到,“于是保安不得不护送我们先行离开。”而对他来说,最值得铭记的时刻可能就是计算机科学家 Sepp Hochreiter 现身会场并高度赞扬这份工作——作为长短期记忆机制的共同发明者,Hochreiter 的赞许就是最高肯定。从这一刻起,transformers 就是 AI 技术储备中最新、最有力的工具。 但 transformers 并没有立刻占领整个世界,甚至在谷歌内部也没有马上普及。Kaiser 回忆道,在论文发表前提下,Shazeer 曾向谷歌高管提议放弃原有搜索索引机制,利用 transformer 训练一套巨大的网络,从根本上改变谷歌的信息组织方式。其实在当时,就连 Kaiser 自己也觉得这个主意太过荒谬。可现在哪怕最保守的观点,也认为这项改革将只是时间问题。 在此期间,一家名叫 OpenAI 的初创公司行动更快,明显占得了先机。在论文发表后不久,OpenAI 公司首席研究员 Ilya Sutskever(他在谷歌工作期间就接触过 transformers 团队)建议科学家 Alex Radford 认真研究这个方向,最终成果就是首款 GPT 产品。正如 OpenAI 公司 CEO Sam Altman 在去年的采访中所言,“在 transformers 论文发表时,我感觉谷歌那边还没有真正意识到它的深远影响。” 公司内部的情况确实更为复杂。Uszkoreit 解释道,“对我们自己来说,transformers 显然可以发挥一些神奇的功效。所以大家可能会问,谷歌为什么没在 2018 年推出 ChatGPT?实际上,一切顺利的话在 2019 年甚至 2020 年推出 GPT-3 甚至 3.5 也是有可能的。而且人们最大的疑问在于,既然谷歌已经看到了 transformers 的魔力,为什么会不采取任何行动?这个问题的答案其实相当复杂。” Aidan Gomez,COHERE 公司联合创始人兼 CEO 不少技术评论家都指出,谷歌已经从当初以创新为中心的精锐力量蜕变成了只注重利润的官僚机构。Gomez 在接受英国《英国时报》采访时就提到,“他们并没有推动技术现代化,也压根没有实际采用。”对于谷歌这样一家长期领先行业并在数十年间赚取到巨额利润的大厂来说,这样的迟钝确实难以理喻。但也必须承认,谷歌确实从 2018 年起曾尝试将 transformers 集成至产品当中,一马当先的就是旗下翻译工具。同年,谷歌还推出基于 transformer 的 BERT 语言模型,并于次年起开始将其应用于搜索业务。 但与 OpenAI 的巨大飞跃和微软将基于 transformers 的系统大胆整合进产品线的举措相比,谷歌的这些小打小闹实在太过儿戏。去年,我曾问起谷歌 CEO Sundar Pichai,为什么他的公司没有率先推出像 ChatGPT 这样的大语言模型。他认为在当时的情况下,谷歌觉得让其他企业走在前面更为有利。“我不太确定 transformers 到底能不能真正起效。而在其他人把路走通之后,我们也可以迅速跟进并做更多尝试。” 不可否认的是,如今这篇论文的所有八位作者都已离开谷歌。Plosukhin 创立的 Near 公司专司开发区块链,其代币市值约为 40 亿美元。Parmar 和 Vaswani 于 2021 年以业务合作伙伴的方式共同创立了 Adept(目前估值为 10 亿美元),且正在联手创办第二家公司 Essential AI(已融资 800 万美元)。Llion Jones 在日本东京开设的 Sakana AI 公司估值 2 亿美元。Shazeer 于 2021 年 10 月离职,参与创立了 Character AI(目前估值为 50 亿美元)。谷歌实习生 Aidan Gomez 于 2019 年在多伦多联合创立了 Cohere(当前估值约 22 亿美元)。Jakob Uszkoreit 的生物科技公司 Inceptive 估值为 3 亿美元。而且除 Near 以外,所有创立企业均以 transformers 技术为业务基础。 Lukasz Kaiser,OpenAI 公司研究员 Kaiser 是唯一没有选择创业的作者,他加入了 OpenAI,并成为新技术 Q* 的发明者之一。Altman 去年曾表示,Q* 技术将“揭开无知的面纱,推动发现的前沿。”当我在采访中想就此事询问 Kaiser 时,OpenAI 的公关人员几乎马上跳起来提醒他别乱讲。 那现在的谷歌会怀念这群曾经的贡献者吗?当然,但考虑到他们大多另立门户建立了自己的 AI 初创企业,所以似乎也没有那么怀念。Pichai 还特别提醒我,不光是谷歌 transformers 团队存在严重的人才流失,业界宠儿 OpenAI 同样无法幸免:“AI 领域确实非常非常有活力。”但谷歌至少可以吹嘘说他们提供了支撑 AI 落地的企业环境,鼓励员工们追求各种不那么传统的思路。Parmar 也承认,“从很多方面来讲,谷歌都是遥遥领先——他们会投资于正确的人才,创造出供我们探索和挑战极限的环境。其实没有第一时间跟进技术实践也可以理解,毕竟谷歌面临的风险要比一般人想象中大得多。” 如果没有谷歌的环境,也就不会出现 transformers。论文作者们不单是谷歌员工,而且都聚到同一处办公室工作。而走廊上的偶遇和午餐时不经意的对话共同促成了这个重要时刻。谷歌的文化多样性和包容态度也发挥着关键作用:八位作者中,有六位出生在美国以外;余下的两人则分别是持有绿卡、在加州暂时居住的德国人,和一位随家人逃离迫害的二代移民。 Uszkoreit 在伯林办公室中接受采访时提到,创新必须要依托于合适的条件。“良好的环境能让人们在人生的正确阶段对正确的事物产生浓厚兴趣。所以如果你恰好具备这种理想环境,正在面对正确的问题,再加上一点运气,那么奇迹就会从天而降。” 最后不得不提 Uszkoreit 和他老父亲之间的趣事。前文提到,Uszkoreit 和他的父亲曾在餐桌上起过争执,但老 Hans 如今也已联合创立了一家大语言模型开发公司,使用的当然正是 transformers 技术。
32K上下文,Mistral 7B v0.2基模型突然开源了
刚刚,Mistral AI 的模型又更新了。 这次开源一如既往的「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。 PPT 一翻页,全场都举起了手机拍照: 这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的「Mistral Tiny」系列。 此次更新主要包括三个方面: 将 8K 上下文提到了 32K; Rope Theta = 1e6; 取消滑动窗口。 下载链接:https://models.mistralcdn.com/mistral-7b-v0-2/mistral-7B-v0.2.tar… 更新之后的性能对比是这样的: 场外观众迅速跟进。有人评价说:「Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。」 Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。 这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。 而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。 此次开放基础模型之后,开发者们就可以根据自己的需求对这个「当前最好的 7B 模型」进行微调了。 不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。 上个月底,Mistral AI 正式发布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这一版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手,也实现了对标 ChatGPT。 而新模型的发布,也伴随着公司大方向的一次转型。人们发现, Mistral Large 并不是一个开源大模型 —— 有跑分、 API 和应用,就是不像往常一样有 GitHub 或是下载链接。 与 Mistral Large 发布同时发生的,是 Mistral AI 与微软达成了长期合作的协议,不仅会将 Mistral Large 引入 Azure,还收获了微软 1600 万美元的投资。 Mistral AI 对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。未来,二者的合作主要集中在三个核心领域: 超算基础设施:微软将通过 Azure AI 超级计算基础设施支持 Mistral AI ,为 Mistral AI 旗舰模型的 AI 训练和推理工作负载提供一流的性能和规模; 市场推广:微软和 Mistral AI 将通过 Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户提供 Mistral AI 的高级模型。除 OpenAI 模型外,模型目录还提供了多种开源和商业模型。 人工智能研发:微软和 Mistral AI 将探索为特定客户训练特定目的模型的合作。 当被问及公司是否正在改变其开源商业模式时,Mistral AI 联合创始人 Arthur Mensch 在采访中表示:「我们从开源模式开始,任何人都可以免费部署,因为这是广泛分发它们并创造需求的一种方式。但从一开始,我们就提供了一种具有优化模型的商业模式,这让使该公司能够为模型开发所需的昂贵研究提供资金。」 参考链接:https://twitter.com/MistralAILabs/status/1771670765521281370 首届中国具身智能大会(CEAI 2024)即将于 2024 年 3 月 30 日至 31 日在上海徐汇西岸美高梅酒店举行。 本次大会由中国人工智能学会(CAAI)主办,CAAI 具身智能专委会(筹)、同济大学、中国科学院计算技术研究所、上海交通大学、中国经济信息社上海总部联合承办,全球高校人工智能学术联盟协办,机器之心独家 AI 媒体合作。 盛会将为具身智能领域的学术与产业界搭建一个交流合作的顶级平台,以广泛促进学术分享与交流、产业合作与互动,推动产学研联动发展,提升我国具身智能技术的研究与应用水平。
AI浏览器的第一炮,由360打响了...
大家好,我是皮皮寻 众所周知,浏览器是我们每一个人向外界获取知识和信息的重要窗口,也是我们日常最频繁使用的软件之一。 阿寻通过用户调研发现,学生、职场人士每天使用浏览器的时长甚至超过了微信和抖音。 但是,读不完的报告、堆积如山的论文和越来越多的长视频导致效率十分低下。 于是乎,当微软和谷歌的AI浏览器还停留在所谓的 copilot.microsoft.com 或内测不让国人试用(手动狗头)时。 国产浏览器扛把子、“流氓”软件克星的老大哥 360,就已经推出它的AI浏览器且可以免费下载使用。 为了帮助大家解决浏览效率低下的问题,同时也试试这款新出的AI浏览器到底值不值得推荐,阿寻果断出手最后总结出两个字:够实用! 360AI浏览器(电脑) 作为国内首款真智能浏览器,360AI浏览器率先实现了对网页、PDF、视频等内容的智能处理,可以把浏览效率提升60倍。 它能精准提炼摘要、看点、思维导图、智能问答等等,助力学习和办公效率全面提升。 有意思的是,尽管项目刚起步,阿寻在实际体验时感觉还是挺牛掰得,先把最实用和最有需求的拿下,比如AI搜索、阅读、视频助手。 咱们先看这个AI浏览器的布局就挺有意思的,尤其是侧边栏,自上而下是收藏夹、AI工作台、常规的标签页。 底部则是应用市场、小程序和苏打办公网站,分区很合理,也突出了AI工具的属性,让用户可以一眼找到。 接下来才是重头戏,比如360AI搜索-新一代答案引擎,看看这界面,总感觉似曾相识...呃,像是秘塔搜索套了个壳。 当你打开B站的视频后,右上角居然还弹出了“AI视频助手”,点击一下即刻体验,阿寻直呼牛掰! 当然,还有一个很实用的场景就是PDF阅读,比如我就经常会看某些大佬的论文,AI浏览器一样会弹出提示,帮你总结要点: 以上阿寻介绍的仅仅是这款AI浏览器的基础功能,实际上并不新奇,但就是这些实用和有需求的功能360仅靠一个浏览器把它融会贯通。 其实,在用户眼里,先用到然后再慢慢感受到改进的这个过程中,就是在和产品交朋友,这是双向的绑定。 正如360集团创始人周鸿祎在免费课“预见AGI”上表示,浏览器不仅要作为获取信息的工具,更要成为学习的工具。 目前只支持Windows,不支持Mac,免费。大部分跨境电商、教培人员用的是Chrome或者Edge,配合这个使用,能提升不少效率。
华硕ROG推出降临TWS Speednova无线耳机:双模双设备连接
快科技3月24日消息,华硕ROG推出降临TWS Speednova真无线游戏耳机,首发1499元。 在音质方面,降临TWS Speednova采用了定制的10mm发声单元与气密腔体,经过专属音效调教,呈现出丰富而清晰的音效。 为了提升通话质量,这款耳机还配备了骨传导传感器,能够精准捕捉头箍振动的细微变化,从而捕捉用户的声音。 同时,AI降噪波束成形麦克风则能有效降低背景噪音,保持声音的自然质感,确保通话清晰无阻。 其配备的ANC主动降噪技术提供了上佳的听觉体验,集成的防风噪功能进一步优化了效果,为用户带来更加沉浸式的音频体验。 在连接方面,这款耳机提供了蓝牙和2.4GHz两种连接模式,可轻松应对各种使用场景。ROG SpeedNova 2.4GHz无线技术不仅带来了更好的连接效果,还具备出色的节能性能,可提供长达36小时的续航时间。 此外,华硕还加入了混合多点连接技术,可同时连接两个设备(2台蓝牙设备或者1台蓝牙+1台2.4GHz无线设备),实现同步配对,随时切换。 值得一提的是,降临TWS Speednova还支持IPX4防水、Aura RGB炫酷灯效以及ANC自适应模式,为用户带来更加个性化的使用体验。通过奥创指控中心移动版,用户还可以对耳机的模式、EQ、虚拟环绕声等进行控制,实现个性化的音频定制。
Stability AI终于甩开了它劣迹斑斑的CEO
作者|Yoky 邮箱|yokyliu@pingwest.com 继Infection AI之后,又一家明星创业公司从内部崩塌。 3月23日上午,Stability AI突然发布一项公告,宣布公司CEO Emad Mostaque 辞职。 Mostaque离职后,首席运营官Shan Shan Wong和首席技术官Chtistian Laforte为该公司的临时联席首席执行官。 根据Mostaque的自述解释道:他在Stability AI的股份占了公司的多数投票权,而这些股票和投票权又几乎让他完全控制了董事会。绝对集中的AI权力集中对所有人都不利,因此自己决定辞职。 这看起来是某种英雄的行为,尤其是对比OpenAI宫斗最终演变的方向,很明显Mostaque想把自己的离开打造成对开源的支持和负责任的AI治理的代表性事件。 然而完全相信他的说法的人似乎不多,甚至在推特上讨论他离职的人都不多。在他的推文下面,一个评论悠悠的点出了问题所在: 那你为什么不留在Stability来把这个问题解决呢? Mostaque之后的推文就更加深了这种印象,他表示将致力于去中心化的人工智能(DecentralizedAI)。 这是一个他反复提及的词,指向区块链。在过去他也被反复问到这究竟是什么,他的回复几乎都是:敬请期待。 是的,这是一个对币圈很感兴趣的CEO。除了AI类的会议,他也很喜欢参加虚拟币和AI结合的大会。在这一次又表示要all in后,他还特意写到: 目前不会发币,要发的话就叫“稳定币”(stable coin)。 是不是一切都是熟悉的味道? 就这样,本来手握一把好牌的Stability AI,在Mostaque的带领下,走向了核心人才纷纷离职,丑闻不断,经营挑战越来越大的地步。最终在两天前“逼走”Stable Diffusion最核心的三名作者后,这家明星公司终于摆脱了它的CEO。 混乱的Stability AI Stability AI从成立以来,就几乎没有停止过各种drama的丑闻,而这些丑闻大部分来自于Mostaque本人。 对于一家技术公司而言,公司成立至今,其核心技术的知识产权一直被质疑是由Mostaque“偷天换日”来的结果。 事情要从Stabiliyt AI赖以生存的Stable Diffusion架构说起。前者为普通群众提供了消费级GPU的算力支持,让他们也能够通过Stable Diffusion内容生成模型快速生成高质量图像。在很多媒体的报道中,许多人误以为Stability AI就是Stable Diffusion的所有者,伴随着Stable Diffusion论文中的三名核心人员加入该公司,更给外界造成了这样的假象。 但在学术界,二者却是完全分开的。甚至据《福布斯》的长文爆料中称:让Stabiliyt AI名声鹊起的Stable Diffusion,源代码其实是另一组研究人员写的。 在Stable Diffusion发表之前,来自德国的学者和初创公司Runway,共同推出了一个名为Latent Diffusion的开源图像生成器。 而Mostaque拿了别人的作品,把自己的名字写在上面。Mostaque通过向Laten Diffusion 团队提供超算的方式,摇身一变成为了新的Stable Diffusion,并因此获得了近1亿美元融资,这轮融资直接让Stability AI的估值冲破了10亿美元。 在“强行侵占”被爆出后,关于Mostaque个人的“黑料”也越爆越多。 2023年6月,《福布斯》在采访了30多人(包括现任员工、前员工、投资人、前同事等)后了解到,Mostaque在任Stability AI CEO期间,一直被指学历、资历造假以及夸大与合作伙伴关系来获取市场信任和关注度,夸大了自己的对冲基金经验,误导了投资者和客户,并夸大了亚马逊的一笔交易。 据公开报道,Mostaqu获得了牛津大学的学士和硕士学位,但《福布斯》的调查中,Mostaqu却只获得了学士学位,而并没有硕士学位。对此,Mostaqu在之后接受VentureBeat的采访中闪烁其词:“我没有学士学位或硕士学位,是因为我忘了寄60镑的支票,和错过了仪式。” 如果说,侵占研究成果、学历造假是Mostaqu的个人行为,那如今的Stability AI,在核心技术团队大半离职的前提下所面临的全面危机,也实在是一个“烂摊子”。 商业竞争层面,Stability AI面临着与同类公司激烈的版权竞争。上周,Midjourney 在涉嫌数据盗窃事件后封锁了所有 Stability AI 员工。同时该公司在大西洋两岸都面临着 Getty Images 提起的诉讼,称 Stability 非法使用了其 1200 万张照片。 数据版权的争议官司不断,Stability AI的商业模式也在逐渐被挑战。《福布斯》报道中,三名前Stability员工表示,在向该公司注入风险资本之前,亚马逊曾威胁要撤销该公司对其部分GPU的访问权限,因为该公司已经积欠了数百万美元的账单,几个月来一直未付。 也就是说,在2023年6月份,Stability AI就已经开始出现拖欠账单的情况。据彭博社估计,该公司每月支出约800万美元,作为对比,Mostaqu曾在X中表示,Stability AI有望在2023年11月赚取300万美元。虽然该推文后来被删除,但即便他所言不虚,营收情况也无法覆盖高昂的成本。 没有人能判断Stability AI入不敷出到底经历了多长时间,但可以肯定的是,在去年12月,Stability AI因财务状况压力巨大正在寻求出手,Mostaqu被公司重要投资者、美国对冲基金Coatue要求辞职。 当时按照知情人士的说法,Stability AI最近已经就收购问题与多家公司进行了接触和初步磋商,其中潜在买家之一是竞争对手Cohere,还有独角兽Jasper,不过后续被Stability AI否认。 数据侵权、技术剽窃、大量员工离职、没有可持续的商业模式,全靠融资烧钱,一个今天看起来最重要的文生图模型技术公司,却也成了商业角度最混乱的一笔资产。 目前更多人更为关心的是SD是否依然能够保持开源,毕竟这是大量的创业公司赖以生存的根本。虽然Stable Diffusion 框架并不属于Stability AI,但该公司确实是率先将框架形成产品并进行开源,同时在原有框架的基础上不断迭代出高可用的版本,也是目前应用最广泛的版本。 所以相比于Mostaqu的个人情况,大众更关心的是Stability AI的未来发展。 AI创业公司,进入“吞并潮” Stability AI依然不乏追求者。HuggingFace创始人Clem Delangue就发文“征求”意见,表示自己在考虑是否要收购它。 其实Clem Delangue对于2024年创业公司的情况早有预判。 “2024年会有一家“被大肆炒作的”AI公司破产,或以低得离谱的价格被收购。” 而此时再次发声,似乎隔空回应了当时的预判,也透露出其了“低点收割”的野心。 表面上看,无论是Inflection AI 还是Stability AI,二者暴露出了同样的问题:商业模式无法循环,也就很难避免烧钱换生存。 这似乎是整个AI创业史上的一个悖论,技术创业面临着巨大的前期投入,无论是模型的训练、算力的储备还是产品的打磨,但也正是因为前期投入太大,一味依靠投资烧钱走过了第一阶段后,如果找不到可以正循环的商业模式,投资人的钱早晚有烧完的一天。 在一切都在加速发生的大模型领悟,这烧完的时刻也来得更快。 Stability AI 的核心技术Stable Diffusion以开源模式为主。但SD模型的特性不需要很大的参数量,因此部署和使用分量都比较轻量,比较难设计商业化付费点,同时开源的模式于SD而言无法实现闭环数据的飞轮并优化模型。2C的角度来看,目前SD的用户量和Midjourney也不在一个量级,虽然推出了会员付费模式,但大多数个人用户仍以免费版为主。 其实即便是“购买方”的HuggingFace,本身也在面临着商业化难题。在Clem一次接受采访时透露,HuggingFace主要使用的是典型的免费增值模式,目前有15000家公司免费使用上面的服务,只有一小部分公司实际为服务付费,大概有3000家。付费功能包括单点登录、高级技术支持以及更强大的计算资源等等,像Meta、Bloomberg、Grammerly等公司都是他们的付费用户。 Clem Delangue也坦然,目前并没有真正找到并优化最大收入的方式,更关注的是使用率和扩大平台规模。 去年的明星创业公司在2024年开年似乎集体水逆。而这背后暴露出的深层次问题在于:去年一整年,资本市场的弹药向头部集中,创业公司在资本的“催熟”下发展过快,无暇顾及的治理结构上的大漏洞们纷纷暴露。 用一年快速走完很多公司十几年的路,从融资快速走向竞争,而这将促使目前的创业公司进入并购和整合阶段。 就目前看来,Stability AI凭借着此前打下的江山,和依然留在公司的一些人才,依然有着吸引力,很可能成为接下来市场上争抢的对象。 而现在看来,有能力吞掉这些公司,用足够资金解决生存问题,同时又有足够成熟和灵活的治理体系来吸纳其中最重要人才的,还是那些巨头。Stability将会成为接下来市场上的争抢对象,而这可能只是一个开始。
麦门又有新打卡点,这次是一个巨型「充电宝」|Feel Good 周报
绿色门店 在多样化 Feel Good 导读 麦当劳又有新型「绿色门店」,这次落户白云山 如果假设有力量,为何不好好利用? 汽车安全,性别攸关 💡未来的厕所得会「就地解决」 Cambium Carbon:我们极度依赖木材,为何还要浪费? 麦当劳又有新型「绿色门店」,这次落户白云山 这周,麦当劳中国又有新型「绿色门店」登场。 这家坐落于广州白云山公园南出口的门店,是国内首家光储一体的「零碳餐厅」。 「光储一体」具体来说,指的是餐厅在屋顶设置了光伏设备,预计每年发电量约 5.5 万度,满足餐厅全部照明用电需求;与此同时,餐厅也配备了储能设备,可实现了绿色能源全天候高效供能,提高能源使用效率。 除此以外,餐厅按照 LEED「零碳排放(Zero Carbon)」标准设计建造,从餐厅选址与设计、建材与施工、到能源管理,全程减少对环境的影响,推动节能减排。 在室内部分,餐厅采用了国际标准绿色卫士(GREENGUARD)环保认证的装修材料,严格控制材料在室内空气中的化学挥发量。 与此同时,其「高效油烟净化系统+大风量新风系统」令开放式厨房形成微负压区域,避免油烟进入用餐区域,确保空气质量数据 PM2.5 和 TVOC 优于国家标准; 新风系统配合高能效空调系统,控制餐厅与户外气压差,防止户外气流对冲影响,让室内温度稳定舒适。 在餐厅里,「减碳智慧屏」会直观地展示餐厅能耗、绿电用量、减碳效果等信息,增加零碳进程的可视度、透明度,提升消费者的减碳参与感。 「硬件」以外,消费者也能在这家门店体验到「绿色回收」的环保充电单车、麦麦绿色餐盘、「绿色包装」的 100% 获得 FSC 可持续森林认证原纸、免吸管饮料杯等等。 在新餐厅开业之际,麦当劳也首发了童书《麦麦绿色童话》。 一套四册的《麦麦绿色童话》通过改编白雪公主、丑小鸭、小红帽和三只小猪造房子等经典童话,将绿色低碳的趣味知识融入绘本故事。 这套书将于 4 月 10 日正式上市,作为开心乐园餐限时赠品。 麦当劳从 2018 年开始设立「绿色门店」。 2018 年 9 月,麦当劳中国首家 LEED 认证绿色餐厅落地雄安新区。 至今,麦当劳中国已经有超过 2700 家绿色餐厅,其中超过 50% 位于二三线城市,100% 获得 LEED 绿色建筑认证。 麦当劳中国首席发展官梁海静表示,「绿色门店」未来的新餐厅至少有 95% 都会是 LEED 认证餐厅。 也许以后,当我们想起麦当劳的时候,脑海里除了冒出经典的「红+黄」配色,也会想起「绿」的核心。 如果假设有力量,为何不好好利用? 为迎接今年 3 月 21 日「世界唐氏综合征日」,非营利组织 CoorDown 发布的宣传视频《假设我可以(ASSUME THAT I CAN)》在网上获得大量关注。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。