行业分类:
加载中...
头条分类:
加载中...
前天美王者发行制作人加入字节游戏,带队上海工作室
一石激起千层浪,浪里白条今何在? 上周竞核在《张云帆正式接任朝夕光年负责人,称不应被焦虑扭曲》一文中,非常简单地介绍了字节游戏新负责人张云帆的内部信。在内部释放的信号中,它都被视为是字节游戏业务进入下一个阶段的开始。 新的开始,往往意味着孵化新的游戏项目,大概率还是第三类传统游戏。在内部邮件中,官方按照相近地域,相似能力整合的原则,对游戏部门组织架构进行了调整。其中变革最大的要属组建上海ZERO36工作室,由上海HGAME、YGAME和MK项目合并而来,负责人Hades向张云帆汇报。 前《王者荣耀》发行制作人及天美L2工作室运营负责人、前游族COO陆凌青(Hades) 竞核独家获悉,陆凌青(Hades)是前《王者荣耀》发行制作人及天美L2运营负责人、曾在游族出任COO,他于今年一季度末二季度初加入字节游戏,负责重新组建字节上海游戏工作室ZERO36工作室。办公室地点位于,上海漕河泾大厦。同时,他还负责发行《MLBB》国服《决胜巅峰》发行。 上海之外,字节游戏还在广州组建新游戏工作室,由Dawn项目、Lighthouse工作室组成。此外是广州UGC Block项目技术负责人Sky也将兼任广州游戏工作室技术负责人。 至此,我们不难看出,字节游戏进入下一个阶段的开始,重心仍旧始于发行好《决胜巅峰》。往前即承接好《晶核》《星球重启》等已上线运营产品。顺带手,处理好中长尾自研产品《航海王热血航线》《花亦山心之月》,发行《世界计划 缤纷舞台! 特邀:初音未来》(下称《世界计划》国服)等产品。往后看,即依仗各大自研工作室新品,抓住垂直细分品类机会。 孵化新项目暂未有新动向,笔者在后文中会做简要分析。如此,即构成了字节游戏业务将要、想要去的第二阶段。 前天美王者发行制作人挑起重担 昨天已成为过去,现在、未来才是我们需要关心的事。 现在挑起字节游戏重任的是,北京绿洲工作室、杭州江南工作室以及上海沐瞳科技。承载着字节游戏未来的,依旧是上述自研工作室以及上海沐瞳。当然,外界可能更为好奇的是上海游戏工作室ZERO36工作室,以及负责人陆凌青(Hades)。 从上海工作室接手的产品线来看,《航海王热血航线》《花亦山心之月》原本就是上海101工作室的自研产品。尤其是《航海王热血航线》,明面上它是朝夕光年拿IP找中手游定制的产品,实际上,它是上海101工作室自研产品,更是字节游戏自2019年组建四大工作室以来首款自研中重度产品。 上线初期,《航海王热血航线》取得过不错的表现,眼下已迈入生命周期末端。至于《花亦山心之月》,它是字节游戏首款女性向产品,上线初期成绩也不错,现已进入产品末期。竞核获悉,负责上述两款自研产品的负责人黄琳彬、孟娟均已离开朝夕光年。 要言之,对于陆凌青而言,现阶段最重要的工作似乎更偏向发行《决胜巅峰》《世界计划》。同时培养、寻找自研产品负责人,为字节游戏第二阶段铺路。 竞核获悉陆凌青于今年H1加入字节跳动,他本人跟张云帆也是老相识。公开资料显示,陆凌青拥有16年游戏发行及团队管理经验,2013年加入完美世界从执行者升迁为中层管理。 陆凌青离职前后,张云帆正式加入完美世界。他在2010年担任178游戏网(完美世界投资)、纵横中文网(百度和完美联合成立)总裁,于2013年下半年正式加入完美世界担任移动战略副总裁。正是在这段时间,陆凌青结识了张云帆,这也为字节游戏迈入第二阶段埋下了伏笔。 时间来到2013年,他独自创立欢瑞游戏。在2018年,他加入腾讯游戏,担任《王者荣耀》发行制作人及天美L2工作室运营负责人,负责《王者荣耀》及其多款IP衍生项目的发行及运营工作。 2023年9月,陆凌青正式加入游族网络,担任游族首席运营官,分管发行业务版块,全面负责发行相关的组织管理及日常运营。 再之后,便是今年一季度末二季度初加入字节游戏,担任上海ZERO36工作室负责人,同时负责《决胜巅峰》发行。 字节游戏上海工作室有了新开始 竞核独家获悉,当前朝夕光年四大自研工作室跟沐瞳科技仍旧保持独立的架构。前者采取统一核算,后者采取独立核算自负盈亏。 一位知情人士称,朝夕光年自研工作室采取游戏业务统一核算,有助于后续孵化新项目。至于沐瞳科技,成立至今本就是采取独立核算自负盈亏,机动灵活性相对较高。 这意味着,陆凌青统管上海ZERO36工作室、发行《决胜巅峰》,算是跨部门架构在运作。或许会采取特殊的核算机制。某种程度上,这也是吸引陆凌青离开游族网络加入字节游戏的原因之一。 先来说说字节游戏上海工作室,前文中已提及过上海101工作室,它是字节游戏在上海首家工作室,2019年由上海墨鹍负责人杨东迈创立,期间立项测试过7、8产品,其中就包括3V3 俯视角MOBA《Strike Royale》。不过,最后只有《航海王热血航线》跑了出来,无奈上线后并未达到高层预期。 2021年杨东迈离职,造成字节游戏上海工作室历经了大调整。后续工作室中《全民无双》团队独立为无双工作室,也即《航海王热血航线》研发团队,负责人为原墨鹍制作人黄琳彬。至于101工作室则由原育碧上海工作室联合开发总监刘军接任,最终于2022年6月份解散。 至此,到了同年9月份字节游戏上海工作室又迎来了大调整,包括无双工作室裁员,研发汇报线转移至江南工作室,由后者进行托管。 竞核了解到,当时严授为提振上海团队士气,还引入了原Garena《Free Fire》制作人老蔡十几号人。不过老蔡团队仅在朝夕光年待了差不多四个月,便伴随着2023年11月字节官宣不做游戏,被某大厂接收。 再往后,字节游戏便启动出售谈判,跟腾讯、网易、沙特等资方多轮磋商,最终未能达成出售协议。后续,字节又跟灵犀互娱创始人詹钟晖等多位游戏行业资深人士进行沟通,寻找字节游戏实际一号位。最终,字节游戏迎来了张云帆。 这才有了当前字节游戏现有的人事布局、组织架构调整,以及进入第二阶段的方向指引。 字节新项目会是? 不难看出来,《决胜巅峰》对于字节游戏第二阶段来说,是相当重要的一环。 要知道当前,字节游戏各大自研工作室产品,要么已迈入成熟稳定运营期,要么还在海外测试。它们要想进入中国市场还需要一段时间。反观《决胜巅峰》,它拥有版号及用户,是字节游戏进入第二个阶段,也还是今年最机会上线的大DAU产品。 竞核早前有过报道,从去年年底开始《决胜巅峰》就一直处于不删档测试状态,测试规模在几十万用户左右。抖音平台上有不少主播也一直在直播,并启动了【创作者百亿造星计划】。 官方视频号直播、运营也未曾中断过,可以说,《决胜巅峰》为自己聚拢了一批核心创作者和玩家。不过,一位接近沐瞳的从业人士告诉竞核,《决胜巅峰》原本有望于2024年Q1上线,但由于字节裁撤游戏业务的决定,《决胜巅峰》上线档期被推迟。 上述知情人士称,张云帆掌管字节游戏业务,陆凌青负责发行《决胜巅峰》,有望加速游戏上线。如果不出意外的话,大家或许可以在今年体验到这款产品。 明面上的产品线,我们已经分析得差不多了。在这里,笔者想聊聊字节游戏自研可能突围的机会点。如上所述,我们分析了字节游戏上海工作室变迁、立项产品、制作人背景,以及新负责人的项目背景。 笔者认为,MOBA对于字节游戏第二阶段来说至关重要,尤其是轻度竞技MOBA。原因在于,字节游戏有成熟的管线、人才梯队做MOBA,也有相关的电竞人才辅助产品发行。 那么在孵化立项新产品,首要考虑到的是团队能做什么?对于这点,字节游戏上海工作室确实有能力做MOBA(2021年关停过)。其次,纵观全球市场竞品分析,即MOBA赛道有那些成功的产品(王者、荒野乱斗、Squad Busters),中国市场有欠缺哪种类型的产品(荒野乱斗、Squad Busters)。 再次,字节AI战略匹配度,MOBA人机战斗无疑是发展游戏AIGC皇冠上的明珠。另外,去年字节游戏官宣要砍掉所有非上线项目,少数没有暂停的创新型游戏项目便是UGC Block项目。它被视为AIGC重要的实验场景。同样的道理,似乎也适用于MOBA品类。 综合产品选型、竞品分析、字节集团战略匹配度,笔者猜想字节游戏第二阶段新产品大概率是轻竞技MOBA。 至于会否被证伪,那就交由时间来解答了。
618搞得太便宜,京东被骂上热搜
作者 | 潘多拉 磨铁创始人叫板京东,最新回应来了 一年一度618,商业互撕有新瓜。 小作文开路,公开喊话吹喇叭,京东这次又惹上事了。 最近,磨铁集团创始人、董事、CEO沈浩波在朋友圈发了一则长文,公开抵制京东。 “在磨铁已经全面对京东停止发货,并一再对京东低价乱价扰乱市场秩序的行为表达反对的情况下,京东依然无视我们的诉求,要继续强行让我们的产品参加他们的低价促销。这是在反复用脚踩着我们的脸在地上摩擦。” 沈浩波直指京东,“耍流氓”,并提出了三项针对举措: “一、我们将采取法律手段,不惜代价维护我们的权益。 二、我们将继续对京东停止发货,任何一本都不发,如果加一个期限那就是无期限。 三、我们将继续要求京东下架我们的所有产品,全部退给我们。” 同时,沈浩波还呼吁同行,“不要跟价,不要跟价,不要跟价,陪我们抗过这一轮”。 图源:磨铁创始人沈浩波朋友圈 这条朋友圈引起多家媒体转发,很快#磨铁已全面停止对京东发货#登上微博热搜,引起更广泛关注。 值得一提的是,就在前几日,多达50家出版机构联合发函抵制京东6·18低折促销。磨铁此举无疑将这一抵制行动再度推向了高潮。 知情人士透露,还有多家出版机构也向京东发出断货、停货警告。 公开资料显示,磨铁集团一般指北京磨铁文化集团股份有限公司,是业内知名的出版企业,旗下涉磨铁图书、磨铁娱乐、磨铁文学、磨铁动漫四大业务板块。 或许你不了解磨铁,但肯定知道《明朝那些事儿》、《盗墓笔记》、《诛仙》、《后宫 · 甄嬛传》、《天才在左,疯子在右》。这一大批畅销书和超级IP都出自磨铁图书。 大出版商公开交板京东,商家和平台间的矛盾被摆上了台面。 很快,一则来自京东采销员工的朋友圈被曝出。 该员工称,京东图书618的活动目标只是让更多消费者买到便宜的好书。被指“耍流氓”,着实冤枉。 “京东从来没有要站在出版社和行业的对立面,双方理应是一个阵营的伙伴,希望能和大家一起把好书、好价带给消费者,而不是让直播投流高昂的费用伤害行业,伤害那些用心创作的作家。京东对自营图书拥有合法的自主定价权,愿意让出更多的利润,让消费者受益。” 图源:某京东采销员工朋友圈 有媒体考证该员工朋友圈的真实性,京东方面称目前没有任何回应口径,但可以参考这张(朋友圈)截图。 可谓是,婆说婆有理,公说公有理。 对于京东和磨铁的热议话题,网友们也发表了自己的看法。 其中有不少人支持京东,从消费者角度,在保证品质的情况下,当然偏好买更便宜的书。 同时,也有很多人认为京东的超低价是在压榨商家,“慷他人之慨,支持磨铁维权。”还有作者发声,反感图书降价,“纯靠薄利多销的走量,真的太浪费资源了。” 出版商集体示威,价格保卫战打响 自从进入互联网时代,短视频风起,电商平台大行其道,人们的阅读习惯正在发生改变,购书渠道也开始转至线上。 为了迎合新的市场环境和用户偏好,传统出版商以低折扣换取流量逐渐成为常态,不少新书上架就打五折。 据媒体报道,2023年我国图书零售市场定价总和同比增长率由负转正,但由于折扣等原因,实际销售金额同比下降7.04%。 今年的京东618正如火如荼地展开。在图书类目,京东更是宣称在5月19日至6月20日期间以全品种图书价保2-3折进行促销。 低价折扣确实能在一定程度上提升销量。京东618官方披露,5月31日开门红1小时,经管、文学类图书成交额同比增长超100%。 “以价换量”“薄利多销”对于商家们来说是一种经营策略。但前提是这种策略需要保证一定的利润,没有利益,何谈生意。 如今图书行业的折扣降价力度正变得越来越大。从8折、7折、6折,到现在京东618甚至打出了2-3折,已经触及了行业利润生死线。 谁想做赔本买卖?这下,一众出版商们都急了。 618前夕,两份“联合声明告知函”在出版行业炸起了一声惊雷,56家出版社联合抵制京东618图书大促。 各出版社联合声明告知函 两则声明由北京10家出版社和上海出版经营管理协会代表的上海46家出版单位发出,明确表示,不参与此次京东2-3折的618图书促销活动,并不承担活动期间产生的任何返利费用。 从一些相关人士处获悉,对于出版行业,2-3折的促销价格是难以接受的,出版社的利润空间被压缩,“亏钱卖书”“压力很大”。甚至有出版社人士怒斥,“三折结算是一个侮辱性的价格”。 对于此次联合抵制,京东方面没有正面回应。 同样有来自京东采销员工的朋友圈流传开来:“我只是想通过薄利多销扩大销量,给合作伙伴们创造收益;我只是想尽自己最大努力去促消费为社会创造价值……咋这么生气呢,我做错了啥呢?” 图源:某京东采销员工朋友圈 近日有知名出版社负责人透露,部分出版机构与京东存在误解,京东向出版社发出的618活动邀请并非强制要求“全品类、低折扣”。 该负责人称:“联名盖章的出版社中,也有不少家已经与京东大致谈妥了合作方案,联合抵制也有无奈的因素在里面。” 但结合这次磨铁创始人发声,仍有出版商无法和京东方面达成一致。 京东低价卖惨,谁是最后的赢家? 可以说,由于低价,京东和出版商们之间多有摩擦。 2010年底,京东与当当网、卓越亚马逊三方展开图书低价混战,在最低售价基础上再降20%,当时就引得多家出版社直接切断京东的供货渠道。 2011年,刘强东更是放话,京东图书音像部门三年内不准赚一分钱的毛利、五年内不赚净利。 同年,京东就发起了“全部少儿图书4折封顶”大促,在收到24家少儿出版机构的律师函警告的情况下,仍坚持“京东的图书永远4折”。 当时刘强东回应称,京东意在打破图书行业垄断行为,“这些书3折就可以从中盘进来,有10%的利润已经足够了。” 如今,对于618超低价促销引起的争议,京东多次以朋友圈式文案侧面回应,三句话不离消费者,用便宜让利的角度来为自己辩驳。 经百分点舆情洞察系统抽样统计,过半网友支持京东,一些人支持出版社,但也有一些人认为京东的朋友圈文案疑似“卖惨”。 图源:百分点舆情中心 明面上,京东更像是借此事为618活动打一波广告,这么一闹似乎让全网都知道了京东图书价更低。而出版商和平台的矛盾,似乎也被转移到了出版商和消费者身上。 矛盾仍然存在,低价竞争仍在持续。出版商陷入低价泥沼,势必会造成劣币驱逐良币的恶性循环。 低价已经开始腐蚀童书市场。中国书刊发行业协会在一次童书内容调查中发现,市面上的童书普遍品质欠佳,这背后很大程度和低价倒逼成本有关。 值得注意的是,书籍成本被压缩的同时,不仅意味着内容质量难以保障,书籍纸张印刷等材质也令人堪忧。 伴随着电商平台图书折扣越压越低,出版商为了保持利润空间,只能不断提高定价。这也就是为什么当下消费者看到书籍原价越来越贵的原因。同时这一因素也在推动着消费者转向折扣图书。 电商平台在大促节点选择比平时更低的价格,用低价促销来吸引消费者本无可厚非。但若是一味地破价,甚至是强制性促销,不仅不利于自身的可持续发展,也不利于构建良好的市场竞争环境。 开卷数据显示,2024年一季度图书零售市场码洋同比出现5.85%的负增长,平台电商和垂直及其他电商分别下降10.31%和10.59%。 另据京东2024年一季度业绩,京东零售的经营利润率由4.6%下降到了4.1%。不赚钱的低价,对谁都没有好处。 就目前来看,此次京东和出版商的事情虽然闹大了,但双方仍有博弈、协商的空间。 正如京东员工所说,不会站在出版商和行业的对立面。 低价是电商平台间竞争的重要手段,但商家仍是平台生态链中的重要一环。平台如果逼走商家,无异于自毁根基。 商家和平台合作才能共赢,对抗只会加速大盘的分崩离析,结局很有可能是两败俱伤。
字节游戏不说再见
作者丨樱木 编辑丨伊页 沉寂许久的字节游戏突然迎来了全新的动作。5 月 31 日官宣了最新调整:张云帆加入字节游戏,作为游戏业务的第一负责人,向集团人力资源负责人华巍汇报。 据第三方消息称,今年4月张云帆已接管字节此前收购的游戏公司沐瞳,目前则接管了朝夕光年和 UGC(用户生产内容) 部门。这意味着字节跳动已停止出售游戏业务。知情人士称,目前字节游戏业务年收入约在 100 亿-150 亿元,收入体量上可排在中国游戏公司前列。 自去年11月开始,字节游戏的相关调整变动不断。公开资料显示,去年11月27日,有传闻称字节跳动旗下游戏业务朝夕光年将进行大规模裁员,在研还未上架的游戏项目将全部解散。虽然未经官方证实,但字节游戏自此进入“沉默期”。 直到今年3月14日,字节跳动通过内部信宣布,在战略定位调整后,游戏业务将回归孵化状态,下一阶段的核心是耐心做好稳定经营,按照符合行业发展规律的方式,有使命、有愿景地保持探索。组织架构方面,字节跳动人力资源负责人华巍将作为游戏业务负责人,管理 UGC(用户创造内容)、沐瞳和朝夕光年,原朝夕光年业务负责人严授将转岗至公司财务部。 随后,字节游戏进入到了全新的“兜售期”。据多个信息来源显示,腾讯、网易、微软、SEA(Garena)中东主权基金等均表示对字节游戏业务产生较大的兴趣。特别是其旗下的沐瞳科技,多个巨头都曾报价,但最终出价均低于20亿美元,未能达到字节预期。 毕竟在2021年,字节跳动以100亿人民币的现金和价值150亿的股权为代价收购了沐瞳科技,如今低于20亿美金的售价太过便宜。但买方思考的逻辑在于沐瞳的主要市场在东南亚,想象空间有限,同时以现在的环境来看,20亿美金并非一个小数目。 买卖不成后便是现在的重组期。字节重新选中张云帆,停止兜售游戏业务并维持运营。可即便找来全新的负责人,但想要字节再像前几年一样,投入重金与腾讯、网易竞争,可能性非常之低。从多位业内人士评价来看,此次重组更多的看点在于,“在有限投入的前提下,看看字节能不能完成几个自研产品的研发,但最终还是为了卖个好价钱。” 曾笃信大力出奇迹的字节跳动,在经历重金下注,以及若干年尝试之后,不得不回归到“孵化状态”稳定经营。有业内人士分析,字节最初的期待可能是押对一两个高DAU游戏赛道,“就像MOBA和吃鸡这样的,在率先拿出产品的同时依托抖音的流量优势,打一波时间差,就可击破腾讯的竞争壁垒。” 但冰冷的现实是,打败腾讯的大饼只是一种自欺欺人。高DAU游戏复制难度太高,即便是腾讯自己的下一个吃鸡和MOBA都还在路上。刚刚上线的DNF手游虽然表现不俗,但其持续性以及全民属性,依然饱受质疑。 字节游戏还没有说出再见,但从更宏观的角度来看,或许已经暂时下了牌桌。
如果辛巴不直播,他的徒弟还敢骂快手吗?
作者|陈 妍 编辑|大 风 辛巴又一次表示不想直播了。 最近,刚刚被快手解封,回到直播间的辛巴透露:“辛巴也播不动了,开始倒计时了。以后直播会越来越少,希望通过用10场直播的方式,让我的企业慢慢习惯没有辛巴。” 主动“退网”背后,是辛巴想让徒弟上位。 前段时间,辛巴因为“口出狂言”,差点赶不上今年快手618大促。于是辛巴徒弟蛋蛋专门发视频表示,今年要替“父”出战,代表整个辛选首播618。截至目前,蛋蛋的快手粉丝数已经超过9900万,离破亿只有一步之遥。 不止辛巴,这几年小杨哥也热衷于扶徒弟上位,像是红绿灯的黄、嘴哥、七老板等等都成了抖音上相对出圈的网红。 但徒弟想要替师父挑大梁这事没那么容易,他们不一定能撑得起师父过往的流量、GMV,师徒内部也存在利益矛盾。 这两天,刚说完要“替父出战”的蛋蛋,突然清空自己的作品列表,暂停直播带货,618之前能否回归还是个未知数。 直播带货进入下半场,生意也是越来越不好做了。 01 师父想退休,徒弟正上位 辛巴的所有徒弟里,蛋蛋确实是最适合推到台前的人。 从带货实力上看,蛋蛋算得上是快手带货一姐。根据壁虎看看数据,今年5月,蛋蛋的销售指数达到13.26亿,位列快手直播带货榜第一名。新榜数据显示,去年,快手直播带货销售额TOP10主播中,蛋蛋排名第一,全年带货预估GMV达到171亿元。 今年以来,蛋蛋的粉丝数量也在一路上涨,3月底开始,蛋蛋宣布冲刺9500万粉丝,4月冲刺9800万粉丝,5月又冲刺9900万粉丝。对比来看,辛巴其他弟子像是“猫妹妹”、“时大漂亮”、“赵梦澈”等等,粉丝数量一直维持在四五千万的量级。 快手截图 4月的一场直播中,蛋蛋鞠躬感谢师父辛巴,辛巴当时表示,“蛋蛋粉丝破亿那天,我也就退了”。 事实上,去年以来,辛巴、小杨哥都打起了“退休”的主意。 辛巴曾多次表达过,直播带货已经没有让他兴奋的东西了,想要把舞台交给徒弟们。今年3月,小杨哥也透露,今年会专注于娱乐直播,大幅缩减带货频率,如果有一些重要活动,可能会把粉丝过一亿的账号交给徒弟来操作。 但眼下的情况是,作为师父的辛巴、小杨哥,还不到能完全离场的时候。 拿嘴哥来说,前段时间他直播带货惨遭滑铁卢,过去10万+的人气一去不复返,直播间仅剩3000多人,嘴哥自己也破防问道,“我货是不是有问题啊”。最近30天,嘴哥甚至连一场带货直播都没有。 反观小杨哥,之前虽然停播了一个月,但回归直播带货当天,一小时内销售额就突破亿元,归来仍是顶流。根据飞瓜数据,在5月抖音带货达人榜中,疯狂小杨哥重回带货榜前十,以2.35亿元销售额排名第九。 疯狂小杨哥 到目前为止,小杨哥的徒弟们还撑不起三只羊的流量和GMV。 辛巴的情况比小杨哥要好一些,蛋蛋等人也更能独挡一面,但辛巴自己的账号仍然是不可忽视的存在。 要不然一向“硬气”的辛巴,也不会在618前着急跟快手道歉,解封之后,又马不停蹄地把带货提上日程。根据辛选提供的数据,今年辛巴618首播中,总销量超过850万件,总销售额超过14亿元。 回看被封禁的一个月,辛巴自己也说了:“因一时口舌之快,造成了七八十亿的销售损失。” 02 内忧外患下,徒弟存在不稳定性 一定程度上来说,辛巴、小杨哥就是吃“争议”这碗饭的。 长久以来在粉丝心里,辛巴、小杨哥包括他们的徒弟们,可能是为大家谋福利的“兄弟”、“家人”,但在大众舆论层面,三天两头陷入翻车争议的头部大主播,简直是当代“牛鬼蛇神”。 这些徒弟们踩在师父的肩膀上发家,继承了师父的表演型人格,草莽式真性情,扰乱市场式疯癫,也让自己的直播带货变成了一份高危职业。 比如说小杨哥徒弟“红绿灯的黄”,她原本是三只羊带货情况最好的徒弟,但去年双十一大促期间,她带货圣罗兰气垫的时候,披头散发,面部狰狞,甚至一度叉开腿蹲在了桌子上,看上去非常不雅观。 红绿灯的黄带货圣罗兰 这种低俗带货行为引发了舆论的反噬,红绿灯的黄的直播带货生涯也被迫告一段落。 锌财经发现,红绿灯的黄已经几个月没有直播过了,她近期的风格,也从低俗搞笑主播,转型成抖音上更为常见的颜值主播。 除了外部争议,师徒内部也会存在利益纠纷。 今年3月,曾当过快手一姐的辛巴徒弟“猫妹妹”在微博上发文,疑似抨击师父辛巴,“可能是我对你的滤镜太重了,所以太失望了,你也不用pua我,说你给我捧起来的”,“你的代表作是骂平台吗?骂身边人立威吗?还是跟别人炒作?”。 猫妹妹微博截图 有传闻称,猫妹妹和辛巴闹翻的导火索,是猫妹妹曾因“吃回扣”被罚当众下跪。猫妹妹曾发文表示,“他们不给我报警,逼我认这个罪,逼我录视频让我承认都是我干的,还逼我签了一个合同。” 后来辛巴回应此事表示:“能做我徒弟是你们的荣幸,走到今天给了你们所有人一切,吸了我三年血,我可以继续给你,但是请你一定要把人做好。” 目前猫妹妹的快手账号已经清空此前所有内容,个人小店无商品在售,猫妹妹本人似乎也彻底离开辛选。 不难发现,徒弟表面上看背靠大树好乘阴,和师父是互利共赢的关系,但这背后是重重的利益考量和权衡,稍有不慎就会分崩离析。 03 步入直播带货下半场 大主播和徒弟们交接背后,是依靠单个大主播IP的流量红利开始消失,甚至伴随着更多风险。 逻辑很简单,像辛巴、小杨哥这样的IP跟公司是强绑定关系,一旦翻车了,对辛选、三只羊是致命打击。但徒弟们只是签约达人,与公司的关系相对独立,即便出了事情,公司也有很多处理空间和回旋余地,不会影响到自身根基。 好比说当初李佳琦停播的109天,对美ONE的冲击是相当大的,公司的直播带货业务基本上是停摆状态;但红绿灯的黄带货翻车被封禁之后,只有她自己退出带货,三只羊其他直播间受到的影响比较小。 把鸡蛋放到不同篮子里,把个人IP逐渐变成组织和机构化的能力,才是眼下更合理的发展路径。 眼下,进入存量时代,直播带货的竞争只会越来越激烈。这些年下来,消费者已经摸清了主播们的套路,变得更加谨慎和理智。监管政策也在不断收紧,前段时间新颁布的《消费者权益保护法实施条例》,明确了平台、直播间和主播需要承担的责任和义务,对直播带货提出了更高要求。 面对行业的不断挤压,不管是辛巴还是小杨哥,都得更新自己的生存路径和经营策略,才能更长远地走下去。 至于徒弟们能不能扛过师父大旗,留在牌桌上,还不好说。
怎样避免被电商平台618的价格“套路”?
“大家知道今天是618活动的第一天大促吗?”5月31日晚,一位朋友在微信群里向其他人询问,本以为许多人都不知道,可实际上不少人都表示知道“618”。 一方面,线上的短视频、新闻资讯、浏览器、小说等App,全都在推送京东、拼多多、淘宝等电商平台的618活动广告;另一方面,商场、电梯、小区等线下广告位也都铺满了商家618活动的广告,如此“全方位”的覆盖下,很难让人从大脑、耳朵和视线中屏蔽掉“618”这个关键词。 当然,知道和买是两个概念。消费是一件让人快乐的事情,但随着年龄的增长,人对消费产生快乐会有种“钝感”,很多时候是“我只看看,保证不买”,然而在低价、直播、短视频等多方面的刺激下,很难真正做到只看不买,看着看着就买了。 网购早已融入人们生活的日常,只不过缺少当初那股疯狂购物的劲头。那么,当消费者在618网购的过程中,怎样避免电商平台618的价格“套路”呢? 首先,要明白电商平台价格“套路”背后的原因。618是京东、淘宝、拼多多等全平台的大促活动,活动背后则是平台上所有商家在参与,这里面既涉及到数量,又涉及到品类。 阿里巴巴2023财年年报显示,过去一年,淘宝新增了512万商家,淘宝上持续经营10年以上的店铺数超过170万家。 京东集团CEO许冉曾表示,在上个月(2024年3月),京东三方商家有效店铺数突破百万。 显然,参与京东、淘宝、拼多多等电商平台618活动的商家至少有几百万家。另外,在品类方面,数码3C家电、服饰箱包、珠宝奢侈品、图书等多个品类都在参与618活动。 京东有自营和第三方商家,淘宝有天猫超市和第三方商家,拼多多有百亿补贴商家和普通商家。由此也可以看出电商平台自身体系的复杂。 大量多个品类的商家一起参与一场大促活动,肯定做不到简单和价格统一,每个品类的利润和成本完全不同,怎么可能按照统一的满减或者打折来进行促销呢?就像苹果手机动辄降价一两千元,其他产品很难实现。 所以,真不是电商平台不想搞简单降价促销,让你“买东西就像做奥数题”,而是有心无力。每次618、双11之前,电商平台都会宣称促销多么简单,但真到要执行操作,再落地到单个商家的时候,这些提前说的口号都是“空谈”。成年人应该明白,说得到做不到这种事情很常见。 复杂的体系和数量众多、品类不同的商家根本就做不到一致性,这就导致消费者在618期间购物的时候,会出现价格不一的情况,一个不小心,就会被电商平台给“套路”。 其次,提前加购物车,不要“激情”下单,学会用“价格保护”。让你了解京东、拼多多、淘宝等电商平台618大促活动的复杂性,并不是让你“同情”平台,而是明白为什么会出现价格“套路”。作为消费者,肯定是要保护自己的权益。 要想避免被“套路”,最常见的做法就是,提前加购物车,一般我会将自己有“意向” 的商品提前放到购物车中,并不一定是现在买,而是等到降价的时候再买。加购物车还有一个好处是,可以看到商品的价格波动,在这个观察过程中,你就会发现自己究竟会不会被“套路”。 这里我举一个自己的例子,我想买的一双跑鞋,在某平台上的价格几乎每天都会出现波动,一会儿395元,一会儿355元,一会儿347元,换个页面点进入,可能又变成395元,而当我第二天重新打开App的时候,平台又给了我一堆优惠券,最终一看,价格还是355元,这个价格波动非常神奇,如果我没有仔细观察它的价格波动,很有可能以为自己捡了个“大便宜”,但其实我买的价格远比“优惠价”要高。 可能有人认为我这样挺没意思,不就是在网上买一双鞋吗?还要搞得这么复杂,看来看去,但要知道的是,最终套路的是自己的“钱包”。 如果提前没有加入购物车该怎么办呢?这里就要进行第二步,不要“激情”下单。很多人网购喜欢上头,就是突然看了一条短视频,突然在对方直播的时候,就下单,下单后又嫌退货麻烦就算了,这又是给自己“挖坑”。除非价格非常非常诱人,否则,真没必要“激情”下单,现在的网购,只要买自己的必需品即可,没必要囤货,电商平台的促销一波接一波地来,只要你用心留意,真差不了多少钱。 当然,如果商品本身单价就很低,这种情况下是无所谓的,但若是客单价较高的商品,还是应该审慎一些,不要轻易“上头”,买完又后悔。 第三步是学会用“价格保护”。京东、拼多多、淘宝现在都提供保价服务,保价是平台为了保护消费者权益的功能,甚至都不需要你是京东Plus会员、淘宝88VIP会员、拼多多月卡会员,普通用户也可以申请保价。 京东保价服务申请步骤:右下角我→客户服务→自助服务区→价格保护→一键价保。 拼多多保价服务申请步骤:右下角个人中心→官方客服→下方点击选择联系官方客服→输入“保价”问题并发送。 京东保价服务申请步骤:右下角我的淘宝→右上角官方客服→价保中心→全部订单一键价保。 我曾经在某群里看到一位“大神”用保价退款退了11000多元,一共退款573次。保价这个功能真的非常实用,用上去也毫不丢人。 其实,在购物之前,消费者如果对价格有疑惑,比如担心商家涨价/降价,可以提前问一下商家是否有保价服务,是不是618都是这个价格,提前沟通也是避免被“套路”的一个方法,有时候商家的优惠并不会在店铺页展示出来,只有在你其单独对话之后,商家才会给出最优惠的方针。 要想避免被“套路”,还有一个方法是与以往的购买记录进行价格对比,可以往前翻翻过去的购买记录,对比当下的价格是否比以往更便宜,比如,我就发现某款T恤这次618的价格,要比之前我买的价格贵,问商家是否有价格优惠之后,他们确实给出了今年的优惠价格,但还是贵,这种情况下也没必要和商家多说,觉得价格不合适不买就行。 话说回来,618完全不买,好像也不太可能,一方面是网购的日常化;另一方面,是如果你仔细在618期间挑选,倒是也能买到便宜的商品,根据我过去的网购经验来看,有时候618的活动价格甚至比双11都要便宜,如果你一味地抵触618本身,似乎也没这个必要。 总的来说,以平常心来看待京东、拼多多、淘宝等电商平台的618活动,能捡到便宜当然开心,但也要避免被“套路”,毕竟平台和商家也是要赚钱的。
“网红”董明珠:被流量反噬
原标题:“网红”董明珠:收放自如的爽文大女主 在企业一把手上线营业“卖艺”当网红的今天,董明珠是雷军之外的又一位“顶流”。有她的地方,就是流量。 不管是与王自如的“绯闻”,还是和孟羽童的“恩怨”,不管是穿着汉服以女王或少女扮相游洛阳,还是被群嘲或赞扬,不能不承认,这位“七旬老太”,牢牢占据着C位。 企业领导者和网红之间,董明珠切换得游刃有余、收放自如,她有一套坚定的网红方法论。所有这一切,都指向她所塑造的“新时代的拖拉机手”这样一个形象。哪怕是对大学生就业者只看工资、不断跳槽的批评,也都带上了苦口婆心的色彩、为未来大局考虑的姿态。 平心而论,她活成了自己想要的样子。如果说,雷军是爽文男主,董姐就是不折不扣的爽文大女主。 -双面- “不买格力空调的都是傻瓜”、“大学生求职不能只为钱”、“开机画面必须是我”,与现在张牙舞爪的董明珠相比,更喜欢1990年的她。 那年,36岁的董明珠穿一身浅灰色职业套装,戴一副眼镜,跟同事们在登机前合影。当时董明珠在格力还只是一名空调销售员,却因为年年销冠而年薪百万(要知道部门负责人也才10万),工作顺遂;留着时兴的蓬松短发,知性优雅,确有几分她喜欢的日本影星山口百惠的气质。 凭着拼命的劲儿,很快,她就高升了。 四年后,董明珠临危受命被召回格力总部担任营业部部长,面对的是销售员集体辞职的烂摊子,那时候空调销售的旺季就要到了。 左一为年轻时的董明珠 2005年的董明珠已经明显变了,一篇报道里,这么写她:“董明珠爱穿漂亮衣服,却从来没有一件职业装。她说:‘为什么要穿白领套装?我喜欢自由自在美丽的衣服’。”可能她自己都忘了15年前的照片,就像没有人知道初升部长的那年她到底经历了什么。 说忘记可能并不准确,应这样理解:在成为部长后,董明珠发生的巨变,是权势将她潜藏的本性压榨出来,强大的外表里裹着的是一颗小女人的心。 在面对外界各种质疑、内部排挤、亲人朋友远离,董明珠回忆说:“我当时问自己,你回来当部长是想干什么?既然回来是为了让企业做得更好,那就要有一种精神,放下自我,拼命去干……我的个人选择发生了根本变化。” 她不但选择成为格力电器的掌舵人,还选择成为了一名网红。 前不久的5月12日和22日,董明珠两次去洛阳,喜爱“美丽自在衣裳”的她,爱上了汉服,装扮起来穿梭在洛邑古城。第一次扮少女,第二次扮女皇,过足了戏瘾。 尽管,69岁的她面部肌肉早已形成凶猛印记,但与女皇装扮相得益彰,眼神里藏不住的柔美,同时也为格力电器的传播提供了噱头。 来洛阳,董明珠原是为公司活动“新品品鉴会”站台,但新闻标题大多是“董明珠现身洛阳穿汉服 王自如陪同左右 两人全程甜蜜有说有笑”或者“董明珠穿汉服游洛阳艳惊四座 王自如眼神充满崇拜”。 5月22日再来,她带着闺蜜团,这次标题,变成了“董明珠再游洛阳试穿女皇装 王自如难觅踪影”。 这样的环境里,董明珠不可能还是1990年穿白领套装、一脸懵懂的山口百惠。随着从当初窗机2万产能、净资产不到千万元的小厂到营业收入达到2000亿、闯进世界500强,董明珠出色地完成了大销售到网红霸总的转型,并越来越熟稔网红的游戏规则。 她与同时代的雷军、周鸿祎相比,更像一头战狼——有一颗爱国心、有情怀、有产品。 当面临格力手机“开机画面必须是我”的嘲讽,面临“格力多元化失败”“董明珠阻碍了格力发展”这样的质疑时,董明珠丝毫没有闪避,她用强硬且高度自洽的逻辑,保持了自己一度的坚持: “格力电器所有的人才是自己培养的,技术是自己研发的,我们追求每一件事对社会是有利的。企业下滑了,企业不行了,其实并不是,一个企业的发展是有波动的。我是为社会而活。我们在社会当中坚持做成一个健康的细胞。我们更多的是创造共同富裕。” 甚至央视《遇见大咖》主持人史小诺问她做数控机床“投入回报”的问题时,董明珠爆粗,说自己就是不考虑回报,“如果我们每个目标都是为了回报,那永远干不成事。回报不是你考虑的,是你的产品在社会上被认可。企业的价值是奉献。” 董明珠的自洽,让她得以积极地面对负面问题。业绩好的年份,自然是会宣布“经营成绩创下新高”,当被问到棘手的问题时,譬如跌出世界500强,则是“比起进入世界500强,我更关心企业到底健康不健康”。 这逻辑很像“你跟她谈情感她跟你谈法律”,董明珠总能转到自信闭环上,可见其强悍的内里。 -逐流- 最近新加坡《海峡时报》刊发了一篇文章,名为《不一般的网络名人,中国的首席执行官们变成网红》,展现了在微博、短视频、直播间拼命卖艺营业的CEO们。 比起推出小米SU7风头正劲的雷军,董明珠做网红的时间要早得多;比起“希望大家帮我成为网红”的岚图汽车CEO卢放,董明珠做网红可谓平步青云;而跟2月发话要“节省公司广告费”的周鸿祎相比,董明珠靠做网红早已节省了不知几个亿。 2012年,格力前掌门人朱江洪退休,董明珠被推举为格力电器董事长、总裁后,她就开始自己的网红之路。但她的自我包装其实更久远——从2000年自传《棋行天下》出版就开始了。 这是国内第一本由家电行业的职业经理人亲笔撰写的作品,在当时实属少有,那时只有一个IBM的职业经理人叫吴士宏,出版传记《逆风飞飏》,记录自己从一个无学历的护士爬升到外企高管的励志经历。董明珠的传记基调类似,记录了她在格力打拼的故事。据说当时购买格力空调,会随机赠《棋行天下》,央视还把这本书改编成黄金档电视剧播出。 2003年董明珠首次当选了第十届全国人大代表,这意味着她获得官方认可;随后董明珠又连任第十一届、十二届、十三届、十四届人大代表,成为连任时间最长的家电行业人大代表之一。 尝到红利后,董明珠2006年出版了《行棋无悔》,引发广泛关注。当时董明珠已经是中国商界的明星人物,这一年她入选“CCTV中国经济年度人物”,与李嘉诚、沈南鹏、张近东、张茵、刘永好等企业家一起上榜。榜中只有她不是企业创始人或一把手(当时董明珠任格力电器总裁,格力电器董事长是朱江洪),而以“美的集团董事长”之职获此荣誉的方洪波,是在董明珠得奖16年后了。 2010年、2013年,董明珠又得过该奖,成为唯一一位三度获奖的商界女性。董明珠网红爆发的时刻,也正发生在2013年这次颁奖礼上:董明珠跟雷军临时兴起,打起了那个著名的“十亿元”的赌。 据一位当时在场的企业家事后透露,打赌真的是临时兴起,两个人在台上话赶话怼起来了。这次交手激发了董明珠好斗、倔强的个性,促成了她向“流量网红企业家”的彻底转型。 很明显董明珠经过这次豪赌赚取流量后,在“做网红”这事儿上找到感觉,从此一发不可收拾。口出狂言、真我表达,成为了她的绝佳武器,做过多年格力大销售的董明珠,将其运用得出神入化,炉火纯青。 “霸总”的人设为她带来了助推力,随着格力电器业绩的突飞猛进,董明珠登上了中国商界巅峰,成为常常抛头露面的超级IP。尽管她并非企业创始人也非一把手,只是一位职业经理人,但形象已随格力电器走进了千家万户,人们觉得“格力就是董明珠,董明珠就是格力”。 2015年,她又获得“全国劳动模范”荣誉称号授予了董明珠。这一年,格力电器将“董明珠”注册商标,并且是在中国商标现有的45个大类中,全部申请注册了。 梳理董明珠的网红成长史不难发现,她的言行与企业治理业绩紧密联系,是这些塑造了董明珠网红人设的底色——“新时代拖拉机手”。 在跟雷军豪赌后,2016年董明珠自媒体宣布上线。关注她的公众号,自动弹出的,是董总裁的一段欢迎语。 2017年和2019年,市面上又出现了两本董明珠的传记,这次并非由她执笔,是第三视角写作。一本歌颂董明珠“像是一只不知疲倦的鸟,早起晚归,为雏鸟领航”的《营销女皇的倔强人生》,另一本“完整呈现出一个女企业家的风雨心路与广阔的精神世界”的《独立女性奋斗范本》。 -反噬- 著书立传所传播的话语权能量范围毕竟有限,而网综、专访是董明珠进阶的平台。最近几年董明珠参加了如《吐槽大会》、《非你莫属》、《最强大脑》、《奇葩说》等大大小小十多个综艺节目。 她擅长制造话题的体质,在这些节目中时常引发全民的关注,以遭到群嘲和批评居多。其中,2021年3月,董明珠通过《初入职场的我们》把22岁的孟羽童招入格力任秘书,并在中国制造业领袖峰会上表示“要将孟羽童培养成第二个董明珠”,一句话让董明珠和孟羽童的抖音账号粉丝从7000飙升到了8.7万。 不过,很快,董明珠将孟开除,并发表大量抨击后者的言论,凭此举又获大量热度。有些言论也被好事者单独剪辑出来,不免有断章取义之嫌。 在今天,CEO直播已经被诸多企业当做压缩广告费用的得力方法。5月18日雷军3个半小时的直播,吸引了3900多万人观看。在他之前,董明珠就开始了直播。2020年格力商城改名为“董明珠的店”,她开启了全国巡回直播。全年共13场直播,带货467亿元。2023年“618”期间,格力抖音直播矩阵销售额突破4000万元,6月18日当天董明珠连续直播到晚上12点。 线上销量的影响力,让董明珠意识到需要改革格力的经销商体系了。这就有了另一位网红王自如的加盟。 自称没有看过工资条,只想要一间靠近董明珠的办公室,能随时跟董总汇报工作……王自如这番言论在某卫视节目中播出,迅速引发了一系列群嘲和桃色绯闻,导致格力电器官方下场,来收拾烂摊子,表示“谣言,已报警”。 但这些,是董明珠成为网红必须承受的。当她成为娱乐化符号之后,随之而来的就是成为吃瓜群众八卦谈资。这种反噬,会出现在任何一个网红身上。 新加坡国立大学商学院副教授李秀平对CEO做网红表示过担忧:“若CEO做错了什么就会对品牌产生负面效应。”复旦大学东方管理研究院院长、企管系主任苏勇教授说,董明珠有个人影响力,为企业站台宣传推广未尝不可,但不能经常化、泛滥化。 因为“人的精力有限,企业内部的细致管理,一把手还要认真参与;企业一把手在线营销,万一企业有问题就没有退路,一把手说话不能太满”,但董明珠说“我不可能犯错”。 为什么董明珠如此热衷做网红,发表各种惊人言论呢?难道只是为了节省广告费? 组织管理学上有一个“高层梯队理论”,说的是“企业是高层管理者团队特征的反映,CEO个人特质对于企业有重要影响”。2020年浙江工商大学的一位硕士研究生论文,就以格力电器为例分析了“CEO自恋现象”。 作者陈舒心比较了格力电器的经营表现,及最近深陷管理人员的负面社会舆情,对格力股价下跌做出预警。同时总结了董明珠自恋的三大表现:一是渴望支配性权力;第二是采取冒险决策;第三则是固执己见。 作者还认为,董明珠“倾向于采取冒险决策和固执己见的自恋人格表现”,将会导致格力电器多元化失败,使得格力电器至今仍未找到新的增长点。 当然,董明珠不这么认为。就多元化失败和新增长点这个话题,董明珠坚持:“我从来没认为我失败,失败是不能给股民分红了。近5年格力电器平均每年股票分红超过百亿元。” -妈味- 多年来,董明珠在大众面前呈现的多是穿花花绿绿衣裳的形象。曾有去过董明珠南京老家的记者回忆,她家里的窗帘桌布之类,都是董明珠自己缝制的。 这不禁让人想起她设计的玫瑰空调——体现着董明珠审美和自恋的产品,最近在直播中又一次被吐槽土和丑。这台售价近3万柜式空调,由董明珠亲自操刀设计的,2023年七夕被作为节日主推品牌,被骂上热搜。 抖音号“格力明珠精选”发布视频回应称:“董总说要用玫瑰向用户表达爱意,让这台空调成为值得收藏的艺术品,为了这个追求,我们不断努力。”从回应不难看出,格力已经无人能撼动总裁对“值得收藏的艺术品”的设计的坚持。 谁能相信,夜间模式下闪烁粉红色光芒的格力玫瑰,是“格力送给所有用户的艺术品”?如果说董明珠重新定义了网红,那么她也一定在重新定义艺术品。 据《第一财经日报》报道,在格力董明珠店玫瑰空调累计仅卖100余台。今年3月接受央视财经节目《对话》专访,董明珠对此回应,“很多人吐槽说’董明珠好土’,那我土就土,我觉得没所谓。” 此外还有一种可能,在早期董明珠在格力电器大权交接的混乱阶段,靠的是数量庞大的经销商。在这些庞杂的人心面前,董明珠必须要呈现出一个雷厉风行、刚正不阿、怒而拍桌子的形象,敢于对着股东们说:“我五年不给你分红,你们能把我怎样!” 有意无意流出的视频片段,无不在支撑董明珠霸总人设,难怪财经作家吴晓波说她是“另类网红”。 这也是为什么一家8万多人的公司在“全球梦想盛典”中,会出现“我妈就是董明珠”这样的节目。如果按照心理发展模式那套理论来看,董明珠和她带领的格力已经到了“超我”的阶段,这位网红化的上市公司一把手,从玫瑰空调开始学会了自洽自娱自乐,同时也开始肩负起为年轻人开悟的职责。 “大学生求职不能只为钱”、“他们应该付我培训费”这些言论,毕竟一代环境造就一代人,董明珠这一代人的价值观,和现代年轻人有代沟。 在利益面前,董明珠早年访谈说:“我也不是没有动摇过。但是回头来看,一个人因为外面的诱惑就动摇了,因为给他的钱更多他就去了,那我觉得这样的人胸无大志,就是为了钱而工作,还能做出什么大事来?” 如果有人愿意花点时间去读董明珠早年的一些采访,会发现董明珠想得很明白,当初她来珠海就是因为这个城市美丽宜居,“怎么会轻易因为金钱上的诱惑就放弃了这个城市?” 如果为了钱而工作怎么能有今天的成就?再加上50年代群体的家国情怀,就能理解今日董明珠的一份苦心。 只不过,这种过来人的心态,从霸道总裁角度和位置说出来,虽有一定道理,但充满了资本“妈味”。但那又怎样呢,起码董明珠又一次登上了热搜,稳坐企业家网红的宝座。就算有人反驳,她也会高高举起你说你的反正我不听的牌子,毕竟有钱就是这样任性。 5月初,董明珠在一场直播中发起“格力好主播计划”,说要在全国范围内搞一个选秀,前10名的获奖选手可以去董明珠500平的豪宅做客,由董明珠亲自给大家做饭吃。 有一位网友反问,“参加她的家宴又能怎样?” 董明珠并未回答。
巨头掀翻了AI PC的桌子
5月,成为了AI“爆炸”的一个月。 5月8日凌晨,苹果发布了地表最强平板,采用M4芯片的iPad Pro。M4芯片带来了极致的AI性能,用官方的话来说:“比当今任何AI PC的任何神经引擎都强!” 苹果发布之后的第6天,Open AI宣布最新的旗舰大模型GPT-4o来了。不仅免费可用,更是横跨听、看、说。 紧跟着Open AI,谷歌坐不住了。第二天 I/O 2024开发者大会上,谷歌宣布了Gemini系列大模型的更新。Gemini 1.5 Pro不仅面向所有人开放,上下文窗口还从100万token直接一步迈向200万,一口气能读1500页PDF。 在Open AI和谷歌的大战后的6天后,微软不声不响地再次向AI的湖水中投入一块巨石,提出了“Copilot+PCs”的概念。 这一波操作下来,网友们都开始兴奋:“事情变得有趣起来。” 01 微软向苹果开火 “Copilot+PCs”的概念的出现,直接掀翻了AI PC的桌子。 为什么这么说? 与此前主机厂频频展示但概念模糊的“AI PC”相比,微软给出了更明晰的定位。Windows系统层面,集成了刚刚问世的GPT-4o;在硬件层面,内置的骁龙X Elite芯片可以在不依赖云端算力的情况下,本地处理生成式AI应用。 微软的清晰定位,戳破了很多厂商还在遮遮掩掩的模糊概念,带来的两个拷问特点就是:AI PC到底需要什么样的硬件?又需要什么样智能体? 微软在发布会上,频频将矛头指向了苹果。 比如,为了体现第一款Surface Pro的性能,微软拿出苹果MacBook Air一较高下。根据微软官方测试,新款Surface Pro的多线程性能相比苹果的MacBook Air高58%。 微软还强调想要被称为 Copilot+PC,至少需要提供 40 TOPs 的性能。而苹果这个月刚刚发布的M4芯片,NPU算力正好是38 TOPs。 为了能够在本地处理生成式 AI Copilot,微软除了要求需要NPU外,还至少要 256GB SSD、和 16GB RAM。这个要求,是苹果MacBook Air 的两倍。 可以说,微软抛出的条件,直击苹果的软肋。 自从今年AI PC逐渐成为个人电脑领域的热词后,苹果就一直在渲染Mac是消费者可以买到的最好的AI PC。按照苹果的说法,自从2020年第一款M系列的芯片M1推出时,带有NPU的M1就是为AI而生。 苹果CEO蒂姆·库克曾在今年年初提到,“目前市面上用于人工智能的电脑,没有比Mac更好的。” 要提到Mac的最大槽点,非“祖传”的8G内存莫属。距离库克上一次升级内存已经过去了7年,这7年中Mac系列机型始终没有提升过内存的起步配置。 对此苹果方面声称,Mac使用的8GB统一内存(Unified Memory)与竞争对手的16GB内存(Memory)相当,官方给出的答复是8GB内存足以驾驭上网、播放视频、轻量编辑等很多任务。 问题是,8GB起步的内存能够支撑Mac成为最好的AI PC吗? 运行AI大模型需要大容量的显存是众所周知的事情。伯克利大学的研究团队发现,未来内存墙可能将会是比算力更大的瓶颈,GPU的显存容量严重制约了可训练的模型规模和算力提升速度,或将成为阻碍AI技术发展与落地的重要瓶颈。 GPU的显存如果只有8GB水平,无论开发者如何进行优化,想要容纳一个千亿参数的大模型也只能是巧妇难为无米之炊。 如果想要配置一台能够畅玩AI 的电脑,那么大多数人的意见都会是32GB起步的内存。实际上,在2024中国闪存市场峰会上,英特尔甚至更为激进地表示,未来AI PC入门级标配一定是32G内存,而当前16G内存一定会被淘汰。 也正因此,微软将未来AI PC门槛配置提高到16GB 也不足为奇。 02 AI PC芯片,多少算力算够? 实际上,虽然对于AI PC 在软件、系统层面的争论还在继续,但硬件层面,厂商都不约而同达成了共识:需配备NPU、CPU和GPU的异构计算平台。 目前推出AI PC芯片的厂商有四家:英特尔、AMD、高通、苹果。不过苹果属于自产自销,因此我们不多讨论。英特尔在AI PC芯片进展中保持领先,AMD相关产品迭代速度更快,高通AI PC芯片的端侧AI推理能力优于英特尔及AMD,未来预计逐步抢占更多市场份额。 市场上已公布的AI PC大多搭载的都是英特尔的Meteor Lake,比如联想小新 Pro 16 2024 酷睿 Ultra 版、联想高端线 YOGA 、微软的两款PC Surface Pro 10商用版和Surface Laptop 6商用版、华硕灵耀14 2024 AI超轻薄本等。 这是英特尔在2023年年底发布的Meteor Lake,采用Intel 4(7nm)制程工艺的计算模块,多达 6 个性能核,8 个能效核,以及 2 个低功耗岛能效核,一共加起来会支持 22 个线程。 目前,Meteor Lake AI PC已经赢得了100多家ISV独立软件供应商的支持,AI加速功能已经超过300项,AI大模型加速优化已经超过500项。 AMD也提供 AI PC的芯片。AMD在去年推出了锐龙7040,同样搭载NPU。此后,AMD又发布了锐龙8040处理器。锐龙8040系列开发代号Hawk Point,仍然基于Zen4 CPU架构、RDNA3 GPU架构、XDNA NPU架构。目前,搭载AMD 锐龙8040处理器的AI PC包括华硕ROG幻14 Air笔记本、华硕天选、华硕a 豆、华硕无畏。 此外,AMD相关产品相比友商更新迭代速度更快,例如在美国东部时间4月16日,AMD宣布推出两款新产品锐龙(Ryzen)Pro 8040系列和锐龙Pro 8000系列,惠普、联想等厂商会在今年年底前推出搭载锐龙Pro 8040系列芯片的AI PC。 高通的AI PC芯片是在去年10月发布的骁龙 X Elite/X Plus。由台积电4nm工艺制程打造,搭载了全新定制的Oryon CPU,在4+4+4的三丛集中,12颗核心的主频均可达到3.4GHz。 目前,搭载骁龙 X Elite/X Plus的AI PC包括宏碁 Swift 14 AI 笔记本,以及微软刚刚发布的Windows 11 AI PC。据了解,Windows 11 AI PC自6月18日起陆续上市,微软Surface以及戴尔、宏碁、华硕、惠普、联想等OEM合作伙伴将陆续推出Windows 11 AI PC。 前文提到,微软认为真正的AI PC需要算力达到 40 TOPs。这对于AI PC的芯片层面提出了一个新的要求。 我们来看看,目前主流的Meteor Lake、锐龙8040、骁龙 X Elite/X Plus的算力情况。 英特尔Meteor Lake的综合算力在34 TOPS左右,NPU算力在10TOPS左右,官宣可以支持200亿大模型在终端侧运行;AMD的锐龙8040的整体算力在39 TOPS,NPU的AI算力在16 TOPS;高通骁龙X Elite NPU的算力则达到了45TOPS,官宣可支持130亿参数大模型的本地运行。 芯片企业竞争力分析对比图 总体上来看,芯片算力层面,高通优势最为突出。计算速度层面(频率),AMD处理指令的速度更为突出。功耗层面,AMD芯片优势突出。核心数方面,英特尔的并行处理数据能力更强。 值得注意的是,英特尔已经宣布了自己的下一代笔记本芯片Lunar Lake,将可以提供超过100 TOPS的性能,其中神经处理单元(NPU)能够提供45 TOPS。而这一性能,也达到了英特尔此前在台北人工智能峰会上提出的下一代AI PC所需的45 TOPS NPU的性能门槛。 实际上,根据《AI PC产业(中国)白皮书》,当端侧混合AI算力达到10TOPS,可以在本地完成如设备智能管理、图像增强、游戏调优等特定场景的 AI模型推理任务;AI算力达到 40TOPS 时,可以在与GPU或云端配合情况下,完成工作、学习、娱乐等场景的大部分 AI 创作类的需求。 这么来看,真正成熟的AI PC芯片算力至少会比当前再提升一个水平。 03 AI PC在期待什么? 在1月初,微软往 Windows 键盘塞了一枚全新的 Copilot 键,迎来近三十年的首次改版,只需点击一下按钮,用户就可以和 Copilot 进行无缝亲密的互动。而现在,微软的 Copilot 键,用户可以直接访问包括 OpenAI 的 GPT-4o 在内的最新模型。 微软是首个将GPT-4o快速整合到终端的企业,当然,考虑到微软和Open AI的关系,双方的合作应该很早就已经开始。 实际上,无论硬件层面如何要求,一台PC上能够在本地运行、搭载大模型才能算一台合格的AI PC。在分析机构看来,未来的AI PC产品将更像是用户的个人AI助理,这需要将个人大模型、个人知识库、个人Agent嵌入到设备中以实现AI PC的多模态自然语言交互,大幅提升意图理解能力。 AI PC是大模型向终端转移的第一步。 从目前市场上的端侧大模型来看,一个符合常理的规律是:设备端越大(功能越多),其端侧大模型的参数量也越大。例如最近商汤亮相的“日日新5.0”,采用混合专家架构(MOE),是国内首个全面对标甚至超越GPT-4 Turbo的大模型,参数规模达到6000亿。 上千亿参数的大模型,对于PC来说,显然并不适合。 我们可以来看看目前发布的能够搭载大模型的PC。华为的首款AI PC产品MateBook X Pro上,支持华为自家的盘古大模型以及文心一言、讯飞星火、智谱清言等第三方合作大模型。在个人智能体方面,华为AI PC的电脑管家中设有AI空间,内置100多个智能体,覆盖文案创作、编程等多种能力,为用户带去AI新体验。 联想通过大模型压缩技术对阿里通义千问大模型进行压缩,压缩后的大模型称为Lenovo AI Now模型,加上在个人智能体方面,联想发布了业内首款AI PC个人智能体——联想小天。 荣耀发布的AI PC 产品MagicBook Pro 16中,搭载荣耀语音助手「YOYO 助理」,帮助用户完成语义搜索、文档总结、服务推荐、辅助创作等。 200亿的参数已成为AI PC目前可以支撑的较高水平,对于大模型厂商来说,如何提供轻量级大模型是一个问题。 目前的主流方式是借助大模型压缩技术,可以在不显著降低模型性能的前提下,节省存储空间、提高计算效率、加速推理过程。比如知识蒸馏、模型量化和权重剪枝等,将数据类型转化为int8甚至int4,从而进一步减少推理过程中的算力需求。 如果能够将更多复杂的大模型在PC端实现高效运行,那么未来除了OpenAI的GPT系列,阿里云的通义千问、腾讯混元、百度文心系列等等,都有可能成为端侧AI PC的重要组成部分。比如,在大模型、AIGC应用方面,荣耀就已同百度达成合作。 04 现在购买AI PC的人,是先驱还是韭菜? 在早期大模型还没有如此火热的是很好,很多爱好者和研究者都会自己组装,选择在本地电脑上折腾这些开源大模型或者开源项目。 那么,在市面上攒一台可以训练个人大模型的台式机,大概需要多少钱呢?粗略计算各组件的成本如下: 可以看到,组装一个本地跑大模型的台式机价格大概在1.1万到4万之间。通常来说,台式机不需要考虑便携性和体积,价格要比笔记本电脑便宜。 信息来源:IDC IDC对于价格方面比较保守,从IDC统计的数据中,AI笔记本电脑平均销售单价将在5500~6500元区间,AI台式机电脑平均单价约4000元。 不过目前公布的AI PC价格来看,以定位比较高端的ThinkPad X1 Carbon AI 2024 为例,顶配的32GB+2TB 版本,售价为16999 元。新发布的YOGA Book 9i,最高售价为17999元。而华为新发布的MateBook X PRO的高配 Ultra9 32GB 2TB为14999元。如果购买微软的Surface Pro,想要搭载 X Elite 芯片和 OLED 屏幕的话,最少要花费 11088 元。 虽然调研机构预计2024年以后需求增长和性能提升将推动AI PC销售均价继续提升,但是整体会呈现“初期高定价,中后期价格下降”的趋势,下降幅度取决于芯片等硬件设备方面的降本空间。但是在AI PC刚发布初期,这个价格和性能还不足以让消费大众砸钱换新机。 05 观AI PC全局 伴随着AI CPU与Windows12的发布,2024年将成为AI PC规模性出货的元年,2027年AI PC将成为主流化的PC产品类型,未来五年全球PC产业将深入迈入AI PC时代。IDC预计未来五年全球AI PC的复合增长率将达到126%,中国AI PC市场渗透率预计将于2027年增长至85%左右。AI PC将成为全国及中国PC市场发展的主要驱动力。 中国AI PC市场出货量及占比预测 信息来源:《AI PC产业白皮书》 硬件层来看,处理器芯片、内存、散热、交互将是主要收益领域;模型层来看,未来针对各行业的垂直端侧模型将成为主要发展趋势,进而支持传统软件的AI转型以及AI原生应用的发展;终端层来看,各主流PC厂商玩家正加快AI PC相关产品布局。 AI PC产业链图谱 从芯片生态能力来看,英特尔Ultra芯片生态综合能力更强,拥有更多的头部大模型及AI PC品牌商等生态合作伙伴。 芯片企业生态图谱 2023Q2开始,头部厂商陆续推出了ThinkPad14、EliteBook805等AI PC初期产品,且这一趋势在2023下半年开始进一步提速,各大厂商相继推出更多性能更强的AI PC新品。根据各大厂商表述与产品进展,2024年各头部厂商将推出一波采用AI加速的新机型,及时为用户提供差异化体验。 惠普、戴尔、联想、宏基和华硕都表示,计划与英特尔和AMD 的新CPU产品路线图同步推出全新 AI PC,在 2024-2025 年 Windows 更新期间产品推进市场,为加速设备升级提供机会。 AI PC产品发布路线图 AI PC玩家竞争力对比 应用层-应用场景及应用软件 AI PC应用场景主要包括垂直行业类应用场景以及通用型应用场景。垂直类行业应用场景主要包括教育类垂直应用场景、医疗类垂直应用场景、法律类应用场景以及金融类应用场景等。通用型应用场景是指AI PC能够针对工作、学习、生活等场景,提供个性化创作服务、私人秘书服务、设备管家服务在内的个性化服务。 AI应用软件生态处于初级阶段,同时国际主流个人AI应用软件在国内受限,国内软件应用生态待发展。各垂类细分领域应用场景仍需要进一步的开发。在AIPC时代,在端侧部署本地大模型仅是基础,重要的是要构建AIOS交互界面和生态,其能调用的应用与模型数量和质量直接决定了用户的AI体验。目前还处于待开发阶段。 06 AI PC行业未来发展趋势 从产业链发展趋势来看,上游AI PC芯片“CPU+NPU+GPU”异构方案将成主流,并支持用户对AI PC芯片进行二次开发,同时端侧模型呈现轻量化、行业垂直化、个性化发展趋势。中游各PC品牌主流玩家均继续加速布局AI PC赛道,短期来看,联想AI PC综合实力更强,但是长期来看,具有手机品牌的电脑厂商基于其可以将手机及电脑打通的生态优势,将具有更大的AI PC发展潜力。下游政务、医疗及教育行业将成为AI PC落地场景的主要赋能行业。 从产品发展趋势来看,未来AI PC产品将主要包括两类,一类是具有高AI算力的AI PC产品,另一类是具有低AI算力的AI PC产品。高AI算力AI PC产品可运行大量垂直行业细分领域的端侧大模型,低AI算力AI PC产品的端侧大模型主要围绕语音、文字和图像处理等。 从商业模式发展趋势来看,随着未来AI软件侧及相关技术的进一步发展与落地,AI PC中的AI助手会采取与WPS类似的商业模式,根据服务的不同等级设置不同的价格。 从生态体系发展趋势来看,PC终端厂商将承担起行业生态组织者的使命,以场景需求为基础面向用户整合产业资源,成为 PC 产业生态的核心中枢。AI模型技术厂商将重点开发轻量化与针对各垂直行业的端侧大模型、提供模型个性化微调服务以及将自身模型解耦和适配AI PC个人智能体。传统应用厂商需要和模型厂商合作,将传统应用升级为大模型赋能应用;长期则需进行更为彻底的重构,将自身转型为AI原生应用。AI应用商店将聚合AI原生应用和由AI赋能的应用,并提供便捷的检索和下载支持。芯片厂商将注重建立通用、兼容的AI开发框架,并降低大模型和应用开发适配门槛模型,提供具有高效能普惠型智能算力的芯片。 从总体上来看,智能设备作为人工智能触达用户的载体,AI PC将深入变革PC产业。生成式AI和LLM的飞跃式发展,深刻变革了个人生活与工作模式,加速各行各业智能化转型。AI发展正从软件主导转向硬件+软件并行驱动,而智能设备作为AI触达用户的终极载体,正成为AI未来发展与落地的重要突破口。AI PC将AI模型与PC结合,带来架构设计、交互方式、内容、应用生态等创新,将深入变革PC产业。
斯坦福AI团队抄袭国产大模型?清华系团队发文回应
原标题:斯坦福AI团队抄袭国产大模型?连识别“清华简”都抄了!清华系团队发文回应 作者 | 程茜 编辑 | 心缘 智东西6月3日消息,大模型“套壳”的回旋镖,这次扎到了美国科研团队身上。最近几天,斯坦福大学AI团队陷入抄袭风波,被质疑“套壳”清华系大模型开源成果,引起舆论哗然。 起因是这个团队在5月29日发布了一个多模态大模型Llama3-V,声称只花500美元训练,就能实现在多个基准测试中比肩GPT-4的性能。但很快有人发现,该模型跟清华系大模型创企面壁智能5月发布的MiniCPM-Llama3-V 2.5模型有不少相似处,而且没有任何相关致谢或引用。 一开始团队面对抄袭质疑还嘴硬否认,只承认使用了MiniCPM-Llama3-V的分词器,后来证据越来越多——不仅架构和代码高度相似,而且被发现作者曾在Hugging Face导入MiniCPM-V的代码,然后改名成Llama3-V。 最绝的是Llama3-V连国产AI模型的“胎记”都抄走了,跟MiniCPM-V一样能识别清华战国竹简“清华简”,而且连出错的样例、在高斯扰动验证后的正确和错误表现方面都高度相似。 而基于非公开训练数据的清华简识别能力,是面壁MiniCPM团队耗时数月、从卷帙浩繁的清华简中逐字扫描并逐一数据标注,融入模型中的。 面对铁一般的证据,Llama3-V团队终于立正挨打,一套道歉流程行云流水,火速删库、发文致歉外加撇清关系。其中来自斯坦福计算机科学专业的两位作者澄清说他们并未参与代码工作,所有代码都是毕业于南加州大学的Mustafa Aljadery负责的,他一直没交出训练代码。 ▲Llama3-V作者:Siddharth Sharma(左)、Aksh Garg(中)、Mustafa Aljadery(右) 这样看来,Llama3-V团队并不能算严格意义上的斯坦福团队,不过因为此事声誉受损的斯坦福大学至今没有采取任何公开措施。 面壁智能团队的回应很有涵养。今日,面壁智能联合创始人兼CEO李大海在朋友圈回应说“深表遗憾”,这也是一种“受到国际团队认可的方式”,并呼吁大家共建开放、合作、有信任的社区环境。 一、网友细数五大证据,作者删库跑路、不打自招 Llama3-V的模型代码与MiniCPM-Llama3-V 2.5高度相似,同时其项目页面没有出现任何与MiniCPM-Llama3-V 2.5相关的声明。 公开的基准测试结果显示,Llama3-V在所有基准测试中优于GPT-3.5,在多个基准测试中优于GPT-4,且模型尺寸是GPT-4V的1/100,预训练成本为500美元。这也使得该模型一经就冲上Hugging Face首页。 但当细心网友发现Llama3-V疑似“套壳”面壁智能此前发布的开源多模态模型MiniCPM-Llama3-V 2.5,在评论区发表评论后,Llama3-V项目作者最初否认抄袭,并称他们的项目开始时间先于MiniCPM-Llama3-V 2.5发布,只是使用了MiniCPM-Llama3-V 2.5的分词器。 当网友抛出三大事实质疑后,Llama3-V的做法是——不回应直接删除网友评论。 昨日下午,网友在MiniCPM-V页面下将事情经过全部公开,并公开@面壁智能让其项目团队投诉。 当日晚间,面壁智能研发人员发布推文,其验证结果也印证了网友的说法,Llama3-V与MiniCPM-Llama3-V 2.5高度相似。同时公开喊话Llama3-V研发团队:“鉴于这些结果,我们担心很难用巧合来解释这种不寻常的相似性。我们希望作者能够对这个问题给出官方解释,相信这对开源社区的共同利益很重要。” 以下就是Llama3-V被质疑抄袭MiniCPM-Llama3-V 2.5的五大证据: 1、Llama3-V的代码是对MiniCPM-Llama3-V 2.5的重新格式化,其模型行为检查点的噪声版本高度相似。 其中,Llama3-V只是对代码进行了重新格式化和变量重命名,包括但不限于图像切片、标记器、重采样器和数据加载。面壁智能研发人员也证实,Llama3-V有点类似于MiniCPM-Llama3-V 2.5的噪声版本。 2、起初网友在Llama3-V的Hugging Face页面质疑抄袭时,其作者回应称只是使用了其分词器,并且项目开始时间比MiniCPM-Llama3-V 2.5更早。 当网友进一步询问如何在MiniCPM-Llama3-V 2.5发布前使用其分词器,作者给出的答案是使用了MiniCPM-V-2的分词器,但很明显,两个版本的分词器完全不同。 3、Llama3-V提供的代码无法与Hugging Face的检查点兼容。 但网友将Llama3-V模型权重中的变量名称更改为MiniCPM-Llama3-V 2.5的名称后,该模型可以与MiniCPM-V代码一起运行。 面壁智能的研发人员的调查结果也显示:更改参数名称后,可以使用MiniCPM-Llama3-V 2.5的代码和config.json运行Llama3-V。 4、Llama3-V项目的作者害怕面对质疑,删除了质疑者在Llama3-V上提交的质疑他们偷窃的问题。并且目前Llama3-V项目已经从开源网站中下架删除。 5、在一些未公开的实验性特征上,比如在内部私有数据上训练的古汉字清华竹简,Llama3-V表现出与MiniCPM-Llama3-V 2.5高度相似的推理结果。这些训练图像是最近从出土文物中扫描并由面壁智能的团队注释的,尚未公开发布。 例如下图中的几个古汉字识别: MiniCPM-Llama3-V 2.5中未公开的WebAgent功能上,在框选内容大小时,Llama3-V与之犯了相同的错误: 二、仨作者内讧,Aljadery全权负责写代码,但拿不出训练代码 昨天,Aksh Garg、Siddharth Sharma在外媒Medium上公开回应:“非常感谢在评论中指出(Llama3-V)与之前研究相似之处的人。我们意识到我们的架构与OpenBMB的‘MiniCPM-Llama3-V2.5:手机上的GPT-4V级多模态大模型’非常相似,他们在实现方面领先于我们。为了尊重作者,我们删除了原始模型。”Aljadery没有出现在声明中。 ▲Aksh Garg、Siddharth Sharma的回应声明 Mustafa曾在南加州大学从事深度学习研究,并在麻省理工学院从事并行计算研究,拥有南加州大学计算机科学学士学位和计算神经科学理学士学位,目前其没有在公司任职。 Garg在社交平台X中发布的致歉声明中提到,Mustafa全权负责编写Llama3-V的代码,他与Sharma因忙于全职工作并未参与代码编写。 在听取了Mustafa描述的Idefics、SigLip等架构扩展创新、查看了最新论文后,他们二人就在未被告知该项目与开源代码关系的情况下,帮助Mustafa在外媒Medium和社交平台X对Llama3-V进行了宣传推广。 在昨天看到关于Llama3-V的抄袭指控后,Garg和Sharma就与Mustafa进行了原创性讨论,并要求他提供训练代码,但目前未收到任何相关证据。 目前,Aljadery的推特账号显示“只有获得批准的关注者才能看到”。 三、首个基于Llama-3构建的多模态大模型 此前,Garg在介绍Llama3-V的文章中提到,Llama3-V是首个基于Llama-3构建的多模态大模型,训练费用不到500美元。并且与多模态大模型Llava相比,Llama3-V性能提升了10-20%。 除了MMMU之外,Llama3-V在所有指标上的表现都与大小为其100倍的闭源模型非常相近。 他们所做的就是让Llama 3能理解视觉信息。Llama3-V采用SigLIP模型获取输入图像并将其嵌入到一系列块嵌入中。然后,这些嵌入通过投影块与文本标记对齐,投影块应用两个自注意力块将文本和视觉嵌入放在同一平面上。最后,投影块中的视觉标记就被添加到文本标记前面,并将联合表示传递给Llama 3。 结语:Llama3-V套壳实锤,或损害开源社区健康发展 不论从网友的质疑还是Llama3-V作者的回应来看,该模型套壳MiniCPM-Llama3-V2.5已经基本实锤,高度相似的代码以及部分基于面壁智能内部未公开训练数据训练的功能,都证明这两大模型的相似性。 目前来看,对于大模型“套壳”没有明确的界定,但开源大模型以及开源社区的构建本意是促进技术的共享和交流,加速AI的发展,但如果以这种直接“套壳”、更改变量的形式使用,或许会与这一发展愿景背道而驰,损害开源社区的健康发展。
斯坦福爆火Llama3-V竟抄袭中国开源项目,作者火速删库
在 GPT-4o 出世后,Llama3 的风头被狠狠盖过。GPT-4o 在图像识别、语音理解上卓越的性能展现了它强大多模态能力。开源领域的领头羊 Llama3 曾在几乎所有基准测试中都超越了 GPT-3.5,甚至在某些方面超越了 GPT-4。这次就要闷声「吃瘪」了吗? 5 月 29 日,一个来自斯坦福的研究团队发布了一个能够「改变现状」的产品:Llama3-V,号称只要 500 美元(约为人民币 3650 元),就能基于 Llama3 训练出一个超强的多模态模型,效果与 GPT4-V、Gemini Ultra 、 Claude Opus 多模态性能相当,但模型小 100 倍。 Github 项目链接:https://github.com/mustafaaljadery/llama3v(已删库) HuggingFace 项目链接:https://huggingface.co/mustafaaljadery/llama3v(已删库) 用这么少的成本,创造出了如此惊艳的成果,Llama3-V 在推特上迅速爆火,浏览量突破 30 万,转发超过 300 次,还冲上了「 HuggingFace Trending 」Top 5。 但是没发布两天,Llama3-V 就遭遇了重重质疑。有人指出,Llama3-V 项目中有一大部分似乎窃取了清华大学自然语言处理实验室与面壁智能合作开发的多模态模型 MiniCPM-Llama3-V 2.5。 MiniCPM-V 是面向图文理解的端侧多模态大模型系列。MiniCPM-Llama3-V 2.5 是该系列的最新版本。其多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用闭源模型。OCR 能力及指令跟随能力进一步提升,并支持超过 30 种语言的多模态交互。这样的优秀性能,不仅让 MiniCPM-Llama3-V 2.5 成为受大家推崇的模型,或许也成为了 Llama3-V 的「模仿」对象。 项目地址:https://github.com/OpenBMB/MiniCPM-V/blob/main/README_zh.md 可疑的作者答复 HuggingFace 用户 JosephusCheung 在项目的评论区中提出问题,Llama3-V 是否在未提及的情况下使用 openbmb/MiniCPM-Llama3-V-2.5 进行了训练。而作者回复表明,Llama3-V 使用了 MiniCPM-Llama3-V-2.5 的预训练 tokenizer,并且是在它发布前就开始了这项工作。这样的解释明显出现了时间错位,加重了大家的怀疑。 细扒其中猫腻 此外,还有一位名为 Magic Yang 的网友也产生了质疑,他对于这两个模型的相似性也有着更深的洞察。 他首先在 Llama3-V 的 GitHub 项目 Issue 中发布了他的疑问,没想到 Llama3-V 的作者们很快就删除了质疑帖。 在这个 Issue 中,他首先提出,Llama3-V 与 MiniCPM- Llama3-V 2.5 具有相同的模型结构和配置文件,只是变量名不同。Llama3-V 的代码几乎完全照抄 MiniCPM-Llama3-V 2.5,只是进行了一些格式上的修改,包括但不限于分割图像、tokenizer、重采样器和数据加载部分。 Llama3-V 的作者立马回复,称 Llama3-V 在架构上参考的是 LLaVA-UHD,并列出了在 ViT 和 LLM 选择上与 Mini CPM-Llama3-V 2.5 的差异。 但 Magic Yang 发现,相比 LLaVA-UHD 所用的方法,Llama3-V 与 MiniCPM-Llama3-V 2.5 可谓是一模一样。特别是 Llama3-V 使用了与 MiniCPM-Llama3-V 2.5 相同的,连 MiniCPM-Llama3-V 2.5 新定义的特殊符号都「抄」上了。 于是,他向作者提问,为什么 Llama3-V 在 MiniCPM-Llama3-V2.5 项目发布之前,就未卜先知似的拿到了其 tokenizer?这似乎算是追问了作者对 JosephusCheung 的回答。 Llama3-V 作者回答称,他参考了 MiniCPM-V-2 的 tokenizer(https://huggingface.co/openbmb/MinicPM-V-2/blob/main/tokenizer.jsonBefore),MiniCPM-Llama3-V2.5 采用了新的 tokenizer 和原来版本中的特殊符号,因此 Llama3-V 的代码中保留了这个符号,但 Llama3-V 与 MiniCPM-Llama3-V2.5 是完全不同。 但事实是,MiniCPM-V-2 的 tokenizer 与 MinicPM-Llama3-V2.5 完全不同,在 Hugging Face 里是两个文件,文件大小也完全不同,也不包含 Llama3-V 所用到的与 Llama 3 有关的 tokenizer。 Magic Yang 还发现了 Llama3-V 的作者在 Hugging Face 上传项目时,直接导入了 MiniCPM-Llama3-V 2.5 的代码,后来才把一些文件里的名称替换为 Llama3-V。 于是,Llama3-V 的作者的作者再次回复,称 Magic Yang 的指控大错特错。首先,想要运行 HuggingFace Transformer,需要给模型写配置文件,但是他们恰好发现 MiniCPM 的配置能用,因此,他们使用了与 MiniCPM 相同的配置。其二,Llama3-V 的模型架构 SigLIP 的灵感来源于 Idéfics ,作者之前也提到,Llama3-V 模型架构参考的 LLaVA-UHD 同样如此,并且在视觉代码方面,他们借鉴了 Idéfics ,并非照搬 MiniCPM。 更令人惊讶的是, Magic Yang 发现 Llama3-V 项目的作者似乎并不理解他们自己的代码,或许也不明白搬来的 MiniCPM-Llama3-V 2.5 架构中的细节。 感知器重采样器(Perceiver Resampler)使用的是单层交叉注意力,而非双层自注意力。然而,下图中的 Llama3-V 技术博客中的描述明显存在误解。 Llama3-V 的技术博客 Llama3-V 的代码 此外,SigLIP 的 Sigmoid 激活功能并不用于训练多模态大语言模型,而是仅在 SigLIP 的预训练过程中使用。看来,作者对于自己的代码理解还是有很大偏差的。 Llama3-V 的技术博客 Llama3-V 的代码 对于清华 NLP 实验室和面壁智能团队特别采集和标注,从未对外公开的专有数据,Llama3-V 的表现也非常出色。「清华简」是一种非常特殊且罕见的中国战国时期的古文字,而美国模型 Llama3-V 不仅认识中国古文字,在认错字的时候,也和 MiniCPM-Llama3-V 2.5 一模一样。 有网友用 1000 张竹简图像对同类模型进行了测试,正常情况下,每两个模型之间的重叠应该为 0,而 Llama3-V 和 MiniCPM-Llama3-V 2.5 之间的重叠高达 87%。识别错误的结果 Llama3-V 和 MiniCPM-Llama3-V 2.5 也有高达 182 个重合。 删库?也不管用 在重重质疑之后,Llama3-V 的作者行动了。此前宣传 Llama3-V 的推特内容流已不可见。 他还隐藏了 HuggingFace 的仓库。Magic Yang 再次发难,问 Llama3-V 的作者为何在 HuggingFace 上将模型设为私密? 作者称,设为私密是为了修复 Llama3-V 的推理功能,MiniCPM 的配置与 Llama3-V 不兼容,当时 HuggingFace Transformers 无法正确地加载模型,为了避免下载模型的用户运行失败,他将进行一些修复。 同样地,Llama3-V 的 GitHub 项目主页也显示为「404」。 GitHub 地址:https://github.com/mustafaaljadery/llama3v 这些举动显然是为了应对社区的强烈反应和对模型来源合法性的质疑。但这样的逃避似乎并不管用。即使 Magic Yang 与对话已经随着项目页面 404 而隐藏。但 Magic Yang 已将对话截图评论在了 MiniCPM-V 的 GitHub 页面。 据网友反馈,当运行 Llama3-V 时,作者提供的代码无法与 HuggingFace 上的 checkpoint 兼容。然而,当把 Llama3-V 模型权重中的变量名更改为 MiniCPM-Llama3-V 2.5 后,就能成功运行。 如果在 MiniCPM-Llama3-V 2.5 的 checkpoint 上添加一个简单的高斯噪声,就会得到一个在各个测试集上的表现都与 Llama3-V 极为相似的模型。 有网友上传了 Llama3-V 删库前的检查点,大家可以自行测试验证。 检查点链接:https://twitter.com/zhanga6/status/1797293207338041719 有人认为,这是关乎道德、诚信与声誉的问题。如果抄袭得到验证,斯坦福大学应该介入调查。 图源:X@AvikonHadoop 在国内外舆情发酵了两天后,作者之一站出来道歉,称「抄袭」源于对队友 Mustafa 的盲信。
卷技术是美国大模型天命,卷价格是中国大模型宿命?
文 | 佘宗明 「卷」就一个字,大模型厂商们不会说一次,它们只会用行动表示。 但同样是卷,中美大模型似乎走上了两条路线。 刚过去的5月,是全球「AI信息大爆炸」月份。透过众多信息会发现—— 美国那边在卷技术: OpenAI发布了迄今最像「人」的AI大模型GPT-4o; 谷歌全线更新了Gemini,秀出了超强AI语音助手Astra,还有对标OpenAI家GPT-4o、Sora的NotebookLM、Veo等产品; 苹果推出了首颗AI芯片M4; 微软发布了AI PC,更新了Copilot…… 整体上,主打一个你追我赶、能力PK。 中国这边在卷价格: 5月11日,智谱AI把个人版GLM-3Turbo模型产品的调用价格从5元/百万tokens降至1元/百万tokens; 5月15日,字节跳动旗下的火山引擎将豆包大模型API输入价格降至0.0008元/千tokens,把中国大模型市场价格卷入「厘时代」; 5月21日,阿里云宣布将通义千问旗下9款核心模型悉数降价,其中通义千问GPT-4级核心模型Qwen-Long的API输入价格锐减至0.0005元/千Tokens,降幅高达97%; 同日,百度也宣布,文心大模型两大主力模型ERNIE Speed、ERNIE Lite免费; 5月22日,科大讯飞宣布,讯飞星火Lite API永久免费开放,讯飞星火Pro/Max API低至0.21元/万tokens。 同日,腾讯云也宣布,主力模型之一混元-lite模型即日起全面免费。 看上去,「晋西北乱成了一锅粥」,成了价格战下的国产大模型竞争局面的写照。 ▲今年5月AI大模型降价情况汇总。图片来源:APPSO。 知名投资人朱啸虎就看热闹不嫌事大地说:一下子都从卷scaling law 180 度转弯变成卷价格卷免费了,说好的AGI(通用人工智能)梦想呢? 大洋彼岸在拼技术能力,中国同行在拼产品价格,两相对照,确实很容易引发「硬科技PK软应用」二元对立思维的回炉。 但与其批国产大模型在价格上卷成了麻花,不如思考下这道考题:都是大模型,为什么卷技术成了美国大模型的天命,卷价格成了中国大模型的宿命? 01 需要厘清的是,不是只有美国大模型才卷技术,也不是只有中国大模型才卷价格。 卷技术不是美国大模型的「专利」。在从拼参数、拼性能、拼Agent到拼价格的过程中,国产大模型也曾在复杂指令理解、知识记忆、幻觉抵御等能力上摩拳擦掌。 5月9日,阿里云就发布了号称模型性能全面赶超GPT-4-Turbo、堪称「地表最强」中文大模型的通义千问2.5,通义千问1100亿参数开源模型也在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B成为开源领域最强大模型。 对大模型而言,技术能力是1,其他的都是0,没有技术支撑很难走远。 价格战这股风,也不是只吹到了国产大模型那里。硅谷AI群雄打起价格战来也不含糊。 在5月的新品发布会上,OpenAI就宣布GPT-4o支持免费试用,调用API的价格也比GPT-4-turbo降低一半,5 美元/百万tokens,拿走拿走别客气。 作为OpenAI头号对手的谷歌看完后,立马喊了声「跟」,秉持着「敌不动,我不动,敌若降,我也降」的态度,把当家王牌Gemini大模型系列的Gemini 1.5 Flash的价格降到了0.35美元/百万tokens。 眼看着两位带头大哥都降了,作为小弟的硅谷当红AI初创公司Anthropic和Mistral AI也跟着吆喝了起来:走过路过不要错过,API价格只要0.25美元/百万tokens了。 ▲硅谷AI大模型同样在卷价格。图片来源:每日经济新闻。 白热化竞争的倒逼,大模型推理成本下降的带动,大模型技术迭代曲线放缓的牵制,都是硅谷大模型厂商降价的原因。 但整体上,中国大模型厂商在软硬件一体推进势头方面没有像美国厂商那么猛,美国大模型厂商在降价力度上也没有像中国厂商这么狠。 正因如此,很多人都担心国产大模型会陷入低层次竞争的内卷螺旋,跟OpenAI、谷歌的技术代差会随之继续扩大。 诸如此类的担忧不是全无道理,希望国产大模型将技术力作为竞争主轨道也是正常心态,但不能由此逆推出中国大模型卷价格就是「窝里斗」的结论,更不必就此设置起中国大模型「只擅长内耗,不擅长创新」的稻草人议题来。 抛开理性不谈,中国大模型厂商「不是跟国外卷技术,而是在国内卷价格」,有些不够正确——它没考虑到「清场式遥遥领先」狂热者的感受。 但理性地看会发现,中国大模型厂商卷价格在所难免。它们未必不想赶超OpenAI,是多重条件不允许;它们未必想卷价格,可它们首先得活下来。 对中国大模型厂商的卷价格,苛责不如试着去理解。 02 今年4月,工信部原部长苗圩在某论坛上说:在英伟达芯片几近断供后,中国跟美国的大模型算力差距逐渐拉大,所以和美国不要「打篮球赛」,要学会「下围棋」。 在其表达语境中,「打篮球」指的就是拼算力,那样免不了会被带着「满场乱跑」;「下围棋」指的是用好自身优势,加速大模型落地应用。 这说得很现实:受制于现实环境和发展阶段,中美大模型之间在技术上仍有不小的差距。 今年3月Sora刚问世时,华大基因CEO尹烨就曾感慨:据不完全统计,国内号称有大模型的公司已经有300多家,相信大部分还是「多小散乱」,面对ChatGPT在中文世界里(的表现),似乎尚能一战,但面对Sora的横空出世,可有一个能打的甚至是接近的吗? 说白了,技术沉淀、人才储备、融资环境上的差距是短期内难以抹平的,英伟达芯片断供更是不容忽略的掣肘因素。 ▲截止2022年,全球57%的顶尖AI人才在美国,12%的在中国。数据来源:麦克波洛智库。 这时候,缩短差距的正确打开方式,自然不是以己之短博人之长,跟Open AI们比算力。 不比依托于算力的技术能力,比什么?中国互联网过去20年的弯道超车经验已经给出了答案:比应用。 多年来,美国企业擅长从0到1式技术创新,强于「硬科技」,中国企业擅长从1到n式模式创新,强于「软应用」,美国互联网是技术创新带动应用创新,中国互联网是应用创新反推技术进步,几成业界共识。 正是因为应用侧抓住了超大市场内的丰富场景带来的机遇,才有中国互联网企业在移动互联网时代的蓬勃势头。也是因为利用场景优势对冲了「跟跑者困境」,中国互联网产业才有今天的繁荣景象。 近几年,在「卡脖子」之痛的影响下,不少人动辄将底层突破和应用创新对立,将二者分别对应上「星辰大海」和「萝卜青菜」,评价创新的多个维度、多元视角也经常被压减成单一标准,那就是「有没有造出光刻机来」。 他们会将强调应用的模式创新置于硬科技的另一侧,看低模式创新的价值。 在此背景下,国产大模型「卷技术不足,卷价格有余」,俨然是有「原罪」的。 但中国大模型的发展,不能被这类杂音所困。国家信息中心专家张振翼之前就指出,美国在大模型发展中具备一定的领先优势,中国需要加强自身独特优势的探索。在他看来,中国发展大模型人工智能最大的优势,就是应用场景资源极为丰富。 03 而拼价格,就是拼应用的必经步骤。美团、滴滴、拼多多能成为超级应用,就离不开当年掀起的价格血战的「助攻」。 国产大模型大打价格战,也是这样:拼价格是表,拼应用是里。大模型厂商在价格上的「退」是为了寻求商业模式和用户增长上的「进」。不把价格打下来,就没法加速落地。 对阿里、腾讯、字节等巨头来说,开启降价模式背后都有一盘「以价换量」的棋:数据显示,国内AIGC用户渗透率目前只有6%。在习惯了免(白)费(嫖)的情况下,国内大量用户都是价格敏感型的。 降价经常是最有效的获客途径,没有之一。用的人越多,就越能压低均摊研发成本,越能降低推理成本。这样一来,没准能开启「降价让利-用户增多-规模效应明显-云业务增长-继续降价」的良性循环。 阿里云资深副总裁刘伟光曾说过,「AI推理的成本只有以每年10倍甚至百倍地下降,才能推动各行各业AI应用的爆发,预计未来大模型API的调用量会有成千上万倍增长。」而OpenAI CEO山姆·奥特曼最近在接受采访时就说,他相信高质量AI智能的成本将变得非常低廉,最终趋近于零。 值得注意的是,这波降价降的多是API调用价格,相当于是用降价迂回「抢人」——抢的是开发者。对大模型厂商而言,只有吸引越多的开发者,才能缔造更繁荣的应用生态、催生更多的应用创新。 而丰富的大模型应用生态,是撬动「飞轮效应」的前置条件。应用生态越完善,使用场景越多,用户规模越大,生成的新数据会反过来反哺大模型性能提升。 只有更大的使用量,才能打磨出更好的模型。就此看,卷价格未尝不是另一种「卷scaling law」。 按照国内朴实无华的商战节奏,现在是降价或免费,将来直接给开发者补贴,也不是不可能。 可以预见,这波价格战会将「百模大战」导入市场出清加速的节奏,大模型领域的格局洗牌在所难免。 ▲ChatGPT生成的大模型价格战图片。 对用户而言,也许会梦回2014年,那时网约车补贴大战正酣,用户成了价格战直接受益者。 对许多AI创业公司而言,这可能意味着至暗时刻的到来——价格战开启的是淘汰赛,中小厂商不像大厂那样有充足的资金弹药,随时可能因为没法「跟」而被踢出牌桌,朱啸虎就断言,不是深度绑定大厂的模型公司基本已经出局。 但这无关「自己人卷自己人」,只是市场竞争的本相而已。 整体上看,腰尾部被淘汰,市场加速向头部集中,对中国大模型长远发展未必是坏事:不要认为大模型领域的幂律分布就等于「资本无序扩张」,事实证明,在「国际竞争中大显身手」方面,只有大企业才有大的竞争力。 04 中国大模型卷价格在所难免,但卷价格通向的不一定是竞争力提升——大模型核心竞争力提升,有赖于「价格下调-规模扩大-成本降低-利润提升-研发加强-技术创新」正向增强回路的跑通。 用户固然会因为免费来尝鲜,但决定他们能否长期留存的,是大模型的实际业务价值,能否高效完成任务、解决用户痛点,而非价格。 很多体验过的用户都知道,当下的不少大模型都有着很强的「不确定性」——它经常会变成CheatGPT。若这只是大模型跟C端用户相互「调戏」,那无非是提供了些笑料,可大模型应用最终得沉到行业产业场景中去。 行业场景专业度要求高、边际容错率低,必须得靠技术能力切实减少「幻觉」、避免「诱导」。 而从大模型技术能力角度看,价格战往往会呈现出两面性来: 1,行业洗牌后,用低价换来市占率提升的头部厂商能获得更丰厚的回报,也能在研发上投入更多; 2,恶性竞争下,会抑制企业利润,那些长线性创新项目投入也会受影响,进而损害长远竞争力。 这轮价格战到底会通向哪一面,也看大模型厂商们怎么选。 零一万物创始人兼CEO李开复就说,国内常看到ofo式的「疯狂降价、双输」的打法,大模型公司不会这么不理智,因为技术还是最重要的,如果技术不行,纯粹靠贴钱、赔钱做生意是行不通的。 百川智能创始人王小川也表示,百川智能不会参与降价,「千团大战、滴滴快的补贴大战,背后都带有网络效应,那种商业模式改变了生产关系,改变了司机和乘客之间、外卖员和用户之间的关系。这次价格战并没有改变生产关系,而是直接做生产力供给,是B端(企业用户)市场的价格战。」 要而言之,大模型技术能力提升才是硬道理,价格战换来的不该是在落后系统上开发应用,而应是「价格力-技术力」相互带动的正循环基础上的系统持续升级。 价格为锚、应用为先,也许能帮中国大模型完成局部赶超意义上的「弯道超车」。但局部之外的部分,只能靠技术创新去补齐。在这点上,没有捷径。 这不是说中国大模型厂商不该卷价格,而是说卷价格的进阶方向还得是卷技术——如果有些人非要怪中国大模型「就知道猛卷价格」,那一切责任在于拜登,谁让他摁下英伟达芯片断供按钮的?
斯坦福团队被曝抄袭清华系大模型,已删库跑路
金磊 西风 发自 凹非寺 量子位 | 公众号 QbitAI 家人们,大模型圈儿出了个惊天大瓜 —— 斯坦福AI团队,竟然曝出了抄袭事件,而且抄袭的还是中国国产的大模型成果——模型结构和代码,几乎一模一样!跟任何抄袭事故一样……AI圈内都惊呆了。 斯坦福的这项研究叫做Llama3-V,是于5月29日新鲜发布,宣称只需要500美元就能训出一个SOTA多模态大模型,比GPT-4V、Gemini Ultra、Claude Opus都强。 Llama3-V的3位作者或许是拥有名校头衔加持,又有特斯拉、SpaceX的大厂相关背景,这个项目短短几天就受到了不小的关注。 甚至一度冲上了HuggingFace趋势榜首页: 然而,戏剧性的一幕开始上演了。 有位细心的网友发现,咦?这“配方”怎么如此的熟悉? 然后他定睛一看,好家伙,这不就是MiniCPM-Llama3-V 2.5(出自清华系明星创业公司面壁智能)嘛。 于是这位网友便跑到面壁智能GitHub项目下开始爆料了: 你们家大模型被斯坦福团队抄袭了! 并且他还附上了一堆的证据,最直接的莫过于这张2个模型代码的对比图了: Emmm……用这位网友的话来说就是: 模型结构、代码、配置文件,简直一模一样,只是变量名变了而已。 至于为什么这位网友要跑到面壁智能GitHub项目下面留言,是因为他之前已经给Llama3-V作者留过言了,但斯坦福团队的做法竟是删库跑路…… 没错,现在不论是GitHub还是HuggingFace,统统都是404: 并且这事现在还在持续发酵的过程中,网上吃瓜的群众也是越来越多。 那么我先来一同回顾一下这件drama事情的始末。 “代码和架构一模一样” 正如刚才所述,一个网友爆料Llama3-V抄袭MiniCPM-Llama3-V 2.5,跑到面壁智能的GitHub主页提醒团队注意,并把关键证据都一一截图列举整理了下来,这才有了整个抄袭门的还原现场。 以下是来自这位网友的证据。 证据一,Llama3-V的模型架构和代码与MiniCPM-Llama3-V 2.5几乎完全相同: 看下面的例子,配置文件就改了图像切片、分词器、重采样器和数据加载等格式化和变量名: Llama3-V作者表示参考了LLaVA-UHD架构,在ViT和LLM等选择上有一些差异。但实际上,网友发现他们的具体实现在空间模式等很多方面都与LLaVA-UHD不同,却出奇与MiniCPM-Llama3-V 2.5一致。 甚至,Llama3-V还用了MiniCPM-Llama3-V 2.5的分词器,连MiniCPM-Llama3-V 2.5定义的特殊符号都能“巧合”实属离谱。 证据二,网友质疑Llama3-V作者是如何在MinicPM-Llama3-V2.5项目发布之前就使用上MinicPM-Llama3-V2.5分词器的。 Llama3-V作者给的回复是这样婶儿的,说是用的面壁智能上一代MinicPM-V-2项目的: 但事实却是,HuggingFace中,MiniCPM-V2与MiniCPM-Llama3-V 2.5分词器分别是两个文件,文件大小也完全不同。 MiniCPM-Llama3-V 2.5的分词器是用Llama3分词器加上MiniCPM-V系列模型的特殊token组成,而MiniCPM-V2的发布都在Llama3开源之前,怎么会有Llama3分词器。 证据三,Llama3-V作者随后无故删除了网友在Llama3-V页面上提交的质疑他们抄袭的问题。 而且,他们似乎对MiniCPM-Llama3-V 2.5架构或他们自己的代码都不完全了解。 感知器重采样器(Perceiver resampler)是单层交叉注意力,而不是双层自注意力。但是下图所示Llama3-V的技术博客里作者的理解很明显是错的。 SigLIP的Sigmoid激活也不用于训练多模态大语言模型,而仅用于预训练SigLIP。 视觉特征提取不需要Sigmoid激活: 基于以上三点事实,这位网友认为足以证据证明Llama3-V项目窃取了MiniCPM-Llama3-V 2.5项目的学术成果。 但还没完,他随后又补充了两点证据。 几天前,当这位网友尝试运行Llama3-V时,发现他们提供的代码无法与HuggingFace的checkpoint一起使用,反馈问题没有得到作者回复。 于是网友把从HuggingFace下载的Llama3-V模型权重中的变量名改成了MiniCPM-Llama3-V 2.5的,惊奇发现模型居然可以用MiniCPM-V代码成功运行。 此外,如果将高斯噪声(由单个标量参数化)添加到MiniCPM-Llama3-V 2.5的checkpoint,结果就是会得到一个行为与Llama3-V极其相似的模型。 收到网友的提醒后,MiniCPM-Llama3-V 2.5团队这边也迅速展开了调查,他们按照网友的在GitHub上的说明,使用 Llama3-V的checkpoint和MiniCPM-Llama3-V 2.5的代码和配置文件正确获取了推理结果。 于是,一个更为关键性的证据出现了。 Llama3-V在一些未公开的实验性特征上表现出与MiniCPM-Llama3-V 2.5高度相似的行为,而这些特征是根据MiniCPM-Llama3-V 2.5团队内部数据训练的。 例如,识别清华简! MiniCPM-Llama3-V 2.5特有的功能之一是识别清华简,这是一种非常罕见、于战国时期写在竹子上的中国古代文字。 训练图像是从最近出土的文物中扫描出来的,由MiniCPM-Llama3-V 2.5团队进行了标注,尚未公开发布。 而Llama3-V的识别情况和MiniCPM-Llama3-V 2.5极为相似。 识别错误的情况竟也出奇一致: MiniCPM-Llama3-V 2.5团队还在1000 张竹简图像上测试了几种基于Llama3的视觉-语言模型,并比较了每对模型的预测精确匹配。 结果,每两个模型之间的重叠为零,而Llama3-V和MiniCPM-Llama3-V 2.5之间的&&重叠达到了惊人的87%**。 此外,MiniCPM-Llama3-V 2.5和Llama3-V甚至具有相似的错误分布。Llama3-V和MiniCPM-Llama3-V 2.5分别做出 236和194个错误预测,重叠部分为182个。 且按照网友在GitHub上的指令获得的MiniCPM-Llama3-V2.5-noisy显示出与Llama3-V几乎相同的定量结果,真令人匪夷所思…… 在另一个MiniCPM-Llama3-V 2.5内部数据上训练的未公开功能——WebAgent上,也出现了同样的情况。 Llama3-V甚至和MiniCPM-Llama3-V 2.5团队新定义的WebAgent模式中犯的错误都一样。 鉴于这些结果,MiniCPM-Llama3-V 2.5团队表示很难将这种不寻常的相似性解释为巧合,希望Llama3-V作者能对这个问题给出一个正式的解释。 斯坦福团队已删库跑路 虽然斯坦福的2位本科生已经下架了几乎所有与之相关的项目,但其实在此之前,他们最初在面对质疑的时候还是做出了些许的解释。 例如他们强调,Llama3-V这项工作的时间是要早于面壁智能的MiniCPM,只是使用了他们的tokenizer。 不过作者对Medium上的声明还是做了保留: 非常感谢那些在评论中指出与之前研究相似之处的人。 我们意识到我们的架构非常类似于OpenBMB的“MiniCPM-Llama3-V 2.5,他们在实现上比我们抢先一步。 我们已经删除了关于作者的原始模型。 对此,一部分网友表示,既然选择删掉项目,那么就表示确实存在一定的问题。 不过另一方面,对于抄袭这事也有不一样的声音—— MiniCPM-Llama3-V 2.5不也是在Llama3的基础上做的改良吗?不过连tokenizer都直接拿来用就应该不算是借鉴了。 而就在刚刚,另一个戏剧性的事情发生了。 斯坦福的作者在中午时间做出了最新的回应: 但现在……这条回应又删掉了 而面壁智能这边,CEO李大海也做出了正式回应: 原标题:斯坦福团队被曝抄袭清华系大模型,已删库跑路,创始人回应:也算国际认可
中国大模型5月中标报告出炉:数量创新高,金额环比回落
原标题:中国大模型中标项目监测报告(2024年5月) 进入2024年,随着诸多大模型获得备案许可,围绕大模型相关的商业化进程开始进一步提速。 因此,智能超参数期望以月度、季度为周期,依据公开的大模型相关中标项目为数据依据,全面跟踪分析大模型商业化的趋势和进展,为相关企业及从业人员提供有价值的市场洞察。 《中国大模型中标项目监测报告》将会围绕整体市场规模、行业覆盖、项目类型、代表厂商、代表项目、地域分布等多个维度进行分析,以此来刻画大模型行业商业化的现状。 核心洞察: 1、5月份中标项目数量创下新高,金额环比回落。2024年1-5月,统计到的大模型相关中标金额已经超过2023年全部中标项目披露金额。 2、应用类和算力类需求仍然是大模型采购的核心需求。5月份统计到的项目中, 算力类项目数量占比为32%,应用类项目数量占比为48%,大模型类项目数量占比为21%。 3、百度、智谱AI等厂商持续展现行业领先气质。百度、智谱AI等仍然是中标厂商中的高频面孔,展现出行业的领先性,但是商汤科技、科大讯飞、腾讯云等更多行业内有知名度的科技公司也都有拿到中标项目。 4、一线城市所在地大模型采购需求持续旺盛,但是其他区域也在快速追赶。5 月份里,整体上还是一线城市所在地是大模型采购需求最旺盛的区域,但是山东、四川、湖北、河南等地的采购需求也在快速增长。 以下是2024年5月监测报告全文: 1、整体市场 进入5月份,围绕大模型相关中标项目数量上延续了快速增长的势头,单月中标金额环比出现了大幅回落。5月份,公开渠道统计到的大模型相关中标项目63个,其中:有15个项目未披露中标金额(为方便统计,金额以0计算),其余48个中标项目披露的金额达到了1.85亿元。 5月份,公开的大模型相关中标项目数量上是2024年以来,单月项目数量最高的一个月份。考虑到5月份的假期因素,项目数量依旧能够创下新高,预示着大模型相关的市场需求持续高涨。 2024年1-5月,统计到的大模型相关中标项目的披露金额累计达到7.98亿元,已经超出2023年全部中标项目披露金额(7.95亿元)。1-5 月,未披露中标金额的项目数量也完全超出 2023 年全年。 2024年5月,从统计到的项目披露的金额来看,项目均值出现了一定的下滑。5月份统计到的中标项目中标金额的中位数约为90万元,环比4月份的150万元,出现了下滑。这跟新大模型项目数量占比增长较快,但是金额较小有一定关系。 2、 大模型项目类型 目前围绕大模型相关的招投标项目类型非常丰富,但整体上我们将其划归为 4 个大类:算力(运行大模型所需要的计算资源)、数据(大模型相关数据标注或者数据资源等)、大模型(各类大模型软件以及相关支撑平台)、应用(大模型在明确场景中的融合落地)。 2024年5月份统计到的项目类别分类如下: 从这个表格中可以看到,5 月内,大模型的支撑算力和具体应用场景落地是占据主导的采购需求。这两大类的占比自2023年的统计以来,变化不大,持续在 90%以上。 5月份,一个较好的势头是,部分与基础大模型相关的中标项目统计到了13个,比4月份的6个有100%的增长。虽然绝对数量还较小,但是反映出市场对基础大模型本身相关的需求确实也在提升。 3、 大模型项目行业分布 5月份,统计到的大模型中标项目涉及的行业跟 4 月份的相比差别不大,主要包括政务、金融、电信运营商、能源、教科、央国企等,表明大模型技术正在渗透到各个行业,加速落地。 从上面的表格可以看到,5月份,教科领域的项目数量最多,这跟很多高校及科研院所加强对大模型的研究有很大关系。但是教科领域的采购金额并不太高,算力是核心的采购诉求,单项目采购金额也大都只有几十万元。 相比前几个月份, 5月份,能源(以各地电力机构为主)领域的采购数量出现了下滑,央国企和政务类项目开始稳定增长。 央国企的大模型相关采购项目值得注意,这个市场的增长很快。第一季度内,统计到的央国企采购项目仅有4个,4 月份的统计数量为3个,但是5月份单个月内统计到的项目已经有8个,并且披露的金额明显高于平均数据和中位数。这个领域值得企业们投入更多精力。 再说一下金融行业。5月内,统计到的金融领域的大模型采购项目有 5个,跟 4 月份持平,但是项目采访方涉及银行、保险、证券、金融监管服务机构等,证明各个领域的金融客户都在探索和尝试。金融领域由于购买力较强,如果前期示范项目的落地效果明显,行业复制性会很快。今年下半年,这个领域可能会强劲增长。 4、 中标厂商及代表项目 2024年5月,63个项目的中标厂商数量有45家(少数订单有多个供应商),中标企业主要是系统集成商、大型科技公司、大模型初创企业、大学科研机构等。 5月份里,百度、智谱AI等仍然是中标厂商中的高频面孔,展现出行业的领先性,但是更多行业内有知名度的科技公司也都有拿到中标项目,比如:商汤科技、科大讯飞、腾讯云、亚信科技、浪潮通信信息、第四范式、星环科技、南天信息等。 5月份里, 统计到的智谱AI中标项目为4个,其中包括:中核工程咨询人工智能大模型(硬件、软件)项目、 中国地质环境监测院生成式预训练基础模型计算软件采购项目等。 5月份里,统计到的百度公司中标项目为4个,其中包括山东港口科技集团大模型应用与设备采购项目、太平通2024-2025年AI大模型服务采购项目等。 5月份内,有3个中标金额较大的项目,其中包括:河南梓鹏网络技术有限公司中标的2024河南产互大模型算力服务项目,金额2185.92万元;中国移动通信集团广东有限公司汕尾分公司中标的汕尾市汇安数字技术有限公司大模型训练算力云服务采购项目,金额2670.35万元,以及中国移动通信集团北京有限公司中标的光子算数(北京)科技有限责任公司人工智能算力服务项目,金额为8805万元。 5、 区域分布 5月份,中标项目遍布中国的17个省份和直辖市,包括北京、上海、广东+深圳、 河南、湖北、山东、四川等地。 从上面的表格可以看到,一线区域仍然是大模型采购需求最旺盛的区域,但是山东、四川、湖北、河南等地的项目也开始多了起来,表明非一线的经济区域的需求也在快速增长,并且项目采购金额其实更高,凸显出对大模型技术的接受度在快速提升。
体验完字节所有的AI产品,杀手级AI应用可能比想象中更远
作者 | 连冉 编辑 | 郑玄 字节的豆包,悄悄成了国内用户最多的原生 AI 应用。 最近一场活动上,字节跳动产品和战略副总裁朱骏透露:5 月中,豆包的月活已经达到 2600 万。目前,豆包 APP 下载量超 1 亿,平台上创建的智能体数超过 800 万。从月活来看,豆包已经超过了今年以来大火的 Kimi Chat 和百度文心一言。 虽然字节的豆包大模型(原云雀大模型)去年 8 月才推出,但不到一年时间,无论是从模型层还是应用层的发布来看,字节跳动都已经成为发布数量最多的公司——据极客公园不完全统计,到目前,字节跳动已经有 11 款 AI 产品。 与以往在 XR、地产、教育、SaaS 等领域启动新业务线的「高调」不同,在生成式 AI 爆火的一年半里,字节跳动的打法可以用一个古代行军打仗的成语来形容:就是「衔枚疾进」。 一方面,字节搭建了有着全明星阵容的技术中台,并推动各个业务线尝试拥抱 AI,还组织多个新团队探索各个领域的原生 AI 应用。另一方面,与投入的力度相比,字节在 AI 领域的发声却极其低调。在今年 5 月之前,只有飞书发布了一个智能体相关的新应用。而据极客公园了解,去年字节曾有多个团队希望发布 AI 产品,但都被高层压了下来。 低调不代表没有实力,实际上在不少行业人士眼中,字节就被认为是国内最有可能在这波技术浪潮里做出杀手级大模型或原生 AI 应用的国内大厂。原因至少有四: 字节在 AI 领域有很强的积累,其本身是全球最早将 AI 技术大规模用于信息分发,并在过去几年里积累了海量的 GPU 算力资源。 作为移动互联网时代的连续依靠今日头条、抖音等产品突破国内 BAT 天花板的创业公司,字节有着国内最顶尖的产品研发和运营团队。 作为今日头条、飞书、抖音、番茄小说等产品的母公司,字节跳动拥有庞大的用户基础和内容生态,积累了海量的优质数据。 后者的重要性不言而喻,它是推动 AI 技术发展和应用的关键"燃料"。 最后也是最重要的一点: 背靠抖音的字节有着国内甚至全球最优质的流量池。很多创业者梦寐以求的百万千万日活,对字节来说「轻轻」推一下就能达成。 这就像当年游戏行业的腾讯,字节不用担心流量,只需要做出好产品即可。 毫无疑问,字节是国内原生 AI 应用的种子选手,这或许也是字节选择「衔枚疾进」的原因。而进入 5 月,随着豆包大模型的发布,字节的 AI 战略显然要进入下一阶段。在这个时间节点,极客公园梳理并体验了目前字节所有已经公布的 AI 产品,希望通过这种方式探究这些产品背后的思维方式,并借此窥见字节全盘 AI 战略的一角。 01 火力覆盖:不错过任何一个品类 穷则精准打击,富则火力覆盖。后者用来形容字节在 AI 应用领域的战略再恰当不过。 据极客公园不完全统计,去年 8 月至今,字节跳动在 AI 领域一共推出了 8 款大模型、2 个智能体开发平台,和接近 20 个原生或基于现有产品的 AI 应用。 如下图所示,极客公园对字节跳动目前的 AI 产品进行了分类整理: 整体来看,字节的 AI 产品体系覆盖了最基础的模型层、开发 Agent 的中间层,以及落到产品层面的应用层。其中模型层和中间层都比较常规,应用层则呈现出非常明显的多元化,可以说是百花齐放。 根据极客公园的统计来看,在已经公布的产品中,字节已经覆盖了聊天、社交、图像/视频、教育、音乐等领域,其中既有 Dreamina、CodeGen 等偏生产力的工具型产品,也有猫箱(原话炉)、豆包这种更 ToC 的应用。 在产品层面,字节基本上不会错过任何市面上比较热门的品类,上述产品基本都可以在市场上找到对标。比如 AI 对话类产品豆包,有 ChatGPT、文心一言和 Kimi;AI bot 开发平台扣子,则对标 GPTs;「猫箱」(原「话炉」)对标的是 MiniMax 的「星野」;教育产品 Gauthmath,类似的有猿辅导的数学学科产品;还有海绵乐队,海外的 Suno 和国内昆仑万维的天工都是同类产品。 可以看出,在过去一年,字节正在复现移动互联网时代「App 工厂」的魄力,技术和产品团队一直在迅速前进。 02 产品体验:字节想做什么? 极客公园按图索骥,体验了一圈字节的产品。这里我们挑选了三个比较有代表性的产品和大家重点聊一下:分别是豆包、「猫箱」和剪映「即梦 Dreamina」。 豆包 豆包是字节跳动基于豆包大模型(原云雀大模型)开发的 AI bot,可以看到豆包有辅助写作、图像生成、AI 搜索、PDF 问答、翻译、网页摘要等诸多基础功能。下载桌面版后,还可以开通设置权限,让桌面上的每一个应用都接入 AI。 豆包使用页面|图片来源:极客公园 在豆包上,可以自行创建各式各样的智能体。字节跳动产品与战略副总裁朱骏此前在发布会上提到,团队成员在豆包上捏了一个英语老师的智能体。除了用自然语言定义了「这个老师需要用英文对话,并且在对话中随时指正用户的语法错误」这个功能,也定义了该成员自己喜欢的声音和形象。平时在路上和「他」用语音消息的方式对话,回到家还会用实时通话模式来模拟英语口语对话。 从笔者个人的使用体感来看,字节跳动的豆包与百度的文心一言并没有太大区别,只是目前,豆包的使用还是免费的,这在一定程度上降低用户的尝试和使用成本,而文心一言则已经需要付费才能调用文心大模型 4.0 并解锁高级功能, 文心一言的会员价格|图片来源:极客公园 进一步的体验中,豆包的 TTS 语音技术令笔者眼前一亮。在创建智能体时,只需朗读一小段文字,即可即刻生成与自己声音别无二致的智能体。 在对话中,豆包上的智能体在回复时会在括号里加点语气词来模拟真人的说话语气,互动更自然。 这一点背后是字节跳动很早对很大力度优化语音交互体验的投入,包括基于大模型的 ASR 和超自然的 TTS 音色,这些都是为了尽量做到类似和真人对话的感受。 豆包几乎是国内最早确立语音交互入口作为默认交互界面的大厂,后来其他公司陆续跟进了这一功能。 猫箱 「话炉」是一款以 AI 角色为核心的社交应用,同样由抖音豆包大模型驱动,和豆包数据互通。4 月 11 日,「话炉」改名为「猫箱」。 「猫箱」的特点在于其高自由度的互动内容和由用户决策影响的故事走向,这给了用户一种全新的社交娱乐方式。 在猫箱的体验中,一进入应用,笔者就被推荐了一系列 AI 角色,他们各具特色,让笔者迫不及待想要开始对话。 「猫箱」支持文字和语音两种输入方式,这让交流变得更加自然和便捷。在与 AI 角色的对话中,笔者发现笔者的每一个决策都会影响故事的发展,这种参与感让人仿佛置身于一个真实的故事世界中。每一次选择都可能导致不同的故事走向,这种体验起初让笔者感到乐此不疲。 如果用户对当前的虚拟角色感到乏味,「猫箱」提供了一个简单而直观的解决方案:只需轻轻一划,就能刷新出全新的虚拟伙伴。这种类似抖音上下滑动短视频的设计,「以前刷短视频 现在刷智能体」,让笔者体验到了从言情到玄幻、从猜谜游戏到日常闲聊的多样化聊天乐趣,每一次刷新都是一次全新的探索。 但新鲜感很短暂。初见各具特色的 AI 角色,对话下来发现大同小异,它们的回答和反应模式逐渐显露出一种机械化的重复性,缺乏真实人类交流中的复杂性和不可预测性。尽管语音输入是比打字省事多了,但讲话讲久了,不自觉期待一些其他的玩法。很遗憾,现在还没看到。 尽管「猫箱」的语音输入功能确实为交流带来了便利,让笔者能够更自然地与 AI 角色对话,但长时间的交流后,笔者开始渴望更多的互动方式,期待能够通过更多元化的玩法来丰富这种交流体验,遗憾的是,在目前的版本中,更有新意的功能还未出现,这让笔者对这款 APP 的长期吸引力产生了疑问。 人真的有这么多话可以说吗?在跟一个纯粹虚幻的 AI 产品对话的过程中,得到的快感有多少?这样的产品吸引力能持续多久? 疑问过后笔者强迫自己多刷了好一会儿,可能因为在霸总频道停留的时间略微久了一点,「猫箱」给笔者推荐的霸道总裁越来越多了。 「猫箱」里的霸总|图片来源:极客公园 这一点跟抖音的个性化推荐别无二致,但区别在于,「猫箱」并不能查看各个 AI 角色的互动数据,比如点赞、转发和评论数。而这些互动机制是抖音平台设计的一部分,让用户能够发现和观察内容的热度,也让平台能够了解哪些内容受欢迎,并据此进行内容推荐。 「猫箱」使用页面除了可以查看聊天记录,再有就是点击心形符号对角色进行收藏,分享渠道也相对简单|图片来源:极客公园 虽然也支持对外分享,但目前页面设置来看,一方面,「猫箱」似乎更倾向于私人化体验,用户可能无法看到其他人在玩什么,社交性不足,交流有所受限,但这样的设计也减少了社交影响,让用户的注意力能够更集中在互动本身;另一方面,相比用户之间的社交互动,「猫箱」可能更强调用户与 AI 角色的互动,这种设计看起来是在进行一些 AI 原生的人机交互探索。 在这样的前提下,要让用户爱上使用这个产品,想来就更考验 AI 角色本身的交互性以及内容的创造性了。 即梦 Dreamina 前段时间,字节旗下 AI 创作平台「即梦 Dreamina」的视频生成功能也开放测试。笔者上手体验了一下。 可以看到「即梦 Dreamina」的页面非常简洁,主要有 AI 作图、AI 视频两大功能分区。 不过从侧边栏看,AI 工具有:图片生成、智能画布、视频生成以及尚未开通的故事创作四项。 笔者这次主要体验了视频生成功能,先试文本生视频,输入了一段简短的文字: 可以看到有随即运镜、推进、拉远、顺时针旋转以及逆时针旋转 5 种镜头运动,16:9、4:3、1:1、3:4、9:16 5 种视频比例以及慢速、中速、快速 3 种运动速度。 生成视频需要 12 积分,系统每天会赠送 60 个免费积分。 等待了约两分钟后,「即梦 Dreamina」给笔者生成了一个 3 秒的视频。在这短短的三秒中,画面中的金色短发女生看起来是通过转头、叹气以及眼角似有若无的泪水表达了伤心以及思考。 可以看到在生成视频下方有三个创作选项:再次生成、重新编辑和延长 3 秒。再次生成同样需要花费 12 积分。延长 3 秒要开通 69 元的月度 VIP 才可以。 69 元的会员权益包括单月 505 积分,下载无水印视频以及延长视频生成时长、第多种音色以及视频对口型。 由于笔者先没有开通会员,只是又花了 12 个免费积分重新生成了一个 3 秒的视频: 这一次生成的视频自动从侧面转向正面,但是视频中女主的右眼双眼皮好像有点不利索,眨巴的速度轻微落后于左眼,感觉还不如第一次生成的符合预期? 充个会员看看给出的效果能不能好点? 这是笔者输入的文字提示词:春江花月夜,一个身穿旗袍的盘发女子,正走在苏州河畔,她好像迷路了,正好有人走过,她走上前问路,那人却不耐烦地推开了她。 这是笔者花了 69 元开了会员,使用了延迟 3 秒以及对口型(需要花费 36 积分)等会员功能后生成的视频,总体还是怪怪的不说,后半句的文字内容也没有呈现出来。 从目前生成的效果来看,「即梦 Dreamina」能吸引到的可能也就是那些对视频创作感兴趣但可能缺乏专业技能的用户群体。平台通过积分系统和会员服务,提供了一个激励机制,试图鼓励用户进行创作并为增值服务付费。但从现在生成视频质量的稳定性与精细性来看,「即梦 Dreamina」背后的 AI 算法还需要不少优化。 03 「人盯人防守」下,创新还未出现 从去年 8 月推出豆包大模型(原云雀)以来,不到一年时间,字节跳动已经推出了 11 款 AI 产品,覆盖 Agent 定制、聊天、社交、图像/视频、办公、教育、电商内容创作、音乐、教育以及代码生成等领域,基本覆盖了当前应用层创业的主流方向——可以说,目前所有的产品范式,都有字节参与的身影,几乎是采用了「人盯人防守」的打法。 同时,字节内部很可能也存在一个国内国外双轮驱动的产品发展战略:即通过在海外市场先行测试产品,验证 PMF 和提升产品与技术的匹配度,以利于在国内推出更成熟的 AI 应用,保持市场竞争优势。目前在国内市场上,字节跳动依托自主研发的「云雀」大模型提供技术支撑,而在国际市场上,则至少部分采用了基于 GPT 的技术服务。 比如 AI 对话类产品豆包,海外版为 Cici ;对标 GPTs 的 AI bot 开发平台扣子,海外版为 Coze;AI 角色交流工具「话炉」,海外版为 BagelBell;AI 工具合集「小悟空」,海外版本为「ChitChop」…… 字节跳动的优势在于它在移动互联网时代,积累下的最多的数据,最多的流量,以及较多的算力,但它目前并没有展现出与 OpenAI 所不同的明确看准的下注方向,而在全面的确保不掉队,能跟上。 同时,作为产品大厂,字节在产品上也在探索 AI 原生功能,比如「猫箱」目前似乎更倾向于私人化体验,用户可能无法看到其他人在玩什么,在设计上可能更强调用户与 AI 角色的互动,而不是用户之间的社交互动。 几轮体验下来,可以感觉到现阶段,这些产品整体并不成熟,这点在我们与业内人士的交流中也得到了印证。换句话说,尽管这些产品或服务在概念上具有创新性,但实际的吸引力却并不如预期。一些智能体给出的场景设定或许有趣,但反馈多依托于用户的聊天技巧,如果用户不能很好地设置或者调动智能体,使用体验感多会低于预期。 从用户的角度来看,目前市场上「猫箱」这类的 AI 对话产品在功能上看起来颇为相似,无论是角色扮演还是对话交流,大多数都依赖于文本或多模态交互。 在与这些 AI 产品交流时,感觉似乎是在进行一场单向马拉松,不断地输入内容,却只能得到单维度的回应。这种「高交互、低媒介」的模式,要求用户投入大量的精力,却不一定能得到同样丰富的反馈。 如果产品继续沿着这一路径发展,其潜在的用户规模将受到限制。这是因为大多数用户要么不愿意投入太多努力,要么缺乏通过多轮对话来展开有深度内容的能力。 从对话历史记录中可以看出,如果想要获得更好更有趣的回复,用户需要具备一定的聊天技巧,比如在对话中加入动作表情或描述性词汇。然而,大多数用户并不具备这样的表达或陈述能力。 但目前的这种形态也正是用户最易于接受的,用户不太可能直接与一个复杂的大模型互动,或者仅仅通过一个简单的对话框就能充分体验 AI 的功能。必须得给用户一个有基本设定、有情感代入、有基础形象的一个产品形态,用户才能够上手。 未来,如果 AI 对话产品想要扩大其用户基础和市场影响力,就需要考虑如何降低用户与产品交互的门槛,同时提升媒介的互动性和反馈质量,从而吸引更广泛的用户群体。 而豆包等产品上的智能体,虽然通过强大的语言处理能力和持续学习特性,为用户提供了从知识获取到文本创作的全方位服务,甚至已经后来者居上,月活一度超过文心一言,但该产品同样面临着行业内普遍存在的挑战,即如何在同质化中突围找到核心竞争力,毕竟类似的产品实在太多了。而找到属于自己的核心竞争力,同样是字节跳动在 AI 时代面临的课题。 这对广大的 AI 创业者来说,可能也是一个好的消息:即使是字节这样的大厂,今天在 AI 应用领域也只是摸索阶段,距离做出抖音、头条这种杀手级的应用还需要更长的时间。 但面对大厂在 AI 领域的「盯防」策略,创业者可能也必须在创业第一天就去思考,渡过了产品的 0 到 1,在 1 到 10,10 到 100 的阶段,什么才是自己产品真正的核心竞争力,让有流量、资金的大厂无法轻易模仿和取代。 每个新的技术时代都会有创新者冲破上个时代的天花板,当年的字节跳动冲破了 BAT 的天花板,曾经也被看作是不可能的,但是任何大厂都有自己的「大」带来的绝对优势,也一定有「大」带来的天生弊病,即便是字节跳动也无法避免。 对于 AI 时代的创业来说,正值当打之年的字节跳动毫无疑问是绝对无法忽视的重要变量,唯一的希望在于,AI 的时代刚刚展开,做出的所有努力,也只是在跟随和探索,未来尚未被书写,向前走就对了。
英伟达表示要向苹果看齐,他自己说的
科技圈的泰勒 · 斯威夫特,皮衣老黄又又又来开演唱会搞演讲了。 就在昨天,国际电脑展前夕,英伟达创始人兼 CEO 黄仁勋回到母校中国台湾大学,洋洋洒洒讲了将近两个小时。 从最基础的 AI 技术讲到生成式 AI ,从软件讲到硬件,从 CPU 讲到 GPU 等等等等。。。 乍一看貌似和计算相关的,黄仁勋都讲了个遍。但世超仔细咂摸了一下,倒觉得从头到尾他想讲的,就只有一个:未来是加速计算的世界,而英伟达,正在参与搭建这个世界。 加速计算,其实就是 GPU 计算,它把密集计算的部分都交给比较擅长的 GPU 去处理,剩下的控制部分则交给 CPU ,而在 GPU 没出来之前,这些活都是 CPU 做的。 考虑到整场演讲时间太长,没耐心看完的差友们,可以直接看世超给大伙划的重点。 老样子,一开场老黄就先跟大伙们聊了半个小时计算机和英伟达的发展史,当年把第一台 DGX-1 超级计算机送给 OpenAI 的事情也算是老演员了。 总之这半个小时,老黄就是为了给咱们前情提要一下,在之前通用计算已经通货膨胀得不行了,现在最需要的,是让加速计算给它疏通疏通。 而英伟达手里,就握着疏通的两个利器,一个是GPU ,一个是CUDA 。 GPU 大伙们都很熟了,和 CPU 配合下,最快能让计算速率提升 100 倍,但成本只是原来的 1.5 倍。老黄那句 “ 买越多,省越多 ” 的至理名言就是从这来的。 CUDA 可能好多人还整不明白,这么说吧,它就相当于是英伟达造出来的一个环境生态,在这个环境下造出来的软件,能让GPU 的算力被最大限度开发出来。 这些年来,围绕 CUDA 建起来的软件生态,少说也有好几箩筐了。像是物理领域的 Modulus 、通信领域的 Aerial RAN 、基因序列的 Parabricks 等等,都有专门的 CUDA 软件。 在CUDA 生态下运行的数据科学库 Pandas ( 右 ) 如果说之前,GPU 和 CUDA 还只是让计算速度快点的工具,归根结底,各个领域还是各玩各的。 而 ChatGPT 这类生成式 AI 的出现,算是把算力变成了一种通用的货币。 用老黄的比喻来说, GPU 和 CUDA 直接变成了 “ AI 工厂 ” 的砖和瓦,在这个新的 AI 工厂,生成的tokens 数摇身一变成了新的商品。 咱也都知道,光看 AI 现在的发展速度,算力肯定是不够用。 但先别急,老黄直接甩出了这些年来他们硬件提升的数据,还拉来了摩尔定律做对比。看这陡峭的折线图,是把摩尔定律按在地上摩擦。 而吊打摩尔定律的,是英伟达刚投产的 Blackwell 芯片,这是专门给 AI 生成 tokens 设计的。 演讲的过程中,老黄还拿 Blackwell 芯片和八年前的 Pascal 做了个直观的对比,同样是生成一个 token , Pascal 消耗的能量,相当于两个 200 瓦灯泡亮两天,而现在一个 token 只要 0.4 焦耳。。。 也就是说,新的 Blackwell 芯片把生成 token 的能量降低了 45000 倍,世超可没多打一个 0 。 不仅如此,老黄的新芯片在 “ 盖房子 ” 这块儿,也得心应手了很多,两块 Blackwell 芯片能像搭积木一样拼成超级芯片。 紧接着,把 36 个这样的超级芯片组合在一起,就能变成一个服务器。 最后把这些服务器串在一块儿,这就是妥妥的一座超级 “ AI 工厂 ” 。 这还没完,老黄还没想停手,在这次演讲中,他直接把英伟达后面的计划给说出来了,打算做 “ AI 界的苹果 ” ,把原来两年更新一次芯片的频率提升到一年更新一次,每年都要给自己的 “ AI 工厂 ” 装潢加固下。 就比如, 2025 年会推出 Blackwell Ultra 。而且他们现在就已经在为 Blackwell 芯片开发的下一代平台 Rubin ,准备 2026 年发布,而且新平台还会用全新的 GPU 。 另外,在老黄构想中的 AI 工厂里,可不只有这些硬件,各种软件和服务他也不想落下,这咱在英伟达搞 CUDA 的时候就能窥见一二。 而在 AI 时代,除了造芯片,老黄还给开发者们提供了一些服务,整出了个NIMs ( 英伟达推理微服务 )。 它就相当于一个 AI 盒子,里面集成了两百多家企业的技术,供全世界的 2800 万个开发者们使用,包括预训练好的 AI ,用于推理服务的 Trition 服务器等等。 NIM 也会在开发者们用这些技术的时候,给他们加速,就比如,在相同的计算资源下,在 NIM 里面运行 Meta 的 Llama 3-8B 的时候,生成的 tokens 数量比平时多了三倍。 总的来说,在老黄这里,你不仅能买到算力,还能直接在他那儿开发 AI ,是一点不让钱流到别人口袋。。。 也许是看时机成熟了,在演讲过程中,老黄还提到了一个之前从来没说过的计划:数字孪生地球( Earth-2 )。 这个项目在英伟达内部已经搞了好几年了,为的就是能预测整个地球的未来,好让我们能更好地应对还没到来的灾害。 反正世超在看完老黄的整场演讲,觉得他就是想把英伟达搓成一根绳,串起整个 AI 时代。 能不能做到,咱现在也不好下结论。至少从现在来看,在AI 芯片领域,英伟达的地位是焊的死死的。 上周,英伟达刚发的第一季度财报就是很直观的证据,当季业绩全面超预期,而里面增长最高的就是和 AI 相关的数据中心,同比增长了427% 。 当时不少媒体都拉来苹果和英伟达对比,说它离苹果只差一步之遥。 但同样作为 “ 卖铲人 ” ,网上还有不少论调称,英伟达会是 AI 时代的思科,等泡沫破裂之后,自然会现出原形。 其实说实话,在世超来看,他们俩之间还不能完全划等号。 最起码英伟达不仅仅是一个卖铲人,它在卖铲的同时,还附加了不少服务,之前有 CUDA ,现在又有了个 NIMs ,而这些服务,才是它真正的护城河所在。 最后,世超想用老黄说过一句话做结尾, “ 当你无法辨别自己是猎人还是猎物时,奔跑就好了。 ” 而如今的英伟达,依旧在狂奔。。。 撰文:松鼠 编辑:江江、面线 美编:阳光
2024 华为平板怎么选?一次看懂这 8 款的区别
华为,是目前市场上平板电脑种类最多的品牌:5 大系列,11 款产品,覆盖了从百元到万元的价位段。 这么多产品,很容易让人在选购时,眼花缭乱、无从下手。 今天我们就用一条视频,让你彻底看懂,华为平板该怎么选。 MatePad Air,像一条分界线,把华为平板分成两大块。 往上走,是主打高端的 Pro 系列;向下看,是追求性价比的 MatePad 系列。 如果你的预算弹性高,追求 OLED 的显示效果,对影音体验有要求,还对「纯血版」鸿蒙有执念,那 Pro 就是你的不二之选。 MatePad Pro 13.2”,是整个系列中最顶的产品。 拥有最大的屏幕,最高的屏占比和最高的刷新率。 柔性 OLED 也让它成为了最薄的华为平板,只有 5.5mm。 同时,它还搭载了全系最大容量的 10100mAh 电池,支持手势操作的 dToF 深感镜头,也是 Pro 13.2” 的专属 4999 的起售价,可以让你买到,华为最前沿的平板技术。 MatePad Pro 12.6”,是全系唯一一款支持无线充电的型号。 虽然麒麟 9000E 芯片稍逊一筹,但有全系最多、体验也最好的 8 扬声器。 另外,Pro 12.6” 也是唯一一款,拥有完整 OLED 屏幕的华为平板 可以说 Pro 12.6” 就是专门为爱看电影、追求音效,又接受不了挖孔和刘海屏的朋友而准备的 如果你既想要性能,又不喜欢大屏,MatePad Pro 11” 2024 会更适合你。 Pro 11” 的辨识度很高,只有它的前置镜头还保留了左上角挖孔的传统。 搭载了麒麟 9000S 的 Pro 11”,不仅做到了 Pro 中的最小,也做到了全系中的最轻,仅有 449g。 更重要的是,Pro 11” 2024,还是唯一支持双向北斗卫星消息的华为平板。 如果你对性能有要求、又喜欢去户外写生露营,那便携的 Pro 11” 应该会更适合你。 从 Air 系列开始,就可以选择柔光版了(除了 SE),也就是原生「类纸屏」。 不过屏幕却从这里变成了液晶屏,音响也没有用上 HUAWEI SOUND,而是采用了自研的 Histen 音效。 虽然「性价比之王」的称号现在已经被取代,但 MatePad Air 却很争气。 搭载高通骁龙 888,不仅能玩王者和吃鸡,依靠平板的大体型,散热速度也比同为 888 的手机更快,不宜发烫。 30-144Hz 刷新率自适应调节,减少了刷微博、抖音时的卡顿掉帧,还一定程度上减缓了 LCD 耗电高的弊端,延长你的设备续航。 前置 800 万像素的广角镜头有 105° 的视场角,平板可实现画面的智能追踪 在视频通话时,不仅能识别人脸,还能保持发言人处于画面中心。 另外, Air 也搭载了全系第一块 3:2 的 LCD 屏,这种更接近方形的屏幕形状,垂直方向更长,在阅读文档、浏览网页和多任务操作时,能显示更多的内容,所以非常适合阅读、书写和平行视界的显示。 对星闪、麒麟不感冒 担心 OLED 烧屏的朋友,可以了解下这台唯一的 Air。 如果说 Pro 是炫技的成品,那起售价均低于 2000 元的 MatePad,就是务实的表现。 根据 IDC 公布的,2024 年大陆平板电脑第 1 季度报告,华为季度出货量高达 259 万台,市占率为 36.1% 位居第一。 性价比 MatePad 在当中,功不可没。 MatePad 11” 2023 1999 元的起售价,虽为该系列中的最高价,但它的电池却是全系最小,只有 7250mAh。 相比于其他型号功耗更低、稳定性更强的蓝牙 5.2(除了 SE),它也只用上了 5.1。 为数不多能撑撑场子的配置:一是可选柔光版;二是 480g 便于携带的重量优势。 对比之下,最新发布的 MatePad 11.5”S,无疑成了当前关注度最大的华为平板。 11.5”S 有着 Air 的「面子」、Pro 的「里子」、和 11” 2023 的价格。 首先 11.5”S 支持 P3 广色域、144Hz 高刷新率,3:2 的屏幕比例和 Air 持平,后盖材质和设计也与 2023 大体一致。 其次它的有线快充功率最高可达 66W,超过了 Pro 12.6”;8800mAh 的电池也超过了 Pro 11” 2024。 它也是非 Pro 系列中,唯一搭载了麒麟芯片的平板。虽然性能稍弱,但这刚好满足了,既想要纯血鸿蒙,又想拥有性价比的朋友。 不过作为走量的产品,11.5”S 的刀法非常奇特且精准。 比如灵动版搭载的芯片是麒麟 9000WM,而柔光版的则是性能更强、核心更多的麒麟 9000WL,P70 用的就是这颗芯片。 两者都能应对写字、画画、视频和浏览等大部分使用场景,但在此基础上,你还想打打游戏,我建议你选性能更好的柔光版。 更有意思的是,灵动版除了降级芯片,还去掉了闪光灯。 拥有一体化金属外壳的 MatePad 2023,是全系唯二拥有 105° 前置广角镜头的产品。 虽然它是支持手写笔价格最低的产品,但却不能给 M-Pencil 无线充电,需要购买充电坞套装。 最后 MatePad SE,是华为平板中售价最低的产品,官网起售价只要 899 元,最高配也仅需 1199 元。 这就决定了 SE 的配置上限:高通骁龙 680 的芯片、10W 有线充电、单麦克风、全系最大的屏幕黑边,还不支持手写笔。 所以,这是一款便宜,也仅仅只是便宜的平板。 总体来说,华为平板大体遵循着:价格越高、屏幕越大、黑边越窄的原则。 但是这八款产品在许多小配置上的重叠,甚至便宜的比贵的配置还高,导致很多朋友既怕买亏了 又怕买贵了。 结合上面的全系对比,我来说说购买建议。 先看屏幕。对显示和办公有要求的朋友,建议直接上 Pro,OLED 屏和 HUAWEI SOUND 影音,一定不会让你失望。 如果你的平板经常用来看文献、记笔记或是画画,建议选择: MatePad 2023 MatePad 11.5”S MatePad Air MatePad Pro 13.2” 这些屏幕为 3:2 的机型,能让你浏览行数更多,阅读文献更高效。 如果你大部分时间都在拿平板刷剧,那 16:9 的宽屏机型,会更合适: MatePad 11” 2023 MatePad Pro 12.6” MatePadPro 11” 2024 这个比例的设备,水平方向更宽,更接近电影电视剧的格式,上下的黑边窄了,视野也宽了。 再到存储版本。根据我的实际体验 12GB+256GB,应该是目前最适合平板的配置,不用老是惦记缓存,也不怕系统总杀后台。 最后,如果你不想让平板只成为「腾讯爱奇艺」和「豪华泡面盖」,我建议可以给 M-Pencil 留出预算空间。 因为所有支持手写笔的在售华为平板,都支持 M-Pencil 二三代功能的向上兼容,比如侧锋书写、双击切换等。 当然如果你想在此基础上,体验最新的连接技术那可以看看支持星闪的三款机型: MatePad 11.5” S MatePad Pro 13.2” MatePad Pro 11” 2024 结合上面的对比和建议,希望大家都能找到一台最合适你的华为平板。
新款iPad Air性能缩水,10核GPU降至9核
在上个月的「放飞吧」发布会上,苹果正式推出了新款 iPad Air。 新款 iPad Air 正式发布之后,苹果官网在其所有参数页面里,写的都是「搭载 Apple M2 芯片,拥有 10 核心图形处理器」。 ▲ 5 月 15 日 iPad Air 参数页面截图。图片来源:苹果官网 然而,近期苹果官网却进行了一波悄然更新。 在更新后的介绍页面中,iPad Air 所搭载 M2 芯片的图形处理器(GPU)核心数量发生了变化,从最初宣传的 10 核心,减少为 9 核心。 ▲ 左图为 5 月 15 日截图,右图为今日截图。图片来源:苹果官网 iPad Air 宣传页面 而且在技术规格和机型对比等页面中,关于 M2 芯片中 GPU 核心数量的描述,也都从 10 核心改为了 9 核心。 对于这一数据的变动,苹果还没有给出具体原因,而且其内部对此可能也十分混乱。 直至现在,在苹果 Newroom 发布的 M2 iPad Air 新闻稿中,仍显示「M2 芯片为 iPad Air 的性能再次带来重大飞跃,8 核中央处理器和 10 核图形处理器带来更强劲性能」。 事实上,苹果此前并未推出过搭载 9 核图形处理器的 M2 芯片。 无论是在 Mac 还是 iPad Pro 上,此前推出的 M2 产品都是 8 核或 10 核图形处理器。 不过,苹果也可能一开始就没有给新款 iPad Air 搭载「满血版」M2。 在「放飞吧」发布会上,苹果的 Keynote 显示 iPad Air 搭载的 M2 芯片在图形性能,较上一代提高了 25%。 作为对比,在上一代 iPad Pro 的发布会上,其 Keynote 显示搭载 M2 的 iPad Pro 的图形性能较上一代提高了 35%。 这一数值的变化,表明苹果内部应该是清楚新款 iPad Air 性能是有所缩减的,且与 iPad Pro 所搭载的 M2 芯片是不同的。 GeekBench 跑分数据同样显示了这一点。与上一代 iPad Pro 相比,同样搭载 M2 芯片的新款 iPad Air 在 GPU 性能上的跑分低了约 10%。 这部分的性能差距,很可能与缺少的一颗 GPU 核心有关,所以新款 iPad Air 的图形性能将会打一定折扣。 尽管如此,苹果也并没有对此进行任何解释,苹果官网上 iPad Air 参数的修改是悄悄进行的。 Apple Insider 猜测,iPad Air 型号中的 M2 芯片,很可能和 10 核 GPU 版本 M2 是在同一产线上生产的。对于正常的芯片,苹果可以通过软件的方式将其中一个 GPU 核心禁用。 这样做可以提高处理器产量,因为苹果无需废弃那些只有一个 GPU 核心损坏的芯片。 在新款 iPad Air 的研发阶段,苹果可能使用了 10 核 GPU 的 M2 芯片。直到最后正式量产时,才最终更换为 9 核 GPU 版本。 这期间或许是由于苹果内部的沟通问题,导致 iPad Air 的宣传出现了错误,直到现在才进行了修改。 从整体性能来看,M2 芯片仍然是一个强大的升级。对于普通用户来说,10 核和 9 核 GPU 在日常使用中的性能差距可能并不明显。 但对于游戏玩家和专业用户而言,这部分性能差距还是存有遗憾。 尽管一个核心的缺失,看起来只是一个微小的细节。但这次宣传失误不应该一改了之,苹果有义务通过合适的方式,及时通知消费者这一变化。
高通CEO安蒙:重构Windows PC生态性能领导力
凤凰网科技讯(作者/刘毓坤、杨睿琪)6月3日,在COMPUTEX 2024上,高通公司总裁兼CEO安蒙携手来自宏碁、华硕、戴尔、惠普、联想、微软和三星的行业领袖,重点阐述了搭载骁龙X系列的Copilot+ PC正如何赋能PC行业变革。安蒙表示,高通技术公司正在重构Windows PC生态系统的性能领导力。 安蒙表示,PC正在迎来重塑。搭载骁龙X Elite的Copilot+ PC是有史以来最快、最智能的Windows PC,整个系统都集成了AI,并且可以带来长达多天电池续航。 安蒙认为合作伙伴的加入使得骁龙赋能的Windows Copilot+ PC站在技术创新最前沿。“我们正在共同定义个人计算体验,并赋能开发者高效地打造面向新一代PC产品的应用。” 安蒙还强调,NPU作为关键的差异化因素,使搭载骁龙X系列的PC具有卓越性能,并让Copilot+体验成为可能。将AI工作负载从CPU和GPU转移到NPU,可在显著提升性能的同时降低功耗。 基于此,安蒙表示,高通技术公司正在重构Windows PC生态系统的性能领导力。骁龙X Elite采用的领先NPU能够为笔记本电脑提供出色的NPU每瓦特性能,与M3相比高达其2.6倍,与酷睿Ultra 7相比高达其5.4倍。 凭借领先的高通Oryon™ CPU,骁龙X Elite成为性能领先的Windows平台,在ISO供电情况下,骁龙X Elite的CPU性能比竞品领先高达51%,在PC达到相同CPU峰值性能时,功耗相比竞品低65%。 除硬件之外,安蒙还介绍了高通技术公司用于创建下一代AI应用的行业领先的开发工具。高通AI Hub让开发者能够在五分钟内在搭载骁龙平台的设备上部署模型,无论是自有模型,还是来自高通技术公司持续增长的模型库中的预优化即用型AI模型。全新面向Windows的骁龙®开发套件为开发者提供了理想的硬件平台,配备特别加速开发者版骁龙X Elite芯片组和广受欢迎的可堆叠外观设计。 此外,首批超过20款搭载骁龙X Elite和骁龙X Plus的Copilot+ PC现已开启预售,6月18日起可通过主要零售渠道购买。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。