EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
斯坦福AI团队抄袭国产大模型?清华系团队发文回应
原标题:斯坦福AI团队抄袭国产大模型?连识别“清华简”都抄了!清华系团队发文回应 作者 | 程茜 编辑 | 心缘 智东西6月3日消息,大模型“套壳”的回旋镖,这次扎到了美国科研团队身上。最近几天,斯坦福大学AI团队陷入抄袭风波,被质疑“套壳”清华系大模型开源成果,引起舆论哗然。 起因是这个团队在5月29日发布了一个多模态大模型Llama3-V,声称只花500美元训练,就能实现在多个基准测试中比肩GPT-4的性能。但很快有人发现,该模型跟清华系大模型创企面壁智能5月发布的MiniCPM-Llama3-V 2.5模型有不少相似处,而且没有任何相关致谢或引用。 一开始团队面对抄袭质疑还嘴硬否认,只承认使用了MiniCPM-Llama3-V的分词器,后来证据越来越多——不仅架构和代码高度相似,而且被发现作者曾在Hugging Face导入MiniCPM-V的代码,然后改名成Llama3-V。 最绝的是Llama3-V连国产AI模型的“胎记”都抄走了,跟MiniCPM-V一样能识别清华战国竹简“清华简”,而且连出错的样例、在高斯扰动验证后的正确和错误表现方面都高度相似。 而基于非公开训练数据的清华简识别能力,是面壁MiniCPM团队耗时数月、从卷帙浩繁的清华简中逐字扫描并逐一数据标注,融入模型中的。 面对铁一般的证据,Llama3-V团队终于立正挨打,一套道歉流程行云流水,火速删库、发文致歉外加撇清关系。其中来自斯坦福计算机科学专业的两位作者澄清说他们并未参与代码工作,所有代码都是毕业于南加州大学的Mustafa Aljadery负责的,他一直没交出训练代码。 ▲Llama3-V作者:Siddharth Sharma(左)、Aksh Garg(中)、Mustafa Aljadery(右) 这样看来,Llama3-V团队并不能算严格意义上的斯坦福团队,不过因为此事声誉受损的斯坦福大学至今没有采取任何公开措施。 面壁智能团队的回应很有涵养。今日,面壁智能联合创始人兼CEO李大海在朋友圈回应说“深表遗憾”,这也是一种“受到国际团队认可的方式”,并呼吁大家共建开放、合作、有信任的社区环境。 一、网友细数五大证据,作者删库跑路、不打自招 Llama3-V的模型代码与MiniCPM-Llama3-V 2.5高度相似,同时其项目页面没有出现任何与MiniCPM-Llama3-V 2.5相关的声明。 公开的基准测试结果显示,Llama3-V在所有基准测试中优于GPT-3.5,在多个基准测试中优于GPT-4,且模型尺寸是GPT-4V的1/100,预训练成本为500美元。这也使得该模型一经就冲上Hugging Face首页。 但当细心网友发现Llama3-V疑似“套壳”面壁智能此前发布的开源多模态模型MiniCPM-Llama3-V 2.5,在评论区发表评论后,Llama3-V项目作者最初否认抄袭,并称他们的项目开始时间先于MiniCPM-Llama3-V 2.5发布,只是使用了MiniCPM-Llama3-V 2.5的分词器。 当网友抛出三大事实质疑后,Llama3-V的做法是——不回应直接删除网友评论。 昨日下午,网友在MiniCPM-V页面下将事情经过全部公开,并公开@面壁智能让其项目团队投诉。 当日晚间,面壁智能研发人员发布推文,其验证结果也印证了网友的说法,Llama3-V与MiniCPM-Llama3-V 2.5高度相似。同时公开喊话Llama3-V研发团队:“鉴于这些结果,我们担心很难用巧合来解释这种不寻常的相似性。我们希望作者能够对这个问题给出官方解释,相信这对开源社区的共同利益很重要。” 以下就是Llama3-V被质疑抄袭MiniCPM-Llama3-V 2.5的五大证据: 1、Llama3-V的代码是对MiniCPM-Llama3-V 2.5的重新格式化,其模型行为检查点的噪声版本高度相似。 其中,Llama3-V只是对代码进行了重新格式化和变量重命名,包括但不限于图像切片、标记器、重采样器和数据加载。面壁智能研发人员也证实,Llama3-V有点类似于MiniCPM-Llama3-V 2.5的噪声版本。 2、起初网友在Llama3-V的Hugging Face页面质疑抄袭时,其作者回应称只是使用了其分词器,并且项目开始时间比MiniCPM-Llama3-V 2.5更早。 当网友进一步询问如何在MiniCPM-Llama3-V 2.5发布前使用其分词器,作者给出的答案是使用了MiniCPM-V-2的分词器,但很明显,两个版本的分词器完全不同。 3、Llama3-V提供的代码无法与Hugging Face的检查点兼容。 但网友将Llama3-V模型权重中的变量名称更改为MiniCPM-Llama3-V 2.5的名称后,该模型可以与MiniCPM-V代码一起运行。 面壁智能的研发人员的调查结果也显示:更改参数名称后,可以使用MiniCPM-Llama3-V 2.5的代码和config.json运行Llama3-V。 4、Llama3-V项目的作者害怕面对质疑,删除了质疑者在Llama3-V上提交的质疑他们偷窃的问题。并且目前Llama3-V项目已经从开源网站中下架删除。 5、在一些未公开的实验性特征上,比如在内部私有数据上训练的古汉字清华竹简,Llama3-V表现出与MiniCPM-Llama3-V 2.5高度相似的推理结果。这些训练图像是最近从出土文物中扫描并由面壁智能的团队注释的,尚未公开发布。 例如下图中的几个古汉字识别: MiniCPM-Llama3-V 2.5中未公开的WebAgent功能上,在框选内容大小时,Llama3-V与之犯了相同的错误: 二、仨作者内讧,Aljadery全权负责写代码,但拿不出训练代码 昨天,Aksh Garg、Siddharth Sharma在外媒Medium上公开回应:“非常感谢在评论中指出(Llama3-V)与之前研究相似之处的人。我们意识到我们的架构与OpenBMB的‘MiniCPM-Llama3-V2.5:手机上的GPT-4V级多模态大模型’非常相似,他们在实现方面领先于我们。为了尊重作者,我们删除了原始模型。”Aljadery没有出现在声明中。 ▲Aksh Garg、Siddharth Sharma的回应声明 Mustafa曾在南加州大学从事深度学习研究,并在麻省理工学院从事并行计算研究,拥有南加州大学计算机科学学士学位和计算神经科学理学士学位,目前其没有在公司任职。 Garg在社交平台X中发布的致歉声明中提到,Mustafa全权负责编写Llama3-V的代码,他与Sharma因忙于全职工作并未参与代码编写。 在听取了Mustafa描述的Idefics、SigLip等架构扩展创新、查看了最新论文后,他们二人就在未被告知该项目与开源代码关系的情况下,帮助Mustafa在外媒Medium和社交平台X对Llama3-V进行了宣传推广。 在昨天看到关于Llama3-V的抄袭指控后,Garg和Sharma就与Mustafa进行了原创性讨论,并要求他提供训练代码,但目前未收到任何相关证据。 目前,Aljadery的推特账号显示“只有获得批准的关注者才能看到”。 三、首个基于Llama-3构建的多模态大模型 此前,Garg在介绍Llama3-V的文章中提到,Llama3-V是首个基于Llama-3构建的多模态大模型,训练费用不到500美元。并且与多模态大模型Llava相比,Llama3-V性能提升了10-20%。 除了MMMU之外,Llama3-V在所有指标上的表现都与大小为其100倍的闭源模型非常相近。 他们所做的就是让Llama 3能理解视觉信息。Llama3-V采用SigLIP模型获取输入图像并将其嵌入到一系列块嵌入中。然后,这些嵌入通过投影块与文本标记对齐,投影块应用两个自注意力块将文本和视觉嵌入放在同一平面上。最后,投影块中的视觉标记就被添加到文本标记前面,并将联合表示传递给Llama 3。 结语:Llama3-V套壳实锤,或损害开源社区健康发展 不论从网友的质疑还是Llama3-V作者的回应来看,该模型套壳MiniCPM-Llama3-V2.5已经基本实锤,高度相似的代码以及部分基于面壁智能内部未公开训练数据训练的功能,都证明这两大模型的相似性。 目前来看,对于大模型“套壳”没有明确的界定,但开源大模型以及开源社区的构建本意是促进技术的共享和交流,加速AI的发展,但如果以这种直接“套壳”、更改变量的形式使用,或许会与这一发展愿景背道而驰,损害开源社区的健康发展。
斯坦福爆火Llama3-V竟抄袭中国开源项目,作者火速删库
在 GPT-4o 出世后,Llama3 的风头被狠狠盖过。GPT-4o 在图像识别、语音理解上卓越的性能展现了它强大多模态能力。开源领域的领头羊 Llama3 曾在几乎所有基准测试中都超越了 GPT-3.5,甚至在某些方面超越了 GPT-4。这次就要闷声「吃瘪」了吗? 5 月 29 日,一个来自斯坦福的研究团队发布了一个能够「改变现状」的产品:Llama3-V,号称只要 500 美元(约为人民币 3650 元),就能基于 Llama3 训练出一个超强的多模态模型,效果与 GPT4-V、Gemini Ultra 、 Claude Opus 多模态性能相当,但模型小 100 倍。 Github 项目链接:https://github.com/mustafaaljadery/llama3v(已删库) HuggingFace 项目链接:https://huggingface.co/mustafaaljadery/llama3v(已删库) 用这么少的成本,创造出了如此惊艳的成果,Llama3-V 在推特上迅速爆火,浏览量突破 30 万,转发超过 300 次,还冲上了「 HuggingFace Trending 」Top 5。 但是没发布两天,Llama3-V 就遭遇了重重质疑。有人指出,Llama3-V 项目中有一大部分似乎窃取了清华大学自然语言处理实验室与面壁智能合作开发的多模态模型 MiniCPM-Llama3-V 2.5。 MiniCPM-V 是面向图文理解的端侧多模态大模型系列。MiniCPM-Llama3-V 2.5 是该系列的最新版本。其多模态综合性能超越 GPT-4V-1106、Gemini Pro、Claude 3、Qwen-VL-Max 等商用闭源模型。OCR 能力及指令跟随能力进一步提升,并支持超过 30 种语言的多模态交互。这样的优秀性能,不仅让 MiniCPM-Llama3-V 2.5 成为受大家推崇的模型,或许也成为了 Llama3-V 的「模仿」对象。 项目地址:https://github.com/OpenBMB/MiniCPM-V/blob/main/README_zh.md 可疑的作者答复 HuggingFace 用户 JosephusCheung 在项目的评论区中提出问题,Llama3-V 是否在未提及的情况下使用 openbmb/MiniCPM-Llama3-V-2.5 进行了训练。而作者回复表明,Llama3-V 使用了 MiniCPM-Llama3-V-2.5 的预训练 tokenizer,并且是在它发布前就开始了这项工作。这样的解释明显出现了时间错位,加重了大家的怀疑。 细扒其中猫腻 此外,还有一位名为 Magic Yang 的网友也产生了质疑,他对于这两个模型的相似性也有着更深的洞察。 他首先在 Llama3-V 的 GitHub 项目 Issue 中发布了他的疑问,没想到 Llama3-V 的作者们很快就删除了质疑帖。 在这个 Issue 中,他首先提出,Llama3-V 与 MiniCPM- Llama3-V 2.5 具有相同的模型结构和配置文件,只是变量名不同。Llama3-V 的代码几乎完全照抄 MiniCPM-Llama3-V 2.5,只是进行了一些格式上的修改,包括但不限于分割图像、tokenizer、重采样器和数据加载部分。 Llama3-V 的作者立马回复,称 Llama3-V 在架构上参考的是 LLaVA-UHD,并列出了在 ViT 和 LLM 选择上与 Mini CPM-Llama3-V 2.5 的差异。 但 Magic Yang 发现,相比 LLaVA-UHD 所用的方法,Llama3-V 与 MiniCPM-Llama3-V 2.5 可谓是一模一样。特别是 Llama3-V 使用了与 MiniCPM-Llama3-V 2.5 相同的,连 MiniCPM-Llama3-V 2.5 新定义的特殊符号都「抄」上了。 于是,他向作者提问,为什么 Llama3-V 在 MiniCPM-Llama3-V2.5 项目发布之前,就未卜先知似的拿到了其 tokenizer?这似乎算是追问了作者对 JosephusCheung 的回答。 Llama3-V 作者回答称,他参考了 MiniCPM-V-2 的 tokenizer(https://huggingface.co/openbmb/MinicPM-V-2/blob/main/tokenizer.jsonBefore),MiniCPM-Llama3-V2.5 采用了新的 tokenizer 和原来版本中的特殊符号,因此 Llama3-V 的代码中保留了这个符号,但 Llama3-V 与 MiniCPM-Llama3-V2.5 是完全不同。 但事实是,MiniCPM-V-2 的 tokenizer 与 MinicPM-Llama3-V2.5 完全不同,在 Hugging Face 里是两个文件,文件大小也完全不同,也不包含 Llama3-V 所用到的与 Llama 3 有关的 tokenizer。 Magic Yang 还发现了 Llama3-V 的作者在 Hugging Face 上传项目时,直接导入了 MiniCPM-Llama3-V 2.5 的代码,后来才把一些文件里的名称替换为 Llama3-V。 于是,Llama3-V 的作者的作者再次回复,称 Magic Yang 的指控大错特错。首先,想要运行 HuggingFace Transformer,需要给模型写配置文件,但是他们恰好发现 MiniCPM 的配置能用,因此,他们使用了与 MiniCPM 相同的配置。其二,Llama3-V 的模型架构 SigLIP 的灵感来源于 Idéfics ,作者之前也提到,Llama3-V 模型架构参考的 LLaVA-UHD 同样如此,并且在视觉代码方面,他们借鉴了 Idéfics ,并非照搬 MiniCPM。 更令人惊讶的是, Magic Yang 发现 Llama3-V 项目的作者似乎并不理解他们自己的代码,或许也不明白搬来的 MiniCPM-Llama3-V 2.5 架构中的细节。 感知器重采样器(Perceiver Resampler)使用的是单层交叉注意力,而非双层自注意力。然而,下图中的 Llama3-V 技术博客中的描述明显存在误解。 Llama3-V 的技术博客 Llama3-V 的代码 此外,SigLIP 的 Sigmoid 激活功能并不用于训练多模态大语言模型,而是仅在 SigLIP 的预训练过程中使用。看来,作者对于自己的代码理解还是有很大偏差的。 Llama3-V 的技术博客 Llama3-V 的代码 对于清华 NLP 实验室和面壁智能团队特别采集和标注,从未对外公开的专有数据,Llama3-V 的表现也非常出色。「清华简」是一种非常特殊且罕见的中国战国时期的古文字,而美国模型 Llama3-V 不仅认识中国古文字,在认错字的时候,也和 MiniCPM-Llama3-V 2.5 一模一样。 有网友用 1000 张竹简图像对同类模型进行了测试,正常情况下,每两个模型之间的重叠应该为 0,而 Llama3-V 和 MiniCPM-Llama3-V 2.5 之间的重叠高达 87%。识别错误的结果 Llama3-V 和 MiniCPM-Llama3-V 2.5 也有高达 182 个重合。 删库?也不管用 在重重质疑之后,Llama3-V 的作者行动了。此前宣传 Llama3-V 的推特内容流已不可见。 他还隐藏了 HuggingFace 的仓库。Magic Yang 再次发难,问 Llama3-V 的作者为何在 HuggingFace 上将模型设为私密? 作者称,设为私密是为了修复 Llama3-V 的推理功能,MiniCPM 的配置与 Llama3-V 不兼容,当时 HuggingFace Transformers 无法正确地加载模型,为了避免下载模型的用户运行失败,他将进行一些修复。 同样地,Llama3-V 的 GitHub 项目主页也显示为「404」。 GitHub 地址:https://github.com/mustafaaljadery/llama3v 这些举动显然是为了应对社区的强烈反应和对模型来源合法性的质疑。但这样的逃避似乎并不管用。即使 Magic Yang 与对话已经随着项目页面 404 而隐藏。但 Magic Yang 已将对话截图评论在了 MiniCPM-V 的 GitHub 页面。 据网友反馈,当运行 Llama3-V 时,作者提供的代码无法与 HuggingFace 上的 checkpoint 兼容。然而,当把 Llama3-V 模型权重中的变量名更改为 MiniCPM-Llama3-V 2.5 后,就能成功运行。 如果在 MiniCPM-Llama3-V 2.5 的 checkpoint 上添加一个简单的高斯噪声,就会得到一个在各个测试集上的表现都与 Llama3-V 极为相似的模型。 有网友上传了 Llama3-V 删库前的检查点,大家可以自行测试验证。 检查点链接:https://twitter.com/zhanga6/status/1797293207338041719 有人认为,这是关乎道德、诚信与声誉的问题。如果抄袭得到验证,斯坦福大学应该介入调查。 图源:X@AvikonHadoop 在国内外舆情发酵了两天后,作者之一站出来道歉,称「抄袭」源于对队友 Mustafa 的盲信。
卷技术是美国大模型天命,卷价格是中国大模型宿命?
文 | 佘宗明 「卷」就一个字,大模型厂商们不会说一次,它们只会用行动表示。 但同样是卷,中美大模型似乎走上了两条路线。 刚过去的5月,是全球「AI信息大爆炸」月份。透过众多信息会发现—— 美国那边在卷技术: OpenAI发布了迄今最像「人」的AI大模型GPT-4o; 谷歌全线更新了Gemini,秀出了超强AI语音助手Astra,还有对标OpenAI家GPT-4o、Sora的NotebookLM、Veo等产品; 苹果推出了首颗AI芯片M4; 微软发布了AI PC,更新了Copilot…… 整体上,主打一个你追我赶、能力PK。 中国这边在卷价格: 5月11日,智谱AI把个人版GLM-3Turbo模型产品的调用价格从5元/百万tokens降至1元/百万tokens; 5月15日,字节跳动旗下的火山引擎将豆包大模型API输入价格降至0.0008元/千tokens,把中国大模型市场价格卷入「厘时代」; 5月21日,阿里云宣布将通义千问旗下9款核心模型悉数降价,其中通义千问GPT-4级核心模型Qwen-Long的API输入价格锐减至0.0005元/千Tokens,降幅高达97%; 同日,百度也宣布,文心大模型两大主力模型ERNIE Speed、ERNIE Lite免费; 5月22日,科大讯飞宣布,讯飞星火Lite API永久免费开放,讯飞星火Pro/Max API低至0.21元/万tokens。 同日,腾讯云也宣布,主力模型之一混元-lite模型即日起全面免费。 看上去,「晋西北乱成了一锅粥」,成了价格战下的国产大模型竞争局面的写照。 ▲今年5月AI大模型降价情况汇总。图片来源:APPSO。 知名投资人朱啸虎就看热闹不嫌事大地说:一下子都从卷scaling law 180 度转弯变成卷价格卷免费了,说好的AGI(通用人工智能)梦想呢? 大洋彼岸在拼技术能力,中国同行在拼产品价格,两相对照,确实很容易引发「硬科技PK软应用」二元对立思维的回炉。 但与其批国产大模型在价格上卷成了麻花,不如思考下这道考题:都是大模型,为什么卷技术成了美国大模型的天命,卷价格成了中国大模型的宿命? 01 需要厘清的是,不是只有美国大模型才卷技术,也不是只有中国大模型才卷价格。 卷技术不是美国大模型的「专利」。在从拼参数、拼性能、拼Agent到拼价格的过程中,国产大模型也曾在复杂指令理解、知识记忆、幻觉抵御等能力上摩拳擦掌。 5月9日,阿里云就发布了号称模型性能全面赶超GPT-4-Turbo、堪称「地表最强」中文大模型的通义千问2.5,通义千问1100亿参数开源模型也在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B成为开源领域最强大模型。 对大模型而言,技术能力是1,其他的都是0,没有技术支撑很难走远。 价格战这股风,也不是只吹到了国产大模型那里。硅谷AI群雄打起价格战来也不含糊。 在5月的新品发布会上,OpenAI就宣布GPT-4o支持免费试用,调用API的价格也比GPT-4-turbo降低一半,5 美元/百万tokens,拿走拿走别客气。 作为OpenAI头号对手的谷歌看完后,立马喊了声「跟」,秉持着「敌不动,我不动,敌若降,我也降」的态度,把当家王牌Gemini大模型系列的Gemini 1.5 Flash的价格降到了0.35美元/百万tokens。 眼看着两位带头大哥都降了,作为小弟的硅谷当红AI初创公司Anthropic和Mistral AI也跟着吆喝了起来:走过路过不要错过,API价格只要0.25美元/百万tokens了。 ▲硅谷AI大模型同样在卷价格。图片来源:每日经济新闻。 白热化竞争的倒逼,大模型推理成本下降的带动,大模型技术迭代曲线放缓的牵制,都是硅谷大模型厂商降价的原因。 但整体上,中国大模型厂商在软硬件一体推进势头方面没有像美国厂商那么猛,美国大模型厂商在降价力度上也没有像中国厂商这么狠。 正因如此,很多人都担心国产大模型会陷入低层次竞争的内卷螺旋,跟OpenAI、谷歌的技术代差会随之继续扩大。 诸如此类的担忧不是全无道理,希望国产大模型将技术力作为竞争主轨道也是正常心态,但不能由此逆推出中国大模型卷价格就是「窝里斗」的结论,更不必就此设置起中国大模型「只擅长内耗,不擅长创新」的稻草人议题来。 抛开理性不谈,中国大模型厂商「不是跟国外卷技术,而是在国内卷价格」,有些不够正确——它没考虑到「清场式遥遥领先」狂热者的感受。 但理性地看会发现,中国大模型厂商卷价格在所难免。它们未必不想赶超OpenAI,是多重条件不允许;它们未必想卷价格,可它们首先得活下来。 对中国大模型厂商的卷价格,苛责不如试着去理解。 02 今年4月,工信部原部长苗圩在某论坛上说:在英伟达芯片几近断供后,中国跟美国的大模型算力差距逐渐拉大,所以和美国不要「打篮球赛」,要学会「下围棋」。 在其表达语境中,「打篮球」指的就是拼算力,那样免不了会被带着「满场乱跑」;「下围棋」指的是用好自身优势,加速大模型落地应用。 这说得很现实:受制于现实环境和发展阶段,中美大模型之间在技术上仍有不小的差距。 今年3月Sora刚问世时,华大基因CEO尹烨就曾感慨:据不完全统计,国内号称有大模型的公司已经有300多家,相信大部分还是「多小散乱」,面对ChatGPT在中文世界里(的表现),似乎尚能一战,但面对Sora的横空出世,可有一个能打的甚至是接近的吗? 说白了,技术沉淀、人才储备、融资环境上的差距是短期内难以抹平的,英伟达芯片断供更是不容忽略的掣肘因素。 ▲截止2022年,全球57%的顶尖AI人才在美国,12%的在中国。数据来源:麦克波洛智库。 这时候,缩短差距的正确打开方式,自然不是以己之短博人之长,跟Open AI们比算力。 不比依托于算力的技术能力,比什么?中国互联网过去20年的弯道超车经验已经给出了答案:比应用。 多年来,美国企业擅长从0到1式技术创新,强于「硬科技」,中国企业擅长从1到n式模式创新,强于「软应用」,美国互联网是技术创新带动应用创新,中国互联网是应用创新反推技术进步,几成业界共识。 正是因为应用侧抓住了超大市场内的丰富场景带来的机遇,才有中国互联网企业在移动互联网时代的蓬勃势头。也是因为利用场景优势对冲了「跟跑者困境」,中国互联网产业才有今天的繁荣景象。 近几年,在「卡脖子」之痛的影响下,不少人动辄将底层突破和应用创新对立,将二者分别对应上「星辰大海」和「萝卜青菜」,评价创新的多个维度、多元视角也经常被压减成单一标准,那就是「有没有造出光刻机来」。 他们会将强调应用的模式创新置于硬科技的另一侧,看低模式创新的价值。 在此背景下,国产大模型「卷技术不足,卷价格有余」,俨然是有「原罪」的。 但中国大模型的发展,不能被这类杂音所困。国家信息中心专家张振翼之前就指出,美国在大模型发展中具备一定的领先优势,中国需要加强自身独特优势的探索。在他看来,中国发展大模型人工智能最大的优势,就是应用场景资源极为丰富。 03 而拼价格,就是拼应用的必经步骤。美团、滴滴、拼多多能成为超级应用,就离不开当年掀起的价格血战的「助攻」。 国产大模型大打价格战,也是这样:拼价格是表,拼应用是里。大模型厂商在价格上的「退」是为了寻求商业模式和用户增长上的「进」。不把价格打下来,就没法加速落地。 对阿里、腾讯、字节等巨头来说,开启降价模式背后都有一盘「以价换量」的棋:数据显示,国内AIGC用户渗透率目前只有6%。在习惯了免(白)费(嫖)的情况下,国内大量用户都是价格敏感型的。 降价经常是最有效的获客途径,没有之一。用的人越多,就越能压低均摊研发成本,越能降低推理成本。这样一来,没准能开启「降价让利-用户增多-规模效应明显-云业务增长-继续降价」的良性循环。 阿里云资深副总裁刘伟光曾说过,「AI推理的成本只有以每年10倍甚至百倍地下降,才能推动各行各业AI应用的爆发,预计未来大模型API的调用量会有成千上万倍增长。」而OpenAI CEO山姆·奥特曼最近在接受采访时就说,他相信高质量AI智能的成本将变得非常低廉,最终趋近于零。 值得注意的是,这波降价降的多是API调用价格,相当于是用降价迂回「抢人」——抢的是开发者。对大模型厂商而言,只有吸引越多的开发者,才能缔造更繁荣的应用生态、催生更多的应用创新。 而丰富的大模型应用生态,是撬动「飞轮效应」的前置条件。应用生态越完善,使用场景越多,用户规模越大,生成的新数据会反过来反哺大模型性能提升。 只有更大的使用量,才能打磨出更好的模型。就此看,卷价格未尝不是另一种「卷scaling law」。 按照国内朴实无华的商战节奏,现在是降价或免费,将来直接给开发者补贴,也不是不可能。 可以预见,这波价格战会将「百模大战」导入市场出清加速的节奏,大模型领域的格局洗牌在所难免。 ▲ChatGPT生成的大模型价格战图片。 对用户而言,也许会梦回2014年,那时网约车补贴大战正酣,用户成了价格战直接受益者。 对许多AI创业公司而言,这可能意味着至暗时刻的到来——价格战开启的是淘汰赛,中小厂商不像大厂那样有充足的资金弹药,随时可能因为没法「跟」而被踢出牌桌,朱啸虎就断言,不是深度绑定大厂的模型公司基本已经出局。 但这无关「自己人卷自己人」,只是市场竞争的本相而已。 整体上看,腰尾部被淘汰,市场加速向头部集中,对中国大模型长远发展未必是坏事:不要认为大模型领域的幂律分布就等于「资本无序扩张」,事实证明,在「国际竞争中大显身手」方面,只有大企业才有大的竞争力。 04 中国大模型卷价格在所难免,但卷价格通向的不一定是竞争力提升——大模型核心竞争力提升,有赖于「价格下调-规模扩大-成本降低-利润提升-研发加强-技术创新」正向增强回路的跑通。 用户固然会因为免费来尝鲜,但决定他们能否长期留存的,是大模型的实际业务价值,能否高效完成任务、解决用户痛点,而非价格。 很多体验过的用户都知道,当下的不少大模型都有着很强的「不确定性」——它经常会变成CheatGPT。若这只是大模型跟C端用户相互「调戏」,那无非是提供了些笑料,可大模型应用最终得沉到行业产业场景中去。 行业场景专业度要求高、边际容错率低,必须得靠技术能力切实减少「幻觉」、避免「诱导」。 而从大模型技术能力角度看,价格战往往会呈现出两面性来: 1,行业洗牌后,用低价换来市占率提升的头部厂商能获得更丰厚的回报,也能在研发上投入更多; 2,恶性竞争下,会抑制企业利润,那些长线性创新项目投入也会受影响,进而损害长远竞争力。 这轮价格战到底会通向哪一面,也看大模型厂商们怎么选。 零一万物创始人兼CEO李开复就说,国内常看到ofo式的「疯狂降价、双输」的打法,大模型公司不会这么不理智,因为技术还是最重要的,如果技术不行,纯粹靠贴钱、赔钱做生意是行不通的。 百川智能创始人王小川也表示,百川智能不会参与降价,「千团大战、滴滴快的补贴大战,背后都带有网络效应,那种商业模式改变了生产关系,改变了司机和乘客之间、外卖员和用户之间的关系。这次价格战并没有改变生产关系,而是直接做生产力供给,是B端(企业用户)市场的价格战。」 要而言之,大模型技术能力提升才是硬道理,价格战换来的不该是在落后系统上开发应用,而应是「价格力-技术力」相互带动的正循环基础上的系统持续升级。 价格为锚、应用为先,也许能帮中国大模型完成局部赶超意义上的「弯道超车」。但局部之外的部分,只能靠技术创新去补齐。在这点上,没有捷径。 这不是说中国大模型厂商不该卷价格,而是说卷价格的进阶方向还得是卷技术——如果有些人非要怪中国大模型「就知道猛卷价格」,那一切责任在于拜登,谁让他摁下英伟达芯片断供按钮的?
斯坦福团队被曝抄袭清华系大模型,已删库跑路
金磊 西风 发自 凹非寺 量子位 | 公众号 QbitAI 家人们,大模型圈儿出了个惊天大瓜 —— 斯坦福AI团队,竟然曝出了抄袭事件,而且抄袭的还是中国国产的大模型成果——模型结构和代码,几乎一模一样!跟任何抄袭事故一样……AI圈内都惊呆了。 斯坦福的这项研究叫做Llama3-V,是于5月29日新鲜发布,宣称只需要500美元就能训出一个SOTA多模态大模型,比GPT-4V、Gemini Ultra、Claude Opus都强。 Llama3-V的3位作者或许是拥有名校头衔加持,又有特斯拉、SpaceX的大厂相关背景,这个项目短短几天就受到了不小的关注。 甚至一度冲上了HuggingFace趋势榜首页: 然而,戏剧性的一幕开始上演了。 有位细心的网友发现,咦?这“配方”怎么如此的熟悉? 然后他定睛一看,好家伙,这不就是MiniCPM-Llama3-V 2.5(出自清华系明星创业公司面壁智能)嘛。 于是这位网友便跑到面壁智能GitHub项目下开始爆料了: 你们家大模型被斯坦福团队抄袭了! 并且他还附上了一堆的证据,最直接的莫过于这张2个模型代码的对比图了: Emmm……用这位网友的话来说就是: 模型结构、代码、配置文件,简直一模一样,只是变量名变了而已。 至于为什么这位网友要跑到面壁智能GitHub项目下面留言,是因为他之前已经给Llama3-V作者留过言了,但斯坦福团队的做法竟是删库跑路…… 没错,现在不论是GitHub还是HuggingFace,统统都是404: 并且这事现在还在持续发酵的过程中,网上吃瓜的群众也是越来越多。 那么我先来一同回顾一下这件drama事情的始末。 “代码和架构一模一样” 正如刚才所述,一个网友爆料Llama3-V抄袭MiniCPM-Llama3-V 2.5,跑到面壁智能的GitHub主页提醒团队注意,并把关键证据都一一截图列举整理了下来,这才有了整个抄袭门的还原现场。 以下是来自这位网友的证据。 证据一,Llama3-V的模型架构和代码与MiniCPM-Llama3-V 2.5几乎完全相同: 看下面的例子,配置文件就改了图像切片、分词器、重采样器和数据加载等格式化和变量名: Llama3-V作者表示参考了LLaVA-UHD架构,在ViT和LLM等选择上有一些差异。但实际上,网友发现他们的具体实现在空间模式等很多方面都与LLaVA-UHD不同,却出奇与MiniCPM-Llama3-V 2.5一致。 甚至,Llama3-V还用了MiniCPM-Llama3-V 2.5的分词器,连MiniCPM-Llama3-V 2.5定义的特殊符号都能“巧合”实属离谱。 证据二,网友质疑Llama3-V作者是如何在MinicPM-Llama3-V2.5项目发布之前就使用上MinicPM-Llama3-V2.5分词器的。 Llama3-V作者给的回复是这样婶儿的,说是用的面壁智能上一代MinicPM-V-2项目的: 但事实却是,HuggingFace中,MiniCPM-V2与MiniCPM-Llama3-V 2.5分词器分别是两个文件,文件大小也完全不同。 MiniCPM-Llama3-V 2.5的分词器是用Llama3分词器加上MiniCPM-V系列模型的特殊token组成,而MiniCPM-V2的发布都在Llama3开源之前,怎么会有Llama3分词器。 证据三,Llama3-V作者随后无故删除了网友在Llama3-V页面上提交的质疑他们抄袭的问题。 而且,他们似乎对MiniCPM-Llama3-V 2.5架构或他们自己的代码都不完全了解。 感知器重采样器(Perceiver resampler)是单层交叉注意力,而不是双层自注意力。但是下图所示Llama3-V的技术博客里作者的理解很明显是错的。 SigLIP的Sigmoid激活也不用于训练多模态大语言模型,而仅用于预训练SigLIP。 视觉特征提取不需要Sigmoid激活: 基于以上三点事实,这位网友认为足以证据证明Llama3-V项目窃取了MiniCPM-Llama3-V 2.5项目的学术成果。 但还没完,他随后又补充了两点证据。 几天前,当这位网友尝试运行Llama3-V时,发现他们提供的代码无法与HuggingFace的checkpoint一起使用,反馈问题没有得到作者回复。 于是网友把从HuggingFace下载的Llama3-V模型权重中的变量名改成了MiniCPM-Llama3-V 2.5的,惊奇发现模型居然可以用MiniCPM-V代码成功运行。 此外,如果将高斯噪声(由单个标量参数化)添加到MiniCPM-Llama3-V 2.5的checkpoint,结果就是会得到一个行为与Llama3-V极其相似的模型。 收到网友的提醒后,MiniCPM-Llama3-V 2.5团队这边也迅速展开了调查,他们按照网友的在GitHub上的说明,使用 Llama3-V的checkpoint和MiniCPM-Llama3-V 2.5的代码和配置文件正确获取了推理结果。 于是,一个更为关键性的证据出现了。 Llama3-V在一些未公开的实验性特征上表现出与MiniCPM-Llama3-V 2.5高度相似的行为,而这些特征是根据MiniCPM-Llama3-V 2.5团队内部数据训练的。 例如,识别清华简! MiniCPM-Llama3-V 2.5特有的功能之一是识别清华简,这是一种非常罕见、于战国时期写在竹子上的中国古代文字。 训练图像是从最近出土的文物中扫描出来的,由MiniCPM-Llama3-V 2.5团队进行了标注,尚未公开发布。 而Llama3-V的识别情况和MiniCPM-Llama3-V 2.5极为相似。 识别错误的情况竟也出奇一致: MiniCPM-Llama3-V 2.5团队还在1000 张竹简图像上测试了几种基于Llama3的视觉-语言模型,并比较了每对模型的预测精确匹配。 结果,每两个模型之间的重叠为零,而Llama3-V和MiniCPM-Llama3-V 2.5之间的&&重叠达到了惊人的87%**。 此外,MiniCPM-Llama3-V 2.5和Llama3-V甚至具有相似的错误分布。Llama3-V和MiniCPM-Llama3-V 2.5分别做出 236和194个错误预测,重叠部分为182个。 且按照网友在GitHub上的指令获得的MiniCPM-Llama3-V2.5-noisy显示出与Llama3-V几乎相同的定量结果,真令人匪夷所思…… 在另一个MiniCPM-Llama3-V 2.5内部数据上训练的未公开功能——WebAgent上,也出现了同样的情况。 Llama3-V甚至和MiniCPM-Llama3-V 2.5团队新定义的WebAgent模式中犯的错误都一样。 鉴于这些结果,MiniCPM-Llama3-V 2.5团队表示很难将这种不寻常的相似性解释为巧合,希望Llama3-V作者能对这个问题给出一个正式的解释。 斯坦福团队已删库跑路 虽然斯坦福的2位本科生已经下架了几乎所有与之相关的项目,但其实在此之前,他们最初在面对质疑的时候还是做出了些许的解释。 例如他们强调,Llama3-V这项工作的时间是要早于面壁智能的MiniCPM,只是使用了他们的tokenizer。 不过作者对Medium上的声明还是做了保留: 非常感谢那些在评论中指出与之前研究相似之处的人。 我们意识到我们的架构非常类似于OpenBMB的“MiniCPM-Llama3-V 2.5,他们在实现上比我们抢先一步。 我们已经删除了关于作者的原始模型。 对此,一部分网友表示,既然选择删掉项目,那么就表示确实存在一定的问题。 不过另一方面,对于抄袭这事也有不一样的声音—— MiniCPM-Llama3-V 2.5不也是在Llama3的基础上做的改良吗?不过连tokenizer都直接拿来用就应该不算是借鉴了。 而就在刚刚,另一个戏剧性的事情发生了。 斯坦福的作者在中午时间做出了最新的回应: 但现在……这条回应又删掉了 而面壁智能这边,CEO李大海也做出了正式回应: 原标题:斯坦福团队被曝抄袭清华系大模型,已删库跑路,创始人回应:也算国际认可
中国大模型5月中标报告出炉:数量创新高,金额环比回落
原标题:中国大模型中标项目监测报告(2024年5月) 进入2024年,随着诸多大模型获得备案许可,围绕大模型相关的商业化进程开始进一步提速。 因此,智能超参数期望以月度、季度为周期,依据公开的大模型相关中标项目为数据依据,全面跟踪分析大模型商业化的趋势和进展,为相关企业及从业人员提供有价值的市场洞察。 《中国大模型中标项目监测报告》将会围绕整体市场规模、行业覆盖、项目类型、代表厂商、代表项目、地域分布等多个维度进行分析,以此来刻画大模型行业商业化的现状。 核心洞察: 1、5月份中标项目数量创下新高,金额环比回落。2024年1-5月,统计到的大模型相关中标金额已经超过2023年全部中标项目披露金额。 2、应用类和算力类需求仍然是大模型采购的核心需求。5月份统计到的项目中, 算力类项目数量占比为32%,应用类项目数量占比为48%,大模型类项目数量占比为21%。 3、百度、智谱AI等厂商持续展现行业领先气质。百度、智谱AI等仍然是中标厂商中的高频面孔,展现出行业的领先性,但是商汤科技、科大讯飞、腾讯云等更多行业内有知名度的科技公司也都有拿到中标项目。 4、一线城市所在地大模型采购需求持续旺盛,但是其他区域也在快速追赶。5 月份里,整体上还是一线城市所在地是大模型采购需求最旺盛的区域,但是山东、四川、湖北、河南等地的采购需求也在快速增长。 以下是2024年5月监测报告全文: 1、整体市场 进入5月份,围绕大模型相关中标项目数量上延续了快速增长的势头,单月中标金额环比出现了大幅回落。5月份,公开渠道统计到的大模型相关中标项目63个,其中:有15个项目未披露中标金额(为方便统计,金额以0计算),其余48个中标项目披露的金额达到了1.85亿元。 5月份,公开的大模型相关中标项目数量上是2024年以来,单月项目数量最高的一个月份。考虑到5月份的假期因素,项目数量依旧能够创下新高,预示着大模型相关的市场需求持续高涨。 2024年1-5月,统计到的大模型相关中标项目的披露金额累计达到7.98亿元,已经超出2023年全部中标项目披露金额(7.95亿元)。1-5 月,未披露中标金额的项目数量也完全超出 2023 年全年。 2024年5月,从统计到的项目披露的金额来看,项目均值出现了一定的下滑。5月份统计到的中标项目中标金额的中位数约为90万元,环比4月份的150万元,出现了下滑。这跟新大模型项目数量占比增长较快,但是金额较小有一定关系。 2、 大模型项目类型 目前围绕大模型相关的招投标项目类型非常丰富,但整体上我们将其划归为 4 个大类:算力(运行大模型所需要的计算资源)、数据(大模型相关数据标注或者数据资源等)、大模型(各类大模型软件以及相关支撑平台)、应用(大模型在明确场景中的融合落地)。 2024年5月份统计到的项目类别分类如下: 从这个表格中可以看到,5 月内,大模型的支撑算力和具体应用场景落地是占据主导的采购需求。这两大类的占比自2023年的统计以来,变化不大,持续在 90%以上。 5月份,一个较好的势头是,部分与基础大模型相关的中标项目统计到了13个,比4月份的6个有100%的增长。虽然绝对数量还较小,但是反映出市场对基础大模型本身相关的需求确实也在提升。 3、 大模型项目行业分布 5月份,统计到的大模型中标项目涉及的行业跟 4 月份的相比差别不大,主要包括政务、金融、电信运营商、能源、教科、央国企等,表明大模型技术正在渗透到各个行业,加速落地。 从上面的表格可以看到,5月份,教科领域的项目数量最多,这跟很多高校及科研院所加强对大模型的研究有很大关系。但是教科领域的采购金额并不太高,算力是核心的采购诉求,单项目采购金额也大都只有几十万元。 相比前几个月份, 5月份,能源(以各地电力机构为主)领域的采购数量出现了下滑,央国企和政务类项目开始稳定增长。 央国企的大模型相关采购项目值得注意,这个市场的增长很快。第一季度内,统计到的央国企采购项目仅有4个,4 月份的统计数量为3个,但是5月份单个月内统计到的项目已经有8个,并且披露的金额明显高于平均数据和中位数。这个领域值得企业们投入更多精力。 再说一下金融行业。5月内,统计到的金融领域的大模型采购项目有 5个,跟 4 月份持平,但是项目采访方涉及银行、保险、证券、金融监管服务机构等,证明各个领域的金融客户都在探索和尝试。金融领域由于购买力较强,如果前期示范项目的落地效果明显,行业复制性会很快。今年下半年,这个领域可能会强劲增长。 4、 中标厂商及代表项目 2024年5月,63个项目的中标厂商数量有45家(少数订单有多个供应商),中标企业主要是系统集成商、大型科技公司、大模型初创企业、大学科研机构等。 5月份里,百度、智谱AI等仍然是中标厂商中的高频面孔,展现出行业的领先性,但是更多行业内有知名度的科技公司也都有拿到中标项目,比如:商汤科技、科大讯飞、腾讯云、亚信科技、浪潮通信信息、第四范式、星环科技、南天信息等。 5月份里, 统计到的智谱AI中标项目为4个,其中包括:中核工程咨询人工智能大模型(硬件、软件)项目、 中国地质环境监测院生成式预训练基础模型计算软件采购项目等。 5月份里,统计到的百度公司中标项目为4个,其中包括山东港口科技集团大模型应用与设备采购项目、太平通2024-2025年AI大模型服务采购项目等。 5月份内,有3个中标金额较大的项目,其中包括:河南梓鹏网络技术有限公司中标的2024河南产互大模型算力服务项目,金额2185.92万元;中国移动通信集团广东有限公司汕尾分公司中标的汕尾市汇安数字技术有限公司大模型训练算力云服务采购项目,金额2670.35万元,以及中国移动通信集团北京有限公司中标的光子算数(北京)科技有限责任公司人工智能算力服务项目,金额为8805万元。 5、 区域分布 5月份,中标项目遍布中国的17个省份和直辖市,包括北京、上海、广东+深圳、 河南、湖北、山东、四川等地。 从上面的表格可以看到,一线区域仍然是大模型采购需求最旺盛的区域,但是山东、四川、湖北、河南等地的项目也开始多了起来,表明非一线的经济区域的需求也在快速增长,并且项目采购金额其实更高,凸显出对大模型技术的接受度在快速提升。
体验完字节所有的AI产品,杀手级AI应用可能比想象中更远
作者 | 连冉 编辑 | 郑玄 字节的豆包,悄悄成了国内用户最多的原生 AI 应用。 最近一场活动上,字节跳动产品和战略副总裁朱骏透露:5 月中,豆包的月活已经达到 2600 万。目前,豆包 APP 下载量超 1 亿,平台上创建的智能体数超过 800 万。从月活来看,豆包已经超过了今年以来大火的 Kimi Chat 和百度文心一言。 虽然字节的豆包大模型(原云雀大模型)去年 8 月才推出,但不到一年时间,无论是从模型层还是应用层的发布来看,字节跳动都已经成为发布数量最多的公司——据极客公园不完全统计,到目前,字节跳动已经有 11 款 AI 产品。 与以往在 XR、地产、教育、SaaS 等领域启动新业务线的「高调」不同,在生成式 AI 爆火的一年半里,字节跳动的打法可以用一个古代行军打仗的成语来形容:就是「衔枚疾进」。 一方面,字节搭建了有着全明星阵容的技术中台,并推动各个业务线尝试拥抱 AI,还组织多个新团队探索各个领域的原生 AI 应用。另一方面,与投入的力度相比,字节在 AI 领域的发声却极其低调。在今年 5 月之前,只有飞书发布了一个智能体相关的新应用。而据极客公园了解,去年字节曾有多个团队希望发布 AI 产品,但都被高层压了下来。 低调不代表没有实力,实际上在不少行业人士眼中,字节就被认为是国内最有可能在这波技术浪潮里做出杀手级大模型或原生 AI 应用的国内大厂。原因至少有四: 字节在 AI 领域有很强的积累,其本身是全球最早将 AI 技术大规模用于信息分发,并在过去几年里积累了海量的 GPU 算力资源。 作为移动互联网时代的连续依靠今日头条、抖音等产品突破国内 BAT 天花板的创业公司,字节有着国内最顶尖的产品研发和运营团队。 作为今日头条、飞书、抖音、番茄小说等产品的母公司,字节跳动拥有庞大的用户基础和内容生态,积累了海量的优质数据。 后者的重要性不言而喻,它是推动 AI 技术发展和应用的关键"燃料"。 最后也是最重要的一点: 背靠抖音的字节有着国内甚至全球最优质的流量池。很多创业者梦寐以求的百万千万日活,对字节来说「轻轻」推一下就能达成。 这就像当年游戏行业的腾讯,字节不用担心流量,只需要做出好产品即可。 毫无疑问,字节是国内原生 AI 应用的种子选手,这或许也是字节选择「衔枚疾进」的原因。而进入 5 月,随着豆包大模型的发布,字节的 AI 战略显然要进入下一阶段。在这个时间节点,极客公园梳理并体验了目前字节所有已经公布的 AI 产品,希望通过这种方式探究这些产品背后的思维方式,并借此窥见字节全盘 AI 战略的一角。 01 火力覆盖:不错过任何一个品类 穷则精准打击,富则火力覆盖。后者用来形容字节在 AI 应用领域的战略再恰当不过。 据极客公园不完全统计,去年 8 月至今,字节跳动在 AI 领域一共推出了 8 款大模型、2 个智能体开发平台,和接近 20 个原生或基于现有产品的 AI 应用。 如下图所示,极客公园对字节跳动目前的 AI 产品进行了分类整理: 整体来看,字节的 AI 产品体系覆盖了最基础的模型层、开发 Agent 的中间层,以及落到产品层面的应用层。其中模型层和中间层都比较常规,应用层则呈现出非常明显的多元化,可以说是百花齐放。 根据极客公园的统计来看,在已经公布的产品中,字节已经覆盖了聊天、社交、图像/视频、教育、音乐等领域,其中既有 Dreamina、CodeGen 等偏生产力的工具型产品,也有猫箱(原话炉)、豆包这种更 ToC 的应用。 在产品层面,字节基本上不会错过任何市面上比较热门的品类,上述产品基本都可以在市场上找到对标。比如 AI 对话类产品豆包,有 ChatGPT、文心一言和 Kimi;AI bot 开发平台扣子,则对标 GPTs;「猫箱」(原「话炉」)对标的是 MiniMax 的「星野」;教育产品 Gauthmath,类似的有猿辅导的数学学科产品;还有海绵乐队,海外的 Suno 和国内昆仑万维的天工都是同类产品。 可以看出,在过去一年,字节正在复现移动互联网时代「App 工厂」的魄力,技术和产品团队一直在迅速前进。 02 产品体验:字节想做什么? 极客公园按图索骥,体验了一圈字节的产品。这里我们挑选了三个比较有代表性的产品和大家重点聊一下:分别是豆包、「猫箱」和剪映「即梦 Dreamina」。 豆包 豆包是字节跳动基于豆包大模型(原云雀大模型)开发的 AI bot,可以看到豆包有辅助写作、图像生成、AI 搜索、PDF 问答、翻译、网页摘要等诸多基础功能。下载桌面版后,还可以开通设置权限,让桌面上的每一个应用都接入 AI。 豆包使用页面|图片来源:极客公园 在豆包上,可以自行创建各式各样的智能体。字节跳动产品与战略副总裁朱骏此前在发布会上提到,团队成员在豆包上捏了一个英语老师的智能体。除了用自然语言定义了「这个老师需要用英文对话,并且在对话中随时指正用户的语法错误」这个功能,也定义了该成员自己喜欢的声音和形象。平时在路上和「他」用语音消息的方式对话,回到家还会用实时通话模式来模拟英语口语对话。 从笔者个人的使用体感来看,字节跳动的豆包与百度的文心一言并没有太大区别,只是目前,豆包的使用还是免费的,这在一定程度上降低用户的尝试和使用成本,而文心一言则已经需要付费才能调用文心大模型 4.0 并解锁高级功能, 文心一言的会员价格|图片来源:极客公园 进一步的体验中,豆包的 TTS 语音技术令笔者眼前一亮。在创建智能体时,只需朗读一小段文字,即可即刻生成与自己声音别无二致的智能体。 在对话中,豆包上的智能体在回复时会在括号里加点语气词来模拟真人的说话语气,互动更自然。 这一点背后是字节跳动很早对很大力度优化语音交互体验的投入,包括基于大模型的 ASR 和超自然的 TTS 音色,这些都是为了尽量做到类似和真人对话的感受。 豆包几乎是国内最早确立语音交互入口作为默认交互界面的大厂,后来其他公司陆续跟进了这一功能。 猫箱 「话炉」是一款以 AI 角色为核心的社交应用,同样由抖音豆包大模型驱动,和豆包数据互通。4 月 11 日,「话炉」改名为「猫箱」。 「猫箱」的特点在于其高自由度的互动内容和由用户决策影响的故事走向,这给了用户一种全新的社交娱乐方式。 在猫箱的体验中,一进入应用,笔者就被推荐了一系列 AI 角色,他们各具特色,让笔者迫不及待想要开始对话。 「猫箱」支持文字和语音两种输入方式,这让交流变得更加自然和便捷。在与 AI 角色的对话中,笔者发现笔者的每一个决策都会影响故事的发展,这种参与感让人仿佛置身于一个真实的故事世界中。每一次选择都可能导致不同的故事走向,这种体验起初让笔者感到乐此不疲。 如果用户对当前的虚拟角色感到乏味,「猫箱」提供了一个简单而直观的解决方案:只需轻轻一划,就能刷新出全新的虚拟伙伴。这种类似抖音上下滑动短视频的设计,「以前刷短视频 现在刷智能体」,让笔者体验到了从言情到玄幻、从猜谜游戏到日常闲聊的多样化聊天乐趣,每一次刷新都是一次全新的探索。 但新鲜感很短暂。初见各具特色的 AI 角色,对话下来发现大同小异,它们的回答和反应模式逐渐显露出一种机械化的重复性,缺乏真实人类交流中的复杂性和不可预测性。尽管语音输入是比打字省事多了,但讲话讲久了,不自觉期待一些其他的玩法。很遗憾,现在还没看到。 尽管「猫箱」的语音输入功能确实为交流带来了便利,让笔者能够更自然地与 AI 角色对话,但长时间的交流后,笔者开始渴望更多的互动方式,期待能够通过更多元化的玩法来丰富这种交流体验,遗憾的是,在目前的版本中,更有新意的功能还未出现,这让笔者对这款 APP 的长期吸引力产生了疑问。 人真的有这么多话可以说吗?在跟一个纯粹虚幻的 AI 产品对话的过程中,得到的快感有多少?这样的产品吸引力能持续多久? 疑问过后笔者强迫自己多刷了好一会儿,可能因为在霸总频道停留的时间略微久了一点,「猫箱」给笔者推荐的霸道总裁越来越多了。 「猫箱」里的霸总|图片来源:极客公园 这一点跟抖音的个性化推荐别无二致,但区别在于,「猫箱」并不能查看各个 AI 角色的互动数据,比如点赞、转发和评论数。而这些互动机制是抖音平台设计的一部分,让用户能够发现和观察内容的热度,也让平台能够了解哪些内容受欢迎,并据此进行内容推荐。 「猫箱」使用页面除了可以查看聊天记录,再有就是点击心形符号对角色进行收藏,分享渠道也相对简单|图片来源:极客公园 虽然也支持对外分享,但目前页面设置来看,一方面,「猫箱」似乎更倾向于私人化体验,用户可能无法看到其他人在玩什么,社交性不足,交流有所受限,但这样的设计也减少了社交影响,让用户的注意力能够更集中在互动本身;另一方面,相比用户之间的社交互动,「猫箱」可能更强调用户与 AI 角色的互动,这种设计看起来是在进行一些 AI 原生的人机交互探索。 在这样的前提下,要让用户爱上使用这个产品,想来就更考验 AI 角色本身的交互性以及内容的创造性了。 即梦 Dreamina 前段时间,字节旗下 AI 创作平台「即梦 Dreamina」的视频生成功能也开放测试。笔者上手体验了一下。 可以看到「即梦 Dreamina」的页面非常简洁,主要有 AI 作图、AI 视频两大功能分区。 不过从侧边栏看,AI 工具有:图片生成、智能画布、视频生成以及尚未开通的故事创作四项。 笔者这次主要体验了视频生成功能,先试文本生视频,输入了一段简短的文字: 可以看到有随即运镜、推进、拉远、顺时针旋转以及逆时针旋转 5 种镜头运动,16:9、4:3、1:1、3:4、9:16 5 种视频比例以及慢速、中速、快速 3 种运动速度。 生成视频需要 12 积分,系统每天会赠送 60 个免费积分。 等待了约两分钟后,「即梦 Dreamina」给笔者生成了一个 3 秒的视频。在这短短的三秒中,画面中的金色短发女生看起来是通过转头、叹气以及眼角似有若无的泪水表达了伤心以及思考。 可以看到在生成视频下方有三个创作选项:再次生成、重新编辑和延长 3 秒。再次生成同样需要花费 12 积分。延长 3 秒要开通 69 元的月度 VIP 才可以。 69 元的会员权益包括单月 505 积分,下载无水印视频以及延长视频生成时长、第多种音色以及视频对口型。 由于笔者先没有开通会员,只是又花了 12 个免费积分重新生成了一个 3 秒的视频: 这一次生成的视频自动从侧面转向正面,但是视频中女主的右眼双眼皮好像有点不利索,眨巴的速度轻微落后于左眼,感觉还不如第一次生成的符合预期? 充个会员看看给出的效果能不能好点? 这是笔者输入的文字提示词:春江花月夜,一个身穿旗袍的盘发女子,正走在苏州河畔,她好像迷路了,正好有人走过,她走上前问路,那人却不耐烦地推开了她。 这是笔者花了 69 元开了会员,使用了延迟 3 秒以及对口型(需要花费 36 积分)等会员功能后生成的视频,总体还是怪怪的不说,后半句的文字内容也没有呈现出来。 从目前生成的效果来看,「即梦 Dreamina」能吸引到的可能也就是那些对视频创作感兴趣但可能缺乏专业技能的用户群体。平台通过积分系统和会员服务,提供了一个激励机制,试图鼓励用户进行创作并为增值服务付费。但从现在生成视频质量的稳定性与精细性来看,「即梦 Dreamina」背后的 AI 算法还需要不少优化。 03 「人盯人防守」下,创新还未出现 从去年 8 月推出豆包大模型(原云雀)以来,不到一年时间,字节跳动已经推出了 11 款 AI 产品,覆盖 Agent 定制、聊天、社交、图像/视频、办公、教育、电商内容创作、音乐、教育以及代码生成等领域,基本覆盖了当前应用层创业的主流方向——可以说,目前所有的产品范式,都有字节参与的身影,几乎是采用了「人盯人防守」的打法。 同时,字节内部很可能也存在一个国内国外双轮驱动的产品发展战略:即通过在海外市场先行测试产品,验证 PMF 和提升产品与技术的匹配度,以利于在国内推出更成熟的 AI 应用,保持市场竞争优势。目前在国内市场上,字节跳动依托自主研发的「云雀」大模型提供技术支撑,而在国际市场上,则至少部分采用了基于 GPT 的技术服务。 比如 AI 对话类产品豆包,海外版为 Cici ;对标 GPTs 的 AI bot 开发平台扣子,海外版为 Coze;AI 角色交流工具「话炉」,海外版为 BagelBell;AI 工具合集「小悟空」,海外版本为「ChitChop」…… 字节跳动的优势在于它在移动互联网时代,积累下的最多的数据,最多的流量,以及较多的算力,但它目前并没有展现出与 OpenAI 所不同的明确看准的下注方向,而在全面的确保不掉队,能跟上。 同时,作为产品大厂,字节在产品上也在探索 AI 原生功能,比如「猫箱」目前似乎更倾向于私人化体验,用户可能无法看到其他人在玩什么,在设计上可能更强调用户与 AI 角色的互动,而不是用户之间的社交互动。 几轮体验下来,可以感觉到现阶段,这些产品整体并不成熟,这点在我们与业内人士的交流中也得到了印证。换句话说,尽管这些产品或服务在概念上具有创新性,但实际的吸引力却并不如预期。一些智能体给出的场景设定或许有趣,但反馈多依托于用户的聊天技巧,如果用户不能很好地设置或者调动智能体,使用体验感多会低于预期。 从用户的角度来看,目前市场上「猫箱」这类的 AI 对话产品在功能上看起来颇为相似,无论是角色扮演还是对话交流,大多数都依赖于文本或多模态交互。 在与这些 AI 产品交流时,感觉似乎是在进行一场单向马拉松,不断地输入内容,却只能得到单维度的回应。这种「高交互、低媒介」的模式,要求用户投入大量的精力,却不一定能得到同样丰富的反馈。 如果产品继续沿着这一路径发展,其潜在的用户规模将受到限制。这是因为大多数用户要么不愿意投入太多努力,要么缺乏通过多轮对话来展开有深度内容的能力。 从对话历史记录中可以看出,如果想要获得更好更有趣的回复,用户需要具备一定的聊天技巧,比如在对话中加入动作表情或描述性词汇。然而,大多数用户并不具备这样的表达或陈述能力。 但目前的这种形态也正是用户最易于接受的,用户不太可能直接与一个复杂的大模型互动,或者仅仅通过一个简单的对话框就能充分体验 AI 的功能。必须得给用户一个有基本设定、有情感代入、有基础形象的一个产品形态,用户才能够上手。 未来,如果 AI 对话产品想要扩大其用户基础和市场影响力,就需要考虑如何降低用户与产品交互的门槛,同时提升媒介的互动性和反馈质量,从而吸引更广泛的用户群体。 而豆包等产品上的智能体,虽然通过强大的语言处理能力和持续学习特性,为用户提供了从知识获取到文本创作的全方位服务,甚至已经后来者居上,月活一度超过文心一言,但该产品同样面临着行业内普遍存在的挑战,即如何在同质化中突围找到核心竞争力,毕竟类似的产品实在太多了。而找到属于自己的核心竞争力,同样是字节跳动在 AI 时代面临的课题。 这对广大的 AI 创业者来说,可能也是一个好的消息:即使是字节这样的大厂,今天在 AI 应用领域也只是摸索阶段,距离做出抖音、头条这种杀手级的应用还需要更长的时间。 但面对大厂在 AI 领域的「盯防」策略,创业者可能也必须在创业第一天就去思考,渡过了产品的 0 到 1,在 1 到 10,10 到 100 的阶段,什么才是自己产品真正的核心竞争力,让有流量、资金的大厂无法轻易模仿和取代。 每个新的技术时代都会有创新者冲破上个时代的天花板,当年的字节跳动冲破了 BAT 的天花板,曾经也被看作是不可能的,但是任何大厂都有自己的「大」带来的绝对优势,也一定有「大」带来的天生弊病,即便是字节跳动也无法避免。 对于 AI 时代的创业来说,正值当打之年的字节跳动毫无疑问是绝对无法忽视的重要变量,唯一的希望在于,AI 的时代刚刚展开,做出的所有努力,也只是在跟随和探索,未来尚未被书写,向前走就对了。
英伟达表示要向苹果看齐,他自己说的
科技圈的泰勒 · 斯威夫特,皮衣老黄又又又来开演唱会搞演讲了。 就在昨天,国际电脑展前夕,英伟达创始人兼 CEO 黄仁勋回到母校中国台湾大学,洋洋洒洒讲了将近两个小时。 从最基础的 AI 技术讲到生成式 AI ,从软件讲到硬件,从 CPU 讲到 GPU 等等等等。。。 乍一看貌似和计算相关的,黄仁勋都讲了个遍。但世超仔细咂摸了一下,倒觉得从头到尾他想讲的,就只有一个:未来是加速计算的世界,而英伟达,正在参与搭建这个世界。 加速计算,其实就是 GPU 计算,它把密集计算的部分都交给比较擅长的 GPU 去处理,剩下的控制部分则交给 CPU ,而在 GPU 没出来之前,这些活都是 CPU 做的。 考虑到整场演讲时间太长,没耐心看完的差友们,可以直接看世超给大伙划的重点。 老样子,一开场老黄就先跟大伙们聊了半个小时计算机和英伟达的发展史,当年把第一台 DGX-1 超级计算机送给 OpenAI 的事情也算是老演员了。 总之这半个小时,老黄就是为了给咱们前情提要一下,在之前通用计算已经通货膨胀得不行了,现在最需要的,是让加速计算给它疏通疏通。 而英伟达手里,就握着疏通的两个利器,一个是GPU ,一个是CUDA 。 GPU 大伙们都很熟了,和 CPU 配合下,最快能让计算速率提升 100 倍,但成本只是原来的 1.5 倍。老黄那句 “ 买越多,省越多 ” 的至理名言就是从这来的。 CUDA 可能好多人还整不明白,这么说吧,它就相当于是英伟达造出来的一个环境生态,在这个环境下造出来的软件,能让GPU 的算力被最大限度开发出来。 这些年来,围绕 CUDA 建起来的软件生态,少说也有好几箩筐了。像是物理领域的 Modulus 、通信领域的 Aerial RAN 、基因序列的 Parabricks 等等,都有专门的 CUDA 软件。 在CUDA 生态下运行的数据科学库 Pandas ( 右 ) 如果说之前,GPU 和 CUDA 还只是让计算速度快点的工具,归根结底,各个领域还是各玩各的。 而 ChatGPT 这类生成式 AI 的出现,算是把算力变成了一种通用的货币。 用老黄的比喻来说, GPU 和 CUDA 直接变成了 “ AI 工厂 ” 的砖和瓦,在这个新的 AI 工厂,生成的tokens 数摇身一变成了新的商品。 咱也都知道,光看 AI 现在的发展速度,算力肯定是不够用。 但先别急,老黄直接甩出了这些年来他们硬件提升的数据,还拉来了摩尔定律做对比。看这陡峭的折线图,是把摩尔定律按在地上摩擦。 而吊打摩尔定律的,是英伟达刚投产的 Blackwell 芯片,这是专门给 AI 生成 tokens 设计的。 演讲的过程中,老黄还拿 Blackwell 芯片和八年前的 Pascal 做了个直观的对比,同样是生成一个 token , Pascal 消耗的能量,相当于两个 200 瓦灯泡亮两天,而现在一个 token 只要 0.4 焦耳。。。 也就是说,新的 Blackwell 芯片把生成 token 的能量降低了 45000 倍,世超可没多打一个 0 。 不仅如此,老黄的新芯片在 “ 盖房子 ” 这块儿,也得心应手了很多,两块 Blackwell 芯片能像搭积木一样拼成超级芯片。 紧接着,把 36 个这样的超级芯片组合在一起,就能变成一个服务器。 最后把这些服务器串在一块儿,这就是妥妥的一座超级 “ AI 工厂 ” 。 这还没完,老黄还没想停手,在这次演讲中,他直接把英伟达后面的计划给说出来了,打算做 “ AI 界的苹果 ” ,把原来两年更新一次芯片的频率提升到一年更新一次,每年都要给自己的 “ AI 工厂 ” 装潢加固下。 就比如, 2025 年会推出 Blackwell Ultra 。而且他们现在就已经在为 Blackwell 芯片开发的下一代平台 Rubin ,准备 2026 年发布,而且新平台还会用全新的 GPU 。 另外,在老黄构想中的 AI 工厂里,可不只有这些硬件,各种软件和服务他也不想落下,这咱在英伟达搞 CUDA 的时候就能窥见一二。 而在 AI 时代,除了造芯片,老黄还给开发者们提供了一些服务,整出了个NIMs ( 英伟达推理微服务 )。 它就相当于一个 AI 盒子,里面集成了两百多家企业的技术,供全世界的 2800 万个开发者们使用,包括预训练好的 AI ,用于推理服务的 Trition 服务器等等。 NIM 也会在开发者们用这些技术的时候,给他们加速,就比如,在相同的计算资源下,在 NIM 里面运行 Meta 的 Llama 3-8B 的时候,生成的 tokens 数量比平时多了三倍。 总的来说,在老黄这里,你不仅能买到算力,还能直接在他那儿开发 AI ,是一点不让钱流到别人口袋。。。 也许是看时机成熟了,在演讲过程中,老黄还提到了一个之前从来没说过的计划:数字孪生地球( Earth-2 )。 这个项目在英伟达内部已经搞了好几年了,为的就是能预测整个地球的未来,好让我们能更好地应对还没到来的灾害。 反正世超在看完老黄的整场演讲,觉得他就是想把英伟达搓成一根绳,串起整个 AI 时代。 能不能做到,咱现在也不好下结论。至少从现在来看,在AI 芯片领域,英伟达的地位是焊的死死的。 上周,英伟达刚发的第一季度财报就是很直观的证据,当季业绩全面超预期,而里面增长最高的就是和 AI 相关的数据中心,同比增长了427% 。 当时不少媒体都拉来苹果和英伟达对比,说它离苹果只差一步之遥。 但同样作为 “ 卖铲人 ” ,网上还有不少论调称,英伟达会是 AI 时代的思科,等泡沫破裂之后,自然会现出原形。 其实说实话,在世超来看,他们俩之间还不能完全划等号。 最起码英伟达不仅仅是一个卖铲人,它在卖铲的同时,还附加了不少服务,之前有 CUDA ,现在又有了个 NIMs ,而这些服务,才是它真正的护城河所在。 最后,世超想用老黄说过一句话做结尾, “ 当你无法辨别自己是猎人还是猎物时,奔跑就好了。 ” 而如今的英伟达,依旧在狂奔。。。 撰文:松鼠 编辑:江江、面线 美编:阳光
2024 华为平板怎么选?一次看懂这 8 款的区别
华为,是目前市场上平板电脑种类最多的品牌:5 大系列,11 款产品,覆盖了从百元到万元的价位段。 这么多产品,很容易让人在选购时,眼花缭乱、无从下手。 今天我们就用一条视频,让你彻底看懂,华为平板该怎么选。 MatePad Air,像一条分界线,把华为平板分成两大块。 往上走,是主打高端的 Pro 系列;向下看,是追求性价比的 MatePad 系列。 如果你的预算弹性高,追求 OLED 的显示效果,对影音体验有要求,还对「纯血版」鸿蒙有执念,那 Pro 就是你的不二之选。 MatePad Pro 13.2”,是整个系列中最顶的产品。 拥有最大的屏幕,最高的屏占比和最高的刷新率。 柔性 OLED 也让它成为了最薄的华为平板,只有 5.5mm。 同时,它还搭载了全系最大容量的 10100mAh 电池,支持手势操作的 dToF 深感镜头,也是 Pro 13.2” 的专属 4999 的起售价,可以让你买到,华为最前沿的平板技术。 MatePad Pro 12.6”,是全系唯一一款支持无线充电的型号。 虽然麒麟 9000E 芯片稍逊一筹,但有全系最多、体验也最好的 8 扬声器。 另外,Pro 12.6” 也是唯一一款,拥有完整 OLED 屏幕的华为平板 可以说 Pro 12.6” 就是专门为爱看电影、追求音效,又接受不了挖孔和刘海屏的朋友而准备的 如果你既想要性能,又不喜欢大屏,MatePad Pro 11” 2024 会更适合你。 Pro 11” 的辨识度很高,只有它的前置镜头还保留了左上角挖孔的传统。 搭载了麒麟 9000S 的 Pro 11”,不仅做到了 Pro 中的最小,也做到了全系中的最轻,仅有 449g。 更重要的是,Pro 11” 2024,还是唯一支持双向北斗卫星消息的华为平板。 如果你对性能有要求、又喜欢去户外写生露营,那便携的 Pro 11” 应该会更适合你。 从 Air 系列开始,就可以选择柔光版了(除了 SE),也就是原生「类纸屏」。 不过屏幕却从这里变成了液晶屏,音响也没有用上 HUAWEI SOUND,而是采用了自研的 Histen 音效。 虽然「性价比之王」的称号现在已经被取代,但 MatePad Air 却很争气。 搭载高通骁龙 888,不仅能玩王者和吃鸡,依靠平板的大体型,散热速度也比同为 888 的手机更快,不宜发烫。 30-144Hz 刷新率自适应调节,减少了刷微博、抖音时的卡顿掉帧,还一定程度上减缓了 LCD 耗电高的弊端,延长你的设备续航。 前置 800 万像素的广角镜头有 105° 的视场角,平板可实现画面的智能追踪 在视频通话时,不仅能识别人脸,还能保持发言人处于画面中心。 另外, Air 也搭载了全系第一块 3:2 的 LCD 屏,这种更接近方形的屏幕形状,垂直方向更长,在阅读文档、浏览网页和多任务操作时,能显示更多的内容,所以非常适合阅读、书写和平行视界的显示。 对星闪、麒麟不感冒 担心 OLED 烧屏的朋友,可以了解下这台唯一的 Air。 如果说 Pro 是炫技的成品,那起售价均低于 2000 元的 MatePad,就是务实的表现。 根据 IDC 公布的,2024 年大陆平板电脑第 1 季度报告,华为季度出货量高达 259 万台,市占率为 36.1% 位居第一。 性价比 MatePad 在当中,功不可没。 MatePad 11” 2023 1999 元的起售价,虽为该系列中的最高价,但它的电池却是全系最小,只有 7250mAh。 相比于其他型号功耗更低、稳定性更强的蓝牙 5.2(除了 SE),它也只用上了 5.1。 为数不多能撑撑场子的配置:一是可选柔光版;二是 480g 便于携带的重量优势。 对比之下,最新发布的 MatePad 11.5”S,无疑成了当前关注度最大的华为平板。 11.5”S 有着 Air 的「面子」、Pro 的「里子」、和 11” 2023 的价格。 首先 11.5”S 支持 P3 广色域、144Hz 高刷新率,3:2 的屏幕比例和 Air 持平,后盖材质和设计也与 2023 大体一致。 其次它的有线快充功率最高可达 66W,超过了 Pro 12.6”;8800mAh 的电池也超过了 Pro 11” 2024。 它也是非 Pro 系列中,唯一搭载了麒麟芯片的平板。虽然性能稍弱,但这刚好满足了,既想要纯血鸿蒙,又想拥有性价比的朋友。 不过作为走量的产品,11.5”S 的刀法非常奇特且精准。 比如灵动版搭载的芯片是麒麟 9000WM,而柔光版的则是性能更强、核心更多的麒麟 9000WL,P70 用的就是这颗芯片。 两者都能应对写字、画画、视频和浏览等大部分使用场景,但在此基础上,你还想打打游戏,我建议你选性能更好的柔光版。 更有意思的是,灵动版除了降级芯片,还去掉了闪光灯。 拥有一体化金属外壳的 MatePad 2023,是全系唯二拥有 105° 前置广角镜头的产品。 虽然它是支持手写笔价格最低的产品,但却不能给 M-Pencil 无线充电,需要购买充电坞套装。 最后 MatePad SE,是华为平板中售价最低的产品,官网起售价只要 899 元,最高配也仅需 1199 元。 这就决定了 SE 的配置上限:高通骁龙 680 的芯片、10W 有线充电、单麦克风、全系最大的屏幕黑边,还不支持手写笔。 所以,这是一款便宜,也仅仅只是便宜的平板。 总体来说,华为平板大体遵循着:价格越高、屏幕越大、黑边越窄的原则。 但是这八款产品在许多小配置上的重叠,甚至便宜的比贵的配置还高,导致很多朋友既怕买亏了 又怕买贵了。 结合上面的全系对比,我来说说购买建议。 先看屏幕。对显示和办公有要求的朋友,建议直接上 Pro,OLED 屏和 HUAWEI SOUND 影音,一定不会让你失望。 如果你的平板经常用来看文献、记笔记或是画画,建议选择: MatePad 2023 MatePad 11.5”S MatePad Air MatePad Pro 13.2” 这些屏幕为 3:2 的机型,能让你浏览行数更多,阅读文献更高效。 如果你大部分时间都在拿平板刷剧,那 16:9 的宽屏机型,会更合适: MatePad 11” 2023 MatePad Pro 12.6” MatePadPro 11” 2024 这个比例的设备,水平方向更宽,更接近电影电视剧的格式,上下的黑边窄了,视野也宽了。 再到存储版本。根据我的实际体验 12GB+256GB,应该是目前最适合平板的配置,不用老是惦记缓存,也不怕系统总杀后台。 最后,如果你不想让平板只成为「腾讯爱奇艺」和「豪华泡面盖」,我建议可以给 M-Pencil 留出预算空间。 因为所有支持手写笔的在售华为平板,都支持 M-Pencil 二三代功能的向上兼容,比如侧锋书写、双击切换等。 当然如果你想在此基础上,体验最新的连接技术那可以看看支持星闪的三款机型: MatePad 11.5” S MatePad Pro 13.2” MatePad Pro 11” 2024 结合上面的对比和建议,希望大家都能找到一台最合适你的华为平板。
新款iPad Air性能缩水,10核GPU降至9核
在上个月的「放飞吧」发布会上,苹果正式推出了新款 iPad Air。 新款 iPad Air 正式发布之后,苹果官网在其所有参数页面里,写的都是「搭载 Apple M2 芯片,拥有 10 核心图形处理器」。 ▲ 5 月 15 日 iPad Air 参数页面截图。图片来源:苹果官网 然而,近期苹果官网却进行了一波悄然更新。 在更新后的介绍页面中,iPad Air 所搭载 M2 芯片的图形处理器(GPU)核心数量发生了变化,从最初宣传的 10 核心,减少为 9 核心。 ▲ 左图为 5 月 15 日截图,右图为今日截图。图片来源:苹果官网 iPad Air 宣传页面 而且在技术规格和机型对比等页面中,关于 M2 芯片中 GPU 核心数量的描述,也都从 10 核心改为了 9 核心。 对于这一数据的变动,苹果还没有给出具体原因,而且其内部对此可能也十分混乱。 直至现在,在苹果 Newroom 发布的 M2 iPad Air 新闻稿中,仍显示「M2 芯片为 iPad Air 的性能再次带来重大飞跃,8 核中央处理器和 10 核图形处理器带来更强劲性能」。 事实上,苹果此前并未推出过搭载 9 核图形处理器的 M2 芯片。 无论是在 Mac 还是 iPad Pro 上,此前推出的 M2 产品都是 8 核或 10 核图形处理器。 不过,苹果也可能一开始就没有给新款 iPad Air 搭载「满血版」M2。 在「放飞吧」发布会上,苹果的 Keynote 显示 iPad Air 搭载的 M2 芯片在图形性能,较上一代提高了 25%。 作为对比,在上一代 iPad Pro 的发布会上,其 Keynote 显示搭载 M2 的 iPad Pro 的图形性能较上一代提高了 35%。 这一数值的变化,表明苹果内部应该是清楚新款 iPad Air 性能是有所缩减的,且与 iPad Pro 所搭载的 M2 芯片是不同的。 GeekBench 跑分数据同样显示了这一点。与上一代 iPad Pro 相比,同样搭载 M2 芯片的新款 iPad Air 在 GPU 性能上的跑分低了约 10%。 这部分的性能差距,很可能与缺少的一颗 GPU 核心有关,所以新款 iPad Air 的图形性能将会打一定折扣。 尽管如此,苹果也并没有对此进行任何解释,苹果官网上 iPad Air 参数的修改是悄悄进行的。 Apple Insider 猜测,iPad Air 型号中的 M2 芯片,很可能和 10 核 GPU 版本 M2 是在同一产线上生产的。对于正常的芯片,苹果可以通过软件的方式将其中一个 GPU 核心禁用。 这样做可以提高处理器产量,因为苹果无需废弃那些只有一个 GPU 核心损坏的芯片。 在新款 iPad Air 的研发阶段,苹果可能使用了 10 核 GPU 的 M2 芯片。直到最后正式量产时,才最终更换为 9 核 GPU 版本。 这期间或许是由于苹果内部的沟通问题,导致 iPad Air 的宣传出现了错误,直到现在才进行了修改。 从整体性能来看,M2 芯片仍然是一个强大的升级。对于普通用户来说,10 核和 9 核 GPU 在日常使用中的性能差距可能并不明显。 但对于游戏玩家和专业用户而言,这部分性能差距还是存有遗憾。 尽管一个核心的缺失,看起来只是一个微小的细节。但这次宣传失误不应该一改了之,苹果有义务通过合适的方式,及时通知消费者这一变化。
高通CEO安蒙:重构Windows PC生态性能领导力
凤凰网科技讯(作者/刘毓坤、杨睿琪)6月3日,在COMPUTEX 2024上,高通公司总裁兼CEO安蒙携手来自宏碁、华硕、戴尔、惠普、联想、微软和三星的行业领袖,重点阐述了搭载骁龙X系列的Copilot+ PC正如何赋能PC行业变革。安蒙表示,高通技术公司正在重构Windows PC生态系统的性能领导力。 安蒙表示,PC正在迎来重塑。搭载骁龙X Elite的Copilot+ PC是有史以来最快、最智能的Windows PC,整个系统都集成了AI,并且可以带来长达多天电池续航。 安蒙认为合作伙伴的加入使得骁龙赋能的Windows Copilot+ PC站在技术创新最前沿。“我们正在共同定义个人计算体验,并赋能开发者高效地打造面向新一代PC产品的应用。” 安蒙还强调,NPU作为关键的差异化因素,使搭载骁龙X系列的PC具有卓越性能,并让Copilot+体验成为可能。将AI工作负载从CPU和GPU转移到NPU,可在显著提升性能的同时降低功耗。 基于此,安蒙表示,高通技术公司正在重构Windows PC生态系统的性能领导力。骁龙X Elite采用的领先NPU能够为笔记本电脑提供出色的NPU每瓦特性能,与M3相比高达其2.6倍,与酷睿Ultra 7相比高达其5.4倍。 凭借领先的高通Oryon™ CPU,骁龙X Elite成为性能领先的Windows平台,在ISO供电情况下,骁龙X Elite的CPU性能比竞品领先高达51%,在PC达到相同CPU峰值性能时,功耗相比竞品低65%。 除硬件之外,安蒙还介绍了高通技术公司用于创建下一代AI应用的行业领先的开发工具。高通AI Hub让开发者能够在五分钟内在搭载骁龙平台的设备上部署模型,无论是自有模型,还是来自高通技术公司持续增长的模型库中的预优化即用型AI模型。全新面向Windows的骁龙®开发套件为开发者提供了理想的硬件平台,配备特别加速开发者版骁龙X Elite芯片组和广受欢迎的可堆叠外观设计。 此外,首批超过20款搭载骁龙X Elite和骁龙X Plus的Copilot+ PC现已开启预售,6月18日起可通过主要零售渠道购买。
SpaceX 与日本亿万富豪分手,dearMoon 环月之旅宣布暂停
日本亿万富豪前泽友作曾高调宣布自己将乘坐 SpaceX 的星舰,进行一场「环月之旅」。如果顺利飞行,这将是 1972 年美国阿波罗登月计划结束后,人类首次重回环月轨道。 不过,现在这一计划似乎「泡汤」了。 前泽友作最近公布,他将取消原定的 SpaceX 月球旅行,原因是 SpaceX 推迟了发射计划。 他表示,由于不确定星际飞船何时能准备好执行他的 dearMoon 环月飞行任务,他取消了这次飞行。 dearMoon 环月飞行任务原计划在 2023 年底发射。但有消息称,由于优先度大幅下降,dearMoon 的发射日期可能要推迟到到 2030 年之后。前泽友作因此决定直接取消,而不是继续等下去。 前泽友作在 X 上写道:「在这种情况下我无法计划自己的未来,而且让机组人员等待更长时间让我感觉很糟糕,因此在这个时候做出取消的艰难决定。我向那些对这个项目的发生感到兴奋的人表示歉意。」 2018 年 9 月,SpaceX 宣布已经签下首个太空旅客订单,这位旅客将成为史上首位进行绕月飞行的私人旅客。 随后, SpaceX 正式公布了这位神秘旅客的身份,他就是前泽友作。 前泽友作生于 1975 年,1998 年创立 Start Today,旗下的 ZOZOTOWN 目前是日本最大的时尚电商。 福布斯估计前泽友作个人资产达 36 亿美元,他是日本排名 14 的富豪,也是日本第三年轻的亿万富豪。 对于前泽友作来说,这次飞行不只是一次太空旅行,还是一个革命性的艺术项目。 前泽友作表示,能成为世界首位进行绕月的私人乘客,对他来说意义十分重大。他可能会携带他此前收藏的画作一同进行绕月飞行,其中就包括毕加索等名人的画作。 前泽友作并不打算只身一人出发,他还希望与艺术家一同登上月球。 2022 年 12 月,前泽友作陆续邀请了 8 名艺术家和创作者,与他们组成团队,一起踏上 dearMoon 探月之旅。 这个八人团队包括: YouTube 频道 Everyday Astronaut 的创建者 Tim Dodd、DJ 和电子音乐制作人 Steve Aoki、艺术家和编舞 Yemi AD、摄影师 Karim Iliya、电影制作人 Brendan Hall、印度电视演员 Dev Joshi,以及韩国说唱歌手 TOP。 另外,考虑到同行者可能因病等特殊情况无法成行,前泽友作又选择了两位候补成员,分别是舞蹈演员 Miyu 和滑雪板运动员 Kaitlyn Farrington。 前泽友作对这次飞行计划感到十分兴奋,也在各种场合大力宣传了这次活动。 SpaceX 的发布上,他曾骑在马斯克的脖子上,大张双臂。 在与明星刚力彩芽分手后,前泽友作又在 2020 年宣布征求一位女性「人生伴侣」陪伴他参加绕月旅行。 他当时还表示将参加电视节目相亲企划公开招亲,但之后又以未做好心理准备为由取消。 星舰(Starship)是由 SpaceX 开发的重型运载火箭,它的终极目标是打造一个完全可重复使用的运输系统,能够将乘员和货物送入地球轨道,帮助人类重返月球,并最终前往火星及更远的地方。 过去几年间,我们见证了许多次 SpaceX 星舰的发射任务。2023 年 4 月,SpaceX 首次进行无人驾驶星舰试飞,但最终未能进入太空。 紧接着在 11 月,SpaceX 又进行了第二次飞行测试,这次飞得更高,不过还是失败了。 今年 3 月 14 日,33 台猛禽发动机均成功点火并顺利升空,星舰首次进入太空轨道。遗憾的是,最终其依旧没能按照预定计划坠落。 人们见证了星舰的成长和进步,但目前还没能成功的事实,就摆在眼前。 这些失败导致 dearMoon 环月飞行任务一次次推迟,前泽友作对此也感到一丝倦怠,最终决定取消这次计划。 前泽友作宣布取消 dearMoon 计划后,Dodd 感到非常失望。作为狂热的航天爱好者,这是他距离接触太空最近的一次。多德说:「就这样,我们团队的梦想破灭了。」 他在 X 上写道: 我非常失望,自从 2018 年第一次听说这个任务以来,我就一直梦想着它。自从选拔过程开始以来,在过去的 3 年里,我梦想得更多了。我慢慢地允许自己一点一点地想象一次登月之旅。 虽然这次计划短期可能无法重启,但这并不意味着前泽友作无法进入太空。 早在 2021 年 12 月,他就已经乘坐着俄罗斯「联盟 MS-20」号飞船,与助手平野阳三作和俄罗斯宇航员米苏尔金一起,共同飞往国际空间站,进行了为期 12 天的太空旅行。 前泽友作也因此成为了第一个自费登上空间站的日本人。 前不久,SpaceX 的创始人埃隆·马斯克,在 X 上取消了对前泽友作的关注,当时引起了不少人的猜测。直到现在,这件事才最终尘埃落定。 dearMoon 团队在官网的声明中表示:「我们将对 SpaceX 深表敬意,因为他们将继续探索未知领域,而我们自己也将迎接下一个挑战。」
MG Cyberster 全网首次车展现场拆车,中国跑车开始走量了
6 月 1 号开幕的粤港澳大湾区车展因为紧接着北京车展的缘故,并非车厂首发新车的主阵地,但因为场馆面积更富裕,加上不分媒体日和观众日,所以这个车展更适合进行面向普通消费者的宣传和科普,比如蔚来展台就搬去了一座换电站,现场演示如何给电动车换电,吸引了不少好奇的小朋友和家长。 MG 这边则是现场拆车,给现场观众和直播一场「MG Cyberster 零距离现场拆解」。 在 2024 粤港澳大湾区车展上,MG 带来了旗下的敞篷电跑 Cyberster Trophy 版、B 级轿跑 MG7、电动钢炮 MG4 等车型,同时,借着 MG Cyberster 上市半年累计销量突破 1000 台之际,MG 也汇集了 10 位深圳地区的准车主,进行了集体交车仪式。 在手机或者消费电子行业,因为拆解成本比较低,拆解直播比较常见,不过车展现场直播拆车确实不常见,MG 通过直播形式对 Cyberster 零距离现场拆解,并邀请工程师及车评人,在专业的视角下,从整车设计到零部件构造,围绕 Cyberster 的车身姿态、敞篷剪刀门、车身结构、悬架结构及调校等产品细节及工艺,向广大观众及网友解读这辆敞篷电跑的设计、性能和品质做工。 紧接着,MG Cyberster 就将要出口到欧洲,前不久 153 台 MG Cyberster 在福州港登船出口,驶向欧洲,成为首批大规模出口海外的中国跑车,紧接着 MG Cyberster 将登陆 7 月开幕的古德伍德速度节,在这个品牌百年诞辰的历史性时刻,重返赛车圣地。之所以说是重返,是因为去年 MG Cyberster 就在此亮相,而今年它成为了速度节的主赞助商。去年 7 月的古德伍德速度节后,英国双胞胎兄弟 ROSS 与 HUGO 驾驶 MG Cyberster 横跨欧亚大陆两端,从英国开到中国,总共历时 233 天,这也是中国跑车的一个高光时刻。 因为定位是敞篷跑车,所以 MG Cyberster 注定不是走量的适合大众消费者的产品,但它目前的用户数据也挺有意思:MG Cyberster 中高配车型的销量占比高达 75.3%,平均单车价格超过 35 万元,广东地区 Cyberster 的销量位列全国第一。超 70% 的增购来自豪华品牌,并且宝马与奔驰品牌增购位列前两名、合计比例超过半数;9% 的用户为保时捷等超豪华品牌增购而来。 车主中,男性、女性比例为 6:4,80 后奶爸是男性用户的代表群体,女性用户中超半数为 85 后职场独立女性,说明大家在家庭和职场之外,也需要一些速度和激情来调剂。 还有一组数据是,上市半年来,MG Cyberster 累计销量超千台,按照 MG 的说法,这实现中国跑车市占率从 0 到 15% 的突破,居于同期国内跑车市场 TOP3,与保时捷 911、718 并肩。当然 MG Cyberster 的售价和传统燃油豪华跑车还是有一些距离,不过它作为小众品类能够卖动,还可以行销全球,其实也说明了两个问题,一是电动车的形态可以多种多样,不一定是大空间或者纯省钱的工具,二是中国汽车品牌(虽然 MG 源自海外,还目前应该算中国汽车品牌)可以走出去并且卖得好,MG 连续第五年成为中国汽车单一品牌出口冠军,去年 MG 全球销量 84 万辆,占据了上汽集团总出口量的大部分,并且 MG 在乘用车出口排名前十的车型中占据了三席:以驾控乐趣为主打的小钢炮纯电动轿车 MG4 EV 以 13.87 万辆的成绩成为中国电车出海的主力车型,在多个国家成为纯电紧凑型市场冠军。
对话戴森首席技术官 John Churchill:未来的家务,少动手,最好不动手
时至 2024 年,我们在智能手机市场已经几乎看不到有什么手机模仿 iPhone 了,但在无绳吸尘器、吹风机和无叶风扇等电器领域,我们依旧能看到大量产品都在模仿一个品牌:戴森。 虽说「好的设计总是心有灵犀」,在外观上的模仿或许也不算难,但想在工程层面进行模仿却并不容易,尤其是面对像戴森这样掌握了包括马达、空气动力学、气旋等多项核心科技的企业来说。 总有一些地方,是别人模仿不了戴森的。 近日,我们在上海采访了戴森首席技术官 John Churchill,不仅探索了戴森难以被模仿的核心所在,更了解到了未来的家务该怎么做。 新产品和新技术始终是戴森的增长点 打开戴森的官网,你会发现产品种类非常丰富,从清洁除尘、个人护理到环境电器,各个分类下都有十多个具体的产品供选择。 熟悉戴森产品的消费者能够很容易地从戴森的产品名中知晓其具体特点,比如 Dyson V12 Detect Slim 无绳吸尘器,定位是次旗舰,拥有光学探测技术,并且具备轻量化机身;Dyson purifier humidify+cool formaldehyde 则是能够去除甲醛且具有加湿功能的空气净化无叶风扇。可以说,戴森的产品,突出一个「硬」字,能做什么都写在产品名里。 对于产品的硬核命名也侧面反映出戴森的长处在于不断精深的核心技术。诚如首席技术官 John Churchill 说: 戴森引领创新的关键是气流和吸力性能。 要知道,马达转速和空气动力学设计不是能用互联网思维或者写代码来增强的,它需要一遍又一遍地在实验室里进行研发改进,最终应用到具体产品上。 对于技术的执着还反映在科研投入上。刚刚过去的 2023 年是不少企业降本增效的重头年份,原因自然是对于未来预期的不乐观,但戴森却反其道行之,反而在研发端增长了 40% 的投入。 John Churchill 表示: 尽管大环境有一定挑战,但新产品和新技术始终是戴森的增长点。 为了更好地通过研发新品实现增长,我们的工程师们会更加聚焦特定领域(的研发)。 回顾过去,戴森从一家专注地面清洁的公司,逐渐发展成为囊括环境护理、机器人、照明、头发护理、可穿戴设备等产品和品类的企业,我们的经验就是(通过聚焦优势技术研发)找寻并投资新的品类机会,同时也在我们已经深耕的品类条线中继续创新。 所以,戴森的理念就是投资工程师、投资技术,从而设计出真正独特的产品。这是我们的重点,也是一个很大的赌注。 面对不确定性,你可以选择缩减规模,也可以选择大胆投资技术研发——我们在多个核心技术上进行了投资,比如在新加坡的电池生产基地,比如马达,我们相信这些技术投资可以驱动新的创新。 John Churchill 以戴森最强的空气净化器 BP04 举例:BP04 采用了「锥形气流聚合技术」将两股气流合二为一,从而能够喷射出长达 10 米的洁净气流,均匀净化 100 平方米的空间,并且全功率运行时噪声水平也只有 56 分贝,无论是别墅还是大平层都能适用。 「它能在拥有较高的 CADR(清洁空气输送率)的同时,实现非常安静的运转,这得益于我们在空气动力技术方面的大量研发投入。」John Churchill 如此总结道。 如果说戴森 BP04 空气净化器是「大,且强」的话,在一些家居清洁设备上,戴森则做到了「小、轻、且强」。也正是因为戴森品类多且功能分类细,John Churchill 提起相应的例子也是信手拈来。 比如戴森 V12 Detect Slim Nautik 洗地吸尘器,在主机仅重 1.5 公斤的情况下实现了「吸尘+洗地」的干湿全能清洁:先用光学探测技术和防缠绕技术来应对看不见的微尘和难以清理的毛发,再用湿式清洁收尾,实现三步一体。 John Churchill 提到的另外一款产品虽然更小众,但也更契合「小、轻、且强」的逻辑: 我们还推出了 Supersonic r,这是我们吹风机系列的全新型号,风筒直径只有 38 毫米。内置其中的马达是这款产品能够做到小巧轻便的关键所在,目前这款产品仅面向专业人士(拥有美容执照的发型师)发售。 专业发型师需要整天拿着吹风机,所以他们非常看重产品小而轻的特性。我认为这款产品的显著革新就在于「小型化(miniaturization)」的设计理念,想要像发型师一样灵活操纵吹风机,产品本身就需要做得轻巧和易操控。这也是这款产品的外形和尺寸和其他 Supersonic 吹风机与众不同的原因所在。 对于刚刚在中国上市的戴森吸尘机器人 360 Vis Nav,John Churchill 强调: 在机器人方面,我们最看重的是清洁的覆盖范围。你为什么会想要一个吸尘不彻底、打扫范围无法完全覆盖你家的机器人呢?你又有什么理由拒绝一个能够实现贴边清洁,又能深入死角缝隙深处的机器人呢? 作为工程师,我们试图解决的是真正存在于家中的问题。另一方面,由于不同国家和地区的家庭会使用的地板类型也是不同的,所以我们花了很多时间研究中国家庭常用的地板,我们了解到中国家庭使用很多的复合地板、抛光地板、还有木地板,也有很多黑色大理石。我们希望(戴森的机器人产品)能够满足中国消费者对高效地板清洁的期望,能够真正地解决问题。 这也是为什么戴森推出的是「吸尘」机器人而非「扫地」机器人。它延续了戴森在马达方面的强大实力,其意义便在于提供强劲吸力,化「扫地」为真正的「吸尘」,从而实现高效清洁。不仅如此,John Churchill 还认为它的另一个核心竞争力是「空气动力学」: 对我们来说,关键在于利用空气动力学和整机 HEPA 过滤,把这些灰尘捕获并牢牢锁在机器内部,确保释出的空气是洁净的,这也是我们气流技术的基本原理。 戴森加速靠近人工智能 在大众以往的认知中,戴森的产品往往长于「硬」,一招一式都是硬桥硬马,全靠彪悍的马达性能和精密的空气动力技术,这也是它为什么能在手持无绳吸尘器领域做成标杆,因为大部分的「软」都交给了人。 这也是戴森此次发布的吸尘机器人在戴森体系内看起来非常不同的原因:它不仅集结了戴森吸尘器的核心科技,而且也有戴森的智能思考。 尽管这款吸尘机器人十分紧凑,John Churchill 强调,它依旧有大吸力,以及优秀的空气动力技术,牢牢锁住灰尘,不会产生扬尘。 但在智能层面,戴森的思考和实践则另有一条路径。 比如戴森新的 Supersonic Nural 吹风机就和扫地机器人用到了同一个传感技术,John Churchill 介绍说: 在戴森,我们自己开发了一个机器人平台,包括硬件和软件。 这给我们提供了大量的工程设计能力,让我们能够着眼于不同的垂直领域中。一个很好的例子就是我们在机器人上使用的一些传感器,已经开始应用于在美发产品中,例如我们使用智能距离传感器帮助实现头皮健康。这证明了工程团队如何通力合作,开发出不同功能并应用在不同产品之上。 此外,我们还有很多云端数据。戴森的互联产品可以加深对家庭环境的了解,家里到底有多脏,我们如何清洁它,以及空气中有什么,这些洞察将推动未来的产品和技术。 戴森 Supersonic Nural 吹风机搭载了距离传感器实时检测干发距离,反馈数据用于自动调控风温,在近距离快速吹发时自动降低加热功率,来维持头皮接触的风温稳定。 在戴森体系内,这样的人工智能技术像是一盘棋,也像乐高积木,可零可整。吹风机只需要其中的某一个功能,而机器人对人工智能技术的需求很高,用得就多一些。 John Churchill 说: 从机器人技术的角度来看,我们开发了戴森机器人操作系统(Dyson robotics operating system),让我们能够实现不同的功能。与此同时,传感器和视觉系统的开发,让我们可以将其应用于不同的产品。我们非常重视视觉系统,希望利用视觉系统来推动产品的智能化。包括硬件、软件、云端技术、应用程序在内的整个生态系统有序运作是我们能实现智能的关键,这里的智能是指我们让以往机械运作的设备变得更具有适应性,能够适应各种复杂的家居环境。 在这个操作系统中,所有设备都是自动化的、有序的,你可以为它们安排任务,可以通过智能扬声器与它们对话,也可以通过这个生态系统构思新产品和新创意。对我们来说,这不是噱头,而是真正能改变人们生活的想法,比如根据灰尘浓度调节吸尘性能,或是根据产品与人头部的距离来调节温度。 所有这些都预示着新的产品潜力,我们已经有了一些新的品类,并且正在这些新品类新产品上应用这些技术,这非常令人兴奋。尽管我不能分享它们是什么,但你可以想象一下,我们很了解产品的使用场景和情况、懂得怎样的产品才是真正的智能,我们的传感器能够将产品的使用洞察反馈给工程师,我们的工程师能设计出更加自主、功能更加灵活多元的产品…… 戴森不光是在终端产品上开始加速靠近人工智能,实际上,在更前端的生产研发当中,人工智能技术已经融入到戴森整个流程的肌理之中。 采访中,John Churchill 特别提到了数字孪生技术。 他介绍说,在现实世界里,工程师只能创造出少量的测试环境,但是虚拟世界里,工程师可以创建千上万个测试环境。比如在虚拟世界中开发机器人导航技术,加入的物理元素越多,机器人传感器就越能适应环境。这也只是数字孪生技术的冰山一角。「现在我们在产品中使用数字孪生技术来模拟产品的全部性能,包括机械性能、热性能、在环境中的性能表现以及产品的交互方式。」 早在 2022 年,戴森就推出了 VR 体验店,在这里我们可以一窥数字孪生的魅力。 在虚拟的世界里,我们可以看到不同的风嘴如何改变吹风机气流,看到头发如何在美发造型器里由直变曲…… 当然,不是所有的测试都是在虚拟环境里进行的,现实世界的测试与数据才是虚拟测试的根基,虚拟测试与现实测试的对比改变了戴森的研发流程: 这就是在开发过程中我们运用人工智能的目的,我认为戴森将改变开发产品的方式,从以前的设计、制造、测试转变为设计、模拟、优化、虚拟世界与现实世界的对比测试。这彻底改变了迭代式的开发方式,从逐步推进变为并行处理多个不同的元素,从而加快创新步伐,也为全世界的用户提供更加个性化的体验。 戴森眼里的未来家务:少动手,不动手 无论是越来越快的马达,还是愈发精妙的气流,或是各种传感器、传动结构和算法组成的人工智能和机器人技术,在戴森看来都像是工具箱里面的工具,最终都是为了满足用户的需求。 比如人工智能技术加入工具箱,也是因为戴森看到了需求,对此,John Churchill 也分享了他的洞察: 我们看到人们比以往任何时候都更忙,更努力地工作;我们也看到人口老龄化,看到每个人都想花时间做更多休闲或健康相关的活动。因此,人们比以往任何时候都更重视时间的价值。我相信,大家都希望有机器人来帮忙应对琐碎家务,世界各地都如此,尤其是在中国,人们希望机器能帮助他们完成家中琐事。 把吸力做强,是为了减少做家务的时间,把重量做轻,是为了减少家务过程中的负担,而在扫地机器人里加入传感器和履带,则是为了彻底解放双手。 所以趋势也再明显不过了,John Churchill 如此概括戴森产品的未来演进方向: 戴森家居科技的发展方向,会从研发执行单一任务的单个产品,转变为研发更加互联、更加集成的家居解决方案。家是健康和幸福的港湾,目前我们的产品正通过打造洁净健康的家居环境、呈现令人惊叹(的产品设计)来助力打造健康幸福的家。展望未来,在戴森的帮助下,我们的家会越来越能实现自我照料。因此,家会变成一个令人放松的地方,而不是人们负担重重的地方。 现在,随着人工智能、云端和应用程序的发展,我们可以预见未来机器人可以在不需要人类参与的情况下,自己做自己的事情,打扫你的家,实现自我清洁,我们认为这会是最终的解决方案。 正如前面所言,戴森做产品是「硬桥硬马」风格,没有赶鸭子上架这一说。因而在戴森历史上,也有一些投入了研发和生产但最终被放弃的产品,比如洗衣机,以及电动汽车。 洗衣机虽然可以视作是个失败项目,但是帮助戴森更深入地理解了「水」,为其他产品的开发提供了经验。现在,在不少高级商场的卫生间里,戴森 Airblade Wash + Dry 干手器是标配,它提供了洗手和干手两项功能。 至于戴森汽车的研发则帮助了戴森走出家庭环境、迈向室外。户外场景的研究与启发无疑也给了戴森从室内转向户外、向可穿戴领域进发的灵感。 在戴森的实验室里,还有更未来的产品正在研发:一款家务机器人。 如 John Churchill 所言,越来越繁忙的都市人群和老龄化趋势,让家务成为一个棘手问题,更具有自主能力的家务机器人或许是一个最终解决方案,戴森也投入了重金在此领域。 2022 年,戴森披露其机器人研发进程的时候表示,机器人技术是戴森斥资 27.5 亿英镑投资的新技术和设施五年计划的核心。当时戴森已在全球招纳 2000 余名人才,其中工程师、科学家和程序员占比 50%。 在披露视频中,戴森着重展示了物体抓取机械臂的最新进展,以及机器人在操纵、机器人学习、视觉感知和顺应控制方面的全新研究成果。 虽然我们不知道戴森的家务机器人什么时候会真正进入千家万户,但是从几分钟的视频当中,我们可以窥见戴森描绘的未来家务图景:机器人抓取地上的娃娃归位、机器人抓取餐盘放到置物架,以及机器人接入清洁吸头清理沙发…… 同时,过去的研发、当下的产品和未来的机器人之间,也存在着一脉相承的联系:戴森始终在往工具箱里添加新工具,而戴森的产品,则正是这些工具的组合以及结合。
世界第一枚,又是清华
作者 | 荣智慧 编辑 | 向由 中国清华大学科学家创造了世界第一枚类脑视觉芯片“天眸芯”,具备类似人眼的感知能力。 5月30日,该研究论文《面向开放世界感知的互补通路视觉芯片》(A Vision Chip with Complementary Pathways for Open-world Sensing)登上《自然》杂志封面。这是清华大学类脑计算研究中心继2019年“天机芯”后,研究成果第二次荣登《自然》封面。 5月30日《自然》杂志封面 / 图源:清华大学官网 被誉为“全球最快视觉芯片”的天眸芯,精度可达10bit,速度达1万帧/秒,带宽较于(具有同样精度和时空分辨率)传统相机,减少了约90%。 在类脑计算和类脑感知两个重要方向上,中国芯片均已取得基础性突破。同时,如火如荼的电动汽车“自动驾驶”模式,也将乘上视觉芯片的快车。 天眸芯的创新 天眸芯和天机芯一样,都属于“类脑”芯片领域。后者偏重于类脑计算,而前者倾向于类脑感知,并提出了一种全新的视觉感知芯片设计范式,即“双通路互补”(CVP)。 传统CMOS图像传感器,是单纯地将光信号点对点地转换为数字信号。在同等代价下,传统传感器很难实现“分辨率、信噪比、动态范围和帧率”的同时提高。 而“双通路互补”首先会模仿人眼,自动把看到的场景分解成很多元素,包括物体运动、轮廓边缘、色彩以及不同区域之间的对比度等信息,这些拆分出来的元素,被称为“视觉原语”。 接着,“双通路互补”再模仿人脑的处理机制,把这些信息分配到不同的“处理通路”中去,就像快递驿站把不同街道的快递分配给不同快递员。 然后,它再模仿人脑的响应机制,处理“时间空间变化”的信息,并让时空变化和色彩等其他信息互补,正如快递员之间又做了连接和协同。 简单说,天眸芯是把机器视觉的感知过程,拆成两条通路,一条是认知导向通路(COP),一条是行动导向通路(AOP)。 天眸芯 / 图源:清华大学官网 因为人类的视觉感知系统就是多通路的,会将场景解析为不同组件,将前景和背景分开,实现多通路之间的相互组合,既能对危险做出快速反应,也不会失去对全局情况的理解。 就像人类开车,无论白天黑夜,无论是高速路还是乡间小路,驾驶员都可以对运动目标进行快速识别,这一点远超现有计算机视觉系统。 机器视觉的本质,就是不断模仿人类视觉原理,以达到低能耗、高精度的效果。 采用90纳米CMOS背照式技术制造的天眸芯,通过进一步模仿人类大脑,在极低的带宽(降低90%)和功耗代价下,实现了每秒10000帧的高速、10bit的高精度、130dB的高动态范围、NIR(近红外光谱技术)高灵敏度的视觉信息采集。 神经拟态视觉 天眸芯类脑视觉芯片,背后的技术是神经拟态视觉(Neuromorphic Vision)。 神经拟态视觉是一种集合感知、存储、计算的芯片技术,同时包含硬件开发、软件支撑、生物神经模型的视觉感知系统。 人类的大脑处理视觉信息,并不像相机一样,“看”的是一张张照片,而是动态、持续跟踪信息,只有检测到视觉场景的某些特征变化时,神经才会向大脑“报告”。 神经拟态工程,复制了人类视觉传感和处理的关键元素。 人类视觉系统的互补性 / 图源:Nature 某些情况下,它的工作方式就是捕获和处理高质量图像,允许每个像素独立记录,并且仅在触发时进行记录,物体运动被捕获为连续的信息流,而不是逐帧捕获。这种方法减少了机器需要发送的数据量,从而降低功耗,也提高了响应能力。 20世纪80年代后期,加州理工学院教授Carver Mead就曾提出有关神经拟态的技术。当时,Carver Mead的初衷主要是想更好地了解人类大脑的运作方式。 如今,神经拟态技术日益成熟,神经拟态视觉传感器或芯片近年进步神速。这种传感器由感知、存储和运算功能的器件与电路组成,包含材料、器件、电路、算法以及集成技术等的交叉结合,同时也依赖“芯粒”封装技术来提高集成度和性能。 神经拟态视觉芯片在工程系统的应用非常广泛,包括手机触屏唤醒功能、消费电子相机高速摄影和动态感知、工业微型机床高速运动抓手的跟踪、工业检测视觉感知、移动机器人视觉感知系统、驾驶员疲劳检测系统、自动驾驶联合检测、无人机视觉导航系统、高速视觉测量等。 特别是自动驾驶方面,清华研究人员还开发了一个集成“天眸芯”的汽车驾驶感知系统,来评估装载该芯片的汽车在开放道路上行驶时涉及到的各种极端情况。例如强光干扰、高动态范围场景、域偏移问题(异常物体)和具有多个极端情况的复杂场景。 实验结果表明,天眸芯可以有效适应极端光环境,并提供领域不变的多级感知能力。 自动驾驶迫不及待 最近,市场被特斯拉FSD(全自动驾驶系统)搅得心神不宁。 其实,使用视觉方案的自动驾驶汽车有个明显痛点,即摄像传感器需要在带宽和延迟之间进行权衡。 虽然汽车配备的摄像头都具有良好的分辨率,但传输高分辨率的数据需要合适的带宽。带宽不足,延迟就会增加,从而影响处理数据的时间。在交通事故中,时间就意味着生命。 自动驾驶感知演示平台 / 图源:清华大学官网 中国很多电动汽车商家为了性价比疯狂“堆料”——增加更多摄像头。当然更多的数据也就随之而来,导致芯片“计算能力需求爆炸式增长”。 天眸芯能够以极低的带宽和极低的能耗下,实现高速、高精度和高动态范围的视觉信息采集,有效应对各种极端复杂场景,突破了传统视觉感知芯片在稳定性、安全性等方面的性能瓶颈。 “‘天眸芯’的成功开发为未来自动驾驶、具身智能等重要应用开辟了新的道路。”该论文的共同通讯作者、清华大学精密仪器系赵蓉教授表示。 为方便应用,清华大学团队开发了两种模组。 第一代为高性能模组,采用了Xilinx ZCU102或KU040系列FPGA板卡作为天眸芯和上位机的桥接芯片,设计使用PCIe的上位机通信方式,将天眸芯的数据经过整合、处理后,以极高带宽传输至上位机中。 第二代为微型化模组,载板包括微型化天眸芯子板和转换载板。子板与载板通过高速接插件或者高速软排线的方式连接。这个小型模块可以应用到安防、无人机、机器人等领域。 其实,神经拟态工程的潜力,在很大程度上还没开发出来。 类脑计算研究中心施路平教授(右一)和赵蓉教授(左二)指导学生实验 / 图源:清华大学 有研究报告指出,到2029年,神经拟态芯片、传感和计算将成为一个价值71亿美元的市场。 如果所有技术问题在未来四到五年内得到解决,神经拟态计算市场可能会从2024年的6900万美元增长到2029年的50亿美元、2034年的213亿美元;神经拟态传感市场可能会从2024年的3400万美元增加到2029年的20亿美元、2034年的47亿美元。 产学研结合肯定是必要的。中国非常重视类脑智能,其是“十四五”规划纲中提出的未来产业之一。 清华大学类脑计算研究中心已经孵化出北京灵汐科技有限公司。2021年,该公司依托“天机芯”,研制出首款商用的异构融合类脑计算芯片KA200及HP系列计算板卡。 灵汐科技发布的类脑芯片领启KA200(-S) / 图源:北京灵汐科技有限公司公众号 中国SynSense时识科技的类脑视觉芯片Speck,已经批量出货,并号称拥有世界上第一颗商业量产的动态视觉类脑芯片。 此外,该公司刚刚收购瑞士类脑视觉传感公司iniVation AG,后者由类脑视觉领域科学家Tobi Delbruck教授创立,是全球类脑视觉传感领域成立最早的企业之一。 在机器模拟大脑的征途上,人类还有很远的路要走。 举个例子,目前世界最先进的无人机运行时,其英特尔Loihi神经拟态芯片耗电1.007W。它能干的是什么呢?简单飞一飞,或者通过预先编程好的程序,在几个标记物之间自主飞行。 而人类的大脑,由约1000亿神经元组成,通过超10^14个神经突触连接在一起,每秒可以执行15个quintillion运算(1quintillion 等于10^18),而处理日常任务的功耗只有20W。
和 iQOO 一起,我们把电竞赛场带到了未来社
当中国健儿在亚运会赛场勇夺金牌,当重庆狼队在 KPL 上十冠问鼎。电竞赛场荣耀加冕的时刻,我们总会看到 iQOO 的身影。 而在首届旨在「让玩家尝试新玩法」的 inG 游戏艺术节的现场,坚持顶级性能、顶级电竞的 iQOO 与我们不谋而合,一同为玩家打造了「iQOO 未来游戏现场」,让电竞赛场来到我们身边。 电竞赛场的名字,叫热爱 在 inG 游戏艺术节现场,从墙面到地面再到随处可见的贴纸,扑面而来的是色彩绚丽的像素错位设计风格,仔细听,在贴纸与装扮中,似乎都有 8bit 的游戏音。而 iQOO 未来游戏现场就是这里的一抹亮黄。 身处游戏现场,你会感受到浓浓的 iQOO 范儿,只需一眼就会有「想玩」的冲动。 刘慈欣在《三体》中,为我们详细又抽象地描写了二向箔把太阳系跌落到二维世界的过程(降维打击),而在 iQOO 未来游戏现场,我们好像看到二维宇宙来到了三维世界——那些让无数玩家喜爱的游戏,正以空间的形式呈现在我们面前。 不同模块的展示如同不同造型的「游戏岛屿」,呈现出了不同的游戏故事。就连地面和墙面上都布满了如同老式计算机一般的文字图案,将 ASCⅡ 艺术与现代移动游戏融合在了一起,有种在游戏世界里穿越科技时空的触感。 知名 Coser 六二二同学惊喜现身, 化身水神芙宁娜与玩家热情跨次元互动,签名、集邮、游戏挑战,更是把现场推向了高潮。 特别在游戏挑战环节,大家似乎都小看了六二二同学的精湛技巧,不少玩家从挑战前「会赢的」自信,变成了挑战后「没有让六二二大人使出全力」的感叹。挑战胜利者拿到了「328 惊喜」,挑战失败者也定下了下次一定要赢的目标。 热爱背后,是 iQOO 的极致追求 「游戏体验是可在 iQOO 品牌基因里的。」iQOO 产品经理庞靖民在 inG 游戏艺术节的 GAME TALK 演讲马拉松中分享道。 性能、画质、散热、续航、软件优化,游戏体验是平板的综合大考。在听过分享、亲自上手试玩过 iQOO Pad2 Pro 后,我感受最深刻的就是 iQOO 的「极致」——这场综合大考的每个题目,iQOO 都足够出色。 对游戏体验最重要的性能方面,iQOO Pad 2 Pro 在平板端首发搭载了蓝晶 X 天玑 9300+,全大核 CPU 架构,让 iQOO Pad2 Pro 拥有如今顶级的移动游戏体验;13 英寸 3.1K 144Hz 护眼屏,适配了 35 款主流游戏的高帧画面体验;11500mAh 电池容量,配合软硬件功耗的全面优化,在线游戏可达 8.9 小时…… 在 inG 游戏艺术节的现场,iQOO 还专门设计了不同的游戏挑战赛,满足不同玩类型玩家的游戏偏好。 而我最感兴趣的,是《原神》黄金屋副本的挑战赛。熟悉《原神》的朋友们都知道,就算是无想的一刀,打败公子也得砍三刀。而在公子形态转变、过场动画中,让黄金屋成为了萌新的练度挑战、老玩家的试刀优选,以及不少欢愉命途乐子人的二创胜地。 蓝晶 X 天玑 9300+ 的优秀性能表现,官方称 iQOO Pad2 Pro 可以在 2 小时的跑图测试中平均帧率稳定 59FPS 以上,但在挑战现场,连轴转一天的 iQOO Pad2 Pro 也并没有丝毫卡顿,13 英寸的大屏让围观的玩家也可以享受挑战的每个瞬间。 正如 iQOO 产品经理庞靖民所言,性能是平板的发动机,屏幕是游戏的二倍镜,平板游戏体验还能更加精进。以《暗区突围》这款游戏为例,iQOO Pad2 系列行业首批实现了光线追踪技术,实现了更现实、更极致的游戏光影表现,在阴影、反射、环境光遮蔽等游戏特效方面,带来了令人惊叹的游戏效果。 在现场我也和一位挑战者聊了几句,他说比起在自己的手机上玩《暗区突围》,iQOO Pad2 Pro 的画面让他觉着亮了许多,「有种在电脑上玩游戏的严肃感」。他说这个「严肃感」来自画面,来自反馈,也来自稳定的帧数,「可惜没有带耳机,不然体验肯定更好」——如今手游的画面表现、竞技属性,已经有了端游的严肃与极致。 相比之下,《英雄联盟手游》的玩家在刚上手时表现的略感遗憾:我用惯手机操作了,平板画面更好,但操作习惯上还是没那么快适应。 而 iQOO 自然也想到了这一点,在 OriginOS 4 HD 的游戏侧边栏中,就提供了游戏比例的设置选项,想要把峡谷捧在手上,3.1K 高清大屏等你运筹帷幄,更习惯手机比例的操作?半屏显示也能游刃有余。 当然了,就算你手感不佳,没有拿到奖品,同样可以在现场体现到浓浓的游戏氛围。每个本不相识的游戏参与者,在这里都成为了召唤师、特遣队员、旅行者,有着聊不完的话题。 而且追求极致游戏体验的 iQOO Pad2 Pro,在散热背夹的加持下,还能开启 Monster+ 模式,轻松实现全新的性能调动策略,将芯片算力发挥到极致。而且「自研渲染超分」也会进一步升档,《和平精英》支持超分至 1900P,《原神》支持超分至 1440P ,带来更上一层的清晰视效体验。 「性能巨幕」「傲视群雄」「安卓平板之王」「最强平板」……这些看起来夸张的描述,在 iQOO Pad2 Pro 面前,都显得平凡了起来。 「听劝」的 iQOO,正在书写更电竞的故事 「我不喜欢用平板玩游戏。」在 iQOO 的游戏挑战现场的门口,我听到路过的玩家这么说。出于好奇,我和他聊了几句。 作为手游玩家,他拥有不同尺寸的多款平板,但它们都有着性能一般、优化缓慢、迭代不积极的问题,「大家都想用平板看剧,没人管我们打游戏的人。」有些无奈,又有些真实。 但当他和我一起听完 iQOO 产品经理的演讲后,还是返回了挑战现场:「听着还不错」。 在体验之后毫不意外地,听着不错变成了玩着不错。 iQOO 把他们的用户称为「酷客」,他们是一群热爱科技数码、游戏竞技,探索极致、追求更好自我的人。和酷客做朋友的 iQOO,自然要聆听酷客的声音,服务好最懂 iQOO 的人,让每一次相逢都充满期待。 iQOO Pad2 Pro 正是一份酷客们会喜欢的答卷:144Hz 高刷+144Hz 游戏满血双开,光追、超分体验 PC 游戏般的视觉盛宴,OrgianOS 4 针对不同游戏的全面优化。出色的游戏体验,让 iQOO Pad2 Pro 成为了一款玩家想要什么,iQOO 就给什么的 “听劝” 平板。 荷兰文化史学家 Johan Huizinga 就在他的著作《游戏的人》中提到了这样的观点:文明在游戏中诞生,文明就是游戏。飞鸟在天空竞速,燕雀在云中高歌,孔雀在林间展屏。深植于万物基因深处的游戏,如今正超脱日常生活的束缚,为天马行空的幻想搭建了展现的舞台。 极致的游戏表现只是 iQOO Pad2 Pro 的资本,而承载并书写游戏精神的游戏基因才是 iQOO 想用这台顶级平板讲述的故事。 在 inG 游戏艺术节现场,我们看到了游戏的人的过去、现在和未来,而 iQOO Pad2 Pro 这台刻入游戏基因的平板正是如今最适合承载游戏的人的方舟。 游戏就是游戏,而 iQOO 正在书写游戏。
奢华手机已走入末路,主流厂商正抢占更多市场
近日,奢华手机品牌Vertu方面推出了旗下首款小折叠IRONFLIP,其同样采用屏幕竖向内折方案,内屏为6.7英寸居中开孔屏、背部中轴线上方安置的是一块1.43英寸外屏,外观则依旧延续Vertu手机的V形ID,并应用了瑞表三角坑纹工艺,配备金刚陶瓷框架和金刚水滴铰链。据悉这款新机提供了单机款、礼盒款、高定款、高定乐享款等多种版本,售价则为2.98万元至10.98万元。 此前在手机市场中,奢华手机品牌往往是以独有的附加服务和外观设计作为专属性标志,本质上可以被视为是用“做奢侈品的方式来做手机”。这种策略在功能机时代以及智能手机刚刚起步的阶段,就曾凭借着专属服务、定制化体验,甚至是限量等特性被视为“稀缺”资源,能因此也吸引了部分用户。 但随着技术的不断发展,智能手机早已成为了绝大多数消费者日常生活中不可或缺的一部分。而其普及率的不断提高,也使得用户需求发生了巨大的变化,手机不仅要具备最基本的通讯功能,还集合了社交、娱乐、工作等多种功能于一身。这也导致消费者更为注重手机的实用性和易用性,但这恰好又触及了奢华手机的“盲点”。 当然,并不是说奢华手机就完全没有实用性,而是随着各类App相关功能的日趋完善,已经可以很好地替代一些过往要用人工来实现的工作。这种变化就使得以往奢华手机专属服务的稀缺性化为了泡影,更加重要的是,这种专属服务事实上效率更低,反而会在一定程度上增加用户的沟通、时间成本,因此也有越来越多的用户将目光转向了功能更全面、实用性更强的主流产品。 与此同时,随着智能手机高端化、专业化的趋势出现,主流产品在材质、工艺等方面也迎来了全面升级。通过应用各类特种玻璃,以及诸如各种机身材质,主流产品不仅在造型上变得愈发精美,也在耐用性上也有了更好的表现。再加上主流旗舰机型不断引入包括各类奢华腕表的“同款设计”,就使得奢华手机以往在设计方面的“独特性”也荡然无存。 而在功能性上,主流厂商凭借着研发、市场等方面的优势,更是对奢华手机这一细分品类形成了“碾压”之势。例如,奢华手机品牌往往受限于自身的体量,在包括影像算法、硬件调校等方面远不及主流品牌,因此在产品端就很难体现出差异化。而对于主流厂商来来说,功能、设计方面的差异化几乎就是生存之本,也为此投入了大量的资源、并已经陆续取得了相应的成果。此消彼长之下用户的选择自然也就不言而喻了。 主流厂商的这些变化对于奢华手机而言,无异于是灭顶之灾,在产品端的优势消失殆尽之后,剩下的就只有诸如贵金属、宝石材质等相对简单的买点。但需要注意的是,海外已有公司通过换用贵金属中框、宝石等方式来改装主流机型,试图在实用性和稀缺性上取得平衡。 因此奢华手机仅靠机身材质,势必将会很难应对市场竞争。而且这种变化已经迫在眉睫,当前主流厂商不仅通过强化功能、应用折叠屏产品形态等方式,将产品上探到超高端市场,还通过与相关肄业厂商联名、自创品牌的方式,将产品定位升至以往奢华手机的领域。 由此不难发现,对手机这样的消费类电子产品而言,奢华设计或已愈发成为一个“伪命题”。在已经变得越来越激烈的竞争市场环境中,只有不断追求技术创新和工艺升级,提供符合更多消费者需求的产品和服务,才有可能在市场中立于不败之地。 事实上,目前在户外手机、三防手机这一细分领域中,尽管也存在类似的竞争。但主流厂商与专业厂商更多呈现出的是互补态势,双方也正在以相对温和的方式试图渗透对方的市场。 此前,专业厂商凭借着对用户需求更为深入的理解和相关专业技术,通过解决防护、通信等方面的痛点,为消费者提供了对应需求的产品。但从市场定位来看,这类机型与主流产品也有着鲜明的区隔。但随着近年来用户对户外探险、露营、自驾穿越等活动的兴趣不断增长,因此对于手机也相应有了更高的需求,主流厂商正是看到了用户需求的变化,也在诸如卫星通信、机身防护等方面进行了一轮大幅升级。 值得一提的是,凭借着在供应链、研发等方面的优势,主流厂商的市场渗透策略也取得了一定的效果。虽然这一市场的规模并不大,但对于对厂商而言,在主流市场竞争已经非常激烈的情况下,开拓新的细分市场显然才更为重要。而且随着相关技术的升级换代,主流厂商以往在中高端机型上的这些调整,还也势必将会逐步渗透到更多的产品中。 面对主流厂商的进击,专业厂商也并非毫无还手之力,其同样也在继续寻求改变和创新。一方面,后者在继续将防护能力向更高等级推进,并在相关售后服务上进行倾斜。另一方面,专业厂商在意识到仅靠防护能力不足以“通吃”之后,除了尝试向主流市场靠拢外,还通过在产品上搭载诸如测距、测温、热成像、夜视等差异化功能,来满足消费者更为多样化的需求。毫无疑问,这也是一种反向渗透的市场策略。 这种互相渗透的态势对用户、市场的发展无疑都是“利好”,并将促使相关厂商不断进行创新,在功能、体验上全面开“卷”。不仅用户可以从更多的选择中受益、享受到更好的使用体验,产品的多元化也势必将会推动整个行业以更健康的态势发展。 在如今的整个手机市场中,奢华手机昔日的光环早已褪色,主流厂商则凭借着持续创新的技术、工艺,以及更高的实用性,占据了这个市场的主导地位。同时在户外、三防等专业领域,主流厂商与专业厂商也正在展开角逐,双方在相互渗透中不断提升产品力,而这种更具“内涵”的竞争不仅会推动市场的多元化发展,也为消费者带来了更多的选择。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。