EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
顺丰折翼无人机
作者丨古廿 编辑丨伊页 低空经济概念大火,顺丰却在逆势收缩。 有行业消息称,顺丰正在撤出自有的无人机载货业务。目前旗下负责该项业务的丰鸟科技,已经启动内蒙古主场地的资产清点,预计今年第三季度完成全部撤出。至于对丰鸟的后续处理,是整体清盘还是出售给第三方,各方股东仍在探讨中,还没有形成最终方案。 过去一段时间,顺丰一直在进行亏损业务的收缩,连续出售培育三年的团餐平台“丰食”和特惠低价快递丰网速运。根据财报数据显示,丰网速运从去年初到出售期间亏损5.51亿元。 连续亏损之外,二者还均属于顺丰面临外部竞争跟随式创新的新业务布局。但是在无人机业务方面,顺丰一直有着自己的发展节奏。 成立于2017年的丰鸟科技,最初的愿景是助力顺丰集团构建“干线大型有人运输机+支线大型无人机+末端小型无人机”的三段式航空运输网络,实现36小时快递通达全国。2022年初获得全球首张大型支线物流无人机商业试运行牌照,踏出无人货运商业运营的一大步。可如今尚未全面展开商业化运营,已经提前断了一个翅膀。 作为业内率先提出无人机物流构想的企业,顺丰早在10年前就分别成立丰鸟科技、丰翼科技两家企业,全面开展无人机物流相关工作。前者主要负责无人机跨省综合物流,后者则主要负责城市最后一公里的末端物流。 业内人士认为,此次退出无人综合货运物流的消息传出,可能是末端物流相较于综合物流,在无人配送较量上的胜出。后续顺丰或将开始在无人机业务发展方向上做出选择,更加聚焦末端无人机物流服务。 从行业发展来看,这个选择方向也更符合物流大趋势。目前国内两大头部电商平台,不管京东还是淘宝,均先后开展自有物流服务,掌握商流和物流两个主要数据部分,且京东物流和菜鸟物流均先后布局无人物流。 对于顺丰来说,此前成立丰鸟科技36小时送全国的愿景,在电商企业商流和物流数据信息更快流通和协同性的作用下,已经不再是最快速度。 以地广人稀的新疆为例,相当于上海的人口分散到15个浙江省的面积,通过持续的物流建设和升级,今年3月份淘宝已经启动了新疆包邮服务。电商平台通过商流数据提前分析,将货前置进仓,最后再通过物流运送的模式,使顺丰速度和价格上都不再具有明显优势。 另外,聚焦末端物流也和当下大热的低空经济概念契合度更高。电商物流件在围绕快递员推出的一系列上门新规之下,虽然可以提升服务质量,但是需要增加更多的人力,无人机或将可以承担更多的末端工作量。 同时,伴随着即时零售等新型本地电商零售购物场景的发展,末端物流的精细化程度和升级依然还在继续。美团虽然已经开始布局,但是作为尚未稳固的增量市场,对于顺丰来说依然机会巨大。 2023年顺丰控股整体营业收入2584亿元,同比去年下降3.39%,为十年来第一次收入下滑。即使是曾经的快递利润老大,眼下也没有了大把尝试新业务的底气,收缩聚焦把钱花在刀刃上,可能是顺丰主动折翼无人机业务的那一把刀。
山姆-奥特曼怒喷谷歌,GPT-4o抢了Gemini风头
作者|孙鹏越 编辑|大 风 这些天的硅谷,乱成了一锅粥。 OpenAI CEO山姆-奥特曼直接在社交平台公开嘲讽谷歌的审美过于差劲,他表示:我努力不去过多思考我们的竞争对手,但我无法不去思考OpenAI和谷歌之间的美学差异。 下面附着的两张发布会现场图,左边是OpenAI,右边是谷歌。言下之意,就是OpenAI干净明了,极具科技感;而谷歌则离人群非常远,十分过时。 OpenAI CEO山姆-奥特曼 山姆-奥特曼如此气急败坏,还是因为在上周,OpenAI和谷歌同时发布AI新品,双方打的你来我往:你说GPT-4o全球最先进,我说Gemini家族能覆盖全生态全路径。 两家硅谷巨头的直接对抗,把科技竞赛的强度拉满,就连CEO本人都坐不住了。 01 谷歌AI全家桶上线 山姆-奥特曼嘲讽谷歌并不是无的放矢,这场谷歌I/O大会在观看性上,确实差强人意。 首先是时间太长,谷歌I/O大会足足有接近两个小时,主持人连续提起了121次AI字眼,甚至有观众在社交平台抱怨自己都快睡着了。 然后就是产品太多,比起OpenAI仅有GPT-4o一款新品,谷歌这次则推出了十余种Gemini大模型的升级及新品,可以说是“AI全家桶”。 发布AI搜索:Google Search; 升级了Gemini大模型:Gemini 1.5 Flash(100 万上下文)、Gemini Pro(200 万上下文); 新发布了手机版Gemini App:以手机应用程序形式,支持和AI视频对话; 发布视觉语言模型Project Astra:拥有Imagen3(图像)、Music AI Sandbox(音乐)、Veo(视频生成)三种能力。 虽然谷歌AI全家桶看上去格外炫酷,但实际上对比OpenAI的GPT-4o依然差上很多,更多是硬件性升级,单纯给大模型升级一下参数。 谷歌Gemini家族 最令人印象深刻的两项功能,是AI搜索Google Search和AI助理Project Astra。 首先是Google Search,搜索作为谷歌起家的根本,这些年遭受到了微软的重创。微软的Bing已经借助ChatGPT,给传统搜索引擎带来了“亿点点”AI降维打击。 甚至就连OpenAI也在盛传将推出AI搜索类产品,来抢占Google搜索市场。 压力之下,谷歌推出Google Search来稳定自家护城河,下定决心重塑搜索体验。 据演示视频来看,Google Search最核心的功能,就是搜索摘要功能AI Overview。 所谓的“搜索摘要功能”,就是谷歌之前提出来的“搜索生成式体验(SGE)”。 用户在搜索框内键入文本,直接在最上方跳出AI帮忙整理的信息摘要。其中包含用自然语言对搜索结果的总结和概括,以及推荐的链接。 AI Overview还内置了“多步推理功能Multi-Step Reasoning”、“计划功能Planning in Search”、“视频提问Ask With Video”。 另外一个发布会亮点,就是谷歌推出的AI助理Project Astra。 Project Astra就是一个完全对标GPT-4o的产品,产品形态和使用逻辑基本和ChatGPT无二。用户可以和它实时对话、视频聊天。 并且,和GPT-4o一样,Project Astra也提供文生图、文生视频两项功能。只不过不叫DALL·E和Sora,而是叫做Imagen 3和Veo。 唯一有点不一样的,就是Project Astra提供了音乐生成模型Music AI Sandbox。 用户可以上传一小段音乐demo,Music AI Sandbox能在此基础上拓展延长。用户还可以输入提示词,进一步调整音乐风格,进行乐曲的二度创作。 总之,用一句话来概括谷歌AI全家桶,就是:东西很多,精品很少。 我们能在一系列AI新产品里,不断看到ChatGPT的影子,但单纯是在GPT-4o做好的框架里缝缝补补,升级一下算力,换个新框架。 能给用户带来震撼感的产品呢? 依然没有看到。 02 越来越像人类的GPT-4o 比起谷歌的多到凌乱,OpenAI则是简洁明了。 仅仅只有半个多小时,全程由公司CTO和两位工程师face to face,以对话形式展示产品,非常具有电影感。 甚至CEO山姆-奥特曼都没有现身发布会,完全用产品力来震撼用户。 现场的演示嘉宾拿着手机摄像头,让GPT-4o识别自己的表情,来判断自己的情绪。 GPT-4o很快识别完成,说:你看起来很开心,带着灿烂的笑容,甚至有一丝兴奋,你能分享你快乐的来源吗? 演示嘉宾在纸上写了“i love you”给GPT-4o,GPT-4o用带有一丝丝娇羞、热情四溢的语气快速回应着人类的“爱意”。 GPT-4o演示现场 GPT-4o能感受到你的呼吸节奏、能“看出”你文字当中包含的情绪、甚至可以打断它的话,重新为话题增加新的语境,它也能作出完美回应…… 这样的人工智能,让你想到了什么? 是的,一个完美恋人。 就像是2013年上映的好莱坞电影《Her》,斯嘉丽配音的人工智能和人类谈起了恋爱。 这一幕,逐渐成为现实。谁会不喜欢一个热情洋溢、事事有回应、提供丰富情绪价值的伴侣呢? 哪怕它是AI。 GPT-4o给后来者谷歌一个下马威,也给出未来AI大模型的一个满分答案:不管是生成式AI大模型也好,聊天机器人也好,不用再去关心什么硬件什么参数,AI的最终方向就是越来越像人类。 OpenAI并没有过多描述自己的算力、自己的硬件升级,只是由首席技术官穆里·穆拉蒂 (Muri Murati) 表示,GPT-4o将提供与GPT-4同等水平的智能,但在文本、图像以及语音处理方面均取得了进一步提升,“GPT-4o可以综合利用语音、文本和视觉信息进行推理。” 现阶段的GPT-4o已经摆脱了对文本、图片或语音的束缚,它的识别能力进化到了“听觉”和“视觉”。 用“听”来捕捉情绪变化,比如能判断对方急促的呼吸方式不对;用“看”来识别你写在纸上的方程式数学问题,一步步教你解题步骤。 甚至它还可以通过手机摄像头,回答你“这个人穿什么牌子的衬衫?” 比起谷歌眼花缭乱、不知从哪下手的AI全家桶,GPT-4o已经领先到大气层了。 03 免费,但又不完全免费 GPT-4o除了在能力上,给了谷歌一个下马威外,OpenAI还放了大招: 穆里-穆拉蒂表示,GPT-4o将免费提供给所有用户使用,不但当下免费,甚至以后OpenAI做产品就是要免费优先,为的就是让更多的人能使用。 就连OpenAI CEO山姆奥特曼表示,新的GPT-4o是OpenAI有史以来最好的模型,它可供所有ChatGPT用户使用,无论是免费版本还是付费GPT-4版。 不得不说,当服务免费时,用户就是产品。 如果GPT-4o真的能彻底取消付费制度,那么OpenAI获得的数据量会超出想象。 可惜的是,OpenAI还是缺少“用免费改变世界”的魄力,背后还是有不少的猫腻。 穆里·穆拉蒂 (Muri Murati) 首先,OpenA在官网公告上明确说明,免费用户在使用GPT-4o时,OpenAI做出了权限上的分级。 免费用户可以使用GPT-4o的分析数据、创建报表、处理照片、上传文件、使用记忆功能等,基本上GPT-4o涵盖了GPT4所有的付费功能。 但是免费用户会有消息数量的限制,PIUS用户的消息将是免费用户的5倍,Team和Enterprise用户限制将会更高。 每天能用多久?每天能发几条?GPT-4o并没有详细说明。 或许,我们可以参考OpenAI上一代GPT-4,限制每个用户每天的使用时间在3小时以内,并限制每天生成的信息数量不超过25条。 虽然说这一限制在一定程度上,提高了信息的质量和用户的注意力。但还是要感叹一句,互联网的免费,永远不是真免费。 哪怕到了AI时代,这个法则也同样适用。
大模型想落地,先让大家用得起
题图|视觉中国 自2023年开始,全球范围掀起了以大模型为代表的生成式AI浪潮。过去一年,但凡和算力、算法、数据、网络安全、云计算、AI相关的企业和题材,都在AI大模型题材的风口上,被追捧上了天。但从技术革新的角度看,国产大模型并没有给生产生活方式带来质的改变。 前不久,李开复在一场采访中直言不讳地指出,对于美国人来说,“ChatGPT时刻”发生在17个月前,但中国用户却还在翘首以待属于自己的“AI时刻”。 归根结底,国内的聊天机器人和工具做得还不够好。“中国必须拥有自己的ChatGPT,才能激发公众对AI技术的极大兴趣,并推动其在更广泛领域的应用和投资。”李开复直言。 与此同时,不断有大佬高喊“不能落地的大模型没有意义”。 比如李彦宏就公开表示,中国现在数百个基础模型是对社会资源巨大的浪费,更多的资源应该如何探索与各行各业的结合,以及下一个超级应用的可能性。 在需求端,市场其实非常迫切想要找到能快速落地、产生效益的AI产品和服务。对于大模型开发者和应用者来说,卷参数已经没有任何意义。在火山引擎总裁谭待看来,“如何让更多人、各行各业用起来”,才是现阶段对于“好模型”的最佳定义。 多位行业人士判断,今年将是中国生成式AI应用的爆发元年。而当下打开市场的关键突破口,“价格”成为了行业的新共识。 用起来是关键 在刚刚结束的春季功能更新会上,OpenAI宣布了其最新模型GPT-4o,不仅性能有大幅提升,价格也下调了50%。要知道,这是自2023年初以来,OpenAI进行的第4次降价。 在当前市场上,大模型通常是以1000 tokens为计费单元。以GPT4为例,从去年3月发布至今,OpenAI把GPT4升级到GPT-4o,输入价格从0.03美元/1000 tokens下降到0.005美元/1000 tokens,降幅高达83%;输出价格也从0.06美元/1000 tokens下降到0.015美元/1000 tokens,降幅为75%。 按照OpenAI的预期,其大模型将按照每年50-75%幅度继续降本。 把降本深埋在业务发展主线的,不只有OpenAI。今年以来,为了加速应用端的落地,国内大模型玩家不仅开始顺应降价的趋势,甚至降幅力度达到了惊人的程度。 例如智谱大模型在本月官宣其新的价格体系,入门级产品 GLM-3 Turbo 模型调用价格从 5 元/百万 tokens 降至 1 元/百万 tokens,降幅高达 80%。 再比如DeepSeek 在5 月 6 日发布的二代 MoE 大模型 DeepSeek-V2,能力对标GPT-4、llama 3-70B,每百万 tokens 的输入和输出分别是 1 元和2 元,只有 GPT-4 Turbo 价格的近百分之一。 而字节在5月15日发布的豆包大模型,直接把AI使用成本从“以分为单位”,干到了“以厘为单位”的时代。 其中,主力模型豆包Pro 32k定价0.8厘/1000 tokens,比行业平均价格降低99.3%。在全行业降价的背景下,同样是1块钱,用户可以从GPT买到2400个 token,国产大模型可以得到8000多个 token。 如果用户用开源Llama模型自己搭建,大概能获得3万个 token。而1块钱,能在豆包大模型上足足获得125万个 token,相当于处理3本75万字的《三国演义》文字量。 在过去一年上演的“百模大战”,每隔一段时间总会有人对“如何加速模型落地”进行追问。无可否认,AI大模型有无限大的价值,等着市场玩家去发掘,但眼下不过是行业非常初期的探索阶段。 AI作为一场成本驱动的生产力革命,大模型的价值在于通过创建图像和语言理解,让创造的边际成本无限趋近于零。在火山引擎总裁谭待看来,降价是价值创造的重要推动力:“大模型在 to B市场的应用场景还很少,包括OpenAI也在不断降价,大家的共同目标都是把市场蛋糕先做大。”只有降低客户试错成本,才能促进产业繁荣。 一位行业人士坦言,目前中国AI大模型应用的市场规模,与所有市场玩家投入的训练成本相比杯水车薪。企业还无法靠 to B 服务做到正循环,在收入方面的差距在两个量级以上。在这种情况下,大模型企业试图通过降价,让更多人用起来,“至少是条可以尝试的路子。” 低价而非价格战 中国企业历来奉行应用主义,多数企业之所以愿意拥抱AI时代,就是希望自身在市场竞争中借助 AI 打造差异化优势,从而提升行业竞争力。 然而,面对市场层出不穷的大模型,用户难以准确做出选型决策。再加上企业缺乏模型调优和专业数据处理的经验,导致模型的实际应用效果达不到预期,很难与自身业务相适配。 模型效果是AI落地最关键的一环。多位行业从业者表示,好的技术一定是在大规模应用,不断打磨的情况下形成的。这与字节在豆包大模型发布会上对外阐述的理念一致——用起来才是关键。“只有在真实场景中落地,用的人越多,调用量越大,才能让模型越来越好。”谭待告诉虎嗅。 通常来说,价格是用户对于大模型的首要考虑因素。毕竟AI 创新的风险系数非常高,很多企业即使想做各种创新,可受限于模型使用成本,并且担心模型难以胜任各垂类场景的任务,导致ROI为负,因此会更倾向尝试没有门槛负担的工具。 谭待粗略算了一笔账,企业要想用AI做一项创新,至少要消耗100亿 token,如果按照大模型之前的售价,平均需要花费80万元,而现在使用豆包大模型,只需要8000元就能搞定。 过去,大模型推理成本下降,很大程度上依赖于算力的升级。而豆包之所以在价格上“碾压”其他同类大模型,依靠的是模型结构的优化、工程上从传统的单机推理变为分布式推理,以及把不同负载的推理进行混合调度等方式,从而带来超预期的降本效果,也成为打开AI应用的重要“开关”。 值得注意的是,包括BATJ等头部大厂,也都在把大模型的竞争焦点放在了模型训练效率提升,降低大模型的推理成本上。 当然,如果单纯拼价格,谁都能祭出价格更低的大模型。但如果要真正打破大模型与行业之间的高墙,让美好的场景更广泛地发生,更低的成本是必要条件,但不能以牺牲模型的质量为前提。 例如市面上也有很多轻量化模型,虽然也做到了比较低的成本,但是以压缩了模型能力和推理成本为代价,在效果上大打折扣,不能与其主力模型相提并论。 尽管大模型降价的趋势已成必然,但字节的“行业最低价”也招致不小的热议。 一方认为,豆包大模型以行业最低价让企业用最低成本就能调用大模型,加速了应用落地;另一方则批评,字节的野心让其过早地触发了价格战,随着各家大模型使用成本逐步降低,接下来很可能会上演一场市场争夺战。 对于外界的质疑,谭待解释称,大模型现在还是初期阶段,远没有到激烈竞争的程度,模型的推理成本未来一定会继续下降,“或许,等到那时再回看今天的0.8厘钱,也许一点都不便宜。相比之下,我们只不过是提前那么一步而已,目的并非是为了驱赶对手。” 况且,低价不等同于“价格战”。to B 需要保持长期的盈利,谭待表示:“不亏损是保障业务稳定的关键,也是火山引擎的原则。”因为只有这样,才能长期可持续地提供服务。 从概念验证迈向落地开花 在去年AI大爆发引发的大模型训练热潮中,包括智谱AI、月之暗面、Minimax、零一万物最早都使用了火山引擎的算力训练模型。 谭待坦言,云市场其实比拼的就是规模。AI大模型的火热,为云厂商开辟了新的市场机遇。微软Azure就是最有力的证明。其通过投资绑定OpenAI让云业务一路高歌猛进,跃升为全球第一的智能云。 目前,豆包大模型已通过火山引擎正式对外提供服务。根据官方数据,豆包大模型单日Tokens的用量达1200亿,单日生成的图片数超过了3000万张。 去年,当大多数在去年上演“百模大战”时,字节的“缺席”曾一度被外界认为存在严重的滞后性。彼时的豆包大模型,还处于襁褓之中。谁曾想,隐忍多时的字节,会在这个节点出手。 除了模型的效果和成本,应用落地也非常关键。在过去一年里,豆包接入了包括抖音、头条、番茄小说等50多个业务,业务场景涵盖办公智能助手、电商导购、售后客服、营销创作、数据智能分析、编程助手等,并邀请了手机、汽车、金融、消费、互娱领域的行业头部客户内测。 在模型打磨的过程中,挑战一直都在。首先要让基础能力和性能达到对应的标准,然后对接企业客户需要解决很多问题,比如搭建大模型评估和应用流程,包括测试集合、案例分析和精调能力等,否则很难辨别哪些场景靠谱,哪些场景短期内不合适。 也是在和企业客户磨合的过程中,火山引擎团队加深了对助手类、知识类、娱乐类、教育类等场景的了解和适配程度,并且针对不同场景在火山方舟2.0平台植入了对应的插件和工具平台,不断实践摸索中找到最佳的解决方案。 大模型的能力目前很多维度上让人惊叹,但也有很多缺陷,同时又在快速演进,每隔三个月、半年都会发生很大变化。“这恰恰是做大模型产品的挑战和乐趣,需要在这种持续动态的技术发展中,不断去判断下一个产品的PMF (产品市场匹配点)可能是什么。” 值得一提的是,在字节的AI 应用搭建平台“扣子”上,已经有些开发者通过自己开发的应用,实现了月入百万的目标。谭待预测在今年下半年,大模型在应用方面将会让更多场景,从概念验证阶段走向落地阶段。 眼下,火山引擎和招商银行、蒙牛、OPPO等企业用户,在核心业务场景都已展开了合作和探索,至于大模型将如何塑造未来,一切还要交给时间去验证。
谷歌数学版Gemini破解奥赛难题,堪比人类数学家!
【新智元导读】I/O大会上,谷歌Gemini 1.5 Pro一系列更新让开发者们再次沸腾。最新技术报告中,最引人注目的一点是,数学专业版1.5 Pro性能碾压GPT-4 Turbo、Claude 3 Opus,成为全球最强的数学模型。 四个月的迭代,让Gemini 1.5 Pro成为了全球最强的LLM(几乎)。 谷歌I/O发布会上,劈柴宣布了Gemini 1.5 Pro一系列升级,包括支持更长上下文200k,超过35种语言。 与此同时,新成员Gemini 1.5 Flash推出,设计体积更小,运行更快,还支持100k上下文。 最近,Gemini 1.5 Pro最新版的技术报告新鲜出炉了。 论文地址:https://storage.googleapis.com/deepmind-media/gemini/gemini_v1_5_report.pdf 报告显示,升级后的模型Gemini 1.5 Pro,在所有关键基准测试中,都取得了显著进展。 简单来说,1.5 Pro的性能超越了「超大杯」1.0 Ultra,而1.5 Flash(最快的模型)性能则接近1.0 Ultra。 甚至,新的Gemini 1.5 Pro和Gemini 1.5 Flash在大多数文本和视觉测试中,其性能还优于GPT-4 Turbo。 Jeff Dean发文称,Gemini 1.5 Pro「数学定制版」在基准测试中,取得了破记录91.1%成绩。 而三年前的今天,SOTA仅为6.9%。 而且,数学专业版的 Gemini 1.5 Pro在数学基准上的成绩,与人类专家的表现不相上下。 数学评测3年暴涨84.2% 对于这个「数学定制版」模型,团队使用了多个由数学竞赛衍生的基准测试评估Gemini的能力,包括MATH、AIME、Math Odyssey和团队内部开发的测试HidemMath、IMO-Bench等。 结果发现,在所有测试中,Gemini 1.5 Pro「数学定制版」都明显优于Claude 3 Opus和GPT-4 Turbo,并且相比通用版本的1.5 Pro有显著改进。 特别是MATH测试中取得了91.1%的突破性成绩,而且不需要使用任何定理证明库或者谷歌搜索等任何外部工具,这与人类专家的水平相当。 此外,在AIME测试集中,Gemini 1.5 Pro「数学定制版」能解决的问题数量是其他模型的4倍。 以下是两道曾让之前的模型束手无策的亚太数学奥林匹克竞赛(APMO)题。 其中,上面的这个例子很有代表性,因为它是一道证明题,而不是计算题。 对此,Gemini给出的解法不仅直切要害,而且非常「漂亮」。 Gemini 1.5 Pro核心性能全面提升 文本评估 除了数学之外,升级后的1.5 Pro在推理、编码、多模态多项基准测试中,取得了显著的优势。 甚至就连主打输出速度的1.5 Flash,在性能上也不输1.0 Ultra。 尤其是,在MMLU通用语言理解基准测试中,Gemini 1.5 Pro在正常的5个样本设置中得分为85.9%,在多数投票设置中得分为91.7%,超过了GPT-4 Turbo。 与2月出版技术报告对比来看,新升级1.5 Pro在代码两项基准中,有了非常明显的提升,从71.9%上涨到84.1%(HumanEval),从77.7%上涨到82.6%(Natural2Code)。 在多语种基准测试中,新升级1.5 Pro的能力略微下降。 此外,5月报告中,将数学和推理能力分开评测,在数学基准上,新升级1.5 Pro有所下降,从91.7%下降到90.8%。 在推理测试中,MMLU上的性能从81.9%提升到85.9%。 2月版 针对函数调用,1.5 Pro在多项任务中,除了多项函数,都拿下了最高分。1.5 Flash在多项函数任务中,取得了领先优势。 在指令调优上,1.5 Pro面对更长指令1326提示时,回应准确率最高。而406更短指令,1.0 Ultra的表现更优秀。 涉及到更专业的知识问答时,1.5 Pro准确率几乎与1.5 Flah持平,仅差0.6%,但都显著优于1.0 Pro和1.0 Ultra。 针对STEM上下文问答任务中,在Qasper数据集上,Gemini 1.0和1.5准确率提升,与此同时不准确率显著下降。 再来看偏好结果,针对不同提示,与1.0 Pro比起来,1.5 Pro和1.5 Flash相对得分更高。 多模态评估 针对多模态性能,技术报告中涉及了众多基准测试,包括多模态推理、图表与文档、自然图像以及视频理解四个方面,共15个图像理解任务以及6个视频理解任务。 总体来看,除了一项测试之外,1.5 Pro的表现均能超过或者与1.0 Ultra相当,且轻量的1.5 Flash在几乎所有测试中都超过了1.0 Pro。 可以看到1.5 Pro在多模态推理的4个基准测试上都有所提高。 在公认较为困难的MMMU测试中,1.5 Pro实现了从47.9%到62.2%的提升,在研究生水平的Ai2D测试上甚至达到了94.4%,1.5 Flash也有91.7%的高分。 对于多模态大模型,图表和文档的理解比较有挑战性,因为需要对图像信息进行准确的解析和推理。 Gemini 1.5 Pro在ChartQA取得了87.2%的SOTA结果。 在TAT-DQA测试上,分数从1.0 Pro的9.9%升至37.8%,1.5 Flash相比1.0 Ultra也有将近10%的提高。 此外,团队创建了BetterQA等9个互不相交的能力测试。结果显示,相比上一代的1.0 Pro,1.5 Pro总体达到了20%以上的提升。 自然图像理解方面的测试,重点关注模型的对物理世界的理解以及空间推理能力。 在专门的V*测试中,1.5 Pro和测试提出者所发表的模型SEAL几乎表现相当。 在人类擅长而模型不擅长的Blink测试中,1.5 Pro实现了从45.1%(1.0 Pro)到61.4%的提升,Flash分数相近(56.5%),依旧高于1.0 Ultra(51.7%)。 除了「大海捞针」,团队也为Gemini 1.5 Pro进行了其他视频理解方面的基准测试,但提升不如前三个方面那样显著。 在VATEX英文和中文的两个测试中,对比2月份发布的Gemini 1.5 Pro的技术报告,三个月训练后的提升不超过2分。 在YouCook2测试中,1.5 Pro似乎始终不能达到1.0 Ultra的135.4分,而且相比2月技术报告中的134.2下降到了最新的106.5。 有趣的是,在OpenEQA的零样本测试上,1.5 Flash得分63.1,甚至超过了1.5 Pro的57.9。技术报告中解释,这是由于1.5 Pro拒绝回答某些问题造成的。 2月版 对比GPT-4、Claude 3优势明显 接下来,再看看横向对比,新升级的1.5 Pro与GPT-4、Claude模型相较下的性能如何。 模型诊断能力改进 如下展示的是,在2000个MRCR任务实例中,字符串相似度累积平均得分与上下文长度的函数关系。 在与GPT-4 Turbo和Claude 2.1进行比较时,研究人员发现分别在8K和20K个词组之后,1.5 Pro和1.5 Flash的性能大大优于这两个模型。 随着上下文长度的增加,1.5 Pro和1.5 Flash的性能下降幅度大大缩小,最高可达100万个token。 在将小语种Kalamang翻译成英语的量化结果如下所示。 新升级的1.5 Pro在喂了半本书,甚至全本书的数据之后,性能得到大幅提升,并优于GPT-4 Turbo和Claude 3的表现。 而在将英语翻译成Kalamang语言的量化结果中,1.5 Pro的胜率也是最高的。 低资源机器翻译的长上下文扩展 再来看,在「低资源」机器翻译中,模型的上下文学习扩展(Scaling)表现。 随着样本数量不断增加,1.5 Pro的翻译性能越来越好,大幅超越了GPT-4 Turbo。 长上下文文本QA 针对长文本的问答,1.5 Pro在710k上下文文中,表现显著优于GPT-4 Turbo。并且,超越了没有上下文,以及在RAG加持下,支持4k上下文的1.5 Pro。 长上下文音频 在音频长上下文的测试中,每个模型的单词错误率表现又如何? 可以看到,1.5 Pro仅有5.5%,而OpenAI的Whisper模型的错误率高达12.5%。 但与2月版的报告相比,1.5 Pro的音频长下文单词错误率还是有所下降。 2月版 长上下文视频QA 针对1个小时的视频问答任务,1.5 Pro在不同基准上准确率实现与3分钟视频任务准确率,基本持平一致。 再来看去年2月版的对比,1.5 Pro在1小时任务中的准确率有了很大提升,从最高0.643上涨到0.722。还有在3分钟视频QA任务中,从0.636上涨到0.727。 2月版 在1H-VideoQA测试中,团队在时长1小时的视频中每秒取1帧画面,最终线性下采样至16帧或150帧,分别输入给GPT-4V与Gemini 1.5进行问答。 无论帧数多少,Gemini 1.5 Pro的表现均强于GPT-4V,其中在16帧测试的优势最为明显(36.5% vs. 45.2%)。 在观看整个视频后进行回答时,Gemini 1.5 Pro从2月的64.3%提升至72.2%。 2月版 长上下文规划 「推理」和「规划」技能对解决问题都很重要,虽然LLM在推理上进展显著,但规划依旧很难。 这篇报告专门呈现了Gemini 1.5的规划能力测试,涉及到移动积木、安排物流路线、室内导航、规划日程和旅行路线等任务场景。 测试中,模型必须根据给定任务,一次性地快速生成解决方案,类似于人类的「头脑风暴」过程。 总体上,Gemini 1.5 Pro在绝大多数情况下的表现优于GPT 4 Turbo,不仅能在少样本时较好进行规划,还能更有效地利用额外的上下文信息。 更轻量的Gemini 1.5 Flash表现始终不敌Gemini 1.5 Pro,但在几乎一半的情况下可以与GPT-4 Turbo的表现相当。 GPT-4 Turbo的在BlocksWorld中的零样本表现接近于零,而Gemini 1.5 Pro和Flash分别达到了35%和26%。 Calendar Scheduling也是如此,GPT的1-shot准确率低于10%,而1.5 Pro达到33%。 随着样本数量逐渐增多,1.5 Pro的表现基本持续提升,但GPT-4 Turbo在样本增加到一定程度时会出现下降趋势,在Logistics中甚至持续下降。 比如Calendar Scheduling中,当样本数量逐渐增加至80-shot时,GPT-4 Turbo和1.5 Flash只有38%的准确率,比Gemini 1.5 Pro低了32%。 之后增加至400-shot时,1.5 Pro达到了77%的准确率,GPT却依旧徘徊在50%左右。 非结构化多模态数据分析任务 现实世界中的大多数数据,比如图像和对话,仍然是非结构化的。 研究人员向LLM展示了一组1024张图像,目的是将图像中包含的信息提取到结构化数据表中。 图17展示了从图像中提取不同类型信息的准确性结果。 Gemini 1.5 Pro在所有属性提取上的准确性提高了9%(绝对值)。同时,相较于GPT-4 Turbo,1.5 Pro提升了27%。 然而,在评估时,Claude 3 API无法分析超过20张图像,因此Claude 3 Opus的结果被限制了。 此外,结果显示,1.5 Pro在处理更多的图像时会带来持续更好的结果。这表明该模型可以有效利用额外和更长的上下文。 而对于GPT-4 Turbo来说,随着提供的图像增多,其准确性反而下降
奥特曼被吓坏了:两篇小作文接连否认“封口”离职条款,但没人相信他了
1ChatGPT 可以说话,但 OpenAI 员工不能 Ilya Sutskever 与 Jan Leike 上周二宣布将离开 OpenAI。这两位是公司 superalignment“超级对齐”团队的负责人,主要工作就是确保 AI 技术与开发者的目标保持一致,避免对人类造成不可预测的损害。 选择离开的不只有他们。自去年 11 月以来,也就是 OpenAI 董事会试图以“宫斗”方式解雇 Sam Altman 之时,公司里至少 5 名关注 AI 安全的员工已经或主动、或被动地离开 OpenAI。 这到底在闹哪样?如果大家一直在社交媒体上关注此事,可能会以为是 OpenAI 悄然取得了巨大技术突破。表情包“Ilya 看见了什么?”认为这位前首席科学家之所以仓惶离场,是因为他看到了令人恐惧的东西——比如可能毁灭人类的 AI 系统。 但真正的答案可能跟对技术的恐惧无关,而仍然出在人的身上——也就是 OpenAI 掌门 Altman。熟悉该公司内情的消息人士称,关注 AI 安全的稳健派已经彻底对 Altman 失去了信任。 一位不愿透露姓名的内部知情人士表示,“信任崩溃是个逐渐的过程,就如同多米诺骨牌的倒落一样。” 没有多少员工愿意公开讨论这个问题。这一方面是因为 OpenAI 向来会与离职员工签订相当严苛的离职协议,而拒绝签署则意味着放弃补偿权益,有可能损失数百万美元。 OpenAI 离职协议极其严格,禁止他们在余生中批评他们的前雇主,即使承认 NDA 的存在也被视为违反了协议。 离职员工如果拒绝签署该协议,或泄露协议内容,他们将有可能失去在职期间所获得的所有已归属期权。对于像 OpenAI 这样的初创公司员工来说,期权收益是一项重要甚至是高于其薪资的补偿形式。因此,用这份收益作为威胁,是让离职员工保持沉默的一种非常有效的方式。 有点讽刺的是,OpenAI 刚宣布了令人兴奋的新产品 ChatGPT 4o,让 ChatGPT 可以像人类一样说话。是的,ChatGPT 可以说话,但 OpenAI 员工必须保持沉默。“封口令”的存在,让 OpenAI 获得了几乎一边倒的批评意见。 风向变了。OpenAI 正处于全民唾弃的边缘。 2OpenAI 否认三连,但没人相信他们了 鉴于当前舆论哗然的形势,OpenAI 发出了一份声明,强调「我们从未剥夺任何现任或前雇员的应得利益,也不会因对方拒绝签署离职或禁止负面评论的协议而剥夺其利益。」而在询问这是否反映出政策内容有所变更时,OpenAI 的回应是「声明反映了事实」。 昨天下午,Altman 本人在一条推文中承认,OpenAI 公司的离职协议中确有一条关于离职员工「潜在股权撤销」的规定,但表示该公司已经在调整具体内容。 关于近期出现的有关 OpenAI 如何处理权益一事的讨论: 我们从未因对方拒绝签署离职协议(或禁止负面评论协议)而剥夺任何人的应得权益,未来也不会这样做。应得权益就是应得的,无需讨论。 关于我们原有文件中提出的潜在股权撤销规定,尽管我们从未实际实施,但也承认这条内容本就不该存在。这是我的问题,也是我在执掌 OpenAI 以来最尴尬的情况;我确实不知道有这么一条,抱歉。 过去这一个月来,相关团队已经在调整标准离职条款。如果有任何前员工担心旧协议引发问题,都可以与我联系并共同解决这个问题。再次抱歉。 但还有一位前雇员,他拒绝签署离职协议,为的就是可以自由批评该公司。Daniel Kokotajlo 于 2022 年加入 OpenAI,加入治理团队后一直希望引导公司拥抱安全部署理念,但最终于上个月选择辞职。他说这也意味着他放弃了高达 85% 的家庭净资产。 Kokotajlo 在上周接受采访时表示,“OpenAI 正在训练越来越多的 AI 系统,目标就是最终超越人类智能。这可能是人类有史以来最激动人心的目标,但如果我们不能谨慎行动,那也可能陷入万劫不复的深渊。” OpenAI 曾明确表示希望建立通用人工智能(AGI),这是一种理想系统,能够在诸多领域实现等同甚至超越人类的智能表现。 Kokotajlo 坦言,“我曾充满希望,认为 OpenAI 就是技术发展的灯塔,会以负责任的态度逐步迈向 AGI。但现在很多人都意识到根本就不可能,我逐渐对 OpenAI 领导层及其处理 AGI 的负责态度失去信任,并最终选择辞职。” Leike 上周五也在 X 上发帖解释了自己辞去超级对齐团队联合负责人职务的原因,情况与 Kokotajlo 基本相似。他写道,“我一直对公司的核心优先事项设置保留意见,而形势最终发展到了临界点。” 现在,Altman 社交媒体下面,都是大片质疑的声音:“为什么安全要退居次要位置?”“为什么禁止前员工批评 OpenAI?”“理性的人不会信任你。” Greg Brockman 也不得不出面发表了一条署名为“Sam and Greg”的长推文,表示他们没有放弃安全,并且在“努力减轻风险”。网友们照样不买账,认为这都是废话,一看就是 Altman 的手笔。 外媒对此评论说,这是 Altman 已经被大家的反应“吓坏了”。 3OpenAI 安全团队为何不信任 Sam Altman? 在回答这个问题,我们需要将时间倒回去年 11 月。当时,身为 OpenAI 董事会成员的 Ilya 也参与过对 Altman 的“逼宫”。董事会指出,Altman“在沟通中未能一直保持坦诚。”换句话说:我们不相信他。 但这场行动最终失败,Altman 和他最忠诚的盟友、公司总裁 Greg Brockman 威胁要将 OpenAI 的顶尖人才一股脑带去微软。也就是说除非立刻让 Altman 官复原职,否则 OpenAI 就会当场爆炸。面对这种威胁,董事会只得屈服,劫后余生的 Altman 比以往任何时候都更加强大,并立即组织起更支持他、愿意让他放手做事的新董事会。 入宫行刺失败,事情就绝对不可能善了。 虽然 Ilya 和 Altman 曾多次对外大秀二人的深厚友情,但在上周 Ilya 还是宣布离职,并表示将投身于“对我个人而言意义重大的项目。”几分钟后,Altman 也在 X 上发帖,称“这让我非常难过。Ilya 是……我的亲密好友。” Sam Altman 和 Ilya Sutskever 于 2023 年 6 月 5 日在一所大学里共同发表演讲 但实际情况是,自从政变失败以来,这半年间 Ilya 就没有出现在 OpenAI 的办公室。他一直以远程方式领导超级对齐团队,以确保未来的 AGI 能够与人类利益保持一致。虽然想法不错,但却与公司的日常运营彼此分离,OpenAI 的主要精力完全放在 Altman 领导下的商业化产品开发方面。在 Altman 复职后不久,Ilya 还曾发布并迅速删除过这样一条推文: 这个月我学到了很多。与其费心运用各种手段,倒不如“棍棒底下出孝子”。 因此尽管对外总在刻意展示二人的亲密关系,但在经历了政变之后,Ilya 和 Altman 还能不能算朋友真的要打个大大的问号。 而 Altman 对“逼宫”一事的反应,也揭示出他性格中的某些侧面:除非董事会让他官复原职,否则他就拼个鱼死网破,而且坚持对董事会成员进行大洗牌以巩固自身地位,表现出牢牢把握权力的坚定决心,甚至直接消除了未来再次面临质疑的可能性。已经有多位前同事和雇员证明 Altman 就是个控制狂,当面一套、背后一套——比如他曾多次在人前强调安全,但实际工作时却根本不在乎。 举例来说,Altman 会从沙特阿拉伯筹款,希望借此建立新的 AI 芯片公司,为自己的 AI 前沿探索储备充足的算力资源。此事让关注安全的员工们感到震惊。如果 Altman 真的在以安全方式构建和部署 AI,为什么要以近乎疯狂的方式攫取芯片,不惜一切代价加快技术开发?他又为什么要跟沙特合作,坐视对方利用 AI 增强数字监控或人权侵犯等潜在风险? 内部知情人士指出,于员工们而言,所有这一切都导致了文章开头提到的“失去信任,因此哪怕 OpenAI 如何强调自己对某件事的重视,人们也都不再相信。” 而这个渐进的过程,在上周开始全面爆发。 超级对齐团队联合负责人 Jan Leike 就拿出了鲜明的态度。他在脱离 OpenAI 的几小时后就在 X 上发帖称“我辞职了。”没有温暖的告别,也没有对公司管理层的哪怕虚与委蛇的夸赞。 其他重视安全的多位前雇员则给 Leike 的离职帖点赞,同时加上了爱心的表情符号。Leopold Aschenbrenner 作为其中一位,就是上个月被 OpenAI 开除的超级对齐团队成员。媒体报道指出,他和同团队的另一位研究人员 Pavel Izmailov 因泄漏信息而被解雇。但 OpenAI 方面并未提供关于泄漏的证据。鉴于每位员工在加入 OpenAI 时都需要签署严格的保密协议,所以对于一位身经百战的硅谷老兵来说,Altman 完全可以将最无害的信息分享也定义成“泄漏”,借此把 Ilya 一系的员工全都清理出 OpenAI 之外。 就在 Aschenbrenner 和 Izmailov 被离职的同一个月,另一位安全研究员 Cullen O’Keefe 也离开了公司。 两周之前,公司一位安全研究员 William Saunders 在 EA 论坛上发表一篇神秘的帖子。EA 论坛是有效利他主义运动成员们的线上聚会场所,一直在积极参与 AI 安全事业。Saunders 总结了自己作为超级对齐团队成员在 OpenAI 所做的工作,写道“我于 2024 年 2 月 15 日从 OpenAI 辞职。”一位评论者则提出了核心问题:Saunders 为什么要专门发帖讨论这事? Saunders 回应称,“无可奉告。”用户们由此猜测,他很可能是受到了禁止负面评论协议的约束。 将上述消息跟公司内部人士的话语结合起来,我们至少发现有七位前雇员都曾努力在内部推动 OpenAI 的安全意识,但却最终对公司主导者彻底失去信心,并最终选择退出。 知情人士指出,“我认为公司里很多认真关注安全和社会影响的同事,心里都抱有一个悬而未决的疑问:为 OpenAI 这样的公司工作,到底是不是对的?要想让员工们放心,OpenAI 就必须对所做之事深思熟虑、同时承担起责任。” 4随着安全团队的解散,OpenAI 的工作安全该由谁保障? 由于 Leika 不再负责超级对齐团队的管理,OpenAI 任命公司联合创始人 John Schulman 取代了他的位置。 但该团队已经被掏空,Schulamn 也仍忙于处理他之前的主要工作,确保 OpenAI 现有产品的安全。在这样的背景下,谁能指望 OpenAI 会认真开展具有前瞻性的安全工作? 恐怕没戏。 知情人士解释称,“超级对齐团队当初建立的目的,就是如果公司成功打造出通用人工智能,那么必然会引发各种类型的安全问题。该团队实际是一笔面向未来的专项投入。” 但即使该团队满负荷运转,这笔“专项投入”也只能调动 OpenAI 内的一小部分研究人员,且只承诺为其提供 20% 的算力资源。现如今,这批算力可能会被移交给其他 OpenAI 团队,也不清楚是否将继续探索如何避免未来可能出现的 AI 灾难性风险。 需要明确一点,这绝不是说 OpenAI 当前发布的产品(例如能够与用户开展顺畅对话的最新大模型 GPT-4o)就会毁灭人类。但随着这项技术的快速发展,未来如何谁也不敢保证。 知情人士表示,“最重要的就是搞清楚他们目前是否正在构建和部署不安全的 AI 系统,以及能不能指望他们安全构建和部署 AGI 或者超级智能。前一条我不知道,但后面这点我认为是指望不上。” Leike 在上周五的 X 帖子中也表达了同样的担忧。他指出,他的团队一直在努力争取足够的算力来完成工作,但总体上可谓是“逆水行舟”。 之所以加入 OpenAI,是因为我觉得这里是最适合开展这项研究的场所。 然而很长一段时间以来,我跟 OpenAI 领导层在公司核心优先事项方面一直存在着分歧,这种分歧最终走到了临界点。 我认为我们应该将更多的资源花在为下一代模型做好准备上,具体包括安全、监控、准备、安全对抗稳健性、超级对齐、保密性以及社会影响等相关主题。 这些问题很难解决,我甚至担心 OpenAI 还没找到正确的路线。 过去这几个月间,我的团队一直在逆水行舟。有时候我们会在算力方面遇到困难,也让这项重要的研究变得愈发举步维艰。 其中最重要的一条,就是 Leike 提到“我认为我们应该将更多的资源花在为下一代模型做好准备上,具体包括安全、监控、准备、安全对抗稳健性、超级对齐、保密性以及社会影响等相关主题。这些问题很难解决,我甚至担心 OpenAI 还没找到正确的路线。” 当 AI 安全领域最举足轻重的从业者之一表示世界领先的 AI 厂商还没找到正确路线时,恐怕我们都有理由感到担忧。
一个不到 34MB 的独立游戏,居然能竞争年度最佳独游?
最近,独立游戏圈子有一个非常火的新作,叫做《 动物井 》( Animal Well )。 它应该是最近一段时间里评价最好的独立游戏作品,IGN 给出了 9 分,Steam 商店好评如潮,Metacritic 91 分。。。 就是这样一个口碑爆表,甚至可以冲击今年 TGA 最佳独游奖项的游戏,却只占了 33.37 MB 的空间,甚至不如微信上的沙雕群友发的一个搞笑视频大。 那么,这个游戏到底是有什么样的魔力呢? 随着游戏开始,屏幕上出现了四团火焰,它们逐一消失,随后我们控制的主角在一朵花苞中醒了过来。 这个游戏给我的第一感觉就是提示非常的少,比如游戏一开始的时候,除了 “ 醒来 ” 和 “ 跳 ” 这两个指令之外,再也没有任何多余的信息。 在这之后的过程中,也只有在靠近一些关键道具时,它才会吝啬地弹出几个字,提示我怎么使用。 尽管开发者看起来并不想像保姆一样手把手地教我玩游戏,但是在这个过程之中,我却自然而然地逐渐熟悉起了游戏的玩法。 比如一开始我遇到一个幽灵,它在看到我之后会径直朝我冲过来,导致我无法通过这个地图。 在反复尝试了四五次之后,我确定我没有办法通过这里,于是我便选择了走另外一条路,并且发现了很多散落在地上的爆竹。 之后的事情就很顺理成章了,在我又一次面对幽灵时,我丢出了爆竹,幽灵就被吓跑了。 《 动物井 》是一个类银河战士恶魔城类型的游戏,这类型的游戏的关键就在于 “ 探索 ” 。 这类游戏的特点就是很多地图的关键位置都会有障碍物阻挡我们前进,只有在获得特定的道具或者能力之后才能通过。 但是《 动物井 》和一般的类银河战士恶魔城不一样,它不注重战斗,或者可以说是基本没有战斗,反而是把着重点放在了解谜、平台跳跃以及收集上。 游戏中每一张地图的阴影之中,都至少有一个隐藏的元素,它可能是某条密道,有可能是一个隐藏蛋,也可能是某个特殊道具。 这些隐藏的地方往往都在很不起眼的角落里,很容易就会被忽视。 这些隐藏的道具在很多情况下并不会影响通关,但是在我知道有这种东西的存在后,我巴不得踏遍地图上的每一个像素点,用头去撞每一块阴影的位置,生怕自己错过。 《 动物井 》的另一大精妙之处就在于它的解谜设计,我完全可以在游戏里发挥自己的想象力,利用自己手头上有的资源做到最多的事情。 比如遇到狗狗拦路,可以丢出飞盘把它引开,可以用吹泡泡的棒子吹出泡泡进行二段甚至多段跳跃,到达原先跳不到的地方等等。 只要我的操作足够丝滑,甚至可以站在丢出去的飞盘上,划过整个地图。 而且游戏中的每一个小细节,都隐藏着相对应的谜题,并且有不同的解法。 比如主角在原地停留一段时间后会睡着,有时候脑袋上会出现一只梦里的兔子。 在某一个地图上,也有一个巨大的兔子图案。 我甚至不想告诉各位任何一道谜题的解法,因为这样会破坏各位的游戏体验,我只能给出一点小小的提示。 这些谜题绝大部分都可以在游戏里解决,有的则是需要到社区和其他玩家交换信息,拼凑起来才能获得完整的解法。 说这个游戏的主线流程其实很短,大概五六个小时就能通关,但是如果你想解开游戏里的全部谜题,在不看攻略的情况下,却基本上是不可能的。 有个拿到提前试玩的油管主播花了 100 多个小时都还有一部分谜题没解开,直到游戏正式发售后,才在无数玩家的共同努力下攻克了一个个的谜题。 就解谜部分而言,《 动物井 》的解谜深度是相当有趣的,但这也意味着你必须对得上作者的脑洞和想法,才能够获得最大程度的快乐。 最后,《 动物井 》的画面和音乐也是相当的出彩,如果再加上它只有 33.37 MB 这个限制条件,那几乎就是无可挑剔。 地图上的小烛台、小鸟、鸭子等等都可以和我产生互动,跳起来碰到烛台会晃动,丢出鞭炮后鸭子、龙猫会被吓到到处乱跑并且发出慌乱的叫声等等,游戏中的细节无处不在。 而游戏的地图按照动物分为四大区域,每个区域的小动物群落都有自己的特色,并且和主题环环相扣。 这些可爱的动物有的很友善,有的也会主动攻击我,但每一个的存在都有它的意义,比如喜欢和我贴贴的龙猫,就帮助我跳到了更高的地方拿到了钥匙。 总而言之,《 动物井 》是一个几乎没有短板的游戏,它的解谜设计精妙、场景音效氛围也很到位,细节更是拉到了满中满。 因此,虽然它 85元 的定价( 目前打 9 折 76.5 元 )在这类游戏里偏高,但我觉得是相当值得的。 最后说点题外话,在传说中,Animal Well 是一个神秘的地方,动物们会进入其中,治愈自己的伤病,获得神奇的力量。 它可以让动物们体验到平时无法经历的事情,拓宽它们的视野和认知,代表了对于未知世界的向往和探索精神。 我觉得,《 动物井 》这款游戏同样做到了这一点。 现在的很多玩家,包括我在内,其实都太过功利了,会忍不住去查攻略,想要尽快地通关一个游戏。 但是《 动物井 》是一个非常需要静得下心来玩的游戏,游戏没有给玩家设置明确的目标,随心所欲地玩才是最重要的。 在很多时候我们会不断地在几个地图重复打转,可因为这个游戏几乎没有提示,在反反复复出入那几张地图却毫无进展的时候,难免会让人感到有一丝丝的焦躁。 但当你找到了某条隐藏的密道、某个隐藏蛋甚至关键道具后,你产生了一个有趣的想法,你尝试了,你成功了。 这种靠自己解开谜题的乐趣,不正是探索精神的最佳写照吗?
百度回应副总裁梁志祥接管公关业务,京东支付可扫微信收款码,Kimi推出网页端付费,辛巴主账号今日解封,这就是今天的其他大新闻
今天是5月20日 农历四月十三 iPhone15 Pro 官方渠道 又降了 2000 块 如果叠加个以旧换新补贴 价格还能再低点 这降价力度可以啊 建议再保持一下 。。。 下面是今天的其他大新闻 # 百度回应资深副总裁梁志祥接管公关业务:此前为璩静上级 ( 新浪科技 )据媒体报道,在百度原公关副总裁璩静因短视频争议言论离职后,百度资深副总裁梁志祥已经暂时接管公关业务。目前尚不清楚是暂时接管寻找下一位公关负责人还是正式接管。 对此,新浪科技向百度方面求证,公司回应表示,梁志祥之前便一直主管百度政府关系( GR )和公共关系( PR )业务,原百度公关一号位璩静此前便是向梁志祥汇报工作。 根据资料介绍,梁志祥,现任百度集团资深副总裁,百度数据管理委员会主席。毕业于美国耶鲁大学法学院,获得硕士学位。之前曾获得北京大学法学院,澳大利亚新南威尔士大学法学院法律学位。 :这工作量一下子就饱和了。 # 京东支付可扫微信收款码了 5 月 20 日消息,近日,京东支付与微信支付实现互联互通,成为行业首家同时打通微信个人码和商家码的第三方支付机构。 据介绍,用户可以通过京东金融 App 扫描微信收款码进行付款。付款时还可享立减优惠,最高减 30 元。 京东官方表示,此次互联互通是在网联清算公司统一业务规则和技术标准下的接入,用户逛路边小摊、便利超市、菜市场等,凡是看见商家的微信收款二维码,都可以扫。 :第一眼:谁用京东金融扫微信啊;第二眼:有立减,那确实意义非凡。 # Kimi 推出网页端付费方案 近日,月之暗面旗下 Kimi 智能助手推出打赏付费功能,目前,该功能仅可在网页端 Kimi 智能助手体验,分别 5.2 元 / 4 天、9.99 元 / 8 天、49.9 元 / 40 天、28.8 元 / 23 天、99 元 / 93 天及 399 元 / 365 天 6 种打赏付费方案,打赏用户可在高峰期优先使用 Kimi 智能助手。 对于 Kimi 推出付费方案,月之暗面方面回应称是小范围灰度测试,“ 在服务高峰期提供更多选择 ”。 :想收费的话,不得搞点比现在更强的功能? # 辛选官方向快手致歉,辛巴主账号今日解封 5 月 19 日,辛选官方发表道歉声明,称旗下主播辛巴在 4 月 20 日直播中对快手平台发表不当言论,辛选集团官方对此表示歉意。 据悉,辛巴在今年 4 月份的一次直播中指出快手纵容情感主播“ 太原老葛 ”“ 马洪涛 ”将其编入剧本,并大骂“ 快手就是个垃圾平台 ”等,随后直播间被封禁。时隔一个月,今天( 5 月 20 日 ),辛巴的快手号直播权限将解封。 :没活了就让快手封一段时间。。。
三年内迎接AGI时代:OpenAI联合创始人John Schulman预测AI进化路线
在最近的一次访谈中,博主Dwarkesh与OpenAI的联合创始人John Schulman进行了深入对话。John Schulman领导了ChatGPT的开发,目前负责后训练团队。在这次访谈中,John分享了他对通用人工智能(AGI)和超级人工智能ASI的时间线预测,以及OpenAI的未来计划。 AGI和ASI的时间线预测 John Schulman预计,AGI将在2027年实现,ASI将在2029年到来。这意味着在未来三到五年内,我们将看到人工智能在科学研究和其他复杂任务上的自主性飞跃。John强调,虽然这些时间线不是绝对的,但进行这样的讨论仍然非常重要。 John还提到,AGI和ASI在某些任务上的表现可能不需要达到超人级别的智能,这引发了对AI实际能力的讨论。 能力与产品路线 根据John的描述,OpenAI的产品路线图如下: 2025/2026年:AI将能够独立完成整个编程项目,而不仅仅是提供编写函数的建议。模型将能够根据高层次的指示自行编写代码、测试并迭代。这将包括处理错误和边缘情况的能力增强。 长时间复杂任务能力:AI在执行和管理复杂的长时间任务上的能力将显著提高,能够使用为人类设计的网站,并在电脑上实现类似Clippy的主动性功能。 数据使用观点 John认为关于数据不足的担忧被夸大了。他提到,即使在数据有限的情况下,通过少量示例也能显著改善AI的性能。 更大的模型在样本效率上更高,能够从少量数据中生成正确的功能。因此,识别所需的功能并收集相关数据比生成大量数据更为重要。 构建与蒸馏模型 John指出,从头开始构建AI系统是复杂的,只有少数组织能够完成。然而,蒸馏现有模型或克隆其他模型的输出相对容易,即便这可能违反服务条款。一些小型玩家已经在使用这种方法来赶上领先者。 注:蒸馏模型是指将一个复杂、通常是较大的“教师模型”(teacher model)的知识提取出来,并传递给一个较小、较简单的“学生模型”(student model)。这种方法的目的是在不显著降低模型性能的情况下,减少模型的复杂度,从而使模型更易于部署和运行。 个人观点 AGI的实现近在咫尺:在未来三年内实现能够计划和执行长期任务的智能体,并在五年内扩展到更长的时间跨度,这是AGI的定义。当前数据主要是单回合响应,存在许多尚未开发的潜力。 数据不足问题被夸大:少量样本就能显著改善行为,表明识别所需功能并收集相关数据比生成大量数据更为重要。仍有许多未被充分利用的机会。 GPT-4o发布将完善反馈循环:4o的发布将为模型提供必要的数据以改进多回合响应能力。想象一下,4o访问你的桌面并协助项目,这将在三年内显著提升其能力。 随着AI的发展,编程的传统方式将逐渐过时。
GPT-4o重磅发布,但AI已经进入泡沫前期
GPT-4o很强,但没到颠覆世界的程度 前段时间OpenAI发布了GPT-4o(“o”代表“omni”)。简单来说它可以实现文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。且有诸多惊艳应用。 GPT-4o 的主要升级点在于打通任何文本、音频和图像的输入,相互之间可以直接生成,无需中间转换;此外 GPT-4o 语音延迟大幅降低,能在 232 毫秒内回应音频输入,平均为 320 毫秒,这与对话中人类的响应时间相似。 GPT-4o 不仅能通过视觉 AI 能力理解摄像头中发生的事情,同时还能够将理解的内容通过语音与旧版本 ChatGPT 交互,进行更加丰富有趣的互动。同时还支持中途打断和对话插入,且具备上下文记忆能力。 而且 GPT-4o 对广大用户来说它有个远超 GPT-4 的优点:免费。体验 GPT-4 级别的智能、从模型和网络获取响应、分析数据并创建图表、聊一聊你拍的照片、上传文件以获取摘要、写作或分析帮助、使用 GPTs 和 GPT Store、通过 Memory 构建更加有帮助的体验,这些功能全部可以免费获得。要知道 GPT-4 Plus 版本就因为收费贵、付款麻烦,使用门槛高让绝大部分人望而却步,能让更多的人用上便是 GPT-4o 的最大亮点。 但是现在能用上GPT-4o只有GPT-4 Plus版本,其他版本需要后续开放而且免费的GPT-4o次数有限,过了次数会直接转为GPT-3.5。 有业内人士认为,特别是在预告中 OpenAI 公司的 CEO Altman 甚至用上了 " 魔法 " 二字,相比之下 GPT-4 的神通广大、Sora 那种神笔马良的既视感,GPT-4o 显然称不上魔法。而且从多模态能力方面考察,GPT-4o 的能力并没有比上代有明显提升。哪怕是和 GPT 的老对手 Anthropic 的 Claude 3 相比也没有拉开差距,可以说从模型能力来看 GPT-4o 和 GPT-4 没有本质区别。 所以GPT-4o的发布更多像是一种抢跑,展现一种领先的姿态,也是维持热度刺激购买需求的一种方式。 有意思的是,就在GPT-4o发布24小时之后,谷歌也紧跟着发布产品颇有对阵叫板的意味。谷歌CEO桑达尔·皮查伊发布数十款Google和AI 结合产品,堪称“全家桶”级别,全面围剿Open AI。其中包括支持200万token长文本的Gemini 1.5 Pro和 Gemini 1.5 Flash,对标Sora的Veo,开源模型Gemma 2,支持生成式搜索的AI Overviews、第六代TPU等。 谷歌CEO桑达尔·皮查伊 整场开发者大会最大的看点为,谷歌推出的AI语音助手——Astra,它能够通过摄像头识别物体、代码和各种东西。现场演示视频中,用户要求Astra在看到发出声音的东西时告诉她,助手回答说,它可以看到一个发出声音的扬声器。对于一闪而过的苹果,Astra居然也能够准确回答出在眼镜旁边。除Astra外,谷歌还推出基于Gemini的多款通用AI Agent子系列产品。如音频的NotebookLM、音乐的Music AI Sandbox、视频的Veo、图像的Imagen 3,直接对标OpenAI发布的GPT-4o、Dall-E和Sora。 但问题也跟OpenAI类似,目前还不足以让开发者构建更加原生和杀手级应用,从推理能力到多模态能力都是如此。两家更像是你追我赶的算术级竞争,谁也没有拉开太多,自然就很难贡献震惊世界的应用。 也难怪马斯克在看过发布会后表示,GPT-4o的演示让他感到“不适、尴尬”。Andrej Karpathy大佬也用十分平静的语气给出技术总结,得到了马斯克的附议:他们发布的是一个在同一神经网络中结合文本-音频-视频三种模态并同时处理的模型,仅此而已。 大模型也要“精打细算” 去年生成式AI与大语言模型这一拨科技热潮在去年席卷了全球科技圈。无论是科技巨头还是新兴独角兽,都在争先恐后研发规模更大、性能更强的模型,进而引发了围绕AI芯片的军备竞赛,并让身为AI军火商的英伟达比前一年多赚了340亿美元。 但今年的情况已经显然没有那么乐观,务实谨慎的风格传遍了科技圈。科技媒体The Information报道称,「包括微软、亚马逊和Google在内的云厂商和其他销售该技术(指生成式AI)的公司,正在降低自己的预期」。一些人已经在担忧生成式AI吹出来的泡泡会不会已经太大了,它是未来,但可能不是现在,就像互联网如今已经是一门万亿美元级别的生意,但并不妨碍千禧年时吹出的互联网泡泡的爆炸结局。 关于OpenAI公司去年的营收,目前有两种说法,The Information称其2023年最后一个月的年化收入是16亿美元,而《金融时报》给出的数字是20亿美元。这个收入水平在AI行业绝对是第一梯队,但是跟微软每年提供给OpenAI公司不低于10亿美元的费用相比,仍然不算多,更何况Sam Altman雄心勃勃计划7万亿美元自建芯片工厂打造软硬一体呢?或许上市能解决OpenAI的投资难题,但是作为非营利性组织的OpenAI转为正常的私人盈利公司尚存在诸多问题,短期来看并不现实。 一大批刚刚在2023年晋升为独角兽的美国生成式AI公司,已经落入理想难以兑现的窘境。曾经在AI独角兽上排名前3的初创公司Inflection两位联合创始人跳槽微软,因为挖走了Inflection大部分员工,包括其创始人,微软同意向Inflection支付约6.5亿美元,以获得其模型授权,并补偿Inflection的投资人。 排名仅次于Inflection的另一家AI独角兽Cohere也被传出融资困境。这家公司自去年12月就开始寻求以60亿美元估值融资5亿美元,迄今没有确定交易,而它上一轮融资还停留在去年6月。按照大模型的烧钱速度,这些无法自我造血的独角兽原本每半年甚至每个季度都要有新的融资才能为继。 更为尴尬的是这些公司并没有明显推出强于GPT-4的大模型,虽然宣传上都是“各种领先”但实际体验下来差距不小。而且这些公司基本不具备盈利能力,成为资本弃儿,缺少后续输血也就不难理解了。 金沙江主管合伙人朱啸虎认为,大模型是很差的商业模式。问题是技术没有差异点,而且每一代技术比如3.5可能就要几千万美金,4.0可能要几亿美金,5.0可能要几十亿美金,每一代模型你都要重新去砸钱,而且你变现周期可能就两三年,这比发电厂还要差。 比如发电厂,在投了基建以后,基本上不需要再投入很多钱,但大模型是要每两三年就要砸更多的钱去升级,而且变现的周期可能就两三年。说实话这个商业模式是非常差的商业模式。 所以不管国内外AI投资都已经进入了要认真考虑成本收益的阶段,如果AI已经进入终局那么行业第二第三将变得价值极低,现阶段OpenAI领导者的地位仍然牢不可破,对于初创公司来说可能随时在“死亡边缘”。 去年的“宫斗”仍没有结束 去年 11 月,Ilya 与另外三名董事会成员一道,迫使该公司高调的首席执行官 Sam Altman 辞职,但后来他表示后悔。据报道,双方争论的焦点是对 OpenAI 方向的分歧:Ilya 对 Altman 以牺牲安全工作为代价而急于推出人工智能产品感到沮丧。Altman 在被赶下台的五天后就回到了 OpenAI,重申了自己的控制权,并继续推动越来越强大的技术,这让他的一些批评者感到担忧。Ilya 仍然是 OpenAI 的员工,但他再也没有回去工作。 Sam Altman(左)Ilya Sutskever(右) 今年5月17日,在公司联合创始人兼首席科学家伊利亚·苏茨克沃(Ilya Sutskever)周二宣布离职后几个小时,其超级对齐团队负责人之一詹·莱克(Jan Leike)也在社交平台X上发帖宣布辞职。 OpenAI超级对齐负责人Jan Leike,自曝离职的真正原因,以及更多内幕。一来算力不够用,承诺给超级对齐团队的20%缺斤少两,导致团队逆流而行,但也越来越困难。二来安全不重视,对AGI的安全治理问题,优先级不如推出“闪亮的产品”。 Jan Leike 这里先解释一下“对齐”是什么意思,由于GPT大模型的生成是黑盒机制产生内容是随机可控性弱的,难免产生不符合人类价值观的东西。所以他们在构建一个能与人类水平相媲美的自动对齐研究器,尽可能将相关工作交由自动系统完成,同时确保人工智能系统的行为与人类价值观和目标保持一致。 离开的也不只是对齐团队的人,OpenAI前工程负责人,曾领导过ChatGPT, GPT-4, DALL·E和APIs上线的Evan Morikawa也宣布离开,将与前波士顿动力高级机器人学家Andy Barry和Deep Mind研究科学家Pete Florence 和 Andy Zeng共同开展一个全新项目,并认为“这是在全球范围内实现 AGI 所必需的”。 有网友表示这听起来像是OpenAI想继续烧钱商业化,而不是确保前进步骤的安全。他们想成为大亨,而不是英雄。 对Jan Leike的长文开炮,奥特曼当然是不会就此作罢的了。很快他便发文“反击”:“我非常感谢 Jan Leike 对 OpenAI 对齐研究和安全文化的贡献,也非常难过看到他离开。他说得对,我们还有很多事情要做,我们承诺会做到。我会在接下来的几天里发一篇更长的文章。”不出意外的话,未来几天还会像去年一样,小作文反转不断。至于真相是什么,或许只有躬身其中的少数人知道,是非曲直其实对网友来说并不太重要。 重要的是此次“离职潮”表明了去年以来的内部矛盾并没有消弭,反而是隐藏转移爆发。归根结底的来说,Ilya Sutskever跟Sam Altman之争主要是技术原教旨主义者和市场激进派之间的矛盾。Jan Leike表示:“我相信,我们应该将更多的带宽花在为下一代模型做准备上,关注安全、监控、对抗性稳健性、超级对齐、保密性、社会影响等相关话题。这些问题很难解决,我担心我们还没有走上正轨。” 但Sam Altman一直以来在强调AI会如何颠覆世界创造出令人惊讶的产品,在疯狂地积累芯片甚至要自建芯片厂,来加速技术的发展。笔者认为两者之争是几乎所有AI从业者都要考虑的事情,技术当然可以促进社会生产力发展,但也会带来一系列安全问题和风险。 Sam Altman未必真的是唯利是图一心只想赚钱,他所说的重视AI安全不一定是谎言。但作为管理者要考虑公司的长久运营,能兼顾是最好不能兼顾那就需要有优先级。目前AI对齐所需算力并不小而且对齐之后的AI性能下降明显,这可能是Sam Altman无法给对齐团队满意安排的重要原因之一。当然真实情况可能更复杂,但迈向下一个时代的科技生产力,如果没有足够的商业利益一切都会是空谈。 如果OpenAI完全放弃对齐或者不重视,那对未来的GPT-5来说将是巨大的风险,商业化被迫戛然而止也有可能。总之,我们希望出现一个更好更开放的OpenAI,而不是把问题都丢给社会。 中国大模型也无需自卑 近一个月国产大模型让市场产生了正在追平美国的印象,很多亮点也来自初创企业。月之暗面将上下文长度扩展至200万token;Minimax出海陪聊应用Talkie日活接近 Character.AI;发布了Vidu的生数科技,提出U-ViT架构比Sora还早;开源模型DeepSeek在保证性能的前提下,让成本降至1块钱百万token输入。 有些文章说国内AI都在卷价格只有国外在卷功能,其实并不客观。推理需求已经真实存在了。去年底发布以来,阿里巴巴近1.7万中小外贸商家订购了AI生意助手,发布了上百万商品,搜索量提升近四成。字节跳动将豆包大模型接入了抖音、飞书等业务,日均处理1200亿token文本,但没有公布参数等细节,可能是因为与Tiktok用了类似的推荐算法。百度文心大模型日处理文本2500亿token,日均调用量为去年底的4倍。腾讯已经把混元大模型用在了会议、读书与游戏客服上;AI支持的广告服务的点击率与交易量也在上升。 开源大模型通义千问已经火到国外去了,有太多外国人在讨论和使用(通义千问)Qwen大模型。 通义发布1100亿参数开源模型Qwen1.5-110B,该模型在MMLU、TheoremQA、GPQA等基准测评中超越了Meta的Llama-3-70B模型;在HuggingFace推出的开源大模型排行榜Open LLM Leaderboard上,Qwen1.5-110B冲上榜首,再度证明通义开源系列业界最强的竞争力。 或许有人会质疑跑分成绩,但是面向C端主打全功能免费的通义,却是真香了。同时通义千问 APP 还升级为「通义 APP」,集成文生图、智能编码、文档解析、音视频理解、视觉生成等全栈能力,想成为用户的「全能 AI 助手」。 写在最后 无论是OpenAI还是国内的AI企业,都离不开金融资本和产业资本的运作,过于排斥商业化并不是好事,但也应该有底线取得安全与效益的平衡,只有这样才能实现科技创造美好未来。历史上的重大技术进步往往伴随着金融泡沫,这是新技术推广的自然组成部分。AI有泡沫并不可怕,可怕的是技术的基石不牢,难以解决现实中的种种问题,最终难以落地变成“全都是泡沫”。
看完国外媒体的充电头后,我开始替他们窒息了
今天托尼打算跟大家聊一个很重要,但是大家又经常忽视掉的数码 3C 配件,这玩意儿叫做充电头。 事情是这么回事儿,去年我们参加上海 MWC 展会的时候,发现只需要通过充电头就能分辨这是中国的媒体老师还是从外国来的。。。 比如这张非常直观的图,中间那两个头重脚轻,有一个甚至大的跟板砖一样的充电头,大概率就是日韩媒体老师在用。 而两边 “ 花里胡哨 ” 的 Pandaer 和红魔充电头,一眼中国媒体老师。。。 确实,托尼也发现不知道从什么时候开始,国内的各种各样的充电头开始多了起来,就连这么小的一个玩意儿也要卷外观、卷功能、卷价格。 这确实跟大家的出行需求增加有关,需要带一个更方便好用的充电头来充电,大家肯定希望这玩意儿越方便携带越好。 另一个就是现在大家的数码产品越来越多了,手机、平板、手表、电脑甚至是电动牙刷,几个 USB 口分分钟给你插满,自然就需要一个功率又大插口又多的充电头。 以及, iPhone 现在不给充电头了,得自己买。。。 这几样原因加起来,促成了国内充电头市场一片繁荣的景象。 比如同事手里这个红魔氮化镓充电头, 120W 大功率加上 4 接口,还有变形金刚联名外观,从里到外都堪称豪华。 但国外却完全是另外一番景象,充电头不仅贵的要死,功率也小得可怜。。。 比如我随便从亚马逊一搜,出来的第一个毫无设计的 4 口充电头,总功率居然只有惊人的 24W 。。。 你来给我解释解释,什么叫 TM 的优质性能? 托尼不知道这个充电头是哪里的品牌,但是说一句美国数码爱好者活在水深火热之中,应该不过分。 那么问题来了,为啥国外的充电头又大又丑充电又慢,充电功率就不能做大点,或者把充电头做小点吗?是歪果仁不喜欢用好的充电头吗? 嗯。。。是,也不是。 在座的各位可能会想不到,要真想把充电头这事儿讲清楚,还得从两部分说起,一个是市场策略,另一个是历史遗留问题。。。 差友们可以简单想想,你会发现充电功率提上去的,基本都是国产品牌,而国外品牌的手机充电功率,都低的离谱。 大伙如果已经记不清国外还有哪些手机品牌了,托尼可以简单帮大伙捋捋。 首先果果大家肯定知道吧?但 iPhone 15 Pro Max 的充电速度实测最高也就 25W 左右,甚至只有国产手机的零头。。。 另一位卧龙凤雏三星呢,他家的 Galaxy S24 充电功率也只有 25W ,而 S24+ 和 S24 Ultra 倒还说得过去,有 45W 。 其实说完这两家巨头,就可以概括出世界上很多人使用的手机充电功率有多低了。。。 而且好巧不巧,这二位偏偏是世界上智能手机市场占有率前二的品牌,俩牌子加一起占了全球 43% 的份额。。。 这两个品牌,又正好是海外市场销量的主力军。 到时候别的牌子一看,这俩老大哥都不做快充,那我还做个什么劲儿啊? 除了果果和星星,海外还有一些对咱们来说比较小众的品牌,比如杂牌手机索尼 Xperia 1 V 的充电功率就只有 33W 。 谷歌自家的 Pixel 8 Pro 嘛,也就 30W 。 至于 Nothing Phone(2) ,倒是给了一个 45W 的充电功率,这在外国品牌里已经算快的了。。。 所以这么一看,外国手机品牌充电功率普遍都很小,确实是真的。 怎么说呢,咱们国内的手机 80W 充电都能被人吐槽成缺点,结果国外 45W 都算很快的了,主打一个人与人的悲欢并不相同。 但也有一个不算反例的反例,自从摩托罗拉被联想收编之后,他的配置也跟着开始内卷,比如 moto X40 的充电功率直接冲到 125W ,主打一个入乡随俗。。。 但整体看下来,这些外国牌子就跟说好了一样,充电功率都不算大。 就好像不是大家不做快充,而是快充这个东西压根就没出现过,不知道是我们被架空了,还是我们架空了国外。。。 关于这种情况,网上还有一种说法是国外生活节奏慢,不需要快充,不像我们要一早上起床就得插上充电器把手机充满啥的。 对于这种说法,我只能说你是不是 《 意林 》 看多了。。。 这就跟为啥外国地铁人们都在看书一样,不是因为人家爱看书,是因为地铁没信号不能玩手机。。。 等快充有一天在外国传开了,你看他们用不用就完事儿了。 至于另一个原因嘛,就是历史遗留问题了,这事儿甚至得从爱迪生刚发明直流电那个年代讲起。。。 让我们回到一百多年前,爱迪生发明直流电之后,世界上第一座中央发电厂在纽约闪亮登场,里面装了 3 台 110V 直流发电机。 随之而来的就是第二次工业革命,美利坚上上下下都铺上了电线,电灯等照明设备走进了千家万户。 但在这之后,美国人突然发现,想要通过提高电压来提高电力传输的效率,比如把当时的 110V 提到 220V,却有点困难了。。。 因为政府这时已经把 110V 线路铺了个七七八八,老百姓们买的家用电器,也都是 110V 来的,现在想改成 220V ,你这让大家很难办啊。。。 所以一来二去,美国就把这 110V 电压给流传下来了。 结果万万没想到,一百多年前定下来的规矩,居然会影响到智能手机时代的充电速度。。。 这里呢,就不得不有请我们的受害者一加登场了。 当年一加 10 Pro 发布的时候搭载了 80W SUPERVOOC 闪充,而作为为数不多能在美国发售的国产手机,国外数码爱好者也很期待。 结果美国那边拿到手机充上电,发现事情不对劲儿了。。。 不是,哥们儿,你这手机充电功率怎么只有 65W 啊。。。 原因也很简单,因为一加的 80W SUPERVOOC 闪充不支持 110V 或者 120V 交流电。 唉,我堂堂 “ 充电五分钟,通话两小时 ” 的绿厂,啥时候受过这委屈。。。 当然,也不一定所有充电器都是这样。 我们专门问了一下闪极的人,他们说一般充电头只要是宽幅电压,比如上面标着 100V-240V 之类的,那么在其他国家也是可以跑满的。 不过在充电头网专门做的 110V 环境下的测试中,有些充电器的功率也会有所下降。 另一方面,低电压还会让充电头设计起来更麻烦,也可能间接地导致了充电头变丑。。 比如我手头这个闪极 100W 充电头米家蓝牙版 ,因为蓝牙芯片的电压适应比较复杂,所以这颗充电头的适用功率就调整到了 180V-240V 。 结果就会导致我拿它到美国或者日本用的时候,只能输出 50W 的功率。。。 而它的非蓝牙标准版,适应电压就是宽幅的 100V-240V ,就没有这个 “ 功率砍半 ” 的问题。 如果又想带蓝牙又想做全球电压的话,就要修改很多电路,但这样的话,到时候电压不是问题,体积又跟着上去了。。。 另一方面,一些国家由于插座标准等原因,也影响到了插头的颜值,让体积 “ 居高不下 ” 。 说的就是英国和一系列英联邦等国家,我从来没见过那么老大的充电头。。。 托尼之前有一次去新加坡,也是提前买好了转接头,然后就出现了 “ 头上加头 ” 的叠罗汉画面。。。 这个主要也是用电规范不同,英国这种设计有点奇葩的插头也叫做 Type-G 或者 BS 1363 插头,这种三插头中,最上面的叫做地线,下面那俩叫做零线和火线。 而英国这种插头,地线要比零线和火线长一截,也就是说,在火线和零线接入之前,地线就已经接好了。 这样就算电器漏电了,电流也会先走地线,不会让人过电。 而且英国插头的四周面积也更大,手更不容易碰到插销,确实是相对更加安全。 那么代价嘛,就是这种又大又丑又笨重的充电头了。。。 所以这么一圈下来,本来国外的厂商就没有做快充的打算,也不知道是不是约好了,你不做那我也不做了,主打一个摆烂。 再加上一些国家的电压和插头规格也不一样,所以要想达成世界充电头大统一,人人都能用上小巧漂亮充电快的充电头,实现充电自由,目前看来基本不可能做到。。。 无论如何,还是希望咱们的国产品牌能积极出海,让更多人用上好看又好用的充电头吧。 反正,下次出差,托尼已经打算带上办公室最酷炫的充电头给老外们开开眼了。。。 撰文:百威 编辑:米罗 & 面线 美编:萱萱
买了5台家电后,我被迫下了4个APP…
前段时间,世超刷到一条微博。 说海尔( 欧洲 )给一个叫 Andre Basche 的开发者发邮件,要求其删除 GitHub 上 2 个项目。 因为它们违反了海尔的服务条款,对公司造成了重大经济损失。 如果不删的话,那下一步就是法律行动了。 乍一听,事情还挺严重的。到底是啥项目,能给一个家电巨头造成重大经济损失。 于是世超就跑去搜了一下,发现这是 1 月份的事了。 虽然是个老新闻,但世超觉得它和大家息息相关,屏幕前的你,可能也在面临这个问题,还是决定讲一下。 大家都知道,现在买一个智能家居,都得下载它的 App 来控制。 在欧洲,用户要控制海尔和旗下品牌的智能家居,需要用到海尔一个叫 hOn 的 App 。 如果你不喜欢用 hOn 呢。 其实也行。 借助 Andre 开发的 hon 插件,就可以让你跳过海尔的智能 App ,来控制其品牌的空调、冰箱、洗衣机等等。 听起来还不错。 但它似乎也是一个能让海尔不开心的操作。 在收到警告邮件的第一时间, Andre 懵了。 不是,哥们插件就 3000 个活跃用户,也能惊动海尔( 欧洲 )吗? 然后他跑去 Reddit 上发了一个帖子,没想到热度就爆了。 因为看完后,大家能想到的就是海尔在强迫用户用自家的智能 App 。 更讽刺的是,海尔 2 年前就是连接标准联盟( CSA )的成员,而 CSA 目标就是要 “ 推动通用的开放物联网标准 ” 。 这下好了,网友的愤怒被点燃了。 评论区里有一堆人表示,不会再买海尔。 还有人开始给大家推荐别的品牌,说人家物联网平台做的不错。 也有网友吹起反攻的号角,号召大家去应用商店给海尔打 1 分。 甚至有网友开始给开发者联系律师,记者来寻求帮助。 事情,就这么闹大了。 Hackaday 、 Tweakers 、 ilSoftware 等各大科技媒体都报道了这件事。 一时间,海尔的名誉似乎跌到了谷底。 眼看事态严重了起来,海尔( 美国 )都跑出来回应,说这事跟他没关系,他们是支持开放物联网平台。 而当事人海尔( 欧洲 )也给出了更详细的解释,就是说这个插件会让海尔的 App 更频繁地发送请求,会产生大量的费用。 虽然海尔动手的真实原因,我们不得而知。故事的后续是海尔态度放缓了,这个插件目前也还能下载到。 但你有没有发现重点: 一个只有 3000 左右用户的插件,为什么在被下架时会产生蝴蝶效应,引起这么大的反应? 这就不得提到,当今国内外用户都苦智能家居 “ 牢房 ” 久矣,而开发插件的 Andre 就是打开 “ 牢房 ” 的一批人。 智能家居确实给生活带来了很多便捷。 你买了某个品牌的洗衣机、空调、插座,只要下载这个品牌的智能 App ,就可以随时在手机上操控这些设备。 可一旦智能家居稍微买多了一点,品牌杂了一点,你的烦恼就开始了。 比如世超每次想操控某一个设备,就得先用原本就不多的脑细胞,思索一下: 我要开的这个插座,是哪一家的。 我这个烘干机,要去哪个 App 控制。 这也就算了,每个 App 打开后,还要注册账号,完了布局和操控逻辑,也要再适应一遍。 类似的情况很多人都遇到过。 比如 B 站一个《 智能家居接入 iPhone 家庭 》的教程下方,有人吐槽没法联动的。 有人嫌弃厂商做的软件太拉,实在不想用的。 各家的设备都被圈在了各家的牢房里,你要用专用钥匙,才能和他们进行交互。 你可能说,都买一家的品牌不就没这回事了。 确实。 比如我们公司同事米罗,买的所有智能家居都是支持米家,他就没这个烦恼。 但很多时候,买家居设备特别大型电器时,要关注的因素太多,不可能仅仅只看品牌。 所以这种情况,不可避免。 那有办法解决吗,有。 GitHub 上有一个智能家居平台 HomeAssistant ( HA ),可以把各家品牌的设备集合到一块地方,统一交互。 就好比它手头有一大串钥匙,可以开启所有品牌的 “ 牢房 ” 。 像 B 站有 UP 主就借助 HA ,把所有智能家居都集成到了苹果的家庭 App 里统一控制。 不过它的使用门槛很高,要先把 HA 装到电脑或树莓派上,然后装上对应品牌的插件。 比如要把小米设备接入 HA ,要安装一个叫 Xiaomi Miot For HomeAssistant 的插件。 要把海尔品牌的设备接入 HA ,就用 Andre 开发 hon 插件。 如果某个品牌没人开发,那还是没法集成进去。 所以对大家来说, Andre 们就是打通智能家居牢房的布道者。如果他们被搞了,必然要高喊一句 “ 为众人抱薪者,不可使其冻毙于风雪 ” 。 至于厂商们为啥都要出独立的智能家居 App ,也是老生常谈的话题了,无非是抢抢生态嘛。 但可能大家不知道的是,这些 App 价值非常高。 根据 QuestMobie 数据, 2023 年 2 月智能家居 App 月活用户已经有 2.65 亿。 头部米家有 6000 万月活。即便是处在腰部位置的 App ,也有几百万的月活。 这么大的用户基数,对于厂商来说是就是一座青山。 有山在,还怕没柴烧? App 可以收集用户个人信息、行为交互、偏好设置,更好理解用户喜好。 随着用户基数变得庞大,那厂商就可以和第三方广告商合作,推送广告。再往后,就可以和其他品牌合作,吸引入驻,那么别人的用户也是你的用户了。 就算不做广告,不谈业务,不搞合作,这么大的流量,开个超市也够你嚯嚯的。 抛去这些不说,做自己的 App 也可以增强用户粘性和控制权,更容易购买自家其他产品,完成了生态闭环。 假使某个厂商寄人篱下,不做独立 App , 就意味着它不仅要把青山拱手让人,而且要面临一堆新难题。 首先,用户体验很难控制。 当你依赖于别家平台时,很多东西不是你说得算了。上新功能,发布新品,都得等着平台去给你适配,失去了主动权。 其次,开发成本变高了。 举个例子,要接入米家,硬件要增加小米物联网模组,软件要适配小米模组硬件和协议,改板改模都要投入人力物力。 所以搞独立 App ,很多时候也是厂商们不得已做的。除非是小厂,加入米家反而利大于弊。 其实这个问题行业内也想解决,也一直想造个秦始皇出来。 2022 年正式发布的 matter 协议标准,就是为了打破不同设备和生态之间的壁垒。只要大家都支持 matter 协议,那么不同品牌智能家居也能互相兼容。 目前来看呢,它的势头还挺不错。 亚马逊、三星、苹果、谷歌都已经开始着手支持 matter 协议。 虽然不可避免在推行路上会遇到各种障碍,但时间会解决一切。 我们能做的,也就是期待统一的那天,能早点到来吧。 反正我真受够要下这么多 App 了。。。 撰文:刺猬 编辑:莽山烙铁头 封面:☀️
2599元起,魅族21 Note正式开售 同价位少有白色面板
【CNMO科技消息】5月20日晚8点,备受关注的魅族21 Note手机正式开售,这款魅族新机共提供了16GB+256GB与16GB+512GB两种内存规格,售价2599元和2799元。 魅族21 Note采用了骁龙8 Gen 2移动平台,不仅性能强劲,更在能效比上有着显著提升。这款处理器的加入,使得魅族21 Note在处理复杂任务和高负载游戏时都表现出色,同时也保证了长时间使用的流畅性。内存方面,魅族21 Note全系标配16GB LPDDR5X内存,提供256GB与512GB两种存储选项,满足了不同用户的需求。 在外观设计上,魅族21 Note提供了魅族白与无界黑两种配色,其中前者正面依旧保留了魅族的经典设计,采用了当前十分罕见的白色面板,有着非常高的颜值。新机厚度仅为8.2mm,重量控制在205g,铝合金中框搭配玻璃后盖,展现出简洁而不失高级的设计感。手机正面装备了一块6.78英寸的8T LTPO 1.5K 144Hz直屏,支持1-144Hz的自适应刷新率,全新U8低功耗屏幕发光材料的使用,更是在保证显示效果的同时,大幅降低了能耗。 在影像配置上,魅族21 Note前置了1600万像素的三星S5K3P9摄像头,后置则是5000万像素的主摄(三星S5KGN5,支持OIS)加上1300万像素的超广角摄像头(三星S5K3L6),无论是日常拍照还是专业摄影,都能满足用户的需求。 此外,魅族21 Note还内置了5500mAh的大电池,支持66W的有线快充,兼容市面上主流的USB PD通用充电协议,无论是续航能力还是充电速度,都有着出色的表现。 值得一提的是,魅族21 Note还搭载了全新的Flyme AIOS系统,这一系统的推出,标志着魅族在AI领域的深入布局。Flyme AIOS带来了诸多智能化的新功能,如连麦对话、AI网页总结、AI文档解读等,极大地提升了用户的操作便利性和效率。
58同城孙启明:生活服务垂类大模型怎么搭?自研+开源两手抓,火速微调上线Llama 3|GenAICon2024
作者 | GenAICon 2024 2024中国生成式AI大会于4月18-19日在北京举行,在大会第二天的主会场AIGC应用专场上,58同城TEG-AI Lab大语言模型算法负责人孙启明以《生活服务领域垂类大语言模型建设和应用》为主题发表演讲。 孙启明详细介绍了58同城搭建生活服务垂类大模型体系的思路和心得。据他分享,58同城正在进行整体改造与产业化升级,力图实现整个服务链条中的信息流程在线化和数字化。为了支持这一转型,58同城AI Lab构建了模型领先、敏捷易用的AI平台,以助力AI应用在其内部四大业务线的快速落地。 在孙启明看来,通用大模型+提示不会代替一切,应用方需要结合自身业务场景,微调出自己的大模型。目前58同城每天都有大量的大模型训练任务在进行,四大业务线都用大模型提升服务体验,迄今其线上模型数量已经超过200个。 58同城搭建了一套支持大语言模型训练、推理的平台,基于该平台推出垂类大语言模型灵犀大模型(ChatLing),相比官方开源大模型实现了更好效果。除了自研模型外,58同城还积极集成开源通用大模型,并能快速响应最新开源模型的发布。 例如,4月18日晚间最新的Llama 3模型刚开源,第二天下午58同城就火速在自家AI平台上线这款新开源模型。 以下为孙启明的演讲实录: 我将主要介绍我们是如何构建相关垂直领域的大模型平台,并以此赋能58同城的线上业务产品,从而带来了较为可观的线上收益。 首先,让我做一个简短的自我介绍。自从毕业后加入58同城,我的工作重点一直集中在推荐系统、NLP(自然语言处理)以及大模型技术等领域。目前,我负责58同城大语言模型的技术方向,并主导了公司内部大模型平台从0到1的建设工作。 58同城作为一个服务平台,其主营业务涵盖四个主要方向:生活服务、房产、招聘和汽车。 我们目前对业务增长的策略进行了“第一曲线”和“第二曲线”的划分。“第一曲线”指的是我们传统的流量模式,即潜在客户通过购买58同城的会员服务,成为我们的B端商家,这些商家在58同城平台上发布信息。而C端则浏览这些帖子,并与商家直接进行交互和后续沟通,这就是我们的流量生意模式。我们的每条业务线,包括维修、房产等,都有相应的案例展示。 通过这种方式,58同城不仅提供了一个信息发布的平台,还促进了B端商家和C端消费者之间的直接联系,从而实现了双方的需求匹配。 一、服务平台借力AI转型,智能助手实现初步筛选和留资 大语言模型的建设和应用,将进一步优化流量生意模式的过程,提高用户体验,增强平台的服务质量和效率。 58同城正在进行整体的改造和产业化升级,力图通过第二曲线战略实现业务模式的转型。 我们的目标是将整个服务链条中的信息流程在线化和数字化,以此无缝连接上下游环节,提供一站式服务,让客户能够在我们平台上完成更多事务,而不仅仅是简单的流量生意。比如用户可以在58同城平台上直接寻找保姆、月嫂,或者完成房产领域的相关工作。 为了支持这一转型,58同城AI Lab致力于建立一个领先、敏捷且易用的AI平台,旨在促进AI应用在各个业务线中的快速实施和落地。 我们设计的流程图从底层的AI算力开始,包括GPU、CPU、NPU等通用技术平台资源。 在技术平台层,我们进行整体的算法引擎设计,包括算力管理、大规模集群调度,以及离线和在线性能加速。 在算法模型层面,我们的平台涵盖了图像、语音、传统NLP算法、3D建模,以及新兴的大语言模型和多模态大模型。 在技术平台层之上,我们构建了应用平台层,提供了包括智能对话、客服服务、VR看房、AIGC图片生成、数字人克隆互动等服务。此外,我们的Agent(智能体)包含工作流和知识库插件,以适应不同领域的应用需求。 最终,基于整个AI应用平台,我们进一步赋能公司内部的AI应用,包括销售、客服以及线上产品、运营和办公等各个方面。 目前这套流程在公司内部运行得相当顺畅,每天有大量的大模型训练任务在进行,我们四大业务线基本上都能够利用大模型来提升服务。以今天为例,我们线上训练的模型数量大约有200多个。 在应用方面,我们上线了一个B端商家智能聊天助手。这个助手主要应用于招聘场景,尤其是在58同城平台上,我们发现有很多蓝领岗位的招聘用到了这一助手。 招聘方可能没有足够的客服团队来及时响应每一个投递简历的商家,这时,我们的智能助手就会接管对话。它基于大模型和职位相关信息,能够主动询问投递者是否具备一些基本的工作经验,是否能够满足职位的基本要求。同时,如果用户对公司的位置、职位的待遇等信息有疑问,智能助手也能够基于大模型提供相关内容,进行简单的沟通。 智能聊天助手的核心功能在于AI留资和初步筛选。对于求职者而言,AI需要与其进行有效沟通,获取简历,并判断其是否符合招聘方的基本需求。 在理想情况下,我们希望AI能够做到更进一步,即为招聘方直接提供已经通过面试的人选。甚至可能由AI完成整个面试过程,直接判断求职者是否适合入职。 如果能够实现这一点,相比传统的仅提供流量的业务模式,使用大模型作为聊天助手将是一个巨大的提升。后者的优势在于它们能够更好地理解和处理复杂的对话场景,提供更为精准和个性化的交互体验。 我们尝试了两种大模型应用方案。 首先,我们尝试了一种端到端的方法,让大模型全面接管并处理整个聊天过程,包括适时的回复和沟通交流。然而,我们发现这种方法并不理想。随后,我们转向了传统NLP方法的参考,这些方法包括自动回复、文本分类、文本匹配和问答知识库。 此外,还有主动引导策略,它基于状态机进行回复,例如,在解答了一个问题之后,系统会根据配置好的话术适时提出下一个问题。最后是槽位识别,它根据用户提供的内容进行设计和回复。但这些传统NLP方法过于依赖知识库,且维护成本较高,尤其是在信息快速变化的情况下,比如经济趋势变化或新兴职位的出现,传统知识库的更新维护尤为困难。 我们的团队负责58同城线上众多场景的知识库服务,面对知识库信息的不断变化,我们尝试采用自动化挖掘技术以减少手动更新的需求,但目前这些技术仍未能达到手动更新的效果,尤其是在多样性方面存在不足。 我们对AI对话系统的评估非常严格,尤其是在对话的流畅度方面,我们通过设定正确标准来评估机器人在对话中的每一句话是否恰当,任何不符合标准的回复都会导致对话流畅度的下降。我们的目标是使对话流畅度达到80%,这是衡量机器人能否替代人类工作的指标之一。 二、汇集自研和第三方模型,Llama 3已上线平台 我们紧跟去年ChatGPT等通用大模型的发展趋势,开始探索各类模型。 我们与业界的共识是,通用大模型结合提示工程并不能解决所有问题,尤其在实际应用中,我们不能仅依赖聊天能力来应对所有问题。尽管一些开源或闭源的商业模型在日常对话中表现良好,但在业务场景中,它们难以达到99.9%以上的准确率。 因此,我们开始着手构建一个平台,旨在支持大语言模型的整个训练和推理流程,并与各个行业中效果显著的API进行集成。我们希望公司内部所有业务部门都能利用上当前最好的模型。 我们的平台架构分为几个层次,首先是设施层,它提供了必要的硬件资源和计算平台。在模型层,我们集成了多种开源序列模型,包括Llama、Qwen、Baichuan、Yi等。我们自建的“灵犀”平台也训练并集成了我们的模型ChatLing。 在工具层面,我们提供了当前性能优秀的推理加速框架,如vLLM、TGI、TensorRT-LLM、EnergonAI,以及训练方面的微调工具,包括对齐方式和封装了MoE建模方式的工具。 这样的封装设计使得我们的业务线研发人员,甚至是非技术背景的同事,可以不必深入了解复杂的技术细节。他们只需要准备好数据,通过平台的简单点击操作和数据集配置,利用我们提供的优秀默认参数,或者使用我们的工具对这些参数进行微调,就能训练出适合自己行业的大语言模型。 我们构建了名为ChatLing的灵犀大语言模型,这一过程得益于我们之前提到的大语言平台,使得预训练、SST、领域微调和强化学习对齐这三个阶段的流程能够顺利执行。 我们并没有完全采用从零开始训练的策略,因为这需要大量的高质量语料,而且当前的模型训练通常需要处理至少1.5T到2T的Tokens。 为了高效利用资源并快速迭代,我们选择了基于已有的、国内外表现良好的开源模型作为基础,即所谓的“基座”。在这些基座之上,我们结合58同城的业务数据,使用经过清洗的、规模达几百亿的高质量语料进行增量预训练,随后执行微调和强化学习,以进一步提升模型的性能。 通过在开源通用基座上完成这三个阶段的训练,我们得到了灵犀大模型,该模型随后被用于赋能58同城的业务应用。 这个流程的灵活性体现在,一旦有新的开源模型发布,我们的团队能够迅速响应。4月18日晚上Llama 3刚开源,4月19日下午我们已经完成了基于该模型的微调训练和强化学习,并且已经上线了新模型。这意味着4月19日晚上我们的业务部门就可以开始使用基于Llama 3微调的模型。 我们致力于开发和采用多种技术来优化大语言模型的推理资源使用,这些技术目前正被积极地应用于我们的业务中。 其中一项技术是MoE,我们创建了一套自动化流程来构建MoE模型。这一流程允许不同模型根据自身需求,选择多种实现方式,包括类似Databricks的方法、传统的Mistral方式,或TM2等,来生成其基座MoE模型。此外,我们完成了基于MoE模型的微调和训练工作,使得模型能够更加精准地服务于特定的业务场景。 我们还采用了S-LoRA技术,这是一种广泛使用的微调方法,尽管有人质疑其与BERT直接微调的差异性,但我们通过集成LoRA的方式,允许一个基座模型兼容多达上千个LoRA模型,实现每个场景的个性化定制。这种方法可以根据线上流量的多样性进行批次拼接,与基座模型结合进行推理,极大程度地节约了资源。 在大模型的训练和推理加速方面,我们采用了包括Unsloth在内的传统方案,以及在Flamer上实现的微调技术和增量预训练中的Flash Attention技术。此外,我们利用基于HQQ的推理加速技术。尽管存在一定的硬件资源上限,例如使用两张4090显卡来支持千问72B模型的推理和微调,但这已是我们目前的极限。 三、大语言模型支持多种合作模式,灵活应对不同业务方 我们的平台建设支持多种合作模式。 对于内部没有算法团队的应用方,我们提供了Agent平台,类似于智谱和千问提供的能力。这个内部Agent平台允许用户通过低代码甚至零代码的方式快速创建机器人,并通过拖拽的方式构建大模型的工作流。 例如,创建一个查询天气的机器人或调用内部接口的服务,用户只需拖拽相应的流程模块,比如大模型处理流程、知识库流程、接口调用流程,以及让大模型自检工作流正确性的流程。完成后,用户一点发布即可生成API,供业务方直接接入。 这种简便的使用方式,提高了大家的使用满意度,并在公司内部得到了广泛应用。 对于应用四,我们直接提供API接口,但不包括Agent平台。这种方法适合于那些认为无需微调模型即可直接使用的场景。我们接入了多种商用模型,如文心一言、智谱AI(的GLM)、通义千问等,并结合我们自己的ChatLing模型,以便快速部署。 针对需要微调的场景,我们提供了三种不同的支持方案。 应用三是我们较为常见的做法,包含一个专门的微调团队,他们基于灵犀大模型为业务提供定制化的微调服务,从而实现平台对业务的赋能。 对于应用二,业务方拥有自己的算法团队,因此不需要ChatLing大模型团队的直接参与。在这种情况下,算法团队可以直接在我们的大模型平台上进行深入的定制化微调和相关操作。 对于那些算法能力特别强的业务方(应用一),他们可能不需要基于灵犀大模型或经过Instruct调整的模型进行微调。对于这样的情况,我们同样提供支持,包括必要的参数配置以及后续的Prompt优化服务,帮助业务方对微调数据进行思维链式的优化和重现。 四、灵犀模型更能理解生活服务,在线推理速度超闭源2.6倍 在灵犀大模型的效果评测方面,我们基于不同尺寸的开源大模型训练并落地了多版本的灵犀大模型,包括MoE架构的实现。 我们在OpenCompass、MT-bench等公开评估平台上对模型能力进行了测试,并提供了Turbo、Plus等四个版本的模型。相比其他开源模型,我们的模型在MMU、C-Eval等指标上展现出了一定的性能优势。 除了在开源数据集上的评测,我们还使用内部数据对模型进行了评估。在NLP和NLU任务上,我们经过微调的开源模型相比直接使用官方开源大模型的效果更为显著。 这一改进主要得益于我们在ChatLing的开发过程中融入了大量行业数据,构建了具有行业特性的大模型,这使得我们的模型在理解生活服务和招聘领域方面更为精准和强大。 我们进行了一项实验,购买了市场上排名前一、二大厂的服务,并与我们的ChatLing进行了对比测试。 我们使用的是拥有约百亿级别参数量的ChatLing Turbo,与商用大厂基于千亿参数的大模型进行了同期微调对比。在这次对比中,我们确保了除了模型本身,其他使用的数据和条件尽可能保持一致。 结果显示,在百亿参数规模下,我们的ChatLing模型在微调后的表现超过了商用大厂的千亿参数模型。这一发现极大地增强了我们对小尺度模型在特定行业数据上应用可行性的信心。 我们将大模型的能力进行了分解,并设计了一套包含四个独立模块的方案。这四个模块都是独立的大模型,通过S-LoRA技术部署到一个基座模型上。 第一个模块是意图识别,它负责判断用户的当前意图;第二个模块是回答问题,它需要判断用户的问题是否可以回答,并生成相应的答案,这涉及到NLG和NLU的双重任务;第三个模块是反问生成,它根据用户已提供的信息,识别出缺失的部分,并生成问题以向用户询问;最后一个模块是信息抽取,它负责从用户提供的信息中抽取关键数据。 在这四个能力中,意图识别、信息抽取以及回答问题模块的一部分可以被视为较为直接的NLG任务,大模型在这些任务上表现出了很高的准确性。而回答问题和反问生成模块则涉及到更复杂的NLU任务,我们通过结合NLG和NLU的技术,优化了模型,减少了模型产生幻觉的概率。 我们通过实施基于AI中控或Agent的案例,对不同的大模型应用策略进行了深入的比较和分析。我们特别关注了将大模型拆分为四个独立能力的方法,并与闭源千亿参数大模型的微调效果以及GPT-4 Turbo直接管理对话的效果进行了对比。 通过这些对比,我们得出了一些有价值的结论。 相比于商用的闭源大模型,当我们将大模型拆分为意图识别、回答问题、反问生成和信息抽取这四个独立能力时,每个独立能力的表现都优于闭源模型。这表明,针对特定行业领域的大模型在该场景下的训练是非常成功的。 其次,在会话流畅度方面,如果要求对话的每一轮都必须流畅准确,传统NLP的水平虽然较高,但GPT-4端到端的方案并未达到这一水平。无论是使用闭源大模型还是我们的灵犀大模型,按照四个能力拆分后的方案都比传统NLP有显著提升。 在推理速度上,我们的百亿级模型在尺寸上比商用模型小很多,但通过推理加速技术,我们的在线推理速度是商用闭源大模型最高档位速度的2.6倍。 综上所述,垂直领域的大模型相比于开源的通用大模型具有明显的性能优势。无论是在开源数据还是闭源数据上,垂直领域大模型都能达到或超过开源模型的传统评估标准,同时在内部的特定场景下展现出更优的性能指标。即使与经过微调的商用千亿参数通用大模型相比,垂直领域的百亿参数大模型在性能上也不逊色。 大模型的民主化趋势愈发明显,即使使用较小规模的大模型,如Llama 3这样的开源8B模型,只要结合了特定垂直领域的语料进行训练,其在特定场景下的表现甚至可能超越直接使用商用千亿通用大模型或基于其微调的结果。这是我们通过实践积累的宝贵经验。 以上是孙启明演讲内容的完整整理。
从商用服务到工业服务,普渡机器人先行一步
作者 | 程茜 编辑 | 云鹏 智东西5月20日报道,今天,普渡机器人举行2024年新品发布会,发布了从配送到清洁多个产品线新品,包括首款面向工业配送的机器人PUDU T300、全新智能立式洗地机SH1以及欢乐送2、贝拉Pro和葫芦Pro等多款新升级服务机器人产品。 具体来看,发布会主要包含三大亮点: 产品:PUDU T300是普渡首次推出面向工业领域的配送机器人,深耕服务、发力清洁、进军工业,普渡已实现覆盖商用服务、专业清洁、工业的全栈布局。 技术:发布全新PUDU OS智能生态平台,并将持续投入应用AI,利用大模型优化服务机器人的算法和交互。同时在服务机器人行业前瞻性地提出类人形概念,专用型机器人、类人形机器人和人形机器人三种形态将共用构成服务机器人的未来行业生态。 生态:针对不开放、不协同、不通用的行业壁垒,普渡提出产品矩阵+技术生态的可行解决方案,建设基于PUDU OS开放平台的全栈式智能服务机器人生态系统。 从行业来看,产品矩阵+技术生态的最大意义在于,为场景融合下服务机器人的大规模应用落地提供了新的解法,通用型生态建设的本质是赋能千行百业,而普渡将生态的建设推向了更加深刻的技术维度和更广泛的应用场景,为服务机器人行业建立了标杆示范。 一、从商用到工业:全品类,全矩阵 当下,服务机器人市场规模稳步增长,从配送到清洁、从商用到工业,产品功能和应用场景都更加多元化。 普渡机器人在这一背景下脱颖而出,成为唯一有着覆盖商用服务、专业清洁和工业配送等完整产品矩阵的服务机器人企业,基本覆盖服务机器人的核心领域。目前其产品全球出货量已经达到近8万台,是全球出货量最高的服务机器人企业之一。 时间回到2017年,彼时普渡推出了首款机器人欢乐送,这也是当时行业内首款多层餐架式机器人。一年后,普渡与海底捞合作的超千台的订单又让其各方面的能力走上新的台阶,在送餐机器人行业站稳脚跟。 ▲升级款配送机器人欢乐送2 后来普渡在产品形态上进一步迭代,推出设计语言更拟人化、更生动的送餐机器人贝拉,这款产品也将普渡带向了全球市场。 2021年,普渡完成了从配送到清洁的跨越。在商用服务机器人领域深耕多年后,普渡深度洞悉了用户需求和痛点,在技术积累、销售能力、规模优势等方面均拥有了深厚实战经验。为了满足更多的客户及市场,普渡首款商业清洁机器人CC1应运而生。CC1在功能性上颠覆了之前单一功能的产品逻辑,让一款机器人完成扫地、吸尘、洗地、拖地的全流程工作,与市面上现有的商用清洁机器人产品相比,CC1显示出了强大的竞争力。 ▲普渡首款智能立式洗地机SH1 如今,普渡的产品矩阵再下一城,从商用服务到工业服务,PUDU T300的推出标志着普渡机器人迈向更广阔的行业应用场景。 从服务机器人的应用场景来看,其在自主定位、导航等关键算法上的技术相通,而不同场景对精度要求有所区别。众多场景中,餐饮是各个行业中最复杂、最动态的,普渡在餐饮领域已经积累了海量运行数据与深厚技术,并在研发中将其延伸至工业配送场景中。 因此PUDU T300虽然是普渡首款面向工业配送的产品,却也代表了工业配送机器人中的顶尖产品力,可以轻松地实现工业高动态复杂场景内的配送和稳定运行。 ▲普渡首款工业配送机器人PUDU T300 在产品矩阵的建设上,普渡走出了一条属于自己的独特道路,相比于简单的拓展品类,普渡的全产品线布局背后,显然有着更深入的规划和思考。 “以客户为中心”是普渡机器人一以贯之的价值观。普渡做这些产品的核心就是要真正为客户创造价值,解决行业中的需求痛点。场景融合的当下,企业在现实业务中往往需要多类型的服务机器人,但目前不同品类、不同厂商的产品不互通,会增加企业的管理成本。解决客户这种割裂的、碎片化的体验,就是普渡要做的,这也正是普渡产品组合的优势所在。 在给客户提供统一体验的基础上,普渡工业线产品的另一个重要理念是“做好辅助流程”,也就是工厂的生产主流程之外的其他作业流程,跟很多AGV/AMR公司不同,普渡瞄准的更多是一些低频、轻量的配送环节,而这些辅助流程在过去往往缺乏优秀的自动化方案,即使是顶级工业巨头,其辅助流程往往也更偏人工作业。 这样的策略带来的好处就是,其产品既满足了客户需求,又可以跟生产环节中的各类自动化产品相互配合。普渡的产品可以是高度“标准化”的,更便于跟生态中的其他相关方进行合作,成为整体解决方案中的重要组成。 可以看出,普渡的产品布局始终关注着客户的核心需求,让用户在使用更多品类的机器人时能更加容易,且从技术维度看,在技术复用的同时实现了品类扩张。 二、AI与多元形态:以开放协同赋能千行百业 在科技行业中,光有想法是不够的,真正让这些理念得以实现,硬核技术实力的比拼仍然是重中之重。深耕8年多的时间里,普渡在技术研发方面一直持续坚定投入,目前其在行业内已经形成了定位、感知、规划、调度、控制等方面的领先技术优势。 普渡机器人采用的前置激光SLAM和顶置VSLAM融合的定位算法,可以在大面积、高动态场景下精准导航并稳定运行。同时,普渡在高动态场景中不断迭代其自研的多机调度算法和运动控制算法也一直处于行业领先地位。 ▲升级款营销配送机器人葫芦Pro 如今,普渡在未来的技术发展上有着更多的思考和布局。 本次发布会还强调对AI的持续研发和应用,尤其是利用大模型优化服务机器人的算法和交互。AI或是普渡未来的重点布局之一。 在普渡机器人看来,未来随着AI大模型的应用,AI+机器人将是未来服务机器人的发展方向,这将表现为三个方面: 1.交互的提升和优化,大模型将极大提升机器人对自然语义理解的准确率,机器人将变得更“懂”; 2.定位导航与感知的提升,大模型将显著优化端到端算法,使算法更优; 3.人形机器人开发的进度也会随之加速。 需注意的是,人形机器人虽集成诸多前沿技术,但并不是应用落地的唯一形态。此次发布会上,普渡机器人提出了类人形的概念,专用型机器人、类人形机器人和人形机器人三种形态将共同构成服务机器人的未来行业生态。不同形态的机器人有着各自擅长应对的应用场景, AI技术与多元形态融合,可以更好满足客户真实的多样化需求。 ▲普渡新款营销配送机器人贝拉Pro 值得一提的是,开放协同生态的构建也是普渡技术创新的重要落脚点。当下企业在应用服务机器人时面临诸多困境,在这一背景下,一个开放的机器人生态体系至关重要。 就在今年1月,普渡在行业内首次提出了R2X的技术框架概念,针对机器人行业长期以来的不开放、不协同、不通用的行业壁垒提出了可行的解决方案,。 本次发布会上,普渡发布了基于PUDU OS的服务机器人智能生态平台。基于通用型的平台,各类机器人可以实现跨行业通用,进而赋能更多行业。 一个真实案例是,在国内某光伏巨头厂商的大型生产车间里,自动化生产程度超过90%,AGV24小时不间断作业对对清洁机器人的避障和路径规划提出了极高要求。而普渡的清洁机器人CC1基于PUDU OS 的智能调度使CC1能够和AGV设备之间共享光伏车间的地图,并且打通统一云端调度系统, 相互实时获取对方的位置、速度、移动方向和路线,在保障AGV设备顺畅运行的情况下,成功实现协同作业。 ▲R2X示意图 通过持续构建完整的产品矩阵、不断在技术创新领域深耕,以及推动行业标准的制定,普渡正在将生态的建设推向更深刻的维度和更广泛的场景。在技术、产品、生态的多元化布局之上,普渡的愿景是通过开放协同的生态建设赋能千行百业,为机器人与核心应用场景痛点的结合搭起一座桥梁。 三、通用型的生态建设:服务机器人行业的新增长曲线 根据全球权威机构Fortune数据,2023年全球服务机器人市场规模已经超过了191亿美元,这一数字将在今年增长至226亿美元。 虽然目前整个服务机器人行业已经初具规模,并保持持续增长,但整体的发展阶段仍然处于早期,商用服务机器人的整体渗透率仍待提高,成长空间仍然很大。 并且需要注意的是,当市场到达一定规模,其存在的问题也会愈发显著。当下服务机器人行业竞争日益激烈、应用场景高度融合、跨行业部署场景技术难度高,这些问题都会成为服务机器人产业增长、产业规模扩张的关键痛点。 而置身其中的普渡机器人正在将自身的产品、技术等优势转化为应对这些挑战的新解法——普渡打造的生态系统,一定程度上为行业发展找到了新的增长曲线。 想要实现更高质量的增长,行业必须要从产品割裂走向基于场景的统一,才能真正让其产品找到价值。 开放生态对于行业的发展来说至关重要。比如在酒店场景中,服务机器人玩家需要打通与电梯等酒店固有设施,才能让其完成配送、清洁等任务,但由于不同厂商之间方案不通用,机器人企业很难与每一家酒店的设施都完美契合,再加上梯控的成本长期居高不下,都为机器人企业、集成商和终端客户造成了困扰。 ▲基于PUDU OS的全栈智能生态示意图 这些年普渡完整产品矩阵的构建,恰恰为整个行业“打了个样”,不同品类的产品相互打通、协同,跨餐饮、零售、酒店、医疗、工业等行业应用的通用性,都为客户统一调度机器人带来了巨大价值,而普渡规模可观的出货量也令其产品覆盖了足够多的场景,其解决方案有足够的说服力和普适性。 这对于推动整个服务机器人行业走向标准的建立、生态的协同非常重要。普渡已经率先出手。 机器人没有与场景中各类已安装设备打通,长期以来是行业的一大顽疾痛点,需要多方共同努力来解决。挑战同样意味着机遇和新的增长点。基于自身产品和技术实力打造的服务机器人生态系统,既是普渡引领行业发展的关键,也一定程度上给行业的发展找到了新的增长曲线。 对于服务机器人行业来说,从产品相互割裂走向基于场景的统一,已经是大势所趋,当下的服务机器人行业亟需一个开放协同的生态系统,普渡的做法无疑给出了当下的最优解。 结语:服务机器人的新增长曲线,普渡率先找到 成立8年,完成服务机器人完整产品矩阵布局,普渡机器人正在将自己的技术优势赋能给行业,推动建立一个更加开放、协同的机器人生态。 对于服务机器人行业的发展来说,“合作共赢”无疑是做大整个蛋糕的唯一途径,尤其是在当下AI技术快速发展,与机器人产业深度融合的当下,产品的形态、种类、技术都在快速变化,改变此前割裂、碎片化的生态是必然选择。 对于所有服务器机器人赛道的玩家们来说,开放、协同生态系统的完善是加速服务机器人落地千行百业的关键,进而帮助各类细分场景实现智能化转型升级,也是行业新的机遇和客户价值所在。 开放协同的生态需要由普渡机器人这样的行业头部企业牵头引领,其所创造的商业价值最终也将成为企业自身的新增长曲线。
iPhone 15,跌成狗了!!!
速报!iPhone 15系列又降价了! 在5月20日这天,苹果官方又对iPhone 15系列进行了不同幅度的价格调整,最高可优惠2250元,最低优惠价也来到了1400元。 (图片来源:天猫Apple Store官方旗舰店) 从目前的消息来看,苹果在天猫Apple Store官方旗舰店已经开启了官方降价活动,在叠加官方优惠劵和天猫优惠劵后,iPhone 15 Pro Max(1TB版本)的售价相比原价便宜了2250元,而售价最低的iPhone 15(128GB版本)也能优惠1400元。综合来看,如今在天猫苹果官方店购买iPhone 15系列的价格如下: iPhone 15售价4599元起(原价5999元),iPhone 15 Plus售价5599元起(6000元),iPhone 15 Pro售价6099元起(原价7999元),iPhone 15 Pro Max则为7949元起(原价9999元)。令人意外的是,小雷在京东Apple授权店的活动页面发现,iPhone 15活动价为4699元起,意味着这是苹果加入电商平台以来,极为罕见的官方降价幅度高于授权店。 (图片来源:天猫Apple Store官方旗舰店) 如果小雷没有记错的话,这已经是苹果对iPhone 15系列售价的第二次下调了,上一次是在iPhone 15系列发售仅一个月后,起售价就大概下调了800元。短短七个月,官方降价两次,这在苹果历史上绝对是第一次。 难道,iPhone在中国真的卖不动了吗?目前来看,可能真是如此。 苹果大降价 库克做错了什么? 不止是iPhone 15系列,在苹果天猫Apple Store官方旗舰店中,小雷还发现iPhone 14系列、Apple Watch S9/SE、iPad第十代、iPad mini 6、MacBook Air、AirPods Pro第二代、AirPods 第三代这些产品同样参加了天猫618限时优惠活动,如此大规模的降价潮绝对是苹果史上的第一次。 (图片来源:天猫Apple Store官方旗舰店) 而且小雷简单对比了三家主流电商平台的价格,发现如今苹果官方(天猫)的价格已经几乎与某家百亿补贴中的价格一致,不出意外,这应该已经触碰到iPhone 15系列价格的底线了,如果价格继续往下探到四千元左右,那么苹果的价格体系就彻底崩盘了,今年还有谁敢首发买iPhone 16系列呢? 苹果两次大幅降价自然与iPhone 15系列销量远不如前有关,根据苹果官方公布的2024年第二财季财报显示,大中华区营收为163.72亿美元,同比下滑8%,其中主要原因便是iPhone 15系列销量大幅下滑,整体销量下滑了近20%,营收方面也减少了100多亿人民币。 之前也曾有四五家机构透露苹果的出货量大幅下滑,甚至有一家机构的数据显示,苹果已经从千年老二一路跌成了「others」,虽说这个数据的真实性有待商榷,但可以肯定的是,iPhone 15系列确实卖得不咋地。 (图片来源:TechInsights) 至于原因,不用小雷多说大家也能猜到,近两年iPhone挤牙膏的程度几乎达到了「人神共愤」,就以iPhone 15为例,除了处理器从A15升级到A16外,其他配置方面跟2022年的iPhone 14几乎完全一致,更别说A16这颗处理器实际上也是2022年发布的。 从现在的眼光来看,苹果即是在2023年下半年发布了一台2022年的手机,而反观国产手机这边不但已经在性能方面超越了A16处理器,而且在周边配置上(如屏幕、充电、电池、信号)方面已经全面高于iPhone 15了,更别说在价格方面,国产手机拥有绝对的优势。 对于苹果用户来说,现阶段的iPhone似乎只剩下稳定的iOS以及捆绑的苹果生态两个优势了,再加上安卓阵营这边已经普遍将内存价格打下来,不少中端机型都已经做到12+256GB起步,哪怕是16+1TB的顶配价格也不会太过夸张,对于那些真的需要大内存的用户来说,也只需要加个五六百块钱。 (图片来源:苹果官网) 反观苹果这边,iPhone 15的起售价原本为五六千,却只给到用户6+128GB的内存组合,想要升级到256GB就得加个千把块,可以说能把内存卖出金子的价格也就苹果一家。 种种因素相结合,导致用户已经越来越难以说服自己「新iPhone必买不可」的决定。 苹果,真的要进步了 除了iPhone遭遇「滑铁卢」外,苹果在平板电脑市场的出货量也遭遇了大幅度下滑,更别说年初发布的Vision Pro,仅仅几个月的时间,消费者似乎已经忘记了这台「未来科技产品」。 (图片来源:苹果官网) 从市场数据和用户的反馈来看,苹果真的要适当调整自己的产品策略了,例如增强自己的产品力,才有可能让消费者接受五六千元的起售价。 但根据目前的爆料来看,iPhone 16系列相比15系列的升级依旧算不上大,用户最关心的几个点依旧没能被解决,如果爆料信息全部准确的话,那小雷预计明年的这个时候,iPhone 16系列依然会迎来两次甚至是三次的官方降价,届时降到4000元左右也不是没有可能。 不过换个角度来看,iPhone的降价潮必然会影响到国产手机的销量,虽说我们都明白国产手机的优势,但如果真的有一台4500元的iPhone和一台4500元的安卓手机放在你面前,相信绝大多数消费者还是会优先选择iPhone。毕竟iPhone的品牌效应依旧比其他厂商都大上不少,这必然会使得整个中国手机市场的竞争变得更为激烈。 (图片来源:京东) 但仅凭价格就想在市场上保持长久的竞争力也是不现实的,说到底苹果还是要提升自己的整体产品力。之前曾有业内人士透露,今年发布的iPhone 16系列将会搭载自研的AI大模型,并且首发支持AI大模型的本地部署,根据此前曝光的消息,苹果正在与OpenAI、百度等企业接触,推动AI大模型方面的合作。 但实际表现如何,对于我们国内用户来说,这些AI功能到底又有多少是足够实用的呢?谁也不知道。 (图片来源:雷科技制图) 当然,iPhone大幅降价,一定可以吸引到不少用户前来购买,这一点是毋庸置疑的。小雷身边也有一些朋友表示已经准备下单入手,但这种忽视对于以创新安身立命的苹果而言会是个长期选项吗?重度用户们依然在期待新的惊喜,但这份惊喜什么时候才会来到,谁也不敢打包票。
智能手机早已成为主流,但功能机仍有市场
作为目前为数不多仍在保持功能机产品线推陈出新的主流手机厂商,HMD旗下的诺基亚品牌在这一领域也颇有建树。不久前其推出了以诺基亚3210为蓝本的复刻机型诺基亚3210 4G,并迅速在各个销售渠道售罄,官方甚至在社交媒体上以“工厂产线冒火星子了”来应对消费者的催货,并进一步收集用户对复刻其他经典机型的需求。对此有观点认为,随着用户需求的不断多元化,如今选择一款功能机作为备用似乎也是个不错的选择。 但目前在市场中,智能手机早已成为绝对的主流,功能机的市场规模则在不断萎缩。尽管还有部分用户出于种种理由,依然在坚持使用功能机,但这既受到个人需求和使用习惯的影响,也与所在区域有关,在这些纷繁复杂的因素中,功能机在产品端的市场竞争力不同场景下也呈现出显著的差异。 据调研机构Counterpoint公布的相关数据显示,目前全球约80%的功能机被销往非洲、中东和南亚等区域,由于经济因素的影响,这些区域消费者的购机预算相对有限,因此对价格更为敏感,此时功能机就凭借着相对低廉的售价,能够满足基本通讯需求,以及相对较长的使用寿命,成为了当地众多消费者关注的对象。 但目前即便是在欧美市场,功能机同样也还存在一定的市场空间。此前在线调查应用Real Research公布的一项数据显示,在4万名参与者中有超过50%平均每天花费7小时以上在社交媒体。因此就有观点认为,根治“社交媒体上瘾”的最好方式,可能就只有使用功能机了。 事实上,目前在欧美的Z世代中认同这一观点的并不在少数,有分析机构的相关数据也表明,部分用户群体正在通过这种方式来摆脱社交媒体的影响。在德勤集团的一项调查结果中就显示,英国有10%的手机用户同时还在使用功能机,并且这一比例还有可能继续增加。 而如今在国内市场,功能机的需求则呈现出更为多元化的特征。例如部分用户选择功能机的理由,是希望借助其长续航的特点来作为备用机使用,同时也有用户希望借助功能机更简洁的界面和有限的功能,来有效控制手机的使用时间,从而达到保护健康的目的。此外更有观点认为,功能机的部分特质使得其更适合老年人、学生等特定群体。 但仔细分析不难发现,这些观点多少可能都存在一定的局限性。比如,功能机有着相对更长的续航时间是个不争的事实,所以如果只是希望备用机能满足接打电话、收发短信这样的基础通讯要求,那选择这类产品显然无可厚非。 但在实际使用中,更多的用户对于备用机的需求可能更加复杂。例如通讯需求现在早已不再局限于通话、短信,即时通讯应用也应包含在内,但显然功能机在后者的适配上目前还无法完美使用,因此从这个角度来看,功能机即便是作为备用机使用,实际上还是会收到一定的限制。 尽管有观点认为,对于老年人和学生这类特定群体来说,功能机已经可以满足日常需要,理由则无非是功能机具备数字键盘、最够简单易用,且可以有效屏蔽来自海量信息的干扰,能提供相对更为纯净的使用环境。然而这种认知在一定程度上其实并不完全准确,如今智能手机在适应不同用户群体方面早已取得了显著的进步。 以老年人为例,尽管这类用户在使用手机时会面临来自视力、操控等方面的挑战,但目前大量智能手机产品已经将无障碍、适老化放在了极其重要的地位。例如,目前的“简易模式”已经几乎成为智能手机的标配,并且还进一步扩展出长辈关怀这类功能,用户可以根据自己的需求来调整字体大小、显示模式等。 此外值得一提的是,由于现在智能手机已经普遍配备了5.5英寸以上尺寸的屏幕,所以对视力相对较差的老年用户来说,其实反而更为友好。此外智能手机如今几乎都标配智能语音助手,用户只需通过语音指令就能完成大量的相关操作,相比之下较点按显然更容易上手。 得益于功能方面的优势,目前许多智能手机还提供了紧急求救功能,在用户在面对各类风险时可以轻松发出求助信号。更为重要的是,即便是老年用户也同样有着多元化的需求,类似功能机这种简单粗暴做减法的特性,或许并不一定适合所有的这类用户群体。 即便学生,在对手机的需求上同样也十分复杂,其中至少可以细分为低龄儿童和少年两种群体。面对低龄儿童中,电话手表这一产品如今已占据了不少的优势,其不仅较功能机在功能上更为全面,同时还是一个自成体系的生态,部分厂商在这一领域甚至是几乎是不可撼动的存在。而对于对少年群体,仅以避免过度娱乐这样的理由,就认为使用功能机更为恰当显然也并不现实。 因此在当前的手机市场中,功能机虽然凭借简洁、成本低廉等方面的优势,在部分用户群体中仍占有一席之地,但随着智能手机凭借着本就在功能扩展性上的绝对领先,在不考虑成本的情况下几乎可以实现前者的全部特性。所以在目前来说,功能机除了成本之外,相比智能手机显然已经没有了几乎任何优势。
iPhone SE 4更多消息曝光 配备Face ID售价低于500美元
【CNMO科技消息】有消息称,苹果计划推出第四代iPhone SE,尽管该设备将获得一系列升级,但据传起售价仍低于500美元。 iPhone SE 4 据X平台上的爆料者Revegnus透露,第四代iPhone SE在美国的上市起始价格要么保持与当前型号相同的429美元,要么上涨约10%。无论哪种情况,苹果都希望将新机价格保持在500美元(约合3616元)以下。 iPhone SE 4相关爆料 上周,有媒体报道称,苹果计划在2025年春季发布重新设计的iPhone SE,该款手机将继续作为苹果iPhone产品线中“更便宜”的选项。据说该设计类似于标准的iPhone 14,这意味着Touch ID和Home按钮将被Face ID和刘海屏取代。 此外爆料称,iPhone SE 4可能会采用OLED屏幕而非上代的LCD,并且显示屏大小将从4.7英寸增加到6.1英寸。下一代iPhone SE的其他传闻功能包括USB-C接口和动作按钮。 iPhone SE 4的面板价格据说比iPhone 15使用的OLED屏幕要便宜得多,因为SE的面板将使用与iPhone 13和iPhone 14相同的旧部件,因此供应商无需在研发上进行新的投资。据信,屏幕供应商至少从去年八月起就一直在竞标为iPhone SE 4提供面板。 第三代iPhone SE于2022年3月发布,距今已经有超过2年的时间了,虽然SE的销量表现很一般,但是它还是为那些想要体验iPhone却资金不足的人提供了一个入门的选择。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。