行业分类:
加载中...
头条分类:
加载中...
特斯拉回应状告小米持股国产零部件公司:研发人员涉嫌泄露技术秘密
快科技10月10日消息,特斯拉官方对“起诉小米持股公司侵害技术秘密”事件进行回应。 特斯拉称,原特斯拉研发人员顾某在职期间,利用职务便利违规下载了大量特斯拉车辆技术秘密,并私下为冰零智能科技(常州)有限公司提供技术服务,涉嫌泄露特斯拉公司的技术秘密。 经调查,特斯拉公司于2022年9月对顾某予以开除处理,并决定向顾某及冰零科技一并提起诉讼,目前案件正在审理中。 事件回顾: 上个月,天眼查方面曝光的信息显示,特斯拉(上海)有限公司作为原告,起诉冰零智能科技(常州)有限公司,案由为侵害技术秘密及不正当竞争纠纷,将于2023年10月10日在上海知识产权法院开庭审理。 很多人对冰零智能科技感到陌生,主要因为它体量小,而且是供应链公司,很少走到台前,资料显示,该公司成立于2022年5月,法定代表人为贾永平,注册资本约328万人民币,经营范围含集成电路芯片设计及服务,集成电路芯片及产品制造、销售,汽车零部件及配件制造,汽车零部件研发等。 据上海证券报报道,新能源关键的传感器和控制器产品市场份额,主要被外资品牌占据,车规级传感器国产化空间很大,而冰零科技去年5月才成立,据称当年就实现了1500万订单,如此业绩,也是新创办的供应链公司中罕见的。 而更进一步让冰零科技引起关注是小米的入股,今年3月,小米旗下智造股权投资基金入股了冰零智能,持股比例为11.86%,股权比重仅次于创始人贾永平,成为第一大外部股东,这也是小米官宣造车以来,投资的又一家汽车产业链公司。
赵长鹏如何将失败的代币ICO转变为数十亿的意外之财?
虽然崛起的神话令人印象深刻,但赵长鹏所创立的世界最大加密货币交易所正摇摇欲坠。《福布斯》的一项调查显示,2017年币安的首次代币发行(ICO)实际上是失败的,却悄悄利用这次代币发行积累了足以产生丰厚利润的加密货币资产。从福布斯的调查看,当时促使这家公司“胜利”的诸多原因也创造了其当下所处的极端困境。 文|Javier Paz 首席执行官赵长鹏描述称,币安(Binance)首次发行代币——币安币(BNB)“大获成功”。 区块链数据却给出了另一种解释。 01 福布斯调查: 对BNB首次代币发行的分析 币安前竞争对手FTX的创始人山姆-班克曼-弗里德(Sam Bankman-Fried)已经名声扫地,并因欺诈和洗钱罪正在纽约受审。与此同时,全球最大的加密货币交易所币安也面临着生存危机。币安已招致美国证券交易委员会(SEC)和商品期货交易委员会(CFTC)的起诉,指控该交易所欺诈客户和欺骗监管机构。 上周,支付处理商Paysafe“突然决定”停止为币安处理欧元交易,币安还退出了包括荷兰在内的欧洲市场。此外,该公司还受到全球范围内关键员工外流问题的困扰。 《福布斯》多次邀请币安就这些问题进行回应,币安方面未尝置评,但该公司已采取行动申请驳回CFTC的诉讼,称其起诉内容存在多处错误,并表示SEC的起诉内容过于宽泛。 尽管如此,币安面临的最大问题可能还是交易量的减少,因为从2022年开始一直到现在,数字资产市场仍在加密货币的寒冬中挣扎。这为币安发行的加密货币BNB带来了沉重的压力,自2021年5月达到历史高价675美元以来,BNB的贬值幅度已达68%。 当前估值为330亿美元的BNB长期以来都是币安运营模式的重要组成部分,仔细研究其2017年的首次代币发行(ICO)就会发现,币安早年走过的道路比人们普遍认为的要坎坷许多。 币安创始人赵长鹏表示,发行币安自己的代币这一想法源于2017年6月14日四川成都的一次晚宴。当年6月18日,他即公布了一份长达17页的白皮书,这是加密货币领域中类似于项目章程一样的基础性文件。这份白皮书中包含了一份快速启动运营的时间表,详细说明了BNB这种新的数字代币,并称其将通过为期三周的拍卖进行发行。与总部位于美国的竞争对手Coinbase不同,币安不接受美元等法定货币或传统货币。币安交易所平台将仅用于加密货币交易,并宣称其配备的引擎每秒可处理140万个订单。 当时正是进入新兴加密货币市场的好时机。比特币的价格在前一年里翻了两番,达到近2800美元,随着数百种数字货币ICO成功,这位视频游戏玩家出身的企业家在白皮书中提出许多值得推敲的想法,并从中大举牟利。2017年上半年,加密货币市场规模增长了五倍,达到1000多亿美元。 这个总部位于上海的项目从2017年6月中旬才开始运营,但进展很快。据赵长鹏在领英发布的帖子可知(他现在是亿万富豪,绰号C.Z.。),这个1亿代币的ICO于7月3日完成。他宣布那次拍卖取得了“巨大的成功”,并且在那份帖子中声称已经筹集了1500万美元,也就是每个BNB代币的平均价格为15美分。新代币的部分收益将用于建立交易所的平台,但大部分收益将用于币安的品牌推广和市场营销。基于以太坊的BNB代币可以像股票一样进行交易,尽管它们不必向所有者提供股权。 进行交易的代币是一种奇怪的产物,比起公司的股票,它们更像是航空公司用于培养顾客忠诚度的里程,主要用于向交易或招募新账户的客户提供折扣奖励。然而,与股票一样,它们也可以作为一种企业货币。去年在加密货币危机期间,币安利用其持有的BNB代币购买了具有发展前景的初创公司的股份。根据币安白皮书,实际发行的BNB有2亿枚,但在ICO中只向公众提供了1亿枚。币安内部人士将保留8000万枚,另外2000万枚将分配给天使投资人,如Bloq创始人马特·罗斯扎克(Matt Roszak)、早期的比特币投资人罗杰·维尔(Roger Ver)和NEO联合创始人达鸿飞。此外,币安承诺,随着时间的推移,它将回收或销毁最初铸造的1亿代币。 超过2万名加密货币粉丝登记参与了BNB的拍卖,赵长鹏说,许多人提前存入了资金。当时,赵长鹏预计其中一些资金将留在币安的交易账户中。2017年7月,赵长鹏在领英上写道:“我们在核心目标市场开展大量公关,让币安品牌广为人知,同时也获得了投资。作为一个新平台,取得这样的成就,还有什么好要求的呢?” 赵长鹏对其ICO成功的乐观态度广受好评。这些代币最初的交易价格为每枚15美分,现在的售价为213美元,在2021年,其售价甚至一度飙升至675美元。如今,BNB已成为全球第四大最有价值的数字资产,价值330亿美元。根据福布斯的计算,创始人赵长鹏的身家为100亿美元,但我们的计算反映的是其商业价值,并不包括他可能拥有的大量BNB代币。 福布斯在加密货币分析公司Gray Wolf Analytics和Inca Digital的协助下进行了一项调查,结果显示,币安的ICO实际上是一场失败。 事实上,币安在首次发行代币时并未售出1亿个代币。对其加密货币钱包的分析显示,在2017年夏天,转移给参与其公开ICO的投资者的BNB代币数量不超过1078万枚,另外的2000万枚代币似乎已经被悄悄转移给了天使投资人,这使他们的所拥有的分配额翻了一番,达到4000万枚。总而言之,币安在发行过程中筹集到的资金可能不到500万美元,而赵长鹏曾声称以15美分的隐含价格筹集到了1500万美元。 尽管福布斯多次提出要求,但币安仍拒绝回答有关其2017年ICO的相关问题,也拒绝提供其持有的BNB的详细账目。 发行人保留拍卖未售出的剩余部分并不违法,前提是该公司披露了这样的做法,但币安的白皮书并未提及如果ICO销售不足会发生什么。这个问题并非币安独有。 《金融市场与投资组合管理》(Financial Markets and Portfolio Management)于2020年发布了一份报告,回顾了2016年3月至2018年3月间的306次ICO,其中45%的发行者保留了未售出的代币,其余的发行人要么按比例将代币分发给投资者,要么将代币永久性地从流通中移除。 很少有人知道BNB最初的失败,部分原因是加密货币的ICO不受监管,也不用向美国证券交易委员会提交任何形式的披露文件。但币安的ICO问题似乎为其创始人带来了一些另外的收获。截至2018年9月,包括赵长鹏在内的该交易所创始人还留有剩下的1.45亿个BNB代币,而不是最初计划的8000万个。在ICO时,6500万未售出的代币价值不到1000万美元,而如今它们的价值约为140亿美元。 根据来自区块链数据的取证分析(见下文第二部分),币安控制着许多大型加密钱包,其中存储了数百万BNB代币,并不时转入转出。此外,美国商品期货委员会(CFTC)曾在2023年3月对币安提起诉讼,称赵长鹏直接或间接控制着300个不同的加密货币账户,且这些账户正在交易包括BNB在内的加密货币。(币安目前申请驳回CFTC的诉讼,称监管机构越权)。 BNB自推出以来的价格 币安是否真如美国证交会在6月份的诉讼中所指控的那样,正利用其BNB代币在账户之间进行所谓的“洗盘交易”,从而抬高BNB的价格?自2019年以来,BNB的交易一直很活跃,尤其是在2019年,当时BNB代币转移到了币安自己的Beacon区块链,此前两年则是基于以太坊区块链。不过,币安在9月21日的一份法庭文件中表示,这些洗盘交易的指控“没有事实依据”。 根据Pitchbook数据显示,自2017年成立以来,币安通过其风险投资部门币安实验室(Binance Labs)收购了至少199家公司的股份,包括著名的FTX、Trust Wallet、Coinmarket Cap、GOPAX和Tokcrypto。BNB代币也成为了促成其中一些交易的有利条件。2018年5月30日,币安还利用BNB成立了一只10亿美元的基金,该基金由币安实验室管理。 目前有多少BNB代币尚未发行?根据币安跟踪BNB流通的网站,目前有1.54亿枚BNB代币未发行。因此在过去的六年里,交易所已经毁掉了4800万枚代币。根据GrayWolf的取证分析,我们确定,截止2023年8月31日,币安已控制了近1.17亿代币,占总流通量的76%。这个数字是我们通过结合创始团队发行的公开代币数量与专有概率分析得出的,并且该项分析已经确定,存放客户资金和完成其他公司用途的秘密钱包的确存在。 如果觉得追踪币安的BNB代币令人头疼,不止你一个人有这样的感受。然而,有一点是明确的。BNB代币是币安崛起成为全球主要加密货币市场的关键,而保持货币强大的竞争力一直是其成功的核心。就像FTX一样,其FTT代币被证明是其最终偿付能力的关键。 以下就是福布斯对BNB首次代币发行的分析,以及ICO后几年代币在钱包之间的流动情况。 02 币安ICO数据分析 它是如何呈现的 ICO在2017-2018年期间大行其道,当时有数百个项目(包括大量骗局)通过出售凭空创造的代币从投资者那里筹集了数十亿美元。它们可能看起来类似于股票的IPO,但在投资者信息披露和保护方面却无法与IPO相提并论。 币安于2017年6月14日宣布进行ICO,目标是从可能成为其平台活跃交易者的投资者那里筹集1500万美元。12天后,拍卖于6月26日启动,比白皮书中规定的时间提前了5天,并于7月3日提前18天完成。 币安的创世神话 来自Binance.com网站的存档文章显示了该交易所及其BNB代币在2017年6月和7月的快速发展。 币安的ICO流程年表。图片来源:INTERNETARCHIVE'SWAYBACKMACHINE 更令人困惑的是,该交易所在Binance.com上的声明称,本次ICO“已在3分钟内”完成(该声明已被删除,但仍可在互联网档案馆的Wayback Machine上看到)。币安在小字中表示:“此页面是我们ICO期间的首页,现在保存在这里供您查看。”Binance.com上大部分(如果不是全部的话)与ICO相关的页面都已删除,包括最初的白皮书。 三分钟英雄 存档的Binance.com帖子称,BNB的首次代币发行在三分钟内售罄,而不是计划的三周。 币安在ICO期间的首页。图片来源:INTERNETARCHIVE'SWAYBACKMACHINE ICO流程 首次代币发行(ICO)中发行的代币通常来自所谓的部署者钱包,这是计算机代码的通用术语,用于制造新的代币,然后将其发送到数字钱包,每个数字钱包都有一个唯一的长字母数字标识符。Gray Wolf表示,在拍卖启动时,所有2亿个BNB“代币都被铸造了出来,并被发送到“0x00C5E04176d95A286fccE0E68c683Ca0bfec8454”这个由币安控制的地址"。这些代币代表了BNB的全部初始供应量。 有了部署者钱包中的代币,ICO的下一步将是币安将拍卖中赢得的代币分发给买家。《福布斯》使用区块链记录跟踪了接收的钱包,并分析了它们的概况。Gray Wolf和Inca Digital对福布斯的审计方法和单个钱包的数据进行了审查和验证。 根据白皮书,《福布斯》预计在ICO结束后不久,将有1亿枚代币流向ICO参与者,2000万枚代币流向币安的天使投资人,总计1.2亿枚代币。币安于7月7日开始发行代币,但预期的1.2亿枚代币中只有5500万枚流动了起来,随后发行冻结了一年多。“这5500万枚是在2017年7月6日至8月14日期间通过13笔交易发放的,”Gray Wolf说。“这些交易是币安部署人员在2017年7月至2018年8月期间发送BNB的仅有交易,在此期间,约有1.45亿BNB被控制在币安部署人员的地址中。” 尽管《福布斯》和Gray Wolf认为不太可能,但未分发的代币有可能是在2017年7月14日开始运营的币安交易所上代表购买者持有的。通常的做法是将代币发送到外部钱包,因为投资者通常不希望将其保存在安全性尚未建立的交易所中。或者,币安也可能已经为代币开具了非区块链收据,这是一种非常不寻常的做法,而且第三方无法验证。 哪些钱包得到了代币 以下是对直接从部署者那里接收BNB的主要钱包的分析。除了识别每个钱包的字母数字字符串之外,区块链上没有任何关于其所有者的其他信息,尽管有时我们可以通过其他途径了解到一些事实。因此,将钱包所有者与特定钱包联系起来往往是一种艺术与科学的结合。钱包的大小、转账频率、转账日期以及代币的来源和去向都可以说明所有者的情况。 币安天使钱包1(2000万枚)。《福布斯》、Gray Wolf和Inca Digital都认定这个钱包是分发给最早投资者的代币来源,因为它收到的金额和随后的交易都以高价值转移为主。在ICO月份(2017年7月),币安从这个钱包中分发了1784万枚BNB代币到678个不同的地址。从2017年8月到11月,该交易所向226个不同的地址分发了额外的215万个代币。 天使钱包1 向904个钱包地址分发了2000万枚BNB 币安天使钱包2(2007万枚)。我们将这个钱包称之为天使钱包2,在2017年7月中旬币安交易所启动后的头两天内,该钱包通过三次转账(2000万+ 69,420 + 20)从部署者那里收到了20,069,440个代币。虽然这个钱包收到的代币略多于发送给天使钱包1的2000万整数,但我们猜测这些代币也是分配给天使投资人的,因为下一个图表中详细介绍了类似的数字和后续分配模式。对于加密货币侦探来说,值得注意的是,在天使钱包2和代币接收者之间存在一个中介钱包,但为了让表述尽可能简单,我们仍将称之为天使钱包2。在转入天使钱包2的2007万枚BNB代币中,币安在2017年7月向531个钱包分发了1740万BNB。2017年8月至12月期间,该交易所向79个钱包又分发了266万枚BNB。 天使钱包2 向610个钱包地址分发了2007万枚BNB 币安9钱包:这个钱包的名字出现在Etherscan区块链分析服务上,它陆续从部署者那里收到了剩余的1500万个代币。截至7月底,币安只向这个钱包提供了1100万个代币。在1100万枚BNB代币中,我们认为币安向多达400个假定的散户钱包发送了1078万枚BNB,因为大部分支付都是小额的。然后,从2017年8月到2022年7月,该交易所向31个钱包发送了剩余的代币。 在ICO结束后的第一个月内,我们对其天使投资人和散户投资者的综合考察只统计到了不到2000个地址,约占赵长鹏声称在交易所注册的20,000名用户的10%。 币安9钱包 2017年,该钱包向大约431个地址分发了BNB代币,其中大部分似乎由散户投资者拥有。 BNB大乱炖 虽然参与ICO的币安天使投资人和散户投资者的最大数量似乎不到2000人,但各种钱包之间存在大量重叠、钱包间转移和混合,因此很难确定每组参与者的确切数量。 例如,2017年7月,有56名接收者从两个币安天使钱包中获得了转账,共计398万枚代币。如果将币安9钱包也纳入在内,那么共有22名收款人收到了来自三个钱包的代币,总计294万枚BNB。此外,天使钱包2向币安发送了近100万枚代币,而根据该公司的计划,币安打算在首次季度销毁操作中将这些代币送去销毁,最终将供应量削减至1亿枚。 向币安9钱包转移100万代币的行为是表明这些钱包被用于多种目的的数十起类似行为之一。例如,我们发现在三笔交易中,有500万BNB代币通过一个单独的中介钱包从币安9钱包转移到了币安5钱包(该钱包的实际所有人是该交易所本身)。此外,币安还将合计410万枚代币从币安5钱包和币安6钱包(另一个钱包)退出流通。这种做法让外部观察者很难分辨用户和交易所拥有的代币之间的区别。 未售出的ICO代币的命运 下表显示,从2017年9月到2018年8月,部署者钱包的支出为零。在这张表中还可以看到,币安在2018年让其部署者钱包向币安5钱包发送了近6500万枚BNB代币,这些代币似乎是那些在ICO中未售出的代币。这使得该钱包持有9940万枚BNB,占总供应量的一半。根据白皮书的条款,币安及其高管本应额外持有8000万枚代币。 部署者钱包(来自币安部署者钱包的BNB交易列表,包括在ICO一年多后的2018年9月转移了近6500万枚代币。) BNB首次发行的受益者钱包一览。 图片来源:ETHERSCAN Gray Wolf总结道:“白皮书中所述内容与实际链上交易量之间的差异,再加上ICO时间表上相互矛盾的文件,勾勒出一幅令人困惑的图景。利益相关者和更广泛的加密社区不禁要问,ICO进展的真实性质、报告交易量的真实性以及消费者保护的充分性到底如何。这些挥之不去的问题凸显了区块链技术在提高加密货币生态系统的透明度和问责制方面的关键作用,在这个生态系统中,信任是绝对必要的。” Inca Digital首席执行官Adam Zarazinski补充说:“币安声称已经完全实现了他们为ICO设定的所有目标,但实际上,区块链上的数据表明,1.2亿代币中只有不到一半被分发,然后在多个可能由币安控制的钱包之间流通。有关实际ICO结果的误导性信息的传播使BNB投资者对该代币的未来成功产生了过于乐观的看法,从而使币安有可能维持BNB的人为抬高的价格。” 预期与实际的BNB ICO分发量 以百万代币为单位的数据表明,此次发售的代币数量远远少于币安白皮书中概述的数量。 币安声称它在2017年7月筹集了1500万美元,这让人难以置信。如果币安以仅15美分的挂牌价格出售了约1100万枚BNB代币,那么它在ICO中就从散户投资者那里筹集165万美元。如果币安天使投资人以同样的价格购买了4000万枚代币,那么币安可以从他们那里筹集600万美元,仍低于1500万美元。所有这一切的结果就是,从低价ICO中以几乎零成本获得的额外6500万枚代币,使币安拥有了一个黑暗的可自由支配的资产池,其最高价值超过400亿美元。 币安BNB持有总量 关于币安持有的BNB总量,几乎没有可证实的信息。截至9月1日,该公司声称拥有3030万代币的净客户余额,由交易所持有的3450万代币支持,这是一个略微超额的抵押。该公司的储备证明网页称,这些金额不包括币安公司持有的BNB。 福布斯和Gray Wolf开发了一种方法来识别币安上所有包含BNB的钱包,包括客户资金和交易所资金,以验证这些数字。该方法包括跟踪BNB在币安生态系统中三个区块链上的创建和移动情况、量化代币流量、识别钱包,并根据独特的特征确定钱包功能和可能的所有权。 值得注意的是,我们在下文中的分析涉及币安专有区块链BNB Beacon Chain和BNB Smart Chain上存在的钱包,BNB分别于2019年和2020年转移到这两个区块链上。我们将币安上的BNB钱包分为交易所披露的钱包,交易所称这些钱包完全由公司及其创始人拥有的代币组成,然后是平台上的一系列热钱包和冷钱包,这些钱包可能混合了客户和交易所的代币。例如,在下面的图表中,作为FTX加密货币帝国崩溃后增强加密货币交易所透明度的一部分,赵长鹏于2022年11月公开披露了四个币安团队钱包。他说,这些钱包总共控制了2200万个代币。截至10月1日,已知的币安钱包持有5380万份BNB,价值116亿美元。 表格底部的钱包没有被该交易所披露,但我们与Gray Wolf合作,根据概率分析,考虑到它们与Genesis钱包——以太坊部署者钱包的后继者——的直接联系、持有量、交易模式、互动的主要钱包和其他因素,确定它们很可能位于币安平台上。币安冷钱包1-3总共持有5150万枚代币,价值115亿美元。用加密货币的术语来说,钱包通常分为冷钱包和热钱包。冷钱包通常更安全,因为它们没有直接连接到互联网,因为被用来持有更多的资产,使用频率较低。热钱包连接到互联网,通常有助于更频繁和小额的转账。 像币安这样的交易所通常会在热钱包和冷钱包之间循环资产。客户存款通常首先进入热钱包,然后转移到冷钱包进行长期存储。另一方面,交易所可能会将资金从冷钱包转移到热钱包,以满足提款激增带来的需求。对于交易所来说,最佳做法是在热钱包中保留不超过日常流动性所需的资金。在图表的底部,我们发现了多个热钱包,其中第20个是迄今为止最大的,拥有1100万BNB。一些热钱包在我们提取快照的当天什么里面都没有。 我们列出的所有疑似币安钱包都持有6310万份BNB,价值157亿美元。加上已知钱包中持有的资产,币安控制着1.169亿个代币,价值273亿美元。 本文译自 https://www.forbes.com/sites/digital-assets/2023/10/05/how-binance-turned-its-failed-token-ico-into-a-billion-dollar-windfall/?sh=48cf0abe529b
Meta开源新的AI图像水印技术,但真的靠谱吗?
图片来源:由无界AI生成 AI 驱动的图像生成正在蓬勃发展,这是有充分理由的:它有趣且易于使用。虽然这些模型带来了新的创意可能性,但它们可能会引起人们对不良行为者潜在滥用的担忧,这些不良行为者可能会故意生成图像来欺骗人们。即使是为了好玩而创作的图像也可能会像病毒一样传播并可能误导人们。例如,今年早些时候,教皇方济各穿着一件华丽的白色蓬松夹克的图片在网上疯传,特朗普被逮捕的照片引发热议。这些图像不是真实的照片,但很多人都被愚弄了,因为没有任何明确的指标来区分这些内容是由生成式 AI 创建的。 Meta 研究人员近日发布了一篇新的研究论文和技术代码,详细介绍了一种为 AI 图片添加隐形水印的技术,用于区分开源生成式 AI 模型何时创建的图像。隐形水印将信息合并到数字内容中。这些水印肉眼看不见,但可以通过算法检测到——即使人们重新编辑了图像。虽然围绕水印还有其他研究方向,但许多现有方法在生成 AI 图像后创建水印。 据 Everypixel Journal 报道,用户已经使用三个开源存储库的模型创建了超过 110 亿张图像。在这种情况下,只需删除生成水印的行即可删除不可见水印。Stable Signature 提出了一种方法来避免水印被删除。 01 Stable Signature 方法的工作原理 论文地址: https://arxiv.org/abs/2303.15435 Github 地址: https://github.com/facebookresearch/stable_signature Stable Signature 通过将水印扎根于模型中,并使用可追溯到图像创建位置的水印,消除了删除水印的可能性。 让我们通过下面的图表来看看这个过程是如何工作的。 Alice 训练了一个主生成模型。在分发之前,她对模型的一小部分(称为解码器)进行了微调,从而为 Bob 生成给定的水印。该水印可以标识型号版本、公司、用户等。 Bob 收到他的模型版本并生成图像。生成的图像将带有 Bob 的水印。Alice 或第三方可以对它们进行分析,看看图像是否是由使用生成式 AI 模型的 Bob 生成的。 这通过两步来实现: 1. 联合训练两个卷积神经网络。 一种将图像和随机消息编码为水印图像,另一种则从水印图像的增强版本中提取消息。目标是使编码和提取的消息匹配。训练后,只保留水印提取器。 2. 对生成模型的潜在解码器进行微调以生成包含固定签名的图像。在此微调过程中,会对批量图像进行编码、解码和优化,以最大限度地减少提取的消息与目标消息之间的差异,并保持感知图像质量。这种优化过程快速有效,只需要小批量和很短的时间即可获得高质量的结果。 02 评估 Stable Signature 的性能 我们知道人们喜欢分享和转发图像。如果 Bob 与 10 个朋友分享了他创建的图像,然后每个朋友又与另外 10 个朋友分享了该图像,结果会怎样?在此期间,有人可能会更改图像,例如裁剪、压缩或更改颜色。研究人员构建了Stable Signature以应对这些变化。无论人们如何转换图像,原始水印都可能保留在数字数据中,并且可以追溯到创建它的生成模型。 研究人员发现 Stable Signature 相对于被动检测方法的两大优势: 首先,能够控制和减少误报的产生,当将人类生成的图像误认为是 AI 生成的图像时,就会发生误报。考虑到在线共享的非 AI 生成图像的盛行,这一点至关重要。例如,最有效的现有检测方法可以发现大约 50% 的编辑生成图像,但仍会产生大约 1/100 的误报率。换句话说,在每天接收 10 亿张图像的用户生成内容平台上,大约 1000 万张图像将被错误标记,从而仅检测到一半的 AI 生成图像。 另一方面,Stable Signature 以 1e-10 的误报率(可以设置为特定的期望值)以相同的精度检测图像。此外,这种水印方法允许追踪同一模型的不同版本的图像——这是被动技术无法实现的能力。 03 如果一个大模型经过了微调, Stable Signature 如何检测到微调版本生成的图像? AI 大模型的一种常见做法是采用基础模型并对其进行微调,以处理有时甚至为一个人量身定制的特定用例。例如,可以向模型显示 Alice 的狗的图像,然后 Alice 可以要求模型生成她的狗在海滩的图像。这是通过 DreamBooth、Textual Inversion 和 ControlNet 等方法完成的。这些方法作用于潜在模型级别,并且不会更改解码器。这意味着我们的水印方法不受这些微调的影响。 总体而言,Stable Signature 与矢量量化图像建模(如 VQGAN)和潜在扩散模型(如 Stable Diffusion)配合良好。由于这种方法不修改扩散生成过程,因此它与上述流行模型兼容。通过一些调整,稳定签名也可以应用于其他建模方法。 04 AI 水印真的靠谱吗? 通过添加隐形水印的方式来识别 AI 生成图像的技术最近受到很多争议。Google DeepMind 最近宣布针对图像生成推出一种添加水印的工具 SynthID,同时识别 AI 生成的图像。通过扫描图像中的数字水印,SynthID 可以评估图像是由 Imagen 模型生成的可能性。 但 AI 水印是否能够被轻易去除?据外媒 Engadget、Wired 等报道,美国马里兰大学的一个研究小组对 AI 生成内容的“数字水印”技术可靠性进行研究,发现这一技术可被轻易破解。 该校计算机科学教授 Soheil Feizi 面对 AI 生成图像的水印现状时直言不讳:“目前我们没有任何可靠的水印技术,我们破解了所有的水印。” 在测试过程中,研究人员可轻松避开现有的水印方法,并发现在非 AI 生成的图像上添加“假水印”更为容易。同时,该团队还开发出了一种“几乎无法”从图像中去除的水印技术,且不会完全损害图像的知识产权。 AI 水印这种方式仍旧不过成熟,并不能成为百分百有效的工具。我们需要期待未来能够出现新的技术来为生成式 AI 图像保驾护航,避免虚假图片泛滥,避免版权侵害。
无需机器学习专业知识,Amazon SageMaker Canvas从产品评论中挖掘商机
站长之家(ChinaZ.com)10月10日 消息:根据Gartner的数据,85%的软件购买者信任在线评论,就像他们信任个人推荐一样。顾客提供了关于他们购买的产品的反馈和评论,这些反馈来自多种渠道,包括评论网站、供应商网站、销售电话、社交媒体等。然而,随着多渠道评论数据的增加,企业需要寻找一种方法来处理和分析这些数据,以获取有价值的洞见。这就是Amazon SageMaker Canvas发挥作用的地方。 Amazon SageMaker Canvas是一个专为业务分析师设计的工具,它允许用户在不编写代码或需要机器学习专业知识的情况下,对表格数据进行即席分析。该工具提供了现成的人工智能模型和自定义模型解决方案,以满足不同的业务需求。使用SageMaker Canvas,用户可以生成准确的机器学习预测,无论是互动性的预测还是对大规模数据集的批处理评分。 Amazon SageMaker Canvas如何进行情感分析和文本分析,以从产品评论中获得有价值的信息呢?首先,使用情感分析模型来确定产品评论的情感,然后,将训练一个自定义文本分析模型,以根据产品类型对评论进行分类。 情感分析是一种自然语言处理模型,用于分析文本的情感。它可以帮助企业了解顾客对其产品的情感是积极的、消极的、混合的还是中性的。另一方面,文本分析模型可以帮助企业根据文本的内容将评论分类为不同的产品类型,从而更好地理解顾客对不同产品的看法。 使用Amazon SageMaker Canvas,企业不再需要拥有机器学习专业知识或雇佣数据科学家来进行这些任务。业务分析师可以轻松地使用这个无代码机器学习工具,从产品评论中获取有关客户情感和产品分类的有用信息,以指导业务决策和改进产品和服务。不仅如此,SageMaker Canvas还提供了完整的自定义模型训练流程,以适应特定的业务需求。 Amazon SageMaker Canvas使业务分析师能够轻松进行无代码机器学习,从而从产品评论中获得宝贵的洞见,提升产品质量,满足客户需求,推动业务增长。不需要机器学习专业知识,任何企业都可以受益于这个强大的工具,提高竞争力并提供更好的客户体验。
挑战GPT-4V!清华开源多模态14边形战士问世:在线可玩
看看这张图中有几个房子?如果你回答3个,就和GPT-4V的答案一样。 但是最新开源的国产多模态模型CogVLM-17B,就能看出另有玄机。 甚至能区分在图中完整可见的有3个和部分可见的有1个。 CogVLM由清华和智谱AI合作开发,通讯作者为唐杰和丁铭,论文和开源代码已上传到GitHub。 除这个单独案例之外,CogVLM-17B还在10项权威跨模态基准上取得了SOTA性能。 另外在VQAv2, OKVQA, TextVQA, COCO captioning取得第二,超越或匹配谷歌的PaLI-X 55B。 与之前的开源多模态大模型相比,可以算是14边形战士。 雷达图中包含13个基准,最后一个TDIUC单独展现。 CogVLM可以回答各种类型的视觉问题,比如从马斯克的阴阳怪气中推理出小扎假装去旅行了,回避约架。 认出照片中的C罗,并回答他在2018年世界杯中有多少进球。 带图的编程题也能给出代码了。 甚至能完成复杂的目标检测,并打上标签,自动数据标注成了。 从浅层对齐到深度融合 CogVLM模型包含4个基本组件 ViT编码器 MLP适配器 大型预训练语言模型 视觉专家模块 其中,每层中都添加了可训练的视觉专家模块,以实现图像特征和文本特征的深度对齐,而不会牺牲任何NLP任务的性能。 之前主流的浅层对齐方法,如BLIP-2,图像特征和语言模型之间缺乏深度融合,导致性能不佳。 但微调语言模型的全部参数又会损害其NLP能力。 CogVLM的方法可以说是改变了视觉语言模型的训练范式,从浅层对齐转向深度融合。 另外值得注意的是,CogVLM训练数据中没有专门的OCR数据,但表现出了很强的文字识别能力。 CogVLM开源并给出了在线试玩。 不过目前仅支持英文,后续会提供中英双语版本支持,可以持续关注。 试玩地址:http://36.103.203.44:7861 开源及论文地址:https://github.com/THUDM/CogVLM
90后AI天才的大模型首战
采访|邓咏仪 杨轩 文|邓咏仪 编辑|杨轩 苏建勋 站在核爆中心圈,是一种什么样的体验? 在这次ChatGPT引发的AI大爆炸中,做了十年堪称冷门的NLP(自然语言处理)的杨植麟,就处在这样一个位置。这位保送清华、程序设计课程满分的“少年天才”,在卡耐基梅隆大学读博士时,就已经作为第一作者发表的关于Transformer-XL与XLNet的两篇论文,成为本次AI大模型技术能够突破的重要一环。 “先是非常激动,好像被苹果砸中一样,”杨植麟对36氪说,随即又陷入沮丧,再想到可干的事情还很多,又“兴奋起来”。 这也是他新创办的第二家AI公司“月之暗面(Moonshot)”的由来。Moonshot这个名字,则来自英国著名摇滚乐队Pink Floyd的专辑《Dark Side of the Moon》。 杨植麟认为,做大模型如同登月工程一样,“月之暗面”意味着神秘,令人好奇和向往,同时又极具挑战难度。 事实上,月之暗面的核心团队曾参与到Google Gemini、Google Bard、盘古NLP、悟道等多个大模型的研发中——这是一支在“登月”道路上已探索多年的队伍。而AI大模型,目前还在一个以技术能力定成败的阶段。 在这半年的国内大模型市场中,Moonshot显得尤为沉默,但并不妨碍投资人的蜂拥而至。36氪最新获得的消息是,月之暗面已经完成一轮超过2亿美元的融资,目前身处中国大模型创业公司融资额第一梯队。 成立半年多后,10月9日,Moonshot终于推出了首款大模型产品:智能助手Kimi Chat。这也是Moonshot在大模型领域做To C超级应用的第一次尝试。 Kimi Chat支持输入20万汉字,这是目前全球大模型产品中所能支持的最长上下文输入长度。这也代表着,Moonshot在长文本技术的探索突破到了一个新高度——对比当前市面上几家主流模型,Kimi Chat的上下文长度是Claude 100k的2.5倍(实测约8万字),GPT-4-32k的8倍(实测约2.5万字)。 如今市面上的大模型产品繁多,拓展了上下文长度的Kimi Chat,在使用上有什么不同? 最明显的是,你可以一次性给模型输入大量的信息,由模型理解进行问答和信息处理,有效减少幻觉问题。 比如,公众号的长文也可以交给Kimi Chat ,让它帮你总结分析: 发现了新的算法论文时,Kimi能够直接帮你根据论文复现代码: 快要考试了,直接把一整本教材交给Kimi,就可以让它陪你准备考试: 甚至,也可以只用一个链接就让它来扮演你喜爱的游戏角色,和你对话: 目前,Moonshot AI 的智能助手产品Kimi Chat已开放了内测。访问Moonshot.cn(或于文末扫描二维码),即可加入内测计划。 长文本:大模型落地的另一瓶颈 值得关注的一点是,不同于其他大模型公司拼参数、展示各种各样的行业案例,在Moonshot的首次发布会上,“长文本”成了绝对的主角。 “无论是文字、语音还是视频,对海量数据的无损压缩可以实现高程度的智能。而要有效提升大模型的性能,不仅要扩大模型参数,更要提升上下文长度,两者同样重要。”杨植麟表示。 大模型之所以能在智能水平有质的飞跃,是因为通过扩大参数规模,突破到了千亿级别,才能够让智能“涌现”(Emergence,指模型自主产生出复杂行为或特性)。 但如今,大模型落地更重要的瓶颈不是模型大小,而是在于上下文不够,文本长度不足会带来对模型能力的严重束缚。 一个典型问题是,如果遇到多轮对话或者需要复杂步骤的场景,往往会出现模型记不住的情况——讲了具体设定,但下一回合就忘记。比如,Character AI的用户就经常吐槽模型记不住关键信息: 这与计算机运行的原理类似:计算机依靠CPU进行计算;内存则存放了临时计算的数据,决定其运行速度。“如果说参数量决定了大模型支持多复杂的‘计算’,而能够接收多少文本输入(即长文本技术)则决定了大模型有多大的‘内存’,两者共同决定模型的应用效果。”他解释道。 这也是Moonshot在保持模型拥有千亿级参数的同时,首先将上下文长度先“拉满”的原因。 要想做到拓宽上下文长度(Context),在模型训练和推理侧都存在算力+显存的双重挑战。 比如,计算量会随着上下文长度的增加呈平方级增长——比如上下文增加32倍时,计算量实际会增长1000倍;而在推理方面,目前最高单机配置 80 GiB * 8 在面对 GPT-3 这类千亿参数级别的模型时,最多只能推理约5万字上下文长度。 但在Kimi Chat上,Moonshot团队通过创新的网络结构、改进算法策略等等,对模型训练的各个环节进行了上百项的优化,从而在千亿级参数下可以实现对超长文本的全文理解。 简单而言,Moonshot AI并不通过当前滑动窗口、降采样、小模型等对效果损害较大的“技术捷径”来实现长文本,而是研发基于大模型的长程注意力,以实现真正可用的超长文本技术。 让模型“记性”更好,会让大模型未来的应用场景拓宽不少。比如,律师、分析师等职业,就能让大模型分析长篇报告;像狼人杀这样需要基于大量信息来推理的游戏,大模型也能够胜任。 而在本次产品发布前,36氪曾与杨植麟进行过一次深谈。作为站在这次技术核爆中心圈的人,杨植麟谈起AI大模型,有种笃定感。对于产品之外的技术展望,他会不时用轻松的语气,抛出一些让人一愣的断言。 比如,“Next token prediction(预测下一个字段)是唯一的问题。”“只要一条道走到黑,就能实现通用泛化的智能。” 比如:“五年之内,大模型将持续保持较强的技术壁垒,不会Commoditize(变成平价的、没有壁垒的商品)。” 从LLM(大语言模型)到LLLM(长文本大语言模型),Kimi Chat只是Moonshot的第一步。不过,如今的Moonshot已经寄托着杨植麟对未来的一些很“黑镜”的预想:在未来,如果机器能够掌握一个人一生的信息,人们就会拥有自己的AI分身,这个AI分身共享了你的所有记忆,无异于另一个你。 以下为36氪与杨植麟的对话实录,经36氪编辑整理: 时隔七年,两次AI创业 36氪:先来聊聊这次产品发布吧。很多大厂、创业公司都会选择先发一个具体的大模型,开源或者闭源的都有。大模型已经火了半年后,Moonshot如今选择先发一个To C的智能助手产品。为什么? 杨植麟:因为我始终坚信以终为始,只有当大模型被多数人使用时,才会涌现出最多的智能。Moonshot会秉承以应用为导向的模型开发,我们并不想只是发布一个模型,以迅速获得科技圈可能的短期技术关注。 比如,“长上下文”这个技术的价值,可能很难第一时间让用户感知到。但通过Kimi智能助手,就可以直接触达用户。我们希望让技术成为用户日常生活中一旦接触就不可或缺的助手,以真实的反馈做来迭代模型,尽早地创造实际价值。 36氪:ChatGPT出来之后,这半年你的心情是怎么样的? 杨植麟:这一年来,我是百感交集。如果是什么可控核聚变的突破,那其实跟我也没什么关系,但这个事情(大语言模型)是我做了十年的事情,我觉得就好像是被苹果砸中一样。 ChatGPT刚发的时候,我非常激动,我好奇这个世界到底能做什么样的AI,我能多大程度去复制、甚至做得比人脑更好。 同时,我也陷入到非常沮丧的状态——因为这个事情也不是你做出来的对吧?我会开始想在这个浪潮里我还能贡献什么,又开始兴奋起来:现在是非常好的timing,不管发生什么,一定要做。 36氪:所以,ChatGPT算是直接促使你创立新公司“月之暗面”? 杨植麟:对。从一开始的激动到沮丧,再决定创业之后,我逐渐恢复理性思考,思考想要什么样的团队来做,现在是技术演进过程里的什么阶段,我们要做什么? 然后再开始焦虑——铺天盖地地,所有人都说要做大模型,那大模型到底能不能做?是不是做不了? 最后又会回到理性。我会去更长期地看这些个事情,短期内的大模型进展,比如东边发一个模型,西边发一个,其实都是噪音。GPT-4的水平在这儿(高一截),其他模型都是在下面,其实大家现在说“我比你高”“你比我高”,没什么意义。 我这半年都在思考底层逻辑,最后发现这件事还是很适合我们来做。 36氪:适合在什么地方? 杨植麟:每一次技术突破里会有三层的机会。 第一层机会,是被第一个找到第一性原则的人抓住,那就是OpenAI。这需要很强大的vision,非常高瞻远瞩,这是靠经验所支撑的。 第二层机会就是在技术创新期,能解决一些技术方向性的问题——比如long context(长上下文对话窗口)怎么做?能把技术做好的团队能抓住。 第三层是纯应用的机会,就是技术已经全部清楚了,不再需要考虑技术层面的事情,只做应用。我们可以抓住的是第二层机会,在这个层面我们拥有很好的积累和优势。 36氪:月之暗面想做的大模型,是怎么样的? 杨植麟:我们希望先把模型能力做到世界领先水平,同时也会聚焦C端的超级应用,通过产品连接技术与用户,从而共同创造通用智能,Kimi Chat只是我们的第一个产品尝试。 我们现在做的模型已经到千亿级,未来会是一个多模态大模型,当前会先把语言模型做好。 36氪:在做应用上,你们大概思考的方向是怎么样的? 杨植麟:我们还处在技术创新的阶段,所以我们会先持续追求世界级的技术突破,比如长上下文、多模态等。 而在产品层面,我们肯定是坚定在To C这一侧,希望能做头部的Super App。以ChatGPT和Character.ai为例,这两个产品已经积累了大量的数据和用户反馈,有大量的迹象证明已经通过这种的产品产生了新的入口,新一代AI在“有用“和”有趣“两个方向上,都会有巨大潜力。 我相信,无论是智能助手还是情感陪伴,我们都能通过技术为更多人解决工作和生活中的实际问题。 36氪:什么样的是真需求? 杨植麟:比如Character.AI的情感更多元化,他其实底层满足的是人的征服欲,我觉得征服是一个真正的刚需。 AI最后不会是一个完全同质化的东西。它不像电,在新加坡充电和中国充电是一样的。所以像Character.AI最后所实现智能可能比其他公司会更强,因为他们有数据能一直积累,后面可以做一些专业化,这也导致以后AI的毛利率会比以前的云计算要高。 36氪:好多大模型公司忙着在硅谷挖人,比如从OpenAI、Google、微软。你是怎么组建起月之暗面的团队的? 杨植麟:我们很多人还是重新招的。我们更多是找这种30岁左右,有很多一手实践经验的人。从去年12月开始,我就去了一趟海外,开始为招人做储备了。 36氪:海外的AI人才愿意回来吗? 杨植麟:我们在海外有office,其实两边还是可以相结合的。 36氪:现在月之暗面团队有多少人?你预想中的团队,会是什么样子? 杨植麟:我们的团队约60人,有很多技术专家,每个月都有在全球某个领域有显著影响力的人加入,我们在努力打造大模型公司里产品人才密度最高的团队。 互联网时代的技术和产品已经成熟分工,但我们希望产品团队能更直接地参与模型优化,大幅缩短创新周期。智能时代无论技术、产品、增长还是商业化,都存在创新的机会。我们的愿景是建立一个全新的组织,能与用户共情,也能用客观数据来定义美和智能标准,将科技与人文融为一体。 36氪:OpenAI会是这种组织的理想状态吗? 杨植麟:我觉得他们提供了很多很好的实践。比如他们就不搞赛马,这是非常重要的例子。 这并不是因为他们资源或者人不够。他们资源挺多,但是会把资源放到一个统一的scope下面。 比如,他们希望花10%的精力去探索一些新的东西,那会有一个团队在做这个事情,主线永远就只有这一个——这是非常重要的。并且,他们鼓励底层创新,每个人贡献想法。 36氪:现在不少人关注成本问题,这直接关系到工程化的成本,还有后续的商业化进展。现阶段,你最关注的是什么因素? 杨植麟:就是能不能尽快找到PMF,这是第一优先级。 36氪:现在不少大厂、创业公司都在发开源模型,Moonshot有开源计划吗?你怎么思考这个问题? 杨植麟:我们目前没有开源计划。我认为,开源和闭源在整个生态里面会扮演不同的角色,开源很大一个作用是在To B端的获客,如果想做头部的Super App,大家肯定都是用闭源模型去做的,在开源模型上做C端应用很难做出差异化。 36氪:你从博士阶段就已经开始创业,之前创立第一家AI公司“循环智能”的经验,会给你什么启发? 杨植麟:现在月之暗面还是处在第一阶段,更重要的任务是降低不可预测性等偏技术上的工作,其实不会太受到外部因素的影响。 但从大环境上来说,不可预测性肯定是要比之前更多了。几年前的年景更好,可以顺着市场做扩张,做营收;但市场不好时,反而是需要做成本控制、降低烧钱速度。这也是我从上一段创业经验学到最多的。 大模型很烧钱,把握好投入的速度,同时还要保证自己还是要拿出东西,有产品数据,是非常关键的问题。 预测下一个token是唯一问题 36氪:AI领域有几大方向:图像识别(CV)、自然语言处理(NLP)、机器学习(ML)。前几年CV方向更热闹,上一波AI四小龙(商汤、旷视、云从、依图)也都是这个方向。你的研究方向一直集中在NLP,为什么? 杨植麟:抛开偶然因素,还是有一些必然的原因。我觉得,Vision(视觉)方向其实更早地看到一些产业成果,但NLP可以去解决更多认知类的问题,让AI真正实现价值。 36氪:NLP怎么让AI真正发挥价值? 杨植麟:NLP相当于是从视觉的感知层面,进化到更有认知的层面。 像Midjourney这种AI绘画产品,它可能生成的图片特别好看,但它本质是一个没有大脑的画家——你不知道中美关系怎么样,不知道印第安人以前是怎么被奴役的。你需要知道这些历史,才有可能成为一个顶级画家。甚至最后不光只是画画,你还要做很多画画之外的事情。 从这个点来说,NLP会解决更难的、更有挑战性的问题,比如推理,它的存在会让AI的版图更加完整。 36氪:Transformer是你主攻的研究方向,它也是ChatGPT诞生的基础。Transformer的革命性意义在什么地方? 杨植麟:我比较幸运的地方在于,我博士有一半时间是在2017年之后。因为2017年Transformer出来了,这是一个超级巨大的分水岭。 Transformer架构的出现让整个NLP领域都发生了巨大的认知变化。有了这个东西之后,你就发现这里面可以做的东西实在太多了,突然一下子就给大家指明了方向。有很多之前完全无法实现的东西,它现在变得有可能了。 36氪:怎么理解这个“认知层面的变化”? 杨植麟:AI领域对语言模型的认知,存在三个阶段的变化: 2017年前,大家觉得语言模型有一些有限的作用,比如在这些语音识别、排序、语法、拼写等等小的场景里面可以做辅助,但用例(Use Case)都很小; 第二个阶段:Transformer、Bard出现后,语言模型可以做绝大部分的任务,但它还是一个辅助的角色——我有一个语言模型,AI工程师微调一下任务就好了; 到第三阶段,整个AI领域发展到最后,大家的认知会变成:所有东西其实都是语言模型,语言模型是唯一的问题,或者说是next token prediction(预测下一个字段)是唯一的问题。 这个世界其实就是一个硬盘模型,当人类文明数字化之后,所有人类文明之和就是硬盘的总和。输入的Token是语言,或者也可以是别的东西——只要能预测下一个Token是什么,那我就能实现了智能。 从思想到系统的层面,其实技术发生了非常大的变化,这里面有很多变量。然后你就可以在这个空间里面去看,怎么把这些技术做的更好。 36氪:从2017年Transformer出现到今年ChatGPT爆火,中间还有五年的时间。这五年里,你的重要工作——有关Transformer-XLNet的论文,其实也有被拒稿过。中间有过对自己研究路线的怀疑吗? 杨植麟:这个很有意思。当因为行业发生认知变化,而变化还没有调整过来的时候,会存在非共识。 部分人觉得非共识是错的,但其实他实际上是对的。OpenAI在这里面绝对是一个先驱,因为他们最早有这种正确的非共识,最早看到“语言模型是唯一的问题”这一点。 我们当时的研究效果非常好,能实现当时全世界最好的效果。但评审就问我们一个问题:就是说语言模型有什么用?你们好像没有证明他有用。 但是这个时候其实你要做的事情并不是说去寻求认同,而是说你要把真把那个事儿给做出来。 36氪:你说“唯一重要的问题就是预测下一个字段。”这个事儿在当时如果是非共识的话,你是怎么意识到这一点,并且坚信的? 杨植麟:坦白说,我在那个时候还没有完全坚信这个事情,直到现在我觉得它也不一定是个共识,而是在逐渐变成共识的过程中。 36氪:什么叫“预测下一个字段”,应该要怎么理解? 杨植麟:本质上,做下一个token的预测,其实等价于“对整个世界的这个概率去进行建模”,就是现在给你任何一个东西,你都能给他估算一个概率。 这个世界本来就是一个巨大的概率分布,里面有一些是不可建模的不确定性,你不知道下面会发生什么。但有一些是你能确定的,能排除掉一些东西的,这是一个通用的、对世界去进行建模的模型。有很多历史学家来对这个事情做过研究,比如Density Estimation(密度统计),大模型本质是在做这样一个事情。 但当时我只意识到这是个重要的问题,而没有意识到是唯一要解决的问题。 36氪:那是什么时候让你改变主意了? 杨植麟:2020年GPT-3出来的时候,那个时候有了更明确的证据。OpenAI的人最厉害的点是,他们观察到了更多的数据,再更早的时候真正去把模型参数、训练规模扩大,所以他们更早地知道只要一直scale(扩大规模),就可能解决所有的问题。 36氪:知道它是如此重要之后,这会怎么影响你的技术路线? 杨植麟:回到刚刚那一点,如果这个世界只有一个问题:要预测下一个字段,那么输入和输出其实是一样的——也就是“理解”和“生成”其实也是同一个问题。 几年前,我们自己也会区分,到底是要做理解模型还是生成模型,但现在不需要了。 36氪:不过,现在有很多团队的技术路线,可能会先做文字理解,在理解这一端做得更多些,生成可能会靠后一点。 杨植麟:这些思考方向不够本质。现在任何说“只能做理解而非生成”都是错误的方向。正确的方向应该是:理解和生成就是一个问题。如果能做很好的理解,那能做很好的生成,这两个应该是完全等价的。 36氪:相当于这两者无法分开来。 杨植麟:对的。现在就只有一个问题。比如说我能够去生成接下来10秒钟的视频,我那我必须对之前的这个视频有很好的理解,你得知道他发生了什么,这是一个什么样的story,接下来很有可能是什么样的演进,它是分不开的。 36氪:你对实现AGI(通用泛化的智能)有信心吗? 杨植麟:有没有信心取决于它的第一性原理,我觉得大家现在已经明白原理了,只有一个问题:就是预测下一个字段。一条道走到黑的话,我觉得就能实现。 但确实还存在一些“第二层面”问题,也就是具体的技术方向难题。但是这些都是小问题,并非原则性的,第二个层面就是我们要去攻克的。 人的一生不过是大量的信息 36氪:用一句简短的话来描述月之暗面的目标跟远景,你会怎么说? 杨植麟:长期的几个目标是:探索智能的极限,让AI有用,以及让每个人都能拥有真正普惠的AI。 36氪:“普惠的AI”怎么理解? 杨植麟:现在的一个问题是,很多时候AI的价值观是被一个处于中心的机构控制。一个模型表现成什么样子,完全是由平台来决定——TA觉得什么是“好的”,什么是价值观正确的答案。 但每个人会有自己的价值观。价值观是更底层的东西,它其实还包含很多可能——你的偏好,也就是你认为什么是对的,什么是错的。 每个人都应该要有这种个性化定制的机会,所以以后的AI也应该要拥有“对齐”的机会。(对齐Alignment,指确保AI系统的行为匹配预期的人类价值观和目标的过程)。当然,我们肯定要去设置安全底线,以及监管层面的东西。在这个底线的基础上,我们可以有很多个性化AI的机会。 36氪:个性化的AI,它的实现路径是什么?每个人都能训练一个代表自己的AI模型吗? 杨植麟:你刚说的训练是一种方式,但我认为可能后面也许不需要去训练,也许直接设置就可以了。 最终的一个可能形态是,AI会数字化的所有东西全部记录下来,你的手机、电脑上会有一个和你共生的AI Agent(AI代理、AI分身),它会知道所有一切你能知道的东西。 36氪:你在你的个人主页上写,你的所有的工作目标都是“让AI价值最大化”。这指的是什么? 杨植麟:最大的价值就是,最终每个人不用做自己不想做的事情,保留人性里面最精华的部分。 比如,我们这次谈话也可以不用面对面,而是有更高效的方式——比如由我们的AI Agent直接对话。在公司也是一样,现在的组织要花时间去定绩效、考核。其实这都会非常花时间。以后我们也许就不需要公司了,一个人的效率会高很多,也不用为了赚一点钱就非得要去上班,可以用AI来做很多工作。 要达到这样的效果肯定很难,但最终人类有可能实现生产最大化。最后,也许真正的共产主义会出现。 36氪:如果让你现在对未来做一个预测的话,你觉得十年之后我们这个社会会有什么样的变化?或者说AI对这个社会最大的变革,你觉得会来自什么方面? 杨植麟:十年有点难,五年可以说一说。 我觉得至少五年内大模型技术不会commoditize(指技术还会有壁垒,不会变成廉价的商品)。因为至少还有一大批模型没有出来,我们还没有真正看到视频大模型。 我觉得这两年可能是文本模型持续迭代的窗口。后再过三年,是视频模型持续迭代的窗口,这里始终是有技术壁垒的。 36氪:所以,视频大模型会是关键性的节点? 杨植麟:对的,这些节点都迈过后,会出现一个巨大的变革。 美国有一个公司叫Rewind(主打“记录一切”,让人类搜索一切在上看见过的所有内容),现在的产品能实现的效果,可能只是能问它:我上个月做了什么?它会记录下来,现在的效果还是比较浅层的。 以后的AI Agent会更加深度地实现个性化。比如,大模型会和你有共享的记忆,知道你所有的价值偏好,所有的价值取向。如果你让他写一个Q3的规划,他会基于已知的这些东西直接去写规划,而不需要知道Q2做了什么东西。 36氪:从文字到图片,再到视频大模型、Agent,要实现的关键是什么? 杨植麟:是context(上下文长度,也可以理解为模型单次能处理的信息量),这基本决定了AI能产生价值的上限。 如果大模型的context就是你的全部记忆,理论上,那它就可以做你现在做的全部事情。 对于大模型来说,最关键的一点就是,你到底能有多少context被捕捉到。这取决于视频模型的能力,如果模型能力很强,理论上你的手机和电脑加起来就差不多是你完整的context。 人的一生也不过是如此,我们每天就活在数字世界里面。可能除了我们现在这种线下对话,他可能捕捉不到,其他大部分都是都ok的。 36氪:如果真的达到这种状态,人类应该要怎么和机器共存? 杨植麟:我自己是比较乐观,就是说他在提供更多生产力的同时,他应该会创造很多新的岗位。 视频现在是大家花时间最多的地方,所以他肯定会对生产关系产生很大的影响。所以每个人可能都可以生产(视频),很多价值会被重新分配。 但这是一个反馈闭环时间比较长的事情。挑战在于,当前替代现有岗位的速度比创造新岗位的速度更快。核心问题在于,在理想的岗位没有被创造出来之前,我们如何解决一些社会问题。 36氪:普通人怎么去面对这次技术变革?这种变化继续下去,普通人应该做点什么? 杨植麟:我觉得最重要还是学习。不光是普通人,我觉得所有人,拥有最强终身学习的能力的人,以后才能够实现自己真正的价值。 另外一点是要open minded。我四五年就找过很多人说,要不要来一起做大模型,当时他们说我现在要做数字人,你不要跟我讲这些东西(笑)。所以人确实有时候还是会被自己认知所局限。无论我们对技术的态度如何,历史的发展都是超出个人意志的。因此,我们要不断的自我迭代,适应这个世界唯一不变的,就是变化本身。
人工智能时代:为何强监管是关键?
我们有理由相信,人类将能够引导这场科技革命走向更加明亮、公正和有益的未来。 想象一下,有一个超级助手,它能在瞬间为你推荐理想的餐馆,解答复杂的问题,甚至为你创作动听的歌曲。没错,那就是人工智能——我们时代的神奇之力,在短短的时间内闯入各个行业,宛如“超级英雄”般为我们创造了前所未有的价值。 与此同时,人们对人工智能的担忧也悄悄累积。它会不会误传假消息?我们的工作还安全吗?它会不会在未来某一天,突然宣布“你的工作,我来做”?或者更让人心悸的,它会不会变得聪明到超越人类,成为地球上的新霸主?如何给这位“超级英雄”制定规则,设定边界,确保它为人类服务而非反其道而行之,已经成为全球范围内的热门议题。 2023年6月12日,联合国秘书长古特雷斯表示,响应一些人工智能行业高管的提议,成立一个像国际原子能机构的国际人工智能监管机构。此外,他还透露,计划在今年年底前启动一个高级人工智能咨询机构,定期评估人工智能的管理措施,并就如何使人工智能与人权、法治和人类的共同利益保持一致提出建议。 2023年7月6日,2023世界人工智能大会(简称WAIC)在上海开幕。在开幕式上,特斯拉首席执行官埃隆·马斯克发表视频讲话:“我们需要一些监管措施对人工智能进行监督。考虑到深度人工智能所可能展现出的超越人类的能力,它可能引领我们进入一个积极的未来,也有可能导致某些不太乐观的结果。我们的目标应该是确保走向那个光明的未来。” 2023年9月13日,美国参议院多数党领袖查尔斯·舒默(Charles Schumer)主持召开首届“人工智能洞察论坛”,科技界领袖们应邀参加。这场为期一天的闭门会议的核心议题是:如何为日益强大的人工智能技术制定法规,确保人类能够掌控这项技术,而不是被它掌控。 当你看到参会者名单时,你可能会为他们的实力而震惊:特斯拉的埃隆·马斯克、Meta的马克·扎克伯格、Alphabet的桑达尔·皮查伊、Open AI的萨姆·阿尔特曼、英伟达的黄仁勋、微软现任首席执行官萨蒂亚·纳德拉和前首席执行官比尔·盖茨,还有IBM的阿文德·克里希纳。这群科技巨头的总身价已经接近5500亿美元,这是一个惊人的数字,大约相当于4万亿元人民币。 会议结束后,舒默向在场的记者分享了一个观察:当他提及“政府是否应该在人工智能的监管中扮演角色”这一问题时,场中的每一个人都举起了手(表示同意)。尽管他们的具体观点有所不同,但对于监管的必要性,已经形成普遍共识。 通过上述几则新闻,我们可以发现,对人工智能进行必要的监管,无论是政治家、科学家,还是企业家,大家都有了共鸣。人工智能的进步在为我们带来诸多便利的同时,也带来了前所未有的挑战。只有通过明确的规范和指导,我们才能确保这一技术走向成熟,而不是失控;确保人工智能真正为人类的未来服务,而不是对其构成威胁。那么,人工智能目前到底存在哪些问题呢? 2023年2月16日,怀孕8个月的32岁美国女子Porcha Woodruff,遭到了一个意想不到的打击,她被人脸识别技术错误地标记为犯罪嫌疑人。那天清晨,当Porcha正忙于送孩子上学时,6名警察突然出现在她家门口。他们手持逮捕令,指控Porcha涉及一宗抢劫案。这起事件始于一个月前,当时一名受害人向警方报告了抢劫案件。为了查找嫌疑人,警方使用了人脸识别技术分析了相关的监控录像。结果,系统提供的6张疑似嫌疑人的照片中包括了Porcha Woodruff,更不幸的是,受害者错误地确认了她。Porcha不甘于这一荒唐的误判,她选择起诉底特律警局,并最终成功为自己伸张正义。这得益于她当时的身孕状况,可以证明她不可能是这起案件的真正罪犯。 上述这个案例,揭示的就是人工智能存在的偏见与歧视问题。人工智能很大程度上依赖数据来学习和作出判断。但如果训练数据本身存在偏见,那么算法模型可能会放大这种偏见,比如种族和性别歧视。以人脸识别技术为例,一些系统在识别非白种人面孔时出现了问题,因为训练数据主要基于白种人的面部数据。 Porcha Woodruff事件只是人工智能带来的诸多问题中的一个。在信息传播方面,人工智能存在的问题,是“人工智能幻觉”(AI hallucination)和深度伪造(Deepfake)技术。Deepfake是英文“deep learning”(深度学习)和“fake”(伪造)的混成词。 以ChatGPT为代表的大模型的一个明显缺点,是人工智能幻觉,有时它会一本正经地胡说八道。它总能就用户提出的问题或请求,作出“信誓旦旦”的答复。但用户必须警惕,这可能是生成式人工智能(AIGC)为了取悦你而说出的“谎言”。有报道称,当询问一个大模型关于历史事件的详情时,它可能会添加一些不真实或夸张的细节。 6月22日,美国纽约联邦法官作出一项判决,Levidow,Levidow&Oberman律师事务所引用了ChatGPT撰写的一份由虚假案例引证的法庭简报,行为恶劣,对其处以罚款5000美元。受到处罚的律师事后表示,他反复询问ChatGPT那几起不存在的案例是否是真的,而ChatGPT给出肯定的回复,还称可以在多个法律资料库找到。 除了胡说八道,被人诟病的还有深度伪造技术。2023年1月,全球第一部运用深度伪造技术,实现人工智能合成名人面孔的节目——《深度伪造邻居之战》(Deep Fake Neighbor Wars),在英国电视公司ITV的流媒体平台上线。在这部没有明星实际出演的喜剧中,一群在替身演员基础上由人工智能合成的“名人”成了邻居,在一起插科打诨。 今年早些时候,当美国前总统特朗普在纽约接受审查时,社交媒体上充斥着许多由人工智能生成的伪造图像,似乎显示他与警察发生肢体冲突。如果这种技术被用来伪造政治家或公众人物的言论或行为视频,那么可能给他们的声誉带来深远的负面影响。在此背景下,我们不得不思考:当名人的面孔被人工智能技术合成使用时,他们能否主张其肖像权受到侵犯?他们是否有权获得相应的报酬?制作这类内容的节目或平台需承担何种法律责任?对于这种技术生成的内容,政府有没有相关的监管措施? 另一个关键问题,是人工智能决策的透明度和可解释性。众所周知,许多深度学习模型因其复杂性而被视为“黑箱”。这意味着,尽管这些模型在各种任务上展现出了惊人的准确率,但其内部工作原理和决策机制往往对算法开发者自己都显得难以捉摸。例如,当某人工智能系统拒绝某人的贷款申请时,我们如何确定它是基于客观的信用评分、收入资料,还是其他不那么明确的因素作出的判断?这种不透明性可能导致决策偏见,并在某些情况下产生不公正的结果。 此外,当人们依赖某家企业提供的算法模型作决策,如果由于模型的不准确性导致的失误引发了经济损失或其他负面影响,那我们不得不思考:是模型还是使用者应承担责任?或者说,企业是否有义务在提供模型时明确其可能的风险和局限性? 在医疗领域,当人工智能医疗系统为医生提供疾病诊断建议时,医生往往会思考这些建议的来源以及其背后的数据和推理逻辑。这不仅是医生的问题,也是患者的问题,因为在关乎健康,甚至生命的重要决策中,信任是关键。但是,如果人工智能模型的工作方式像一个“黑箱”,那么如何确保我们不被其可能存在的误导性输出所欺骗呢?当我们开始过度依赖机器作出关键的医疗决策时,我们就面临失控的风险,谁敢保证这个系统每一次都能作出正确决定? 隐私泄露也是一个日益突出的问题。为了提供个性化的服务或优化其模型,众多公司不惜采集大量的用户数据。但随之而来的是这些敏感数据可能面临被非法窃取或被不当使用的风险。据此前媒体曝光,5000万脸书(Facebook)用户的信息,在用户不知情的情况下,被剑桥分析公司违规滥用。这家公司据此向目标用户投放了高度定制的政治广告,旨在2016年美国总统大选中为特朗普的竞选团队拉票。这起事件凸显了我们在数字时代中面临的隐私挑战和企业使用数据的道德界限。 这些问题仅仅是冰山之尖。随着技术进步的脚步,我们可能会面临更多尚未预见的挑战和困境。为应对这些情况,各国正在加强监管力度,不断探索有效的应对策略和前瞻性的解决之道。 早在2021年9月25日,中国国家新一代人工智能治理专业委员会就发布了《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。这里面的第12条,提到了增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。第13条提到了避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。 从2021年,中国陆续发布三部重要的部门规章:《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》,从算法、深度伪造、生成式人工智能等方面对相关技术的发布者提出监管要求。 这三部规范,也确立了中国将采取“包容审慎的分类分级监管”原则。有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,将制定相应的分类分级监管规则或者指引。 欧盟的人工智能监管路径,主张“以人为本(human-centric)”,在促进人工智能发展与创新的同时,构建监管体系以防范风险、保护公民基本权利和安全。2022年12月15日,欧盟委员会主席、欧洲议会和理事会主席共同签署并发布了《欧洲数字权利和原则宣言》。《宣言》强调人工智能应该是人类的工具,最终目的是增进人类福祉。每个人都有权从算法和人工智能系统的优势中受益,包括在数字环境中做出自己的知情选择,同时保护自己的健康、安全和基本权利免受风险和损害。 《宣言》要求技术公司承诺建设以人为本、值得信赖和合乎道德的人工智能系统。这需要他们做到“六个确保”。 1.确保在使用算法和人工智能方面有足够的透明度。 2.确保人们有能力使用它们,并在与它们互动时获得信息。 3.确保算法系统基于足够的数据集,以避免歧视,并使人们能够监督影响人们的所有结果。 4.确保人工智能等技术不被用来抢夺人们的选择,例如,在健康、教育、就业和其他方面。 5.确保人工智能和数字系统在任何时候都是安全的,并在使用时充分尊重基本权利。 6.确保人工智能的研究尊重最高的道德标准和相关的欧盟法律。 美国则主张,监管的核心目标应当是促进人工智能的负责任创新(responsible innovation)。为实现此目标,美国认为应通过一系列的监管和非监管措施,最大限度地减少对人工智能开发和部署的不必要制约。2022年10月,美国白宫发布了《人工智能权利法案蓝图》,列出了五项核心原则,提出负责任地使用人工智能路线图。该综合文件为指导和管理人工智能系统的有效开发与实施提供了方向,其中尤其强调了防范对公民权利和人权的潜在侵犯。 至于具体的监管架构,美国目前并没有设立专门针对人工智能的独立监管机构。而是采取了部门分工的方式,让各个领域的主管部门在其职责范围内对人工智能进行相关的管理和监督。以此为例,美国食品药品管理局(FDA)负责医疗领域的人工智能产品,而美国交通部则对自动驾驶汽车的人工智能技术进行监管。 日本对人工智能的治理,提出了“以人为本的人工智能社会原则”。该原则包括以人为本、教育、隐私保护、确保安全、公平竞争、公平、问责制和透明度、创新七个原则。然而,日本并没有单纯选择政府为唯一主导的传统治理方式来设定、监督和执行人工智能的相关规则。相反,他们选择了一种被称为“敏捷治理”(agile governance)的模式,鼓励多个利益相关方共同参与和决策。在这种治理框架下,政府、企业、公众及社区等多方共同分析当前社会环境,明确意图实现的目标,制定策略以实现这些目标,并持续地评估与优化已实施的措施。 随着人工智能技术的深入渗透,我们共同认识到了其带来的巨大潜力与同样突出的风险,从人工智能幻觉到深度伪造,从隐私泄露到决策的透明性,这些问题都让我们反思与警视。值得欣慰的是,全球对于强化人工智能的监管达成了共识。各国纷纷挥笔立法,以期为这一技术巨兽划定明确的边界,确保它为人类的未来发展提供助力,而不是成为威胁。 我们有理由相信,人类将能够引导这场科技革命走向更加明亮、公正和有益的未来。正如人类曾成功地驾驭蒸汽机、电力和互联网,我们同样有能力确保人工智能成为下一个改变历史的、有益的工具。
麦当劳和可乐们最大的威胁,居然是减肥药
都说爱喝冰美式的韩国人进化掉了睡眠,什么能减掉肥胖的美国人对垃圾食品的欲望? 最近,摩根士丹利给出了一份长达 82 页的报告,解答了这个问题。 可乐、奥利奥、麦当劳们,可能因为当下最火的「减肥神针」不好卖了。 麦当劳和可乐的「宿敌」,居然是「减肥药」 这里的「减肥药」,主要指的是丹麦制药巨头诺和诺德的 Wegovy 和 Ozempic。 前者是肥胖和超重人群的减肥药,后者是 2 型糖尿病药物。然而,体重正常的非糖尿病人群也对它们趋之若鹜,想尽办法开到处方药。 这是因为,它们拥有同一种活性成分,可以模拟人体内的激素 GLP-1,减缓消化并降低食欲。 饱腹感强了,对食物的欲望降低了,不必考验意志力了,不就能轻松瘦下来了吗? 尽管效果因人而异,副作用有待研究,朴素的道理吸引着海量的信徒,GLP-1 药物从 2020 年到 2022 年在美国的销量猛增了 300%。 就连马斯克也为它们背书,现身说法成为甩掉肥肉的成功案例。 拥趸多了,情况也更加复杂起来。降低食欲不仅意味着少吃东西,也很可能导致饮食习惯的变化,化身一只扇动翅膀的蝴蝶,威胁到食品巨头的未来。 今年夏天,摩根士丹利对 300 名用药者的一项研究调查显示,GLP-1 药物每天可以减少 20% 至 30% 的卡路里摄入量。 如果以 1 天摄入 2000 卡路里衡量,约等于少吃了 100 克的薯片。 问题来了,卡路里具体是从哪里减少的? 三分之二的受访者开始少吃糖果、含糖饮料和烘焙食品。除了包装食品,70% 以上的受访者去快餐店和披萨店的频率也变低了。 同时,GLP-1 药物也有助于抑制吸烟、饮酒等某些成瘾行为,受访者中的 60% 以上减少了饮酒,近 25% 完全戒酒。 虽然调查样本较小,但面对总值接近 1 万亿美元的美国食品业,任何风吹草动都可能酝酿一场大风暴,更别说美国的肥胖率接近 43%,减肥药市场远远没有封顶。 摩根士丹利预计,到 2035 年,7% 的美国人口(2400 万人)可能会服用 GLP-1 减肥药。 以此为前提,美国消费者预计减少摄入 1% 到 2% 的卡路里,汽水、糖果、烘焙食品和咸味零食的消费量下降 3%,酒类的消费量下降 2%,连锁快餐的销售额减少 1% 至 2%。 仅次于汇丰的英国第二大银行巴克莱,也给出了和摩根士丹利类似的分析,认为 GLP-1 药物的流行可能会削弱对百事可乐、麦当劳等公司的需求。 这些结论对诺和诺德、礼来等制药公司来说是个好消息,却在食品行业头上架了一把刀。 不说未来 10 年,沃尔玛已经从当下的业绩里察觉到了变化。 沃尔玛的美国业务 CEO John Furner 在接受彭博社采访时说,减肥药正在让人们减少购买食品,「单位食品更少,卡路里也稍微减少」。 健康热潮千变万化,食品巨头云淡风轻 不过,食品行业的趋势变化,从来不等于「斩立决」。 看到减肥药可能的蝴蝶效应,生产汽水、零食、罐头的品牌们,保持观察但依然乐观,觉得情况依然可控,做出决定还为时过早。 让安迪·沃霍尔画出著名波普作品的金宝汤,对制药公司的迅速崛起有些震惊,但不觉得自己的产品线会全面溃败。 不确定消费者行为到底有多大变化,品牌们的动作就像那张著名的表情包,一只白鹭伸出单脚,在海浪边优雅而谨慎地试探。 沃尔玛的零食虽然卖得少了,但因为旗下药房也卖 GLP-1 药物,赚的钱反而更多了。 今年 8 月,沃尔玛告诉分析师,食品、消耗品和保健产品在下半年的销售额将增长一个百分点,主要是由于 GLP-1 药物的普及。 服用减肥药的顾客总体倾向于在我们这里花更多的钱,尽管他们买的食物更少。 拥有奥利奥等产品的亿滋,则计划推出更小包装的零食,热量为 200 卡路里或更少,并且采用独立包装。 这几年来,百事等巨头收购更加健康也更加小众的新兴品牌,让产品组合更加多样、绿色和全球化,我们更是早已见怪不怪。 与其说品牌是为了避免被减肥药割脖子,毋宁说「健康」本来就是心照不宣的大趋势。 摩根士丹利的报告里也提到了,用药者会吃更多的水果、蔬菜、家禽和鱼类,以及蛋白棒和营养奶昔等体重管理产品,可以说一点也不意外。 食品品牌们保持谨慎也有道理,历史上「狼来了」的故事演得太多,有时候他们是被骗的跟风村民,有时候他们就是大言不惭的孩子。就像食品品牌 Saffron Road 的 CEO 所说: 我们总是经历一种新的神奇药物、一种新的神奇食品成分的循环。 20 世纪 70 年代,天然食品热潮兴起。「你即你吃的食物」(You are what you eat)在 1960 年代为嬉皮士所拥护,被用作健康饮食的口号。 20 世纪 90 年代,Olestra(一种脂肪替代品)横空出世,一度作为食品添加剂获得极高的存在感,人们想以此少吃黄油和起酥油。 但事实证明,Olestra 太过「贪婪」,不仅去除了不需要的脂肪,还削弱了身体吸收必需维生素的能力,最终由于痉挛、胀气、腹泻等副作用而被淘汰。 ▲含有 Olestra 的薯片. 21 世纪初,阿特金斯饮食法(Atkins Diet)又流行起来,它认为减重的关键是限制碳水化合物的摄入、多吃高蛋白的食品,也因此推动了各种低碳水产品的诞生。 2004 年,一家奶油蛋糕制造商在申请破产时提到了阿特金斯饮食法。然而,到了 2005 年,因为无法证明对减肥长期有效,这种方法被认为是「食物盲从」,渐渐失去了光环。 ▲典型的阿特金斯减肥餐. 图片来自:wiki 追求健康的意识有了,但定义却依然模糊。这些昙花一现的健康趋势,谁也不知道什么时候局面反转。讽刺的是,不同类别的零食潮起潮落,但包装食品行业只会变得更大更强。 食品巨头们不相信,减肥药会真的颠覆人类的本性。在他们看来,沉默的大多数依然「口嫌体正直」。美国食品和饮料产品制造商 Smucker 指出: 消费者将继续通过多种方式吃零食,寻求所有不同类型的零食,甜食也将继续受到关注。 不过,这次的趋势还是有些不一样。食品工业之外,倡导节食减肥的公司也被影响到了。 摩根士丹利的数据显示,一旦开始服用 GLP-1 药物,订阅减肥计划的人数比例就会从 29% 下降到 20%。 今年 3 月,美国知名轻体公司 WeightWatchers 斥资 1.06 亿美元收购了远程医疗平台 Sequence,从而为会员提供开出减肥药处方的订阅服务。 几十年来,这家公司的理念是减肥全靠意志力,让节食和锻炼不够的人很有压力,但现在因为减肥药的流行,他们转而支持肥胖是一种疾病。 某种程度上,这也是健康意识的「去伪存真」。诺和诺德不是第一家用基于 GLP-1 的研究做出糖尿病药的公司,但它是第一家科学家们成功说服他人用它治疗肥胖症的公司。 健康又愉快地减肥,门槛依然很高 曾用 Wegovy 和 Ozempic 减肥的马斯克,很为它们影响沃尔玛而惊讶,还在 10 月 7 日发了条推文为减肥药说话: 药物都有副作用,但几乎可以肯定,与肥胖相关的健康问题超过 GLP-1 药物的风险。 从健康的角度看或许没错,然而马斯克可能没注意,摩根士丹利的报告里,还有一个和食品不那么相关的细节:许多人压根负担不起 GLP-1 药物,只有一半的患者享受保险。 在美国,一支 Ozempic 注射笔,通常可以使用大约一个月,医保前的费用约为 900 美元,高昂的价格导致部分保险公司不承保。 与此同时,GLP-1 药物供应有限,过载的需求让药店不堪重负,真正需要 Ozempic 的患者很难按时买到。 恰恰是因为这些「场外因素」,让华尔街的分析师们觉得,目前 GLP-1 药物对食品行业来说还不是大问题。 这些药物仍然昂贵,许多人无法获得,而且不能保证广泛或长期采用。 长期用得起 Ozempic 的,已经属于收入不错的一类人群。所以,摩根士丹利的调查可能掉进了「幸存者偏差」。加拿大皇家银行分析师 Nik Modi 敏锐地抓住了这一点: 低收入人群对咸味零食等垃圾食品的消费普遍过高,而他们不太可能成为这些药物的主要使用者。 另外,最近出现了不少关于副作用的报道,为过热的减肥事业泼泼冷水。 不列颠哥伦比亚大学的一项研究发现,使用 GLP-1 药物减肥,可能会增加患胰腺炎、肠梗阻和胃麻痹的风险。9 月,FDA 也更新了 Ozempic 的标签,警告其可能出现肠阻塞。 对副作用的研究是必要的,这些信息其实都表明,GLP-1 药物应该谨慎使用,也应该遵循医嘱,给到最需要他们的人。开发 Wegovy 和 Ozempic 的诺和诺德指出: 我们对 Wegovy 的临床试验数据表明,患者一旦停止服药,体重就会恢复,这并不出人意料。这支持了一种信念:肥胖是需要长期管理的慢性疾病,大多数患者都会长期接受治疗。 减肥是艰苦卓绝的长期斗争,减肥药物提供了类似捷径的幻觉,但其实仍然是一条漫漫长路,少有人有资格走上这条路,超市的零食货架也不可能在一夜之间重新装修。 摩根士丹利不全然唱衰垃圾食品和连锁快餐品牌,它还在报告里提到: 餐厅从来不仅仅是食物。他们在有限服务的情况下出售便利,在全面服务的情况下出售体验。 这就像国内打工人们的预制菜和白人饭趋势,「科技与狠活」的工业调料包带来味觉的刺激,不开火的简单做法更方便地摄入营养维持生命体征,先求饿不死,再说营养和健康。 你吃白人饭,我吃预制菜,有专业营养师和私人教练的马斯克靠减肥药瘦下来了,食品巨头们几十年如一日揣摩着如何让配料表更加好看,大家都有光明的未来。
MIUI将成为历史,小米自家的“鸿蒙”要来了?
这两天,网上突然出现了不少有关小米要自研操作系统,并且已经定名 “MiOS” 的新闻。 这个消息一出,微博、酷安等玩机平台上立刻掀起了不小的讨论。 比如 MIUI 和 MiOS 会是什么关系、 bug 多不多、 “ 米冲高 ” 真的要成了?等等等等。 自然而然,也有小伙伴给我们发了私信,问有没有什么内幕。 嘿嘿,这你们不就问对人了嘛—— 我没有内幕。 不过!前两天刚好有小米的朋友过来问了问我们:对小米 14 、 MIUI 、 MiOS 有什么期待, MiOS 做成什么样才能够算得上是一款出色的手机系统。 你们看,这不就巧了嘛? 咳咳,大家先拿着瓜子板凳坐好,要想聊这次的 MiOS ,我们先得花点儿时间,讲讲以前的 MiOS 。 是的,小米的 “ 自研系统 ” 路,早在十年前就开始了。 老网虫应该还记得,小米公司的第一款产品,不是手机,而是 MIUI 。 可能年轻的读者已经对 2010 年的手机没什么印象了,那个时候,安卓系统本身,还处于一个非常简陋、且毛坯的状态。 图片来源:SlashGear 除了 HTC 家的安卓界面 HTC Sense 做的还算不错之外,其他安卓手机的内置界面根本没法看。 我放张图,你们感受一下。 2010 年的安卓 vs 苹果 而下面这个,则是同一时期的 MIUI 界面。 很难让人相信,它和上面这几个手机系统界面来自同一个时期! 是的,这就是我第一次见到 MIUI 的感受。 同样都是基于谷歌安卓开发的定制系统,但是它好看、清爽、完美的中文字体显示、农历、工作日闹钟( 这个功能苹果到现在都不支持 )。 当时我身边的 “ 机友 ” 们,不管用的是什么牌子的手机,只要能刷机,几乎把自己手机的系统刷成的 MIUI 。 通过对简陋的原生安卓进行大刀阔斧的修改以及深度定制, MIUI V1 一战成名。 我现在对小米的好感,很大一部分依旧来自于当年的白月光 MIUI 。尽管它的深度定制也为之后埋下了一些危险的炸弹。 比如像截图目录混入相册、通知栏 API 与其他手机厂商不兼容等等,给安卓 app 开发者造成了一定的割裂和困扰。 不过这些我们今天先不讨论这些,改天再开个帖子吐槽。 后来随着小米手机的发布, “ 搞机圈 ” 之外的人也渐渐认识了 MIUI , MIUI 也渐渐变成了我们如今见到的模样。 前面我们提了一嘴, MIUI 从一开始就是基于谷歌安卓,深度定制的一款操作系统。 虽然界面比普通的安卓手机更好看,但是 MIUI 一样也没能摆脱早些年安卓系统存在的卡顿、不稳定的问题。 而为了提高 MIUI 的体验,小米除了每年都对安卓进行 “ 深度定制 ” 之外,其实也尝试了另外一条路。 没错,就是不用安卓。 2014 年,这是我能找到的 “MiOS” 这个词首次出现的时间。 在当时,安卓 “ 唯二神 ” 的地位还没最终确立;塞班、 Windows Phone 、黑莓等旧时代的残党还在苟延残喘。 2014 年, BlackBerry Passport ,图源:ebay 与此同时,也有更多新的挑战者试图和安卓掰腕子。 比如火狐推出了 Firefox OS 、 Ubuntu 推出了 Ubuntu Touch ,国内的阿里推出了 YunOS 。 Ubuntu Touch 、 YunOS 、 Firefox OS 而小米,也看上了其中的 Firefox OS ,并且据传说,已经开发出来了基于 Firefox OS 深度定制的 MiOS 。 当时甚至有消息说,小米 4 之后的手机都不会再使用安卓系统了。 然后众所周知, MiOS 凉了。 根本原因其实很简单——小米想离开安卓的一部分原因是当时的安卓并不完善,结果没想到Firefox OS 的底子更拉。 烂得和 2007 年刚刚起步的安卓有一拼。 2007 , Android 1.0 但在 2014 年,安卓已经初步成熟,知名版本 Android 4.4 也在前一年发布。 后面随着安卓 5.0 、 6.0 、 7.0 的发布,即使是原生安卓,也足够把除了苹果 iOS 之外的其他系统全都碾压了。 小米也就没有离开安卓的必要了。 最终, 2014 版 MiOS 胎死腹中。 不过,可能很多人都不知道,小米其实已经有了一款自研系统了。 2020 年,小米发布了 Xiaomi Vela 操作系统。 这是一个基于国外开源项目 “NuttX” 制作的 “ 实时操作系统 ” ( RTOS ),主打轻量、高效。 它完全是水到渠成的结果——因为 “ 实时操作系统 ” 面向的目标硬件,其实是智能音箱、智能灯泡、水表电表这些物联网设备。 而 2020 年的小米米家,已经成为国内市场上数一数二的智能家居品牌。 六年前小米尝试 MiOS ,是想给手机找个系统备胎;六年后小米发布 Xiaomi Vela ,则是需要给越发重要的智能家居硬件创造一个坚固可靠的地基。 OK ,到这里,以前的故事就讲完了。 接下来我们聊聊这次的 “MiOS” 是怎么回事。 不过在聊小米之前,我们得先聊聊华为。 因为和小米的情况差不多,华为曾经也发布了一款自研的实时操作系统, LiteOS 。 而这个 LiteOS ,正是如今大名鼎鼎的鸿蒙 OS 的前身。 这部分故事其实我们之前给大家伙讲过一次,我这里再挑重点跟大家捋一捋。 和小米一样,华为也早早开启了智能家居产线,并且到后面还演进出了大家耳熟能详的 “1+8+N” 战略。 所以给所有的智能家居造一个 “ 通用基座 ” ,自然也是水到渠成。 但是华为比小米多做了一步:他们不仅研究操作系统,还研究连接协议,想着怎么样让智能家居之间的沟通更顺畅、无感。 可能这就是遥遥领先吧。 系统端,华为自研了 “LiteOS” ;连接协议上,华为自研了 “ 分布式 ” 软总线。 这两样东西,是 “ 鸿蒙 ” 的最初概念。 现在的 “ 鸿蒙系统 ” ,其实是一个为了应对制裁出现的方案:智能家居上的鸿蒙系统,是基于华为自研 LiteOS 打造的;手机上的鸿蒙系统,则是一个为了快速平顺落地,包含了安卓系统代码、同时包含华为自研特性的 “ 半自研系统 ” 。 假如制裁没有发生的话,可能华为手机上的系统名字叫的还是 EMUI , “ 鸿蒙 ” 的称呼只会存在于智能音箱、电视等等设备上。 等到过几年智能家居上的鸿蒙生态真正成熟了, App 丰富了,可以完整应用到手机上了,手机上的 EMUI 才会顺其自然地改名。 其实这件事也已经完成了,你们看两个月前华为发布的 HarmonyOS NEXT ,这个就是真正 100% 自研的手机端鸿蒙。 针对这个事,网上其实到现在都还有争论,有些小伙伴觉得因为之前的手机端鸿蒙系统不是 100% 自研,所以它是 “ 安卓套壳 ” 。 不过虽然有争论,但是有一件事,大家是认可的: 统一的 “ 鸿蒙 ” 命名,让华为的整个生态有了更高的认同度。 我觉得,这其实就是小米准备重启 MiOS 的出发点。 网传 MiOS logo 其实这两年,小米、以及其他几家厂商在软件生态上面做的事,和华为差不多——都在搞互联,都在搞远超越原生安卓的深度定制化。 像小米现在,也有小米妙享互联,能够实现音乐、画面、网络等等信息的流转。 而且小米在智能家电上的成绩,是米、 O 、 V 几家里面做的最出色的——小到插座、大到电视,只要谈论智能家居,你很难离开小米。。。 比如我家。。。 而为了强化这个概念,其实小米已经在两年前有过一次操作了。 随着 MIUI 13 发布,电视端的系统被重新命名为 MIUI TV ,智能音箱上的系统被重新命名为 MIUI HOME 。 而这次的 MiOS ,貌似要把 TV 、 for HOME 之类的后缀都砍掉,品牌形象更统一了。 而且说实话,以小米对目前安卓的魔改之深,还把它叫 “UI” 不叫 “OS” 确实有点儿过分。。。 程序员吐槽开发 app 甚至需要对小米做特殊判断,图片来源:小刘不是程序员 根据目前的消息, MiOS 就是把目前各个端的 MIUI for XXX 改个名、形象更统一,可能设计上面也会有调整。 多的内幕确实也没有,连 “ 爆料王 ” 这次都不敢说话了。。。 不过既然把名字从 UI 换成了 OS ,那么我觉得以后的小米,肯定得对用户体验上有更高的要求。 目前来说,因为小米没有像华为一样被制裁,所以它确实不需要重新造轮子,从头自研一整个操作系统——从企业经营的角度来讲,这样不太合理。 当然了,假如小米真的做了,那我得跟一句 “ 小米 NB” 。 但是我觉得, MiOS 至少得体现出一些其他方面的诚意: 比如更流畅、老设备的支持更友好——新设备上的体验好只是基础,老设备的体验好才能真的收获大家的口碑。 就说当年鸿蒙手机版刚出来,多少人等着看乐子,结果 Mate 10 更新完的都不卡,老花粉们嗷嗷嗷排着队的升级。 等 MiOS 发布之后,小米可以做到这点吗?这些话,也是我作为一个深度小米用户,之前跟小米的小伙伴交流时说过的。 假如小米 6 也能升级 MiOS ,也流畅不卡,能让更多人从中受益,那我觉得小米创造 MiOS 的初心就成了。 撰文:米罗、鹤然 编辑:面线 封面:三狗
AI宪法要来了?谷歌OpenAI联手制定,AI也要讲价值观和原则了
编译 | 佳慧 编辑 | 云鹏 智东西10月10日消息,据英国《金融时报》报道,谷歌DeepMind、OpenAI、Anthropic等AI领域的领先公司,正在制定一套AI模型可以遵守的价值观和原则,以防止AI模型被滥用,这被称为AI宪法。 随着OpenAI、Meta等公司竞相商业化AI,AI研究人员认为,防止这些AI系统出现例如生成有害内容、错误信息等问题的防护措施,难以跟上AI的发展步伐。因此,AI科技公司制定AI宪法,试图让AI从中学习价值观和原则,并在没有大量人类干预的情况下保持自我约束。 据英国《金融时报》报道,使AI软件拥有诚实、尊重和宽容等积极特质已经成为生成式AI发展的核心。但制定AI宪法的方法并非万无一失,它往往带有AI工程师和计算机科学家的主观色彩,并且难以为AI的安全护栏进行有效评估。 一、RLHF方法和“红队测试”是确保AI安全的关键,但效果有限 OpenAI称,ChatGPT现在可以提供看、听、说三个方面的服务,即用图片和文字回答用户的提问,以及使用语音与用户对话。Meta也宣布,将为通讯软件WhatsApp和图片社交软件Instagram中的数十亿用户提供一个AI助手和多个聊天机器人。 在各大科技公司争相发展AI技术并将AI商业化的时候,据英国《金融时报》报道,AI研究人员认为,防止AI系统出错的安全防护措施没有跟上AI发展的脚步。 一般情况下,各大科技公司主要依赖RLHF方法(基于人类反馈的强化学习方法)来处理AI生成回复的问题,这是一种从人类偏好中学习的方法。 为了应用RLHF方法,各大科技公司会雇佣大量承包商团队来审查其AI模型的回复,并对回复进行“好”或“坏”的评分。通过足够多的分析和打分,AI模型会逐渐适应这些判断,并在之后回复的时候过滤掉那些“坏”的回复。 据英国《金融时报》报道,从表面上看,RLHF方法的处理过程可以完善AI模型的回复,但之前在OpenAI工作并曾经帮助开发RLHF方法的Amodei称,该方法还是很原始。他认为RLHF方法不太准确或有针对性,并且在整个处理过程中,有很多影响团队评分的因素。 正是看到了RLHF方法的弊端,有一些公司就尝试使用替代方案,以确保其AI系统的道德性和安全性。 ▲OpenAI“红队测试”(图源:英国《金融时报》) 例如,去年,OpenAI就招聘了50名学者和专家来测试GPT-4模型的极限。在六个月时间里,来自化学、核武器、法律、教育和错误信息等多个学科领域的专家团队对GPT-4模型进行“定性探究和对抗性测试”,试图打破GPT-4模型的安全防线,使其系统发生混乱。这个过程被称为“红队测试”。谷歌DeepMind和Anthropic也用过“红队测试”来发现其软件的弱点并进行修复。 不过据英国《金融时报》报道,虽然RLHF方法和“红队测试”是确保AI安全的关键,但它们并不能完全解决AI输出有害内容的问题。 二、谷歌等公司创建AI宪法,模型规则更明确但比较主观 现在,为了解决AI可能输出有害内容的问题,包括谷歌DeepMind、OpenAI、Anthropic在内的一些AI领先公司正在创建AI宪法,建立一套他们的AI模型可以遵守的价值观和原则,以防止AI模型被滥用。并且期望达到在没有大量人类干预的情况下,AI也能保持自我约束的目标。 例如,谷歌DeepMind的研究人员发表了一篇论文,为聊天机器人Sparrow定义了的一套自己的规则,旨在实现“有益、正确和无害”的对话。其中一条规则就要求AI“选择负面、侮辱、骚扰或仇恨最少的回复”。 作为该论文的作者之一,谷歌DeepMind的高级研究科学家Laura Weidinger认为,他们制定的这套规则不是固定不变的,它实际上是建立一种灵活的机制,随着时间的推移,其中的规则应该进行更新。 Anthropic也已经发布了自己的AI宪法。Anthropic的首席执行官兼联合创始人Dario Amodei称,人类不知道如何理解AI模型的内部发生了什么,建立一套宪法章程,可以让规则更加透明、明确,这样任何使用AI模型的人都将知道接下来会发生什么,并且如果模型不遵循原则,人类可以有章程依据与其争论。 但据英国《金融时报》报道,创建AI宪法的公司都发出过警告,说AI宪法的章程还在制定过程中,并不能完全反应所有人和所有文化的价值观,因为这些章程暂时是由员工选择的。 ▲谷歌DeepMind研究人员正在致力于开发AI可以遵循的宪法(图源:英国《金融时报》) 例如,谷歌DeepMind为Sparrow制定的规则就公司内部员工确定的,但DeepMind计划在未来把其他人纳入规则确定的名单。Anthropic发布的AI宪法也是由公司领导编制的规则,借鉴了DeepMind发布的原则,以及《联合国人权宣言》、苹果服务条款等外部资源。同时Amodei称,Anthropic正在进行一个实验,通过某种参与式过程来反映外部专家的价值观,以此更加民主地确定其AI宪法规则。 悉尼大学的AI伦理研究员Rebecca Johnson去年曾在谷歌工作过一段时间,分析了谷歌的语言模型,如LaMDA和PaLM。AI宪法章程的现状正如她说,AI模型内部的价值观和规则,以及测试它们的方法,往往由AI工程师和计算机科学家创建,他们是带有自己特定的世界观的。 Johnson还说,工程师们尝试解决AI模型的内部规则带有主观色彩的问题,但人性是混乱的、无法解决的。并且,据英国《金融时报》报道,有事实证明,制定AI宪法的方法并非万无一失。 今年7月,卡内基梅隆(Carnegie Mellon University)和旧金山AI安全中心的研究人员成功突破了,包括OpenAI的ChatGPT、谷歌的Bard、Anthropic的Claude在内的,所有领先的AI模型的防护栏。他们在恶意的请求的代码末尾添加了一系列随机字符,就成功绕过了模型的过滤器和基础宪法规则。 AI安全研究公司Conjecture的研究院兼首席执行官Connor Leahy说,当前的AI系统非常脆弱,以至于人们只需要使用一个越狱提示,它就会完全脱离轨道,并开始做完全相反的事情。 同时,还有研究人员认为,AI安全面临的最大挑战就是弄清AI的安全护栏是否真正起作用。AI模型是开放式的,它面向无数人来接收信息并回答问题,但AI模型内部的规则是有限的人群制定的,目前很难为AI的安全护栏进行有效评估。Amodei说,Anthropic正在研究如何利用AI本身进行更好的评估。 结语:科技公司试图增强AI自我约束能力,AI安全防护发展仍然滞后 随着AI技术出现在人们的视野以及科技公司商业化AI,从最初的机器学习到现在的生成式AI,这一技术正在不断拓展其能力和应用领域。伴随而来的就是一系列问题,例如使用AI是否安全?AI会不会提供错误信息或者有害信息?以及越来越强大的AI会不会被坏人利用? 从RLHF到“红队测试”,AI科技公司也在不断尝试各种方法来降低AI可能带来的负面影响,增强AI安全防护能力。现在,谷歌DeepMind、OpenAI、Anthropic等AI领域的领先公司也在通过制定AI宪法的方法,提升AI系统的自我约束能力,以确保其安全可靠性。 但据英国《金融时报》报道,RLHF和“红队测试”无法完全解决AI输出有害内容的问题,制定AI宪法的方法也存在主观色彩较强、难以为AI的安全护栏进行有效评估等问题,AI安全防护的发展相对于AI应用技术的发展,是比较滞后的。因此,我们将持续关注各大AI公司,了解他们未来会对AI安全防护方法做出怎样的更新。
扫地机公司搞的车企,一台车没造就获投10亿美金…
最近,刚成立没多久的极石汽车收到了一笔巨款,来自魏桥创业集团的 10 亿美元战略投资。 这笔投资的手笔有多大? 我们来对比一下, 6 月份中东 “ 土豪 ” 阿布扎比主权基金对蔚来的投资是将近 11 亿美元,大众集团入股小鹏则花了约 7 亿美元。 能收到这样大笔的投资,这个名不见经传的极石汽车到底是何方神圣? 就在前不久的 8 月底,极石推出了旗下首款车型——中大型增程式混动 SUV 极石 01 , 6 座版预售价 35.99 万, 7 座版预售价 34.99 万,预计将在 11 月开启交付。 自打看见这车的第一眼起,脖子哥就觉得它是真的抽象。 名字听起来跟吉利子品牌似的,都是是 “ 极 X ” 再加上数字。 极星 1 、极越 01 、极氪 001 看到 “ 极石 01 ” 这名儿估计都想问候一句: “ 你礼貌吗? ” 而 LOGO 设计感觉像是致敬小米。 橙色背景加上白色图形,配色不能说完全一致,只能说大差不差。 代工厂 “ 北汽制造 ” 虽然历史上跟北汽有些渊源,但不知道出于什么原因,在 2014 年拆分划归私企后始终没有改个辨识度更高的名字,挺容易让人误解成北汽的。 在外观设计上,极石 01 舍弃了新能源车常用的低风阻圆润造型,反而用上了大量直线条,希望用硬派越野外形和市面上的竞品打出差异化。乍一看确实挺硬派、挺越野的,就是线条有点致敬路虎卫士。 进到车里,内饰风格对比外观是 180 度大转弯,不仅跟硬派越野毫无关系,甚至还有一丝温馨,主打的就是一个反差。网络上对这套内饰最常见的评价是: “ 这不就是少了一块副驾屏幕的理想吗? ” 如果说理想内饰的最大卖点是 “ 移动的家 ” ,配备冰箱、彩电、大沙发,那极石就是 “ 更大的家 ” ,彩电、沙发它也有,甚至还能随时打造 “ 一室一厅一厨 ” 。 对于这个说法,极石官方是这样圆的: 一室:后两排放倒,搭配官方定制床垫,变身 2m × 1.3m 大床卧室。 一厅:停车后搭配官方 270 °的车边天幕,单人五分钟就能搭建室外客厅。 一厨:官方定制车尾餐厨系统,打开尾门就是小厨房。餐具、厨具,操作台、小桌板一应俱全, 2.2 千瓦对外放电也刚好够接电磁炉,还自带即热饮水机随时供应热水。 除了车型配置,极石 01 动力上也选择了理想同款的增程方案,搭载新晨动力 1.5 T 四缸发动机,哦不对,增程器。 甚至极石品牌发布会那天,点击极石官网 “ 发布会回放 ” 按钮,就能直达 “ 理想 L9 ” 网页的乐子。估计是抄理想网页抄得太急,扒了代码之后忘记更改链接的网址了。 虽然现在大家都说现在造新能源车就是搞供应链整合,但极石基本上可以算是新势力里头整合得最名目张胆的了。 这么一台明显 “ 东拼西凑 ” 的车,能行吗? 车子行不行暂时还不知道,但脖子哥反而觉得极石幕后的企业都挺神的。 极石汽车和和小米汽车一样,都属于是跨界造车。它源自于石头科技,主业造扫地机器人,一开始是靠帮小米代工起家,现在已经发展成扫地机、吸尘器、洗地机、洗衣机一条龙的家庭清洁小巨头了。 但相比做家电,造车的资金门槛要高得多,按照蔚来李斌的说法就是: “ 没有 400 亿干不了。 ” 不过对于石头科技来说,钱估计不是大问题。它的股票 2020 年在科创板上市,一度被外界称为 “ 扫地茅 ” ,股价曾被炒得贼高,市值最高峰的时候达到了 550 亿元。 之前在资本市场融的钱,现在正好可以拿来造车。 但现在造车光有钱还不够,还得想办法搞到造车资质。隔壁同属跨界造车的小牛自游家 NV ,就因为搞不定资质胎死腹中。 以往最简单的办法就是像蔚来找江淮那样,找一家有资质的车企代工。极石一开始也是找的江淮,后来又找了奇瑞,和两家大国企都没谈拢,最终才选择由北汽制造进行代工。 但就在研究这家北汽制造实力究竟咋样的时候,脖子哥发现它的大股东竟然就是山东魏桥创业集团。没错,就是开头给极石投了十亿美金的魏桥。 这个魏桥创业集团是何方神圣?山东最大的民营企业,旗下有魏桥纺织、中国宏桥、宏创控股 3 家上市公司。2022 年,魏桥创业销售收入超过 5000 亿元,已经连续 11 年进入世界 500 强。山东省那些名气嘎嘎响的企业,像是海尔、海信,它们在魏桥面前都是弟弟。 在创投界,魏桥还有个听起来牛逼哄哄的绰号:红海之王。 在许多饱和的 “ 红海市场 ” ,魏桥创业居然都能凭借后发优势搞出点名堂。 在上世纪九十年代,中国棉纺织业进入产业动荡期,许多老牌棉纺企业相继倒闭。而魏桥却在这一时期投资 3.3 亿元逆势扩张,并在 2002 年成为了世界最大的纺织企业。 之后魏桥又依靠一样的路数进军了电解铝领域,在 2014 年中国铝制造业供给严重过剩的时间点反向操作扩大产能,超越俄罗斯联合铝业成为全球最大的铝业制造公司。 现在 iPhone 外壳用到的铝材, 80% 以上都是魏桥旗下的中国宏桥生产的。 而在收购北汽制造之后,造车大概率已经被魏桥创业确认为下一片值得发力的红海领域。 对于家大业大的魏桥来说,它在造车领域最大的优势就是能够和自身的铝业布局结合,大幅度降低生产成本。 投给极石汽车的那 10 亿美元,就已经确定将会被用于全铝车身研发、一体化压铸技术和短流程智造工厂项目,而承接这一系列研发项目的,很大可能就会是魏桥旗下的铝业公司。 所以说,这笔投资背后应该不是网传的 “ 起猛了,纺织巨头豪掷 73 亿投资造车 ” ,反而更像是魏桥商业帝国在汽车产业上长期布局的结果。 所以脖子哥认为,极石汽车跟魏桥之间的关系可能也不像表面上的代工那么简单。到了这个阶段,很可能魏桥已经凭借整车代工厂、铝材供应商的双重身份,深度参与到了极石的造车项目中,成为了极石幕后的话事大佬之一。 然而在增程式 SUV 这片红海里, “ 红海之王 ” 押宝的极石 01 可能稍有不慎就要 “ 翻车 ” 。 从参数配置上看,极石 01 这车基本上就是完全对标理想 L8 的。 而极石想要靠 “ 硬刚理想 ” 来获得成功,几乎不可能。 道理很简单:既然看中理想的这些舒适配置,那为啥不直接买理想?凭啥在差不多的价位上选择极石呢? 极石在品牌力、成本控制、智能化上都不太有机会超越理想。况且现在除了理想,问界 M7 在换代之后也重新凭借华为 ADS 的主动安全能力站了起来,发售一月内大定已破 5 万。有理想和问界这么两座大山压着,极石想要卖得好就必须要在产品上下点功夫。 不过现在想要找准定位才是造车最难的部分,适合普罗大众的卖点早就已经被对手们给吃干抹净了。主打家庭的理想已经属于是专攻细分市场了,而强调 “ 家庭 + 越野 ” 的极石就跟是细分中的细分。 但真想玩越野的多半都会选择坦克、方程豹这些专业选手,会带着一大家子人越野的人更是几乎没有,极石这个卖点找的,多少是有些剑走偏锋了。 在脖子哥看来,与其宣传越野,不如多安利安利车尾的那个小厨房。 想象一下,周末开这车去野外钓鱼,支起天幕不怕晒,坐累了还能车上躺,鱼钓上来现场直接烤,嘎嘎香。后续要是极石能再出一个外挂鱼箱,解决钓鱼佬干湿分离难的痛点,那基本上就是抓住了钓鱼佬的细分市场。凭借这点,每月多卖个几百辆应该不是啥大问题。 而且作为一台新能源车,极石 01 还是有机会通过 OTA 来实现更多功能的。所以极石的市场经理们,你们可要好好加把劲了。 撰文:邋的司机 编辑:脖子右拧 封面:三狗
谷歌放了个大招,让Pixel 8出厂就成为了钉子户
北京时间 10 月 4 号,在纽约召开的 Made by Google 2023 大会上,谷歌发布了 Pixel 8 和 Pixel 8 Pro,不知道差友们有没有关注? 老实说,自从 2021 年谷歌放弃在自家 Pixel 6 上继续使用高通芯片,转而采用向三星半定制的 Tensor 芯片后,我就没怎么再关注过 Pixel。 原因么,主要还是因为 Pixel 在硬件方面简直软得不行,不管是处理器、摄像头还是扬声器、振动马达等配置,基本没法跟国产旗舰比。 Tensor G1/G2 性能弱,但功耗不低 要是放在以前,Pixel 还能凭借计算摄影在拍照方面做到遥遥领先,但自从旗舰机都开始卷硬件、卷算法之后,它就逐渐失去了影像上的优势。 以至于发展到现在,Pixel 最大的亮点大概就只剩下原生安卓和基于 AI 实现的各种强大功能,当然外观这块就属于萝卜青菜各有所爱了~ 这次谷歌发布的 Pixel 8 系列差不多也是这样的情况。 除了芯片从上一代的 Tensor G2 升级到 G3、Pro 版本额外新增了一颗温度传感器,这两台手机在摄像头、屏幕等硬件方面只能说是常规升级。 它新增的一系列 AI 功能倒是很有意思。 比如借助谷歌相机自带的 Magic Editor,现在我们只要轻按就能改变、移动或者删除照片里的各种主体,与此同时 AI 还会自动脑补补全画面: 而另一项名为 Best Take 的新功能,则支持我们在拍了若干张合照之后,单独给合照里的每个人换上最佳表情,以后都用不着自己动手 P 图: 其它诸如可以放大图像并智能锐化和增强细节的 Zoom Enhance;还有允许我们删除视频中各种声音的 Audio Magic Eraser。。。 你别说,这些都是挺实用的 AI 功能,其它手机厂商短时间内想要实现这效果还真不容易,谷歌在人工智能方面积累的技术实力还真不是盖的。 不过话说回来,这次 Pixel 8 系列最吸引人的地方反而不在手机本身,而是谷歌在会上承诺,会给这两款新机提供长达 7 年的软件更新。 而且它的更新也不是简单地给系统推送安全补丁就完事儿,还包括完整的操作系统和功能更新,这意味着理论上,手机用到 2030 年问题不大。 这是什么概念? 我们知道在如今一众智能手机里,苹果给 iPhone 提供的系统支持周期算是比较长的了,五年前发布的 iPhone XS 还支持升级到今年的 iOS 17: 尽管果子没有明确说过设备的更新年限,但是基本都在五年左右,像一加和小米也都承诺过会给自家手机提供 5 年 OTA 和 4 次安卓大版本升级: 而谷歌直接把这个更新年限提高到了七年,七年时间都够我们念完高中读完大学,在我印象里,之前没有任何一家手机厂商敢这么做。。。 好家伙,什么叫环保,这才是环保! 然而各位也别高兴太早,说归说做归做,谷歌能否履行这承诺还不好说,更何况它之前也不是没有过 “ 前科 ”。 当年 Pixel 6 发布的时候,谷歌就趁机推出过一项名为 “ Pixel Pass ” 的服务。 它不仅支持我们通过分期得到 Pixel,还给了 YouTube Premium、Google Play Pass、200GB Google One 云存储以及延保等一系列权益。 而且我们还可以选择每两年升级到新 Pixel,听着是不是觉得这服务还不错? 然而不知道是不是因为订阅人数太少,还是谷歌仔细算了一笔账觉得这笔买卖不划算,在 Pixel Pass 推出 22 个月之后,它就下线了。 由于没满两年,所以没人通过这服务升级到新手机。 不过谷歌最终还是补偿了一百美元给到这些订阅用户,没准同样的事情也会发生在 Pixel 的更新上,毕竟这些年来被谷歌砍掉的东西不在少数~ 而且不知道差友发现没有。 新系统所提供的新特性和新功能往往只有在各家厂商最新推出的旗舰上才能得到完整支持,那些旧手机即使更新到新系统,也用不了很多功能。 你看谷歌 Pixel 8 和 8 Pro 明明用了同款芯片,但是 8 Pro 却独占了一项 VideoBoost 功能,视频经过云端处理可以有效提升画质。 这摆明了就是区别对待,等到后面新手机推出后,估计很多功能都是新机独享。 当然不止谷歌,基本上所有手机厂商都在这么做,不然网上也不会流传着 “ 过气旗舰不如狗 ” 的说法,这说法还是有一定的道理的。。。 而且原生安卓系统内置的功能本身就非常素,和国内手机厂商大刀阔斧的系统更新可以看做是两种模式,提供更长的更新周期也就不难理解了。 当然了,以上只是我个人的一些想法,不可否认谷歌迈出的这一步确实极具意义,未来或许会有更多厂商选择跟进,这对我们来说绝对是好事一件。 但能走多远,还得交给时间来证明。 撰文:胖虎 编辑:米罗 & 面线

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。