EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
语音克隆达到人类水平,微软全新VALL-E 2模型让DeepFake堪比配音员
编辑:乔杨 【新智元导读】继去年初的第一代VALL-E模型之后,微软最近又上新了VALL-E 2模型,标志着第一个在合成语音稳健性、相似度、自然程度等方面达到人类水平的文本到语音模型。 最近,微软发布了零样本的文本到语音(TTS)模型VALLE-2,首次实现了与人类同等的水平,可以说是TTS领域里程碑式的进展。 随着近年来深度学习的快速进步,用录音室环境下的干净单人语音训练模型,已经可以达到人类同等水平的质量,但零样本TTS依旧是一个有挑战性的问题。 「零样本」意味着推理过程中,模型只能参照一段简短的陌生语音样本,用相同的声音说出文本内容,就像一个能即时模仿的口技大师。 听到这里,不知道你会不会突然警觉——有这种能力的模型就是Deepfake的最佳工具! 令人欣慰的是,MSRA考虑到了这一点,他们目前只将VALL-E系列作为研究项目,并没有纳入产品或扩大使用范围的计划。 虽然VALL-E 2有很强的零样本学习能力可以像配音员一样模仿声音,但相似度和自然度取决于语音prompt的长度和质量、背景噪音等因素。 在项目页面和论文中,作者都进行了道德声明:如果要将VALL-E推广到真实世界的应用中,至少需要一个强大的合成语音检测模型,并设计一套授权机制,确保模型在合成语音前已经得到了声音所有者的批准。 对于微软这种只发论文不发产品的做法,有些网友表示非常失望。 毕竟最近各种翻车的产品让我们深深明白,只看demo完全不可靠,没法自己试用=没有。 但Reddit上有人揣测:微软只是不想当「第一个吃螃蟹的人」,不发模型是担心可能的带来的批评和负面舆论。 一旦有了能将VALL-E转化为产品的方法,或者市场上杀出其他竞品,难道还担心微软有钱不赚吗? 的确如网友所说,从项目页面目前放出的demo来看,很难判断VALL-E的真实水平。 共5条文本都是不超过10个单词的英文短句,语音prompt的人声音色都非常相近,英语口音也不够多样化。 虽然demo不多,但能隐隐感受到,模型对英美口音的模仿非常炉火纯青,但如果prompt略带印度或者苏格兰口音,就很难达到以假乱真的程度。 方法 模型前身VALL-E发布于2023年初,已经是TTS在零样本方面的重大突破。VALL-E能够用3秒的录音合成个性化语音,同时保留说话者的声音、情绪和声学环境。 然而VALL-E存在两方面的关键限制: 1)稳定性:推理过程中使用的随机采样(random sampling)可能会导致输出不稳定,而top-p值较小的核采样可能会导致无限循环问题。虽然可以通过多次采样和后续排序来缓解,但会增加计算成本。 2)效率:VALL-E的自回归架构绑定了与现成的音频编解码器模型相同的高帧率,且无法调整,导致推理速度较慢。 虽然已经有多项研究用于改进VALL-E的这些问题,但往往会使模型的整体架构复杂化,而且增加了扩展数据规模的负担。 基于这些之前的工作,VALL-E 2包含两方面的关键创新:重复感知采样(repetition aware sampling)和分组代码建模(grouped code modeling)。 重复感知采样是对VALL-E中随机采样的改进,能够自适应地采用随机采样或者核采样(nucleus sampling),选择的依据是曾经的token重复,因此有效缓解了VALL-E的无限循环问题,大大增强解码稳定性。 重复感知采样的算法描述 分组代码建模则是将编解码器代码划分为多个组,自回归时每组在单个帧上建模。不仅减少了序列长度、加速推理,还通过缓解长上下文建模问题来提高性能。 值得注意的是,VALL-E 2仅需要简单的语音-转录文本数据进行训练,不需要额外的复杂数据,大大简化了数据的收集、处理流程,并提高了潜在的可扩展性。 具体来说,对于数据集中每条语音-文本数据,分别用音频编解码器编码器(audio codec encoder)和文本分词器将其表示为编解码器代码𝐂=[𝐜0,𝐜1,…,𝐜(𝑇−1)]和文本序列𝐱=[𝑥0,𝑥1,…,𝑥(𝐿−1)],用于自回归(AR)和非自回归(NAR)模型的训练。 AR和NAR模型都采用Transformer架构,后续的评估实验设计了4种变体进行对比。它们共享相同的NAR模型,但AR模型的组大小分别为1、2、4、8。 推理过程也同样是AR和NAR模型的结合。以文本序列𝐱和代码提示𝐜<𝑇′,0为条件生成目标代码𝐜≥𝑇′,0的第一代码序列,再用自回归的方式生成每组的目标代码。 给定𝐜≥𝑇′,0序列后,就可以使用文本条件𝐱和声学条件𝐂<𝑇′推断NAR模型,以生成剩余的目标代码序列𝐂≥𝑇′,≥1。 模型训练使用了Libriheavy语料库中的数据,包含7000个人朗读英语有声书的5万小时语音。文本和语音的分词分别使用BPE和开源的预训练模型EnCodec。 此外,也利用了开源的预训练模型Vocos作为语音生成的音频解码器。 评估 为了验证模型的语音合成效果是否能达到人类同等水平,评估采用了SMOS和CMOS两个主观指标,并使用真实的人类语音作为ground truth。 SMOS(Similarity Mean Opinion Score)用于评估语音与原始提示的相似度,评分范围为1~5,增量为0.5分。 CMOS(Comparative Mean Opinion Score)用于评估合成语音与给定参考语音的比较自然程度,标度范围为-3~3,增量为1。 根据表2结果,VALL-E 2的主观评分不仅超过了第一代的VALL-E,甚至比人类真实语音有更完美的表现。 此外,论文也使用了SIM、WER和DNSMOS等客观指标来评估合成语音的相似度、鲁棒性和整体感知质量。 在这3个客观指标上,无论VALL-E 2的组大小如何设置,相比VALL-E都有全方位的提升,WER和DNSMOS分数也优于真实人类语音,但SIM分数还存在一定差距。 此外,从表3结果也能发现,VALL-E 2的AR模型组大小为2时,可以取得最优效果。 在VCTK数据集上的测评也可以得到相似的结论。当prompt长度增加时,分组代码建模方法可以减少序列长度,缓解Transformer架构中不正确注意力机制导致的生成错误,从而在WER分数上得到提升。
AI安全守护计划启动!信通院牵头,AIIA安全治理委员会发布三类模型安全评测
作者 | 香草 编辑 | 李水青 智东西7月24日报道,今日,中国人工智能产业发展联盟(AIIA)安全治理委员会举办了成果发布会。会上,中国信息通信研究院人工智能研究所安全与元宇宙部主任石霖,解读了成立半年来委员会形成的组织架构,安全、治理两大工作组的工作情况,并启动了AI安全守护计划,发布了三大类别的安全评测结果。 AIIA安全治理委员会成立于2023年12月底,经过半年运营,现有治理组、安全组两个工作组,近百家单位加入,主任单位由中国信通院牵头,副主任单位包括多家知名企业和高校。 其中,治理组工作围绕AI治理框架、合规治理、赋能治理展开,安全组主要开展大模型安全、合规等研究及基准测试。 今年6月,中国信通院依托该委员会发起“人工智能安全守护计划”,包括建立威胁信息共享机制、开展AIGC真实内容来源可信工作、建立AI保险机制等。 一、成立半年近百家单位加入,形成安全、治理两大工作组 AIIA安全治理委员会成立于2023年12月底,经过半年的运营,组织架构现有治理组、安全组两个工作组,同时负责运营安全对齐伙伴计划、可信人脸应用守护计划、内容科技产业推进方阵等。 ▲AIIA安全治理委员会整体情况 目前,AIIA安全治理委员会已有近百家单位加入,由主任单位、副主任单位、专家委和办公室,以及围绕业务方向设置的工作组和伙伴计划组成。 其中,主任单位由中国信通院牵头,副主任单位包括vivo、百度、腾讯、360、华为、中国移动、阿里、浙江大学以及蚂蚁集团。 专家委负责对AIIA安全治理委员会的总体工作进行把关,两个工作组及伙伴计划则负责开展AI相关研究,推动产业链各方的AI安全治理工作。 据石霖介绍,治理组目前的工作进展围绕三个方面展开,包括AI治理框架、AI合规治理以及AI赋能治理。 ▲治理组工作进展 具体来说,治理工作组聚焦AI整体治理框架研究和起草工作,与国际对标,如针对ISO/IEC 42001等进行研讨对比,输入国际优秀风险管理经验。 同时,治理组围绕人脸识别等典型应用开展工作,支撑地方网信主管部门针对文旅行业开展合规实践,形成人脸识别相关治理研究报告。 此外,围绕AI赋能治理,治理组开展法律大模型相关技术标准规范研讨工作,相关规范正式定稿。 安全组则主要根据大模型安全、合规等热点方向,开展安全基准测试,推动多项AI原生安全规范的编写和技术交流。 ▲安全组工作进展 目前,安全组围绕大模型的安全合规和技术研究开展文档编写等,已经开展了两个批次的AI安全Benchmark测试工作,其中二季度融入了更多常见攻击方法,包括诱导攻击、提示词注入攻击、内容泛化攻击等,能更全面直观反映国内外闭源模型的安全情况。 围绕AI原生安全、AI赋能安全等,安全组在今年上半年先后召开了线上/线下共20多场交流研讨,开展了标准制定、测试评估等工作,包括大模型安全、AI网络安全大模型规范、AIGC检测规范等。 二、启动AI安全守护计划,三大安全测评结果发布 石霖谈道,在两大工作组的实践当中委员会发现,单独的工作组各自围绕安全或治理,从规则或技术角度开展工作,在这个过程中技术和规则需要融合。因此,建立跨组安全防护能力至关重要。 今年6月,中国信通院依托AIIA发起“人工智能安全守护计划”,即AI Guard,目标是联合多方力量提升我国AI技术水平和治理能力,促进产业健康有序发展。 ▲人工智能安全守护计划 首先,该计划将建立AI威胁信息共享机制,从AI芯片等基础设施,到数据、算法、应用等方面的漏洞,通过委员会层面的互助共治及时预警,提升安全防范能力,从而应对AI安全威胁除等问题。 其次,该计划将开展AIGC真实内容来源可信工作,通过建立统一内容标准平台,打造内容可溯源的能力。目前主要针对图片、音频和视频等多模态内容,采用隐式水印方法建立互认机制。文本内容上的实现仍有一定技术难度,后续将持续有针对性地突破。 此外,计划将通过AI保险机制,为相关人员和单位给予救济,提供赔偿兜底策略。 最后,石霖发布了大模型安全风险防范能力评测、多模态图文大模型内容安全防范能力评测、人脸识别安全专项评测以及代码大模型安全风险风险防范能力评测结果,vivo、蚂蚁、阿里云、百度、科大讯飞、商汤等作为代表获得了证书。 ▲大模型安全风险防范能力评测、多模态图文大模型内容安全防范能力评测结果 ▲人脸识别安全专项评测结果 ▲代码大模型安全风险风险防范能力评测结果 结语:推动AI向安全可靠可控方向发展 大模型发展迅速,但AI安全问题的严重性和紧迫性不容忽视,安全挑战已从技术本身的传统安全问题向多方面扩展,各国和地区基本形成本土框架。例如,美国推出风险管理框架,欧盟构建风险分级治理方案,新加坡推出治理模型框架并提出9个维度,日本发布指南制定行为准则等。 而在国内,AIIA安全治理委员会正在积极推动精准化治理前沿技术治理工具的构建,目前已围绕治理框架、风险管理、卫生安全、安全应用取得一定成果。未来在各单位的共同努力下,期待我国能形成完整的安全风险机制,确保AI向安全可靠可控方向发展。
低价产品是制胜法宝?佳能称霸2023年相机市场
IT之家 7 月 24 日消息,数据显示,尽管索尼、尼康等品牌在 2023 年推出了多款备受赞誉的无反相机,但佳能仍稳居全球相机市场龙头地位,市场份额和销量均遥遥领先。 IT之家注意到,2023 年佳能在无反相机和数码相机整体市场上都占据了绝对优势。根据调查公司 Techno System Research 的数据,在无反相机市场,佳能的出货量份额高达 41.2%,索尼紧随其后为 31.2%,尼康和富士分别为 8% 和 5.5%。而根据 Statista 的数据,在数码相机整体销量方面,佳能的市场份额更是高达 46.5%,索尼为 26.1%,尼康和富士分别为 11.7% 和 5.8%。 值得一提的是,2023 年佳能仅发布了三款低价位机型 EOS R8、EOS R50 和 EOS R100,以及一款 vlog 相机 PowerShot V10。那么,佳能是如何在技术创新相对平淡的一年里继续保持市场霸主地位的呢? Techradar 分析称,一方面,佳能作为相机行业的传统巨头,拥有庞大的用户基础和品牌忠诚度。另一方面,也是更关键的一点,佳能是三大相机厂商中唯一推出低价位机型的品牌。尼康和索尼在 2023 年主要推出了高端全画幅机型,如尼康 Z8、Zf 和索尼 ZV-E1、A7CR、A9 III 等,价格不菲。相比之下,佳能的 EOS R100 和 EOS R8 等机型更实惠,虽然产品力一般,但成功填补了市场空白。 虽然智能手机对低端相机市场冲击巨大,但佳能的策略似乎表明,入门级相机仍有一定的市场需求。尼康和索尼若想改变当前的市场格局,或许应该考虑推出更多面向初级用户的机型。
云巨头大暴走,自研CPU落地200万张!新一轮芯片洗牌开始了
作者 | ZeR0 编辑 | 漠影 上周,全球最大云计算巨头亚马逊云科技自主研发的Graviton4处理器全面上市,最初为全新实例Amazon EC2 R8g提供支持。 这件事还挺让人感慨,有种Arm服务器CPU千帆过尽、苦尽甘来的既视感。 服务器CPU领域曾经上演风水轮流转,早期由一众精简指令集前辈一统天下,后来被复杂指令集架构x86逆袭蚕食。等精简指令集中的后辈Arm想闯数据中心赛道时,x86早已全面霸场。 其实Arm早在2008年就对这个新兴市场跃跃欲试,结果一晃十年过去,几经试水,愣是没激起零星的水花。 第一张进入数据中心市场的门票,还是云计算产业老大哥亚马逊云科技送来的。 当时亚马逊云科技发了个“三连击”: 1、2015年1月,出其不意地收购以色列芯片设计企业Annapurna Labs,引起产业密切关注; 2、2017年,推出首款自研网络芯片Amazon Nitro,把全球第一款商用的DPU芯片送上历史舞台; 3、2018年,发布首款Amazon Graviton处理器,让Arm服务器CPU在数据中心历史中有了清晰的坐标。 随后亚马逊云科技紧锣密鼓开展了教科书般的多线定制芯片攻关,其他中美大厂也相继跟上自研处理器的风潮。漫长的服务器CPU拉锯战,终于从x86单方面碾压,变成Arm阵营声势渐涨。 Graviton亦逐渐坐稳全球最广泛使用的Arm服务器CPU,亚马逊云科技更是被视作带领Arm生态在数据中心开疆辟土的“全村的希望”。伯恩斯坦去年的一份报告显示,亚马逊云科技占据了全球超过一半的Arm服务器CPU市场。 ▲亚马逊云科技五年发布五款Graviton处理器(图源:智东西) 今天,大厂自研芯片屡见不鲜,但成功者寥寥可数。亚马逊云科技用五年写出的这本自研服务器CPU参考教材,值得被反复咀嚼。 一、六年死磕CPU自研创新,给Arm服务器芯片开路 一代开山路,二代奠江湖。 这是亚马逊云科技自研服务器芯片发家的真实写照:2018年11月发布的Graviton处理器,发出了云计算大厂自研CPU的第一声枪响;一年后,继任者Graviton2出场,标志着Arm服务器CPU正式进入数据中心市场竞争中,与x86掰手腕。 Graviton2集成了300亿颗晶体管,核心数量足足是上一代的4倍,并翻倍提升了L1/L2缓存,总线带宽达到2TB/s,相比上一代实现了7倍的性能提升。与基于x86的同类实例相比,基于Graviton2的实例性能提高了40%,每个实例成本降低了20%。 在低功耗上的出色表现,使亚马逊云科技大举将通用工作负载转移到Graviton2上,以节省电力和成本。此后,Graviton系列的采用率飙升,覆盖的工作负载从起初的Cache和Web扩展到数据分析、机器学习、高性能计算等。 Graviton在市场的初步告捷,堪称改变Arm命运的节点。 这背后,亚马逊云科技在底层创新上颇费心思:首次不再使用同步多线程技术,而是实现物理核心单线程资源独享,让每个vCPU独占1个物理核心,使vCPU之间更加隔离,不会因争抢资源而导致性能抖动。 从第一代到第二代,Graviton通过增加核数取得了可观的性能提升,但到第三代,亚马逊云科技需要纳入更多的设计创新。 增加核数、提升主频,是提升性能的两个常见手段。2021年发布的第三代Graviton3没有采用这些思路,核心数不变,主频仅略微提升。因为提高频率对于大规模数据中心来说会比较冒险,可能会带来大量的能耗,而且需要搭配升级的电源及散热配置,最终导致客户的使用成本上升。 Graviton3做了几项有别于前代的创新: 1、采用Chiplet设计,将7块硅die封装在一起; 2、采用指令级并行方法,提高了单个核心周期可执行的指令数量,使核心能完成更多任务; 3、针对内存带宽和延时敏感型工作负载,增加了40%的内存空间,并采用DDR5将内存通道带宽提升50%。 结果,相比上一代,Graviton3能将应用负载的性能无差别提升25%,功耗相比x86实例降低多达60%。通过内置机器学习硬件加速单元,这颗处理器还实现了3倍的机器学习性能提升,并被AI研究人员和企业用于云中的MLOps。 2022年推出的Graviton3E,专门针对浮点和向量指令运算进行了优化,向量计算性能达到Graviton3的2倍,尤其适用于人工智能/机器学习、高性能计算等应用场景。 最新一代Graviton4用上了更好的Neoverse-V2核心,并将核心数增加到96核,每个核心的L2缓存提升1倍至2MB,内存带宽提升75%。 每一代Graviton都会较上一代有两位数的性能提升,并且单位算力功耗不断下降。而节能减排对于数据中心的可持续发展极其重要,Twitter、Databricks、F1方程式赛车、Snap等知名云客户都使用了基于Graviton的服务,并对其降本增效的优势赞誉有加。 据外媒报道,到2022年年中,Graviton约占亚马逊云科技CPU实例的20%,其中大部分是Graviton2,亚马逊云科技新增虚机实例中约50%都是Graviton系列。 一些云客户公开背书称,他们通过租用Graviton服务节省了10%~40%的计算成本。 作为Graviton早期用户的大宇无限,用Graviton2将大数据作业的成本降低了20%;大量使用Graviton2实例的涂鸦也升级到新一代实例,将IoT平台加解密性能提高50%。 根据市场调研机构IDC的数据,2023年第一季度Arm服务器出货量市占率约为10%。此时Arm在服务器市场的生态问题已经初步得到解决。 截至目前,亚马逊云科技在全球六大洲33个地区和100多个可用区累计部署了超过200万张Graviton处理器。这些处理器驱动了超过150种计算实例,被全球超过5万的企业和开发者所使用。 二、唯一实现大规模使用Arm架构的云大厂 在服务云客户的过程中,亚马逊云科技团队发现如果希望针对所有可能的工作负载彻底变革计算的性价比,需要彻底重新思考实例,深入底层技术,包括定制芯片。 为什么是基于Arm架构设计芯片? 对于亚马逊云科技来说,这既是形势所迫,又是前瞻布局。 首先,Arm的许可证相对易得,而且设计自由度高,便于亚马逊云科技设计出更符合云业务需求的处理器。 其次,省电长期是数据中心的老大难。考虑到规模效应,每个芯片节省的几瓦特都很重要。而Arm已经被移动处理器市场检验过高能效、高算力密度、低成本等优势。 另外前文我们提到过,Graviton在提升频率上很谨慎,通过更高的指令级并行来补足性能,使其在性价比上更有竞争力。在高CPU利用率下,Graviton中每个vCPU独占一个物理核心,不存在争用问题,能保持依然快的速度,其价格优势则会变得明显。 据亚马逊云科技披露,相比采用Graviton3的第七代R7g实例,基于新一代Graviton4处理器的Amazon EC2 R8g实例性能提高了30%,实例大小更大,vCPU和内存增加多出3倍,能为数据库、内存缓存和实时大数据分析等内存密集型工作负载提供更好的性价比。 与R7g实例相比,R8g实例可将Web应用程序最高提速30%,数据库最高提速40%、大型Java应用程序最高提速45%。 其性能和性价比优势已经得到一些实测验证。 根据Phoronix发布的一些基准测试结果,在相同vCPU数量时,新Graviton4核心大致与英特尔Sapphire Rapids性能相当,同时能媲美AMD第四代EPYC,在运行高性能计算、加密、代码编译、光线追踪、数据库、3D建模等工作负载时,代际进步整体非常出色。 ▲经测试,基于Graviton4的R8g实例性价比超过基于英特尔至强、AMD EPYC的亚马逊云科技云实例(图源:Phoronix.com) 作为R8g实例首发客户之一,Honeycomb分享称Graviton4的吞吐量改进非常明显,相比四年前刚开始使用Graviton,每vCPU吞吐量提高了一倍多。他们准备在R8g实例系列正式发布后立即把整个工作负载迁移到Graviton4上。 爆款游戏《堡垒之夜》的制作公司Epic Games评价说,基于最新Graviton4的EC2 R8g实例是基于他们测试过的最快的EC2实例,在其“最具竞争力和对延迟敏的工作负载中表现出色”,可以充分提高游戏服务器的性能。 对SAP HANA Cloud使用R8g实例的初步测试结果显示,与基于Graviton3的实例相比,R8g实例的分析性能可提升高达25%,事务性工作负载性能可提升高达40%。 ▲R8g实例不同规格对比 迄今为止,只有亚马逊云科技真正实现了大规模使用Arm架构。 为什么是亚马逊云科技?正如亚马逊云科技大中华区解决方案架构总经理代闻在今年中国峰会上所言:“只有在云计算的环境下,才有机会做这样的从应用到CPU的全栈创新。” 自研芯片不是纸上创新,需要工程经验的积累,不仅要追求高性能,而且要足够的稳定可靠和高度安全。 用相同Arm微架构不代表就能做出一样性能的CPU,设计出芯片也不代表就能取得量产和商业上的成功。光是几百个CPU核心互连带来的线性度和通信延时问题,就能难倒不少芯片团队,更别提设计Arm服务器芯片还要突破生态难关。 亚马逊云科技的研发思路是从对云客户工作负载的深刻理解,逆向穿透到芯片设计。这种以客户为中心的方法能让亚马逊云科技短期内进行调整,以快速适应市场动态。 以Graviton4为例,亚马逊云科技首次面向实际应用设计CPU架构,该处理器的设计工程中从传统的MicroBenchmark基准测试评价体系转向以实际工作负载进行评价的方法。比如,优化Cassandra数据库、Groovy应用、nginx服务器,所需要的前端和后端CPU参数是不一样的。 庞大的客户规模为亚马逊云科技高筑壁垒。其遍布全球的广泛数据中心集群,能承载Graviton系列处理器的落地。全球最大云计算业务所形成的规模效应,又能为亚马逊云科技有效摊薄成本。 持续创新的云服务,使亚马逊云科技能够了解到使用最多的应用及其资源消耗模式,以此来挑选对用户来说收益最高的技术点,进行针对性优化,快速改进软件和硬件堆栈甚至是CPU设计,研发出相匹配的vCPU和硬件核心。 同时,亚马逊的各条托管服务的产品线都使用统一的基础设施,因此Graviton创新可以及时应用到所有的托管服务里。用户通过更换计算选项,就能轻松享受到Graviton带来的性价比提升。 用户只需关心哪款实例更能满足需求,亚马逊云科技负责将软件的迁移和学习成本打下来。通过将更多的管理服务和Graviton做深度集成,从x86无缝迁移到Arm变得简单快捷。 三、自研芯片如何影响云计算? 今天,自研芯片已经成科技大厂的标准动作,不管是降本增效、构建竞争优势,还是提高可控性、降低第三方芯片企业依赖,都是容易说服下游客户和投资者的好故事。 但在九年前,当亚马逊云科技率先踏出自研芯片之路时,这还是个超前的探索。 回溯云计算发展史,亚马逊云科技在2006年发布首款EC2(弹性云计算)实例定义被视作一个历史时刻。随后越来越多的企业逐渐接受云计算概念,并开始将自家应用迁移到云端。 现在亚马逊云科技可以在云上顺利运行几万个节点的高性能计算集群来训练大模型,能在云上处理高并发的实时流媒体应用,这些在当时都是很难想象的。要知道亚马逊云科技的第一款EC2实例,主频只有1.7GHz,网络带宽250Mbps,内存不到2GB,磁盘是只有160GB的机械盘。 在云计算业务刚起步的几年,亚马逊云科技要解决很多棘手问题,特别令团队焦虑的是:如果使用定制版Xen作为虚拟化管理程序,无论如何耗费大量时间来优化代码,虚拟层始终会占用主机资源,并且x86 CPU并不擅长处理网络流量。 直到2013年,一家以色列芯片企业Annapurna Labs走进亚马逊云科技的视线。经过合作,亚马逊云科技首次将网络处理写到硬件。惊喜的落地表现,让亚马逊云科技盯上了这家出色的合作伙伴:2015年1月,亚马逊云科技宣布收购Annapurna Labs,自此踏上自研芯片的旅程。 回过头来看,这绝对是亚马逊云科技历史上一笔精明的投资。 就在这一交易的两年后,亚马逊云科技对外宣布Nitro虚拟化平台,将安全、管理、监控全部卸载到硬件上,将主机算力近乎100%地提供给客户。 从此,云计算走上了业务与基础设施完全物理隔离的路子,底层的虚拟化技术创新和上层的服务器种类发展可以并行展开。 这催生了EC2实例的关键拐点:从2006年到2017年,亚马逊云科技用11年从1种EC2实例做到70种;而从2017年到2023年,EC2实例骤然爆发式增长,6年从70种发展到750种,能为各类负载提供合适的计算实例。 站在Nitro成功的基石上,亚马逊云科技发展出网络芯片、服务器CPU、AI训练和推理芯片三条产品线:Nitro网络芯片已经发展到第五代,持续优化网络性能、存储性能和安全加固;Graviton已经发布四代五款;AI推理芯片Inferentia和AI训练芯片Trainium,通过提供更具性价比的推理和训练实例,让用户有了GPU之外的AI加速选择。 这使得亚马逊云科技能够保持内部全栈创新的灵活性:从定制的板卡及服务器开始,到深入底层定制芯片,再到横向扩展自研芯片版图,亚马逊云科技逐渐将从芯片、硬件到软件整合协同,在为业务带来更好成本效益和可靠性的同时,构成独属于自己的核心竞争力。 自研芯片与亚马逊云科技自研的存储服务器和高速网络系统联动,使得更多芯片能够高效互连,从而真正明显缩短计算的时间。站在这些创新基础上,亚马逊云科技能够支持云计算中运行最具挑战性的任务之一——人工智能与机器学习。 在近期举行的亚马逊云科技纽约峰会上,亚马逊云科技宣布96%的AI/ML独角兽已将其业务跑在亚马逊云科技上,2024福布斯AI 50榜单中90%的企业选用亚马逊云科技。从2023年至今,亚马逊云科技已经正式发布了326项生成式AI功能,同期机器学习和生成式AI服务的正式可用数量超过了其他供应商的两倍。 广泛的用例与深厚的技术积累总是唇齿相依。这些数量惊人的AI用例,使得亚马逊有足够的实践案例来为客户提供能取得最佳收益的选择,而广泛的客户反馈又能成为其芯片设计最好的动能。芯片技术的持续迭代,将托举起越来越高性价比的云服务,推动生成式AI普惠。 结语:没有哪款芯片,是云计算的唯一解 市场上有大量的芯片选择,云基础设施提供商能在如何将所有这些整合在一起方面发挥价值,从而更好实现从基础设施到云服务的各种创新。 与独立芯片企业不同的是,亚马逊云科技自研芯片的目的不在于参与市场竞争,而在于为其客户提供一个“万能商店”,既提供自研芯片,又提供英特尔CPU、英伟达GPU等市面主流选择,由客户来根据这些芯片实例的配置文件,自行选择最能满足工作负载需求的产品组合。 Graviton的六年演进,走通了Arm服务器CPU落地的故事。Arm为亚马逊云科技提供了灵活定制CPU的基础,亚马逊云科技则推动了服务器芯片市场格局的变阵,成为Arm在数据中心市场展现成本和性价比优势的最好代言。 只要Graviton还有降本增效的空间,亚马逊云科技就可以继续降价让利,把规模与技术的红利回馈给云客户。
HMD官宣新项目:邀请家长共创“儿童专用”手机
IT之家 7 月 24 日消息,HMD 今日官宣了一个新的项目:与父母共同创作一款新手机,以应对智能手机和社交应用对儿童心理健康的影响。 这款手机设计的目的是作为“智能手机的替代品”,父母可以控制孩子的屏幕时间和社交媒体使用情况。HMD 宣称,决心通过包括新手机在内的多种设备来解决问题,并呼吁家长参与到这个过程中。 此次官宣的新项目命名为“The Better Phone Project(更好的手机)”。据 HMD 首席营销官 Lars Silberbauer 介绍,该项目是一段发现多种解决方案的旅程,旨在提供“选择与平衡”来解决信息过载问题。 HMD 希望与父母共创的新设备能够吸引“已经接受数字排毒的 Z 世代”。HMD 已经在项目中邀请了许多专家、活动家和父母支持团体,因此可能不久后就会有产品问世。 IT之家获悉,根据对英国、美国、印度、德国和澳大利亚的 1 万名家长进行的全球调查,超过一半的受访者表示,他们后悔在孩子年幼时就让其接触智能手机。 不少于 70% 的受访家长承认,他们无智能手机的童年使他们与家人存在更多的互动。还有近 65% 的受访家长表示,智能手机的使用对孩子的睡眠产生了负面影响,而 61% 的家长认为这减少了孩子进行体育活动的时间。
龙芯3C6000样片性能首次公布!比上代翻倍、龙链互连64核心
6月底的时候,龙芯中科官方披露,龙芯3C6000服务器处理器的初样已经回片(即流片成功返回芯片企业),正在测试中,总体上符合预期,最多16核心,计划在四季度发布。 现在,龙芯官方首次公开了龙芯3C6000样片的首批实测性能数据,还有衍生而来的龙芯3D6000、龙芯3E6000。 龙芯3C6000基于和大家熟悉的龙芯3A6000相同的LA664架构内核,单硅片最多16核心32线程,支持双路、四路、八路直连,也就是单系统最多可以做到128核心256线程。 通过龙链互连技术(Loongson Coherent Link),可以实现片间互联,并成倍降低片间的访问延迟。 龙芯3D6000为双硅片整合,达成32核心64线程,支持双路、四路直连,单系统也是最多128核心256线程。 龙芯3E6000为四硅片整合,达成64核心128线程或者60核心120线程,支持双路直连,单系统还是最多128核心256线程。 另外,龙芯3C6000内置安全模块,支持国密标准加解密算法,单硅片的SM4算法带宽超过30Gbps,并支持多硅片并行处理,提高带宽和性能。 性能方面,官方称龙芯3C6000、龙芯3D6000对比前代可以做到成倍提升,并分别可以达到至强银牌4314(10nm/16核心32线程/2.4-3.4GHz/24MB/135W)、至强金牌6338(32核心64线程/2.0-3.2GHz/48MB/205W)的水平。 详细的跑分也已公布,包括SPEC CPU 2017、UnixBench两个项目。 龙芯3C6000对比龙芯3C5000,SPEC CPU 2017四个测试项目中提升60-95%不等,UnixBench单线程、多线程分别提升33%、100%! 对比至强4314 SPEC CPU 2017互有胜负差距不大,UnixBench单线程只落后大约5%,多线程则领先约21%。 龙芯3D6000对比龙芯3D5000,SPEC CPU 2017四个测试项目中提升62-110%不等,UnixBench单线程、多线程分别提升55%、79%。 对比至强6338 SPEC CPU 2017也是互有胜负,UnixBench单线程、多线程都领先约55%。 以上这些都还是现有样片的性能数据,相信随着后续不断优化完善,表现还会更好。
扎克伯格深度专访:中美AI竞争完全错误,美国别想长期领先中国
编译 | 陈骏达 编辑 | Panken 智东西7月24日消息,昨夜,就在Meta推出拥有4050亿参数的最强开源大模型Llama 3.1之际,彭博社放出了Meta创始人兼CEO马克·扎克伯格(Mark Zuckerberg)接受知名科技记者张秀春(Emliy Chang)的深度访谈。 扎克伯格在本次采访中披露了自己决定构建开源平台的心路历程。他称公司过去一直在开发产品时受制于苹果这样的平台企业,在这波技术浪潮中,他希望通过Meta在AI和VR/AR领域的投资,建立和控制属于自己的平台,并让Meta AI在今年年底前成为使用量最大的AI助手。 谈及Llama 3.1,扎克伯格认为这一模型能成为许多企业所需的定制化模型的老师。未来,他计划创造AI社交媒体,帮助人们完成一些比较困难的社交活动。他还透露现在Meta已经在研究Llama 4了。 原Facebook公司在2021年更名为Meta,并加大了对元宇宙的投资力度。扎克伯格在谈及这一决定时也坦言,自己没想到AI会先于AR到来,但他仍然认为VR/AR是未来重要的技术趋势之一,他们也正为此做好准备。 AI是一场昂贵的游戏,红杉资本称其为“一个6000亿美元的问题”。扎克伯格认为目前AI领域确实存在过度投资的问题,但从历史上来看,许多泡沫最终也变得很有价值,只是并没有人们预想中的那么快。现在的过度投资是在为未来做好准备,同时也规避了在技术上落后的风险。 扎克伯克的妻子是华裔美国人,他也对中国很感兴趣。谈及中美在AI领域的竞争,他认为美国很难保持对中国5-10年的技术领先,实际上6-8个月的领先已经不错了。他也反对美国对AI技术采取封闭的态度,在他看来开放和去中心化才是美国成功背后的要素。 张秀春还给扎克伯格抛出了一个颇为棘手的问题:你怎么看阿尔特曼(OpenAI CEO)?扎克伯格在回答中打起了圆场,称阿尔特曼在“应对公众的审视时做得比自己做得更好”。不过他也觉得OpenAI顶着“开放”的名头,干着“闭源”的工作,这件事儿着实有点好笑。 Facebook曾因平台上的政治内容饱受争议,扎克伯格称在这次选举年中,Meta会减少旗下平台的政治内容推荐,更关注平台的社交属性。他本人也会减少政治参与,本次大选不会选边站,但他确实觉得特朗普的那张“人生照片”有点燃。 在工作之外,扎克伯格是3个女儿的父亲,他会与女儿一起用Meta AI生成图片,给女儿们编辫子,不过据他的妻子所说,孩子们很嫌弃扎克伯格编辫子的技术。美国青少年正面临着心理健康危机。扎克伯格称自己知道做父母的辛苦,Meta也会给父母提供足够的控制权,确保社交平台的运作符合父母们的期待。 本次采访在扎克伯格位于美国太浩湖(Lake Tahoe)湖畔的度假屋进行。他喜欢冲浪,也热衷搏击运动,他的妻子普莉西亚·陈(Priscilla Chan)称扎克伯格一天到晚有用不完的精力,工作、运动、照看孩子都会兼顾,她自己也跟不上扎克伯格的节奏。但扎克伯格最喜欢的还是创新,“冲浪很有趣,搏击很有趣,但构建新东西是最有趣的”。他对AI和科技的未来持乐观态度,虽然一路上挑战重重,他相信未来仍有无限可能。 ▲扎克伯格在太浩湖畔接受张秀春采访(图源:Bloomberg Original) 以下是对扎克伯格本次采访的完整编译(为提高可读性,智东西调整了部分问答的顺序,并在不违背原意的前提下进行了一定的增删修改): 一、开源是为了构建自有平台,下定决心不想再受制于人 Emliy Chang:我在哈佛的校报上找到2003年的一篇文章,当时你就在这篇文章里讨论开源。你是不是已经思考这个问题很久了? 扎克伯格:是的,开源文化是科技行业的重要组成部分。没有开源,我也做不成早期版本的Facebook。我以前也只是个学生,获取不了什么资金。学生们也有一种“黑客心态”,只想着获取代码,用到自己所需要的事情上,这种做法当然也更节省成本。 ▲哈佛校报上关于扎克伯格的文章(图源:Bloomberg Original) Emliy Chang:有人认为你不太像是个开源的拥护者,你知道他们为什么这么想对吧? 扎克伯格:是的,我知道大家这么想的原因。不过Meta一直以来都是开源的强力支持者。这个模式对我们公司本身来说也是很好的。开源思想体现在我们的服务器设计、数据中心设计里。我们还拥有开放计算项目(Open Compute Project),这一项目标准化了这一行业的许多基础设施。而在AI领域,类似的情况也会发生。 Emliy Chang:通过模型开源,你们成了未来AI发展中一股重要的力量。开源这一决定背后,是否也有你们试图影响或者掌控下一波技术浪潮的考虑呢? 扎克伯格:过去10-15年里,我们很大程度上都以来手机平台来构建我们的应用程序,这些平台都掌控在我们的竞争对手手中。也正是因为这种竞争关系,当我们构建出一些自己认为不错的产品时,却有可能被苹果这样的公司告知我们不能发布,或者要限制某些功能,这对我们来说打击很大。 现在我们已经是一家足够大的公司了。我也下定决心,我希望在下一代技术发展中,我们能构建并控制属于我们自己的平台。AI是其中的一个关键领域,AR/VR是另一个重要领域。而要掌控我们自己的命运,并确保我们能用上最领先的AI技术,就是要自己发展AI技术,并且让其成为行业标准。我们还能通过分享我们的AI技术,建立以它为中心的生态系统,将这项技术变得更加强大。 二、Meta AI年底前要做到世界第一,Llama 3.1是模型们最好的老师 Emliy Chang:你正在继续改进Meta旗下产品中内嵌的Meta AI,同时也将Meta AI作为单独的聊天机器人推向市场。为什么我们要选择Meta的产品,而不是ChatGPT呢? 扎克伯格:我们有很多地方做得比ChatGPT要好。我们即将推出的一个功能就是“想象”。我和我的女儿们已经经常使用这一功能了,Meta AI可以在你输入查询的同时,实时生成图像。 虽然Meta AI目前才发布了几个月,但我的目标是让Meta AI在今年年底时成为世界上使用量最大的AI助手。我认为我们目前已经步入正轨了,现在就有数以亿计的人在使用这一产品,很有可能不用到今年年底就能实现这一目标。 ▲Meta AI的用户界面(图源:Bloomberg Original) Emily Chang:你们发布了Llama 3.1系列模型,这一系列的模型大小各异,其中包括有史以来最大的开源模型,具有4050亿的参数。你认为这一参数规模的飞跃能解锁什么新的东西呢? 扎克伯格:由于这一模型是开源的,我认为人们主要有可能将它视为其他较小模型的“老师”,用这一模型作为基础来训练针对不同应用的模型。创企、所有的企业乃至政府,都有可能需要定制化的模型。而他们很难利用市面上的种种闭源模型来做定制化模型,比如谷歌的Gemini或者OpenAI的模型。 我们公司的一个核心理念是,我们不希望未来由一个AI主导整个市场。我们的愿景是,市面上应该有数百万乃至数亿种不同的模型。同时我也认为AI不会成为上帝。如果你在一个认为自己能创造出超级智能的组织中呆着,很有可能就认为自己是在“创造上帝”。但我认为这种看法是错误的,同时也非常没有吸引力。 我们的平台上有近2亿创作者。他们都在努力建立自己的社区,用户也想与他们互动。我想让他们每个人都能轻松地训练出自己的AI,按照自己的想法来构建AI。这就好像创作者给自己的社群推出的一种艺术品,既能和社群互动,同时也能确保这一交互的方式是可控的。 三、计划构建AI社交网络,期望利用技术实现更好的社交 Emily Chang:我想了解一下你们的宏观战略和具体的实现方式。我们未来会拥有AI生成的网红吗?会有AI生成的文字内容,AI生成的真人替身之间会互动吗?你想创造世界第一个AI生成的社交网络吗? 扎克伯格:是的,你之前提到的场景应该都会出现。创造由AI生成的社交网络当然是其中的一部分。其实这已经是人们用Meta AI的前四大用例之一了,同时也是最有意思的用例之一。 人们会利用AI进行角色扮演,模拟一些比较困难的社交互动。无论是在职场,比如要求经理给你加薪,或者是和朋友或者伴侣进行一些比较艰难的对话。我甚至可以在今天这场采访之前,用AI进行角色扮演,模拟一下这个场景。这只是一个工具,你和AI对话的也不会有任何社交的后果。 Emily Chang:但你有什么证据能够证明,人们真的想生活在这一虚拟的世界中,与真人的替身进行社交呢?还是说这对我们来说有好处呢? 扎克伯格:我认为人们使用社交网络本质上还是想要与他人产生联系,其他的东西其实都是一种噪音。我们现有的这些技术能让我们更好地社交。当我刚刚开始使用Facebook的时候,主要都是文本。随着智能手机的出现,我们便开始拍照。移动网络的改进让分享视频也成为可能,视频包含的内容要丰富得多。观看视频是一种更好的体验,但我不认为这就是终点。我希望这一体验能变得更加沉浸。 四、过度建设也很有必要,AI是一个有价值的泡沫 Emliy Chang:你把公司重新命名为Meta,你们目前也还在向元宇宙投入数十亿美元的资金。我们未来的发展路径和你设想的一样吗?你们这一突然的转向背后有没有什么经验和教训呢? 扎克伯格:我们的突然转向,很大原因是我们开始被归类为一家纯粹的社交媒体应用公司。元宇宙肯定是一个长期的投资,我认为有些事情比我想象的要好,有些则比我想象的要慢。眼镜肯定是进展得更好的例子。它们很时尚,本身就是一副好眼镜。这也是一个很好的使用AI的形式。 当我们开始这个项目时,我们并不知道AI会变得如此重要。我们认为AI可能是10年后的事情。5年前你问我的看法,我肯定会觉得AR会在AI之前到来。所以我们当时调整背后的原因也只是想做好准备,以便在不同的浪潮来临时驾驭它们。 Emliy Chang:红杉资本称AI是一个“6000亿美元的问题”。许多投资都流向了芯片、基础设施、数据中心等等领域,但什么时候才能从这些投资中得到回报呢?你认为AI是不是一个泡沫呢?如果不是,你觉得什么时候才能开始从中获利呢? 扎克伯格:我认为泡沫这个概念很耐人寻味。其实随着时间的推移,许多所谓的泡沫最终也会变得很有价值,这只是一个时间问题。即便是互联网泡沫,比如当时大规模铺设的网络线缆,这些东西到最后还是变得很有价值,只是没有人们想象中的那么快罢了。我不知道AI最终会怎么发展,还是很难预测的。但我认为AI将会成为未来世界重要的基础。 我认为现在许多公司都在过度建设,但这是一个很重大的机遇。回头看,你可能会发现我们都多花了数十亿美元。但从另一个角度看,我认为目前正在投资这些基础设施的企业都还是理性的。因为如果不投资,就有可能在未来10-15年里都在技术上处于落后的地位。 五、Llama 4研究已经开始,以完全消灭差距为目标 Emily Chang:你说你的目标是实现通用人工智能(AGI),你如何定义AGI呢?你们会先实现AGI吗? 扎克伯格:目前我们已经在研究Llama 4了,我们的目标是完全消灭我们和其他公司的差距。在通往AGI的路上,我认为需要实现一些重要的突破,所以很难直接预测我们是否能率先实现AGI。 AGI目前也没有一个清晰的定义。但我认为智能是多元的,它并不只是一个数字,而是有各种方面、各种模态。我认为总有一天我们会实现AGI的,我们想借此创造出各种各样的AI系统,帮助人们完成自己想做的事情。我认为最终这对世界来说是件好事。 六、批判性思维和价值观构建很重要,扮演多个角色丰富个人经历 Emliy Chang:现在的孩子们应该学习什么呢? 扎克伯格:我认为最重要的是,应该在年轻的时候学会批判性思维,并构建自己的价值观。 这其实也很符合我自己招聘时候的价值观。如果人们已经展现出自己有能力把一件事情做得很深入、做得很好,那他们可能已经掌握了学习的技巧,能轻松的把事情学好。这对于其他事物来说也是很适用的。 Emliy Chang:看上去你做事情的时候总是全力以赴,你平时会运动,会做一些其他的项目,同时也要当一名敬业的CEO,还得做一名称职的爸爸。你是如何腾出时间来完成这些事情的呢? 扎克伯格:我认为在这些事情上做好平衡,实际上能帮助你把这些事做得更好。我确实是一个十分专注和高要求的人,但我也考虑了其他和我合作的人的感受,不会把太多的精力都集中在一个项目上,我想确保大家有空间去做他们想做的事情。做这么一个全面发展的人,不断学习,最大的好处就是能有许多不同的经历。 ▲扎克伯格抱着自己的女儿(图源:Bloomberg Original) 七、美国无法对中国保持5-10年的领先,开放和去中心化才能持续创新 Emliy Chang:你对中国一直很感兴趣,你也学习了普通话,你对中国在AI和AGI上的进展有什么了解吗? 扎克伯格:我自己了解得不多。不过美国现在确实面临着这样的问题,我们究竟应该如何对待和中国的竞争呢?有一种看法是我们应该把所有的技术都封闭起来,我认为这是完全错误的。美国的成功背后就是开放和去中心化的创新,我们的经济就是这么运转的。但我认为目前行业的领头企业也有必要和美国政府合作,确保我们在持续进步,保持技术上的先发优势。 Emliy Chang:所以我们就通过这种方式,赢得这场AI战争吗? 扎克伯格:问题的关键就是,我们到底想实现什么?我们是想领先中国5-10年吗?我都不知道这是不是个合理的目标,这一领先很难维持住。我认为比较合理的目标是,通过美国企业在AI领域的不断创新,长期领先中国6-8个月,这已经是一个很大的优势了。 八、阿尔特曼比我会公关,OpenAI的现状很讽刺 Emliy Chang:这一领域有许多的玩家,你是如何看待萨姆·阿尔特曼(Sam Altman)的领导力呢? 扎克伯格:他对OpenAI的发展做出了很大的贡献。同时,我像他一样都受到了公开的审视和监督。我自己在面对这些问题的时候处理得并不理想,但我认为阿尔特曼处理得很优雅,我认为他比我做得要好。 但我认为有点讽刺的是,一个名为OpenAI的组织,现在却是闭源模型领域的领导者。这不一定是坏事儿,但多少有点好笑。 Emliy Chang:不管你是否认同这些指责,Facebook和你确实面临着很多批评。我们为什么要相信你的AI呢? 扎克伯格:我们因为许多事情而遭到指责。我们也认真对待这些问题,已经在尽力处理了。我不确定这样对待我们是不是公平的,但作为一家重要的公司,审查和监管总体看来还是有益的。 开源的定义之一就是任何人都可以审查这个产品。我认为这会给你带来很大的压力,要确保产品的质量迅速地提升。 九、本次大选不会选边站,公司会减少政治内容的推荐 Emliy Chang:我想谈谈2024年的总统选举。Facebook一直是世界各地许多选举中的焦点,你个人最近也被前总统特朗普点名了。这是一次重大选举,你认为这场选举可能会有什么影响? 扎克伯格:这显然是一次非常重要的选举,这将是一次历史性的选举。我从用户那边收到的反馈是,他们实际上希望我们平台上的政治内容再少一些。他们使用我们的服务是为了社交,与人保持联系,这也是我们需要做的事情。我们给了人们选择权,但总体上来说,我们也会减少政治内容的推荐力度。我相信大家会看到,在这次选举中我们的产品的作用并不会像之前的选举那样大。 我过去自己也有政治参与,这次我不打算参与了。我不会支持任何一位候选人。不过现在,确实有一些很多疯狂的事情正在发生。那张照片,特朗普脸部中弹后,在美国国旗的背景下高举拳头,这可能是我一生中见过的最厉害的东西之一。 在某种程度上,作为一个美国人,很难不被这种精神感动。我认为这可能也是许多人喜欢他的原因。但我们公司的作用是,让每个人都可以对这件事情表达自己的看法。这是我们最应该去扮演好的角色。 十、心理健康危机不能全赖社交媒体,虚拟世界和现实世界并不冲突 Emliy Chang:美国正面临着心理健康危机,尤其是青少年。美国卫生部长呼吁应该给社交媒体贴上警告标签,说社交媒体应该对此事负起部分责任。就你现在所知道的一切而言,他说得有道理吗? 扎克伯格:美国显然存在心理健康问题。我认为处理这一问题对儿童和青少年来说尤为重要,关注这一问题是正确的。我自己也有3个女儿,年纪也很小。做父母是很辛苦的,我们只想确保孩子们有美好的生活。从这个角度来看,我的目标是以符合家长们要求的方式构建我们的服务,给他们提供所需的控制权,监督我们的服务到底在如何运作。 目前数据显示的结果和大家普遍的认知有所不同。许多人行事的方式,就好像心理问题真的和社交媒体有必然的联系。我认为目前的研究还不能证明这点。手机本身持续不断的消息提醒可能也会影响你的心理健康,但这和社交媒体是不一样的。当然了,问题确实存在,我们也希望自己能参与问题的解决。 Emliy Chang:你现在做的许多事情都会让这个世界更加虚拟,但你也热爱现实世界中的许多事情。你是如何平衡这两个目标的呢? 扎克伯格:我不知道二者之间有任何矛盾。科技界的一群人认为,我们可以将自己的意识和智能从身体里提取出来,将其上传到云端。这在我看来是很荒谬的。人之所以为人,部分原因就是你是一个活跃的实体,有自己的能量,我们不只是我们大脑里的东西。我们的能量、我们的爱对人来说都是十分必要的东西。 十一、冲浪搏击都有趣,构建新东西最有趣 Emliy Chang:你已经从事这行20多年了,你还想继续做多久呢?你已经拥有许多东西了。 扎克伯格:是的,冲浪很有趣,搏击也很有趣,但我认为构建新东西是最有趣的。在此刻,我会以10-15年的尺度思考我正在构建的东西。我认为AI可能需要10-15年才能完全实现,我们正在做的下一代计算平台也是如此。我的猜测是,到那时又会有新的技术出现。 ▲扎克伯格在冲浪板上喝啤酒(图源:Bloomberg Original) Emliy Chang:从整个科技行业的角度来看,我们似乎正在人类自己身上进行一个规模巨大的实验,这最终会如何收场呢? 扎克伯格:我不确定会有一个所谓的结局。我认为未来还会有很大的发展。我知道有很多人担心AI会不会限制我们的创造力,我认为事实与此相反。 当我开始创业的时候,我需要了解很多的编程知识才能实现自己的想法,但是在未来,我们可能都不需要这些知识了。只需要表达自己想构建什么,而AI系统就能帮助你写出需要的代码。当然了,一路上我们也会面临种种挑战,但我对未来技术的发展还是持很乐观的态度。
蔚来NIO Phone 2手机将搭载NOMI GPT,官方称“做手机不是一时兴起”
IT之家 7 月 24 日消息,蔚来 NIO Phone 2 代将在 7 月 27 日的蔚来创新科技日发布,蔚来汽车科技副总裁 @白剑NIO 今日发文,对新机进行了一些预热。 @白剑NIO 表示:“做手机这件事,蔚来很早就开始思考和布局了,并不是一时兴起,更不是像某些人所说,因为一些手机品牌都开始做车了。” 他还称,全新 NIO Phone 在 ID 设计、性能、影像、系统和 AI 智能体验上都有“显著提升”,并称“完全可以作为用户的主力机”。同时,NIO Phone 2 依然保持了“0 系统广告、0 商业预装”。 此外,NOMI GPT 也将登陆手机,带来更多“前沿的 AI 创新体验”。 IT之家查询获悉,NOMI GPT 是蔚来打造的端云多模态大模型,已上线搭载 Banyan・榕智能系统的车型。 该功能包含自研多模态感知、自研认知中枢、情感引擎、多专家 Agent,用户升级后可体验大模型百科、无限趣聊、魔法氛围、趣玩表情、用车问答、AI 场景生成等互动体验。 蔚来于 2023 年 9 月推出了旗下首款智能手机 —— 蔚来 NIO Phone,该机采用“天际线设计”,搭载高通骁龙 8 Gen 2 领先版处理器,定价 6499 元起。 7 月 18 日,第二代蔚来 NIO Phone 已通过国家 3C 认证,型号为“N2401”,支持 100W 快速充电,由蓝思科技代工。
折叠屏市场卷麻了!盘点大小折叠的优缺点
随着时间来到24年下半年,广大考生们的学业可以告一段落,各家数码厂商也紧锣密鼓地推出了自己的新一代产品,整个7月已经被各家大大小小的发布会承包。 除了传统直板手机之外,荣耀和小米两家厂商都在7月发布了自家的新一代折叠屏旗舰,现在已经有三星、华为、OPPO、vivo、荣耀、小米等多家厂商同时拥有大折叠与小折叠两种产品矩阵。 相信有不少初尝折叠屏的朋友们都会在大折叠与小折叠之间纠结,小编会从两种折叠屏的优缺点出发,来帮大家分析一下,大折叠与小折叠哪一款更适合您。 大折叠优点:大屏、大电池、影音体验优秀 折叠屏诞生的初衷就是为了把一块更大的屏幕塞进我们的口袋,柔性屏幕本身的显示效果、可折叠性、折痕控制是各个厂商发力的重点。 得益于折叠屏手机大都是旗舰级的定位以及显示技术的快速发展,折叠屏手机的确能在显示效果方面带来更加出色的表现,更大的屏幕尺寸也拥有更好的沉浸感,其中横向大折叠机型的体验最佳,可以兼顾屏幕的尺寸和携带的便携性。 大折叠与小折叠相比,在机身的空间利用率上也有优势,可以塞入更大的电池,配备更全面的散热措施。因此,大折叠在视频、文字浏览等等影音方面的体验是要远好于小折叠的,也要好于传统的直板手机。 大折叠缺点:价格昂贵、基础体验不对等 可折叠的设计以及柔性屏幕的运用,自然代表了更高的设计和生产成本。作为各个品牌核心技术的体现,折叠屏手机通常被冠以旗舰的定位,各个品牌的大折叠一般都是自家定位最高的手机产品,因此价格高昂是普遍现象。 也因为可折叠的架构,所以折叠屏手机往往往在机身空间利用率、配置以及重量方面较传统直板手机存在劣势。经过最近两年的发力,折叠屏手机的重量问题已经得到解决,今年推出的各大折叠屏旗舰大都将重量控制在了230克出头。 尽管解决了重量方面的妥协,折叠屏在配置方面的表现仍然无法和同代的旗舰机抗衡,尤其是在拍照、散热、续航方面。 也就是说,当我们花费更多的金钱去购买一台折叠屏旗舰之后,它所带来的基础体验有很大概率不如我们正在使用的传统直板手机。 小折叠优点:小巧、轻便、一手掌握 小折叠诞生的初衷就伴随着时尚属性,主打的就是小巧轻便,在折叠状态下可以轻松地一手掌控,收纳起来也非常方便。 小折叠缺点 小折叠在展开和闭合时需要依赖两只手去操作,尽管柔性屏幕的质量在不断提升,但是用手指尖去把屏幕顶开并不是一个值得推荐的操作方式。折叠屏表面通常自带了一层十分柔软的贴膜,用手指甲用力顶的话还是比较容易留下痕迹的,会对可靠性有一定影响。 同时,小折叠的小巧机身也意味着更少的空间利用率,目前4000毫安时左右的电池容量仍然是小折叠手机的主流,再加上普遍妥协的内部散热、镜头配置以及振动马达,小折叠屏手机的日常使用体验是和主流手机差距最大的。 写在会后 总的来说,即使是旗舰级定位的大折叠屏手机,它在续航、拍照、性能释放这些日常表现上仍然较同期的直屏旗舰存在差距。不过,这部分差距在近年有明显减少的趋势,而且大屏幕带来的良好影音体验是毋庸置疑的,适合推荐给看视频居多,对性能和影像要求不那么极致的用户。 小折叠的主要优势全都集中在便携小巧方面,实际的日常体验存在比较多的妥协,并不推荐实用党选择。不过也只有小折叠的尺寸和体积才能放到储物空间本就不富裕的小包包或者正装礼服中,极致的小巧轻便是小折叠的主要亮点。 当然,对于小编来说,实用性更强的直屏旗舰依然是我的首选,也适合大多数人。折叠屏手机更适合对自己需求明确的用户,在做到大屏的同时还没法像传统手机那样做到均衡全面。
分析师称苹果有望三年内推出折叠手机 技术成熟度和市场容量是顾虑
2024年虽然折叠手机出货量仍在快速发展,但是折叠手机在全球智能手机市场的占比预计不足2%。 中国大陆面板厂也在积极研发OLED柔性折叠屏。 摄影/第一财经王珍 7月24日,针对苹果计划2026年推出折叠手机的传闻,群智咨询(Sigmaintell)副总经理兼首席分析师陈军向第一财经记者表示,苹果有折叠手机的规划,大概时间点可能在2027年推出。 记者获悉,折叠手机的技术成熟度和市场容量,是苹果迟迟未推出折叠手机的主要顾虑。 陈军分析说,现在从供应链看,苹果也需要做一些产品端的创新,折叠手机是苹果产品规划的方向之一。他预计,苹果有望在2026年-2027年推出大折叠形态的折叠手机产品,目前屏幕的折痕效果并不能满足苹果对折叠手机的要求。 “苹果在推出新产品前都会进行深入的研发和测试,确保产品在功能、性能和耐用性上都能达到其高标准。因此,苹果推出折叠手机取决于屏幕折痕、铰链技术成熟度是否达到了其满意的程度。”陈军说。 潮电智库分析师孙燕飚也向第一财经记者表示,从两三年前开始,苹果就与供应商一起研究折叠手机怎么做,一直都在研究,包括送样也在做,但一直就没有一个相对上量的规模,所以很难预测苹果最终什么时候会推出折叠手机。 “因为现在从数据报告上看,三星折叠手机一个季度的销量差不多是100万台,它有两款折叠手机,加起来一年的销量不到500万台。三星从2019年开始推折叠手机,推了五年,其折叠手机的年销量还没有突破1000万台。“孙燕飚认为,折叠手机市场目前容量偏小,可能是苹果延迟推出折叠手机的主要原因。 据群智咨询的预测,2024年全球折叠手机的出货量将在2200万台左右,同比增长约24%;而2024年全球智能手机出货量大约11.5亿台。也就是说,2024年虽然折叠手机出货量仍在快速发展,但是折叠手机在全球智能手机市场的占比仅为1.9%,不足2%。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。