行业分类:
加载中...
头条分类:
加载中...
英伟达Q2净利润大涨168%、回购500亿美元股票 但股价大跌
英伟达 凤凰网科技讯 北京时间8月29日,人工智能芯片巨头英伟达公司(NASDAQ:NVDA)今天发布了截至7月28日的2025财年第二季度财报。财报显示,按照美国通用会计准则(GAAP)计算,英伟达第二财季营收为300.40亿美元,较上年同期的135.07亿美元增长122%;净利润为165.99亿美元,较上年同期的61.88亿美元增长168%。 英伟达宣布回购500亿美元股票,但对于第三财季营收展望低于一些分析师的最乐观预期,引发市场对其爆炸性增长可能正在放缓的担忧。英伟达称,正在解决备受期待的新款Blackwell架构芯片的生产问题。 股价表现: 英伟达第二财季营收和调整后每股收益均超出分析师预期,对于第三财季的营收展望也超出分析师平均预期,但是低于一些分析师的最乐观预期,股价在盘后交易中大跌近7%。 英伟达股价盘后下跌6.89% 英伟达周三在纳斯达克交易所的开盘价为128.12美元。截至周三收盘,英伟达股价下跌2.69美元,报收于125.61美元,跌幅为2.10%。截至美国东部时间周三17:53分(北京时间周四5:53分),英伟达股价在盘后交易中下跌8.65美元至116.96美元,跌幅为6.89%。过去52周,英伟达股价最高为140.76美元,最低为39.23美元。 第二财季业绩要点: ——营收为300.40亿美元,较上年同期的135.07亿美元增长122%; ·数据中心部门(包含AI芯片业务)收入为263亿美元,同比增长154%,环比增长16%; ·游戏和AI PC部门收入为29亿美元,同比增长16%,环比增长9%; ·专业可视化部门收入为4.54亿美元,同比增长20%,环比增长6%; ·汽车与机器人部门收入为3.46亿美元,同比增长37%,环比增长5%; ——毛利率为75.1%,较上年同期的70.1%增长5个百分点,较上个季度的78.4%下降3.3个百分点;按非美国通用会计准则(Non-GAAP),毛利率为75.7%,较上年同期的71.2%增长4.5个百分点,较上个季度的78.9%下降3.2个百分点; ——营业费用为39.32亿美元,较上年同期的26.62亿美元增长48%,较上个季度的34.97亿美元增长12%;按非美国通用会计准则,营业费用为27.92亿美元,较上年同期的18.38亿美元增长52%,较上个季度的25.01亿美元增长12%; ——营业利润为186.42亿美元,较上年同期的68.00亿美元增长174%,较上个季度的169.09亿美元增长10%;按非美国通用会计准则,营业利润为199.37亿美元,较上年同期的77.76亿美元增长156%,较上个季度的180.59亿美元增长10%; ——净利润为165.99亿美元,较上年同期的61.88亿美元增长168%,较上个季度的148.81亿美元增长12%;按非美国通用会计准则,净利润为169.52亿美元,较上年同期的67.40亿美元增长152%,较上个季度的152.38亿美元增长11%; ——每股摊薄收益为0.67美元,较上年同期的0.25美元增长168%,较上个季度的0.60美元增长12%;按非美国通用会计准则,每股摊薄收益为0.68美元,较上年同期的0.27美元增长152%,较上个季度的0.61美元增长11%。 资本回报计划 英伟达宣布,2024年8月26日,董事会批准了额外500亿美元的股票回购计划,无到期日期。2025财年上半年,英伟达通过回购股票和现金股息的方式向股东返还了154亿美元。截至第二财季末,英伟达的股票回购计划中还剩75亿美元。 英伟达同时宣布,将向截至2024年9月12日登记在册的所有普通股股东,派发每股0.01美元的季度现金股息,支付日期为2024年10月3日。2024年6月7日,英伟达完成了1:10拆股。 第三财季展望: ——营收预计为325亿美元,上下浮动2个百分点; ——毛利率预计为74.4%,按非美国通用会计准则为75%,上下浮动50个基点;2025财年毛利率预计介于74%至76%(mid-70% range); ——营业费用预计约为43亿美元,按非美国通用会计准则约为30亿美元;2025财年营业费用增速预计介于45%-49%(mid-toupper-40% range); ——其它收入预计约为3.5亿美元; ——剔除不可持续项目,税率预计为17%,上下浮动1个百分点。 高管点评: 英伟达创始人兼CEO黄仁勋(Jensen Huang)表示:“Hopper架构芯片需求依然强劲,人们对Blackwell架构的期待令人难以置信。随着全球数据中心全速推进,通过加速计算和生成式AI实现整个计算堆栈的现代化,英伟达实现了创纪录收入。” “Blackwell架构芯片样品正在向我们的合作伙伴和客户发货。适用于AI的Spectrum-X以太网平台和英伟达AI企业软件是两个具备显著规模的新产品类别,表明英伟达是一个全栈和数据中心规模的平台。在整个堆栈和生态系统中,我们正在帮助前沿模型开发商为消费者提供互联网服务,现在又为企业提供服务。生成式AI将彻底改变每个行业。”(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
苹果又双叒裁员了!
据知情人士透露,美东时间周二,苹果公司罕见地在其数字服务部门裁员约100人,表明苹果公司正在进行业务重心的战略调整。 文|刘蕊 据知情人士透露,美东时间周二,苹果公司罕见地在其数字服务部门裁员约100人,表明苹果公司正在进行业务重心的战略调整。 ▍苹果罕见削减服务部门岗位 知情人士称,该公司周二通知了受影响的员工,这些员工分别在苹果互联网软件与服务高级副总裁库伊(Eddy Cue)所负责的的服务部门的几个不同团队工作。 据称,这些员工被告知,在被解雇之前,他们有60天的时间在苹果内部找到另一份工作。由于一些员工同时在多个团队工作,因此苹果其他业务部门也受到了间接影响。 此次裁员包括一些工程师职位,其中最大的裁员对象是负责Apple Books应用程序和Apple Bookstore的团队。其他服务团队也在裁员,包括运营Apple News的团队。 这可能表明,Apple Books等业务已不再是苹果公司的业务重点,也被排除出其服务阵容的重点行列。 当然,这不意味着苹果完全放弃了Apple Books应用程序,据知情人士透露,随着时间的推移,Apple应用程序仍有望获得新功能。至于Apple News,消息人士透露,裁员也并不意味着它的受关注度会降低。 近年来,服务业务一直是苹果的增长引擎。在最近一个财年,服务业务在苹果总销售额中的占比超过22%,而十年前这一比例还不到10%。随着苹果服务部门的成长,苹果公司在智能手机需求低迷时期,也能获得业绩增长动力。 ▍苹果年内已至少4轮裁员 回顾往年,裁员在苹果公司是相对罕见的情况。不过,今年情况似乎有所不同。 2024年年初至今,苹果已经进行了至少四轮裁员:今年早些时候,苹果关闭了其自动驾驶汽车项目以及microLED显示屏的生产部门,解雇了数百名员工。它还裁撤了在圣地亚哥的一个AI研发团队,裁员人数达121人。 苹果最新的监管披露报告显示,其旗下共有约16.1万名全职或等同于全职的员工。 事实上,除了苹果,美国硅谷的一些其他科技公司也正在大规模裁员,以应对经济增长放缓和劳动力市场向人工智能的转变。近日,思科系统公司就宣布计划裁员约7%,英特尔公司则计划裁员超过15%。
英伟达电话会议要点:中国市场贡献大、Blackwell芯片有问题
黄仁勋 凤凰网科技讯 北京时间8月29日,人工智能芯片巨头英伟达今天发布了2025财年第二季度财报。随后,英伟达CEO黄仁勋(Jensen Huang)、CFO克莱特·克罗斯(Colette Kress)出席了电话会议,回答了分析师的提问。 以下是财报和电话会议的要点: 1.英伟达第二财季营收为300.40亿美元,较上年同期的135.07亿美元增长122%;净利润为165.99亿美元,较上年同期的61.88亿美元增长168%。 2.英伟达将追加回购500亿美元股票。 3.英伟达第二财季业绩“并不足够好”。虽然营收超出预期,但只比分析师的平均预期高出4.1%,是过去6个季度中超出幅度最小的一次。 4.英伟达预计第三财季营收为325亿美元,低于379亿美元的最乐观分析师预期,股价盘后下跌近7%。 5.英伟达承认,Blackwell架构芯片的设计存在问题,已作出大量调整来提升良品率。Blackwell架构芯片预计将在第四季度带来“数十亿美元”的收入。 6.黄仁勋称,正在向客户出货Blackwell架构芯片样品,不会做功能上的改变,预计第四季度投产。 7.Blackwell芯片重新设计会产生成本,市场担心这是否会影响英伟达的财务状况。截至第二财季末,英伟达现金余额达到348亿美元,相比六个月前的259.8亿美元有所增长。 8.克罗斯表示,中国数据中心收入实现了环比增长,是公司整体收入的“重要贡献者”。她指出,中国数据中心收入低于出口管制实施前的水平,市场竞争依旧激烈。 9.克罗斯称,Blackwell平台的需求远超供应,并将持续到明年。 10.谈到全球公司对数据处理的需求,黄仁勋表示,英特尔CPU业务越来越弱。 11.黄仁勋表示,供应将会逐个季度改善,明年的情况和2024年相比将大为好转。他说,整体来看,明年将会非常好。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
英伟达盘后巨震,Q3营收指引未达最高预期,预计Blackwell芯片Q4劲收数十亿
AI芯片巨头英伟达过去一个季度的销售收入继续翻倍超预期增长,本季度的指引未能达到华尔街最乐观的预期水平。不过,对于曾传出将延迟发货消息而备受关注的先进芯片Blackwell架构芯片,英伟达乐观预计今年内将带来数十亿美元收入。 美东时间8月28日周三美股盘后,英伟达公布截至自然年2024年7月28日的公司2025财年第二财季(下称二季度)财务数据,以及第三财季(下称三季度)的业绩指引。 1)主要财务数据: 营业收入:二季度营收300亿美元,同比增长122%,分析师预期288.6美元,英伟达自身指引274.4亿至285.6亿美元,前一季度同比增长262%。 EPS:二季度非GAAP口径下调整后的每股收益(EPS)为0.68美元,同比增长152%,分析师预期0.64美元,前一季度同比增长461%。 毛利率:二季度调整后毛利率为75.7%,同比上升4.5个百分点、环比百分点3.2个百分点,分析师预期75.5%,英伟达指引为75%至76%,前一季度为78.9%、同比提高12.1个百分点。 2)细分业务数据: 数据中心:二季度数据中心营收263亿美元,同比增长154%,分析师预期251亿美元,前一季度同比增长427%。 游戏和AI PC:二季度游戏和AI PC业务营收29亿美元,同比增长16%,前一季度同比增长18%。 专业可视化:二季度专业可视化营收4.54亿美元,同比增长20%,前一季度同比增长45%。 汽车和机器人:二季度汽车和机器人业务营收3.46亿美元,同比增长37%,前一季度同比增长11%。 3)业绩指引: 营收:三季度营收预计为325亿美元,上下浮动2%,即318.5亿至331.5亿美元,分析师预期均值319亿美元,最高预期379亿美元。 毛利率:三季度非GAAP口径下毛利率预计为75%,上下浮动50个基点,即74.5%至75.5%。 4)分红与回购 2025财年上半年,公司以回购股票和现金股息的形式向股东回馈154亿美元。截至第二季度末,公司剩余的股票回购授权金额为75亿美元。 2024年8月 26 日,董事会批准了额外的500亿美元股票回购授权,并无到期期限。 财报公布后,周三收跌2.1%的英伟达股价盘后巨震,先涨超2%,后跳水转跌,盘后跌幅曾超过7%,后一度收窄过半跌幅、跌不足2%,此后跌幅再度扩大。 三季度营收指引增长放缓至两位数 华尔街乐观预期仍三位数增长 从财报数据看,英伟达二季度继续碾压华尔街预期,营收创造单季最高纪录,高于公司的整个指引区间,连续第五个季度三位数增长。其中,受益于AI热潮需求的数据中心业务较前一季度增长明显放缓,仍保住了三位数增速。 评论认为,最影响英伟达股价的可能是喜忧参半的三季度指引。 以指引区间计算,英伟达预计三季度料将同比增长75.8%至82.9%,而摩根大通预计营收为325亿美元、增长81.8%,分析师预期的最高营收意味着将增长109.2%。也就是说,英伟达预计,三季度的营收增长将最近六个季度内首度放缓至两位数,华尔街的乐观预期还是保持三位数增长。 有评论称,英伟达或许是预料到了市场可能对有些失望的业绩预期不满,因此宣布了新的500亿美元回购计划,试图安抚投资者。不过,至少到目前为止,大规模回购还是没能扭转股价跌势,投资者的心态还是受创。 黄仁勋称Hopper需求强劲 外界对Blackwell预期“令人难以置信” 本月初有报道称,因设计缺陷,Blackwell系列芯片中最先进的AI芯片将推迟三个月或更久发布,Blackwell大量出货或延迟至明年一季度。此后英伟达回应称,对Hopper芯片的强劲需求和Blackwell芯片的生产计划并未改变。 摩根士丹利上周末的研报预计,英伟达二季报大概率超预期,相比本季度的收入指引,市场真正该关注的是,英伟达能否缓解投资者对Blackwell架构可能延迟出货的担忧。 本次发布财报的公告中,英伟达CEO黄仁勋在点评二季度业绩时特别提到了Blackwell芯片预期,承认了Blackwell芯片之前存在问题,称作出了改进,暗示准备发货,并预计第四财季这类芯片的出货价值达数十亿美元。他还提到Hopper需求强劲。 黄仁勋说: “Hopper(芯片)的需求依然强劲,人们对Blackwell(芯片)的期待令人难以置信。随着全球数据中心全力以赴,通过加速计算和生成式AI实现整个计算堆栈的现代化,英伟达 实现了创纪录的收入。” 我们二季度向客户交付了Blackwell 架构的样品。为提高生产良率,我们对Blackwell GPU掩模做了改动。Blackwell 的生产爬坡计划于第四季度开始,并持续到2026财年。在第四季度,我们预计Blackwell将实现数十亿美元的收入。Hopper需求强劲,预计2025财年下半年出货量将增加。
苹果 iOS、iPadOS 18.1开发者预览版Beta 3发布:AI通知摘要覆盖所有App
IT之家 8 月 29 日消息,苹果今日向 iPhone 和 iPad 用户推送了 iOS / iPadOS 18.1 开发者预览版 Beta 3 更新(内部版本号:22B5034e),本次更新距离上次发布 Beta / RC 间隔 8 天。 扩展 AI 通知摘要 IT之家查询媒体报道,苹果 iOS 18.1 Beta 3 主要扩展了通知摘要功能,目前可以适用于设备上的所有应用程序。 在 iOS 18.1 Beta 3 之前,通知摘要(Notification Summaries)功能仅限于短信(Messages)和邮件(Mail)两款应用程序。 而在今天发布的 Beta 3 更新中,苹果向包括第三方应用在内的所有应用程序,开放了通知摘要功能。 安装 Beta 3 后,设备会提供一个设置步骤,询问你是否要启用所有应用程序的通知摘要。摘要将使用 AI 智能捕捉给定消息、电子邮件、新闻标题或类似内容,然后将在通知中向用户提供该摘要。 新增 Clean Up 功能 该可用于移除照片背景中分散注意力的物体,同时保留照片主体。 照片应用中的 Clean Up 工具能够自动检测图像中可能不需要的对象,但用户也可以轻点、圈选或用刷子刷过不需要的对象,将其删除。 如何升级 iOS / iPadOS / watchOS / macOS 开发版和公测版? 升级 iOS / iPad OS 18 开发者预览版和公测版,可参考家友分享经验:经验贴一 || 经验贴二 || 经验贴三 || 经验贴四。 从 iOS / iPadOS 16.4 开发者预览版 Beta 1 开始,需要注册苹果开发者计划,注册后打开系统【设置】【软件更新】即可看到升级选项。需注意,你的iPhone 或 iPad 必须使用与注册 Apple Developer Program 时使用的同一 Apple ID 登录,才能在设置中看到升级选项。 在未来的 iOS 和 iPadOS 版本中,此新设置将是启用开发者预览版和公测版的方式,配置描述文件将不再授予访问权限。 附苹果 iOS 历史固件下载大全: 《苹果 iOS / iPadOS / macOS 固件下载 / 更新日志大全》 附 iOS / iPadOS 18 发布历史: 2024-08-21:iOS 18 Beta 7 (22A5346a) 2024-08-13:iOS 18.1 Beta 2 (22B5023e) 2024-08-13:iOS 18 Beta 6 (22A5338b) 2024-08-06:iOS 18 Beta 5 (22A5326f) 2024-07-30:iOS 18.1 Beta (22B5007p) 2024-07-24:iOS 18 Beta 4 (22A5316j) 2024-07-09:iOS 18 Beta 3 (22A5307f) 2024-06-25:iOS 18 Beta 2 (22A5297f) 2024-06-11:iOS 18 Beta (22A5282m)
GPU推理时代终结?世界最大芯片加持推理狂飙20倍,英伟达H100也被干趴
编辑:桃子 好困 【新智元导读】LLM若以每秒1000+token高速推理,当前最先进的GPU根本无法实现!Cerebras Inference一出世,推理速度赶超英伟达GPU,背靠自研的世界最大芯片加持。而且,还将推理价格打了下来。 LLM若想高速推理,现如今,连GPU都无法满足了? 曾造出世界最大芯片公司Cerebras,刚刚发布了全球最快的AI推理架构——Cerebras Inference。 运行Llama3.1 8B时,它能以1800 token/s的速率吐出文字。 不论是总结文档,还是代码生成等任务,响应几乎一闪而过,快到让你不敢相信自己的眼睛。 如下图右所示,以往,微调版Llama3.1 8B推理速度为90 token/s,清晰可见每行文字。 而现在,直接从90 token/s跃升到1800 token/s,相当于从拨号上网迈入了带宽时代。 左边Cerebras Inference下模型的推理速度,只能用「瞬间」、「疯狂」两字形容。 自动播放 这是什么概念? 比起英伟达GPU,Cerebras Inference的推理速度快20倍,还要比专用Groq芯片还要快2.4倍。 另外,对于70B参数的Llama3.1,可达到450 token/s及时响应。 值得一提的是,Cerebras并没有因为提高LLM的速度,而损失其精度。 测试中,使用的Llama3.1模型皆是采用了Meta原始16位权重,以便确保响应高精度。 最关键的是,价格还实惠。 根据官方API定价,Llama 3.1 8B每百万token仅需10美分,Llama 3 70B每百万token仅需60美分。 如此之高的性价比,更是打破了业界纪录—— 不仅远超之前的保持者Groq,而且和其他平台相比,甚至是隔「坐标轴」相望了。 Artificial Analysis 正是因为Cerebras Inference背后,是由自研的第三代芯片Wafer Scale Engine助力,才得以1/5价格快速推理Llama3.1。 看到自家模型推理如此神速,LeCun、Pytorch之父纷纷动手转发起来。 还有网友看后表示,我想要! 推理很慢,英伟达GPU也不中用? 为什么LLM的响应,就像拨号上网加载网页一样,一个字一个字慢慢地吐出? 关键原因所在,大模型自身的顺序特性,以及需要大量的GPU内存和带宽。 由于GPU的内存带宽限制,如今推理速度为每秒几十个token,而不是数千个。 更进一步说,大模型每个生成的单词,都必须通过整个模型进行处理,即所有参数必须从内存投入到计算中。 而每生成一个单词,就需要一次处理,以此循环往复。 也就是,生成100个单词需要100次处理,因为「下一词」的预测,皆需要依赖前一个单词,而且这个过程无法并行。 那么,想要每秒生成100个单词,就需要所有模型参数,每秒投入计算100次。 由此,这对GPU内存带宽提出了高要求。 以社区流行的Llama3.1-70B模型为例。 模型有700亿参数,每个参数是16位,需要2字节的存储,那整个模型便需要140GB的内存。 想要模型输出一个token,那700亿参数必须从内存,移动到计算核心,以执行前向推理计算。 由于GPU只有约200MB的片上内存,模型无法存储在芯片。 因此,每次生成的token输出时,需将整个占用140GB内存的模型,完整传输到计算中。 再细算下来,为了实现10 token/s,则需要10*140=1.4 TB/s的内存带宽。 那么,一个H100有3.3 TB/s的内存带宽,足以支持这种缓慢的推理。 而若要实现即时推理,需要达到1000 token/s或140 TB/s,这远远超过任何GPU服务器/系统内存带宽。 或许,你想到了一种「暴力」解决方案,将多个GPU串联搭建DGX系统。 这完全是大错特错,更多的处理器只会增加系统的吞吐量(给出更长响应),并不会加速单个查询的响应时间。 自研世界最大芯片,打破推理想象 那么,Cerebras如何打破这一困局呢? 一直以来,这家公司就致力于打造世界上最大芯片,希望将整个模型存储在一个晶片上,以此来解决内存带宽瓶颈。 凭借独特的晶圆设计,WSE-3单个芯片上便集成了44GB SRAM,具备21 PB/s的内存带宽。 单个芯片拥有如此大内存,便消除了对外部内存的需求,以及将外部内存连接到计算的慢速通道。 总的来说,WSE-3的总内存带宽为21PB/s,是H100的7000倍。 它是唯一一款同时具有PB级计算和PB级内存带宽的AI芯片,使其成为高速推理的近乎理想设计。 Cerebras推理不仅速度超快,而且吞吐量巨大。 与小型AI芯片相比,芯片上内存多了约200倍,支持从1-100的批大小,使其在大规模部署时,具有极高的成本效益。 正是有了如此强大的芯片,Cerebras Inference的快速推理得以实现。 它的出现,是为了实现数十亿到万亿参数模型的推理。 如果模型参数超过单个晶圆的内存容量时,研究人员将在「层边界」将其拆分,并映射到多个CS-3系统上。 20B模型适合单个CS-3,而70B模型则至少需要4个这样的系统。 官方表示,未来几周,将会测试更大参数版本的模型,比如Llama3-405B、Mistral Large。 16位精度,不做取舍 推理速率高,并非在模型权重上,做了取舍。 业界中,一些公司试图将模型权重精度,从16位减少到8位,来克服内存带宽的瓶颈。 这样方法,通常会造成模型精度损失,也就是响应结果的准确性、可靠性不如以前。 Cerebras Inference之所以强就强在了,速率和原始权重,皆要顾及。 正如开篇所述,他们采用了原始16位权重运行了Llama3.1 8B和70B。 通过评估,16位模型准确率比8位模型,高出多达5%。尤其是在,多轮对话、数学和推理任务中表现更好。 最优性价比,百万token免费送 目前,Cerebras Inference可通过聊天平台,以及API访问,任何一个人可随时体验。 体验传送门:https://cerebras.ai/blog/introducing-cerebras-inference-ai-at-instant-speed 基于熟悉的OpenAI Chat Completions格式,开发者只需更换API密钥即可集成强大的推理功能。 Cerebras Inference API提供最佳的性能、速度、精度和成本组合。 它是唯一能即时运行Llama3.1-70B的方案,可实现450 token/s,同样使用的是原始16位模型权重。 在此,Cerebras送上大福利,每天为开发者们提供100万个免费token。对于大规模部署,其定价只是H100云的一小部分。 首次推出时,Cerebras提供了Llama3.1 8B和70B模型,而且有能力每天为开发者和企业,提供数千亿token。 接下来几周,他们将增加对更大模型的支持,如Llama3 405B、Mistral Large 2。 有开发者问道,你们提供的rpm(每分钟请求次数)和tpm(每分钟处理token数)是多少? Cerebras提供了一张针对Llama 3.1 8B和70B模型完整的请求/token处理数的图。 快速推理,不只为速度 最后,让我们来聊聊,为什么快速推理非常重要? 通常,LLM会即刻输出自己的全部想法,而不考虑最佳答案。而诸如scaffolding(脚手架)这类的新技术,则如同一个深思熟虑的智能体,会在作出决定前探索不同的可能解决方案。 这种「先思考后发言」的方式在代码生成等严苛任务中,可以带来超过10倍的性能提升,从根本上提升了AI模型的智能,且无需额外训练。 但这些技术在运行时,需要多达100倍的token。 因此可见,如果我们能大幅缩短处理时间,那么就可以实现更为复杂的AI工作流程,进而实时增强LLM的智能。 速度爆表,但上下文只有8K 虽然在价格和延迟上,Cerebras都不是最低的。 但极致的速度,确实为Cerebras带来了极致的速度-价格和速度-延迟比。 不过,值得注意的是,在Cerebras上跑的Llama 3.1,上下文只有8k…… 相比之下,其他平台都是128K。 具体数据如下: Llama 3.1 70B Llama 3.1 8B 参考资料: https://cerebras.ai/blog/introducing-cerebras-inference-ai-at-instant-speed https://x.com/CerebrasSystems/status/1828464491677524311 https://artificialanalysis.ai/models/llama-3-1-instruct-70b/providers
初探苹果Clean Up功能,AI擦除照片背景干扰元素
IT之家 8 月 29 日消息,科技媒体 MacRumors 昨日(8 月 28 日)发布博文,详细介绍了 iOS / iPadOS 18.1 Beta 3 更新中,为照片(Photos)应用引入的 Clean Up “背景橡皮擦”AI 功能。 Clean Up 简介 IT之家注;Clean Up 隶属于 Apple Intelligence,是一个背景擦除的 AI 技术,类似于谷歌的 Magic Eraser 或 Adobe 软件中常见的 Generative Fill 功能。 该功能主要利用 AI 工具,擦除图像中的物体。 操作步骤 在照片 App 中,用户选择任意一张图片,在点击编辑按钮之后,会看到全新的 Clean Up 按钮,上面有一个橡皮擦图标。点击它,如果图片上有明显可以删除的内容,就会自动突出显示。 你可以轻点高亮显示的对象将其删除,效果就像变魔术一样。如果没有自动突出显示的物体,也不用担心,你可以在照片中的任何物体上画圈或涂鸦,对其使用 Clean Up 功能。 用户圈出想要删除的物体或人物后,苹果设备上的生成式人工智能就会从照片中移除不需要的或分散注意力的物体,使其看起来就像从未出现过一样。 对于自动高亮显示的对象,Clean Up 功能运行良好。苹果已经在后台完成了所有的工作,以查找深度信息并计算出对象应替换的填充物。当用户选择自己的对象时,要获得整洁的外观可能会比较困难。 当要移除的对象后面有一个清晰、整洁的背景时,"清理" 效果最好,而且对象越小越好。如果要把整个人从图像的前景中移除(比如在一张集体照中),而背景中又有很多事情发生,效果就不会太好。 用户可以多次重复 Clean Up,尝试让照片看起来更好,要删除小块区域,只需放大然后画圈即可。
强化主播培训、打造清朗直播环境,斗鱼全新上线主播学习中心
为进一步提升平台内容质量,确保直播生态的规范运营,斗鱼于8月27日全新上线主播学习中心,并推出限时答题赢奖励活动,以鼓励平台主播们积极参与安全学习与内容规则培训。 主播学习中心全新上线,助力主播素养提升 斗鱼主播学习中心的推出,旨在加强主播对相关法律法规和平台规则的深入了解。中心提供视频学习材料,涵盖直播规范、科普知识、税务知识、党史知识等多个领域,助力主播扩展知识面并提升职业素养。同时,中心还上线了主播安全学习功能,直播规范题库包含14类违规类型,以帮助主播们深入了解和遵守平台规则。 为激励主播提升内容质量,斗鱼对主播积分管理规则进行了优化。规则升级后,主播需要提升直播的内容质量,无挂机行为,或者通过线上学习才可获得加分,此举更加注重提升主播的个人素养和内容质量。主播通过学习中心的安全学习,每月最多可增加4分;对于扣分至4分及以下的主播,需参与考核答题方可回分。 此外,解封规则也与答题挂钩。斗鱼直播间的总分值为12分,违规行为将导致扣分。直播间分数累积扣减到一定程度时,斗鱼将对主播采取额外处罚措施,包括但不限于:冻结其直播间收益、限制推荐、限制打赏功能等。被封禁的主播需在学习中心完成在线合规学习并通过题库抽考,才能在封禁期满后解封复播。主播行为与学习挂钩,有助于提升主播的学习积极性、提升主播职业素养,同时也提高平台的监管效率。 推出主播答题赢奖励活动,共同守护斗鱼清朗直播环境 为进一步扩大主播学习中心影响力,8月27日至9月2日,斗鱼还将限时推出【斗鱼守护者-主播答题赢奖励】活动,邀请全平台主播参与,答题赢取“守护盾”,房间VIP卡、粉丝牌、双倍亲密度等福利随机掉落。 近年来,斗鱼一直在持续强化内容与主播管理。2023年,斗鱼全年封禁违规直播间18万频次,共封禁违规直播间13.2万个,展现了斗鱼在打击违规内容方面的决心。2024年一季度,斗鱼启动多项清朗专项行动及违规内容集中整治,为平台打造稳健运营的环境。随着主播学习中心的上线,斗鱼将继续进行平台制度优化,并加大主播培训力度,打造更加规范、专业的直播生态。
拼多多股价大跌,但Temu在美国要盈利了
文|李小霞 编辑|乔芊、杨轩 昨日,公布完二季度财报的中概之光拼多多,盘中跌幅一度超30%,创自2018年上市以来的最大跌幅。 二季度,拼多多营收为971亿元,同比增长86%,低于市场预期的1000亿元;其中在线营销服务收入491亿元,交易服务收入为479亿元,市场预期分别为505亿元和500亿元。 放置到整个行业中,拼多多的表现依然算得上稳健。即使如此,财报发布后,因业绩低于预期,营收增速环比下滑,拼多多盘前跌幅达到18%。 (拼多多今年以来股价变化) 而开盘后的进一步暴跌,则与财报电话会上管理层的“强硬”表态有很大关系。 拼多多集团董事长、联席CEO陈磊表示,全球化业务正在面临更严峻、加速变化的国际环境,业务经营受非正常商业因素的干扰变多,未来业务发展的不确定性显著增加,收入逐渐放缓将是必然的结果。他还表示,公司在多线都面临着激烈的竞争,整体仍处于投入阶段,未来几年不会进行回购或分红。 以广告为主的在线营销服务收入增长放缓也是外界关注的重点,同比增长仅29%,为近10个季度以来增速最低,与2022年Q1增速持平。 被视为拼多多第二增长曲线的海外业务增速也不及预期。需要说明的是,Temu的营收(前端售价与商家供货价之差)算在拼多多交易服务收入中。所以交易服务收入的变化一定程度上反映的也是Temu收入变化。 (拼多多在线营销和交易服务收入增速变化) 尽管Temu全球依然处于亏损状态,但据36氪独家获悉,到今年7月,Temu美区已几近实现EBITDA盈利。 今年Temu在有意降低对美区的依赖。根据此前The information报道,由于在美国命运未仆,以及增长接近饱和,Temu希望今年提升其他区域业绩,将美国的GMV占比从60%降到30%。据36氪了解,目前美国销售额占比在40%上下。 Temu美区几近盈利,主要源于广告等投放费用的缩减。这从财报中也能窥探一二。 二季度拼多多销售与营销费用为260亿元,低于市场预期(279亿元),同比增长48%,远低于85%的收入增长,也低于去年同期55%的增速。 而根据海豚投研的拆分,Temu的营销投入环比增长也不多,而主站的营销投入同比来看同样也是微增或持平的情况。相对克制的营销费用,也是拼多多能够释放不错利润的主要原因。 实际上,早些时候就有多位内部人士透露,Temu在减少美国地区广告支出,将更多资源投入到欧洲、日韩、中东以及拉美地区。另根据36氪获取到的一份纪要中提到,Temu今年全球预算为43亿美元,但预计实际花费可能不到40亿美元,因为美国市场缩减投入。 一位Temu卖家告诉36氪,虽然感知到了北美营销投入力度大减,但因为美区流量、日活已趋于稳定,所以其销售并未受到什么影响。 去年,在美国高歌猛进的Temu基于大量广告投放成为了谷歌和Meta的重要客户。36氪曾报道,Temu在Facebook、Google的日投放费用高达千万美金。根据摩根大通分析师估计,去年第三季度Temu在Facebook和 Instagram上的广告支出高达6亿美元。 但到今年Q2,Temu在这些大流量平台的投放已经明显收缩。Meta的财报也能说明一些问题,一季度亚太地区客户贡献的广告收入同比大增 41%,但到了第二季度亚太广告主贡献的收入增速放缓至 28%,CFO Susan Li 在财报电话会上表示,“中国广告主需求最强劲的时期已经过去”。 谷歌财报同样显示,二季度 YouTube 广告收入增速环比下滑8个百分点至13%,管理层解释为去年二季度来自亚太地区的电商开始大量投放导致基数太高。 Temu现在美区的投放目标不再是拉新,而是想提高存量用户活跃度、购买频次以及客单价上。据36氪了解,目前Temu全托管模式下美区用户购物频次大约是全年24次,客单价约40美元。据《连线》此前透露,Temu的长期目标把这两个指标提升到30次和50美元。 36氪此前曾拆解过,Temu亏损主要来源于营销费用以及履约成本,二者最高占比可达销售额的30%。而在减亏方面,也主要是从这两方面入手。 在降低履约成本方面,Temu推出了分段运输、海运以及现在大力推行的半托管模式(由商家负责物流运输和海外仓储的成本)。过往几个季度因Temu履约费用的拖累,毛利率一直同比走低。本季度毛利率首次同比止跌为65.3%,反增了约1个百分点。 根据海豚投研分析,半托管业务也可能是毛利率走高的主要原因之一。目前为止,半托管体量在美区占比并不高,更多还是来自全托管,而据36氪了解,Temu全托管的履约成本一直没有得到有效改善,而能够降本、但运输时间太长的海运进展也比较缓慢。 另据知情人士透露,虽然将履约交付给了商家,Temu半托管业务本身目前还处于亏损状态,一方面或许是为了吸引更多买家,将更多的利润让给他们,另一方面也可能是为了引流促销加价率不高。 但毫无疑问,半托管依旧是Temu未来的重点。近日,Temu宣布欧洲本土店正式开放注册,原本定于今年10月才在日本开放的半托管,现已提前开通。 Temu依然在高速增长,但地缘政治、关税政策等不确定性因素,那把悬于头上的利剑落下的可能也愈加之大。面临主站的放缓以及海外业务的不明朗前景,拼多多的高增长神话还能继续吗? 对于以上说法和数据,拼多多予以否认。
8岁女孩玩转AI编程,45分钟打造聊天机器人,Karpathy都看呆了
关于大模型,大厂们最近在卷什么,最新消息是:AI编程工具。 毕竟太火了,火到8岁小女孩都拿着它学AI,45分钟内搭起来一个聊天机器人的“演出”已经被180万人在线围观。 没错,传闻中的“参考模板”,就是这个被Cloudflare副总裁家8岁闺女pick的新晋顶流AI代码编辑器——Cursor。 那火爆的架势,说句全网安利也不为过。 这不,OpenAI创始成员、有“赛博菩萨”之称的大神Karpathy,看罢小女孩的操作,顶着被质疑“带货”的声音,仍在继续推荐: 还大胆预言,未来编程只需要狂按tab就够了。 被谷歌挖走的OpenAI大将Logan Kilpatrick也力挺他说: 只有没用过Cursor的人才会觉得你是在收钱打广告。 并且说到Cursor,背后公司Anysphere也蛮有意思。 4名MIT学霸创办,成立初期就被OpenAI押注,拿出800万美刀占了当轮融资的72.7%。 不过最近这波大火,依仗的却是OpenAI对家Anthropic的Claude-3.5-Sonnet。 “迄今为止最好的AI代码编辑器” 甭管你用没用过Cursor,现在,先来感受一波程序员们的热烈反馈吧: 除了让写代码这事儿更简单,Cursor甚至已经进化到了“0手工代码”阶段。 这不,网友Mckay Wrigley展示了最新玩法—— 利用Cursor AI+Voice,仅凭张嘴说话,这位小哥在5分钟内构建了一个财务仪表盘。 由于围观者甚众,小哥后来还直接现场开班教学,上千人报名了他的Cursor课程。 说起来,Cursor最初还是微软开源代码编辑器VS Code的一个分支。 它提供了多个AI模型,包括GPT-4、GPT-4o和Claude 3.5 Sonnet等,可以通过跟大模型聊天来生成代码。 另外,AI聊天也适合代码审查和补全。 通过聊天界面直接查询代码库中的信息,或引用特定的文件,无需切换到其他网站或搜索引擎。 除了支持模型丰富之外,Cursor在产品设计上也有很多值得称道之处。 比如今年5月刚推出的“光标位置预测”新功能。 修改好一处代码后,AI自动预测下一个想要修改的地方,省去手动导航。 又比如多行编辑功能,AI一次性建议对多行代码同时修改,节省更多时间,经常用于格式调整。 两者一结合,一次性调整全部格式也轻松拿下: 当修改一行代码的格式,接下来只需要按几次tab键,整个文件的格式就都调整完了。 而这些设计也是Cursor与竞品(比如GitHub Copilot)之间的主要差别。 联创Sanger表示,Cursor主要专注在自动完成之后的功能,也就是查找、修复错误,以及代码库回答。 当人们想到AI+编码时,会首先想到AI驱动的自动编码,在这方面,GitHub Copilot等工具已经做得很好了。 他还专门写了一篇博客介绍快速编辑代码的相关秘诀。 除了一开始提到的玩法,其他网友也纷纷用Cursor构建了自己的生产力工具。 3周时间,用11000行代码构建出视频编辑器,还是网页、移动端都支持的那种。 几分钟制作一个Figma插件也不是梦。 对了,这些玩法中还有一个无法忽视的身影——Claude 3.5 Sonnet。 虽然OpenAI才是Cursor的金主爸爸,但现在,Cursor会在新用户第一次唤出代码补全时,悄悄把默认模型切到Claude(doge)。 原因嘛,就是效果好啊。 OpenAI押注,估值已达4亿美元 目前,Cursor的流量已经超过了AI代码编辑器界的开山老大哥GitHub Copilot。 △来源:Similarweb 还是在订阅费用贵了一倍的情况下。 △左:Cursor,右:GitHub Copilot 要知道,Cursor在2023年1月才正式发布,而GitHub Copilot发布于2021年6月,2022年6月就推出订阅版本了。 就在最近,Cursor背后公司Anysphere完成了新一轮6000万美元(约合4.3亿人民币)的融资,领投的是a16z,Thrive Capital、OpenAI Startup Fund、谷歌首席科学家Jeff Dean、OpenAI研究科学家Noam Brown跟投。 Stripe、GitHub、Ramp、Perplexity和OpenAI的创始人们也在投资者之列。 这一轮融资过后,Anysphere的估值来到了4亿美元(约合28.5亿人民币)。 福布斯援引知情人士消息称,该公司的年度经常性收入已经超过1000万美元(约合7124万人民币)。 官方博客则显示,Cursor的用户数量超过了30000家,涵盖部分全球最大企业、著名研究实验室和初创公司。 Anysphere的创始人有四位:Aman Sanger、Sualeh Asif、Michael Truell和Arvid Lunnemark。 4人都毕业于MIT。 据Aman Sanger透露,他和Michael Truell还是高中同学,后来一起去了MIT。而Cursor正脱胎于他俩毕业后的一次短暂尝试: 他们都是GitHub Copilot的狂热用户,基于这种喜爱,他们在2022年6月,开始试着将Transformer应用到CAD软件里。 由于数据和模型能力的限制,这次尝试并没有成功。直到2022年12月,他们获得了GPT-4的早期访问权限,发现GPT-4能完全改变AI编程的体验,这促使他们重拾想法,开始了Cursor的打造。 在2023年8月,Cursor团队还只有5个人。甚至在今天,这支团队依然小而美:由12名工程师和研究人员组成。 最后的最后,分享一则坊间八卦,国内已经有对标Cursor的项目立项了。

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。