EN
中文
注册 / 登录
产品分类:
加载中...
头条分类:
加载中...
成都加快推动106个片区更新项目 门前老街着“新装”
历史与现代融合的文脉坊片区 文脉坊活力满满   ■ 如何让传统街区焕发新活力,推动区域功能业态升级和城乡融合高质量发展?城市有机更新是一条路径。   ■ 11月28日,成都市城市有机更新工作领导小组办公室组织召开成都市城市更新观摩交流会,交流推广邛崃市文脉坊、温江区文庙、青羊区祠堂街等城市更新优秀案例。成都商报-红星新闻记者从成都市住建局了解到,2023年,成都市加快推动少城、文庙等16个全国试点项目以及金色中环、文脉坊等106个片区更新项目,改造棚户区3094户、城中村2718户。   ■ 其中,文脉坊作为临邛古城文化的活态标本,展现着2300年城市历史更迭变迁。此次经过更新改造后,让古城历史的“真形态”和“原文态”得以留下,同时通过对历史遗存展现与现代消费场景、文化艺术空间融合,植入游、购、娱、住一体的多元业态,彻底激活旧城发展动能。   ■ 成都市住建局相关负责人表示,下一步,将在各郊区新城聚力打造不少于1个片区型特色化示范引领项目,带动县城全域更新提能,做优做强郊区新城人文、生态价值转化。   既有“修旧如旧”   也有前沿时尚消费场景   走进现在的文脉坊片区,历史与现代融合,既有传统店铺及民间技艺,也有保利影院、必胜客等国际国内知名品牌,这条老旧街区已经从传统的住宅区转换为时尚前沿的综合性文化、消费场景。   文脉坊位于邛崃市中心城区,此前,随着城市的演进和岁月的洗礼,空间肌理遮蔽、公共功能缺失、人居环境较差等问题也跟着出现。如何在历史保护传承、群众意愿和未来发展之间达成平衡,是推动项目落地的先决条件,也是通过有机更新提升文化价值、社会价值、经济价值的难点重点。   据介绍,此次更新改造中,本着对历史敬畏、对遗产共享、对城市共情原则,采取“留改建拆控”的“绣花”功夫,一方面延续空间肌理,原址保留文脉巷、何家巷等4条街巷,原址重建王家大院、段氏旧居等明清传统院落,重塑“一街四巷连七坊,三社六馆重九院”的空间格局;另一方面梳理历史遗存,甄选遗产遗迹和古树名木,并登记造册、编号归类,最大限度保留、利用、复原,留住古城历史的“真形态”和“原文态”,以“修旧如旧”来延续历史本真。   同时,为了让片区老百姓人居环境更舒适、生活更便利,项目更新采取居民进行搬迁、就近安置等方式,让754户居民告别“老破小”居住环境,搬入配套更加完善、环境更加优美的居住地。   此外,为了让整个片区从内而外焕新,其内部肌理改造同样重要。改造中,重点对下水管、排污管网进行改造,彻底解决老旧城区积水、内涝等问题。同步建设儿童乐园、地下停车位1180余个,大大缓解邛崃中心城区“停车难”问题。   各郊区新城   将打造不少于1个片区型特色化示范项目   文脉坊片区的有机更新,让老百姓记住乡愁的同时,又为城市发展注入活力。   “其实我们也在思考,相较于中心城区,大部分郊区新城在城市建设更新发展中,由于整体谋划不系统、建设运营不同步等原因,缺少类似文脉坊等重量级区域级片区开发项目引领带动。”成都市住建局相关负责人说,大多数县城和场镇基础设施和公共服务设施建设相对滞后,老旧居住片区、老旧商业区更新速度缓慢,如何破解这一难题,是城市更新工作的重点。   “基于文脉坊案例实践,我们认为集中力量推进高能级功能性片区更新,不断提升县城内涵形态和精神价值尤为重要。”该负责人表示,在县城可构建“1+N”的更新改造格局,以片区为单元统筹存量资源整合和功能配置赋能,实施投、建、运一体运作,集成落地环境改善、功能完善、文脉传承、产业发展各类目标,激活发展动能。   下一步,成都将在各郊区新城聚力打造不少于1个片区型特色化示范引领项目,带动县城全域更新提能,做优做强郊区新城人文、生态价值转化。同时成都将统筹发展和民生,推进郊区新城150余个老旧院落改造,惠及居民7970户,坚持推行院落社区联动、院落连片改造等成片更新模式,整合释放院落、社区空间资源,增补养老、托育等“一老一小”便民服务,集成电梯加装、居家适老化改造、无障碍环境建设、充电桩增设等民心工程,将院落配套与周边配套同步谋划、同步计划、同步提升。   成都商报-红星新闻记者 闫宇恒   图据成都市住建局
中国长江博物馆定址月亮湾 武汉加快建设长江国家文化公园示范区
长江灯光秀 (湖北日报全媒记者 何宇欣 摄)   11月27日,第三届长江文化学术研讨会在汉举行。会上,武汉市文旅局相关负责人介绍长江国家文化公园武汉段建设情况,与会专家学者围绕打造长江国家文化公园武汉先行示范区建言献策。   2022年,长江国家文化公园建设正式启动以来,武汉市在体制机制、重大项目、长江文化公园保护传承等方面务实推进。   武汉市文旅局相关负责人介绍,中国长江博物馆项目选址确定为月亮湾城市阳台。今年,文旅部、国家发改委先后到月亮湾城市阳台现场调研,充分肯定项目选址。10月11日,参加长江国家文化公园建设推进会的19个部门代表、长江沿线13个省(区、市)代表考察了项目选址地。   除完成项目选址外,项目建筑概念方案、展陈设计初步方案以及相关评估工作均已完成,并召开专家评审会,从场地适应性、使用功能、建筑表现等方面对建筑方案进行了初步遴选。项目列入2023年省级重点项目清单。   武汉还将打造城市剧场,结合长江一桥文物保护现状,对两江四岸核心区游船、码头与岸线亮化整合联动进行初步研究,理清沿江46栋建筑作为暗区增补对象,分步实施投资建设。预计春节前,两江四岸核心区亮化工作可实现基本功能。   武汉还将按照四类功能区建设标准在两江四岸核心区积极谋划重点项目,推动形成长江两岸项目串珠成线,谋划长江主题剧场、长江人文绿道、长江电影城等16个项目,预计“十五五”期间全部完成。   此外,武汉着力夯实长江文化保护传承基础。组织完成全市长江文物普查,指导推进明楚王墓国家考古遗址公园创建工作,加快推进万里茶道申遗步伐。推动长江文化创新利用,楚河汉街入选国家级夜间文旅消费集聚区,黎黄陂路历史文化街区、昙华林历史文化街区获评国家级旅游休闲街区。以长江文化带动城市更新,武昌起义军政府旧址、武汉轻型汽车厂办公大楼等文物修缮工作已通过验收。   专家学者共话长江文化传承保护   现场,来自全国多地的专家学者围绕保护和传承长江文化、城市形象建构等方面,为建设长江国家文化公园建言献策。   “我们应以全域视野阐释长江文化作为中华民族的代表性符号和中华文明的标志性象征、涵养社会主义核心价值观的重要源泉的重要地位,进一步加大对长江文化价值的挖掘、提炼、转化与活化。”对外经济贸易大学国家文化和旅游研究基地主任吴承忠表示,要提炼长江文化的精神标识,挖掘整理长江文化蕴含的中华文化内涵元素,立足中国特色社会主义新时代的新思想、新内容,对长江文化内涵理念进行时代化、大众化、创新性的阐释。打造长江文化对外宣传品牌,强化长江文化的全球化表达与国际化传播,使长江文化成为展示中华文化、弘扬中华文明的重要窗口。   “打好‘长江牌’、打好‘滨水牌’是武汉构建宜居宜业宜游城市、提升城市文化魅力、空间质量,实现城市可持续发展的关键。”中国地质大学(武汉)旅游发展研究院副院长李江风建议,要大力建设公共文化空间,提升文旅融合度。推动区域内历史遗迹、传统街区、名人故居、文博场馆等宜游化改造,实现公共文化设施和服务主客共享,促进优质文旅资源双向转化。在公共文化空间的开发建设中,要做到点线面结合、静态与动态结合、古代与近代结合、有形与无形结合、经典与民间结合,创建出武汉都市长江文化的公共文化空间样板。   长江水利水电开发集团生态文化中心主任魏理认为,武汉城市文化公园设计要遵循景城融合、文城融合的思路。将城市文化符号形象化,打造“共生、共荣、共情”的城市IP形象,利用IP强化城市品牌价值输出,制造城市爆点,营造城市品牌氛围。要建设城市核心文化地标,借助长江国家博物馆这个重量级城市地标文化综合体,对外传播城市文化形象,对内连通城市居民的情感。“长江国家文化公园建设,载体是沿线省市城市文化公园建设,未来它应是由一个个线性多彩的城市文化综合体交织融合组成的流动性文化纽带。”(湖北日报全媒记者 严芳婷)
川青铁路镇江关至青白江段开通运营
  原标题:川青铁路镇江关至青白江段开通运营 黄强宣布开通 11月28日上午,C6008次动车组从阿坝州茂县站驶出。四川日报全媒体记者 何海洋 摄   11月28日上午,川青铁路镇江关至青白江段开通首发仪式在川青铁路茂县站站前广场举行。10时45分许,省委副书记、省长黄强宣布:川青铁路镇江关至青白江段开通。   11时06分,C6008次首发动车搭载着体验试乘的旅客缓缓驶离茂县站,55分钟后抵达成都东站,较汽车行驶里程缩短2个多小时。这标志着川西北地区迎来首条铁路,阿坝州迈入动车时代。   川青铁路是我国“八纵八横”高铁网中兰州、西宁至广州通道的组成部分,路网地位十分重要。线路起自成都东站,接入青海省西宁站,正线全长约836公里,设计时速200公里。全线分段建设,成都东至青白江东段、青海省的海东西至西宁段已投入运营。本次开通段起自松潘县镇江关站,途经叠溪、茂县、安州、绵竹南、什邡西、三星堆等站,接入青白江东站,正线全长206公里。该段处于成都平原向青藏高原东部边缘过渡的高山峡谷地带,海拔高差超2000米,穿越龙门山、岷山、西秦岭等山脉,跨越涪江、岷江、嘉陵江三大水系,项目自2011年开工建设,历经12年艰辛终于建成。预计2024年,镇江关至黄胜关段将开通,届时铁路将通达松潘、黄龙九寨站。待全线建成开通后,成都至西宁铁路旅行时间预计缩短至4.5小时。   首发仪式前,黄强听取了川青铁路规划建设、德胜隧道剩余工程施工和阿坝州全域旅游发展、交通强州战略实施等情况汇报。黄强指出,川青铁路穿过中央红军长征时“爬雪山、过草地”的主要地区,经过大熊猫国家公园、若尔盖国家公园, 串联起九寨黄龙、红原大草原、黄河第一湾等著名景区,也将中国西北方向的兰西城市群和西南方向的成渝地区双城经济圈联系在一起,具有特殊且重要的政治意义、生态意义、经济意义,必将有力促进弘扬长征精神传承红色基因、筑牢长江黄河上游生态屏障、各民族广泛交往交流交融、川西北地区高质量发展和实现共同富裕。要坚持安全第一、质量至上,加大德胜隧道施工攻坚力度,推动镇江关至黄胜关段明年开通运营,全力加快剩余路段建设进度,让川西北地区各族群众早日享受铁路带来的便利和红利。阿坝州要抢抓通车机遇,着力提升旅游服务接待水平,大力开发中高端文旅商品,加快把绿水青山、冰川雪山变成金山银山。   省人大常委会副主任、阿坝州委书记刘坪致辞,成兰铁路有限责任公司总经理付国成介绍川青铁路成黄段项目建设情况。省直有关部门和有关市州负责同志,川青铁路参建单位代表等参加。(四川日报全媒体记者李淼 王眉灵)
英超“考察”“村超”
   新华社贵阳11月27日电(记者罗羽)观摩校园足球训练课、观看“村超”球队交流赛、体验苗侗民族歌舞表演……11月26日至27日,英超联赛国际高级顾问格雷厄姆·鲁滨逊一行在贵州省黔东南苗族侗族自治州榕江县开展合作考察。 考察团一行来到榕江县古州镇第二小学等中小学考察   考察团一行先后向榕江县文广局等部门了解榕江足球发展的历史现状,进入榕江县古州镇第二小学等中小学了解校园足球开展情况,观摩榕江“村超”球队新中村队和总冠军球队车江一村队上演的交流赛,并与球员、教练员和裁判员进行座谈。   “根据榕江所需、英超所长,双方计划在考察了解基础上深入协商,以开展更加务实的合作。”贵州“村超”运营管理负责人彭西西介绍。 考察团体验当地民族文化   今年夏天,全称为贵州榕江(三宝侗寨)和美乡村足球超级联赛的“村超”比赛火爆全网、火出国门。英超考察团对榕江“村超”等系列赛事所产生的巨大经济和社会效益发出惊叹。   “在‘村超’举办期间,我曾亲自到榕江观看比赛,我对现场的热闹场面、球赛吸引的大批不断涌入球场的观众印象深刻。”在中国待了7年的英国大使馆文化教育处中国区足球发展高级经理利特表示,12月中旬他还将再次回到榕江,开展针对当地球员、教练员等对象的足球培训课程。 考察团与“村超”球员合影   对鲁滨逊而言,此次考察是他的首次贵州之旅。虽然之前他就已通过媒体报道知晓了榕江“村超”的火热激情,但在亲自考察榕江后,他依然被这里的人们所呈现出的高昂足球精神状态所感染。   “体育不仅仅是一项运动,更是一种十分重要的教育方式。”鲁滨逊在考察结束后说,他在榕江看到了“村超”给当地人赋能的重要意义。“体育还教会人们生存技能、促进人的发展。看看我们与‘村超’的未来合作将会发生些什么。”
“5G+工业互联网”驶入规模化赛道
近日,观众在2023中国5G+工业互联网大会创新成果展上参观。 新华社记者 伍志尊摄   我国5G+工业互联网项目已达到8000个,覆盖工业的全部41个大类,5G在工业领域的应用占比超过60%。与此同时,运营商5G基站采购价格比5G+工业互联网发展初期下降53%,5G关键部件成本下降90%……这是记者从日前召开的“2023中国5G+工业互联网大会”上了解到的数据。   工业和信息化部部长金壮龙在会上表示,将开展产业链协同攻关,推进工业互联网与工业软件、工控系统等重点产品体系化突破,构建“5G+工业互联网”标准体系。发挥5G领先优势,加快工业级5G产品研发推广,积极培育新兴独角兽企业和领军企业。   产业基础不断完善   会上展示了一系列生动应用场景,表明我国5G+工业互联网已进入规模化发展新阶段。在中国联通展台,记者看到,通过个性化定制商城下单,数据马上传输到工厂的中控系统,系统即刻安排生产,一双鞋最快只要2小时就可以生产出来。   “5G已经从生产现场监测、厂区智能物流等外围辅助环节,深入远程设备操控、设备协同作业等核心控制环节。”工业和信息化部信息通信管理局一级巡视员王鹏说。   中国工业互联网研究院院长鲁春丛介绍,工业和信息化部接续实施三年行动计划,连续六年实施工业互联网创新发展工程,遴选5批近600个试点示范项目,支持创建了8个工业互联网产业示范基地和6个工业互联网示范区。开展中小企业数字化转型试点和城市试点工作,分别遴选了98个公共服务平台和30个试点城市。   工业互联网产业基础不断完善。工业以太网、边缘计算、虚拟现实/增强现实、工业大数据、人工智能等关键技术研发和产业化进程加快。5G与工业互联网的融合应用带动工业芯片、工业模组、智能终端等市场规模快速增长。建成5G行业虚拟专网超过2万个。标识解析体系上线二级节点325个,服务企业超31万家。培育50家“双跨”平台,重点平台工业产业设备连接数近9000万台(套)。   产业生态日益壮大。多家龙头企业设立工业互联网科研部门,以企业为主体、以市场为导向的技术创新生态建设成效初显,有效助力产业链上中下游、大中小企业融通创新。产教融合人才培养体系初步构建,百余所院校增设工业互联网相关专业。   “总的来看,政策环境持续向好,‘点线面’政策体系不断完善,多地出台细化支持政策。基础设施不断夯实,工业专网量质双升,形成‘以建促用、以用带建’的良好局面。行业应用向纵深拓展,5G工厂成效明显,人工智能技术加速赋能。产业供给质效稳步提升,终端定制化能力增强,标准和专利研制加速。”中国信息通信研究院院长余晓晖说。   加速赋能千行百业   “5G+工业互联网正成为实现工业数字化的重要手段,也是落实新型工业化战略的关键路径。为此,要推动工业装备数字化、工业网络全连接、工业软件云化和工业数据价值化。充分发挥包括5G+工业互联网在内的数字技术的创新优势,推动新型工业化发展。”华为公司轮值董事长胡厚崑说。   浪潮集团执行总裁、总工程师肖雪认为,5G技术赋能工业互联网,工业互联网场景拉动5G。5G是业务级、专业性连接,工业互联网面对实际场景,需要把握5G、人工智能等新一代信息技术与工业互联网相融互促的发展趋势,加速数实融合。5G+工业互联网面向特定行业、场景,提供现场及混合组网能力,夯实云网边端一体化协同的工业数字基础设施,服务实体经济。   比如,浪潮云洲携手冠星陶瓷,打造了“基于人工智能的工业装备数字产业链升级示范应用”。肖雪认为,冠星陶瓷案例最大的价值就是在互联网行业当中,浪潮云洲直接面对生产制造场景进行突破,依托互联网平台支撑人机共融的制造模式,变革技术要素、市场要素配置方式。通过浪潮云洲赋能,冠星陶瓷装备故障率降低55%。   中国联合网络通信集团有限公司党组书记、董事长陈忠岳介绍,中国联通基于遍布全国的算网资源、海量联接管理能力,打造了格物Unilink国家级“双跨”工业互联网平台,赋能钢铁、矿山、装备制造等重点行业。   5G+工业互联网正加速赋能千行百业。“工业互联网应用范围实现工业大类全覆盖,建成数字化车间和智能工厂近万家。”鲁春丛介绍,全国5G+工业互联网项目数超8000个,形成协同研发设计、远程设备操控、无人智能巡检等20个典型场景。工业元宇宙持续拓展,人工智能与工业融合应用不断深化,催生了增强数字设计、人机协同制造等应用场景。   规模化应用难点待解   要促进5G+工业互联网规模化应用,还需解决诸多难题。“我国制造业体量大、门类多。工业互联网需要和行业工艺、知识、经验紧密结合,这蕴含着企业核心技术和能力,复杂性高、难度大,难以用一个药方治百病,决定了制造业数字化转型的复杂性和艰巨性。”鲁春丛说。   中国工程院院士桂卫华认为,推广工业互联网技术一定要和企业的问题对应起来,立足于为企业解决问题、带来效益,这需要智能化与工业的深度融合。   肖雪表示,中小企业数字化转型面临“用不起、不敢用、不会用”的突出问题,需要更多轻量化、低成本、解决实际问题的应用。   “工业设备联网率低仍然是制约工业数字化发展的核心因素。工业企业始终需要移动性更好、确定性更高、时延更低、带宽更大的网络能力。此外,传统工业软件存在架构老化、本地化部署、开发成本高与周期长等难题。”胡厚崑说。   金壮龙透露,要稳步推进“5G+工业互联网”专网建设,扩大工业感知网络覆盖,打造海量物联接入能力。分行业制定规模应用融合指南,开展5G工厂“百千万”行动和标识解析体系“贯通”行动,发挥龙头企业牵引作用,带动产业链上下游协同发展。   “我们将制定出台推动工业互联网高质量发展政策措施,聚焦网络、平台、安全、标识、数据五大功能体系,打造‘5G+工业互联网’升级版。加强部省联动、政策协同,探索建设一批‘5G+工业互联网’融合应用先导区。”金壮龙说。
iPhone 15全系价格暴跌 华为Mate 60系列加价难求
中国商报(记者 赵熠如)iPhone15系列开售仅一个月,全系产品价格就迎来了大跳水,中国市场销售表现也不尽如人意。而与此同时,华为Mate 60系列依旧“加价难求”。苹果门店。(中国商报 胡美静/摄)iPhone 15全系降价iPhone 15系列开售已有一个多月,全系列产品多渠道面临大降价。以开售加价最高的iPhone 15 Pro Max为例,其256GB、512GB、1TB的官网价格分别为9999元、11999元、13999元,而目前在某电商平台上分别为9098元、10798元、13398元。中国商报记者从某第三方渠道商处了解到,iPhone 15 Pro Max部分颜色机型的降价幅度达到了99—979元。iPhone 15 Pro也在一定程度上有所降价。其128GB、256GB的官网价格分别为7999元、8999元,而在某电商平台上的价格降至7498元、8048元,在第三方渠道处降价幅度为199—549元。iPhone 15和iPhone 15 Plus则继续跌破官网价。iPhone 15的128GB和256GB官网价分别为5999元和6999元,在某电商平台上分别为5198元、6098元,在第三方渠道处降价459—589元不等。iPhone 15 Plus的128GB和256GB官网价格分别为6999元和7999元,某电商平台上分别为6148元、7048元,在第三方渠道处降价599—639元不等。与此同时,iPhone 15系列产品的销量较以往也不太理想。市场研究机构Counterpoint Research数据显示,iPhone 15系列在中国首发17天内的销量较2022年发行的iPhone 14系列下降4.5%。2023年第三季度苹果手机销量同比下滑9%,市场份额为16%,去年同期市场份额为17%。华为Mate 60加价难求与之形成对比的是,华为Mate 60系列依然处于“加价难求”的状态。中国商报记者从上述第三方渠道获悉,华为Mate 60系列涨价幅度为1000—3000元不等。具体来看,华为Mate 60 Pro的12G+256G版本官网价为6499元,第三方渠道处的涨价幅度为1001—1151元;华为Mate 60 Pro的12G+512G版本官网价位为6999元,第三方渠道处涨价幅度为851—1001元;华为Mate 60的12G+256G版本官网价为5499元,第三方渠道处涨价幅度为901—1051元;华为Mate 60的12G+512G版本官网价为5999元,第三方渠道处涨价幅度为951—1101元。值得注意的是,华为Mate 60 RS非凡大师16GB+512G、16GB+1TB的官网价分别为11999元、12999元,在第三方渠道处价格为15700元、17100元。华为北京某旗舰店负责人告诉中国商报记者,目前华为Mate 60系列仍处于缺货状态,而且还得过一两个月才能不缺货。Counterpoint Research分析师表示:“华为Mate 60系列在最初六周的销售中表现出强劲的势头,累计销量超过160万台。值得关注的是,上市后第五周和第六周的周销量均超过40万台,表明市场对于华为旗舰智能手机的需求十分旺盛。这一积极的反应使华为在iPhone 15系列上市后,迅速跻身中国智能手机品牌前两名。同时也反映了市场对华为产品的持续关注,以及华为通过多渠道与消费者建立联系的能力。这一趋势凸显了华为的竞争优势,并与市场对高品质智能手机的潜在需求相呼应。”
“反直觉”小学数学题难倒家长,“海豚自习App”被动上热搜
凤凰网科技讯 11月16日,一道小学数学题被家长发至微信群后引发全民讨论,上了热搜的同时也带火了海豚自习App。这道小学数学题引发全民热议的同时,这一启发式学习方式也迅速引发家长对于大模型教育应用的关注。 0.999无限循环和1到底哪个大?不少家长第一直觉就是“1”大,实际上正确答案是两者同样大。 在家长发布到群里的视频中,在AI问答软件海豚自习App上提问后,结果显示,由于1/3转换为小数是0.333无限循环,乘以三后即可得出结论,两个数字一样大。有网友表示,0.999无限循环和1相等这一数学结论过于“反直觉”,刷新了认知。 视频显示,针对这类学习难题,提问者可以通过海豚自习App获得循序渐进式的引导,逐步启发思考并得出结论。 记者在应用商店下载海豚自习App进行试用。记者发现,每次提问后,都可以选择“通过提问,引导我独立解决问题”。这一模式下,系统不会直接给出答案,而是通过拆解问题,逐步启发思考,最终让提问者自己得出答案。在回答“0.999无限循环和1比大小”时,海豚自习App先询问了对无限循环概念的理解,再将常见的1/3转化为小数,引导用户思考并得出结论。 据了解,海豚自习App这种“苏格拉底启发式AI答疑”。一位家长在评论区表示,孩子升到5年级后,他就已经看不懂孩子的数学题了,更没办法给孩子讲题。 在评论区,很多家长都表达了类似的观点。“这个AI能处”。另一个学霸妈妈评论说,对于孩子的数学题,虽然她知道答案,但不知道如何引导孩子学会方法,讲多了孩子还觉得妈妈好烦,另外非常重要的是,她没办法随时随地解答孩子的问题,这些问题海豚自习App都能帮她解决。 公开资料显示,海豚自习App是一款面向小学到初三的AI自适应数字学习产品。其主要特色是“苏格拉底启发式AI答疑”,以及高质量动画互动视频带来的沉浸式学习体验。
Cell子刊批判性发文AI在短期内不可能产生意识
AI可能已经被抽离掉了意识本身,它将被困在永无止境的模拟意识中却没有任何现象意识可言。 图片来源@视觉中国 文 | 追问NextQuestion,作者 | 梓薇,编辑 | 韵珂 和大语言模型(LLM)交互,我们总会隐约觉得它们可能真的有意识。然而,从神经科学家们的视角来看,这种观点似乎很难站得住脚。 最近,一篇发表于Cell子刊Trends in Neurosciences的论文中,三位分别来自计算机科学、生物学和神经科学的学者深层剖析了“人工智能能否产生意识?”这个问题。 从结论上看,他们一致认为:LLM在目前的形式下不可能具有意识。这么斩钉截铁的观点是怎么来的呢?来看他们的具体阐述。 ▷图源:Cell LLM 与意识 长期以来,人们一直在追问,哪些动物具有意识,以及除了动物之外还有哪些实体拥有意识。最近LLM的出现为这个问题带来了全新的视角。它向我们展现了自己精湛的交谈能力(这是人类具有意识的一种表现),也使我们对“理解力”、“智能”和“意识”三个概念开始重新定义和思考。 LLM是拥有数十亿连接权重的复杂多层人工神经网络,这些权重通过数百亿字的文本数据进行训练,这其中也包括人类之间的自然语言对话。通过文字提问,用户会被引入一个令人着迷的模拟语境中。如果你肯花时间使用这些系统,就很难不被其网络内部所展现出来的深度和质量所震撼。问它一个问题,它的回答往往与一个具有意识的个体能产生的回答微妙的相似。因此,作为一个有洞察力、有意识的个人,我们就很容易得出结论:我所接收到的回答是由一个同样具有“意识”的个体产生的,这个有“意识”的个体既能够思考、感受、推理,还颇具经验。 基于这类“图灵测试”结果,我们不禁要问,LLM是否已经具有意识,抑或是即将拥有意识?然而,这个问题反过来又将引出一系列的道德困境,例如继续开发在“意识”觉醒边缘反复徘徊的LLM是否合乎伦理?在当今神经科学界,人们并不普遍接受LLM具有“意识”这一观点,但随着人工智能系统能力的不断提升,关于该观点的讨论不可避免地又重新被摆上台面。此外,各大新闻媒体也在广泛讨论这一问题,促使着神经科学家们从自己专业的角度对这一问题进行客观的正反解读。 关于LLM具有潜在意识的观点往往会得到一类重要依据的支持,那就是LLM的架构在很大程度上受到了大脑特征的启发(图1),而大脑是我们目前唯一能自信地将其归因于“有意识”的对象。尽管早期的人工神经网络是以大脑皮层的简化版为基础来设计的,而现代的LLM经过高度工程化,并根据特定目的进行了调整,不再保留与已知大脑结构的深层同源性。事实上,许多让LLM在计算上强大的通路特征(图1)与我们目前认为在哺乳动物的意识产生和塑造中具有因果力的系统有着截然不同的架构。例如,与意识产生相关的许多神经科学理论认为,丘脑-皮质系统与觉醒系统在意识处理中发挥了核心作用,然而,现代LLM并不具备这两大系统。 图1:哺乳动物大脑和大型语言模型之间的宏观拓扑差异 图源:Trends in Neurosciences 这时有人可能会问,为什么LLM的架构要模仿大脑的特征,这一点有那么重要吗? 在我们看来,主要原因是:我们目前只能确定一种意识的存在,它来自嵌入复杂身体的大脑。有人可能认为,从严格意义上说,这个论点可能要进一步缩减到仅涉及人类,尽管许多被认为对主观意识发挥重要作用的系统级特征在整个生物谱系上普遍存在,一直延伸到哺乳动物,甚至是无脊椎动物。 话说回来,让我们首先从“意识”的确切含义开始。然后,我们将提出三个反对当前人工智能系统具有或未来将很快具有意识的观点的论点: 1. 意识与对生物体有意义的感觉流相关联; 2. 在哺乳动物大脑中,意识得到高度相互连接的丘脑-皮质系统的支持; 3. 意识可能与生物体系的复杂生物组织密不可分。 意识是什么? 意识是一个复杂的概念,其定义一直存在争议。在人类彼此能交流互动的背景下,交流对话能力是评估一个人是否具有意识的本能要素。 与LLM基于语言的互动对话常常是在培养一种直观的感受,这也是用于判断LLM是否可能具有意识的起点。然而,尽管LLM的交互式对话能力非常出色,但这并不能达到具有意识的正式客观的衡量标准,只是其具有智能的初步证据。 LLM的出现使得我们需要重新评估一个人是否能够直接从与他人的言语互动中产生意识。因此,一种新的观点认为,我们需要重新制定类人能力和类人特征的评判标准。 “意识”一词往往具有不同的含义。例如,神经病学家经常提到的“意识水平”,即首先评估一个人是否具有意识,再以一种更精细的方式评估意识的层次或特定状态。相比而言,心理学家则更关注意识的内容:即个人内心世界的具体经验、记忆和思想。此外,意识的不同内容之间也有区别。我们的经验可以被描述为现象或体验性的(比方说,看到或闻到一个苹果,或者触摸到你的手臂),也可以是更抽象的形式(例如,我们如何想象、展望或操作概念记忆)。 关于人工智能系统是否具有意识这一问题,可以通过多种测试方式来回答:既可以重点关注意识的某些含义,也可以同时关注意识的所有含义。在下文中,我们主要关注现象意识,并探讨机器是否能够现象性地体验世界。 关于环境 生物体在感知外界世界的过程中能够被利用的部分被称为它的环境。例如,人类视网膜对波长380 nm – 740 nm的光有反应,即视网膜能够感知由蓝到红的光谱。如果没有外界技术辅助,人类就无法检测到该波长范围之外的红外光(>740 nm)或紫外光(<380 nm)。我们在听觉、体感觉、前庭觉方面也有类似的环境,即相应的听觉域(人类耳朵能够听到20 Hz –20000 Hz的声音)、体感域(人类可以区分距身体某些部位约1毫米范围内的刺激)和前庭域(人类半规管的3D结构互相连接为我们提供内在的平衡感)。同时,自然界的其它物种能够检测到电磁频谱其他波段的信号。例如,蜜蜂可以看到紫外线范围内的光,蛇除了可以检测到更传统的视觉信号外,还可以检测到红外辐射信号。 也就是说,不同动物的身体和大脑能够感知它们周围环境的敏感性不同。美国心理学家Gibson将生物体在特定的环境中的行动可能性称为“可供性”(随着互联网技术的渗透,可供性开始被用于解释数字技术在媒体实践和人类日常交往中的应用)。 按这么定义,那么LLM的环境是什么?LLM具有怎样的可供性?根据其算法设计的本质,LLM仅具有二进制编码模式,只能接收二进制信息输入,并进一步执行复杂的transformer结构中固有的网络算法,这构成了当今LLM的工作架构。虽然神经元尖峰发放也能够将传入的模拟信号编码为数字信号(即二进制信号),但传递到LLM的信息流是高度抽象的,这些高度抽象的信息流本身与外部世界并没有任何紧密的联系。被编码成一串字母的文本和语音根本无法与自然世界的动态复杂性相匹配,即LLM的环境(提供给它的二进制信息)与我们睁开眼睛或交流对话时进入大脑的信息以及随之而来的体验相比,具有本质区别。传统哲学论述强调了不同物种之间信息流的独特性(例如,人类与蝙蝠之间的区别)以及这些经验的现象学特征。我们认为,LLM获得的信息输入可能会表现出更显著的差异,虽然暂时还没有确切的方法来量化这种差异。 话虽如此,未来人工智能系统的输入将会不可阻挡地变得更加丰富。未来的LLM可以配备不同类型的输入,这能够与有意识的智能体每天能访问的信号类型(即自然世界的统计数据)更好地进行匹配。那么,未来人工智能系统的可用环境会比人类的环境范围更广吗? 在回答这一问题时,我们必须认识到人类的潜意识和意识体验不仅仅由感官输入决定。例如,想象当我们躺在一个浮箱中,尽管我们缺乏正常的感官体验,但我们仍然具有意识。这里强调了一个概念,即环境预设了一种固有的主观视角,也就是说,要从一个主体出发。同样,可供性取决于主体的内部性质,特别是主体的动机和目标。这意味着仅仅通过环境(LLM的输入数据)还不能够产生意识。因此,简单地向人工智能系统输入大量数据流并不能够使智能系统自身产生意识。 这一观点可能会促使我们重新思考意识科学中的一些基本假设。具体来说,随着人工智能系统逐步表现出越来越复杂的能力,研究者将不得不重新评估某些意识理论所提出的更基本的自我和与智能体相关的过程对于意识出现的必要性。 意识的“整合” 目前,学界已有许多关于意识的神经相关性研究,其中关于意识处理的神经环路有许多不同的理论。一些强调,意识是由密集的、高度连接的丘脑-皮质网络支撑的。丘脑-皮质网络包括皮质区域、皮质-皮质连接以及高级丘脑核团向皮质区域的发散投射。丘脑-皮质系统的这种特定结构支持循环和复杂的思想处理,这些思想处理是意识和意识整合的基础(即,尽管意识产生于不同的大脑区域,但意识是统一的)。然而,不同理论对实现意识整合的方式持有不同观点。 根据全局神经元工作空间理论(global neuronal workspace theory, GNW),意识依赖于由分布式额顶叶皮质系统构成的中央工作空间。这个工作空间整合了来自局部皮质处理器的信息,然后在全局范围内将其传递给所有的皮质局部处理器,全局传递将有意识和无意识过程区分开来。其它意识理论认为,意识整合是由其它神经过程来实现的。例如,神经元树突整合理论(dendritic integration theory, DIT)表明,意识整合是通过不同皮质区域之间的高频同步现象产生的,根据所涉及的皮质区域不同,这一现象可能涉及包括感知、认知或运动规划等在内的不同功能。 ▷图2:基于神经元树突整合理论(DIT)的意识整合的神经结构 图源:Trends in Neurosciences 图注:在DIT理论(图2)中,研究人员认为全局意识整合同样取决于皮质第五层锥体神经元的局部整合,这种神经元是一种在丘脑-皮质和皮质环路中都占据中心地位的大型兴奋性神经元。这类神经元有两个主要结构(图2,橙色和红色圆柱体),分别处理完全不同类型的信息:基底结构(红色)处理外部基本信息,而顶端结构(橙色)处理内部生成的信息。根据DIT理论,在意识状态下,这两个结构相互耦合,允许信息通过丘脑-皮质和皮质-皮质环路流动,从而实现全系统信息的整合和意识产生。 值得注意的是,当今LLM和其他人工智能系统的架构都缺乏这些理论所强调的特征:现有LLM既没有等效的双结构锥体神经元,也没有集中的丘脑架构、全局工作空间或上升觉醒系统的多个特点。换句话说,现有人工智能系统缺少目前神经科学界所认为的支撑意识产生的大脑特征。尽管哺乳动物的大脑不是唯一能够支撑意识产生的结构,但来自神经生物学的证据表明,哺乳动物意识的形成是由非常具体的结构原理(即整合神经元和激发神经元之间的简单连接)所决定的。从拓扑结构上讲,现有人工智能系统的结构极其简单,这也是我们不认为现有人工智能系统具有现象意识的原因之一。 那么,未来的AI模型是否最终能够将许多意识理论视为核心的“整合”过程融入其中呢?针对这一问题,GNW理论所提出的“集成”概念提供了一个相对简单的实现方式。实际上,一些最近的人工智能系统已经融入了类似于由本地处理器共享的全局工作空间。由于全局传递的计算过程可以在人工智能系统中实现,因此根据该理论,采用该计算方式的人工智能系统将包含潜在意识的核心成分。 然而,如前所述,并不是所有的意识理论都认同这种整合方式就是意识产生的关键。例如,意识的整合信息理论认为,在典型的现代计算机上实现的基于软件的人工智能系统不可能具有意识,因为现代计算机没有适当的架构实现充分集成信息所需的因果推理能力。因此,我们将考虑第三种可能性,即意识在原则上是可以实现的,但它可能需要超出当前(也许是未来)人工智能系统的计算特异性水平。 意识是一个复杂的生物学过程 意识的产生不仅依赖于系统的架构。例如,当我们处于深度睡眠或麻醉状态时,丘脑-皮质系统的结构没有发生变化,但意识却消失了。即使在深度睡眠中,主要感觉区域的局部神经反应和伽马带活动也与有意识状态相似。这表明,意识依赖于特定的神经过程,但在有意识和无意识的大脑中这些神经过程是不同的。 为了阐明有意识与无意识处理之间的细节差异,让我们先回过头来看神经元树突整合理论(DIT)。DIT理论包含了与有意识和无意识处理的神经过程相关的一些神经生物学方面细微的差别。DIT理论提出,有意识和无意识处理之间的关键区别在于锥体细胞的两个区室结构的整合(图2)。如前所述,在有意识处理期间,这两个结构相互作用,从而使整个丘脑-皮质系统能够处理和整合复杂的信息。然而,在麻醉状态下,各种麻醉剂导致椎体神经元两个结构之间的功能解耦。换句话说,这些椎体神经元虽然在解剖学上是完整的,可以激发动作电位,但其树突整合能力在生理上受到严重限制,即自上而下的反馈信息不能影响处理过程。研究表明,这种树突耦合是由代谢型受体控制的,然而在计算模型和人工神经网络中该结构经常被忽视。此外,研究表明,在这种情况下,高级丘脑核团控制这种代谢型受体的活性。因此,特定的神经生物学过程可能负责在大脑中“开启”和“关闭”意识。这表明,哺乳动物大脑中经验的质量与其产生意识的潜在过程有着错综复杂的关系。 尽管这些理论依据足以令人信服,几乎可以肯定的是,和距离完全理解意识产生的神经过程的复杂性相比,这些知识仍然稍显苍白。我们目前对意识的解释依赖于全球工作空间、整合信息、循环处理、树突整合等理论,但真实意识产生的生物过程可能比当前这些理论所理解的要复杂得多。甚至很有可能目前用于构建意识研究讨论的抽象计算级思想可能完全没有考虑到解释意识所需的必要计算细节。 换言之,生物学是复杂的,我们目前对生物计算的理解是有限的(图3),因此也许我们缺乏正确的数学和实验工具来理解意识。 ▷图2:基于神经元树突整合理论(DIT)的意识整合的神经结构 图源:Trends in Neurosciences 图注:在DIT理论(图2)中,研究人员认为全局意识整合同样取决于皮质第五层锥体神经元的局部整合,这种神经元是一种在丘脑-皮质和皮质环路中都占据中心地位的大型兴奋性神经元。这类神经元有两个主要结构(图2,橙色和红色圆柱体),分别处理完全不同类型的信息:基底结构(红色)处理外部基本信息,而顶端结构(橙色)处理内部生成的信息。根据DIT理论,在意识状态下,这两个结构相互耦合,允许信息通过丘脑-皮质和皮质-皮质环路流动,从而实现全系统信息的整合和意识产生。 为了更好的理解生物复杂性,需要强调上文描述的细胞和系统层面发生的生物过程必须发生于一个生物活体中,二者不可分割。活体生物不同于当今的机器和人工智能算法,因为它们能够在不同处理层次不断地进行自我维护。此外,生命系统有着多方面的进化和发展历史,它们的存在取决于它们在多个组织层面上的活动。意识与生命系统的组织有着错综复杂的联系。然而,值得注意的是,当今的计算机并不能够体现生命系统的这种组织复杂性(即系统的不同层次之间的相互作用)。这表明,现代人工智能算法没有任何组织层次上的约束,也无法像一个生命系统一样有效地工作。这意味着只要人工智能是基于软件的,它就可能不适合具有意识和智能。 生物复杂性的概念在细胞水平上也能够体现。生物神经元不只是一个可以用几行代码完全捕捉的抽象实体。相反,生物神经元具有多层次的组织,并依赖于神经元内部复杂的生物物理过程的进一步级联。以“克雷布斯循环”为例,它是细胞呼吸的基础,是维持细胞稳态的关键过程。细胞呼吸是一个关键的生物过程,使细胞能够将有机分子中储存的能量转化为细胞可以利用的能量形式。然而,这个过程不能被“压缩”到软件中,因为像细胞呼吸这样的生物物理过程需要基于真实的物理分子。当然,这也不意味着意识需要“克雷布斯循环”,而是强调理解意识的过程中可能涉及类似的挑战,即也许意识并不能从底层机制中被抽离出来。 然而,我们并不完全赞同意识根本无法由智能系统产生的说法,但却必须考虑意识与生命背后复杂的生物组织之间的相关性,捕捉意识本质的计算类型可能比我们目前理论所理解的要复杂得多(图3)。对意识进行“活体组织检查”并将其从组织中移除几乎是不可能的。这一观点与目前许多有关意识的理论相矛盾,这些理论认为意识可以在抽象的计算层面上产生。现在,这一假设需要根据现代人工智能系统进行更新了:为了充分理解意识,我们不能忽视在生命系统中观察到的跨尺度的相互依赖性和组织复杂性。 尽管人工智能系统在网络计算层面模仿了它们的生物对应物,但在这些系统中,已经抽象掉了生物过程中所有其他层面的处理,这些处理在大脑中与意识有着紧密的因果关系,因此,现有人工智能系统可能已经抽象掉了意识本身。这样一来,LLM和未来的人工智能系统可能将被困在无止境的模拟意识特征,但却没有任何现象意识可言。如果意识的确与这些其他层次的处理有关,或者与它们在不同尺度之间的相互作用有关,那么我们离机器产生意识的可能性还很远。 总结 在这里,我们从神经科学的角度对LLM和未来的人工智能系统中意识的可能性进行了探讨。尽管LLM颇具吸引力,但它们并不具有意识,并且不会在未来较短的时间里具有意识。 首先,我们说明了哺乳动物的环境(它们可以感知的外部世界的“一小部分”)与LLM高度贫乏和有限的环境之间的巨大差异。其次,我们认为,LLM的拓扑结构虽然非常复杂,但在经验上与哺乳动物意识相关环路的神经生物学细节有很大不同,因此没有充分的理由认为LLM能够产生现象意识(图1)。目前我们还不可能将意识从生物组织复杂性中抽象出来,这种组织复杂性是生命系统固有的,但显然在人工智能系统中却并不存在。总的来说,以上三个关键点使得LLM在目前的形式下不可能具有意识。它们仅模仿了用来描述意识体验丰富性的人类自然语言交流的特征。 通过本文,我们希望所提出的观点能够产生一些积极的影响与思考(见尚未解决的追问),并不仅代表一种反对意见。首先,目前对LLM的感知能力在伦理层面潜在的担忧更多是假设的而非真实的。此外,我们相信,对LLM和哺乳动物大脑拓扑结构的异同的深入理解,能够推进机器学习和神经科学的进步。我们也希望通过模仿大脑组织的特征和学习简单的分布式系统如何处理复杂的信息流来推动机器学习和神经科学界的进展。出于这些原因,我们乐观地认为,人工智能研究人员和神经科学家之间未来的合作能够促进对意识更加深入的理解。 尚未解决的追问: 1. LLM和人工智能中的意识评估通常依赖于基于语言的测试来检测意识。是否有可能仅基于语言(即文本)来评估意识?是否有更进一步的评判特征可以帮助判断人工系统是否具有意识? 2. 哺乳动物意识的神经基础与丘脑-皮质系统有关。如何在人工智能中实现丘脑-皮质系统?哪些特定的功能和任务将受益于类似丘脑-皮质的系统? 3. 上升觉醒系统在生物体意识产生方面也起着至关重要的作用,其在神经动力学的塑造方面发挥着复杂的、多方面的作用。人工智能需要在多大程度上模仿这些不同的过程,才能获得上升觉醒系统的计算优势? 4. 生物细节可以增强人工智能系统的能力吗?除了丘脑-皮质系统外,树突在本文讨论的一些意识理论中起着关键作用。树突只是增加生物神经网络计算复杂性/效率的一个因素,还是还有更多作用? 5. 生命系统的组织复杂性与意识有关吗?生命系统由不同层次的处理过程组成,这些过程相互作用。生命系统的组织复杂性能否得到更完整详细的解释?是否需要新的数学框架来处理这样的系统,以更多地阐明意识意识产生的生物过程? 6. 一些理论表明,意识和能动性是密不可分的。要理解意识是如何从生物活动中产生的,需要先理解能动性吗?
微软首款自研AI芯片亮相,英伟达一家独大时代宣告结束?
财联社11月16日讯(编辑 牛占林)当地时间周三,科技巨头微软宣布推出了两款高端定制芯片,其中一款便是投资者极为关注的人工智能(AI)芯片,不过微软并没有详细说明产品的性能。美股盘中,微软股价微跌0.2%。 在当天的Microsoft Ignite全球技术大会上,微软发布了Microsoft 365 Copilot新增功能、Security Copilot演示、Azure最新功能展示等一系列内容。但重点还是微软的首款人工智能芯片Maia 100,这将为其Azure云数据中心提供动力,并为其各项人工智能服务奠定基础。 Maia 100芯片旨在运行大语言模型,帮助人工智能系统更快地处理大量数据,以完成识别语音和图像等任务,并有可能避免对英伟达的高成本依赖。不过微软暂时并不打算出售这种芯片,而是将把它们用于支持自己的产品,并作为其Azure云计算服务的一部分。 负责Azure芯片部门的副总裁Rani Borkar声称,已经在Bing和Office人工智能产品上测试了这款芯片,ChatGPT开发商OpenAI也在进行相关测试。 在演讲中,微软首席执行官萨蒂亚·纳德拉表示:“我们的目标是确保我们和我们的合作伙伴能够为客户带来最终的效率、性能和规模。”他补充说,Maia 100将首先为微软自己的人工智能应用程序提供支持,然后再向合作伙伴和客户开放。 作为云计算服务的顶级提供商和人工智能应用的重要推动力量,微软在芯片行业的参与度不断加深。这一举措可能使微软避免过度依赖某一家供应商,目前整个行业对英伟达人工智能芯片的争夺凸显了这一弱点。 微软高管表示,他们计划通过一套通用的基础人工智能模型,来解决人工智能服务的高成本问题,而Maia 100芯片对这项工作至关重要。 微软云和人工智能部门执行副总裁Scott Guthrie表示:“我们认为,Maia 100为我们提供了一种方式,可以为客户提供更快、成本更低、质量更高的解决方案。” 分析公司Creative Strategies的首席执行官Ben Bajarin声称:“这并不是说微软要取代英伟达的芯片。Maia 100芯片将允许微软在云端销售其人工智能服务,直到个人电脑和手机足够强大。” 明年上市 微软发布的第二款芯片是名为Cobalt 100的CPU,是一款基于Arm架构的128核云原生芯片,针对通用的计算任务,可能会与英特尔处理器展开竞争。 Borkar表示,这两款芯片都采用了台积电的5纳米制程工艺制造技术,Maia 100的晶体管数量达到1050亿个。据悉,微软的Maia人工智能芯片和ARM驱动的Cobalt CPU都将于2024年上市。 总的来说,也是微软一直在推进的工作是,它将把各种人工智能辅助功能以及Bing聊天机器人功能整合到一个软件中,让用户可以更方便地访问所有这些功能。 微软开展的一项调查显示,人们对其新的企业人工智能工具普遍满意。例如,77%的用户表示,一旦他们使用了它,就不想回到之前的状态。
下架!抖音、快手、微信,集体出手
近日,抖音、快手、微信集体宣布,打击违规低质微短剧。 打击违规微短剧 抖音、快手、微信集体出手 11月16日,抖音发布抖音关于打击违规微短剧的公告,公布近期累计下架小程序内违规微短剧119部,处置违规推广微短剧的抖音账号1188个。 公告称,对于存在违规内容和行为的小程序或账号,平台将引导整改。拒不整改的,将对违规的剧集、视频和账号进行处置,处罚类型包括但不限于下架违规剧集、删除或屏蔽违规内容、对违规账号禁言或封禁等。 快手11月14日发布了针对违规微短剧类小程序的专项治理公告,下架了10余部违规微短剧,同时对发布违规内容的午夜***剧、达达***地等13个账号根据违规程度分别予以相应处罚。 此前,11月10日,微信发布公告称,近期,平台通过巡查审核发现,部分微短剧类小程序存在未进行剧目合规备案或存在不良导向价值观内容等行为。根据国家相关法律法规要求以及《腾讯微信软件许可服务协议》《微信小程序运营规范》的相关规定,平台下架了部分违规微短剧剧目,并对相关违规小程序进行处置。 热度持续走高 微短剧为啥这么火? 近两年,微短剧迎来了快速增长黄金期。行业数据预测,2023年小程序短剧市场规模接近250亿元。德塔文《2023年上半年微短剧市场报告》显示,2023年上半年,国内上新481部微短剧,超过2022年全年的454部。此外,中国传媒大学赵晖教授团队统计数据显示,2022年爱奇艺、优酷、腾讯、芒果TV、B站五大视频平台全年首播重点微短剧数量276部,而2023年前7个月上述五大视频平台首播重点微短剧数量就已达到297部,发展势头迅猛。 微短剧为什么这么火?据了解,微短剧主要靠爽点、反转、土味内容吸人眼球。通常,微短剧的单集时长一般不足10分钟,甚至可以短至几十秒,具有主题明确、情节连贯、节奏较快、冲突集中、反转频繁、情绪带动性强等特点,能让观众在最短时间内得到最大程度的情绪满足,大大节约了追剧的时间成本,满足了观众碎片化的娱乐需求。 此外,制作方和播放平台越来越重视垂直细分领域的用户需求,利用算法不断制作、推荐迎合用户特定需求的同类微短剧,以“精准投喂”的方式增强用户黏性,也推动了一些类型微短剧的持续火爆。 但是微短剧火热发展的同时,也存在诸多问题。艾媒咨询CEO兼首席分析师张毅表示:“目前,微短剧在三个层面存在问题。从身份定位上看,它不同于电视剧、电影或者网剧,业界对其定位存在争议;从内容上看,作为最新流行起来的传播模式,一些微短剧尤其是商业微短剧大打擦边球,对意识形态的把握令人担忧;从资本端看,微短剧在二级市场引发的追捧趋势已十分明显,若不加以规范和限制,后续可能会在一级市场引发不良后果。” 微短剧已下线25300多部 广电总局将加大管理力度 据悉,2022年11月下旬开始,广电总局集中利用3个月时间,组织开展了“小程序”类网络微短剧专项整治工作。截至2023年2月28日,共下线含有色情低俗、血腥暴力、格调低下、审美恶俗等内容的微短剧25300多部、计1365004集,下架含有违规内容的“小程序”2420个。 此外,2023年3月至今,广电总局督导抖音、快手、腾讯、B站、小红书、好看视频等平台累计对外发布公告40余期,清理低俗有害网络微短剧35万余集(条)、2055万余分钟;分级处置传播低俗有害网络微短剧的“小程序”429个、账号2988个。 下一步,广电总局将从7个方面加大管理力度、细化管理举措:一是加快制定《网络微短剧创作生产与内容审核细则》;二是研究推动网络微短剧App和“小程序”纳入日常机构管理;三是建立小程序“黑名单”机制、网络微短剧推流统计机制;四是委托中国网络视听协会开展网络微短剧日常监看工作;五是推动行业自律,互相监督,全行业共同抵制违规网络微短剧;六是再次开展为期1个月的专项整治工作,围绕网络微短剧的导向、片名、内容、审美、人员、宣传、播出等方面,加大违规网络微短剧处置和曝光力度,进一步优化算法推荐,完善广告推流审核机制,取得立竿见影成效;七是加强创作规划引导,继续打造精品力作。 微短剧无序狂奔局面将得以遏制 加强对微短剧的规范与监管,有何影响? 张毅认为,相关部门的强监管态度剑指内容管理,短期看,一旦审核细则、“黑名单”机制落地,部分微短剧或许将不再适合公开传播;长期看,进一步的规范与约束,等同于为行业划下一条监管红线,能够帮助各类微短剧最大程度规避合规风险、价值观风险等,有利于行业整体健康发展。 北京市京师律师事务所合伙人律师卢鼎亮表示,建立微短剧“黑名单”机制将会进一步规范内容供应端公司对微短剧内容的把控流程,提升其生产制作微短剧的水准,加大内容供应商违法违规成本,促进内容供应商的微短剧以内容、质量、品质取胜,避免出现低俗、暴力、色情等不良作品。 “微短剧在资本市场和消费端的火热,证明行业和业内公司已经找到相对合适的成长路径。出台审核细则、建立‘黑名单’机制,不仅可以及时整治负面内容、制约不良公司,还能规范产业发展、保障微短剧向精品化发展、增加市场透明度,确保该行业向着具备强大生命力的内容形态和文化消费品方向发展,助力业内企业可持续发展。”上海交通大学媒体与传播学院教授童清艳表示。
SpaceX宣布星舰二次试飞时间 凤凰网科技将全程直播
星舰在4月20日的首飞 凤凰网科技讯 北京时间11月16日,美国太空探索技术公司(SpaceX)在周三获得了美国监管部门的批准,将于本周五进行第二次“星舰”(Starship)试飞。最新试飞距离星舰的首飞已经过去了7个月时间,朝着埃隆·马斯克(Elon Musk)将人类送上月球及更远的地方的目标又近了一步。根据媒体此前报道,星舰项目耗资高达30亿美元(约合218亿元人民币)。 美国联邦航空管理局(FAA)在周三的一份声明中表示,该机构恢复了SpaceX的星舰发射许可证,“SpaceX满足了所有安全、环境、政策和财务责任要求”。FAA该补充说,SpaceX申请并获得了一次飞行许可。 SpaceX宣布将在11月17日二次试飞星舰 SpaceX同时在X上宣布,计划于当地时间11月17日(周五)在得州博卡奇卡的发射场进行星舰的第二次试飞,发射窗口从美国中部时间早上7点(北京时间21点)开始,持续两个小时。凤凰网科技将进行全程直播,敬请关注。 今年4月20日,星舰迎来首次试飞。在那次飞行中,星舰成功从得州发射台起飞,但在上升过程中遭遇了多次发动机故障。随后,火箭未能按计划分离,并开始失控旋转,促使SpaceX故意将其引爆。(作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
0门槛!用ChatGPT只花1天批量生成300个爆火TikTok视频
不露脸,不怕视频也能从TikTok赚到钱?在过去30天,有人通过这个方式预计至少获得了超过1万美金的广告分成收益。这些成功账号的共同特点是,所有内容都是利用自动化流程批量生产出来的,而且不需要自己拍摄视频或者露脸,却能够获得巨大的收益。利用当下最火的AI人工智能工具,如ChatGPT,仅需花费一天的时间,就能批量生产300条以上热门的视频内容。 寻找另类变现方式 在正式开始实操之前,我们需要思考是否能找到另一种内容形式,既不需要拍摄视频、不需要露脸,同时能够实现自动化批量生产,并且不仅仅局限于广告或基金收益,还可以通过销售产品赚取收入。 挖掘成功案例:DazzLems Jewelry 通过研究对标TikTok账号“DazzLems Jewelry”,我们发现其内容形式是手工艺视频配上情感故事的口播内容。这些特点使其在不同平台上都能持续爆火。类似关键词搜索在YouTube或Instagram上也能找到相似账号,每个都拥有数十万的粉丝。 利用AI工具批量生成对标账号的内容 首先,我们需要准备情感故事的口播内容。通过对标DazzLems Jewelry账号的爆款内容进行拆解,发现超过百万播放的视频中,口播的情感故事部分都具有争议性。这一点对于引发观众持续观看非常关键。 接下来,我们转向ChatGPT的官网,并告诉它模仿对标账号的TikTok视频脚本文案。我们通过复制DazzLems Jewelry账号的一个爆款视频链接,然后在Snaptik网站中导入视频并生成相应的字幕文案。 ChatGPT通过给定的提示,生成了三个新的脚本文案,主要方向是女性情感故事,要求第一句话具有争议性,能够引发观众持续观看。ChatGPT的理解和生成能力让人印象深刻,每个生成的脚本文案都具有高质量。 制作口播部分的音频 将生成的文案转变为语音是关键一步。使用play.ht这个工具,我们可以将文案复制粘贴到其官网,选择人声和音色,然后生成对应的音频。这一步的效果非常不错,生成的音频贴近真实人声,具有情感的波动。 寻找适合的视频素材 为了制作完整的视频内容,我们需要寻找适合的视频素材。免费网站Pexels和收费网站Shutterstock都是不错的选择。通过搜索关键词“Handcraft Jewelry”,我们可以找到符合要求的手工艺视频,如手工打造飾品的视频。 通过这一系列操作,我们成功地利用AI工具批量生成了具有争议性情感故事口播的脚本文案,并将其转化为真实人声的音频。结合合适的视频素材,我们可以制作出类似DazzLems Jewelry账号的火爆TikTok视频内容。这一策略不仅能够吸引观众持续关注,还为我们提供了多元化的变现方式。
AI时代,媒体内容价值或将重估
过去几年,大模型的参数规模呈几何倍数增加。 OpenAI 2018 年发布 GPT-1 时,参数量仅为 1.17 亿,2 年后的 GPT-3 将参数规模扩大千倍,达到 1750 亿。到 2021 年 Google 发布 Switch Transformer,参数量已经拉高至万亿规模。OpenAI 虽未公布 GPT-4 的参数量,但从业内爆料信息来看,GPT-4 参数规模或达 1.8 万亿,训练所需的数据集更是高达 13 万亿 Token。 人类对于数据的渴求从未像今天这般强烈。7 月,加州大学伯克利分校计算机科学教授斯图尔特・罗素发出警告,ChatGPT 等人工智能驱动的机器人可能很快就会 “耗尽宇宙中的文本”。专注于 AI 领域的研究机构 Epoch 则预测,至多 3 年,机器学习将耗尽所有高质量语言数据集。 其中,中文数据更是处于劣势。W3Techs 按日更新的世界互联网语言排名中,中文网站占比仅为1.4% ,仅比越南语稍高,而英语为 53%。目前世界上通用的 50 亿大模型数据训练集中,中文语料占比也只有 1.3%。 “很多人担心算力,但真正的问题是数据。”香港科技大学(广州)协理副校长、人工智能学域主任 熊辉近日参加凤凰卫视举办的大模型数据研讨沙龙时说,整体的中文数据在整个人类知识的数据体系中仅占很小一部分,中国大模型如何真正做到跨语言体系、跨文化体系,在构建高价值、高质量、全方位的数据集上仍然面临较大挑战。 越来越多的分析机构将高质量数据纳入影响大模型发展的核心因素。中信智库在其发布的《人工智能十大趋势》中指出,未来,一个模型的好坏 20% 由算法决定,80% 由数据质量决定。“高质量数据将成为提升模型性能的关键。” 但问题是,高质量数据从何而来? 01 媒体数据或成为 AI 训练的有益补充 OpenAI 最早训练 GPT 模型使用的数据大多来自互联网上的公开数据,比如维基百科词条、出版书籍以及杂志期刊等,但其中占比最多的数据还是来自于网站爬虫。比如 GPT-3 就爬取了来自社交平台 Reddit 约 50GB 的数据,以及来自网页数据库 Common Crawl 约 570GB 的数据。 这些数据并非到手即用,来自互联网的数据庞杂无序,仍需经过大量的数据标注与清洗工作才可用于训练 AI。此前外媒报道称,OpenAI 雇佣了来自肯尼亚、乌干达及印度的外包员工来为他们过滤互联网上的有害信息,一度引发市场争议。 AI 训练所用数据的合规性也越来越引起广泛关注。今年,Reddit、推特等社交平台相继收紧政策以阻碍第三方获取平台数据,纽约时报、路透社在内的多家媒体机构被爆出已屏蔽来自 OpenAI 的网络爬虫程序。针对 AI 滥用数据的抗议与诉讼不断发生,反对者包括作家、编剧、艺术家以及程序员群体等。 为了保证高质量数据的供给,OpenAI 最早的尝试是与新闻媒体合作。7 月份,美联社与 OpenAI 达成合作,授权 OpenAI 使用旗下生产的部分新闻内容训练大模型,文本素材最早可追溯至 1985 年。OpenAI 的首席运营官布拉德·莱特卡普称,“美联社的反馈意见以及 OpenAI 对其高质量、真实文本存档的访问将有助于提高 OpenAI 系统的能力和实用性。” 外界对这次合作的评价多持正面态度。一些分析认为新闻媒体的内容具备真实且客观中立的特质,将有助于提升大模型效果,并减少训练时长。在预训练阶段采用更多的媒体数据,也将遏制早期 AI 容易产生的偏见、仇恨等负面内容。 华泰证券在其发布的调研报告中表示,高质量数据将是未来 AI 大模型竞争的关键要素,而未来专业及垂直内容平台有望成为国内优质中文数据集的重要来源。 众多电视媒体中,最早意识到媒体数据对于AI训练价值的,并且积极主动拥抱AI浪潮、寻求改变和突破的或许是凤凰卫视。凤凰卫视日前推出了旗下的 AI 数据业务,并发布了首批百万轮次的“中文访谈对话数据集”和 10 万问答对的“正向价值对齐数据集”。 凤凰卫视融媒体研发副总经理冯伟说,他们最早在去年开始尝试将平台内容进行数据集的整理。诱因之一是他们在与高校及科技公司的接触中,发现高质量的中文语料十分匮乏。在经过了几个月的走访和调研后,他们认为,高质量数据语料库将是 AI 时代承载中华文化的新载体,因此决定下场参与中文高质量数据集的构建。 这一动作受到不少行业公司的欢迎。微博 COO、新浪移动 CEO、新浪 AI 媒体研究院院长王巍在接受媒体采访时呼吁,希望更多的媒体机构加入到中文数据集的建设中。“它为 AI 技术提供了丰富、多样的数据源,有助于提升 AI 模型对中华文化的理解。” 参加凤凰卫视数据研讨沙龙的华为云 EI 产品部部长尤鹏表示,华为希望和凤凰卫视一起共建数据黑土地,共同探索产业界自下而上的数据合作路径和商业模式,共同构建大模型的“数据-算力-商业”飞轮,推动数据产业发展。 据介绍,凤凰卫视近期推出的数据业务包括两部分,一是高质量的数据集市,即以凤凰内容为基础构建的数据集产品;二是与数据集打通的一站式 AI 训练平台。AI 训练平台将与数据集市打通,并提供一系列以数据为中心的服务,可大幅降低数据处理与AI训练的门槛和成本。 海外除了美联社与 OpenAI 的合作,近期也有消息显示包括纽约时报、卫报、新闻集团等媒体机构均在与科技公司讨论合作事宜。从这个角度上说,凤凰卫视这次下场或许为众多媒体机构提供了一个可借鉴的样板。 02 凤凰特色的 AI 数据集 目前,中文大模型训练所用的数据集大致可分为以下几类: 1. 平台自有数据。如百度、阿里、腾讯等互联网巨头凭借其自身生态积累的大量数据资产。 2. 国内开源数据。多由高校、科研院所及科技公司联合发布。如清华大学和北京智源人工智能研究院联合发布的WuDaoMM数据集、中国人民大学发布的COCO-CN 数据集等。 3. 海外开源数据。包括英文数据集产品及网站爬虫内容等。如维基百科、Common Crawl 等网站数据,以及大量来自政府机构、高校及开源组织发布的数据集产品。相较来说,海外数据集产品质量及丰富程度更高。 其中,真正来自专业媒体的高质量语料数据少之又少。负责凤凰卫视数据集产品的冯伟认为,他们推出的数据集产品根植于凤凰本身内容,试图将内容本身特色嫁接于数据集产品之上。 特色之一是这家媒体多年来一直秉承的全球视野。公开资料显示,凤凰卫视在全球拥有 60 个记者站,能带来更为及时和准确的一手新闻资讯。更及时、准确的信息有利于提升 AI 模型的理解能力。 “所有的数据开发都必须更加及时、快速和顺应时代。”凤凰卫视执行副总裁兼运营总裁李奇说,人工智能的到来加速了人类数据的演变和构建,领军企业正在不遗余力地获取最新的数据,以确保大模型的知识不会落后。 GPT-3.5 的信息只停留在 2022 年 1 月,而最新的 GPT-4 Turbo 提升到了今年 4 月。马斯克的人工智能公司 xAI 最新发布的大模型 Grok 则可以实时访问 X 平台(Twitter)的数据,极具时效性,这让它毫无障碍地理解当下最新的热门话题。 时效性正是媒体数据之于其他传统数据集产品最显著的优势。媒体内容产品包括文本、视频、语音等多模态内容,无论是其信息的丰富度、时效性乃至后续的更新,都是传统数据产品无法比拟的。事实上,凤凰卫视在发布首批数据集产品时,着重强调的一点就是他们将会定期更新数据集内容,以保证内容的时效性。 “作为覆盖台、网、屏、刊、端的全媒体平台,凤凰卫视每天产生大量的多模态内容,这些可持续的内容数据为我们开发数据集产品提供了天然的优质基础。”冯伟说。 不过,凤凰卫视更为人津津乐道的或许是旗下如《问答神州》《名人面对面》等王牌访谈节目,以及时下较为稀缺的、如财经论坛、零碳使命、世界文化论坛等国际性顶级峰会中的精英人物思想。据介绍,凤凰卫视发布的首批“中文访谈对话数据集”,就是基于旗下访谈类节目生成,规模达百万轮次。 (凤凰卫视《问答神州》特别节目——智能时代,未来已来。对话中国工程院院士、国家新一代人工智能战略咨询委员会组长潘云鹤;鹏城实验室主任、中国工程院院士高文;世界工程组织联合会主席龚克;中国工程院院士、信息内容安全技术国家工程实验室主任方滨兴) 访谈是与当下以 ChatGPT 为代表的聊天型人工智能最为贴近的交流方式。冯伟介绍称,他们的访谈数据集最大的特点是连续对话,平均轮次超 30 轮;且话题多样,涉及时事热点、精英人物、传统文化乃至经济科技等多个领域。 另一特点是整体内容来源于真实访谈,可以最直观地展现人与人之间的对话模式,而这一直以来都是生成式 AI 训练的难点之一。 此前,人工智能公司的数据清洗工作大多仍是数据标注等基础性劳动,但随着 ChatGPT 的火爆,人工智能公司们不得不投入更多的人力来训练 AI 的回答更像人类。 据报道,OpenAI 在训练 GPT-4 时招募了大量的员工来“指导” AI,来使它的回答更接近人类的期望。这被业内称之为“基于人类反馈的强化学习”(RLHF)。当下,国内的科技公司们也开始密集招募大量具有一定知识背景的 AI 训练师,要求本科甚至硕士学历,月薪可达 4万。 据冯伟介绍,媒体内容的语料化是一项极具挑战性的工作,其中涉及包括自然语言处理、计算机视觉及音频识别等多种 AI 技术的运用。在数据的完善度上,他们针对每个话题均附有相关上下文信息,包括人物介绍、话题背景等。涉及的相关概念及政策等知识,他们也基于知识图谱完成了知识补充。 目前,凤凰卫视发布的首批访谈对话数据集仍以文本类为主,他们计划此后还将推出多模态方向的数据集产品。据透露,凤凰卫视计划在明年分三批发布更多高质量数据集,包括面向财经领域的评论数据集、面向视频内容理解领域的视频问答数据集、面向数字人领域的谈话动作数据集和语音合成数据集等。 此外,他们还计划与相关数据伙伴共同构建具有高价值和稀缺性的高质量数据集,包括华语图文对数据集、华语书籍数据集和网络流行语数据集。 03 大模型的“正向价值” 媒体数据的另一优势在于媒体内容本身的客观中立,或将有助于减少 AI 模型的负面内容。 此前,已有多个国家及地区公布了人工智能监管法案。欧盟在今年 6 月投票通过了《人工智能法案》,要求任何应用于就业、边境管制和教育等“高风险”用例的人工智能都必须遵守一系列安全要求,包括风险评估、确保透明度和提交日志记录。对于 ChatGPT 等生成式人工智能,则需披露训练模型时使用了哪些有版权的数据。 国内 8 月正式发布的《生成式人工智能服务管理办法》,其中明确提出在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。 美国总统拜登 10 月份签署通过的人工智能监管法令,要求美国最强人工智能系统的研发人员需与政府分享其安全测试结果及其他关键信息,同时建立检测人工智能生成内容和验证官方内容的标准和最佳实践,以帮助民众防范人工智能驱动的欺诈。 11 月初,在英国召开的首届全球人工智能安全峰会上,包括中国在内的与会国共同发布了《布莱切利宣言》,与会国同意协力打造一个国际性的前沿人工智能安全科学研究网络,以加深对人工智能风险的理解。 “这是第一次以国际共识的方式承认并正视人工智能的副作用。”李奇认为,这标志着这个快速新兴的技术已经真正来到每个人的身边。 业内常用人工智能价值对齐来形容人工智能与人类价值观是否相符。ChatGPT 诞生之初,尚且会生成涵盖种族歧视、灭绝人类的内容。随着过去一年大模型的飞速发展,更多业内人士认为价值对齐将是衡量大模型能力的重要指标。 “一个能力很强大的 AI 模型可以做到很多,但同时也承担着巨大的风险。”上海交通大学副教授刘鹏飞在一场关于大模型价值对齐的研讨会上表示,缺乏对齐的大模型不仅会生成大量虚假甚至有害的信息,在高阶应用领域更会产生巨大的危险隐患。 凤凰卫视发布的首批数据集中即包含了“正向价值对齐数据集”。据介绍,该数据集构建基于凤凰与权威学术团队的研究成果,由凤凰卫视专业内容团队人工撰写而成,规模达十万个问答对。在每个问答对中,均包含了正向和负向回答,可提升模型在正向价值对齐方面的鲁棒性。 构建人工智能的正向价值并非易事。腾讯研究院秘书长张钦坤在一次活动上表示,价值对齐将成为 AI 产品的重要竞争力,因为这一目标需要多种技术与治理措施的结合,如何使监督、理解、设计 AI 模型的能力与模型本身的复杂性同步发展也需着重考虑。 不过至少,作为新闻媒体,凤凰卫视所构建的“正向价值对齐数据集”试图迈出第一步。 凤凰卫视执行副总裁兼运营总裁李奇说,凤凰卫视作为一个立足香港、背靠内地、面向全球发展的国际媒体,也将是人工智能时代的积极参与者,期望发挥凤凰媒体平台优势,为产业界建立一个共建共享的数据平台,共同推进人工智能的快速发展。
超级血液 硅谷富豪称换血让父亲“年轻”25岁
约翰逊把自己的血浆提供给父亲 凤凰网科技讯 北京时间11月16日,硅谷科技富豪布莱恩·约翰逊(Bryan Johnson)周二宣布,在输入了他的“超级血液”后,自己70岁父亲的衰老过程延缓了25年。约翰逊因痴迷于返老还童而出名,每年为此花费200万美元。 今年5月,约翰逊策划了一次三代人换血试验,以验证血浆疗法的抗衰老效果。当时,46岁的约翰逊、他的17岁儿子塔尔马奇(Talmage)和70岁的父亲理查德(Richard)抽出了一升血浆。随后,塔尔马奇(孙子)的血浆被注入约翰逊(儿子)的静脉,而约翰逊的血浆被注入理查德(爷爷)的静脉。 但是在今年7月,约翰逊宣布停止接受这种血浆疗法,因为他没有检测到这种疗法的任何好处。 “终止血浆疗法:我已经完成了6次,每次1升的年轻血浆置换。每月一次,其中一次使用了儿子的血浆。根据生物流体、设备和成像评估的生物指标来看,我没有检测到这种疗法对我有任何好处。”约翰逊表示。 约翰逊曾输入自己儿子血浆但效果不佳 不过,约翰逊当时表示,他父亲的结果还没有出来,这种血浆置换疗法对年龄更大的人可能有帮助。 周二,约翰逊在X上公布了他父亲的换血治疗结果。在输入了约翰逊的1升血浆后,理查德的衰老过程被延缓了25年。 “年纪越大,衰老就越快。我父亲现在正以46岁的速度衰老。此前,他以71岁的速度衰老。我成为了我爸爸的血童(blood boy)。”约翰逊周二在X上称。“血童”指的是被亿万富翁雇佣提供血液的年轻男子,需要十分健康,不喝酒,不抽烟,不吸毒,可能是素食主义者。 约翰逊称父亲衰老延缓了25年 但是,约翰逊还无法确认的是,父亲衰老的延缓“是因为他被抽取了600毫升血浆还是因为接受了他的1升血浆”,还是两者都有作用。还有一个问题就是,这种衰老延缓能够持续多长时间。自从理查德输入儿子的血浆以来,这种衰老延缓已经持续了6个月时间。“这很了不起。”约翰逊表示。 而且,目前也不清楚约翰逊是否会在近期继续充当血童,再次为父亲提供血浆。 与此同时,约翰逊还在接受其他治疗来对抗衰老。最近,他又对自己的生殖器进行“痛苦的”休克疗法。他在周三发布的播客中说,这种疗法使他的阴茎衰老速度延缓了15年。 (作者/箫雨) 更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。
量子纠错领域里程碑式突破 谷歌研发DQLR大幅提高量子计算机可靠性
IT之家 11 月 16 日消息,谷歌量子人工智能(Google Quantum AI)带领团队,在完善量子计算方面迈出了具有里程碑意义的一步。 目前在制造可靠的量子计算机方面,其中一项挑战就是解决量子比特(qubits)的重要缺陷:容易在位翻转(bit-flip)和相位翻转(phase-flip)时出现错误。 目前业内主推量子纠错(QEC)方式,遏制位翻转和相位翻转时出现的错误。谷歌在论文中表示,通过深入研究其超导量子比特(transmon qubits),发现量子比特的错误更深层次原因是泄漏态(leakage states)。 泄漏态在量子操作中会污染附近的比特,特别是在广泛使用的 CZ 门操作期间,导致操作错误,阻碍算法的执行。 为了克服这个挑战,研究人员引入了一种称为 Data Qubit Leakage Removal(DQLR)的全新量子操作。 DQLR 专门针对数据比特中的泄漏态,并高效地将其转化为计算态(computational states)。 这个过程涉及到两比特门--Leakage iSWAP,这是受到 CZ 门启发,后续通过迅速重置度量比特以消除错误。 该研究表明,DQLR 显著降低了所有量子比特的平均泄漏态比重,从近 1% 降低到约 0.1%。重要的是,DQLR 防止了在实施之前观察到的数据量子比特泄漏逐渐增加。 研究人员强调,仅靠清除渗漏是不够的。他们进行了量子纠错(QEC)实验,在每个周期结束时交错使用 DQLR,确保与逻辑量子态的保存兼容。结果显示,检测概率指标有显著改善。 此外,DQLR 的表现优于一种称为“测量泄漏去除”(MLR)的方法,该方法在有效减少泄漏的同时,也擦除了存储的量子态。
原阿里首席AI科学家贾扬清再发声:开源领域“魔改”要不得|AI前哨
凤凰网科技讯《AI前哨》 11月16日,原阿里首席AI科学家贾扬清吐槽国内某一新模型中用的其实是LLaMA架构,仅在代码中更改了几个变量名引发网络热议。在被指大模型回应并发布训练模型过程后,贾扬清最新发文谈了为什么开源领域“魔改”要不得。 贾扬清指出,开源是一个相互合作的事情,本质是要大家能够求同尊异,讨论设计,磨合观点,最后拧成一股绳往前走。初入开源以及better engineering的人往往有一种倾向,“这代码我拿来,魔改下,然后我自己自定义也灵活,何乐而不为?”但是就社区而言这种事情绝对弊大于利,最后形成各种分裂的技术体系,没法维护,没法协作,对于创作者和使用者都是非常大的问题。 他还表示,魔改一时爽,社区火葬场,要真的做出成就来,就得真的有能够和社区一起玩的心。 11月14日,“零一万物”公司正式公开回应了此事,该公司开源团队总监Richard Lin承认了修改Llama张量名称的做法不妥,将会按照外界建议把“修改后的张量名称从Yi改回LLaMA”。 11月15日,零一万物正式公开了对Yi-34B训练过程的说明。李开复也在朋友圈转发了该说明,并表示:“零一万物Yi-34B模型训练的说明也回应这两天大家对于模型架构的探讨。全球大模型架构一路从GPT2-->Gopher-->Chinchilla-->Llama2->Yi,行业逐渐形成大模型的通用标准(就像做一个手机app开发者不会去自创iOS、Android以外的全新基础架构)。01.AI起步受益于开源,也贡献开源,从社区中虚心学习,我们会持续进步。”
星链劲敌来了!亚马逊原型卫星试验成功 柯伊伯计划将全面推进
财联社11月17日讯(编辑 牛占林)当地时间周四,美国科技巨头亚马逊宣布,此前发射的两颗亚马逊原型卫星运行正常,各方面测试都取得了成功,为大规模生产卫星铺平了道路。 当天,亚马逊“柯伊伯计划(Project Kuiper)”技术副总裁Rajeev Badyal在接受采访时表示:“我们对所有项目进行了验证,并取得了所需的所有数据。我们为卫星设计的所有系统、所有子系统和所有系统功能都按照设计工作。” Badyal补充说,在卫星发射30天后,我们就可以利用其网络播放4K视频,双向视频电话,在亚马逊上购物。 具体而言,两颗原型卫星的飞行控制计算机、配电系统、太阳能电池阵列、推进系统和射频通信有效载荷等都取得了令其满意的数据,亚马逊表示将继续测试这些卫星。 亚马逊原本的目标是最早在2022年第四季度将首批卫星送入太空,但由于一系列测试失败以及与卫星发射合作伙伴之间的其他问题,不得不推迟了项目进程。 在10月初,一枚载有两颗亚马逊原型卫星的火箭从佛罗里达州的一个发射台发射升空,使这家电子商务公司向卫星互联网业务迈进了一步,有望与SpaceX和其他竞争对手展开竞争。 亚马逊在2019年公布了一个名为柯伊伯计划的卫星网络计划,并表示将投资100亿美元。该公司已获得美国监管机构的许可,将逐步部署3200多颗卫星。像其他低轨卫星网络运营商一样,柯伊伯的目标是向订户销售高速、低延迟的宽带服务。 它的主要竞争对手是SpaceX的卫星互联网服务星链(Starlink)。SpaceX大举为星链制造卫星,并使用该公司部分可重复使用的火箭将它们发射升空,到目前为止,已经在轨道上运行了大约4800颗卫星。 Badyal声称,随着原型卫星试验成功,柯伊伯计划将全面推进,亚马逊计划在12月开始大规模生产柯伊伯卫星,并在2024年上半年将其发射升空,并进行组网。他表示,我们还有很多艰苦的工作要做,大规模生产卫星并不容易。 但Badyal也强调,亚马逊现在还不确定原型卫星的性能究竟如何,因为你不知道它在太空中的工作效果。 亚马逊拒绝透露有关卫星测试所显示的宽带速度的细节,Badyal只是说,你得到的体验就像电缆或光纤一样。
一口气发了两款自研芯片,微软这是要叫板英伟达?
微软自研的 AI 芯片终于来了! 就在今天凌晨,微软在 Ignite 技术大会上一口气发布了两款自研芯片 Maia 100 和 Azure Cobalt 100 。 前者是微软首款 AI 芯片,采用了台积电 5nm 工艺,专门用于大语言模型的训练和推理。 而后者,则是一款 64 位、 128 计算核心的 CPU ,为微软的通用云服务提供支持。 根据官方的说法,目前 Maia 100 已经在自家和 OpenAI 的产品上进行了测试,世超盲猜一波,有没有一种可能 GPT-4 Turbo 已经用上了 Maia 100 ? 反正微软自研芯片的消息一出,科技圈上上下下都炸开锅。 毕竟从 2019 年开始,关于微软要自研芯片的传闻就一直没有停过,特别是在谷歌、亚马逊等科技公司亲自下场自研芯片之后,大家对于微软自研芯片的关注度也是水涨船高。 这次,微软的芯片终于 “ 千呼万唤始出来 ” ,难道微软是想要跟英伟达干一架? 不过,那个爱穿皮衣的男人的出现,很快打消了大家的顾虑。 微软 CEO 纳德拉把老黄请上台后,俩人先是来了一波商业互吹,接着又官宣了英伟达即将在 Azure ( 微软云服务 )上推出的 AI Foundry 服务。 不仅如此,纳德拉也对外宣传,其实微软一直都在用英伟达的 H100 来构建 AI 超级计算机,包括 H200 出来之后,微软也准备把它加进去。 这么看来,微软其实也并没有跟芯片巨头 “ 分手 ” 的打算,与其说发布自研芯片是为了打破垄断,倒不如说是各路开花,给自己留条后路。 当然了,自研芯片只是大会一个小高潮,另外一场重头戏则属于 Copilot 。 说实话,整场大会听下来,我已经快被 “ Copilot ” 给洗脑了,甚至,纳德拉还在大会现场声称 “ 微软是一家 Copilot 公司 ” 。 这次大会,微软把 Bing Chat 和 Bing Chat for Enterprise 改名为 “ Copilot ” ,并且给 Copilot 设置了专属的域名。 这就相当于,原本 Bing Chat 只是一个内置在 Bing 搜索里的应用,现在已经独立出来了,你可以理解成微软版的 “ChatGPT” 。 改名之后, Copilot 有免费和在 Microsoft 365 里收费的两个版本。 不想花钱的朋友,现在可以直接在 Microsoft Edge 、 Google Chrome 、 Safari 上使用,只需要登录微软账号就能免费白嫖到 Dall-E 3 和 GPT-4 。 收费的版本,则多了个 Copilot Studio 低代码工具,用来自定义 Copilot 。 有点像前段时间 OpenAI 发布的 GPTs ,不同企业能用自己的数据集,来创建不同的 Copilot 。 跟 GPTs 不同的是,这里 DIY 出来的 Copilot 只适用于 Microsoft 365 ,估摸着也是为了扩展 Microsoft 365 Copilot 的生态。 打个比方,你需要一个能够帮你做财务报表,又或者能够完成绩效管理的 Copilot ,那你跟 Copilot Studio 说几句话,就直接整出个来。 在微软的愿景里, Copilot 或许就是个人计算时代的新入口。 说不定以后咱们上网啥也不需要,追剧、写论文、购物... 一个 Copilot 就够了。 正如纳德拉所说, “ 就像我们用操作系统来访问应用程序、浏览网站一样,你可以用 Copilot 来完成这一切,甚至做更多的事情。 ” 另外,除了自研芯片和 Copilot ,微软依旧在其他领域,疯狂加码 AI 。 像是基础设施方面,微软就在大会上,秀了一波自己在数据中心上下过的血本。 其中,微软从 2013 年开始就采购了 19GW ( 190 亿 W )的可再生能源给数据中心供电、用先进的中空芯光纤技术给数据中心的网络加速、上线 Azure Boost 系统来提高存储和网络速度等等... 而在基础模型上,微软也奔着从模型开发到应用落地的一条龙服务去了。 在 Azure OpenAI 服务中,开发者能用到最新的 GPT-4 Turbo ,而且还能基于 GPT-4 做微调,相当于,在 Azure 上你就能开发出一个自己的 “GPT-4” 。 为了降低大模型开发的门槛,微软又推出了一个 “ MAAS ” ( Models as a Service/ 模型即服务 ),让开发者可以直接通过 Azure 来调用 API 、微调和部署开源大模型。 现在已经有像 Llama 2 as a Service 、 Mistral as a Service 等模型服务准备上线了。 如果你担心基础模型不会用,微软的 Azure AI Studio 工具链还能从模型的构建、训练推理到评估部署,一条龙全给你安排得明明白白。 摆明了就是在告诉开发者,你们都来用我的 Azure 吧!好东西都在我这了! 有意思的是,这场大会中间还发生了个 “ 小插曲 ” 。 大伙儿应该也都知道,微软和 OpenAI 一直以来都是好基友的关系,但时不时,总会有一些 “ 微软和 OpenAI 相爱相杀 ” 的传言流出。 前几天的 OpenAI 开发者大会上,纳德拉作为嘉宾被邀请到了现场,而这次,微软也用一张 “Microsoft ( 爱心 ) OpenAI” 的 PPT 力破传言,高调地秀了一波恩爱。 最后这么说吧,整场大会,世超看到了微软在 AI 领域的自信和决心。 还记得去年 ChatGPT 刚发布的时候,微软还是那个在外界看来跟时代擦身而过的“老人”。 谁也想不到,从年初接二连三宣布要拿生成式 AI 革自家业务的命,不到 1 年的时间里,微软就已经从业务,深入到了整个 AI 链条。 都说船大难掉头,但微软却身体力行地告诉大家,我不仅掉头了,现在船还开得挺稳当。 不得不说,微软这波已经快到大气层了好吧。 撰文:西西 编辑:江江&面线 封面:焕妍

版权所有 (C) 广州智会云科技发展有限公司 粤ICP备20006386号

免责声明:本网站部分内容由用户自行上传,如权利人发现存在误传其作品情形,请及时与本站联系。