独行穿落叶,闲坐数流萤。

授权品牌卖家

  • 16672540

    总访问

  • 24388

    文章数量

万能加速器手机安卓版下载下载安卓苹果APP

海外华人运营多年的加速器品牌,线路多,速度快,稳定,还不赶快试下看看!
立即下载

“人工智能技术的大爆发,给各行各业带来的巨大的赋能作用,同时也对计算产业提出了巨大的挑战,从‘计算’向‘智算’演进,目前面临多元化、巨量化、生态化三大挑战。”中国工程院院士王恩东在今日举行的IPF2021浪潮数据中心合作伙伴大会的主题演讲中表示。在当天的演讲中,王恩东对于当前之所以出现的“芯片五花八门”“AI计算群雄逐鹿”等产业现象给出了分析,并认为脑机接口最近取得系列重大进展是目前类脑计算发展的一大亮点。

脑接接口取得突破进展

王恩东首先谈及了人类大脑和人工智能大脑以及硅基大脑和碳基大脑发展的情况。最近,脑机接口领域有很多突破性进展,比如埃隆·马斯克公布了“脑机接口”的最近实验,科学家在猕猴的大脑皮层中植入了两颗芯片,捕捉大脑活动的信号,实现将大脑信号翻译成游戏的动作,实现猴子动动脑子打乒乓球的游戏。

清华大学施路平教授去年曾经说:“碳基上能够实现的,硅基上一定也能够实现。”而实际情况也显示,碳基生物大脑同硅基系统的结合已经不再是科幻小说或者科幻电影,而是逐步在形成科学和技术上的突破。

目前,类脑计算是全球的研究热点,而脑机接口技术延展了生物大脑,在中国2020年人工智能学会推选出的自然科学类五个应用奖中,两个是关于类脑计算和脑机接口。

王恩东表示,人工智能技术的大爆发,才刚刚开始。目前我们已经创造了无数的智慧大脑,包括城市大脑、交通大脑、企业大脑等等。人工智能技术,正在给我们的世界带来巨大的改变。基于人工智能技术,可以实现毫秒级的精准识别,准确率达到99%,即使在光线不足的夜晚也可以根据一个尾巴和背影就能够识别出亚洲象。通过对野生大象长期的追踪和观测,为洞察大象物种的习性,种群的迁移轨迹提供了帮助。从而也能够为进行合理亚洲象国家公园的规划,栖息地改造,食源地的优化等这些保护措施提供科学的依据。

2020年中国农业无人机的销量超过了1.5万架,一架无人机一天农业喷散面积达到300亩,是人工的20倍。无人机装上了病虫害的识别系统,能够及时发现受病虫害侵蚀的叶子,实现农药的精准喷散,减少了农业的使用量。通过喷散催熟剂可以实现农作物成熟周期的同步,实现规模化的批量收割,成本大大降低,利润率大幅提升。根据普华永道的预测,到2030年人工智能技术将为全球GDP带来14%的提升,大约16万亿美元。

王恩东认为,人工智能技术的大发展,对产业与经济社会的巨大赋能作用,与计算能力的巨大支撑不无关系。同样也对从“计算”向“智算”推进提出了更多的挑战和更高的诉求。智慧计算对于计算力的需求指数级增长,在2020年以GPU为代表的AI加速芯片所交付的计算力已经超过了同类CPU,预计到2025年加速芯片所提供的计算力可能在整个计算力交付当中超过80%。

智慧计算面临三大挑战

王恩东认为,面对指数级增长的计算需求,计算的技术、产品、产业面临着巨大的挑战,具体来说体现在以下三个方面:一是多元化的挑战。计算场景的复杂、计算架构的多元。二是巨量化的挑战。由巨量模型、巨量数据、巨量算力、巨量应用所引发对现有计算及体系结构的挑战。三是生态化的挑战。现在的智算正处于群雄并起的阶段,自成体系,生态离散,产业链上下游脱节。

第一个挑战是多元化。计算的关键任务是支撑业务的发展,不同的业务类型势必要求不同的计算系统完成,比如针对传统的地震波模拟的科学计算,对于数值精度要求很高,而AI训练则可以适用数值范围大、精度相对低的16位浮点运算。对于AI推理,由于推理要求的速度快、能耗少,则可以更低的数值精度下处理,像4位、2位甚至1位的整数类型。

王恩东表示,AI应用引入了新的计算类型,从推理到训练跨度大,同时数据量也从GB到TB、PB不断提升,数据类型从结构化到半结构化、非结构化更加复杂多样。而不同数值精度的计算类型对计算芯片的指令集、架构等要求也不一样,这样就导致之前一直使用的通用CPU没有办法满足多元计算场景的要求,这也是计算芯片种类越来越多的重要原因。

芯片种类多的另一个原因就是芯片代工模式的普及。现在芯片设计、制造等关键环节都有开源开放的软件、工具包括代工企业都可以使用。但是芯片从造出来到大规模用起来往往还隔着一个巨大的生态鸿沟,芯片应用一般都面临着开发者学习成本高、用户应用千疑难、芯片制造公司难以上规模的困难和挑战。

人工智能芯片出来之后,大部分都面临着面向开发者的帮助文档、调试工具、交流回答问题的社区建设不足,开发者学习的时间长、难度大,如果学习多个芯片,那这种难更大时间就更不够,所以开发者的学习积极性就会下降。

对于芯片的最终使用者来说,由于芯片的指令集或者芯片架构的差异,导致编程库、编程模型、算法框架无法有效地横向拉通,让大量应用迁移变得困难,可能只是百分之一亿的对原来的编程环境小小的依赖,就会导致对新芯片的适配工作前功尽弃。

“芯片供应商如果想解决开发者的问题或者是使用者的问题,往往需要投入比芯片的研发成本高数十倍的投入。以往我们认为英特尔就是一个芯片公司、硬件公司,但其实在英特尔内部有超过一万人在为芯片的配套支撑、应用适配、软件优化做工作。“王恩东说,英伟达公司的CUDA软件环境更是通过长期的大规模的投入才打造了支撑了GPU在HPC和AI方面的霸主地位。

第二个挑战是巨量化。巨量化首先表现是模型参数多,训练数据量大。以自然语言处理为例,基于此训练模型兴起之后,模型精度随着模型尺寸及训练数据的增加显著提升,在2020年GPT-3模型的参数量首次突破了千亿大关,达到了1750亿。按照当前的发展趋势预测,到2023年模型的参数量会突破百万亿,也就是基本打造人脑的神经突出数量大概是125万亿。

巨量模型就需要巨量内存,当前1块GPU板载高速内存容量大概是40GB,对于包含百万亿参数的巨量模型,将这些参数分配到每个GPU生存当中就需要1万块GPU,考虑到训练当中还需要额外的存储,实际上就需要2万块GPU才能够启动百万亿参数模型的训练。现有AI芯片的架构已经不足以支撑巨量模型的参数存储需求。

同时,巨量模型依赖海量数据的喂养。目前AI算法本质上还是依赖量变的质变,很难从一个质变跳跃到另外一个质变。例如最新的巨量模型需要万亿级的海量数据,海量数据需要海量存储,在超大规模集群中同时满足几万个AI芯片的高精度读取,存储系统也是一个极大挑战。

巨量化的第二个表现是计算力需求的指数级增长。深度学习从2011年兴起到今天,对于算力的需求一直是指数级增长,每隔3.4个月算力需求翻一倍。

就像我们用千瓦时来度量用电量,在天文学里面,以光年为代表来度量距离,我们以Petaflops-day(简称为PD)来度量算力, 2020年GPT-3需要的算力是3640个PD。

GPT-3是以处理英文理解任务为主的,为了满足不同的语言、不同的场景的精度要求也需要训练不同的巨量模型。如此庞大的计算力需求给计算技术和产业带来了机遇和巨大的挑战。解决这样的挑战需要从体系结构、系统软件各个方面开展创新。

到2023年,巨量也就是百万亿参数的这种巨量模型的算力需要百万PD,现在世界上最快的超算是日本的富岳,在这上面完成百万PD的计算所需要的时间需要两年,在不同的领域需要不同类型的巨量的模型。

巨量化的第三个表现是模型应用规模大。AI的应用已经渗透到各个行业,以互联网头部企业为例,他们基于自身的已有的AI技术搭建了开放平台,在这上面承载着各类AI的基础能力(语言识别、图像识别、自然语言处理)等等。这些开放平台已经吸引了超百万的AI开发者,开发了各种AI应用和服务,这些AI开放平台每天承载着数万亿次的交互量、数百万小时的语音识别、超过百亿张图像识别、超过万亿句自然语言的理解。如此巨量的调用对计算中心的算力、应用能力产生了极大的挑战。

第三个挑战是生态化。AI技术链条和产业链条面临脱节的问题。很多人可能会问一个问题,大家都说人工智能好,但是这个东西与现在的业务、与客户的应用场景怎么结合,用户没有人懂算法和模型,也缺少好的AI开发平台,同时那么多的算法、模型如何与应用进行最优组合等等。懂AI算法与模型的人往往是集中在科研机构或者头部企业,但缺少对传统行业的需求场景、业务规律的深入理解,也拿不到最关键的业务数据对模型进行训练,这就导致技术无用武之地。

埃森哲等咨询机构的调查报告也表明了这个问题,70%以上有技术的研究机构和科技公司缺少需求场景、领域知识和数据,70%以上的行业用户则缺少技术人才、AI平台和实践能力。

“计算技术与产业生态是离散化,这与我们讲的多元化的挑战是相呼应的,芯片架构五花八门,指令集不同无法兼容,而面向芯片的编程库等等又跟芯片紧密绑定,灵活性差。小公司只做了一个环节,这就造成生态的纵向不通;大公司则希望构建封闭系统,就造成了生态横向不通。这些都严重制约了AI技术的应用和发展。”王恩东说。

王恩东进一步表示,通过这些分析我们可以看到,一方面智算需求蓬勃发展是重大的机遇,另一方面是多元化、巨量化、生态化的挑战和困难亟需解决,面向新的需求机遇,迎接新的挑战,应该说计算技术和产业需要构建一个新的发展格局。

产业链携手加速破解三大难题

那么如何来转型构建新的智能产业的发展新格局,关于如何应对多元化的挑战,王恩东表示,首先要创新智算体系结构,要从硬件重构、软件定义两个方面引领智算技术的体系创新。

王恩东以浪潮的融合架构3.0为例,是通过片内大容量的缓存,片外高带宽内存等存算一体方式实现计算数据结合,突破存储墙。通过高速互联交换网络支持更广泛的多元异构计算,支持新型存储资源置换,提高性能降低功耗,实现更大规模的资源可扩展。进一步通过在互联处理单元中卸载控制平面,实现控制和计算的分离,进而打造更为灵活资源的可重构。在系统软件创新方面,可以重构的硬件资源集组织,通过软件定义的方式实现控制层和基础设施的分离,统一资源组织模型,标准化可编程结构,形成软件定义计算、软件定义存储、软件定义网络。通过微服务化实现集中管理平台的高可用和高扩展。此外,也可以往底层延伸,基于不同的场景来开发定制化的AI加速、网络加速、存储加速产品,最终形成覆盖芯片板卡、系统平台和算法的领先的产品体系,在加速芯片和板卡方面,芯片多元化应该既是挑战也是应对当前算力需求复杂多样的手段。

而面对算法巨量化的挑战,王恩东认为可以通过构建智算中心以服务化的方式来为产业提供服务,面对各行各业以及各类不同的AI算法公司,社会需要AI算力的基础设施,通过构建“智算中心”能够加速解决巨量化的挑战。一个例子是江苏省建设的智算中心,今年年初江苏按照《智能计算中心规划建设指南》,在南京投资建设了智算中心,由寒武纪和浪潮联合承建目前已经投入运营使用。这个智算中心对外可以提供的算力达到了每秒百亿亿/次,采用了最先进的AI处理芯片和AI计算平台,该中心可以为区域的公共算力服务、创新应用孵化、产业聚集发展、科研创新和人才培养提供助力和支撑。

最后王恩东表示,AI产业化是一个千亿级的市场,产业AI化是一个万亿级的市场,无论AI产业化还是产业AI化,产业链的拉通和生态的建设都是必须的,在产业AI化的过程当中,浪潮推动元脑计划,希望构建一个开放的AI生态,也希望更多的厂商加入到推动AI生态化发展的进程当中。

编辑丨赵晨

美编丨马利亚

标签

加速器

发布日期

2021年08月05日

阅读次数

3650