欢迎来到课桌文档! | 帮助中心 课桌文档-建筑工程资料库
课桌文档
全部分类
  • 党建之窗>
  • 感悟体会>
  • 百家争鸣>
  • 教育整顿>
  • 文笔提升>
  • 热门分类>
  • 计划总结>
  • 致辞演讲>
  • 在线阅读>
  • ImageVerifierCode 换一换
    首页 课桌文档 > 资源分类 > DOCX文档下载  

    信息技术:人工智能产业链深度解读.docx

    • 资源ID:1680497       资源大小:97.41KB        全文页数:8页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    信息技术:人工智能产业链深度解读.docx

    信息技术:人工智能产业链深度解读近几年来,人工智能行业飞速发展。麦肯锡预测人工智能可在未来十年为全球GDP增长贡献1.2个百分点,为全球经济活动增加13万亿美元产值,其贡献率可以与历史上第一次“工业革命"中蒸汽机等变革技术的引入相媲美。从产业链来看,人工智能可以分为技术支撑层、基础应用层和产品层,各层面环环相扣,基础层和支撑层提供技术运算的平台、资源、算法,应用层的发展离不开基础层和技术的应用。人工智能产业性应用层体次方SI清更IIW资料来源:凯联资本投研部基础层分为硬件和软件。硬件即具备储存、运算能力的芯片,以及获取外部数据信息的传感器;软件则为用以计算的大数据。这里我们着重分析硬件部分的智能芯片。1、智能芯片按技术架构来看,智能芯片可分为通用类芯片(CPU、GPU、FPGA)、基于FPGA的半定制化芯片、全定制化AS1.C芯片、类脑计算芯片(IBMTUreNorth)。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。因此以CPU、GPU、FPGA'AS1.C和类脑芯片为代表的计算芯片以高性能计算能力被引入深度学习。AI半导体分类IntoqrafdAt1.pAM资料来源:谷歌,凯联资本投研部2017年各AI企业公开芯片敷据4MIA*M(W)<GOPS)(GOPtZW)M*Xt4WRSIO1000100GPUWVDIAMwnTX1.OiNftftNN2402120090GPUWIDIATUUP1.OOCNNftRNNMwk1.dIa)45000250GPUNVIDIATeUMOCNWNNFMOa28120000500GPUWVID1.ATeUV1001.¼2MHzCNNftftNN5022000MOGPUNVK)IATeSteXCNN&RNNW*kSa20200000100OOGPUMVIDIAXMrCNWNNGoogK4086000021500ASIC2811ma700MK/CNWNNArtxxwStMeUnMnty2U645.25M1.4FPGAAtmGXI1.SOO1.SOmTMTT027842必2ASK65MInMMrwdX4<M×>0ASIC16nm资料来源:中国科学院自动化研究所,凯联资本投研部(1)GP大规模数据量下,传统CPU运算性能受限。遵循的是冯诺依曼架构,其核心就是:存储程序,顺序执行。随着摩尔定律的推进以及对更大规模与更快处理速度的需求的增加,CPU执行任务的速度受到限制。GPU在计算方面具有高效的并行性。用于图像处理的GPU芯片因海量数据并行运算能力,被最先引入深度学习。CPU中的大部分晶体管主要用于构建控制电路(如分支顼测等)和Cache,只有少部分的晶体管来完成实际的运算工作。GPU与CPU的设计目标不同,其控制电路相对简单,而且对Cache的需求较小,所以大部分晶体管可以组成各类专用电路和多条流水线,使GPU的计算速度有了突破性的飞跃,拥有惊人的处理浮点运算的能力。GPU与CPU结构对比(2)FPGAFPGA(可编程门阵列,Fie1.dProgrammab1.eGateArray)是一种集成大量基本门电路及存储器的芯片,最大特点为可编程。可通过烧录FPGA配置文件来来定义这些门电路及存储器间的连线,从而实现特定的功能。此外可以通过即时编程烧入修改内部逻辑结构,从而实现不同逻辑功能。FPGA具有能耗优势明显、低延时和高吞吐的特性。不同于采用冯诺依曼架构的CPU与GPU,FPGA主要由可编程逻辑单元、可编程内部连接和输入输出模块构成。FPGA每个逻辑单元的功能和逻辑单元之间的连接在写入程序后就已经确定,因此在进行运算时无需取指令、指令译码,逻辑单元之间也无需通过共享内存来通信。因此,尽管FPGA主频远低于CPU,但完成相同运算所需时钟周期要少于CPU,能耗优势明显,并具有低延时、高吞吐的特性。FPGA结构图资料来源:谷歌,凯联资本投研部(3)ASICASIC芯片是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能'低功耗的移动端。谷歌的TPU,寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。其缺点在于开发周期长、投入成本大,一般公司难以承担。张量处理器(tensorprocessingunit,TPU)是GOog1.e为机器学习定制的专用芯片(AS1.C),专为Goog1.e的深度学习框架TenSorF1.OW而设计。与GPU相比,TPU采用低精度(8位)计算,以降低每步操作使用的晶体管数量.降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。Goog1.e在2016年首次公布了TPU。2017年公布第二代TPU,并将其部署在GoogIe云平台之上,第二代TPU的浮点运算能力高达每秒180万亿次。AI芯片主要性能对比芯片奏型GPUFPGAASICNvidiaTitanXVirtexU1.trasca1.e440Bitfury16nmARMCortex-A9灵活姓高高½高中高高低中中高依高中低.舟*本低中高低制练搏名123加名321一±M关伟达关钟尔、春灵必英特尔、ARM谷歌资料来源:学术论文,凯联资本投研部2、智能芯片架构架构创新是解决成本不断上涨的关键。随着市场对芯片计算能力的需求提高,芯片制造工艺也在不断提高,与之而来的是芯片制造成本不断涨高,解决这个问题的关键则是架构创新。目前AI芯片主要架构有CPU+GPU、CPU+FPGA、CPU+ASIC等。主流AI处理器的制程和架构AI<三B5XCambncoo1.A未久纪IOnm计算相已a>汉用.0代冷*玲及970隼力。电IOnmFmFET4A7344A53*冬¥习.AJa用<14W总8454X1.1.Onm1.PCCPU:4xA73A<4xAS3.GPU:AdrcnoX三汽QMCPU幡7.MMG7246«.A1.a分.X41eEXynO$9610x<三星IOmIPPMP18G>文笑格的8楠8U,V(a*"人晚除用DRIVEXevK吴偈理12mFNGPU1.oftInte1.14nm1284'neuromorpNcCore.3个以MKM及朴,X86抬7*X1.iRK3399Probig.irmc大小MCpU.eKARM版*GPU2T860K8<tt.><tr.xt习rtt÷.0X4NeuopotMt.”APU.I1.1.J1.4AI震构力井速Jtrttx财XtCt<wMU<华JIW0<<28nm4CPU铉KBA.计算机此£4u0.MQ心40nm也十4一代BPU«©为期府Ir位XttRiftua0女资料来源:电子发烧友,凯联资本投研部3、智能芯片的应用深度学习主要分为训练和推断两个环节:在数据训练(training)阶段,大量的标记或者未标记的数据被输入深度神经网络中进行训练,随着深度神经网络模型层数的增多,与之相对应的权重参数成倍的增长,从而对硬件的计算能力有着越来越高的需求,此阶段的设计目标是高并发高吞吐量。推断(inference)则分为两大类一一云侧推断与端侧推断,云侧推断推断不仅要求硬件有着高性能计算,更重要的是对于多指令数据的处理能力。就比如Bing搜索引擎同时要对数以万计的图片搜索要求进行识别推断从而给出搜索结果;端侧推断更强调在高性能计算和低功耗中寻找一个平衡点,设计目标是低延时低功耗。因此从目前市场需求来看,人工智能芯片可以分为三个类别:1)用于训练(training)的芯片:主要面向各大A1.企业及实验室的训练环节市场。目前被业内广泛接受的是"CPU+GPU"的异构模式,由于AMD在通用计算以及生态圈构建方面的长期缺位,导致了在深度学习GPU加速市场NV1.D1.A一家独大。面临这一局面,谷歌今年发布TPU2.0能高效支持训练环节的深度网络加速。我们在此后进行具体分析;2)用于云侧推断(inferenCeonC1.oud)的芯片:在云端推断环节,GPU不再是最优的选择,取而代之的是,目前3A(阿里云、Amazon、微软AZUre)都纷纷探索"云服务器+FPGA"模式替代传统CPU以支撑推断环节在云端的技术密集型任务。但是以谷歌TPU为代表的ASIC也对云端推断的市场份额有所希翼;3)用于端侧推断(inferenceondevice)的芯片:未来在相当一部分人工智能应用场景中,要求终端设备本身需要具备足够的推断计算能力,而显然当前ARM等架构芯片的计算能力,并不能满足这些终端设备的本地深度神经网络推断,业界需要全新的低功耗异构芯片,赋予设备足够的算力去应对未来越发增多的人工智能应用场景。我们预计在这个领域的深度学习的执行将更多的依赖于ASIC。

    注意事项

    本文(信息技术:人工智能产业链深度解读.docx)为本站会员(夺命阿水)主动上传,课桌文档仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知课桌文档(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000986号

    课桌文档
    收起
    展开