欢迎来到课桌文档! | 帮助中心 课桌文档-建筑工程资料库
课桌文档
全部分类
  • 党建之窗>
  • 感悟体会>
  • 百家争鸣>
  • 教育整顿>
  • 文笔提升>
  • 热门分类>
  • 计划总结>
  • 致辞演讲>
  • 在线阅读>
  • ImageVerifierCode 换一换
    首页 课桌文档 > 资源分类 > DOCX文档下载  

    边缘计算与人工智能融合的新范式.docx

    • 资源ID:1446473       资源大小:231.59KB        全文页数:18页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    边缘计算与人工智能融合的新范式.docx

    边缘计算与人工智能融合的新范式(边缘智能)摘要:边缘计算与人工智能这两种高速发展的新技术之间存在着彼此赋能的巨大潜力。通过3个研究案例,展示协同边缘计算和人工智能这两种技术如何促进各自的进一步发展。从边缘计算赋能人工智能的维度,针对深度学习模型在网络边缘侧的部署,提出了基于边端协同的深度学习按需加速框架,通过协同优化模型分割和模型精简策略,实现时延约束下的高精度模型推理。从人工智能赋能边缘计算的维度,针对边缘计算服务的放置问题,提出了基于在线学习的自适应边缘服务放置机制和基于因子图模型的预测性边缘服务迁移方法。关键词:边缘计算;人工智能;边缘智能;服务迁移1引言近年来,随着全球范围内社会经济与科学技术的高速发展,信息通信技术(informationcommunicationstechnology,ICT)产业不断地涌现出了许多新兴技术。其中,有两种代表性技术被广泛认为对人类经济社会产生了巨大的推动力与深远的影响力。其一,作为人工智能领域代表性技术的深度学习,受益于算法、算力和数据集等方面的进步,近年来得到了突飞猛进的发展,并在无人驾驶、电子商务、智能家居和智慧金融等领域大展拳脚,深刻改变了人们的生活方式,提高了生产效率。而另外一种技术则为从传统的云计算技术演化发展而来的边缘计算技术,相比于云计算,边缘计算将强计算资源和高效服务下沉到网络边缘端,从而拥有更低的时延、更低的带宽占用、更高的能效和更好的隐私保护性。然而,鲜为人知的是,人工智能和边缘计算这两种具有划时代意义的新技术目前正面临着各自进一步发展的瓶颈。一方面,对于深度学习技术而言,由于其需要进行高密度的计算,因此目前基于深度学习的智能算法通常运行于具有强大计算能力的云计算数据中心。考虑到当下移动终端设备的高度普及,如何将深度学习模型高效地部署在资源受限的终端设备,从而使智能更加贴近用户与物端,解决人工智能落地的“最后一公里”这一问题已经引起了学术界与工业界的高度关注。另一方面,对于边缘计算而言,随着计算资源与服务的下沉与分散化,边缘计算节点将被广泛部署于网络边缘的接入点(如蜂窝基站、网关、无线接入点等)。边缘计算节点的高密度部署也给计算服务的部署带来了新的挑战:用户通常具有移动性,因此当用户在不同节点的覆盖范围间频繁移动时,计算服务是否应该随着用户的移动轨迹而迁移?显然,这是一个两难的问题,因为服务迁移虽然能够降低时延从而提升用户体验,但其会带来额外的成本开销(例如带宽占用和能源消耗)。幸运的是,人工智能和边缘计算各自面临的发展瓶颈可以通过它们二者之间的协同得到缓解。一方面,对于深度学习而言,运行深度学习应用的移动设备将部分模型推理任务卸载到邻近的边缘计算节点进行运算,从而协同终端设备与边缘服务器,整合二者的计算本地性与强计算能力的互补性优势。在这种方式下,由于大量计算在与移动设备邻近的具有较强算力的边缘计算节点上执行,因此移动设备自身的资源与能源消耗以及任务推理的时延都能被显著降低,从而保证良好的用户体验。另一方面,针对边缘计算服务的动态迁移与放置问题,人工智能技术同样大有可为。具体而言,基于高维历史数据,人工智能技术可以自动抽取最优迁移决策与高维输入间的映射关系,从而当给定新的用户位置时,对应的机器学习模型即可迅速将其映射到最优迁移决策。此外,基于用户的历史轨迹数据,人工智能技术还可以高效地预测用户未来短期内的运动轨迹,从而实现预测性边缘服务迁移决策,进一步提升系统的服务性能。总体而言,边缘计算和人工智能彼此赋能,将催生“边缘智能”的崭新范式,从而产生大量创新研究机会。本文将简要介绍笔者研究团队在融合边缘计算与人工智能两个方向上的初步探索。首先,从边缘计算赋能人工智能的维度出发,为了在网络边缘侧高效地运行深度学习应用,本文提出了一个基于边端协同的按需加速深度学习模型推理的优化框架一一Edgento为了实现降低模型推理时间,并按需保障模型精确率的双重目标,Edgent采取以下两种优化策略:深度学习模型分割,自适应地划分移动设备与边缘服务器之间的深度神经网络模型计算量,以便在较小的传输时延代价下将较多的计算卸载到边缘服务器,从而降低整体端到端时延;深度学习模型精简,通过在适当的深度神经网络的中间层提前退出,进一步减小计算时延。其次,从人工智能赋能边缘计算的维度出发,针对边缘计算服务的动态迁移与放置问题,本文首先提出了一种用户自适应管理的在线服务放置机制。该机制能够通过在线学习(onlinelearning)人工智能技术自适应复杂的用户行为和多变的边缘网络环境,从而辅助用户做出高效的服务迁移决策。最后,本文还将展示如何使用因子图模型(factorg11phmodel)这一新兴人工智能技术实现用户位置预测,从而改善边缘服务动态迁移决策的质量。2边缘计算驱动实时深度学习作为人工智能领域的主流技术之一,深度学习近年来得到了学术界与产业界的大力追捧。由于深度学习模型需要进行大量的计算,因此基于深度学习的智能算法通常存在于具有强大计算能力的云计算数据中心。随着移动终端和物联网设备的高速发展与普及,如何突破终端设备资源限制,从而将深度学习模型高效地运行在资源受限的终端设备这一问题已经引发了大量关注。为解决这一难题,可考虑边缘计算赋能人工智能的思路,利用边缘计算就近实时计算的特性,降低深度学习模型推理的时延与能耗。2.1 问题描述常见的深度学习模型(如深度卷积神经网络)是由多层神经网络相互叠加而成的.不同网络层的计算资源需求以及输出数据量都具有显著的差异性,那么一个直观的想法是将整个深度学习模型(即神经网络)切分成两部分,其中计算量大的一部分卸载到边缘端服务器进行计算,而计算量小的一部分则保留在终端设备进行本地计算。显然,终端设备与边缘服务器协同计算的方法能有效降低深度学习模型的计算时延。但是,选择不同的模型切分点将导致不同的计算时间,需要选择最佳的模型切分点,从而最大限度地发挥终端与边缘协同的优势。除了对模型进行切分外,加速深度学习模型推断的另一手段为模型精简,即选择完成时间更快的“小模型”,而不是选择对资源需求更高的“大模型”。对于任意的深度学习任务,可以离线训练生成具有多个退出点的分支网络,退出点越靠后,模型越“大”,准确率也越高,但相应地推断时延也越大。因此,当深度学习任务的完成时间比较紧迫时,可以选择适当地牺牲模型的精确度,以换取更优的性能(即时延)。值得注意的是,此时需要谨慎权衡性能与精度之间的折中关系。综合运用上述模型切分和模型精简两种方法调整深度学习模型推断时间的优化手段,并小心权衡由此引发的性能与精度之间的折中关系,本文定义如下研究问题:对于给定时延需求的深度学习任务,如何联合优化模型切分和模型精简这种方法,使得在不违反时延需求的同时最大化深度学习模型的精确度。2.2 优化框架针对上述问题,笔者团队提出了基于边缘与终端协同的深度学习模型推断优化框架Edgent。如图1所示,Edgent的优化逻辑分为3个阶段:离线训练阶段、在线优化阶段以及协同推断阶段。图1基于边缘与终端协同的深度学习模型运行推断优化框架Edgem上述基于边缘服务器与终端设备协同的深度学习模型推断框架的设计思路为:在离线阶段,训练好满足任务需求的分支网络,同时为分支网络中的不同神经网络层训练回归模型,以此估算神经网络层在边缘服务器与在终端设备上的运行时延;在在线优化阶段,回归模型将被用于寻找符合任务时延需求的退出点以及模型切分点;在协同推断阶段,边缘服务器和终端设备将按照得出的方案运行深度学习模型。(1)离线训练阶段在离线训练阶段,Edgent需要执行以下两个初始化操作:分析边缘服务器与终端设备的性能,针对不同类型的深度学习模型网络层(如卷积层、池化层等)生成基于回归模型的时延估算模型。在估算网络层的运行时延时,Edgent会对每层网络层进行建模,而不是对整个深度学习模型进行建模,不同网络层的时延是由各自的自变量(如输入数据的大小、输出数据的大小)决定的,基于每层的自变量,可以建立回归模型,估算每层网络层的时延;训练带有多个退出点的分支网络模型,从而实现模型精简。这里笔者采用BranchyNet分支网络结构,在BranChyNet的结构下,可以设计并训练生成带有多个退出点的分支网络。需要注意的是,性能分析取决于设备(例如手机、VR头盔和智能手表等不同设备在运行同一深度学习模型时的性能表现不同),而深度学习模型是取决于应用的(例如物体识别和物体分类等不同计算机视觉应用对应的深度学习模型不同),因此在给定深度学习应用以及设备(即限定边缘服务器与终端设备)的情况下,以上两个初始化操作在离线阶段只需要完成一次。(2)在线优化阶段这个阶段的主要工作是利用离线训练的回归模型在分支网络中找出符合时延需求的退出点以及模型分割点。因为要最大化地给出方案的准确率,所以在该阶段中,笔者从最高准确率的分支开始,迭代地找出符合需求的退出点和切分点。在这个过程中,Edgent实时测量当前移动终端与边缘服务器之间链路的网络带宽,以便估算移动终端与边缘服务器间的数据传输时延。紧接着,Edgent沿着尺寸从大到小的网络分支,依次遍历每个网络分支上不同的分割点,并基于当前网络带宽和不同网络层计算时间估算所选分支网络与分割点对应的端到端时延与模型精确度。在遍历完所有的分支网络与切分点后,Edgent输出满足时延需求的所有网络分支与切分点组合中具有最大精确度的一个组合。(3)协同推断阶段在协同推断阶段,根据在线优化阶段输出的最优网络分支与切分点组合,边缘服务器与移动终端对深度学习模型进行协同推断。实验表明,Edgent在提升深度学习应用实时性能方面表现优异,能在不同的计算时延需求下,实现高精度的模型推理(具体实验结果请见参考文献)。3基于在线学习的自适应边缘服务放置机制基于人工智能赋能边缘计算的思路,针对边缘计算服务的动态迁移与放置问题,笔者接下来介绍一种用户自适应管理的在线服务放置机制。该机制利用人工智能的在线学习技术,针对复杂的用户行为和多变的边缘网络环境进行自适应学习,从而辅助用户做出高效的服务迁移决策。3.1 问题描述尽管边缘计算能解决用户资源受限和云计算中时延过大的问题,但由于边缘节点服务覆盖范围较小,用户的移动将对服务质量产生极大的影响。如图2所示,当用户从一个边缘节点服务区域移动至其他的节点服务区域时,需考虑是否进行服务迁移,以保证满意的服务质量。一方面,用户可以选择继续让服务在原边缘节点进行处理,通过边缘节点之间的数据传输保证服务的连续性。另一方面,用户可以选择服务迁移,以此减小端到端时延。前者可能由于过长的网络距离导致较大的传输时延,后者则引入了服务迁移导致的额外开销。同时由于用户的个性化需求,不同的服务种类和迁移开销也增加了服务放置的难度,例如轻量级的应用用户更倾向于本地处理,计算密集型应用用户更倾向于云服务器处理,计算密集型且时延敏感型的应用用户更倾向于边缘服务器处理。为此,笔者提出了一种基于在线学习的自适应边缘服务放置机制,该机制可以有效地权衡时延与迁移代价之间的折中关系。图2边缘网络中的用户移动示意3.2 基于在线学习的自适应边缘服务放置算法服务放置策略的制定通常与用户行为特性和网络环境有关。其中,行为特性主要包括用户的移动模型、请求服务的种类以及个人偏好等因素,网络环境主要包括边缘网络可用的资源、节点之间的传输带宽等因素。对于用户来说,其当前时刻的行为特性是已知的,而网络环境是透明的。用户自适应管理机制通过在线学习的方式,根据用户的历史决策数据对动态网络环境的相关参数进行评估。随着环境探索次数的增加,用户对网络参数的评估也会愈发精准,进而优化其服务放置策略。为了方便刻画用户移动过程中的一系列决策行为,笔者将连续的时间段划分为一系列小的离散片段,在每个离散的时间片段中,用户确定当前的服务放置策略,同时用户行为和动态网络环境在该片段内保持不变。为了有效地衡量边缘网络中的用户服务质量,笔者分别从用户可感知时延和服务迁移代价两方面进行研究。用户可感知时延从所需的计算时延和通信时延两部分进行考虑。计算时延主要取决于所需处理的请求服务数据量大小和放置节点的可用计算资源,如CPU的运算速度。通信时延主要由用户当前的接入时延和传输时延两部分构成。其中,接入时延主要取决于当前用户的位置和边缘路由器的状态。通常来说,为了减少通信能耗,用户将选择与最近的边缘路由器进行连接。而传输时延与网络状态(如边缘节点之间的带宽)、网络距离有关。服务迁移产生的额外运行代价(如带宽资源的占用等)主要取决于上一时刻和当前时刻的节点选择。由此,可以通过计算式(I)刻画用户的服务质量:IDl(11t)+2D2(11t,yt)+3S(11t-l,11t)(1)其中,7rt-l、11t分别表示上一时刻和当前时刻的服务放置决策(即在每一时刻t动态决策当前服务应当放置在云端服务器或某个边缘服务器),yt表示用户当前的位置,col、co2、3(N0)分别为计算时延D1、通信时延D2和迁移代价S的非负权重参数,权重参数的设定与用户的个人偏好和服务种类有关:权重参数越大,表明对应时延或迁移代价的重要性越高。如果可对未来长期时间T的用户行为特征和网络状态进行精准预测,那么就可以通过动态规划的方法求得长期服务的线下最优策略。然而在实际环境中,难以对以上用户和网络信息进行精准预测,同时对于每个决策时刻而言,由于缺少对网络环境参数的了解,用户收集系统信息将消耗额外的通信代价。基于给定的优化目标,即用户服务质量,如何在未知后期用户行为和网络环境的情形下优化一系列服务放置决策,从而最小化可感知时延和服务迁移代价呢?针对此问题,笔者提出的自适应边缘服务放置机制将通过在线学习方法一上下文多臂老虎机(contextualmulti-armedbandit)不断探索动态系统,进而根据累计的历史数据分析评估整体的动态网络环境,为后续的放置策略制定提供更准确的评估。在每个离散时间片段的开始,用户将收集服务请求的行为特征,并用向量b(t)=lt,21.t,311t-l三,其中包含当前用户请求服务处理量的大小人t、用户实时位置1.t以及上一时刻服务放置策略冗皿。之后用户结合动态网络中可行放置策略八的网络估计参婺U11t与行为特征b(t)对放置策略nt产生的代价c0=b(t)TH进行汤普森采样(ThOmPSOnsampling)评估,从中选取代价最小的策略作为最终的放置策略。在该时间片段的末尾,用户将获得放置策略兀t的服务质量表现ent,同时自适应管理机制将利用时间片段内的所有信息,更新用户行为特征和放置策略与服务质量表现之间的潜在关系,即服务放置策略的网络参数,具体算法如下。算法1:基于在线学习的自适应服务放置算法。初始化网络中计算节点i相应的用户特征Bi=I、网络估计参数i=0以及其累积的上下文代价fi=0o对于每一个时间片段t=l,2,-,T,执行以下操作。根据计算节点i的网络参数Ui,再结合当前的用户特征b(t),依据汤普森采样评估其相应的代价心。选择其中最小估计代价与;,的计算节点“作为当前的服务放置策略,并在G*时间片段的末尾收到相应的服务质量表现tO更新选择计算节点气相应的用户特征,3则'”则Z以及其网络估计参数阳=稣。1.4笔者对车辆在边缘网络中随机行驶的场景进行了模拟,以此对所提框架的有效性进行验证。图3记录了基于在线学习的自适应边缘服务放置机制在不同时间片段下的服务质量表现,并同时与已知长期所有信息下的理论最优放置策略进行了比较。从结果可以看出,随着时间的增加,所提机制不断逼近最优的放置策略,这表明通过在线学习的方式能有效地优化策略制定。-理论最优放置策略自适应边缘服务放置策略1.21.00.80.602,557.51012.51517.520图3自适应服务放置策略与理论最优放置策略对比4基于因子图模型的预测性边缘服务迁移前文介绍的基于在线学习的自适应边缘服务放置机制主要利用用户的统计性历史信息,接下来介绍另一种利用用户的预测性信息进行边缘服务放置优化的方法。具体而言,笔者首先利用因子图模型对用户的位置进行预测,进而设计基于位置预测的边缘服务迁移算法。4.1 基于因子图模型的用户位置预测为了进行精准的位置预测,笔者从用户的历史信息中提取了多个维度的特征,如不同时刻的时间、位置、网络状态以及社交频率特征等,并使用因子图(factorgraph,FG)模型将其有效地整合到一个统一的框架之中。用户在t时刻的时间特征、社交频率特征以及网络状态特征分别用小公和砾表示。位置信息用yt表示。其中,时间特征为从时间戳中得到的用户的时间信息(比如具体时刻、工作日或者周末等),社交频率特征则是对用户在该时段内各种社交行为特征(比如发布推文、刷新推文、转发推文、预览多媒体视频、观看多媒体视频等)分别进行频率计算得到的数据。网络状态特征是指用户当前所处的网络状态(Wi-Fi、蜂窝网络或者无网络连接)。空间位置信息即用户所处的具体位置。如图4所示,在同一时刻(例如t时刻),用户不同类型的特征与位置之间的关联可以用片g章JW>进行刻画,其中ih,s,n,h、s、n分别代表时间特征、社交频率特征以及网络状态特征。相邻时刻之间的位置关联用w(yt-l,yt)表征,yt-1和yt分别代表用户在M和t时刻的位置信息。因子图模型可以很好地捕捉不同类型特征之间的关联,通过使用置信传播算法对该模型进行训练,最终,可以通过最大化后验概率的方法获得用户下一时刻最有可能出现的位置。图4面向用户位置预测的因子图模型同时,由于不同用户的有效特征具有较强的差异性,笔者利用ReliefF(RF)算法对提取的特征进行了用户个性化筛选,以取得更好的预测效果。4.2 基于位置预测的边缘服务迁移方法在保证较低的服务时延的要求下,服务应该根据用户的移动性在不同的基站之间进行动态的迁移,然而频繁的服务迁移会带来巨大的代价(如额外的网络带宽使用和电力资源消耗)。因此,要考虑在给定长期成本预算C的情况下(T个时刻的预算)如何进行服务迁移决策,才能最小化用户总时延。该问题可以表示为:min£s(p,力t=lTs.t.yjc(pt1,pf)dt<C(3)£=10,l(4)其中,Pt和yt分别表示服务和用户在t时刻的位置,出表示在t时刻是否进行服务迁移的决策。C(Pt-I,pt)为服务迁移所需的代价,这和带宽以及pt-1和pt之间的地理距离有关。用户在t时刻感知到的时延用S(P1.yt)表示。这一问题的关键是每一时刻下的迁移决策Jto一个具体的例子是,若用户在t时刻从位置a移动到位置b,在t+1时刻又返回到位置a,那么在t时刻是否需要服务迁移呢?如果无法预知用户下一时刻的位置,一种最简单直接的方法就是让服务一直跟随用户进行迁移,这样虽然能够保证用户的服务质量,但是会带来巨大的服务迁移代价。当能够预知用户下一时刻的位置时,考虑到长期预测的限制,便能够在t时刻进行更加明智的决策,以避免服务反复迁移带来的代价。这一例子充分体现了位置预测在迁移决策过程中的重要性,因此笔者考虑了基于位置预测的个性化服务迁移。4.3预测性延迟迁移算法首先,笔者构思了延迟迁移(lazymigration,1.M)算法。该算法通过“向后看”,对当前时刻进行服务迁移所需的成本和从上一迁移时刻到目前累积的非迁移时延进行权衡,进而决定是否迁移。如果累积时延不超过当前的迁移代价,那么将一直延迟服务的迁移。进一步地,利用预测的用户下一时刻的位置信息,笔者对算法进行了改进。在进行累积时延和迁移代价的权衡之前,笔者引入了一种“向前看”的机制。考虑到用户未来可能的时延比过去的时延更具有决策的指导意义,笔者首先通过“向前看”估计用户当前时刻和下一时刻可能会感知到的时延,并和当前迁移代价进行权衡。如果预知到在不迁移情况下,用户接下来两个时间片的时延很大,则直接进行服务的迁移,否则就使用延迟迁移算法进行决策,这就是预测性延迟迁移(PrediCtiVelaZymigration,P1.M)算法,见算法2。算法2:预测性延迟迁移算法。输入:用户的位置集合Y=yl,y2,,yT,预测的下一位置集合Z=zl,z2,zT,向前看参数UI和向后看参薮U2。输出:用户访问总时延和总迁移代价。算法过程:初始化t-l,m-yl,S-0,C-0T-1./*上次迁移的时间*fort=1,2,3,Tdoifytmthenifc(m,yt)<U1(s(m,yt)+s(m,zt)thenm-yt;T=t;CC+c(m,yt);elseifc(m,yt)<252(m,y,)thenv-m*-yt=t;C*-C+c(m,yt);elseS-S+s(m,yt);endifendifendifendfor图5展示了在不同预算限制下,笔者提出的算法相较于不迁移情况下的时延减少率。延迟迁移算法(1.M非预测性和P1.M预测性)由于考虑了非迁移情况下的服务时延和迁移情况下的服务代价之间的权衡,相比于已有参考文献的非预测性分期偿还(OriginaIamOrtiZation,OA)算法和预测性分期偿还(predictiveamortization,PA)算法,能够显著降低服务总时延。同时,P1.M算法相较于1.M算法降低了13%的服务时延。该实验结果表明,利用精准的位置预测,笔者能够进行更加明智的服务迁移决策,从而减少用户感知到的服务时延,提升用户的服务质量。IO3050成本预算/美元70x¼-o/Oooooo654321奖÷区5?O图5不同迁移代价约束下的延迟减少率5结束语本文初步探讨了如何通过协同边缘计算和人工智能这两种高速发展的新技术解决它们各自发展面临的难题。具体而言,从边缘计算赋能人工智能的视角,针对深度学习在终端设备高效部署的“最后一公里”难题,本文介绍了基于边端协同的按需加速深度学习模型推理的优化框架,通过协同优化模型分割和模型精简这两种不同的策略,实现时延约束下的高精度模型推理。另外,从人工智能赋能边缘计算的视角,针对边缘节点大规模高密度部署带来的服务动态迁移问题,本文分别介绍了基于在线学习的自适应边缘服务放置机制以及基于位置预测的边缘服务迁移方法。未来,边缘智能作为边缘计算和人工智能彼此赋能的崭新范式,将催生大量的创新研究机会,在智能物联网、智能制造、智慧城市等众多领域具有广泛的应用前景。附参考资料:协作边缘计算:人工智能计算新范式云计算是一种计算范式,它把物联网(IoT)设备(手机、可穿戴设备、智能家电、智能汽车等)产生的数据收集到远程云数据中心,并通过相关算法(例如人工智能模型)来分析数据并提供服务。过去十年,云计算已成为人工智能应用的关键使能技术,为智能医疗、智能家居,智能交通等诸多应用赋能。然而,由于大量数据传输到远程云端,云计算存在响应延迟长、带宽成本高等问题。除此以外,部分数据私密程度较高,如医院、银行、个人手机数据等。传输这些数据到云计算中心容易造成隐私泄露风险。为了解决以上问题,边缘计算(EdgeCOmPUting)的概念在近几年被提出。它是一种将计算和资源放在网络的边缘,在更靠近数据源的边缘节点(例如智能手机、边缘网关、边缘服务器、基站等)上处理数据的一种计算范式,能够为新时代的多种人工智能应用提供更低时延和更安全的服务。服务从云平台到边缘节点的这次迁移,也代表了计算模式的新一次蜕变。20世纪70年代,大型机(MainframeComputing)是主流的计算设备。其体积巨大,甚至能占据整栋办公楼。到了80年代,个人电脑(PC)开始出现,我们用个人电脑处理日常数据。新世纪后,以亚马逊2005年发布云服务为标志,我们进入到了云计算时代。云计算代表着一种以算力为核心的新的生产力,深刻改变了我们的生产生活。但是云计算难以支持时延和隐私要求高的应用,因此就有了边缘计算,它最早的雏形可以追溯到内容分发网络(CDN),即将数据缓存在靠近用户的地方以提供更快的响应速度。边缘计算前景广阔,它是使能万物互联的核心技术,许多政府和机构都将其视为新型数字基础设施的重要部分。思科预测,到2025年,75%的物联网数据将在边缘设备和节点上生成和处理。高德纳咨询公司(Gartner)也预计边缘计算将成为技术革新和产业升级的重要驱动力。在过去几年里,边缘计算领域有很多的研究和应用。比如说,在智慧家居场景中利用边缘控制器(边缘网关、微程序控制器等)智能地控制台灯和电视的开关、调节冰箱的温度和工作模式等。智能视频监控也受益于边缘计算。传统的基于云的解决方案需要将视频上传到云服务器,利用人工智能模型分析这些数据,然后发回响应。它会导致长时间的响应延迟和隐私问题。通过边缘计算,原始视频数据可以由部署在边缘节点上的人工智能模型进行处理,从而节省带宽成本并实现实时响应。然而,现有的边缘计算依然不足以支撑一些高级的人工智能应用。这些应用对服务质量有一些新的要求。一是超低时延,比如自动驾驶场景下时延要低于5亳秒;二是大规模的应用部署,用于连接大量的物联网设备,比如智能制造下大量工业元器件的监测和控制、虚拟现实/增强现实(VR/AR)和元宇宙场景下在不同区域的海量用户同时在线互动;三是移动场景下的动态接入,比如智能车和智能手机;四是可靠的服务供应。现有的工作侧重于单个边缘节点的功能及其与云和终端设备的协作。主要有以下两方面的不足:(1)边缘节点之间缺乏协作。现有的工作忽视了分布在不同区域的边缘节点之间的横向协作,导致边缘资源的利用未得到优化、服务区域的覆盖范围受到限制以及可扩展性有限,使得性能不均匀。(2)缺乏对人工智能应用程序的支持。不同边缘节点提供商的异构执行环境使应用程序开发和部署变得复杂,导致服务质量和应用程序性能较差。目前缺乏统一的应用执行环境和应用接口。此外,边缘资源是受限的、异构的,资源感知的人工智能模型训练和推理机制需要进一步研究。新范式:协作边缘计算针对目前存在的问题,我们提出了一种新范式以支持新型的高级人工智能应用协作边缘计算(CEC)o如图1所示,来自不同利益相关者(参与方)的边缘节点和云服务器等计算节点通过Wi-Fi、基站、边缘网关等通信设备相互连接,共同构建跨边缘网络的联邦资源池,协同执行计算任务,从而为应用提供服务。协作边缘计算致力于实现计算节点和设备之间的广泛协作,不仅包括云、边、端设备之间的纵向协作,也包括边缘节点之间的横向合作。协作边缘计算是一种新的计算基础设施,用户可以接入边缘网络并即时访问计算能力、数据处理和人工智能服务。针对物联网和人工智能应用,提供数据处理和计算服务图1协作边缘计算赋能的人工智能应用相比于传统的边缘计算,协作边缘计算具有以下优点:(1)扩大的资源池。人工智能应用通常需要大量的计算资源,但受到设备体积和功耗的限制,边缘节点的计算能力通常有限,难以处理大量的人工智能应用计算需求,从而影响服务体验。在协作边缘计算中,大量的边缘计算节点和云服务器相互连接,共享资源,从而使得资源池变大,更好地处理资源贪婪和计算密集型的人工智能应用。(2)扩展的服务区域。受到通信能力和距离的限制,单个边缘节点的服务范围通常有限。在协作边缘计算中,分布在不同区域的计算节点连接起来共同提供计算服务,使得应用的服务范围变大,更适合需要大规模部署的应用。(3)统一的服务标准。在传统边缘计算中,边缘节点通常来自不同的参与方,比如中国移动、电信等运营商,华为云、阿里云等云厂商。不同的参与方通常有自己的一套服务标准,部署在方计算节点的应用很难在线迁移到另一方。协作边缘计算致力于连接这些由不同参与方拥有的计算节点,提供统一的服务,使得用户和开发者专注于应用的核心功能和业务逻辑,而不必担心应用的部署问题。(4)高效的人工智能服务。边缘计算节点经常是资源受限的、异构的,并且分布在不同的区域。这给人工智能模型的训练和推理造成了困难。协作边缘计算致力于为人工智能应用提供高效的训练和推理支持,简化人工智能模型的开发和部署。协作边缘计算的挑战要想实现协作边缘计算的愿景,需要解决许多科学挑战,包括可扩展的资源管理方案、准确高效的网络测量和算力度量、大规模高性能的任务调度,以及用户友好的人工智能运行时支持。(1)可扩展的资源管理。如何在地理分布区域的众多边缘节点上管理资源并部署应用程序?现有方法通常使用集中式资源管理,如业界广泛采用的Kubernetes华为开发的KUbeEdge、阿里云开发的OPenYUrt等。集中式的资源管理采用一个中心化的控制器去感知分布式的资源并作出管理决策,但是其可扩展性有限,难以管理大规模的分布式边缘节点。此外,边缘节点可能属于不同的利益相关者,集中管理会导致可信度和隐私问题。(2)网络测量和算力度量。如何高效准确地测量网络和算力资源以支持智能的计算任务调度?网络测量(如带宽、网络拓扑、丢包率等)和算力度量(如计算能力强弱、资源多寡、资源使用率等)是在不同计算点间分配计算任务的基础。但是边缘节点是资源异构的,且经常位于异构网络中,这给准确高效的网络测量和算力度量带来了困难。(3)大规模高性能任务调度。边缘节点需要共享资源来执行协同计算任务。如何智能调度边缘资源来满足应用的性能需求?现有的集中式任务调度导致大规模边缘节点的任务调度算法开销较高。当前也有一些去中心化的方法,但是去中心化的方法只能感知局部网络资源,导致调度性能较差。设计高效、高性能的任务调度解决方案至关重要。(4)人工智能应用的通用编程和运行时支持。协作边缘计算旨在支持各种人工智能赋能的应用程序。然而,边缘资源异构,人工智能模型训练和推理范式多种多样。如何设计通用的编程模型并提供资源感知的运行时支持以实现高效的人工智能模型训练和推理是一个新的挑战。协作边缘计算是一种新型的计算范式,它通过整合云端边计算节点的计算能力,来协作处理计算任务,以更好地支持新型人工智能应用。协作边缘计算前景广阔,发展潜力巨大。当前,许多政府和机构都在推进新型计算基础设施的建设,主张通过整合无处不在的计算能力来构建城市规模的算力网络。算力网络(CPN)已被列入国家“十四五”规划,协作边缘计算为算力网络提供了一种系统可行的方法。边缘智能一一深度学习和边缘计算随着深度学习的突破,近年来人工智能(AD应用和服务蓬勃发展。在移动计算和物联网进步的推动下,数十亿移动和物联网设备连接到互联网,在网络边缘生成数以亿计的数据字节。在人工智能和物联网的驱动下,迫切需要将人工智能前沿推向网络边缘,充分释放边缘大数据的潜力。为了实现这一趋势,边缘计算是一个很有前途的解决方案,以支持计算密集型人工智能应用在边缘设备上。边缘智能或边缘人工智能是人工智能和边缘计算的结合;它支持将机器学习算法部署到生成数据的边缘设备。边缘智能有可能为任何地方的每个人或组织提供人工智能。一、什么是边缘计算边缘计算的概念是在更靠近需要提高响应时间和节省带宽的位置捕获、存储、处理和分析数据。因此,边缘计算是一种分布式计算框架,它使应用程序更接近物联网设备、本地终端设备或边缘服务器等数据源。边缘计算的基本原理是计算应该发生在数据源附近。因此,我们设想边缘计算可能对我们的社会产生与云计算一样大的影响。边缘计算的概念二、为什么我们需要边缘计算数据在网络边缘生成作为推动人工智能发展的关键驱动力,大数据最近经历了数据源从超大规模云数据中心到日益普及的终端设备(如移动和物联网设备)的根本转变。传统上,网络购物记录、社交媒体内容、商业信息等大数据主要是在超大规模数据中心产生和存储的。然而,随着移动计算和物联网的出现,这种趋势现在正在逆转。如今,大量传感器和智能设备产生海量数据,不断增长的计算能力正在推动计算和服务的核心从云端到网络边缘。今天,超过500亿物联网设备连接到互联网,IDC预测,到2025年,将有800亿物联网设备和传感器在线。思科的全球云指数估计,到2021年,每年将在云之外生成近850ZB的数据,而全球数据中心流量仅为20.6ZBo这表明数据源正在转变从大规模的云数据中心到越来越广泛的边缘设备。同时.,云计算逐渐无法管理这些大规模分布的计算能力并分析它们的数据:资源:通过广域网(WAN)移动大量数据对网络容量和云计算基础设施的计算能力提出了严峻挑战。延迟:对于基于云的计算,传输延迟可能非常高。许多新型应用程序都具有挑战性的延迟要求,而云计算很难始终如一地满足这些要求(例如,协作式自动驾驶)。边缘计算在数据源提供数据处理边缘计算是一种将云服务从网络核心推向网络边缘的范式。边缘计算的目标是尽可能靠近数据源和最终用户托管计算任务。当然,边缘计算和云计算并不相互排斥。相反,边缘补充并扩展了云。边缘计算与云计算相结合的主要优势如下:骨干网络性能:分布式边缘计算节点可以处理许多计算任务,而无需与云交换底层数据。这允许优化网络的流量负载。敏捷服务响应:部署在边缘的应用可以显着降低数据传输的延迟,提高响应速度。强大的云备份:在边缘无法承受的情况下,云可以提供强大的处理能力和海量、可扩展的存储。数据越来越多地在网络边缘产生,在网络边缘处理数据会更有效。因此,边缘计算凭借其减少数据传输、改善服务延迟、缓解云计算压力的优势,成为突破新兴技术瓶颈的重要解决方案。三、边缘智能结合人工智能和边缘计算在边缘生成的数据需要人工智能移动和物联网设备的数量和类型激增,导致产生大量持续感知的设备物理环境的多模态数据(音频、图片、视频)。90-MubWdatacra>dpervar一三8taCMftrafficperVwf70连接的边缘设备创建的数据与在云中处理的数据之间的差距人工智能在功能上是必要的,因为它能够快速分析这些庞大的数据量并从中提取洞察力以进行高质量的决策。Gartner预测,到2022年,超过80%的企业物联网项目将包含人工智能组件。最流行的人工智能技术之一是深度学习,它能够识别模式并检测边缘设备感测到的数据中的异常情况,例如人口分布、交通流量、湿度、温度、压力和空气质量。然后,从感测数据中提取的见解会被提供给实时预测决策(例如公共交通规划、交通控制和驾驶警报),以响应快速变化的环境,从而提高运营效率。什么是边缘智能和边缘人工智能边缘计算和人工智能的结合催生了一个名为“边缘智能”或“边缘人工智能''的新研究领域。边缘智能利用广泛的边缘资源为AI应用程序提供支持,而无需完全依赖云。虽然EdgeAl或Edge智能是一个全新的术语,但这个方向的实践很早就开始了,微软在2009年构建了一个基于边缘的原型来支持移动语音命令S八苏缘计算场景然而,尽管早期探索开始,边缘智能仍然没有正式的定义。目前,大多数组织和媒体将边缘智能称为“在终端设备上本地运行AI算法的范例,其数据(传感器数据或信号)是在设备上创建的。”边缘人工智能和边缘智能被广泛认为是研究和商业创新的领域。由于在边缘运行AI应用程序的优越性和必要性,EdgeAI近来受到了极大的关注。Garmer技术成熟度曲线(GartnerHypeCycles)将边缘智能命名为一项新兴技术,它将在未来5到10年内达到生产力平台。包括谷歌、微软、IBM、英特尔在内的多家主要企业和技术领导者展示了边缘计算在连接人工智能最后一公里方面的优势。这些努力包括广泛的人工智能应用,例如实时视频分析、认知辅助、精准农业、智能家居和工业物联网。国,Intelligentkw4services.

    注意事项

    本文(边缘计算与人工智能融合的新范式.docx)为本站会员(夺命阿水)主动上传,课桌文档仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知课桌文档(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000986号

    课桌文档
    收起
    展开