Top
首页 > 正文

边缘计算如何成网?算力网络实现分布计算系统全局优化

“网络应该内建计算任务动态路由的能力,以解决MEC部署复杂、效率低、资源复用率不高等问题。”
发布时间:2019-12-31 15:04        来源:C114通信网        作者:安迪

在“2019中国无线技术大会--5G/MEC/算力网络论坛”上,华为技术有限公司资深研究员,互联网架构、云网络领域资深专家李峰围绕算力网络Computing-First Networking(CFN)发表了主题演讲。

资源分散、部署复杂、效率和资源复用率低,分布化MEC需要成网

当前,5G驱动边缘计算成为热点、加快MEC的部署。面向未来工业互联网,人工智能等新兴业务,网络侧边缘计算、甚至现场级边缘计算将为用户提供灵活的就近接入,提供极致的用户体验。除了泛在的算力和算法,计算载体也变得更轻快。

因此,在李峰看来,未来网络架构的需求是:不同计算功能,按需求不同,按网络状况不同,可以在离用户的不同距离,实时地实例化。但是,当前MEC网络存在一些问题:业务静态部署,资源无法复用,存在闲置资源浪费;计算资源节点之间缺乏互动调度能力,当计算资源过载时、甚至不可用时业务体验下降;当前依赖客户端应用层重连,等待时间秒/分钟级,将引起用户体验下降、甚至变得不可接受;静态预先配置、或者DNS解析的路由寻址方式,效率低,开销大,不适合于轻量级的计算资源。

上述这些问题是由应用自行单点方案解决?还是由网络提供更好的平台能力?李峰认为:“通过提供算力网络能够实现分布计算系统的全局优化——单个MEC站点的资源有限,为满足高性能并发访问,未来大量分布化的MEC需要成网;当前业务系统规模越来越大,普遍采用分布式计算+分布式存储架构,从网络角度看本质是从多个实例中选择一个合适的实例提供服务;MEC规模部署后,计算资源分散化,需要按业务需求、资源负载、网络状况、成本等多维因素灵活调度计算任务,从而提高资源利用率,降低业务运维成本,助力业务引入MEC。”

边边协作:算力网络有望实现计算资源利用率最优、网络效率最优、用户体验最优

“网络应该内建计算任务动态路由的能力,以解决MEC部署复杂、效率低、资源复用率不高等问题。”李峰指出,算力网络技术特征包括:将计算能力状况和网络状况作为路由信息发布到网络,网络基于虚拟的服务ID将计算任务报文路由到最合适的计算节点,实现用户体验最优、计算资源利用率最优、网络效率最优。算力网络解决的问题包括:边缘计算是单点,算力网络实现边缘计算成网,实现边边协作,利用服务的多副本特性,实现用户的就近接入和服务的负载均衡,适应服务的动态性。

简单来说,把“用户尽快获得计算结果”作为第一设计原则,拉通网络中各分散计算资源为“算力网络”。李峰表示:算力网络的愿景是建立一个全新的网络基础设施,帮助海量应用、海量功能函数、海量计算资源构成一个开放的生态。

其中,海量的应用能够按需、实时调用不同地方的计算资源,提高计算资源利用效率,尤其是边缘计算等资源受限节点;通过服务的自动化最优路由和负载均衡,提高业务用户体验,尤其是与真实世界有交互的应用(如AR);对数据/计算/网络进行整体优化实现效率和体验最佳;“少挪动数据、除非是计算密集任务””网络状况变化时,需改变计算位置;提供完善的安全、隐私、激励等机制。

面临两大技术挑战 设计上需考虑五大核心问题

李峰同时指出,算力网络面临两大技术挑战:挑战1:通常要跨多个边缘提供服务的多副本,以保证更好的性能和可靠性,如何将客户端服务请求和终端数据引导到多个边缘站点?以实现负载均衡和可靠性。挑战2:由于用户移动性、服务移动性、故障等原因,服务的位置可能会跨边缘站点发生变化,从而引发主机的IP地址的改变,导致网络中断。

在李峰看来,算力网络在设计上需要考虑以下五大核心问题:

一是服务状态的扩散:将服务状态在算力网络中进行扩散和同步,采用逐级汇聚的扩散方式,以增强系统扩展性。

二是业务流粘性保持:对于流粘性有需求的业务流,需要用户与某服务节点交互的数据包路由至相同的服务节点,保持其流粘性,避免出现断流、丢包、流量乱串等。

三是网络设备状态轻载:网络设备尽量减少流级状态,将流级状态卸载到客户端。

四是客户端不能修改标准的socket。

五是质量下降、不可用时快速切换:出现原服务质量下降、不能满足业务需求或故障转移时,CFN需要重新选路,将业务请求尽可能快地切换到其他更合适的服务节点,避免当服务过载或不可用时,出现用户体验下降、甚至不可接受。

合作站点
stat
  • sitemap
  • sitemap1
  • sitemap2
  • sitemap3
  • sitemap4
  • sitemap5
  • sitemap6
  • sitemap7
  • sitemap8
  • sitemap9
  • sitemap10
  • sitemap11
  • sitemap12
  • sitemap13
  • sitemap14
  • sitemap15
  • sitemap16
  • sitemap17
  • sitemap18
  • sitemap19
  • sitemap20
  • sitemap
  • sitemap1
  • sitemap2
  • sitemap3
  • sitemap4
  • sitemap5
  • sitemap6
  • sitemap7
  • sitemap8
  • sitemap9
  • sitemap10
  • sitemap11
  • sitemap12
  • sitemap13
  • sitemap14
  • sitemap15