数据与计算发展前沿, 2022, 4(5): 11-22  CSTR: 32002.14.jfdc.CN10-1649/TP.2022.05.002   doi: 10.11871/jfdc.issn.2096-742X.2022.05.002

专刊:东数西算:开启算力经济时代的世纪工程(上)

基于互联云及多云的云化基础设施算力调度

程莹,*, 裴小燕

中国联合网络通信集团有限公司,北京 100033

Computing Power Scheduling of Cloud-Enabled Infrastructure Based on Inter-Cloud and Multi-Cloud

CHENG Ying,*, PEI Xiaoyan

China Unicom, Beijing 100033, China

通讯作者: * 程莹(E-mail:chengying10@chinaunicom.cn

收稿日期: 2022-08-1  

Received: 2022-08-1  

作者简介 About authors

程莹,中国联合网络通信集团有限公司科技创新部,国际标准与开源项目主管,高级工程师,同时担任ITU-T SG11 Q4报告人、ITU-T SG13 Q19报告人以及CCSA TC1 WG5副组长。主要研究方向为云计算、云网融合、网络软化、人工智能等。
本文主要承担工作为全文的整体设计及撰写,云网融合相关国际标准进展分析、基于多云及互联云的云化基础设施算力调度参考架构的提出及示例设计。
CHENG Ying is a senior engineer and supervisor on interna-tional standards and open source projects in Science & Techno-logy Innovation Department, China Unicom, and serves as Ra-pporteur of ITU-T SG11 Q4, Rapporteur of ITU-T SG13 Q19, and deputy team leader of CCSA TC1 WG5. Her research interests include cloud computing, cloud and network convergence, network softwarization, artificial intelligence, etc.
In this paper, she is responsible for overall design and writing, international standards progress analysis on cloud and network convergence, and reference architecture and application ex-ample design on inter-cloud and multi-cloud-based computing power scheduling of cloud-enabled infrastructure. E-mail: chengying10@chinaunicom.cn

摘要

【目的】“东数西算”工程从国家层面启动了全国一体化大数据中心体系的规划和建设,跨算力服务商的大规模算力服务调度成为重要的研究议题。【应用背景】本文适用于多个大型云服务商协同提供组合算力服务。【方法】本文提出了基于多云及互联云的云化基础设施算力调度参考架构并给出了相关关键技术及应用示例。【结果】本参考架构可以基于服务商合作关系的数据模型,实现屏蔽异构云化基础设施算力资源的自动化部署。【局限】真实场景中的云际互联关系更为复杂,数据模型的设计仍面临许多挑战。【结论】基于多云及互联云的云化基础设施算力调度可以作为“东数西算”全国一体化算力调度的重要技术选择之一。

关键词: 云网融合; 算力调度; 多云; 互联云; 不可变基础设施; 基础设施即代码

Abstract

[Objective] The “East-West Computing Requirement Transfer” project has initiated the planning and construction of the integrated big data center system at the national level. Scheduling of large-scale computing services across different computing service providers has become an important research topic. [Application background] This paper applies to multiple large cloud service providers collaborating to provide combined computing power services. [Methods] This paper proposes a reference architecture for computing power scheduling of cloud-enabled infrastructure based on multi-cloud and inter-cloud, and presents related key technologies and application examples. [Results] This reference architecture can automate the deployment of shielded heterogeneous computing power resources of cloud-enabled infrastructure based on the data model of the service providers’ partnership. [Limitations] The service providers’ interconnection relationships in real-world scenarios are more complex, and the design of data models still faces many challenges. [Conclusions] The inter-cloud and multi-cloud-based computing power scheduling of cloud-enabled infrastructure can be one of the important technology choices for the national integrated computing power scheduling under the “East-West Computing Requirement Transfer” strategy.

Keywords: cloud and network convergence; computing power scheduling; multi-cloud; inter-cloud; immutable infrastructure; infrastructure as code

PDF (8540KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

程莹, 裴小燕. 基于互联云及多云的云化基础设施算力调度[J]. 数据与计算发展前沿, 2022, 4(5): 11-22  CSTR: 32002.14.jfdc.CN10-1649/TP.2022.05.002   doi:10.11871/jfdc.issn.2096-742X.2022.05.002

CHENG Ying, PEI Xiaoyan. Computing Power Scheduling of Cloud-Enabled Infrastructure Based on Inter-Cloud and Multi-Cloud[J]. Frontiers of Data and Computing, 2022, 4(5): 11-22  CSTR: 32002.14.jfdc.CN10-1649/TP.2022.05.002   doi:10.11871/jfdc.issn.2096-742X.2022.05.002

引言

2020年4月,国家发改委首次明确阐述了新基建的具体含义和范围,提出建设以数据中心、智能计算中心为代表的算力基础设施,这是“算力基础设施”这一概念首次在国家政府层面提出。2021年5月,国家发改委、中央网信办、工业和信息化部、国家能源局四部委联合发布了《全国一体化大数据中心协同创新体系算力枢纽实施方案》,提出根据能源结构、产业布局、市场发展、气候环境等要素建设“4+4”全国一体化算力网络国家枢纽节点,发展数据中心集群,引导数据中心集约化、规模化、绿色化发展,国家枢纽节点之间进一步打通网络传输通道,加快实施“东数西算”工程,提升跨区域算力调度水平。2022年2月,上述四部委再次联合发文,在国家枢纽节点的基础上规划了10个国家数据中心集群。至此,从国家层面完成了全国一体化大数据中心体系的总体布局设计,“东数西算”工程正式全面启动。

“东数西算”工程通过构建数据中心、云计算、大数据一体化的新型算力网络体系,将东部密集地区的算力需求有序引导到西部,使数据要素跨域流动,优化数据中心建设布局,在缓解东部能源紧张问题的同时,给西部发展开辟新路。“东数西算”工程是一项开启算力经济时代的世纪工程,将算力作为与水、电、气同等重要的国民经济基础设施,与“南水北调”、“西电东送”、“西气东输”三大传统世纪工程相并列。

算力经济产业链包括多个重要的环节和角色,涉及算力生产、算力聚合、算力赋能、算力调度、算力供应、算力交易、算力消费等环节以及算力服务商、算力调度者、算力交易商、算力消费者等角色,这些环节和角色需要各自解决自身的问题,同时还要面对生态链整体整合的问题。“东数西算”的设计理念与近年来电信运营商云网融合、算网融合的战略完美契合,有理由相信,未来通信运营商将结合自身网络和数据中心的优势转型为算力服务商,用户会像过去购买流量套餐一样购买算力服务套餐[1]。如何推进不同算力服务商的算力服务互联互通、协同共享、评测定价,从而实现全国一体化调度,是落实“东数西算”的重要议题。

当前,云服务作为通用算力已成为赋能企业业务单元转型的关键,随着数字化转型的不断深入,用户对算力种类、有效感知、高效利用提出了更高的要求,云服务也逐渐向算力服务演进[2],成为“新基建”和“东数西算”的基础支撑技术。随着云服务的蓬勃发展,为了满足用户避免被单一厂商锁定、优化成本、数据主权和安全隐私监管、享受不同云服务提供商的服务特性等复杂需求,统筹调度不同云服务提供商的云服务已成为重要的技术和业务发展方向,互联云及多云的理念应用而生。基于互联云及多云的调度方案正逐渐成为“东数西算”全国一体化算力调度的重要技术选择之一。

1 基于云网融合的云化基础设施算力调度关键技术分析

云网融合这一理念旨在基于信息技术和网络技术的深度融合将计算资源和网络资源紧密协同起来,从而提供一体化的算力资源供给和调度。在融合演进的过程中,依据出发点的不同,存在网侧和云侧两种解决思路。从网络主动适配云的思路出发,网络需要从路由协议到部署模式的全面升级改造,网络软化、算力网络等技术代表了这一领域最新的研究和工程进展。从云计算技术自身的发展思路出发,在网络即服务的基础上,利用多云、互联云实现算力调度。

1.1 网络即服务

云计算作为ICT领域的代表融合技术,自诞生之日起,就与运营商承载网和数据中心网络有着天然的关联。为规范业界的技术共识,ITU-T于2014年对网络即服务(Network as a Service, NaaS)进行了标准化定义[3],旨在将NaaS定位为一种云服务类别,由云服务提供商(Cloud Service Provider, CSP)向云服务客户(Cloud Service Customer, CSC)提供网络连接和相关网络功能。

基于该定义和典型真实用例(包括IP与光融合、灵活可扩展的VPN、按需带宽调整、按需网络性能调整、优化的流量工程、虚拟路由器、业务链、云化CDN等),ITU-T严格依照用例牵引出功能要求的方法论规范了云业务对电信运营商承载网和数据中心网络在NaaS连接、NaaS平台、NaaS应用方面的功能要求[4]和功能架构[5],阐述了SDN/NFV等网络虚拟化技术对云业务发展的支撑性作用。

NaaS系列标准首次在国际标准化层面从云计算角度提出了网随云动、网络云化的迫切要求,为云网融合奠定了行业共识基础,具有深远的产业影响。

1.2 互联云及多云

根据ITU-T的定义,互联云(inter-cloud)和多云(multi-cloud)的技术含义有明显差异,核心区别在于是否有云服务合作伙伴[3](Cloud service partner, CSN)的参与。互联云指的是实现两个及以上云服务提供商之间互通的范式[6]。多云指的是云服务客户在公有云环境中使用由两个及以上云服务提供商同时提供的组合云服务,一般由作为多云管理者的云服务合作伙伴(CSN: multi-cloud manager)通过统一单点实现组合云服务的配置、控制和监控[7]

根据ITU-T Y.3511的描述,互联云可以进一步划分为三种模式,分别是云间对等模式(Inter-cloud peering)、云间联盟模式(Inter-cloud federation)、云间中介模式(Inter-cloud intermediary)。

1.2.1 互联云模式
1.2.1.1 云间对等模式

在云间对等模式中,两个CSP直接相互作用,以便使用对等CSP提供的服务。云间对等是一种基本模式,它可以独立存在或用于云间联盟模式和云间中介模式。

在云间对等模式中,每个CSP公开自己的API以用于云互通,CSP通过使用其他CSP的API实现彼此之间的直接互通。如图1所示,CSP A使用CSP B提供的API与CSP B交互,反之亦然。由于云间对等模式可以用于云间联盟模式和云间中介模式,所以在CSP A和CSP B之间也可以使用统一API。

图1

图1   云间对等模式

Fig.1   Inter-cloud peering model


1.2.1.2 云间联盟模式

云间联盟模式涉及在一组对等CSP内使用云服务。这些CSP相互组合它们的服务能力,以便向CSC提供所需要的一组云服务。组成云间联盟的多个CSP建立并共享统一协议。这些协议可能涉及与服务相关的政策、服务水平协议(SLA)以及与提供服务和资源处理相关的程序。基于相关协议,云间联盟中的CSP可以在其他CSP的帮助下提供其云服务。用于云互通的统一API在云间联盟中定义。如图2所示,每个CSP通过该统一API与云间联盟中的其他CSP互通。应注意的是,云间联盟模式不一定需要如图2所示的相互交互CSP的全互联配置。

图2

图2   云间联盟模式

Fig.2   Inter-cloud federation model


1.2.1.3 云间中介模式

在云间中介模式中,CSP与一个或多个对等CSP互通并提供由这些CSP所提供的服务的中介、集合和优选。服务中介包括调节或增强对等CSP的云服务。服务集合涉及到对等CSP提供的一组服务。服务优选是指从对等CSP提供的一组服务中挑选一种服务。

提供服务中介、集合和优选的CSP与对等CSP之间的互通可以依赖云间对等模式或云间联盟模式。图3显示了云间中介模式,其中CSP A为CSP B、C、D和E提供的云服务提供中介、集合和优选。

图3

图3   云间中介模式

Fig.3   Inter-cloud intermediary model


1.2.2 多云模式

与互联云不同的是,多云模式并不是在不同CSP之间建立交互关系,而是通过CSN:multi-cloud manager管理多个CSP上的云服务,以提供具有互操作性的组合云服务给CSC,如图4所示。

图4

图4   多云模式

Fig.4   Multi-cloud model


CSC使用CSN:multi-cloud manager的统一接口,请求公有云中的云服务。CSN: multi-cloud manager在不同的、独立的CSP中找到符合CSC要求的可用云服务,并依据约束条件和配置策略将其配置为组合云服务交付给CSC。在使用组合云服务过程中,CSC通过CSN: multi-cloud manager提供的统一接口控制和监控它们。

1.3 算力网络

算力网络是近年来业界的研究热点,但目前产业界对其定义和范畴仍有不同理解,技术路线和技术架构尚未统一。总体而言,算力网络是一种面向承载网的新型网络技术,它基于无处不在的网络连接,将动态分布的计算与存储资源互联,通过网络、存储、算力等多维度资源的统一协同调度,使海量的应用能够按需、实时调用泛在分布的计算资源,实现连接和算力在网络的全局优化,提供一致的用户体验[8]。可以将算力网络分为具体的算力网络技术和抽象的算力网络方向两类。具体的算力网络技术研究包括算力感知网络、计算优先网络、算力路由、在网计算等,是算力和网络深度融合的技术研究方向。抽象的算力网络方向是把算力网络作为长期演进方向,但是没有具体如何演进的考虑和论述[9]

遵循承载网架构和协议的设计思路,算力网络的部署方案可以分为集中式算网编排方案和分布式算力路由协议方案。

1.3.1 集中式算网编排方案

该方案通过集中式的 SDN 控制器和网络功能虚拟化编排器管理和协调功能( NFVO MANO) 实现协同管理和算力路由可达,但算、网属性依然分别处理,属于分布式算力路由协议尚未成熟时的过渡方案。

1.3.2 分布式算力路由协议方案

该方案旨在通过IP路由协议报文携带算力信息从而利用IP路由协议的优势实现算力信息的转发,只要算力资源IP可达,即可实现算力调度。这种方案充分融合了算、网属性,是算力调度网络侧的理想解决方案,其前提是实现算力资源的感知、度量和标识,可以通过扩展现有IP路由协议或通过overlay的方式在网络层和传输层之间设置专门的算力路由协议来实现。近年来,业界在分布式算力路由协议领域开展了大量研究和探索[10-13],但目前尚未形成标准化共识。

1.4 小结

从云网融合的演进过程和目标架构来看,以分布式算力路由协议为代表的网侧方案目前还处于较为初始阶段,尚未在标准和工程实现方面形成业界共识,仍有较长的演进路线。以多云及互联云为基础的云侧方案在标准和工程实践方面已有较多积累和共识,可以作为跨服务商算力调度的重要候选技术。

2 多云及互联云模式中的信息交互分析

2.1 云间联盟中的信息交互

图5显示了云间联盟中涉及多个CSP的信息交互。在云间联盟中,次要CSP将其资源作为向主要CSP提供的一类服务。

图5

图5   云间联盟中的信息交互

Fig.5   Interaction in inter-cloud federation


在建立联盟时,主要和次要CSP在QoS要求和SLA之间进行匹配和服务配置策略协商。联盟建立后采取的步骤如下:

(1)CSC开始使用CSP A的服务。CSP A 为该CSC的主要CSP。

(2)主要CSP(即CSP A)因资源短缺造成的服务质量下降决定启动联盟互动协议。CSP A请求从CSP B和CSP C获得计算资源(虚拟机和存储)的信息。CSP B和CSP C为此联盟中的次要CSP。

(3)CSP B和CSP C就可用资源对CSP A做出响应。

(4)根据所收到的回复,CSP A预留CSP B的资源,估算CSP B中可用的资源性能并确认所估算的性能是可接受的。

(5)CSP A启动CSP B的资源并激活服务(该行动可视为虚拟机迁移或应用重建)从而保持服务质量。

(6)CSP A决定终止与CSP B的协作(如CSP A已获得自己提供服务所需要的重组资源或服务要求下降)并释放CSP B提供的资源。

这些步骤可用于每个云间联盟涉及到的CSP。云间联盟中的每个CSP都是其自己CSC的主要CSP,而向主要CSP提供资源的CSP可被视为次要CSP。

2.2 云间中介中的信息交互

图6显示了云间中介中涉及多个CSP的信息交互,操作步骤如下:

图6

图6   云间中介中的信息交互

Fig.6   Interaction in inter-cloud intermediary


(1)主要CSP从次要CSP收集服务信息或次要CSP将其服务注册到主要CSP,SLA方面的差异也要得到协商。

(2)主要CSP通过综合所承担的服务以及次要CSP提供的服务生成服务目录。

(3)CSC接入主要CSP的服务提供目录并在目录中挑选一项或一些服务。

(4)主要CSP配置并提供由CSC挑选的服务。该服务可能是由主要CSP或次要CSP提供,也可能是主要CSP和次要CSP合作提供的。主要CSP对服务进行中介、集合和/或优选。

事实上,实际的程序将更为复杂。CSC使用服务的方式多种多样。如所要求的服务由主要CSP承担,CSC可直接获得该服务(情况(4-a))。如所要求的服务是由次要CSP提供的,CSC可通过主要CSP获得次要CSP的服务(如情况(4-b)和(4-c))。对于后者,应充分考虑网络条件、服务特性以及CSC和主要CSP及相关次要CSP之间的SLA,以便使CSC以适当的方式获得服务。

2.3 多云模式中的信息交互

与互联云不同的是,多云环境中的不同CSP没有建立直接关联关系,而是通过CSN: multi-cloud manager在CSC和多个CSP之间统一建立间接的管理关系。因此,多云中的信息交互与CSN: multi-cloud manager密不可分,详细内容如图7所示,具体步骤如下:

图7

图7   多云中的信息交互

Fig.7   Interaction in multi-cloud


(1)为获得跨CSP的服务,CSC向CSN: multi-cloud manager注册从不同CSP获得的证书。

(2)CSN: multi-cloud manager分别向对应的CSP验证证书。

(3)每个CSP向CSN: multi-cloud manager提供自己的服务目录。

(4)CSN: multi-cloud manager将每个CSP提供的服务目录交付给CSC。

(5)在检查完交付的服务目录后,CSC请求配置多个可用的云服务,以作为一个组合服务使用。

(6)CSN: multi-cloud manager根据CSC的请求向每个CSP请求云服务。

(7)在每个 CSP 中成功创建所有请求的云服务后,CSN: multi-cloud manager对创建的云服务进行组合并将其提供给 CSC。

(8)CSN: multi-cloud manager管理和监控组合云服务。

(9)CSN: multi-cloud manager向CSC提供管理和监控数据。

2.4 小结

从上述信息交互可以看出,基于多云及互联云的资源调度需要将计算和网络、存储资源分别处理。为实现多云及互联云间的计算资源调度,通信运营商的承载网需要保证各节点间的互联,不同CSP之间需要根据服务规划做好共享存储设计。

互联云中不同CSP的关系需要根据实际情况通过云间协议来启动、维持和结束,运行云间协议的前提是各相关CSP分别实现可互通的互联云资源/业务处理功能,该功能对外与其它CSP维持互联关系,对内可以根据需要调度本CSP的云内资源/业务。

3 基于多云及互联云的云化基础设施算力调度技术方案

3.1 多云及互联云环境下的基础设施即代码

3.1.1 不可变基础设施

多云及互联云的标准化定义为不同CSP之间建立合作关系及如何建立合作关系奠定了行业共识,在此基础上一个亟需解决的问题是如何屏蔽异构算力基础设施的差异,抽象算力资源模型,从而在确定CSP合作关系的前提下实现资源平滑调度。因此,云无关的基础设施部署方案自然成为了多云及互联云环境下算力调度重要支撑技术。这里的云无关基础设施指的是不可变基础设施,作为云原生[14]的代表技术之一,它指的是基础设施环境创建后不接受更新和修改,只能通过整体替换来创建和变更,保持基础设施的一致、可靠以及简单、可预测的部署过程[15]

不可变基础设施这一设计理念已经在容器技术方面获得了广泛应用,解决了传统可变基础设施一直面临的配置漂移问题。基于这一理念,为解决云无关基础设施的自动化部署,基础设施即代码(Infrastructure as Code, IaC)技术越来越受到业内的重视。

3.1.2 基础设施即代码

基础设施即代码是通过机器可读的定义文件,而不是物理硬件配置或互动配置工具来管理和配置IT基础设施的过程。这个过程管理的IT基础设施既包括物理设备,如裸机服务器,也包括虚拟机以及相关的配置资源[16]。业界知名的IaC工具包括Ansible、Chef、Puppet、SaltStack、Terraform、Pu-lumi、AWS CloudFormation、GCP Deployment Mana-ger、Azure Resource Manager等。其中,Terraform[17]以其易于使用、声明式编程、提供开源实现、云无关、可扩展性强等技术特点最受业界欢迎。

Terraform通过提供程序(provider)与不同的CSP集成。提供程序是Terraform插件,用于与外部API进行交互。每个CSP都会维护自己的Terraform提供程序,使Terraform能够管理该CSP的资源。提供程序作为二进制文件分发到Terraform注册表上,负责进行身份验证、发出API请求以及处理超时和错误。注册表中的提供程序可以协同起来,实现多云/互联云基础设施统一管理和调度。图8展示了通过Terraform将基础设施同时部署到多个CSP,具体操作步骤如下:

图8

图8   通过Terraform将基础设施同时部署到多个CSP

Fig.8   Infrastructure deployment in multiple CSPs by using Terraform


(1)编写Terraform配置文件。

(2)配置不同CSP的提供程序。

(3)初始化Terraform。

(4)使用不同CSP的API分别部署虚拟机实例。

3.2 基于多云及互联云的云化基础设施算力调度参考架构

基于多云及互联云对云间关系的抽象以及IaC对异构基础设施的抽象和差异屏蔽,本文提出基于多云及互联云的云化基础设施算力调度参考架构,如图9所示。

图9

图9   基于多云及互联云的云化基础设施算力调度参考架构

Fig.9   Computing power scheduling reference architecture based on multi-cloud and inter-cloud


云际互联抽象层:管理不同云际互联数据模型。这些数据模型对多云及互联云中不同CSP及CSP和CSN的关系及协议进行抽象,描述了算力资源的调度策略,主要包括多云数据模型、云间对等数据模型、云间联盟数据模型和云间中介数据模型。

异构算力部署层:通过管理不同CSP的提供程序、不同CSP的API、不同数据源、算力部署生命周期完成基础设施即代码的实现。该层连接云际互联抽象层和异构算力资源层,通过解析云际互联抽象层中的云际互联数据模型并将解析结果映射至对应的自动化提供程序,实现对异构算力资源层中不同算力资源的统一部署和调度。

异构算力资源层:管理不同CSP的异构基础设施,包括但不限于物理机资源、虚拟机资源、容器资源、块存储资源、对象存储资源。

4 云间联盟模式下的自动负载均衡示例

4.1 实验设计

基于前述基于多云及互联云的云化基础设施算力调度参考架构,本文将设计云间联盟模式下的自动负载均衡示例,实现在不同CSP间平均分发流量,如图10所示。

图10

图10   云间联盟模式中的负载均衡实验

Fig.10   Load balance experiment in inter-cloud federation


简单起见,此处以不同HTTP页面显示内容来标记不同CSP的流量承载,不同CSP的VM提供特定的HTTP内容(比如特定文本)给CSC,在页面自动刷新时显示代表不同CSP的文本,从而验证是否实现了负载均衡。

本示例涉及三个CSP,组成云间联盟模式向CSC提供云服务X。其中,CSP A为主要CSP,CSP B和CSP C为次要CSP。这三个CSP建立并共享统一协议,为保证服务X的可靠性,在服务X的流量达到某个阈值后自动实现云间联盟内的负载均衡。Terraform通过不同CSP的提供程序实现DNS轮询docker的部署以及不同CSP内相关虚拟机工作负载的均衡。

4.2 参考实现

4.2.1 数据模型准备

上述云间联盟中的协议可以通过YAML、YANG等语言描述为数据模型并通过云际互联抽象层下发至异构算力部署层。本示例中的协议至少包括的要素为:三个CSP的主、从关系以及各自的身份验证信息、作为主要CSP的CSP A中执行DNS轮询功能的docker容器信息以及CSP A启动负载均衡的阈值。

4.2.2 数据模型解析及资源部署

异构算力部署层中的模型解析及映射功能可以对该数据模型解析并激活CSP A中可实现DNS轮询功能的docker容器,从而实现负载均衡。在Terraform环境下通过配置三个CSP的提供程序进而通过各自的API完成部署,配置文件的代码片段如图11所示。其中,module.csp-x.network_address指的是每个CSP中的负载均衡VM使用一个公有IP地址将自己注册到负载均衡器。需要说明的是,通常不会为负载均衡器背后的VM分配一个公有IP地址,这里仅是为实验配置尽量简单考虑,不同云中的VM使用公有IP地址比通过隧道把虚拟私有云连接到一起更加简单。

图11

图11   配置文件代码片段

Fig.11   Code fragment in configuration file


依据图11的设置,通过对不同CSP的环境变量配置,本实验可以在页面每次自动刷新时,依次显示“CSP-A”、“CSP-B”和“CSP-C”,说明实现了在不同CSP间平均分发流量的目的。

5 结论与展望

本文在“东数西算”工程的背景下分析了基于云网融合的云化基础设施算力调度关键技术,从网络即服务系列标准中明确的网随云动、网络云化功能要求出发,分析了当前业界网侧和云侧两大针对大规模跨服务商的云化基础设施算力调度解决方案并基于互联云和多云方案展开了云际互联模式分析。在此基础上,结合基础设施即代码技术提出了基于多云及互联云的云化基础设施算力调度参考架构,该参考架构的设计充分考虑了服务商合作关系的模型抽象和屏蔽异构算力资源的自动化部署。此外,基于该参考架构,展示了多服务商环境下如何通过Terraform实现自动负载均衡部署。

下一步研究和实践的关键方向包括云际互联数据模型的设计和开发、异构算力自动化部署和全生命周期管理、当前算力调度参考架构对高性能计算的适用性扩展、动态基础设施算力调度、云际互联环境下的跨云数据管理等。

利益冲突声明

所有作者声明不存在利益冲突关系。

参考文献

张云泉.

东数西算: 开启算力经济时代的世纪工程

[N]. 中国科学报, 2022-03-17(3).

[本文引用: 1]

集智白皮书.

云计算白皮书

[R]. 中国信息通信研究院, 2022.

[本文引用: 1]

ITU-T Y. 3500 (2014) | ISO/IEC 17788:2014, Information technology - Cloud computing - Overview and Voca-bulary[S].

[本文引用: 2]

ITU-T Y. 3512 (2014),Cloud computing - Functional req-uirements of Network as a Service[S].

[本文引用: 1]

ITU-T Y. 3515 (2017),Cloud computing - Functional arc-hitecture of Network as a Service[S].

[本文引用: 1]

ITU-T Y. 3511 (2014),Framework of inter-cloud com-pu-ting[S].

[本文引用: 1]

ITU-T Y. 3537 (2022),Cloud computing - Functional req-uirements of cloud service partner for multi-cloud[S].

[本文引用: 1]

曹畅, 唐雄燕.

算力网络关键技术及发展挑战分析

[J]. 信息通信技术与政策, 2021, 47(03): 6-11.

[本文引用: 1]

段晓东, .

面向算网一体化演进的算力网络技术

[J]. 电信科学, 2021, 37(10): 76-85.

[本文引用: 1]

IETF draft-li-rtgwg-cfn-framework-00 (2019),Framework of Compute First Networking (CFN)[S].

[本文引用: 1]

雷波, 赵倩颖.

CPN:一种计算/网络资源联合优化方案探讨

[J]. 数据与计算发展前沿, 2020, 2(4): 55-64.

[本文引用: 1]

黄光平等.

基于SRv6的算力网络资源和服务编排调度

[J]. 中兴通讯技术, 2021, 27(03):23-28.

[本文引用: 1]

陈晓, 黄光平.

微服务架构下的算力路由技术

[J]. 中兴通讯技术, 2022, 28(01):70-74.

[本文引用: 1]

CNCF.

CNCF Cloud Native Definition v1.0

[EB/OL]. [2022-07-28]. https://github.com/cncf/toc/blob/main/DEFINITION.md.

URL     [本文引用: 1]

张国生.

基于无服务器架构的云原生应用软件研究

[J]. 中国电子科学研究院学报, 2022, 17(02):155-161.

[本文引用: 1]

Wikipedia.

Infrastructure as code

[EB/OL]. [2022-07-28]. http://en.wikipedia.org/wiki/Infrastructure_as_code.

URL     [本文引用: 1]

Terraform.

Automate Infrastructure on Any Cloud

[EB/OL]. [2022-07-28]. https://www.terraform.io/.

URL     [本文引用: 1]

/