摘要
针对边缘网络环境下多人机之间存在计算负载不均,造成卸载任务失败的问题,提出了一种多无人机间协作的智能任务卸载方案。通过联合考虑多无人机任务分配、计算资源分配和无人机飞行轨迹,引入公平性指数建立了无人机公平负载最大化和能量消耗最小化问题。基于多智能体深度强化学习框架,提出了融合轨迹规划和任务卸载的分布式算法。仿真结果表明,所提出的多无人机协作方案可以显著提高任务完成率和负载公平度,并且有效适用于大规模用户设备场景。
关键词
随着5G的发展,各种新兴的计算密集型和延迟敏感型应用产生,这对物联网中计算受限的低功耗终端设备提出了严峻挑
目前对于单个无人机辅助MEC系统已经有了比较全面的研究,包括任务卸
上述工作主要集中在离线决策,采用迭代和群集算法求解非凸性优化问题。然而,在高度动态的多无人机环境中,任务的随机分配使得优化问题更加复杂且难以生成可行解。深度强化学习则可以有效解决复杂、动态和非凸性问题。文献[
上述都利用深度强化学习来求解多无人机任务卸载的优化问题,然而在高度动态的MEC环境下,多个无人机之间实现协作存在着一些挑战。上述文献忽略了每个无人机任务负载的公平性问题,如部分无人机覆盖范围内的任务计算量过大,导致出现过载情况;而部分无人机所包含区域内需要处理的任务计算量较小,计算和通信资源没有得到充分利用,这将导致多无人机之间无法实现公平、高效的协作。
为了解决上述问题,在由用户设备、无人机构成的两层网络架构下,综合考虑无人机轨迹变化、计算资源分配和多无人机公平协作等因素,提出了一种基于多智能体深度强化学习框架,融合轨迹规划和任务卸载的分布式算法。该算法联合优化多无人机节点的卸载决策和资源分配,以实现高可靠和低时延的应急通信领域应用服务为目标。具体创新点如下:
(1)针对应急通信场景下多无人机任务卸载问题,构建了一个由多用户设备、多无人机组成的两层网络架构,并考虑计算任务双重卸载机制,进一步引入公平性指数作为评估无人机之间的任务负载公平性衡量指标。联合考虑无人机轨迹、计算资源分配以及多无人机协作任务分配,在满足任务最小延迟的前提下实现长期无人机最大公平负载和最小功率消耗。
(2)针对多无人机协作环境动态变化的问题,提出了融合轨迹规划和任务卸载的分布式算法。该算法基于多智能体深度强化学习框架,通过多无人机之间的信息交互和协同学习,可在动态环境下自适应调整卸载方案,输出每个无人机的最佳协作策略,实现分布式决策。
(3)仿真结果表明,提出的无人机协作卸载方案可以有效均衡无人机负载并节省能耗,同时提高任务成功率。与其他卸载方案和决策算法相比,所提方案更适用于多无人机和多用户场景,且各项性能得到了有效提升。
构建的多无人机协作任务卸载模型如

图1 多无人机协同系统模型
Fig.1 Multi-UAV collaborative system model
假设在每个时隙内,地面用户设备产生计算密集型任务,其中表示地面用户设备产生的任务数据量,表示执行此任务所需的CPU周期总数。考虑到地面用户设备计算能力有限无法进行本地计算,需要将所有任务卸载至无人机。无人机受尺寸、质量、功率等因素的限制,只能提供有限的计算和通信资源,计算任务由多架无人机协同处理。考虑了任务卸载的两个阶段:(1)地对空卸载,即从地面用户设备卸载到目标无人机,包括地对空传输和目标无人机的计算;(2)空对空卸载,即目标无人机卸载到其他协作无人机,包括空对空传输和各协作无人机间的计算。
无人机的轨迹需要规划以节省能量并避免碰撞,因此假设部署每架无人机是为了在一个相应的子区域内为地面用户设备提供服务,并且每个子区域之间没有重叠。
假设所有无人机的飞行高度固定为,在时隙时,无人机的水平坐标为,假设无人机飞行的角度为,飞行的距离为,则下一个时隙的X和Y坐标分别为
(1) |
(2) |
地面用户设备的坐标设置为,无人机与地面用户设备之间直线距离定义为,则有
(3) |
在每个时隙内,无人机的飞行角度和速度保持不变,无人机的位置相对地面用户设备近似不变。此外,为了保证无人机在服务区域内移动,必须满足移动约束,即
(4) |
(5) |
式中:和分别为无人机服务区域的长度和宽度。
无人机的水平覆盖半径为,如果地面用户设备位于某个无人机的覆盖范围内,这些设备将由同一架无人机提供服务。任意两架无人机之间的距离表示为,为了保证两者服务范围不相互重叠,必须满足以下重叠约束
(6) |
为了避免任意两架无人机发生碰撞,无人机之间的距离应该不小于安全距离。
设计了两阶段协同计算卸载架构,如

图2 两阶段协同计算卸载架构
Fig.2 Two-stage collaborative computing offloading architecture
(1)当目标无人机接收到地面用户设备产生的计算任务时,二进制变量,否则,且每个地面用户设备在时隙内最多与一个目标无人机进行传输。
(7) |
设目标无人机在时隙处服务的地面用户设备集合为,地面用户数量为
(8) |
系统中的地面用户设备将任务卸载到目标无人机采用正交频分复用方案,并采用视距(Line of sight ,LoS)链路进行通信,不考虑诸如阴影或小尺度衰落等其他信道损害。路径损
(9) |
式中:表示参考距离为 1 m的功率增益。从地面用户设备到目标无人机的上行传输速率为
(10) |
式中:为地面用户设备的发射功率,为每架无人机处的加性白高斯噪声功率。在任务卸载过程中,无人机带宽被平均分配给服务的每个地面用户设备。则地面用户设备的任务上行传输时间为
(11) |
那么,目标无人机的接收能耗为
(12) |
式中为目标无人机的接收功率。
(2)目标无人机在接受到地面用户设备卸载任务后,会将任务分为独立的份,在自己执行计算任务的同时,将份任务发送给其余协作无人机协同计算,在时隙目标无人机承载的地面用户设备产生的任务比例为,协作无人机所承担的任务比例为,则有
(13) |
目标无人机和协作无人机之间的路径损耗参考文献[
(14) |
式中:为添加到LoS链路自由空间传播模型中的附加衰减因子,根据自由空间路径损失模
(15) |
式中为系统载波频率。目标无人机对协作无人机之间的信道增益为
(16) |
记为目标无人机的发送功率,那么目标无人机向协作无人机传输数据的速度为
(17) |
其中目标无人机将带宽平均分配给其余协作无人机。注意,目标无人机的带宽正交分为两部分:(1)与用户设备数据传输的带宽;(2)与协作无人机之间数据传输带宽。因此,两阶段卸载的数据传输之间没有干扰。
从目标无人机到协作无人机的传输时间和能耗分别为
(18) |
(19) |
从地面用户设备处接收到任务后,目标无人机决定自身和协作无人机计算多少任务。
(1)考虑任务比例,目标无人机处的计算延迟为
(20) |
式中:为目标无人机分配给地面用户设备的计算资源。则目标无人机处理计算任务的能耗为
(21) |
式中为无人机计算芯片的有效开关电容。
(2)协作无人机处的计算延迟和能耗分别为
(22) |
(23) |
协作无人机处的总时延由无人机⁃无人机通信传输时延和计算时延组成,可以表示为
(24) |
目标无人机的计算和传输是同步进行的,由于传输、计算的并行性,任务完成延迟取决于任务每部分的最大值,地面用户设备在时隙中产生的任务的总延迟可以建模为
(25) |
目标无人机的总能耗包括向协作无人机传输任务的能耗、计算以及协作计算的能耗、接收服务区域内地面用户设备任务的能耗,可以计算为
(26) |
在协作模型中,每个无人机可能计算到所有地面用户产生的任务,那么目标无人机在时隙内的任务负载为
(27) |
然而,直接最大化所有无人机的总负载可能导致不公平问题,因为一部分无人机可能会过载,而其余无人机的计算资源会闲置,导致服务质量较差。
引入Jain公平性指
(28) |
本文提出了一个多目标优化问题,该问题联合考虑无人机轨迹、计算资源分配以及多无人机协作任务分配,在满足任务最小延迟的前提下实现长期无人机最大公平负载以及最小功率消耗。
(29) |
式中:为无人机的最大飞行速度,和分别表示区域的最大范围,表示无人机的覆盖范围半径,为无人机之间的最小安全距离,为无人机的计算能力,为地面用户产生任务的最大延迟容忍时间,超出该时间表示该任务失败。
约束表示无人机的速度不能超过最大值;约束、、、描述了无人机的轨迹约束;约束意味着地面用户设备同一时隙中最多可以关联一个无人机;约束表示多个任务总和等于任务的大小;约束表示无人机分配给各任务的计算能力之和为无人机计算总能力;约束表示完成任务的时延必须在可承受范围内。
面向多地面用户设备计算任务时变、多无人机高度动态的计算任务卸载场景,某些未知变量(如无人机的位置和信道条件)可以影响能量消耗和执行延迟,特别是在由无人机的移动性引起的动态网络中。因此,优化问题是一个大规模、高维度且具有诸多限制条件的复杂问题,即使能够描述出这种移动边缘计算的卸载模型及问题,求解过程也会相当困难。此外,决策解空间较大,用传统的优化方法很难得到最优策略。为了解决这些挑战,本文面向多无人机协作移动边缘计算任务卸载,设计了一种融合轨迹规划和任务卸载的分布式算法,以在较少环境信息的情况下学习接近最优的策略。
本文提出的一种基于多智能体深度强化学习(Multi⁃agent deep reinforcement learning, MADRL)框架,融合轨迹规划和任务卸载的分布式算法,使得无人机自主决策。基于MADRL的解决方案与传统优化方案相比具有以下优势:(1)集中式的方案需要基站或者云中心来控制所有无人机,而对于基于MADRL的解决方案,无人机在训练完成后即可自主执行计算任务; (2)对MADRL来说,每架无人机都是独立的计算单元,无人机数量增加不会使算法复杂度显著增加,而传统方案的计算复杂度对无人机数量敏感,容易造成系统崩溃;(3)集中式的控制方式存在中心故障导致整体系统瘫痪的风险,而在基于MADRL的系统中,单个无人机的故障不会影响其他无人机执行任务。首先将上述问题建模为一种多智能体决策模型,然后通过采用MADRL算法来解决。
在系统中,无人机确定其飞行轨迹、计算资源分配和任务分配比以获得最大公平负载和最小功率消耗,系统当前的环境状态由先前的系统状态和所有无人机的动作决定。在这种情况下,任务卸载优化问题
(1)动作空间:无人机的动作包括飞行轨迹(飞行速度和角度)、计算资源的分配以及任务计算量分配,则第个无人机在时刻的动作表示为:。根据约束条件,4个变量的取值范围分别为,,,。
此外,为了消除变量多样性对系统性能的影响,对变量进行归一化处理:,,。归一化处理后,动作空间为
(30) |
(2)状态空间:每个无人机采取的动作和当前时刻所在的位置,都会影响当前时隙的环境。而每个无人机的观察为
(31) |
同样对无人机观察到的空间状态进行归一化,则在时刻无人机的观察为
(32) |
式中:, 。状态空间为所有无人机对环境的观察,无人机之间可以彼此交换信息,以便知道所有无人机和UE的位置,则时刻的状态空间为
(33) |
(3)奖励:为了解决公式化的任务卸载优化问题
(34) |
式中:、、、分别表示与界限约束(,)、重叠约束()、安全距离约束()和任务完成()相关的惩罚。如果无人机飞出了边界,则指示符,否则为0;如果无人机的覆盖范围与其他无人机重叠,则指示符,否则为0;当无人机与任意无人机之间的距离不满足安全距离约束,为1,否则为0;当无人机覆盖范围内的任务超时而导致失败时,无人机的任务超时惩罚指示符,否则为0。
则在时刻无人机的奖励函数为
(35) |
式中:为能耗的归一化处理。
为了求解上述多智能体协作决策模型,得出每个无人机的最佳协作策略,基于MADDPG的思路,提出了融合轨迹规划和任务卸载的分布式算法。算法采用集中式训练、分散式决策的范式,如

图3 基于MADDPG的协作卸载算法
Fig.3 Collaborative offloading algorithm framework based on MADDPG
所有无人机通过协作以实现总奖励的最大化
(36) |
追求每个无人机奖励的最大化,容易引起无人机之间的竞争,不利于系统的整体性能提升。通过设计总奖励的最大化,各无人机之间以分布式的方式协作处理计算任务,保证纳什均衡。
Actor模块和Critic模块各有2个神经网络构成,分别为目标网络和评价网络,则Actor模块和Critic模块的评价网络分别为和,每个模块的评价网络都有对应的目标网络,分别为和。算法1中详细描述了融合轨迹规划和任务卸载的分布式算法的集中训练流程。
首先初始化4个神经网络的参数和经验存储器,在每个训练轮次中,无人机根据自身观察,由Actor模块评价网络输出动作,所有无人机都执行飞行角度、飞行速度、计算资源分配以及多无人机协作任务分配,所有无人机执行完动作得到共同奖励和下一时刻环境状态。
在本算法中使用了经验回放机制,在每个时隙中,所有无人机可以将自身产生的经验元组存储到大小为的经验存储器中,其中。如果经验存储器已满,则新生成的经验元组将替换旧的经验元组。Actor模块和Critic模块可以通过在经验存储器中批量采样,获得训练数据。每个无人机都在经验存储器中随机采样一批大小为的样本,随机采样可以打破样本数据之间的相关性,并减少训练振荡。
算法通过最小化损失来更新无人机的Critic评价网络参数,即
(37) |
(38) |
式中为折扣因子。每个无人机可以使用策略梯度更新Actor评价网络的参数,即
(39) |
Actor模块和Critic模块的目标网络参数采用软更新的方式,分别为
(40) |
式中为更新率。在分布式执行阶段,无人机的飞行方向、计算资源和任务分配的决定是基于训练完成的神经网络执行。
算法1 融合轨迹规划和任务卸载的分布式算法
初始化每个无人机的经验存储器空间
初始化每个无人机的Actor评价网络参数,Actor目标网络参数,Critic评价网络参数,Critic目标网络参数
(1) for episode = 1, 2, …, do
(2) 初始化状态;
(3) for =1, do
(4) for =1, do
(5) 无人机监测环境获得
(6) 无人机执行动作
(7) end for
(8) 所有无人机执行完动作得到共同奖励和下一时刻环境状态
(9) for =1, do
(10) if 经验存储器内未满
(11) 将存储到经验存储器
(12) else
(13) 使用将经验存储器中最早的一组经验替换
(14) 在所有无人机的经验存储器中进行随机采样获得
(15) 通过最小化损失函数来更新Critic评价网络参数
(16) 计算策略梯度来更新Actor评价网络
(17) 对Actor目标网络和Critic目标网络分别进行软更新:
(18)
(19)
(20) end if
(21) end for
(22) end for
(23) end for
在 Python 3.8.13和PyTorch 1.12.1平台上对所提的多无人机协作架构和决策算法的有效性进行性能验证,计算机环境为 Ubuntu 20.04.5、Intel Xeon Gold 5218R CPU、NVIDIA GeForce RTX 3090。
多个地面用户设备分布在面积为的区域内,多个无人机为地面用户设备提供计算服务,飞行高度固定为50 m,服务半径为20 m,每个时隙长度为0.5 s。具体的系统模型参数和算法设
参数 | 取值 |
---|---|
地面用户设备任务数据量 | |
任务计算CPU周期数 | |
任务容忍时延 | |
功率增益 | -50 |
系统带宽 | 10 |
地面用户设备发射功率 | 0.1 |
无人机高斯白噪声功率 | -100 |
无人机的接收功率 | 0.1 |
无人机件的安全距离 | 1 |
系统载波频率 | 2 |
LoS链路附加衰减因子 | 5 |
无人机发射功率 | 5 |
无人机计算能力 | 3 |
计算芯片有效开关电容 |
参数 | 取值 |
---|---|
学习率 | 0.000 3 |
批规模/个 | 64 |
折扣因子 | 0.99 |
经验存储器大小/个 | 6 000 |
惩罚 | 1 |
首先针对多无人机协作架构和算法进行仿真,验证无人机轨迹和任务分配策略的有效性。然后与3种方案或算法进行对比验证,以证明本文方案在系统性能上的提升。
设置3架无人机在固定区域内向20个地面用户设备提供计算服务,地面用户设备随机分布在区域内。无人机飞行轨迹如

图4 无人机飞行轨迹图
Fig.4 UAV flight trajectory diagram

图5 无人机任务协作分配
Fig.5 Collaborative task assignment of UAVs
为了验证协作架构和算法的优越性,将其与以下3种方案进行对比:
(1)无协作方案。所有任务均在单个无人机上进行处理,不再卸载给其他无人机,但仍使用MADDPG决策飞行轨迹和计算资源分配。
(2)深度确定性策略梯度(Deep deterministic policy gradient, DDPG)决策。DDPG是一种单智能体深度强化学习算法,采用集中式决策输出所有无人机的动作。
(3)随机方案。无人机随机选择自身动作,包括飞行轨迹、计算资源分配和任务分配。
首先在3架无人机,20个地面用户设备的环境下对不同策略的系统能耗进行对比,

图6 不同卸载方案下的系统能耗
Fig.6 System energy consumption with different offloading schemes
在地面用户设备数固定为20的情况下,研究无人机数量对负载公平指数和任务成功率影响,任务成功率为所有地面用户设备因超时未完成任务量与所有任务的比值。
无人机数量与负载公平指数的关系如

图7 无人机数量对负载公平指数的影响
Fig.7 Effect of number of UAVs on the load fairness index
无人机数量与任务完成率的关系如

图8 无人机数量对任务成功率的影响
Fig.8 Effect of number of UAVs on the task success rate
本文研究了无人机固定为3架的情况下,地面用户设备数量对负载公平指数和任务成功率的影响。地面用户设备数量与负载公平指数的关系如

图9 地面用户设备数量对负载公平指数的影响
Fig.9 Effect of number of user devices on the load fairness index
地面用户设备数量与任务完成率的关系如

图10 地面用户设备数量对任务完成率的影响
Fig.10 Effect of number of user devices on the task success rate
从联合计算和通信的角度考虑动态变化边缘计算环境下的多无人机协作任务卸载问题,提出了多无人机协同计算和分布式卸载决策方案。该方案以在多地面用户设备环境下实现最小化长期能量消耗和最大化负载公平为目标。首先,将该问题建模为分布式多智能体马尔可夫决策过程,然后利用多智能体深度强化学习框架的学习优势,使每架无人机实现分布式决策。通过联合优化无人机飞行轨迹、计算资源分配和多无人机任务协作比例,最终实现降低传输和计算能量消耗,提高任务完成率和负载公平度。仿真结果验证了多无人机协作计算架构和分布式算法对多用户任务多变的边缘计算环境性能提升的有效性,并揭示了不同无人机数量和地面用户设备数量对所提方案性能的影响规律。下一步工作将在本文基础上考虑能量搜集和分配,解决多无人机辅助边缘计算时能量短缺问题。
参考文献
GUO Yongan, ZHU Hongbo, Yang Longxiang. Smart service system(SSS): A novel architecture enabling coordination of heterogeneous networking technologies and devices for Internet of Things[J]. China Communications, 2017,14(3):130-144. [百度学术]
虞湘宾,王光英,许方铖.未来移动通信网络中移动边缘计算技术[J].南京航空航天大学学报,2018,50(5):586-594. [百度学术]
YU Xiangbin, WANG Guangying, XU Fangcheng. Mobile edge computing technologies in future mobile communication networks[J]. Journal of Nanjing University of Aeronautics & Astronautics, 2018,50(5):586-594. [百度学术]
WANG Qin, CHEN Ye, YIN Shu, et al. Pricing based power control for inter-cell UAV-assisted vehicle-to-vehicle underlay communication[J]. China Communications, 2019, 16(1):57-68. [百度学术]
陈谋,吴颖. 具有输入时滞的集群无人机事件触发协同最优控制[J]. 南京航空航天大学学报,2022,54(5):958⁃968. [百度学术]
CHEN Mou, WU Ying. Event-triggered cooperative optimal control of swarm UAVs with input delays[J]. Journal of Nanjing University of Aeronautics & Astronautics,2022,54(5): 958⁃968. [百度学术]
Wang D, Tian J, Zhang H, et al. Task offloading and trajectory scheduling for UAV-enabled MEC networks: An optimal transport theory perspective[J]. IEEE Wireless Communications Letters, 2021, 11(1): 150-154. [百度学术]
Ding R, Gao F, Shen X S. 3D UAV trajectory design and frequency band allocation for energy-efficient and fair communication: A deep reinforcement learning approach[J]. IEEE Transactions on Wireless Communications, 2020, 19(12): 7796-7809. [百度学术]
Li M, Cheng N, Gao J, et al. Energy-efficient UAV-assisted mobile edge computing: Resource allocation and trajectory optimization[J]. IEEE Transactions on Vehicular Technology, 2020, 69(3): 3424-3438. [百度学术]
Yang L, Yao H, Wang J, et al. Multi-UAV-enabled load-balance mobile-edge computing for IoT networks[J]. IEEE Internet of Things Journal, 2020, 7(8): 6898-6908. [百度学术]
Qi X, Chong J, Zhang Q, et al. Collaborative computation offloading in the multi-UAV fleeted mobile edge computing network via connected dominating set[J]. IEEE Transactions on Vehicular Technology, 2022, 71(10): 10832-10848. [百度学术]
Liu Q, Liang H, Luo R, et al. Energy-efficiency computation offloading strategy in UAV aided V2X network with integrated sensing and communication[J]. IEEE Open Journal of the Communications Society, 2022, 3: 1337-1346. [百度学术]
黄旭民, 张旸, 余荣,等. 基于Stackelberg博弈的无人机辅助无线供能物联网能量优化[J]. 通信学报, 2022, 43(12): 146-156. [百度学术]
HUANG Xumin, ZHANG Yang, YU Rong, et al. Stackelberg game based energy optimization for unmanned aerial vehicle assisted wireless-powered Internet of things[J]. Journal of Communication, 2022, 43(12): 146-156. [百度学术]
Wang Y, Chen W, Luan T H, et al. Task offloading for post-disaster rescue in unmanned aerial vehicles networks[J]. IEEE/ACM Transactions on Networking, 2022, 30(4): 1525-1539. [百度学术]
Huang X, Yang X, Chen Q, et al. Task offloading optimization for UAV-assisted fog-enabled Internet of Things networks[J]. IEEE Internet of Things Journal, 2021, 9(2): 1082-1094. [百度学术]
Zhao N, Ye Z, Pei Y, et al. Multi-agent deep reinforcement learning for task offloading in UAV-assisted mobile edge computing[J]. IEEE Transactions on Wireless Communications, 2022, 21(9): 6949-6960. [百度学术]
Seid A M, Boateng G O, Mareri B, et al. Multi-agent DRL for task offloading and resource allocation in multi-UAV enabled IoT edge network[J]. IEEE Transactions on Network and Service Management, 2021, 18(4): 4531-4547. [百度学术]
Ren T, Niu J, Dai B, et al. Enabling efficient scheduling in large-scale UAV-assisted mobile-edge computing via hierarchical reinforcement learning[J]. IEEE Internet of Things Journal, 2021, 9(10): 7095-7109. [百度学术]
Cai T, Yang Z, Chen Y, et al. Cooperative data sensing and computation offloading in UAV-assisted crowdsensing with multi-agent deep reinforcement learning[J]. IEEE Transactions on Network Science and Engineering, 2021, 9(5): 3197-3211. [百度学术]
Ding R, Xu Y, Gao F, et al. Trajectory design and access control for air-ground coordinated communications system with multiagent deep reinforcement learning[J]. IEEE Internet of Things Journal, 2021, 9(8): 5785-5798. [百度学术]
Chen J, Cao X, Yang P, et al. Deep reinforcement learning based resource allocation in multi-UAV-aided MEC networks[J]. IEEE Transactions on Communications, 2023, 71(1): 296-309. [百度学术]
Qin Z, Liu Z, Han G, et al. Distributed UAV-BSs trajectory optimization for user-level fair communication service with multi-agent deep reinforcement learning[J]. IEEE Transactions on Vehicular Technology, 2021, 70(12): 12290-12301. [百度学术]
Liu C H, Chen Z, Tang J, et al. Energy-efficient UAV control for effective and fair communication coverage: A deep reinforcement learning approach[J]. IEEE Journal on Selected Areas in Communications, 2018, 36(9): 2059-2070. [百度学术]
Yang C, Liu B, Li H, et al. Learning based channel allocation and task offloading in temporary UAV-assisted vehicular edge computing networks[J]. IEEE Transactions on Vehicular Technology, 2022, 71(9): 9884-9895. [百度学术]
Challita U, Saad W. Network formation in the sky: Unmanned aerial vehicles for multi-Hop wireless backhauling[C]//Proceedings of 2017 IEEE Global Communications Conference (GLOBECOM).[S.l.]:IEEE, 2017: 749-754. [百度学术]
Hourani A, Kandeepan S, Jamalipour A. Modeling air-to-ground path loss for low altitude platforms in urban environments[C]//Proceedings of GLOBECOM’14, Satellite & Space Communication.[S.l.]:IEEE, 2014: 2898-2904. [百度学术]
Jain R, Chiu D, Hawe W. A Quantitative measure of fairness and discrimination for resource allocation in shared computer systems[J/OL]. 1998: 1-38. https://arxiv.org/abs/cs/9809099V1. [百度学术]
Wang L, Wang K, Pan C, et al. Multi-agent deep reinforcement learning-based trajectory planning for multi-UAV assisted mobile edge computing[J]. IEEE Transactions on Cognitive Communications and Networking, 2021, 7(1): 73-84. [百度学术]