摘要:为应对移动边缘计算系统中频谱资源受限及信道状态动态变化带来的资源调度挑战,研究了基于非正交多址(Non-Orthogonal Multiple Access,NOMA)的多用户多服务器接入边缘计算网络中的计算卸载与资源分配问题。采用深度强化学习(Deep Reinforcement Learning,DRL)方法,通过构建动作空间、状态空间与奖励机制,实现了任务卸载决策与计算资源的联合优化,以在满足用户设备任务处理时延约束的前提下最小化系统的能耗。在系统建模中考虑了任务部分卸载、多服务器接入以及信道状态动态变化等实际因素,并基于策略优化方法学习最优卸载策略。仿真结果表明,所提出的方法在降低系统能耗、适应复杂动态环境等方面均优于基准强化学习算法,具备较好的收敛性与稳定性。研究结果验证了深度强化学习在非正交多址辅助的边缘计算系统中实现高效动态资源调度的可行性和有效性。
文章目录
1 相关工作
2系统模型
2.1 通信模型
2.2 计算模型
2.2.1 本地计算模型
2.2.2 计算卸载模型
3 问题建模
4 算法设计
4.1 TD3算法
4.2 MDP转化
5 仿真实验
5.1 参数设置
5.2 算法性能分析
6 结束语