面向“雾”计算的任务卸载和缓存配置的优化研究
项目介绍
AI项目解读
基本信息
- 批准号:61901279
- 项目类别:青年科学基金项目
- 资助金额:26.0万
- 负责人:
- 依托单位:
- 学科分类:F0104.通信网络
- 结题年份:2022
- 批准年份:2019
- 项目状态:已结题
- 起止时间:2020-01-01 至2022-12-31
- 项目参与者:--
- 关键词:
项目摘要
With the upsurge of IoT applications (such as video streaming, augmented reality, and automatic driving), it is prohibitive for the conventional cloud computing to satisfy the growing demands of these low-latency and computation-intensive services. On another front, fog computing featuring low latency, low energy , and high context awareness can harness the synergy between computing and caching at the very edge of the network, thus reducing the end-to-end latency in the above latency-critical applications. Motivated by the trend that edge computing and edge caching are merging their paths in the paradigm shift of providing end users with integrated service of content delivery and task offloading, this proposal studies the following aspects of fog computing: 1) D2D-based cooperative edge computing; 2) Non-orthogonal Multiple Access (NOMA)-downlink based cooperative edge computing; and 3) caching placement for computation results. Specifically, the proposal aims for designing effective wireless transmission strategies in line with the topology of the fog computing system of interest; jointly optimizing task offloading and service caching; solving the complex mixed-integer programming incurred by joint optimization of task assignment, computation caching, and wireless resource allocation; and proposing (online/offline) dynamic caching decisions leveraging correlation among the task-input data. By achieving the above goals, trade-offs between computation latency and network resources are expected to be significantly improved, providing ultra-reliable low-latency communication (URLLC) service for 5G and future mobile networks.
伴随着物联网(IoT)IoT应用(例如流媒体、增强现实、自动驾驶等)的激增,传统的“云”计算已无法满足上述新兴应用低时延、高强度的计算需求。而以低延时、低能耗、高情景感知能力为主要特点的”雾“计算则可通过整合边缘网络在计算和缓存两方面的优势,有效降低上述计算服务的端到端时延。为此,本项目将顺应边缘计算和边缘缓存在为用户提供 “内容+计算”一体化服务的进程中逐步融合的趋势,拟对 1)基于D2D的协作边缘计算;2)基于非正交多址接入(NOMA)的下行协作边缘计算; 3)计算结果的缓存配置,展开具体研究。针对“雾”计算网络的特点设计无线传输策略,联合优化任务卸载和缓存配置;解决任务分发、缓存和无线资源分配中涉及的复杂整数型问题;并根据时序型任务数据的特点提出(在线、离线)动态缓存决策,以提升“雾”计算服务时延和网络资源之间的权衡关系,为5G及未来移动通信提供超高可靠、超低延时(URLLC)的计算服务。
结项摘要
随着5G移动通信大规模推进和后5G时代对以任务为导向的物联网业务在增强移动宽带、超高可靠、低时延和大规模机器类通信方面需求的提升,本项目致力于围绕网络边缘“雾”计算(亦称“移动边缘计算”,MEC)中的几个核心科学问题:如何为无线设备对设备(D2D)网络设计任务分发调度算法优化网络资源配置;如何高效求解以新一代多址接入技术——非正交多址接入(NOMA)为传输机制的“雾”计算中遇到的整数规划问题;如何联合优化任务卸载和服务缓存配置以适应边缘计算业务的动态特征并充分发挥“雾”计算在服务时延、能耗等方面的优势,展开下述内容:1)无线D2D联邦学习模型传输的调度策略和物理层传输机制;2)无线D2D联邦学习的模型压缩和隔空计算性能分析;3)提升多用户MEC系统短期平均能效的通信、计算和缓存联合优化方案;4)提升多用户MEC系统长期能效的通信、计算和缓存联合优化方案的研究。根据内容子课题之间的逻辑关系层层递进、逐步深入地展开研究,实现了拟定的各项研究目标,取得了一系列高质量的研究成果。. 其中,子课题1)考虑了以去中心化的联邦学习为计算任务的无线D2D传输策略,创造性地设计了以图染色为基础的调度算法以最大限度地提高无线D2D传输的频谱利用率。子课题2)刻画了采用无线模拟传输进行CHOCO-SGD训练的收敛性——最优性差距的理论基本上界, 阐释了如何发挥模型压缩算法与隔空计算的融合优势提升无线模拟D2D联邦学习的信道使用效率。子课题3)借助强化学习中演员-评价家(Actor-Critic)训练模型的概念巧妙地将联合优化计算和通信资源的凸优化求解器融入到离线训练模型的设计中,为降低系统短期平均加权总能耗提供了高质量、低复杂度的求解方案。子课题4)考虑了任务抵达的因果性和主动缓存带来的系统开销,通过联合设计每个时隙任务卸载和执行策略及任务缓存决策,验证了主动缓存在降低系统长期加权总能耗方面的显著效果。. 综上所述,本项目围绕“雾”计算任务(训练模型)卸载(交换)的高能效物理层传输机制和通信、计算、缓存资源的优化配置这一科学问题层层递进地展开了研究。相关成果对提无线资源受限条件下“雾”计算的服务质量具有重要意义,弥补了去中心化学习在网络边缘高效部署物理层设计的空白,加快了后5G时代MEC技术在边缘智能、智慧城市、智慧交通等未来物联网应用领域的推广。
项目成果
期刊论文数量(5)
专著数量(0)
科研奖励数量(0)
会议论文数量(2)
专利数量(2)
Federated Learning Over Wireless Device-to-Device Networks: Algorithms and Convergence Analysis
无线设备到设备网络的联合学习:算法和收敛分析
- DOI:10.1109/jsac.2021.3118400
- 发表时间:2021
- 期刊:IEEE Journal on Selected Areas in Communications
- 影响因子:16.4
- 作者:Hong Xing;Osvaldo Simeone;Suzhi Bi
- 通讯作者:Suzhi Bi
Real-Time Resource Allocation for Wireless Powered Multiuser Mobile Edge Computing With Energy and Task Causality
具有能量和任务因果关系的无线供电多用户移动边缘计算的实时资源分配
- DOI:10.1109/tcomm.2020.3011990
- 发表时间:2020-11-01
- 期刊:IEEE TRANSACTIONS ON COMMUNICATIONS
- 影响因子:8.3
- 作者:Wang, Feng;Xing, Hong;Xu, Jie
- 通讯作者:Xu, Jie
Joint task offloading and cache placement for energy-efficient mobile edge computing systems
节能移动边缘计算系统的联合任务卸载和缓存放置
- DOI:10.1109/lwc.2023.3240476
- 发表时间:--
- 期刊:IEEE Wireless Communications Letters
- 影响因子:6.3
- 作者:Jingxuan Liang;Hong Xing;Feng Wang;Vincent K. N. Lau
- 通讯作者:Vincent K. N. Lau
Joint Resource Allocation and Cache Placement for Location-Aware Multi-User Mobile Edge Computing
位置感知多用户移动边缘计算的联合资源分配和缓存放置
- DOI:10.1109/jiot.2022.3196908
- 发表时间:2022
- 期刊:IEEE Internet of Things Journal
- 影响因子:10.6
- 作者:Jiechen Chen;Hong Xing;Xiaohui Lin;Arumugam Nallanathan;Suzhi Bi
- 通讯作者:Suzhi Bi
Fairness-Aware Throughput Maximization for Underlaying Cognitive NOMA Networks
底层认知 NOMA 网络的公平感知吞吐量最大化
- DOI:10.1109/jsyst.2020.2997695
- 发表时间:2021-06-01
- 期刊:IEEE SYSTEMS JOURNAL
- 影响因子:4.4
- 作者:Xu, Lei;Xing, Hong;Zhuansun, Chenlu
- 通讯作者:Zhuansun, Chenlu
数据更新时间:{{ journalArticles.updateTime }}
{{
item.title }}
{{ item.translation_title }}
- DOI:{{ item.doi || "--"}}
- 发表时间:{{ item.publish_year || "--" }}
- 期刊:{{ item.journal_name }}
- 影响因子:{{ item.factor || "--"}}
- 作者:{{ item.authors }}
- 通讯作者:{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:{{ item.authors }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:{{ item.authors }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:{{ item.authors }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:{{ item.authors }}
数据更新时间:{{ patent.updateTime }}
其他文献
其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:{{ item.doi || "--" }}
- 发表时间:{{ item.publish_year || "--"}}
- 期刊:{{ item.journal_name }}
- 影响因子:{{ item.factor || "--" }}
- 作者:{{ item.authors }}
- 通讯作者:{{ item.author }}

内容获取失败,请点击重试

查看分析示例
此项目为已结题,我已根据课题信息分析并撰写以下内容,帮您拓宽课题思路:
AI项目摘要
AI项目思路
AI技术路线图

请为本次AI项目解读的内容对您的实用性打分
非常不实用
非常实用
1
2
3
4
5
6
7
8
9
10
您认为此功能如何分析更能满足您的需求,请填写您的反馈:
相似国自然基金
{{ item.name }}
- 批准号:{{ item.ratify_no }}
- 批准年份:{{ item.approval_year }}
- 资助金额:{{ item.support_num }}
- 项目类别:{{ item.project_type }}
相似海外基金
{{
item.name }}
{{ item.translate_name }}
- 批准号:{{ item.ratify_no }}
- 财政年份:{{ item.approval_year }}
- 资助金额:{{ item.support_num }}
- 项目类别:{{ item.project_type }}