面向簇化移动机器人的网络资源调度算法
工厂自动化要求超可靠低时延通信,使控制中心能够可靠实时地向移动机器人传输控制指令。为此,面向移动机器人作业的工厂环境,提出基于深度增强学习的资源调度算法(DRL-RS)。DRL-RS算法由两个阶段构成在第一阶段,一起作业的移动机器人形成簇群,将簇群内多个移动机器人的指令包融合成一个包,再将此包传输至簇群的领导者;在第二阶段,领导者向它簇群成员广播指令包。DRL-RS算法引用深度增强学习算法优化资源调度。领导者扮演Agent,通过向环境学习,择优选择接入点以及子信道和传输功率,进而最大化向所有机器人传输指令包的成功率。性能分析结果表明,DRL-RS算法传输指令包成功率逼近于穷搜索法。
自适应差分进化改进云资源调度
为了解决云制造资源调度与实际制造场景不符、易陷入局部最优和收敛速度过慢的问题,提出了一种基于自适应多目标差分进化的制造资源调度方法。该方法考虑了实际云制造平台资源调度特点,建立了一个具有时序约束及成本约束的多目标优化资源调度模型。针对云制造资源调度特点,对传统差分进化进行改进,提出自适应变异率和交叉率,实现了寻优过程中变异率与交叉率的动态调整,均衡了多目标差分进化全局搜索与局部搜索能力,提高了最优解搜索的精度与速度。实际算例证明了该方法的有效性和可行性。
基于Petri网的并行测试资源调度建模与验证
基于变迁时延Petri网对2个并行UUT的测试任务的资源调度问题进行了建模与验证,并采用CPNTools对系统进行了仿真。
基于非合作博弈的制造网络资源调度研究
针对制造网络下不同制造任务之间存在的自由竞争关系,研究了制造网络资源调度策略,建立了一种基于非合作博弈的网络资源调度模型,制造任务被映射为非合作博弈网络资源调度模型的局中人,将各制造任务包含的子任务对应的可选网络资源设定为制造任务策略集,以各制造任务的完工时间和执行成本构建收益函数,进而将网络资源调度模型的求解转换为纳什均衡点的求解,并采用多层编码遗传算法对模型进行求解。最后,结合具体模具生产项目进行了仿真实验,验证了所提网络资源调度模型及求解算法的有效性。
-
共1页/4条






