Pensieve-PPO:通过最新的RL算法(包括DQN,A2C,PPO和SAC)最简单地实现Pensieve(SIGCOMM 17')

时间:2021-05-06 01:09:21
【文件属性】:
文件名称:Pensieve-PPO:通过最新的RL算法(包括DQN,A2C,PPO和SAC)最简单地实现Pensieve(SIGCOMM 17')
文件大小:2.71MB
文件格式:ZIP
更新时间:2021-05-06 01:09:21
reinforcement-learning dqn pensieve ppo a2c 盆式PPO 关于沉思-PPO 这是Pensieve [1]的一个简单的TensorFlow实现。 详细地说,我们通过PPO而非A3C培训了Pensieve。 这是一个稳定的版本,已经准备好训练集和测试集,并且您可以轻松运行仓库:只需键入 python train.py 反而。 将每300个时代在测试集(来自HSDPA)上评估结果。 实验结果 我们报告了熵权重β,奖励和熵的训练曲线。 通过双簧管网络轨迹评估结果。 提示:橙色曲线:pensieve-ppo; 蓝色曲线:pensieve-a2c 预训练模型 此外,我们还在添加了预训练模型 与原始Pensieve模型相比,该模型的平均QoE提高了7.03%(0.924-> 0.989)。 如果您有任何疑问,请随时告诉我。 [1] Mao H,Netravali R,Alizadeh M.带自适应神经网络自适应视频流[C] // ACM数据

网友评论