深度强化学习系列tensorflow2.0自定义loss函数实现policy gradient策略梯度

本文主要是介绍深度强化学习系列tensorflow2.0自定义loss函数实现policy gradient策略梯度,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本篇文章利用tensorflow2.0自定义loss函数实现policy gradient策略梯度,自定义loss=-log(prob) *Vt
现在训练最高分能到193分,但是还是不稳定,在修改中,欢迎一起探讨文章代码也有参考莫烦大佬的代码action_dim = 2 //定义动作
state_dim = 4 //定义状态
env = gym.make('CartPole-v0')
class PGModel(tf.keras.Model):def __init__(self):super().__init__()self.dense1 = layers.Dense(128,input_dim=state_dim,activation='relu')layers.Dropout(0.1)self.all_acts = layers.Dense(units=action_dim)self.x = 0def call(self,inputs):x = self.dense1(inputs)x = self.all_acts(x)self.x = xoutput = tf.nn.softmax(x)return outputclass PG():def __init__(self):self.model = PGModel()def choose_action(self, s):prob = self.model.predict(np.array([s]))[0]#print(prob)return np.random.choice(len(prob),p=prob)def discount_reward(self,rewards,gamma=0.95): #衰减reward 通过最后一步奖励反推真实奖励out = np.zeros_like(rewards)dis_reward = 0for i in reversed(range(len(rewards))):dis_reward = dis_reward + gamma * rewards[i]  # 前一步的reward等于后一步衰减reward加上即时奖励乘以衰减因子out[i] = dis_rewardreturn  out/np.std(out - np.mean(out))def all_actf(self):all_act = self.model.xprint(all_act)return all_actdef reca_batch(self,a_batch):a = a_batchreturn adef def_loss(self,label=reca_batch,logit=all_actf):  //自定义loss函数neg_log_prob = tf.nn.softmax_cross_entropy_with_logits(labels=label,logits=logit)return neg_log_probdef train(self,records): #训练s_batch = np.array([record[0] for record in records]) #取状态,每次batch个状态a_batch = np.array([[1 if record[1]==i else 0 for i in range(action_dim)]for record in records])self.reca_batch(a_batch)prob_batch = self.model.predict(s_batch) * a_batchr_batch = self.discount_reward([record[2] for record in records ])self.model.compile(loss=self.def_loss,optimizer=optimizers.Adam(0.001))self.model.fit(s_batch,prob_batch,sample_weight=r_batch,verbose=1)episodes = 2000
score_list= []
pg = PG()for i in range(episodes):score = 0records = []s = env.reset()while True:a = pg.choose_action(s)#print(a)next_s,r,done,_ = env.step(a)records.append((s, a, r))s = next_sscore += rif done:pg.train(records)score_list.append(score)print("episode:", i, "score:", score, "maxscore:", max(score_list))breakif np.mean(score_list[-10:]) > 195:pg.model.save('CarPoleModel.h5')breakenv.close()

这篇关于深度强化学习系列tensorflow2.0自定义loss函数实现policy gradient策略梯度的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/921862

相关文章

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

SpringBoot+RustFS 实现文件切片极速上传的实例代码

《SpringBoot+RustFS实现文件切片极速上传的实例代码》本文介绍利用SpringBoot和RustFS构建高性能文件切片上传系统,实现大文件秒传、断点续传和分片上传等功能,具有一定的参考... 目录一、为什么选择 RustFS + SpringBoot?二、环境准备与部署2.1 安装 RustF

Nginx部署HTTP/3的实现步骤

《Nginx部署HTTP/3的实现步骤》本文介绍了在Nginx中部署HTTP/3的详细步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学... 目录前提条件第一步:安装必要的依赖库第二步:获取并构建 BoringSSL第三步:获取 Nginx

MyBatis Plus实现时间字段自动填充的完整方案

《MyBatisPlus实现时间字段自动填充的完整方案》在日常开发中,我们经常需要记录数据的创建时间和更新时间,传统的做法是在每次插入或更新操作时手动设置这些时间字段,这种方式不仅繁琐,还容易遗漏,... 目录前言解决目标技术栈实现步骤1. 实体类注解配置2. 创建元数据处理器3. 服务层代码优化填充机制详

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

Java实现字节字符转bcd编码

《Java实现字节字符转bcd编码》BCD是一种将十进制数字编码为二进制的表示方式,常用于数字显示和存储,本文将介绍如何在Java中实现字节字符转BCD码的过程,需要的小伙伴可以了解下... 目录前言BCD码是什么Java实现字节转bcd编码方法补充总结前言BCD码(Binary-Coded Decima

SpringBoot全局域名替换的实现

《SpringBoot全局域名替换的实现》本文主要介绍了SpringBoot全局域名替换的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录 项目结构⚙️ 配置文件application.yml️ 配置类AppProperties.Ja

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、