强化学习 | 基于 Q-Learning 算法解决 Treasure on Right 游戏

2024-02-08 13:52

本文主要是介绍强化学习 | 基于 Q-Learning 算法解决 Treasure on Right 游戏,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Hi,大家好,我是半亩花海。在本篇技术博客中,我们将探讨如何使用 Q-Learning 算法来解决 Treasure on Right 游戏,实现一个简单的强化学习


一、游戏背景

Treasure on Right 游戏——一个简单的命令行寻宝游戏,是一个经典的强化学习示例,它模拟了一个智能体在有限状态空间中寻找宝藏的过程。游戏环境由一个线性状态空间组成,智能体可以执行两个动作:向左移动或向右移动。目标是让智能体学会在状态空间中移动,找到宝藏,它位于状态空间的最右侧。


二、Q-Learning 算法简介

Q-Learning 是一种基于值函数的强化学习算法,用于解决智能体与环境交互的问题。它通过迭代更新状态-动作对的 Q 值来优化策略。Q 值表示在特定状态下采取特定动作的长期回报,智能体通过学习最优的 Q 值来选择最佳动作。


三、代码拆解

1. 导入必要的库

首先导入 pandas、numpy 和 time 库,以便进行数据处理、数组操作和控制程序运行时间。

import pandas as pd
import numpy as np
import time

2. 定义常量和参数

在这个部分,我们定义了游戏中所需的常量和参数,包括状态数量、动作集合、epsilon 贪婪度、学习率、奖励衰减因子等。

N_STATES = 6                 # 状态数量
ACTIONS = ["left", "right"]  # 动作集合
EPSILON = 0.9                # epsilon-greedy算法中的贪婪度
ALPHA = 0.1                  # 学习率
GAMMA = 0.9                  # 奖励衰减因子
MAX_EPISODES = 15            # 最大训练轮数
FRESH_TIME = 0.3             # 每一步的时间间隔
TerminalFlag = "terminal"    # 终止状态标识

3. 创建Q表

我们定义了一个函数来创建 Q 表格,用于存储状态-动作对的 Q 值。初始时,所有的 Q 值都被初始化为 0。

def build_q_table(n_states, actions):return pd.DataFrame(  np.zeros((n_states, len(actions))),  columns=actions  )

4. 选择动作

这个函数根据当前状态和 Q 表格选择动作。我们使用 ε-greedy 策略,以一定的概率随机选择动作,以便在探索和利用之间取得平衡。

def choose_action(state, q_table):state_table = q_table.loc[state, :]if (np.random.uniform() > EPSILON) or ((state_table == 0).all()):action_name = np.random.choice(ACTIONS)else:action_name = state_table.idxmax()return action_name

5. 获取环境反馈

这个函数模拟了智能体与环境的交互过程,根据智能体采取的动作返回下一个状态和相应的奖励。

def get_env_feedback(S, A):if A == "right":if S == N_STATES - 2:S_, R = TerminalFlag, 1else:S_, R = S + 1, 0else:S_, R = max(0, S - 1), 0return S_, R

6. 更新环境

这个函数用于更新环境的显示,以便智能体能够观察到当前状态。

def update_env(S, episode, step_counter):env_list = ["-"] * (N_STATES - 1) + ["T"]  if S == TerminalFlag:  interaction = 'Episode %s: total_steps = %s' % (episode + 1, step_counter)  print(interaction)  time.sleep(2)  else:  env_list[S] = '0'  interaction = ''.join(env_list)  print(interaction)  time.sleep(FRESH_TIME)  

7. Q-learning主循环

这个函数包含了整个Q-learning的主要逻辑,包括选择动作、获取环境反馈和更新Q值等步骤。

def rl():q_table = build_q_table(N_STATES, ACTIONS)for episode in range(MAX_EPISODES): step_counter = 0S = 0is_terminated = Falseupdate_env(S, episode, step_counter)  while not is_terminated:  A = choose_action(S, q_table)  S_, R = get_env_feedback(S, A)  q_predict = q_table.loc[S, A]  if S_ != TerminalFlag:  q_target = R + GAMMA * q_table.loc[S_, :].max()  else:  q_target = R  is_terminated = True  q_table.loc[S, A] += ALPHA * (q_target - q_predict)  S = S_  update_env(S, episode, step_counter + 1)  step_counter += 1  return q_table

8. 主程序入口

在这部分代码中,我们运行整个程序,执行Q-learning算法并输出最终的Q表格。

if __name__ == '__main__':q_table = rl()  print(q_table)  

四、项目意义和应用价值

Treasure on Right 游戏作为一个简单的强化学习示例,展示了 Q-Learning 算法在解决智能体与环境交互问题中的应用。通过实现这个项目,我们可以深入理解强化学习算法的工作原理,并了解如何利用这种算法解决实际问题。Q-Learning 算法及其变体在许多领域都有广泛的应用,如机器人控制、自动驾驶、游戏设计等。通过掌握这种算法,我们可以为各种应用场景开发智能决策系统,从而提高效率、优化资源利用,甚至解决复杂的实时决策问题。

在学术界和工业界,Q-Learning 算法已经被广泛应用,并且不断被改进和扩展,以解决更加复杂的问题。因此,掌握 Q-Learning 算法对于从事人工智能和机器学习领域的工程师和研究人员来说是非常重要的。


五、完整代码

# 使用Q-Learning算法来实现treasure on right游戏(宝藏在最右边的位置:训练一个智能体去获得这个宝藏)
import pandas as pd
import numpy as np
import timeN_STATES = 6                 # 状态数量
ACTIONS = ["left", "right"]  # 动作集合
EPSILON = 0.9                # epsilon-greedy算法中的贪婪度
ALPHA = 0.1                  # 学习率
GAMMA = 0.9                  # 奖励衰减因子
MAX_EPISODES = 15            # 最大训练轮数
FRESH_TIME = 0.3             # 每一步的时间间隔
TerminalFlag = "terminal"    # 终止状态标识# 创建Q表
def build_q_table(n_states, actions):return pd.DataFrame(  # 创建一个DataFrame对象np.zeros((n_states, len(actions))),  # 用0初始化一个n_states行,len(actions)列的数组columns=actions  # 设置DataFrame的列名为动作列表)# 根据当前状态选择动作
def choose_action(state, q_table):state_table = q_table.loc[state, :]  # 获取Q表中对应状态行的值if (np.random.uniform() > EPSILON) or ((state_table == 0).all()):  # 判断是否随机选择动作action_name = np.random.choice(ACTIONS)  # 如果满足条件,随机选择一个动作else:action_name = state_table.idxmax()  # 否则选择具有最大值的动作return action_name  # 返回选择的动作# 获取环境的反馈,包括下一个状态和奖励
def get_env_feedback(S, A):if A == "right":  # 如果动作是向右移动if S == N_STATES - 2:  # 如果当前状态是倒数第二个状态S_, R = TerminalFlag, 1  # 下一个状态是终止状态,奖励为1else:  # 否则S_, R = S + 1, 0  # 下一个状态向右移动一步,奖励为0else:  # 如果动作不是向右移动S_, R = max(0, S - 1), 0  # 下一个状态向左移动一步,奖励为0return S_, R  # 返回下一个状态和奖励# 更新环境
def update_env(S, episode, step_counter):env_list = ["-"] * (N_STATES - 1) + ["T"]  # 创建一个环境列表,长度为N_STATES-1,最后一个元素为终止标志"T"if S == TerminalFlag:  # 如果当前状态为终止状态interaction = 'Episode %s: total_steps = %s' % (episode + 1, step_counter)  # 打印本次训练的步数print(interaction)  # 打印信息time.sleep(2)  # 等待2秒else:  # 如果当前状态不是终止状态env_list[S] = '0'  # 在环境列表中将当前状态位置标记为'0'interaction = ''.join(env_list)  # 将环境列表转换为字符串print(interaction)  # 打印环境状态time.sleep(FRESH_TIME)  # 等待一段时间# Q-learning主循环
def rl():# 创建Q表: 存储的表记录的是, 在状态S下, 每个行为A的Q值q_table = build_q_table(N_STATES, ACTIONS)for episode in range(MAX_EPISODES):       # 对于每一轮训练(episode)step_counter = 0                      # 记录每个episode的步数S = 0                                 # 初始状态is_terminated = False                 # 用于判断是否到达终止状态update_env(S, episode, step_counter)  # 更新环境显示# 在未到达终止状态的情况下进行循环while not is_terminated:            # 如果未到达终止状态A = choose_action(S, q_table)   # 选择动作S_, R = get_env_feedback(S, A)  # 获取环境反馈(下一个状态和奖励)q_predict = q_table.loc[S, A]   # 获取Q值的预测值# 根据下一个状态是否为终止状态更新Q值的目标值if S_ != TerminalFlag:                               # 如果下一个状态不是终止状态q_target = R + GAMMA * q_table.loc[S_, :].max()  # 使用贝尔曼方程计算目标Q值else:                                                # 如果下一个状态是终止状态q_target = R                                     # 目标Q值为即时奖励is_terminated = True                             # 到达终止状态q_table.loc[S, A] += ALPHA * (q_target - q_predict)  # 使用Q-learning更新Q表S = S_                                               # 更新当前状态update_env(S, episode, step_counter + 1)             # 更新环境显示step_counter += 1                                    # 步数加1return q_tableif __name__ == '__main__':q_table = rl()  # 运行Q-learning算法print(q_table)  # 打印Q表

这篇关于强化学习 | 基于 Q-Learning 算法解决 Treasure on Right 游戏的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/691225

相关文章

504 Gateway Timeout网关超时的根源及完美解决方法

《504GatewayTimeout网关超时的根源及完美解决方法》在日常开发和运维过程中,504GatewayTimeout错误是常见的网络问题之一,尤其是在使用反向代理(如Nginx)或... 目录引言为什么会出现 504 错误?1. 探索 504 Gateway Timeout 错误的根源 1.1 后端

解决升级JDK报错:module java.base does not“opens java.lang.reflect“to unnamed module问题

《解决升级JDK报错:modulejava.basedoesnot“opensjava.lang.reflect“tounnamedmodule问题》SpringBoot启动错误源于Jav... 目录问题描述原因分析解决方案总结问题描述启动sprintboot时报以下错误原因分析编程异js常是由Ja

深度剖析SpringBoot日志性能提升的原因与解决

《深度剖析SpringBoot日志性能提升的原因与解决》日志记录本该是辅助工具,却为何成了性能瓶颈,SpringBoot如何用代码彻底破解日志导致的高延迟问题,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言第一章:日志性能陷阱的底层原理1.1 日志级别的“双刃剑”效应1.2 同步日志的“吞吐量杀手”

MySQL 表空却 ibd 文件过大的问题及解决方法

《MySQL表空却ibd文件过大的问题及解决方法》本文给大家介绍MySQL表空却ibd文件过大的问题及解决方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考... 目录一、问题背景:表空却 “吃满” 磁盘的怪事二、问题复现:一步步编程还原异常场景1. 准备测试源表与数据

解决Nginx启动报错Job for nginx.service failed because the control process exited with error code问题

《解决Nginx启动报错Jobfornginx.servicefailedbecausethecontrolprocessexitedwitherrorcode问题》Nginx启... 目录一、报错如下二、解决原因三、解决方式总结一、报错如下Job for nginx.service failed bec

SysMain服务可以关吗? 解决SysMain服务导致的高CPU使用率问题

《SysMain服务可以关吗?解决SysMain服务导致的高CPU使用率问题》SysMain服务是超级预读取,该服务会记录您打开应用程序的模式,并预先将它们加载到内存中以节省时间,但它可能占用大量... 在使用电脑的过程中,CPU使用率居高不下是许多用户都遇到过的问题,其中名为SysMain的服务往往是罪魁

Unity新手入门学习殿堂级知识详细讲解(图文)

《Unity新手入门学习殿堂级知识详细讲解(图文)》Unity是一款跨平台游戏引擎,支持2D/3D及VR/AR开发,核心功能模块包括图形、音频、物理等,通过可视化编辑器与脚本扩展实现开发,项目结构含A... 目录入门概述什么是 UnityUnity引擎基础认知编辑器核心操作Unity 编辑器项目模式分类工程

MySQ中出现幻读问题的解决过程

《MySQ中出现幻读问题的解决过程》文章解析MySQLInnoDB通过MVCC与间隙锁机制在可重复读隔离级别下解决幻读,确保事务一致性,同时指出性能影响及乐观锁等替代方案,帮助开发者优化数据库应用... 目录一、幻读的准确定义与核心特征幻读 vs 不可重复读二、mysql隔离级别深度解析各隔离级别的实现差异

Java报错:org.springframework.beans.factory.BeanCreationException的五种解决方法

《Java报错:org.springframework.beans.factory.BeanCreationException的五种解决方法》本文解析Spring框架中BeanCreationExce... 目录引言一、问题描述1.1 报错示例假设我们有一个简单的Java类,代表一个用户信息的实体类:然后,

Python学习笔记之getattr和hasattr用法示例详解

《Python学习笔记之getattr和hasattr用法示例详解》在Python中,hasattr()、getattr()和setattr()是一组内置函数,用于对对象的属性进行操作和查询,这篇文章... 目录1.getattr用法详解1.1 基本作用1.2 示例1.3 原理2.hasattr用法详解2.