下面以经典的 FrozenLake 环境(一个 4x4 的网格世界)为例,使用 Python 和 OpenAI Gym 库来实现 Q-learning 算法。
import numpy as np
import gym
# 创建FrozenLake环境
env = gym.make('FrozenLake-v1', is_slippery=False)
# 初始化参数
num_states = env.observation_space.n
num_actions = env.action_space.n
Q = np.zeros((num_states, num_actions))
num_episodes = 1000
max_steps = 100
alpha = 0.1 # 学习率
gamma = 0.99 # 折扣因子
epsilon = 0.1 # 探索率
for episode in range(num_episodes):
state = env.reset()
for step in range(max_steps):
# 选择动作(ε-贪心策略)
if np.random.uniform(0, 1) < epsilon:
action = env.action_space.sample()
else:
action = np.argmax(Q[state, :])
# 执行动作,获得下一个状态和奖励
next_state, reward, done, info = env.step(action)
# 更新Q函数
best_next_action = np.argmax(Q[next_state, :])
td_target = reward + gamma * Q[next_state, best_next_action]
td_error = td_target - Q[state, action]
Q[state, action] += alpha * td_error
# 状态更新
state = next_state
# 回合结束
if done:
break
print("训练完成后的Q表:")
print(Q)
其中:
gym.make('FrozenLake-v1')
创建环境;[num_states, num_actions]
,用于存储每个状态-动作对的价值;为了平衡探索和利用,ε-贪心策略以 ε 的概率进行探索 (随机选择动作),以 1-ε 的概率进行利用(选择当前最优动作)。学习率决定了新获取的信息在多大程度上覆盖旧的信息,较高的学习率意味着对新信息的依赖性更强。折扣因子用于权衡即时奖励和未来奖励的重要性。接近1的折扣因子表示更加看重未来的奖励。在满足一定条件下,如所有状态-动作对被无限次访问、学习率满足罗宾条件等,Q-learning 算法能够保证收敛到最优 Q 函数。Q-learning 是强化学习中最经典和基础的算法之一,它通过学习状态-动作值函数来指导智能体的决策。通过不断地与环境交互和更新 Q 值,智能体最终能够学到一个最优策略,即在每个状态下选择使得长期累积奖励最大的动作。
好文章,需要你的鼓励
CarMax 作为美国最大的二手车零售商,年收入超过 265 亿美元。在 Shamim Mohammad 的领导下,公司成功实现了数字化转型,成为汽车行业的领先者。通过建立强大的技术基础、优化数据策略、应用人工智能技术,以及采用产品运营模式,CarMax 正在重塑汽车零售的未来。Mohammad 的前瞻性领导力和对创新的不懈追求,使 CarMax 在数字化时代保持竞争优势。
数据中心对我们的数字生活至关重要,但也给环境带来负担。为应对生态挑战,数据中心正向可持续、可再生能源、高效技术和可回收材料转型。这一转变不仅符合日益严格的环保法规,还能为企业带来竞争优势。从"白色空间"到"绿色建筑"的转型,将提高运营效率,降低成本,减少碳排放,为行业树立可持续发展的典范。
Nvidia最近改变了GPU的定义方式,将单个芯片die视为一个GPU,而非之前的整个模块。这一变化可能导致Nvidia AI Enterprise许可证费用翻倍。新的HGX B300 NVL16系统现在被视为拥有16个GPU,而非8个,这可能使年度订阅费用从36,000美元增至72,000美元。Nvidia表示,这一改变源于技术原因,但也可能是为了增加软件订阅收入。
一项新研究表明,OpenAI 可能在未获授权的情况下,使用 O'Reilly 出版社的付费图书来训练其先进的 AI 模型。研究发现,与早期模型相比,OpenAI 的 GPT-4o 模型对 O'Reilly 付费内容表现出更强的识别能力。这一发现引发了对 AI 训练数据来源和版权问题的讨论,同时也凸显了 AI 公司在寻求高质量训练数据方面面临的挑战。