发布于2023-10-01 阅读(0)
扫一扫,手机访问
近年来,算法交易领域对强化学习(RL)表现出了极大的兴趣。强化学习算法通过从经验中学习,并根据奖励来优化行动,非常适合用于交易机器人。在本文中,我们将简要介绍如何利用Gym Anytrading环境和GME(GameStop Corp.)交易数据集构建一个基于强化学习的交易机器人
强化学习是机器学习的一个分支,其核心是代理与环境之间的交互,以达到特定的目标。代理在环境中采取行动,并通过接收奖励的反馈来学习,以最大化累积奖励。代理的目标是找到一种最优策略,将状态映射到行动,以获得最佳的结果
Gym Anytrading是一个基于OpenAI Gym的开源库,用于创建金融交易环境。它允许模拟不同的交易场景,并使用强化学习算法测试各种交易策略
要安装所需的依赖项,请运行以下代码,其中包括TensorFlow、stable-baselines3和Gym Anytrading这些主要库
!pip install tensorflow !pip install stable_baselines3 !pip install gym !pip install gym-anytrading !pip install tensorflow-gpu
导入必要的库和设置环境开始:
# Gym stuff import gym import gym_anytrading # Stable baselines - RL stuff from stable_baselines3.common.vec_env import DummyVecEnv from stable_baselines3 import A2C # Processing libraries import numpy as np import pandas as pd from matplotlib import pyplot as plt
将使用GameStop Corp. (GME)的历史交易数据作为示例。我们假设您拥有CSV格式的GME交易数据,没有的话可以通过搜索引擎找到下载地址。
准备Gym Anytrading环境,以便加载GME交易数据
# Load GME trading data df = pd.read_csv('gmedata.csv') # Convert data to datetime type df['Date'] = pd.to_datetime(df['Date']) df.dtypes # Set Date as the index df.set_index('Date', inplace=True) df.head()
我们将使用Gym Anytrading创建一个交易环境,该环境将模拟GME交易数据,并让我们的代理通过购买、出售和持有股票等行为与环境互动
# Create the environment env = gym.make('stocks-v0', df=df, frame_bound=(5, 100), window_size=5) # View environment features env.signal_features # View environment prices env.prices
在继续构建RL模型之前,可以先对环境可视化了解其特征。
# Explore the environment env.action_space state = env.reset() while True:action = env.action_space.sample()n_state, reward, done, info = env.step(action)if done:print("info", info)break plt.figure(figsize=(15, 6)) plt.cla() env.render_all() plt.show()
该图显示了GME交易数据的一部分,以及Gym Anytrading环境生成的买入和卖出信号。
我们将采用stable-baselines3库来实现RL模型,并使用A2C(Advantage Actor-Critic)算法
# Creating our dummy vectorizing environment env_maker = lambda: gym.make('stocks-v0', df=df, frame_bound=(5, 100), window_size=5) env = DummyVecEnv([env_maker]) # Initializing and training the A2C model model = A2C('MlpPolicy', env, verbose=1) model.learn(total_timesteps=1000000)
在训练模型之后,可以评估它在GME交易数据的不同部分上的表现。
# Create a new environment for evaluation env = gym.make('stocks-v0', df=df, frame_bound=(90, 110), window_size=5) obs = env.reset() while True:obs = obs[np.newaxis, ...]action, _states = model.predict(obs)obs, rewards, done, info = env.step(action)if done:print("info", info)break plt.figure(figsize=(15, 6)) plt.cla() env.render_all() plt.show()
本文提供了使用Gym Anytrading环境和stable-baselines3库构建强化学习交易机器人的指南,但要构建一个成功的交易机器人,需要综合考虑各种因素并进行持续改进
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店