強(qiáng)化學(xué)習(xí)是機(jī)器學(xué)習(xí)的方式之一,它與監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)并列,是三種機(jī)器學(xué)習(xí)訓(xùn)練方法之一。
在圍棋上擊敗世界第一李世石的 AlphaGo、在《星際爭霸2》中以 10:1 擊敗了人類頂級職業(yè)玩家的AlphaStar,他們都是強(qiáng)化學(xué)習(xí)模型。諸如此類的模型還有 AlphaGo Zero 等。
強(qiáng)化學(xué)習(xí)的原理非常簡單,它非常像心理學(xué)中新行為主義派的斯金納發(fā)現(xiàn)的操作性條件反射。
操作性條件反射是什么?當(dāng)年斯金納做了一個箱子,進(jìn)行了兩次實驗。
第一次實驗,箱子里放了一只饑餓的老鼠,在箱子的一邊有一個可供按壓的杠桿,在杠桿旁邊有一個放置食物的小盒子。動物在箱內(nèi)按下杠桿,食盒就會釋放食物進(jìn)入箱內(nèi),動物可以取食。結(jié)果:小鼠自發(fā)學(xué)會了按按鈕。這是積極強(qiáng)化。
另一次實驗是,每次小白鼠不按下按鈕,則給箱子通電,小白鼠因此學(xué)會了按按鈕以防自己遭受電擊。這是消極強(qiáng)化(負(fù)向強(qiáng)化)。
這就是斯金納發(fā)現(xiàn)的操作性條件反射,當(dāng)行為得到獎勵或懲罰時出現(xiàn)刺激,反過來控制這種行為。
強(qiáng)化學(xué)習(xí)與操作性條件反射有異曲同工之妙,以人類玩游戲為例,如果在游戲中采取某種策略購買某種類型的裝備可以取得較高的得分,那么就會進(jìn)一步“強(qiáng)化”這種策略,以期繼續(xù)取得較好的結(jié)果。
網(wǎng)上有不少強(qiáng)化學(xué)習(xí)的例子,鑒于讀者中對股票感興趣的同學(xué)比較多,我們以股票預(yù)測為例,實驗一下 wangshub 的 RL-Stock 項目。
下面就試一下這個強(qiáng)化學(xué)習(xí)項目,前往GitHub下載 RL-Stock:
https://github.com/wangshub/RL-Stock/
如果你無法使用GitHub,也可以在Python實用寶典公眾號后臺回復(fù):股票強(qiáng)化學(xué)習(xí)1 下載全文完整代碼,這份代碼包括第三部分的多進(jìn)程優(yōu)化邏輯。
1.準(zhǔn)備
開始之前,你要確保Python和pip已經(jīng)成功安裝在電腦上,如果沒有,可以訪問這篇文章:超詳細(xì)Python安裝指南 進(jìn)行安裝。
**(可選1) **如果你用Python的目的是數(shù)據(jù)分析,可以直接安裝Anaconda:Python數(shù)據(jù)分析與挖掘好幫手—Anaconda,它內(nèi)置了Python和pip.
**(可選2) **此外,推薦大家用VSCode編輯器,它有許多的優(yōu)點:Python 編程的最好搭檔—VSCode 詳細(xì)指南。
請注意,由于TensorFlow版本限制,這個強(qiáng)化學(xué)習(xí)項目只支持 Python3 以上,Python3.6 及以下的版本,因此我建議使用Anaconda創(chuàng)建一個新的虛擬環(huán)境運行這個項目:
conda create -n rlstock python=3.6
另外,實測依賴需要改動 requirements.txt 的tensorflow-gpu版本至1.14:
Windows環(huán)境下打開Cmd(開始—運行—CMD),蘋果系統(tǒng)環(huán)境下請打開Terminal(command+空格輸入Terminal),進(jìn)入 RL-Stock 項目文件夾輸入命令安裝依賴:
pip install -r requirements.txt
2.小試強(qiáng)化學(xué)習(xí)
運行RL-Stock項目前,需要下載數(shù)據(jù)。進(jìn)入剛創(chuàng)建的虛擬環(huán)境,運行g(shù)et_stock_data.py代碼會自動下載數(shù)據(jù)到 stockdata 目錄中:
python get_stock_data.py
如果你使用的是在Github上下載的代碼而不是Python實用寶典后臺改好的代碼,請注意 get_stock_data.py 的第46行,必須對 row["code_name"] 去除 * 號,否則Windows系統(tǒng)下可能會存在問題:
df_code.to_csv(f'{self.output_dir}/{row["code"]}.{row["code_name"].strip("*")}.csv', index=False)
數(shù)據(jù)下載完成后就可以運行 main.py 執(zhí)行強(qiáng)化學(xué)習(xí)訓(xùn)練和測試,不過在訓(xùn)練之前,我們先簡單了解下整個項目的輸入狀態(tài)、動作、和獎勵函數(shù)。
輸入狀態(tài)(觀測 Observation)
策略網(wǎng)絡(luò)觀測的就是一只股票的各類數(shù)據(jù),比如開盤價、收盤價、成交量等,它可以由許多因子組成。為了訓(xùn)練時網(wǎng)絡(luò)收斂,觀測狀態(tài)數(shù)據(jù)輸入時必須要進(jìn)行歸一化,變換到 ** [-1, 1]
** 的區(qū)間內(nèi)。RL-Stock輸入的觀測數(shù)據(jù)字段如下:
共有 買入 、賣出和**持有 **3 種動作,定義動作( ** action
** )為長度為 2 的數(shù)組
- **
action[0]
**為操作類型; action[1]
表示買入或賣出百分比;
動作類型action[0] | 說明 |
---|---|
1 | 買入action[1] |
2 | 賣出action[1] |
3 | 持有 |
注意,當(dāng)動作類型 action[0] = 3
時,表示不買也不拋售股票,此時 action[1]
的值無實際意義,網(wǎng)絡(luò)在訓(xùn)練過程中,Agent 會慢慢學(xué)習(xí)到這一信息。Agent,實稱代理,在我們的上下文中,你可以視其為策略。
獎勵 Reward
獎勵函數(shù)的設(shè)計,對強(qiáng)化學(xué)習(xí)的目標(biāo)至關(guān)重要。在股票交易的環(huán)境下,最應(yīng)該關(guān)心的就是當(dāng)前的盈利情況,故用當(dāng)前的利潤作為獎勵函數(shù)。
# profits
reward = self.net_worth - INITIAL_ACCOUNT_BALANCE
reward = 1 if reward > 0 else -100
為了使網(wǎng)絡(luò)更快學(xué)習(xí)到盈利的策略,當(dāng)利潤為負(fù)值時,給予網(wǎng)絡(luò)一個較大的懲罰 (-100
)。
梯度策略
作者采用了基于策略梯度的PPO 算法,OpenAI 和許多文獻(xiàn)已把 PPO 作為強(qiáng)化學(xué)習(xí)研究中首選的算法。PPO 優(yōu)化算法 Python 實現(xiàn)參考 stable-baselines。
數(shù)據(jù)集及自定義
在數(shù)據(jù)集上,作者使用了1990年至2019年11月作為訓(xùn)練集,2019年12月作為測試集。
1990-01-01 ~2019-11-29 | 2019-12-01 ~2019-12-31 |
---|---|
訓(xùn)練集 | 測試集 |
如果你要調(diào)整這個訓(xùn)練集和測試集的時間,可以更改 get_stock_data.py 的以下部分:
if __name__ == '__main__':
# 獲取全部股票的日K線數(shù)據(jù)
# 訓(xùn)練集
mkdir('./stockdata/train')
downloader = Downloader('./stockdata/train', date_start='1990-01-01', date_end='2019-11-29')
downloader.run()
# 測試集
mkdir('./stockdata/test')
downloader = Downloader('./stockdata/test', date_start='2019-12-01', date_end='2019-12-31')
downloader.run()
訓(xùn)練并測試
首先,我們嘗試一下單一代碼的訓(xùn)練和測試,修改main.py里的股票代碼,比如我這里修改為601919中遠(yuǎn)??兀?/p>
if __name__ == '__main__':
# multi_stock_trade()
test_a_stock_trade('sh.601919')
# ret = find_file('./stockdata/train', '601919')
# print(ret)
運行下面的命令,執(zhí)行此深度學(xué)習(xí)模型的訓(xùn)練和測試。
python main.py
訓(xùn)練完成后,會自動進(jìn)行模擬操作測試集這20個交易日,然后會輸出這20個交易日的測試結(jié)果:
------------------------------
Step: 20
Balance: 0.713083354256014
Shares held: 2060 (Total sold: 2392)
Avg cost for held shares: 5.072161917927474 (Total sales value: 12195.091008936648)
Net worth: 10930.56492977963 (Max net worth: 10930.56492977963)
Profit: 930.5649297796299
------------------------------
Step: 21
Balance: 0.713083354256014
Shares held: 2060 (Total sold: 2392)
Avg cost for held shares: 5.072161917927474 (Total sales value: 12195.091008936648)
Net worth: 10815.713083354256 (Max net worth: 10930.56492977963)
Profit: 815.713083354256
利潤圖如下:
然后我們看一下中遠(yuǎn)???019年12月的走勢:
可以看到這個月的中遠(yuǎn)海控是一個上升趨勢,一共上漲了12%,而這個模型捕捉到其中8%左右的利潤,還是相當(dāng)不錯的。
當(dāng)然,凡事不能只看個體,下面我們修改下作者的源代碼,試一下其在市場里的整體表現(xiàn)。
3.強(qiáng)化學(xué)習(xí)模型整體表現(xiàn)
由于作者原有的模型是單進(jìn)程的計算,為了測試全市場的表現(xiàn),我進(jìn)行了多進(jìn)程改造。
我將作者的訓(xùn)練及測試任務(wù)集成到一個函數(shù)中,并使用celery做并行:
@app.task
def multi_stock_trade(code):
stock_file = find_file('./stockdata/train', str(code))
if stock_file:
try:
profits = stock_trade(stock_file)
with open(f'result/code-{code}.pkl', 'wb') as f:
pickle.dump(profits, f)
except Exception as err:
print(err)
將訓(xùn)練集的時間范圍設(shè)置為1990年到2021年,測試集的測試周期改為最近一個月:
1990-01-01 ~2021-11-25 | 2021-11-26 ~2021-12-25 |
---|---|
訓(xùn)練集 | 測試集 |
開啟redis-server 及 Celery Worker:
# redis-server 獨占一個進(jìn)程,所以需要另開一個窗口
celery -A tasks worker -l info
遍歷所有的股票代碼做并發(fā)測試:
files = os.listdir("stockdata/train")
files_test = os.listdir("stockdata/test")
all_files_list = list(set(files) & set(files_test))
for i in all_files_list:
# 使用celery做并發(fā)
code = ".".join(i.split(".")[:2])
# multi_stock_trade.apply_async(args=(code,))
multi_stock_trade(code)
再對生成的結(jié)果進(jìn)行統(tǒng)計,測試結(jié)果如下:
對這個模型在2021-11-26到2021-12-25的測試結(jié)果表明,有40.8%的股票進(jìn)行了交易并且獲利,有49.9%的股票沒有進(jìn)行操作,有9.4%的股票進(jìn)行了交易并虧損。平均每次交易利潤為445元,作為一個測試策略,這個結(jié)果已經(jīng)很不錯了。
由于只是一個測試策略,這里就不做詳細(xì)的風(fēng)險分析了,實際上我們還需要觀察這個策略的最大回撤率、夏普率等指標(biāo)才能更好地評判此策略的好壞。
我認(rèn)為這個項目還有很大的改造空間,原邏輯中只觀察了OHLC等基本數(shù)據(jù),我們還可以增加很多指標(biāo),比如基于Ta-lib,算出MACD、RSI等技術(shù)指標(biāo),再將其加入Observation中,讓模型觀察學(xué)習(xí)這些數(shù)據(jù)的特征,可能會有不錯的表現(xiàn)。
-
模型
+關(guān)注
關(guān)注
1文章
3226瀏覽量
48806 -
代碼
+關(guān)注
關(guān)注
30文章
4779瀏覽量
68521 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8406瀏覽量
132558 -
強(qiáng)化學(xué)習(xí)
+關(guān)注
關(guān)注
4文章
266瀏覽量
11246
發(fā)布評論請先 登錄
相關(guān)推薦
評論