目前位置: 首頁 / 國內外新聞 / 國外新聞 / 人工智慧投資決策是一個「黑箱」嗎?

人工智慧投資決策是一個「黑箱」嗎?

中國平安資產管理(香港)資本市場負責人柴志傑、人工智慧量化投資高級經理李偲於《金融時報》撰文表示,AI決策在眾多行業中面臨同一個窘境,就是怎樣「取信於人」,即人類始終無法完全搞懂AI是如何作決策的,甚至開發者本身也一樣。

當前人工智慧的應用發展一日千里,在醫療健康、製造業、零售業、城市管理等眾多領域,人類已越來越多地讓AI來幫我們分析和決策。在金融投資領域,我們同樣也看到運用人工智慧技術的產品脫穎而出,尤其在今年上半年新冠疫情引發的全球市場波動中,不少AI量化基金走勢穩健,穩定性遠超傳統基金產品。

然而,AI決策在眾多行業中依然面臨著一個窘境,就是怎樣「取信於人」,人類始終無法完全搞懂AI是如何作決策的,甚至開發者本身也一樣。在金融投資中,傳統投資的大師們強調,不要投資於不懂的東西,AI這種「不可言說」的投資策略,給許多投資者帶來強烈的不安全感。

也因此,AI尤其機器學習決策被稱為「黑箱模型」(Black Box Models)。但即便這個比喻也不太恰當,「黑箱」,意味著箱子打開以後,其運作原理是人們看得懂的,但人工智慧即便「打開」它的決策過程和結果,或許仍然不能讓人類看懂。

人類投資者無法理解的因子

2016年,谷歌開發的人工智慧系統AlphaGo與韓國職業九段棋手李世石的歷史性對弈中,AlphaGo在第二局第37手下出了被視為扭轉戰局的一步,歐洲圍棋冠軍樊麾當時的評價是:「這不是人類的棋步。」(It’s not a human move.)

自那時起,人工智慧在眾多領域,開始探索人腦思維能力從未涉足的秘境。例如當前AI投資中一個熱門方向,是利用深度學習技術挖掘令股票回報更佳的「因子」,如波動性、價值等。頂尖的AI基金通常宣稱模型至少有數百個因子,並且能夠實時衡量數百個因子之間的動態關係和權重變化,看起來似乎已極端複雜,但事實上人工智慧模型真正做的還遠不止於此,除了人類投資者能夠理解的因子外,AI機器學習模型在對市場數據的深度學習過程中還會挖掘出大量完全不能用人類語言和邏輯解釋的因子。

在我們的模型中,這些因子呈現為一個極冗長的數學表達式,其複雜程度連模型開發人員也無法看懂,我們將它們稱為「深度因子」。由於它們的邏輯和表達過於複雜,在人類現有的經濟學體系中顯然看不出任何意義,即便最優秀的數學家也難以分析。然而,我們從反覆的測試中可以看到這些「深度因子」不但有很強的統計學意義,對市場趨勢有強大的預測力,甚至放到不同地區市場的測試中,依然能夠明顯地增加回報。

同時,它們與已知的數百個傳統因子相關性非常低,這顯示它們是在獨立地發揮作用,換言之,這些深度因子跟價值、波動性、成長性這些人類投資者熟悉的因子一樣,都是市場中真實存在的關聯,只是以人腦當前的思維水平,既不能找到,也無法讀懂這些關聯。

人類必須承認的一個客觀事實是,人腦理解的能力相當有限,我們無法理解宇宙的層次,甚至對我們自己的大腦如何運作也所知甚少。物理學家霍金曾經提出一個「M理論」,認為宇宙存在11個維度,而人類能夠理解到的僅有4個(三維空間加上時間)。人工智慧深度學習的運行,動輒涉及幾百萬乃至數十億的參數,即便將全部算法和表達式攤開在眼前,人類能夠理解的依然有限。

可解釋的人工智慧

既然人工智慧對於人腦智慧猶如「降維打擊」,我們是否就不去嘗試解釋了呢?

當然並非如此,假如人工智慧在發展中一直不能夠解釋,人類將無法駕馭人工智慧的決策,那麼人工智慧就不可能實現與人類協同工作。更大的問題是,如果人類沒有解讀人工智慧的能力,一旦其決策出現了錯誤,或是出現干擾、虛假的訊息,在投資領域可能帶來重大虧損,在醫療、交通和國家安全等領域後果則顯然更具破壞性。

人類不能直接看懂AI複雜的邏輯,不代表我們不能夠用人類可以理解的方式去分析,在我們開發人工智慧投資機器學習模型過程中,對於模型異常情況的檢測和糾錯就是一個例子。開發人員會從更精細的角度,孤立分離出機器學習過程中的每一個市場數據中提取出來的「特徵」(Features),計算出每一個特徵對於最終決策的貢獻比重,從而推斷出異常的原因。這種算法稱為「孤立森林」(Isolation Trees),是對於異常檢測的一種相當高效的方法。

除了具體到特徵的分析,我們也會使用針對模型結構改善的算法。運用分拆法可將神經網路模型一層一層拆開,並輸入隨機數據來檢測每一層模型的輸出情況,或是剝離某些層次後的輸出情況,找到異常的層次後,再進一步分拆到每一個節點(神經元),通過其分布狀況和對於模型選股最終決策的貢獻比重,來定位存在異常的節點。

事實上,近年來「可解釋的人工智慧」(Explainable Artificial Intelligence,簡稱XAI)逐漸成為人工智慧中一個新興方向,聚焦於探究人工智慧可為人類所理解的功能或運作機制,令其擁有足夠的透明度。這一方向在過去五年中發展極快,也獲得了越來越高的關注。

2018年,歐盟首先將人工智慧的可解釋性提升到法律層面,當年5月發布的資料保護規範(General Data Protection Regulation)中,提出對於「自動化的決策」(包括AI的決策)用戶有拒絕適用,以及要求解釋的權利。美國隨後在其「算法問責法案2019」(Algorithmic Accountability Act of 2019)之中,也賦予用戶同樣的權利,亞洲如新加坡等地,也頒布了類似的法規,成為研究機構投入XAI的重要推動力。

XAI發展到今天,已開發出了諸多有效的算法,可以說人工智慧「黑盒」正在慢慢打開,目前打開的進度接近一半。隨著電腦算力繼續快速提升,相信在不遠的未來,我們將能夠打開人工智慧黑盒中的全部秘密。

到那時,由AI投資平台重新提取和歸納的投資策略,或許會反過來重塑每個投資者心目中對股票的定義。同樣的情況還會發生在各個領域,推動人類整體認知水平上一次質的飛躍。作為人類前所未有的強大思維工具,人工智慧除了在我們生活的中的方方面面提供更多的高效和便利之外,或許更將成為人類解答宇宙和生命終極奧秘的重要武器。

引用來源:FT
國內新聞直播

NHK NEWS LIVE

ABC NEWS LIVE

Bloomberg Global Financial News