AI與決策:分類困境(Paradox of Taxonomy)
【AI與決策】文章將帶您討論AI在法政領域中所遇到的決策難題,以及其所衍生出的責任、倫理…等議題,點出面對數位浪潮應有的問題意識,並整合各界研究評析,呈現當代學家的思考模式,與公民社會一同關注未來發展。
分類學與其傳統問題
無論在科學研究、哲學思考還是人工智慧領域,我們必須對現象進行劃分與歸納之後才能進一步處理問題。分類學是人類理解世界的重要工具:我們透過分類建構對世界的認知,再基於這些認知形塑性格、追求品味、確立意義。然而,分類的過程其實潛藏著許多矛盾與挑戰,使得分類學本身成為一個深具思辨意義的課題。分類學和理性主義(rationalism)關係密切,強調通過邏輯與數學尋求普遍而清晰的劃分基礎,1950年代後在政治學領域掀起行為革命(Behavioral Revolution),自此量化研究蔚為風潮,基於統計分析的實證研究開始顛覆傳統政治理論的抽象學說。
但理性主義也有其虛無之處,因為數學也有其極限。現實世界的複雜性使得任何嚴格的分類都不可避免地面臨邊界模糊的問題。在學者嘗試找出通則性的歸納標準時,反例的出現經常動搖原有的分類,例如,在行為經濟學中,人類的選擇往往與經濟理論中的所設定的「理性」假設不符,最終調整其界定標準,並在決策分析領域被修正為「程序理性」,簡言之,就是放棄「對於人類能夠僅以效用為基礎做一切決策」的堅持。(Hill, 2003)由此例觀之,理性主義願意接受人類的不完美、願意承認人們的決策常受到情感、偏見、資訊不對稱影響,所以認同凡事應當「因事制宜」,為了達成這個目標,理性主義會不斷修正分類基準,也是它接納世界的方式。
在行為經濟學的例子中,雖難免需經歷各家爭論、定義模糊的一段發展期,在現實上可能會造成一定程度的損失,但至少能以實證方法彌補理論缺失,制度性規範得以建立。但有時候,標準根本無從確立。以政府決策而言,在分類時,決策者需考慮多個不同的政策偏好集合如何整合,以及集體決策中會出現的阿羅悖論——不同勢力的偏好交疊之後,決策就會充滿恣意性,就算協商可以達成,政策本身也未必是最佳決策(Arrow, 1950; Bruce,1981)。舉例而言,我國ESG體系的評測標準就遇到這種問題。我國金融市場缺乏統一的ESG 評估標準,各評分系統並存,甚至政府也需參考民間數據,原因之一即是各方對於各變因的權重具有歧見,背後所代表的正是不同利益集團所需追求的特定利益。在此基礎之上,公部門監管能力不足,難以有效介入複雜的民間綠色金融網絡,專業知識的鴻溝也導致投資人無法真切理解投資標的,最終市場話語權過度集中,ESG促進永續發展的良好立益便難以實踐。(Jiun-Da Lin, 2024)
AI的分類
在AI領域,分類學則體現於「類神經網路」(ANNs, artificial neural networks)當中。學者透過設定大量類神經元聯結(參數)進行計算,能根據外界資訊改變內部結構,讓各種分類基準被串接在一起,從而模仿人類的思考模式。不過,分類出的特徵可能會在迭代運算當中被局部放大,會導致分類結果的不穩定性,甚至放大為特定偏見、決策偏差,反而使分類失準。又或者,分類過程中,某些屬性之間存在內在的相互約束,比如大型語言模型的訓練資料庫當中,「質與量」就呈現約束關係,符元量(訓練資料量)大約需要是參數量(分類特徵數量)的20倍,模型運作效率才會最好。(Hoffmann et al, 2022)。
問題並不僅如此。分類學在推動知識進步的同時,也暴露了人類理性思維的局限性。AI系統會以隨機機率拆分人類固有的知識體系,但也可能同時把人類本來認定的瑕疵帶入其中,也就是所謂的「破壞式創新」(destructive innovation)。AI不但會在建構知識體系的時候拆分固有內容,還會在運作的時候根據運行狀態或環境變化自行更新或優化其結構,這種創造與毀滅同時集於一身的行為模式——自動重造(autofabrication)——值得人類用更深層的哲學觀點重新思考,可能是對人工智慧最終的理解,或甚至能用來重新理解人類的另一外道路。
人性所面臨的「分類困境」
但本文所說的分類困境,並非指涉上面所說的各種傳統問題。隨著AI到來,現實世界再度受到衝擊,人性的本質不斷被洗刷,最後會剩下什麼?「實際上,我們(在數位人文研究中)所思考的都是老問題的新版本。」政大名譽教授鍾蔚文如此評價。AI研究最根本的問題,依然是人類亙古以來應該思考、但容易被忽略的議題:我們是誰?我們從哪裡來?我們要往哪裡去?舉例而言,人類專家在協助建構分類標準之後,真的與人類近乎無異的「通用人工智慧」(AGI)恐怕就會越快出現,並且取代過往的分類工作,當前的計算語言學家越分類、分類得越好,未來就越容易被模仿、被超越,形成一種時序前後相互競合的賽局,也就是人類當前在分類學真正所遇到的困境:在人性這個命題上,試圖使定義更加清晰反而會造成定義模糊,換言之,越分類、AI越像人,也許應用價值更高,但卻會讓人們更不知道人性是什麼。
理性主義的虛無與分類的矛盾都已再再顯示,在開發出更先進的AI技術之前,或許我們得先重新審視分類的意義,從靜態的框架轉向動態的整合,以面對未來更加複雜與多變的挑戰。
作者/本會研究助理 羅澤
參考資料
Hill, C. (2003). Rationality in policy-making. In The changing politics of foreign policy. Chapter 5, Basingstoke, U.K.: Palgrave. pp.97-103.
Arrow, K. J. (1950). A Difficulty in the Concept of Social Welfare. Journal of Political Economy, 58(4), 328–346. http://www.jstor.org/stable/1828886
Bruce Bueno de Mesquita. (1981). The War Trap. New Haven: Yale University Press. pp. 12-16.
Jiun-Da Lin (2024). Transnational climate governance and state capacity: A Multilevel Analysis of Green Bond Certification. Global Environmental Politics.
Hoffmann, J., Borgeaud, S., Mensch, A., Buchatskaya, E., Cai, T., Rutherford, E., ... & Sifre, L. (2022). Training compute-optimal large language models. ArXiv. https://doi.org/10.48550/arXiv.2203.15556