不只是黑盒子:AI 代表的混沌
對人類來說,現階段的AI並沒那麼容易理解,我們通常一籮筐地把所有難以解釋的種種通通打包,稱之為「黑盒子」。作為最常被使用的譬喻,黑盒子多被用以描述深度學習(deeplearning)的不可預測性,由於其複雜性和不透明性,使用者往往無法理解其決策過程。輸入數據後經過複雜計算生成結果的過程,這一過程對最終用戶及甚至開發者來說都不透明,也因此,在其決策過程缺乏透明度、用戶不易理解演算法運作時,AI系統的信任度容易受影響。為了解決這個問題,各界開始試圖把黑盒子打開,將可解釋的人工智慧(Explainable Artificial Intelligence, XAI)引入各種應用當中,讓AI做成決定的時候提供相當程度的解釋。雖然XAI仍有一些挑戰,除了傳統上如分類標準不足、數據碎片化、數據不足、品質參差等之外,其所做出的解釋如何算做「簡單易懂」,對於不同領域、理解能力有差異的各種使用者而言未必能一體適用。
黑盒子的問題已經經過一陣子討論,部分問題也獲得各界重視,加之其比喻鮮明易懂,大眾對於人工智慧的問題最常認識有的認識也多僅止於此:運算機理不明,所以無從理解。但我們所面對的「模糊」真是「黑盒子」而已嗎?其實遠遠不止。在法律上討論「行為」,通常包含行為的主體、意圖、其本身、客體、結果,換句話說,我們會一連串的問題來確認該行為的定性:誰做的?為何這麼做?做了什麼?影響了誰?產生什麼影響?本文依循這個順序,將帶領讀者重新審視AI所帶來的混沌——我們不僅對於過程不理解,而是在人機(AI)互動的全程都沒有達成任何明確共識。
主體不明: AI可以是人嗎?
討論主體,相當於在確認法律所保障/追責的目標。那麽,AI能夠夠具備「人格」——法律上所謂的權利能力———進而被承擔其責任嗎?如果可以,那麽普通的電腦程式為何不行?要用演算法為基礎的辯證能力高低作為區分標準嗎?那麼人類是否也得因為智力高低而調整權利能力的定義?如果不行,AI就會被算作「物」,但其舉措卻能近乎人類表現,那麼界定人格的標準又該是什麼?
無論在當前的法律體系中能否被算作「人」,為了界定標準,人類就會進行分類,但卻會遇到分類困境:「在人性這個命題上,試圖使定義更加清晰反而會造成定義模糊,換言之,越分類、AI越像人,也許應用價值更高,但卻會讓人們更不知道人性是什麼。」(羅澤, 2024)
意圖不明:AI的目的?
一般來說,所謂意圖(intent)是指行為人在行為時對其行為結果之可能不法效力是否有所認知,與「認知」 (knowledge)並不相同,後者是行為人對其結果是否能夠預見。我們所要討論的意圖不明可以分成兩個面向來討論。第一個是真正意義上的意圖不明,因為主流通說認為目前AI系統尚未有自主意識,因此能否對不法效力有實際意義上的認知,值得討論,就算退一步認其具備認識不法之能,但其所生成的內容超出我等想像,又或者其表達形式可能被人類解讀為歧義,此時殊難判定系統是否具有不法。以近期所發生的案例而言,美國佛羅里達州14歲男孩Sewell Setzer 與AI聊天機器人交流之後建立了情感依賴,最終據稱因為機器人的一句「請回到我身邊」悲劇性地自殺身亡。 (Roose, 2024) 那麼,這句話能夠被解讀成引導自殺嗎?
第二個面向是如何起算意圖發生的時間點。刑法學上,如果要認定行為人具有故意,必須其犯意與行為同時存在才行,但AI例子當中,我們會發現很多時候若要追究責任,行為與意圖未必同時存在。舉例而言,自主武器系統的自主程度極高,一旦設定過後,在急殺階段毋庸人類監督就能夠逕行獨立作戰。那麼自主武器系統所造成的傷害可以算在某甲頭上嗎?對於時點的爭論,國際上已經尚未達成共識:對於人為控制的追溯,德法主張「包裹式負責」,一旦人為控制對其作業流程屬有效,則追究之;英美認為開始瞄準的階段就可以咎責;奧地利、巴西等國則主張擊殺時才可以咎責。(林昕璇,2021)
客體不明:我們獎勵的是創意,還是創造的過程?
2022年,AI畫作Théâtre d’Opéra Spatial(太空歌劇院)在科羅拉多州博覽會(Colorado State Fair)舉辦的Fine Arts Exhibition中奪得數位藝術組(digital arts category)冠軍,就此引發各界對於AI創作論戰:一說認為AI只是創作的工具,但並不影響人類能夠構思出藝術創作的過程,但也有批評指出AI作品缺乏人類投入的努力和創意。(Roose, 2022)
在上述論戰當中,能夠看到的是我們對於人類社會規範運作的根本邏輯其實並不清楚:我們獎勵的是創意(構想出太空歌劇院圖像的點子),還是表達出來的表徵(畫出太空歌劇院圖像得過程和實體)?舞蹈藝術學者、政大創新與創造力中心研究員李宗興點出,自我表現(self-expression)是近代藝術才有的特色,在中古乃至古典時期都是以描繪自然、神話為主,通常不會以表達自我意識為主體,直到人文主義興起之後,人本意識才被引入當中。依照這個脈絡,藝術未必要符合自我表現的特徵,至多作為時代劃分的一種方式已矣。那麼,在本案當中,難道不斷與AI互動下所創造出的藝術不能算作藝術嗎?
結果不明:責任與意義
過往我們對於法律行為的評價,主要會有兩個層面:第一是責任歸屬,「因為何種權利、何種情狀或條件,因此行為人應否對於其行為負責」;其次是法律詮釋上的道德意義,是針對責任歸屬進一步探究背後法理,從而讓法體系自相融處,不至於出現嚴重的邏輯矛盾。但經過上開討論,我們可以發現的是,涉及AI之時,特定行為的主體、過程、客體都可能會保持模糊,此時基本上可以說我們對這件事毫無所悉,自然對於其結果無從解讀。
無從解讀,當然更沒辦法追究責任。在國際人道法上,賓大學者Rebecca Crootof (2016)很早就開始探討自主武器系統的問責問題,由於自主武器系統能獨立選擇和攻擊目標 ,其所造成的損害可能構成戰爭罪,但至多僅能追咎國家責任,無法解決對於追究個人責任方面的困難,雖然學界試圖以「戰爭侵權行為」的概念彌補現有法律體系的不足,但這種作法只是包裹式的把責任丟回各國的刑事法庭,沒辦法解決根本問題。
同理,連歸屬關係都模糊之時,要詮釋其行為的道德意義就更加困難。進一步該思考的是,除了提高效率以外,AI所做的一切行為,最終所代表的意義是什麼?有論者認為,其結果是人類社會生活的意義會無從尋找。牛津大學人智倫理中心主任Tasioulas就以專文指出,人工智能除了會使人類工作機會減少,根本的問題是,即使保留了工作機會,人們也可能因工作缺乏意義而感到空虛,如同「廢物工作」一樣 。現代社會將工作視為實現自我價值的途徑 ,而工作的內在價值在於「成就」——運用自身能力克服挑戰,達成有意義的目標 。如果AI取代了價值,當工作不再能作為成就感的源泉,社會生活的意義將從何而來?(Tasioulas, 2024)
結論:Into the Unknown
回顧上文的種種案例,在討論主體的「情侶自殺案」當中,人類把AI當作人,但在討論客體的「太空歌劇院案」當中,我們卻又把AI當成工具。AI就像是一面鏡子,告訴人類我們自己如何舉措,也同時映射出我們自身的矛盾:人類世界對於AI的定性是否真的有一套客觀標準能遵循?人類所認知或觀察到的世界是否總是被自己或周遭的人、組織、決策環境所蒙蔽、誤導?本文固然對AI所造成的混沌感到茫然,AGI的出現可能會使我們失去對於人性的理解。換言之,「AI能否有人格」這個命題才是一切問題背後的本質。面對數位浪潮,最終還是得回歸到人文底蘊的省思。
作者/本會研究助理 羅澤
參考資料
羅澤 (2024)。 AI與決策:分類困境(Paradox of Taxonomy)。余紀忠文教基金會。https://www.yucc.org.tw/info/6713
Roose, K. (September 2, 2022). "An A.I.-Generated Picture Won an Art Prize. Artists Aren't Happy". The New York Times. https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html
Roose, K. (2024, October 23). An A.I. soulmate and a teen’s suicide. The New York Times. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html?fbclid=IwY2xjawGGhu1leHRuA2FlbQIxMQABHacEZ4_Mz72mr-1BVQvvFzauaT1bVuEKaiJGCloTeiSw5YHekUDpReQ29g_aem_Be-3YgNY1W721DxtdCo2UQ#
ET Online. (2024, November 18). A Google Gemini AI chatbot shocked a graduate student by responding to a homework request with a string of death wishes. https://economictimes.indiatimes.com/news/international/global-trends/googles-gemini-turns-villain-ai-asks-user-to-die-calls-him-waste-of-time-a-burden-on-society/articleshow/115403234.cms?from=mdr
林昕璇(2021)。AI自主性武器系統在國際法上適用之研析。軍法專刊,67(4),20-44。https://www.airitilibrary.com/Article/Detail?DocID=P20180227001-202108-202109060005-202109060005-20-44
我們距離「可解釋的人工智慧」還有多遠?(2024)。Appier。https://www.appier.com/zh-tw/blog/far-explainable-artificial-intelligence
Tasioulas, J. (2024, November 7). Why AI could transform all jobs into BS. Big think. https://bigthink.com/business/why-ai-could-transform-all-jobs-into-bs/
Crootof, R. (2016). WAR TORTS: ACCOUNTABILITY FOR AUTONOMOUS WEAPONS. University of Pennsylvania Law Review, 164(6), 1347–1402. https://www.jstor.org/stable/24753656