以AI為鏡:AGI與數位人文的反思

本文探討人工通用智慧(AGI)的可能性及其風險,分析技術障礙(如「幻覺」及對經驗的需求)與哲學涵義,涵蓋就AGI的可行性的不同論戰,並簡介其爭點與近期發展。本文主張,對AGI的擔憂往往源自對去中心化的不信任及對系統的缺乏信心,而歸根究底,真正的威脅並非AGI,而是人類那僵化的價值體系,也正是目前AI系統所反映出的鏡像。本文強調,面對數位時代,我們需要一個新的倫理框架,以重新定義「美德」,並指導AI在社會中的角色。

眼下我們對於AI技術的擔憂,很大程度是基於恐懼其對人類帶來的衝擊,怕這種似人而未必能與人具有相同行為模式的智能取代乃至淘汰人類。我們對於當前AI 的想像大概如此:一個具備強大的數據處理和分析能力的系統,但針對特定領域需要個別調整、強化、重新適應。換言之,目前所稱的「風險」,其實是「人機差異下產生的判斷誤差」。那麼,如果AI就像人類一樣思考,風險似乎是否就會降低恨多?而我們對於這種AI是否就能完全放心?這就是本文所要討論的命題 。

「像人類一樣思考的AI」,專有名詞是人工通用智能 (Artificial General Intelligence, AGI)。AGI的核心概念在於它具有更廣泛的智能,無待進一步人為修正或指導,就能夠像人類一樣理解、學習並將各類知識經驗應用於多重領域。也因為其類人化的思考模式,AGI已然成為一個似乎無法觸及但備受關注的焦點。以下我們分兩個層次討論,先來看看AGI獲得實現的可能性,再就AGI可能的風險做一些思考。

AGI會出現嗎?

關於 AGI 能否真正實現,產學兩界向有論戰,有樂觀者認為,隨著科技的進步,AGI 的出現只是時間問題,比如世界首富Elon Musk和OpenAI執行長Sam Altman都撰文預測,在近兩三年內就可能研發出AGI的雛形(註:但兩人對於AGI的態度迥異,前者保持高度警戒,後者則大力支持,詳見相關報導)。不過,也有部分學家保持懷疑態度,比如Meta AI 首席科學家、圖靈獎得主楊立昆(Yann LeCun)就主張,當今 AI 智力水平其實還遠低於人類,甚至不如貓咪,「畢竟貓科動物擁有物質世界的心理模型、持久的記憶、一定程度的推理能力和規劃能力。」並以此質疑當前各界對於AGI出現的期程太過樂觀 。

如果用技術面來討論,最早引發眾人關注的研發障礙是「幻覺」(hallucination)。幻覺被用來描述大型語言模型(Large Language Model, LLM)的輸出落差:系統在沒有相關資訊的情況下仍然自主產製錯誤資訊,用以彌補舊有資料庫內缺乏的內容。目前學界找到的解決辦法是「檢索增強生成」技術(Retrieval-Augmented Generation, RAG),透過引入特定領域的專業資料庫和LLM的向量計算,讓幻覺消失。不過,依據中研院數位文化中心技術長王祥安等人(2024)的研究,即便以RAG補強專業背景,模型仍有可能淪於選擇偏誤(selection bias),或者受限於單次輸出(shot)所能處理的篇幅長度。

近來最受矚目的因素則是「經驗」。如何轉化經驗、傳遞經驗都成為各家爭相研究的主題,並且是雙向傳遞的形式:人類試圖傳遞給AI我們已有的經驗,以及AI回傳給人類的結果是否符合社會生活經驗。就前者,淡江大學吳姿嫻教授點出,人類的學習和理解有一大部分來自於真實世界的經驗,而現階段的 AI 系統,尤其是大型語言模型,無法真實經歷生活,雖然目前AI的五感正在逐步擴張(已能夠擁有視覺、聽覺、嗅覺),但許多只能經驗已然超出五感的範疇,對於AI而言尚難習得。就後者,近期一群史丹佛研究生會同Google Deepmind透過深度訪談所搜集的資料用於建立 AI 模型、創建其AI 數位分身,而在後續進行的各類測試當中,與受訪者本尊的相似性已經達到85%,線性回歸關係都在0.9以上,可見數位分身的嘗試頗能期待。(Park et al., 2024)

需要注意的是,這個實驗還未經過審查。但若我們暫且信任其研究結果,這所謂的85%相似度也未必足夠,因為測試環境的設置都是依照社會學實驗的假設堆疊而成,大多更加困難的論證尚未被納入測驗範圍內。筆者曾撰文主張,在高度抽象且規模龐大的理論體系中,LLM的表現力會出現落差(羅澤,2024),以計算語言學為基礎進行系統性分析,能夠更快看出特定文本中在不同架構中所要傳達的、潛在的主題,但在分類之後仍然需要大量人文詮釋才能真切理解其中意涵,沒辦法單純仰賴技術。(吳宜輝,2024)

「幻覺」的舊問題未解、「經驗」的新問題浮現,毋庸論及AGI,就連LLM的研發都出現障礙。目前在LLM市場領先的幾家科技公司——OpenAI、Google、Anthropic、Microsoft——都發現提升LLM性能的效率越來越差,和之前用「規模法則」(Scaling law)所預測的表現有所差異。如此看來,AGI的出現似乎遙遙無期。

不過,近期Open AI發布的新模型o3卻又讓這場論戰出現新轉機。要測試AI抽象思考的能力,學界大多採用 ACR-AGI基準 (ACR-AGI benchmark),一個常人的智慧水準所能獲得的分數大約是85分,過往的ChatGPT-3 連1分都沒拿到,ChatGPT-4o也只拿到5分,但新模型表現水準卻飆升到75.7分,在大量運算的情況下甚至能達到87.5分,被評價為AGI出現的重大里程碑。(Frazier et al., 2024)由上可見,論點和線索諸多,但各界都無法給予定論,我們現今對於AGI的思考都只能是想像式的,至於這場論戰何時會會終止,目前不得而知。

AGI的風險是什麼?

在無法確知AGI是否會出現的情況下,我們還是可以稍微從現有的脈絡討論其可能風險為何。以人類思考模式的主客觀因素對AI系統稍加剖析,客觀上就是討論「智商」(算力、運算架構),主觀上就是討論「觀念」(數據、運算架構)。

就前者,最經典的主張是「智能爆炸」(Intelligence Explosion),在1965年由英國數學家Good提出。簡言之,此說認為當AI可能會在具備自我修正能力之後超越現有控制,乃至超越人類所能理解的範圍。不過,此說在前幾年遭到Google資深工程師挑戰,Chollet(2017)主張,個體智慧的發展受到外部環境限制,即使擁有超高智商,也無法單獨創造出超過自身的智慧。

就後者,技術面來看,AI的價值決定受數據、系統設計影響。對於觀念方面的批判可以分為很多種,一種是AI系統無法保持價值中立,時而帶有偏見,時而發言激進,但筆者認為這實在太過強硬,畢竟就算是人類本身也很難做到價值中立,要求AGI要達到價值中立或許過於苛刻;另一種是AI系統會對於人類的欺騙或不忠,比如系統開始能夠採用詐術,或者不願承認自身無法回答問題的狀況,又或者對過往設定的目標產生依賴而不願改變。(羅澤,2024;Frazier et al., 2024)

傳統上所討論的、普通AI的風險在AGI層次幾乎沒有討論空間,政治大學劉慧雯教授即點出,「如果AGI能出現,那或許我們反而未必需要那麼擔心技術風險——因為人類的社會規範大致都還能適用。」深入看待AGI的歷史意義,人類對於AGI的恐懼,一部分應是來自對去中心化的不信任。由於人類社會自古以來就有權力中心存在,因此我們已然慣於尋找權威,對於秩序的自然成立幾乎沒有任何信任度,AGI就是一個例證:人們似乎很難相信會有一個未被操縱的「機器人」出現,所以臆測其中有某種權力中心介入。換言之,所謂「AGI的道德風險」其實依然得回歸到人類思想本身,因為我們對AGI的不信任其實很大程度來自於人類對彼此的不信任。

一部分則可能來自「被AI取代」的擔憂,但我們可以換個角度來看待人機協作的關係,以論證為例,「如果人類與機器的論證的方法或模式不同,與其將兩者放在天平上比勝負,或是朝著讓機器更能理解如何做好論證這個方向努力,倒不如彼此截長補短。這樣會不會才是真正的人機協作/合作?」東海大學甘偵蓉教授如此評價。更深入討論這個命題,我們擔心的其實是人性邊界的模糊化,AGI的出現會讓人類不知道人性為何,從而引發人們心中一股迷茫感。但說白了,AGI的出現只是點出固有的問題——因為我們對於人性的理解大致上並未曾變過,只是過去的社會對此過於輕視,沒有深入討論人性本質罷了。

以AI為鏡:我們需要的新思潮

結論來看,我們可以發現,真正的威脅不是來自AGI,而是來自人類自己——人類社會生活當中所肯認的、僵固的價值體系才是問題的核心。AI所反應出的實際上是人類自己的價值體系,我們當前所討論的各類附帶性問題——價值對齊、人智倫理、數位安全——在體系無法重塑之前,大都只繼續能用理性主義的外殼包裝。AI最大的威脅性是並非使人類滅絕,而是使人們失去自我、窄化視角,失去想像力和道德推理能力,侷限了人無限的可能。(Vallor,2024)面對數位時代,我們需要重構一套新的道德體系,重新定義何謂「美德」,從而利用這些「新美德」來重新思考科技乃至AI在人類社會中的角色。

 

作者/本會研究助理 羅澤


參考文獻

AI智力不如貓?AI科學家楊立昆試圖打破AGI迷思(2024)。聯合報。https://udn.com/news/story/6897/8297233

Wiltschko, A. (2024, October 29). Scent teleportation update: We did it! Solutions Studios Research Blog. https://www.osmo.ai/blog/update-scent-teleportation-we-did-it

Park, J. S., Zou, C. Q., Shaw, A., Hill, B. M., Cai, C., Morris, M. R., Willer, R., Liang, P., & Bernstein, M. S. (2024). Generative agent simulations of 1,000 people. Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology. ArXiv.  https://arxiv.org/abs/2411.10109

王祥安、柯幸孜、李祐陞(2024)。應用大型語言模型於清代秘密宗教文本之命名實體識別。第十五屆數位典藏與數位人文國際研討會論文集。頁294-303。https://gis.rchss.sinica.edu.tw/documents/DADH2024__Proceedings_1.pdf

吳怡輝(2024)。應用潛在狄利克雷分布(LDA)探討聖嚴法師《法鼓全集》之潛在主題內容。第十五屆數位典藏與數位人文國際研討會論文集。頁303-306。https://gis.rchss.sinica.edu.tw/documents/DADH2024__Proceedings_1.pdf

羅澤(2024)。智慧對決:文獻與大型語言模型在戰爭理論中的互動與辯證。第十五屆數位典藏與數位人文國際研討會論文集。頁306-376。https://gis.rchss.sinica.edu.tw/documents/DADH2024__Proceedings_1.pdf

羅澤(2024)。數位人文專報 / OpenAI發布新模型 數位人文新挑戰。余紀忠文教基金會https://www.yucc.org.tw/info/6540

Good, I. J. (1965). Speculations concerning the first ultra-intelligent machine. In F. Alt & M. Ruminoff (eds.), Advances in Computers, volume 6. Academic Press.

Chollet, F. (2017, November 28). The implausibility of intelligence explosion. Medium. https://medium.com/@francois.chollet/the-impossibility-of-intelligence-explosion-5be4a9eda6ec

Vallor, S. (2024). The AI mirror: How to reclaim our humanity in an age of machine thinking. Oxford Academic. https://doi.org/10.1093/oso/9780197759066.001.0001

Frazier, K., Rozenshtein, A. Z., & Salib, P. N. (2024). 12 Days of OpenAI: Unveiling the o3 model. Lawfare . https://www.lawfaremedia.org/article/openai's-latest-model-shows-agi-is-inevitable.-now-what

相關新聞

行政院主計總處昨(7)日發布1月消費者物價指數(CPI)年增率為2.66%,連三個月超過通膨警戒線,且是近11個月新高。
據路透社, 美國 總統川普週五暫停了廢止對自中國寄送的的低價包裹免稅待遇的 命令 ,一直到美國商務部能讓廢止的命令能有效運作。不過,...
隨著CES 2025這場全球頂尖科技展會的落幕,再次增強了世人對AI人工智慧科技革命的期待。根據美國市場調查公司IDC預測,截至2030年...
美國總統 川普 去年十一月提名的美國貿易代表葛里爾六日說,將運用貿易政策確保美國國安中的經濟安全,也需進一步研究普徵 關稅...