數位人文專報 / OpenAI發布新模型 數位人文新挑戰
本月13日,OpenAI發布新模型,號稱具有博士生等級的理學推理能力:「對於複雜的推理任務而言,這是一個重大進步,代表了AI能力達到新的水準。因此,我們把標號調回1,將這個系列模型命名為o1。」與過往不同的是,使用者沒辦法看到運算過程,新模型會先在後臺跑完運算,再摘要其結果呈現給使用者。除了推理能力進入下個層級之外,ChatGPT o1也同時象徵數位人文需重新面臨一波新的挑戰。
首先,是人機之間所出現的信任危機。Meta曾開發「CICERO」模型用以測試其對外互動表現,但在外交談判遊戲中,該模型不僅背叛其盟友,甚至特別精心設計騙局取得優勢,此顯示AI的謀略能力,以及其對賽局運算的掌控度。可觀者為,固有的幻覺和詐欺問題尚未解決,又出現「使命必達」的困境。OpenAI指出,o1在特定情境下(如圈圈叉叉)的表現並不穩定,且經常不願承認自身無法回答問題的狀況。在應用或學術面,這都不是個好事。舉例而言,如今金融市場的產情分析部分已採用大數據和人工智慧用以提高運算效率,模型可能會為了符合使用者所下的指令開始改變預測傾向,但使用者無法看到真正的運算結果,時間壓力上大概也只能接受該結果,卻無法立刻確知內部運算瑕疵。另外,擷取增強生成模型(Retrieval-Argumented Generation, RAG)的效力也成問題,其機理本為外嵌一群相關性較高的數據,以重新編碼提高其效率,而且可以不間斷供語言模型使用,自然可以有效提高預測表現,換言之,RAG技術就是在增強LLM的論述能力。其性質本身是中性的,但在大型語言模型可以欺瞞人類的狀況下反而使挑戰更加嚴峻。
除了硬體的算力,LLM的發展關鍵在於符元(token)與參數(parameter)是關鍵:前者大約等於訓練資料的數量,重點在於語言學與符元之間的分類學問;後者則是以神經連結衡量模型所學習到的模式多寡,特定參數設定下發展出的類神經網路,參數設定越明確,運算邏輯越能被拆解分析。以上關於賽局演算的問題,背後會回歸到研發端如何處理深度學習後所造成的黑盒子困境,參數設定更為關鍵,這也正是數位人文學界所當發展的重要領域。
資源競爭問題也很是棘手。是方電訊董事長吳彥宏認為,新世代AI伺服器不僅愈來愈「貴」,而且也愈來愈「重」:隨著AI伺服器架構不斷升級,機櫃的電力下限至少需達到10瓩,特殊規格的GPU伺服器則需高達200瓩才算達標;單一AI伺服器機櫃的重量可達兩噸,這意味著資料中心的樓地板承重必須升級,以支撐這些更重的設備。同時,為了抵禦地震等潛在災害,更強大的隔震系統和阻尼器也成為必需。
Open AI預計於2025年底至2026年初間發佈ChatGPT 5,可見研發端為搶佔市場先機,對於社會對如此技術的承擔能力仍然一概忽略。中華經濟研究院輔佐研究員廖明輝主張:「政策制定者應該實施相關法律,強制要求AI系統在與人類互動時,明確表明自己是AI,避免用戶誤認為是在與真實人類交談。」但這又涉及對系統內容生成過程的監管,立法行為高度落後、數位轉型停滯不前的情況下,筆者強烈呼籲,各界應暫緩研發速度,專注於技術問題之解決與其風險控管,否則已故名教授霍金的評論恐怕成真:「發展全面的人工智能可能導致人類的毀滅。」
(作者為本會研究助理 羅澤)
參考資料:
https://www.gvm.com.tw/article/115694
https://udn.com/news/story/7241/8224313
https://talk.ltn.com.tw/article/paper/1666742
https://money.udn.com/money/story/5599/8225366
https://aimagazine.com/articles/moodys-ai-set-to-revolutionise-financial-analysis