數位人文專報/淺析人工智能時代的法律挑戰
7月15日,國科會發佈《人工智慧基本法》草案(下稱人智基本法草案),讓我國的人工智慧管制再度引發關注。不過,該法案中仍有些許爭點有待各界進一步討論。近來新聞再度關切相關AI法制發展,主要議題包括傳播媒體、公共行政、市場競爭,下分述之。
其一,人工智能產物在法律上的界定困難會成為媒體議價法推進的障礙。過往學界聲音大多認為,我國或可參酌外國立法例,在我國著作權法體系中增加鄰接權,以構建媒體議價法之請求權基礎。鄰接權指的是在傳播過程中,協助推廣著作的傳播者應獲得特定報酬,這與以往的著作權權利定義有根本性差異:簡單來說,鄰接權保護的是那些與著作權相關,但本身並非著作的對象,而重製權則保護的是著作本身。國內多數學者均認為應建立鄰接權制度,但對於AI產製的新聞改作在法律上應當如評價,目前政府似乎尚未達成共識:數位發展部率先表態認同著作鄰接權,國科會目前尚無具體回應。如果無法清楚區分何種權利遭到侵害,自然無法進行有效的議價協商。
其二,開發方向已有偏誤。美國司法部近期並向NVIDIA及其他公司發出傳票、進行反壟斷調查,該公司自2020年至2024年的市值成長近7.5倍,遂遭美媒控訴其利用在AI運算領域主導地位、造成市場競爭不公平。美國知名智庫蘭德(RAND corporation)的研究報告指出,八成以上的人工智能專案最後都會失敗。除了缺乏訓練資料的老問題,報告發現,專案失敗最常見的原因也包括企業主較難理解專案的細部規劃及其所欲達成的目標。商界由於少受學術倫理與資本限制,在開發的速度與規模上都遠大於學界與一般民眾,但卻過於重視新技術而非實際問題;學界則面臨著出版壓力,導致多數學者優先考慮開發那些能帶來聲量較高的專案,卻未必能帶來的最大潛在價值。原本人工智能的應用就已未必能解決真正的核心問題,產學兩方如若持續一昧注重發展技術,政府會因缺乏AI法制度基礎而難進行有效管制,開發應用的速度也會受研究量能影響而降低。
其三,競爭問題未被充分考量。由上文可見,在AI時代,數位科技恐怕將分出新的階級體系,或將加劇貧富差距。前公平交易委員會委員、政大法學院副教授魏杏芳指出:
我國的產業環境與歐美不同,競爭議題未必一致,但競爭法及競爭機關仍有其重要功能,可惜政府在進行經濟政策規劃時,競爭政策的思維一向被忽略。⋯⋯如何鼓勵中小企業利用公平交易法中有關聯合行為的例外許可條款,進行AI開發與應用的合作,都是活絡AI市場競爭的方法,公平交易員會在維繫AI發展過程中的市場開放與競爭十分重要。
最後,主管機關不明確,責任政治恐難落實。人智基本法草案中多數條文僅提及政府作為有義務的主體,在基本法中係屬常態。但由於AI領域並非穩定成形的概念,相關中央部會難以明確定義。該草案第九條、第十條中,看似較明確的主責機構為數位發展部。惟揆諸該部組織法,其設立目的係「促進全國通訊、資訊、資通安全、網路與傳播等數位產業發展、統籌數位治理與數位基礎建設及協助公私部門數位轉型等相關業務部。」雖有相關,但若視此為人工智慧之主管機關,似乎仍有差距。目前我國的協調單位為行政院「國內產業與大型數位平臺共榮發展協調小組」,但未來基本法施行時如若不設立主責機關,則現今架構下的數發部、國科會、公平會、通傳會、個人資料保護委員會等將出現競爭關係。遑論人工智慧自國防外交至內政民生無所不涉,若責任未能釐清,複雜的管轄權賽局對政府治理應無助益。
整體而言,法律界定不明、開發焦點錯誤、忽略競爭機制及主管機關不明等四大疑慮,是未來立法者在AI發展中所需面對的挑戰。
(作者為本會研究助理 羅澤)