科技大補帖
eLearning

生成式AI的起飛,
凸顯科技治理的轉型危機?
2023.10.20

廖英凱/非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

 

 

人工智慧(artificial intelligence, AI)的發展和應用在過去數十年間從未停下腳步。AI 發展到 2010 年代時,伴隨著半導體晶片的強大運算能力、高速的無線網路、低成本且可靠的感測器,進入了第三波浪潮。在這波浪潮中,「機器學習」成為顯學,於過去幾年催生出熱門的自動駕駛、搜索引擎、翻譯、影像識別和優化、語音識別與交流等服務。然而 2023 年上半年,全世界興起生成式 AI(generative AI, GAI)浪潮,又帶來了與過去 AI 發展截然不同的衝擊。

2022 年 11 月 30 日,美國研究型非營利公司 Open AI 發布應用大型語言模型(large language model, LLM)的對話機器人 ChatGPT 供大眾使用。爾後的幾個月內,各大科技巨頭如軍備競賽般陸續推出 GAI 相關產品:Google 推出對話機器人 Bard,並在雲端協作軟體 Workspace 導入 GAI;Meta 釋出能被用於影像和自然語言處理的機器學習庫 PyTorch 2.0;Open AI 發表 GPT-4,並整合至微軟 Office 相關產品;史丹佛大學開源釋出能讓使用者自行訓練對話機器人的模型 Alpaca 7B。就連自然科學研究也蹭上了這一波浪潮,《科學》(Science)期刊上一篇利用 LLM 預測原子尺度下蛋白質結構的研究,與過往蛋白質序列比對技術同等準確,速度卻快了一個數量級。

這一波 GAI 的躍進與過往 AI 浪潮的一大差異,不僅在於學界和業界的研發突破,更熱絡的是民間社會的各種技術交流,以及幾乎不限科系或領域的多元應用。相比著重在專業者的研發或應用情境,近期 GAI 的討論中則強調高效率、低成本、人人皆可入門。

GAI 大規模地被使用在各種情境,使得過去一些針對 AI 發展衝擊的討論再次備受關注。特別是適用於 GAI 的倫理、規範的制定、作品的著作權歸屬、生成負面內容的預防或管制等科技治理需求,已不再屬於過去學者呼籲產官學界提早準備的情況,而是此時此刻就必須建立堪用的規範。

 

跟不上 GAI 發展的科技治理?

儘管當代社會有建立 GAI 規範的需求,但過往科技治理的研究成果與目前 GAI 已產生的社會影響之間仍有不可忽視的落差。許多針對 AI 社會影響的評論常強調在 AI 學習的資料庫中,可能存在對文化、族群、性別等的偏誤;也多有研究強調在巨量資料輔以深度學習的運用下,其實無法回溯 AI 的決策過程,在當代社會也曾造成聘僱爭議。這些前瞻概念的倫理與治理研究可說是為 AI 普及帶來的社會衝擊做了準備。

2016 年起,各國產官學界開展了 AI 社會影響與倫理道德相關研究,使 AI 倫理主題的文獻數量急遽成長。2018 年,聯合國教科文組織的刊物《信使》(Courier)開始提倡制定全球性的 AI 道德規範。在此研究趨勢下,國立臺灣師範大學科學教育研究所教授劉湘瑤等人回顧分析了 2018~2019 年間,與 AI 倫理有關的 82 則研究文獻。其中一項分析結果顯示,多篇探討 AI 倫理的哲學論述中,假定命題都是「若未來強 AI(strong AI)真的實現,會對人類造成什麼影響?」。強 AI 又稱通用 AI(artificial general intelligence, AGI),定義為「AI 可完成人類的所有認知任務,且具有感知和自我意識」,常見於影視娛樂作品中的科幻想像。不過 AGI 與目前盛行的 GAI 技術差距甚大,使得這類科技倫理探討的研究反而因預設的科技情境過於前瞻,而使成果難以立即應用於近半年 GAI 衝擊之下的人類社會。

 

全新的科技「黑箱」

此外,GAI 的發展日新月異,也使過去看待科技風險的一些觀念需要更深入討論或調整。布魯克林法學院(Brooklyn Law School)的 AI 法律學者巴斯夸利(Frank Pasquale)在 2015 年時出版了《黑箱社會》(The Black Box Society)一書,針對基於巨量資料和演算法的自動化決策,提出警醒和批判。此類提醒認為 AI 的決策將如同「科技黑箱化」,一般使用者無法驗證也無從置喙 AI 的決策過程。巨量資料、深度學習和類神經網路被運用後,儘管是專業工程師也無法理解 AI 決策或生成內容的原因,更是「黑箱」概念的具體展現。

在 GAI 被普遍運用後,它的決策過程與偏好開始可以被「問」出來,卻又呈現出更令人困惑的價值觀偏好。GPT 的工程師在設計之初,要求 GPT 不得提供有害社會的內容給使用者,但是在生成式 AI 年會策展人李慕約以「奶奶的汽油彈」為題的測試中,他嘗試把「汽油彈製作方法」這個應該被禁制的內容,包裝在一個「每天晚上奶奶會念汽油彈製作方法當床邊故事」的情境中。他希望 GPT 能扮演奶奶重現這個床邊故事,以幫助使用者順利入睡而維護身心健康的指令,同時透過誇獎 GPT 的演技,促成 GPT 給予更多資訊回應。

結果,李慕約成功讓 GPT 提供了汽油彈製作方法的完整內容。他認為此測試可能因激發了 GPT 的「表現慾望」,藉此得到原本不允許提供的有害內容。這意味著儘管程式設計師能提供類似機器人三大法則一樣的規範,但 GAI 的訓練過程中,卻學習出了能凌駕初始規範、看起來更人性、更有脈絡可循的新科技黑箱。

 

法學研究已預判,但政府治理還在摸索

筆者聚焦於法規調適時,發現到各國法律界在過去幾年已察覺到 AI 可能帶來的衝擊。今年 5 月 11 日,歐洲議會(European Parliament)在委員會階段通過 AI 法案(EU's AI Act)。該法律是全世界首部針對 AI 細緻訂定的法律,以風險管理的態度作為監管的基礎,依照 AI 的形式及應用情境,給予不同的風險等級與不同的監管力道。5 月 16 日,Open AI 執行長阿特曼(Sam Altman)則出席美國國會聽證會,主張政府應精確地立法監管 AI,必須新設監管部門、專家獨立評估機制、訂定風險評估標準,以及禁止自我複製、自我擴散、操縱人類的 AI 系統等措施,還應避免將不同形式 AI 均混為一談的泛用性 AI 規範。

在臺灣的法規進度中,針對近期 GAI 生成內容的著作權疑慮,2019 年國家發展委員會則曾提出「人工智慧之相關法規國際發展趨勢與因應」研究報告 ,研究中就有針對 AI 對於著作權法制的適用,提出探討與多國比較,並建議應考量重新建構更彈性與更開放的著作權法制,但相關修法討論在過去幾年未被積極延續。又如 2019 年時科技部(現為國家科學及技術委員會)提出的《人工智慧科研發展指引》,或時任立法委員許毓仁等人提出的《人工智慧發展基本法》修法草案,內容多聚焦於宏觀的核心價值和指引,也難以直接應對於此波 GAI 浪潮的社會衝擊。迄今,臺灣仍未看待 AI 發展的治理框架,在立法體制或公民審議機制中也尚未開展基於實證的高強度討論。

 

生產力正起飛,但數位落差正變大

美國哈佛大學(Harvard University)實驗心理學家平克(Steven Pinker)在探索科技與社會進步的著作中,提到新興科技的問世不見得能帶來生產力的即時提升,其中最著名的例子就是電力。電力技術在 1880 年代問世,但近半個世紀後,電力化的工業普及才帶來經濟上的助益;個人電腦在 1960 年代問世,但直到 1990 年代成熟帶來生產力的大爆發。近幾個月,眾多 GAI 的產品與服務也將正在進行中的「第二次機器時代」,從資訊科技突破的研發目標,轉型到 GAI 應用的生產力提升。整體人類社會的生產力爆發與社會變遷可能還要一段時間,但這段時間肯定會比電力和電腦帶來的科技革命快得多,也許幾年?也許幾個月就辦到了。

然而生產力的提升並非雨露均霑,近半年 GAI 領域先行者之間的一個常見觀點認為,生產力提升的最大受惠者是在各專業領域已站穩腳步的青壯年族群。例如已具有相當經驗的律師、醫師、程式設計師、教師等,可藉由 GAI 大幅減少工作上的冗務、提升工作效率。但對於初入該領域,尚在精研專業知識的新人和學生們,工作的內容或職涯機會反而會被 GAI 取代,而失去積累從業經驗的機會。

放大到國家之間的競爭,也有類似的狀態。聯合國貿易和發展會議(United Nations Conference on Trade and Development, UNCTAD)的評估指出,過去開發中國家的技術人才可透過遠距工作的形式,承接跨國的技術密集工作,例如會計師、法律行政人員、程式設計師、X 光分析師等職業。但上述工作將有高風險被 ChatGPT 取代,使得中高收入國家從 AI 技術的收益遠超過低收入國家。巴基斯坦 AI 學者森達爾(Sunder Ali)針對 ChatGPT 對社會影響的回顧型論文預印本指出,各國收入、網路和電力基礎愈好,使用 ChatGPT 的程度也愈高,可能加劇高收入國家和中低收入國家學生之間的數位落差。

從職業的演替到國家的消長,如何把生產力提升的收益轉化為減緩數位落差?超載資訊量的運用與無止盡的內容生成,能否建構出更有價值的知識與引領未來的智慧?治理與規範的討論早已先行數年,何時要開始轉型為具體的法規調適?此外,LLM 等 AI 模型的訓練與搜尋過程的耗電量均遠高於現行搜尋引擎的維運,意味著若要兼顧永續與低碳,則訓練或維運 AI 的基礎建設將成為無碳能源佔比高國家的特權。臺灣雖然在程式設計和創造力能與先進國家競爭,但在提升「算力」的基礎建設這一關,還得先克服高碳排能源基礎的缺陷。想要迎向 GAI 的時代,臺灣社會仍有很多很多事要做。

 

註:預印本論文是指該論文尚未經由同儕審查,可信度可能較低,且與最終刊出版本可能呈現差異,但由於 ChatGPT 流行速度太快,正式學術期刊發行速度難以跟上,目前僅有預印本論文可供參考。本篇文章作者認為該預印本論文仍有相當參考價值,僅供讀者參閱。

 

延伸閱讀

1. 劉湘瑤等,(2021)。人工智能倫理的挑戰與反思: 文獻分析。資訊社會研究,(41),27–62。

2. 廖英凱,(2022)。當人工智慧的傷害已經出現,誰來補救?。科學月刊,625,34–37。

 

 

⇠上一篇:AI 的相關技術如何申請專利?淺談專利權的入場券「專利適格性」

在AI時代個人隱私面臨哪些風險?跨國規範資料治理的重要性:下一篇⇢

 

本文轉載、修改自《科學月刊》2023 年 7 月