加州跟進歐洲推出《人工智慧模型法》草案 AI監管立法面臨的挑戰

政府政策

隨著人工智慧(AI)技術的快速發展,如何監管此一新興領域成為各國政府關注的焦點。在加州,《尖端人工智慧模型安全與創新保障法》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act,SB-1047,以下簡稱加州《人工智慧模型法》草案)正是針對此一議題的最新回應。然而,此一法案在政治上引起的爭議不小,涉及如何在監管與創新之間取得微妙的平衡。

加州《人工智慧模型法》的立法背景

加州《人工智慧模型法》草案由加州民主黨參議員斯科特·維納(Scott Wiener)提出,目的是針對大型AI模型開發施加更嚴格的監管。具體而言,該法案要求在AI模型的訓練成本超過1億美元時,開發者必須向政府通報並進行安全測試。此外,該法案還包括對企業內部吹哨者的法律保護,並且要求設立「緊急斷電開關」(kill switch)功能,以便在緊急情況下能夠即時讓AI模型完全停止運作。

加州《人工智慧模型法》草案反映了監管者對AI技術可能造成的風險的擔憂,尤其是當 AI模型被應用於生成不當內容時。例如,X平台的Grok模型在推出後很快就被用戶用來生成諸如「比爾·蓋茲吸食古柯鹼」、「川普和賀錦麗手持槍支」等圖像。這些AI生成技術被濫用的狀況顯示,AI技術的潛在危害確實存在,有必要予以適當監管。

近日,此一法案已經已在州參議院以32比1的懸殊票數通過。上週,該法案獲州議會撥款委員會通過,最快排定於本週由州議會全院會議表決。如果獲得通過,該法案將由州長簽署後成為加州正式法律。

然而,此一法案在加州政壇內部引發激烈爭論。前眾議院議長裴洛西(Nancy Pelosi)表達反對立場,稱該法案「立意良好但思慮欠周」。她警告說,該法案可能會將開發人員趕出加州,並且對開源AI模型的發展構成威脅。她並非反對AI監管立法,而是呼籲立法應更加周延:「人工智慧起源於加州。我們必須制定為國家和世界樹立榜樣的法案。我們有機會也有責任讓小企業主和學術界(而不是大型科技公司)佔據主導地位。」

另一方面,加州州參議員維納則強調,該法案獲得多位頂尖學者支持,包括被稱為「AI之父」的傑弗里·辛頓(Geoffrey Hinton)與圖靈獎得主約書亞·本吉奧(Yoshua Bengio)。

AI監管立法背後的眾聲喧嘩

支持加州《人工智慧模型法》草案的人認為,隨著 AI 技術的發展,立法者必須及早介入,以確保這些技術不會對社會造成災難性的影響。

然而,該法案也面臨來自科技業界和風險投資界的強烈反對。代表Google、Meta和OpenAI等公司的產業協會TechNet,以及風險投資公司Andreessen Horowitz,都已公開表達反對。他們認為,該法案將會扼殺創新,並且很快就會變得過時。與此同時,八位來自加州的民主黨國會議員,包括羅·卡納(Ro Khanna)和柔伊·洛夫格倫(Zoe Lofgren)也表達類似憂慮,特別致函加州州長加文·紐森(Gavin Newsom),敦促州長否決該法案。

這些反對意見強調,法案要求的監管措施可能會給AI公司的營運造成不必要的負擔,從而影響他們在加州的投資和業務。特別是對於一些新創公司來說,法遵成本可能過於高昂,從而限制了他們的發展潛力。

面對來自科技業界和部分立法者的壓力,維納參議員已做出讓步,調整了加州《人工智慧模型法》草案的部分條文,包括:不再允許州總檢察長在災難性事件發生前對AI公司提起訴訟、取消設立政府AI監督委員會,並刪除對偽證的刑事處罰規定。這些讓步在一定程度上緩解高科技業界的擔憂,但仍未完全消除反對聲音。

加州法案與歐盟《人工智慧法》的比較

與加州《人工智慧模型法》相比,歐盟《人工智慧法》(AI Act)在監管方式上依循不同的邏輯。歐盟《人工智慧法》採取的是風險分級管理模式,將AI系統依其可能帶來的風險分為「不可接受風險」、「高風險」、「有限風險」和「最低風險」四個等級。這種分級方式讓監管更具針對性,對高風險AI系統的監管要求較為嚴格,但對風險較低的系統則相對寬鬆。

相較之下,加州《人工智慧模型法》側重對大型AI模型開發進行全面監管,特別是要求其具備「緊急斷電開關」等技術措施,以因應潛在風險。此外,它對企業責任的強調遠超過歐盟的AI法案,後者更多關注的是AI技術應用的透明度和合規性。

歐盟與加州立法對台灣的啟示

加州和歐盟在AI監管方面的經驗對台灣具有重要的借鑒意義。台灣作為科技創新的前沿陣地,同樣需要在促進技術發展與保障社會安全之間找到平衡點。借鑒加州和歐盟的經驗,台灣應該在立法過程中廣泛聽取各方意見,特別是科技業界、學術界和社會各界的聲音,以制定符合本地實際情況的監管框架。

具體而言,台灣在制定AI監管措施時,或可參考歐盟的風險分級管理模式,針對不同風險等級的AI技術實施差異化監管。同時,借鑒加州《人工智慧模型法》的經驗,台灣應當考慮對大型AI模型的開發設置一定的監管門檻,並提供必要的法律保障,以確保技術發展不會對社會造成不可回復的損害。

不管參考的是歐盟模式或加州模式,台灣政府與國會在制定相關法規時,都應該廣泛聽取來自科技業界、學術界及社會各界的意見,以確保法規的可行性和公正性。同時,相關立法應該特別兼顧開源社區的獨特性,為其提供適當的豁免和支持,從而促進科技創新的發展。

隨著人工智慧技術的不斷進步,如何在促進創新與防範風險之間取得平衡,已成為全球各地立法者面臨的重要挑戰。加州《人工智慧模型法》和歐盟的《人工智慧法》代表兩種不同的監管思維,各有其優勢與局限。對台灣而言,如何從中汲取經驗,並結合本地實際情況,以制定一套既能推動科技創新又能保障社會安全的監管措施。在此過程中,多方利害攸關者的參與和協作至關重要,確保AI技術發展在帶來便利與進步的同時,也能夠避免潛在的風險和損害。

back to top
navbar logo