8月27號司法院對外發布新聞稿表示,司法院積極建置以TMT5語言模型為基礎的「生成式語言模型系統」(俗稱AI系統)協助法官草擬部分案件類型之判決書,以減輕司法負擔,並將在9月底完成驗收、進入試辦。
而針對此項決定,民間司法改革基金會等團體今(26)日召開記者會指出,司法院新聞稿不但未說明清楚AI系統建置、訓練方式等資訊,對於AI系統運用在司法議題的風險評估也待加強,「運用社會科技,如何同時確保司法獨立的完善,這是大家都非常關心的」,並呼籲司法院應召開公聽會、建立符合國際標準的使用AI規範後,再開放法官使用。
民團也特別說明,「生成式語言模型」並非「單純的例稿生成器」,而是能「以對應起訴書為生成素材,即時分析犯罪事實、證據等段落資料」的智慧化工具。因此,此系統會對法官重要審判核心工作「書寫判決」產生重大運作模式的轉變,不可不重視。
資訊需充分揭露:AI生成判決「茲事體大」,須公開透明受檢視
全國律師聯合會常務理事林俊宏強調,司法院研擬科技方法協助法官生成判決,「以減輕法官的工作負擔的角度,司改會及其他民間團體相對來說是支持的」,但是司法院卻並未完整說明AI生成系統建置、訓練的方式,包含AI訓練階段餵養的資料、其時間區段、資料管理方為何等,甚至是法官運用此系統生成判決時,是否會記錄法官使用的情形、確保「判斷事項」仍由法官把關等眾多問題,就目前司法院提供給外界的新聞稿,「我們無法具體理解司法院使用這套制度造成的風險有什麼」。
台北律師公會人權委員會委員陳又新指出,目前外界都不知道此系統邏輯背後內容包含何者,但若假設AI系統資料庫都是既有判決書,不僅要有舊有判決「都是對的」的前提,更代表台灣司法將會「停格」,不再進步也不會再做出不同的判斷。陳又新舉蘇建和冤獄案當例子,若前面法官都做出有罪判決,「AI學習的結果它如何去挑戰可能的錯誤?」。
為了釐清公眾的疑慮,民團呼籲,司法院應就既有疑問進一步說明,尤其要先行公布訓練時使用的資料庫,一併公開給律師、檢察官等利害關係人試用,供大眾檢視、評估可能的資料偏誤及風險。
加強風險評估:3大風險危及到司法公正、信任問題
林俊宏表示,歐盟的人工智慧專法《AI Act》草案已將AI在執法與法律解釋的應用列為「高風險項目」,目前卻未看到司法院有做過任何風險評估,「也不知道他們想要怎麼做」。
林俊宏直指3項風險,首先為判斷錯誤,他說明,AI容易產生人工幻覺(Artificial Hallucination)現象,以為AI都是對的,根據美國普頓大學研究,AI系統正確率未達5成情況下,有高達4成的使用者無法察覺系統的錯誤,因此AI判決正確度如何,是大眾須深思的問題。
其次為複製系統偏誤的問題,AI可能會因為原始資料的不足或不均而產生偏差,林俊宏表示,以AI奠基於過去資料產生新結果的基礎,若過去判決有歧視(如種族、年齡、性別歧視)或錯誤的狀況,「AI產生的判決也必然會有所偏誤」,甚至會有放大效果。
陳又新延伸補充,「用AI寫判決本身就陷入一個邏輯上的兩難」,若AI只能以既有判決學習,就會複製或加強過往判決的錯誤或偏執;但若AI足夠聰明,可以挑戰、糾錯以往判決,則陷入AI不具備合憲性去扮演法官的身份。
最後即是司法信任的風險,林俊宏嚴肅地說,下判決時必須觀察每個個案的具體狀況,而具體狀況則須依靠人類五感、生活經驗進行觀察和分析,「這並不是AI能夠取代人類法官所能做的」,在此狀況下,司法是否能夠取得大眾信任會是很大的疑慮。
此外,雖然司法院表示將會參考「行政院及所屬機關(構)使用生成式 AI 參考指引」來做規劃,但台灣人權促進會數位人權專員周冠汝認為,不管是在開發或使用生成式AI、評級性AI,甚至只是自動化的人工智慧,只要會影響到個人基本權,例如社會福利分配、犯罪偵查等,就需要有事前隱私或人權風險評估等相關規範,若政府只做到大量資料收集,而未精進機關下決策或判斷的標準,「政府是有可能被這個工具來利用」,故呼籲司法院,應該確實完善規範,而非只是「參考指引」,才能讓AI工具真正被人們所利用。
舉辦公聽會:廣大各界意見,切勿倉促上路!
綜上所述,民團呼籲,司法院應該盡速舉辦公聽會且廣邀律師、檢察官、技術社群等利害關係人,吸取各界意見,一起參與AI生成制度與規則的建立,「而不是司法院單方面跟我們說,欸~要用AI系統」;並且司法院擬訂規範時,應參考現行國際標準,與國際上監管標準接軌後再開放,降低或避免系統性風險,這樣才能真正減輕法官負擔,讓法官將時間留給重要的判斷事項,提升司法裁判品質,「而不是在現在相關狀況都還沒確認的情形下,就急著要讓AI判決上路」,若發生問題,誰都無法負責,民團堅決反對「先上車後補票」。