AI的發展需要技術的進步與領域知識的結合,以及對不同利益相關者需求的敏感性。透過有效的組織學習,AI可以在提升績效的同時,減少偏誤和風險,並確保其可解釋性和透明性。
雖然人工智慧(Artificial Intelligence, AI)技術早已於1950年代即與資通訊科技同步演進與發展至今,但是近十年來的突破與曝光(例如擊敗人類西洋棋世界冠軍),與2022年底生成式AI(generative AI),以其低度使用門檻、接近人類自然語言的答詢能力、以及有別於現存數位科技,得以從錯誤與回饋中持續學習的機器學習演算法,伴隨多元應用案例與場景的不斷擴展,讓各專業領域的個人、團隊與組織都更致力於探索如何善用AI以提升績效。由目前文獻[1]也可看出,政府部門在此風潮中也積極探索AI的可能應用,並且也企圖貢獻於特定業務領域績效。
演進中的AI
AI自1950年代至今歷經了三波的成長與遲緩期,[2]而理解此三波起落風潮的緣起與特質,是個人與團隊善用AI提升績效的基礎。首先,第一波以通用AI(general purpose AI,GPAI)為目標,而企圖全面地模擬人類的眼耳鼻舌身意,由於遠超過當時的運算資源、演算法能力、與資料可得性而面臨挫折;第二波則聚焦於特定領域規則為基礎(rule-based)的專家系統(expert systems),獲致了許多領域的成功應用案例(例如特定疾病的診斷及預測),但是由於人類的判斷與決策仍存在許多無法明確傳達的默會知識(tacit knowledge)也再次面臨瓶頸。
1990年代後由於網際網路的興起,得以透過巨量資料支援訓練AI模型,而促發了以資料為導向(data-oriented)的機器學習與深度學習(machine learning, deep learning)演算法,也造就了延續至今的第三波AI風潮,包括了判別或預測(discriminative, predictive)與生成AI類型的應用案例(use cases)與場景(scenarios)。
一般認為目前仍處於第三波AI風潮的成長期間,預期上述以規則與資料為基礎的演算法進展將會有融合的趨勢與期待,如以相關文獻或國際智庫報告常引用的負責任(responsible AI)、可信賴(trustworthy AI)的角度來看,[3]上述的混成(hybrid)模式也與AI常被批評的欠缺透明性(transparency)相關。混成模式有助於提升AI應用產出的可解釋性(explainability),也可以緩解外界批評AI所使用的訓練資料偏頗或代表性的疑慮,連帶助益於應用AI可能出現的偏誤、幻覺(hallucination)、與歧視的辨識和改善。
引導AI學習組織模型與利害關係人
多數工作者習慣以其專業領域來探索AI的應用案例或場景,例如交通領域的科技執法、金融領域的信用風險評估等,從專業領域來看,這確實足以理解AI如何可能提升個人或團體(以致於整體組織)績效,並且如同過往成熟的數位科技,唯有妥善融合AI與領域知識才得以實際提升績效,此數位優化與數位轉型的經驗,已被許多實務與學術研究成果所證實。
另一方面,如果將AI視為機器「學習」的成就,而且也企圖善用AI讓個人與組織的學習能力升級,也就是追求AI賦能的組織學習(AI-powered organization learning),則不可避免地必須讓AI的運作及產出,同時具備足以被人類解釋的邏輯與資料基礎,尤其應用AI於公共服務及民主行政的場域時,得以銜接在地脈絡與價值就更為關鍵了。
其實自然或人文社會知識的模型(邏輯推理)與資料(證據文本)的循環進展(如圖1),也適用於理解AI發展至今的知識論基礎,上述第二波以規則為基礎的專家系統,可被理解為透過領域知識的模型,在面對特定的條件設定時,演繹或引導實證資料的蒐集與產出(如圖1左下方順時針循環);而引領第三波AI風潮資料導向的機器學習演算法,則是透過大量的資料文本,萃取歸納為特定的分析判斷,進而預測或生成模型(如圖1右上方順時針循環)。
緣此,為了善用AI作為組織學習的工具,並避免可能的偏誤幻覺,應在資料與模型的互生循環中,即時導入妥適的修正機制。例如以檢索增強生成(retrieval-augmented generation,RAG)技術,[4]透過組織內部更為專業精確的資料文本,結合巨量資料所訓練的大型語言模型(large language model,LLM)共同生成內容,這樣一方面降低了LLM可能的偏誤幻覺,同時也提升了生成內容的可解釋性。此一特質也使得組織內部的質性文本得以轉換為知識管理的素材,並持續演進,讓領域專家在資料文本與邏輯推理中扮演關鍵的自主角色,降低過度依賴AI的風險。
政府部門的個人與團隊績效,除了受益於上述善用AI的知識管理循環外,對於特定問題的診斷與改善方案,皆必須考量特定利害關係人(stakeholders)的主觀價值(如圖2各橫列,S1~S5),及其如何影響特定問題的判斷,包括目前或未來預期狀況(由目前或未來AI應用方案所導致)的正面過程或產出(即廣義的價值或效益,benefit;例如提昇個人與團隊的生產力)、負面過程或產出(即廣義的風險或後遺症,risk;例如前文提及的幻覺、偏誤甚至更嚴重的歧視等)、以及為了獲致效益或管理風險所需的廣義成本或條件(cost/condition)。
此BRiCS分析框架的橫列與直欄的交會,即足以反映特定利害關係人面對目前與未來方案的衍生情境時的多方考量,包括政治、經濟、社會、科技、與生態等視角,以及這些衍生情境所具備的立即/延遲、短期/長期、外顯/內隱、直接/間接、或理性/感性等特質。如能引導AI參考此BRiCS框架,不論是作為模型訓練所需的資料蒐集、或作為可解釋邏輯推理所需的主觀價值與問題脈絡(如上述的循環圖),皆可成為組織學習所需的知識素材,因而對於主管該公共事務之公務人員與組織有所助益。
以人機協作促成組織學習的再升級
綜言之,為了善用 AI 以提升個人與團體績效,包括政府部門在內的組織學習與知識管理,必須融入AI模型與資料的產製及修正,並考量多元利害關係人的價值與問題脈絡,同時提升AI模型的可解釋性與透明性。如同過往人類歷史中一次次地善用並管理科技創新的累積經驗,以人機協作(human machine collaboration)促進AI的訓練及應用循環,使一般使用者或領域專家避免過度依賴AI,並確保其自主與獨立性,並得以妥善管理前文與諸多文獻皆已提到的偏誤、歧視、或侵犯智慧財產(尤其對於生成式AI應用)等風險。以近期發展趨勢來看,AI作為助手(AI assistant)已逐步進展為可自主串連工作流程的AI代理(AI agent)之際,[5]相信此組織學習的再升級企圖,終究有助於AI科技的持續演進及永續發展。
本文作者為國立政治大學公共行政學系副教授、臺灣數位治理研究中心主任蕭乃沂,授權轉載自《國家人力資源論壇》。更多精彩內容,請<點此>
[1]Madan, R., & Ashok, M. (2023). AI adoption and diffusion in public administration: A systematic literature review and future research agenda. Government Information Quarterly, 40(1), 101774.https://reurl.cc/O5MAoy
[2]Ghosh, P. (2022). AI – Past, present, and future. Retrieved from https://reurl.cc/eGz3lx
[3]Batool, A., Zowghi, D., & Bano, M. (2023). Responsible AI governance: A systematic literature review. arXiv preprint arXiv:2401.10896. https://reurl.cc/A6j7QZ
[4]劉育維(2023)。RAG 檢索增強生成— 讓大型語言模型更聰明的秘密武器。https://reurl.cc/kMOEV3
[5]支琬清(2024)。AI Agent 是什麼?如何完成複雜任務?3 大工作步驟、5大類 AI 代理一次看。https://pse.is/6wk4tj/