文/施立成‧微軟全球助理法務長及台灣微軟公共暨法律事務部總經理
2023 年是 AI 的重要轉捩點,AI 議題在產業應用面、政策面和法律層面的討論聲不斷。而使 AI 展現價值的核心,就在於 AI 資料的治理,且生成式 AI 的大語言模型(LLM)及演算法都需仰賴高效的雲端運算,這也是目前政府與公部門面臨到最大的挑戰之一。因此,如何透過負責任 AI 的架構在資料治理、資安及產業應用上實現可信賴的 AI 願景,也成為現階段各界探討的熱門議題。
實現人工智慧願景,AI 應以負責任及合乎道德的方式被應用
自 1992 年,Bill Gates 便提出「電腦有一天將能夠理解人類」的願景,這種能力包括看得到、聽得懂、能夠交談並理解人類。近年來,許多技術的進步,例如 FIFA 所使用的臉部和語音辨識技術。但直到去年,OpenAI 推出了 ChatGPT,人們才真正體驗到了人工智慧與人類交談的可能性。相較於過去較單純、如 Siri 的智慧語音,ChatGPT 發展出的是能夠真正理解人類,並與人類進行有意義的對話。
AI 的應用影響層面廣泛,無論身為產品開發者或佈署者,都應該以負責任的方式使用 AI 技術。然而,這些想法不應該只局限於技術或商業層面,應該思考如同 OpenAI 這樣的科技橫空出世、改變了世界後,究竟能夠為世界做出什麼貢獻,並對所創造出的科技負責。
[ 推薦閱讀:AI 國際標準呼之欲出,ISO 42001 即將公告 AI 管理解方 ]
現在應該先預見未來因 AI 可能帶來的問題,並負責任地進行探討與解決。微軟總裁 Brad Smith 在其所撰《未來科技的 15 道難題》一書中,特別提及許多 AI 和人類社會互動相關的實例,並在其中討論了最新的 AI 原則和負責任 AI 準則。微軟也在 2018 年公佈了 AI 的六項準則,重點在於人工智慧應以負責任及合乎道德的方式被建構及使用,並且應該廣泛的服務社會;人工智慧更應以提升國際競爭力及國家安全為原則,在國際競爭的局勢下,AI 應該讓所有人都能夠輕鬆使用,而非僅是為了狹隘的商業利益而存在。
微軟制訂負責任 AI 六大原則,確保 AI 以值得信賴的方式被建構
微軟早在 2018 年就率業界之先,制定並公開負責任 AI 六大原則,包括公平性、可靠性與安全、隱私及資安、包容性、透明度及當責等。微軟視這些原則為負責任、且值得信賴的 AI 建構基礎。
除了制定基本原則外,微軟並透過嚴謹的公司治理規範,在每項原則下分門別類設定具體規則,再透過訓練與實踐發展出一系列的工具與流程來確保六大原則從 AI 研發、設計到部署的具體實現,並公開分享包括設立負責任 AI 辦公室(Responsible AI Office)及負責任 AI 長(Chief Responsible AI Officer)的實踐經驗。
微軟提出治理 AI 的五大重點藍圖
我們更在今年中發表了《治理 AI:未來的藍圖》,內容闡述微軟在負責任 AI 中所累積的經驗,以及對於 AI 監管上的構想。治理 AI 的五大重點藍圖如下:
1. 實作並建立在政府主導的新 AI 安全架構上
屬於美國商務部的國家標準與技術委員會(NIST)已經完成並啟動了新的 AI 風險管理架構(AI Risk Management Framework),微軟根據這個架構提供了具體的實作建議,包括微軟為了回應最近與主要 AI 公司召開的白宮會議所做出的承諾等。行政當局和其他政府亦可以根據這個架構,透過採購條例加速推動。
2. 對於控制關鍵基礎結構的 AI 系統要求有效的安全制動裝置
隨著 AI 逐漸強大,如何有效控管 AI 也變得更加重要。人們普遍對於 AI 在電力網路、供水系統和城市交通流量等關鍵基礎結構的控制,感到擔憂與質疑。藍圖中提出了新的安全指引,即為為控制指定關鍵基礎結構的 AI 系統建立安全制動裝置,並將有效的人為監督、彈性和穩健性列為首要考量。
3. 根據 AI 的技術架構研擬廣泛的法規制度
AI 需要一個能反映 AI 本身技術架構的法規架構。簡而言之,法律需要根據管理 AI 技術不同層面的角色,對不同參與者施加各種監管責任。因此,這份藍圖包含了建立和使用生成式 AI 模型所需部分關鍵要素的相關資訊,不同的法律應該在技術堆疊的三個層次,包括應用層、模型層和基礎結構層上,對行使特定責任的組織施加特定的監管責任。
4. 提高透明度並確保學術和非營利組織能善用 AI
我們應以負責任的方式讓 AI 系統更透明,微軟致力於發佈年度 AI 透明度報告以及其他擴大 AI 服務透明度的步驟。特別是擴大學術研究和非營利組織對 AI 資源的存取至關重要,設法使學術研究人員能夠取用更多計算資源,以進行 AI 相關研究。
5. 尋求新的公私合作夥伴關係,使用 AI 應對新技術帶來的社會挑戰
我們應運用 AI 保護民主和基本權利、提供廣泛獲取 AI 技能的機會以促進包容性增長,並且利用 AI 的力量推動地球的永續發展,這些都要仰賴政府、企業、及非政府組織一起展開計畫合力推動。
奉行 KY3C 原則:了解雲端、了解客戶和了解內容
針對金融服務所發展的「了解您的客戶」(Know Your Customer,KYC) 概念,在 AI 情境中也應延伸採用這項 KY3C 原則,包括了解AI部署的雲端(Cloud)、了解存取使用 AI 的客戶(Customers)、了解 AI 建立的內容(Content)。
首先,指定強大 AI 模型的開發者要先「了解雲端」,也就是用來開發和部署其模型的雲端環境。此外,在涉及敏感用途的情況下,與客戶直接相關的公司(無論是模型開發者、應用程式提供者,還是運作模型的雲端營運商)應該「了解客戶」,也就是存取模型的客戶。同時,當某個視訊或音訊檔案是由 AI 模型而非人類所製作時,大眾應該要能夠透過使用告知人們的標籤或其他標記「了解 AI 所建立的內容」。這種標記的義務也可以保護大眾防範原始內容遭竄改和創造「深度偽造」的狀況。
您的資料就是您的資料,不會被用來訓練微軟所提供給其他客戶的模型
AI 應用中的重要核心便是 AI 資料的處理,負責任 AI 的背後需要有一個可信賴的機制,也就是對於所有雲端資料的保護機制。而目前生成式 AI 的資料庫及 LLM 都以雲端為主,這也是許多政府單位或公部門對於雲端安全性有所疑慮與擔憂之處。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球 CIO 同步獲取精華見解 ]
首先,除了透過最先進的技術及明確的合約規範,確保客戶的資料受到合規性及安全性的全面保護外,微軟雲端服務強調,您的資料就是您的資料。當客戶使用 fine-tuning 的 OpenAI 服務時,客戶的數據就只會存在於客戶自己所訂閱的雲端空間中,並不會被放到更大的資料庫中。這意味著微軟不會使用客戶的數據來訓練其提供給其他客戶的模型。這是因為 fine-tuning 採用了”Custom Manager Key”技術,此技術可以確保客戶的數據只能由客戶自己來管理和使用,微軟因為沒有相關的密鑰,無法觸及或使用客戶的數據。客戶還可選擇透過加密的安全保護措施,以及限制訪問數據的人員和角色等功能,以確保其數據不會外洩。
此外,fine-tuning 還有附加合約,該合約中明確規定了客戶的數據會如何被使用和處理,合約內包括保密協議、數據使用限制和責任分配等內容,以完善保護客戶的數據不被未經授權的人員造訪或使用。最後,fine-tuning 還提供了一個客製化服務,此服務可以根據客戶的需求客製化模型和算法,讓微軟就算想要利用客戶的數據也無法做到,因為每個客戶都有自己獨特的需求和設定。
對客戶的負責任 AI 承諾及 Copilot 著作權承諾
此外,我們在今年下半年更首開業界先例,提出 AI 客戶承諾,包括分享有關負責任 AI 的開發和部署經驗、創建 AI 保障計劃以及支持實施負責任 AI 系統等,並基於此將現有的智慧財產權支持延伸至商用 Copilot 服務和 Bing Chat Enterprise而提出 Copilot 著作權承諾,在 2023 年 10 月份生效的產品條款中直接發佈並實施,幫助客戶對第三方智慧財產侵權的主張提出辯護,以致力在負責任 AI 旅程中為客戶提供其所需要的協助。
在追求最新的 AI 技術所帶來的創新、效率和變革的旅程中,確保 AI 的開發和實作是在負責任的治理架構下持續精進更突顯其重要性。微軟致力採取積極主動且務實的措施,不僅將負責任 AI 文化納入公司體制,而且還公開分享並提供讓 AI 對客戶和社會更加安全可靠的實質工具與治理經驗。我們很樂意繼續保持公開透明,廣泛地分享我們的 AI 治理經驗。讓我們在產業、政府、學術界和公民社會共同努力下,攜手共創一個讓 AI 促進人類發展的美好未來。
(本文授權非營利轉載,請註明出處:CIO Taiwan)