文/魏銪志
人工智慧(AI)的運用在全世界發燒的程度已不言可喻,台灣更在輝達(NVIDIA)黃仁勳執行長的明星光環下,以及政府、學、研的齊力推動,已進展到家家戶戶都能夠談上一口好 AI 的榮景。當然,AI 的前景與應用仍具有極大的潛力與發展,且隨著 AI 技術的不斷進步,使得 AI 已經成為許多產業的核心或數位轉型的驅動力。
AI 在製造業中的應用非常廣泛,台灣作為全球重要的資訊與電子產品製造中心,透過 AI 技術可以提升生產效率和產品品質,實現智慧製造與智慧檢測。
在金融業,AI 被用於風險管理、詐欺檢測和智能投資等方面,透過大數據分析和機器學習,金融機構可以更精準的預測市場趨勢,提升資產管理效率。
[ 推薦文章:AI 的雙面刃與管理 ]
我國政府也積極推動 AI 技術的研發與應用,制定相關政策和法規,支持 AI 產業的發展。例如,政府除了啟動了多項 AI 科技計畫外,亦鼓勵企業和研究機構合作,共同推動 AI 技術的創新和落地。
此外,AI 在醫療與健康資訊相關領域的應用也在迅速擴展,在包括疾病預測、醫療影像分析和個人化醫療方案等,這些應用有助於提高診斷準確性和醫療效果。
在交通領域的 AI 的應用也同樣展現出顯著成效,透過 AI 技術,智慧交通系統可以實現即時交通監控、路況預測和自動駕駛,提升交通運輸效率並降低事故發生率。AI 還能優化公共交通路線和時刻表,提高乘客出行的便利性和舒適度。
人工智慧法案的推動歷程
然而,政府也開始反思,這些 AI 的應用的推動是不是也隱藏著危機,AI 的應用雖然帶來了許多便利與創新,但也伴隨著一些風險。首先是隱私問題,隨著 AI 技術的大規模應用,個人資料的蒐集、處理及利用成為商務運用下的常態,這可能導致個人隱私的洩露或濫用,進而引發對個人可識別資訊(PII)安全的擔憂。其次,部份 AI 系統的透明度和可解釋性不足也帶來風險,部份 AI 演算法如同黑盒子般的運行,使用戶難以理解其決策過程,這在如醫療、金融與交通等關鍵領域中尤為重要,AI 錯誤的決策可能帶來嚴重後果。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球 CIO 同步獲取精華見解 ]
為了有效的管理 AI 系統的發展與應用,各國皆投入資源進行法制化及標準化,以期使 AI 的治理、AI 在組織內的管理,以及 AI 系統應用的風險能夠降到一定的水準之下。2020 年美國白宮科技政策辦公室的人工智慧應用監管指南列出了 10 大原則,包括民眾對 AI 的信任、民眾的參與、科學誠信與資訊品質、風險評估與管理、效益與成本分析、靈活性、公平與非歧視、揭露與透明、安全保障、跨部門協調等,並已開始推動 AI人智慧法案。
不過在法制化推動速度最快的仍然以 2024 年歐盟通過的人工智慧法案(Artificial Intelligence Act)速度最快,除了在 AI 系的應用區分了不同的等級外,亦在各等級有更具體的要求與規範以確保 AI 系統應用的合規,在罰則上亦具十足的嚇阻效果,在上限高達 3500 萬歐元或全球營業額的 7%的處罰,相信在各大國際知名機構如 Google 及 Meta 的相繼因違反 GDPR 相繼被處理高達數千萬及數億歐元的前例下,沒有人會再懷疑歐盟制定這類科技相關法規確保公民權益與監理機制的決心。
國內 AI 產品與系統評測中心已掛牌
國內雖然在法規的制度方面仍在起步階段,但對於應高度監理的應用仍然有則原則與政策,金管會在 2023 年公布的「金融業運用人工智慧(AI)之核心原則與相關推動政策」即揭示我國金融業運用 AI 之 6 項核心原則及 8 項配套政策供金管會轄下的金融機構遵循,後續更於 2023 年 12 月公佈「金融業運用 AI 指引草案」,該指引預計於 2024 年中發佈。數位發展部共於 2023 年底偕同工業技術研究院與國家資通安全研究院等機構進行 AI 系統評測的發展,AI 產品與系統評測中心的掛牌更揭示了我國對於建立公平、可靠的 AI 產品與系統評測機制,並健全 AI 評測制度與可信任 AI 環境發展的努力。
[ 閱讀所有亞太監理科技的文章 ]
然而 AI 產品及系統評測的標準,以及評測的測試項目仍然有待發展的,目前 AI 產品與系統評測參考指引(草案)已於 2024 年 3 月預告,惟目前先針對高風險的生成式 AI 產品或系統進行基本檢測基準的擬訂,現行測試的項目包含準確性(Accuacy)、可靠性(Reliable)、資安(Secure)、隱私(Privacy)及公平性(Fair)進行評測。雖已初具規模但在細節上仍有精進的空間。
AI 系統衝擊評鑑的國際標準:ISO/IEC 42005
目前國際標準組織(ISO)和國際電工委員會(IEC)聯合技術委員會(JTC 1)下設的一個子委員會 SC42 主要負責人工智慧(AI)的標準化工作,目前有關 AI 系統衝擊評鑑的標準制定主要以 ISO/IEC 42005 為主,目前該標準為草稿版(Draft),標準中主要描述實施 AI 系統衝擊評鑑流程、時機、範圍、記錄與報告、監控和審查等等。
在標準中亦更明確的描述進行評鑑應考量的項目,除了 AI 系統的描述外,AI 系統目的、預期用途、非預期用途、數據資訊和品質、演算法和模型資訊、部署環境、利害相關方、實際和潛在影響,以及 AI 系統故障、誤用或濫用的衝擊等等皆應進行評鑑。其中在實際與潛在的影響方面更包含了好處與危害、透明度、公平性與歧視、隱私、可靠性、安全性、可解釋性、環境影響等等,應可提供可具體的參考。
建議我國的 AI 產品與系統評測未來可以將國際標準考量的評鑑項目納入考量,可以使評測標準與測項的完整性達到更高的水準,並與國際的要求或指引更為相容,符合國際標準與法規的要求。
(本文授權非營利轉載,請註明出處:CIO Taiwan)