文/Jenn Mullen,是德科技新興技術解決方案經理
人工智慧(AI)的飛速發展令人咋舌,在許多方面均取得重大突破,並為各行各業帶來巨大的經濟和社會效益。 AI 具備預測和自動化功能,可實現運作最佳化、資源分配和個人化應用。 儘管效益顯著,人們也擔憂 AI 會被濫用,並堅信這個潛在風險必須加以解決,以確保公眾安全,同時提升對這項革命性技術的信任。 為此,各界正研議相關法規,讓 AI 的開發與部署,確實符合社會價值觀、安全準則,以及道德標準。
[ 推薦閱讀:得安全 AI 系統者 得天下 ]
AI 監管的考量
對於政府是否應涉入 AI 法規制定,一直存在著爭議。 支持嚴格監管的人士指出,這是讓消費者能放心使用 AI 工具的關鍵。 反對者則擔心,這些法規將對缺乏跨國科技巨頭資源的小公司造成不利影響。 隨著技術快速創新,AI 演算法不僅越來越複雜,也被嵌入到形形色色的產品中,這場爭論也愈演愈烈。 在此情況下,監管機構很難找到一個可兼顧各方利益的框架,以避免妨礙創新,同時又可敦促負責任 AI 的發展。
社會考量
AI 對就業、教育和社會平等具有重大影響。 有鑑於此,相關法規應確保 AI 演算法能夠控制並減輕負面影響,例如舒緩自動化導致的工作職缺並減少風險、促進技能再提升計畫、確保 AI 技術的公平存取,最終在社會價值和人類決策方面促成公平性。
法規可在 AI 開發過程中強制落實道德標準,確保 AI 系統的設計具有公平性、可問責性和透明度, 包括消除 AI 演算法的偏差、防止濫用,進一步確保 AI 尊重人權和價值觀。 此外,我們還需要可監督或限制 AI 系統開發和部署的法規,因為這些系統可能造成危害,例如入侵式監控技術,或是可能破壞民主進程的工具。
資料隱私和安全考量
由於 AI 系統通常依賴內含個人資訊的大型資料集來維持運作,因此相關法規有助於保護個人資料和隱私。 它們可強制落實資料保護標準、同意要求,來限制資料使用,確保 AI 不會侵犯個人隱私權。
法規是確保 AI 系統安全性的一道重要防線, 可針對 AI 穩健性和可靠性制定準則,以便將發生故障或意外後果的風險降到最低。 在醫療保健、交通運輸(如自動駕駛汽車)和金融等關鍵領域,這一點尤為重要,因為 AI 失靈可能導致嚴重後果。
創新與協作考量
AI 是跨國界技術,而法規在促進國際合作和標準發展方面,發揮著關鍵作用。 全球創新協作可克服 AI 安全性等全球性挑戰、確保 AI 系統的互通性,並且控管 AI 對全球勞動市場的影響。
法規還可實現公平的競爭環境,以鼓勵良性競爭和創新,同時增進公眾對 AI 技術的信任。 藉由在法規中訂定明確的標準,可能阻礙 AI 投資與發展的不確定性將大幅減少。 信任是 AI 技術被廣泛採用的關鍵,而法規則是向使用者保證 AI 系統安全性和可靠性的基石。
新的全球 AI 監管標準蓄勢待發
2024 年 2 月,歐盟(EU)所有 27 個成員國一致通過了《人工智慧法案》(AI Act),這是全球第一個完整的 AI 法案。 《人工智慧法案》針對 AI 制定的廣泛定義,適用於各種實體,包括 AI 系統的供應商、部署者、進口商和經銷商。 這項法案將採用基於風險的分類系統,讓法律能夠隨著 AI 技術的發展而不斷演進。 大多數系統都歸類於低風險類別,但所有系統都需在使用過程中,承擔重大的程序和透明度義務。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球CIO同步獲取精華見解 ]
這項新法案還禁用被視為具有「不可接受風險」的 AI 系統,這些風險會對人類造成威脅,包括使用潛意識技術來影響行為,或針對特定群體的弱點進行攻擊。 「高風險」類別適用於 5% 至 15% 的 AI 系統,其承擔《人工智慧法案》中大部分的義務, 包括受歐盟安全法規監管的安全元件和產品,以及支援公共和民營機構應用的獨立 AI 系統,例如教育和招聘、生物識別、決定基本服務的存取,以及管理關鍵基礎設施和邊境安全。
關注《人工智慧法案》的法律專家和技術專家預計,該法案將於 2024 年夏季正式通過,並於 2 年後全面實施。 某些特殊案例會在法案通過的早期階段開始執法, 例如禁用風險最高的系統,會在法案通過 6 個月後開始實施。 通用 AI(GPAI)法規則將於 12 個月後開始實施。 立法草案已公布。 它們可滿足企業對於將 AI 整合到產品開發和運作流程中的要求。
及早做好準備
歐盟希望《人工智慧法案》能夠成為人工智慧全球監管標準。 對於準備實施其他不同法規的國家而言,它是個重要的試金石。 科技公司應檢視其監管框架,確保它們符合歐盟制定的法規。 這些法規將提高公眾對的 AI 信任度,確保社會和產業能夠持續享受 AI 技術創新帶來的革命性效益。
(本文授權非營利轉載,請註明出處:CIO Taiwan)