第14屆CIO價值學院第三堂課 會後報導
資策會科技法律研究所組長林冠宇說,近年隨著電腦運算能力及資料儲存技術精進,帶動「強AI」的發展;但隨之而來產生的議題,會是在訓練AI的過程,可能觸及資料保護的敏感議題,例如它所訓練的資料是否合乎個資法要求,或者是否引發AI倫理上的問題。
著眼於此,歐盟執委會於2021年4月提出人工智慧法草案,旨在調和現行對於AI的管制,並修改現行的一些立法規則,與GDPR具有相同位階。歐盟執委會認為AI發展的核心重點在於「信任」,為確保全球AI的發展可以保護歐盟國民的安全、並在基本人權下進行,因此以信任為核心來形塑整個AI相關法規體系。
[ 下載 2020-21 CIO大調查報告,掌握企業應用AI人工智慧趨勢 ]
綜觀整個草案共有85個條文,分12編及9項附件。從整體來看可分為幾個部份。包括相關基礎規範的適用範圍與定義,還有管制與政策手段,像是歐盟對於AI的定義分類,以及一些透明性義務等法遵要求;最後提到了一個促進創新措施,列出AI沙盒這樣的新做法。
在適用範圍與定義方面,明定管轄權鞏延伸到「域外」,歐盟境內AI系的使用者絕對適用於這套法規,但若是提供者,只要其AI系統上市並提供相關服給歐盟市場,無論身處歐盟境內或境外,都適用這套法規。更有甚者,如果境外的AI系統提供者或使用者,將此AI系統產出的結果運用在歐盟境內,同樣被納入適用範圍內。
[ ????推薦閱讀: 剖析企業規模的人工智慧策略 ]
值得一提,歐盟人工智慧法草案在管制與政策手段方面,把AI系特別分為禁止使用之AI、高風險的AI、低風險的AI。所謂禁止使用之AI,即是完全無法被接受的AI系統開發,包含AI系統使用潛意識的技術,在超脫人類意識下想要去改變或控制人的行為,且可能造成身心傷害,這樣的AI系統就是禁止使用的。此外AI系統若依照年齡、身心疾病等特定因素去剝削某些特定弱勢族群,以達到控制行為並造成其他人身心傷害,也會被禁止;而公務機關若透過AI系統,依自然人行為或已知悉、可推測的一些個人特質,量測其可信度、忠誠度且會造成一些負面或不利對待時,也被禁止使用。
談到高風險AI,儘管被排除在禁止使用的範圍之外,但對於自然人的一些健康安全與基本人權仍然構成某種高風險,因而必須符合草案當中的 Chapter 2 要求,經完成評估與確認程序、並向歐盟相關單位進行註冊,才可上市使用。高風險AI系統大致有幾種,主要就是意圖成為產品中安全元件的AI系統,或在附件二規範之列的產品,包含了機械類、玩具、電梯、電扶梯、醫療設備等等;此外諸如附件三所列的AI系統,像是遠端生物辨識系統,重要基礎設備裡頭包含的一些交通或能源類型AI系統,還有教育的成績批閱系統等等,也都涉及到高風險AI系的部份。
[ 加入 CIO Taiwan 官方 LINE 與 FB ,與全球CIO同步獲取精華見解 ]
林冠宇說,該草案的重中之重地方,在於仿效GDPR的高額罰款,當你使用禁止的AI系統或違反高風險AI系統的資料治理要求時,可能被罰3,000萬歐元、或6%全球營收,裁罰基準甚至高於GDPR。縱使如同 Article 7 違反其它規定,也會遭罰是2,000萬歐元、或4%全球營收。
論及歐盟人工智慧法草案未來實施後,可能在全球技術創新、市場發展、各國法制趨勢演變帶來影響,在在值得觀察。(文/明雲青)
( 本文授權非營利轉載,請註明出處:CIO Taiwan )