文/F5
過去一年,在F5的SOAS、API、AI年度調查,或是與亞太區的各行業領袖交流的會議上,我們發現他們都面臨同樣的關鍵挑戰:人工智慧 AI 不再是遙不可及的未來,它已經正在重塑各大產業。而各產業對執行的時間表也同樣緊迫,面臨的問題不再是企業是否會採用AI,而是如何快速且負責任地擴大其應用規模。
全球各個企業/組織都在競相採用 AI,威脅行為者也不例外。從改善釣魚詐騙、簡化工作流程到增加利潤和自動化攻擊,犯罪分子正在利用 AI 提升其運作的各個方面。這種 AI 在合法業務和威脅行為者間的廣泛採用,創造了一個複雜的安全格局,AI 同時作為防禦工具和攻擊載體。
AI驅動世界中的治理與安全
邁向 2025 年,AI的規模化應用將與擴展與保護AI齊頭並進。在整個地區,執行長面臨雙重挑戰:既要應對日益複雜的威脅,同時還要因應多樣化的法規。對許多人來說,問題不再是他們是否會解決這些風險,而是他們能夠多快適應處理。
大型語言模型 (LLM) 正在顛覆各大產業的同時,也成為攻擊的主要目標。例如,即時注入漏洞(prompt injection vulnerabilities)已將原本值得信賴的AI聊天機器人變成了風險,打破與客戶長久辛苦建立的信賴。同樣,作為現代系統核心的API,也經常被駭客利用作爲資料外洩的缺口。
許多企業已經逐步採用主動威脅偵測和自動化合規工具,將其視為關鍵的防禦手段。我們也觀察到,越來愈多的執行者將治理直接嵌入到業務營運,其能即時適應不斷變化的法規,這種以治理為核心的思維,迅速成為安全策略的基石。
以下是F5對2025年針對AI 網路與應用安全的預測,以及企業該如何透過專注於智慧擴展、安全性和信任來獲取成功的方法。
預測一:AI 驅動的殭屍網路
多年來,F5 Labs 一直在追蹤由消費級物聯網設備組成的大規模殭屍網路「Thingbots」。在過去多年間沒有太多改變,2024 年初,我們的感測器網路偵測到針對家庭路由器相關 CVE 的掃描活動激增。這些殭屍網路目前主要用於發動DDoS攻擊以及構建住宅代理網路。雖然多數人認為威脅行為者主要利用 AI 編寫釣魚詐騙誘餌或建立惡意程式碼。如今,一個 AI 代理可能會被指示發現並利用網頁應用程式或 API 的未知漏洞,完全不需人類干預,攻擊的狀況只會進一步惡化。
我們每年都準確預測到令人擔憂的AI 惡意使用演進,現今這項技術將大規模武器化。威脅行為者可能將自主網頁攻擊的 LLM 與被攻陷的路由器殭屍網路相結合,從數十萬台設備同時發起攻擊。即使每台路由器的計算能力不足以執行自己的 AI 應用程式,攻擊者仍可利用路由器向控制的 LLM 發出 API 呼叫,形成高度協調的攻擊,針對數千個網站發起自主駭客行動。
預測二:將 AI 融入 API
目前,我們正處於全球性的「AI 競速時代」,初創公司到國家機構,所有的企業正以前所未有的速度採用 AI 技術,這種狂熱採用潮,形成了一個危險的循環:AI 使用越頻繁,生態系統就越複雜,進而需要更多 AI 來管理這種複雜性。在這場競賽中,一個關鍵漏洞正在浮現,那就是支持 AI 系統運作的 API。
API 對於 AI 的操作至關重要,無論是模型訓練、部署還是與應用的整合。然而,AI 採用的速度超過了企業有效保護這些 API 的能力。預估約有 50% 的 API 未被監控或管理。這使企業暴露於與大型語言模型(LLM)處理的敏感資料相關的風險中。
我們已經看到大量資料顯示,LLM 通過前端AI 應用程式洩露敏感資料。同時,隨意開發的 AI 應用程式,還可能因為安全性薄弱的 API 暴露大量敏感個人資料。如我們所言,「AI 的世界就是 API 的世界」。我們預期大量個人和公司資料將經由 API 被竊取。根據以往的資料外洩案例和攻擊者趨勢,尤其醫療行業將成為重災區,未能保護 API 生態系統的企業,不僅面臨資料外洩,還可能損害 AI 信任的建立。
預測三:攻擊者利用 AI 發現新漏洞
2024 年 11 月,Google 的安全研究團隊Project Zero 宣布 AI 首次發現了一個未知的(0-Day)漏洞。他們的公告顯示,其 AI 驅動的框架發現了 SQLite 數據庫系統中的一個棧緩衝區下溢漏洞。這一漏洞從未被傳統技術(如模糊測試)偵測到。
這項進展對於安全研究人員來說令人振奮,因為它有望大幅提升工作速度與效率。然而,儘管我們預期未來一年會有更多類似的研究成果,但威脅行為者很可能不會宣佈其使用 AI 漏洞發現工具的情況。我們再度面臨一場軍備競賽,一些富裕的國家已經開始利用這些AI工具發現漏洞,並進行間諜活動或網路攻擊。隨著這些 AI 工具商品化,我們也預測有組織的犯罪集團也將迅速跟進從事非法活動。安全研究人員的任務就是在攻擊者利用漏洞之前,就用AI發現並修補他們。
預測四:AI 擊敗量子破解加密技術
量子電腦仍然對傳統加密系統(如 RSA)構成潛在威脅,現階段攻擊現代加密標準的能力仍處於起步階段。最近,中國研究人員利用量子計算成功分解了 50 位整數,這與目前使用的 2048 位 RSA 密鑰相差甚遠。專家認為,實際挑戰 RSA 加密至少需要具備數百萬量子位的量子計算機,這遠超過當前能力。
因此,AI 逐漸成為加密安全的主要威脅,並非直接破解加密演算法,而是透過利用執行過程中的漏洞。機器學習模型已被成功應用於大幅減少破解雜湊密碼的時間,並顯著提高從電腦 RAM 中恢復 AES 密鑰的速度與準確性。這些所謂的「旁路攻擊」並不專注於加密算法本身(如 AES),而是利用其使用過程中產生的「噪音」,例如電力消耗、電磁波輻射或處理時間。通過監控並分析這些物理信號,威脅行為者能夠推斷並重建密鑰。
隨著密碼學家和製造商加強對旁路攻擊的防範,我們將越來越依賴 AI 分析日益減少的資訊外洩。在量子計算尚需數十年才能直接破解加密的情況下,我們預測 2025 年將見證多項利用 AI 破解傳統加密的進展。
2025年的AI安全願景
AI正在重塑未來,帶來創新潛力與風險。在企業競相採用 AI 解決方案的同時,我們也面臨如何檢測並阻止 AI 驅動攻擊的挑戰。雖然目前這些攻擊多半模仿現有技術並利用住宅代理網路等隱藏來源,AI 的進步將使攻擊更複雜,甚至明顯帶有 AI 特徵。
2025 年對所有的企業來說將是決定性的一年。我們將超越實驗階段,專注於真正關鍵的目標:智慧擴展、安全保障和信任建立。未來,攻擊可能由自主 AI 系統執行,完全無需人類干預。這驅使我們採取主動防禦與健全的 AI 管理策略。拓展AI的應用不僅僅是為了創新成長,我們需重新思考如何在這個由AI塑造的世界中,繼續引領技術潮流。