文/F5
F5宣布將它將應用安全和交付能力功能帶入由英特爾支援的AI部署中。這項新的聯合解決方案結合F5 NGINX Plus 提供的業界領先的安全性和流量管理功能,與Intel OpenVINO 工具套件和基礎設施處理器(IPU)的尖端優化和性能,為高階AI推理提供卓越的保護、可擴展性和效能。
隨著企業越來越多地採用AI支援智慧應用和工作流程,高效、安全的AI推理變得至關重要。透過結合可優化並加速 AI 模型推理的 OpenVINO 工具套件,與提供強大的流量管理和安全性的F5 NGINX Plus,可以滿足高階的需求。
OpenVINO 工具套件簡化幾乎所有不同框架的AI模型的優化過程,以實現一次寫入、隨處部署的能力。對於開法者來說,這是創建可擴展且高效的 AI 解決方案的關鍵,且只需進行最少的程式碼變更。
F5 NGINX Plus 增強這些 AI 模型的安全性和可靠性。 NGINX Plus 作為反向代理來管理流量、確保高可用性並主動提供運作的狀態檢查。它還支援 SSL 終止和 mTLS 加密,在不影響效能的情況下,保護應用和 AI 模型之間的通訊。
為了進一步提高效能,Intel IPU 從主機 CPU 中卸載基礎架構服務,釋放資源提供 AI 模型伺服器使用。 IPU 有效管理基礎架構任務,進而提升NGINX Plus 和 OpenVINO™ 模型伺服器 (OVMS) 的可擴充性和效能。
這一整合解決方案特別適用於視訊分析和物聯網等邊緣應用,其中低延遲和高效能是應用的關鍵。透過在Intel IPU 上執行 NGINX Plus,此解決方案有助於確保快速可靠的回應,使其成為內容交付網路和分散式微服務部署的理想選擇。
F5 首席技術長Kunal Anand表示:「與英特爾合作使我們能夠突破AI部署的界限。此次合作彰顯我們致力於創新的承諾,並提供安全、可靠且可擴展的AI推理解決方案,使企業能夠安全、快速地提供AI服務。我們的組合解決方案確保企業能夠以卓越的性能和安全性來利用AI的力量。」
英特爾網路與邊緣集團首席技術長Pere Monclus 指出:「利用Intel IPU 和OpenVINO 工具套件的尖端基礎設施加速功能,結合F5 NGINX Plus,可以幫助企業在多個垂直市場和工作負載中,實現簡化、安全與高效的創新AI推理解決方案。