名為 NIPRGPT 的實驗性聊天機器人在今年六月中首次亮相,美國空軍很快就會實際運用這項技術。
文/Paul Barker·譯/曾祥信
今年六月中,美國空軍部(DAF)啟動一項實驗計劃,目標對象包括守護者(美國太空軍官兵)、飛行員、文職人員和承包商,這證明了,即使是最嚴格的組織也願意探索生成式 AI 科技。這項服務稱為 NIPRGPT,它將成為「暗劍」(Dark Saber)軟體生態系統的一部分,暗劍軟體是由位於美國紐約州羅馬市的美國空軍研究實驗室(AFRL)資訊處負責開發。
暗劍是整個美國空軍部的飛行員和守護者共同使用的生態系統,匯集創新人員與開發人員,讓他們有能力建立出可快速部署到軍隊的新世代軟體和作戰能力。(「美國太空軍」(US Space Force)自 2019 年成為獨立軍事部門,屬於美國空軍部底下,「守護者」(Guardians)則是美國太空軍的成員。不過,守護者成員並非接受零重力飛行訓練的作戰人員:他們大多是電腦專家,負責防止網路攻擊、維護電腦網路、及管理衛星通訊等工作)
[ 熱門精選:如何贏得 CIO plus 的角色? ]
美國空軍部表示,NIPRGPT 是一款人工智慧聊天機器人,將在非機密網路協定路由器網路上運行,讓使用者能夠進行與人類相似的對話,來完成各種任務。這款聊天機器人透過美國國防部的通用存取卡片(CAC)進行身份驗證,它可回答問題,並協助通訊、準備背景文件和程式設計等任務。
美國空軍部代理資料和人工智慧長 Chandra Donelson 表示,「技術是透過實踐來學習的。當我們軍隊中最接近問題的士兵學習技術時,我們就在利用他們的洞見,為未來的策略、採購與投資決策提供資訊」。
沒有一蹴可幾的完美
NIPRGPT 實驗是進行現實世界測試的絕佳機會,可以測量生成式 AI 的運算效率、資源使用率、與合乎安全規範程度,以進一步理解其實際應用能力。目前,美國空軍研究實驗室在一套封閉、可控制環境中,試驗他們自行部署的開源大型語言模型。他們既沒有訓練此模型,也沒有根據任何使用者輸入來改善模型的回應內容。
將來,使用者將有機會提供回饋,協助擬定策略,以及為採購部門與供應商的對話帶來有用資訊。
[ CIO都在讀:從「零信任」到「雙零安全」 ]
美國空軍研究實驗室的資訊長 Alexis Bonnell 對這項實驗的描述是,「一個重要的橋樑,確保我們將最好的工具交到團隊手上,同時利用更大型商業工具,引導我們在嚴格安全參數和其他流程上做出正確行動。要改變我們與非結構化知識的互動方式,絕非一蹴可幾,我們每個人都必須學會使用工具、進行有效查詢,並獲得最好的結果。隨著更強大工具的出現,NIPRGPT 將可讓空軍飛行員和守護者進行探索,培養技能與熟悉度」。
在六月的 NIPRGPT 發表會上,Donelson 表示美國空軍部尚未把這項服務交託給任何單獨人工智慧模型或技術供應商團體,因為在流程中做這項決定還為時過早。她說,「身為技術領導者,我們有責任確保使用的 AI 模型真正適合我們的目標。因此,我們計劃與政府、產業和學術界最優秀的人才合作,以確認哪些模型能在我們特定任務的領域上表現出色,同時也要找出符合未來作戰人員需求的使用案例」。
國際數據資訊中心(IDC)的研究經理 Aaron Walker 表示,他對這次發表會的初步想法是,「從做中學是很好的做法,直到敏感資訊曝光或是惡意攻擊者毒害模型時,情況就不一樣了」。美國空軍部在非機密網路上進行實驗,是明智的做法。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球CIO同步獲取精華見解 ]
他說,美國空軍部和其他國防機構「充滿野心且富有創新精神,雖然他們通常擁有較多財務資源與開發新興科技所需的技術人才,但是讓民間機構協助解決某些難題,會讓他們自己受益」。
他說,AI 工具最終可能有助於產生威脅情報報告,逆向工程破解惡意軟體、對策略配置做出建議、合併安全資料和撰寫程式碼,當然在其他技術含量較低的使用情境中也能做出貢獻。
至於安全問題,Walker 表示,儘管 NIPRGPT 位在「非機密網路」上,但人類並不完美,可能會錯誤地標記或使用敏感資訊,造成機密資料曝光的風險。當美國空軍人員或承包商在開放網路上輸入敏感資料以獲取回應時,就會導致這種情況發生。
(本文授權非營利轉載,請註明出處:CIO Taiwan)