生成式人工智慧的發展速度非常快,這使得公司在實際應用和評估這項技術時感到困難,同時也必須注意防範偏見和風險。
文/Maria Korolov·譯/Christy
已經開始使用或正在積極研究生成式人工智慧的公司數量正在加速增長,幾乎沒有多少公司會選擇不使用這項技術。
在 2022 年 11 月,生成式人工智慧在企業中的使用幾乎為零,當時常見的工具只有人工智慧圖像或是早期的文本生成器。但到了 2023 年 5 月,根據 IDC 的一項調查,有 65% 的公司正在使用生成式人工智慧,到了 9 月份,這個數字上升到 71%,另外有 22% 的公司計劃在接下來的十二個月內實施該技術。
[ 推薦閱讀:生成式 AI 調查 ]
根據 IBM 2024 年 1 月發布的一份報告,即使在起步階段,生成式人工智慧也已經成為一種被廣泛接受的行動和應用方式,最常見的使用案例包括:
- IT 流程自動化
- 安全和威脅檢測
- 供應鏈智能化
- 自動化客戶服務和網路流程
此外,當你考慮到像 ChatGPT 這樣以雲端方式提供服務的生成式人工智慧工具時,使用生成式人工智慧的公司比例幾乎變得更加普遍。
而且這還不包括現在已經嵌入到 Office 365、Google Docs 和 Salesforce 等平台中的生成式人工智慧。
然而,當實施更複雜的生成式人工智慧技術時,可能會遇到一些挑戰。這些挑戰包括微調模型、使用向量資料庫為人工智慧系統提供背景和最新資訊、以及將生成式人工智慧整合到工作流程中所需的應用程式介面。打造企業級的生成式人工智慧平台就像射擊移動的目標一樣困難,因為人工智慧的進步速度遠遠超過了平台的適應能力。
[ 推薦閱讀:隱私 AI 發展應受重視 ]
卡內基美隆大學的人工智慧教授 Anand Rao 指出:「對組織來說,將生成式人工智慧技術應用到實際操作中具有挑戰性。這是因為有各種不同的工具、模型和向量資料庫在不斷發展,並且有新的研究論文不斷問世,這對公司來說非常具有挑戰性。企業需要穩定性,他們需要知道在接下來的三個月裡應該做什麼,而不是每兩週就要改變所有的事情。」
根據 Intel 的 cnvrg.io 在去年 12 月發布的研究結果顯示,由於這一挑戰的複雜性,加上所涉及的成本和所需的專業知識,去年只有 10% 的組織能夠真正地將生成式人工智慧模型投入生產。
儘管只有少數的企業能夠將生成式人工智慧模型投入生產,但這並不表示其他企業應該坐等事情發展。為了重拾主動性,現在可以採用一些最佳實踐來開始建立生成式人工智慧平台。這些實踐包括建立強大且現代化的資料和應用程式介面基礎架構、在企業應用程式與所使用的人工智慧模型之間建立人工智慧抽象層,以及建立安全性和成本政策、使用限制和道德框架,以指導企業如何部署生成式人工智慧。
資料與 API 的基礎架構
總部位於倫敦的獨立分析師和顧問公司 Omdia 負責人工智慧平台、分析和資料管理的分析長 Bradley Shimmin 表示:「資料仍然很重要。」然而,根據 IBM 的調查顯示,「資料複雜性」是僅次於「缺乏專業知識」的第二大人工智慧應用障礙。而 cnvrg.io 的調查則表明,對於希望生產大型語言模型的公司來說,「基礎架構」是最大的挑戰。
另一個挫折是企業因為「資料管理能力不足」而無法跟上業務需求。此外,還有一個更為重要的問題是,大多數的組織「缺乏明確的計畫」,麥肯錫公司的合夥人 Nayur Khan 說道:「許多公司只是隨意嘗試一些方法希望能找到有效的解決方案。」但是,隨著生成式人工智慧模型以服務的形式提供,例如 OpenAI 的應用程式介面(API),在有些使用案例中,公司可以直接將人工智慧作為服務部署,而不需要經歷複雜的建構過程。
[ 推薦閱讀:生成式 AI 應用在軟體開發領域 ]
Khan 指出:「現在人們可以將人工智慧視為一種可呼叫的服務,而不必擔心訓練問題。可是,語言模型適合處理語言相關的任務,但對於知識相關的任務,並不是最好的。」他認為:「組織內部才是知識的真正所在。」
例如,一家零售公司可能擁有對顧客的全方位了解,所有這些資訊都被輸入到分析引擎、機器學習和其他傳統人工智慧中,以計算下一步的最佳行動。然後,生成式人工智慧可以用來向這些顧客傳遞個性化訊息。因此,透過使用公司的資料,一個通用的語言模型就變成了一個實用的商業工具。每個人都在嘗試建立這類型的應用程式。
Khan 說道:「我在所有行業都看到這種情況,從高科技和銀行業一直到農業和保險業。」他補充說,這迫使公司在數位領域加快步伐,並解決所有他們曾說過但從未真正著手實施的事情。
公司不僅需要確保所有基礎架構都齊全,以便進行分析和機器學習營運的建構,而且還需要專門為生成式人工智慧建立新的資料結構和管道。
當一家公司想要對一個模型進行微調,或者在特定主題領域創建一個新的模型時,就需要考慮資料架構,以及要採用哪種模型或模型類型做出關鍵選擇等等。「這很快就會增加複雜性,」全球數位顧問公司 Publicis Sapient 的執行副總裁 Sheldon Monteiro 說。
即使是一個相對簡單的專案,比如將外部資料來源新增到現有的生成式人工智慧模型中,也需要使用向量資料庫、適當的模型選擇,以及工業級的資料處理管道。
[ 加入 CIO Taiwan 官方 LINE 與 Facebook ,與全球 CIO 同步獲取精華見解 ]
所有的事情都始於資料,而資料是許多公司落後的一個領域。如果沒有一個統一且全面的策略,每個部門都會建立各自的解決方案。
Monteiro 解釋著:「如果你不採取統一的方法,而是讓各個部門各自行動,最終你會犯更多錯誤,而且一次又一次地重新學習相同的事情。身為一名資訊長,你應該採取一種整體性的架構方法,並投資於一個共同的平台。」
然後是收集和準備資料的艱苦工作。他指出,進行品質檢查和驗證對於建立堅實的資料基礎是非常重要的,因為這樣可以避免引入偏見,而不損害客戶和業務的利益。
如果一個特定的資料集排除了最有價值的交易,因為這些交易都是手動處理的,那麼最終建立的模型可能會對較小、利潤較低的業務領域存在偏見。「垃圾進,垃圾出」這個說法適用於生成式人工智慧的新時代,就像以往經歷的時期一樣。
Monteiro 表示,對於已經在資料基礎架構上進行了投資的公司來說,這些投資將持續在未來帶來回報。他說道:「那些已經在資料基礎架構上進行投資的公司,在使用生成式人工智慧方面已經處於極大的領先地位。」
然而,這些最初專為進階分析和機器學習使用案例而設計的傳統資料基礎也只能解決部分問題,並不能滿足所有需求。
Omdia 的 Shimmin 提醒說:「如果你想要超越基礎知識,就需要了解生成式人工智慧的一些更深層的微妙之處。不同的嵌入式模型有什麼不同之處?什麼是分塊(chunking)?什麼是重疊(overlap)?有哪些不同的方法可以最有效地對資料進行標記化(tokenize)?你想要高維度還是低維度(dimensionality)來節省向量資料庫的空間?我們現有的機器學習營運(MLOps)工具並不是為了做這些而建立的。這一切都非常複雜,如果你不知道自己在做什麼,就有可能浪費很多時間和金錢。」
但他也說道,機器學習營運平台供應商正在加緊步伐。「像 Dataku、DataRobot 和 Databricks 這樣的公司都重新調整了他們的產品,以支援 LLMOps 或 GenAIOps。所有這些小組件都開始逐漸就位了。」
Q. 不同嵌入式模型之間有什麼不同?
A. 嵌入式模型是將高維度數據轉換為低維度向量的技術,用於表示詞彙或特徵。不同的嵌入模型可以透過不同的算法和設計來建構,具有不同的特性和效能。
Q. 什麼是切塊?
A. 切塊(chunking)是自然語言處理中的一個步驟,將句子或文本按照組特定的片段或切塊。這可以幫助提取文本中的資訊,進行更有效的處理和分析。
Q. 什麼是重疊?
A. 重疊(overlap)指的是在進行切塊或分段時,在不同的文本或日期的區塊之間存在交集或重疊部分。這在處理文本時可能會影響資訊提取和解析的準確性。
Q. 在數據標記型的最有效方法中,有哪些不同的方法論?
A. 數據標記型是將文本或數據轉換為機器可讀形式的過程。在進行標記時,可以使用不同的方法和技術,如字元級別、詞級別、多層次標記等來實現最有效的標示方法。
Q. 在向量數據庫中,你想要高維度還是低維度以節省空間?
A. 向量數據庫的維度性能關係到儲存和計算效率。通常,高維度可以捕捉更多的資訊,但會增加運算成本,而低維度可能會導致資訊丟失。在需要平衡資訊保存和效率之間時,通常需要根據具體應用場景來選擇合適的維度。
分析人工智慧抽象層
去年 11月,OpenAI,企業生成式人工智慧的首選平台,意外地解雇了其執行長 Sam Altman,引發了一場馬戲團般的尋找新執行長的爭奪戰,員工威脅要離職,而 Microsoft 則表示願意接納所有的人。在那些動盪的日子裡,許多使用 OpenAI 模型的公司突然意識到,他們把所有的雞蛋都放在了一個不穩定的籃子裡。
Constellation Research 的副總裁兼分析長 Dion Hinchcliffe 表示:「我們看到了很多 OpenAI 的整合。但是 OpenAI 發生的整個管理問題讓人們對他們的過度承諾產生了質疑。」
即使一家公司沒有倒閉,也可能很快會被淘汰。去年夏初,ChatGPT 幾乎是唯一的玩家。隨後,Facebook 推出了讓大多數企業客戶免費使用的 Llama 2,緊接著 Anthropic 又發布了 Claude 2,它的上下文視窗可容納 20 萬個標記,足夠讓用戶將相當於 600 頁書的內容剪貼到提示中,使 GPT-4 的 32,000 個標記相形見絀。不過,谷歌也不甘示弱,在二月份宣布其最新的 Gemini 1.5 模型可以處理高達 1000 萬個標記。有了新模型的出現,再加上影片、音效和文字副本在速度、效率和準確性方面的提升,幾乎就沒有任何限制。
免費且開源的模型數量不斷增加,同時還有一些針對特定行業的模型,例如在金融、醫學或材料科學等領域進行了預先訓練模型。
[ 推薦閱讀:制定生成式AI使用政策的六大要點 ]
「看來每週都有新的公告,」Publicis Sapient 的 Monteiro 說道。
他指出,這就是「model garden」的作用所在。如果公司能嚴格選擇和管理自己的模型,並且建立自己的系統,使模型可以方便地互換,如此就能應對這個領域的不穩定性。
這個人工智慧抽象層不僅僅需要讓公司能夠升級模型或挑選每個特定使用案例中最好的模型,還需要完成更多的功能。
Wipro Technologies 的科技與諮詢公司的技術長 Subha Tatavarti 表示,它還可以用於可觀察性、計量和根據角色的存取控制。
她說道,擁有 245,000 名員工的 Wipro 公司別無選擇,只能採用生成式人工智慧,因為客戶期望如此。
她解釋著:「我們從根本上就是一家科技公司,因此必須採取相應的行動或措施。」
從多個視角拓寬視野
可觀察性(Observability)讓一家公司能清楚地了解資料的流向、追蹤使用了哪些模型和提示,以及允許公司測量回應返回所需的時間長度。最後,可觀察性還可能包括一個機制,用來編輯或模糊敏感資料,以保護用戶隱私和資料安全。
一旦公司了解了其模型的使用情況,就可以實施計量控制,例如對特定模型的使用量進行限制,以避免因模型使用過多而導致成本意外飆升。
Tatavarti 指出:「目前計量作業的方式是根據標記的消耗量來計費,而這可能會讓成本變得非常高昂。」
對於常見問題(FAQs),公司可以將回應暫存起來,以節省處理這些問題所需的時間和金錢。此外,在某些情況下,可能不需要使用昂貴的高階商業大型語言模型,因為使用本地部署的開源模型可能已經足夠滿足需求。
在設置存取控制時,應該遵循一個基本原則,就是不要直接將原生應用程式介面暴露給組織內的使用者,而是應該「建立一個中間層來處理權限檢查以及其他的安全和管理任務」。
IT 顧問公司 Xebia 的數位長 Rajat Gupta 說道:「假如一個人力資源平台利用生成式人工智慧來回答根據政策和其他資訊的問題,一位員工可以提問有關自己薪資的問題,但他們不應該能夠詢問其他員工的薪資問題,除非他們自己是經理或在人力資源部門工作。」
考慮到生成式人工智慧在各種不同的業務單位和功能中的快速普及,要為每個使用情況從頭開始建立這些控制措施將是一場噩夢。
他認為:「這項工作量將會非常龐大,會造成一片混亂。」
Gupta 也認為需要建立這種功能的企業應該一次性完成,然後再重複使用。他表示:「將所有共同需要的功能,如安全性、監控、存取控制等,作為企業級平台的一部分來建構。」
他稱之為「人工智慧閘道」(AI gateway),其中開源的「MLflow」人工智慧閘道就是一個例子。該專案於去年五月發布,但已經被 MLflow 部署服務所取代。他的公司還使用了 Arthur AI 的 Arthur Shield,這是一個針對大型語言模型的防火牆。它可以過濾提示注入攻擊、粗話以及其他惡意或危險的提示。
還有 Ragas,它可以幫助將生成式人工智慧的回應與向量資料庫中的實際資訊進行比對,以提高準確性並減少幻覺。
他說道:「在開源和商業領域中都有許多類似的專案。」
第三方人工智慧平台、新創企業和顧問公司也紛紛加入,以填補空白。
Gupta表示:「人工智慧生態系統的演變令人驚訝。我們原以為發展速度會放緩,但實際情況並非如此,它正在迅速增長。」
他提到,為了更快地進入市場,Xebia 正在將這些不同的專案整合在一起。然而,人工智慧公司不斷地推出新產品,例如自主式人工智慧驅動的代理程式,這對於加快市場速度並不是一件有利的事情。
他問道:「如果你正在使用自主代理程式,你該如何確實地衡量整個代理程式的效能呢?這對於實際監測和控制來說是一個挑戰。」
如今,Xebia 限制了代理程式的自主性,僅允許其執行非常有限且精確的任務。他補充說:「這是目前唯一的方法。限制代理程式能夠存取的技能,並設置一個中央控制器,這樣它們就不會互相交流。我們控制它,直到我們有更進一步的了解和反饋迴圈。這是一個相當新的領域,所以看到這如何發展是很有趣的。」
設立指導性原則、限制或保護措施
根據 cnvrg.io 的調查,對於在考慮實施生成式人工智慧的公司來說,合規性和隱私是最重要的考慮因素,比起可靠性、成本和技術技能缺乏等方面更加重要。
在 IBM 的調查中發現,對於未實施生成式人工智慧的公司來說,有 57% 的受訪者認為資料隱私是主要障礙,而 43% 的受訪者則認為透明度是主要問題。此外,有 85% 的受訪者表示,消費者會更傾向於選擇那些人工智慧能實踐透明和且符合道德規範的公司,但只有不到一半的公司正在努力減少偏見、追蹤資料來源、致力於使人工智慧具有可解釋性,或制定符合道德規範的人工智慧政策。
對技術人員來說,專注於技術解決方案是比較容易的。道德人工智慧超越了技術範疇,還涉及法律和合規性觀點,以及企業價值觀和身份議題。因此,這是資訊長或人工智慧長可以在這一領域挺身而出,幫助指導大型企業。
而且,這甚至還不止於此。建立適合生成式人工智慧的資料基礎架構、安全和管理控制,以及倫理指導準則,可能是實現大型語言模型全面運作的第一步。
[ 推薦閱讀:在生成式 AI 供應商選擇過程中權衡風險與報酬 ]
EY Americas 新興科技負責人 Matt Barrington 認為,生成式人工智慧的出現將促使企業的資訊長重新審視技術。在使用生成式人工智慧之前,軟體通常是具有確定性的。
他解釋著說:「在過去,軟體開發通常是一個確定性的過程,開發人員會設計、建構、測試和反覆迭代,直到軟體表現符合預期為止。如果不符合預期,那就是一個錯誤,你就得回去修正。如果符合預期,就可以部署到生產環境中。」無論是哪種軟體模式,所有大型運算堆疊都具有確定性。然而,現在除了量子運算以外,生成式人工智慧是第一個廣泛知曉的非確定性軟體模式。他說:「生成式人工智慧可以自主地生成新的內容,而這正是其主要的賣點,而不是一個錯誤。」
但這並不意味著舊有的方法都應該被摒棄。他認為,MLOps 和 PyTorch 仍然非常重要。此外,同樣重要的還有要了解何時應該使用 RAG 嵌入模型、DAG 或多模態模型,以及準備資料供生成式人工智慧使用。
他表示:「傳統的技術堆疊和工具仍然非常重要,並且仍將被廣泛使用。然而,隨著生成式人工智慧的出現,將會有一個新的非確定性平台堆疊出現,而且這個平台將與傳統的技術堆疊並存。這將帶來全新的基礎架構工程和營運領域,以支持這些新技術和功能。」
他強調,這將會改變企業在核心層面上的營運方式。而朝著這個方向發展,成為一個真正由人工智慧驅動的企業,將會是一個快節奏的轉變。他說:「親眼目睹著這種發展是非常令人振奮的。」
- MLOps:MLOps是機器學習營運的縮寫,是一種將機器學習模型研究、開發和部署整合在一起的實踐方法。MLOps旨在將軟體開發的最佳實踐應用到機器學習模型的建立和部署過程中,以提高效率和可靠性。
- PyTorch:一個開源的機器學習庫,提供強大的工具和資源來開發深度學習模型。PyTorch廣泛應用於研究和產業領域,因其靈活性和易用性而受到廣泛歡迎。
- RAG embedding model:在自然語言處理中,RAG 嵌入模型是「Retrieval-Augmented Generation Embedding Model」的縮寫,結合了資訊檢索和自然語言生成技術,用於生成具有上下文準確性的自然語言生成。
- DAG:有向無環圖(Directed Acyclic Graph)的縮寫,這種數學結構在機器學習和計算科學中很常見。在機器學習中,DAG 通常用於表示和管理模型中的遞迴、依賴和流程。
- Multi-modal:多模式(multi-modal)是指在機器學習中同時使用多種類型的數據進行分析和建模的方法。多模式模型可以處理圖像、文本、語音等不同模式的輸入數據,以提高模型的性能和效率。
(本文授權非營利轉載,請註明出處:CIO Taiwan)