生成式人工智慧的安全是整個產業關注的重點,NVIDIA 設計了 NeMo Guardrails 可適用於所有大型語言模型一起使用,像是 Open AI 的 ChatGPT。NeMo Guardrails將有助於確保由大型語言模型(LLMs)所驅動的智慧應用程式能夠準確、適當、切題且安全。該軟體包括企業需要的所有代碼、範例和文檔,為企業用於產生文字的AI應用程式增加安全性。NeMo Guardrails 旨在協助使用者保護這個新類型人工智慧應用程式的安全。
現今很多產業都在採用大型語言模型(LLMs),它是這些AI 應用程式背後的引擎。他們回答客戶的問題,總結冗長的文件,甚至編寫軟體和加速藥物設計。該軟體可讓開發人員校準以大型語言模型驅動的應用程式,使其安全並維持在一個公司專業領域範圍內。
NeMo Guardrails 可以讓開發人員建立三種限制:
- 主題安全護欄可以避免應用程式偏離到不想要的領域。例如,它們可以防止客戶服務助理回答關於天氣的問題。
- 安全護欄確保應用程式回覆準確、適當的資訊。它們可以過濾不必要的語言,並強制要求只引用可信的來源。
- 保全護欄限制應用程式僅與已知為安全的外部連結建立連接。
即使不是機器學習專家或資料科學家,幾乎每個軟體開發人員都可以使用NeMo Guardrails,以幾行程式碼快速建立新規則。
由於 NeMo Guardrails 是開放原始碼的,因此它可以與企業應用程式開發人員使用的所有工具配合使用。例如,它可以在LangChain上運行,LangChain是一個開放原始碼工具包,開發人員正在快速採用它,將第三方應用程式與大型語言模型的功能整合。此外,NeMo Guardrails是設計能夠廣泛的與以大型語言模型驅動的應用程式協作,像是Zapier。Zapier這個自動化平台已有超過 220 萬家企業使用,可直接展現用戶如何將人工智慧融入到他們的工作中。
NVIDIA正在將NeMo Guardrails整合至NVIDIA NeMo框架中,該框架包括使用者使用公司專有資料集進行語言模型訓練和調整所需的一切。NeMo Framework已經在GitHub上以開源形式提供。企業也可以透過NVIDIA AI Enterprise取得完整的企業支援服務。
NeMo也是以服務的方式提供,它是NVIDIA AI Foundations的一部分,它是一系列供企業使用的雲端服務,可以基於自己的數據集和領域知識來創建和運行定制的生成式人工智慧模型。
為生成式AI建立良好的護欄是一個艱難的問題,隨著AI的演化,需要大量持續不斷的研究。NVIDIA經過多年研究發展出NeMo Guardrails,並將其開源,對開發者社群的開發能量和在AI安全方面的工作做出貢獻。在建立生成式AI護欄上的共同努力將能協助公司將其智慧服務符合安全、隱私和保障要求的一致要求,從而使這些創新引擎保持在正軌上。