亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

新加坡網絡安全局發布《AI系統安全指南》

文/麻策律師

新加坡在人工智能領域的安全治理野望,屬于路人皆知的存在。

繼新加坡在2024年5月30日發布的《生成式人工智能的治理框架》,2024年9月 23日新加坡最高人民法院發布《關于法院用戶使用生成式人工智能工具指南》之后,新加坡又雙叒叕發布和AI安全有關的指南。

2024年10月15日,新加坡網絡安全局 (CSA) 制定并一口氣發布了 《AI 系統安全指南》及其配套指南——《AI 系統安全配套指南》,以幫助系統所有者在 AI 的整個生命周期內保護 AI。這兩個指南將有助于保護 AI 系統免受供應鏈攻擊等傳統網絡安全風險和對抗性機器學習等新風險的影響。

指南可以稱作是網絡協作的典型,本身并不屬于法規規范,而是來自工業界和學術界的實用措施、安全控制和最佳實踐,引用了 MITRE ATLAS 數據庫和 OWASP 機器學習和生成式 AI 的 10 大資源。

新加坡認為,要獲得 AI 的好處,用戶必須確信 AI 將按設計運行,并且結果是安全可靠的。但是,除了安全風險之外,AI 系統還可能容易受到對抗性攻擊,惡意行為者會故意操縱或欺騙 AI 系統。AI 的采用可能會給企業系統帶來或加劇現有的網絡安全風險。這可能會導致數據泄露或數據泄露等風險,或導致有害或不希望的模型結果。

因此,作為一項關鍵原則,AI 應該在設計上是安全的,并且與所有軟件系統一樣,應該是默認安全的。這將使系統所有者能夠管理上游的安全風險。這將補充系統所有者為解決 AI 安全問題而可能采取的其他控制和緩解策略,以及公平性或透明度等其他隨之而來的考慮因素,這些因素在此處未涉及。

誰應當看?

指南認為其面向的對象主要分為三類,一是負責監督??智能系統實施??智能的戰略和運營??的決策人員,即負責制定??智能計劃的愿景和?標、定義產品要求、分配資源、確保合規性以及評估?險和效益的人員,角色包括產品經理、項目經理。

其二,包括負責AI整個生命周期的實際應用開發的從業人員(即設計、開發和實施人工智能模型和解決方案),如人工智能/ML 開發人員、人工智能/ML 工程師、數據科學家。

最后,包括?絡安全從業?員,即負責確保??智能系統的安全性和完整性的人員,包括IT 安全從業人員、網絡安全專家。

從?險評估開始

人工智能系統所有者應考慮從?險評估??,重點關注??智能系統的安全?險,其次,根據?險程度、影響和可?資源,確定應對?險的優先次序,再次確定并實施相關?動,確保??智能系統的安全,最后評估殘余?險,以減輕或接受?險。

1. 規劃設計

要保持全員提高對AI安全風險的認識和能力,例如,LLM 安全事項、常見的人工智能弱點和攻擊。建立合適的跨職能團隊,確保從一開始就將安全、風險和合規性考慮在內。

AI 系統需要大量數據進行訓練;有些還需要導入外部模型和庫。如果保護不充分,AI 系統可能會受到供應鏈攻擊的破壞,或者可能容易受到 AI 模型或底層 IT 基礎設施中的漏洞的入侵或未經授權的訪問。此外,如果云服務、數據中心運營或其他數字基礎設施中斷(例如通過拒絕服務攻擊),組織和用戶可能會失去訪問和使用 AI 工具的能力,這反過來可能會使依賴 AI 工具的系統癱瘓。

2.進行安全風險評估

采用整體流程來模擬系統面臨的威脅。制定/開發操作手冊和人工智能事件處理程序,縮短補救時間,減少不必要步驟的資源浪費。

在實踐中,需要有效區別傳統網絡風險和基于AI的特定風險。保護 AI 系統會帶來傳統 IT 系統中可能不熟悉的新挑戰,除了經典的網絡安全風險外,AI 本身還容易受到新型攻擊,例如對抗性機器學習 (ML),這些攻擊旨在扭曲模型的行為。

AI 與傳統軟件之間的根本區別在于,傳統軟件依賴于靜態規則和顯式編程,而 AI 使用機器學習和神經網絡來自主學習和做出決策,而無需為每項任務提供詳細說明。因此,組織應考慮比傳統系統更頻繁地進行風險評估,即使他們的風險評估方法通?;诂F有的治理和政策。這些評估還可以通過持續監測和強大的反饋循環來補充。

3.生命周期合規

AI有五個關鍵階段 – 規劃和設計、開發、部署、運營和維護以及生命周期結束。與良好的網絡安全實踐一樣,CSA 建議系統所有者采用生命周期方法來考慮安全風險。僅強化 AI 模型不足以確保全面防御 AI 相關威脅。AI 系統整個生命周期中涉及的所有利益相關者都應尋求更好地了解安全威脅及其對 AI 系統預期結果的潛在影響,以及需要做出哪些決策或權衡。

AI 生命周期表示設計 AI 解決方案以滿足業務或運營需求的迭代過程。因此,系統所有者在交付 AI 解決方案時,可能會多次重新審視生命周期中的規劃和設計、開發和部署步驟。

4.確保供應鏈安全?

評估和監控整個系統生命周期的供應鏈安全。應用軟件開發生命周期(SDLC)流程。使用軟件開發工具檢查不安全的編碼實踐??紤]在系統設計中實施零信任原則。在AI供應鏈端,確保數據、模型、編譯器、軟件庫、開發工具和應用程序來自可信來源。使用自動數據發現工具識別各種環境中的敏感數據,包括數據庫、數據湖和云存儲。不受信任的第三方模型是從公共/私有資源庫中獲取的模型,其發布者的來源無法驗證。

5. 訓練數據安全

考慮是否需要使用 PII 或敏感數據來生成模型將引用的矢量數據庫,例如在使用檢索增強生成 (RAG) 時??紤]與使用敏感數據進行模型訓練相關的權衡。企業在決定是否將敏感數據用于模型訓練之前,不妨探索各種風險緩解措施,以確保非公開敏感數據的安全,例如匿名化和隱私增強技術。

6. 外部模型使用

對于 LLMs,提示工程最佳實踐(如使用護欄和在單對加鹽序列標記中包裝指令)可作為進一步鞏固模型的方法。對數據收集、數據存儲、數據處理和數據使用以及代碼和模型安全性進行數據安全控制。

7. 記錄標識

了解人工智能相關資產的價值,包括模型、數據、提示、日志和評估,制定跟蹤、驗證、版本控制和保護資產的流程。建立數據和軟件許可證管理流程。這包括記錄數據、代碼、測試用例和模型,包括任何更改和更改人。對于 PII 等敏感數據,在輸入人工智能之前,應探索各種風險緩解措施,以確保非公開敏感數據的安全,如數據匿名化和隱私增強技術。

8.確保人工智能開發環境的安全

對應用程序接口、模型和數據、日志以及它們所處的環境實施適當的訪問控制。根據最少特權原則,對開發環境進行基于規則和角色的訪問控制。定期審查角色沖突或違反職責分工的情況,并應保留包括補救措施在內的文件。對于已離職的用戶或不再需要訪問權限的員工,應立即取消其訪問權限。實施訪問記錄和監控。

9.建立事件管理程序

確保制定適當的事件響應、升級和補救計劃。制定不同的事件響應計劃,以應對不同類型的故障和可能與 DOS 混合的潛在攻擊情景。實施取證支持,防止證據被刪除。利用威脅獵取確定攻擊的全部范圍并調查歸因。

10.發布人工智能系統

在創建新模型或數據時,計算并共享模型和數據集散列/簽名,并更新相關文檔,如模型卡。在可能的情況下,考慮使用對抗測試集來驗證模型的穩健性。系統負責人和項目團隊跟進安全測試/紅隊的結果,評估發現的漏洞的嚴重性,采取額外措施,如有必要,根據企業風險管理/網絡安全政策,尋求相關實體(如首席信息安全官)的批準,以接受殘余風險。

11.運營和維護

監控人工智能系統輸入,監控和記錄對系統的輸入,如查詢、提示和請求。適當的日志記錄有助于合規、審計、調查和補救。人工智能系統所有者可考慮監控和驗證輸入提示、查詢或應用程序接口請求,以防有人試圖訪問、修改或外泄組織視為機密的信息。如果可能,防止用戶持續高頻率地查詢模型。

聲明:本文來自互聯網法律匠,稿件和圖片版權均歸原作者所有。所涉觀點不代表東方安全立場,轉載目的在于傳遞更多信息。如有侵權,請聯系rhliu@skdlabs.com,我們將及時按原作者或權利人的意愿予以更正。

上一篇:Fortinet SASE綜合得分名列前茅 鑄就網絡安全卓越典范

下一篇:14款被嚴重低估的安全紅隊測試工具推薦