美國國家標準與技術研究院成立人工智慧安全研究所強化未來AI應用安全
主筆者:江怡慧
美國商務部(Department of Commerce, DOC)於2024年2月28日宣布成立AI安全研究所聯盟(AI Safety Institute Consortium, AISIC),該聯盟與AI產業公司、AI學術團體、政府及民間組織共同研發及部署,以落實美國人工智慧行政命令(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,下稱AI行政命令)之要求,建立AI安全指導方針(Guideline)以及最佳實踐方法。
為了創造資訊安全、可靠以及值得信賴之人工智慧(Artificial Intelligence, AI),美國總統拜登(Joe Biden)於2023年10月30日簽署AI行政命令,根據AI行政命令第4節第4.1款要求,商務部長應於發佈後270日內透過國家標準與技術研究院(National Institute of Standards and Technology, NIST)與能源部部長、國土安全部部長及相關機構共同協調並訂定安全指南、標準及實施內容,目標能使產業標準達成共識。爰此,NIST成立美國AI安全研究所(U.S. AI Safety Institute, USAISI),並結合超過200家企業和組織共同組成AI安全研究所聯盟(AI Safety Institute Consortium, AISIC)。
NIST將AISIC分成5個主題工作小組,以確保小組能有效地開發出兼具安全及值得信賴之AI相關指引。目前初步分組工作內容如下:
一、生成式AI風險管理(Risk Management for Generative AI)
該小組旨在為AI風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF 1.0)應用於生成式AI,研議相關配套資源(Companion Resource),以利框架實施、並制定適合聯邦機構的風險管理指南(Risk Management Guidance)。AI RMF主要功能在分析AI風險及可信度,該框架核心(Core)在於治理(Govern)、認知與識別(Map)、量測(Measure)、管理(Manage)4項功能,協助組織在實施過程中,解決所遭遇之AI風險。
二、合成內容工作組(Synthetic Content)
根據現有的標準、工具、方法及實務應用等,以科學技術驗證合成內容,並追蹤其來源。例如:使用浮水印(Watermarking)標記合成內容、使用測試軟體檢測合成內容,以及審核合成內容,防止生成式AI生成假訊息或圖像。
三、能力評估(Capability Evaluations)
該小組旨在制定AI能力評估及審核的標準指南,並聚焦在特定領域的AI應用,例如:化學、生物、放射及核子(CBRN)、網路安全(Cybersecurity)、自主複製(Autonomous replication)、實體系統控制(Control of Physical Systems)等領域。
四、紅隊(Red-Teaming)
「紅隊」意指在可控環境範圍內,與開發者合作,測試人工智慧系統中之缺陷與漏洞,並執行修復作業。該小組旨在制定適當的AI使用指南、程序及流程,使AI開發人員(特別是軍民雙用基礎模型(Dual-use Foundation Model))能進行紅隊測試,以實現安全、可靠以及值得信賴之系統應用。
五、安全及保障(Safety & Security)
該小組旨在協調及制定關於如何管理軍民雙用基礎模型的安全指南。「軍民雙用基礎模型」係指運用廣泛數據訓練出來AI模型,採用自我監督(Self-supervision)系統,該模型應用於國安、公共安全有關的高風險領域。
AISIC各工作小組的分工回應了AI行政命令第4.1款第(a)項的指示,包括:為生成式AI開發AI RMF 1.0的配套資源、實踐軍民雙用基礎模型的安全研發、制定評估AI能力的指南及基準,並專注於高風險領域的AI應用、制定軍民雙用基礎模型的安全指南,以及開發可用的AI技術測試環境。目前已有200多家私人企業、政府組織及學術團體加入AISIC,其中包含Google、微軟(Microsoft)、蘋果電腦(Apple)、臉書總公司(Meta)以及亞馬遜(Amazon)等知名企業,透過匯集各界AI技術之創新及研發成果,期盼未來能為全球AI安全奠定基礎,讓使用者了解其限制及規範,提升AI資訊可靠性及可信度、降低個資外洩之風險,讓AI帶著世界走向全新領域。
相關連結
- NIST, AISIC Members,: https://www.nist.gov/artificial-intelligence/artificial-intelligence-safety-institute/aisic-members
- NIST, AISIC Working Groups,: https://www.nist.gov/artificial-intelligence/artificial-intelligence-safety-institute/aisic-working-groups
- NIST, Artificial Intelligence Risk Management Framework (AI RMF 1.0),: https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf
- NIST, Biden-Harris Administration Announces First-Ever Consortium Dedicated to AI Safety, Feb. 8, 2024,: https://www.nist.gov/news-events/news/2024/02/biden-harris-administration-announces-first-ever-consortium-dedicated-ai.
- NIST, U.S. ARTIFICIAL INTELLIGENCE SAFETY INSTITUTE,: https://www.nist.gov/artificial-intelligence/artificial-intelligence-safety-institute
- Telecompaper, US govt creates public-private consortium tasked with creating AI safety guidelines, Feb. 9, 2024,: https://www.telecompaper.com/news/us-govt-creates-public-private-consortium-tasked-with-creating-ai-safety-guidelines--1490774.
- The White House, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, Oct. 30, 2023,: https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.