最新消息

+
:::

最新消息

:::
首頁最新消息國內外產業通傳快訊
回上頁 列印

美國加州通過《尖端人工智慧模型安全與創新法》草案,為尖端AI模型建立嚴格的安全標準

刊登日期: 資料來源: 財團法人電信技術中心 新聞聯絡人:
分享: FB

主筆者:張允亭

美國加州於今(2024)年8月28日通過《尖端人工智慧模型安全與創新法》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act,編號SB-1047)草案(下稱加州人工智慧模型法草案),以因應尖端人工智慧技術,例如生成式人工智慧(Generative artificial intelligence)對於社會造成之潛在風險、威脅或負面影響,同時促進人工智慧技術發展於促進創新與防範風險間取得平衡。由於加州聚集美國眾多的新創產業,故加州的立法對於美國先進人工智慧技術之監管將產生重要影響。

近年來,隨著人工智慧技術的快速發展,各類型AI技術開發與使用引發各種隱憂,人工智慧之監管逐漸成為各國關切之重要議題。為因應AI技術發展與創新應用可能造成之風險,加州民主黨參議員斯科特·維納(Scott Wiener)提出人工智慧模型法草案,旨在為大型尖端人工智慧系統之開發,建立安全標準之規範,並透過安全與風險管理,降低AI技術對於社會造成損害,以促進人工智慧模型安全與創新應用的健全發展。

加州人工智慧模型法草案之立法目的係為大型、先進人工智慧模型建立嚴格的安全標準,以促進安全、可靠的開放原始碼AI模型之開發與創新應用,透過嚴格規範大型AI模型之系統開發安全性,避免AI技術被濫用或作為不當用途,包括用於網路攻擊、製作生物武器等,進而對社會或公共安全造成負面影響或威脅。

為因應大型、先進人工智慧模型與技術衍生問題或風險,並於監管與創新間取得平衡,加州人工智慧模型法草案首先明確定義規範之人工智慧範疇,並制定對於大型、先進AI模型於系統開發安全標準之各項要求,以及促進AI模型開發之舉措,重點內容說明如下:

  • 界定監管之人工智慧範疇:將「人工智慧模型」定義為基於機器的系統,可做出影響真實或虛擬環境的預測、建議或決策,並可制訂資訊或行動的選項,且該人工智慧模型以1026次整數或浮點運算能力進行訓練、訓練成本為1億美元以上;對於1025次整數或具浮點運算三倍以上能力之模型進行微調而建置之人工智慧模型均須受到監管。
  • 對於模型開發者之要求:開發者必須測試風險,並針對評估為有風險之模型採取預防措施。
  • 安全評估要求:開發者需於訓練「人工智慧模型」前評估安全性,確保模型安全且不會對公共安全構成風險,包括必須完成安全評估,確保該模型不具備造成某些危害之能力,例如必須評估該模型是否具備可製造導致大規模人員傷亡之化學或生物武器之能力,或對於關鍵基礎設施進行網路攻擊,造成超過5 億美元的損失。
  • 第三方模型測試:AI模型之開發人員需完成書面的安全協議,並透過第三方進行模型測試,確保模型開發之安全性。
  • 合規與認證:開發商必須遵守SB 1047之法律要求,以及簽署認證文件,確保遵守法案規範之要求,並且模型亦符合各項規定。
  • 緊急關閉(Kill switch)之功能:要求AI模型開發者必須針對模型建置「緊急關閉」(Kill switch)之功能,俾利於緊急情況下能確保人工智慧模型完全停止運作。
  • 安全事件報告:開發人員必須於「人工智慧安全事件」發生後 72 小時內通報加州尖端人工智慧模型技術部門。
  • 吹哨者的法律保護:設立對於企業內部之吹哨者的法律保護,以確保員工可舉報不遵守法案之行為,且不必擔心遭到報復。
  • 成立聯盟,制訂CalCompute框架,促進安全、道德、公平與永續之人工智慧開發與應用:透過建立一個 CalCompute 框架,進行AI和創業生態系統之學術研究。

美國加州提出之尖端人工智慧模型安全與創新法草案,加強大型人工智慧模型開發監管之程度,要求開發者遵守更嚴格安全標準,並透過建立安全評估機制,評估及控管AI技術之安全性,降低AI技術於開發及應用過程中產生風險,同時兼顧人工智慧技術創新服務應用發展以及社會與公共安全,對於未來大型、先進AI模型之發展產生重要影響。

有鑑於加州為全球重要新創產業重鎮,法案內容仍需再斟酌且部分內容尚有待討論,因此加州州長紐松(Gavin Newsom)已於9月30日否決此項法案。儘管如此,法案中所評估考量之重點,仍可作為未來審慎因應人工智慧發展、訂定必要規範之參考,值得我國持續關注。

資料來源: