Generative AI的風險管理——NIST最新草案

2024 年 4 月 29 日,NIST 發佈生成式人工智慧概況 (Artificial Intelligence Risk   Management Framework: Generative Artificial Intelligence, AI RMF)的草案《NIST AI 600-1》,説明管理生成式 AI 的風險,以作為 NIST人工智慧風險管理框架的配套資源。該文件列出了生成式AI的十二個風險領域,並建議了各種風險緩解步驟:

  1.  CBRN 資訊(CBRN Information):有關化學、生物、放射性或核武(chemical, biological, radiological, or nuclear, CBRN)武器的資訊的可用性增加
  2. 虛構(Confabulation):人工智慧系統產生虛假訊息,通常稱為“幻覺”
  3. 暴力建議(Dangerous or Violent Recommendations):人工智慧系統可能會產生煽動或美化暴力的輸出
  4. 資料隱私(Data Privacy):生成式人工智慧可能洩漏、產生或推斷個人的個人資訊
  5. 環境(Environmental):生成式人工智慧的訓練、維護和部署會消耗環境資源並產生大量碳排放
  6. 人機-人工智慧配置(Human-AI Configuration):人工智慧系統的錯誤配置可能會導致系統無法如預期運作
  7. 資訊完整性(Information Integrity):生成式人工智慧可以產生能夠欺騙人們或造成傷害的假訊息
  8. 資訊安全(Information Security):可透過例如提示注入(prompt injection)等技術,以使用生成式人工智慧來利用網路系統中的漏洞
  9. 智慧財產權(Intellectual Property):生成式人工智慧可能侵犯智慧財產權
  10. 淫穢、侮辱性和/或辱罵性內容(Obscene, Degrading, and/or Abusive Content):生成式人工智慧可以促進淫穢內容的製作,包括在此類內容所描繪的個人不知情或未經許可的情況下
  11. 毒性、偏見和同質化(Toxicity, Bias, and Homogenization):人工智慧系統接觸有毒或有偏見的材料可能會導致“表現損害”(representational harms)
  12. 價值鍊和組件整合( Value Chain and Component Integration):參與開發生成式人工智慧系統的第三方組件(例如資料集、預訓練模型)可能尚未適當取得或審查。

資料來源:AI Risk Management Framework | NIST



留言

熱門文章