外國企業使用 AI 技術,同時還關注安全和信任的問題。西方國家正在推動設立守則、規則等,讓業界安全地使用 AI。SAS 將在 AI 平台 Viya 內推出模型咭(Model Card),由模型數據自動建立標籤,以識別 AI 模型的「成份」。SAS 又推出 AI 管治顧問服務和可任 AI 生命周期工作流程,幫助企業客戶引入美國國家暨技術研究院(NIST)所定的 AI 風險管理框架。
SAS 數據倫理副總裁 Reggie Townsend 指出,有企業擔憂 AI 的安全風險,導致未敢使用。無論是 AI 或生成式 AI,已證明在業務流程中有效發揮作用。所有創新技術有正面效益,但同時都帶來風險,如電力推動各設備而又造成電擊,汽車載人載貨,卻會引起交通意外。「已經廣泛使用的產品,不能一刀切禁止,而又不提供代替方案。只要認清技術的本質,用行業標準規管,能讓企業放心使用 AI。」
SAS 將在今年稍後推出模型咭,通過自動標籤數據內容成份,以及開發人員標示模型的用途,給企業用戶透視 AI 模型。Townsend 表示,模型咭有如食物的營養標籤,將內容成份逐一標示,包括準確度、公平度和模型飄移(model drift)等指標。尤其當模型經使用日久或有機會出現飄移現象,透過從監察數據反映的指標能揭示情況,及時制止不正常表現。
模型咭還設有使用說明和管治資訊,部分由開發人員為模型加上附註,如模型的功能、預期用途、能力限制等,也有稽查內容,包括最後修改時間、誰人修改、誰是負責人等。Townsend 指出,模型咭設有儀錶板介面讓各相關人士有清晰的資訊,如管理層一看便知模型的關鍵訊息,開發人員亦能夠從中得知問題所在加以跟進。「這功能亦會支援開源模型,先由 Viya 上可用的 Python 模型開始。」
美國商務部在 2020 年成立國家人工智能顧問委員會(NAIAC),Townsend 是成員之一,為國家的 AI 發展出謀獻計。商務部旗下的 NIST 去年根據 NAIAC 的建議,發表 AI 風險管理框架(AI Risk Management Framework,AI RMF)。SAS 按此推出可信任 AI 生命周期工作流程,協助企業將 AI RMF 引入開發和管理業務流程,包括指明每個參與者的功能、工作期望、收集文件、羅列考慮因素。最終製成生產環境運作的模型,連同說明文件顯示企業盡職確保模型屬公平、使用時不會造成傷害。
這套工作流程還會記錄企業考慮 AI 系統對社會的影響過程,如有步驟確保訓練數據足夠廣泛代表不同受眾,亦可建立人機互動(human-in-the-loop)機制,檢視 AI 模型的準確度,在必要時作出更正。
SAS 還設立 AI 管治顧問服務(AI Governance Advisory),為企業客戶的增值服務,按其需求提供建議,為數據和 AI 模型找出可信和負責任的使用模式。
Townsend 指出,各界正在為 AI 安全和任信採取行動,在使用技術的同時,盡快有效管理所帶來的風險。至於是否需要加強監管,他則認為按最佳實踐守則或是目前可行的出路。NIST 的 AI 風險管理框架正是建議守則,各行業按此發展出相應的準則,如金融服務業需要更嚴謹的措施規管使用 AI,而製造業亦有其他的要求,但絕不能一刀切定下法規或標準,以免阻礙 AI 技術及相關管治的發展。