OpenAI 發布新規則:董事會有權阻止發布AI 模型

AI 新智界訊,當地時間12 月18 日,OpenAI 發布名為「準備框架」(Preparedness Framework)的新規則,旨在確保前沿人工智慧模型的安全。據悉,OpenAI 將對所有前沿模型進行評估並不斷更新其「記分卡」。此外,OpenAI 還將定義觸發基準安全措施的風險閾值,其規定了四個安全風險等級,只有緩解後得分在「中」或以下的模型才能部署;只有緩解後得分在「高」或以下的模型才能進一步開發。另外,OpenAI 還將針對高風險或臨界(緩解前)風險等級的模型實施額外的安全措施。值得注意的是,OpenAI 表示,“我們正在建立一個跨職能的安全諮詢小組,審查所有報告,並將報告同時提交領導層和董事會。雖然領導層是決策者,但董事會擁有逆轉決策的權利。”目前,該框架仍處於初始Beta 版本。

Total
0
Shares
Related Posts