OpenAI發布安全指南:董事會有權阻止CEO發布新模型

Odaily星球日報訊據官方消息,OpenAI在官方網站發布了一份名為“準備框架(Preparedness Framework)”的安全指南,規定了“跟踪、評估、預測和防範日益強大的模型帶來的災難性風險的流程」。 OpenAI解釋說,對前沿人工智慧風險的研究,遠遠沒有達到需求。為了解決這一差距並使安全思維系統化,OpenAI正在採用「準備框架」的測試版本。 OpenAI在新聞稿中宣布,「準備(Preparedness)團隊」將致力於確保前沿人工智慧模型的安全。 「準備團隊」將持續評估人工智慧系統,以了解其在四個不同風險類別中的表現,包括潛在的網路安全問題、化學威脅、核威脅和生物威脅,並努力減少該技術可能造成的任何危害。具體來看,OpenAI正在監控所謂的「災難性」風險,它在這份指南中被定義為「可能導致數千億美元經濟損失或導致許多人嚴重受傷甚至死亡的任何風險」。值得注意的是,根據安全指南,領導層可以根據這些報告決定是否發布新的人工智慧模型,但董事會有權推翻其決定。

Total
0
Shares
Related Posts