OpenAI 介紹保障AI 模型安全性的部署:發布新版本進行嚴格測試,構建安全和監控系統

ChainCatcher 消息,ChatGPT 開發公司OpenAI 在其官網中發布了題為《Our approach to AI safety》(《我們保障AI 安全的方法》)的文章,介紹了該公司確保AI 模型安全性的部署。文章稱,AI 工具為當今人類提供了許多好處。 OpenAI 同樣意識到,與任何技術一樣,這些工具帶來了實際風險,因此該公司正努力確保在系統的各個層面都建立安全保障。在發布任何新系統之前,OpenAI會進行嚴格的測試,聘請外部專家提供反饋,通過人工反饋強化學習等技術改進模型的行為,並構建廣泛的安全和監控系統。此外,OpenAI 認為,強大的人工智能係統應該接受嚴格的安全評估。需要監管以確保採用此類做法,我們積極與政府合作,以製定此類監管的最佳形式。同時,社會必須有時間來適應並調整以適應越來越強大的AI,OpenAI 也將以保護兒童、尊重隱私、提高事實準確性作為ChatGPT 安全工作的重點,並花費更多的時間和資源研究有效的緩解措施和技術,並針對現實世界的多樣用例進行測試。 (來源鏈接)

Total
0
Shares
Related Posts