美國加州大學伯克利分校計算機科學教授斯圖爾特・羅素(Stuart Russell)談到瞭如何防止AI“反客為主”的問題。在他看來,AI 需要構建成以人類利益為核心動機結構的形式,“事實上,我們感興趣的不是具有智能的機器,而是對我們有益的機器。”他注意到,AI 的“黑箱”模型並不透明,人們並不理解其內部運作方式。他舉例說,在今年早些時候曾出現過“令人毛骨悚然的微軟Bing 聊天機器人敦促科技專欄作家離婚”的新聞,“至少表明上來看,AI 可能主動追求某種目標。”因此羅素認為,人們應該利用“可以理解的組件”構建AI 系統,並確保不會部署和運行不安全的AI 系統。 “人工智能對社會的潛力是巨大的,為進一步發展創造了不可阻擋的動力。但如果我們繼續按照我們過去的方向發展,我認為我們可能會失去控制……AI 要像航空和核能一樣,擁有嚴格且不可繞過的安全標準,並且需要通過國際合作確保安全標準得到遵守。”