OpenAI 的強大對策——打擊2024 年選舉錯誤訊息


在50 多個國家即將舉行的全國選舉之際,ChatGPT 背後的創新力量OpenAI 採取了積極主動的立場,反對將其人工智慧工具用於傳播選舉錯誤訊息的潛在武器化。在此背景下,各國正在為關鍵的民主進程做好準備,並認識到濫用人工智慧產生的內容所帶來的不斷升級的威脅。總部位於舊金山的OpenAI 概述了一項多方面的策略,以遏制對其強大的生成式人工智慧工具的利用,並承認有責任提供準確的投票資訊、執行嚴格的政策和提高透明度。

OpenAI 打擊選舉錯誤訊息的多方面方法

OpenAI 在最近的一篇部落格文章中宣布的計劃融合了現有政策和新穎舉措,以維護選舉的完整性。該公司堅稱對平台安全的承諾,誓言禁止創建冒充真實候選人或政府的聊天機器人。此外,濫用其技術來歪曲投票過程或阻礙參與的行為也是不會容忍的。 OpenAI 承認需要進一步研究其工具的說服力,因此暫時限制了政治競選或遊說應用程式的發展。

從今年年初開始,OpenAI 計劃實施一項突破性措施,為DALL-E 影像生成器生成的AI 生成影像添加數位浮水印。浮水印將作為永久標識符,促進內容來源的識別,並幫助區分真實的視覺效果和使用OpenAI 的人工智慧工具操縱的視覺效果。

OpenAI 與全國國務卿協會合作,旨在引導ChatGPT 用戶在尋求投票物流資訊時找到協會網站上提供的準確且無黨派的資源。這項策略性合作夥伴關係旨在引導調查獲得可靠的訊息,並減少錯誤訊息傳播的可能性。

實施的挑戰-民主困境

布倫南司法中心民主計畫顧問Mekela Panditharatne 稱讚OpenAI 的努力是打擊選舉錯誤訊息的積極一步。然而,她對實務中保障措施的有效性提出了合理的擔憂。關於標記選舉相關查詢的過濾器的全面性以及被忽視項目的可能性的問題日益突出。因此,OpenAI 計劃的成功取決於這些保障措施的細緻執行。

OpenAI 的ChatGPT 和DALL-E 處於生成人工智慧技術的最前沿,但類似工具在整個行業中的普遍存在而缺乏強有力的保障措施仍然令人擔憂。布魯金斯學會高級研究員達雷爾·韋斯特強調,生成式人工智慧公司需要採用類似的指導方針,在全行業範圍內執行實際規則。由於缺乏自願採用,可能需要立法幹預來監管人工智慧在政治中產生的虛假訊息,美國聯邦立法進展緩慢加劇了這一挑戰

保持警惕——OpenAI 首席執行官談焦慮和監控

OpenAI 執行長Sam Altman 承認其積極措施的重要性,但強調需要持續保持警惕。奧特曼在瑞士達沃斯世界經濟論壇期間的彭博社活動上發表講話,傳達了該公司全年「超嚴格監控」和「超嚴格反饋循環」的承諾。儘管實施了保障措施,奧特曼承認仍心存焦慮,反映出當前挑戰的嚴重性。

由於OpenAI 對選舉錯誤訊息採取了大膽的立場,其措施的有效性取決於複雜的實施細節。與專注於選舉的組織的合作以及人工智慧生成圖像的數位浮水印標誌著在加強全球選舉完整性方面邁出了實質性的一步。但是,更廣泛的挑戰仍然存在——行業是否會在類似的指導方針下團結起來,或者立法措施是否勢在必行?當全世界關注人工智慧和民主的發展時,問題仍然存在:OpenAI 的舉措能否為2024 年集體防禦選舉錯誤訊息鋪平道路?

資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Aamir Sheikh所有,未經許可,不得轉載!

Total
0
Shares
Related Posts