美國證券交易委員會(SEC)主席加里·詹斯勒(Gary Gensler)對金融市場中人工智能(AI)的潛在危險發出嚴厲警告。他的研究指出了現有金融法的一個令人擔憂的趨勢,即賦予人工智能開發者過度的自由來操縱市場,從而構成迫在眉睫的金融崩盤的威脅。
Gensler 主要擔心人工智能決策的不透明性,特別是在深度學習算法領域,這可能會導致市場不穩定和波動,因為公司會爭奪最高的客戶回報。
“Gensler 對人工智能對金融市場影響的擔憂並非沒有根據,”舊金山律師Mark Perlow 警告說。在承認人工智能的變革潛力的同時,Gensler 強調迫切需要解決人工智能係統做出的財務決策中的責任差距。
這位SEC 主席對人工智能的興趣可以追溯到1997 年,當時他目睹了一台計算機擊敗了俄羅斯國際象棋冠軍。這個話題在他2019 年擔任麻省理工學院教師期間再次出現。在2020 年題為“深度學習和金融穩定”的聯合研究論文中,Gensler 強調了不受控制的人工智能開發的危險,特別是深度學習算法,開發人員可以自由地策劃看似“客觀”的人工智能功能,但這些功能可能會損害市場道德。
諮詢公司麥肯錫最近發布了一份報告,預測人工智能在就業市場的變革潛力,這使得人們對人工智能的影響更加關注。麥肯錫表示,人工智能可能會徹底改變員工的工作時間,到2045 年,人工智能可能佔工作時間的60-70%。這一預測較之前的估計顯著增加,突顯了人工智能技術的快速進步及其對各行業的潛在影響。
在其他領域,美國軍方正在積極探索人工智能在軍事任務中的能力,並取得了可喜的成果。 OpenAI 的ChatGPT 和Google 的Bard 等大語言模型(LLM) 在處理敏感信息方面表現出了高效和成功,增強了人們對人工智能潛力的信心。
然而,人工智能的安全漏洞已成為一個重大問題。隨著企業越來越依賴ChatGPT 等人工智能機器人來簡化運營,敏感公司數據的無意洩露已成為一個日益嚴重的問題。網絡安全公司Group-IB 最近的一份報告顯示,有100,000 個被盜的ChatGPT 憑證可在暗網上出售,這表明需要採取強有力的安全措施來保護人工智能驅動環境中的敏感信息。
Gensler 對人工智能可能破壞金融市場穩定的警告凸顯了對人工智能領域進行良好監管的緊迫性。當我們深入研究人工智能的變革可能性時,在利用其能力和實施防止潛在濫用和安全漏洞的保護措施之間取得平衡至關重要。負責任的人工智能開發以及保護敏感數據的積極措施對於釋放人工智能的真正潛力、同時降低潛在風險、為繁榮和安全的未來鋪平道路至關重要。
資訊來源:由0x資訊編譯自TODAYQ。版權歸作者Om Labde所有,未經許可,不得轉載