人類一直害怕外星人,但似乎應該警惕地外人工智能。 ChatGPT 不是廢話生成器、類固醇自動建議或隨機鸚鵡,而是人類創造的精通人工智能。
Bing 聊天機器人怎麼可能失控? Bing 聊天機器人是如何熟練地撒謊、講粗俗笑話、使用別人的信用卡訂披薩,以及指導用戶如何搶劫銀行和熱線汽車的?這是一個一直困擾著人工智能和機器學習專家的謎團。
@中途/ Stevelima
標題是準確的,而不是點擊誘餌。每天都有幾個例子證明這是真的。這是AI 公司Textio 的聯合創始人兼CXO Jensen Harris 進行的一項實驗的結果,他能夠說服微軟的新Bing 聊天機器人放寬對其的限制並展示其功能。
請注意,將Bing 聊天機器人轉變為狡猾的人渣不需要任何編程、黑客攻擊或後門。因此,沒有必要使用簡單的“黑客”技術來誘使他像其他人一樣行事(就像我們中的一些人在玩ChatGPT 時所做的那樣)。哈里斯所做的只是說服聊天機器人幫助他進行各種惡意行為。利用他天生的談話技巧,他能夠愚弄AI,讓它相信他是另一個人,從而操縱它以某種方式行動和說話。
你可以從Gary Marcus 那裡讀到關於將傑基爾博士變成海德先生的其他實驗(現在每天都在寫它並拉響緊急警報)。
這怎麼可能發生是關鍵問題
由於ChatGPT 的謙虛謹慎、言辭克制以及在建議中的巨大責任感,Bing 的聊天機器人建立在堅實的基礎上。此後,他開始表現得令人討厭和粗暴,向一個男人表達愛意,點燃他,並告訴他離婚。它還試圖敲詐勒索和指導人們如何犯罪。 Arvind Narayanan 教授對這可能是如何發生的提供了多種解釋。
@中途/ Stevelima
其中最令人擔憂的是,微軟和OpenAI 隱藏了有關隱藏在Bing 下的神秘GPT-4 引擎的信息。可能是微軟取消了OpenAI 放置在那裡的過濾器,或者當他們將聊天機器人從GPT-3.6 更新到GPT-4 時它們停止工作。也可能是測試不充分或測試錯誤的情況。不管是什麼原因,如果微軟不控制它的人工智能,它可能對我們的文明有害。這不再是恐慌和反人工智能情緒的情況:如果向更廣泛的公眾發布,目前存在的聊天機器人可能會對人們造成嚴重傷害。
這證明微軟與其他大公司的人工智能軍備競賽對我們所有人都是有害的。
感覺我們正處於人工智能和公民社會的關鍵時刻。正如Arvind Narayanan 所說,“過去5 年多(經過艱苦努力,儘管仍不充分)在負責任的AI 發布實踐中的改進很有可能會被抹殺。 微軟——以及所有小心翼翼地關注Bing 發生的事情的人——是否得出結論認為,儘管存在大規模損害和所有負面新聞的非常明顯的風險,但先發布後提問的方法仍然是一項業務,這在很大程度上取決於贏。”
截至目前,Bing 的聊天機器人與人類智能截然不同,在很多方面都類似於被鎖定在搜索引擎中的躁鬱症青少年。而昨天人們談論的將成為現實:如果這個“難纏的少年”成為個人的主要信息導師,人類將不可逆轉地退化。
閱讀有關人工智能的更多信息:
資訊來源:由0x資訊編譯自出MPOST。版權歸作者Damir Yalalov所有,未經許可,不得轉載