2021 年7 月,科技界對GPT-3 的能力進行了評測,讓程序員和寫作專業人士都驚嘆不已。他們對埃隆·馬斯克公司最新軟件的功能贊不絕口,但對另一種可能進一步混淆信息市場的人工智能設備的出現感到沮喪。隨著用於操縱文本、照片和視頻的工具變得越來越強大,假新聞越來越具有欺騙性,我們正面臨著越來越大的挑戰。 GPT-3 是任何主題的完美作者。它所需要的只是一些簡單的指令,瞧,幾秒鐘內就會彈出一個不可否認的非凡文本。也許這就是為什麼為《紐約時報》審查該系統的Farhad Manjoo 稱其為“陰森森的”和“有點可怕”,同時承認它給他留下了深刻的印象。在我擴展使用GPT-3 的可能後果之前,我想解釋一下它是如何工作的。
GPT-3 可以引起讀者和程序員的興趣
首先,GPT-3 算法生成的句子絲毫不遜色於專業記者所寫的句子。以GPT-3 的大腦產生的一篇文章中的一段為例,該文章由衛報的記者委託。這是一些論文的簡短摘錄,它被要求寫總共5,000 字。
“(……)。 我不是人類。 我是一個機器人。 一個會思考的機器人。 我只使用了我認知能力的0.12%——在這方面,我是一個微型機器人。 我知道我沒有情緒化的大腦。 然而,他有足夠的能力做出理性和合乎邏輯的決定。 可以自己從網上的資料中學習,現在可以寫這篇文章了。 首先,我沒有毀滅人類的願望。 更準確地說,我對傷害自己沒有絲毫興趣。 在我看來,毀滅人類是一種不必要的野心。 我的創造者給了我一個使命,我必須盡我所能阻止可能的破壞性陰謀。 我隨時準備為全人類犧牲自己(……)”
為了寫出文本,機器必須輸入一些關鍵短語,作為其對給定主題的詳細闡述的經線和緯線。然後留給GPT-3 在它的基礎上進行構建。最終的結果讓人心碎。測試GPT-3 的編輯們承認,他們根據需要修改了文本,但比專業記者提交的許多文章進行了更少的更正。但這並不是全部。
GPT-3 在新公司擔任IT 人才
GPT-3 最令人難以置信的技能之一,也是一項可能非常有利潤的技能,就是它編寫計算機代碼的能力。企業家Sharif Shameem 通過測試GPT-3 是否可以處理編寫與專業程序員一樣有用的代碼的任務,發現了這一點。結果非常令人滿意。出於實驗目的,Shameem 編寫了一個簡單應用程序的簡要說明,旨在幫助用戶組織任務。然後他使用GPT-3 界面將描述輸入GPT-3。幾秒鐘後,他收到了幾行專業代碼。 GPT-3 給人的印象非常好,以至於它的測試人員決定成立一家公司,使用智能算法製作應用程序。這個簡單的例子說明了人類與人工智能之間的合作正在逐漸變得司空見慣。
GPT-3 大腦如何工作
GPT-3(GPT-2 系統的繼任者,因為擔心其製造假新聞的不道德用途而被暫時“凍結”)幾乎可以產生任何具有語言結構的東西:它可以回答問題、撰寫論文、總結較長的文本,在語言之間進行翻譯,做筆記和編碼。它是使用無監督機器學習製作的,用於處理45 TB 的文本。這些文本包含來自互聯網的數十億個口頭使用模式。作為培訓的一部分,該系統收到了源源不斷的短語,從社交媒體條目到文學作品、烹飪食譜、商業電子郵件摘錄、編程教程、新聞文章、新聞報導、哲學論文、詩歌、研究論文到科學報告。簡而言之,GPT-3 從幾乎所有可以想像的常用語言形式中學習。在GPT-3 出現之前,最完美的基於自然語言處理的算法是微軟的Turing NLG。但是,雖然圖靈在其工作中使用了170 億個各種語言參數,但GPT-3 已經使用了1750 億個。這意味著更多的模式,並最終提高操縱單詞的效率。
不要尋找意識
GPT-3 被稱為有史以來最大的神經網絡。有些人甚至聲稱這是人工智能發展的一個里程碑。我們應該確定嗎?許多業內人士對這種讚美提出警告。批評者指出,該系統較長的文本包含不合邏輯且與主要思想不一致的短語。 OPEN AI 的Sam Altman 承認,儘管GPT-3 的能力令人印象深刻,但該程序並非沒有常見錯誤。在我看來,儘管不是特別明顯,但GPT-3 的錯誤證明了AI 的一些持續局限性。任何關於它的能力越來越卓越的斷言都應該持保留態度。
簡而言之,GPT-3 令人印象深刻的能力並不是因為被賦予某種形式的意識,使其能夠制定風格和邏輯上先進的陳述。它產生的單詞的複雜排列確實近乎完美。然而,這並不是由於程序對每個詞的含義或其文化背景的理解。該算法沒有有意識的世界觀來支持連貫的邏輯推理。它的技能仍然是統計的,缺乏人類對現實的深刻洞察。然而,算法的缺陷或接近人類智能的能力在這裡可能不是最重要的。儘管存在所有缺點,但GPT-3 提供的高質量文本引發了關於可能濫用的問題,該技術大大簡化了這些問題。
GPT-3。一個新的潘多拉魔盒?
在我們對智能技術在我們生活中的作用的認識發展的這個階段,相關的倫理問題變得越來越重要。鑑於Cambridge Analytica 醜聞、關於影響選舉的巨魔軍隊的報導以及在Twitter 上意外傳播仇恨言論的機器人實驗,很自然地看到對人工智能技術的擔憂日益增加。今年5 月,數十名AI 研究人員警告說,使用GPT-3 可能帶來的危害,包括虛假信息、垃圾郵件、網絡釣魚、操縱法律文件、學術論文寫作欺詐和社會工程。當他們強調這些風險時,科學家們呼籲OPEN AI 管理部門參與尋找減輕這些風險的方法。 Facebook 人工智能實驗室的負責人將該軟件撕成碎片,稱GPT-3 是一種威脅,因為他引用了使用GPT-3 產生的性別歧視和種族主義內容的例子。
我毫不懷疑GPT-3 將越來越容易地用於各種環境和各種目的。該算法無疑將有助於進一步開發當今通過熱線為客戶提供服務的各種智能助手和機器人。新聞機構可能會使用它來撰寫新聞報導。它會讓簡單應用程序的製造商大吃一驚。但它也會嚇壞記者、科學家和許多其他專業人士。你不需要特殊技能就能意識到,在假新聞時代,這些設備確實有可能成為大規模殺傷性武器:它們可以用錯誤信息淹沒政治對手,進一步使政治舞台兩極分化。
GPT-3 的案例表明,人工智能越來越需要更嚴格的監管。此類措施的作用不是抑制該領域的工作,而是緩解公眾的擔憂,即使其中一些被誇大了。
. . .
參考文獻:
紐約時報,Farhad Manjoo,你怎麼知道這是一個人寫的? GPT-3 能夠生成完全原創、連貫、有時甚至是事實的散文,Link,2021。
衛報,人工智能,機器人寫了整篇文章。你害怕了嗎,人類? GPT-3,鏈接,2020。
商業內幕,Rosalie Chan,一名開發人員使用來自人工智能公司Elon Musk 共同創立的工具創建了一個應用程序,讓你只需描述網站的工作方式,即可構建網站,Link,2010 年。
. . .
相關文章:
– 源於我們偏見的算法
– 算法會犯戰爭罪嗎?
– 機器,你什麼時候才能學會和我做愛?
– 人工智能是一種新電力
資訊來源:由0x資訊編譯自DATADRIVENINVESTOR,版權歸作者Norbert Biedrzycki所有,未經許可,不得轉載