OpenAI最新的「推理」模型存在基本錯誤


OpenAI 最近發布了一個「推理」人工智慧模型——o1,但根據該公司的新廣告,它已經出現了基本錯誤。

ChatGPT 製造商向付費訂閱者發布了迄今為止最先進的模型,拉開了「OpenAI 12 天」活動的序幕,該活動是慶祝節日的一系列發布。

OpenAI 演示影片表明該模型容易出錯

根據OpenAI 發布的展示該模型優勢的視頻,用戶上傳了一張木製鳥舍的圖像,然後向模型詢問如何建造類似鳥舍的一些建議。 「推理」模型似乎會「思考」一會兒,然後發出看似一組指令。

仔細一看,這些說明似乎是浪費時間。該模型測量了任務所需的材料,例如油漆、膠水和密封劑,但它只提供了鳥舍前面板的尺寸。

模型建議將一張砂紙切割成另一組不需要的尺寸。此外,該模型表示它給出了“準確的尺寸”,但沒有給出準確的尺寸,這與先前的說法相反。

總部位於英國的貿易機構木匠協會(Institute of Carpenters) 所長James Filus 也揭露了該模型的錯誤,例如o1 的清單中缺少但需要的工具,例如錘子。

“你對從圖像中構建鳥舍的了解與從文本中了解的一樣多,這違背了人工智能工具的全部目的。”

絲狀體。

此外,Filus 還透露,建造同一個鳥舍的成本「遠不及」模型估計的20 至50 美元。

OpenAI 模型的用途與預期相反

o1 案例增加了人工智慧模型產品演示的其他範例,但它們的作用與預期目的相反。 2023 年,Google的人工智慧輔助搜尋工具廣告錯誤地指出詹姆斯韋伯望遠鏡有了原本沒有的發現。這一錯誤導致該公司股價下跌。

這並非全部來自搜尋引擎巨頭,因為最近類似Google工具的更新版本告訴用戶吃石頭是安全的。它還聲稱用戶可以使用膠水將起司粘到披薩上。

儘管存在這些錯誤,但根據公開基準測試,o1 模型仍然是OpenAI 迄今為止最強大的模型。它在回答問題時也採取了與ChatGPT 不同的方法。

根據《時代》雜誌報道,o1 仍然是一個非常先進的下一個單字預測器,因為它是使用機器學習對來自網路及其他領域的數十億單字文字進行訓練的。

該模型使用一種稱為「思想鏈」推理的技術,在幕後「思考」答案,然後才給出答案。這與僅根據提示發出言語不同。

這有助於模型給出更準確的回應,而不是僅僅吐出單字來回應使用者查詢。

90 天內找到一份高薪Web3 工作:終極路線圖

資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Enacy Mapakame所有,未經許可,不得轉載

Total
0
Shares
Related Posts