在快速發展的人工智慧領域,GPT-4 和Llama 2 等基礎模型的出現已經改變了許多領域,在全球範圍內影響決策並塑造使用者體驗。然而,儘管它們得到了廣泛的使用和影響,人們越來越擔心這些模型缺乏透明度。這個問題不僅限於人工智慧; 它呼應了以前的數位技術所面臨的透明度挑戰,例如社交媒體平台,消費者在社交媒體平台上努力應對欺騙行為和錯誤資訊。
基礎模型透明指數:一種新的評估工具
為了解決這個關鍵問題,史丹佛大學基礎模型研究中心與麻省理工學院和普林斯頓大學的合作者一起開發了基礎模型透明度指數(FMTI)。該工具旨在嚴格評估基礎模型開發人員的透明度。 FMTI 設計了大約100 個指標,涵蓋三大領域:上游(涵蓋建造模型所涉及的成分和流程)、模型(詳細說明屬性和功能)和下游(重點關注分發和使用)。這種全面的方法可以讓我們對人工智慧生態系統的透明度有細緻的了解。
主要發現與啟示
FMTI 對10 個主要基礎模型開發人員的應用揭示了一幅令人警醒的畫面:最高分僅為54 分(滿分100 分),表明整個行業根本缺乏透明度。平均分數僅37%。雖然允許下載模型權重的開放基礎模型開發人員在透明度方面處於領先地位,但封閉模型開發人員卻落後了,特別是在資料、勞動力和運算等上游問題方面。這些發現對於消費者、企業、政策制定者和學者至關重要,他們依賴於了解這些模型的局限性和能力來做出明智的決策。
邁向透明的人工智慧生態系統
FMTI 的見解對於指導人工智慧領域的有效監管和政策制定至關重要。政策制定者和監管機構需要透明的資訊來解決智慧財產權、勞工實踐、能源使用和人工智慧偏見等問題。對於消費者來說,了解底層模型對於認識其限制並針對造成的任何損害尋求補救至關重要。透過揭露這些事實,FMTI 為人工智慧產業的必要變革奠定了基礎,為基金會模型公司採取更負責任的行為鋪平了道路。
結論:呼籲持續改進
FMTI 作為一項開創性舉措,凸顯了人工智慧基礎模型開發和應用中提高透明度的迫切需求。隨著人工智慧技術不斷發展並融入各個行業,人工智慧研究界必須與政策制定者共同努力提高透明度。這項努力不僅將促進人工智慧系統的信任和問責制,還將確保它們符合人類價值和社會需求。
圖片來源:Shutterstock
資訊來源:由0x資訊編譯自BLOCKCHAINNEWS。版權所有,未經許可,不得轉載!