麥肯錫:ChatGPT 等生成式AI 技術將如何改變企業?


作者:Michael Chui、Roger Roberts、Lareina Yee

編譯:DeFi 之道

來源:麥肯錫

生成式人工智能(AI)和其他基礎模型正在改變AI的格局,將輔助技術提升到一個新的水平,減少應用開發時間,並賦予非技術用戶強大的能力。

圖片來源:由無界版圖AI 工俱生成。

鑑於這篇文章的主題,我們問了ChatGPT(一款可以根據用戶提示詞產出原創內容的生成型AI語言模型),這篇文章的開頭應該如何寫。以下是我們輸入系統的提示詞:

按照麥肯錫公司的風格,為一篇關於生成式AI將如何為企業帶來變革的文章寫一段開頭。

ChatGPT 的回應:

生成式AI的興起有可能成為企業運營的基本規律帶來重大變革。這項技術基於對現有數據的學習,來生成原創內容,有徹底改變行業並改變公司運營方式的潛力。生成性AI使許多以前由人類完成的工作可以實現自動化,從而提高效率和生產力,降低成本,並開闢新的增長機會。因此,能夠有效利用該技術的企業可能會獲得顯著的競爭優勢。

這個回答並不完美,但令人印象深刻。

對於我們和我們最近接觸的許多高管來說,在OpenAI 開發的ChatGPT 中輸入一個提示詞,就足以見證生成式AI的力量。在其發布之後的五天內,有超過一百萬的用戶登錄該平台親手體驗。 OpenAI 的服務器幾乎無法滿足需求,經常閃出信息提示用戶在服務器容量釋放出來後再來訪問。

像ChatGPT和GitHub Copilot這樣的產品,以及為這些系統提供動力的底層AI模型(例如Stable Diffusion、DALL-E 2、GPT-3),正在將技術帶入曾經被認為是為人類保留的領域。有了生成式AI,計算機現在可以說是展現了創造力,可以根據查詢產生原創內容,從獲取的數據和與用戶的互動中汲取營養。 AI可以撰寫博客、繪製盤點設計草圖、編寫計算機代碼,甚至對生產錯誤的原因進行理論分析。

這類最新的生成式AI系統建基於基礎模型——一種大型深度學習模型,用涵蓋多個主題的、大規模、廣泛、非結構化的數據集(如文本和圖像)訓練而成。開發人員可以將這些模型應用於各種場景,而對每項任務幾乎不需要進行微調。例如,ChatGPT的基礎模型GPT-3.5也被用來翻譯文本,科學家們使用GPT的早期版本創建了新的蛋白質序列。

上述能力可以為所有人所用,包括缺乏專業機器學習技能的開發者,在某些情況下,也包括沒有技術背景的人。使用基礎模型,還可以將開發新的AI應用的時間減少到前所未有的低水平。

生成式AI 有望使2023 年成為AI 領域最激動人心的年份之一。但每一項新技術興起之時,企業領導人都必須睜大雙眼,生成式AI 當下也帶來了許多道德和實踐層面的挑戰。

向人類領域邁進

十多年前,我們曾寫過一篇文章,將經濟活動分為三類——生產、交易和互動,並考察了技術對每一個環節的影響程度。在100多年前的工業革命中,機器和工廠生產技術通過增強和自動化人類勞動改變了生產,而AI進一步提高了製造車間的效率。在大約相同的時期,交易也經歷了許多技術迭代,包括數字化和自動化變革。

直到最近,互動性的工作,例如客戶服務,還未經歷過成熟的技術干預。生成式AI將改變這種狀況,能以一種接近人類行為的方式從事互動性工作,在某些情況下,甚至難以察覺。不過,這並不是說這些工具是為了在沒有人類輸入和乾預的情況下工作。許多情況下,這些工具與人類結合起來是最強大的,增強了他們的能力,使他們能夠更快、更好地完成工作。

生成式AI也正在將技術推向一個被認為是專屬於人類思維的領域:創造力。該技術利用其輸入(所獲得的數據和用戶提示詞)和經驗(與用戶的互動,幫助其“學習”新信息和什麼是正確/不正確)來生成全新的內容。

雖然在可預見的未來,人們在餐桌上將持續不斷地爭論AI生成的內容是否真的等同於創造力。但大多數人可能會同意,這些工具通過向人類提供初始的想法,將會向世界釋放更多的創造力。

商業用途多多

這些模型處於擴展的早期階段,但我們已經開始看到第一批不同功能的應用,包括以下內容(參見圖示):

– 營銷和銷售。起草個性化的營銷、社交媒體和技術銷售內容(包括文字、圖像和視頻);創建符合特定業務的助手,例如零售業。

– 操作。為有效執行特定活動而生成任務清單。

– IT/工程。編寫、記錄和審查代碼。

– 風控和法律。從大量的法律文件中提取信息,回答複雜的問題,起草和審查年度報告。

– 研發。通過更好地了解疾病和發現化學結構,加速藥物研發。

應該興奮,但仍需要謹慎行事

由於生成式AI令人驚嘆的產出結果,有人可能認為這是一種隨時可以使用的技術,但事實並非如此。這種技術仍處在萌芽階段,高管們必須謹慎行事。技術專家們仍在解決各種問題,大量的實踐和道德問題仍未解決。

以下是其中幾個問題:

– 像人類一樣,生成式AI也會出錯。例如,ChatGPT有時會產生“幻覺”,面對用戶的問題,會自信地生成完全不准確的信息,並且沒有內置的機制來提醒用戶或質疑這個結果。例如,我們注意到,當要求ChatGPT創建一篇關於某個人的簡歷時,它生成了幾個不正確的事實,比如列出了錯誤的學歷。

– 過濾器還不能有效地捕捉到不恰當的內容。可以根據個人照片創建化身頭像(avatar)的圖片生成應用程序,其用戶可能會從系統中收到裸體化身頭像選項,儘管他們輸入的是正常的照片。

– 系統性的偏見問題仍然需要解決。這些AI系統從大數據中提取信息,而來源數據中可能包含不應有的偏見。

– 不同公司的行為準則和價值觀沒有得到體現。公司需要對AI技術進行調整,才能納入公司特有的文化和價值觀,這已經超出了一些公司已有的技術專長和計算能力。

– 知識產權問題有待商榷。當一個生成式AI模型根據用戶的提示詞輸出一個新的產品設計或想法時,誰能主張對結果的所有權?如果AI技術是抄襲了訓練數據中心化的某個來源,又該怎麼辦?

公司高管的初步行動

在考慮採用生成式AI技術的公司中,因為預計該技術將迅速發展,公司管理層希望迅速找出哪些業務部分該技術能產生最直接的影響,並實施相應的監測機制。為了不留遺憾,應該組建一個跨部門團隊,成員包括數據科學從業者、法律專家和部分業務領導人,共同思考以下這些基本問題:

– 該技術可能在哪些方面幫助或顛覆我們的行業和/或我們企業的價值鏈?

– 我們的政策和立場是什麼?例如,我們是在觀望技術的發展,投資於試點項目,還是在尋求建立新的業務?各個業務領域對新技術的態度是否應該有所不同?

– 鑑於模型的局限性,我們有什麼標準來選擇合適的應用場景?

– 我們如何建立一個有效的生態系統,承載合作夥伴、社區和平台?

– 這些模式應該遵守哪些法律和社區標準,以便我們能夠維護好利益相關者的信任?

同時,必須在整個組織內鼓勵經過深思熟慮的創新,為大膽的嘗試建立護欄和沙盒環境,其中許多已經可以通過雲計算隨時建立,還有更多可能即將出現。

Michael Chui是麥肯錫全球研究院的合夥人,也是麥肯錫灣區辦公室的合夥人。 Roger Roberts是該辦公室的合夥人,Lareina Yee是高級合夥人。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts