對話丨周伯文:通用大模型如何突破垂直行業場景?


作者:王永昂編輯:董子博

來源:AI科技評測

圖片來源:由無界AI工俱生成

從京東離開後,周伯文已經很久沒有這麼興奮了。

ChatGPT橫空出世攪動乾坤,如同一聲春雷驚醒各行各業的從業者,讓他們都不約而同地聽到,AGI走進現實的腳步聲。

熱潮之下,人們看到王慧文、王小川下場創業,也看到百度、阿里虎踞龍盤。周伯文作為IBM、京東兩家大廠的AI研究院前院長,研究人工智能基礎理論與核心前沿技術、應用及產業化超過25年,早在2021年底就已創辦銜遠科技,通過自研大模型,憑藉生成式AI、多輪對話與人機協同技術,幫助企業與消費者完成人工智能新時代的產品創新和數智化轉型。 “與其說是我自己決定在這一領域創業,不如說是這個事業找到了我”,周伯文形容這是必須要做的事,就像有一種使命感在催促他去行動。

周伯文畢業於中科大,後赴美科羅拉多大學波爾德分校取得博士學位。作為原IBM Research美國總部人工智能基礎研究院院長,在主持AI相關工作多年後回國,先後擔任京東集團高級副總裁、集團技術委員會主席、京東雲與AI總裁、京東人工智能研究院創始院長等職位。作為京東AI的締造者,負責京東AI的技術研究與業務拓展,從0創建京東AI事業部、AI研究院、京東AI加速器,打造智能供應鏈人工智能國家級開放平台,實現每天調用量從0到百億,主導了京東人工智能客服的技術重構並啟動對外產品化,管理著數十億規模的技術服務業務及數千人規模的技術、產品、市場與銷售一體化團隊。

2021年,周伯文預判到生成式AI將在不遠的未來爆發,決定離開京東創辦銜遠科技,致力於以通用大模型能力幫助垂直領域企業開展產品創新與數智化轉型,以AI重塑商品價值;2022年,出任清華大學惠妍講席教授、電子工程係長聘教授,並於同年5月創立清華大學協同交互智能研究中心,其研究方向與GPT採用prompt驅動生成式AI的方式不謀而合。

ChatGPT山雨欲來,周伯文也在朋友圈發文:“我相信,中國的OpenAI需要探索一條新的道路”豪情之下,求賢若渴。但與其他創業者不同,周伯文和銜遠科技選擇依托數百億級參數規模與獨特的訓練方法,讓大模型在具備通用能力的基礎上,更擅長理解人與商品的關係,以生成式人工智能技術幫助企業重構從商品洞察、定位、設計、研發到營銷的全鏈路創新體系。

周伯文曾在公開場合表示,他的創業方向是率先將人工智能與傳統產業進行融合,為企業數智化創新帶來更高價值,即實現通用大模型在垂直場景的能力突破。

近日,AI科技評測記者與周伯文進行了一次對談,以下是談話實錄,AI科技評測對內容做了不改變其原意的編輯整理:

讓AI學習人類的智慧,新的交互與協同範式

AI科技評測:ChatGPT帶來了prompt這種交互方式,你認為相對過往的交互方式有何不同?

周伯文:我的研究方向之一就是AI和人的交互,並在交互中進行學習。人機交互和人機對話是不一樣的,通過人機交互AI能夠在過程中能學到東西,所以這不是一個簡單執行的任務,而是一種實現學習的手段。

像《論語》中所記載的,就是孔子和他七十二個弟子在交互中學習的故事。在西方,類似的有柏拉圖和亞里士多德的雅典學院,這些最古老的知識與智慧的傳承都是通過人與人的對話完成的,老師通過與學生的交互幫助其更好地完成學習。

舉例來說,如果老師讓學生去倒杯一水,這類簡單的“命令-執行”動作很難增長什麼智慧;但如果換做老師教學生如何寫論文,並告知其在寫作過程中遇到困難該怎樣克服,這就是可以增長智慧的交互,也體現了我對人與AI協同交互的核心觀點。

AI的本質就是與人類的協同和交互,它從交互中不斷學習,進而協同人類更好的解決問題。這個觀點在不遠的未來將愈發重要,同時也將面對技術和倫理層面的更多挑戰,最終想要守住總結並不容易。像大家說的AI Alignment(AI對齊),人類能夠把意志傳遞給AI,然後跟AI一起分解任務,讓AI在過程中學習並實現人類的意志。這是一種新的協同方式,即協同交互智能。

AI科技評測:你認為通過交互達到價值對齊是人類大腦和GPT協同的有效方式嗎?人類與AI應該如何更好地協同?

周伯文:在生成式AI大爆發之後,通過與人協同交互進行學習的AI會越來越強。

2002年諾貝爾經濟學獎得主丹尼爾·卡尼曼在暢銷書《思考,快與慢》(Thinking Fast And Slow)中提出人的思考有兩種模式——系統1和系統2,系統1是快思考、直覺判斷;系統2是慢思考,要做大量的推理和計算。

最初,人們認為AI更適合做“系統1”的工作,比如人臉識別、質檢就是基於“系統1”的模式識別。但我堅持認為,AI的真正價值在於System 2,即幫助人類更好地完成複雜的邏輯推理任務。 ChatGPT的出現驗證了AI做系統2的可行性,這意味著可以讓AI去發現新知識,新知識的發現會幫助人類設計出更好的AI,比如對腦科學和計算優化的發現,一個創造新知識的飛輪就出現了。飛輪效應正是指AI可以讓整個系統更好地發現新知識,這些新知識又可以幫助設計更好的AI系統,從而形成一個良性循環。因此,AI與知識和創新之間形成了一種相互促進的關係,這就要求AI和人類的協同方式必須轉變。

我之前提出過一個“3+1”的研究方向,即以可信賴AI為研究基底和長期目標,以多模態表徵交互、人機協同演繹、環境協同演化為研究著力點,核心是要做人機的協同共創,實現人類幫助AI創新、AI幫助人類創新的目標。

其中之一是多模態表徵交互,這裡可能存在著一個大一統理論。在2022年時,人們對此仍持懷疑態度,但隨著GPT-4的問世,這種多模態的統一表徵交互已經比較具有說服力了;另一點是人機協同交互。這在2022年時人們也抱持懷疑的態度,但現在這種交互方式已經變得更加可信,人們開始相信它很可能會發生;第三點是AI與環境的協同演化,這意味著AI不僅需要與人類協同,還必須自適應周圍的環境。我們在2022年年初率先提出了這一概念,直到目前還沒有看到在這個方向上取得成功的案例,即便是OpenAI也沒有。

學不來OpenAI,幹不過微軟,國內大模型創業要做減法

AI科技評測:Transformer 模型的特別之處在於採用了注意力機制(Attention) 來建模文本,我們注意到你很早就開展了與AI注意力機制相關的研究。

周伯文:Transformer的核心亮點,是自註意力機制和多頭機制。 2017 年6月,Google Brain發表的“Attention is All You Need” 中引入了自註意力(self-attention)機制和Transformer的概念。後來OpenAI的GPT也受這篇論文影響頗深。

在此之前,我作為通訊作者發表過第一篇引入多跳自註意力(multi-hop self-attention)機制來改善編碼器的論文——“A Structured Self-Attentive Sentence Embedding”。這篇論文於2016年完成並上傳到arXiv,2017年初在ICLR正式發表,我們也是首個提出這一機制的團隊,更關鍵的這是第一個完全不考慮下游任務的自然語言表徵模式。以前大家也使用過注意力或某種情況下的自註意力,但都是依賴任務的。

AI科技評測:在這篇論文中,你有怎樣的發現?這些發現又是怎樣影響了後來Transformer的技術更迭?

周伯文:我們當時在論文中提出,最好的表徵方式是用結構化的自註意力去表徵自然語言(NLP),這篇論文發表至今已被引用超過2300次。

在此之前,OpenAI首席科學家Ilya Sutskever 認為最好的表徵方式是“序列到序列(Seq2Seq)”,即訓練模型從而把一個域的序列轉化為另一個域的序列,比如機器翻譯中的對應源語言與目標語言;又或是在問題回答中,問題是一個序列,回答是一個序列。在此基礎上,對深層神經網絡表徵的兩者映射關係進行學習。

但後來,深度學習專家、圖靈獎得主Yoshua Bengio團隊提出了一個“注意力機制”,其核心是在回答問題時,並非所有詞都同等重要;如果能根據問題與答案之間的對應關係識別出更關鍵的部分,繼而更加關注這部分,就能給出更好的答案。這種注意力模型很快就得到了非常廣泛的認可。 2015年,我帶領IBM的團隊也在同期開始了基於“Seq2Seq+注意力機制”架構和思路的研究,並先後推出了幾個最早期的AI用自然語言寫作的生成模型,相關論文也被引用超過3000次。

但我當時對論文內容其實並不滿意,因為它存在一個問題,即註意力是基於給出答案後去構建的。這樣訓練的AI,形像地比方,就像大學期末考試前問老師劃重點的學生,再去有針對性(attention)的重點複習。這樣AI雖然對特定問題的表現能有所提高,卻並不具備通用性。所以我們提出了完全不依賴於給定的任務和輸出,只基於輸入自然語言的內在結構,通過AI多遍閱讀去學會哪些部分更重要及其相互之間的關係,這就是自註意力加上多頭機制的表徵學習。這種學習機制只看輸入,更像學生在考前就多遍、系統性地學習理解價格,而不是基於考試重點去針對性、碎片性地學習,從而更逼近通用人工智能的目的,也大大增強了AI的學習能力。

AI科技評測:“Attention is All You Need”那篇論文和你有怎樣的淵源?

周伯文:我們知道,所有這一波大模型都來自於Transformer,所以當你看到模型裡面有個T時,那這個T大概率是代表Transformer。我很榮幸,在這方面做了一些前瞻性的工作。 2017年年底,來自谷歌的研究員發表“Attention is All you need”這篇給世界帶來Transformer模型的里程碑式論文。而我們在2017 年年初發表的首次提出“多跳自註意力機制”的論文“A Structured Self-attentive Sentence Embedding”被引用。而這篇論文的第一作者Ashish Vaswani正是我在IBM指導過的學生。 “Attention is All You Need”這篇論文的標題所表達的也正是由我們提出的“自註意力很重要,多頭很重要,但RNN或許沒有我們以前想像中那麼重要”的意思。

AI科技評測:你和OpenAI有哪些一致的技術判斷?

周伯文:這篇論文和Transformer架構徹底改變了一切,它解決了模型長距離記憶的問題。 Ilya Sutskever在近期一次採訪中回憶,OpenAI在這篇論文出現第二天就立刻徹底轉向了Transformer架構。

我們知道,GPT與Bert的模型有著很大的不同,而Bert為什麼開始很成功,後面卻不如GPT的原因就在於:它既使用了從左到右的信息,也使用了從右到左的信息。換句話說,Bert使用了未來的信息去幫助AI學習如何表徵,而GPT堅持只基於過去的信息去預測下一個詞是什麼。 OpenAI在這點上的做法與我們團隊的思路一脈相承,即:盡量不要使用答案去學習。從注意力到自註意力,從BERT到GPT-3,核心思想都是當不再依賴輸出或待預測詞的下文等未來的信息時,又或當可以用更多的數據來更充分的訓練AI模型時,我們開始看到AGI出現的可能性。

還有就是,OpenAI 認為大模型是通過自然語言去學習世界知識,從而把世界知識壓縮到大模型之中,GPT系列大模型和ChatGPT也是按照這個理念去推進的。我和團隊的理念和願景也是如此,即構建一個通用大模型,通過專業的訓練讓其在垂直領域發揮更高的價值和能力,將消費者的複雜情感、需求和體驗,以及商品的創新、設計、品參、材質、功能等等,壓縮進一個大模型,重構人與商品的二元關係,以AI重塑商品價值。

AI科技評測:除了技術實力,OpenAI還有哪些地方,讓你覺得有可取之處?

周伯文:不止在技術判斷上,OpenAI的整個商業打法都具有代表性,包括:生態的建立,宣布新摩爾定律,讓API 降價90%等等,既引發廣泛的關注,又能擴展資本和用戶對大模型商業化應用的想像空間,並衍生出幾近無限的應用場景。此外,OpenAI在倫理治理、商業開發、生態技術、未來發展等方面的規劃也十分清晰。

AI科技評測:中國會出現下一個OpenAI嗎?

周伯文:做大模型的技術難度其實是超出很多中國創業者想像的。所以我並不建議國內公司盲目跟隨、複製“OpenAI+微軟”的模式,因為大部分中國科技公司對經營的決策能力不如微軟,對技術的判斷能力又不如OpenAI。

OpenAI的成功是多方面因素共同成就的,比方有Ilya Sutskever做技術判斷,有Greg Brockman做功能,有Sam Altman來整合資源,包括AI對倫理、對社會影響的研究,他們都做了。如果國內公司純粹去模仿OpenAI的話,彼此的距離只會越追越遠。

以數據的緯度能夠看出OpenAI的技術判斷力,因為世界上不是所有的數據都一樣重要。為什麼OpenAI 選擇用Github 的程序語言去訓練思維鏈?因為程序語言的語義、語法極其簡單,執行過程的邏輯嚴謹。這也代表了OpenAI的一個特質和優勢:不會盲目出擊。所以我認為,中國的AI發展要找到另一條路徑,即依托通用大模型的能力從針對垂直場景的應用切入,這樣反而更有可能取得成功。

生成式AI將會顛覆現有的消費體驗

AI科技評測:你為什麼瞄準消費領域?

周伯文:我在京東時,看到了以“人工智能做消費者需求和產品設計動態匹配”的巨大商機。 2021年,我決定離職創業,去做針對垂直行業的通用大語言模型(大語言模型當時還沒有爆發),就是希望將消費者所有的行為從非特定場景中cover進來。我們知道,週一到週五的時空場景是不一樣的,白領或其他職業的關注點也是不一樣的,在這些影響購物行為的文化符號背後,是消費者復雜的情感、體驗以及對產品的選擇邏輯,這正是企業需要的寶貴信息。供給側在做產品時,包括創意、設計、品參、功能、材質以及品牌的定位、slogan、marketing、廣告、營銷、宣傳圖片等等,所有這一切因素的背後其實都有著很強的對應關係。

這種對應關係,此前人類從來沒有打通過。做企劃、營銷、銷售的從業者,都只搞明白了他們各自負責的環節。而我們是要做全球首個商品供應鏈的通用大模型,也就是要將所有這些信息全部高保真壓縮到一個通用模型中,並基於這個大模型賦能企業產品的全生命週期, 包括:機會洞察(Discover)、產品定義(Define)、方案設計(Design)、驅動研發(Develop)、營銷轉化(Distribute)。如此一來,企業能夠更高效地發現創新機會,更具創意地設計和生產,更有效果地進行營銷推廣、觸達用戶並完成轉化。

AI科技評測:商業模式上,這樣似乎要更加先進一些。

周伯文:對於任何一個創業團隊而言,在具備大模型的通用技術能力後,能否培養出更專業的能力十分重要。目前GPT的突破主要在其通用能力上,但對於特定行業和垂直領域的價值還有待開發,比如:GPT可以畫很逼真的藝術畫,但是畫不了電路圖,因為它對物理知識的專門學習並不深入,相關判斷上也不夠專業。

所以,我認為需要有這樣一個工具(具備專業能力的通用大模型),讓消費者更容易找到、也更願意去購買所需的商品,這可能會完全改變人們現有的購物路徑。生成式AI能夠將海量的商業信息壓縮到這類大模型之中,從而學習商品供應鏈各個環節,並以消費者為中心提升關鍵環節效率。這是在2021年就已經產生的想法和創意。

銜遠科技就是在研發一個具備通用能力的大模型,這個大模型尤其在鏈接商品和消費者方面具備專長。我們有37項大模型評測指標,其中2/3是推理能力、計算能力等通用能力,還有十幾項專門應用於產品和消費者的連接,以實現“讓每一件商品都應需而生,讓每一個消費者都得償所願”的目標。

AI科技評測:生成式AI如何更好地跟諸如電商等消費場景結合?

周伯文:人類要么只能搞明白企劃這一塊的業務邏輯,或者營銷這一塊的邏輯,AI卻能將所有的業務鏈條打通。

消費者在如電商平台等場景中,需要很多專業的詞彙才能找到所需的商品;但在另一側,商家卻不懂消費者的真實需求,只能通過電商交易來觸達消費者、通過諮詢調研機構來進一步了解消費者。而在引入像ProductGPT這種多輪對話功能後,商家和消費者就商品的動態匹配效率會比市場調研更高效,從而讓電商平台能夠更深度地參與到商品的創新、設計、研發、營銷推廣等過程中。

在實際的商業社會中,需求側和供給側其實是有很強的對應關係。我們自主研發的領銜Collaborative Innovation Platform SaaS基於大模型的多模態理解、推理與生成能力,通過深刻洞察消費者、場景、商品、品參、研發,協助企業發現商業機會與產品創新。同時,銜遠科技的ProductGPT多輪對話平台為企業的每個員工提供根據不同職業角色深度定制的個人助手,通過提供角色特定的技能與知識滿足其特定的工作需求。例如,銜遠科技的消費者研究個人助手會提供研究市場趨勢、理解消費者需求、市場調研等專業技能與相關知識。

AI科技評測:你當年在京東已經使用生成式AI賺錢了,具體是怎麼做到的?

周伯文:我在2019年就已經帶領京東AI團隊落地應用了通過生成式人工智能去創作商品文案並選擇圖片的工作,那也是京東的第一個生成式大模型。當時,我們的AI大模型主要完成三件事:

第一,能夠自行閱讀商品詳情頁上的內容,通過分析直接生成這款商品的8- 9 個賣點;

第二,消費者在瀏覽某件商品時,大模型會通過針對不同消費者的行為數據分析,迅速找出哪幾個賣點更能打動這名用戶;

第三,AIGC會根據用戶畫像,圍繞消費者最關注的賣點生成專屬的廣告語。

在實行了一段時間後,商品推薦的轉化率比之前提升了30%。消費者可能都沒有意識到,自己在京東搜索購物時,看到的產品品類、描述其實是在他瀏覽商品的一瞬間,AIGC逐字逐句根據用戶的偏好、結合商品的賣點量身定制自動生成的。

AI科技評測:如何看待OpenAI開放API,這對行業來說意味著什麼?

周伯文:以個人的經歷來講,我曾是IBM Watson集團的首席科學家。當時美國部分行業數據受到監管,這類企業一般是無法合作的,只能是私有云部署方式。為此,在2015-2016年時我就堅定要做公有云。為實現這一點,就需要將Watson的AI能力API化。當時,由我主導了包括對話、自然語言理解等幾十個API 的上線。把這些API放在雲平台上,現在IBM的AI業務主要以此營利。

我在2017年年底回國,2018年4月發布了京東的人工智能開放平台。當時,國內基本是沒有AI平台的,這也為京東帶來了可觀的收入。 2019年,由我帶領的京東AI 團隊就創造了1.7億元營收,對於一個200人規模的團隊這個成績是很不錯的。

AI科技評測:業內有個認知,做垂直大模型風險很高,你怎麼看?

周伯文:我認為,未來那些定義明確、高價值的工作流程將由專業AI 模型完成而不是通用AI 模型。通用大模型在某個垂直場景做成功之後,再去進一步提升其基礎能力,就很容易。另外,從垂直場景切入的話,算力、數據、算法方面,我們過去的增持都能更充分的發揮作用。所以在銜遠科技,大模型在技術底層框架上必須具備通用大模型技術的基礎能力,並用科學的方法評估,但同時也需要專業的訓練。

2023年,因為ChatGPT的突然火爆,市場開始用AI 2.0來形容其帶來的巨大潛力。另外,幾乎所有的科技巨頭都加入戰局,創投市場試圖抓住新風口,市場環境也快速變化。 GPT是一個系統性的創業機會,但僅僅複製、跟隨、追趕,風險高、難度大。

創立銜遠科技後,我們已經和超過100家客戶進行過交易所,看到了真實的需求,通過不斷優化大模型提高技術實現路徑:“2022年,我們論證了這個場景的商業價值和技術可行性,這意味著就算是做大模型,我們也是和OpenAI在走不同的賽道,盈利模式也不同。

我想要做的是比現在GPT更好的世界知識壓縮器,這需要互動性很好的數據,而數據顯然是與場景息息相關的。而什麼樣的數據擁有人類更高智慧的意義,這裡面其實都有很多的理論工作要去做,都是我們未來值得探索的方向。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts