用戶量超200 萬、生成1.2 億AI 作品的無界AI,是怎麼理解AIGC 的?


原創丨頭號AI 玩家

整理| 頭號AI 玩家

頭圖| 無界AI

* 頭圖使用無界AI 創作,關鍵詞:春江花月夜,國寶熊市貓花花貴妃扮相,精細的畫面,豐富的色彩(“新榜和ta 的朋友”直播間觀眾提供)

5月4日,無界AI 商務市場總監李本漲在“新榜和ta 的朋友”視頻號系列直播中進行了題為《從格物致知到人工智能,用哲學思想來理解AIGC》的分享。

聊了聊如何從“格物致知”這一中國傳統思想出發,增進對於AIGC 的理解和認知,並對目前主流的AIGC 模型及其應用場景進行了梳理介紹。

無界AI 作為國內最早基於Stable Diffusion 模型推出AI 繪畫工具的平台之一,截至目前,已歷經4 次版本迭代,上漲了200 萬+ 的註冊用戶、生成了1.2 億+ 的AI 作品。

本文整理自李本漲在直播中的分享自述,內容經嘉賓本人確認。

如何用“格物致知”的思想來理解AIGC?

格物致知是中國傳統哲學中的一種學習方法和觀點,最早出自於《禮記・大學》:“致知在格物,物格而後知至”,後被宋代二程、朱熹等理學家們發揚光大。 “格物”指觀察和研究實際事物豐富經驗,“致知“指通過實踐和研究來驗證和理解。

它的核心邏輯是通過經驗和實踐,來增進自己的理解和認知。這個觀念深刻影響了中國古代哲學和文化,也成為了現代科學發展的重要理念之一。

那麼距今這麼多年的一種思想,能夠去理解現在如日中天的人工智能嗎?它們之間有什麼共通之處?

首先是理論層面。

格物致知是通過經驗和實踐,去完善自己的思維模型。而人工智能則是通過處理大量的數據,發現數據之間的規律和模式,再通過編碼形成算法模型。

所以我們很驚奇地發現,在理論層面,格物致知和人工智能,都是通過將經驗或數據進行編碼抽象實現的。

其次是應用層面。

從格物致知的角度來講,通過思維模式的抽象化和触類旁通,可以把自己的理解遷移到不同的場景裡面。

比如用格物致知的思維去理解如何做產品設計,因為產品設計本身需要大量的行業經驗,做產品要畫原型圖,在此之前要做產品調研,然後再落實到具體的產品執行,也就是產品開發上。

而從人工智能的算法模型角度來講,結合具體的行業場景,則能夠落地不同的功能,最後再生成相應的內容。比如語言場景的ChatGPT、繪畫場景的Midjourney 等等。

兩者也都需要通過不斷的反饋去迭代優化自己的思維模型和算法模型。

所以說,格物致知和人工智能不管是從理論層面,還是應用層面,相互之間的關聯性和契合度都非常高。

一些學文科的朋友可能之前沒有接觸過人工智能,覺得人工智能是特別晦澀難懂或者特別理工科的東西,其實它跟哲學思考或者日常的學習應用是有異曲同工之妙的。

通過這樣一個類比,我希望此前沒有接觸過AIGC 的小伙伴能消除對AIGC 的恐懼、疑慮和隔閡,坦然接受人工智能對現在主流社會或者我們的生活帶來的衝擊和影響。

AIGC 圖靈測試

我們知道,圖靈測試是一種判斷計算機是否會思考的實驗:一個人向計算機發問,另一個不知情的人試圖從回答中區分是人還是計算機。如果計算機沒有被辨認出,便視為通過了圖靈實驗。

如果我們用這一判斷標準做一次AIGC 圖靈測試,結果會如何呢?

大家可以猜一下這些圖哪些是由人創作?哪些是由AI 創作的?

答案:案例一和案例三為AI 創作,案例二為人創作

答案:三個案例均為AI 生成

答案:案例一是真實照片,案例二是AI 生成

可以說,目前的AIGC 產物已經將真實虛擬的邊界極大模糊了。

在AIGC 時代我們應該不斷調整自己的思維之“格”,不能再以固有的經驗去判斷現在的AIGC 產物了,因為在很多維度上它已經大大超出了我們的原有認知。

再附上一些AIGC 作品供大家欣賞:

AIGC 創作的童年回憶《灌籃高手》

結合機甲、三維模型的一些二次元AIGC 作品

主流AI 模型及其應用

接下來我們聊聊現在最流行的兩種模型——文生圖擴散模型和大語言模型的場景化應用。

目前主流的文生圖擴散模型有4 個:

1. Disco Diffusion

它是這一次文生圖模型大爆發的先導。

Disco Diffusion 基於⼈⼯智能深度學習技術,運⽤開源⽂⽣圖擴散模型(MIT 許可協議),並發佈於Google Colab 平台。這個⼯具可以直接在Google Drive 上運⾏,同時也可以進行本地化部署和運行。

基於Disco Diffusion ⽣成的圖像⻛格⼤膽、構圖抽象,發布不久就獲得了⼤量早期接觸AI 繪畫用戶的喜愛和使⽤。

Disco Diffusion 早期的一些作品欣賞:

2. Midjourney

這也是如雷貫耳的一個文生圖模型,主要搭載在Discord 服務器上。

Midjourney 於2022 年7 ⽉ 12 ⽇進⼊公開測試階段,使⽤者可通過使⽤ Discord 的機器⼈指令進⾏操作。

⽬前Midjourney 已經更新到了V5.1 版本,整個模型的⻛格發展變化極具AI ⽂⽣圖⾏業發展的代表性。從某種意義上來說,Midjourney 代表了AI ⽂⽣圖領域的審美標杆。

3. DALL・E2

這個是OpenAI 團隊於2022 年發布的一個文生圖模型。

它是DALL-E 模型的升級版,使⽤了⼀種稱為GPT-3.5 的模型結構,並具有更⼤的模型參數和更多的訓練數據。

與DALL-E 相比,DALL-E2 可以⽣成更⾼質量、更複雜的圖像,並且可以基於更抽象的輸⼊進⾏圖像⽣成,例如語⾔描述、草圖等。

DALL・E 2 的繪畫示例

4. Stable Diffusion

這個模型的特點是開源,同時出圖效率非常高。

Stable Diffusion 的擴散模型是“潛在擴散模型”(LDM,Latent Diffusion Model)的變體。

它是由初創公司StabilityAI、CompVis 和Runway 合作開發的開源AI ⽂⽣圖模型。

該模型在⽣成細節豐富的不同背景的⾼分辨率圖像⽅⾯⾮常穩健,同時還保留了圖像的語義結構,速度也更快。

作為⼀個開源模型,基於Stable Diffusion 的插件與社群⾮常活躍,⽽⽆界AI 作為國內最早基於SD 模型推出AI 繪畫⼯具的平台之⼀,也深度參與到了AIGC 領域的技術發展、社區建設和產業化賦能中。

而文字場景下的大語言模型最有名的就是ChatGPT 了,它發佈於2022 年年底,一個月就突破了1 億註冊用戶。眾所周知,其所帶來的行業顛覆性是完全超出大家之前的認知的。

第二個叫AutoGPT,這是一個開源的自訓練模型,它的特點是通過自我學習實現目標。 ChatGPT 要不斷地去跟它對話訓練,而AutoGPT 的特點是只要給它設定一個目標,它會自我訓練,而且它是開源的,你可以部署到本地。 ChatGPT 現在是不開源,你只能通過API 去調用它的能力。

第三個叫Anthropic,這個是谷歌投資、前OpenAI 員工創辦,目前還在發展當中的模型。大家認為它是ChatGPT 最大的競爭對手。

無界AI 是什麼?

簡單介紹一下無界AI。

⽆界AI 是一個AIGC 內容創作平台,從2022 年中旬⼊局AI 繪畫賽道,在國內應該算是比較早。雖然底層基於SD 的大模型,但我們也做了很多二次開發,還有中小模型的研發,我們的定位是提升國產自主技術、美學與核心競爭力。

以下為無界AI 的版本歷程圖,自2022 年5 月至今,一共上線迭代了四個版本。

這裡向大家展示一些由無界AI 生成的作品和插件功能。

無界AI 人像作品欣賞

無界AI 二次元精繪

那麼這些功能具體可以用來做什麼呢?

包括漫畫創作、家裝設計、虛擬模特換衣、以及打造虛擬人主播等等。

AIGC 版權問題何解?

我們認為AIGC 時代的到來,預示著內容創作的一場爆炸式革命。但與此同時,版權侵權問題也受到了高度關注。

就技術原理而言,AIGC 模型在訓練及使用過程中,利用版權作品的方式、利用行為的版權定性仍有待分析明確。

而區塊鏈技術則可以保障AIGC 數字版權的確權流轉和保護,它的特點是可溯源、創作快、唯一性和成本低,我們可以把它定義為AIGC 界的視覺中國。

下個十年將是AIGC 的十年,關於AI 會不會取代部分人類勞動者的討論,有句話我覺得說得很對:取代你的不是AI,而是使用AI 的人。正所謂“君子生(性)非異也,善假於物也”。

AIGC 就是一個賦能工具,沒必要去抵觸它,而是應該思考如何利用它去提升自己的生產力,實現降本增效。

最後送給大家一句話:用你的格物之格,迎接屬於自己的AIGC 時代

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts