別鬧了,AIGC 殺不死藝術家


撰文:Neil Shen

來源:品玩

圖片來源:由無界版圖AI 工俱生成。

AIGC 生成內容能取代插畫師、設計師的工作嗎?或者更瘋狂一點,AI 能批量生產藝術作品,乃至從根本上顛覆藝術市場嗎?

關於AIGC 的爆紅我們已經和科技界探討的足夠多,今天我們把目光轉向從業者——AI 能否取代他們的工作?

下面是他們的回答。

畫家自己下筆之前都不知道會發生什麼,AI 如何能知道?又如何計算出來?

AI 不能繪製的東西

當我詢問能否清楚地辨認AI 和人類繪畫作品的時候,建築系大四的吳佳佑給出了非常明快的肯定答案。吳佳佑正在申請英國倫敦皇家藝術學院的研究生,而他提交的申請作品之一即是一個由AI 輔助創作的交互式網站,訪問的人可以在圖像搭建而成的互動頁面中探索由他設計的故事,而組成網站的所有圖像都由Disco diffusion 和MidJourney 這兩個2022 年大火的AIGC 人工智能生成工具製作。

圖源:吳佳佑提供,基於AIGC 模型生成後微調

「AI 生成圖像在整體光影、結構以及色彩上的表現在我看來無可挑剔,但很多細節經不起推敲。」對擁有繪畫功底,又經常使用AI 工具的吳佳佑來說(他的交互式網站製作花費了四個月的時間,期間用AI 生成了數千張圖),目前AI 生成圖片迥異於人類的風格是顯而易見的。

「細節上經常出現色塊堆積,過度不自然和線條粗細變化不均勻這樣的問題。」吳佳佑拿著我給的幾張在推特上頗受好評的AI 生成圖像逐字句的點評起來,雖然只有大四,但他的口吻很自信。

圖源:吳佳佑提供,基於AIGC 模型生成後微調

對一個美術門外漢來說,這樣的細節(尤其你很多時候需要放大作品觀察)可能並不重要,但對專業人士來說,差別是顯著的。 「我給同學說了竅門後,大家不管有沒有美術功底,基本上都能看出來。AI 生成的圖像看不出繪製的前後順序,因為它背後沒有人類繪畫的基本邏輯支撐。」吳佳佑說。

問題的根源可能來自算法本身。目前的主流AIGC 工具都採用了diffusion model 擴散模型,它的訓練基於有文字描述的圖片數據,通過對圖片反复降噪,AI 學習如何生成符合文字描述的圖片。由於文字描述往往是整個圖片的內容,因此AI 深度學習的結果會對整體圖片結構和光影的把握比較良好,而相對的在細節上就會失準,因為這些細節往往缺乏文字描述,又相當複雜多變。

這可能是在日漫界最近熱炒的AI 三大畫圖難題的來歷。所謂三大難題,指的是目前的AI 模型不能完成的三種主題創作:薩菲羅斯游泳、樋口円香吃拉麵和哭泣的美少女吃蛋糕。 AI 模型在輸入相關指令後往往會生成讓人啼笑皆非的圖片。

圖源:Neil Shen 使用MidJourney 生成

其實AI 不能完成的創作遠不止這三種,比如如果你讓AI 生成游泳的三文魚,那它大概率給你的圖片將會是三文魚片而不是活蹦亂跳的魚。

圖源:Neil Shen 使用MidJourney 生成

AIGC 這些人類看來非常匪夷所思的錯誤同樣要歸因於算法,一旦給出的指令過於偏狹,比如日漫中較少表現的水中游泳動作,或者其畫面內容存在較為複雜多變的物理交互邏輯,比如「吃拉麵」圖像意味著同時處理人物、手指、麵條和筷子這幾個在AI 看來都屬於線條的內容時,AI 大概率會存在翻車的現象,因為訓練算法所用的樣本集可能較少涵蓋相關內容,而擴散模型對複雜細節線條交互變化的理解還相當初級。

但細節往往是決定畫家藝術風格和水平的決定性因素之一。插畫師元元是少見的迄今仍然堅持純手繪作圖的職業畫師,研究生畢業於清華美院的元元講述了科班美術生的結構、線條色彩和細節是如何被訓練的——因循著與AI 生成完全不同的邏輯。

圖源:維基百科《萬壑松風圖》 宋朝李唐繪

「老師會讓你以操場為主題畫十幅同樣的畫,一開始你會想要把每一條跑道線,按照透視、光影結構完整的畫出來,但到某一個時刻,你會想要去若隱若現地處理某些跑道線,有些留白,有些加重,有些乾脆去掉。」元元說,「很多時候畫家追尋的是這種主觀感受,作品生動不是說要畫的和真實世界一模一樣。」

繪畫的過程不僅考驗畫家個人的技巧(這部分AI 很好達到),畫家作為個人,他的感受,心境乃至成長歷程、教育背景等都發揮了影響,這些數據量之龐大都是AI 所無法計算的。更何況,對元元來說,真正的創作過程在於打破某些規則和邏輯,「國畫中很多時候鬆弛的閒閒一筆就是遠山,層雲。此處留白,彼處著墨,很多時候畫家自己下筆之前都不知道會發生什麼,AI 如何能知道?又如何計算出來?」

剝離所謂「低效率工作」意味著什麼?

AI 可以模仿的東西

就像對人工智能倫理的討論一樣,科技界對AIGC 內容對藝術性的衝擊的討論也經常是模棱兩可的。技術至上主義者(矽谷的一大部分人)幾乎迴避了有關藝術性的討論,對他們來說不斷而持續的精進深度學習算法才是重要的事情。隨著數據集和算法的優化,藝術性似乎同樣能被01 的字符所表達。

圖源:Google Imagen video 論文顯示AIGC 已經能夠製作梵高風格的圖像https://imagen.research.Google/video/paper.pdf

某種意義上他們成功了,甚至連谷歌最新推出的基於擴散算法的imagen video 模型在生成視頻方面都能夠模仿藝術家風格(比如一隻以梵高風格繪就的貓咪在吃東西),而使用AI 輔助創作在許多遊戲美術師的工作中已經是通行慣例。在多家大廠有過遊戲製作經驗的阿丁在談到AIGC 時頻繁提到一個詞——「餵圖」,意思是在遊戲人物形象設計的最初——尤其針對一閃而過的NPC 人物,美術設計會給AIGC 工具輸入很多參考圖學習,進而快速生成符合遊戲要求的結果。

「雖然還要經過後期的調整,但AI 現在確實已經取代人力開始承擔這部分的工作量了。」阿丁說,他們目前使用較多的工具是較為側重二次元風格訓練的novel AI ,它基於目前最火的stable diffusion 模型,數據集由500 多萬張帶有文本標記的圖片組成。

然而通過「餵圖」訓練的AIGC 模型充滿了爭議。 10 月7 日,推特用戶@BG_5you 基於剛過世的韓國著名漫畫家金政基作品使用Stable Diffusion 訓練出了金政基風格的繪畫模型,此舉引來的網友的如潮惡評,而緊接著10 月底,工程師Ogbogu Kalu 因為把迪士尼簽約畫師Hollie Mengert 的作品未經同意後抓取訓練出可以批量生成Mengert 畫風的模型再度衝上熱搜。

圖源:@BG_5you 使用模型生成的「金政基」風格作品

如果說前者網友一邊倒的批評尚主要基於對死者的尊重,後者則將AIGC 快速發展對現行插畫市場的衝擊鮮明地點了出來。要知道由於Hollie Mengert 簽約了迪士尼,甚至她本人都不能隨意發布自己的作品,而從畢業開始算起,她的畫風形成至少花費了十多年的時間,相比之下Ogbogu Kalu 訓練新模型的時間只有幾個小時,且成本幾乎為零。

圖源:左圖為Hollie Mengert 原創,右圖為Ogbogu Kalu 訓練的模型生成https://waxy.org/2022/11/invasive-diffusion-how-one-unwilling-illustrator-found-herself-turned-into-an-AI-model/

如果風格模仿是如此的輕而易舉,那麼畫家十數年的繪畫訓練有什麼意義?他們的商業價值又該被如何衡量?這樣的叩問出現在許多插畫師的心中。坦率地說,機器學習並不能準確模仿所有風格,但AIGC 目前的進化程度已經強到開始對許多領域產生衝擊。阿丁就直言,既然AIGC 已經能夠介入遊戲原畫和人物設計(「很多效果圖生成的精度比一般畫師高多了。」阿丁補充說),現在網上流行的美術外包中很多基礎工作很快就將被AI 替代。

畫師們對此不是沒有警惕,許多人在給自己作品標註「未經許可不得使用」的版權聲明之外,還會加上「禁止AI 學習」聲明,有些人則乾脆從公開平台撤掉自己的作品以防被抓取成為AI 學習的數據。在二次元繪畫發育最成熟的日本,「AI 學習禁止」已經成為了一個流行詞。

然而,對矽谷來說AI 風格遷移造成的爭議並不是他們考慮的首要問題,技術中立,更時髦的詞叫做AI 的民主化democratization of AI 是他們的信仰,AIGC 技術潛在的巨大商業前景才是真正重要的。根據彭博社的報導,投資了stability AI 的Lightspeed 合夥人Gaurav Gupta 直言不諱地表示,AIGC 技術根本性地賦予了人們更多的權力,同時讓「低效率inefficiency」工作從內容創作中剝離。

「只要AIGC 生成內容滿足質量要求,我不介意全面使用它。」

AI 將替代誰?

Gaurav Gupta 的表態幾乎是在明示AIGC 生成技術對現有繪畫市場的顛覆性衝擊。如果我們把繪畫市場簡單分為商業繪畫和藝術繪畫兩部分的話,前者顯然會更直接受到影響。

對於這個問題,在某遊戲工作室擔任原畫師的劉紀揚表現的很輕鬆,「許多人說它做出來的東西冰冷,我沒那麼矯情,我就覺得它弄得挺好的,構圖顏色都好。更深的內容AI 目前還做不了,但我覺得它給我們設計師和美術師的前期工作提供了許多思路參考。」劉紀揚說到。

圖源:受訪者劉紀揚提供

在劉紀揚看來,儘管AIGC 內容在遊戲策劃的最初階段能夠輔佐策劃更好的表達想要的遊戲效果,但它尚不能介入遊戲原畫師更高階和精確的工作。 「我們的設計,越到後期要求越精確、細緻,AI 只能粗疏的在需求非常模糊的時候一次性生成許多選擇,但當方向明確的時候,AI 還無法勝任規模化的遊戲設計場景。」

圖源:受訪者劉紀揚提供

相比之下阿丁的看法有所不同:「AIGC 生成的高精度的圖片不僅可以應用於前期策劃,在遊戲的人物設計和場景設計中都將擁有廣泛的前景,與之相伴的就是大量腰部以下插畫師會失去工作,目前阻擋大規模使用的其實是潛在的法律風險,而不是生成內容的質量本身。」

不只是遊戲的前期策劃,泛化的商業繪畫領域,從影視美術、網站設計乃至圖書製作,現有的AIGC 技術在描繪大場景、特定繪畫風格和精細度效果上均有優勢,更不必說其成本低、速度快,且不會被題材、風格乃至數量局限的特點。儘管存在類似「游泳三文魚」這樣的問題,但毋庸諱言商業繪畫這個過去只能依靠人力的創意市場迎來了最強勁競爭者,首當其衝受衝擊的將是對精度和創意要求不那麼高的細分領域。

「說實話,只要AIGC 生成內容滿足質量要求,我是不介意全面使用它,因為真的會節省許多成本。」某一線時尚雜誌的執行主編在被問及對AIGC 內容看法時說到。對時尚雜誌來說,拍攝大片時產生的置景、燈光、場地成本是一筆不菲的開支,而大片的製作過程往往還受到時間、空間以及人員因素的限制。 AIGC 生成技術從根本上解決這些困難,同時還能極大拓展視覺語言的豐富程度——「要是AI 足夠強大,我一個人就能製作一本雜誌了不是嗎?」實際上,今年美國版《Cosmopolitan》已經使用MidJourney 製作了一期封面。

圖源:Cosmopolitan 官方網站https://www.cosmopolitan.com/lifestyle/a40314356/dall-e-2-artificial-intelligence-cover/

中國人說「興之所至」,可AI 根本無法「起興」,又能「至」去何處?

AI 有創造性嗎?

如果說對商業繪畫領域AIGC 的潛在顛覆性毋庸置疑,那麼在藝術繪畫領域這個問題就充滿了爭議。

「如果你水平好的話是永遠不可能被替代的。」這是許多人強調的論點。儘管AI 可以惟妙惟肖的模仿風格,但它不理解圖像背後所代表的含義,換言之,AI 不具備真正的創造力。

這不是說AIGC 完全沒有任何創造力,Deepmind 的創始人,當代人工智能領軍人物Demis Hassabis 曾在Lex Fridman 的訪談中表示,AI 的創造力可以讓它通過看數百萬張貓的照片來「創造」一隻普通的貓,但人類目前還不能把高層次的抽象概念(比如發明象棋規則,而不是教AI 學會下象棋)用算法準確地表示。

從這個意義上說,探討AIGC 的藝術性甚至顯得有些滑稽。被問及AI 的藝術性時,藝術留學機構創始人Evan 迅速就給出否定回答,他所在的藝術留學機構每年向全世界頂尖藝術學府輸送大批學生,AIGC 領域是他們關注的重點之一。 「我們學生提交的申請作品主體是不建議過度使用有AIGC 創作內容的。」Evan 說到。在他看來,藝術品的價值來自於背後的感染力,這種感染力只能來自人,相比之下,AI 作品太過「冷靜」、「匠氣」。 「我可以感受到它每個部分的精巧,但它的靈魂是不統一的,它不夠動人。」

圖源:維基百科蘇軾《寒食帖》被譽為天下第三行書無論線條、留白或造型變化均極富風格韻味。

藝術創作的立意和技法都服務於人本身的思緒脈絡,「只要是稍微成熟點的藝術家,他的創作都是精準的。」 對Evan 來說,真正突破和創造性的偉大藝術作品,永遠不會拘泥於既有數據的窠臼,沒有人的主觀能動,AI 作品精巧而平庸。

在自己專欄中大量使用生成圖片配圖的自由撰稿人小溫對此有個精妙比喻:有一類作品創作出來不用寫註釋,因為作品本身足夠牛;另一類則必須要寫註釋,否則大家不知道看的是什麼;但最糟糕的作品就是有沒有註釋都無所謂,因為作品本身不夠好,而文字註釋也不夠重要。 AI 生成作品正屬於此類。

「AI 依靠算法以結果生成結果,但人的創造過程最革命性的東西,嘗試和試錯,打破規則和重塑規則在這個過程中被根本忽略掉了,中國人說’興之所至’,可AI 根本無法’起興’,又能’至’去何處?」小溫補充道。

總的來說,AIGC 在藝術領域的實踐目前來看更像是一件精準執行的工具,它可以產出精確的結果,前提是人本身已經有了創意的框架。正如文章一開頭提到的吳佳佑,很難想像如果沒有AIGC 工具的幫助,他的交互網站所需要的幾千張圖片該如何獲得。而在國外,資深的AI 生成愛好者已經開始運營AI 製作電影——除了主創本人的配音,從語言腳本、鏡頭畫面到音效都將運用AIGC 模型來完成。

圖源:吳佳佑提供,基於AIGC 模型生成後微調

AIGC 的確實極大降低了人們的創作門檻,沒有經過技法訓練的人現在僅憑自己的想法就能方便創造屬於自己的作品,在未來這將重塑人們認知藝術的維度,它的革命性就好像照相機之於油畫,在央美藝術史博士小楊看來,這同樣有一個漸進的過程。 「新工具的出現總會帶來對藝術本質理解的新思考,這在歷史上已經發生了不止一次,相比於藝術技術的革新,藝術理論總是相對滯後的。」

話雖如此,小楊之前並沒有親自嘗試過AIGC 工具,對於網絡上充斥著的AIGC 生成圖片內容,她從專業角度以「Discord」三個字概括。在推薦下小楊第一次使用MidJourney,選擇Gothic letters (哥特式字母)和她名字拼音的縮寫作為關鍵詞,由於服務器不穩定,MidJourney 一口氣返回了三組共12 張圖片,小楊看了之後說,這種水平還不如我從隨便哪個中世紀手抄本里剪切來的方便和好看呢。

圖源:MidJourney 生成圖片

這段話彷彿可以當做對目前AIGC 與藝術關係的註腳。

隨著算法的發展,AIGC 進化速度只會加速而不會減慢,它不僅將對繪畫相關領域產生重大影響,在交互設計、實驗藝術乃至未來的元宇宙社交場景中,AIGC 可預見的都將扮演重要角色。

在介紹完自己的交互式網站後吳佳佑告訴我,剛和英國皇家藝術學院的老師聊完他的作品,錄取的可能性很大,而他的專業information experience design 細分方向之一就叫moving image design 動態圖像設計,這聽上去就像是專門為AIGC 準備的一條賽道。

而這究竟是AIGC 技術的勝利,還是人的勝利呢?

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts