2023年,,估計沒有比「AIGC」更熱的話題了。
一款叫ChatGPT的聊天機器人程序在全網爆火,,迭代速度更是呈指數級發(fā)展,,由此引發(fā)了全球對于 AIGC技術及其話題的熱議。此后,,多個科技巨頭持續(xù)加碼布局,,AI繪畫、AI語音智能生成等AIGC產品集中發(fā)布,,可以預見的是,,數字內容產業(yè)的技術革命已近在眼前,未來內容領域的作業(yè)模式將進一步向“工業(yè)化”時代邁進,。面對數字世界和物理世界加速融合帶來的海量數字內容需求,,AIGC作為一種新型的內容生產方式,將為內容生產領域帶來巨大變革,。
數字內容產業(yè)又稱內容產業(yè),、信息內容產業(yè)、文化創(chuàng)意產業(yè),,該產業(yè)是信息技術與文化創(chuàng)意高度融合的產業(yè)形態(tài),,并非傳統(tǒng)意義上的獨立產業(yè),,而是由多個細分領域交叉融合而成的一個龐大產業(yè)集群。這些細分領域雖然邊界模糊,,領域之間存在交叉滲透,,但其共同點都是以數字內容為核心,涵蓋了文字,、圖片,、聲音、視頻,、可交互的圖形圖像等多種載體形式,。綜合來看,數字內容產業(yè)既是科技與文化融合的未來產業(yè),,也是接地氣,、聚人氣的“溫度”產業(yè),還是生生不息,、引領潮流的“新潮”產業(yè),,具有巨大的產業(yè)爆發(fā)力和社會影響力。
近年來,,隨著數字經濟的蓬勃發(fā)展,,以數字技術為載體的內容產業(yè)高速增長,創(chuàng)造出了巨大的經濟社會價值,,逐漸成為當今社會發(fā)展中的重要產業(yè)之一,。據Research and Markets預測,2020—2024年,,全球數字內容市場將增長5198.3億美元(約35855.27億元),,其間年復合增長率達15%。同時,,各行業(yè)數字內容消費需求的井噴式增長,,推動了創(chuàng)作者經濟的蓬勃發(fā)展,過去兩年,,超過1.65億創(chuàng)作者加入了創(chuàng)作者經濟,,目前全球的創(chuàng)作者數量達到3.03億,數字內容產業(yè)迎來巨大的市場空間,。
隨著數字經濟與實體經濟融合程度不斷加深,,人類對于數字內容總量和形式的要求不斷提高,各行業(yè)衍生了海量數字內容需求,,并且內容的形態(tài)著朝向三維化,、交互化、沉浸式演進,。
縱觀整個數字內容生產方式的發(fā)展歷程,,內容消耗與供給的缺口是生產方式演進的直接動因,。從Web1.0時代的PGC到Web2.0時代的UGC,當前,,內容生產方式正朝向PGC,、UGC、AIGC“人-機”協同生產進化,。
Web1.0時代: PGC(專業(yè)生成內容)為主,,以平臺創(chuàng)造、平臺所有為主要特征,,內容質量高,但受制于專業(yè)人力資源的供給側限制,,創(chuàng)作門檻高,、生產周期長、制作成本高,、內容傳播具有單向性,,難以滿足大規(guī)模內容需求。
Web2.0時代:UGC(用戶生成內容)為主,,雖然降低了生產成本及中心化程度,,內容豐富性提升,在一定程度上解決PGC產能瓶頸,,但內容質量難以保證,,內容傳播仍以單向性為主,優(yōu)質內容存在巨大供需缺口,。
Web3.0時代:PGC,、UGC、AIGC“人-機”協同生產,。在數字經濟及元宇宙時代,, PGC、UGC的生產方式難以滿足井噴式的數字內容需求,。同時,,隨著虛擬現實、增強現實,、數字孿生等新形態(tài)內容生產及消費需求激增,,傳播轉向雙向互動,內容的創(chuàng)作門檻和成本顯著增高,。AIGC基于人工智能技術生成內容, 能夠兼顧內容產能和質量,,同時還可以定制風格,滿足個性化需求,,三種創(chuàng)作方式協同生產,,有助于彌合優(yōu)質數字內容供需鴻溝,,打造新的數字內容生成和交互形態(tài)。
受內容需求牽引,,當前,,AIGC已經從概念走向現實,在文本生成,、繪畫生成,、音樂生成等方面有大量應用問世。例如,,在文本生成方面,,Jasper 以“AI 文字生成”為主打產品,用戶可以基于其輕松生成 Instagram 標題,,完成編寫 TikTok 視頻腳本,、廣告營銷文本、電子郵件內容等略復雜的重復性工作,;在繪畫生成方面,,借助AI繪圖工具Midjourney完成的《太空歌劇院》畫作在美國科羅拉多州博覽會藝術比賽中獲得一等獎;在音樂生成方面,,索尼計算機科學實驗室(CSL)發(fā)布的AI輔助音樂制作應用程序Flow Machines Mobile,,利用AI技術輔助音樂制作,能夠根據創(chuàng)作者選擇的風格提示旋律,、和弦和貝斯線生成音樂,。
數字內容產業(yè)是最典型的技術密集、知識密集產業(yè),,也是一種勞動密集型產業(yè),。AIGC主要以技術嵌入工具軟件的方式幫助數字內容產業(yè)大大提升生產效率,通過強大的AI生成能力廣泛服務內容生產的各類場景和內容生產者,,將在內容生產中產生變革性影響,。
從市場規(guī)模來看,AIGC目前處于落地初期,,但已經顯現出巨大的市場發(fā)展?jié)摿?,未來將進一步釋放其價值。據Gartner預測,,在未來2-5年內,,生成式AI將實現規(guī)模化應用,;到2025年,,AI生成數據占比將達到10%。此外,,據紅杉資本《Generative AI:A Creative New World》分析,,AIGC有潛力產生數萬億美元的經濟價值,。
從內容模態(tài)來看,最初,,AIGC可生成的內容形式以文字為主,。但經過2022年指數級的發(fā)展增速,AIGC技術可生成的內容形式已經拓展到了包括文字,、代碼,、圖片、聲音,、視頻等多種內容形式,。但是結合產業(yè)實際,如AIGC想要在制造業(yè),、建筑業(yè),、醫(yī)療等巨型垂直實體領域中得到廣泛應用,其生產的內容就不能僅停留在圖片和文字領域,,而是需要進入信息更為豐富的3D內容生產領域,多模態(tài)3D內容生產是大勢所趨,。例如,,在醫(yī)療領域,3D內容能夠清晰的展示出真實器官的內部復雜結構,,幫助醫(yī)生更直觀,、更深入地了解病灶與周圍組織的空間位置關系,還可以根據需求進行交互操作,,拆解展示組織,、器官、肌肉或骨骼的細節(jié),,有效降低診療及人才培育的試錯成本,。
從發(fā)展階段來看,紅杉資本曾在2022年9月對 AIGC 做出了以下預測:文字類 AI 生成將在 2023 年進入黃金時期,,圖片類 AI 生成黃金時期將在 2025 年左右抵達,,3D 和視頻類 AI 生成在 2023 年可能正處于草稿階段,進入黃金時期或許在 2030 年,。不可否認,,文字與圖片的 AI 生成確實走在了前面,但 3D 數字內容生成作為未來趨勢,,也已經開始有廠商進行探索,。
事實上3D內容以其獨一無二的優(yōu)勢長期存在于數字內容世界,3D?視覺是人類的本能,,3D數字內容所攜帶的光,、影,、材質、幾何等多維度信息,,能夠帶來遠超2D內容的感官體驗和交互體驗,,3D內容在展現事物結構、人機交互等多種領域表現極其出色,,越是復雜多維的領域,,它相較于其他形式的內容,就表現的越好,,未來如果要生成可以精準表達設計的成果,,需要向3D和更高信息維度去邁進。
盡管用戶對于3D內容的需求從未改變,,只是因其生產效率低下和展示終端的限制緣故,,3D內容一直未能像2D內容那樣被大規(guī)模應用。不是內容生產者不想使用3D內容,,而是當下3D內容生產面臨技術門檻高,、生產周期長和成本高等問題,生產的質量和效率亟待提升,。
隨著數字經濟的不斷發(fā)展及技術的不斷演進, 3D數字內容將迎來增長拐點,。據頭豹研究院數據顯示,預計2025年VR內容市場規(guī)模將達到832.7億元,。根據調研機構MarketsandMarkets預測,,預計2027年全球數字孿生市場規(guī)模將增長到735億美元。未來5年,,僅這兩個關聯市場的內容需求量就已十分驚人,。急速上升的3D數字內容需求,唯有通過生產力的躍升才能得以滿足,,我們堅信AIGC將會為3D內容生產大規(guī)模解放生產力,,而且未來也定會成為元宇宙內容基建的最好助手。接下來,,AIGC需要重點攻破的就是視頻與實時3D內容了,。
3D AIGC的技術支撐是“AI”,生成的AIGC屬于“內容與場景”,,背后還需要“后端基建(算力)”,、“底層架構(渲染引擎)”的支撐。
技術的進步離不開業(yè)內企業(yè)的積極推動,,一些優(yōu)秀公司在這方面的探索已經悄然走在了世界前列,具備了很多的底層技術基礎、場景基礎和數據基礎,。
在算力方面,,隨著生成式AI應用創(chuàng)新周期的到來,以微軟,、谷歌為代表的科技巨頭拉開了大模型訓練的序幕,,算力需求迎來確定性爆發(fā)增長。據業(yè)內人士分析,,ChatGPT需要TB級的運算訓練庫,,甚至是P-Flops級的算力。半導體行業(yè)資訊機構SemiAnalysis估算,,以GPU衡量,,ChatGPT訓練需要約3617臺英偉達HGX A100服務器,也就是28936塊A100,。不同形態(tài)內容智能生產中模型訓練面臨的任務復雜度有所不同,,那么未來3D AIGC勢必帶來更高體量的算力需求。在2022年英偉達GTC大會上,,黃仁勛多次提及“下一個時代的AI”,,并且推出采用Hopper架構的新一代加速計算平臺,同時發(fā)布了首款基于Hopper架構的的NVIDIA H100 Tensor Core GPU,,展現出英偉達對于算力的領先布局,。
該GPU結合 NVIDIA® NVLink® Switch 系統(tǒng),可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,,另外可通過專用的 Transformer 引擎來處理萬億參數語言模型,進一步拉大了與追趕者的差距,。此外,,英偉達已經推出了AI云服務產品,允許客戶在云端訪問其DGX AI超級計算機,。從其商業(yè)動作來看,,英偉達全面聚焦AI算力產業(yè)革命, 從2016年前后的GPU并行計算架構,,到如今完成硬件,、軟件、平臺,、應用層的全面部署,,英偉達押注AI多年獲得豐厚回報,其市值在2023年初兩個月內增長超過 2100 億美元,。隨著3D AIGC的發(fā)展,,其市場潛力將得到進一步釋放。
除算力外,渲染引擎也是支撐3D AIGC發(fā)展的關鍵技術,。數字內容生產軟件是圖形,、圖像、交互等領域復雜知識的代碼化沉淀,,其底層算法引擎技術積累需要非常長的時間,,這是一個進入壁壘很高、對開發(fā)周期,、資金要求很高的高科技賽道,,不僅開發(fā)難,驗證和跑通也很難,,只是做一個 Demo,,并不能證明一款引擎的能力和通用特性,需要經過很長時間的驗證和算法優(yōu)化,。
值得一提的是,,國內一家名為艾迪普的公司,在這方面已經擁有了深厚的技術儲備,,并且已經開始在3D AIGC領域進行深度布局,,持續(xù)圍繞實時三維圖形圖像領域進行AI技術研發(fā)和探索。
目前,,艾迪普已經研發(fā)出完全自主知識產權的實時三維圖形圖像引擎,、數字內容生產全鏈路工具集和3D數字資產云平臺,能夠很好的滿足從三維設計,、快編包裝,、虛擬合成、實時交互到可視化呈現的數字內容多樣化的制作需求,,可以廣泛的應用于虛擬現實,、增強現實、虛擬仿真,、數字孿生,、大數據可視化等領域。
圖片來源于《2023·愛分析元宇宙廠商全景報告》
艾迪普通過將自研引擎的核心能力進行封裝,,針對不同行業(yè)領域,、應用場景及應用開發(fā)需求,抽取了2000+算法模組,,這些基礎功能的算法模組,,可以結合不同行業(yè)客戶的業(yè)務應用場景,像“搭積木”一樣高效組合成更多的AI應用,,實現智能化的數字內容生產,。據悉,,其已經在旗下自研的數字內容生產工具中引入AIGC技術,實現了AI數字人融合,、天氣預報視頻智能生成,、2D轉3D、音樂卡點等功能,,并通過無代碼編程方式快速創(chuàng)作出交互式的3D內容,,這將大大推動3D內容生產朝著更高效和更富創(chuàng)造力的方向發(fā)展。
數字人視頻:其推出的iClip實時三維圖形快編包裝工具基于深度學習,、自然語言處理,、計算機圖形學、語音合成,、圖像合成,、肢體動作合成等技術,能夠快速生成形象逼真,、能說會動的3D數字人創(chuàng)意短視頻,。同時,通過3D數字人與數字場景,、三維模型,、圖文動畫、動態(tài)特效進行深度融合,,能夠極大增強數字人在不同應用場景中對客戶進行內容,、產品的服務能力,適配資訊播報,、電商帶貨,、賽事解說、泛知識講解等多元場景應用需求,。
氣象播報視頻:其研發(fā)的氣象短視頻生成工具作則能夠實時接入外部天氣數據,,結合數字人形象,用戶只需通過簡單技術指令,,即可一鍵自動生成不同城市、不同天氣狀況,、不同虛擬場景,、不同AR前景、不同數字人角色的3D氣象高質量播報視頻,,可以大幅降低新形態(tài)播報內容的制作周期和成本,。
氣象播報視頻,圖片來源于艾迪普公開信息
2D轉3D:傳統(tǒng)的3D模型制作需要經過原畫,、建模,、UV拆分、烘焙貼圖、繪制材質,、渲染等多個環(huán)節(jié),,艾迪普的iArtist實時三維可視化創(chuàng)作工具基于智能算法,在2D圖像輸入時自動進行深度預估和幾何捕捉,,實現?2D?平面內容到?3D?立體模型的實時智能化生成,,模型生成后,創(chuàng)作者可以根據需求,,在工具中對模型進行自由編輯和精細調整,,能夠極大減少建模所需時間。
音樂卡點:艾迪普的iClip實時三維圖形快編包裝工具,,還可以基于算法構建音樂分析模型,,通過波形分析自動標記音頻節(jié)奏點。未來,,該功能有望基于多模態(tài)訓練框架,,結合數字圖形資產云平臺,實現音頻,、圖片,、視頻之間的跨模態(tài)內容檢索、精確匹配和自動生成,,大幅提高視頻創(chuàng)作效率,。
社會又一次來到了新的發(fā)展節(jié)點,轉型窗口期已經悄然開啟,。每一輪產業(yè)和技術升級,,必定會出現一系列全新的“現象級應用”。雖然目前AIGC還處于發(fā)展初期,,但隨著人工智能技術的持續(xù)發(fā)展,,數字內容生產力將進一步得到釋放,融合文字,、圖片,、音頻、視頻,、虛擬場景,、3D模型等多模態(tài)的數字內容生產終將成為現實,我們的工作與生活場景,,也將迎來顛覆性的改變,,我們共同期待這一天的早日到來。
文章轉載自量子位