以太幣交易所 以太幣交易所
Ctrl+D 以太幣交易所
ads
首頁 > 區塊鏈 > Info

AIGC 困局與 Web3 破圈之道_AIG

Author:

Time:1900/1/1 0:00:00

撰文:wheart.eth

圖片來源:由無界版圖AI工具生成

最近一年,隨著AIGC技術的發展壯大,越來越多的人感受到了它的恐怖之處。AI降低了創作門檻,使每個普通人都有機會展現自己的創造力,做出不輸專業水平的作品。但是就在全民AI作圖的進程中,藝術家好像與其站在了對立面。

以StableDiffusion和Midjourney?為代表的業內巨頭經常受到藝術家們的集體抵制!究其原因無非兩點:一是這些模型在未經允許的情況下使用藝術家的作品進行訓練,做出的圖片與藝術家風格極其類似,涉嫌侵權;二是某些傳統藝術家認為,AI只是對圖片進行簡單的拼接,不能算是藝術,它的濫用導致藝術市場震蕩,出現“劣幣驅逐良幣”的現象。

綜合來看,現在的AIGC市場就像一個懷揣著炸彈的巨人,外表看過去非常強大,但是內部有尚未解決的致命威脅,如果這個威脅不解除,行業發展終究受限,本文將詳細聊聊出現這種情況的前因后果,并給出可能的解決方案。

最近越來越多的畫家發現,StableDiffusion等AIGC模型使用的數據集里有自己的作品,并且這里不乏作者經過數十年的摸索形成的具有自己獨特的風格畫作,現在人們可以利用AI幾秒鐘生成相同風格的內容,這對藝術家來說顯然是不公平的。

這引發了藝術家非常嚴重的擔憂:他們自己的藝術正在被用來訓練一個有朝一日可能會影響他們生計的計算機程序。更急迫的是,任何使用StableDiffusion或DALL-E等系統生成圖像的人都擁有對生成圖像的版權和所有權。一位插畫師對此解釋道:人們會使用AI生成圖書封面、文章插圖等內容,這將威脅他們的生計,畢竟站在購買者視角,當你可以免費在1000張圖里挑來挑去時,為什么要付1000美元給創作者?況且這些都是在藝術家不知情的情況下進行的。

對于這個問題,StabilityAI創始人兼首席執行官EmadMostaque表示,藝術只是StableDiffusion背后的LAION訓練數據的一小部分,藝術類圖片占數據集的比例遠低于0.1%,并且只有在用戶選擇調用時才會創建。但是一些搜索工具收集的數據表明,在世藝術家的很多畫作都在數據集之中,幾千張畫作的情況并不少見。

美國法官稱“澳本聰”Craig Wright未能正確提供與比特幣所有權相關的信息:金色財經報道,美國法官Bruce Reinhart在周五公布的裁決中表示,自稱是比特幣創始人的“澳本聰”Craig Wright已經在法庭訴訟中出示了“初步證據”,證明他未能正確提供與價值1.43億美元的比特幣所有權相關的信息,因此存在蔑視法庭行為。法官表示,Wright“拒絕在表格中提供有關其配偶及其資產的基本信息”。[2023/5/6 14:45:50]

技術是原罪?

這個問題的出現不是偶然,而是必然,也是AI發展無法繞開的問題,要想詳細了解緣由,我們或許可以通過AIGC技術原理與發展路徑窺探一二。

AIGC是利用人工智能技術來生成內容。2021年之前,AIGC生成的主要還是文字,而新一代模型可以處理的格式內容包括:文字、聲音、圖像、視頻、動作等等。AIGC被認為是繼專業生產內容、用戶生產內容之后的新型內容創作方式,可以在創意、表現力、迭代、傳播、個性化等方面,充分發揮技術優勢。2022年AIGC發展速度驚人,年初還處于技藝生疏階段,幾個月之后就達到專業級別,足以以假亂真。

2014年提出的“對抗生成網絡”GAN。

GAN的基本原理其實非常簡單,這里以生成圖片為例進行說明。假設我們有兩個網絡,G和D。正如它的名字所暗示的那樣,G是一個生成圖片的網絡,它接收一個隨機的噪聲z,通過這個噪聲生成圖片,記做G(z)。D是一個判別網絡,判別一張圖片是不是“真實的”。它的輸入參數是x,x代表一張圖片,輸出D(x)代表x為真實圖片的概率,如果為1,就代表100%是真實的圖片,而輸出為0,就代表不可能是真實的圖片。在訓練過程中,生成網絡G的目標就是盡量生成真實的圖片去欺騙判別網絡D。而D的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G和D構成了一個動態的“博弈過程”。最后博弈的結果是什么?在最理想的狀態下,G可以生成足以“以假亂真”的圖片G(z)。對于D來說,它難以判定G生成的圖片究竟是不是真實的,因此D(G(z))=0.5。

DigiDaigaku:將推出比特幣Original NFT,將于5月1日進行快照:4月30日消息,據官方推特,NFT項目DigiDaigaku宣布將推出比特幣Original NFT,DigiDaigaku Genesis持有者將免費或比特幣NFT DigiDaigaku Chibi,預計將于5月1日在以太坊區塊高度1714466進行快照,DigiDaigaku提醒用戶需要確保Genesis NFT在熱錢包中,而不是像Safe這樣的多簽錢包。據悉,Chibi Genesis系列將是DigiDaigaku公司Limit Break首次涉足比特幣NFT。[2023/4/30 14:35:16]

這樣我們的目的就達成了:我們得到了一個生成式的模型G,它可以用來生成圖片。

但是GAN有三個不足:一是對輸出結果的控制力較弱,容易產生隨機圖像;二是生成的圖像分別率較低;三是由于GAN需要用判別器來判斷生產的圖像是否與其他圖像屬于同一類別,這就導致生成的圖像是對現有作品的模仿,而非創新。因此依托GAN模型難以創作出新圖像,也不能通過文字提示生成新圖像。

GAN技術原理

在2021年,OpenAI團隊將跨模態深度學習模型CLIP進行開源。CLIP模型能夠將文字和圖像進行關聯,首先收集4億未清洗的圖像+文本pair的數據集,進行預訓練以完成任務。用對比學習目標進行訓練:分別對圖像和文本編碼,然后兩兩計算cosine相似度,再針對每個圖片的一行或文本的一列進行分類,找出匹配的正例。每個圖像都有32,768個文本候選,是SimCLR的兩倍,負例個數的增多也是效果好的原因之一。在預測時也很簡單,找一個圖像分類的數據集,把label轉為自然語言,比如“狗”可以轉為“一張狗的照片”。再用預訓練好的編碼器對label和圖像編碼,再去計算相似度即可。

算法的總體過程可以總結為:輸入圖片,預測在??32768個隨機采樣的文本片段集中,哪一個實際上與數據集配對。因為是文本描述不是具體的類別,所以可以在各種圖像分類任務上進行zero-shot,其中Zero-Shot是一種遷移學習,描述一只斑馬,可以用“馬的輪廓+虎的皮毛+熊貓的黑白”,生成新的類別,普通的有監督分類器都可以將馬、老虎、熊貓的圖片正確分類,但遇到沒有學習過的斑馬的照片卻無法分類,但是斑馬卻和已分類的圖像有共同點,可以推理出這一新的類別。

Craig Wright稱有人可以證明他是中本聰:金色財經報道,自稱是比特幣(BTC?)的創造者中本聰的澳大利亞計算機科學家Craig Wright最近表示,人們可以證明他確實是那個神秘人物。

在最近接受澳大利亞電視節目采訪時,當被問及他是否確實是比特幣白皮書的筆名作者時,Wright堅稱有人認識他,也可以確認他確實是中本聰。

Wright沒有透露這些可以證明他身份的人是誰或在哪里,但他用他的話說,作為比特幣創始人“實際上讓生活變得更加艱難,而且他的動機不是金錢或名望。[2022/8/9 12:12:47]

所以思路就是:設置類別更細粒度的屬性,以建立測試集與訓練集之間的聯系。比如將馬的特征向量轉換到語義空間,每一維代表一個類別的描述,,熊貓就是,這樣定義一個斑馬的向量,通過對比輸入圖片的向量與斑馬向量之間的相似度就可以進行判別。

因此,CLIP模型具備兩個優勢:一方面同時進行自然語言理解和計算機視覺分析,實現圖像和文本匹配。另一方面為了有足夠多標記好的“文本-圖像”進行訓練,CLIP模型廣泛利用互聯網上的圖片,這些圖片一般都帶有各種文本描述,成為CLIP天然的訓練樣本。據統計,CLIP模型搜集了網絡上超過40億個“文本-圖像”訓練數據,這為后續AIGC尤其是輸入文本生成圖像/視頻應用的落地奠定了基礎。

CLIP技術原理圖

隨后出現的Diffusion擴散模型,則真正讓文本生成圖像的AIGC應用為大眾所熟知,也是2022年下半年StableDiffusion應用的重要技術內核。

擴散模型的靈感來自于非平衡熱力學。定義了一個擴散步驟的馬爾可夫鏈,慢慢地向真實數據中添加隨機噪聲,然后學習反向擴散過程,從噪聲中構建所需的數據樣本。

DiffusionModels技術原理圖

前向過程是不斷加噪的過程,加入的噪聲隨著時間步增加增多,根據馬爾可夫定理,加噪后的這一時刻與前一時刻的相關性最高也與要加的噪音有關

動態 | Blockstream聯合創始人證實向Craig Wright提供了技術援助:據bitcoinexchangeguide報道,Blockstream的聯合創始人Gregory Maxwell證實,他確實給Craig Wright發了一封電子郵件,并向他提供技術援助。電子郵件的部分內容為:“如果你在BCH的影響力以任何方式減少,我認為這對我的利益是不利的。我不知道如何幫助修復這種情況,但在我看來,至少提供謹慎的幫助是明智的。”[2018/11/14]

逆向過程是從一個隨機噪聲開始,逐步還原成不帶噪音的原始圖片——去噪并實時生成數據。這里我們需要知道全部的數據集,所以需要學習一個神經網絡模型來近似這些條件概率,來運行反向擴散過程。

DiffusionModels逆向過程

Diffusion模型有兩個特點:一方面,給圖像增加高斯噪聲,通過破壞訓練數據來學習,然后找出如何逆轉這種噪聲過程以恢復原始圖像。經過訓練,該模型可以從隨機輸入中合成新的數據。另一方面,StableDiffusion把模型的計算空間從像素空間經過數學變換,降維到一個可能性空間的低維空間里,這一轉化大幅降低了計算量和計算時間,使得模型訓練效率大大提高。這算法模式的創新直接推動了AIGC技術的突破性進展。

AIGC相關深度學習模型匯總

漏洞!

通過以上算法簡介大家也可以明白,AIGC本質上就是機器學習,既然是這樣,那就無法避免使用大量的數據集執行訓練,在這之中確實存在損害圖片版權者的利益。

雖然我們都知道這種情況的存在,但是仍然很難解決。

對于藝術家來說,雖然認為這些平臺侵害了自己的權益,但是現在仍沒有完善的法律規定此類侵權行為,甚至在某些法律條文中,這種行為是合法的。

一方面,AIGC難以被稱為“作者”。著作權法一般規定,作者只能是自然人、法人或非法人組織,很顯然AIGC不是被法律所認可的權利主體,因此不能成為著作權的主體。但AIGC應用對生成的圖片版權問題持有不同觀點,圖片屬于平臺、完全開源還是生成者,目前尚未形成統一意見。

聲音 | Craig Wright:比特幣提供了監督政府支出并追究其責任的方法:nChain首席科學家Craig Wright發推特稱,比特幣作為一種透明的、不可改變的分布式賬簿,提供了監督和報告所有政府支出并追究其責任的方法。[2018/9/13]

另一方面,AIGC產生的“作品”尚存爭議。傳統意義上的作品是指文學、藝術和科學領域內具有獨創性并能以某種有形形式復制的智力成果。AIGC的作品具有較強的隨機性和算法主導性,能夠準確證明AIGC作品侵權的可能性較低。同時,AIGC是否具有獨創性目前難以一概而論,個案差異較大。

即使現在把自己的作品從數據集中刪除也無法阻止自己風格作品的生成,首先,AI模型已經過訓練,對應風格已經掌握。而且,由于OpenAI的CLIP模型,用戶仍然可以調用特定的藝術風格。

對于AI項目方來說,讓數據集每張圖片都得到授權是不現實的,如果此類法案通過,那么AI行業的發展將受到很大的阻礙,或許是滅頂之災。所以我們需要一個折中的方案。

方案?

首先我們來分析一下AIGC行程的創作閉環:

在創意構思方面,AIGC構建了新的創意完善通路,傳統的創作過程中消化、理解以及重復性工作將有望交由AIGC來完成,最終創意過程將變為“創意-AI-創作”的模式。

在創意實現方面,創作者和AIGC的關系類似于攝影師和照相機。攝影師構建拍攝思路并進行規劃,對相機進行參數配置,但是不用了解相機的工作機制,一鍵生成高質量的內容。同樣的,創作者構思并進行規劃,對AI模型進行參數配置,不需要了解模型的原理,直接點擊輸出內容即可。創意和實現呈現出分離狀態,實現過程變為一種可重復勞動,可以由AIGC來完成,并逐步將成本推向趨近于0。

所以這里有兩個大主體:創作者和AIGC。創意重要,創作同樣也重要,AI做出的圖片是創作者的“創意版權”,是AIGC或者說采用藝術家風格的“底層創意/創作版權”,兩者都應該對生成內容享有權益,現在的情況就是少了藝術家的那份收益。

其實藝術家并不是不讓AI學習他們的畫作,只是也想在其中得到相應的收益,所以只要這份設計得到藝術家的承認,AIGC的漏洞就得以修復。

創作者的成果是AIGC學習的對象,但創作者的創意才是關鍵,創意本身比AIGC生成的繪畫更有價值,因此如何將創作者的“創意”進行量化,甚至定價,將有助于打造AIGC的商業模式。這其中“注意力機制”將成為AIGC潛在的量化載體。例如有機構專家提出,可以通過計算輸入文本中關鍵詞影響的繪畫面積和強度,我們就可以量化各個關鍵詞的貢獻度。之后根據一次生成費用與藝術家貢獻比例,就可以得到創作者生成的價值。最后在與平臺按比例分成,就是創作者理論上因貢獻創意產生的收益。

例如某AIGC平臺一周內生成數十萬張作品,涉及這位創作者關鍵詞的作品有30000張,平均每張貢獻度為0.3,每張AIGC繪畫成本為0.5元,平臺分成30%,那么這位創作者本周在該平臺的收益為:30000*0.3*0.5*=3150元的收益,未來參與建立AI數據集將有望成為藝術家的新增收益。

但是以上設計也有缺陷,因為AI并不完美,并不是每張圖片都有價值,所以這里優化方案可以是生成時不向藝術家付款,而有滿意的內容想要下載時,才需要支付相應的費用。這也與傳統的藝術創作領域流程相似,甲方下單,乙方提供滿意的作品時,甲方支付所有款項。

為了讓流程更加合規,更完美的做法是首先向全球藝術家公開風格庫,每個藝術家都可以選擇是否將自己的作品內容加入訓練集圖庫中,如果加入則可以在其他用戶創作對應風格時獲得相應收益,這也是在另一方面為藝術家尋求新的收益途徑。在市場上“侵權”行為如此多的背景下,此“正版授權”圖庫定會受到藝術家群體的支持,這種模式才更類似于正向循環,也是更良性的模式。

Web3?

Web3一直在強調“創作者經濟”,這與AIGC想要解決的問題不謀而合,利用區塊鏈技術,完全可以打造一個圍繞AIGC的生態網絡。

創作者通過AICG的賦能,加上Web3模式下的經濟模型,可以將自己的創意和影響力進行指數級的放大。也讓更多的人能實現從消費到參與、從用戶到所有者的轉變。同時藝術家可以得到他贏得的收益份額,達到一個雙贏局面。

其實Web3+AI并不是一件新鮮事,生成式藝術NFT領軍者ArtBlocks就是一個成功的應用案例。

ArtBlocks是一個生成隨機藝術品的平臺。它是由ErickSnowfro在2020年推出,是一個專注于可編程、生成性內容的平臺,其生成的內容在以太坊區塊鏈上是不可改變的。那么「隨機藝術品」是如何隨機的呢?這個隨機過程是受一串數字控制的,這串數字存儲在以太坊鏈上的一個非同質化代幣上。之后這個代幣所存儲的數字串控制你所購買藝術品的一系列屬性,最終生成屬于你的獨一無二的藝術品。

如果你是一個買家,比較看好某個藝術家的風格,然后支付后開始鑄造,算法生成隨機的同風格的藝術品就會被發送到你的賬戶中,以代幣的形式存在,最終的作品可能是靜態圖像、3D模型或交互式的藝術品。每個輸出都是不同的,并且在平臺上創建的內容類型具有無限種可能性,但每個項目可鑄造的藝術品的數量是一定的,也就是說一旦鑄造滿了,這個項目就不會有新的作品生成了。

對于創作者:他們需要預先在ArtBlocks上調整和部署好自己的生成藝術腳本,并確保它的輸出結果與輸入的哈希值有關。這個腳本會通過ArtBlocks存儲在以太坊鏈上。

對于收藏者:當收藏者鑄造某一系列的作品,他們實質上獲得了一個隨機的哈希值,然后腳本執行,一副對應這個哈希值的生成藝術作品當場被創作出來。

這種模式讓收藏者也參與了生成藝術的創作。

這副作品的內容,實際上是由原藝術家的風格、生成算法和你的鑄造時機三者決定。工具、創作者和買家聯合完成了這樣的作品,這種新的NFT創作模式讓這幅藝術品擁有了更多的紀念價值,留下了當下最新技術的印記。

和購買主流的NFT頭像項目不同,在ArtBlocks上購買NFT更像是在直接支持一位藝術家——這些藝術家往往是實名的,有大量的歷史作品,并且ArtBlocks會對他們進行作品相關的深度采訪。ArtBlocks上初次出售的NFT,藝術家可以獲得90%的收入,剩下的10%分給ArtBlocks。

所以大家可以發現,ArtBlocks簡直是給AIGC開辟了一條“康莊大道”,當然這條路并不完能粘貼復制,但是在細節方面對其修改完全可以成為AIGC+Web3的商業閉環!而且現在也已經有項目在做類似的事情。

正是因為有那么多先行者探路,我們有理由相信AIGC將會走的越來越遠,現在的缺陷也將慢慢修補完善。

Tags:AIGIGC比特幣ARTAIGO Protocoligc幣價格買比特幣會被局抓嗎CHART價格

區塊鏈
趙長鵬:將繼續為馬斯克收購 Twitter 提供資金支持_BNB

幣安首席執行官趙長鵬周二在FutureInvestmentInitiative大會上表示會兌現承諾,將為馬斯克以440億美元收購Twitter的計劃提供資金支持.

1900/1/1 0:00:00
投資管理平臺 Sidekick 完成 330 萬英鎊 Pre Seed 輪融資,Octopus Ventures 領投_比特幣

總部位于英國的投資管理平臺Sidekick完成330萬英鎊PreSeed輪融資,OctopusVentures領投.

1900/1/1 0:00:00
盤點五大 Token 標準,足以支持香港 Web3 試點改革嗎?_加密貨幣

作者:十四菌,十四君 港府于10月31日發布的《有關香港虛擬資產發展的政策宣言》重點提及了資產支持代幣(asset-backedtoken,或ABT).

1900/1/1 0:00:00
三箭資本創始人 Su Zhu:感謝所有支持我們的人,未來或許以新的目標重建家園_DEL

三箭資本創始人SuZhu時隔多日發布多篇推文稱,“我在那里,在海浪的波浪中沖浪,一會兒就被沖走了,木板破了,到處都是礁石.

1900/1/1 0:00:00
可編程 DID 協議 Midhub 提出 NFT PMM 發行交易機制_NFT

由TokenPocket投資孵化的可編程DID協議MidhubProtocol正在實現可編程NFT技術支持下的NFTPMM(ProtocolMarketMaker)協議.

1900/1/1 0:00:00
BAYC 地板價跌破 50E,螺旋下跌將再次引發 BendDAO 清算風暴?_BAYC

撰文:angelilu,ForesightNewsFTX暴雷對市場的影響已從各大交易所蔓延至NFT市場,根據OpenSea數據.

1900/1/1 0:00:00
ads