小時候,小編最喜歡上的就是美術課。
給我一盒 24 色的水彩筆,我能坐一下午不帶起來的。
因為,對于每個人來說,從小到大,在白紙上肆意涂抹、創造、發揮的感覺都是非常美妙的。
可以理解為情緒的宣泄口,也可以飽含對未來的暢想。
今天,Meta 推出了一個全新的 AI 系統,可以把我們隨手在紙上畫的涂鴉變成活靈活現的動漫。
小時候就幻想過自己筆下的人物能跳出紙張動起來,而 Meta 幫我們實現了這個美好幻想。
而實現的過程也沒那么復雜。
Meta 有一個包含 18 萬張的日常隨手繪畫的數據集,還有一整套動畫的代碼。而該數據集也是全球首個以涂鴉這種藝術品為特征的帶注釋數據集。
這里有一個概念要搞明白。
人們通過繪畫來表達自己這點不假,但是繪畫和繪畫也是有不同的。對于 AI 來說,重要的是學習。如果沒有含義明確的表達,那么對 AI 來說學習起來就會比較困難。
所以才有了這么一個 18 萬張涂鴉的大數據集。有了這么一個數據集,研究人員就可以開發出相應的工具,更容易、準確地分析不同涂鴉中的內容。
然后,用戶就會收到一小段由自己上傳的繪畫中人物的動畫。
當時,Meta 只能做到讓涂鴉中的人物做一組簡單的動作,用戶們反饋說希望能上線更多功能。比如能讓包含多個人物的涂鴉作品也動起來,又比如讓涂鴉人物做一些更高難度的動作,或者眨眨眼什么的。
有了這些資源,研究人員也就可以進一步補充分析這些涂鴉的方法,以此來擴展原有的功能。
甚至還可以給小人添加背景,讓涂鴉在環境中舞蹈。
能跑能跳,活靈活現
上面提到過,涂鴉這種形式涉及的內容過于千奇百怪,每個人筆下的涂鴉都是獨一無二的。
那么在這種情況下,如何訓練模型就是問題的關鍵所在。
Meta 表示,常見的兩種方法,第一種是使用帶注釋的畫作來訓練新模型。但這種辦法的問題在于,帶注釋的畫作太少了,人們上傳的可能僅僅是一張涂鴉而已,并不帶有注釋。這樣一來,訓練神經網絡的素材就沒有那么多。
第二種方式則是通過合成的方式作畫,比如說把照片用素描的形式重做。但這種方式也存在問題。
生成法進行訓練需要大量的樣本數據來學習,上述的辦法也許做不到捕捉繪畫與照片之間所有的差別。此外,用這種方法來生成供學習的數據,可能無法捕捉到一些繪畫才有的細節,比如紙張折痕、用橡皮擦去的線條、陰影等等。
最終,Meta 選擇的辦法是把整個任務進行拆分,包括一系列子任務,人物檢測、涂鴉分割、姿勢預測,以及生成動畫。
在用戶選擇上傳涂鴉到系統上以后,他們可以自行選擇邊框位置,確定人物關節的位置等等,最后可以選擇一個動作來生成動畫。
甚至,可供選擇的動作還有很多,這就看用戶個人了。
Meta 的系統結合了用拍攝的照片上訓練的計算機視覺模型,同時由于涂鴉和照片之間的差別,Meta 進一步使用 18 萬張的數據集微調模型。
而有了這個數據集和生成動畫的代碼以后,Meta 相信隨手創作的繪畫領域未來會激發更多的創作者加入。
那么這個數據集是怎么建立的呢?
和 21 年的項目差不多,Meta 建立數據集的方式還是靠用戶上傳。
Meta 在隱私這方面做得不錯,人們可以選擇上傳圖像 + 注釋用于 Meta 的研究,同時 Meta 對這些上傳的信息持有非常謹慎的態度,盡可能減少了數據被濫用的可能。
此外,對上傳數據的篩選工作也十分重要。因為這一次的項目主打的就是把涂鴉變成動畫,所以非涂鴉的圖像要被 Meta 的審查員篩掉。
包含泄密、粗俗文字的內容更不用說,必須篩掉。
人人都是創作家
有了這么個好用的工具,人人都可以成為一名藝術創作家。
畢竟,能看到自己筆下的人物栩栩如生的動起來,能當一回神筆馬良,想必也是一件很酷的事情吧!
參考資料:
鄭重聲明:此文內容為本網站轉載企業宣傳資訊,目的在于傳播更多信息,與本站立場無關。僅供讀者參考,并請自行核實相關內容。
|