你尚未認(rèn)證為創(chuàng)作人或影視公司,認(rèn)證即可享有:
當(dāng)我看到這個(gè)消息的時(shí)候,內(nèi)心是崩潰的:AI可以剪視頻了。這意味著也許一小部分電影從業(yè)者,包括我們在內(nèi)的新聞視頻工作者,未來可能更難找工作了。(掩面痛哭)
正如李開復(fù)近在哥大畢業(yè)典禮上發(fā)表的演講所提到的,未來十年也許真的是人工智能的時(shí)代。
但是,當(dāng)許多人處于AI即將取代大部分簡單重復(fù)工種的不安中,尚且還有一群人偷偷地吁了口氣,比如藝術(shù)從業(yè)人員,因?yàn)槟菚r(shí)我們并不認(rèn)為AI可以在近期內(nèi)勝任兼具創(chuàng)造性與藝術(shù)性的工作。
……直到我們看到斯坦福與Adobe的這項(xiàng)研究。
這個(gè)新的算法可以根據(jù)導(dǎo)演要求,對視頻原始材料進(jìn)行編輯,不論是papi醬那種精分風(fēng)格的視頻,還是經(jīng)典的電影風(fēng)格視頻,它都可以在極短的時(shí)間內(nèi)完成工作。
首先我們要跟大家簡單科普一下視頻剪輯師的工作流程。比如說我們要制作一個(gè)有情節(jié)的微電影,首先我們會根據(jù)寫好的劇本進(jìn)行拍攝,同一個(gè)場景和鏡頭一般要從不同的角度、機(jī)位拍上好幾次,這樣才能獲取不同角度、不同景別的視頻材料。
在后期剪輯的時(shí)候,則可以把同一場景的多個(gè)片段放在一起剪輯,這樣就可以運(yùn)用鏡頭語言表達(dá)不同的情緒、傳遞多樣的信息,也避免觀眾因?yàn)殓R頭過于重復(fù)和單一而感到無聊。
它也可以通過聲音、面部和情感識別對鏡頭類型、演員的感情強(qiáng)度、畫面構(gòu)圖等進(jìn)行編碼。由于導(dǎo)演對于一個(gè)場景可以拍攝多達(dá)10場鏡頭,光對應(yīng)劇本這一個(gè)功能就可以節(jié)省數(shù)小時(shí)。
然而,這個(gè)系統(tǒng)的“精華”之處在于根據(jù)電影鏡頭語言的規(guī)則進(jìn)行“慣用”編輯。
例如,許多故事都是從一個(gè)廣角的“建立場景”鏡頭開始,這樣觀眾就會對故事發(fā)生的地點(diǎn)具備基本的了解。有些時(shí)候,導(dǎo)演還會使用慢放或快進(jìn)的方式,強(qiáng)調(diào)某個(gè)人物,強(qiáng)化情緒或保持鏡頭類型(如廣角或特寫鏡頭)一致。
根據(jù)導(dǎo)演或者故事本身的不同風(fēng)格,導(dǎo)演運(yùn)用這些鏡頭語言去達(dá)到的講述故事的效果。而這個(gè)系統(tǒng)操作起來非常簡單。
研究人員已經(jīng)預(yù)設(shè)了許多鏡頭語言的設(shè)定,編輯們只需要把他們想要的鏡頭語言輸入到系統(tǒng)中,這個(gè)系統(tǒng)就會自動將劇本與場景匹配。
在斯坦福研究團(tuán)隊(duì)制作的說明視頻中,他們給出了一個(gè)具體的例子。比如,他們想要制作一個(gè)傳統(tǒng)電影風(fēng)格(在對話雙方之間進(jìn)行切換,敘述節(jié)奏不緊不慢等)的視頻,編輯就會選擇“用廣角鏡頭開始”這個(gè)鏡頭語言來建立故事發(fā)生的場景,然后選用“避免跳躍性的剪輯“來適用于經(jīng)典的電影風(fēng)格,同時(shí)選擇“強(qiáng)調(diào)某個(gè)角色”等電影語言。
這個(gè)系統(tǒng)在幾秒之內(nèi)迅速制作了一個(gè)喜劇電影風(fēng)格、嚴(yán)格遵守劇本的電影片段??赐曛笪业南掳投家舻厣狭恕@簡直與人工剪輯無異?。?/span>
然后,測試人員用同一個(gè)劇本和拍攝材料,選擇了“跳躍性剪輯”等典型的youtube網(wǎng)紅視頻的鏡頭語言,于是另一個(gè)youtube風(fēng)格的視頻又在幾秒鐘被制作出來了。
整個(gè)過程中,令人瞠目結(jié)舌的是,這個(gè)算法能夠在2-3秒內(nèi)根據(jù)特定要求生成一個(gè)71秒的視頻,并且可以在幾秒內(nèi)生成另一個(gè)完全不同風(fēng)格的視頻。
研究團(tuán)隊(duì)非常殘忍地請了一位具有25年編輯經(jīng)驗(yàn)的剪輯師來完成相同的工作,這位剪輯師一動不動盯著電腦屏幕看了三個(gè)小時(shí),才能完成從瀏覽所有視頻材料到手動進(jìn)行剪輯的所有過程——而且只剪輯出了一種風(fēng)格的視頻。
據(jù)他估計(jì),如果要制作出另一個(gè)完全不同風(fēng)格的視頻,需要另外花上一個(gè)半小時(shí)。
更重要的是,它可以減少許多重復(fù)細(xì)碎的工作,并讓編輯在短時(shí)間內(nèi)看到基于不同風(fēng)格的視頻樣品。這將使他們擁有更多的時(shí)間進(jìn)行微調(diào),并且在其它方面發(fā)揮他們的技能和藝術(shù)才能。
此外,它也無法判斷表演的好壞和拍攝的質(zhì)量。有時(shí)候不同場次的拍攝材料中會出現(xiàn)不一致(也包括觀眾們喜歡看的穿幫),目前這個(gè)系統(tǒng)也沒有辦法識別這些錯(cuò)誤,編輯、制片人和導(dǎo)演仍然需要親自檢查所有拍攝的視頻。
未來,研究人員將會努力擴(kuò)大它的使用場景,比如剪輯動作片,這也就需要研究人員輸入更多針對動作片的鏡頭語言設(shè)定,
當(dāng)然啦,從目前來看,這個(gè)AI也只夠格做個(gè)編輯助手,在短時(shí)間內(nèi)不會完全取代視頻編輯師。那么看完此文有些焦灼的你該如何提升自己而不被AI取代呢?
我們覺得,保持你的創(chuàng)造力和獨(dú)特性,努力打破常規(guī),去深切地體會人性和美,也許就是我們戰(zhàn)勝機(jī)器的重要砝碼。
內(nèi)容由作者原創(chuàng),轉(zhuǎn)載請注明來源,附以原文鏈接
http://m.266.gd.cn/news/989.html全部評論
分享到微信朋友圈
表情
添加圖片
發(fā)表評論