Runway 的手機(jī)應(yīng)用使用了其 Gen-1 模型,這是一種視頻到視頻(video-to-video)的生成 AI 模型。用戶可以上傳一段視頻,然后選擇一個(gè)文本、圖片或者視頻作為輸入,讓 Gen-1 模型根據(jù)輸入的內(nèi)容來(lái)轉(zhuǎn)換視頻的風(fēng)格。比如,用戶可以上傳一段自行車在公園里騎行的視頻,然后選擇一幅水彩畫(huà)作為輸入,讓視頻變成水彩畫(huà)風(fēng)格;蛘撸脩艨梢陨蟼饕欢坞娪捌,然后選擇一張貓咪的照片作為輸入,讓視頻中的人物變成貓咪。媒體發(fā)現(xiàn),這有點(diǎn)類似于濾鏡,但跟濾鏡不同的是,它會(huì)生成全新的視頻作為輸出。
當(dāng)然,這種生成式 AI 的輸出并不是完美的。有時(shí)候,視頻中的物體會(huì)變形、變色、變模糊,但是這也是生成 AI 的樂(lè)趣所在。用戶可以嘗試各種不同的輸入,看看會(huì)產(chǎn)生什么樣的效果。Runway 的 CEO Cristóbal Valenzuela 說(shuō),讓這些工具能在手機(jī)上使用是非常重要的,“因?yàn)槟憧梢灾苯佑媚愕氖謾C(jī)來(lái)錄制視頻,然后告訴 Gen-1 模型如何轉(zhuǎn)換那個(gè)視頻。”
目前,Runway 的手機(jī)應(yīng)用還有一些限制。比如,用戶不能上傳超過(guò)五秒鐘的視頻,也不能使用一些被禁止的輸入。比如,用戶不能生成裸體、版權(quán)受保護(hù)的作品或者敏感內(nèi)容。每個(gè)視頻大概需要兩到三分鐘才能生成,這個(gè)時(shí)間可能會(huì)隨著技術(shù)進(jìn)步而縮短。而且,目前只有 Gen-1 模型可用,但是 Valenzuela 說(shuō),更先進(jìn)的 Gen-2 模型也會(huì)很快加入。
這種生成 AI 工具雖然還不夠成熟,但是卻展示了無(wú)限的可能性。就像 19 世紀(jì)時(shí)期的“光學(xué)玩具”一樣,它們雖然功能有限,但卻是現(xiàn)代攝影機(jī)器的祖先。Runway 的手機(jī)應(yīng)用就像是這樣一個(gè)玩具,用戶可能無(wú)法用它來(lái)做專業(yè)的制作工作,但無(wú)法想象它將來(lái)會(huì)有多大的影響。