一句話生成「導演級」影片 國產AI Seedance2.0有幾勁?

編輯︰紀小廷

  國產生成式AI模型帶來連連驚喜,2025年DeepSeek橫空出世,2026年Seedance2.0震撼業界。與DeepSeek生成文字內容不同的是,Seedance2.0主打用文字或圖片生成動態影片。

  《黑神話·悟空》製作人馮驥在體驗後評價稱,Seedance 2.0是「當前地表最強的視頻生成模型」,又稱「慶幸今天的Seedance 2.0來自中國」。那麼這個「地表最強」究竟強在哪?

Seedance2.0:一句話生成「導演級」影片

  2024年2月,Open AI推出Sora,引發全球對於文生影片大模型的關注。兩年過去,Sora雖然技術領先,但商業化發展未見突破。同時間,由中國互聯網巨頭字節跳動開發的即夢平台推出Seedance2.0,一發佈內測,就引發業界震蕩。

  那麼Seedance2.0究竟厲害在哪裏?

Seedance2.0由字節跳動開發的即夢平台推出。字節跳動旗下為人熟知的產品有抖音、豆包、Seed系列模型等。(圖片來源:視覺中國)

  與目前的主流AI影片模型相比,Seedance2.0聚焦「具有原生音頻的連貫多場景序列」制作,提供「導演級」控制精度。此處有兩個關鍵詞,一是「原生音頻」,二是「連貫多場景序列」。

  第一點「原生音頻」是說,Seedance2.0在生成影片的同時,可以生成匹配的音效和配樂,並支持口型同步和情緒匹配,解決了傳統流程中音畫對齊的繁瑣後期問題。

  第二點「連貫多場景序列」則可以這樣理解:以往用AI生成的影片,基本都是碎片化的素材,例如用戶將一句話變成一張圖,再把一張圖變成一個動態畫面,最後人手將這些畫面剪輯和拼湊在一起。

以往用AI製作影片的流程,是先用AI生成不同的分鏡,再進行人手剪輯。而Seedance2.0省卻這個步驟,自動完成剪輯。(網上圖片)

  而Seedance2.0的「連貫多場景序列」,就是模型可以自動分析敘事邏輯,根據用戶描述的情節,自動規劃分鏡和運鏡,生成具有景別變化、機位運動、時空連貫的序列。

  換句話說,Seedance2.0不再是素材生成器,而是一個能夠理解敘事邏輯、掌控視聽語言的「AI導演」。

  有AI業內人士解釋,Seedance2.0真正「恐怖」的地方在於,它表面是影片生成工具,實際上做的是導演和剪輯的工作。因為在傳統剪輯中,同樣的素材,給不同的人剪,結果天差地別。背後是剪輯思維的差別,即分鏡和分鏡之間如何銜接、如何找剪輯點。這也是真人剪輯和AI影片最大的分野和壁壘。

  但Seedance2.0能做出那種非常自然、甚至接近專業剪輯水平的分鏡切換。而要做到這種效果,甚至不需要精確指定每幾秒切一個分鏡,只給一個統籌層面的提示詞就夠了。

  延伸閱讀:DeepSeek Kimi 豆包 哪個更強?盤點3大國產AI聊天工具

  延伸閱讀:DeepSeek 黑神話 扭秧歌機械人...創科「六小龍」為何出自杭州?

用戶利用Seedance2.0生成「蜜雪冰城大戰星巴克」的影片畫面。(影片截圖)

Seedance2.0:勢將衝擊短劇 電商 電影行業

  Seedance2.0一經發佈,即刻引發業界高度關注。「影視颶風」頻道KOL Tim在評測後稱,傳統影像流程「被AI海嘯沖走」已進入倒數計時。遊戲科學創始人兼CEO、《黑神話·悟空》製作人馮驥則表示Seedance2.0是「當前地表最強的視頻生成模型」,更直言AIGC(AI Generated Content,即人工智能生成內容)的童年時代已經結束。

「影視颶風」頻道KOL Tim評測Seedance2.0,直呼震撼到睡不着。(圖片來源:視覺中國)

  那麼Seedance2.0將給影視行業帶來怎樣的衝擊呢?

  在行業人士看來,Seedance2.0將在短劇領域率先應用。目前短劇行業快速發展,但制作模式面臨成本高、周期長、產能有限等問題,Seedance2.0的出現將大幅降低短片制作成本、縮短生產周期。

  一位有10年影視製作經驗的從業者表示,一個特效5秒鐘的鏡頭,傳統流程需要高級製作人員花將近一個月完成,現在2分鐘內就能做完,意味着數千倍成本下降和上萬倍效率提升。

《黑神話·悟空》製作人馮驥表示Seedance2.0是「當前地表最強的視頻生成模型」。(網上圖片)

  同時,AI能夠生成足夠質量的真人效果影片,那麼演員、場地、攝像團隊的成本也會大幅縮減。

  製作周期縮短還意味着可以快速做A/B測試,用數據驅動內容迭代。這在漫劇、電商廣告等領域也同樣適用。

  延伸閱讀:黑神話:悟空|製作人馮驥如何用好作品講中國故事?

Seedance2.0:數據安全成隱憂

  不過一片歡呼聲中,數據安全的隱憂不可忽視。

  在「影視颶風」的測試片段中,測試者Tim只是將一張自己的圖片上傳至Seedance 2.0,模型已經自動辨認他的聲音,「自行判斷這張臉應該搭配哪一種聲音」,並且精準匹配其語氣和特點。

  在Tim上傳一張含有辦公樓正面的照片後,模型生成的運鏡,竟能自動補全辦公樓的背面,仿佛「知曉未被展示的場景細節」,可見模型已大量學習了該頻道的其他影片。這揭示了AI行業面臨的問題——大模型訓練數據的來源與授權。

用戶利用Seedance2.0生成的影片畫面。(網上圖片)

  相關影片引發熱議,Seedance2.0第二天就宣佈暫停輸入真人圖片及影片作為主體參考,並稱正針對反饋進行緊急優化,將在調整後會以更完善的面貌推出。

  在AI領域,技術發展往往領先於行業規則的建立,技術進步的同時,如何更好地保護公眾私隱,確保生成內容的可靠,是亟待社會共同解決的重要課題。

機械人知多點|中國成全球最大機械人產地 為何能穩居第一?

智能建造 「房屋量產」不是夢?

機械人知多點|能抓捕 可除冰 會採摘 解鎖機械人無限可能!

國產機械人|檢測應急救援樣樣皆能 香港引進了哪些「國家隊」?

相關標籤