現在拍個電影級別的視頻,可能比你點外賣還簡單。6月20號華為開發者大會上,萬興科技掏出的“萬興天幕2.0”,直接把AIGC視頻創作的門檻踹碎了——以前需要導演、攝影、剪輯、音效一整個團隊忙活半年的科幻大片,現在你對著電腦敲幾行字,AI就能給你生成,還帶一鏡到底的運鏡和電影院級別的立體聲。這不是科幻小說,是已經擺在眼前的現實。華為云CEO張平安現場放的兩段視頻,《沙漠飛車》里黃沙濺起的每一粒沙子都看得清,《未來戰場》里機器人打架的金屬碰撞聲能讓你起雞皮疙瘩。說真的,要不是知道這是AI做的,我還以為是《速度與激情》新片場泄露了。
一、以前拍視頻?簡直是“反人類”行為大賞
先給沒接觸過視頻創作的朋友科普下:以前想搞個稍微像樣點的視頻,簡直是在渡劫。我有個做自媒體的朋友,為了拍個3分鐘的產品廣告,租設備花了8000,找演員花了5000,自己扛著三腳架跑了三個外景地,曬脫一層皮,回來剪片子熬了三個通宵,結果老板說“感覺不對,重拍”。他當場就想把電腦砸了——這不是個例,是整個行業的日常。
傳統視頻創作到底有多“反人類”?咱們掰扯掰扯:
首先是“燒錢如流水”。拍個電影級運鏡?得租專業攝影機、軌道、搖臂,一天租金夠普通人一個月工資。想要立體音效?得請錄音師、混音師,一套設備比你家汽車還貴。更別說后期剪輯,一個“一鏡到底”的鏡頭,可能要拍幾十遍,演員累到虛脫,導演急到脫發。其次是“技術門檻比珠穆朗瑪峰還高”。你以為剪片子就是拖拖拽拽?錯了。調色要懂達芬奇,剪輯要會Pr,特效得用AE,光是學這些軟件就能勸退80%的人。我大學學過半年Pr,到現在連“關鍵幀”是個啥還沒完全搞明白,更別說讓畫面里的人“騰空飛起”還不穿幫了。最后是“創意被技術卡脖子”。多少人腦子里有好點子,比如想拍個“未來戰士穿越沙漠”的故事,結果因為沒錢做特效、沒技術實現運鏡,最后只能拍成“手機懟臉自拍”水平?創意憋在肚子里,比便秘還難受。
但萬興天幕2.0一出來,這些問題好像突然有了答案。華為現場放的《沙漠飛車》,從飛車特寫到黃沙彌漫,一鏡到底,中間沒有任何剪輯痕跡,沙子飛濺的軌跡、水花濺起的高度,連輪胎摩擦地面的火星子都清晰可見——這要是真人拍,得找專業賽車手,封路,調天氣,還得祈禱別出意外,成本沒有幾十萬下不來。但AI生成呢?據說是輸入“沙漠、飛車、速度感、一鏡到底”幾個關鍵詞,再調了調參數,半小時就出來了。
最離譜的是音效。以前做個多聲道立體聲,得錄環境音、引擎聲、風聲,還得混音,讓聲音“由遠及近”。現在AI直接生成:飛車從左邊開到右邊,聲音跟著走;遇到障礙物急剎車,輪胎摩擦聲突然變尖;甚至連沙子打到車身上的“沙沙”聲都分層次。我當時在現場聽,雞皮疙瘩起了一身——這哪是AI,這簡直是揣著個錄音棚在干活。
二、萬興天幕2.0的“三板斧”:真實、可控、還不貴
很多人可能會說:“AI生成視頻又不是新鮮事,之前不就有XXX軟件嗎?”但這次萬興天幕2.0真不一樣,它掏出了“三板斧”,直接把行業標準拉高了一個level。
第一板斧:真實到讓你懷疑眼睛。以前AI生成視頻,總給人一種“霧里看花”的感覺——人物臉是模糊的,動作是卡頓的,背景像打了馬賽克。但萬興天幕2.0生成的《未來戰場》,你去看那個士兵的眼神:緊張時瞳孔收縮,憤怒時眉頭緊鎖,連睫毛顫動的細節都有。更別說宏大場景:上千個機器人在廢墟上戰斗,激光束劃過天空的軌跡,爆炸時氣浪掀飛石塊的運動規律,完全符合物理邏輯,不像以前AI那樣“瞎畫”。
為啥這么真實?秘密就在“華為盤古多模態大模型”。這玩意兒不是簡單的“看圖畫畫”,而是真的“懂”視頻——它能理解光影關系(比如沙漠中午的陽光應該是頂光,影子短),能分析物理運動(飛車轉彎時車身會傾斜,沙子會被離心力甩出去),甚至能感知情緒(未來戰士戰斗時的呼吸頻率應該是急促的)。就像一個學了十年電影的學霸,你說“拍個啥”,他腦子里已經有分鏡、有構圖、有細節了。
第二板斧:可控到你想咋拍就咋拍。以前用AI生成視頻,就像“開盲盒”——你輸入“賽博朋克城市”,它可能給你生成個“鄉村迪斯科”,改參數改到崩潰。但萬興天幕2.0搞了個“首尾幀智能補齊過渡”,簡單說就是:你畫個開頭(比如“沙漠日出”),再畫個結尾(比如“未來城市夜景”),中間怎么從沙漠過渡到城市,AI自己編,還能保證邏輯通順、畫面流暢。
現場有個演示更絕:工作人員說“把《沙漠飛車》的背景換成雪地”,AI三秒鐘就改好了,連輪胎印都從黃沙色變成了白色,濺起的“水花”也變成了雪沫子;又說“把飛車速度放慢兩倍”,畫面立刻變成慢動作,沙子飛濺的軌跡看得更清楚,音效也跟著變慢,引擎聲從“轟鳴”變成“低吼”。這種“指哪打哪”的可控性,以前只有專業后期軟件能做到,現在AI直接給你集成了,還不用你寫代碼。
第三板斧:便宜到小商家都能用得起。這可能是最扎心的一點——以前AIGC工具要么貴得離譜(年費幾萬塊),要么功能簡陋(只能生成10秒短視頻)。但萬興天幕創作廣場(就是基于天幕2.0做的應用)直接搞Web端公測,普通人現在去官網(tomoviee.cn)就能預約。雖然還沒公布具體價格,但萬興科技以前的產品(比如萬興喵影)定價都很親民,估計這次也不會太“坑”。
要知道,現在多少小商家想拍個產品廣告,又舍不得花錢找團隊?多少學生想做個畢業設計短片,又沒技術?萬興天幕2.0相當于把“好萊塢級別的制作能力”塞進了普通人的電腦里,成本可能就一頓火鍋錢。這不是“降維打擊”,這是“把航母開到小池塘”——以前你得劃船,現在直接開航母,你說爽不爽?
三、華為+萬興:這對“王炸組合”到底想干嘛?
可能有人會問:“萬興科技是啥來頭?怎么能讓華為常務董事親自站臺?”這就得說說這兩家的“神仙合作”了——不是臨時抱佛腳,是真·深度綁定。
早在2023年8月,萬興就和華為簽了合作協議,當時就說了要搞昇騰算力、數字人、AI大模型。2025年4月,更是搞了個“國內首例音視頻垂類大模型+通用大模型”的戰略合作——簡單說,華為把自己最核心的“盤古大模型”和“昇騰算力”開放給萬興,萬興則專注搞音視頻創作這個垂直領域,把技術落地成普通人能用的產品。
這合作有多“王炸”?打個比方:華為的盤古大模型是“超級大腦”,懂文字、圖片、視頻、聲音;昇騰算力是“超級發動機”,能讓這個大腦高速運轉;萬興則是“超級廚師”,知道普通人想吃什么(比如“拍個搞笑短視頻”“做個產品宣傳”),然后用“大腦”和“發動機”做出一桌好菜。
為啥華為偏偏選萬興?看數據就知道:萬興是“中國版Adobe”,業務覆蓋200多個國家,15億用戶,旗下有萬興喵影(視頻剪輯)、萬興播爆(數字人)、萬興腦圖(思維導圖)一堆明星產品。簡單說,它懂創作者要啥,也有把技術變成產品的經驗。華為有技術,但需要落地場景;萬興有場景,但需要頂尖技術——這不就是“瞌睡遇上枕頭”?
更重要的是,這次合作不是“各賺各的”,是想一起把“AI視頻創作”這個蛋糕做大。現在全球創作者經濟規模預計2034年達7010.6億美元,專業音視頻市場2029年達3632.7億美元——這是個萬億級的市場,以前被Adobe、蘋果這些國外巨頭壟斷,現在中國企業想分一杯羹,就得靠這種“技術+場景”的深度綁定。
你想啊,以后小到奶茶店拍抖音廣告,大到電影公司做前期概念片,都能用萬興天幕2.0;而華為的盤古大模型和昇騰算力,也能通過萬興的產品接觸到更多用戶,不斷優化技術。這是個“雙贏”的局,甚至可能改變整個行業的游戲規則——以前國外軟件卡我們脖子,現在我們自己搞出了更牛的技術,還更便宜、更好用,你說老外慌不慌?
四、萬興天幕創作廣場:把“創作生態”直接懟到你臉上
光有技術還不夠,得有讓普通人能用起來的“入口”——萬興天幕創作廣場就是干這個的。這玩意兒不是單一工具,是個“一站式創作平臺”,視頻、圖片、音頻生成全搞定,相當于把“攝影棚+錄音室+后期機房”全搬到了網上。
現場展區我去逛了逛,簡直是“創作者天堂”:有個做廣告的小哥,輸入“夏天、冰飲、青春感”,AI直接生成三個版本的15秒廣告片,一個清新風,一個潮流風,一個復古風,他挑了個潮流風,改了改文案,當場就下載走了,說“回去就能發朋友圈”;還有個學設計的女生,用AI生成了一組“未來城市”的概念圖,又讓AI把圖做成了30秒動畫,她說“這要以前,畫概念圖得兩天,做動畫得一周,現在兩小時搞定”。
最絕的是它的“生態聯動”。萬興自己有幾十款創意軟件,比如萬興喵影(剪輯)、萬興播爆(數字人)、萬興圖示(畫圖),現在都能和天幕創作廣場打通。你用天幕生成視頻,直接導入喵影剪輯;用天幕生成數字人,直接放到播爆里做直播;甚至用萬興腦圖畫的腳本,都能直接“喂”給AI,讓它按腳本拍視頻。
這意味著什么?意味著“創作全流程”被打通了。以前你可能需要用A軟件生成圖片,B軟件剪輯視頻,C軟件配音效,文件導來導去,格式還可能不兼容。現在一個平臺全搞定,效率直接翻十倍。就像你以前做飯,得去菜市場買菜(A軟件)、回家洗菜(B軟件)、再開火炒(C軟件),現在直接點外賣(天幕創作廣場),菜洗好切好配好料,你只需要微波爐轉一下——不對,連轉都不用,直接送到嘴邊。
而且這平臺不光針對專業人士,普通人也能玩。我這種“手殘黨”試了試,輸入“我家貓打哈欠,要可愛,帶點搞笑音效”,AI真的生成了一段10秒視頻:我家貓(雖然是AI畫的,但神態很像)張大嘴巴打哈欠,背景是粉色的云朵,音效是“啊——啾!”(把哈欠做成了打噴嚏的聲音),當場把我笑噴了。這玩意兒要是普及了,以后朋友圈的視頻質量估計得集體升級,再也不是“手抖+糊成馬賽克”了。
五、AI會讓剪輯師失業嗎?想多了,這是“創作權力下放”
肯定有人擔心:“AI這么牛,以后剪輯師、攝影師是不是要失業了?”我敢說:不僅不會,反而會活得更好。
舉個例子:計算器發明后,數學家失業了嗎?沒有,反而有更多人能用上數學,數學應用范圍更廣了。AI也是一樣——它解放的是“技術苦力”,讓人能專注于“創意本身”。
以前剪輯師80%的時間都在干“體力活”:調畫面曝光、對齊音頻、剪掉廢鏡頭。現在AI能把這些活兒全干了,剪輯師只需要花20%的時間調創意:“這里節奏再快點”“那個鏡頭情緒不對,換個風格”。以前一天剪一個視頻,現在一天能剪五個,收入反而可能翻倍。
攝影師也是。AI能生成“一鏡到底”的畫面,但“拍什么故事”“表達什么情緒”還得靠人。就像畫筆能畫畫,但畫《蒙娜麗莎》的是達芬奇,不是畫筆。以后攝影師可能會從“扛機器的”變成“創意導演”,用AI生成多個版本,再挑最好的那個,效率更高,創意空間也更大。
更重要的是,AI讓“創作權力”下放了。以前只有專業團隊能拍大片,現在普通人也能實現自己的創意。我鄰居家小孩喜歡拍科幻短片,以前只能用玩具模型拍,現在用萬興天幕2.0,輸入“星際戰艦、外星戰場、激光炮”,就能生成電影級畫面,說不定以后中國的“斯皮爾伯格”就是這么練出來的。
這種“創作權力下放”,本質上是讓更多人參與到“內容創作”中來,整個市場的蛋糕會越做越大。就像短視頻剛出來時,有人說“電視臺要完了”,結果呢?電視臺轉型做短視頻,反而活得更好,還冒出了一堆網紅、MCN機構,整個行業更繁榮了。AI視頻創作也是一樣,它不是“搶飯碗”,是“造飯碗”——以后可能會出現“AI視頻策劃師”“AI創意指導”這種新職業,機會只會更多。
六、“中國版Adobe”的野心:不止于模仿,要“降維超越”
最后聊聊萬興科技。很多人說它是“中國版Adobe”,但我覺得它的野心可能更大——不只是模仿,而是要“降維超越”。
Adobe牛不牛?當然牛,PS、Pr、AE這些軟件壟斷行業幾十年。但它有個致命缺點:貴,而且難用。一套軟件一年訂閱費幾千塊,普通人根本用不起;而且操作復雜,沒有專業培訓根本玩不轉。這就給了中國企業機會——用AI把復雜功能簡化,用親民價格讓更多人用得起。
萬興就是這么干的。它的產品一向以“簡單好用”著稱,比如萬興喵影,把Pr的復雜功能簡化成“一鍵美顏”“智能配樂”,新手也能快速上手;現在天幕2.0更是把“電影級創作”變成了“輸入關鍵詞”,這就是典型的“降維打擊”——不是比Adobe技術更復雜,而是比它更懂普通人的需求。
而且萬興有全球化優勢。業務覆蓋200多個國家,15億用戶,這意味著它能接觸到不同文化、不同需求的創作者,產品迭代會更快。比如針對歐美用戶,可能需要生成“好萊塢大片”風格;針對東南亞用戶,可能需要“熱帶風情”模板;這些數據反哺給AI大模型,會讓天幕2.0越來越“懂”全球用戶。
更重要的是,萬興背后有中國技術的支持。華為的盤古大模型、昇騰算力,都是自主可控的技術,不會被國外“卡脖子”。以前我們用Adobe,核心技術在人家手里,想漲價就漲價,想限制功能就限制功能;現在萬興用的是中國自己的大模型、中國自己的算力,這不僅是商業上的突破,更是技術自主的象征。
可以預見,未來幾年,隨著萬興天幕2.0這種產品的普及,中國數字創意軟件可能會像“大疆無人機”“海康威視攝像頭”一樣,在全球市場占據一席之地。到時候,可能老外會說:“我們要用‘美國版萬興’!”