“現實不存在了”?據新京報貝殼財經報道,北京時間2月16日淩晨,OpenAI發佈了第一個文生視頻大模型Sora,隨即引發熱議。
Sora可以根據用戶輸入的提示詞,生成長達一分鐘的高清視頻。雖然還沒有公開使用,但在OpenAI官方分享的演示視頻中,Sora可以直接輸出有多個角色、多種場景和運鏡的畫面。
Sora的強大衝擊,主要來自於兩個方面。一是,Sora視頻太逼真,“現實,不存在了”;二是,Sora視頻水準很高,搞影視的要失業,短視頻“徹底端掉行業飯碗”。
據OpenAI發佈資訊,Sora主要功能包括:根據文字提示生成視頻;靜態圖片生成視頻;對視頻進行填充和擴充等。
顯然,上述功能均並非Sora首創,很多其他工具可以不同程度實現。不過,其生成效果並不能令人滿意,並且很容易出現錯誤。而此次,Sora則將生成視頻的品質提升了一大步。
Sora可以生成長達1分鐘的視頻,大大超越此前類似工具。不僅如此,Sora視頻還可以一鏡到底,多角度鏡頭切換,並且對象始終不變。Sora視頻,更可以運用景物、表情和色彩等鏡頭語言,表達出如孤獨、繁華、呆萌等情感色彩。
總之,Sora的AI視頻效果,幾乎和人工拍攝不相上下。也因此,雖不是從0到1的原始創新,卻已足夠令人震驚。
比如,當前的短視頻時代,Sora既然可與人工媲美,製造短視頻的專門團隊可能就面臨下崗危險。要知道,短視頻的攝影、導演、剪輯等任務,Sora“一個人”費點電就全包了,想不刷屏都不行。
未來,各種不同用途的Sora短視頻,或許會很快充斥各種視頻社交平臺,其對現實的影響與改變,不可不謂之巨大。
OpenAI也在其發佈中宣稱,Sora將成為實現通用人工智慧(AGI)的重要里程碑。
但是,不管Sora是否“理解”世界,也不管Sora視頻多麼逼真,始終仍是數字模擬,而不是真實拍攝的現實。
常言道,眼見為實,耳聽為虛。但在AI短視頻建構的世界中,顯然不能將眼睛看到的東西作為判斷依據了。
Sora的應用,無疑將進一步加劇當代社會的後真相狀況,真實與虛擬的邊界進一步模糊,甚至完全被消解。這需要我們高度警惕。
▲在OpenAI發佈的AI視頻中,人物臉部特寫也非常精細真實。圖/網路視頻截圖▲在OpenAI發佈的AI視頻中,人物臉部特寫也非常精細真實。圖/網路視頻截圖
什麼是後真相呢?簡單地説,各種資訊與通信技術和人工智慧工具的使用,使得人們身處真假難辨的環境之中,久而久之越來越忽視所謂客觀事實,思考問題、處理問題、評價問題越來越訴諸個人的情緒、情感、信仰和成見。
在網路上,後真相狀況表現得尤其明顯。雇傭來的網路水軍在網路肆虐,各種謠言、陰謀論層出不窮。更多的是無根據的、隨口一説的灌水,到處是情緒化的站隊、開懟、開罵,完全沒有耐心也不想搞清楚真相是什麼,“幹就完了”。於是,網路消息不斷反轉,且劇情離譜。Sora的出現,可能進一步加劇這一狀況。
當然,指出Sora可能導致的社會風險,並不是要一棒子將之打死。對於新科技的發展,社會要有足夠的包容性。但是,在大規模將之推向社會之前,應當充分預估其風險和挑戰,提前做好應對的準備。
就後真相問題而言,首先每個人都要意識到身處虛實交織的時代。對接收到的所有資訊,養成質疑、反思和批判的本能,切不可聽風就是雨。並且,如果有需要,要對資訊源進行仔細查證、比對和分析,提高甄別資訊真假的能力。
對於相關企業和行業而言,必須不斷提倡行業自律自查自糾,盡到內容提供者的審查義務。而政府應該根據相關管理要求,細化規制辦法,如顯著標識為AIGC(生成式人工智慧)內容,或將之一律歸為娛樂或廣告,不得與事實和新聞相混淆。
至於Sora的出現,可能導致大量的影視等相關行業從業者失業,更是不可忽視的重大社會風險。
其實,關於AI大規模應用可能引發的失業問題,已經有汗牛充棟的深入研究,也提出了很多應對方案,包括延緩AI技術的應用速度,幫助再就業,徵收AI稅等。現在,Sora一夜刷屏提醒我們,要將這些措施穩步細化實施,而不能再僅僅停留在“刷屏”上了。
來源:新京報 | 撰稿: | 責編:李斌 審核:張淵
新聞投稿:184042016@qq.com 新聞熱線:135 8189 2583