2月16日凌晨,美國開放人工智能研究中心OpenAI發(fā)布首個視頻生成模型“Sora”。只需簡單文本指令,Sora便能夠創(chuàng)造出長達60秒的視頻,并且可以展示多視角的鏡頭切換和豐富的細節(jié)。目前,OpenAI已在官網(wǎng)發(fā)布了48個由Sora直接生成且未經(jīng)修改的視頻,逼真的場景、流暢的運鏡、生動的人物表情,使人難以分辨這些視頻是實際拍攝產(chǎn)生的還是由AI技術生成的。
Sora的問世引發(fā)全球震動,從之前的ChatGPT到現(xiàn)在的Sora,生成式AI向人們展現(xiàn)了巨大的潛力和創(chuàng)新,在信息檢索、聊天對話、內(nèi)容生成等方面顯示出獨特的功能,為內(nèi)容創(chuàng)作領域帶來了前所未有的變革,展現(xiàn)出信息傳播領域中的廣闊前景。不過隨之而來的,該技術對輿論生態(tài)造成一系列挑戰(zhàn)和隱患,也需要引起警惕和重視。
1. 隱形輸出價值觀增加意識形態(tài)沖突風險
生成式AI是基于海量數(shù)據(jù)和文本基礎進行訓練而來,這些公共語料庫本身質量良莠不一,其數(shù)據(jù)來源本身可能存在偏見與不公,將直接影響到使用者對客觀現(xiàn)實的認知。而且數(shù)據(jù)訓練規(guī)則和訓練內(nèi)容、形式都是由算法開發(fā)者或數(shù)據(jù)寫入者制定,不可避免攜帶上其原有的價值觀念。比如算法歧視,其表現(xiàn)基于種族、性別、民族等特征的歧視更加隱蔽,OpenAI官網(wǎng)中發(fā)布的數(shù)個涉人物視頻案例中,基本是清一色的白種人虛擬人物主角??梢?,類Sora生成式內(nèi)容可能攜帶特定的文化傾向和價值觀,這些隱形的價值導向輸出或進一步加深不同群體之間的矛盾。尤其是作為意識形態(tài)的媒介渠道,一旦錯誤的政治觀念、價值偏好等有害導向被嵌入其中,就可被作為政治宣傳和輿論操縱的工具,消解主流媒體宣傳效果,增加意識形態(tài)風險。
2. 縮短傳播鏈條加深輿論復雜程度
在新聞生產(chǎn)階段,類Sora生成式AI可以利用技術優(yōu)勢對信息進行抓取和綜合,按照技術化標準批量生產(chǎn)新聞報道,既可以根據(jù)比較簡單的腳本,圍繞新聞關鍵詞生產(chǎn)新聞內(nèi)容,歸納總結同類報道,也可以根據(jù)新聞單位的不同風格定向改變新聞,圍繞既定主題持續(xù)不斷進行信息內(nèi)容產(chǎn)出,還能夠根據(jù)語境對傳統(tǒng)信息快速進行翻譯、轉寫等,像Sora此類應用還能貼合目前直播、視頻等輿論的視聽偏好,即時根據(jù)報道關鍵信息生成短視頻和動畫,大幅提高新聞報道的生產(chǎn)效率,縮短其生產(chǎn)時間。在信息傳播階段,用戶和生成式AI進行直接互動,通過問答、搜索等更簡潔方式了解輿情事件的大致脈絡,從而令網(wǎng)民有可能在更短時間內(nèi)獲悉事件最新態(tài)勢,并第一時間獲知輿情的進展情況,緊跟最新輿論焦點問題進行討論,大大減弱了信息傳播對平臺的依賴程度,但同時也將大幅縮短輿情發(fā)酵鏈條的時間長度,令同一輿情事件中信息內(nèi)容更加紛繁復雜。
3. 加大意見混同增加輿論極性“偏差”
生成式AI實際加深了用戶對于輿情事件的參與程度,使其能夠隨時參與到對網(wǎng)絡事件的意見建構之中,這些意見被生成式AI學習后形成新的“輿情事實”,進而繼續(xù)擴大傳播,導致客觀性的事實被夾雜、糅合在主觀性的網(wǎng)絡表達中,輿論信息的主客觀程度更加難以分辨,這可能產(chǎn)生一種“夾敘夾議”式的輿論敘事場景,對于某些分辨能力不強的網(wǎng)民來講,在這種輿論場中更容易被暗含的輿論觀點所左右。由于技術賦值的問題,某些帶有鮮明觀點和極端偏好的信息,更容易被生成式AI抓取識別和傳播,同時,類Sora技術智能增強式工具還能夠利用算法和與用戶的“交流”實現(xiàn)精準化傳播。換言之,極端性表達更容易通過生成式AI關注并得以放大,更容易令情感濃度大的信息獲得共振,導致整個輿論場的意見偏差增大,造成不同意見群體的觀點割裂,輿論極性增加。
4. 降低造謠成本虛假信息數(shù)量或將上升
類Sora生成式人工智能的內(nèi)容生成,已經(jīng)涵蓋AI成像、AI仿聲、圖像生成等各種元素,網(wǎng)絡虛假信息生成路徑更加真假難辨。此類人工智能技術應用一旦大面積推廣,其高度自主化特性使得制造虛假新聞、網(wǎng)絡謠言等惡意信息的門檻變得更低,普通人只需要使用簡單的文字描述就可以生產(chǎn)一段逼真短視頻,進而產(chǎn)生大量的虛假“泡沫”輿情事件,甚至成為滋生電信詐騙等違法犯罪行為的“溫床”。今年2月,香港警方發(fā)布一起數(shù)額巨大的AI詐騙案,涉案金額達2億港元,詐騙分子偽造數(shù)個高管的面容聲音進行視頻會議,除了受害者一人為真人外,其余與會者全部由AI生成。此外,類Sora生成式人工智能也給機器人水軍創(chuàng)造了極大空間。未來具備高度自動化和仿生形態(tài)的機器人水軍,可以更加高效低成本地生產(chǎn)大量逼真視頻內(nèi)容,或成為干擾網(wǎng)絡正常秩序的一大因素。而大量虛假信息被AI輸出并大肆傳播,在虛假信息被識別之前又被傳播出去,造成不實信息泛濫的惡劣影響。
結語
面對類Sora生成式人工智能給人類社會帶來的巨大挑戰(zhàn)和機遇,在充分發(fā)揮生成式人工智能的技術優(yōu)勢的前提下,政府部門應對有效規(guī)避各類智能技術及風險有所警惕和作為,尤其是其可能帶來的輿論生態(tài)改變,可能引發(fā)網(wǎng)絡意識形態(tài)安全風險,相關治理的要求也應該更加超前和成熟。
首先,要形成多元共建多方共管的治理格局。一是建立與完善相應法律法規(guī)。類Sora生成式人工智能在呈現(xiàn)出更多智慧功能的同時,也不可避免地面臨諸如隱私權保護、電信詐騙等違法行為的責任界定,由此帶來法律層面的爭議需要立法予以規(guī)制,立法部門應在兼顧科技發(fā)展和規(guī)范使用的界限的同時,及時出臺行業(yè)性規(guī)范。二是監(jiān)管機構應強化對類Sora生成式人工智能領域的監(jiān)管,進一步規(guī)范人工智能內(nèi)容生成技術的使用,尤其注意防止生成式人工智能成為虛假信息的發(fā)源地,要強化對提供人工智能技術的企業(yè)、傳播平臺等監(jiān)管,形成嚴格的行業(yè)警告和處罰機制。三是強化技術平臺的主體責任,要求相關AI企業(yè)加強內(nèi)容審核力度,在生成式內(nèi)容上必須打上明顯的標識,要求其在杜絕虛假信息的產(chǎn)出、流傳與擴散方面負有更明確、比重更大的責任。其次,還需加強對社會的人工智能素養(yǎng)教育,及時公布相關的最新技術案例,讓公眾對類Sora生成式人工智能的運作機制等有基本認知,增強對虛假信息的風險識別與抵制能力。
閱讀全文可訂閱
《政法輿情》電子產(chǎn)品
詳情咨詢:010-84772595
來源:法治網(wǎng)輿情中心
作者:王燦
編輯:王媛
新媒體編輯:李靜
編輯:靳雪林