?

顛覆與行動:AIGC熱在新聞業的冷思考

2024-04-22 09:54石中鈺蓋騰玥
傳播與版權 2024年7期

石中鈺 蓋騰玥

[摘要]在智能傳播時代,人工智能技術的快速發展延伸了人們認識和改造世界的能力,Chat GPT的誕生更是打開了人們接觸通用人工智能的媒介通道。生成式AI作為一種“準他者”的智能傳播主體,其生產內容已經開始融入人在社會交往中生產信息的系統,即AIGC(生成式人工智能)。生成式AI獨特的人機交互方式消解了原先新聞的真實性、中立性和客觀性,放大了技術在新聞生產范式中的效能,由此新聞業的邊界面臨解構與重構。對此,新聞從業者應明確AIGC的適用范圍,明晰新聞業的界限,完善其數據庫和算法,以此來應對人工智能對新聞業的新技術沖擊,并對機器替代所引發的恐慌進行倫理探尋與反思。

[關鍵詞]AIGC;生成式人工智能;技術倫理

AIGC(AI generated content),即人工智能生成內容。2022年9月,《人工智能生成內容(AIGC)白皮書(2022年)》對AIGC做出界定:AIGC是“從內容生產者視角進行分類的一類內容”,也是“一種內容生產方式,還是用于內容自動化生成的一類技術集合”[1]。隨著近些年媒介技術的不斷發展,從最初的PGC、OGC發展到UGC、MGC,媒介內容的生產主體在不同的媒介環境下持續演進,同時人工智能技術的突破使得其機器主體性開始顯現,人工智能成為媒介內容的創造主體之一,AIGC開始融入人們的日常生活。

2022年,Open AI發布了全新的ChatGPT,而GPT(Generative Pre-trained Transformer)即生成式預訓練轉換模型,是一種基于互聯網可用數據訓練的文本生成深度學習模型[2],其是使用“利用人類反饋強化學習”的一種訓練模式,能夠不斷地重復人與機器之間的交互,在人與機器的對話中使機器形成一種基本的判斷能力和輸出能力,以此形成一種與人類認知相符的應答模式。ChatGPT是基于GPT3.0模型涵括人類話語體系的交互型人工智能。AIGC相比與之前的MGC更加真實、生動、具體,MGC背后的算法邏輯遠遠不能支撐起機器與人正常交互的能力,其語言系統與人類習慣的語言模式不相符,而AIGC更加符合人們慣用的語言邏輯,其內容更加容易被人所接受。因此,AIGC在智媒時代廣泛融入人們的日常生活,對新聞業造成巨大的沖擊。

一、沖擊:新聞業面臨生成式AI的解構困境

(一)新聞真實性被AIGC消解

新聞的真實性是新聞的生命,也是新聞業的生命線。隨著智媒時代的到來,以數字為介質的新聞涌入新聞界,新聞的新業態由此改變。楊奇光、周楚珺指出,在當下的新聞業中出現了新的新聞話語構型:從媒介技術視角看出現了“體驗真實”,從認知心理視角看出現了“收受真實”,從權力關系層面看出現了“協商真實”[3]。不論是從技術還是主體所引出的新聞真實,從本質上來說都是以“真實”為核心要義。

像ChatGPT這類人工智能所生成的新聞內容,從其算法模型上來說正在消解新聞的真實性。因為ChatGPT并沒有辨別信息真偽的能力,它所回答或生成的文字內容都是依靠巨大的數據庫,而這個數據庫是基于人類的生產內容所構成的,可能混雜許多虛假的信息。ChatGPT在采用這部分信息時難以辨別該信息的來源是否合理,因此其若按照該類虛假信息所編寫出的新聞文本同樣也會是虛假的。伴隨AIGC不斷地擴大輻射范圍,整個新聞業會涌出大量虛假新聞,而機器的寫作效率遠遠高于人類,所以其對新聞真實性的消解將顛覆傳統新聞業的規則和性質。

(二)ChatGPT消弭新聞客觀性

客觀中立是新聞制作必不可少的原則,新聞是新近發生的事實,在創作新聞時,創作主體須要保持中立、客觀的態度。創作主體從中立視角出發,所創作的新聞作品會讓受眾更加信任,能提高其信任度。對整個新聞業來說,客觀中立的新聞報道是新聞業增強權威性和公信力的支柱,缺乏客觀視角的報道會致使背后的新聞主體失信于受眾,造成受眾不再信任的局面。

隨著AIGC大量涌入新聞界,受眾面對新技術浪潮相對缺乏應對的能力和思路,難以分辨出隱藏在AIGC底層邏輯下的意識形態。即便OpenAI宣稱ChatGPT是一款沒有主觀意向的智能機器人,但實際上ChatGPT依然存在意識形態和立場偏差。從技術的視角來看,ChatGPT從已有的數據庫中通過算法拼接得到該數據庫中概率最高的數據,并將該數據按照人類語言邏輯進行拼接后生成文本。ChatGPT本身并不會產生新的內容,甚至為了回答某些問題還會刻意捏造數據。ChatGPT本身是一種中立的工具,但其底層算法邏輯蘊含一定的意識形態,很難做到產出的內容是客觀中立的。

在世界百年未有之大變局的背景下,ChatGPT很可能成為西方資本主義國家輸送價值觀的工具。尤其在目前的國際傳播格局下,西方資本主義國家通過ChatGPT與各個國家的人們進行對話,在對話中,人們缺乏一定的防備心理,很多人并沒有將ChatGPT當作一個有主體性的機器人,而是抱著獵奇心理把ChatGPT當作一個可以用人類語言回應的搜索引擎,缺乏對其生產內容的真實性以及其立場和意識形態的防備和反思?!皬募夹g與‘空間-權力的關系視角來看,人工智能作為一種‘權力的媒介,其性質早已超出了技術工具的視角,更是一種‘意識形態引領的技術范式,涉及對傳播權力的分配?!保?]

(三)新聞業遭受科技壟斷

新聞業發展至今已有百年的歷史,其形成了自身的行業行規,且一直以維護良好的新聞從業者競爭格局為核心。而隨著技術浪潮不斷沖擊新聞業的新聞倫理,技術逐漸打破了新聞業的生態平衡。在整個互聯網內,新聞從業者之間的競爭變得愈發激烈,且出現了技術至上的發展趨勢—誰掌握更先進的技術,誰就可以成為新聞業內最大的媒體組織。

當媒體對媒介技術的依賴成型,那么新聞業內就極其容易出現技術斷層,形成某一家媒體一家獨大的壟斷現象。這一現象打破了新聞業內公平競爭的良好生態,放大了技術在新聞業內發揮的作用和效能。許多媒體則會為了在新聞業占據一席之地,尋求科技公司的幫助。但是諸如ChatGPT一類的人工智能技術多為國內外的科技巨頭公司所研發,若是媒體組織想要使用該類技術,則需要購買或者與國內外科技巨頭公司達成合作。簡言之,媒體組織現今的發展需要具備一定的財力和規模,而像科技巨頭壟斷科技行業的現象也可能會出現在新聞業界內,形成媒體壟斷。這一壟斷現象極大地壓縮了小中型媒介組織的生存空間,失去技術助力的媒體只會日漸江河,最終導致媒體的發展生態呈現惡性循環的面貌。

(四)同質化內容消解新聞業邊界及引導功能

全新的數字化介質使新聞傳播活動發生巨大的變革,因新聞創作門檻的降低以及創作主體大量涌現,傳播內容也變得混雜、多樣,且傳播渠道基于新的技術不斷擴展延伸,整個新聞傳播活動變得更加不可預測,致使新聞業的邊界開始模糊。以人工智能為生產主體所創造出的AIGC降低了傳統傳播的成本以及提高了效能,壓縮了傳統新聞從業者的生存空間,這看似擴大了新聞業邊界,實則將其模糊解構,致使新聞業的邊界開始重組。

以ChatGPT為代表的人工智能在內容上缺乏一定的創新性,其生成的新聞作品多是同質化內容,不斷重復對某一議題的看法和態度。當大量同質化的AIGC涌入人們的日常生活中會形成一種“形式正確”,即人們很少能看到與AIGC持相反觀點的信息,反而大量的同質化信息會一遍遍地加深人們對該類信息的認知。那些與AIGC持相反觀點的由傳統新聞從業者所創作出的優質作品卻因數量太少,被湮沒于同質化信息的洪流當中,由此形成“一邊倒”的新聞生態,極大地削弱了新聞本應給人們帶來正確引導的作用。且由不同新聞從業者所撰寫的新聞內容是從不同的視角、不同的表達方式以及不同的價值觀念出發,基于此打造了一個多元化的新聞傳播生態。同時,大量的AIGC極大地吸引了人們僅有的注意力,形成一種畸形的傳播環境,更加加劇了“信息繭房”效應和“回聲室效應”。當下,人們若不借助AI的檢測軟件很難判斷出一篇新聞是否是由人工智能所生產的,反而由于現在ChatGPT具備高度與人類接近的語言系統,其所生成的內容會讓人認為自己看到的就是由許多不同真正的新聞從業者所撰寫的內容,因而堅信自己并沒有陷入“信息繭房”,由此更加難以逃脫這個畸形的媒介環境。

二、行動:AIGC沖擊后新聞業的解困之策

(一)AIGC在新聞業界內進行標識,規范使用邊界

AIGC不同于傳統網絡中的UGC、PGC以及OGC,其傳播主體不再是人類,而是一種具有類主體性的機器。機器編寫文本的速度要遠遠超過人類,極易造成大量同質化內容出現在人們的日常生活中。而大量的AIGC生成內容一旦涌入新聞界,將會模糊新聞業界的邊界,壓縮傳統新聞從業者的生存空間,致使新聞業界的競爭生態發展走向不良方向。

大量的AIGC生成內容涌入新聞界會造就一個模糊、缺乏真相的傳播環境,如ChatGPT不具有判斷信息真假的能力,其生產內容有可能包含虛假信息。當其生產的新聞內容涌入傳播環境中,可能會造成假新聞到處滋生的亂象。對此,新聞業需要對AIGC的使用范圍做出明確的規范,具有情感偏向、包含意識形態政治立場、對政策進行解讀的新聞都應拒絕ChatGPT等人工智能的介入。新聞業只有明確AIGC內容生產的參與范圍,才能維護好新聞業的邊界,形成和諧、良性的新聞生態。

同時,因為ChatGPT具有高度類似的人類語言交互系統,人們對其生成內容很少有較強的辨別力。任何類似ChatGPT的人工智能的背后的科技組織都應對AIGC做出明確的標識,包括使用ChatGPT的傳媒組織在利用ChatGPT進行新聞生產時也應做好標注,并提示人們其生成內容有虛假風險。有學者提出可以在AIGC生成內容中加上“該新聞內容由人工智能生成,可能存在信息偏差、遺漏、不實等問題”的標注說明[5]。

從技術層面考慮,新聞業及科技組織不僅要不斷推動完善人工智能控制文本生成的算法邏輯,還要研發檢測軟件,從而正確檢測出一段文本是否是由AIGC所生成,以方便受眾進行辨別。

(二)完善數據庫,優化人工智能算法

“智能時代,數據和算法成為新的權力生產要

素?!保?]數據庫和算法是ChatGPT在內容生產創造中的兩大核心要素,在應對AIGC對傳媒業的沖擊時,善治這兩個核心要素是完善AIGC生產體系的關鍵要義。AIGC的關鍵是數據,因此新聞業對AIGC的治理首先要從數據庫開始。新聞從業者應從數據的采集整合、指定標準、完善分類、質量控制以及儲存環節出發,將數據進行安全高效的儲存和使用,并刪選其數據庫內的虛假信息,以增強AIGC生成內容的真實性。

算法在ChatGPT的生產過程中同樣扮演至關重要的角色,AIGC的治理離不開算法。王海濱認為,算法一旦被第三方竊取,新聞業的公平競爭將遭到嚴重破壞,原數據新聞用戶被置于危險之中[7]。對算法的治理,新聞從業者可從以下幾個視角出發:選擇合適的算法、創建高效的算法評估制度、對算法的安全做出保障,以此來增強算法的科學性和合理性。其中,新聞業最關鍵的是如何規避算法受到科研人員意識形態的影響。算法作為一種科學技術,其本身應是中立、客觀的,但是其生產出的新聞內容卻往往帶著創造者自身的政治立場以及意識形態。尤其是OpenAI所研發的ChatGPT、GPT3.0、AlphaCode等算法模型都具有一定的政治傾向性,而且這些模型成為當下幾乎所有人工智能的基礎模型。若不加以治理,這些模型所引發的問題不但容易出現廣泛傳播的現象,而且其存在的缺陷將傳遞到下一代甚至多代的算法模型中。

合理的制度和行政管理都是AIGC治理的解困之策。制度保護技術的發展,若在發展過程中缺乏正確的行政管理是無法有效治理AIGC的,而類似ChatGPT的人工智能在研發、應用和推廣時需要合理、科學的制度框架。該制度框架應包含研發政策的制定、行業內的標準和規則、相關的法律法規以及完善的監管制度,只有采取更加具體、完善、可操作的管理方式,才能提高AIGC在各個方面的使用價值,以此來確保AIGC的合法性和合理性發展。

三、恐慌:生成式AI取代新聞從業者的倫理反思

1993年是人工智能第三次浪潮的興起時間,與前兩次人工智能的泡沫不同,第三次人工智能建立在算力和算法突破的基礎上不斷演進。自2016年Alphago戰勝世界排名第一的棋手李世石后,停留在使用窮舉法的人工智能刻板印象被突然打破,深度學習算法的突破使得人工智能可以更快地處理更加復雜的數據問題,無數有關人工智能的書籍也在那年之后大量涌現。在這些關于人工智能的書籍中談論最多的問題就是人類是否終有一天會被人工智能所取代。如果說這個奇點的來臨還要按世紀去等待,那么人工智能將取代什么工作的問題則是悄然來臨。

有關這個問題的解答大致可以分為兩個類別。一是每次新技術的出現都會引起當時社會勞動結構的變化,但是這種變化并不是指人們大范圍地面臨被技術所取代的失業現象,而是不同的新技術都創造出了不同的新崗位。例如,廣播的出現并沒有使靠文字生活的新聞從業者失業,反而是創造了新的電臺崗位。從生態位的理論來看,新媒介的出現并沒有將舊媒介的生態位完全擠壓至滅亡,而是與舊媒介一同擴展了整個傳播系統的生態位領域。二是部分學者如胡泳、劉純懿認為,人工智能多是替代高知識、高信息的工作崗位,即生成式AI致使失業的人群是處在精英和大眾中間的知識分子[8]。BBC基于牛津大學Michael Osborne和Carl Frey的數據體系分析了365種職業最可能被AI替代的可能性,其中排名前五的分別是電話推銷員、打字員、會計、保險業務員、銀行職員,而這幾種職業的特點都有強烈且明顯的共性:缺乏創造性、社交能力以及同理心。

當AIGC以井噴式姿態出現時,新聞從業者也面臨失業的焦慮。但根據這幾組職業的共性不難看出,制衡AI取代人類工作的核心要素是創造力。以生成式AI為例,其底層的算法邏輯是通過計算概率去選擇合適的內容,并按照人類所習慣的邏輯順序進行排列。進言之,AIGC是依靠大量的數據及語言模型將原有的內容重新打散拼接,最終按照人類能夠理解的語義順序排列而成,其內容生成速度雖然遠遠超越人類,但是所生成的內容并非完全來自自我創作,缺乏一定的創新性。有學者認為,“拼湊”也是一種重要的創新方法,像是《論語》《道德經》等的內容都是拼湊而成,人工智能正在從檢索者、搬運者和呈現者成為創造者(creator)或合作創造者(co-creator)[9]。

我們拘泥于AIGC的原創性問題,本質上是將AI看作一種具有生產主體性的“他者”,一旦將其作為“他者”,那么其生成內容將面臨著作版權的問題。當AIGC的生成內容投入新聞業中,那么創作出該內容的AI是否應享有該作品的著作權,AI能否成為承擔風險的法律主體,都是新聞業與AIGC技術耦合發展歷程上無法避免的問題。伴隨越來越多的AIGC進入媒介世界中,人類不得不承認在文化創作的藍圖中,AIGC赫然顯立于其中。但與其擔心生成式AI是否會淘汰新聞從業者,不如秉持工具理性的態度,將AI作為人類文化生產的“關系居間者”,使其成為聯結人類與文明的橋梁。正如胡正榮所認為的,“AIGC是一種全新的創作方式,但它并非簡單的AI輔助制作或AI分擔工作,也不是場景化應用的局部突破或吸睛式創意的社交營銷,而是人工智能在大模型技術的加持下,通過獨立學習和大量訓練對多模態內容進行理解認知并實現態勢互通的元素組合”[10]。

四、結語

以ChatGPT為帶表的生成式AI伴隨媒介技術的飛速發展,已不斷進入人們的日常生活中,未來會進一步呈現與人類深度融合的傳播格局。許多人在新技術的誕生之時都認為這種媒介技術會改變自己的生活,利用該類新技術可實現更好的生活目標,甚至一度無條件地認可該類技術,這無疑陷入了“技術拜物教”的陷阱之中,對此,我們應時刻警醒,新的媒介技術給新聞業甚至是其他不同行業既帶來便利,也隱藏著一定的問題,對此新聞從業者應堅守行業底線,在新聞內容生產中正確使用AIGC。

[參考文獻]

[1]中國信息通信研究院,京東探索研究院.人工智能生成內容(AIGC)白皮書(2022年)[EB/OL].[2024-02-27].http://www.caict.ac.cn/kxyj/qwfb/bps/202209/P020220902534520798735.pdf.

[2]喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態:從ChatGPT到全面智能化時代的未來[J].新疆師范大學學報(哲學社會科學版),2023(05):81-90.

[3]楊奇光,周楚珺.數字時代“新聞真實”的理念流變、闡釋語簇與實踐進路[J].新聞界,2021(08):12-20.

[4]鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰與對策研究:智能傳播的“科林格里奇困境”與突破路徑[J].傳媒觀察,2023(03):25-35.

[5]唐嘉儀,李春鳳,黃凌穎.新聞倫理視野下的AIGC:沖擊與反思[J].南方傳媒研究,2023(02):29-37.

[6]梅立潤.技術置換權力:人工智能時代的國家治理權力結構變化[J].武漢大學學報(哲學社會科學版),2023(01):44-54.

[7]王海濱,葛方度.數據新聞倫理風險及規范發展研究[J].國際傳播,2020(05):26-33.

[8]胡泳,劉純懿.UGC未竟,AIGC已來:“內容”的重溯、重思與重構[J].當代傳播,2023(05):4-14.

[9]江潞潞.智能交往,未來已來:“激蕩AIGC”數字交往八人談觀點綜述[J].傳媒觀察,2023(03):48-54.

[10]胡正榮,李涵舒.顛覆與重構:AIGC的效用危機與媒介生態格局轉化[J].新聞與寫作,2023(08):48-55.

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合