?

智能媒體新聞生產的倫理困境及對策

2021-01-03 17:54畢文佳
青年記者 2021年6期
關鍵詞:倫理人工智能生產

● 畢文佳

隨著5G 時代的來臨,人工智能技術已普遍應用于新聞生產的各環節中。在人工智能媒體發展探索的過程中,倫理失范現象不斷產生??萍际且环N能力,向善是一種選擇,本文將探尋智能新聞生產的困境及突圍路徑。

智能新聞生產的困境

困境一:多元主體參與新聞生產,內容客觀性真實性失守。在新聞專業領域,新聞內容需要客觀真實地反映事實,在以往傳統的“把關人”時代,新聞的真實性、客觀性主要依賴于新聞從業者的職業素養與道德操守。隨著新聞傳播領域的智能化轉向,越來越多的非新聞專業領域算法工程師、盈利目的明確的產品經理、網絡新聞高頻互動轉發的受眾在平臺化的媒介生態中共生,對于算法的建構偏向及新聞內容生產分發都有著重要影響,算法的研發設計偏見使得多元參與主體的情感立場悄然介入,影響著新聞內容的真實客觀。

困境二:算法不透明,個人數據隱私屢遭侵犯。算法設計依托的是機器自主學習技術,從數據輸入、數據產品輸出的流程來看,新聞內容生產流程被納入人類無法識別的“生產黑箱”。算法新聞最重要的倫理問題是利益鏈條的“數據共享”,在萬物互聯的媒介生態下,個人數據隱私保護只是紙上談兵,用戶的年齡、性別、工作、愛好等信息會被精確記錄。

困境三:責任歸屬不明確,問責機制不完善。人工智能創作既不是作者主體基于情感而進行的個人創作,也不是簡單的復制粘貼,而是在數據分析和套用模板的基礎上產生的具有較大重復性的機器作品。作品創作上既缺乏知識生產的獨創性,也涉及創作過程中產生的版權侵權問題。在快速發展的智能新聞生產領域,尚未形成可溯源的、完善的新聞問責機制,一旦發生失范現象,很難進行追責。

困境四:內容生產同質化,報道模式刻板單一。由網絡過濾器通過探尋受眾興趣,對用戶進行精準畫像后產生的信息推送,在信息傳輸窄化的過程中,單一的分發模式,同質化的信息重構會把受眾禁錮在“牢固的繭房”之中。所帶來的圈層固化和群體極化現象,影響著受眾個體的媒介素養以及公眾的價值認知。同質化內容的覆蓋及單一報道模式的裹挾,阻礙了公共多元化信息的傳播。

困境五:算法歧視視域下的權利與權力沖突。算法歧視指計算機系統可以有序地、不公平地歧視某些個人或群體,使之有利于他人。歧視類型主要分為設計者偏見型、數據瑕疵型、技術缺陷型以及經濟利益驅動型,特別是在涉及政治元素的新聞報道中算法歧視顯著,具體表現為文化偏見、技術偏見、突發偏見應用于算法程序的設計、重構及補充。在新聞生產中,新聞傳媒業的“瞭望者”身份被算法歧視剝奪,而機器深度學習的異化也造成了多元參與者的權利與權力的沖突。如雅虎旗下的Flickr 將黑人程序員照片打上“猿猴”的標簽進行有色人種的歧視;微軟公司AI 聊天機器人Tay 將臟話與種族歧視的思想輸入進了學習程序;Facebook 利用爬蟲技術收集用戶數據并通過算法進行“個性化塑造”,干預總統大選。

解決路徑

面對人工智能技術參與新聞生產過程中產生的倫理問題,全球新聞業都在探尋解決的路徑。

路徑一:共筑數據安全壁壘,加強國際間合作,建構健康媒介生態。2018 年,Partnership on AI 宣布百度公司成為其中國籍的首位成員,百度將與Partnership on AI 中的其他成員一同致力于AI 研發標準和全球性AI 政策制定,讓AI 技術健康發展[1]。在人工智能領域,中國政府及中國企業作為全球人工智能技術發展的引領開拓者,以切實有力的行動加強國際間關于倫理問題的合作,探索全球人工智能治理體系,共同促進全球人工智能倫理問題的解決,促進全球人工智能技術在各個領域的發展。

路徑二:提升人工智能技術水平,制定智能生產原則。目前,智能算法在運用中還存在一些難以突破的瓶頸,例如數據的搜集、語義的理解、可靠性較差等,政府、企業機構和算法工程師需要在技術上進行更高層次的研發,提升人工智能深度學習的能力。同時,在基礎建設、數據處理、硬件設施建設、服務和安全隱私等方面,加快制定人工智能發展的技術標準和規范體系,減少人工智能在實際運用中出現的倫理問題。

建立公約原則,規避倫理風險。(1)透明性原則是基礎。透明則意味著公開,要增強透明性,首先就要公開生產和傳播過程中的相關信息。接受社會監督,保證信息的可追溯性,具體體現為:在文章顯眼的地方標注機器人生產;表明涉及和傳播的算法工程師和公司名稱;如果涉及審核和監督過程,還要標記審核人員的姓名,保證新聞生產的可溯源性和可追責性。(2)知情同意原則是前提。人工智能在新聞分發階段應用最高頻的就是個性化的智能分發,呈現受眾精準畫像的千人千面分發,此舉不可避免地會涉及對用戶隱私數據的搜集和使用,例如用戶的年齡、性別、愛好、近期點擊瀏覽的內容等。因此,要做到讓受眾知情同意,并可以隨時終止對其數據的抓取。(3)風險可控原則是關鍵。對于新技術的發展和使用都要在認知其優劣的基礎上進行,首先,應謹慎選擇報道的范圍和領域。其次,要精準地選擇數據源,合理規范處理數據源。在選擇數據源時,一方面要保證其來源的合法性,不得以侵犯他人隱私為由獲得數據;另一方面要保證數據源的完整性和真實性,當數據源虛假或片面時,基于數據庫所產生的新聞也會出現虛假和片面的情況。(4)糾察更正原則是保障。在傳統新聞生產過程中,嚴格的編審制度和固定的分發流程是對信息高質量的保障,對于不慎出現的失實及失誤做出更正和解釋是新聞媒體應盡的義務,真實是新聞的生命,智能新聞在生產的過程中也必須堅守這一原則。由于智能化新聞生產的快速性和海量性,對于每一篇新聞進行逐字逐句的內容核實難度較大,因此我們必須有選擇性地對內容進行糾察,如涉及個人隱私的、關系到重大社會利益的信息必須進行核實之后再發布,如在新聞發布后發現該內容出現問題也必須在第一時間進行更正,并且要保證將修改之后的信息通過原渠道方式傳送給受眾。各大新媒體平臺要設置內容監督和舉報機制,通過廣大用戶的監督來及時發現錯誤,以保證在最大程度上減少錯誤信息帶來的不利影響。

路徑三:加強新聞從業人員的規范化培養,增強社會治理參與的主體意識。算法新聞是新聞生產的工具和手段,不具備傳統新聞生產的自主性和自由性,智能新聞是機器按照人的主體意愿生產出來的內容產品,人機協同的核心依然體現人的主觀性。所以,在新聞生產的具體的實踐中,加強算法工程師、媒體經理人、新聞從業者等人才的規范化培養,增強社會治理的責任意識,是突破倫理困境的必由之路。(1)加強專業領域的復合型人才培養。重視培養和輸出具備交叉學科背景、技術實踐能力的復合型人工智能人才。(2)重視從業者的職業道德提升培養。重點立足于新型智能新聞行業的政策法規、公序良俗。(3)貫徹共建共治共享理念及社會治理參與的主體意識。提升媒體從業者的社會責任感、社會參與感,明確其媒介生態構建的角色身份及社會治理參與的主體地位。

路徑四:逐步建構健康合理的數據法律環境。在人工智能飛速發展的時代,法律呈現出滯后性,國際社會要合作建構合理的國際數據法律環境,為信息的健康生產傳播、媒介健康生態的建構保駕護航。

針對數據隱私和數據濫用的問題,歐盟早在1995 年就在相關數據保護法律中提出了“被遺忘權”[2]的概念,2012 年通過“岡薩雷斯訴谷歌案”確認了這一法律制度。美國在2015 年也設立了“橡皮擦”法案,來確保未成年人的信息受到保護。中國在此基礎之上探討“被遺忘權”的本土化問題,學術界也表達了認可的態度。國際上許多國家已經提出人工智能領域涉及算法倫理規制的倡議,前有阿西洛馬人工智能原則,后有美國計算機協會提出的算法透明與追責原則。2018 年5 月生效的歐盟《通用數據保護條例》給予公眾最大限度的隱私數據保護。2019 年中國政府提出了“六大政策”推動新一代人工智能的發展,加強人工智能相關法律、倫理和社會問題研究,建立保障人工智能健康發展的法律法規和倫理道德框架[3]。在歐洲憲法中,當個人資料“被收集或以其他方式處理”時,便會觸發保護資料法例。在荷蘭,對自愿參與在線個性化服務的研究必須遵守相關的法律和道德框架。

總之,隨著人工智能的快速發展和落地應用,人工智能技術的安全性已經成為全球各國共同面臨的問題,世界各國應從倫理道德合作研究、技術標準制定、構建健康的法律環境等方面加強國際間的合作,共同面對這一新技術帶來的新問題,為人工智能的安全應用保駕護航。

猜你喜歡
倫理人工智能生產
《心之死》的趣味與倫理焦慮
用舊的生產新的!
“三夏”生產 如火如荼
護生眼中的倫理修養
2019:人工智能
人工智能與就業
S-76D在華首架機實現生產交付
數讀人工智能
下一幕,人工智能!
醫改莫忘構建倫理新機制
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合