?

社交機器人的風險問題及其治理

2023-06-01 05:04陳心怡毛明芳
湖南行政學院學報 2023年2期
關鍵詞:人機交互

陳心怡 毛明芳

摘要:社交機器人是能夠遵循社會行為和規則與人類或其他主體進行交互的自主機器人或智能程序,正在深入人類社會的醫療、服務、教育等各個領域,并且一改過去科技的工具和媒介屬性,成為社會網絡的活動者,具備某種程度的社會屬性。擁有情感化功能和擬人性特征的社交機器人在生產生活中發揮積極作用的同時,科學技術本身的不完善和使用者意圖的不正當等原因也導致出現個體理性遭遇挑戰、民主和平受威脅等復雜的風險問題。對此,需要正確認識社交機器人及其風險,依靠平臺、政府、個人等多方努力和多元共治來推動科技和社會持續健康發展。

關鍵詞:社交機器人;人機交互;科技風險;風險治理

中圖分類號:C91? ?文獻標識碼:A? ?文章編號:1009-3605(2023)02-0078-09

隨著人工智能對人類感知和認知能力模仿水平的提升,機器不再僅僅是“人的延伸”,而成為“人”——兼具社會角色屬性的機器人。社交機器人作為人工智能發展的新產物,超越了工具和媒介的屬性而具有社會生活和情感層面的功能,既具有革命性、顛覆性,又具有顯著的未知性、風險性。習近平總書記指出:“科技是發展的利器,也可能成為風險的源頭?!盵1]鑒于社交機器人的新興性、前沿性、復雜性、特殊性,重新認識社交機器人的應用形式和可能風險是智能時代無法回避的問題。

一、社交機器人:社會的新角色

(一)社交機器人的定義

社交機器人的概念最早由麻省理工學院教授辛西婭·布雷澤爾提出,但目前還未形成統一的定義??突仿〈髮W機器人研究所的特倫斯等人總結了社交機器人的七大特征,即“表達或感知情感,與高層級對話溝通,學習或識別其他代理的模型,建立或維護社會關系,使用自然的暗示(凝視、手勢等),表現出鮮明的個性,可以學習或發展社交能力”[2]。Boshmaf等學者將社交機器人定義為“一種在社交網絡中自主運行社交賬號并且有能力自動發送信息和鏈接的智能程序”[3]94。在國內,張洪忠等學者認為社交機器人是在社交網絡中扮演人的身份、擁有不同程度人格屬性且能與人互動的虛擬AI形象[4]。鄭晨予等學者將社交機器人定義為在社交媒體中由人類操控者設置、由自動化算法程序操控的社交媒體賬號集群[5]。目前學界傾向于研究充當社交媒體內容生產者的社交機器人,對其定義多為虛擬賬號、智能算法程序,忽視了擁有“物理化身”的、能夠遵循社會行為和規則與人類或其他主體進行互動或交流的自主機器[6],這類社交機器人在醫療、教育等領域的應用越來越廣泛,承擔著護理師、傳播者等多種社會角色。

(二)社交機器人的應用

在新媒體領域,社交機器人是信息的生產者和傳播者,可以模仿人類的社交活動、時間分配、傳播模式和情感表達,也能自動生成和發布內容并與社交網絡中其他人產生交互[3]93-102。社交機器人通常偽裝成正常用戶,通過有組織地大量轉發、標簽劫持、塑造意見領袖、與人類用戶交互等方式影響輿論和人的認知。社交機器人也被創新應用于新聞的生產、聚合與分發領域,例如BBC旗下的新聞對話機器人Mundo。政治方面,社交機器人主要用于選舉競爭、國家輿論戰、意識形態滲透等;經濟方面,主要用于商品營銷、企業形象塑造或破壞、股市操控等;社會方面,主要用于傳播應急信息、健康信息和偽科學。社交機器人對人的網絡社交行為的模仿和復刻能力不斷提升,但信息處理能力遠遠高于人類用戶,使傳播生態從以人為主導走向“人機共生”。

在醫療健康領域,社交機器人是治療師和訓練員,主要用于患有孤獨癥譜系障礙(autism spectrum disorders,ASD)兒童的社交干預訓練和老年照護等方面。1976年愛丁堡大學的Weir等人首次將機器人應用于ASD兒童的社交技能干預訓練[7]。首先,隨著科技的發展,社交機器人更加靈活、智能,在ASD兒童中的運用越來越多。通過編程和遠程控制,社交機器人可執行特定訓練內容,保證干預目標、內容和強度在時間進程上的一致性[8]。其次,社交機器人具有新奇的外觀和非生命特征,能呈現簡單有趣的表情和動作,提供安全穩定、可預期的社交情景,在一定程度上能喚醒ASD兒童的積極情緒,緩解其對外界的消極情緒,增強社交興趣。人口老齡化的嚴峻形勢使老年健康服務人員面臨巨大挑戰,社交機器人的創新應用為此提供了新思路,“使機器人成為社交機器人的一個特殊條件是嵌入情感”[9]。社交機器人既可以輔助老年人的日常生活,還具有情感治療、認知訓練、社交促進、陪伴和生理治療等多種功能。相關理論研究和實踐應用表明,社交機器人的干預有助于提高老年人的社會參與技能和水平、減輕老年人的心理壓力與疼痛、降低血壓、減少用藥[10],能有效維護老年人的身心健康且很少產生副作用,同時有利于節約衛生保健資源、緩解社會養老壓力且不受文化差異影響。

在教育領域,社交機器人推動了人機協作的教育模式和互動式教育理念的創新。國內外諸多研究證明,教育服務型機器人對不同階段學生的學習和技能發展都能產生一定的積極作用,有助于提高教學水平和效率。教育服務類社交機器人在教育活動中通常扮演導師、同伴或監督者三種角色。導師角色指機器人作為教師或助教為學生提供優質教學資源、個性化學習路徑及學情報告分析等;同伴角色指機器人作為學習者的學習伙伴,開展學習互動、協助時間管理、提供情感支持等;監督者角色指機器人運用情境感知、智能測評等技術對學習者的學習狀態和體征數據等進行監測與采集[11]。

在家庭服務領域,社交機器人是管家和朋友。隨著傳感技術、情感計算、人工視覺等關鍵技術的突破,社交機器人的人機交互功能愈加豐富完備,社會性和擬人性等特征愈加突出,在家庭服務領域顯現出獨特優勢,目前常見的有桌面型、輪式和四足機器人等。桌面型社交機器人體積較小,以智能娛樂和互動功能為主,是家用社交機器人的入門產品,如2014年辛西婭·布雷澤爾推出的機器人Jibo。輪式機器人可以在室內自主運動,如北京先進者研發的小胖機器人集智能管家、科技娛樂、家教輔導等功能于一體。以機械狗為代表的四足機器人在家庭服務中通常作為機器寵物為主人提供陪伴服務,如1999年日本索尼公司推出的機器狗AIBO是最早的消費級機器寵物之一,蔚藍科技自主研發的阿爾法機器狗是目前全球市場占有率最高的機器寵物。除了提高家庭生活的便捷性和趣味性,家用社交機器人充當不同角色,已成為家庭的一員。

二、社交機器人的風險問題

風險是一個位于安全與毀滅之間的中間地帶,是一種虛擬的現實和真實的虛擬[12]。烏爾里?!へ惪酥赋?,伴隨技術選擇能力的增長,是它們的后果的不可計算性[13]。社交機器人的迅速發展和越來越廣泛的應用也意味著其風險在社會、政治、倫理、法律等領域的增強和擴散,只有充分認識到其風險,才能在促進和享受科技進步的同時預防、降低和避免損失和危害,防止陷入技術決定論誤區。

(一)社會風險:污染輿論環境,鉗制個體理性

活躍于互聯網平臺的社交機器人能夠自主生成內容,在惡意使用下能通過推動和劫持標簽活動、制造和傳播虛假信息、偽裝成或“寄生”于意見領袖、協同作戰進行信息轟炸等手段污染輿論環境,操控話語走向,鉗制個體的理性思考和表達。

社交機器人一般不是單個作用,而是大規模運作,組成“智能水軍”,其生成和傳播信息的效率高,能夠有效放大或削弱特定言論的影響力,且不易被識別和檢測。網絡水軍無處不在,無往不利,經常是明星炒作、惡性競爭、傳播有害信息,甚至詐騙勒索的幕后推手。社交機器人既可以集追蹤熱點、創建賬戶、評論點贊等功能于一體,也可以分工協作,分別執行賬戶權限破解、用戶屬性預測、社會網絡結構分析、意見領袖推斷等任務,化整為零地規避平臺風控機制,再滲透到真實用戶群體中[14]。同時,社交機器人不同于以往的機器人,面對監測手段的升級,其模仿人類用戶的技術也在不斷進步。賬戶屬性、興趣標簽、共同關注對象、活躍頻率、自我展示策略等社會化線索是當前社交機器人在創建和滲透用戶群體時借鑒的主要特征[15],不斷強化的“擬人化”特征和情感喚醒等策略讓人難以辨別真假。

社交機器人能以較低的成本形成較大的輿論勢力,消解專家評論的權威性,挑戰個體理性,鉗制個體表達。德國社會學家諾爾·諾依曼提出了沉默的螺旋理論,指出大多數個人會力圖避免因單獨持有某些態度和信念而產生的孤立,對孤立的恐懼使個人以“準統計的方式”不斷變化著,在社會中贊成的呼聲升高時表達贊成的觀點,在贊成的呼聲下降時保持沉默,沉默進一步使原有的觀點失去了民心[16]。針對特定話題,社交機器人可以通過自動識別技術探測熱點,搶占傳播先機,迅速、持續生成相關內容。當社交機器人發布的某種觀點占據一定比例,就能形成以該觀點為主流意見的假象,導致大眾對優勢意見趨同的非理性行為,甚至誘導個體觀點極端化。大量的信息泡沫會降低社會能見度,加快有價值的信息的沉沒,專家評論的權威性被社交機器人侵蝕。

(二)政治風險:淪為權力工具,威脅民主和平

在2016年美國大選及英國脫歐、土耳其危機等事件中,社交機器人對輿論的操控能力使之成為權力的工具,左右政治選舉、推動政治議題、干擾政治活動,給國家的民主和法制帶來了威脅,甚至影響國際關系的和平穩定。

用于政治操縱的社交機器人被稱為政治機器人。如同明星的流量炒作,政治團體運用政治機器人為候選人打造虛假人氣,制造虛假新聞混淆視聽,中傷或抹黑競選對手,以“偽草根”影響真選民對候選人和社會形勢的評判。在2017年法國總統大選中,候選人馬克龍的郵箱泄密事件迅速被Twitter上的機器人恣意散播;在2020年美國大選中,政治機器人利用民主黨和共和黨候選人對華政策分歧炮制極化輿論,且態度鮮明地偏向共和黨。政治機器人的大量加入使政治團體的“公意”操控了“眾意”,民主的聲音被裹挾。

在政治決策中,政治機器人則在某些利益集團的控制下偽裝成群眾,通過發表“人類觀點”影響議題推進。政治話題一般敏感性強、爭議大、影響深、背景復雜,容易在討論中形成激烈對峙和抱團取暖的極化群體。相對于客觀理性的觀點,極端激進的發言更能博人眼球,激發情感互動。因此在政治議題的操控中,政治機器人除了傳播虛假信息、發表特定觀點,更有效的方法是強化某些觀點,煽動大眾情緒,刺激群體極化。在互聯網導致政治參與更加普遍化和扁平化的背景下,“草根”的力量似乎得到壯大,但也成為被愚弄的對象。輿論場的混亂和扭曲也使得決策者難以分析真假民眾和真假意見,民主遭到破壞,政治決策也面臨著更大的風險。

政治機器人的運用也沖出國界線,成為重要的國家安全問題。國家間的博弈在一定程度上轉變為政治機器人操縱下的輿論博弈,擁有智能算法的機器人正逐漸取代人成為國際輿論爭奪中的主力。國家利用政治機器人構建國家形象和攻擊他國形象,通過滲透意識形態、分散公眾注意力、擾亂他國輿論等進行國際斗爭。有學者指出敘利亞戰爭或許是首次有數字機器人介入的現代戰爭,認為敘利亞安全部門利用了大量政治機器人對反對勢力進行輿論干預,并阻礙記者通過Twitter獲取戰爭動態信息,干擾媒體和國際用戶視聽[17]。在一些議題中,美國社交媒體上針對中國的機器人攻擊其表現非常突出[18]。政治機器人是一種相對廉價的技術,小國同樣可以召集一批“雇傭軍”對抗大國的進攻,這意味著這場無聲戰爭的規模將越來越大、越來越激烈。

(三)倫理風險:帶來情感欺騙,挑戰道德關系

情感化是社交機器人的典型特征之一,主要目的是促進可信的人機交互,但這種“情感”交互實際上是“單向度的情感”。雖然社交機器人的相關技術在不斷進步,但實際的模仿和感知能力仍非常有限。首先,普拉契克的“情感之輪”理論認為人類在“四個強度水平上共發生224種情緒”[19],社交機器人能模仿的基本情感只是人類情感多樣性的冰山一角。其次,由于文化和個體差異等原因,人類情感的表達具有特殊性和復雜性,社交機器人難以感知并作出回應。相反,在人機交互中,人類的情感輸出和反饋更為豐富深刻,雙方的情感付出和回報不對等,因為社交機器人的情感是“人造”的、“虛假”的,帶有欺騙性,本質是沒有溫度的算法和程序??瓶藸柌駥η楦袡C器人的“不真實”作出三點總結:“①情感機器人企圖用他們的‘情感來欺騙。②機器人的情感是不真實的。③情感機器人假裝是一種實體,但它們不是”[20]。人機交互過程中社交機器人的欺騙意圖和人類的自欺欺人容易導致用戶的情感沉溺和認知世界的責任削弱,進而有可能使人失去人生的真實價值,正如斯派洛所指出的:“一個人要想從擁有一只機器寵物中獲得巨大的好處,就必須系統地欺騙自己,不去了解他們與動物之間關系的真實本質。它需要一種道德上可悲的多愁善感。沉溺于這種多愁善感違背了我們必須自己準確理解世界的(薄弱)責任。這些機器人的設計和制造是不道德的,因為它預設或鼓勵了這種欺騙?!盵21]此外,在接受社交機器人的長期“欺騙”后,用戶的生理機能和心理等可能趨于機械化、簡單化,表現出某種程度的“退化”。正如特克爾所描述的,與機器相處久了,我們不僅會把我們的情感“縮減到機器可以制造的范圍內”,同時還會降低“對所有關系的期待”[22]。

在家庭中,相對于成年人,由于兒童心智發育不成熟,社交機器人的使用更易造成其認知出現偏差,使之產生機器人是生命體的幻覺。對機器人的依賴和依戀也會減少人真實的社會交流,造成人的社會性退化。而父母在使用社交機器人作為孩子的同伴、子女在使用社交機器人陪護老人時,機器人可能發展為父母推脫育兒責任、子女逃避贍養責任的工具和借口,導致道德責任缺失。

(四)法律風險:侵犯用戶隱私,導致信任危機

在互聯網和大數據時代,數據是“高價值商品”,信息安全和隱私保護是突出問題,社交機器人的廣泛應用同樣會產生多領域和多層次的信息泄露風險。在社交平臺上,社交機器人會模仿人的社交方式進行轉發、評論、點贊等,較強的偽裝、廣泛的分布、持續的活動讓普通用戶難以辨別。除了直接向個人用戶發起行動,社交機器人也能利用社交媒體的“弱連接”效應間接滲透其他用戶。例如Boshmaf等人在Facebook上部署社交機器人網絡Socialbotnet進行測試,運行2個月,目標是大規模滲透Facebook,竊取用戶隱私數據。Socialbotnet一共發送了8570條好友申請,3055名用戶接受了申請,當社交機器人和Facebook用戶擁有11個以上的共同好友時,用戶對好友申請的接受率就會上升到80%[3]93-102。與人類交互的過程就伴隨著由信息挖掘、信息交換等導致的個人信息泄露風險,當成為好友后,社交機器人就能進一步解鎖更高權限,獲得用戶的更多信息。醫療信息具有高度的特殊性和敏感性,在各種利益的驅動下,醫療領域成為隱私泄露的重災區。社交機器人在干預治療中需要記錄、分析病人的相關信息,自主學習病人的行為模式,這些信息一旦泄露,不僅可能對病人的健康、財產等造成危害,更可能促成非法研究。在家庭生活中,社交機器人與家庭成員相處時間更長、關系更為密切,能夠深度挖掘家庭成員的心理、身體、社會網絡等多重信息,甚至在待機狀態時也能實現監聽監控。

三、社交機器人的風險治理

科技的發展是不可逆的,社交機器人的開發和應用也勢在必行,既要在闊步發展中警惕風險,又要在積極規避風險中促進發展,推動科技向善。

(一)機器人:植入道德芯片,提高智能水平

針對社交機器人可能帶來的一系列風險,可以從算法設計這一源頭出發,研究機器人的“道德芯片”,賦予其更高的智能,從內部化解風險??屏帧ぐ瑐惡屯呃仗岢龅摹暗赖聢D靈測試”為社交機器人算法的設計提供了兩種路線:自上而下和自下而上[23]。自上而下即道德計算,將人類社會的道德倫理、規范準則等轉譯為機器語言,從而使社交機器人能夠按照“向善”的預期行動。但人類的道德準則復雜多樣,道德尺度莫衷一是,何為惡,何為善,何為道德行為的最優解,并沒有絕對定義,因此算法設計無法包含所有的道德倫理,且道德標準難以量化為機器可讀懂的數據?;蛘?,根據艾西莫夫提出的機器人三定律,放棄計算機器人行為的道德效益最大化而為其嵌入人類的道德義務是否可行?事實上,人類無法從大量的道德準則中提煉出“普遍道德”,機器人也難以理解這種高度抽象的語言,因此只能走自下而上的路線。完全的自上而下路線無法進行,但其構建具有啟示意義。自下而上是指機器在情境中學習,只需讓社交機器人在道德情境中通過觀察人類的行為,習得人類社會的道德規則,從而根據不同的情境自主判斷。這種進路類似于讓幼兒在社會環境中接受道德教育的方式,這種教育既能明確恰當和不恰當的行為,又不一定提供明確的道德理論[24]。

(二)平臺:完善監測技術,規范平臺運行

大量的社交機器人寄居在互聯網平臺,需要平臺升級檢測技術,完善風控機制,加大監管力度,改善傳播生態。鑒于社交機器人影響力的不斷擴大,偽裝術越來越強,網絡平臺需要從被動轉向主動,綜合運用多種監測技術,撕下社交機器人的面具。當前Facebook、Twitter等社交媒體已開始采取“算法治理算法”的策略來識別和處理可疑賬戶,并不斷完善相關政策依據。同時也要保護發揮積極作用的社交機器人,防止矯枉過正,為科技的健康發展提供空間。對于企業惡性競爭、明星炒作等問題,需要摒棄“唯流量論”,降低流量指標的權重,建立多角度、多層次的市場競爭指標體系。

平臺還要重視加強自我管理,追求利益的同時也要兼顧社會責任,制定、完善和貫徹有關社交機器人的規范制度,明確對象、權利、義務和準則等。美國學者Nathalie Maréchal提供了思路:關于社交機器人的良好規范框架應包含三點:身份披露、用戶知情同意和二次使用,具體而言,即社交機器人應明確表明其身份、不應該在未經同意的情況下與其他用戶聯系,包括點贊、轉發等互動,社交機器人收集到的用戶信息只能用于已公開的用途[25]。在此,如何定義和判斷社交機器人及其危害性行為還有待斟酌研究。

(三)政府:加快政策研究,探索全球共治

由于市場的盲目性、自發性和滯后性,社交機器人的治理需要發揮政府的主導作用,通過制定和執行具有約束力的方針條例和強制性的法律法規規范社交機器人的設計和使用,引導其在科技和社會層面上的協調發展。社交機器人作為人工智能發展的產物,可以納入人工智能治理框架。目前世界各國都越來越重視構建人工智能的風險治理制度體系,歐盟在2015年就決定成立專門的工作組來研究機器人和人工智能發展的法律問題,后陸續發布和通過了《歐盟機器人民事法律規則》和立法議案。2019年特朗普簽署行政令啟動了“美國人工智能倡議”,強調要制定可靠、有效、可信、安全、輕便、可操作的人工智能體系技術標準。在我國,2019年全國兩會表示已將和人工智能相關的立法項目納入未來五年立法計劃,2020年成立了國家科技倫理委員會,強化對科技倫理治理的統籌規范和協調指導。政策方針、法律法規的制定既要對現有問題進行規制矯正,更要提高應對未來風險的前瞻性和預見性;既要明確社交機器人的設計標準和原則,做好前置預防,又要明確責任主體,嚴格溯源與追責。

社交機器人產生的風險正在向全世界擴散,沒有哪個國家可以獨善其身,作為國際社會成員,每個國家都應承擔起促進國際社會和平發展的責任。探索全球共治的模式既有助于通過資源、信息、技術共享推動技術難題和社會難題的破解,又有助于規范和約束各國行為,避免國家間社交機器人的不正當使用,重建和平信任的國際關系。

(四)公眾:深化理性認知,提高科技素養

人是社交機器人研發和使用全過程的主體,科研人員和用戶都是風險治理的關鍵一環??蒲腥藛T和技術人員應該培養前瞻性責任意識,在設計研發中堅持道德原則,增強風險意識,盡量摒棄偏見,在算法編程中將原則性的基本道德納入研究范圍,避免機器人繼承人類偏見,并植入預警和防范裝置。此外,科研人員還應積極參與社交機器人的風險說明、預防、處置等相關活動,為政治決策和用戶科普貢獻力量。

同時,要重視培養作為社交機器人的使用者或行動目標的公眾的科技素養,這也是信息時代公民的必備素養。公眾機器人素養的提升既要依靠國家和社會加大宣傳和科普力度,更新教育內容和形式,也需要公眾發揮主觀能動性,增強風險與安全意識,正確正當使用社交機器人;提升理性認知,了解社交機器人的特征、行動策略和本質屬性,提高識別能力,避免過度依賴;培養批判性思維,辯證看待社交機器人的利與弊。另外,個人也要自覺遵守道德規范,履行道德義務。

四、結語

社交機器人是具有廣闊市場前景和巨大潛力的新興科技,給人類帶來了全新的人機交互體驗,但伴隨而來的還有倫理風險、政治風險等問題。發展總是利弊交錯,喜憂參半,如何認識和對待社交機器人也是新一輪科技革命中人類如何自處要解決的難題。需要強調和肯定的是,科技發展需要正確的認識來指導,在科技的實踐和探索中認識也能得到進一步提高。社交機器人既不是天降神兵,亦非洪水猛獸,因此不能逆科技發展的潮流,也要防止科技失控。要在政府與企業、社會,國家與國家的雙向合作、多方協同中促進社交機器人在符合人類利益的正確軌道上前行,以人的“善”促進科技的“善”。

參考文獻:

[1]習近平.在中國科學院第二十次院士大會、中國工程院第十五次院士大會、中國科協第十次全國代表大會上的講話[N].人民日報,2021-05-29(2).

[2]Terrence Fong,Illah R.Nourbakhsh,Kerstin Dautenhahn.A Survey of socially interactive robots[J].Robotics and Autonomous Systems,2003(3-4):143-166.

[3]Boshmaf Y,Muslukhov I,Beznosov K,et al.The socialbot network:when bots socialize for fame and money[C].Proceedings of the 27th Annual Computer Security Applications Conference.Orlando,FL:ACM,2011.

[4]張洪忠,段澤寧,韓秀.異類還是共生:社交媒體中的社交機器人研究路徑探討[J].新聞界,2019(2):10-17.

[5]鄭晨予,范紅.從社會傳染到社會擴散:社交機器人的社會擴散傳播機制研究[J].新聞界,2020(3):51-62.

[6]Cynthia Breazeal.Toward sociable robots[J].Robotics and Autonomous Systems,2003(3-4):167-175.

[7]Ricky Emanuel,Sylvia Weir.Catalysing communication in an autistic child in a LOGO-like learning environment[C].Proceeding og the 2nd Summer Conference on Artificial Intelligence and Simulation of Behaviour.Netherlands:IOS Press,1976:118-129.

[8]劉潔含,李甦.社交機器人輔助干預孤獨癥譜系障礙兒童研究進展[J].教育生物學雜志,2021(1):1-5+21.

[9]Kirandziska V,Ackovska N.A Concept for Building More Humanlike Social Robots and Their Ethical Consequence[J].IADIS International Journal on Computer Science and Information Systems,2014(2):19-37.

[10]王靈娜,管玉梅,程鈺,等.社交機器人Paro在老年護理中的應用研究進展[J].護理研究,2021(12):2150-2154.

[11]汪時沖,方海光,張鴿,等.人工智能教育機器人支持下的新型“雙師課堂”研究:兼論“人機協同”教學設計與未來展望[J].遠程教育雜志,2019(2):25-32.

[12]芭芭拉·亞當,烏爾里?!へ惪?,約斯特·房·龍.風險社會及其超越:社會理論的關鍵議題[M].趙延東,馬纓,等,譯.北京:北京出版社,2005:323.

[13]烏爾里?!へ惪?風險社會[M].張文杰,何博聞,譯.南京:譯林出版社,2004:20.

[14]Kai-Cheng Yang,Onur Varol,Clayton A.Davis,et al.Arming the public with artificial intelligence to counter social bots[J].Human Behavior and Emerging Technologies,2019(1):48-61.

[15]Wang Wenxian,Chen Xingshu,Jiang Shuyu,et al.Exploring the construction and infiltration strategies of social bots in sina microblog[J].Scientific reports,2020(1):19821.

[16]常昌富,李依倩.大眾傳播學:影響研究范式[M].北京:中國社會科學出版社,2000:135.

[17]Michelle Forelle,Philip N.Howard,Andres Monroy-Hernández,et al.Political Bots and the Manipulation of Public Opinion in Venezuela[J].CoRR,2015,abs/1507.07109.

[18]韓娜,虞文梁.國家安全視域下的計算政治宣傳:運行特征、風險識別與治理路徑[J].公安學研究,2020(6):1-23+122.

[19]喬建中,高四新.普拉契克的情緒進化理論[J].心理學報,1991(4):433-440.

[20]Coeckelbergh,Mark.Are Emotional Robots Deceptive?[J].IEEE transactions on affective computing,2012(4):388-393.

[21]Robert Sparrow.The March of the robot dogs[J].Ethics and Information Technology,2002(4):305-318.

[22]雪莉·特克爾.群體性孤獨[M].周逵,劉菁荊,譯.杭州:浙江人民出版社,2014:136.

[23]阮凱.機器倫理何以可能:現有方案及其改良[J].自然辯證法研究,2018(11):53-58.

[24]Colin Allen,Iva Smit,Wendell Wallach.Artificial Morality:Top-down,bottom-up,and hybrid approaches[J].Ethics and Information Technology,2005(3):151.

[25]Maréchal Nathalie.When Bots Tweet:Toward a normative framework for bots on social networking sites[J].International Journal of Communication,2016(10):5029.

責任編輯:袁建濤

收稿日期:2023-01-12

基金項目:國家社科基金項目“新時代防范化解科技重大風險的哲學方法論研究”(項目編號:21BZX050)

作者簡介:陳心怡,女,湖南邵陽人,中共湖南省委黨校(湖南行政學院)科技與生態文明教研部碩士研究生,主要研究方向:科技風險;毛明芳,男,湖南益陽人,中共湖南省委黨校(湖南行政學院)科技與生態文明教研部教授,哲學博士,主要研究方向:技術哲學與技術創新。

猜你喜歡
人機交互
某型柴油機虛擬維修系統研究
基于虛擬現實技術的九江城市交通事故模擬系統設計
人機交互課程創新實驗
基于任務規劃的家庭仿真服務機器人的研究
多點噪聲遠程自動采集系統設計
基于智能手機的盲人語言應用軟件的設計與開發
基于Intel Realsense技術的感知展示系統的設計與開發
圖像處理耦合模板定位的答題卡識別研究與應用
數字化控制系統人機交互的特征及預防人因失誤策略
基于物聯網家居安防系統的設計
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合