?

無以信,何以立:人機交互中的可持續信任機制

2024-04-28 06:19向安玲
未來傳播 2024年2期
關鍵詞:人機交互影響因素

基金項目:國家自然科學基金青年項目“面向人工智能生成內容的風險識別與治理策略研究”(72304290)。作者簡介:向安玲,女,講師,博士。

摘? 要:可持續信任是保障人機高頻交互和高效協作的關鍵要素?;谟嬎阍碚?,文章針對7235條ChatGPT用戶反饋進行編碼分析,并由此提煉可持續信任的影響因素。研究發現,機器因素(可用性、易用性、可供性和安全性等)占比最大,其次為用戶要素(技術恐懼、需求適配、媒介素養、心理預期),而任務因素(關鍵性失誤、任務復雜度、違規成本)占比偏低。關鍵任務失敗、機器安全性、用戶需求適配度對用戶信任水平影響最為顯著。在人機之間建立清晰而互補的職責界限,用算法的可解釋性對沖輸出的不確定性,同時通過獎懲機制的“界面化”,引導用戶調整心理預期,有助于可持續信任的動態校準。

關鍵詞:生成式人工智能;人機交互;可持續信任;影響因素

中圖分類號:TP18-02文獻標識碼:A文章編號:2096-8418(2024)02-0029-13

從蒸汽時代、電氣時代,到信息時代,再到智能時代,人類歷史上每一次技術革命和社會范式變革都伴隨著人機交互關系的演化和人機交互場景的躍遷。機器從替代人力勞動、輔助工業生產,也逐步進化到延伸人的感知、激發創意思維。在這個過程中,人機交互逐步趨向人機協同,甚至人機共生。伴隨著智能體的指數級增長與全行業滲透,人機交互場景將進一步拓展,人與智能系統之間的交互關系也將重新被定義。機器是否會替代人?多大程度上能取代人力工作?如何在挖掘技術紅利的基礎上規避技術濫用?如何建構可持續的人機協作關系?這一系列問題都有待學界和業界回應。如果說技術能力迭代是回應以上問題的“硬變量”,那么人機信任關系就是影響以上問題的“軟變量”。

信任程度直接影響人機交互強度和可持續性,進一步影響人機協作效能和生產效率。在智能技術加速發展的當下,過度信任帶來的技術濫用和信任不足衍生的技術棄用普遍存在。尤其是對于人工智能生成內容(Artificial Intelligence Generated Content,AIGC)這類大眾級智能交互產品,機器能力的通用化和實用場景的泛化,使得人機交互成為一個常態化的需求。在持續性、高頻次的交互中,人機信任也在不斷演變,從信任產生到信任波動,再到信任校準,人對機器的依賴性或排斥性也在動態變化??沙掷m交互中的人機信任在很大程度上影響了生產力輸出,同時也滋生了錯誤信息、虛假信息、學術倫理、技術偏見等一系列社會問題。

在AIGC火爆出圈,迅速滲透各行各業的當下,我們應該如何理性地去看待和使用它?如何調整信任水平以避免濫用或棄用?有哪些因素可以干預信任水平?信任又如何影響到人機協作結果?這些問題都有待學界和業界進一步探討和實踐。

一、文獻回顧

(一)從感性到理性:人機協作中的信任生成

哲學視角下的傳統信任研究強調信任的情感內核,認為信任是一種基于對方品德而產生的心理依賴。[1]這種感性驅動的信任側重于建構人與人之間的深層次連接。相比于基于道德準則的人際信任,人機交互過程中的電子信任(e-trust)更多基于實踐結果,也即機器完成某項既定任務的能力和價值產出。[2]從這個角度來看,人機信任是一種從(機)客觀能力到(人)主觀感知的生成機制,是人對機器執行特定目標可控性的主觀評估。具體而言,當人們認為機器的行動能力在可控范圍內,其執行任務有益或至少不會對人產生危害時,人們會選擇信任它們。[3]可以說,信任的生成是一種感性判斷和理性標準的融合,既包含了對誠信和仁愛的心理期望[4],對機器道德和行為規范的倫理期待[5],又包含了對機器可靠性和可替性的理性判斷[6],對機器決策和產出結果的現實評估[7]。

從信任生成與演化階段來看,人機信任可劃分為初始信任(initial trust)和可持續信任(sustainable trust)。[8]其中,初始信任是指雙方初次互動或協作時,在沒有直接經驗的前提下所產生的信任。[9]而可持續信任則是用戶在反復交互和使用過程中對機器產生的信任,通過對其行為的熟悉和理解來減少不確定性,進一步調節信任程度。[10]可持續信任是人機協作過程中的一種適應性過程。人類對人工智能的信任水平可根據情境和任務的變化而自適應地調整,相比于先驗經驗或既有判斷,這種信任是一種動態評估與調節機制[11]。

如果說初始信任反映的是人類對機器的先驗印象,可持續信任則反映了人對人機協同過程和結果的現實評估。前者更多指向感性判斷,是人在信息不充分的情形下基于自身既有認知衍生的信任。而后者更多依賴于理性決策,是將合作行為的結果加入到信任的反饋環節中所形成的判斷。[12]從初始信任到可持續信任的演化,既是人機交互頻次深化的結果,也是人機協作目標趨于一致的過程。[13]

(二)從相似到差異:人機信任的影響因素

從傳統信任生成機制來看,熟悉度、期望值和風險共同決定了信任的強弱。其中,熟悉度指向了信任主體之間的關系構建,期望值指向了任務完成的預期程度,風險則指向了決策失敗的機會成本。[14]甚至可以說,信任就是一種風險投資。[15]對“投資對象”的熟悉度、對“投資結果”的預期值以及“投資環境”的風險度都會影響信任的生成。

人機信任相比于人際信任,其生成與演化具備更強的不確定性和不穩定性。因為機器本身的行動存在不確定性,限于人們在經驗和認知上的局限,無法對機器行動進行預測和評估。這就使得信任處于可控和不可控的雙重關系中。[16]一方面,人們希望機器更接近人類行為邏輯,具備一定擬人性,以增強其可控性和可解釋性;另一方面,人們也希望機器在任務執行和決策過程中具備超人性,尤其是在復雜任務執行中突破既有模式。具體而言,對“相似”的期待主要體現在:(1)透明度(transparency)。機器(AI)算法模型和內部規則越清晰,與人的預期越相似,人們對其信任度往往越高;[17](2)可解釋性(interpretability)?!昂谙渌惴ā彼苌姆蔷€性和復雜決策過程往往很難被人為理解,機器邏輯和人類邏輯的差異阻礙了信任生成;[18](3)擬人性(anthropomorphism)。類似人的說話方式、聲音、面部特征、自我意識和情感表達往往會增加人對機器的信任感[19],但也需警惕擬人化過程中“恐怖谷”(uncanny valley)效應對信任的削弱;[20](4)即時行為(immediacy behaviors)。類似于人類的即時反應會激發情感上的信任,此外會犯錯的機器人比完美無缺的機器人往往更受歡迎。[21]

相較而言,信任生成過程中的人機“差異”體現在:(1)智能性(intelligence)。機器在決策效率、產出規模、產出效能等方面均具備一定“超人”性,尤其是在復雜任務解決過程中人往往更加依賴于算法;[22](2)接觸方式。人際信任往往受到身體、視覺層面的物理接觸影響,而人機信任基于數字界面交互,介質差異也會干預信任程度;[23](3)倫理規范。數字環境與現實社會倫理規約差異也會影響信任生成[24],規范人工智能向“善”發展是建立人機之間信任關系的前提條件。[25]

無論是初始信任,還是可持續信任,其影響因素均可劃分為三個類別:用戶特性、機器特性和環境特性。綜合相關學者[26]-[31]對人機信任的歸因研究,將相關因素梳理如表1所示。

(三)從抑制到修復:適度信任下的效能激發

人機合作信任是一個動態演化過程,人對機器表現的心理預期和機器自身實際效能不斷混合交互。[32]期望水平、實際表現和交互程度三方面原因共同導致了人機之間信任不足或信任過度的問題,通過自適應校準實現最優信任水平有利于提升人機協作安全性和效率。[33]一方面,信任過度會導致技術的誤用和濫用,從而衍生安全、質量、倫理等問題;[34]另一方面,信任不足又可能導致技術的低效能甚至是棄用,在帶來負面情感體驗的同時影響團隊績效,進一步影響人機持續性合作。[35]而要充分挖掘技術紅利,實現人機協作效能最優化,就需要建構信任再定位(trust re-orientation)和信任校準機制(trust calibration)。

從“人”的角度來看,在持續合作中不斷調整自身的認知兼容性、情感兼容性、價值兼容性,可實現信任水平校準。[36]從“機”的角度來看,通過引入可解釋的“白箱”系統,采用持續性強化學習模型,可實現協作優化與信任修復。[37]從“交互”的角度來看,可通過動態修改信息呈現方式、重新分配任務、增加操作權限、明確操作邊界等方式來調整人機合作中的信任水平。[38]

綜合而言,適度信任是保障人機可持續協作的關鍵要素。當下包括ChatGPT內在的AI交互產品逐漸滲透信息生產與傳播各個環節,過度信任導致的技術濫用和信任不足導致的技術棄用普遍存在。挖掘影響可持續信任的影響要素,優化信任校準機制,在適度信任下才能充分激活人機協作效能和技術應用紅利。在此背景下,本文從ChatGPT用戶的使用體驗切入,通過對“失望”“失信”與“棄用”等評價進行計算扎根分析,由此提煉影響可持續信任生成和演變的關鍵因素,進一步探討信任校準機制及其對人機協作的影響。具體來看,主要針對以下三大問題展開研究:

研究問題1:影響人機可持續信任的因素有哪些?具體可劃分為哪些維度和指標?

研究問題2:不同影響因素的重要性如何?哪些因素對用戶持續使用行為影響更大?

研究問題3:如何實現人機可持續信任的動態校準?如何避免用戶對技術的過度信任和信任不足?

二、研究設計

(一)研究方法:計算扎根理論

計算扎根理論(computational grounded theory)是一種利用計算機技術和大數據進行扎根理論研究的方法,旨在通過大規模數據計算提取出關鍵概念、關系和主題,從而建構新的理論模式。[39]其核心思想和應用邏輯延承于傳統的扎根理論,但不同于傳統扎根的定性研究范式與主觀解讀取向[40],計算扎根理論更多地應用計算機輔助手段對數據資料進行量化處理,并從大規模數據中提取出客觀的模式和關系,進一步生成具有理論性的解釋和結論。

綜合相關學者的理論研究和實證探討,本文將計算扎根理論的實現梳理為五大步驟:(1)大規模數據收集.包括社交媒體數據、新聞媒體數據、開源網絡數據、圖書資料數據、訪談數據等多源異構數據。(2)數據預處理。如去除重復項、過濾無關信息、標準化與結構化等。(3)文本分析?;谟嬎銠C程序對數據進行編碼和分類,包括詞頻統計、文本聚類、主題模型等,從而提出數據中的關鍵概念、關系和主題。(4)模式發現?;谠碚摰暮诵乃枷牒筒僮鞣椒?,結合機器計算和經驗解釋來挖掘數據中的規律和模式。(5)理論生成。根據前期從數據中發現的模式和規律,建構新的理論或驗證現有理論,并將其轉化為可操作的知識。

(二)研究對象與數據采樣

相比于基于先驗印象的初始信任,可持續信任來自于用戶對人機協作過程和結果的現實評估。受心理預期和使用體驗的影響,在采樣時需選取有實際使用體驗的現實用戶。本文以ChatGPT作為研究對象,探討用戶對其可持續信任的影響因素。采樣對象限定為有產品使用經驗并基于使用體驗對其發表評價的用戶。為了精準篩選樣本用戶,本文以AppleStore和GooglePlay應用市場作為采樣平臺。這兩個平臺分別為蘋果(IOS)系統和安卓(Android)系統應用產品下載的主流渠道,完成下載和安裝的用戶可在平臺上進行產品評分(分五級)和評價。

截至2023年11月15日,本文通過網絡爬蟲從兩大應用市場共采集了55100條ChatGPT的用戶評價數據,包括6900條蘋果系統評價和48200條安卓系統評價。綜合來看,評分在4-5分的用戶對產品持較高評價,而評分在3分及以下的用戶往往存在負面使用體驗,并可能對其后續產品使用造成影響。相比于正面使用體驗,負面體驗中往往更能反映用戶的使用痛點與核心需求。為了探索影響產品可持續信任的因素,本文從用戶使用評價中篩選了7235條中差評(3分及以下評論),包括1565條(占比22.68%)蘋果系統產品評價和5670條(占比11.76%)安卓系統產品評價。其中包括6938條英文評價(95.89%),71條中文評價(0.98%)和其他語種評價(包括西班牙語、意大利語、法語等)。在此基礎上,通過計算扎根理論來提煉影響產品可持續信任及可持續使用的因素及維度。

(三)基于LDA的主題聚類

為了更進一步探索影響用戶信任及可持續使用的因素,對采樣數據進行LDA主題聚類,得到5個主題在文本中的分布概率及相關高頻詞。結合實際應用場景可將主題歸納為五方面:

第一,錯誤響應與內容質量問題(如wrong、bad、answer)。占比約為24.19%,主要是針對AI輸出內容的準確性和響應質量的評價,包括錯誤回答和不符合預期的內容響應。

其二,交互功能與計算性能(如version、bug、text)。占比約為15.77%,主要針對文本交互、插件功能和版本迭代后的功能升級所發表的評價,包括功能缺陷和交互界面相關問題。

其三,內容時效性與數據處理(如time、update、2021)。占比約為16.67%,主要針對產品底層數據庫的更新問題及錯誤數據反饋,包含過時回答、單位時間內交互頻次限制和無法響應等情況。

其四,個人信息安全與終端使用體驗(如phone number、email、safe)。占比約為10.97%,主要是針對產品存在的隱私泄露風險、終端適配性、操作安全性等問題進行討論。

第五,登錄限制與操作門檻(如login、account、sign、cant) 。占比約為32.40%,主要是針對注冊和登錄的區域限制、產品及部分功能的使用門檻限制進行討論。

(四)范疇提煉與模型建構

為了對相關影響因素進行結構化分析,基于聚類結果和細化編碼對核心概念、范疇和關系進行提煉。首先是對原始語料進行開放式編碼,也即扎根理論中的第一層級編碼,側重于將原始文本抽象為概念并進行范疇化的歸納。在具體操作過程中,剔除部分無效數據(如語意不清的模糊表達)后,針對剩余7201條文本進行逐句編碼和統計,最終得到20個次要范疇。

主軸編碼是扎根理論中的第二層編碼,也即針對開放式編碼結果進行聚類處理,根據其內在邏輯關聯構建更高維度的獨立范疇,從而形成更具概括性、抽象化、結構性的編碼維度。結合前期文獻調研,本文將次要范疇進一步歸類為13項主要范疇。

理論編碼是扎根理論中的第三層編碼,根據主要范疇之間的歸屬關系進一步歸納核心維度,從而建構整體的理論框架。本文將前期編碼結果抽象為用戶因素、任務因素、機器因素三大核心范疇。這三大核心范疇的確定,旨在捕捉影響可持續信任的關鍵變量,是對前期編碼工作的進一步提煉和總結,最終編碼結果如表1所示。由此回應了本文研究問題1:影響人機可持續信任的因素包括用戶、任務、機器三大維度,具體又涉及需求適配度、任務復雜度、技術安全性等13項細分指標。

三、研究發現

(一)機器因素:從可供可用到可信可控

相比于用戶因素(16.43%)與任務因素(4.08%),機器因素(79.49%)成為影響用戶對AI可持續信任的核心變量。也就是說,不同于冷啟動階段主觀感知因素的主導性影響,在持續性使用過程中客觀技術因素始終是關鍵因子。在諸多技術性因素中(圖1),AI的可用性成為當下占比最大的范疇。尤其是AI幻覺、數據時效性、內容準確性上的技術瓶頸,成為人機可持續交互的最大桎梏。其中,內容可信度也成為當下AIGC的核心詬病。功能易用性及交互界面友好度也對用戶使用體驗帶來了較大影響,這在一定程度上受到了用戶對既有產品(如搜索引擎、社交媒體等)功能界面的技術固著性影響。當用戶對既有技術工具的產生使用慣性與模式依賴,對交互式AI的對話模式、信息篩選模式、提示語結構會形成一定不適應,這種多平臺之間的模式轉換和遷移成本也會影響用戶感知易用性。相較之下,在生成式AI應用門檻逐步降低的當下,關于可供性的負面感知逐漸降低,算力資源對使用頻次所構成的限制也成為部分高粘性用戶持續性使用的硬性阻礙。此外,雖然用戶隱私、數據安全、意識形態安全問題作為技術底線成為媒體和學界所關注焦點,但對于用戶持續性使用而言并未構成重要影響(<5%)。從AI的可供到可用,也對應著創新擴散從早期采用者逐步滲透到早期大眾,而要從早期大眾擴散到穩定大眾使用,則還需要進一步在可信和可控性上持續優化。

根據信任閾值理論(Trust Threshold Theory),人機之間的持續性信任建立在特定閾值之上。當機器某一行為或事件超過了該性能閾值,信任就會迅速崩塌。雖然安全性指標在人機交互過程中顯著性較低,較少被用戶提及,但研究發現(圖2),安全因子對用戶可持續使用行為的影響程度大于其他因子,也即信任閾值更低。一旦在人機交互過程中出現了涉及隱私安全和意識形態安全的問題,用戶對AI的信任度會迅速降低,對后續交互會產生持續性影響。相比之下,雖然可用性、易用性是當下阻礙用戶持續信任的主導性因素,但用戶對其容錯度更高,信任閾值也更高。此外,與終端和其他產品的兼容性雖然也影響了用戶的持續性信任,但對用戶的使用行為一般不會造成實質性影響。結合現實場景來看,安全性問題可能會導致用戶的永久性“棄用”,而技術性問題則更多會形成階段性“失信”。對低閾值因素的信任修復需要花費更多成本和時間,加強安全類因素的脆弱性和魯棒性研究是維系人機長期信任的關鍵。

(二)用戶因素:從感性技術恐懼到理性需求適配

在初始信任形成過程中,用戶對產品的認知多源于他者的間接評價和品牌背書,用戶主觀感知因素占據主導地位。包括個體既有偏見、媒體負面宣傳、低需求動力和信息不對稱等都會降低個體對AI的初始信任度。而在可持續信任形成過程中,用戶既有主觀感知會被實際使用經驗放大或逆轉。尤其是當用戶本身對AI存在恐懼或抵觸等負面情緒時,在確認偏誤影響機制下,其會傾向于尋找、解釋并記錄可以確認自己的先入之見的信息,而忽略或低估與之相反的證據。[41]研究發現(圖3),技術恐懼成為影響人機可持續信任的核心主觀因素。這種感性層面的技術恐懼通常源于對AI復雜性、不可預測性以及潛在影響的不確定感。作為一種基于大量數據和復雜算法運作的系統,生成式AI的決策過程和內部邏輯對于普通用戶而言,往往是“黑盒子”。這種不透明性可能引發對其可能產生的未知后果的擔憂,包括AI對人類工作的替代性擔憂也加劇了部分用戶的技術恐懼。而要減輕這種主觀層面的恐懼,增強系統的透明度和可解釋性并確保以人類福祉為核心導向的技術發展觀都必不可少。

除了主觀認知性因素,客觀層面的需求匹配度也是影響可持續信任的重要因素。當產品不能滿足用戶核心業務需求,或者不能有效解決用戶切實問題時,低需求動力和低適配度均會降低用戶的使用頻次和粘性,進一步弱化主觀期待和可持續性信任。此外,用戶媒介素養也會限制可持續信任的生成,包括操作層面的障礙和使用熟練度都會降低用戶使用體驗,影響人機信任維系。同時,過高的心理預期則會對用戶實際使用體驗帶來負面影響。預期確認理論(Expectation Confirmation Theory)表明,用戶的滿意度是由他們的預期與實際使用體驗之間的差異決定的。如果用戶對AI技術抱有過高的期望,而實際使用體驗未能達到這些期望,這種不匹配可能導致信任的削弱。

進一步對不同因素的影響程度進行分析(圖4),可見需求適配度對用戶信任及持續使用的影響程度最大。在人機交互過程中實用主義導向仍占據主導,當AI能高度契合現實需求場景時,依賴度和信任度都會顯著增高。其次為心理預期,一方面過高的預期往往會強化負面感知,另一方面當AI表現超出預期時也能強化正向評價與后續信任度。相比之下,用戶媒介素養和技術恐懼雖然占比較高,但在影響產品評價和持續使用行為上的作用有限。綜合來看,用戶的需求場景、心理預期、媒介素養伴隨著人機交互頻次的深化而變化。且相比于機器因素,用戶層面的變動更具可控性,這也使得可持續信任成為一個可形塑、可引導的動態過程。在技術變量達到階段性瓶頸時,用戶心理感知、認知態度和使用行為層面的干預和引導就成為提升人機協作效率的關鍵抓手。

(三)任務因素:從軟性情境邊界到硬性合規約束

除了機器和用戶因素,任務作為人機交互的內置目標與外部情境,更多地關注用戶與機器之間具體的交互內容,其復雜度、意圖和理解的清晰度、任務失敗的機會成本、潛在損失等都會直接影響可持續信任程度。任務因素可被視作一種外部調節變量,可動態干預用戶對機器的信任程度。例如,當面對低復雜度、低風險、低試錯成本的常規性質任務時,用戶往往會展現出較高的信任度;相反,在面對那些要求精確控制、專業知識和高度判斷力的復雜任務時,用戶的信任水平可能會顯著降低。研究發現(圖5),在任務因素中關鍵性失誤出現頻次最高,違規成本其次,而任務復雜度被提及頻次相對較低。尤其是在關鍵性任務中技術失誤所帶來的后果超出用戶承受閾值時,用戶對機器的有效性普遍會持保留態度。一次關鍵任務失敗所帶來的信任損失,往往需要眾多成功任務經驗來彌補,甚至會帶來永久性的“失信”。當然,任務因素的調節效應也與用戶的風險承受能力和容錯度直接相關。在技術創新擴散初期,包容性試錯是提升技術接受度的關鍵。而隨著用戶對新技術的使用經驗和累積信任的增加,其會動態調整自己的期望偏差,抗風險能力和對復雜任務的嘗試意愿一般也會提升。[42]

用戶、機器、任務三大影響因素共同構成了“人”“機”“交互”中可持續信任機制。雖然任務因素當下被提及頻次較低,但其對用戶負面感知的作用(M=1.40)卻強于機器特性(M=1.67)和用戶因素(M=1.76)。也即,交互任務所帶來的負面體驗和現實損失,對人機持續信任會帶來更大影響。部分關鍵任務失敗甚至可能導致用戶較長時期內對技術的回避行為或過度謹慎。而在任務因素中(圖6),涉道德倫理和意識形態問題上的違規成本成為用戶的重要考量,其對信任水平的影響略高于任務復雜度和關鍵性失誤。也即一旦機器在特定任務上可能出現有違“政治正確”的表現,用戶對其信任程度和使用意愿會明顯降低。在強化意圖理解和任務拆解的基礎上探尋人機價值對齊,也是從人機高頻交互到人機有效協作轉化的動力。

綜上,回應了本文研究問題2:在人機可持續信任的影響因素中,機器因素占比最大,其次為用戶要素,任務因素占比偏低。而在對用戶持續使用行為的影響程度上,關鍵任務失敗、機器安全性、用戶需求適配度影響最為顯著。

四、研究結論與啟示

信任是一種涉及期望、風險和不確定性的復雜社會心理現象,而人機信任更是凸顯了人類與機器交互與協作的內在驅動力。作為主觀感知變量,對信任的測量與研究通常依賴于量表設定,對相關因素的陳列也受到研究者既有理論框架的局限。不同于傳統定量和定性分析方法的既定框架,本研究基于計算扎根理論探討人機交互中可持續信任的影響因素,綜合開源數據挖掘和機器編碼,將人機信任置于一種開放性框架中進行探討。一方面,在研究樣本的規模性和精準性上做了有效控制,通過對AIGC深度用戶的評價與評分進行多維篩選,提升了扎根文本的信息價值密度。另一方面,通過開展系統性的內容分析和分層范疇提煉,實現了從開放數據到規范模型的理論建構。這種基于海量數據的計算扎根,可以被視作一種綜合定量與定性要素的混合研究范式,對于多維理解人機可持續信任的形成和演變過程具備重要價值,也為未來人機交互系統的設計和優化提供實質性的參考和指導。

整體來看,在生成式人工智能的交互應用中,機器因素(可用性、易用性、可供性和安全性等)帶來的負面感知相對明顯,其次為用戶要素(技術恐懼、需求適配、媒介素養、心理預期),而任務因素(關鍵性失誤、任務復雜度、違規成本)的感知顯著性相對最低。人、機與交互任務三方面的因素共同作用于信任水平,其中任務因素作為一種外部調節因素,對持續信任的影響相對最大。尤其是關鍵任務失敗所帶來的現實損失或機會成本會顯著降低用戶信任水平,甚至在后續交互使用中形成應激障礙。此外,機器安全性(會不會損害自身現實利益)和用戶需求適配度(現實場景中是否用的上)都會對用戶使用頻次和持續信任產生較大影響??梢?,雖然人機交互是一種跨越虛實的對話場景和協作模式,但其對信任的影響仍根植于用戶的現實利益,現實增益所帶來的信任增強和現實損失所帶來的信任損耗均普遍存在。

適度信任是保障人機可持續協作的關鍵要素。面對根植于外部技術環境的“硬性”因素和源自于內部主觀感知的“軟性”因素,有效調節信任水平、規避濫用和棄用,既需要從宏觀層面創建包容審慎的技術發展環境,在推進人機價值對齊的過程中尋找技術的可持續發展之路,又需要從微觀層面提升個體媒介素養和AGI時代的生存技能,探索并從人機交互到人機協同再到人機共生的進程。

首先,在交互任務層面,需要建立清晰的職責界限,確保人機之間存在清晰而明確的任務和責任分配,通過“互補式”協作規避機器局限性和關鍵任務風險。一方面,對于不同類型任務需要給出對應風險提示,并對用戶的風險承受能力進行量化分級,從而實現精細化的風險管理和選擇性響應。當然在對高違規成本采取提示和回避策略的同時,也需要避免“一刀切”式的粗放化管理,平衡任務的響應率和風險控制。另一方面,在面向專業領域的人機協作任務中,可引入透明化的運作流程和決策機制,除了輸出最終結果,提供任務中間過程要素(包括代碼實現邏輯、計算流程、推理過程等),為用戶提供任務核查和排錯的渠道,通過提升協作過程的信任度來增強任務結果的可控性。

其次,在機器性能層面,限于生成式人工智能的概率性輸出機制,很難完全規避隨機性所帶來的幻覺問題,如何用可解釋性對沖不確定性,在人機價值對齊中實現信任動態校準,還需要在底層算法和交互應用層面做多重優化。除了在產品可供性、內容可用性、功能易用性上不斷迭代,補足技術短板、優化用戶體驗,提升機器的“實際可信度”。在既有技術條件約束下,也可通過運作機制優化來提升機器的“感知可信度”。一方面,在傳播層面提升算法的透明度和可解釋性,讓用戶認知系統的運作方式和決策過程,可在一定程度上校準過高期待及過度信任。另一方面,根據失誤恢復理論,當系統在發生錯誤后能迅速并有效地恢復時,用戶的信任可能不僅不會下降,反而可能因為對恢復能力的認可而提高。錯誤發現和修復的及時性也是信任校準的關鍵因素,實證研究發現,機器人在發生錯誤后立即道歉比完成任務后再道歉跟更有利于信任修復。[43]特別是對于“黑箱”計算的人工智能模型而言,當算法可解釋性和生成隨機性很難受控時,及時的錯誤發現、校準響應與迭代輸出對于可持續信任維系更為重要。

最后,在用戶操作層面,除了長期視角下的媒介素養提升和使用經驗積累,就短期內的優化而言,通過在交互場景中引導用戶動態調整心理預期、技術恐懼并找到供需連接點,也有助于可持續信任的平衡與校準。對于生成式人工智能而言,基于用戶反饋的強化學習機制——RLHF(Reinforcement Learning from Human Feedback)使得AI與人類在預期目標和價值觀點上趨于對齊,在具體交互場景下的功能性缺陷也能被較好的糾偏與“馴化”。但多數情況下這種獎懲機制需要由用戶主動反饋,對于能動性相對較低的用戶未能充分發揮效應,這就使得獎懲機制的“前臺化”“界面化”展示成為必要。也即讓機器引導用戶進行反饋,進一步根據用戶正向或負向反饋進行后續交互的優化。目前部分AIGC產品已引入相關機制,通過同時提供用戶多個答案進行比較,來推測用戶意圖、優化響應策略。這種雙向交互的反饋機制可降低信息熵和不確定性,幫助用戶調整心理預期和增強能動性。

誠然,可持續信任是一個包含多維變量的動態過程,其生成、維系與演變均涉及各方面復雜因子的影響。本文雖力圖對其影響因素進行扎根分析與實證測量,但仍有部分理論局限與技術操作缺陷需進一步完善。首先,從理論層面,可持續信任的階段與生成機制需進一步細化剖析。從冷啟動到高頻交互再到穩定協作,在人機交互的不同階段可持續信任的影響因素差異分化,不同因子之間的相互作用與重要性也在不斷演變。限于操作復雜性,本文未對信任的演變過程進行劃分與追蹤,理論框架的適配性難免存在缺漏。其次,從測量方法來看,本文針對AIGC用戶的評論數據進行扎根編碼,將“低評價分數”等同于“低信任水平”,兩者在一定程度上存在關聯映射,但后續研究中對信任水平的操作定義仍需精細化。最后,由于扎根樣本均源自于網絡渠道和公開表達,忽略了其他“沉默用戶”的信任水平及其影響因素,高表達意愿的用戶群體其信任生成機制與其他群體是否存在差異?這也有待后續測量樣本的擴充與論證,以提升結論的代表性。除此之外,當下AIGC產品迭代與功能優化不斷加速,影響用戶信任的因素也不斷在發生變化,本文分析樣本中的部分因素(如時效性、服務穩定性等)在成文時均得到了優化。伴隨著技術的普及擴散,用戶的認知、需求和持續使用行為也在轉變,這也為后續階段性、跟蹤性、對比性研究提供了方向。

參考文獻:

[1] Baier, A.(1986).Trust and antitrust.Ethics,96(2):231-260.

[2] Taddeo, M .(2011). Defining trust and e-trust. International Journal of Technology and Human Interaction,5(2):23-35.

[3] Gambetta, D.(2000). Can we trust trust. Trust: Making and Breaking Cooperative Relations, 13(2000): 213-237.

[4] Bedué, P.& Fritzsche,A. (2022).Can we trust AI? An empirical investigation of trust requirements and guide to successful AI adoption. Journal of Enterprise Information Management, 35(2): 530-549.

[5] Ryan ,M.(2020) In AI we trust: Ethics, artificial intelligence, and reliability. Science and Engineering Ethics, 26(5): 2749-2767.

[6] Hurlburt ,G.(2017). How much to trust artificial intelligence?It Professional,? 19(4): 7-11.

[7] Glikson ,E.& Woolley ,A .W.(2020).Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2): 627-660.

[8] Siau,K.& Wang ,W.(2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Gournal,31(2): 47-53.

[9] Gao, L.& Waechter, K .A.(2017) Examining the role of initial trust in user adoption of mobile payment services: An empirical investigation. Information Systems Frontiers, 19: 525-548.

[10] Hoehle, H.,Huff, S.& Goode ,S. (2012).The role of continuous trust in information systems continuance. Journal of Computer Information Systems,? 52(4): 1-9.

[11]Okamura, K. (2020). Adaptive trust calibration in human-AI cooperation, Ph.D. Dissertation. Kanagawa: The Graduate University of Advanced Studies.

[12] 朱翼.行為科學視角下人機信任的影響因素初探[J].國防科技,2021(4):4-9.

[13]Cabiddu, F., Moi, L., Patriotta, G.& Allen, D. G. (2022). Why do users trust algorithms? A review and conceptualization of initial trust and trust over time. European Management Journal, 40(5), 685-706.

[14] Luhmann, N.(1982). Trust and power. Studies in Soviet Thought .23 (3):266-270.

[15] Luhmann, N. (1979). Trust and power. Chichester: John Wiley.

[16] Durante ,M.(2010).What is the model of trust for multi-agent systems? Whether or not e-trust applies to autonomous agents. Knowledge, Technology & Policy, 23: 347-366.

[17] Hoff, K. A.& Bashir, M.(2015). Trust in automation: Integrating empirical evidence on factors that influence trust. Human factors, 57(3): 407-434.

[18] von Eschenbach ,W.J.(2021) Transparency and the black box problem: Why we do not trust AI. Philosophy & Technology, 34(4): 1607-1622.

[19] Gursoy, D., Chi ,O. H., Lu ,L., et al.(2019). Consumers acceptance of artificially intelligent (AI) device use in service delivery. International Journal of Information Management, 49: 157-169.

[20] Troshani, I., Rao ,H. S., Sherman ,C., et al. Do we trust in AI? Role of anthropomorphism and intelligence. Journal of Computer Information Systems, 61(5): 481-491.

[21] Glikson E. & Woolley, A.W. (2020).Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2): 627-660.

[22] Bogert, E., Schecter ,A.& Watson ,R. T.(2021 ). Humans rely more on algorithms than social influence as a task becomes more difficult. Scientific Reports, 11(1): 1-9.

[23] Taddeo ,M.(2009). Defining trust and e-trust: From old theories to new problems. International Journal of Technology and Human Interaction (IJTHI), 5(2): 23-35.

[24] Nissenbaum ,H.(2001). Securing trust online: Wisdom or oxymoron?Boston University Law Review, 81(3): 635-664.

[25] 何江新,張萍萍.從“算法信任”到“人機信任”路徑研究[J].自然辯證法研究,2020(11):81-85.

[26] Siau ,K.& Wang, W.(2018). Building trust in artificial intelligence, machine learning, and robotics. Cutter Business Technology Gournal,? 31(2): 47-53.

[27] Dorton, S .L.& Harper, S. B.(2022). A naturalistic investigation of trust, AI, and intelligence work. Journal of Cognitive Engineering and Decision Making, 16(4): 222-236.

[28] Sheridan, T .B.(2019). Individual differences in attributes of trust in automation: Measurement and application to system design. Frontiers in Psychology, 10: 1117.

[29] Kim ,J., Giroux ,M.& Lee ,J. C. (2021).When do you trust AI? The effect of number presentation detail on consumer trust and acceptance of AI recommendations. Psychology & Marketing, 38(7): 1140-1155.

[30] 楊子瑩. 人機交互關系中的信任問題研究[D].大連理工大學,2022.

[31] 董文莉,方衛寧.自動化信任的研究綜述與展望[J].自動化學報,2021(6):1183-1200.

[32]Hoffman, R. R. (2017). A taxonomy of emergent trusting in the human–machine relationship. In Philip, J. & Robert, R.(eds.). Cognitive systems engineering: The future for a changing world. Leiden: CRC Press, 137-164.

[33] Okamura ,K.& Yamada ,S.(2020). Adaptive trust calibration for human-AI collaboration. Plos One, 15(2): e0229132.

[34]Jacovi,A., Marasovi,A., Miller,T., et al. (2021). Formalizing trust in artificial intelligence: Prerequisites, causes and goals of human trust in AI. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency. New York: Association for Computing Machinery, 624-635.

[35] 齊佳音,張亞.人—機器人信任修復與信任再校準研究[J].機器人產業,2021(4):26-38.

[36] 何貴兵,陳誠,何澤桐等.智能組織中的人機協同決策:基于人機內部兼容性的研究探索[J].心理科學進展,2022(12):2619-2627.

[37] 于雪.基于機器能動性的人機交互信任建構[J].自然辯證法研究,2022(10):43-49.

[38]Ezer,N., Bruni,S., Cai,Y., et al. (2019). Trust engineering for human-AI teams. In Proceedings of the human factors and ergonomics society annual meeting. Los Angeles: Sage Publications, 322-326.

[39]Berente, N.& Seidel, S. Big data & inductive theory development: Towards computational Grounded Theory? Retrieved March 5, 2024, from https://core.ac.uk/reader/301361940.

[40] Glaser, B.& Strauss ,A.(1967). Grounded theory: The discovery of grounded theory. Sociology the Journal of the British Sociological Association, 12(1): 27-49.

[41] alikli, G.& Bener, A.(2013). Influence of confirmation biases of developers on software quality: An empirical study. Software Quality Journal, 21: 377-416.

[42] Hu, W.-L., Akash, K., Reid, T.& Jain, N.(2019). Computational modeling of the dynamics of humantrust during human–Machine interactions. IEEE Transactions on Human-Machine Systems, 49:485-497.

[43]Robinette, P., Howard, A. M.& Wagner, A. R. (2015). Timing is key for robot trust repair. In Proceedings of 7th international conference on social robotics. Paris: Springer International Publishing, 574-583.

[責任編輯:高辛凡]

Without Trust, without Cooperation: A Study on Sustainable Trust Mechanisms in Human-Computer Interaction

XIANG An-ling

Sustainable trust is a crucial element in ensuring high-frequency interactions and efficient collaboration between humans and machines. This paper, grounded in the computational grounded theory, conducts a coding analysis of 7235 user feedback from ChatGPT to distill the influencing factors of sustainable trust. The findings reveal that machine factors (such as usability, accessibility, availability, and security) have the highest proportion, followed by user elements (technological fear, demand adaptation, media literacy, and psychological expectations), while task factors (critical errors, task complexity, violation costs) have a relatively lower proportion. Critical misstep, machine security, and user demand adaptability significantly impact user trust levels. Establishing clear and complementary responsibilities between humans and machines, leveraging algorithmic interpretability to mitigate output uncertainty, and guiding users to adjust psychological expectations through a “gamified” reward and penalty mechanism contribute to the dynamic calibration of sustainable trust.

猜你喜歡
人機交互影響因素
某型柴油機虛擬維修系統研究
基于虛擬現實技術的九江城市交通事故模擬系統設計
人機交互課程創新實驗
突發事件下應急物資保障能力影響因素研究
環衛工人生存狀況的調查分析
農業生產性服務業需求影響因素分析
村級發展互助資金組織的運行效率研究
基于系統論的煤層瓦斯壓力測定影響因素分析
多點噪聲遠程自動采集系統設計
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合