?

人工智能技術在行政審批中的運用探討

2024-04-23 06:36李蕊蕊
中國信息化 2024年3期
關鍵詞:解釋性透明度決策

李蕊蕊

一、引言

隨著科技的不斷發展,人工智能技術在各行各業得到了廣泛應用。行政審批作為公共管理的關鍵環節,其效率和透明度直接關系到政府服務水平和社會治理現代化。人工智能技術為行政審批注入了新的活力,通過智能化的數據分析、模型預測以及流程自動化處理,為政府機構提供了更加高效、準確、可靠的審批服務。然而,人工智能在行政審批中的運用也引發了一系列的關注與討論,如信息安全、隱私保護、公正性等問題。因此,針對人工智能技術在行政審批中的應用,既需要充分認識其帶來的便利,也需要審慎思考其可能涉及的倫理和法律挑戰。本文將對人工智能技術在行政審批中的問題、優化路徑進行細致剖析,以期為推動行政審批現代化提供有益參考。

二、人工智能技術在行政審批運用中存在的問題

(一)隱私與安全風險

首先是隱私泄露的風險。隨著個人數據在互聯網系統的集中存儲和處理,個人身份信息、財務狀況等敏感數據一旦遭到未經授權的訪問,將可能導致用戶隱私的嚴重侵犯。其次,信息安全問題。由于審批系統需要在網絡中傳輸、存儲大量敏感數據,這使其成為網絡攻擊的重要目標。例如,惡意軟件和網絡釣魚攻擊可能導致系統遭受病毒感染或黑客入侵,從而使得大量涉密信息暴露在公開網站上。最后,隱私與安全問題的綜合影響可能引發社會的不信任和擔憂。公眾對于個人數據被不當使用或泄露的擔憂可能減緩人工智能在行政審批中的推廣。例如,一些公眾可能對于政府或相關機構收集和處理個人信息的方式表示質疑,擔心其對個體隱私權的侵犯。

(二)技術可解釋性差

許多人工智能算法,特別是深度學習模型,以其復雜的結構而著稱,使得其決策過程難以被科學解釋,這種黑盒操作可能引發公眾和相關利益方對于審批決策的不信任感。而且,技術可解釋性差會導致審批系統中的決策無法被有效地揭示。在一些敏感案例中,針對系統做出特定決策的原因進行解析至關重要,而缺乏可解釋性使得當局難以向當事人或相關方解釋系統的決策依據,進而導致法律糾紛,特別是當審批結果被質疑的時候。此外,技術可解釋性差也使得人工智能系統在面對復雜和多變的審批場景時表現不穩定。比如,在處理新型案例或變化較大的情境時,系統的決策很大可能會變得難以預測,從而影響審批的準確性和可靠性。

(三)法律規范不完善

由于人工智能技術的快速演進,現有的法律法規難以及時跟上技術的發展,導致在行政審批中產生法律的真空區。未能明確界定人工智能系統的責任和義務,以及與人類審批員的權責對等問題,造成法律適用的困境和法律風險。同時,由于人工智能系統的復雜性和自主性,很難確定應用人工智能技術的具體邊界和限制。例如,在行政審批中使用人工智能系統進行決策時,可能存在對關鍵術語和標準的解釋模糊,導致不同的解讀和執行結果。這給行政審批的公正性和可預測性帶來挑戰,也給申請人和監管機構帶來了不確定性。例如,在某些地區,對于人工智能系統的決策結果是否可以上訴、如何解釋系統決策的依據等問題,法律規范存在模糊性,導致申請人和相關方面的權益無法得到充分保障。

(四)成本和投資問題

首先,引入人工智能技術需要較大的投資。開發和實施人工智能系統需要大量的資金和資源,包括專業的技術團隊、高性能的計算設備以及龐大的數據集。這些投資對于行政機構來說可能是一個巨大的負擔。其次,人工智能技術的使用還需要持續的成本支出。一旦人工智能系統建立和部署,還需要不定期維護、更新和升級。這需要專業的技術人員進行監督和管理,同時還需要投入資金來購買新的硬件設備或軟件許可。最后,對于行政機構來說,引入新的技術需要對工作人員進行培訓,以便他們能夠熟練地操作和管理人工智能系統。同時,一些現有的審批流程和規則也需要進行調整,以適應人工智能系統的運用。這些培訓和調整的成本不僅包括時間和金錢,還可能導致工作人員的不適應和抵觸情緒,從而影響整體的工作效率。

三、人工智能技術在行政審批運用的優化路徑

(一)聯合隱私保護技術

一方面,引入聯合隱私保護技術,通過多方參與計算的方式,將數據的處理過程分散在不同的節點上,避免集中式數據處理帶來的潛在隱私泄露風險。聯合學習、聯邦學習等技術可以讓各個參與方在不共享原始數據的情況下完成模型的訓練,從而保護了個體數據的隱私。另一方面,差分隱私技術通過在數據中引入噪聲或者擾動,以保護個體數據。在行政審批中,可以整合差分隱私技術,對敏感信息進行適度的擾動,以防止惡意攻擊和數據重識別。這有助于提高系統的抗攻擊性和數據隱私性。此外,需要制定和推廣聯合隱私保護的標準,建立一套系統的技術規范和行業準則,這有助于在人工智能技術應用中建立統一的隱私保護標準,提高各方對隱私保護的共識,降低實施過程中的風險。

(二)提升算法透明度

首先,促進透明度標準的建立。制定和推廣透明度標準,要求在行政審批中使用的人工智能算法必須滿足一定的透明度要求,這可以包括確保算法的輸入、輸出、決策過程以及使用的數據都能夠被清晰解釋和理解。其次,促進可解釋性算法的研發??山忉屝运惴軌蚋逦卣故舅惴ǖ墓ぷ髟砗蜎Q策依據,降低黑盒模型帶來的不確定性和難以理解的問題。這可能包括使用決策樹、解釋性模型或者對抗性訓練等技術,以提高算法的可解釋性。最后,推進社會參與和審查機制的建立。鼓勵公眾、專業組織、獨立的第三方機構參與對人工智能算法的審查。通過多方參與,可以確保算法透明度標準的制定和實施是公正和全面的,有助于監督算法的使用,確保其在行政審批中不受到濫用或歧視性的影響。

(三)推動法律規范升級

一是推動升級現有的法律法規,以更好地適應人工智能技術在行政審批中的應用。這包括對數據隱私、算法透明度、責任追究等方面的規定,確保法律框架能夠全面而準確地覆蓋人工智能應用中可能涉及的各個方面。二是促進不同部門之間的合作,確保法規的升級是全面而協調的。人工智能技術在行政審批中可能涉及多個領域,包括科技、法律、行政等,需要不同領域的法規協同工作,可以建立跨部門的協同機制,推動相關立法更好地適應技術發展。三是制定法規時要注重靈活性和前瞻性,允許法規在技術發展的變化下能夠靈活調整。同時,也要預測和適應未來可能出現的人工智能技術應用場景,以便及時應對新興問題。最后,考慮建立專門監管人工智能在行政審批中應用的機構,負責制定相關規定、監督執行、解決糾紛和跟蹤技術發展,這有助于確保監管機構具有專業性和高效性,能夠及時響應技術發展并制定相應的法規。

(四)多方協作共享

首先,可以采用云計算和共享資源的方式降低投資成本。云計算提供了靈活的計算和存儲資源,行政機構可以根據實際需求進行按需購買,避免了大規模的硬件設備投資。其次,可以尋求公私合作的機會,與私營企業或科技公司合作,共享技術和資源,從而減輕行政機構的負擔。私營企業往往有更先進的人工智能技術和專業團隊,可以提供解決方案和技術支持。另外,行政機構還可以逐步引入人工智能技術,采用漸進式的方法,而不是一次性投入大量資源,可以選擇先在少數領域或流程中應用人工智能,逐步擴大應用范圍,實現成本和風險的控制,并在實踐中逐步積累經驗和改進技術。最后,還可以整合現有的數據系統和流程,減少數據采集和處理的重復工作,降低成本和資源消耗。

四、結語

在未來,隨著技術的發展和經驗的積累,人工智能技術在行政審批中的應用將變得更加成熟和普遍。然而,我們也應該認識到,人工智能技術并非萬能之策,其應用需要謹慎考慮,避免出現數據安全、隱私保護和法律規范滯后等問題。在推動人工智能技術發展迅猛發展的時代,行政機構可以聯合隱私保護技術、推動法律規范升級,通過多方協作、共享資源,開創智能審批時代,為社會建設和經濟發展注入新的活力。

作者單位:青海民族大學政治與公共管理學院

猜你喜歡
解釋性透明度決策
為可持續決策提供依據
論行政自由裁量的“解釋性控權”
決策為什么失誤了
中國FTA中的透明度原則
英漢互譯中的認知隱喻翻譯探究
融媒體時代解釋性報道的發展之路
非解釋性憲法適用論
股權結構與信息透明度相關性的實證研究
提高上市公司會計信息透明度的對策
提高基金會透明度 促進慈善事業發展
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合