?

人工智能安全問題研究

2023-07-14 04:49張燕平李中文張華龍
計算機應用文摘·觸控 2023年12期
關鍵詞:防御措施安全問題人工智能

張燕平 李中文 張華龍

摘要:近年來.人工智能又一次迎來發展的熱潮,在自然語言處理以及數字圖像處理等多個領域中的表現都超過人類。它已經被應用于教育、醫療、金融、軍事等領域,與此同時,人工智能引發的一系列安全問題逐漸顯現出來。人工智能系統的安全問題主要分類2類.即模型與數據隱私以及模型安全。對于不同的人工智能系統,它們處理的問題以及實現的原理都不同,因此,一個棘手的問題就是如何讓防御措施更具有普適性,以處理各種對人工智能系統的安全威脅。

關鍵詞:人工智能;安全問題;防御措施

中圖法分類號:TP18 文獻標識碼:A

人工智能技術已經廣泛應用于人類生活的各個領域,為人們提供了便捷、高效、智能的服務和體驗,極大地提高了生活品質,也促進了社會的創新和變革。然而,人工智能也不是完美無缺的,它可能帶來一些潛在的風險和挑戰,如算法歧視、隱私泄露、判斷失誤等,這些問題可能導致個人和社會遭受經濟損失、心理創傷,甚至危害社會道德、法治秩序。因此,保障人工智能技術的安全性、可靠性和可控性是實現其最大價值和最佳效果的重要前提。

1 人工智能發展歷史

在歷經了1956 年來的2 次起伏之后,人工智能技術的第3 次發展熱潮到來了,被視為第4 次工業革命的標志性技術,并在各個領域廣泛應用。人工智能不僅是硅谷包裝的“答案主義”意識形態,更是一種通用技術,它能夠通過機械化腦力勞動,讓人類從煩瑣的任務中解放出來,從而進行更有意義和創造性的活動。然而,在享受人工智能帶來的便利和效率的同時,我們也必須警惕其相關的治理風險。例如,智能推送算法可能加劇社會分化和信息孤島,人臉識別系統可能構建出無處不在的監控網絡,以及對個人隱私、輿論引導、就業影響等方面的潛在威脅。這些典型案例已經引起了公眾的廣泛關注,并促使各方推動人工智能與安全風險管理倫理問題的研究和探討。

雖然目前為止,很少有國家制定了專門針對人工智能風險治理的法律法規, 但根據德國非營利組織Algorithm Watch 的統計,世界各地已經有160 多項關于人工智能倫理規范和治理原則的倡議和文件出臺。

人工智能與網絡安全的融合,對于相關企業的業務發展具有重要意義。在這個過程中人工智能算法的研發模式是一個關鍵因素,它將影響企業的技術創新能力和市場競爭力。

目前,國內網絡安全企業主要采用了2 種人工智能算法的研發模式:一是基于開源框架進行二次開發和優化;二是完全自主研發人工智能網絡安全算法。

這2 種模式各有優劣,需要根據企業的實際需求和目標進行選擇。開源的優勢在于節省了研發費用、人力資源和時間成本,而自研的優勢在于擁有更大的創新空間和拓展領域。從性價比角度來看,開源相對于自研更具有成本效益,基于開源框架可以快速定制出符合自身需求的人工智能算法。從可持續發展角度來看,自研相對于開源更具有競爭力和前景,可以根據市場變化和技術進步不斷優化和創新。因此,網絡安全企業應該根據自身的目標、資源和能力,權衡利弊,做出合理的決策。自研人工智能算法意味著能夠對算法的原理和實現有深入的掌握,從而更好地滿足自身業務需求。因此,除了在網絡安全領域具有優勢,擁有自研人工智能算法的企業還可以更靈活地將其應用于智能交通、智慧醫療等其他產業領域,實現跨界創新和價值增長。相比之下,基于開源的人工智能算法存在安全可控性方面的風險,因為其安全性很大程度上取決于開源框架的安全性,而這可能難以保證。

2 人工智能安全風險

任何事情都有兩面性,信息技術的發展也不例外,在人工智能可以為相關部門制定網絡安全治理的有效保護措施提供幫助,防御各種網絡攻擊,提升國家治理能力[1] 的同時,人工智能的發展也帶來了有關安全方面的挑戰[2] 。目前在各個領域,甚至在一些安全相關的領域,都可以看到人工智能的影子,但是對于人工智能本身的安全性的研究才剛剛起步[3] 。

以機器學習和深度學習為核心的新一代人工智能由于其潛在的缺陷和廣泛的應用而不可避免地帶來了許多日益增長的安全風險和社會倫理問題,主要有人工智能算法的目標失范、不透明性、難解釋性等導致的技術風險;人工智能可能對基本人權、社會秩序、國家安全等造成負面影響或被濫用而產生的社會風險;人工智能與人類價值觀、道德準則、責任機制等存在沖突或不協調而引起的道德困境。

2.1 人工智能的潛在技術風險

首先是在技術層面上,人工智能系統的安全的問題主要被分類2 類:數據與模型隱私以及模型自身安全[4] 。

模型與數據隱私是指保護訓練數據和人工智能模型本身的參數不被泄露或竊取的問題。在人工智能模型的使用過程中,可能會產生一些包含敏感信息的中間數據,如輸出張量、模型參數以及模型梯度等。

這些中間數據也屬于模型與數據隱私的范疇。

與模型與數據隱私不同,模型安全存在于人工智能模型的整個生命周期。例如,模型本身由于健壯性不良導致的安全危險,或者在訓練模型的時候可能遭受攻擊從而導致一些功能無法正常使用。

2.2 人工智能遭受濫用的社會風險

在人工智能算法造福我們的同時,也被應用于消極的方面,如虛假新聞和虛假廣告的生成、推薦算法不當應用、人臉識別被濫用、個人隱私挖掘、消費行為誘導以及不良信息傳播等。除此之外,人工智能算法本身的一些漏洞也會被不法分子利用從而進行不公平競爭,如數據投毒導致的決策偏離等。市場和社會秩序被上述的現象嚴重擾亂。

在這種情況下,我們的隱私受到極大的威脅,本來在海量的數據中,對數據的分析無法對應某個個體,但是有了人工智能,我們可以輕易地對某個個體的數據進行復雜的邏輯推理分析,個人隱私將在人工智能下一覽無余。比如,城市中的監控系統本來是無法對應到個體,但是有了人臉識別、步態識別等技術,就可以輕易地得到每個人的信息。

2.3 人工智能衍生的道德倫理困境

首先,人工智能算法的設計者由于本身的一些偏見或者負面情緒以及訓練數據的片面性,會導致人工智能算法模型表現出種族歧視或者其他的偏見。其次,人工智能算法的不當使用也會導致一些問題,如成癮性算法會誘導人們沉迷于游戲或者短視頻。最后,即使人工智能算法的設計和使用目的都沒有出現問題,但人工智能算法在實際使用的過程中做出的一些決策或者預測從而導致了問題的發生,也會帶來道德倫理的問題,如自動駕駛汽車在發生事故后,如何判斷責任歸屬和道德選擇。

3 如何應對人工智能安全隱患

我國應積極占據人工智能安全治理及監管這一制高點,積極推動我國人工智能應用可信可靠發展。

對于技術層面的安全隱患,應該大力發展防御性的算法,攻擊和防御之間的關系就好比矛和盾,它們相互博弈,共同進化。目前已經有相關研究人員提出了具有針對性的防御算法,但是由于不同的人工智能的原理差異性太大,這些防御算法的普適性不是很好。另外,一些人工智能算法自身的可解釋性比較低,所以這些攻防研究還處于實驗階段。

目前來看,這些防御性算法還處于試驗階段,無法完全解決人工智能帶來的所有安全問題,那么一系列切實可行的技術標準以及應用規范就顯得尤為重要。在這方面,建議系統有條理地制定與人工智能有關的技術和工業標準,包括人工智能模型、算法、數據和應用,特別側重于算法的公平性要求、算法驗證、算法誘導、智能推薦、決策評估、結果評估和樣本檢查,以促進人工智能的健康發展和系統應用。

鑒于目前人工智能的技術缺陷,導致其在價值判斷上受到限制,這使其在機器人、自動駕駛儀、智慧解決方案、智能醫學等諸多應用中面臨倫理問題。為了應對這些倫理問題,國際社會已經展開了廣泛的研究和探討,提出了一些人工智能倫理原則和規范,如自由、隱私、尊嚴、自主權、透明性、責任等,旨在保障人工智能技術的合理開發和使用。我國也應該積極參與這一進程,組織相關部門和行業制定符合我國國情的人工智能倫理原則和規范,并加強科學化管理,建立成果共享機制,并嚴格遵守倫理準則,促進科技的健康發展。在人工智能的研發過程中,強化了科研人員的倫理觀念、倫理約束和法律意識,確保人工智能朝著造福人類的積極健康方向發展。另外,在解決某些具體的倫理問題時,也可以利用科技自身來尋找解決方案。例如,在面對惡意收集信息的情況時,可以利用保護隱私數據的智能程序來對抗非法獲取信息的智能程序。

4 人工智能在安全態勢感知中的應用

4.1 建立防御策略

在本研究中,我們首先建立了一個三維模型,作為應用戰略細化關鍵技術的基礎。在模型構建過程中,我們采用了系統思維、模式技術和網絡知識相結合的方法,以確保系統工程的安全性。同時,我們利用聯合安全機制來提升數據庫性能、信息完整性和計算機設備性能。在實施戰略細化技術時,我們還注意使網絡信息與弱發展相適應,并增強高級別防御戰略的有效性。因此,在應用過程中,我們根據服務資源需求,在節點端口處獲取系統安全參數,并根據參數變化進行實時優化配置,無需額外處理。值得一提的是,在參數配置中,不僅涉及大量數據包和接口數據的處理,還涉及語法轉換的問題。因此,在模型構建時,我們對這些內容進行了充分考慮。本研究基于CNDPR 模型,并將戰略細化概念應用到具體加工中。

生成防御策略后,在設備節點上以可執行策略規則形式實施,并通過該模型展示系統狀態變化和活動特征。從形式上看,模型主體分為主體和節點2 類。節點通過節點名、IP 和掩碼生成用戶名和密碼,并改變計算機信息流向。主體則是具有相同特征的主體集合。通過分析系統實際應用情況,我們發現具有相同特征的主題集可以反映出論文特征的綜合,并且不同論文權限之間存在強相關性。因此,我們需要使用不同表達式來描述它們。

4.2 建設模型安全體系

在本研究中,我們對計算機特性和網絡運行狀況進行了全面的分析和掌握,以提高技術應用的合理性,并增強人工智能技術和大數據技術的安全性能。

在構建模型安全體系的過程中,我們重點關注了防御策略模型。該模型采用了三維概念,包括x 軸、y 軸和z 軸。其中,x 軸表示系統的安全性水平;y 軸表示不同的網絡層次,如網絡層、應用層、物理層、傳輸層、數據鏈路層等;z 軸表示物理環境因素,包括信息網絡、信息處理和安全管理等。確保模型合理,安全防護效果全面提高。在建立模型時,網絡安全問題是技術人員必須考慮的,進而提高模型與用戶需求的一致性。

5 結束語

人工智能作為全世界競爭的焦點,正在引領著第4 次工業革命。為了掌握人工智能的發展方向,各國和組織都在積極研究人工智能攻防技術和安全監管治理。我國在人工智能產業規模和核心企業數量方面僅次于美國,位居世界第二。我國的人工智能企業涵蓋各個領域,有望成為全球最大的人工智能市場。

我國應積極占據人工智能安全治理及監管這一制高點,積極推動我國人工智能應用可信可靠的發展。首先對于技術層面的危險,我們要積極發展防御性的算法來抵御各種攻擊,并發展出一套框架來適應各種不同的人工智能算法。但是由于目前的技術限制,單純靠防御性的算法還不足以對抗各種攻擊,這就需要一套規范的技術標準以及應用規范來使我們的人工智能算法更加規范,從而避免一些人工智能算法攻擊。

其次,對于人工智能衍生出來的道德倫理問題,我國也應該與時俱進,組織相關部門和行業制定人工智能的倫理原則和規范。

參考文獻:

[1] 張濤.人工智能時代的網絡安全治理機制變革[J].河南工業大學學報(社會科學版),2022,38(2):76?82.

[2] 彭長根.人工智能安全治理挑戰與對策[J].信息安全研究,2022,8(4):318?325.

[3] 譚毓安.高度重視人工智能安全問題[J].信息安全研究,2022,8(3):311?313.

[4] 葉曉亮,陳羽凡.人工智能安全風險及治理研究[J].工業信息安全,2022(2):83?89.

作者簡介:張燕平(1987—),本科,中級測評師,研究方向:網絡安全。

猜你喜歡
防御措施安全問題人工智能
2019:人工智能
人工智能與就業
數讀人工智能
水稻倒伏與防御措施
陽信縣主要氣象災害對農業生產的影響及防御措施
高校計算機安全防范措施研究
輸變電設備運行及安全防范措施
淺談煤礦瓦斯的安全管理
探析PHP網站設計中信息安全防御措施
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合