?

訪問控制日志驅動的ABAC策略自動提取與優化增強

2024-03-05 11:03夏桐袁凌云車興亮陳美宏
計算機應用研究 2024年2期
關鍵詞:多目標優化

夏桐 袁凌云 車興亮 陳美宏

收稿日期:2023-06-05;修回日期:2023-07-24? 基金項目:國家自然科學基金資助項目(62262073);云南省應用基礎研究計劃資助項目(202101AT070098);云南省萬人計劃青年拔尖人才項目(YNWR-QNBJ-2019-237);云南省重大科技專項計劃資助項目(202202AE090011)

作者簡介:夏桐(1998—),女,河南信陽人,碩士研究生,主要研究方向為訪問控制、可解釋機器學習;袁凌云(1980—),女(通信作者),云南昭通人,教授,博導,CCF高級會員,主要研究方向為物聯網安全、區塊鏈、傳感器網絡(blues520@sina.com);車興亮(1995—),男,云南楚雄人,碩士研究生,主要研究方向為圖神經網絡;陳美宏(1999—),女,湖北恩施人,碩士研究生,主要研究方向為區塊鏈、聯邦學習.

摘? 要:為解決基于屬性的訪問控制(ABAC)策略自動提取的低質量問題,提出一種基于訪問控制日志驅動的ABAC策略自動提取與優化增強方法。首先,構建集成學習模型,將用戶行為和權限分配映射為策略邏輯樹,識別訪問授權決策的關聯性及潛在規律,初步生成策略;其次,通過單屬性優化和規則二元約簡兩種方法深度優化策略,簡化策略結構并壓縮策略規模;最后,提出基于誤差度量的規則沖突解決方法,以增強互斥、完備的ABAC策略,并進一步基于多目標優化的策略性能平衡算法實現不同場景需求的最優模型選擇。分別在平衡數據集和稀疏數據集上進行測試和驗證,實驗結果表明,該方法在平衡數據集上的準確性最高可達96.69%,可將策略規模壓縮至原來的19.7%。在稀疏數據集上的準確性最高可達87.74%,可將策略規模壓縮至原來的23%。此方法兼顧策略的預測精度與結構的簡潔性,同時適用于平衡日志和稀疏日志,確保訪問控制系統在實際應用中能夠實現高效、安全的訪問授權管理。

關鍵詞:基于屬性的訪問控制; 策略提??; 策略增強; 集成學習; 多目標優化

中圖分類號:TP311;TP309.2??? 文獻標志碼:A

文章編號:1001-3695(2024)02-041-0587-09

doi:10.19734/j.issn.1001-3695.2023.06.0232

Automatic extraction and optimization enhancement of ABAC policy driven by access control log

Xia Tonga, Yuan Lingyuna,b, Che Xinglianga, Chen Meihonga

(a.College of Information Science & Technology, b.Key Laboratory of Educational Information for Nationalities, Ministry of Education, Yunnan Normal University, Kunming 650500, China)

Abstract:To address the low-quality problem of automatic extraction of ABAC policies, this paper proposed an automatic extraction and optimization enhancement method of ABAC policies driven by access control logs. Firstly, the method constructed an ensemble learning model to map user behavior and permission allocation into a policy logic tree, identifying the relevance and underlying patterns of access authorization decisions to generate preliminary policies. Secondly, the method employed two algorithms of single attribute optimization and rule binary reduction to deeply optimize the policies, simplifying policy structure and compressing policy scale. Finally, the method proposed an error metric-based rule conflict resolution approach to enhance mutually exclusive, complete ABAC policies. Furthermore, the method used policy performance balancing algorithm of a multi-objective optimization to achieve the optimal model selection for different scenario requirements. This paper tested and verified on balanced datasets and sparse datasets respectively, the experimental results demonstrate that the method achieves a highest accuracy of 96.69% on the balanced dataset, compresses the policy scale to 19.7% of the original. On the sparse dataset, the highest accuracy reaches 87.74%, with the policy scale compresses to 23% of the original. This method balances the prediction accuracy and structural simplicity of policies, and is applicable for both balanced logs and sparse logs, ensuring the access control system can implement efficient and secure access authorization management in practical applications.

Key words:attribute-based access control(ABAC); policy extraction; policy enhancement; ensemble learning; multi-objective optimization

0? 引言

信息安全領域中,訪問控制技術是防止未授權訪問以及保護敏感信息和關鍵資源不被濫用的重要手段[1]。隨著企業規模和信息系統復雜性的增加,傳統的訪問控制模型已無法滿足實際需求。為此,基于屬性的訪問控制(ABAC)模型應運而生。相較于傳統模型,ABAC模型以屬性為基礎實施細粒度的訪問控制,更能滿足多元化的安全需求[2]。實現ABAC模型需要定義和生成策略,但手動編寫策略往往困難且易出錯,因其涉及眾多因素,如用戶身份、資源屬性及上下文信息等[3]。因此,自動化策略提取技術成為簡化策略開發、快速部署ABAC模型的關鍵。此技術基于統計學習和人工智能算法,通過分析歷史訪問日志數據,自動識別和生成精細化的訪問控制策略,提高策略的實時性和準確性[4~6]。該自動化和動態調整機制減輕了對人工干預的依賴,降低了無授權訪問和誤操作引發的數據泄露風險,使企業能夠及時應對各種網絡環境和業務需求的變化,實現持續的數據安全保護。

盡管眾多學者對ABAC策略自動提取技術進行了深入研究[7~12],但在某些方面仍存在局限性。例如,ABAC策略規則由一組正負屬性過濾器組成,負向過濾器在需要表達例外情況時尤為重要,但大多技術無法支持挖掘包含負過濾器的授權規則。當面對稀疏日志,即某類訪問請求事件在整體日志數據中的分布極為分散時,如何有效挖掘高質量的訪問控制策略成為一大挑戰。此外,現有方法缺乏初次策略提取后對策略進行優化的技術,會導致策略過度擬合訪問日志數據,且精度低、復雜性高,以及解釋性差等問題。為解決上述問題并提高策略的實用性及易理解性,深入優化和增強策略顯得尤為重要。此類優化不僅能提升策略的執行效率和可維護性,還能有效降低因錯誤配置或沖突導致的安全風險?,F階段,ABAC策略優化和增強方法已有所進展,如策略簡化[13~15]、負向規則的支持[16]以及可解釋性和審查性的提高[17],但仍需解決策略冗余和沖突、平衡策略準確性和簡潔性,以及面對大規模ABAC環境下策略生成和管理等問題。

由此,本文基于系統訪問日志進行ABAC策略自動提取及優化增強。首先,利用貝葉斯優化方法在搜索空間中調整超參數,以構建高精度的集成預測模型;其次,通過可視化策略邏輯樹學習“用戶-權限”的關聯規律,自動提取包含正向和負向授權規則的ABAC策略,并對生成策略進行深度優化和增強,確保策略預測精度的同時降低策略復雜度;最后,在測試日志上全面評估策略質量,提取準確性高、適用性廣以及解釋性強的ABAC策略??傮w來說,本文的主要貢獻包括:

a)提出一種基于集成學習算法的ABAC策略自動提取方法,該方法根據屬性和約束條件自動生成正負類訪問控制策略。

b)在策略優化和增強階段,采用單屬性優化算法簡化策略結構;提出規則二元約簡算法壓縮策略規模;提出規則沖突解決算法消除策略沖突,實現穩定、簡潔且互斥的優化策略。

c)引入準確性、規則結構復雜度和解釋性等策略質量評價指標,基于多目標優化的策略性能平衡算法,實現在各種訪問場景中快速選擇策略生成的最優模型。在平衡和稀疏類型日志上的實驗均取得良好效果,驗證了該方法的通用性和普適性。

1? 相關工作

目前,國內外學者已在ABAC策略自動提取領域進行了一系列研究??偟膩碚f,這些研究成果主要劃分為策略自動提取的技術應用和策略質量優化的方法探究兩大核心部分。文獻[13]提出一種專門針對稀疏日志設計的策略自動提取方法(Rhapsody)。該方法采用關聯規則技術初步提取策略,并引入一種新的規則質量度量方法——可靠性(reliability),以解決策略中過度授權規則的問題。此外,Rhapsody通過挖掘無更短等效規則的方式,簡化策略整體結構,有效提高策略質量。然而,當處理大規模問題和具有大量屬性的日志時,Rhapsody性能有待改進。文獻[14]實現基于日志的富語義策略挖掘方法(LRSAPM)。該方法采用FPGrowth技術從訪問日志和屬性數據中初步提取策略,并基于T可靠度剔除策略中準確率較低、過度授權風險較高的規則。此外,基于語義質量度量標準對策略去冗余,保留語義質量較高的規則,形成完善的ABAC策略,但該方法對稀疏日志和低頻訪問的處理能力有待提高。文獻[15]提出一種從系統訪問日志中自動學習ABAC策略規則的方法。該方法采用K-modes聚類的無監督學習技術檢測訪問日志模式,初步提取ABAC授權規則,并采用規則剪枝及策略細化兩種方法優化策略質量和精簡度。規則修剪采用Jaccard相似度指標,消除對策略質量改善較小或冗余的規則,從而壓縮策略規模;策略細化根據FN或FP記錄中的模式,對提取策略進行修正,消除多余的屬性條件或添加缺失的屬性條件。上述優化方法雖增強了策略的準確性和簡潔性,確保了提取策略與原始策略保持一致,但此方法難以設定恰當的聚類K值,提取出的策略穩定性較弱。上述這些方法主要關注正向類型的訪問控制策略,并未涉及負向授權的處理。

文獻[16]基于現有的PRISM數據挖掘技術,首次實現正向和負向ABAC授權規則的提取,并在無現成訪問日志可供使用的情況下提供一套生成授權日志的詳細方法,同時該研究保證了策略的準確性和規則結構的簡潔性,但其過程中涉及反復迭代計算和日志的多次讀取,導致整體運行時間相對較長。文獻[17]提出一種名為VisMAP的可視化ABAC策略提取方法。該方法將現有的用戶訪問權限具象化為圖形二進制矩陣,并將尋找最優二進制矩陣表示任務轉換為矩陣最小化問題。然后,通過分析訪問控制矩陣的可視化表示,提取ABAC授權規則,并盡可能減少策略中的規則數量來滿足現有的訪問需求,提高策略的簡潔性和易理解性。但由于矩陣稀疏且求解空間巨大,運行效率相對較低。文獻[18]提出一種基于訪問控制日志的訪問控制策略生成方法。該方法利用機器學習分類器的遞歸屬性消除法實現策略屬性的最優選擇,使用決策樹算法提煉日志中隱藏的屬性和權限關系,并結合實體屬性選擇結果,實現ABAC策略提取。雖然該方法能實現日志中95%的策略覆蓋,但策略規模壓縮之后仍較大,且策略簡潔性和可解釋性尚未考慮。此外,存在一些基于黑盒機器學習和深度學習等不可解釋學習模型的策略自動提取方法[19~21],這類方法目前只能為策略提取提供屬性數據,無法直接生成完整的ABAC訪問控制策略。

關于上述文獻的ABAC策略自動提取和質量優化的研究,本文將重點從以下五個方面予以改進和優化。首先,確保提取策略的正確性,即與原始授權日志一致,避免不一致的策略對系統安全性和穩定性產生負面影響;其次,簡化策略結構復雜度,使其易于操作和維護;同時,使用策略提取算法實現正負類授權規則的自動生成,構建更全面和靈活的訪問控制策略;此外,在處理稀疏日志時,算法也能從非均衡和低頻訪問日志信息中提取有用規則,確保生成策略能夠有效處理訪問控制需求;最后,將聚焦于策略的可解釋性研究,策略可解釋性對保證系統安全、合規及有效的策略管理至關重要,它可以幫助管理員、用戶和審計員更好地理解和信任策略規則,降低錯誤率并增強系統透明度。

綜上所述,受文獻[18]用決策樹模型自動提取策略的啟發,以決策樹為基學習器的集成學習樹模型(如random forest、XGBoost、GBM等)一定程度上可保留決策樹的可解釋性,并在處理大規模數據和復雜問題、提高預測精度和穩定性、處理高維和非線性問題,以及提高計算效率等方面優于單棵決策樹,它能夠作為實現ABAC策略自動提取的一種選擇方案。但直接使用集成學習模型生成策略會面臨以下問題:過多、過深的決策樹會導致單條策略規則過于復雜,缺乏簡潔性,以及規則間存在大量冗余和沖突。因此,本文擬采用高精度的黑盒集成學習樹模型自動提取ABAC策略,以減輕安全管理員的工作負擔,生成直觀且可視化的訪問授權規則,這也是目前集成學習模型應用于ABAC策略提取的首次嘗試。隨后,使用優化和增強算法改進策略質量,具體包括移除單條規則中冗長屬性條件以降低策略結構復雜度、刪除冗余規則以壓縮策略規模、消除重復覆蓋規則以解決策略沖突,從而提高策略簡潔性和解釋性,以促進ABAC模型在各類場景中的廣泛應用,并為保障信息安全提供有力支持。

2? 問題定義

定義1? ABAC策略核心組成。ABAC模型的實現需要創建一組基于屬性的決策規則,這些規則累積形成訪問控制策略,即資源訪問的允許或拒絕取決于一系列規則r的評估結果,這些規則為訪問授權或拒絕提供明確條件。規則r主要包含主體用戶U、客體資源O、執行操作OP和授權結果D的屬性表達式(e)。屬性表達式可分為屬性值對和屬性-屬性對。屬性值對代表用戶或資源屬性的具體值,屬性-屬性對則表示需要匹配的用戶和資源屬性組合。以下是一些ABAC策略中規則的示例。

u.position=faculty;u.chair=true;o.type=transcript;u.department=o.department;action=read;permit(1)

u.position=manager;u.department=accounts;o.type=budget;action=approve;deny(2)

本文涉及的相關符號定義如表1所示,使用大寫字母表示集合,小寫字母表示集合中的元素。

定義2? ABAC策略生成問題。授權日志可以表示為l=〈u,o,op,d〉,其中,u∈U為用戶,o∈O為資源,op∈OP為用戶對資源的操作,d∈D代表訪問執行結果,所有的授權日志l組成訪問日志集合L。此日志集合中,可能存在各類日志分布情況,包括平衡日志和稀疏日志。

平衡日志是指各類訪問請求事件(如允許訪問請求、拒絕訪問請求)的出現頻率相對均衡,即樣本數據在不同類別間的分布較為均勻。而稀疏日志是指某類訪問請求事件(例如拒絕訪問請求)在整體日志數據中的出現頻率極低,造成數據在各類事件間的分布極不均勻,形成稀疏分布?,F實情況中,用戶通常會訪問他們有權限訪問的資源,尤其在被拒絕后,用戶可能不會再嘗試訪問這些資源,這就會產生大量的允許訪問日志,而拒絕訪問的日志就相對較少,從而形成稀疏日志。

根據用戶集合U、用戶屬性集合Uatt和用戶屬性函數Fu組成用戶屬性關系表UA;同理可得資源屬性關系表OA。以UA為例,具體描述如下。

假設UA(ui)={a1∶v1;a2∶v2;…;an∶vn},其中ui∈U表示具體用戶;a1,a2,…,an,an∈Uatt表示用戶ui擁有的具體屬性;v1,v2,…,vn表示用戶ui屬性an對應的具體取值vn。給定用戶集合U={u1,u2}和用戶屬性集合Uatt={身份,部門},以及如表2所示的屬性關系。

此時UA可表示為

UA(u1)={身份:管理員,部門:人事}(3)

UA(u2)={身份:員工,部門:銷售}(4)

在給定訪問日志集合L、用戶屬性關系表UA、資源屬性關系表OA以及相關的策略質量評估指標情況下,本文目標是從復雜的訪問控制日志中挖掘出能夠精確反映權限關系的ABAC策略。

定義3? ABAC策略準確性。ABAC策略準確性是衡量其在接受或拒絕訪問請求時是否正確的重要指標。高準確性的策略能夠在實際應用中降低誤報和漏報的風險,確保系統的安全和合規。本文參照文獻[18],將準確性分為接受策略準確性(ACC_1)、拒絕策略準確性(ACC_0)以及整體策略準確性(ACC_0/1),如式(5)~(7)所示。

ACC_1=TAR(L)AR(L)(5)

ACC_0=TDR(L)DR(L)(6)

ACC_0/1=TAR_DR(L)AR_DR(L)(7)

其中:TAR(L)、TDR(L)、TAR_DR(L)分別表示使用提取的訪問控制策略對測試日志中的接受類別日志記錄、拒絕類別日志記錄、整體類別日志記錄進行權限評估,且評估結果為正確的日志數量;AR(L)、DR(L)、AR_DR(L)分別表示測試日志中接受類別日志記錄、拒絕類別日志記錄、整體類別日志記錄的總數量。

定義4? ABAC策略規則結構復雜度。本文致力于提升ABAC策略提取質量,并將加權結構復雜度(weighted structure complexity,WSC)作為主要評估指標。WSC是一種衍生自策略規模(策略中的規則條數policy scale,PS)的度量方法[22],主要用于衡量策略規則結構長度的復雜程度。具體來說,WSC通過計算策略中各元素的加權和來評估結構復雜性。較低的WSC值意味著策略結構更為簡潔且易于管理。WSC的計算方式如式(8)~(10)所示。

WSC(Π)=∑r∈RWSC(r)(8)

WSC(e)=∑a∈att(e)|e(a)|(9)

WSC(r)=ω1WSC(eu)+ω2WSC(eo)+ω3WSC(eop)(10)

其中:屬性表達式e表示某一用戶eu、資源eo或操作eop擁有的屬性約束;e(a)表示屬性表達式e中屬性a的值域大??;att(e)表示被e所使用的屬性集合;wi為自定義權重。通過使用這種度量方法,能夠有效評估策略的結構復雜度,從而更有針對性地對策略進行優化,實現高質量的ABAC策略提取。

定義5? ABAC策略可解釋性(interpretability,INT)。它是衡量其透明度和可理解性的關鍵指標。具有較高可解釋性的策略有助于管理員和審計員更好地理解并維護訪問控制規則,同時也便于用戶了解自己的訪問權限。通常來說,可解釋性是指人們能夠理解決策原因的程度,參考文獻[23]對規則提取的可解釋研究,本文將可解釋性指標定義為

INT(Π)=1-αNatt+βNcov+δNcntα+β+δ(11)

Natt=1totalatt∑ruleNi=1activeiatt-1ruleN-1(12)

Ncov=1ruleN(1-∑ruleNi=1ruleimatch-1countdata-1)(13)

Ncnt=ruleselect-1ruleN-1(14)

其中:Natt、Ncov、Ncnt分別代表策略中規則的平均屬性數、策略的樣本覆蓋范圍以及策略選擇率;α、β、δ分別表示各指標的權重,其取值可根據研究者的需求確定,此處參考文獻[23],設定為三者權重相等;activeiatt表示第i個規則的屬性個數;totalatt表示策略中含有的屬性個數;ruleimatch表示與第i條規則匹配的樣本數量;countdata表示總樣本數;ruleN表示策略規模;ruleselect表示優化后的策略規模。當Natt∈[0,1]較小,即平均屬性數少時,表示規則具有簡潔性,策略管理員更容易理解;當Ncov較小,即規則具有較好的覆蓋范圍時,表示規則的穩定性較強;當Ncnt較小,即預測策略規模較少時,表示訪問系統的執行效率高。因此,可解釋性指標INT的值越大,策略的可解釋性越強。

3? ABAC策略自動提取與優化增強

針對現有ABAC策略生成問題,本文構建一種策略自動生成優化流程,以提升生成策略的質量,其涵蓋策略提取、優化和增強三個階段。首先從原始訓練數據中提取關鍵規則,作為構建初始策略的基礎;接著,深度優化策略中的規則,通過縮短規則長度和降低規則條數,精煉策略;最后,消除沖突規則和覆蓋重疊,實現策略增強,得到一套互斥且全面的ABAC策略。具體實現流程如圖1所示。

3.1? 基于集成學習模型的ABAC策略自動提取

3.1.1? 數據預處理

針對策略提取在效率和準確性上待提升的問題,本文將從訪問日志中提取ABAC策略問題轉換為機器學習領域的二分類問題。通過構建高效且強大的隨機森林(random forest)、梯度提升機(gradient boosting machine,GBM)和極限梯度提升(extreme gradient boosting, XGBoost)集成學習分類器, 能夠準確預測基于多種屬性組合(如用戶屬性、資源屬性和環境屬性)的訪問請求授權狀態。為實現這一目標,首先獲取系統的資源授權日志l,將訪問控制日志集L、用戶屬性關系表UA和資源屬性關系表OA按主鍵ID進行全連接操作,構建訪問控制日志記錄表。接下來,將各種屬性轉換為便于處理的類型。對于離散值屬性,采用獨熱編碼(one-hot)進行編碼,其中0表示該用戶不具有該屬性,1表示該用戶具有該屬性。對于連續值屬性,將其轉換為離散型屬性,并使用one-hot編碼進行處理。此外,整合冗余屬性值并糾正錯誤的屬性標定,確保屬性能夠準確反映權限關系。為簡化問題,本文假設環境條件可取任意值。

如圖1所示,給定訓練集T,其中X為屬性向量,y為類標。令T=(Xi,yi),i=1,2,…,n為標記樣本的集合,此時Xi∈X且Xi=(Xi1,Xi1,…,Xif),f是屬性數量,yi∈y={0,1}是二分類標簽。使用上述數據訓練集成學習模型M,它由多棵策略邏輯樹Tree組成,這種樹型的訪問控制結構包含葉子節點和非葉子節點。位于樹底部的葉子節點表示授權結果,如允許訪問或拒絕訪問。非葉子節點包含內部節點和根節點,分布在樹的其他位置,表示具體屬性及其約束條件。每個非葉子節點都有左右兩個分支,其屬性及約束條件通常以各種表達式(邏輯、條件和集合表達式等)的形式存在。若滿足該節點條件,授權流程將沿著左分支前進,否則轉向右分支。每條從根節點到葉子節點的路徑代表一條訪問控制規則,通過遍歷每棵樹的所有路徑集合,實現ABAC策略的自動提取。

3.1.2? 集成學習模型構建

使用集成學習模型構建策略邏輯樹Tree時,為每個節點選擇最優分裂點是實現ABAC精確決策的核心。合理選取分裂點能增強模型預測的精度和穩定性,避免過擬合或欠擬合的風險。此外,它能簡化樹的結構,減少其深度和節點數量,使屬性和約束條件間的復雜關系表達更為直觀。這一過程優化了ABAC策略提取的效率和準確性,使決策過程高效、可靠。在應用random forest模型時,首先使用自助重采樣(bootstrap sampling)生成新數據集T′;然后隨機選擇一組屬性子集,通過計算基尼不純度(Gini impurity)[24]來確定Tree中每個節點的最佳分裂點。

G(T′)=1-∑Kk=1p2k(15)

其中:p2k表示T′中第k類的樣本比例;K表示T′的類別總數。

確定最佳分裂點時,設屬性A的約束切分點a將數據集T′分裂為兩個子集T′1和T′2。子集T′1包含A≤a的所有樣本,子集T′2包含A>a的所有樣本。|T′1|和|T′2|是子集T′1和T′2的樣本數量,|T′|是數據集T′的樣本數量。分別計算這兩個子集的基尼不純度,并根據子集大小進行加權平均,從而得到分裂后的基尼不純度。

G(T′,A,a)=(|T′1||T′|)×G(T′1)+(|T′2||T′|)×G(T′2)(16)

遍歷所有屬性和切分點,計算相應的G(T′,A,a),選取使得G(T′,A,a)最小的屬性和切分點作為最優分裂點。

另一方面,應用GBM和XGBoost模型構建策略邏輯樹時會充分利用所有樣本數據[25,26],且這兩種模型會選擇能最大程度降低損失函數的屬性及約束切分點作為最優分裂,如GBM模型中,常采用對數損失函數[25]。設屬性B的切分點b將樣本集T分成兩個子集Tleft和Tright,Tleft包含B≤b的樣本,Tright包含B>b的樣本。計算左子集Tleft中標簽為1的樣本比例,表示為pleft;計算右子集Tright中標簽為1的樣本比例,表示為pright。計算所有屬性及約束切分點的損失函數,選擇對應最小損失函數值作為最優分裂點。

Loss(B,b)=-∑i∈Tleftyilog(pleft)+(1-yi)log(1-pleft)-

∑i∈Trightyilog(pright)+(1-yi)log(1-pright)(17)

XGBoost模型采用的損失函數考慮了一階和二階梯度信息[26],即損失函數相對于預測值的一階和二階導數。這需要為Tleft和Tright分別計算損失函數的一階和二階導數總和。設GL和HL分別表示Tleft的一階和二階導數的和,GR和HR分別表示Tright的一階和二階導數的和。接下來,計算通過切分點b進行分裂后的損失減少量得分ΔLoss。

Δ Loss=12×[(GL2HL+λ)+(GR2HR+λ)-(GL+GR)2(HL+HR+λ)]-γ(18)

其中:λ和γ是正則化參數;λ控制葉子節點權重的正則化;γ控制葉子節點數量的正則化。遍歷所有屬性和切分點,選擇ΔLoss最大的屬性和切分點作為Tree節點的最優分裂點。

3.1.3? 策略邏輯樹規則轉換

考慮一個包含P棵策略邏輯樹的集成學習模型M,從中選擇第p棵樹Treep(1≤p≤P)并對其第q條路徑r{wqp}進行分析。假設路徑q中包含S個非葉子節點,將第s(1≤s≤S)個非葉子節點v{psq}視為包含屬性x∈X及其約束條件θ∈⊙的決策表達式F{v{psq}(x,θ)}。當路徑q在節點s處延伸至左分支時,將F{v{psq}(x,θ),true}添加到路徑中,若路徑向右分支延伸時,則將表達式的補集F{v{psq}(x,θ),false}添加到路徑。因此,路徑r{wqp}可以用一系列屬性-約束對的有序序列表示。

r(wqp)={&s∈S(F{v{psq}(x,θ)},true,false)}(19)

最后,通過分析M中P棵樹的所有決策路徑,得到一組決策規則集合R,Q表示Treep的葉子節點數,整個過程能夠自動化提取ABAC策略。

ΠR={∪P,Qp,qr(wqp)|p=1,2,…,P;q=1,2,…,Q}

Q=∑node∈Treeq|leafnode(Treep)|(20)

在集成模型的訓練過程中,選用的樣本僅占全部訓練樣本的一部分。因此,本文方法只從這些樣本中提取規則條件,并依據這些條件結合整個訓練樣本集對每條規則的預測類別重新優化定義。在移除重復規則之后,構建一個初級的ABAC策略。核心算法如下:

算法1? ABAC策略提取

輸入:training samples T,tree ensemble model classifier。

輸出:orig policy。

M←Train(TreeEnsembleclassifier,T)? /*使用訓練集T訓練樹集成學習模型M*/

orig policy←? //初始化決策規則(策略)集合

for each Tree in M do

for each branch in Tree do

convert path to decision rule r and add to orig policy? /*將決策路徑轉為決策規則,添加到orig policy中*/

end for

end for

for each rule r in orig policy do

N_c=|t∈T|滿足r且t的類別為c|? //記錄滿足r的樣本數量和類別

c_r=argmax_c(N_c)? /*為規則r分配出現次數最多的類別作為預測結果*/

r:rc_r

end for

remove duplicate r from orig policy

return orig policy

3.2? 策略優化

上述策略提取過程中,由于random forest、GBM和XGBoost的集成特性以及基于決策樹的非線性特點,無論采用哪種方法,提取出的規則都具有較高的復雜度,這對于理解策略內在邏輯和進行細粒度訪問控制具有一定的挑戰性。因此,在實際應用中,需要對策略進行優化和完善,提高其可讀性、維護性和執行效率,以便更好地滿足實際需求和安全性要求,確保訪問控制系統在各種場景下高效且穩定運行。為實現這一目標,本節提出基于單屬性優化和規則二元約簡的策略優化方法。

3.2.1? 單屬性策略優化

集成學習方法整合眾多去耦合策略邏輯樹,構建出精確且穩定的預測模型。然而,每棵樹生成的規則可能存在冗余或過于復雜的屬性條件。為解決該問題,借鑒文獻[27]的規則修剪思想,設計一種單屬性策略優化(single attribute optimization,SAO)方法,通過審查每條規則,識別并移除重復、不相關或冗長的屬性條件。這些條件不會影響規則的執行結果,但會增加計算成本。使用此方法,可以在保證策略預測準確性的同時,簡化策略結構。

在SAO方法中,采用一種稱為歸一化誤差比值(norma-lized error ratio,NER)的度量標準來評估刪除某個屬性對規則的影響。設ABAC策略為ΠR={r1,r2,…,rj},具體的規則誤差度量函數表示為

E(rj,T)={1-T(rpredj)T(rj)|rj∈Π}(21)

其中:T(rj)為滿足rj的樣本數量;T(rpredj)為滿足rj且預測正確的樣本數量。通過對比原始規則產生的誤差和剔除某個屬性條件后得到新規則產生誤差之間的比值,可以更加準確地判斷該屬性對規則的貢獻程度。

NER=E_t-E_origmax(E_orig,ε)(22)

其中:E_orig代表原始規則誤差;E_t表示在剔除第t個屬性后得到新規則的誤差;ε是一個正數(例如10-2),用在E_orig接近0時調節NER值,避免因分母過小導致的計算不穩定。當歸一化誤差比值低于預設誤差閾值E_threshold時,可以認為第t個屬性條件對規則的貢獻相對較小,從而考慮將其從規則中移除。

為了更清楚地闡述SAO方法的工作原理,以一個具體例子進行說明。假設一條規則為{部門=‘財務&職位=‘經理&工作時長>‘2年&教育程度=‘碩士訪問權限=‘高級},其中ε=0.01,E_threshold=0.20且E_orig=0.4。當移除條件{部門=‘財務},規則變為{職位=‘經理&工作時長>‘2年&教育程度=‘碩士訪問權限=‘高級}。設移除條件后的規則誤差為E_1=0.415,那么NER=0.415-0.4max(0.4,0.01)=0.0375<<0.20。由于歸一化誤差比值低于預設誤差閾值,表明條件{部門=‘財務}對規則的貢獻較小,所以可以將其從規則中刪除,這樣規則長度從4縮短至3。通過實施SAO方法,對規則中的每個屬性條件進行分析,剔除冗長和不必要的屬性,優化策略整體結構。核心算法如下:

算法2? 單屬性優化

輸入:training samples T;orig policy;E_threshold;ε。

輸出:pruned policy。

pruned policy←

for each rule r in orig policy do

E_Orig←E(r,T)? //計算r的原始誤差

for each condition t in reversed order of r do? /*從后往前迭代去除r的每個屬性條件*/

E_t←E(remove t from r,T)? /*計算去除r中第t個屬性條件的誤差*/

calculate NER

if NER ≤E_threshold then

remove condition t from r

update r,E_Orig=E_t? //更新r和原始誤差

end if

pruned policy←add(r)

end for

end for

return pruned policy

3.2.2? 規則二元約簡

盡管SAO方法能有效縮短規則長度,但規則數量仍未減少,為進一步篩選關鍵授權規則并壓縮策略規模,本文提出一種名為規則二元約簡(rule binary reduction,RBR)的策略優化方法。其核心思想是將規則轉換為二元特征向量,并與原始訓練樣本結合形成新數據集,使用特征選擇方法篩選最優規則子集。

具體而言,RBR方法將每條規則視為一個特征,為其創建一個反映所有訓練樣本是否滿足該規則的二元特征向量,并將其加入到原始訓練樣本的特征集,形成一個新數據集N。規則集合的條件部分為{r1,r2,…,rj},其中Nij表示第i個訓練樣本是否滿足規則rj,即

Nij=1? 第i個樣本滿足規則rj0? 第i個樣本不滿足規則rj(23)

基于此,構建一個行數與訓練集樣本相同的新數據集N,包含二進制變量及其對應的標簽。

N={[Ni1,Ni2,…,Nij,labeli],i=1,2,…,n}(24)

這里采用遞歸特征消除法(recursive feature elimination,RFE)[28]實現規則約簡。首先,將新數據集N輸入到機器學習分類器(如支持向量機(SVM)、決策樹或隨機森林)進行訓練,為保持一致性,本文使用所有特征訓練隨機森林分類器C。然后,在每輪迭代中,移除一個特征規則feat_r,并使用剩余特征規則和對應標簽重新訓練分類器C(-feat_r)。通過比較,剔除規則前后分類器的準確率Δ_Acc_r,評估被剔除規則的重要性。

Δ_Acc_r={Acc(C)-Acc(C(-feat_r))|r∈{r1,r2,…,rj}}(25)

如果Δ_Acc_r>0,說明剔除的規則對分類器性能影響較大,其重要性較高;反之,若Δ_Acc_r≤0,表示剔除的規則對分類器性能影響有限,重要性較低。最后,按照規則重要性進行排序并篩選結果。

Sorted=argsort(-Δ_Acc_r)(26)

FinalCond={feat_r|r∈Sorted[:m]}(27)

其中:argsort(-Δ_Acc_r)表示按照準確率降序排列規則的索引;m為所需規則數量;FinalCond為最終選定的規則子集。RBR方法通過逐步優化規則數量和質量,從新數據集N中篩選出一組相關且高度具備區分性和預測能力的非冗余規則子集,再將其應用到全部訓練日志上重新分配預測結果,最終形成優化的ABAC策略。核心算法如下:

算法3? 規則二元約簡

輸入:training samples T;pruned policy。

輸出:reduced policy。

initialize dataset N with same row count as T? /*初始化一個與訓練集樣本行數相同的新數據集N*/

for each rule r in pruned policy do

B_r=[0*n]? //創建一個長度為n的向量列表

for each sample t[i] in T do? //遍歷訓練集的每個樣本

if t[i] is satisfies r then B_r[i]=1 else set B_r[i]=0? /*將規則轉換成二元特征向量*/

end for

N.tail←column(B_r)? /*將二元特征向量B_r作為一個新列追加到數據集N的末尾*/

end for

Acc_scores←{ }? //存儲刪除的每條規則以及對應的模型準確率

for each column j in N do

Accj=train(N.remove column j),rf //計算剔除第j列(第j條規則)的準確率

Acc_scores[j]←Accj

end for

reduced policy←? //存儲小于原始準確率的規則

for each key j in Acc_scores do

calculate Δ_Acc_rj=Acc(train(N,rf))-Acc_scores[j]? /*計算第j條規則的重要性*/

if Δ_Acc_rj>0 then

reduced policy←add(j)

end if

end for

return reduced policy

3.3? 策略增強

對初步提取出的ABAC策略應用SAO和RBR方法進行優化后,可以得到一種改進的ABAC策略,但優化策略中仍存在非互斥和不完備的規則,即一條訓練日志數據被多條規則重復覆蓋。為解決該問題,本文提出一種基于誤差度量的規則沖突解決(rule conflict resolution,RCR)方法,避免因規則間的沖突導致錯誤判斷和執行,具體實施步驟如下。

首先,將優化策略表示為R={r|r=rj,j=1,2,…,j-m},通過訓練樣本集T={t|t=ti,i=1,2,…,n},為每個樣本ti找到適用的規則子集R_i={rij|rij∈R∩rij適用于ti}。然后,對這些規則進行誤差度量,根據式(28)挑選出誤差最小的規則,若存在誤差相同的多條規則,則選擇長度最短的一條作為該樣本的最優規則。

r_min=argmin{E(rij,T)|rij∈R_i}(28)

r_opt=argmin{Len(rij)|rij∈r_min}(29)

最后,依次迭代所有訓練樣本,確保每個樣本僅被其最優規則覆蓋。通過為每個樣本尋找準確度最高的規則,RCR方法既能確保ABAC策略包含所有必要的訪問控制規則,又能有效降低規則沖突,提高策略穩定性。

算法4? 規則沖突解決

輸入:reduced policy;training samples T。

輸出:optimal policy。

optimal policy←? //存儲互斥、非沖突的規則

for each sample in T do? //遍歷訓練集中的每個樣本

applicable_r←{ }? //存儲滿足當前樣本的具體規則和對應誤差

for each rule r in reduced policy do

if r applies to sample then

calculate r_error=E(r,T)

add {r:r_error} to applicable_r

end if

end for

sort applicable_r by r_error in ascending order? /*按照規則誤差升序排列*/

min_error_r=arg min{r∈keys(applicable_r)}applicable_r[r]

if length of min_error_r>1 then

choose the shortest rule from min_error_r? /*從誤差子集中挑選最短長度作為此樣本的最佳規則*/

add this rule to optimal policy

end if

end for

return optimal policy

4? 實驗評估

4.1? 實驗設置

4.1.1? 實驗環境設置

本實驗旨在比較random forest(RF)、XGBoost(XGB)和GBM三種集成模型在ABAC策略自動提取與優化方面的應用,以進一步提高策略預測準確性、降低策略復雜度并增強其可解釋性。集成模型的復雜性表現在多個方面,包括決策樹的數量、最大深度、特征數量、決策樹算法、集成策略以及正則化等。具體來說,當樹的數量和深度增加時,終端節點的數量會迅速上升,從而導致樹的復雜性增加,使得解讀其決策規則變得困難。為了確保實驗對比的公平性,本文在(30,40,50,60,70,80,90,100)內設置樹的數量,并在(4,5,6,7)內設置深度。同時,針對不同數據集,采用貝葉斯優化方法為每種模型尋找其他最優參數。為確保實驗設計的嚴謹性和可重復性,表3詳細列出了實驗環境和具體參數設置。

4.1.2? 數據集描述

為驗證本文方法的有效性,選用兩類數據集進行實驗:一是來自文獻[7]中的手寫數據集University,二是來自Kaggle平臺的公開數據集——Amazon.com-Employee Access Challenge,簡稱為Employee。University數據集的特點是操作類別平衡,允許類別日志和拒絕類別日志的數量相等。Employee數據集包含大量的主客體,日志集相對稀疏,拒絕訪問請求的日志數量極少,且資源屬性僅有一個。表4為數據集的基本信息。本文將這兩個數據集按8∶2隨機劃分為訓練集和測試集,并進行3次隨機拆分,實驗結果的各項指標均為3次拆分后各指標的平均值。該方式旨在更準確地評估本文方法在不同數據集上的表現。

4.2? 性能分析

4.2.1? 策略準確性對比

本實驗旨在比較RF、XGB和GBM三種模型在提取ABAC策略方面的準確性表現。將每種模型提取的策略結果輸入到之前定義的策略優化和增強流程中,得到經過優化和增強后的ABAC策略,并將經過優化和增強后的模型分別命名為RFOpt、XGBOpt和GBMOpt,以進一步對比它們的性能差異。圖2和3展示了集成學習模型在不同訪問控制數據集下,針對接受、拒絕和整體策略準確性的變化情況。

在University數據集驗證中,RFOpt、XGBOpt和GBMOpt模型在拒絕策略和整體策略準確性方面均優于原始模型。其中,GBMOpt的ACC_0最大幅度提高了38.7%,達到96.56%;同樣,GBMOpt的ACC_0/1提高了17.64%,達到96.69%。然而,在接受策略準確性方面,RFOpt、GBMOpt模型并未超越原始模型。主要原因在于策略優化過程中的權衡取舍,優化過程主要致力于提高整體策略準確性和降低誤報率,所以犧牲其他指標的部分性能是可以接受的。具體來說,RF和RFOpt的接受策略準確性均為100%;GBMOpt的ACC_1下降了3.19%,但準確性仍高達96.81%;相較于XGB,XGBOpt的ACC_1提高了2.26%,達到97.03%。

在Employee數據集驗證中,RFOpt、XGBOpt和GBMOpt模型在接受和整體策略準確性方面均優于原始模型。其中,RFOpt的ACC_1提高了10.24%,達83.11%;XGBOpt的ACC_1提高了19.82%,達86.63%;GBMOpt的ACC_1大幅提高了48.6%,達82.43%。此外,RFOpt、XGBOpt和GBMOpt的ACC_0/1分別提高了4.43%、7.43%和21.04%,達到81.2%、87.74%和84.34%。然而,RFOpt模型在拒絕策略準確性方面與原始RF模型相當,XGBOpt和GBMOpt則未超過原始模型。主要原因在于Employee數據集的稀疏性,接受日志量遠超拒絕日志,導致模型偏向學習接受策略,即便采用ADASYN技術增強少數類樣本,但新增樣本基于插值產生,會引入噪聲進而影響模型性能。具體來說,XGBOpt和GBMOpt的準確性分別降低了5.35%、6.9%,但仍達88.87%、86.17%。

在ABAC策略提取過程中,經過優化和增強的模型在整體策略準確性上明顯優于原始模型。然而,受數據特征和問題深度的影響,這些模型在不同數據集上的表現并非一致。在接受和拒絕策略準確性上,優化模型的性能有時會下降,這是優化過程中權衡各性能指標的結果。因此,實際應用時必須考慮數據集特性和實際需求,以確保模型優化與應用場景契合。

4.2.2? 策略規模大小對比

圖4展示了University和Employee數據集在不同集成學習模型下策略規模大小的變化趨勢。實驗結果表明,RFOpt、XGBOpt和GBMOpt模型在University和Employee數據集上的策略規模均明顯低于原始模型。在University數據集中,RFOpt、XGBOpt和GBMOpt分別將策略規模壓縮至原來的7.7%、4%和19.7%。在Employee數據集中,其比例分別為21.3%、23%和27.7%。結果表明,RFOpt、XGBOpt和GBMOpt優化算法在壓縮策略規模方面表現良好,但處理不同數據集時的適應能力存在差異。

4.2.3? 策略復雜性對比

如圖5所示,優化模型RFOpt、XGBOpt和GBMOpt在可解釋性方面明顯優于原始模型RF、XGB和GBM。雖然原始模型在各數據集上的解釋性表現穩定,但具體得分較低。其中,XGBOpt在University數據集上的可解釋性最高,為95.16%,而在Employee數據集上,GBMOpt最高,為78.82%。此外,優化模型提取的策略在規則結構復雜度(WSC)上顯著低于原始模型。在University數據集上,RFOpt、XGBOpt和GBMOpt提取的策略WSC都低于20,相較于RF、XGB和GBM模型,WSC降低的比例分別為94.8%、97.4%和83.1%。同樣,在Employee數據集上,這些優化模型提取的策略WSC都低于65,與RF、XGB和GBM相比,分別降低了86.5%、85.6%和76.1%,且更小的WSC值表示更強的可解釋性。實驗結果表明,在這些應用場景中,相較于優化模型,原始模型提取策略在規則結構復雜度上高出數十倍。因此,本文方法通過策略優化與增強,在保證準確性和解釋性的同時,有效降低了策略規則結構復雜度,實現了結構簡潔性與預測性能間的有效平衡。

4.2.4? 策略性能平衡對比

基于上述分析,觀察到經過優化和增強的模型在提取ABAC策略的性能指標方面有顯著提升。其中,策略準確性是衡量模型質量的關鍵指標,直接影響策略的應用價值;WSC指標則量化了策略的結構簡潔性和易于管理的程度。然而,策略規模并非總是與模型性能或有效性有直接關系。因此,本文采用帕累托多目標優化方法,同時考慮策略準確性和WSC指標,以尋找最優模型解,達到策略準確性和結構簡潔性的最佳平衡。在不同數據集上,找出在策略精度和WSC間達到平衡的最優模型是關鍵。表5詳細展示了各模型在不同數據集上進行ABAC策略提取與優化增強的相關指標及結果。

在帕累托前沿上,可以基于需求和約束選擇最優解,這個過程需要在不同目標之間權衡以實現平衡。圖6以ACC_0/1和WSC為例,展示了在不同權重設置下的結果。當權重為(0.5,0.5)時,準確性和WSC之間實現了最佳平衡。此時University數據集的平衡點為(96.69%,13.09),由表5可知,最優模型為GBMOpt;而Employee數據集的平衡點為(87.74%,50.15),最優模型為XGBOpt。當權重為(0.9,0.1)時,策略偏重準確性,University和Employee數據集的最優模型仍為GBMOpt和XGBOpt。當權重為(0.1,0.9)時,策略偏重WSC,此時University數據集的最優模型為RFOpt,而Employee數據集的最優模型為GBMOpt??傮w來看,通過調整權重,可以在準確性和WSC間找到最佳平衡,從而確定最適合的優化模型,實現高效、透明且易于管理的策略。

5? 結束語

本文提出一種基于訪問控制日志驅動的ABAC策略自動提取與優化增強方法,且在各項策略質量評估指標上取得了顯著成效。該方法使用random forest、XGBoost和GBM三種集成學習樹模型,從歷史日志中自動提取初始策略。通過策略優化和增強算法來解決直接使用集成學習模型的不足,并實現了多個目標,即有效壓縮策略規模、簡化策略結構復雜度、提高策略的整體預測準確性和解釋性,同時強化策略的完備性和互斥性,避免沖突和錯誤發生。在平衡數據集和稀疏數據集上的實驗,證明該方法既能精確預測訪問請求的授權狀態,又能確保策略的清晰易懂。下一步將針對動態變化的環境和需求,研究策略自適應更新和調整技術,并探索提高策略檢索效率的方法,以實現在大型系統和高并發場景下更快速、更高效的訪問控制決策。

參考文獻:

[1]Ferrari E. Access control in data management systems[M].[S.l.]:Morgan & Claypool Publishers, 2010.

[2]Hu V C, Kuhn D R, Ferraiolo D F, et al. Attribute-based access control[J]. Computer, 2015, 48(2):85-88.

[3]Hu V C, Ferraiolo D, Kuhn R, et al. Guide to attribute based access control(ABAC) definition and considerations(draft)[J]. NIST Special Publication, 2013,800(162):1-54.

[4]Zhao Yinyan, Su Mang, Wan Jie, et al. Access control policy maintenance in IOT based on machine learning[J]. Journal of Circuits, Systems and Computers, 2021,30(10): 2150189.

[5]Gumma V, Mitra B, Dey S, et al. Pammela: policy administration methodology using machine learning[C]//Proc of International Conference on Security and Cryptography. 2022: 147-157.

[6]Nobi M N, Krishnan R, Huang Yufei, et al. Toward deep learning based access control[C]//Proc of the 12th ACM Conference on Data and Application Security and Privacy. New York:ACM Press, 2022:143-154.

[7]Xu Zhongyuan, Stoller S D. Mining attribute-based access control policies from logs[C]//Proc of the 28th Annual IFIP WG 11.3 Working Conference on Data and Applications Security and Privacy. Berlin: Springer, 2014: 276-291.

[8]Sun Wei, Su Hui, Xie Huacheng. Policy-engineering optimization with visual representation and separation-of-duty constraints in attribute-based access control[J]. Future Internet, 2020,12(10):164.

[9]Abu J A, Bertino E, Lobo J, et al. Polisma-a framework for learning attribute-based access control policies[C]//Proc of the 25th Euro-pean Symposium on Research in Computer Security. Cham: Springer, 2020: 523-544.

[10]Sahani G,Thaker C,Shah S. Supervised learning-based approach mi-ning ABAC rules from existing RBAC enabled systems[J]. EAI Endorsed Trans on Scalable Information Systems, 2022,10(1):e9.

[11]Sanders M W, Yue Chuan. Mining least privilege attribute based access control policies[C]//Proc of the 35th Annual Computer Security Applications Conference. 2019: 404-416.

[12]Cappelletti L, Valtolina S, Valentini G, et al. On the quality of classification models for inferring ABAC policies from access logs[C]//Proc of IEEE International Conference on Big Data. Piscataway, NJ: IEEE Press, 2019: 4000-4007.

[13]Cotrini C, Weghorn T, Basin D. Mining ABAC rules from sparse logs[C]//Proc of IEEE European Symposium on Security and Privacy. Piscataway, NJ: IEEE Press, 2018: 31-46.

[14]毋文超, 任志宇, 杜學繪. 基于日志的富語義ABAC策略挖掘[J]. 浙江大學學報: 工學版, 2020,54(11): 2149-2157. (Wu Wenchao, Ren Zhiyu, Du Xuehui. Rich semantic ABAC policy mining based on log[J]. Journal of Zhejiang University: Engineering Science, 2020,54(11): 2149-2157.)

[15]Karimi L, Aldairi M, Joshi J, et al. An automatic attribute-based access control policy extraction from access logs[J]. IEEE Trans on Dependable and Secure Computing, 2021,19(4): 2304-2317.

[16]Iyer P, Masoumzadeh A. Mining positive and negative attribute-based access control policy rules[C]//Proc of the 23rd ACM on Symposium on Access Control Models and Technologies. New York:ACM Press, 2018:161-172.

[17]Das S,Sural S,Vaidya J,et al. VisMAP: visual mining of attribute-based access control policies[C]//Proc of the 15th International Conference on Information Systems Security. Cham:Springer,2019:79-98.

[18]劉敖迪, 杜學繪, 王娜, 等. 基于訪問控制日志的訪問控制策略生成方法[J]. 電子與信息學報, 2022,44(1): 324-331. (Liu Aodi, Du Xuehui, Wang Na, et al. Access control policy generation method based on access control log[J]. Journal of Electronics and Information Technology, 2022,44(1): 324-331.)

[19]Narouei M, Khanpour H, Takabi H. Identification of access control policy sentences from natural language policy documents[C]//Proc of the 31st Annual IFIP WG 11.3 Conference on Data and Applications Security and Privacy. Cham: Springer, 2017: 82-100.

[20]Alohaly M, Takabi H, Blanco E. Automated extraction of attributes from natural language attribute-based access control (ABAC) policies[J]. Cybersecurity, 2019, 2: 1-25.

[21]劉敖迪, 杜學繪, 王娜, 等. 基于深度學習的ABAC訪問控制策略自動化生成技術[J]. 通信學報, 2020,41(12): 8-20. (Liu Aodi, Du Xuehui, Wang Na, et al. Automatic generation technology of ABAC access control policy based on deep learning[J]. Journal of Communications, 2020,41(12): 8-20.)

[22]Bui T, Stoller S D, Li Jiajie. Greedy and evolutionary algorithms for mining relationship-based access control policies[J]. Computers & Security, 2019,80: 317-333.

[23]Gorzaczany M B, Rudziński F. A multi-objective genetic optimization for fast, fuzzy rule-based credit classification with balanced accuracy and interpretability[J]. Applied Soft Computing,2016,40:206-220.

[24]Belgiu M, Drǎgu L. Random forest in remote sensing: a review of applications and future directions[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016,114: 24-31.

[25]Natekin A, Knoll A. Gradient boosting machines, a tutorial[J]. Frontiers in Neurorobotics, 2013,7: 21.

[26]Chen Tianqi, Guestrin C. XGBoost: a scalable tree boosting system[C]//Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.New York:ACM Press, 2016: 785-794.

[27]Deng Houtao. Interpreting tree ensembles with intrees[J].International Journal of Data Science and Analytics,2019,7(4):277-287.

[28]Huang Xiaojuan, Zhang Li, Wang Bangjun, et al. Feature clustering based support vector machine recursive feature elimination for gene selection[J]. Applied Intelligence, 2018,48: 594-607.

猜你喜歡
多目標優化
基于多目標優化的生鮮食品聯合庫存研究
改進的多目標啟發式粒子群算法及其在桁架結構設計中的應用
群體多目標優化問題的權序α度聯合有效解
云計算中虛擬機放置多目標優化
狼群算法的研究
基于參數自適應蟻群算法對多目標問題的優化
基于多目標優化的進化算法研究
多目標模糊優化方法在橋梁設計中應用
一種求多目標優化問題的正交多Agent遺傳算法
基于蟻群優化的多目標社區檢測算法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合