?

基于BERT的多視角事件日志修復

2024-03-05 00:14張振虎王麗麗袁永旺
計算機應用研究 2024年2期

張振虎 王麗麗 袁永旺

收稿日期:2023-06-20;修回日期:2023-08-07? 基金項目:安徽理工大學高層次引進人才科研啟動基金資助項目(2022yjrc87);安徽省煤礦安全大數據分析與預警技術工程實驗室開放基金資助項目(CSBD2022-ZD03);深部煤礦采動響應與災害防控國家重點實驗室開放基金資助項目(SKLMRDPC22KF12)

作者簡介:張振虎(1997—),男,安徽亳州人,碩士研究生,主要研究方向為Pertri網理論及應用、過程挖掘;王麗麗(1982—),女(通信作者),安徽安慶人,副教授,碩導,博士,主要研究方向為Petri網、過程挖掘等(64460112@qq.com);袁永旺(1996—),男,安徽六安人,碩士研究生,主要研究方向為Petri網.

摘? 要:在業務流程執行過程中,由于信息系統故障或者人工記錄出錯等問題導致事件日志中數據的丟失,從而產生缺失的事件日志,使用這種缺失日志會嚴重影響業務流程分析結果的質量。針對這種缺失日志的修復問題,現有研究大部分僅從數據視角或者行為視角進行展開,很少從數據和行為相融合的視角開展事件日志的修復工作。提出了一種基于BERT模型的多視角事件日志修復方法。該方法利用雙層BERT模型,從數據和行為融合的視角訓練模型,通過BERT模型的預訓練任務((masked attribute model,MAM)和(masked event model,MEM))以及Transformer編碼塊的注意力機制捕獲輸入屬性的雙向語義信息和長期依賴關系,使用微調策略進行模型訓練,以預測的形式修復事件日志中的缺失值。最后,通過公開可用的數據集進行評估分析,結果表明,該方法在修復事件日志方面表現良好。

關鍵詞:缺失日志;數據和行為融合;多視角修復;雙層BERT;微調策略

中圖分類號:TP391??? 文獻標志碼:A

文章編號:1001-3695(2024)02-029-0515-06

doi:10.19734/j.issn.1001-3695.2023.06.0253

Multi perspective event log repair based on BERT

Zhang Zhenhua,Wang Lilia,b,c,Yuan Yongwanga

(a.College of Mathematics & Big Data,b.State Key Laboratory of Mining Response & Disaster Prevention & Control in Deep Coal Mines,c.Anhui Province Engineering Laboratory for Big Data Analysis & Early Warning Technology of Coal Mine Safety,Anhui University of Science & Technology,Huainan Anhui 232001,China)

Abstract:During the execution of business processes,data loss in event logs due to information system failures or manual recording errors and so on,resulting in the generation of the missing event logs,the use of such missing logs can seriously affect the quality of business process analysis results.Aiming at the problem of repairing missing logs,most of the existing research focus on data or behavioral perspective,and there is little work on repairing events log from the perspective of integrating data and behavior.Therefore,this paper proposed a multi-perspective event log repair method based on the BERT model.This method trained the model using a two-layer BERT model from the perspective of data and behavior fusion,and captured the bidirectional semantic information and long-term dependencies of input attributes by the BERT models pre-training tasks(masked attribute model (MAM) and masked event model(MEM))and the attention mechanism of the Transformer encoding block.Then it used fine-tuning strategies for training the model to repair missing values in the event log in a predictive manner.Finally,it carried out evaluation and analysis on publicly available datasets,and the results showed that the proposed method performs well in repairing event logs.

Key words:missing logs;data and behavior fusion;multi perspective repair;double layer BERT;fine tuning strategy

0? 引言

流程挖掘是一門新興信息研究科學領域,它為改進各種應用領域(如企業流程分析、醫療流程管理和制造業流程管理)中的過程提供了新的方法。流程挖掘包括流程發現、一致性檢查、檢查偏差、預測延遲、支持決策預定等[1]。流程挖掘允許分析人員利用業務流程的歷史記錄執行日志,以提取有關這些流程實際性能的見解。其中,自動化流程發現是最廣泛研究的流程挖掘操作之一,通過將事件日志作為輸入,自動生成業務流程模型[2],從而捕獲日志的執行過程,這促使很多學者對如何準確、快速地通過分析事件日志發現流程模型作出了很多研究[3~6]。流程挖掘通過事件日志中記錄的活動,自動識別事件日志中活動的執行序列,解釋流程實際執行的過程,從而發現流程模型。近年來,現有研究大多數致力于如何通過結構良好的事件日志發現精確、可讀的過程模型[7,8]。然而,來自現實世界業務流程的許多事件日志在高度靈活的環境(如醫療保健、預測監控、決策控制)中包含相當復雜的工作流程,這導致即使發現了業務流程,也是不可讀的,對于最終結果的分析顯然也是比較困難的。最終業務流程的分析與事件日志的質量亦是密不可分的,現有的流程發現方法都是依賴于完整的事件日志,然而在現實生活中是不現實的,一旦事件日志包含缺失的數據,對于發現準確的流程模型來說是異常困難的。因此,修復事件日志中的缺失數據就成了流程挖掘的一個重要研究項目[9~12]。

已有的事件日志修復包含基于模型的修復[13~17]和不使用模型的修復[18–21]兩種類型,這些方法或是從行為的視角出發,或是從數據屬性的視角出發,修復事件日志中缺失的各種屬性。因此,現有方法僅限于從單個視角修復事件日志的缺失值。本文提出了一種基于雙層BERT的事件日志修復方法,從屬性和行為融合的視角,利用屬性之間的關聯性以及事件之間的依賴關系修復事件日志中的缺失值。

1? 背景介紹

事件日志的質量問題最早是在過程挖掘宣言[22]中研究的,其中將事件日志的質量分為5星,不同的階段對應過程挖掘的不同操作,例如:流程挖掘分析可以應用于處于3、4或5星的事件日志。迄今為止,針對事件日志質量的研究分為事件日志維度的框架[23~25]和提高事件日志質量的方法[26~28]兩大類。本文研究的目標是第二類,通過修復事件日志來提高事件日志的質量。事件日志修復無非從從數據流的視角和行為(即控制流)的視角兩個方面進行研究。

從行為的視角修復事件日志,即利用事件日志行為依賴性修復日志。文獻[11]針對的是每個跡中有一個缺失活動的日志,通過跡相似的方法將日志進行跡聚類,將缺失跡歸類為最相似的子日志并考慮缺失跡的頻率,從而彌補缺失的數據以得到更完整的流程模型。針對活動的行為關系,文獻[12]還考慮了順序和并發關系,將事件日志轉換成一個繼承關系矩陣,使用與文獻[11]相同的SOM算法將事件日志聚類成不同的子日志,通過將不完整跡分配給與之最相似的子日志對不完整跡進行修復,以確保修復結果的準確性。文獻[13]通過結合隨機Petri網、對齊和貝葉斯網絡修復日志中缺失的事件,通過廣義隨機Petri網的跡變體的對齊問題計算路徑概率來確定日志中可能丟失的事件,利用貝葉斯網絡計算可能插入事件的時間戳。文獻[29]提出了基于過程分割和軌跡分割的啟發式算法來精簡搜索空間,使用有效的啟發式方法和跡重放尋找最優對齊,從而提高搜索效率。文獻[30]提出了基于LSTM的神經網絡模型來預測缺失事件,將缺少活動標簽的事件的前綴和后綴作為輸入,并利用其他屬性來提高性能。文獻[31]提出了一種結合行為特征的卷積神經網絡模型,根據活動之間的行為關系將業務流程中的事件日志轉換為圖像矩陣,繼而通過卷積神經網絡模型訓練預測缺失的活動標簽。

事件日志除了行為之間有依賴性,屬性之間也是有相關性的,因此從數據流的視角修復事件日志也是修復日志的主流視角。文獻[14]基于時間和數據的視角,使用隨機Petri網,對齊并將其轉換為貝葉斯分析來修復事件日志,從而提高過程挖掘模型的性能。文獻[18]通過檢測和修復給定事件數據的異常行為修復事件日志,通過檢測在特定環境中活動發生頻率的概率,檢測并刪除異常行為,沒有考慮行為關系。文獻[19]的目標是重建必須發生但未記錄事件的時間戳的邊界,將流程用例分解為在共享事件下同步的案例和資源的token軌跡,通過使用標記軌跡上的線性規劃導出為觀測事件的時間戳。與前面技術不同,文獻[21]提出了一種基于自編碼器的方法在事件日志屬性級別檢測異常值并重建缺失值,在編碼過程中學習輸入數據的隱藏分布,而在解碼過程中利用編碼時發現的參數重新獲得輸入數據,并且不需要任何關于生成日志過程先驗領域知識。然而它在重建時間戳方面的性能表現的很差,針對這個問題,文獻[32]描述了一組基于時間戳的指標,用于檢測和修復事件日志中的事件順序缺陷問題。文獻[33]提出了一種自動糾正業務流程事件日志中同一時間戳錯誤的方法,該方法首先檢測具有相同時間戳的事件的正確順序,然后根據流程活動持續時間的多模態分布,為每個重新排序的事件分配新的時間戳。

2? 基本概念

2.1? 基本定義

定義1? 事件和屬性。業務流程中任一事件e是其對應的活動a∈A在某個時刻的執行步驟,每個事件e的執行包含案例id、事件id、活動名稱、時間戳、資源、成本等,被定義為e={case id,event id,activity,timestamp,resource,cost…} ,其中case id為e所屬流程實例,event id為事件e的編號,activity為e執行的活動名稱,timestamp為執行的時間戳。本文把這些稱為事件e的屬性。

定義2? 跡和事件日志。跡σ是若干事件組成的有序序列,記為σ=〈e1,e2,…,en〉,其中n為跡σ的長度。事件日志L是跡σ的集合,記為L=〈σ1,σ2,…,σL〉。

如表1為一個完整的事件日志片段案例,其中包含三條跡,每條跡有不等數量的事件,共計19個事件,每個事件包含case id、event id、activity等六個屬性。

定義3? 缺失屬性和缺失事件。令事件e=〈attr1,attr2,…,attrn〉為跡σ的一個執行事件,若存在attri∈e為空,則稱事件e為缺失事件,attri為缺失屬性。

定義4? 缺失跡和缺失日志。令σ=〈e1,e2,…,e|σ|〉為業務流程中事件日志的一條跡,若存在事件ei∈σ為缺失事件,則稱跡σ為缺失跡,而事件日志L=〈σ1,σ2,…,σL〉為缺失日志。

如表2為表1完整日志的一個缺失案例,其中跡1為缺失跡,事件35654424、35654425、35654426為缺失事件,屬性activity和resource為缺失屬性。

2.2? BERT模型

BERT是一個預訓練的表征模型,同時在11個NLP(natural language processing)領域取得了最先進的成果[34]。它改變了傳統的采用單向語言模型或者把兩個單向語言模型進行淺層拼接的方法進行預訓練,緩解了單向語言模型對預訓練表征的限制。采用新的雙向Transformer語言表征模型,緩解了單向性約束。與傳統的左右語言模型只能獲得單向上下文信息不同,BERT模型采用新的預訓練目標MLM(masked language model)進行,能夠融合左右上下文的信息,生成包含上下文信息的深度語言模型。

BERT模型的架構如圖1所示。詞嵌入、分割嵌入和位置嵌入三個嵌入特征的總和構成了BERT模型的輸入,BERT的模型架構采用的是雙向Transformer編碼器,多頭注意力機制使得BERT能夠在不同層次提取關系特征,進而更全面反映了句子語義。因此,BERT更徹底地捕獲了基于所有級別的左右上下文句子中的長期雙向依賴關系。BERT的本質是一個自監督的語言模型。首先,在大型語料庫上采用預訓練任務訓練BERT模型,以獲得上下文信息和釋義。然后,根據數據對模型進行微調,根據目標任務轉移到下一個任務模塊。

3? 基于BERT的事件日志修復方法

可以發現,由于系統故障以及記錄錯誤等原因,很難保證現代信息系統中復雜事件日志的完整性,一旦事件日志中缺失數據,那么對于流程發現,一致性檢測、偏差分析等的結果將會造成一定的偏差。所以,確保事件日志的完整性對于過程挖掘來說至關重要。

本文提出的修復事件日志的方法主要包括以下幾個步驟:a)預處理事件日志,將事件日志分為訓練集和測試集,并且將訓練集的各個屬性輸入到嵌入層以轉換成向量表示;b)利用屬性之間的關聯性在第一層BERT中學習屬性之間的關聯關系;c)基于上下文信息預測事件日志的屬性缺失值;d)在自注意力層提取事件特征向量,并為不同類別屬性分配權重;e)在第二層BERT中學習事件之間的依賴關系;f)基于上下文預測事件日志中缺失事件。修復缺失日志的框架如圖2所示。

3.1? 數據預處理

給定一個事件日志,首先需要將事件日志拆分為訓練集和測試集,本文將事件日志的80%數據集作為訓練集,用于模型訓練,20%的數據集作為測試集,用來驗證模型的有效性。

為了將數據集輸入到模型中,必須把數據集輸入到嵌入層,將事件日志轉換為向量形式。本文將事件的各種屬性通過embedding編碼為向量表示。圖3為本文的編碼形式,由token embeddings、segment embeddings和position embeddings三個embedding組成。編碼結構如圖3所示。

1)attribute embeddings? attribute嵌入層的作用是將輸入文本轉換為固定維度的向量表示形式。attribute向量化是使用一種word piece token化實現的,通過開始([CLS])和結束([SEP])兩個額外的token將分類任務的輸入分割為一個一個的文本段。如表1事件日志中的跡1部分輸入的attribute embeddings為(“[CLS]” “1” “35654423”“register request” “30-12-2010:11.02” “Pete” “50” “[SEP]” “1” “35654424”… “[SEP]”)形式的一個128維向量。

2)segment embeddings? 字段嵌入層的作用是處理多個輸入的分類任務,目的是區分輸入文本中是否是語義相似的。如表1中跡1的5個事件,第一個事件的各個attributes賦值為0,第二個事件的各個attributes賦值為1,依此類推。結果為(0000000011…)形式的128維向量。

3)position embeddings? 位置嵌入層的作用是確定輸入文本編碼序列的順序性,例如:表1中跡1的第1和2個Pete應該用不同的向量表示,在這里第1個Pete應該是位置1,而第2個Pete是位置5。

三個嵌入層最終的形式都應該是(1,n,128)的向量表示形式,最終的向量是將三個嵌入層的向量按元素相加,相加總和即是BERT編碼層的輸入。

3.2? 修復事件日志

BERT模型是一個多任務處理的神經網絡模型,包含MLM(masked language model)和NSP(next sentence prediction)兩個預訓練任務。本文主要研究如何通過預訓練任務預測事件日志中缺失的屬性和事件。本文提出的整體模型架構如圖4所示,建立了雙層BERT模型,分別從數據和行為的視角學習屬性之間的關聯性和事件之間的依賴性。

第一層BERT模型針對修復事件日志屬性制定了預訓練任務MAM(masked attribute model),通過輸入中的三個嵌入特征總和,學習屬性的語義信息,基于雙向Transformer訓練一個深度雙向模型。因為雙向條件語言模型允許每個屬性間接“看到自己”,并且該模型可以在多層上下文中輕松預測缺失的目標屬性。同時,MAM可以捕獲輸入屬性的雙向信息和屬性之間的長期依賴關系。預訓練任務的遮蔽屬性模型架構如圖5所示。針對MAM預訓練任務的,該模型使用了預訓練任務MLM中傳統的80%-10%-10%的掩碼([Mask])策略,掩碼策略是在識別輸入的屬性中被mask的數據后,將80%的屬性直接替換為[Mask],10%的屬性替換為任意的屬性,剩余10%的屬性保持不變。表3為日志片段中mask屬性可能的掩碼情況。從表3中本文可以看出,黑色加粗部分是預訓練任務中被隨機masked的部分。第一個事件沒有被mask,而第四個事件的activity和resource被替換為[Mask],第二個事件的Sue被替換為了第四行的Sara,而第三個事件的check ticket和第五行的35654427保持不變。

完成BERT的預訓練任務MAM的事件日志可以應用于業務流程管理的許多下游任務中。修復事件日志的缺失值在過程挖掘領域中有著至關重要的作用,完整的事件日志有助于更準確地解決過程挖掘問題。本文通過微調策略,將完整預訓練任務MAM后的BERT模型轉移到預測事件日志缺失屬性的模型進行訓練建模,如圖6所示。

該任務從事件日志的歷史數據中提取事件,例如以下為表1中事件日志案例片段的一個事件:〈1,35654423,register request,30-12-2010:11.02,Pete,50〉。該事件包含案例id、事件id、活動名稱、時間戳、資源、成本等屬性。首先將每個屬性輸入到嵌入層,使用屬性嵌入將每個屬性轉換為嵌入向量,并且同時利用字段嵌入和位置嵌入將每個事件屬性的語義信息和位置信息編碼成特征向量。然后將三者的總和輸入到雙向Transformer模型中,以學習屬性間的依賴關系以及上下文信息。最后,在BERT模型中轉入到預測缺失值的模塊。

預測缺失值模塊的任務首先是將輸入向量傳遞到全連接層以組合向量表示,連接層的輸出包含屬性值的信息以及輸入屬性上下文的信息。最終將連接層的輸出輸入到softmax層,使用softmax激活函數計算缺失值出現的概率,選擇概率最高的屬性值修復缺失事件。softmax激活函數定義如下:

softmax(xi)=exp(xi)∑j exp (xj)(1)

為了訓練神經網絡模型,采用反向傳播算法尋找最優可訓練參數。此外,還采用交叉熵作為損失函數。

第一層BERT是從數據的角度修復事件日志缺失值,然而,在業務流程中,不僅是數據之間有關聯性,行為之間同樣有著緊密的聯系。因此,本文除了從數據的角度修復事件日志,還考慮了從行為的角度修復事件日志。本文將在第二層BERT中描述在數據的基礎上融合行為視角修復事件日志。

在添加第二層BERT模型之前添加一層自注意力層,第一層BERT模型輸出屬性的特征向量輸入到自注意力層,通過屬性之間的依賴權重提取事件的特征向量,以事件流的形式將事件日志的事件輸入到第二層BERT模型中。

在第二層BERT模型中,針對修復事件日志的缺失值制定了一個新的預訓練任務MEM(masked event model),該預訓練任務的輸入同樣是三個嵌入特征的總和,包含事件的文本信息、語義信息和位置信息,并且與第一層BERT不同的是,可以直接從跡的層面獲取上下文信息。將嵌入特征傳遞到雙向Transformer層訓練一個深度雙向模型,即MEM可以捕獲輸入跡的雙向信息以及事件之間的長期依賴關系。預訓練任務架構如圖7所示。預訓練任務MEM同樣采用了傳統80%-10%-10%的掩碼策略,將被mask部分中80%的事件替換為[Mask],10%的事件替換為隨機事件,10%的事件保持不變。被掩蔽的事件可以通過上下文信息和第一層BERT中學習到的屬性的前后文信息,輕松地預測出目標中的缺失值。

與第一層BERT類似,在完成預訓練任務MEM之后的BERT模型轉移到預測缺失事件的下游模塊中,預測缺失事件的模型架構如圖8所示。

與第一層BERT不同的是,該模塊的輸入是在自注意力層提取的事件的特征向量,而不僅僅是屬性的特征向量,它包含了事件攜帶的各種屬性。同時是包含了各屬性的文本信息。將事件的嵌入特征輸送到雙向Transformer層,學習事件之間的關系以及上下文信息,以預測事件日志中的缺失值。

同樣,預測缺失值模塊的任務首先是將輸入向量傳遞到全連接層以組合向量表示,連接層的輸出包含輸入事件的信息及其上下文的信息。最終將連接層的輸出輸入到softmax層,使用softmax激活函數計算缺失值出現的概率,選擇概率最高的屬性值修復缺失事件,并且采用反向傳播算法尋找最優可訓練參數,采用交叉熵作為損失函數,以便更準確地修復事件日志的缺失值。

4? 實驗評估

4.1? 實驗數據及設置

為了驗證本文方法能夠準確修復事件日志中的缺失值,在本節進行實驗驗證??傮w而言,本文進行了兩組實驗,第一組實驗對比了本文方法與現有方法修復事件日志中缺失值的性能。第二組實驗進行了進一步的分析,驗證了本文方法的有效性。

為了評估本文方法的性能,使用成功率作為評估指標。它衡量了成功修復的缺失屬性占所有缺失屬性的比例。式(2)定義了修復成功率。

accuracy=corrnumalldata(2)

其中:corrnum為修復成功的屬性數量;alldata為所有缺失屬性的數量。

本節實驗使用了六個公開的數據集,數據集的詳細信息如表4所示。Receipt是調查荷蘭不同城市的幾個過程之間相似性的事件日志。BPIC 2013是沃爾沃IT中事件管理過程的事件日志。BPIC 2017與BPIC 2012類似,但其記錄的每個申請可以包含多個報價并進行跟蹤。Helpdesk是意大利某軟件公司售票管理過程的事件日志。production process是某工廠生產過程的事件日志。Sepsis是包含處理醫院中膿毒癥患者流程的事件日志?;谶@些數據集的設置在不同的實驗中略有不同,這在后續章節中將詳細說明。

4.2? 實驗結果

在第一組實驗中,將本文方法與MIEC[9]進行比較,由于MIEC與本文方法都是使用公開數據集進行評估的,所以可以直接將本文結果與使用相同數據集和相同設置的結果進行比較。

1)與現有方法修復成功率對比

遵循文獻[9]中的數據準備方法,本次實驗使用production process事件日志進行評估,對該事件日志的活動、資源和屬性進行修復。為了獲得缺失的事件日志,以5%的間隔隨機取5%~30%的比率隨機生成缺失值,每次修復進行100次迭代,通過式(2)計算成功率。評估結果如表5和圖9所示。

結果顯示本文方法修復的成功率在0.87~0.98,這表明本文方法可以修復絕大部分的事件日志,并且從與MIEC的對比結果表明本文方法在很大程度上優于MIEC方法,缺失率為5%和20%時略低于MIEC,但也達到了0.982和0.857,能夠在很大程度上修復事件日志。同時,從圖9可以看出,隨著缺失率的不斷增加,本文方法具有更高的修復穩定性。

此外,將本文方法與CNN[31]進行了比較,對比了CNN中同樣使用的事件日志BPIC 2013的實驗結果,隨機獲取不同比率的缺失值,表6為兩者對比結果。表6和圖10給出了本文方法和CNN方法的比較結果,本文方法的成功率均在0.8以上,明顯優于CNN方法。

2)對比兩層BERT修復成功率

為了進一步分析本文方法的性能,第二組實驗用了六個事件日志,通過將只從數據流視角修復事件日志的結果與從數據流控制流融合的視角修復事件日志的結果進行比較,即將只用第一層BERT的數據視角與用雙層BERT融合數據和行為視角的結果作對比。每個事件日志隨機取15%,20%,25%,30%的缺失率,每次實驗進行100次的迭代。評估結果如表7所示。為了更加清晰地展現本文方法在各個數據集上的修復效果,實驗在每個數據集中選取了四個屬性進行日志修復工作,包括case id、activity、resource以及一個額外的附加屬性。

表7顯示了使用數據行為融合的方法在BPIC 2017和Sepsis日志上對事件日志的修復成功率提升起到顯著作用,在其他事件日志上修復成功率同樣比只從數據流視角修復事件日志效果好。盡管隨著確實比例的增加,修復成功率有一定的下降,但也下降很少,影響并不顯著。結果表明本文方法能夠準確地修復事件日志。

5? 結束語

本文提出了利用多視角融合的方法修復缺失的事件日志。該方法借助BERT的模型原理實現本文思想。通過探索BERT模型的預訓練任務MAM和MEM捕獲事件日志中屬性以及事件之間的長期依賴關系,并通過微調策略轉移到預測日志缺失值的修復模型中。借助該思想,本文提出了用兩層BERT模型實現修復目標。首先在第一層BERT從數據流視角出發學習屬性之間的依賴關系,捕獲事件日志中缺失屬性的上下文信息,第二層BERT在第一層BERT的基礎上添加行為視角,通過中間一層自注意力層提取事件的特征向量,得到事件的特征向量作為第二層BERT的輸入,以捕獲事件之間的行為關系,從而達到以數據和行為融合的方式實現事件日志的修復。

實驗結果表明,本文方法在修復事件日志上有良好的效果,并且通過進一步分析可以發現,使用數據與行為融合的方法修復缺失的事件日志,比僅從數據流的角度修復事件日志效果要好,從而驗證了本文方法在修復方面的有效性。

值得思考的是,針對時間戳這個重要屬性,本文沒有作出相應的措施。未來的工作中,將針對時間戳屬性作進一步的研究分析,提高修復事件日志的性能。另外還計劃利用多頭注意力的可解釋性對本文的模型作進一步可視化處理。

參考文獻:

[1] Van der Aalst W M P.Process mining:discovery,conformance and enhancement of business processes[M].Berlin:Springer,2011.

[2]Augusto A,Conforti R,Dumas M,et al.Automated discovery of process models from event logs:review and benchmark[J].IEEE Trans on Knowledge and Data Engineering,2019,31(4):686-705.

[3]Van der Aalst W M P,Reijers H A,Weijters A J M M,et al.Business process mining:an industrial application[J].Information Systems,2007,32(5):713-732.

[4]Fahland D,Van der Aalst W M P.Repairing process models to reflect reality[C]//Proc of International Conference on Business Process Management.Berlin:Springer,2012:229-245.

[5]Leemans S J.J,Fahland D,Van der Aalst W M P.Discovering block-structured process models from event logs—a constructive approach[C]//Proc of International Conference on Application and Theory of Petri Nets and Concurrency.Berlin:Springer,2013:311-329.

[6]Conforti R,Dumas M,García-Bauelos L,et al.Beyond tasks and gateways:discovering BPMN models with subprocesses,boundary events and activity markers[C]//Proc of International Conference on Business Process Management.Cham:Springer,2014:101-117.

[7]Weijters A J M M,Ribeiro J T S.Flexible heuristics miner[C]//Proc of IEEE Symposium on Computational Intelligence and Data Mining.Piscataway,NJ:IEEE Press,2011:310-317.

[8]Sun Yaguang,Bauer B.A novel heuristic method for improving the fitness of mined business process models[C]//Proc of International Conference on Service-Oriented Computing.Berlin:Springer,2016:537-546.

[9]Sim S,Bae H,Choi Y.Likelihood-based multiple imputation by event chain methodology for repair of imperfect event logs with missing data[C]//Proc of International Conference on Process Mining.Pisca-taway,NJ:IEEE Press,2019:9-16.

[10]Song Wei,Xia Xiaoxu,Jacobsen H-A,et al.Heuristic recovery of mis-sing events in process logs[C]//Proc of IEEE International Confe-rence on Web Services.Piscataway,NJ:IEEE Press,2015:105-112.

[11]Xu Jiuyun,Liu Jie.A profile clustering based event logs repairing approach for process mining[J].IEEE Access,2019,7:17872-17881.

[12]Liu Jie,Xu Jiuyun,Zhang Ruru,et al.A repairing missing activities approach with succession relation for event logs[J].Knowledge and Information Systems,2021,63(2):477-495.

[13]Rogge-Solti A,Mans R S,Van der Aalst W M P,et al.Repairing event logs using timed process models[C]//Proc of OTM Confederated International Conferences “On the Move to Meaningful Internet Systems”.Berlin:Springer,2013:705-708.

[14]Shahzadi S,Fang Xianwen,Shahzad U,et al.Repairing event logs to enhance the performance of a process mining model[J].Mathematical Problems in Engineering,2022,2022:article ID 4741232.

[15]De Leoni M,Maggi F M,Van der Aalst W M P.An alignment-based framework to check the conformance of declarative process models and to preprocess event-log data[J].Information Systems,2015,47:258-277.

[16]Xia Xiaoxu ,Song Wei,Chen Fangfei ,et al.Effa:a proM plugin for recovering event logs[C]//Proc of the 8th Asia-Pacific Symposium on Internetware.New York:ACM Press,2016:108-111.

[17]王琦,聞立杰,鄧雅方,等.基于過程模型約束的軌跡亂序事件修復方法[J].計算機集成制造系統,2021,27(9):2491-2500.(Wang Qi,Wen Lijie,Deng Yafang,et al.Trajectory out-of-order event repair method based on process model constraint[J].Computer Integrated Manufacturing Systems,2021,27(9):2491-2500.)

[18]Fani Sani M,Van Zelst S J,Van der Aalst W M P.Repairing outlier behaviour in event logs[C]//Proc of International Conference on Business Information Systems.Berlin:Springer,2018,320:115-131.

[19]Denisov V,Fahland D,Van der Aalst W M P.Repairing event logs with missing events to support performance analysis of systems with shared resources[C]//Proc of International Conference on Application and Theory of Petri Nets and Concurrency.Cham:Springer,2020:239-259.

[20]Song Wei,Jacobsen H A,Zhang Pengcheng.Self-healing event logs[J].IEEE Trans on Knowledge and Data Engineering,2021,33(6):2750-2763.

[21]Nguyen H T C,Lee S,Kim J,et al.Autoencoders for improving quality of process event logs[J].Expert Systems with Applications,2019,131:132-147.

[22]Van Der Aalst W,Adriansyah A,De Medeiros A K A,et al.Process mining manifesto[C]//Proc of International Conference on Business Process Management Workshops.Berlin:Springer,2012:169-194.

[23]Bose R P J C,Mans R S,Van der Aalst W M P.Wanna improve process mining results?[C]//Proc of IEEE Symposium on Computational Intelligence and Data Mining.Piscataway,NJ:IEEE Press,2013:127-134.

[24]Gal A,Senderovich A,Weidlich M.Challenge paper:data quality issues in queue mining[J].Journal of Data and Information Quality,2017,9(4):1-5.

[25]Jans M,Soffer P.From relational database to event log:decisions with quality impact[C]//Proc of International Conference on Business Process Management.Cham:Springer,2018:588-599.

[26]Lu Xixi,Fahland D,Van Den Biggelaar F J H M,et al.Handling duplicated tasks in process discovery by refining event labels[C]//Proc of International Conference on Business Process Management.Cham:Springer,2016:90-107.

[27]Tax N,Alasgarov E,Sidorova N,et al.Generating time-based label refinements to discover more precise process models[J].Journal of Ambient Intelligence and Smart Environments,2019,11(2):165-182.

[28]Koschmider A,Ullrich M,Heine A,et al.Revising the vocabulary of business process element labels[C]//Proc of International Conference on Advanced Information Systems Engineering.Cham:Springer,2015:69-83.

[29]Song Wei,Xia Xiaoxu,Jacobsen H-A,et al.Efficient alignment between event logs and process models[J].IEEE Trans on Services Computing,2017,10(1):136-149.

[30]Lu Yang,Chen Qifan,Poon S K.A deep learning approach for repairing missing activity labels in event logs for process mining[EB/OL].(2022-03-18).https://arxiv.org/abs/2202.10326.

[31]劉旺成,方歡,張順.基于圖像數據的缺失活動日志修復CNN方法[J/OL].計算機集成制造系統.(2023-02-24).http://kns.cnki.net/kcms/detail/11.5946.TP.20230223.1521.012.html.(Liu Wangcheng,Fang Huan,Zhang Shun.CNN repair method for missing activity log based on image data[J/OL].Computer Integrated Manufacturing Systems.(2023-02-24).http://kns.cnki.net/kcms/detail/11.5946.TP.20230223.1521.012.html.)

[32]Dixit P M,Suriadi S,Andrews R,et al.Detection and interactive repair of event ordering imperfection in process logs[C]//Proc of International Conference on Advanced Information Systems Engineering.Cham:Springer,2018:274-290.

[33]Conforti R,La Rosa M,Ter Hofstede A H M,et al.Automatic repair of same-timestamp errors in business process event logs[C]//Proc of the 18th International Conference on Business Process Management.Berlin:Springer-Verlag,2020:327-345.

[34]Devlin J,Chang M W,Lee K,et al.BERT:pre-training of deep bidirectional transformers for language understanding[EB/OL].(2019-05-24).https://arxiv.org/abs/1810.04805.

91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合