?

基于改進YOLOX-S的蘋果成熟度檢測方法

2024-04-27 04:01黃威劉義亭李佩娟陳光明
中國農機化學報 2024年3期
關鍵詞:蘋果

黃威 劉義亭 李佩娟 陳光明

摘要:準確檢測果園中未成熟與成熟的蘋果對果園早期作物的負荷管理至關重要,提出一種能夠實時檢測蘋果成熟度,并估算出整棵果樹果實數量的方法。為提高YOLOX-S網絡在復雜場景下的檢測能力,在FPN(特征金字塔)的殘差連接處增加了Coordinate Attention(位置注意力);為更好地檢測圖像中生長密集、存在遮擋、尺寸較小的蘋果,將位置損失函數IoU_Loss更換為CIoU_Loss。試驗結果表明,所提出的改進YOLOX-S檢測算法相較于原算法,mAP值提高約1.97%,蘋果低成熟度、中等成熟度和高等成熟度的AP值分別為90.85%、95.10%和80.50%。

關鍵詞:蘋果;YOLOX-S;目標檢測;位置注意力;成熟度檢測

中圖分類號:S24: TP391.4? 文獻標識碼:A? 文章編號:2095-5553 (2024) 03-0226-07

Detection method of apple ripeness based on improved YOLOX-S

Huang Wei1, Liu Yiting1, 2, Li Peijuan1, Chen Guangming3, 4

(1. Nanjing Institute of Engineering, Nanjing, 211167, China; 2. Southeast University, Nanjing, 210096;3. Nanjing Agricultural University, Nanjing, 210031, China; 4. Jiangsu Key Laboratory of IntelligentAgricultural Equipment, Nanjing, 210000, China)

Abstract:

Accurate detection of immature and mature apples in orchards is crucial to the load management of early crops in orchards. This paper proposes a method that can detect apple maturity in real time and estimate the number of fruits in the whole fruit tree. In order to improve the detection ability of the YOLOX-S network in complex scenes, Coordinate Attention (position attention) is added to the residual connection of the FPN (feature pyramid). In order to better detect the apple with dense growth, occluding and small size in the image, the position loss function is replaced from IoU_Loss to CIoU_Loss. The experimental results show that the mAP value of the improved YOLOX-S detection algorithm proposed in this paper is increased by about 1.97% compared with the original algorithm, and the AP values of apples with low maturity, medium maturity and high maturity are 90.85%, 95.10% and 80.50%, respectively.

Keywords:apple; YOLOX-S; object detection; coordinate attention; maturity detection

0 引言

中國是世界上最大的蘋果出口國,其蘋果種植面積與產量均占世界總量的45%以上[1],中國蘋果產業在世界蘋果產業中占據主導地位,對多數果樹作物而言,作物的早期負荷管理十分重要,會大幅影響果實的產量與品質。種植者通過了解果實的成熟度與數量大小等信息來估算作物的負荷量,并借此實現高效的農業管理與合理的作物營養分配[2]。

種植者想要在實際果園環境中精確估算出作物負荷量,需及時了解蘋果的真實生長信息。而傳統的人工計數方式存在著人力成本高、耗時長等弊端,為降低人力成本并提高檢測速度,越來越多基于視覺的檢測方式運用于蘋果識別中[3]。傳統視覺檢測方案主要是通過人工提取的特征進行判別,如顏色(顏色閾值)、形狀(圓形霍夫變換)、局部紋理特征等[4],這種方式易受環境因素影響且魯棒性不高,在光照不足或蘋果目標存在遮擋時其識別精度會很低。近年來隨著人工智能技術在農業生產中的廣泛應用,基于卷積神經網絡的目標檢測算法由于其卓越的特征提取能力(無需人工設計)被廣泛運用于水果檢測中[5]:熊俊濤等[6]通過Faster R-CNN完成復雜環境下綠色柑橘的識別,其模型檢測精度高,泛化性強但運行速度較慢,不能滿足檢測的實時性需求;Tian等[7]通過改良的YOLOv3算法實現對不同成熟期蘋果的檢測估產,該算法響應速率與魯棒性讓人滿意,但未對大視場(密集場景)下的蘋果檢測進行研究;趙德安等[8] 利用改進的YOLOv3算法,實現各類復雜環境下的蘋果識別,該算法的檢測速度可達 60 幀/s,具有良好的實時性,但在檢測密集場景下的蘋果時其效果較差。

為解決上述研究人員所提出模型存在的檢測速度慢、密集場景下檢測效果弱等問題,本文以蘋果作為研究對象,在YOLOX-S算法[9]的基礎上進行相關改進,為增強模型對目標圖像的特征提取能力,在FPN[10]中的網絡殘差模塊處融入位置注意力機制;為提高密集場景下小目標的檢測精度,將原位置損失函數IoU_Loss更換為對于小目標回歸定位更精準的CIoU_Loss,提出一種改進YOLOX-S的蘋果成熟度檢測方法,為果園早期作物的負荷管理提供助力。

1 YOLOX-S算法

當前主流的目標檢測算法依據其原理可大致分為兩類:一類為二階段檢測算法,該算法先生成包含可能目標物品的候選區并提取出每個候選區的相應特征,再完成對候選區的分類與回歸,最后得到檢測結果,此類算法以R-CNN系列為代表,精度較高但實時性較差;另一類為一階段檢測算法,此算法能夠直接在特征圖上實現對所測目標的分類與回歸,以YOLO系列為代表,其檢測效率高但精度稍遜于二階段檢測算法。在農業自動觀測領域,在保持一定檢測精度的情況下還需要良好的實時性,所以一階段檢測算法更適用于觀測蘋果的真實情況。

1.1 YOLOX-S網絡架構

YOLOX算法是2021年所提出的一階段檢測算法,其將目標檢測算法領域中的眾多杰出工作:解耦頭、數據增強、無錨點、標簽分配策略等與YOLO系列巧妙結合。該算法無論是AP數值還是推理速度,都實現了對YOLO系列算法的全面超越。本文采用的是YOLOX系列中的YOLOX-S網絡,該網絡是在YOLOv5-S的基礎上進行改良的,整體網絡結構如圖1所示,共分為四部分:輸入端、Backbone(主干網絡)、Neck(頸部)、Predication(預測端)。

整個網絡的檢測過程具體為:先在輸入端應用Mosaic策略對輸入的圖片進行數據增強,豐富其背景;然后再將輸入的圖片統一裁剪處理為640像素×640像素的RGB格式傳送至Backbone;Backbone主要包含了Focus模塊、CSP(跨階段局部)模塊、SPP(空間金字塔池化)模塊,先通過Backbone完成對目標淺層特征的提取,再通過主要構成模塊為FPN的Neck完成對目標更深層次特征的提??;最后來到Prediction部分,YOLOX舍棄了原本的YOLO Head,而是采用了Decoupled Head(解耦頭),先前得到的特征信息分別傳入三個不同尺寸的Decoupled head(解耦頭)進行目標框預測,最終實現目標檢測。

1.2 YOLOX-S在檢測蘋果成熟度時遇到的問題

雖然YOLOX-S在檢測蘋果成熟度方面擁有不錯的運行速率與檢測性能,但在檢測密集場景下的蘋果目標時仍有不足。

1) 密集場景圖像中的蘋果目標較小,且存在嚴重遮擋,小目標的檢測更依賴于淺層特征圖,而淺層特征的提取主要通過Backbone來實現,由于Backbone中存在大量卷積會導致小目標特征信息的丟失。

2) YOLOX-S的邊界框回歸損失函數采取的是IoU_Loss,該回歸損失函數會帶來一些問題:首先是當藍色虛線矩形框所代表的預測框與紅色實線矩形框所代表的目標框不存在交集時,其損失值恒為1;其次當二者相交為某一定值時,預測框與目標框會存在不同的重疊方式,如圖2所示,既無法區分相對位置信息,也無法完成精確定位。

2 改進YOLOX-S算法

針對上述YOLOX-S在密集場景下檢測蘋果成熟度所存在的問題,本文擬采用如下改進措施來提高模型在密集場景下的檢測性能:一是在FPN模塊的殘差處引入位置注意力機制;二是采用CIoU_Loss作為邊界框的回歸損失函數。

2.1 引入位置注意力機制

在蘋果成熟度檢測任務中,常需對密集場景下的蘋果進行檢測,該場景下的小目標蘋果極易在深層次網絡中丟失其特征信息,隨后發生漏檢、誤檢的現象。而注意力機制的引入常常會改善模型的性能,但之前所提出的一些注意力機制往往會忽略位置信息[11]。在視覺檢測模型中加入Coordinate Attention mechanism(位置注意力機制),這樣做的優點是能夠使得輸入特征具有更豐富的信息,并協助模型更易精準定位與識別所感興趣區域,有效增加小目標在特征圖中權重,使其更易被模型學習,其主要結構如圖3所示。

本文擬在YOLOX-S的Neck部分中的FPN模塊里的CSPLayer結構中加入Coordinate Attention,具體網絡設計如圖4所示。

2.2 改進損失函數

YOLOX-S的Loss(損失)函數可由三部分組成:位置損失、置信度損失、類別損失。其中YOLOX-S采用的位置損失函數是IoU_Loss[12],該損失函數先求解出預測框與真實框之間交并比,然后再求其負對數。先假設預測框為A,目標框為B,則IoU_Loss的具體公式如式(1)所示。

IoU_Loss=1-(A∩B)(A∪B)(1)

由于YOLOX選取正樣本的機制是依據預測結果是否落入真實框或真實框周圍,而當實際檢測目標為小目標時,常常會出現預測結果與真實標簽毫不相交的場景,此時IoU_Loss的損失值恒為1,為了改善這一情況,應根據預測結果與真實標簽距離遠近來做判斷。本文擬更換位置損失函數IoU_Loss為CIoU_Loss,其計算公式詳見式(2)。CIoU_Loss函數充分考慮了預測框A與目標框B之間的重疊面積與中心距離,如圖4所示,通過度量預測框A與目標框B邊緣框之間的距離,獲得邊界框中心點距離與寬高比信息以及A與B之間的長寬比,最終得到更好的邊界回歸效果。

CIoU_Loss=1-IoU+ρ2(b,bgt)c2+av(2)

式中:b——預測框A的中心點;bgt——目標框B的中心點;ρ——歐氏距離;c——A與B相交時所構成的最小外接矩陣對角線長度;a——權重系數;v——衡量長寬比一致性的參數。

將IoU_Loss更換成CIoU_Loss能夠使得模型在回歸定位時更加準確,并提高檢測性能。

3 試驗與分析

3.1 數據采集與預處理

本文所采用的蘋果數據集來源于Hani [13]所分享的蘋果公開數據集MinneApple,該數據集中包含了三種成熟度與多種背景環境下的蘋果:有被枝葉遮擋的蘋果、有被其他蘋果遮擋的蘋果、有迎著光的蘋果、有逆著光的蘋果、有近距離拍攝的蘋果、也有遠距離拍攝的蘋果、有稀疏場景下的蘋果、也有密集場景下的蘋果。最終采用的蘋果圖像為2001幅,每幅圖像像素皆為1280×720的PNG格式的圖片,部分蘋果場景如圖5所示,其中1502幅劃分為訓練集,168幅劃分為驗證集,331幅劃分為測試集。

由于戶外場景復雜,光照強度多變,為提高模型在實際果園環境中的檢測性能與魯棒性,數據集的豐富性必不可少;此外由于當前深度學習還是由數據驅動的科學,所以需要大量的數據來學習。故需對原訓練集中的1502幅圖像進行相應的數據增強,在進行數據增強時發現其中低成熟度的蘋果與中等成熟度的蘋果數據量較少,與高成熟度蘋果數據量相比存在數據不平衡現象,所以著重對這兩類數據進行了數據增強,采用了添加隨機像素、高斯噪聲、運動模糊、水平翻轉、不等比例縮放、隨機亮度、隨機剪裁與填充等數據增強的方式,部分增強效果如圖6所示。

原1502幅圖像中,低成熟度蘋果圖像數為443幅,中等成熟蘋果圖像數為335幅,高成熟度蘋果圖像數為724幅。經過上述數據增強后,低成熟度與中等成熟度蘋果的圖像數目達到6268幅,再加上3620幅高成熟度蘋果圖像,總計訓練圖像為9888幅。

完成訓練集的數據增強后,采用LabelImg軟件將數據圖像中不同成熟度的蘋果[14]分別以LR_apple(低成熟度)、MR_apple(中等成熟度)、HR_apple(高成熟度)這三個類別標注出來,最后將數據集保存為PASCALVOC格式。

3.2 模型訓練

本文進行模型訓練時采用的硬件為DELL的P5820塔式工作站,其配置為:NVIDIA GeForce RTX2080顯卡,IntelR Xeon CPU E3-1231v3@3.40GHz處理器,32GB內存。工作站所采用的操作系統為Windows 10 Version 21H2,模型搭建以及運行的框架為Pytorch1.10.1,并配合使用CUDA11.3與CUDNN v8.2.1實現對深度神經網絡的加速訓練。

模型在訓練時采用Freeze train(凍結訓練),能夠加速模型收斂并減少訓練時間[15],訓練時采用的epoch(訓練世代)為1500,使得模型訓練時有足夠多的step(迭代次數)來進行學習;在模型訓練時采用Mosaic數據增強策略,該策略的原理是將訓練數據集中四張圖片隨意裁剪縮放并拼接成一張圖片,具體效果見圖7,這樣做的目的一是能夠把原圖上的目標尺寸進一步縮小,增強對小尺寸目標的檢測能力;二是能夠豐富檢測目標的背景,由于該策略會使得訓練圖片過于失真不符合真實場景,所以會在最后30%的epoch關閉它。

EMA(指數平均數)的引入讓Loss曲線更加平滑;訓練所采用的優化器為SGD(隨機梯度下降);由于RTX2080顯存的大小只有8GB,經實驗測試將凍結訓練時的Batch size(批量大?。┰O為32,非凍結訓練時的Batch size設為16。具體的訓練參數設置如表1所示。

3.3 評估指標

為評價模型對不同成熟度蘋果的檢測效果,采用了目標檢測算法中常使用的評估指標:mAP(平均精度均值)、Recall(召回率)、FPS(每秒傳輸幀數)。AP是指計算單類別的模型平均精度,該值由每類目標的P(查準率)和R(召回率)計算得到的,mAP指的是所有類別的平均AP值。計算如式(3)~式(7)所示。

P=TPTP+FP(3)

R=TPTP+FN(4)

AP=∑Nk=1P(k)ΔR(k)(5)

ΔR(k)=R(k)-R(k-1)(6)

mAP=∑APN(class)(7)

式中:TP——正樣本預測的正確數量;FP——正樣本預測的錯誤數量;FN——負樣本預測的錯誤數量;k——每個樣本點的索引;class——類別;N——數據總數量。

3.4 試驗結果分析

為綜合評估本方法所提出改良模型的檢測性能,共設計了兩組試驗:第一組是對比YOLOX-S模型改良前后的檢測性能;第二組是將本方法所提出的改良模型與其他主流目標檢測模型進行性能對比。

3.4.1 模型改良前后的性能分析

本方法采取的改進策略可歸類為兩種:一種是在模型訓練時采取的改進措施,如更換優化器、采取Mosaic數據增強等;另一種就是對模型本身結構進行改進,如引入CA注意力模塊以及更換邊界框的回歸損失函數為CIoU_Loss。

為驗證本方法所采取的改進措施是否有效,在同一數據集下,采用相同的訓練參數進行消融實驗,來判斷該措施是否有效。具體實驗流程就是在原有模型的基礎上依次采用如下改進措施,如訓練時采用SGD優化器與Mosaic數據增強、FPN模塊殘差連接處加入CA注意力模塊、更換CIoU_Loss,然后逐一比較每次改變后模型的性能,如采用某一改進策略就用“√”表示,未采用就用“-”來表示,具體試驗效果見表2。

表2中APL、APM、APH分別代表的是當閾值設定為50時,類別為LR_apple、MR_apple、HR_apple的AP值。RL、RM、RH則依次表示LR_apple、MR_apple、HR_apple這三個類別的召回率。

由表2可知,在不更改模型結構的前提下,模型在訓練時采取Mosaic數據增強后,mAP值增長了1.55%,在此基礎上更換原Adam優化器為SGD優化器,mAP增長了0.56%。由此可見訓練時采用數據增強策略效果拔群,更換優化器也有不少提升。經分析認為,Adam優化器雖然能夠自適應調整學習率,在訓練過程中表現更好,但在測試集中表現不如SGD優化器,所以選用SGD優化器能夠訓練出效果更好的模型。維持上述模型訓練所采取的優化策略不變,模型引入CA注意力機制,可觀察到其mAP增長了1.23%。而再引入CIoU損失函數,mAP只提升了0.18%,提升幅度有限。經分析后認為注意力機制的引入大幅提高了模型的特征提取能力,能夠更加關注小目標蘋果的語義信息,具體表現為mAP值提升明顯,而更換位置損失函數,則提高了目標邊界框的回歸精度,具體表現為其精度有小幅提升。

原模型相比,本文方法在單幅圖片的識別時間只增加了3ms,識別幀數也降低了5.59fps,但是其mAP較原版增加了1.97%,尤其是低成熟度蘋果、中等成熟度蘋果這兩類別的目標識別率分別提高了3.44%、3.17%;此外三個類別的目標召回率相較原模型分別提高7.59%、7.81%、3.31%。

為直觀感受模型改進前后的蘋果成熟度檢測效果,其在測試集上的部分檢測輸出效果如圖8~圖10所示。

圖8~圖10中檢測到不同成熟度的蘋果目標以不同的顏色方框表示,其中紅色方框代表低成熟度蘋果,綠色方框表示中等成熟度蘋果,藍色方框表示高成熟度蘋果。方框的上方顯示所檢測目標類別以及置信度。

通過試驗對比可看出:YOLOX-S網絡模型對圖像邊緣目標、小目標以及暗背景下的目標檢測能力較弱;而改進后的YOLOX-S網絡模型(本文)在復雜場景下的檢測能力更強,并能檢測到更多的目標物體:在暗場景下識別出高成熟度蘋果目標,在圖像邊緣識別出低成熟度與中等成熟度的小蘋果目標。由此可見本文所提出的改進YOLOX-S模型在蘋果成熟度檢測方面有著更加良好的性能與實用性。

3.4.2 改良后模型與主流目標檢測模型性能對比

為進一步驗證本文所提出的改進算法的實際性能表現,將其與其他主流視覺檢測模型:Faster R-CNN、SSD、CenterNet、YOLOv4、YOLOv5-S,在同一測試集上進行識別對比試驗,驗證各模型性能表現的評估指標采用mAP、單幅圖片識別時間以及識別幀率、低中高三種成熟度蘋果各自的AP以及Recall,最終對比試驗的結果如表3所示。

從表3中可看出,相較于其他主流視覺檢測模型,YOLOX-S(本文)對于三種不同成熟度蘋果的檢測性能表現,無論是在AP、Recall、mAP上都有著極大的性能優勢;這些模型中單幅圖像識別速度最快以及幀數最高的是SSD,其識別時間為15ms,幀數66.43fps;而識別速度最慢以及幀數最低的是Faster R-CNN,其識別時間為95ms,幀數為10.45fps;YOLOX-S(本文)的單幅圖像識別時間為24ms,識別幀數為42.06fps,能夠滿足真實果園場景下目標檢測算法實時性的要求;綜上可知本文改進的YOLOX-S模型在擁有高精度檢測能力的同時還具有不錯的實時性,與主流模型相比其檢測速度與幀數均具有一定的優勢。

4 結論

為更好地進行果園早期的作物負荷管理,本文提出采用改良后的YOLOX-S檢測模型來實時觀測果樹上蘋果真實情況,該模型能夠快速且精準地識別低成熟度、中等成熟度、高成熟度的蘋果并完成相應計數。

1) 改良后的YOLOX-S檢測模型無論是與原版YOLOX-S檢測模型還是與其他主流視覺檢測模型相較,其擁有最高的mAP值為88.82%。

2) 所提模型在識別圖像邊緣及暗場景目標時表現良好,能在保證精度的同時還具有良好的實時性,其平均識別時間只有24ms,識別幀數高達42.06fps。

后續會將該檢測模型部署到嵌入式設備上,并進一步優化網絡結構,以實現在移動端實時觀測蘋果的真實情況。

參 考 文 獻

[1]趙春江. 智慧農業發展現狀及戰略目標研究[J]. 智慧農業, 2019, 1(1): 1-7.Zhao Chunjiang. State-of-the-art and recommended developmental strategic objectives of smart agriculture [J]. Smart Agriculture, 2019, 1(1): 1-7.

[2]黑龍江省佳木斯農業學校, 江蘇省蘇州農業學校. 果樹栽培學總論[M]. 北京: 中國農業出版社, 2009.

[3]王立揚, 張瑜, 沈群, 等. 基于改進型LeNet-5的蘋果自動分級方法[J]. 中國農機化學報, 2020, 41(7): 105-110.Wang Liyang, Zhang Yu, Shen Qun, et al. Automatic apple grading method based on improved LeNet-5 [J]. Journal of Chinese Agricultural Mechanization, 2020, 41(7): 105-110.

[4]王丹丹, 宋懷波, 何東健. 蘋果采摘機器人視覺系統研究進展[J]. 農業工程學報, 2017, 33(10): 59-69.Wang Dandan, Song Huaibo, He Dongjian. Research advance on vision system of apple picking robot [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(10): 59-69.

[5]Zhou R, Damerow L, Sun Y, et al. Using color features of cv. ‘Gala apple fruits in an orchard in image processing to predict yield [J]. Precision Agriculture, 2012, 13(5): 568-580.

[6]熊俊濤, 劉振, 湯林越, 等. 自然環境下綠色柑橘視覺檢測技術研究[J]. 農業機械學報, 2018, 49(4): 45-52.Xiong Juntao, Liu Zhen, Tang Linyue, et al. Visual detection technology of green citrus under natural environment [J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(4): 45-52.

[7]Tian Yunong, Yang Guodong, Wang Zhe, et al. Apple detection during different growth stages in orchards using the improved YOLO-V3 model [J]. Computer & Electronics in Agriculture, 2019, 157: 417-426.

[8]趙德安, 吳任迪, 劉曉洋, 等. 基于YOLO深度卷積神經網絡的復雜背景下機器人采摘蘋果定位[J]. 農業工程學報, 2019, 35(3): 164-173.Zhao Dean, Wu Rendi, Liu Xiaoyang, et al. Apple positioning based on YOLO deep convolutional neural network for picking robot in complex background [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(3): 164-173.

[9]Ge Z, Liu S, Wang F, et al. YOLOX: Exceeding YOLO series in 2021 [J]. arXiv, 2021.

[10]Lin T Y, Dollar P, Girshick R, et al. Feature pyramid networks for object detection [C]. Proceedings The IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, New York, USA: IEEE, 2017: 2117-2125.

[11]Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design [C]. Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021: 13713-13722.

[12]Rezatofighi H, Tsoi N, Gwak JY, et al. Generalized intersection over union: A metric and a loss for bounding box regression [C]. Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019.

[13]Hani N, Roy P, Isler V. Minne apple: A benchmark dataset for apple detection and segmentation [J]. IEEE Robotics and Automation Letters. 2020, 5(2): 852-858.

[14]齊銳麗, 陳曼龍, 楊宗浩, 等. 基于HSV模型與改進的OTSU算法花椒圖像分割[J]. 中國農機化學報, 2019, 40(11): 155-160.Qi Ruili, Chen Manlong, Yang Zonghao, et al. Image segmentation of peppercorns based on HSV model and improved OTSU algorithm [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(11): 155-160.

[15]許迎春, 劉英, 范開欣, 等. 基于線掃描及其參數空間的圓形果實識別[J]. 中國農機化學報, 2018, 39(9): 51-55. Xu Yingchun, Liu Ying, Fan Kaixin, et al. Circular fruit recognition based on line scan and its parameter space [J]. Journal of Chinese Agricultural Mechanization, 2018, 39(9): 51-55.

基金項目:國家自然科學基金青年基金(61903184);江蘇省自然科學基金青年基金(BK20181017、BK2019K186);南京工程學院引進人才科研啟動基金(YKJ2018822);中國博士后科學基金第67批面上項目(2020M671292);江蘇省博士后科研資助計劃(B類);2021年度省重點研發計劃(產業前瞻與共性關鍵技術)(BE2021016—5)

第一作者:黃威,男,1993年生,江蘇泰興人,碩士;研究方向為機器人控制與計算機視覺。E-mail: 1464754954@qq.com

通訊作者:劉義亭,男,1985年生,湖北襄陽人,博士,副教授;研究方向為導航、制導與控制、計算機視覺。E-mail: gcdlyt1985@163.com

猜你喜歡
蘋果
快樂蘋果鎮
0分也能拿第一
第一個大蘋果
收獲蘋果
拿蘋果
梨與蘋果
會說話的蘋果
蘋果豐收啦
洗蘋果
禍從口出
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合