正當(dāng)時(shí)......

學(xué)術(shù)咨詢服務(wù)
當(dāng)前位置:職稱那點(diǎn)事農(nóng)業(yè)職稱論文》基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)綜述

基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)綜述

來源:職稱那點(diǎn)事作者:田編輯時(shí)間:2021-06-26 10:43
掃碼咨詢

  摘要:在蟲情監(jiān)測和害蟲防范治理過程中,準(zhǔn)確識(shí)別害蟲是有效解決農(nóng)業(yè)領(lǐng)域蟲害問題的重要前提。依靠專家知識(shí)和人工經(jīng)驗(yàn)進(jìn)行蟲情診斷的方式效率較為低下,自動(dòng)化和智能化水平較差,而采用深度學(xué)習(xí)、計(jì)算機(jī)視覺等智能化技術(shù)手段可以大幅度提升害蟲識(shí)別過程的效率、準(zhǔn)確度,并降低人工成本。概述了基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)發(fā)展現(xiàn)狀,分析深度學(xué)習(xí)技術(shù)在害蟲圖像識(shí)別領(lǐng)域的實(shí)現(xiàn)原理和優(yōu)勢,闡述國內(nèi)外專家學(xué)者在基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)領(lǐng)域的最新研究進(jìn)展,提出該技術(shù)領(lǐng)域面臨的挑戰(zhàn),并對發(fā)展方向進(jìn)行預(yù)測。該文可為深入開展害蟲識(shí)別和分類技術(shù)在智慧農(nóng)業(yè)上的應(yīng)用研究提供參考。

  關(guān)鍵詞:農(nóng)業(yè);害蟲;識(shí)別;深度學(xué)習(xí)

  0引言

  作為農(nóng)業(yè)大國,農(nóng)業(yè)是我國的重要基礎(chǔ)產(chǎn)業(yè)之一,也是影響我國國民經(jīng)濟(jì)的重要組分之一[1]。而造成農(nóng)作物減產(chǎn)的主要因素之一即為蟲害[2]。目前蟲害的主要防治手段為化學(xué)法,雖然化學(xué)藥劑的使用可以大幅度減小蟲害帶來的損失,但也帶來了環(huán)境破壞、生態(tài)污染等問題。為了提升農(nóng)業(yè)科學(xué)化、現(xiàn)代化和智能化水平,亟需新的手段對傳統(tǒng)蟲害防治措施進(jìn)行改進(jìn)升級[3]。害蟲的高效、準(zhǔn)確判別是害蟲治理過程的重要前提。傳統(tǒng)方法主要依靠農(nóng)業(yè)專家和種植經(jīng)驗(yàn),識(shí)別效率較低、識(shí)別準(zhǔn)確率不穩(wěn)定、耗時(shí)耗力并且難以實(shí)現(xiàn)大面積推廣[4]。此外,也有一些專家學(xué)者通過傳統(tǒng)機(jī)器視覺技術(shù)對害蟲圖像進(jìn)行特征提取(HOG、Sift算法、人工神經(jīng)網(wǎng)絡(luò)算法等),從而對農(nóng)業(yè)害蟲進(jìn)行識(shí)別,但這種手段的效果也難以滿足實(shí)際需要,大多局限于實(shí)驗(yàn)室層次的研究,模型的泛化能力較差,魯棒性較差[5-7]。近些年來,深度學(xué)習(xí)技術(shù)、計(jì)算機(jī)視覺技術(shù)、卷積神經(jīng)網(wǎng)絡(luò)技術(shù)和大數(shù)據(jù)技術(shù)等新型人工智能技術(shù)蓬勃發(fā)展,為圖像級別的特征識(shí)別和處理工作賦予更多的可能性[8]。相比于傳統(tǒng)機(jī)器視覺技術(shù),基于深度學(xué)習(xí)的計(jì)算機(jī)視覺技術(shù)在圖像處理、特征提取、特征抽象和特征分類等諸多方面更加高效和準(zhǔn)確,逐漸受到越來越多國內(nèi)外專家和學(xué)者的青睞。基于深度學(xué)習(xí)的害蟲識(shí)別和分類技術(shù)有望進(jìn)一步改善和解決當(dāng)前害蟲識(shí)別方法中存在的一系列問題,以實(shí)現(xiàn)更為及時(shí)和有效的害蟲防治工作。這一技術(shù)手段有利于提升農(nóng)業(yè)領(lǐng)域的自動(dòng)化、信息化和智能化水平,具有重要的研究價(jià)值和研究意義。

基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)綜述

  1基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)原理

  1.1原理概述

  “深度學(xué)習(xí)”又被稱為“分層學(xué)習(xí)”,最早可以追溯到1986年,其作為新生概念被引入機(jī)器學(xué)習(xí)(ML)。2000年,深度學(xué)習(xí)被應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNN)的提出和計(jì)算機(jī)視覺技術(shù)的飛速發(fā)展,圖像語義解析水平不斷提高,深度學(xué)習(xí)技術(shù)不斷發(fā)展,逐漸成為人工智能領(lǐng)域的研究焦點(diǎn)和學(xué)術(shù)界當(dāng)今最流行的研究趨勢之一[9]?;谏疃葘W(xué)習(xí)的圖像識(shí)別和分類技術(shù)主要由3個(gè)模塊構(gòu)成,如圖1所示。

  1.2數(shù)據(jù)重要性

  來自谷歌公司和卡耐基梅隆大學(xué)的學(xué)者們將深度學(xué)習(xí)在視覺問題上取得的重大成功歸結(jié)于3點(diǎn):高容量模型、高速增長的計(jì)算力和大規(guī)模標(biāo)記數(shù)據(jù)的可用性[10]。因此,海量有效數(shù)據(jù)的重要性不言而喻。在基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建和訓(xùn)練過程中,需要將經(jīng)過標(biāo)注(annotation)的有效圖像數(shù)據(jù)分批次(batch)送入待訓(xùn)練模型,輸入圖像數(shù)據(jù)經(jīng)過多層卷積得到高維非線性抽象特征,通過反向傳播的方式,結(jié)合優(yōu)化器不斷減小損失函數(shù)以使模型迫近優(yōu)化目標(biāo),從而不斷生成性能更優(yōu)的模型。這是一個(gè)迭代尋優(yōu)的過程,更多的有效圖像數(shù)據(jù)意味著模型在訓(xùn)練過程中可以得到更多維度的高維抽象特征,從而使得模型的訓(xùn)練過程更為充分,損失函數(shù)可以最終保持在一個(gè)較低的水平,最終生成性能更加強(qiáng)勁的卷積神經(jīng)網(wǎng)絡(luò)模型。而如果有效圖像數(shù)據(jù)量較少,則無法保證模型在訓(xùn)練過程中的收斂性,從而最終訓(xùn)練模型無法對測試圖像進(jìn)行準(zhǔn)確判別。

  2研究進(jìn)展概述

  基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)不斷發(fā)展,并且這種技術(shù)的性能優(yōu)勢在許多自然場景和視覺問題中得到有效驗(yàn)證,因此一些專家學(xué)者開始在農(nóng)業(yè)害蟲識(shí)別領(lǐng)域?qū)@種技術(shù)進(jìn)行進(jìn)一步研究,并取得了一系列的成果。近年來,基于深度學(xué)習(xí)的害蟲識(shí)別研究越來越多,筆者通過在WebofScience檢索平臺(tái)和知網(wǎng)檢索平臺(tái)對2009—2019年有關(guān)基于深度學(xué)習(xí)的害蟲識(shí)別方面的學(xué)術(shù)出版作品進(jìn)行檢索,然后篩選出符合主題的學(xué)術(shù)出版作品,進(jìn)行數(shù)量統(tǒng)計(jì)。統(tǒng)計(jì)結(jié)果如圖2所示。其中,WebofScience檢索式為(pestorin-sect)AND(identificationorclassificationordetectionorrecognition)AND(CNNor“deeplearning”or“convolutionalneuralnetwork”),中國知網(wǎng)檢索式為(SU=“害蟲識(shí)別”ORSU=“害蟲分類”)AND(KY=“卷積神經(jīng)網(wǎng)絡(luò)”ORKY=“深度學(xué)習(xí)”ORKY=“CNN”ORKY=“人工智能”)。

  3基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)

  2016年,浙江大學(xué)的吳翔[21]通過卷積神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)了10種螟蛾科類害蟲(黃楊絹野螟、玉米螟、稻縱卷葉螟、螻蛄等)的識(shí)別,基本圖像數(shù)據(jù)來源于自然環(huán)境下的圖像采集,共計(jì)900張彩色圖像,每幅圖像只包含單一的害蟲,其卷積神經(jīng)網(wǎng)絡(luò)害蟲識(shí)別模型共計(jì)有5層,最終識(shí)別的準(zhǔn)確度約76.7%。2017年,CHENGX等[22]通過借鑒ResNet中的殘差模塊,在AlexNet的基礎(chǔ)上加深網(wǎng)絡(luò)搭建了全新的害蟲識(shí)別卷積神經(jīng)網(wǎng)絡(luò)模型,在自然背景下實(shí)現(xiàn)對10類害蟲的識(shí)別,準(zhǔn)確率約99.67%。2018年,有研究學(xué)者通過對ResNet-101進(jìn)行改進(jìn)和微調(diào)實(shí)現(xiàn)對34種常見害蟲(二化螟、玉米螟中華稻蝗等)的識(shí)別,準(zhǔn)確率93.5%,并將其部署在移動(dòng)APP端,實(shí)現(xiàn)移動(dòng)端的圖像數(shù)據(jù)識(shí)別,其所使用彩色圖像數(shù)據(jù)共計(jì)約為1萬張[23]。2018年,周愛明[24]基于深度學(xué)習(xí)技術(shù),實(shí)現(xiàn)對水稻害蟲的識(shí)別和計(jì)數(shù),識(shí)別準(zhǔn)確度約90%。該模型同樣采用ResNet模型,通過卷積神經(jīng)網(wǎng)絡(luò)對害蟲圖像進(jìn)行特征提取,然后通過分類器對害蟲種類進(jìn)行甄別,最后完成圖像中害蟲的計(jì)數(shù)任務(wù)??傮w而言,識(shí)別效果較好。2019年,THEN-MOZHIK等[25]基于深度神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的方式實(shí)現(xiàn)對害蟲的識(shí)別和分類。最終在論文中所引用的3類害蟲圖像數(shù)據(jù)集上的準(zhǔn)確率均可以達(dá)到95%以上。

  4基于深度學(xué)習(xí)的害蟲識(shí)別和定位技術(shù)

  在基于深度學(xué)習(xí)的害蟲識(shí)別模型中,除了對害蟲本身進(jìn)行準(zhǔn)確的識(shí)別和分類外,對圖像中害蟲的存在位置做出有效推斷也是十分必要的。國內(nèi)外的許多學(xué)者在基于深度學(xué)習(xí)的害蟲識(shí)別和定位方面也進(jìn)行了較多研究。

  2019年,LINTL等[29]基于FasterR-CNN目標(biāo)檢測模型實(shí)現(xiàn)了甜椒生長過程中的病蟲害檢測。訓(xùn)練數(shù)據(jù)集只有150張彩色圖片,檢測效果和模型魯棒性有待進(jìn)一步驗(yàn)證。但值得注意的是,該模型在實(shí)現(xiàn)害蟲分類的同時(shí)也對圖像中害蟲的候選區(qū)域做出了判定。2020年,HEY等[30]基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)搭建了糙米飛虱的害蟲識(shí)別模型,通過對FastR-cnn和YOLOv3模型的改進(jìn),實(shí)現(xiàn)了較好的害蟲識(shí)別精度。在同等條件下,論文作者對這兩類模型進(jìn)行比較,YOLOv3的識(shí)別效果較FasterR-CNN更為優(yōu)異,識(shí)別速率也更高。2020年,HONGSJ等[31]以InceptionNet為基礎(chǔ)網(wǎng)絡(luò),通過結(jié)合R-CNN和Mo-bileNet等目標(biāo)檢測器實(shí)現(xiàn)對蛾的圖像目標(biāo)檢測。其中,基于ResNet101的R-CNN目標(biāo)檢測模型的準(zhǔn)確率較高,平均檢測精度達(dá)(mAP)90.25%。此外,其研究結(jié)果證明了多級檢測器的效果在同等條件下性能更加優(yōu)異。2020年,JIAOLin等[32]針對于小型害蟲設(shè)計(jì)和搭建了一種新型的無錨目標(biāo)檢測網(wǎng)絡(luò)AFRCNN,對24類生物害蟲實(shí)現(xiàn)端到端的圖像識(shí)別和定位框推薦,最終在24類生物害蟲的識(shí)別測試過程中,可以達(dá)到56.4%的平均識(shí)別精度,并且每張圖片的測試消耗時(shí)間較小,約為0.07s。2020年,LIDengshan等[33]以水稻害蟲為研究對象,設(shè)計(jì)搭建基于深度學(xué)習(xí)的害蟲視頻檢測系統(tǒng),該系統(tǒng)以FasterR-CNN為基礎(chǔ)框架,通過進(jìn)行視頻和靜止幀之間的不斷轉(zhuǎn)化與生成實(shí)現(xiàn)目標(biāo)害蟲的識(shí)別和定位。但是,由于多幀信息重疊等原因的存在,檢測效率和實(shí)時(shí)性有待進(jìn)一步提升。2020年,WANGFangyuan等[34]在圖像害蟲識(shí)別和定位的研究過程中另辟蹊徑,通過將害蟲圖像的語義信息(溫度、濕度、經(jīng)緯度等)與卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行深度融合之后,設(shè)計(jì)搭建新型的害蟲識(shí)別和檢測模型,模型的檢測精度較高,同時(shí)定制化程度較深。此外,該模型解決了基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)中小目標(biāo)檢測和數(shù)據(jù)不平衡的問題,并驗(yàn)證了注意力機(jī)制在解決不平衡數(shù)據(jù)問題上的優(yōu)勢。

  結(jié)束語

  本文對近些年來基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)進(jìn)行了歸納總結(jié),并介紹其原理和發(fā)展歷程。目前,基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)逐漸成為各國專家和學(xué)者的研究熱點(diǎn)。然而,這一領(lǐng)域的研究尚且有以下3類問題亟待解決:①范圍覆蓋更廣、魯棒性更優(yōu)、數(shù)據(jù)平衡性更佳、數(shù)量級更大的自然場景害蟲圖像數(shù)據(jù)集;②網(wǎng)絡(luò)模型深度定制化的理論依據(jù)和實(shí)踐案例;③針對微小目標(biāo)性能更優(yōu)、穩(wěn)定性更佳的特征提取器。

  總之,基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)尚處于起步階段,與實(shí)際應(yīng)用與普及仍存在著較大距離,但該項(xiàng)技術(shù)具有較大的發(fā)展?jié)摿εc潛在價(jià)值,要充分挖掘該項(xiàng)技術(shù)的潛力,還需要相關(guān)學(xué)科專家共同努力。

  參考文獻(xiàn)

 ?。?]OERKEEC.Croplossestopests[J].TheJournalofAgriculturalScience,2005,144(1):31-43.

 ?。?]SHENBenlan,CHANGJun,WUChuhan,etal.Localzoomsys-temforagriculturalpestdetectionandrecognition[J].AppliedPhysicsB,2018,124(11):2019.1-2019.8.1.

 ?。?]傅隆生,宋珍珍,ZHANGXin,等.深度學(xué)習(xí)方法在農(nóng)業(yè)信息中的研究進(jìn)展與應(yīng)用現(xiàn)狀[J].農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,25(2):105-120.FULongsheng,SONGZhenzhen,ZHANGXin,etal.Applica-tionsandresearchprogressofdeeplearninginagriculture[J].Jour-nalofChinaAgriculturalUniversity,2020,25(2):105-120.

 ?。?]賈少鵬,高紅菊,杭瀟.基于深度學(xué)習(xí)的農(nóng)作物病蟲害圖像識(shí)別技術(shù)研究進(jìn)展[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2019,50(S1):313-317.JIAShaopeng,GAOHongju,HANGXiao.Researchprogressonimagerecognitiontechnologyofcroppestsanddiseasesbasedondeeplearning[J].TransactionsoftheChineseSocietyofAgricultur-alMachinery,2019,50(S1):313-317.

  龐海通1,2,蔡衛(wèi)明1,馬龍華1,蘇宏業(yè)2


《基于深度學(xué)習(xí)的害蟲識(shí)別技術(shù)綜述》
上一篇:我國生態(tài)綠色農(nóng)產(chǎn)品在線營銷的理論邏輯與現(xiàn)實(shí)基礎(chǔ)
下一篇:關(guān)于推廣綠色農(nóng)業(yè)種植技術(shù)的途徑探討
更多>>

期刊目錄