文獻(xiàn)標(biāo)識碼:B文章編號:1003-0492(2024)04-074-04中圖分類號:TP29
★王俊鵬,蔡革英,韓梅(紅安卷煙廠,湖北黃岡438400)
關(guān)鍵詞:視頻分析;視覺檢測;煙支檢測
1 基于視頻分析的煙支視覺檢測算法概述
目前,針對煙支的視覺檢測主要有兩種方法:第一種是通過對焦距離來實(shí)現(xiàn)的;第二種則是利用光學(xué)系統(tǒng)中的焦距和光圈等參數(shù)來進(jìn)行識別。在實(shí)際應(yīng)用過程中,由于拍攝角度以及成像質(zhì)量等因素的影響,會(huì)導(dǎo)致所得到的圖像存在一定程度上的失真現(xiàn)象。一般工業(yè)相機(jī)采集的數(shù)據(jù)為單張的圖像數(shù)據(jù),并不能直接進(jìn)行視頻的保存。而且因?yàn)闊熤П旧砭哂刑厥庑裕孕枰捎靡恍┢渌夹g(shù)手段來保證數(shù)據(jù)信息的準(zhǔn)確性。例如,可以使用機(jī)器學(xué)習(xí)或者深度學(xué)習(xí)等方式來完成對煙支的檢測工作。然而,這些方法都無法滿足煙支檢測系統(tǒng)對實(shí)時(shí)性要求較高的需求。為此,國內(nèi)外學(xué)者開始將目光轉(zhuǎn)向了計(jì)算機(jī)技術(shù)領(lǐng)域,希望借助計(jì)算機(jī)技術(shù)來解決這一難題。其中,最為常見的一種手段即為視頻分析法。該方法主要通過攝像頭獲取煙支圖像,然后根據(jù)煙支圖像特征選擇合適的閾值對其進(jìn)行分割,最后再結(jié)合相應(yīng)的數(shù)學(xué)模型計(jì)算出煙支的具體位置[1]。KIM等人針對煙支圖像中的像素點(diǎn)分布不均勻以及煙支圖像邊緣模糊等問題,提出了一種基于灰度共生矩陣(GrayscaleCommunity Matrix)的煙支圖像分割模型[2-3]。首先,他們從原始煙支圖像中隨機(jī)選取一定數(shù)量的像素點(diǎn)作為初始化的訓(xùn)練樣本集;接著,在此基礎(chǔ)上,分別使用3個(gè)不同尺度的卷積核對每一個(gè)樣本進(jìn)行卷積操作,并且利用最大類間方差、平均值和標(biāo)準(zhǔn)偏差三個(gè)指標(biāo)來衡量這三組參數(shù)之間的差異程度,以此來確定最佳的卷積層數(shù);隨后,采用多尺度融合技術(shù)對不同尺度的煙支圖像進(jìn)行處理,最終得到具有較高分辨率的煙支圖像。該方法不僅能夠有效地提高煙支圖像分割精度,而且還可以降低計(jì)算成本。還有研究人員將殘煙支鏈與其他圖像處理技術(shù)相結(jié)合,以便更好地提取殘煙支鏈的邊緣輪廓特征。
目前,國內(nèi)外學(xué)者已經(jīng)將深度學(xué)習(xí)應(yīng)用于煙支圖像分割領(lǐng)域,并取得了不錯(cuò)的效果。文獻(xiàn)所用的方法主要包括有監(jiān)督的自適應(yīng)加權(quán)網(wǎng)絡(luò)結(jié)構(gòu)、無監(jiān)督的半監(jiān)督結(jié)構(gòu)、混合式的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、基于注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)等。
基于視頻分析的視覺檢測算法通常由特征提取模塊(Feature Extraction)、特征融合模塊(Convolutional Encoding)以及特征通道處理模塊組成。其中,特征提取模塊負(fù)責(zé)對輸入的原始數(shù)據(jù)進(jìn)行預(yù)處理,并且利用卷積神經(jīng)網(wǎng)絡(luò)來獲取特征通道,然后再使用特征融合模塊對特征通道進(jìn)行特征提取,最后將特征通道輸出到分類器當(dāng)中。特征融合模塊則通過計(jì)算每個(gè)像素點(diǎn)與其他所有像素點(diǎn)之間的距離來實(shí)現(xiàn),其目的就是為了提高模型的泛化能力。而特征通道處理模塊則是根據(jù)不同顏色區(qū)域的灰度值來判斷該區(qū)域是否屬于同一類別,如果不是就會(huì)直接丟棄該類別的數(shù)據(jù)。目前,基于視頻分析的煙支視覺檢測算法已經(jīng)被廣泛應(yīng)用于煙草行業(yè)的生產(chǎn)過程中。
2 運(yùn)動(dòng)目標(biāo)二值化分割
2.1 常用的運(yùn)動(dòng)目標(biāo)檢測方法
目前,針對運(yùn)動(dòng)目標(biāo)檢測的主流技術(shù)包括圖像處理(如去霧)、特征提取以及目標(biāo)定位等。其中,對于運(yùn)動(dòng)目標(biāo)檢測而言,最為常見的就是采用深度學(xué)習(xí)模型來實(shí)現(xiàn)。對運(yùn)動(dòng)目標(biāo)進(jìn)行二值化處理,可以有效地提高檢測精度[4]。此外,還有一些其他的運(yùn)動(dòng)目標(biāo)檢測方法也被應(yīng)用到了運(yùn)動(dòng)目標(biāo)檢測當(dāng)中,例如基于卷積神經(jīng)網(wǎng)絡(luò)的運(yùn)動(dòng)目標(biāo)檢測、基于多尺度融合的運(yùn)動(dòng)目標(biāo)檢測、基于注意力機(jī)制的運(yùn)動(dòng)目標(biāo)檢測等等。但是這些方法均存在一定的不足之處,主要表現(xiàn)為以下幾點(diǎn):(1)需要大量的數(shù)據(jù)作為訓(xùn)練樣本,這就導(dǎo)致其計(jì)算成本過高;(2)無法保證運(yùn)動(dòng)目標(biāo)的準(zhǔn)確度;(3)難以實(shí)現(xiàn)大規(guī)模的推廣應(yīng)用。
2.2 基于HSV空間的運(yùn)動(dòng)目標(biāo)檢測
由于運(yùn)動(dòng)目標(biāo)的復(fù)雜性和多樣性,需要對其進(jìn)行分類識別。因此,首先將采集到的運(yùn)動(dòng)目標(biāo)數(shù)據(jù)轉(zhuǎn)換成HOG顏色空間下的RGB三通道分量圖;然后根據(jù)每一個(gè)像素點(diǎn)對應(yīng)的RGB三個(gè)通道分量圖計(jì)算出該點(diǎn)所在位置的三維空間坐標(biāo)(x,y);最后通過坐標(biāo)變換得到該點(diǎn)在整個(gè)圖像中所占的比例。
利用上述方法可以實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的二值化分割,但是這種方法只能針對單一的前景目標(biāo)進(jìn)行分割,而無法滿足多個(gè)前景目標(biāo)的情況。因此本文提出了一種基于HSV空間的運(yùn)動(dòng)目標(biāo)二值化分割方法。具體步驟如下:
(1)提取運(yùn)動(dòng)目標(biāo)的特征信息。采用HSV空間模型對運(yùn)動(dòng)目標(biāo)進(jìn)行二值化分割,以便于后續(xù)的前景檢測與定位。
(2)建立HSV空間模型。首先根據(jù)運(yùn)動(dòng)目標(biāo)的位置信息確定待測對象的大致范圍,然后使用HSV空間模型計(jì)算出該點(diǎn)到所有像素的距離,再用該距離除以該點(diǎn)到物體中心的距離即可得出該點(diǎn)的三維空間坐標(biāo)。
3 運(yùn)動(dòng)目標(biāo)特征提取與計(jì)數(shù)—以運(yùn)動(dòng)煙支為例
3.1 基于幀差法的運(yùn)動(dòng)煙支視頻分析法
在對運(yùn)動(dòng)煙支進(jìn)行識別之前需要先對其進(jìn)行預(yù)處理。通常情況下,可以采用二值化處理或者去噪處理等方式去除噪聲、增強(qiáng)細(xì)節(jié)信息;然后再根據(jù)不同的運(yùn)動(dòng)目標(biāo)采取相應(yīng)的檢測手段。一般來說,如果兩個(gè)像素點(diǎn)的灰度值相差較大且差值越大則表示該像素點(diǎn)所對應(yīng)的運(yùn)動(dòng)目標(biāo)就越明顯,反之則越不明顯。因此本文將利用幀差法來對運(yùn)動(dòng)煙支進(jìn)行檢測。幀差法是一種常用于圖像分割和定位的技術(shù)手段,它能夠有效地提取出圖像中的每一個(gè)像素點(diǎn)并且使得這些像素點(diǎn)具有一定的相似性。具體來講就是利用閾值來判斷是否存在運(yùn)動(dòng)目標(biāo),若存在則認(rèn)為該像素點(diǎn)屬于運(yùn)動(dòng)目標(biāo),否則就不是。
在實(shí)際的檢測過程中,首先要確定運(yùn)動(dòng)目標(biāo)的位置,然后再對其進(jìn)行檢測。由于運(yùn)動(dòng)目標(biāo)的形狀比較復(fù)雜,所以很難直接用肉眼觀察到,而是需要借助一些工具才能實(shí)現(xiàn)。目前,最常見的方法包括:(1)Sobel算子。這個(gè)算子是一種經(jīng)典的量測算法,適用范圍廣,但是精度不高。因此,通常會(huì)采用其他方式來代替。例如,可以使用霍夫變換等方法來消除噪聲點(diǎn)、減少計(jì)算量以及降低運(yùn)算難度。(2)K-means聚類分析。這是一種簡單實(shí)用的聚類方法,主要原理是根據(jù)給定的坐標(biāo)值計(jì)算兩個(gè)對象之間的差異程度,從而得到兩對象之間的距離。該方法具有一定的局限性,只能識別出特定范圍內(nèi)的運(yùn)動(dòng)目標(biāo),并且無法區(qū)分同一區(qū)域內(nèi)的多個(gè)對象。(3)Fisher判別器。它能夠?qū)⒁粋€(gè)二維矩陣分解成若干個(gè)互不相交的子集,每個(gè)子集中都有一個(gè)對應(yīng)于某個(gè)類別的中心點(diǎn),這些中心點(diǎn)就是被選中的運(yùn)動(dòng)目標(biāo)。
本文利用Fisher判別器來實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的分類。首先需要確定運(yùn)動(dòng)目標(biāo)的位置信息,然后再用其作為輸入數(shù)據(jù),經(jīng)過處理后輸出相應(yīng)的RGB三通道彩色圖像。由于運(yùn)動(dòng)目標(biāo)的亮度值會(huì)隨著時(shí)間不斷發(fā)生變化,所以要先對采集到的原始數(shù)據(jù)進(jìn)行預(yù)處理,包括去色、平滑化等操作;最后通過計(jì)算得到各個(gè)顏色分量之間的相關(guān)系數(shù)來判斷運(yùn)動(dòng)目標(biāo)是否存在。
3.2 基于背景減除法的前景提取
由于運(yùn)動(dòng)目標(biāo)的復(fù)雜性,對其進(jìn)行分割時(shí)會(huì)產(chǎn)生大量噪聲點(diǎn),因此需要對其進(jìn)行去噪處理。目前,針對運(yùn)動(dòng)目標(biāo)的去噪主要采用背景減去法(BackgroundDenoising),即通過計(jì)算背景像素點(diǎn)之間的距離來去除噪聲點(diǎn)。這種方法簡單易行且效果較好,但是會(huì)導(dǎo)致運(yùn)算量較大;而基于深度神經(jīng)網(wǎng)絡(luò)的檢測方法則是利用卷積層和激活函數(shù)將原始輸入數(shù)據(jù)映射到更高層次上來提高檢測精度。本文選用了一種基于深度神經(jīng)網(wǎng)絡(luò)的檢測方法,該方法首先使用一個(gè)濾波器濾掉圖像中的大部分灰度信息,然后再使用另外一個(gè)濾波器對這些噪聲點(diǎn)進(jìn)行進(jìn)一步的過濾,最后根據(jù)閾值判斷是否存在運(yùn)動(dòng)目標(biāo)。
3.3 實(shí)驗(yàn)結(jié)果與分析
我們分別采用了兩種不同光照條件下的動(dòng)視頻作為本文所提出的運(yùn)動(dòng)目標(biāo)檢測算法,即在黑暗環(huán)境下采用普通攝像頭拍攝的動(dòng)視頻;在白天光線充足時(shí)采用SONY A7S2攝像機(jī)拍攝的動(dòng)視頻。首先,通過對比兩組數(shù)據(jù)集上的平均精度來驗(yàn)證本文算法的可行性。其次,將本文算法與其他幾種常用的運(yùn)動(dòng)目標(biāo)檢測算法進(jìn)行比較,并且從實(shí)驗(yàn)結(jié)果來看,本文算法相較于其他幾種算法具有更好的性能表現(xiàn)。
首先,通過對比不同類型的運(yùn)動(dòng)視頻和正常視頻可以發(fā)現(xiàn),當(dāng)視頻幀數(shù)較少時(shí)(如2幀或5幀),卷積神經(jīng)網(wǎng)絡(luò)能夠更好地學(xué)習(xí)到運(yùn)動(dòng)目標(biāo)的細(xì)節(jié)特征。其次,由于運(yùn)動(dòng)目標(biāo)的遮擋、背景噪聲等因素影響,導(dǎo)致運(yùn)動(dòng)目標(biāo)的識別效果較差,而卷積神經(jīng)網(wǎng)絡(luò)則具有良好的魯棒性,即使存在輕微的噪聲也不會(huì)造成嚴(yán)重的干擾。最后,卷積神經(jīng)網(wǎng)絡(luò)還可有效降低模型的計(jì)算成本,并且隨著訓(xùn)練次數(shù)的增加,模型的泛化性能會(huì)不斷增強(qiáng)。因此,相比于傳統(tǒng)的運(yùn)動(dòng)目標(biāo)檢測方法而言,卷積神經(jīng)網(wǎng)絡(luò)不僅能夠顯著提高運(yùn)動(dòng)目標(biāo)檢測的準(zhǔn)確率,同時(shí)還能夠減少模型的訓(xùn)練時(shí)間,進(jìn)而達(dá)到縮短檢測時(shí)間的目的。
4 小結(jié)
本文首先針對運(yùn)動(dòng)煙支的動(dòng)態(tài)監(jiān)測、視頻合成、缺陷分析等關(guān)鍵問題展開研究,提出了一種基于視頻分析的視覺檢測方法,并結(jié)合實(shí)際案例驗(yàn)證了該方法的有效性;其次,本文從算法設(shè)計(jì)角度出發(fā),總結(jié)出該方法存在的不足之處及未來的研究方向。
(1)算法設(shè)計(jì)方面。首先,在算法實(shí)現(xiàn)過程中,應(yīng)當(dāng)考慮光照強(qiáng)度以及光源亮度變化情況,若光照強(qiáng)度過大或是光源亮度過小都會(huì)影響算法運(yùn)行效果,進(jìn)而導(dǎo)致算法無法正常運(yùn)行。其次,為了提高算法運(yùn)行速度和準(zhǔn)確率,需要合理設(shè)置閾值,以便于后續(xù)計(jì)算結(jié)果的對比。再次,由于不同顏色代表著不同程度的灰度差異,因此可以通過RGB三通道分別提取圖像的紅綠藍(lán)三個(gè)分量信息,然后將這三類色彩相加得到最終的圖像。但是當(dāng)光強(qiáng)度較大或者是光源亮度較小時(shí),所提算法可能出現(xiàn)過度擬合現(xiàn)象,所以還需根據(jù)實(shí)際情況調(diào)整閾值。最后,在算法運(yùn)行過程中,要保證每個(gè)像素點(diǎn)均有一個(gè)最佳閾值,這樣才能使得算法具有良好的魯棒性。
(2)算法性能評價(jià)指標(biāo)。本文采用平均精度RMSE作為衡量算法性能的標(biāo)準(zhǔn),該值越小說明算法的精確度越高;同時(shí),也可利用MIC值來評估算法的穩(wěn)定性,即當(dāng)MIC值越大時(shí),表明算法的穩(wěn)定性越好。
(3)圖像分割效果。圖像分割效果主要包括兩個(gè)方面:一是圖像質(zhì)量,二是圖像分割結(jié)果。對于前者而言,可以從兩幅圖像之間的相似程度來判斷,如果兩張圖像的邊緣特征基本一致且紋理細(xì)節(jié)相差不大,那么就能夠認(rèn)為它們屬于同一類別。而對于后者來說,則需通過對比兩幅圖像的灰度級和亮度對比度來確定其是否是同一幅圖像。另外,還要考慮到圖像分割時(shí)可能出現(xiàn)的噪聲問題,如背景噪聲、光照變化等因素都會(huì)影響圖像分割結(jié)果。
綜上所述,本文設(shè)計(jì)的基于視頻分析的視覺檢測算法不僅實(shí)現(xiàn)了對目標(biāo)對象的識別,而且取得了不錯(cuò)的應(yīng)用效果。
作者簡介:
王俊鵬(1976-),男,湖北黃岡人,工程師,現(xiàn)就職于紅安卷煙廠,主要研究方向?yàn)闄C(jī)械設(shè)計(jì)和故障維修。
蔡革英(1974-),男,湖北黃岡人,現(xiàn)就職于紅安卷煙廠,主要研究方向?yàn)闄C(jī)械維修。
韓梅(1992-),女,湖北黃岡人,學(xué)士,現(xiàn)就職于紅安卷煙廠,主要研究方向?yàn)橘|(zhì)量管理。
參考文獻(xiàn):
[1] 李博. 基于視覺分析的物流傳送帶表面缺陷檢測與定位系統(tǒng)研究[D]. 北京: 北京交通大學(xué), 2020.
[2] Wen C Y, Chiu S H, Hsu W S, et al. Defect segmentation of texture images with wavelet transform and a co-occurrence matrix[J]. Textile Research Journal, 2001, 71 (8) : 743 - 749.
[3] CHEN M, DAI S. Analysis on image texture based on gray-level co-occurrence matrix[J]. Communications Technology, 2012(2): 108-111.
[4] 孔偉鑫. 基于全硬件的視頻圖像信號的二值化處理和邊界坐標(biāo)值存儲[J]. 電子世界, 2014.
摘自《自動(dòng)化博覽》2024年4月刊