【瑕疵檢測與水蜜桃自動包裝】

王柏鈞
3 min readApr 16, 2020

--

家裡有種水蜜桃,大學讀電機時就有想要自動化包裝水蜜桃的工作,因為這個任務真的很麻煩,每一顆都是那麼嬌貴,然後被蚊蟲叮咬的痕跡又只有那麼一點點。

不過哪怕學了AI,自動包裝水蜜桃這件是看起來也是遙遙無期。今天來陳述一下原因,順便科普瑕疵檢測的專案如何進行。

「瑕疵檢測的專案是如何進行的」

瑕疵檢測在AI上的的目標,是對待測物的影像進行物件偵測(或有時候是語意分割),偵測是否包含瑕疵。

現在主流的實現方式大概是VGG16、MobileNetV3,或是比較輕量的YoloV3或MobileSSD這幾種模型吧。

但要訓練一個模型很容易,隨便一個國中生丟給我,我4個小時之內一定能讓他自己train自己的玩具,現在API太多太方便了。但要在測試時能夠順利通關卻是相當不容易。尤其是在瑕疵檢測的專案上。

「為什麼瑕疵檢測在測試的時候不會過關?」

是這樣的,待測物通常我們會讓他拍的非常清晰,但即使如此,瑕疵依然是非常小的。但有賴於偉大的LeCun大神發現了CNN這個方法,我們可以很有效的萃取出瑕疵的特徵,只要畫質清晰沒有太多噪點(或者用濾波器濾除噪點),基本上人眼看的出來的瑕疵,用上述模型幾乎都能。

但測試的時候不一樣。

訓練的時候,我們是把電腦中的影像丟進去模型訓練,通常驗證也是。但測試時,我們需要重新拍一張照片,再讓模型去驗證,但這時候的光線或環境可能與收集訓練資料時不同,這時候哪怕是微小的光影變化,也會大幅影響CNN的判別。因為這是他沒遇到過的情況。

所以做瑕疵檢測時,創造一個光源穩定的環境非常非常重要。

「那有了光源穩定的環境就可以辨識水蜜桃的瑕疵嗎?」

老實說水蜜桃的瑕疵很好辨認,黑溜溜的,跟粉紅色的外皮截然不同,但問題不再於辨識。最大的問題在於,要如何自動的輸送水蜜桃,水蜜桃不同於福壽或紅玉,他是非常柔軟的,你當然可以把它放在鋪了海綿的輸送帶上,但你要怎麼把它放上去?

用手?那你手拿起來的時候順便看一下不就好了?

所以我們還需要一個可以拿起水蜜桃,而不會對水蜜桃造成傷害的機械手臂或其他機構,這還是相當困難,而且價格不斐。

這就是瑕疵檢測專案最大的難點。

通常,瑕疵檢測實現的難度都不在於AI(也許收集、標記資料會是個負擔),而是機構。感測器要裝在哪裡,攝影機要在哪裡拍攝,光源如何控制,發現瑕疵後如何處理……很容易就想像到一籮筐的問題。

所以一個AI專案,考慮的永遠不只是AI。或者說,AI專案,也許應該是由AI找出痛點而後開始的專案。

Sign up to discover human stories that deepen your understanding of the world.

Free

Distraction-free reading. No ads.

Organize your knowledge with lists and highlights.

Tell your story. Find your audience.

Membership

Read member-only stories

Support writers you read most

Earn money for your writing

Listen to audio narrations

Read offline with the Medium app

--

--

No responses yet

Write a response