臺灣參與人工智慧跨國研究取得重大突破!本院資訊科學研究所廖弘源特聘研究員、王建堯博士後研究員,與俄羅斯開發者博科夫斯基(Alexey Bochkovskiy)共同研發出目前世界上最快最準的物件偵測演算法(YOLOv4),平均正確率(Average Precision, AP)達43.5%,比前一代(YOLOv3)提高10%,更一舉超越其他種影像辨識技術。同時也運用該技術與義隆電子合作開發「智慧城市交通車流解決方案」,目前已佈設於桃園、新竹,在路口就能進行交通影像辨識及車流分析,為我國智慧城市發展往前邁出一大步。

YOLOv4是一種利用人工智慧執行即時物件偵測(Object Detection)的技術,能偵測物件、追蹤及判斷,可應用於交通車流計算、自駕車研發、工廠瑕疵檢測、醫療影像分析、五官定位等。自今(109)年4月以開放原始碼免費釋出後,全世界已有數萬人測試應用;廖弘源研究團隊亦於今(2)日記者會中現場操作示範此項技術,說明物件偵測演算法如何識別圖片或影像裡的物件。

過去訓練電腦識別一張照片裡的物件,須執行幾千次的識別指令。YOLO(註一)是「You only look once」的簡稱,顧名思義,只需訓練一個網路模型,電腦只要看一眼,就能判斷照片或影像裡的物件類別與位置,大大提升辨識速度。自2015年推出第一代版本後(註二),深受開發者喜愛,為電腦視覺(Computer vision)技術立下重要的里程碑。改良後的YOLOv4性能更強大,經微軟開源影像資料庫(MSCOCO)(註三)測試,辨識物件的速度及精確度皆大幅提升,堪稱是目前世界上辨識速度最快、最精準的物件偵測演算法。

王建堯說明,物件偵測技術追求速度和精準,二者缺一不可,卻難以兼備。他從去(108)年開始改良YOLOv3,一改過去多採「降速求控球」,即降低或犧牲速度來換取準確度提升;轉而從YOLO所運行的人工智慧模型著手,改善網路識別物件的回傳機制,優化傳輸路徑,以減少演算法的計算量,因此能增加運算內容的多樣性及運算速度(註四)。

他的成果引起YOLO網路架構維護者博科夫斯基(Alexey Bochkovskiy)的興趣,主動聯繫王建堯,雙方自去(2019)年11月攜手合作。經過五個多月日以繼夜地開發,今(2020)年4月宣布完成新一代的YOLOv4演算法。

深度學習演算法的計算複雜度高,YOLOv4也突破過去的技術限制,擁有輕盈的系統架構、高效率的演算法等優勢,使用一般的圖形處理器(GPU)就能運算,「像是用算盤打出計算機的速度!」王建堯表示,團隊的開發初衷,即希望打造一個親民、好用的偵測系統,降低硬體成本,讓每個人都能以此技術創造更多有趣的應用。

廖弘源指出,YOLOv4使用的關鍵技術源自該團隊承接科技部人工智慧專案計畫,與義隆電子合作開發的「智慧城市交通車流解決方案」。為建置智慧車流分析系統,需要結合影像感測器和電腦視覺,在每個路口就能即時偵測車輛、停等車列及車速。團隊藉由著手改良YOLO演算法,發展更輕量、精準、快速的物件偵測核心技術,以實際應用於交通影像辨識。

YOLOv4演算法已實際應用於「智慧城市交通車流解決方案」計畫,圖攝於桃園。

YOLOv4自今年4月在Github(原始碼代管平台)公開後,任何人都可免費使用,在電腦視覺領域裡引起全球廣泛討論,各式自製的教學影片、各種應用層出不窮。廖弘源表示,在臺灣,以YOLOv4技術開發的智慧車流分析系統,目前已佈設於桃園、新竹等地,全世界已有許多研發單位以此為基礎,發展相關的系統或產品。例如在COVID-19防疫期間,可結合YOLO辨識物件的功能,用來偵測未戴口罩者,或是計算人們有無保持社交距離等,應用在許多產業和產品上。

本計畫由本院及科技部支持,在2日記者會中,本院周美吟副院長、科技部前瞻司楊琇雅司長、科技部臺灣大學人工智慧研究中心陳信希主任、杜維洲執行長,以及義隆電子葉儀皓董事長、義碩智能股份有限公司胡中平副處長等人共同出席,見證由臺灣團隊參與研發的關鍵技術,為電腦視覺領域帶來突破性成果。

本論文預印本已於今年4月發表於《arXiv》網站:https://arxiv.org/abs/2004.10934

(資訊科學研究所)


(註一)YOLO(You only look once,簡稱YOLO)是關於物件偵測(object detection)的類神經網路演算法 ,可框出影像中的每個物件,進行物件偵測、追蹤及判斷。
(註二)第一代YOLO的主要開發者為Joseph Redmon,他一直開發至第三代YOLOv3,卻於今年2月宣布退出電腦視覺領域研究。
(註三)由微軟建立的開源影像資料庫(Common Object in Context,簡稱COCO),提供龐大的圖片、物件等,提供技術人員進行物體偵測和影像分割等測試。
(註四)此技術已於去年發表,論文題目《CSPNet: A New Backbone that can Enhance Learning Capability of CNN》: https://openaccess.thecvf.com/content_CVPRW_2020/html/w28/Wang_CSPNet_A_New_Backbone_That_Can_Enhance_Learning_Capability_of_CVPRW_2020_paper.html