跳到主要內容

科技大觀園商標

分類項目
Menu

人工智慧於飛行載具上的應用:無人機、民航機發展重點有何不同?

111/12/30 瀏覽次數 4784
圖一

圖一:國立陽明交通大學電機工程學系副教授暨數位發展部政務次長闕河鳴表示,未來無人載具透過電腦視覺技術協助辨識與分析監視影像的可觸及範圍可更加擴張,民間與政府應用效益性皆不容小覷。(影像來源:Unsplash)

無人載具科技興起,不僅為民眾生活帶來便利,也逐漸成為國際發展的趨勢,例如自駕車可解決偏遠地區運輸困境,或利用無人機進行大規模攝影、噴灑農藥,達到輔助救援、研究等成果。

且近年來,無人載具的應用開始揮別以往娛樂、軍用場域,逐漸往商用邁進。隨著人工智慧演算法及邊緣運算技術的演進,可應用範圍日趨擴張,舉凡物流、空拍、工業巡檢等方面,皆有長足的進展。

對此,國立陽明交通大學電機工程學系副教授暨數位發展部政務次長闕河鳴表示,由於電腦視覺(Computer Vision)、人工智慧演算法(Artificial Intelligence Algorithm)及邊緣運算晶片(Edge Computing Chip)的發展,再加上 5G 技術的落地,未來無人載具透過電腦視覺技術協助辨識與分析監視影像的可觸及範圍可更加擴張,以協力民間或政府組織更好地進行大範圍廠區、農地、工程建案的監測與維運,無人機深入商用領域目前已有相當多實力證實,其可行性與效益性皆不容小覷。

智慧無人機有何突破與應用潛力?

談及現人工智慧發展如何輔助無人載具應用之發展?闕河鳴指出,無人載具的特色在於彈性高,可適應多樣地形、環境與產業需求,如在農業方面,目前已有透過無人機偵測農產品健康程度,甚至近一步噴灑農藥的應用出現,如若無人機可做到直接以邊緣運算的方式,於 Edge 端直接辨識、分析且反應,則能大幅度降低反應時間,即時透過無人載具對農產品進行適當的處置。

然而,從研究到落實,目前人工智慧技術應用於無人載具之發展有何限制?闕河鳴直言,如同自駕車在「辨識」上仍存在盲區,無人載具由於需適應地形、地貌、環境與維度相較自駕車更為複雜,因此在資料搜集、精確辨識上仍有些許限制,即便人工智慧演算法的進步能快速解決資料搜集不足的問題,然而由於無人機涉及的維度超越平地的四個向度,面對農、工不同場景及需求亦會面臨截然不同的情況,因而距離穩定的飛行、避障、辨識到分析,仍就有一段不小的鴻溝需要克服。

除此之外,以目前的發展條件來看,無人載具最難克服的技術問題究竟是什麼?闕河鳴認為,飛行器除了相較一般四輪車面臨更為複雜的空間環境外,它更需要透過邊緣運算的方式提升資料辨識與分析的即時性,才能確保即時、精準與安全,因此如何在低功耗、省電的情況下完成邊緣運算,對於其 AI 晶片的研發與設計將會相當大的考驗。

談及應用端實例,闕河鳴指出,目前已有相當多案場採取無人機解決方案,以落實過去人為難以達到的巡檢工作。例如,太陽能案場的飛行巡檢、架空輸電線路巡檢、海岸線變化的定期追蹤等,然而以上案例多半是以無人載具為收集視覺資訊的工具,再將資料傳輸回地端進一步分析。

人工智慧於「民航」的應用,目標在於創造更安全的飛行品質!

除了商業應用,無人機技術在未來還有哪些應用的可能性?闕河鳴強調,國科會目前針對邊緣 AI 的研究已有初步成果,臺灣未來在無人機領域的優勢在於強大的軟體工程實力、晶片設計製造的堅韌實力,反之,在無人機體的製造上,則相對不具優勢。

至於臺灣未來在全球無人機產業發展的趨勢上占有何優勢?闕河鳴不假思索地提到,臺灣確實在 AI 晶片方面相較其他競爭對手更具發展條件。

展望未來人工智慧於「民航機」上可能的發展,闕河鳴指出,民航機在高空飛行的自駕已有長年的發展,在飛行狀況相對穩定的情況下,無需人為介入,民航機可以在保證安全無虞的狀況下自駕,因此談及人工智慧技術於民航機領域的未來發展,最主要討論的便是「起飛」和「降落」兩段。然而正如同現今 Level 3 以上註1 自駕車存在的責任歸屬與法律爭議,人工智慧技術能夠多大程度地協助飛行也同樣具有倫理及安全性上有待商榷之處。

即便如此,闕河鳴仍樂觀看待,他認為,人工智慧技術之於民航系統,其目的應是在於如何提升飛行安全,在有電腦的輔助判斷之下,如何協助機師在手動操作,抑或是緊急狀況之下能做出更為精準的行動,以確保飛安無虞,是人工智慧技術之於民航領域應用相當重要的一環。


註1:
(一)根據美國汽車工程師協會(SAE)將自動駕駛分成 6 大 Level:等級0~等級 5,其各 Level 分別為:等級 0(SAE Level 0,無自動化) 、等級 1(SAE Level 1,輔助駕駛) 、等級 2(SAE Level 2,部分自動) 、等級 3(SAE Level 3,有條件自動) 、等級 4(SAE Level 4,高度自動) 、等級 5(SAE Level 5,完全自動)。

資料來源

●    闕河鳴口述採訪整理
●    Ying-Cheng Lu, Ching-Wen Chen, Ching-Chun Pu, Yang-Tung Lin, Jyun-Kai Jhan, Shu-Ping Liang, Wei-Lun Tseng, Chi-Shi Chen, Chao-Yang Yu, Hsiu-Wen Wang, Hong-Han Shuai, Herming Chiueh, “An 176.3 GOPs Object Detection CNN Accelerator Emulated in a 28nm CMOS Technology,” 2021 IEEE 3rd International Conference on Artificial Intelligence Circuits & Systems (AICAS2021), Virtual, June 6-9, 2021.
●    Ying-Cheng Lu, Ching-Wen Chen, Ching-Chun Pu, Yang-Tung Lin, Jyun-Kai Jhan, Shu-Ping Liang, Wei-Lun Tseng, Chi-Shi Chen, Chao-Yang Yu, Hsiu-Wen Wang, Hong-Han Shuai, Herming Chiueh, “Live Demo: An 176.3 GOPs Object Detection CNN Accelerator Emulated in a 28nm CMOS Technology,” 2021 IEEE 3rd International Conference on Artificial Intelligence Circuits & Systems (AICAS2021), Virtual, June 6-9, 2021.

創用 CC 授權條款 姓名標示─非商業性─禁止改作

本著作係採用 創用 CC 姓名標示─非商業性─禁止改作 3.0 台灣 授權條款 授權.

本授權條款允許使用者重製、散布、傳輸著作,但不得為商業目的之使用,亦不得修改該著作。 使用時必須按照著作人指定的方式表彰其姓名。
閱讀授權標章授權條款法律文字

OPEN
回頂部