「自驾车智慧之眼」深耕八年有成 嵌入式AI物件辨识系统技术领先国际

2019-06-12
  • A
  • A+
  • A++

「自驾车智慧之眼」深耕八年有成 嵌入式AI物件辨识系统技术领先国际

(照片左起为科技部工程司徐硕鸿司长、科技部许有进次长、交通大学郭峻因教授。图由 科技部 提供)

 

AI人工智慧与自驾车是目前全世界两大热门研究领域,自驾车更是AI人工智慧技术的重要应用领域,预估2025年全球自驾车相关产值上看420亿美金。在科技部的经费补助之下,国立交通大学电子研究所郭峻因教授团队结合AI人工智慧与自驾车等两大热门研究领域,研发「自驾车智慧之眼-嵌入式AI物件辨识系统」技术深耕八年有成,研究成果超越国际研究水准,自105年来已获得国内28家厂商青睐,进行59件产学合作、技术移转与技术谘询,产学效益丰硕。


自动标记工具(ezLabel)获AUDI Innovation Award两项大奖

AI人工智慧聪慧如人,可以替人类分析与辨识影像内的各式物件,这些智慧归功于由人类为AI标记好的影像教材资料、复杂的软体演算法及强大的硬体计算能力。郭教授团队目标藉由分析影像实现自驾车/进阶驾驶辅助系统(ADAS),成功开发嵌入式电脑视觉深度学习技术,透过快速自动化标记工具,产生大量供AI人工智慧学习的资料库,搭配团队开发的即时软体演算法,降低了AI电脑视觉所需之运算平台成本,无需昂贵的GPU运算平台。郭教授表示,计画团队开发出全世界第一套快速视讯资料自动化标记工具(ezLabel 2.0),用来标记并准备供AI学习的资料,其标记效率超过目前现有手动资料标记工具达10-15倍以上,并获得于AUDI汽车所主办之第一届臺湾AUDI Innovation Award两项大奖,已获得国内多家厂商进行试用,迴响相当不错。此外,郭教授团队已经建置超过1,500万笔适合臺湾地区之自驾车影像资料库,这些资料有助于开发适合臺湾地区之AI自驾车物件辨识技术。


 

嵌入式深度学习模型可侦测200公尺外车辆,超越现有技术4倍

在高精度嵌入式AI深度学习演算法开发上,郭教授团队开发出最远可侦测超过200公尺外车辆的嵌入式深度学习演算法,超越现阶段文献标竿演算法(YOLO v2) 4倍,且在运算复杂度相当下,准确度高于YOLO v2约10% mAP(平均准确度),可于 nVidia自驾车平台 (DRIVE-PX2)上即时运算,适用于各式天候,非常适合自驾车/ADAS应用。另外,郭教授团队也开发出低功耗适合嵌入式SOC应用之AI深度学习物件辨识演算法(NCTU SSD lite),在相同准确度下其模型大小仅为YOLO v2的7%,运算复杂度仅为 YOLO v2模型的 27%,可于 TI TDA2X 与国内厂商所研发的车规AI 晶片(iCatch V37)上达到即时物件侦测运算效能。另外,郭教授团队结合物件侦测与物件分割之深度学习技术,针对自驾车应用开发出多重功能ADAS系统,可同时支援各式ADAS功能,包含LDWS/FCWS/RCWS/ACC/AEB/BSD等,并可于嵌入式系统上实现。

 

首创深度学习行为预测技术(以预测后方车辆3秒内是否超车)

郭教授团队将深度学习技术延伸应用于物件行为预测甚至驾驶控制,开发出全球首见可预测后方车辆(汽车或机车)是否超车之深度学习行为预测技术,于行车时可准确预测后方车辆于未来3秒钟是否超车,可作为车辆驾驶人第三只眼睛,守护行车安全。


郭教授团队所产出之嵌入式AI自驾车快速资料标记工具、自驾车图资、物件侦测与行为预测深度学习技术之产业应用潜力相当大,目前合作厂商已达28家,未来潜在的合作厂商包含AI晶片公司、车电系统公司与自驾车图资公司等。

 

 

公告时间:2019/06/12
新闻来源:https://www.most.gov.tw/folksonomy/detail?subSite=main&article_uid=f6885cd9-67d9-40a8-9807-13675b52f9e4&menu_id=9aa56881-8df0-4eb6-a5a7-32a2f72826ff&l=CH&utm_source=rss

 

 

资讯来源:科技部

  • 本文评论:
分享: