目前位置: 首頁 > 可移轉技術資訊
:::

可移轉技術資訊

年度
112
領域
服務創新
執行單位
工研院院本部
可移轉技術名稱
Event to Frame影像還原技術
計畫名稱
工研院創新前瞻技術研究計畫
技術規格
推算時間: 20 FPS (ImgSize:800*832, P100 GPU)、還原品質: LPIPS: 0. 185 (E-COCO dataset)、模型尺寸: 140KB
技術成熟度
實驗室階段
潛力預估
Event相機的低延遲、高動敏感、稀疏資料的特性,可輔助傳統RGB電腦視覺技術運用自駕車、機器人之物件偵測、避障等即時應用
可應用範圍
行車/飛行避障、 監控設備和低光環境拍攝
所需軟硬體設備
硬體:嵌入式硬體 or 一般具備GPU之伺服器、軟體:深度學習Framework(Pytorch、TF)
須具備之專業人才
深度學習
技術摘要(中)
Event相機相較傳統RGB相機有著更廣的曝光範圍、更高的動態敏感度。然而在與既有DNN技術應用銜接時,會需要將Event資料轉回Frame資料的方法。本技術開發之Event to Frame影像還原模型,具備輕量化優點,可在保持於一定影像還原品質下,於嵌入式硬體達成及時運算之效果
技術摘要(英)
Event cameras have a wider exposure range and a higher dynamic sensitivity than RGB cameras. However, we still need a method to correctly interpret the visual field for the following downstream applications. In this work, we develop an NN model for event-to-frame image reconstruction. While designed to be lightweight, this model has a formidable accuracy compared to state-of-the-art benchmarks. As a result, this model has better potential in the case of real-time AIoT applications.
聯絡人員
陳昭偉
電話
03-5913755
傳真
03-5913755
電子信箱
更新日期:2024-08-15

回上一頁 回首頁