<video id="tfwn6"><noframes id="tfwn6"></noframes></video>

    1. <u id="tfwn6"></u>
        <source id="tfwn6"></source>

      1. <input id="tfwn6"></input>
    2. <tt id="tfwn6"><small id="tfwn6"></small></tt>

        您所在的位置:紅商網·新零售陣線 >> 好公司頻道 >> 正文
      CVPR 2019: 光電+AI!合刃科技提出非視距物體識別技術

        【導讀】

        試想一下,此時你正戴著耳機,全神貫注的“吃雞”,馬上就到了拐角處,你習慣性的放慢了腳步……你是一只老鳥,沒有聽到聲響反而讓你變的更加警覺,會不會在轉角側正有一個人在潛伏著,默默地注視并等待著你?要是有個外掛可以識別盲區該多好啊……然而,使用外掛是違規的,不過這項黑科技在現實中已經存在了。

        作為計算機視覺領域的頂級會議,今年的CVPR收錄了一篇于非視距物體識別技術的亮點論文,作者來自合刃科技,讓這個場景可能成為現實。這篇論文介紹了基于相干光的散斑特性來實現非視距物體識別的技術。

        【基于相干光散斑的非視距物體識別】

        在自動駕駛、安防監控及其他領域,遮擋物和非視距成像區域的目標監測一直是個難以解決的問題,比如攝像頭無法捕獲被遮擋角落的危險行為,自動駕駛的傳感器無法實時探測到拐彎處車輛和行人,無法感知被前方車輛遮擋處的行人突然橫穿危險行為等。

        而這篇論文中提出的非視距物體識別技術,就是利用光的相干性從微弱的反射光信號中獲取光場相位信息,結合深度學習的人工智能算法,實現對障礙物后面的物體的實時識別。相干光的傳輸矩陣具有幺正性,經粗糙表面反射后干涉形成的散斑分布包含了光的相位信息,可以極大地降低矩陣求逆的難度;結合深度神經網絡對散斑圖像進行采集訓練分析,可以實現對被遮擋物的高精度識別。

        研究人員通過仿真和實驗驗證了障礙物后面的LCD數字變化的實時讀取。

        在普通房間中放置了一塊小LCD屏幕,實時顯示數字變化,在旁邊放入視覺傳感器,同時面對擋板,并在他們之間加上不透明的障礙物。視覺傳感器只能采集到擋板上漫反射的光。

        研究人員采用了一臺兩百萬像素的CMOS相機完成這個實驗,采購成本不超過2萬人民幣,遠低于采購用于探物的脈沖激光相機所需成本。

        LCD屏幕上實時顯示的是經典的MNIST手寫數據集,當攜帶MNIST數字信息的相干光經過擋板漫反射后,形成散斑圖。如下圖所示,分別是數字0-9及其對應的散斑圖。由于散射和干涉的作用,所有的圖像都布滿散斑。

        所有的數據(散斑圖)經過預處理后結合AI算法,實現障礙物后面的數字變化的實時識別。散斑圖像的任一部分都包含了整個被識別物體的信息,因此,即使是散斑圖的很小的一個部分,也可以用來進行物體識別。也就是說,散斑圖像不同大小的裁剪和圖像的不同位置,并不影響最終的識別效果。

        為充分探尋該方法的適用性,研究人員還針對不同場景進行了實驗。包括經過一面墻反射的散斑識別,經過兩面墻反射的散斑識別,經過旋轉墻反射的散斑識別,以及光源和視覺傳感器位于同側的散斑識別。所有實驗的平均識別準確率高達91%以上。如下表是每個實驗的具體識別率。

        數字還遠遠不夠,該論文還驗證了障礙物后的人體姿態識別。如下圖為12個人的同一個姿態對應的各自散斑圖,可以看出,人體姿態識別包含了更多的復雜特征。即使是同一個動作,不同的人也會有顯著差異。但是通過相應的AI算法,可以從散斑圖像中提煉出隱含的相同特征,從而實現姿態的識別。

        下圖為同一個人展示的10種不同的姿態,及其對應的散斑圖。區分不同散斑圖的特征,可以實現不同姿態的識別。

        通過深度學習的AI算法處理,以11個人的姿態作為訓練樣本,剩下的1個人做測試,遍歷12個人(12次實驗),得到的平均識別準確率為78.18%,高于現有的3姿態識別的論文報道的準確率76.6%。10個不同姿態的混淆矩陣如下:

        該姿態識別的研究,在安防監控領域有廣泛應用場景。比如識別被遮擋角落的危險行為,包括打架斗毆或其他有危險性的動作、軍事及反恐行動中環境隱藏偵查,以及消防救援時獲取屋內被困人員的信息等。

        被遮擋角落的危險行為檢測示意

        【相關研究】

        該論文的方法跟其他的非視域識別相比,有不少優勢。

        比如熟知的TOF(Time of Flight)飛行時間法。雖然TOF方法對非視域物體的重構精度能達到厘米量級,但是在實際應用中需要昂貴的設備,比如單光子探測器和納秒脈沖激光(價值幾十萬人民幣)。而這篇論文的方法只需要普通激光器和CMOS圖像傳感器,具有普遍適用性。

        另外,合刃科技此次論文中采用的是非成像識別方法,比成像識別具有更好的簡易型和魯棒性,無需昂貴的成像設備,算法中也無需復雜且耗時的圖像重構,從而具有更好的適用性和普遍推廣性。TOF方法一次數據采集和圖像重建需要數分鐘,但是該論文的方法用時不到一秒。當然,該論文的方法也有需要改進的地方,比如外界干擾(振動等)可能引起散斑圖的漂移,從而降低識別準確率。另外,經過多次漫反射后,光強會減弱,從而降低信噪比和識別準確率。因此,為提高非視距物體識別效果,后續需要更穩定的硬件和更優化的深度學習算法。

        【未來】

        在此次論文提出的非視距物體識別技術之外,合刃科技還致力于全息全頻機器視覺系統的研發和商業化。

        全息全頻機器視覺系統從數據采集端進行重新設計,應用了先進的集成光學技術,顛覆性的對CMOS圖像傳感器進行納米結構升級,結合AI算法,軟硬件一體化采集多個維度的光學信息,實現傳統視覺傳感器和人類視覺所無法完成的多維度全息圖像信息采集。全面提升視覺識別性能,擴展多種特殊應用場合。

        可以進行障礙物體識別、雨霧環境等惡劣環境的物體識別、黑色、白色等背景色的物體識別、不明顯的瑕疵識別,解決拍照遭遇反光、對玻璃的無法拍照、光譜不夠多等目前計算機視覺領域的常見問題,技術將應用于智能制造、安防、無人駕駛輔助駕駛、智能穿戴設備等多個領域。

        光是一種電磁波,有很多的特征物理量,包含相位、光強、光譜、偏振、方向等信息。傳統的計算機視覺僅用到了光強信息,這就導致了原本豐富信息其實并未得到充分利用,這也將最終影響到識別的邊界和效果。

        而此次論文提出的非視距物體識別技術,在此基礎上僅增加了對相位信息的收集與利用,便能夠創造出如此豐富的應用場景,解決多個領域里的難點痛點。隨著我們對“光”的進一步探索,對更多的物理量進行獲取與計算,必然能打破識別邊界。

        光電+AI,這個世界遠比我們能夠看到的更加豐富多彩。

        【傳送門】

        可閱讀論文原文繼續了解。

        論文Direct Object Recognition Without Line-of-Sight Using Optical Coherence

        地址:http://arxiv.org/abs/1903.07705

        作者:Xin Lei, Liangyu He, Yixuan Tan, Ken Xingze Wang, Xinggang Wang, Yihan Du,

        Shanhui Fan, Zongfu Yu

      搜索更多:






      果博登陆 南山娱乐app 南山娱乐 登录 摩臣2娱乐 蚂蚁娱乐 龙猫娱乐 巨龙娱乐66 汇添富娱乐平台 大众娱乐下载 果博网站 果博登陆 果博三合一总部 gb果博安卓版下载 果博 缅甸果博官方网站 缅甸果博东 果博 缅甸28gobo 云彩娱乐 至尊宝娱乐 易盛娱乐2app下载 亿贝娱乐 亚州星娱乐 亚米娱乐登录 新鑫鸿娱乐 无极娱乐1注册 万汇娱乐 奇彩娱乐 牛彩娱乐登录