久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 嵌入式系統 > 設計應用 > 軟硬結合的智能視覺讓機器人行動更靈敏

軟硬結合的智能視覺讓機器人行動更靈敏

作者: 時間:2016-12-20 來源:網絡 收藏
為了讓機器人更好地與其周圍的事物進行互動,并靈活地移動,機器人必須能夠看到并辨別其周圍的環境。經濟高效且功能強大的視覺處理器(通過深度辨別圖像傳感器進行數據傳輸,并采用極具魯棒性的軟件算法)正在使人們盼望已久的自適應機器人成為現實。

機器人,這一長期出現在科幻世界和航運產品文檔中的事物,被描述為能夠幫助人類從呆板、單調和難以忍受的工作中釋放出來,并利用其高速度及高精度的特點提升工作效果。無論是可完成吸塵、地毯清洗,甚至排水溝的清潔工作的第一代自主消費機器人系統,或是多種類型的生產環境下機器人的使用正不斷增長,都可以說明上述觀點(圖1)。

newmaker.com

newmaker.com
圖1:為消費者量身定制的自主產品(a)和工業制造系統(b)是眾多可以通過視覺處理功能而得到增強的機器人中的一部分。

然而第一代消費類機器人采用了相對粗糙的方案來定位并感知其周圍環境。這些基本技術包括由紅外線發射器組成的人造壁壘,它可與內置在機器人當中的紅外線傳感器進行協作,從而防止機器人從樓梯上滾下或游蕩到另一個房間。當自主機器人撞到了不可移動的物體時,震動傳感器可通知機器人,讓機器人不再繼續前進。而更先進的繪圖功能設計甚至讓機器人不必再次回到這個特殊的位置。與人類的工作方式相比,機器人的工作不必考慮體力因素、更加快捷,并且更加準確,但機器人成功的前提是讓來料到達固定的方向和位置,因此提升了制造流程的復雜性。來料部件的位置及方向出現任何偏離都將導致裝配的失敗。

人類用眼睛(以及感覺)和大腦對其周圍的世界進行辨識和定位。從理論上講,采用攝像頭組件、視覺處理器和各種軟件算法的機器人系統也應該可以做到。但縱觀歷史,這樣的圖像分析技術通常只有在復雜并且昂貴的系統中才能找到。但數字集成電路在成本、性能和功耗方面的進步,為視覺功能使用在多樣化和高容量的應用上鋪平了道路,其中包括機器人實現的功能越來越多。雖然機器人在功能實現方面仍然面臨著諸多挑戰,但與以往相比,今天已經可以更加輕松、快速、經濟高效地解決這些問題。

軟件技術

開發出可根據視覺適應其環境的機器人系統需要采用電腦視覺算法,該算法可將一個或多個圖像傳感器中的數據轉換成該環境的可執行信息。機器人的兩個常見任務分別是識別外部目標和方向,并決定機器人的位置和方向。許多機器人可與一個或多個特定目標進行互動。對于情境自適應機器人而言,必須能夠檢測到那些在未知地點和方向的目標,并且還要了解到這些目標很可能會移動。

攝像頭每秒產生上百萬像素的數據,從而形成了一個肩負著沉重處理負擔的有效載荷。解決該問題的一種常見方法是檢測這些多像素的特征,如視頻數據每一幀的角、點、邊或線(圖2)。

newmaker.com
圖2:完整處理二維或三維機器人視覺傳感器的原始輸出涉及四個主要階段,
每個階段都有自己的獨特性并受其處理要求的制約。

這種像素到特征的轉換可使在視覺處理管道的這個特殊階段的數據處理需求降低一千倍或更多;上百萬的像素降低成了上百個特征,機器人就可以高效地對目標進行識別,并確定其空間特征(圖3)。

newmaker.com
圖3:視覺處理器可以集成多種類型的內核,以滿足每個處理階段的獨特需求。

目標檢測首先包括采用機器學習或其他算法與多個特征相結合。然后,通過利用這些特征的數據庫(該數據庫根據特定目標在不同角度和方向的大量已采集圖像生成),用戶可以采用分類器算法運行并訓練機器人正確地識別每個新目標。最有名的目標檢測算法之一是Viola-Jones framework,它采用類Haar的特征和大量Adaboost分類器。該算法非常擅長于識別臉部,也可經過訓練來識別其他常見目標。而基于機器學習算法的一大缺點是:他們需要大量的訓練數據集,才能準確地檢測目標。

通過特征來確定目標方位需要一種像RANSAC (隨機抽樣和均測)那樣的基于統計的算法。該算法采用一組特征來模擬一個潛在的目標方向,然后確定多少其他特征適合該模型。具有最大數量匹配特征的模型對應于被正確識別的目標方向。為了檢測移動目標,用戶可以將特征識別與跟蹤算法相結合。一旦一組特征正確地識別了一個目標, KLT(Kanade-Lucas-Tomasi)或卡爾曼濾波等算法將在視頻的幀之間跟蹤這些特征的運動軌跡。無論方向和阻塞如何改變,這些技術都是非常可靠的,因為他們僅需要跟蹤一組最初特征便可成功。

上一頁 1 2 下一頁

評論


技術專區

關閉