<legend id="axlin"><track id="axlin"></track></legend>

        <cite id="axlin"><rp id="axlin"><pre id="axlin"></pre></rp></cite>
          精品无码久久久久久久久久,精品国产美女福到在线不卡,亚洲成人www,亚洲AV无码破坏版在线观看,国产精品综合一区二区三区,久久亚洲精品11p,风韵丰满妇啪啪区老老熟女杏吧,国产精品免费久久久免费
          熱搜: 佳士科技  irobot  工業(yè)機器人  機器人  ABB  機器人產(chǎn)業(yè)聯(lián)盟  發(fā)那科  機械手  庫卡  碼垛機器人 

          計算機視覺技術幫助機器人更好抓取透明物體

             日期:2020-07-16     來源:cnBeta.COM    作者:wei1996     評論:0    
            據(jù)外媒報道,為了看到并抓住物體,機器人通常會使用像微軟Kinect這樣的深度感應相機。盡管這種相機可能會受到透明或發(fā)光物體的影響,但來自卡耐基梅隆大學的科學家們已經(jīng)開發(fā)出了一種解決辦法。深度感應相機的功能是將紅外線激光束射到物體上然后測量光從物體的輪廓反射回來及再反射至相機上感應器所需要的時間。
           
           
            雖然這個系統(tǒng)在相對暗淡的不透明物體上工作得很好,但它在透明物體上卻存在問題,因為大部分光線都能穿過透明物體,或是閃亮的物體會散射反射光。這就是卡耐基梅隆系統(tǒng)發(fā)揮作用的地方,他們利用了一個彩色光學相機,其也可作為深度感應相機。
           
            該套裝置利用了一種基于機器學習的算法,該算法能在同一不透明物體的深度感知和彩色圖像上進行訓練。通過比較兩種類型的圖像,該算法學會了推斷彩色圖像中物體的三維形狀,即使這些物體是透明的或會發(fā)光。
           
            此外,雖然只有少量的深度數(shù)據(jù)可以通過直接激光掃描這類物體來確定,但收集的數(shù)據(jù)能被用于提高系統(tǒng)的準確性。
           
            在目前進行的測試中,跟只使用標準深度傳感相機相比,使用新技術的機器人在抓取透明和發(fā)光物體方面表現(xiàn)要出色得多。
           
          David Held教授表示:“雖然我們有時會錯過,但在很大程度上它做得很好,比以前任何抓透明或反射物體的系統(tǒng)都要好。” 
           
           
          更多>相關資訊
          0相關評論

          推薦圖文
          推薦資訊
          點擊排行
          ?
          主站蜘蛛池模板: 大香网伊人久久综合网2020| 亚洲中文字幕无码av永久| 99久久国产综合精品女同| 久久精品国产99国产精品严洲| 国产一二三五区不在卡 | 国产成人免费永久在线平台| 国产成人综合亚洲第一区| 国产精品综合一区二区三区 | 久久午夜夜伦鲁鲁片免费无码| 国产宅男宅女精品A片在线观看| 麻豆精品一区二正一三区| 在线精品国精品国产不卡| 成年女人免费碰碰视频| 国产黄大片在线观看画质优化| 亚洲国产欧美在线人成AAAA| 亚洲欧美日韩在线不卡| 亚洲国产日韩精品久久| 中文字幕日韩精品国产| 国产日产亚洲系列av| A级毛片100部免费看| 一本色道久久综合熟妇人妻 | 亚洲香蕉av一区二区蜜桃| 蜜臀av无码一区二区三区| 熟妇人妻一区二区三区四区| 最新亚洲人成网站在线观看| 国产精品亚洲国际在线看| 夜鲁鲁鲁夜夜综合视频| 视频一区视频二区卡通动漫| 亚洲精品无码久久一线| 国产极品美女高潮抽搐免费网站| 亚洲国产激情一区二区三区| 精品一区二区中文字幕| 国产良妇出轨视频在线观看 | 中国女人内谢69xxxx| 国产熟女丝袜av一二区| 国产一区二区三区小说| 高清免费毛片| 在线国产精品中文字幕| 四虎永久精品免费视频| 国产精品日韩av一区二区 | 日本三级理论久久人妻电影|