Cosero[1]是德國波恩大學(xué)的Sven Behnke團隊根據(jù)家庭環(huán)境中的日常操作任務(wù)而研制的一款仿人操作機器人(如圖1(a)(b))。機器人底部配備了四輪獨立轉(zhuǎn)向行走機構(gòu),以便在靈活的通過狹窄通道,上部配備了兩個7自由度機械臂已完成擬人的操作,并在夾持器末端裝有紅外測距傳感器已達(dá)到對抓取目標(biāo)的距離探測,在頂端安裝有Kinect相機,以實現(xiàn)對目標(biāo)環(huán)境的3D感知。Cosero通過底盤的激光雷達(dá)進行導(dǎo)航和定位,采用法線估計和場景分割相結(jié)合的方法對目標(biāo)進行3D點云分割,采用無碰撞抓取方法[1]對目標(biāo)物體進行抓取(如圖1(c)(d))。在論文[2]中,作者運用Cosero進行零件分揀搬運實驗,通過2D激光雷達(dá)導(dǎo)航到作業(yè)點,通過RGB-D相機對目標(biāo)進行識別分割,規(guī)劃抓取路徑和抓取姿態(tài)估計(如圖1(e))。在論文[3]中,作者采用深度學(xué)習(xí)方法對目標(biāo)進行姿態(tài)估計,并完成了提壺灌溉,人機交互和使用工具等復(fù)雜任務(wù)(如圖1(f))。Schwarz[4]介紹了Cosero基于深度學(xué)習(xí)方法的目標(biāo)姿態(tài)估計和RGB-D SLAM等感知測量。
機器人的學(xué)習(xí)分為三個部分的軌跡預(yù)測包括示教者的手部運動軌跡、示教者的身體移動軌跡以及被操作物體的運動軌跡
通過2D激光雷達(dá)信息采用Hector SLAM實現(xiàn)機器人對地圖的感知和自主導(dǎo)航規(guī)劃,通過頂部的RGB-D相機采集目標(biāo)物體深度和RGB圖像信息
驅(qū)動系統(tǒng)由4個200W無刷直流電機構(gòu)成,通過50:1的空心軸減速機可以最高達(dá)2m/s的速度在玉米、高粱等農(nóng)作物的地里前進
視頻搜索是涉及信息檢索、自然語言處理(NLP)、機器學(xué)習(xí)、計算機視覺(CV)等多領(lǐng)域的綜合應(yīng)用場景
服務(wù)機器人潛在危險有:電擊、與能量有關(guān)的危險、著火、與熱有關(guān)的危險、機械危險、輻射、化學(xué)危險等
HRI的MTL可以使機器人更輕松,更智能地與新用戶進行交互,即使使用諸如RL這樣的數(shù)據(jù)密集型方法,也可以避免社交交互失敗的不利影響。MTL和多模態(tài)ML已用于自動識別自閉癥譜系障礙(ASD)兒童
從大型仿人機器人整機構(gòu)型國內(nèi)外研究現(xiàn)狀入手,圍繞機器人整機構(gòu)型、關(guān)節(jié)運動特點、伺服驅(qū)動器、減速器、仿真平臺等方面進行深度講解,最后就大型仿人機器人整機構(gòu)型未來發(fā)展趨勢給出自己的見解
智能機器人視覺方面的工作,主要體現(xiàn)在感知、理解、學(xué)習(xí)及推理4個方面,涉及到目標(biāo)檢測、目標(biāo)追蹤、人體姿態(tài)估計、人臉識別、行為識別、推理等技術(shù)
基于康復(fù)機器人內(nèi)部傳感器識別記錄訓(xùn)練過程中的運動學(xué)參數(shù),能夠?qū)崟r定量評估不同的運動模式,還能夠掌握患者是否主動參與訓(xùn)練等情況
「Vision+Ask」的任務(wù)包含視覺問題生成、根據(jù)問題生成查詢、圖像描述等;「Vision+Answer」的任務(wù)包含視覺問答、視覺對話等
對于聯(lián)邦學(xué)習(xí)技術(shù),數(shù)據(jù)應(yīng)用推廣的經(jīng)驗,并深入探討聯(lián)邦學(xué)習(xí)在政務(wù),醫(yī)療,金融,廣告,物流的應(yīng)用價值,以期為數(shù)據(jù)應(yīng)用價值的釋放帶來解讀和參考
DeepTech通過科研數(shù)據(jù)分析、專家訪談等方式洞悉先進計算領(lǐng)域發(fā)展趨勢,探尋具備技術(shù)顛覆性,有商業(yè)化前景的先進計算技術(shù),提煉出 2022 年先進計算技術(shù)及應(yīng)用七大趨勢