近日,上海交通大學(xué)電子信息與電氣工程學(xué)院微米納米加工技術(shù)全國重點實驗室劉景全團隊和上海交通大學(xué)人工智能學(xué)院盧策吾團隊在人機交互領(lǐng)域取得重要進展,相關(guān)成果以“Capturing forceful interaction with deformable objects using a deep learning-powered stretchable tactile array”(使用深度學(xué)習(xí)驅(qū)動的可拉伸觸覺陣列捕捉可形變物體的力學(xué)交互)為題,在國際著名期刊《Nature Communications》上發(fā)表。
研究背景
觸覺感知是獲取環(huán)境信息的重要渠道之一,在人機交互、虛擬現(xiàn)實、遠程醫(yī)療和人形機器人等領(lǐng)域有重要研究價值。對于人形機器人而言,捕捉復(fù)雜操作任務(wù)中手與可形變物體之間的觸覺數(shù)據(jù)并進一步估計手-物狀態(tài)是一個巨大挑戰(zhàn)。為解決上述問題,首先需要借助人機交互界面捕捉人類操作過程,再將經(jīng)驗遷移給機器人。傳統(tǒng)的人機交互識別通常只能生成語義結(jié)果,如識別手勢代表的字母,識別物體的種類和位置。因此,研究一種具有更高維度的精準(zhǔn)、分布式人機交互界面,將有助于動態(tài)捕捉人類操作可形變物體的過程,這對推動人類通用操作能力向機器智能操作的遷移具有重要的研究價值和應(yīng)用潛力。
亮點內(nèi)容
該研究提出了一種全新的視覺-觸覺聯(lián)合記錄和追蹤系統(tǒng)ViTaM(Visual-Tactile recording and tracking system for Manipulation)。該系統(tǒng)配備了具有1152個力感知通道的柔性MEMS觸覺手套,基于正/負拉阻效應(yīng)克服了感知可形變物體時的應(yīng)變干擾問題,實現(xiàn)了精準(zhǔn)、分布式的觸覺感知;同時,該研究通過視覺與觸覺的聯(lián)合深度學(xué)習(xí),重建了動態(tài)的手-物操作狀態(tài),一定程度上促進了智能體在人機交互中的理解能力進步,尤其是在涉及力學(xué)交互的方面,向人類多模態(tài)感知的水平邁近了一步。
圖1 深度學(xué)習(xí)驅(qū)動的觸覺手套可捕捉與可形變物體的力學(xué)交互
該團隊研制的基于正/負拉阻效應(yīng)的復(fù)合式薄膜,通過工藝調(diào)控,可以使得兩種薄膜對所受應(yīng)變表現(xiàn)出方向相反、幅值近似的電學(xué)特性,從而對雙電極的對稱響應(yīng)實時檢測,區(qū)分出傳感器所受的壓力與應(yīng)變,并通過自適應(yīng)校準(zhǔn)輸出電壓與受力的關(guān)系曲線,最終達到對應(yīng)變干擾的主動抑制效果。經(jīng)測試,力測量精度達到97.6%,相較于未校準(zhǔn)時提升了45.3%,這對精準(zhǔn)感知可形變物體的受力具有較強的幫助。
圖2 具有應(yīng)變干擾抑制能力的觸覺手套設(shè)計、制造和測試方法
研究團隊還提出了一種視覺-觸覺聯(lián)合深度學(xué)習(xí)框架,旨在處理多模態(tài)數(shù)據(jù)序列、動態(tài)重建手-物狀態(tài),以及恢復(fù)可形變物體的幾何細節(jié)。該工作在包含剛性體和可形變物體的6類共24種物體上進行了訓(xùn)練和實驗,所有序列的平均重建誤差僅為1.8厘米,表明了該系統(tǒng)在操作不同形變程度的物體時,具有較強的普適性,能夠有效復(fù)現(xiàn)人類操作的經(jīng)驗。
圖3 視覺-觸覺聯(lián)合學(xué)習(xí)框架的流程
圖4 基于ViTaM系統(tǒng)的手-物重建結(jié)果
圖4展示了基于ViTaM系統(tǒng)進行手-物重建的結(jié)果,分別從有無應(yīng)變干擾抑制方面、連續(xù)形變方面以及純視覺與視觸融合多模態(tài)方面進行了分析,顯示出視覺-觸覺聯(lián)合深度學(xué)習(xí)具有明顯的優(yōu)勢。最后展示了在真實世界中收集的視覺-觸覺數(shù)據(jù)重建的序列結(jié)果,證明了該方法在處理多幀數(shù)據(jù)時的時空一致性。
未來,ViTaM系統(tǒng)將被集成到人形機器人的電子皮膚中,實現(xiàn)與周圍環(huán)境的無縫互動,提升機器人靈巧操作能力,推動機器人從操作特定物體到通用操作場景的技術(shù)進步。
研究團隊
上海交通大學(xué)電院劉景全教授和人工智能學(xué)院盧策吾教授為該論文的共同通訊作者,博士后姜春蓬和博士后徐文強為共同第一作者。該工作得到了國家重點研發(fā)計劃和國家自然科學(xué)基金等項目資助。
劉景全教授團隊長期致力于可穿戴/可植入柔性電子器件與微系統(tǒng)的研制,旨在充分運用多學(xué)科交叉優(yōu)勢,解決醫(yī)療健康和極端環(huán)境中的重大需求,發(fā)表論文有Sci. Adv. 2021、Adv. Mater. 2021、Adv. Funct. Mater. 2023、ACS Nano 2023、Small 2019、和Biosens. Bioelectron. 2024等。課題組網(wǎng)頁:https://mems.sjtu.edu.cn/cn/
盧策吾教授團隊長期致力于具身智能、計算機視覺和智能機器人相關(guān)領(lǐng)域的研究和系統(tǒng)研發(fā),擁有國際先進水平的開源人工智能框架和數(shù)據(jù)集,相關(guān)研究工作發(fā)表在計算機領(lǐng)域頂級期刊和會議:Nature、Nature Machine Intelligence、TPAMI和CVPR等,獲得科學(xué)探索獎(獲獎理由:具身智能貢獻)。
論文鏈接:https://www.nature.com/articles/s41467-024-53654-y
原文標(biāo)題:上海交大團隊發(fā)表MEMS視觸覺融合多模態(tài)人機交互新進展
文章出處:【微信公眾號:傳感器專家網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
人機交互
+關(guān)注
關(guān)注
12文章
1206瀏覽量
55380 -
mems
+關(guān)注
關(guān)注
129文章
3924瀏覽量
190578
發(fā)布評論請先 登錄
相關(guān)推薦
評論