1.自主研發(fā)完成情況
(1)完成基于多模態(tài)數(shù)據(jù)融合和實(shí)時(shí)感知技術(shù)研究:主要包括深度神經(jīng)網(wǎng)絡(luò)特征提取、協(xié)同稀疏編碼技術(shù)應(yīng)用以及融合策略與模型優(yōu)化三個(gè)關(guān)鍵環(huán)節(jié),這些環(huán)節(jié)環(huán)環(huán)相扣,共同構(gòu)成了多模態(tài)數(shù)據(jù)融合感知技術(shù)的完整框架。
(2)完成基于大模型的場(chǎng)景理解與任務(wù)規(guī)劃技術(shù)研究:通過(guò)大模型的自監(jiān)督學(xué)習(xí)能力,實(shí)現(xiàn)對(duì)復(fù)雜場(chǎng)景的深度理解與信息提??;利用多模態(tài)信息對(duì)齊與翻譯技術(shù),增強(qiáng)不同數(shù)據(jù)模態(tài)之間的協(xié)同與融合效果;最后,結(jié)合先進(jìn)的對(duì)話(huà)系統(tǒng)設(shè)計(jì)與優(yōu)化方法,構(gòu)建高效、自然的交互機(jī)制。這三個(gè)環(huán)節(jié)相互支撐,共同推動(dòng)機(jī)器人在復(fù)雜環(huán)境中的場(chǎng)景理解與交互能力達(dá)到新的高度。
(3)完成人形機(jī)器人主動(dòng)跟隨控制技術(shù)研究:首先,利用模仿學(xué)習(xí)理論開(kāi)發(fā)步態(tài)控制算法,使機(jī)器人能夠有效地在各種地形上行進(jìn)。其次,通過(guò)實(shí)時(shí)融合傳感器數(shù)據(jù)并優(yōu)化控制參數(shù),顯著提升了機(jī)器人的運(yùn)動(dòng)精度和穩(wěn)定性。最后,通過(guò)對(duì)MoveIt框架下的上肢驅(qū)動(dòng)系統(tǒng)進(jìn)行優(yōu)化,增強(qiáng)了機(jī)器人在執(zhí)行復(fù)雜任務(wù)時(shí)的靈巧性和靈活性。這些技術(shù)的綜合應(yīng)用,使得機(jī)器人不僅具備強(qiáng)大的 locomotion 能力,還能在多樣化環(huán)境中執(zhí)行更為復(fù)雜的任務(wù),極大地?cái)U(kuò)展了其應(yīng)用范圍。
2.技術(shù)指標(biāo)完成情況
(1)項(xiàng)目規(guī)定的技術(shù)指標(biāo)為:
j表情驅(qū)動(dòng)自由度不低于15個(gè),可模擬不低于10種典型情緒表達(dá)。
k具備不低于10輪的持續(xù)對(duì)話(huà)能力,并具備雙向交流功能。
l行走跟隨速度不低于0.6m/s,人形機(jī)器人手臂末端操控誤差±1cm。
m具備語(yǔ)音、表情、肢體動(dòng)作協(xié)調(diào)輸出能力。
(2)公司實(shí)際完成的技術(shù)指標(biāo)為:
j表情驅(qū)動(dòng)自由度26個(gè),可模擬11種典型情緒表達(dá)。
k具備不低于15輪的持續(xù)對(duì)話(huà)能力,并具備雙向交流功能。
l行走跟隨速度0.8m/s,人形機(jī)器人手臂末端操控誤差±0.19cm。
m具備語(yǔ)音、表情、肢體動(dòng)作協(xié)調(diào)輸出能力。