當(dāng)前位置:首頁 > 產(chǎn)品中心 > Xsens可穿戴動(dòng)作捕捉系統(tǒng) >
產(chǎn)品分類
Product Category相關(guān)文章
RELATED ARTICLESErgoLAB sEMG可穿戴表面肌電儀是一套便攜可穿戴的生理信號(hào)記錄系統(tǒng)。系統(tǒng)可塑性強(qiáng),研究人員可以根據(jù)研究需求信號(hào)類型以及采集位置,并可實(shí)現(xiàn)多套系統(tǒng)同步導(dǎo)聯(lián)。此外,在采集人體生理數(shù)據(jù)的同時(shí),可以獲得人體的動(dòng)作姿態(tài)數(shù)據(jù)。系統(tǒng)具有智能化、高精度、高靈敏度、體積小等特點(diǎn),可滿足實(shí)驗(yàn)室、現(xiàn)場研究、虛擬現(xiàn)實(shí)和模擬艙室等環(huán)境下的多樣需求。
Manus Quantum Metagloves供高度精確的手指跟蹤,手指追蹤新的黃金標(biāo)準(zhǔn)。通過指尖的絕對(duì)定位,數(shù)字手骨架被縮放到用戶的真實(shí)手部大小。這是迄今為止的手部和手指捕捉,同時(shí)保持了易用性且無需復(fù)雜校準(zhǔn)。產(chǎn)品可以與Xsens可穿戴動(dòng)作捕捉系統(tǒng)結(jié)合,實(shí)現(xiàn)真正的全身動(dòng)作捕捉
眼動(dòng)追蹤通過紅外光反射原理,測量眼睛的注視點(diǎn)位置或者眼球相對(duì)頭部的運(yùn)動(dòng)而實(shí)現(xiàn)對(duì)眼球運(yùn)動(dòng)的追蹤,進(jìn)而分析視覺加工特征。ErgoLAB眼動(dòng)追蹤模塊采用高精度的眼動(dòng)追蹤元件同步記錄個(gè)體的眼動(dòng)軌跡、視線變化、眼動(dòng)狀態(tài)等數(shù)據(jù),在多種視覺刺激和環(huán)境下開展人類行為研究。同步記錄如眼部或頭部3D空間位置、注視時(shí)間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周圍事物的視
ErgoLAB Statistics綜合統(tǒng)計(jì)分析模塊以ErgoLAB人機(jī)環(huán)境多維度數(shù)據(jù)同步技術(shù)為基礎(chǔ),實(shí)現(xiàn)四大核心統(tǒng)計(jì)與分析功能:數(shù)據(jù)交叉統(tǒng)計(jì)、事件統(tǒng)計(jì)、片段統(tǒng)計(jì)、可視化分析報(bào)告。實(shí)現(xiàn)不同數(shù)據(jù)源之間的交叉統(tǒng)計(jì)、實(shí)現(xiàn)基于主觀測試結(jié)果的交叉統(tǒng)計(jì)、實(shí)現(xiàn)基于不同分析方法的可視化分析報(bào)告等,真正實(shí)現(xiàn)多維數(shù)據(jù)交叉融合,主客觀結(jié)果交叉驗(yàn)證。
ErgoLAB Interaction手指軌跡分析模塊,是津發(fā)科技依據(jù)人因工程和人-信息-物理系統(tǒng)理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品“以人為中心”的“人-信息系統(tǒng)交互”評(píng)估產(chǎn)品,可以對(duì)信息產(chǎn)品交互設(shè)計(jì)原型進(jìn)行交互行為分析、可用性測試、人機(jī)交互評(píng)估、人因設(shè)計(jì)與工效學(xué)評(píng)價(jià),廣泛用于移動(dòng)終端APP應(yīng)用程序、AI人機(jī)智能交互程序產(chǎn)品原型等多類型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測試、人機(jī)交互評(píng)估測試
Xsens可穿戴式動(dòng)作捕捉系統(tǒng)是一款無線便攜、操作簡易的慣性動(dòng)作捕捉系統(tǒng),適用于多種環(huán)境的人因工程與人機(jī)工效研究,包括標(biāo)準(zhǔn)實(shí)驗(yàn)室、物理模擬、智能駕駛模擬、虛擬現(xiàn)實(shí)以及真實(shí)現(xiàn)場等環(huán)境。系統(tǒng)基于先進(jìn)的微型慣性傳感器和無線通信解決方案,結(jié)合了先進(jìn)的多維傳感器融合算法,使用生物力學(xué)預(yù)測模型對(duì)動(dòng)作行為數(shù)據(jù)進(jìn)行采集與再現(xiàn)。系統(tǒng)結(jié)合ErgoLAB人機(jī)環(huán)境同步云平臺(tái),可將動(dòng)作捕捉數(shù)據(jù)與多維度主客觀人機(jī)環(huán)境數(shù)據(jù)進(jìn)行
人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場所與工效學(xué)負(fù)荷等
從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現(xiàn)桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對(duì)用戶體驗(yàn)的影響
研究如何通過城市規(guī)劃與建筑設(shè)計(jì)來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動(dòng)機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為
郵箱:sales@kingfar.cn
電話:4008113950