国产精品美女久久久网av网站-久久国产精品免费精品3p-久久精品国产99久久免费-999久久久免费精品国产18

當前位置:主頁 > 產(chǎn)品展示 > > ErgoLAB人因工程與工效學(xué) > ErgoVR虛擬原型同步模塊

ErgoVR虛擬原型同步模塊

型號:

產(chǎn)品時間:2022-11-28

簡要描述:

ErgoVR虛擬原型同步模塊,是津發(fā)科技自主研發(fā)針對虛擬現(xiàn)實場景與交互設(shè)計原型的研究和測評目標為導(dǎo)向,為用戶搭建沉浸式的虛擬現(xiàn)實交互環(huán)境、多類型的自然人機交互方式,以及三維人機交互數(shù)據(jù)與人因多模態(tài)數(shù)據(jù)的同步采集與評價,涵蓋產(chǎn)品設(shè)計、制造和維修過程中的所有工藝設(shè)計仿真與驗證,實現(xiàn)全流程的虛擬現(xiàn)實人機工效測評方案。

相關(guān)文章

Related articles

詳細介紹
產(chǎn)品簡介

ErgoVR虛擬原型同步模塊,是津發(fā)科技自主研發(fā)針對虛擬現(xiàn)實場景與交互設(shè)計原型的研究和測評目標為導(dǎo)向,為用戶搭建沉浸式的虛擬現(xiàn)實交互環(huán)境、多類型的自然人機交互方式,以及三維人機交互數(shù)據(jù)與人因多模態(tài)數(shù)據(jù)的同步采集與評價,涵蓋產(chǎn)品設(shè)計、制造和維修過程中的所有工藝設(shè)計仿真與驗證,實現(xiàn)全流程的虛擬現(xiàn)實人機工效測評方案。

特點
1.對接主流虛擬現(xiàn)實引擎

對接主流虛擬現(xiàn)實引擎,如U3D、UE4,一鍵導(dǎo)入場景模型,個性化綁定數(shù)據(jù)記錄目標,分模塊設(shè)置眼動數(shù)據(jù)采集目標物、交互數(shù)集目標物、時空數(shù)據(jù)采集目標物,在完整保留系統(tǒng)內(nèi)容和交互的基礎(chǔ)上,將場景嵌入測評系統(tǒng)。

2.自定義研究設(shè)計

支持自定義場景、設(shè)定研究目標物體AOI、設(shè)定研究目標區(qū)域SOI;支持自定義通道數(shù)據(jù);支持自定義分析算法等。

3.多種人機交互方式

兼容豐富的虛擬現(xiàn)實人機交互方式,如手柄交互、雙手自然交互、眼控交互、語音交互、生物交互等,滿足各項人機交互領(lǐng)域的前沿研究。

4.API集成

支持任意虛擬現(xiàn)實開發(fā)平臺,可嵌入各種虛擬現(xiàn)實顯示設(shè)備。

5.人因數(shù)據(jù)同步接口

具備人因 數(shù)據(jù)同步接口,同步采集人因多模態(tài)數(shù)據(jù),如腦電波信號、生理信號、關(guān)節(jié)動作信號以及行為數(shù)據(jù)等。

功能
1.自定義研究場景

根據(jù)研究需求自行搭建任意形式和類別的虛擬場景,支持對接主流虛擬現(xiàn)實開發(fā)引擎。

2.多場景視角

允許自定義在虛擬場景中安裝相機,多角度記錄被試操作?;胤烹A段可輕松切換分析。

3.SOI時空軌跡數(shù)據(jù)分析

可將場景內(nèi)地面任意區(qū)域設(shè)定為興趣區(qū)域,分析虛擬空間內(nèi)的導(dǎo)航路徑與停留時間等信息。

4.AOI人因交互數(shù)據(jù)分析

可將場景內(nèi)任意物體為興趣物體,分析眼動關(guān)注、情感反應(yīng)、人機交互等人因數(shù)據(jù)。

5.時間軸交互、眼動、軌跡數(shù)據(jù)可視化呈現(xiàn)

實驗過程完整保留原始場景的操作完整性以及交互完整性,在不影響原始程序機制的情況下完整記錄被試在虛擬仿真場景中的操作;支持數(shù)據(jù)可視化呈現(xiàn)。

6.實時行為觀察

廣泛的適應(yīng)性:支持面向頭戴式、CAVE式及一體機等多形態(tài)虛擬現(xiàn)實產(chǎn)品的實驗設(shè)計。

同步方案

ErgoLAB人機環(huán)境同步云平臺可人-機-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動追蹤、生理測量、生物力學(xué)、腦電、腦成像、行為、人機交互、動作姿態(tài)、面部表情、主觀評 價、時空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標。平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報告,支持基于云架構(gòu)技術(shù)的團體測試和大數(shù)據(jù)云管理。


 

產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細地址:

  • 補充說明:

  • 驗證碼:

    請輸入計算結(jié)果(填寫阿拉伯數(shù)字),如:三加四=7

人因工程與工效學(xué)

人機工程、人的失誤與系統(tǒng)安全、人機工效學(xué)、工作場所與工效學(xué)負荷等

安全人機工程

從安全的角度和著眼點,運用人機工程學(xué)的原理和方法去解決人機結(jié)合面安全問題

交通安全與駕駛行為

人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計、提高駕駛安全性、改善道路環(huán)境等

用戶體驗與交互設(shè)計

ErgoLAB可實現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計、人機交互對用戶體驗的影響

建筑與環(huán)境行為

研究如何通過城市規(guī)劃與建筑設(shè)計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營銷

通過ErgoLAB采集和分析消費者的生理、表情、行為等數(shù)據(jù),了解消費者的認知加工與決策行為,找到消費者行為動機,從而產(chǎn)生恰當?shù)臓I銷策略使消費者產(chǎn)生留言意向及留言行為

掃一掃,加微信

版權(quán)所有 © 2024北京津發(fā)科技股份有限公司(www.regneanimal.com)
備案號:京ICP備14045309號-4 技術(shù)支持:智慧城市網(wǎng) 管理登陸 GoogleSitemap