国产在线精品一区二区中文,精品国产香蕉伊思人在线,香蕉久久丫精品忘忧草产品,色综合久久中文综合网

當(dāng)前位置:主頁 > 產(chǎn)品展示 > > 視覺與眼動(dòng)追蹤 > ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

ErgoLAB Eyetracking眼動(dòng)軌跡分析模塊

型號(hào):

產(chǎn)品時(shí)間:2022-11-28

簡(jiǎn)要描述:

眼動(dòng)追蹤通過紅外光反射原理,測(cè)量眼睛的注視點(diǎn)位置或者眼球相對(duì)頭部的運(yùn)動(dòng)而實(shí)現(xiàn)對(duì)眼球運(yùn)動(dòng)的追蹤,進(jìn)而分析視覺加工特征。ErgoLAB眼動(dòng)追蹤模塊采用高精度的眼動(dòng)追蹤元件同步記錄個(gè)體的眼動(dòng)軌跡、視線變化、眼動(dòng)狀態(tài)等數(shù)據(jù),在多種視覺刺激和環(huán)境下開展人類行為研究。同步記錄如眼部或頭部3D空間位置、注視時(shí)間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周圍事物的視

相關(guān)文章

Related articles

詳細(xì)介紹
產(chǎn)品簡(jiǎn)介

眼動(dòng)追蹤通過紅外光反射原理,測(cè)量眼睛的注視點(diǎn)位置或者眼球相對(duì)頭部的運(yùn)動(dòng)而實(shí)現(xiàn)對(duì)眼球運(yùn)動(dòng)的追蹤,進(jìn)而分析視覺加工特征。ErgoLAB眼動(dòng)追蹤模塊采用高精度的眼動(dòng)追蹤元件同步記錄個(gè)體的眼動(dòng)軌跡、視線變化、眼動(dòng)狀態(tài)等數(shù)據(jù),在多種視覺刺激和環(huán)境下開展人類行為研究。同步記錄如眼部或頭部3D空間位置、注視時(shí)間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周圍事物的視覺方式以及驅(qū)使人們作出決策的因素,捕獲不受被試者或主試者意識(shí)影響的自然反應(yīng),并將這些自然反應(yīng)實(shí)時(shí)記錄與反饋。

眼動(dòng)追蹤系統(tǒng)
屏幕式高精度眼動(dòng)儀:高采樣率與高精度數(shù)據(jù)質(zhì)量采集,適用于快速眼動(dòng)狀態(tài)研究。
Glasses可穿戴眼動(dòng)儀:自然的眼動(dòng)追蹤系統(tǒng),專為現(xiàn)實(shí)環(huán)境的眼動(dòng)研究而設(shè)計(jì)。
虛擬現(xiàn)實(shí)眼動(dòng):將眼動(dòng)追蹤與VR結(jié)合,在受控的虛擬實(shí)驗(yàn)環(huán)境中開展眼動(dòng)行為研究。
遙測(cè)式眼動(dòng)儀:超薄、便攜式遙測(cè)式眼動(dòng)儀,可方便地在任何場(chǎng)所開展眼動(dòng)行為研究。
便攜式手持設(shè)備臺(tái),高精度眼動(dòng)數(shù)據(jù)采集,滿足任何移動(dòng)終端環(huán)境下的可用性測(cè)試研究。
功能

眼動(dòng)狀態(tài)分析

標(biāo)準(zhǔn)化眼動(dòng)處理參數(shù):系統(tǒng)采用I-VT注視點(diǎn)提取算法,通過Velocity Calculator、Merge Adjacent Fixation、Discard fixation deration等一系列參數(shù),精確提取注視點(diǎn)、眨眼、以及眼跳等狀態(tài)。支持原始原始、注視數(shù)據(jù)、注意數(shù)據(jù)的自定義選擇性研究。
完整的數(shù)據(jù)分析與導(dǎo)出:支持以Excel或CSV格式導(dǎo)出所有原始數(shù)據(jù)、處理數(shù)據(jù)、分析數(shù)據(jù)。眼動(dòng)分析指標(biāo)主要包括眼跳次數(shù)、眼跳時(shí)間、眼跳幅度、眼跳距離、眨眼次數(shù)、眨眼頻率、總注視時(shí)間、平均注視時(shí)間、注視次數(shù)、瞳孔直徑等。

眼動(dòng)可視化分析

支持基于2D刺激材料、APP長(zhǎng)圖、以及360°圖片/視頻或3D虛擬場(chǎng)景分析;
實(shí)時(shí)監(jiān)測(cè)個(gè)體在任何環(huán)境刺激中的注意力和行為模式,輸出實(shí)時(shí)眼動(dòng)注視點(diǎn)數(shù)據(jù);
熱點(diǎn)圖分析:直觀分析個(gè)體的視覺重點(diǎn)關(guān)注區(qū)域,并形成可視化熱圖的形式展示結(jié)果;
軌跡圖分析:直觀顯示個(gè)體的眼動(dòng)注視順序、每個(gè)注視點(diǎn)的停留時(shí)長(zhǎng),分析視覺加工機(jī)制;
3D圖分析:顯示個(gè)體的重點(diǎn)關(guān)注區(qū)域,以3D圖等多種可視化圖形方式展示。

AOI統(tǒng)計(jì)與序列性分析

支持2D刺激材料(圖片、視頻等)及3D虛擬環(huán)境中的眼動(dòng)AOI數(shù)據(jù)統(tǒng)計(jì)與分析;
支持對(duì)目標(biāo)物進(jìn)行自動(dòng)Mapping或手動(dòng)劃分興趣區(qū),統(tǒng)計(jì)輸出多維度的分析指標(biāo);
自動(dòng)AOI序列分析,實(shí)現(xiàn)對(duì)不同興趣區(qū)的注視順序進(jìn)行序列性編碼與行為分析統(tǒng)計(jì);
統(tǒng)計(jì)指標(biāo)包括進(jìn)入時(shí)間、進(jìn)入前注視次數(shù)、第一次注視的眼動(dòng)點(diǎn)、注視時(shí)間、總訪問時(shí)間、平均訪問時(shí)間、訪問次數(shù)、總注視時(shí)間、平均注視時(shí)間、注視次數(shù)、平均注視次數(shù)、第二注視時(shí)間、最近鄰近注視點(diǎn)等。

原型網(wǎng)頁眼動(dòng)交互分析

支持針對(duì)網(wǎng)頁、原型源代碼內(nèi)容興趣區(qū)的眼動(dòng)數(shù)據(jù)記錄與分析;
支持網(wǎng)頁、原型、圖片及視頻產(chǎn)品自定義繪制興趣區(qū)的眼動(dòng)數(shù)據(jù)記錄與分析;
提供錄屏、視頻及交互記錄等多種實(shí)驗(yàn)數(shù)據(jù)回放方式;
支持對(duì)虛擬現(xiàn)實(shí)空間中興趣物體及興趣區(qū)域的眼動(dòng)數(shù)據(jù)分析;
采用云架構(gòu)技術(shù),支持多被試眼動(dòng)數(shù)據(jù)同時(shí)采集與選擇性輸出。
同步方案

ErgoLAB人機(jī)環(huán)境同步云平臺(tái)可人-機(jī)-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動(dòng)追蹤、生理測(cè)量、生物力學(xué)、腦電、腦成像、行為、人機(jī)交互、動(dòng)作姿態(tài)、面部表情、主觀評(píng) 價(jià)、時(shí)空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)云管理。


 

產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細(xì)地址:

  • 補(bǔ)充說明:

  • 驗(yàn)證碼:

    請(qǐng)輸入計(jì)算結(jié)果(填寫阿拉伯?dāng)?shù)字),如:三加四=7

人因工程與工效學(xué)

人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場(chǎng)所與工效學(xué)負(fù)荷等

安全人機(jī)工程

從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問題

交通安全與駕駛行為

人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等

用戶體驗(yàn)與交互設(shè)計(jì)

ErgoLAB可實(shí)現(xiàn)桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對(duì)用戶體驗(yàn)的影響

建筑與環(huán)境行為

研究如何通過城市規(guī)劃與建筑設(shè)計(jì)來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

消費(fèi)行為與神經(jīng)營(yíng)銷

通過ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動(dòng)機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I(yíng)銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為

產(chǎn)品中心
視覺與眼動(dòng)追蹤
新聞中心
公司新聞
技術(shù)文章
關(guān)于我們
公司簡(jiǎn)介
人才招聘
聯(lián)系方式
北京市海淀區(qū)安寧莊后街12號(hào)院1號(hào)樓一層、三層
sales@kingfar.cn

掃一掃,加微信

版權(quán)所有 © 2024北京津發(fā)科技股份有限公司(www.sply.com.cn)
備案號(hào):京ICP備14045309號(hào)-4 技術(shù)支持:智慧城市網(wǎng) 管理登陸 GoogleSitemap