当前位置: X-MOL 学术Behav. Res. Methods › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Accuracy and precision of visual and auditory stimulus presentation in virtual reality in Python 2 and 3 environments for human behavior research
Behavior Research Methods ( IF 5.953 ) Pub Date : 2021-08-03 , DOI: 10.3758/s13428-021-01663-w
Ryo Tachibana 1 , Kazumichi Matsumiya 2
Affiliation  

Virtual reality (VR) is a new methodology for behavioral studies. In such studies, the millisecond accuracy and precision of stimulus presentation are critical for data replicability. Recently, Python, which is a widely used programming language for scientific research, has contributed to reliable accuracy and precision in experimental control. However, little is known about whether modern VR environments have millisecond accuracy and precision for stimulus presentation, since most standard methods in laboratory studies are not optimized for VR environments. The purpose of this study was to systematically evaluate the accuracy and precision of visual and auditory stimuli generated in modern VR head-mounted displays (HMDs) from HTC and Oculus using Python 2 and 3. We used the newest Python tools for VR and Black Box Toolkit to measure the actual time lag and jitter. The results showed that there was an 18-ms time lag for visual stimulus in both HMDs. For the auditory stimulus, the time lag varied between 40 and 60 ms, depending on the HMD. The jitters of those time lags were 1 ms for visual stimulus and 4 ms for auditory stimulus, which are sufficiently low for general experiments. These time lags were robustly equal, even when auditory and visual stimuli were presented simultaneously. Interestingly, all results were perfectly consistent in both Python 2 and 3 environments. Thus, the present study will help establish a more reliable stimulus control for psychological and neuroscientific research controlled by Python environments.



中文翻译:

用于人类行为研究的 Python 2 和 3 环境中虚拟现实中视觉和听觉刺激呈现的准确性和精度

虚拟现实(VR)是行为研究的一种新方法。在此类研究中,刺激呈现的毫秒精度和精度对于数据可复制性至关重要。最近,Python 作为一种广泛用于科学研究的编程语言,为实验控制的可靠准确性和精度做出了贡献。然而,对于现代 VR 环境是否具有刺激呈现的毫秒精度和精度知之甚少,因为实验室研究中的大多数标准方法都没有针对 VR 环境进行优化。本研究的目的是系统地评估 HTC 和 Oculus 使用 Python 2 和 3 在现代 VR 头戴式显示器 (HMD) 中产生的视觉和听觉刺激的准确性和精确度。我们使用最新的用于 VR 的 Python 工具和 Black Box Toolkit 来测量实际的时滞和抖动。结果表明,两个 HMD 中的视觉刺激都有 18 毫秒的时间延迟。对于听觉刺激,时间延迟在 40 到 60 毫秒之间变化,具体取决于 HMD。这些时间滞后的抖动对于视觉刺激为 1 毫秒,对于听觉刺激为 4 毫秒,这对于一般实验来说已经足够低了。即使同时呈现听觉和视觉刺激,这些时间滞后也非常相等。有趣的是,所有结果在 Python 2 和 3 环境中都完全一致。因此,本研究将有助于为 Python 环境控制的心理和神经科学研究建立更可靠的刺激控制。结果表明,两个 HMD 中的视觉刺激都有 18 毫秒的时间延迟。对于听觉刺激,时间延迟在 40 到 60 毫秒之间变化,具体取决于 HMD。这些时间滞后的抖动对于视觉刺激为 1 毫秒,对于听觉刺激为 4 毫秒,这对于一般实验来说已经足够低了。即使同时呈现听觉和视觉刺激,这些时间滞后也非常相等。有趣的是,所有结果在 Python 2 和 3 环境中都完全一致。因此,本研究将有助于为 Python 环境控制的心理和神经科学研究建立更可靠的刺激控制。结果表明,两个 HMD 中的视觉刺激都有 18 毫秒的时间延迟。对于听觉刺激,时间延迟在 40 到 60 毫秒之间变化,具体取决于 HMD。这些时间滞后的抖动对于视觉刺激为 1 毫秒,对于听觉刺激为 4 毫秒,这对于一般实验来说已经足够低了。即使同时呈现听觉和视觉刺激,这些时间滞后也非常相等。有趣的是,所有结果在 Python 2 和 3 环境中都完全一致。因此,本研究将有助于为 Python 环境控制的心理和神经科学研究建立更可靠的刺激控制。这些时间滞后的抖动对于视觉刺激为 1 毫秒,对于听觉刺激为 4 毫秒,这对于一般实验来说已经足够低了。即使同时呈现听觉和视觉刺激,这些时间滞后也非常相等。有趣的是,所有结果在 Python 2 和 3 环境中都完全一致。因此,本研究将有助于为 Python 环境控制的心理和神经科学研究建立更可靠的刺激控制。这些时间滞后的抖动对于视觉刺激为 1 毫秒,对于听觉刺激为 4 毫秒,这对于一般实验来说已经足够低了。即使同时呈现听觉和视觉刺激,这些时间滞后也非常相等。有趣的是,所有结果在 Python 2 和 3 环境中都完全一致。因此,本研究将有助于为 Python 环境控制的心理和神经科学研究建立更可靠的刺激控制。

更新日期:2021-08-03
down
wechat
bug