前庭眼反射を指標とした空間知覚の多種感覚比較による「酔い」予測方法の開発
以前庭眼反射为指标,比较不同类型的空间知觉,开发预测“疾病”的方法
基本信息
- 批准号:22K12119
- 负责人:
- 金额:$ 1.25万
- 依托单位:
- 依托单位国家:日本
- 项目类别:Grant-in-Aid for Scientific Research (C)
- 财政年份:2022
- 资助国家:日本
- 起止时间:2022-04-01 至 2025-03-31
- 项目状态:未结题
- 来源:
- 关键词:
项目摘要
本研究では、前庭感覚を基礎として、感覚間の関係を量的に検討し、感覚間の不一致を客観的に比較可能な指標を作ることを目的としている。2022年度には、前庭感覚と視覚の関係について、特に視覚刺激の空間的なあいまいさと前庭眼反射(VOR)の変化量との対応データを蓄積し、VORによる位置精度の指標の可能性を検討するとともに、聴覚刺激による検証実験の準備を行うことを計画した。2022年度は、あいまいさを調整した視覚刺激がVORに及ぼす影響について実験を行い、VORへの影響の量的変化が、知覚された空間位置の精度に対応することが示唆された。結果を国際学会(Barany Society 2022)にて発表した。視覚刺激で得られた傾向に対して聴覚刺激にて検証を行うため、頭部伝達関数(HRTF)を利用した、音像中の仮想音源位置への注意が前庭眼反射に及ぼす影響を検証する実験の準備を開始した。日本人の平均として作られたHRTFを用いて差育成した音像を利用する場合、前方への音源の定位が困難であることが判明したため、聴覚刺激による実験のデザインを再検討するに至った。検討の悔過、仮想音源に対する定位は、後方に音源位置を設定した場合に精度が高いことが判明し、前庭刺激とともに提示する仮想音源位置を被験者後方に設定するための、実験用ソフトウェアの変更を行うとともに、刺激音の作成を行った。また、仮想音源に対する定位の精度に個人差があることから、被験者ごとに音源の定位精度を評価する実験を合わせて行うものとし、実験計画を立案した。
本研究的目的是以前庭感觉为基础,定量地考察感官之间的关系,并创建一个可以客观比较感官之间差异的指标。 2022财年,我们将积累前庭感觉和视觉之间关系的数据,特别是视觉刺激的空间模糊性和前庭眼反射(VOR)变化量之间的数据,并考虑使用VOR作为指标的可能性。同时,我们计划准备一个利用听觉刺激的验证实验。 2022年,我们进行了模糊调整视觉刺激对VOR影响的实验,结果表明对VOR影响的定量变化与感知空间位置的准确性相对应。结果在国际学术会议(Barany Society 2022)上公布。为了验证利用听觉刺激进行视觉刺激所获得的趋势,进行了实验,利用头部相关传递函数(HRTF)来验证对声像中的虚拟声源位置的注意对前庭眼反射的影响。准备工作已经开始。当使用根据日本人平均水平创建的 HRTF 进行差异培养的声像时,发现很难将声源定位在前方,这导致我们重新考虑使用听觉刺激的实验设计。不幸的是,我们发现当声源位置设置在后方时,虚拟声源的定位更加准确,因此我们更改了实验软件,将与前庭刺激一起呈现的虚拟声源位置设置在后方同时,我们创造了刺激声音。此外,由于虚拟声源的定位精度存在个体差异,我们还针对每个被试进行了声源定位精度评估实验,并制定了实验方案。
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Effect of Visual Target Ambiguity on the Semicircular Ocular Reflex
视觉目标模糊度对半圆眼反射的影响
- DOI:
- 发表时间:2022
- 期刊:
- 影响因子:0
- 作者:Yumiko O. Kato;Fumihiro Mochizuki;Koshi Mikami;Shuichi Sakamoto;Izumi Koizuka
- 通讯作者:Izumi Koizuka
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
加藤 弓子其他文献
Webコンテンツを用いた人物紹介映像の自動編集に向けて
使用网页内容自动编辑人物介绍视频
- DOI:
- 发表时间:
2016 - 期刊:
- 影响因子:0
- 作者:
小林 亨;池田 徹志;内海 章;加藤 弓子;長澤 勇;岩城 敏;國代京花,ナックフランク,井手一郎,川西康友,出口大輔,村瀬 洋 - 通讯作者:
國代京花,ナックフランク,井手一郎,川西康友,出口大輔,村瀬 洋
写真の画像内容に基づく類似地域検出手法の応用に関する検討
基于照片图像内容的相似区域检测方法的应用研究
- DOI:
- 发表时间:
2016 - 期刊:
- 影响因子:0
- 作者:
倉持 拓明;内海 章;池田 徹志;加藤 弓子;長澤 勇;高橋 和彦;五十嵐郁瑛,松室美紀,柴田史久,木村朝子;滝本広樹,川西康友,井手一郎,平山高嗣,道満恵介,出口大輔,村瀬 洋: - 通讯作者:
滝本広樹,川西康友,井手一郎,平山高嗣,道満恵介,出口大輔,村瀬 洋:
自動運転時の追従走行におけるドライバのストレス計測
自动驾驶过程中后续驾驶过程中测量驾驶员压力
- DOI:
- 发表时间:
2018 - 期刊:
- 影响因子:0
- 作者:
小林 亨;池田 徹志;内海 章;加藤 弓子;長澤 勇;岩城 敏 - 通讯作者:
岩城 敏
非アルコール性脂肪性肝炎における新規microRNAバイオマーカーの探索
寻找非酒精性脂肪性肝炎的新型 microRNA 生物标志物
- DOI:
- 发表时间:
2021 - 期刊:
- 影响因子:0
- 作者:
松本 佳菜;三浦 梨沙;加藤 弓子;林 百音;大杉 悠平;田山 千紗;千葉 満 - 通讯作者:
千葉 満
コンタクトイメージングにおける光線の演算を用いた細胞観察
在接触成像中使用光束计算进行细胞观察
- DOI:
- 发表时间:
2018 - 期刊:
- 影响因子:0
- 作者:
西川 雅清;國吉 房貴;舩冨 卓哉;田中 賢一郎;久保 尋之;澤田 好秀;加藤 弓子;向川 康博 - 通讯作者:
向川 康博
加藤 弓子的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
相似海外基金
視聴覚障害状況に応じたマルチモーダル質感提示法の開発と感覚代行・拡張への応用
根据视听障碍条件开发多模态纹理呈现方法及其在感觉替代和扩展中的应用
- 批准号:
23K25693 - 财政年份:2024
- 资助金额:
$ 1.25万 - 项目类别:
Grant-in-Aid for Scientific Research (B)
視聴覚障害状況に応じたマルチモーダル質感提示法の開発と感覚代行・拡張への応用
根据视听障碍条件开发多模态纹理呈现方法及其在感觉替代和扩展中的应用
- 批准号:
23H00996 - 财政年份:2023
- 资助金额:
$ 1.25万 - 项目类别:
Grant-in-Aid for Scientific Research (B)
視覚経験に基づく顔の親近性がマルチモーダルな顔処理に与える影響の検討
基于视觉体验的人脸熟悉度对多模态人脸处理的影响
- 批准号:
22K13880 - 财政年份:2022
- 资助金额:
$ 1.25万 - 项目类别:
Grant-in-Aid for Early-Career Scientists
身体表現と声色からのマルチモーダル感情知覚プロセス 文化と発達的視点からの検討
基于身体表达和语气的多模态情感感知过程:从文化和发展角度审视
- 批准号:
22K18160 - 财政年份:2022
- 资助金额:
$ 1.25万 - 项目类别:
Grant-in-Aid for Early-Career Scientists
視覚障がい者の物理学習を支援するマルチモーダルな学習教材の開発
开发多模式学习材料以支持视障人士的物理学习
- 批准号:
21K02843 - 财政年份:2021
- 资助金额:
$ 1.25万 - 项目类别:
Grant-in-Aid for Scientific Research (C)