音声と耳介画像を用いたマルチモーダル・バイオメトリック個人認証

使用音频和耳廓图像进行多模式生物识别个人身份验证

基本信息

  • 批准号:
    14780261
  • 负责人:
  • 金额:
    $ 2.37万
  • 依托单位:
  • 依托单位国家:
    日本
  • 项目类别:
    Grant-in-Aid for Young Scientists (B)
  • 财政年份:
    2002
  • 资助国家:
    日本
  • 起止时间:
    2002 至 2004
  • 项目状态:
    已结题

项目摘要

本研究では,「音声と耳介画像を用いた頑健なマルチモーダル個人認証システム」を提案している.提案システムでは,音声と耳介画像の特徴量を別個に申請者の音声モデル・耳介画像モデルに入力し,得られる二つの尤度を重み付けして足し合わせて融合スコアを求め,そのスコアが閾値を超えれば本人,超えなければ詐称者と判断する.昨年度までに,耳介画像の特徴量の改善による個人認証システムの頑健性向上を行った.本年度は,音声情報による個人認証(話者照合)の耐雑音性の向上を行うことで,システム全体の性能改善をはかる.そこで,これまで利用してきた話者の声道の伝達特性を反映するケプストラム情報(MFCC)とあわせて,話者の声の高さやイントネーションなどの韻律情報を反映する基本周波数情報(F_0)を音声特徴量として利用した.基本周波数の抽出には,ハフ変換を利用した雑音に頑健な手法を用い,得られたlogF_0とΔlogF_0を特徴量として組み込んだ.約半年に渡る5時期分の個人認証用データベース(男性38名)を用い,評価用の音声データにさまざまなSNR条件で白色雑音を重畳させて認証実験を行ったところ,すべてのSNRにおいて韻律情報を加えたことによるシステムの性能改善が確認された.韻律情報の融合による改善が最も大きかったのはSNRが10dB付近で,音声のみの認証(話者照合)の性能としては約40%,マルチモーダル個人認証の性能としては約30%,等誤り率が削減された.また,スコア融合の際に用いる重みの最適化法についても検討を行った。ケプストラム情報と基本周波数情報の融合に用いる重みについては,ブースティングに基づく重み最適化手法の提案を行い,雑音環境下における話者照合実験によって有効性を確認した.今後は,本手法を音声と耳介情報の融合時の重み最適化に適用することを検討する.
在这项研究中,我们提出了一种“使用语音和耳廓图像的鲁棒多模态个人身份验证系统”。在所提出的系统中,使用申请人的语音模型和耳廓图像分别计算语音和耳廓图像的特征,并获得两者。将似然值输入到图像模型中,加权相加,得到融合分数,如果分数超过阈值,则确定该人是真人,如果没有,则确定该人是冒名顶替者。我们通过改进图像特征来提高个人认证系统的鲁棒性。今年,我们将通过提高使用语音信息的个人认证(说话人验证)的抗噪声能力来提高整个系统的性能,因此,除了倒谱之外。与迄今为止使用的反映说话者声道的传输特性的信息(MFCC)相比,我们开发了反映说话者声音的音调和语调等韵律信息的基频。使用数字信息(F_0)作为语音特征。为了提取基频,使用了使用霍夫变换的噪声鲁棒方法,并将获得的logF_0和ΔlogF_0合并为特征,我们使用个人认证进行了认证实验。数据库(38 名男性)进行了五个周期的分析,并在各种信噪比条件下将白噪声叠加到评估语音数据上。经证实,通过在所有信噪比下添加韵律信息,系统的性能得到了改善。当信噪比在 10 dB 左右时,韵律信息融合带来的改进最大,并且纯语音认证(说话人验证)的性能错误率降低了约40%,多模态个人认证的性能降低了约30%。我们还研究了一种优化分数融合中使用的权重的方法。对于用于融合倒谱信息和基频信息的权重,我们提出了一种基于boosting的权重优化方法,并通过噪声环境中的说话人匹配实验证实了其有效性,我们将考虑将该方法应用于合并耳廓信息时的权重优化。

项目成果

期刊论文数量(1)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
マルチストリーム話者照合におけるブースティングに基づく重み最適化法の検討
多流说话人匹配中基于boosting的权重优化方法研究
  • DOI:
  • 发表时间:
    2004
  • 期刊:
  • 影响因子:
    0
  • 作者:
    浅見太一; 岩野公司; 古井貞煕
  • 通讯作者:
    古井貞煕
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

岩野 公司其他文献

音声(下)
音频(底部)
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    日本音響学会;岩野 公司;河原 達也;篠田 浩一;伊藤 彰則;増村 亮;小川 哲司;駒谷 和範
  • 通讯作者:
    駒谷 和範
New Approach to Polyglot Synthesis: How to Speak any Language with Anyone's Voice
多语言合成的新方法:如何用任何人的声音说任何语言
  • DOI:
  • 发表时间:
    2006-04-01
  • 期刊:
  • 影响因子:
    0
  • 作者:
    岩野 公司;K. Iwano;古井 貞熙;S. Furui
  • 通讯作者:
    S. Furui
音声(下)
音频(底部)
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    日本音響学会;岩野 公司;河原 達也;篠田 浩一;伊藤 彰則;増村 亮;小川 哲司;駒谷 和範
  • 通讯作者:
    駒谷 和範
音声(下)
音频(底部)
  • DOI:
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    0
  • 作者:
    日本音響学会;岩野 公司;河原 達也;篠田 浩一;伊藤 彰則;増村 亮;小川 哲司;駒谷 和範
  • 通讯作者:
    駒谷 和範

岩野 公司的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('岩野 公司', 18)}}的其他基金

声真似による成りすまし攻撃に対する話者照合の耐性向上に関する研究
利用语音模仿提高说话人验证抵抗冒充攻击的研究
  • 批准号:
    19K12051
  • 财政年份:
    2019
  • 资助金额:
    $ 2.37万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
公開鍵基盤(PKI)と話者照合技術の融合に関する研究
公钥基础设施(PKI)与说话人验证技术融合研究
  • 批准号:
    17700141
  • 财政年份:
    2005
  • 资助金额:
    $ 2.37万
  • 项目类别:
    Grant-in-Aid for Young Scientists (B)

相似海外基金

Development of a New Next-Generation Aerial Personal Phoenix Authentication System Using Virtual Panels
使用虚拟面板开发新型下一代空中个人 Phoenix 身份验证系统
  • 批准号:
    20K11820
  • 财政年份:
    2020
  • 资助金额:
    $ 2.37万
  • 项目类别:
    Grant-in-Aid for Scientific Research (C)
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了