本稿では,2001年10月に音声言語情報処理研究会内に設立した雑音下音声認識の評価に関するワーキンググループの活動状況の報告を行う.このワーキンググループでは,雑音下音声認識の評価のための共通のコーパスの策定、および収録、その評価法の検討を進めている.現在までに行ったデータベース収集、評価系の構築について経過報告を行う.This paper reports current status of the SLP working group establised in October 2001 on the noisy speech recognition. The working group aims to develop standards, common corpus, and noisy speech recognition system in conjunction with Europian ETSI AURORA evaluation projects. In this paper, we report current status of data collection, standard backend recognition system, snd other activities of the working grpop.
近年のインターネット技術の発展により,World Wide Web(WWW)を代表とする個人で扱えるオンラインテキストデータの量が増加している.それにともない,莫大なテキストデータ中から必要な情報を検索する機会も増え,情報検索に関する研究への関心が高まっている.情報検索システムとして,検索対象文書と検索質問を多次元ベクトルで表現するベクトル空間モデル(VSM: Vector Space Model)が広く使用されている.VSMを用いた検索システムの精度を改善する手法の1つとして,適合性フィードバック手法(Relevance Feedback)が提案されている.この手法は,VSMを用いた1次検索結果に対し,利用者が適合・不適合の判断を行いその情報をシステムにフィードバックし,再検索を行うことで検索精度を向上させている.本論文では,この利用者からのフィードバック情報を検索対象文書全体の適合・不適合の判別に用いた.判別を行う識別器として,従来手法より,判別の能力が高く,汎化性に優れたサポートベクターマシン(SVM: Support Vector Machine)を用いた.このフィードバック手法をサポートベクターマシンによる適合性フィードバックとして本論文で提案する.日本語テストコレクション(BMIR-J2)を用いた類似文書検索実験において,提案手法は従来手法と比較し,利用者が判断し,システムにフィードバックされる文書数が50の場合,24.0%の検索精度改善を得ることが可能であった.With the rapid growth of online information, e.g., the World Wide Web(WWW), a large collection of full-text documents is available andopportunity for getting a useful piece of information is increased.Information Retrieval (IR) is now becoming one of the most importantissues for handling large text data.Relevance feedback is a technique that improves retrieval performancebased on relevance judgments from the user. Here, we propose therelevance feedback method using Support Vector Machine (SVM).Experiment results on Japanese test collection BMIR-J2 show that theproposed method is useful feedback method comparing to theconventional feedback method. Especially, the proposed method improvedthe performance of IR system.
本稿では,2001年10月に音声言語情報処理研究会内に設立した雑音下音声認識の評価に関するワーキンググループの活動状況の報告を行う.このワーキンググループでは,雑音下音声認識に於ける評価法,共通のコーパスの策定に加えて,欧州で進められているETSI AURORA雑音下音声認識アルゴリズム開発プロジェクトに合わせたアルゴリズム開発を目指している.This paper reports current status of the SLP working group establised in October 2001 on the noisy speech recognition. The working group aims to develop standards, common corpus, and noisy speech recognition system in conjunction with Europian ETSI AURORA evaluation projects.
携帯電話の発展にともない急激に携帯端末によるワイアレスモバイル環境の普及が進んでいる。一般に携帯端末は非常に小型であるため、携帯端末に付属する入力デバイスによる操作は困難である。この問題を解決する一方法として、音声による携帯端末操作が考えられる。しかし、携帯端末内のメモリやCPUなどのハードウェアは、中・大語彙の音声認識処理の全てを行うまでには至っていない。そこで、音響分析、特徴パラメータの圧縮を携帯端末内で行いサーバに伝送し、サーバで特徴パラメータの復元、音声認識を行う分散音声認識 (DSR: Distributed SpeechRecognition)が提案された。分散音声認識では、携帯端末とサーバ間で伝送するデータ形式等を共通化する必要があり、現在、欧州電気通信標準化機構 (ETSI: the European Telecommunications StandardsInstitute)において、標準化が進められている。本稿では、ETSI標準分散音声認識フロントエンドを用い日本語連続音声認識実験を行った結果を報告する。同フロントエンドは、特徴パラメータの圧縮にベクトル量子化を用いるため、入力系の周波数特性の差異はベクトル量子化歪みを増加させ、認識精度を低下させる原因となる可能性が高い。そこで、本稿では、入力系の周波数特性の差異によるベクトル量子化歪みを減少させる手法を提案する。音声認識実験結果より、提案手法は周波数特性の差異による認識精度の劣化を低減することが可能であった。This paper reports an evaluation of European Telecommunications Standards Institute (ETSI) standard Distributed Speech Recognition (DSR) front-end through continuous word recognition on a Japanese speech corpus and proposes a method, the Bias Removal Method (BRM), that reduces the distortion between feature vector and VQ codebook. Experimental results show that using non-quantized features in acoustic model training procedure can improve the recognition performance of DSR fornt-end features and that the proposed method can improve recognition performances of DSR front-end feature.
ベクトル空間モデル(VSM)は情報検索における代表的な検索モデルである.同モデルでは文書が単語の出現頻度に基づくベクトルで表現されるため,そのベクトル空間は一般にスパースかつ高次元となりメモリや検索時間の増大を招くとともに,文書中に含まれる無意味な単語がノイズ的な影響を及ぼし検索精度を低下させるという問題を生じる.これに対し特異値分解(SVD)を用い次元数を削減した空間で類似度を計算する潜在的意味インデキシング(Latent Semantic Indexing; LSI)が提案され,その効果が報告されている.本稿ではSVDに比べより少ない演算量で近似的に主成分分析を行うことが可能なSimple Principal Component Analysis(SPCA)を次元削減に適用する.MEDLINEコレクションを用いた検索実験を行った結果,SVDと同等以上の検索性能をSPCAにより達成した.The Vector Space Model (VSM) is a popular information retrieval model, which represents a document collection by a term-by-document matrix. Since term-by-document matrices are usually high-dimensional and sparse, they are susceptible to noise and are also difficult to capture the underlying semantic structure. Additionally, computing resources necessary for the storage and processing of such data is enormous. Dimensionality reduction is a way to overcome these problems. Principal Component Analysis (PCA) and Singular Value Decomposition (SVD) are popular techniques for dimensionality reduction based on matrix decomposition. However, such methods consume a large amount of computation resources. In the work described here, we use Simple Principal Component Analysis (SPCA), which is a data-oriented fast method, for dimensionality reduction of the vector space model. Experiments based on the MEDLINE collection showed that SPCA achieved significant improvement compared to the conventional vector space model.