Datasets:
id
stringlengths 9
9
| text
stringlengths 120
1.29k
| title
stringclasses 1
value |
---|---|---|
V24N01-05
|
本論文では,ユーザからの自然文による問い合わせを対応するFrequentlyAskedQuestion(FAQ)に分類する文書分類器を用いたFAQ検索手法を提案する.本文書分類器は,問い合わせ中の単語を手掛かりに,対応するFAQを判別する.しかし,FAQの多くは冗長性がないため,FAQを学習データとして文書分類器を作成する方法では,ユーザからの多様な問い合わせに対応するのが難しい.そこで,この問題に対処するために,蓄積されたユーザからの問い合わせ履歴から学習データを自動生成し,文書分類器を作成する.さらに,FAQおよび文書分類用に自動生成した学習データを用いて,通常使われる表層的な手がかりに加えて,本文書分類器の出力を考慮するランキングモデルを学習する.ある企業のコールセンターの4,738件のFAQおよび問い合わせ履歴54万件を用いて本手法を評価した.その結果,提案手法が,pseudo-relevancefeedbackおよび,統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較し,高いランキング性能を示した.
| |
V06N01-03
|
本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて重要な文を選び出す手法を提案する.文の重要度の評価に際して,表題はテキスト中で最も重要な文であり,重要な文へのつながりが強い文ほど重要な文であるという仮定を置き,文から表題へのつながりの強さをその文の重要度とする.二つの文のつながりの強さは,人称代名詞による前方照応と,同一辞書見出し語による語彙的なつながりに着目して評価する.平均で29.0文から成る英文テキスト80編を対象とした実験では,文選択率を25\%に設定したとき,従来手法による精度を上回る再現率78.2\%,適合率57.7\%の精度を得,比較的短いテキストに対して提案手法が有効であることを確認した.
| |
V21N03-03
|
大学入試センター試験『国語』の現代文で出題される,いわゆる「傍線部問題」を解く方法を定式化し,実装した.本方法は,問題の本文の一部と5つの選択肢を照合し,表層的に最も類似した選択肢を選ぶことにより問題を解く.実装した方法は,「評論」の「傍線部問題」の半数以上に対して正解を出力した.
| |
V07N01-04
|
本稿では単語の羅列を意味でソートするといろいろなときに便利であるということについて記述する.また,この単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
| |
V06N05-04
|
表層パタンの照合を行なう構成素境界解析を提案し,構成素境界解析と用例利用型処理を組み合わせた変換主導型機械翻訳の新しい実現手法が多言語話し言葉翻訳に有効であることを示す.構成素境界解析は,変項と構成素境界より成る単純なパタンを用いた統一的な枠組で,多様な表現の構文構造を記述できる.また,構成素境界解析は,チャート法に基づくアルゴリズムで逐次的に入力文の語を読み込み,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析を可能にする.構成素境界解析の導入により,変換主導型機械翻訳は構文構造の記述力,構文解析での曖昧性爆発といった,頑健性や実時間性の問題を解決することができた.さらに,構成素境界解析と用例利用型処理は単純で言語に依存しない手法であり,多言語話し言葉翻訳へ適用するための汎用性を高めることができた.旅行会話を対象とした日英双方向と日韓双方向の話し言葉翻訳の評価実験の結果により,本論文で提案する変換主導型機械翻訳が,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳できることを示した.
| |
V22N05-01
|
語義曖昧性解消の誤り分析を行う場合,まずどのような原因からその誤りが生じているかを調べ,誤りの原因を分類しておくことが一般的である.この分類のために,分析対象データに対して分析者7人が独自に設定した誤り原因のタイプを付与したが,各自の分析結果はかなり異なり,それらを議論によって統合することは負荷の高い作業であった.そこでクラスタリングを利用してある程度機械的にそれらを統合することを試み,最終的に9種類の誤り原因として統合した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.またタイプ分類間の類似度を定義することで,統合した誤り原因のタイプ分類が,各自の分析結果を代表していることを示した.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
| |
V09N01-06
|
日英機械翻訳において,翻訳が難しいと見られる抽象名詞,「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」の6種類を対象に,文法的用法と意味的用法を分類し,英語表現との対応関係を検討した.具体的には,名詞「の」は,意味的に他の抽象名詞に置き換えられる場合(交替現象)の多いことに着目して,置き換え先となる抽象名詞の種類と置き換え可能となる条件について検討した.次に,置き換え後の5種類の抽象名詞の用法を「語彙的意味の用法」,「文法的意味の用法」に分け,このうち,「文法的意味の用法」を,さらに,「補助動詞的用法」と「非補助動詞的用法」に分類した.さらに,これらの分類を詳細化し,英語表現との対応関係を「日英対応表」にまとめた.交替現象の解析精度と「日英対応表」の精度を調べるため,新聞記事から抽出した抽象名詞の用例に適用した結果では,「の」の交替現象の解析精度は,97%,「日英対応表」の平均カバー率は89%,平均正解率は73%であった.
| |
V26N01-08
|
本論文では,ニューラル機械翻訳(NMT)の性能を改善するため,CKYアルゴリズムから着想を得た,畳み込みニューラルネットワーク(CNN)に基づく新しいアテンション構造を提案する.提案のアテンション構造は,CKYテーブルを模倣したCNNを使って,原言語文中の隣接する単語/句の全ての可能な組み合わせを表現する.提案のアテンション構造を組み込んだNMTは,CKYテーブルの各セルに対応するCNNの隠れ状態に対するアテンションスコア(言い換えると,原言語文中の単語の組み合わせに対するアテンションスコア)に基づき目的言語の文を生成する.従来の文構造に基づくNMTは予め構文解析器で解析した文構造を活用するが,提案のアテンション構造を用いるNMTは,原言語文の構文解析を予め行うことなく,原言語の文に潜む構造に対するアライメントを考慮した翻訳を行うことができる.AsianScientificPaperExcerptCorpus(ASPEC)英日翻訳タスクの評価実験により,提案のアテンション構造を用いることで,従来のアテンション構造付きのエンコーダデコーダモデルと比較して,1.43ポイントBLEUスコアが上昇することを示す.さらに,FBISコーパスにおける中英翻訳タスクにおいて,提案手法は,従来のアテンション構造付きのエンコーダデコーダモデルと同等かそれ以上の精度を達成できることを示す.
| |
V25N04-04
|
本稿では,文法誤り検出のための正誤情報と文法誤りパターンを考慮した単語分散表現の学習手法を提案する.これまでの文法誤り検出で用いられている単語分散表現の学習では文脈だけをモデル化しており,言語学習者に特有の文法誤りを考慮していない.そこで我々は,正誤情報と文法誤りパターンを考慮することで文法誤り検出に特化した単語分散表現を学習する手法を提案する.正誤情報とは,n-gram単語列内のターゲット単語が誤っているのか正しいのかというラベルである.これは単語単位の誤りラベルを元に決定される.誤りパターンとは,学習者が誤りやすい単語の組み合わせである.誤りパターンは大規模な学習者コーパスから単語分散表現の学習のために抽出することが可能である.この手法で学習した単語分散表現で初期化したBidirectionalLongShort-TermMemoryを分類器として使うことで,FirstCertificateinEnglishコーパスに対する文法誤り検出において世界最高精度を達成した.
| |
V16N05-02
|
人名は検索語として,しばしば検索エンジンに入力される.しかし,この入力された人名に対して,検索エンジンは,いくつかの同姓同名人物についてのWebページを含む長い検索結果のリストを返すだけである.この問題を解決するために,Web検索結果における人名の曖昧性解消を目的とした従来研究の多くは,凝集型クラスタリングを適用している.一方,本研究では,ある種文書に類似した文書をマージする半教師有りクラスタリングを用いる.我々の提案する半教師有りクラスタリングは,種文書を含むクラスタの重心の変動を抑えるという点において,新規性がある.
| |
V09N05-06
|
「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.その意味上と構文上の多様さのために,更に中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,とりたて表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文では,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴,更に中国語側での取り立てられる部分の統語的意味的な特徴によって,とりたて詞の意味の曖昧さを解消する手順を提案した.また,とりたて詞に対応する中訳語の位置について,訳語の文法上の位置に対する約束と,取り立てられる部分の中国語側での成分などから特定する手順を提案した.またこれらの手順を,「も,さえ,でも」の三つのとりたて詞をそれぞれ含む100文に対して手作業で検証した.正訳率はすべて80\,\%以上となり,本手法の有効性が示された.
| |
V21N02-09
|
言語研究において,新しい品詞体系を用いる場合には,既存の辞書やコーパス,解析器では対応できないことが多いため,これらを再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する場合が多い.一方,解析器は既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかになっていない.本論文では,品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なる日本語話し言葉コーパス(以下,CSJ)と現代日本語書き言葉均衡コーパス(以下,BCCWJ)を利用して,長単位情報を自動付与した場合に生じる誤りを軽減する方策について述べる.具体的には,CSJを基に構築した長単位解析器をBCCWJへ適用するため,CSJとBCCWJの形態論情報における相違点に応じて,長単位解析器の学習に用いる素性やラベルを改善した.評価実験により提案手法の有効性を示す.
| |
V10N02-04
|
全単語の出現箇所を与える総索引は日本の古典の研究の補助として用いられている.品詞タグ付きコーパスはコンピュータを用いた自然語研究の手段として重要である.しかし日本語古典文に関する品詞タグ付きコーパスは公開されていない.そこで総索引を品詞タグ付きコーパスに変換する方法を検討した.使用した総索引は本文編と索引編とから成り,後者は単語の仮名/漢字表記・品詞情報を見出しとし,その単語の本文での出現行番号のリストを与える.変換機能には活用表の知識のみを保持した.ある単語の部分文字列が他の単語の表記と一致し,両者が同一行に出現することがあり得る問題に対し,一種の最長一致法を用いた.索引の見出しの漢字表記が送り仮名等の仮名文字を含まないため,照合条件を緩める先読み法を用いた.照合失敗部や索引自体の誤りへの対処のため,変換の不完全部分を示す印を出力し人手で検査・修正した.以上の結果,約15万単語の古典文の品詞タグ付きコーパスを得た.
| |
V09N03-02
|
辞書ベースの自然言語処理システムでは辞書未登録語の問題が避けられない.本稿では訓練コーパスから得た文字の共起情報を利用する手法で辞書未登録語の抽出を実現し,辞書ベースのシステムの精度を向上させた.本稿では形態素解析ツールをアプリケーションとして採用し,処理時に統計情報を動的に利用することによって形態素の切り分けの精度を上げる手法と,統計情報を利用して事前に辞書登録文字列を選別し必要なコスト情報を補って辞書登録を行なう手法との2つのアプローチを提案し,さらにこの2つの手法を組み合わせてそれぞれの欠点を補う手法を提案する.どちらも元のツールの改変を行なうものではなく,統計情報の付加的な利用を半自動的に実現するもので,元のツールでは利用できない辞書未登録語の抽出に対象を絞ることで精度の向上を図る.実験の結果,動的な統計情報の利用のシステムが未知語の認識に,辞書登録システムが切り分け精度の向上に有効であることが示され,2つのシステムを適切に組み合わせることによって訓練コーパスのデータで認識可能な辞書未登録語をほぼ完全に解決できた.さらに複合語の認識も高い精度で実現することができた.
| |
V18N03-02
|
本稿では,パラメータ調整を簡略化したブートストラッピング的手法による日本語語義曖昧性解消を提案する.本稿で取り上げるブートストラッピングとは,ラベルなしデータを既存の教師あり学習手法を用いて分類し,その中で信頼度の高いデータをラベル付きデータに加え,この手順を反復することによって分類の性能を向上させる半教師あり学習手法である.従来のブートストラッピングによる語義曖昧性解消においては,プールサイズ,ラベル付きデータに追加するラベルなしデータの事例数,手順の反復回数といったパラメータをタスクに合わせ調整する必要があった.本稿にて提案する手法はヒューリスティックと教師あり学習(最大エントロピー法)によるラベルなしデータの二段階の分類,および学習に用いるラベルなしデータの条件を変えた複数の分類器のアンサンブルに基づく.これにより必要なパラメータ数は一つになり,かつパラメータの変化に対し頑健な語義曖昧性解消を実現する.SemEval-2日本語タスクのデータセットを用いたベースラインの教師あり手法との比較実験の結果,パラメータの変化に対し最高で1.8ポイント,最低でも1.56ポイントの向上が見られ,提案手法の有効性を示せた.
| |
V08N04-03
|
コンピュータで言語処理を行なうとき,構文解析や意味解析だけでなく人間が持つ一般的な知識や当該分野の背景的知識などの情報が必要になる.本研究では,人間の持つ知識を調べるため連想実験を行ない連想概念辞書として構造化した.連想実験では,小学生の学習基本語彙中の名詞を刺激語とし,刺激語と「上位概念,下位概念,部分・材料,属性,類義語,動作,環境」の7つの課題から連想語を収集する.従来の電子化辞書は木構造で表現され,概念間の距離は階層の枝の数を辿る回数をもとに計算するなど構造に依存したものであったが,連想概念辞書では連想実験から得られるパラメータをもとに,線形計画法によって刺激語と連想語の距離を定量化した.また距離情報を用い,「果物」「野菜」「家具」などの日常頻出語を中心として3〜4階層をなす刺激語の連想語(上位/下位概念)のつながりを調べた.この連想概念辞書とEDR電子化辞書,WordNetの比較を,上位/下位階層をなす概念間の距離を求めることで行なった.連想概念辞書とWordNetは,ある程度近い概念構造を持っており,一方EDRは他の2つとは異なる特徴の構造を持っていることがわかった.
| |
V20N05-05
|
単語情報がタグ付けされた本格的な通時コーパスを構築するためには,歴史的な日本語資料の形態素解析が必要とされるが,従来はこれを十分な精度で行うことができなかった.そこで,現代語用のUniDicに語彙の追加を行い,明治時代の文語文と平安時代の仮名文学作品のコーパスを整備することで,「近代文語UniDic」と「中古和文UniDic」を作成した.この辞書によりコーパス構築に利用可能な約96〜97\%での解析が可能になった.この辞書の学習曲線をもとに歴史的資料の形態素解析辞書に必要な訓練用のタグ付きコーパスのサイズを調査した結果,約5万語のコーパスで精度95\%を超える実用的な解析が可能になること,5,000語程度の少量であっても対象テキストの訓練コーパスを用意することが有効であることを確認した.
| |
V08N01-08
|
音声翻訳を介した対話をより自然なものにするためには,原言語を解析するだけでは取得困難な『言語外情報』を利用することが有効である.例えば,『対話者の社会的役割』を使用した翻訳は対話をより自然にする.本論文では,特にこの『対話者の社会的役割』に着目し,この役割情報を利用して,適切な丁寧度の翻訳にする手法を提案する.既存の変換ルールや辞書にこの役割情報に応じた修正を加えることによって訳を変える.実際に英日翻訳における変換ルールや辞書に『対話者の社会的役割』に応じたルールやエントリーを登録し,その際に参照していない未訓練の23会話(344発声)を使って実験をした.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%であった.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性も高い.さらに,対話者の性別情報など他の言語外情報や英日以外の言語対に対する本手法の適用可能性についても考察する.
| |
V22N05-02
|
\rule{0pt}{1\Cvs}ソーシャルメディアサービスの普及により,人々や社会の状況を調査する新しいアプローチが開拓された.ひとつの応用事例として,ソーシャルメディアの投稿から疾患・症状の流行を検出する公衆衛生サーベイランスがある.本研究では,自然言語処理技術を応用して,ソーシャルメディアの投稿から風邪やインフルエンザなどの罹患を検出するタスクに取り組んだ.最先端のシステムのエラー分析を通じて,事実性解析と主体解析という重要かつ一般性のあるサブタスクを見い出した.本研究では,これらのサブタスクへの取り組みを行い,罹患検出タスクへの貢献を実証した.
| |
V07N04-03
|
電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.近年,情報検索システムの普及により,検索結果提示での利用が,要約の利用法として注目されている.要約の利用により,ユーザは,検索結果のテキストが検索要求に適合しているかどうかを,素早く,正確に判定できる.一般に情報検索システムでは,ユーザの関心が検索要求で表わされるため,提示される要約も,元テキストの内容のみから作成されるものより,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖の使用により,検索要求に関連するテキスト中のパッセージを要約として抽出できる.我々の手法の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法を採用し,10種類の要約作成手法による実験を行なう.実験結果によって,我々の手法の有効性が支持されることを示す.また,評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても分析し,報告する.
| |
V13N03-03
|
選好依存文法(PDG:PreferenceDependencyGrammar)は,自然言語の形態素,構文,意味解析を統合的に行う枠組みであり,各レベルの種々の曖昧性を統合的に効率良く保持し,各レベルの知識により優先度を設定し,全体解釈として最適な解を計算する.本稿では,PDGの基本モデルである多レベル圧縮共有データ結合モデルとPDGの概要について述べるとともに,選好依存文法で用いられるヘッド付き統語森,依存森といった言語解釈を統合保持するデータ構造とその構築手法について説明する.また,文の句構造を圧縮共有する統語森と依存構造を圧縮共有する依存森との対応関係において完全性と健全性が成立することを示す.
| |
V17N04-04
|
FrameNet,PropBankといった意味タグ付きコーパスの出現とともに,機械学習の枠組みを利用した自動意味役割付与システムが数多く研究されてきた.しかし,これらのコーパスは個々のフレームに固有の意味役割を定義するため,コーパス中に低頻度,或いは未出現の意味役割が数多く存在し,効率的な学習を妨げている.本論文は,意味役割付与における意味役割の汎化問題を取り上げ,既存の汎化指標と新たに提案する指標を役割の分類精度を通して比較し,それぞれの特徴を探求する.また,複数の汎化指標を同時に利用する分類モデルが自動意味役割付与の精度を向上させることを示す.実験では,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1マクロ平均で$7.42\%$の向上を,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した.
| |
V15N02-01
|
文書分類の多くのアプリケーションにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用で,正確な推定値が必要とされる.これまでに提案された推定方法はいずれも2値分類を想定し,推定したいクラスの分類スコア(分類器が出力するスコア)のみを用いている.しかし,文書分類では多値分類が適用されることが多く,その場合は,予測されるクラスはクラスごとに出力された分類スコアの絶対的な大きさではなく相対的な大きさにより決定される.したがって,クラス所属確率は,推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられるため,推定したいクラス以外の分類スコアも用いて推定する必要があると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.提案手法を多値分類に拡張したサポートベクターマシンに適用し,性質の異なる2つのデータセットを用いて実験した結果,有効性が示された.また,本稿では,クラス所属確率を推定する別の方法として,各分類スコアを軸として等間隔に区切ってセルを作成する「正解率表」を利用する方法も提案したが,この方法においても複数の分類スコアを用いることは有効であった.提案手法は,分類スコアの組み合わせや分類器の変更に対しても容易に対応できる.
| |
V24N01-01
|
高齢者の認知症や孤独感の軽減に貢献できる対話ロボット開発のため,回想法に基づく傾聴を行う音声対話システムの開発を行った.本システムは,ユーザ発話の音声認識結果に基づき,相槌をうったり,ユーザ発話を繰り返したり,ユーザ発話中の述語の不足格を尋ねたりする応答を生成する.さらに,感情推定結果に基づき,ユーザ発話に対して共感する応答を生成する.本システムの特徴は,音声認識結果に誤りが含まれることを前提とし,音声認識信頼度を考慮して応答を生成する点である.110名の一般被験者に対する評価実験の結果,「印象深い旅行」を話題とした場合で,45.5\%の被験者が2分以上対話を継続できた.また,システムの応答を主観的に評価した結果,約77\%のユーザ発話に対して対話を破綻させることなく応答生成ができた.さらに,被験者へのアンケートの結果,特に高齢の被験者から肯定的な主観評価結果が得られた.
| |
V26N01-02
|
インターネット上のコミュニティQAサイトや学会での質疑応答の場面などにおいて,人々は多くの質問を投げかける.このような場面で用いられる質問には,核となる質問に加え補足的な情報をも付与され,要旨の把握が難しくなることもある.補足的な情報は正確な回答を得るには必要であるが,質問の要旨を素早く把握したいといった状況においては必ずしも必要でない.そこで本稿では,新たなテキスト要約課題として,複数文から構成される質問{テキスト}を単一質問文に要約する“質問要約”を提案する.本研究ではまず,コミュニティ質問応答サイトに投稿される質問から{質問テキスト}−要約対を獲得し,必要な要約手法について抽出型および生成型の観点から分析を行う.また,獲得した{質問テキスト}−要約対を学習データとして抽出型および生成型の要約モデルを構築し,性能を比較する.分析より,抽出型要約手法では要約できない{質問テキスト}の存在を確認した.また要約モデルの比較実験から,従来の要約課題で強いベースライン手法として知られるリード文よりも,先頭の{疑問文を規則を用いて同定し抽出するリード疑問文ベースライン}がより良い性能を示すこと,生成型手法であるエンコーダ・デコーダモデルに基づく要約手法が,ROUGEによる自動評価,人間による評価において良い性能を示すことなどの知見を得た.また,入力中の出現単語を出力に含めるコピー機構を持つエンコーダ・デコーダモデルは,さらに良い性能を示した.
| |
V12N05-04
|
本稿では,前置詞句や等位構造を持つ英語固有表現とそれに対応する日本語表現を対訳コーパスから抽出する方法を提案する.提案方法では,(1)意味的類似性と音韻的類似性の二つの観点から英語固有表現と日本語表現の対を評価し,二種類の類似度を統合して全体としての類似度を求める処理と,(2)前置詞句の係り先や等位構造の範囲が不適格である英語固有表現の抽出を抑制する処理を行なう.読売新聞とTheDailyYomiuriの対訳コーパスを用いて実験を行ない,提案方法の性能と上記のような処理を行なわないベースラインの性能を比較したところ,提案方法で得られたF値0.678がベースラインでのF値0.583を上回り,提案方法の有効性が示された.
| |
V22N01-02
|
本論文では,手紙文書とそれに対する応答文書など対となる二つの文書間における文レベルでの対応関係を推定する課題を提案し,解決手法を検討する.これまで,単一の文書内における文同士の関係や対話における発話同士の関係を対象とした研究は盛んに行われて来たのに対し,二文書間における文書を跨いだ文対応関係にはあまり注目されて来なかった.このような関係の例として,質問と応答,依頼と回答などが挙げられる.文対応関係を用いることで文書によるコミュニケーションをより細かい単位で説明できることから,本関係の推定が実現すれば様々な応用が期待できる.一例として,文書対の群から対応を持つ文を抽出すれば,各文書対でどのようなコミュニケーションが行われているかを提示することが可能となる.我々は文対応関係の自動推定を実現するため,本課題を文対応の有無を判定する分類問題とみなして条件付確率場を用いる手法を提案する.具体的には,推定した文の種類を文対応推定に活用する対話文書を対象とした従来手法を,本論文の課題に適用する手法を示す.加えて,文種類の推定と文対応の推定を同時に行う拡張モデルによる手法を提案する.実際の宿泊予約ウェブサイトにおけるレビュー・返答対を対象とした評価実験の結果,拡張モデルは拡張前のモデルよりも高い性能である適合率46.6\%,再現率61.0\%の推定性能を得た.
| |
V03N02-01
|
終助詞「よ」「ね」「な」は,書き言葉の文には殆んど用いられないが,日常会話において頻繁に使われており,文全体の解釈に及ぼす影響が大きい.そのため,機械による会話理解には,終助詞の機能の研究は不可欠である.本論文では,代表的な終助詞「よ」「ね」「な」について,階層的記憶モデルによる終助詞の機能を提案する.まず,終助詞「よ」の機能は,文の表す命題が発話以前に記憶中のある階層に存在することを表すことである.次に,終助詞「ね」「な」の機能は,文の表す命題を記憶中に保存する処理をモニターすることである.本稿で提案する機能は,従来の終助詞の機能が説明してきた終助詞「よ」「ね」「な」の用法を全て説明できるだけでなく,従来のものでは説明できなかった終助詞の用法を説明できる.
| |
V11N02-03
|
講演音声のような話し言葉の書き起こしや音声認識結果には、話し言葉特有の表現が数多く含まれており講演録などのアーカイブとして二次利用しにくいため、文章として適した形態に整形する必要がある。本稿では、統計的機械翻訳の考え方に基づいて講演の書き起こしを整形された文章に自動的に変換する方法を提案する。本研究で扱う処理は、フィラーの削除、句点の挿入、助詞の挿入、書き言葉表現への変換、文体の統一である。これらの処理を統合的に行うようにビームサーチを導入した。実際の講演の書き起こしを用いた定量的な評価により統計的な手法の有効性が示され、句点と助詞の挿入に関して高い精度を得ることができた。
| |
V02N04-02
|
本論文では,テイル,テアル,テシマウ,テオク,テミルといったアスペクト辞のマニュアル文における意味を検討する.これらのアスペクト辞は,時間的なアスペクトを表す他に,書き手の態度などのいわゆるモダリティをも表現することがあるので,モダリティについての解釈から,アスペクト辞の隣接する動詞句の主語に関する制約を明らかにする.さらに,実際にマニュアル文から例文を集め,提案する制約の正当性を検証する.このような制約は,省略された主語などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳に応用できる.
| |
V06N06-03
|
複数の関連記事に対する要約手法について述べる.記事の第一段落を用いて,その重複部・冗長部を削除することにより複数の関連記事をどの程度要約できるかを明確にすることを目的とする.さらに,重複部・冗長部を特定,削除する処理をヒューリスティックスにより実現する手法を提案する.まず,新聞記事における推量文の一部は重要度が低いと考えられ,これを文末表現ならびに手掛り語で特定し,削除する.次に,詳細な住所の表現は記事の概要を把握するためには不必要であり,これも削除する.さらに,導入部と呼ぶ部分を定義し,導入部内の名詞と動詞が他記事の文に含まれるならば導入部は重複しているとし,削除する.また,頻繁に出現する人名・地名に関する説明語句,括弧を用いた表現について,他記事との重複を調べる.重複している部分は,1つを残し他は削除する.提案手法を計算機に実装し,実験を行った.その結果,27記事群に対して各記事の第一段落を平均要約率82.1\%で要約することができた.さらに,実験結果のうち6記事群を用いて評価者11人に対してアンケートを行い評価した.アンケートの内容は,要約文章において冗長に感じる箇所,ならびに削除部分を含めた元記事において重要と考えられるが削除されている箇所を指摘する,である.アンケート調査の結果,本手法による要約がおおむね自然であることを確認した.また,本手法によって削除された部分がおおむね妥当であることが明らかになった.
| |
V10N05-01
|
LR構文解析法で利用するLR解析表のサイズを削減する新規の手法を提案する.提案法は,(1)従来のLR表縮小方法と同時に適用可能,(2)提案法によって作成されたLR表は従来のLR構文解析アルゴリズムでほぼそのまま利用可能,(3)解析結果や解析効率に影響を与えない,といった特徴を持つ.提案法を実際の自然言語処理用文法に適用したところ,元の文法のサイズによって,約60\,\%程度から,25\,\%程度まで,LR表が圧縮されることを確認した.
| |
V23N01-02
|
本稿では商品の属性値抽出タスクにおけるエラー分析のひとつの事例研究について報告する.具体的には,属性値辞書を用いた単純な辞書マッチに基づく属性値抽出システムを構築し,人手により属性値がアノテーションされたコーパスに対してシステムを適用することで明らかとなるFalse-positive,False-negative事例の分析を行った.属性値辞書は商品説明文に含まれる表や箇条書きなどの半構造化データを解析することで得られる自動構築したものを用いた.エラー分析は実際のオンラインショッピングサイトで用いられている5つの商品カテゴリから抽出した100商品ページに対して行った.そして分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.本稿ではエラーカテゴリおよびその実例を示すだけでなく,誤り事例を無くすために必要な処理・データについても検討する.
| |
V06N05-02
|
本論文では,二つの名詞概念からなる比喩表現における顕著な属性を自動的に発見する手法を提案する.まず,概念から連想される属性について調べる連想実験を行い,次に,その結果に基づく属性の束を作ってSD法の実験を行う.そして,SD法実験の評定値をパラメータとして用いるニューラルネットワークを使用して,二つの概念に共通でしかも顕現性の高い属性を抽出する.この手法では多数の属性間の顕現性に関する数値的な順序づけが行われるので,多様な概念の組み合わせを含む「TはVだ」の形の比喩表現に対して適用できる.ここで,Tは被喩辞,Vは喩辞である.本手法を用いたシステムによる実行例を示し,その有効性を検証する.
| |
V06N02-01
|
日本語では単語の境界があいまいで,活用等のルールに基づいて定義された単位である形態素は必ずしも人が認知している単語単位や発声単位と一致しない.本研究では音声認識への応用を目的として人が潜在意識的にもつ単語単位への分割モデルとその単位を用いた日本語の言語({\itN}-gram)モデルについて考察した.本研究で用いた単語分割モデルは分割確率が2形態素の遷移で決定されるという仮定を置いたモデルで,人が単語境界と考える点で分割した比較的少量のテキストデータと形態素解析による分割結果とを照合することにより,パラメータの推定を行った.そして多量のテキストを同モデルにしたがって分割し,単語単位のセット(語彙)と言語モデルを構築した.新聞3誌とパソコン通信の投稿テキストを用いた実験によれば約44,000語で,出現した単位ののべ94-98\%がカバーでき,1文あたりの単位数は形態素に比べて12\%から19\%少なくなった.一方,新聞とパソコン通信ではモデルに差があるもののその差は単語分割モデル,言語モデル双方とも事象の異なりとして現れ,同一事象に対する確率の差は小さい.このため,新聞・電子会議室の両データから作成した言語モデルはその双方のタスクに対応可能であった.
| |
V10N04-09
|
本稿では,日本語のテンス・アスペクト表現を中国語に機械翻訳する手法を提案した.具体的には,日本語のテンス・アスペクト表現で主要な役割を果す「タ/ル/テイル/テイタ」を,両言語の文法特徴・共起情報,中国語述語の時間的性格を主要な手がかりとして,中国語のアスペクト助字(了/着/在/\kanji{001})または無標識の$\phi$に翻訳するアルゴリズムを提案した.まず先行研究から両言語におけるテンス・アスペクト表現の意味用法およびその意味用法間の対応関係をまとめた.そして,対応の曖昧さを解決するために,機械翻訳の立場から,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムを提案した.最後に,作成した翻訳アルゴリズムを評価し,約8割正解という良好な結果を得た.
| |
V15N01-03
|
日本語文のムードについて,いくつかの体系が提示されている.しかしながら,既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.したがって,日本語ウェブページを対象にした言語情報処理において,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,NTCIRプロジェクトによって収集された11,034,409件の日本語ウェブページに含まれる文を分析して既知のムードとともに新しいムードを収集するための系統的方法について詳述する.その方法の基本的手順は,(1)日本語文をChaSenによって単語に分割し,(2)様々な種類のムードを表出すると予想される文末語に着目し,(3)文末語に手作業でムードを割り当てる,というものである.そして,収集した新しいムードを示し,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.比較によって得た知見をもとに,より網羅性を高めるように,拡充したムード体系の構成を提案する.
| |
V10N04-08
|
本論文では,大規模テキスト知識ベースに基づく対話的自動質問応答システム「ダイアログナビ」について述べる.本システムは,2002年4月からWWW上で一般公開し,パーソナルコンピュータの利用者を対象としてサービスを行っている.実世界で用いられる質問応答システムにおいては,ユーザ質問の不明確さや曖昧性が大きな問題となる.本システムは,「エラーが発生した」のような漠然とした質問について,対話的に聞き返しを行うことによってユーザが求める答えにナビゲートする.聞き返しの方法としては,頻繁になされる漠然とした質問に対する聞き返しの手順を記述した対話カードを用いる手法と,自動的に聞き返しの選択肢を編集して提示する手法を組み合わせて用いている.また,適切なテキストを正確に検索するために,ユーザ質問のタイプ,同義表現辞書や,日本語の文の係り受け関係などを利用している.
| |
V19N05-03
|
現在,電子メール,チャット,マイクロブログなどのメディアで,顔文字は日常的に使用されている.顔文字は,言語コミュニケーションで表現できない,ユーザの感情やコミュニケーションの意図を表すのに便利であるが,反面,その種類は膨大であり,場面に合った顔文字を選ぶことは難しい.本研究では,ユーザの顔文字選択支援を目的として,ユーザが入力したテキストに現れる感情,コミュニケーション,動作のタイプ推定を行い,顔文字を推薦する方法を提案する.感情,コミュニケーション,動作のタイプは,{\itTwitter}から収集したコーパスを用いてカテゴリを定義し,推定システムは,$k$-NNに基づき実現した.また,システムが推薦する顔文字がユーザの意図にどの程度適合しているか,5名の被験者により評価した結果,91件のつぶやきに対して66.6\%の顔文字が適切に推定されており,感情カテゴリのみを用いて推薦された結果と比べて,提案手法の顔文字推薦の精度が有意に向上していることがわかった.
| |
V23N01-05
|
「ロボットは東大に入れるか」は,大学入試試験問題を計算機で解くという挑戦を通じ,言語処理を含むAI諸技術の再統合と,知的情報処理の新たな課題の発見を目指すプロジェクトである.知的能力の測定を第一目的として設計された入試問題は,AI技術の恰好のベンチマークであるとともに,人間の受験者と機械のエラー傾向を直接比較することが可能である.本稿では,大手予備校主催のセンター試験形式模試を主たる評価データとして,各科目の解答システムのエラーを分析し,高得点へ向けた今後の課題を明らかにするとともに,分野としての言語処理全体における現在の課題を探る.
| |
V22N02-02
|
自然言語処理において,単語認識(形態素解析や品詞推定など)の次に実用化可能な課題は,ある課題において重要な用語の認識であろう.この際の重要な用語は,一般に単語列であり,多くの応用においてそれらに種別がある.一般的な例は,新聞記事における情報抽出を主たる目的とした固有表現であり,人名や組織名,金額などの7つか8つの種別(固有表現クラス)が定義されている.この重要な用語の定義は,自然言語処理の課題に大きく依存する.我々はこの課題をレシピ(調理手順の文章)に対する用語抽出として,レシピ中に出現する重要な用語を定義し,実際にコーパスに対してアノテーションし,実用的な精度の自動認識器を構築する過程について述べる.その応用として,単純なキーワード照合を超える知的な検索や,映像と言語表現のマッチングによるシンボルグラウンディングを想定している.このような背景の下,本論文では,レシピ用語タグセットの定義と,実際に行ったアノテーションについて議論する.また,レシピ用語の自動認識の結果を提示し,必要となるアノテーション量の見通しを示す.
| |
V09N04-05
|
本稿では,1999年の解説の後を受け,テキスト自動要約に関する,その後の研究動向を概観する.本稿では,その後の動向として,特に最近注目を集めている,以下の3つの話題を中心に紹介する.\begin{enumerate}\item単一テキストを対象にした要約における,より自然な要約作成に向けての動き,\item複数テキストを対象にした要約研究のさらなる活発化,\item要約研究における,要約対象の幅の広がり\end{enumerate}
| |
V25N04-02
|
本研究では,日本で人気のある野球に着目し,Play-by-playデータからイニングの要約文の生成に取り組む.Web上では多くの野球に関する速報が配信されている.戦評は試合終了後にのみ更新され,“待望の先制点を挙げる”のような試合の状況をユーザに伝えるフレーズ(本論文ではGame-changingPhrase;GPと呼ぶ)が含まれているのが特徴であり,読み手は試合の状況を簡単に知ることができる.このような特徴を踏まえ,任意の打席に対して,GPを含む要約文を生成することは,試合終了後だけでなく,リアルタイムで試合の状況を知りたい場合などに非常に有益であるといえる.そこで,本研究ではPlay-by-playデータからGPを含む要約文の生成に取り組む.また,要約生成手法としてテンプレート型文生成手法とEncoder-Decoderモデルを利用した手法の2つを提案する.
| |
V08N03-01
|
これまで主に検討されてきた文書要約手法は,文集合から重要文を抽出するものである.この方法によれば,段落などを要約した結果として誤りのない文の集合が得られる.しかし,目的によっては更に要約率を上げるため,または段落などの単位での要約が不適当であるときなど,一文毎の簡約が必要となる場合がある.このような文書要約手法では,簡約文が日本語として自然な文であることが重要ppである.そこで本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.本稿の定式化では簡約文の評価に文節間の係り受け整合度が用いられていることから,簡約結果は適切な係り受け構造を持つことが期待できる.したがって本手法を用いることにより,自然で正確な簡約文を高速に生成できる可能性がある.このアルゴリズムを実用するには,文節重要度と係り受け整合度の適切な設定が不可欠であるが,本稿ではこれらについては議論せず,アルゴリズムの導出と計算効率,実装法などに重点を置いて報告する.
| |
V07N03-01
|
本論文では,GLR法に基づく痕跡処理の手法を示す.痕跡という考え方は,チョムスキーの痕跡理論で導入されたものである.痕跡とは,文の構成素がその文中の別の位置に移動することによって生じた欠落部分に残されると考えられるものである.構文解析において,解析系が文に含まれる痕跡を検出し,その部分に対応する構成素を補完することができると,痕跡のための特別な文法規則を用意する必要がなくなり,文法規則の数が抑えられる.これによって,文法全体の見通しが良くなり,文法記述者の負担が軽減する.GLR法は効率の良い構文解析法として知られるが,痕跡処理については考慮されていない.本論文では,GLR法に基づいて痕跡処理を実現しようとするときに問題となる点を明らかにし,それに対する解決方法を示す.主たる問題は,ある文法規則中の痕跡の記述が,その痕跡とは関係のない文法規則に基づく解析に影響を与え,誤った痕跡検出を引き起す,というものである.本論文で示す手法では,この問題を状態の構成を工夫することで解決する.
| |
V22N02-01
|
近年,医療文書の電子化が進み,大規模化する医療データから有用な情報を抽出・活用する技術が重要となっている.特に,診療記録中の症状名や診断名などの用語を自動抽出する技術は,症例検索などを実現する上で必要不可欠である.機械学習に基づく用語抽出では,辞書などの語彙資源の利用が訓練データに含まれない用語の認識に有効である.しかし,診療記録では多様な構成語彙の組合せからなる複合語が使用されるため,単純なマッチングに基づく辞書の利用では検出できない用語が存在し,語彙資源利用の効果は限定的となる.そこで,本稿では,語彙資源を有効活用した用語抽出を提案する.資源活用の1点目として,資源中の用語に対して語彙制限を行うことで,用語抽出に真に有用な語彙の獲得を行う.2点目として,資源から複合語の構成語彙である修飾語を獲得し,元の語彙に加えて獲得した修飾語を活用することで,テキスト中のより多くの用語を検出する拡張マッチングを行う.検出された用語の情報は機械学習の素性として用いる.NTCIR-10MedNLPテストコレクションを用いた抽出実験の結果,単純な語彙資源の利用時と比較して適合率および再現率の向上を実現し,本手法の有効性を確認した.また,肯定・否定などのモダリティ属性の分類を含めた抽出では,従来手法に対して,本手法が最も高い精度を実現した.
| |
V04N01-01
|
\vspace*{-1mm}テキストの可能な解釈の中から最良の解釈を効率良く選び出せる機械翻訳システムを実現するために,最良解釈を定義する制約(拘束的条件)と選好(優先的条件)をText-WideGrammar(TWG)として記述し,圧縮共有森(packedsharedforest)上での遅延評価による優先度計算機構によってTWGを解釈実行する.TWGは,形態素,構文構造,意味的親和性,照応関係に関する制約と選好を備えたテキスト文法である.照応関係に関する制約は,陳述縮約に関する規範を主な拠り所としている.TWGによれば,テキストの最良解釈は,形態素に関する選好による評価点が最も高く,構文構造,意味的親和性,照応関係に関する選好による各評価点の重み付き総和が最も高い解釈である.処理機構は,意味解析と照応解析を,構文解析系から受け取った圧縮共有森上で行なう.その際,最良解釈を求めるために必要な処理だけを行ない,それ以外の処理の実行は必要が生じるまで保留することによって無駄な処理を避ける.保留した処理を必要に応じて再開することによって,最良解釈以外の解釈も選び出せる.
| |
V24N04-04
|
ドメイン適応は,機械翻訳を実用に使用するときの大きな課題の一つである.本稿では,複数ドメインを前提とした,統計翻訳の適応方式を提案する.本稿の方式は,カバレッジが広い(未知語が少ない)コーパス結合モデルと,素性関数の精度がよい単独ドメインモデルを併用する.これらを,機械学習のドメイン適応に用いられている素性空間拡張法の考え方で結合する.従来の機械翻訳における素性空間拡張法は,単一のモデルを用いていたが,本稿の提案方式は,複数のモデルを用いることにより,両者の利点を活かすことが特徴である.実験では,単独ドメインモデルに比べ,翻訳品質が向上または同等を保持した.提案法は,当該ドメインの訓練コーパスが小規模である場合に高い効果を持ち,100万文規模の大規模コーパスを持つドメインへの適応に使用しても,翻訳品質を下げることなく,ドメインによっては品質向上の効果がある.基本的な対数線形モデルでも,モデルの選択と設定を適切に行うことで,最先端品質の適応方式が実現できることを示す.
| |
V20N03-01
|
本論文では東日本大震災発生時に首都圏で引き起こされた帰宅困難者問題の発生要因や通勤者の帰宅意思決定行動に対して,Twitterにおける各ユーザーの発言内容をもとにその要因を明らかにする.まず,発言データから行動データを抽出することを目的として,Twitterの発言内容から,各ユーザーの帰宅行動をサポートベクターマシンを用いて識別する.次に,ジオタグデータを用いて職場・自宅間距離等を作成するとともに,ツイートデータを用いて外的要因や心理的説明要因を作成する.当日の帰宅意思決定行動をこれらの要因を用いて離散選択モデルによりモデル化する.このモデル化によるシナリオシミュレーションを行った結果,避難所施設・一時滞在場所の有無が待機・宿泊行動を促進すること,地震発生後の家族間の安否確認の可否が徒歩帰宅行動に影響を与える可能性が示された.以上より,今後の災害時における帰宅困難者問題への対策を考察する.
| |
V04N04-05
|
コーパスに基づく確率的言語モデルとして,従来は主に語彙統語論的なモデルが扱われてきた.我々は,より高次の言語情報である対話に対する確率的モデルを,コーパスから自動的に生成するための研究を行った.本研究で用いたコーパスは,ATR対話データベース中の「国際会議参加登録」に関する対話データであり,各発話文には,発話者のラベルおよび陳述・命令・約束などの発話行為タイプが付与されている.本技術資料では,これらのコーパスから,2種類の方法を用いて,確率的な対話モデルを生成する.まず初めに,エルゴードHMM(HiddenMarkovModel)を用いて,コーパス中の話者ラベルおよび発話行為タイプの系列をモデル化した.次に,ALERGIAアルゴリズムと呼ばれる,状態マージング手法に基づいた学習アルゴリズムを用いて,話者ラベルおよび発話行為タイプの系列をモデル化した.エルゴードHMMの場合には,確率モデルの学習に先立ち,モデルの状態数をあらかじめ決めておく必要があるが,ALERGIAアルゴリズムでは,状態の統合化を繰り返すことにより,最適な状態数を持つモデルを自動的に構成することが可能である.エルゴードHMMあるいはALERGIAアルゴリズムを用いることにより,話者の交替や質問・応答・確認といった会話の基本的な構造を確率・統計的にモデル化することができた.また,得られた確率的対話モデルを,情報理論的な観点から評価した.
| |
V07N05-03
|
音声合成におけるポーズ制御において重要となる局所係り受け解析に関し,決定リストを用いる方法を開発し,ポーズ挿入の正解率をF値で評価したところ90.04\%を得た.本係り受け解析は決定リストを用いているので,使用するメモリの容量と処理速度に関して設定を容易に変更できるという特徴を有している.このため,用途に応じてメモリ容量,計算速度が選択できる.計算速度を重視し,メモリ容量を12Kバイトと小さくした場合,文あたりのポーズ設定処理の時間7msec(PentiumIII450MHz),F値85\%となり,音声合成システムへの実装が現実的であることがわかった.係り受け解析結果に基づくポーズ挿入位置制御規則を作成し,聴取実験によって性能を確認した.その結果,係り受け距離のみに基づく制御で,85\%程度のポーズ挿入位置が挿入適当という結果であった.さらに,句読点や,ポーズの連続などの要因を取り入れて規則の精緻化を行った結果,91\%程度のポーズ挿入位置が挿入適当という結果が得られた.
| |
V19N03-01
|
適合性フィードバックの手法の多くは,テキストに表層的に出現する単語の情報だけを用いて検索結果をリランキングしている.これに対し,本稿では,テキストに表層的に出現する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まず検索結果に対してLatentDirichletAllocation(LDA)を実行し,各文書に潜在する単語の分布を推定する.ユーザからフィードバックが得られたら,これに対してもLDAを実行し,フィードバックに潜在する単語の分布を推定する.そして,表層的な単語の分布と潜在的な単語の分布の両方を用いてフィードバックと検索結果中の各文書との類似度を算出し,これに基づいて検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).
| |
V17N05-01
|
本稿では評判情報関連タスクにおいて必要不可欠と考えられる,評判情報コーパスを人手により効率良く作成する手法について検討し,作成されたコーパスについて基礎的な分析を行う.まず,注釈付けに用いる評判情報モデルとして,項目—属性—属性値—評価の4つ組からなる2層構造モデルを提案する.次に,複数注釈者の人手によるコーパス作成について検討する.その際に,注釈者間の注釈揺れが問題となる.予備実験の結果,注釈者が他の注釈者と相談をせずに独自に注釈付けの判断を行った場合には注釈付けの一致率が十分でないことがわかった.そこで,複数の注釈者間で判断に関する情報を共有するための方法として,注釈事例参照の利用を提案し,注釈事例参照を組み込んだ注釈付け支援ツールの試作を行った.これにより,注釈付けの判断に関する情報を複数の注釈者間で緩やかに共有することができる.評価実験によれば,注釈事例の参照機能が注釈揺れ削減に効果があることがわかった.さらに,上記の手法を用いた評判情報コーパス作成について報告する.また,注釈事例参照の有効性を確認した後,1万文のレビュー文書に対して10名の注釈者が注釈付けを行い,評判情報コーパスを作成した.そして,作成したコーパスについて,評判情報の各構成要素の統計的調査を行った結果,提案した2層構造モデルを用いて評判情報を捉えることが有効であることがわかった.
| |
V04N04-01
|
本論文は,動詞と主体の属性を用いて,複文中の連接関係を解析するモデルを作成し,評価した結果を述べる.複文中の連接関係の関係的意味は,接続詞,助詞等の接続の表現だけでは決まらず,曖昧性がある.例えば,助詞「て」による連接関係には,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などがある.これらの関係的意味は,従属節や主節の述語の表している事象の意味タイプ,およびその組み合わせによって決まってくる.従って,動詞と名詞の意味的関係を表すために,動詞と名詞の意味分類を用いた格パターンがあると同様に,従属節と主節の連接関係にも,各々の節を構成する動詞と主体の属性を用いた連接関係パターンが存在すると考えることができる.本論文のモデルでは,従属節と主節の,動詞と主体の属性を用いて,連接関係の関係的意味を推定する.動詞の属性として,意志性,意味分類,慣用的表現,ムード・アスペクト・ヴォイス,主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを用いた.このモデルを,技術文書に適用した結果,95\%の文が正しく解析できた.
| |
V17N01-04
|
テキスト分類における特徴抽出とは,分類結果を改善するためにテキストの特徴たる単語または文字列を取捨選択する手続きである.ドキュメントセットのすべての部分文字列の数は,通常は非常に膨大であるため,部分文字列を特徴として使用するとき,この操作は重要な役割を果たす.本研究では,部分文字列の特徴抽出の方法に焦点を当て,反復度と呼ばれる統計量を使って特徴抽出する方法を提案する.反復度は,高確率でドキュメントに二度以上出現する文字列は文書のキーワードであるはずだという仮定に基づく統計量であり,この反復度の性質は,テキスト分類にも有効であると考える.実験では,Zhangら(Zhangetal.2006)によって提案された,条件付確率を用いることで分布が類似した文字列をまとめるという手法(以下,条件付確率の方法と記す)と我々の提案する手法の比較を行う.結果の評価には適合率と再現率に基づくF値を用いることとした.ニュース記事とスパムメールの分類実験の結果,我々の提案する反復度を用いた特徴抽出法を用いると,条件付確率の方法を用いるのに比べて,ニュース記事の分類では分類結果を平均79.65{\%}から平均83.39{\%}に改善し,スパムメールの分類では分類結果を平均90.23{\%}から平均93.15{\%}に改善した.提案手法である反復度を用いる特徴抽出法はZhangらの提案する条件付確率を用いる特徴抽出法に比べて,ニュース分類記事の分類では平均3.74{\%},スパムメールの分類では平均2.93{\%}だけ結果を改善しており,その両方の実験において結果に有意差があることを確認した.また,反復度を用いる特徴抽出方法を用いると,単語を特徴集合とする方法を用いる場合と比べて,ニュース記事の分類では分類の結果を平均83.88{\%}から平均83.39{\%}と平均0.49{\%}低下させることとなったものの,スパムメールの分類では分類の結果を平均92.11{\%}から平均93.15{\%}と平均1.04{\%}改善した.ニュース記事の分類においては反復度を用いる特徴抽出方法と単語を特徴集合とする方法に有意差は本実験では認められず,スパムメールの分類の結果においては有意差があることを確認した.この結果が得られた要因について考察すると,条件付確率の方法を用いたほうは一見しただけでは何の部分文字列かわからないほど短い文字列を抽出する傾向にあることが分かった.これは不特定多数の文字列の一部として出現しやすいことを意味しており,文書の特徴になりえないような文字列がこれを含んでいたとき,分類結果がその文字列の影響を受けることを意味する.それに対して反復度で抽出した部分文字列は短い文字列もあるものの,長い文字列や間に空白が挟まった単語をつなぐ部分文字列も捉えているため,特定のものをさす文字列の部分文字列であるといえる.このような何を指しているのかわかりやすいある程度長い部分文字列と,間に空白を挟んだ単語と単語を結ぶような形の部分文字列が分類結果を改善していると考えられる.
| |
V07N04-09
|
日本語は主語などの要素がしばしば省略されるため,これらの補完は対話処理において重要である.さらに音声対話処理においては,実際に対話を処理する際に入力となるのは音声であり,一部誤りを含んだ音声認識結果が処理対象となるため,言語処理部においても不正確な入力に対する頑健性が要求される.このため,入力の一部に誤りのある状況下における格要素補完問題を考え,以前に提案した決定木を使用した補完手法を改良したモデルを提案する.このモデルは,複数の決定木を使用することで複数解候補を出力し,その中から学習時の終端節点事例数によって解の選好を行なうことで入力誤りに対する頑健性を強化した.音声認識の実誤りと人工的な誤りの2種類で評価実験を行なった結果,提案手法が誤りを含む入力に対し頑健であることを確認した.また人工的な問題に対するシミュレーションの結果,本提案手法は問題非依存であり,入力誤りの多さに応じた決定木の組み合わせでモデルを構成することで有効に機能することが明らかとなった.
| |
V23N05-02
|
近年の統計的機械翻訳の進展によって特許文翻訳の精度は大きく向上したが,特許文中で特に重要性の高い特許請求項文に対する翻訳精度は依然として低い.特許請求項文は,(1)極めて長い1文から構成される,(2)特殊な文構造を持っている,という2つの特徴を持つサブ言語であるとみなせる.そしてこれらが翻訳精度の低さの原因となっている.本論文では,サブ言語に特有の特徴を処理する枠組みの導入によって,特許請求項の翻訳精度を向上させる手法について述べる.提案手法では,同期文脈自由文法を用いて原言語文が持つサブ言語に特有の文構造を目的言語側の文構造に変換することにより,適切な文構造を持った訳文を生成する.さらに本手法では,文全体ではなく,文を構成する構造部品を翻訳の処理単位とすることにより長文の問題に対処する.英日・日英・中日・日中の4翻訳方向で評価実験を行ったところ,全翻訳方向においてRIBES値が25ポイント以上向上し,本手法によって訳文品質が大幅に改善したことがわかった.英日・日英翻訳ではさらにBLEU値が5ポイント程度,中日・日中では1.5ポイント程度向上した.
| |
V21N02-03
|
我々は,利用者が信憑性を判断する上で必要となる情報をWeb文書から探し出し,要約・整理して提示する,情報信憑性判断支援のための要約に関する研究を行っている.この研究を行う上で基礎となる分析・評価用のコーパスを,改良を重ねながら3年間で延べ4回構築した.本論文では,人間の要約過程を観察するための情報と,性能を評価するための正解情報の両方を満たすタグセットとタグ付与の方法について述べる.また,全数調査が困難なWeb文書を要約対象とする研究において,タグ付与の対象文書集合をどのように決定するかといった問題に対して,我々がどのように対応したかを述べ,コーパス構築を通して得られた知見を報告する.
| |
V06N07-06
|
長文の係り解析の精度向上は,自然言語処理において重要な課題の一つである.我々はすでに,連体形形容詞周りの「が」「の」格に関して,以下の3つのパターンに分類される7つの係りを規定するルールを見つけだした.\begin{itemize}\item前後の名詞のみで係りが決まる.\item前後の名詞と形容詞の関係で係りが決まる.\item形容詞そのものの属性で係りが決まる.\end{itemize}本論文では,形容詞を網羅的に分析できるようにするために,国立国語研究所での形容詞の体系的分類に従い分析対象形容詞を選択しその係りを調べた.それらの形容詞に対し7つのルールの妥当性を検証し拡張する.また,対象形容詞を増やすことにより2つの新たなルールを検出することができた.これら,分類を網羅するように選択した形容詞に対しても約95%の精度で係りを決めることができた.
| |
V09N03-03
|
文内要約の一要素技術として,連用修飾表現の省略可能性に関する知識を獲得する手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して,同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.また,連用修飾表現の内容および前後の文脈を考慮して,重要な情報が多く含まれている連用修飾表現に対しては省略可能と認定できる可能性を低く,逆に,認定対象としている連用修飾表現に,それより以前の文に存在する情報が含まれている場合に対しては,省略可能と認定できる可能性が高くなるような工夫を施した.本手法によって省略可能と認定された連用修飾表現を評価したところ,適合率78.0\%,再現率67.9\%との結果を得た.また,本手法を,格フレーム辞書によって動詞に対する任意格として記述される格要素を,省略可能な連用修飾表現として認定する手法と比較した.その結果,適合率,再現率ともに比較手法より良好な結果を得ることができ,提案手法の有効性を確認した.
| |
V10N01-02
|
本論文では,専門用語を専門分野コーパスから自動抽出する方法の提案と実験的評価を報告する.本論文では名詞(単名詞と複合名詞)を対象として専門用語抽出について検討する.基本的アイデアは,単名詞のバイグラムから得られる単名詞の統計量を利用するという点である.より具体的に言えば,ある単名詞が複合名詞を形成するために連接する名詞の頻度を用いる.この頻度を利用した数種類の複合名詞スコア付け法を提案する.NTCIR1TMRECテストコレクションによって提案方法を実験的に評価した.この結果,スコアの上位の1,400用語候補以内,ならびに,12,000用語候補以上においては,単名詞バイグラムの統計に基づく提案手法が優れていることがわかった.
| |
V08N03-02
|
手話は視覚言語としての側面を持つため,手話単語の語構成(造語法)における特徴の一つとして「写像性」が挙げられる.例えば,日本手話の日本語単語見出し「家」に対する手話表現は,屋根の形を視覚的に写像している.すなわち,手話表現が概念特徴の一部を視覚的に模倣している点である.一般に,概念特徴は定義的特徴と性格的特徴に分類される.ここで,定義的特徴とは,ある概念の定義に不可欠な特徴素の集合であり,性格的特徴とは概念を間接的に特徴付ける特徴素の集まりを指す.例えば,「家」に対する手話表現は,定義的特徴としての特徴素からの写像と捉えることができる.一方,「破産」に対する手話表現は,比喩的な表現「家が潰れる」という概念の間接的な記述,すなわち,性格的特徴を視覚的に写像し「家」の手話表現を提示した後に,両手を付け合わせる表現で定義されている.すなわち,一義的には、双方の単語間に概念の類似性はみられないものの,手指動作特徴の類似性という観点からみると「家」の派生語と捉えることができる.また,日本語との言語接触により,日本語の単語見出しの構成要素を借用した複合表現(例えば,「青森」は「青い」と「森」から成る.)で構成される単語が少なくない.この借用も広義の写像性と捉えることができる.このように,手指動作特徴の類似性により手話単語を分類することは,手指動作特徴が担う概念特徴と造語法との関係を明らかにする重要な手がかりの一つを提供できると考える.また,手話単語を対象とする電子化辞書システムなどにおいては,手指動作特徴を検索キーとする類似検索機構を実現する上での有益な知識データと捉えることができる.本論文では,与えられた手話単語の有限集合を手指動作特徴間の類似性に基づき分類する方法として,市販の手話辞典に記述されている手指動作記述文間の類似性に着目した手法を提案する.本手法の特徴は,手指動作記述文間の類似度を求め,集合の要素間の同値関係により単語集合を同値類に分割する点にある.実験により,提案手法の妥当性を示す結果が得られた.
| |
V06N02-05
|
自然で自発的な発話を対象とする音声翻訳ないし音声対話システムへの入力としての発話は文に限定できない.一方,言語翻訳処理における処理単位は文である.話し言葉における文に関して,計算機処理から見て十分な知見は得られていないので,文の代わりに「言語処理単位」と呼ぶことにする.まず,一つの発話を複数の言語処理単位に分割したり,複数の発話をまとめて一つの言語処理単位に接合する必要があることを,通訳者を介した会話音声データを使って示す.次に,ポーズと細分化された品詞の$N$-gramを使って,発話単位から言語処理単位に変換できることを実験により示す.
| |
V13N01-06
|
会話において,まず行われるのが挨拶である.コンピュータやロボットにおいても挨拶を行うことから次へと会話が広がり人間とのコミュニケーションが円滑に行われる.本研究では会話処理の中でも特に挨拶処理についてのしくみを提案する.挨拶処理は従来テンプレートを適用するのみであり,あまり研究は行われてない.しかし,単に用意されたテンプレートだけを用いると応答が画一化され,設計者の作成した文章のみが出現するという問題点がある.会話文の中でも特に挨拶文は設計者の作成した文章がそのまま使われることが多い.そこで本稿で提案する挨拶処理システムにおける挨拶文は設計者が用意した挨拶知識ベースに存在しない新たな文章も作り出す.人間は言葉に関する汎用的な知識を覚え,その言葉に関する常識を持った上で会話を行っている.これと同じように,挨拶処理において,汎用知識と常識判断にあたる連想知識メカニズムを用いる.挨拶知識ベースにこの連想知識メカニズムを組み合わせて検討することにより,文章を大規模に拡張し,精錬する手法を提案する.
| |
V14N02-02
|
本論文では,ウェブを利用した専門用語の訳語推定法について述べる.これまでに行われてきた訳語推定の方法の1つに,パラレルコーパス・コンパラブルコーパスを用いた訳語推定法があるが,既存のコーパスが利用できる分野は極めて限られている.そこで,本論文では,訳を知りたい用語を構成する単語・形態素の訳語を既存の対訳辞書から求め,これらを結合することにより訳語候補を生成し,単言語コーパスを用いて訳語候補を検証するという手法を採用する.しかしながら,単言語コーパスであっても,研究利用可能なコーパスが整備されている分野は限られている.このため,本論文では,ウェブをコーパスとして用いる.ウェブを訳語候補の検証に利用する場合,サーチエンジンを通してウェブ全体を利用する方法と,訳語推定の前にあらかじめ,ウェブから専門分野コーパスを収集しておく方法が考えられる.本論文では,評価実験を通して,この2つのアプローチを比較し,その得失を論じる.また,訳語候補のスコア関数として多様な関数を定式化し,訳語推定の性能との間の相関を評価する.実験の結果,ウェブから収集した専門分野コーパスを用いた場合,ウェブ全体を用いるよりカバレージは低くなるが,その分野の文書のみを利用して訳語候補の検証を行うため,誤った訳語候補の生成を抑える効果が確認され,高い精度を達成できることがわかった.
| |
V12N03-04
|
本稿では、自動詞の主語が他動詞の目的語となる動詞の交替を対象とし、既存の結合価辞書における交替の選択制限の対応関係の調査や、2言語間の交替の比較などを行なう。更に、これらの調査結果に基づき、交替データを用いて比較的単純な置き換えにより既存の結合価辞書に新しいエントリを追加する方法を提案する。本稿では、交替の片側に対応するエントリから、もう片側のエントリを獲得する。また、本提案手法では2言語の結合価エントリを同時に作成する。作成したエントリは、下位範疇化構造や選択制限、交替情報等の詳細な情報を持っている。本稿の実験の結果、対象とした交替を85.4\%カバーすることができた。また、翻訳評価の結果、本手法で作成したエントリによって、翻訳結果が32\%改善された。
| |
V10N05-03
|
高次元空間における最近傍検索(nearestneighborsearch)は,マルチメディア・コンテンツ検索,データ・マイニング,パターン認識等の分野における重要な研究課題の1つである.高次元空間では,ある点の最近点と最遠点との間に距離的な差が生じなくなるという現象が起こるため,効率的な多次元インデキシング手法を設計することが極度に困難となる.本稿では,1次元自己組織化マップを用いた近似的最近傍検索の手法を提案し,提案した手法の有効性を類似画像検索と文書検索の2種類の実験により評価する.自己組織化マップを用いて,高次元空間での近傍関係をできる限り保ちつつ,高次元データを1次元空間へ配置し,1次元マップから得られる情報で探索範囲を限定することにより,きわめて高速な最近傍検索が可能となる.
| |
V04N01-08
|
\quad本論文では,括弧付きコーパスから確率文脈自由文法を効率良く自動的に抽出する方法を提案する.文法規則の抽出は,日本語の主辞が句の一番最後の要素であるという特徴を利用して,括弧付けによる構文構造の内部ノードに適切な非終端記号を与えることによって行う.また,文法規則の確率は規則のコーパスにおける出現頻度から推定する.さらに,文法サイズの縮小と解析木数の抑制という2つの観点から,抽出した文法を改良するいくつかの方法を提案する.文法サイズの縮小は,文法に含まれる冗長な規則を自動的に削除することによって行う.解析木数の抑制は,(1)同一品詞列に対して右下がりの二分木のみを生成し,(2)``記号''と``助詞''の2つの品詞を細分化し,(3)法や様態を表わす助動詞に対する構造を統一することにより行う.最後に,本手法の評価実験を行った.約180,000の日本語文から確率文脈自由文法の抽出およびその改良を行ったところ,2,219の文法規則を抽出することができた.抽出された文法を用いて20,000文のテスト例文を統語解析したところ,受理率が約92\%となり,適用範囲の広い文法が得られたことを確認した.また,生成確率の上位30位の解析木の評価を行ったところ,括弧付けの再現率が約62\%,括弧付けの適合率が約74\%,文の正解率が約29\%という結果が得られた.
| |
V17N01-07
|
形態素解析や構文解析など自然言語処理の要素技術は成熟しつつあり,意味解析・談話解析といった,より高次な言語処理の研究が盛んになってきた.特に文の意味理解のためには「誰が」「何を」「誰に」といった要素(項)を同定することが重要である.動詞や形容詞を対象にした項構造解析のことを述語項構造解析と呼ぶが,文中の事態を表す表現は動詞や形容詞の他にも名詞も存在することが知られている.そこで,我々は日本語の名詞を対象とした項構造解析タスクを取り上げ,機械学習を用いた自動的な解析手法を提案する.日本語の事態性名詞には事態を指すか否か曖昧性のある名詞があるため,まず事態性の有無を判定する事態性判別タスクと項同定タスクの2つに分解し,それぞれ大規模なコーパスから抽出した語彙統語パターンを用いた手法と述語・事態性名詞間の項の共有現象に着目した手法を提案する.
| |
V03N04-03
|
\vspace*{-2.18mm}照応要素が同一文内に現れる日本語ゼロ代名詞に対する,語用論的・意味論的制約を用いた照応解析の手法を提案する.本手法は,接続語のタイプ,用言意味属性,様相表現のタイプの3種類の語用論的・意味論的制約に着目して,同一文中に照応要素を持つゼロ代名詞の照応要素を決定するものである.本手法を日英翻訳システムALT-J/E上に実現して,日英翻訳システム評価用例文(3718文)中に含まれる文内照応のゼロ代名詞139件を対象に,解析ルールを整備し,解析精度の評価実験を行なった.その結果,上記3種類の制約条件を用いた場合,それぞれの条件が文内照応解析に有効に働き,対象としたゼロ代名詞が再現率98%,適合率100%の精度で正しく照応要素を決定できることが分かった.本手法を,従来の代表的な手法であるCenteringアルゴリズム(再現率74%,適合率89%)と比べると,再現率,適合率共に十分高い.特に,適合率100%と,認定した照応関係に誤りがないことから,本手法が機械翻訳システムでの実現に適することがわかった.以上の結果,提案した方式の有効性が実証された.今後,さらに多くの文を対象に解析ルールの整備を進めることにより,同一文内照応要素を持つゼロ代名詞の大半を復元し,補完できる見通しとなった.
| |
V21N05-03
|
本稿では,機械翻訳の単語並べ替え問題にシフトリデュース構文解析法を応用するための手法を提案する.提案手法では,単一言語のInversionTransduction文法によって単語並べ替え問題を定式化する.また,日本語文と英語文との単語対応をとりやすくするため,あらかじめ除去した英冠詞を翻訳結果へ挿入する問題も単語並べ替えと同時に定式化する.提案法を日英特許翻訳に適用したところ,句に基づく統計的機械翻訳のBLEUスコア29.99に対して,$+3.15$の改善が得られた.
| |
V22N03-03
|
近年の抽出型要約の多くの手法は,原文書の情報を網羅し,かつ与えられる要約長の制約に柔軟に対応すべく,文抽出と文圧縮を併用した組み合わせ最適化問題として要約を定式化している.つまり,文書から文という文法的な単位を維持するよう単語を抽出することで要約を生成している.従来の手法は非文の生成を避けるため,構文木における単語間の関係を利用して文を圧縮しているものの,文書における大域的な文と文の間の関係,つまり談話構造には着目してこなかった.しかし,談話構造を考慮することは要約の一貫性を保つ上で非常に重要であり,文書の重要箇所の同定にも役立つ.我々は,文書を文間の依存関係,単語間の依存関係をあらわした入れ子依存木とみなし,単語重要度の和が最大となるように木を刈り込むことで要約を生成する手法を提案する.実験の結果,提案手法が要約精度を有意に向上させたことが確認できた.
| |
V09N02-02
|
本論文は,動詞と主体の属性を用いて複文の連接関係の関係的意味を解析し,この関係的意味を用いて連接構造を解析するモデルについて述べる.従来,複文の従属節間の連接構造解析は,接続の表現を階層的に分類し,その階層的な順序関係による方法が用いられてきた.しかし,接続の表現には曖昧性があり,同じ接続の表現でも意味が違うと係り方が違う.このため,本論文では,動詞と主体の属性を用いて,連接関係の意味を求め,この連接関係の関係的意味を,連接関係の距離によって分類する.この分類を用いて連接構造を解析する方法を用いた.動詞の属性として,意志性,アスペクト・ムード・ヴォイス,意味分類などを用いた.主体の属性として,主節と従属節の主体が同一かどうか,無生物主体かどうかを採用した.このモデルを実際の用例により評価した結果98.4\%の精度が得られた.接続の表現の階層的分類を使用したモデルに同じ用例を適用したところ97.0\%の精度が得られたので,本論文のモデルを使用することにより誤り率が約半分に改善された.
| |
V06N07-05
|
日本語処理において,単語の同定,すなわち文の単語分割は,最も基本的かつ重要な処理である.本論文では,日本語文字のクラス分類により得られた文字クラスモデルを用いる新しい単語分割手法を提案する.文字クラスモデルでは,推定すべきパラメータ数が文字モデルより少ないという大きな利点があり,文字モデルより頑健な推定を可能とする.したがって,文字クラスモデルを単語分割へ適用した場合,文字モデルよりもさらに頑健な未知語モデルとして機能することが期待できる.文字クラスタリングの基準はモデルの推定に用いるコーパスとは別に用意したコーパスのエントロピーであり,探索方法は貧欲アルゴリズムに基づいている.このため,局所的にではあるが最適な文字のクラス分類がクラスの数をあらかじめ決めることなく得られる.ATR対話データベースを用いて評価実験を行った結果,文字クラスモデルを用いた提案手法の単語分割精度は文字モデルによる精度より高く,特に,文字クラスを予測単位とする可変長$n$-gramクラスモデルではオープンテストにおいて再現率96.38\%,適合率96.23\%の高精度を達成した.
| |
V06N06-05
|
語彙的結束性に基づき、文章中の話題の階層的な構成を自動認定する手法を提案する。語の繰り返しだけを手がかりに、文章全体の数分の1程度の大きな話題のまとまりから、段落程度の小さな話題のまとまりまで、話題の大きさ別に認定し、次に、大きな話題に関する境界と小さな話題に関する境界を対応づけることで、話題の階層構成を求める手法である。この手法は、複数の話題に関する文章が混在している集合的な文書の要約作成を目的に考案したものである。白書のような数十頁の報告書の骨子を把握したい利用者にとっては、1/4程度にまとめた通常の要約では長過ぎて役に立たないことがある。また、新聞の連載記事を要約する場合、関連する記事をまとめて要約した方がよい場合なども考えられる。よって、利用目的に応じて適切な粒度の話題を抽出する技術が重要となる。提案手法を使えば、指定した程度の大きさの話題のまとまりを認定できるので、要約の単位として適した大きさの話題のまとまりを抽出し、それぞれを要約することで、粒の揃った話題を含む要約が作成できる。本文では、提案手法の詳細を説明するとともに、長めの報告書と、新聞の連載記事を集めた文書などを対象とした話題構成認定実験により、提案手法の有効性と認定精度を示す。
| |
V16N02-01
|
がん患者に対する情報提供の適正化のため,がん情報処理を可能にする言語基盤であるがん用語辞書を,医師による人手で作成した.権威あるコーパスとして国立がんセンターのウェブ文書を用い,延べ約2万6千語を収集し,用語候補の集合Cc(CancerTermsCandidate:語彙数10199語)を得た.10種のがん説明用コンテンツを対象としたCcの用語の再現率はそれぞれ約95\%以上であった.次に一般語やがん医学用語との関係と用語集としての整合性から用語選択基準(T1:がんそのものを指す,T2:がんを想起させる用語,T3:T2の関連語,T4:がんに関連しない語のうち,T3までを採用する)を作成し,Ccに対して適用,93.7\%が基準に合致し690語を削除,9509語をがん用語Cとして選択した.選択基準に従って作成した試験用ワードセットを医師に示すことで,用語選択基準を評価した.その結果,T1と(T2,T3,T4)の2つに分割した場合と(T1,T2),(T3,T4)分割した場合で一致係数$\kappa$が約0.6,T1,T2,(T3,T4)の3つに分割した場合は約0.5であり,選択基準を明示せずに単に用語選択を行った場合の$\kappa$値0.4に比べて高値であったことから,本研究で提案するがんとの関連性に基づいた用語選択法の妥当性が示された.さらに,既存の専門用語選択アルゴリズムにより得られた用語集合(HN)と本研究で得られた用語集合(C)を比較したところ,HNでの再現性は80\%以上と高値だが,精度は約60\%であり,本研究のような人手による用語選択の必要性が示された.以上のことから,専門性の高い,がんに関するような用語集合を作成する場合,本研究で行った,信頼性の高いコーパスを用い,専門家の語感を信用して,中心的概念からの距離感を考慮した用語選択を行うことにより,少人数でも妥当性の高い専門用語集合の作成が可能であることが示された.
| |
V07N04-11
|
近年の高度情報化の流れにより,自動車にも種々の情報機器が搭載されるようになり,その中で音声認識・合成の必要性が高まっている.本研究は音声合成を行うための日本語解析の中で基本となる,文節まとめあげに関する研究報告である.従来の文節まとめあげは,人手規則による手法と機械学習による手法の二つに大きく分けられる.前者は,長年の努力により非常に高い精度を得られているが,入力データ形式が固定であるために柔軟性に欠け,人手で規則を作成・保守管理するため多大な労力を要し,車載情報機器へ実装するには問題が大きい.また後者は,それらの問題に柔軟に対処できるが,精度を向上させるためにアルゴリズムが複雑化しており,その結果開発期間が延長するなどの問題が生じ,車載情報機器には不向きである.そこで本研究は,決定リストを用いる手法を発展させ,複数の決定リストを順に適用するだけという非常に簡明な文節まとめあげの手法を提案する.決定リストの手法は非常に単純であるが,それだけでは高い精度が得られない.そこで,決定リストを一つではなく複数作成し,それぞれのリストを最適な順序に並べて利用することにより精度向上を図った.この結果,京大コーパスの最初の10000文を学習コーパス,残りの約10000文をテストコーパスとして実験を行ったところ,非常に簡明な手法ながら,99.38\%という高い精度を得られた.
| |
V17N04-02
|
サーチエンジンの検索結果などのWebページ集合をクラスタリングする手法として,抽出された各重要語を含むWebページ集合をひとつのクラスタとする手法が広く用いられている.しかし,従来の研究では重要語間の類似度を考慮していないために,類似した話題を表す語句が重要語として抽出されると,話題が類似するクラスタが複数出力されてしまうという欠点がある.そこで本研究では,この問題点を解消するために,単語間の類似度を考慮したWeb文書クラスタリング手法を提案する.本手法は,サーチエンジンが返すタイトルとスニペットの単語分布情報から,互いに類似していない重要語を抽出する.次に,どのクラスタにも属さないWebページをできるだけ減らすために,重要語から直接Webページのクラスタを生成せずに,各重要語に類似したWebページ集合に含まれる単語集合として単語グループを生成し,それらの単語グループのそれぞれに対応するWebページクラスタを生成する.そして,実際に人手で分類した正解データを用いて従来手法(語句間の類似度を考慮しない方法)との比較評価を行い,本手法のほうがクラスタリング性能が高く,かつ類似したクラスタを生成してしまうという従来手法の問題点が解消できることを示す.
| |
V21N02-04
|
現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析の研究には意味関係を付与したコーパスが必要であるが,従来の意味関係のタグ付きコーパスは新聞記事を中心に整備されてきた.しかし,文書には多様なジャンル,文体が存在し,その中には新聞記事では出現しないような言語現象も出現する.本研究では,従来のタグ付け基準では扱われてこなかった現象に対して新たなタグ付け基準を設定した.Webを利用することで多様な文書の書き始めからなる意味関係タグ付きコーパスを構築し,その分析を行った.
| |
V06N04-04
|
日本語の指示詞の3系列(コソア)は,いずれも直示用法とともに非直示用法を持つ.本稿では「直示」の本質を「談話に先立って話し手がその存在を認識している対象を,話し手が直接指し示すこと」ととらえ,ア系列およびコ系列では直示・非直示用法にわたってこの直示の本質が認められるのに対し,ソ系列はそうではないことを示す.本稿では,ア系列の非直示用法は「記憶指示」,すなわち話し手の出来事記憶内の要素を指し示すものであり,コ系列の非直示用法は「談話主題指示」,すなわち先行文脈の内容を中心的に代表する要素または概念を指し示すものと考える.「記憶指示」も「談話主題指示」も上記の直示の本質を備えている上に,ア系列およびコ系列の狭義直示用法において特徴的な話し手からの遠近の対立も備えているという点は,ア系列およびコ系列の非直示用法がともに直示用法の拡張であることを示唆している.さらにさまざまなソ系列の非直示用法を検討した上で,ソはコ・アとは異なって,本質的に直示の性格が認められないことを論じる.非直示用法のソ系列は話し手が談話に先立って存在を認めている要素を直接指すためには用いられず,主に言語的な表現によって談話に導入された要素を指し示すために用いられる.またソが,「直示」によっては表現できない,分配的解釈や,いわゆる代行用法等の用法を持つことも,ソがアやコと違って非「直示」的であるという主張と合致する.
| |
V04N02-01
|
日本語における2文節間の係り受け頻度は,\その距離に依存することが知られている.\すなわち,\文中の文節はその直後の文節に係ることが最も多く,\文末の文節に係る場合を除いては,\距離が離れるにしたがってその頻度が減少する.\この統計的性質は,\日本語文の係り受け解析においてしばしば用いられるヒューリスティクス:「文中の文節は係り得る文節の中で最も近いものに係る」の根拠となっている.\しかし,\このヒューリスティクスは,\日本語に見られるこのような統計的性質の一部しか利用していない.\したがって,\係り受け距離の頻度分布をもっと有効に利用することにより,\解析性能が向上する可能性がある.\本研究では,\ATR503文コーパスから抽出した係り受け距離の頻度分布に基づいて2文節間の係り受けペナルティ関数を定義し,\「総ペナルティ最小化法」を用いて係り受け解析実験を行なった.\その結果を,\上のヒューリスティクスに基づく決定論的解析法による解析結果と比較したところ,\かなりの解析性能向上が認められた.\また,\係り文節を分類し,\その種類別に抽出した係り受け頻度の情報を用いることにより,\さらに解析性能を改善できることが明らかになった.
| |
V12N03-09
|
本論文では,機械翻訳を介したコミュニケーションにおける利用者の機械翻訳システムへの適応状況を分析し,機械翻訳を介した異言語間コミュニケーション支援の方向性について論ずる.コミュニケーションの目的が明確で,利用者の機械翻訳への適応が期待できる状況において,多言語機械翻訳を介したコミュニケーションを行う時,利用者はどのような適応を行うのか,また,その適応の効果はどの程度のものなのかを明らかにした.適応のための書き換えの方法は翻訳言語ペアに強く依存することが分かった.日本語から英語への翻訳の場合,日本語と英語の概念間の食い違いを補うための語句の置き換えや言語表現習慣の違いを補う主語の補完などが多く観察された.また,日本語や韓国語のように類似の言語では,それらの言語における適応の傾向が似ていることが分かった.日本語から英語への翻訳のための適応は,英訳自体には効果が大きいが,韓国語訳にはほとんど効果がなく,中国語訳への効果もそれほど大きくはないことが分かった.
| |
V12N05-03
|
日本語は,各品詞にわたって待遇表現が発達している.中でも動詞に関する待遇表現は多岐にわたるが,待遇表現:「接頭辞オ+本動詞+補助動詞(オ〜型表現)」,および「接頭辞ゴ+本動詞+補助動詞(ゴ〜型表現)」は,日本語の動詞待遇表現における主要な表現である.両表現の違いについては,オに続く本動詞が和語であり,ゴに続く本動詞が漢語であるということが,従来の言語学的研究で指摘されてきた.しかし,両表現の言語心理的な違いを定量的に調べた研究は,これまで殆どなかった.\\今回,我々は,Scheffeの一対比較法を用いてオ〜型表現,およびゴ〜型表現に対して人々が感じる丁寧さの程度を数値化した上で,統計的検定を行って丁寧さの印象に関する両表現の違いを定量的に分析した.その結果,ゴ〜型表現はオ〜型表現に比べ,通常表現を待遇表現に変化させた場合に,通常表現からの丁寧さの変化量がより小さいことが分かった.そして,その原因として,待遇表現としての認識に関する両表現の違いが示唆された.
| |
V10N03-03
|
{\scSenseval}-2日本語翻訳タスクは,日本語単語の語義をその訳語の異なりとして定義・分類し,新たな表現に含まれる日本語単語の語義を判別する課題である.実際の課題としては,語義分類の定義として日英対訳用例を収集した翻訳メモリ(TM)が与えられ,語義の選択はTM中から適切な用例を選択するか,対象となる日本語単語の翻訳結果を示すことで解くことができる.我々は,入力表現の対象語周辺文脈が最も似ているTMの日本語表現を選択する単言語の問題と見なし,本タスクを解くシステムを開発した.対象語周辺文脈の類似度は,対象語周辺文脈を特徴づける要素である「文脈素性」の出現を各次元に配置した「文脈素性ベクタ」を用い,ベクタ空間モデルを用いて計算する.文脈素性は,対象語周辺文脈の特徴を,対象語との構文的/位置的関係と単語の形態的/意味的属性の組で表現したもので,これにより,TM表現間の文脈の違いを詳細に表現できる.{\scSenseval}-2参加システムは,形態素・構文解析器にJUMAN+KNP,シソーラスに日本語彙体系を用い,精度・再現率はともに45.8\,\%を達成した.各素性の有効性について分析した結果,シソーラスから得た意味属性に関する文脈素性が性能に最も寄与しており,係り受けに関する素性は限定的にしか寄与していないことがわかった.
| |
V08N03-03
|
統計情報に基づく自然言語処理が盛んになる中で,訓練データとしてのコーパスの影響は非常に大きい.生コーパスをそのまま利用する場合には,コーパスの取得が容易であるため,目的に合ったドメインのコーパスを大量に入手できるという利点がある.しかし,生コーパスは人間の言語の性質上,未登録語や未知の言い回し,非文とされるような文の出現等を多く含むことがほとんどであり,これらが処理の精度の低下を招くという問題がある.特に,口語表現の処理は,電子メールでの利用等利用頻度の高いものであるにも関わらず,十分に研究されているとは言い難い.本稿では,生コーパスに含まれる未知の語句および言い回しに着目し,電子メール文書内に出現する意味のある文字列を自動的に抽出する実験を行なった結果について報告する.本システムは事前に与えられた電子メール文書中の各文字の共起確率を利用して,テストコーパスとして与えられた電子メール文書から意味のある文字列を抽出し出力する.本システムを利用することで,同じテストコーパスを既存の形態素解析ツールで解析した結果未登録語として処理された文字列の69.06\%を抽出することに成功した.
| |
V18N03-03
|
本稿では,訓練データの自動拡張による語義曖昧性解消の精度向上方法について述べる.評価対象として,SemEval-2010日本語語義曖昧性解消タスクを利用した.本稿では,まず,配布された訓練データのみを利用して学習した場合の結果を紹介する.更に,辞書の例文,配布データ以外のセンスバンク,ラベルなしコーパスなど,さまざまなコーパスを利用して,訓練データの自動拡張を試みた結果を紹介する.本稿では,訓練データの自動獲得により79.5\%の精度を得ることができた.更に,対象語の難易度に基づき,追加する訓練データの上限を制御したところ,最高80.0\%の精度を得ることができた.
| |
V14N03-12
|
我々は,人とのコミュニケーションの仕組みを機器とのインタフェースとして実現することを目標に研究を行っている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念をもって会話を展開している.このように会話文章から常識的な判断を行い,適切に応答するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.本稿では,ある概念から様々な概念を連想できるメカニズムを基に,人間が行う常識的な判断の一つである感情に関する判断を実現する方法について提案している.「主体語」,「修飾語」,「目的語」,「変化語」の4要素から成るユーザの発話文章から,そのユーザの感情を基本感情10種類,補足感情24種類で判断する手法を提案している.また,本手法を用いた感情判断システムを構築し,その性能を評価した結果,常識的な解の正答率は76.5{\kern0pt}%,非常識ではない解を正答率に含めると88.0{\kern0pt}%であり,提案した処理手法は有効であると言える.
| |
V10N01-01
|
本論文では,固有表現抽出の難易度をテストコーパスから評価する指標を提案する.固有表現抽出システムの性能は客観的な指標によって評価される.しかし,システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.本論文で提案する指標は,個々のシステムの出力に依存することなく,複数のコーパスについて統一的に適用できる.指標の有効性は固有表現抽出システムの性能評価と比較することで検証される.さらに固有表現のクラス間における難易度の比較や,有用な情報の違いについても議論する.
| |
V10N01-06
|
現在入手可能な解析器と言語資源を用いて中国語解析を行った場合にどの程度の精度が得られるかを報告する.解析器としては,サポートベクトルマシン(SupportVectorMachine)を用いたYamChaを使用し,中国語構文木コーパスとしては,最も一般的なPennChineseTreebankを使用した.この両者を組み合わせて,形態素解析と基本句同定解析(basephrasechunking)の2種類の解析実験を行った.形態素解析実験の際には,一般公開されている統計的モデルに基づく形態素解析器MOZとの比較実験も行った.この結果,YamChaによる形態素解析精度は約88\%でMOZよりも4\%以上高いが,実用的には計算時間に問題があることが分かった.また基本句同定解析精度は約93\%であった.
| |
V20N02-01
|
我々は,Web上の情報信憑性判断を支援するための技術として,調停要約の自動生成に関する研究を行っている.調停要約とは,一見すると互いに対立しているようにみえる二つの言明の組が実際にはある条件や状況の下で両立できる場合に,両立可能となる状況を簡潔に説明している文章をWeb文書から見つける要約である.しかしながら,対立しているようにみえる言明の組は一般に複数存在するため,利用者がどの言明の組を調停要約の対象としているのかを明らかにする必要がある.本論文では,利用者が調停要約の対象となる言明の組を対話的に明確化した状況下で調停要約を生成できるように改善した手法を提案する.また,提案手法は,従来の調停要約生成手法に,逆接,限定,結論などの手掛かり表現が含まれる位置と,調停要約に不要な文の数を考慮することで精度の向上を図る.調停要約コーパスを用いた実験の結果,従来手法と比較して,調停要約として出力されたパッセージの上位10件の適合率が0.050から0.231に向上したことを確認した.
| |
V18N02-06
|
近年,ブログを対象とした情報アクセス・情報分析技術が盛んに研究されている.我々は,この種の研究の基礎データの提供を目的とし,249記事,4,186文からなる,解析済みブログコーパスを構築した.主な特長は次の4点である.i)文境界のアノテーション.ii)京大コーパス互換の,形態素,係り受け,格・省略・照応,固有表現のアノテーション.iii)評価表現のアノテーション.iv)アノテーションを可視化したHTMLファイルの提供.記事は,大学生81名に「京都観光」「携帯電話」「スポーツ」「グルメ」のいずれかのテーマで執筆してもらうことで収集した.解析済みブログコーパスを構築する際,不明瞭な文境界,括弧表現,誤字,方言,顔文字等,多様な形態素への対応が課題になる.本稿では,本コーパスの全容とともに,いかに上記の課題に対応しつつコーパスを構築したかについて述べる.
| |
V15N01-04
|
コンピュータとの人間らしい会話のために,代表的な応答事例を知識として与え,文章の可変部を連想によって変化させることができれば,より柔軟で多種多様な会話ができると考えられる.しかし,機械的な語の組み合わせに起因する一般的に見て不自然な語の組み合わせの応答を生成する恐れがある.本論文では,機械的に作成した応答文の内,名詞と形容語の関係に注目し,違和感の有無の観点からその関係を整理することで,形容語の使い方の知識構造をモデル化する.更に,その知識構造を用いて,合成した会話応答文中の違和感のある組み合わせの語を検出する手法を提案する.本稿の手法を用いることで,形容語の違和感のある使い方の判定に関し,87\%の高い精度を得,有効な手法であることを示した.
| |
V25N03-01
|
本論文では,日本語語義曖昧性解消に存在する問題点を文中のひらがなを漢字に直すかな漢字換言タスクを通して明らかにする.素性について分散表現と自己相互情報量を組み合わせる手法を考案し実験を行った結果,かな漢字換言においてベースラインに比べ約2ポイント高い精度を得ることができた.日本語の語義曖昧性解消タスクを用いた検証においても,PMIを用い文全体から適切な単語を素性として加えることが有効であることを示した.かな漢字換言の利点を活かし,大量の訓練データを用いたときのかな漢字換言の精度の比較を行った結果,非常に大きい訓練データを用いた場合分散表現を用いたどの手法でもほぼ同じ精度を得られることがわかった.その一方で同じ精度を得るために必要な訓練データは指数関数的に増えていくため,少ない訓練データで精度を上げる手法が語義曖昧性解消において重要であることを確認した.また,BCCWJとWikipediaから作成した訓練データとテストデータを相互に使い実験し,各ドメインにあった訓練データを使うことが精度向上において重要であることを確認した.
| |
V26N02-05
|
ソーシャルメディアにおいては,辞書に掲載されているような用法とは全く異なる使われ方がされている単語が存在する.本論文では,ソーシャルメディアにおける単語の一般的ではない用法を検出する手法を提案する.提案手法では,ある単語が一般的ではない使われ方がされていた場合,その周辺単語は一般的な用法として使われた場合の周辺単語と異なるという仮説に基づいて,着目単語とその周辺単語の単語ベクトルを利用し,注目している単語の周辺単語が均衡コーパスにおける一般的な用法の場合の周辺単語とどの程度異なっているかを評価することにより,一般的ではない用法の検出を行う.ソーシャルメディアにおいて一般的ではない用法を持つ40単語を対象に行った実験の結果,均衡コーパスと周辺単語ベクトルを用いる提案手法の有効性を確認できた.また,一般的でない用法の検出においては,単語ベクトルの学習手法,学習された単語ベクトルの扱い方,学習コーパスを適切に選択することが重要であることがわかった.
| |
V16N05-01
|
言語モデルの分野適応において,適応対象の分野の単語境界情報のない生コーパスの有効な利用方法として,確率的単語分割コーパスとしての利用が提案されている.この枠組では,生コーパス中の各文字間に単語境界が存在する確率を付与し,それを用いて単語$n$-gram確率などが計算される.本論文では,この単語境界確率を最大エントロピー法に基づくモデルによって推定することを提案する.さらに,確率的単語分割コーパスを従来の決定的に単語に分割されたコーパスで模擬する方法を提案し,言語モデルの能力を下げることなく計算コストが大幅に削減できることを示す.
| |
V06N05-01
|
会話文では,言い直しなどの冗長な表現が含まれ,解析を困難にしている.本論文では,言い直し表現は繰り返し型が多く,また,文節境界に挿入されやすいことに着目して,べた書きで音節標記された会話文を対象に,これを抽出する方法を提案した.提案した方法は,言い直しを含んだべた書き音節列をマルコフ連鎖モデルを用いて文節単位に分割する処理と,それによって得られた文節境界を手がかりに文節間の音節列の類似性を評価して言い直し音節列を抽出する処理の2つの処理から構成される.具体的には,第1の処理では,言い直しの表現を含む文節境界の推定に適した文節境界推定法を提案し,第2の処理では,文節境界の使い方の異なる3つのマッチングの方法を提案した.また,これらの2つの方法を組み合わせたときの言い直し表現の抽出精度を計算によって推定すると共に,その結果を総合的な実験結果と比較して提案した方法の効果を評価した.ATRの「旅行に関する対話文」のコーパス(その内,言い直しは106個所)を用いて実験評価した結果によれば,言い直し表現の抽出精度は第2の処理の方法に強く依存し,再現率を重視する場合は,再現率80.2%(その時,適合率84.2%),また,適合率を重視する場合は,適合率94.9%(その時,再現率52.8%)の精度が得られることが分かった.
| |
V19N05-01
|
オノマトペとは,擬音語や擬態語の総称である.文章で物事を表現する際に,より印象深く,豊かで臨場感のあるものにするために利用される.このようなオノマトペによる表現は,その言語を\addtext{母語}としている人であれば非常に容易に理解することができるため,国語辞書などにあえて記載されることは稀なケースである.また,記載があったとしても,使用されているオノマトペをすべて網羅して記載していることはない.そのため,その言語を\addtext{母語}としない人にとっては学習し難い言語表現である.そこで本稿では,オノマトペが表現する印象を推定する手法を提案する.日本語を対象に,オノマトペを構成する文字の種類やパターン,音的な特徴などを手がかりに,そのオノマトペが表現している印象を自動推定する.これにより,日本語を\addtext{母語}としない人に対して,日本語で表現されたオノマトペの理解の支援に繋がると考えられる.結果として,オノマトペの表記内のモーラ系列間の類似度とオノマトペの表記全体の音象徴ベクトルによる類似度を用いた手法が最も良い推定結果となり,\addtext{参考値である人間同士の一致率の8割程度にまで近づくことができた.}
| |
V22N01-01
|
本稿では,日本語を対象とした対話用述語項構造解析を提案する.従来,述語項構造解析は,主に新聞記事を対象に研究されてきた.新聞と対話ではさまざまな違いが存在するが,本稿ではこれを包括的に扱うため,対話用述語項構造解析器の構築を,新聞から対話への一種のドメイン適応とみなす.具体的には,対話では省略や代名詞化が新聞記事に比べて頻繁に現れるため,ゼロ代名詞照応機能付きの述語項構造解析をベースとし,これを対話に適応させる.パラメータ適応と,訓練コーパスがカバーしきれない語彙知識を大規模平文コーパスから自動獲得することにより,新聞記事用のものに比べ,対話に対して高精度な述語項構造解析を実現した.
| |
V07N04-04
|
動詞を含む連体修飾表現を``$N_1のN_2$''という表現に言い換える手法を提案する.動詞を含む連体修飾節は,各文を短縮する既存の要約手法において,削除対象とされている.ところが,連体修飾節の削除によって,その名詞句の指示対象を同定することが困難になる場合がある.それを表現``$N_1$の$N_2$''に言い換えることで,名詞句の意味を限定し,かつ,字数を削減することが可能である.言い換えは,動詞を削除することによって行う.表現``$N_1のN_2$''では,語$N_1$と$N_2$の意味関係を示す述語が省略されている場合がある.この省略されうる述語を,削除可能な動詞として2種類の方法により定義した.一方では,表現``$N_1のN_2$''の意味構造に対応する動詞を,シソーラスを用いて選択した.また,他方では,ある語から連想される動詞を定義した.ただし,コーパスから,名詞とそれが係る動詞との対を抽出し,共起頻度の高いものを,名詞から動詞が連想可能であると考えた.これらの削除可能な動詞を用いた言い換えを評価したところ,再現率63.8\%,適合率61.4\%との結果を得た.さらに,言い換え可能表現の絞り込みを行うことによって適合率は82.9\%に改善することが可能であることを示す.
| |
V06N01-02
|
本稿は最長文脈優先に基づいて長さ可変文脈で品詞タグづけを行うマルチニューロタガーを提案する.マルチニューロタガーはそれぞれ長さの異なる文脈を入力とした複数のニューラルネット(それぞれをシングルニューロタガーと呼ぶ)とそれらの出力を選別する最長文脈優先セレクターで構成される.個々のニューラルネットの訓練はそれぞれ独立に行なわれるのではなく,短い文脈での訓練結果(訓練で獲得した重み)を長い文脈での初期値として使う.その結果,訓練時間が大幅に短縮でき,複数のニューラルネットを用いても訓練時間はほとんど変わらない.タグづけにおいては,目標単語自身の影響が最も強く,前後の単語もそれぞれの位置に応じた影響を与えていることを反映させるために,入力の各構成部分は情報量最大を考慮して訓練データから得られるインフォメーションゲイン(略してIGと呼ぶ)を影響度として重み付けられる.その結果,更に訓練時間が短縮され,タグづけの性能が改善される.計算機実験の結果,マルチニューロタガーは,8,322文の小規模タイ語コーパスを訓練に用いることにより,未訓練タイ語データを94\%以上の正解率でタグづけすることができた.この結果は,固定長さを文脈としたどのシングルニューロタガーを用いた場合よりも優れ,マルチニューロタガーはタグづけ過程において動的に適切な長さの文脈を見つけていることを示した.
|
This dataset was created from the Japanese NLP Journal LaTeX Corpus. The titles, abstracts and introductions of the academic papers were shuffled. The goal is to find the corresponding abstract with the given title. This is the V1 dataset (last updated 2020-06-15).
Task category | t2t |
Domains | Academic, Written |
Reference | https://huggingface.co/datasets/sbintuitions/JMTEB |
Source datasets:
How to evaluate on this task
You can evaluate an embedding model on this dataset using the following code:
import mteb
task = mteb.get_task("NLPJournalTitleAbsRetrieval")
evaluator = mteb.MTEB([task])
model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)
To learn more about how to run models on mteb
task check out the GitHub repository.
Citation
If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.
@misc{jmteb,
author = {Li, Shengzhe and Ohagi, Masaya and Ri, Ryokan},
howpublished = {\url{https://huggingface.co/datasets/sbintuitions/JMTEB}},
title = {{J}{M}{T}{E}{B}: {J}apanese {M}assive {T}ext {E}mbedding {B}enchmark},
year = {2024},
}
@article{enevoldsen2025mmtebmassivemultilingualtext,
title={MMTEB: Massive Multilingual Text Embedding Benchmark},
author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
publisher = {arXiv},
journal={arXiv preprint arXiv:2502.13595},
year={2025},
url={https://arxiv.org/abs/2502.13595},
doi = {10.48550/arXiv.2502.13595},
}
@article{muennighoff2022mteb,
author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Loïc and Reimers, Nils},
title = {MTEB: Massive Text Embedding Benchmark},
publisher = {arXiv},
journal={arXiv preprint arXiv:2210.07316},
year = {2022}
url = {https://arxiv.org/abs/2210.07316},
doi = {10.48550/ARXIV.2210.07316},
}
Dataset Statistics
Dataset Statistics
The following code contains the descriptive statistics from the task. These can also be obtained using:
import mteb
task = mteb.get_task("NLPJournalTitleAbsRetrieval")
desc_stats = task.metadata.descriptive_stats
{
"test": {
"num_samples": 908,
"number_of_characters": 233742,
"num_documents": 504,
"min_document_length": 120,
"average_document_length": 441.6746031746032,
"max_document_length": 1290,
"unique_documents": 504,
"num_queries": 404,
"min_query_length": 5,
"average_query_length": 27.56930693069307,
"max_query_length": 71,
"unique_queries": 404,
"none_queries": 0,
"num_relevant_docs": 404,
"min_relevant_docs_per_query": 1,
"average_relevant_docs_per_query": 1.0,
"max_relevant_docs_per_query": 1,
"unique_relevant_docs": 404,
"num_instructions": null,
"min_instruction_length": null,
"average_instruction_length": null,
"max_instruction_length": null,
"unique_instructions": null,
"num_top_ranked": null,
"min_top_ranked_per_query": null,
"average_top_ranked_per_query": null,
"max_top_ranked_per_query": null
}
}
This dataset card was automatically generated using MTEB
- Downloads last month
- 62