id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V16N03-01
本稿では,大量の上位下位関係をWikipediaから効率的に自動獲得する手法を提案する.ここで「単語Aが単語Bの上位語である(または,単語Bが単語Aの下位語である)」とは,Millerの定義\cite{wordnet-book_1998}に従い,「AはBの一種,あるいは一つである(Bisa(kindof)A)」とネイティブスピーカーがいえるときであると定義する.例えば,「邦画」は「映画」の,また「イチロー」は「野球選手」のそれぞれ下位語であるといえ,「映画/邦画」,「野球選手/イチロー」はそれぞれ一つの上位下位関係である.以降,「A/B」はAを上位語,Bを下位語とする上位下位関係(候補)を示す.一般的に上位下位関係獲得タスクは,上位下位関係にある表現のペアをどちらが上位語でどちらが下位語かという区別も行った上で獲得するタスクであり,本稿でもそれに従う.本稿では概念—具体物関係(ex.野球選手/イチロー)を概念間の上位下位関係(ex.スポーツ選手/野球選手)と区別せず,合わせて上位下位関係として獲得する.上位下位関係は様々な自然言語処理アプリケーションでより知的な処理を行うために利用されている\cite{Fleischman_2003,Torisawa_2008}.例えば,Fleischmanらは質問文中の語句の上位語を解答とするシステムを構築した\cite{Fleischman_2003}.また鳥澤らはキーワード想起支援を目的としたWebディレクトリを上位下位関係をもとに構築した\cite{Torisawa_2008}.しかしながら,このような知的なアプリケーションを実現するためには,人手で書き尽くすことが困難な具体物を下位語とする上位下位関係を網羅的に収集することが重要になってくる.そこで本稿では,Wikipediaの記事中の節や箇条書き表現の見出しをノードとするグラフ構造(以降,\textbf{記事構造}とよぶ)から大量の上位下位関係を効率的に獲得する手法を提案する.具体的には,まず記事構造上でノードを上位語候補,子孫関係にある全てのノードをそれぞれ下位語候補とみなし,上位下位関係候補{を}抽出する.例えば,図~\ref{fig:wiki}(b)のWikipediaの記事からは~\ref{sec:wikipedia}節で述べる手続きにより,図~\ref{fig:wiki}(c)のような記事構造が抽出できる.この記事構造上のノード「紅茶ブランド」には,その子孫ノードとして「Lipton」,「Wedgwood」,「Fauchon」,「イギリス」,「フランス」が列挙されている.提案手法をこの記事構造に適用すると,「紅茶ブランド」を上位語候補として,その子孫ノードを下位語候補群とする上位下位関係候補を獲得できる.しかしながら獲得した下位語候補には,「Wedgwood」,「Fauchon」のように下位語として適切な語が存在する一方,「イギリス」,「フランス」のような誤りも存在する.この例のように,記事構造は適切な上位下位関係を多く含む一方,誤りの関係も含むため,機械学習を用いて不適切な上位下位関係を取り除く.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f1.eps}\end{center}\caption{「紅茶」に関するWikipediaの記事の例}\label{fig:wiki}\end{figure}以下,\ref{sec:bib}節で関連研究と本研究とを比較する.\ref{sec:wikipedia}節で提案手法で入力源とするWikipediaの記事構造に触れ,\ref{sec:method}節で提案手法について詳細に述べる.\ref{sec:exp}節では提案手法を日本語版Wikpediaに適用し,獲得された上位下位関係の評価を行う.最後に\ref{sec:matome}節で本稿のまとめと今後の展望について述べる.
V22N04-03
\label{sect:intro}対訳文中の単語の対応関係を解析する単語アラインメントは,統計的機械翻訳に欠かせない重要な処理の一つであり,研究が盛んに行われている.その中で,生成モデルであるIBMモデル1-5\cite{brown93}やHMMに基づくモデル\cite{vogel96}は最も有名な手法であり,それらを拡張した手法が数多く提案されている\cite{och03,taylor10}.近年では,Yangらが,フィードフォワードニューラルネットワーク(FFNN)の一種である「Context-DependentDeepNeuralNetworkforHMM(CD-DNN-HMM)」\cite{dahl12}をHMMに基づくモデルに適用した手法を提案し,中英アラインメントタスクにおいてIBMモデル4やHMMに基づくモデルよりも高い精度を達成している\cite{yang13}.このFFNN-HMMアラインメントモデルは,単語アラインメントに単純マルコフ性を仮定したモデルであり,アラインメント履歴として,一つ前の単語アラインメント結果を考慮する.一方で,ニューラルネットワーク(NN)の一種にフィードバック結合を持つリカレントニューラルネットワーク(RNN)がある.RNNの隠れ層は再帰的な構造を持ち,自身の信号を次のステップの隠れ層へと伝達する.この再帰的な構造により,過去の入力データの情報を隠れ層で保持できるため,入力データに内在する長距離の依存関係を捉えることができる.このような特長を持つRNNに基づくモデルは,近年,多くのタスクで成果をあげており,FFNNに基づくモデルの性能を凌駕している.例えば,言語モデル\cite{mikolov10,mikolov12,sundermeyer13}や翻訳モデル\cite{auli13,nal13}の構築で効果を発揮している.一方で,単語アラインメントタスクにおいてRNNを活用したモデルは提案されていない.本論文では,単語アラインメントにおいて,過去のアラインメントの情報を保持して活用することは有効であると考え,RNNに基づく単語アラインメントモデルを提案する.前述の通り,従来のFFNNに基づくモデルは,直前のアラインメント履歴しか考慮しない.一方で,RNNに基づくモデルは,隠れ層の再帰的な構造としてアラインメントの情報を埋め込むことで,FFNNに基づくモデルよりも長い,文頭から直前の単語アラインメントの情報,つまり過去のアラインメント履歴全体を考慮できる.NNに基づくモデルの学習には,通常,教師データが必要である.しかし,単語単位の対応関係が付与された対訳文を大量に用意することは容易ではない.この状況に対して,Yangらは,従来の教師なし単語アラインメントモデル(IBMモデル,HMMに基づくモデル)により生成した単語アラインメントを疑似の正解データとして使い,モデルを学習した\cite{yang13}.しかし,この方法では,疑似正解データの作成段階で生み出された,誤った単語アラインメントが正しいアラインメントとして学習されてしまう可能性がある.これらの状況を踏まえて,本論文では,正解の単語アラインメントや疑似の正解データを用意せずにRNNに基づくモデルを学習する教師なし学習法を提案する.本学習法では,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張し,正しい対訳文における単語対と語彙空間全体における単語対を識別するようにモデルを学習する.具体的には,まず,語彙空間全体からのサンプリングにより偽の対訳文を人工的に生成する.その後,正しい対訳文におけるアラインメントスコアの期待値が,偽の対訳文におけるアラインメントスコアの期待値より高くなるようにモデルを学習する.RNNに基づくモデルは,多くのアラインメントモデルと同様に,方向性(「原言語$\boldsymbol{f}\rightarrow$目的言語$\boldsymbol{e}$」又は「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」)を持ち,各方向のモデルは独立に学習,使用される.ここで,学習される特徴は方向毎に異なり,それらは相補的であるとの考えに基づき,各方向の合意を取るようにモデルを学習することによりアラインメント精度が向上することが示されている(Matusov,Zens,andNey2004;Liang,Taskar,andKlein2006;Gra\c{c}a,Ganchev,andTaskar2008;Ganchev,Gra\c{c}a,andTaskar2008).\nocite{matusov04,liang06,graca08,gancev08}そこで,提案手法においても,「$\boldsymbol{f}\rightarrow\boldsymbol{e}$」と「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」の2つのRNNに基づくモデルの合意を取るようにそれらのモデルを同時に学習する.両方向の合意は,各方向のモデルのwordembeddingが一致するようにモデルを学習することで実現する.具体的には,各方向のwordembeddingの差を表すペナルティ項を目的関数に導入し,その目的関数にしたがってモデルを学習する.この制約により,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化が可能となる.提案手法の評価は,日英及び仏英単語アラインメント実験と日英及び中英翻訳実験で行う.評価実験を通じて,前記提案全てを含む「合意制約付き教師なし学習法で学習したRNNに基づくモデル」は,FFNNに基づくモデルやIBMモデル4よりも単語アラインメント精度が高いことを示す.また,機械翻訳実験を通じて,学習データ量が同じ場合には,FFNNに基づくモデルやIBMモデル4を用いた場合よりも高い翻訳精度を実現できることを示す\footnote{実験では,NNに基づくモデルの学習時の計算量を削減するため,学習データの一部を用いた.全学習データから学習したIBMモデル4を用いた場合とは同等の翻訳能であった.}.具体的には,アラインメント精度はFFNNに基づくモデルより最大0.0792(F1値),IBMモデル4より最大0.0703(F1値),翻訳精度はFFNNに基づくモデルより最大0.74\%(BLEU),IBMモデル4より最大0.58\%(BLEU)上回った.また,各提案(RNNの利用,教師なし学習法,合意制約)個別の有効性も検証し,機械翻訳においては一部の設定における精度改善にとどまるが,単語アラインメントにおいては各提案により精度が改善できることを示す.以降,\ref{sect:related}節で従来の単語アラインメントモデルを説明し,\ref{sect:RNN}節でRNNに基づく単語アラインメントモデルを提案する.そして,\ref{sect:learning}節でRNNに基づくモデルの学習法を提案する.\ref{sect:experiment}節では提案手法の評価実験を行い,\ref{sect:discuss}節で提案手法の効果や性質についての考察を行う.最後に,\ref{sect:conclusion}節で本論文のまとめを行う.
V10N05-07
カスタマサービスとして,ユーザから製品の使用方法等についての質問を受けるコールセンターの需要が増している.しかし,新製品の開発のサイクルが早くなり,ユーザからの質問の応対に次々に新しい知識が必要となり,応対するオペレータにとっては,複雑な質問へすばやく的確に応答することが困難な状況にある.オペレータは,過酷な業務のため定着率が低く,企業にとっても,レベルの高いオペレータを継続して維持することは,人件費や教育などのコストがかかり,問題となっている.本稿では,ユーザが自ら問題解決できるような,対話的ナビゲーションシステムを実現する基礎技術を開発することにより,コールセンターのオペレータ業務の負荷を軽減することを目的とする.通常のコールセンターでは,オペレータがユーザとのやり取りによって質問応答の要約文をあらかじめ作成しておく(図\ref{fig:call}\,(a)).Web上の質問応答システムでは,これをデータベース化したものをユーザの質問文のマッチング対象に用いる(図\ref{fig:call}\,(b)).ユーザはオペレータの介入なしに質問を入力し,応答を得ることができる.\begin{figure}[ht]\begin{center}\epsfile{file=figure/fig1.eps,scale=0.5}\caption{コールセンター(a)とWeb上の質問応答システム(b)}\label{fig:call}\end{center}\end{figure}このようなWeb上の質問応答システムを用いて,所望の応答結果を速やかに得るために必要なナビゲーション技術の新しい提案を行なう.パソコン関連の疑問に答える,既存のWeb上の質問応答システムから収集したデータによると,ユーザが入力する質問文(端末からの入力文)は,平均20.8文字と短いため,この質問文を用いて,一度で適切な質問と応答の要約文にマッチングすることは稀である.そこで,必要に応じてシステムがユーザに適切なキータームの追加を促すことで,必要な条件を補いながら質問の要約文とのマッチングを行ない,適切な応答の要約文を引き出す必要がある.しかしながら,このようなナビゲーションにおいては,ユーザに追加を促したキータームがどれだけ有効に機能したかどうかがわからない,といった評価上の問題がある.これらのキータームの補いの問題と,評価上の問題を解決するために,本稿では以下の手法を用いた.\begin{itemize}\itemまず,34,736件の質問の要約文から300件を無作為に抽出し,ユーザが初期に入力するような質問文(以下,初期質問文と呼ぶ)を人手で作成した.この初期質問文を初期入力として要約文とのマッチングを行なった.\item次に,システム側がユーザに対して適切なキータームの追加を促し,新たに作成した質問文(以下,二次質問文と呼ぶ)を入力として,再度,要約文とのマッチングを行なった.\itemマッチングの結果,初期質問文を作成する際の元になった質問の要約文が出力結果として得られた場合に,ユーザが問題を解決したとする仮説を立てた.この仮説に基づき,ユーザが問題解決できたか否かという評価を行なった.\end{itemize}ユーザにどのようなキータームの追加を促すべきかをシステム側が判定する方式として,サクセスファクタ分析方式を用いた.これは,ユーザの質問文と蓄積している質問の要約文とのマッチングが成功したものから一定の基準によってキータームを変更して結果を評価し,マッチングの精度に大きな影響を及ぼすものをルール化し,質問文にキータームを追加する方式である.本論文の第\ref{sec:2}\,章では,Web上の質問応答システムとコールセンターの現状のデータを具体的に例示し,初期質問文作成の意義やその作成方法について述べる.第\ref{sec:3}\,章では,従来行なわれてきた質問応答の関連研究を概観し,本研究の位置付けを明確にする.第\ref{sec:4}\,章では,実験と評価の方法について述べる.第\ref{sec:5}\,章では,サクセスファクタ分析方式の詳細と,それを用いた実験結果を述べ,本方式が対話的ナビゲーションに極めて有効であることを示す.
V20N03-04
2011年3月11日に発生した東日本大震災の被災範囲の広大さは記憶に新しい.この震災では,既存マスメディア(放送・新聞・雑誌等)だけでなく,Twitterなどのソーシャルメディアによる情報発信が盛んに行われた\cite{Shimbun,Endo2}.しかしながら,大手既存メディアは被災報道を重視していた.実際,被災者にとって有用な報道として,災害時でも乾電池で駆動可能なラジオ,並びに,無料で避難所等へ配布された地元地方紙が役に立ったことが,\cite{Fukuda}の被災者アンケートで調査報告されている.この様な震災初期の状況の理由として,阿部正樹(IBC岩手放送社長)は,震災発生当時の被災地において,テレビは「テレビ報道は系列間競争の中でどうしても全国へ向かって放送せざるを得ない.(中略)被災者に面と向き合う放送がなかなか出来ない,被災者のためだけの放送に徹し切れない.」というジレンマがあったとする一方,「しかしラジオは違う.地域情報に徹することが出来る.(中略)テレビではどこそこの誰が無事だという情報はニュースになりづらい.しかし,ラジオでは大切な情報なのだ.いつしかラジオが安全情報,安否情報へと流れていったのは自然なことだったと思う.」と述懐している\cite{IBC}.震災初期から,ソーシャルメディアの一つであるTwitterには,救助要請ハッシュタグ{\tt\#j\_j\_helpme}\cite{Twitter_tags}が付与された大量の救助の声が寄せられていた.(被災地マスメディアの一つであるラジオ福島は,当時生きていた3~G回線を用いて,Twitterによる情報収集・発信を行っている\cite{rfc}.)ただし,これら救助要請の多くには「【拡散希望】」という文字列が含まれていたため,それを見た「善意の第三者」は,Twitterのリツィート機能(全文引用機能)を用いる傾向が高かった\cite{Ogiue,Tachiiri}.結果として,リツィートによって救助要請の類似情報がTwitterへ膨大に流れたものの,「実際に救助要請情報が警察など関係機関へ適切に通報されたかどうか」という最も重要な情報のトレースは,著しく困難なものになった.この様な状況を解消するために,我々は2011年3月15日,Twitter上の救助要請情報をテキストフィルタリングで抽出し,類似文を一つにまとめて一覧表示するWebサイトを開発し,翌16日に公開した\cite{Aida0,extraction,Aida1}.本論文では,本サイトの技術のみならず,救助要請の情報支援活動プロジェクト{\tt\#99japan}と本サイトとの具体的な連携・活用事例について述べる.ここで{\tt\#99japan}とは,救助状況の進捗・完了報告を重視するTwitterを用いたプロジェクトであると共に,発災2時間後,2ちゃんねる臨時地震板ボランティアらによって立ち上げられたスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を由来する.このスレッドは,「震災初期におけるネット上のアウトリーチ活動記録」として,特筆に値する.
V15N05-08
多言語依存構造解析器に関して,CoNLL-2006\shortcite{CoNLL-2006}やCoNLL-2007\shortcite{CoNLL-2007}といった評価型SharedTaskが提案されており,言語非依存な解析アルゴリズムが多く提案されている.これらのアルゴリズムは対象言語の様々な制約---交差を許すか否か,主辞が句の先頭にあるか末尾にあるか---に適応する必要がある.この問題に対し様々な手法が提案されている.Eisner\shortcite{Eisner:1996}は文脈自由文法に基づくアルゴリズムを提案した.山田ら\shortcite{Yamada:2003},およびNivreら\shortcite{Nivre:2003,Nivre:2004}はshift-reduce法に基づくアルゴリズムを提案した.Nivreらはのちに,交差を許す言語に対応する手法を提案した\shortcite{Nivre:2005}.McDonaldら\shortcite{McDonald:2005b}はChu-Liu-Edmondsアルゴリズム(以下「CLEアルゴリズム」)\shortcite{Chu:1965,Edmonds:1967}を用いた,最大全域木の探索に基づく手法を提案した.多くの日本語係り受け解析器は入力として文節列を想定している.日本語の書き言葉の係り受け構造に関する制約は他の言語よりも強く,文節単位には左から右にしか係らず,係り受け関係は非交差であるという制約を仮定することが多い.図\ref{fig_jpsen}は日本語の係り受け構造の例である.ここで係り受け関係は,係り元から係り先に向かう矢印で表される.文(a)は文(b)と似ているが,両者の構文構造は異なる.特に「彼は」と「食べない」に関して,(a)は直接係り受け関係にあるのに対して,(b)ではそうなっていない.この構文構造の違いは意味的にも,肉を食べない人物が誰であるかという違いとして現れている.\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f1.eps}\end{center}\caption{日本語文の係り受け構造の例}\label{fig_jpsen}\end{figure}日本語係り受け解析では,機械学習器を用いた決定的解析アルゴリズムによる手法が,確率モデルを用いた,CKY法等の文脈自由文法の解析アルゴリズムによる手法よりも高精度の解析を実現している.工藤ら\shortcite{Kudo:2002}はチャンキングの段階適用(cascadedchunking,以下「CCアルゴリズム」)を日本語係り受け解析に適用した.颯々野\shortcite{Sassano:2004}はShift-Reduce法に基づいた時間計算量$O(n)$のアルゴリズム(以下「SRアルゴリズム」)を提案している.これらの決定的解析アルゴリズムは入力文を先頭から末尾に向かって走査し,係り先と思われる文節が見つかるとその時点でそこに掛けてしまい,それより遠くの文節は見ないので,近くの文節に係りやすいという傾向がある.\ref{sec:exp_acc}節で述べるように,我々はCLEアルゴリズムを日本語係り受け解析に適用した実験を行ったが,その精度は決定的解析手法に比べて同等あるいは劣っていた.実際CLEアルゴリズムは,左から右にしか係らないかつ非交差という日本語の制約に合っていない.まず全ての係り関係の矢印は左から右に向かうので,各ステップにおいて係り受け木にサイクルができることはない.加えて,CLEアルゴリズムは交差を許す係り受け解析を意図しているので,日本語の解析の際には非交差のチェックをするステップを追加しなければならない.工藤ら\shortcite{Kudo:2005j}は候補間の相対的な係りやすさ(選択選好性)に基づいたモデルを提案した.このモデルでは係り先候補集合から最尤候補を選択する問題を,係り元との選択選好性が最大の候補を選択する問題として定式化しており,京大コーパスVersion3.0に対して最も高い精度を達成している\footnote{ただし京大コーパスVersion2.0に対しては,颯々野の手法が最高精度を達成している.相対モデルと颯々野手法を同じデータで比べた報告はない.}.決定的手法においては候補間の相対的な係りやすさを考慮することはせず,単に注目している係り元文節と係り先候補文節が係り受け関係にあるか否かということのみを考える.また,この手法は,先に述べたCLEアルゴリズムに,左から右にのみ掛ける制約と非交差制約を導入した方法を拡張したものになっている.上にあげた手法はいずれも,係り元とある候補の係りやすさを評価する際に他の候補を参照していない\footnote{手法によっては係り元や候補に係っている文節や,周辺の文節の情報を素性として使用しているものもあるが,アクションの選択に重要な役割を果たす文節がこれらの素性によって参照される場所にあるとは限らない.}.これに対し内元ら\shortcite{Uchimoto:2000}は,(係り元,係り先候補)の二文節が係るか否かではなく,二文節の間に正解係り先がある・その候補に係る・その候補を越えた先に正解係り先がある,の3クラスとして学習し,解析時には各候補を正解と仮定した場合の確率が最大の候補を係り先として選択する確率モデルを提案している.また,金山ら\shortcite{Kanayama:2000}はHPSGによって係り先候補を絞り込み,さらに,三つ以下の候補のみを考慮して係り受け確率を推定する手法を提案している.本稿では,飯田ら\shortcite{Iida:2003}が照応解析に用いたトーナメントモデルを日本語係り受け解析に適用したモデルを提案する.同時に係り元と二つの係り先候補文節を提示して対決させるという一対一の対戦をステップラダートーナメント状に組み上げ,最尤係り先候補を決定するモデルである.2節ではどのようにしてトーナメントモデルを日本語係り受け解析に適用するかについて説明する.3節ではトーナメントモデルの性質について関連研究と比較しながら説明する.4節では評価実験の結果を示す.5節では我々の現在の仕事および今後の課題を示し,6章で本研究をまとめる.
V21N03-02
計算機技術の進歩に伴い,大規模言語データの蓄積と処理が容易になり,音声言語コーパスの構築と活用が盛んになされている.海外では,アメリカのLinguisticDataConsortium(LDC)とヨーロッパのEuropeanLanguageResourcesAssociation(ELRA)が言語データの集積と配布を行う機関として挙げられる.これらの機関では,様々な研究分野からの利用者に所望のコーパスを探しやすくさせるために検索サービスが提供されている.日本国内においても,国立情報学研究所音声資源コンソーシアム(NII-SRC)や言語資源協会(GSK)などの音声言語コーパスの整備・配布を行う機関が組織され,コーパスの属性情報に基づいた可視化検索サービスが開発・提供されている(Yamakawa,Kikuchi,Matsui,andItahashi2009,菊池,沈,山川,板橋,松井2009).コーパスの属性検索と可視化検索を同時に提供することで,コーパスに関する知識の多少に関わらず所望のコーパスを検索可能にできることも示されている(ShenandKikuchi2011).検索に用いられるコーパスの属性情報として,収録目的や話者数などがあるが,speakingstyleも有効な情報と考えられる.郡はspeakingstyleと類似の概念である「発話スタイル」が個別言語の記述とともに言語研究として重要な課題であると指摘している(郡2006).Jordenらによれば,どの言語にもスタイルの多様性があるが,日本語にはスタイルの変化がとりわけ多い(JordenandNoda1987).しかしながら,現状では,前述の機関では対話や独話などの種別情報が一部で提供されているに過ぎない.また,同一のコーパスにおいても話者や収録条件によって異なるspeakingstyleが現れている可能性もある.そこで,本研究ではspeakingstyleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるため,音声言語コーパスにおける部分的単位ごとのspeakingstyleの自動推定を可能にし,コーパスの属性情報としてより詳細なspeakingstyleの集積を提供することを目指す.Speakingstyleの自動推定を実現するためには,まずspeakingstyleの定義を明確にする必要がある.Joosは発話のカジュアルさでspeakingstyleを分類し(Joos1968),Labovはspeakingstyleが話者の発話に払う注意の度合いとともに変わると示唆した(Labov1972).Biberは言語的特徴量を用いて因子分析を行い,6因子にまとめた上で,その6因子を用いて異なるレジスタのテキストの特徴を評価した(Biber1988).Delgadoらはアナウンサーの新聞報道や,教師の教室内での発話など,特定の職業による発話を``professionalspeech''として提案し(DelgadoandFreitas1991),Cidらは発話内容が書かれたスクリプトの有無をspeakingstyleのひとつの指標にした(CidandCorugedo1991).Abeらは様々な韻律パラメータとフォルマント周波数を制御することにより小説,広告文と百科事典の段落の3種類のspeakingstyleを合成した(AbeandMizuno1994).Eskenaziは様々なspeakingstyle研究の考察からメタ的にspeakingstyleの全体像を網羅した3尺度を提案した(Eskenazi1993).Eskenaziは,人間のコミュニケーションは,あるチャンネルを通じて,メッセージが話し手から聞き手へ伝達されることであり,speakingstyleを定義する際,このメッセージの伝達過程を考慮することが必要であると主張した.その上で,「明瞭さ」(Intelligibility-oriented,以降Iとする),「親しさ」(Familiarity,以降Fとする),「社会階層」(soCialstrata,以降Cとする)の3尺度でspeakingstyleを定義した.「明瞭さ」は話し手の発話内容の明瞭さの度合いであり,メッセージの読み取りやすさ・伝達内容の理解しやすさや,読み取りの困難さ・伝達内容の理解の困難さを示す.又これは,発話者が意図的に発話の明瞭さをコントロールしている場合も含んでいる.「親しさ」は話し手と聞き手との親しさにより変化する表現様式の度合いであり,家族同士の親しい会話や,お互いの言語や文化を全く知らない外国人同士の親しくない会話などに現れるspeakingstyleを示す.「社会階層」は発話者の発話内容の教養の度合いであり,口語的な,砕けた,下流的な表現(社会階層が低い)や,洗練された,上流的な表現(社会階層が高い)を示している.話し手と聞き手の背景や会話の文脈によって変化する場合もある.ここで,本研究が目指すコーパス検索サービスにとって有用なspeakingstyle尺度の条件を整理し,Eskenaziの尺度を採用する理由を述べる.まず,一つ目の条件として,幅広い範囲のデータを扱える必要がある.音声言語コーパスは,朗読,雑談,講演などの様々な形態の談話を含み,それらは話者ごと,話題ごとなどの様々な単位の部分的単位により構成される.限られた種類の形態のデータからボトムアップに構築された尺度では,一部のspeakingstyleがカバーできていない恐れがある.Eskenaziの尺度は,様々なspeakingstyle研究の考察からメタ的に構築されたものであり,幅広い範囲のデータを扱える点で本研究の目的に適している.データに基づいてボトムアップに構築された他の尺度(例えば(Biber1988)など)の方が信頼性の点では高いと言えるが,現段階では網羅性を重視する.次に,二つ目の条件として,上述した目的から,コーパスの部分的単位ごとに付与できる必要がある.新聞記事,議事録,講演などのジャンルごとにspeakingstyleのカテゴリを設定する方法では,一つの談話内でのspeakingstyleの異なり・変動を積極的に表現することが困難である.一方,Eskenaziの尺度は必ずしも大きな単位に対象を限定しておらず,様々な単位を対象にした多くの先行研究をカバーするように構築されているため,この条件を満たす.最後に三つ目の条件として,日本語にも有効であることが求められる.(郡2006)や(JordenandNoda1987)から,speakingstyleの種類は言語ごとに異なると言え,特定の言語の資料に基づいてボトムアップに構築された尺度では,他の言語にそのまま適用できない恐れがある.Eskenaziの尺度はコミュニケーションモデルに基づいて特定の言語に依存することなく構築されたものであるため,本研究で対象とする日本語にも他の言語と同様に適用して良いものと考える.したがって本研究では,Eskenaziの3尺度を用いて音声言語コーパスの部分的単位ごとのspeakingstyle自動推定を行い,推定結果の集積をコーパスの属性情報として提供することを目指す.これによって,推定された3尺度の値を用いて,例えばコーパス内の部分的単位のspeakingstyle推定結果を散布図で可視化したり,所定の明瞭さ,親しさ,社会階層のデータを多く含むコーパスを検索するなどの応用を可能にする.以降,2章では,speakingstyle自動推定の提案手法について述べる.Speakingstyleの推定に用いる学習データを収集するための評定実験については3章で説明する.4章では評定実験結果の分析,speakingstyleの自動推定をするための回帰モデルの構築および考察を述べる.最後の5章ではまとめおよび今後の方向性と可能性の検討を行う.
V26N03-01
近年,CPUが1.2~GHz程度で主記憶が1~GB程度だが安価な小型計算機が広く利用されている.その小型計算機では様々なサービスが提供されている.キーボードなどの入力装置を有しない状態で使用される際に,小型計算機に指示を出す手段として,言葉による命令があげられる.ここで,車載器のように屋外環境での使用が想定される場合,インターネットの常時接続が期待できない.また,個人利用においてはスタンドアロンが望ましい.そのため,言語処理を小型計算機上で行うことが要求される.小型計算機での言語処理への要件が幾つかある.一つは,サービスを操作する命令文は規定の文であれば確実に受理されることがユーザに約束できることである.サービスに応じて語義が区別されることが必要である.つまり,あるサービスにおいてはキーとなる用語であっても,別のサービスにおいてはキーにならないことが区別されることである.したがって,語義解析やチャンキングを行う際,サービスに依存することが必要である.また,一つは,少し言い回しの外れた文であっても受理されることである.単純なパターンベースの解析手法では対応がとりにくい.最後の一つは,受理されなかった言い回しは,サービスの利用中に,受理に向けて学習されることである.サービスのためにCPUと主記憶の計算リソースを残しておく必要があるため,言語の解析,および,追加的に行う学習は軽量でなければならない.関連研究として,対話処理において,対話行為を識別する手法が提案された.識別における有力な素性は,単語n-gram,および,直前の発話の対話行為である.対話行為毎に詳細な素性の選択を行うことで,対話行為の識別性能の向上が示された\cite{Fukuoka_2017}.対話行為識別(意図解析)の後段での応答処理のために,発話文からの情報抽出が必要である.その一つがスロットフィリングである.スロットフィリングは,確率有限状態トランスデューサ,識別器に基づく系列ラベリング,条件付き確率場ConditionalRandomFields(CRF)の3つの解法の中でもCRFが良好に動作することが示された\cite{Raymond_2007}.近年では,意図解析,スロットフィリングおよび言語モデリングを同時に行う手法が提案された\cite{Liu_2016}.この手法では,RecurrentNeuralNetwork(RNN)により単語n-gram相当の特徴を含む情報を参照した意図解析が行われた.同時に,単語単位での系列ラベリングに相当する働きにより,単語とスロットとの対応が識別されることで,スロットフィリングが行われた.意図解析とスロットフィリングが同時に尤最もらしいことが評価されるため,全体の識別性能が向上したものと解釈できる.なお,Embeddingからの単語ベクトルと,前時刻(単語単位)からの意図クラスとが合わさることで,意図毎(対話行為毎)の素性選択に相当する語彙識別が働いた可能性がある.Liuらの手法を改良したRNNを用いることについて,日本語文における解析性能が報告された\cite{Nagai_2018}.RNNの双方向性,Attentionモデル,未知語処理が追加された.未知語処理には汎用単語分散表現が用いられた.この分散表現の獲得には日本語Wikipediaテキストからのword2vecでの解析が行われた.意図解析とスロットフィリングなどの言語理解の後段の処理として,対話状態追跡,対話ポリシの適用,自然言語生成がある.対話状態追跡では,スロット値の候補に確率を対応付けて信念状態を表す.対話ポリシの適用は,タスクとして外部知識を検索するなどを行い,応答のための対話行為を決める.自然言語生成は対話行為からテキストを生成する.これらの流れをニューラルネットワークを基礎としてend-to-endでモデル化することが提案された\cite{Liu_2018}.システム状態の設計は複雑になりがちであるが,Liuらの手法は信念状態がニューラルネットワークに組み込まれることなどによりシステムの状態が定義されることで,設計の問題を回避した.さらに,強化学習を用いることで,状態に応じたシステムの応答を学習した.一方,音声認識,意図やスロットの解析には誤りが含まれやすい.言語理解に対する信頼性が低いことを考慮してシステムの応答を行うために部分観測マルコフ決定過程PartiallyObservableMarkovDecisionProcess(POMDP)が対話システムに導入された\cite{Williams_2007}.POMDPでは信念状態に対するシステムの応答を決める.対話事例から強化学習を行うことで対話ポリシをモデル化できる.後段の処理でのこれらの手法は,複数ターンに渡る発話を通じてタスクを達成させるために有益な手法である.ここで,本稿では,小型計算機への命令を受理するための言語理解の段階,すなわち,意図解析およびスロットフィリングについて議論する.言語理解の後段の処理は,命令を受けたサービス処理部が対処するものとする.言語理解の段階においては,単語n-gram素性,文脈情報,意図毎の素性選択,未知語対応,および,意図解析とスロットフィリングの同時性という5点に着目する.しかし,小型計算機において,RNNによる意図解析・スロットフィリングの学習と解析は計算コストが高い.ここで,スロットフィリングとは,文頭から文末にかけて文の単語列をスキャンする間に,参照している単語の代入先を識別することである.スキャン(参照先を次単語に進める)と代入というアクションを,状態に応じて適切に行うことでスロットフィリングが実現できる見込みがある.状態に対するアクションを学習する方法として強化学習があげられる.そこで,本稿では,上記5点を考慮しつつ,サービス依存のパージングおよび強化学習を用いて,発話文の学習と解析を行うことを目的とする.自動車旅行を支援する車載器の上に提案手法を実装し発話文解析の評価を行う.本稿の構成は次のとおりである.まず第2章では,発話事例,意図とスロットに関する諸定義,および,発話文コーパスを示す.第3章では提案手法を示す.第4章で車載器に実装した発話文解析について性能を評価する.第5章で提案手法の特性を考察し,第6章でまとめを述べる.
V03N01-04
日本語文章における名詞の指す対象が何であるかを把握することは,高品質の機械翻訳システムを実現するために必要である.例えば,以下の文章中の二つ目の「おじいさん」は前文の「おじいさん」と同じなので翻訳する際には代名詞化するのが望ましい.\begin{equation}\begin{minipage}[h]{10cm}\underline{おじいさん}は地面に腰を下ろしました.\\\underline{Theoldman}satdownontheground.\\[0.1cm]やがて\underline{おじいさん}は眠ってしまいました.\\\underline{He}soonfellasleep.\end{minipage}\label{eqn:ojiisan_jimen_meishi}\end{equation}これを計算機で行なうには,二つの「おじいさん」が同じ「おじいさん」を指示することがわかる必要がある.そこで,本研究では名詞の指示性,修飾語,所有者などの情報を用いて名詞の指示対象を推定する.このとき,指示詞や代名詞やゼロ代名詞の指示対象も推定する.英語のように冠詞がある言語の場合は,それを手がかりにして前方の同一名詞と照応するか否かを判定することができるが,日本語のように冠詞がない言語では二つの名詞が照応関係にあるかどうかを判定することが困難である.これに対して,我々は冠詞に代わるものとして名詞の指示性\cite{match}を研究しており,これを用いて名詞が照応するか否かを判定する.名詞の指示性とは名詞の対象への指示の仕方のことであり,総称名詞,定名詞,不定名詞がある.定名詞,不定名詞はそれぞれ定冠詞,不定冠詞がつく名詞に対応する.総称名詞には定冠詞,不定冠詞のどちらがつくときもある.名詞の指示性が定名詞ならば既出の名詞と照応する可能性があるが,不定名詞ならば既出の名詞と照応しないと判定できる.以上で述べた名詞の指示性の情報だけでは指示対象が異なる二つの名詞の指示対象が同一であると誤る場合がある.この誤りを正すために名詞の修飾語や所有者の情報を用い,より確実に名詞の指示対象の推定を行なう.
V13N03-07
「ある用語を知る」ということは,その用語が何を意味し,どのような概念を表すかを知ることである.それと同時に,その用語が他のどのような用語と関連があるのかを知ることは非常に重要である.特定の専門分野で使われる用語---{\bf専門用語}---は,その分野内で孤立した用語として存在することはない.その分野で使われる他の用語に支えられ,その関連を土台として,はじめて意味を持つ.それらの用語間の関連を把握することは,「その専門分野について知る」ことでもある.例えば,「自然言語処理」について知りたい場合を考えよう.まずは,「自然言語処理」という用語が表す意味,すなわち,「自然言語---人間が使っていることば---を計算機で処理すること」を知ることが,その第一歩となる.それと同時に,「自然言語処理」に関連する用語にはどのような用語があり,それらがどのような意味を持つかを知ることは,「自然言語処理」という分野を知るよい方法である.用語の意味を調べる方法は自明である.百科辞典や専門用語辞典を引くことによって,あるいは,ウェブのサーチエンジン等を利用することによって,比較的容易に達成できる場合が多い.それに対して,ある用語に関連する用語集合を調べる方法は,それほど自明ではない.上記の例の場合,好運にも「自然言語処理」用語集のようなものが見つかれば達成できるが,そのような用語集が多くの専門分野に対して存在するわけではない.関連用語を知ることが専門分野の理解につながるということは,逆に言えば,適切な関連用語集を作成するためには,その分野に関する専門知識が必要であるということである.事実,一つの専門分野が形成され成熟すると,しばしば,その分野の専門用語集・辞典が編纂されるが,その編纂作業は,その分野の専門家によって行なわれるのが普通である.その作業には,かなりの労力と時間が必要であるため,商業的に成立しうる場合にしか専門用語集は作成されないとともに,分野の進展に追従して頻繁に改定されることはまれである.このような現状を補完する形で,色々な分野に対する色々なサイズの私家版的用語集が作られ,ウェブ上に公開されている.このような現象は,相互に関連する専門用語群を知りたいというニーズが存在し,かつ,専門用語集が表す総体---分野---を知る手段として,実際に機能していることを示唆する.関連する専門用語群を集めるという作業は,これまで,その分野の専門家が行なうのが常であったわけであるが,この作業を機械化することはできないであろうか.我々が頭に描くのは,例えば,「自然言語処理」という用語を入力すると,「形態素解析」や「構文解析」,あるいは「機械翻訳」といった,「自然言語処理」の関連用語を出力するシステムである.このようなシステムが実現できれば,ある用語に対する関連用語が容易に得られるようになるだけでなく,その分野で使われる専門用語の集合を収集することが可能になると考えられる.このような背景から,本論文では,与えられた専門用語から,それに関連する専門用語を自動的に収集する方法について検討する.まず,第\ref{chap2}章で,本論文が対象とする問題---{\bf関連用語収集問題}---を定式化し,その解法について検討する.第\ref{sec:system}章では,実際に作成した関連用語収集システムについて述べ,第\ref{chap4}章で,そのシステムを用いて行なった実験とその結果について述べる.第\ref{chap5}章では,関連研究について述べ,最後に,第\ref{chap6}章で,結論を述べる.
V21N02-01
\label{sec:Introduction}近年,コーパスアノテーションはますます多様化し,多層アノテーションを統合的に利用する仕組みが欠かせない.たとえば,話し言葉の言語学的・工学的研究で広く用いられている『日本語話し言葉コーパス』\cite{前川_2004_日本語}のコアデータでは,音韻・単語・韻律単位・文節・節を含む10種類あまりの単位に関してさまざまなアノテーションがなされている.また,最近では視線・頷きやジェスチャーなどの非言語情報を含むマルチモーダルコーパスの開発が進んでおり\cite<たとえば>{Carletta_2007_UTK,Chen_2006_VMM,Den_2007_SAT,角_2011_マルチ,Waibel_2009_CIT},これらのコーパスでは複数のモダリティに関して多種のアノテーションがなされている.コーパスアノテーションに基づく研究では,このような多層的なアノテーションを統合し,「文末形式を持つ節の先頭の文節の末尾の語が係助詞「は」であるものを抽出し,その語の継続長を算出する」といった,複数の単位を組み合わせた複雑な検索を可能にする必要がある.これまで,多層アノテーションを表現するさまざまなスキーマが提案され,それらに基づくアノテーションツールやコーパス検索ツールが開発されている\cite{Bird_2000_FFF,Bird_2001_FFF,Calhoun_2010_NSC,Carletta_2005_NXT,Kaplan_2012_STF,Kaplan_2010_APM,Matsumoto_2006_ACM,Muller_2001_MTF,Muller_2006_MAO,Noguchi_2008_MPA}.しかし,これらのツールは開発主体内部での利用にとどまっている場合がほとんどであり,外部にはあまり普及していない.これらの統合開発環境では提案スキーマに基づいて種々のツール群を提供することを目指しているが,実際に提供されているのは一部のツールのみであり,個別のアノテーションツールのほうが広く使われている場合が多い.とくに話し言葉においては,Praat\cite{Boersma_2013_PDP}やELAN\cite{Brugman_2004_AMM}といった音声や映像を扱う高機能なアノテーションツールが広く普及しており,これらのツールと同等の機能を持つツールを自前で開発するのはコストが高くつくうえ,コーパス開発者の側でも使い慣れたツールにとどまって新たなツールに乗り換えたくないという者が多い.本研究の目的は,話し言葉で広く使われている既存のアノテーションツールを有効に利用しつつ,種々のアノテーションを統合利用できる環境を構築することである(図\ref{fig:overview}).具体的には以下のことを行なう.\begin{enumerate}\itemマルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを設計する.\item以下の入出力を持つデータベース構築ツールを開発する.\begin{description}\item[入力]既存のアノテーションツールで作成された,種々の書式を持つアノテーション\item[出力]設定ファイルを基にして,汎用的なデータベーススキーマから具現化されたデータベース\end{description}\itemサーバを必要としないスタンドアロンのデータベースソフトとして広く用いられているSQLiteによって実装し,既存のコーパス検索ツールと接続可能にする.\end{enumerate}本研究は,既存のアノテーションツールやコーパス検索ツールと結合したコーパス利用環境を構築することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f1.eps}\end{center}\caption{本研究の枠組み}\label{fig:overview}\end{figure}以下,\ref{sec:DB}節では話し言葉を表現できる汎用的なデータベーススキーマの設計について述べ,\ref{sec:Tools}節ではデータベース構築ツールの開発について述べる.\ref{sec:CaseStudies}節では提案するコーパス利用環境を用いて実際に運用している2つの事例について述べる.\ref{sec:Discussion}節では関連研究やアノテーション管理・実用性に関する議論を行ない,\ref{sec:Conclusion}節ではまとめと今後の課題について述べる.
V14N01-04
キーワード抽出は情報検索に不可欠な技術の一つであり,現在,多様なキーワード抽出法が提案されている.その手法では,辞書を用いて形態素解析を行う方法\cite{Nakagawa1997}が一般的であるが,辞書を全く用いない方法\cite{TakedaAndUmemura2001}もある.辞書を用いて形態素解析を行う方法は,辞書に登録されていない語(未知語)の処理を考えなければならない.これは,未知語の存在がキーワード抽出の性能に悪い影響を与えるからである.したがって,日々増え続ける新しい未知語に対して,対処法を講じる必要がある.一方,辞書を一切用いずに,コーパスにおける文字列の統計量を元にキーワードを獲得する手法がある.文献\cite{TakedaAndUmemura2001}では,adaptation(反復度)を用いたキーワード抽出法を提案している.この手法では,文書数に上限があるとき複合語が分割されて抽出され,長いキーワードとして抽出できないという問題がある.この原因について我々は,文書中での文字列の反復出現が少ないことにより,反復度をうまく推定できていないと分析した.つまり,反復度は文書数をたくさん必要とする指標である.そこで本論文では,類似する文書への出現を考えた.情報検索における検索質問拡張では,新しい索引語を検索質問に付け加えることで検索質問の不足を補う.我々はこの手法を,コーパスの文書を拡張することに応用して,長い文字列の反復出現をうまく捕らえることができないかと考えた.ここで,文書拡張したコーパスを拡張文書集合と呼ぶことにする.本論文では,反復度を用いたキーワード抽出システムを利用する.そしてこのシステムにおいて,従来法と拡張文書集合を使用する提案法との比較実験を行う.結果として,文書拡張によるキーワード抽出法は,長いキーワードの反復出現をうまく捕らえるということを確かめる.また,これまでに取れなかった分野に特化したキーワード及びフレーズ的キーワードが抽出できるという新たな性質を報告する.結論として,キーワード抽出における文書拡張の有用性を報告する.本論文では,はじめに2節でキーワードの定義を行う.次に3節で反復度を用いたキーワード抽出法と文書拡張によるキーワード抽出法について,その手法及び手順と,文書拡張の妥当性について述べる.4節では従来法と提案法において反復度の振る舞いを調査する.そして5節で実際にキーワード抽出を行い,従来法と比較及び考察する.6節で先行研究と比較する.最後に7節で本論文の調査をまとめ,結論とする.
V07N04-08
\label{sec:introduction}日本語は語順が自由であると言われている.しかし,これまでの言語学的な調査によると実際には,時間を表す副詞の方が主語より前に来やすい,長い修飾句を持つ文節は前に来やすいといった何らかの傾向がある.もしこの傾向をうまく整理することができれば,それは文を解析あるいは生成する際に有効な情報となる.本論文では語順とは,係り相互間の語順,つまり同じ文節に係っていく文節の順序関係を意味するものとする.語順を決定する要因にはさまざまなものがある.それらの要因は語順を支配する基本的条件として文献\cite{Saeki:98}にまとめられており,それを我々の定義する語順について解釈しなおすと次のようになる.\begin{itemize}\item成分的条件\begin{itemize}\item深く係っていく文節は浅く係っていく文節より前に来やすい.深く係っていく文節とは係り文節と受け文節の距離が長い文節のことを言う.例えば,係り文節と受け文節の呼応を見ると,基本的語順は,感動詞などを含む文節,時間を表す副詞を含む文節,主語を含む文節,目的語を含む文節の順になり,このとき,時間を表す副詞を含む文節は主語を含む文節より深く係っていく文節であると言う.このように係り文節と受け文節の距離を表す概念を係りの深さという.\item広く係っていく文節は狭く係っていく文節より前に来やすい.広く係っていく文節とは受け文節を厳しく限定しない文節のことである.例えば,「東京へ」のような文節は「行く」のように何らかの移動を表す動詞が受け文節に来ることが多いが,「私が」のような文節は受け文節をそれほど限定しない.このとき,「私が」は「東京へ」より広く係っていく文節であると言う.このように係り文節がどの程度受け文節を限定するかという概念を係りの広さと言う.\end{itemize}\item構文的条件\begin{itemize}\item長い文節は短い文節より前に来やすい.長い文節とは修飾句の長い文節のことを言う.\item文脈指示語を含む文節は前に来やすい.\item承前反復語を含む文節は前に来やすい.承前反復語とは前文の語を承けて使われている語のことを言う.例えば,「あるところにおじいさんとおばあさんがおりました.おじいさんは山へ柴刈におばあさんは川へ洗濯に行きました.」という文では,2文目の「おじいさん」や「おばあさん」が承前反復語である.\item提題助詞「は」を伴う文節は前に来やすい.\end{itemize}\end{itemize}以上のような要素と語順の関係を整理する試みの一つとして,特に係りの広さに着目し,辞書の情報を用いて語順を推定するモデルが提案された\cite{Tokunaga91b}.しかし,動詞の格要素の語順に限定しており必須格しか扱えない,文脈情報が扱えないなどの問題点が指摘されている\cite{Saeki:98}.語順を推定するモデルとしては他にN-gramモデルを用いたもの\cite{Maruyama:94}があるが,これは一文内の形態素の並びを推定するモデルであり,我々とは問題設定が異なる.また,上に箇条書きとしてあげたような要素は特に考慮していない.英語については,語順を名詞の修飾語の順序関係に限定し統計的に推定するモデルが提案された\cite{Shaw:99}が,語順を決定する要因として多くの要素を同時に考慮することはできないため,日本語の語順に対して適用するのは難しい.本論文では,上に箇条書きとしてあげたような要素と語順の傾向との関係をコーパスから学習する手法を提案する.この手法では,語順の決定にはどの要素がどの程度寄与するかだけでなく,どのような要素の組み合わせのときにどのような傾向の語順になるかということもコーパスから自動学習することができる.個々の要素の寄与の度合は最大エントロピー(ME)モデルを用いて効率良く学習する.学習されたモデルの性能は,そのモデルを用いて語順を決めるテストを行ない,元の文における語順とどの程度一致するかを調べることによって定量的に評価することができる.正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスを既存の解析システムで解析した結果を用いてもよい.後節の実験で示すように,既存の解析システムの精度が90\%程度であったとしても学習コーパスとして十分に役割を果たすのである.
V07N04-01
label{sec:moti}アスペクト(aspect;相)とはある一つの事象(eventuality;イベント)についてのある時間的側面を述べたものである.しかしながら同時にアスペクトとは言語に依存してそのような統語的形態,すなわち進行形や完了形などと言った構文上の屈折・語形変化を指す.本稿で形式化を行うのは,このような固有の言語に依存したアスペクトの形態ではなく,言語に共通したアスペクトの意味である.アスペクトの概念はどうしても固有の言語の構文と結び付いて定義されているため,用語が極めて豊富かつ不定である.同じ完了と言っても英語のhave+過去分詞形と日本語のいわゆる「た」という助詞とはその機能・意味に大きな差異がある.したがって形式的にアスペクトの意味を述べるためにはまずこうした用語・概念の整理・統合を行った上で,改めて各概念の定義を論理的に述べる必要がある.このような研究では,近年では数多くのアスペクトの理論がイベント構造の概念によって構築されてきた.すなわち,すべての事象に共通な,アスペクトをともなう前の原始的・抽象的な仮想のイベント構造を考え,アスペクトとはこのイベント構造の異なる部位に視点(レファランス)を与えることによって生じるものとする説明\footnote{\cite{Moens88,Gunji92,Kamp93,Blackburn96,Terenziani93}他多数.個々の理論については第\ref{sec:akt}節で詳述する.}である.本稿のアスペクトの形式化も基本的にはこのイベント構造とレファランスの理論から出発する.しかしながらこのイベント構造とレファランスを古典的な論理手法によって形式化しようするとき,以下のような問題が伴う.まず,(1)時間の実体を導入する際に点と区間を独立に導入すると,アスペクトの定義においては,点と区間,点と点,区間と点の順序関係や重なり方に関して関係式が量産されることになる.次に,(2)アスペクトとは本来それだけで存在しうるものではなく,もともとある事象から派生して導き出されたものである.したがってアスペクトを定義する際にその条件を静的に列挙するだけでは不十分であり,もとにある事象の原始形態からの動的な変化として提示する必要がある.本稿では言語に共通なアスペクトのセマンティクスを形式化するために,アロー論理\cite{Benthem94}を導入する.第\ref{sec:arw}章で詳述するが,アロー論理とは命題の真偽を云々する際に通常のモデルに加えてアローと呼ばれる領域を与える論理である.アロー論理では,アロー自身に向きが内在しているために,(1)の問題でいうところの順序関係に関して記法を節約することができる.さらに動的論理(dynamiclogic)にアローを持ち込むことにより,動的論理の中の位置(サイト)と状態移動の概念を時間の点と区間の概念に対応づけることができる.このことは,アスペクトの仕様記述をする際に点と区間の関係が仕様記述言語(アローを含む動的論理)の側で既に定義されていることを意味し,さらに記述を簡潔にすることができる.本稿では,アスペクトの導出をこのような点と区間の間の制約条件に依存した視点移動として捉え,アスペクトの付加を制約論理プログラミングの規則の形式で記述する.したがって(2)の問題でいうところの動的な過程は,論理プログラミングの規則の実行過程として表現される.本稿は以下の構成をとる.まず第\ref{sec:akt}章では,言語学におけるアスペクトの分類と形式化を行い,先に述べた用語と概念の混乱を整理する.次にイベント構造とレファランスに関わる理論について成果をサーベイする.次に第\ref{sec:arw}章では,アロー論理を導入する.この章では,引き続いて,われわれの時間形式化に関する動機がアロー論理のことばでどのように述べられるかも検討する.すなわち,アローを向きをともなった区間とみなし,アスペクトの導出規則の仕様を定める.続く第\ref{sec:acc}章では,この仕様を完了や進行などさまざまなアスペクトに適用し,それらに関する導出規則を定義する.第\ref{sec:discus}章では,導出規則におけるアスペクトの付加についてその有用性と応用可能性を検討し,本研究の意義をまとめる.
V25N05-03
本稿では日本語名詞句の情報の状態を推定するために読み時間を用いることを目指して,情報の状態と読み時間の関連性について検討する.名詞句の情報の状態は,情報の新旧に関するだけでなく,定性・特定性など他言語の冠詞選択に与える性質や,有生性・有情性などの意味属性に深く関連する.他言語では冠詞によって情報の性質が明確化されるが,日本語においては情報の性質の形態としての表出が少ないために推定することが難しい.情報の状態は,書き手の立場のみで考える狭義の情報状態(informationstatus)と読み手の立場も考慮する共有性(commonness)の2つに分けられる.前者の情報状態は,先行文脈に出現するか(既出:discourse-old)否か(未出:discourse-new)に分けられる.後者の共有性は,読み手がその情報を既に知っていると書き手が仮定しているか(既知:hearer-old),読み手がその情報を文脈から推定可能であると書き手が仮定しているか(ブリッジング:bridging),読み手がその情報を知らないと書き手が仮定しているか(未知:hearer-new)に分けられる.以後,一般的な情報の新旧を表す場合に「情報の状態」と呼び,書き手の立場のみで考える狭義の情報の新旧を表す場合に「情報状態」(informationstatus)と呼ぶ.これらの情報の状態は,言語によって冠詞によって明示される定性(definiteness)や特定性(specificity)と深く関連する.また,\modified{情報の状態は},有生性(animacy),有情性(sentience),動作主性(agentivity)とも関連する.\modified{日本語のような冠詞がない言語においても,これらの「情報の状態」は名詞句の性質として内在しており,ヒトの文処理や機械による文生成に影響を与える.}機械翻訳を含む言語処理における冠詞選択手法は,これらの名詞句にまつわる様々な特性を区別せずに機械処理を行っているきらいがある.例えば,\cite{乙武-2016}は,本来,定・不定により決定される英語の冠詞推定に情報の新旧の推定をもって解決することを主張している.彼らの主張では,談話上の情報の新旧をもって定・不定が推定できると結論付けている.また,自動要約や情報抽出においても,既出・未出といった情報状態の観点,つまり書き手側の認知状態が主に用いられ,既知・想定可能・未知といった共有性の観点\modified{,つまり読み手側の認知状態}が用いられることは少ない.\modified{これらを適切に区別して,識別することが重要である.特に,読み手の側の情報状態は,自動要約や情報抽出の利用者の側の観点である.さらにその推定には読み手の側の何らかの手がかりをモデルに考慮することが必要になると考える.}言語処理的な解決手法として,大規模テキストから世界知識を獲得して情報状態を推定する方法が考えられる一方,読み手の反応を手がかりとして共有性を直接推定する方法\modified{が}考えられる.\modified{読み手の反応に基づいて,読み手側の解釈に基づく日本語の情報状態の分析は殆どない.}そこで,本稿では,対象とする読み手に対する情報の状態が設定されているであろう新聞記事に対する読み時間データが,名詞句の情報の状態とどのような関係があるのかを検討する.もし読み時間が名詞句の情報の状態と何らかの関係があるのであれば,視線走査装置などで計測される眼球運動などから,情報の状態を推定することも可能であると考える.\modified{特に共有性は読み手の側の情報状態であるにかかわらず,既存の日本語の言語処理では読み手の側の特徴量を用いず推定する手法が大勢であった.}\modified{なお,本研究の主目的は冠詞選択にはなく,日本語の名詞句の情報状態を推定することにある.その傍論として既存の冠詞選択手法が定・不定などの名詞句の特性と本稿で扱う書き手・読み手で異なる情報状態とで差異があり,言語処理の分野において不適切に扱われてきた点について言及する.}\modified{以下,2節では関連研究を紹介する.3節に情報状態の概要について示す.4節に読み時間の収集方法について示す.5節では今回利用する読み時間データおよび情報の状態アノテーションデータと分析手法について示す.6節で実験結果と考察について示す.7節で結論と今後の方向性について示す.}
V07N03-05
情報検索における検索語リストや文書に付与されたキーワードリストなど,複数の内容語(熟語も含む)から成るリストのことを本論文では「タームリスト」と呼ぶ.タームリストを別の言語に翻訳する「タームリストの自動翻訳処理」は,単言語用の文書検索と組み合わせてクロスリンガル検索\cite{Oard96}を実現したり,他国語文書のキーワードを利用者の望む言語で翻訳表示する処理\cite{Suzuki97j}に応用できるなど,様々なクロスリンガル処理において重要な要素技術である.本論文ではタームリストの自動翻訳処理のうち,各タームに対して辞書等から与えられた訳語候補の中から最も妥当なものを選択する「翻訳多義解消」に焦点を当てる.内容語に関する翻訳多義解消の研究は従来から文(テキスト)翻訳の分野で行われて来た.80年代には統語的依存構造に着目した意味多義解消規則を用いる方式が研究され,実用システムにも組み込まれた(\cite{Nagao85}など).この方式は翻訳対象語に対して特定の統語関係(例えば,目的語と動詞の関係)にある別の語を手がかりにした訳語選択規則を人手で作成し,これを入力に適用することによって多義解消を行う方式である.従って,この方法は複数語間に統語的関係が存在しないタームリストには適用できない.一方,90年代に入って言語コーパスから統計的に学習した結果に基づいて多義解消を行う研究が活発化している.これらのうち,統語的解析を(明示的には)行わず,翻訳対象語と同一文内,あるいは,近傍で共起する他の単語を手がかりに多義解消を行う手法はタームリストの翻訳にも適用可能であり,すでにいくつかの研究も行われている.これらは利用するコーパスによって大きく2つに分類できる.1つめはパラレルコーパスと呼ばれる対訳関係にあるコーパスを用いるもので,T.Brownらによる文翻訳のための訳語選択手法\cite{Brown91},R.Brownらのタームリスト翻訳手法\cite{Brown97}がある.これらの方法は訳語候補自体もコーパスから抽出するので対訳辞書を別に用意する必要がないという利点があるが,対象分野に関する相当量のパラレルコーパスを学習データとして準備しなければならないという問題がある.2つめは目的言語の単言語コーパスのみを用いるもので,Daganら\cite{Dagan94}\footnote{\cite{Dagan94}の基本的な手法は構文解析された学習コーパス,入力データを前提とするものであるが,考察の章で学習データの不足に対処するために統語的依存関係を無視して単なる共起によって処理する方法が指摘されている.},田中ら\cite{Tanaka96}による文翻訳の多義解消手法,同様の手法をタームリスト翻訳に適用したJangら\cite{Jang99}による研究がある.これらは入力の各単語(内容語)に対する訳語候補の組み合わせのうち目的言語のコーパス中における共起頻度あるいは相互情報量が最大のものを選択するという方法である.たとえば,入力が``suits''と``wear''を含み,前者の訳語候補が``裁判''と``スーツ'',後者の候補が``着用''であったとき,日本語コーパスにおいて``スーツ''と``着用''の共起頻度が``裁判''と``着用''のそれよりも高い場合,``suits''の訳語を``スーツ''に決定するというものである.この方法はパラレルコーパスに比べて大量に入手可能な単言語コーパスを学習データとして用いるという,統計的処理にとって重要な利点を持っている.本論文で提案する手法は,目的言語の単言語コーパスのみを利用する点では上記2つめの手法に分類されるが,訳語候補の組み合わせの妥当性を計算する方法が異なる.本手法では,訳語候補同士の直接的な共起頻度を用いるのではなく,各訳語候補に対して,まず,目的言語コーパスにおける共起パターンをベクトル化した一種の意味表現を求め,この意味表現同士の「近さ」によって計算する.この「意味表現同士の近さ」を以下では\kanrenと呼ぶ.2単語の\kanrenはこれらの単語と共起する単語の頻度分布を元に計算されるため,2単語のみの共起頻度を用いるより精度の高い結果を得ることが期待できる.以下,まず2章で問題設定を行う.次に3章で多義解消モデルとその中心となる複数単語の意味的\kanrenについて定義し,4章では枝刈りによる処理の高速化について説明する.5章では評価実験とその結果について述べ,6章で誤りの原因と先行研究との関連について考察する.
V21N03-07
ゼロ照応解析は近年,述語項構造解析の一部として盛んに研究されている.ゼロ照応とは用言の項が省略される現象であり,省略された項(ゼロ代名詞)が他の表現を照応していると解釈できることからゼロ照応と呼ばれている.\ex.パスタが好きで、毎日($\phi$ガ)($\phi$ヲ)\underline{食べています}。\label{例:ゼロ照応}例えば,例\ref{例:ゼロ照応}の「食べています」では,ガ格とヲ格の項が省略されている.ここで,省略されたヲ格の項は前方で言及されている「パスタ」を照応しており,省略されたガ格の項は文章中では明確に言及されていないこの文章の著者を照応している\footnote{以降の例では,ゼロ代名詞の照応先を埋めた形で「パスタが好きで、毎日([著者]ガ)(パスタヲ)食べています。」のように記述する場合がある.ここで「[著者]」は文章内で言及されていない文章の著者を示す.}.日本語では曖昧性がない場合には積極的に省略が行われる傾向にあるため,ゼロ照応が文章中で頻繁に発生する.例\ref{例:ゼロ照応}の「パスタ」の省略のようにゼロ代名詞の照応先\footnote{先行詞と呼ばれることもあるが,本論文では照応先と呼ぶ.}が文章中で言及されているゼロ照応は{\bf文章内ゼロ照応}と呼ばれ,従来はこの文章内ゼロ照応が主な研究対象とされてきた.一方,例\ref{例:ゼロ照応}の著者の省略のようにゼロ代名詞の照応先が文章中で言及されていないゼロ照応は{\bf外界ゼロ照応}と呼ばれる.外界ゼロ照応で照応されるのは例\ref{例:ゼロ照応}のような文章の著者や読者,例\ref{外界:不特定人}のような不特定の人や物などがある\footnote{一般に外界照応と呼ばれる現象には,現場文脈指示と呼ばれる発話現場の物体を指示するものも含まれる.本研究では,このようなテキストの情報のみから照応先を推測できない外界照応は扱わない.また,実験対象としたコーパスにも,画像や表を照応している文書などはテキストのみから内容が推測できないとして含まれていない.}.\ex.内湯も窓一面がガラス張りで眺望がよく、快適な湯浴みを([不特定:人]ガ)\underline{楽しめる}。\label{外界:不特定人}従来,日本語ゼロ照応解析の研究は,ゼロ照応関係を付与した新聞記事コーパス\cite{KTC,iida-EtAl:2007:LAW}を主な対象として行われてきた.新聞記事は著者から読者に事件の内容などを伝えることが目的であり,社説や投書の除いては著者や読者が談話構造中に登場することはほとんどない.一方,近年ではWebを通じた情報伝達が盛んに行われており,Webテキストの言語処理が重要となってきている.Webテキストでは,著者自身のことを述べたり,読者に対して何らかの働きかけをすることも多く,著者・読者が談話構造中に登場することが多い.例えば,Blogや企業の宣伝ページでは著者自身の出来事や企業自身の活動内容を述べることが多く,通販ページなどでは読者に対して商品を買ってくれるような働きかけをする.このため,著者・読者に関するゼロ照応も必然的に多くなり,その中には外界ゼロ照応も多く含まれる.\cite{hangyo-kawahara-kurohashi:2012:PACLIC}のWebコーパスではゼロ照応関係の54\%が外界ゼロ照応である.このため,Webテキストに対するゼロ照応解析では,特に外界ゼロ照応を扱うことが重要となる.本研究では,ゼロ照応を扱うためにゼロ代名詞の照応先候補として[著者]や[読者]などの文章中に出現しない談話要素を設定することで,外界ゼロ照応を明示的に扱う.用言のある格が直接係り受け関係にある項を持たない場合,その格の項は表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}の3種類に分類される.1つ目は「(a)文章内ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先は文章中の表現である.2つ目は「(b)外界ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先に対応する表現が文章中にないものである.3つ目は「(c)ゼロ照応なし」であり,項はゼロ代名詞をとらない,すなわちその用言が本質的にその項を必要としない場合である.外界ゼロ照応を扱うことにより,照応先が文章内にない場合でも,用言のある格がゼロ代名詞を項に持つという現象を扱うことができる.これにより,格フレームなどの用言が項を取る格の知識とゼロ代名詞の出現が一致するようになり,機械学習によるゼロ代名詞検出の精度向上を期待することができる.\begin{table}[b]\caption{文章内ゼロ照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\label{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\input{1011table01.txt}\end{table}用言が項としてゼロ代名詞を持つ場合,そのゼロ代名詞の照応先の同定を行う.従来研究ではその手掛かりとして,用言の選択選好\cite{sasano-kawahara-kurohashi:2008:PAPERS,sasano-kurohashi:2011:IJCNLP-2011,imamura-saito-izumi:2009:Short,hayashibe-komachi-matsumoto:2011:IJCNLP-2011}や文脈的な情報\cite{iida-inui-matsumoto:2006:COLACL,iida-inui-matsumoto:2009:ACLIJCNLP}が広く用いられてきた.本研究では,それらに加えて文章の著者・読者の情報を照応先同定の手掛かりとして用いる.先に述べたように,従来研究で対象とされてきた新聞記事コーパスでは,著者や読者は談話中にほとんど出現しない.そのため著者や読者の情報が文脈的な手掛かりとして用いられることはなかった.しかし,著者や読者は省略されやすいためゼロ代名詞の照応先になりやすい,敬語やモダリティなど著者や読者の省略を推定するための手掛かりが豊富に存在する,などの特徴を持つため,談話中の著者や読者を明示的に扱うことは照応先同定で重要である.また,著者や読者は前述のような外界ゼロ照応の照応先だけでなく,文章内に言及されることも多い.\ex.\underline{私}$_{著者}$はもともとアウトドア派ではなかったので,東京にいた頃もキャンプに行ったことはありませんでした。\label{著者表現1}\ex.\underline{あなた}$_{読者}$は今ある情報か資料を送って,アドバイザーからの質問に答えるだけ。\label{読者表現1}例\ref{著者表現1}では,文章中に言及されている「私」がこの文章の著者であり,例\ref{読者表現1}では「あなた」が読者である.本研究ではこのような文章中で言及される著者や読者を{\bf著者表現},{\bf読者表現}と呼び,これらを明示的に扱うことでゼロ照応解析精度を向上させる.著者や読者は人称代名詞だけでなく固有表現や役職など様々な表現で言及される.例えば,下記の例\ref{梅辻}では著者自身の名前である「梅辻」によって著者が言及されており,例\ref{管理人}では著者の立場を表す「管理人」によって言及されている.また,例\ref{お客様}では著者から見た読者の立場である「お客様」という表現によって読者が言及されている.本研究では人称代名詞に限らず,著者・読者を指す表現を著者・読者表現として扱うこととする.\ex.こんにちは、企画チームの\underline{梅辻}$_{著者}$です。\label{梅辻}\ex.このブログは、\underline{管理人}$_{著者}$の気分によって書く内容は変わります。\label{管理人}\ex.いくつかの質問をお答えいただくだけで、\underline{お客様}$_{読者}$のご要望に近いノートパソコンをお選びいただけます。\label{お客様}著者・読者表現は様々な表現で言及されるため,表層的な表記のみから,どの表現が著者・読者表現であるかを判断することは困難である.そこで,本研究では談話要素とその周辺文脈の語彙統語パターンを素性としたランキング学習\cite{herbrich1998learning,joachims2002optimizing}により,文章中の著者・読者表現の同定を行う.文章中に出現する著者・読者表現が照応先となることを推定する際には通常の文章中の表現に利用する手掛かりと著者・読者特有の手掛かりの両方が利用できる.\ex.僕は京都に(僕ガ)\underline{行こう}と思っています。\\皆さんはどこに行きたいか(皆さんガ)(僕ニ)\underline{教えてください}。\label{著者表現2}\ref{著者表現2}の1文目では「僕」が文頭で助詞「は」を伴ない,「行こう」を越えて「思っています」に係っていることから「行こう」のガ格の項であると推測される.これは文章中の表現のみが持つゼロ照応解析での手掛かりと言える.一方,2文目の「教えてください」では,依頼表現であることからガ格の項が読者表現である「皆さん」であり,ニ格の項が著者表現である「僕」であると推測できる.このような依頼や敬語,モダリティに関する手掛かりは著者・読者特有の手掛かりと言える.また,著者・読者特有の手掛かりは外界ゼロ照応における著者・読者においても同様に利用できる.そこで,本研究では,ゼロ照応解析において著者・読者表現は文章内ゼロ照応および外界ゼロ照応両方の特徴を持つものとして扱う.本論文では,文章中の著者・読者表現および外界ゼロ照応を統合的に扱うゼロ照応解析モデルを提案し,自動推定した著者・読者表現を利用することでゼロ照応解析の精度が向上することを示す.\ref{114736_18Jun13}節で関連研究について説明し,\ref{114801_18Jun13}節で本研究で利用する機械学習手法であるランキング学習について説明する.\ref{114838_18Jun13}節ではベースラインとなるモデルについて説明し,\ref{130555_9May13}節で実験で利用するコーパスについて述べる.その後,\ref{135602_6May13}節で著者・読者表現の自動推定について説明し,\ref{115042_18Jun13}節で著者・読者表現と外界照応を考慮したゼロ照応解析モデルを提案する.\ref{115121_18Jun13}節で実験結果を示し,\ref{115208_18Jun13}節でまとめと今後の課題とする.
V06N06-04
\label{section:intro}日本のテレビ番組における字幕付き放送の割合は10\%程度と低く,近年,字幕放送率向上を目指し,自然言語処理技術を応用した効率的な字幕生成が切望されている\cite{EharaAndSawamuraAndWakaoAndAbeAndShirai1997}.番組の音声情報を字幕化するには,文章を適度な長さに要約する必要があるため,本研究では,ニュース原稿(テキスト)を入力とした,字幕生成のための自動要約を試みた.本要約手法では,ニュース文の特徴を利用し,1文ごとの要約を行っている.テキスト自動要約研究の多くは,テキスト中の文もしくは文のまとまりを1単位とし,何らかの情報に基づき重要度を決定,抽出することで要約を行う.このような要約手法は,文献検索において原文の大意を把握するための補助などに用いられ,成果を上げている\cite{SumitaAndChinoAndOnoAndMiike1995}.ニュース番組における字幕生成では,ニュース原稿の第1文(全体の概要を述べる場合が多い)を抽出することによる要約が考えられるが,画面に表示されるVTRなどとの対応を考慮に入れると,必ずしも十分でない.文単位の抽出においては,照応や文の結束性を保つため,採用文の前文も採用するなどの対策が講じられているが\cite{ChrisD.Paice1990},不要な文まで芋蔓式に採用してしまう場合もあり,結束性と首尾一貫性をより高めるには後編集を行う必要があるなど,その困難さも同時に報告されている\cite{YamamotoAndMasuyamaAndNaito1995}.また,与えられたテキストから必要な情報を抜き出す手法として,情報抽出研究が注目されている\cite{JimCowieAndWendyLehnert1996}.この手法は,領域が限定された記事に対しては有効である.しかし,与えられたニュース原稿には「事件」,「政治」といった領域を限定する情報が与えられておらず,字幕文生成への情報抽出手法の適用は難しいと考えられる.ニュース文は新聞記事に比べ,1文中の文字数が多く,1記事あたりの文数が少ないという特徴を持つ\cite{WakaoAndEharaAndMurakiAndShirai1997}.このため,字幕用の要約文を生成するために,文を単位とした抽出を行うと,採用される情報に大きな偏りが生ずるという問題がある.若尾ら\cite{WakaoAndEharaAndShirai1998_7}は,自動短文分割後,重要文を抽出することによるニュース文の自動要約を行っている.これに対し,本手法は,ニュース原稿における各文はそれぞれ同様に重要であり,画面との対応や記事全体での結束性を重視するという立場から,ニュース文の構文構造を利用し,文中の修飾語句等を削除することによる,1文ごとの要約を行っている.1文の一部を抜き出すことで,より自然な文章を生成するには,残存部に係る部分の削除を避けなければならない.本手法では,ニュース文の各文における最後尾の動詞は重要であると仮定し,これに係ると考えられる部分を残すことにより,不自然な要約文の生成を防いでいる.また,本研究は,言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}を後処理に適用し,最終的な字幕文を生成することを想定しているが,本論文では両手法を併用せず,本要約手法の分析に焦点を絞った.本要約手法についての背景,目的等は,\ref{section:news}節でも詳述する.自動要約研究においては,正しい要約を唯一に定義することが困難なことから,その評価についても様々な手法が用いられる.その一つに,人間の被験者の生成した要約文と,システムが生成した要約文を比較する評価法があるが,複数の被験者の要約が高い割合で一致することは難しいと考え\cite{OkumuraAndNanba1998},システムによる要約文を被験者に数値で評価させる手法をとった.同様の手法による評価を山本ら\cite{YamamotoAndMasuyamaAndNaito1995}が行っているが,数値のみで評価した場合,被験者が不適切と判断した箇所を特定するのが難しいという問題がある.山本らは被験者に対し,質問項目以外に感想を求めており,それを分析することで要約の不適切さの原因やその改善を検討している.本論文においては,要約が不適切な箇所をより特定し,分析を行うことを考え,実施したアンケートでは数値による評価に加え,要約が不適切と思われる箇所を被験者に指摘させた.自動要約の評価法に関しては,他に,要約を利用したタスクの達成率を見ることにより,間接的に要約文の評価を行うものがある.住田ら\cite{SumitaAndChinoAndOnoAndMiike1995}は,抄録文の文書集合から,設問に対応する文書を選択するというタスクを被験者に与え,選択された文書数と正解の文書数から再現率を求めている.しかし,本論文では字幕文生成の要約のため,適切なサブタスクを設定することが難しく,また,被験者の持つ知識の差を考慮した場合,その評価が難しいと予想されるため,用いなかった.以下,\ref{section:news}節でニュース文要約の目的,手法およびニュース原稿の特徴等について述べ,\ref{section:shuhokousei}節から\ref{section:sakujobunsetusentaku}節で,提案する1文ごとの自動要約手法について述べる.\ref{section:evaluation}節では,アンケート調査に基づき,本手法を評価する.\ref{section:observation}節では,自動要約実験およびアンケート調査によって明らかになった,本要約手法の問題点等を考察する.なお,入力コーパスとして,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.
V04N03-05
最近の文書作成はほとんどの場合,日本語ワードプロセッサ(ワープロ)を用いて行われている.これに伴い,ワープロ文書中に含まれる誤りを自動的に検出するシステムの研究が行われている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,Kuga1986,IkeharaAndYasudaAndShimazakiAndTakagi1987,SuzukiAndTakeda1989,OharaAndTakagiAndHayashiAndTakeishi1991,IkeharaAndOharaAndTakagi1993}.ワープロの入力方法としては一般にかな漢字変換が用いられている.このため,ワープロによって作成された文書中には変換ミスに起因する同音異義語誤りが生じやすい.同音異義語誤りは,所望の単語と同じ読みを持つ別表記の単語へと誤って変換してしまう誤りである.従って,同音異義語誤りを自動的に検出する手法を確立することは,文書の誤り検出/訂正作業を支援するシステムにおいて重要な課題の1つとなっている.同音異義語誤りを避けたり,同音異義語誤りを検出するために種々の方法が提案されている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,MakinoAndKizawa1981,Nakano1982,OshimaAndAbeAndYuuraAndTakeichi1986,SuzukiAndTakeda1989,TanakaAndMizutaniAndYoshida1984a,TanakaAndYoshida1987}.われわれは,日本文推敲支援システムREVISE~\cite{OharaAndTakagiAndHayashiAndTakeishi1991}において,意味的制約に基づく複合語同音異義語誤りの検出/訂正支援手法を採用している~\cite{Oku1994,Oku1996}.この手法の基本的な考え方は,「複合語を構成する単語はその隣に来うる単語(隣接単語)を意味的に制約する」というものである(3章参照).しかしながら,この手法においても以下のような問題点があった;\begin{description}\item{(1)}同音異義語ごとに前方/後方隣接単語に対する意味的制約を,誤り検出知識及び訂正支援のための知識として収集しなければならない.しかし,このような意味的制約を人手を介さずに自動的に収集することは困難である.\item{(2)}検出すべき同音異義語誤りを変更すると,意味的制約を記述した辞書を新たに構築する必要が生じる.\end{description}これらの問題点を解決するためには,誤り検出知識として収集が容易な情報を使用する必要がある.この条件に合致する情報の1つとして文書中の文字連鎖がある.文字連鎖の情報は既存の文書から容易に収集することができる.3文字連鎖を用いてかな漢字変換の誤りを減らす手法については~\cite{TochinaiAndItoAndSuzuki1986}が報告されているが,この手法は漢字をすべて1つのキャラクタとして扱っているため,複合語に含まれる同音異義語誤りを検出することができない.また,文字の2重マルコフ連鎖確率を用いて日本文の誤りを検出し,その訂正を支援する手法が提案されている~\cite{ArakiAndIkeharaAndTsukahara1993}.この手法は,「漢字仮名混じり文節中に誤字または誤挿入の文字列が存在するときは,m重マルコフ連鎖確率が一定区間だけ連続してあるしきい値以下の値を取る」という仮説に基づいて誤字,脱字及び誤挿入文字列の誤り種別及び位置を検出するものである.同音異義語誤りは単語単位の誤字と捉えることができるが,この手法が同音異義語誤りに対して有効であるか否かについては報告されていない.一方,日本文推敲支援システムREVISEは,ルールに基づく形態素解析を基本にしたシステムであり,その中に誤り検出知識として収集が容易な統計的な情報を導入した誤り検出手法を確立することも重要な課題である.そこで,本論文では,収集が容易な統計的な誤り検出知識として文字連鎖に焦点をあて,文字連鎖を用いた複合語同音異義語誤りの検出手法について述べる.さらに,その有効性を検証するために行った評価実験の結果についても述べる.以下,2章において本論文で用いる用語の定義を行い,3章において日本文推敲支援システムREVISEにおける誤り検出の流れと,意味的制約に基づく複合語同音異義語誤りの検出手法の概要及びその問題点について述べる.4章では,3章で述べる問題点を解決するために,文字連鎖を用いて複合語に含まれる同音異義語誤りを検出する手法を提案する.5章では,本手法の有効性を評価するために行った同音異義語誤り検定の評価実験について述べ,意味的制約を用いた同音異義語誤り検出/訂正支援手法との比較を含めた考察を加える.
V04N01-07
\label{sec:introduction}適格なテキストでは,通常,テキストを構成する要素の間に適切な頻度で照応が認められる.この照応を捉えることによって,テキスト構成要素の解釈の良さへの裏付けや,解釈の曖昧性を解消するための手がかりが得られることが多い.例えば,次のテキスト\ref{TEXT:shiji}の読み手は,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」で触れた事象に,「知事選での奥田氏支持」が再び言及していると解釈するだろう.\begin{TEXT}\text\underline{新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する}方針をようやく固めた.\underline{知事選での奥田氏支持}に強く反対する有力議員も多く,決定が今日までずれ込んでいた.\label{TEXT:shiji}\end{TEXT}この照応解釈は,「奈良県知事選で」が「支持する」と「固めた」のどちらに従属するかが決定されていない場合には,この曖昧性を解消するための手がかりとなり,何らかの選好に基づいて「支持する」に従属する解釈の方が既に優先されている場合には,この解釈の良さを裏付ける.このようなことから,これまでに,前方照応を捉えるための制約(拘束的条件)と選好(優先的条件)がText-WideGrammar~\cite{Jelinek95}などで提案されている.Text-WideGrammarによれば,テキスト\ref{TEXT:shiji}でこの照応解釈が成立するのは,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」を$X$,「知事選での奥田氏支持」を$Y$としたとき,これらが次の三つの制約を満たすからである.\smallskip\begin{LIST}\item[\bf構文制約]$Y$は,ある構文構造上で$X$の後方に位置する\footnote{$X$と$Y$が言語心理学的なある一定の距離以上離れていると,$Y$は$X$を指せないことがあると考えられるが,距離に関する制約は構文制約に含まれていない.}.\item[\bf縮約制約]$Y$は,$X$を縮約した言語形式である.\item[\bf意味制約]$Y$の意味は,$X$の意味に包含される.\end{LIST}\smallskipあるテキスト構成要素$X$で触れた事象に他の要素$Y$が再言及しているかどうかを決定するためには,$X$と$Y$がこれらの制約を満たすかどうかを判定するための知識と機構を計算機上に実装すればよい.実際,構文制約と縮約制約については,実装できるように既に定式化されている.これに対して,意味制約が満たされるかどうかを具体的にどのようにして判定するかは,今後の課題として残されている.意味制約が満たされるかどうかを厳密に判定することは,容易ではない.厳密な判定を下すためには,$X$と$Y$の両方またはいずれか一方が文や句である場合,その構文構造とそれを構成する辞書見出し語の意味に基づいて全体の意味を合成する必要がある.テキストの対象分野を限定しない機械翻訳などにおいて,このような意味合成を実現するためには,膨大な量の知識や複雑な機構を構築することが必要となるが,近い将来の実現は期待しがたい.本稿では,近い将来の実用を目指して,構築が困難な知識や機構を必要とする意味合成による意味制約充足性の判定を,表層的な情報を用いた簡単な構造照合による判定で近似する方法を提案する.基本的な考え方は,構文制約と縮約制約を満たす$X$と$Y$について,それぞれの構\\文構造を支配従属構造で表し,それらの構造照合を行ない,照合がとれた場合,$X$の意味が$Y$の意味を包含するとみなすというものである.もちろん,単純な構造照合で意味合成が完全に代用できるわけではないが,本研究では,日英機械翻訳への応用を前提として,簡単な処理によって前方照応がどの程度正しく捉えられるかを検証することを目的とする.以降,本稿の対象を,サ変動詞が主要部である文(以降,サ変動詞文と呼ぶ)を$X$とし,そのサ変動詞の語幹が主要部であり$X$の後方に位置する名詞句(サ変名詞句)を$Y$とした場合\footnote{このようなサ変動詞文とサ変名詞句の組は,我々の調査によれば,新聞一カ月分の約8000記事のうち,その23\%において見られた.}に限定する.これまでに,性質の異なる曖昧性がある二つの構文構造を照合することによって互いの曖昧性を打ち消す方法に関する研究が行なわれ,その有効性が報告されている\cite{Inagaki88,Utsuro92,Kinoshita93,Nasukawa95b}.本稿の対象であるサ変動詞文とサ変名詞句にも互いに性質の異なる曖昧性があるので,構造照合を行ない,類似性が高い支配従属構造を優先することによって,サ変動詞文とサ変名詞句の両方または一方の曖昧性が解消される.例えば,サ変名詞句「奥田氏支持」から得られる情報だけでは「奥田氏」と「支持」の支配従属関係を一意に決定することは難しいが,テキスト\ref{TEXT:shiji}では,サ変動詞文「奥田氏を支持する」との構造照合によって,サ変名詞句を構成する要素間の支配従属関係が定まる.このように,サ変名詞句の曖昧性解消に,サ変名詞句の外部から得られる情報を参照することは有用である.一方,複合名詞の内部から得られる情報に基づく複合名詞の解析法も提案されている\cite{Kobayashi96}.複合名詞の主要部がサ変名詞である場合,これら二つの方法を併用することによって,より高い解析精度の達成が期待できる.\ref{sec:depredrules}節では,サ変動詞文とサ変名詞句の支配従属構造を照合するための規則を記述する.\ref{sec:matching}節では,構造照合規則に従って照応が成立するかどうかを判定する手順について述べ,処理例を挙げる.\ref{sec:experiment}節では,新聞記事から抽出したサ変動詞文とサ変名詞句の組を対象として行なった実験結果を示し,照応が正しく捉えられなかった例についてその原因を分析する.
V24N04-01
近年,対話の内容を特定のタスクに限定しない自由対話システムの研究が盛んに行われている\cite{Libin:04:a,Higashinaka:14:a}.対話システムの重要な要素技術の1つにユーザの発話の対話行為の自動推定がある.対話行為の推定は自由対話システムにおいて重要な役割を果たす.例えば,対話行為が「質問」の発話に対しては知識ベースから質問の回答を探して答えたり,映画の感想を述べているような「詳述」の発話に対しては意見を述べたり単にあいづちを返すなど,対話システムは相手の発話の対話行為に応じて適切な応答を返す必要がある.対話行為の推定手法として機械学習を用いた手法が既に提案されている\cite{milajevs:14:a,isomura:09:a,sekino:10:a,kim:10:a,Meguro:13:a}.しかし,機械学習に用いる特徴\footnote{本稿では,機械学習による識別のために用いる情報の種類(タイプ)のことを「特徴」,その具体的な情報のことを「特徴量」と呼ぶ.例えば,「単語3-gram」は特徴,「思い+ます+か」はその特徴量である.}を設定する際,個々の対話行為の特質が十分に考慮されていないという問題点がある.既存研究の多くは,対話行為の自動推定を多値分類問題と捉え,対話行為の分類に有効と思われる特徴のセットを1つ設定する.しかし,機械学習の特徴の中には,ある特定の対話行為の分類にしか有効に働かないものもある.例えば,ユーザの発話の対話行為が(質問に対する)「応答」であるかを判定するためには,発話者が交替したかという特徴は重要だが,対話行為が「質問」であるかを判定するためには,相手の発話の後に質問することもあれば自身の発話に続けて質問することもあるので,話者交替は重要な特徴とは考え難い.本論文では,上記の問題に対し,対話行為毎に適切な特徴のセットを設定することで個々の対話行為の推定精度を改善し,それによって全体の対話行為推定の正解率を向上させる手法を提案する.
V02N04-03
形態素解析処理は自然言語処理の基本技術の一つであり,日本語の形態素解析システムも数多く報告されている\cite{yosimura83}\cite{hisamitu90}\cite{nakamura}\cite{miyazaki}\cite{kitani}\cite{hisamitu94a}\cite{maruyama94}\cite{juman}\cite{nagata}.しかし,使用している形態素文法について詳しく説明している文献は少ない.文献\cite{miyazaki}では三浦文法\cite{miura}に基づいた日本語形態素処理用文法を提案しているが,品詞の体系化と品詞間の接続ルールの記述形式の提案のみに留まり,具体的な文法記述や実際の解析システムへの適用にまでは至っていない.公開されている形態素解析システムJUMAN\cite{juman}では,形態素文法は文献\cite{masuoka}に基づくものであった.その他の文献は解析のアルゴリズムや,固有名詞や未知語の特定機能に関する報告で,使用された形態素文法については述べられていない.言語学の分野で提案されている文法を形態素解析に適用する場合の問題点は,品詞分類が細か過ぎる点と,ほとんどの場合,動詞の語尾の変化について全ての体系が与えられていない点である.言語学の分野では文の過剰な受理を避けるように文法を構築することによって,日本語の詳細な文法体系を解明しようとするので,品詞分類が細かくなるのは当然である.しかし,そのために,文法規則も非常に細かくなり,形態素の統一的な扱いも難しくなる.そこで,本文法では,「形態素解析上差し支えない」ことを品詞の選定基準とする.つまり,ある品詞を設定しないが為に,ある文節に関して構文上の性質に曖昧性が生じる場合に,その品詞を設定する.そして,過剰な受理を許容することと引き替えに,できる限り形態素を統一的に扱う.従来の多くの文法では活用という考え方で動詞の語尾変化を説明するが,それらの活用形についての規則は,個々の接尾辞について接尾可能な活用形を列挙するという形になっている.例えばいわゆる学校文法では,「書か」はカ行五段活用動詞「書く」の未然形であり,否定の接尾辞の「ない」や使役の接尾辞の「せる」が接尾する等の規則が与えられる.さらに一段活用動詞には「せる」ではなく「させる」が接尾する等の規則があり,規則が複雑になっている.そのため,それらの複雑な規則を吸収するために活用形を拡張し,「書こう」を意志形としたり,「書いた」を完了形とするような工夫がなされる.しかし,このように場当たり的に活用形を拡張すると活用形の種類が非常に多くなり,整合性を保つための労力が大きくなる.日本語形態素処理における動詞の活用の処理については文献\cite{hisamitu94b,hisamitu94c}に詳しい.そこでは,音韻論的手法\cite{bloch,teramura},活用形展開方式,活用語尾分離方式が紹介され,新たに活用語尾展開方式\footnote{文献\cite{hisamitu94b,hisamitu94c}では,提案方式と呼ばれている.}が提案されている.音韻論的手法は,子音動詞の語幹と屈折接辞を音韻単位に分解し,屈折接辞の音韻変化の規則を用いて,活用を単なる動詞語幹と屈折接辞の接続として捕らえる.しかし,これまでの音韻論的手法では,子音動詞についての知見しか得られていなかったために,子音動詞に接尾する接尾辞と母音動詞に接尾する接尾辞を別々に扱わなければならなかった.また,音韻単位で処理する必要があると考えられているため,文献\cite{hisamitu94b,hisamitu94c}でも,処理の効率が落ちるとされている.一方,活用形展開方式,活用語尾分離方式,活用語尾展開方式は何れも伝統的な学校文法に基づいている.活用形展開方式は,各動詞についてその活用形を全て展開して辞書に登録し,それぞれ接尾辞との接続規則を与えるもので,処理速度の点で有利であるが,登録語数が非常に多くなる上に,接続規則の与え方によっては効率の点でも不利になる可能性がある.活用語尾分離方式は,活用語尾を別の形態素とし,動詞語幹と活用語尾の接続規則および活用語尾と接尾辞の接続規則を与えるもので,動詞の屈折形の解析の際に分割数が多くなり,効率の点で不利である.また,接続規則が非常に複雑になる.活用語尾展開方式は,活用語尾と接尾辞の組み合わせを形態素とし,これらと動詞語幹との接続規則だけを与えるもので,活用語尾分離方式よりも分割数が少なくなり,効率的に有利であるとされている.しかし,活用形展開方式,活用語尾分離方式,活用語尾展開方式の共通の問題点は,活用語尾と接尾辞の接続規則が体系的でない点である.特に活用語尾展開方式では,新しい接尾辞を追加する度に10以上ある動詞の活用の型それぞれに対する形態素の展開形を追加しなければならない.また,「られ」「させ」といったいわゆる派生的な接尾辞に対してはさらに多くの展開形を別々の形態素として登録する必要があるはずである\footnote{この点については文献中には触れられていない.}.そこで本文法では,動詞の語尾変化について体系的に扱うことに成功している派生文法\cite{kiyose}を基にした\footnote{派生文法を基にしたシステムとしては,文献\cite{nisino}で,何らかの方法で分解した動詞の語尾の構造を派生文法に基づいて解析するシステムについて報告されているが,形態素解析システムへの適用は報告されていない.}.派生文法も音韻論的アプローチの文法であるが,従来のものに対して,連続母音と連続子音の縮退,および内的連声\footnote{上記の屈折接辞の音韻変化と同じもの}という考え方を用いて,母音動詞も子音動詞も同様に扱うことができる.しかし,派生文法は音韻論的手法であるため,形態素解析に適用するには,処理を音韻単位で行う必要があるという問題がある.日本語のテキストを処理するような形態素解析システムでは,文字を子音と母音に分けずに日本語の文字でそのまま処理できた方が都合がよい.本研究では,派生文法における動詞語尾の扱いを日本語の文字単位で処理できるように変更する方法を見い出すことができた.すると図らずも従来の活用という考え方に適合する形になることが判明し\footnote{派生文法では日本語における活用の考え方を完全に否定している.},これによって,活用の考えを用いて作られている既存の形態素解析システムに適用することができた.しかも語尾変化についての完全な体系を背後に持つため,新たに認識された語尾変化に対しても活用形を順次増やす必要がなく,対応する形態素を一つだけ辞書に登録すれば済むようになった.事実,「食べれる」といったいわゆる「ら抜き表現」や,「書かす」といった口語的な使役表現などもそれぞれ一つの形態素を追加することで対応できている.このように新しい語尾を簡単に追加できることから,口語的な語尾の形態素を充実させることができ,口語的な文章に対しても高い精度で解析できるようになった.また,「食べさせられますまい」といった複雑な語尾変化も正確に解析できる.本研究で開発された形態素解析文法は,文字表記された日本語のテキストから言語データを抽出することを主な目的として開発されたものである.従って,日本語の漢字仮名混じりの正しい文\footnote{一般の日本人が許容できる範囲で正しいという意味で,正式な日本語という意味ではない.}を文節に区切り,その文節の係り受けの性質を識別することを最優先した解析用の文法となっている.また,形態素の意味的な面を捨象し,過剰な受理を許容することで,形態素の統一的な扱いをすることに重点を置いている.これはあくまで計算機上へのシステムの構築を容易にするためであり,なんらかの言語学的な主張をする意図はない.さらに過剰な受理を許容する意味で,この文法は解析用の文法といえる.生成等に利用するにはこの過剰な受理が障害になる可能性がある.また,誤りを含む文の識別に用いるのにも問題がある.本形態素文法はあくまで正しい文の解析に特化した文法として位置付ける必要がある.本稿では\ref{system}節で形態素の種類とそれらが満たすべき制約の体系を説明し,\ref{verb}節で動詞の語尾の扱いについて述べる.\ref{apply}節では,それを日本語文字単位の形態素解析向きに変更する方法を示す.さらに,\ref{detail}節では個別の問題がある語尾について述べ,最後にこの形態素文法を形態素解析プログラムJUMANに適用した場合の解析性能を評価する.なお,われわれが作成した形態素文法の形態素解析プログラムJUMANへの適用事例は,以下のanonymousftpで入手可能である.但し,評価の際に使用した辞書の一部について配布に制限のあるものは含まれていない.\\camille.is.s.u-tokyo.ac.jp/pub/member/fuchi/juman-fuchi
V17N01-06
質問応答,情報抽出,複数文章要約などの応用では,テキスト間の含意関係や因果関係を理解することが有益である.例えば,動詞「洗う」と動詞句「きれいになる」の間には,「何かを洗うという行為の結果としてその何かがきれいになる」という因果関係を考えることができる.本論文では,このような述語または述語句で表現される事態と事態の間にある関係を大規模にかつ機械的に獲得する問題について述べる.事態表現間の因果関係,時間関係,含意関係等を機械的に獲得する研究がいくつか存在する~\cite[etc.]{lin:01,inui:DS03,chklovski,torisawa:NAACL,pekar:06,zanzotto:06,abe:08}.事態間関係の獲得を目的とする研究では,事態を表現する述語(または述語句)の間でどの項が共有されているのかを捉えるということが重要である.例えば,述語「洗う」と述語句「きれいになる」の因果関係は次にように表現できる.\begin{quotation}($X$を)\emph{洗う}$\rightarrow_{因果関係}$($X$が)\emph{きれいになる}\end{quotation}この$X$は述語「洗う」のヲ格と述語句「きれいになる」のガ格が共有されていることを表している.関係$R$を満たす述語対は次のように一般化して表現することができる.\begin{quotation}($X項_{1}$)$\emph{述語}_1$$\rightarrow_{R}$($X項_{2}$)$\emph{述語}_2$\end{quotation}$\emph{述語}_i$は自然言語における述語(または述語句)であり,典型的には動詞または形容詞である.$X$はある述語の項ともう一つの述語の項が共有されていることを表している.我々の目的は,(a)特定の関係を満たす述語対を見付けだし(\emph{述語対獲得}),(b)述語対の間で共有されている項を特定する(\emph{共有項同定})ことである.事態間関係の獲得を目的とする研究は既にいくつかあるが,どの研究も関係述語対獲得または共有項同定の片方の問題のみを対象としており,両方の問題を対象とした研究はない.我々が提案する手法は,目的が異なる2種類の手法を段階的に適用して述語間関係を獲得する手法である.
V09N02-05
差分検出を行なうdiffコマンドは言語処理の研究において役に立つ場面が数多く存在する.本稿では,まず簡単にdiffの説明を行ない,その後,diffを使った言語処理研究の具体的事例として,差分検出,書き換え規則の獲得,データのマージ,最適照合の例を示す\footnote{本稿は筆者のさまざまな言語処理研究におけるdiffというツールの使用経験を述べたものであり,今後の自然言語処理,言語学の研究に有益な知見を与えることを目的にしている.}.あらかじめ本稿の価値を整理しておくと以下のようになる.\begin{itemize}\itemdiffコマンドはUNIXで標準でついているため,これを用いることは極めて容易である.この容易に利用できるdiffコマンドを用いることで,さまざまな言語処理研究を行なうことができることを示している本稿は,容易さ,簡便さの観点から価値がある.\item近年,言い換えの研究が盛んになりつつある\cite{iikae_jws}.本稿の\ref{sec:kakikae}節では実際に話し言葉と書き言葉の違いの考察,また話し言葉と書き言葉の言い換え表現の獲得\cite{murata_kaiho_2001}にdiffが利用できることを示している.diffの利用は,話し言葉と書き言葉に限らず,多方面の言い換えの研究に役に立つと思われる.本稿はそれらの基盤的なものとなると思われる.\itemdiffコマンドは一般には差分の検出に利用される.しかし,本稿で述べるようにデータのマージや最適照合にも利用できるものである.本稿では\ref{sec:merge}節で,このデータのマージ,最適照合の例として,対訳コーパスの対応づけ,講演と予稿の対応づけ,さらに最近はやりの質問応答システム(「日本の首都はどこですか」と聞くと「東京」と答えるシステムのこと)といった,種々の興味深い研究をdiffという簡便なツールで実現する方法を示している.本稿はこのような研究テーマもしくは研究手段の斬新性といった側面も兼ね備えている.\end{itemize}
V10N01-04
情報検索において,検索対象となるデータはさまざまな人に記述されたものであり,同じ事柄を表す言葉であっても人によって表記が異なるために,ユーザは検索システムから意図した情報を得られないことがある.人間ならば柔軟に表記から意図を読み取り対応できるが,機械はこの柔軟性を備えていない.ここで考える表記の異なりとは,たとえば,「ウイルス」と「ウィルス」,「コンピュータ」と「コンピューター」といった一般的な表記の揺ればかりでなく,その他「機械を使って翻訳する」という事柄を表すために,ある人は「機械翻訳」,別の人は「機械による翻訳」と多少表現が異なるといった表記の違いといったあいまいな表現のことである.本研究では,このようなあいまいな表現を合わせて「表記の揺れ」と呼ぶ.情報検索においてあいまいな表現は性能低下を招く.日本語には表記の揺れが多く存在するために,日本語における情報検索は難しいものである.そこで,表記の揺れに対応できる類似尺度が必要である.これまでに,表記の揺れに対応できる尺度として,編集距離\cite{Korfhage97}が知られている.編集距離は一方の文字列をもう一方の文字列に一致させるために必要な最小限の編集操作の数である.編集操作には挿入,削除,置換があり,編集操作の数を距離として考える.このため,編集距離は二つの文字列の不一致な文字を計数する相違尺度とみることができる.そこで,本論文ではまず,この編集距離を一致する文字を計数する類似尺度に変換し,情報検索テストコレクションNTCIR1\cite{Kando98,Kageura97}を用いて実験を行ったが,その結果は満足できるものではなかった.その原因の一つは,文字をすべて同等に扱い,文章の意味に大きく関わるような文字と表記の揺れとなりうる文字を区別せずに計数したことにあると考えた.たとえば,ひらがなは助詞や助動詞を表現するために用いられることが多く,漢字は名詞や動詞の表記に用いられるため,ひらがなの一致と漢字の一致では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.もう一つの原因は,編集距離の定義に使われている編集操作が一文字に限られていたことにあると考えた.たとえば,連続した三文字が一致した場合と不連続な三文字が一致した場合では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.本論文では,この二つの原因を解消するために,一致した文字に対して重み付けを行い,次に一致した文字列に対応できるように,編集距離を変換した類似尺度の拡張を試みる.そして,編集距離から最終的に本論文で提案する類似尺度に到達する過程で定義する類似尺度を組み込んだシステムを構築し,類似尺度を拡張することによって表記の揺れに寛容な性質を損なうことなく,情報検索性能が向上するかを検証する.さらに,一致した文字列に対する重みをその文字列が持つ$IDF$に基づくスコアとするという条件の下で,類似尺度の違いによる情報検索性能の差を検証する.すなわち,本論文で提案する表記の揺れに寛容な類似尺度を組み込んだ情報検索システムと,形態素解析によって得られた単語を一致する文字列の単位とし,その単語が持つ$tf\cdotIDF$を重みとして累計するシステム,{\itngram}を一致する文字列の単位とし,その{\itngram}が持つ$IDF$を重みとして累計するシステムと比較する.実験結果において,本論文で提案する類似尺度を用いたシステムが,従来法である単語に基づくシステムや{\itngram}に基づくシステムと同等以上の検索性能を実現できたことを示す.この論文の構成は次のとおりである.2節では,編集距離から本論文で提案する類似尺度に到達するまでの過程をその過程で定義される類似尺度とともに示す.3節では,本論文で用いる重みを明示する.4節では,本論文で行った情報検索性能を測るための実験の概要を示す.5節では,2節で定義した類似尺度の検索性能が実際に定義した順に向上しているかと表記の揺れに寛容な性質が損なわれていないかを検証する.6節では,5節の結果を踏まえ,本論文で提案する類似尺度の検索性能を測るために,比較対象としたシステムについて説明した後,検索性能の比較を行う.7節でこれまで示した実験結果から考察を述べ,最後にまとめる.
V14N05-07
label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\underline{にあたって},荷物をチェックした.\label{ex:niatatte-F}\itemボールは,壁\underline{にあたって}跳ね返った.\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,本論文では,文\nobreak{}(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現検出は,日本語解析技術の中でも基盤的な技術であり,高カバレージかつ高精度な技術を確立することにより,後段の様々な解析や応用の効果が期待できる.一例として,以下の例文を題材に,機能表現検出の後段の応用として機械翻訳を想定した場合を考える.\begin{example}\item私は,彼の車\underline{について}走った.\label{ex:nitsuite-C}\item私は,自分の夢\underline{について}話した.\label{ex:nitsuite-F}\end{example}\strref{ex:nitsuite-C}では,下線部は内容的用法として働いており,\strref{ex:nitsuite-F}では,下線部は機能的用法として働いており,それぞれ英語に訳すと,\strref{ex:nitsuite-C-e},\strref{ex:nitsuite-F-e}となる.\begin{example}\itemIdrove\underline{\mbox{following}}hiscar.\label{ex:nitsuite-C-e}\itemItalked\underline{about}mydream.\label{ex:nitsuite-F-e}\end{example}下線部に注目すれば分かる通り,英語に訳した場合,内容的用法と機能的用法で対応する英単語が異なっている.このように内容的用法と機能的用法で対応する英単語が異なるので,機能表現検出のタスクは,機械翻訳の精度向上に効果があると考えられる.また,機能表現検出の後段の解析として格解析を想定する.格解析は,用言とそれがとる格要素の関係を記述した格フレームを利用して行われる.\begin{example}\item私は,彼の仕事\underline{について}話す.\label{ex:nitsuite-k}\end{example}「について」という機能表現を含む\strref{ex:nitsuite-k}において,格解析を行う場合,機能表現を考慮しなければ,「仕事」と「話す」の関係を検出することができず,「私は」と「話す」の関係がガ格であることしか,検出できない.それに対して,「について」という機能表現を考慮することができれば,「仕事」と「話す」の関係の機能的な関係を「について」という機能表現が表現していることが検出することができる.このことから,機能表現検出の結果は,格解析の精度向上に効果があると考えられる.さらに,以下の例文を題材にして,機能表現検出の後段の解析としてを係り受け解析を想定する.\begin{example}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-1}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-2}\end{example}\strref{ex:niouzite-1},\strref{ex:niouzite-2}における空白の区切りは,それぞれ,機能表現を考慮していない場合の文節区切り,機能表現を考慮した場合の文節区切りを表している.この例文において,「限度に」という文節の係り先を推定する時,「限度に」という文節が動詞を含む文節に係りやすいという特徴をもっているので,\strref{ex:niouzite-1}の場合,「応じて」という文節に係ってしまう.それに対して,\strref{ex:niouzite-2}では,「に応じて」を機能表現として扱っているので,「限度に」の係り先を正しく推定できる.このようなことから,機能表現のタスクは,格解析の精度向上に効果があると考えられる.本論文では,これら3つの応用研究の内,係り受け解析への機能表現検出の適用方法を考えた.日本語の機能表現として認定すべき表記の一覧については,いくつかの先行研究が存在する.\cite{Morita89aj}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{Matsuyoshi06ajm}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.\cite{日本語複合辞用例データベースの作成と分析}は,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類である.本論文では,この59種類の表現を当面の検討対象とする.まず,既存の解析系について,この59種類の表現に対する取り扱い状況を調査したところ,59種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照.}.59種類の表現の内,形態素解析器JUMAN\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は24種類である.また,形態素解析器ChaSen\cite{chasen-2.3.3}と構文解析器CaboCha\cite{TKudo02aj}の組合わせを用いた場合には,識別される可能性がある表現は20種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器と検出器によって検出される機能表現を考慮した係り受け解析器が必要である.まず,検出器の実現方法を考えた場合,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは容易ではない.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出するアプローチ~\cite{Tsuchiya07aj}をとる.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha\cite{TKudo02bj}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた59表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.次に,機能表現を考慮した係り受け解析器の実現方法としては,既存の解析系であるKNPとCaboChaを利用する方法が考えられる.KNPを利用する場合は,新たに機能表現を考慮した係り受け規則を作成する必要がある.それに対して,CaboChaを利用する場合は,現在使用されている訓練用データ(京都テキストコーパス~\cite{Kurohashi97bj})を機能表現を考慮したものに自動的に変換すればよい.そこで,本論文では,CaboChaの学習を機能表現を考慮した訓練データで行うことによって,機能表現を考慮した係り受け解析器を実現する.訓練データの作成には,訓練の対象となる文の係り受け情報と文に存在する機能表現の情報を利用する.本論文の構成は以下の通りである.\ref{sec:fe}~節で,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べる.\ref{sec:chunker}~節で,機能表現検出をチャンク同定問題として定式化し,SVMを利用した機能表現のチャンキングについて説明し,機能表現検出器の検出性能の評価を行い,この検出器が,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.\ref{sec:係り受け解析}~節では,機能表現検出器によって検出される機能表現を考慮した係り受け解析器について説明を行い,機能表現を考慮した係り受け解析器と従来の係り受け解析器を使った機能表現を考慮した最適な係り受け解析について述べ,実際に機能表現を考慮した係り受け解析の評価を行う.\ref{sec:関連研究}~節では,関連研究について述べ,最後に\ref{sec:結論}~節で結論を述べる.
V21N02-05
label{sec:intro}自然言語処理の分野において,文章を解析するための技術は古くから研究されており,これまでに様々な解析ツールが開発されてきた.例えば,形態素解析器や構文解析器は,その最も基礎的なものであり,現在,誰もが自由に利用することができるこれらの解析器が存在する.形態素解析器としては,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}やJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}などが,構文解析器としては,CaboCha\footnote{http://code.google.com/p/cabocha/}やKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}などが利用可能である.近年,テキストに存在する動詞や形容詞などの述語に対してその項構造を特定する技術,すなわち,「誰がいつどこで何をするのか」という\textbf{事象}\footnote{この論文では,動作,出来事,状態などを包括して事象と呼ぶ.}を認識する技術が盛んに研究されている.日本語においては,KNPやSynCha\footnote{https://www.cl.cs.titech.ac.jp/{\textasciitilde}ryu-i/syncha/}などの解析ツールが公開され,その利用を前提とした研究を進めることが可能になってきた.自然言語処理の応用分野において,述語項構造解析の次のステップとして,文の意味を適切に解析するシステムの開発,および,その性能向上が望まれている.意味解析に関する強固な基盤を作るために,次のステップとして対象とすべき言語現象を見定め,言語学的観点および統計学的観点から具にその言語データを分析する過程が必要である.主に述語項構造で表現される事象の末尾に,「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文では,一般に,その事象が成立しないことが表現される.否定文において,否定の働きが及ぶ範囲を\textbf{スコープ},その中で特に否定される部分を\textbf{焦点}(フォーカス)と呼ぶ\cite{neg2007}.否定のスコープと焦点の例を以下に示す.ここでは,注目している否定を表す表現を太字にしており,そのスコープを角括弧で囲み,焦点の語句に下線を付している.\begin{enumerate}\item雪が降っていたので、[ここに\underline{車では}来ませ]\textbf{ん}でした。\item別に[\underline{入りたくて}入った]\textbf{のではない}。\end{enumerate}文(1)において,否定の助動詞「ん」のスコープは,「ここに車では来ませ」で表現される事象である.文(1)からは,この場所に来たが,車を使っては来なかったことが読み取れるので,否定の焦点は,「車では」である.文(2)において,否定の複合辞「のではない」のスコープは,「入りたくて入った」であり,否定の焦点は,「入りたくて」であると解釈できる.文(1)も文(2)もいずれも否定文であるが,成立しない事象のみが述べられているわけではない.文(1)からは,書き手がここに来たことが成立することが読み取れ,文(2)からは,書き手がある団体や部活などに入ったことが事実であることが読み取れる.一般に,否定文に対して,スコープの事象が成立しないことが理解できるだけでなく,焦点の部分を除いた事象は成立することを推測することができる\cite{neg2007,EduardoMoldo2011b}.ゆえに,自然言語処理において,否定の焦点を的確に特定することができれば,否定文を含むテキストの意味を計算機がより正確に把握することができる.このような技術は,事実性解析や含意認識,情報検索・情報抽出などの応用処理の高度化に必須の技術である.しかしながら,現在のところ,日本語において,実際に否定の焦点をラベル付けしたコーパスや,否定の焦点を自動的に特定する解析システムは,利用可能ではない.そこで,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点に関する情報をテキストにアノテーションする枠組みを提案する.提案するアノテーション体系に基づいて,既存の2種類のコーパスに対して否定の焦点の情報をアノテーションした結果についても報告する.日本語において焦点の存在を明確に表現する時に,しばしば,「のではない」や「わけではない」といった複合辞が用いられる.また,「は」や「も」,「しか」などに代表されるとりたて詞\cite{toritate2009}は,否定の焦点となりやすい.我々のアノテーション体系では,前後の文脈に存在する判断の手がかりとなった語句とともに,これらの情報を明確にアノテーションする.本論文は,以下のように構成される.まず,2章において,否定のスコープおよび否定の焦点を扱った関連研究について紹介する.次に,3章で,否定の焦点アノテーションの基本指針について述べる.続く4章で,与えられた日本語文章に否定の焦点をアノテーションする枠組みを説明する.5章で,既存の2種類のコーパスにアノテーションした結果について報告する.6章はまとめである.
V15N03-04
近年,自然言語処理において評価情報処理が注目を集めている\cite{Inui06}.評価情報処理とは,物事に対する評価が記述されたテキストを検索,分類,要約,構造化するような処理の総称であり,国家政治に対する意見集約やマーケティングといった幅広い応用を持っている.具体的な研究事例としては,テキストから特定の商品やサービスに対する評価情報を抽出する処理や,文書や文を評価極性(好評と不評)に応じて分類する処理などが議論されている\cite{Kobayashi05,Pang02,Kudo04,Matsumoto05,Fujimura05,Osashima05,McDonald07}.評価情報処理を行うためには様々な言語資源が必要となる.例えば,評価情報を抽出するためには「良い」「素晴しい」「ひどい」といった評価表現を登録した辞書が不可欠である\cite{Kobayashi05}.また,文書や文を評価極性に応じて分類するためには,評価極性がタグ付けされたコーパスが教師あり学習のトレーニングデータとして使われる\cite{Pang02}.我々は,評価情報処理のために利用する言語資源の一つとして,評価文コーパスの構築に取り組んでいる.ここで言う評価文コーパスとは,何かの評価を述べている文(評価文)とその評価極性を示すタグが対になったデータのことである(表\ref{tab:corpus}).タグは好評と不評の2種類を想定している.大規模な評価文コーパスがあれば,それを評価文分類器のトレーニングデータとして利用することや,そのコーパスから評価表現を獲得することが可能になると考えられる.\begin{table}[b]\caption{評価文コーパスの例.$+$は好評極性,$-$は不評極性を表す.}\label{tab:corpus}\input{04table1.txt}\end{table}\begin{figure}[b]\input{04fig1.txt}\caption{不評文書に好評文が出現するレビュー文書}\label{fig:pang}\end{figure}評価文コーパスを構築するには,単純に考えると以下の2つの方法がある.人手でコーパスを作成する方法と,ウェブ上のレビューデータを活用する方法である.後者は,例えばアマゾン\footnote{http://amazon.com/}のようなサイトを利用するというものである.アマゾンに投稿されているレビューには,そのレビューの評価極性を表すメタデータが付与されている.そのため,メタデータを利用することによって,好評内容のレビューと不評内容のレビューを自動的に収集することができる.しかしながら,このような方法には問題がある.まず,人手でコーパスを作るという方法は,大規模なコーパスを作ることを考えるとコストが問題となる.また,レビューデータを利用する方法には,文単位の評価極性情報を取得しにくいという問題がある.後者の具体例として図\ref{fig:pang}に示すレビュー文書\cite{Pang02}を考える.これは文書全体としては不評内容を述べているが,その中には好評文がいくつも出現している例である.このような文書を扱う場合,文書単位の評価極性だけでなく,文単位の評価極性も把握しておくことが望ましい.しかし,一般的にレビューのメタデータは文書に対して与えられるので,文単位の評価極性の獲得は難しい.さらに,レビューデータを利用した場合には,内容が特定ドメインに偏ってしまうという問題もある.こうした問題を踏まえて,本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに大量の評価文を収集することが可能となる.また,評価文書ではなく評価文を収集対象としているため,図\ref{fig:pang}のような問題は緩和される.さらに任意のHTML文書に適用できる方法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.
V15N02-02
企業内には,計算機で処理できる形での文書が大量に蓄えられている.情報検索,テキストマイニング,情報抽出などのテキスト処理を計算機で行う場合,文書内には,同じ意味の語句(同義語)が多く含まれているので,その処理が必要となる.例えば,日本語の航空分野では,「鳥衝突」を含む文書を検索したい場合,「鳥衝突」とその同義語である「BirdStrike」が同定できなければ,検索語として「鳥衝突」を指定しただけでは,「BirdStrike」を含み「鳥衝突」を含まない文書は検索できない.したがって,同義語の同定を行わないと,処理能力が低下してしまう.特定分野における文書には,専門の表現が多く用いられており,その表現は一般的な文書での表現とは異なっている場合が多い.その中には,分野独特の同義語が多量に含まれている.これらの多くは汎用の辞書に登録されていないので,汎用の辞書を使用することによる同義語の処理は難しい.したがって,その分野の同義語辞書を作成する必要がある.本論文では,このような特定分野における同義語辞書作成支援ツールについて述べる.本論文では,特定分野のひとつとして航空分野を対象とするが,航空分野のマニュアル,補足情報,業務報告書等に使用される名詞に限っても,漢字・ひらがなだけでなく,カタカナ,アルファベットおよびそれらの略語が使用されている.例えば,飛行機のマニュアルの場合,「Flap」を日本語の「高揚力装置」と表現しないで「Flap」と表現し,用語の使用がマニュアルよりも自由なマニュアル以外の文書では,「Flap」や「フラップ」と表現している.また,略語も頻繁に使用され,「滑走路」を「RWY」,「R/W」と表現している.そして,これらの表現が混在している.その理由は,海外から輸入された語句は,漢字で表現するとイメージがつかみ難いものがあるためであり,そのような語句は,英語表現や英語のカタカナ表現が使用される.「Aileron」を「補助翼」というよりは,「Aileron」や「エルロン」と通常表現している.マニュアルの場合は,ある程度,使用語が統一されているが,マニュアル以外のテキストは,語句の使用がより自由で,同義語の種類・数も多くなっている.そして,分野の異なる人間や計算機にとって理解し難いものとなっている.このようなテキストを計算機で処理する場合には,同義語辞書が必要であるが,これらの語句は,前述したように汎用の辞書に載っていない場合が多い.さらに,語句の使用は統制されているものではなく,また,常に新しい語が使用されるので,一度,分野の辞書を作成しても,それを定期的にメンテナンスする必要がある.これを人手だけで行うのは大変な作業である.我々は,同義語の類似度をその周辺に出現する語句の文脈情報により計算することにより同義語辞書を半自動的に作成するツールを開発している~\cite{terada06,terada07}.本論文では,上記の支援ツールを基礎にした計算機支援による同義語辞書作成ツールを提案する.その動作・仕組みは以下の通りである.計算機は,与えられたクエリに対して,意味的に同じ語句(同義語)の候補を提示する.辞書作成者は,クエリをシステムに与えることにより,同義語の候補語をシステムから提示され,その中から同義語を選択して,辞書登録をすることができる.システムは,これまで蓄えられた大量のテキスト情報を参照し,与えられたクエリの文脈と類似する文脈を持つ語句を同義語候補語とする.文脈は,クエリ・同義語の候補語の周辺に出現する語句を使用している.既知の同義語が存在する場合には,これらの同義語を使用して文脈語を同定することにより,システムの精度向上を行った.提案手法は,語句を認識できればよいので,分野・言語を問わないものである.実験は,日本語の航空分野のレポートを使用した.このコーパスには,上述したように多数の同義語が存在し,その多くは汎用の辞書に載っていないものである.評価は,回答の中で正解が上位にある程,評価値が高くなる平均精度を用いて行い,他の手法と比較して満足できる結果が得られた.論文構成は,第2節では関連研究について述べる.第3節では類似度と平均精度について述べるが,その中で文脈情報,類似度,平均精度の定義について説明する.第4節では提案方式の詳細と実験について述べる.コーパス,評価用辞書,特徴ベクトルの定義について説明し,文脈語の種類・頻度,window幅による精度比較について述べる.第5節では,第4節の結果をもとにして,詳細な議論を行う.クエリ・同義語候補語の種類による精度の比較,大域的文脈情報との比較,文脈語の正規化,特異値分解,関連語について述べる.第6節では複合名詞の処理を述べる.複合名詞については,専門用語自動抽出システム~\cite{termextract}が抽出した複合名詞を使用することにより単名詞と同様の処理を行った.第7節では同義語辞書の作成について考察する.第8節では結論と今後の研究課題について述べる.
V26N04-02
label{sec:introduction}単語を密ベクトルで表現する単語分散表現\cite{mikolov-13b,mikolov-13a,pennington-14,levy-14,bojanowski-17}が,機械翻訳\cite{sutskever-14},文書分類\cite{mikolov-14}および語彙的換言\cite{melamud-15}など多くの自然言語処理応用タスクにおける性能改善に大きく貢献してきた.単語分散表現は今やこれら応用タスクの基盤となっており,その性能改善は重要な課題である.広く利用されているCBOW(ContinuousBag-of-Words)\cite{mikolov-13a}やSGNS(Skip-gramwithNegativeSampling)\cite{mikolov-13b}などの手法では各単語に対して$1$つの分散表現を生成するが,LiandJurafsky\citeyear{li-17}によって,語義ごとに分散表現を生成することで多くの応用タスクの性能改善に貢献することが示されている.そこで,本研究では各単語に複数の語義の分散表現を割り当てる手法を提案する.文脈に応じて分散表現を使い分けるために,多義語に複数の分散表現を割り当てる手法\linebreak\cite{neelakantan-14,paetzold-16d,fadaee-17,athiwaratkun-17}が提案されている.しかし,語義曖昧性解消はそれ自体が難しいタスクであるため,これらの先行研究では近似的なアプローチを用いている.例えば,PaetzoldandSpecia\citeyear{paetzold-16d}は品詞ごとに,Fadaeeら\citeyear{fadaee-17}はトピックごとに異なる分散表現を生成するが,これらの手法には多義性を扱う粒度が粗いという課題がある.以下の例では,いずれの文もトピックは{\ttfood}であり,単語{\ttsoft}の品詞は形容詞である.\begin{enumerate}\renewcommand{\labelenumi}{}\setlength{\leftskip}{1.0cm}\item{\itIatea\textit{\textbf{soft}}candy.}\label{enum:soft1}\item{\itIdrunk\textit{\textbf{soft}}drinks.}\label{enum:soft2}\end{enumerate}先行研究ではこれらの単語{\ttsoft}を同じ分散表現で表す.しかし,例\ref{enum:soft1})の単語{\ttsoft}は{\tttender}という意味を,例\ref{enum:soft2})の{\ttsoft}は{\ttnon-alcoholic}という意味を表すため,これらに同一の分散表現を生成するのは適切ではない.このような品詞やトピックでは区別できない多義性を考慮するために,各単語により細かい粒度で複数の分散表現を割り当てることが望ましい.そこで本研究では,文脈中の単語を手がかりとして,先行研究よりも細かい粒度で各単語に複数の分散表現を割り当てる$2$つの手法を提案する.$1$つ目の手法は,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法である.この手法では語義を区別する手がかりとして,各単語と依存関係にある単語を用いる.$2$つ目の手法は,文脈中の全ての単語を考慮して語義の分散表現を生成する手法である.この手法では双方向LSTM(LongShort-TermMemory)を用いて文中に出現する全ての単語を同時に考慮する.どちらの手法も教師なし学習に基づいており,訓練データが不要という利点がある.提案手法の有効性を評価するため,多義性を考慮する分散表現が特に重要な,文脈中での単語間の意味的類似度推定タスク\cite{huang-12}および語彙的換言タスク\cite{mccarthy-07,kremer-14,ashihara-19a}において実験を行った.評価の結果,提案手法は先行研究\cite{neelakantan-14,paetzold-16d,fadaee-17}よりも高い性能を発揮し,より細かい粒度で分散表現を生成することが応用タスクでの性能向上に繋がることが示された.また,詳細な分析の結果,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法は文長に影響を受けにくいため,文が長い場合に,文脈中の全ての単語を考慮して語義の分散表現を生成する手法よりも高い性能を示すことが確認できた.
V14N03-13
近年,人間の感情を理解可能な機械(感性コンピュータ)に応用するための感情認識技術の研究が言語処理・音声処理・画像処理などの分野において進められている.感情のような人間の持つあいまいな情報をコンピュータで処理することは現段階では難しく,人間の感情モデルをどのように情報処理のモデルとして扱うかが感情認識研究の課題である.我々の研究グループでは,人間とロボットが感情表現豊かなコミュニケーションをとるために必要な感情インタフェース(AffectiveInterface)の実現を目指し,人間の発話内容・発話音声・顔表情からの感情認識の研究を行っている\cite{Ren},\cite{ees},\cite{ecorpus},\cite{Ren2}.感情は,人間の行動や発話を決定付ける役割を持つ.また,表\ref{tb:hatsuwa}に示すように,発話には,感情を相手に伝えようとするもの(感情表出発話)と,そうでないもの(通常発話)とに分類することができる.表の例のように,感情表出発話の場合,聞き手は話者が感情を生起しているように感じ取ることができ,話者も感情を伝えようという気持ちがある.一方,通常発話でも,感情を生起するような出来事(感情生起事象)を述べる場合には話者に感情が生起していることもある.\begin{table}[b]\begin{center}\caption{感情表出発話と通常発話の例}\begin{tabular}{|p{10.5cm}|c|}\hline「あの人が私を殴る.」,「私は面白くて笑う.」,「あの子供は空腹だ.」&通常発話\\\hline「あいつが私を殴りやがった.」,「面白いなぁ.」,「可哀想に,お腹を空かせているようだ.」&感情表出発話\\\hline\end{tabular}\label{tb:hatsuwa}\end{center}\end{table}感情推定手法の従来研究として,目良らが提案する情緒計算手法がある\cite{mera},\cite{mera2}.この手法において,ユーザが単語に対して好感度(単語の示す対象が好きか嫌いかを示す値)を与えておき,情緒計算式に代入することにより快か不快かを決定する.さらに,得られた結果と文末様相などを感情生起ルールに当てはめることで,20種類の感情を判定する.この手法では,直接的な感情表現(感情表出発話)よりも,文が示す事象の望ましさに着目しており,感情表現を含まないような感情生起事象文に対応できるという利点がある.我々の提案する手法は,感情表出発話文と感情生起事象文の両方からの感情推定を目標とする.具体的には,感情表出発話文の文型パターンとの照合を行い,感情を表現する語・イディオムの辞書を用いて,文中の単語に含まれている感情の種類を与える.感情の強度は,修飾語や文末表現(モダリティ)などで変化させる.結果として,発話テキストから複数の感情とその強度が得られる.これにより,単語が表す感情と文単位で表現する感情の2つの面から感情推定が行える.本稿では,感情生起事象文型パターンと感情語に基づく感情推定手法を提案し,その評価用プロトタイプシステムを構築する.そして,システムを用いて会話文の感情推定実験を行い,人間による感情判断との比較に基づく評価と,その評価結果について考察を行う.
V18N04-03
\label{section:はじめに}\vspace{-0.5\baselineskip}形態素解析は,日本語における自然言語処理の基礎であり,非常に重要な処理である.形態素解析の入力は文字列であり,出力は単語と品詞の組(形態素)の列である.形態素解析の出力は,固有表現抽出や構文解析などの後段の言語処理の入力となるばかりでなく,情報検索システムやテキストマイニング等の自然言語処理の応用の入力として直接利用される.そのため,形態素解析の精度は自然言語処理やその応用に大きな影響を与える.昨今,自然言語処理の応用は医療\cite{電子カルテからの副作用関係の自動抽出}や法律\cite{日英特許コーパスからの専門用語対訳辞書の自動獲得}からWeb文書\cite{2ちゃんねる解析用の形態素解析器の作成}まで多岐に渡る.したがって,様々な分野のテキストに対して,高い形態素解析解析精度を短時間かつ低コストで実現する手法が望まれている.現在の形態素解析器の主流は,コーパスに基づく方法である.この方法では,統計的なモデルを仮定し,そのパラメータをコーパスから推定する.代表的な手法は,品詞$n$-gramモデル\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法},全ての品詞を語彙化した形態素$n$-gramモデル\cite{形態素クラスタリングによる形態素解析精度の向上},条件付き確率場(CRF)\cite{Conditional.Random.Fields.を用いた日本語形態素解析}などを用いている.これらの統計的手法は,パラメータをコーパスから推定することで,際限なきコスト調整という規則に基づく方法の問題を解決し,コーパス作成の作業量に応じて精度が確実に向上するようになった.一方,これらの既存の統計的手法による形態素解析器で,医療や法律などの学習コーパスに含まれない分野のテキストを解析すると実用に耐えない解析精度となる.この問題に対して,分野特有の単語を辞書に追加するという簡便な方法が採られるが,問題を軽減するに過ぎない.論文等で報告されている程度の精度を実現するには,解析対象の分野のフルアノテーションコーパスを準備しなければならない.すなわち,解析対象の分野のテキストを用意し,すべての文字間に単語境界情報を付与し,すべての単語に品詞を付与する必要がある\footnote{CRFのパラメータを部分的アノテーションコーパスから推定する研究\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}もあるが,能動学習などの際に生じる非常にスパースかつ大規模な部分的アノテーションコーパスからの学習の場合には,必要となる主記憶が膨大で,現実的ではない.}.この結果,ある分野のテキストに自然言語処理を適用するのに要する時間は長くなり,コストは高くなる.本論文では,上述の形態素解析の現状と要求を背景として,大量の学習コーパスがある分野で既存手法と同程度の解析精度を実現すると同時に,高い分野適応性を実現する形態素解析器の設計を提案する.具体的には,形態素解析を単語分割と品詞推定に分解し,それぞれを点予測を用いて解決することを提案する.点予測とは,推定時の素性として,周囲の単語境界や品詞情報等の推定値を参照せずに,周辺の文字列の情報のみを参照する方法である.提案する設計により,単語境界や品詞が文の一部にのみ付与された部分的アノテーションコーパスや,品詞が付与されていない単語や単語列からなる辞書などの言語資源を利用することが可能となる.この結果,従来手法に比して格段に高い分野適応性を実現できる.
V07N01-03
label{intro}言語処理の研究に名詞句の指示性の推定という問題がある\cite{murata_ref_nlp}.名詞句の指示性とは,名詞句の対象への指示の仕方のことであり,主に以下の三つに分類される.(指示性の詳細な説明は次節で行なう.)\begin{itemize}\item不定名詞句--その名詞句の意味する類の不特定の成員を意味する.(例文)\underline{犬}が三匹います.\item定名詞句--文脈中唯一のものを意味する.(例文)\underline{その犬}は役に立ちます.\item総称名詞句--その名詞句の類すべてを意味する.(例文)\underline{犬}は役に立つ動物です.(この例文の「犬」は犬一般を意味しており,総称名詞句に分類される.)\end{itemize}この指示性というものを,日本語文章中にある各名詞句について推定することは,(i)日英機械翻訳における冠詞の生成の研究や,(ii)名詞句の指示先などを推定する照応解析の研究に役に立つ.\begin{itemize}\item[(i)]冠詞生成の研究冠詞生成の研究では,不定名詞句と推定できれば単数名詞句なら不定冠詞をつけ,複数名詞句なら冠詞はつけないとわかるし,定名詞句と推定できれば定冠詞をつければよいとわかるし,総称名詞句の場合ならばtheをつける場合もaをつける場合も複数形にする場合もあり複雑であるが総称名詞句用の冠詞生成の方法に基づいて生成すればよいとわかる\footnote{名詞句の指示性を冠詞の生成に実際に用いている研究としては,Bondのもの\cite{Bond_94}がある.}.例えば,\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称名詞句であるので英語では``abook''にも``books''にも``thebook''にも訳すことができるとわかる.また,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は定名詞句であるので,英語では``thebook''と訳すことができるとわかる.\item[(ii)]照応解析の研究名詞句の指示先などを推定する照応解析の研究では,定名詞句でなければ前方の名詞句を指示することができないなどがわかる\cite{murata_noun_nlp}.例えば,\begin{equation}\begin{minipage}[h]{6.5cm}\vspace*{0.2cm}\underline{本}をお土産に買いました.\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.\vspace*{0.2cm}\end{minipage}\label{eqn:book_miyage}\end{equation}の例文では,二文目の「本」は総称名詞句であるので一文目の「本」を指示することはないと解析することができる.\end{itemize}以上のように総称や定・不定などの名詞句の指示性というものは,冠詞の生成や照応解析で利用されるものであり,これを推定することは言語処理研究の一つの重要な問題となっている.名詞句の指示性の推定の先行研究\cite{murata_ref_nlp}では,表層表現を用いた規則を人手で作成して指示性の推定を行なっていた.例えば,前述の例文(\ref{eqn:book_hito})の「本」だと,「というのは」という表現から総称名詞句であると,また例文(\ref{eqn:book_boku})の「本」だと,修飾節「昨日僕が貸した」が限定していることから定名詞句であると解析していた.また,規則は86個作成しており,複数の規則が競合しどの規則を信頼して解けばよいかが曖昧な場合については,規則に得点を与えることで競合を解消していた.本稿では,先行研究で行なった名詞句の指示性の推定における人手の介入が若干でも減少するように,規則の競合の際に人手でふっていた得点の部分において機械学習の手法を用いることで,人手で規則に得点をふるという調整を不要にすることを目的としている.本稿で用いる機械学習手法としては,データスパースネスに強い最大エントロピー法を採用した.
V20N03-08
災害は,住居や道路などに対する物的損害だけでなく,被災地内外の住民に対する健康への影響も及ぼしうる.そこで,従来の防災における危機管理の考えを援用し,健康における危機管理という概念が発達しつつある.この「健康危機管理」は,わが国の行政において,災害,感染症,食品安全,医療安全,介護等安全,生活環境安全,原因不明の健康危機といった12分野に整理されており,厚生労働省を中心として,それぞれの分野において生じうる健康問題とその対応策に関する知見の蓄積が進められている\cite{tanihata2012}.こうした健康危機においては,適切な意思決定のためにできる限り効率的に事態の全体像を把握する必要性がある.しかし,2009年に生じた新型インフルエンザによるパンデミックでは,国内の発症者や疑い症例の急激な増加に対し,状況把握に困難が生じていた\cite{okumura2009}.2011年に生じた東日本大震災においては,被災地の行政機能が失われ,通信インフラへの被害も合わさって,被災地の基本的な状況把握すら困難な状態が生じた\cite{shinsai2012}.とりわけ,災害初期の混乱期においては,事態の全体像を迅速に把握する必要があり,情報の厳密性よりも行動に結びつく実用性や迅速性が優先されうる\cite{kunii2012}.この「膨大なテキスト情報が発生」し,また,「情報の厳密性よりも迅速性が優先される」という特徴は,自然言語処理が健康危機管理に大きく貢献しうる可能性を示している.そこで本稿では,健康危機における情報と自然言語処理との関係について整理し,自然言語処理が健康危機管理に果たしうる役割について検討する.まず,次章では,健康危機における情報とその特徴について整理する.3章では,筆者らが関わった東日本大震災に対する保健医療分野の情報と自然言語処理との関わりをまとめ,4章において提言を記す.
V20N02-06
情報検索や情報抽出において,テキスト中に示される事象を実時間軸上の時点もしくは時区間に関連づけることが求められている.Web配信されるテキスト情報に関しては,文書作成日時(DocumentCreationTime:DCT)が得られる場合,テキスト情報と文書作成日時とを関連づけることができる.しかしながら,文書作成日時が得られない場合や,文書に記述されている事象発生日時と文書作成日時が乖離する場合には他の方策が必要である.テキスト中に記述されている時間情報解析の精緻化が求められている.時間表現抽出は,固有表現抽出の部分問題である数値表現抽出のタスクとして研究されてきた.英語においては,評価型国際会議MUC-6(thesixthinaseriesofMessageUnderstandingConference)\cite{MUC6}で,アノテーション済み共有データセットが整備され,そのデータを基に各種の系列ラベリングに基づく時間表現の切り出し手法が開発されてきた.TERN(TimeExpressionRecognitionandNormalization)\cite{TERN}では,時間情報の曖昧性解消・正規化がタスクとして追加され,様々な時間表現解析器が開発された.さらに,時間情報表現と事象表現とを関連づけるアノテーション基準TimeML\cite{TimeML}が検討され,TimeMLに基づくタグつきコーパスTimeBank\cite{TimeBank}などが整備された.2007年には,時間情報表現—事象表現間及び2事象表現間の時間的順序関係を推定する評価型ワークショップSemEval-2007のサブタスクTempEval\cite{TempEval}が開かれ,種々の時間的順序関係推定器が開発された.後継のワークショップSemEval-2010のサブタスクTempEval-2\cite{TempEval2}では,英語だけでなく,イタリア語,スペイン語,中国語,韓国語を含めた\modified{5}言語が対象となった.\modified{2013年に開かれるSemEval-2013のサブタスクTempEval-3では,データを大規模化した英語,スペイン語が対象となっている.}一方,日本語においてはIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX}の固有表現抽出タスクの部分問題として時間情報表現抽出が定義されているのみで,時間情報の曖昧性解消・正規化に関するデータが構築されていなかった.そこで,我々はTimeMLに基づいた日本語に対する時間情報アノテーション基準を定義し,時間情報の曖昧性解消・正規化を目的とした時間情報タグつきコーパスを構築した.\modified{他言語のコーパスが新聞記事のみを対象としているのに対し,本研究では均衡コーパスである『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')を対象としており,新聞記事だけでなく,一般書籍・雑誌・ブログなどに出現する多様な時間情報表現を対象としている.本稿ではアノテーション基準を示すとともに,アノテーションしたコーパスの詳細について示す.}以下,2節では時間情報表現についての背景について概観する.3節では,対象とする時間情報表現について詳しく述べる.4節では策定した日本語時間情報表現に対するアノテーション基準を示す.\modified{5節でアノテーションにおける日本語特有の問題について説明する.}\modified{6節でアノテーション作業環境を示す.}\modified{7}節で実際にアノテーションしたコーパスの分析を行う.最後にまとめと今後の課題を示す.
V17N02-02
\label{sec:first}情報抽出や機械翻訳などのNLPの応用処理への需要が高まる中で,その技術を実現するための中核的な要素技術となる照応・共参照と述語項構造の解析に関して多くの研究者が解析技術を向上させてきた.それらの技術の多くは各情報が付与されたコーパス(以後,タグ付与コーパス)を訓練用データとして教師あり手法を用いるやり方が一般的であり,解析の対象となるコーパス作成の方法論についても議論がなされてきた\cite{Hirschman:97,Kingsbury:02,Doddington:04}.照応・共参照解析については,主に英語を対象にいくつかのタグ付与のスキーマが提案されており,実際にそのスキーマに従ったコーパスが作成されている\cite{Hirschman:97,Kawahara:02,Hasida:05,Poesio:04,Doddington:04}.例えば,MessageUnderstandingConference(MUC)のCoreference(CO)タスク\cite{Hirschman:97}や,その後継にあたるAutomaticContentExtraction(ACE)programのEntityDetectionandTracking(EDT)タスクでは,数年に渡って主に英語を対象に詳細な仕様が設計されてきた.また,述語項構造解析に関しては,CoNLLのsharedtask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}で評価データとして利用されているPropBank~\cite{Palmer:05}を対象に仕様が模索されてきた.日本語を対象に述語項構造と照応・共参照の研究をするにあたり,分析,学習,評価のための大規模なタグ付きコーパスが必要となるが,現状で利用可能なGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)は,述語項構造や共参照の解析のための十分な規模の評価データとはいえない.日本語を対象に述語項構造を照応・共参照の研究を進めるためには,英語の場合と同様にタグ付きコーパスを構築する必要があるが,日本語では述語の格要素が省略される\textbf{ゼロ照応}の現象が頻出するため,後述するように述語項構造の記述の中で照応現象も同時に扱う必要がある.そのため,英語では独立に扱われている述語項構造と(ゼロ)照応の関係の両方のタグ付与の仕様を把握し,2つの関係横断的にどのようにタグ付与の仕様を設計するかについて考える.タグ付与の仕様は最初から完成したものを目指すのではなく,作業仕様を経験的に定め,人手によるタグ付与の作業を行い,作業結果を検討することで洗練していくことを想定している.本論文ではこれまでに行った仕様に関する比較検討の内容と現在採用している我々の作業仕様について説明する.この際,MUCやACEの英語を対象に設計されたタグ付与の仕様に加え,日本語を対象に作成された既存の共参照・述語項構造のタグ付きコーパスであるGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}との比較も行う.本論文ではまず\sec{second}で照応と共参照の関係について確認し,\sec{third}では述語項構造と照応・共参照のタグ付与に関する先行研究を紹介する.次に,\sec{fourth}で先行研究を踏まえた上の我々のタグ付与の基準を示し,その基準に従った作業結果についても報告する.さらに,\sec{fifth}で今回作業を行った際に問題となった点について説明し,\sec{fifth}でその改善案とその案にしたがって作業をやり直した結果について報告し,最後に\sec{seventh}でまとめる.また,今回の作業の結果作成された述語項構造と照応・共参照タグ付与コーパスをNAISTテキストコーパスとして公開している.詳細は{http://cl.naist.jp/nldata/corpus/}を参照されたい.
V09N04-03
\label{sec:intro}近年テキスト情報が膨大になり,真に必要とする情報を的確に選択することが量的にも,質的にも困難になっている.また,携帯端末の普及に伴い情報をよりコンパクトにまとめる技術が必要とされている.これらのことから,文章を自動要約する技術の重要性が高まっている.これまで様々な要約研究が行なわれてきたが\cite{Okumura99},原文から重要と判断される文,段落等を抜き出し,それを要約と見なす手法が主流である.これには,単語出現頻度を元にした重要度によって重要文を抽出する手法\cite{Edmundson69,Luhn58,Zechner96},談話構造を利用して文を抽出する方法\cite{Marcu97},などがあるが,文単位の抽出方法では余分な修飾語など不必要な情報が多く含まれるため,圧縮率に限界がある.また文を羅列した場合には,前後のつながりが悪いなど可読性に問題があった.そこで近年では,文単位だけでなく語句単位で重要箇所を抽出する研究\cite{Hovy97,Oka2000},語句単位の抽出を文法的に行なう研究\cite{Knight2000,Jin2000},可読性を高めるための研究\cite{Mani99,Nanba2000}が行なわれるようになってきた.中には,原文に現れる幾つかの概念を上位概念に置き換えるようなabstractの手法も見られる\cite{Hovy97}.しかし,重要語句を列挙するだけでは文を形成しないため,可読性が低くなるという問題点がある.また,文を形成する場合でも,人に近い言い替えや概念の統合を行なうには膨大な知識が必要となる.本研究では,文単位ではなく語句単位の抽出を行ない,本文から必要最低限の重要語句を抽出し,それらを用いて文生成を行なう要約手法を提案する.提案手法は,必要最低限の語句を抽出することで圧縮率を高めるとともに,抽出した語句から文を形成することで可読性を考慮した.また,重要語句を抽出して文を形成するためには少なくとも主語,述語,目的語が必要であると考え,格要素を特定することで重要語句を抽出した.これによって,端的な要約文を生成するために必要最低限の情報を得ることが可能となった.また,現在利用可能な知識で文を生成するために,この格要素の抽出には,日英機械翻訳システムALT-J/E\cite{Ikehara91}の格フレーム辞書\cite{Goi-Taikei99}を用いた.本論文で提案する要約モデルは以下の2点によって構成される:\vspace{1mm}\begin{quote}\begin{itemize}\item語句抽出\item文生成\end{itemize}\end{quote}\vspace{1mm}このうち,語句抽出には以下の2つの方法があると考える:\vspace{1mm}\begin{quote}\begin{itemize}\item[A)]キーワードに着目する方法\vspace{1mm}\item[B)]文生成に必要な語句に着目する方法\end{itemize}\end{quote}\vspace{1mm}キーワードA)は,内容の特徴を表す単語であり,高頻度語など,従来のキーワード抽出等で抽出されてきた単語列である.しかし,単語列を提示しただけでは文を形成しないため可読性が低く,誤読を起こしかねない.一方,文生成に必要な単語B)とは,A)に加えて,文を構成するために必要な機能語や,高頻度語に含まれない内容語も含まれている.本論文では,要約結果は単語列ではなく文を形成していることを基本方針とするため,B)の語句抽出に着目して要約文を生成する.以上の方針を元に,本研究では,新聞記事を自動要約するシステムALTLINEを試作した.ALTLINEは一文〜複数文の要約を生成することができ,文単位ではなく重要語句を抽出することによって圧縮率を高くすることが可能になった.また,ALTLINEの評価基準を設定し,人間による要約実験の結果と比較することで評価を行なった.本論文では,2章で提案する要約方式,3章で要約システムの実装について述べる.4章では評価の正解基準を作成するための被験者実験について説明し,5章ではALTLINEの評価を行なう.6章で考察を行ない,7章でまとめを行なう.
V11N02-05
\label{sec:intro}現状の機械翻訳システムによる翻訳(以降,MT訳と呼ぶ)は,品質の点で人間による翻訳(人間訳)よりも劣り,理解しにくいことが多い.理解しやすい翻訳を出力できるようにシステムを高度化するためには,まず,MT訳と人間訳を比較分析し,両者の間にどのような違いがあるのかを把握しておく必要がある.このような認識から,文献\cite{Yoshimi03}では,英日機械翻訳システムを対象として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数,体言と用言の分布などについて人間訳とMT訳の比較分析を行なっている.また,文献\cite{Yoshimi04}では,係り先未決定文節数\footnote{文を構成するある文節における係り先未決定文節数とは,文を文頭から順に読んでいくとき,その文節を読んだ時点で係り先が決まっていない文節の数である\cite{Murata99}.}の観点から人間訳とMT訳における構文的な複雑さを比較している.しかし,文章の理解しにくさの要因は多種多様であり,また互いに複雑に絡み合っていると考えられるため,比較分析は,上記のような観点からだけでなく,様々な観点から行なう必要がある\footnote{文献\cite{Nakamura93}には,作家の文体を比較するための言語分析の着眼点として,文構成,語法,語彙,表記,修辞など多岐にわたる項目が挙げられている.}.本研究では,上記の先行研究を踏まえて,英文ニュース記事に対する人間訳とMT訳を,そこで使用されている表現の馴染みの度合いの観点から計量的に比較分析する.MT訳の理解しにくさの原因の一つとして,馴染みの薄い表現が多く使われていることがあると考えられる.このような作業仮説を設けた場合,人間訳とMT訳の間で理解しにくさに差があるかどうかを明らかにする.市販されているある機械翻訳システムで次の文(E\ref{SENT:sample})を翻訳すると,文(M\ref{SENT:sample})のような訳文が得られる.これに対して,人間による翻訳は文(H\ref{SENT:sample})のようになる.\begin{SENT2}\sentEThethrill-seekerfloatedtotheground.\sentHその冒険者は地上に舞い降りました。\sentMスリル‐捜索者は、地面に浮動した。\label{SENT:sample}\end{SENT2}文(M\ref{SENT:sample})は文(H\ref{SENT:sample})に比べて理解しにくい.その原因は次のような点にあると考えられる.\begin{enumerate}\item``thrill-seeker''の訳が文(H\ref{SENT:sample})では「冒険者」となっているが,文(M\ref{SENT:sample})では「スリル-捜索者」となっている.「スリル-捜索者」は,「冒険者」に比べて馴染みの薄い表現である.\item``float''が文(H\ref{SENT:sample})では「舞い降りる」と訳されているのに対して,文(M\ref{SENT:sample})では「浮動する」と訳されている.「浮動する」は,「舞い降りる」に比べて馴染みの薄い表現である.\end{enumerate}馴染みの薄い表現としては,文(M\ref{SENT:sample})における「スリル-捜索者」のような名詞や「浮動する」のような動詞など様々なものがあるが,本稿では動詞を対象とする.そして,人間訳で使用されている動詞の馴染み度の分布と,MT訳で使用されている動詞の馴染み度の分布を比較する.馴染み度の測定には,NTTデータベースシリーズ「日本語の語彙特性」の単語親密度データベース\cite{Amano99}を利用する.文献\cite{Takahashi91}では,(1)形容動詞化接尾辞「性」や「的」などを伴う語,(2)比較対象が省略された形容詞,(3)機械翻訳システムの辞書において「抽象物で,かつ人が作り出した知的概念」というラベルが付与されている語を抽象語句と呼び,「抽象語句密度は理解しにくさに比例する」という仮説が示されている.この仮説と本稿での仮説は関連性が高いと考えられる.ただし,本稿では,特に抽象語句という制限を設けず,単語親密度データベースを用いて表現の馴染み度を一般的に測定し,仮説の検証を行なう.なお,特にMT訳には誤訳の問題があるが,本研究は,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳が理解しにくい原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくものである.
V23N04-02
\label{sec:introduction}統計的機械翻訳(StatisticalMachineTranslation,SMT)では,翻訳モデルを用いてフレーズ単位で翻訳を行い,並べ替えモデルを用いてそれらを正しい語順に並べ替えるフレーズベース翻訳(PhraseBasedMachineTranslation)\cite{koehn03phrasebased},構文木の部分木を翻訳に利用する統語ベース翻訳\cite{yamada01syntaxmt}などの翻訳手法が提案されている.一般的に,フレーズベース翻訳は英仏間のような語順が近い言語間では高い翻訳精度を達成できるものの,日英間のような語順が大きく異なる言語間では翻訳精度は十分でない.このような語順が大きく異なる言語対においては,統語ベース翻訳の方がフレーズベース翻訳と比べて高い翻訳精度を達成できることが多い.統語ベース翻訳の中でも,原言語側の構文情報を用いるTree-to-String(T2S)翻訳\cite{liu06treetostring}は,高い翻訳精度と高速な翻訳速度を両立できる手法として知られている.ただし,T2S翻訳は翻訳に際して原言語の構文解析結果を利用するため,翻訳精度は構文解析器の精度に大きく依存する\cite{neubig14acl}.この問題を改善する手法の一つとして,複数の構文木候補の集合である構文森をデコード時に利用するForest-to-String(F2S)翻訳\cite{mi08forestrule}が挙げられる.しかし,F2S翻訳も翻訳精度は構文森を作成した構文解析器の精度に大きく依存し,構文解析器の精度向上が課題となる\cite{neubig14acl}.構文解析器の精度を向上させる手法の一つとして,構文解析器の自己学習が提案されている\cite{mcclosky2006effective}.自己学習では,アノテーションされていない文を既存のモデルを使って構文解析し,自動生成された構文木を学習データとして利用する.これにより,構文解析器は自己学習に使われたデータに対して自動的に適応し,語彙や文法構造の対応範囲が広がり,解析精度が向上する.しかし,自動生成された構文木は多くの誤りを含み,それらが学習データのノイズとなることで自己学習の効果を低減させてしまうという問題が存在する.Katz-Brownら\cite{katzbrown11targetedselftraining}は構文解析器の自己学習をフレーズベース翻訳のための事前並べ替えに適用する手法を提案している.フレーズベース翻訳のための事前並べ替えとは,原言語文の単語を目的言語の語順に近くなるように並べ替えることによって,機械翻訳の精度を向上させる手法である.この手法では,構文解析器を用いて複数の構文木候補を出力し,この構文木候補を用いて事前並べ替えを行う.その後,並べ替え結果を人手で作成された正解並べ替えデータと比較することによって,各出力にスコアを割り振る.これらの並べ替え結果のスコアを基に,構文木候補の中から最も高いスコアを獲得した構文木を選択し,この構文木を自己学習に使用する.このように,学習に用いるデータを選択し,自己学習を行う手法を標的自己学習(TargetedSelf-Training)という.Katz-Brownらの手法では,正解並べ替えデータを用いて,自己学習に使用する構文木を選択することで,誤った並べ替えを行う構文木を取り除くことができ,学習データのノイズを減らすことができる.また,Liuら\cite{liu12emnlp}は,単語アライメントを利用して構文解析器の標的自己学習を行う手法を提案している.一般に,構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い.そのため,この一貫性を基準として構文木を選択し,それらを用いて構文解析器を学習することでより精度が向上することが考えられる.以上の先行研究を基に,本論文では,機械翻訳の自動評価尺度を用いた統語ベース翻訳のための構文解析器の標的自己学習手法を提案する.提案手法は,構文解析器が出力した構文木を基に統語ベース翻訳を行い,その翻訳結果を機械翻訳の自動評価尺度を用いて評価し,この評価値を基にデータを選択し構文解析器の自己学習を行う.統語ベース翻訳では,誤った構文木が与えられた場合,翻訳結果も誤りとなる可能性が高く,翻訳結果を評価することで間接的に構文木の精度を評価することができる.以上に加え,提案手法は大量の対訳コーパスから自己学習に適した文のみを選択し学習を行うことで,自己学習時のノイズを減らす効果がある.Katz-Brownらの手法と比較して,提案手法は事前並べ替えだけでなく統語ベース翻訳にも使用可能なほか,機械翻訳の自動評価尺度に基づいてデータの選択を行うため,対訳以外の人手で作成された正解データを必要としないという利点がある.これにより,既存の対訳コーパスが構文解析器の標的自己学習用学習データとして使用可能になり,構文解析器の精度やF2S翻訳の精度を幅広い分野で向上させることができる.また,既に多く存在する無償で利用可能な対訳コーパスを使用した場合,本手法におけるデータ作成コストはかからない.さらに,Liuらの手法とは異なり,翻訳器を直接利用することができる利点もある.このため,アライメント情報を通して間接的に翻訳結果への影響を計測するLiuらの手法に比べて,直接的に翻訳結果への影響を構文木選択の段階で考慮できる.実験により,提案手法で学習した構文解析器を用いることで,F2S翻訳システムの精度向上と,構文解析器自体の精度向上が確認できた\footnote{本論文では,\textit{IWSLT2015:InternationalWorkshoponSpokenLanguageTranslation}で発表した内容\cite{morishita15iwslt}に加え,翻訳システムの人手評価を実施した結果をまとめた.}.
V07N04-12
手話言語は,主に手指動作表現により単語を表出するため,手指動作特徴の類似性が意味の類似性を反映している場合がある.例えば,図\ref{amandpm}に示した「午前」と「午後」という日本語ラベルに対応する二つの手話単語の手話表現を比較すると,手の動きが逆方向,すなわち,線対称な関係にあることが分かる.ここで,手話単語の手指動作特徴を手の形,手の位置,手の動きとした場合\cite{Stokoe1976},この単語対は,手の動きに関する手指動作特徴だけが異なる手話の単語対である.また,意味的には対義を構成し,動作特徴の類似性が意味の類似性を反映している単語対と捉えることができる.なお,手指動作特徴の一つだけが異なる単語対を特に,{\gt手話単語の最小対}と呼ぶ\cite{Deuchar1984}.明らかに,図\ref{amandpm}に示した単語対は,手の動きを対立観点とする手話単語の最小対を構成している.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=gozen.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\begin{epsf}\epsfile{file=gogo.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\end{center}\caption{手の動きを対立観点とする手話単語の最小対(午前,午後)}\label{amandpm}\end{figure}このように,類似した動作特徴を含む手話の単語対の抽出と収集は,言語学分野における,手話単語の構造と造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなる.例えば,計算機による手話単語の認識処理においては,認識誤りを生ずる可能性が高い単語対の一つと捉えることができる.一般に,人間の認識過程においても非常に類似している(差異が小さい)二つのオブジェクトを認識する際に,何の情報トリガも無ければ,同一のオブジェクトとして認識してしまう傾向がある.しかし,「このペアは似ているけど違うよ」というような情報トリガが与えられると,認識をより精密に行おうと(差異を検出)する傾向が見られる.一方,手話表現の生成処理においては,ある手話単語の手指動作特徴パラメータの一部を変更することで,別の手話表現を生成できることを意味する.また,日本語と手話単語との対訳電子化辞書システムを核とする学習支援システムの検索処理においては,類似の動作特徴を含む他の手話単語と関連付けて検索できるなど,学習効果の向上に貢献できるものと考える.本論文では,類似した手指動作特徴を含む手話言語の単語対(以後,本論文では,{\gt類似手話単語対}と略記する.)を与えられた単語集合から抽出する方法を提案し,その有効性を検証するために行った実験結果について述べる.本手法の特徴は,市販の手話辞典に記述されている手指動作記述文を手指動作の特徴構造を自然言語文に写像した手指動作パターンの特徴系列と捉え,手指動作記述文間の類似度計算に基づき,類似手話単語対を抽出する点にある.なお,関連する研究として,音声言語\footnote{本論文では,手話言語と対比させる意味で書記言語としての特徴を持つ日本語や英語などを総称して,音声言語と呼ぶことにする.}を対象とした同様なアプローチとして,市販の国語辞典や英語辞書に記述されている語義文(あるいは定義文)の情報を利用した単語間の意味関係や階層関係を抽出する研究\cite[など]{Nakamura1987,Tomiura1991,Tsurumaru1992,Niwa1993}が報告されている.以下,2章では,本研究の対象言語データである手指動作記述文の特徴と,その特徴から導出される特徴ベクトル表現について,3章では,手指動作記述文間の類似性に基づく手話単語間の類似度の計算方法について,4章では,本提案手法の有効性を検証するために行った実験結果を示し,5章で考察を行う.
V24N01-03
\label{sec:introduction}機械翻訳システムの性能向上や大量のコーパスを伴なう翻訳メモリなどの導入により,機械支援翻訳(CAT)が広く行われるようになってきている.その一方で,翻訳の対象となる文書の内容が専門的である場合,その分野特有の専門用語や定型表現に関する対訳辞書が必要となる.そうした辞書を人手で作成することはコストが高いため,あらかじめ翻訳された対訳コーパスから専門用語や定型表現の対訳を自動抽出する研究が盛んである\cite{Matsumoto00}.しかし,自動抽出の結果は必ずしも正確ではなく,間違った対訳表現を抽出したり,対訳表現の一部だけを抽出する場合がある.また,一つの語に対して複数の対訳表現を抽出した場合には,訳し分けに関する知見が必要となる.そこで,対訳表現を抽出するだけでなく,対訳表現の各候補を,それが出現した文脈と一緒に表示することによって,ユーザによる対訳表現の選定を支援し,対訳辞書構築を支援するシステムBilingualKWIC\textsuperscript{\textregistered}を開発した.BilingualKWICは,対訳抽出の技術とKWIC(KeyWordInContext)表示\cite{luhn1960}を統合し,文単位で対応付けされたパラレル・コーパスから,与えられたキーワードとその対訳表現の候補をそれぞれ文脈付きで表示する.BilingualKWICの開発過程については\ref{sec:history}章において詳しく述べるが,最初は法律分野の対訳辞書構築を支援する目的で開発した.しかし,このシステムは対訳辞書構築だけでなく,翻訳支援にも有用であるため,その後に開発された法務省・日本法令外国語訳データベース・システム(JLT){\footnote{http://www.japaneselawtranslation.go.jp/}\cite{Toyama12}}においても採用されるに至った.JLTは,日本の主要法令とその英訳,法令用語日英標準対訳辞書,および日本法令の英訳に関する関連情報をインターネット上において無償で提供するウェブサイトである.また,BilingualKWICは名古屋大学が開発した学内情報翻訳データベースNUTRIAD\footnote{http://nutriad.provost.nagoya-u.ac.jp/}\cite{Fukuda}でも採用され,学内文書の英文化を支援し,大学の国際化に寄与している.NUTRIADのシステムは,九州大学・熊本大学・東北大学でも導入され,BilingualKWICも同様に利用されている.BilingualKWICの現在の目的は,対訳辞書のようにあらかじめ登録された訳語と少数の用例を提示するのではなく,任意の入力キーワードに対して対訳表現を計算し,豊富なパラレル・コーパスからの情報を一緒に提示することにより,従来の対訳辞書や翻訳メモリとは異なるアプローチでの翻訳支援を実現することである.以下に本論文の構成を示す.まず\ref{sec:summary}章においてBilingualKWICの概要について述べ,\ref{sec:character}章においてその特徴を紹介する.\ref{sec:spec}章において,BilingualKWICの技術的詳細を,\ref{sec:history}章においてその開発過程をそれぞれ述べる.\ref{sec:evaluation}章ではユーザによるBilingualKWICの評価について述べ,\ref{sec:compare}章では類似するシステムとの比較を行う.\ref{sec:conclusion}章は本論文のまとめである.
V16N03-03
\subsection{背景\label{haikei}}事物の数量的側面を表現するとき,「三人」,「5個」,「八つ」のように,「人」,「個」,「つ」という付属語を数詞の後に連接する.これらの語を一般に助数詞と呼ぶ.英語などでは``3students'',``5oranges''のように名詞に直接数詞が係って名詞の数が表現されるが,日本語では「3人の学生」,「みかん五個」のように数詞だけでなく助数詞も併せて用いなければならない.形態的には助数詞はすべて自律的な名詞である数詞に付属する接尾語とされる.しかし,助数詞の性質は多様であり,一律に扱ってしまうことは統語意味的見地からも計算機による処理においても問題がある.また構文中の出現位置や統語構造によって,連接する数詞との関係は異なる.つまり,数詞と助数詞の関係を正しく解析するためには1)助数詞が本来持つ語彙としての性質,そして2)構文中に現れる際の文法的な性質について考慮する必要がある.KNP~\cite{Kurohashi}やcabocha~\cite{cabocha}などを代表とする文節単位の係り受け解析では,上記のような数詞と助数詞の関係は同じ文節内に含まれるため,両者の関係は係り受け解析の対象にならない.ところが,単なる係り受け以上の解析,例えばLexicalFunctionalGrammar(以下,LFG)やHead-drivenPhraseStructureGrammar(以下,HPSG)のような句構造文法による解析では,主辞の文法的役割を規程する必要がある.つまり文節よりも細かい単位を対象に解析を行うため,名詞と助数詞の関係や数詞と助数詞の関係をきちんと定義しなければならない.上記のような解析システムだけでなく,解析結果を用いた応用アプリケーションにおいても助数詞の処理は重要である.\cite{UmemotoNL}で紹介されている検索システムにおける含意関係の判定では数量,価格,順番などを正しく扱うことが必要とされる.\subsection{\label{mokuteki}本研究の目的}本稿では,数詞と助数詞によって表現される構文\footnote{但し,「3年」,「17時」など日付や時間に関する表現は\cite{Bender}と同様にこの対象範囲から除く.}を解析するLFGの語彙規則と文法規則を提案し,計算機上で実装することによってその規則の妥当性と解析能力について検証する.これらのLFG規則によって出力された解析結果(f-structure)の妥当性については,下記の二つの基準を設ける.\begin{enumerate}\item{他表現との整合}\\統語的に同一の構造を持つ別の表現と比較して,f-structureが同じ構造になっている.\item{他言語との整合}\\他の言語において同じ表現のf-structureが同じ構造になっている.\end{enumerate}\ref{senkou}章では助数詞に関する従来研究を概観し,特に関連のある研究と本稿の差異について述べる.\ref{rule}章では助数詞のためのLFG語彙規則と助数詞や数詞を解析するためのLFG文法規則を提案する.\ref{fstr}章では\ref{rule}章で提案したLFG規則を\cite{Masuichi2003}の日本語LFGシステム上で実装し,システムによって出力されるf-structureの妥当性を上記の二つの基準に照らして検証する.日本語と同様にベトナム語や韓国にも日本語のそれとは違う性質をもった固有の数詞と助数詞が存在する\cite{yazaki}.また,日本語の助数詞は一部の語源が中国語にあるという説もあり,その共通性と差異が\cite{watanabe}などで論じられている.そこで,ParallelGrammarProject\cite{Butt02}(以下,ParGram)においてLFG文法を研究開発している中国語LFG文法\cite{ji}で導出されたf-structureを対象にして,基準2を満たしているかを確認するために比較を行う.``3~kg''の`kg'や,``10dollars''の`dollar'など,英語にも数字の後に連接する日本語の助数詞相当の語が存在する.また,日本語においても英語のように助数詞なしに数詞が直接連接して名詞の数量を表現する場合もある.ParGramにおいて英語は最初に開発されたLFG文法であり,その性能は極めて高い\cite{Riezler}.ParGramに参加する他の言語は必ず英語のf-structureとの比較を行いながら研究を進める.以上のことから,中国語だけではなく\cite{Riezler}の英語LFGシステムで出力されたf-structureとの比較を行う.\ref{hyouka}章では精度評価実験を行って,解析性能を検証する.数詞と助数詞によって形成される統語をLFG理論の枠組みで解析し,適切なf-structureを得ることが本研究の目的である.
V06N04-02
本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案する.対話システムをインタラクティブに動作させるためには,発話理解から応答生成までを段階的に管理する{\dg発話理解・生成機構}と,発話列をセグメント化し,焦点および意図と関連付けて構造的にとらえる{\dg対話管理機構}とが必要である.さらに,入力に音声を用いた音声対話システムでは,音声の誤認識によるエラーを扱う機構を組み込む必要がある.これらの機構は従来,比較的独立して研究されてきた.発話理解から応答生成までを通してモデル化したものに関しては,大きく分類して並列マルチエージェント(およびそれに付随する分散データベース)によるモデル\cite{peckham91}と,逐次的なモジュールの結合によるモデル\cite{jonsson91},\cite{airenti93}とが提案されている.並列マルチエージェントモデルは様々なレベルの制約を同時に発話理解・生成に用いているという人間の認知プロセスのモデル化になっているが,制御の難しさ・確実な動作保証の難しさから,対話システムの実現には逐次的なモジュール結合方式がよく用いられている.逐次的なモジュール結合方式において,音声対話システムに不可欠な発話の柔軟な解釈や次発話の予測を行うためには,個々のモジュールが常に参照できる情報を集中的に管理する対話管理機構が必要になる.対話管理機構に関して,Groszらは言語構造・意図構造・注意状態の3要素に分割してモデル化を行っている\cite{grosz86}.言語構造をとらえる方法としては,スタックによるモデル化\cite{grosz86},\cite{allen96},\cite{jonsson91}\footnote{\cite{jonsson91}ではやりとり(働き掛け+応答)単位を対話木によって管理しているが,この対話木は働き掛け+応答の2分木の中にあらたなやりとりが挿入できるという形式なので,本質的にはスタックと同機能であると考えられる.}とAND-OR木によるモデル化\cite{young89},\cite{smith94},\cite{smith95}がある.スタックによるモデル化は実現しやすく,注意状態との関係が明確であるという利点を持つ.しかし,入れ子構造をなさないような副対話が生じた場合にその管理が難しい.また,ユーザから主導権を取る発話(典型的にはユーザの誤った知識・方略を協調的に修正する発話)を生成した場合には,いくつかのスタック要素のポップを伴うことが多く,ユーザが主導権を改めて取ろうとしたときに必要な情報がスタックから消えているという状況が生じる.また,原則としてスタックからポップした情報にはアクセスできないので,音声の誤認識による誤解を(しばらく対話が進んだ後で)修正する必要のある音声対話システムに用いるには適していない.一方,AND-OR木によるモデル化は,基本的にタスクの問題構造の記述であり,Groszらの言語構造と意図構造とを混同してしまっているので,タスクの問題構造に従わない対話(例えば詳細化対話やシステムの能力に関するメタ的な質問など)は特別に扱わなければならないという欠点を持つ.これらのことを考え合わせると,音声対話に適した対話管理は,焦点とする範囲を適当に絞りながらも過去の対話履歴にアクセスする可能性を残した方法を用いて,言語構造と意図構造を区別して管理する必要があるといえる.\cite{airenti93}では言語構造と意図構造とを区別してモデル化し,これらを会話ゲームと行動ゲームと呼んでいる.しかし,それぞれのゲームがどのように表現されるかについては部分的にしか示されておらず,音声対話システムを構成するには不十分であるといえる.さらに,音声対話システムに適用する対話モデルには,音声の誤認識によるエラーに対処する機能が不可欠である.従来研究の多くは発話単位でのロバストな解析を実現することに目標が置かれ\cite{kawa95},いくつかの例外を除いては,対話システムに入力される発話または意味表現はユーザの意図したものであることが前提になっていた.しかし,ある単語が同一カテゴリーの単語と置き換わった場合や選択格に関する情報が欠落していた場合などは,ロバストな解析では対処できないので,対話レベルでの対処が必要となる.以上の議論より,我々は音声対話システムのための対話モデルとして,逐次的なモジュール結合による発話理解・生成機構,言語構造と意図構造とを区別した対話管理機構,それら相互の密接な情報のやりとりによる頑健な処理の実現が必要であると考えた.本稿で提案するモデルは,(1)\cite{airenti93}で提案された伝達行為理解のプロセスモデルを音声対話システムに適用可能なレベルまで具体化し,(2)それらと言語構造を表現した会話空間,意図構造を表現した問題解決空間とのやりとりを規定し,(3)個々のプロセスで同定可能な誤りへの対処法を網羅的に記述したものである.このモデルを実装することによって,ある程度のエラーにも対処できる協調的な音声対話システムの実現が期待できる.以後本稿では,我々のモデルに関して発話理解・生成機構,会話レベルの管理機構,問題解決レベルの管理機構について順に説明し,最後に動作例を示す.
V19N05-04
感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.特に,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.本邦においてもインフルエンザが流行したことによって総死亡がどの程度増加したかを示す推定値({\bf超過死亡概念による死者数})は毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施され,その結果はウェブでも閲覧することができる\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ウェブを用いた感染症サーベイランスに注目が集まっている.これらは現行の調査法と比べて,次のような利点がある.\begin{enumerate}\item{\bf大規模}:例えば,日本語単語「インフルエンザ」を含んだTwitter上での発言は平均1,000発言/日を超えている(2008年11月).このデータのボリュームは,これまでの調査手法,例えば,本邦における医療機関の定点観測の集計を圧倒する大規模な情報収集を可能とする.\item{\bf即時性}:ユーザの情報を直接収集するため,これまでにない早い速度での情報収集が可能である.早期発見が重視される感染症の流行予測においては即時性が極めて重要な性質である.\end{enumerate}以上のように,ウェブを用いた手法は,感染症サーベイランスと相性が高い.ウェブを用いた手法は,ウェブのどのようなサービスを材料にするかで,様々なバリエーションがあるが,本研究では近年急速に広まりつつあるソーシャルメディアのひとつであるTwitterに注目する.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,単語「インフルエンザ」を含む発言を収集すると,以下のような発言を抽出してしまう:\begin{enumerate}\itemカンボジアで鳥インフルエンザのヒト感染例、6歳女児が死亡(インフルエンザに関するニュース)\itemインフルエンザ怖いので予防注射してきました(インフルエンザ予防に関する発言)\itemやっと...インフルエンザが治った!(インフルエンザ完治後の発言)\end{enumerate}上記の例のように,単純な単語の集計では,実際に発言者がインフルエンザにかかっている本人(本稿では,{\bf当事者}と呼ぶ)かどうかが区別されない.本研究では,これを文書分類の一種とみなして,SupportVectorMachine(SVM)\cite{Vapnik1999}を用いた分類器を用いて解決する.さらに,この当事者を区別できたとしても,はたして一般の人々のつぶやきが正確にインフルエンザの流行を反映しているのかという情報の正確性の問題が残る.例えば,インフルエンザにかかった人間が,常にその病態をソーシャルメディアでつぶやくとは限らない.また,つぶやくとしても時間のずれがあるかもしれない.このように,不正確なセンサーとしてソーシャルメディアは機能していると考えられる.この不正確性は医師の診断をベースに集計する従来型のサーベイランスとの大きな違いである.実際に実験結果では,人々は流行前に過敏に反応し,流行後は反応が鈍る傾向があることが確認された.すなわち,ウェブ情報をリソースとした場合,現実の流行よりも前倒しに流行を検出してしまう恐れがある.本研究では,この時間のずれを吸収するために,感染症モデル\cite{Kermack1927}を適応し補正を行う.本論文のポイントは次の2点である:\begin{enumerate}\itemソーシャルメディアの情報はノイズを含んでいる.よって,文章分類手法にてこれを解決する.\itemソーシャルメディアのインフルエンザ報告は不正確である.これにより生じる時間的なずれを補正するためのモデルを提案する.\end{enumerate}本稿の構成は,以下のとおりである.2節では,関連研究を紹介する.3節では,構築したコーパスについて紹介する.4節では,提案する手法/モデルについて説明する.5節では,実験について報告する.6節に結論を述べる.
V15N03-06
label{節:背景}近年,インターネットの普及や企業に対するe-文書法等の施行に伴い,我々の周りには膨大な電子化文書が存在するようになってきた.そこで,ユーザが必要な情報へ効率よくアクセスするための支援技術の研究として自動要約の研究が盛んに行われている.自動要約の既存研究としては,要約する前の文章(原文)とそれを要約したもの(要約文)のパラレルコーパスを使用し,どのような語が要約文へ採用されているのか確率を用いることによってモデル化する手法\cite{Jing:2000,Daume:2002,Vandeghinste:2004}や,大量のコーパスから単語や文に対して重要度を計算し,重要であると判断された語や文を要約文に採用する方法\shortcite{oguro:1991論文,Hori:2003}がある.これらは計算機のスペックや大量の言語資源を手に入れることが出来るようになったことにより近年多く研究されている.しかし言語を全て統計的に処理してしまうことはあまりにも大局的過ぎ,個々の入力に合った出力が難しくなってしまう.また我々人間が要約を行うときには文法などの知識やどのように要約を行ったら良いのか等,様々な経験を用いている.そのため人間が要約に必要だと考える語や文と相関のあるような重要度の設定は難しい.さらに人間が要約を行う際は様々な文の語や文節など織り交ぜて要約を作成するが,既存手法である文圧縮や文抽出ではこのような人間が作成する要約文は作ることができない.そこで本論文では人間が作成するような要約文,つまり複数の文の情報を織り交ぜて作成する要約文の作成を目指す.また上述のように語や文などに人間と同じように重要度を設定することは困難であるため,本論文ではこれらに対して重要度の設定を行わずに用例を模倣利用することによって要約文を獲得する方法を提案する.以下,\ref{章:用例利用型のアプローチ}章にて用例利用型の考え方と既存研究,また用例利用型を要約にどう適用するのか述べる.続いて\ref{章:提案法のシステム概要}章にて提案法のシステム概要を述べ,\ref{章:類似用例文の選択}章から\ref{章:文節の組合せ}章にて提案法の詳細を述べる.そして\ref{章:評価実験及び考察}章にて実験,\ref{章:結果及び考察}章にて結果及び考察を行う.
V10N05-04
\label{sec:intro}1980年代に市販され始めた機械翻訳システムはその後改良が重ねられ,システムの翻訳品質は確実に向上してきている.しかし,現状のシステムには解決すべき課題が数多く残されており,高品質の翻訳が可能なシステムは未だ実現されていない.翻訳品質を高めるためにシステムを評価改良していく方法としては,(1)システムの新バージョンによる訳文と旧バージョンによる訳文との比較や,異なるシステム間での比較によって行なう方法\cite{Niessen00,Darwin01}と,(2)システムによる訳文と人間による訳文を比較することによって行なう方法\cite{Sugaya01,Papineni02}がある.前者の方法では,システムによる翻訳(以降,MT訳と呼ぶ)と人間による翻訳(人間訳)を比較することによって初めて明らかになる課題が見逃されてしまう恐れがある.これに対して,後者の方法では,MT訳と人間訳の間にどのような違いがあるのかを発見し,その違いを埋めていくために取り組むべき課題を明らかにすることができる.このように,MT訳と人間訳の比較によるシステムの評価改良は有用な方法である.しかしながら,MT訳と人間訳の違いを明らかにするために両者の比較分析を計量的に行なった研究は,従来あまり見られない.ところで,人間によって書かれた文章間の比較分析は,文体論研究の分野において以前から行なわれてきている\cite{Yamaguchi79}.文体論研究の目的は,比較対象の文章の個別的あるいは類型的特徴を明らかにすることにある.文体論研究は,文章に対する直観的な印象を重視する立場と,文章が持つ客観的なデータ(文長や品詞比率など)を主に扱う計量的立場\cite{Hatano65}に分けることができる.また,別の観点からは,言語表現の特徴を作家の性格や世界観に結び付けて扱う心理学的文体論と,言語表現の特徴を記述するに留める語学的文体論\cite{Kabashima63}に分けられる.計量的・語学的文体論に分類される研究のうち,同一情報源に基づく内容を伝える文章を比較対象とした研究として,文献\cite{Horikawa79,Hasumi91}などがある.堀川は,四コマ漫画の内容を説明する文章を童話作家,小説家,学者に書いてもらい,それらの違いを分析している.蓮見は,古典の源氏物語を複数の翻訳者が現代語に翻訳した文章において,文数,文長,品詞比率などを比較分析している.本研究では,英日機械翻訳システムの翻訳品質の向上を目指し,その第一歩として,英文ニュース記事に対する人間訳とMT訳を比較し,それらの違いを計量的に分析する.人間訳とMT訳の違いは多岐にわたるため様々な観点から分析を行なう必要があるが,本稿では,英文一文に対する訳文の数,訳文の長さ,文節レベルの現象について量的な傾向を明らかにする.なお,特にMT訳には誤訳の問題があるが,本研究は,訳文の意味内容ではなく訳文の表現形式について分析するものである.すなわち,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳の分かりにくさ,不自然さの原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくことが本研究の目的である.以下,\ref{sec:method}\,節で人間訳とMT訳の比較分析方法について述べ,\ref{sec:result}\,節で分析結果を示し,考察を加える.最後に\ref{sec:conc}\,節で今回の比較分析で明らかになった点をまとめる.
V13N03-06
\label{sec:intro}意味が近似的に等価な言語表現の異形を\textbf{言い換え}と言う.言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つという問題と同様,自然言語処理における重要な問題である.言い換えの自動生成に関する工学的研究には,言い換えを同一言語間の翻訳とみなし,異言語間機械翻訳(以下,単に機械翻訳)で培われてきた技術を応用する試みが多い.たとえば,構造変換方式による言い換え生成\cite{lavoie:00,takahashi:01:c},コーパスからの同義表現対や変換パターン(以下,合わせて言い換え知識と呼ぶ)獲得\cite{shinyama:03,quirk:04,bannard:05}の諸手法は,機械翻訳向けの手法と本質的にはそれほど違わない.ただし,言い換えは入出力が同一言語であるため,機械翻訳とは異なる性質も備えている.たとえば,平易な文章に変換する,音声合成の前処理として聴き取りやすいように変換するなど,ミドルウェアとしての応用可能性が高いことがあげられる.すなわち,言い換えを生成する過程のどこかに,応用タスクに合わせた言い換え知識の使い分け,および目的適合性を評価する処理が必要になる\cite{inui:04:a}.事例集の位置付けも異なる.翻訳文書は日々生産・蓄積されており,大規模な対訳コーパスが比較的容易に利用可能である.これらは主に,翻訳知識の収集源あるいは統計モデルの学習用データとして用いられている.一方,言い換え関係にある文または文書の対が明示的かつ大規模に蓄えられることはほとんどない.\sec{previous}で述べるように,言い換えの関係にある文の対を収集して\textbf{言い換えコーパス}を構築する試みはいくらか見られるが,我々が知る限り,現在無償で公開されている言い換えコーパスはDolanら\cite{dolan:05}が開発したものしかない\footnote{Web上のニュース記事から抽出した5,801文対に対して2名の評価者が言い換えか否かのラベルを付与したコーパス.\\\uri{http://research.microsoft.com/research/nlp/msr\_paraphrase.htm}}.さらに,言い換え知識の収集源として用いられるようなコーパスはあっても,言い換えと呼べる現象の類型化,個々の種類の言い換えの特性の分析,言い換え生成技術の開発段階における性能評価などの基礎研究への用途を意図して構築された言い換えコーパスはない.我々は,言い換えの実現に必要な情報を実例に基づいて明らかにするため,また言い換え生成技術の定量的評価を主たる目的として言い換えコーパスを構築している.本論文では,このような用途を想定して,\begin{itemize}\itemどのような種類の言い換えを集めるか\itemどのようにしてコーパスのカバレージと質を保証するか\itemどのようにしてコーパス構築にかかる人的コストを減らすか\item言い換え事例をどのように注釈付けて蓄えるか\end{itemize}などの課題について議論する.そして,コーパス構築の方法論,およびこれまでの予備試行において経験的に得られた知見について述べる.以下,\sec{previous}では言い換えコーパス構築の先行研究について述べる.次に,我々が構築している言い換えコーパスの仕様について\sec{aim}で,事例収集手法の詳細を\sec{method}で述べる.予備試行の設定を\sec{trial}で述べ,構築したコーパスの性質について\sec{discussion}で議論する.最後に\sec{conclusion}でまとめる.
V20N03-07
label{sec:intro}近年,Twitter\footnote{http://twitter.com/}などのマイクロブログが急速に普及している.主に自身の状況や雑記などを短い文章で投稿するマイクロブログは,ユーザの情報発信への敷居が低く,現在,マイクロブログを用いた情報発信が活発に行われている.2011年3月11日に発生した東日本大震災においては,緊急速報や救援物資要請など,リアルタイムに様々な情報を伝える重要な情報インフラの1つとして活用された\cite{Book_Hakusho,Article_Nishitani,Book_Tachiiri}.マイクロブログは,重要な情報インフラとなっている一方で,情報漏洩や流言の拡散などの問題も抱えている.実際に,東日本大震災においても,様々な流言が拡散された\cite{Book_Ogiue}.{\bf流言}については,これまでに多くの研究が多方面からなされている.流言と関連した概念として{\bf噂},{\bf風評},{\bfデマ}といった概念がある.これらの定義の違いについては諸説あり,文献毎にゆれているのが実情である.本研究では,{\bf十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義し,その発生過程(悪意をもった捏造か自然発生か)は問わない}ものとする.よって,最終的に正しい情報であっても,発言した当時に,十分な根拠がない場合は,流言とみなす.本論文では,マイクロブログの問題の1つである,流言に着目する.流言は適切な情報共有を阻害する.特に災害時には,流言が救命のための機会を損失させたり,誤った行動を取らせたりするなど,深刻な問題を引き起こす場合もある.そのため,マイクロブログ上での流言の拡散への対策を検討していく必要があると考えられる.マイクロブログの代表的なツールとして,Twitterがある.Twitterは,投稿する文章(以下,ツイート)が140字以内に制限されていることにより,一般的なブログと比較して情報発信の敷居が低く\cite{Article_Tarumi},またリツイート(RT)という情報拡散機能により,流言が拡散されやすくなっている.実際に,東日本大震災においては,Twitterでは様々な流言が拡散されていたが,同じソーシャルメディアであっても,参加者全員が同じ情報と意識を持ちやすい構造を採用しているmixi\footnote{http://mixi.jp/}やFacebook\footnote{http://www.facebook.com/}では深刻なデマの蔓延が確認されていないという指摘もある\cite{Book_Kobayashi}.マイクロブログ上での流言の拡散への対策を検討するためには,まずマイクロブログ上の流言の特徴を明らかにする必要がある.そこで本論文では,マイクロブログとして,東日本大震災時にも多くの流言が拡散されていたTwitterを材料に,そこから481件の流言テキストを抽出した.さらに,どのような流言が深刻な影響を与えるか,有害性と有用性という観点から被験者による評価を行い,何がその要因となっているか,修辞ユニット分析の観点から考察を行った.その結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性という全く別の側面を持つ可能性があることが明らかとなった.以下,2章において関連研究について述べる.3章では分析の概要について述べる.4章で分析結果を示し,マイクロブログ上での流言について考察する.5章で将来の展望を述べ,最後に6章で本論文の結論についてまとめる.
V07N05-01
\label{sec:introduction}係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.係り受け解析には,日本語が語順の自由度が高く省略の多い言語であることを考慮して依存文法(dependencygrammar)を仮定するのが有効である.依存文法に基づく日本語係り受け解析では,文を文節に分割した後,それぞれの文節がどの文節に係りやすいかを表す係り受け行列を作成し,一文全体が最適な係り受け関係になるようにそれぞれの係り受けを決定する.依存文法による解析には,主にルールベースによる方法と統計的手法の二つのアプローチがある.ルールベースによる方法では,二文節間の係りやすさを決める規則を人間が作成する\cite{kurohashi:ipsj92,SShirai:95}.一方,統計的手法では,コーパスから統計的に学習したモデルをもとに二文節間の係りやすさを数値化して表す\cite{collins:acl96,fujio:nl97,Haruno:ipsj98,ehara:nlp98,shirai:jnlp98:1}.我々は,ルールベースによる方法ではメンテナンスのコストが大きいこと,また統計的手法で利用可能なコーパスが増加してきたことなどを考慮し,係り受け解析に統計的手法を採用することにした.統計的手法では二文節間の係りやすさを確率値として計算する.その確率のことを係り受け確率と呼ぶ.これまでよく用いられていたモデル(旧モデル)では,係り受け確率を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案する.このモデルは以下の二つの特徴を持つ.\begin{itemize}\item[(1)]二つの文節(前文節と後文節)間の関係を,「間」(前文節が二文節の間の文節に係る)か「係る」(前文節が後文節に係る)か「越える」(前文節が後文節を越えてより文末側の文節に係る)かの三カテゴリとして学習する.(旧モデルでは二文節が「係る」か「係らないか」の二カテゴリとして学習していた.)\item[(2)]着目している二つの文節の係り受け確率を求める際に,その二文節に対しては「係る」確率,二文節の間の文節に対しては前文節がその文節を越えて後文節に係る確率(「越える」の確率),後文節より文末側の文節に対しては前文節がその文節との間にある後文節に係る確率(「間」の確率)をそれぞれ計算し,それらをすべて掛け合わせた確率値を用いて係り受け確率を求める.(旧モデルでは,着目している二文節が係る確率を計算し,係り受け確率としていた.)\end{itemize}このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.
V17N01-11
筆者らは,1990年,自然言語処理のための解析辞書の日本語表記の揺れを管理することから始め,1995年に同義語辞書の初版を発行した.その後,用語の意味関係を含むシソーラスのパッケージを発売し,現在6版を重ねている.1年間に20,000語程度を追加していて,420,000語に達している.これまでのシソーラスは,主として,情報検索のキーワードを選択するための支援ツールとして開発されてきた.登録されている用語は該当する分野の専門用語が主体で,さらに品詞は名詞だけであった.そのため,情報検索を越えて,文書整理や統計処理などのために必要な構文解析や用語の標準化など,自然言語処理に利用することは難しかった.筆者らのシソーラスは,自然言語処理を目的とした一般語を主とするシソーラスである.いわゆる名詞だけでなく,動詞,形容詞,形容動詞,副詞,代名詞,擬態語さらに慣用句までを登録している.これまでのシソーラスでは,作成者の考え方で分類してあった.使用者は,その分類基準に従ってたどって探さなければならなかった.また紙面の物理的な制約もあって意味空間を1次元的に整理してあった.本来意味分類は多次元空間のはずで,筆者らのシソーラスでは,複数の観点で多次元的に分類してある.また,メール整理に代表されるような文書整理のために,時事的な用語や省略語も積極的に登録している.送り仮名や訳語などの差異による異表記語も網羅的に収集した.自然言語処理で使うことを目的としているため,テレビなどから収集した新語や,構文解析で発見した新語を登録している.用語間の意味関係として,広義—狭義(上位—下位)関係,関連関係および同義—反義関係を持っている.流動的に変化する用語の意味および用語間関係への対応とコスト・パフォーマンスの観点から,トップダウン方式ではなく,ボトムアップ方式で開発した.一般語を主体としているが,他の専門シソーラスと併合もできる.以下,(第2章)用語の収集とシソーラスの構造,(第3章)用語同士の意味関係,(第4章)パッケージソフトの機能について順次述べる.
V07N03-03
形態素解析処理とは文を形態素という文字列単位に分割し品詞情報を付与する処理である.すでに成熟している技術であるが,解析精度や速度の向上のために様々な手法を試みる余地はあり,そのための技術的な拡張要求もある.他の自然言語処理処理技術と比べ形態素解析技術は実用に近い位置にあり,それゆえ,形態素解析システムに対する現場からの使い勝手の向上のための要求が多い.その要求の一つに,多言語対応がある.インターネット上で様々な言語のテキストが行き交う現代において,特定の言語に依存しない,多種多様な言語を視野に入れた自然言語処理が必要とされている.しかし,これまでの形態素解析システムは,特定の言語,または,同系統の数言語の解析のみを念頭に置いて開発されている.本研究の目的の一つは,特定の言語に依存しない形態素解析の枠組の構築である.我々は,形態素解析処理の言語に依存した部分を考察し,その部分をできるかぎり共通化した枠組を提案する.形態素解析は自然言語処理における基本的なコンポーネントであるが,ミクロな視点から見れば形態素解析処理自体も複数のコンポーネントからなりたっている.本研究では,完成した単一のシステムとして提供するだけではなく,システムを構成しているコンポーネント単位で利用できるように設計・実装を行った.コンポーネント化により,変更箇所を最小限におさえることができ,機能拡張が容易になる.また,言語非依存化などの調整や個々のコンポーネントの評価が行いやすくなる.\ref{tok}章では,形態素解析処理の言語に依存した部分をできるかぎり共通化した言語非依存の枠組について解説する.\ref{comp}章では,形態素解析システムの主要な内部処理のコンポーネント化を行い,それを基に形態素解析ツールキットの実装を行った.個別のコンポーネントについての言語非依存性と汎用性を考察し,実装の方針について解説する.
V23N05-03
質問応答とは,入力された質問文に対する解答を出力するタスクであり,一般的に文書,Webページ,知識ベースなどの情報源から解答を検索することによって実現される.質問応答はその応答の種類によって,事実型(ファクトイド型)質問応答と非事実型(ノンファクトイド型)質問応答に分類され,本研究では事実型質問応答を取り扱う.近年の事実型質問応答では,様々な話題の質問に解答するために,構造化された大規模な知識ベースを情報源として用いる手法が盛んに研究されている\cite{kiyota2002,tunstall2010,fader2014}.知識ベースは言語によって規模が異なり,言語によっては小規模な知識ベースしか持たない.例えば,Web上に公開されている知識ベースにはFreebase\footnote{https://www.freebase.com/}やDBpedia\footnote{http://wiki.dbpedia.org/}などがあるが,2016年2月現在,英語のみに対応しているFreebaseに収録されているエンティティが約5,870万件,多言語に対応したDBpediaの中で英語で記述されたエンティティが約377万件であるのに対し,DBpediaに含まれる英語以外の言語で記述されたエンティティは1言語あたり最大125万件であり,収録数に大きな差がある.知識ベースの規模は解答可能な質問の数に直結するため,特に言語資源の少ない言語での質問応答では,質問文の言語と異なる言語の情報源を使用する必要がある.このように,質問文と情報源の言語が異なる質問応答を,言語横断質問応答と呼ぶ.こうした言語横断質問応答を実現する手段として,機械翻訳システムを用いて質問文を知識ベースの言語へ翻訳する手法が挙げられる~\cite{shimizu2005,mori2005}.一般的な機械翻訳システムは,人間が高く評価する翻訳を出力することを目的としているが,人間にとって良い翻訳が必ずしも質問応答に適しているとは限らない.Hyodoら~\cite{hyodo2009}は,内容語のみからなる翻訳モデルが通常の翻訳モデルよりも良い性能を示したとしている.また,Riezlerらの提案したResponse-based~online~learningでは,翻訳結果評価関数の重みを学習する際に質問応答の結果を利用することで,言語横断質問応答に成功しやすい翻訳結果を出力する翻訳器を得られることが示されている\cite{riezler2014,haas2015}.{Reponse-based~learningでは学習時に質問応答を実行して正解できたかを確認する必要があるため,質問と正解の大規模な並列コーパスが必要となり,学習にかかる計算コストも大きい.これに対して,質問応答に成功しやすい文の特徴を明らかにすることができれば,質問応答成功率の高い翻訳結果を出力するよう翻訳器を最適化することが可能となり,効率的に言語横断質問応答の精度を向上させることが可能であると考えられる.さらに,質問と正解の並列コーパスではなく,比較的容易に整備できる対訳コーパスを用いて翻訳器を最適化することができるため,より容易に大規模なデータで学習を行うことができると考えられる.}本研究では,どのような翻訳結果が知識ベースを用いた言語横断質問応答に適しているかを明らかにするため,知識ベースを利用する質問応答システムを用いて2つの調査を行う.1つ目の調査では,言語横断質問応答精度に寄与する翻訳結果の特徴を調べ,2つ目の調査では,自動評価尺度を用いて翻訳結果のリランキングを行うことによる質問応答精度の変化を調べる.調査を行うため,異なる特徴を持つ様々な翻訳システムを用いて,言語横断質問応答データセットを作成する(\ref{sec:dataset}節).作成したデータセットに対し,\ref{sec:QAsystem}節に述べる質問応答システムを用いて質問応答を行い,翻訳精度(\ref{sec:MTevalexp}節)と質問応答精度(\ref{sec:QAexp}節)との関係を分析する(\ref{sec:discussion1}節).また,個別の質問応答事例について人手による分析を行い,翻訳結果がどのように質問応答結果に影響するかを考察する(\ref{sec:discussion2}節).さらに,\ref{sec:discussion1}節および\ref{sec:discussion2}節における分析結果から明らかとなった,質問応答精度と高い相関を持つ自動評価尺度を利用して,翻訳$N$ベストの中から翻訳結果を選択することによって,質問応答精度がどのように変化するかを調べる(\ref{sec:nbestselect}節).{このようにして得られる知見は日英という言語対に限られたものとなるため,さらに一般化するために様々な言語対で言語横断質問応答を行い,言語対による影響を調査する({\ref{sec:exp4}}節).}最後に,言語横断質問応答に適した機械翻訳システムを実際に構築する際に有用な知見をまとめ,今後の展望を述べて本論文の結言とする(\ref{sec:conclusion}節).
V07N04-13
\label{sec:intro}テキスト自動要約は,自然言語処理の重要な研究分野である.自動要約の方法には様々なものがあるが,現在の主流は,テキスト中から重要文を抽出して,それらを連結することにより要約を生成する方法である\cite{oku99}.重要文を選ぶための文の重要度は,一般に,\begin{itemize}\item位置情報(例:先頭部分の文は重要)\item単語の重要度(例:重要単語を含む文は重要)\item文間の類似関係(例:タイトルと類似している文は重要)\item文間の修辞関係(例:結論を述べている文は重要)\item手がかり表現(例:「要するに〜」などで始まる文は重要)\end{itemize}などのテキスト中の各種特徴に基づいて決める\cite{oku99}.これらの特徴の組合せは,人手で決める\cite{edmundson69:_new_method_autom_extrac}ことも,機械学習により決める\cite{kupiec95:_train_docum_summar}こともできるが,いずれの方法で決めるとしても,それぞれの特徴を精度良く自動的に求めることが重要である.そのため,我々は,これらの特徴を個別に調査し,それぞれの自動要約への寄与を調べることを試みた.特に,本稿では,文間の類似度の各種尺度を,新聞記事要約を対象として比較した.類似度の良さは,要約の良さにより比較した.すなわち,精度の高い要約ができるような類似度ほど,高精度の類似度であると解釈した.ここで,文間の類似度を求める方法としては,単語間の共起関係を利用する方法と利用しない方法とを試みた.その結果は,共起関係を利用する方法の方が高精度であった.なお,各種の類似度を比較するための要約方法としては,タイトルとの類似度が高い文から重要文として抽出するという方法を利用した.この要約方法を利用して類似度を比較した理由は,タイトルは本文中で最も重要であるので,それとの類似度が文の重要度として利用できると考えたからである.なお,タイトルが重要であるという考えに基づく要約には,\cite[など]{yoshimi98:_evaluat_impor_senten_connec_title,okunishi98}がある.また,要約の手法としては,他に,本文の先頭数文を抽出する方法\cite{brandow95:_autom_conden_elect_public}と,単語の重要度の総和を文の重要度とする方法\cite{zechner96:_fast_gener_abstr_gener_domain}も試みたが,これらの方法よりも,タイトルとの類似度に基づく方法の方が高精度であった.これらのことから,共起関係を利用した方法によりタイトルとの類似度を求め,その類似度が高い方から重要文として抽出する方法が,自動要約に有効であることが分かった.以下では,まず,\ref{sec:measures}章で,各種の文の重要度の定義を述べ,次に,\ref{sec:expriments}章で,各種重要度を比較した実験について述べる.\ref{sec:conclusion}章は結論である.
V02N01-03
本論文では日本語の論説文を対象にした要約文章作成実験システム\G\footnote{\slGeneratorofREcapiturationsofEditorialsandNoticesの略.}(以下\Gと呼ぶ)について述べる.一般に,質の良い文章要約を行うためには,照応,省略,接続的語句,語彙による結束性,主題・話題,焦点など多くの談話現象の処理が必要であり,これらの談話現象は互いに複雑に影響しあっているので,これらの談話現象の一部のみの処理を行って要約を試みても,質の高い要約が得られる可能性は低い.本研究の目的は,以上の見地から現状で解析可能な談話要素をできるだけ多く取り込み,実際に計算機上で動作する実験的な要約作成システムを試作してその効果を検討することである.文章要約については,日本語学あるいは日本語教育の分野でも,現状では定義や手法が確立していない\cite{要約本}.本論文では,文章要約とは,重要度が相対的に低い部分を削除することであるとみなす.一般には,文章中のある部分の「重要度」は文章の種類によって異なるので,要約の方法は,文章の種類によって異なったアプローチを取る必要があると考えられる.本研究では,新聞社説などの,筆者が読者に対して何らかの主張や見解を示す文章(以下,論説文章と呼ぶ)を要約の対象にする.田村ら\cite{田村}は,文章の構造および話題の連鎖を表現する修辞構造ネットワークおよび話題構造を作成することによる要約方式を提案しているが,思考実験に留まっており,その実現には,一般的知識に関するシソーラスの構築や,修辞構造ネットワークの自動作成手法などの困難な問題が残されている.また間瀬らは,「重要文に比較的よく出現する表層的特徴を多種類含んでいる文が真の重要文である」という仮定に基づき,題名語,高頻度名詞,主題(助詞「は」)などのパラメータを総和することによって重要語を決定し,要約文を選択するという統計的手法に基づく要約法を提案している\cite{杉江}.本研究では,要約中で原文章の文をそのまま使用するのではなく,文内で比較的重要度が低いと考えられる連体修飾要素の削減も行った.一方,本手法は文章内の談話構造の利用による文章要約を試みたものであり,\cite{杉江}などの従来の抄録作成に使用されてきた語の頻度に関する情報は,使用しなかった.また,前述の両論文でも使用している文章のタイトル(題名)の情報も,タイトルはそもそも文章の「究極的な要約」であるという立場から,要約処理への使用は循環論的であると考えられるので,本手法では利用しなかった.以下,\ref{システム}節で,\Gのシステム構成を述べる.\ref{要約文選択}節から\ref{段落分け}節で,要約文の選択,一文内で修飾語を削減することによる文長の短縮法,要約文章の段落分け,のシステム各部の詳細を述べる.\ref{評価}節では,アンケート調査に基づき\Gを評価する.\ref{議論}節では,大量の要約文生成で明らかになった問題点や,得られた知見を紹介する.本論文では要約実験対象として日本経済新聞の社説を用いた.論文中の例文,要約例は,[例文\ref{作例から}]〜[例文\ref{作例まで}]を除いてすべて1990年9月と1990年11月の同社説から引用したものである.
V05N04-05
WWWの普及とともに多言語情報検索,とりわけ,クロス言語検索(crosslanguageinformationretrieval,CLIR)に対するニーズが高まっている.CLIRによって,例えば,日本語の検索要求(キュエリ)によって英語ドキュメントの検索が可能となる.CLIRは,キュエリもしくは検索対象となるドキュメントの翻訳が必要となるので,IRよりも複雑な処理が必要となる\cite{hull97}.CLIRの多くは,キュエリを翻訳した後,情報検索を行なう.キュエリの各タームには,訳語としての曖昧性が存在するため,CLIRの精度は単言語でのIRよりも低い.特に日英間では,機械翻訳の訳語選択と同様に,対訳の訳語候補が多いので困難である\cite{yamabana96}.機械翻訳の訳語選択手法として,コンパラブルコーパスでの単語の文内共起頻度に基づいたDoubleMAXimize(DMAX)法が提案されている\cite{yamabana96,doi92,doi93,muraki94}.DMAX法は,ソース言語コーパスにおいて最大の共起頻度を持つ2つの単語に着目し,その2つの単語の訳語候補が複数ある場合,正しい訳語は,コンパラブルなコーパスにおいても最大の共起頻度を有するという事実に基づいた訳語選択手法である.機械翻訳においては,一つの単語は一意に訳されるべきであるが,CLIRにおいては,キュエリのタームは適切な複数のタームに訳される方が精度良く検索できることもある.シソーラスや他のデータベースによって適切に展開されたキュエリのタームは良い検索結果を導くことが報告されている\cite{trec,trec4}.CLIRにおけるキュエリタームの訳語選択の問題を解決するために,DMAX法を一般化したGDMAX法を提案する.GDMAX法では,コンパラブルコーパスを用いてキュエリタームの共起頻度を成分とする共起頻度ベクトルを生成し,入力キュエリと翻訳キュエリの類似度をベクトルとして計算して類似性の高い翻訳キュエリを選択する.本報告では,まず,CLIRにおけるキュエリの翻訳の課題について説明し,次に,GDMAX法によるキュエリタームの翻訳・生成ついて説明する.GDMAX法に関して,TREC6(TextRetrievalConference)の50万件のドキュメントと15の日本語キュエリを用いて実験したので報告する\cite{trec}.
V09N05-05
本研究の目的は自然言語の意味理解に必要な連想システムの開発である.例えば,“冷蔵庫に辞書がある”と人間が聞けば,冷蔵庫に辞書があることを奇妙に思い“本当ですか”と聞き返したり,誤りの可能性を考えることができるだろう.しかし,計算機ではこのような処理は困難である.これは,人間なら冷蔵庫と辞書には関係がないことを判断できたり,最初の冷蔵庫という語から辞書を連想することができないためである.このような語間の関係の強さを求める機能や,ある語に関係のある語を出力する機能を持った連想システムの開発が本研究の目的である.従来,連想ではシソーラスや共起情報などがよく用いられるが,シソーラスでは語の上位下位関係を基本とした体系しか扱えず,共起情報では人間の感覚とは異なる場合も多く十分ではない.本研究において,連想システムは語の意味と概念を定義する概念ベースおよび概念ベースを用いて語間の関連の強さを評価する関連度計算アルゴリズムで構成されている.最初の概念ベース(基本概念ベース)は複数の国語辞書から機械構築され,語は属性とその重みのペア集合により定義される.語は国語辞書の見出し語から,属性は説明文の自立語から,その重みは自立語の出現頻度をベースに決定されている\cite{Kasahara1997}.概念ベースは大規模であるため,一度に完成させることは困難であり,継続的に構築する必要がある.機械構築した概念ベースは,不適切な属性(雑音)が多く含まれ,自立語の出現頻度による重みでは,属性の意味的な重要性を正確に表現しているとは言えない.そこで,概念ベースの属性や重みの質を向上する精錬が必要となる.本稿では精錬方式として属性の確からしさ(属性信頼度)\cite{Kojima2001}を用いた重み決定方式を提案している.以下,2章では概念の定義と概念ベースについて述べる.3章では概念ベースの構築や評価に用いる関連度の定義について述べる.4章では属性信頼度を用いた概念ベースの精錬方式について述べる.5章では概念ベースの評価法について述べ,精錬後の概念ベースの評価結果について考察する.
V10N04-02
label{sec:INTRO}音声対話は,人間にとって機械との間のインターフェースとして最も望ましいものである.しかし,音声対話システムが日常にありふれた存在となるためには,人間の使用する曖昧で誤りの多い言葉,いわゆる話し言葉に対応できなければいけない.そのためには,繰り返し,言い淀み,言い直し,助詞落ち,倒置などの不適格性とよばれる現象に対処できる必要がある\cite{YM1992,DY1997}.これらの不適格性の中で特に問題となるのは,言い直しあるいは自己修復と呼ばれている現象である.ユーザの発話中に自己修復が存在した場合,システムはその発話の中から不必要な語を取り除き,受理可能な発話を回復する必要がある.この自己修復に関する研究は,英語に関するものでは,\cite{HD1983,BJ1992,OD1992,NC1993,HP1997,CM1999}などがあり,日本語に関するものでは,\cite{SY1994,KG1994,IM1996,DY1997,NM1998,HP1999}などがある.しかしながらこれらの論文で提案されている手法では,自己修復を捉えるモデルに不十分な点があり,ソフトウェアロボットとの疑似対話コーパス\cite{QDC}に見られるような表現をカバーできない.また,自己修復を検出した後の不要語の除去処理に関しても十分な手法を与えていない.本論文では,日本語の不適格性,特に自己修復に対処するための新しい手法を提案する.この手法では,従来の手法では捉えられなかった自己修復を捉える事ができるように自己修復のモデルを拡張する.そして,表層及び意味レベルでのマッチングを用いた自己修復の解消法を提案する.まず,\ref{sec:ILL_FORMEDNESS}節では不適格性とその中での自己修復の位置づけについて述べる.\ref{sec:PARSER}節では,本論文で用いるパーザと文法について述べる.\ref{sec:SC}節では,本論文で提案する自己修復の処理手法について述べる.そして\ref{sec:EVAL}節では,提案手法をコーパスに対して適用した結果に基づいて考察する.
V14N01-05
label{sec:Introduction}参照表現の生成は自然言語処理の重要なタスクの1つであり~\cite{BD2003},多くの研究者により様々な手法が提案されてきた~\cite{DA1985,RD1991,RD1992,RD1995,EK2002,EK2003}.参照表現生成に関する従来の研究は,主に対象物体固有の属性と他の物体との関係を扱ってきた.ただし,他の物体との関係は2項関係のみである.そのため従来の手法では,指示すべき物体とその他の物体との間に外見的特徴の差異が少なく,他の物体との2項関係も弁別の用を成さない状況において,適切な参照表現を生成することができない.ここで適切な参照表現とは,自然で過度な冗長性のない表現のことを言う.\begin{figure}[b]\begin{center}\includegraphics{14-1ia5f1.eps}\end{center}\caption{従来手法で表現生成が困難な例}\label{fig:Problem}\end{figure}例として,図~\ref{fig:Problem}において対象物体$c$を人物$P$に示すことを考える.対象物体$c$は,外見からは物体$a$や物体$b$から区別することができない.そこで次の方策として,対象物体$c$とテーブルとの間の関係を用いることが考えられる(例えば,「テーブルの右の玉」).しかし,物体$a$も物体$b$もテーブルの右にあるため,この状況においては「$X$の右の$Y$」という関係に弁別能力はない.テーブルの代わりに物体$a$や物体$b$を参照物として使うことも意味がない.なぜなら物体$a$および物体$b$は物体$c$が一意に特定できないのと同じ理由によって一意に特定することができないからである.このように,物体の属性と2項関係のみを用いる従来の手法では参照表現の生成に失敗する.手法によっては「玉の前の玉の前の玉」のような論理的には誤りでない表現を生成できるが,適切な参照表現ではない.このような状況は今まで注目されてこなかったが,物体配置の様な状況(例えば\cite{TH2004})では頻繁に起こりうる.この場合,「一番手前の玉」という表現が自然かつ簡潔であると考えられる.このような参照表現を生成するためには,話し手は知覚的に特徴のある物体群を認識し,群に含まれる物体の間の$n$項関係を用いる必要がある.この問題に対し,我々は知覚的群化~\cite{KT1994}を用いて物体群を認識し,物体群の間の関係を用いて参照表現を生成する手法を提案した~\cite{KF2006}.知覚的群化(perceptualgrouping)とは外見的に類似した物体や相互に近接した物体を1つの群として認識することである.我々の提案した手法によって物体の$n$項関係を利用した参照表現の生成が可能となったが,この手法の想定する状況は同形同色同大の物体を複数配置した2次元空間という非常に限られたものであったため,一般的な状況には対応できなかった.本論文では,我々が提案した手法を拡張し,従来より利用されてきた色,形,大きさ等の属性や2項関係も利用できる,知覚的群化に基づく参照表現の生成手法を提案する.\cite{KF2006}では,知覚的群化を利用して参照表現を生成するために,参照表現と参照する空間の状況とを結びつけるSOG(SequenceofGroups)という中間表現形式を提案した.本論文では,SOGを包含関係以外の関係や物体の属性も表現できるように拡張する.そして拡張したSOGを用いた生成手法を提案し,大学生18人に対する心理実験によって実装システムが生成した参照表現を評価する.本論文の構成は以下の通りである.まず\ref{sec:SOG}節では\cite{KF2006}で提案したSOGについて説明し,その拡張を行なう.\ref{sec:Generation}節では拡張したSOGを用いて知覚的群化に基づく参照表現生成手法を提案する.そして提案手法の評価と考察を\ref{sec:EvalAndDiscussion}節に示す.最後に\ref{sec:Conclusion}節で本論文の結論と今後の課題を述べる.
V25N01-03
オンラインショッピングでは出店者(以下,店舗と呼ぶ)と顔を合わせずに商品を購入することになるため,店舗とのやりとりは顧客満足度を左右する重要な要因となる.商品の購入を検討しているユーザにとって,商品を扱っている店舗が「どのような店舗か」という情報は,商品に関する情報と同じように重要である.例えば,以下に示す店舗A,Bであれば,多くのユーザが店舗Aから商品を購入したいと思うのではないだろうか.\begin{figure}[b]\begin{center}\includegraphics{25-1ia3f1.eps}\end{center}\hangcaption{楽天市場における店舗レビューの例.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)がメタデータとして付いている.自由記述部分を読むと,発送が遅れているにも関わらず,店舗から何の連絡も来ていないことがわかる.店舗からの連絡に関する評価は,評価対象となっている6つの観点では明確に捉えられていない.}\label{review}\end{figure}\begin{description}\item[店舗A:]こまめに連絡をとってくれ,迅速に商品を発送してくれる\item[店舗B:]何の連絡もなく,発注から1週間後に突然商品が届く\end{description}ユーザに対して店舗に関する情報を提供するため,楽天市場では商品レビューに加え,店舗に対するレビューの投稿・閲覧ができるようになっている.店舗レビューの例を図\ref{review}に示す.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)が閲覧可能である.この5段階評価の結果から店舗について知ることができるが,評価値からでは具体的にどう良かったのか,どう悪かったのかという情報は得られないのに加え,ここに挙がっている観点以外の情報も自由記述に含まれているため,店舗をより詳細に調べるには自由記述に目を通す必要がある.そのため,レビュー内の各文をその内容および肯定,否定といった評価極性に応じて分類することができれば,店舗の良い点,悪い点などユーザが知りたい情報へ効率良くアクセスできるようになり,今まであった負担を軽減することが期待できる.このような分類は,オンラインショッピングサイトの運営側にとっても重要である.例えば楽天では,より安心して商品を購入してもらえるように,ユーザに対する店舗の対応をモニタリングしており,その判断材料の1つとして店舗レビューの自由記述部分を用いている.そのため,レビューに含まれる各文を自動的に分類することで,問題となる対応について述べられた店舗レビューを効率良く発見できるようになる.こうした背景から,我々は店舗レビュー中の各文を記述されている内容(以下,アスペクトと呼ぶ)およびその評価極性(肯定,否定)に応じて分類するシステムの開発を行った.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず無作為に選び出した店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,14種類のアスペクトについて書かれていることがわかった.次いでこの調査結果に基づき,新しく選び出した1,510件の店舗レビュー(5,277文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類するシステムを開発した.アスペクト分類の際は,2つの異なる機械学習手法により得られた結果を考慮することで,再現率を犠牲にはするものの,1つの手法で分類する場合より高い精度を実現している.このように精度を重視した理由は,システムの結果をサービスや社内ツールとして実用することを考えた場合,低精度で網羅的な結果が得られるよりも,網羅的ではないが高精度で確実な結果が得られた方が望ましい場合が多いためである.例えば1つの機能として実サービスに導入することを考えた際,誤った分類結果が目立つと機能に対するユーザの信頼を失う要因となる.このような事態を回避するため,本手法では精度を重視した.以降,本稿では店舗レビュー中に記述されているアスペクト,機械学習を使ったアスペクト・評価極性の分類手法について述べた後,構築した店舗レビュー分析システムについて述べる.
V03N02-03
国文学研究は,わが国の文学全体に渡る文学論,作品論,作家論,文学史などを対象とする研究分野である.また,広く書誌学,文献学,国語学などを含み,歴史学,民俗学,宗教学などに隣接する.研究対象は上代の神話から現代の作品まで,全ての時代に渡り,地域的にも歴史上のわが国全土を網羅する.文学は,人の感性の言語による表出であるから,国文学は日本人の心の表現であり,日本語を育んだ土壌であると言える.すなわち,国文学研究は現代日本人の考え方と感じ方を育てた土壌を探る学問であると言える.文学研究の目標は,文学作品を通じて,すなわち文字によるテキストを主体として,思潮,感性,心理を探求することである.テキストは単なる文字の羅列ではなく,作者の思考や感情などが文字の形で具象化されたものであるから,研究者は書かれた文字を「ヨム」ことによって,作者の思考や感情を再構築しようとする.換言すれば,文学作品を鑑賞し,評論し,その作品を通しての作者の考え方を知ることである.なお,「ヨム」こととは,読む,詠む,訓むなどの意味である.最近,国文学とコンピュータの関わりに対する関心が高まり,議論が深まってきた\cite{Jinbun1989-1990}.元来,国文学にとってコンピュータは最も縁遠い存在と見られてきた.国文学者からみれば,コンピュータに文学が分かるかとか,日本語のコンピュータが無いなどの理由である.一方では,コンピュータへ寄せる大きな期待と,現状との落差から来る批判もある\cite{Kokubun1982,Kokubun1992,Kokubun1989-1994}.現在,文学研究にコンピュータが役立つかを確かめることが必要となった.日本語処理可能なパソコンなどの普及により,国文学者の中でも\cite{DB-West1995},自身でテキストの入力を行い,また処理を始めている.しかし,未だほんの一部であって,普及にはほど遠く,またワープロ的な利用が多い.コンピュータは,単に「ハサミとノリ」の役割\cite{Murakami1989}であるとしても,その使い方によっては,かなり高度な知的生産のツールに成り得る.また,研究過程で使われる膨大な資料や情報と,それから生成される多様なデータや情報の取り扱いには,コンピュータは欠かせないに違いない.具体的にコンピュータの活用を考えるためには,文学の研究過程の構造認識が必要である.文学研究は個人的と言われるが,この研究過程が普遍化できれば,モデルが導出できる.すなわち,コンピュータの用途が分かってくる.本稿では,国文学研究資料館における事例に基づき,国文学とコンピュータの課題について考える.国文学研究資料館は,国の内外に散在する国文学資料を発掘,調査,研究し,収集,整理,保存し,広く研究者の利用に供するために,設立された大学共同利用機関である.また,国文学研究上の様々な支援活動を行っている\cite{Kokubun1982}.本稿は,以下のような考察を行っている.2章では,国文学の研究態様を分析し,情報の種類と性質を整理し,研究過程を解明し,モデル化を行っている.3章では,モデルを詳細に検討し,定義する.また,モデルの役割をまとめ,コンピュータ活用の意味を考える.4章は,モデルの実装である.研究過程で利用され,生成される様々な情報資源の組織化と実現を行う.そのために,「漱石と倫敦」考という具体的な文学テーマに基づき,システムの実装を行い,モデルの検証を行った.その結果,モデルは実際の文学研究に有効であること,とくに教育用ツールとして効果的であるとの評価が得られた.
V07N05-02
label{sec:intr}構文解析は自然言語処理の基礎技術として研究されてきたものであり,それを支える枠組の一つに言語学上の理論があると考えるのが自然であろう.過去においては言語に関する理論的理解の進展が解析技術の開発に貢献していたことは改めて述べるまでもない.しかし,現状はそうではない.現在開発されている様々な解析ツールには文法理論との直接的な関係はない.形態素解析や係り受け解析には独自のノウハウがあり,またそうしたノウハウは言語学上の知見とは無関係に開発されている.そのような事情の背景には,自然言語処理に文法理論を導入することは実用向きではない,という見解があった.また,そもそも自然言語処理という工学的な技術が文法理論の応用として位置付けられるものであるかどうかすら明確ではない.工学的なシステムは,1970年代,学校文法を発展させたものか,60年代の生成文法などにもとづいて開発されていた.そのようなアプローチの問題は個別的な規則を多用したことにあり,様々な言語現象にわたる一般性が捉えられないばかりか,肥大した文法は処理効率の面でも望ましいものではなかった.素性構造(featurestructure)の概念の形式化が進んだ80年代は,それを応用した構文解析などの研究が行われていた.研究の関心は専ら単一化(unification)という考え方が言語に特徴的な現象の説明に有効かどうかを明らかにすることであった.そのため構文解析器の開発は文法の構築と並行して行われたものの,実用面より理論的な興味が優先された.90年代になると,コーパスから統計的推定によって学習した確率モデルを用いる手法が,人手で明示的に記述された文法に匹敵する精度を達成しつつあった.しかしながら,コーパスだけに依存した方法も一つの到達点に達し,そろそろ限界が感じられてきている.これらの文法システムに共通する特徴は,自然言語に関する様々な知見を何らかの計算理論にもとづいて実装しようと試みていることである.そのような知見は言語に関する人間の認知過程の一端を分析して得られたものに他ならないが,そもそも人間の情報処理というものが他の認知活動と同様に部分的な情報を統合して活動の自由度をできるだけ小さく抑えているようなものであるならば,言語も人間が処理している情報である以上,そのような性質を持つものと考えることができる.その意味で,構文解析が果たすべき役割とは,文の構造といった言語に関する部分的な情報を提供することで可能な解析の数を抑制することにあり,またより人間らしい,あるいは高度な自然言語処理に向けての一つの課題は,そのような言語解析における部分的な情報の統合にあると考えることができる.本論文ではこういう前置きをおいた上で,現在NAISTで開発中の文法システムを概観し,自然言語処理に文法理論を積極的に導入した構文解析について論じてみたいと思う.言語データを重視する帰納的な言語処理とモデルの構築を優先する演繹的な文法理論を両立させた本論のアプローチは,どちらか一方を指針とするものよりも,構文解析,あるいは言語情報解析においてシステムの見通しが良いことを主張する.また,このような試みが自然言語処理における実践的な研究に対してどのようなパースペクティブを与えるか,ということも述べてみたい.本論文の構成は以下のとおりである.文法理論は言語の普遍的な(universal)性質を説明する原理の体系であるが,\ref{sec:jpsg}節では,言語固有の(language-specific)データを重視して構築していながらも普遍的体系に包含されるような日本語文法の骨子を明示的に述べる.\ref{sec:jl}節以下は,日本語特有の現象についての具体的分析を示す.形式化が進んでいる格助詞,取り立て助詞,サ変動詞構文を例に.言語現象の観察・基本事項の抽出を踏まえた上で,断片的な現象の間に潜む関連性が我々の提案する文法に組み込まれた一般的な制約によって捉えられることを示す.\ref{sec:adn}節では,本論の構文解析の問題点の一つ,連体修飾の曖昧性について検討する.一般に,コーパス上の雑多な現象を説明するための機構を文法に対して単純に組み込んでしまうと曖昧性は増大する.しかし,格助詞に関わる連体修飾については,文法全体を修整することなく不必要な曖昧性を抑えることができる.ここでは各事例の検討を交えながら,その方法について述べる.\ref{sec:cncl}節は総括である.本論文が示したことを簡単にまとめ,締めくくりとする.\setcounter{section}{1}
V02N01-01
\label{sec:hajime}機械翻訳システムを使用する時,利用者はシステム辞書に登録されていない単語や,登録されているが,訳語が不適切な単語に対して,利用者辞書を作成して使用することが多い\cite{Carbonell:1992}.しかし,辞書に新しく単語を登録する際は,登録する語の見出し語,訳語の他に,文法的,意味的な種々の情報を付与する必要がある.高い翻訳品質を狙ったシステムほど,利用者辞書にも詳細で正確な情報を必要としており\cite{Ikehara:1993,Utsuro:1992},素人の利用者がそれらの情報を正しく付与するのは簡単でない\footnote{単語意味属性を付与するには,通常のシステムの意味属性を理解していることが必要であるが,一般の利用者には簡単でない.}.例えば,日英機械翻訳システムALT-J/Eでは,意味解析のため約3,000種の精密な意味属性体系\footnote{単語の意味的用法を分類したもので,各要素となる名詞に着目した動詞の訳し分けにおいて,ほぼ必要十分といえる意味属性分解能が約2,000種類であることを示し,実際に名詞の意味属性を3,000種に分類している.詳細は\cite{Ikehara:1993}を参照のこと.}を持っており,利用者辞書の単語を登録する際は,各単語にこの意味属性体系に従って意味的用法(一般に複数)を指定する必要がある\cite{Ikehara:1989b,Ikehara:1989a}.この作業は熟練を要し,一般の利用者には困難であるため,従来から自動化への期待が大きかった.そこで本論文では,利用者登録語の特性に着目し,利用者が登録したい見出し語(単一名詞または複合名詞)に対して英語訳語を与えるだけで,システムがシステム辞書の知識を応用して,名詞種別を自動的に判定し,名詞種別に応じた単語の意味属性を推定して付与する方法を提案する.また,自動推定した利用者辞書を使用した翻訳実験によって,方式の効果を確認する.具体的には,名詞を対象に,与えられた見出し語と訳語から主名詞と名詞種別(一般名詞,固有名詞)を判定し,それぞれの場合に必要な単語意味属性を自動推定する方法を示す.また,適用実験では,まず,本方式を,新聞記事102文とソフトウエア設計書105文の翻訳に必要な利用者辞書の作成に適用して,自動推定した単語意味属性と辞書専門家の付与した単語意味属性を比較し,精度の比較を行う.次に,これらの意味属性が翻訳結果に与える影響を調べるため,(1)意味属性のない利用者辞書を使用する場合,(2)自動推定した意味属性を使用する場合,(3)専門家が利用者登録語の見出し語と訳語を見て付与した意味属性を使用する場合,(4)正しい意味属性(専門家が翻訳実験により適切性を最終的に確認した意味属性)を使用した場合,の4つの場合について翻訳実験を行う.\vspace{-0.2mm}
V26N03-04
本研究では眼球運動に基づき文の読み時間を推定し,ヒトの文処理機構の解明を目指すとともに,工学的な応用として文の読みやすさのモデル構築を行う.対象言語は日本語とする.データとして\ref{subsec:bccwj-eyetrack}節に示す『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}を用いる.\ref{subsec:prev}節に示す通り,過去の研究は統語・意味・談話レベルのアノテーションを重ね合わせることにより,コーパス中に出現する言語現象と読み時間の相関について検討してきた.一方,Haleは,\modified{言語構造の頻度(Structuralfrequency)}が文処理過程に影響を与えると言及し,漸進的な文処理の困難さについて情報量基準に基づいたモデルをサプライザル\modified{理論}(SurprisalTheory)として定式化している\cite{Hale-2001}.このサプライザル\modified{理論}に基づく日本語の読み時間の分析が求められている.しかしながら,日本語においては,心理言語学で行われる読み時間を評価する単位と,コーパス言語学で行われる頻度を計数する単位に齟齬があり,この分析を難しくしていた.具体的には,前者においては一般的に統語的な基本単位である文節が用いられるが,後者においては斉一な単位である短い語(国語研短単位など)が用いられる.この齟齬を吸収するために,単語埋め込み\cite{Mikolov-2013a}の利用を提案する.単語埋め込みは前後文脈に基づき構成することにより,単語の置き換え可能性を低次元の実数値ベクトル表現によりモデル化する.このうちskip-gramモデルは加法構成性を持つと言われ\footnote{\modified{原論文\cite{Mikolov-2013b}5節AdditiveCompositionalityを参照.}},句を構成する単語のベクトルの線形和が,句の置き換え可能性をモデル化できる\cite{Mikolov-2013b}.日本語の単語埋め込みとして,『国語研日本語ウェブコーパス』(NWJC)\cite{Asahara-2014}からfastText\cite{fastText}により構成したNWJC2vec\cite{nwjc2vec}を用いた.ベイジアン線形混合モデル\cite{Sorensen-2016}に基づく統計分析\footnote{\modified{本研究では,複雑な要因分析の際にモデルの収束が容易なベイズ主義的な統計分析を行う.頻度主義的な統計分析を用いない理由については,『言語研究』論文\cite{Asahara-2019d}の付録を参照されたい.}}の結果,skip-gramモデルに基づく単語埋め込みのノルムと隣接文節間のコサイン類似度が,読み時間を予測する因子となりうることが分かった.前者のノルムが\modified{読み時間を長くする文節の何らかの特性}を,後者の隣接文節間のコサイン類似度が隣接\modified{尤度}をモデル化すると考える.\modified{「隣接尤度」は文節のbigram隣接尤度のようなものを想定する.}以下,\ref{sec:related}節に前提となる関連情報について示す.\ref{sec:method}節に分析手法について示す.4節に結果と考察について示し,5節でまとめと今後の展開を示す.
V25N01-01
人工知能分野の手法や技術を,金融市場における様々な場面に応用することが期待されており,例えば,膨大な金融情報を分析して投資判断の支援を行う技術が注目されている.その一例として,日本銀行が毎月発行している「金融経済月報」や企業の決算短信,経済新聞記事をテキストマイニングの技術を用いて,経済市場を分析する研究などが盛んに行われている\cite{izumi,kitamori,Peramunetilleke,sakai1,sakaji}.日経リサーチでは,各種データを収集し,様々なデータベースを構築している.データ処理にあたっては,たとえばXBRL形式のように値に付与されたタグ等の付加情報を利用し,自動分類によるデータベース化を行っている.しかしデータ分類用付加情報が付与されているデータはまだ少数で,データベース構築の多くは自動分類化がすすんでおらず,人手をかけた作業による分類が大半を占めている.手作業で必要な情報を抽出するには,専門的知識や経験が必要となる.そのような環境の中,「株主招集通知の議案別開始ページの推定」を研究課題として設定した\footnote{株主招集通知から推定するべき情報は人事案件など他にもあり,そのような他テーマへの応用も可能である.}.企業が株主総会を開催する場合,企業は招集の手続きが必要になる.会社法では公開会社である株式会社が株主総会を招集する場合,株主総会の日の二週間前までに,株主に対してその通知を発しなければならないと定めている(会社法第二百九十九条).また,株式会社が取締役会設置会社である場合,その通知は書面で行わなければならない(会社法第二百九十九条第二項).この株主総会に関する書面通知が株主招集通知である.取締役会設置会社においては,定時株主総会の招集の通知に際し,取締役会の承認を受けた計算書類及び事業報告を提供しなければならない,株主総会の目的が役員等の選任,役員等の報酬等,定款の変更等に係る場合,当該事項に係る議案の概要を通知する必要がある等,会社法および株主招集通知にて通知する事項は会社法および会社法施行規則で定められている(会社法第二百九十八条,会社法施行規則第六十三条).一般的な株式公開会社の株主招集通知は,株主総会の日時・場所・目的事項(報告事項・決議事項)が記載される他,参考書類・添付書類として決議事項の議案概要,事業内容等の株式会社の現況に関する事項,株式に関する事項,会社役員に関する事項,会計監査人の状況,計算書類,監査報告書等が記載される.記載内容が法令で定められている株主招集通知だが,有価証券報告書等のように様式が定められておらず,その形式は記載順序や表現方法を含め各社で異なっており,ページ数も数ページのものから100ページを超えるものもある.今回の研究の対象は,株主招集通知に記載されている決議事項に関する議案である.議案については,その記載がどのページにあるか,何の事項の前後に記載されるかは各社各様であり,多様なパターンを識別するには株主招集通知を読み解く経験を積む必要があった.従来は抽出したい議案(「取締役選任」「剰余金処分」などの項目)が報告書のどのページに記載されているか人手により確認し,データを作成していたが,各社で報告書のページ数や議案数が異なるため,確認に時間を要していた.現状は,株主招集通知を紙で印刷するとともに,PDFファイルで取得,人手にてデータベースに収録,校正リストの出力,チェックという流れで収録業務を行っている.ここで,抽出したい議案がその報告書にあるのか,どのページに記載されているのかが自動で推定できれば,時間の短縮やペーパーレス化などの業務の効率化につながる.したがって本研究の目標は,株主招集通知の各ページが議案の開始ページであるかそうでないかを判別し,さらに,開始ページであると判断されたページに記述されている議案が,どのような内容の議案であるかを自動的に分類することである\footnote{上記のようなアプローチを採用した理由は,最初に議案の開始ページを推定することで,議案分類に使用する文書を絞り込むためである.}.株主招集通知の開示集中時期には,短時間に大量の処理を進めるため,臨時的に収録作業者を配置し,データ入力を行う.臨時作業者には,株主招集通知の理解から始まり,収録定義に関する教育時間や練習時間が2日程度必要となる.この教育時間を経て,実際のデータ入力を始めると,慣れるまでは1社あたりのデータベース化に1時間半〜2時間を要し,本研究で対象としている議案分類のみの作業でも,慣れた作業者さえ数分かかる.特に議案など必要なページにたどりつくまでに株主招集通知を一枚一枚めくって探すこと,議案分類について議案タイトルやその詳細から対応する語を見つけ出すことに時間を要している.処理・判断が早くなるには,各社で異なる株主招集通知の構成を見極め,構造の特徴をつかむことが必要になる.しかし,これらの勘をつかむには,およそ1週間程度かかっている.さらに,信頼性の高いデータ収録ができるようになるには,3ヶ月以上を要している.本研究によるシステムによって,これらの構造理解と勘の習得が不要になると共に,議案の開始ページの推定や議案内容が分類されることにより,当該部分の1社あたりにかかる処理時間の短縮が期待される.さらに,理解の十分でない作業者の判断ミスや判断の揺れが減少し,信頼度の高いデータ生成を支えることとなる.その結果,データベース収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることが可能となる.一般的に株主は,株主招集通知に掲載されている議案を確認し,「この議案に賛成もしくは反対」の判断をしている.多数の企業の株式を保有している株主は,これに時間がかかることが推測される.株主招集通知に載っている議案が分類されれば,議案の内容をより早く把握することができ,判断に集中できるようになると考える.ここで,本論文で提案するシステムの全体像について述べる.本論文で提案するシステムは,株主招集通知を入力として,表\ref{sc_miss}に示すような結果を返すシステムである.この結果を得るためには,まず議案が何ページから記載されているのかを推定する必要がある.そして推定したページに対して,議案がいくつ存在し,どの議案分類に分類されるかを自動で行う.\begin{table}[t]\caption{出力結果}\label{sc_miss}\input{01table01.tex}\end{table}本論文の第2章では議案がある開始ページの推定について述べる.第3章から第5章では各議案分類の手法について詳細な内容について述べる.第6章では各手法の評価を適合率,再現率,F値を用いて述べる.第7章では第6章の評価結果を踏まえて考察を述べる.第8章では応用システムについて述べる.第9章では関連研究について述べ,関連研究と本研究の違いについて述べる.\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f1.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例1}\label{expdf1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f2.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例2}\label{expdf2}\end{figure}
V10N05-05
インターネットが急速に広まり,その社会における重要性が急速に高まりつつある現在,他言語のウェブ情報を閲覧したり,多言語で情報を発信するなど,機械翻訳の需要は一層高まっている.これまで,機械翻訳の様々な手法が提案されてきたが,大量のコーパスが利用可能となってきたことにともない用例ベース翻訳\cite{Nagao1984}や統計ベース翻訳\cite{Brown1990}が主な研究対象となってきている.本稿は前者の用例ベース翻訳に注目する.用例ベース翻訳とは,翻訳すべき入力文に対して,それと類似した翻訳用例をもとに翻訳を行なう方式である.経験豊かな人間が翻訳を行う場合でも用例を利用して翻訳を行っており,この方式は他の手法よりも自然な翻訳文の生成が可能だと考えられる.また,用例の追加により容易にシステムを改善可能である.以上のような利点を持つものの,用例ベース方式は翻訳対象領域をマニュアルや旅行会話などに限定して研究されている段階であり,ウェブドキュメント等を翻訳できるような一般的な翻訳システムは実現されていない.その実現が困難な理由の一つに,用例の不足が挙げられる.用例ベース翻訳は入力文とできるだけ近い文脈をもつ用例を使うため,用例は対訳辞書のように独立した翻訳ペアではなく,まわりに文脈を持つことが必要である.つまり,用例中のある句が相手側言語のある句と対応するというような対応関係が必要となる.用例ベース翻訳を実現するためには大量の用例が必要だが,人手でこのような用例を作成するのは大量のコストがかかる.そこで,対訳文に対して句アライメントを行い用例として利用できるように変換する研究が90年代初頭から行われてきた.当初は,依存構造や句構造を用いた研究が中心であったが\cite{Sadler1990,Matsumoto1993,Kaji1992},構文解析の精度が低いために実証的な成果が上がらなかった.その後には,構造を用いず用例を単なる語列として扱った統計的手法が研究の中心となっている\cite{北村1997,Sato2002}.統計的手法によって対応関係を高精度に得ることは可能だが,そのためには大量の対訳コーパスが必要となる.近年は構文解析の精度が日英両言語で飛躍的に向上し,再び構造的な対応付けが試みられている.Menezes等\cite{Menezes2001}は,マニュアルというドメインで依存構造上の句アライメントを行なっている.今村\cite{今村2002}は,旅行会話というドメインで句構造的上の句アライメントを行なっている.これらの先行研究は,限定されたドメインのパラレリズムが高いコーパスを扱っており,一般的なコーパスが用いられていない.本稿はコーパスに依存しない対応付けを実現するために依存構造上の位置関係を一般的に扱い,対応全体の整合性を考慮することにより対応関係を推定する.これは,\cite{Watanabe2000}を基本句の概念を導入して発展させたものである.本稿の構成は以下のとおりである.2章で提案手法について述べる.3章で実験と考察を述べ,4章にまとめを付す.
V10N02-06
近年,情報化社会の進展と共に大量の電子化された文書情報の中から,自分が必要とする文書情報を効率良く検索することの必要性が高まり,従来のKW検索に加えて,全文検索,ベクトル空間法による検索,内容検索,意味的類似性検索など,さまざまな文書検索技術の研究が盛んである.その中で,文書中の単語を基底とする特性ベクトルによって文書の意味的類似性を表現するベクトル空間法は,利用者が検索要求を例文で与える方法であり,KW検索方式に比べて検索条件が具体的に表現されるため,検索精度が良い方法として注目されている.しかし,従来のベクトル空間法は,多数の単語を基底に用いるため,類似度計算にコストがかかることや,検索要求文に含まれる単語数が少ないとベクトルがスパースになり,検索漏れが多発する恐れのあることなどが問題とされている.これらの問題を解決するため,さまざまな研究が行われてきた.例えば,簡単な方法としては,$tf\cdotidf$法\cite{Salton}などによって,文書データベース中での各単語の重要度を判定し,重要と判定された語のみをベクトルの基底に使用する方法が提案されている.また,ベクトル空間法では,ベクトルの基底に使用される単語は,互いに意味的に独立であることが仮定されているのに対して,現実の言語では,この仮定は成り立たない.そこで,基底の一次結合によって,新たに独立性の高い基底を作成すると同時に,基底数を減少させる方法として,KL法\cite{Borko}やLSI法\cite{Golub},\cite{Faloutsos},\cite{Deerwester}が提案されている.KL法は,単語間の意味的類似性を評価する方法で,クラスタリングの結果得られた各クラスターの代表ベクトルを基底に使用する試みなどが行われている.これに対して,LSI法は,複数の単語の背後に潜在的に存在する意味を発見しようとする方法で,具体的には,データベース内の記事の特性ベクトル全体からなるマトリックスに対して,特異値分解(SVD)の方法\cite{Golub}を応用して,互いに独立性の高い基底を求めるものである.この方法は,検索精度をあまり低下させることなく基底数の削減が可能な方法として着目され,数値データベースへの適用\cite{Jiang}も試みられている.しかし,ベクトルの基底軸を変換するための計算コストが大きいことが問題で,規模の大きいデータベースでは,あらかじめ,サンプリングによって得られた一定数の記事のみからベクトルの基底を作成する方法\cite{Deerwester}などが提案されている.このほか,単語の共起情報のスパース性の問題を避ける方法としては,擬似的なフィードバック法(2段階検索法とも呼ばれる)\cite{Burkley},\cite{Kwok}なども試みられている.また,ベクトルの基底とする単語の意味的関係を学習する方法としては,従来から,MiningTermAssociationと呼ばれる方法があり,最近,インターネット文書から体系的な知識を抽出するのに応用されている\cite{Lin}.しかし,現実には,単語間の意味的関係を自動的に精度良く決定することは容易でない.これに対して,本論文では,ベクトル空間法において,検索精度をあまり低下させることなく,基底数を容易に削減できることを期待して,単語の意味属性をベクトルの基底として使用する方法を提案する.この方法は,従来の特性ベクトルにおいて基底に使用されている単語を,その意味属性に置き換えるものである.単語意味属性としては,日本語語彙大系\cite{池原}に定義された意味属性体系を使用する.この意味属性体系は,日本語の名詞の意味的用法を約2,710種類に分類したもので,属性間の意味的関係(is-a関係とhas-a関係)が12段の木構造によって表現されている.また,日本語の単語30万語に対して,どの意味属性(1つ以上)に属す単語であるかが指定されている.従って,本方式では,意味属性相互の意味的上下関係を利用すれば,検索精度をあまり落とさずにベクトルの基底数を削減できる.同時に基底として使用すべき必要最低限の意味属性の組を容易に決定できることが期待される.また,本方式では,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価されるため,再現率の向上が期待できる.すなわち,従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用された単語間のみでの一致性が評価されるのに対して,本方式では,すべての単語(30万語)が検索に寄与するため,検索漏れの防止に役立つと期待される.本論文では,TRECに登録された情報検索テストコレクションBMIR-J2\cite{木谷}を検索対象とした検索実験によって,従来の単語を用いた文書ベクトル空間法と比較し,本方式の有効性を評価する.
V12N01-01
\label{sec:Introduction}近年,情報化が進むにつれて,大量の電子テキストが流通するようになった.これを有効活用するために,情報検索や情報抽出,機械翻訳など,計算機で自然言語を処理する技術の重要性が増している.この自然言語処理技術は様々な知識を必要とするが,その中で構文解析の際に最もよく用いられるものは文脈自由文法(CFG,以下,文法と略す)である.ところが,人手で作成した大規模な文法は,作成者の想定する言語現象にどうしても``もれ''があるため,網羅性に欠けるという問題がある.一方,最近では,コーパスから抽出した統計情報を用いて自然言語を解析するコーパスベースの研究が成果をあげており,それに伴い,(電子)コーパスの整備が進んでいる.このコーパスから文法を自動的に抽出する研究もあり\cite{charniak:96,shirai:97},文法作成者に大きな負担をかけることなく,コーパス内に出現する多様な言語現象を扱える大規模な文法を作成することが可能である.しかし,コーパスから抽出した文法には問題がある.それは,コーパスから抽出した文法で構文解析を行うと,一般に,膨大な量の構文解析結果(曖昧性)\footnote{以降,特に断わらない限り,構文解析結果の曖昧性を単に曖昧性と呼ぶ.}が出力されることである.その要因については後述するが,これが,解析精度の低下や解析時間,使用メモリ量の増大の要因となる.コーパスから抽出した大規模文法がこれまで実用に供されなかった最大の理由はここにある.コーパスには意味を考慮した構文構造が付与されていることが普通であり,そのコーパスから抽出した文法で構文解析を行うと,意味解釈に応じた異なる構文解析結果が多数生成される.しかし,意味情報を用いない構文解析の段階では,意味的に妥当な少数の構文構造に絞り込めず,可能な構文構造を全て列挙せざるを得ない.我々は,構文解析結果(構文木)に沿って意味解析を進める構文主導意味解析(SyntaxDirectedSemanticAnalysis,SDSA)\cite{jurafsky:2000}を想定し,構文解析の段階で生じる曖昧性を極力抑え,次の意味解析の段階で意味的に妥当な意味構造を抽出するという2段階の解析手法を採用する(図\ref{fig:analysis_flow}).\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Introduction/figure/flow.eps}\caption{自然言語解析の流れ}\label{fig:analysis_flow}\end{figure}\if0\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Introduction/figure/procedure.eps}\caption{大規模日本語文法作成手順}\label{fig:procedure}\end{figure}\fi本論文では,構文解析の段階の曖昧性を極力抑え,その後の意味解析の段階にも有効な構文構造を生成する大規模日本語文法について検討する.\if0そこで,我々は,既存の構文構造付きコーパスを出発点とし,以下の手順で文法を作成することを試みている(図\ref{fig:procedure}).\begin{enumerate}\item既存の構文構造付きコーパスから文法を抽出する\item構文解析結果の曖昧性を増大させる要因を分析する\item分析結果をもとに構文構造付きコーパスの変更方針を作成する\item変更方針に従ってコーパスを変更し,そこから新しい文法を再抽出する\item(2)〜(4)を繰り返す\end{enumerate}ただし,文法の抽出は,Charniakによる``tree-bankgrammar''の抽出方法\cite{charniak:96}と同様の方法をとる.上述の文法作成手順では,構文構造付きコーパスの変更に重点が置かれ,文法の作成,変更というより,むしろコーパスの作成,変更のように思われるかもしれない.しかし,実際の変更過程では,抽出した文法を変更し,それをコーパス中の構文構造に反映させる方法をとっている.文法の変更をコーパスにまで反映させるのは,PCFGモデル等の確率モデルによる学習の際に訓練データとして必要であるからであり,文法の作成,変更とコーパスの作成,変更は同時に扱うべき問題である.つまり,「曖昧性を抑えた構文構造を出力するように文法を変更する」ことと,「コーパスに付与されている構文構造を曖昧性を抑えたものに変更する」ことは,結局のところ,同じことであると考えている.\fiその結果,検討前の文法と比較して,出力される解析木の数を$10^{12}$オーダから$10^5$オーダまで大幅に減少させることが可能になった.さらに,この文法から得た解析結果に対して,意味情報をまったく用いず,確率一般化LRモデル(PGLRモデル)\cite{inui:98}によるスコア付け1位の解析木の文の正解率は約60\%であった.一方,スコア付け1位の解析木に対し,機械的な方法で文節の係り受けの精度を測定したところ,意味情報を用いなくても,89.6\%という高い係り受け精度が得られた.意味情報を本格的に利用することで,さらなる精度向上が図れるという見通しを得ている.以下に本論文の構成を述べる.第\ref{sec:Related}節では,コーパスから文法を抽出する主な研究を二つ紹介する.第\ref{sec:Procedure}節では,我々が大規模日本語文法を作成する際の手順について述べる.第\ref{sec:Problem}節では,コーパスから抽出した文法が,構文解析において膨大な量の曖昧性を出力する要因を考察する.第\ref{sec:Modification}節では,構文解析結果の曖昧性の削減を考慮した具体的な文法とコーパスの変更方針を述べ,第\ref{sec:Evaluation}節,第\ref{sec:SDDA}節では,変更したコーパスから抽出した文法の有効性を実験により明らかにする.最後に,第\ref{sec:Conclusion}節で本研究を総括し今後の課題を述べる.
V04N04-04
日本語の談話理解を考える際,文脈すなわち「会話の流れ」の認識は重要な要素となる.一般的に日本語では,「会話の流れ」を明示するために順接・逆接・話題転換・因果性,などを表す接続(助)詞が用いられることが多い.このことから,接続(助)詞を含む発話とそれと組になる発話,という関係を認識することが,談話理解の基本となると考えられる.これについては,マニュアルや論説文などのいわゆる書き言葉について,接続詞や指示語などによる連接パターンを用いてテキストの構造解析を行なう手法\cite{福本:文の連接関係解析,田中:文の連接パターン}や,対話中の質問--応答を表す発話対の認識に関する研究\cite{高野:発話対の認識手法について}などがある.これに対して本研究では,「だって」や「から」などの接続表現により因果関係の前件及び後件の関係が談話中で明示されている場合を対象とし,そのような因果関係が談話中でどのような特徴を伴って出現するのか,について検討する.また,この検討結果を,特に課題を設定していない状況での会話(自由会話)によるコーパスを用いて検証する.このような,文の意味内容に関する連接関係については,\cite{Hobbs:StructureOfDiscourse}で因果関係その他いくつかの場合について述べられているが,ここでは,接続表現により前件と後件の連接関係が明示されている場合を主な対象とするものである.なお,本技術資料では,会話データとして\figref{コーパス例}のようなコーパスを用いる.\begin{figure}[htbp]{\small\setlength{\baselineskip}{2.0mm}{\bf会話24}\begin{enumerate}\itemO→Pあのね、これでもいいんじゃん\da\itemP→Oわかった\da\itemO→Pえー、嘘で言ったんだよ\da\itemE→O何\ua\itemO→Eだって、牛乳入れろって言ってたらさー\da\itemG→G何か酒飲みたいなー\da\itemK→Gあっ、ありますよ\da\itemG→Kそれ何\ua\itemE→Gモルツ\da\itemP→Gウイスキー\da\itemE→Gうまいよ\da\end{enumerate}}\caption{コーパスの例}\figlabel{コーパス例}\end{figure}このコーパスは,大学のあるサークルでの飲み会の席上で録音された雑談(課題を特に設定していない自由会話)を,そこに同席した者がテキストに書きおこしたものであり,全部で1980の発話を含む.書きおこす際に,(1):発話の切れ目の認識\footnote{発話の切れ目は原則として話し手の交代時としているが,会話に同席した者が,発話が区切れていると判断した場合には,話し手の交代に関わりなく発話の切れ目としている.この時,発話間には平均して約0.5秒のギャップがある.},(2):会話内容によるセグメント分け,(3):話し手と聞き手のデータ追加,(4):発話の末尾の調子のデータ追加,を行なっており,例えば,「O→Pあのね、これでもいいんじゃん\da」\hspace{-.4em}という発話では,話し手が``O''で聞き手が``P''であり,末尾が下がり調子の発話であったことを示している.また,このコーパスでは,因果関係を表すとされる接続詞「だから/だって」および接続助詞(相当)「ので/から/のだから/のだもの」が用いられており,本論文ではこれらに注目して考察を行なう.
V10N05-06
我々はこれまで,多様なテキストを要約することのできる頑健な自動要約システムの開発をめざして,重要文抽出を基にした要約システムを作成・拡張してきた.その過程で,作成したシステムを用いて日本語・英語双方において新聞記事などの書き言葉を対象にした要約評価ワークショップに参加し,良好な評価結果を得た\cite{nobata:tsc2001,sekine:duc2001}.また,日本語の講演録を対象として重要文抽出データを人手によって作成し,そのデータに対して要約システムの実験・評価を行った\cite{nobata:orc2002}.日本語と英語など異なる言語や,書き言葉と話し言葉など異なる性質をもつテキストを要約するためには,どのような点が共通化できてどのような点を個別に対応する必要があるのかを,実際に要約データにあたって要約手法を適用し,その結果を検討する必要がある.本論文の目的は,これまで行ってきた日本語と英語,また書き言葉と話し言葉のデータそれぞれについて,共通の素性を用いた重要文抽出の結果について示すことと,それらのデータ間での各素性の分布がどのように共通しているか,異なるかを示すことである.我々のシステムは,重要文抽出をベースにして自動要約を行っている.これは,文章全体を1〜2割程度縮める要約ではなく文章を大きく縮めて要約するためには,重要文抽出もしくはそれに類する手法を用いることが必要であると考えたためである.重要文抽出は自動要約に用いられる主要な手法の一つである\cite{mani:aats,okumura:nlp1999-07}.文章から重要文を抽出するためには,各文がどの程度重要であるかを示す素性を用意する必要がある.文の位置情報,たとえば文章の先頭にあるものほど重要だとみなす手法は,単純ではあるが現在でも自動要約の主要な手法である.他にも記事中の単語の頻度などの統計的な情報や,文書構造を示す表現などの手がかりなどが用いられている.これらの素性を統合的に用いる手法も研究されており,例えば\cite{edmundson:acm1969}は人手で重み付けの値を与えることによって,\cite{watanabe:coling1996}は回帰分析,\cite{kupiec:sigir1995-s}や\cite{aone:colingacl1998}はベイズの規則,また\cite{nomoto:ipsj1997},\cite{lin:cikm1999}らは決定木学習を用いて複数の情報を統合している.本論文では,これらの論文で示されているように素性を統合的に用いた要約システムの評価結果を示すだけでなく,自動要約に用いられる主な素性の振舞い・素性の組合せによる重要文の分布の違いなどを,性質の異なる3種類の要約データにおいて比較・分析した点に特徴がある.以下では,\ref{section:data}章において各要約データについて説明し,\ref{section:system}章において重要文抽出システムの概要を述べ,\ref{section:evaluation}章において各要約データにシステムを適用した結果の評価を示す.さらに,\ref{section:analysis}章においてシステムが用いた素性の各データにおける分布について考察する.
V13N03-08
近年,手話は自然言語であり,ろう者の第一言語である\cite{Yonekawa2002}ということが認知されるようになってきた.しかし,これまで手話に関する工学的研究は,手話動画像の合成や手話動作の認識といった画像面からの研究が中心的であり,自然言語処理の立場からの研究はまだあまり多くは行われていない.言語処理的な研究が行われていない要因として,自然言語処理における処理対象はテキストであるのに,手話には広く一般に受け入れられた文字による表現(テキスト表現)がないことがあげられる.言語処理に利用できる機械的に可読な大規模コーパスも手話にはまだ存在していないが,これもテキスト表現が定まっていないためである.本論文では,手話言語を音声言語と同様,テキストの形で扱えるようにするための表記法を提案する.また,ろう者が表現した手話の映像を,提案した表記法を使って書き取る実験により行った表記法の評価と問題点の分析について述べる.現在我々は,日中機械翻訳など音声言語間の機械翻訳と同じように,日本語テキストからこの表記法で書かれた手話テキストを出力する機械翻訳システムの試作を行なっている.一般に翻訳は,ある言語のテキストを別の言語の等価なテキストに置き換えることと定義されるが,手話にはテキスト表現がないため,原言語のテキストから目的言語のテキストへの言語的な変換(翻訳)と,同一言語内での表現の変換(音声言語ではテキスト音声合成,手話では動作合成/画像合成)とを切り離して考えることができなかった.我々は,テキスト表現の段階を置かずに直接手話画像を出力することは,広い範囲の日本語テキストを対象として処理していくことを考えると,機械翻訳の問題を複雑にし困難にすると考え,音声言語の機械翻訳の場合と同じように,日本語テキストから手話テキストへ,手話テキストから手話画像へと独立した二つのフェーズでの機械翻訳を構想することとした(図\ref{fig:sltext}).\begin{figure}[tb]\centering\epsfxsize=11cm\epsfbox{sltext.eps}\caption{日本語-手話機械翻訳における手話テキストの位置付け}\label{fig:sltext}\end{figure}現在,日本語から他の諸言語への翻訳を行うためのパターン変換型機械翻訳エンジンjawとそれに基づく翻訳システムの開発が進められているが(謝他2004;ト他2004;Nguyenetal.2005;Thelijjagodaetal.2004;マニンコウシン他2004),本表記法を用いた日本語-手話翻訳システムも,それらと全く同じく枠組みで試作が行なわれている(松本他2005;Matsumotoetal.2005).jawによる翻訳は次のように行われる.jawは入力日本語文を形態素/文節/構文解析して得られた日本語内部表現(文節係り受け構造,文節情報)の各部を,DBMS上に登録された日本語構文パターンと照合する.パターンの要素には階層的な意味カテゴリが指定できる.各パターンは,それを目的言語の表現に変換する翻訳規則と対応しており,その規則の適用により目的言語の内部表現が生成される.目的言語の内部表現は,各形態素の情報を属性として持つC++オブジェクトと,それらの間のリンク構造として実現される.目的言語の内部表現から目的言語テキストへの変換(語順の決定,用言後接機能語の翻訳など)は,各形態素オブジェクトが持つ線状化メンバ関数,および,目的言語ごとに用意された別モジュールによって行われる.\nocite{Bu2004,Shie2004,Nguyen2005,Thelijjagoda2004,Ngin2004}\nocite{Matsumoto2005a,Matsumoto2005b}本論文はこのような枠組みにおいて,翻訳システムが出力する手話のテキスト表現方法について述べるものである.機械翻訳システム,すなわち翻訳の手法については稿を改めて詳しく論じたい.手話の表記法は従来からいくつか提案されている\cite{Prillwitz2004,Sutton2002,Ichikawa2001,Honna1990}.しかしその多くは,音声言語における発音記号のように,手話の動作そのものを書き取り,再現するための動作記述を目的としている.このため,言語的な変換処理を,動作の詳細から分離するという目的には適していない.\renewcommand{\thefootnote}{}日本語から手話への機械翻訳の研究としては黒川らの研究があり\cite{Fujishige1997,Ikeda2003,Kawano2004},日本語とほぼ同じ語順で(日本語を話しながら)手指動作を行なう中間型手話\footnote{日本手話,日本語対応手話,中間型手話については次節で述べる.}を目的言語としたシステムについて研究が行なわれている.そこでも手話の表記法についての提案があるが,機械翻訳の結果出力のためのシステムの内部表現としての面が強く,手話をテキストとして書き取るための表記法というものではない.徳田・奥村(1998)も日本語-手話機械翻訳の研究の中で,手話表記法を定義している.しかし,主に日本語対応手話\footnotemark[1]を目的言語としているため,日本手話\footnotemark[1]において重要な言語情報を表す単語の語形変化や非手指要素に対する表記は定義されていない.テキスト表現を導入することによって,従来の音声言語間の機械翻訳と同じ枠組みで手話への機械翻訳が行えるようになるが,その記述能力が不十分であれば,逆に表記法が翻訳精度向上の隘路になる.機械翻訳を前提として提案された上述の既存表記法は,いずれも言語的に日本語に近い手話を対象としているため,日本手話を表記対象とした場合,記述能力不足が問題となる.本論文で提案する表記法では,手話単語に対してそれを一意的に識別する名前を付け,その手話単語名を基本として手話文を記述する.単語名としては日本語の語句を援用する.手話辞典や手話学習書等でも,例えば[あなた母話す]のように手話単語名を並べることによって手話文を書き表すことが多いが,手話単語はその基本形(辞書形)から,手の位置や動きの方向・大小・強弱・速さなどを変化させることによって,格関係や程度,様態,モダリティなどの付加的な情報を表すことができる.また,顔の表情,頭の動きなどの非手指要素にも文法的,語彙的な役割がある.したがって,これらの情報を排除した手話単語名の並びだけでは,主語や目的語が不明確になったり,疑問文か平叙文かが区別できなかったり,文の意味が曖昧になったりする.手話学習書等では,写真やイラスト,説明文によってこのような情報が補われるが,本表記法ではこれらの情報も,記号列としてテキストに含め手話文を記述する.基本的に動作そのものではなく,その動作によって何が表されるかを記述する.たとえば,「目を大きく開け,眉を上げ,頭を少し傾ける」といった情報ではなく,それによって表される疑問のムードという情報を記述する.ただし,手話テキストから手話動作記述への変換過程を考慮して,表記された内容が手話単語自体がもつものなのか,あるいは,その単語の語形変化によって生じるものか,非手指要素によるものかといった大まかな動作情報は表記に含める.以下,2節で手話言語について述べ,3節で提案する表記法の定義を述べる.4節で表記法の評価のための手話映像の書き取り実験と問題点の分析について述べる.5節で既存の代表的な手話表記法について概観し,本論文の表記法との比較を行う.
V18N02-02
知的で高度な言語処理を実現するには,辞書,シソーラス,コーパスなどの言語資源の整備・構築が欠かせない.一方,実際のテキストに対して,言語資源を活用するときにボトルネックとなるのが,表層表現が実テキストと言語資源では一致しない問題である.例えば,「スパゲティー」には,「スパゲッティ」「スパゲティ」「スパゲッテー」などの異表記があるが,完全一致の文字列マッチングでは,これらの異表記から言語資源に含まれるエントリ(例えば「スパゲティー」)を引き出すことができない.ウェブなどの大規模かつ統制されていないテキストには,大量の異表記や表記誤りが含まれると考えられ,これらの実テキストに対して言語処理を頑健に適用するには,言語資源とテキストを柔軟にマッチングさせる技術が必要である.文字列を標準的な表記に変換してからマッチングさせる手法として,ステミング~\cite{Porter:80},レマタイゼーション~\cite{Okazaki:08,Jongejan:09},スペル訂正~\cite{Brill:00,Ahmad:05,Li:06,Chen:07},人名表記の照合~\cite{Takahashi:95},カタカナ異表記の生成及び統一~\cite{獅々堀:94},等が代表的である.これらの研究に共通するのは,与えられた文字列から標準形に変換するための文字列書き換え規則を,人手,マイニング,もしくは機械学習で獲得していることである.これらの研究では,語幹やカタカナ異表記など,異表記のタイプに特化した文字列書き換え規則を獲得することに,重点が置かれる.本論文では,より一般的なタスク設定として,与えられた文字列に似ている文字列を,データベースの中から見つけ出すタスク({\bf類似文字列検索})を考える.本論文では,「文字列の集合$V$の中で,検索クエリ文字列$x$と類似度が$\alpha$以上の文字列を全て見つけ出す操作」を,類似文字列検索と定義する.この操作は,$V$の部分集合$\mathcal{Y}_{x,\alpha}$を求める問題として記述できる.\begin{equation}\mathcal{Y}_{x,\alpha}=\{y\inV\bigm|{\rmsim}(x,y)\geq\alpha\}\label{equ:approximate-string-retrieval}\end{equation}ただし,${\rmsim}(x,y)$は文字列$x$と$y$の類似度を与える関数({\bf類似度関数})である.この問題の単純な解法は,検索クエリ文字列$x$が与えられる度に,文字列の類似度を総当たりで$|V|$回計算することである.文字列集合の要素数$|V|$が小さいときには,総当たりで解を求めることも可能だが,文字列集合が膨大(例えば数百万オーダー以上の要素数)になると,実用的な時間で解けなくなる.本論文では,自然言語処理でよく用いられる類似度関数であるコサイン係数,ジャッカード係数,ダイス係数,オーバーラップ係数に対して,式\ref{equ:approximate-string-retrieval}の簡潔かつ高速なアルゴリズムを提案する.本論文の貢献は,以下の2点に集約される.\begin{enumerate}\itemまず,類似文字列検索における必要十分条件及び必要条件を導出し,式\ref{equ:approximate-string-retrieval}が転置リストにおける{\bf$\tau$オーバーラップ問題}~\cite{Sarawagi:04}として正確に解けることを示す.次に,$\tau$オーバーラップ問題の効率的な解法として,{\bfCPMerge}アルゴリズムを提案する.このアルゴリズムは,$\tau$オーバーラップ問題の解となり得る文字列の数をできるだけコンパクトに保つ特徴がある.提案手法の実装は非常に容易であり,C++で実装したライブラリ\footnote{SimString:http://www.chokkan.org/software/simstring/}を公開している.\item提案手法の優位性を示すため,英語の人名,日本語の単語,生命医学分野の固有表現を文字列データとして,類似文字列検索の性能を評価する.実験では,類似文字列検索の最近の手法であるLocalitySensitiveHashing(LSH)~\cite{Andoni:08},SkipMerge,DivideSkip~\cite{Li:08}等と提案手法を比較する.実験結果では,提案手法が全てのデータセットにおいて,最も高速かつ正確に文字列を検索できることが示される.\end{enumerate}本論文の構成は以下の通りである.次節では,類似文字列検索の必要十分条件,必要条件を導出し,式\ref{equ:approximate-string-retrieval}が$\tau$オーバーラップ問題として正確に解けることを示す.第\ref{sec:method}節では,本論文が提案するデータ構造,及び$\tau$オーバーラップ問題の効率的なアルゴリズムを説明する.第\ref{sec:evaluation}節で,評価実験とその結果を報告する.第\ref{sec:related-work}節では,類似文字列検索の関連研究をまとめる.第\ref{sec:conclusion}節で,本論文の結論を述べる.
V06N02-06
近年の著しい計算機速度の向上,及び,音声処理技術/自然言語処理技術の向上により,音声ディクテーションシステムやパソコンで動作する連続音声認識のフリーソフトウェアの公開など,音声認識技術が実用的なアプリケーションとして社会に受け入れられる可能性がでてきた\cite{test1,test2}.我が国では,大量のテキストデータベースや音声データベースの未整備のため欧米と比べてディクテーションシステムの研究は遅れていたが,最近になって新聞テキストデータやその読み上げ文のデータが整備され\cite{test3},ようやく研究基盤が整った状況である.このような背景を踏まえ,本研究では大規模コーパスが利用可能な新聞の読み上げ音声の精度の良い言語モデルの構築を実験的に検討した.音声認識のためのN-gram言語モデルでは,N=3$\sim$4で十分であると考えられる\hspace{-0.05mm}\cite{test4,test5,test25}.しかし,N=3ではパラメータの数が多くなり,音声認識時の負荷が大きい.そこで,大語彙連続音声認識では,第1パス目はN=2のbigramモデルで複数候補の認識結果を出力し,N=3のtrigramで後処理を行なう方法が一般的である.\mbox{本研究では,第2パスのtrigramの改善}ばかりでなく,第1パス目の\hspace{-0.05mm}bigram\hspace{-0.05mm}言語モデルの改善を目指し,以下の3つの点に注目した.まずタスクについて注目する.言語モデルをN-gram\mbox{ベースで構築する場合(ルールベースで}記述するのとは異なり),大量の学習データが必要となる.最近では各種データベースが幅広く構築され,言語モデルの作成に新聞記事などの大規模なデータベースを利用した研究が行なわれている\cite{test6}.しかしN-gramはタスクに依存するのでタスクに関する大量のデータベースを用いて構築される必要がある.例えば,観光案内対話タスクを想定し,既存の大量の言語データに特定タスクの言語データを少量混合することによって,N-gram言語モデルの性能の改善が行なわれている\cite{test7}.また,複数のトピックに関する言語モデルの線形補間で適応化する方法が試みられている\cite{test8}.本研究ではタスクへの適応化のために,同一ジャンルの過去の記事を用いる方法とその有効性を示す.次に言語モデルの経時変化について注目する.例えば新聞記事などでは話題が経時的に変化し,新しい固有名詞が短期的に集中的に出現する場合が多い.以前の研究では、\mbox{直前の数百単}\mbox{語による言語モデルの適応化(キャッシュ法)が試}みられ\cite{test20},\mbox{小さいタスクでは}その有効性が示されてはいるが,本論文では直前の数万〜数十万語に拡大する.つまり,直前の数日間〜数週間の記事内容で言語モデルを適応化する方法を検討し,その有効性を示す.最後に認識単位に注目する.音声認識において,\mbox{認識単位が短い場合認識誤りを生じやすく,}付属語においてその影響は大きいと考えられ,小林らは,付属語列を新たな認識単位とした場\mbox{合の効果の検証をしている\cite{test9}}.\mbox{また高木らは,高頻度の付属語連鎖,}関連率の高い複合名詞などを新しい認識単位とし,\mbox{これらを語彙に加えることによる言語モデ}ルの性能に与える影響を検討している\cite{test10}.なお,連続する単語クラスを連結して一つの単語クラスとする方法や句を一つの単位とする方法は以前から試みられているが,いずれも適用されたデータベースの規模が小さい\cite{test11,test12}.同じような効果を狙った方法として,N-gramのNを可変にする方法も試みられている\cite{test8}.なお,定型表現の抽出に関する研究は,テキスト処理分野では多くが試みられている(例えば,新納,井佐原1995;北,小倉,森本,矢野1995).新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しなどの表現(以下,定型表現と呼ぶ)が非常に多いと思われる.定型表現は,音声認識用の言語モデルや音声認識結果の誤り訂正のための後処理に適用できる.そこでまず,定型表現を抽出した.次に,これらの(複数形態素から成る)定型表現を1形態素として捉えた上で,N-gram言語モデルを構築する方法を検討する.評価実験の結果,長さ2および3以下である定型表現を1形態素化してbigram,trigram言語モデルを作成することで,bigramに関しては,エントロピーが小さくなり,言語モデルとして有効であることを示す.なお,これらの手法に関しては様々な方法が提案されているが,大規模のテキストデータを用いて,タスクの適応化と定型表現の導入の有効性を統一的に評価した研究は報告されていない.\vspace*{-3mm}
V14N03-03
人は必ずしも流暢に話しているわけではなく,以下の例のように,ときにつっかえながら,ときに無意味とも言える言葉を発しながら,話している.\newcounter{cacocnt}\begin{list}{例\arabic{cacocnt}}{\usecounter{cacocnt}}\item\underline{アッ}しまった\underline{エッ}本当?\item\underline{ド}どうしよう?\underline{アシ}あさってかな?\item\underline{エート}今度の日曜なんですが\underline{アノー}部屋はあいてるでしょうか\end{list}例1の下線部は感動詞(間投詞,interjections),例2は発話の非流暢性(disfluency)の一部であり,例3はその両方のカテゴリーに帰属する話し言葉特有の発話要素である.これらは,近年,人の言語処理を含む内的処理プロセス(mentalprocessing)や心の動きを映し出す「窓」として注目されてきている\cite{定延・田窪,田窪・金水,田中,Clark:02,山根,定延:05,富樫:05}.本研究では,これらを発話に伴う「心的マーカ(mentalmarker)」と捉え,例3のような「フィラー(fillers)」を中心に,「情動的感動詞(affectiveinterjections)」(例1)および「言い差し(途切れ;speechdiscontinuities)」(例2)と対比することで,人の内的処理プロセスとこれらの心的マーカとの対応関係について検討した.\subsection{従来の研究アプローチ}感動詞および非流暢性に焦点をあてた研究アプローチには,大きく分けて言語学的(linguistic)アプローチと言語心理学的(psycholinguistic)アプローチの2つが存在する.前者のアプローチからは,これまで主として,感動詞と感情の関係や感動詞の統語的性質が考察されてきた\cite[など]{田窪・金水,森山:96,土屋,富樫:05}.例えば,\citeA{森山:96}は「ああ」や「わあ」などの情動的感動詞を内発系と遭遇系に分類し,それらがどのような心的操作と対応するかについて詳しく考察した.一方,後者のアプローチからは,人の内的言語処理メカニズムを知るために,途切れや延伸,繰り返し,言い直しなどの非流暢性が研究されてきた\cite[など]{村井,伊藤,田中}\footnote{最近になって,\citeA{定延・中川}が非流暢性の言語学的な制約を分析するという言語学的アプローチによる考察を試みている.}.例えば,\citeA{村井}は,幼児の言語発達における言語障害的発話を分類し,言語発達過程における非流暢性の現れ方について考察した.これら2つのアプローチは,発話要素から人の内的処理メカニズムを探るという目的では類似している.しかしながら,前者は主としてそれぞれの感動詞に対応する心的操作について,後者は主として非流暢性の程度と言語処理メカニズムあるいは言語発達過程との関係について検討してきたため,共通する対象領域をカバーしながらも,それぞれ別の角度から取り組んできたといえる.本研究において中心に取り上げるフィラーは,言語学的には感動詞の一部として\cite{田窪・金水,定延・田窪},言語心理学的には非流暢性の一種である有声休止(filledpause,\cite{Goldman-Eisler,田中})として,双方のアプローチから研究されてきた音声現象である\cite{山根}.フィラーと情動的感動詞,言い差し(途切れ)を同一軸上で比較することで,両研究アプローチからの「切り口」により明らかにされる内的処理プロセスの諸側面をさらに深く理解することにつながると考えられる.以下に,本研究で扱う3つの発話要素(フィラー,情動的感動詞,言い差し)に関する先行研究を概観し,本研究の目的および特色を述べる.\subsubsection{フィラー}Merriam-WebsterOnlineDictionary(http://www.m-w.com/)によると,フィラー(fillers)には「間を埋めるもの」という意味がある.\citeA{Brown}によると,フィラーは主に発話権を維持するために,発話と発話の間を埋めるように発する発話要素とされる\footnote{\citeA{Clark-Tree}や\citeA{水上・山下}は,話し手のフィラーが長い場合,前後のポーズ長も長くなる傾向にあることを示しており,結果として,ポーズだけの場合よりも長く発話権を維持できる.}.この意味に相当する日本語の用語として,「間(場)つなぎ言葉」がある.その他に,無意味語,冗長語,繋ぎの語,遊び言葉,言い淀み,躊躇語など,これまでそれぞれの研究者の視点からさまざまに呼ばれてきている\cite{山根}.本研究では,近年の傾向にしたがい\cite{山根,定延:05},便宜的に,フィラーという名称を用いる.フィラーは,一般に命題内容を持たず,前後の発話を修飾するようなものでもない\cite{野村,山根}.例えば,例3の文からフィラーを除いたとしても,文意には何ら影響しない.そのため,古典的な日本語研究においては,感動詞や応答詞あるいは間投詞の一部として,その用法が取り上げられるにすぎなかった\cite{山根}.しかしながら,近年,言語学的アプローチによる研究により,フィラーのさまざまな機能が注目されるようになってきた.例えば,談話の区切りを表示する「談話標識(discoursemarker\cite{Schiffrin})」の機能\cite{Swerts,Watanabe,野村}や,換言や修正のマーカ\footnote{「渡したペーアノプリント」のように言い直しの前などに出現するフィラーを指す.}としての機能\cite{野村}があげられる.その他にも,``uh''や``ah''などのフィラーが構文理解(parsing)にもうまく利用されることが示されている\cite{Ferreira-Bailey}.また,フィラーは,非流暢性あるいは停滞現象(speechunfluency\cite{田中}),有声休止(filledpause)と呼ばれることもあり,発話上の問題として捉えられてきた側面もある(例えば,\citeA{Hickson}).一方で,1960年代から\citeA{Goldman-Eisler}ら言語心理学者によってさかんに非流暢性が研究されてきた理由の一つは,非流暢性が話し手の言語化に関わる内的処理過程・処理能力を表示するよい指標になり得るからである.注目すべきは,表情や一部の身体動作と共に(例えば,\citeA{Ekman,Ekman-Friesen}),フィラーが話し手の心的状態や態度が外化したものと考えることができる点である\cite{定延・田窪,田窪・金水}.\citeA{定延・田窪}は,フィラーを話し手の心的操作標識と捉え,「エート」と「アノ(ー)」を取り上げて,心的操作モニター機構について考察した.\citeA{定延・田窪}によれば,「エート」は,話し手が計算や検索のために心的演算領域を確保していることを表示し,一方で「アノ(ー)」は,話し手が主に聞き手に対して適切な表現をするために言語編集中であることを表示するとされる.この例以外に,状況によって適さないフィラーや,逆に儀礼的に使われるフィラーも存在する\cite{定延:05}.これらは,フィラーが発話者の心的状態を表示する標識となる一方で,状況や場などの制約を受ける言語学的な側面を持つことを示している.\subsubsection{情動的感動詞}情動的感動詞とは,\citeA{森山:96}が,情動的反応を表す感動詞として分類したものである.\citeA{森山:96}は,泉の比喩を使ったモデルで「アア」のような内から湧き上がってくる感情を表す内発系と,「オヤ」「オット」「ワア」「キャア」などの遭遇系の情動を分類し,それぞれと感情との関係を考察した.また,\citeA{田窪・金水}は,感動詞を,「心的な過程が表情として声に現れたもの」と捉え,特に情報の入出力に関わるものを「入出力制御系」とし,それらを応答,意外・驚き,発見・思い出し,気付かせ・思い出させ,評価中,迷い,嘆息に分類し,それぞれについて考察した\footnote{出力の際の操作に関わるものは「言い淀み系」として,非語彙的形式,語彙的形式(内容計算,形式検索,評価)に分類された.これはほぼフィラーに対応すると考えられる.}.彼らによれば,例えば,感動詞「ア」とは,発見・思い出しの標識であり,「予期されていなかったにも関らず関連性の高い情報の存在を新規に登録したということを表す」ものである.これに対し,近年,\citeA{富樫:05}は,驚きを伝えるとされる「アッ」と「ワッ」を取り上げ,「アッ」の本質は発見や新規情報の登録を示すものではなく,単に「変化点の認識」を示すものであると述べた.さらに\citeA{富樫:05}は,従来考えられてきたような感動詞の伝達的側面を疑問視し,感動詞の本質は感動を含まず,それは聞き手の解釈による効果に過ぎないと述べている.これらの研究は,情動的感動詞が少なくとも話し手の何らかの「心の状態の変化が音声として表出したもの(changeofstatetoken\cite{Heritage})」と考えられることを示している.\subsubsection{言い差し(途切れ)}言い差しとは,反復や言い直しによって途切れた不完全な語断片を指す.本研究では,スラッシュ単位マニュアル\shortcite{Slash-Manual}でタグとして使用されている言い差しの用法に従う\footnote{「ちょっと用事がありまして(参加できません)」のように,重要な部分を省略した用法を「言い差し表現」と言う場合もある.}.言い差しは,言語心理学的な研究の中で,意味処理や調音運動に関連付けて研究されてきた.例えば,\citeA{田中}は,スピーチの停滞現象を反復(「ヒヒトハオドロイタ」),言い直し(「キカイガヘンカコワレタ」),有声休止(フィラー),無声休止(ポーズ)などに分類し,それらが意味処理の過程とどのように関っているのかを実験に基づく考察から詳細に分析した.その結果,意味の処理には,音声を伴わない処理と音声を伴う処理の2つの様相があることが示された.この結果は,従来の考え方が前提としていた,人の発話処理過程において,意味の処理が完了してから音声出力されるという考え方に疑問を投げかけるものであった.つまり,人は考えてから話すのではなく,話しながら考えるという二重処理を行っていることを示す.言い差しとは,一旦,出力されかけた言語表現が並列的に動作する意味処理によって,中断されたものと考えられる.その意味で,言い差しは人の発話に伴う内的処理のプロセスの並列性,階層性を理解する上で,重要な鍵となると考えられている.\subsection{本研究のアプローチ}\subsubsection{3つの発話要素の定義}本研究では,先行研究\cite{山根}を参考に,フィラー,情動的感動詞,言い差しといった3つの発話要素を以下のように定義した.以下の例では,フィラー,情動的感動詞,言い差しに該当する部分をそれぞれカタカナで表記して示す.\\\noindent\textbf{フィラー}\\・それ自身命題内容を持たず,発話文の構成上,排除しても,意味に影響を及ぼさないもので\\\noindent(1)他との応答・修飾・接続関係にないもの\\○「エットソノー3つ目の正方形の」\\×「その角に」\noindent○「普通のモー三角形ですね」\\×「もう少し」\noindent○「コーナンテイウンデスカネ」\\×ジェスチャーを伴って「こう(こんなふうに)」\noindent(2)他との応答関係にあっても逡巡を示すもの\\○質問を受けて「ウーン左側が長いんですよね」\\×「うんそう」\noindent(3)情動的感動詞\cite{森山:96}や言い差し(途切れ)とは異なるもの\\○「エー左だけ書いてから」\\×「えっそれだけ?」(情動的感動詞)\\×「え円を描くように」(言い差し)\vspace{10pt}\noindent\textbf{情動的感動詞}\\・気付き,驚き,意外など,心的状態の変化を表出していると考えられるもの\\「アわかりました」「エ違う?」「アレ?」など\vspace{10pt}\noindent\textbf{言い差し(途切れ)}\\・反復,言い直しなど,言いかけて止めることによって,単語として成立していないもの\\「サさんかく」「フタ三つ目」「ホ(沈黙)」など\vspace{10pt}この定義により,本研究で扱う対話データ(後述)では,以下のようなものがフィラーとして認定された:アー,アノ(ー),アノナ,アノネ,アレ\footnote{フィラーとしての「アレ」は,平坦に短く,低ピッチで発音される.「それはアレ三角関数みたいに」という場合.同様に,代名詞と同表記である,「アノ」,「コノ」,「ソノ」もフィラーの場合には基本的に平坦かつ低ピッチで発音される.},アンナ,ウー,ウーン,ウ(ー)ント(ー),ウ(ー)ントネ,ウ(ー)ントナ,エ(ー),エ(ー)(ッ)ト,エ(ー)(ッ)トネ,エ(ー)(ッ)トナ,エ(ー)(ッ)トデスネ,コー,コノ(ー),ソーデスネ(ー),ソノ(ー),(ッ)ト(ー),(ッ)トネ,(ッ)トナ,ドウイエバイイノカ\footnote{{\kern-0.5zw}「ドウイエバイイノカ」に類するフィラーは,低ピッチで独り言のように発する場合であり,相手に答えを求めて「どう言えばいいんですか?」と問いかけているものではない.「ナンテイエバイイノカ」に類するフィラーも同様.これらが命題内容を持つかどうかについては議論の余地があるが,本研究では,\citeA{山根}において,フィラーとされる「ドウイウカ」「ナンテイウカ」の変形として,これらをフィラーに含めた.},ドウイエバイインダロウ,ドウイッタライイカ,ドウイッタライイノカ,ドウイッタライインデスカネ,ドウセツメイシタライイカ,ドウダロウ,ナンカ,ナンカネ,ナンカナ,ナンテイウカ,ナンテイウノカ,ナンテイウノ,ナンテイウノカナ,ナンテイイマスカ,ナンテイエバ,ナンテイエバイイカ,ナンテイエバイインデスカネ,ナンテイッタライイノカ,ナンテイウンデスカネ,ナンテイッタラインデスカネ,ハー,フーン,マ(ー),モー,ンー,ン(ー)ト,この他,方言による変異と考えられる,アンナー,ソヤネー,ナンチューカ,ナンテイエバイイトなどもフィラーとみなした.また,情動的感動詞としては,以下のものが認定された:ア(ー)(ッ),アレ(ッ),イ(ッ),ウ(ッ),エ(ー)(ッ),オ(ー)(ッ),ハ(ッ),ハイ,ヒ(ッ),ヘ(ッ),(ウ)ン.言い差しについては,不定形のため省略する.\subsubsection{本研究の目的}本研究の目的は,従来の言語学的アプローチと言語心理学的アプローチにより明らかにされてきた発話行為に伴う内的処理について,フィラーを中心に,情動的感動詞,言い差し(途切れ)という心的マーカを指標に検討することにある.対話において内的処理の過程に何らかの問題が発生すると,その内的状態を反映して,話し手,聞き手双方の発話中に,心的マーカが出現する.これらの心的マーカの出現率を分析することで,対応する処理プロセスとの関係を明らかにする.話し手の内的処理プロセスには,思考に関わるもの(検索・記憶操作,計算,類推,話の組み立てなど)と,発話生成に関わるもの(構文調整,音韻調整,単語・表現選択など),聞き手の内的処理プロセスには,発話の理解に関わるもの(構文理解,文脈理解,意味解釈,意図推論など)が考えられる.これらの話し手,聞き手の処理プロセスに,状況の認識に関わる内的処理(場の認識,関係性の認識,話者間の共通知識についての認識,利用可能なモダリティの認識,時間や空間の制約の認識など)が影響を及ぼすことが予想される.つまり,状況の認識が決定されることで,思考や発話のなされ方が変化すると考える.\begin{table}[b]\begin{center}\caption{話し手の内的処理プロセスおよび心的マーカと状況変数との対応}\label{map_speaker}\scriptsize\begin{tabular}{cccccc}\hline\multirow{2}{12mm}{状況変数}&\multirow{2}{24mm}{喚起される主だった状況認識のモード}&主な思考プロセス&主な発話生成プロセス\\&&[主な心的マーカ]&[主な心的マーカ]\\\hline親近性&関係性の認識&説明の組み立て&表現選択\\&(丁寧さの意識)&[フィラー(アノ)]&[フィラー(アノ)]&\\対面性&モダリティの認識&表象の言語化&単語選択\\&(制約の意識)&[フィラー(ナンカ)]&[フィラー(アノ)]\\難易度&必要な処理の認識&記憶・検索操作,説明方略&単語選択,文構成\\&(必要操作への意識)&[フィラー(エート,ソノ),情動的感動詞]&[フィラー(アノ),言い差し]\\\hline\end{tabular}\end{center}\end{table}そこで本研究では,発話の言語化に関わる内的処理プロセスに影響を及ぼすと想定される3つの状況変数(親近性,対面性,課題難易度)が操作され,話し手の内的処理プロセスが状況変数の影響をどのように受け,また聞き手の理解に影響するかどうかが検討された.本研究で操作される変数以外にも,状況変数としては性別差や年齢差などが考えられる.それらと比較して,親近性,対面性,課題難易度は,それぞれ,社会性,伝達手段,処理の複雑さといった異種の認識モードを必要とし,発話の言語化に関わる内的処理プロセスにも異なる影響を及ぼすと考えられた.本研究で想定された話し手の内的プロセス(思考と発話生成のプロセス)および心的マーカと状況変数の関係が,表\ref{map_speaker}に示される.具体的には,親近性の場合,対話の相手が友人か初対面の人であるかという関係性の認識によって,丁寧さへの意識が変化し,発話生成のための言葉選びや言い回しが変化する.つまり,初対面の人に説明する場合には,思考プロセスにおいて丁寧な説明のための発話の組み立てに負荷が,発話生成プロセスにおいては,発話表現の選択に負荷がかかることが予想される.次に,対面性の場合,相手と対面して対話するかどうかという利用可能なモダリティの認識によって,表現方法への制約が意識される.つまり,非対面の場合に,思考プロセスにおいては形状の表象への変換に負荷が,そして発話生成プロセスでは説明のための単語や表現の選択に負荷がかかるだろう.最後に,難易度の場合,説明内容が難しく,必要な処理操作が増加するという認識によって,記憶や対象への注意などの必要操作への意識が高まる.つまり,思考プロセスにおいては記憶操作や単語検索,対象把握や文の組み立てなどに,発話生成プロセスではどのような言語表現を使い,いかに発話の整合性を保つかという単語選択や文構成に負荷がかかるであろう.リアルタイムに処理可能な情報量に限界のある話し手にとって,特定の発話プロセスに負荷がかかると,その状態を表示するさまざまな心的マーカが外化することが予想される.例えば,先行研究からの予測として,単語や表現の検索・選択への負荷の増加は,「エート」や「アノ(ー)」などのフィラーの増加として表出するであろう.その他,「ナンカ」は,具現化できない何かを模索中であることの標識であり,表象の言語化過程に表出しやすいであろうし,「ソノ」は,すぐに具現化できない内容が思考プロセスに存在していることを示すとされ\cite{山根},言葉を掘り起こす負荷の高い場合に表出されやすいであろう.また,並列的に処理される思考プロセスと発話生成プロセスに同時に負荷がかかる場合,例えば,発話を始めてから言い間違いに気付いて,言い直す場合には,言い差しが表出することが予想される.一方,「ア」や「エ」などの情動的感動詞の場合には,上記の負荷の影響は間接的であり,例えば,説明しにくい(相手にも理解しにくい)対象を説明する場合に,自分が今行っている説明の仕方よりもさらによい説明の仕方を思いついたときや,説明の不備に気がついたときに表出される機会が増加することが予想される\footnote{ここでは,話し手の発話プロセスについて言及しているが,「ア」などの情動的感動詞は,理解や発見の表示として表出する場合が多く,聞き手の応答時に現れやすい(例えば,「ア,はいはいはい」).}.以上から,3つの状況変数は以下のような心的マーカの出現率の差として現れることが予測される.1)親近性が低いと,表現選択に関するフィラー出現率が高まり,2)対面性がないと,表象の言語化や単語選択に関するフィラー出現率が高まり,3)難易度が高いと,記憶・検索操作に関するフィラー出現率,情動的感動詞出現率,言い差し出現率のすべてが高まる.また,本研究では,状況による心的マーカの現れ方を検討するため,統制された実験環境において,課題遂行型の対話である図形説明課題対話を収録,分析した.先行研究では,自然な対話収録を目的とし,自由対話を課題とするものが多く,例えば,会話分析のような社会学的手法においては日常会話が主として扱われてきた\cite{好井}.しかし,本研究で用いる図形説明課題対話は,提示された図形を説明する説明者役と,説明を受けて理解し,選択肢を答える回答者役に分かれて行う課題であり,役割の非対称性(話し手/聞き手)と情報の非対称性(説明者≫回答者)を特徴としている\footnote{ただし,回答者には,説明者に対して質問することを許可しており,局所的には話し手/聞き手が逆転する場合がある.}.役割の非対称性がある対話として,インタビュー対話\shortcite[など]{CSJ}があげられるが,ここでは,聞き手であるインタビュアの会話進行能力や質問の仕方に依存し,発話量のバランスや難易度の統制が困難である.また,本研究での課題と同様に,協同作業型課題遂行対話である地図課題対話\shortcite{堀内-99}では,説明者役と回答者役の間の情報の非対称性が完全ではない(回答者にも手がかりがある).図形説明課題を使用することで,説明者側の内的処理プロセスは,説明のための言語化に係わる処理プロセスが主となり,回答者側の内的処理プロセスは,理解に係わる処理プロセスが主となると切り分けて検討できる利点を有する.
V06N05-03
近年,研究者数の増加,学問分野の専門分化と共に学術情報量が爆発的に増加している.また,研究者が入手できる文献の量も増える一方であり,人間の処理能力の限界から,入手した文献全てに目を通し利用することが益々困難になってきている.このような状況で必要とされるのは,特定の研究分野に関連した情報が整理,統合された文書,すなわちサーベイ論文(レビュー)や専門図書である.サーベイ論文や専門図書を利用することで,特定分野の研究動向を短時間で把握することが可能になる.しかし,論文全体に対するサーベイ論文の占める割合が極端に少ないという指摘がある\cite{Garvey79}.その理由の一つとして,サーベイ論文を作成するという作業がサーベイ論文の作者にとって,時間的にも労力的にも非常にコストを要することが挙げられる.しかし,今後の学術情報量の増加を考えれば,このようなサーベイ論文の需要は益々高まっていくものと思われる.我々はサーベイ論文を複数論文の要約と捉えており,サーベイ論文の自動作成の研究を行っている.本来サーベイ論文とは,多くの論文に提示されている事実や発見を総合化,また問題点を明らかにし,今後更に研究を要する部分を提示したものであると考えられる\cite{Garvey79}.しかし現在の自動要約の技術\footnote{近年の自動要約技術の動向に関しては\cite{奥村98}を参照されたい.}から考えると,このようなサーベイ論文の自動作成は,非常に困難であると思われる.そこで関連する複数の論文中から各論文の重要箇所,論文間の相違点が明示されている箇所を抽出し,それらを部分的に言い替えて読みやすく直した後,並べた文書をサーベイ論文と考え,そのような文書の自動作成を試みる.本稿では,その第1歩として,サーベイ論文作成を支援するシステムを示す.本研究では,サーベイ論文作成支援の際,論文間の{\bf参照情報}に着目する.一般に,ある論文は他の複数の論文と参照関係にあり,また論文中に参照先論文の重要箇所や,参照先論文との関係を記述した箇所(以後,{\bf参照箇所})がある.この参照箇所を読むことで,著者がどのような目的で論文を参照したのか(以後,{\bf参照タイプ})や参照/被参照論文間の相違点が理解できる.論文の参照情報とは,このように論文間の参照・被参照関係だけでなく,参照箇所や参照タイプといった情報まで含めた物を指す.参照情報は特定分野の論文の自動収集や論文間の関係の分析に利用できると考えられる.本稿の構成は以下の通りである.2章では,複数テキスト要約におけるポイントとサーベイ論文作成におけるポイントについて述べ,また関連研究を紹介する.3章では参照箇所と参照タイプについて説明する.また,参照箇所,参照タイプがサーベイ論文作成においてどのように利用できるかについて述べる.4章では,3章で述べた考え方を基にしたサーベイ論文作成支援システムの実現方法について説明する.また,参照箇所の抽出手法,参照タイプの決定手法について述べる.5章ではそれらの手法を用いた実験結果を示す.6章では,作成したサーベイ論文作成支援システムの動作例を示す.
V02N03-03
著者らは放送分野を対象とした英日機械翻訳システムを開発している\cite{Aiz90,Tan93,TanAndHat94}.この中で最もコストがかかり手間を要するのが辞書の作成である.著者らの経験によれば,この中で最も困難なのが動詞の表層格フレーム(以下,格フレームと省略する)の記述である.これは英語の動詞の日本語訳語を選択するために利用される情報で,動詞の取りうる文型とその時の訳語を記述したものである.従来,これらは冊子辞書や用例を参照しながら人手で収集・記述していた.しかし,\begin{enumerate}\item記述する表層格要素(以下,格要素と省略する)や,その制約を一貫して用いることが難しいこと\item格フレームの一部を変更した場合に,訳語選択に与える影響が把握しにくいこと等の問題があり,この収集・記述作業の効率は非常に悪かった.\end{enumerate}このため本論文ではこれらの問題の解決を目指し,格フレームの新たな表現手法,および獲得手法を提案する.これは著者らの英日機械翻訳システムのみならず,動詞訳語選択に格フレームを利用するその他の機械翻訳システムの構築にも応用できるものである.本論文では上記の2問題を解決するために次の2点を提案する.\begin{enumerate}\item動詞の翻訳のための格フレームを決定木の形で表現する.以下,本論文ではこの決定木を格フレーム木と呼ぶ.\item英日の対訳コーパスから,統計的な帰納学習アルゴリズムを用いて格フレーム木を自動的に学習する\cite{TanAndEha93,Tan94a,Tan94b}.\end{enumerate}また,この提案に基づいて実際に対訳コーパスから格フレーム木を獲得する実験を2種類行う.本論文で学習の対象としたのは訳語の数の多い英語の7つの動詞(``come'',``get'',``give'',``go'',``make'',``run'',``take'')である.最初の獲得実験では格要素の制約として語形を利用した.この結果,人間の直観に近く,かつ人手で獲得する場合より精密な訳し分けの情報が獲得されたことを示す.また2番目の実験では,格フレーム木の一般性を確保することを目的とし,意味コードを格要素の制約として用いた.この結果,未学習のデータを入力して動詞の訳語を決定する実験で2.4\%から32.2\%の誤訳率が達成された.これらの結果と,単純に最高頻度の訳語を出力した場合の誤訳率との差は13.6\%から55.3\%となりかなりの改善が得られた.実験に先だって著者らは英日の対訳コーパスを作成した.著者らの目的とする格フレーム木は,放送ニュース文を対象とすることを想定している.このため,学習には放送分野のコーパスを利用するのが望ましい.しかし,現在このような英日対訳コーパスは入手可能でないため,AP(AssociatedPress)のニュース英文を利用して作成した.本論文ではこの対訳コーパスの設計,作成過程および特徴についても触れる.著者らの研究は,コーパスから自然言語処理システムのルールを獲得する研究である.大規模コーパスが入手可能になるにつれ,この種の研究は盛んになりつつある.また,その獲得の目的とするルールもさまざまである.これらの中で本論文に近い研究としては,\cite{UtuAndMat93}および,\cite{Alm94}の研究が挙げられる.\cite{UtuAndMat93}では,自然言語処理一般に利用することを目的とした日本語動詞の格フレームの獲得を試みている.ここで提案されている手法は,タグ付けされていない対訳テキストから格フレームが獲得できる点で著者らの手法より優れている.しかし,ここで利用されている学習アルゴリズムは,格フレームの利用の仕方を考慮したものではない.このため,著者らの目的である動詞の訳語選択にどの程度有効であるかは不明である.これに対して,著者らのアルゴリズムはエントロピーを基準にして,動詞の訳語選択の性能を最大にするように格フレーム木の獲得を行う.この結果,訳語選択に適した情報が獲得され,しかもその性能が統計的に把握できる利点を持っている.\cite{Alm94}では著者らと逆に日英機械翻訳システムで利用するための日本語動詞の翻訳ルールを学習する手法を提案している.用いられている学習手法は基本的には本論文と同じものである.ただし,この論文では動詞の翻訳のための規則を決定木で表現することの利点について触れていないが,これには大きな利点があることを著者らは主張する.また,この論文では学習に利用した対訳事例をどのような所に求めたかは明らかにされていない.しかし,これは獲得される格フレーム木に大きな影響を与えるため著者らはこれを詳細に論ずる.さらに,この論文では人手で作成したルールとの一致で評価を行っているが,訳語選択の性能については触れられていない.これに対して著者らは動詞の誤訳率で評価を行う.本論文の構成は以下の通りである.2章では,人手で行っていた従来の格フレームの獲得,記述の問題点を整理する.3章ではこの解決のため,先に述べた提案を行うとともに,格フレーム木を英日対訳コーパスから学習する手法を説明する.4章では,本論文で利用する英日対訳コーパスの作成について述べる.5章では,このコーパスの語形を直接的に利用した格フレーム木の獲得実験を行う.6章では,対訳コーパスを意味コードで一般化したデータを作成して格フレーム木の獲得実験を行う.7章では本論文のまとめを行い,今後の課題について述べる.\begin{figure}\begin{center}\begin{tabular}{|ll|}\hlineSN[man]takeON[boy]&選ぶ\\SN[I]takeON[him]PN[to]PNc[BUILD]&連れていく\\SN[HUMAN]takeON[CON]PN[to]PNc[BUILD]&持っていく\\\hline\multicolumn{2}{r}{記号:格要素{[制約]}}\\\end{tabular}\caption{``take''の格フレームの例}\end{center}\end{figure}
V26N04-01
\label{sec:introduction}複単語表現(MWE)は,統語的もしくは意味的な単位として扱う必要がある,複数の単語からなるまとまりである\cite{Sag:2002}.MWEはその文法的役割に基づいて以下の4種に分類することができる(\tabref{tab:categories_of_mwes}):(1)複合機能語\footnote{本稿では副詞,接続詞,前置詞,限定詞,代名詞,助動詞,to不定詞,感動詞のいずれかとして機能するMWEを複合機能語として定義する.}({\itanumberof},{\iteventhough}),(2)形容詞MWE({\itdeadonone'sfeet},{\itoutofbusiness}),(3)動詞MWE(VMWE)({\itpickup},{\itmakeadecision}),(4)複合名詞({\ittrafficlight}).これ以降,MWEの文法的役割をMWE全体品詞と呼ぶことにする.\begin{table}[b]\caption{複単語表現(MWE)の文法的役割に基づく分類}\label{tab:categories_of_mwes}\input{01table01.tex}\end{table}上記の中でも特に複合機能語は統語的な非構成性を持ちうる.即ち,構成単語の品詞列から複合機能語のMWE全体品詞が予測し難い,というケースがしばしば存在する.たとえば,``byandlarge''は次の文で副詞として機能しているが,構成単語の品詞列(``IN''(前置詞または従属接続詞),``CC''(並列接続詞),``JJ''(形容詞))からこれを予測することは難しい.\begin{quote}{\bf\underline{Byandlarge}},theseeffortshavebornefruit.\end{quote}このようにMWEはしばしば非構成性を持つため,テキストの意味を自動理解する上でMWE認識は重要なタスクである\cite{newman:2012,berend:2011}.また,統語的な依存構造の情報を利用する応用タスクにおいて,MWEを考慮した依存構造(\figref{fig:a_number_of}b)の方が単語ベースの依存構造(\figref{fig:a_number_of}a)よりも好ましいと考えられる.MWEを考慮した依存構造では各MWEが統語的な単位となっているのに対し,単語ベースの依存構造ではMWEの範囲は表現されていない.MWEを考慮した依存構造の利点を享受しうる応用タスクの例としてはイベント抽出が挙げられる\cite{Bjorne2017}.イベント抽出ではイベントトリガーの検出とイベント属性値の同定が必要となるが,イベントトリガーとイベント属性値のいずれもMWEになりうる.また,イベントトリガーとイベント属性値を結ぶ依存構造上の最短経路は,しばしばイベント属性値の同定において特徴量として利用されている\cite{Li:2013}.\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f1.eps}\end{center}\hangcaption{単語ベースの依存構造とMWEを考慮した依存構造の比較.前者ではMWE(``anumberof'')の範囲が表現されていないのに対して,後者ではMWEが依存構造の単位となっている.}\label{fig:a_number_of}\end{figure}上述のように,MWEを考慮した依存構造解析は重要な研究課題である.そこで次にMWEを考慮した依存構造コーパスの構築方法について述べる.伝統的に,英語の依存構造コーパスはPennTreebank\cite{Marcus:1994}などのツリーバンク(句構造コーパス)からの自動変換によって構築されてきた.しかし既存のほとんどの英語ツリーバンクでは,MWEが句構造の部分木になっていることは保証されていない(\figref{fig:not_subtree}).このため,句構造からの自動変換で得られた依存構造において,MWEの構成単語群を単純にマージすることによって,MWEを考慮した依存構造を得られるとは限らない(\figref{fig:a_number_of})\cite{Kato:2016}.本稿ではこれ以降,あるMWEが句構造の部分木になっている時,{\bfMWEが句構造と整合的である},と記述する.コーパス中の全てのMWEの出現が句構造と整合的であるならば,我々はこれを{\bfMWEと整合的な句構造コーパス},と記述する.\citeA{Kato:2016}はOntonotes5.0\cite{Pradhan:2007}をMWEと整合的にすることによって,MWEを考慮した依存構造コーパスを構築した.しかし\citeA{Kato:2016}は複合機能語のみを対象としており,他のMWEは取り扱っていない.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f2.eps}\end{center}\hangcaption{MWEの範囲が句構造のいずれの部分木の範囲とも一致しない場合の例.図中の矩形はMWEの範囲を示す.}\label{fig:not_subtree}\end{figure}そこで本稿では,より多くの種類のMWEをカバーするために,新たに形容詞MWEのアノテーションを行う.その上で,Ontonotesコーパスが複合機能語および形容詞MWEと整合的になるように句構造木を修正する.その後,依存構造への自動変換を行い,MWEを考慮した大規模な依存構造コーパスを構築する(\ref{sec:corpus}章).依存構造に新たに統合するMWEとして,形容詞MWEを選択した理由を以下に述べる.第一に,複合名詞は統語的には構成的であるため,依存構造中の単位として扱うことで得られる利点は限定的である.また,複合名詞は高い生産性を持つため,辞書マッチングによる候補抽出を行うと,十分な網羅率が得られない可能性がある.したがって,複合名詞については,辞書に依存しないコーパスアノテーションが望ましいため,形容詞MWEよりもアノテーションコストが高い.第二に,動詞MWE(VMWE)は一般に非連続な出現を持ちうるため({\it{\bfpick}..{\bfup}}),句構造で部分木としてまとめる事ができないケースが存在する.このため,VMWEを考慮した依存構造コーパスを構築するためには,連続MWEとは異なるアプローチが必要となる.この点は今後の課題とする.また,文の意味理解が必要な応用タスクにおいては,句動詞など,非連続な出現を持ちうるMWE(VMWE)の認識も重要である.VMWEの認識を行う上で,連続MWEを考慮した依存構造,特に,依存構造中の動詞からparticleや直接目的語へのエッジは,有用な特徴量として利用できると期待される.そこで本研究では所与の文に対して,(i)連続MWE(複合機能語と形容詞MWE)を考慮した依存構造,(ii)VMWEの双方を予測する問題に取り組む(\ref{sec:model}章).連続MWEを考慮した依存構造解析のモデルとしては,以下の3者を検討する:(a)連続MWE認識を系列ラベリングとして定式化し,予測した連続MWEを単一ノードにマージした上で依存構造解析を行うパイプラインモデル,(b)連続MWEの範囲と全体品詞を依存関係ラベルとして符号化し(head-initialな依存構造),単語ベースの依存構造解析を行うモデル(Single-task(parser)),そして(c)上記(b)および,連続MWE認識との階層的マルチタスク学習モデル(HMTL)\cite{Sanh:2018}である.HMTLでは,上位タスクのエンコーダーは,下位タスクのエンコーダーからの出力と,単語分散表現などの入力特徴量の双方を受け取る.HMTLを用いる動機を以下に述べる.連続MWEを考慮した依存構造解析は,連続MWE認識と,連続MWEを統語構造の単位とする依存構造解析とに分解できる.したがって,head-initialな依存構造の解析器を単体で学習させるよりも,連続MWE認識を下位タスクとして位置付け,下位タスクのエンコーダーが捉えた特徴量も利用した方が,解析精度が向上すると期待される.Head-initialな依存構造の解析は,Deepbiaffineparser\cite{Dozat:2017}を用いて行い,連続MWE認識器としてはbi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を用いる.本研究でOntonotes上に構築した,複合機能語と形容詞MWEを考慮した依存構造コーパスを用いた実験の結果,連続MWE認識については,パイプラインモデルとHMTLベースのモデルがほぼ同等のF値を示し,Single-task(parser)を,連続MWE認識のF値で約1.7ポイント上回っていることを確認した.依存構造解析については,テストセット全体およびMWEを含む文において,各手法はほぼ同等のラベルなし正解率(UAS)を示した.一方,正解のMWEの先頭単語に着目すると,Single-task(parser)およびHMTLベースのモデルがパイプラインモデルをUASで少なくとも約1.4ポイント上回った.また,VMWE認識については,MWEの構成単語間のギャップを扱えるように拡張したBIO方式\cite{lrec_schneider:2014}を用いて系列ラベリングとして定式化し,(d)bi-LSTM-CNNs-CRFモデル(Single-task(VMWE))および(e)連続MWE認識,連続MWEを考慮した依存構造解析,Single-task(VMWE)のHMTLを検討する.VMWEのデータセットとしては,Ontonotesに対するVMWEアノテーションを用いる\cite{Kato:2018}.実験の結果,VMWE認識において,(e)が(d)に比べて,F値で約1.3ポイント上回ることを確認した.本稿で構築した,複合機能語および形容詞MWEを考慮した依存構造コーパスはLDC2017T16\footnote{https://catalog.ldc.upenn.edu/LDC2017T16}の次版としてリリースする予定である.
V21N05-04
線形計画問題において全てもしくは一部の変数が整数値を取る制約を持つ(混合)整数計画問題は,産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の1つである.近年,整数計画ソルバー(整数計画問題を解くソフトウェア)の進歩は著しく,現在では数千変数から数万変数におよぶ実務上の最適化問題が次々と解決されている.また,商用・非商用を含めて多数の整数計画ソルバーが公開されており,整数計画問題を解くアルゴリズムを知らなくても定式化さえできれば整数計画ソルバーを利用できるようになったため,数理最適化以外の分野においても整数計画ソルバーを利用した研究が急速に普及している.最適化問題は,与えられた制約条件の下で目的関数$f(\bm{x})$の値を最小にする解$\bm{x}$を1つ求める問題であり,線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最も基本的な最適化問題である.通常の線形計画問題では,全ての変数は連続的な実数値を取るが,全ての変数が離散的な整数値のみを取る線形計画問題は整数(線形)計画問題と呼ばれる.また,一部の変数が整数値のみを取る場合は混合整数計画問題,全ての変数が$\{0,1\}$の2値のみを取る場合は0-1整数計画問題と呼ばれる.最近では非線形の問題も含めて整数計画問題と呼ばれる場合が多いが,本論文では線形の問題のみを整数計画問題と呼ぶ.また,混合整数計画問題や0-1整数計画問題も区別せずに整数計画問題と呼ぶ.整数変数は離散的な値を取る事象を表すだけではなく,制約式や状態を切り替えるスイッチとして用いることが可能であり,産業や学術の幅広い分野における現実問題を整数計画問題に定式化できる.組合せ最適化問題は,制約条件を満たす解の集合が組合せ的な構造を持つ最適化問題であり,解が集合,順序,割当て,グラフ,論理値,整数などで記述される場合が多い.原理的に,全ての組合せ最適化問題は整数計画問題に定式化できることが知られており,最近では,整数計画ソルバーの性能向上とも相まって,整数計画ソルバーを用いて組合せ最適化問題を解く事例が増えている.現実問題を線形計画問題や整数計画問題に定式化する際には,線形式のみを用いて目的関数と制約条件を記述する必要がある.こう書くと,扱える現実問題がかなり限定されるように思われる.実際に,線形計画法の生みの親であるDantzigもWisconsin大学で講演をした際に「残念ながら宇宙は線形ではない」と批判を受けている\cite{KonnoH2005}.しかし,正確さを失うことなく現実問題を非線形計画問題に定式化できても最適解を求められない場合も多く,逆に非線形に見える問題でも変数の追加や式の変形により等価な線形計画問題や整数計画問題に変換できる場合も少なくない.そのため,現実問題を線形計画問題や整数計画問題に定式化してその最適解を求めることは,実用的な問題解決の手法として受け入れられている.現在では,整数計画ソルバーは現実問題を解決するための有用な道具として数理最適化以外の分野でも急速に普及している.一方で,数理最適化の専門家ではない利用者にとって,線形式のみを用いて現実問題を記述することは容易な作業ではなく,現実問題を上手く定式化できずに悩んだり,強力だが専門家だけが使う良く分からない手法だと敬遠している利用者も少なくない.そこで,本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する.なお,最近の整数計画ソルバーはアルゴリズムを知らなくても不自由なく利用できる場合が多いため,本論文では,線形計画法,整数計画法の解法および理論に関する詳しい説明は行わない.線形計画法については\cite{ChvatalV1983,KonnoH1987},整数計画法については\cite{KonnoH1982,NemhauserGL1988,WolseyLA1998}が詳しい.また,線形計画法,整数計画法の発展の歴史については\cite{AchterbergT2013,AshfordR2007,BixbyR2007,KonnoH2005,KonnoH2014,LodiA2010}が詳しい.
V26N02-04
語義曖昧性解消(以下,WSD)とは多義語の語義ラベルを付与するタスクである.長年,英語のみならず日本語を対象としたWSDの研究が盛んに行われてきた.しかし,その多くは教師あり学習による対象単語を頻出単語に限定したWSD(lexicalsampleWSD)であるため,実用性が高いとは言えない.これに対し,文書中のすべての単語を対象とするWSDをall-wordsWSDという.all-wordsWSDのツールがあれば,より下流の処理の入力として,例えば品詞情報のように語義を利用することが可能になり,より実用的になると期待される.all-wordsWSDは,lexicalsampleWSDと異なり,教師ありの機械学習に利用する十分な量の訓練事例を得ることが難しいため,辞書などの外部の知識を利用して,教師なしの手法で行われることが一般的である.all-wordsWSDの研究は日本語においては研究例が少ない.その理由のひとつに,all-wordsWSDを実行・評価するのに足りるサイズの語義つきコーパスがないことがあげられる.日本語の教師あり手法によるWSDでは,岩波国語辞典の語義が付与されている『現代日本語書き言葉均衡コーパス』(以下,BCCWJ)\cite{Okumura-2011}がよく用いられてきた.しかし,知識ベースの手法でall-wordsWSDを行う場合に多用される類義語の情報は岩波国語辞典のような語義列記型の辞書からは得ることができない.英語のall-wordsWSDにおいては,WordNet\footnote{https://wordnet.princeton.edu/}というシソーラスが辞書として主に利用されている.WordNetには日本語版も存在するが,基本的には英語版を和訳したものであり,日本語にしかない品詞の単語はどうするのかなどの問題点が残る.そのため,現在BCCWJに分類語彙表の意味情報がアノテーションされ,語義付きコーパスが整備されつつある.本研究では,整備されつつあるこのコーパス\cite{Kato-2018}を用いて,日本語を対象とした教師なしall-wordsWSDを行う.分類語彙表とは単語を意味によって分類したシソーラスである.レコード総数は約10万件で,各レコードは類・部門・中項目・分類項目を表す“分類番号”によって分類されている.その他にも分類語彙表では“段落番号”,“小段落番号”,“語番号”が各レコードに割り振られており,それらすべての番号によってレコードが一意に決まるようになっている.また,分類語彙表には「意味的区切り」が240箇所に存在し,分類番号による分類をさらに細かく分けている.本稿では分類語彙表から得られる類義語の情報を利用し,分類番号を語義とした日本語all-wordsWSDの手法を提案する.
V14N01-03
コンピュータに自然言語の意味を理解させるためには,文の述語とその項の意味的な関係を表現する必要がある.竹内は,述語と項の深層関係を表現する手法としての語彙概念構造に着目,これに基づく辞書を提案している\cite{takeuchi04,takeuchi05}.語彙概念構造は述語と項の深層関係を抽象化するため,言い換えの分野で有効性が示されている\cite{furuhata04}.河原らは,用言とその直前の格要素の組を単位とした用例ベースの辞書,格フレーム辞書を提案し,それに基づく格解析モデルを提案している\cite[など]{kawahara05_1,kawahara05}.照応や省略の解析に格フレーム辞書の有効性が示されている\cite[など]{sasano04,kawahara04,kawahara03}.格フレーム辞書は表層格を表現・区別し,語彙概念構造は表層格および深層関係を抽象化するものであり,表層格で区別できない述語と項の意味関係を個々の項について詳細に表現することはできない.これに対し,述語と項との詳細な意味関係を典型的場面についての構造化された知識である意味フレームに即して表現した体系として,日本語フレームネットが提案されている\cite[など]{ohara05}.日本語フレームネットは英語語彙情報資源FrameNet\footnote{http://framenet.icsi.berkeley.edu}と同様にフレーム意味論\cite{fillmore82}に基づく日本語語彙情報資源で,意味フレーム別に,その意味要素である詳細な意味役割を定義し,その意味フレームに関与する述語項構造の述語となる語彙項目をリストアップしている.格フレーム辞書,語彙概念構造辞書および日本語フレームネットによる,述語「払う」に対する記述を図\ref{fig:resource_comparison}に示す.\begin{figure}[p]\setlength{\tabcolsep}{1.3mm}\begin{tabular}{llllllllllll}\hline\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf格フレーム辞書}$^{*1}$}\\&\multicolumn{11}{l}{払う:動1}\\&&\multicolumn{2}{r}{*$\langle$ガ格$\rangle$}&\multicolumn{8}{l}{私:393,人:246,者:215,俺:168,自分:158,僕:101,あなた:38,$\langle$数量$\rangle$人:37,...}\\&&\multicolumn{2}{r}{*$\langle$ヲ格$\rangle$}&\multicolumn{8}{l}{金:18570,料:7522,料金:4101,税金:2872,$\langle$数量$\rangle$円:2726,費:1643,税:1340,...}\\&&\multicolumn{2}{r}{*$\langle$ニ格$\rangle$}&\multicolumn{8}{l}{$\langle$補文$\rangle$:336,人:250,者:233,会社:211,業者:127,店:95,NTT:72,屋:68,...}\\&&\multicolumn{2}{r}{*$\langle$デ格$\rangle$}&\multicolumn{8}{l}{レジ:106,$\langle$時間$\rangle$:75,受付:74,入り口:63,税金:63,$\langle$補文$\rangle$:56,コンビニ:55,...}\\&&\multicolumn{2}{r}{*$\langle$無格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:2739,$\langle$数量$\rangle$ドル:371,$\langle$数量$\rangle$回:363,$\langle$数量$\rangle$元:102,$\langle$数量$\rangle$人:96,...}\\&&\multicolumn{2}{r}{$\langle$時間$\rangle$}&\multicolumn{8}{l}{$\langle$時間$\rangle$:677}\\&&\multicolumn{2}{r}{$\langle$ノ格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:963,$\langle$時間$\rangle$:499,$\langle$数量$\rangle$:260,$\langle$数量$\rangle$ドル:164,$\langle$数量$\rangle$倍:153,...}\\&\multicolumn{11}{l}{払う:動2}\\&&\multicolumn{10}{l}{$\vdots$}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf語彙概念構造}$^{*2*3}$}\\&\multicolumn{3}{l}{払う}&\multicolumn{8}{l}{[[~]xCONTROL[BECOME[[~]yBEAT[FILLED]z]]]}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf日本語フレームネット}$^{*4*5}$}\\&\multicolumn{11}{l}{払う.v}\\&&\multicolumn{2}{l}{Frame:}&\multicolumn{8}{l}{Commerce\_pay}\\&&\multicolumn{2}{l}{Definition:}&\multicolumn{8}{l}{IPAL:相手に受け取る権利のある金を渡す.}\\&&\multicolumn{10}{l}{FrameElements:}\\\cline{4-11}&&&\multicolumn{2}{l}{FrameElement}&\multicolumn{6}{l}{Realizations}&\\\cline{4-11}&&&\multicolumn{2}{l}{\itBuyer}&DNI.--.--&INC.--.--&INI.--.--&NP.Ext.--&NP.Ext.ガ&&\\&&&\multicolumn{2}{l}{\itCircumstances}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itGoods}&NP.Obj.ヲ&&&&&&\\&&&\multicolumn{2}{l}{\itMeans}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itMoney}&NP.Obj.ヲ&DNI.--.--&NP.Obj.ハ&NP.Dep.--&NP.Obj.--&NP.Obj.モ&\\&&&\multicolumn{2}{l}{\itPlace}&NP.Dep.ニ&NP.Dep.デ&NP.Dep.ハ&&&&\\&&&\multicolumn{2}{l}{\itRate}&AVP.Dep.--&&&&&&\\&&&\multicolumn{2}{l}{\itReason}&AVP.Dep.--&Sfin.Dep.--&NP.Dep.カラ&&&&\\&&&\multicolumn{2}{l}{\itSeller}&DNI.--.--&NP.Dep.ヘ&INI.--.--&NP.Ext.ハ&&&\\&&&\multicolumn{2}{l}{\itTime}&NP.Dep.ニ&NP.Dep.モ&&&&&\\\cline{4-11}&&&&&&&&&&&\\\hline\hline\multicolumn{12}{r}{\begin{minipage}[t]{0.8\textwidth}\footnotesize\begin{itemize}\item[\hspace*{3mm}*1]\texttt{http://reed.kuee.kyoto-u.ac.jp/cf-search/}で検索した結果の一部を引用した.\item[\hspace*{3mm}*2]\texttt{http://cl.it.okayama-u.ac.jp/rsc/lcs/}から引用した.\item[\hspace*{3mm}*3]この例では,\texttt{x,y,z}は表層ではそれぞれ「が」「を」「に」格,深層ではそれぞれAgent,Theme,Goalに対応している.\item[\hspace*{3mm}*4]ここに示した日本語フレームネットデータは2006年8月現在のものである.\item[\hspace*{3mm}*5]表において,``FrameElement''(フレーム要素)はいわゆる深層格に当たる.\end{itemize}\end{minipage}}\\\end{tabular}\vspace{4pt}\caption{格フレーム辞書,語彙概念構造および日本語フレームネットにおける述語「払う」の記述}\label{fig:resource_comparison}\end{figure}FrameNetは機械翻訳や語義曖昧性解消の分野で有効と考えられており,将来の適用に向けて,FrameNet意味役割を自動推定するタスクのコンテストも開催されている\footnote{http://www.lsi.upc.edu/$\tilde{~}$srlconll/home.htmlならびにhttp://www.senseval.org/}\cite{litkowski04}.FrameNetに基づく意味役割自動推定は,述語の各項に対し,詳細な意味役割に相当する,フレーム意味論における「フレーム要素(FrameElement)」を付与する試みである.この研究はGildeaらの提案に端を発する\cite{gildea02}.Gildeaらは,条件付き確率モデルを用いた意味役割推定に加え,確率モデルの学習に必要な訓練事例の自動生成手法も提案した.Gildeaらの提案は,形式意味論の枠組みに沿って述語と項の意味的な関係を表現するPropBank\cite[など]{kingsbury02}を背景とした意味役割推定手法においても参照され,その改良として,確率モデルの獲得手法に最大エントロピー(ME)法\cite{berger96}やサポートベクタマシン(SVM)\cite{vapnik99}を用いた意味役割推定が複数提案された\cite[など]{kwon04,pradhan04,bejan04}.また,文中のどの部分が項であるかを同定するため,形態素の品詞や句の文法機能を用いて項を抽象化し,頻出するものを項とする手法も提案された\cite{baldewein04}.日本語フレームネットではFrameNetの枠組や方法論をふまえ,日英の比較対照を考慮した日本語語義記述が実践されているが,日本語フレームネットを用いた,日本語を対象とした意味役割の自動推定に関する研究は行われていない.そこで本稿では,日本語フレームネットに基づき,述語項構造における項の意味役割を推定するモデルを提案する.日本語フレームネットは現在作成中であり,現時点では語彙資源の規模が非常に小さい\footnote{2006年8月現在,FrameNetの注釈付き事例数約150,000に対し,日本語フレームネットの注釈付き事例数は1,756.}.そのため,日本語の意味役割推定にはある程度規模の大きい英語FrameNetを対象とした既存の手法をそのまま適用できず,小規模の語彙資源でも十分な精度で推定可能な手法を新たに考える必要がある.本稿では以上を踏まえ,日本語フレームネットの注釈付き事例に基づく機械学習を用いて,意味役割を推定するモデルの獲得手法を提案する.意味役割推定モデルは,文と述語から述語項構造を同定,意味役割を付与すべき項を抽出し,それらに適切な意味役割を付与するという3つのタスクを担う.モデルの獲得には最大エントロピー法ならびにサポートベクタマシンを用い,項候補の獲得には構文情報を利用する.同時に,モデルの学習に必要な訓練事例の自動生成も行う.
V27N01-05
辞書は言葉に関するさまざまな特徴を集積したものである.発音・形態論情報・品詞・単語分類・統語情報・意味情報・位相・語源・語釈などにより整理される.単語の使用実態に基づく言葉の特徴として{\bf単語親密度}がある.単語親密度は,人々がどのくらいその単語を知っているのか・使うのかといった,人の主観的な評価に基づく指標である.NTTコミュニーケーション科学基礎研究所による『日本語の語彙特性』\cite{Amano-1999}は,単語親密度を含む情報を『新明解国語辞典第四版』の見出し項目約80,000語について付与した.また同データは朝日新聞の1985年から1998年の14年分の記事データにおける頻度情報も含む.しかしながら,評定情報の収集や頻度情報が20年以上前のものである.本研究では,最近の単語親密度を評定することを試みる.日本語のシソーラスである『分類語彙表増補改訂版』\cite{WLSP-2004}の電子化データ『分類語彙表増補改訂版データベース』(以下「分類語彙表DB」と呼ぶ)の語彙項目94,838語を対象に,単語親密度付与を行った.評定値の収集にあたっては,「知っている」の観点のほか,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の位相情報を含めるために,「書く」「読む」「話す」「聞く」の4つの位相情報についても質問事項に含めた.安価に,そして,継続的に調査を行うためにクラウドソーシングにより評定値の収集を行った.しかしながら,「日本語の語彙特性」の調査のように{研究協力者}に対する統制などに制約があり,研究協力者の個体差の影響を受ける問題がある.この問題を緩和するために,収集されたデータをベイジアン線形混合モデル(BayesianLinearMixedModel:BLMM)\cite{Sorensen-2016}によりモデル化を行う.またシソーラスに単語親密度を付与することにより,統語分類・意味分類に基づく親密度・位相情報の評価もできるようになった.本研究の貢献は以下の通りである:\begin{itemize}\item日本語の大規模シソーラスに対する単語親密度情報の網羅的収集を行った.\item単語親密度の評定にクラウドソーシングを用いた.\item単語親密度の観点において「知っている」だけでなく,「書く」「読む」「話す」「聞く」の4つの位相情報についても検討し,単語の位相情報も評価した.これにより,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の対照比較ができる.\item単語親密度の統計処理にベイジアン線形混合モデルを導入し,研究協力者の個体差の影響の軽減を行った.\item語彙項目は分類語彙表DBの見出し語を用いた.分類語彙表の統語・意味分類に対して親密度が推定できるほか,UniDicと分類語彙表の対応表\cite{Kondo-2018}と形態素解析器を用いて親密度を自動付与できる.さらに,『岩波国語辞典第五版』の語釈文と分類語彙表の対応表\cite{呉-2019}の整備も進んでおり,語釈文との対照できる.\end{itemize}本稿の構成は以下の通りである.2節では関連研究について示す.3節ではクラウドソーシングに基づく単語親密度推定手法について示す.4節で結果を示し,5節にまとめと今後の展開について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V12N04-06
\label{sec:background}多言語コーパスが整備されていく過程で,ある言語への翻訳が複数の言語に基づいて行われる場合がある.たとえば,聖書の翻訳における日本語訳を考える際に,その原言語として様々な言語が存在する状況に類似している.原言語が英語とフランス語のような場合,それらからの日本語訳には,原言語の影響はほとんどないかもしれない.一方で,原言語として韓国語と英語のような対を考える場合,それらの原言語の違いは,翻訳に多大な影響を及ぼすと予想できる.一般に,ある言語への翻訳が存在する場合,同一内容のものを別の言語から翻訳することは経済的理由から非常に少ない.たとえば,英語から日本語に翻訳された文書が存在する場合,同一内容の文書を韓国語から日本語に翻訳することは極めて稀である.まとまった量の文書を翻訳する場合,その可能性はさらに低くなる.そのため,原言語が異なる同一内容の大規模文書の翻訳は,人為的に作成されない限り入手は困難である.一方で,原言語が翻訳に与える影響は確実に存在し,認識されている.ところが,これまで,原言語が翻訳に与える影響に関して,どのような現象がどの程度生じるのかについて詳細に調査した研究は存在しない.原言語によって生じる違いを詳細に研究することによって,人間と機械の双方にとってよりよい翻訳を得るための知見,知識が得られると考える.そこで,本研究では,日本語と英語の対訳コーパスから日本語と英語を原言語として韓国語コーパスを作成し,翻訳における原言語の影響を考察する.各コーパスは,162,308文から構成される.2つの韓国語コーパスと日英の対訳コーパスの関係を図\ref{fig_relation}に示す.\begin{figure}[tb]\begin{center}\epsfile{file=Relations1.eps,width=7.5cm}\caption{原言語が異なる韓国語コーパス}\label{fig_relation}\end{center}\end{figure}これら2つの韓国語翻訳コーパスは原言語が日本語ならびに英語と大きく異なることから,それぞれ原言語の影響を受けたいくつかの特徴があり,両者は大きく異なる.本論文では,敬語表現,語彙選択,統語的差異,同義表現,表記のゆれ(正書法)の5つの言語現象の観点からそれらの違いを分析する.周知のように英語は比較的固定された語順(SVO)を持ち,主語,目的語などが省略されない.反面,日本語は,述部が文末にくるが,それ以外の要素は,述部に対する関係を助詞などによって示すため,語順が柔軟である.さらに日本語では,文脈上明らかな主語,目的語などは明示されない.これらの点では,韓国語は英語より日本語に非常に近い言語である.このように,日本語と英語は,その構文構造が大きく異なる言語であり,語彙論的な観点からも,単語が与える意味や,その概念なども相当異なる.\begin{exe}\ex\label{k:angry}\gll韓国語:\hg{gyga}\hg{murieihaise}~\hg{hoaga}\hg{naSda.}\\直訳:彼が無礼で腹が立った\\\trans英語:``Hisrudenessannoyed/bothered/upsetme.''\end{exe}たとえば,例(\ref{k:angry})に示した韓国語と英語の2つの文\cite{Lee:1999}は,同じ内容を表しているが,韓国語は複文構造を,英語は単文構造をとっている.これは,英語と日本語の間の翻訳についても言えることであるが,一方の言語において自然な表現を翻訳する場合,目的言語における自然な構文構造が,原言語のそれとは大きく異なる場合がある.しかしながら,翻訳が理想的な状況で行われるとは限らず,原言語の構文構造をそのままに,単語や,句を目的言語の該当表現へ変換することによって翻訳する場合もある.したがって,原言語が日本語と英語のように大きく異なる言語からの韓国語翻訳文は,その原言語に大きく影響されると予想する.構文構造が大きく異なる言語間の翻訳において,目的言語における自然な構文へ翻訳することは,人間にとっても機械にとっても当然負担がかかる.以下に示す日本語と英語から韓国語への翻訳は,原言語の違いが翻訳に与える影響をよく示している.\begin{exe}\ex\begin{xlist}\ex\label{sj_1}このケーブルカーに乗れば,ホテルに行くことができます。(原文)\trans\gll訳:``\hg{qi}\hg{keiqibyrkaryr}\hg{tamien}\hg{hoteirqei}\hg{gar}\hg{su}\hg{'iSsybnida.}''\\この~ケーブルカーに~乗れば~ホテルに~行く~ことが~できます。\\\ex\label{se_1}Thiscablecarwilltakeyoutothehotel.(原文)\trans\gll訳:``\hg{keiqibyrkaga}\hg{hoteirqei}\hg{deirieda}\hg{jur}\hg{gebnida.}''\\ケーブルカーが~ホテルに~連れて~あげる~でしょう。\\\end{xlist}\end{exe}例(\ref{sj_1})の韓国語訳は,和文の構造をそのまま用いて翻訳されている反面,(\ref{se_1})の韓国語訳は英文の構造に影響されている.訳の自然さに関しては,日本語の構造の影響を受けている(\ref{sj_1})が(\ref{se_1})に比べて非常に良い.この例から,より自然な文へ翻訳するために構文構造の大きな変更が必要な場合,そのような変更が行われず,原言語に大きく影響された翻訳が数多く存在していると予想する.原言語の違いが翻訳に差をもたらす事実は,認識されてはいても,これまで詳細に検討されたことはなかった.本研究では,両コーパスの分析を通して翻訳における原言語の影響を計量的に示し,このような異質なコーパスを機械翻訳および他の自然言語処理の分野にどのように応用できるかについて考察する.
V20N03-06
2011年3月に発生した東日本大震災では,ソーシャルメディアは有益な情報源として大活躍した~\cite{nomura201103}.震災に関する情報源として,ソーシャルメディアを挙げたネットユーザーは18.3\%で,インターネットの新聞社(18.6\%),インターネットの政府・自治体のサイト(23.1\%)と同程度である.ニールセン社の調査~\cite{netrating201103}によると,2011年3月のmixiの利用者は前月比124\%,Twitterは同137\%,Facebook同127\%であり,利用者の大幅な伸びを示した.東日本大震災後のTwitterの利用動向,交換された情報の内容,情報の伝搬・拡散状況などの分析・研究も進められている~\cite{Acar:11,Doan:11,Sakaki:11,Miyabe:11}.Doanら~\cite{Doan:11}は,大震災後のツイートの中で地震,津波,放射能,心配に関するキーワードが多くつぶやかれたと報告している.宮部ら~\cite{Miyabe:11}は,震災発生後のTwitterの地域別の利用動向,情報の伝搬・拡散状況を分析した.Sakakiら~\cite{Sakaki:11}は,地震や計画停電などの緊急事態が発生したときのツイッターの地域別の利用状況を分析・報告している.AcarとMurakiは~\cite{Acar:11},震災後にツイッターで交換された情報の内容を分類(警告,救助要請,状況の報告:自身の安否情報,周りの状況,心配)している.一方で,3月11日の「コスモ石油のコンビナート火災に伴う有害物質の雨」に代表されるように,インターネットやソーシャルメディアがいわゆるデマ情報の流通を加速させたという指摘もある.東日本大震災とそれに関連する福島第一原子力発電所の事故では,多くの国民の生命が脅かされる事態となったため,人間の安全・危険に関する誤情報(例えば「放射性物質から甲状腺を守るにはイソジンを飲め」)が拡散した.東日本大震災に関するデマをまとめたツイート\footnote{https://twitter.com/\#!/jishin\_dema}では,2012年1月時点でも月に十数件のペースでデマ情報が掲載されている.このように,Twitter上の情報の信憑性の確保は,災害発生時だけではなく,平時においても急務である.我々は,誤情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め」)に対してその訂正情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め\ulinej{というのはデマ}」)を提示することで,人間に対してある種のアラートを与え,情報の信憑性判断を支援できるのではないかと考えている.訂正情報に基づく信憑性判断支援に向けて,本論文では以下に挙げる3つの課題に取り組む.\begin{description}\item[東日本大震災時に拡散した誤情報の網羅的な収集:]「○○というのはデマ」「○○という事実は無い」など,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を自動的に収集する手法を提案する.震災時に拡散した誤情報を人手でまとめたウェブサイトはいくつか存在するが,東日本大震災発生後の大量のツイートデータから誤情報を自動的,かつ網羅的に掘り起こすのは,今回が初めての試みである.評価実験では,まとめサイトから取り出した誤情報のリストを正解データと見なし,提案手法の精度や網羅性に関して議論する.\item[東日本大震災時に拡散した誤情報の発生から収束までの過程の分析:]東日本大震災時の大量のツイートデータから自動抽出された誤情報に対し,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を時系列で可視化することで,誤情報の発生から収束までの過程をモデル化する.\item[誤情報と訂正情報の識別の自動化:]誤情報を訂正している情報を自然言語処理技術で自動的に認識する手法を提案し,その認識精度を報告する.提案手法の失敗解析などを通じて,誤情報と訂正情報を対応づける際の技術的課題を明らかにする.また,本研究の評価に用いたデータは,ツイートIDと\{誤情報拡散,訂正,その他\}のラベルの組として公開を予定しており,誤情報とその訂正情報の拡散に関する研究の基礎データとして,貴重な言語資源になると考えている.\end{description}なお,ツイートのデータとしては,東日本大震災ワークショップ\footnote{https://sites.google.com/site/prj311/}においてTwitterJapan株式会社から提供されていた震災後1週間の全ツイートデータ(179,286,297ツイート)を用いる.本論文の構成は以下の通りである.まず,第2節では誤情報の検出に関する関連研究を概観し,本研究との差異を述べる.第3節では誤情報を網羅的に収集する手法を提案する.第4節では提案手法の評価実験,結果,及びその考察を行う.第5節では,収集した誤情報の一部について,誤情報とその訂正情報の拡散状況の分析を行い,自動処理による訂正情報と誤情報の対応付けの可能性について議論する.最後に,第6節で全体のまとめと今後の課題を述べる.
V08N01-01
近年,インターネットの普及とともに,個人でWWW(WorldWideWeb)を代表とするネットワーク上の大量の電子データやデータベースが取り扱えるようになり,膨大なテキストデータの中から必要な情報を取り出す機会が増加している.しかし,このようなデータの増加は必要な情報の抽出を困難とする原因となる.この状況を反映し,情報検索,情報フィルタリングや文書クラスタリング等の技術に関する研究開発が盛んに進められている.情報検索システムの中でよく使われている検索モデルに,ベクトル空間モデル\cite{salton}がある.ベクトル空間モデルは,文書と検索要求を多次元空間ベクトルとして表現する方法である.基本的には,文書集合から索引語とするタームを取り出し,タームの頻度などの統計的な情報により,文書ベクトルを表現する.この際,タームに重みを加えることにより,文書全体に対するタームの特徴を目立たせることが可能である.この重みを計算するために,IDF(InverseDocumentFreqency)\cite{chisholm}などの重みづけ方法が数多く提案されている.また,文書と検索要求を比較する類似度の尺度として,内積や余弦(cosine)がよく用いられている.この類似度計算により,類似度の高いものからランクづけを行い,ユーザに表示することができることもベクトル空間モデルの特徴のひとつである.ベクトル空間モデルを用いた検索システムを新聞記事などの大量の文書データに対して適用した場合,文書データ全体に存在するタームの数が非常に多くなるため,文書ベクトルは高い次元を持つようになる.しかし,ひとつの文書データに存在するタームの数は文書データ全体のターム数に比べると非常に少なく,文書ベクトルは要素に0の多い,スパースなベクトルになる.このような文書ベクトルを用いて類似度を計算する際には,検索時間の増加や文書ベクトルを保存するために必要なメモリの量が大きな問題となる.このため,単語の意味や共起関係などの情報を用いたり,ベクトル空間の構造を利用してベクトルの次元を圧縮する研究が盛んに行われている.このようなベクトルの次元圧縮技術には,統計的なパターン認識技術や線形代数を用いた手法などが用いられている\cite{Kolda}\cite{Faloutsos}.この中で,最も代表的な手法として,LSI(LatentSemanticIndexing)がある\cite{Deerwester}\cite{Dumais}.この手法は,文書・単語行列を特異値分解を用いて,低いランクの近似的な行列を求めるものであり,これを用いた検索システムは,次元圧縮を行わない検索モデルと比較して一般的に良い性能を示す.しかし,特異値分解に必要な計算量が大きいために,検索モデルを構築する時間が非常に長いことが問題となっている.上記の問題を解決するベクトル空間モデルの次元圧縮手法に,ランダム・プロジェクション\cite{Arriaga}が存在する.ランダム・プロジェクションは,あらかじめ指定した数のベクトルとの内積を計算することで次元圧縮を行う手法である.これまでに報告されているランダム・プロジェクションを用いた研究には,VLSI(VeryLarge-ScaleIntegratedcircuit)の設計問題への利用\cite{Vempala}や次元圧縮後の行列の特性を理論的に述べたものがある\cite{Papadimitriou}\cite{Arriaga}.しかし,これらの文献では,ランダム・プロジェクションの理論的な特性は示されているものの,情報検索における具体的な実験結果は報告されていない.そのため,情報検索に対するランダム・プロジェクションの有効性に疑問が残る.我々は,ランダム・プロジェクションを用いた情報検索モデルを構築し,評価用テストコレクションであるMEDLINEを利用した検索実験を行った.この検索実験より,情報検索における次元圧縮手法として,ランダム・プロジェクションが有効であることを示す.また,ランダム・プロジェクションを行う際にあらかじめ指定するベクトルとして,文書の内容を表す概念ベクトル\cite{Dhillon}の利用を提案する.概念ベクトルは文書の内容が似ているベクトル集合の重心で,この概念ベクトルを得る際,高次元でスパースな文書データ集合を高速にクラスタリングすることができる球面$k$平均アルゴリズム\cite{Dhillon}を用いる.これにより,文書集合を自動的にクラスタリングできるだけでなく,ランダム・プロジェクションに必要な概念ベクトルも同時に得ることができる.この概念ベクトルをランダム・プロジェクションで用いることにより,任意のベクトルを用いた検索性能と比較して,検索性能が改善されていることを示し,概念ベクトルを利用した次元圧縮の有効性を示す.
V14N02-03
従来の中国語構文解析では,文脈自由型句構造文法CFG(ContextFreePhraseStructureGrammar)で文の構造を取り扱うことが一般的となっている.しかし,句構造文法PSG(PhraseStructureGrammar)\footnote[1]{通常,句構造文法という用語は生成文法(変形文法),依存構造文法などと並べれて論じられ,GPSG,HPSG等の単一化文法理論を含む文法記述の枠組み,もしくは形式言語におけるチョムスキーの階層に関する文法記述の枠組みを表す.本論文では,句構造文法という用語を,「文を逐次的に句などの小さい単位に分割し,文を階層的な句構造によって再帰的な構造上の関係に還元して説明する考え方」の意味で用いる.}により構築した文法体系では,規則の衝突による不整合が避けられず,曖昧性は大きな問題となっている.中国語構文解析に関する研究はチョムスキーの文脈自由文法CFGを取り入れて始められた.しかし,中国語には次の特徴があり,CFGで中国語文構造を取り扱うと,曖昧性が顕著である.\begin{itemize}\item文はそのまま主部,述部,目的語になれる\cite{zhu1}.\item動詞や形容詞は英語のような動詞や形容詞の語尾変化などの形態的変化がない\cite{zhu1}.\item動詞など複数の品詞を持つ単語が多く,しかも頻繁に使用される\cite{zhou2}.\end{itemize}そのため,文脈自由文法で記述した規則は再帰性が強く,しかも構文的制限が非常に緩やかであり,文脈自由文法に基づいたパーザを用いて構文解析を行なうと,動詞や形容詞の数が増えるにつれて,曖昧性は爆発的に増大するという問題がある\cite{masterpaper}\cite{yang}.構文解析部の実装に関しては,コーパスに基づく手法と規則に基づく手法とがあるが,中国語処理においては,コーパスに基づく手法が主流となっている\cite{huang}.なかでも,確率文脈自由文法PCFG(ProbabilisticContextFreeGrammar)がよく用いられている\cite{ictprop1}\cite{xiong}\cite{linying}\cite{chenxiaohui}.しかし,確率的手法に基づく解析では,分野依存性が強く,精度上の限界がある.一方,規則に基づく手法では,西欧言語を対象とする解析手法を直接中国語に使用するのは問題があるため,中国語に適応した方法が模索されている段階にある\cite{zhang}.このような中国語構文解析における課題を解決することが中国語処理の発展に必要である.そのため,中国語において,コンピュータにより効率的に処理できる構文解析用の文法体系を構築することは大きな意義がある.本論文では,文構造において述語動詞(または形容詞)を中心とし,すべての構文要素を文のレベルで取り扱う{\bf文構造文法}{\bfSSG}(\underline{S}entence\underline{S}tructure\underline{G}rammar)を提案する.そして,SSGの考え方に基づき中国語におけるSSG文法規則体系を構築し,それを構造化チャートパーザSchart~\cite{schart}上に実装し,評価実験を行った.SSG規則は互いに整合性がよく,品詞情報と文法規則のみで解析の曖昧性を効果的に抑止し,PCFGに基づく構文解析より高い正解率が得られた.
V14N03-02
現代日本語の「です・ます」は,話手の感情・評価・態度に関わるさまざまな意味用法を持つことが指摘されている.従来の研究では,敬語および待遇表現,話し言葉/書き言葉の観点や,文体論あるいは位相論といった立場・領域から個別に記述されてきたが,「です・ます」の諸用法を有機的に結びつけようとする視点での説明はなされていない\footnote{「敬語」の一種であるという位置づけがなされている程度である.一例として,次のような記述がある.「「です・ます」は,一連の文章や話し言葉の中では,使うとすれば一貫して使うのが普通で,その意味で文体としての面をもちます.「です・ます」を一貫して使う文体を敬体,一貫して使わない文体を常体と呼びます.(中略)しかし,文体である以前に,「です・ます」はやはりまず敬語です」(菊地1996:90--91)}.本稿では「伝達場面の構造」を設定し,言語形式「です・ます」の諸用法を,その本質的意味と伝達場面との関係によって導かれるものと説明する.こうした分析は,「です・ます」個別の問題に留まらず,言語形式一般の記述を単純化しダイナミックに説明しうる汎用性の高いものと考える.本稿の構成は以下の通りである.まず,\ref{youhou}.で従来指摘されている「です・ます」の諸用法を確認し,\ref{model}.において「話手/聞手の「共在性」」に注目しつつ伝達場面の構造をモデル化する.さらに「共在性」を表示する形式を「共在マーカー」と名付け,なかでも「です・ます」のような聞手を前提とする言語形式の操作性に注目する.これを受けて\ref{meca}.では,「です・ます」の「感情・評価・態度」の現れが,伝達場面の構造モデルと「です・ます」の本質的機能および共在マーカーとしての性質から説明できることを述べ,\ref{matome}.のまとめにおいて今後の課題と本稿のモデルの発展性を示す.
V23N05-05
\label{sec:intro}\subsection{研究背景}\label{sec:background}言語は,人間にとって主要なコミュニケーションの道具であると同時に,話者集団にとっては社会的背景に根付いたアイデンティティーでもある.母国語の異なる相手と意思疎通を取るためには,翻訳は必要不可欠な技術であるが,専門の知識が必要となるため,ソフトウェア的に代行できる機械翻訳の技術に期待が高まっている.英語と任意の言語間での翻訳で機械翻訳の実用化を目指す例が多いが,英語を含まない言語対においては翻訳精度がまだ実用的なレベルに達していないことが多く,英語を熟知していない利用者にとって様々な言語間で機械翻訳を支障なく利用できる状況とは言えない.人手で翻訳規則を記述するルールベース機械翻訳(Rule-BasedMachineTranslation;RBMT\cite{nirenburg89})では,対象の2言語に精通した専門家の知識が必要であり,多くの言語対において,多彩な表現を広くカバーすることも困難である.そのため,近年主流の機械翻訳方式であり,機械学習技術を用いて対訳コーパスから自動的に翻訳規則を獲得する統計的機械翻訳(StatisticalMachineTranslation;SMT\cite{brown93})について本論文では議論を行う.対訳コーパスとは,2言語間で意味の対応する文や句を集めたデータのことを指すが,SMTでは学習に使用する対訳コーパスが大規模になるほど,翻訳結果の精度が向上すると報告されている\cite{dyer08}.しかし,英語を含まない言語対などを考慮すれば,多くの言語対において,大規模な対訳コーパスを直ちに取得することは困難と言える.このような,容易に対訳コーパスを取得できないような言語対においても,既存の言語資源を有効に用いて高精度な機械翻訳を実現できれば,機械翻訳の実用の幅が大きく広がることになる.特定の言語対で十分な文量の対訳コーパスが得られない場合,中間言語(\textit{Pvt})を用いたピボット翻訳が有効な手法の一つである\cite{gispert06,cohn07,zhu14}.中間言語を用いる方法も様々であるが,一方の目的言語と他方の原言語が一致するような2つの機械翻訳システムを利用できる場合,それらをパイプライン処理する逐次的ピボット翻訳(CascadeTranslation\cite{gispert06})手法が容易に実現可能である.より高度なピボット翻訳の手法としては,原言語・中間言語(\textit{Src-Pvt})と中間言語・目的言語(\textit{Pvt-Trg})の2組の言語対のためにそれぞれ学習されたSMTシステムのモデルを合成し,新しく得られた原言語・目的言語(\textit{Src-Trg})のSMTシステムを用いて翻訳を行うテーブル合成手法(Triangulation\cite{cohn07})も提案されており,この手法で特に高い翻訳精度が得られたと報告されている\cite{utiyama07}.これらの手法は特に,今日広く用いられているSMTの枠組の一つであるフレーズベース機械翻訳(Phrase-BasedMachineTranslation;PBMT\cite{koehn03})について数多く提案され,検証されてきた.しかし,PBMTにおいて有効性が検証されたピボット翻訳手法が,異なるSMTの枠組でも同様に有効であるかどうかは明らかにされていない.例えば英語と日本語,英語と中国語といった語順の大きく異なる言語間の翻訳では,同期文脈自由文法(SynchronousContext-FreeGrammar;SCFG\cite{chiang07})のような木構造ベースのSMTによって高度な単語並び替えに対応可能であり,PBMTよりも高い翻訳精度を達成できると報告されている.そのため,PBMTにおいて有効性の知られているピボット翻訳手法が,SCFGによる翻訳でも有効であるとすれば,並び替えの問題に高度に対応しつつ直接\textit{Src-Trg}の対訳コーパスを得られない状況にも対処可能となる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia5f1.eps}\end{center}\caption{2組の単語対応から新しい単語対応を推定}\label{fig:align-estimation}\end{figure}また,テーブル合成手法では,\textit{Src-Pvt}フレーズ対応と\textit{Pvt-Trg}フレーズ対応から,正しい\textit{Src-Trg}フレーズ対応と確率スコアを推定する必要がある.図\ref{fig:align-estimation}に示す例では,個別に学習された(a)の日英翻訳および(b)の英伊翻訳における単語対応から,日伊翻訳における単語対応を推定したい場合,(c)のように単語対応を推定する候補は非常に多く,(d)のように正しい推定結果を得ることは困難である.その上,図\ref{fig:align-estimation}(c)のように推定された\textit{Src-Trg}の単語対応からは,原言語と目的言語の橋渡しをしていた中間言語の単語情報が分からないため,翻訳を行う上で重要な手がかりとなり得る情報を失ってしまうことになる.このように語義曖昧性や言語間の用語法の差異により,ピボット翻訳は通常の翻訳よりも本質的に多くの曖昧性の問題を抱えており,さらなる翻訳精度の向上には課題がある.\subsection{研究目的}\label{sec:purpose}本研究では,多言語機械翻訳,とりわけ対訳コーパスの取得が困難である少資源言語対における機械翻訳の高精度化を目指し,従来のピボット翻訳手法を調査,問題点を改善して翻訳精度を向上させることを目的とする.ピボット翻訳の精度向上に向けて,本論文では2段階の議論を行う.第1段階目では,従来のPBMTで有効性の知られているピボット翻訳手法が異なる枠組のSMTでも有効であるかどうかを調査する.\ref{sec:background}節で述べたように,PBMTによるピボット翻訳手法においては,テーブル合成手法で高い翻訳精度が確認されているため,木構造ベースのSMTであるSCFGによる翻訳で同等の処理を行うための応用手法を提案する.SCFGとテーブル合成手法によるピボット翻訳が,逐次的ピボット翻訳や,PBMTにおけるピボット翻訳手法よりも高い精度を得られるどうかを比較評価することで,次の段階への予備実験とする\footnote{\label{fn:papers}本稿の内容の一部は,情報処理学会自然言語処理研究会\cite{miura14nl12,miura15nl07}およびACL2015:The53rdAnnualMeetingoftheAssociationforComputationalLinguistics\cite{miura15acl}で報告されている.本稿では,各手法・実験に関する詳細な説明,中国語やアラビア語など語族の異なる言語間での比較評価実験や品詞毎の翻訳精度に関する分析を追加している.}.第2段階目では,テーブル合成手法において発生する曖昧性の問題を解消し,翻訳精度を向上させるための新たな手法を提案する.従来のテーブル合成手法では,図\ref{fig:align-estimation}(c)に示したように,フレーズ対応の推定後には中間言語フレーズの情報が失われてしまうことを\ref{sec:background}節で述べた.この問題を克服するため,本論文では原言語と目的言語を結び付けていた中間言語フレーズの情報も翻訳モデル中に保存し,原言語から目的言語と中間言語へ同時に翻訳を行うための確率スコアを推定することによって翻訳を行う新しいテーブル合成手法を提案する.通常のSMTシステムでは,入力された原言語文から,目的言語における訳出候補を選出する際,文の自然性を評価し,適切な語彙選択を促すために目的言語の言語モデル(目的言語モデル)を利用する.一方,本手法で提案する翻訳モデルとSMTシステムでは,原言語文に対して目的言語文と中間言語文の翻訳を同時に行うため,目的言語モデルのみではなく,中間言語の言語モデル(中間言語モデル)も同時に考慮して訳出候補の探索を行う.本手法の利点は,英語のように中間言語として選ばれる言語は豊富な単言語資源を得られる傾向が強いため,このような追加の言語情報を翻訳システムに組み込み,精度向上に役立てられることにある\footnoteref{fn:papers}.
V15N05-05
\label{hajime}共参照解析とは,ある表現が他の表現と同一の対象を指していることを同定する解析のことであり,計算機による自然言語の意味理解を目指す上で重要な技術である.本研究では,日本語文における,同一文章内の表現間の共参照である文章内共参照を解析の対象とする.文章内共参照では,ある表現(照応詞)が文章中の先行する表現(先行詞)と同一の対象を指している場合にそれを認識することが目的となる.共参照における照応詞としては,普通名詞,固有名詞,代名詞の3つが考えられる.英語などの言語では照応詞として代名詞が頻繁に使用されるが,日本語では代名詞の多くはゼロ代名詞として省略されるため,照応詞の多くは普通名詞,固有名詞が占めている.ゼロ代名詞の検出・解析(ゼロ照応解析)も,意味理解を目指すためには欠かすことのできない解析であり,多くの研究が行われている\cite{Seki2002,Kawahara2004a,Iida2006}.ゼロ照応解析は,先行する文中から先行詞を同定するという点では共参照解析と同じであるが,ゼロ代名詞の認識が必要である点,省略されているため照応詞自体に関する情報がない点で異なっており,より応用的なタスクであると言える.本研究では,高精度な照応解析システムを実現するためには,まず基礎的な照応解析である共参照解析の精度向上が重要であると考え,共参照解析の精度向上を目指す.共参照解析の手法としては大きく分けて,人手で作成した規則に基づく手法と,タグ付きコーパスを用いた機械学習に基づく手法がある.英語を対象とした共参照解析では,これらの2手法によりほぼ同程度の精度が得られている\cite{Soon2001,Ng2002a,Zhou2004}.一方,日本語の場合は規則に基づく手法で高い精度が得られる傾向がある\cite{Iida2003,Murata1996b}\footnote{これらの研究では使用しているコーパスが異なるため単純には比較できないものの,新聞記事を対象とした予備実験の結果,規則に基づく手法でより高い精度が得られた.}.日本語において規則に基づく手法で高い精度が得られるのは,普通名詞,固有名詞間の共参照関係が大部分であり,語彙的情報が非常に大きな役割を占めるため,機械学習によって得られる性向が,人手で作成した規則でも十分に反映できているためであると考えられる.そこで本研究では基本的に,人手で設定した規則に基づく共参照解析システムを構築する.照応詞が普通名詞,固有名詞となる場合,照応詞と先行詞の関係は大きく以下のように分類できる.\begin{enumerate}\item照応詞の表記が先行詞の表記に含まれているもの:Ex.大統領官邸=官邸\label{most1}\item同義表現による言い換え:Ex.北大西洋条約機構=NATO\label{most2}\itemその他(クラスとインスタンス,上位語と下位語など):Ex.1995年=前年\label{most3}\end{enumerate}このうち,\ref{most1}は基本的に照応詞が先行詞と一致する場合や,末尾に含まれている場合で,特別な知識がなくても認識が可能である.ただし,末尾が一致する場合すべてが共参照関係にあるわけではなく,精度の高い解析のためには照応詞,先行詞が指すものを解析する必要がある.例えば次のような2文があった場合,いずれの文にも「結果」という語が複数回出現するが,aではそれらが同一の内容を指しているのに対し,bでは異なる内容を指している.\exs{a.&2006FIFAワールドカップ優勝国予想アンケートを行った.\underline{結果}はブラジルがトップだった.アンケート\underline{結果}の詳細はWebで見られる.\label{kekka}\\&b.&先月行なわれた韓国との親善試合の\underline{結果}を受けアンケートを行った.アンケート\underline{結果}から以下のようなことが判明した.}\\これらの違いを正しく解析するためには,a中の「結果」はともに「アンケートの結果」を意味しているのに対し,b中の「結果」は順に「試合の結果」,「アンケートの結果」を意味していることを認識する必要がある.そこで本研究では,係り受け解析,および,自動構築した名詞格フレームに基づく橋渡し指示(bridgingreference)解析により名詞句の関係を解析し,その結果を共参照解析の手掛りとして用いる.2は「北大西洋条約機構」と「NATO」のように,同義表現を用いた言い換えとなっている場合である.同義表現を用いた言い換えとなっている場合,人間が同一性を理解する場合も,事前の知識がないと困難な場合も多い.そこで,同義表現に関する知識を事前にコーパスや国語辞典から自動的に獲得し,獲得した同義表現知識を共参照解析に使用する.\ref{most3}については,シソーラスを用いたり,文脈的な手がかりを用いることによって解決できる場合があると考えられるが,本研究では解析を行なわず,今後の課題とする.
V15N05-04
言葉の意味処理にとってシソーラスは不可欠の資源である.シソーラスは,単語間の上位下位関係という,いわば縦の関連を表現するものである.我々は意味処理技術の深化を目指し,縦の関連に加えて,単語が使用されるドメインという,いわば横の関連を提案する.例えば,単語が「教科書」「先生」ならドメインは\dom{教育・学習}であり,「庖丁」なら\dom{料理・食事},「メス」なら\dom{健康・医学}である.本研究では,このようなドメイン情報を基本語約30,000語に付与し,基本語ドメイン辞書として完成させた.ドメインを考慮することでより自然な単語分類が可能となる.例えば分類語彙表は,「教科書」は『文献・図書』,「先生」は『専門的・技術的職業』として区別するが,ドメイン上は両者とも\dom{教育・学習}に属する.また,分類語彙表は「庖丁」も「メス」も『刃物』として同一視するが,両者はドメインにおいて区別される.ドメイン情報は様々な自然言語処理タスクで利用されてきた.本研究では\S\ref{bunrui-method}で述べるように文書分類に応用するが,それ以外にも,文書フィルタリング\cite{Liddy:Paik:1993},語義曖昧性解消\cite{Rigau:Atserias:Agirre:1997,Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007},機械翻訳\cite{Yoshimoto:Kinoshita:Shimazu:1997,Lange:Yang:1999}等で用いられてきた.本研究で開発した基本語ドメイン辞書構築手法は半自動のプロセスである.まず,人手で付与されたドメイン手掛かり語と各基本語の関連度をもとに,基本語にドメインを自動付与する.次に,自動ドメイン付与結果を人手で修正して完成させる.関連度計算には検索ヒット数を利用した.本研究で半自動の構築プロセスを採用したのは次の理由による.基本語の語彙情報は,多くの自然言語処理技術の根幹を形成するものであり,非常に高い正確さが要求される.しかし今日の技術では,全自動でそのような正確さを備えた語彙情報を獲得するのは困難である.一方で,全て人手で作業するのは,コスト的にも,一貫性と保守性の観点からも望ましくない.以上の理由により,高い精度の自動ドメイン付与結果を人手で修正する,という半自動プロセスを採用した\footnote{京都テキストコーパスも同様の理由から,高精度な構文解析器KNP\cite{黒橋:長尾:1992}.による解析結果を人手で修正する,という手法を採用した.}このドメイン辞書は世界初のフリーの日本語ドメイン資源である.また,本手法に必要なのは検索エンジンへのアクセスのみで,文書集合や高度に構造化された語彙資源等は必要ない.さらに,基本語ドメイン辞書の応用としてブログ自動分類を行った.各ブログ記事は,記事中の語にドメインとIDF値が付与され,最もIDF値の高いドメインに分類される.基本語ドメイン辞書に無い未知語のドメインは,基本語ドメイン辞書,Wikipedia,検索エンジンを利用して,リアルタイムで推定される.結果として,ブログ分類正解率94\%(564/600)と,未知語ドメイン推定正解率76.6\%(383/500)が得られた.なお,基本語ドメイン辞書に収録するのは基本語のみ\footnote{より正確には,JUMAN\cite{JumanManual:2005}に収録された内容語約30,000語である.}であり,専門用語等は含めない.以下,\S\ref{2issues}で基本語ドメイン辞書構築時の問題点を,\S\ref{domain-construction-method}では基本語ドメイン辞書構築手法を述べる.完成した基本語ドメイン辞書の詳細は\S\ref{dic-spec}で報告する.\S\ref{bunrui-method}では基本語ドメイン辞書のブログ分類への応用について述べ,\S\ref{unknown_domest}ではブログ分類時に用いられる未知語ドメイン推定について述べる.その後,ブログ分類と未知語ドメイン推定の評価結果を\S\ref{eval}で報告する.\S\ref{related-work}で関連研究と比較した後,\S\ref{conclusion}で結論を述べる.
V06N07-04
\label{sec:sec1}インターネットの普及も手伝って,最近は電子化されたテキスト情報を簡単にかつ大量に手にいれることが可能となってきている.このような状況の中で,必要な情報だけを得るための技術として文章要約は重要であり,計算機によって要約を自動的に行なうこと,すなわち自動要約が望まれる.自動要約を実現するためには本来,人間が文章を要約するのと同様に,原文を理解する過程が当然必要となる.しかし,計算機が言語理解を行うことは現在のところ非常に困難である.実際,広範囲の対象に対して言語理解を扱っている自然言語処理システムはなく,ドメインを絞ったトイシステムにとどまっている.一方では言語理解に踏み込まずともある程度実現されている自然言語処理技術もある.例えば,かな漢字変換や機械翻訳は,人間が適切に介在することにより広く利用されている.自動要約の技術でも言語理解を導入せずに,表層情報に基づいたさまざまな手法が提案されている.これらの手法による要約は用いる情報の範囲により大きく2つに分けることができる.本論文では文章全体にわたる広範な情報を主に用いて行なう要約を{\gt大域的要約},注目個所の近傍の情報を用いて行なう要約を{\gt局所的要約}と呼ぶ.我々は字幕作成への適用も視野に入れ,現在,局所的要約に重点を置き研究している.局所的要約を実現するには,後述する要約知識が必須であり,これをどのようにして獲得するかがシステムを構築する際のポイントとなる.本論文ではこのような要約知識(置換規則と置換条件)を,コーパス(原文−要約文コーパス)から自動的に獲得する手法について述べる.本手法では,はじめに原文中の単語と要約文中の単語のすべての組み合わせに対して単語間の距離を計算し,DPマッチングによって最適な単語対応を求める.その結果から置換規則は単語対応上で不一致となる単語列として得られる.一方,置換条件は置換規則の前後nグラムの単語列として得られる.NHKニュースを使って局所的要約知識の自動獲得実験を行い,その有効性を検証する実験を行ったのでその結果についても述べる.以下,~\ref{sec:sec2}~章では自動要約に関して{\gt大域的要約}と{\gt局所的要約}について説明をする.~\ref{sec:sec3}~章では要約知識を自動獲得する際にベースとなる,原文−要約文コーパスの特徴について述べる.~\ref{sec:sec4}~章では要約知識を構成する置換規則と置換条件について説明し,これらを自動獲得する手法について述べる.~\ref{sec:sec5}~章では原文−要約文コーパスから実際に要約知識を自動獲得した実験結果について述べ,獲得された要約知識の評価結果についても述べる.~\ref{sec:sec6}~章ではまとめと今後の課題について述べる.\newpage
V20N05-04
自然言語処理のタスクにおいて帰納学習手法を用いる際,訓練データとテストデータは同じ領域のコーパスから得ていることが通常である.ただし実際には異なる領域である場合も存在する.そこである領域(ソース領域)の訓練データから学習された分類器を,別の領域(ターゲット領域)のテストデータに合うようにチューニングすることを領域適応という\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.}.本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)のタスクでの領域適応に対する手法を提案する.まず本論文における「領域」の定義について述べる.「領域」の正確な定義は困難であるが,本論文では現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}におけるコーパスの「ジャンル」を「領域」としている.コーパスの「ジャンル」とは,概略,そのコーパスの基になった文書が属していた形態の分類であり,書籍,雑誌,新聞,白書,ブログ,ネット掲示板,教科書などがある.つまり本論文における「領域」とは,書籍,新聞,ブログ等のコーパスの種類を意味する.領域適応の手法はターゲット領域のラベル付きデータを利用するかしないかという観点で分類できる.利用する場合を教師付き手法,利用しない場合を教師なし手法と呼ぶ.教師付き手法については多くの研究がある\footnote{例えばDaum{\'e}の研究(Daum\'{e}2007)\nocite{daume0}はその簡易性と有効性から広く知られている.}.また能動学習\cite{settles2010active}や半教師あり学習\cite{chapelle2006semi}は,領域適応の問題に直接利用できるために,それらのアプローチをとる研究も多い.これらに対して教師なし手法の従来研究は少ない.教師なし手法は教師付き手法に比べパフォーマンスが悪いが,ラベル付けが必要ないという大きな長所がある.また領域適応は転移学習と呼ばれることからも明らかなように,ソース領域の知識(例えば,ラベル付きデータからの知識)をどのように利用するか(ターゲット領域に転移させるか)が解決の鍵であり,領域適応の手法はターゲット領域のラベル付きデータを利用しないことで,その効果が明確になる.このため教師なし手法を研究することで,領域適応の問題が明確になると考えている.この点から本論文では教師なし手法を試みる.\newpage本論文の特徴はWSDの領域適応の問題を以下の2点に分割したことである.\begin{enumerate}\item[(1)]領域間で語義の分布が異なる\item[(2)]領域の変化によりデータスパースネスが生じる\end{enumerate}領域適応の手法は上記2つの問題を同時に解決しているものが多いために,このような捉え方をしていないが,WSDの領域適応の場合,上記2つの問題を分けて考えた方が,何を解決しようとしているのかが明確になる.本論文では上記2点の問題に対して,ターゲット領域のラベル付きデータを必要としない各々の対策案を提示する.具体的に,(1)に対してはk~近傍法を補助的に利用し,(2)に対しては領域毎のトピックモデル\cite{blei}を利用する.実際の処理は,ターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.上記の処理を本論文の提案手法とする.提案手法の大きな特徴は,トピックモデルをWSDに利用していることである.トピックモデルの構築には語義のラベル情報を必要としないために,領域適応の教師なし手法が実現される.トピックモデルをWSDに利用した従来の研究\cite{li,boyd1,boyd2}はいくつかあるため,それらとの差異を述べておく.まずトピックモデルをWSDに利用するにしても,その利用法は様々であり確立された有効な手法が存在するわけではなく,ここで利用した手法も1つの提案と見なせる.また従来のトピックモデルを利用したWSDの研究では,語義識別の精度改善が目的であり,領域適応の教師なし手法に利用することを意図していない.そのためトピックモデルを構築する際に,もとになるコーパスに何を使えば有効かは深くは議論されていない.しかし領域適応ではソース領域のコーパスを単純に利用すると,精度低下を起こす可能性もあるため,本論文ではソース領域のコーパスを利用せず,ターゲット領域のコーパスのみを用いてトピックモデルを構築するアプローチをとることを明確にしている.この点が大きな差異である.実験ではBCCWJコーパス\cite{bccwj}の2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行った.単純にSVMを利用した手法と提案手法とをマクロ平均により比較した場合,OCをソースデータにして,PBをターゲットデータにした場合には有意水準0.05で,ソースデータとターゲットデータを逆にした場合には有意水準0.10で提案手法の有効性があることが分かった.
V23N01-04
最新の機械翻訳システムは,年々精度が向上している反面,システムの内部は複雑化しており,翻訳システムの傾向は必ずしも事前に把握できるわけではない.このため,システムによってある文章が翻訳された結果に目を通すことで,そのシステムに含まれる問題点を間接的に把握し,システム同士を比較することが広く行われている.このように,単一システムによって発生する誤りの分析や,各システムを比較することは,各システムの利点や欠点を客観的に把握し,システム改善の手段を検討することに役立つ.ところが,翻訳システムの出力結果を分析しようとした際,機械翻訳の専門家である分析者は,システムが出力した膨大な結果に目を通す必要があり,その作業は労力がかかるものである.この問題を解決するために,機械翻訳の誤り分析を効率化する手法が提案されている\cite{popovic2011towards,kirchhoff2007semi,fishel2011automatic,elkholy11morphologicallyrich}.この手法の具体的な手続きとして,機械翻訳結果を人手により翻訳された参照訳と比較し,機械翻訳結果のどの箇所がどのように誤っているかを自動的にラベル付けする.さらに,発見した誤りを既存の誤り体系\cite{flanagan1994error,vilar2006error}に従って「挿入・削除・置換・活用・並べ替え」のように分類することで,機械翻訳システムの誤り傾向を自動的に捉えることができる.\textcolor{black}{しかし,このような自動分析で誤りのおおよその傾向をつかめたとしても,機械翻訳システムを改善する上で,詳細な翻訳誤り現象を把握するためには,人手による誤り分析が欠かせない.}\textcolor{black}{ところが,先行研究と同じように,参照文と機械翻訳結果を比較して差分に基づいて誤りを集計する手法で詳細な誤り分析を行おうとした際に,問題が発生する.具体的には,機械翻訳結果と参照訳の文字列の不一致箇所を単純な方法でラベル付けすると,人間の評価と一致しなくなる場合がある.つまり,機械翻訳結果が参照訳と同様の意味でありながら表層的な文字列が異なる換言の場合,先行研究では不一致箇所を誤り箇所として捉えてしまう.このような誤った判断は,誤り分析を効率化する上で支障となる.}\textcolor{black}{本研究では,前述の問題点を克服し,機械翻訳システムの誤りと判断されたものの内,より誤りの可能性が高い箇所を優先的に捉える手法を提案する.}図\ref{fig:scoring-ex}に本研究の概略を示す.まず,対訳コーパスに対して翻訳結果を生成し,翻訳結果と参照訳を利用して誤り分析を優先的に行うべき箇所を選択する.次に,重点的に選択された箇所を中心に人手により分析を行う.誤りの可能性が高い箇所を特定するために,機械翻訳結果に含まれる$n$-gramを,誤りの可能性の高い順にスコア付けする手法を提案する(\ref{sec:scoring}節).また,誤りかどうかの判断を単純な一致不一致より頑健にするために,与えられた機械翻訳結果と正解訳のリストから,機械翻訳文中の各$n$-gramに対して誤りらしさと関係のあるスコア関数を設計する.設計されたスコア関数を用いることで,誤り$n$-gramを誤りらしさに基づいて並べ替えることができ,より誤りらしい箇所を重点的に分析することが可能となる.単純にスコアに基づいて選択を行った場合,正解訳と一致するような明らかに正しいと考えられる箇所を選択してしまう恐れがある.この問題に対処するため,正解訳を利用して誤りとして提示された箇所をフィルタリングする手法を提案し,選択精度の向上を図る(\ref{sec:filtering}節).\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f1.eps}\end{center}\caption{本研究の流れ図}\label{fig:scoring-ex}\vspace{-0.5\Cvs}\end{figure}実験では,まず\ref{sec:manual-analysis-result}節〜\ref{sec:auto-analysis-result}節で提案法の誤り箇所選択精度の測定を行い,単一システムの分析,及びシステム間比較における有効性の検証を行う.実験の後半では,提案法の課題を分析し(\ref{sec:selection-error-analysis}節),提案法を機械翻訳システムの改善に使用した場合の効果について検討を行う(\ref{sec:act-error-analysis}節).
V11N04-04
\label{sec:intro}機械翻訳システムの辞書は質,量ともに拡充が進み,最近では200万見出し以上の辞書を持つシステムも実用化されている.ただし,このような大規模辞書にも登録されていない語が現実のテキストに出現することも皆無ではない.辞書がこのように大規模化していることから,辞書に登録されていない語は,コーパスにおいても出現頻度が低い語である可能性が高い.ところで,文同士が対応付けられた対訳コーパスから訳語対を抽出する研究はこれまでに数多く行なわれ\cite{Eijk93,Kupiec93,Dekai94,Smadja96,Ker97,Le99},抽出方法がほぼ確立されたかのように考えられている.しかし,コーパスにおける出現頻度が低い語とその訳語の対を抽出することを目的とした場合,語の出現頻度などの統計情報に基づく方法では抽出が困難であることが指摘されている\cite{Tsuji00}.以上のような状況を考えると,対訳コーパスからの訳語対抽出においては,機械翻訳システムの辞書に登録されていない,出現頻度の低い語を対象とした方法の開発が重要な課題の一つである.しかしながら,現状では,低出現頻度語を対象とした方法の先行研究としては文献\cite{Tsuji01b}などがあるが,検討すべき余地は残されている.すなわち,利用可能な言語情報のうちどのような情報に着目し,それらをどのように組み合わせて利用すれば低出現頻度語の抽出に有効に働くのかを明らかにする必要がある.本研究では,実用化されている英日機械翻訳システムの辞書に登録されていないと考えられ,かつ対訳コーパス\footnote{本研究で用いたコーパスは,文対応の付いた対訳コーパスであるが,機械処理により対応付けられたものであるため,対応付けの誤りが含まれている可能性がある.}において出現頻度が低い複合語とその訳語との対を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部の情報と,複合語あるいはその訳語候補の外部の情報とを統合的に利用して訳語対候補にスコアを付け,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.全体スコアは,複合語あるいはその訳語候補の内部情報と外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する\footnote{回帰分析を自然言語処理で利用した研究としては,重要文抽出への適用例\cite{Watanabe96}などがある}.本稿では,英日機械翻訳システムの辞書に登録されていないと考えられる複合語とその訳語候補のうち,機械翻訳文コーパス(後述)における出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象として行なった訳語対抽出実験の結果に基づいて,複合語あるいはその訳語候補の内部情報,外部情報に基づく各条件の有効性と,加重和計算式における重みを回帰分析によって決定する方法の有効性を検証する.
V04N03-04
近年,大量の機械可読なテキスト(コーパス)が利用可能になったことや,計算機の性能が大幅に向上したことから,コーパス・データを利用した確率的言語モデルの研究が活発に行われてきている.確率的言語モデルは,従来,自然言語処理や音声処理などの工学分野で用いられ,その有効性を実証してきたが,比較言語学,方言研究,言語類型論,社会言語学など,言語学の諸分野においても有用な手法を提供するものと思われる.本稿では,言語学の分野での確率的言語モデルの有用性を示す一例として,言語のクラスタリングを取り上げる.ここでは,言語を文字列を生成する情報源であるとみなし,この情報源の確率・統計的な性質を確率モデルによりモデル化する.次に,確率モデル間に距離尺度を導入し,この距離尺度に基づき言語のクラスタリングを行なう方法を提案する.以下では,まず2節で先行研究について概説し,3節で確率的言語モデルに基づく言語のクラスタリング手法を提案する.4節では,提案した手法の有効性を示すために行った実験について述べる.ここでは,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の19ヶ国語のテキスト・データから,言語の系統樹を再構築する.また,実験により得られた結果を,言語学的な観点から考察する.最後に,他分野への応用および今後の課題などについて述べる.
V05N01-07
自然言語文には動詞を省略した文が存在する.この省略された動詞を復元することは,対話システムや高品質の機械翻訳システムの実現には不可欠なことである.そこで本研究では,この省略された動詞を表層表現と用例から補完することを行なう.表層表現とは,文章の表層に現れる手がかり表現のことである.例えば,助詞の「も」で文が終っている省略文の場合,助詞の「も」という手がかり語のおかげで前文の繰り返しであろうと推測でき,前文の文末の動詞を補えばよいとわかる.この表層表現を用いる手法は,応用範囲の大きい手法であり,解析したい問題があるとき,そのための手がかりとなる言語表現がその問題の近くに存在することが多く,それを用いることでその問題が解析可能となる.用例とは,人間が実際に使用した自然言語文のことである.用例を用いた動詞の補完方法の一例を以下にあげる.例えば,「そううまくいくとは」の文に動詞を補いたいとするとき,「そううまくいくとは」を含む文(用例)を大量の文章(コーパス)から取り出し(図\ref{tab:how_to_use_corpus}),「そううまくいくとは」に続く部分(この場合,「思えない」「限らない」など)を補完するということを行なう.この用例を用いる手法も,応用範囲の大きい手法であり,解析したい問題とよく似た形の用例を探してくれば,すぐにでも用いることができるものである.\begin{figure}[t]\begin{center}\begin{tabular}[t]{lll}&{\bf一致部分}&{\bf後続部分}\\[0.2cm]こんなに&\underline{うまくいくとは}&思えない。\\いつも&\underline{うまくいくとは}&限らない。\\完全に&\underline{うまくいくとは}&いえない。\\\end{tabular}\end{center}\caption{コーパスにおける「うまくいくとは」を含む文の例}\label{tab:how_to_use_corpus}\end{figure}以上のように表層表現と用例はともに応用範囲の広い方法であり,かつ,現在の自然言語技術でも十分に用いることができる便利な手法である.本稿はこの表層表現と用例を用いて動詞の補完を試みたものである.本研究は先行研究に対し以下の点において新しさがある.\begin{itemize}\item日本語の動詞の省略の補完の研究はいままでほとんどなされていなかった.\item英語については動詞の省略を扱った研究はたくさんあるが,それらは補うべき動詞がわかっているときにどういう構文構造で補完するべきかを扱っており,補う動詞を推定する研究はほとんどなされていない\cite{Dalrymple91}\cite{Kehler93}\cite{Lappin96}.それに対し,本研究は省略された動詞を推定することを扱っている.\item補うべき動詞が文中にないことがあり,システムが知識を用いて補うべき動詞をつくり出さなければならないことがある.本研究ではこの問題に対し用例を用いる方法で対処している.\end{itemize}
V21N06-04
日本語形態素解析における誤り要因の1つに辞書に含まれない語・表記の存在がある.本論文では形態素解析で使用する辞書に含まれない語・表記をまとめて未知語と呼ぶ.形態素解析における未知語は表\ref{Table::UnknownWordClassification}に示すようにいくつかのタイプに分類することができる.まず,未知語は既知語から派生したものと,既知語と直接関連を持たない純粋な未知語の2つに大きく分けられる.従来の日本語形態素解析における未知語処理に関する研究は,事前に未知語をコーパスから自動獲得する手法\cite{Mori1996s,Murawaki2008}と,未知語を形態素解析時に自動認識する手法\cite{Nagata1999,Uchimoto2001,Asahara2004c,Azuma2006,Nakagawa2007a}の2つに大きく分けることができるが,いずれの場合も網羅的な未知語処理が目的とされる場合が多く,特定の未知語のタイプに特化した処理が行われることは稀であった.\begin{table}[t]\caption{形態素解析における未知語の分類}\label{Table::UnknownWordClassification}\input{04table01.txt}\end{table}しかし,未知語はタイプにより適切な処理方法や解析の難しさは異なっていると考えられる.たとえば既知語から派生した表記であれば,それを純粋な未知語として扱うのではなく既知語と関連付けて解析を行うことで純粋な未知語よりも容易に処理することが可能である.また,一般的に純粋な未知語の処理は,単独の出現から正確に単語境界を推定するのは容易ではないことから,コーパス中の複数の用例を考慮し判断する手法が適していると考えられるが,オノマトペのように語の生成に一定のパターンがある語は,生成パターンを考慮することで形態素解析時に効率的に自動認識することが可能である.さらに,\ref{SEC::RECALL}節で示すように,解析済みブログコーパス\cite{Hashimoto2011}で複数回出現した未知語で,先行手法\cite{Murawaki2008}やWikipediaから得た語彙知識でカバーされないものを分析した結果,既知語から派生した未知表記,および,未知オノマトペに対する処理を行うことで対応できるものは異なり数で88個中27個,出現数で289個中129個存在しており,辞書の拡張などで対応することが難しい未知語の出現数の4割程度を占めていることが分かった.そこで本論文では既知表記から派生した未知表記,および,未知オノマトペに焦点を当て,既知語からの派生ルールと未知オノマトペ認識のためのパターンを形態素解析時に考慮することで,これらの未知語を効率的に解析する手法を提案する.
V24N04-02
投資家は,資産運用や資金調達のために数多くの資産価格分析を行っている.とりわけ,ファイナンス理論の発展と共に,過去の資産価格情報や決算情報などの数値情報を用いた分析方法は数多く報告されている.しかしながら,投資家にとって,数値情報だけでなく,テキスト情報も重要な意思決定材料である.テキスト情報には数値情報に反映されていない情報が含まれている可能性があり,テキスト情報の分析を通じ,有用な情報を獲得できる可能性がある.そのため近年,これまで数値情報だけでは計測が困難であった情報と資産価格との関連性の解明への期待から,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた様々な資産価格分析がなされている\cite{Kearney2014,Loughran2016}.本研究では,これらファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を試みる.テキスト情報の分析を行う際には,テキスト内容の極性(ポジティブorネガティブ)を判断する必要がある.極性辞書を用いた手法は,この課題を解くための主流の方法の一つである.極性辞書によるテキスト分析は,キーワードの極性情報を事前に定義し,テキスト内容の極性を判断することで分析が行われる.ファイナンス分野及び会計分野の研究では,極性辞書による分析が標準的な手法となっている.極性辞書が標準的な手法となっている理由の一つとして,どの語句や文が重要であるかが明確であり,先行研究との比較が容易である点が挙げられる.また,金融実務の観点からすると,テキスト情報を利用して資産運用や資金調達をする際には株主や顧客への説明責任が必要であるという事情がある.そのため,内部の仕組みがブラックボックス化してしまう機械学習よりも,重要な語句や文が明確である極性辞書の方が説明が容易であることから,好まれる傾向がある.極性辞書には,GeneralInquirer\footnote{http://www.wjh.harvard.edu/{\textasciitilde}inquirer/}やDICTION\footnote{http://www.dictionsoftware.com/}などの心理学者によって定義された一般的な極性辞書や金融分野に特化したオリジナルの極性辞書\footnote{金融分野に特化した極性辞書として,LoughranandMcDonaldSentimentWordLists(http://www3.nd.edu/\linebreak[2]{\textasciitilde}mcdonald/Word\_Lists.html)がある.}が用いられる.金融分野では,独自の語彙が用いられる傾向があることから,\citeA{Henry2008}や\citeA{Loughran2011}では,金融分野に特化した極性辞書を用いることで分析精度が上がるとの報告がなされている.しかしながら,金融分野に特化した極性辞書を作成するためには,人手によるキーワードの選択と極性の判断が必要であり,評価者の主観が結果に大きく影響するという問題点が存在する.また,価格との関連性の高いキーワードも,年々変化することが想定される.例えば,新たな経済イベントの発生や資産運用の新手法などがあれば,その都度キーワードの極性情報を更新する必要があり,専門家による極性判断を要することとなる.自然言語処理におけるブートストラップ法をはじめとする半教師あり学習を用いる方法はあるものの,これも最初に選択するキーワードによって,分析結果に大きな影響を与えてしまうことなる.そこで,これら問題点に対する解決策の一つとして,本研究では人手による極性判断を介さずに,ニュースデータと株式価格データのみを用いて極性辞書を作成する方法論を提示する.株式価格データを用いて日本語新聞記事を対象に,重要語の抽出を試みた研究報告として,\citeA{Ogawa2001}や\citeA{Chou2008},\citeA{Hirokawa2010}などがあるものの,これらは,株式価格情報からマーケット変動を十分に調節できていない.具体的には,株式固有のリスクを調節できていない.例えば,同じ銘柄であっても時期によって株式が有するリスクプレミアムに違いがあり,リスクに伴う株式価格変動が荒い時期と穏やかな時期があり,株式リターンが一見同じであっても,そこから得られる情報は異なることが広く知られている\cite{Campbell2003}.また,異なる銘柄について同様である.リスクに伴う株式価格変動が荒い銘柄と穏やかな銘柄があり,株式リターンが一見同じであっても,そこから得られる情報は異なることも広く知られている\cite{Campbell2003}.加えて,新聞記事には必ずしも資産価格変動と関連性の高い新鮮な内容のみが記述されているだけではない.本研究では,これら問題点も考慮し,なおかつ,金融市場における資産価格形成と関連性の高いメディアである日経QUICKニュースを用いて,重み付き属性値付きキーワードリスト(以下,本稿では「重み付き属性値付きキーワードリスト」のことを単に「キーワードリスト」と記述する.)の作成を行う.さらに,作成したキーワードリストによってどの時点でのニュース記事を分類できるかを,キーワードリストの作成に用いた日経QUICKニュースと他メディアであるロイターニュースの分類を通じて検証する.次章は,本分析で用いるデータに触れ,3章ではキーワードリストの作成方法,4章ではキーワードリストを用いた分類検証を記す.5章は,まとめである.
V19N02-01
\subsection{片仮名語と複合名詞分割}外国語からの借用(borrowing)は,日本語における代表的な語形成の1つとして知られている\cite{Tsujimura06}.特に英語からの借用によって,新造語や専門用語など,多くの言葉が日々日本語に取り込まれている.そうした借用語は,主に片仮名を使って表記されることから片仮名語とも呼ばれる.日本語におけるもう1つの代表的な語形成として,単語の複合(compounding)を挙げることができる\cite{Tsujimura06}.日本語は複合語が豊富な言語として知られており,とりわけ複合名詞にその数が多い.これら2つの語形成は,日本語における片仮名複合語を非常に生産性の高いものとしている.日本語を含めたアジアおよびヨーロッパ系言語においては,複合語を分かち書きせずに表記するものが多数存在する(ドイツ語,オランダ語,韓国語など).そのような言語で記述されたテキストを処理対象とする場合,複合語を単語に分割する処理は,統計的機械翻訳,情報検索,略語認識などを実現する上で重要な基礎技術となる.例えば,統計的機械翻訳システムにおいては,複合語が構成語に分割されていれば,その複合語自体が翻訳表に登録されていなかったとしても,逐語的に翻訳を生成することが可能となる\cite{Koehn03}.情報検索においては,複合語を適切に分割することによって検索精度が向上することがBraschlerらの実験によって示されている\cite{Braschler04}.また,複合語内部の単語境界の情報は,その複合語の省略表現を生成または認識するための手がかりとして広く用いられている\cite{Schwartz03,Okazaki08}.高い精度での複合語分割処理を実現するためには,言語資源を有効的に活用することが重要となる.例えば,Alfonsecaら\citeyear{AlfonsecaCICLing08}は単語辞書を学習器の素性として利用しているが,これが分割精度の向上に寄与することは直感的に明白である.これに加えて,対訳コーパスや対訳辞書といった対訳資源の有用性も,これまでの研究において指摘されている\cite{Brown02,Koehn03,Nakazawa05}.英語表記において複合語は分かち書きされるため,複合語に対応する英訳表現を対訳資源から発見することができれば,その対応関係に基づいて複合語の分割規則を学習することが可能になる.複合語分割処理の精度低下を引き起こす大きな要因は,言語資源に登録されていない未知語の存在である.特に日本語の場合においては,片仮名語が未知語の中の大きな割合を占めていることが,これまでにも多くの研究者によって指摘されている\cite{Brill01,Nakazawa05,Breen09}.冒頭でも述べたように,片仮名語は生産性が非常に高いため,既存の言語資源に登録されていないものが多い.例えばBreen\citeyear{Breen09}らによると,新聞記事から抽出した片仮名語のうち,およそ20\%は既存の言語資源に登録されていなかったことが報告されている.こうした片仮名語から構成される複合名詞は,分割処理を行うことがとりわけ困難となっている\cite{Nakazawa05}.分割が難しい片仮名複合名詞として,例えば「モンスターペアレント」がある.この複合名詞を「モンスター」と「ペアレント」に分割することは一見容易なタスクに見えるが,一般的な形態素解析辞書\footnote{ここではJUMAN辞書ver.~6.0とNAIST-jdicver.~0.6.0を調べた.}には「ペアレント」が登録されていないことから,既存の形態素解析器にとっては困難な処理となっている.実際に,MeCabver.~0.98を用いて解析を行ったところ(解析辞書はNAIST-jdicver.~0.6.0を用いた),正しく分割することはできなかった.\subsection{言い換えと逆翻字の利用}こうした未知語の問題に対処するため,本論文では,大規模なラベルなしテキストを用いることによって,片仮名複合名詞の分割精度を向上させる方法を提案する.近年では特にウェブの発達によって,極めて大量のラベルなしテキストが容易に入手可能となっている.そうしたラベルなしテキストを有効活用することが可能になれば,辞書や対訳コーパスなどの高価で小規模な言語資源に依存した手法と比べ,未知語の問題が大幅に緩和されることが期待できる.これまでにも,ラベルなしテキストを複合名詞分割のために利用する方法はいくつか提案されているが,いずれも十分な精度は実現されていない.こうした関連研究については\ref{sec:prev}節において改めて議論を行う.提案手法の基本的な考え方は,片仮名複合名詞の言い換えを利用するというものである.一般的に,複合名詞は様々な形態・統語構造へと言い換えることが可能であるが,それらの中には,元の複合名詞内の単語境界の場所を強く示唆するものが存在する.そのため,そうした言い換え表現をラベルなしテキストから抽出し,その情報を機械学習の素性として利用することによって,分割精度の向上が可能となる.これと同様のことは,片仮名語から英語への言い換え,すなわち逆翻字に対しても言うことができる.基本的に片仮名語は英語を翻字したものであるため,単語境界が自明な元の英語表現を復元することができれば,その情報を分割処理に利用することが可能となる.提案手法の有効性を検証するための実験を行ったところ,言い換えと逆翻字のいずれを用いた場合においても,それらを用いなかった場合と比較して,F値において統計的に有意な改善が見られた.また,これまでに提案されている複合語分割手法との比較を行ったところ,提案手法の精度はそれらを大幅に上回っていることも確認することができた.これらの実験結果から,片仮名複合名詞の分割処理における,言い換えと逆翻字の有効性を実証的に確認することができた.本論文の構成は以下の通りである.まず\ref{sec:prev}節において,複合名詞分割に関する従来研究,およびその周辺分野における研究状況を概観する.次に\ref{sec:approach}節では,教師あり学習を用いて片仮名複合名詞の分割処理を行う枠組みを説明する.続いて\ref{sec:para}節と\ref{sec:trans}節においては,言い換えと逆翻字を学習素性として使う手法について説明する.\ref{sec:exp}節では分割実験の結果を報告し,それに関する議論を行う.最後に\ref{sec:conclude}節においてまとめを行う.
V25N04-01
文節係り受け解析は情報抽出・機械翻訳などの言語処理の実応用の前処理として用いられている.文節係り受け解析器の構成手法として,規則に基づく手法とともに,アノテーションを正解ラベルとしたコーパスに基づく機械学習に基づく手法が数多く提案されている\cite{Uchimoto-1999,Kudo-2002,Sassano-2004,Iwatate-2008,Yoshinaga-2010,Yoshinaga-2014}.文節係り受け情報は,新聞記事\cite{KC}・話し言葉\cite{CSJ}・ブログ\cite{KNBC}などにアノテーションされているが,使用域(register)横断的にアノテーションされたデータは存在しない.我々は『現代日本語書き言葉均衡コーパス』(以下BCCWJ)に対する文節係り受け・並列構造アノテーションを整備した.\modified{対象はBCCWJのコアデータ}で新聞・書籍・雑誌・白書・ウェブデータ(Yahoo!知恵袋・Yahoo!ブログ)の6種類からの使用域からなる.\modified{これらに対して係り受け・並列構造を付与したものをBCCWJ-DepParaとして公開した.}本稿では,アノテーション作業における既存の基準上と工程上の問題について議論し,どのように問題を解決したかについて解説する.既存の基準上の問題については,主に二つの問題を扱う.一つ目は,並列構造・同格構造の問題である.係り受け構造と並列構造は親和性が悪い.本研究では,アノテーションの抽象化としてセグメントとそのグループ(同値類)を新たに定義し,係り受け構造と独立して並列構造と同格構造を付与する基準を示し,アノテーションを行った.二つ目は,節間の関係である.\modified{我々は,}節境界を越える係り受け関係に対する判断基準を示し,アノテーションを行った.工程上の問題においては,文節係り受けアノテーションのために必要な先行工程との関係について述べ,作業順と基準により解決を行ったことを示す.本論文の貢献は以下のとおりである.\begin{itemize}\item使用域横断的に130万語規模のコーパスにアノテーションを行い,アノテーションデータを公開した.\item係り受けと並列・同格構造の分離したアノテーション基準を策定した.\item節境界を越える係り受け関係に対する判断基準を明示した.\item実アノテーション問題における工程上の問題を示した.\end{itemize}\modified{2節では『現代日本語書き言葉均衡コーパス』の概要について述べる.3節ではアノテーション作業で扱った問題について紹介する.4節では先行研究である京都大学テキストコーパスのアノテーション基準\cite{KC}や日本語話し言葉コーパス\cite{CSJ}のアノテーション基準と対比しながら基準を示す.5節では基準の各論について示す.6節ではまとめと今後の課題について述べる.}また,以下では二文節間に係り受け関係を付与することを便宜上「かける」と表現する.
V14N05-05
\label{sec:intro}日本語の解析システムは,1990年代にそれまでの研究が解析ツールとして結晶し,現在では,各種の応用システムにおいて,それらの解析ツールが入力文を解析する解析モジュールとして利用されるようになってきている.解析ツールを利用した応用システムの理想的な構成は,与えられた文を解析する解析ツールと,その後の処理を直列につなげた,図\ref{fig:cascade}に示すような構成である.例えば,情報抽出システムでは,応用モジュールは,解析ツールの出力データを受け取り,そのデータに抽出すべき情報が含まれているかどうかを調べ,含まれている場合にその情報を抽出する,という処理を行なうことになる.\begin{figure}[b]\input{05f1.txt}\end{figure}ここで,応用モジュールを,おおきく,次の2つのタイプに分類する.\begin{enumerate}\item{\bf言語表現そのもの(言語構造)を対象とする}応用モジュール例えば,目的格と述語の組を認識して,それらの数を数えるモジュール.\item{\bf言語表現が伝える情報(情報構造)を対象とする}応用モジュール例えば,「どのメーカーが,なんという製品を,いつ発売するか」という情報を抽出する情報抽出モジュール.\end{enumerate}後者のモジュールでは,どのような言語表現が用いられているのかが問題となるのではなく,どのような言語表現が用いられていようと,それが「どのメーカーが,なんという製品を,いつ発売するか」という情報を伝達しているのであれば,それを抽出することが要求される.われわれが想定する応用モジュールは,この後者のタイプである.応用システムにおいて,解析ツールは,「応用に特化しない言語解析処理をすべて担う」ことを期待される.しかしながら,現実は,そのような理想的な状況とは程遠く,応用モジュールを構築する際に,現在の解析ツールが放置しているいくつかの言語現象と向き合うことを余儀なくされる.そのような言語現象の具体例は,おおきく,以下の4種類に分類できる.\begin{description}\item[表記の問題]~~いわゆる「表記のゆれ」が放置されているので,これらを同語とみなす処理が必要となる.例えば,「あいまい」と「曖昧」,あるいは,「コンピューター」と「コンピュータ」.\item[単位の問題]~~複合語表現(multi-wordexpressions)の設定が不十分であるので,追加認定を行なう処理が必要となる.\item[外部情報源とのインタフェースの問題]~~語の認定が行なわれないので,他の外部情報源を利用する場合,文字列でインタフェースをとるしか方法がない.それぞれの情報源(例えば,一般の国語辞典)で,品詞体系や見出し表記が異なるので,かなりの辞書参照誤りが発生する.\item[異形式同意味の問題]~~言語表現は異なるが伝達する情報(意味)が同じものが存在するので,これらを同一化する処理が必要となる.\end{description}これらの問題に共通するキーワードは,「情報(意味)の基本単位」である.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.\begin{table}[b]\input{05t01.txt}\end{table}内容的表現に関しては,近年,上の4つの問題を解決するための研究が行なわれている.例えば,内容語に関しての研究\shortcite{Sato2004jc,JUMAN,asahara2005}や慣用表現に関しての研究\shortcite{Ojima2006,Hashimoto2006a,Hashimoto2006b}がある.その一方で,機能表現に関しては,大規模な数のエントリーに対して上記の問題を解決しようとする研究はほとんど存在しない.大規模な数の機能表現を扱ったものに,Shudoら\shortcite{Shudo2004}や兵藤ら\shortcite{Hyodo2000}による研究があるが,それらは,上記の問題を考慮していない.このような背景により,本研究では,自然言語処理において日本語機能表現を処理する基礎となるような{\bf日本語機能表現辞書}を提案する.この辞書は,大規模な数の機能表現に関して,上記の問題に対する1つの解決法を示す.本論文は,以下のように構成される.まず,第2章で,機能表現とその異形について述べる.次に,第3章において,日本語機能表現辞書の設計について述べる.第4章で,辞書の見出し体系として採用した,機能表現の階層構造について説明する.そして,第5章で,辞書の編纂手順について説明し,現状を報告する.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる.
V14N04-01
\label{intro}近年,自然言語処理の分野では,大規模な言語資源を利用した統計的手法が研究の中心となっている.特に,構文木付きコーパスは,統計的手法に基づく言語処理の高性能化のためだけでなく,言語学や言語処理研究の基本データとしても貴重な資源である.そのため,大規模な構文木付きコーパスの作成が必要となっている.しかし,大規模な構文木付きコーパスを全て人手により作成することは,多大なコストを必要とするため困難である.一方,現在の構文解析の精度では,構文木の付与を完全に自動化することが難しい.現実的には,構文解析器の出力から人手によって正しい構文木を選択し,それを文に付与することが望ましい.コーパス作成中には,文法や品詞体系の変更など,コーパス作成方針の変更により,コーパスへの修正が必要になることもあり,継続的な修正作業や不整合の除去などの機能を持った構文木付きコーパスの作成を支援するシステムが必要になる\cite{cunningham:2003:a}\cite{plaehn:2000:a}.このようなシステムの多くは,GUIツールを用いて,構文木付けをするコーパスのファイル形式や品詞ラベルの不整合を防ぐことにより,コーパス作成者を支援するのが主な機能である.しかし,それだけでは,正しい構文木付きコーパスの作成には,不十分であり,構文木の一貫性を保つための支援が必要となる.構文木の一貫性を保つための支援として,過去の事例を参照することは有効である.複数の構文木候補のうち,正しい木の選択を迷った場合に,すでに構文木を付与されたコーパス中から,作業中の構文木と類似した部分を持つ構文木を参照できれば,正しい構文木付けが容易になり,一貫性を保つための支援ができる.このためには,構文木付きコーパスを検索対象とし,木構造の検索が可能な構文木付きコーパス検索システムが必要となる.構文木付きコーパス検索システムは,木構造検索を行うことになるため,UNIXの文字列検索コマンド$grep$などの文字列検索よりも検索に時間を要することが多い.既存の構文木付きコーパス検索システム\cite{randall:2000:a,rohde:2001:a,konig:2003:a,bird:2004:a}においても,主な課題として,検索時間の高速化が挙げられているが,検索時間を高速化する優れた手法はまだ提案されていない.今後,コーパスの規模が更に大きくなると,検索時間の高速化は不可欠な技術となる.本論文では,高速な構文木付きコーパス検索手法を提案する.本論文で提案する検索手法は,構文木付きコーパスを関係データベースに格納し,検索にはSQLを用いる.部分木を検索のクエリとして与え,クエリと同じ構造を含む構文木を検索結果として出力する.クエリの節点数が多い場合,クエリを分割し,それぞれのクエリを別のSQL文で漸進的に検索する.クエリを分割すべきかどうか,分割するクエリの大きさや検索順序は,構文木付きコーパス中の規則の出現頻度を用いて自動的に決定する.6言語,7種類のコーパスを用いて評価実験を行い,4種類のコーパスにおいて,漸進的に検索を行う本手法により検索時間が短縮され,本手法の有効性を確認した.また,残りの3種類のコーパスにおいては,漸進的に検索を行わなくても多大な検索時間を要しないことを本手法で判定することができた.そして,クエリの分割が検索時間の短縮に効果があった4種類のコーパスと分割の効果がなかった3種類のコーパスの違いについて,コーパスに含まれる文数,ラベルの頻度,節点の平均分岐数の観点から考察を行い,節点の平均分岐数がその一因であることを確認した.
V13N01-01
\label{はじめに}高精度の機械翻訳システムや言語横断検索システムを構築するためには,大規模な対訳辞書が必要である.特に,専門性の高い文書や時事性の高い文書を扱う場合には,専門用語や新語・造語に関する対訳辞書の有無が翻訳や検索の精度を大きく左右する.人手による対訳辞書の作成はコスト及び時間がかかる作業であり,できるだけ自動化されることが望ましい.このような課題に対処するため,対訳文書から対訳表現を自動的に抽出する手法が数多く提案されている.この中でも,文対応済みの対訳文書から共起頻度に基づいて統計的に対訳表現を自動抽出する手法は,精度が高く,対訳辞書を自動的に作成する方法として有効である\cite[など]{北村97,山本2001,佐藤2002,佐藤2003}.本稿では,その中の一つである\cite{北村97}の手法をベースにし,従来手法の利点である高い抽出精度を保ちつつ,抽出できる対訳表現のカバレッジを向上させるために行った種々の工夫について論じ,その有効性を実験で示す.\begin{description}\item[(A)]文節区切り情報や品詞情報の利用\item[(B)]対訳辞書の利用\item[(C)]複数候補の対訳表現が得られた場合の人手による確認・選択\item[(D)]多対多の対応数を考慮に入れた対応度評価式\item[(E)]対訳文書の分割による漸進的な抽出\end{description}\noindentの5点である.これらを用いることで実用的な対訳表現抽出を行うことができる.(A)は,文節区切り情報や品詞情報を利用することにより,構文的に有り得ない表現が抽出候補にならないようにする.文節区切り情報の有効性は,既存の研究\cite{Yamamoto-Matsumoto:2003}において確かめられているが,彼らは抽出の対象を自立語に限定している.提案手法では,各単語における文節内の位置情報と品詞情報を用いて抽出の対象を制限することで,自立語以外の語も抽出の対象とする.(B),(C)では,共起頻度に基づいた統計的な値のみでは対訳かどうかが判断できない場合,対訳辞書や人手を利用して対訳か否かを判断する手法である.過去の研究\cite{佐藤2003}では,対訳辞書は対訳文書から対訳関係にある単語ペアを見つけるための手がかりとして利用されることが多いが,本提案では,手がかりとするのではなく,統計的に抽出された対訳表現から適切な対訳表現だけを選り出すための材料として利用する.(D)では,原言語と目的言語の単語列間の対応関係の強さを示す尺度である{\bf対応度}の評価式を改良する.対応度の計算には,一般に重み付きDice係数やLog-Likelihoodなどの評価式が用いられるが,我々は従来手法\cite{北村97}の実験結果を分析した結果,Dice係数やLog-Likelihoodの評価式に対して,多対多の対応数を考慮した負の重み付けを行うことが効果的であると判断し,評価式を改良した.(E)は抽出時間に関する課題を解決する.従来手法では10,000文以上からなる対訳文書を抽出対象とする場合,原言語と目的言語単語列の組み合わせが多数生成されるという課題があった.提案手法ではその組み合わせ数を削減するために,対訳文書を一定の単位に分割し,抽出対象とする文書の単位を徐々に増やしていきながら抽出するという方法を採用する.対象とする対訳文を1,000文,2,000文,…,10,000文と徐々に増やす度に,抽出された対訳表現に関わる単語列を除去していく.その結果,対象の文が10,000文に達した時の単語列の組み合わせ数は,直接10,000文を対象にした場合の組み合わせ数より少なくなり,抽出時間を短縮させることができる.以下,\ref{従来}章では,従来手法\cite{北村97}における,原言語単語列と目的言語単語列間の対応度の計算方法と抽出アルゴリズムを説明する.\ref{提案}章では,本稿が提案する種々の工夫を採用した改良手法について述べる.\ref{実験}章では\ref{提案}章に述べた各手法の評価実験を報告し,その結果を考察する.\ref{関連研究}章では関連研究と比較し,\ref{まとめ}章でまとめる.