id
stringlengths 9
9
| text
stringlengths 10.2k
92.7k
| title
stringclasses 1
value |
---|---|---|
V16N03-01
|
\section{まえがき}
本稿では,大量の上位下位関係をWikipediaから効率的に自動獲得する手法を提案する.ここで「単語Aが単語Bの上位語である(または,単語Bが単語Aの下位語である)」とは,Millerの定義\cite{wordnet-book_1998}に従い,「AはBの一種,あるいは一つである(Bisa(kindof)A)」とネイティブスピーカーがいえるときであると定義する.例えば,「邦画」は「映画」の,また「イチロー」は「野球選手」のそれぞれ下位語であるといえ,「映画/邦画」,「野球選手/イチロー」はそれぞれ一つの上位下位関係である.以降,「A/B」はAを上位語,Bを下位語とする上位下位関係(候補)を示す.一般的に上位下位関係獲得タスクは,上位下位関係にある表現のペアをどちらが上位語でどちらが下位語かという区別も行った上で獲得するタスクであり,本稿でもそれに従う.本稿では概念—具体物関係(ex.野球選手/イチロー)を概念間の上位下位関係(ex.スポーツ選手/野球選手)と区別せず,合わせて上位下位関係として獲得する.上位下位関係は様々な自然言語処理アプリケーションでより知的な処理を行うために利用されている\cite{Fleischman_2003,Torisawa_2008}.例えば,Fleischmanらは質問文中の語句の上位語を解答とするシステムを構築した\cite{Fleischman_2003}.また鳥澤らはキーワード想起支援を目的としたWebディレクトリを上位下位関係をもとに構築した\cite{Torisawa_2008}.しかしながら,このような知的なアプリケーションを実現するためには,人手で書き尽くすことが困難な具体物を下位語とする上位下位関係を網羅的に収集することが重要になってくる.そこで本稿では,Wikipediaの記事中の節や箇条書き表現の見出しをノードとするグラフ構造(以降,\textbf{記事構造}とよぶ)から大量の上位下位関係を効率的に獲得する手法を提案する.具体的には,まず記事構造上でノードを上位語候補,子孫関係にある全てのノードをそれぞれ下位語候補とみなし,上位下位関係候補{を}抽出する.例えば,図~\ref{fig:wiki}(b)のWikipediaの記事からは~\ref{sec:wikipedia}節で述べる手続きにより,図~\ref{fig:wiki}(c)のような記事構造が抽出できる.この記事構造上のノード「紅茶ブランド」には,その子孫ノードとして「Lipton」,「Wedgwood」,「Fauchon」,「イギリス」,「フランス」が列挙されている.提案手法をこの記事構造に適用すると,「紅茶ブランド」を上位語候補として,その子孫ノードを下位語候補群とする上位下位関係候補を獲得できる.しかしながら獲得した下位語候補には,「Wedgwood」,「Fauchon」のように下位語として適切な語が存在する一方,「イギリス」,「フランス」のような誤りも存在する.この例のように,記事構造は適切な上位下位関係を多く含む一方,誤りの関係も含むため,機械学習を用いて不適切な上位下位関係を取り除く.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f1.eps}\end{center}\caption{「紅茶」に関するWikipediaの記事の例}\label{fig:wiki}\end{figure}以下,\ref{sec:bib}節で関連研究と本研究とを比較する.\ref{sec:wikipedia}節で提案手法で入力源とするWikipediaの記事構造に触れ,\ref{sec:method}節で提案手法について詳細に述べる.\ref{sec:exp}節では提案手法を日本語版Wikpediaに適用し,獲得された上位下位関係の評価を行う.最後に\ref{sec:matome}節で本稿のまとめと今後の展望について述べる.
\section{関連研究}
label{sec:bib}本節では,既存の上位下位関係の自動獲得手法について説明する.上位下位関係の獲得は,1990年代にHearstが語彙統語パターンを用いて新聞記事から上位下位関係を獲得する手法を提案し\cite{hearst_1992},以後各言語への応用がみられた\cite{JImasumi,JAndo,Pantel_2006,Sumida_2006,Oishi_06}.その後Webの発達に伴い,箇条書き表現などのWeb文書特有の手がかりを用いた獲得手法が提案されてきた\cite{Shinzato_2004,Etzioni_2005}が,近年,具体物を含む概念間の知識を密に記述したWikipediaに注目が集まっている\cite{Ruiz-Casado_2005,Pasca_2006,Herbelot_2006,Suchanek_2007,Kazama_2007}.以下では,まず新聞記事やWeb文書を対象とした上位下位関係の獲得手法について紹介し,その後Wikipediaに特化した上位下位関係の獲得手法について述べる.以下,各手法について提案手法との違いについて述べる.\subsection{新聞記事・Web文書からの上位下位関係獲得}まず,語彙統語パターンを利用した研究として,\cite{hearst_1992,JImasumi,JAndo,Sumida_2006}があげられる.Hearstは英語の新聞記事を対象に,“〈上位語〉suchas〈下位語〉”などのパターンを用いて上位下位関係を獲得した\cite{hearst_1992}.安藤らはHearstに倣い,日本語の新聞記事コーパスを構文解析した結果から,“〈下位語1〉(や〈下位語2〉)*という〈上位語〉”などの同格・並列表現を含む語彙統語パターンを用い上位下位関係を獲得した\cite{JAndo}.また今角は日本語の新聞記事コーパスに対して“〈上位語〉「〈下位語〉」”のような括弧を用いたパターンを適用している\cite{JImasumi}.この括弧を用いたパターンと名詞連続パターンを利用して,SumidaらはWeb文書から上位下位関係を獲得した\cite{Sumida_2006}.これらの手法では,信頼性の高いパターンを用いることで比較的高い精度で上位下位関係を獲得できるが,そのようなパターンで文書中に出現しない上位下位関係も数多く存在し,語彙統語パターンのみで大量の上位下位関係を獲得するのは本質的に難しい.そこで,語彙統語パターンにマッチしない上位下位関係を獲得するため,Web文書に頻出する箇条書き表現の文書構造を用いる手法が,ShinzatoらやEtzioniらによって提案されている\cite{Shinzato_2004,Etzioni_2005}.ShinzatoらはWeb文書中に繰り返し出現するHTMLタグに囲まれた語の群を1つの単語クラスと見なし,この単語クラスに上位語を付与することで,上位下位関係を獲得する手法を提案した\cite{Shinzato_2004}.またEtzioniらは語彙統語パターンを用いて抽出した上位下位関係をより広範な下位語に対応させるため,抽出した下位語を多く含むリスト構造を用いて,未知の下位語に上位語を割り当てる手法を提案した\cite{Etzioni_2005}.これらの手法でリソースとして用いているWeb文書の箇条書き表現は,上位下位関係の記述に限らず様々な用途に用いられるためノイズが多く,高い精度を保ったまま大量の上位下位関係を獲得することは難しい.これらの手法では箇条書き表現を基本的に下位語候補を収集するためにのみ用いており,上位語候補は別途獲得する必要があるが,我々の手法では上位語も含めて文書構造から獲得している点が異なる.{本研究と同様に分類器を用いて上位下位関係候補の正誤を判断する手法としては,Webからタグ構造を手がかりに収集した見出し語(用語)とその説明文(見出し語を含む段落)の組を入力として,見出し語間の上位下位関係を判定する手法を大石らが提案している}\cite{Oishi_06}.{彼らが説明文中に含まれる単語を素性としているのに対し,我々は上位語候補/下位語候補自体に関する情報(例えば形態素)を主に素性として用いており,それぞれの手法の素性セットはほぼ独立である.また,彼らの手法の評価はコンピュータに関する用語のシソーラスを利用して人工的に作成したテストセットでの識別性能評価に止まっており,見出し語集合から生成した上位下位関係候補の分類精度は評価できていない.さらに,彼らの手法では上位語候補/下位語候補は説明文が獲得できている用語に限定されるため,具体物を下位語とするような上位下位関係を大量に獲得することは難しいと考えられる.}また,以上の新聞記事・Web文書を対象に上位下位関係を獲得する手法は,十分な量の関係を獲得するために,大量の文書が扱えるストレージやそれを処理するための高速な計算機などの大規模な計算機資源が必要となる.{例えば,}\cite{Sumida_2006}{の手法を用いた場合,約700~GBのHTML文書を処理して獲得できる上位下位関係の数は,約40万対であるが,我々の手法ではわずか2.2~GBのWikipedia文書から同程度の精度で約135万対の上位下位関係を獲得できている(詳しくは節}\ref{sec:exp_result}{の実験結果を参照のこと).}\subsection{Wikipediaからの上位下位関係獲得}Wikipediaからの上位下位関係獲得についても新聞記事やWeb文書からの上位下位関係獲得のときと同様に語彙統語パターンを用いる手法が開発されている\cite{Ruiz-Casado_2005,Herbelot_2006,Toral_06,Kazama_2007}.これらの手法では,Wikipediaの記事に概念の定義を記述する定義文が多く含まれることに注目し定義文から上位下位関係を獲得している.図~\ref{fig:wiki}(b)では「紅茶とは,摘み取った茶を乾燥させ,もみ込んで完全発酵させた茶葉。」という定義文が含まれており,紅茶の上位語(の一つ)である茶葉を用いて紅茶が説明されている.この文に対し“とは*〈上位語〉。”というパターンを適用することで紅茶の上位語である茶葉を抽出することができる.Kazamaらは,英語の固有表現抽出タスクのために,Wikipediaの記事の見出し語を下位語として記事の冒頭の一文を定義文とみなし,その定義文中の特定の語彙統語パターンにマッチする表現を上位語として獲得した\cite{Kazama_2007}.またHerbelotらは,Wikipediaの記事の全文を意味解析し,定義文に対応する項構造を認識することで,約88.5\%の精度で上位下位関係を獲得している\cite{Herbelot_2006}.Ruiz-CasadoらはWordNet~\cite{wordnet-book_1998}を利用して学習された上位下位関係からパターンを学習・適用することで,69\%の精度で上位下位関係が獲得できたと報告している\cite{Ruiz-Casado_2005}.これらの手法は,Wikipediaに頻出する語彙統語パターンに着目した上位下位関係獲得手法であり,前節で述べた上位下位関係手法と同様に精度が高い一方で{Wikipediaの記事数と同程度の数の下位語に関する上位下位関係しか}獲得できないという問題がある.一方,SuchanekらはWikipediaの各記事の見出し語に対し,記事に付与されたカテゴリのラベルを上位語として上位下位関係を獲得する手法を提案している\cite{Suchanek_2007}.彼らは,英語特有の経験則を用いてカテゴリを選別し,外的知識としてWordNetを利用することで,約95\%と高精度で上位下位関係を獲得している.提案手法では,WordNetなどの外的な言語資源を用いることなく,機械学習のみで高精度の上位下位関係を大量に獲得することを目指す.またKazamaらやSuchanekらの手法のように,下位語候補が記事の見出し語に制限されないため,より網羅的な上位下位関係が獲得できると期待される.また,本研究と同様にWikipediaの記事構造を用いた研究として\cite{Watanabe_2008}が存在する.渡邉らはWikipediaの記事構造からWikipediaのアンカーリンク間の関係を元に条件付確率場を学習し,そのモデルを適用することでアンカーリンクから固有表現を抽出した\cite{Watanabe_2008}.本提案手法では記事構造から直接上位下位関係を獲得するのに対し,渡邉らの手法では記事構造をアンカー間の関係が同じカテゴリか,関連語か,部分全体関係かどうかの判定に用いており,異なる手法といえる.
\section{Wikipediaの記事構造}
label{sec:wikipedia}本節では提案手法について述べる前に本研究で知識源として利用するWikipediaの記事構造について述べる.Wikipediaは,様々な事物に関する常識的知識が密に記述されたフリーの多言語百科事典である.図~\ref{fig:wiki}(b)は見出し語「紅茶」に対する記事の例である.Wikipediaの記事は,明確な構造をもつMediaWiki構文により記述されており,多段の箇条書きを含む.この例のように,Wikipediaの記事には典型的なある概念(または具体物)の辞書的な定義に加えて,関連する概念(または具体物)の列挙を箇条書きとして含むことが多い.\begin{table}[b]\vspace{-1\baselineskip}\caption{記事構造に関する修飾記号}\label{tab:mediawiki_syntax}\input{01table01.txt}\end{table}本稿ではWikipediaの記事から上位下位関係候補を抽出するための媒体として,MediaWiki構文で記事のレイアウト情報を扱う表~\ref{tab:mediawiki_syntax}の修飾記号に注目し,記事から見出し(表~\ref{tab:mediawiki_syntax}では$title$と標記)をノードとするグラフ構造(記事構造)を抽出する.具体的には,$title$に付与されている修飾記号の優先度が高く修飾記号の{繰り返し数}が{少ない}ほど,グラフ構造上の高い位置にノードを配置する.このとき,修飾記号の優先度は記号の{繰り返し数}より優先される.例えば,「\verb!*!リプトン」より「\verb!==!イギリス\verb!==!」の修飾記号の優先度が高いので,グラフ構造上で「イギリス」が「リプトン」より高い位置に配置される.また,「\verb!==!イギリス\verb!==!」は「\verb!=!主な紅茶ブランド\verb!=!」と比較し修飾記号{(この場合は``\verb!=!'')の繰り返し数}が{多い}ので,「主な紅茶ブランド」よりグラフ構造上で低い位置に配置される.ただし,ルートノードは記事名とし,その修飾記号は{繰り返し数}0の「\verb!=!」とする.図~\ref{fig:wiki}(b)の記事に対応する図~\ref{fig:wiki}(a)のMediaWikiコードをもとに,図~\ref{fig:wiki}(c)のような記事構造が抽出できる.
\section{提案手法}
label{sec:method}本節では,\ref{sec:wikipedia}節の手続きでWikipediaの各記事から構築した記事構造を知識源として,上位下位関係を獲得する手法を提案する.提案手法は以下の2ステップからなる.\begin{description}\item[Step1Wikipediaの記事構造からの上位下位関係候補の抽出]\ref{sec:wikipedia}節で説明した記事構造に含まれるノード間の先祖—子孫関係に注目して上位下位関係候補を抽出する.\item[Step2機械学習によるフィルタリング]SVM\cite{Vapnik}を用いて,Step1で抽出された上位下位関係候補から不適切な関係を取り除く.\end{description}以下,提案手法について詳しく述べる.\subsection{Step1:Wikipediaの記事構造からの上位下位関係候補の抽出}このステップでは,記事構造の各ノード{を上位語候補,}子孫関係にあるノード{を下位語候補とする}全ての組み合わせを上位下位関係候補として抽出する.例えば,図~\ref{fig:wiki}(c)の記事構造からは,「ブレンドティー/チャイ」や,「紅茶/リプトン」などの上位下位関係候補が抽出できる.ここで,訓練データの記事構造から得られる上位語候補を調べたところ,階層構造中で上位語候補に対して箇条書きで下位語候補が列挙されるときには,上位語に箇条書き特有の修飾語が付くことが分かった.このような修飾語としては,主観で一部の下位語を選んで列挙していることを示す「主な〜」や「代表的な〜」などの接頭語,箇条書きが下位語の列挙であることを陽に示す「〜のリスト」や「〜の一覧」などの接尾語などがあり,基本的に上位語を箇条書きのタイトルとするために付けられたものであるため,適切な上位語を得るためには取り除く必要がある.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f2.eps}\end{center}\caption{上位語候補の不要な修飾語を取り除くためのパターン}\label{fig:list_pattern}\end{figure}そこで我々は,抽出された上位語候補が図~\ref{fig:list_pattern}のパターンをもつ場合,パターン中の$X$以外の部分を取り除いた.パターン中の$X$は任意の文字列を示す.{ただし,複数のパターンに一致した場合には,その中で,パターンの具体的な文字列部分(ex.「代表的な}$X${」であれば「代表的な」)が最長一致するパターンを適用した.}例えば,上位語「主な紅茶ブランド」はパターン「主な$X$」を適用することで,「紅茶ブランド」と置換される.このようにして得られる上位下位関係候補には,明らかに誤りとみなせる上位下位関係候補や,上位語または下位語に記号などの不要語を含む上位下位関係候補が含まれていたため,図~\ref{fig:huyou}のルールに従って上位下位関係候補を削除,あるいは訂正した.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f3.eps}\end{center}\caption{上位下位関係候補の削除・訂正ルール}\label{fig:huyou}\end{figure}\subsection{Step2:機械学習によるフィルタリング}Step1の手続きで得られた上位下位関係候補は多くの適切な関係を含む一方で,「生産地/インド」,「紅茶ブランド/イギリス」のような誤りも含む.Step2では,Step1で抽出した上位下位関係候補から教師あり機械学習を用い不適切な関係を取り除く.本稿では上位下位関係候補が適切な上位下位関係か否かを判定するため,SupportVectorMachine(SVM)\cite{Vapnik}で学習された分類器を用いて上位下位関係候補を選別する.{SVMで各上位下位関係候補(上位語候補—下位語候補のペア)が適切な上位下位関係であるかどうかを判定するには,分類対象の上位下位関係候補を,素性ベクトルと呼ばれる分類対象の特徴(素性)を数値で表現したベクトルに変換する必要がある.この素性ベクトル(上位下位関係候補)に正解(適切な上位下位関係か否か)をつけたものを学習データとして,Step2で用いる分類器(SVM)を得る.}{本研究では素性として,上位下位関係候補がある条件(特徴)を満たすかどうかを一つの素性として表現し,素性ごとに設定された条件を入力の上位下位関係候補が満たせば,対応する素性ベクトルの次元の値に1をセットし,満たさなければ0をセットする.実際に使用した素性をまとめたリストを表}\ref{tab:feature}{に示す.表の各列は左から素性の種類,各素性に対応する素性ベクトルの次元の値を1にセットする条件,図}\ref{fig:wiki}{から抽出した上位下位関係候補「紅茶ブランド/Lipton」で実際に1にセットされる素性を表している.}ただし,同じ表現の上位下位関係候補が異なる記事構造から抽出された場合,全ての抽出元の記事構造について生成した素性ベクトル{の論理和を用いる.}次に生成した素性ベクトルをSVMに入力し,その結果得られたSVMのスコアが閾値以上の上位下位関係候補を正しい上位下位関係とみなす.以下で,各素性{の設計方針}について説明する.\begin{table}[t]\caption{素性リスト}\label{tab:feature}\input{01table02.txt}\end{table}\begin{description}\item[POS]まず上位語候補・下位語候補の品詞は,誤りの判定に有効である.例えば,「木次線/管轄」のように上位語に固有名詞を含み,下位語に固有名詞を含まない場合,誤りの関係と推定できる.ここでは,品詞として{IPA辞書}\footnote{http://sourceforge.jp/projects/ipadic/}{の}品詞細分類レベル(ex.名詞—固有名詞など)まで考慮する.また上位語候補・下位語候補に含まれる品詞のうち,主辞の品詞は語の意味的な特徴をよく捉えているため特に重要である.例えば,上位語候補の主辞の品詞が動詞であれば多くの場合その上位下位関係候補は誤りである.本稿では上位語候補・下位語候補の末尾の形態素を主辞とし,主辞の品詞を他の品詞と区別するように素性を設計した.\item[MORPH]{品詞と同様に},上位語候補・下位語候補中の形態素の表層文字列は上位下位関係らしさの判定に有効である.例えば,「アメリカ映画/ウエスト・サイド物語」のように頻度が少ない,あるいは未知の上位語候補・下位語候補であっても,「映画」や「物語」などのより頻度が高い形態素に注目することで上位語らしさ・下位語らしさを判定することが出来る.また品詞と同様に上位語候補・下位語候補の主辞の表層文字列は適切な上位下位関係であるかどうかの手がかりとなりやすいので,他の形態素と区別する.\item[EXP]上位語候補,下位語候補にはStep1の不要語処理ではカバーしきれない,「背景」や「あ行」などの不要語が多く存在する.これら不要語の特徴を捉えるため,上位語候補,下位語候補の表層文字列ごとに次元を割り当てるように素性を設計した.\item[ATTR]上位語候補,あるいは下位語候補が属性語である上位下位関係候補は誤りの関係となりやすい.ここで属性語とは,その単語についてユーザが知りたい観点を指す単語である\cite{JTokunaga_2006}.例えば,「紅茶」の属性語としては「生産量」や「価格」があげられる.{このような属性語を含む関係(例えば,}「紅茶/生産量」や「生産量/1位インド」など){は多くの場合,}属性語と概念(または具体物)間の関係となり上位下位関係となることは少ない.そこでこの素性ではあらかじめ抽出しておいた{属性語リストの各語に固有の次元を割りあてるように設計した.}本研究では,属性語は以下のような手順で抽出した.まず各記事構造から根ノード以外のノードを抽出する.つぎに,抽出したノードのうち,Wikipedia中の複数の記事に出現するノードを属性とみなす.例えば「紅茶」と「タバコ」という記事の両方に「生産量」が見出しとして出現する場合,「生産量」を属性語とみなす.前述の上位語候補・下位語候補の表層文字列を素性とする素性EXPもこの素性と同{じく不要語らしさ}を扱うことができるがこの素性では教師無しで構築された属性語リストを用いることで,より被覆率高く{不要語}を検出することが可能であることに注意されたい.\item[LAYER]記事構造の箇条書き表現から抽出された下位語候補をもつ上位下位関係は適切な関係になりやすい.例えば,図~\ref{fig:wiki}(c)の記事構造の箇条書き表現には「Lipton」,「Wedgwood」などの固有名詞が列挙されており,これらは上位ノード「紅茶ブランド」の下位語として適切である.このような傾向を捉えるために,この素性では記事構造から抽出された上位語候補あるいは下位語候補のノードに付与されている修飾記号の種類(節見出し,定義の箇条書き,番号付き箇条書き,番号なし箇条書き)ごとに次元を割りあてた.\item[DIST]記事構造で上位語候補と下位語候補との間の距離が近ければ近いほど,正しい上位下位関係であることが多い.そこで,記事構造中における上位語候補・下位語候補間の距離を素性とすることで,この傾向を捉える.本稿では,上位語候補,下位語候補間の距離を記事構造中で上位語候補と下位語候補間に存在する辺の数とする.例えば,図~\ref{fig:wiki}(c)の記事構造上で「Wedgwood」と「紅茶ブランド」間の距離は2である.素性DISTでは,上位語候補と下位語候補間の距離が2以上か否かという2つの状態にそれぞれ異なる次元を割りあてた.\item[PAT]上位語候補がStep1の時点で図~\ref{fig:list_pattern}のパターンにマッチしていた場合,子孫ノードに適切な下位語が列挙されやすい傾向がある.例えば,図~\ref{fig:wiki}(c)中の「主な紅茶ブランド」というノードは下位階層に「Lipton」,「Wedgwood」などの適切な下位語が列挙されており,上位語がStep1のパターンにマッチしていれば,その上位下位関係は適切だろうと推定できる.素性PATでは,Step1の時点で上位語候補がパターンにマッチしている場合{この素性に対応する素性ベクトルの次元の値を1にセットするように設計した}.\item[LCHAR]素性MORPHでは,形態素間の類似性を判断しているため,「高校」や「公立校」のように形態素の一部が一致する語の類似性はないと判断してしまう欠点が存在する.そこで上記のような事例を扱えるようにするため,素性LCHARでは,上位語候補と下位語候補の末尾の1文字が共通する複合語に意味的に似た語が多い特徴を利用し,素性MORPHの欠点を補う.具体的には,上位語候補と下位語候補の末尾が同じとき,{この素性に対応する素性ベクトルの次元の値を1にセットするように設計した}.\end{description}
\section{実験}
label{sec:exp}\subsection{実験設定}提案手法の有効性を評価するため,2007年3月の日本語版WikipediaからWikipedia内部向けの記事を取り除いた276,323記事に対して,提案手法を適用した.{Wikipedia内部向けのページは,ユーザページ,特別ページ,テンプレート,リダイレクション,カテゴリ,曖昧さ回避ページを指すものとする.}本稿では,形態素解析にMeCab\footnote{http://mecab.sourceforge.net/}を利用しその辞書としてIPA辞書\footnote{http://chasen.naist.jp/chasen/distribution.html.ja}を用いた.SVMにはTinySVM\footnote{http://chasen.org/\~{}taku/software/TinySVM/}を利用した.SVMのカーネルには予備実験結果から2次の多項式カーネルを用いた.またWikipediaからStep2で必要となる属性語リストを抽出した結果,40,733個の属性語が獲得でき,ランダムに取り出した200語を\cite{JTokunaga_2006}の厳密な属性語を判定するための基準に従い評価したところ,精度は73.0\%だった.まずWikipediaの記事にStep1を適用し,記事構造から{重複を除いて}6,564,317対の上位下位関係候補を獲得した.{以降に示す全ての上位下位関係数は重複を除いた数を示す.}次に,得られた上位下位関係候補からランダムに1,000対取り出してテストデータとした.続いて,テスト用データを除いた上位下位関係候補からランダムに9,000対,抽出元の記事構造中で上位語と下位語が直接の親子関係にあった候補から9,000対,図~\ref{fig:list_pattern}のパターンにマッチしていた上位下位関係候補から10,000対,図~\ref{fig:list_pattern}のパターンにマッチしなかった上位下位関係候補から2,000対をそれぞれランダムに取り出し,人手で正解をつけた.これらから重複を除いて得られた29,900対を訓練データとして用いた.{訓練データのうち19,476対は,素性を決定するための予備実験に利用した.上位下位関係の正解付けは,Millerら}\cite{wordnet-book_1998}{の基準に従い1名で行っ{た\nobreak.}具体的には,各上位下位関係候補(上位語候補の表現Aと下位語候補の表現Bのペア)につい{て\nobreak,}「BはAの一種あるいは1つである」という文が適切であるとき正解とした.}\subsection{比較手法}\label{sec:altermethod}提案手法の有効性を確認するため,\ref{sec:bib}節で説明した既存の語彙統語パターンに基づく上位下位関係獲得手法\cite{Sumida_2006},および既存のWikipediaからの上位下位関係獲得手法\cite{Kazama_2007,Suchanek_2007}と比較を行う.Wikipediaからの上位下位関係の獲得手法は,英語版Wikipediaに特化したものであるため,以下で日本語版Wikipediaに応用する際に変更した点を記載する.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f4.eps}\end{center}\caption{定義文に適用する語彙統語パターンの一例}\label{fig:def_pattern}\end{figure}\paragraph{Wikipediaの定義文からの上位下位関係の獲得}\label{sec:definition}~~Kazamaらの手法は英語版Wikipediaのための手法であるため,ここでは国語辞書の語釈文から上位下位関係を獲得したTsurumaruらの手法を参考に人手で図~\ref{fig:def_pattern}のような語彙統語パターンを1,334パターン用意した\cite{Tsurumaru_1986,Kazama_2007}.図中の〈上位語〉は任意の名詞の連続,〈数字〉は0〜9までの数字の連続,〈漢数字〉は〇〜九などの漢数字の連続を示す.このパターンを定義文に適用することで見出し語を下位語,パターンで認識された〈上位語〉を上位語とする上位下位関係を獲得する.\paragraph{Wikipediaのカテゴリからの上位下位関係の抽出}~~Suchanekらの手法に従い,各記事に付与されているカテゴリを上位語候補,記事の見出し語を下位語候補として上位下位関係候補を獲得する.例えば,図~\ref{fig:wiki}(b)の記事からは,「茶/紅茶」という上位下位関係候補が得られる.Wikipediaのカテゴリから獲得できる関係には上位下位関係以外に「喫茶文化/紅茶」などのように見出し語とその関連語間の関係も多く含まれる.Suchanekらの手法では,英語による経験則を用いて,さらに獲得した関係を選別しているが,日本語には適用できないため,ここではカテゴリから抽出できた全ての関係候補を上位下位関係とみなす.\subsection{実験結果}\label{sec:exp_result}\begin{table}[b]\caption{提案手法と比較手法により獲得した上位下位関係の比較}\label{tab:Method1Result}\input{01table03.txt}\end{table}表\ref{tab:Method1Result}に提案手法と節~\ref{sec:altermethod}に述べた比較手法と\cite{Sumida_2006}の手法を比較した結果を示す.表\ref{tab:Method1Result}の各列は左から順に手法の種類,リソース,SVMの閾値,精度,SVMにより選別された上位下位関係数,およびこれらより求めた期待される正しい上位下位関係の数を示す.{ここでは以下のような評価尺度を用いた.}{\allowdisplaybreaks\begin{gather*}\begin{split}\mbox{精度(Precision)}&=\frac{\mbox{SVMにより選別された上位下位関係のうち正解の関係の数}}{\mbox{SVMにより選別された上位下位関係数}}\\[0.5zw]\mbox{再現率(Recall)}&=\frac{\mbox{SVMにより選別された上位下位関係のうち正解の関係の数}}{\mbox{評価データ中に存在する正しい上位下位関係数}}\\[0.5zw]\mbox{正解率(Accuracy)}&=\frac{\mbox{SVMにより正しく正例・負例を識別できた関係の数}}{\mbox{評価データ中の関係候補の数}}\end{split}\\\mbox{期待される正しい上位下位関係数}=\mbox{抽出できた上位下位関係数}\times\mbox{精度}\end{gather*}}比較手法カテゴリ,定義文は\ref{sec:altermethod}節で記述した手法を用い,提案手法で利用したWikipediaと同じデータを利用し,評価サンプル数は1,000対である.また比較手法\cite{Sumida_2006}は,Webから無作為に収集した約700~GB(HTMLタグ含む)のWeb文書に\cite{Sumida_2006}を適用した結果を示し,評価サンプル数は200対である.表より提案手法はWikipediaを入力源とする手法と比較し,大量の上位下位関係を獲得することに成功した.また,提案手法と比較手法\cite{Sumida_2006}を比べると,提案手法は小さなリソース(2.2~GBのXML文書)から上位下位関係を抽出したにもかかわらず,より大量の上位下位関係(933,782語を含む約174万対)を獲得できた.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f5.eps}\end{center}\caption{精度と再現率とのトレードオフ}\label{fig:rp}\end{figure}獲得される上位下位関係の精度については,SVMの分類時の閾値を変更することであげることが可能である.精度と再現率とのトレードオフの関係を図\ref{fig:rp}に示す.横軸は再現率,縦軸は精度を表す.このグラフより,SVMの閾値を大きくすることで,より信頼性の高い上位下位関係を獲得できることが確認できる.例えば閾値を0.36にすると,テストデータでの精度は90\%まで向上する(表~\ref{tab:Method1Result}).この精度でも,他の比較手法より獲得できた上位下位関係は多く,またこの関係に含まれる語数は774,135語であった.\begin{table}[p]\caption{各素性による効果}\label{tab:ResultSVM}\input{01table04.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{16-3ia1f6.eps}\end{center}\caption{再現率—精度グラフによる素性の比較}\label{fig:rp_feature}\end{figure}次にStep2で利用した素性の効果を調べるために,各素性を除いたときの精度の比較を表~\ref{tab:ResultSVM}に示す.表~\ref{tab:ResultSVM}の各列は左から順に素性の種類,正解率,精度,再現率,F値を表す.またこのときの精度と再現率とのトレードオフの関係を図~\ref{fig:rp_feature}に示す.各素性は本稿で提案した全ての素性を含む素性セットをALL,ALLから素性$X$を除いた素性セットを$\text{ALL-}X$とした.また()内は素性セット$\text{ALL-}X$の精度から素性セットALLの精度を引いた結果であり,この値が低ければ低いほど,素性$X$が提案手法の性能の向上に役立っていることを意味する.これらの結果より,全ての素性がStep2のフィルタリング性能の向上に役立っていることが確認できた.また表より全ての素性が精度の向上に寄与しており,特に素性MORPHによる効果が大きいことがわかった.一方,再現率の向上には素性POS,MORPH,LAYER,LCHARが寄与しており,特に素性LCHARが最も高い効果をもつことがわかった.\begin{figure}[b]\begin{center}\includegraphics{16-3ia1f7.eps}\end{center}\caption{訓練データの量による性能の変化}\label{fig:learning_curve}\end{figure}つづいて,訓練データの量を変化させたときの提案手法の性能の変化を調べた.訓練データはStep1の結果からランダムに抽出した9,000対を利用し,1,000対から9,000対まで3,000対ごとに評価を行った.その結果を図~\ref{fig:learning_curve}(a),(b)に示す.図~\ref{fig:learning_curve}(a)はSVMの分類時の閾値を0に固定したグラフで,横軸は訓練データの量,縦軸は精度,再現率,F値を示す.また図~\ref{fig:learning_curve}(b)はSVM分類時の閾値を変化させ精度と再現率のトレードオフを調べたグラフで,横軸は再現率,縦軸は精度を示す.図~\ref{fig:learning_curve}(a)より訓練データの量を増やすことで再現率の性能が向上する傾向がわかった.また図~\ref{fig:learning_curve}(b)より,SVMの閾値を変化させた場合でも,訓練データのサイズを増やすことで,性能が向上する傾向にあることが確認できた.この結果は訓練データをさらに増やせば提案手法の性能がさらに向上する可能性を示唆している.\subsection{考察}提案手法により得られた上位下位関係の例を表~\ref{tab:sample}に示す.ここでは,人手で選んだ25語についてランダムに10対の下位語を選択した.表中の${}^\ast$は上位下位関係が誤りの例を,${}^\#$は{小説や映画などのフィクション上でなりたつ}架空の上位下位関係を示す.{このような架空の上位{語\nobreak,}あるいは下位語は,フィクション自体に関する記述(感想)や,比喩表現として日常的に用いられることも多いため,本稿ではそれ以外の上位下位関係と特に区別せず,有用な上位下位関係知識とみなしMillerら}\cite{wordnet-book_1998}{の基準で正解か誤りかを判断した.これらの架空の上位下位関係とそうでない上位下位関係を識別することは今後の課題の一つである.}また表の各列は左から人手で選んだ上位語とその下位語の例を示している.{この例より,ほとんどの上位下位関係は,上位語ごとに多少の精度の偏りがみられるものの正しく認識できていることが確認できる.}\begin{table}[p]\caption{獲得した上位下位関係の例}\label{tab:sample}\input{01table05.txt}\end{table}最後に,提案手法の性能を悪化させている原因を探るべく,SVM分類器により誤りとされた上位下位関係候補を人手で分析した.テストデータ,訓練データ以外の上位下位関係候補からランダムに1,000対抽出し,人手で評価した.誤り分析用データに提案手法を適用した結果,その精度は89.1\%であり,この内訳は内訳は陽性が233対,陰性が658対,偽陽性が22対,偽陰性が87対であった.\begin{table}[t]\caption{偽陽性の分類結果}\label{tab:false_positive}\input{01table06.txt}\end{table}\begin{table}[t]\caption{陰性の分類結果}\label{tab:true_negative}\input{01table07.txt}\end{table}表~\ref{tab:false_positive}に偽陽性の分類結果を示す.表の各列は,左から分類の種類,数,SVMスコアの平均,例を示す.この結果から,部分全体関係が最も頻出する誤りであるうえに,SVMスコアの平均から最も除去しにくい誤りであることがわかった.このような誤りを取り除くことは今後の課題である.また,精度を低下させる原因として,属性・属性値とfacetを含む関係を上位下位関係と誤判定する問題が多いことも分かった.ここでいうfacetとはインスタンスを分類するための属性の値である.例えば,図~\ref{fig:wiki}(c)の記事構造中の「主な紅茶ブランド」と「Wedgwood」との間に挿入されている「イギリス」は「Wedgwood」などのブランドを国別で分類するためのfacetであるといえる.提案手法では自動抽出した属性リストを用いてこのような誤りの除去を試みたが,表~\ref{tab:false_positive}より提案手法の対策だけでは不十分であり,新たに記事構造中の他のノードの情報を素性とするなど改善が必要であることがわかった.また「プロレス技/代表的な技」のように,素性LCHARが悪影響を及ぼしていると思われる例も存在した.つづいて,陽性と偽陰性と判定された関係の上位語が訓練データ中に存在したか否かを調査した.陽性では66.6\%,偽陰性では16.7\%の上位語が訓練データ中に存在していることがわかった.未知の上位語であっても正しく判定できるようにするために,より上位の語や同義語の利用を考えている.最後に,表~\ref{tab:true_negative}に陰性を人手で分類した結果を示す.表の各列は左から誤りの分類,数を示す.ここでは,上位下位関係以外の何らかの概念間関係に分類できるかどうかに注目して分類した.この結果,約80\%については何らかの概念間関係になっていることが分かった.これらについては,正しく分類できれば語彙知識として有用である.本稿では上位下位関係に注目し,二値分類の分類器を用いたが,適切な関係に分類する多値分類を構築することで,Wikipediaの記事構造を余すことなく,語彙知識に変換することができそうである.
\section{まとめ}
label{sec:matome}本稿では,Wikipediaの記事構造を知識源とした上位下位関係獲得手法を提案した.提案手法は,「Wikipediaの記事構造中のノード間の関係は多くの上位下位関係を含む」という仮定と機械学習を併用することにより,約135万対の上位下位関係を精度90\%で獲得することに成功した.本稿では2007年3月時点でのWikipediaから上位下位関係を獲得したが,Wikipediaは現在も成長を続けており提案手法を最新のWikipediaデータに適用することでさらに多くの上位下位関係を獲得することも可能であると考えられる.実験結果より,Wikipediaの記事構造は上位下位関係だけでなく,属性—属性値の関係,部分全体関係などの記述にも頻繁に使われていることがわかった.今後の課題として,上位下位関係だけでなく部分全体関係や属性—属性値の関係を獲得したいと考えている.{また}\ref{sec:exp}{節で述べたように獲得した上位下位関係には,フィクションの世界でのみ成り立つ架空の上位下位関係が含まれている.これらの架空の世界でのみ成り立つ上位下位関係を識別することは今後の課題である.}更に,Wikipediaの記事には他の言語で記述された記事へのリンクが執筆者によって付与されており,これらのリンクを利用して様々な言語の上位下位関係を獲得することも考えている.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bunescu\BBA\Pa\c{s}ca}{Bunescu\BBA\Pa\c{s}ca}{2006}]{Pasca_2006}Bunescu,R.~C.\BBACOMMA\\BBA\Pa\c{s}ca,M.\BBOP2006\BBCP.\newblock\BBOQUsingencyclopedicknowledgefornamedentitydisambiguation\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Etzioni,Cafarella,Downey,Popescu,Shaked,Soderland,Weld,\BBA\Yates}{Etzioniet~al.}{2005}]{Etzioni_2005}Etzioni,O.,Cafarella,M.,Downey,D.,Popescu,A.-M.,Shaked,T.,Soderland,S.,Weld,D.~S.,\BBA\Yates,A.\BBOP2005\BBCP.\newblock\BBOQUnsupervisednamed-entityextractionfromtheweb:Anexperimentalstudy\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf165}(1),\mbox{\BPGS\91--134}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{wordnet-book_1998}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\BemWordNet:Anelectroniclexicaldatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Fleischman,Hovy,\BBA\Echihabi}{Fleischmanet~al.}{2003}]{Fleischman_2003}Fleischman,M.,Hovy,E.,\BBA\Echihabi,A.\BBOP2003\BBCP.\newblock\BBOQOfflinestrategiesforonlinequestionanswering:Answeringquestionsbeforetheyareasked\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{hearst_1992}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticacquisitionofhyponymsfromlargetextcorpora\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Herbelot\BBA\Copestake}{Herbelot\BBA\Copestake}{2006}]{Herbelot_2006}Herbelot,A.\BBACOMMA\\BBA\Copestake,A.\BBOP2006\BBCP.\newblock\BBOQAcquiringontologicalrelationshipsfromWikipediausingRMRS\BBCQ\\newblockIn{\BemProceedingsofWebContentMiningwithHumanLanguageTechnologiesworkshoponthefifthInternationalSemanticWebConference}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2007}]{Kazama_2007}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2007\BBCP.\newblock\BBOQExploitingWikipediaasexternalknowledgefornamedentityrecognition\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{Pantel_2006}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:Leveraginggenericpatternsforautomaticallyharvestingsemanticrelations\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Ruiz-Casado,Alfonseca,\BBA\Castells}{Ruiz-Casadoet~al.}{2005}]{Ruiz-Casado_2005}Ruiz-Casado,M.,Alfonseca,E.,\BBA\Castells,P.\BBOP2005\BBCP.\newblock\BBOQAutomaticextractionofsemanticrelationshipsforWordNetbymeansofpatternlearningfromWikipedia\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonApplicationsofNaturalLanguagetoInformationSystems},\mbox{\BPGS\67--79}.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{Shinzato_2004}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQAcquiringhyponymyrelationsfromwebdocuments\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\73--80}.\bibitem[\protect\BCAY{Suchanek,Kasneci,\BBA\Weikum}{Suchaneket~al.}{2007}]{Suchanek_2007}Suchanek,F.~M.,Kasneci,G.,\BBA\Weikum,G.\BBOP2007\BBCP.\newblock\BBOQYAGO:AcoreofsemanticknowledgeunifyingWordNetandWikipedia\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalWorldWideWebConference}.\bibitem[\protect\BCAY{Sumida,Torisawa,\BBA\Shinzato}{Sumidaet~al.}{2006}]{Sumida_2006}Sumida,A.,Torisawa,K.,\BBA\Shinzato,K.\BBOP2006\BBCP.\newblock\BBOQConcept-instancerelationextractionfromsimplenounsequencesusingasearchengineonawebrepository\BBCQ\\newblockIn{\BemProceedingsoftheWebContentMiningwithHumanLanguageTechnologiesworkshoponthefifthInternationalSemanticWebConference}.\bibitem[\protect\BCAY{Toral\BBA\Mu{\~n}oz}{Toral\BBA\Mu{\~n}oz}{2006}]{Toral_06}Toral,A.\BBACOMMA\\BBA\Mu{\~n}oz,R.\BBOP2006\BBCP.\newblock\BBOQAproposaltoautomaticallybuildandmaintaingazetteersfornamedentityrecognitionbyusingWikipedia\BBCQ\\newblockIn{\BemProceedingsofWorkshoponNewTextheldatthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Tsurumaru,Hitaka,\BBA\Yoshida}{Tsurumaruet~al.}{1986}]{Tsurumaru_1986}Tsurumaru,H.,Hitaka,T.,\BBA\Yoshida,S.\BBOP1986\BBCP.\newblock\BBOQAnattempttoautomaticthesaurusconstructionfromanordinaryJapaneselanguagedictionary\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\445--447}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley-Interscience.\bibitem[\protect\BCAY{安藤\JBA関根\JBA石崎}{安藤\Jetal}{2003}]{JAndo}安藤まや\JBA関根聡\JBA石崎俊\BBOP2003\BBCP.\newblock\JBOQ定型表現を利用した新聞記事からの下位概念単語の自動抽出\JBCQ\\newblock\Jem{情報処理学会研究報告2003-NL-157},\mbox{\BPGS\77--82}.\bibitem[\protect\BCAY{今角}{今角}{2001}]{JImasumi}今角恭祐\BBOP2001\BBCP.\newblock\JBOQ並列名詞句と同格表現に着目した上位下位関係の自動獲得\JBCQ\\newblockMaster'sthesis,九州工業大学.\bibitem[\protect\BCAY{大石\JBA伊藤\JBA武田\JBA藤井}{大石\Jetal}{2006}]{Oishi_06}大石康智\JBA伊藤克亘\JBA武田一哉\JBA藤井敦\BBOP2006\BBCP.\newblock\JBOQ単語の共起関係と構文情報を利用した単語階層関係の統計的自動識別\JBCQ\\newblock\Jem{情報処理学会研究報告2006-SLP-61},\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{徳永\JBA風間\JBA鳥澤}{徳永\Jetal}{2006}]{JTokunaga_2006}徳永耕亮\JBA風間淳一\JBA鳥澤健太郎\BBOP2006\BBCP.\newblock\JBOQ属性語のWeb文書からの自動獲得と人手評価のための基準\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(4),\mbox{\BPGS\49--67}.\bibitem[\protect\BCAY{鳥澤\JBA隅田\JBA野口\JBA風間}{鳥澤\Jetal}{2008}]{Torisawa_2008}鳥澤健太郎\JBA隅田飛鳥\JBA野口大輔\JBA風間淳一\BBOP2008\BBCP.\newblock\JBOQ自動生成された検索ディレクトリ「鳥式」の現状\JBCQ\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\729--732}.\bibitem[\protect\BCAY{渡邉\JBA浅原\JBA松本}{渡邉\Jetal}{2008}]{Watanabe_2008}渡邉陽太郎\JBA浅原正幸\JBA松本裕治\BBOP2008\BBCP.\newblock\JBOQグラフ構造を持つ条件付確率場によるWikipedia文書中の固有表現分類\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(4),\mbox{\BPGS\245--254}.\end{thebibliography}\begin{biography}\bioauthor{隅田飛鳥}{2007年北陸先端科学技術大学院大学情報科学研究科前期課程終了.現在,同大学情報科学研究科後期課程在学中.修士(情報科学).自然言語処理の研究に従事.}\bioauthor{吉永直樹}{2005年東京大学大学院情報理工学系研究科博士課程修了.2002年より2008年まで日本学術振興会特別研究員(DC1,PD).2008年4月より東京大学生産技術研究所特任助教.博士(情報理工学).自然言語処理の研究に従事.}\bioauthor{鳥澤健太郎}{1995年東京大学大学院理学系研究科情報科学専攻博士課程中退,同年同専攻助手.北陸先端科学技術大学院大学助教授を経て,2008年より(独)情報通信研究機構・MASTARプロジェクト・言語基盤グループ・グループリーダー.博士(理学).自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V22N04-03
|
\section{はじめに}
\label{sect:intro}対訳文中の単語の対応関係を解析する単語アラインメントは,統計的機械翻訳に欠かせない重要な処理の一つであり,研究が盛んに行われている.その中で,生成モデルであるIBMモデル1-5\cite{brown93}やHMMに基づくモデル\cite{vogel96}は最も有名な手法であり,それらを拡張した手法が数多く提案されている\cite{och03,taylor10}.近年では,Yangらが,フィードフォワードニューラルネットワーク(FFNN)の一種である「Context-DependentDeepNeuralNetworkforHMM(CD-DNN-HMM)」\cite{dahl12}をHMMに基づくモデルに適用した手法を提案し,中英アラインメントタスクにおいてIBMモデル4やHMMに基づくモデルよりも高い精度を達成している\cite{yang13}.このFFNN-HMMアラインメントモデルは,単語アラインメントに単純マルコフ性を仮定したモデルであり,アラインメント履歴として,一つ前の単語アラインメント結果を考慮する.一方で,ニューラルネットワーク(NN)の一種にフィードバック結合を持つリカレントニューラルネットワーク(RNN)がある.RNNの隠れ層は再帰的な構造を持ち,自身の信号を次のステップの隠れ層へと伝達する.この再帰的な構造により,過去の入力データの情報を隠れ層で保持できるため,入力データに内在する長距離の依存関係を捉えることができる.このような特長を持つRNNに基づくモデルは,近年,多くのタスクで成果をあげており,FFNNに基づくモデルの性能を凌駕している.例えば,言語モデル\cite{mikolov10,mikolov12,sundermeyer13}や翻訳モデル\cite{auli13,nal13}の構築で効果を発揮している.一方で,単語アラインメントタスクにおいてRNNを活用したモデルは提案されていない.本論文では,単語アラインメントにおいて,過去のアラインメントの情報を保持して活用することは有効であると考え,RNNに基づく単語アラインメントモデルを提案する.前述の通り,従来のFFNNに基づくモデルは,直前のアラインメント履歴しか考慮しない.一方で,RNNに基づくモデルは,隠れ層の再帰的な構造としてアラインメントの情報を埋め込むことで,FFNNに基づくモデルよりも長い,文頭から直前の単語アラインメントの情報,つまり過去のアラインメント履歴全体を考慮できる.NNに基づくモデルの学習には,通常,教師データが必要である.しかし,単語単位の対応関係が付与された対訳文を大量に用意することは容易ではない.この状況に対して,Yangらは,従来の教師なし単語アラインメントモデル(IBMモデル,HMMに基づくモデル)により生成した単語アラインメントを疑似の正解データとして使い,モデルを学習した\cite{yang13}.しかし,この方法では,疑似正解データの作成段階で生み出された,誤った単語アラインメントが正しいアラインメントとして学習されてしまう可能性がある.これらの状況を踏まえて,本論文では,正解の単語アラインメントや疑似の正解データを用意せずにRNNに基づくモデルを学習する教師なし学習法を提案する.本学習法では,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張し,正しい対訳文における単語対と語彙空間全体における単語対を識別するようにモデルを学習する.具体的には,まず,語彙空間全体からのサンプリングにより偽の対訳文を人工的に生成する.その後,正しい対訳文におけるアラインメントスコアの期待値が,偽の対訳文におけるアラインメントスコアの期待値より高くなるようにモデルを学習する.RNNに基づくモデルは,多くのアラインメントモデルと同様に,方向性(「原言語$\boldsymbol{f}\rightarrow$目的言語$\boldsymbol{e}$」又は「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」)を持ち,各方向のモデルは独立に学習,使用される.ここで,学習される特徴は方向毎に異なり,それらは相補的であるとの考えに基づき,各方向の合意を取るようにモデルを学習することによりアラインメント精度が向上することが示されている(Matusov,Zens,andNey2004;Liang,Taskar,andKlein2006;Gra\c{c}a,Ganchev,andTaskar2008;Ganchev,Gra\c{c}a,andTaskar2008).\nocite{matusov04,liang06,graca08,gancev08}そこで,提案手法においても,「$\boldsymbol{f}\rightarrow\boldsymbol{e}$」と「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」の2つのRNNに基づくモデルの合意を取るようにそれらのモデルを同時に学習する.両方向の合意は,各方向のモデルのwordembeddingが一致するようにモデルを学習することで実現する.具体的には,各方向のwordembeddingの差を表すペナルティ項を目的関数に導入し,その目的関数にしたがってモデルを学習する.この制約により,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化が可能となる.提案手法の評価は,日英及び仏英単語アラインメント実験と日英及び中英翻訳実験で行う.評価実験を通じて,前記提案全てを含む「合意制約付き教師なし学習法で学習したRNNに基づくモデル」は,FFNNに基づくモデルやIBMモデル4よりも単語アラインメント精度が高いことを示す.また,機械翻訳実験を通じて,学習データ量が同じ場合には,FFNNに基づくモデルやIBMモデル4を用いた場合よりも高い翻訳精度を実現できることを示す\footnote{実験では,NNに基づくモデルの学習時の計算量を削減するため,学習データの一部を用いた.全学習データから学習したIBMモデル4を用いた場合とは同等の翻訳能であった.}.具体的には,アラインメント精度はFFNNに基づくモデルより最大0.0792(F1値),IBMモデル4より最大0.0703(F1値),翻訳精度はFFNNに基づくモデルより最大0.74\%(BLEU),IBMモデル4より最大0.58\%(BLEU)上回った.また,各提案(RNNの利用,教師なし学習法,合意制約)個別の有効性も検証し,機械翻訳においては一部の設定における精度改善にとどまるが,単語アラインメントにおいては各提案により精度が改善できることを示す.以降,\ref{sect:related}節で従来の単語アラインメントモデルを説明し,\ref{sect:RNN}節でRNNに基づく単語アラインメントモデルを提案する.そして,\ref{sect:learning}節でRNNに基づくモデルの学習法を提案する.\ref{sect:experiment}節では提案手法の評価実験を行い,\ref{sect:discuss}節で提案手法の効果や性質についての考察を行う.最後に,\ref{sect:conclusion}節で本論文のまとめを行う.
\section{従来の単語アラインメントモデル}
\label{sect:related}今まで数多くの単語アラインメント手法が提案されてきており,それらは,生成モデル(例えば\cite{brown93,vogel96,och03})と識別モデル(例えば\cite{taskar05,moore05,blunsom06})に大別できる.\ref{sect:SWA}節では生成モデルを概観し,\ref{sect:FFNN}節では識別モデルの一例として,提案手法のベースラインとなるFFNNに基づくモデル\cite{yang13}を説明する.\subsection{生成モデル}\label{sect:SWA}生成モデルでは,$J$単語から構成される原言語の文を$f_{1}^{J}=f_{1},\ldots,f_{J}$,それに対応する$I$単語で構成される目的言語の文を$e_{1}^{I}=e_{1},\ldots,e_{I}$とすると,$f_{1}^{J}$は$e_{1}^{I}$からアラインメント$a_{1}^{J}=a_{1},\ldots,a_{J}$を通じて生成されると考える.ここで,各$a_{j}$は,原言語の単語$f_{j}$が目的言語の単語$e_{a_{j}}$に対応する事を示す隠れ変数である.通常,目的言語の文には単語「null」($e_{0}$)が加えられ,$f_{j}$が目的言語のどの単語にも対応しない場合,$a_{j}=0$となる.そして,$f_{1}^{J}$が$e_{1}^{I}$から生成される生成確率は,次の通り,$e_{1}^{I}$が生成する全アラインメントとの生成確率の総和で定義される:\begin{equation}\label{eqn:base1}p(f_{1}^{J}|e_{1}^{I})=\sum_{a_{1}^{J}}p(f_{1}^{J},a_{1}^{J}|e_{1}^{I}).\end{equation}IBMモデル1,2やHMMに基づくモデルでは,式(\ref{eqn:base1})中の特定アラインメント$a_{1}^{J}$との生成確率$p(f_{1}^{J},a_{1}^{J}|e_{1}^{I})$をアラインメント確率$p_{a}$と語彙翻訳確率$p_{t}$で定義する\footnote{アラインメント確率$p_{a}$において,$a_{0}$=0である.}:\begin{equation}\label{eqn:base2}p(f_{1}^{J},a_{1}^{J}|e_{1}^{I})=\prod_{j=1}^{J}p_a(a_{j}|a_{j-1},j)p_t(f_{j}|e_{a_{j}}).\end{equation}この3つのモデルでは,アラインメント確率の定義が異なる.例えば,HMMに基づくモデルでは単純マルコフ性を持つアラインメント確率を用いる:$p_a(a_{j}|a_{j}-a_{j-1})$.また,目的言語の各単語に対する稔性(fertility)や歪み(distortion)を考慮するIBMモデル3-5も提案されている.これらのモデルは,EMアルゴリズム\cite{dempster77}により,単語単位のアラインメントが付与されていない対訳文の集合(ラベルなし学習データ)から学習される.また,ある対訳文($f_{1}^{J}$,$e_{1}^{I}$)の単語アラインメントを解析する際は,学習したモデルを用いて,次式(\ref{eqn:viterbi_alignment})を満たすアラインメント(ビタビアラインメント)$\hat{a}_{1}^{J}$を求める:\begin{equation}\label{eqn:viterbi_alignment}\hat{a}_{1}^{J}=\argmax_{a_{1}^{J}}p(f_{1}^{J},a_{1}^{J}|e_{1}^{I}).\end{equation}例えば,HMMに基づくモデルは,ビタビアルゴリズム\cite{viterbi67}によりビタビアラインメントを求めることができる.\subsection{FFNNに基づく単語アラインメントモデル}\label{sect:FFNN}FFNNは,非線形関数を持つ隠れ層を備えることにより,入力データから多層的に非線形な素性を自動的に学習することができ,入力データの複雑な特徴を捉えることができる.近年,その特長を活かし,音声認識\cite{dahl12},統計的機械翻訳\cite{son12,vaswani13}やその他の自然言語処理\cite{collobert08,collobert11}等,多くの分野で成果をあげている.Yangらは,FFNNの一種であるCD-DNN-HMM\cite{dahl12}をHMMに基づくアラインメントモデルに適用したモデルを提案した\cite{yang13}.本節では,提案手法のベースラインとなる,このFFNNに基づく単語アラインメントモデルを説明する.FFNNに基づくモデルは,式(\ref{eqn:base2})のアラインメント確率$p_{a}$及び語彙翻訳確率$p_{t}$をFFNNにより計算する:\begin{equation}\label{eqn:FFNN}s_{NN}(a_{1}^{J}|f_{1}^{J},e_{1}^{I})=\prod_{j=1}^{J}t_{a}(a_{j}-a_{j-1}|c(e_{a_{j-1}}))\cdott_{t}(f_{j},e_{a_{j}}|c(f_{j}),c(e_{a_{j}})).\end{equation}ただし,全単語にわたる正規化は計算量が膨大となるため,確率の代わりにスコアを用いる.$t_{a}$と$t_{t}$は,それぞれ,アラインメントスコアと語彙翻訳スコアであり,$p_{a}$と$p_{t}$に対応する.また,$s_{NN}$はアラインメント$a_{1}^{J}$のスコアであり,「$c(\text{単語}w)$」は単語$w$の文脈を表す.ビタビアラインメントは,典型的なHMMに基づくアラインメントモデル同様,ビタビアルゴリズムにより求める.アラインメントスコアは直前のアラインメント$a_{j-1}$に依存しているため,FFNNに基づくモデルも単純マルコフ過程に従う.図\ref{fig:FFNN}に,語彙翻訳スコア$t_{t}(f_{j},e_{a_{j}}|c(f_{j}),c(e_{a_{j}}))$を計算するネットワーク構造(語彙翻訳モデル)を示す.このネットワークは,lookup層(入力層),1層の隠れ層,出力層から構成され,各層は,それぞれ,重み行列$L$,$\{H,B_{H}\}$,$\{O,B_{O}\}$を持つ.$L$はwordembedding行列であり,各単語を特徴付ける低次元の実ベクトルとして,単語の統語的,意味的特性を表す\cite{bengio03}.原言語の単語集合を$V_{f}$,目的言語の単語集合を$V_{e}$,wordembeddingの長さを$M$とすると,$L$は$M\times(|V_{f}|+|V_{e}|)$行列である.ただし,$V_{f}$と$V_e$には,それぞれ,未知語を表す$\langleunk\rangle$と単語「null」を表す$\langlenull\rangle$を追加する.\begin{figure}[t]\begin{center}\includegraphics{22-4ia3f1.eps}\end{center}\caption{FFNNに基づくモデルにおける語彙翻訳スコア$t_{t}(f_{j},e_{a_{j}}|c(f_{j}),c(e_{a_{j}}))$計算用ネットワーク}\label{fig:FFNN}\end{figure}この語彙翻訳モデルは,入力として,計算対象である原言語の単語$f_{j}$と目的言語の単語$e_{a_{j}}$と共に,それらの文脈単語を受け付ける.文脈単語とは,予め定めたサイズの窓内に存在する単語であり,図\ref{fig:FFNN}は窓幅が3の場合を示している.まず,lookup層が,入力の各単語に対して行列$L$から対応する列を見つけ,wordembeddingを割り当てる.そして,それらを結合させた実ベクトル$z_{0}$を隠れ層に送る.次に,隠れ層がlookup層の出力$z_{0}$を受け取り,$z_{0}$の非線形な特徴を捉える.最後に,出力層が隠れ層の出力$z_{1}$を受け取り,語彙翻訳スコアを計算して出力する.隠れ層,出力層が行う具体的な計算は次の通りである\footnote{本論文では,実験コストを削減するため,NN(FFNN及びRNN)に基づくモデルの隠れ層は1層としたが,連続した$l$層の隠れ層を用いる事もできる:$z_{l}=f(H_{l}\timesz_{l-1}+B_{H_{l}})$.複数の隠れ層を用いた実験は今後の課題とする.}:\begin{align}\label{eqn:FFNN2}z_{1}&=f(H\timesz_{0}+B_{H}),\\t_{t}&=O\timesz_{1}+B_{O}.\end{align}ここで,$H$,$B_{H}$,$O$,$B_{O}$は,それぞれ,$|z_{1}|\times|z_{0}|$,$|z_{1}|\times1$,$1\times|z_{1}|$,$1\times1$行列である.また,$f(x)$は非線形活性化関数であり,本論文の実験では,\cite{yang13}に倣い,htanh$(x)$\footnote{$x<-1$の時は$\mathrm{htanh}(x)=-1$,$x>1$の時は$\mathrm{htanh}(x)=1$,それ以外の時は$\mathrm{htanh}(x)=x$である.}を用いた.アラインメントスコア$t_{a}(a_{j}-a_{j-1}|c(e_{a_{j-1}}))$を計算するアラインメントモデルも,語彙翻訳モデルと同様に構成できる.語彙翻訳モデル及びアラインメントモデルの学習では,次式(\ref{eqn:FFNN3})のランキング損失を最小化するように,各層の重み行列を最適化する.最適化は,サンプル毎に勾配を計算してパラメータを更新する確率的勾配降下法(SGD)\footnote{実験では,後述のRNNに基づくモデル同様,単純なSGDではなくバッチサイズ$D$のミニバッチSGDを用いた.}で行い,各重みの勾配は,誤差逆伝播法\cite{rumelhart86}で計算する.\begin{equation}\label{eqn:FFNN3}loss(\theta)=\sum_{(\boldsymbol{f},\boldsymbol{e})\inT}\text{max}\{0,1-s_{\theta}(\boldsymbol{a^{+}}|\boldsymbol{f},\boldsymbol{e})+s_{\theta}(\boldsymbol{a^{-}}|\boldsymbol{f},\boldsymbol{e})\}.\end{equation}ここで,$\theta$は最適化するパラメータ(重み行列の重み),$T$は学習データ,$s_{\theta}$はパラメータ$\theta$のモデルによる$a_{1}^{J}$のスコア(式(\ref{eqn:FFNN})参照),$\boldsymbol{a^{+}}$は正解アラインメント,$\boldsymbol{a^{-}}$はパラメータ$\theta$のモデルでスコアが最も高い不正解アラインメントである.
\section{RNNに基づく単語アラインメントモデル}
\label{sect:RNN}本節では,アラインメント$a_{1}^{J}$のスコアをRNNにより計算する単語アラインメントモデルを提案する:\begin{equation}\label{eqn:RNN1}s_{NN}(a_{1}^{J}|f_{1}^{J},e_{1}^{I})=\prod_{j=1}^{J}t_{RNN}(a_{j}|a_{1}^{j-1},f_{j},e_{a_{j}}).\end{equation}ここで,$t_{RNN}$はアラインメント$a_{j}$のスコアであり,FFNNに基づくモデルと異なり,直前のアラインメント$a_{j-1}$だけでなく,$j-1$個の全てのアラインメントの履歴$a_{1}^{j-1}$に依存している.また,本モデルにおいても,FFNNに基づくモデルと同様,確率ではなくスコアを用いる.\begin{figure}[b]\begin{center}\includegraphics{22-4ia3f2.eps}\end{center}\caption{RNNに基づくアラインメントモデル}\label{fig:RNN}\end{figure}図\ref{fig:RNN}にRNNに基づくモデルのネットワーク構造を示す.このネットワークは,lookup層(入力層),隠れ層,出力層から構成され,各層は,それぞれ,重み行列$L$,$\{H^{d},R^{d},B_{H}^{d}\}$,$\{O,B_{O}\}$を持つ.隠れ層の重み行列$H^{d}$,$R^{d}$,$B_{H}^{d}$は,直前のアラインメント$a_{j-1}$からの距離$d$($d=a_{j}-a_{j-1}$)毎に定義される.本論文の実験では,8より大きい距離及び$-8$より小さい距離は,それぞれ,「$\geq8$」と「$\leq-8$」にまとめた.つまり,隠れ層は,直前のアラインメントからの距離$d$に対応した重み行列$\{H^{\leq-8},H^{-7},\cdots,H^{7},H^{\geq8},R^{\leq-8},R^{-7},\cdots,R^{7},R^{\geq8},B_{H}^{\leq-8},B_{H}^{-7},\cdots,B_{H}^{7},B_{H}^{\geq8}\}$を用いて$y_{j}$を算出する.ビタビアラインメントは,FFNNに基づくモデルと同様に,図\ref{fig:RNN}のモデルを$f_{1}$から$f_{J}$に順番に適用して求める.ただし,アラインメント$a_{j}$のスコアは,$y_{i}$を通じて$a_{1}$から$a_{j-1}$の全てに依存しているため,動的計画法に基づくビタビアルゴリズムは適用できない.そこで,実験では,ビームサーチにより近似的にビタビアラインメントを求める.図\ref{fig:RNN}のモデルにより$f_{j}$と$e_{a_{j}}$のアラインメントのスコアを計算する流れを説明する.まず,$f_{j}$と$e_{a_{j}}$の2単語がlookup層へ入力される.そして,lookup層が2単語それぞれをwordembeddingに変換し,そのwordembeddingを結合させた実ベクトル$x_{j}$を隠れ層に送る.このlookup層が行う処理は,FFNNに基づくモデルのlookup層と同じである.次に,隠れ層は,lookup層の出力$x_{j}$と直前のステップ$j-1$の隠れ層の出力$y_{j-1}$を受け取り,それらの間の非線形な特徴を捉える.この時に用いる重み行列$H^{d}$,$R^{d}$,$B_{H}^{d}$は,直前のアラインメント$a_{j-1}$との距離$d$により区別されている.隠れ層の出力$y_{j}$は,出力層と次のステップ$j+1$の隠れ層に送られる.そして最後に,出力層が,隠れ層の出力$y_{j}$に基づいて$f_{j}$と$e_{a_{j}}$のアラインメントのスコア$t_\mathrm{RNN}(a_{j}|a_{1}^{j-1},f_{j},e_{a_{j}})$を計算して出力する.隠れ層,出力層が行う具体的な計算は次の通りで\linebreakある\footnote{$j=1$の時の隠れ層では,$a_{0}$は0とし,直前ステップの隠れ層からの出力$y_{0}$は考慮しない:$y_{1}=f(H^{d}\timesx_{1}+B^{d}_{H}).$}:\begin{align}\label{eqn:RNN2}&y_{j}=f(H^{d}\timesx_{j}+R^{d}\timesy_{j-1}+B^{d}_{H}),\\&t_\mathit{RNN}=O\timesy_{j}+B_{O}.\end{align}ここで,$H^{d}$,$R^{d}$,$B^{d}_{H}$,$O$,$B_{O}$は,それぞれ,$|y_{j}|\times|x_{j}|$,$|y_{j}|\times|y_{j-1}|$,$|y_{j}|\times1$,$1\times|y_{j}|$,$1\times1$行列である.ただし,$|y_{j-1}|=|y_{j}|$である.また,$f(x)$は非線形活性化関数であり,\cite{yang13}と同様に,本論文ではhtanh(x)を用いる.前述の通り,FFNNに基づくモデルは,語彙翻訳スコア用とアラインメントスコア用の2つのモデルから構成される.一方で,RNNに基づくモデルは,直前のアラインメントとの距離$d$に依存した重み行列を隠れ層で使うことで,アラインメントと語彙翻訳の両者を考慮する1つのモデルで単語アラインメントをモデル化する.また,RNNに基づくモデルは再帰的な構造をした隠れ層を持つ.このため,過去のアラインメント履歴全体をこの隠れ層の入出力$y_{i}$にコンパクトに埋め込むことで,直前のアラインメント履歴のみに依存する従来のFFNNに基づくモデルよりも長いアラインメント履歴を活用して単語アラインメントを行うことができる.
\section{モデルの学習}
\label{sect:learning}提案モデルの学習では,特定の目的関数に従い,各層の重み行列(つまり,$L$,$H^{d}$,$R^{d}$,$B^{d}_{H}$,$O$,$B_{O}$)を最適化する.最適化は,単純なSGD(バッチサイズ$D=1$)よりも収束が早いミニバッチSGDにより行う.また,各重みの勾配は,通時的誤差逆伝播法\cite{rumelhart86}で計算する.通時的誤差逆伝播法は,時系列(提案モデルにおける$j$)でネットワークを展開し,時間ステップ上で誤差逆伝播法により勾配を計算する手法である.提案モデルは,FFNNに基づくモデル同様,式(\ref{eqn:FFNN3})で定義されるランキング損失に基づいて教師あり学習することができる(\ref{sect:FFNN}節参照).しかし,この学習法は正解の単語アラインメントが必要であるという問題がある.この問題を解決するため,次の\ref{sect:usv}節で,ラベルなし学習データから提案モデルを学習する教師なし学習法を提案する.\subsection{教師なし学習}\label{sect:usv}本節で提案する教師なし学習は,Dyerらにより提案されたcontrastiveestimation(CE)\cite{smith05}に基づく教師なし単語アラインメントモデル\cite{dyer11}を拡張した手法である.CEとは,観測データの近傍データを疑似負例と捉え,観測データとその近傍データを識別するモデルを学習する手法である.Dyerらは,ラベルなし学習データ中の対訳文$T$において考えられる全ての単語アラインメントを観測データ,目的言語側を単語空間$V_{e}$全体とした単語アラインメント,つまり,対訳文$T$中の原言語の各単語と$V_{e}$中の各単語との全単語対を近傍データとしてCEを適用した.提案する学習法は,この考え方を目的関数のランキング損失に導入する:\begin{equation}\label{eqn:usv1}\mathit{loss}(\theta)=\text{max}\biggl\{0,1-\sum_{\boldsymbol{(f^{+},e^{+})}\inT}\text{E}_{\Phi}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{+}})]+\sum_{(\boldsymbol{f^{+}},\boldsymbol{e^{-}})\in\Omega}\text{E}_{\Phi}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{-}})]\biggr\}.\end{equation}ここで,$\Phi$は対訳文$(\boldsymbol{f},\boldsymbol{e})$に対する全ての単語アラインメントの集合,E$_{\Phi}[s_{\theta}]$は$\Phi$におけるスコア$s_{\theta}$の期待値を表す.$\Omega$は対訳文$T$中の目的言語の各単語を$V_{e}$全体とした対訳対集合である.したがって,$\boldsymbol{e^{+}}$は学習データ$T$中の目的言語の文であり,$\boldsymbol{e^{-}}$は$|\boldsymbol{e^{+}}|$個の目的言語の単語で構成される疑似の文である($\boldsymbol{e^{-}}\inV_{e}^{|\boldsymbol{e^{+}}|}$).一つ目の期待値が観測データ,二つ目の期待値が近傍データに関する項である.しかしながら,式(\ref{eqn:usv1})中の$\Omega$に対する期待値の計算量は膨大となる.そこで,計算量を削減するため,NoiseContrastiveEstimation\cite{gutmann10,mnih12}に基づくNegativeSampling\cite{mikolov13}のように,近傍データ空間からサンプリングした空間を用いる.つまり,各原言語の文$\boldsymbol{f^{+}}$に対する$\boldsymbol{e^{-}}$として,$|\boldsymbol{e^{+}}|$個の目的言語の単語で構成される全ての文ではなく,サンプリングしたN文を使う.さらに,ビーム幅$W$のビームサーチにより期待値を計算することで,スコアが低いアラインメントを切り捨て計算量を削減する:\begin{equation}\label{eqn:usv2}\mathit{loss}(\theta)=\sum_{\boldsymbol{f^{+}}\inT}\text{max}\biggr\{0,1-\text{E}_{\text{GEN}}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{+}})]+\frac{1}{N}\sum_{\boldsymbol{e^{-}}}\text{E}_{\text{GEN}}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{-}})]\biggl\}.\end{equation}式(\ref{eqn:usv2})において,$\boldsymbol{e^{+}}$は学習データ内で$\boldsymbol{f^{+}}$の対訳となっている目的言語の文($\boldsymbol{(f^{+},e^{+})}\inT$)であり,$\boldsymbol{e^{-}}$は無作為に抽出された長さ$|\boldsymbol{e^{+}}|$の疑似の目的言語の文である.つまり,$|\boldsymbol{e^{+}}|=|\boldsymbol{e^{-}}|$である.そして,$N$は,各原言語の文$\boldsymbol{f^{+}}$に対して抽出する疑似の目的言語の文の数である.GENは,ビームサーチにより探索される単語アラインメント空間であり,全ての単語アラインメント空間$\Phi$の部分集合である.各$\boldsymbol{e^{-}}$は,無作為に抽出した$|\boldsymbol{e^{+}}|$個の目的言語の単語を順番に並べることで生成する.学習に効果的な負例を生成するために,$\boldsymbol{e^{-}}$の各単語は,$V_{e}$から抽出する代わりに,$l_{0}$正則化付きIBMモデル1\cite{vaswani12}によって対訳文中で$f_{i}\in\boldsymbol{f^{+}}$との共起確率が$C$以上と判定された目的言語の単語集合から抽出する.$l_{0}$正則化付きIBMモデル1は,単純なIBMモデル1と比較して,より疎なアラインメントを生成するため,疑似翻訳$\boldsymbol{e^{-}}$の候補の範囲を制限することが可能となる.\subsection{両方向の合意制約}\label{sect:agreement}FFNNに基づくモデルとRNNに基づくモデルは,共に方向性を持つモデルである.すなわち,$\boldsymbol{f}$に対する$\boldsymbol{e}$のアラインメントモデルにより,単語$f_{j}$に対して$\boldsymbol{e}$との1対多アラインメントを表す.通常,方向性を持つモデルは方向毎に独立に学習され,両方向のアラインメント結果をヒューリスティックに結合し決定される.Yangらの研究においても,FFNNに基づくモデルは独立に学習されている\cite{yang13}.一方で,各方向のモデルの合意を取るように同時に学習することで,アラインメント精度を改善できることが示されている.例えば,MatusovらやLiangらは,目的関数を「$\boldsymbol{f}\rightarrow\boldsymbol{e}$」と「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」の2つのモデルのパラメータで定義し,2つのモデルを同時に学習している\cite{matusov04,liang06}.また,GanchevらやGra\c{c}aらは,EMアルゴリズムのEステップ内で,各方向のモデルが合意するような制約をモデルパラメータの事後分布に課している\cite{gancev08,graca08}.そこで,提案モデルの学習においても両方向の合意制約を導入し,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化を可能とする.具体的には,各方向のwordembeddingが一致するようにモデルを学習する.これを実現するために,各方向のwordembeddingの差を表すペナルティ項を目的関数に導入し,その目的関数に基づいて各方向のモデルを同時に学習する:\begin{equation}\label{eqn:agreement}\argmin_{\theta_{FE},~\theta_{EF}}\bigl\{loss(\theta_{FE})+loss(\theta_{EF})+\alpha\lVert\theta_{L_{EF}}-\theta_{L_{FE}}\rVert\bigr\}.\end{equation}ここで,$\theta_{FE}$と$\theta_{EF}$は,それぞれ,$\boldsymbol{f}\rightarrow\boldsymbol{e}$と$\boldsymbol{e}\rightarrow\boldsymbol{f}$のアラインメントモデルのパラメータ,$\theta_{L}$はlookup層のパラメータ($L$の重みでありwordembeddingを表す),$\alpha$は合意制約の強さを制御するパラメータ,$\lVert\theta\rVert$は$\theta$のノルムである.実験では2-ノルムを用いた.この合意制約は,教師あり学習と教師なし学習の両方に導入可能である.教師あり学習の場合は,式(\ref{eqn:agreement})の$loss(\theta)$として式(\ref{eqn:FFNN3})を用い,教師なし学習の場合は式(\ref{eqn:usv2})を用いる.両方向の合意制約を導入した教師なし学習の手順をアルゴリズム1にまとめる.ステップ2では,学習データTからバッチサイズ分のD個の対訳文$(f^{+},e^{+})^{D}$を無作為に抽出する.ステップ3-1と3-2では,それぞれ,各$f^{+}$と$e^{+}$に対して,$l_{0}$正則化付きIBMモデル1($IBM1$)が特定した翻訳候補の単語集合から無作為に単語をサンプリングすることにより,負例となる対訳文を$N$個($\{e^{-}\}^{N}$と$\{f^{-}\}^{N}$)生成する(\ref{sect:usv}節参照).ステップ4-1と4-2では,特定の目的関数に従い,SGDにより各層の重み行列を更新する(\ref{sect:usv}節と\ref{sect:agreement}参照).このステップでは,$\theta_{FE}$と$\theta_{EF}$の更新は同時に行われ,各方向のwordembeddingを一致させるために,$\theta_{EF}$は$\theta_{FE}$の更新に,$\theta_{FE}$は$\theta_{EF}$の更新に制約を課している\footnote{t回目の$\theta_{EF}^{t}$,$\theta_{FE}^{t}$の更新の際には,それぞれ,$t-1$回目に更新された$\theta_{FE}^{t-1}$と$\theta_{EF}^{t-1}$が制約として使われ,更新中の$\theta_{EF}^{t}$,$\theta_{FE}^{t}$はお互いに依存しないことに注意されたい.$\theta_{EF}^{t}$と$\theta_{FE}^{t}$をお互いに依存させて同時に最適化する学習もあり得るが,今後の課題としたい.}.\begin{table}[t]\input{03table_algo01.txt}\end{table}
\section{評価実験}
\label{sect:experiment}\subsection{実験データ}\label{sect:data}提案手法の有効性を検証するため,単語アラインメントの精度及び翻訳精度の評価実験を行った.単語アラインメントの評価実験は,NAACL2003のsharedtask\cite{mihalcea03}で使われたHansardsデータにおける仏英のタスク({\itHansards})と,BasicTravelExpressionCorpus({\itBTEC})\cite{takezawa02}における日英のタスク({\itIWSLT$_{a}$})で実施した.翻訳精度の評価実験は,IWSLT2007における日英翻訳タスク\cite{fordyce07}({\itIWSLT}),新聞データから作成されたFBISコーパスにおける中英翻訳タスク({\itFBIS}),NTCIR-9及びNTCIR-10における日英特許翻訳タスク\cite{goto10,goto13}({\itNTCIR-9},{\itNTCIR-10})で行った.\begin{table}[t]\caption{実験データのサイズ(対訳文数)}\label{tbl:data}\input{03table01.txt}\end{table}表\ref{tbl:data}に各タスクで使用する対訳文の数を示す.「Train」は学習データ,「Dev」はディベロップメントデータ,「Test」はテストデータを表す.$\mathit{IWSLT}_{a}$及び{\itIWSLT}の実験データは共に{\itBTEC}のデータであり,$\mathit{IWSLT}_{a}$の実験データは,{\itIWSLT}の学習データのうち,単語アラインメントが人手で付与された9,960対訳文である\cite{goh10}.9,960の対訳文の最初の9,000を学習データ,残りの960をテストデータとした.$\mathit{IWSLT}_{a}$の学習データは単語アラインメントが付与されているラベルあり学習データであるのに対し,{\itHansards}の学習データは単語アラインメントが付与されてないラベルなし学習データである.{\itHansards}及び$\mathit{IWSLT}_{a}$のアラインメントタスクでは,各アラインメントモデルのハイパーパラメータは学習データの一部を用いた2分割交差検証により予め決定し,ディベロップメントデータは使わなかった\footnote{$\mathit{IWSLT}_{a}$の学習データの最初の2,000文を用いた2分割交差検証で最適なパラメータを用いた.$\mathit{IWSLT}_{a}$以外のデータに対してもこの検証により得られたパラメータを使った.ディベロップメントデータを使った各タスクでのパラメータ調整は今後の課題としたい.}.また,NAACL2003のsharedtaskオリジナルの学習データの総数は約110万文対あるが,今回の{\itHansards}の実験では,学習時の計算量を削減するため,無作為にサンプリングした10万文対を学習データとして用いた.大規模データの実験は今後の課題とする.{\itFBIS}では,NIST02の評価データをディベロップメントデータとして使い,NIST03とNIST04の各評価データでテストした.\subsection{実験対象}\label{sect:method}評価実験では,提案手法であるRNNに基づくモデルに加え,ベースラインとして,IBMモデル4とFFNNに基づくモデルを評価した.また,単語アラインメントタスクにおける合意制約の有効性を考察するため,ベースラインとして,典型的なHMMに基づくアラインメントモデルであるVogelらのモデル\cite{vogel96}($\mathit{HMM}_{indep}$)とこのVogelらのモデルにLiangらの両方向の合意制約\cite{liang06}を導入したモデル($\mathit{HMM}_{joint}$)も評価した.IBMモデル4は,IBMモデル1-4とHMMに基づくモデルを順番に適用して学習した\cite{och03}.具体的には,IBMモデル1,HMMに基づくモデル,IBMモデル2,3,4をこの順で5回ずつ繰り返した($1^{5}H^{5}3^{5}4^{5}$).これは,GIZA++のデフォルトの設定である({\itIBM4}).$\mathit{HMM}_\mathit{indep}$及び$\mathit{HMM}_\mathit{joint}$はBerkleyAligner\footnote{https://code.google.com/p/berkeleyaligner/}を用いた.Liangらの通り,IBMモデル1,HMMに基づくモデルを順番に5回ずつ繰り返し,各モデルを学習した\cite{liang06}.FFNNに基づくモデルでは,wordembeddingの長さ$M$を30,文脈の窓幅を5とした.したがって,$|z_{0}|$は$300=30\times5\times2$である.また,隠れ層として,ユニット数$|z_{1}|$が100の層を1層使用した.このFFNNに基づくモデルは,\cite{yang13}に倣って\ref{sect:FFNN}節の教師あり手法により学習したモデル$\mathit{FFNN}_{s}$に加えて,\ref{sect:usv}節と\ref{sect:agreement}節で提案した教師なし学習や合意制約の効果を確かめるため,$\mathit{FFNN}_{s+c}$,$\mathit{FFNN}_{u}$,$\mathit{FFNN}_{u+c}$のモデルを評価した.「$s$」は教師ありモデル,「$u$」は教師なしモデル,「$+c$」は学習時に合意制約を使うことを意味する.RNNに基づくモデルでは,wordembeddingの長さ$M$を30,再帰的に連結している隠れ層のユニット数$|y_{j}|$を100とした.したがって,$|x_{j}|$は$60=30\times2$である.また,提案の学習法の効果を検証するため,FFNNに基づくモデル同様,$\mathit{RNN}_{s}$,$\mathit{RNN}_{s+c}$,$\mathit{RNN}_{u}$,$\mathit{RNN}_{u+c}$の4種類を評価した.FFNNに基づくモデル及びRNNに基づくモデルの各層のユニット数や$M$などのパラメータは,学習データの一部を用いた2分割交差検証により予め設定した.NNに基づくモデルの学習について説明する.まず,各層の重み行列を初期化する.具体的には,lookup層の重み行列$L$は,局所解への収束を避けるため,学習データの原言語側と目的言語側からそれぞれ予め学習したwordembeddingに初期化する.その他の重みは,$[-0.1,0.1]$のランダムな値に初期化する.wordembeddingの学習には,Mikolovらの手法\cite{mikolov10}を基にしたRNNLMツールキット\footnote{http://rnnlm.org/}(デフォルトの設定)を用いる.その際,コーパスでの出現数が5回以下の単語は$\langleunk\rangle$に置き換える.各重みの初期化後は,ミニバッチSGDにより特定の目的関数に従って各重みを最適化する.本実験では,バッチサイズ$D$を100,学習率を0.01とし,50エポックで学習を終えた.また,学習データへの過学習を避けるため,目的関数には$l2$正則化項(正則化の比率は0.1)を加えた.教師なし学習におけるパラメータ$W$,$N$,$C$は,それぞれ,100,50,0.001とし,合意制約に関するパラメータ$\alpha$は0.1とした.翻訳タスクでは,フレーズベース機械翻訳(SMT)システムMoses\cite{Koehn07}を用いた.日本語の各文はChaSen\footnote{http://chasen-legacy.sourceforge.jp/},中国語の各文はStanfordChinesesegmenter\footnote{http://nlp.stanford.edu/software/segmenter.shtml}により単語へ分割した.その後,40単語以上の文は学習データから除いた.言語モデルは,SRILMツールキット\cite{stolcke02}により,modifiedKneser-Neyスムージング\cite{kneser95,chen98}を行い学習した.{\itIWSLT},{\itNTCIR-9}及び{\itNTCIR-10}では,学習データの英語側コーパスから構築した5グラム言語モデル,{\itFBIS}では,EnglishGigawordのXinhua部分のデータから構築した5グラム言語モデルを使用した.翻訳モデルは,各単語アラインメント手法により特定されたアラインメント結果に基づいて学習した.SMTシステムの各パラメータは,ディベロップメントデータを用いてMERT\cite{FOch03}によりチューニングした.\subsection{実験結果(単語アラインメント)}\label{sect:res_alignment}表\ref{tbl:res_wa}に各手法の単語アラインメントの精度をF1値で示す.NNに基づく教師ありモデルに対しては,学習データに付与されている正しい単語アラインメントを学習したモデル({\itREF})と,{\itIBM4}で特定した単語アラインメントを学習したモデル({\itIBM4})の2種類の精度を示す.{\itHansards}の学習データには正しい単語アラインメントが付与されていないため,{\itREF}に対する実験は実施していない.\begin{table}[b]\caption{単語アラインメント精度}\label{tbl:res_wa}\input{03table02.txt}\end{table}評価手順は,まず,各アラインメントモデルにより,$\boldsymbol{f}\rightarrow\boldsymbol{e}$と$\boldsymbol{e}\rightarrow\boldsymbol{f}$のアラインメントをそれぞれ生成する.その後,「grow-diag-final-and」ヒューリスティックス\cite{koehn03}により,両方向のアラインメントを結合する.そして,その結合したアラインメント結果をF1値で評価する.有意差検定は,有意差水準5\%の符号検定で行った.具体的には,テストデータの各単語に対して,他方の手法では不正解だが正しく判定したものを$+$,他方の手法では正解だが誤って判定したものを$-$として,2手法の評価に有意な差があるかどうかを片側検定の符号検定で判定した.表\ref{tbl:res_wa}中の「$+$」は,ベースラインとなるFFNNに基づくモデル$\mathit{FFNN}_{s}$({\itREF/IBM4})との精度差が有意であることを示し,「$++$」は,ベースラインのFFNNに基づくモデル$\mathit{FFNN}_{s}$({\itREF/IBM4})に加えて{\itIBM4}との精度差も有意であることを示す.また,正しい教師ラベルを使用するモデル({\itREF})と使用しないモデル({\itREF}以外)のそれぞれで最高の精度を太字で示す.表\ref{tbl:res_wa}より,$\mathit{IWSLT}_{a}$と{\itHansards}の両タスクにおいて,本論文の提案手法(RNNに基づくモデル,教師なし学習,合意制約){\itRNN$_{u+c}$}が最もアラインメント精度が高いことが分かる.特に,ベースラインとの精度差は有意であることから,本論文の提案を組み合わせることにより,従来手法より高いアラインメント精度を達成できることが実験的に確認できる.次に,本論文の各提案の個別の有効性について確認する.表\ref{tbl:res_wa}より,$\mathit{IWSLT}_{a}$と{\itHansards}の両タスクにおいて,$\mathit{RNN}_{s/s+c/u/u+c}$({\itIBM4}),$\mathit{RNN}_{s/s+c}$({\itREF})は,それぞれ,,$\mathit{FFNN}_{s/s+c/u/u+c}$({\itIBM4}),$\mathit{FFNN}_{s/s+c}$({\itREF})よりも精度が良い.特に,$\mathit{IWSLT}_{a}$では,$\mathit{RNN}_{s}$({\itREF}),$\mathit{RNN}_{s}$({\itIBM4})と$\mathit{FFNN}_{s}$({\itREF}),$\mathit{FFNN}_{s}$({\itIBM4})とのそれぞれの性能差は有意であることが分かる.これは,RNNに基づくモデルにより長いアラインメント履歴を捉えることで,アラインメント精度が向上することを示しており,RNNを利用したモデルの有効性を確認できる.ただし,{\itHansards}においては,RNNの効果が少ない.この言語対による効果の違いについては\ref{sect:discuss_RNN}節で考察する.$\mathit{IWSLT}_{a}$と\textit{Hansards}の両タスクにおいて,$\mathit{RNN}_{s+c}$({\itREF/IBM4}),$\mathit{RNN}_{u+c}$のアラインメント精度は,それぞれ,$\mathit{RNN}_{s}$({\itREF/IBM4}),$\mathit{RNN}_{u}$を上回っており,これらの精度差は有意であった.さらに,$\mathit{FFNN}_{s+c}$({\itREF/IBM4}),$\mathit{FFNN}_{u+c}$は,それぞれ,$\mathit{FFNN}_{s}$({\itREF/IBM4}),$\mathit{FFNN}_{u}$より有意にアラインメント精度が良い.この結果より,教師ありと教師なしの両方の学習において,両方向の合意制約を導入することでFFNNに基づくモデル及びRNNに基づくモデルのアラインメント精度を改善できることが分かる.一方で,{\itHMM$_{joint}$}の方が{\itHMM$_{indep}$}よりも精度が良いことから,提案の合意制約に限らず,両方向の合意をとるようにモデルを学習することは有効であることが確認できる.HMMに基づくモデルに導入したLiangらの両方向の合意制約と提案の合意制約の傾向の違いは,\ref{sect:discuss_size}節で考察する.$\mathit{IWSLT}_{a}$では,$\mathit{RNN}_{u}$と$\mathit{RNN}_{u+c}$は,それぞれ,$\mathit{RNN}_{s}$({\itIBM4})と$\mathit{RNN}_{s+c}$({\itIBM4})より有意にアラインメント精度が良い.一方で,{\itHansards}では,これらの精度は同等である.この傾向はFFNNに基づくモデルでも同様である.これは,学習データの質({\itIBM4}の精度)が悪い場合,教師あり学習は{\itIBM4}による疑似学習データに含まれる誤りの悪影響を受けるのに対し,提案の教師なし学習は学習データの質に依らずに精度の良いFFNNやRNNに基づくモデルを学習できることを示している.\subsection{実験結果(機械翻訳)}\label{sect:res_translation}表\ref{tbl:res_mt}に各手法により付与されたアラインメントを用いたSMTシステムの翻訳精度を示す.評価尺度は,大文字と小文字を区別したBLEU4\footnote{評価ツールとしてmteval-v13a.pl(http://www.itl.nist.gov/iad/mig/tests/mt/2009/)を用いた.}\cite{Papineni02}を用いた.MERTの不安定な振る舞いの影響を緩和するため,MERTによるチューニングは3回行い,その平均値を表\ref{tbl:res_mt}に示す\cite{utiyama09}.\begin{table}[b]\caption{翻訳精度}\label{tbl:res_mt}\input{03table03.txt}\end{table}{\itIWSLT}では,アラインメントモデル及び翻訳モデルの学習には学習データ全てを用いた.一方で,{\itNTCIR-9},{\itNTCIR-10}と{\itFBIS}では,アラインメントモデルの学習における計算量を削減するため,学習データから無作為にサンプリングした10万文対からアラインメントモデルを学習した.その後,学習したアラインメントモデルにより学習データ全ての単語アラインメントを自動的に付与し,翻訳モデルを学習した.また,詳細な比較を行うため,全学習データから学習したIBMモデル4に基づくSMTシステムの精度を{\itIBM4$_{all}$}として示す.翻訳精度の有意差検定は,有意差水準5\%でブートストラップによる検定手法\cite{koehn04}により行った.表\ref{tbl:res_mt}の「*」は,ベースライン({\itIBM4}及び$\mathit{FFNN}_{s}$({\itIBM4}))との精度差が有意であることを示す.また,各タスクで最高精度({\itIBM4$_{all}$}を除く)を太字で示す.表\ref{tbl:res_wa}と表\ref{tbl:res_mt}より,単語アラインメント精度を改善しても,必ずしも翻訳精度が向上するとは限らないことが分かる.この事は従来より知られており,例えば,\cite{yang13}においても同様の現象が確認されている.しかしながら,表\ref{tbl:res_mt}より,全ての翻訳タスクで,$\mathit{RNN}_{u}$と$\mathit{RNN}_{u+c}$は$\mathit{FFNN}_{s}$({\itIBM4})と{\itIBM4}よりも有意に翻訳精度がよいことが分かる.この結果から,提案手法は翻訳精度の改善にも寄与することが実験的に確認できる.また,{\itNTCIR-9}と{\itFBIS}では,提案モデルは学習データの一部から学習したが,学習データ全てから学習した$\mathit{IBM4}_\mathit{all}$と同等の精度を達成している.学習データ量の影響は\ref{sect:discuss_size}節で考察する.
\section{考察}
\label{sect:discuss}\subsection{RNNに基づくモデルの効果}\label{sect:discuss_RNN}図\ref{fig:wa}に$\mathit{FFNN}_{s}$及び$\mathit{RNN}_{s}$で解析した単語アラインメントの具体例を示す.三角が$\mathit{FFNN}_{s}$の解析結果,丸が$\mathit{RNN}_{s}$の解析結果,四角が正しい単語アラインメントを表す.図\ref{fig:wa}より,$\mathit{RNN}_{s}$は$\mathit{FFNN}_{s}$と比較して,複雑なアラインメント(例えば,図\ref{fig:wa}(a)中の「haveyoubeen」に対するギザギザのアラインメント)を特定できていることが分かる.これは,$\mathit{FFNN}_{s}$は直前のアラインメント履歴しか利用しないが,$\mathit{RNN}_{s}$は長いアラインメント履歴に基づいてアラインメントのパス(例えば,フレーズ単位のアラインメント)を捉えられることを示唆している.\begin{figure}[b]\begin{center}\includegraphics{22-4ia3f3.eps}\end{center}\caption{単語アラインメントの解析結果例}\label{fig:wa}\end{figure}\ref{sect:res_alignment}節で述べた通り,RNNに基づくモデルの効果は,日英アラインメント($\mathit{IWSLT}_{a}$)と比べて仏英アラインメント(\textit{Hansards})に対して少ない.これは,英語とフランス語は語順が似ていて,日英に比べて1対1アラインメントが多く(図\ref{fig:wa}参照),仏英単語アラインメントは局所的な手がかりで捉えられる場合が多いためであると考えられる.図\ref{fig:wa}(b)は,このような単純な単語アラインメントは,$\mathit{FFNN}_{s}$と$\mathit{RNN}_{s}$の両モデルで正しく解析できることを示している.\subsection{学習データ量の影響}\label{sect:discuss_size}{\itBTEC}における日英アラインメントタスクにおいて様々なサイズの学習データを使った時のアラインメント精度を表\ref{tbl:size}に示す.「40~K」,「9~K」,「1~K」は,それぞれ,{\itIWSLT}の全学習データ,$\mathit{IWSLT}_{a}$の全学習データ,$\mathit{IWSLT}_{a}$の全学習データから無作為に抽出した1,000文対を学習データとした時の,$\mathit{IWSLT}_{a}$のテストデータに対するアラインメント精度である.「9~K」及び「1~K」はラベルあり学習データ,「40~K」はラベルなし学習データである.そのため,教師ありモデル({\itREF})の「40~K」に対する実験は実施していない.表\ref{tbl:size}より,「1~K」の$\mathit{RNN}_{s+c}$({\itREF})と「9~K」の$\mathit{RNN}_{u+c}$は「40~K」の{\itIBM4}より性能がよいことが分かる.すなわち,RNNに基づくモデルは,{\itIBM4}の学習データの22.5\%以下(9,000/40,000)のデータから同等の精度を持つモデルを学習できたことが分かる.その結果,表\ref{tbl:res_mt}が示す通り,学習データの一部を使った$\mathit{RNN}_{u+c}$に基づくSMTシステムが,全学習データを用いた$\mathit{IBM4}_\mathit{all}$に基づくSMTシステムと同等の精度を達成できる場合がある.\begin{table}[b]\caption{学習データ量による単語アラインメント精度の比較}\label{tbl:size}\input{03table04.txt}\end{table}表\ref{tbl:size}より,HMMに基づくモデルに導入したLiangらの両方向の合意制約は学習データが小規模なほど効果があることが分かる.一方で,提案の合意制約は,Liangらの合意制約と比較すると精度の改善幅は小さいが,どのテータサイズにおいても同等の効果を発揮することが確認できる.また,各データサイズで\ref{sect:res_alignment}節と同様の手法の比較を行うと,教師ラベルを使わない場合は$\mathit{RNN}_{u+c}$,使う場合は$\mathit{RNN}_{s+c}$({\itREF})が最も性能が良い.そして,本論文で提案した,RNNの利用,教師なし学習,合意制約の個別の有効性も確認できることから,データサイズに依らず提案手法が有効であることが分かる.
\section{まとめ}
\label{sect:conclusion}本論文では,RNNに基づく単語アラインメントモデルを提案した.提案モデルは,隠れ層の再帰的な構造を利用し,長いアラインメント履歴に基づいてアラインメントのパス(例えば,フレーズ単位のアラインメント)を捉えることができる.また,RNNに基づくモデルの学習法として,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張して人工的に作成した負例を利用する教師なし学習法を提案した.そして,更なる精度向上のために,学習過程に各方向のwordembeddingを一致させる合意制約を導入した.複数の単語アラインメントタスクと翻訳タスクの実験を通じて,RNNに基づくモデルは従来のFFNNに基づくモデル\cite{yang13}よりアラインメント精度及び翻訳精度が良いことを示した.また,提案した教師なし学習や合意制約により,アラインメント精度を更に改善できることを確認した.提案モデルでは,アラインメント対象の文脈をアラインメント履歴($y_{i}$)に暗示的に埋め込み利用しているが,今後は,FFNNに基づくモデルのように周辺単語の入力($c(f_{j})$や$c(e_{a_{j}})$)として明示的に利用することも検討したい.また,Yangらは複数の隠れ層を用いることでFFNNに基づくモデルの精度を改善している\cite{yang13}.これに倣って提案モデルでも各隠れ層を複数にするなど,提案モデルの改良を行う予定である.さらに,本論文では提案モデルにより特定したアラインメントに基づいて翻訳モデルを学習したが,翻訳モデル学習時の素性としてアラインメントモデルが算出するスコアを使用したり,Watanabeら\cite{watanabe06}のように翻訳候補のリランキングの中で使ったりするなど,提案モデルのSMTシステムへの効果的な組み込み方に関しても検討したい.\acknowledgment本論文は国際会議The52ndAnnualMeetingoftheAssociationforComputationalLinguisticsで発表した論文\cite{tamura14}に基づいて日本語で書き直し,説明や評価を追加したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Auli,Galley,Quirk,\BBA\Zweig}{Auliet~al.}{2013}]{auli13}Auli,M.,Galley,M.,Quirk,C.,\BBA\Zweig,G.\BBOP2013\BBCP.\newblock\BBOQJointLanguageandTranslationModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2013},\mbox{\BPGS\1044--1054}.\bibitem[\protect\BCAY{Bengio,Ducharme,Vincent,\BBA\Janvin}{Bengioet~al.}{2003}]{bengio03}Bengio,Y.,Ducharme,R.,Vincent,P.,\BBA\Janvin,C.\BBOP2003\BBCP.\newblock\BBOQANeuralProbabilisticLanguageModel.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1137--1155}.\bibitem[\protect\BCAY{Berg-Kirkpatrick,Bouchard-C\^{o}t\'{e},DeNero,\BBA\Klein}{Berg-Kirkpatricket~al.}{2010}]{taylor10}Berg-Kirkpatrick,T.,Bouchard-C\^{o}t\'{e},A.,DeNero,J.,\BBA\Klein,D.\BBOP2010\BBCP.\newblock\BBOQPainlessUnsupervisedLearningwithFeatures.\BBCQ\\newblockIn{\BemProceedingsofHLT:NAACL2010},\mbox{\BPGS\582--590}.\bibitem[\protect\BCAY{Blunsom\BBA\Cohn}{Blunsom\BBA\Cohn}{2006}]{blunsom06}Blunsom,P.\BBACOMMA\\BBA\Cohn,T.\BBOP2006\BBCP.\newblock\BBOQDiscriminativeWordAlignmentwithConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofColing/ACL2006},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Chen\BBA\Goodman}{Chen\BBA\Goodman}{1996}]{chen98}Chen,S.~F.\BBACOMMA\\BBA\Goodman,J.\BBOP1996\BBCP.\newblock\BBOQAnEmpiricalStudyofSmoothingTechniquesforLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsofACL1996},\mbox{\BPGS\310--318}.\bibitem[\protect\BCAY{Collobert\BBA\Weston}{Collobert\BBA\Weston}{2008}]{collobert08}Collobert,R.\BBACOMMA\\BBA\Weston,J.\BBOP2008\BBCP.\newblock\BBOQAUnifiedArchitectureforNaturalLanguageProcessing:DeepNeuralNetworkswithMultitaskLearning.\BBCQ\\newblockIn{\BemProceedingsofICML2008},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Collobert,Weston,Bottou,Karlen,Kavukcuoglu,\BBA\Kuksa}{Collobertet~al.}{2011}]{collobert11}Collobert,R.,Weston,J.,Bottou,L.,Karlen,M.,Kavukcuoglu,K.,\BBA\Kuksa,P.\BBOP2011\BBCP.\newblock\BBOQNaturalLanguageProcessing(Almost)fromScratch.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf12},\mbox{\BPGS\2493--2537}.\bibitem[\protect\BCAY{Dahl,Yu,Deng,\BBA\Acero}{Dahlet~al.}{2012}]{dahl12}Dahl,G.~E.,Yu,D.,Deng,L.,\BBA\Acero,A.\BBOP2012\BBCP.\newblock\BBOQContext-DependentPre-trainedDeepNeuralNetworksforLargeVocabularySpeechRecognition.\BBCQ\\newblock{\BemIEEETransactionsonAudio,Speech,andLanguageProcessing},{\Bbf20}(1),\mbox{\BPGS\30--42}.\bibitem[\protect\BCAY{Dempster,Laird,\BBA\Rubin}{Dempsteret~al.}{1977}]{dempster77}Dempster,A.~P.,Laird,N.~M.,\BBA\Rubin,D.~B.\BBOP1977\BBCP.\newblock\BBOQMaximumLikelihoodfromIncompleteDataviatheEMAlgorithm.\BBCQ\\newblock{\BemJournaloftheRoyalStatisticalSociety,SeriesB},{\Bbf39}(1),\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{Dyer,Clark,Lavie,\BBA\Smith}{Dyeret~al.}{2011}]{dyer11}Dyer,C.,Clark,J.,Lavie,A.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQUnsupervisedWordAlignmentwithArbitraryFeatures.\BBCQ\\newblockIn{\BemProceedingsofACL/HLT2011},\mbox{\BPGS\409--419}.\bibitem[\protect\BCAY{Fordyce}{Fordyce}{2007}]{fordyce07}Fordyce,C.~S.\BBOP2007\BBCP.\newblock\BBOQOverviewoftheIWSLT2007EvaluationCampaign.\BBCQ\\newblockIn{\BemProceedingsofIWSLT2007},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Ganchev,Gra{\c{c}}a,\BBA\Taskar}{Ganchevet~al.}{2008}]{gancev08}Ganchev,K.,Gra{\c{c}}a,J.~V.,\BBA\Taskar,B.\BBOP2008\BBCP.\newblock\BBOQBetterAlignments=BetterTranslations?\BBCQ\\newblockIn{\BemProceedingsofACL/HLT2008},\mbox{\BPGS\986--993}.\bibitem[\protect\BCAY{Goh,Watanabe,Yamamoto,\BBA\Sumita}{Gohet~al.}{2010}]{goh10}Goh,C.-L.,Watanabe,T.,Yamamoto,H.,\BBA\Sumita,E.\BBOP2010\BBCP.\newblock\BBOQConstrainingaGenerativeWordAlignmentModelwithDiscriminativeOutput.\BBCQ\\newblock{\BemIEICETransactions},{\Bbf93-D}(7),\mbox{\BPGS\1976--1983}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto13}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsof10thNTCIRConference},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{goto10}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsof9thNTCIRConference},\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Gra{\c{c}}a,Ganchev,\BBA\Taskar}{Gra{\c{c}}aet~al.}{2008}]{graca08}Gra{\c{c}}a,J.~V.,Ganchev,K.,\BBA\Taskar,B.\BBOP2008\BBCP.\newblock\BBOQExpectationMaximizationandPosteriorConstraints.\BBCQ\\newblockIn{\BemProceedingsofNIPS2008},\mbox{\BPGS\569--576}.\bibitem[\protect\BCAY{Gutmann\BBA\Hyv{\"a}rinen}{Gutmann\BBA\Hyv{\"a}rinen}{2010}]{gutmann10}Gutmann,M.\BBACOMMA\\BBA\Hyv{\"a}rinen,A.\BBOP2010\BBCP.\newblock\BBOQNoise-ContrastiveEstimation:ANewEstimationPrincipleforUnnormalizedStatisticalModels.\BBCQ\\newblockIn{\BemProceedingsofAISTATS2010},\mbox{\BPGS\297--304}.\bibitem[\protect\BCAY{Kalchbrenner\BBA\Blunsom}{Kalchbrenner\BBA\Blunsom}{2013}]{nal13}Kalchbrenner,N.\BBACOMMA\\BBA\Blunsom,P.\BBOP2013\BBCP.\newblock\BBOQRecurrentContinuousTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2013},\mbox{\BPGS\1700--1709}.\bibitem[\protect\BCAY{Kneser\BBA\Ney}{Kneser\BBA\Ney}{1995}]{kneser95}Kneser,R.\BBACOMMA\\BBA\Ney,H.\BBOP1995\BBCP.\newblock\BBOQImprovedBacking-offforM-gramLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsofICASSP1995},\mbox{\BPGS\181--184}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constrantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Koehn07}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constrantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2007},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsofHLT/NAACL2003},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Le,Allauzen,\BBA\Yvon}{Leet~al.}{2012}]{son12}Le,H.-S.,Allauzen,A.,\BBA\Yvon,F.\BBOP2012\BBCP.\newblock\BBOQContinuousSpaceTranslationModelswithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofNAACL/HLT2012},\mbox{\BPGS\39--48}.\bibitem[\protect\BCAY{Liang,Taskar,\BBA\Klein}{Lianget~al.}{2006}]{liang06}Liang,P.,Taskar,B.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQAlignmentbyAgreement.\BBCQ\\newblockIn{\BemProceedingsofHLT/NAACL2006},\mbox{\BPGS\104--111}.\bibitem[\protect\BCAY{Matusov,Zens,\BBA\Ney}{Matusovet~al.}{2004}]{matusov04}Matusov,E.,Zens,R.,\BBA\Ney,H.\BBOP2004\BBCP.\newblock\BBOQSymmetricWordAlignmentsforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\219--225}.\bibitem[\protect\BCAY{Mihalcea\BBA\Pedersen}{Mihalcea\BBA\Pedersen}{2003}]{mihalcea03}Mihalcea,R.\BBACOMMA\\BBA\Pedersen,T.\BBOP2003\BBCP.\newblock\BBOQAnEvaluationExerciseforWordAlignment.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL2003WorkshoponBuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Mikolov,Karafi{\'a}t,Burget,Cernock{\'y},\BBA\Khudanpur}{Mikolovet~al.}{2010}]{mikolov10}Mikolov,T.,Karafi{\'a}t,M.,Burget,L.,Cernock{\'y},J.,\BBA\Khudanpur,S.\BBOP2010\BBCP.\newblock\BBOQRecurrentNeuralNetworkbasedLanguageModel.\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH2010},\mbox{\BPGS\1045--1048}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov13}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS2013},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mikolov\BBA\Zweig}{Mikolov\BBA\Zweig}{2012}]{mikolov12}Mikolov,T.\BBACOMMA\\BBA\Zweig,G.\BBOP2012\BBCP.\newblock\BBOQContextDependentRecurrentNeuralNetworkLanguageModel.\BBCQ\\newblockIn{\BemProceedingsofSLT2012},\mbox{\BPGS\234--239}.\bibitem[\protect\BCAY{Mnih\BBA\Teh}{Mnih\BBA\Teh}{2012}]{mnih12}Mnih,A.\BBACOMMA\\BBA\Teh,Y.~W.\BBOP2012\BBCP.\newblock\BBOQAFastandSimpleAlgorithmforTrainingNeuralProbabilisticLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofICML2012},\mbox{\BPGS\1751--1758}.\bibitem[\protect\BCAY{Moore}{Moore}{2005}]{moore05}Moore,R.~C.\BBOP2005\BBCP.\newblock\BBOQADiscriminativeFrameworkforBilingualWordAlignment.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\81--88}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{FOch03}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2003},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29},\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2002},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Rumelhart,Hinton,\BBA\Williams}{Rumelhartet~al.}{1986}]{rumelhart86}Rumelhart,D.~E.,Hinton,G.~E.,\BBA\Williams,R.~J.\BBOP1986\BBCP.\newblock\BBOQLearningInternalRepresentationsbyErrorPropagation.\BBCQ\\newblockInRumelhart,D.~E.\BBACOMMA\\BBA\McClelland,J.~L.\BEDS,{\BemParallelDistributedProcessing},\mbox{\BPGS\318--362}.MITPress.\bibitem[\protect\BCAY{Smith\BBA\Eisner}{Smith\BBA\Eisner}{2005}]{smith05}Smith,N.~A.\BBACOMMA\\BBA\Eisner,J.\BBOP2005\BBCP.\newblock\BBOQContrastiveEstimation:TrainingLog-LinearModelsonUnlabeledData.\BBCQ\\newblockIn{\BemProceedingsofACL2005},\mbox{\BPGS\354--362}.\bibitem[\protect\BCAY{Stolcke}{Stolcke}{2002}]{stolcke02}Stolcke,A.\BBOP2002\BBCP.\newblock\BBOQSRILM-AnExtensibleLanguageModelingToolkit.\BBCQ\\newblockIn{\BemProceedingsofICSLP2002},\mbox{\BPGS\901--904}.\bibitem[\protect\BCAY{Sundermeyer,Oparin,Gauvain,Freiberg,Schl{\"u}ter,\BBA\Ney}{Sundermeyeret~al.}{2013}]{sundermeyer13}Sundermeyer,M.,Oparin,I.,Gauvain,J.-L.,Freiberg,B.,Schl{\"u}ter,R.,\BBA\Ney,H.\BBOP2013\BBCP.\newblock\BBOQComparisonofFeedforwardandRecurrentNeuralNetworkLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofICASSP2013},\mbox{\BPGS\8430--8434}.\bibitem[\protect\BCAY{Takezawa,Sumita,Sugaya,Yamamoto,\BBA\Yamamoto}{Takezawaet~al.}{2002}]{takezawa02}Takezawa,T.,Sumita,E.,Sugaya,F.,Yamamoto,H.,\BBA\Yamamoto,S.\BBOP2002\BBCP.\newblock\BBOQTowardaBroad-coverageBilingualCorpusforSpeechTranslationofTravelConversationsintheRealWorld.\BBCQ\\newblockIn{\BemProceedingsofLREC2002},\mbox{\BPGS\147--152}.\bibitem[\protect\BCAY{Tamura,Watanabe,\BBA\Sumita}{Tamuraet~al.}{2014}]{tamura14}Tamura,A.,Watanabe,T.,\BBA\Sumita,E.\BBOP2014\BBCP.\newblock\BBOQRecurrentNeuralNetworksforWordAlignmentModel.\BBCQ\\newblockIn{\BemProceedingsofACL2014},\mbox{\BPGS\1470--1480}.\bibitem[\protect\BCAY{Taskar,Lacoste-Julien,\BBA\Klein}{Taskaret~al.}{2005}]{taskar05}Taskar,B.,Lacoste-Julien,S.,\BBA\Klein,D.\BBOP2005\BBCP.\newblock\BBOQADiscriminativeMatchingApproachtoWordAlignment.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\73--80}.\bibitem[\protect\BCAY{Utiyama,Yamamoto,\BBA\Sumita}{Utiyamaet~al.}{2009}]{utiyama09}Utiyama,M.,Yamamoto,H.,\BBA\Sumita,E.\BBOP2009\BBCP.\newblock\BBOQTwoMethodsforStabilizingMERT:NICTatIWSLT2009.\BBCQ\\newblockIn{\BemProceedingsofIWSLT2009},\mbox{\BPGS\79--82}.\bibitem[\protect\BCAY{Vaswani,Huang,\BBA\Chiang}{Vaswaniet~al.}{2012}]{vaswani12}Vaswani,A.,Huang,L.,\BBA\Chiang,D.\BBOP2012\BBCP.\newblock\BBOQSmallerAlignmentModelsforBetterTranslations:UnsupervisedWordAlignmentwiththe$l_0$-norm.\BBCQ\\newblockIn{\BemProceedingsofACL2012},\mbox{\BPGS\311--319}.\bibitem[\protect\BCAY{Vaswani,Zhao,Fossum,\BBA\Chiang}{Vaswaniet~al.}{2013}]{vaswani13}Vaswani,A.,Zhao,Y.,Fossum,V.,\BBA\Chiang,D.\BBOP2013\BBCP.\newblock\BBOQDecodingwithLarge-ScaleNeuralLanguageModelsImprovesTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2013},\mbox{\BPGS\1387--1392}.\bibitem[\protect\BCAY{Viterbi}{Viterbi}{1967}]{viterbi67}Viterbi,A.~J.\BBOP1967\BBCP.\newblock\BBOQErrorBoundsforConvolutionalCodesandanAsymptoticallyOptimumDecodingAlgorithm.\BBCQ\\newblock{\BemIEEETransactionsonInformationTheory},{\Bbf13}(2),\mbox{\BPGS\260--269}.\bibitem[\protect\BCAY{Vogel,Ney,\BBA\Tillmann}{Vogelet~al.}{1996}]{vogel96}Vogel,S.,Ney,H.,\BBA\Tillmann,C.\BBOP1996\BBCP.\newblock\BBOQHmm-basedWordAlignmentinStatisticalTranslation.\BBCQ\\newblockIn{\BemProceedingsofColing1996},\mbox{\BPGS\836--841}.\bibitem[\protect\BCAY{Watanabe,Suzuki,Tsukada,\BBA\Isozaki}{Watanabeet~al.}{2006}]{watanabe06}Watanabe,T.,Suzuki,J.,Tsukada,H.,\BBA\Isozaki,H.\BBOP2006\BBCP.\newblock\BBOQNTTStatisticalMachineTranslationforIWSLT2006.\BBCQ\\newblockIn{\BemProceedingsofIWSLT2006},\mbox{\BPGS\95--102}.\bibitem[\protect\BCAY{Yang,Liu,Li,Zhou,\BBA\Yu}{Yanget~al.}{2013}]{yang13}Yang,N.,Liu,S.,Li,M.,Zhou,M.,\BBA\Yu,N.\BBOP2013\BBCP.\newblock\BBOQWordAlignmentModelingwithContextDependentDeepNeuralNetwork.\BBCQ\\newblockIn{\BemProceedingsofACL2013},\mbox{\BPGS\166--175}.\end{thebibliography}\begin{biography}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2007年から2011年まで日本電気株式会社にて自然言語処理,特にテキストマイニングに関する研究に従事.2011年から2014年まで情報通信研究機構にて統計的機械翻訳に関する研究に従事.2013年東京工業大学大学院総合理工学研究科博士課程修了.2014年から2015年まで日本電気株式会社にてテキスト分類に関する研究に従事.2015年から情報通信研究機構の研究員,現在に至る.工学博士.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{渡辺太郎}{1994年京都大学工学部情報工学科卒業.1997年京都大学大学院工学研究科情報工学専攻修士課程修了.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATR,NTTおよびNICTにて研究員として務めた後,現在,グーグル株式会社ソフトウェアエンジニア.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学).日本アイ・ビー・エム東京基礎研究所,国際電気通信基礎技術研究所を経て,2007年より国立研究開発法人情報通信研究機構に勤務,現在,ユニバーサルコミュニケーション研究所副所長.自動翻訳,eラーニングに関する研究開発に従事.2007,2014年アジア太平洋機械翻訳協会長尾賞,2007年情報処理学会喜安記念業績賞,2010年文部科学大臣表彰・科学技術賞(開発部門),2013年第11回産学官連携功労者表彰・総務大臣賞.情報処理学会,電子情報通信学会,ACL,日本音響学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V10N05-07
|
\section{はじめに}
カスタマサービスとして,ユーザから製品の使用方法等についての質問を受けるコールセンターの需要が増している.しかし,新製品の開発のサイクルが早くなり,ユーザからの質問の応対に次々に新しい知識が必要となり,応対するオペレータにとっては,複雑な質問へすばやく的確に応答することが困難な状況にある.オペレータは,過酷な業務のため定着率が低く,企業にとっても,レベルの高いオペレータを継続して維持することは,人件費や教育などのコストがかかり,問題となっている.本稿では,ユーザが自ら問題解決できるような,対話的ナビゲーションシステムを実現する基礎技術を開発することにより,コールセンターのオペレータ業務の負荷を軽減することを目的とする.通常のコールセンターでは,オペレータがユーザとのやり取りによって質問応答の要約文をあらかじめ作成しておく(図\ref{fig:call}\,(a)).Web上の質問応答システムでは,これをデータベース化したものをユーザの質問文のマッチング対象に用いる(図\ref{fig:call}\,(b)).ユーザはオペレータの介入なしに質問を入力し,応答を得ることができる.\begin{figure}[ht]\begin{center}\epsfile{file=figure/fig1.eps,scale=0.5}\caption{コールセンター(a)とWeb上の質問応答システム(b)}\label{fig:call}\end{center}\end{figure}このようなWeb上の質問応答システムを用いて,所望の応答結果を速やかに得るために必要なナビゲーション技術の新しい提案を行なう.パソコン関連の疑問に答える,既存のWeb上の質問応答システムから収集したデータによると,ユーザが入力する質問文(端末からの入力文)は,平均20.8文字と短いため,この質問文を用いて,一度で適切な質問と応答の要約文にマッチングすることは稀である.そこで,必要に応じてシステムがユーザに適切なキータームの追加を促すことで,必要な条件を補いながら質問の要約文とのマッチングを行ない,適切な応答の要約文を引き出す必要がある.しかしながら,このようなナビゲーションにおいては,ユーザに追加を促したキータームがどれだけ有効に機能したかどうかがわからない,といった評価上の問題がある.これらのキータームの補いの問題と,評価上の問題を解決するために,本稿では以下の手法を用いた.\begin{itemize}\itemまず,34,736件の質問の要約文から300件を無作為に抽出し,ユーザが初期に入力するような質問文(以下,初期質問文と呼ぶ)を人手で作成した.この初期質問文を初期入力として要約文とのマッチングを行なった.\item次に,システム側がユーザに対して適切なキータームの追加を促し,新たに作成した質問文(以下,二次質問文と呼ぶ)を入力として,再度,要約文とのマッチングを行なった.\itemマッチングの結果,初期質問文を作成する際の元になった質問の要約文が出力結果として得られた場合に,ユーザが問題を解決したとする仮説を立てた.この仮説に基づき,ユーザが問題解決できたか否かという評価を行なった.\end{itemize}ユーザにどのようなキータームの追加を促すべきかをシステム側が判定する方式として,サクセスファクタ分析方式を用いた.これは,ユーザの質問文と蓄積している質問の要約文とのマッチングが成功したものから一定の基準によってキータームを変更して結果を評価し,マッチングの精度に大きな影響を及ぼすものをルール化し,質問文にキータームを追加する方式である.本論文の第\ref{sec:2}\,章では,Web上の質問応答システムとコールセンターの現状のデータを具体的に例示し,初期質問文作成の意義やその作成方法について述べる.第\ref{sec:3}\,章では,従来行なわれてきた質問応答の関連研究を概観し,本研究の位置付けを明確にする.第\ref{sec:4}\,章では,実験と評価の方法について述べる.第\ref{sec:5}\,章では,サクセスファクタ分析方式の詳細と,それを用いた実験結果を述べ,本方式が対話的ナビゲーションに極めて有効であることを示す.
\section{研究概要}
label{sec:2}\subsection{Web上の質問応答システム}パソコンなどの使用法に関する質問応答システム(FMWorld.net)がWeb上で公開されているが,このシステムに対して2003年の1月〜3月までに入力された問い合わせのうち,助詞を含む約24万件の質問文の文字数分布を表\ref{tab:sbunpu}\,に示す.\begin{table}[ht]\caption{質問文の文字数分布}\label{tab:sbunpu}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{文字数}&\multicolumn{1}{|c|}{質問文数}&\multicolumn{1}{|c|}{割合}&\multicolumn{1}{|c|}{累積割合}\\\hline\hline1〜10文字&65740&27.3\,\%&27.3\,\%\\\hline11〜20文字&100789&41.9\,\%&69.2\,\%\\\hline21〜30文字&35973&14.9\,\%&84.1\,\%\\\hline31〜40文字&16087&6.7\,\%&90.8\,\%\\\hline41文字以上&22213&9.2\,\%&100.0\,\%\\\hline\multicolumn{1}{|c|}{合計}&240802&100.0\,\%&\\\hline\end{tabular}平均は20.8文字/質問文\end{center}\end{table}例\ref{ex:system}\,には,これらの助詞を含む質問文の一部を入力のあった頻度とともに例として示す.例\ref{ex:system}\,の中で,高頻度の質問文を質問応答システムに入力しても,それに対する応答が50以上もあり,問題を解決する知識にたどり着くには,さらなる絞込みが必要である.\begin{example}[ht]\begin{center}\fbox{\small\begin{tabular}{ll}\multicolumn{2}{l}{高頻度}\\~&\begin{tabular}{ll}2036&``電源が切れない''\\1495&``音が出ない''\\602&``起動が遅い''\\\end{tabular}\\\multicolumn{2}{l}{中頻度}\\~&\begin{tabular}{ll}24&``フラットポイントを無効にしたい''\\10&``光デジタルオーディオ端子が使えない''\\10&``再起動中にフリーズする''\\\end{tabular}\\\multicolumn{2}{l}{低頻度}\\~&\begin{tabular}{ll}1&``最初から入っているアプリケーションが,リカバリー後いくつか消えている.''\\1&``マウスのスクロールボタンが有効になりません"\\1&``アカウントの設定ができない"\\\end{tabular}\\\end{tabular}}\end{center}\caption{質問応答システムでの質問文(左端の数字は頻度)}\label{ex:system}\end{example}\subsection{コールセンターにおける質問応答の例}Web上の質問応答システムは,ユーザの入力した質問文で過去の事例として蓄積した質問を検索して,その質問と応答の要約文を引き出して問題を解決する知識として提供している.この質問と応答の要約文は,コールセンターにおいてオペレータが電話の応対により解決した問題を質問($\langle$subject$\rangle$)と応答($\langle$solution$\rangle$)に分けてまとめて記述した記録の集まりである.実際の例を例\ref{ex:call}\,に示す.\begin{example}\begin{center}\fbox{\small~\begin{minipage}{0.9\textwidth}\noindent$\langle$qaid$\rangle$354$\langle$/qaid$\rangle$\\$\langle$subject$\rangle$\\USB対応オーディオ録音機のROLAND製AUDIOCANVASUA-100を使ってオーディオ録音,再生をしたい.PCのオーディオ出力をまとめる接続方法を教えてください.\\$\langle$/subject$\rangle$\\$\langle$solution$\rangle$\\Roland製AudioCanvasUA-100を使用したオーディオ録音,再生について.AD/DA変換がPC本体内(サウンドカード)から離れるため,ノイズの影響を受けずにオーディオ録音が可能となります.\\・操作手順\\1.PCとUA-100のUSB端子を接続します.(WAVファイルの録音,再生)\\2.PC側のサウンドボードのLINEOUT端子とUA-100のINPUT端子を接続します.(音楽CDの再生やサウンドボード,ソフトMIDI音源を使ったMIDIファイルの再生)\\~3.UA-100のOUTPUT端子と外部スピーカーを繋ぎます.\\~4.更に,UA-100にマイクや録音機器(MD,カセット等)を接続してオーディオ録音ができます.\\$\langle$/solution$\rangle$\end{minipage}}\end{center}\caption{コールセンターにおける質問応答の例}\label{ex:call}\end{example}この記録は富士通株式会社において,約5年間にわたり蓄積した,コールセンターに問い合わせのあったパソコン関係の質問と応答の実例の一部である.これは,ユーザとオペレータの対話のそのままの記録ではなく,ユーザとの幾度かのやり取りによる対話を最後にまとめて書いたものである.本研究では,これらの蓄積した質問と応答を有効に活用してコールセンターのオペレータ業務の負荷を低減させるために,オペレータの介在なくユーザが自ら問題解決できるような,対話的な質問応答システムの実現を目指すことにした.\subsection{対話的ナビゲーション}Web上の質問応答システムにおいて,ユーザの問い合わせから,蓄積された質問応答へ導くためには,オペレータがユーザからいろいろな条件を聞き出して正しい解答へと導くのと同様に,計算機上でこれと同等なナビゲーションを実現しなければならない.そのためには,まず,ユーザの問い合わせを受け付け,必要に応じてシステムがユーザに適切なキータームの追加を促すことで,必要な条件を補いながら,質問の要約文とのマッチングを行ない,適切な応答の要約文を引き出す必要がある.今回の実験では,あらかじめ,質問の要約文から初期質問文を人手で作成する.その初期質問文を作成する際の元になった質問の要約文が出力結果として得られた場合に,ユーザが問題を解決できたとする仮説を立て,評価を行なう.ユーザに追加を促したキータームがどれだけ有効に機能したかどうかを測定するために,まず,初期質問文を入力として要約文とのマッチングを行ない,それをベースラインとする.次に,そのマッチングの結果で,元になった質問の要約文が得られなかった初期質問文に対しては,システム側がユーザに適切なキータームの追加を促し,二次質問文を用いて,再度,要約文とのマッチングを行なう(図\ref{fig:navi}\,).ここで用いる初期質問文の作成の目安としては,できるだけ一般的なユーザの質問文に近くなるように,実験内容を知らない第三者に以下の指針に沿った作成を依頼した.また,初期質問文の例を例\ref{ex:shoki}\,に示す.\begin{example}[hb]\begin{center}\begin{tabular}{ll}[指針]&\begin{minipage}[t]{0.85\textwidth}\begin{itemize}\item20文字程度の平易な文で記述する.\item質問の要約文をいくつかの構成要素に分解し,それぞれの構成要素が初期質問文になるようにする.\end{itemize}\end{minipage}\\\end{tabular}\vspace{0.8em}\fbox{\small\begin{minipage}{0.9\textwidth}\noindent[質問の要約文の例]\begin{quote}USB対応オーディオ録音機のROLAND製AUDIOCANVASUA-100を使ってオーディオ録音,再生をしたい.PCのオーディオ出力をまとめる接続方法を教えてください.\end{quote}[初期質問文の例]\begin{quote}オーディオの録音,再生をしたい.\\USB対応のオーディオ録音機を使いたい.\\パソコンとの接続方法を教えてほしい.\end{quote}\end{minipage}}\end{center}\caption{初期質問文の例}\label{ex:shoki}\end{example}これらの初期質問文を使って,第\ref{sec:5}\,章で述べる実験を行なう.この実験で得られた結果を元に,システムがユーザに新たなキータームの入力を促し,問題の解決となるような対話的なナビゲーションシステムの構築を目指す.\begin{figure}[t]\begin{center}\epsfile{file=figure/fig2.eps,scale=0.5}\end{center}\caption{対話的ナビゲーションによる問題解決}\label{fig:navi}\end{figure}
\section{関連研究}
label{sec:3}コールセンターのオペレータの代替をコンピュータが行なう理想的な解決方法としては,自然な対話による高精度な質問応答が重要なキーとなる.対話の研究としては,古くはELIZA~\cite{eliza}があるが,ユーザの問題解決という目的に作られたものではない.対話による情報検索~\cite{oddy}では,システムがユーザに対していくつかの選択肢を提示して検索を進めるもので,ユーザの意図が反映されにくい.近年,意味や文脈を考慮した対話モデル~\cite{katou,iida}が提案されているが,実用レベルには至っていない.一方,質問応答システムでは,ユーザの問い合わせに対して,一般的な情報源から応答を生成する方法がある.これは,TRECのQAタスクで用いられるような精密な検索クエリを作成することによる検索問題に置き換えるもの~\cite{sanda,sanda2}と,限定された世界において,その世界モデルとユーザモデルの対応により,ゴールを明確にするプランニングの問題に置き換えるもの~\cite{allen}がある.前者は,「米国の第23代大統領の名前は?」というようなピンポイント的な知識を答えとして求めているのに対し,パソコンなどの使用法に関する質問応答は,使用のプロセスのように過去の蓄積した事例を答えとして求めるものが多く,そのアプローチが異なる.後者は応用システムごとに分野知識やモデルの構築が必要で作成コストがかかり過ぎ,変化の激しい現実の問題には向かない,といった問題点がある.また,質問応答システムのもう一つのアプローチとして,蓄積された以前の質問と応答の検索によって,問題を解決する方法がある.この方法は,いくつかのタイプに分けられる.第一のタイプは,ユーザの問い合わせをオペレータが仲介し,そのオペレータが問題を解決する時の支援として用いられるものである.これは,ユーザとシステムの間を人間が仲介することから,システムには完全性は求められず,たとえ不完全であってもオペレータを支援する意味で効果を挙げているもの~\cite{yanase}もある.第二のタイプは,コンピュータが直接応答を行なうもので,ニュースグループのFAQを対象としたFAQ-Finder~\cite{bruke}や,これを参考にして作られたらのソフトウェア製品を対象としたヘルプデスク~\cite{kurohashi}がある.FAQ-Finderは,ユーザの問い合わせに対して類似したいくつかの質問文をリストとして提示し選択させているが,ユーザとシステムが対話を行ないながら問題を解決していく仕組みはない.ヘルプデスクは,対話の仕組みは取り入れたが,限定された一部の内容の選択にとどまっているのが現状である.本研究は,モデルに沿って構造化したデータを対象にするのではなく,コールセンターのオペレータの応答記録のような質問応答データを活用して,ユーザが自ら問題を解決できるように,蓄積された質問応答データへナビゲーションするための基礎技術の開発を試みるものである.
\section{実験方法と評価方法}
label{sec:4}\subsection{実験方法}図\ref{fig:exp}\,に今回行なった実験の流れを示す.実験の順序は,実験1→実験2→実験3の順にそれぞれの結果を受けて進める.実験1では,初期質問文と質問の要約文のマッチングを行ない,一致した初期質問文と一致しなかった初期質問文に分け,実験2及び実験3へ振り分ける.「一致」,「不一致」の定義は\ref{sec:4.2}\,項で詳述する.\begin{figure}[ht]\begin{center}\epsfile{file=figure/fig3.eps,scale=0.45}\end{center}\caption{実験の流れ(実験1→実験2→実験3の順)}\label{fig:exp}\end{figure}実験2では,実験1で一致した初期質問文の成功要因を分析するために,キータームとする条件の変更や文節に含まれるキータームの削除を行なって,再度,質問の要約文とのマッチングを行なう.その結果,実験1では一致していたものが,あるタームを削除することによって不一致となる場合は,削除したタームがマッチングに重要な要素であると考え,マッチングに適切なタームを補うためのルール化を行なう.この方式は,マッチングに成功した要因を分析してルール化を行なうため,サクセスファクタ分析方式と呼び,実験3において検証する.実験3では,実験1で不一致となった初期質問文に対して,実験2から得られたタームの補いのルールと,質問の要約文を統計的に分析して得られたルールを用いてタームを補ってマッチングを行ない,実験1で得られるベースライン及び,単純に質問の要約文の先頭語を補ってマッチングを行なった結果と比較する.\subsection{評価方法}\label{sec:4.2}質問と応答の要約文へのナビゲーションは,ユーザが満足する結果に導かれれば,そこで問題が解決されるため,一般的な検索で用いる再現率と適合率は評価の尺度として適さない.そこで,初期質問文から作成した検索式を入力として,検索エンジンを用いて質問の要約文とマッチングさせ,元々の質問の要約文(初期質問文を作成する際の元になった質問)が第一位にランキングされたものを「一致」,第二位以下にランキングされたものを「不一致」とした.なお,ランキングは,以下の重み付けを用いた.\[R_i=\sum_{j=1}^{k}\left(\logtf_{ij}\times\log\frac{N}{df_j}\right)\]ここで,全$N$件中,$i$番目($1\leqi\leqN$)の文書の関連度$R_i$は,$k$個の単語の$tf\timesidf$の総和で表す.$tf_{ij}$は,$j$番目($1\leqj\leqk$)のタームの$i$番目の文書内出現回数であり,$df_j$は,$j$番目の単語の全質問の要約文中で出現する質問の要約文の数である.$idf_j$は$N/df_j$で計算している.$tf_{ij}$および$df_j$の$\log$を取っているのは,突出して出現するタームの影響を減らすためである.また,キータームを補ったり,削ったりすることでマッチングの結果が変わるが,その指標を影響度$I$で表す.\[I=\frac{U}{U+M}\]ここで$U$はマッチングの結果,一致から不一致へ,または不一致から一致へ変化した初期質問文の数で,$M$はマッチングの結果が変わらなかった初期質問文の数を表す.
\section{実験と考察}
label{sec:5}まず,実験に用いるツールとデータの規模について述べる.初期質問文を質問の要約文とマッチングさせる検索エンジンは,我々の開発した全文検索エンジン~\cite{matui}を用いた.初期質問文は,JUMAN~\cite{juman}を用いて品詞付きの形態素解析結果を得て,検索に用いるキータームを選定した.キータームとして選定する品詞,及び実験に用いた初期質問文と質問の要約文は,以下の通りである.\begin{tabular}[t]{ll}\\\multicolumn{2}{l}{[キータームとすべき品詞]}\\~&名詞未定義語形容詞動詞助動詞(ない)\\\\\multicolumn{2}{l}{[実験に用いた初期質問文と質問の要約文]}\\~&対象とした質問の要約文の種類:無作為に抽出した300種類\\~&初期質問文の数:499個(一つの質問の要約文に複数の初期質問文がある)\\~&検索対象となる質問の要約文の数:34,736個\\\end{tabular}\subsection{実験1:ベースラインの設定}実験1では,初期質問文と質問の要約文のマッチングを行ない,これをベースラインとする.この実験結果を表\ref{tab:match}\,に示す.初期質問文は元々情報量が少ないので,元の質問の要約文と一致する可能性は低い.この状態が,ユーザが普通に質問文を入力した時にシステムが応答する状態である.一致した初期質問文は,問題が解決したものとし,一致/不一致の数を実験2,実験3の結果と比較する.\begin{table}[hb]\caption{初期質問文と質問の要約文のマッチング結果}\label{tab:match}\begin{center}\begin{tabular}{|l|r|r|}\hline&\multicolumn{1}{|c|}{数}&\multicolumn{1}{|c|}{割合}\\\hline\hline一致&239&47.9\,\%\\\hline不一致&260&52.1\,\%\\\hline合計&499&100.0\,\%\\\hline\end{tabular}\end{center}\end{table}\subsection{実験2:重要タームの要因分析}実験2では,実験1において質問の要約文とのマッチングで一致した初期質問文に対して,第一にキータームを削除する条件の変更,第二に文節に含まれるキータームの削除を行なって,再度,質問の要約文とのマッチングを行なう.その結果,不一致となるものを調べ,その要因分析(サクセスファクタ分析)を行なう.第一に,初期質問中のキータームの構文的役割の違いの影響を調べるために,以下の条件でキータームを削除する.この時,削除するキータームの数は同数とする.また,助詞「の」や名詞連続によるタームの比較を行なうため,ここでは,「の」を文節の区切りとしない.名詞と未定義語を併せて名詞類と呼び,文節の最後の名詞類を主辞と呼ぶ.\begin{tabular}{ll}\\\multicolumn{2}{l}{[キータームを削除する条件の変更]}\\~&ベースライン:キータームとすべき品詞の形態素すべて(削除するキータームはなし)\\~&修飾語削除(主辞選択):各文節の主辞以外のキータームを削除し,主辞を選択する.\\~&\begin{tabular}{@{}l@{\hspace{0.3zw}}p{0.63\textwidth}@{}}主辞削除(修飾語選択):&主辞を助詞「の」または名詞連続によって修飾する名詞類があれば主辞を削除し,その代わりに修飾語を選択する.\\\end{tabular}\\\\\end{tabular}例~\ref{ex:keyterm}\,に,初期質問文の形態素解析結果と各条件で削除して残ったキータームの例を示す.\begin{example}[ht]\begin{center}\fbox{\small\begin{tabular}{ll}\multicolumn{2}{l}{[例文]留守番電話で相手の番号を通知させる方法がわからない.}\\\multicolumn{2}{l}{[形態素解析結果]}\\~&[留守番/電話/で][相手/の/番号/を][通知させ/る/方法/が][わか/ら/ない].\\\multicolumn{2}{l}{[キーターム例]}\\~&ベースライン:留守番,電話,相手,番号,通知させ,方法,わか,ない\\~&修飾語削除(主辞選択):電話,番号,方法\\~&主辞削除(修飾語選択):留守番,相手,方法\\\end{tabular}}\end{center}\caption{形態素解析結果とキータームの例}\label{ex:keyterm}\end{example}このように,キータームの種類を変更してマッチングを行なった結果を表~\ref{tab:keymatch}\,に示す.ここで,マイナスの影響度とは,実験1でマッチングが一致していたものがキータームの選択によって不一致となった割合を示す.\begin{table}[ht]\caption{キータームを削除する条件の変更によるマッチング結果}\label{tab:keymatch}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&\multicolumn{1}{|c|}{\mrow{ベースライン}}&\multicolumn{1}{|c|}{修飾語削除}&\multicolumn{1}{|c|}{主辞削除}\\&&\multicolumn{1}{|c|}{(主辞選択)}&\multicolumn{1}{|c|}{(修飾語選択)}\\\hline\hline一致→一致&239&80&112\\\hline一致→不一致&0&159&127\\\hline\hline合計&239&239&239\\\hlineマイナスの影響度&&66.5\,\%&53.1\,\%\\\hline\end{tabular}\end{center}\end{table}キータームの数を減らすことにより,不一致となる数が増えるが,修飾語削除は,主辞削除に比べ,マイナスの影響度は13.4\,\%も大きくなり,修飾語はマッチングの精度に重要なキータームであることを示している.第二に,キータームが存在する文節の種類によってどのような影響があるかを調べるために,代表的な格助詞及び係助詞で終わる文節中のキータームを削除して残ったキータームによってマッチングを行なう.削除する文節は,初期質問文中に30個以上出現するものを選び,以下の通りとする.\begin{tabular}{ll}\\\multicolumn{2}{l}{[削除する文節]}\\~&「が文節」,「を文節」,「で文節」,「は文節」,「に文節」\\\\\end{tabular}例\ref{ex:delkey}\,では,各文節を削除した場合の残ったキータームの例を示す.\begin{example}[ht]\begin{center}\fbox{\small\begin{tabular}{ll}\multicolumn{2}{l}{[例文]留守番電話で相手の番号を通知させる方法がわからない.}\\\multicolumn{2}{l}{[形態素解析結果]}\\~&[留守番/電話/で][相手/の/番号/を][通知させ/る/方法/が][わか/ら/ない].\\\multicolumn{2}{l}{[キーターム例]}\\~&「が文節」を除く:留守番,電話,相手,番号,わか,ない\\~&「を文節」を除く:留守番,電話,通知させ,方法,わか,ない\\~&「で文節」を除く:相手,番号,通知させ,方法,わか,ない\\\end{tabular}}\end{center}\caption{文節を削除したキータームの例}\label{ex:delkey}\end{example}このように,各文節中を削除して残ったキータームによってマッチングを行なった結果を表\ref{tab:delsets}\,に示す.\begin{table}[ht]\caption{文節を削除した影響度}\label{tab:delsets}\begin{center}\begin{tabular}{|l|r|r|r|r|r|r|}\hline&ベースライン&が文節&を文節&で文節&に文節&は文節\\\hline\hline一致→一致&239&25&27&25&22&10\\\hline一致→不一致&0&76&68&24&32&20\\\hline\hline合計&239&101&95&49&54&30\\\hlineマイナスの影響度&&75.2\,\%&71.6\,\%&49.0\,\%&59.3\,\%&66.7\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:delsets}\,から,「が文節」と「を文節」中のキータームを除去するとその影響は最も顕著に現れ,どちらも70\,\%以上の影響度がある.その結果,以下の文節の順にマッチングに重要なキーワードが含まれると考えられる.\[\mbox{「が文節」}>\mbox{「を文節」}>\mbox{「は文節」}>\mbox{「に文節」}>\mbox{「で文節」}\]\vspace*{1cm}\subsection{実験3:タームの補い}実験3では,実験1において質問の要約文とのマッチングで不一致であった初期質問文に対して,実験2から得られた補いルールと,比較のための単純な補いルールに基づいてキータームを追加して再度質問の要約文とのマッチングを行なう.その結果一致する初期質問文を調べ,その評価を行なう.\begin{table}[b]\caption{サ変名詞と「の」の関係}\label{tab:sano}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{語句}&\multicolumn{1}{|c|}{頻度}&\multicolumn{1}{|c|}{「の」の左側に出現}&\multicolumn{1}{|c|}{「の」の右側に出現}\\\hline\hline設定&722&32&690\\\hline表示&166&9&157\\\hlineインストール&158&16&142\\\hline変更&144&4&140\\\hline接続&119&18&101\\\hline\hlineサ変合計&5107&862&4245\\\hline割合&&16.9\,\%&83.1\,\%\\\hline\end{tabular}\end{center}\caption{普通名詞と「の」の関係}\label{tab:funo}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{語句}&\multicolumn{1}{|c|}{頻度}&\multicolumn{1}{|c|}{「の」の左側に出現}&\multicolumn{1}{|c|}{「の」の右側に出現}\\\hline\hlineファイル&262&132&130\\\hlineデータ&182&75&107\\\hlineハードディスク&121&85&36\\\hlineパソコン&107&77&30\\\hlineプログラム&96&47&49\\\hline\hline普通合計&14181&6362&7819\\\hline割合&&44.9\,\%&55.1\,\%\\\hline\end{tabular}\end{center}\caption{固有名詞と「の」の関係}\label{tab:kono}\begin{center}\begin{tabular}{|l|r|r|r|}\hline\multicolumn{1}{|c|}{語句}&\multicolumn{1}{|c|}{頻度}&\multicolumn{1}{|c|}{「の」の左側に出現}&\multicolumn{1}{|c|}{「の」の右側に出現}\\\hline\hlineWindows95&180&149&20\\\hlineWindows98&85&76&9\\\hlineWindows&65&61&4\\\hlineWord&37&35&2\\\hline富士通&36&35&1\\\hline\hline固有合計&1567&1405&162\\\hline割合&&88.9\,\%&11.1\,\%\\\hline\end{tabular}\end{center}\end{table}実験1の結果では,5割以上の初期質問文が不一致であった.これらのマッチング精度を高めるためには,実験2の考察で得られたように,主辞だけをキータームとする検索では,問題を解決する知識(蓄積している応答文)にたどり着くことはできず,主辞の修飾語が重要である.そこで,今回は,主辞の周りにいかに適切なタームを補って詳細化するかというポイントに絞り,蓄積した類似質問にナビゲーションできるかどうかを実験で検証することにした.これを対話により効率的に補うためには,システムからどのような問い掛けをするかがタームの補いの方略となる.そのために,初期質問文中のどのタームに着目したらよいかを決め,さらに,着目したタームをどのように詳細化するかを決める必要がある.そこで,名詞の種類がタームの詳細化の方法を決定する手がかりになり得るかを調べるために,蓄積された34,736個の文を分析し,「の」による修飾・被修飾の出現頻度5以上のものを数え上げた.典型的な語句の例と合計頻度,及びその割合を表\ref{tab:sano}\,〜\ref{tab:kono}\,に示す.表\ref{tab:sano}\,にはサ変名詞と「の」の関係,表\ref{tab:funo}\,には普通名詞と「の」の関係,表\ref{tab:kono}\,には固有名詞と「の」の関係を示す.これらの表からわかることは,サ変名詞の場合は,「〜の設定」というように「の」の右側に出現して,サ変名詞自体を意味的に限定するタームの要求が多い.一方,固有名詞の場合は,「富士通の〜」というように,「の」の左側に出現して,固有名詞を詳細化するタームの要求が多い.これまでの分析から,初期質問文中のどのタームに着目するかを決めるルールとして,以下に示す5つのルールを導出できる.\begin{enumerate}\item文節が一つの場合は,その文節の主辞に着目する.文節が複数の場合は,検索精度に影響を与える文節の順(表\ref{tab:delsets}\,より「が文節$>$を文節$>$は文節$>$に文節$>$で文節」)に,その文節の主辞となるタームに着目する.\item着目するタームがサ変名詞ならば,そのサ変名詞が右側に出現するようなタームを補う(表\ref{tab:sano}\,より).\item着目するタームが普通名詞ならば,その普通名詞が右側または左側のどちらかに出現するような両方の可能性を考慮してタームを補う(表\ref{tab:funo}\,より).\item着目するタームが固有名詞ならば,その固有名詞が左側に出現するようなタームを補う(表\ref{tab:kono}\,より).\item着目するターム「B」がすでに「AのB」の形で修飾されている場合には,表\ref{tab:AnoB}\,の品詞の組み合わせで着目すべきタームを決定する.例えば,Aがサ変名詞でBが普通名詞の場合,Aは左から修飾される(ルール(2)より)場合があり、Bは左から修飾される場合と、右を修飾する(ルール(3)より)場合がある.ここで,Bは「Aの」によりすでに修飾されているため,左から修飾されることはない.よって着目すべきタームは第一に「A」,第二に「B」となる.\end{enumerate}\begin{table}[ht]\caption{「AのB」の場合の着目すべきターム}\label{tab:AnoB}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineA\B&サ変名詞&普通名詞&固有名詞\\\hline\hlineサ変名詞&A&A,B&A,B\\\hline普通名詞&A&A,B&A,B\\\hline固有名詞&なし&B&B\\\hline\end{tabular}\end{center}\end{table}ルール(1)〜(5)で定めた着目すべきタームに対して新しいタームを補うために,システムからユーザに問いかける句の生成ルールを表\ref{tab:crule}\,に示す.これらのルールを用いて,着目するタームとシステムの問い掛けを決定する.その問い掛けへユーザが返す答えに含まれるタームが一次質問文へ補うタームとなる.\begin{table}[ht]\caption{着目したタームに対しユーザへ問い掛ける句の生成ルール}\label{tab:crule}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineA\B&サ変名詞&普通名詞&固有名詞\\\hline\hline\mrow{ナシ}&(2)&(3)&(4)\\\cline{2-4}&「どんなB」&「何のB」|「Bの何」&「Bの何」\\\hline\mrow{サ変名詞}&(2)(5)&(2)(3)(5)&(2)(4)(5)\\\cline{2-4}&「どんなA」&「どんなA」|「Bの何」&「どんなA」|「Bの何」\\\hline\mrow{普通名詞}&(2)(3)(5)&(3)(5)&(3)(4)(5)\\\cline{2-4}&「何のA」&「何のA」|「Bの何」&「何のA」|「Bの何」\\\hline\mrow{固有名詞}&(2)(4)(5)&(3)(4)(5)&(4)(5)\\\cline{2-4}&--&「Bの何」&「Bの何」\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:crule}\,において,上段は適用した着目すべきタームを決定するルールの番号,下段はシステムからの問い掛けを示し,「|」記号は,どちらの可能性もあることを示す.例えば,ルール(1)で着目する文節が決定されたら,その文節のタームに着目する.そのタームがAのBの形になっていなければ,そのタームをBとして,Bの品詞を表\ref{tab:crule}\,にあてはめる.もしBがサ変名詞であれば,Aが「ナシ」となり,「どんなB」が導かれる.これにより,システムからユーザに「どんなBですか」という問い掛けを返す.また,もし着目するタームがAのBの形になっていて,Aがサ変名詞,Bが普通名詞なら,表\ref{tab:crule}\,から「どんなA」|「Bの何」が導かれる.これにより,システムからの問い掛けは,「どんなAですか?」または「Bの何ですか?」となり,いずれかの新しいタームの要求を行なうことになる.なお,表\ref{tab:crule}\,では,「の」による修飾の補いが原則であるが,サ変名詞の限定には「どんな〜」を用いた方が自然な問い掛けとなるため,ヒューリスティックなルールとして用いた.このように作成したシステムからの問い掛けに対して,ユーザが返した答えに含まれるキータームを初期質問文に追加して,二次質問文を作成する.例\ref{ex:2q}\,には,初期質問文に対して表\ref{tab:crule}\,で示したルールを適用し,システムが対話的にキータームを補い,二次質問文に相当するマッチングのための検索式を生成することを想定した例を示す.ここでは,実験1のベースラインのキータームを利用した検索式を生成する.\begin{example}[ht]\begin{center}\fbox{\small\begin{minipage}{0.8\textwidth}\begin{tabular}{lll}\multicolumn{3}{l}{[初期質問文]CRTの設定は必要ですか}\\~&~&⇒[マッチングのキーターム]CRT設定必要\\\multicolumn{3}{l}{システム:「何のCRTですか」(「設定」は修飾済)}\\\multicolumn{3}{l}{ユーザ:「FMV-5133T3のCRTです」}\\~&\multicolumn{2}{l}{→[二次質問文]FMV-5133T3のCRTの設定は必要ですか}\\~&~&⇒[マッチングのキーターム]FMV-5133T3CRT設定必要\\\\\multicolumn{3}{l}{[初期質問文]筆まめでエラーが発生する}\\~&~&⇒[マッチングのキーターム]筆まめエラー発生\\\multicolumn{3}{l}{システム:「何のエラーですか」(が>で)}\\\multicolumn{3}{l}{ユーザ:「住所リストのエラーです」}\\~&\multicolumn{2}{l}{→[二次質問文]筆まめで住所リストのエラーが発生する}\\~&~&⇒[マッチングのキーターム]筆まめ住所リストエラー発生\\\end{tabular}\end{minipage}}\end{center}\caption{二次質問文の作成例}\label{ex:2q}\end{example}例\ref{ex:2q}\,で示したような新しい二次質問文から生成される検索式によってマッチングした結果を表\ref{tab:new2q}\,に示す.比較のため,質問の要約文の先頭語を補うという単純な補いルールに基づきキータームの追加を行なってマッチングした結果も表\ref{tab:new2q}\,に併記する.実験の目的は,ユーザが効率的に問題を解決できる知識にたどり着くことであり,対話的にタームを補っていくシステムを想定している.できる限り最適なタームを補うことが,問題解決を早めることに有効に働く.表\ref{tab:new2q}\,では,単純に補った場合も,先頭に来るタームが固有名詞である場合が多いため,ある程度の精度向上は見られるが,これはアドホックな対応である.ルールによって補った結果の影響度が高く,単純にタームを補うよりも効果が得られた.\begin{table}[ht]\caption{新しい二次質問文による検索結果}\label{tab:new2q}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&ベースライン&単純に補い&ルールで補い\\\hline\hline不一致→不一致&260&202&147\\\hline不一致→一致&0&58&113\\\hline\hline合計&260&260&260\\\hlineプラスの影響度&0.0\,\%&22.3\,\%&43.5\,\%\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
今回の実験では,ユーザの自然言語による状況説明や質問を表わす初期質問文をトリガーとして,システムからユーザに新たなキータームの入力を促してユーザの意図する適切な質問応答の要約文に速やかに到達できるような対話的ナビゲーション技術を提案した.初期質問文中のどのようなタームが検索式を作成するのに重要であるかを判定する方式として,入力した質問と要約文とのマッチングが成功したものから一定の基準によってタームを変更するサクセスファクタ分析方式を適用した.その結果,主辞を詳細化するタームは,マッチングの精度に極めて大きく影響することが明らかになり,そのタームを検索式に補うことで,質問の要約文の先頭語を補うという単純な補いルールに比べ,マッチング精度を約2倍向上させることができた(これは,初期質問では一致しなかった質問に,システムとユーザとの1回の対話を加えるだけで,5割近くが一致する,ということを示している).今回実証したタームの補強ルールは,音声の認識・合成技術を用いた音声応答システムに適用していくことが理想的であり,今後の課題である.また,今回の実験では,20文字程度の短い質問文を想定している.実際には,このような短い質問文が7割程度を占めているため,本稿で述べたシステムが実装されれば,オペレータ業務の一部を肩代わりし,労力の軽減につながる.しかし,Web上の質問応答システムにおいては,長い文章の入力もあり,このような文章も解析して対話ができるようにすることが望ましい.これについては,今後の自然言語処理技術の進展に期待したい.\vspace{0.3cm}\acknowledgment日頃よりご指導頂く,東京工業大学の徳永健伸助教授,及び富士通研究所言語処理研究部及び富士通DBサービス部の皆様に感謝致します.\nocite{fmw}\bibliographystyle{jnlpbbl}\bibliography{441}\begin{biography}\biotitle{略歴}\bioauthor{松井くにお}{1980年静岡大学工学部情報工学科卒業.同年(株)富士通研究所入社.以来,自然言語処理,文書情報処理,情報検索の研究開発に従事.言語処理学会評議員,厚生省電子カルテ研究班班員を歴任.ITメディア研究所言語処理研究部部長.情報処理学会会員.}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-04
|
\section{はじめに}
2011年3月11日に発生した東日本大震災の被災範囲の広大さは記憶に新しい.この震災では,既存マスメディア(放送・新聞・雑誌等)だけでなく,Twitterなどのソーシャルメディアによる情報発信が盛んに行われた\cite{Shimbun,Endo2}.しかしながら,大手既存メディアは被災報道を重視していた.実際,被災者にとって有用な報道として,災害時でも乾電池で駆動可能なラジオ,並びに,無料で避難所等へ配布された地元地方紙が役に立ったことが,\cite{Fukuda}の被災者アンケートで調査報告されている.この様な震災初期の状況の理由として,阿部正樹(IBC岩手放送社長)は,震災発生当時の被災地において,テレビは「テレビ報道は系列間競争の中でどうしても全国へ向かって放送せざるを得ない.(中略)被災者に面と向き合う放送がなかなか出来ない,被災者のためだけの放送に徹し切れない.」というジレンマがあったとする一方,「しかしラジオは違う.地域情報に徹することが出来る.(中略)テレビではどこそこの誰が無事だという情報はニュースになりづらい.しかし,ラジオでは大切な情報なのだ.いつしかラジオが安全情報,安否情報へと流れていったのは自然なことだったと思う.」と述懐している\cite{IBC}.震災初期から,ソーシャルメディアの一つであるTwitterには,救助要請ハッシュタグ{\tt\#j\_j\_helpme}\cite{Twitter_tags}が付与された大量の救助の声が寄せられていた.(被災地マスメディアの一つであるラジオ福島は,当時生きていた3~G回線を用いて,Twitterによる情報収集・発信を行っている\cite{rfc}.)ただし,これら救助要請の多くには「【拡散希望】」という文字列が含まれていたため,それを見た「善意の第三者」は,Twitterのリツィート機能(全文引用機能)を用いる傾向が高かった\cite{Ogiue,Tachiiri}.結果として,リツィートによって救助要請の類似情報がTwitterへ膨大に流れたものの,「実際に救助要請情報が警察など関係機関へ適切に通報されたかどうか」という最も重要な情報のトレースは,著しく困難なものになった.この様な状況を解消するために,我々は2011年3月15日,Twitter上の救助要請情報をテキストフィルタリングで抽出し,類似文を一つにまとめて一覧表示するWebサイトを開発し,翌16日に公開した\cite{Aida0,extraction,Aida1}.本論文では,本サイトの技術のみならず,救助要請の情報支援活動プロジェクト{\tt\#99japan}と本サイトとの具体的な連携・活用事例について述べる.ここで{\tt\#99japan}とは,救助状況の進捗・完了報告を重視するTwitterを用いたプロジェクトであると共に,発災2時間後,2ちゃんねる臨時地震板ボランティアらによって立ち上げられたスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を由来する.このスレッドは,「震災初期におけるネット上のアウトリーチ活動記録」として,特筆に値する.
\section{Twitter}
{\bfTwitter}とは,Web上で140字以内の短文による{\bfツィート(Tweet)}を投稿することで情報発信出来る,{\bfソーシャルメディア}の一種である.Twitterのブラウザ表示例を図\ref{fig:Twitter}に示す.以降,本論文に関連するTwitterの用語・概念について述べるが,より詳細については\cite{Twitter_help}を参照されたい.\begin{figure}[b]\begin{center}\includegraphics{20-3ia5f1.eps}\end{center}\caption{Twitterのブラウザ表示の一例(一関コミュニティFM・{\tt@FMasmo}のツィート)}\label{fig:Twitter}\end{figure}{\bfユーザ名(UserName)}とは,TwitterへのログインIDであり,{アルファベット・数字・アンダースコアの組合せ文字列}として(既存ユーザ名と重複がなければ)自由に決められる.従来の電子掲示板やチャットとは異なり,ユーザ同士が{\bfフォロー(Follow)}し合うことで,ソーシャルネットワークを成す.このネットワークにおいて,フォロー元のユーザを{\bfフォロワー}と呼ぶ.ユーザのページには,自分のツィートと,フォローしている他ユーザのツィートなどが時系列順に表示される.これを,ユーザの{\bfタイムライン(TimeLine)}と呼ぶ.{\bfパブリックタイムライン(PublicTimeLine)}とは,「(非公開ユーザを除く)全ユーザのタイムライン」を指す.ここで,{\bf非公開ユーザ}とは,フォローを許可制にしているユーザを指す.非公開ユーザでなければ誰からもフォローされ得るが,任意のフォロワーを{\bfブロック}すると,フォローを拒否出来る.{\bf返信(Reply)}とは,ユーザのツィートの内容に対して,メールの返信のようにそのユーザへ向けてツィートすることである.返信する場合,「返信ボタン」(図\ref{fig:Twitter}の左方向矢印)をクリックすると,文頭に返信先ユーザ名が``{\tt@ユーザ名}''のように表示される.返信に限らず,任意のツィート中に``{\tt@ユーザ名}''を含めると,ツィートはそのユーザのタイムラインにも反映される.それを{\bf言及(Mention)}と呼ぶ.言及は通例,ユーザのツィートの出典が解るよう``{\ttRT@ユーザ名:ツィートの一部}''付きで引用し,それについて言及するツィートを前置する場合が多い.{\bfリツィート(Retweet,RT)}とは,「全文引用すること」を意味する.リツィートによって,ユーザのタイムライン上のツィートを全文引用し,それをフォロワーへ一斉に拡散出来る.リツィートを受信したフォロワーは,さらにそれをリツィートすることも出来るため,一般に興味・関心を惹く深いツィートは伝播されやすい.特に,フォロワー数の多いユーザ(有名人など)のリツィートは伝播されやすい傾向があり,ソーシャルメディアの特徴と言える.リツィートをする場合は,「リツィートボタン」(図\ref{fig:Twitter}の折れ線矢印二組の記号)をクリックする.この機能を{\bf公式リツィート}と呼ぶ.一方,{\bf非公式リツィート}とは,リツィートボタンを押さずに,コピー\&ペーストなどによる全文引用を指す.非公式リツィートは公式リツィートとは異なり,引用元ツィート日時ではなく,引用日時が記録されてしまう.そのため,最初のツィート日時の把握が困難になる,引用元がツィートを削除した場合も引用先情報は削除されない,など様々な問題点が指摘されている\footnote{ただし,かつてリツィートはユーザが情報拡散のために始めた試みであり,「{\ttRT@発言ユーザ名:ツィート}」形式で全文引用していた.この機能を,Twitter社がRTボタンを押すだけでリツィート出来る機能を実装し,それを「公式リツィート」と呼んでいる.}.{\bfハッシュタグ}とは,ツィートの任意の位置に挿入出来る,自分の興味・関心に関係する``{\tt\#}''で始まるアルファベット・数字・アンダースコアの組合せで表現される文字列である.(なお,2011年7月13日より「{\tt\#日本語}」などマルチバイト日本語文字列のハッシュタグが利用可能になった\cite{nihongo}.)図\ref{fig:Twitter}中の``{\tt\#cfmasmo}''はハッシュタグの使用例である.ツィート内の``{\tt@user}''や``{\tt\#hashtag}''から自動的にリンクが張られ,そのリンクをクリックすることで,「{\tt@user}のタイムライン」や「{\tt\#hashtag}のタイムライン」をそれぞれ得られる.ハッシュタグに限らず,Twitterでは任意の検索語でパブリックタイムラインを,図\ref{fig:Twitter}上部の検索フォーム等から検索出来る.Twitterは,上述のツィート・リツィート・返信・言及・ハッシュタグなどによって,フォロワーだけでなく,共通の関心事を持つユーザを意識した投稿が出来る{\bfマイクロブログ}でもある.以降,本論文ではツィートを以下の形式で表す.\begin{quote}\twitter{@user2user2user3への言及ツィート\#tag${}_1$...\#tag${}_n$\\RT@user3:user3のツィートの部分引用...}{YYYY/MM/DDhh:mm:ss}{user1}\end{quote}
\section{救助要請情報}
\label{request}震災初期の救助活動において,検討すべき救助要請情報を整理した結果,以下を識別した:\begin{enumerate}\item救助要請の1次情報.\item救助要請の2次情報.(あるいは重複情報.)\item救助要請とは無関係な情報.\item救助完了報告.\end{enumerate}我々は,まず(1)〜(3)に着目した.本論文では,(1)及び(2)を{\bf救助要請情報},(3)を{\bf非救助要請情報}と呼ぶ.ここで(2)は,Twitter上での情報拡散を希望する文字列(【拡散希望】等)が付与されてリツィートされた情報も含む.このような情報は,救助活動においては情報が拡散するだけで通報されたのかどうか判明しない恐れがあるが,遠隔地から被災地の現状をある程度把握できる利点も有り得る.\subsection{Twitter上の救助要請情報}Twitter上での救助要請の「1次情報」はオリジナルツィート,「2次情報」はリツィート・返信・言及にそれぞれ該当する.その文例を以下に挙げる:\begin{itemize}\item{\bf1次情報:}\begin{quote}\twitter{【拡散希望】宮城県の○○病院で100人以上孤立している模様.\#j\_j\_helpme\\}{2011/3/1201:23:45}{foo}\end{quote}\item{\bf2次情報(リツィート):}\begin{quote}\twitter{RT@foo:【拡散希望】宮城県の○○病院で100人以上孤立している模様.\#j\_j\_helpme}{2011/3/1201:23:45}{bar}\end{quote}\item{\bf2次情報(返信):}\begin{quote}\twitter{@foo本件について,どなたも通報されていないようでしたので,警察へ通報致しました.\#j\_j\_helpme}{2011/3/1212:34:50}{baz}\end{quote}\item{\bf2次情報(言及):}\begin{quote}\twitter{どなたか本件の情報発信元をご存じの方はいらっしゃらないですか?RT@foo:【拡散希望】宮城県の○○病院で100人以上孤立している模様.\#j\_j\_helpme\\}{2011/3/1201:30:00}{bar}\end{quote}\end{itemize}一般に,2次情報の場合は引用・返信先を明示する``{\tt@ユーザ名}''が含まれ,なおかつ,そのユーザのタイムラインにも2次情報のツィート本文が表示される.また,1次情報でも,任意の``{\tt@ユーザ名}''を含むツィートが出来る.本論文では,リツィートの場合,文頭に``{\ttRT}''(ReTweetの略)と``{\tt@引用元ユーザ名}''を付記する.なお,言及の場合は,``{\ttRT}''の他に``{\ttQT}''(QuoteTweetの略)が用いられることもある.Twitterでは,下記のように先頭から時系列を遡って言及文は前置,引用文は後置され,一次情報が最後置される場合が顕著である.\begin{quote}\twitter{user2への言及文RT@user2:user3への言及文RT@user3\\$\ldots$RT@user$n$:一次情報}{YYYY/MM/DDhh:mm:ss}{user1}\end{quote}救助要請の情報源は,被災地から直接寄せられたものだけでなく,知人宛のメール伝聞や,電子掲示板情報など,様々ありえるが,我々は{\bf1次情報を「重要度の高い救助要請ツィートの情報源」}と定めた.2次情報については,リツィートの場合,全文引用であるため1次情報と同一視可能であり,また言及・返信の場合,上述の考察より最後置引用文が1次情報となる可能性が高いため,重要度は1次情報よりも相対的に下がる.\subsection{救助要請情報の傾向}\label{key}救助要請情報に含まれやすい語による検索結果には,それ以外の情報も数多く含まれうる.そこで,救助要請情報を抽出するために,それらの語の特徴を正規表現としてまとめた.\begin{enumerate}\item救助要請情報は,以下を含むものとする:\begin{itemize}\item「地名+県・市・区・町・村」など住所に含まれる語.{(5語)}(救助要請の発信先特定のため.)\item「孤・救・助・命・探・願・捜・求・送・食・水・届・死・衰」や,「消息・深刻・要請・避難」など,ライフライン未復旧や安否確認に起因する語.{(21語)}\end{itemize}\item非救助要請情報は,以下を含むものとする:\begin{itemize}\item過去のデマに含まれていた固有名詞{など.}{例:デマ,花山村,競輪場,ピースボート,ヨーグルト,納豆,など.(14語)}\item報道機関のTwitter公式アカウント.(報道機関{が発信した}情報は警察など関係機関へ既報済みの可能性が高いため.){例:{\ttradio\_rfc\_japan},{\ttfct\_staff},{\tt[Aa]sahi},{\ttFKSminpo},{\tt[Nn][Hh][Kk]},{\ttnhk\_seikatsu},{\tti\_jijicom\_eqa},{\ttkahoku\_shimpo},{\ttakt\_akita\_tv},{\ttNTV,telebee\_tnc},{\ttNISHINIPPON},{\ttzakdesk},{\tt781fm},など.(20語)}\item政治家や著名人など特定人名,国名,政党名,団体名.(思想・信条を含む情報は救助要請の可能性が低いため.){例:民主党,自民党,社民党,共産党,公明党,みんなの党,など.(9語)}\item{特定の国名・国際機関.(国名・機関名は報道等の二次情報の可能性が高いため.}{例:アメリカ,フランス,ドイツ,ケニア,国連,ユニセフ.(6語)}\item原発事故関連の語.(救助要請に科学用語を含む可能性は低いため.){例:セシウム,ヨウ素,ウラン,プルトニウム,ストロンチウム,マイクロ,ベクレル,シーベルト,放射線,放射能.(10語)}\item{救助要請情報に用いられないであろう語.}{例:笑,批判,テロ,など.(8語)}\item{ハッシュタグが濫用されたツィートに含まれていた語.}(ハッシュタグ{本来の意味}と無関係な内容のため.){例:予測市場,リスクマネジメント情報,{\tt\#oogiri},など.(6語)}\end{itemize}\end{enumerate}\subsection{救助要請情報の表示方針}2011年3月15日は震災初期であったため,救助要請情報の抽出処理サイトを速やかに構築・公開する必要があった.我々は,必要な救助要請情報が埋もれないように敢えて単一ページ内に大量表示することにした.(当初は300件,2012年1月30日当時1000件.)このようにした理由を以下に挙げる:\begin{enumerate}\item抽出した情報はノイズが含まれうる.正規表現によるフィルタリング規則を厳しくすると,本当の救助要請情報が表示されない恐れがあるため,「本当にそれが真の救助要請かどうか」は,閲覧者の判断に委ねることとした.\item表示された救助要請情報を閲覧して通報活動を行うボランティアは,被災地以外の者でPC用電源環境が確保されていると仮定した.また,2011年時点の一般世帯のPC環境では,大量の情報を表示しても,ブラウザ動作が不安定になることは無い.\item同一ページ表示であれば,どのブラウザもデフォルトで備えている検索機能で,任意の語で文を検索できる.\itemページ分割(pagination)されていると,利用者にリンク遷移作業などを強いるため,ページ分割を行わない.\end{enumerate}この方針に基づき,次節で述べる情報抽出アルゴリズムの試作版を2011年3月15日に実装,翌16日にインターネット上に公開\cite{extraction}し,その後も改良に努めた.また,デマ等のノイズは事前に想定出来ないため,それらに含まれうる語を分析し,前節の「非救助要請情報が含む語」の定義に適宜追記した.\subsection{救助要請情報の抽出手法}\label{algorithm}\begin{figure}[t]\begin{center}\sloppy\begin{screen}\tt\#j\_j\_helpme\#j\_i\_helpme\#hinan\#jishin\#jisin\#tunami\#311sppt\#311care\#311sien\#itaisousaku99japan\#anpi\#aitai\#Funbaro\#hope4japan\#prayforjapan\#ganbappe\#save\_busshi\#save\_volunteer\#save\_gienkin\#save\_kids\#saigai\#shinsai\#tasukeai\#fukkou\#fukko\#save\_miyagi\#save\_fukushima\#save\_iwate\#save\_aomori\#save\_ibaraki\#save\_chiba\#save\_nagano\#save\_sendai\#save\_ishinomaki\#save\_iwaki\#ishinomaki\#shiogama\#rikuzentakata緊急地震余震火事怪我負傷者自宅避難避難所孤立餓死\\緊急+救助食料+不足物資+不足食糧+不足救援支援安否消息栄村陸前高田釜石大船渡\\気仙沼南三陸歌津志津川石巻松島亘理山元相馬いわき飯舘\end{screen}\end{center}\caption{救助活動が最も盛んだった時期の検索語一覧(2012年4月22日確認時)}\label{keyword}\end{figure}救助要請情報の抽出アルゴリズムの手法概要は以下のとおりである:\begin{enumerate}\item図\ref{keyword}に示した検索語それぞれについて,それを含むツィート情報を「1500ったー」\cite{1500}よりHTML取得する.\item取得したすべての情報に対して,以下を行う:\begin{enumerate}\itemHTMLからツィートのみ抽出し,直前までに抽出していたものにマージ後,そのログを保存する.\item抽出した救助要請情報候補から,非救助要請情報と思われるものを,\ref{key}節の規則に従ってフィルタリングする.\itemフィルタリング済みの救助要請情報候補から,下記手続きで{\bf類似ツィート判定キー}を生成する:\begin{enumerate}\item文頭から``{\tt@}''までの最長文字列を削除する(ユーザ名付き1次情報抽出).\itemASCII文字(ユーザ名含む)・全角記号・仮名文字などを除去したマルチバイト文字列の前15字分を類似ツィート判定キーとする.\end{enumerate}\item類似ツィート判定キーが一致するツィートは同値と見なし,ツィート回数をカウントする.同値類の中で,最も古い日時のものを,その同値類の{\bf代表ツィート}とし,同値のツィートの最新日時を更新時刻として記録する.\item更新時刻の新しい順でソートする.\end{enumerate}\item得られたツィート情報をそれぞれ下記5項目としてまとめ,上位1000件をHTMLへ変換し,サイトを更新する.\begin{itemize}\item救助要請情報の通し番号\item救助要請代表ツィート本文\item最新ツィート日時\item最古ツィート日時(本サイトで最初に観測した代表ツィートの日時)\itemツィート回数(代表ツィートの同値類の数)\item推定情報源URL(``http://twitter.com/ユーザ名/statuses/発言ID''の形式)\end{itemize}\end{enumerate}ここで,ツィートには任意の位置に``{\tt@ユーザ名}''を含めることが出来るため,以下のようにユーザ名を後置している場合,1次情報が``{\tt@}''の前置であるため類似ツィート判定キーは空語になるが,Twitterの慣習上,このような文例はほとんど出現しないことより無視する.\begin{quote}\twitter{1次情報$\ldots$@user2}{YYYY/MM/DDhh:mm:ss}{user1}\end{quote}
\section{救助活動}
Webベースでの救助活動には,ボランティア同士で救助要請の通報状況を共有する必要がある.本サイト開設後,このような活動を個人で行なっていた株式会社エコヒルズ代表取締役・田宮嘉一氏との出会いがきっかけとなって,\ref{99japan}節で述べる{\tt\#99japan}へ我々も参加した.\subsection{震災初期のネットの状況}震災初期は,ネット上において多くのボランティア活動が立ち上げられた.また,GoogleやYahoo!などのポータルサイトにおいて,情報提供が行われた.特に,2010年1月のハイチ地震から使われた安否確認システム``GooglePersonFinder''はよく知られている\cite{GPF}.さらに,様々なネット上の情報源からGooglePersonFinderへの安否情報を強化するプロジェクト``ANPINLP''\shortcite{anpi_nlp}が自然言語処理研究者らボランティアによって立ち上げられ,Twitterからは33242に及ぶツイートにタグ付けされた\cite{anpi_nlp_proc}.救助活動を含めたシステムとしては,``sinsai.info''\shortcite{sinsai.info}が知られている.このサイトは,2007年のケニア大統領選挙以降,多くの人災・天災で用いられたクラウドソーシングツールUshahidiを用い,震災当日に構築されたシステムとして有名である\cite{sinsai.info_TechWave}.その他,放射線量マップや,Twitterの震災関連タグが付与されたツィートのタイムライン表示サイトなど,様々なシステムが公開された.しかしながら,無数に生まれたシステムと,震災初期の全国各地のボランティアとの連携は必ずしも迅速に出来たとは言えない.寧ろ,ボランティア側が既存システムを利用して,試行錯誤的に規則を決めて活動していた事例も多い.その一例として,2ちゃんねる臨時地震板において震災当日に立てられたスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を中心として,「東北大震災まとめWiki」\cite{atwiki}や「共同編集:被害リアルマップ東北地方太平洋沖地震(救助用マップ)」\cite{map1}が挙げられる.これらは,以下に示す経緯で開設された:\begin{enumerate}\item発災直後,2ちゃんねる臨時地震板スレッド「震度7」\cite{2ch_shindo7_1}が立ち上がる.\itemその後「震度7その2」〜「震度7その5」\cite{2ch_shindo7_2,2ch_shindo7_3,2ch_shindo7_4,2ch_shindo7_5}の順序でスレッドが立ち上がる.\item「震度7その5」\cite{2ch_shindo7_5}47番目の投稿ユーザ{\ttID:nx64KwTT}が,発災2時間後にスレッド「【私にも】三陸沖地震災害の情報支援【できる】」\cite{2ch}を立て,11番目の投稿で「東北大震災まとめWiki」\cite{atwiki}開設を表明する.\item翌12日,ユーザ{\ttID:EJYqO+nC0}が立てたスレッド「被害状況まとめGoogleマップ希望スレ」\cite{2ch_map}で「救助用マップ」\cite{map1}が開設されたことが,同日\cite{2ch}436番目の投稿で表明される.\end{enumerate}後にこれらのサイトの情報は,「東日本大震災(東北地方太平洋沖地震)@ウィキ」\shortcite{matome_wiki}に一元化された.\subsection{「東日本震災支援{\tt\#99japan}」}\label{99japan}2011年3月15日,田宮嘉一氏(TwitterID:{\tt@ktamiya})は,ブログのコメント欄を用いて通報活動履歴を管理していた\cite{ktamiya}.同氏は3月18日,自身のTwitterのフォロワー数(10万超)が多い利点を活かして情報支援活動のメンバーを募集,{\bf「東北関東大震災救助支援プロジェクト{\tt\#99japan}」}が組織された(現「東日本震災支援{\tt\#99japan}」).募集時の活動概要は以下のとおりである\cite{99japan1}:\begin{itemize}\item{\bf目的:}Twitter等での救助要請の声を適正機関に伝達する支援を行い,被災者を救う.\item{\bf活動内容:}主に被災者の情報の整理,内容確認,アドバイス,救助要請の代行.期間は物資が行き渡り,復興段階に入る頃までを予定.\end{itemize}このプロジェクトでは,Googleマップのデフォルト機能を用いて構築された前述の「救助用マップ」\cite{map1}と「物資要請・提供マップ」\cite{map2}の使用,並びに編集規則が採用された.なお,これらマップ開設者らも{\tt\#99japan}に合流していることより,{\tt\#99japan}は「東日本大震災最初期の情報支援プロジェクト」の一つと言える.``{\tt\#99japan}''はプロジェクト名であると共に,ハッシュタグでもある.このタグ付きでツィートすることで,プロジェクトメンバーはいつでも救助要請情報や通報状況情報を共有出来る.もちろん,メンバー以外の人でもツィートは閲覧可能である.この{\bf「ハッシュタグによる緩やかなユーザ間の情報共有」が,「Twitterベースのボランティア活動」最大の特徴である.}``{\tt\#99japan}''における情報共有・マップ編集・情報元確認作業の流れを以下に示す:(\texttt{@ma\_chiman}2011a)\nocite{99japan2}\begin{itemize}\item{情報共有・マップ編集作業}\begin{enumerate}\item{各活動者は,本サイトなどで得た救助要請情報や関連情報に対して,``{\tt\#99japan}''を付加したツィートを発言することで,有益な情報を集約させ,各活動者が短時間で情報の把握ができるようにする.}\item{共有された情報に従い,各活動者はマップから通報対象地点を選び,警察など関係機関に電話・メール・ツィートする.通報対象地点は,(1)未通報地点,(2)通報済みだが経過不明,(3)解決済み,(4)その他,に大別される.}\item{通報地点のポップアップに通報内容を記入する.(記入例:【(日付)(要請先)に(電話)で連絡済(自分のID)】)}\end{enumerate}\item{情報元確認作業}\begin{enumerate}\itemツィート時点から一定日数経過した現地情報の鮮度を保つために,情報元ツイート者を辿り,経過を訪ねる.\item近辺にお住まいの方とコンタクトを取り,状況を尋ね,確認中であることをマップに記入する.\item返信の有無や内容に応じて,次の情報をマップに反映する:\begin{itemize}\item【解決:(現在の日付)(自分のID)】\item【新しい情報得られず:(現在の日付)(自分のID)】\item【未連絡:(現在の日付)(自分のID)】\itemその他情報.\end{itemize}\end{enumerate}\end{itemize}我々が開発したサイトの目標は,``{\tt\#99japan}''において,救助要請情報を通報ボランティアが発見する機会を増やすことである.\subsection{本サイトと{\tt\#99japan}の連携活動}我々は,{\tt\#99japan}メンバーの要望に沿うよう本サイトを改善した結果,本論文著者の相田(TwitterID:{\tt@aidashin})に対して,公式サイト開設者・{\tt@ma\_chiman}氏や「救助用マップ」管理者・{\tt@juntaro33}氏より,以下のような評価を得た:\begin{itemize}\item3月20日の活動開始直後(発足後,最初の日曜日):\begin{itemize}\item\twitter{【提案】@aidashinさんのツイートでhttp://is.gd/THMebZというものを見かけました.対応済み・アバウトな内容なものも多いですが,対応してなさそうなものも見かけたのですがこちらを照会する作業も必要だと思われますか?\\\mbox{\rm(\texttt{@ma\_chiman}2011b)\nocite{ma_chiman_0}}}{2011/03/2020:39:37}{ma\_chiman}\item\twitter{@ma\_chiman@ktamiya@aidashinこれもツイッターからの情報であれば全部拾う必要があると思います\mbox{\rm\cite{juntaro33_00}}}{2011/03/2020:47:22}{\mbox{juntaro33}}\end{itemize}\item1次情報のツィート日時の表示機能追加時:\begin{itemize}\item\twitter{@aidashinすごいです!お疲れ様です!\mbox{\rm\cite{juntaro33_0}}\\}{2011/3/2518:19:14}{\mbox{juntaro33}}\item\twitter{@aidashinhttp://bit.ly/hfDcW0,確認致しました.相変わらず最新ツイートを拾うのに便利ですね.観測機能がついたのはこのツールにとっては大きな進展になりそうですね^^最中に開発,さすがです.{\tt\#99japan}\mbox{\rm(\texttt{@ma\_chiman}2011c)\nocite{ma_chiman_1}}\\}{2011/03/2517:09:46}{ma\_chiman}\end{itemize}\item救助要請と安否確認の色分け機能追加時:\begin{itemize}\item\twitter{@aidashinこれは見やすいです!\#99japan\mbox{\rm(\texttt{@ma\_chiman}2011d)\nocite{ma_chiman_2}}\\}{2011/3/3115:28:46}{ma\_chiman}\end{itemize}\item本サイトへの反応に驚いていたことに対して:\begin{itemize}\item\twitter{@aidashin今,一番有用に使わせてもらってます!ありがとうございます!\mbox{\rm\cite{juntaro33_1}}}{2011/4/216:16:24}{\mbox{juntaro33}}\end{itemize}\itemマップを作成された方々の見解を伺った際:\begin{itemize}\item\twitter{@aidashinいえいえ.今,マップの情報のほとんどがあいださんのシステムからの情報ですから.\mbox{\rm\cite{juntaro33_2}}}{2011/4/623:52:14}{\mbox{juntaro33}}\end{itemize}\end{itemize}本サイトの豊橋技術科学大学以外からのアクセス数の遷移を図\ref{log}に示す.公開日や3月20日の{\tt\#99japan}活動開始直後は,特にアクセス数が多い.4月初め頃に緊急状態を脱し,アクセス数は一時的に減少したが,4月7日の最大震度6強(宮城),4月11・12日の最大震度6弱(福島)の大余震時アクセス数が再び増加しており,相関が見られる.\begin{figure}[b]\begin{center}\includegraphics{20-3ia5f2.eps}\end{center}\caption{「救助要請情報抽出サイト」アクセス数の遷移}\label{log}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia5f3.eps}\end{center}\caption{共同編集:物資要請・提供マップ東北関東大震災(2012月1日30日当時)}\label{map}\end{figure}「救助用マップ」や「物資要請・提供マップ」(図\ref{map})を用いた活動によって,4月上旬までの3週間程で,救助・物資支援それぞれ200地点を超える通報・支援活動が行われた\footnote{「救助用マップ」(「共同編集:被害リアルマップ東北地方太平洋沖地震」)は公開が凍結されているが,2011年3月29日9:17までのバックアップは閲覧可能である\cite{map1_backup}.}.なお,本活動は\cite{Utada}において評価されている.
\section{考察}
{\tt\#99japan}を振り返ると,まず「大地震発生時に集う場所」として,「2ちゃんねる臨時地震板が存在していたこと」が重要であった.今回,震災当日に2ちゃんねる臨時地震板ユーザらがボランティアとなって,WikiやGoogleマップの他に,Twitterやmixiなどソーシャルメディアなど既存の情報技術を活用した情報共有がなされた.次に,Twitterユーザらが,彼らと{\tt\#99japan}に自然合流し,Twitterによってより多くの情報が共有できた.とりわけ,ハッシュタグとしての``{\tt\#99japan}''は,通報報告のみならず,進捗報告や救助完了報告についても共有出来る仕組みとして極めて意義がある.このような進捗・完了報告の重要性は,「東日本大震災ビッグデータワークショップ」のTwitterブレインストーミングにおいても指摘されている\shortcite{bigdata}.通報活動には,「救助要請情報の鮮度」が重要であったが,我々の「救助要請情報抽出サイト」は,{\tt\#99japan}への情報源提供元として活用され,効率的な通報活動支援に貢献した.大震災後の社会について考察した\cite{Endo}において,遠藤は序章3節「われわれはいま,何を考えるべきか」の中で,以下を留意点として述べている:\begin{enumerate}\item未曾有の大災害におけるミクロな「現実」の精査\itemマクロな社会システムの分析と再設計\item非常時における社会的コミュニケーション回路の再構築\item地域コミュニティにおける社会資本と情報蓄積\itemボランティア活動の組織化とソーシャルメディア\item国際社会との対話—世界問題としての大震災\end{enumerate}{\tt\#99japan}は,(5)をいち早く実施した事例と言える.また,実社会における(3)の一部として機能した.\cite{Utada}は本活動を評価しながらも,(1)と(2)に関連する課題点として,「公共の組織と連携していない点」を指摘している:\begin{quote}それぞれのマップ\footnote{マップは\cite{map1,map2}を指す.}の冒頭には,「通報が無ければ、このマップに書き込んでも救助されません!通報が原則です!!通報をしないと国は助けられません!!」と注意喚起している。しかし、国の救援組織がこのマップを採用すれば、こうした心配はなくなる。通報したかどうかではなくて、「対応中」とか「救援済」といったより具体的で確実な情報が反映できる。通信ネットワークが十分に機能しなかった今回の教訓で、いずれは避難所などにも、衛星を使ったネット回線など災害対応の通信ネットワーク環境が整備されていくだろう。そうなってくれば、こうした地図を使った情報共有の仕組みはますます役に立つ。公の組織も利用することを考えるべきではないか。検索できない名簿を作っている時代ではもはやなくなっているはずなのだから。\end{quote}なお,(4)は震災復興対策,(6)は震災に関する正確な情報発信をそれぞれ含意するが,これらのための「研究者らと地域住民一体となったアウトリーチ活動」は広く行われている.そして,このような活動の収集・記録・分析活動が,(1)と(2)に対する復興方法論の提案になると考えられる.
\section{おわりに}
我々は,震災初期の2011年3月16日,Twitter上の全情報から救助要請情報を一覧表示するサイトを早期開発し,Web上に公開した.特に,Twitterベースの東日本震災支援プロジェクト{\tt\#99japan}の活動に参加・連携することで,本サイトで抽出した数多くの救助要請情報に基づいて適宜通報活動が行われたことが判った.{また,{\tt\#99japan}のメンバーの要望に従い,救助要請情報の抽出精度向上と機能改善に努めることが出来た.}本活動に限らず,震災初期支援活動に「ソーシャルメディア」が活用されていることも報告されている\cite{NHK,Shimbun,Tachiiri}.今後の課題として,現在も稼働し取得し続けている本サイトログからニーズを分析し,適応的な震災復興支援システム構築が挙げられる.また,今回は{\tt\#99japan}は偶然幾つかの重要な要素が繋がったが,\cite{Endo,Utada}で指摘されている様に,{\tt\#99japan}のような活動を一過性のものとせずに,次の災害時,より迅速的かつ効率的な救助・復興活動になるように,「災害ボランティアに関する社会システムの枠組み」を今のうちに洗練化しておくべきであろう.\section*{この度の東日本大震災で被災された皆様へ}この度の東日本大震災によって亡くなられた方々へ謹んで哀悼の意を表しますと共に,被災された皆様,ご家族,並びに関係者の皆様へお見舞い申し上げます.そして,被災地の一日も早い復興を心よりお祈り申し上げます.\acknowledgmentまず,本サイト開発を勧めて頂いた{\tt@nkanada}様に,御礼申し上げます.次に,本研究成果は,{\tt\#99japan}を立ち上げた田宮嘉一様,マップ開設者の{\tt@juntaro33}様,{\tt\#99japan}のサイト管理者の{\tt@ma\_chiman}様,並びに多くの{\tt\#99japan}ボランティアの皆様のお力添え賜りましたことへ深謝致します.また,本サイト開発・公開に際して,有益な助言賜りました``ANPINLP''\shortcite{anpi_nlp}ボランティア研究者の方々に,感謝致します.最後に,震災初期に出会った``311HELP.com''\cite{311help}開発者の株式会社42・田原大生様が,2011年7月31日,{\tt\#99japan}について公の場で初めて発表の機会を与えて下さいましたことへ,改めて感謝致します.(本論文の内容の一部は,言語処理学会第18回年次大会で発表したものである\cite{Aida1}.)\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{{\tt\#99japan}有志ら}{{\tt\#99japan}有志ら}{2011a}]{map1}{\tt\#99japan}有志ら\BBOP2011a\BBCP.\newblock共同編集:被害リアルマップ東北地方太平洋沖地震.\\linebreak\newblock\url{https://maps.google.co.jp/maps/ms?ie=UTF8&hl=ja&brcurrent=3,0x5f8892ddfbe0dc71:0xce6fb9385107a4ad,0&msa=0&msid=209051486000599298555.00049e33f3610df1bed86&z=9}.\bibitem[\protect\BCAY{{\tt\#99japan}有志ら}{{\tt\#99japan}有志ら}{2011b}]{map2}{\tt\#99japan}有志ら\BBOP2011b\BBCP.\newblock共同編集:物資要請・提供マップ東北関東大震災.\\newblock\url{https://maps.google.co.jp/maps/ms?ie=UTF8&hl=ja&brcurrent=3,0x34674e0fd77f192f:0xf54275d47c665244,0&oe=UTF8&num=200&msa=0&msid=212756209350684899471.00049ea27cf60c4292136&ll=37.827141,140.306396&spn=2.290855,3.488159&z=8}.\bibitem[\protect\BCAY{{\tt\#99japan}有志ら}{{\tt\#99japan}有志ら}{2011c}]{map1_backup}{\tt\#99japan}有志ら\BBOP2011c\BBCP.\newblock共同編集:被害リアルマップ東北地方太平洋沖地震(3/299:17までのバックアップ分).\\newblock\url{https://maps.google.co.jp/maps/ms?ie=UTF8&hl=ja&brcurrent=3,0x34674e0fd77f192f:0xf54275d47c665244,0&msa=0&ll=38.255436,140.998535&spn=10.259815,16.54541&z=6&msid=212756209350684899471.00049f93fb04a48b1dce9}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011a}]{juntaro33_00}{\tt@juntaro33}\BBOP2011a\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/49436866939863040}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011b}]{juntaro33_0}{\tt@juntaro33}\BBOP2011b\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/51211528241819648}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011c}]{juntaro33_1}{\tt@juntaro33}\BBOP2011c\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/54079719091605504}.\bibitem[\protect\BCAY{{\tt@juntaro33}}{{\tt@juntaro33}}{2011d}]{juntaro33_2}{\tt@juntaro33}\BBOP2011d\BBCP\\newblock\url{https://twitter.com/#!/juntaro33/status/55643984638394368}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011a}]{99japan2}{\tt@ma\_chiman}\BBOP2011a\BBCP.\newblock東日本震災支援\#99japan(救急ジャパン)公式サイト.\\newblock\url{https://sites.google.com/site/sharp99japan/}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011b}]{ma_chiman_0}{\tt@ma\_chiman}\BBOP2011b\BBCP\\newblock\url{https://twitter.com/#!/ma_chiman/status/49434917083414528}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011c}]{ma_chiman_1}{\tt@ma\_chiman}\BBOP2011c\BBCP\\newblock\url{https://twitter.com/#!/ma_chiman/status/51194045803921408}.\bibitem[\protect\BCAY{{\tt@ma\_chiman}}{{\tt@ma\_chiman}}{2011d}]{ma_chiman_2}{\tt@ma\_chiman}\BBOP2011d\BBCP\\newblock\url{https://twitter.com/#!/ma_chiman/status/53342954399600640}.\bibitem[\protect\BCAY{{\ttID:nx64KwTT}}{{\ttID:nx64KwTT}}{2011}]{atwiki}{\ttID:nx64KwTT}\BBOP2011\BBCP.\newblock東北大震災まとめWiki.\\newblock\url{http://www45.atwiki.jp/acuser001}.\bibitem[\protect\BCAY{相田}{相田}{2011}]{Aida0}相田慎\BBOP2011\BBCP.\newblockTwitterからどのようにして救助要請情報を抽出したのか?—「東日本震災支援{\tt\#99japan}」活動を通して—.\\newblock\Jem{LAシンポジウム会誌,第57号},\mbox{\BPGS\9--24}.\bibitem[\protect\BCAY{相田\JBA新堂\JBA内山}{相田\Jetal}{2011}]{extraction}相田慎\JBA新堂安孝\JBA内山将夫\BBOP2011\BBCP.\newblock救援要請ツィート抽出サイト.\\newblock\url{http://www.selab.cs.tut.ac.jp/~aida/}.\bibitem[\protect\BCAY{相田\JBA新堂\JBA内山}{相田\Jetal}{2012}]{Aida1}相田慎\JBA新堂安孝\JBA内山将夫\BBOP2012\BBCP.\newblock「東日本大震災関連の救助要請情報抽出サイト」構築と救助活動について.\\newblock\Jem{言語処理学会第18回年次大会講演論文集},{\Bbf13}(1),\mbox{\BPGS\1236--1239}.\bibitem[\protect\BCAY{荒蝦夷}{荒蝦夷}{2012}]{IBC}荒蝦夷\JED\\BBOP2012\BBCP.\newblock\Jem{その時,ラジオだけが聴こえていた—IBC岩手放送3・11震災の記録}.\newblock竹書房.\bibitem[\protect\BCAY{遠藤}{遠藤}{2012}]{Endo2}遠藤薫\BBOP2012\BBCP.\newblock\Jem{メディアは大震災・原発事故をどう語ったか—報道・ネット・ドキュメンタリーを検証する}.\newblock東京電機大学出版局.\bibitem[\protect\BCAY{遠藤\JBA高原\JBA西田\JBA新\JBA関谷}{遠藤\Jetal}{2011}]{Endo}遠藤薫\JBA高原基彰\JBA西田亮介\JBA新雅史\JBA関谷直也\BBOP2011\BBCP.\newblock\Jem{大震災後の社会学}.\newblock講談社.\bibitem[\protect\BCAY{林\JBA山路}{林\JBA山路}{2012}]{GPF}林信行\JBA山路達也\BBOP2012\BBCP.\newblock東日本大震災と情報、インターネット、Google「パーソンファインダー、東日本大震災での進化(1)」.\\newblock\url{http://www.google.org/crisisresponse/kiroku311/chapter_06.html}.\bibitem[\protect\BCAY{本田}{本田}{2012}]{sinsai.info_TechWave}本田正浩\BBOP2012\BBCP.\newblockオープンソースマインドが支えたsinsai.infoの1年—関治之氏インタビュー.\\newblock\url{http://techwave.jp/archives/51731021.html}.\bibitem[\protect\BCAY{片瀬\JBAラジオ福島}{片瀬\JBAラジオ福島}{2012}]{rfc}片瀬京子\JBAラジオ福島\BBOP2012\BBCP.\newblock\Jem{ラジオ福島の300日}.\newblock毎日新聞社.\bibitem[\protect\BCAY{久世}{久世}{2010}]{1500}久世宏明\BBOP2010\BBCP.\newblock1500ったー.\\newblock\url{http://xtter.openlaszlo-ason.com/XTTER/1500ttr/}.\bibitem[\protect\BCAY{村上\JBA他\JBA他}{村上\Jetal}{2011}]{anpi_nlp}村上浩司他\BBOP2011\BBCP.\newblock\BBOQANPINLP.\BBCQ\\newblock\url{http://trans-aid.jp/ANPI_NLP/}.\bibitem[\protect\BCAY{村上\JBA萩原}{村上\JBA萩原}{2012}]{anpi_nlp_proc}村上浩司\JBA萩原正人\BBOP2012\BBCP.\newblock安否情報ツイートコーパスの詳細分析とアノテーションに関する一考察.言語処理学会第18回年次大会発表論文集,\newblock{\Bbf13}(1),\mbox{\BPGS\1232--1235}.\bibitem[\protect\BCAY{{\ttnextutozin}\JBA他\JBA他}{{\ttnextutozin}\Jetal}{2011}]{matome_wiki}{\ttnextutozin}他\BBOP2011\BBCP.\newblock東日本大震災(東北地方太平洋沖地震)@ウィキ.\\newblock\url{http://www46.atwiki.jp/earthquakematome/}.\bibitem[\protect\BCAY{NHK総合テレビ}{NHK総合テレビ}{2011}]{NHK}NHK総合テレビ\BBOP2011\BBCP.\newblockクローズアップ現代「いま,私たちにできること〜“ソーシャルメディア”支援〜」.\\newblock\url{http://cgi4.nhk.or.jp/gendai/kiroku/detail.cgi?content_id=3022}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011a}]{2ch_shindo7_1}2ちゃんねる臨時地震板\BBOP2011a\BBCP.\newblock震度7.\\newblock\url{http://www.logsoku.com/r/eq/1299822821/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011b}]{2ch_shindo7_2}2ちゃんねる臨時地震板\BBOP2011b\BBCP.\newblock震度7その2.\\newblock\url{http://www.logsoku.com/r/eq/1299823601/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011c}]{2ch_shindo7_3}2ちゃんねる臨時地震板\BBOP2011c\BBCP.\newblock震度7その3.\\newblock\url{http://www.logsoku.com/r/eq/1299825048/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011d}]{2ch_shindo7_4}2ちゃんねる臨時地震板\BBOP2011d\BBCP.\newblock震度7その4.\\newblock\url{http://www.logsoku.com/r/eq/1299826741/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011e}]{2ch_shindo7_5}2ちゃんねる臨時地震板\BBOP2011e\BBCP.\newblock震度7その5.\\newblock\url{http://www.logsoku.com/r/eq/1299830742/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011f}]{2ch}2ちゃんねる臨時地震板\BBOP2011f\BBCP.\newblock【私にも】三陸沖地震災害の情報支援【できる】.\\newblock\url{http://logsoku.com/thread/hayabusa.2ch.net/eq/1299829654/}.\bibitem[\protect\BCAY{2ちゃんねる}{2ちゃんねる}{2011g}]{2ch_map}2ちゃんねる臨時地震板\BBOP2011g\BBCP.\newblock被害状況まとめGoogleマップ希望スレ.\\newblock\url{http://logsoku.com/thread/hayabusa.2ch.net/eq/1299892327/}.\bibitem[\protect\BCAY{荻上}{荻上}{2011}]{Ogiue}荻上チキ\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災の流言・デマ}.\newblock光文社.\bibitem[\protect\BCAY{関\JBA他\JBA他}{関\Jetal}{2011}]{sinsai.info}関治之他\BBOP2011\BBCP.\newblock\BBOQsinsai.info.\BBCQ\\newblock\url{http://www.sinsai.info/}.\bibitem[\protect\BCAY{福田}{福田}{2012}]{Fukuda}福田充\BBOP2012\BBCP.\newblock\Jem{大震災とメディア}.\newblock北樹出版.\bibitem[\protect\BCAY{新聞通信調査会}{新聞通信調査会}{2013}]{Shimbun}新聞通信調査会\BBOP2013\BBCP.\newblock\Jem{大震災・原発とメディアの役割—報道・論調の検証と展望—}.\newblock公益財団法人新聞通信調査会.\bibitem[\protect\BCAY{田原}{田原}{2011}]{311help}田原大生\BBOP2011\BBCP.\newblock必要物資・支援要求マップ311HELP.com.\\newblock\url{http://311help.com/}.\bibitem[\protect\BCAY{田宮}{田宮}{2011a}]{ktamiya}田宮嘉一\BBOP2011a\BBCP.\newblock東北関東大震災,救助依頼連絡先(アメーバブログ).\\newblock\url{http://ameblo.jp/ktamiya/entry-10829792004.html}.\bibitem[\protect\BCAY{田宮}{田宮}{2011b}]{99japan1}田宮嘉一\BBOP2011b\BBCP.\newblock東北関東大震災の救助支援プロジェクト「{\tt\#99japan}」参加者を募集します.\\newblock\url{http://twipla.jp/events/6133}.\bibitem[\protect\BCAY{立入}{立入}{2011}]{Tachiiri}立入勝義\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災そのときソーシャルメディアは何を伝えたか?}\newblockディスカヴァー・トゥエンティワン.\bibitem[\protect\BCAY{Twitter社}{Twitter社}{2011a}]{Twitter_tags}Twitter社\BBOP2011a\BBCP.\newblock東北地方太平洋沖地震に関して.\\newblock\url{http://blog.jp.twitter.com/2011/03/blog-post_12.html}.\bibitem[\protect\BCAY{Twitter社}{Twitter社}{2011b}]{nihongo}Twitter社\BBOP2011b\BBCP.\newblock{\tt\#}日本語ハッシュタグ.\\newblock\url{http://blog.jp.twitter.com/2011/07/blog-post.html}.\bibitem[\protect\BCAY{Twitter社}{Twitter社}{2013}]{Twitter_help}Twitter社\BBOP2013\BBCP.\newblockTwitterヘルプセンター.\\newblock\url{https://support.twitter.com/}.\bibitem[\protect\BCAY{歌田}{歌田}{2011}]{Utada}歌田明弘\BBOP2011\BBCP.\newblock仮想報道Vol.~673「地図を使った震災情報の共有」.\\newblock\Jem{週刊アスキー4月12日号},\mbox{\BPGS\94--95}.\bibitem[\protect\BCAY{山崎\JBA他\JBA他}{山崎\Jetal}{2012}]{bigdata}山崎富美他\BBOP2012\BBCP.\newblock{\tt\#shinsaidata}「東日本大震災ビッグデータワークショップ---Project311---」ブレスト.\\newblock\url{http://togetter.com/li/372103}.\end{thebibliography}\begin{biography}\bioauthor{相田慎}{1975年生.2002年名古屋大学大学院人間情報学研究科物質・生命情報学博士後期課程修了.博士(学術).2002年豊橋技術科学大学工学部知識情報工学系助手.2007年同助教.2007年同大大学院工学研究科情報・知能工学系助教.計算量理論・アルゴリズム理論の研究に従事.}\bioauthor{新堂安孝}{1974年生.2000年大阪市立大学大学院理学研究科博士前期課程修了.2004年大阪市立大学博士(理学)取得.PC周辺機器メーカー,機械メーカー,通信キャリア,ソフトウェア・メーカーに勤務.音声言語処理・自然言語処理の研究などに従事.}\bioauthor{内山将夫}{1969年生.1997年筑波大学大学院工学研究科電子情報工学専攻修了.博士(工学).1997年信州大学工学部電気電子工学科助手.1999年郵政省通信総合研究所非常勤職員.2001年独立行政法人通信総合研究所任期付き研究員.2004年独立行政法人情報通信研究機構主任研究員.自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V15N05-08
|
\section{はじめに}
多言語依存構造解析器に関して,CoNLL-2006\shortcite{CoNLL-2006}やCoNLL-2007\shortcite{CoNLL-2007}といった評価型SharedTaskが提案されており,言語非依存な解析アルゴリズムが多く提案されている.これらのアルゴリズムは対象言語の様々な制約---交差を許すか否か,主辞が句の先頭にあるか末尾にあるか---に適応する必要がある.この問題に対し様々な手法が提案されている.Eisner\shortcite{Eisner:1996}は文脈自由文法に基づくアルゴリズムを提案した.山田ら\shortcite{Yamada:2003},およびNivreら\shortcite{Nivre:2003,Nivre:2004}はshift-reduce法に基づくアルゴリズムを提案した.Nivreらはのちに,交差を許す言語に対応する手法を提案した\shortcite{Nivre:2005}.McDonaldら\shortcite{McDonald:2005b}はChu-Liu-Edmondsアルゴリズム(以下「CLEアルゴリズム」)\shortcite{Chu:1965,Edmonds:1967}を用いた,最大全域木の探索に基づく手法を提案した.多くの日本語係り受け解析器は入力として文節列を想定している.日本語の書き言葉の係り受け構造に関する制約は他の言語よりも強く,文節単位には左から右にしか係らず,係り受け関係は非交差であるという制約を仮定することが多い.図\ref{fig_jpsen}は日本語の係り受け構造の例である.ここで係り受け関係は,係り元から係り先に向かう矢印で表される.文(a)は文(b)と似ているが,両者の構文構造は異なる.特に「彼は」と「食べない」に関して,(a)は直接係り受け関係にあるのに対して,(b)ではそうなっていない.この構文構造の違いは意味的にも,肉を食べない人物が誰であるかという違いとして現れている.\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f1.eps}\end{center}\caption{日本語文の係り受け構造の例}\label{fig_jpsen}\end{figure}日本語係り受け解析では,機械学習器を用いた決定的解析アルゴリズムによる手法が,確率モデルを用いた,CKY法等の文脈自由文法の解析アルゴリズムによる手法よりも高精度の解析を実現している.工藤ら\shortcite{Kudo:2002}はチャンキングの段階適用(cascadedchunking,以下「CCアルゴリズム」)を日本語係り受け解析に適用した.颯々野\shortcite{Sassano:2004}はShift-Reduce法に基づいた時間計算量$O(n)$のアルゴリズム(以下「SRアルゴリズム」)を提案している.これらの決定的解析アルゴリズムは入力文を先頭から末尾に向かって走査し,係り先と思われる文節が見つかるとその時点でそこに掛けてしまい,それより遠くの文節は見ないので,近くの文節に係りやすいという傾向がある.\ref{sec:exp_acc}節で述べるように,我々はCLEアルゴリズムを日本語係り受け解析に適用した実験を行ったが,その精度は決定的解析手法に比べて同等あるいは劣っていた.実際CLEアルゴリズムは,左から右にしか係らないかつ非交差という日本語の制約に合っていない.まず全ての係り関係の矢印は左から右に向かうので,各ステップにおいて係り受け木にサイクルができることはない.加えて,CLEアルゴリズムは交差を許す係り受け解析を意図しているので,日本語の解析の際には非交差のチェックをするステップを追加しなければならない.工藤ら\shortcite{Kudo:2005j}は候補間の相対的な係りやすさ(選択選好性)に基づいたモデルを提案した.このモデルでは係り先候補集合から最尤候補を選択する問題を,係り元との選択選好性が最大の候補を選択する問題として定式化しており,京大コーパスVersion3.0に対して最も高い精度を達成している\footnote{ただし京大コーパスVersion2.0に対しては,颯々野の手法が最高精度を達成している.相対モデルと颯々野手法を同じデータで比べた報告はない.}.決定的手法においては候補間の相対的な係りやすさを考慮することはせず,単に注目している係り元文節と係り先候補文節が係り受け関係にあるか否かということのみを考える.また,この手法は,先に述べたCLEアルゴリズムに,左から右にのみ掛ける制約と非交差制約を導入した方法を拡張したものになっている.上にあげた手法はいずれも,係り元とある候補の係りやすさを評価する際に他の候補を参照していない\footnote{手法によっては係り元や候補に係っている文節や,周辺の文節の情報を素性として使用しているものもあるが,アクションの選択に重要な役割を果たす文節がこれらの素性によって参照される場所にあるとは限らない.}.これに対し内元ら\shortcite{Uchimoto:2000}は,(係り元,係り先候補)の二文節が係るか否かではなく,二文節の間に正解係り先がある・その候補に係る・その候補を越えた先に正解係り先がある,の3クラスとして学習し,解析時には各候補を正解と仮定した場合の確率が最大の候補を係り先として選択する確率モデルを提案している.また,金山ら\shortcite{Kanayama:2000}はHPSGによって係り先候補を絞り込み,さらに,三つ以下の候補のみを考慮して係り受け確率を推定する手法を提案している.本稿では,飯田ら\shortcite{Iida:2003}が照応解析に用いたトーナメントモデルを日本語係り受け解析に適用したモデルを提案する.同時に係り元と二つの係り先候補文節を提示して対決させるという一対一の対戦をステップラダートーナメント状に組み上げ,最尤係り先候補を決定するモデルである.2節ではどのようにしてトーナメントモデルを日本語係り受け解析に適用するかについて説明する.3節ではトーナメントモデルの性質について関連研究と比較しながら説明する.4節では評価実験の結果を示す.5節では我々の現在の仕事および今後の課題を示し,6章で本研究をまとめる.
\section{トーナメントモデル}
トーナメントモデルは飯田ら\shortcite{Iida:2003}が照応解析のために提案したモデルである.このモデルでは,与えられた照応表現の先行詞候補集合から二つを提示し,そのどちらがより先行詞らしいかをSVMなどの二値分類器を用いて判断するという勝ち抜き戦を行っていくことで,最尤先行詞候補を選択する.日本語係り受け解析も,ある係り元文節の複数の係り先候補の中から最尤候補を一つ選出する問題であるから,照応解析における最尤先行詞候補選出と類似した問題である.このトーナメントモデルを,日本語の係り受け構造の制約を考慮しつつ日本語係り受け解析に適用することを考える.図\ref{fig_jpsen}(b)の文の解析において,「彼は」の係り先を同定するトーナメントの例を図\ref{fig_tournament}に示す.左から右にしか係らない制約に従うと,係り先候補集合は係り元より右側に位置する四文節(「肉を」,「食べない」,「人と」,「結婚した」)である.このトーナメントは,候補集合の中からまず「肉を」と「食べない」を戦わせ,次にその勝者と「人と」を戦わせ,最後に第二試合の勝者と「結婚した」を戦わせる,ステップラダートーナメントである.このトーナメントの結果,最終的な勝者である「結婚した」が最尤係り先候補として選ばれ,「彼は」の係り先文節として認定される.図\ref{fig_tournament}では明記していないが,非交差制約をトーナメントモデルに導入するのは容易である.係り先候補集合から最尤候補を選択する際に,交差を生じない候補のみを候補集合として考えればよい.\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f2.eps}\end{center}\caption{トーナメントの例}\label{fig_tournament}\end{figure}以下に具体的なアルゴリズムを示す.\subsection{訓練事例生成アルゴリズム}\begin{figure}[b]\begin{center}\includegraphics{15-5ia8f3.eps}\end{center}\caption{訓練事例生成アルゴリズムの疑似コード}\label{fig_train}\end{figure}このアルゴリズムは図\ref{fig_train}に示すように,全ての文節を係り元文節として見ていき,\pagebreak各係り元文節について,正解係り先候補とその他の全ての係り先候補との組について訓練事例を生成する.訓練事例生成の際は非交差制約を考慮せず,係り元の右側に位置するすべての文節を係り先候補として扱う.トーナメントモデルでは二値分類器で係り先を判定するため,左右いずれかの文節が正解係り先となる事例のみを生成する.このアルゴリズムに図\ref{fig_jpsen}に示した文を入力すると,表\ref{tbl_exgen_example}のような訓練事例が生成される\footnote{説明の都合上,訓練事例生成と解析の例に同一の文を使用しているが,実験において訓練データとテストデータに重なりはない.}.決定的手法や相対モデルなど,同時に一つの候補のみを見て(係り元,候補)の形の訓練事例を生成するモデルでは,「係り元:彼は,候補:食べない,クラスラベル:係る」と「係り元:彼は,候補:食べない,クラスラベル:係らない」というクラスラベルの異なる二つの矛盾した訓練事例が生成されるが,トーナメントモデルではこれらを区別し矛盾のない訓練事例を生成できる.\begin{table}[t]\caption{生成される訓練事例}\begin{center}\input{08table01.txt}\end{center}\label{tbl_exgen_example}\end{table}\subsection{解析アルゴリズム}\label{sec:parsing_algorithm}CCアルゴリズムやSRアルゴリズムには,訓練事例生成と解析のアルゴリズムを同一にしなければならないという制限があるが,トーナメントモデルにはそのような制限はない.そのためトーナメントモデルの解析アルゴリズムには主に,文頭に近い文節から係り先を同定していくか文末に近い文節から係り先を同定していくか,トーナメントをどう組むか,交差を許すか否か,といった自由度がある.図\ref{fig_test}は,文末に近い文節から係り先を同定し,トーナメントの組み方としては図\ref{fig_tournament}のような文頭に近い候補から先に戦わせるステップラダートーナメントとし,非交差制約を考慮する解析アルゴリズムである.同定順が文末から文頭であるため,注目している係り元より右側の係り受け関係はすべて決まっている.{\ithead}は各文節の係り先を格納する配列であるとともに,非交差制約に違反しない候補をつなぐ線形リストの役目も果たしている.\begin{figure}[t]\begin{center}\includegraphics{15-5ia8f4.eps}\end{center}\caption{解析アルゴリズムの疑似コード}\label{fig_test}\end{figure}
\section{議論}
以下でトーナメントモデルの性質について先行研究と比較しながら論じる.\subsection{文脈の識別性}\label{sec:context}CCアルゴリズムとSRアルゴリズムは,二文節つまり一つの係り元文節と一つの係り先文節のみを参照してアクション(掛けるか掛けないか)を選択する.だが,たとえば図\ref{fig_jpsen}における「彼は」と「食べない」のように,ある二文節が係り受け関係にあるか否かが文脈に依存する場合がある.決定的解析アルゴリズムや相対モデルのような二文節のみを見るモデルでは,文脈素性によらなければこの二つの場合を識別することができない.なお,文脈素性とは,係り元文節と係り先候補文節自身以外の文節に関する素性のこととする.具体的にはたとえば,候補文節に隣接する左右の文節の情報(周辺文節素性)や,解析済みの係り受け関係に関する素性(動的素性)などである.動的素性が利用できるのは,ある係り元文節の係り先の同定を終えてから別の係り元文節の係り先の同定を行うようなモデルに限られる.日本語係り受け解析においては周辺文節素性はあまり使われていない.同時に参照する文節数に基づく分類によると,トーナメントモデルは三文節つまり一つの係り元文節と二つの係り先候補文節を同時に見る三つ組モデルということができる.三つ組モデルでは二つの候補のどちらがより係り先としてふさわしいかを直接比較し,最適な係り先を決定することができるので,文脈の識別性は二つ組モデルより高い.再び図\ref{fig_jpsen}の文について考えてみると,(b)では「彼は」は「食べない」に係っていない.これは,より適切な係り先「結婚した」が「食べない」の右に存在するからである.二つ組モデルにおいて,二文節の外に「結婚した」が存在することは動的素性によって検出できる可能性があるが,確実ではないので,二つ組モデルは「結婚した」が存在することを知らないまま係り先を選ばなければならないかもしれない.なお,金山ら\cite{Kanayama:2000}も一つの係り元文節と二つの係り先候補文節を同時に見るモデルを三つ組モデルと呼んでいる.トーナメントモデルと金山らのモデルは,複数の候補を同時に提示することで\ref{sec:context}〜\ref{sec:selectional}節の性質を備えているという点で共通している.両手法の主な相違点は,$k$個の係り先候補集合から一つの係り先を選ぶという問題を二つ(金山モデルでは二つまたは三つ)の候補から最も係り先として適切なものを選ぶという問題に落とし込む方法として,金山モデルではHPSGおよびヒューリスティック\footnote{HPSGによる絞り込みの結果,候補が四つ以上あるときは,係り元に最も近い候補・係り元に二番目に近い候補・係り元から最も遠い候補の三候補を提示する.},トーナメントモデルではトーナメントを用いている点である.提案手法はHPSGのような人手による文法規則を用いる必要がない.\subsection{文中における相対的な位置の表現}\label{sec:relative}三つ組モデルにおける二つの候補のうち係り元に近い方を「左候補」,遠い方を「右候補」と区別して呼ぶことにする.そうすると,トーナメントモデルの対戦においては係り元,左候補,右候補がこの順で文頭から文末の方向に並んでいることが保証されている.先行研究では,係り元と候補との間の距離(絶対距離)を1or2-5or6+といったバケツ素性で表現しており,後述のようにトーナメントモデルでもこの素性を使用している.絶対距離素性は相対位置を表す素性の一種であるとも考えられるが,ある候補との距離が1であるか否かの情報は重要だとしても,日本語は語順自由なので距離の絶対値はあまり重要ではない.たとえば図\ref{fig_jpsen}(b)の文において「彼は」を係り元とするとき,候補「食べない」と「結婚した」との距離はそれぞれ2と4であるため,どちらも「2-5」のバケツに分類される.したがって文脈素性を用いない場合,二つ組モデルはこの二つの候補のどちらが係り元により近い位置にあるかという相対的な位置関係を認識することができない.決定的解析アルゴリズムは先に相対的に近い対から判定するため,暗に相対位置の情報を用いている.これに対し提案手法は,相対位置をより直接的に,ラベルとして表現している.また,相対位置の認識は,ある種の格要素が他の格要素より近くに現れやすいといった傾向の学習にも有用と考えられる.たとえば目的語は他の要素より述語の近くに置かれやすい.決定的解析アルゴリズムは係り元に近い候補を選択しやすいため,工藤ら\shortcite{Kudo:2005j}が指摘しているように,決定的解析アルゴリズムは長距離の係り関係を正しく解析するのが苦手である.その理由としては,\ref{sec:context}節および\ref{sec:relative}節のような文脈識別能力が低いことが大きいと考えられる.なお,正解係り先は係り元に近いことが多いので,近い候補を選択しやすいという傾向のために生じる解析誤りはそれほど多くない.\subsection{選択選好}\label{sec:selectional}相対モデル\shortcite{Kudo:2005j}は係り先候補間の選択選好性の強さを直接学習し,log-linearモデルの尤度として全順序にエンコードする.CLEアルゴリズムを用いたMcDonaldら\shortcite{McDonald:2005b}の手法では,選択選好性をMIRA\shortcite{Crammer:2003}とよばれるパーセプトロンアルゴリズムで学習する.これに対してトーナメントモデルは候補間の一対一対戦のトーナメントで選択選好性を学習するため,全順序ではなく半順序の学習を行っている.相対モデルやMcDonaldらの手法が全候補を識別モデルで独立して見るのに対し,トーナメントモデルではどの候補がより適切かを前の試合の勝者と新しい候補で評価する.前の試合の勝者はそれ以前の候補をすべて倒しているので,新しい候補が前の試合の勝者を倒したということは,半順序の束において先行した全ての候補より係り先としてふさわしいということである\footnote{提案手法では一次解しか出力しないため半順序関係の束の部分構造は一次元的なものになる.提案手法を$k$-best解を出力するアルゴリズムに拡張すると,半順序関係の束の部分構造はより複雑なものになる.}.このことから,トーナメントモデルは全ての候補を独立に見る手法より選択選好性に関してより豊かな情報を学習することができる可能性がある.\subsection{文節の挿入に対する頑健性}日本語においては様々な文節が任意の位置に挿入されることがある.その要因としては,かき混ぜ構文,ゼロ代名詞,任意格等がある.CCアルゴリズムは距離の短い係り受け関係から決定していくという戦略をとっている.ある挿入文節の係り先が,あるcascadedchunkingステップにおいて決定されると,それ以降のcascadedchunkingステップではその挿入文節は無視される.たとえば,「肉をあまり食べない」と「肉を食べない」という文について考える.CCアルゴリズムではまず各文節が隣の文節に係るかどうかをチェックし係り先が決まった文節を徐々に取り除いていくので,前者の文は最初のステップで「あまり」が隣の「食べない」に係ると解析され,次のステップでは「あまり」が取り除かれて「肉を食べない」という後者の文と同じ形になる.したがって,前者の文が訓練データに出現していれば後者の文も正しく解析できることを期待できるし,逆も然りである.このように,文節の挿入の影響を受けないようにする仕組みが解析器の文節の挿入に対する頑健性を実現している.トーナメントモデルにもこれと同様の仕組みがある.一文あるいは二文の訓練データから\linebreak表~\ref{tbl_exgen_example2}の事例が生成されたなら,「彼は肉をあまり食べない」という文の解析において「彼は」の係り先を同定する際にまず「あまり」と「食べない」と戦わせて「あまり」を敗退させれば,「彼は肉を食べない」という文の解析と同様の状況になる.このようにうまくトーナメントを組むことができれば,挿入文節が最終決定を妨害しないような解析をすることができると考えられる.\begin{table}[t]\hangcaption{生成された訓練事例.この二つの事例が訓練データの単一の文から生成される必要はなく,二つの文から生成されることもありうる.}\begin{center}\input{08table02.txt}\end{center}\label{tbl_exgen_example2}\end{table}
\section{評価実験}
\subsection{設定}\label{sec:experimental_settings}我々はトーナメントモデル,CCアルゴリズム\shortcite{Kudo:2002},SRアルゴリズム\shortcite{Sassano:2004},CLEアルゴリズム\shortcite{McDonald:2005b}をSVMを用いて実装し,係り受け正解率と文正解率を京大コーパスVersion4.0を用いて評価した.係り受け正解率とは係り先文節を正しく同定できた文節の割合であり,文正解率とは文中の全ての文節の係り先を正しく同定できた文の割合である.係り受け正解率は各文の末尾の文節(係り先を持たない)を除いて計算する\footnote{多くの先行研究で用いられている基準である.}.また,一文節からなる文は本実験では一切使用しておらず,以下の文数も一文節からなる文を除いた数である.1月1日〜1月8日分の記事(7,587文)を訓練データとし,1月9日分(1,213文),1月10日分(1,479文),1月15日分(1,179文)の記事をそれぞれテストデータとした.二値分類器としてはTinySVM\footnote{http:\slash\slash{}chasen.org\slash\~{}taku\slash{}software\slash{}TinySVM\slash}を用いた.以下のすべての実験・手法において,多くの先行研究と同じく三次の多項式カーネルを使用し,誤分類のコストは1.0とした.すべての実験はDualCoreXeon3GHzx2のLinux上で行った.\subsection{使用した素性}使用した素性を表\ref{tbl_features}に示す.文節の主辞とは,文節の形態素のうち品詞が特殊・助詞・接尾辞以外の形態素のうち最も右側のもの,語形とは品詞が特殊以外の形態素のうち最も右側のものである.また,文節の子文節とは,その文節に係っている文節のこととする.なお,トーナメントモデルは同時に候補を二つ見るため,候補に関する素性はそれぞれの候補について別々に作成する.標準素性と追加素性は颯々野\shortcite{Sassano:2004}の用いたのとほぼ同じものを使用した.格助詞素性は,ある格要素がすでに埋まっているかどうかを認識させ,「複数のヲ格が単一の文節に係ることはない」といった現象を学習させることを意図したものである.ある動的素性が使用できるかは解析アルゴリズムに依存する.たとえば表\ref{tbl_features}の素性の中では格助詞素性のみが動的素性であるが,この格助詞素性はトーナメントモデルにおいて文末から文頭に向かって係り先を決定していく解析アルゴリズムでは「候補の全ての子文節」とは候補の子文節のうち係り元より右側にあるものに限られる.SRアルゴリズムでも同様に,係り元より右側にあるものに限られる.CCアルゴリズムでは片側に限られるということはないものの,候補から遠い子文節については未解析である場合がある.またCLEアルゴリズムではすべての係り関係を独立と考える都合上,動的素性は使用できない.\begin{table}[b]\caption{使用した素性}\begin{center}\input{08table03.txt}\end{center}\label{tbl_features}\end{table}\subsection{解析精度}\label{sec:exp_acc}\begin{table}[b]\caption{訓練データ(7,587文)による係り受け正解率/文正解率[\%]}\label{tbl_accuracy}\begin{center}\input{08table04.txt}\end{center}\end{table}解析精度を表\ref{tbl_accuracy}に示す.係り受け正解率に関するマクネマー検定($p<0.01$)によると,トーナメントモデルは,素性セット:全素性,テストデータ:1月10日分のSRアルゴリズム($p=0.083$)およびCCアルゴリズム($p=0.099$)以外の全ての条件で他の手法より優位であった.テストデータ:1月9日分に対して報告されている最高の係り受け正解率は颯々野\shortcite{Sassano:2004}の89.56\%であるが\footnote{この結果は京大コーパスVersion4.0ではなくVersion2.0を用いた実験の結果である.また,用いた素性も我々のものとは異なる.},トーナメントモデルはこの係り受け正解率を上回っている.ただし,颯々野の実験の出力が手元にないためにマクネマー検定の代わりに符号検定($p<0.01$)を行ったところ,この差は有意ではなかった($p=0.097$).追加素性と格助詞素性の有無による精度の差に注目すると,トーナメントモデルは他のモデルより精度差が小さいことが分かる.このことは単に「元の精度が高い方が大幅な精度向上が難しい」と解釈できるが,「トーナメントモデルは他の手法よりモデル自身で周辺情報を多くとらえられている」とも解釈できる.なお,素性の追加による係り受け正解率の向上に関しては,テストデータ:1月9日分のトーナメントモデルのみ有意ではなかった($p=0.25$).また結果からは,同じ素性を用いたときSRアルゴリズムとCCアルゴリズムの精度がほぼ同じということも分かる.だがこの結果は両アルゴリズムの能力が同程度ということを示しているわけではなく,解析順が違えば使用できる動的素性も異なるため,各アルゴリズムに最適な素性を使ったときの能力には差が出る可能性がある.\subsection{解析時間と訓練事例の規模}各方式において全素性を使用し,テストデータ:1月9日分全体を解析するのに要した時間と,訓練事例の規模を表\ref{tbl_speed}に示す.ステップ数とは,SVMclassifyの実行回数である.\begin{table}[b]\caption{解析時間と訓練事例の規模}\begin{center}\input{08table05.txt}\end{center}\label{tbl_speed}\end{table}時間計算量はトーナメントモデルとCCアルゴリズムが$O(n^2)$,SRアルゴリズムが$O(n)$である.結果からはSRアルゴリズムが最も高速でCCアルゴリズムもそれに準ずる速度,トーナメントモデルはSRアルゴリズムの4倍以上の時間がかかっていることがわかる.ステップ数でみるとトーナメントモデルはSRアルゴリズムの1.7倍程度であるのに解析時間では4倍以上の差が開く理由は,トーナメントモデルは訓練事例数の規模が大きくSVMモデルが巨大になるためアクションの決定に時間がかかるからである.\subsection{解析順等の精度への影響}\ref{sec:parsing_algorithm}節において,トーナメントモデルには係り先の同定順,トーナメントの組み方,非交差制約の考慮に関して自由度があると述べた.そこで,これらの自由度および動的素性である格助詞素性の有無に関して実験を行った.その解析精度を表\ref{tbl:variation}に示す.なお,唯一の動的素性である格助詞素性を使用せず非交差制約も仮定しない場合,各係り元文節の係り先の同定は独立となるので,同定順は解析結果に影響を与えない.精度の変化は多くの場合0.1\%程度と小さいが,係り受け正解率に関しては一貫して格助詞素性あり,同定順:右から左,トーナメント:右から左,非交差制約:ありという設定が最もよい.また,格助詞素性を使用することでほとんどの場合精度が向上しているが,向上幅はそれほど大きくない.\begin{table}[b]\caption{解析順等を変化させたときの係り受け正解率/文正解率[\%]}\label{tbl:variation}\begin{center}\input{08table06.txt}\end{center}\end{table}なお,動的素性である格助詞素性を使用しているため,トーナメントの組み方と非交差制約の考慮の有無を変更する場合には同一のモデルを共用できるが,同定順の変更はモデルの再学習を必要とする.なぜなら,解析時に有効な係り先候補の子文節は,同定順が左から右の場合には係り元より左にあって候補に係っている文節に限られ,同定順が右から左の場合は係り元より右にある子文節に限られるので,訓練事例生成時には格助詞素性における子文節をそのように制限する必要があるからである.\subsection{相対モデルとの比較}我々は相対モデルを実装していないため,京大コーパスVersion3.0を使い,工藤ら\shortcite{Kudo:2005j}と実験設定を合わせた実験を行った.ただし素性は統一していない.訓練データは1月1日〜1月11日分の記事と1月〜8月分の社説(24,263文),テストデータは1月14日〜1月17日分の記事と10〜12月分の社説(9,287文)である.工藤ら\shortcite{Kudo:2005j}は誤分類のコストをディベロップメントデータを用いて調整しているが,本実験ではしておらずすべての実験・手法において1.0に固定した.また,本実験の解析順等は\ref{sec:exp_acc}節の実験と同じく,同定順:右から左,トーナメント:左から右,非交差制約:ありとした.係り受け正解率の計算法は上の実験と同じだが,文正解率は工藤ら\shortcite{Kudo:2005j}の基準に合わせ,一文節からなる文であっても計算に含めた.\begin{table}[t]\caption{工藤ら(2005)との比較実験の係り受け正解率/文正解率[\%]}\begin{center}\input{08table07.txt}\end{center}\label{tbl_accuracy_kudo05}\end{table}結果を表\ref{tbl_accuracy_kudo05}に示す.工藤ら\shortcite{Kudo:2005j}の実験と本実験では使用した素性が異なるので直接的な比較はできないが,唯一両方の素性で実験されているCCアルゴリズムの結果を比較すると我々の素性の方が優れているように見える.係り受け正解率に関するマクネマー検定($p<0.01$)によると,トーナメントモデルはSRアルゴリズムおよびCCアルゴリズムに対して優位である.相対モデルに関しては出力が手元にないのでマクネマー検定は行えないが,係り受け正解率に関する符号検定($p<0.01$)によるとトーナメントモデルは相対モデル\shortcite{Kudo:2005j}より優位であった.一方,トーナメントモデルは「組み合わせ」モデル\shortcite{Kudo:2005j}を係り受け正解率において上回っているものの,符号検定によるとその差は有意ではなかった($p=0.014$)\footnote{「組み合わせ」モデルとは,CCアルゴリズムが近距離の係り受け関係に,相対モデルが遠距離の係り受け関係に強いことに着目し,係り関係の距離に基づいて両手法を使い分けるモデルである.距離の閾値はディベロップメントセットを用いて3と決めている.しかしながらトーナメントモデルの解析精度はCCアルゴリズムと比較して近距離・遠距離ともに上回っているため,このようなアドホックな組み合わせは不要と思われる.}.ただし,工藤ら\shortcite{Kudo:2005j}の実験で用いているlog-linearモデルはSVMに比べて訓練時間が短いが,精度の面では不利といえる.というのは,SVMは多項式カーネルによって組み合わせ素性が自動的に考慮されるが,log-linearモデルは明示的に組み合わせ素性を導入する必要があるからである.
\section{議論と今後の課題}
われわれのエラー分析によると,エラーの多くは並列構造に関係したものであった.颯々野\shortcite{Sassano:2004}は,各文節が並列構造のキー文節であるか否かを素性として入れることで解析精度が向上したと報告している.京大コーパスには係り受け関係のタグとして並列や同格がタグづけされているが,今回の実験ではこれらのタグは一切使用していないので,何らかの形で使用することで精度向上が期待できる.単純な導入法としては,各タグごとにone-vs-restSVMを作成し,係り先とタグを同時に決めるようにすることが考えられる.また,新保ら\shortcite{Shimbo:2007}のように,並列構造解析を係り受け解析の前処理として行う方法も考えられる.共起情報の導入によって精度向上を図ることも考えられる.一つの使い方としては,動詞--名詞の共起情報を,現在の格助詞素性のような形で入れることである.阿辺川ら\shortcite{Abekawa:2006}は$k$-best解を出力できる解析器の出力を,共起情報を用いてリランキングする手法を提案している.我々はすでにトーナメントモデルにおける$k$-best解出力アルゴリズムを考案しており,そのようなリランキング法の導入も検討している.トーナメントモデルを英語などの他の言語に対応させることも,別の課題としてあげられる.日本語は書き言葉においては左から右にしか係らないが,多くの言語にはこの制約はないため,係り先候補が係り元の左側にあるか右側にあるかを区別する仕組みが必要となる.単純な解決法としては,左右どちら側にあるかを識別できるようなモデル(素性名)にすることである.非交差制約の有無に関しては問題にならない.現在のアルゴリズムではわざわざ非交差制約を満たさないものを候補から除外しているので,この処理をなくすことで対応できる.また,日本語では文節列に対して解析を行っているが,たとえば英語において単語列に対して解析する場合には時間計算量$O(n^2)$の$n$が大きくなるため計算量の問題が深刻になる.この問題は,必要に応じて基本句同定を行うことで軽減できると考える.
\section{まとめ}
本稿ではトーナメントモデルを用いた日本語係り受け解析手法を提案した.トーナメントモデルは(係り元,候補1,候補2)の三つ組を同時に見て,係り元文節の最尤係り先候補を候補同士の一対一対戦で構成されるステップラダートーナメントによって決定する.この三つ組を同時に見ることによって,従来の(係り元,候補)のみを見るモデルと比べて素性による文脈識別能力の向上が期待できる.また,二つの候補を係り元に近い方の候補,遠い方の候補と区別することによって候補間の相対的な位置関係を把握できる.さらに決定的解析手法と比べると,すべての候補を考慮できるという長所がある.トーナメントモデルの解析精度はほとんどの実験設定において従来手法を有意に上回った.解析速度の面での問題はあるものの,二つ以上の候補を同時に見ることで解析精度を向上させる可能性を示した.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2006}]{Abekawa:2006}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2006\BBCP.\newblock\BBOQ{JapaneseDependencyParsingUsingCo-occurrenceInformationandaCombinationofCaseElements}\BBCQ\\newblockIn{\Bem{Proceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL2006)}},\mbox{\BPGS\833--840}.\bibitem[\protect\BCAY{Buchholz\BBA\Marsi}{Buchholz\BBA\Marsi}{2006}]{CoNLL-2006}Buchholz,S.\BBACOMMA\\BBA\Marsi,E.\BBOP2006\BBCP.\newblock\BBOQ{CoNLL-XSharedTaskonMultilingualDependencyParsing}\BBCQ\\newblockIn{\Bem{CoNLL-2006:ProceedingsoftheTenthConferenceonComputationalNaturalLanguageLearning}},\mbox{\BPGS\149--164}.\bibitem[\protect\BCAY{Chu\BBA\Liu}{Chu\BBA\Liu}{1965}]{Chu:1965}Chu,Y.~J.\BBACOMMA\\BBA\Liu,T.~H.\BBOP1965\BBCP.\newblock\BBOQ{Ontheshortestarborescenceofadirectedgraph}\BBCQ\\newblock{\BemScienceSinica},{\Bbf14},\mbox{\BPGS\1396--1400}.\bibitem[\protect\BCAY{Crammer\BBA\Singer}{Crammer\BBA\Singer}{2003}]{Crammer:2003}Crammer,K.\BBACOMMA\\BBA\Singer,Y.\BBOP2003\BBCP.\newblock\BBOQ{UltraconservativeOnlineAlgorithmsforMulticlassProblems}\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\951--991}.\bibitem[\protect\BCAY{Edmonds}{Edmonds}{1967}]{Edmonds:1967}Edmonds,J.\BBOP1967\BBCP.\newblock\BBOQ{Optimumbranchings}\BBCQ\\newblock{\BemJournalofResearchoftheNaturalBureauofStandards},{\Bbf71B},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{Eisner:1996}Eisner,J.~M.\BBOP1996\BBCP.\newblock\BBOQ{ThreeNewProbabilisticModelsforDependencyParsing:AnExploration}\BBCQ\\newblockIn{\Bem{COLING-96:Proceedingsofthe16thConferenceonComputationalLinguistics---Volume1}},\mbox{\BPGS\340--345}.\bibitem[\protect\BCAY{Iida,Inui,Takamura,\BBA\Matsumoto}{Iidaet~al.}{2003}]{Iida:2003}Iida,R.,Inui,K.,Takamura,H.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQ{IncorporatingContextualCuesinTrainableModelsforCoreferenceResolution}\BBCQ\\newblockIn{\BemEACLWorkshop`TheComputationalTreatmentofAnaphora'}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo:2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQ{JapaneseDependencyAnalysisUsingCascadedChunking}\BBCQ\\newblockIn{\Bem{CoNLL-2002:ProceedingsoftheSixthConferenceonComputationalLanguageLearning}},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{McDonald,Pereira,Ribarov,\BBA\Haji\^{c}}{McDonaldet~al.}{2005}]{McDonald:2005b}McDonald,R.,Pereira,F.,Ribarov,K.,\BBA\Haji\^{c},J.\BBOP2005\BBCP.\newblock\BBOQ{Non-projectiveDependencyParsingUsingSpanningTreeAlgorithm}\BBCQ\\newblockIn{\Bem{HLT-EMNLP-2005:ProceedingsoftheconferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLanguageProcessing}},\mbox{\BPGS\523--530}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre:2003}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQ{AnEfficientAlgorithmforProjectiveDependencyParsing}\BBCQ\\newblockIn{\Bem{IWPT-2003:8thInternationalWorkshoponParsingTechnology}},\mbox{\BPGS\149--160}.\bibitem[\protect\BCAY{Nivre,Hall,K\"{u}bler,McDonald,Nilsson,Riedel,\BBA\Yuret}{Nivreet~al.}{2007}]{CoNLL-2007}Nivre,J.,Hall,J.,K\"{u}bler,S.,McDonald,R.,Nilsson,J.,Riedel,S.,\BBA\Yuret,D.\BBOP2007\BBCP.\newblock\BBOQ{TheCoNLL2007SharedTaskonDependencyParsing}\BBCQ\\newblockIn{\Bem{CoNLL-2007:ProceedingsoftheCoNLLSharedTaskSessionofEMNLP-CoNLL-2007}},\mbox{\BPGS\915--932}.\bibitem[\protect\BCAY{Nivre\BBA\Nilsson}{Nivre\BBA\Nilsson}{2005}]{Nivre:2005}Nivre,J.\BBACOMMA\\BBA\Nilsson,J.\BBOP2005\BBCP.\newblock\BBOQ{Psuedo-ProjectiveDependencyParsing}\BBCQ\\newblockIn{\Bem{ACL-2005:Proceedingsof43rdAnnualMeetingoftheAssociationforComputationalLinguistics}},\mbox{\BPGS\99--106}.\bibitem[\protect\BCAY{Nivre\BBA\Scholz}{Nivre\BBA\Scholz}{2004}]{Nivre:2004}Nivre,J.\BBACOMMA\\BBA\Scholz,M.\BBOP2004\BBCP.\newblock\BBOQ{DeterministicDependencyParsingofEnglishText}\BBCQ\\newblockIn{\Bem{COLING-2004:Proceedingsofthe20thInternationalConferenceonComputationalLinguistics}},\mbox{\BPGS\64--70}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2004}]{Sassano:2004}Sassano,M.\BBOP2004\BBCP.\newblock\BBOQ{Linear-TimeDependencyAnalysisforJapanese}\BBCQ\\newblockIn{\Bem{COLING-2004:Proceedingsofthe20thInternationalConferenceonComputationalLinguistics}},\mbox{\BPGS\8--14}.\bibitem[\protect\BCAY{Shimbo\BBA\Hara}{Shimbo\BBA\Hara}{2007}]{Shimbo:2007}Shimbo,M.\BBACOMMA\\BBA\Hara,K.\BBOP2007\BBCP.\newblock\BBOQ{ADiscriminativeLearningModelforCoordinateConjunctions}\BBCQ\\newblockIn{\Bem{Proceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)}},\mbox{\BPGS\610--619}.\bibitem[\protect\BCAY{Yamada\BBA\Matsumoto}{Yamada\BBA\Matsumoto}{2003}]{Yamada:2003}Yamada,H.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQ{StatisticalDependencyAnalysiswithSupportVectorMachines}\BBCQ\\newblockIn{\Bem{IWPT-2003:8thInternationalWorkshoponParsingTechnology}},\mbox{\BPGS\195--206}.\bibitem[\protect\BCAY{内元\JBA村田\JBA関根\JBA井佐原}{内元\Jetal}{2000}]{Uchimoto:2000}内元清貴\JBA村田真樹\JBA関根聡\JBA井佐原均\BBOP2000\BBCP.\newblock\JBOQ後方文脈を考慮した係り受けモデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\3--17}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2005}]{Kudo:2005j}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ{相対的な係りやすさを考慮した日本語係り受け解析モデル}\JBCQ\\newblock\Jem{情報処理学会誌},{\Bbf46}(4),\mbox{\BPGS\1082--1092}.\bibitem[\protect\BCAY{金山\JBA鳥澤\JBA光石\JBA辻井}{金山\Jetal}{2000}]{Kanayama:2000}金山博\JBA鳥澤健太郎\JBA光石豊\JBA辻井潤一\BBOP2000\BBCP.\newblock\JBOQ3つ以下の候補から係り先を選択する係り受け解析モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\71--91}.\end{thebibliography}\begin{biography}\bioauthor{岩立将和}{2007年法政大学情報科学部コンピュータ科学科卒業.同年,奈良先端科学技術大学院大学情報科学研究科博士前期課程入学,現在に至る.}\bioauthor{浅原正幸}{1998年京都大学総合人間学部基礎科学科卒業.2001年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年より日本学術振興会特別研究員.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年同大学助教,現在に至る.博士(工学).自然言語処理の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,日本ソフトウェア科学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
| |
V21N03-02
|
\section{はじめに}
計算機技術の進歩に伴い,大規模言語データの蓄積と処理が容易になり,音声言語コーパスの構築と活用が盛んになされている.海外では,アメリカのLinguisticDataConsortium(LDC)とヨーロッパのEuropeanLanguageResourcesAssociation(ELRA)が言語データの集積と配布を行う機関として挙げられる.これらの機関では,様々な研究分野からの利用者に所望のコーパスを探しやすくさせるために検索サービスが提供されている.日本国内においても,国立情報学研究所音声資源コンソーシアム(NII-SRC)や言語資源協会(GSK)などの音声言語コーパスの整備・配布を行う機関が組織され,コーパスの属性情報に基づいた可視化検索サービスが開発・提供されている(Yamakawa,Kikuchi,Matsui,andItahashi2009,菊池,沈,山川,板橋,松井2009).コーパスの属性検索と可視化検索を同時に提供することで,コーパスに関する知識の多少に関わらず所望のコーパスを検索可能にできることも示されている(ShenandKikuchi2011).検索に用いられるコーパスの属性情報として,収録目的や話者数などがあるが,speakingstyleも有効な情報と考えられる.郡はspeakingstyleと類似の概念である「発話スタイル」が個別言語の記述とともに言語研究として重要な課題であると指摘している(郡2006).Jordenらによれば,どの言語にもスタイルの多様性があるが,日本語にはスタイルの変化がとりわけ多い(JordenandNoda1987).しかしながら,現状では,前述の機関では対話や独話などの種別情報が一部で提供されているに過ぎない.また,同一のコーパスにおいても話者や収録条件によって異なるspeakingstyleが現れている可能性もある.そこで,本研究ではspeakingstyleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるため,音声言語コーパスにおける部分的単位ごとのspeakingstyleの自動推定を可能にし,コーパスの属性情報としてより詳細なspeakingstyleの集積を提供することを目指す.Speakingstyleの自動推定を実現するためには,まずspeakingstyleの定義を明確にする必要がある.Joosは発話のカジュアルさでspeakingstyleを分類し(Joos1968),Labovはspeakingstyleが話者の発話に払う注意の度合いとともに変わると示唆した(Labov1972).Biberは言語的特徴量を用いて因子分析を行い,6因子にまとめた上で,その6因子を用いて異なるレジスタのテキストの特徴を評価した(Biber1988).Delgadoらはアナウンサーの新聞報道や,教師の教室内での発話など,特定の職業による発話を``professionalspeech''として提案し(DelgadoandFreitas1991),Cidらは発話内容が書かれたスクリプトの有無をspeakingstyleのひとつの指標にした(CidandCorugedo1991).Abeらは様々な韻律パラメータとフォルマント周波数を制御することにより小説,広告文と百科事典の段落の3種類のspeakingstyleを合成した(AbeandMizuno1994).Eskenaziは様々なspeakingstyle研究の考察からメタ的にspeakingstyleの全体像を網羅した3尺度を提案した(Eskenazi1993).Eskenaziは,人間のコミュニケーションは,あるチャンネルを通じて,メッセージが話し手から聞き手へ伝達されることであり,speakingstyleを定義する際,このメッセージの伝達過程を考慮することが必要であると主張した.その上で,「明瞭さ」(Intelligibility-oriented,以降Iとする),「親しさ」(Familiarity,以降Fとする),「社会階層」(soCialstrata,以降Cとする)の3尺度でspeakingstyleを定義した.「明瞭さ」は話し手の発話内容の明瞭さの度合いであり,メッセージの読み取りやすさ・伝達内容の理解しやすさや,読み取りの困難さ・伝達内容の理解の困難さを示す.又これは,発話者が意図的に発話の明瞭さをコントロールしている場合も含んでいる.「親しさ」は話し手と聞き手との親しさにより変化する表現様式の度合いであり,家族同士の親しい会話や,お互いの言語や文化を全く知らない外国人同士の親しくない会話などに現れるspeakingstyleを示す.「社会階層」は発話者の発話内容の教養の度合いであり,口語的な,砕けた,下流的な表現(社会階層が低い)や,洗練された,上流的な表現(社会階層が高い)を示している.話し手と聞き手の背景や会話の文脈によって変化する場合もある.ここで,本研究が目指すコーパス検索サービスにとって有用なspeakingstyle尺度の条件を整理し,Eskenaziの尺度を採用する理由を述べる.まず,一つ目の条件として,幅広い範囲のデータを扱える必要がある.音声言語コーパスは,朗読,雑談,講演などの様々な形態の談話を含み,それらは話者ごと,話題ごとなどの様々な単位の部分的単位により構成される.限られた種類の形態のデータからボトムアップに構築された尺度では,一部のspeakingstyleがカバーできていない恐れがある.Eskenaziの尺度は,様々なspeakingstyle研究の考察からメタ的に構築されたものであり,幅広い範囲のデータを扱える点で本研究の目的に適している.データに基づいてボトムアップに構築された他の尺度(例えば(Biber1988)など)の方が信頼性の点では高いと言えるが,現段階では網羅性を重視する.次に,二つ目の条件として,上述した目的から,コーパスの部分的単位ごとに付与できる必要がある.新聞記事,議事録,講演などのジャンルごとにspeakingstyleのカテゴリを設定する方法では,一つの談話内でのspeakingstyleの異なり・変動を積極的に表現することが困難である.一方,Eskenaziの尺度は必ずしも大きな単位に対象を限定しておらず,様々な単位を対象にした多くの先行研究をカバーするように構築されているため,この条件を満たす.最後に三つ目の条件として,日本語にも有効であることが求められる.(郡2006)や(JordenandNoda1987)から,speakingstyleの種類は言語ごとに異なると言え,特定の言語の資料に基づいてボトムアップに構築された尺度では,他の言語にそのまま適用できない恐れがある.Eskenaziの尺度はコミュニケーションモデルに基づいて特定の言語に依存することなく構築されたものであるため,本研究で対象とする日本語にも他の言語と同様に適用して良いものと考える.したがって本研究では,Eskenaziの3尺度を用いて音声言語コーパスの部分的単位ごとのspeakingstyle自動推定を行い,推定結果の集積をコーパスの属性情報として提供することを目指す.これによって,推定された3尺度の値を用いて,例えばコーパス内の部分的単位のspeakingstyle推定結果を散布図で可視化したり,所定の明瞭さ,親しさ,社会階層のデータを多く含むコーパスを検索するなどの応用を可能にする.以降,2章では,speakingstyle自動推定の提案手法について述べる.Speakingstyleの推定に用いる学習データを収集するための評定実験については3章で説明する.4章では評定実験結果の分析,speakingstyleの自動推定をするための回帰モデルの構築および考察を述べる.最後の5章ではまとめおよび今後の方向性と可能性の検討を行う.
\section{Speakingstyleの自動推定手法}
Speakingstyleの自動推定に寄与する要素として,イントネーションや時間構造などの音声的特徴と形態素や統語的構造などの言語的特徴との両方が考えられる.Eskenaziは,speakingstyleの先行研究のレビューに基づいて音声的特徴と言語的特徴の双方の重要性を述べている(Eskenazi1993).郡の調査(郡2006)によって示された日本語の口調(speakingstyleと類似の概念)には,「ですます口調」や「漢文口調」など主に書きことばとしてのスタイルや言語形式によって特徴づけられるものが数多くあげられている.これらから,本研究ではspeakingstyleを扱ううえでまず言語的特徴に焦点を当てる.一方,自然言語処理の分野においては,言語的特徴を手がかりとしたテキストに対する文体・ジャンルの判別や著者推定などの研究が多く行われ,比較的精度の高い成果が得られている.小磯らは現代日本語書き言葉均衡コーパスと日本語話し言葉コーパスにおける7つのサブコーパス(白書,新聞,小説,Yahoo!知恵袋,国会議事録,学会講演,模擬講演)に対して,漢語率,名詞率,接続詞率,副詞率,形容詞率,機能語率を手がかりとする判別分析を行い,約80%の精度でサブコーパスの分類が可能であることを示した(小磯,小木曽,小椋,宮内2009).小山らは形態素出現パタンを手がかりとし,学会における研究発表抄録データの類似性を評価し,いくつかの異なる学会間の類似度をほぼ再現する距離尺度を構成できることを示唆した(小山,竹内2008).Mairesseらは言語的手がかりをパーソナリティの自動認識に用いることを試み,複数の機械学習の手法によって精度の比較と有効な特徴量の検討を行った(Mairesse,Walker,Mehl,andMoore2007).これらの研究においては,品詞・語種率と形態素パタンなどの形態論的特徴を特徴量とした方法が有効であることがわかった.上述の理由と先行研究を踏まえた上で,我々はまず音声言語データの形態論的特徴から着手し,従来のテキストの文体・ジャンル判別の手法を用い,音声に付随する書き起こしテキスト(本論文では転記テキストと呼ぶ)に着目したspeakingstyle推定モデルを構築することにより,speakingstyleの自動推定を試みる.音声的特徴については,上述したようにspeakingstyleの推定に有用な特徴であり,今後の導入を検討しているが本稿では扱わない.前述した音声言語コーパスの検索サービスにおいて,形態論的特徴のみに基づくspeakingstyle推定結果を提供することも,例えば形態論的側面に焦点を当てた日本語教育に用いる資料や,話し言葉における言語情報の話者性変換技術(水上,Neubig,Sakti,戸田,中村2013)などの学習データを求めるような需要に応えることが可能と考える.Speakingstyle推定モデルの構築の具体的な流れを図1を用いて説明する.\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f1.eps}\end{center}\caption{Speakingstyle推定モデルの構築の流れ}\end{figure}まず,speakingstyleの異なる様々な音声言語コーパスから音声の転記テキストを選出し(3.2.1節詳述),speakingstyleの最も安定する部分と思われる最中部の約300字程度のテキストを抽出する(3.2.2節).続いて抽出したテキストに対し,Eskenaziのspeakingstyleの3尺度を用いてspeakingstyle推定モデルの構築に用いる学習データを収集するための評定を行う(3.3節).同時に,UniDicを辞書として用いたMeCabで形態素解析を行い,品詞・語種率,形態素パタンを特徴量として抽出する(4.1節).評定実験で得られた評定結果の平均を求め,3尺度の学習データとする.最後に重回帰分析により3尺度それぞれの回帰モデルを求め,speakingstyle推定モデルとする(4.2節).構築したspeakingstyle推定モデルを用いて,任意の転記テキストに対して,speakingstyleを自動推定することが可能になる.
\section{評定実験}
本章では,2章で述べた評定実験の詳細について述べる.\subsection{評定者}本評定は,情報科学を専門とした大学生男女22名(その内男性は15名)の評定者による.全ての評定者は本研究に関わっていない.\subsection{刺激}刺激には音声言語コーパス内の転記テキストを使用する.\subsubsection{音声言語コーパス}Speakingstyleの多様さと実験のコストの両方を考慮した上で,本評定実験で使用する音声の転記テキストを,以下の6種類の音声言語コーパス(カテゴリ)から収録条件や話者の役割などによっての違いを区別せず,それぞれ10サンプルずつ無作為に選出した.\noindentI.日本語話し言葉コーパス(前川,籠宮,小磯,小椋,菊池2000)-講演(CSJ1と呼ぶ)日本語話し言葉コーパス(theCorpusofSpontaneousJapanese,CSJ)は,日本語の自発音声を大量に集めて多くの研究用情報を付加した,質・量ともに世界最高水準の話し言葉研究用のデータベースである.本研究では,CSJに収録された多様なspeakingstyleの中でも,特に学会講演及び模擬講演を対象とする.\noindentII.日本語話し言葉コーパス-インタビュー(CSJ2と呼ぶ)Iと同じくCSJから選出した,インタビュー形式の対話である.講演音声と対話音声のspeakingstyleは著しく異なると思われるので,今回の実験目的を考慮し,別のカテゴリとした.なお,インタビュアーとインタビュイーの発話を区別しないことにした.このコーパス(カテゴリ)は対面の自由対話である.\noindentIII.新入生対話コーパス(中里,大城,菊池2013)(FDCと呼ぶ)大学の研究室に所属の大学生同士の間の自由対話を収録したコーパスである.本コーパスは低親密度の二人の対話音声が,時間経過および二人の親密性の向上とともにどのように変化するのかを調べることを目的としている.このコーパスは大学生同士の間の自由対話である.\noindentIV.車載環境における質問応答の対話コーパス(宮澤,影谷,沈,菊池,小川,端,太田,保泉,三田村2010)(AUTOと呼ぶ)本コーパスは,模擬車内環境でドライビングゲームをプレイしたドライバー役被験者と,同乗してナビゲーションを行ったナビゲーター役被験者に対して,走行実験終了後に,実験中の動画を見せながら感想やナビゲーションの的確さをインタビューした際の対話音声である.質問がほぼ決まっているため,対話内容が定型文に近く,自由度の低い対話である.なお,インタビュアーとインタビュイーの発話を区別しないことにした.\noindentV.千葉大地図課題対話コーパス(堀内,中野,小磯,石崎,鈴木,岡田,仲,土屋,市川1999)(MAPTASKと呼ぶ)地図課題を遂行するための対話コーパスである.地図課題とは,目標物と経路の描かれた地図を持つ話者(情報提供者)が,目標物のみ描かれた地図を持つ話者(情報追随者)に対し,ルートを教えるという課題である.なお,情報提供者と情報追随者の発話も,話者の面識あり・面識なしなどのパラメータも区別しないことにした.このコーパスは課題による対話である.\noindentVI.研究室メンバー同士の対話コーパス(岩野,杉田,松永,白井1997)(TRAVELと呼ぶ)旅行の計画を立てるため,二人の研究室メンバーの間で交わされた対話を収録したコーパスである.このコーパスは高親密度な大学生同士の対話者の間の対面対話である.\subsubsection{転記テキストの加工}上述の6種類のコーパス(カテゴリ)から10個ずつ合計60個の音声サンプルを無作為に選出する.なお,対話に関しては,話者ごとに一つのサンプルとした.CSJ2は話者数が少ないため,結果として4話者のデータが2サンプル以上選択されていた.これ以外について話者の重複はなかった.\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f2.eps}\end{center}\caption{転記テキストからの刺激作成(例)}\end{figure}Speakingstyleの最も安定する部分を抽出するため,上記の各音声に付随する転記テキスト中部約300字(約1分の音声の転記量に相当し,speakingstyleの知覚に十分だと考えるため)のテキストを切り出す.なるべく発話の内容の影響を避け,speakingstyleだけで評定するよう,テキストの名詞(代名詞は除く)の部分を全て「$\bigcirc\bigcirc$」に自動変換した(図2参照).名詞の表現の使い分け(例えば「マイク」と「マイクロホン」など)もspeakingstyleの一つと扱えるが,名詞を刺激にそのまま表示すると,本来speakingstyleとは独立させるべき話題内容が明確に伝わってしまう恐れがある.したがって,データの話題内容によらないspeakingstyleを推定することを目指すために,話題を強く想起させ得る名詞(代名詞以外)を伏せることにした.なお,転記テキストにある時間情報,フィラー,言いよどみ,笑い,咳などの情報を消し,書式を統一し,図2に例を示したような仮名漢字文字の表記に揃えた上で評定の刺激とした.\subsection{評定方法}\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f3.eps}\end{center}\caption{評定実験で用いた教示の例}\end{figure}本評定にはSD法を用いる.一つのテキストを読んだ後,3尺度のそれぞれについて7段階で評定してもらう.「明瞭さ」に関して,不明瞭の場合を1,明瞭の場合を7,「親しさ」に関して,親しくない場合を1,親しい場合を7,「社会階層」に関して,低い場合を1,高い場合を7とする.評定はウェブブラウザ上のアンケートページを介して行う.評定の前に,尺度についての詳細説明をよく読むように指示した.刺激用の転記テキストはランダマイズして提示する.テキストを読み終えてから評定するように指示し,評定中何度でも読み直して良いとした.なお,評定実験に先立って,3名の評定者(評定実験の被験者には含まれない)による予備実験を行い,3尺度に関しての説明の妥当性および評定の安定性を確認した.その結果,3尺度I,F,Cの級内相関係数(IntraclassCorrelationCoefficient,ICC)(Koch1982)のICC(2,1)(評定者間の信頼性)はそれぞれ0.50,0.79と0.82であり,Landisら(LandisandKoch1977)によれば,Iは``moderate'',Fは``substantial'',Cは``almostperfect''であるため,予備実験における評定者間の信頼性が高いことを確認できた.3尺度に関しての説明を若干修正した上で評定実験を行った.評定実験で用いた教示の例を図3に示す.\subsection{評定結果}3尺度は独立した尺度であることを想定しているが,全22名の評定者の評定結果に基づいて尺度間の相関係数を求めたところ,明瞭さIと親しさFの相関係数が$-0.27$,明瞭さIと社会階層Cが0.48,親しさFと社会階層Cが$-0.55$であった.明瞭さIと親しさFの相関は弱いが,社会階層Cと明瞭さI・親しさFとの間には中程度の相関が見られた.Eskenaziは3尺度の独立性については特に言及していないが,今回の実験で日本語を対象としたため,一部に3尺度の独立性が見受けられないことは,日本語での話し方や発話内容の教養度が話者の間の関係に影響されるという傾向によるものだと考えられる.1章で述べた音声言語コーパス検索サービスでの応用を考えると,属性情報による絞り込み検索や可視化検索などにおいて必ずしも属性間の独立性を保証する必要はないため,尺度の間に相関があっても大きな支障はないと考える.\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f4.eps}\end{center}\caption{Speakingstyle評定結果の二次元散布図(全評定者の評定結果の平均による)}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{21-3ia994f5.eps}\end{center}\caption{刺激ごとの評定結果の平均(左上はI,右上はF,下はC)}\end{figure}6コーパス(カテゴリ)のspeakingstyle評定値が実際にどのように分布してコーパスの特性と合致しているかを見るために,全22名の評定者の評定結果の平均を用い,IとF(図4の左上),FとC(図4の右上),IとC(図4の下部)のそれぞれの2次元散布図と箱ひげ図(図5)\linebreakを作成した.図4において,CSJ1は他のコーパス(カテゴリ)に比べてIが高く分布している(有意水準5%のt検定によって,MAPTASKを除いて有意).図5の平均値でもCSJ1は最も高い.これは,CSJ1が講演音声であり話者が明瞭な発話を意識しているためと考えられる.CSJ2は,CSJ1と比べてFが高くCが低く分布している(t検定によって有意傾向が見られ,図5の平均値についても同様の傾向).これは,CSJ2がCSJ1と異なり,講演話者へのインタビューであり,対話の形をとることによると考えられる.FDCはCが低く分布している(有意水準5%のt検定によって,図5の平均値ではTRAVELについで2番目に有意に低い).これはFDCは大学生同士の間の自由対話であることによると考えられる.AUTOはFが低く分布している(有意水準5%のt検定によって,CSJ1を除いて有意,図5の平均値においても同様の傾向).これはAUTOは実験者と被験者との間の自由度の低い対話であることによると考えられる.MAPTASKは,Iが広く分布し,同じ課題対話であるAUTOと比較してFやIも広く分布している.これは,MAPTASKが話者の面識ありとなしの両方を含むことによると考えられる.TRAVELは他のコーパス(カテゴリ)に比べてIが低くFが高く分布している(有意水準5%のt検定によって,FDC(Iのみ)を除いて有意,図5の平均値においても同様の傾向).これは対話者同士が同じ研究室の大学生であることに加えて,同じ大学生同士のFDCよりも高親密度であることによると考えられる.以上のことから,3.2.1節で述べた各コーパス(カテゴリ)のspeakingstyleに関する特性が評定値の分布に現れているといえる.一方,3.2.1節で述べたように,speakingstyleが多様になることを意図して6コーパス(カテゴリ)を選び,上述の考察から予想されたように評定値が分布しており多様なデータを確保できたと言える.しかし,例えばIとFの評定値がともに高い刺激などは少なく,他にもスパースな象限が複数見られる.今後,より多様なコーパスを扱い,本研究の手法の有効性を検証する必要がある.なお,評定値の安定性を確認するために,3尺度の級内相関係数(Koch1982)を算出した.3尺度I,F,CのICC(2,1)(評定者間の信頼性)はそれぞれ0.11,0.53と0.35であり,ICC(2,k)(平均の信頼性)は0.72,0.96と0.92であった.Landisら(LandisandKoch1977)によれば,ICCの目安として,0.0--0.20が``slight'',0.21--0.40が``fair'',0.41--0.60が``moderate'',0.61--0.80が``substantial'',0.81--1.00が``almostperfect''とされている.これにしたがえば,ICC(2,1)においてFとCは許容範囲内の信頼性といえ,また評定者数が多いことに起因してICC(2,k)においてI,F,Cのいずれも評定値の平均の信頼性が高く,モデル構築に用いて良いと考える.なお,本研究が目指すコーパス検索サービスのための尺度としては,評定者によって大きく異ならないものであることが望ましく,上記の結果からIの尺度はこのままでは検索用途に適さない.今後,尺度の説明の見直しなど,検討の必要がある.
\section{Speakingstyle推定モデルの構築}
3章で述べた評定実験によって得られた評定結果と刺激に用いたテキストに現れた特徴量によってモデル構築を行う.\subsection{特徴量抽出}2章で述べた理由で,本研究では主に品詞・語種率,形態素パタンなどの形態論的特徴を特徴量とする.\subsubsection{形態素解析}3章で述べた60転記テキストに対し,UniDic(伝,小木曽,小椋,山田,峯松,内元,小磯2007)を辞書として用いたMeCabで自動解析する.\subsubsection{品詞・語種率}各コーパス(カテゴリ)の品詞・語種率(感動詞int,助動詞aux,動詞v,接頭詞pref,副詞adv,代名詞pron,接続詞conj,助詞par,形容詞adj,連体詞adno,機能語funcの合計11種)を箱ひげ図で示す(図6参照).図6の縦軸は品詞・語種率の割合であり,横軸は左からCSJ1,CSJ2,FDC,AUTO,MAPTASK,TRAVELの順に6コーパス(カテゴリ)ごとの結果を示している.なお,個々の品詞・語種率は,転記テキストごとの延べ語数に対する各品詞・語種の延べ語数の割合として求めた.図6に示したように,品詞・語種率の傾向はコーパス(カテゴリ)ごとに異なることがわかった.例えば,AUTOやMAPTASKのような自由度の低い発話のコーパス(カテゴリ)に比べて,CSJ2,FDC,TRAVELのような相対的に自由度の高い発話のコーパス(カテゴリ)の代名詞(pron)の割合が高い(有意水準5%のt検定によって有意)ことや,AUTOのような定型文に近く自由度の低い対話のコーパス(カテゴリ)の助動詞(aux)の割合が高い(有意水準5%のt検定によって有意)ことなど,品詞・語種率が特徴量としてspeakingstyleの自動推定に寄与する見込みがあることを示している.\begin{figure}[p]\begin{center}\includegraphics{21-3ia994f6.eps}\end{center}\hangcaption{コーパス(カテゴリ)ごとの品詞・語種率(転記テキストごとの延べ語数に対する各品詞・語種の延べ語数の割合を縦軸とした箱ひげ図)}\vspace{2\Cvs}\end{figure}\subsubsection{形態素パタン}小山らによると,文章に出現する形態素パタンが文章間の類似性を定量化するための特徴量として有効である(小山,竹内2008).沈らは日本語話し言葉コーパスの転記テキストから主に形態論情報や統語論情報などの言語的特徴を手がかりとし,印象形成に寄与すると思われる特徴を43パタン抽出した(沈,菊池,太田,三田村2012).沈らが用いた特徴は全て音声コーパスの転記テキストから抽出したものであり,今回の推定対象となったコーパスの転記テキストの性質と一致している.金水によれば,ある種の日本語の話し方(speakingstyleと類似の概念)は,その話し手として,特定の人物像を想起させる力を持つ発話スタイルのことを「役割語」と名づけた(金水2011).したがって,speakingstyleと特定のキャラクタ像の形成との間に関連はあるものと考え,これらのパタンを本研究に用いた.そのため,我々はこの43パタンについて,3章の評定実験に使用する転記テキストに現れた23パタンの出現数を本研究における使用特徴量とした(表1参照).なお,刺激ごとに形態素数が異なるため,刺激内のパタン出現数を刺激内の形態素数で正規化した.\begin{table}[t]\caption{形態素パタン}\input{0994table01.txt}\vspace{4pt}\small(形態素パタンの記法は「出現形[辞書形](品詞)」の形式で1形態素を表し,``.''は任意の1文字以上の文字列を表し,``A\textbarB''は「AまたはB」を表す.)\par\end{table}\subsection{モデルと考察}Speakingstyleの自動推定をするため,重回帰分析により推定モデルを構築した.分析には,ステップワイズ変数選択(変数減増法)\footnote{具体的には,統計ソフトRのstep関数を用いる.まず全変数を取り込んでAICを最も改善させる一つの変数を削除する.次にAICが最も改善するように一つの変数を削除あるいは追加する.削除しても追加してもAICが改善しないなら止める.}の手法で,各コーパス(カテゴリ)の品詞・語種率と形態素パタンを説明変数とし,評定実験の結果の平均を目的変数として最適なモデルを求めた.もとめたモデルの有意性を検定するために,「全ての偏回帰係数がゼロである」という帰無仮説を立てたF検定を行った.その結果,3尺度共に有意水準1%でモデルの有意性が証明された.\begin{table}[t]\caption{交差検定(leave-1-out)の結果(決定係数/調整済決定係数)}\input{0994table02.txt}\end{table}さらに,モデルの信頼性を確認するため,交差検定(leave-1-out)によりモデルの決定係数(MontgomeryandPeck1982)を求めた.その結果を表2に示す.表2に示した結果は,ことわりのない限り全て,テストデータと同一コーパスの他データを学習データに含めて交差検定を行った結果であるが,交差検定の際に同一コーパスの他データを学習データに含めるかどうかを応用目的に照らして検討する必要がある.同一コーパスの他データを学習データに含めた場合の交差検定(leave-1-out)は,同一コーパスの他データの評定値が部分的に既知である場合に相当する.実際の応用において,推定精度をあげるためにコーパス内の一部の部分的単位に人手で推定結果を与えてモデル学習に利用することは充分考えられる.そこで,この方法の交差検定結果を表2の「全特徴量」に示した.一方で,同じコーパスの他データを学習データに含めない場合の交差検定(leave-1-out)は,同一コーパスの評定値が全て未知である場合に相当する.実際の応用においてこうしたケースもあり得るため,この方法の交差検定結果を「全特徴量(同一コーパスを含めない)」に示した.3.2.1節に述べたように,評定実験ではspeakingstyleの多様さと実験のコストの両方を考慮した上で,60サンプルを評定の刺激としたが,モデル構築のためのサンプルとしては少ないことが懸念される.サンプル数の少なさの影響を考慮するために自由度調整済決定係数を求めたところ,同一コーパスが学習データとして存在する場合,Iは0.37,Fは0.81,Cは0.66であった.1章で述べたとおり,本研究では,一つのコーパスに対して複数の部分的単位ごとの推定結果の集積が利用されることを想定しており,全ての部分的単位に対して正しく推定できていなくても,50%以上の部分的単位を説明できることに相当する推定精度(決定係数0.50以上)があれば,1章に述べたような応用は実現可能と考える.FとCの決定係数は0.50を大きく上回っているため応用には十分と考える.全特徴量(同一コーパスを含めない)の場合,すなわち,未知のコーパスの場合,自由度調整済決定係数はIが0.13,Fが0.74,Cが0.52であり,精度が下がるが,F,Cはやはり0.5を超えているため応用にとって有効と考える.Iについてはいずれの場合も推定の精度が高くなく,またCについては今後さらなる改善が必要と考える.さらに,表2には品詞・語種率のみと形態素パタンのみを使用した場合の決定係数を示す.この結果から,3尺度ともに,品詞・語種率と形態素パタンの両方を使用した場合のモデルの精度は,それぞれを単独で使用した場合よりも高いことがわかり,両方を特徴量として用いることの有効性が示された.\begin{table}[p]\begin{center}\rotatebox[origin=c]{90}{\begin{minipage}{571pt}\caption{選択された説明変数と重回帰分析結果における偏回帰係数}\input{0994table03.txt}\smallSignif.codes:0``***'',0.001``**'',0.01``*'',0.05``,'',0.1``''\\形態素パタンの記法は「出現形[辞書形](品詞)」の形式で1形態素を表し,``.''は任意の1文字以上の文字列を表し,``A\textbarB''は「AまたはB」を表す.\end{minipage}}\end{center}\end{table}表3に選択された説明変数とその偏回帰係数を示す.Fのモデルにおいて,形態素パタン「.[です](助動詞)\textbar.[ます](助動詞)」の偏回帰係数は2番目に絶対値が大きく,です・ます調の出現はFのモデルに負の働きがあるといえる.これは,心的距離が近ければ普通体を用いることが多い(川村1998)といった先行研究と対応付いている.4番目の「.[ちゃう](助動詞)」(例:行っちゃう)などの音の変化形の出現(川村1998)もFのモデルに大きく貢献することがわかった.他にも,3番目の「よ[よ](助詞)」(例:よ),6番目の「ね[ね](助詞)」(例:ね)のような終助詞の出現がFのモデルに正に働くことがわかった.「よ」や「ね」などの終助詞は,会話を親しげにしたり,同意を求める雰囲気にしたりする機能を持つという先行研究(川崎1989)の主張と対応付いている.Cのモデルにおいては,形態素パタン「.[けれど](助詞)も[も](助詞)」の偏回帰係数が最も大きく,「けれども」などの出現がCのモデルに正の働きがあるとわかった.このことは「けれども」などがよく改まった会話に用いられるという指摘(川村1994)と一致している.ほかにも,5番目の「連体詞率」などの形態素パタンがCのモデルに大きく貢献することがわかった.
\section{おわりに}
本研究では,speakingstyleに関心を持つ利用者に所望の音声言語コーパスを探しやすくさせるために,音声言語コーパスのspeakingstyleを自動推定して属性情報として付与することを目指す.本研究では,従来のテキストの文体・ジャンル判別の手法を用い,音声に付随する転記テキストの形態論的特徴を手がかりとし,speakingstyle推定モデルを構築することにより,speakingstyleの自動推定を試みた.先行研究より,speakingstyleを「明瞭さ」(\underline{I}ntelligibility-oriented),「親しさ」(\underline{F}amiliarity),「社会階層」(so\underline{C}ialstrata)の3尺度で定義し,6コーパス(カテゴリ)から選出した音声の転記テキストを刺激とし,speakingstyleの評定を行った.評定実験によって得られた評定結果の分布がコーパスの特性と合致していることを確認した上で,重回帰分析を行い,speakingstyleにおける3尺度のそれぞれの回帰モデルを求めた.モデル構築の際,テキストの文体・ジャンル判別や著者推定などの従来手法において重要性が確認されている品詞・語種率以外に,文書分類や印象形成に有効だと思われる形態素パタンを特徴量として導入した.交差検定を行った結果,特に同一コーパスのサンプルが学習データとして使用できる場合には,本研究の提案手法によって3尺度中FとCのspeakingstyle評定値を高い精度で推定できることを確認した.本稿では,言語的特徴としてまず形態論的特徴に絞って扱ったが,係り受け情報のような統語的特徴もspeakingstyleの推定に役立つ可能性がある.今後,こうした特徴を加えて推定精度の向上を目指す.本研究で提案したspeakingstyleの自動推定手法によって,コーパスの部分的単位ごとのspeakingstyleを推定した結果はコーパス全体のspeakingstyleの判断材料となる.今後の方針として,speakingstyle推定モデルを用いて,一つのコーパスに付随する転記テキストに対してspeakingstyleを自動推定した上で,3尺度の空間上でそのコーパス全体のspeakingstyleを可視化できるようにすることを目指す.また,本研究の成果を外国語教育分野において,speakingstyleの習得支援に生かせるようにする予定である.\begin{thebibliography}{}\itemAbe,M.andMizuno,H.(1994).``SpeakingStyleConversionbyChangingProsodicParametersandFormantFrequencies.''In\textit{ProceedingsoftheInternationalConferenceonSpokenLanguageProcessing},pp.1455--1458.\itemBiber,D.(1988).\textit{VariationAcrossSpeechandWriting}.CambridgeUniversityPress.\itemCid,M.andFernandezCorugedo,S.G.(1991).``TheConstructionofaCorpusofSpokenSpanish:PhoneticandPhonologicalParameters.''In\textit{ProceedingsoftheEuropeanSpeechCommunicationAssociationWorkshop},\textbf{17},pp.~1--5.\itemDelgado,M.R.andFreitas,M.J.(1991).``TemporalStructuresofSpeech:ReadingNewsonTV.''In\textit{ProceedingsoftheEuropeanSpeechCommunicationAssociationWorkshop},\textbf{19},pp.~1--5.\item伝康晴,小木曽智信,小椋秀樹,山田篤,峯松信明,内元清貴,小磯花絵(2007).コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.日本語科学,\textbf{22},pp.~101--122.\itemEskenazi,M.(1993).``TrendsinSpeakingStylesResearch.''In\textit{ProceedingsofEurospeech},pp.~501--509.\itemEuropeanLanguageResourcesAssociation(ELRA).\texttt{http://www.elra.info/}\item言語資源協会(GSK).\texttt{http://www.gsk.or.jp/index\textunderscoree.html}\item堀内靖雄,中野有紀子,小磯花絵,石崎雅人,鈴木浩之,岡田美智男,仲真紀子,土屋俊,市川熹(1999).日本語地図課題対話コーパスの設計と特徴.人工知能学会誌,\textbf{14}(2),pp.261--272.\item岩野裕利,杉田洋介,松永美穂,白井克彦(1997).対面および非対面における対話の違い〜頭の振りの役割分析〜.情報処理学会研究報告,\textbf{97}(16),pp.105--112.\itemJoos,M.(1968).``TheIsolationofStyles.''InFishman,J.A.(Ed.),\textit{ReadingsintheSociologyofLanguage},pp.185--191.TheHague:Mouton.\itemJorden,E.andNoda,M.(1987).\textit{JapanesetheSpokenLanguage}.NewHaven{\&}London:YaleUniversityPress.\item川村よし子(1994).上級クラスにおける表現の指導—「改まり度」に応じたことばの使い分け—.講座日本語教育,\textbf{29},pp.120--133.\item川村よし子(1998).目上に対して「親しさ」を表す会話のストラテジー.講座日本語教育,\textbf{33},pp.1--19.\item川崎晶子(1989).日常会話のきまりことば.日本語学,\textbf{8}(2).\item菊池英明,沈睿,山川仁子,板橋秀一,松井知子(2009).音声言語コーパスの類似性可視化システムの構築.日本音響学会秋季研究発表会講演論文集,pp.441--442.\item金水敏(2011).``現代日本語の役割語と発話キャラクタ.''金水敏(編),役割語研究の展開,pp.~7--16.くろしお出版.\itemKoch,G.G.(1982).``IntraclassCorrelationCoefficient.''InKotzS.andJohnsonN.~L.(Eds.)\textit{EncyclopediaofStatisticalSciences},\textit{Vol.4},pp.213--217.NewYork:JohnWiley\&Sons.\item小磯花絵,小木曽智信,小椋秀樹,宮内佐夜香(2009).コーパスに基づく多様なジャンルの文体比較—短単位情報に着目して—.言語処理学会年次大会発表論文集,pp.594--597.\item国立情報学研究所音声資源コンソーシアム(NII-SRC).\texttt{http://research.nii.ac.jp/src/}\item郡史郎(2006).日本語の「口調」にはどんな種類があるか.音声研究,\textbf{10}(3),pp.52--68.\item小山照夫,竹内孔一(2008).形態素出現パタンに基づく文書集合類似性評価.情報処理学会研究報告自然言語処理研究会報告,\textbf{2008}(113),pp.51--56.\itemLabov,W.(1972).``TheIsolationofContextualStyles.''InLabov,W.(Ed.)\textit{SociolinguisticPatterns},pp.70--109.Oxford:BasilBlackwell.\itemLandis,J.R.andKoch,G.G.(1977).``TheMeasurementofObserverAgreementforCategoricalData.''\textit{Biometrics},\textbf{33},pp.159--174.\itemLinguisticDataConsortium(LDC).\texttt{http://www.ldc.upenn.edu/}\item前川喜久雄,籠宮隆之,小磯花絵,小椋秀樹,菊池英明(2000).日本語話し言葉コーパスの設計.音声研究,\textbf{4}(2),pp.51--61.\itemMairesse,F.,Walker,M.A.,Mehl,M.R.,andMoore,R.K.(2007).``UsingLinguisticCuesfortheAutomaticRecognitionofPersonalityinConversationandText.''\textit{JournalofArtificialIntelligenceResearch},\textbf{30},pp.457--500.\item宮澤幸希,影谷卓也,沈睿,菊池英明,小川義人,端千尋,太田克己,保泉秀明,三田村健(2010).自動車運転環境下におけるユーザーの受諾行動を促すシステム提案の検討.人工知能学会誌,\textbf{25}(6),pp.723--732.\item水上雅博,Neubig,G.,Sakti,S.,戸田智基,中村哲(2013).話し言葉の書き起こし文章の話者性の変換.人工知能学会全国大会論文集,pp.1--4.\itemMontgomery,D.C.andPeck,E.A.(1982).\textit{IntroductiontoLinearRegressionAnalysis(2ndedition)},NewYork:JohnWiley{\&}Sons.\item中里収,大城裕志,菊池英明(2013).音声対話における親密度と話し方の関係.電子情報通信学会技術研究報告,\textbf{112}(483),pp.109--114.\itemShen,R.andKikuchi,H.(2011).``ConstructionoftheSpeechCorpusRetrievalSystem:CorpusSearch{\&}Catalog-Search.''In\textit{ProceedingsofOrientalCOCOSDA},pp.76--80.\item沈睿,菊池英明,太田克己,三田村健(2012).音声生成を前提としたテキストレベルでのキャラクタ付与.情報処理学会論文誌,\textbf{53}(4),pp.1269--1276.\itemYamakawa,K.,Kikuchi,H.,Matsui,T.,andItahashi,S.(2009).``UtilizationofAcousticalFeatureinVisualizationofMultipleSpeechCorpora.''In\textit{ProceedingsofOrientalCOCOSDA},pp.~147--151.\end{thebibliography}\begin{biography}\bioauthor{沈睿}{2005年中国華東師範大学中国語教育学科卒,2009年早大大学院修士課程了.同年同大学院博士課程入学.2012年より早大人間科学学術院助手.音声言語コーパス,言語教育の研究に従事.言語処理学会会員.}\bioauthor{菊池英明}{1991年早大・理工・電気卒,1993年同大大学院修士課程了.同年株式会社日立製作所中央研究所入社.早大理工総研助手,国立国語研究所非常勤研究員,早大人間科学部非常勤講師・専任講師・准教授を経て,2012年より早大人間科学学術院教授.博士(情報科学).音声言語,音声対話,ヒューマン・エージェント・インタラクションの研究に従事.人工知能学会,日本音響学会,ヒューマンインタフェース学会,情報処理学会,電子情報通信学会等会員.}\end{biography}\biodate\end{document}
| |
V26N03-01
|
\section{はじめに}
近年,CPUが1.2~GHz程度で主記憶が1~GB程度だが安価な小型計算機が広く利用されている.その小型計算機では様々なサービスが提供されている.キーボードなどの入力装置を有しない状態で使用される際に,小型計算機に指示を出す手段として,言葉による命令があげられる.ここで,車載器のように屋外環境での使用が想定される場合,インターネットの常時接続が期待できない.また,個人利用においてはスタンドアロンが望ましい.そのため,言語処理を小型計算機上で行うことが要求される.小型計算機での言語処理への要件が幾つかある.一つは,サービスを操作する命令文は規定の文であれば確実に受理されることがユーザに約束できることである.サービスに応じて語義が区別されることが必要である.つまり,あるサービスにおいてはキーとなる用語であっても,別のサービスにおいてはキーにならないことが区別されることである.したがって,語義解析やチャンキングを行う際,サービスに依存することが必要である.また,一つは,少し言い回しの外れた文であっても受理されることである.単純なパターンベースの解析手法では対応がとりにくい.最後の一つは,受理されなかった言い回しは,サービスの利用中に,受理に向けて学習されることである.サービスのためにCPUと主記憶の計算リソースを残しておく必要があるため,言語の解析,および,追加的に行う学習は軽量でなければならない.関連研究として,対話処理において,対話行為を識別する手法が提案された.識別における有力な素性は,単語n-gram,および,直前の発話の対話行為である.対話行為毎に詳細な素性の選択を行うことで,対話行為の識別性能の向上が示された\cite{Fukuoka_2017}.対話行為識別(意図解析)の後段での応答処理のために,発話文からの情報抽出が必要である.その一つがスロットフィリングである.スロットフィリングは,確率有限状態トランスデューサ,識別器に基づく系列ラベリング,条件付き確率場ConditionalRandomFields(CRF)の3つの解法の中でもCRFが良好に動作することが示された\cite{Raymond_2007}.近年では,意図解析,スロットフィリングおよび言語モデリングを同時に行う手法が提案された\cite{Liu_2016}.この手法では,RecurrentNeuralNetwork(RNN)により単語n-gram相当の特徴を含む情報を参照した意図解析が行われた.同時に,単語単位での系列ラベリングに相当する働きにより,単語とスロットとの対応が識別されることで,スロットフィリングが行われた.意図解析とスロットフィリングが同時に尤最もらしいことが評価されるため,全体の識別性能が向上したものと解釈できる.なお,Embeddingからの単語ベクトルと,前時刻(単語単位)からの意図クラスとが合わさることで,意図毎(対話行為毎)の素性選択に相当する語彙識別が働いた可能性がある.Liuらの手法を改良したRNNを用いることについて,日本語文における解析性能が報告された\cite{Nagai_2018}.RNNの双方向性,Attentionモデル,未知語処理が追加された.未知語処理には汎用単語分散表現が用いられた.この分散表現の獲得には日本語Wikipediaテキストからのword2vecでの解析が行われた.意図解析とスロットフィリングなどの言語理解の後段の処理として,対話状態追跡,対話ポリシの適用,自然言語生成がある.対話状態追跡では,スロット値の候補に確率を対応付けて信念状態を表す.対話ポリシの適用は,タスクとして外部知識を検索するなどを行い,応答のための対話行為を決める.自然言語生成は対話行為からテキストを生成する.これらの流れをニューラルネットワークを基礎としてend-to-endでモデル化することが提案された\cite{Liu_2018}.システム状態の設計は複雑になりがちであるが,Liuらの手法は信念状態がニューラルネットワークに組み込まれることなどによりシステムの状態が定義されることで,設計の問題を回避した.さらに,強化学習を用いることで,状態に応じたシステムの応答を学習した.一方,音声認識,意図やスロットの解析には誤りが含まれやすい.言語理解に対する信頼性が低いことを考慮してシステムの応答を行うために部分観測マルコフ決定過程PartiallyObservableMarkovDecisionProcess(POMDP)が対話システムに導入された\cite{Williams_2007}.POMDPでは信念状態に対するシステムの応答を決める.対話事例から強化学習を行うことで対話ポリシをモデル化できる.後段の処理でのこれらの手法は,複数ターンに渡る発話を通じてタスクを達成させるために有益な手法である.ここで,本稿では,小型計算機への命令を受理するための言語理解の段階,すなわち,意図解析およびスロットフィリングについて議論する.言語理解の後段の処理は,命令を受けたサービス処理部が対処するものとする.言語理解の段階においては,単語n-gram素性,文脈情報,意図毎の素性選択,未知語対応,および,意図解析とスロットフィリングの同時性という5点に着目する.しかし,小型計算機において,RNNによる意図解析・スロットフィリングの学習と解析は計算コストが高い.ここで,スロットフィリングとは,文頭から文末にかけて文の単語列をスキャンする間に,参照している単語の代入先を識別することである.スキャン(参照先を次単語に進める)と代入というアクションを,状態に応じて適切に行うことでスロットフィリングが実現できる見込みがある.状態に対するアクションを学習する方法として強化学習があげられる.そこで,本稿では,上記5点を考慮しつつ,サービス依存のパージングおよび強化学習を用いて,発話文の学習と解析を行うことを目的とする.自動車旅行を支援する車載器の上に提案手法を実装し発話文解析の評価を行う.本稿の構成は次のとおりである.まず第2章では,発話事例,意図とスロットに関する諸定義,および,発話文コーパスを示す.第3章では提案手法を示す.第4章で車載器に実装した発話文解析について性能を評価する.第5章で提案手法の特性を考察し,第6章でまとめを述べる.
\section{発話文と諸定義}
\subsection{車載器での発話例}本稿の車載器は表\ref{tab:services}に示すサービスを提供する.サービスの表現方法は,音と映像である.音は音楽や合成音声である.映像は,背景画像,箇条書き表示,タイトル表示,トースト表示,動画である.表現方法が競合しない限り複数のサービスが同時に実行できる.競合する場合,連携して起動されるサービスが劣位となり,ユーザから直接命令されたサービスが優位となる.\begin{table}[t]\caption{サービス一覧}\label{tab:services}\input{01table01.tex}\end{table}まず,簡単な発話例を以下に示す.話者に付随する数字は発話の順番を表す.例1:\begin{description}\item1ユーザ:「音楽をかけてください」\item2ユーザ:「鳥取の地図を表示してください」\item3ユーザ:「次に変えてください」\end{description}1文目で「音楽サービス」が起動する.以前からの続きの曲が再生される.「アルバムアートサービス」によりその曲のアルバムアートが車載器のモニタに表示される.2文目で「地図サービス」が起動する.画面が書き換えられるため,「アルバムアートサービス」が終了する.画面には「鳥取県の地図」が表示される.3文目で「次の曲」が再生される.「次に変える」は,何を次に変えるのかが不明確であるが,「音楽サービス」が起動中であるため「次の曲の再生」という意味で処理される.なお,「地図サービス」が起動中であるため「アルバムアートサービス」は自動的には起動しない(アルバムアートの表示が命令されれば起動する).次に,ユーザの発話意図が実行中のサービスの範囲に限定される発話例を以下に示す.例2:\begin{description}\item1ユーザ:「予定を登録してください」\item2車載器:「予定を話してください」\item3ユーザ:「明日の17時にレストランに行きます」\item4ユーザ:「その前に駅に迎えに行きます」\item5ユーザ:「以上です」\item6車載器:「登録しました」\end{description}1文目で「スケジュール管理サービス」が起動する.後続の発話文がこのサービスに向けられていることを前提として発話文解析が行われる.3文目および4文目から伝達される事象は「スケジュール内容」として登録される.5文目でこの前提が解除される.ユーザの発話意図が強く限定される発話例を以下に示す.例3:\begin{description}\item1ユーザ:「Wikipediaで調べてください」\item2車載器:「何について調べますか」\item3ユーザ:「東京タワーです」\end{description}1文目で「観光ガイドサービス」が起動し,サービス処理部でクエリを待つ状態になる.3文目では意図解析は行われず,直接サービス処理部で文字列の処理が行われる.判定詞の除かれた文字列「東京タワー」がクエリとして扱われる.最後に訂正を含む発話例を以下に示す.例4:\begin{description}\item1ユーザ:「鳥取の地図じゃなかった島根の地図を表示してください」\end{description}地図サービスは「島根県」の地図を表示する.文の解析の前半では「鳥取」が表示の対象となるが,解析の後半では「島根」だけが対象となる.\subsection{発話文の分類}車載器では,ユーザから話し掛けることが基本となる.ユーザの発話は次の4種類に分類される.\begin{description}\item分類1.ユーザが新規のサービスについて発話する.\item分類2.ユーザが実行中のいずれかのサービスについて発話する.\item分類3.ユーザが実行中の特定のサービスについて発話する.\item分類4.車載器からの質問に,ユーザが回答として発話する.\end{description}前節の例でいえば,例1の1文目と2文目は分類1であり,3文目は分類2である.サービスを特定する単語の有無が分類1と分類2を区別する手がかりとなる.例2の3文目と4文目は分類3である.5文目のように登録を終了する意図の発話があるまでは分類3が想定されている.例3の3文目は分類4である.これらの分類では,実行中のサービスに発話が継続するか否かという区別がある.分類1の発話は継続性が無い.本稿では「継続性=\cns{new}」というフラグを用いることにする.分類2,3,4は継続性がある.本稿では「継続性=\cns{cont}」というフラグを用いることにする.継続性のない発話文にはサービスを特定する手がかり語が含まれる.継続性のある発話文にはサービスを特定する語は必ずしも含まれない.一方,分類3と分類4ではサービスの処理側で発話解析の方法が指定される.\subsection{意図クラスとスロット}ユーザは,発話によりサービスを起動して細かい指示を出す.本稿では,「サービス名,メソッド名,および,メソッド引数」の3つ組を意図クラスと呼ぶことにする.一般に対話理解においては,対話行為識別の後に構造解析を経て意図解析・スロットフィリングという過程がある.対話行為には対話のドメインに依存しないカテゴリとして「Inform,Request,Confirm,Question,Agreement/Disagreement」などが用いられる\cite{Bunt_2017}.本稿では,\cite{Liu_2016,Nagai_2018}のように,発話文からドメインに依存して直接的に意図解析・スロットフィリングを行うことを議論する.例えば,「音楽を再生してください」という発話文からは「\cns{serviceMusic.comPlay()}」という意図クラスが同定される.「音楽が聴きたい」も「\cns{serviceMusic.comPlay()}」という意図クラスが同定される.ここで,「\cns{serviceMusic}」は「音楽サービス」,「\cns{comPlay()}」は「曲の再生を意味するメソッド」である.スロットはメソッドの引数と対応する.例えば,「次の曲に変えてください」という発話文には,「\cns{serviceMusic.comSelect(dir)}」という意図クラスが対応し,「\cns{dir=次}」というスロットフィリングが行われることを理想とする\footnote{\cns{dir}はdirectionの略.選曲の方向(次の曲/前の曲など)を表す.}.\subsection{発話文コーパス}ユーザの発話文をコーパスに収録する.コーパスの一部を表\ref{tab:corpus}に示す.収録した項目は,「通番,発話文,サービス,メソッド,継続性」である.1文単位で収録する.通番は管理用である.発話順は不問である.\begin{table}[t]\caption{ユーザによる発話文のコーパス(説明用に抜粋)}\label{tab:corpus}\input{01table02.tex}\par\vspace{4pt}\small※メソッド引数(スロット名)の意味:\cns{obj}=object対象,\cns{act}=action動作,\cns{dir}=direction内容選択の方向,\cns{unit}=単位,\cns{loc}=location場所・地名,\cns{io}=zoom-in/out拡大縮小の方向,\cns{tmg}=timing日時・時間的・順序的な関係の表現,\cns{msg}=message用件.\end{table}発話文に挿入されるタグはスロットに代入される部分を表す.一つのスロット名が複数の部分と対応することもある(\#21での\cns{tmg}タグ.数は表\ref{tab:corpus}の通番,以下同様).「\cns{cancel}」属性のあるタグは,前述の例4で示したとおりで,スロットフィリングの最終的な解とならない部分を表す(\#15,\#16).スロットに代入する語句が発話文に存在しない場合がある.つまり,文意としては代入する情報が理解できるが,その情報が陽に記述されていない場合である.この場合,タグを付与することができない.そこで,メソッドの引数にデフォルト値を指定する形式を認めている(\#6,\#9).サービスとメソッド名が一致するがメソッドの引数が異なる場合,両者の意図クラスは異なるものとして扱う(\#6,\#7,\#8,\#9).発話文の表現が異なるが,サービス,メソッド名,メソッド引数が一致する場合,同じ意図クラスであり,同等あるいは同類の文である(\#17,\#18,\#19).一方,同じ表現の発話文であってもサービスやメソッドが異なることがあり,曖昧性のある文がある(\#4,\#11).なお,曖昧性の解消は,実行中のサービスと継続性を手がかりに解析的に解消する.さらには,サービスの処理部における命令実行の成否をもって動的に解決できる.すなわち,スロットに誤った代入があったことによりサービスの処理が失敗する際,発話文解析に誤りがあったと解釈するものである.\begin{figure}[b]\begin{center}\includegraphics{26-3ia1f1.eps}\end{center}\caption{提案手法の流れ}\label{fig:proposed_method}\end{figure}
\section{提案手法}
小型計算機における発話文の学習と解析の手法を提案する.提案手法の流れを図\ref{fig:proposed_method}に示す.発話文の解析の過程は,ユーザから発話文が入力されて始まり,発話文のパージング,意図解析,スロットフィリング,解候補の選択,そしてサービスの実行を行うという流れとなる.学習の過程は,まず,発話文コーパスから語句辞書・チャンクルールを手動で設計・構築し,次に,意図解析用事例の生成,および,スロットフィリング用ルールベースの学習を行うという流れとなる.本章での各節では,パージング,意図解析,スロットフィリング,解候補の選択の順にそれぞれを説明する.\subsection{パージング}パージングでは,形態素解析,意味属性付与,サービス別アノテーションおよびチャンキングを行う(図\ref{fig:parsing}).まず,形態素解析器としてmecab\cite{Kudo_2004}を利用し,品詞情報を付与する.意味属性付与では日本語語彙大系\cite{Ikehara_1997}の名詞意味属性を付与する.次に,サービスで共有される語句辞書あるいはサービス毎に用意された語句辞書およびチャンクルールを用いて,品詞や語義を表すタグの付与およびチャンキングを行う.語句辞書・チャンクルールについては次項で説明する.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{26-3ia1f2.eps}\end{center}\caption{パージングの構成}\label{fig:parsing}\end{figure}サービスごとにアノテーション等を用意することで,語義やチャンクの曖昧性に対処する.例えば,「三月」という語句は,「スケジュール管理サービス」においては「日時」を表す語句としてタグが付与されることが望ましい.「音楽サービス」においては歌手・曲名の一部に使われる単語であるため「日時」のタグ付与は望ましくない.しかし,パージングの段階では語義やチャンクの決定ができない.そこで,本稿では,サービスを仮定し,サービスが扱う語義・チャンクに合わせてアノテーションとチャンキングを行い,その結果をサービスごとのアレイに残すことにした.\subsubsection{語句の定義}発話文を構成する語句は次のとおりに分類する:\begin{itemize}\itemモダリティ:判定詞自体,および,述語や判定詞に後続する表現\item一般予約語句:サービスに関する名称,機能,操作量\item組込み予約語句:実装と密接に対応する語句\item一般語句:その他の語句\end{itemize}モダリティは,「〜ですか」,「〜せずに」,「〜あります」,「〜たくないです」,「〜たいです」,「〜です」,「〜でした」,「〜じゃなくて」,「〜なかったです」,「〜せられ」,「〜てください」,「〜ないでください」などの表現をカバーし,それぞれ,質問(\cns{AAsk}),除外(\cns{AExc}),存在(\cns{AExi}),拒否(\cns{AIna}),欲求(\cns{AInd}),伝達(\cns{AInf}),伝達(過去)(\cns{AInp}),否定(\cns{ANeg}),不在(\cns{ANex}),使役・受け身(\cns{APss}),要求(\cns{AReq}),要求(否定)(\cns{ARqn})というモダリティのタグが対応する.一般予約語句は,「地図/マップ」,「音楽/ミュージック」などサービスを表す語句,「表示をし/表示し/表示/見せ」,「かけ/再生をし/再生し/再生」など機能・メソッドを表す語句,「上/下/左/右」,「東/西/南/北」,「前/後/次」など機能の操作量を表す語句である.サービスや機能を表す語句を「/」で隣接して列挙することで同義語のグループを定義する.操作量を表す語句を「/」で隣接して列挙することで同類語のグループを定義する.一般予約語句には「\cns{R}数字」という語義を表すタグを用いる.数字はグループごとに自動で割り当てられる.組込み予約語句は,サービスにおける実装と密接に対応する語句である.具体的には日時の表現である.例えば,「明日」という表現に「基準日時の翌日を求める」という処理が対応づけられている.日時の表現には\cns{TMG}というタグを用いる.一般語句とは,モダリティと予約語句にならない語句である.一般語句に対しては粗い品詞タグ付与ルール,および,後述するチャンクルールを併用する.助動詞や動詞・非自立(\cns{A}),副詞,形容動詞語幹,形容詞(\cns{M}),数(\cns{NM}),サ変名詞(\cns{NS}),名詞や名詞接辞(\cns{N}),助詞(\cns{P}),動詞・自立(\cns{V}),その他の単語(\cns{W})という粗い品詞のタグを用いる.また,一般名詞意味属性を参照して,場所(388--532.数は一般名詞意味属性コードの範囲,以下同様)の名詞(\cns{NLoc}),場の関係(2610--2669)の名詞(\cns{NLcr}),抽象的関係(2422--2515)の名詞(\cns{NRel}),抽象(1000--2715)の名詞(\cns{NAbs})という品詞のタグを用いることがある.\subsubsection{チャンクルール}チャンクルールは大きく3種類を設けている.狭いチャンクルール,広いチャンクルール,および,特殊なチャンクルールである.狭いチャンクルールは,名詞連続,数連続,「\cns{N}の\cns{N}」型をまとめるルールである.広いチャンクルールは,狭いチャンクルールに加えて,動詞,修飾語句,数,サ変名詞,その他の単語に名詞が続く場合を名詞としてまとめるルールである.特殊なチャンクルールは,日時のチャンク(\cns{TMG}連続や,「\cns{TMG}の\cns{TMG}」型をまとめる),および,特別な助詞連続をまとめるルールである.\subsubsection{アレイ}図\ref{fig:parsing}におけるサービス別タグ付き文の詳細を構成するアレイについて説明する.形態素解析および意味属性付与の結果は,基礎アレイに記録される.\pagebreak3.1.1項および3.1.2項の辞書・ルールを用いるとタグが得られる.サービスに共有される語句は共有用語句辞書がカバーしており,基礎アレイを参照しながら共有用辞書を用いることで得られるタグは共有アレイのタグ列に記録される.ここで,共有アレイは基礎アレイを継承している.共有アレイを参照しながら,サービス別に定義された辞書やチャンクルールを用いることで得られるタグはサービス別のアレイのタグ列に記録される.意味列については,辞書・ルールを用いる際に参照したアレイの意味列を引き継ぐ.複数の単語・語句をまとめて1つの語句が得られる際は主辞の意味属性を引き継ぐ.なお,発話文は文字単位で管理し,品詞列・意味列・タグ列において対応する文字の範囲を記録している.\subsubsection{サービスごとの扱い}一般予約語句は,全てのサービスで共有できる部分を共有の語句辞書として収録し,サービス間で衝突する部分をサービスごとの語句辞書として収録する.例えば,「お気に入り」という語句は,「音楽サービス」においては,「プレイリスト,好きな曲」と同義語であるが,「観光スポットSNSブラウザサービス」においては,「ブックマーク」と同義語である.チャンクルールに関しては,音楽サービス,ビデオサービス,観光ガイドサービス,および観光ブログ紹介サービスでは広いチャンクルールを使用する.曲名などの検索クエリには一定でない品詞列が用いられるためである.スケジュール管理サービス,および駐車記録サービスでは特殊なチャンクを使用する.日時を正確に捉えるためである.残りのサービスでは狭いチャンクルールを使用する.サービスへの命令文の複雑さに応じて,語句辞書およびチャンクルールを調整できる.特定のサービスのために調整を行っても,サービスごとに辞書とルールを使い分けることができるため,他のサービスへの影響が生じない.ゆえに,サービス毎のアレイの使用には,車載器のサービスの改定が容易になるという利点がある.パージングの解析例を示す.なお,下記のアレイはタグ列を可視化したものである.例5:\begin{description}\item発話文:「お気に入りに登録してください」\item音楽サービスアレイ:\cns{お気に入り/R01003に/P登録し/R00080てください/AReq}\itemブラウザサービスアレイ:\cns{お気に入り/R08001に/P登録し/R00080てください/AReq}\end{description}例6:\begin{description}\item発話文:「初音ミクの曲をかけてください」\item駐車記録サービスアレイ:\cns{初音/NAbsミク/Nの/P曲/R00055を/Pかけ/R00056てください/AReq}\item音楽サービスアレイ:\cns{初音ミク/Nの/P曲/R00055を/Pかけ/R00056てください/AReq}\end{description}例5において「お気に入り」の語義が区別されていることが分かる.例6において「初音」という抽象名詞が,駐車記録サービスアレイにおいて確認されるが,音楽サービスにおいては粗い品詞で解釈され,かつ,広いチャンクでまとめられた.\subsection{意図解析}意図解析では,実行中のサービスを考慮しながら,発話文に対応する意図クラスを最近傍法で求める.ただし,解の良さは,後段のスロットフィリングの結果にも依存するため,一定の近さにある複数の意図クラスを解候補として出力することにする.また,継続性も解候補に添える.本節では,最近傍法用事例の生成,実行中のサービスを考慮した事例の選択,近さの計算について順に説明する.\subsubsection{最近傍法用事例の生成}最近傍法に用いる事例をコーパスから生成する.1つの最近傍法用事例を1つの訓練用発話事例から生成する.重複する最近傍法用事例は破棄する.最近傍法用事例は,特徴,意図クラス,および,継続性で構成する.特徴は,モダリティのタグ,予約語句のタグ,および,一般名詞意味属性に関するタグの集合で定義する.粗い品詞のタグは集合に含めない.意図クラスは識別の目標である.継続性は文脈情報を捉えるためのもので,最近傍法用事例の照合を制限することに用いられる.以下に訓練事例の文のアレイと最近傍法用事例の例を2つ示す.例7:\begin{description}\item音楽サービスアレイ:\cns{音楽/R00055を/Pかけ/R00056てください/AReq}\item特徴:\cns{\{AReq,R00055,R00056\}}\item意図クラス:\cns{serviceMusic.comPlay()}\item継続性:\cns{new}\end{description}例8:\begin{description}\item音楽サービスアレイ:\cns{スキップ/R00059し/R00036てください/AReq}\item特徴:\cns{\{AReq,R00036,R00059\}}\item意図クラス:\cns{serviceMusic.comSkip(dir=次)}\item継続性:\cns{cont}\end{description}集合は,意図クラスのサービス(正解のサービス)に対応したアレイから得る.これらの例では「音楽サービス」のアレイのタグから得た.\subsubsection{文脈情報に依る最近傍法用事例の選択}最近傍法では,一般に入力事例に対して全ての事例と比較を行う.しかし,本稿では実行中のサービスを考慮して選択された事例と比較を行う.これは発話系列の文脈情報の考慮に相当する.最近傍法用事例の選択は,実行中のサービスと継続性を参照して行う.発話文の分類(2.2節)で述べたとおり,実行中のサービスが発話意図を限定しない場合(分類1,2)と限定する場合(分類3,4)がある.限定のない場合,継続性が\cns{new}である最近傍法用事例は発話文と比較される.継続性が\cns{cont}である最近傍法用事例は実行中のサービスと最近傍法用事例のサービス(意図クラスを構成するサービス)とが一致すれば発話文と比較される.一方,限定のある場合,分類3の状況であれば,特定のサービスと一致するサービスを有する最近傍法用事例が,発話文と比較される.なお,継続性が\cns{new}である最近傍法用事例であっても特定のサービスと不一致であれば比較されない.分類4の状況であれば,サービスに組み込まれた発話文解析となる.サービスにパージング結果が直接引き渡される.以下に擬似コードを示す.\begin{verbatim}1:発話文(パージング結果)が入力される.2:実行中のサービスのリストが入力される.3:もし,サービスから発話文が予約されているならば,4:そのサービスに発話文を送り,5:そうでなければ以下を行う.6:もし,特定のサービスが予約されているならば,7:特定のサービスへの最近傍法用事例を比較対象とし,8:そうでなければ,9:継続性がnewの最近傍法用事例,および,10:継続性がcontかつ実行中のサービスへの最近傍法用事例を比較対象とする.11:比較対象となった最近傍法用事例について最近傍法で解候補を作成する.\end{verbatim}もしサービス側で分類3や分類4で発話文の解析を行う予定になっているならば,解析実行前までに6行目や3行目の予約がそれぞれ入れられている.\subsubsection{発話文と最近傍法用事例の比較}発話文の特徴と最近傍法用事例の特徴を集合演算で比較し,近さ(一致度)を算出する.発話文の特徴を集合$U$,最近傍法用事例の特徴を集合$T$とするとき,両者の近さ$d_1(U,T)$を次式で算出する.\[d_1(U,T)=\frac{2|U\capT|}{|U|+|T|+\beta}\]\label{math:d1}ここで,$\beta$は偏りを持たせるパラメータで$\beta=0.05$を用いた.近さは,$\textit{dice}$係数を基礎とした.発話文と最近傍法用事例の間で特徴的な語句が過不足なく一致することを評価するためである.偏り$\beta$を持たせた根拠は,一般の$\textit{dice}$係数としては同じ一致度となる場合でも,集合のサイズが大きい場合に一致することを重く評価するためである.\subsection{スロットフィリング}意図解析からスロットフィリングへの入力はサービス別タグ付き文,および,解候補(意図クラスと継続性の組のリスト)である.スロットフィリングでは各候補について,スロットフィリングの操作を試みる.その結果として,スロット値を解候補に添えて出力する.スロットフィリングは,発話文の各語句についてスロットに代入すべきか否かを判定するものである.文頭から文末にかけてスキャンを行い,代入判定を行う.また,発話文中での言い直しがあれば代入したものを棄却することがある(2.1節,例4).そこで,スキャン(語句を参照する位置の移動),代入,棄却などのアクションを解析状態に応じて適切に実行することでスロットフィリングを行う手法を提案する.実装上はルールベースによるスロットフィリングである.しかし,ルールは強化学習における$Q$関数に対応し,コーパスから自動的に獲得する.本節ではスロットフィリングの実行とルールの学習をそれぞれ説明する.\subsubsection{スロットフィリングの実行}意図解析結果より,想定するサービスおよびメソッドが与えられると,スロットフィリングが始まる.まず,意図クラスおよび継続性の組に対応したルール集を用意する.次に,発話文のパージング結果のうちサービスに対応するアレイを参照する.解析者をエージェントとするが,エージェントが注目する最初の位置を文頭とする.その後,エージェントは観測する状態に応じてルールによるアクションを決定し実行する.解析の終了は,エージェントがアクション\cns{actSubmit()}を実行した時点,もしくは,アクションの実行回数が上限に達した時点である.上限は文長に比例した回数である.\begin{table}[b]\caption{解析用アクションの一覧}\label{tab:actions}\input{01table03.tex}\end{table}まず,解析用のアクションを表\ref{tab:actions}に示す.スロットは,メソッドに存在するスロットと一時スロットの2種類がある.エージェントは,参照する語句を一時スロットに代入し,一時スロットの内容をメソッドのスロットに移すことができる.文末まで読み進めた後は,解析を終了することや,文頭に戻って読み直しをすることが可能である.次に,観測される状態の素性を表\ref{tab:features}にまとめる.f1は注目する語句の意味を表す.f2は注目先の周辺のタグの5-gramである.f3は注目先の周辺の語句がスロットに代入された状況を表す.f4は各スロットにおける代入の有無を表す.f5は一時スロットに代入されている語句の意味を表す.f6により読み直しが何度も起こらないようにできる.f7により発話文が訂正を含むかどうかがわかる.f8は,「〜は〜です」の文体における解析の手助けとなる.f1からf8を8項組にまとめて状態とする.\begin{table}[t]\caption{観測される状態の素性}\label{tab:features}\input{01table04.tex}\end{table}ルール集は,$Q$関数である.$Q$関数は,$Q:\textit{state},\textit{action}\mapsto\textit{score}$である.つまり,ある状態\textit{state}の際にアクション\textit{action}を選択すると得られるスコアの期待値\textit{score}を返す関数である.選択されるアクション$a^*$は高いスコアを導くアクションであり,$Q$関数を含む次式で求める.\[a^{*}=\arg\max_{a\inA}Q(x,a)\]\label{math:action-select}ここで,$A$はアクション集合,$a$はアクション,$x$は状態である.アクション集合は,表\ref{tab:actions}に示したアクションの集合である.ただし,\cns{\textit{slot}}にはメソッドに応じて具体的なスロット名が必要数だけ展開される.$Q$関数の学習については次項で説明する.\subsubsection{ルールの学習}強化学習では,様々な状態においてアクションを選択することを繰り返し試行し,より高い報酬が得られるように$Q$関数を学習する.学習過程で行う$Q$関数の更新は動的計画法によるものである.具体的には,状態$x$で行動$a$を試行した結果,報酬$r_n$が得られ,状態が$y$に遷移したとする.このとき,状態$x$で行動$a$を選択することへの評価値$Q(x,a)$を次式で更新する.なお,$n$は学習の時点を表す\cite{Watkins_1992}.\[Q_n(x,a)=(1-\alpha_n)Q_{n-1}(x,a)+\alpha_n\{r_n+\gamma\cdot\max_{b\inA}Q_{n-1}(y,b)\}\label{math:q-fuction}\]ここで,$\alpha_n$は学習率,$\gamma$は割引率である.$Q_{n-1}(x,a)$は更新前の$Q$関数を表す.$A$はアクション集合,$b$は行動$a$の後に予定する行動である.ここでは$b$は高スコアの期待される行動が仮定されている.なお,本稿では,$Q$関数の初期値を$50$,$\alpha_n=0.8$,$\gamma=0.9$とした.報酬の設計を表\ref{tab:reward}にまとめる.スロットフィリングのアクションにおいては,正しいアクションと誤ったアクションを決定論的に定義できる.そこで,アクションの試行時に報酬を与えることが可能である.報酬の値は,アクションの無駄な反復で全体の報酬が高まることのないようにした.例えば,代入と破棄(\cns{actPush()},\cns{actEmpty()})を繰り返すことで報酬の合算値が正にならないようにした.予想を超えてアクションの組み合わせと繰り返しが行われることがあるので,報酬の値は実験的に決定した.\begin{table}[b]\caption{報酬の一覧}\label{tab:reward}\input{01table05.tex}\par\vspace{4pt}\small*\cns{cancel}付き語句を正解とみなす.\end{table}以下に,正例の学習,訂正を含む正例の学習,および,負例の学習を例示する.正例の学習を例9を用いて紹介する.例9:\begin{description}\item発話文:\cns{<loc>鳥取</loc>の地図を表示してください}\itemサービス:\cns{serviceMap}\itemメソッド:\cns{comShow(loc)}\item継続性:\cns{new}\end{description}意図クラスおよび継続性の組が「\cns{serviceMap.comShow(loc)/new}」である.\cns{loc}タグで囲まれた語句を参照中に一時スロットに代入するアクション\cns{actPush()}が行われると,正の報酬が発生する.文末まで読み進めた際,「\cns{loc=鳥取}」という代入状態で完了アクション\cns{actSubmit()}が行われると,正の報酬が発生する.訂正を含む正例の学習を例10を用いて紹介する.例10:\begin{description}\item発話文:\cns{<loccancel>鳥取</loc>の地図じゃなくて<loc>島根</loc>の地図を表示してください}\itemサービス:\cns{serviceMap}\itemメソッド:\cns{comShow(loc)}\item継続性:\cns{new}\end{description}この例も意図クラスと継続性の組が「\cns{serviceMap.comShow(loc)/new}」であるため,例9で学習された$Q$関数に向けて学習が行われる.最初に鳥取を参照中に\cns{actPush()}が行われ,その後に\cns{actApply(loc)}が行われると「\cns{loc=鳥取}」となる.文の前半を参照中であれば正しいので,負の報酬は発生しない.文末まで読み進めた時点で「\cns{loc=島根}」となり\cns{actSubmit()}が行われると正の報酬が発生する.しかし,「\cns{loc=鳥取}」や「\cns{loc=鳥取島根}」という代入状態であれば\cns{actSubmit()}の実行に対して負の報酬となる.このように,\cns{cancel}属性のあるタグは,代入行動においては正しいが,最終の代入状態では含まれてはならないことを意味する.負例の学習を例11を用いて紹介する(1つの負例は発話文から継続性まで.※印はコメント).スロットフィリングにおいて代入エラーを抑制するように学習を行うことができる.例11:\begin{description}\item発話文:\cns{地図を表示してください}\itemサービス:\cns{serviceMap}\itemメソッド:\cns{comShow(loc)}\item継続性:\cns{new}\item※誤ったスロットフィリング:\cns{loc=地図}\item※理想のスロットフィリング:\cns{loc=なし}\item※理想のメソッド:\cns{comShowHere()}\end{description}意図解析によると,2つの意図クラス「\cns{serviceMap.comShow(loc)}」と「\cns{serviceMap.comShowHere()}」は最近傍法用事例の特徴が等しい.スロットフィリングには,2つの解候補が届けられる.前者の意図クラスに対応するスロットフィリングを行うと,学習次第では「\cns{loc=地図}」という代入結果となることがある.次節で述べる解候補の選択では,スロットへの代入数が多い解候補を選択するようになっている.そのため,誤った代入があると最終的に誤った選択が生じる.ゆえに,誤った代入をしないようにスロットフィリングの学習を行う.本稿ではこれを負例の学習と呼んでいる.負例の学習では代入する語句のないことを表す事例を強化学習にかける.すると「\cns{loc=地図}」という状態を導くアクション系列は負の報酬によりスコアが低く学習される.負例の学習データを用いた強化学習の実行方法は特別な操作はない.ゆえに,負例の発見さえできれば,負例の学習は容易である.なお,自明であるが,負例用コーパスからは意図解析のための最近傍法用事例の生成を行ってはならない.負例を発見する方法は,実験的な方法である.すなわち,クローズドテストでの誤り分析において,スロットに誤った代入が見られた事例に注目する.筆者らの経験では,コーパスや語句辞書に誤りがあるために学習や解析に失敗することが多かった.次には,強化学習において観測する状態の定義が不十分であることが失敗の原因であることがあった.コーパス・語句辞書・状態定義が十分であるが,過剰なスロットフィリングによる失敗が生じる場合に,その失敗する事例を負例コーパスに追加する.なお,誤り分析が不十分なまま,誤り事例を負例コーパスに追加してはいけない.コーパス・語句辞書・観測状態の定義における問題が検出できなくなり,本質的な問題が解決できなくなるからである.\begin{table}[t]\caption{負例コーパス(全文)}\label{tab:negative-corpus}\input{01table06.tex}\end{table}負例コーパスを表\ref{tab:negative-corpus}に示す.\#2では,先の説明(\#1)と同様にメソッド引数全てへの代入を抑制した.\#3では,一部のメソッド引数\cns{loc}への代入を抑制した.\subsection{解候補からの選択}解候補からの選択では,意図解析におけるタグの一致率,および,スロットフィリングにおけるスロットの代入率を参照する.多くの一致数や代入数となる解候補を優先するために,解候補を次式で評価する.\[d_2(U,T,b,s)=\frac{2|U\capT|+b}{|U|+|T|+s+\beta}\label{math:d2}\]ここで,$U$は発話文におけるタグの集合,$T$は意図解析において適合した最近傍法用事例におけるタグの集合,$s$はスロットフィリングにおいて代入されるべきスロットの数,$b$はスロットフィリングにおいて代入されたスロットの数である.ただし,デフォルト値を有するスロットはスロット数$s$および$b$ともに含めない.$\beta$は偏りのパラメータであり$0.05$とした.解候補の中から,最も高い評価値を有する候補を選択する.ただし,同率で1位となる候補が複数存在する場合は,継続性が\cns{cont}となるものを優先する.
\section{応用事例および性能評価}
自動車旅行を支援する車載器をRaspberryPi3上に実装した.そこでの発話文解析に提案手法を適用し,解析性能を示す.\begin{figure}[b]\begin{center}\includegraphics{26-3ia1f3.eps}\end{center}\hangcaption{機材の様子.図\ref{fig:setting}(a)上側の機材は,AVケーブル,シガーソケット電源.下側の機材は,スマートフォン,USBメモリと音源ボードを装着したRaspberryPi3ModelB,スマートウォッチ,テンキー,収納ケース.図\ref{fig:setting}(b)コンソールにテンキーを設置.車載器本体をケースに入れて助手席シートの真下に設置.電源をスマートフォンと本体に供給.}\label{fig:setting}\end{figure}\subsection{車載器の構成}車載器は小型計算機RaspberryPi3ModelB(2016年製,CPU:ARM1.2~GHz4cores,主記憶:1~GB)である\footnote{車載機を小型計算機ではなくスマートフォンとする実装方法は次の理由で採用しなかった.スマートフォンの仕様が多様かつ変化しやすいこと,ビデオ信号をHDMIやRCAを介して車載モニタに出力できないことが多いこと,運転手がスマートフォンを把持した上で操作することは違法であること.}.Rubyを用いてサービスおよび発話文解析を実装した.周辺デバイスとしてスマートフォン(Android8.0),スマートウォッチ(Android5.1)およびカー・オーディオビジュアルを用いる(図\ref{fig:setting}).スマートフォンはWiFiルータおよびGPSレシーバとして用いる.スマートウォッチは音声認識デバイスとして用いる\footnote{意図解析およびスロットフィリングをスマートフォンで行い,その結果を小型計算機に送付するという方法はあり得る.しかし,本稿ではサービスと連携して発話文解析を行うことを目的としているので,スマートフォンでは音声認識までに限った.}.認識結果(文字列)はWiFi経由で車載器に送られる.スマートフォンのみを用いることは可能であるが,スマートウォッチによる音声認識の方が口元で音声を集音するため車内では使いやすい(図\ref{fig:using}).スマートウォッチによる音声認識は走行中であっても十分である.逆に,スマートウォッチのみを用いることも可能であるが,終日のドライブにおいてはバッテリーが不足する恐れがある(スマートウォッチは充電しながらの使用が難しい).車載器のサービスはカー・オーディオビジュアルにより表出する.なお,補助としてテンキーによる操作も可能である.\begin{figure}[t]\begin{center}\includegraphics{26-3ia1f4.eps}\end{center}\hangcaption{使用の様子.スマートウォッチに話し掛けて命令.ステアリングを握ったままでも良いが,口元に左手を近づけて発話すると高い可能性で命令できる.}\label{fig:using}\end{figure}スマートウォッチでの使用の様子を説明する.通常時でのスマートウォッチへの操作は最小で1タッチ,最大で2タッチである.具体的には,スリープ中は電源ボタンへのタッチ,および,スクリーンへのタッチにより音声認識が始まる.「ですます調」で発話を行った場合は語尾により発話文の終了が確定される.それ以外の調子で発話をした場合は「どうぞ」と言うことで発話文の終了が確定される.発話の途中で「取消」と言うと,始めから発話し直すことができる.車載器は,2016年5月より走行時に利用しており2018年12月までの約2万キロの走行の間,各種サービスの提供を行ってきた.初期はUSBヘッドセット型マイクを備え,音声認識のオープンソフトウエアを利用していた.2017年8月よりAndroidの音声認識を利用するように変更した.安全性の懸念から開発者によるクローズドテストが繰り返し行われ,慣れた利用者においては発話文解析は十分な性能となった.また,サービスの種類を徐々に増やしてきたが,コーパスおよび語句辞書の単純な追加・変更により発話文解析の増強ができた.図\ref{fig:display}に車載器の実行の様子を示す.以下では,クローズドテストの性能および新たな利用者における解析性能を示す.\begin{figure}[t]\begin{center}\includegraphics{26-3ia1f5.eps}\end{center}\hangcaption{車載器の表示例.図\ref{fig:display}(a)ではカーオーディオビジュアルのセンターディスプレイを使用.Wikipediaの鳥取砂丘の記事を読み上げている場面.図\ref{fig:display}(a)ではレーダー探知機をモニタとして使用.観光スポットSNSサイトをブラウズして大山滝を提示している場面.背景画像および情報は\cns{https://minkara.carview.co.jp/userid/309487/spot/800570/}をブラウズした結果である(2018年9月13日時点).}\label{fig:display}\end{figure}\subsection{性能評価}学習用コーパスは正例コーパスが2,147文,負例コーパスが3文である.意図クラスは181種類となった.意図解析のための最近傍法用事例は890件となった.ルールベース($Q$関数)は,「意図クラスおよび継続性」の組ごとに作られ,191件となった.総ルール数($Q$関数での状態・アクションとスコアの対の総数)は173,864件となり1ルールベースあたり平均910件(最小は32件,最大は20,917件)となった.ルールベースの実装にはデータベースGDBMを用いた.合計約26~MBとなった.正例コーパスのパージングは約71秒であった.1回目の学習では正例コーパスを用いて最近傍法用事例の生成と強化学習を行った.約9分43秒かかった.主記憶の使用量は約70~MBであった.2回目の学習では負例コーパスを用いて強化学習を行った(約20秒).3回目の学習では正例コーパスを用いて強化学習を再度行った(約8分26秒).ここで,コーパスを用いた強化学習では,「意図クラスおよび継続性」の組の一致する文をグループ化して,グループ内の文が全て解析できるまで学習を行った.グループ内での全文の学習とテストを繰り返すが,最大30回を限度とした.文の学習では,アクション系列の試行を15回(のべ15文)行った.アクション系列は最長で文長の4倍(語句単位)までとした.1アクションごとに$Q$関数を更新した.クローズドテストによると,正解率は0.995(2,136文成功/2,147文入力)となった.ここで,出力された意図クラスおよびスロット値が正解の値と完全一致したものを成功とした.ユーザに約束する発話文が確実に解析できることが確認できた.主な誤り事例は以下のとおりである.例12:\begin{description}\item発話文:「詳しい観光ガイドをしてください」\item出力:\cns{serviceGuide.comGuideInDetail()/cont}\item正解:\cns{serviceGuide.comGuideAll()/new}\end{description}例13:\begin{description}\item発話文:「レーダーに道の駅を表示してください」\item出力:\cns{serviceRadar.comSearchTarget(obj=道の駅)/new}\item正解:\cns{serviceRadar.comSelectLandmark(obj=道の駅)/new}\end{description}例14:\begin{description}\item発話文:「馬の背を見ます」\item出力:\cns{serviceScheduler.comInformEvent(loc=馬の背,msg=見)/cont}\item正解:\cns{serviceScheduler.comInformEvent(msg=馬の背を見)/cont}\end{description}例12,例13は,サービスを操作する台詞がそもそも曖昧であるため発話文解析が誤りとなっている.例14において,\cns{loc}は移動先を対応させる仕様であるので,「馬の背」だけをみると観光スポット名であり場所を表す名詞であるため代入可能に思えるが,「馬の背を見」までみると観測の対象であり必ずしも移動先とはいえないため誤りである.動詞の結合価を解析していないため誤りが生じた.スケジュールサービスや駐車記録サービスではユーザの体験を表す発話文を解析することが多い.ユーザの体験談に対しては,サービス用の予約語句が対応しないため,粗い品詞タグの列における発話文解析となる.特徴的でないため解析に失敗しやすい.すなわち,自由発話に対しては本手法は改善の余地がある.サービスを表さない単語を解析することは今後の課題とする.\subsection{追加学習}車載器の操作中に発話文が認識されないことがある.車載器に備わる命令文と同じ意味だが言い方が異なる場合,および,用語が不足する場合については,それぞれ追加学習が可能である.追加学習はユーザが学習を要求する発話を行うことで,対話的に進められる.\subsubsection{命令文の学習}新しい命令文と既知の命令文を指定することで,命令文の学習を行うことができる.以下にその様子を示す.\pagebreak例15:\begin{description}\item(音楽サービスを実行中)\item1ユーザ:「曲は前のにしてください」\item車載器(エラーを表示)\item2ユーザ:「発話文を学習してください」\item車載器(\cns{曲は前のにしてください},を表示)\item3車載器:「別の言い方をしてください」\item4ユーザ:「前の曲にしてください」\item車載器(\cns{serviceMusic.comSelect(dir)/cont,dir=前},と認識し表示)\item車載器(\cns{曲は<dir>前</dir>のにしてください},を表示)\item車載器(\cns{未知の用語なし},を表示)\item5車載器:「これで良いですか」\item6ユーザ:「はい構いません」\item車載器(学習を実行)\item7車載器:「学習しました」\end{description}こうして,最近傍法用事例の追加および強化学習によるルールベースの学習が行われた.この例での学習の実行時間は約2秒である.\subsubsection{語句の学習}新しい語句と既存の語句を指定することで,語句辞書への登録が可能である.以下にその様子を示す.例16:\begin{description}\item1ユーザ:「単語を学習してください」\item2車載器:「新しい語句は何ですか」\item3ユーザ:「楽曲です」\item4車載器:「類似する既存の語句は何ですか」\item5ユーザ:「音楽です」\item車載器(\cns{new:楽曲,org:音楽,サービス:全般},を表示)\item6車載器:「これで良いですか」\item7ユーザ:「構いません」\item車載器(語句辞書に「楽曲」を登録)\item8車載器:「語句を登録しました」\end{description}語句辞書への登録により「楽曲」が「一般的な単語」から「予約語句」になった.すなわち,語句辞書において「音楽/ミュージック」というグループから「音楽/ミュージック{\kern-0.2zw}/楽曲」というグループになった.以上の通り,命令文の言い方の違いや用語の不足に対して追加を容易に行うことができた.\subsection{オープンテスト}発話で車載器を操作することについてオープンテストを行う.被験者には車載器のサービス内容を理解しておいてもらい,非走行の状態で発話で操作を行ってもらう.被験者は大学生4名である.被験者は一人ずつ操作を行う.被験者間で操作内容がほぼ同一となるように,シナリオに沿った操作を依頼した.シナリオは,車載器の利用者の心境を「音楽を聴こうと思います」などのように記述したものである.サービスの主要な操作を網羅している.被験者の発話のうち,音声認識エラーとなった発話(28文),文法が大きく誤っている発話(3文),スマートウォッチの操作ミスを伴う発話(1文),存在しないサービスへの発話(13文)の合計45文については無効な発話文とした.無効な発話文は,総文数の15\%(45/301)という割合で存在した.音声認識エラーにおいて,地名が誤り易かった.被験者側の問題としては,発する単語が間延びしたことが挙げられる.これは,発話中に音声認識にタイムアウトが発生する原因である.この不明瞭な発話は,被験者がサービス内容(機能・名称)を熟知しておらず,言葉を考えながら発話する際に見られた.ゆえに,ユーザが言い慣れた発話文を追加的に学習する機能により,無効な発話文が減少する可能性がある.有効な発話文については,成功文と失敗文に分けた.成功文は,サービス,メソッド,スロット値が正しく解析できた文である.成功文数$S$,失敗文数$F$を含む次式により解析性能を精度$A$で評価する.\[A=\frac{S}{S+F}\]\label{math:accuracy}\begin{table}[b]\caption{オープンテストの結果}\label{tab:open-test1}\input{01table07.tex}\end{table}実験結果を表\ref{tab:open-test1}に示す.発話文の解析が失敗となった際,別の言い方で発話をしてもらい,シナリオを進めた.被験者からの感想によると,サービス名や操作の言い方を考えることに手間取ったという.もし取扱説明書を読んでおき,主要な用語を覚えていれば,より円滑に命令を発話できたことと思われる.シナリオを達成することができたことより,全体の精度が$0.81$とは本稿の場合では支障のない水準であると解釈した.失敗文を分析した結果を表\ref{tab:failure}に示す.命令文の網羅性が不足すること,語句の網羅性が不足することが主な解析誤りの原因である.前者は,格要素の順序の違い,「は」と「を」の使い分けについて網羅性が不足した.スロットフィリングのために用いた強化学習では,人の目でみて僅かな違いの状態同士であったとしても,全く異なる状態として扱うため,訓練用コーパスにおいては格要素の順序や助詞の種類について網羅的に用意する必要がある.非命令文による命令とは,ユーザが主語となる操作に見られる意図の表現である.「ブラウザを使いたい」という心境がシナリオに示されたことに対して,「ブラウザを使います」という宣言を車載器に伝えることで「ブラウザの起動」を被験者は狙った.ゆえに,今後,命令文のコーパスを構築する際,コーパスの基本的な網羅性を高めるために,ユーザを主語にする言い方と,システムを主語にする言い方の両方を想定するべきである.\begin{table}[b]\caption{失敗文の分類}\label{tab:failure}\input{01table08.tex}\end{table}語句や発話文の網羅性を解消するために,学習サービスが車載器に備わっている.格要素の順序や助詞の違いによる失敗は学習できる.例えば,「この旅館を説明してください」は既に受理可能であり,「説明する」と「教える」が同義として語句辞書に登録されているので,「を」を使う事例の他に「について」を使う事例として「この旅館について教えてください」を学習することが可能である.「(音楽を)始める」が音楽サービスにおいて「再生する」と同義であることを語句の登録として実行できる.車載器のユーザは,自分の慣れた言い方を学習させることができる.本実験において学習の可能な事例は,37件であった.語句や発話文の追加学習の効果を表\ref{tab:potential}に示す.以上により,本稿の提案手法はサービスの実行を命令する上で十分な性能を有することが確認できた.ただし,車載器に必ず受理される言い方や語句をユーザが確実に発話する必要がある.実利用においては追加的な学習が不確実である.追加的な学習を確実に行う仕組みについては今後の課題である.\begin{table}[t]\caption{学習可能性の評価結果}\label{tab:potential}\input{01table09.tex}\end{table}\subsection{比較実験}意図解析およびスロットフィリングにおいて一般的な方法と比較を行う.一般的な方法は,識別器および素性に関して幾つかの組み合わせがある.識別器には,サポートベクトルマシン(SVM),ロジスティック回帰(ここではLRと略す),ニューラルネットワーク(ここではNN1,NN2と略す),条件付き確率場(CRF)を挙げる.素性には,単語のみ,単語および品詞のn-gramを挙げる.ここで,提案手法は学習器が最近傍法および強化学習であり,素性はサービス別アレイを参照して得られるタグのn-gramである.ゆえに,比較のためSVM/CRFにおいてもサービス別アレイを参照する実験を行う.評価の観点は,4.4節の精度$A$だけでなく,小型計算機での実行可能性も含める.小型計算機は,サービスの提供が主目的である.言語処理のための学習と解析にCPUおよび主記憶を多く使用することは望まない.具体的には,RaspberryPi3を想定し,CPUが1.2~GHz4cores,主記憶が1~GBというハードウエア上での動作を要求する.サービスのためにCPUを2cores,主記憶を300~MB使用する.ビデオRAMおよび共有メモリ用に600~MBを使用する.ゆえに,言語処理にはCPUを2cores,主記憶を100~MBを使用することを想定する.比較手法においては,実装すると実行条件が充足できないものがある.一般的な計算機としてCPUがIntelCorei5,3.3~GHz,4cores,主記憶が16~GBのものを用いる.クローズドテストを通じて,精度,使用する主記憶,および,学習時間を比較する.オープンテストを通じて精度を比較する.クローズドテストにおける比較結果を表\ref{tab:baseline1}に示す.NN1およびNN2は,Python,Tensorflow,Kerasをバックボーンとし,Embedding+LSTM+MultiDenseLayersという構成とした.NN1ではDense層を2つ,NN2ではDense層を3つとした.語彙数の上限を1,024,最大文長を20,バッチサイズを32,エポック数を1,600とした.LRは,Python,scikit-learnをバックボーンとした.SVMはTinySVMを使用しone-vs-restを行った.ここで正例と負例に同一のベクトルが与えられ得る際は正例のみを与えた.CRFはCRF++を使用しCPUの割当てを2coresに制限した上でCRF++のサンプルにあるテンプレートを利用した.なお,NN1,NN2およびLRは学習時間および主記憶を多く要するため小型計算機による実行を行っていない.意図解析とスロットフィリングの両方を解析することも,小型計算機で実行可能な手法のみを示した.\begin{table}[t]\caption{クローズドテストにおける比較結果}\label{tab:baseline1}\input{01table10.tex}\par\vspace{4pt}\small※テスト文数は2,147文.\end{table}意図解析では曖昧性の問題で精度が1.0にはならなかった.NN1,LRおよびSVMにおいてSVMの精度が低い.SVMでは単語や品詞の重要度が学習されないためである.サービス別の素性では重要な語句のみがベクトル化されるため改善したと解釈する.提案手法での最近傍法も1-bestではSVMと同程度の精度であるかもしれないが,複数候補を残し,スロットフィリングの結果を用いて総合的に選択を行うため精度が高いと解釈する.スロットフィリングにおいては,例えば,都道府県名を\cns{<loc>}とする場合と\cns{<pref>}とする場合があるため精度が1.0にはならなかった.意図とスロットの両方を正しく解析することを評価したところ,提案手法の精度が良いことを確認できた.素性をサービス別に用意することも有効であることが確認できた.オープンテストにおける比較結果を表\ref{tab:baseline2}に示す.NN1およびNN2は単語の網羅性による問題が大きい.多様な表現を含むコーパスからの学習や,外部リソースによるEmbedding層の学習を行えば改善すると思われる(本実験は簡易実装により実行可能性を調べた実験である.一般でのニューラルネットによる手法を否定するものではない).LRは一般的な識別器において性能が良かった.CRFはスロットフィリングに有効であることが確認できた.CRFによるスロットフィリングでは素性による精度の差が小さかった.意図とスロットの両方を解析する際は意図の識別性能の低さのため精度が悪くなった.提案手法はいずれにおいても相対的に良い精度であった.\begin{table}[t]\caption{オープンテストにおける比較結果}\label{tab:baseline2}\input{01table11.tex}\end{table}一般的な方法を用いるとすれば,主記憶の使用量からみるとSVM+CRFがあげられる.しかし,本稿では言い回しの違いを追加的に学習するため,CRFの使用はできない.数事例の追加であっても全事例を用いた再学習が発生することがデメリットである.ただし,追加的な学習を不要とするならばCRFの使用は否定されるものではない.一方,提案手法では追加する事例のぶんだけ強化学習を実行すればよいためこのデメリットがない\footnote{ただし,検証のため同一の$Q$関数を用いる事例をテストすることが望ましいが,それを行ったとしても,本実験における識別器の中では最小の時間で学習できる.}.
\section{考察}
本章では,まず,語句辞書の設計はサービスの設計とともにあるため手動による基礎の構築は必然であることを述べる.次に,定型的な発話文を受理する予定であってもパターンベースの解析手法では柔軟性に欠けるため採用しなかったことを述べる.最後に,強化学習ではコーパスの正確性が要求されることを述べる.\subsection{語句辞書の設計}一般の自然言語処理では,言語解析結果を利用する側の情報を解析の段階に持ち込まない.すなわち,言語解析のモジュール性が高い.しかし,本稿では,サービスと発話文解析のモジュールの関係が強いことを前提とする.とりわけ,語句辞書は,サービスを設計すると同時に設計される必要がある.本節では,語句辞書の設計について述べる.語句の種類には,サービスや機能を表す語句や,操作量を表す語句があることを述べた.サービスの実行のための発話文では,これらの語句が含まれるはずである.例外は,ユーザの体験談や行動予定を車載器に述べる場合,および,音楽や観光地などを検索するクエリのみを発話する場合である.サービスを設計する際,サービス名,メソッド名,操作量を表す語句を必ず設計する.語句辞書の作成はその過程で生じるため負担ではない.他のサービスと語句のグループが競合する場合でも,サービスごとに語句辞書を構築するため,競合に配慮しやすい.サービス間で共通とする語句辞書を認めている.その場合,車載器の全体のバージョンアップがあり,サービスの追加がある際は注意が必要である.新たに追加されるサービスが,共通の語句を特別な意味で使うものであれば,共通語句辞書からその語句を外す必要がある.既存のサービスのうちその語句を用いているならば,そのサービス用の語句辞書にこれまでのその語句の定義を移動する必要がある.\subsection{パターンベース手法との比較}サービスが確定して命令文が確定したならば,発話文の解析方法として文型パターンを用いる方法が挙げられる.本稿で,文型パターンを用いなかった理由を述べる.文型パターンは,字面,変数,演算子等で構成することがある.大規模なパターン辞書を構築した鳥バンクでは,文の意味を捕まえるためにこれらの記述子が用いられた\cite{Ikehara_2004}.文型パターンには次の弱点があるため,本稿では用いなかった.\begin{itemize}\item発話文の事例から文型パターンを自動的に生成することが難しい\item変数や記号が対応する語句を定義することが難しい\item文型パターンの一部の特徴を利用することができない\end{itemize}発話文の事例から,変数化する部分を決めることは,スロットの対応する部分を決めることと等価であり,スロット名のタグ付き文を利用することで実現できる.しかし,文型パターンには,文とパターンの照合が柔軟に行えるように,語順の入れ替え可能な箇所,任意に修飾表現を挿入できる箇所を示す記号を組み込む必要がある.また,さらに,名詞句の変数や地名を表す変数が導入されたとして,その変数に適合する条件を定義する必要がある.任意に修飾表現を挿入できる箇所を示す記号においても同様に定義を与える必要がある.それらの定義は,サービスごとに異なるものであるが,発話文の事例集が改訂されるごとに見直しが必要である.文型パターンは1文の構造を表すのだが,語句の合成の仕方が複数通り存在し,そうした合成の仕方が複数種類の組み合わせで1文が構成されるとき,組み合わせ数が膨大になる.例えば,「場所+に/へ」の言い方と「時間+に/まで/より/から」の言い方が組み合わさるとき,16通りになる.助詞の組み合わせと,格要素の入れ替えを記号で表すことで1通りの記述に抑えられているが,そのためには手動での分析が必要となる.本稿の強化学習では,語句へのタグの5-gramを参照した状態認識を行っている.字面の5-gramを参照するのでは状態数が多すぎるので,タグの5-gramとしている(ただし助詞は字面と対応したタグ).これにより,スロットに代入可能な部分の定義や,助詞の組み合わせ方について強化学習において学習される.なお,チャンキングを簡単なルールで行っているが,その結果に応じて強化学習が文の部分構造(パターン手法でいうところの変数定義)を学習するため,チャンクルールの性能はあまり重要ではない.また,$Q$関数をサービスごとに使い分けている.そのためサービスに応じた文の部分構造が学習される.\subsection{強化学習を用いる上での難しい点}強化学習は,マルコフ決定過程に基づく判定を行っている.ゆえに,必ず解があり十分な状態の定義と十分な試行が行われるのであれば,学習は収束し,解析も正しい.学習用の発話文コーパスにおいて,スロットの対応箇所を表すタグの付与が一貫していれば正しく学習と解析が行われる.しかし,コーパスにおいて矛盾する箇所が1つでもあれば学習が収束せず,解析時にも誤りが生じやすくなる.例えば,「地図を\cns{<io>}拡大\cns{</io>}してください」とする事例と「鳥取の地図を\cns{<io>}拡大し\cns{</io>}てください」とする事例が混ざっている場合,\cns{io}タグの範囲に矛盾があるため,正しく学習されない.コーパスを正確に作成する必要がある.追加学習において,ユーザがスロットの対応箇所を指定するならば,学習に失敗する恐れが生じる.本稿では,受理された類似文を用いるため,スロットの対応箇所は文字列レベルで一致するようにした.これによりユーザによる誤った学習事例の使用を低減した.しかし,誤った学習をした場合,そこから回復させる直接的な方法がない.正しい事例の学習を再度行うことで回復が可能だが,強化学習での試行回数が多くなる場合は学習時間を要し,主たるサービスの実行に支障の生じる恐れがある.
\section{おわりに}
本稿では,小型計算機における多様なサービスを発話で操作することを目標として,発話文の解析と学習の手法を示した.小型計算機は,自動車旅行を支援する車載器であり,そこでの163種のサービスとその多様な操作を行うために発話文解析を必要とした.操作のための基礎の発話文が必ず受理され,かつ,異なる発話文の受理も可能であること,さらにこれらのための言語解析と学習を低い計算コストで行うことが要件にあった.本手法の解析は,サービスに依存した品詞・語義・チャンクの解析,発話意図解析,および,スロットフィリングを行うものである.発話文への品詞や語義などのタグ付与をサービスの種類ごとに実施し,それぞれのパージングのアレイに結果を格納することとした.語義やチャンクの曖昧性解消がサービスに合わせて行われた.文脈情報として実行中のサービスを参照したところ,サービスに応じた語句の情報を得ることができ,最近傍法による発話意図の解候補を限定することができた.強化学習による$Q$関数をルールベースとし,ルールベースによるスロットフィリングを実現した.$Q$関数の参照する状態にはタグn-gramやスロットの代入状況などを含めた.意図解析の解候補についてスロットフィリングを実行し,意図解析とスロットフィリングにおいて同時に望ましい解析結果となるものを発話文解析結果として選択した.一方,学習に関しては,サービスの設計時に,語句辞書やチャンクルール,および,規定となる命令の発話文セット(コーパス)が定まることとした.意図解析のための最近傍法用事例の生成,および,スロットフィリングのためのルールベース($Q$関数)は車載器のサービスの開始以前にコーパスから学習した.主たるサービスの実行時においても,同義・同類の語句の追加,および,既存の発話意図と同義で新しい言い回しの発話文の追加を可能とした.評価実験において,発話文の解析精度は,クローズドテストにおいて$0.99$およびオープンテストにおいて$0.81$という結果がそれぞれ得られた.小型計算機において,主たるサービスの実行を妨げること無く,発話文の解析と学習をスタンドアロンで行うことが可能であることを確認した.サービスと言語処理の結び付きが強い中で,車載器におけるサービスの増強に対して,本手法はコーパスと語句辞書への単純な追加・修正で対応できた.以上のとおり,既存の研究において発話文解析に有効とされる要素を踏襲しながら,サービスに向けたパージングのアレイおよび強化学習によるスロットフィリングを解析手法に導入した本手法は,小型計算機における応用システムにおいて有効であることが確認された.\acknowledgment本研究はJSPS科研費JP19K12548の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bunt,Petukhova,Traum,\BBA\\mbox{Alexandersson}}{Buntet~al.}{2017}]{Bunt_2017}Bunt,H.,Petukhova,V.,Traum,D.,\BBA\\mbox{Alexandersson},J.\BBOP2017\BBCP.\newblock\BBOQDialogueActAnnotationwiththeISO24617-2Standard.\BBCQ\\newblockIn{\BemMultimodalInteractionwithW3CStandards:TowardNaturalUserInterfacestoEverything},\mbox{\BPGS\109--135}.\bibitem[\protect\BCAY{福岡\JBA白井}{福岡\JBA白井}{2017}]{Fukuoka_2017}福岡知隆\JBA白井清昭\BBOP2017\BBCP.\newblock対話行為に固有の特徴を考慮した自由対話システムにおける対話行為推定.\\newblock\Jem{自然言語処理},{\Bbf24}(4),\mbox{\BPGS\523--546}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{Ikehara_1997}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{池原\JBA阿部\JBA徳久\JBA村上}{池原\Jetal}{2004}]{Ikehara_2004}池原悟\JBA阿部さつき\JBA徳久雅人\JBA村上仁一\BBOP2004\BBCP.\newblock非線形な表現構造に着目した重文と複文の日英文型パターン化.\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\69--95}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Kudo_2004}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblockConditionalRandomFieldsを用いた日本語形態素解析.\\newblock\Jem{情報処理学会研究報告自然言語処理(NL)},{\Bbf2004}(47),\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2016}]{Liu_2016}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2016\BBCP.\newblock\BBOQJointOnlineSpokenLanguageUnderstandingandLanguageModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemtheSIGDIAL2016Conference},\mbox{\BPGS\22--30}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2018}]{Liu_2018}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2018\BBCP.\newblock\BBOQEnd-to-EndLearningofTask-OrientedDialogs.\BBCQ\\newblockIn{\BemNAACL-HLT2018,StudentResearchWorkshop},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{長井\JBA呉\JBA加藤\JBA山本}{長井\Jetal}{2018}]{Nagai_2018}長井敦\JBA呉剣明\JBA加藤恒夫\JBA山本誠一\BBOP2018\BBCP.\newblockAttention-basedRNNmodelを用いた日本語モジュールの意図クラス推定とスロットフィリングにおける未知語対策.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\1054--1057}.\bibitem[\protect\BCAY{Raymond\BBA\Riccardi}{Raymond\BBA\Riccardi}{2007}]{Raymond_2007}Raymond,C.\BBACOMMA\\BBA\Riccardi,G.\BBOP2007\BBCP.\newblock\BBOQGenerativeandDiscriminativeAlgorithmsforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH2007},\mbox{\BPGS\1605--1608}.\bibitem[\protect\BCAY{Watkins\BBA\Dayan}{Watkins\BBA\Dayan}{1992}]{Watkins_1992}Watkins,C.\BBACOMMA\\BBA\Dayan,P.\BBOP1992\BBCP.\newblock\BBOQQ-Learning.\BBCQ\\newblock{\BemMachineLearning},{\Bbf8},\mbox{\BPGS\279--292}.\bibitem[\protect\BCAY{Williams\BBA\Young}{Williams\BBA\Young}{2007}]{Williams_2007}Williams,J.~D.\BBACOMMA\\BBA\Young,S.\BBOP2007\BBCP.\newblock\BBOQPartiallyObservableMarkovDecisionProcessesforSpokenDialogSystems.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf21},\mbox{\BPGS\393--422}.\end{thebibliography}\section*{付録}\subsection*{A.オープンテストにおけるシナリオ}ノートパソコンにプレゼンテーションソフトの画面を表示し,シナリオを被験者に提示した.下記の通番は,被験者に提示する1画面ぶんの情報である.音楽,地図などの見出し(下線部)も提示した.なお,シナリオ中盤の(13)は,運転手が行うべきでない操作である.実験の緊張をほぐす目的で状況を設定した.\begin{description}\item(1)実験準備\item-心境を指定するので口頭で命令してください.\item-車載器に命令するときの口調\item「ですます」調.〜してください\item\underline{音楽}\item(2)音楽を聞こうと思います.\item(3)駐車場の人と話をするところです.音楽をとめようと思います.\item(4)再び音楽を聞こうと思います.\item(5)この曲に飽きました.別の曲を聞こうと思います.\item\underline{地図}\item(6)国道29号線を走っています.青い標識を見て,右折した先が気になりました.\item※実験時には写真を掲載.写真:右折先は国道429号線,朝来方面.\item(7)地図の字が小さくて読めません.\item(8)北の方を見たいと思います.\item\underline{観光レーダ}\item(9)退屈です.観光地がないかレーダを見たいです.\item(10)とりあえず何かガイドをしてもらいたいです.\item(11)鳥取砂丘に着く前にWikipediaで調べようと思います.\item(12)ガイドをとめたいと思います.\item\underline{ビデオ}\item(13)高速道路にのりました.中国自動車道はガラガラなのでビデオをみようと思います.\item(14)別のものを見ようと思います.\item(15)ビデオをやめます.\item\underline{ブログ}\item(16)ブログの話を聞こうと思います.\item(17)ブログの話はやめます.\item\underline{駐車記録}\item(18)記録を残します.\item-見た物,食べたもの,行ったところ\item-楽しい,つまらない\item-「以上です」で終了\item\underline{天気}\item(19)今日の天気が気になります.天気図を見ようと思います.\item(20)降水状況が心配です.\item(21)岡山の天気を調べようと思います.\item\underline{観光スポット・ブラウザ}\item(22)観光スポットを調べるためにブラウザを使いたいと思います.\item(23)ラーメン屋の記事を読みたいと思います.\item(24)場所を知りたいです.\item\underline{スケジュール}\item(25)予定をたてようと思います.\item-18時にラーメン屋に行きます.\item-その前にイオンに行きます\item-やっぱり,順番を変えます.\item-「以上です」で終了\itemシャットダウン\item(26)車を駐車しようと思います.シャットダウンをします.\end{description}\clearpage\begin{biography}\bioauthor{徳久雅人}{1995年九州工業大学大学院情報工学研究科博士前期課程修了.1995年九州工業大学情報工学部助手.2002年鳥取大学工学部助手.2010年2月より鳥取大学工学部講師.博士(工学).自然言語処理を応用した観光情報処理の研究に従事.}\bioauthor{木村周平}{1998年京都大学大学院工学研究科修士課程修了.2001年東京工業大学大学院総合理工学研究科博士後期課程修了.2001年4月理化学研究所ゲノム科学総合研究センター研究員.2004年10月鳥取大学工学部准教授(助教授).2014年1月より鳥取大学工学部教授.博士(工学).進化計算,バイオインフォマティクスなどの研究に従事.}\end{biography}\biodate\end{document}
| |
V03N01-04
|
\section{はじめに}
日本語文章における名詞の指す対象が何であるかを把握することは,高品質の機械翻訳システムを実現するために必要である.例えば,以下の文章中の二つ目の「おじいさん」は前文の「おじいさん」と同じなので翻訳する際には代名詞化するのが望ましい.\begin{equation}\begin{minipage}[h]{10cm}\underline{おじいさん}は地面に腰を下ろしました.\\\underline{Theoldman}satdownontheground.\\[0.1cm]やがて\underline{おじいさん}は眠ってしまいました.\\\underline{He}soonfellasleep.\end{minipage}\label{eqn:ojiisan_jimen_meishi}\end{equation}これを計算機で行なうには,二つの「おじいさん」が同じ「おじいさん」を指示することがわかる必要がある.そこで,本研究では名詞の指示性,修飾語,所有者などの情報を用いて名詞の指示対象を推定する.このとき,指示詞や代名詞やゼロ代名詞の指示対象も推定する.英語のように冠詞がある言語の場合は,それを手がかりにして前方の同一名詞と照応するか否かを判定することができるが,日本語のように冠詞がない言語では二つの名詞が照応関係にあるかどうかを判定することが困難である.これに対して,我々は冠詞に代わるものとして名詞の指示性\cite{match}を研究しており,これを用いて名詞が照応するか否かを判定する.名詞の指示性とは名詞の対象への指示の仕方のことであり,総称名詞,定名詞,不定名詞がある.定名詞,不定名詞はそれぞれ定冠詞,不定冠詞がつく名詞に対応する.総称名詞には定冠詞,不定冠詞のどちらがつくときもある.名詞の指示性が定名詞ならば既出の名詞と照応する可能性があるが,不定名詞ならば既出の名詞と照応しないと判定できる.以上で述べた名詞の指示性の情報だけでは指示対象が異なる二つの名詞の指示対象が同一であると誤る場合がある.この誤りを正すために名詞の修飾語や所有者の情報を用い,より確実に名詞の指示対象の推定を行なう.
\section{名詞の指示性}
名詞による照応現象の例として以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}昔,昔,\underline{おじいさん}と\underline{おばあさん}が住んでおりました.\\\underline{おじいさん}は山へ柴刈りに,\underline{おばあさん}は川に洗濯に行きました.\end{minipage}\label{eqn:ojiisan_obaasan_meishi}\end{equation}第一文目の「おじいさん」と第二文目の「おじいさん」は同じおじいさんを指示し,これらは照応関係にある.このような名詞による照応現象を解析する際に名詞の指示性が重要になる.指示性とは名詞の対象への指示の仕方のことである.上の例文(\ref{eqn:ojiisan_obaasan_meishi})の第二文目の「おじいさん」は,定名詞句に相当する文脈上唯一の事物を指示するという指示性を持っていることから,第一文目の「おじいさん」を先行詞として照応することがわかる.このように名詞の指示性は照応関係を明らかにするために重要な役割を持つ.以下に名詞の指示性\footnote{名詞の指示性についてはわれわれはすでに研究している\cite{match}.}について説明する.指示性の観点から,まず名詞句は,その名詞句の類の成員すべてか類自体を指示対象とする{\bf総称名詞句}と,類の成員の一部を指示対象とする{\bf非総称名詞句}に分ける.次に,非総称名詞句を指示対象が確定しているか否かで,{\bf定名詞句}と{\bf不定名詞句}に分ける.さらに,不定名詞句を実際にその名詞の指示するものが存在しているか否かによって特定性不定名詞句と不特定性不定名詞句に分ける(図\ref{fig:sijisei_bunrui})\footnote{この分類は文献\cite{meishi}を参考にした.}.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{270pt}\begin{center}{\small\[\mbox{\normalsize名詞句}\left\{\begin{array}[h]{ccc}\mbox{\normalsize総称名詞句}&\\&\\\mbox{\normalsize非総称名詞句}&\left\{\begin{array}[h]{cc}\mbox{\normalsize定名詞句}\\\\\mbox{\normalsize不定名詞句}&\left\{\begin{array}[h]{cc}\mbox{\normalsize特定性}\\\\\mbox{\normalsize不特定性}\end{array}\right.\end{array}\right.\end{array}\right.\]}\end{center}\caption{名詞の指示性の分類}\label{fig:sijisei_bunrui}\end{minipage}}\end{center}\end{figure}\paragraph{総称名詞句}総称名詞句は,その名詞句が意味する類に属する任意の成員のすべて,もしくはその名詞句が意味する類それ自身を指示する.例えば,次の文(\ref{eqn:doguse})の「犬」は総称名詞句である.\begin{equation}\underline{犬}は役に立つ動物です.\label{eqn:doguse}\end{equation}ここでの「犬」は「犬」という類に属する成員のすべてを指示対象としている.総称名詞句であると判断できれば,その名詞句は他の名詞句と照応することはないと判断できる\footnote{二つの総称名詞は照応関係になりえるが,本研究ではこの総称名詞の照応は照応関係に含めていない.これは,総称名詞の場合,意味が同一ならば必ず同一のものを指示するため,多義性の問題を解消すれば照応処理が行なえたと言って良いからである.}.\paragraph{定名詞句}定名詞句は,その名詞句が意味する類に属する文脈上唯一の成員を指示する.例えば,次の文(\ref{eqn:thedoguse})の「犬」は定名詞句である.\begin{equation}その\underline{犬}は役に立ちます.\label{eqn:thedoguse}\end{equation}ここでの「犬」は,「犬」という類に属する文脈上唯一の成員を指示対象としている.定名詞であると判断できれば,その名詞は既出の名詞と照応すると予想され,先行詞を探すことになる.\paragraph{不定名詞句}不定名詞句は,その名詞句が意味する類に属するある不特定の成員を指示する.不特定の成員を指示するというのは,現時点での聞き手の情報ではその名詞句が成員のどれを指し示すのか確定していないという意味である.不定名詞句は総称名詞句とは異なり,その名詞句の意味する類の成員のすべてを指示するのではなくて,その名詞句の意味する類の成員の一部を指示する.次の文の「犬」は不定名詞句である.\begin{equation}\underline{犬}が三匹います.\label{eqn:dog3}\end{equation}ここでの「犬」は犬という類に属する任意の三匹の成員を指示対象として持ちえる.これはどんな犬でも三匹いればこの文が使えるということである.不定名詞句には,更に,{\bf特定性不定名詞句}と{\bf不特定性不定名詞句}がある.特定性不定名詞句とは,実際にその名詞の指示するものが存在し,それを指すことが話者に認識されている不定名詞句のことである.不特定性不定名詞句とは,実際にその名詞の指示するものが存在するかどうかわからず,それを指すことが話者に認識されていない不定名詞句のことである.例えば,上の文(\ref{eqn:dog3})の「犬」は特定性不定名詞句であり,次の文の「犬」は不特定性不定名詞句である\begin{equation}\underline{犬}を飼っていらっしゃいますか?\label{eqn:dog_kau}\end{equation}不特定性の不定名詞句は,照応関係になることはなく,後に出てくる名詞によって指示されることはない.それに対し,特定性の不定名詞句は,既に出ている名詞を指示することはないが,後に出てくる名詞によって指示される可能性がある.
\section{名詞の指示対象の推定方法}
本研究では名詞の指示対象の推定する際に,以下の三つの点に注目する.\begin{itemize}\item名詞の指示性\item名詞の修飾語\item名詞の所有者\end{itemize}これらの三つの観点から作成した条件を以下で説明する.本研究ではこれらの条件をすべて満足するときのみ照応すると解析する.\subsection{名詞の指示性の利用}表層表現から名詞の指示性を推定し\footnote{\label{foot:sijisei}総称名詞,定名詞,不定名詞の判定は文献\cite{match}で行ない,不定名詞における特定性・不特定性の判定は``「(名詞A)が存在しない」ならば名詞Aは不特定性''という表層表現を利用した決定的な規則により行なっている.文献\cite{match}の利用においては次の二点の変更を行なった.(1)名詞の意味素性\cite{imiso-in-BGH}がPAR(動物の一部)の場合定名詞に得点を加えるという規則を追加した.これは,動物の一部を表わす名詞はほとんどの場合その所有者が近くに存在しそれに限定されるために定名詞であるからである.(2)同一名詞が前方にある場合定名詞などに得点を与える規則があったがこれを省いた.これは,同一名詞が前方にあるだけではそれと照応するかどうかが明らかでないためである.}これを利用して指示対象を推定する.推定した指示性が定名詞句の場合は前方にある同一名詞を指示対象とする.例えば,以下の例文の二文目の「おじいさん」は,助詞「は」がつき係る動詞が過去形であるという表層表現から名詞の指示性が定名詞句であると推定でき,最も近い前方の同一名詞の「おじいさん」と照応すると解析できる.\begin{equation}\begin{minipage}[h]{10cm}昔,昔,\underline{おじいさん}と{おばあさん}が住んでおりました.\\\underline{おじいさん}は山へ柴刈りに,{おばあさん}は川に洗濯に行きました.\end{minipage}\label{eqn:ojiisan_obasan_kotai}\end{equation}推定した指示性が定名詞句以外の場合は,前方の主題と焦点\footnote{本研究での主題と焦点はそれぞれ表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}により定義する.ノ格が先行詞である場合もあるが,主題や焦点にノ格を含めていない.これは,ノ格を主題や焦点に加えると全体としての解析誤りが増えるからである.}から指示対象を探し,以下の三つの情報を組み合わせることにより照応するか否かを判定する.\begin{itemize}\item指示性の推定における定名詞句でない度合\footnote{文献\cite{match}による指示性の推定では得点を用いており,定名詞句でないと推定した場合得点から定名詞句でない度合が得られる.その度合が大きいほど照応しにくくする.この度合は,具体的には後で述べる表\ref{tab:teimeishidenai_doai}により計算する.}\item主題・焦点の重み\item指示対象との距離\end{itemize}本来は定名詞句以外の場合は既出の名詞を指示することはないが,名詞の指示性の推定を誤ることがあり実際には定名詞句の可能性があるためこのような処理を行なう.\subsection{名詞の修飾語の利用}名詞の指示性の情報だけでは,指示対象が異なる二つの名詞の指示対象が同一であると誤る場合がある.例えば,以下の例文中の「左の頬」は指示性が定名詞であるので,指示性の情報だけでは前方の「右の頬」と照応すると解析してしまう.\begin{equation}\begin{minipage}[h]{10cm}さて,隣の家に瘤のあるおじいさんがもう一人住んでおりました.\\このおじいさんの瘤は\underline{右の頬}にありました.\\(中略)\\天狗達は,前の晩に来たおじいさんから取った瘤をそのおじいさんの\underline{左の頬}に付けてしまいました.\end{minipage}\label{eqn:mouhitori_ojiisan_hoho_kobu}\end{equation}このような誤りを生じないようにするために,本研究では修飾語を持つ名詞については,同じ修飾語を持つ同一名詞であることを照応する条件とする.\subsection{名詞の所有者の利用}修飾語のない名詞の場合でも所有者を推定できる場合は所有者を修飾語と同じように用いることで適正な指示対象の推定を行なう.すなわち,所有者を推定できる名詞の場合は,同じ所有者を持つ同一名詞であることを照応する条件とする.例えば,以下の文章中の「頬」は所有者が同じ「おじいさん」であることから照応する.\begin{equation}\begin{minipage}[h]{10cm}さて,おじいさんには\underline{(おじいさんの)左の頬}に瘤がありました.\\それは人の拳ほどもある瘤でした.\\まるで\underline{(おじいさんの)頬}を(おじいさんが)膨らませているかの様に見えるのでありました.\end{minipage}\label{eqn:ojiisan_hoho_huku}\end{equation}所有者の推定は,意味素性\footnote{本研究では名詞意味素性辞書\cite{imiso-in-BGH}を用いる.}が動物の一部を意味するPARである名詞に対してのみ行なう.その名詞が存在する文の主語かそれまでの主題の中から意味素性がHUM(人間)かANI(動物)のものを探し出して,それを所有者とする.\subsection{補足}前節までの説明では同一名詞の場合に限っていたが,以下の例のようにある名詞を末尾に含む名詞がその名詞の指示対象となることがある.\begin{equation}\begin{minipage}[h]{10cm}オーストリアの\underline{レルヒ少佐}が、日本の陸軍将校に、本格的にスキーを教えはじめたのは、明治の末のことである。\underline{少佐}は日本の軍人たちを前にしてまず「メテレスキー」と号令した。\end{minipage}\label{eqn:bubun_mojiretu}\end{equation}このような場合も解析できるように,本研究では前節までの説明での名詞が同一であるという条件を末尾に含むという条件に変更する.ただし,末尾に含むという条件の場合は同一名詞の場合に比べ照応しにくいのでこれを考慮した解析を行なう.
\section{代名詞等の指示対象の推定方法}
指示詞については種類が多く,それぞれに対して詳細に規則を作ることによって指示対象を推定する.代名詞は会話文章中によく現れるので,会話文章の話し手や聞き手を把握することで\footnote{\label{footnote:kaiwa}会話文章の話し手や聞き手の推定は,その会話文章の発話動作を表す用言のガ格とニ格をそれぞれ話し手,聞き手とすることによって行なう.会話文章の発話動作を表す用言は,その会話文章に「と言った.」などがつけばそれとし,そうでない場合は前文の文末の用言とする.},指示対象を推定する.ゼロ代名詞は,主題や焦点と格フレームによる選択制限によって推定する\cite{Murata_ipal95}.\footnote{指示詞・代名詞・ゼロ代名詞の指示対象の推定方法については別の機会に詳しく述べる.}
\section{名詞等の指示対象を推定する枠組}
\begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{8cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..\}\\[-0.1cm]\hspace*{0.7cm}提案:=(指示対象の候補\,得点)\caption{列挙判定規則の表現}\label{fig:kouho_rekkyo}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{8cm}\hspace*{1.5cm}条件部$\Rightarrow$(得点)\caption{判定規則の表現}\label{fig:kouho_hantei}\end{minipage}}\end{center}\end{figure}\subsection{推定の手順}\label{wakugumi}本研究での名詞の指示対象の推定は,名詞の解析の手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて指示対象の候補に得点を与えて,合計点が最も高い候補を指示対象とすることによって実現する.まず,解析する文章を構文解析・格解析する\cite{csan2_ieice}.その結果に対して文頭から順に文節ごとにすべての規則を適用して指示対象を推定する.規則には,指示対象の候補をあげながらその候補の良さを判定する列挙判定規則とその列挙された複数の候補すべてに対して適用する判定規則の二種類がある.列挙判定規則は図\ref{fig:kouho_rekkyo},判定規則は図\ref{fig:kouho_hantei}の構造をしている.図中の「条件部」には文章中のあらゆる語,その分類語彙表\cite{bgh}の分類番号,IPALの格フレーム\cite{ipal}の情報,名詞の指示性の情報,構文解析・格解析の結果の情報などを条件として書くことができる.「指示対象の候補」には指示対象の候補とする名詞の位置もしくは「特定指示として導入」などを書くことができる.「特定指示として導入」のときは,個体を特定指示として新たに導入する.これは特定性不定名詞句$^{\ref{foot:sijisei}}$などのように,既出の個体を指示せず談話に新たに特定指示として個体を導入する場合に利用される.「得点」は指示対象としての適切さの度合を表している.指示対象の推定は条件を満足した規則により与えられる得点の合計点で行なう.まずすべての列挙判定規則を適用し得点のついた指示対象の候補を列挙する.このとき同じ候補を列挙する規則が複数あれば得点は加えてまとめる.次に列挙された指示対象の各候補に対してすべての判定規則を適用して,各候補ごとに得点を合計する.最も合計点の高い指示対象の候補を指示対象と判定する.最も合計点の高い指示対象の候補が複数個ある場合は,一番初めに出された指示対象の候補を指示対象とする.\subsection{指示対象の推定に用いる規則}{\bf名詞の解析のための規則}名詞の解析は列挙判定規則のみで行なった.列挙判定規則は9個作成したが,それらをすべて適用順序に従って以下に示す.すべての規則をあげたのは,本研究のような規則を用いて解析する方法では規則が一番重要なものであると考えるからである.{{\bf名詞の解析のための列挙判定規則}\begin{enumerate}\item「以下」「後述」の名詞や「次のような/次のように/次の〜点」における「次」の場合\\\{(次の文\,$50$)\}\footnote{列挙判定規則の提案のリストを表わす.図\ref{fig:kouho_rekkyo}参照.}~\footnote{\label{foot:matsuoka}この規則は,松岡\cite{matsuoka_nl}を利用している.}\begin{itemize}\item[(使用例)]\underline{以下}は,中国を旅行した同僚記者の取材メモによる.\\北京内燃機総廠(しょう)という有力なエンジンメーカーがある.\\日本の会社と異なるのは重役陣が,住宅,医療,老後など従業員と家族の民生面まで責任を担っていることだろう.\end{itemize}\item「それぞれの」「各々の」「各」などに修飾された名詞の場合\\\{(特定指示として個体導入\,$25$)\}\begin{itemize}\item[(使用例)]今回のG7では,\.そ\.れ\.ぞ\.れ\.の\hspace{-0.2mm}\underline{国}\hspace{-0.2mm}が経済政策の基本的な考え方を示し理解を求めておくべきだ.\end{itemize}\item「自分」の場合\\\{(「自分」が存在する文の主格,「自分」が主格の場合は「自分」を含む文の主節の主格\,$25$)\}\begin{itemize}\item[(使用例)]一時は,\underline{自分(=重原勇治さん)}が経営していた薬品会社の社長の座を\\\.(\.重\.原\.勇\.治\.さ\.ん\.が\.)退いた.」\end{itemize}この例文中の「\.(\.重\.原\.勇\.治\.さ\.ん\.が\.)」は前方の文章から復元されたものである.\item\label{enum:定名詞探索}推定した名詞の指示性が定名詞の場合で,その名詞を末尾に含み修飾語や所有者が同じ名詞Aが前方にある場合(ただし固有名詞の場合は,修飾語や所有者の条件を無視し,また,末尾に限らず含まれればよいとする\footnote{修飾語や末尾の文字が異なることで異なる事物を指す場合があるが,修飾語や末尾の文字が異なっていても照応すると解析した方が精度が良くなるためである.}.)\\\{(名詞A\,$20$)\}\item\label{enum:総称名詞導入}名詞の指示性が総称名詞の場合\\\{(総称指示として個体導入\,$10$)\}\footnote{\label{foot:soushou_dounyu}総称指示もしくは不特定指示として導入された個体は,他の名詞から指示されないようにしている.}\item名詞の指示性が不特定性の不定名詞の場合\\\{(不特定指示として個体導入\,$10$)\}$^{\ref{foot:soushou_dounyu}}$\item名詞の指示性が総称名詞でも不特定性の不定名詞でもない場合\\\{(特定指示として個体導入\,$10$)\}\item「普通」「様」「大部」「一緒」「本当」「何」などの指示対象を持たない名詞の場合\\\{(指示対象なし\,$30$)\}\begin{itemize}\item[(使用例)]天狗達は\underline{一緒}に笑い出しました.\end{itemize}\begin{table}[t]\begin{center}\leavevmode\caption{定名詞でない度合}\label{tab:teimeishidenai_doai}\begin{tabular}[h]{|l|r|}\hline指示性の推定における得点の状況&定名詞でない度合$d$\\\hline定名詞の得点を越える得点を総称名詞と不定名詞が持たない時&0\\定名詞の得点より1点高い得点を総称名詞か不定名詞が持つ時&$3$\\定名詞の得点より2点高い得点を総称名詞か不定名詞が持つ時&$6$\\定名詞の得点より3点以上高い得点を総称名詞か不定名詞が持つ時&規則は適用されない\\\hline\end{tabular}\end{center}\end{table}\item\label{enum:定名詞以外探索}この規則は名詞の指示性が定名詞以外の場合に適用される.以下の得点の説明で用いるdとwとnの説明をする.dは,文献\cite{match}によって推定した指示性に基づいて表\ref{tab:teimeishidenai_doai}から定まる定名詞でない度合である.wは,表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}から定まる主題と焦点の重みである.nは,今解析している名詞と指示対象の候補とする名詞との間の距離を反映した数字である.\begin{table}[t]\caption{主題の重み}\label{fig:shudai_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|c|}{表層表現}&\multicolumn{1}{|c|}{例}&重み\\\hline{ガ格の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}が)した.&21\\\hline名詞は/には&\underline{太郎}はした.&20\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{焦点の重み}\label{fig:shouten_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|l|}{{表層表現(「は」がつかないもので)}}&\multicolumn{1}{|c|}{例}&重み\\\hline{ガ格以外の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}に)した.&16\\\hline{名詞が/も/だ/なら/こそ}&\underline{太郎}がした.&15\\\hline名詞を/に/,/.&\underline{太郎}にした.&14\\\hline名詞へ/で/から/より&\underline{学校}へ行く.&13\\\hline\end{tabular}\end{center}\end{table}\{(修飾語や所有者が同じで重みが$w$で$n$個前\footnote{主題が何個前かを調べる方法は,主題だけを数えることによって行なう.主題がかかる用言の位置が今解析している文節よりも前の場合はその用言の位置にその主題があるとして数える.そうでない場合はそのままの位置で数える.}の同一名詞の主題\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の主題\,$w-n-d+4-5$)\\(修飾語や所有者が同じで重みが$w$で$n$個前の同一名詞の焦点\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の焦点\,$w-n-d+4-5$)\}\footnote{\label{foot:meishi_shouou}提案リスト中の式$w-n-d+4$の一つ目の項は主題・焦点の重みが大きいほど指示対象として適正であることを意味する項である.二つ目の項は照応詞と先行詞との距離が離れているほど照応しにくいことを意味する項であり,三つ目の項は定名詞でない度合が大きいほど照応しにくいことを意味する項である.四つ目の項は他の規則との整合性から定めたものである.また,今解析している名詞を末尾に含む名詞の場合は,さらに$-5$を加えているが,これは同一名詞に比べて照応しにくくするためである.}\end{enumerate}}{\bf指示詞や代名詞やゼロ代名詞の解析のための規則}指示詞や代名詞やゼロ代名詞を解析するために,列挙判定規則,判定規則をそれぞれ79個,21個作成したが,そのうち主要なものを以下に示す.{{\bf指示詞や代名詞やゼロ代名詞の解析のための列挙判定規則}\begin{enumerate}\item「それ/あれ/これ」や連体詞形態指示詞の場合で,その指示詞の直前の文節に用言の基本形か「〜とか」などの例を列挙するような表現がある場合\\\{(例を列挙するような表現\,$40$)\}\item「それ/あれ/これ」や連体詞形態指示詞の場合\\\{(前文,もしくは,指示詞の前方の同一文内に逆接接続助詞か条件形を含む用言がある場合はその用言\,$15$)\}\begin{itemize}\item[(使用例)]おじいさんは一所懸命に歌い,そして\underline{おじいさんは}\\\underline{一所懸命に踊りました}\.が,\underline{それ}は言葉では言い表せないほど下手糞でありました.\end{itemize}\item名詞形態指示詞か「その/この/あの」の場合\\\{(重みが$w$で主題と焦点を合わせて数えて$n$個前にある,同一文中か前文の主題\,$w-n-2$)\\(重みが$w$で主題と焦点を合わせて数えて$n$個前にある,同一文中か前文の焦点\,$w-n+4$)\}\footnote{提案リスト中の式$w-n-2$,$w-n+4$の一つ目の項と二つ目の項は注\ref{foot:meishi_shouou}と同様である.最後に係数$-2$,$4$をつけたのは,指示詞の場合既知情報の主題と照応するよりも未知情報の焦点と照応しやすいと考えたためである.}\item一人称の代名詞の場合\{(話し手\,$25$)\}\itemガ格の省略の場合のデフォルト規則\\\{(重みが$w$で$n$個前の主題\,$w-n*2$+1)\\(重みが$w$で$n$個前の焦点\,$w-n$+1)\\(今解析している節と並列の節の主格\,25)\\(今解析している節の従属節か主節の主格\,23)\\(今解析している節が埋め込み文の場合で主節の主格\,22)\}\footnote{提案リスト中の式$w-n*2$+1,$w-n$+1の一つ目の項と二つ目の項は注\ref{foot:meishi_shouou}とほぼ同様である.係数は他の規則との整合性から定めたものである.式$w-n*2$+1の二つ目の項は2倍されているが,これは主題が焦点よりも出現する割合が小さいからである.}主題や焦点の定義と重みは表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}のとおりである.\end{enumerate}以上の他に表層表現から指示対象を推定する規則がある.}{{\bf指示詞や代名詞やゼロ代名詞の解析のための判定規則}\begin{enumerate}\item「ここ/そこ/あそこ」であって,指示対象の候補となった名詞が場所を意味する意味素性LOCを満足する時,$10$点を与える.\itemソ系の連体詞形態指示詞の場合に,それが係る名詞Bの用例「名詞Aの名詞B」\footnote{この用例にはEDRの共起辞書\cite{edr_kyouki_2.1}を用いる.}を検索し,名詞Aと指示対象の候補となった名詞の類似レベルにより得点を与える.\item代名詞の場合に,指示対象の候補となった名詞が意味素性HUMを満足する時,$10$点を与える.\item指示対象の候補となった名詞と格フレームの格要素の用例の名詞との類似レベルにより得点を与える\cite{Murata_ipal95}.\end{enumerate}以上の他に,名詞形態指示詞の場合は人を指示対象としにくくするための判定規則などがある.}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[h]{13cm}その時お爺さんはあまり遠くない所にある空き地に火が燃えているのに気が付きました。赤い顔をして、鼻の青い、恐ろしい目付きの五六人の男が、\underline{火}の周りに立っているのを見ました。\vspace{0.5cm}\begin{tabular}[h]{|l|r|r|r|}\hline候補&総称指示として導入&前文の「火」\\\hline\ref{enum:総称名詞導入}番目の規則&10&\\\ref{enum:定名詞以外探索}番目の規則&&12\\\hline合計&10&12\\\hline\end{tabular}\vspace{0.2cm}指示性の推定結果\vspace{0.2cm}\begin{tabular}[h]{|l|r|r|r|}\hline指示性&不定名詞&定名詞&総称名詞\\\hline得点&1&2&3\\\hline\end{tabular}\begin{tabular}[h]{lcl}\ref{enum:定名詞以外探索}番目の規則&$=$&$w-n-d+4$\\&$=$&$15-4-3+4=12$\\\end{tabular}\caption{名詞の指示対象の推定例}\label{tab:dousarei}\end{minipage}}\end{center}\end{figure}\subsection{名詞の指示対象の推定例}名詞の指示対象を推定した例を図\ref{tab:dousarei}に示す.これは図中の下線部の「火」の解析を正しく行なったことを示している.これを以下で説明する.まず,下線部の「火」の指示性を推定するが,助詞「の」がつく時に適用される規則\footnote{文献\cite{match}の研究では助詞「の」がつく場合で他に手がかり語がない場合は総称名詞と推定する.「の」は旧情報と結び付きやすい性質を持っており,ほとんどの場合は定名詞か総称名詞のいずれかである.定名詞の場合は他の情報により推定可能になると考え,他に情報がない場合は総称名詞と推定する.}により図中の下の表の推定結果のように総称名詞と誤る.推定結果が総称名詞であることから,\ref{enum:総称名詞導入}番目の規則により「総称指示として導入」という候補があげられ,それに10点が与えられる.また,指示性の推定を誤った場合のことを考慮する\ref{enum:定名詞以外探索}番目の規則によって``前文の「火」''が候補としてあげられる.この候補に与えられる得点は,式$w-n-d+4$によって与えられる.式中の重み$w$は,``前文の「火」''につく助詞が「が」であることから表\ref{fig:shouten_omomi}より15である.また,今解析している下線部の「火」から見て``前文の「火」''までに焦点が「男」「顔」「気」``前文の「火」\hspace{-1.4mm}''と4個あるので,``前文の「火」\hspace{-1.4mm}''までの距離$n$は$4$である.また,指示性の推定に\mbox{おける}総称名詞と定名詞の得点差が1により表\ref{tab:teimeishidenai_doai}から定名詞でない度合$d=3$が得られる.よって,表中の式の計算の結果,12点となる.候補の中で合計点がもっとも高い``前文の「火」\hspace{-1.4mm}''が\mbox{指示対}象と正しく解析される.\begin{table*}[t]\fbox{\begin{minipage}[h]{14cm}\caption{本研究の実験結果}\label{tab:sougoukekka}\begin{center}\begin{tabular}[c]{|p{2.4cm}|r|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|p{2cm}|}{テキスト}&\multicolumn{1}{|l|}{文数}&\multicolumn{2}{l|}{名詞}&\multicolumn{2}{l|}{指示詞}&\multicolumn{2}{l|}{代名詞}&\multicolumn{2}{l|}{ゼロ代名詞}\\\hline学習サンプル&204&85\%&(130/153)&87\%&(41/47)&100\%&(9/9)&86\%&(177/205)\\\hlineテストサンプル&184&77\%&(89/115)&86\%&(42/49)&82\%&(9/11)&76\%&(159/208)\\\hline\end{tabular}\end{center}各規則で与える得点は学習サンプルにおいて人手で調節した.\\{\small学習サンプル\{例文(43文),童話「こぶとりじいさん」全文(93文)\cite{kobu},天声人語一日分(26文),社説半日分(26文),サイエンス(16文)\}\\テストサンプル\{童話「つるのおんがえし」前から91文抜粋\cite{kobu},天声人語二日分(50文),社説半日分(30文),サイエンス(13文)\}}\end{minipage}}\end{table*}
\section{実験と考察}
指示対象の推定を行なう前に構文解析・格解析を行なうが,そこでの誤りは人手で修正した.格フレームはIPALの辞書のものを用いたが,IPALの辞書にない用言に対しては人手で格フレームを作成した.本研究による方法で名詞,指示詞,代名詞,ゼロ代名詞の指示対象を解析した実験結果を表\ref{tab:sougoukekka}に示す.名詞の解析精度は文中に指示対象が存在する名詞についてのものである.これは照応する名詞に注目したためである.ゼロ代名詞の解析精度は指示対象が存在するか否かがあらかじめわかっていると仮定して解析した時の精度である.また,本稿であげた各手法の有効性を確かめるために指示性の利用の仕方をかえて表\ref{tab:sijisei_taishou}の対照実験を行なった.表のように,本研究の規則による方法では適合率と再現率がともに均等に良かった.これは本研究の規則が指示性を適切に利用していることを意味している.また,本研究の方法は指示性を用いない方法に比べ適合率と再現率がともに良いので,指示性を用いることが有効であることがわかる.指示性が定名詞句と推定された名詞句のみが照応するとした方法では再現率が悪い.これは指示性の推定の時に定名詞句であるのに他の名詞句と誤って推定し,照応しないとシステムが解析したためである.また,修飾語・所有者の条件を用いない方法では適合率が悪い.これは,修飾語・所有者の条件を用いなければ,指示性が定名詞句であっても「左の頬」と「右の頬」のように照応しないものが多く,これらを誤って照応すると解析してしまうからである.また,末尾に含む名詞とすべて照応するとした方法ではさらに適合率が悪くなる.これは,修飾語・所有者の条件の他に指示性の条件を用いないため,不定名詞句であると判定された名詞も前方の名詞と照応すると解析するからである.\begin{table*}[t]\leavevmode\fbox{\begin{minipage}[h]{14cm}\hspace*{0.5cm}\caption{名詞の解析における対照実験の結果}\label{tab:sijisei_taishou}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|r@{}c|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{2}{|p{2.3cm}|}{\mn{指示性が定名詞句と推定された名詞句のみ照応する}}&\multicolumn{2}{|p{2.3cm}|}{本研究の規則}&\multicolumn{2}{|p{2.3cm}|}{\mn{指示性を用いない}}&\multicolumn{2}{|p{2.3cm}|}{\mn{修飾語・所有者の条件を用いない}}&\multicolumn{2}{|p{2.3cm}|}{\mn{末尾に含む名詞とすべて照応する}}\\\hline\multicolumn{10}{|l|}{学習サンプル}\\\hline92\%&(117/127)&82\%&(130/159)&72\%&(123/170)&65\%&(138/213)&52\%&(134/260)\\76\%&(117/153)&85\%&(130/153)&80\%&(123/153)&90\%&(138/153)&88\%&(134/153)\\\hline\multicolumn{10}{|l|}{テストサンプル}\\\hline92\%&(78/85)&79\%&(89/113)&69\%&(79/114)&58\%&(92/159)&47\%&(102/218)\\68\%&(78/115)&77\%&(89/115)&69\%&(79/115)&80\%&(92/115)&89\%&(102/115)\\\hline\end{tabular}\end{center}\small表中の上段と下段はそれぞれ適合率と再現率を表す.評価に適合率と再現率を用いたのは,先行詞がない名詞をシステムが誤って先行詞があると解析することがあり,この誤りを適切に調べるためである.適合率は先行詞を持つ名詞のうち正解した名詞の個数を,システムが先行詞を持つと解析した名詞の個数で割ったもので,再現率は先行詞を持つ名詞のうち正解した名詞の個数を,先行詞を持つ名詞の個数で割ったものである.「指示性が定名詞句と推定された名詞句のみ照応する」は名詞の解析のための\ref{enum:定名詞以外探索}番目の規則をけずったものに相当し,「指示性を用いない」は\ref{enum:定名詞探索}番目の規則をけずり,\ref{enum:定名詞以外探索}番目の規則のdをけずりこの規則がいずれの指示性の時でも適用されるようにしたものに相当する.\end{minipage}}\end{table*}\subsection*{誤り例}修飾語句や所有者を利用して指示対象の絞り込みを行なったが,これが有効に働いた.しかし,以下の例のように所有者の推定を誤ったために,指示対象の推定を誤ったものがあった.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは(おじいさんの)\.背\.中から柴の束を下ろして,一休みするために地面に腰を下ろしました.\\(中略)\\初めのうちは,おじいさんは男達を人間だと思っていましたが,間もなく天狗である事が分かりました.\\\underline{(天狗の)背中}には大きな翼があるのです.\end{minipage}\label{eqn:ojiisan_senaka_ayamari}\end{equation}この例の下線部の「背中」は動物の一部なので所有者を求めるが,正しい所有者は「天狗」であるが主題が前文の「おじいさん」と判断されて「おじいさん」が下線部の「背中」の所有者と誤って解析された.このため,この「背中」は文章のかなり前にあった「おじいさんは(おじいさんの)\.背\.中から柴の束を下ろして」の部分の「(おじいさんの)\.背\.中」を下線部の「背中」の指示対象と誤って解析された.また,修飾語句が異なっていても照応する場合があり,このような場合は解析を誤った.\begin{equation}\begin{minipage}[h]{10cm}そこでおじいさんは\underline{近くの大きな杉の木の根元にある穴}で雨宿りをすることにしました.\\(中略)\\次の日,このおじいさんは山へ行って,\\\underline{杉の木の根元の穴}を見つけました.\end{minipage}\label{eqn:ojiisan_ana_shouou}\end{equation}この例の下線部の「穴」は同一の穴であり照応するが,修飾語の文字列が異なっているため照応しないと誤って解析された.このような場合についても解析できるようにするには,異なる表現であっても同じ意味であることを把握できるようにする必要がある.
\section{おわりに}
本研究での手法は主に名詞の指示対象の推定に名詞の指示性や修飾語や所有者を用いることであった.対照実験を通じて,これらを用いることの有効性を示した.名詞の指示性の推定精度が向上すると名詞の指示対象の推定精度が向上すると考えている.そこで,名詞の指示性の推定精度を向上させる研究を行なう必要がある.\acknowledgment本研究および実験に関して援助して下さった松岡正男氏をはじめとする長尾研究室の皆様に感謝します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{井上和子,山田洋,河野武,成田一}{井上和子\Jetal}{1985}]{meishi}井上和子,山田洋,河野武,成田一\BBOP1985\BBCP.\newblock\Jem{名詞},\Jem{現代の英文法},6\JVOL.\newblock研究社.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{bgh}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{csan2_ieice}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQAMethodofCaseStructureAnalysisforJapaneseSentencesbasedonExamplesinCaseFrameDictionary\BBCQ.\newblock{\BbfE77--D}(2),227--239.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1987}]{ipal}情報処理振興事業協会技術センター\BBOP1987\BBCP.\newblock\JBOQ計算機用日本語基本動詞辞書{IPAL}({BasicVerbs})説明書\JBCQ.\bibitem[\protect\BCAY{松岡,村田,黒橋,長尾}{松岡正男\Jetal}{1995}]{matsuoka_nl}松岡正男,村田真樹,黒橋禎夫,長尾眞\BBOP1995\BBCP.\newblock\JBOQ表層表現を利用した日本語文章における後方照応表現の自動抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会95-NL-108}.\bibitem[\protect\BCAY{{M.MurataandM.Nagao}}{{M.MurataandM.Nagao}}{1993}]{match}{M.MurataandM.Nagao}\BBOP1993\BBCP.\newblock\BBOQ{DeterminationofreferentialpropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglish}\BBCQ\\newblockIn{\BemProceedingsofthe5thTMI},\BPGS\218--225.\bibitem[\protect\BCAY{村田真樹$\cdot$長尾眞}{村田真樹\JBA長尾眞}{1995}]{Murata_ipal95}村田真樹\BBACOMMA\$\cdot$長尾眞\BBOP1995\BBCP.\newblock\JBOQ用例を用いた日本語文章におけるゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{「IPALシンポジウム'95」論文集},\BPGS\63--66.情報処理振興事業協会技術センター.\bibitem[\protect\BCAY{中尾}{中尾}{1985}]{kobu}中尾清秋\BBOP1985\BBCP.\newblock\Jem{こぶとりじいさん他鶴の恩がえし、きき耳ずきん},\Jem{英訳「日本むかしばなし」シリーズ},7\JVOL.\newblock日本英語教育協会.\bibitem[\protect\BCAY{(株)日本電子化辞書研究所}{(株)日本電子化辞書研究所}{1994}]{edr_kyouki_2.1}(株)日本電子化辞書研究所\BBOP1994\BBCP.\newblock\JBOQ{EDR}電子化辞書日本語共起辞書評価版第2.1版\JBCQ.\bibitem[\protect\BCAY{渡辺,黒橋,長尾}{渡辺\Jetal}{1992}]{imiso-in-BGH}渡辺靖彦,黒橋禎夫,長尾眞\BBOP1992\BBCP.\newblock\JBOQ{IPAL}辞書と分類語彙表を用いた単語意味辞書の作成\JBCQ\\newblock\Jem{情報処理学会第45回全国大会予稿集,6F-8}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.1976年より国立民族学博物館教授を兼任.京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V13N03-07
|
\section{はじめに}
「ある用語を知る」ということは,その用語が何を意味し,どのような概念を表すかを知ることである.それと同時に,その用語が他のどのような用語と関連があるのかを知ることは非常に重要である.特定の専門分野で使われる用語---{\bf専門用語}---は,その分野内で孤立した用語として存在することはない.その分野で使われる他の用語に支えられ,その関連を土台として,はじめて意味を持つ.それらの用語間の関連を把握することは,「その専門分野について知る」ことでもある.例えば,「自然言語処理」について知りたい場合を考えよう.まずは,「自然言語処理」という用語が表す意味,すなわち,「自然言語---人間が使っていることば---を計算機で処理すること」を知ることが,その第一歩となる.それと同時に,「自然言語処理」に関連する用語にはどのような用語があり,それらがどのような意味を持つかを知ることは,「自然言語処理」という分野を知るよい方法である.用語の意味を調べる方法は自明である.百科辞典や専門用語辞典を引くことによって,あるいは,ウェブのサーチエンジン等を利用することによって,比較的容易に達成できる場合が多い.それに対して,ある用語に関連する用語集合を調べる方法は,それほど自明ではない.上記の例の場合,好運にも「自然言語処理」用語集のようなものが見つかれば達成できるが,そのような用語集が多くの専門分野に対して存在するわけではない.関連用語を知ることが専門分野の理解につながるということは,逆に言えば,適切な関連用語集を作成するためには,その分野に関する専門知識が必要であるということである.事実,一つの専門分野が形成され成熟すると,しばしば,その分野の専門用語集・辞典が編纂されるが,その編纂作業は,その分野の専門家によって行なわれるのが普通である.その作業には,かなりの労力と時間が必要であるため,商業的に成立しうる場合にしか専門用語集は作成されないとともに,分野の進展に追従して頻繁に改定されることはまれである.このような現状を補完する形で,色々な分野に対する色々なサイズの私家版的用語集が作られ,ウェブ上に公開されている.このような現象は,相互に関連する専門用語群を知りたいというニーズが存在し,かつ,専門用語集が表す総体---分野---を知る手段として,実際に機能していることを示唆する.関連する専門用語群を集めるという作業は,これまで,その分野の専門家が行なうのが常であったわけであるが,この作業を機械化することはできないであろうか.我々が頭に描くのは,例えば,「自然言語処理」という用語を入力すると,「形態素解析」や「構文解析」,あるいは「機械翻訳」といった,「自然言語処理」の関連用語を出力するシステムである.このようなシステムが実現できれば,ある用語に対する関連用語が容易に得られるようになるだけでなく,その分野で使われる専門用語の集合を収集することが可能になると考えられる.このような背景から,本論文では,与えられた専門用語から,それに関連する専門用語を自動的に収集する方法について検討する.まず,第\ref{chap2}章で,本論文が対象とする問題---{\bf関連用語収集問題}---を定式化し,その解法について検討する.第\ref{sec:system}章では,実際に作成した関連用語収集システムについて述べ,第\ref{chap4}章で,そのシステムを用いて行なった実験とその結果について述べる.第\ref{chap5}章では,関連研究について述べ,最後に,第\ref{chap6}章で,結論を述べる.
\section{関連用語収集問題}
\label{chap2}\subsection{関連用語収集問題の定式化}先に述べたように,我々が実現したいシステムは,例えば,「自然言語処理」を入力すると,「形態素解析」,「構文解析」,「機械翻訳」などの「自然言語処理」に関連する専門用語を出力するシステムである.このシステムが持つべき機能は,与えられた専門用語に対して,それと強く関連する専門用語を収集・出力することであり,これは,以下のような問題として定式化することができる.\vspace{2mm}\begin{quote}\framebox{\parbox{0.6\textwidth}{{\bf入力:}専門用語$s$\\{\bf出力:}$s$に強く関連する専門用語の集合\\\hspace{2cm}$T=\{t_1,t_2,...,t_n\}$}}\end{quote}\vspace{2mm}以下では,入力の専門用語$s$を{\bfシードワード}と呼び,$t_i$を$s$の関連用語と呼ぶ.問題をこのように定式化すると,収集すべき用語$t$は,次の2つの条件を満たものであることが明確となる.\begin{enumerate}\item用語$t$は,専門用語である.\item用語$t$は,シードワード$s$と強く関連する.\end{enumerate}以下では,これらの条件とその判定法について検討する.\subsection{「専門用語」とは}\label{sec:term}「専門用語とは何か」ということは,ターミノロジーの中心的問いの一つである.KageuraとUmino\cite{kageura96atr_review}は,重要語抽出(automatictermrecognition;ATR)の手法を整理するために,専門用語を特徴づけるunithoodとtermhoodという2つの概念を提示している.\begin{description}\item[unithood]thedegreeofstrengthorstabilityofsyntagmaticcombinationsorcollocations\item[termhood]thedegreethatalinguisticunitisrelatedtodomain-specificconcepts\end{description}しかし,その後,影浦は,「専門用語とは何か」をより直接的に議論した論文\cite{kageura02terminology}において,次のような定義を与えている.\begin{itemize}\item専門用語とは専門用語として使われるものである(p.~3)\item専門用語は,もっぱら/特権的に/主に,特定の専門分野で使われる語彙的単位である(p.~6)\end{itemize}我々は,影浦の説得力あるこの論文に同意し,専門用語の定義としてこの定義を採用する.この定義を採用すると,「ある用語$t$が{\bf専門用語であるか}どうか」は,「用語$t$が{\bf専門用語として使われているか}どうか」を判定することに帰着される.より具体的に言えば,どのような現象が観察されれば「専門用語として使われている」とみなすかを決めれば,この問題は決着することになる.ある用語が「専門用語として使われている」とは,「ある集団の人々が,ある分野の特定の意味内容を表すために,その用語を実際に使っていること」と考える.このことは,特定分野のテキストに,その用語がしばしば現れることを要請する.そこで,\begin{enumerate}\itemある特定の分野のテキストにおいて,一定数以上の使用が観察されることを,その用語をその分野の専門用語とみなすための必要条件とする.\end{enumerate}ただし,上記の条件を満たす語がすべて,その分野の専門用語となるとは限らない.なぜならば,多くの分野で広く用いられる語(一般語)も上記の条件を満たすからである.十分に大きいテキストコーパスを用意すれば,分野の数は十分に多くなるため,このような一般語のコーパス全体における頻度は,特定の分野にしか現れない専門用語より大きくなるとともに,その分布は,分野に依存せずほぼ一様になることが期待できる.そこで,\begin{enumerate}\setcounter{enumi}{1}\itemコーパス全体における高頻度語,あるいは,分野に依存せず一様に分布する語は,一般語とみなす.(専門用語とはみなさない.)\end{enumerate}逆に言うならば,専門用語は,ある特定の分野に偏って出現する用語であり,コーパス全体における出現頻度は,それほど高くないということである.さて,ある分野のテキストにある用語がほとんど現れないからといって,その用語を専門用語ではないと判断することはできない.なぜならば,他の分野の専門用語である可能性が残されているからである.これに対して,コーパス全体における出現頻度が極めて低い用語は,専門用語である可能性がない\footnote{これらの用語は,十分な使用例が観察されない用語---臨時的に用いられた用語,用語として定着しなかった用語,あるいは誤植---と考えるのが適切である.}.そこで,\begin{enumerate}\setcounter{enumi}{2}\itemコーパス全体における出現頻度が極めて低い用語は,専門用語とはみなさない.\end{enumerate}以上をまとめると,本研究では\mbox{表\ref{tbl:term_class}}に示す3種類の用語クラスを導入し,テキストコーパス全体および特定分野のテキストにおける出現傾向を観察して,それぞれの用語の用語クラスを推定するということになる.\begin{table}\begin{center}\small\caption{本研究における用語の分類}\label{tbl:term_class}\begin{tabular}{|l|p{16zw}|p{18zw}|}\hline&使われ方&観察される現象\\\hline専門用語&ある集団の人々が,ある分野の特定の意味内容を表すために,実際に使っている&特定の分野のテキストにおいて一定数の使用が観察される\\\hline一般語&分野を問わず広く一般に使われている&テキストコーパス全体における出現頻度が高い,あるいは,出現頻度は,分野に依存せず,ほぼ一定である\\\hlineその他の語&あまり使われていない&テキストコーパス全体における出現頻度が極めて低い\\\hline\end{tabular}\end{center}\end{table}本研究では,テキストコーパスとして,ウェブを採用する.ウェブは,現時点で利用可能な,最も大きなテキストコーパスであり,さまざまな分野の情報が,さまざまな専門レベルで記述されている.それゆえ,ウェブは,テキストにおける用語の出現傾向を観察するテキストとして,最も適切であると考える.\subsection{「関連する」とは}\label{sec:rel}次の問題は,「関連する」をどのように捉えるかという問題である.これには,大きく2つのアプローチがある.第一のアプローチは,2つの用語間に,シンボリックな関連性の種類---いわゆる{\bf関係}---を設定し,そのような関係があると考えられる用語対を,「関連する」と考えるアプローチである.用語間あるいは概念間の関係としてどのようなものを設定すべきかということは,古くから多くの議論があったわけであるが,いくつかの基本的な関係を除いては,いまだに決着を見ていない.おおよそ合意できる範囲は,情報検索用のシソーラス\cite{thesaurus}で用いられる等価関係(同義・類義関係)と階層関係(上位・下位関係)であろう.しかしながら,我々は,このアプローチを採用しない.なぜならば,我々が考慮の対象としたい専門用語間の関連をカバーする,適切な関係の集合を前もって定義することは困難だと考えるからである.例えば,「形態素解析」と「形態素」は,我々が対象としたい関連の一例であるが,この2つの用語間の関係は,等価関係でも階層関係でもない.敢えて言うならば,形態素解析という解析処理を行なう際の処理単位が形態素であるので,これらの用語間の関係は,「処理と処理単位の関係」と考えるのが適切であろう.この例は一例にすぎないが,関連する用語間の関係には多くの種類が存在し,それらを前もってすべて列挙できると仮定することは,現実的ではない.第二のアプローチは,「関連の強さ」という概念を持ち込み,それをアナログ値として表現し,その値がある一定の閾値以上となる場合に2つの用語は強く関連する,と考えるアプローチである.ここで,「関連の強さ」は,我々が持っている用語間の親密度・関連度を数値化したものである.もちろん,これを直接測ることはできないので,テキストから実際に値を計算できる何らかの尺度を利用することになる.このような尺度として,これまでに相互情報量\cite{church89word_association}や対数尤度比\cite{dunning93accurate_methods}など数多くの尺度が提案されている\cite{manning99fsnlp}.これらの尺度は,「与えられたテキストコーパスにおいて,2つの用語が強く共起するならば,それらの用語は関連する」という仮定に基づいている.我々は,この第二のアプローチを採用し,関連度を推定するためのテキストコーパスとしてウェブを採用する.\subsection{候補語の収集}\label{sec:candidate}ここまでの議論で,収集すべき用語$t$の条件と判定方法の基本方針が定まった.しかしながら,これらから導けることは,2つの用語$s$と$t$が与えられたとき,$t$が$s$の関連用語となっているかどうかを判定する方法だけである.言い換えるならば,関連用語の候補となる集合が与えられれば,それらの候補のうち,どの用語が関連用語であるかを判定することは可能であるが,そのためには,関連用語の候補集合をどこからか持ってこなければならない.理論的には,その集合は,日本語のあらゆる用語を集めた集合で良い.しかしながら,この解は明らかに現実的ではない.関連用語の候補集合の数を限定し,実際的な時間で前節の条件チェックを実行できるようにする必要がある.我々は,次のような集合を,関連用語の候補集合の要素として採用する.\begin{quote}ウェブにおいて,シードワード$s$の周囲に現れる単名詞および複合名詞\end{quote}これは,次のような経験的事実に基づいている.\begin{itemize}\item日本語の専門用語のほとんどは,単名詞,あるいは,複合名詞である.\item関連用語は,シードワードの周辺に現れることが多い.\end{itemize}具体的な候補語収集手順については,\mbox{\ref{sec:cand_collect}節}で述べる.
\section{関連用語収集システム}
label{sec:system}前章の考えに基づき,関連用語収集システムを作成した.作成したシステムの構成を\mbox{図\ref{fig:system}}に示す.本システムは,(1)候補語収集,(2)関連用語選択,の2つのモジュールから構成される.\begin{figure}\begin{center}\small\begin{picture}(380,110)\qbezier(150,20)(150,40)(190,40)\qbezier(230,20)(230,40)(190,40)\qbezier(150,20)(150,0)(190,0)\qbezier(230,20)(230,0)(190,0)\put(190,20){\makebox(0,0){ウェブ}}\put(30,50){\makebox(0,0){入力}}\put(350,50){\makebox(0,0){出力}}\put(30,70){\oval(60,20)}\put(30,70){\makebox(0,0){用語$s$}}\put(60,70){\vector(1,0){20}}\put(80,60){\framebox(60,20)}\put(110,70){\makebox(0,0){候補語収集}}\put(140,70){\vector(1,0){20}}\put(190,70){\oval(60,20)}\put(190,70){\makebox(0,0){候補語集合$X$}}\put(220,70){\vector(1,0){20}}\put(240,60){\framebox(60,20)}\put(270,70){\makebox(0,0){関連用語選択}}\put(300,70){\vector(1,0){20}}\put(350,70){\oval(60,20)}\put(350,69){\makebox(0,0)[b]{関連用語集合}}\put(350,68){\makebox(0,0)[t]{$T$}}\put(190,100){\makebox(0,0){関連用語収集システム}}\put(70,50){\dashbox{5}(240,40)}\put(110,20){\vector(0,1){40}}\put(110,20){\vector(1,0){40}}\put(270,20){\vector(0,1){40}}\put(270,20){\vector(-1,0){40}}\end{picture}\end{center}\caption{関連用語収集システムの構成}\label{fig:system}\end{figure}\subsection{候補語収集}\label{sec:cand_collect}\mbox{\ref{sec:candidate}}節で述べたように,ウェブにおいてシードワード$s$の周辺に現れる単名詞および複合名詞を,関連用語の候補語とする.具体的手順を以下に示す.\begin{enumerate}\item{\bfウェブページの収集:}シードワード$s$に対して,「$s$とは」「$s$という」「$s$は」「$s$の」「$s$」という5種類のクエリをサーチエンジンに入力し,得られたURLのそれぞれ上位$l$ページを取得する.さらに,それらのページに,シードワード$s$がアンカーテキストとなっているアンカーが存在する場合は,そのアンカー先ページも取得する.\item{\bf文の抽出:}それぞれのページを整形して文に分割し,用語$s$を含む文およびその前後$m$文を抽出する.\item{\bf名詞・複合名詞の抽出:}それぞれの文をJUMAN5.0\footnote{http://www.kc.t.u-tokyo.ac.jp/nl-resource/juman.html}を用いて形態素解析し,以下のパターンにマッチする単語列を名詞・複合名詞として抽出する.\begin{align*}&[noun|adj\_stem|adv\_kanji|pre|suf\_noun|suf\_stem]+\\&\quadnoun:\textrm{名詞,}adj\_stem:\textrm{形容詞語幹,}adv\_kanji:\textrm{漢字のみからなる副詞,}\\&\quadpre:\textrm{接頭辞,}suf\_noun:\textrm{名詞性接尾辞,}suf\_stem:\textrm{形容詞性名詞接尾辞語幹}\end{align*}\end{enumerate}この手順のステップ(1)で,「とは」,「という」,「は」,「の」という4つの付属語を付加したクエリを用いるのは,単純に「$s$」のみをクエリとするよりも,多様なウェブページを収集できるのではないか,という考えに基づいている.また,ステップ(3)において,「漢字のみからなる副詞」を複合名詞の構成要素に含めているのは,形態素解析器JUMANにおいて,ナ形容詞語幹(例えば,「自然言語処理」の「自然」)を副詞と解析する例が多く見られたためである.なお,上記の手順には,収集するページ数$l$と抽出する文数$m$の2つのパラメータが存在する.これらのパラメータを大きくすれば,収集される関連用語の候補集合は大きくなり,最終的に得られる関連用語も増加する一方,計算に要する時間は長くなる.現在は,予備的な実験に基づいて,$l=100$,$m=2$を採用している.\subsection{関連用語選択}\label{sec:select}次に,こうして収集した候補集合$X$の中から,$s$の関連用語を選択する.具体的には,ある尺度を用いてシードワード$s$と候補語$x\inX$の関連度を計算し,その値が大きなものを関連用語として選択する.この選択を行なうための尺度として,我々は{\bfJaccard係数}と{\bf$\chi^2$統計量}に着目する.なぜなら,この2つの尺度は,関連の強さを表す尺度であると同時に,用語$x$が専門用語であるかどうか(専門用語性)を測る尺度とみなすことができるからである.まず,シードワード$s$と候補語$x$が出現するか否かによって,ウェブページ集合全体を\mbox{表\ref{tbl:2by2}}のように4つの部分集合に分割する.それぞれの部分集合のページ数を,それぞれ$a,b,c,d$で表すとき,Jaccard係数と$\chi^2$統計量は,次の式で与えられる.\noindent{\bfJaccard係数}\begin{align}Jac(s,x)=\frac{a}{a+b+c}\label{eq:jac}\end{align}\noindent{\bf$\chi^2$統計量}\begin{align}\chi^2(s,x)=\frac{n(ad-bc)^2}{(a+b)(c+d)(a+c)(b+d)}\label{eq:chi2}\end{align}ここで,$n$は全ウェブページ数($n=a+b+c+d$)である.\begin{table}\begin{center}\caption{用語$s$と$x$の出現に対する,ウェブページの2$\times$2分割表}\label{tbl:2by2}\begin{tabular}{r|c|c}&$x$が現れる&$x$が現れない\\\hline$s$が現れる&a&b\\\hline$s$が現れない&c&d\\\end{tabular}\end{center}\end{table}これらの尺度は,用語$s$と$x$が共起すればするほど値が大きくなるため,「用語$x$が$s$と関連するか」を測る尺度と考えることができる.同時に,以下に述べる理由により,「用語$x$が専門用語であるか」を測る尺度にもなっている.ここで,重要な点は,「シードワード$s$は専門用語である」という前提が存在する点である.\noindent{\bfJaccard係数}Jaccard係数は,2つの用語が共起する回数を,2つの用語の出現数で正規化した尺度である.用語$s$が出現するウェブページは,近似的に,(用語$s$で表現できるような)ある特定の分野のテキストとみなすことができるので,Jaccard係数が大きい場合は,それらのテキストに$x$が多数出現するという現象が観察されたと判断してよい.さて,$x$の出現頻度($a+c$)が非常に高い場合を考えよう.シードワード$s$は専門用語であるので,sが現れるページ数($a+b$)はそれほど多くない.そのため,$s$と$x$が共起するページ数$a$は,それほど大きくなることはない.この結果,$x$の出現頻度($a+c$)が非常に高い場合は,$Jac(s,x)$の値は小さくなることになる.次に,$x$の出現頻度($a+c$)が非常に低い場合を考えよう.$s$は専門用語であるため,$s$が現れるページ数($a+b$)は,それなりの大きさであることが保証されている.このため,\mbox{式(\ref{eq:jac})}の分母は,$c$の値が小さくなっても一定の大きさを維持するのに対し,分子は,$x$が現れるページ数($a+c$)が小さければ小さいほど,小さくなる.故に,$x$の出現頻度($a+c$)が非常に低い場合は,$Jac(s,x)$の値は小さくなることになる.\newpage\noindent{\bf$\chi^2$統計量}$\chi^2$統計量は,用語の出現分布が$\chi^2$分布に従うと仮定したときに,2つの用語が互いに独立である(関連しない)という仮説を棄却することが可能かどうかを検定する統計量である.この値が大きいということは,$s$と$x$の出現分布が独立ではないということを意味する.つまり,特定の分野のテキスト($s$が出現するテキスト)に偏って出現している証拠となる.逆に,$x$が,特定の分野に依存せず広くテキストコーパス全体に一様に出現する場合は,$\chi^2$統計量は小さくなる.次に,$x$が現れるページ数($a+c$)が小さい場合を考えよう.$x$が現れるページに$s$が現れる割合($\frac{a}{a+c}$)が一定だと仮定し,$d$が$a,b,c$のいずれよりも十分に大きいと仮定する\footnote{シードワード$s$は固定されているので,$s$が現れるページ数($a+b$)は,$x$にかかわらず一定である.}.このとき,$x$が現れるページ数($a+c$)が小さくなるにつれて,$\chi^2(s,x)$の値は小さくなる.すなわち,用語$x$の出現頻度が極めて小さいとき,$\chi^2$統計量は小さい値をとる.これらを総合すると,$\chi^2$統計量が大きい値をとるとき,$x$は特定の分野のテキストに偏って出現しており,かつ,コーパス全体に対する出現頻度は極めて低いということはない.つまり,特定の分野のテキストに,一定数の使用が観察されたと判断してよい.\bigskip以上のように,Jaccard係数と$\chi^2$統計量の特性より,これらの尺度が大きい場合,専門用語に対して観察される現象が観察され,かつ,一般語およびその他の語に対して観察される現象が観察されなかったことを意味する.つまり,これらの尺度は,専門用語性を測る尺度としても使用できる\footnote{これらの尺度の値が小さいからといって,「$x$は専門用語ではない」と断定することはできない.シードワード$s$との関連度が低い他の専門分野の用語である可能性もあるからである.}.よって,本研究では,Jaccard係数と$\chi^2$統計量を,候補集合から関連用語を選択する尺度として採用する.ある用語が現れるウェブページの数は,その用語をウェブのサーチエンジンのクエリとして入力したときに得られる検索結果のヒット数から,簡単に求めることができる.用語$s$および$x$をクエリとしたときのサーチエンジンのヒット数を$hits(s)$および$hits(x)$,$s$と$x$のAND検索のヒット数を$hits(s\&x)$で表すとすると,\mbox{表\ref{tbl:2by2}}の$a,b,c$は以下のように求めることができる.\begin{align*}a&=hits(s\&x)\\b&=hits(s)-hits(s\&x)\\c&=hits(x)-hits(s\&x)\end{align*}\mbox{表\ref{tbl:2by2}}の$d$は,$s$も$x$も共に現れないウェブページの数であり,サーチエンジンを用いて直接測定することはできない.そこで,本研究では,サーチエンジンで検索可能な日本語ウェブページをウェブ全体と考え,ウェブ全体のページ数$n$を,いくつかの助詞(「に」,「を」,「は」,「も」,「が」)のヒット数に基づいて見積もる.こうして得られた$n$から,$d$の値を計算する.
\section{実験と検討}
\label{chap4}作成した関連用語収集システムの性能を評価する実験を行なった.まず最初に,システムの評価に使用する参照セットを作成した.次に,この参照セットを利用して,関連用語選択モジュールと候補語収集モジュールの評価実験を行なった.最後に,システム全体の性能を評価する実験を行なった.なお,すべての実験において,サーチエンジンとしてgoo\footnote{http://www.goo.ne.jp/}を用いた.\subsection{参照セット}\label{sec:reference}ある一定の条件を満たす用語を抽出するタスクでは,出力すべき用語のセット(正解セット)を準備し,システムの出力結果と正解セットを比較して,システムの評価を行なうのが一般的である.用語を抽出する対象となるコーパスがあらかじめ与えられている場合には,そのコーパスからある基準(例えば,人間の判断)に従って収集した用語を正解用語とすることにより,正解セットを作成することが可能である.しかし,本研究の場合,あらかじめ与えられているコーパスはウェブということになるが,ウェブ全体からシードワードの関連用語を人手で収集することは非現実的であるため,網羅的な正解セットを準備することは事実上不可能である.システムを評価するもう一つの方法として,システムの出力結果を一つ一つ人手でチェックするという方法も考えられる\footnote{この場合,再現率を評価することはできない.}.しかし,本研究で正解とする用語は,特定の専門分野においてシードワードと関連する専門用語であるため,正解か否かの判断にはその分野の専門知識が不可欠である.このため,多くの分野に対して実験を行なおうとすれば,多数の専門家の協力を仰ぐ必要があり,非常にコストがかかる.そこで,我々は,専門家の知識の代替として,専門家の手によって書かれた書籍から参照セットと呼ぶ用語集を作成し,これを用いてシステムの評価を行なうことにした.作成した参照セットの概要を\mbox{表\ref{tbl:ref}}に示す.参照セットは,6つの専門分野に対してそれぞれ3つと,一般語に対する1つの,計19セットからなる.\begin{table}\begin{center}\footnotesize\caption{作成した参照セット}\label{tbl:ref}\begin{tabular}{|l|rrr|l|}\hline分野&$|R_3|$&$|R_2|$&$|R_1|$&使用した書籍\\\hline自然言語処理&17&143&1337&\shortcite{nagao96nlp},\shortcite{nagao98nlp},\shortcite{tanaka99nlp}\\情報理論&33&108&744&\shortcite{hirasawa00it},\shortcite{hirata03it},\shortcite{yokoo04it}\\パターン認識&17&120&1352&\shortcite{toriwaki93pr},\shortcite{ishii98pr},\shortcite{nakagawa99pr}\\バイオインフォマティクス&23&101&1077&\shortcite{mitaku03bio},\shortcite{murakami03bio},\shortcite{gojohbori03bio}\\マクロ経済学&63&244&1805&\shortcite{akashi03macro},\shortcite{wakita04macro},\shortcite{fukuda05macro}\\ミクロ経済学&59&206&1076&\shortcite{asada02micro},\shortcite{yogo02micro},\shortcite{ibori04micro}\\\hline一般語&50&&&\shortcite{RSK}\\\hline合計&262&922&7391&\\\hline\end{tabular}\end{center}\end{table}各専門分野の参照セットは,次の方法で作成した.\begin{enumerate}\itemその分野の書籍を3冊用意する.\itemそれぞれの書籍から巻末の索引語をすべて収集し,それぞれ索引語リストを作成する.\itemこうして得られた3つの索引語リストから,次の3つの用語集合を作成する.\begin{description}\item[$R_3$]3冊の書籍で索引語となっている用語の集合.\item[$R_2$]2冊以上の書籍で索引語となっている用語の集合.\item[$R_1$]いずれかの書籍で索引語となっている用語の集合.\end{description}\end{enumerate}この手順から明らかなように,それぞれの分野の3つの参照セット間には,次の関係が成り立つ.\begin{equation}R_3\subseteqR_2\subseteqR_1\end{equation}$R_3$に含まれる用語は,3冊の書籍すべてで索引語となっていた用語であり,その分野の代表的な専門用語とみなすことができるだろう.これに対して,条件を緩めた$R_2$,$R_1$は,その信頼度は下がるものの,すくなくとも,その分野の専門用語の候補集合と考えてもよいであろう.このような考えに基づき,これらの集合は,システムの性能を見積もるための参照解として使用できると考えた.ただし,これらの集合を参照解として使用するということは,「特定の分野の専門用語は,その分野の他の専門用語と必ず強く関連する」と仮定している点に注意する必要がある.また,作成した参照セットは,その分野の専門用語を網羅しているわけではない点にも注意が必要である.一般語の参照セットは,小学生向けの国語辞典\cite{RSK}から,名詞50語をランダムに選択することによって作成した.以下では,これを一般語$R_3$と表記する.なお,これらの参照セットに含まれる用語を,以下では参照用語と呼ぶ.\subsection{関連用語選択モジュールの評価}\label{sec:ex_rel}ここでは,参照セットを用いた人工的な設定下において,関連用語選択モジュールが適切に機能するかどうかを調べた.参照セットとしては,6つの専門分野の$R_3$と一般語$R_3$を用いた.具体的には,以下の手順で行なった.\begin{enumerate}\item1つの専門分野の$R_3$を選ぶ.そこから専門用語を1つ選び,シードワード$s$とする.その残りを$R_3^{-}$とする.\item$R_3^{-}$,上記で選択した専門分野以外の$R_3$,および,一般語$R_3$に含まれる用語をすべて集め,これを関連用語の候補語集合$X$とする.($|X|=261$である.\unskip)\itemすべての$x\inX$に対して,$s$との関連度を計算し,関連度の大きい順に,$X$の要素を並べる.最後に,上位20位までを取り出し,これを$T$とする.\item$|T\capR_3^{-}|$を求める.この数は,集合$T$に$s$と同じ分野の参照用語がいくつ含まれるかを表す.\end{enumerate}すなわち,ここでは,$s$と同じ分野の参照用語を仮想的な正解(関連用語)とみなし,採用した尺度が,上位20位までに正解をどの程度出力するかを調べた.シードワードとしては,6つの専門分野からそれぞれ4用語ずつ,計24用語を使用した.また,関連度を測る尺度としては,3.2節で述べたJaccard係数と$\chi^2$統計量の2つの尺度の他に,比較のために,他の4つの尺度(共起頻度,Dice係数,相互情報量,対数尤度比)に対しても結果を求めた.これらの尺度とその計算式を\mbox{表\ref{tbl:relatedness}}に示す.この表の「略記」は,本論文におけるそれぞれの尺度の略記法を示す.計算式の$a$,$b$,$c$,$d$は\mbox{表\ref{tbl:2by2}}に示したウェブページ数であり,$n$はウェブ全体のページ数である.実験では,$n=13600000$を用いた\footnote{この値は,助詞「に」,「を」,「は」,「も」,「が」のいずれのヒット数よりも大きい値である.}.\begin{table}\begin{center}\footnotesize\caption{比較尺度}\label{tbl:relatedness}\begin{tabular}{|l|l|l|}\hline尺度&略記&計算式\\\hlineJaccard係数&jac&$\frac{a}{a+b+c}$\\$\chi^2$統計量&chi2&$\frac{n(ad-bc)^2}{(a+b)(c+d)(a+c)(b+d)}$\\\hline共起頻度&cooc&$a$\\Dice係数&dice&$\frac{2a}{2a+b+c}$\\相互情報量&pmi&$\log\frac{an}{(a+b)(a+c)}$\\対数尤度比&llr&$a\log\frac{an}{(a+b)(a+c)}+b\log\frac{bn}{(a+b)(b+d)}+c\log\frac{cn}{(a+c)(c+d)}+d\log\frac{dn}{(b+d)(c+d)}$\\\hline\end{tabular}\end{center}\end{table}実験結果を\mbox{表\ref{tbl:rel_result}}に示す.この表において,$|R_3^{-}|$は,候補語集合に含まれる仮想的な正解の数を表す.\begin{table}\begin{center}\footnotesize\caption{関連度上位20語に含まれる$R_3$の参照用語数}\label{tbl:rel_result}\begin{tabular}{|l|rr|rrrr|}\multicolumn{7}{l}{「自然言語処理」($|R_3^{-}|=16$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hline自然言語処理&10&{\bf12}&6&10&11&9\\意味解析&12&{\bf14}&7&12&12&10\\形態素解析&11&{\bf14}&6&11&13&10\\構文解析&11&{\bf14}&7&11&{\bf14}&10\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「情報理論」($|R_3^{-}|=32$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hline情報理論&13&19&7&13&{\bf20}&15\\通信路容量&{\bf20}&{\bf20}&17&{\bf20}&{\bf20}&{\bf20}\\情報源符号化&{\bf20}&{\bf20}&15&{\bf20}&{\bf20}&{\bf20}\\エントロピー&10&{\bf20}&3&10&{\bf20}&12\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「パターン認識」($|R_3^{-}|=16$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineパターン認識&12&{\bf13}&5&12&8&10\\線形識別関数&10&{\bf14}&13&10&10&13\\部分空間法&11&{\bf13}&11&11&10&11\\特徴抽出&11&{\bf13}&6&11&9&10\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「バイオインフォマティクス」($|R_3^{-}|=22$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineバイオインフォマティクス&{\bf16}&15&8&{\bf16}&15&14\\相同性&{\bf18}&{\bf18}&16&{\bf18}&17&{\bf18}\\スプライシング&{\bf17}&{\bf17}&12&{\bf17}&{\bf17}&15\\GenBank&{\bf19}&{\bf19}&15&{\bf19}&{\bf19}&{\bf19}\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「マクロ経済学」($|R_3^{-}|=62$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineマクロ経済学&14&16&14&14&{\bf17}&14\\投資関数&15&{\bf17}&15&15&{\bf17}&15\\有効需要&15&{\bf19}&14&15&17&17\\マネーサプライ&{\bf20}&19&17&{\bf20}&18&18\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「ミクロ経済学」($|R_3^{-}|=58$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineミクロ経済学&15&{\bf19}&7&15&{\bf19}&13\\無差別曲線&{\bf20}&{\bf20}&13&{\bf20}&18&18\\限界効用&{\bf20}&{\bf20}&11&{\bf20}&16&17\\需要曲線&19&{\bf20}&11&19&{\bf20}&18\\\hline\end{tabular}\end{center}\end{table}\mbox{表\ref{tbl:rel_result}}から,次のことが観察される.\begin{enumerate}\itemJaccard係数(jac)と$\chi^2$統計量(chi2)のどちらの尺度を用いた場合でも,シードワードと同じ専門分野の専門用語が上位に集まっている.\end{enumerate}このことから,これらの尺度は関連用語選択の尺度として適切であり,これらの尺度を用いた関連用語選択モジュールは適切に機能することが確認できた.しかしながら,同時に,次の事実が観察される.\begin{enumerate}\setcounter{enumi}{1}\itemシードワードと同じ専門分野の専門用語のすべてが,上位に集まるわけではない.\end{enumerate}例えば,「バイオインフォマティクス」の分野では,それぞれのシードワードに対して,同じ専門分野の用語が22個,候補語集合(261個)の中に含まれているのだが,上位20位に入らない語が存在した.このことは,本システムは,一つのシードワードから,それが属す専門分野の専門用語を網羅的に収集する能力を持たないことを意味する.参照セットによる評価が拠り所にしている仮定「特定の分野の専門用語は,その分野の他の専門用語と必ず強く関連する」は,現実には強すぎる仮定である.そのため,参照セットによる評価は,あくまでもシステムの性能の目安を知るためのものであり,万能ではない点に注意する必要がある.一方,使用した6つの尺度に対しては,以下のような事実が観察される.\begin{enumerate}\setcounter{enumi}{2}\item$\chi^2$統計量(chi2)が最も安定して良い結果を示している.\item相互情報量(pmi),Jaccard係数(jac)およびDice係数(dice),対数尤度比(llr)も比較的良い結果を示している.これらの尺度と$\chi^2$統計量との差は,それほど大きくない.\item共起頻度(cooc)は他の5つの尺度と比較して,明らかに性能が劣っている.\end{enumerate}上記の結果は,Jaccard係数と$\chi^2$統計量の2つの尺度以外に,比較のために用いた3つの尺度,すなわち,Dice係数,相互情報量,対数尤度比も,関連用語選択の尺度となり得る可能性を持つことを示唆する.このうち,Dice係数は,Jaccard係数とほとんど同じ尺度のため,考慮の対象から除外する.また,相互情報量は,2つの用語の共起の割合が等しい場合,用語の出現頻度が低ければ低いほど関連度が高くなるという性質をもつ\cite[pp.~182]{manning99fsnlp}ため,専門用語性を測る尺度として不適切である\footnote{\mbox{\ref{sec:term}節}および\mbox{\ref{sec:select}節}で述べたように,本研究では,極めて頻度が低い用語は専門用語とは見なさない.}.対数尤度比は,専門用語性を判定するという意味づけが難しく,かつ,計算式が複雑なので,特にこの尺度を採用すべきだという積極性に欠ける.以上の理由により,我々は,関連用語選択の尺度として,Jaccard係数と$\chi^2$統計量の2つの尺度を採用するという方針を堅持することとし,以降の実験では,この2つの尺度のみを用いることにした.\subsection{候補語収集モジュールの評価}\label{sec:ex_cand}次に,参照セットを用いて候補語収集モジュールの性能を評価する実験を行なった.実験の手順は次のとおりである.\begin{enumerate}\item1つの専門分野の$R_3$を選ぶ.その中から専門用語を1つ選び,シードワード$s$とする.その残りを$R_3^{-}$とする.\item(1)で選択した専門分野と同じ専門分野の$R_2$,$R_1$から,それぞれシードワード$s$を除去した集合$R_2^{-}$,$R_1^{-}$を作成する.\itemシードワード$s$を候補語収集モジュールに与え,候補語集合$X$を得る.\item$|X\capR_3^{-}|$,$|X\capR_2^{-}|$,$|X\capR_1^{-}|$を計算する.これらの値は,3つの参照セットのそれぞれに対して,候補語集合$X$に,シードワードと同じ分野の参照用語がどれだけ含まれているかを表す.\end{enumerate}前節と同じ入力用語24語に対して,上記の手順を適用した結果を\mbox{表\ref{tbl:cand_result}}に示す.この表では,$R_3^{-}$,$R_2^{-}$,$R_1^{-}$に対する結果を$R_3^{-}/R_2^{-}/R_1^{-}$という形式で示している.\begin{table}\begin{center}\footnotesize\caption{候補語に含まれる参照用語数}\label{tbl:cand_result}\begin{tabular}{|l|rr|cc|}\multicolumn{5}{l}{「自然言語処理」($|R_i^{-}|=16/142/1336$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hline自然言語処理&2250&7/22/87&.44/.15/.07&.00/.01/.04\\意味解析&1408&11/27/100&.69/.19/.07&.00/.02/.07\\形態素解析&2022&6/24/87&.38/.17/.07&.00/.01/.04\\構文解析&2726&12/30/114&.75/.21/.09&.00/.01/.04\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「情報理論」($|R_i^{-}|=32/107/743$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hline情報理論&2677&14/28/64&.44/.26/.09&.01/.01/.02\\通信路容量&835&9/17/40&.28/.16/.05&.01/.02/.05\\情報源符号化&843&15/27/55&.47/.25/.07&.02/.03/.07\\エントロピー&4176&5/17/40&.16/.16/.05&.00/.00/.01\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「パターン認識」($|R_i^{-}|=16/119/1351$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hlineパターン認識&2354&8/33/95&.50/.28/.07&.00/.01/.04\\線形識別関数&252&7/17/40&.44/.14/.03&.03/.07/.16\\部分空間法&537&7/11/23&.44/.09/.02&.01/.02/.04\\特徴抽出&1658&6/24/66&.38/.20/.05&.00/.01/.04\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「バイオインフォマティクス」($|R_i^{-}|=22/100/1076$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hline{\footnotesizeバイオインフォマティクス}&5037&10/34/130&.45/.34/.12&.00/.00/.03\\相同性&3139&14/41/122&.64/.41/.11&.00/.01/.04\\スプライシング&3216&12/31/99&.55/.31/.09&.00/.01/.03\\GenBank&1355&13/31/75&.59/.31/.07&.01/.02/.06\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「マクロ経済学」($|R_i^{-}|=62/243/1804$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hlineマクロ経済学&1872&22/55/116&.35/.27/.06&.01/.03/.06\\投資関数&1142&16/41/100&.26/.17/.06&.01/.04/.09\\有効需要&3243&33/88/200&.53/.36/.11&.01/.03/.06\\マネーサプライ&1872&29/84/207&.47/.35/.11&.02/.04/.11\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「ミクロ経済学」($|R_i^{-}|=58/205/1075$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hlineミクロ経済学&1934&19/51/105&.33/.25/.10&.01/.03/.05\\無差別曲線&864&18/46/80&.31/.22/.07&.02/.05/.09\\限界効用&1628&27/57/112&.47/.28/.10&.02/.04/.07\\需要曲線&1411&20/60/108&.34/.29/.10&.01/.04/.08\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことが観察される.\begin{enumerate}\item本モジュールで収集される候補語の数は,おおよそ800〜3000である.ただし,800未満の場合も存在する.\end{enumerate}収集された候補語の数が特に少なかったシードワードは,「線形識別関数(252個)」である.この語は,そもそもウェブでのヒット数が少なく($hits(\text{`線形識別関数'})=130$),収集されるウェブページ数が少ない.このことが,少数の候補語しか得られない原因となっている.経験的には,収集される候補語の数は,シードワードのヒット数と正の相関がある.\begin{enumerate}\setcounter{enumi}{1}\item本モジュールが収集した候補語集合の中には,シードワードと同じ専門分野の参照用語が含まれている.参照セット$R_3$を用いた評価では,平均的に14語程度,$R_3$の4割強が候補語集合に含まれている.\end{enumerate}本モジュールが候補語を収集する範囲は,非常に限定されている(シードワードを中心とした前後2文)にもかかわらず,一定量の参照用語を収集することに成功している.これは,本モジュールが有効に機能していることを示している.\begin{enumerate}\setcounter{enumi}{2}\item参照セットを$R_2$,$R_1$に変更して参照用語数を拡大すると,候補集合に含まれる参照用語の数は増加し,$R_1$では,数十から百を越える参照用語を含むようになる.しかしながら,参照用語全体に対する比率($\frac{|X\capR_i^{-}|}{|R_i^{-}|}$)は減少する.\end{enumerate}このことは,候補語集合には,その分野の代表的な専門用語以外の専門用語も含まれていることを示している.これは望ましい性質である.しかし同時に,候補語集合は,その分野の専門用語を網羅的に含んでいるわけではないことを示している.つまり,候補語収集モジュールも,関連用語選択モジュールと同様,一つのシードワードから当該分野の専門用語を網羅的に収集する能力はないということである.\begin{enumerate}\setcounter{enumi}{3}\item参照セット$R_1$を用いた場合,収集した候補語に対する参照用語の割合(参照用語の「密度」)は,平均的に6\%程度である.\end{enumerate}この「密度」は十分に高いとは言えない.システムの効率化のためには,この密度を高めることが必要である.候補語集合には多数の一般語が含まれるため,既存の国語辞書等を用いて一般語を排除する方法が有効だと考えられる.\subsection{システム全体の評価}\label{sec:ex_total}\subsubsection{参照セットを用いた評価}ここでは,実際にシステム全体を動作させ,適切な関連用語が収集できるかどうかを参照セットを利用して調べた.具体的には,前節の実験で収集した候補語とシードワードとの関連度(Jaccard係数,$\chi^2$統計量)を計算し,関連度上位$N(=10,20,30)$語に,シードワードと同じ分野の参照用語がどれだけ含まれるかを,$R_3$,$R_2$,$R_1$のそれぞれの参照セットに対して調べた.その結果を\mbox{表\ref{tbl:total_result}}に示す.\begin{table}\begin{center}\scriptsize\caption{システム全体での評価}\label{tbl:total_result}\begin{tabular}{|l|c||cc|cc|cc|}\multicolumn{8}{l}{「自然言語処理」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline自然言語処理&7/22/87&{\bf3}/{\bf4}/{\bf6}&2/2/3&{\bf4}/{\bf7}/{\bf11}&{\bf4}/5/6&{\bf4}/{\bf8}/{\bf13}&{\bf4}/5/9\\意味解析&11/27/100&{\bf4}/{\bf5}/{\bf8}&2/3/4&{\bf5}/{\bf7}/{\bf11}&{\bf5}/6/{\bf11}&{\bf6}/{\bf8}/{\bf14}&5/6/12\\形態素解析&6/24/87&{\bf2}/{\bf2}/{\bf2}&1/1/1&{\bf4}/{\bf5}/{\bf8}&2/3/4&{\bf4}/{\bf5}/{\bf8}&{\bf4}/{\bf5}/{\bf8}\\構文解析&12/30/114&{\bf4}/{\bf4}/{\bf7}&1/1/4&{\bf5}/{\bf5}/{\bf9}&2/2/5&{\bf5}/{\bf6}/{\bf10}&{\bf5}/{\bf6}/9\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「情報理論」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline情報理論&14/28/64&2/5/5&{\bf5}/{\bf6}/{\bf6}&4/7/9&{\bf7}/{\bf9}/{\bf10}&6/9/11&{\bf8}/{\bf12}/{\bf14}\\通信路容量&9/17/40&{\bf5}/5/6&{\bf5}/{\bf6}/{\bf7}&{\bf6}/{\bf7}/{\bf9}&{\bf6}/{\bf7}/8&{\bf7}/{\bf8}/{\bf14}&{\bf7}/{\bf8}/11\\情報源符号化&15/27/55&{\bf6}/{\bf7}/{\bf9}&5/{\bf7}/8&{\bf7}/{\bf10}/{\bf14}&{\bf7}/{\bf10}/13&8/{\bf13}/{\bf19}&{\bf9}/{\bf13}/18\\エントロピー&5/17/40&0/0/{\bf1}&0/0/0&{\bf1}/{\bf1}/{\bf2}&0/0/0&{\bf1}/{\bf1}/{\bf2}&0/0/1\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「パターン認識」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hlineパターン認識&8/33/95&{\bf2}/{\bf3}/{\bf6}&0/2/3&{\bf3}/{\bf4}/{\bf11}&1/3/7&{\bf3}/5/{\bf15}&2/{\bf6}/11\\線形識別関数&7/17/40&1/4/{\bf9}&{\bf2}/{\bf5}/{\bf9}&{\bf3}/{\bf6}/{\bf12}&{\bf3}/{\bf6}/11&{\bf3}/{\bf6}/{\bf14}&{\bf3}/{\bf6}/13\\部分空間法&7/11/23&{\bf1}/{\bf1}/{\bf2}&{\bf1}/{\bf1}/{\bf2}&{\bf1}/{\bf1}/{\bf3}&{\bf1}/{\bf1}/2&{\bf1}/{\bf1}/{\bf3}&{\bf1}/{\bf1}/{\bf3}\\特徴抽出&6/24/66&{\bf1}/{\bf3}/{\bf6}&1/2/3&{\bf1}/{\bf3}/{\bf8}&{\bf1}/{\bf3}/{\bf8}&{\bf1}/3/10&{\bf1}/{\bf4}/{\bf11}\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「バイオインフォマティクス」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline{\tinyバイオインフォマティクス}&10/34/130&0/0/{\bf2}&0/0/{\bf2}&0/{\bf2}/{\bf7}&0/0/3&{\bf1}/{\bf3}/{\bf10}&0/2/6\\相同性&14/41/122&{\bf2}/{\bf4}/{\bf6}&1/1/4&{\bf2}/4/8&{\bf2}/{\bf5}/{\bf9}&{\bf2}/{\bf5}/{\bf12}&{\bf2}/{\bf5}/{\bf12}\\スプライシング&12/31/99&{\bf3}/{\bf5}/{\bf8}&1/1/2&{\bf3}/{\bf5}/{\bf10}&{\bf3}/4/6&{\bf3}/{\bf6}/{\bf11}&{\bf3}/5/8\\GenBank&13/31/75&{\bf3}/4/4&{\bf3}/{\bf5}/{\bf6}&{\bf4}/{\bf8}/{\bf11}&{\bf4}/{\bf8}/10&{\bf6}/{\bf12}/{\bf17}&4/8/12\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「マクロ経済学」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hlineマクロ経済学&22/55/116&0/{\bf1}/{\bf2}&0/0/1&{\bf1}/{\bf2}/{\bf4}&0/1/2&{\bf2}/{\bf4}/{\bf7}&0/1/3\\投資関数&16/41/100&{\bf5}/{\bf6}/{\bf7}&4/5/5&5/{\bf8}/{\bf13}&{\bf6}/{\bf8}/{\bf13}&{\bf6}/{\bf10}/18&{\bf6}/{\bf10}/{\bf19}\\有効需要&33/88/200&{\bf3}/{\bf4}/{\bf7}&2/3/3&{\bf5}/{\bf9}/{\bf14}&4/6/9&{\bf9}/{\bf17}/{\bf23}&6/12/17\\マネーサプライ&29/84/207&{\bf3}/{\bf3}/{\bf8}&2/2/6&{\bf5}/{\bf6}/{\bf11}&4/5/9&{\bf5}/{\bf9}/{\bf15}&{\bf5}/8/{\bf15}\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「ミクロ経済学」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hlineミクロ経済学&19/51/105&0/{\bf2}/{\bf3}&0/1/1&1/6/8&{\bf2}/{\bf7}/{\bf9}&2/7/{\bf12}&{\bf3}/{\bf9}/11\\無差別曲線&18/46/80&{\bf6}/{\bf6}/{\bf8}&5/5/6&{\bf10}/{\bf13}/{\bf16}&9/10/14&10/{\bf14}/{\bf20}&{\bf11}/{\bf14}/{\bf20}\\限界効用&27/57/112&{\bf7}/{\bf7}/{\bf9}&4/4/6&{\bf12}/{\bf13}/{\bf17}&8/9/12&{\bf13}/{\bf16}/{\bf22}&11/15/20\\需要曲線&20/60/108&{\bf5}/{\bf8}/{\bf9}&{\bf5}/{\bf8}/{\bf9}&{\bf10}/{\bf16}/{\bf17}&7/11/14&{\bf10}/18/21&{\bf10}/{\bf19}/{\bf22}\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことが観察される.\begin{enumerate}\item参照セット$R_3$を用いた場合,候補語集合に平均的に14個程度の参照用語が含まれているが,そのうち関連度上位10位に含まれるのは,2〜3個程度である.\item参照セット$R_1$を用いた場合,候補語集合に平均的に100個弱の参照用語が含まれおり,関連度上位10位に6個程度,上位20位に10個程度,上位30位に13個程度の参照用語が含まれている.\end{enumerate}厳しい条件(参照セット$R_3$)ではそれほど性能が出ていないが,制限を緩めた参照セット($R_1$)では,上位30位の半数程度が参照用語となっている.このことは,本システムは,「ある分野の代表的な用語から,同じ分野の専門用語を収集する」のではなく,「ある専門用語から,それと強く関連する比較的狭い範囲の専門用語を収集する」ことに長けていることを示唆する.本システムは,このようなタスクにおいては,有効に機能していると考えられる.この点については,次の主観的評価のところで再度確認する.\begin{enumerate}\setcounter{enumi}{2}\item与えるシードワードによっては,参照用語をほとんど収集することができない場合が存在する.\end{enumerate}本実験で極端に性能が悪かったのは,「エントロピー」と「部分空間法」をシードワードとした場合である.エントロピーは「情報理論」分野以外(例えば「熱力学」)でも用いられる専門用語である.本システムは,シードワードのみを入力とするため,複数の分野で使われる専門用語に対して,関連用語を分野毎に出力する能力を持たない.そのため,システムが出力する用語に,複数の分野の専門用語が混在することになる.本実験では,「エントロピー」に対する参照用語は「情報理論」の用語に限られるため,システムの出力に含まれる参照用語数は相対的に小さくなる.一方,「部分空間法」は比較的広がりを持たない専門用語であり,それに強く関連する専門用語が,そもそも参照セットにあまり存在していない.このことが上記の結果をもたらしていると考えられる.\begin{enumerate}\setcounter{enumi}{3}\itemJaccard係数と$\chi^2$統計量の2つの尺度では,使用する参照セットや$N$の大小にかかわらず,大半のシードワードにおいて,Jaccard係数の方が良い結果が得られている.\end{enumerate}つまり,Jaccard係数と$\chi^2$統計量の優劣が,\mbox{\ref{sec:ex_rel}節}の実験と逆転している.この点についても,主観的評価のところで考察する.\subsubsection{主観的評価}最後に,「自然言語処理」分野について,主観的評価を行なった.具体的には,それぞれのシードワードに対して得られた関連度上位30位までの用語を,\begin{description}\item[専門用語性]該当用語は専門用語として適切か\item[関連性]該当用語はシードワードと強く関連しているか\end{description}という2つの観点でそれぞれ3段階の評点を付与した.\begin{description}\item[A]専門用語として適切である/シードワードと強く関連している\item[B]どちらともいえない(判断しかねる)\item[C]専門用語として不適切である/シードワードと強く関連していない\end{description}2名の評価者(著者のうちの2名)が独立にこの評価を行ない,最終的に,2名の評価者が専門用語性と関連性の両方でいずれもAと判定した用語を,シードワードの関連用語(正解)とみなした.上記の主観的評価の結果を\mbox{表\ref{tbl:subjective_evl}}に示す.この表では,参照セットを用いた場合の結果も併せ,それぞれの正解の数を「$R_3/R_2/R_1/\mbox{主観的評価}$」の形式で示した.\begin{table}\begin{center}\scriptsize\caption{「自然言語処理」分野に対する主観的評価}\label{tbl:subjective_evl}\begin{tabular}{|l||rr|rr|rr|}\hline\multicolumn{1}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c||}{入力用語}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline自然言語処理&{\bf3}/{\bf4}/{\bf6}/{\bf7}&2/2/3/{\bf7}&{\bf4}/{\bf7}/{\bf11}/{\bf16}&{\bf4}/5/6/14&{\bf4}/{\bf8}/{\bf13}/{\bf24}&{\bf4}/5/9/20\\意味解析&{\bf4}/{\bf5}/{\bf8}/{\bf10}&2/3/4/6&{\bf5}/{\bf7}/{\bf11}/{\bf18}&{\bf5}/6/{\bf11}/14&{\bf6}/{\bf8}/{\bf14}/{\bf25}&5/6/12/17\\形態素解析&{\bf2}/{\bf2}/{\bf2}/{\bf9}&1/1/1/7&{\bf4}/{\bf5}/{\bf8}/{\bf17}&2/3/4/11&{\bf4}/{\bf5}/{\bf8}/{\bf20}&{\bf4}/{\bf5}/{\bf8}/16\\構文解析&{\bf4}/{\bf4}/{\bf7}/{\bf8}&1/1/4/7&{\bf5}/{\bf5}/{\bf9}/{\bf12}&2/2/5/{\bf12}&{\bf5}/{\bf6}/{\bf10}/{\bf17}&{\bf5}/{\bf6}/9/{\bf17}\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことが観察される.\begin{enumerate}\item主観的評価で正解と判定された用語数は,参照セット$R_1$を正解とした場合の用語数より,いずれの場合も多い.\itemJaccard係数を用いた場合,上位10位では8〜9個程度,上位20位では16個程度,上位30位では22個程度の正解が含まれている.\end{enumerate}これらの事実は,参照セットを用いたシステムの評価は,過小評価となっていることを示している.\mbox{\ref{sec:reference}節}で述べたように,参照セットはその分野の専門用語を網羅的に集めたものではない.そのため,参照セットに含まれなくてもその分野の専門用語として認められ,かつ,シードワードと強く関連するような用語が数多く存在する.上記の結果は,これらの用語を関連度上位に収集できているということを意味し,システムが有効に機能していることを示している.\begin{enumerate}\setcounter{enumi}{2}\itemすべての場合において,Jaccard係数を用いた方が,$\chi^2$統計量を用いた場合より同等か良い結果を示している.\end{enumerate}この点については,最後に考察する.\begin{table}\begin{center}\scriptsize\caption{「自然言語処理」に対するシステムの出力}\label{tbl:nlp_result}\begin{tabular}{|l|rr|rr|rr|cc|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{c|}{}&\multicolumn{2}{c|}{$Jac(s,t)$}&\multicolumn{2}{c|}{$\chi^2(s,t)$}&\multicolumn{2}{c|}{評価}\\\multicolumn{1}{|c|}{$t$}&\multicolumn{1}{c}{$hits(t)$}&\multicolumn{1}{c|}{$hits(s\&t)$}&\multicolumn{1}{c}{順位}&\multicolumn{1}{c|}{スコア}&\multicolumn{1}{c}{順位}&\multicolumn{1}{c|}{スコア}&\multicolumn{1}{c}{参照}&\multicolumn{1}{c|}{主観}\\\hline言語処理&19700&9950&1&0.505&1&$6.86\times10^6$&&$\surd$\\自然言語&20300&9950&2&0.490&2&$6.66\times10^6$&1&$\surd$\\自然言語処理技術&1020&1020&3&0.103&3&$1.39\times10^6$&&\\形態素解析&5570&1270&4&0.089&7&$3.94\times10^5$&3&$\surd$\\形態素&8440&1460&5&0.086&9&$3.43\times10^5$&3&$\surd$\\コーパス&15400&1740&6&0.074&12&$2.66\times10^5$&2&$\surd$\\構文解析&8190&1220&7&0.072&13&$2.46\times10^5$&3&$\surd$\\言語処理学会&1500&734&8&0.069&5&$4.90\times10^5$&&$\surd$\\音声言語&9490&892&9&0.048&26&$1.13\times10^5$&1&\\言語情報&9200&859&10&0.047&27&$1.08\times10^5$&&\\\hline機械学習&3750&612&11&0.047&21&$1.35\times10^5$&&$\surd$\\言語理解&3550&595&12&0.046&22&$1.35\times10^5$&1&$\surd$\\自然言語処理研究会&406&406&13&0.041&4&$5.55\times10^5$&&$\surd$\\意味解析&1610&430&14&0.039&16&$1.56\times10^5$&3&$\surd$\\知識表現&2190&440&15&0.038&24&$1.20\times10^5$&1&$\surd$\\パターン認識&9370&699&16&0.038&&&&\\情報抽出&3110&462&17&0.037&&&2&$\surd$\\意味論&13900&799&18&0.035&&&&$\surd$\\人工知能&60100&2330&19&0.034&25&$1.20\times10^5$&&$\surd$\\機械翻訳&29500&1290&20&0.034&&&2&$\surd$\\\hline知識処理&2640&406&21&0.033&&&&$\surd$\\自動要約&1110&355&22&0.033&17&$1.55\times10^5$&&$\surd$\\知識ベース&6310&520&23&0.033&&&&$\surd$\\言語理論&3450&425&24&0.033&&&1&$\surd$\\自然言語処理学&305&305&25&0.031&6&$4.17\times10^5$&&\\人工知能学会誌&1750&334&26&0.029&&&&\\長尾真&2480&351&27&0.029&&&&$\surd$\\認知科学&17000&759&28&0.029&&&&$\surd$\\曖昧性&3210&365&29&0.029&&&2&$\surd$\\対話システム&2370&341&30&0.028&&&&$\surd$\\\hline自然言語処理学講座&266&266&&&8&$3.63\times10^5$&&\\自然言語処理システム&237&236&&&10&$3.21\times10^5$&&$\surd$\\自然言語処理研究&213&213&&&11&$2.91\times10^5$&&\\自然言語処理入門&123&123&&&14&$1.68\times10^5$&&\\計算言語学&461&234&&&15&$1.62\times10^5$&&$\surd$\\言語資源&438&222&&&18&$1.54\times10^5$&&$\surd$\\JAIST&265&170&&&19&$1.49\times10^5$&&\\音声言語処理&621&253&&&20&$1.41\times10^5$&&$\surd$\\自然言語処理研究室&95&95&&&23&$1.30\times10^5$&&\\奥村学&473&189&&&28&$1.03\times10^5$&&$\surd$\\アルゴリズム&127000&3080&&&29&$9.70\times10^4$&&\\テキスト自動要約&221&124&&&30&$9.49\times10^4$&&$\surd$\\\hline\end{tabular}\end{center}\end{table}「自然言語処理」をシードワードとしたときのシステムの出力(上位30語)とその評価を\mbox{表\ref{tbl:nlp_result}}に示す.この表において,「$Jac(s,t)$順位」は,Jaccard係数を用いた場合の用語$t$の順位,「$\chi^2(s,t)$順位」は,$\chi^2$統計量を用いた場合の用語$t$の順位である.順位の空欄は,その尺度でその用語が上位30語に入らなかったことを示す.また,「参照」の数字は参照セット$R_i$に含まれる場合の$i$の最大値を示す.「主観」欄のチェックは,主観的評価において関連用語と判定されたことを示す.この結果からも,本システムが得意とするのは,「ある専門用語(シードターム)から,それと強く関連する比較的狭い範囲の専門用語を収集する」というタスクであることが確認できる.「自然言語処理」はひとつの分野を統括する用語であるため,「形態素解析」や「構文解析」といった代表的用語が得られているが,「茶筌」や「文脈自由文法」といった,それぞれのサブ分野の専門用語は得ることができない.我々は,このようなシステムの特性を問題視しない.逆に,好ましい特性と考える.なぜならば,狭い範囲でも強く関連する用語を得ることができるのであれば,それを再帰的に適用することによって,関連用語集合を段階的に拡大していくことができるからである.事実,「茶筌」や「文脈自由文法」といった専門用語は,それぞれ「形態素解析」や「構文解析」をシードワードとしたとき,本システムは,これらの用語をその関連用語として出力することができる.\mbox{表\ref{tbl:nlp_result}}において,$\chi^2$統計量の上位30位以内に含まれ,かつ,Jaccard係数では30位以内に含まれなかった用語に見られる特徴として,「自然言語処理学講座」や「自然言語処理研究」などの用語内にシードワードを含む用語がある.これらの用語は,シードワードを含むため,サーチエンジンによるAND検索では,シードワードと100\%共起するが,用語自身のヒット数$hits(t)$はやや小さい用語である.既に述べたように,Jaccard係数も$\chi^2$統計量も,共起の割合が同じであれば,頻度が低い用語ほどスコアは小さくなるが,両者を比較すると,$\chi^2$統計量の方が,低頻度語に高いスコアを与える傾向がある.この差が,現実の状況において,2つの尺度の優劣の逆転現象をもたらす要因となっている.しかしながら,その差はそれほど大きくないため,どちらの尺度を用いるかはシステムの利用者に委ねるという立場を結論とした.
\section{関連研究}
\label{chap5}本研究は,一つの用語から,それに関連する用語集合を収集するという問題を扱っている.これを,特定分野の用語集合を収集する方法とみなせば,その関連研究は{\bf重要語抽出}となる.また,これを,用語間の関連性の推定とみなせば,{\bfトピックワードグラフ生成}や{\bf特定の関係を持つ用語対の自動獲得}と関連する.\subsection{重要語抽出}重要語抽出は,与えられた文書(または文書集合)から,その文書の内容を代表するような重要語を抽出・列挙する技術である.その最も重要な要素は,用語の重要性を測る尺度であり,tf.idf,C-value\shortcite{frantzi98cvalue_ncvalue},FLR\shortcite{nakagawa03flr}やTermRepresentativeness\shortcite{hisamitsu00representativeness}などの尺度が提案されている.重要語抽出の技術の主な応用は,情報検索のための索引語の抽出である.しかし,ある特定の分野を代表するような文書集合を集め,この文書集合に重要語抽出を適用すれば,そこで得られる重要語集合は,その分野の専門用語集合の候補と考えることができる.このような見方においては,重要語抽出の研究と本研究は,強く関連する.重要語抽出技術を用いた専門用語抽出と,本研究の大きな違いは,入出力の違いである.前者の入出力は,文書集合と専門用語集合(多数)であるのに対し,後者の入出力は,専門用語と専門用語集合(少数)である.この違いは,出力する用語の選択に用いる尺度の違いをもたらす.すなわち,前者は,特定の文書集合における用語の重要度を測る尺度を使用するのに対し,後者は,2つの用語間の関連度を測る尺度を使用する.重要語抽出技術を用いた専門用語抽出の大きな問題点は,特定の分野を代表するような文書集合を作成することが難しいという点にある.本研究では,入力を一つの専門用語(シードワード)に限定することによって,この問題を回避している.しかしながら,その代償として,1回の収集ではそれほど多くの関連用語(専門用語)を収集することはできない.この新たな問題は,収集された用語をシードワードとして,再帰的に関連用語を収集する方法によりある程度解決できると考えられる.\subsection{トピックワードグラフ生成}検索システムDualNAVI\shortcite{niwa99dualnavi}におけるトピックワードグラフは,検索文書集合を代表するトピックワード集合をユーザーに提示する方法として提案されたもので,トピックワードを節点,2つのトピックワード間の関連をリンクとするグラフである.このグラフの生成過程のうち,グラフのリンクの作成,すなわち,関連するトピックワードの決定は,ある用語に対して関連する用語を決定するという側面において,本研究と強く関連する.上記のリンク作成は,与えられたトピックワード集合の各要素に対して,最も強く関連するトピックワードを決定することによって行なわれる.このとき使われる関連性の尺度は,$\frac{a}{a+c}$に相当するような用語の共起に基づいている.ただし,$a$や$c$を計算する対象は,検索された文書集合である.このことから分かるように,トピックワード間の関連推定と本研究の大きな違いは,前者が,ある特定の文書集合(検索された文書集合)における関連性の推定問題を対象としているのに対し,後者は,文書集合に依存しない,より一般的な(辞書的な)関連性の推定問題を対象としている点である.この違いは,前者の目的が文書検索支援であるのに対し,我々の最終目的は特定分野の用語集の自動編纂であるという違いから来ている.\subsection{特定の関係を持つ用語対の自動獲得}与えられたコーパスから,ある特定の関係を持つ語のペアを抽出することは,上位・下位関係,類義関係などを対象として,比較的よく研究されてきている.例えば,上位・下位関係の獲得では,上位・下位関係を表す特定の文型パターンを用いる方法\cite{hearst92acquisition_hyponyms}や,HTML文書のリスト構造を利用する方法\cite{shinzato05html}などが提案されている.また,類義関係の獲得では,それぞれの語に対して,特定の文脈情報をコーパスから抽出し,それらをクラスタリングすることによって,類義語を発見する方法などが提案されている\cite{hindle90noun_classification,lin98automatic_retrieval}.これらの方法で得られる「関係」は,特定の文書に依存しない(辞書やシソーラスに記述すべきような)一般的な「関係」であり,そのような関係にある語の組を求めるという側面において,本研究と共通の側面を持つ.ただし,これらの研究が主に対象としているのは,一般語や固有名詞であり,専門用語ではない.また,使用している技法も大きく異なる.
\section{おわりに}
\label{chap6}本論文では,従来,専門家の手によって行なわれていた「特定の専門分野で用いられる専門用語群を収集する」という作業を機械化するための方法として,入力として与えられた専門用語(シードワード)に強く関連する用語をウェブから自動的に収集する手法を提案した.これを実現するために,まず,関連用語収集問題を定式化し,この問題を解くためには,ある用語が,(1)専門用語であり,(2)シードワードと関連すること,を判定する必要があることを論じた.本研究では,専門用語が特定の専門文書には数多く現れるが,その他の文書にはほとんど現れないこと,および,関連する2つの用語は,文書において強く共起することに着目し,このような条件を満たす用語を関連用語として収集することとした.具体的には,Jaccard係数と$\chi^2$統計量が,これらの条件判定に利用できることを定性的に示し,ウェブのサーチエンジンのヒット数からこれらの尺度を計算し,関連用語を収集するシステムを構築した.参照セットを用いた評価,および,主観的な評価により,本システムが入力の専門用語に強く関連する十数語の専門用語を収集できることを示した.ある分野の専門用語を収集することは,専門用語集の編纂の第1ステップである.本研究で提案した方法は,一つのシードワードから少数の関連用語を出力する能力しか持たないが,これを再帰的に適用することによって,多くの関連用語を収集することが可能である.こうして得られる専門用語集合から,最終的に見出しとすべき用語の集合を決定すれば,専門用語集の自動編纂が達成できると考えられる.本論文では,日本語を対象とした関連用語収集システムについてのみ述べたが,既に,フランス語\shortcite{xavier05french_rtc},英語を対象とした同様のシステムが実現されている.これらのシステムと日本語関連用語収集システムを組み合わることによって,特定分野の対訳用語集の自動編纂を実現することが可能となる\shortcite{EACL06}.\medskip\acknowledgment本研究に対して,多くの有益なコメントを下さった,東京大学大学院教育学研究科の影浦峡助教授に深く感謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aitchison\BBA\Gilchrist}{Aitchison\BBA\Gilchrist}{1987}]{thesaurus}Aitchison,J.\BBACOMMA\\BBA\Gilchrist,A.\BBOP1987\BBCP.\newblock{\BemThesaurusConstruction:APracticalManual\/}(2nd\BEd).\newblockAslib.\bibitem[\protect\BCAY{明石}{明石}{2003}]{akashi03macro}明石茂生\BBOP2003\BBCP.\newblock\Jem{マクロ経済学}.\newblock中央経済社.\bibitem[\protect\BCAY{浅田}{浅田}{2002}]{asada02micro}浅田統一郎\BBOP2002\BBCP.\newblock\Jem{ミクロ経済学の基礎}.\newblock中央経済社.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1990}]{church89word_association}Church,K.~W.\BBACOMMA\\BBA\Hanks,P.\BBOP1990\BBCP.\newblock\BBOQWordAssociationNorms,MutualInformation,andLexicography\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf16}(1),pp.~22--29.\bibitem[\protect\BCAY{Dunning}{Dunning}{1993}]{dunning93accurate_methods}Dunning,T.\BBOP1993\BBCP.\newblock\BBOQAccurateMethodsfortheStatisticsofSurpriseandCoincidence\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),pp.~61--74.\bibitem[\protect\BCAY{Frantzi,Ananiadou,\BBA\Tsujii}{Frantziet~al.}{1998}]{frantzi98cvalue_ncvalue}Frantzi,K.~T.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP1998\BBCP.\newblock\BBOQTheC-value/NC-valueMethodofAutomaticRecognitionforMulti-wordTerms\BBCQ\\newblockIn{\BemProceedingsoftheResearchandAdvancedTechnologyforDigitalLibraries,SecondEuropeanConference(ECDL'98)},\BPGS\585--604.\bibitem[\protect\BCAY{福田照山}{福田\JBA照山}{2005}]{fukuda05macro}福田慎一,照山博司\BBOP2005\BBCP.\newblock\Jem{マクロ経済学・入門}(3\JEd).\newblock有斐閣.\bibitem[\protect\BCAY{五條堀}{五條堀}{2003}]{gojohbori03bio}五條堀孝\JED\\BBOP2003\BBCP.\newblock\Jem{生命情報学}.\newblockシュプリンガー・フェアラーク東京.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{hearst92acquisition_hyponyms}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics(COLING'92)},\BPGS\539--545.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle90noun_classification}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicateArgumentStructures\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'90)},\BPGS\268--275.\bibitem[\protect\BCAY{平澤}{平澤}{2000}]{hirasawa00it}平澤茂一\BBOP2000\BBCP.\newblock\Jem{{\small情報数理シリーズA-6}情報理論入門}.\newblock培風館.\bibitem[\protect\BCAY{平田}{平田}{2003}]{hirata03it}平田廣則\BBOP2003\BBCP.\newblock\Jem{情報理論のエッセンス}.\newblock昭晃堂.\bibitem[\protect\BCAY{Hisamitsu,Niwa,\BBA\Tsujii}{Hisamitsuet~al.}{2000}]{hisamitsu00representativeness}Hisamitsu,T.,Niwa,Y.,\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQAMethodofMeasuringTermRepresentativeness\BBCQ\\newblockIn{\BemProceedingsof18thInternationalConferenceonComputationalLinguistics(COLING-2000)},\BPGS\320--326.\bibitem[\protect\BCAY{井堀}{井堀}{2004}]{ibori04micro}井堀利宏\BBOP2004\BBCP.\newblock\Jem{入門ミクロ経済学}(2\JEd).\newblockサイエンス社.\bibitem[\protect\BCAY{石井,上田,前田,村瀬}{石井\Jetal}{1998}]{ishii98pr}石井健一郎,上田修功,前田英作,村瀬洋\BBOP1998\BBCP.\newblock\Jem{わかりやすいパターン認識}.\newblockオーム社.\bibitem[\protect\BCAY{Kageura\BBA\Umino}{Kageura\BBA\Umino}{1996}]{kageura96atr_review}Kageura,K.\BBACOMMA\\BBA\Umino,B.\BBOP1996\BBCP.\newblock\BBOQMethodsofAutomaticTermRecognition:AReview\BBCQ\\newblock{\BemTerminology},{\Bbf3}(2),pp.~259--289.\bibitem[\protect\BCAY{影浦}{影浦}{2002}]{kageura02terminology}影浦峡\BBOP2002\BBCP.\newblock\JBOQ「専門用語の理論」に関する一考察\JBCQ\\newblock\Jem{情報知識学会誌},{\Bbf12}(1),pp.~3--12.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin98automatic_retrieval}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticRetrievalandClusteringofSimilarWords\BBCQ\\newblockIn{\BemProceedingsofCOLING/ACL-98},\BPGS\768--774.\bibitem[\protect\BCAY{Manning\BBA\Sch\"utze}{Manning\BBA\Sch\"utze}{1999}]{manning99fsnlp}Manning,C.~D.\BBACOMMA\\BBA\Sch\"utze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturalLanguageProcessing}.\newblockTheMITPress.\bibitem[\protect\BCAY{美宅榊}{美宅\JBA榊}{2003}]{mitaku03bio}美宅成樹,榊佳之\JEDS\\BBOP2003\BBCP.\newblock\Jem{{\small応用生命科学シリーズ9}バイオインフォマティクス}.\newblock東京化学同人.\bibitem[\protect\BCAY{村上古谷}{村上\JBA古谷}{2003}]{murakami03bio}村上康文,古谷利夫\JEDS\\BBOP2003\BBCP.\newblock\Jem{バイオインフォマティクスの実際}.\newblock講談社.\bibitem[\protect\BCAY{長尾,佐藤,黒橋,角田}{長尾\Jetal}{1996}]{nagao96nlp}長尾真,佐藤理史,黒橋禎夫,角田達彦\BBOP1996\BBCP.\newblock\Jem{{\small岩波講座ソフトウェア科学15}自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{長尾,黒橋,佐藤,池原,中野}{長尾\Jetal}{1998}]{nagao98nlp}長尾真,黒橋禎夫,佐藤理史,池原悟,中野洋\BBOP1998\BBCP.\newblock\Jem{{\small岩波講座言語の科学9}言語情報処理}.\newblock岩波書店.\bibitem[\protect\BCAY{中川,森,湯本}{中川\Jetal}{2003}]{nakagawa03flr}中川裕志,森辰則,湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),pp.~27--45.\bibitem[\protect\BCAY{中川}{中川}{1999}]{nakagawa99pr}中川聖一\BBOP1999\BBCP.\newblock\Jem{{\small情報科学コアカリキュラム講座}パターン情報処理}.\newblock丸善.\bibitem[\protect\BCAY{Niwa,Iwayama,Hisamitsu,Nishioka,Takano,Sakurai,\BBA\Imaichi}{Niwaet~al.}{1999}]{niwa99dualnavi}Niwa,Y.,Iwayama,M.,Hisamitsu,T.,Nishioka,S.,Takano,A.,Sakurai,H.,\BBA\Imaichi,O.\BBOP1999\BBCP.\newblock\BBOQInteractiveDocumentSearchwith{\itDualNAVI}\BBCQ\\newblockIn{\BemProceedingsofthe1stNTCIRWorkshoponResearchinJapaneseTextRetrievalandTermRecognition},\BPGS\123--130.\bibitem[\protect\BCAY{Robitaille,Sasaki,Tonoike,Sato,\BBA\Utsuro}{Robitailleet~al.}{2006}]{EACL06}Robitaille,X.,Sasaki,Y.,Tonoike,M.,Sato,S.,\BBA\Utsuro,T.\BBOP2006\BBCP.\newblock\BBOQCompilingFrench-JapaneseTerminologiesfromtheWeb\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-06)},\BPGS\225--232.\bibitem[\protect\BCAY{Robitaille,Sato,\BBA\Utsuro}{Robitailleet~al.}{2005}]{xavier05french_rtc}Robitaille,X.,Sato,S.,\BBA\Utsuro,T.\BBOP2005\BBCP.\newblock\BBOQAutomaticCollectionofRelatedTermsinFrench\BBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\BPGS\891--894.\bibitem[\protect\BCAY{新里,鳥澤}{新里,鳥澤}{2005}]{shinzato05html}新里圭司,鳥澤健太郎\BBOP2005\BBCP.\newblock\JBOQHTML文書からの単語間の上位下位関係の自動獲得\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),pp.~125--150.\bibitem[\protect\BCAY{田中}{田中}{1999}]{tanaka99nlp}田中穂積(監修)\BBOP1999\BBCP.\newblock\Jem{自然言語処理—基礎と応用—}.\newblock電子情報通信学会.\bibitem[\protect\BCAY{田近}{田近}{2001}]{RSK}田近洵一\JED\\BBOP2001\BBCP.\newblock\Jem{例解小学国語辞典〈ワイド版〉}.\newblock三省堂.\bibitem[\protect\BCAY{鳥脇}{鳥脇}{1993}]{toriwaki93pr}鳥脇純一郎\BBOP1993\BBCP.\newblock\Jem{認識工学—パターン認識とその応用—}.\newblockコロナ社.\bibitem[\protect\BCAY{脇田}{脇田}{2004}]{wakita04macro}脇田成\BBOP2004\BBCP.\newblock\Jem{マクロ経済学のナビゲーター}(2\JEd).\newblock日本評論社.\bibitem[\protect\BCAY{余語}{余語}{2002}]{yogo02micro}余語將尊\BBOP2002\BBCP.\newblock\Jem{現代ミクロ経済学}.\newblock慶應義塾大学出版会.\bibitem[\protect\BCAY{横尾}{横尾}{2004}]{yokoo04it}横尾英俊\BBOP2004\BBCP.\newblock\Jem{情報理論の基礎}.\newblock共立出版.\end{thebibliography}\newpage\begin{biography}\biotitle{略歴}\bioauthor{佐々木靖弘}{2003年京都大学工学部電気電子工学科卒業.2005年同大学大学院情報学研究科修士課程知能情報学専攻修了.2006年同博士課程退学.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学大学院情報学研究科講師を経て,2006年より筑波大学大学院システム情報工学研究科助教授.自然言語処理の研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N02-01
|
\section{はじめに}
\label{sec:Introduction}近年,コーパスアノテーションはますます多様化し,多層アノテーションを統合的に利用する仕組みが欠かせない.たとえば,話し言葉の言語学的・工学的研究で広く用いられている『日本語話し言葉コーパス』\cite{前川_2004_日本語}のコアデータでは,音韻・単語・韻律単位・文節・節を含む10種類あまりの単位に関してさまざまなアノテーションがなされている.また,最近では視線・頷きやジェスチャーなどの非言語情報を含むマルチモーダルコーパスの開発が進んでおり\cite<たとえば>{Carletta_2007_UTK,Chen_2006_VMM,Den_2007_SAT,角_2011_マルチ,Waibel_2009_CIT},これらのコーパスでは複数のモダリティに関して多種のアノテーションがなされている.コーパスアノテーションに基づく研究では,このような多層的なアノテーションを統合し,「文末形式を持つ節の先頭の文節の末尾の語が係助詞「は」であるものを抽出し,その語の継続長を算出する」といった,複数の単位を組み合わせた複雑な検索を可能にする必要がある.これまで,多層アノテーションを表現するさまざまなスキーマが提案され,それらに基づくアノテーションツールやコーパス検索ツールが開発されている\cite{Bird_2000_FFF,Bird_2001_FFF,Calhoun_2010_NSC,Carletta_2005_NXT,Kaplan_2012_STF,Kaplan_2010_APM,Matsumoto_2006_ACM,Muller_2001_MTF,Muller_2006_MAO,Noguchi_2008_MPA}.しかし,これらのツールは開発主体内部での利用にとどまっている場合がほとんどであり,外部にはあまり普及していない.これらの統合開発環境では提案スキーマに基づいて種々のツール群を提供することを目指しているが,実際に提供されているのは一部のツールのみであり,個別のアノテーションツールのほうが広く使われている場合が多い.とくに話し言葉においては,Praat\cite{Boersma_2013_PDP}やELAN\cite{Brugman_2004_AMM}といった音声や映像を扱う高機能なアノテーションツールが広く普及しており,これらのツールと同等の機能を持つツールを自前で開発するのはコストが高くつくうえ,コーパス開発者の側でも使い慣れたツールにとどまって新たなツールに乗り換えたくないという者が多い.本研究の目的は,話し言葉で広く使われている既存のアノテーションツールを有効に利用しつつ,種々のアノテーションを統合利用できる環境を構築することである(図\ref{fig:overview}).具体的には以下のことを行なう.\begin{enumerate}\itemマルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを設計する.\item以下の入出力を持つデータベース構築ツールを開発する.\begin{description}\item[入力]既存のアノテーションツールで作成された,種々の書式を持つアノテーション\item[出力]設定ファイルを基にして,汎用的なデータベーススキーマから具現化されたデータベース\end{description}\itemサーバを必要としないスタンドアロンのデータベースソフトとして広く用いられているSQLiteによって実装し,既存のコーパス検索ツールと接続可能にする.\end{enumerate}本研究は,既存のアノテーションツールやコーパス検索ツールと結合したコーパス利用環境を構築することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f1.eps}\end{center}\caption{本研究の枠組み}\label{fig:overview}\end{figure}以下,\ref{sec:DB}節では話し言葉を表現できる汎用的なデータベーススキーマの設計について述べ,\ref{sec:Tools}節ではデータベース構築ツールの開発について述べる.\ref{sec:CaseStudies}節では提案するコーパス利用環境を用いて実際に運用している2つの事例について述べる.\ref{sec:Discussion}節では関連研究やアノテーション管理・実用性に関する議論を行ない,\ref{sec:Conclusion}節ではまとめと今後の課題について述べる.
\section{話し言葉を表現できる汎用的なデータベーススキーマの設計}
\label{sec:DB}本節では,マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる汎用的なデータベーススキーマを提案する.本スキーマは,基本的には,\citeA{Noguchi_2008_MPA}と\citeA{Kaplan_2010_APM}が提案したセグメントとリンクに基づくスキーマに依拠している.しかし,彼らのスキーマは書き言葉を想定しており,話し言葉に適用するためにはいくつかの拡張が必要である.以下,拡張・改良点について順に述べ,我々のスキーマを提案する.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f2.eps}\end{center}\caption{セグメントとリンクに基づくスキーマ(\protect\cite{Kaplan_2010_APM}のFigure3を改変)}\label{fig:SLAT}\end{figure}\subsection{セグメントとリンクに基づくスキーマ}セグメントとリンクに基づくスキーマでは以下の2種類のオブジェクトを用いる.\begin{description}\item[セグメント(Segment)]文書中の特定の開始位置(start)と終了位置(end)で指定される区間に存在する,特定の型(type)の要素.単語・句・節など.\item[リンク(Link)]参照元セグメント(source)と参照先セグメント(destination)の間に設定される,特定の型(type)の依存関係.係り受け関係・照応関係など.\end{description}いずれのオブジェクトも型ごとに定まった属性(name)と値(value)の対の集合を持つ.たとえば,単語型セグメントは品詞・活用型・活用形などの属性を持ちうるし,係り受け関係型リンクは係り受けの種類(従属と並列の区別)などの属性を持ちうる.これらの属性値が付随したセグメントとリンクの集合によって文書を表現する.セグメントとリンクに基づくスキーマのクラス図を図\ref{fig:SLAT}に示す\footnote{DocumentとTagをつなぐ線は1つの文書が0個以上のタグの集合からなることを示し,SegmentやLinkとTagをつなぐ線はセグメントやリンクがタグの一種であることを示す.また,矢印は,リンクが2つのセグメント(sourceとdestination)に依存することや,各属性・値対がrefで示されたセグメントやリンクに付随することを表す.}.\subsection{話し言葉への拡張}\label{sec:DB:spoken}セグメントとリンクに基づくスキーマはもともと書き言葉を想定して作られており,話し言葉に適用するためにはいくつかの拡張が必要である.\paragraph{開始・終了位置:}開始・終了位置としては文書中での文字位置(文書の先頭から数えて何文字目か)が想定されている.しかし,話し言葉で対象となる要素(アクセント・音調や視線・頷きなど)は必ずしもテキスト情報に基づいていない.そこで,開始・終了位置として文書(音声・映像ファイル)中での時刻(文書の先頭からの経過時間)を用いる.\paragraph{単位の融合:}話し言葉ではしばしば隣接する単位間での融合が生じる.たとえば,「私は」が融合して「ワタシャ」のように発音されたりする.\pagebreakこの場合,「私」と「は」の境界は実際の音声中には存在しないので,個々の単語を時刻に依拠したセグメントとしては表せない.そこで,セグメントとしては融合した「わたしゃ」全体を一つの単位とし,個々の形態論情報を担う単位を「時間的に整列されないセグメント」(非整列セグメント)として別途表現する(図\ref{fig:subseg}){\kern-0.5zw}\footnote{別の表現方法として,融合された境界に対して(隣接時刻間に存在する)架空の時刻(たとえば図\ref{fig:subseg}では1.2など)を設定し,何らかのフラグによってそれが架空の時刻であることを表現するという方法が考えられる.この方法を取れば,非整列セグメントを導入する必要はない.しかし,話し言葉コーパスの分析では,単位の継続長や発話速度を算出する機会が多く,その都度,架空の時刻をスキップするといった処理を行なうのはかえって非効率的である.}.これらのセグメントと非整列セグメントの間の依存関係は後述する階層関係を用いて表現し,各非整列セグメントが「何個の非整列セグメントからなる(長さlenの)セグメント中の何番目の要素であるか(nth)」という情報を与える(図\ref{fig:subseg}ではnth/lenで表記).\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f3.eps}\end{center}\caption{非整列セグメントの例}\label{fig:subseg}\end{figure}\paragraph{マルチチャネルへの対応:}書き言葉の文書は通常,単一のストリームからなる.しかし,話し言葉の対話データでは,複数話者によるマルチチャネルのストリームに対応しなければならない.これはチャネルごとに時刻を相対化することで解決できる.そのために,セグメントの表現にチャネル識別子(話者ラベルなど)を追加する.\paragraph{マルチモーダルへの対応:}書き言葉の文書にはテキストという単一のモダリティしかない.しかし,話し言葉のマルチモーダルデータでは,音声言語に加えて,視線・頷きやジェスチャーなどのモダリティに対応しなければならない.セグメントとリンクに基づくスキーマはスタンドオフ形式\footnote{文書中の要素間の入れ子構造によって階層関係を表すのではなく,外部文書中で各要素が占める区間を開始・終了位置で示すことにより,さまざまな要素間の関係を表す形式.}のため,このような単一の根ノードにまとまらない単位階層にも自然に対応できる.一方で,区間の包含関係で階層関係を表すスタンドオフ形式では,不適切な階層関係が認定されることがある.たとえば,「うん,そうだね」という発話が頷きを伴ってなされた場合,「うん」という単語はこの発話の適切な下位単位であるが,頷きは発話の適切な下位単位とは言えない.どの型のセグメント間に階層関係が設定されるかは,各セグメント型の認識論的な位置づけによってアプリオリに定まっているべきである.そこで,本スキーマでは,セグメント間の階層関係を明示的に表現する.これは,下位セグメントを参照元,上位セグメントを参照先とした特別な型のリンクととらえることができる.\subsection{スキーマの具体化}\label{sec:DB:practical}セグメントとリンクに基づくスキーマは,さまざまな属性集合を持ちうるさまざまな型のセグメントやリンクを扱うために,極めて抽象度の高いスキーマになっている(セグメントとリンクという2種類のオブジェクトしかない).\citeA{Noguchi_2008_MPA}や\citeA{Kaplan_2010_APM}は,「述語」や「項」といったより具体性の高いオブジェクトを操作できるアノテーションツールやコーパス検索ツールをインターフェースとして提供することで,ユーザの利便性を図っている.しかし,既存のアノテーションツールやコーパス検索ツールを用いてコーパス利用環境を実現しようという本研究においては,このような利便を図ることはできず,スキーマ中のオブジェクトがそのままユーザが操作する対象となる.そこでは,語やアクセント句や節といったオブジェクトがそのまま操作できたほうがユーザの了解度は高いと思われる.そこで,(非整列)セグメントや(階層関係を含む)リンクを型ごとに別々のオブジェクトとして表現し,属性は各オブジェクトに直接表現する.属性集合は型ごとに定まるため,型ごとにオブジェクトを別にすれば,このような表現が可能となる.また,階層関係については,「何個の下位セグメントからなる(長さlenの)上位セグメント中の何番目の要素であるか(nth)」という情報を付与する.この情報は時刻の情報から導出できるため,表現としては冗長である.しかし,話し言葉では,隣接するセグメント間で先行要素の終了位置と後続要素の開始位置が一致するという制約が必ずしも成り立たない(間に休止が介在しうる)ため,SQL言語を用いると,たとえば隣接語対を抽出するのに煩雑な検索を行なわなければならない.上述の情報があれば,この検索は簡単に行なえる(付録\ref{sec:bigram}参照).\subsection{提案するデータベーススキーマ}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA1f4.eps}\end{center}\caption{本研究で提案するスキーマ}\label{fig:model}\end{figure}\ref{sec:DB:spoken}と\ref{sec:DB:practical}の議論を踏まえ,図\ref{fig:model}のスキーマを設計した.\pagebreak本スキーマでは以下の4種類のオブジェクトを用いる\footnote{実際には,これら以外に,(1)トーン情報など,区間幅を持たない要素に対するオブジェクト($\RM{point}\IT{Type}_i$),(2)あいづち表現など,あるセグメントの一部のインスタンスに対して追加的に与えられた属性を表現するオブジェクト($\RM{add}\IT{Type}_i$),(3)話者情報などのメタ情報を記述するオブジェクト($\RM{info}\IT{Type}_i$)の3種類のオブジェクトがある.}.\begin{description}\item[セグメント($\RM{seg}\IT{Type}_i$)]文書中の特定のチャネル(channel)上の特定の開始位置(start)と終了位置(end)で指定される区間に存在する要素.型($\IT{Type}_i$)ごとに別のオブジェクトとして表現され,それぞれ特定の属性集合($\RM{attr}_1$,\ldots,$\RM{attr}_{n_i}$)を持つ.\item[非整列セグメント($\RM{useg}\IT{Type}_i$)]時間的に分節化されない,セグメントの下位要素.型($\IT{Type}_i$)ごとに別のオブジェクトとして表現され,特定の属性集合($\RM{attr}_1$,\ldots,$\RM{attr}_{n_i}$)を持つ.\item[リンク($\RM{link}\IT{Type}_i$)]参照元セグメント(source)と参照先セグメント(destination)の間に設定される依存関係.型($\IT{Type}_i$)ごとに別のオブジェクトとして表現され,それぞれ特定の属性集合($\RM{attr}_1$,\ldots,$\RM{attr}_{n_i}$)を持つ.\item[階層関係($\RM{rel}\IT{Type}_i\RM{2}\IT{Type}_j$)]下位セグメント(descendant)と上位セグメント(ancestor)の間に設定される階層関係.上位・下位セグメントの型の組み合わせ($\IT{Type}_j$と$\IT{Type}_i$)ごとに別のオブジェクトとして表現され,同一の上位セグメントに帰属する下位セグメントの総数(len)とそれらのうち何番目の要素であるか(nth)を属性として持つ.\end{description}オブジェクトの種類としては限られているが,型ごとに別々のオブジェクトとして表現されるため,実際のオブジェクトの数はしばしば十数個にもなる.元のセグメントとリンクに基づくスキーマ(図\ref{fig:SLAT})と比べると,以下の違いがある.\begin{enumerate}\item非整列セグメントが導入された.\item階層関係が陽に表現された.\item(非整列)セグメントやリンクが型ごとに別々のオブジェクトとして表現され,属性を内包するようになった.\end{enumerate}
\section{データベース構築ツールの開発}
\label{sec:Tools}本節では,既存のアノテーションツールで作成された種々の書式を持つアノテーションから,\ref{sec:DB}節で提案したスキーマに基づくデータベースを自動的に構築するツールについて述べる.\subsection{ツールの概要}本ツールは現在のところ,CSVベースのツール,Praat\cite{Boersma_2013_PDP},ELAN\cite{Brugman_2004_AMM},Anvil\cite{Kipp_2001_AGA}の4種類のアノテーションツールに対応している.これらのアノテーションファイルから提案スキーマに基づくデータベースを生成することが本ツールの目的である.構築するデータベースは可搬性に優れたSQLiteを採用した.SQLiteは,すべてのテーブルやインデックスを単一のファイルで実装するスタンドアローンの関係データベースであり,『茶器』\cite{Matsumoto_2006_ACM}などのコーパス管理環境でも利用されている.4種類のアノテーションの書式は大きく異なるが,ある一定の規約を設けることにより,データベースに直接インポートできる表形式ファイルに容易に変換できる.この規約に従ったアノテーションを「正規形」と呼ぶ.ELANやAnvilは本研究と類似のスキーマを用いており,はじめからこの規約に従っている.一方,CSVやPraatでは前もって正規形に変換する必要がある.したがって,データベースの構築過程は以下のようになる.\begin{center}(アノテーションファイル$\Rightarrow$)正規形ファイル$\Rightarrow$表形式ファイル$\Rightarrow$データベース\end{center}\subsection{利用できるアノテーションツール}本ツールでは以下の4種類のアノテーションツールを利用できる.\paragraph{CSVベースのツール:}形態論情報や談話行為など,テキスト情報に基づくアノテーションには,コンマで区切られたCSV形式の入出力を持つツールを用いることが多い.たとえば,MicrosoftExcelは人文系・理工系を問わず,広く用いられているCSVベースのツールであり,形態素解析システムなどの言語処理ツールの出力もCSV形式にできるものが多い.\paragraph{Praat:}Praatは高機能な音声アノテーションツールであり,話し言葉の音声学的アノテーションで標準的なツールとなっている.分節音・単語境界や韻律情報のアノテーションで広く利用されている.出力書式は独自のものであるが,基本的にスタンドオフ形式である.\paragraph{ELAN:}ELANは高機能な映像アノテーションツールであり,ジェスチャー研究などで広く利用されている.本研究と類似のスキーマを用いており,出力書式はスタンドオフ形式のXMLである.\paragraph{Anvil:}Anvilも映像アノテーションツールである.ELANにはないリンクアノテーションの機能があり,発話間の関係づけやあいづち表現の反応先などのアノテーションで利用できる.Anvilの出力書式もスタンドオフ形式のXMLである.\subsection{正規形ファイル}\label{sec:Tools:normal}以上のアノテーションからデータベースを構築するためには,スキーマを具現化する上で必須の情報がアノテーションファイルから取得できないといけない.これらは,セグメントでは開始・終了位置であり,リンクでは参照元・参照先セグメント(を一意に同定する情報)である.これらの情報の取得を保証するアノテーションを「正規形」と呼ぶ.以下,アノテーションファイルの書式ごとに順に述べる.\paragraph{CSV:}CSV形式の正規形ファイルの例として,形態論情報アノテーションの例を図\ref{fig:CSV}に示す.CSV形式の正規形では,各行に開始・終了時刻が記されているものとする.たとえば,形態論情報アノテーションでは,Praatなどを用いて別途ラベリングした単語境界の情報から単語ごとの開始・終了時刻が転写されているものとする.ただし,\ref{sec:DB:spoken}で述べた単位の融合などにより時刻を定められない箇所は「不定」(``NA''で示す)としてよい\footnote{したがって,発話ごとにしか時間情報が与えられていないコーパスの場合は,発話の先頭の単語の開始時刻と末尾の単語の終了時刻以外はすべて「不定」となる.}.「不定」でない開始・終了時刻を持つ最小の範囲(図\ref{fig:CSV}の冒頭の例では「第一」)がセグメントとして認定され,各行はその下位に位置する非整列セグメントとして認定される.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f5.eps}\end{center}\caption{CSV形式の正規形ファイルの例}\label{fig:CSV}\end{figure}1つのCSVファイルで複数の単位をアノテーションする場合がしばしばある.たとえば,図\ref{fig:CSV}では,短単位(SUW)と長単位(LUW)という複数の粒度で語が認定されている(「第一母音」は長単位では1つの語であり,短単位では「第」「一」「母音」という3つの語である).このような場合には,IOB2ラベル\cite{TjongKimSang_1999_RTC}によって上位単位の区間を示す(図\ref{fig:CSV}のluwLabel列){\kern-0.5zw}\footnote{`B'は上位単位の開始位置を示し,`I'は開始された上位単位の内部(末尾を含む)にあることを示す.また,`O'は「笑い」など上位単位に含まれない要素であることを示す.}.CSV形式でリンクを表すには,ローカルに定義されたid(文内での文節の通し番号など)を用いて参照元と参照先を示す.たとえば,係り受け解析器CaboCha\cite{Kudo_2002_JDA}の出力はこのような情報を含んでいる.データベース構築ツールはこれらのidをデータベース内で利用するグローバルなidに自動的に変換する.\paragraph{Praat:}Praatの正規形ファイルの例として,韻律情報アノテーションの例を図\ref{fig:Praat}に示す.Praatは多層アノテーションツールであり,複数階層のセグメントを同時に表すことができる.図\ref{fig:Praat}では上段の3層,単語(Word)・アクセント句(AP)・イントネーション句(IP)がそれらに対応する.韻律情報のアノテーションスキーマとして広く用いられているX--JToBI\cite{五十嵐_2006_韻律情}では,アクセント句やイントネーション句など単語より上位のセグメントを直接認定することはなく,これらは単語に対するBreakIndexの情報を用いて派生される.しかし,X--JToBI自体はこれらの上位セグメントの定義を与えておらず,上位セグメントをどのように派生するかはコーパス開発機関ごとに微妙に異なりうる.データベース構築ツールがこれらの上位セグメントを取得するためには,上位セグメントが陽に表現されている必要があり,そのため,Praatの正規形ファイルでは,すべての上位セグメントが陽に表現されていることを規約とした.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f6.eps}\end{center}\caption{Praatの正規形ファイルの例(層は上から順に,Word,AP,IP,break,fbt,tone,pronLabel)}\label{fig:Praat}\end{figure}\paragraph{ELAN/Anvil:}ELANやAnvilを用いたアノテーションでは,複数階層のセグメントを陽に表すのが通常である.たとえば,ジェスチャーのアノテーションでは,ジェスチャー句とジェスチャーフェーズという複数の階層が用いられるが\cite{細馬_2009_ジェス},それらは異なる層に明示的に表される.よって,これらのアノテーションははじめから正規形と考えてよい.なお,Anvilのリンクアノテーションはツール内部で生成されたidを用いて表現されているが,データベース構築ツールはこれらのidをデータベース内で利用するグローバルなidに自動的に変換する.\subsection{正規形ファイルから表形式ファイルへの変換}\label{sec:Tools:table}\ref{sec:Tools:normal}のように正規形ファイルを規約化することにより,データベースに直接インポートできる表形式ファイルへの変換を汎用のツールによって実行できる.このツールは,変換時に用いる諸設定を記述した設定ファイルを読み込み,各書式の正規形ファイルから表形式ファイルに変換する.ツールは,シェルスクリプトとPerl,Praatスクリプト,XSLTによって実装した.設定ファイルでは,どの正規形ファイルからどの属性を抽出し,どのオブジェクト(セグメントやリンク)の表形式ファイルに変換するかを記述する.おもな設定項目を表\ref{tab:config1}に示す.たとえば,図\ref{fig:CSV}のような形態論情報のCSV形式正規形ファイルから長単位型セグメントの表形式ファイルを生成するための設定は図\ref{fig:config1}(左)のようになる.ここでは,入出力ファイル名がワイルドカードを用いて記述され,文書id(\TT{doc-id})がそこからどのように作られるかが指定される\footnote{``\TT{\%$n$@input-file}''は\TT{input-file}変数中の$n$番目の`\TT{\%}'にマッチする文字列を示す.}.オブジェクトに含める属性集合は\TT{label-names}にコンマ区切りで指定する.長単位のように正規形ファイル中で上位階層に相当するセグメントの場合は,セグメント区間を示すIOB2ラベルが記された列名を\TT{unit-tag-column}で指定する.さらに,属性集合の値が正規形ファイル中のセグメント区間の先頭行(\TT{first})に記述されているか,最終行(\TT{last})に記述されているかを\TT{label-position}で指定する.\begin{table}[t]\caption{正規形ファイルから表形式ファイルへの変換で用いる設定項目(抜粋)}\label{tab:config1}\input{ca01table01.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f7.eps}\end{center}\caption{正規形ファイルから表形式ファイルに変換するための設定の例}\label{fig:config1}\end{figure}図\ref{fig:Praat}のような韻律情報のPraat形式正規形ファイルからアクセント句型セグメントの表形式ファイルを生成するための設定を図\ref{fig:config1}(中央)に示す.CSV形式の場合とほぼ同様であるが,セグメント区間は特定の層に陽に表現されているため,その層の名前を\TT{primary-tier}で指定する.また,Praatではセグメント外の要素(休止区間)も含めてラベルが付与されているため,セグメント外要素であることを示すラベル値を\TT{skip-label}で指定する.最後に,Anvilファイルからあいづち反応先型リンクの表形式ファイルを生成するための設定を図\ref{fig:config1}(右)に示す.Anvilのリンクアノテーションは,あるトラックの要素(たとえばあいづち表現)からあるトラックの要素(たとえば単語)への参照を,参照先要素の内部idを用いて属性値として表現している.そこで,参照元・参照先トラックの名前をそれぞれ\TT{source-track},\TT{destination-track}に指定し,参照先を記述した属性の名前を\TT{link-attribute}で指定する\footnote{対話ではトラックは話者ごとに別個に記述されるため,実際のトラック名は\TT{A.rt}のようにチャネル名が前置(または後置)したものになる.このトラック名の形式は\TT{channel-name-type}と\TT{channel-name-delimiter}で指定する.}.\subsection{表形式ファイルからデータベースへの変換}\label{sec:Tools:DB}\ref{sec:Tools:table}で得られた表形式ファイルからデータベースを構築するには,まずオブジェクトごとにテーブルスキーマ(\TT{CREATETABLE}文)を定義しなければならない.これには,各テーブルの名前や,持っている属性の一覧およびそれらの型などが含まれる.この過程には,テーブルスキーマを簡易表現で定義した設定ファイルを利用する.汎用のツールによって,設定ファイルからテーブルスキーマを定義し,表形式ファイルからデータをインポートする.設定ファイル中では,(1)テーブルの名前,(2)インポートする表形式ファイルの名前(ワイルドカードで複数指定可能),(3)主キーの名前と型,(4)属性の名前と型(のリスト)などを指定する.属性の型としては,テキスト型(\TT{t})・整数型(\TT{i})・実数型(\TT{r})が利用できる.テーブルスキーマの定義は一般に以下の形式である.\begin{screen}\begin{verbatim}テーブル名=表形式ファイル一覧/主キーの名前:型/属性1の名前:型,属性2の名前:型,...\end{verbatim}\end{screen}たとえば,図\ref{fig:config1}(中央)の設定を用いて生成したアクセント句型セグメント用の表形式ファイルからデータベースのテーブルを生成するための設定は図\ref{fig:config2}の\TT{segAP}のようになる.同様に,図\ref{fig:config1}(右)の設定を用いて生成したあいづち反応先型リンク用の表形式ファイルからデータベースのテーブルを生成するための設定は図\ref{fig:config2}の\TT{linkRTTarget}のようになる.セグメント間の階層関係は,階層をなしうるセグメント型の名前を下位のものから順に並べて指定する.たとえば,図\ref{fig:Praat}の単語・アクセント句・イントネーション句間の階層関係を表現するには,図\ref{fig:config2}の\TT{groupProsodic}のように指定する.データベース構築ツールは,階層関係にあるセグメント対を自動的に導出し,テーブルを作成する.階層関係は隣接する型の間(relWord2APやrelAP2IP)だけでなく,離れた型の間(relWord2IP)でも導出される.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f8.eps}\end{center}\caption{表形式ファイルからデータベースを生成するための設定の例}\label{fig:config2}\end{figure}
\section{適用事例}
\label{sec:CaseStudies}『日本語話し言葉コーパス』と『千葉大学3人会話コーパス』を対象に,本稿で提案した手法によりデータベースを構築し運用している.本節ではその概要について紹介する.\subsection{『日本語話し言葉コーパス』}『日本語話し言葉コーパス』(CSJ)は,2004年に一般公開された661時間の日本語自発音声からなるデータベースである\cite{前川_2004_日本語}.このうち「コア」と呼ばれるデータ範囲(44時間)には,おもに表\ref{tab:csjAnno}に示す研究用付加情報が付与されており\cite{国語研_2006_日本語},これらを対象に本手法によりデータベースを構築した(以下CSJ-RDB)\cite{小磯_2012_日本語}\footnote{CSJでは,各種情報を統合して階層的に表現したXML文書が提供されている.しかし,この階層から逸脱する情報を無理やり特定の単位に埋め込んだり,別の階層で記述したXML文書が別途提供され,両者にまたがった検索が困難であったりして使いづらかった.本手法ではスタンドオフ形式でデータを表現するため,これらの問題は解消される.}.各研究用付加情報はそれぞれ,表\ref{tab:csjAnno}の「ツール」欄に示す書式(CSJ構築時(1999〜2003年)とは異なる)で記述されており,ここから各種中間ファイルを経てデータベースに変換した.CSJ-RDBの(非整列)セグメントとリンクを図\ref{fig:csjRdb}に示す.談話中の要素を記述したセグメントは,次の3種類の階層関係からなる系列に分類される.\begin{itemize}\item形態統語論系列:短単位$<$長単位$<$文節$<$節単位\item音声系列:分節音$<$音素$<$モーラ$<$短単位$<$間休止単位\item韻律系列:短単位$<$アクセント句$<$イントネーション句\end{itemize}このうち短単位と長単位については,時間的に分節化できる部分をセグメントで表し,時間的に分節化できない部分は非整列セグメントとして表している.韻律情報のうちアクセント核や句末音調などのトーン情報は,どのアクセント句に帰属するかがリンク(linkTone2AP)によって表される.また文節係り受け関係は,係り元と係り先の依存関係がリンク(linkDepBunsetsu)によって表される.\begin{table}[t]\caption{CSJの研究用付加情報}\label{tab:csjAnno}\input{ca01table02.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA1f9.eps}\end{center}\caption{CSJ-RDBの(非整列)セグメントとリンク}\label{fig:csjRdb}\end{figure}\subsection{『千葉大学3人会話コーパス』}『千葉大学3人会話コーパス』は,大学キャンパスにおける3人の友達同士の会話を集めた約6時間からなる対話コーパスである\cite{Den_2007_SAT}.このうち12会話約2時間のデータには,表\ref{tab:chibaAnno}に示す研究用付加情報が付与されており\cite{Den_2007_SAT,Den_2010_TAO,Den_2011_AOJ,Den_2012_AOR},これらを対象にデータベースを構築した(以下Chiba-RDB).各研究用付加情報はそれぞれ表\ref{tab:chibaAnno}の「ツール」欄に示す書式のアノテーションファイルで記述されており,ここから各種中間ファイルを経てデータベースに変換した.\begin{table}[b]\caption{『千葉大学3人会話コーパス』の研究用付加情報}\label{tab:chibaAnno}\input{ca01table03.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA1f10.eps}\end{center}\caption{Chiba-RDBの(非整列)セグメントとリンク}\label{fig:chibaRdb}\end{figure}Chiba-RDBの(非整列)セグメントとリンクを図\ref{fig:chibaRdb}に示す.セグメントは,次の4種類の階層関係からなる系列に分類される.\begin{itemize}\item形態統語語用論系列:短単位$<$文節$<$節$<$長い発話単位\item韻律系列:短単位$<$アクセント句$<$イントネーション句\item視線系列:視線フェーズ$<$視線句\item頭部動作系列:頭部動作フェーズ$<$頭部動作句\end{itemize}CSJ-RDBと異なる部分を中心に見る.まず,長い発話単位間の連接関係(話者交替)を表す話者移行関係がリンク(linkLUUTrans)によって表される.また長い発話単位のうち,あいづち表現については,あいづちが打たれるきっかけとなった表現(反応先)との関係がリンク(linkRTTarget)によって表される.頷きについても同様に,そのきっかけとなった表現(反応先)との関係がリンク(linkNodTarget)によって表される.
\section{議論}
\label{sec:Discussion}\subsection{関連研究}\label{sec:Discussion:RelatedResearch}本節では関連研究との違いについて述べる.\ref{sec:Introduction}節で述べたように,本研究は,既存のアノテーションツールやコーパス検索ツールを用いてコーパス利用環境を実現することに主眼があり,アノテーションツールやコーパス検索ツールの開発そのものを目的とするものではない.\citeA{Noguchi_2008_MPA}や\citeA{Kaplan_2010_APM}をはじめとする関連研究とは,この点がまず大きく異なる.さまざまなアノテーションを統合開発環境で行なうアプローチは魅力的ではあるが,マルチモーダルデータを含む話し言葉コーパスではその実現に多くの困難が伴い,本研究のアプローチのほうがより現実的な解を提示している.他のツールで作成されたアノテーションを統合し利用するという点では,\citeA{Matsumoto_2006_ACM}や\citeA{Calhoun_2010_NSC}がむしろ本研究に近い.\citeA{Matsumoto_2006_ACM}は,形態素解析・係り受け解析済みのテキストを読み込んで,コーパス検索・修正などをGUIで行なうための汎用的なツール『茶器』を開発している.もともと書き言葉を想定していたが,最近,話し言葉も扱えるよう拡張がなされている\cite{浅原_2013_コーパ}.しかし,『茶器』にインポートできるデータは決められた書式のものに限られており,\ref{sec:Tools}節で示したような柔軟性はない.また,扱える単位も単語・文節あたりに限られており,\ref{sec:CaseStudies}節で見た事例のような多岐にわたる単位を扱うことはできない.\citeA{Calhoun_2010_NSC}は,長年にわたってさまざまな研究機関でなされてきた,Switchboardコーパス\cite{Godfrey_1992_STS}に対するさまざまな種類のアノテーションを統合し,多層にわたる検索を可能にした.電話会話のためマルチモーダル情報は含まないが,音素から統語構造・韻律情報,さらには非流暢性・情報構造・共参照に至るまで,15種類以上ものアノテーションを含み,\ref{sec:CaseStudies}節で見た本研究の事例に十分匹敵する.彼らはさまざまな書式を持つ既存のアノテーションを変換してこの統合をなしているが,本研究のようにそのための汎用的なツールを開発したわけではない.\subsection{アノテーション管理について}本研究では,話し言葉コーパスの統合利用に焦点を当てて述べてきたが,アノテーション過程の管理もまたコーパスアノテーションの重要な課題である.\citeA{Kaplan_2010_APM}は,作業者管理,並行・分散アノテーション,バージョン管理,バージョンの併合といったマクロレベルの要件を考慮した統合開発環境を提案している.これに対して,本研究では,話し言葉で広く使われている既存のアノテーションツールを有効に利用することを最大の要件としてきた.そのため,統合開発環境に基づいて種々のツール群を開発するという方向性とは異なる立場に立ってきた.このことのデメリットについて検討する必要があろう.統合開発環境に基づくアノテーションツールを使わないことの最大のデメリットは,異なるツール間で共有される部分(たとえば『日本語話し言葉コーパス』の短単位)をあるアノテーションで修正したときに,その影響を他のアノテーションに簡単に波及できないという点である.統合開発環境に基づくツール群では,アノテーションデータ自身を共有しているため,このような波及は作業者が意識しなくても暗黙的になされる.しかし,個別のアノテーションツールを用いる本手法では,波及的な修正は自動的には行なえない.本手法においても,構築したデータベースから各種アノテーションを再生成することは可能であり,\ref{sec:CaseStudies}節で紹介した事例では,実際にそのようなツールを作成し運用している.このようなツールによって,あるアノテーションで生じた修正を別のアノテーションに波及すること自体は可能である.しかし,現状では,この種の波及的修正は,作業者が能動的に実行しない限り,行なえない.今後,アノテーションファイルへのアクセス方法などを工夫する(たとえば常にデータベースから再生成するなど)ことで,より効果的にアノテーション過程を管理する方策を考える必要がある.また,バージョン管理の問題についても,本研究では,汎用のバージョン管理システムSubversionを用いてアノテーションファイルを管理しているが,これで十分というわけではない.アノテーション過程の管理については,既存のアノテーションツールやバージョン管理システムを含むシステム全体の中で,よりよい手段を模索する必要があろう.\subsection{実用性について}\ref{sec:DB}節で述べたように,提案スキーマでは,語やアクセント句や節といった言語学的な概念とスキーマ内のオブジェクトとが直接対応しており,ユーザの了解度は高いと思われる.しかし,検索速度の面ではどうであろうか.この点を調べるために,コーパス言語学でよく用いられる,以下のような標準的なクエリに対する検索速度を計測した(付録\ref{sec:ex}参照).\begin{description}\item[クエリ1]イントネーション句の末尾のアクセント句の先頭のモーラの継続長を算出\item[クエリ2]イントネーション句の次末(末尾から2番目)のアクセント句の末尾のモーラの継続長を算出\item[クエリ3]文末形式を持つ節単位の先頭の文節の末尾の短単位が係助詞「は」であるものを抽出し,その短単位の継続長を算出\end{description}(1)セグメントとリンクに基づくスキーマのように抽象度の高い単一のセグメントを用いる場合と(2)本手法のように型ごとに個別化されたセグメントを用いる場合とで比較を行なった.なお,これ以外の条件を対等にするため,いずれも階層関係を陽に表現した.実験は,人文系研究者がよく用いている,SQLiteのGUIであるNavicatforSQLite(ver.~11.0.10)を用いてノートPC(SonyVPCZ22AJ,Corei7-2640M2.80~GHz)上で行ない,CSJ-RDBを検索対象とした.\begin{table}[t]\caption{検索速度の比較(5回の平均.単位は秒)}\label{tab:speed}\input{ca01table04.txt}\end{table}結果を表\ref{tab:speed}に示す.「個別」は総じて「単一」の倍程度の速さであり,個別化されたセグメントを用いることで検索速度も若干改善されることがわかる.この程度の違いがどれだけの意味を持つかはわからないが,少なくとも提案スキーマが実用性で劣るということはない.
\section{おわりに}
\label{sec:Conclusion}本研究では,(1)マルチチャネル・マルチモーダルの話し言葉コーパスを表現できる,汎用的なデータベーススキーマを設計し,(2)既存のアノテーションツールで作成された,種々の書式を持つアノテーションを入力とし,汎用的なデータベーススキーマから具現化されたデータベースを構築するツールを開発した.また,『日本語話し言葉コーパス』と『千葉大学3人会話コーパス』を対象に,本手法によりデータベースを構築した事例を紹介した.構築したデータベースは,コーパス言語学的な研究に有効に利用されている.今後の課題としてまず,使いやすいユーザインターフェースを備えた,本研究のスキーマに対応したコーパス検索ツールの開発が挙げられる.本研究では,SQL言語やそのGUIのような既存のツールを用いた検索を想定していた.実際,人文系研究者をおもな対象として,CSJ-RDBをSQL言語やGUIで検索する技法に関する講習会を何度か開いている.しかし,本スキーマに特化したより使いやすい検索ツールがあれば,利用者はますます広がると期待できる.さらに,本研究のデータベース構築ツールはLinux環境で実装されており,この点も人文系研究者が利用するうえで障害となるであろう.PraatやELANなどの既存のアノテーションツールを用いたコーパス開発は,むしろ人文系研究者の間で広く行なわれており,それらのアノテーションを統合利用する必要性もまた人文系研究者において高いかもしれない.今後,より身近な環境で使えるようなツールに変更していきたい.\acknowledgmentCSJ-RDBの構築に際し西川賢哉氏(理化学研究所)の協力を得た.記して感謝する.本研究は,科研費補助金基盤研究(B)「発話単位アノテーションに基づく対話の認知・伝達融合モデルの構築」(課題番号:23320081,研究代表者:伝康晴),国立国語研究所独創・発展型共同研究「多様な様式を網羅した会話コーパスの共有化」(リーダー:伝康晴),萌芽・発掘型共同研究「会話の韻律機能に関する実証的研究」(リーダー:小磯花絵)による成果である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA森田}{浅原\JBA森田}{2013}]{浅原_2013_コーパ}浅原正幸\JBA森田敏生\BBOP2013\BBCP.\newblockコーパスコンコーダンサ『{ChaKi.NET}』の連続値データ型.\newblock\Jem{第4回コーパス日本語学ワークショップ},pp.~249--256.\bibitem[\protect\BCAY{Bird,Day,Garofolo,Henderson,Laprun,\BBA\Liberman}{Birdet~al.}{2000}]{Bird_2000_FFF}Bird,S.,Day,D.,Garofolo,J.,Henderson,J.,Laprun,C.,\BBA\Liberman,M.\BBOP2000\BBCP.\newblock\BBOQ\mbox{ATLAS:}AFlexibleandExtensibleArchitectureforLinguisticAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation({LREC}2000)},\mbox{\BPGS\1699--1706}.Athens,Greece.\bibitem[\protect\BCAY{Bird\BBA\Liberman}{Bird\BBA\Liberman}{2001}]{Bird_2001_FFF}Bird,S.\BBACOMMA\\BBA\Liberman,M.\BBOP2001\BBCP.\newblock\BBOQAFormalFrameworkforLinguisticAnnotation.\BBCQ\\newblock{\BemSpeechCommunication},{\Bbf33},\mbox{\BPGS\23--60}.\bibitem[\protect\BCAY{Boersma\BBA\Weenink}{Boersma\BBA\Weenink}{2013}]{Boersma_2013_PDP}Boersma,P.\BBACOMMA\\BBA\Weenink,D.\BBOP2013\BBCP.\newblock\BBOQPraat:DoingPhoneticsbyComputer.\BBCQ\\newblockComputerProgram,Version5.3.56,retrieved15September2013from\url{http://www.praat.org/}.\bibitem[\protect\BCAY{Brugman\BBA\Russel}{Brugman\BBA\Russel}{2004}]{Brugman_2004_AMM}Brugman,H.\BBACOMMA\\BBA\Russel,A.\BBOP2004\BBCP.\newblock\BBOQAnnotatingMulti-media/Multi-modalResourceswith{ELAN}.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2004)},\mbox{\BPGS\2065--2068}.Lisbon,Portugal.\newblock\url{http://tla.mpi.nl/tools/tla-tools/elan/}.\bibitem[\protect\BCAY{Calhoun,Carletta,Brenier,Mayo,Jurafsky,Steedman,\BBA\Beaver}{Calhounet~al.}{2010}]{Calhoun_2010_NSC}Calhoun,S.,Carletta,J.,Brenier,J.,Mayo,N.,Jurafsky,D.,Steedman,M.,\BBA\Beaver,D.\BBOP2010\BBCP.\newblock\BBOQThe{NXT}-format{Switchboard}Corpus:ARichResourceforInvestigatingtheSyntax,Semantics,PragmaticsandProsodyofDialogue.\BBCQ\\newblock{\BemLanguageResourcesandEvaluationJournal},{\Bbf44},\mbox{\BPGS\387--419}.\bibitem[\protect\BCAY{Carletta}{Carletta}{2007}]{Carletta_2007_UTK}Carletta,J.\BBOP2007\BBCP.\newblock\BBOQUnleashingtheKillerCorpus:ExperiencesinCreatingtheMulti-everything{AMI}MeetingCorpus.\BBCQ\\newblock{\BemLanguageResourcesandEvaluationJournal},{\Bbf41},\mbox{\BPGS\181--190}.\bibitem[\protect\BCAY{Carletta,Evert,Heid,\BBA\Kilgour}{Carlettaet~al.}{2005}]{Carletta_2005_NXT}Carletta,J.,Evert,S.,Heid,U.,\BBA\Kilgour,J.\BBOP2005\BBCP.\newblock\BBOQThe{NITE}{XML}Toolkit:DataModelandQuery.\BBCQ\\newblock{\BemLanguageResourcesandEvaluationJournal},{\Bbf39},\mbox{\BPGS\313--334}.\bibitem[\protect\BCAY{Chen,Rose,Qiao,Kimbara,Parrill,Welji,Han,Tu,Huang,Harper,Quek,Xiong,McNeill,Tuttle,\BBA\Huang}{Chenet~al.}{2006}]{Chen_2006_VMM}Chen,L.,Rose,R.~T.,Qiao,Y.,Kimbara,I.,Parrill,F.,Welji,H.,Han,T.~X.,Tu,J.,Huang,Z.,Harper,M.,Quek,F.,Xiong,Y.,McNeill,D.,Tuttle,R.,\BBA\Huang,T.\BBOP2006\BBCP.\newblock\BBOQ{VACE}MultimodalMeetingCorpus.\BBCQ\\newblockInRenals,S.\BBACOMMA\\BBA\Bengio,S.\BEDS,{\BemMachineLearningforMultimodalInteraction},\lowercase{\BVOL}\3869of{\BemLectureNotesinComputerScience},\mbox{\BPGS\40--51}.Springer,Berlin/Heidelberg.\bibitem[\protect\BCAY{Den\BBA\Enomoto}{Den\BBA\Enomoto}{2007}]{Den_2007_SAT}Den,Y.\BBACOMMA\\BBA\Enomoto,M.\BBOP2007\BBCP.\newblock\BBOQAScientificApproachtoConversationalInformatics:Description,Analysis,andModelingofHumanConversation.\BBCQ\\newblockInNishida,T.\BED,{\BemConversationalInformatics:AnEngineeringApproach},\mbox{\BPGS\307--330}.JohnWiley\&Sons,Hoboken,NJ.\bibitem[\protect\BCAY{Den,Koiso,Maruyama,Maekawa,Takanashi,Enomoto,\BBA\Yoshida}{Denet~al.}{2010}]{Den_2010_TAO}Den,Y.,Koiso,H.,Maruyama,T.,Maekawa,K.,Takanashi,K.,Enomoto,M.,\BBA\Yoshida,N.\BBOP2010\BBCP.\newblock\BBOQTwo-levelAnnotationofUtterance-unitsin{Japanese}Dialogs:AnEmpiricallyEmergedScheme.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2010)},\mbox{\BPGS\1483--1486}.Valletta,Malta.\bibitem[\protect\BCAY{Den,Koiso,Takanashi,\BBA\Yoshida}{Denet~al.}{2012}]{Den_2012_AOR}Den,Y.,Koiso,H.,Takanashi,K.,\BBA\Yoshida,N.\BBOP2012\BBCP.\newblock\BBOQAnnotationofResponseTokensandtheirTriggeringExpressionsin{Japanese}Multi-partyConversations.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2012)},pp.~1332--1337.Istanbul,Turkey.\bibitem[\protect\BCAY{Den,Yoshida,Takanashi,\BBA\Koiso}{Denet~al.}{2011}]{Den_2011_AOJ}Den,Y.,Yoshida,N.,Takanashi,K.,\BBA\Koiso,H.\BBOP2011\BBCP.\newblock\BBOQAnnotationof{Japanese}ResponseTokensandPreliminaryAnalysisontheirDistributioninThree-partyConversations.\BBCQ\\newblockIn{\BemProceedingsofthe14thOriental{COCOSDA}({O--COCOSDA}2011)},\mbox{\BPGS\168--173}.Hsinchu,Taiwan.\bibitem[\protect\BCAY{Godfrey,Holliman,\BBA\McDaniel}{Godfreyet~al.}{1992}]{Godfrey_1992_STS}Godfrey,J.~J.,Holliman,E.~C.,\BBA\McDaniel,J.\BBOP1992\BBCP.\newblock\BBOQ{SWITCHBOARD}:TelephoneSpeechCorpusforResearchandDevelopment.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonAcoustics,Speech,andSignalProcessing(ICASSP-92)},\mbox{\BPGS\517--520}.SanFrancisco,CA.\bibitem[\protect\BCAY{細馬}{細馬}{2009}]{細馬_2009_ジェス}細馬宏通\BBOP2009\BBCP.\newblockジェスチャー単位.\newblock坊農真弓\JBA高梨克也\JEDS,\Jem{多人数インタラクションの分析手法},\mbox{\BPGS\119--137}.オーム社.\bibitem[\protect\BCAY{五十嵐\JBA菊池\JBA前川}{五十嵐\Jetal}{2006}]{五十嵐_2006_韻律情}五十嵐陽介\JBA菊池英明\JBA前川喜久雄\BBOP2006\BBCP.\newblock韻律情報.\newblock\Jem{国立国語研究所報告124:日本語話し言葉コーパスの構築法},\mbox{\BPGS\347--453}.\bibitem[\protect\BCAY{Kaplan,Iida,Nishina,\BBA\Tokunaga}{Kaplanet~al.}{2012}]{Kaplan_2012_STF}Kaplan,D.,Iida,R.,Nishina,K.,\BBA\Tokunaga,T.\BBOP2012\BBCP.\newblock\BBOQSlate---AToolforCreatingandMaintainingAnnotatedCorpora.\BBCQ\\newblock{\BemJournalforLanuageTechnologyandComputationalLinguistics},{\Bbf26}(2),\mbox{\BPGS\91--103}.\bibitem[\protect\BCAY{Kaplan,Iida,\BBA\Tokunaga}{Kaplanet~al.}{2010}]{Kaplan_2010_APM}Kaplan,D.,Iida,R.,\BBA\Tokunaga,T.\BBOP2010\BBCP.\newblock\BBOQAnnotationProcessManagementRevisited.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalLanguageResourcesandEvaluationConference({LREC}2010)},\mbox{\BPGS\3654--3661}.Valletta,Malta.\bibitem[\protect\BCAY{Kipp}{Kipp}{2001}]{Kipp_2001_AGA}Kipp,M.\BBOP2001\BBCP.\newblock\BBOQAnvil---AGenericAnnotationToolforMultimodalDialogue.\BBCQ\\newblockIn{\BemProceedingsofthe7thEuropeanConferenceonSpeechCommunicationandTechnology(Eurospeech2001)},\mbox{\BPGS\1367--1370}.Aalborg,Denmark.\newblock\url{http://www.anvil-software.org/}.\bibitem[\protect\BCAY{小磯\JBA伝\JBA前川}{小磯\Jetal}{2012}]{小磯_2012_日本語}小磯花絵\JBA伝康晴\JBA前川喜久雄\BBOP2012\BBCP.\newblock『日本語話し言葉コーパス』RDBの構築.\newblock\Jem{第1回コーパス日本語学ワークショップ},\mbox{\BPGS\393--400}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2006}]{国語研_2006_日本語}国立国語研究所\BBOP2006\BBCP.\newblock\Jem{国立国語研究所報告124:日本語話し言葉コーパスの構築法}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo_2002_JDA}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQ{Japanese}DependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonComputationalNaturalLanguageLearning({CoNLL-2002})},\mbox{\BPGS\63--69}.Taipei,Taiwan.\newblock\url{https://code.google.com/p/cabocha/}.\bibitem[\protect\BCAY{前川}{前川}{2004}]{前川_2004_日本語}前川喜久雄\BBOP2004\BBCP.\newblock『日本語話し言葉コーパス』の概要.\newblock\Jem{日本語科学},{\Bbf15},\mbox{\BPGS\111--133}.\bibitem[\protect\BCAY{Matsumoto,Asahara,Hashimoto,Tono,Ohtani,\BBA\Morita}{Matsumotoet~al.}{2006}]{Matsumoto_2006_ACM}Matsumoto,Y.,Asahara,M.,Hashimoto,K.,Tono,Y.,Ohtani,A.,\BBA\Morita,T.\BBOP2006\BBCP.\newblock\BBOQAnAnnotatedCorpusManagementTool:{ChaKi}.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation({LREC}2006)},\mbox{\BPGS\1418--1421}.Genoa,Italy.\bibitem[\protect\BCAY{M\"uller\BBA\Strube}{M\"uller\BBA\Strube}{2001}]{Muller_2001_MTF}M\"uller,C.\BBACOMMA\\BBA\Strube,M.\BBOP2001\BBCP.\newblock\BBOQ{MMAX}:AToolfortheAnnotationofMulti-modalCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe2ndIJCAIWorkshoponKnowledgeandReasoninginPracticalDialogueSystems},\mbox{\BPGS\45--50}.Seattle,WA.\bibitem[\protect\BCAY{M\"uller\BBA\Strube}{M\"uller\BBA\Strube}{2006}]{Muller_2006_MAO}M\"uller,C.\BBACOMMA\\BBA\Strube,M.\BBOP2006\BBCP.\newblock\BBOQMulti-levelAnnotationofLinguisticDatawith{MMAX2}.\BBCQ\\newblockInBraun,S.,Kohn,K.,\BBA\Mukherjee,J.\BEDS,{\BemCorpusTechnologyandLanguagePedagogy:NewResources,NewTools,NewMethods},\mbox{\BPGS\197--214}.PeterLang,FrankfurtamMain,Germany.\bibitem[\protect\BCAY{Noguchi,Miyoshi,Tokunaga,Iida,Komachi,\BBA\Inui}{Noguchiet~al.}{2008}]{Noguchi_2008_MPA}Noguchi,M.,Miyoshi,K.,Tokunaga,T.,Iida,R.,Komachi,M.,\BBA\Inui,K.\BBOP2008\BBCP.\newblock``MultiplePurposeAnnotationusing{SLAT}---SegmentandLink-basedAnnotationTool---.''\newblockIn{\BemProceedingsofthe2ndLinguisticAnnotationWorkshop},\mbox{\BPGS\61--64}.Marrakech,Morocco.\bibitem[\protect\BCAY{角\JBA矢野\JBA西田}{角\Jetal}{2011}]{角_2011_マルチ}角康之\JBA矢野正治\JBA西田豊明\BBOP2011\BBCP.\newblockマルチモーダルデータに基づいた多人数会話の構造理解.\newblock\Jem{社会言語科学},{\Bbf14}(1),\mbox{\BPGS\82--96}.\bibitem[\protect\BCAY{{TjongKimSang}\BBA\Veenstra}{{TjongKimSang}\BBA\Veenstra}{1999}]{TjongKimSang_1999_RTC}{TjongKimSang},E.~F.\BBACOMMA\\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL'99)},\mbox{\BPGS\173--179}.Bergen,Norway.\bibitem[\protect\BCAY{Waibel\BBA\Stiefelhagen}{Waibel\BBA\Stiefelhagen}{2009}]{Waibel_2009_CIT}Waibel,A.\BBACOMMA\\BBA\Stiefelhagen,R.\BBOP2009\BBCP.\newblock{\BemComputersintheHumanInteractionLoop}.\newblockSpringer,Berlin/Heidelberg.\end{thebibliography}\appendix
\section{隣接語対を抽出するクエリ}
\label{sec:bigram}同一節(segClause)内で隣接する単語(segWord)の対を抽出するクエリ.階層関係テーブル(relWord2Clause)を用いない場合は,サブクエリを用いた煩雑なクエリとなる.\begin{query}--階層関係を用いない場合SELECTW1.idAScurrent,W2.idASnextFROMsegClauseASCINNERJOINsegWordASW1ONW1.docID=C.docIDANDW1.channel=C.channelANDW1.start>=C.startANDW1.start<C.endINNERJOINsegWordASW2ONW2.docID=W1.docIDANDW2.channel=W1.channelWHEREW2.start=(SELECTMIN(W3.start)FROMsegWordASW3WHEREW3.docID=W1.docIDANDW3.channel=W1.channelANDW3.start>W1.startANDW3.start<C.end);\end{query}\begin{query}--階層関係を用いた場合SELECTW1.idAScurrent,W2.idASnextFROMsegWordASW1INNERJOINrelWord2ClauseASR1ONR1.descendant=W1.idINNERJOINrelWord2ClauseASR2ONR2.ancestor=R1.ancestorINNERJOINsegWordASW2ONW2.id=R2.descendantWHERER2.nth=R1.nth+1;\end{query}
\section{実用性評価で用いたクエリ}
\label{sec:ex}\paragraph{クエリ1:}イントネーション句の末尾のアクセント句の先頭のモーラの継続長を算出\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--抽象度の高い単一のセグメントを用いた場合SELECTI.id,MATTR.valueASMoraEntity,M.end-M.startASDurationFROMsegASIINNERJOINrelASAIONAI.ancestor=I.idINNERJOINsegASAONA.id=AI.descendantINNERJOINrelASMAONMA.ancestor=A.idINNERJOINsegASMONM.id=MA.descendantINNERJOINattrASMATTRONMATTR.ref=M.idWHEREAI.nth=AI.lenANDMA.nth=1ANDI.type="IP"ANDAI.type="AP2IP"ANDA.type="AP"ANDMA.type="Mora2AP"ANDM.type="Mora"ANDMATTR.name="MoraEntity";\end{verbatim}\end{screen}\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--型ごとに個別化されたセグメントを用いた場合SELECTI.id,M.MoraEntity,M.end-M.startASDurationFROMsegIPASIINNERJOINrelAP2IPASAIONAI.ancestor=I.idINNERJOINsegAPASAONA.id=AI.descendantINNERJOINrelMora2APASMAONMA.ancestor=A.idINNERJOINsegMoraASMONM.id=MA.descendantWHEREAI.nth=AI.lenANDMA.nth=1;\end{verbatim}\end{screen}\vspace{.5\baselineskip}\paragraph{クエリ2:}イントネーション句の次末のアクセント句の末尾のモーラの継続長を算出\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--抽象度の高い単一のセグメントを用いた場合SELECTI.id,MATTR.valueASMoraEntity,M.end-M.startASDurationFROMsegASIINNERJOINrelASAIONAI.ancestor=I.idINNERJOINsegASAONA.id=AI.descendantINNERJOINrelASMAONMA.ancestor=A.idINNERJOINsegASMONM.id=MA.descendantINNERJOINattrASMATTRONMATTR.ref=M.idWHEREAI.nth=AI.len-1ANDMA.nth=MA.lenANDI.type="IP"ANDAI.type="AP2IP"ANDA.type="AP"ANDMA.type="Mora2AP"ANDM.type="Mora"ANDMATTR.name="MoraEntity";\end{verbatim}\end{screen}\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--型ごとに個別化されたセグメントを用いた場合SELECTI.id,M.MoraEntity,M.end-M.startASDurationFROMsegIPASIINNERJOINrelAP2IPASAIONAI.ancestor=I.idINNERJOINsegAPASAONA.id=AI.descendantINNERJOINrelMora2APASMAONMA.ancestor=A.idINNERJOINsegMoraASMONM.id=MA.descendantWHEREAI.nth=AI.len-1ANDMA.nth=MA.len;\end{verbatim}\end{screen}\vspace{.5\baselineskip}\clearpage\paragraph{クエリ3:}文末形式を持つ節単位の先頭の文節の末尾の短単位が係助詞「は」であるものを抽出し,その短単位の継続長を算出\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--抽象度の高い単一のセグメントを用いた場合SELECTC.id,S.end-S.startASDurationFROMsegASCINNERJOINrelASBCONBC.ancestor=C.idINNERJOINsegASBONB.id=BC.descendantINNERJOINrelASSBONSB.ancestor=B.idINNERJOINsegASSONS.id=SB.descendantINNERJOINrelASSMSONSMS.ancestor=S.idINNERJOINusegASSMONSM.id=SMS.descendantINNERJOINattrASCATTRONCATTR.ref=C.idINNERJOINattrASSMATTR1ONSMATTR1.ref=SM.idINNERJOINattrASSMATTR2ONSMATTR2.ref=SM.idWHEREBC.nth=1ANDSB.nth=SB.lenANDSMS.nth=SMS.lenANDC.type="Clause"ANDBC.type="Bunsetsu2Clause"ANDB.type="Bunsetsu"ANDSB.type="SUW2Bunsetsu"ANDS.type="SUW"ANDSMS.type="SUWMorph2SUW"ANDSM.type="SUWMorph"ANDCATTR.name="ClauseBoundaryLabel"ANDCATTR.valueLIKE"[ANDSMATTR1.name="SUWLemma"ANDSMATTR1.value="は"ANDSMATTR2.name="SUWMiscPOSInfo1"ANDSMATTR2.value="係助詞";\end{verbatim}\end{screen}\begin{screen}\small\renewcommand\baselinestretch{0.8}\begin{verbatim}--型ごとに個別化されたセグメントを用いた場合SELECTC.id,S.end-S.startASDurationFROMsegClauseASCINNERJOINrelBunsetsu2ClauseASBCONBC.ancestor=C.idINNERJOINsegBunsetsuASBONB.id=BC.descendantINNERJOINrelSUW2BunsetsuASSBONSB.ancestor=B.idINNERJOINsegSUWASSONS.id=SB.descendantINNERJOINrelSUWMorph2SUWASSMSONSMS.ancestor=S.idINNERJOINusegSUWMorphASSMONSM.id=SMS.descendantWHEREBC.nth=1ANDSB.nth=SB.lenANDSMS.nth=SMS.lenANDC.ClauseBoundaryLabelLIKE"[ANDSM.SUWLemma="は"ANDSM.SUWMiscPOSInfo1="係助詞";\end{verbatim}\end{screen}\begin{biography}\bioauthor{伝康晴}{1993年京都大学大学院工学研究科博士後期課程研究指導認定退学.博士(工学).ATR音声翻訳通信研究所研究員,奈良先端科学技術大学院大学情報科学研究科助教授,千葉大学文学部助教授・准教授を経て,現在,千葉大学文学部教授.国立国語研究所客員教授.専門はコーパス言語学・心理言語学・計算言語学.とくに日常的な会話の分析・モデル化.社会言語科学会・日本認知科学会・人工知能学会・日本心理学会・日本認知心理学会各会員.}\bioauthor{小磯花絵}{1998年10月奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(理学).ATR知能映像通信研究所研修研究員,国立国語研究所研究員を経て,現在,人間文化研究機構国立国語研究所准教授.専門は談話分析・コーパス言語学・音声科学.言語処理学会・社会言語科学会・日本認知科学会・日本音声学会・人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V14N01-04
|
\section{はじめに}
キーワード抽出は情報検索に不可欠な技術の一つであり,現在,多様なキーワード抽出法が提案されている.その手法では,辞書を用いて形態素解析を行う方法\cite{Nakagawa1997}が一般的であるが,辞書を全く用いない方法\cite{TakedaAndUmemura2001}もある.辞書を用いて形態素解析を行う方法は,辞書に登録されていない語(未知語)の処理を考えなければならない.これは,未知語の存在がキーワード抽出の性能に悪い影響を与えるからである.したがって,日々増え続ける新しい未知語に対して,対処法を講じる必要がある.一方,辞書を一切用いずに,コーパスにおける文字列の統計量を元にキーワードを獲得する手法がある.文献\cite{TakedaAndUmemura2001}では,adaptation(反復度)を用いたキーワード抽出法を提案している.この手法では,文書数に上限があるとき複合語が分割されて抽出され,長いキーワードとして抽出できないという問題がある.この原因について我々は,文書中での文字列の反復出現が少ないことにより,反復度をうまく推定できていないと分析した.つまり,反復度は文書数をたくさん必要とする指標である.そこで本論文では,類似する文書への出現を考えた.情報検索における検索質問拡張では,新しい索引語を検索質問に付け加えることで検索質問の不足を補う.我々はこの手法を,コーパスの文書を拡張することに応用して,長い文字列の反復出現をうまく捕らえることができないかと考えた.ここで,文書拡張したコーパスを拡張文書集合と呼ぶことにする.本論文では,反復度を用いたキーワード抽出システムを利用する.そしてこのシステムにおいて,従来法と拡張文書集合を使用する提案法との比較実験を行う.結果として,文書拡張によるキーワード抽出法は,長いキーワードの反復出現をうまく捕らえるということを確かめる.また,これまでに取れなかった分野に特化したキーワード及びフレーズ的キーワードが抽出できるという新たな性質を報告する.結論として,キーワード抽出における文書拡張の有用性を報告する.本論文では,はじめに2節でキーワードの定義を行う.次に3節で反復度を用いたキーワード抽出法と文書拡張によるキーワード抽出法について,その手法及び手順と,文書拡張の妥当性について述べる.4節では従来法と提案法において反復度の振る舞いを調査する.そして5節で実際にキーワード抽出を行い,従来法と比較及び考察する.6節で先行研究と比較する.最後に7節で本論文の調査をまとめ,結論とする.
\section{キーワードの定義}
はじめにキーワードの定義について考える.キーワードの定義はその用途によって様々である.例えば情報検索分野を考えると,索引語をキーワードと見なせる.ここで,索引語は文書の内容をよく表す要素であり,語を索引語として用いることが多い\cite{Tokunaga1999}.また,キーワード抽出における論文に例を見てみると,キーワードは「文書中に出現し,著者が自分の主張を伝える上で重要であると考える語\cite{Mori2005}」と定義している.つまり,文書は著者が何かを伝えるために書いている以上,キーワードとしては著者の主張の上で重要な語を取り出すべきであるという考えである.研究者の情報をキーワードとして自動的に抽出する手法を提案する論文\cite{Matumura2002a}では,研究者の活動を表すために重要な語,例えば,所属組織,研究テーマ,共著者,プロジェクト名をキーワードと定義している.そして最後に,語の活性度に基づくキーワード抽出法を提案する論文\cite{Matumura2002b}では,文書を読んだ後に読者の記憶に強い印象を残す語をキーワードとしている.すなわち,強く活性化される語を著者の主張を表すキーワードと定義している.このように,キーワードの定義は様々である.ここでキーワードの単位について着目すると,多くの場合で語を単位としている.しかし,英語と違って日本語には,語を区切る空白というものが存在しないため,語の厳密な定義を与えることは困難である.ここで語とは,自然言語において一つの意味のまとまりをなし,文法上一つの機能をもつ最小の言語単位である\cite{Iwanami1995}.さらに,文を構成する際の働きを基準とした場合,日本語の語は自立語と付属語に大別される.自立語はそれだけで意味がわかる語で,付属語は自立語に接続して意味をつけくわえたりする語である.しかし,このような区別はあるが付属語を語と認めない考え方もある.また,どのような基準で複合語を1語としてみなすかも明確ではない.このように語の定義もさまざまである.このように多くのキーワードの定義,語の定義がある中で,文書中で繰り返し出現する確率(反復度)もキーワードを定義するものの一つである.反復度は自立語と付属語の境界を特定する特徴量として語彙分類の実験からその有用性が明らかにされている\cite{Church2000}.そして,この反復度を用いたキーワード抽出結果は,情報検索用途で実証もされている\cite{TakedaAndUmemura2004}.このようなことからも多くのキーワードらしさの中でも,主題を抽出するために利用できるものの一つである.
\section{キーワード抽出}
キーワード抽出とは,前節で説明したようなキーワードを,語の統計情報や文書の構文上の特徴をもとに自然言語で書かれた文書中から自動抽出する技術である.3.1節ではまず,従来法である反復度を用いたキーワード抽出法について述べる.3.2節では文書拡張によるキーワード抽出法を提案し,その妥当性を述べる.\subsection{反復度を用いたキーワード抽出法}\subsubsection{3.1.1反復度の定義}多くの語は文書に繰り返し出現する傾向にあり,その度合いを示す特徴量は語の意味に関わる値であるということが報告されている\cite{Church2000}.文献\cite{TakedaAndUmemura2001}では,キーワードらしさを測る上での反復度の有用性とキーワード抽出への応用が報告されている.{\bf定義3.1反復度}ここでの全事象は文書の出現とする.語を$w$,文書が語$w$を(1回以上)含む事象を$e_1(w)$,文書が語$w$を2回以上含む事象を$e_2(w)$とすると,反復度は次のように定義される.\[adaptation(w)=p(e_2(w)|e_1(w))=\frac{p(e_2(w)\wedgee_1(w))}{p(e_1(w))}=\frac{p(e_2(w))}{p(e_1(w))}\]反復度は,ある文書に単語$w$が1回以上含まれていることを条件とした時にある文書に単語$w$が2回以上含まれる条件付き確率である.語が文書に出現する確率と語が文書に2回以上出現する確率は,コーパス全体で考えると文書頻度を用いて推定することができる.コーパス全体である語$w$を含む文書の数を$df(w)$,2回以上含む文書の数を$df_2(w)$とすると,反復度は次のように推定することができる.\[adaptation(w)=\frac{p(e_2(w))}{p(e_1(w))}\approx\frac{df_2(w)}{df(w)}\]文献\cite{TakedaAndUmemura2001}では,キーワードに対して反復度がある範囲の値に集中していて,出現確率よりも高い値を持つという特徴があることが報告されている.さらに,キーワードらしさの単位境界を特定するための特徴量としても有用であると報告されている.そして,これらの反復度の分析結果から,単位の特定とキーワードの特定をし,キーワード抽出を行うシステムが実現されている.\subsubsection{3.1.2反復度によるキーワード抽出の手順}この手順は文献\cite{TakedaAndUmemura2001}の方法であるが,提案する手法でも同じ手順を使う.はじめにキーワード抽出の元となる文字列をなるべくキーワードらしい文字列になるように分割する.この単位分割のために用いるキーワードらしさは反復度を用いて次のように定義する.~\[Score_{adaptaion}(x_i)=\cases{-\infty&$\cdots\qquaddf_2<3$\cr\log0.5&$\cdots\quaddf_2\geq3,df/N>0.5$\cr\logdf_2(x_i)/df(x_i)&$\cdots\quaddf_2\geq3,df/N\leq0.5$\cr}\]~反復度はサンプル数が少数の場合($df_2<3$の領域),不安定になる.これに対処するためにスコアを$-\infty$として単純に切り捨て処理を行っている.また,高頻度の文字列($df_2\geq3,df/N>0.5$の領域)に対して反復度は語の種類の分別性を失うため,スコアを$\log0.5$に押さえることによって,キーワードらしいと特定されるのを避けている.このスコアを使用して,キーワード抽出元の文字列におけるすべての分割によってできるすべての部分文字列に対してスコアを計算する.そして,ビタビアルゴリズムを用いて,文字列全体におけるスコアが最大となる分割を求める.これは長さ$n$の文字列に対して$O(n^2)$の計算量のアルゴリズムである.\[viterbi\_adaptation=MAXARG_X\left(\sum_{X=\{x_1,x_2,\cdots,x_n\}}Score_{adaptation}(x_i)\right)\]次にキーワードか否か判定を行い,キーワードらしくないものを除去する.$l$を文字列の長さとし,キーワードと判定する条件を次のように定義する.\[keyword=\left\{x|0.00005<\frac{df(x_i)}{N}<0.1,1<l\right\}\]\subsection{文書拡張によるキーワード抽出法}\subsubsection{3.2.1文書拡張の妥当性}反復度を用いたキーワード抽出には,複合語が一般的なキーワードに分割され,情報検索に役立つ専門的な長いキーワードが抽出できないという問題がある.我々はこの主な原因として,文字列の反復出現が少なく,反復度をうまく推定できていないと分析した.本研究では長いキーワードの反復出現を捕らえる方法として,単一文書ではなく,類似する複数の文書への出現を考慮した.語の出現確率は,単一の文書に比べて,複数の文書のほうが高いからである.また,言及する内容によって語の出現が左右されるのならば,似たような文書では,語の出現も似通っているのではないかということを仮定している.したがって本論文では,単一文書を複数文書で拡張した拡張文書集合において,キーワード抽出を行うことを提案する.すなわち,文書をそのまま利用するのではなくて,前処理をしたのち文献\cite{TakedaAndUmemura2001}に提案される反復度を用いたキーワード抽出システムと同じ処理を行う.\subsubsection{3.2.2拡張文書集合の作成}拡張文書集合を作成するために,既存の情報検索システムを使用した.その情報検索システムは,検索質問の文字列をbigramに分割し,そのスコアの合計からコーパス内の類似する文書を検索するものである.ここで,bigramとは文字列の先頭から1文字ずつ移動しながら得た2文字の集合とする.例えば,文字列が「いろはに」であったなら,bigramは「いろ,ろは,はに」とする.スコアについては,情報検索によく使われるtfidf法をもとにし,それを文書の長さ($Document\quadLength$)のルートで割って文書長で正規化したものを使用する.次にその式を示す.\clearpage\[score=\frac{tf\cdotidf}{\sqrt{Document\quadLength}}\]\begin{itemize}\item$tf$:文書中の単語の頻度(termfrequency)\item$idf$:単語の出現する文書数が少ないことを重要と考える指標(inversedocumentfrequency)\item$Document\quadLength$:文書の長さ(文字数)\end{itemize}このような情報検索システムを用いて類似する文書を検索する.ここで類似する文書を元文書に結合する文書数を{\bf拡張数}と定義する.例えば,拡張数が2であれば,類似文書を2文書使って元文書を拡張する.この拡張数に応じて拡張文書集合を作成する.その手順を図~\ref{fig:mk-ex-corpus}に示す.\begin{figure}[t]\begin{center}\includegraphics[width=14cm]{mk-ex-corpus.eps}\end{center}\caption{拡張文書集合の作成}\label{fig:mk-ex-corpus}\vspace{-2\baselineskip}\end{figure}\subsubsection{3.2.3文書拡張によるキーワード抽出の手順}3.2.2節で述べたように,コーパスを文書拡張して拡張文書集合を作成する.この拡張文書集合において,反復度を用いてキーワード抽出を行う.つまり,従来法において,反復度を計算するコーパスを拡張文書集合に置き換えてキーワード抽出を行う.
\section{文書拡張による反復度と出現確率のヒストグラム}
文書拡張による反復度と出現確率の変化について分析する.この調査はキーワードの反復度と出現確率をヒストグラムにすることで,その変化を視覚化することが目的である.調査に使用するコーパスとしてNTCIR-1Jコレクション\cite{Kando2001}を用いた.このコーパスは,情報検索問題における性能評価を主眼としたテストコレクションである.その内容は,学会発表データベースの一部で日本語論文抄録である.そして,それぞれの文書には,その文書の著者が付けたキーワードが付属している.全文書数は332,921件で,一文書は100〜400文字程度である.その構造を図~\ref{fig:corpus}に示す.\begin{figure}[t]\centering\begin{screen}\begin{verbatim}<REC><ACCN>gakkai-0000000001</ACCN><TITL>電気回路演習用CAIとその改良</TITL><ABST>大学等での基礎的な電気回路演習を支援するCAIソフトウェアとその改良について述べている.CAIはコンピュータが出題される回路を学習者各人のレベルに応じて自動的に作成すること,解答を数式で入力することが大きな特長である.また,誤った解答に対しては,原因の検討を容易にするメッセージが・・・の改良を行った.</ABST><KYWD>電気回路//演習</KYWD></REC>\end{verbatim}\end{screen}\caption{NTCIRコーパスの構造(一文書)}\label{fig:corpus}\vspace{20pt}\begin{center}\includegraphics[width=12cm]{ex-df2df.eps}\end{center}\caption{著者キーワードの反復度ヒストグラム}\label{fig:ex-df2df}\end{figure}このコーパスの先頭から500件の文書に付属する著者キーワードについて,従来法と文書拡張による手法で反復度と出現確率を調査した.その際,従来法はそのままのコーパス,文書拡張による手法は拡張数5の拡張文書集合を使用し,それらの先頭から50000件を反復度の推定コーパスとして用いた.図~\ref{fig:ex-df2df}に反復度ヒストグラム,図~\ref{fig:ex-dfn}に出現確率ヒストグラムを示す.このヒストグラムの縦軸はキーワード数,横軸は図~\ref{fig:ex-df2df}が$df_2/df$,図~\ref{fig:ex-dfn}が$df/N$である.ただし,出現確率ヒストグラムについては,グラフの見易さの面から縦軸がキーワード数+1を対数で表示する.500件に付属するキーワード総数は729個である.\begin{figure}[t]\begin{center}\includegraphics[width=12cm]{ex-dfn-plus1.eps}\end{center}\caption{著者キーワードの出現確率ヒストグラム}\label{fig:ex-dfn}\end{figure}図~\ref{fig:ex-df2df}のグラフから,文書拡張により反復度が高い値を持つことがわかる.また,図~\ref{fig:ex-dfn}のグラフにおいても文書拡張により出現確率が高い値を持つことがわかる.出現確率については,文書拡張という手法を考えると高くなることが容易に想像できる.これをさらに著者キーワードごとに調査した結果,文書拡張による手法では,著者キーワードの82\%において反復度($df_2/df$)が,すべての著者キーワードにおいて出現確率が,従来法以上の値を示した.これは,従来法において文書中でキーワードの反復出現が少なかったが,文書数に上限があるとき文書拡張により反復出現が多くなることから,文書拡張がキーワード判定に有用であることが示唆される.拡張文書における反復度も元文書における反復度と同様な情報を含み,値がより増幅されていると推定できる.
\section{キーワード抽出実験}
従来法のキーワード抽出と文書拡張によるキーワード抽出結果の比較実験を行う.実験に使用するコーパスは4節で使用したNTCIR1-Jコレクションを用いる.\subsection{著者キーワード再現率の比較と考察}著者が付与した論文のキーワードを正解として判定した再現率を{\bf著者キーワード再現率}と呼ぶことにする.これは,著者の付与したキーワードが,システムが出力したもののなかに含まれる確率の推定値である.従来法と文書拡張による手法で著者キーワード再現率の比較を行った.この調査では,コーパスそのままのoriginal,コーパスの各文書を単純に半分の文字数でカットしたコーパスhalf,各拡張数(1文書に結合する文書数)の拡張文書集合expansion\_1〜5,これらの先頭から5万件を反復度の推定コーパスとして,著者キーワード再現率を調査した.キーワード抽出元の文書は1万件を単位にして,ランダムに選んだ5つに対してキーワード抽出を行った.その結果を図~\ref{fig:re-uniq}に示す.ここで,originalは従来法のNTCIRのコーパス,halfはoriginalの文書長を半分にしたコーパス,expansion1〜5は拡張数1〜5の拡張文書集合をそれぞれ表す.\begin{figure}[b]\begin{center}\includegraphics[width=12cm]{re-uniq.eps}\end{center}\caption{著者キーワード再現率}\label{fig:re-uniq}\end{figure}図~\ref{fig:re-uniq}の結果から,文書拡張して拡張数が増えると再現率が上昇することがわかる.従来法においては長い文字列の反復度の推定がうまく働いていないという問題があった.しかし,文書拡張により反復度の推定がうまく働き,再現率が改善された.特に従来法では,$df_2(w)<3$となる低頻度の文字列に対して,文書を特徴付けるキーワードではないと判断していた.$df_2(w)<3$となる文字列は非常に多く,それが反復度の推定に影響を与えていたのである.4節で述べたように,文書拡張により著者キーワードの$df_2(w)$値は大きくなり,反復度をうまく推定できるようになった.その結果,再現率が上昇した.\begin{figure}[p]\begin{center}\includegraphics[width=12cm]{re-doc-org.eps}\end{center}\caption{originalの文献数に対する再現率}\label{fig:re-doc-org}\vspace{1\baselineskip}\begin{center}\includegraphics[width=12cm]{re-doc-ex2.eps}\end{center}\caption{expansion\_2の文献数に対する再現率}\label{fig:re-doc-ex2}\end{figure}次に,反復度を推定するコーパスの文献数に対する著者キーワード再現率をoriginalとexpansion\_2に限って図~\ref{fig:re-doc-org},\ref{fig:re-doc-ex2}にそれぞれ示す.設定や入力などは今までと同一である.図~\ref{fig:re-doc-org}と図~\ref{fig:re-doc-ex2}のグラフから,文書拡張にかかわりなく文献数が増えると再現率が大きくなることがわかる.\subsection{キーワード抽出結果の比較と考察}キーワードの抽出結果について従来法と文書拡張による手法でどのような変化があるか調査を行った.それぞれの抽出結果を表~\ref{tab:out-key}に示す.ここで,角括弧に囲まれた文字列がキーワードとして抽出された文字列である.調査における反復度の推定コーパスは,4節の反復度と出現確率のヒストグラムの調査と同じ設定である.\begin{table}[b]\caption[extraction]{キーワード抽出結果}\begin{center}\begin{tabular}{|l|}\hline従来法のキーワード抽出結果\\\hline[クラウン][ガラス][マイクロレンズ]を[炭酸ガスレーザーの][照射]により加工し,\\その光学的特性を結像法により評価すると[炭酸ガスレーザーの][照射]条件に依存し\\て樽型の[歪曲][収差]と系巻型の[歪曲][収差]が表れることが判明した.\\\hline文書拡張によるキーワード抽出結果\\\hline[クラウンガラスマイクロレンズ]を[炭酸ガスレーザーの照射]により加工し,[その光]\\学的特性を[結像法により]評価すると[炭酸ガスレーザーの照射]条件に依存して[樽\\型の歪曲収差][と系巻型]の[歪曲収差]が表れることが判明した.\\\hline\end{tabular}\label{tab:out-key}\end{center}\end{table}表~\ref{tab:out-key}からわかるように,従来法では[クラウン][ガラス][マイクロレンズ]のように分割されて抽出されていたキーワードが,文書拡張による手法では分割されずに[クラウンガラスマイクロレンズ]として抽出されている.これは文書拡張により,従来法より複合語がうまく抽出できるようになったということを示す.さらに,従来法では抽出されていなかった[結像法により]というキーワードが文書拡張による手法では抽出された.しかし,[により]という助詞的な文字も一緒に抽出された.これは文書拡張により,[結像法]というキーワードが文章中で[により]という助詞的文字と一緒に使われる頻度が多くなり[により]までを含めてキーワードとして判定されてしまうためである.また,文書拡張による手法では[炭酸ガスレーザーの照射]や[樽型の歪曲収差]のように従来法ではほとんど見られなかったフレーズ的なキーワードが抽出できた.このように抽出される理由も助詞がついて抽出されてしまう理由と同様である.フレーズ的なキーワードの是非は,応用によって異なる.しかし,フレーズ的キーワードが重宝される用途は確実にある.例えば,フレーズ的キーワードの方が人間には直感的でその内容を理解しやすいものとする.また,文書要約においてフレーズ的キーワード単位で要約を考えることもできる.これらの用途において,反復度が有益な尺度になる.そして,複合語とフレーズ的キーワードは,その分野に特化したキーワードと考えることもでき,文書の重要語を抽出できているという見方をできる結果の一つといえる.\subsection{精度比較と考察}文書拡張により精度にどのような変化があるか調査を行った.従来法と文書拡張による手法のキーワード抽出結果の両方から,ランダムに500個のキーワードを選び出し,正しく抽出されているか調査した.従来法はそのままのコーパス,文書拡張による手法は拡張数2で作成した拡張文書集合expansion\_2を使用し,それらの先頭から10000件を反復度の推定コーパスとして用いた.キーワードの正解判定は人間が行い,キーワードの判定基準は,語を単位として意味のわかる自立語および自立語のみで構成された語とした.調査は,キーワード境界で厳密に正解と判断する場合と助詞や読点を含んでいても正解と判断する場合の2通りで行った.これらの正解不正解の判定例を表~\ref{tab:keyword-judge}に示す.キーワード抽出システムの各種閾値の設定は従来法と文書拡張による手法のそれぞれで良い結果を与える値に設定し,精度を調査した結果を表~\ref{tab:precision}に示す.\begin{table}[b]\centering\caption{キーワード正解不正解判定例}\begin{tabular}{l|c|c}正解判定&正解&不正解\\\hline(a)判定&形態素解析&形態素解析を\\&意味&意味する\\&システム&システムの構築\\&特長&その特長\\&過冷却液体窒素&過冷却液体窒素の\\\hline(b)判定&形態素解析&形態素解析を行\\&意味を&意味を知る\\&システムは,&システムは,始めに\\&の設計&システムの設計\\&辞書として&辞書として使う\\&,ギャップと&,ギャップと考え\\\end{tabular}\begin{tabular}{cl}※&(a):キーワード境界を厳密に判断\\&(b):助詞や読点を含んでもキーワードと判断\\\end{tabular}\label{tab:keyword-judge}\end{table}\begin{table}[t]\centering\caption{精度比較}\begin{tabular}{l|cc}手法&(a)精度&(b)精度\\\hline従来法&69.0&76.6\\文書拡張手法&69.4&83.6\\\end{tabular}\\\begin{tabular}{cl}※&(a):キーワード境界を厳密に判断\\&(b):助詞や読点を含んでもキーワードと判断\\\end{tabular}\label{tab:precision}\end{table}表~\ref{tab:precision}の結果から,従来法と文書拡張による手法との間には精度の違いがあまりないことがわかる.ただし,助詞や読点を含んでいる場合も正解と判断した場合は7%の精度改善が得られた.これは文書拡張によりキーワードに助詞や読点が付属しやすくなっているということを考慮して正解判定を行ったために,精度が改善した.\subsection{著者キーワード精度の比較と考察}著者が付与した論文のキーワードを正解として判定した精度を{\bf著者キーワード精度}と呼ぶことにする.これは,システムが出力したキーワードが著者の付与したキーワードに含まれる確率の推定値である.5.1節と同様に,従来法と文書拡張による著者キーワード精度の比較を行った.調査は5.1節と同様な設定で行った.ただし,文書拡張による手法において,助詞や読点が付属して抽出される傾向がある.これは従来法においても同様な傾向が少なからずある.しかし,本論文は助詞や読点が付属しないように閾値を設定及び対処法を講じることが目的ではないので,著者キーワードの前後に助詞や読点,および,記号(括弧など)が付属しても正解と判定するものとした.その結果を図~\ref{fig:pre-overlap}に示す.ここで,orginalは従来法のNTCIRのコーパス,halfはorginalの文書長を半分にしたコーパス,expansion1〜5は拡張数1〜5で作成した拡張文書集合を表す.\begin{figure}[t]\begin{center}\includegraphics[width=12cm]{pre-overlap.eps}\end{center}\caption{著者キーワード精度}\label{fig:pre-overlap}\end{figure}図~\ref{fig:pre-overlap}の結果から,文書拡張して拡張数が増えると著者キーワード精度がやや低下することがわかる.これは,5.2節で述べたように,従来法では文書拡張による手法に比べて多くの複合語が分割され,分割されたキーワードそれぞれが著者キーワードの正解数を増加するためである.例えば,従来法では[クラウンガラスマイクロレンズ]が分割され[クラウン][ガラス][マイクロレンズ]のように抽出される.このとき,[ガラス],[マイクロレンズ],[クラウンガラスマイクロレンズ]が著者キーワードに含まれており,分割されると正解数が増えることになる.その結果,拡張数が増えると著者キーワード精度が少し低下する.しかし,複合語を正確に抽出するという観点では[クラウンガラスマイクロレンズ]として抽出できる方が望ましい上に,分野をよく表していて人間が直感的にわかるキーワードとして考えれば,文書拡張の有用性の一つと言える.精度が低下するもう1つの理由としては,5.2節で述べたように,文書拡張による手法では,フレーズ的キーワードが抽出される.これは複数の概念を含むキーワードである.複数の概念を含むことについての是非は粒度決定の問題なので,ここでは一概に言えない.これを正解判定できていない.しかし,複数の概念を含むキーワードが取れたほうが有用な応用もある.次に,反復度を推定するコーパスの文献数に対する著者キーワード精度をoriginalとexpansion\_2に限って図~\ref{fig:pre-doc-org},\ref{fig:pre-doc-ex2}にそれぞれ示す.実験条件は今までと同一とする.結果より,文献数が少ないとき若干精度が低い傾向があるが,拡張数によらず精度は一定であるということがわかる.\begin{figure}[p]\begin{center}\includegraphics[width=12cm]{pre-doc-org.eps}\end{center}\caption{originalの文献数に対する精度}\label{fig:pre-doc-org}\vspace{\baselineskip}\begin{center}\includegraphics[width=12cm]{pre-doc-ex2.eps}\end{center}\caption{expansion\_2の文献数に対する精度}\label{fig:pre-doc-ex2}\end{figure}\subsection{著者キーワードF値の比較}5.1と5.4節の著者キーワードの再現率と精度の結果より,F値を計算した.F値は再現率と精度の二つを統合的に考える尺度として使用するものである.図~\ref{fig:re-uniq}と図~\ref{fig:pre-overlap}の結果より計算した著者キーワードのF値を図~\ref{fig:f-ex}示す.図~\ref{fig:re-doc-org}と図~\ref{fig:pre-doc-org}の結果より計算したoriginalの文献数に対するF値を図~\ref{fig:f-doc-org}に示す.図~\ref{fig:re-doc-ex2}と図~\ref{fig:pre-doc-ex2}の結果より計算した文献数に対するF値を図~\ref{fig:f-doc-ex2}に示す.\begin{figure}[p]\begin{center}\includegraphics[width=12cm]{f-ex.eps}\end{center}\caption{著者キーワードのF値}\label{fig:f-ex}\vspace{\baselineskip}\begin{center}\includegraphics[width=12cm]{f-doc-org.eps}\end{center}\caption{originalの文献数に対するF値}\label{fig:f-doc-org}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=12cm]{f-doc-ex2.eps}\end{center}\caption{expansion\_2の文献数に対するF値}\label{fig:f-doc-ex2}\end{figure}図~\ref{fig:f-ex}の結果から,文書拡張すると著者キーワードのF値も大きくなり,その後一定となることがわかる.図~\ref{fig:f-doc-org},~\ref{fig:f-doc-ex2}の結果からは,文献数が増えるとoriginalもexpansion\_2もF値が大きくなることがわかる.これらの結果から,定量的に性能が向上することが示せた.
\section{先行研究との比較}
先行研究\cite{Church2000}でも,文書拡張を行った場合での反復度について述べられているが,ここでは,分析する文書の数が限られているという条件の設定はなされておらず,拡張文書における反復度は,文書の反復度よりも値が低いことが報告されている.本論文では,実際の応用の局面で想定される文書数の不足に注目した.その場合には,Churchの報告と異なり,拡張文書における反復度のほうが,通常の反復度よりも高い値となり,積極的に利用できて有用であることを報告したことが異なる.本論文において用いた著者キーワードは,文書の著者が付与したその文書の特徴を表すキーワードである.この著者キーワードには一般的なキーワードも含まれるが,専門用語とされるキーワードも多く含まれている.専門用語は名詞(単名詞と複合名詞)であることが多く,その多くは複合語である.このことから,複合語の分割を改善したことにより専門用語を多く抽出できるようになったと考えることもできる.専門用語抽出の先行研究として,出現頻度と連接頻度に基づく専門用語抽出\cite{Nakagawa2003}がある.この先行研究では専門用語抽出のために形態素解析を行う必要があるのに対し,本論文で用いたキーワード抽出法はコーパスのみで良いところが異なる.キーワードのスコア付けの違いについては先行研究が単語の出現頻度と連接統計情報を利用するのに対し,本論文ではある条件を満たす文書の出現の統計量を用いる.両手法とも抽出に利用する統計量が多くなるほど再現率が上昇するが,先行研究は統計量が多くなるほど精度が低下する問題がある.この点で考えると本論文が提案する手法は,精度がほぼ一定になるので安定していると言える.この先行研究\cite{Nakagawa2003}に関連した専門用語(キーワード)自動抽出用Perlモジュール“TermExtract”がWebページ(http://www.r.dl.itc.u-tokyo.ac.jp/~nakagawa/resource-index.html/)上で公開されている.このTermExtractは,形態素解析した結果を入力とし,キーワード候補をランキング順に出力する.このモジュールを使い,実際に我々と同じ入力を与え,著者キーワードからなる同じ正解集合を用いて性能の比較を行った.TermExtractの抽出にかかわる設定はデフォルトのままを用いた.また,TermExtractではキーワード候補ランキングの何位までをキーワードとして重要とするか,つまりキーワードとするかでその性能が左右される.そこで正解集合が入力1万件に対して著者キーワード数約1万3千個となるので,入力1万件に対するキーワード候補約8万個のうちランキング上位1万3千個を出力とした.入力はランダムに1万件単位で与えた.その結果を表~\ref{tab:research}に示す.\begin{table}[t]\centering\caption{先行研究との比較}\begin{tabular}{l|l|c|c|c|c}\raisebox{-1.8ex}[0pt][0pt]{指標}&\raisebox{-1.8ex}[0pt][0pt]{InputDocument}&\multicolumn{2}{c|}{文書拡張システム[\%]}&\multicolumn{2}{c}{先行研究システム[\%]}\\\cline{3-6}&&\multicolumn{1}{c|}{評価値}&\multicolumn{1}{|c|}{平均}&\multicolumn{1}{c|}{評価値}&\multicolumn{1}{|c}{平均}\\\hline&doc\_50001-60000&28.79&&23.51&\\&doc\_70001-80000&12.88&&26.68&\\recall&doc\_100001-110000&18.76&19.12&21.48&23.23\\&doc\_150001-160000&19.82&&20.69&\\&doc\_180001-190000&15.34&&23.80\\\hline&doc\_50001-60000&42.43&&27.26&\\&doc\_70001-80000&48.08&&26.49&\\precision&doc\_100001-110000&45.86&45.54&28.62&28.39\\&doc\_150001-160000&42.89&&28.79&\\&doc\_180001-190000&48.46&&30.77&\\\hline&doc\_50001-60000&34.31&&25.25&\\&doc\_70001-80000&20.31&&26.59&\\f-measure&doc\_100001-110000&26.62&26.33&24.54&25.46\\&doc\_150001-160000&27.11&&24.08&\\&doc\_180001-190000&23.31&&26.84&\\\end{tabular}\label{tab:research}\end{table}表~\ref{tab:research}の結果からわかるように,本文書拡張システムと専門用語抽出システムは,ほぼ近い性能だった.2つのシステムの動作原理がまったく異なるので性能の正確な比較は行えないが,この結果は本論文が提案する手法の効果を表す一つの目安として考えることができる.
\section{結論}
拡張文書における反復度を分析し,その上で,反復度を用いたキーワード抽出法において,コーパスを文書拡張する手法を提案した.5.1節より,提案法には,文書数に上限があるとき文書拡張して拡張数が増えると著者キーワード再現率も上昇するという効果があった.そのキーワード抽出結果を見ると5.2節より,これまで取れていなかった多くの複合語が分割されずに抽出できることがあった.そして,著者キーワードを含むフレーズ的キーワードのような分野に特化したキーワードを抽出できるという結果が得られた.また,5.3節においては従来法と同程度のキーワード抽出精度が得られており,5.4節では,拡張数が増えると著者キーワード精度が若干低下するという結果が得られた.結論として,キーワード抽出において文書拡張を行うことは,キーワード抽出再現率を上昇させる効果を持ち,長い複合語を抽出できるようになる効果がある.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた梅村研究室の方々に感謝いたします.データを心よく提供していただいた関係各社に深く感謝いたします.また有用なコメントを頂いた査読者の方々に敬意を表します.本研究は文部科学省21世紀COEプログラム「インテリジェントヒューマンセンシング」の援助により行われました.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Church}{Church}{2000}]{Church2000}Church,K.~W.\BBOP2000\BBCP.\newblock\BBOQEmpiricalEstimatesofAdaptation:ThechanceofTwoNoriegasiscloserto$p/2$than$p^2$\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING'00)},\mbox{\BPGS\173--179}.\bibitem[\protect\BCAY{長尾真}{長尾真}{1995}]{Iwanami1995}長尾真\JED\\BBOP1995\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\newblock岩波講座ソフトウェア科学.\bibitem[\protect\BCAY{Kando}{Kando}{2001}]{Kando2001}Kando,N.\BBOP2001\BBCP.\newblock\BBOQOverviewoftheSecondNTCIRWorkshop\BBCQ\\newblockIn{\BemProceedingsoftheSecond\mbox{NTCIR}WorkshoponResearchinChinese\&JapaneseTextRetrievalandTextSummarization},\mbox{\BPGS\35--44}.\bibitem[\protect\BCAY{松村\JBA大澤\JBA石塚}{松村\Jetal}{2002a}]{Matumura2002a}松村真宏\JBA大澤幸生\JBA石塚満\BBOP2002a\BBCP.\newblock\JBOQSmallWorld構造に基づく文書からのキーワード抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1825--1833}.\bibitem[\protect\BCAY{松村\JBA大澤\JBA石塚}{松村\Jetal}{2002b}]{Matumura2002b}松村真宏\JBA大澤幸生\JBA石塚満\BBOP2002b\BBCP.\newblock\JBOQ語の活性度に基づくキーワード抽出法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(4-F),\mbox{\BPGS\398--406}.\bibitem[\protect\BCAY{森\JBA松尾\JBA石塚}{森\Jetal}{2005}]{Mori2005}森純一郎\JBA松尾豊\JBA石塚満\BBOP2005\BBCP.\newblock\JBOQWebからの人物に関するキーワード抽出\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf20}(5-C),\mbox{\BPGS\337--345}.\bibitem[\protect\BCAY{中川\JBA森\JBA松崎\JBA川上}{中川\Jetal}{1997}]{Nakagawa1997}中川裕志\JBA森辰則\JBA松崎知美\JBA川上大介\BBOP1997\BBCP.\newblock\JBOQ日本語マニュアル文における名詞間の連接情報を用いたハイパーテキスト化のための索引の抽出\JBCQ\\newblock\Jem{情報処理学会},{\Bbf38}(10),\mbox{\BPGS\1986--1994}.\bibitem[\protect\BCAY{中川裕志\JBA森辰則\JBA湯本紘彰}{中川裕志\Jetal}{2003}]{Nakagawa2003}中川裕志\JBA森辰則\JBA湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\bibitem[\protect\BCAY{武田\JBA梅村}{武田\JBA梅村}{2001}]{TakedaAndUmemura2001}武田善行\JBA梅村恭司\BBOP2001\BBCP.\newblock\JBOQキーワード抽出を実現する文書頻度分析\JBCQ\\newblock\Jem{計量国語学会},{\Bbf23}(2),\mbox{\BPGS\65--90}.\bibitem[\protect\BCAY{Takeda\BBA\Umemura}{Takeda\BBA\Umemura}{2004}]{TakedaAndUmemura2004}Takeda,Y.\BBACOMMA\\BBA\Umemura,K.\BBOP2004\BBCP.\newblock\BBOQSelectingindexingstringsusingadaptation\BBCQ\\newblockIn{\BemThe25thinternationalACMSIGIRconferenceonresearchanddevelopmentininformationretrieval},\mbox{\BPGS\42--43}.\bibitem[\protect\BCAY{徳永健伸}{徳永健伸}{1999}]{Tokunaga1999}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\newblock辻井潤一.\end{thebibliography}\begin{biography}\bioauthor{長町健太}{2005年豊橋技術科学大学工学部情報工学課程卒業.同年,同大学院入学,現在に至る.}\bioauthor{武田善行}{2000年豊橋技術科学大学工学部情報工学課程卒業.2002年同大学大学院工学研究科情報工学専攻修士課程修了.2005年同大学大学院工学研究科電子・情報工学専攻博士課程修了.同年,同大学工学部情報工学系教務職員.同年,東京大学大学院工学系研究科附属総合研究機構助手,現在に至る.情報処理学会会員.}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究系情報工学専攻修士課程終了.博士(工学).同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,2003年教授,2005年インテリジェントセンシングシステムリサーチセンター兼務.現在に至る.システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V07N04-08
|
\section{はじめに}
\label{sec:introduction}日本語は語順が自由であると言われている.しかし,これまでの言語学的な調査によると実際には,時間を表す副詞の方が主語より前に来やすい,長い修飾句を持つ文節は前に来やすいといった何らかの傾向がある.もしこの傾向をうまく整理することができれば,それは文を解析あるいは生成する際に有効な情報となる.本論文では語順とは,係り相互間の語順,つまり同じ文節に係っていく文節の順序関係を意味するものとする.語順を決定する要因にはさまざまなものがある.それらの要因は語順を支配する基本的条件として文献\cite{Saeki:98}にまとめられており,それを我々の定義する語順について解釈しなおすと次のようになる.\begin{itemize}\item成分的条件\begin{itemize}\item深く係っていく文節は浅く係っていく文節より前に来やすい.深く係っていく文節とは係り文節と受け文節の距離が長い文節のことを言う.例えば,係り文節と受け文節の呼応を見ると,基本的語順は,感動詞などを含む文節,時間を表す副詞を含む文節,主語を含む文節,目的語を含む文節の順になり,このとき,時間を表す副詞を含む文節は主語を含む文節より深く係っていく文節であると言う.このように係り文節と受け文節の距離を表す概念を係りの深さという.\item広く係っていく文節は狭く係っていく文節より前に来やすい.広く係っていく文節とは受け文節を厳しく限定しない文節のことである.例えば,「東京へ」のような文節は「行く」のように何らかの移動を表す動詞が受け文節に来ることが多いが,「私が」のような文節は受け文節をそれほど限定しない.このとき,「私が」は「東京へ」より広く係っていく文節であると言う.このように係り文節がどの程度受け文節を限定するかという概念を係りの広さと言う.\end{itemize}\item構文的条件\begin{itemize}\item長い文節は短い文節より前に来やすい.長い文節とは修飾句の長い文節のことを言う.\item文脈指示語を含む文節は前に来やすい.\item承前反復語を含む文節は前に来やすい.承前反復語とは前文の語を承けて使われている語のことを言う.例えば,「あるところにおじいさんとおばあさんがおりました.おじいさんは山へ柴刈におばあさんは川へ洗濯に行きました.」という文では,2文目の「おじいさん」や「おばあさん」が承前反復語である.\item提題助詞「は」を伴う文節は前に来やすい.\end{itemize}\end{itemize}以上のような要素と語順の関係を整理する試みの一つとして,特に係りの広さに着目し,辞書の情報を用いて語順を推定するモデルが提案された\cite{Tokunaga91b}.しかし,動詞の格要素の語順に限定しており必須格しか扱えない,文脈情報が扱えないなどの問題点が指摘されている\cite{Saeki:98}.語順を推定するモデルとしては他にN-gramモデルを用いたもの\cite{Maruyama:94}があるが,これは一文内の形態素の並びを推定するモデルであり,我々とは問題設定が異なる.また,上に箇条書きとしてあげたような要素は特に考慮していない.英語については,語順を名詞の修飾語の順序関係に限定し統計的に推定するモデルが提案された\cite{Shaw:99}が,語順を決定する要因として多くの要素を同時に考慮することはできないため,日本語の語順に対して適用するのは難しい.本論文では,上に箇条書きとしてあげたような要素と語順の傾向との関係をコーパスから学習する手法を提案する.この手法では,語順の決定にはどの要素がどの程度寄与するかだけでなく,どのような要素の組み合わせのときにどのような傾向の語順になるかということもコーパスから自動学習することができる.個々の要素の寄与の度合は最大エントロピー(ME)モデルを用いて効率良く学習する.学習されたモデルの性能は,そのモデルを用いて語順を決めるテストを行ない,元の文における語順とどの程度一致するかを調べることによって定量的に評価することができる.正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスを既存の解析システムで解析した結果を用いてもよい.後節の実験で示すように,既存の解析システムの精度が90\%程度であったとしても学習コーパスとして十分に役割を果たすのである.
\section{語順の学習と生成}
\label{sec:learning_and_generation}\subsection{学習モデル}\label{sec:model}この節ではどの語順が妥当であるかを確率として計算するためのモデルについて述べる.モデルとしては,MEに基づく確率モデルを採用する.まず,MEの基本について説明し,その後,MEに基づく確率モデルについて述べる.\subsubsection{ME(最大エントロピー)モデル}\label{sec:me_model}一般に確率モデルでは,文脈(観測される情報のこと)とそのときに得られる出力値との関係は既知のデータから推定される確率分布によって表される.いろいろな状況に対してできるだけ正確に出力値を予測するためには文脈を細かく定義する必要があるが,細かくしすぎると既知のデータにおいてそれぞれの文脈に対応する事例の数が少なくなりデータスパースネスの問題が生じる.MEモデルでは,文脈は素性と呼ばれる個々の要素によって表され,確率分布は素性を引数とした関数として表される.そして,各々の素性はトレーニングデータにおける確率分布のエントロピーが最大になるように重み付けされる.このエントロピーを最大にするという操作によって,既知データに観測されなかったような素性あるいはまれにしか観測されなかった素性については,それぞれの出力値に対して確率値が等確率になるようにあるいは近付くように重み付けされる.このように未知のデータに対して考慮した重み付けがなされるため,MEモデルは比較的データスパースネスに強いとされている.このモデルは例えば言語現象などのように既知データにすべての現象が現れ得ないような現象を扱うのに適したモデルであると言える.以上のような性質を持つMEモデルでは,確率分布の式は以下のように求められる.文脈の集合を$B$,出力値の集合を$A$とするとき,文脈$b(\in$$B)$で出力値$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$をMEにより推定することを考える.文脈$b$は$k$個の素性$f_j(1\leqj\leqk)$の集合で表す.そして,文脈$b$において,素性$f_j$が観測されかつ出力値が$a$となるときに1を返す以下のような関数を定義する.\begin{eqnarray}\label{eq:f}g_{j}(a,b)&=&\left\{\begin{array}[c]{l}1,\{\rmif}\exist(b,f_{j})=1\\&\出力値=a\\0,\それ以外\end{array}\right.\end{eqnarray}これを素性関数と呼ぶ.ここで,$exist(b,f_j)$は,文脈$b$において素性$f_j$が観測されるか否かによって1あるいは0の値を返す関数とする.次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a,b)$による素性$f_j$の期待値と,既知データにおける経験確率分布$\tilde{p}(a,b)$による素性$f_j$の期待値が等しいと仮定する.これは以下の制約式で表せる.\begin{eqnarray}\label{eq:constraint0}\sum_{a\inA,b\inB}p(a,b)g_{j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\qfor\p\forallf_{j}\(1\leqj\leqk)\end{eqnarray}この式で,$p(a,b)=p(b)p(a|b)\approx\tilde{p}(b)p(a|b)$という近似を行ない以下の式を得る.\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)g_{j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\qfor\p\forallf_{j}\(1\leqj\leqk)\end{eqnarray}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$の出現頻度,出力値$a$と事象$b$の共起頻度として以下のように推定する.\begin{eqnarray}\tilde{p}(b)&=&\frac{freq(b)}{\displaystyle\sum_{b\inB}freq(b)}\\\tilde{p}(a,b)&=&\frac{freq(a,b)}{\displaystyle\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray}次に,式(\ref{eq:constraint})の制約を満たす確率分布$p(a,b)$のうち,エントロピー\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)\log\left(p(a,b)\right)\end{eqnarray}を最大にする確率分布を推定するべき確率分布とする.これは,式(\ref{eq:constraint})の制約を満たす確率分布のうちで最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{*}$として記述される.\begin{eqnarray}\label{eq:p}p^{*}(a|b)&=&\frac{\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}{\sum_{a\inA}\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}\q(0\leq\alpha_{a,j}\leq\infty)\end{eqnarray}ただし,\begin{eqnarray}\label{eq:alpha}\alpha_{a,j}&=&e^{\lambda_{a,j}}\end{eqnarray}であり,$\lambda_{a,j}$は素性関数$g_{j}(a,b)$の重みである.この重みは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,$\lambda_{a,j}$の推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}などが用いられる.式(\ref{eq:p})の導出については文献\cite{Jaynes:57,Jaynes:79}を参照されたい.\subsubsection{語順モデル}\label{sec:word_order_model}本節では語順を学習するためのMEモデルについて述べる.ここで語順は,ある一つの文節に対しそれに係る文節(係り文節)が複数あるとき,その係り文節の順序を語順と定義する.係り文節の数はさまざまであるが,係り文節の数によらず二つずつ取り上げてその順序を学習するモデルを提案する\footnote{係り文節のうち二つずつではなく,三つあるいはそれ以上ずつ取り上げてその順序を学習するモデルを考えることもできる.しかし,データスパースネスの問題を考え,本論文では二つずつとりあげて順序を学習するモデルとした.}.これを語順モデルと呼ぶ.このモデルは前節のMEモデルにおける式(\ref{eq:p})を用いて以下のように求められる.ある文脈$b$において文節$B$に係る文節が二つあるときそれぞれを文節$B_1$と文節$B_2$とすると,$B_1$の次に$B_2$という順序が適切である確率$p^{*}(1|b)$は,出力値$a$を二つの文節の順序が適切であるか否かの1,0の二値とし,$k$個の素性$f_j(1\leqj\leqk)$を考えるとき次の式で表される.\begin{eqnarray}\label{eq:p1}p^{*}(1|b)&=&\frac{\prod_{j=1}^{k}\alpha_{1,j}^{g_{j}(1,b)}}{\prod_{j=1}^{k}\alpha_{1,j}^{g_{j}(1,b)}+\prod_{j=1}^{k}\alpha_{0,j}^{g_{j}(0,b)}}\end{eqnarray}この式の$\alpha_{1,j}$,$\alpha_{0,j}$の値を学習するためのデータとしては,形態素解析,構文解析済みのコーパスを用いる.一般に係り文節が二つ以上あるときは次のようにする.ある文脈$b$において文節$B$に係る文節が文節$B_1$,文節$B_2$,$\ldots$,文節$B_n$$(n\geq2)$の$n$個あるとき,その順序が適切である確率を$P(1|b)$とすると,この確率は係り文節を二つずつ取り上げたときそれぞれの順序が適切である確率,つまり,$P(\{W_{i,i+j}=1|1\leqi\leqn-1,1\leqj\leqn-i\}|b)$で表される.ここで,$W_{i,i+j}=1$は文節$i$と文節$(i+j)$の順序がこの順で適切であることを表す.このとき,$W_{i,i+j}$はそれぞれ独立であると仮定すると,$P(1|b)$は次の式で表される.\clearpage\begin{eqnarray}\label{eq:p2}P(1|b)&=&P(\{W_{i,i+j}=1|1\leqi\leqn-1,1\leqj\leqn-i\}|b)\nonumber\\&\approx&\prod_{i=1}^{n-1}\prod_{j=1}^{n-i}P(W_{i,i+j}=1|b_{i,i+j})\nonumber\\&=&\prod_{i=1}^{n-1}\prod_{j=1}^{n-i}p^{*}(1|b_{i,i+j})\end{eqnarray}ここで,$b_{i,i+j}$は文節$B$とそれに係る文節$B_i$,文節$B_{i+j}$に着目したときの文脈を表す.例えば,コーパスに「昨日/太郎は/テニスを/した.」(/は文節の区切りを表す.)という文があった場合を考える.動詞「した」に係る文節は「昨日」,「太郎は」,「テニスを」の三つである.語順モデルでは,このうち二文節ずつ,つまり「昨日」と「太郎は」,「昨日」と「テニスを」,「太郎は」と「テニスを」の三つのペアを取り上げ,それぞれこの語順が適切であると仮定して学習する.素性としては文節の持つ属性などを考える.例えば,「昨日/太郎は/した.」という関係からは「時相名詞」の方が「固有名詞」より前に来るという情報,「太郎は/テニスを/した.」という関係からは「は」格の方が「を」格より前に来るという情報などを用いる.\subsection{語順の生成}\label{sec:generation}本節では学習した語順モデルを用いて語順を生成するアルゴリズムについて説明する.語順の生成とは,ある文節に対し複数の係り文節があるものについて,その係り文節の順序を決めることを言う.入力は係り受け関係にある文節および素性の有無を判定するのに必要な情報であり,出力は係り文節の並びである.ただし,各文節を構成する語の語彙選択はすでになされており,文節間の係り受け関係は決まっていると仮定する.素性の有無を判定するのに必要な情報とは,形態素情報,文節区切り情報,統語情報,文脈情報などである.実際に実験で用いた情報については\ref{sec:exp}~章で述べる.語順の生成は次の手順で行なう.\underline{手順}\begin{enumerate}\item係り文節について可能性のある並びをすべて考える.\itemそれぞれの並びについて,その係り文節の順序が適切である確率を語順モデルを用いて求める.\item全体の確率が最大となる並びを解とする.全体の確率としては式(\ref{eq:p2})を用いる.\end{enumerate}例えば,再び「昨日/太郎は/テニスを/した.」という文を考えよう.動詞「した」に係る文節は「昨日」,「太郎は」,「テニスを」の三つである.この三つの係り文節の順序を以下の手順で決定する.\begin{enumerate}\item二文節ずつ,つまり「昨日」と「太郎は」,「昨日」と「テニスを」,「太郎は」と「テニスを」の三つのペアを取り上げ,語順モデルの式(\ref{eq:p1})を用いてそれぞれこの語順が適切である確率$P_{昨日,太郎は}$,$P_{昨日,テニスを}$,$P_{太郎は,テニスを}$を求める.例えば,ある文脈においてそれぞれ0.6,0.8,0.7であったと仮定する.\item六つの語順の可能性すべてについて全体の確率を計算し(表~\ref{table:example})\footnote{式(\ref{eq:p2})を導出する際,二つの係り文節,文節$i$と文節$(i+j)$の順序$W_{i,i+j}$はそれぞれ独立であると仮定したため,式(\ref{eq:p2})は近似式となっている.したがって,式(\ref{eq:p2})により計算される確率の総和は必ずしも1にはならない.さらに,ここで例としてあげた確率$P_{昨日,太郎は}=0.6$,$P_{昨日,テニスを}=0.8$,$P_{太郎は,テニスを}=0.7$は適当に与えたものであるため,表~\ref{table:example}の六つの語順の可能性すべてについて全体の確率を計算し,その総和をとっても1にはならない.},最も確率の高いもの「昨日/太郎は/テニスを/した.」が最も適切な語順であるとする.\end{enumerate}\begin{table*}[htbp]\begin{center}\caption{係り文節の順序が適切である確率の計算例}\label{table:example}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|p{6.5cm}|}\hline「昨日/太郎は/テニスを/した.」&$P_{昨日,太郎は}\timesP_{昨日,テニスを}\timesP_{太郎は,テニスを}$$=0.6\times0.8\times0.7=0.336$\\「昨日/テニスを/太郎は/した.」&$P_{昨日,太郎は}\timesP_{昨日,テニスを}\timesP_{テニスを,太郎は}$$=0.6\times0.8\times0.3=0.144$\\「太郎は/昨日/テニスを/した.」&$P_{太郎は,昨日}\timesP_{昨日,テニスを}\timesP_{太郎は,テニスを}$$=0.4\times0.8\times0.7=0.224$\\「太郎は/テニスを/昨日/した.」&$P_{太郎は,昨日}\timesP_{テニスを,昨日}\timesP_{太郎は,テニスを}$$=0.4\times0.2\times0.7=0.056$\\「テニスを/昨日/太郎は/した.」&$P_{昨日,太郎は}\timesP_{テニスを,昨日}\timesP_{テニスを,太郎は}$$=0.6\times0.2\times0.3=0.036$\\「テニスを/太郎は/昨日/した.」&$P_{太郎は,昨日}\timesP_{テニスを,昨日}\timesP_{テニスを,太郎は}$$=0.4\times0.2\times0.3=0.024$\\\hline\end{tabular}\end{center}\end{table*}\subsection{性能評価}\label{sec:evaluation}本節では語順モデルの性能つまりコーパスにおける語順をどの程度学習できたかを評価する方法について述べる.性能の評価は,コーパスから係り受け関係にある文節で複数の係り文節を持つものを取り出し,これを入力として\ref{sec:generation}節で述べた方法で語順を生成し,どの程度元の文における語順と一致するかを調べることによって行なう.この一致する割合を一致率と呼ぶことにする.このように元の文とどの程度一致するかを評価の尺度として用いることによって,客観的な評価が可能となる.また,一致率によって評価しておけば,学習したモデルがどの程度学習コーパスにおける語順に近いものを生成できるかを知った上でそのモデルを使うことができる.一致率の尺度としては以下の二種類のものを用いる.\begin{description}\item[二文節単位]二つずつ係り文節を取りあげたとき,順序関係が元の文と一致しているものの割合.例えば,「昨日/太郎は/テニスを/した.」が元の文で,システムによる生成結果が「昨日/テニスを/太郎は/した.」のとき二つずつ係り文節を取り上げると,元の文ではそれぞれ「昨日/太郎は」,「昨日/テニスを」,「太郎は/テニスを」の順序,システムの結果ではそれぞれ「昨日/テニスを」,「昨日/太郎は」,「テニスを/太郎は」の順序となる.三つのうち二つの順序が等しいので一致率は$2/3$となる.\item[完全一致]係り文節の順序が元の文と一致しているものの割合.普通の意味での一致の割合である.\end{description}
\section{実験と考察}
\label{sec:exp}この章では,語順生成の実験をいろいろな角度から分析する.実験には,京大コーパス(Version2)\cite{kurohashi:nlp97}を用いた.学習には1月1日から8日までと1月10日から6月9日までの17,562文を,試験には1月9日と6月10日から6月30日までの2,394文を用いた.\subsection{実験データにおける語順の定義}\label{sec:exp_data}ある一つの文節に対しそれに係る文節(係り文節)が複数あるとき,その係り文節の順序を語順と定義した.我々が用いた実験データでは,各文節は係り先(受け文節)の情報を一つだけ持つ.そして,ある文節$B_{m}$とその受け文節$B_{d}$との間に$B_{d}$と並列の関係にある文節$B_{p}$がある場合,$B_{p}$にはその受け文節が$B_{d}$であるという情報とともに並列を表すラベル(P)が付与されている.これは,文節$B_{m}$が$B_{p}$と$B_{d}$の両方に係り得ることを間接的に示している.このような場合は文節$B_{m}$が$B_{p}$と$B_{d}$の両方に係るとする.以上の条件の下では,ある文節$B$の係り文節は以下の手順で同定できる.\begin{enumerate}\item$B$を受け文節とする文節は$B$の係り文節とする.\item$B$にラベルが付与されているとき,$B$よりも文頭に近い位置にあり$B$と同じ受け文節を持つ文節は$B$の係り文節とする.\item$B$の係り文節の係り文節うちラベルが付与された文節は$B$の係り文節とする.手順(3)を再帰的に繰り返す.\end{enumerate}以上の手順で,並列の関係にある文節はすべて同じ文節に係るものとして同定される.例えば,表~\ref{table:kakari_bunsetsu}の左欄のようなデータからはそれぞれの文節に対し,同表の右欄のような係り文節が得られる.ここで例えば,「出て,」と「優勝した」が並列の関係にあることから,「優勝した.」の係り文節である「花子は」は「出て,」にも係る文節として同定されている.また,「太郎と」と「花子は」が並列の関係にあることから,「太郎と」は「花子は」と同じ受け文節に係る文節として同定されている.\begin{table*}[htbp]\begin{center}\caption{実験データから同定される係り文節の例}\label{table:kakari_bunsetsu}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|c|c|c|l||l|}\hline\multicolumn{4}{|c||}{実験データ}&左欄の各文節を受け文節とする係り文節\\\hline文節&係り先の&ラベル&文字列&係り文節(文節番号)\\番号&文節番号&&&\\\hline0&1&P&太郎と&\\1&5&&花子は&太郎と(0)\\2&3&&テニスの&\\3&4&&試合に&テニスの(2)\\4&5&P&出て,&太郎と(0)花子は(1)試合に(3)\\5&&&優勝した.&太郎と(0)花子は(1)出て(4)\\\hline\end{tabular}\end{center}\end{table*}\subsection{実験結果}\label{sec:exp_result}まず,語順の学習および生成の実験に用いた素性を表~\ref{table:feature1},表~\ref{table:feature2}に示す.表~\ref{table:feature1}にあげた素性は素性名と素性値から成り,文節が持ち得る属性の情報,統語情報,文脈情報を表している.これらを基本素性と呼ぶ.一方,表~\ref{table:feature2}にあげた素性は基本素性の組み合わせである.これらの素性は文献\cite{Saeki:98}の「語順を支配する基本条件」をできるだけ反映するように選んだ.素性の総数はおよそ19万個である.そのうち学習には学習コーパスに3回以上観測されたもの51,590個を用いた.\begin{table}[htbp]\scriptsize\begin{center}\caption{学習に利用した素性(基本素性)}\label{table:feature1}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|c|l|l|l|l|l|}\hline\multicolumn{4}{|c|}{\bf基本素性}&\multicolumn{2}{|c|}{削除したときの一致度}\\\hlineタイプ&対象&素性名&素性値&二文節単位&完全一致\\&文節&&&&\\\hline\hline1&係り1,&主辞見出し&(5,066個)&86.65\%&73.87\%\\&係り2,&&&($-$0.79\%)&($-$1.54\%)\\&受け&&&&\\\hline2&係り1,&主辞品詞(Major)&動詞形容詞名詞助動詞接続詞$\ldots$&87.07\%&75.03\%\\&係り2,&&\q\q\q\q\q\q(11個)&($-$0.37\%)&($-$0.38\%)\\&受け&主辞品詞(Minor)&普通名詞サ変名詞数詞程度副詞$\ldots$&&\\&&&\q\q\q\q\q\q(24個)&&\\\hline3&係り1,&主辞活用(Major)&母音動詞子音動詞カ行$\ldots$&87.39\%&75.20\%\\&係り2,&&\q\q\q\q\q\q(30個)&($-$0.05\%)&($-$0.21\%)\\&受け&主辞活用(Minor)&語幹基本形未然形意志形命令形$\ldots$&&\\&&&\q\q\q\q\q\q(60個)&&\\\hline4&係り1,&主辞意味素性(110)&真(1個)&87.21\%&75.20\%\\&係り2,&主辞意味素性(111)&真(1個)&($-$0.23\%)&($-$0.21\%)\\&受け&$\cdots$&&&\\&&主辞意味素性(433)&真(1個)&&\\&&(90個)&&&\\\hline5&係り1,&語形(String)&こそことそしてだけとにも$\ldots$&84.78\%&70.03\%\\&係り2,&&\q\q\q\q\q\q(73個)&($-$2.66\%)&($-$5.38\%)\\&受け&語形(Major)&助詞接尾辞子音動詞カ行判定詞$\ldots$&&\\&&&\q\q\q\q\q\q(43個)&&\\&&語形(Minor)&格助詞基本連用形動詞接頭辞$\ldots$&&\\&&&\q\q\q\q\q\q(102個)&&\\\hline6&係り1,&助詞1(String)&からまでのみへねえ$\ldots$&87.32\%&75.14\%\\&係り2,&&\q\q\q\q\q\q(63個)&($-$0.12\%)&($-$0.27\%)\\&受け&助詞1(Minor)&(無)格助詞副助詞接続助詞終助詞&&\\&&&\q\q\q\q\q\q(5個)&&\\&&助詞2(String)&けどままやよか$\ldots$(63個)&&\\&&助詞2(Minor)&格助詞副助詞接続助詞終助詞(4個)&&\\\hline7&係り1,&句点の有無&無有(2個)&87.39\%&75.54\%\\&係り2,&&&($-$0.05\%)&($+$0.13\%)\\&受け&&&&\\\hline8&係り1,&係り文節数&A(0)B(1)C(2)D(3以上)(4個)&87.14\%&74.86\%\\&係り2&&&($-$0.30\%)&($-$0.55\%)\\\cline{2-6}&受け&係り文節数&A(2)B(3)C(4以上)(3個)&87.40\%&75.35\%\\&&&&($-$0.04\%)&($-$0.06\%)\\\hline9&係り1,&並列&P(並列)A(同格)D(それ以外)(3個)&86.26\%&73.61\%\\&係り2,&&&($-$1.18\%)&($-$1.80\%)\\&受け&&&&\\\hline10&係り1,&係り語形1と語形2が一致&真偽(2個)&87.34\%&75.09\%\\&係り2&係り語形2と語形1&真偽(2個)&($-$0.10\%)&($-$0.32\%)\\&&が一致&&&\\&&係り語形1と係り語形2&真偽(2個)&&\\&&が一致&&&\\\hline11&係り1,&主辞見出しが既出&真偽(2個)&87.31\%&75.14\%\\&係り2,&係り文節主辞見出しが既出&真偽(2個)&($-$0.13\%)&($-$0.27\%)\\&受け&&&&\\\hline12&係り1,&文脈指示語の有無&無有(2個)&87.27\%&75.12\%\\&係り2&文脈指示語(String)&このこれこんなそこそのそれ$\ldots$&($-$0.17\%)&($-$0.29\%)\\&&&\q\q\q\q\q\q(42個)&&\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{学習に利用した素性(基本素性の組み合わせ)}\label{table:feature2}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l|c|c|}\hline\multicolumn{1}{|c|}{\bf基本素性の組み合わせ}&\multicolumn{2}{|c|}{削除したときの一致率}\\\cline{2-3}\multicolumn{1}{|c|}{}&二文節単位&完全一致\\\hline\multicolumn{1}{|c|}{二素性}&87.23\%&74.65\%\\\cline{1-1}(係り1:語形,係り2:語形),&($-$0.21\%)&($-$0.76\%)\\(係り1:語形,受け:主辞見出し),&&\\(係り1:語形,受け:主辞品詞),&&\\(係り1:語形,係り1:並列),&&\\(係り1:語形,係り語形2と語形1が一致),&&\\(係り2:語形,受け:主辞見出し),&&\\(係り2:語形,受け:主辞品詞),&&\\(係り2:語形,係り2:並列),&&\\(係り2:語形,係り語形1と語形2が一致),&&\\(係り1:主辞見出し,受け:句点の有無),&&\\(係り1:主辞品詞,受け:句点の有無),&&\\(係り1:主辞品詞,係り1:主辞見出しが既出),&&\\(係り2:主辞見出し,受け:句点の有無),&&\\(係り2:主辞品詞,受け:句点の有無),&&\\(係り2:主辞品詞,係り2:主辞見出しが既出)&&\\\hline\multicolumn{1}{|c|}{三素性}&87.22\%&74.86\%\\\cline{1-1}(係り1:語形,係り2:語形,受け:主辞見出し),&($-$0.22\%)&($-$0.55\%)\\(係り1:語形,係り2:語形,受け:主辞品詞),&&\\(係り1:語形,係り1:並列,受け:語形),&&\\(係り2:語形,係り2:並列,受け:語形),&&\\(係り1:助詞1,係り1:助詞2,受け:主辞見出し),&&\\(係り1:助詞1,係り1:助詞2,受け:主辞品詞),&&\\(係り2:助詞1,係り2:助詞2,受け:主辞見出し),&&\\(係り2:助詞1,係り2:助詞2,受け:主辞品詞)&&\\\hline\multicolumn{1}{|c|}{上記すべての組み合わせ素性}&85.79\%&71.67\%\\&($-$1.65\%)&($-$3.74\%)\\\hline\end{tabular}\end{center}\end{table}表~\ref{table:feature1},表~\ref{table:feature2}の素性名で使われている用語の意味は以下の通りである.\begin{description}\item[係り1・係り2・受け]\ref{sec:word_order_model}~節で述べた語順モデルでは,ある文節に係る文節を二つずつ取り上げて並べその順序が適切である確率を求める.その際の受け文節を「受け」,二つ取り上げて並べた係り文節を前から順に「係り1」,「係り2」と呼ぶ.\item[主辞]各文節内で,品詞の大分類が特殊,助詞,接尾辞となるもの\footnote{これらの品詞分類はJUMAN\cite{JUMAN3.5}のものに従う.}を除き,最も文末に近い形態素.\item[主辞見出し]主辞の基本型(単語).素性値として用いる単語は,主辞の見出し語として学習コーパスに5回以上出現したものとする.\item[意味素性]「分類語彙表」\cite{NLRI64aj}の上位から3レベル目の階層を意味素性として用いる.「分類語彙表」は日本語シソーラスの一つであり,7レベルの階層からなる木構造で表現される.木構造の葉の部分には単語が割り振られており,各単語には分類番号という数字が付与されている.表~\ref{table:feature1}で例えば「主辞意味素性(110)」の括弧内の数字はその分類番号の上位3桁を表す.「主辞意味素性(110):真」という素性は,主辞の単語に付与された分類番号の上位3桁が110であることを意味する.\item[語形]各文節内で,特殊を除き最も文末に近い形態素.もしそれが助詞,接尾辞以外の形態素で活用型,活用形\footnote{JUMANの活用型,活用形に従う.}を持つものである場合はその活用部分とする\footnote{語形は基本的に活用部分を指すが,単独の名詞,副詞などからなる文節の場合には語形部分なしとするのではなく主辞と同じであると定義する.}~.\item[語形1・語形2]それぞれ係り1,係り2の語形のこと.\item[助詞1・助詞2]各文節内で,一番文末に近い助詞を「助詞1」,その次に文末に近い助詞を「助詞2」とする.\item[係り語形1・係り語形2]それぞれ係り1,係り2の係り語形のこと.係り語形は係り文節に係っている文節の語形であると定義する.\item[主辞見出しが既出]前の文に同じ主辞見出しが出現していること.\item[文脈指示語]着目している文節あるいはその係り文節に現れる指示語のこと.\end{description}表~\ref{table:feature1}でタイプ1からタイプ6までは文節内の属性を表し,タイプ7からタイプ10までは統語的な情報を表す.タイプ11とタイプ12は文脈的な情報を表す.\begin{table}[htb]\begin{center}\caption{実験結果}\label{Result}\begin{tabular}{|l@{}|c@{}|c@{}|}\hline&一致率(二文節単位)&一致率(完全一致)\\\hline本手法&87.44\%(12,361/14,137)&75.41\%(3,980/5,278)\\ベースライン1&48.96\%(6,921/14,137)&33.10\%(1,747/5,278)\\ベースライン2&49.20\%(6,956/14,137)&33.84\%(1,786/5,278)\\\hline\end{tabular}\end{center}\end{table}次に我々の解析結果を表~\ref{Result}に示す.第1行は京大コーパス1月9日と6月10日から6月30日までの2,394文のうち係り文節を二つ以上持つ文節5,278文節に対して,その係り受け関係にある文節およびそれらの文節に関してコーパスから得られる形態素情報,文節区切り情報,統語情報,文脈情報を入力とし,語順を生成させたときの結果である.ただし,統語情報としては係り受けが並列あるいは同格の関係にあるかどうかおよび文末であるかどうかの情報のみを与える.また,文脈情報としては生成の対象となっている文節を含む文の前の文を与える.ベースライン1としてはランダムに選んだ場合の一致率をあげた.ベースライン2としては,語順モデルの式(\ref{eq:p1})の代わりに次の式を用いたときの一致率をあげた.\begin{eqnarray}\label{eq:base2}p^{*}(1|b)&=&\frac{freq(w_{12})}{freq(w_{12})+freq(w_{21})}\end{eqnarray}ここで,$freq(w_{12})$,$freq(w_{21})$は,係り文節$B_1$と$B_2$の語形の見出し語を$w_1$,$w_2$,受け文節$B$の主辞見出しを$w$とするとき,これらが毎日新聞91年から97年のテキストにおいてそれぞれ「$w_1$/$w_2$/$w$」,「$w_2$/$w_1$/$w$」の順に現れた頻度を表す\footnote{ただし,$w_1$と$w_2$が同じときは係り文節$B_1$と$B_2$の主辞見出しをそれぞれ$w_1$と$w_2$とした.また,一方の頻度が0でもう一方の頻度が5以下の場合は$freq(w_{12})$,$freq(w_{21})$としてそれぞれ,「$w_1$/$w_2$」,「$w_2$/$w_1$」の順に現れた頻度を用いた.さらに$freq(w_{12})$,$freq(w_{21})$がいずれも0のときは0から1までの乱数値を与えた.}.式(\ref{eq:base2})を用いると例えば,「太郎は/テニスを/した.」の場合,「は/を/した」の順に現れる頻度と「を/は/した」の順に現れる頻度を調べ,頻度が大きい並びを解とすることになる.\subsection{素性と一致率}\label{sec:feature_and_accuracy}この節では,我々が実験で用いた素性が一致率の向上にどの程度貢献しているかを示す.\ref{sec:exp_result}~節にあげた表~\ref{table:feature1},表~\ref{table:feature2}の右欄には,それぞれの素性を削除したときの一致率と削除したことによる一致率の増減を示してある.基本素性を削るときは,それを含む組み合わせの素性も一緒に削った.最も一致率の増加に貢献していると考えられるのは,語形の情報である.語形は主に格や活用形を表す部分であり,この部分の情報によって最も語順が影響を受けているという結果は人間の直観とも合っている.我々が実験に用いた素性は,言語学的な研究において「語順を支配する基本条件」とされているものをできるだけ反映したものである.その条件がどの程度一致率に影響しているかを示すために,表~\ref{table:feature1},表~\ref{table:feature2}に素性のまとまりごとにその素性を削除したときの一致率を示した.しかし,「は」「を」などの助詞をひとまとまりとして削除しているなど,削除する単位が言語学的に興味のある情報よりも粗い可能性がある.そのような場合には,興味のある要素に対応する素性のみ,例えば助詞の「は」のみについて,その素性を削除したときとしなかったときの一致率を比べることにより,その重要性を定量的に検証することが可能である.さらに新たな言語学的成果に対してもそれに対応するような素性を追加して一致率に有意な増加がみられるかどうかを調べることにより,同様に検証することができると考えられる.\subsection{学習コーパスと一致率}\label{sec:corpus_and_accuracy}この節では,学習コーパスと一致率の関係について考察する.まず,図~\ref{fig:learning_curve1},図~\ref{fig:learning_curve2}に学習コーパスの量と一致率の関係をあげる.これらの図には学習コーパスとテストコーパスのそれぞれを解析した場合のコーパスの量と一致率の関係を載せている.学習コーパスに対する実験としては基本的に京大コーパス1月1日の1,172文を用いた.学習コーパスが250文,500文のときは1月1日の1,172文のうち上から250文,500文を用いた.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=learning1.eps,height=8cm}\vspace{5mm}\caption{学習コーパスの量と一致率(二文節単位)の関係}\label{fig:learning_curve1}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=learning2.eps,height=8cm}\vspace{5mm}\caption{学習コーパスの量と一致率(完全一致)の関係}\label{fig:learning_curve2}\end{center}\end{figure}学習コーパスが250文という少ない量でもテストコーパスに対して二文節単位で82.54\%,完全一致で68.40\%の一致率となっている.これはベースラインよりもかなり高い一致率である.この結果は,学習コーパスの量が少なくても新聞記事に対してはある程度語順の傾向を学習できることを示している.学習コーパスが17,562文のとき,一致率は完全一致で75.41\%である.テストコーパスと一致しなかった残りの約25\%のうちいくつかは学習がうまくできなかったものであり,残りは語順が比較的自由なもので必ずしもコーパスと一致しなくてもよいものであると考えられる.前者に対しては誤りを分析して,語順の傾向を効率良く学習する素性をもっと補う必要がある.そこで,テストコーパスに対する結果を調査した.係り文節の語順がテストコーパスと一致しなかった1,298文節から,ランダムに100文節を選び分析した.そのうち,システムが生成した語順でも不自然ではないものが48個,不自然なものが52個であった.この不自然なものがテストコーパスの語順と一致するようになるには,大量の学習コーパス,および表~\ref{table:feature1},表~\ref{table:feature2}にあげたものとは性質の異なる素性が必要である.学習コーパスが不十分であると思われるものの中には,「法治国家が/聞いて/あきれる」,「創案したのが/そもそもの/始まり」,「味に/精魂/込める」などイディオム的な表現を含むものが多かった.コーパスの量が増えればこのような表現に対しては適切な語順が学習される可能性が高い.新たな素性を考慮するべきであると思われるものの中には,並列関係を含むものが目立った.これについては今後の言語学的な知見なども考慮しながら有効そうな素性を追加したい.今回素性として用いた意味素性および文脈指示語や承前反復語は,意味解析,文脈解析をした結果を基にしている訳ではない.これらをより有効に利用できるようにするためには,意味タグや文脈タグなどが付与されたコーパスおよび意味解析システムや文脈解析システムを統合して用いていく必要がある.\subsection{生コーパスからの学習}\label{sec:raw_corpus}正しい語順の情報はテキスト上に保存されているため,学習コーパスは必ずしもタグ付きである必要はなく,生コーパスに対し既存のシステムを用いて解析した結果を学習に用いることもできる.本節では,タグ付きコーパスと生コーパスを用いて,あるいは生コーパスのみを用いて学習したときにどの程度の一致率が得られるかについて実験結果を示し考察する.生コーパスとしては毎日新聞1994年版の最初の200,000文と,京大コーパスの1月1日から8日までと1月10日から6月9日までの17,562文,合計217,562文を用いた.このうち京大コーパスの17,562文はタグの付与されていない原文を用いた.生コーパスに対しては,そこから素性の情報を得るために形態素解析,構文解析を行なう.形態素解析にはJUMAN,構文解析にはKNP\cite{KNP2.0b6}を用いた.JUMANは形態素区切りおよび品詞の付与の精度が98\%程度,KNPは係り受け単位の精度が90\%程度である.これらはいずれも新聞記事に対する精度である.テストコーパスに対する一致率は,学習コーパスとして生コーパスのみ217,562文を用いた場合,二文節単位で87.64\%,完全一致で75.77\%であり,学習コーパスとして生コーパス(毎日新聞1994年版の最初の200,000文)とタグ付コーパス(京大コーパスの17,562文)合計217,562文を用いた場合,二文節単位で87.66\%,完全一致で75.88\%であった.いずれの場合もタグ付コーパスのみ17,562文を用いたときに比べて,0.2\%から0.5\%程度一致率が増加した.この結果から,タグ付きコーパスが少ない場合は,既存の解析システムの精度が90\%程度であれば生コーパスのみでも学習コーパスとして十分に役割を果たすことが分かる.またこの結果は語順の学習はシステムの解析誤りの影響をあまり受けないということを示していると言える.
\section{まとめ}
本論文ではコーパスから語順を学習する方法について述べた.ここで語順は,ある一つの受け文節に対し係り文節が複数あるときその係り文節の順序を表すものと定義した.係り文節の数はさまざまであるが,係り文節の数によらず二つずつ取り上げてその順序を学習するモデルを提案した.学習モデルにはME(最大エントロピー)モデルを用いた.このモデルは,学習コーパスから得られる情報を基に適切な語順を予測するのに有効な素性を学習することによって得られる.我々が素性として利用したのは,文節の持つ属性,統語情報,文脈情報およびそれらの組み合わせである.これらの素性のうちそれぞれを削除した実験を行なうことによって,その中でも格や活用部分の情報が語順の傾向を学習する上で特に有効に働くことが分かった.また,学習コーパスの量を変えて実験を行なうことによって,我々の手法が少ない学習データに対しても効率良く語順を学習できるだけでなく,タグ付コーパスだけでなく生コーパスも学習に利用できることも分かった.学習したモデルを用いて語順を生成させたとき,コーパスと一致する割合は,京大コーパスを使用した実験で75.41\%であった.一致しなかった残りの約25\%をサンプリング調査したところ,その48\%がモデルを用いて生成した語順でも不自然ではないことが分かった.今回の実験には新聞記事のような一般的な語順のテキストを用いた.スタイルが異なれば語順の傾向も異なると考えられるため,今後,小説などのように新聞記事とはスタイルが異なるテキストを用いて実験し,我々の提案したモデルがどの程度語順の傾向の違いを学習できるかを調べたい.また,本論文で扱ったのは日本語の語順であったが,英語についても同様に語順の傾向を学習できると考えられる.今後,英語についても同様のモデルを用いて語順を学習し,モデルの評価をしたい.文生成においては一般に客観的な評価基準がないため評価が難しいが,本論文で示したようにコーパスに基づく評価方法をとることにより,少なくとも語順の生成に関しては客観的な評価が可能になったと言えるだろう.本論文で我々が提案した手法には,以下のような応用が考えられる.\begin{itemize}\item校正支援ユーザが作文した文を構文解析して依存構造を得た後,それを入力として語順を生成させユーザに提示する.語順モデルを用いて生成させた語順の方がユーザの作文における語順より自然な語順になっている可能性が高いと考えられる.\item機械翻訳における対象言語の語順の生成対象言語において,文節間の依存構造が決まり,各文節において語彙選択が終了すれば,我々が提案した語順モデルを用いて一文全体の語順を決めることができる.このとき一文全体の語順としては,一文全体の語順の確率が最大となるものを選ぶ.一文全体の語順の確率は,受け文節ごとにその受け文節に係る文節の順序の確率を式(\ref{eq:p2})を用いて求め,その積として求める.\item構文解析における誤り検出構文解析結果に複数の係り文節を持つ文節がある場合,その係り文節の順序の確率を式(\ref{eq:p2})を用いて求め,その値が著しく低い場合に誤りとして検出する\footnote{例えば,A,B,Cの三つの文節からなる文があり,[A,[B,C]](AとBがともにCに係る解釈)と[[A,B],C](AがBに,BがCに係る解釈)の2つの解析結果が得られたとする.前者の解釈に対しては,係り文節の順序の確率を求め,その値が著しく低い場合には誤りとして検出することができると考えている.後者の解釈では,係り文節の順序の確率を求めることはできないが,もう一つの候補である前者の解釈に対して係り文節の順序の確率を求め,その値が著しく高い場合には後者の解釈は誤りであるとして検出することができると考えている.}.\end{itemize}\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N04-01
|
\section{はじめに}
label{sec:moti}アスペクト(aspect;相)とはある一つの事象(eventuality;イベント)についてのある時間的側面を述べたものである.しかしながら同時にアスペクトとは言語に依存してそのような統語的形態,すなわち進行形や完了形などと言った構文上の屈折・語形変化を指す.本稿で形式化を行うのは,このような固有の言語に依存したアスペクトの形態ではなく,言語に共通したアスペクトの意味である.アスペクトの概念はどうしても固有の言語の構文と結び付いて定義されているため,用語が極めて豊富かつ不定である.同じ完了と言っても英語のhave+過去分詞形と日本語のいわゆる「た」という助詞とはその機能・意味に大きな差異がある.したがって形式的にアスペクトの意味を述べるためにはまずこうした用語・概念の整理・統合を行った上で,改めて各概念の定義を論理的に述べる必要がある.このような研究では,近年では数多くのアスペクトの理論がイベント構造の概念によって構築されてきた.すなわち,すべての事象に共通な,アスペクトをともなう前の原始的・抽象的な仮想のイベント構造を考え,アスペクトとはこのイベント構造の異なる部位に視点(レファランス)を与えることによって生じるものとする説明\footnote{\cite{Moens88,Gunji92,Kamp93,Blackburn96,Terenziani93}他多数.個々の理論については第\ref{sec:akt}節で詳述する.}である.本稿のアスペクトの形式化も基本的にはこのイベント構造とレファランスの理論から出発する.しかしながらこのイベント構造とレファランスを古典的な論理手法によって形式化しようするとき,以下のような問題が伴う.まず,(1)時間の実体を導入する際に点と区間を独立に導入すると,アスペクトの定義においては,点と区間,点と点,区間と点の順序関係や重なり方に関して関係式が量産されることになる.次に,(2)アスペクトとは本来それだけで存在しうるものではなく,もともとある事象から派生して導き出されたものである.したがってアスペクトを定義する際にその条件を静的に列挙するだけでは不十分であり,もとにある事象の原始形態からの動的な変化として提示する必要がある.本稿では言語に共通なアスペクトのセマンティクスを形式化するために,アロー論理\cite{Benthem94}を導入する.第\ref{sec:arw}章で詳述するが,アロー論理とは命題の真偽を云々する際に通常のモデルに加えてアローと呼ばれる領域を与える論理である.アロー論理では,アロー自身に向きが内在しているために,(1)の問題でいうところの順序関係に関して記法を節約することができる.さらに動的論理(dynamiclogic)にアローを持ち込むことにより,動的論理の中の位置(サイト)と状態移動の概念を時間の点と区間の概念に対応づけることができる.このことは,アスペクトの仕様記述をする際に点と区間の関係が仕様記述言語(アローを含む動的論理)の側で既に定義されていることを意味し,さらに記述を簡潔にすることができる.本稿では,アスペクトの導出をこのような点と区間の間の制約条件に依存した視点移動として捉え,アスペクトの付加を制約論理プログラミングの規則の形式で記述する.したがって(2)の問題でいうところの動的な過程は,論理プログラミングの規則の実行過程として表現される.本稿は以下の構成をとる.まず第\ref{sec:akt}章では,言語学におけるアスペクトの分類と形式化を行い,先に述べた用語と概念の混乱を整理する.次にイベント構造とレファランスに関わる理論について成果をサーベイする.次に第\ref{sec:arw}章では,アロー論理を導入する.この章では,引き続いて,われわれの時間形式化に関する動機がアロー論理のことばでどのように述べられるかも検討する.すなわち,アローを向きをともなった区間とみなし,アスペクトの導出規則の仕様を定める.続く第\ref{sec:acc}章では,この仕様を完了や進行などさまざまなアスペクトに適用し,それらに関する導出規則を定義する.第\ref{sec:discus}章では,導出規則におけるアスペクトの付加についてその有用性と応用可能性を検討し,本研究の意義をまとめる.
\section{言語学的背景}
label{sec:akt}アスペクトのクラス(aspectualclassあるいは独語Aktionsart)とは,さまざまな事象の内部の時間構造およびその意味を示すものである.この節では,まず従来のアスペクトのクラスについてサーベイし,続いてその分類の根拠を説明するイベント構造とレファランスの概念を紹介する.\subsection{アスペクトのクラス}事象のアスペクト分類においてはしばしば用語の混乱が見られ,ある特定の用語が複数の異なる意味に対して用いられることもしばしばである.このような用語の混乱はとりも直さずアスペクトの形式化が不十分なためであり,概念を規定する定義が曖昧になっているためである.本稿ではこのような混乱を避けるために\cite{Comrie76}で用いられた用語を出発点とし,それらを論理のことばで置き替えていくことにする.アスペクトのクラスの分類に際しては,いくつかの分類基準を用意し,それらをオプションとしてどのように取るかで分類木を作るのが常道である.ここではまずこのような対立するオプションの概念をまとめる.\footnote{アスペクト名とアスペクトの分類基準となるオプションの間に呼称の混乱が起きないよう,本稿ではアスペクト名は「-相」とし,アスペクトのオプション名はもとが英語の形容詞であることに鑑み,「-的」とする.}\begin{description}\item[完結的と非完結的]完結相(perfective)\footnote{`perfective'の日本語訳には\cite{Machida89}による完結相と\cite{Kudou95}らによる完成相があるが,「完成」という語は後に述べるAccomplishmentと結び付けて`telic'の訳語に用いることとし,本稿では完結相とした.また「完了相」は従来どおり`perfect'に用いることとする.},あるいは事象が完結的であるとはいわゆる完了相(perfect)とは大きく異なり,事象の内的時間構造に言及せず全体を一まとまりとして見た見方である.これに対して完了相とは後節に述べるように過去の状況に対する現在という視点からの言及である.事象が完結的でないとき(imperfective)は,事象の内部の時間構造に言及することを意味する.\item[点的と持続的]ある事象が時間軸上,点的(punctual)に起きたという場合,それは物理的な時間の長さが瞬時であるということであり,事象全体を一まとまりにして見たという意味の完結相と区別される.同様に事象が持続的(durative)であるとは,その事象の物理的な時間がある一定の長さあるということを意味する.\item[進行的]非完結相の下位分類としてはさまざまなアスペクトのクラスがあるが,その典型は進行相(progressive)である.文法的に進行形と言った場合は,そのような動詞句の形態を指すが,そのこととは別に進行相には固有の意味があり,したがって文法的には進行形でなくても,その意味するアスペクトのクラスが進行的であることもありうる.\item[達成的]ある事象が達成的である(culminating)とは,その事象が終了する時点が陽に示されていることを意味する.例えば「円を描く」という事象は,描き始めた円が最後閉じるところで終了し,また「100m走る」という事象も100mという明確に定義された地点で終了が定義される.ところがただ一般に「走る」だけでは,この事象は達成的ではない(non-culminating).この事象の終了点を以後,達成点(culminationpoint)と呼ぶ.達成的な動作の中で,達成に至るまでの過程も含めたアスペクトを完成相(telic),途中過程には言及せず,達成点のみを言及するアスペクトを達成相(culmination)と呼ぶ.\end{description}これまで言語学および哲学の分野で多くの研究者が木構造のアスペクトの分類を提案しており,近年では,\cite{Allen84,Blackburn96,Parsons90,Binnick91}などにその分類例をみることができる.しかし,アスペクト分類において歴史的にも重要なのは\cite{Vendler67}によるActivity/State/Accomplishment/Achievementの4分類であり,近年の分類もこのVendlerが分類した概念との対応関係に言及した上での改良および精密化を行っている.Comrieの説明では完結相は内部構造に言及しないという観点でVendler分類のActivityに相当し,また達成的な事象はAccomplishmentに相当する.\cite{Parsons90}はVendler分類を再構成し,AccomplishmentとAchievementは行為の達成点を含むものとしてEvent\footnote{Eventは一般的な事象という意味での`eventuality'と異なり,アスペクトの一クラスである.本稿では一般的な事象の意味でのイベントとの混乱を避けるため,Eventというクラス名は表\ref{tab:ref}での対応にとどめ,以後用いない.}と呼び,Activityを(終了点を明示できない)Processと名付けている.アスペクトに関わる諸概念を形式的に定義し直すことは本稿の重要な目的の一つであるが,現段階で形式化する目標となる用語の曖昧性をなくすために,本稿で対象とするオプションの対立を以下にまとめる.\begin{itemize}\item静的(static)と動的(active)の対立\item完結的(perfectve)と非完結的(imperfective)の対立\item達成的(culminating)と非達成的(non-culminating)の対立\end{itemize}これらの対立は図\ref{fig:tree}のような木構造の分類を導く.図~\ref{fig:tree}では完成相(telic)と達成相(culmination)がどちらも達成に向かう動作(culminating)の下位分類として描かれているが,完成相を言うには達成点だけでなく時間を追って進行する部分,すなわち進行相も同時に言及される必要があるため,完成相は進行相も継承すべきものである.また事象の終了後となる完了相も木構造の中に含めるのは困難である.このように,アスペクトを分類するのに木構造は最良の表現方法ではない.このため次の第\ref{subsec:ont}節ではイベント構造を用いて各アスペクトを改めて定義し直すことにする.\begin{figure}[htbp]\atari(110,93)\caption{オプション対立によるアスペクトのクラスの分類}\label{fig:tree}\end{figure}\subsection{イベント構造とレファランス}\label{subsec:ont}イベントの時間的構造とは,あらゆる事象に共通に存在すると仮定される時間構造であり,アスペクトなど特定の視点を導入する以前の原始的な事象であると考えられる.逆に言えば,アスペクトとは,この共通の構造に対して,そのどの部位に着目したかという視点を与えたものであると考えられる.以下,イベント構造に関する研究について簡単にまとめを行う.\cite{Moens88}は`nucleus'という概念を導入し,すべての事象は,進行状態(developmentstate),達成点(culminationpoint),結果状態(subsequentstate)から構成されるとした.また\cite{Gunji92}は,開始点(startingpoint),終了点(finishingpoint),復帰点(recoveringpoint)の三つ組$\langles,f,r\rangle$を発案した.\cite{Kamp93}は,準備段階(preparatoryphase),達成点(culminationpoint),結果状態(resultstate)からなるスキーマ(schema)という構造を定義している.同様に\cite{Blackburn96}は,BAFs(Backandforthstructures),\cite{Terenziani93}は,TEE(TemporalExtentoftheEventuality{\itperse})/ATE(AttentionalTemporalExtent)などの構造を定義している.これらいずれの提案も,\begin{itemize}\item進行中かつ未完了の状態,\item達成点,\item達成後の状態\end{itemize}という構造が含まれるという点で,大筋において共通していると思われる.しかしながら達成後の状態については\cite{Parsons90}で議論されているとおり,達成状態のことを指す場合とただ完了の意味を指す場合とがあるため,本稿でもParsonsに従ってこの二つを分け,イベント構造の構成部品を以下のように導入する.\begin{my-def}[イベント構造]\label{def:struct}~\begin{description}\item[動作区間](Activephase):事象の開始点より達成に至る以前までの時間区間.\item[達成点](Culminationpoint):事象が達成された時点.\item[維持区間](Holdingphase):達成された状態が維持されている時間区間.事象によっては,達成後ただちに事象の前のもとの状態に復帰する場合もあるが,この達成された状態がある時間区間をともなって維持される場合もある.維持区間とはこの後者の場合の時間区間を指す.\item[結果区間](Resultantphase):達成点から後の時間全体.\end{description}\end{my-def}イベント構造は図\ref{fig:struct}のように図示することができる.ここで横軸は時間の進行を意味する.維持区間の時間的な終了点は結果区間内のどこかになるが,維持区間の間は達成の時点と同様な状態が維持されるため,図中では維持区間と達成点とを点線で結んでこのことを示した.\begin{figure}[htbp]\atari(70,29)\caption{イベント構造}\label{fig:struct}\end{figure}レファランスとは,イベント構造上のある部分に対する着目点(あるいは着目区間)である.\cite{Kamp93}では,Vendler分類(Accomplishment/Achievement/Activity)および進行相と完了相について,彼らのイベント構造である`scheme'上に異なるレファランスを定義することによって形式化した.本稿では,定義\ref{def:struct}のイベント構造に対して,同様なレファランスを定義する.本稿ではイベント構造を拡張・精密化したために\cite{Kamp93}のレファランスの定義に加えて,静止相に対応するレファランスを付加することができる.すなわち,ある静的な状態が存在するためにはそれに先立ってその状態を達成するための動作区間と達成点があったとする.逆に言えば,静止相とはこのようなイベント構造の維持区間にレファランスを与えたものと定義できる.既出の用語をイベント構造とレファランスの関係において表\ref{tab:ref}にまとめる.\begin{table}\begin{center}\begin{tabular}[b]{l|l|l}\hlineアスペクト&アスペクトのクラス&レファランスの位置\\\hline\hline完結相&Activity/Event&なし\\非完結相&&動作区間全体\\静止相&State&維持区間内\\完成相&Accomplishment&動作区間+達成点\\達成相&Achievement&達成点\\進行相&Process&動作区間内(達成点を含まない)\\完了相&&結果区間内(達成点を含まない)\\\hline\end{tabular}\end{center}\caption{アスペクトとイベント構造内のレファランス}\label{tab:ref}~\end{table}表\ref{tab:ref}は用語をまとめたとは言うものの依然自然言語による非形式的な定義である.第\ref{sec:arw}節では論理のことばを導入した上で,これらアスペクトの概念を論理で定義し直すことにする.
\section{アロー論理と状況推論}
label{sec:arw}本節ではアロー論理を簡単に紹介し,それをアスペクトの表現に用いる.アロー論理においてはアロー(arrow)と呼ばれるオブジェクトが存在し,それを基本に展開する.各命題の真偽は異なるアローの上で異なる値となる.\subsection{アロー論理概論}\label{subsec:al}本稿で導入するアロー論理は正確に言うと,アロー論理(ArrowLogic),動的アロー論理(DynamicArrowLogic),アローを含む動的命題論理(DynamicLogicwithArrows)という,異なるレベルの論理からなる\cite{Benthem94}.本稿ではこの論理の差異が問題となることはなく,アローというオブジェクトが導入されていることと,サイトと状態移動による動的論理の考え方が導入されていることのみが重要であるため,以下これらの論理をまとめて動的なアロー論理と呼ぶことにする.まずアローの集合を考え,アロー間に接合や逆と言った関係を導入する.以下,アローには${\vecx},{\vecy},{\vecz},\cdots$を用いる.\begin{my-def}[アローフレーム]\label{def:frame}~\\$A$をアローの集合とするとき,以下のアロー間の述語を定義する.\begin{quote}\begin{tabular}[b]{ll}${C^{3}}_{{\vecx},{\vecy}{\vecz}}$&$\vecx$は$\vecy$と$\vecz$の結合である.\\${R^{2}}_{{\vecx},{\vecy}}$&$\vecy$は$\vecx$の逆向きアローである.\\\end{tabular}\end{quote}$(A,C^{3},R^{2})$の組みをアローフレームと呼ぶ.\footnote{\cite{Benthem94}のオリジナルのアロー論理ではアローフレームはアイデンティティアロー$I^{1}_{\vecx}$を含めた$(A,C^{3},R^{2},I^{1})$の組みであるが,本稿では動的アロー論理のアイデンティティアローに代えて,アローを含む動的命題論理でのサイトとアローの同一性を導入するため,$I^{1}_{\vecx}$は用いない.}\end{my-def}さて,これより命題に関する真偽を定義\ref{def:valid}に与える.従来的なタルスキー流の論理では,命題$\phi$の真偽に関してモデル$M$を与え$M\models\phi$とする.これに比べて,アロー論理では$\models$の左辺にさらにアローを加え,真となる領域をアロー上に限定する.\begin{my-def}[真理条件]~\label{def:valid}\begin{quote}モデル$M$,アロー${\vecx}$で$\phi$が真のとき,そのときに限り,$M,{\vecx}\models\phi$.\end{quote}\end{my-def}アローは定義\ref{def:frame}に従い,接続されたり,逆向きを定義できたりする.これらに対しても同様に真理条件を定義\ref{def:tcond}にて与える.\begin{my-def}[オペレーション]\label{def:tcond}~\begin{quote}\begin{tabular}[b]{llp{8cm}}$M,{\vecx}\models\phi\bullet\psi$&iff&アロー$\vecy$と$\vecz$が存在して$M,{\vecy}\models\phi$かつ$M,{\vecz}\models\psi$であり,かつ${C^{3}}_{{\vecx},{\vecy}{\vecz}}$.\\$M,{\vecx}\models\phi^{\vee}$&iff&アロー$\vecy$に対して$M,{\vecy}\models\phi$であり,かつ${R^{2}}_{{\vecx},{\vecy}}$.\\\end{tabular}\end{quote}\end{my-def}ここでさらに一つ,無限オペレータを定義する.\begin{my-def}[無限オペレータ]~\label{def:infini}\begin{quote}$M$においてアロー$\vecx$が$\phi$を満たすアローの無限列に分解できるとき,$\phi^{\ast}=\phi\bullet\phi\bullet\cdots$として,$M,{\vecx}\models\phi^{\ast}$.\end{quote}\end{my-def}いわゆる動的論理(Dynamiclogic)は,サイト(site)に関する論理とサイト間の移動のアローに関する論理の二層からなる.この考え方は,以下のような状態遷移のモデルに基づく.\[\begin{array}{rcl}\langle\mbox{サイト}_1\rangle&\langle\mbox{状態遷移}\rangle&\langle\mbox{サイト}_2\rangle\\\phi_1&\stackrel{\displaystyle\pi}{\longrightarrow}&\phi_2\end{array}\]動的論理の重要性は,あるサイト(点あるいは位置)での命題の真偽が,アロー(状態遷移)上での命題の真偽に相互置換できるということである.すなわち,サイト上の論理とアロー上の論理の二層構造において,あるアローにあるサイトを対応づけ,そのアロー上で真偽が定まる命題に対し,それと真偽をともにするサイト上の命題を対応づけることができる.\[\begin{array}{ccc}\mbox{アロー}&\maplr{\mbox{対応}}&\mbox{サイト}\\\mapdown{\mbox{真偽}}&&\mapdown{\mbox{真偽}}\\\mbox{命題}&\maplr{\mbox{対応}}&\mbox{命題}'\end{array}\]このアローとサイトの対応づけについては,次の三種類:$\calL$,$\calR$および$\Delta$を導入する.本稿では,${\dotu},{\dotv},{\dotw},\cdots$をサイトの記号として用いる.\begin{my-def}[アローとサイトの対応]\label{def:mod}~\begin{quote}\begin{tabular}{ll}${\calL}_{{\dotu},{\vecx}}$&-アロー${\vecx}$の左端点に相当するサイトは$\dotu$である.\\${\calR}_{{\dotu},{\vecx}}$&-アロー${\vecx}$の右端点に相当するサイトは$\dotu$である.\\$\Delta_{{\dotu},{\vecx}}$&-アロー$\vecx$全体をひとつのサイトとみなしてそれを$\dotu$とする.\end{tabular}\end{quote}\end{my-def}上記定義において$\Delta_{{\dotu},{\vecx}}$は,あるアローとサイトの二層の論理が存在するとき,そのアローとサイトの役割を逆にしたような双対(dual)な論理が存在することを示唆する.以上のアローとサイトとその間の対応の関係を考えると,遷移のアローを時間的経過(区間),サイトを時間的に点的なイベントの発生とみる理論を作ることが考えられる.また,あるアロー$\vecx$とあるサイト$\dotu$が定義\ref{def:mod}のある対応関係にあるとき,\[M,{\vecx}\models\phi~\mbox{\itiff}~M,{\dotu}\models\phi'\]であるような命題$\phi$と$\phi'$が存在する.第\ref{sec:acc}節ではこのような対応関係にある命題に対してアスペクトの定義を行うこととする.\subsection{時間領域としてのアロー}\label{subsec:ato}ここでアローとサイトを時間軸上の概念に対応させる.時間の区間論理\cite{Dowty79}では左端が開いた区間とは開始点が陽に明示されない区間,右端が開いた区間とは終了点が陽に明示されない区間を意味する.本稿でも区間論理の概念を踏襲して,アローとは端点が明示されない方向つきの時間域を指すこととする.アローの左端点,あるいはその右端点がそれぞれ定義~\ref{def:mod}の${\calL},{\calR}$によって対応づけられ明示できるとき,その端点でアローに相当する区間は閉じていると考えることができる.例えばあるアローが達成的であるような事象に相当する時区間であれば,この事象は明確な達成点を持つため,その区間の右端は閉じていると考えられる.\begin{my-spec}[時間領域]\label{spec:dir}~\begin{itemize}\itemアローを両端が開いた時間区間とする.アローの向きは状態変移の向きである.\itemサイトを時点とする.\end{itemize}時間区間および時点を総称して時間領域と呼ぶ.\end{my-spec}時間領域は第\ref{subsec:ont}節で言うところのレファランスに代わって事象への見方を与えるものである.直観的にアローは時区間でありサイトは時点であることは述べたとおりであるが,この時点は必ずしも物理的瞬間を意味する点ではなく,心理的に事象の起こっている間を一まとめにした点的な見方である.このことは改めて第\ref{sec:event}節で説明する.\subsection{状況に依存した推論}\label{sec:situated}これより,アスペクトのオペレータとそれによるアスペクトのシフトを状況理論\cite{Barwise89,Devlin91}および情報の理論\cite{Barwise97}に基づいて構成する.ここで状況とは一つの事態,すなわち一つの述語構造によってタイプ付けされる一つの事象(eventuality)を指し,そこで起きている周囲状況や環境ではない.状況理論を用いる理由は,状況とはある一つの事象に基づいて構成されるものでありその事象のタイプによって特徴づけられるとする考え方を基にしたいためである.このことは翻って,同一の状況でも(同一の事象でも)時間的な見方が異なればそれに応じたアスペクトを伴うタイプを持つべきであると考えられる.本稿では状況に対しては同一のインデックス$s$を保ちながら,異なる時間的見方に対しては異なるタイプで特徴づけられるような形式化を目標とする.\begin{my-spec}[タイプ]~\begin{quote}タイプ(type)とは自然言語文の意味内容(semanticcontents)に相当する.本稿ではギリシャ文字:$\phi$,$\psi$,$\cdots$によってタイプを示す.タイプの内部構造は$\ll~~\gg$によって示し,その最初の構成要素は関係(relation)と呼び述語概念に相当する.\end{quote}\end{my-spec}例えば,$\llrun,~for\mbox{-}one\mbox{-}hour\gg$や$\llis\mbox{-}drawing,a\mbox{-}circle\gg$はタイプであり,関係はそれぞれ$run$および$is\mbox{-}drawing$である.各事象は何らかのタイプを持ち,それ自体でひとつの状況を形成し,固有の時間領域を先験的に持っていると考えられる.よって状況と時間領域を次のように定める.\begin{my-spec}[状況と時間領域]~\label{spec:type}\begin{quote}ある時間領域$t$において状況$s$がタイプ$\phi$のとき,そのときに限り,$s,t\colon\phi$と記述する.\end{quote}\end{my-spec}例えば,$s,{\vecx}\colon\llplay,~the\mbox{-}piano\gg$という表現は,状況$s$において時間領域$\vecx$で誰かがピアノを弾いていることを示す.ある時間領域$t$上である事象が表現されており,$t$とある特定の関係にある別の時間領域$t'$があってその上でその事象が異なったふうに表現できるとき,このような表現の変化を{\bfアスペクトシフト}と呼ぶ.またこのような変化を引き起こす形式的な関数を{\bfアスペクトオペレータ},以降単にオペレータと呼ぶ.以下では進行相(progressive)に相当する$Pr$というオペレータによる語形変化の例を示す.\[\llrun\gg~~\stackrel{Pr}{\longrightarrow}~~\llis\mbox{-}running\gg\]\[(\mbox{あるいは}~~Pr(\llrun\gg)=\llis\mbox{-}running\gg).\]このシフトの例は,タイプを用いて以下:\[s,t\colon\phi~\Rightarrow~s,t'\colonPr\phi.\]のように書くことができる.上式では同一の状況$s$に対する時間的見方のシフトが形式的な規則で述べられているが,$t$と$t'$の間の関係が制約条件として付帯することになる.このような形式の推論は{\bf状況推論}と呼ばれ,その規則を次のように一般化することができる.\[s_0\colon\phi_0~\Leftarrow~s_1\colon\phi_1,~s_2\colon\phi_2,\cdots~\|~B_{g}.\]推論規則はそのまま論理型プログラミング言語で実装することができるように,ボディ部を右に,ヘッド部を左に置いて`$\Leftarrow$'の向きで論理的含意を表示した.ここで`$\|$'の後の$B_g$は制約条件を意味し,最初にこの推論規則が適用可能であるかどうかを判別する条件として独立に評価される.この規則の真理条件は以下:\[(s_1\colon\phi_1~\&~s_2\colon\phi_2~\&~\cdots~\rightarrow~s_0\colon\phi_0)~\&~B_g,\]すなわち\[(s_0\colon\phi_0~\vee~\neg(s_1\colon\phi_1)~\vee~\neg(s_2\colon\phi_2)~\vee~\cdots)~\&~B_g\]のようになる.\footnote{真理条件において$B_g$を`$\rightarrow$'の前件に含めてしまうと,$B_g$が偽であっても含意の式全体が真になる場合があり,これは制約条件であるという要件に適切ではない.}状況推論の規則は制約条件を除いては論理プログラミングの節(clause)と考えられ,中で現れる変数は全称的に束縛されるものとする.一般に推論規則は複数個を連鎖させることができる.例えば,以下のような規則:\[s_0\colon\phi_0\Leftarrows_1\colon\phi_1~\|~B_0,\]\[s_1\colon\phi_1\Leftarrows_2\colon\phi_2~\|~B_1.\]の連鎖は,そのまま論理型プログラミングの実行過程として,以下のような演繹スキーマ(deductionschema)で表示できる.ここで制約条件は読みやすさのために上段に記載する.$$\infer[]{s_0\colon\phi_0}{\infer[]{s_1\colon\phi_1}{s_2\colon\phi_2&B_1}&B_0}$$
\section{アスペクトの形式化}
label{sec:acc}本節では,アスペクトのオペレータとアスペクトシフトについて,事象と時間を結び付けることによって表現する.\subsection{オペレータとアスペクトシフト}表\ref{tab:ref}に従い,以下に本稿で定式化するアスペクトを示す.本稿では\cite{Blackburn96}と同様,事象を時間領域から切り離す.したがって,特定の時間とは結びついていない事象の原型を考え,これを{\bfイベントのオントロジー}と呼ぶ.\begin{my-def}[オペレータ]\label{def:ope}$e$をイベントのオントロジーとする.\begin{quote}\begin{tabular}[b]{rll}オペレータ&&アスペクト\\\hline$Ac(e)$&(\underline{Ac}tivity)&完結相\\$Ip(e)$&(\underline{I}m\underline{p}erfective)&非完結相\\$Cl(e)$&(\underline{C}u\underline{l}mination)&達成相\\$St(e)$&(\underline{St}ative)&静止相\\$Pr(e)$&(\underline{Pr}ogressive)&進行相\\$Tl(e)$&(\underline{T}e\underline{l}ic)&完成相\\$P\!f(e)$&(\underline{P}er\underline{f}ect)&完了相\\\hline\end{tabular}\end{quote}\end{my-def}アロー論理によるアスペクト解析の枠組は次の三つ組:$\langle{\calT},{\calE},{\calA}\rangle$で表わされる.ここで$\calT$は時間領域の集合,$\calE$はイベントのオントロジーの集合,$\calA$はオペレータの集合を指す.\begin{eqnarray*}{\calT}&=&\{{\vecx},{\vecy},{\vecz},\cdots,{\dotu},{\dotv},{\dotw},\cdots\}\\{\calE}&=&\{e_1,e_2,e_3,\cdots\}\\{\calA}&=&\{Pr,P\!f,Ac,Ip,St,Tl,Cl\}\end{eqnarray*}イベントのオントロジーはそれ自体時間を持たず,したがって個々の事象の不定形(infinitive)であると考えられる.一方,\[Pr(e_3),~P\!f(e_1),~Tl(e_2),\cdots\]などの表現は時間的に固定されており,$\calT$の中の時間領域と結びつけられていて,仕様\ref{spec:type}のタイプとなり,`$\colon$'の右辺に来ることができる.オペレータは原始的なイベントのオントロジーのみに適用可能なわけではなく,一般には既にアスペクトをともなったタイプにも再帰的に適用可能である.しかしながら,アスペクトの付加はもともとのタイプとの整合性の問題を生じる.例えばもともと進行形のアスペクトをともなっている$Pr(\phi)$に対して再度$Pr$を適用して$Pr(Pr(\phi))$なるタイプを作ることは英語のシンタックスでは不可能である.しかし意味的にはそのようなアスペクトの繰り返し適用が可能な場合もあるため,タイプが既にどのようなアスペクトを伴っているかを分類した上でさらなる適用可能性を議論する必要がある.しかしこれは各言語のシンタックスとの関係を踏まえる必要があり,本稿の研究目的の範囲を越えるため,ここでこれ以上の議論は行わない.\subsection{完結相と非完結相}\label{sec:event}ある状況$s$において時間$\vecx$で事象$\phi$が起こっているとき,すなわち$s,{\vecx}\colon\phi$であるとき,この事象$\phi$は両端の開いた時間$\vecx$の上で非完結相(imperfective)として見られていることになる.逆に,同じ状況において`$\colon$'の左側に点を持つとき,すなわち$s,{\dotu}\colon\psi$であるとき,事象は点に圧縮されて見られており,$\psi$は完結相(perfective)となっている.このように時間は事象に心的な見方を与えるが,これは物理時間とは違うことに注意する必要がある.\footnote{もし`$\colon$'の左側が物理時間であるなら,点とアローの区別は第~\ref{sec:akt}節で言うところの持続的(durative)と点的(punctual)の区別となる.}英語の構文においては,この完結相と非完結相を区別する屈折や派生はない.しかしもし統語的に特定の語形変化がない場合は,特にレファランスを明示しなかったということで,表\ref{tab:ref}にしたがって完結相であるとみなすことにする.規則\ref{rule:event}は事象の非完結的な見方を完結的な見方にシフトするものである.また規則\ref{rule:impf}は完結相を非完結相にシフトするものである.\begin{my-rule}[完結相]\label{rule:event}~\[s,{\dotu}\colonAc(e)\Leftarrows,{\vecx}\colonIp(e)~\|~{\Delta}_{{\dotu},{\vecx}}.\]\end{my-rule}\begin{my-rule}[非完結相]\label{rule:impf}~\[s,{\vecx}\colonIp(e)\Leftarrows,{\dotu}\colonAc(e)~\|~{\Delta}_{{\dotu},{\vecx}}.\]\end{my-rule}規則\ref{rule:event}では,時間$\vecx$で$Ip(e)$という表現が成り立つとき,$\Delta_{{\dotu},{\vecx}}$であるような$\dotu$が存在すれば,同じ状況$s$でも$Ac(e)$が$e$の完結的な見方であることを示している.逆に規則~\ref{rule:impf}では$Ac(e)$という表現が与えられたときに,その非完結相な見方$Ip(e)$が導かれることを示している.ここで,規則\ref{rule:impf}の$\vecx$は定義\ref{def:struct}の動作区間に対応していると考えられる.表\ref{tab:ref}では\cite{Kamp93}に従い完結相はレファランスなし,非完結相ではレファランスは動作区間全体とした.しかしここでの形式化は両者を結び付けて,ともにレファランスは動作区間全体としながらも,それを圧縮したり広げたりする見方をアローを用いて表現したものである.仕様\ref{spec:dir}によればアローは開いた区間に相当する.表\ref{tab:ref}によれば進行相も動作区間内の開いた区間であるから,非完結相と進行相の関係を議論する必要があり,これは改めて第\ref{subsec:pr}節で行う.達成点は動作区間が終了する点,すなわち$s,{\vecx}\colonIp(e)$であるような$\vecx$の終点であると考えることができる.\footnote{アローの終点を終止相・終動相(terminative/egressiveaspect)として「〜し終わる」というアスペクトを表現しているとも考えられるが,本稿では\cite{Kusanagi83}に従いこれは「終わる」の完結相とみなし,本来の動詞とは独立の概念であるという立場をとる.同様にアローの始点も開始相・始動相(inchoative/ingressiveaspect)とは区別して考える.}\begin{my-rule}[達成相]\label{rule:culm}~\[s,{\dotu}\colonCl(e)~\Leftarrow~s,{\vecx}\colonIp(e)~\|~{\calR}_{{\dotu},{\vecx}}.\]\end{my-rule}規則\ref{rule:culm}では,もし${\calR}_{{\dotu},{\vecx}}$であるような$\dotu$が存在すれば,$Cl(e)$は$e$の達成相を示している.静止相(stativeaspect)は表\ref{tab:ref}により,イベント構造の維持区間にレファランスを与えたものである.したがって静止相は達成点を引き延ばしてみた見方に相当する.規則\ref{rule:state}は達成点を維持区間に引き延ばす推論を行う.\begin{my-rule}[静止相]\label{rule:state}~\[s,{\vecy}\colonSt(e)~\Leftarrow~s,{\dotu}\colonCl(e)~\|~\Delta_{{\dotu},{\vecy}}.\]\end{my-rule}規則\ref{rule:state}では,時点$\dotu$上の$Cl(e)$に対してもし$\Delta_{{\dotu},{\vecy}}$であるようなアロー$\vecy$が存在すれば,そのアロー上で$St(e)$はイベント構造の維持区間を言及することを述べている.以下に示すのは規則\ref{rule:impf},規則\ref{rule:culm},および規則\ref{rule:state}を連鎖させて,事象(完結相)から維持区間を導き出したものである.$$\infer[\mbox{\scriptsize(Rule\ref{rule:state})}]{s,{\vecy}\colonSt(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:culm})}]{s,{\dotu}\colonCl(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:impf})}]{s,{\vecx}\colonIp(e)}{s,{\dotv}\colonAc(e)&{\Delta_{{\dotv},{\vecx}}}}&{\calR}_{{\dotu},{\vecx}}}&{\Delta_{{\dotu},{\vecy}}}}\label{deduc:st}$$以下,この推論過程を説明する.もし$\vecx$が$\dotv$と同一視されるとき,規則~\ref{rule:impf}を適用することよって最上段の推論ができる.このとき,もし$\vecx$の終点が存在するならば,それを$\dotu$とするとそれはこの事象の達成点を表現している.最後のステップでは,$\dotu$に相当するアロー$\vecy$を導入することにより,事象$e$は静止相で表現される.この静止相については,その一様性(homogeneity)についても言及する必要がある.維持区間においては「事態は変化しない」というのが前提である.すなわち,一つの事態,すなわち一つの述語で記述されるような事態において,その中で状態が変化して再びもとに戻るということは考えにくいため,このように両端の事態の同一性をもって内部の一様性を定義することとした.以下の規則はこのことを記述する.\begin{my-rule}[一様性]\label{rule:stab}~\[s,{\vecy}\colonSt(e)~\Leftarrow~s,{\vecx}\colonSt(e)~\|~{R^{2}}_{{\vecx},{\vecy}}.\]\end{my-rule}規則\ref{rule:stab}によれば,もし$\vecx$上で$St(e)$であるならば,同じ$St(e)$に対して$\vecx$の逆向きアローが存在し,$\vecx$の両側で状態が変化しないことを主張できる.すなわち,定義\ref{def:tcond}に従えば,同アロー上で$St(e)~=~St(e)^{\vee}$である.図\ref{fig:eventstate}において,事象とその達成点の関係を示す.ここでは$St(e)$は同一アロー上で示され.同一の状態間での推移が示されている.\begin{figure}[htbp]\atari(40,35)\caption{完結相と静止相}\label{fig:eventstate}\end{figure}\subsection{部分行為の連鎖としての進行相}\label{subsec:pr}本説では,一つの事象を多数の下位事象に分割することを考える.動的アロー論理の無限オペレータ$\phi^{\ast}$(定義\ref{def:infini})がこの目的に合致する.最初,定義\ref{def:frame}における$C^{3}$を次のように一般化する.\begin{my-def}[一般化アロー分割]~\begin{quote}${C^{n}}_{{\vecx},{\vecx_1}{\vecx_2}\cdots{\vecx_{n-1}}}$,ここで$\vecx$は連続した短いアロー:${\vecx_1},{\vecx_2},\cdots,{\vecx_{n-1}}$の合成である.未知数のアローの合成については${C^{\ast}}$という記法を用いる.\end{quote}\end{my-def}この定義に従って,アロー合成の真理条件は次のように書き換えることができる.\begin{quote}${C^{\ast}}_{{\vecx},{\vecx_1}{\vecx_2}\cdots}$であるような${\vecx_1},{\vecx_2},\cdots$が存在して$s,{\vecx_1}\colon\phi,~s,{\vecx_2}\colon\phi,~\cdots$であるとき,$s,{\vecx}\colon\phi^{\ast}$.\end{quote}ここで$\phi^{\ast}=\phi\bullet\phi\bullet\cdots$である.この$C^{\ast}$に関して,以下の定義を追加しておく.定義の中で$C^{\ast}$の中に現れる`$\cdots$'は任意のアロー列を意味する.\begin{my-def}[部分アローと前後関係]~\begin{quote}\begin{tabular}{llll}${S^{2}}_{{\vecx},{\vecy}}$&iff&${C^{\ast}}_{{\vecx},\cdots{\vecy}\cdots}$&($\vecy$isasubarrowof$\vecx$),\\${P^{2}}_{{\vecx},{\vecy}}$&iff&${C^{\ast}}_{\cdots,\cdots{\vecx}\cdots{\vecy}\cdots}$&($\vecx$precedes$\vecy$).\end{tabular}\end{quote}\end{my-def}ここで本節の目的である進行相の形式化を行う.区間論理に基づく進行相の定義は以下のように言い表すことができる\cite{Partee84,Dowty79}.\begin{quote}`be$\phi$-ing'in$l$は,$\phi$が$l\sqsubsetl'$であるような$l'$で真のとき,そのときに限り真である.\end{quote}ここで`$\sqsubset$'は部分区間の関係を意味する.この定義を直接アロー論理に言い換えると以下のようになる.\[(\ast)~\quad~s,{\vecy}\colonPr(e)~\Leftrightarrow~s,{\vecx}\colonIp(e)~\|~{S^{2}}_{{\vecx},{\vecy}}.\]ここで$\vecy$は$\vecx$の部分アローである.しかしこの進行相の定義はすぐに有名な「非完結相のパラドックス(imperfectiveparadox)」\cite{Partee84,Dowty79,Blackburn96,Glasbey96}(他多数)を引き起こす.問題は$(\ast)$の両向き矢印($\Leftrightarrow$)のうちの右向き($\Rightarrow$)の推論:\begin{quote}もし`be$\phi$-ing'が$l~(\sqsubsetl')$で真であれば,$\phi$も$l'$で真である.\end{quote}の妥当性である.例えば``Johnwasrunninginthefield.''と言った場合,何メートルであろうと部分的には走ったという事実は変わらないので``Johnraninthefield.''が主張できる.ところが,``Johnwasrunningahundredmeters,''と言った場合,このランナーは途中で走るのをやめた可能性もあり,必ずしも``Johnranahundredmeters.''と言うことはできない.この例文では`ahundredmeters'という定量的な表現が含まれているためにその達成点は明示でき,達成的である.同様に,``Johnwasbuildingthehouse''から``Johnbuiltthehouse''を主張することはできない.建築工事は何かの理由で途中で中止され家は完成しなかった可能性があるからである.このように一般に$(\ast)$の右向きの推論は,達成的であるような事象にはあてはまらないことが認められている.以上の議論より進行相の推論規則は$(\ast)$の代わりにその左向き推論の部分のみで定義する.\begin{my-rule}[進行相]\label{rule:prog}~\[s,{\vecy}\colonPr(e)~\Leftarrow~s,{\vecx}\colonIp(e)~\|~{S^{2}}_{{\vecx},{\vecy}}.\]\end{my-rule}この規則\ref{rule:prog}において$Pr(e)$は$Ip(e)$の部分アロー上で成り立つ.表\ref{tab:ref}でのイベント構造に対するレファランスでは,非完結相($Pr(e)$)も進行相($Ip(e)$)もともに動作区間を開いた区間とした見方であるが,ここでの形式化は進行相を非完結相のさらに中の部分であるとしたものである.達成的でない行為,例えば``Johnwasrunninginthefield''は,全体の行為$\phi^{\ast}$の表現もその部分の行為$\phi$の表現も同様に$\llrunning,~in\mbox{-}the\mbox{-}field\gg$となる.すなわち$\phi^{\ast}=\phi$であることが達成的でないことを特徴づけると言うことができる.以上の議論を踏まえて,完成相(telic)についての性質をまとめる.達成的性質はどの事象も共通に内在しているわけではなく,特定の事象のクラスの性質を指しており,他のアスペクトとは異なった扱いが必要である.事象が達成的であるためには,表\ref{tab:ref}にあるように達成の前にその達成プロセスがなければならない.従って完成相$Tl(e)$は達成相(culmination)の特別な場合として,$Cl$と$Pr$を組み合わせて定式化する.\begin{my-rule}[完成相]~\label{rule:tel}\[s,{\vecz}\colonTl(e)~\Leftarrow~s,{\vecy}\colonPr(e),~s,{\dotu}\colonCl(e)~\|~{\calR}_{{\dotu},{\vecz}}~\&~{S^{2}}_{{\vecz},{\vecy}}.\]\end{my-rule}以下に$Tl(e)$の演繹推論の例を示す.$$\infer[\mbox{\scriptsize(Rule\ref{rule:tel})}]{s,{\vecz}\colonTl(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:prog})}]{s,{\vecy}\colonPr(e)}{s,{\vecx}\colonIp(e)&{{S^{2}}_{{\vecx},{\vecy}}}}&\infer[\mbox{\scriptsize(Rule\ref{rule:culm})}]{s,{\dotu}\colonCl(e)}{s,{\vecz}\colonIp(e)&{{\calR}_{{\dotu},{\vecz}}}}&{{\calR}_{{\dotu},{\vecz}}~\&~{S^{2}}_{{\vecz},{\vecy}}}}$$定義\ref{tab:ref}にあるように$Pr(e)$のアスペクトとしての意味は動作区間にレファランスを与えるものであり,それだけでは達成的でないが,英語の進行相の文法的な形態`be$\phi$-ing'は達成的かどうかに関わらず使われる.したがってわれわれは$Tl(e)$を$Pr(e)$からさらにアスペクトシフトしたものとして定義した.ここで非完結相のアロー$\vecx$と完成相のアロー$\vecz$が同じ時区間を指すと考えることも可能である.しかしここでのアローの意味は物理的な時間ではなく,心理的な見方の時間なので定式化においては区別をしておく.図\ref{fig:dagger}に部分行為の蓄積に従って状況が変化していくようすを示す.ここで$\vecy_n$は,\[{C^{n+1}}_{{\vecy_n},{\vecx_1}{\vecx_2}\cdots{\vecx_n}}\]であるような,すなわち,${\vecx_1}$から$\vecx_n$までを合成したアローであるとする.図\ref{fig:dagger}においては,達成的である事象$\llran~100m\gg$が短い距離を積み重ねて100メートルになっていくのに対して,$\llran,~in\mbox{-}the\mbox{-}field\gg$という事象は一貫して変わらないようすを示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{rcccccccl}&${\vecx_1}$&${\vecx_2}$&${\vecx_3}$&${\vecx_4}$&${\vecx_5}$&${\vecx_6}$&${\vecx_7}$\\&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill&\rightarrowfill\\{$\vecy_1$}&\multicolumn{1}{l}{\rightarrowfill}&&&&&&&{$\llran,~9m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_2$}&\multicolumn{2}{l}{\rightarrowfill}&&&&&&{$\llran,~18m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_3$}&\multicolumn{3}{l}{\rightarrowfill}&&&&&{\hspace*{20mm}:}\\{$\vecy_4$}&\multicolumn{4}{l}{\rightarrowfill}&&&&{$\llran,~36m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_5$}&\multicolumn{5}{l}{\rightarrowfill}&&&{\hspace*{20mm}:}\\{$\vecy_6$}&\multicolumn{6}{l}{\rightarrowfill}&&{$\llran,~54m/in\mbox{-}the\mbox{-}field\gg$}\\{$\vecy_7$}&\multicolumn{7}{l}{\rightarrowfill}&{\hspace*{20mm}:}\\\end{tabular}\end{center}\caption{完成相と非完成相}\label{fig:dagger}\end{figure}完成相についてはその部分的な達成に関する規則を考えることができる.\begin{my-rule}[部分的達成相]~\label{rule:partial}\[s,{\vecy_n}\colonTl^{(-)}(e)~\Leftarrow~s,{\vecx}\colonTl(e)~\|~{C^{\ast}}_{{\vecx},{\vecx_1}{\vecx_2}\cdots}~\&~{C^{n+1}}_{{\vecy_n},{\vecx_1}\cdots{\vecx_n}}.\]\end{my-rule}規則\ref{rule:partial}においては$\vecy_n$は図\ref{fig:dagger}に現れるような最初から途中までのアローである.全体の行為$Tl(e)$を乗せるアロー$\vecx$が${\vecx_1},{\vecx_2},\cdots$という部分アローに分割でき,そのうちの$\vecx_1$から$\vecx_n$までが$\vecy_n$として合成できるとき,達成的である事象は$\vecy$の上で部分的に達成されるとする.このオペレータの表記は$Tl$の右肩に`{\scriptsize$(-)$}'を付記して表示する.本節の最後に,繰り返し相(iterative)について議論する.``Theeveningstaristwinkling.''は単位となる行為`twinkle'の繰り返しから構成されるため,この状況は短いアローの連鎖:\[\cdots\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\stackrel{\phi}{\rightarrow}\cdots\]とみなすことができ,行為全体の達成点は明示されない.このように,繰り返し相の内部構造は達成的でない行為によく似たものであると考えることができる.ところが達成的でない:$\llrunnig,~in\mbox{-}the\mbox{-}field\gg$ではその単位となる行為を定義できない.したがって繰り返し相とは達成的でない事象の特別な場合であり,単位となる行為のイメージが特定されるものと考えることができる.\subsection{完了相とテンス}\label{sec:pft}完了相は定義\ref{tab:ref}にあるように,達成点から後の結果区間にレファランスを与えるものである\cite{Kamp93}.\cite{Reichenbach47,Allen95}の定式化にあるように,テンス(tense;時制)とはイベント時と発話時の,アスペクトとはイベント時とレファランス時との相対的位置関係である.定義~\ref{tab:ref}ではイベント時の後に結果区間が来ることにより,Reichenbachの要請を自然に満たしている.\begin{my-rule}[完了相]\label{rule:pf}~\[s,{\vecx}\colonP\!f(e)~\Leftarrow~s,{\dotu}\colonCl(e)~\|~{\calL}_{{\dotu},{\vecx}}.\]\end{my-rule}事象$e$の達成点$\dotu$に対して,そこから始まるアロー$\vecx$が存在するとき,$e$は$\vecx$上で完了相であると見ることができる.完了相の導出は規則\ref{rule:impf},規則\ref{rule:culm},および規則\ref{rule:pf}を連鎖させて以下のように表現できる.$$\infer[\mbox{\scriptsize(Rule\ref{rule:pf})}]{s,{\vecx}\colonP\!f(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:culm})}]{s,{\dotu}\colonCl(e)}{\infer[\mbox{\scriptsize(Rule\ref{rule:impf})}]{s,{\vecy}\colonIp(e)}{s,{\dotv}\colonAc(e)&{\Delta_{{\dotv},{\vecy}}}}&{{\calR}_{{\dotu},{\vecy}}}}&{{\calL}_{{\dotu},{\vecx}}}}\label{deduc:perf}$$最初$Ac(e)$が$\dotv$上にあるとき,その非完結相$Ip(e)$を$\vecy$上で考える.さらに,その達成点を$\dotu$として,そこから始まるアロー$\vecx$を考え$P\!f(e)$を表現していると考える.図\ref{fig:new}にアロー論理に基づくアスペクトの構成を図示する.図~\ref{fig:new}と図\ref{fig:struct}を比較すると,もともとのイベント構造:動作区間,維持区間,結果区間,達成点が,それぞれ非完結相($IP(e)$),静止相($St(e)$),完了相($P\!f(e)$),達成相($Cl(e)$)として忠実に対応づけられていることがわかる.\begin{figure}[htbp]\atari(65,25)\caption{アロー論理に基づくイベント構造}\label{fig:new}\end{figure}この節の最後に,テンスに関する形式化をまとめる.$\phi$を事象,$\vecx$をその非完結相のアローとし,さらに「今」に相当するアロー$\vecn$を導入する.ここで$\vecn$は話者にとっての「今」に相当する心的な時間であり,その長さは問題にされない.以下,三つのテンス・オペレータを導入する.\begin{quote}\begin{tabular}[b]{cl}TenseOperator&Tense\\\hline$P\phi$&Past\\$N\phi$&Present\\$F\phi$&Future\\\end{tabular}\end{quote}テンスの構成は,次のように行われる.\begin{my-def}[テンス]\label{def:tense}~\begin{quote}ある事象$\phi$に対して$s,{\vecx}\colon\phi$であるとき,$\phi$は次のようなテンスを伴う.\[\begin{array}{l}s,{\vecx}\colon\phi~\Leftarrow~s,{\vecn}\colonP\phi~\|~{P^{2}}_{{\vecx},{\vecn}}\\s,{\vecx}\colon\phi~\Leftarrow~s,{\vecn}\colonN\phi~\|~{S^{2}}_{{\vecx},{\vecn}}\\s,{\vecx}\colon\phi~\Leftarrow~s,{\vecn}\colonF\phi~\|~{P^{2}}_{{\vecn},{\vecx}}\end{array}\]ここで$\vecn$は`now'に相当する特別なアローである.\end{quote}\end{my-def}定義\ref{def:tense}では,過去時制は事象のアロー$\vecx$が$\vecn$に先行し,逆に未来時制では$\vecn$が$\vecx$に先行している.また現在時制では事象のアローが$\vecn$を包含している.これらは従来時間軸上に並べられた点としてのイベント時と発話時との関係をアローに置き換え,前後関係をアロー間の順序関係・包含関係として表現したものであり,アスペクトをともなった事象と同様な形にテンスが表現されることを示している.
\section{おわりに}
label{sec:discus}本稿では,アロー論理に基づいてアスペクトの時間構造の形式化を行った.われわれはまず,アスペクトのクラスの分類についての研究成果をサーベイし,イベント構造とレファランスの理論について概要をまとめた.次にアロー論理を導入し,レファランスの代わりに`$\colon$'の左側のアローを記述し,イベント構造の代わりにイベントのオントロジーを導入してそれにオペレータが作用する形でアスペクトの理論を再構築した.この結果,アスペクトの条件を記述する際煩わしい条件の列挙,すなわち順序関係や点と区間の関係などをアロー論理の側で吸収することができ,簡潔な記述を可能にした.本研究での形式化のもう一つの特徴は,時間に対する見方をアスペクトシフトという規則によって行ったことである.これはまだ特定のアスペクトを与えられていない原始的な事象のオントロジーからアスペクトを伴った表現を,与えられた制約条件のもとで推論規則によって導き出すものである.したがって,ここではアスペクトシフトのようすが静的に表現されただけではなく,それが何か別の形態から動的な操作を受けたプロセスとして表現されている.この動的な推論過程は情報の流れとしても捉えることができる.すなわち,ある命題に対するアスペクトのシフトは新しいアローを創出し,他の命題に対する見方にも同時に影響を与えることになる.これまで多くの言語学者は,パースペクティヴ(perspective)の変化\cite{Kamp93,Meulen95}に基づき,文の列からなる一般の文書の時間構造の問題に取り組んできた.文の列に沿う情報の流れを考えるとき,最大の難問は文に対するパースペクティヴがどのように与えられるかということである.一般的にはアスペクトの意味は,一つはその文法形態から,もう一つは他の文との相対的時間関係から説明されると考えられる.文法形態に関しては,われわれは構文を解析することにより,その形態を決定することができるが,他の文との時間関係は問題であり,表面的な情報からだけでは容易に解決することができない.この典型的な問題は`when'による従属節をもつ副文である\cite{Moens88,Terenziani93}.複数の文での時間関係の解析は依然困難な問題であるが,本稿の方法は,一つの文におけるアスペクトの意味を制約として捉えたことにより,隣接する文の持つ制約との関係を考えることで,その時間的意味をさらに限定できる可能性を示唆している.さらに,アロー論理による解析はより広汎な自然言語の応用分野に適用できる可能性があると思われる.本研究の根底には,より詳細な時間情報をハンドリングできるコミュニケーション手段の拡充が意図としてある.具体的には,人工知能システムなどでロボットなどのエージェントにコマンド列を与えるときなど,各コマンドの時間特性が他のコマンドと時間的にどう絡むかを解析する必要があり,このときもし時間特性をアスペクトの制約条件としてプログラムしておくことができれば,時間関係の曖昧さの一部をこの制約条件によって解くことができる.このように本研究は,形式言語学において自然言語のアスペクトの意味を共通に記述する形式化を行うと同時に,工学的応用のためにもアスペクト情報まで組み込んだ時間情報処理システムのプラットフォームを提示するものである.\bibliographystyle{jnlpbbl}\bibliography{reference}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{東条敏}{1981年東京大学工学部計数工学科卒業,1983年東京大学大学院工学系研究科修了.同年三菱総合研究所入社.1986-1988年,米国カーネギー・メロン大学機械翻訳センター客員研究員.1995年北陸先端科学技術大学院大学情報科学研究科助教授,2000年同教授.1997-1998年ドイツ・シュトゥットガルト大学客員研究員.博士(工学).自然言語の形式意味論,オーダーソート論理,マルチエージェントの研究に従事,その他人工知能一般に興味を持つ.情報処理学会,人工知能学会,ソフトウェア科学会,言語処理学会,認知科学会,ACL,Folli各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}\noindent{\bf参考文献}\begin{description}\item[~]J.~F.Allen(1984).Towardsageneraltheoryofactionandtime.{\emArtificialIntelligence},23:123--154.\item[~]J.~F.Allen(1995).{\emNaturalLanguageUnderstanding}.TheBenjamin/CummingsPublishingCompany,Inc.\item[~]J.~Barwise(1989).{\emTheSituationinLogic}.CSLILectureNotes17.\item[~]J.~BarwiseandJ.~Seligman(1997).{\emInformationFlow}.CambridgeUniversityPress.\item[~]P.~Blackburn,C.~Gardent,andM.~de~Rijke(1996).Onrichontologiesontenseandaspect.InJ.~SeligmanandD.~Westerstahl,editors,{\emLogic,Language,andComputation,vol.1}.CSLI,StanfordUniversity.\item[~]R.~I.Binnick(1991).{\emTimeandtheVerb}.OxfordUniversityPress.\item[~]B.~Comrie(1976).{\emAspect}.CambridgeUniversityPress.\item[~]K.~Devlin(1991).{\emLogicandInformation}.CambridgeUniversityPress.\item[~]D.~Dowty(1979).{\emWordMeaningandMontagueGrammar}.D.Reidel.\item[~]S.~Glasbey(1996).Towardsachannel-theoreticaccountoftheprogressive.InJ.~SeligmanandD.~Westerstahl,editors,{\emLogic,Language,andComputation,vol.1}.CSLI,StanfordUniversity.\item[~]T.~Gunji(1992).{AProto-LexicalAnalysisofTemporalPropertiesof{J}apaneseVerbs}.InB.~S.Park,editor,{\em{LinguisticsStudiesonNaturalLanguage}},pages197--217.HanshinPublishing.\item[~]H.KampandU.Reyle(1993).{\emFromDiscoursetoLogic}.KluwerAcademicPublisher's.\item[~]M.~MoensandM.~Steedman(1988).Temporalontologyandtemporalreference.{\emComputationalLinguistics},14[2]:15--28.\item[~]B.~H.Partee(1984).Nominalandtemporalanaphora.{\emLinguisticsandPhilosophy},7:243--286.\item[~]T.~Parsons(1990).{\emEventsintheSemanticsof{E}nglish}.MITpress.\item[~]H.~Reichenbach(1947).{\emElementsofSymbolicLogic}.UniversityofCaliforniaPress,Berkeley.\item[~]P.~Terenziani(1993).Integratinglinguisticandpragmatictemporalinformationinnaturallanguageunderstanding:thecaseofwhensentences.In{\emProc.of13thInternationalJointConferenceonArtificialIntelligence,vol.2},pages1304--1309.\item[~]A.~G.~B.terMeulen(1995).{\emRepresentingTimeinNaturalLanguage}.TheMITPress,Cambridge,MA.\item[~]J.~vanBenthem(1994).{\emANoteonDynamicArrowLogic},pages15--29.TheMITPress.\item[~]Z.~Vendler(1967).Verbsandtimes.{\emPhilosophicalReview},66:143--60.\item[~]工藤真由美(1995).{\emテンス・アスペクト体系とテクスト}.ひつじ書房.\item[~]草薙裕(1983).{\em文法と意味I-朝倉日本語新講座3}.朝倉書店.\item[~]町田健(1989).{\em日本語の時制とアスペクト}.アルク社.\end{description}
| |
V25N05-03
|
\section{はじめに}
本稿では日本語名詞句の情報の状態を推定するために読み時間を用いることを目指して,情報の状態と読み時間の関連性について検討する.名詞句の情報の状態は,情報の新旧に関するだけでなく,定性・特定性など他言語の冠詞選択に与える性質や,有生性・有情性などの意味属性に深く関連する.他言語では冠詞によって情報の性質が明確化されるが,日本語においては情報の性質の形態としての表出が少ないために推定することが難しい.情報の状態は,書き手の立場のみで考える狭義の情報状態(informationstatus)と読み手の立場も考慮する共有性(commonness)の2つに分けられる.前者の情報状態は,先行文脈に出現するか(既出:discourse-old)否か(未出:discourse-new)に分けられる.後者の共有性は,読み手がその情報を既に知っていると書き手が仮定しているか(既知:hearer-old),読み手がその情報を文脈から推定可能であると書き手が仮定しているか(ブリッジング:bridging),読み手がその情報を知らないと書き手が仮定しているか(未知:hearer-new)に分けられる.以後,一般的な情報の新旧を表す場合に「情報の状態」と呼び,書き手の立場のみで考える狭義の情報の新旧を表す場合に「情報状態」(informationstatus)と呼ぶ.これらの情報の状態は,言語によって冠詞によって明示される定性(definiteness)や特定性(specificity)と深く関連する.また,\modified{情報の状態は},有生性(animacy),有情性(sentience),動作主性(agentivity)とも関連する.\modified{日本語のような冠詞がない言語においても,これらの「情報の状態」は名詞句の性質として内在しており,ヒトの文処理や機械による文生成に影響を与える.}機械翻訳を含む言語処理における冠詞選択手法は,これらの名詞句にまつわる様々な特性を区別せずに機械処理を行っているきらいがある.例えば,\cite{乙武-2016}は,本来,定・不定により決定される英語の冠詞推定に情報の新旧の推定をもって解決することを主張している.彼らの主張では,談話上の情報の新旧をもって定・不定が推定できると結論付けている.また,自動要約や情報抽出においても,既出・未出といった情報状態の観点,つまり書き手側の認知状態が主に用いられ,既知・想定可能・未知といった共有性の観点\modified{,つまり読み手側の認知状態}が用いられることは少ない.\modified{これらを適切に区別して,識別することが重要である.特に,読み手の側の情報状態は,自動要約や情報抽出の利用者の側の観点である.さらにその推定には読み手の側の何らかの手がかりをモデルに考慮することが必要になると考える.}言語処理的な解決手法として,大規模テキストから世界知識を獲得して情報状態を推定する方法が考えられる一方,読み手の反応を手がかりとして共有性を直接推定する方法\modified{が}考えられる.\modified{読み手の反応に基づいて,読み手側の解釈に基づく日本語の情報状態の分析は殆どない.}そこで,本稿では,対象とする読み手に対する情報の状態が設定されているであろう新聞記事に対する読み時間データが,名詞句の情報の状態とどのような関係があるのかを検討する.もし読み時間が名詞句の情報の状態と何らかの関係があるのであれば,視線走査装置などで計測される眼球運動などから,情報の状態を推定することも可能であると考える.\modified{特に共有性は読み手の側の情報状態であるにかかわらず,既存の日本語の言語処理では読み手の側の特徴量を用いず推定する手法が大勢であった.}\modified{なお,本研究の主目的は冠詞選択にはなく,日本語の名詞句の情報状態を推定することにある.その傍論として既存の冠詞選択手法が定・不定などの名詞句の特性と本稿で扱う書き手・読み手で異なる情報状態とで差異があり,言語処理の分野において不適切に扱われてきた点について言及する.}\modified{以下,2節では関連研究を紹介する.3節に情報状態の概要について示す.4節に読み時間の収集方法について示す.5節では今回利用する読み時間データおよび情報の状態アノテーションデータと分析手法について示す.6節で実験結果と考察について示す.7節で結論と今後の方向性について示す.}
\section{関連研究}
情報状態に関するアノテーションについての関連研究を示す.G{\"o}tzeらは情報状態(既出(given)/想定可能(accessible)/未出(new))や話題(aboutness/framesetting)や焦点(新情報焦点(new-informationfocus)/対照焦点(contrastivefocus))に関する言語非依存のアノテーション基準を提案している\cite{Gotze2007}.Prasadらは,PennDiscourseTreebank\cite{PRASAD08.754}およびPropBank\cite{Palmer-2005}に対するブリッジングアノテーションの基準について議論している\cite{prasad-EtAl:2015:LSDSem}.\modified{次に,英語の冠詞推定に関連する研究について言及する.先に述べた\cite{乙武-2016}では,情報の新旧と定・不定の近似による手法を提案している.\cite{竹内-2013}では,ブリッジング(想定可能)にも言及しているが,単語の共起をもってブリッジングとしており,実際に読み手が想定可能かどうかについての言及はしていない.これらは,英語の冠詞が表出する定・不定を誤って理解していることによるものだと考える.}最後に,視線走査関連についての関連研究を示す.DundeeEyeTrackingCorpus\cite{Kennedy-2005}は英語とフランス語の新聞社説をそれぞれ10人の母語話者に呈示して視線走査装置を用いて収集した読み時間データである.また,視線走査データを用いた言語学的な分析について紹介する.DembergらはDundeeEyeTrackingCorpusを用いて,Gibsonのdependencylocalitytheory(DLT)\cite{Gibson-1998}やHaleのsurprisaltheory\cite{Hale-2001}を検証した\cite{Demberg-2008}.Barretらは視線走査データに基づいて品詞タグ付けを行う手法を提案している\cite{barrett-EtAl:2016:P16-2}.Klerkeらは視線走査により,機械処理されたテキストの文法性判断を行う手法を提案している\cite{klerke-EtAl:2015:NODALIDA}.\modified{このように視線走査を用いて,読み手側の要因をいれた研究が盛んに進められている.}
\section{名詞句の情報の状態について}
本節では名詞句の情報の状態について概説する.なお,本節は\cite{Miyauchi-2017,Miyauchi-2018}に記載されているものの一部であるが,査読者の指示で掲載する.本研究で利用するアノテーションデータBCCWJ-Infostrでは以下の7種類の情報の状態にまつわる属性について検討する.\begin{exe}\ex\label{label}\begin{xlist}\ex\label{inf}情報状態(informationstatus)\\「新情報(discourse-new)」「旧情報(discourse-old)」\ex\label{com}共有性(commonness)\\「共有(hearer-new)」「非共有(hearer-old)」\ex\label{def}定性(definiteness)\\「定(definite)」「不定(indefinite)」\ex\label{spec}特定性(specificity)\\「特定(specific)」「不特定(unspecific)」\ex\label{an}有生性(animacy)\\「有生(animacy)」「無生(inanimate)」\ex\label{sen}有情性(sentience)\\「有情(sentient)」「無生(insentient)」\ex\label{ag}動作主性(agentivity)\\「動作主(agent)」「被動作主(patient/theme)」\end{xlist}\end{exe}アノテーション対象とする『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}では,長単位と短単位という2つの単位が採用されているが,本研究では,短単位の名詞をアノテーション対象とする.アノテータはBCCWJ-DepParaPAS\cite{植田-2015,AsaharaOmura2016}に付与された共参照情報を確認しながら,作業を行う.ただし,複合語については,前部要素には指示性(referentiality)がないこと等を考慮して,前部要素まで含めて一つの名詞と捉えることにより,実質的に長単位名詞句へのアノテーションを行うことになる.この単位に対する方針については,基本的にはBCCWJ-DepParaPASの作業方針と同じである.上記に示したタグは言語学の専門的な知識を持つものでないとアノテーションができないために,1人の言語学博士課程の学生がアノテーションし,3人がその結果を確認した.定性・特定性・有生性・有情性・動作主性については,与えられた文脈から判断できない場合に「どちらでもよい」というタグを認めた.特に動作主性については,ある名詞句が主節から見た場合と従属節から見た場合と異なる場合に付与した.なお,共有性・特定性・動作主性については,その概念が認めがたい場合に「どちらでもない」というタグを認めた.以下,実例と共にそれぞれのラベルのアノテーション基準を示す.\subsection{情報状態・共有性}(\ref{inf})の情報状態とは,いわゆる旧情報と新情報の区別である.ある談話において,新たな情報は「新情報」となり,聞き手/読み手が知っている情報は「旧情報」となる.一つのテクスト(BCCWJ新聞サンプルにおける記事単位)全体を一つの談話とみなし,アノテーションを行った.\begin{exe}\ex\begin{xlist}\ex\label{is:ex1}担任だった\underline{池田弘子先生}は違った。\ex\label{is:ex2}スクールカウンセラーでもあった\underline{先生}の授業は\end{xlist}\rightline{読売新聞[BCCWJ:PN1c\_00001]}\end{exe}(\ref{is:ex1})の下線部の名詞「池田弘子先生」はこのテクストで初出の実体であるために,末尾の短単位名詞に新情報タグが付与される.一方,(\ref{is:ex2})下線部の名詞「先生」は(2a)の「池田弘子」を指示しているため旧情報タグが付与される.これらの名詞は共参照関係にあり,BCCWJ-DepParaPASのアノテーションから展開できるが,展開したのち,全数確認を行いラベル付与した.(\ref{com})の共有性は,情報を聞き手が既に知っていると話し手が想定しているか否かを示す分類である.聞き手が既に知っていると話し手が想定している情報は「共有(hearer-old)」であり,知らないと想定している情報は「非共有(hearer-new)」である.なお,この判断の際はアノテータの世界知識を使ってもよいこととし,「想定可能」というラベルも許す.このラベルは,ブリッジング(bridging)を起こしている際に付与される.\begin{exe}\ex\label{com:ex1}\begin{xlist}\underline{${}_{a}$キャンティ街道}を抜け、\underline{${}_{b}$オリーブ畑}に囲まれた田園地帯の\underline{${}_{c}$レストラン}で、\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}\ref{com:ex1}の下線部a.の名詞「キャンティ街道」は,世界遺産にも登録されている,ワインで有名な街道であり,アノテータは既にこの街道について知っていたため,共有のタグが付与された.下線部b.の名詞「オリーブ畑」はこの記事からどんなオリーブ畑であるのか判断できないため,非共有のタグが与えられる.下線部c.の名詞「レストラン」はキャンティ街道のレストランを指しており,ある種のブリッジングを起こしているため,想定可能のタグが付与される.\subsection{定性・特定性}(\ref{def})の定性とは,指示対象を聞き手が同定できるか否かを示す分類である.指示対象を聞き手が同定できると話し手が想定していれば「定(definite)」であり,同定できないと想定していれば「不定(indefinite)」である.本研究では,判定する際に確認する文脈として前後3文を見ることとする.\begin{exe}\ex\label{def:ex1}\begin{xlist}高等部では自由な校風もあって、流行に乗ってかばんを薄くつぶしたり、ピアスをしたり。呼び出して注意する先生もいたが、二、三年時に担任だった池田弘子先生(七十五)は違った。「そんな薄い\underline{${}_{a}$かばん}じゃ\underline{${}_{b}$遊び道具}も入らないよ」\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}(\ref{def:ex1})の下線部a.の名詞「かばん」はスコープである(\ref{def:ex1})の前3文以内に既出の名詞であり,ここでは具体的に聞き手の持ち物のかばんを指示している.話し手はこの「かばん」は聞き手により同定しうると想定していると考えられるため,定のタグが与えられる.(\ref{def:ex1})の下線部b.の名詞「遊び道具」は特に具体的な何か遊び道具を指示しているわけではないため,不定のタグが付与される.(\ref{spec})の特定性は,定性と少々似た概念であるが,話し手が特定の事物を想定しているか否かを示す意味論的カテゴリーである.話し手が特定の事物を想定しているならば「特定(specific)」となり,想定していなければ「不特定(unspecific)」となる.定性と同様,特定性に関しても文脈として前後3文を見ることとする.\begin{exe}\ex\label{spec:ex1}\begin{xlist}米どころの同町では、降霜対策で農家による廃タイヤの野焼きが行われてきたが、ダイオキシン問題や交通妨害が指摘され、行き場を失った\underline{${}_{a}$廃タイヤ}があぜ道や\underline{${}_{b}$納屋}の横に放置されてきた。同町が昨秋行った調査では、廃タイヤは農家が抱えるものや不法投棄を含め約三万本に上るという。\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}\ref{spec:ex1}の下線部a.の名詞「廃タイヤ」は,北海道鷹栖町に放置された約30,000本のタイヤを具体的に指しており,これは\ref{spec:ex1}の前後3文から読み取ることが可能であるため特定のタグが付与される.\ref{spec:ex1}の下線部b.の名詞「納屋」は特定の納屋が想定されているわけではなく,不特定のタグが与えられる.\subsection{有生性・有情性}(\ref{an})の有生性とは,生きているか否かを示すカテゴリーである.生物(人間,動物など)は「有生(animate)」であり,無生物(植物を含む)は「無生(inanimate)」である.有生性は名詞句レベルのみで判断し,付与されるものとする.有生性と似た概念として(\ref{sen})の有情性がある.これは,情意があるか否かを示すパラメターである.自由意志による移動が可能な場合は「有情(sentient)」となり,自由意志による移動がないなら「非情(insentient)」となる.日本語については,有生/無性の区別よりも有情/非情の区別が重要であるとする立場もあり,また,有生性と有情性の値が異なる場合もあり得ることから,このパラメターの設定が必要となる.情意の有無は名詞句単体では判定できない場合があるため,有情性は述語-項レベルまで見た上で判断し,付与されるものとする.\begin{exe}\ex\label{an:ex1}\begin{xlist}オオクチバスなどの\underline{${}_{a}$ブラックバス類}が、少なくとも四十三都道府県の七百六十一のため池や\underline{${}_{b}$湖沼}に侵入し、\end{xlist}\rightline{読売新聞[BCCWJ:PN4c\_00001]}\end{exe}(\ref{an:ex1})の下線部a.の名詞「ブラックバス」は生物であるため,有生のタグが付与される.また,ブラックバスに情意があるか否かは判断が難しいが,その述語は「侵入する」となっており,これは意志的な動作,行為を表しているため,ここでの「ブラックバス」は有情のタグが付与されることになる.(\ref{an:ex1})の下線部b.の名詞「湖沼」は無生物であり,情意もないと判断されるため,それぞれ,無生,非情のタグが与えられる.\subsection{動作主性}(\ref{ag})の動作主性は,事態に関わる事物や人物がその事態で果たしている役割を示す.行為を意図的に実現するものは「動作主(agent)」とし,行為によって変化を被るものを「被動作主(patient/theme)」とする.このパラメターについては節レベルまで見て判断し,タグを付与することとする.その際,主節と従属節の両方を考慮する.また,「どちらでもよい」「どちらでもない」を許す.\begin{exe}\ex\begin{xlist}\ex\label{ag:ex1}編み笠をかぶった人なつっこい\underline{笑顔}を見るだけで、\ex\label{ag:ex2}もみじの木にとまって仲良く寄り添う二羽の\underline{キジバト}。\ex\label{ag:ex3}独特な雰囲気の\underline{写真}になりました。\end{xlist}\rightline{読売新聞[BCCWJ:PN1d\_00001]}\end{exe}(\ref{ag:ex1})の下線部の名詞「笑顔」は,主節では被動作主であり従属節では動作主である.このような場合に「どちらでもよい」というタグを付与する.(\ref{ag:ex2})の下線部の名詞「キジバト」は,それを含む文がこの名詞で終わる体言止めの文であるため主節では動作主性の判断ができないが,従属節では動作主であるため,「動作主」というタグを付与する.(\ref{ag:ex3})の下線部の名詞「写真」は動作主でも被動作主でもないため,「どちらでもない」となる.\subsection{名詞句の情報の状態のまとめ}このように名詞句の情報の状態は,多様な観点が分析される.しかしながら,2節で示した日本人工学研究者による英語の冠詞推定手法のように,これらが混同されて扱われてきた.なお,我々の興味は,冠詞推定にはなく,情報の状態にある.情報の状態は3.1節に示した通り,書き手にとっての情報の新旧である情報状態と,読み手にとっての情報の新旧である共有性の2つの観点がある.前者の情報状態については,談話の出現について言及する共参照解析により言語処理に分野では扱われてきた.本稿では,後者の共有性を読み手の視線情報により捉えるかを検証する.一般に,情報抽出や自動要約のために必要なのは,アプリケーションを利用する受け手側から見た情報の新旧である共有性にある.
\section{読み時間の収集方法}
本節では読み時間の収集方法について説明する.なお,本節は言語学会論文誌『言語研究』に投稿中のものの一部であるが,査読者の指示で掲載する.読み時間を収集する対象は,BCCWJ\cite{Maekawa-2014-LRE}のコアデータの新聞記事データ(PNサンプル)の一部とした.\modified{コーパスアノテーションの分野では,できる限り同じテキストに様々な情報を付与するという取組が進められている.}対象の記事は,研究者コミュニティで共有されているアノテーションの優先順位\footnote{https://github.com/masayu-a/BCCWJ-ANNOTATION-ORDER}に基づいて選択した.\modified{これにより,係り受け\cite{Asahara-2016-ALR12}・節境界\cite{Matsumoto-2018}・分類語彙表番号\cite{加藤-2017}・情報構造\cite{Miyauchi-2017,Miyauchi-2018}・述語項構造および共参照\cite{植田-2015}・否定の焦点\cite{松吉-2014}などのアノテーションとの重ね合わせに基づく分析が可能になる.DundeeEyeTrackingCorpusにおいてもDundeeTreebank\cite{Kennedy-2003}など品詞・係り受け・共参照の整備が進んでいるが,本研究のBCCWJ-EyeTrackのようにコーパス言語学的な統語・意味・談話レベルの情報が重畳的に付与されていない.}\modified{読み時間データの}収集方法として,自己ペース読文法と視線走査法を用いた.自己ペース読文法は,キーボード入力などに基づき,逐次的に文字列を表示し,実験協力者のペースで文を読む課題である.\modified{図\ref{fig:selfpaced}に課題の画面例を示す.最初,コンピューター画面上には,文の長さを表すアンダーバーが表示されている.被験者がスペースキーを押すごとに,刺激文の始めから1文節(もしくは1単語)ずつ表示され,直前に表示されていた文節はアンダーバーに戻る.文節が表示されてから,次にボタンを押すまでの時間が,その文節の読解時間としてミリ秒単位で記録される.}英語においては視線走査で得られる読み時間との高い相関があることが知られており\cite{Just-1982},安価な機器で読み時間を取得することができる.刺激の呈示方法として移動窓方式を用いた.自己ペース読文法を実施するソフトウェアとしてLinger\footnote{http://tedlab.mit.edu/{\textasciitilde}dr/Linger/}を用いた.\begin{figure}[t]\begin{center}\includegraphics{25-5ia3f1.eps}\end{center}\caption{移動窓方式による自己ペース読文法}\label{fig:selfpaced}\end{figure}視線走査法は,実験協力者がディスプレイ画面上のどの文字を注視しているのかを取得する視線走査装置を用いて,視線注視箇所と注視時間を計測する手法である.自己ペース読文法と異なり,読み戻しなどのより自然な読み時間を取得することができる.視線走査装置としてSRResearch社のEyeLink1000シリーズ(タワーマウント)を用い,時間解像度は1,000~Hzで,ミリ秒単位のデータが収集可能である.視線走査法においては刺激となるテキストは等幅フォント(MS明朝24ポイント)を用いて横書きで1画面に最大5行を21.5インチのディスプレイに呈示した.横方向には全角で最大53文字を呈示し,後述のとおり文節境界に半角スペースを入れた場合には,最大全角53文字を超えないようにした単位で折り返し,1画面に5行まで表示した.文境界には必ず改行を入れた.視線走査装置の上下方向の誤差を吸収するために,各行は3行空けて呈示した.実験協力者はあご台に顔を固定した状態で,ハーフミラー越しに画面を見るという姿勢で,課題に取り組んだ.自己ペース読文法では,ハーフミラーつきのあご台を用いない以外は同条件で実験を行った.文字列を呈示する基本単位としてBCCWJに付与されている国語研文節単位を用いた.自己ペース読文法では,文節単位でテキストを表示した.また文節境界に半角スペースを空けた条件と空けていない条件の2つの条件を用意し,読み時間を計測した.実験は新聞記事20件をA,B,C,Dの4つのユニットに分割し,視線走査法による計測を2セッション実施したのちに,自己ペース読文法による計測を2セッション実施した.実験協力者は各新聞記事20件を一度だけ読む.各ユニットの文節数,文数,画面数を表\ref{tbl:data1}に示す.1件の新聞記事を読み終わり,次の新聞記事が始まる際には,必ず画面を改めた.実験協力者は3人ずつ8つのグループに分け,表\ref{tbl:subj}のように実験を行った.全実験協力者は視線走査法を行ったのちに,自己ペース読文法を行った.\begin{table}[t]\caption{それぞれの記事ユニットに含まれる文節数,文数,画面数}\label{tbl:data1}\input{03table01.tex}\end{table}\begin{table}[t]\caption{実験計画:各被験者グループにおける記事ユニットと課題・文節境界の空白の有無の対応関係}\label{tbl:subj}\input{03table02.tex}\end{table}
\section{データと分析手法}
本研究では『現代日本語書き言葉均衡コーパス』\cite{Maekawa-2014-LRE}(以下BCCWJ)に対する読み時間データBCCWJ-EyeTrack\cite{Asahara-2016-COLING}に,情報の状態アノテーションBCCWJ-Infostr\cite{Miyauchi-2017,Miyauchi-2018}を重ね合わせたもの(表\ref{tbl:data})を用いる.これらをベイジアン線形混合モデル\cite{Sorensen-2016}により回帰分析することにより,読み時間と情報の状態との関係を明らかにする.以下では,それぞれのデータについて概説する.\begin{table}[b]\caption{利用するデータの概要}\label{tbl:data}\input{03table03.tex}\end{table}\subsection{BCCWJ-EyeTrack:読み時間のデータ}自己ペース読文法で取得したデータは,取得時に語句が文節単位に呈示され,読み戻しができないために,文節単位の読み時間がそのままデータとなる.視線走査法で取得したオリジナルのデータは文字の半角単位にStartFixationTime(注視開始時刻)とEndFixationTime(注視終了時刻)とFixationTime(注視時間)を得た.このデータを国語研文節単位でグループ化しなおしたものを注視順データと呼ぶ.この注視順データを,視線走査法を用いた読み時間計測で標準的に用いられている,以下の5つの計測時間データ(measures)に加工した\cite{vanGompel-2007}.これらは国語研文節単位を注視領域として作成した.\begin{itemize}\itemFirstFixationTime(FFT)\itemFirst-PassTime(FPT)\itemSecond-PassTime(SPT)\itemRegressionPathTime(RPT)\itemTotalTime(TOTAL)\end{itemize}説明のために図\ref{fig1}の例を用いる.図中1--12の数字が視線走査順を表す.\begin{figure}[b]\begin{center}\includegraphics{25-5ia3f2.eps}\end{center}\caption{視線走査順の例\label{fig1}}\end{figure}FirstFixationTime(FFT)はその注視領域に初めて視線が停留した際の注視時間である.例中の「初年度決算も」のFFTは5の注視時間となる.First-PassTime(FPT)は,注視領域に初めて視線が停留し,その後注視領域から出るまでの総注視時間である.出る方向は右方向でも左方向でも構わない.例中の「初年度決算も」のFPTは5,6の注視時間の合計である.Second-PassTime(SPT)は,注視領域に初めて視線が停留し,注視領域から出たあと,2回目以降に注視領域に停留する総注視時間である.例中の「初年度決算も」のSPTは9,11の注視時間の合計である.尚,FPT+SPTが後に説明するTotalTimeになる.RegressionPathTime(RPT)は,注視領域に初めて視線が停留し,その後領域の右側の境界を超えて次の領域に出るまでの総注視時間である.視線が領域の左側の境界を超えて戻った場合の注視時間も,元の注視領域のRPTとして合算する.例中の「初年度決算も」のRPTは5,6,7,8,9の注視時間の合計である.左側に戻り再度注視領域に停留しない場合も合算する.つまり,「初年度決算も」に対する9の視線停留がない場合のRPTは5,6,7,8の注視時間の合計となる.TotalTime(TOTAL)は注視領域に視線が停留する総注視時間である.例中「初年度決算も」のTOTALは5,6,9,11の注視時間の合計である.テキスト生起順データにおいて,サッケード(跳躍眼球運動)の時間は集計しない.これらの時間情報を各種情報とともにCSV形式に整形して公開する.公開データにおいては,平均読み時間や標準偏差などを用いたトリミングなどの時間情報削除処理は実施していない.データは,時間情報を元テキストの情報・実験協力者の情報などとともに読み時間の種類ごとのCSV形式のデータである.表\ref{tbl:data}左にデータ形式を示す.出現書字形({\ttsurface}:factor)は実験協力者に呈示した文字列である.国語研文節単位にしたもので全角空白は除去する.読み時間({\tttime}:int)は各実験で得た時間情報である.自己ペース読文法の場合は実験協力者がその文節を見ていた時間である.視線走査法の場合は前小節で示したFirstFixationTime(FFT),First-PassTime(FPT),Second-PassTime(SPT),RegressionPathTime(RPT),TotalTime(Total)の5種類のいずれかである.単位はミリ秒とする.読み時間の種類({\ttmeasure}:factor)として\{`SelfPaced',`EyeTrack:FFT',`EyeTrack:FPT',`EyeTrack:SPT',`EyeTrack:RPT',`EyeTrack:Total'\}を定義する.尚,配布データは読み時間の種類ごとに1ファイル作成する.対数読み時間({\ttlogtime}:num)は{\tttime}の常用対数をとったものである.文字数({\ttlength}:int)は,呈示した文節の出現書字形{\ttsurface}を構成する文字の数である.注視対象の面積に相当する.文節境界の有無({\ttspace}:factor)は呈示した画面に文節境界に半角スペースがあるかないかを表す.係り受け関係({\ttdependent}:int)は当該文節に係る文節数.文節係り受けは人手で付与したもの\cite{Asahara-2016-ALR12}を重ね合わせた.記事に関するデータとして{\ttsample},{\ttarticle},{\ttmetadata\_orig},{\ttmetadata}の4つを整備した.サンプル名({\ttsample}:factor)は,各セッションごとに準備した記事ユニットで\{A,B,C,D\}からなる.各\modified{ユニット}は新聞記事5--6件から構成されている.記事情報({\ttarticle}:factor)は,記事単位の一意な識別子で,BCCWJのアノテーション優先順位・BCCWJ内サンプルID・記事番号をアンダースコアで連結したものとする.文書構造タグ({\ttmetadata\_orig}:factor)はBCCWJ内文書構造タグで,BCCWJのXMLのancestoraxisにあるタグ情報をスラッシュで連結したものである.メタデータ({\ttmetadata}:factor)は前述の{\ttmetadata\_orig}から記事の特性のみを抽出したものである.\{authorsData(著者情報),caption(キャプション),listItem(リスト),profile(プロフィール),titleBlock(タイトル領域),未定義\}のいずれかであり,BCCWJ内の文書構造タグの誤り・欠落を人手で修正したものである.次に記事や画面の呈示順の情報について説明する.セッション順({\ttsessionN}:int)は実験法ごとに\modified{文節境界空白有と文節境界空白無}の2種類のセッションの順序を表す.記事呈示順({\ttarticleN}:int)はセッションごとの記事の呈示順(1--5)を表す.画面呈示順({\ttscreenN}:int)は複数の画面にわたる記事があり,記事ごとの画面呈示順を表す.行呈示順({\ttlineN}:int)は画面ごとの行呈示順(1--5)であり,画面上の垂直方向の位置を表す.文節呈示順({\ttbunsetsuN}:int)は行ごとの文節呈示順である,画面上の水平方向の位置を表す.これらの呈示順情報により画面推移上の一意な識別が可能である.また,文頭の文節は常に係り受けの数が0であり,文末の文節は係り受けの数が多い傾向にある.また,画面レイアウト上,最左要素・最右要素・右から2番目の要素は眼球運動中に「復帰改行」の操作の影響がある.この問題を扱うために,レイアウト情報として,最左要素({\ttis\_first}:bool)・最右要素({\ttis\_last}:bool)・右から2番目の要素({\ttis\_second\_last}:bool)を固定要因とする.{\ttsample\_screen}は,画面に対する一意な識別子である.実験協力者ID({\ttsubj}:factor)は実験協力者を表示する一意な識別子である.実験協力者の特性として2つの情報を持つ.1つはリーディングスパンテスト得点({\ttrspan}:num)であり,1.5--5.0の0.5刻みの値を持つ.もう1つは語彙数テストの結果({\ttvoc}:num)であり,オリジナルの結果を1,000語で割ったもの(37.1--61.8)である.視線走査法の場合にはゼロ秒(注視されていない文節)は排除して集計した.\subsection{BCCWJ-Infostr:『現代日本語書き言葉均衡コーパス』に対する情報の状態アノテーション}本節ではBCCWJに対する情報の状態アノテーションBCCWJ-Infostr\cite{Miyauchi-2017,Miyauchi-2018}について概説する.同データでは名詞句(文節)に対して\modified{3節に示した}7種類の情報の状態を付与する.\begin{itemize}\item情報状態({\ttinfostatus:is})\item定性({\ttdefiniteness:def})\item特定性({\ttspecificity:spec})\item有生性({\ttanimacy:ani})\item有情性({\ttsentience:sent})\item動作主性({\ttagentivity:ag})\item共有性({\ttcommonnness:com})\end{itemize}情報状態は名詞句が談話文脈中で新情報か旧情報かの区別である.書き手が新しい情報として提示しているものを未出{\ttis:disc-new}と呼び,書き手が談話文脈中に既に情報として提示しているものを既出{\ttis:disc-old}と呼ぶ.同情報は,BCCWJに対する共参照情報アノテーション(BCCWJ-PAS)などから展開することができる.定性は,読み手が名詞句の参照対象が特定できるか否か\cite{Lyons1999,Heim2011}を表す分類である.ある名詞句の参照対象を読み手が特定可能であると書き手が想定している場合に定{\ttdef:definite}とし,そうでない場合に不定{\ttdef:indefinite}とする.特定性は,書き手が名詞句の参照対象を特定しているか否か\cite{Heusinger2011}を表す分類である.ある名詞句の参照対象が唯一無二もしくは書き手が特定可能であるとみなしている場合に特定{\ttspec:specific}とし,そうでない場合に{\ttspec:unspecific}とする.定性と特定性はアノテーション時には前後3文を読んだうえでタグ付けを行う.有生性は名詞句の参照対象が生きているか否かの区別である.生物(ヒト,動物)は有生{\ttani:animate}で,無生物(植物を含む)は無生{\ttani:inanimate}とする.アノテーション時には名詞句単体で評価する.似た分類で有情性がある.有情性は名詞句の参照対象が感情を持つかどうかを表し,他言語における有生性と対照して,日本語学で議論されている概念である.例えば,動詞「ある」「いる」のどちらが利用できるかにより識別される.有生性と区別するために名詞句とその係り先の述語の対をもって,有情{\ttsent:sentient}か無情{\ttsent:insentient}かを区別する.動作主性は,名詞句がある状況でどのような役割を担うかを表す分類である.名詞句の参照対象が意思をもって行動する場合に動作主{\ttag:agent}とし,ある動作により変化を伴う場合に被動作主{\ttag:patient}とする.どちらでもないものを{\ttag:neither}とする.1つの名詞句が主節述語と従属節述語の両方と格関係を持つ場合がある.この場合に動作主であって被動作主でもあるもの{\ttag:both}を許す.共有性は,聞き手が参照対象を既に知っていると書き手が仮定しているかを表す分類である.聞き手が既に知っていると書き手が仮定している場合に既知{\ttcom:hearer-old}とし,聞き手が知らないと書き手が仮定している場合に未知{\ttcom:hearer-new}とする.また,ブリッジングなどで聞き手が想定可能であると書き手が仮定している場合には想定可能{\ttcom:bridging}とする.アノテーション時には,作業者は世界知識を用いながら判定する.表\ref{tbl:basicstat}に,BCCWJ-EyeTrackと重ね合わせた情報の状態のラベルの基礎統計を示す.文脈によって判断ができず,どちらでもよいことを表す{\tt*:either}を定性({\ttdef:either}),特定性({\ttspec:either}),有生性({\ttani:either}),有情性({\ttsent:either}),動作主性({\ttag:either})に対して定義する.また,名詞句によっては定義することが不適切な場合に,どちらでもないことを表す{\ttneither}を特定性({\ttspec:neither}),動作主性({\ttag:neither}),共有性({\ttcom:neither})に対して定義する.\begin{table}[t]\caption{情報の状態の基礎統計}\label{tbl:basicstat}\input{03table04.tex}\end{table}表\ref{tbl:data}右に統計分析に利用するデータについて示す.なお,分析対象は一般化線形混合モデルに基づく分析結果\cite{Asahara-2017}に基づき,各要因の相関関係をみながら,情報状態({\ttis:*})・定性({\ttdef:*})・有生性({\ttani:*})・共有性({\ttcom:*})の4つに限定して行った.\modified{具体的には定性・特定性間と有生性・有情性間に強い相関関係があり,モデル化において多重共線性の問題が発生する.さらに動作主性については,{\ttag:neither}が多く,一般化線形混合モデルにおいて効果が見られなかったために排除した.交互作用については一般化線形混合モデル構築時に収束したモデルが構築できなかったために今回も考慮しない.}今回は,視線走査法の結果のみについて検討する.統計分析においては,名詞句でない文節も検討し,それぞれ{\tt*:NIL}とする.また,ラベルとして{\tt*:neither}がついているものについては,統計処理においては{\tt*:neither}のままとした.\subsection{BayesianLinearMixedModel:統計分析手法}先に述べた読み時間データBCCWJ-EyeTrackと情報の状態アノテーションBCCWJ-Infostrを重ね合わせたものをベイジアン線形混合モデルにより分析を行う\cite{Sorensen-2016}.\modified{帰無仮説を立てた仮説論証的な分析においては一般化線形混合モデルのような頻度主義的な考え方に基づき,有意差を検証する試みが一般的である.しかし本稿のような仮説探索的な分析においては,ベイズ主義的な考え方に基づき,強い証拠を探索する試みが適切だと考え,ベイジアン線形混合モデルを用いる.}前処理として,手修正した{\ttmetadata}\footnote{BCCWJの原版のメタデータ({\ttmetadata\_orig})が不完全であったために改めてタグ付けしたもの.}が\{{\ttauthorsData},{\ttcaption},{\ttlistItem},{\ttprofile},{\tttitleBlock}\}であるものを削除した.また読み時間データから全てのゼロミリ秒のデータポイントを排除した.統計分析は,読み時間{\tttime}を{\ttlognormal}関数により,レイアウト情報・提示順・係り受けの数・情報の状態などを固定要因とし,記事と被験者をランダム要因として,ベイズ推定を行う.具体的には次のような式を用いる:\begin{align*}{\tttime}&\sim\mbox{\ttlognormal}(\mu,\sigma)\\\mu&=\alpha+\beta^{\ttlength}\cdot{\ttlength}(x)+\beta^{\ttspace}\cdot\chi_{\tt{space}}(x)+\beta^{\ttdependent}\cdot{\ttdependent}(x)\\&\quad{}+\beta^{\ttsessionN}\cdot{\ttsessionN}(x)+\beta^{\ttarticleN}\cdot{\ttarticleN}(x)+\beta^{\ttscreenN}\cdot{\ttscreenN}(x)\\&\quad{}+\beta^{\ttlineN}\cdot{\ttlineN}(x)+\beta^{\ttsegmentN}\cdot{\ttsegmentN}(x)\\&\quad{}+\beta^{\ttis\_first}\cdot\chi_{\ttis\_first}(x)+\beta^{\ttis\_last}\cdot\chi_{\ttis\_last}(x)+\beta^{\ttis\_second\_last}\cdot\chi_{\ttis\_second\_last}(x)\\&\quad{}+\sum_{\ttis:*}\beta^{\ttis:*}\cdot\chi_{\ttis:*}(x)+\sum_{\ttdef:*}\beta^{\ttdef:*}\cdot\chi_{\ttdef:*}(x)+\sum_{\ttani:*}\beta^{\ttani:*}\cdot\chi_{\ttani:*}(x)\\&\quad{}+\sum_{\ttcom:*}\beta^{\ttcom:*}\cdot\chi_{\ttcom:*}(x)+\sum_{\tta(x)\inA}\gamma^{\ttarticle=a(x)}+\sum_{\tts(x)\inS}\gamma^{\ttsubj=s(x)}.\\\end{align*}ここで{\tttime}は推定する読み時間である.{\ttlognormal}はrstanの対数正規分布関数である.$\sigma$は{\ttlognormal}の標準偏差$\mu$は{\ttlognormal}の平均で線形式で表される.$\alpha$は線形式の切片を表す.$\beta^{\ttlength}$は文節の長さ${\ttlength}(x)$の傾きである.$\beta^{\ttspace}$は空白の有無$\chi_{{\ttspace}}(x)$\footnote{$\chi_{A}$は指示関数$\chi_{A}(x)=\begin{cases}1&\mbox{if}\;\;\;x\inA,\\0&\mbox{if}\;\;\;x\not\inA.\\\end{cases}$}の傾きである.$\beta^{\ttsessionN}$,$\beta^{\ttarticleN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,$\beta^{\ttsegmentN}$は,呈示順${\ttsessionN}(x)$,${\ttarticleN}(x)$,${\ttscreenN}(x)$,${\ttlineN}(x)$,${\ttsegmentN}(x)$に対する固定要因である.$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$は,レイアウト$\chi_{\ttis\_first}(x)$,$\chi_{\ttis\_last}(x)$,$\chi_{\ttis\_second\_last}(x)$に対する固定要因である.$\sum_{\ttis:*}\beta^{\ttis:*}\cdot\chi_{\ttis:*}(x)$は情報状態に対する固定要因,$\sum_{\ttdef:*}\beta^{\ttdef:*}\cdot\chi_{\ttdef:*}(x)$は定性に対する固定要因,$\sum_{\ttani:*}\beta^{\ttani:*}\cdot\chi_{\ttani:*}(x)$は有生性に対する固定要因,$\sum_{\ttcom:*}\beta^{\ttcom:*}\cdot\chi_{\ttcom:*}(x)$は共有性に対する固定要因である.$\sum_{a(x)\inA}\gamma^{\ttarticle=a(x)}$は,$x$の記事を意味する$a(x)$に対するランダム要因である.$\sum_{s(x)\inS}\gamma^{\ttsubj=s(x)}$は,$x$の被験者識別子を意味する$s(x)$に対するランダム要因である.ベイズ推定はウォームアップ(100回)のあと,イテレーション5,000回を4chains実施し,全てのモデルは収束した.\modified{なお,一般化線形混合モデルにおけるモデリングは\cite{Asahara-2017}を参照されたい.一般化線形混合モデルにおいてはAICによる前進的選択法に基づき,6種類の読み時間データ全てで収束したものを報告している.その過程で各変数の交互作用についても検討したが,うまく収束させたモデルが構築できなかった.今回のベイジアンモデルにおいては,既発表の読み時間全体の傾向で用いた固定効果(レイアウト情報・呈示順・係り受けの数)に対して,情報の状態として情報状態・共有性・定性・有生性の4種に限定して分析を行う.これは,一般化線形混合モデルを構築する際に問題となった,定性と特定性の相関・有生性と有情性の相関に基づく多重共線性の問題と,動作主性において効果が観察されなかったことに基づき,回帰式を構成した.}
\section{結果と考察}
\subsection{結果}図\ref{total:general}(付録表\ref{tbl:total:general})にTotalTimeの情報の状態以外の固定要因に対する係数を示す.グラフは,中央のラインで事後平均値を,曲線でカーネル密度推定量を,色付きの背景で50\%区間を表す.$\beta^{\ttlength}$が正であることから,文字数が増えるにつれて,視線が停留する面積が増えるために停留時間が長くなる.$\beta^{\ttspace}$が負であることから,文節間に空白を入れたほうが読み時間が短くなる.$\beta^{\ttdependent}$が負であることから,修飾語をたくさん持つ文節が読み時間が短くなる.$\beta^{\ttsessionN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,$\beta^{\ttsegmentN}$が負であることから,実験が進むにつれて慣れていくことにより,読み時間が短くなる効果が見られる.なお,$\beta^{\ttarticleN}$に差が見られないのは,記事の順をセットごとにある程度固定して行ったうえで,記事に対するランダム要因$\gamma^{\ttarticle=a(x)}$を入れたために,これに吸収されたと考える.$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$は,レイアウト要因で先頭要素で読み時間を要し,末尾要素を読み飛ばしたうえで,末尾から2つ目の要素で読み戻しの眼球運動の準備のために時間がかかる傾向がみられる.これらは,情報の状態要因なしの分析\cite{Asahara-2016-COLING}と同様の結果である.図\ref{total:info}(および付録表\ref{tbl:total:info})にTotalTimeの情報の状態の固定要因に対する係数を示す.\begin{figure}[b]\noindent\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f3.eps}\end{center}\caption{TotalTime:情報の状態以外の固定要因}\label{total:general}\end{minipage}\hfill\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f4.eps}\end{center}\caption{TotalTime:情報の状態の固定要因}\label{total:info}\end{minipage}\end{figure}名詞句以外である$\beta^{\tt*:NIL}$は読み時間が短い.別の調査において,名詞句以外と名詞句とを比較すると名詞句のほうが読み時間が長くなる傾向がわかっており\cite{Asahara-Kato-2017},それの追試となった.情報の新旧の観点においては,情報状態と共有性の双方,新情報$\beta^{\mbox{\ttinfo:disc-new}}$,\linebreak$\beta^{\mbox{\ttcom:hearer-new}}$のほうが旧情報$\beta^{\mbox{\ttinfo:disc-old}}$,$\beta^{\mbox{\ttcom:hearer-old}}$よりも時間がかかることがわかった.旧情報は予測がつくため処理が早くなる一方,新情報は処理に時間がかかるためであろう.差異については情報状態よりも共有性のほうが明確な差がある.ブリッジング(想定可能)$\beta^{\ttcom:bridging}$も新情報より読み時間が短い傾向がある.定性においては,定名詞句$\beta^{\ttdef:definite}$のほうが,不定名詞句$\beta^{\ttdef:indefinite}$よりも読み時間が長い傾向がある.また,有生性においては,有生$\beta^{\ttani:animate}$のほうが,無生$\beta^{\ttani:inanimate}$よりも読み時間が短い傾向がある.\begin{figure}[b]\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f5.eps}\end{center}\caption{FirstFixationTime:情報の状態の固定要因}\label{fft:info}\end{minipage}\hfill\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f6.eps}\end{center}\caption{FirstPassTime:情報の状態の固定要因}\label{fpt:info}\end{minipage}\end{figure}TotalTimeのみでは眼球運動の仔細について検討できないために,以下ではFirstFixationTime,FirstPathTime,SecondPassTime,RegressionPathTimeについて検討する.FirstFixationTime(図\ref{fft:info}・付録表\ref{tbl:fft:info})では,領域の最初の停留のみを評価する.有生性と無生性の差が大きい傾向がある.また,情報の新旧において,情報状態では差がないが,共有性においては差がみられることがわかる.FirstPassTime(図\ref{fpt:info}・付録表\ref{tbl:fpt:info})では,領域内の最初の停留から,領域外に出るまでの停留時間の合計を評価する.ほぼTotalTimeと同様な傾向がみられた.SecondPassTime(図\ref{spt:info}・付録表\ref{tbl:spt:info})では,2回目以降の視線停留の合計を評価する.定性,有生性,共有性で差がみられる.RegresionPathTime(図\ref{rpt:info}・付録表\ref{tbl:rpt:info})では,領域の最初の停留から,領域外を右に出るまでの停留時間の合計を評価する.有生性の差がもっとも大きい.\begin{figure}[b]\begin{minipage}[t]{200pt}\begin{center}\includegraphics{25-5ia3f7.eps}\end{center}\caption{SecondPassTime:情報の状態の固定要因}\label{spt:info}\end{minipage}\hfill\begin{minipage}[t]{200pt}\setlength\captionwidth{200pt}\begin{center}\includegraphics{25-5ia3f8.eps}\end{center}\hangcaption{RegressionPathTime:情報の状態の固定要因}\label{rpt:info}\end{minipage}\end{figure}\begin{table}[b]\caption{情報の状態の固定要因の差分}\label{tbl:diff}\input{03table05.tex}\end{table}\subsection{考察}表\ref{tbl:diff}に読み時間型ごとの情報の状態の\pagebreak固定要因の事後平均の差分を事後標準偏差とともに示す.まず,共参照などに基づく情報状態は安定した差がどの読み時間型にも出ていないことがわかる.冠詞推定に重要な定性についても,1標準偏差を超える差は見られない.有生性においては,すべての読み時間型において有生名詞句が無生名詞句より読み時間が短い傾向があり,FirstPassTimeとRegressionPathTimeにおいては1標準偏差を超える差であった.共有性においては,情報の新旧の観点({\ttcom:hearer-new},{\ttcom:hearer-old})では,FirstFixationを除く読み時間型で新情報のほうが時間がかかる傾向にあり,TotalTime,FirstPassTime,SecondPassTimeにおいて1標準偏差を超える差があった.ブリッジングの観点({\ttcom:hearer-new},{\ttcom:bridging})では,すべての読み時間型で新情報のほうが時間がかかる傾向にあり,TotalTime,FirstPassTimeにおいて1標準偏差を超える差があった.有生性はシソーラスなど語彙言語資源からその情報の性質を推定できる一方,共有性は共参照情報や世界知識を入れてもその性質を推定することは難しい.しかしながら,今回得られた知見は読み時間などから読み手側の情報の新旧を読み手の反応である眼球運動から推定できる可能性を示唆する.
\section{おわりに}
本稿では,明確に表出しない日本語の名詞句の情報の状態を推定することを目標として,読み時間と日本語の名詞句の情報の状態について対照比較した.読み時間は視線走査装置を用いてミリ秒単位で計測を行ったデータを利用した.名詞句の情報の状態は,情報の新旧について書き手の観点による情報状態と読み手の観点による共有性のほか,定性や有生性について検討した.ベイジアン線形混合モデルによる分析の結果,共有性や有生性の特性の違いにより読み時間に差があることがわかった.情報の状態のうち,残念ながら定性については読み時間に明確な差が見られなかったが,表層の言語情報からはとらえにくい共有性に差があることが重要である.読み時間の事後平均の差は事後標準偏差1程度のものであるが,周辺の言語情報とともに機械学習モデルの特徴量として用いることにより共有性の違いを明らかにできる可能性があることが示唆される.\modified{本研究は,言語学・認知科学的な観点に基づく調査であるが,工学研究者に向けて3点言及する.1点目は,英語の冠詞推定においては,定・不定を同定する必要があり,多くの研究は情報の新旧に基づいて処理されており,関連はするが,本質的には異なる名詞句の性質を用いている.2点目は,情報の新旧には書き手視点と読み手視点の2つの考え方(情報状態・共有性)があり,本研究は読み手側の反応である読み時間を入れることで,既存の技術では適切に扱われてこなかった読み手視点の情報の新旧を得ようとするものである.3点目は,情報抽出や自動要約などのアプリケーションにおいて本質的に重要なのは,書き手視点の談話上の情報の新旧ではなく,アプリケーション利用者側の読み手視点の新旧である.読み手視点の新旧を,読み手側の反応を取り入れながら適切にモデル化することが工学応用に求められている.}今後の研究の方向性として,共通の読み手を想定している新聞記事ではなく,共通の読み手を想定していない読み手ごとに理解の差がある文書を用いて,読み時間に差があるかを検討したい.これにより読み手ごとの情報抽出・自動要約が眼球運動計測により実現する可能性を調査する.他の研究の方向性として,文章の可読性評価が考えられる.文章の可読性は,文字(漢字)や語彙の難易度および頻度に基づいて統制し,調査方法も評定評価等による研究が多かった.本研究は可読性に対する反応である読み時間を直接評価するものであり,各文章の可読性は記事のランダム要因として得ることができる.書誌情報と対照比較することにより可読性の傾向を分析したい.\acknowledgment本研究の一部は,国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」,国立国語研究所の所長裁量経費,および情報・システム研究機構の機構間連携・文理融合プロジェクト「わかりやすい情報伝達の実現に向けた言語認知機構の解明とその工学的応用」によるものです.本研究はJSPS科研費25284083,17H00917,18H05521の助成を受けたものです.なお,本論文はThe31stPacificAsiaConferenceonLanguage,InformationandComputationPACLIC31(2017)の発表``BetweenReadingTimeandInformationStructure''をもとに,ベイジアン線形混合モデルにより統計分析をしなおしたものです.3節は国立国語研究所論集16号「『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析」,4節は言語学会論文誌『言語研究』に投稿中の内容を含みます.これは査読者の指示により内容に含めたもので,著者には自己剽窃の意図はありません.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara}{Asahara}{2017}]{Asahara-2017}Asahara,M.\BBOP2017\BBCP.\newblock\BBOQBetweenReadingTimeandInformationStructure.\BBCQ\\newblockIn{\BemProceedingsofthe31stPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\15--24}.TheNationalUniversity(Phillippines).\bibitem[\protect\BCAY{Asahara\BBA\Kato}{Asahara\BBA\Kato}{2017}]{Asahara-Kato-2017}Asahara,M.\BBACOMMA\\BBA\Kato,S.\BBOP2017\BBCP.\newblock\BBOQBetweenReadingTimeandSyntactic/SemanticCategories.\BBCQ\\newblockIn{\BemProceedingsoftheThe8thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\404--412}.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2016}]{Asahara-2016-ALR12}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQBCCWJ-DepPara:ASyntacticAnnotationTreebankonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponAsianLangaugeResources(ALR12)},\mbox{\BPGS\49--58}.\bibitem[\protect\BCAY{浅原\JBA大村}{浅原\JBA大村}{2016}]{AsaharaOmura2016}浅原正幸\JBA大村舞\BBOP2016\BBCP.\newblockBCCWJ-DepParaPAS:『現代日本語書き言葉均衡コーパス』係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\489--492}.\bibitem[\protect\BCAY{Asahara,Ono,\BBA\Miyamoto}{Asaharaet~al.}{2016}]{Asahara-2016-COLING}Asahara,M.,Ono,H.,\BBA\Miyamoto,E.~T.\BBOP2016\BBCP.\newblock\BBOQReading-TimeAnnotationsfor`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofCOLING2016,the26thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\684--694}.\bibitem[\protect\BCAY{Barrett,Bingel,Keller,\BBA\S{\o}gaard}{Barrettet~al.}{2016}]{barrett-EtAl:2016:P16-2}Barrett,M.,Bingel,J.,Keller,F.,\BBA\S{\o}gaard,A.\BBOP2016\BBCP.\newblock\BBOQWeaklySupervisedPart-of-speechTaggingUsingEye-trackingData.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\579--584}.\bibitem[\protect\BCAY{Demberg\BBA\Keller}{Demberg\BBA\Keller}{2008}]{Demberg-2008}Demberg,V.\BBACOMMA\\BBA\Keller,F.\BBOP2008\BBCP.\newblock\BBOQDatafromEye-trackingCorporaasEvidenceforTheoriesofSyntacticProcessingComplexity.\BBCQ\\newblock{\BemCognition},{\Bbf109}(2),\mbox{\BPGS\193--210}.\bibitem[\protect\BCAY{Gibson}{Gibson}{2008}]{Gibson-1998}Gibson,E.\BBOP2008\BBCP.\newblock\BBOQLinguisticComplexity:LocalityofSyntacticDependencies.\BBCQ\\newblock{\BemCognition},{\Bbf68},\mbox{\BPGS\1--76}.\bibitem[\protect\BCAY{G{\"{o}}tze,Weskott,Endriss,Fiedler,Hinterwimmer,Petrova,Schwarz,Skopeteas,\BBA\Stoel}{G{\"{o}}tzeet~al.}{2007}]{Gotze2007}G{\"{o}}tze,M.,Weskott,T.,Endriss,C.,Fiedler,I.,Hinterwimmer,S.,Petrova,S.,Schwarz,A.,Skopeteas,S.,\BBA\Stoel,R.\BBOP2007\BBCP.\newblock\BBOQInformationStructure.\BBCQ\\newblockInDipper,S.,G{\"{o}}tze,M.,\BBA\Skopeteas,S.\BEDS,{\BemInformationStructureinCross-linguisticCorpora:AnnotationGuidelinesforPhonology,Morphology,Syntax,SemanticsandInformationStructure},\lowercase{\BVOL}~7,\mbox{\BPGS\147--187}.Universit{\"{a}}tsverlagPotsdam.\bibitem[\protect\BCAY{Hale}{Hale}{2001}]{Hale-2001}Hale,J.\BBOP2001\BBCP.\newblock\BBOQAProbabilisticEarleyParserasaPsycholinguisticModel.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~2,\mbox{\BPGS\159--166}.\bibitem[\protect\BCAY{Heim}{Heim}{2011}]{Heim2011}Heim,I.\BBOP2011\BBCP.\newblock\BBOQDefinitenessandIndefiniteness.\BBCQ\\newblockInvonHeusinger,K.,Maienborn,C.,\BBA\Portner,P.\BEDS,{\BemSemantics:AnInternationalHandbookofNaturalLanguageMeaning},\lowercase{\BVOL}~2,\mbox{\BPGS\996--1025}.MoutondeGruyter.\bibitem[\protect\BCAY{Just,Carpenter,\BBA\Woolley}{Justet~al.}{1982}]{Just-1982}Just,M.~A.,Carpenter,P.~A.,\BBA\Woolley,J.~D.\BBOP1982\BBCP.\newblock\BBOQParadigmsandProcessesinReadingComprehension.\BBCQ\\newblock{\BemJournalofExperimentalPsychology:General},{\Bbf3},\mbox{\BPGS\228--238}.\bibitem[\protect\BCAY{加藤\JBA浅原\JBA山崎}{加藤\Jetal}{2017}]{加藤-2017}加藤祥\JBA浅原正幸\JBA山崎誠\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号アノテーション.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\306--309}.\bibitem[\protect\BCAY{Kennedy,Hill,\BBA\Pynte}{Kennedyet~al.}{2003}]{Kennedy-2003}Kennedy,A.,Hill,R.,\BBA\Pynte,J.\BBOP2003\BBCP.\newblock\BBOQTheDundeeCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe12thEuropeanConferenceonEyeMovement}.\bibitem[\protect\BCAY{Kennedy\BBA\Pynte}{Kennedy\BBA\Pynte}{2005}]{Kennedy-2005}Kennedy,A.\BBACOMMA\\BBA\Pynte,J.\BBOP2005\BBCP.\newblock\BBOQParafoveal-on-fovealEffectsinNormalReading.\BBCQ\\newblock{\BemVisionResearch},{\Bbf45},\mbox{\BPGS\153--168}.\bibitem[\protect\BCAY{Klerke,Mart{\'{\i}}nez~Alonso,\BBA\S{\o}gaard}{Klerkeet~al.}{2015}]{klerke-EtAl:2015:NODALIDA}Klerke,S.,Mart{\'{\i}}nez~Alonso,H.,\BBA\S{\o}gaard,A.\BBOP2015\BBCP.\newblock\BBOQLookingHard:EyeTrackingforDetectingGrammaticalityofAutomaticallyCompressedSentences.\BBCQ\\newblockIn{\BemProceedingsofthe20thNordicConferenceofComputationalLinguistics(NODALIDA2015)},\mbox{\BPGS\97--105}.\bibitem[\protect\BCAY{Lyons}{Lyons}{1999}]{Lyons1999}Lyons,C.\BBOP1999\BBCP.\newblock{\BemDefiniteness}.\newblockCambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{Matsumoto-2018}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponAsianLanguageResources13(ALR13)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{松吉}{松吉}{2014}]{松吉-2014}松吉俊\BBOP2014\BBCP.\newblock否定の焦点情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\249--270}.\bibitem[\protect\BCAY{宮内\JBA浅原\JBA中川\JBA加藤}{宮内\Jetal}{2018}]{Miyauchi-2018}宮内拓也\JBA浅原正幸\JBA中川奈津子\JBA加藤祥\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析.\\newblock\Jem{国立国語研究所論集},{\Bbf16}.\bibitem[\protect\BCAY{Miyauchi,Asahara,Nakagawa,\BBA\Kato}{Miyauchiet~al.}{2018}]{Miyauchi-2017}Miyauchi,T.,Asahara,M.,Nakagawa,N.,\BBA\Kato,S.\BBOP2018\BBCP.\newblock\BBOQAnnotationofInformationStructureon``TheBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemComputationalLinguistics:15thInternationalConferenceofthePacificAssociationforComputationalLinguistics,PACLING2017,Yangon,Myanmar,August16--18,2017,RevisedSelectedPapers},\mbox{\BPGS\155--165}.\bibitem[\protect\BCAY{乙武\JBA永田}{乙武\JBA永田}{2016}]{乙武-2016}乙武北斗\JBA永田亮\BBOP2016\BBCP.\newblock冠詞推定のための情報構造仮説の検討.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\493--496}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer-2005}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemConputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--105}.\bibitem[\protect\BCAY{Prasad,Dinesh,Lee,\mbox{Miltsakaki},Robaldo,Joshi,\BBA\Webber}{Prasadet~al.}{2008}]{PRASAD08.754}Prasad,R.,Dinesh,N.,Lee,A.,\mbox{Miltsakaki},E.,Robaldo,L.,Joshi,A.,\BBA\Webber,B.\BBOP2008\BBCP.\newblock\BBOQThePennDiscourseTreeBank2.0.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC'08)},\mbox{\BPGS\2961--2968}.\bibitem[\protect\BCAY{Prasad,Webber,Lee,Pradhan,\BBA\Joshi}{Prasadet~al.}{2015}]{prasad-EtAl:2015:LSDSem}Prasad,R.,Webber,B.,Lee,A.,Pradhan,S.,\BBA\Joshi,A.\BBOP2015\BBCP.\newblock\BBOQBridgingSententialandDiscourse-levelSemanticsthroughClausalAdjuncts.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponLinkingComputationalModelsofLexical,SententialandDiscourse-levelSemantics},\mbox{\BPGS\64--69}.\bibitem[\protect\BCAY{Sorensen,Hohenstein,\BBA\Vasishth}{Sorensenet~al.}{2016}]{Sorensen-2016}Sorensen,T.,Hohenstein,S.,\BBA\Vasishth,S.\BBOP2016\BBCP.\newblock\BBOQBayesianLinearMixedModelsusingStan:ATutorialforPsychologists,Linguists,andCognitiveScientists.\BBCQ\\newblock{\BemQuantitativeMethodsforPsychology},{\Bbf12},\mbox{\BPGS\175--200}.\bibitem[\protect\BCAY{竹内\JBA河合\JBA細田\JBA永田}{竹内\Jetal}{2013}]{竹内-2013}竹内裕己\JBA河合敦夫\JBA細田直見\JBA永田亮\BBOP2013\BBCP.\newblock前方文脈を考慮した冠詞の推定.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\717--720}.\bibitem[\protect\BCAY{植田\JBA飯田\JBA浅原\JBA松本\JBA徳永}{植田\Jetal}{2015}]{植田-2015}植田禎子\JBA飯田龍\JBA浅原正幸\JBA松本裕治\JBA徳永健伸\BBOP2015\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する述語項構造・共参照アノテーション.\\newblock\Jem{第8回コーパス日本語学ワークショップ},\mbox{\BPGS\205--214}.\bibitem[\protect\BCAY{Van~Gompel,Fischer,Murray,\BBA\Hill}{Van~Gompelet~al.}{2007}]{vanGompel-2007}Van~Gompel,R.~P.,Fischer,M.~H.,Murray,W.~S.,\BBA\Hill,R.~L.\BBOP2007\BBCP.\newblock\BBOQEye-movementResearch:AnOverviewofCurrentandPastDevelopments.\BBCQ\\newblock{\BemEyeMovements:AWindowonMindandBrain},\mbox{\BPGS\1--28}.\bibitem[\protect\BCAY{vonHeusinger}{vonHeusinger}{2011}]{Heusinger2011}vonHeusinger,K.\BBOP2011\BBCP.\newblock\BBOQSpecificity.\BBCQ\\newblockInvonHeusinger,K.,Maienborn,C.,\BBA\Portner,P.\BEDS,{\BemSemantics:AnInternationalHandbookofNaturalLanguageMeaning},\lowercase{\BVOL}~2,\mbox{\BPGS\1058--1087}.MoutondeGruyter.\end{thebibliography}\appendix
\section{固定要因の詳細}
表\ref{tbl:total:general},\ref{tbl:total:info},\ref{tbl:fft:info},\ref{tbl:fpt:info},\ref{tbl:spt:info},\ref{tbl:rpt:info}では固定要因の係数の推定値を示す.各列の意味は以下の通り:\begin{itemize}\itemParameter:推定する固定要因\itemRhat:収束判定指標(1.1以下を収束とみなす)\itemn\_eff:有効サンプル数\itemmean:事後平均値\itemsd:事後標準偏差\itemse\_mean:事後平均の標準誤差\item2.5\%:2.5\%位値\item50\%:中央値\item97.5\%:97.5\%位値\end{itemize}\begin{table}[p]\caption{TotalTimeの係数(情報の状態以外)}\label{tbl:total:general}\input{03table06.tex}\end{table}\begin{table}[p]\caption{TotalTimeの係数(情報の状態のみ)}\label{tbl:total:info}\input{03table07.tex}\end{table}\clearpage\begin{table}[p]\caption{FirstFixationTimeの係数(情報の状態のみ)}\label{tbl:fft:info}\input{03table08.tex}\end{table}\begin{table}[p]\caption{FirstPassTimeの係数(情報の状態のみ)}\label{tbl:fpt:info}\input{03table09.tex}\end{table}\clearpage\begin{table}[p]\caption{SecondPassTimeの係数(情報の状態のみ)}\label{tbl:spt:info}\input{03table10.tex}\end{table}\begin{table}[p]\caption{RegressionPathTimeの係数(情報の状態のみ)}\label{tbl:rpt:info}\input{03table11.tex}\end{table}\clearpage\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター准教授.}\end{biography}\biodate\end{document}
| |
V07N03-05
|
\section{はじめに}
情報検索における検索語リストや文書に付与されたキーワードリストなど,複数の内容語(熟語も含む)から成るリストのことを本論文では「タームリスト」と呼ぶ.タームリストを別の言語に翻訳する「タームリストの自動翻訳処理」は,単言語用の文書検索と組み合わせてクロスリンガル検索\cite{Oard96}を実現したり,他国語文書のキーワードを利用者の望む言語で翻訳表示する処理\cite{Suzuki97j}に応用できるなど,様々なクロスリンガル処理において重要な要素技術である.本論文ではタームリストの自動翻訳処理のうち,各タームに対して辞書等から与えられた訳語候補の中から最も妥当なものを選択する「翻訳多義解消」に焦点を当てる.内容語に関する翻訳多義解消の研究は従来から文(テキスト)翻訳の分野で行われて来た.80年代には統語的依存構造に着目した意味多義解消規則を用いる方式が研究され,実用システムにも組み込まれた(\cite{Nagao85}など).この方式は翻訳対象語に対して特定の統語関係(例えば,目的語と動詞の関係)にある別の語を手がかりにした訳語選択規則を人手で作成し,これを入力に適用することによって多義解消を行う方式である.従って,この方法は複数語間に統語的関係が存在しないタームリストには適用できない.一方,90年代に入って言語コーパスから統計的に学習した結果に基づいて多義解消を行う研究が活発化している.これらのうち,統語的解析を(明示的には)行わず,翻訳対象語と同一文内,あるいは,近傍で共起する他の単語を手がかりに多義解消を行う手法はタームリストの翻訳にも適用可能であり,すでにいくつかの研究も行われている.これらは利用するコーパスによって大きく2つに分類できる.1つめはパラレルコーパスと呼ばれる対訳関係にあるコーパスを用いるもので,T.Brownらによる文翻訳のための訳語選択手法\cite{Brown91},R.Brownらのタームリスト翻訳手法\cite{Brown97}がある.これらの方法は訳語候補自体もコーパスから抽出するので対訳辞書を別に用意する必要がないという利点があるが,対象分野に関する相当量のパラレルコーパスを学習データとして準備しなければならないという問題がある.2つめは目的言語の単言語コーパスのみを用いるもので,Daganら\cite{Dagan94}\footnote{\cite{Dagan94}の基本的な手法は構文解析された学習コーパス,入力データを前提とするものであるが,考察の章で学習データの不足に対処するために統語的依存関係を無視して単なる共起によって処理する方法が指摘されている.},田中ら\cite{Tanaka96}による文翻訳の多義解消手法,同様の手法をタームリスト翻訳に適用したJangら\cite{Jang99}による研究がある.これらは入力の各単語(内容語)に対する訳語候補の組み合わせのうち目的言語のコーパス中における共起頻度あるいは相互情報量が最大のものを選択するという方法である.たとえば,入力が``suits''と``wear''を含み,前者の訳語候補が``裁判''と``スーツ'',後者の候補が``着用''であったとき,日本語コーパスにおいて``スーツ''と``着用''の共起頻度が``裁判''と``着用''のそれよりも高い場合,``suits''の訳語を``スーツ''に決定するというものである.この方法はパラレルコーパスに比べて大量に入手可能な単言語コーパスを学習データとして用いるという,統計的処理にとって重要な利点を持っている.本論文で提案する手法は,目的言語の単言語コーパスのみを利用する点では上記2つめの手法に分類されるが,訳語候補の組み合わせの妥当性を計算する方法が異なる.本手法では,訳語候補同士の直接的な共起頻度を用いるのではなく,各訳語候補に対して,まず,目的言語コーパスにおける共起パターンをベクトル化した一種の意味表現を求め,この意味表現同士の「近さ」によって計算する.この「意味表現同士の近さ」を以下では\kanrenと呼ぶ.2単語の\kanrenはこれらの単語と共起する単語の頻度分布を元に計算されるため,2単語のみの共起頻度を用いるより精度の高い結果を得ることが期待できる.以下,まず2章で問題設定を行う.次に3章で多義解消モデルとその中心となる複数単語の意味的\kanrenについて定義し,4章では枝刈りによる処理の高速化について説明する.5章では評価実験とその結果について述べ,6章で誤りの原因と先行研究との関連について考察する.
\section{タームリスト翻訳における多義解消タスク}
$n$個の要素からなる翻訳元言語のタームリストを$S=s_1^n=s_1,s_2,\ldots,s_n(s_i$は一つのターム,$s_i^j$は$s_iからs_j$までの並びを表す)と記す.ここで,タームリスト内の要素の順序には意味がない\footnote{順序を考慮しない複数の語句の集まりは``bagofwords''とも呼ばれる.}.なお,$n$を{\bfタームリストの長さ}と呼ぶ.各タームに対して対訳辞書(bilingualdictionary)などを参照して文脈独立に与えられた訳語の集合を{\bf訳語候補集合}と呼ぶ.なお,訳語は一つの単語であっても複数語から成る熟語であっても良い.入力の各タームに対してその訳語候補を一つずつ選んで並べたものを{\bf翻訳タームリスト候補}と呼び,$T=t_1^n=t_1,t_2,\ldots,t_n(t_iはs_iに対する訳語候補の一つ)$で表す.たとえば,入力がsuitとprosecuteとから成っていて,これらに対する訳語候補がそれぞれ「スーツ」と「裁判」,「遂行」と「起訴」である場合,以下の4つの翻訳タームリスト候補が存在する.\begin{verbatim}(スーツ,遂行),(スーツ,起訴),(裁判,遂行),(裁判,起訴)\end{verbatim}本論文で対象とする翻訳多義解消とは,翻訳タームリスト候補の中から(入力タームリスト全体の与える文脈に照らして)最も適切なものを選ぶことである.
\section{翻訳多義解消モデル}
本論文で提案する手法は「翻訳タームリスト候補の中でターム同士の意味的関連性が高い方がそうでないものより妥当である」という仮定に基づいている.ここで,単語同士の意味的関連性の高さはこれらの単語がどの程度類似した文脈で出現しうるかによって定義する.たとえば,2章で挙げたsuitとprosecuteの場合,翻訳タームリスト候補内の意味的関連性が最も高いのは(裁判,起訴)であるからこれを選択する.形式的には,$n$個のタームから成る入力タームリスト$S=s_1^n$に対する最適な翻訳タームリスト$B(s_1^n)=\hat{T}=\hat{t_1^n}=\hat{t_1},\ldots,\hat{t_n}$は次の式で与えられる\vspace{5mm}\renewcommand{\arraystretch}{}\[\begin{array}{cccc}\hat{T}&=&\arg&\hspace{-3mm}\maxrel(T)\nonumber\\&&{\itT}&\nonumber\end{array}\]\renewcommand{\arraystretch}{}ここで,$rel(T)$は翻訳ームリスト候補$T$に対する\ikanrenの値で{\bf\ikd}あるいは単に{\bf\kd}と呼ぶ.本研究では以下で示すように\ikdを{\bf単語空間(WordSpace\cite{Schuetze97})}と呼ばれる多次元ベクトル空間を用いて定義する.\subsection{共起頻度による\ikdの定義}単語空間を使った\ikdの定義を行なう準備として,コーパス中のタームの共起頻度をそのまま使った\ikdを定義する.まず,ターム間の共起頻度を行列で表現する.この行列の行と列はどちらも異なりタームに対応し,$(i,j)$要素は$i$行目のターム$w_i$と$j$列目のターム$w_j$とのコーパスにおける共起頻度である.ここで,2つのタームの共起頻度とはこれらがあらかじめ決められた$p$語以内の近さでテキスト中に表れる頻度である\footnote{slidingwindowによる共起関係の定義}.以下ではこの行列のことを{\bf共起行列}と呼ぶ.表\ref{tab.cooc}に共起行列の例を示す.この例は,たとえば「訴訟」と「法」とがコーパス中で246回共起していることを表している.\begin{table}[htb]\caption{共起行列の例(Anexampleofaco-occurrencematrix).}\label{tab.cooc}\begin{minipage}{\columnwidth}\vspace{3mm}\small\begin{center}\begin{tabular}{l||l|l|l|l|l}&$\ldots$&法(law)&$\ldots$&百貨店(departmentstore)&$\ldots$\\\hline\hline&&&&&\\\hline訴訟(law:suit)&$\ldots$&246&&1&\\\hline&&&&&\\\hlineスーツ(garment:suit)&$\ldots$&9&$\ldots$&88&\\\hline&&&&&\\\hline&&&&&\\\end{tabular}\end{center}\end{minipage}\end{table}この共起行列の$i$行目の行ベクトル(長さを1に正規化したもの)をターム$w_i$に対する{\bf共起ベクトル}と呼び$\vec{w_i'}$で表す.共起ベクトルはそのタームが他のタームとどのような共起関係にあるかを表している.この定義から明らかな通り,2つのタームが他のタームと同じような比率で共起しているならば,これら2つのタームに対応するベクトルは近い方向を向く.そこで,2つのターム$w_i,w_j$の意味的な近さ$prox(w_i,w_j)$をこれらのタームに対応するベクトル$\vec{w_i'},\vec{w_j'}$のなす角の余弦($cos(\vec{w_i'},\vec{w_j'})$)として以下のように定義する\footnote{$\bullet$は二つのベクトルの内積を表す記号}.\begin{eqnarray}prox(w_i,w_j)=cos(\vec{w_i'},\vec{w_j'})\label{f.prox}\\\:where\:\:cos(\vec{a},\vec{b})=\frac{\vec{a}\bullet\vec{b}}{\sqrt{\mid\vec{a}\mid^2\mid\vec{b}\mid^2}}\nonumber\end{eqnarray}この「近さ」の概念を$n$タームに拡張したものが$n$要素から成るタームリストの\ikdの定義である.具体的には,ターム列$w_1^n=w_1,w_2,\ldots,w_n$に関する共起頻度に基づく\ikd$rel'(w_1^n)$を下記のように定式化する.\begin{eqnarray}rel'(w_1^n)&=&\frac{1}{n}\sum_{i=1}^ncos(\vec{w_i'},\vec{c}(w_1^n))\label{f.coh}\\where\:\:\vec{c}(w_1^n)&=&\frac{1}{n}\sum_i^n\vec{w_i'}\end{eqnarray}すなわち,n個のターム$(w_1^n)$に対応するn個のベクトルの重心$\vec{c}(w_1^n)$をまず計算し,この重心からそれぞれのベクトルまでの「近さ(式(\ref{f.prox}))の平均」を共起行列における\ikdとする\footnote{空間上の複数の点の「ちらばりの程度」を表す尺度として一般的に使われるのは平均からの自乗偏差であるが,本研究では点の間の近さを余弦を使って定義したので式(\ref{f.coh})を用いた.}.\subsection{単語空間における\ikd}上記で定義した\kdはコーパス中のターム間の共起頻度をそのまま使っているためデータスパースネスの問題がある.また行列の次元が大きくなりすぎて計算機での扱いが難しいという問題もある.これらの問題を解決するために共起行列に固有値分解(SingularValueDecomposition:SVD)を適用し行列(の階数)を縮退させる(なおSVDによる行列の縮退については付録参照).このようにしてできた行列を{\bf縮退共起行列}と呼ぶ.縮退共起行列には元の共起行列では陽に現れていないターム間の間接的な共起関係が表れることが知られている(higherorderco-occurence)\footnote{文献\cite{Schuetze97}p.91}.すなわち,$w_i$と$w_j$がコーパス中で直接共起していなくても,$w_i$と$w_k$,$w_j$と$w_k$が数多く共起していれば,縮退した行列では$(i,j)$要素の値がある正の値になる.この縮退されたベクトル空間を単語空間(wordspace)と呼ぶ\footnote{「単語空間」はLSI(LatentSemanticIndexing)\cite{Deerwester90}と密接な関係がある.前者はタームとタームの共起行列にSVDを適用したものであり,後者は文書に対する各タームの生起行列にSVDを適用したものである.これらの情報検索における相違点に関しては\cite{Schuetze97b}を参照のこと.}.この縮退共起行列の$i$番目の行ベクトルを$w_i$に対する縮退共起ベクトルと呼び$\vec{w_i}$と表す.単語空間に基づく\ikd$rel(w_1^n)$とは前節の\ikd($rel'(w_1^n)$)の定義において各単語($w_i$)に対する共起ベクトル($\vec{w_i'}$)を縮退共起ベクトル($\vec{w_i}$)に置き換えたものである.
\section{アルゴリズム}
label{S.Algorithm}3章で述べた\kdの定義には重心(平均)を求める操作が含まれているため,動的計画法などのような部分問題への分割を前提とした効率的なアルゴリズムが適用できない.従って,基本的には各翻訳タームリスト候補に対して総当たり的に\kdを計算する方法によらざるを得ない.この問題に対して本研究では以下に示すような枝刈りを適用して計算量の削減を図った.\subsection{総当たり法(基本アルゴリズム)}根接点を1段目として$i$段目の節点から出るリンクが$i$番目のタームに対する訳語候補に対応するような探索木を考える(図\ref{FigTermList}に例を示す).この木の各葉接点(図の右端の節点)が一つの翻訳タームリスト候補に対応する.\begin{figure}\begin{center}\epsfile{file=Fig1_termlist.eps,width=5cm}\end{center}\caption{翻訳タームリスト候補に対する探索木(Asearchtreeforpossibletranslations).}\label{FigTermList}\end{figure}枝刈りの前提となる{\bf総当たり法}とはこの探索木を深さ優先で辿り,葉節点に到達するたびに\kdを計算することによって\ikdが最大の候補を決定する方法である.\subsection{枝刈り}\subsubsection{準備}入力タームリスト$S=s_1^n$を先頭の$m\:$個$(m<n)$からなる$s_1^m$の部分と残りの$s_{m+1}^n$の部分に分ける.$s_1^n$に対する翻訳タームリスト候補のうち,$s_1^m$に対する訳語を$u_1^m$に固定した時,\kdが最大であるものを$C_m(S,u_1^m)$で表わすと次の不等式が成立する(なお,付録にこの不等式の簡単な証明を示す).\begin{eqnarray}rel(C_m(S,u_1^m))\leq\frac{m*rel(u_1^m)+(n-m)*rel(B(s_{m+1}^n))}{n}\label{bound}\end{eqnarray}ここで,$B(s_{m+1}^n)$は入力が$s_{m+1}^n$の場合の最適な翻訳タームリストである.従って,式(\ref{bound})の右辺は,$u_1^m$に対する\kdの値と$s_{m+1}^n$の部分のみを考えた場合の最適な翻訳タームリスト($B(s_{m+1}^n)$)の\kdの値をそれぞれのタームの個数で重みを付けて平均したものとなる.この不等式は,$s_1^m$の部分に対する訳語を$u_1^m$に固定したとき,$m+1$以降のタームに対する訳語をどのように選んでもタームリスト全体の\kdの値が右辺を越えないこと(上限)を表している.なお,等号が成り立つのは$u_1^m$の重心と$B(s_{m+1}^n)$の重心(の方向)が一致する時である.\subsubsection{枝刈り手法}前記の不等式(\ref{bound})を用いて「総当たり法」に対する次のような枝刈りを行なう.\begin{quote}\begin{description}\item[前処理]まず,タームリストの末端(右端)から$l(l=1,\ldots,k)$個の各部分に対する最適翻訳タームリストの\ikdの値$rel(B(s_{n-l+1}^n))$を計算しておく.これらの値は次に述べる「枝刈り」ステップにおいて利用する.ここで$k$は$n$より小さいある値で「枝刈り判定ターム数」と呼ぶ.なお,この前処理自体に最適な翻訳タームリストを求める処理が入っているが,これは本アルゴリズム全体を再帰的に適用することによって行なう.\item[枝刈り]総当たり法と同様の深さ優先の探索によって,探索木を根(タームリストの左端)から$m+1(但し,n-k\leqm)$番目の深さのある節点(X)まで進んだとする(図\ref{FigStree}の節点X).根節点からXまでの経路に対応する(先頭から$m$個分の)訳語の列を$u_1^m$とし,既に生成された翻訳タームリスト(すでに辿った葉節点)の\ikdの値のうち最大のものをmaxとする(図\ref{FigStree}のmax).この$u_1^m$に対して先の前処理で計算した$rel(B(s_{n-l+1}^n))$を使って式(\ref{bound})の右辺の値(\ikdの上限値)を計算し,この値がmaxより小さいならば,節点X以降のパスの探索(図\ref{FigStree}の斜線部分)を中止する.\end{description}\end{quote}\begin{figure}\begin{center}\epsfile{file=Fig2_Stree.eps,height=4cm}\end{center}\caption{枝刈り(Anexampleofpruning).}\label{FigStree}\end{figure}この枝刈りを含んだアルゴリズム全体の計算量は最悪の場合,すなわち,枝刈りが一回も起こらなかった場合,元の総当たり法の計算量と前処理の計算量の和になるため,元の総当たり法より計算量が増える.しかし,実際には後述するように50\%以上計算時間が短縮される.
\section{評価実験}
新聞記事から抽出したタームリストに対して本手法を適用し,多義解消精度,処理効率に関する評価実験を行った.実験手順は次の通りである.\begin{enumerate}\item英語の新聞記事から単語を抽出して入力タームリストを作成する\item作成されたタームリストに対して英和辞書引きを行い訳語候補を得る\item提案手法,および,既存の他の手法によって多義解消を行いこれらの結果を人手で作られた正解と比較する.\end{enumerate}この実験を「翻訳実験」と呼ぶ.翻訳実験は本手法本来の用途に沿ったものであるが,「正解」を人手で作成する必要があるため客観性を保持して大量のデータを用意するのにはコストがかかる.そこで,補助的な実験として,より大量の入力に対して「再翻訳実験」と呼ばれる実験を行った.再翻訳実験とは,上記2で得られた(日本語)訳語候補の各々に対して逆方向の辞書(和英辞書)を引くことによって英語の訳語候補を作り,英語コーパスを使って多義解消を行うものである.この場合,元のタームリストを「正解」とする.以下では,まず実験条件について述べ,次に結果を述べる.\subsection{実験条件}\subsubsection{コーパスと前処理}英語コーパスとして1994年下半期のNewYorkTimes(420MB)\footnote{LinguisticDataConsortium},日本語コーパスとして1994年の毎日新聞(140MB)を利用した.英語コーパスについては,まず,スペース等をデリミタとして単語単位に分割し,次に,log-likelihoodによって隣接共起性の強い2つの単語(たとえばvicepresidentなど)を一つにまとめる処理\cite{Dunning93}を行った.日本語コーパスに関してはJTAG\cite{Fuchi97j}を使って形態素単位に分割し,英語と同様に隣接共起性の強い2単語をまとめたものをタームとした.\subsubsection{入力タームリスト}入力タームリストは次の手順で作成した.\begin{enumerate}\item前述の英語コーパスから400記事をランダムに選ぶ\item各記事について出現するタームの重要度をtf-idf値\footnote{あるテキストにおけるターム$w$に対するtf-idf値は$tf_wlog(\frac{N}{N_w})$で与えられる.ここで$tf_w$は$w$のテキスト中での出現頻度,$N$はテキストの総数$N_w$は$w$を含むテキストの数である.}によって計算し上位から順に20単語抽出する.\end{enumerate}\subsubsection{訳語候補}前述の方法によって作られたタームリストに対して対訳辞書を引いて訳語候補を作成した.対訳辞書としては,入手が容易なことと約77000語という語彙の多さからEDICT\cite{Breen95}を和英辞書として用い,英和辞書はこのEDICTを逆変換して作成した.なお,EDICTの単語1語あたり平均訳語数は1.72である.\begin{itemize}\item翻訳実験用前述の英語タームリストのうちさらにランダムに70個を選び,英和辞書を使って各タームに対する訳語候補を生成した.次に,これらの訳語候補の中から人手で正解(複数可)にマークした.あるタームの訳語候補の中に正解が存在しない場合,精度の判定ができないので,そのターム自体をリストから除いた.そして,最後に残ったものの中から重要度(tf-idf値)の大きい順に10個選んで実験用の入力とした.表\ref{Tab.Tdata}に各タームリストの先頭$n$単語(ターム)を取り出した場合の総語数,平均訳語数,多義語数,平均多義数を示す.ここで平均訳語数とは1語あたりの訳語数を全タームに対してとった平均であり\footnote{辞書全体の平均より若干大きいのは対象語が相対的に多義数の多い頻出語であるためと思われる.},平均多義数とは翻訳多義解消という観点からみたもので,多義性のあるタームのみを対象に訳語候補数を正解数で割ったもの(の平均)である\footnote{なお,多義性のあるタームに対する平均訳語数は4.11.}.表によると平均多義数はおおよそ2.3であり.ランダムに訳語を選んだ場合,多義性のある単語に対する平均正解率は1/2.3=0.43となる.\begin{table}\caption{翻訳実験データ(Testdatafortranslationexperiment).}\label{Tab.Tdata}\begin{center}\begin{tabular}{llllll}\hline$n$&2&4&6&8&10\\\hline総語数&146&292&438&576&669\\平均訳語数&1.99&1.95&2.03&2.13&2.12\\多義語数&71&141&216&285&224\\平均多義数*&2.32&2.29&2.32&2.38&2.38\\\hline\end{tabular}\\$*$:各翻訳多義語に対して訳語候補数を正解訳語数で割った値の平均\end{center}\end{table}なお,正解訳語が存在しないために除かれたタームは全体の10\%あり,そのうち64\%が固有名詞,18\%が複合語,残りが通常の単語であった.固有名詞の大部分は日本語テキストにはあまり出現しない人名や組織名などであり,基本的に訳語が一意に決まるため多義解消の対象にはならない.また,これらの単語は翻訳先言語に殆んど出現しない人名や組織名であるため(提案手法および比較に用いた他の手法において)他の語の多義解消に与える影響も少ない.複合語については個々の単語に分割して辞書引きするという方法もあり得るが,今回は単に辞書項目なしという扱いとした.\item再翻訳実験用再翻訳実験用の訳語候補は前述の400個のタームリスト全てを使い,各タームに対して,まず,英和辞書を引き,次に,得られた訳語の各々に対して和英辞書を引いて,それらの集合和を取り訳語候補とした.正解は元のタームである.なお,英和辞書に掲載されていないタームについては訳語候補を元の単語のみ(多義なし)とした.再翻訳実験用データの平均多義数はタームリスト長$n$に比例して増大する傾向にあり,$n=2$の時4.38,$n=10$の時5.42である.\end{itemize}\subsubsection{多義解消用の共起行列}前述の形態素解析済み日本語コーパスから名詞,動詞などの内容語で頻度が上位から50,000までの語を選び,この中からさらに上位1,000語を選んで,前者を行と後者を列とするような共起行列(50,000$\times$1,000)を作成した.なお,2つの単語がコーパス内で50語以内\footnote{10,30,50,70と変えて実験を行い結果が最も良いものを選択した}に出現している時,これらが共起しているとした.得られた共起行列をSVDPACKC\cite{Berry93}によって50,000x100の行列に変換した.再翻訳実験用の英語共起行列は英語コーパスのうち入力タームリストの作成に使った400記事を除いたものを使い上記と同様にして作成した(英語に関してはあらかじめ作られた「ストップ語リスト」に含まれない単語を内容語とした).\subsubsection{低頻度語の扱い}訳語候補のうち共起行列に存在しないもの(上位50,000語に含まれないもの)に対しては単語ベクトルが未定義となってしまう.これらの単語についてはコーパス中でその前後20語に出現する単語のベクトルを平均した値を近似値として用いた\footnote{LSIを使った情報検索における未知タームの扱い\cite{Dumais94}を参考にした}.なお,コーパス中に一度も出現しない単語については訳語候補から削除した.\subsection{精度比較用アルゴリズム}比較のため二つの多義解消アルゴリズムを用いた.\subsubsection{訳語のユニグラム頻度に基づく方法(ユニグラム法)}一つ目の手法は「あるタームが複数の訳語を持つ場合,目的言語における出現確率(ユニグラム確率)が最大のものを選ぶ」という方式である.これをユニグラム法と呼ぶ.ある単語の目的言語における生起確率の推定値は,単純に,共起行列の作成に用いたコーパスにおけるその単語の出現数をコーパスの総語数で割ったものを用いた.\subsubsection{訳語間の相互情報量に基づく方法(訳語共起法)}二つ目の手法として,目的言語コーパスのみを用いた既存の多義解消手法の代表として訳語同士の共起頻度に基づくアルゴリズム\cite{Tanaka96}を用いた.この手法では,各翻訳タームリスト候補について「共起スコア」を計算しこの値が最大のものを選ぶ.ある翻訳タームリスト候補に対する共起スコアはその翻訳タームリスト内の単語を2つ取り出してできる全ての組み合わせについて,目的言語コーパスから得られる2語共起のスコア(文献\cite{Tanaka96}では相互情報量\footnote{単語Aと単語Bの間の相互情報量は$Nf_{AB}/(f_Af_B)$で与えられる.ここで,$N$は総語数,$f_A,f_B$はそれぞれA,Bの出現頻度を,$f_{AB}$はAとBとが一定の近さで出現する頻度}を利用)を計算し,その総和を取ったものと同等である\footnote{正確な定義は文献\cite{Tanaka96}を参照のこと.}.なお,共起を判定する基準は我々の手法と同じく2つの単語が50語以内に出現することとした.\subsection{実験結果}\subsubsection{日英翻訳における翻訳精度}翻訳実験では各タームリストの先頭から$n$個($n$は2から10)取り出してできるタームリストに対して,4つの手法で多義解消を行ない精度の比較を行った.ここで,4つの手法とは,提案手法,SVDを適用する前の生の共起行列を使うもの,5.2で述べた2つの比較用アルゴリズムである.\begin{figure*}[t]\begin{center}\epsfile{file=Fig3_gra5e.eps,height=7cm}\end{center}\caption{提案手法,ベースライン,訳語候補の共起に基づく手法の翻訳精度(translationresults).}\label{Fig.Trans}\end{figure*}図\ref{Fig.Trans}にその結果を示す.ここで,図の縦軸は多義語1語あたりの翻訳正解率,横軸は入力タームリストの長さ($n$)を表す.なお,「多義語1語あたりの正解率」とは全ての翻訳多義語(不正解訳語を候補として持つターム)の中でシステムの出力が正解だったものの比率である.5.1.3で述べた通り,ランダムに訳語を選択した場合の理論値は0.43となる.図中のProposed,Non-SVD,Unigramはそれぞれ,提案手法,提案手法で縮退共起行列の代わりに(SVDを適用する前の)共起行列を使うもの,ユニグラム法,に対応する.また,MI,MI'はどちらも訳語共起法の結果であるが,前者は適用不可能なもの\footnote{共起度最大のものが一意に定まらなかったもの}(入力の19\%)の正解率を0,後者はこれをランダム選択の場合の値(0.43)とした場合の正解率である.なお,訳語共起法に関する実験値は論文\cite{Tanaka96}の値(MI=0.62,適用率=76\%)とほぼ一致している図より明らかな通り,正解率の高い順にProposed,Non-SVD,Unigramとなり,この3つの中でのSVDを使った提案手法の有効性が検証された.訳語共起法との比較でも提案手法の方が高くなった.提案手法の正解率の最大値はタームリスト長8の時で77.4\%,このときの多義性のない単語を含めた正解率(全体の正解率)は89.4\%である.タームリスト長と正解率の関係であるが,提案手法では長さ$n$が8,MIは5で正解率極大,non-SVDは9でわずかに極大となった.極大点が生じる理由としては,タームリストが長くなるにつれて文脈情報が増加するが,長くなりすぎると(tf-idf値の低い単語[ノイズ単語]が含まれるために)タームリスト中の単語の意味的関連性が下がるため,と考えられる.なお,手法によって極大点が異なるのはこれらタームリスト増加によるメリットとデメリットの影響が手法によって違うためであると考えられる.特に,MIの方が提案手法より小さい$n$で極大となるのは,前者の方法が基本的に2単語間の共起関係を用いてスコアを計算しているので,タームリスト全体でスコアを求める後者の方法より単語増加によるメリットを受けにくいためと推測できる.また,non-SVDにおいてはベクトルの信頼性が低いために少ない個数ではノイズの方が大きいことを示していると思われる.なお,これらの詳しい検証は今後の課題である.\subsubsection{再翻訳実験における翻訳精度}翻訳実験と同様にタームリスト長を変えて多義解消を行いProposed,Non-SVD,Unigramに対して翻訳精度を求めた.その結果を図\ref{Fig.Retrans}に示す.図の見方は前節と同様である.なお,``-normalized''の付いているものは多義語に関する一語あたりの平均多義数が一定になるように正規化したものである.図より値の傾向は翻訳実験と同じであることが分かる.\begin{figure*}[t]\begin{center}\epsfile{file=Fig4_gra3e.eps,height=7cm}\end{center}\caption{再翻訳精度とタームリスト長の関係(Re-translationresults).}\label{Fig.Retrans}\end{figure*}\subsubsection{枝刈りの効果}枝刈りの効果を調べるために,長さ8および10のタームリストに対して再翻訳実験を行ない,処理時間を測定した.縦軸にタームリスト一つあたりの処理時間(秒),横軸に枝刈り判定ターム数(4.2章の「前処理」における$k$の値)を取ったグラフを図\ref{Fig.Pruning}に示す.\begin{figure}\begin{center}\epsfile{file=Fig5_graTe.eps,height=7cm}\end{center}\caption{枝刈りと処理時間の関係(ProcessingTimevs.Pruning.)}\label{Fig.Pruning}\end{figure}この図から明らかな通り,枝刈りによって60\%-70\%の削減となった.また,元のタームリストの長さの半分の長さを使って枝刈りの可否の判定を行なうと計算量はほぼ最小となることが分かった.さらに,ここで注目すべきなのは,判定ターム数が2でも計算時間は半分以下になるということである.
\section{考察}
\subsection{失敗例の分析}失敗例のうち我々の手法に関係するもの\footnote{その他の失敗原因として,形態素解析誤り,複合語(特に複合固有名詞)の認定誤りなどがあげられる}は次の2種類である.1つ目は多義解消すべき単語の出現する文脈が極めて近いものである.たとえば``share''に対する訳語の「シェア(市場占有率)」と「株」はどちらも会社の業績や将来性に関する文脈で出現するため識別が難しい.文翻訳であれば\cite{Dagan94}のような統語的依存関係を用いてより精密な識別が可能であるが,タームリストの場合は難しい.2つ目は訳語候補が多義性を持つ場合である.ある訳語候補が多義性を持ち,その意味の一つが非常に一般的である(様々な単語と共起する)場合,この一般的な単語が訳語として選択されやすくなる.この理由として,この種の単語のベクトルは各次元に対して「平均的な」値を持つため,ベクトルの方向が他の単語の重心ベクトルの方向に近くなることが考えられる.後者の問題はDaganら\cite{Dagan94}によって既に指摘されており,解決法として1)より大きなコーパスで共起関係を学習する,2)パラレルコーパスを使う,\footnote{目的言語側の共起関係を原言語側の共起関係によって分類し,入力に応じたものを利用する.}という2点が挙げられている.これらに加えて,共起関係を学習する前にあらかじめ単言語の意味多義解消手法\footnote{たとえば\cite{Schuetze97}\cite{Pereira93}など}によってコーパス中の単語の意味多義を解消しておくことが考えられる.\subsection{関連研究}Daganら\cite{Dagan94}はテキスト中で統語的な依存関係(例えば,動詞-目的語,名詞-形容詞など)にある2つの単語を対象に,これらの単語に対する訳語候補の最適な組み合わせを決定する方法を提案した.訳語の組み合わせの妥当性は目的言語コーパス中でのこれらの共起頻度によって評価する.また,田中\cite{Tanaka96}らは同一文に出現する任意個の単語を対象としてやはり目的言語側での共起頻度をもとに最適な訳語の組み合わせを求める手法を提案している.はじめに述べた通り,第一の相違点は彼らの方法がコーパス中の共起情報のうち訳語候補間に関する共起頻度しか利用していないのに対して,我々の方法はコーパス全体の共起情報から計算された高次の情報を使っていることである.第二の相違点は,彼らが目的言語コーパスから得られた共起頻度をそのまま使っているのに対して我々のはSVDによって一種のスムージングを施した値を使っている点である.すなわち,我々の方法はコーパス中の情報をより有効に利用していると考えられ,このことが精度向上の一つの理由だと考えられる.
\section{おわりに}
本論文ではタームリスト中の各単語の\ikanrenに着目した翻訳多義解消方式を提案した.本手法は多義語に対して平均77.4\%の正解率を持ち,デフォールトのタームリスト翻訳結果として有用であると考えられる.また,本手法は,単語ごとに分割された目的言語のコーパスのみの教師なし学習に基づいており,入力や学習データに対する統語的解析を要さないという利点を持っている.今後の課題として学習コーパスから共起情報を取り出す際の最適な共起の範囲を自動的に決定すること,また,学習コーパス中の単語に対してあらかじめ多義解消をした場合の効果を評価することがあげられる.クロスランゲージ検索など実際の応用システムに適用した場合,また,通常の文翻訳に適用した場合の性能評価(クロスランゲージ検索の場合は適合率/再現率)も今後の課題である.\acknowledgment本研究は著者がスタンフォード大学言語情報研究センター(CSLI)滞在中に行なったものである.研究内容に関するアドバイスとサポートを頂いた同大学のStanleyPeters教授,および,CSLIInfomapグループのメンバーに感謝する.また,論文全体に関するコメントを頂いたNTTサイバースペース研究所の林良彦氏,アルゴリズムに関するアドバイスを頂いた同研究所の村本達也氏に感謝する.\appendix
\section{SVDによる共起行列の縮退}
行列$A$に対するSVDとは次の式を満たす$U_{0},S_{0},V_0^{-1}$を求めることである.\begin{eqnarray*}A&=&U_0S_0V_0^T\end{eqnarray*}ここで,$U_0U_0^T=V_0V_0^T=I(Iは単位行列)$,$S_0$は対角行列$diag(s_0,...,s_n)$で$s_i>s_j>0if(i>j)$を満たす.$S_0$の対角要素のうち$k$より大きいものを全て0と置いたものを$S$とし,$U_0,V_0$の先頭から$k$列目までの部分行列をそれぞれ$U,V$とすると,\begin{eqnarray*}\hat{A}=USV^{T}\end{eqnarray*}は$A$の階数を$k$に落した近似になっている.Aを共起行列と考えると$w_i,w_j$の類似性を表す行列は$AA^{T}$で得られる.$A$の代わりに$\hat{A}$を使うと,\begin{eqnarray*}\hat{A}\hat{A}^{T}=LSR^{T}(LSR^{T})^{T}=LS(LS)^{T}\label{aa}\end{eqnarray*}となり,L,Sという次元の小さい行列によって単語間の類似性が計算できることが分かる.なお,さらに詳しい説明は文献\cite{Deerwester90}\cite{Schuetze97}を参照されたい.
\section{不等式(4)の証明}
$S=s_1,\ldots,s_n$に対応する任意の翻訳タームリストを$T=t_1,\ldots,t_n$その最初の$m(m\leqn)$個からなるタームリストを$t_1^m$,残りを$t_{m+1}^n$とすると次の式が成立する.\begin{eqnarray}rel(T)\leq\frac{m*rel(t_1^m)+(n-m)*rel(t_{m+1}^n)}{n}\label{f1}\end{eqnarray}\begin{quotation}\noindent[証明]\\\noindent$T$の各タームに対応するベクトル(長さを1に正規化したもの)を$\vec{x_1},\ldots,\vec{x_n}$,ターム集合$T,t_1^m,t_{m+1}^n$それぞれに対するベクトル集合の重心をそれぞれ$\vec{g},\vec{g_1},\vec{g_2}$とすると,式(\ref{f1})の左辺は\begin{eqnarray}rel(T)=\frac{1}{n}\sum_{i=1}^nprox(\vec{x_i},\vec{g})=\frac{1}{n}\sum_{i=1}^n\frac{\vec{x_i}\bullet\vec{g}}{\mid\vec{g}\mid}=\frac{1}{n}\frac{n\vec{g}\bullet\vec{g}}{\mid\vec{g}\mid}=\mid\vec{g}\mid\label{f1.l}\end{eqnarray}\noindentとなる($\mid\vec{g}\mid$は$\vec{g}$の長さを表す).右辺も同様に書き換えると\begin{eqnarray}\frac{m*rel(t_1^m)+(n-m)*rel(t_{m+1}^n)}{n}=\frac{m*\mid\vec{g_1}\mid+(n-m)*\mid\vec{g_2}\mid}{n}\label{f1.r}\end{eqnarray}\noindentのようになる.ここで重心の定義から\begin{eqnarray}n\vec{g}=n*\frac{1}{n}\sum_{i=1}^n\vec{x_i}=\sum_{i=1}^m\vec{x_i}+\sum_{i=m+1}^n\vec{x_i}=m\vec{g_1}+(n-m)\vec{g_2}\end{eqnarray}が成立しているので,(\ref{f1.r})の値は(\ref{f1.l})と同じか大きい.なお,等号が成立するのはベクトル$\vec{g},\vec{g_1},\vec{g_2}$の向きが同じ時である.\begin{flushright}(証明終)\end{flushright}\end{quotation}式(\ref{f1})の$T$の部分に$C_m(S,u_1^m)=u_1,\ldots,u_m,z_{m+1},\ldots,z_n=u_1^m,z_{m+1}^n$を代入すると次の式が得られる.\begin{eqnarray}rel(C_m(S,u_1^m))\leq\frac{m*rel(u_1^m)+(n-m)*rel(z_{m+1}^n)}{n}\label{cent}\end{eqnarray}一方,$B(S)$の定義より\begin{eqnarray}rel(z_{m+1}^n)\leqrel(B(s_{m+1}^n))\label{tcbest}\end{eqnarray}であるから,(\ref{tcbest})と(\ref{cent})を組み合わせれば不等式(\ref{bound})が得られる.\begin{flushright}(証明終)\end{flushright}\bibliographystyle{jnlpbbl}\bibliography{v07n3_05}\begin{biography}\biotitle{略歴}\bioauthor{菊井玄一郎}{1986年京都大学工学部電気工学第二専攻修士課程修了.同年NTTに入社,現在に至る.自然言語処理,特に自動翻訳,多言語情報検索等の研究開発に従事.1990年から1994年までATR自動翻訳電話研究所に出向.1997年7月より1年間Stanford大学CSLI研究員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N03-07
|
\section{はじめに}
ゼロ照応解析は近年,述語項構造解析の一部として盛んに研究されている.ゼロ照応とは用言の項が省略される現象であり,省略された項(ゼロ代名詞)が他の表現を照応していると解釈できることからゼロ照応と呼ばれている.\ex.パスタが好きで、毎日($\phi$ガ)($\phi$ヲ)\underline{食べています}。\label{例:ゼロ照応}例えば,例\ref{例:ゼロ照応}の「食べています」では,ガ格とヲ格の項が省略されている.ここで,省略されたヲ格の項は前方で言及されている「パスタ」を照応しており,省略されたガ格の項は文章中では明確に言及されていないこの文章の著者を照応している\footnote{以降の例では,ゼロ代名詞の照応先を埋めた形で「パスタが好きで、毎日([著者]ガ)(パスタヲ)食べています。」のように記述する場合がある.ここで「[著者]」は文章内で言及されていない文章の著者を示す.}.日本語では曖昧性がない場合には積極的に省略が行われる傾向にあるため,ゼロ照応が文章中で頻繁に発生する.例\ref{例:ゼロ照応}の「パスタ」の省略のようにゼロ代名詞の照応先\footnote{先行詞と呼ばれることもあるが,本論文では照応先と呼ぶ.}が文章中で言及されているゼロ照応は{\bf文章内ゼロ照応}と呼ばれ,従来はこの文章内ゼロ照応が主な研究対象とされてきた.一方,例\ref{例:ゼロ照応}の著者の省略のようにゼロ代名詞の照応先が文章中で言及されていないゼロ照応は{\bf外界ゼロ照応}と呼ばれる.外界ゼロ照応で照応されるのは例\ref{例:ゼロ照応}のような文章の著者や読者,例\ref{外界:不特定人}のような不特定の人や物などがある\footnote{一般に外界照応と呼ばれる現象には,現場文脈指示と呼ばれる発話現場の物体を指示するものも含まれる.本研究では,このようなテキストの情報のみから照応先を推測できない外界照応は扱わない.また,実験対象としたコーパスにも,画像や表を照応している文書などはテキストのみから内容が推測できないとして含まれていない.}.\ex.内湯も窓一面がガラス張りで眺望がよく、快適な湯浴みを([不特定:人]ガ)\underline{楽しめる}。\label{外界:不特定人}従来,日本語ゼロ照応解析の研究は,ゼロ照応関係を付与した新聞記事コーパス\cite{KTC,iida-EtAl:2007:LAW}を主な対象として行われてきた.新聞記事は著者から読者に事件の内容などを伝えることが目的であり,社説や投書の除いては著者や読者が談話構造中に登場することはほとんどない.一方,近年ではWebを通じた情報伝達が盛んに行われており,Webテキストの言語処理が重要となってきている.Webテキストでは,著者自身のことを述べたり,読者に対して何らかの働きかけをすることも多く,著者・読者が談話構造中に登場することが多い.例えば,Blogや企業の宣伝ページでは著者自身の出来事や企業自身の活動内容を述べることが多く,通販ページなどでは読者に対して商品を買ってくれるような働きかけをする.このため,著者・読者に関するゼロ照応も必然的に多くなり,その中には外界ゼロ照応も多く含まれる.\cite{hangyo-kawahara-kurohashi:2012:PACLIC}のWebコーパスではゼロ照応関係の54\%が外界ゼロ照応である.このため,Webテキストに対するゼロ照応解析では,特に外界ゼロ照応を扱うことが重要となる.本研究では,ゼロ照応を扱うためにゼロ代名詞の照応先候補として[著者]や[読者]などの文章中に出現しない談話要素を設定することで,外界ゼロ照応を明示的に扱う.用言のある格が直接係り受け関係にある項を持たない場合,その格の項は表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}の3種類に分類される.1つ目は「(a)文章内ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先は文章中の表現である.2つ目は「(b)外界ゼロ照応」であり,項としてゼロ代名詞をとり,その照応先に対応する表現が文章中にないものである.3つ目は「(c)ゼロ照応なし」であり,項はゼロ代名詞をとらない,すなわちその用言が本質的にその項を必要としない場合である.外界ゼロ照応を扱うことにより,照応先が文章内にない場合でも,用言のある格がゼロ代名詞を項に持つという現象を扱うことができる.これにより,格フレームなどの用言が項を取る格の知識とゼロ代名詞の出現が一致するようになり,機械学習によるゼロ代名詞検出の精度向上を期待することができる.\begin{table}[b]\caption{文章内ゼロ照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\label{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}\input{1011table01.txt}\end{table}用言が項としてゼロ代名詞を持つ場合,そのゼロ代名詞の照応先の同定を行う.従来研究ではその手掛かりとして,用言の選択選好\cite{sasano-kawahara-kurohashi:2008:PAPERS,sasano-kurohashi:2011:IJCNLP-2011,imamura-saito-izumi:2009:Short,hayashibe-komachi-matsumoto:2011:IJCNLP-2011}や文脈的な情報\cite{iida-inui-matsumoto:2006:COLACL,iida-inui-matsumoto:2009:ACLIJCNLP}が広く用いられてきた.本研究では,それらに加えて文章の著者・読者の情報を照応先同定の手掛かりとして用いる.先に述べたように,従来研究で対象とされてきた新聞記事コーパスでは,著者や読者は談話中にほとんど出現しない.そのため著者や読者の情報が文脈的な手掛かりとして用いられることはなかった.しかし,著者や読者は省略されやすいためゼロ代名詞の照応先になりやすい,敬語やモダリティなど著者や読者の省略を推定するための手掛かりが豊富に存在する,などの特徴を持つため,談話中の著者や読者を明示的に扱うことは照応先同定で重要である.また,著者や読者は前述のような外界ゼロ照応の照応先だけでなく,文章内に言及されることも多い.\ex.\underline{私}$_{著者}$はもともとアウトドア派ではなかったので,東京にいた頃もキャンプに行ったことはありませんでした。\label{著者表現1}\ex.\underline{あなた}$_{読者}$は今ある情報か資料を送って,アドバイザーからの質問に答えるだけ。\label{読者表現1}例\ref{著者表現1}では,文章中に言及されている「私」がこの文章の著者であり,例\ref{読者表現1}では「あなた」が読者である.本研究ではこのような文章中で言及される著者や読者を{\bf著者表現},{\bf読者表現}と呼び,これらを明示的に扱うことでゼロ照応解析精度を向上させる.著者や読者は人称代名詞だけでなく固有表現や役職など様々な表現で言及される.例えば,下記の例\ref{梅辻}では著者自身の名前である「梅辻」によって著者が言及されており,例\ref{管理人}では著者の立場を表す「管理人」によって言及されている.また,例\ref{お客様}では著者から見た読者の立場である「お客様」という表現によって読者が言及されている.本研究では人称代名詞に限らず,著者・読者を指す表現を著者・読者表現として扱うこととする.\ex.こんにちは、企画チームの\underline{梅辻}$_{著者}$です。\label{梅辻}\ex.このブログは、\underline{管理人}$_{著者}$の気分によって書く内容は変わります。\label{管理人}\ex.いくつかの質問をお答えいただくだけで、\underline{お客様}$_{読者}$のご要望に近いノートパソコンをお選びいただけます。\label{お客様}著者・読者表現は様々な表現で言及されるため,表層的な表記のみから,どの表現が著者・読者表現であるかを判断することは困難である.そこで,本研究では談話要素とその周辺文脈の語彙統語パターンを素性としたランキング学習\cite{herbrich1998learning,joachims2002optimizing}により,文章中の著者・読者表現の同定を行う.文章中に出現する著者・読者表現が照応先となることを推定する際には通常の文章中の表現に利用する手掛かりと著者・読者特有の手掛かりの両方が利用できる.\ex.僕は京都に(僕ガ)\underline{行こう}と思っています。\\皆さんはどこに行きたいか(皆さんガ)(僕ニ)\underline{教えてください}。\label{著者表現2}\ref{著者表現2}の1文目では「僕」が文頭で助詞「は」を伴ない,「行こう」を越えて「思っています」に係っていることから「行こう」のガ格の項であると推測される.これは文章中の表現のみが持つゼロ照応解析での手掛かりと言える.一方,2文目の「教えてください」では,依頼表現であることからガ格の項が読者表現である「皆さん」であり,ニ格の項が著者表現である「僕」であると推測できる.このような依頼や敬語,モダリティに関する手掛かりは著者・読者特有の手掛かりと言える.また,著者・読者特有の手掛かりは外界ゼロ照応における著者・読者においても同様に利用できる.そこで,本研究では,ゼロ照応解析において著者・読者表現は文章内ゼロ照応および外界ゼロ照応両方の特徴を持つものとして扱う.本論文では,文章中の著者・読者表現および外界ゼロ照応を統合的に扱うゼロ照応解析モデルを提案し,自動推定した著者・読者表現を利用することでゼロ照応解析の精度が向上することを示す.\ref{114736_18Jun13}節で関連研究について説明し,\ref{114801_18Jun13}節で本研究で利用する機械学習手法であるランキング学習について説明する.\ref{114838_18Jun13}節ではベースラインとなるモデルについて説明し,\ref{130555_9May13}節で実験で利用するコーパスについて述べる.その後,\ref{135602_6May13}節で著者・読者表現の自動推定について説明し,\ref{115042_18Jun13}節で著者・読者表現と外界照応を考慮したゼロ照応解析モデルを提案する.\ref{115121_18Jun13}節で実験結果を示し,\ref{115208_18Jun13}節でまとめと今後の課題とする.
\section{関連研究}
\label{114736_18Jun13}日本語でのゼロ照応解析は文章内ゼロ照応を中心に行われてきた.ゼロ照応解析の研究では,ゼロ代名詞は既知のものとして照応先の同定のみを行っているものがある.\cite{iida-inui-matsumoto:2006:COLACL}はゼロ代名詞と照応先候補の統語的位置関係を素性として利用することでゼロ照応解析を行った.この研究では,外界照応を,それに対応するゼロ代名詞に照応性がないと判断する形で扱っている.この研究では,表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}における(a)文章内ゼロ照応と(b)外界ゼロ照応を区別して扱っているが,(c)ゼロ照応なしについては扱っていないといえる.\cite{磯崎秀樹:2006-07-15}は,ランキング学習\footnote{当該論文中では優先度学習と呼ばれている.}を利用することで,ゼロ代名詞の照応先同定を行っている.この研究で扱うゼロ代名詞は文章内に照応先があるものに限定しており,表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}における(a)文章内ゼロ照応の場合のみを扱っているといえる.ゼロ照応解析は述語項構造解析の一部として解かれることも多い.述語項構造解析を格ごとに独立して扱っている研究としては\cite{imamura-saito-izumi:2009:Short,hayashibe-komachi-matsumoto:2011:IJCNLP-2011}がある.\cite{imamura-saito-izumi:2009:Short}は言語モデルの情報などを素性とした最大エントロピーモデルによるゼロ照応解析を含めた述語項構造解析モデルを提案している.このモデルでは各格の照応先の候補として,NULLという特別な照応先を仮定しており,解析器がこのNULLを選択した場合には,「項が存在しない」または「外界ゼロ照応」としており,これらを同一に扱っている.\cite{hayashibe-komachi-matsumoto:2011:IJCNLP-2011}は述語と項の共起情報などを素性としたトーナメントモデルにより述語項構造解析の一部としてゼロ照応解析を行っている.この研究でも外界ゼロ照応と項が存在しないことを区別して扱っておらず,また解析対象はガ格のみとしている.用言ごとに全ての格に対して統合的に述語項構造解析を行う研究としては\cite{sasano-kawahara-kurohashi:2008:PAPERS,sasano-kurohashi:2011:IJCNLP-2011}がある.\cite{sasano-kawahara-kurohashi:2008:PAPERS}はWebから自動的に構築された格フレームを利用し,述語項構造解析の一部としてゼロ照応解析を行う確率的モデルを提案した.\cite{sasano-kurohashi:2011:IJCNLP-2011}は格フレームから得られた情報や照応先の出現位置などを素性として対数線形モデルを学習することで,識別モデルによるゼロ照応解析を行った.これらの研究では外界ゼロ照応は扱っておらず,外界ゼロ照応の場合にはゼロ代名詞自体が出現しないものとして扱っている.これらの研究では表\ref{文章内照応,外界ゼロ照応,ゼロ照応なしの分類とその例}における(b)外界ゼロ照応と(c)ゼロ照応なしを区別せず扱っているといえる.外界ゼロ照応を扱った研究としては\cite{山本和英:1999,平2013}がある.\cite{山本和英:1999}では対話文に対するゼロ代名詞の照応先の決定木による自動分類を行っている.この研究では,ゼロ代名詞は既知として与えられており,その照応先を5種類に分類された外界照応,および文章内照応(具体的な照応先の推定までは行わない)の計6種類から選択している.また,話題は旅行対話に限定されている.この研究では,機能語および用言の語彙情報がゼロ照応における素性として有効であるとしている.機能語,特に待遇表現は著者・読者に関する外界ゼロ照応解析で有効であると考えられ,本研究でも機能語の情報を素性として利用する.一方,用言の語彙情報は文章内ゼロ照応において有効であるとしているが,これは話題を限定しているためであると考えられ,本研究の対象である多様な話題を含むコーパスに対しては有効に働かないと考えられる.本研究では,格フレームにおける頻度情報などとして用言の情報を汎化することで,用言の情報を扱うこととする.また,この研究ではゼロ代名詞を既知としているため,ゼロ代名詞検出において外界ゼロ照応を扱うことの影響については議論されていない.\cite{平2013}では新聞記事に対する述語項構造解析の一部として外界ゼロ照応も含めたゼロ照応解析を扱っている.新聞記事コーパスでは外界ゼロ照応自体の出現頻度が非常に低いと報告しており,外界ゼロ照応の精度(F値)はガ格で0.31,ヲ格で0.75,ニ格で0.55と非常に低いものとなっている.また,これらの研究では文章中に出現する著者・読者(本論文における著者・読者表現)と外界の著者・読者との関係については扱っていない.日本語以外では,中国語,ポルトガル語,スペイン語などでゼロ照応解析の研究が行われている.中国語においてはゼロ照応解析は独立したタスクとして取り組まれることが多い.\cite{kong-zhou:2010:EMNLP}ではゼロ代名詞検出,照応性判定,照応先同定の3つのサブタスクにおいて構文木を利用したツリーカーネルによる手法が提案されている.ポルトガル語,スペイン語では述語項構造解析の一部ではなく,照応解析の一部としてゼロ照応解析に取り組まれることが多い.これらの言語では主格にあたる語のみが省略されるが,照応解析の前処理として省略された主格を検出し,照応先が文章内にあるかを分類する研究が行われている\cite{poesio2010creating,rello2012elliphant}.英語においてはゼロ照応解析に近いタスクとして意味役割付与の研究が行われている\cite{gerber-chai:2010:ACL,ruppenhofer-EtAl:2010:SemEval}.\cite{gerber-chai:2010:ACL}では頻度の高い10種類の動作性名詞に対して,直接係り受けにないものも項として扱い意味役割付与を行ったデータを作成している.また,共起頻度の情報などを利用して自動的に意味役割付与を行っている.\cite{ruppenhofer-EtAl:2010:SemEval}では意味役割付与タスクの一部として省略された項を扱っている.また,省略された項については,照応先が特定されるDefiniteNullInstanceと照応先が不特定なIndefineteNullInstanceを区別して扱っている.
\section{ランキング学習}
\label{114801_18Jun13}本研究では,ゼロ照応解析および著者・読者表現推定において,ランキング学習と呼ばれる手法を利用する.ランキング学習は優先度学習とも呼ばれ,インスタンス間のランキングを学習するための機械学習手法である\cite{herbrich1998learning,joachims2002optimizing}.ランキング学習では識別関数を$f(\mathbf{x})=\mathbf{w}\cdot\mathbf{x}$とし以下のように$\mathbf{w}$を学習する.ここで$\mathbf{x}$は,入力インスタンスの素性表現であり,$\mathbf{w}$は$\mathbf{x}$に対応する,重みベクトルである.まずランキングに含まれる各インスタンスの組み合わせを生成する.ここでランキング$A>B>C$を考えると,生成される組み合わせは$A>B$,$A>C$,$B>C$となる.そして各組み合わせにおいて識別関数の値がランキング上の順序と同じになるように$\mathbf{w}$を学習する.上述の例で,各インスタンスに対応する素性ベクトルが$\mathbf{x}_A$,$\mathbf{x}_B$,$\mathbf{x}_C$だとすると,$f(\mathbf{x}_A)>f(\mathbf{x}_B)$などとなるように学習する.なお,学習する順位内に同順位のものがあっても,「それらが同順位である」ということは学習されない.例えば$A>B=C$という順位があった場合には生成される組み合わせは$A>B$,$A>C$だけであり$B=C$という関係が考慮されることはない.また,同時に複数のランキングを学習することも可能である.例えば,$A_1>B_1>C_1$と$A_2>B_2>C_2$という二つの独立したランキングがあった場合には$A_1>B_1$,$A_1>C_1$,$B_1>C_1$,$A_2>B_2$,$A_2>C_2$,$B_2>C_2$のようにそれぞれ独立した組み合わせを生成し,これら全てを満たすように識別関数を学習する.未知のインスタンス集合に対するランキング予測では,各インスタンスに対して学習された$\mathbf{w}$を用いて$f(\mathbf{x})$を計算し,その値の順が出力されるランキングとなる.ランキング学習は二値分類に適用することが可能であり,正例と負例に対応関係がある場合には通常の二値分類よりも有効であると言われている\cite{磯崎秀樹:2006-07-15}.これは通常の二値分類器では,全ての正例と負例を同一の特徴空間に写像するが,ランキング学習では正例と負例の差を特徴空間に写像するためである.例えば,入力$x_1$に対する出力候補が$(A_1\colon+,B_1\colon-,C_1\colon-)$\footnote{$+$は正例,$-$は負例を示す.},入力$x_2$に対する出力候補が$(A_2\colon+,B_2\colon+,C_2\colon-)$となるような学習事例があったとする.この場合,通常の二値分類器では$(A_1\colon+,B_1\colon-,C_1\colon-,A_2\colon+,B_2\colon+,C_2\colon-)$のように事例をひとまとめにして扱うため,本来直接の比較の対象ではない$A_1\colon+$と$C_2\colon-$などが同一の特徴空間上で比較されることとなる.一方,ランキング学習であれば,$A_1>B_1=C_1$と$A_2=B_2>C_2$のように,ランキングとして表現することで,$A_1\colon+$と$C_2\colon-$などが同一特徴空間上で比較されることはない.このようにして学習された識別関数は二値分類問題における識別関数として利用することができ,二値分類の場合と同様に出力の信頼度としても利用できる.そこで本研究では,入力毎の出力候補に対して正負の正解がラベル付けされた事例からランキング学習により識別関数を学習し,推定の際には識別関数の出力が最も高くなる(最尤)ものを出力する形でランキング学習を利用する.
\section{ベースラインモデル}
\label{114838_18Jun13}本節では本研究でのベースラインとなる外界ゼロ照応を考慮しないゼロ照応解析モデルを説明する.本研究ではゼロ照応解析を用言単位の述語項構造解析の一部として扱う.用言単位の述語項構造解析では,用言と複数の項の間の関係を扱うことができる.例えば「(不動産屋ガ)物件を紹介する」のガ格のゼロ照応解析ではヲ格の項が「物件」であることが大きな手掛かりとなる.各述語項構造は格フレームと,その格フレームの格スロットとその格スロットを埋める項の対応付けとして表現される.格フレームは用言の用法毎に構築されており,各格フレームはその用言が項を取る表層格(格スロット)とその格スロットの項として取られる語(用例)からなる.本研究では,Webページから収集された69億文から\cite{kawahara-kurohashi:2006:HLT-NAACL06-Main}の手法で自動構築された格フレームを用いる.構築された格フレームの例を図\ref{述語項構造解析によるゼロ照応解析の概要}に示す\footnote{{\textless}時間{\textgreater}は「今日」「3時」などの時間表現を汎化したものである.}.本研究では,ゼロ代名詞の照応先を談話要素という単位で扱う.談話要素とは文中の表現のうち共参照関係にあるものをひとまとめにしたものである.例えば図\ref{述語項構造解析によるゼロ照応解析の概要}の例では,「僕」と「自分」や「ラーメン屋$_1$」\footnote{同じ表現を区別するために添字を付与している.},「その店」,「ラーメン屋$_2$」と「お店」は共参照関係にあるので,それぞれ一つの談話要素として扱う.そしてゼロ代名詞の照応先はこの談話要素から選択する.例えば,「紹介したい」のガ格では「僕」に対応する(a)を照応先として選択することになる.述語項構造解析の例を図\ref{述語項構造解析によるゼロ照応解析の概要}に示す\footnote{格に対応付けられるのは談話要素だが,出力される述語項構造を見やすくするために談話要素の代表的な表現を併せて表記している.「×」は格に何も対応付けないことを示す.}.なお,本研究ではゼロ照応解析の対象としてはガ,ヲ,ニ,ガ2格のみを扱うため,時間格などの他の格については省略することがある.ここでガ2格とは京都大学テキストコーパスで定義されている,二重主格構文における主格にあたる格である\footnote{「彼はビールが好きだ」の場合「彼」がガ2格にあたる.}.この例では,「紹介する」に対応する格フレームから「紹介する(1)」を選択し,そのガ格に談話要素(a),ヲ格に談話要素(c),時間格に談話要素(d)を対応付け,それ以外の格には談話要素を対応付けない.ゼロ照応解析の出力としては,ガ格の談話要素(a)のみが出力される.\begin{figure}[t]\includegraphics{21-3ia1011f1.eps}\caption{述語項構造解析によるゼロ照応解析の概要}\label{述語項構造解析によるゼロ照応解析の概要}\vspace{-6pt}\end{figure}ベースラインモデルでは,先行研究\cite{sasano-kurohashi:2011:IJCNLP-2011}と同様に以下の手順で解析を行う.\begin{enumerate}\item形態素解析,固有表現認識,構文解析を行う.\item共参照解析を行いテキスト中に出現した談話要素を認識する.\label{談話要素設定}\item各用言について以下の手順で述語項構造を決定する.\label{述語項構造}\begin{enumerate}\item以下の手順で解析対象用言がとりえる述語項構造(格フレームと談話要素の対応付け)の組み合わせを列挙する.\label{述語項構造列挙}\begin{enumerate}\item解析対象用言の格フレームを1つ選ぶ.\label{格フレーム選択}\pagebreak\item解析対象用言と係り受け関係にある語と格スロットの対応付けを行う.\label{係り受け対応付け}\item対応付けられなかったガ格,ヲ格,ニ格,ガ2格の格スロットと,対象用言の格スロットとまだ対応付けられていない談話要素の対応付けを行う.\label{ゼロ照応}\end{enumerate}\item学習されたランキングモデルによりもっとも高いスコアが与えられたものを述語項構造として出力する.\label{手順:スコア関数}\end{enumerate}\end{enumerate}先行研究と本研究でのベースラインモデルとの違いは,(\ref{手順:スコア関数})でのスコア付けの際の重みの学習方法の違いである.先行研究では対数線形モデルを利用していたが,本研究ではランキング学習を用いた\footnote{対数線形モデル,ランキング学習は共に線形識別器であり,本質的な表現力に差はない.また,事前実験においてベースライン手法においてこれらの間の精度に大きな差がないことを確認している.}.このランキング学習の詳細は\ref{素性の重みの学習}節で説明する.\begin{figure}[b]\includegraphics{21-3ia1011f2.eps}\caption{述語項構造の候補の例}\label{述語項構造の候補の例}\end{figure}手順(\ref{述語項構造})の述語項構造解析について説明する.まず,(\ref{述語項構造列挙})の手順で候補となる述語項構造$(cf,a)$を列挙する.ここで$cf$は選ばれた格フレーム,$a$は格スロットと談話要素の対応付けである.ただし,同一用言の複数の格に同じ要素が入りにくいという経験則\cite{199787}から,手順(\ref{ゼロ照応})では既に他の格に対応付けられた談話要素は,ゼロ代名詞には対応付けないこととする.手順(\ref{述語項構造列挙})で列挙される述語項構造の例を図\ref{述語項構造の候補の例}に示す\footnote{【i-j】はi番目の格フレームに対するj番目の対応付けを持つ述語項構造に対して便宜的に割り振ったものである.}.【1-1】と【2-1】,【1-2】と【2-2】などは,格と談話要素の割り当ては同じであるが格フレームは異なるため別々の述語項構造候補として扱う.【1-2】と【2-2】のどちらを述語項構造として選んでもゼロ照応解析としての出力は同じになる.この列挙された述語項構造をそれぞれ\ref{述語項構造を表現する素性}節で説明する手法で素性として表現し,\ref{素性の重みの学習}節で説明する方法で学習された重みを利用してスコア付けを行い,最終的に最もスコアが高かった述語項構造を出力する.\subsection{述語項構造を表現する素性}\label{述語項構造を表現する素性}本節では述語項構造を表現する素性について説明する.入力テキスト$t$の解析対象用言$p$に格フレーム$cf$を割り当て,その格フレームの格スロットと談話要素の対応付けを$a$とした述語項構造を表現する素性ベクトルを$\phi(\mathit{cf},a,p,t)$とする.$\phi(\mathit{cf},a,p,t)$は直接係り受けがある述語項構造に関する素性ベクトル$\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{ovet},p,t)$とゼロ照応解析で対象となる各格$c$に談話要素$e$が割り当てられることに関する素性ベクトル$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$からなり,具体的には以下のような形とする.ここで,$a_\mathit{overt}$は用言$p$と直接係り受けのある談話要素と格スロットの対応付けである.\begin{equation}\begin{split}\phi(\mathit{cf},a,p,t)=(&\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{overt},p,t),\\&\phi_\mathit{case}(\mathit{cf},ガ\leftarrowe_{ガ},p,t),\phi_\mathit{case}(\mathit{cf},ヲ\leftarrowe_{ヲ},p,t),\\&\phi_\mathit{case}(\mathit{cf},ニ\leftarrowe_{ニ},p,t),\phi_\mathit{case}(\mathit{cf},ガ2\leftarrowe_{ガ2},p,t))\end{split}\end{equation}各格に対応する素性ベクトル$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$は格$c$に談話要素$e$が対応付けられた場合の素性ベクトル$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$と何も対応付けられなかった場合の素性ベクトル$\phi_\mathit{NA}(\mathit{cf},c\leftarrow\linebreak×,p,t)$からなる.$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$は格$c$がゼロ照応として対応付けられた場合にのみ考慮し,直接係り受け関係にある談話要素に対応付けられた場合には0ベクトルとする.例えば図\ref{述語項構造の候補の例}の【2-2】を表現する素性ベクトル$\phi(紹介する(2),\{ガ:(a)僕,ヲ:(c)ラーメン屋,ニ:×,ガ2:×,時間:(d)今日\})$は以下のようになる\footnote{入力テキスト$t$と対象用言$p$は省略した.${\bf0_\phi}$は$\phi$と同次元を持つ0ベクトルを表す.}.\begin{gather}\small{\phi(紹介する(2),\{ガ:(a)僕,ヲ:(c)ラーメン屋,ニ:×,ガ2:×,時間:(d)今日\})=}\nonumber\\[-2pt]\begin{split}(\phi_{\textit{overt-PAS}}(紹介する(2),\{ガ:×,ヲ:(d)ラーメン屋,ニ:×,\\ガ2:×,デ格:(c)ブログ\}),\label{素性ベクトル例}\end{split}\\[-2pt]\begin{aligned}\small&\phi_{A}(紹介する(2),ガ\leftarrow(a)僕),&{\bf0_{\phi_\mathit{NA}}},\nonumber\\[-2pt]\small&{\bf0_{\phi_\mathit{A}}},&{\bf0_{\phi_\mathit{NA}}},\\[-2pt]\small&{\bf0_{\phi_{A}}},&\phi_\mathit{NA}(紹介する(2),ニ\leftarrow×),\nonumber\\[-2pt]\small&{\bf0_{\phi_{A}}},&\phi_\mathit{NA}(紹介する(2),ガ2\leftarrow×))\nonumber\end{aligned}\end{gather}\begin{table}[p]\caption{$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$の素性一覧}\label{割り当ての素性一覧(1)}\input{1011table02.txt}\end{table}述語項構造ベクトルを表現する各要素$\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{overt},p,t)$,$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$の素性について説明する.まず,$\phi_{\textit{overt-PAS}}(\mathit{cf},a_\mathit{overt},p,t)$には確率的格解析モデル\cite{河原大輔:2007-07-10}から得られる表層の係り受けの確率を用いる.$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$に用いる素性の一覧を表\ref{割り当ての素性一覧(1)}に示す\footnote{値の列でlogと書かれたものは,実際にはその対数をとったものを素性として利用している.バイナリと書かれたものは,多値の素性をバイナリで表現したものを素性として利用している.整数値と書かれたものは,その値をそのまま利用している.}.格フレーム素性は,格フレームから得られる情報である.$e$が複数回言及される場合には,各素性ごとにそれらの値で最も大きいものをその素性の値とする.例えば,談話要素$e$が格フレーム$\mathit{cf}$の格$c$に対応付く確率の素性を式(\ref{素性ベクトル例})のガ格について考える.上述の例ではガ格に対応付けられた談話要素(a)は「僕」「自分」と2回言及されている.そこで「僕」「自分」が「紹介する(2)」のガ格に対応付く確率をそれぞれ計算し,最も値が高いものを(a)が「紹介する(2)」のガ格に対応付く確率とする.用言素性における$p$の持つモダリティなどの情報は,用言の属する基本句に日本語構文・格解析システムKNPver.~4.0\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}により付与された情報を利用する.文脈素性は$e$が前後の文脈でどのような表現で出現するかを扱う素性であり,$e$が複数回言及される場合には,その全てを素性として扱う.$c$が割り当てられたことの素性は,その格にどの程度ゼロ代名詞が出現するかを調整するための素性となっている.$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$に用いる素性を表\ref{割り当てないの素性一覧}に示す.$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$では対応付けられる要素$e$がないため,格フレームに関する素性のみとなっている.\begin{table}[t]\caption{$\phi_\mathit{NA}(\mathit{cf},c\leftarrow×,p,t)$の素性一覧}\label{割り当てないの素性一覧}\input{1011table03.txt}\end{table}\subsection{素性の重みの学習}\label{素性の重みの学習}前節で入力テキスト$t$,解析対象用言$p$が与えれられたとき,格フレーム$\mathit{cf}$,格スロットと談話要素の対応付け$a$からなる述語項構造を表現する素性を$\phi(\mathit{cf},a,p,t)$としたが,それに対応する素性の重み$\mathbf{w}$をランキング学習により学習する.ランキング学習の学習データ作成は,対象用言ごとに順位データを作成し,全用言の順位データを集約したものとする.もし,述語項構造の正解が一意に求められるなら,その述語項構造を上位とし,それ以外の述語項構造を下位とする順位データを作成すればよい.しかし,実際には以下の2つの問題がある.1つ目は正解コーパスには1つの格に対して複数の談話要素が対応付けられたものが含まれることである.例えば図\ref{述語項構造の候補の例(2)}の「焼いている」では正解として\{ガ:×,ヲ:(b)ケーキ+(c)クッキー,ニ:×,ガ2:×,時間:(d)毎週\}のように,ヲ格に2つの談話要素が対応付けられる.一方,提案手法では先に述べたように1つの格に対して1つの談話要素しか対応付けない.そこで,1つの格に対して複数の談話要素が対応付けられている場合には,そのうちどれか1つの談話要素を割り当てていれば正解として扱うこととする.例えば,図\ref{述語項構造の候補の例(2)}では\{ガ:×,ヲ:(b)ケーキ,ニ:×,ガ2:×,時間:(d)毎週\}と\{ガ:×,ヲ:(c)クッキー,ニ:×,ガ2:×,時間:(d)毎週\}を正解の談話要素対応付けとする.また,この正解となる対応付けの集合を$(a^{*}_{1},\cdots,a^{*}_{N})$とする.2つ目はコーパスには格フレームの正解は付与されていないことである.先に述べたように述語項構造は格フレームと格スロットと談話要素の対応付けからなる.格フレームは用言の用法ごとに構築されており,述語項構造候補の格フレームには文脈で使用される用法と全く異なるもの\footnote{慣用的な用法に対応する格フレームなど.}が含まれる.格スロットと談話要素の対応付けは正しいが,文脈での使用とは異なる用法の格フレームを持つような述語項構造を正解として扱った場合,学習に悪影響を与えると考えられる.そこで,確率的ゼロ照応解析\cite{sasano-kawahara-kurohashi:2008:PAPERS}を利用することで,各文脈における用法の格フレームを推定する.確率的ゼロ照応解析では各述語項構造$(\mathit{cf},a)$に対し格フレームの情報などを用いることで$P(\mathit{cf},\mathit{a|p},\mathbf{e})$を推定する.ここで$\mathbf{e}$は文章中に出現する談話要素$e$の集合である\footnote{数式の変数は本論文における表記に統一した.}.具体的には以下の手順で各対象用言$p$に対して学習データとなるランキングを生成する.\begin{enumerate}\item用言$p$に対して取り得る述語項構造$(\mathit{cf},a)$を訓練事例として列挙する.\label{190308_16Oct13}\item正解となる対応付け$a^{*}_{1},\cdots,a^{*}_{N}$について\begin{enumerate}\item各$(\mathit{cf},a^*_{i})$の確率的ゼロ照応解析確率を計算し,最も確率が高いものを$(\mathit{cf}^*_{i},a^*_{i})$とする.\label{190424_16Oct13}\item$(\mathit{cf},a^*_{i})$のうち,$(\mathit{cf}^*_{i},a^*_{i})$以外のものを訓練事例から取り除く.\label{190439_16Oct13}\end{enumerate}\item各$(\mathit{cf}^*_{i},a^*_{i})$が他の$(\mathit{cf},a)$より順位が高くなるようなランキングを用言$p$に対する学習データとする.\label{190449_16Oct13}\end{enumerate}図\ref{述語項構造の候補の例(2)}の「焼いている」を例に説明する.まず「焼いている」の述語項構造解析の候補として【1-1】,$\cdots$,【2-1】,$\cdots$を列挙する(手順(\ref{190308_16Oct13})).このうち,格と談話要素の対応付けが正解となるもの$(\mathit{cf},a^*_{i})$は,\{ガ:×,ヲ:(b)ケーキ,ニ:×,ガ2:×,時間:(d)毎週\}となっている【1-2】と【2-2】,\{ガ:×,ヲ:(c)クッキー,ニ:×,ガ2:×,時間:(d)毎週\}となっている【1-3】と【2-3】である.【1-2】,【2-2】,【1-3】,【2-3】について確率的ゼロ照応解析スコアを計算した結果,【1-2】$>$【2-2】,【1-3】$>$【2-3】となったとする.この場合【1-2】と【1-3】が$(\mathit{cf}^*_{i},a^*_{i})$となる(手順(\ref{190424_16Oct13})).そこで,訓練事例から【2-2】と【2-3】を取り除く(手順(\ref{190439_16Oct13})).そして,【1-2】$=$【1-3】$>$【1-1】$=$【1-4】$=\cdots=$【2-1】$=$【2-4】$=\cdots$というランキングを「焼いている」についての学習データとする(手順(\ref{190449_16Oct13})).このように各対象用言に対するランキング学習データを生成し,それらを統合したものに対してランキング学習を行うことで$\mathbf{w}$を学習する.\begin{figure}[t]\includegraphics{21-3ia1011f3.eps}\caption{1つの格に複数の談話要素が割り当てられる例}\label{述語項構造の候補の例(2)}\vspace{-1\Cvs}\end{figure}
\section{コーパス}
\label{130555_9May13}本研究では,DiverseDocumentLeadsCorpus(DDLC)\cite{hangyo-kawahara-kurohashi:2012:PACLIC}を利用する.DDLCはWebから収集されたテキストに対して,形態素情報,構文関係,固有表現,共参照関係,述語項構造,著者・読者表現が付与されている.形態素情報,構文関係,固有表現,共参照関係は京都大学テキストコーパス\cite{KTC}と同様の基準で付与されている.述語項構造も京都大学テキストコーパスと同様の基準で付与されており,文章内ゼロ照応だけでなく外界ゼロ照応も付与されている.外界ゼロ照応の照応先としては表\ref{外界ゼロ照応の照応先と例}の5種類が設定されている.著者・読者表現は,「=:[著者]」「=:[読者]」というタグ\footnote{「{\itrel}:A」という表記は{\itrel}という関係でAという情報が付与されていることを示す.また,「B$\leftarrow${\itrel}:A」という表記はBに対して「{\itrel}:A」という情報が付与されていることを示す.}で基本句単位に付与されており,著者・読者表現が複合語の場合にはその主辞に対して付与されている.DDLCでは,著者表現,読者表現は1文書中にそれぞれ最大でも1つの談話要素と仮定されており,著者・読者が複数回言及される場合には,そのうち1つに「=:[著者]」「=:[読者]」を付与し,それ以外のものは,著者・読者表現と共参照関係にある,という形で表現される.下記の例\ref{こま}では,著者は「主婦」や「こま」,「母」など複数の表現で言及されているが,「=:[著者]」は「主婦」に対してだけ付与され,「こま」や「母」には「=:主婦」というタグにより,「主婦」と共参照関係にあるという情報が付与されている.\begin{table}[t]\caption{外界ゼロ照応の照応先と例}\label{外界ゼロ照応の照応先と例}\input{1011table04.txt}\end{table}\ex.東京都に住む「お気楽\underline{主婦}」\underline{こま}です。\\\label{こま}0歳と6歳の男の子の\underline{母}をしてます。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}主婦$\leftarrow$=:[著者]\\こま$\leftarrow$=:主婦\\母$\leftarrow$=:主婦\end{tabular}\right)$また,組織のウェブページなどの場合にはその組織名や組織を表す表現を著者表現としている.\ex.ここでは\underline{弊社}の商品及び事業を簡単にご説明します。\\\hspace*{4ex}(弊社$\leftarrow$=:[著者])\ex.神戸徳洲会\underline{病院}では地域の医療機関との連携を大切にしています。\\\hspace*{4ex}(病院$\leftarrow$=:[著者])ウェブページでは実際には不特定多数が閲覧できる状態であることが多いが,著者が特定の読者を想定していると考えられる場合には,その特定の読者を表す表現も読者表現として扱っている.下記の例\ref{読者=人}では,想定している読者が「今後就職を迎える人」だと考えられるので,その主辞の「人」に「=:[読者]」が付与されている.\ex.今後就職を迎える\underline{人}に,就職活動をどのように考えれば良いのかをお知らせしてみましょう。\label{読者=人}\\\hspace*{4ex}(人$\leftarrow$=:[読者])一方,想定している読者のうち一部だけを対象とした表現は読者表現として扱っていない.下記の例\ref{ローソン}では,想定される読者は「オーナーを希望する人」であり,「店舗運営の経験がない方」はそのうちの一部であると考えられるので,読者表現として扱われていない.\ex.店舗運営の経験がない\underline{方}でも、ご安心ください。\label{ローソン}ローソンの研修制度なら、オーナーに必要とされるノウハウを段階的に修得することができます。\begin{table}[b]\caption{DDLCにおけるゼロ照応の個数}\label{ゼロ照応の個数}\input{1011table05.txt}\end{table}\begin{table}[b]\caption{DDLCの文章内ゼロ照応の内訳}\label{本コーパスの文章内ゼロ照応の内訳}\input{1011table06.txt}\end{table}\begin{table}[b]\begin{center}\caption{DDLCの外界ゼロ照応の内訳}\label{本コーパスの外界ゼロ照応の内訳}\input{1011table07.txt}\end{table}表\ref{著者・読者表現の例}にDDLC中の著者・読者表現の例を示す.DDLC全体1,000文書のうち著者表現が付与された文書は271文書,読者表現が付与された文書は84文書であった.DDLCにおけるゼロ照応の個数を表\ref{ゼロ照応の個数}に,文章内ゼロ照応,外界ゼロ照応における照応先の内訳を表\ref{本コーパスの文章内ゼロ照応の内訳}と表\ref{本コーパスの外界ゼロ照応の内訳}に示す.表\ref{本コーパスの文章内ゼロ照応の内訳}において著者・読者とは照応先が著者・読者表現にあたることを示す.DDLCにおいてはゼロ照応のうち54\%が外界ゼロ照応であること,ゼロ照応はガ格で特に多く起こることが分かる.また,著者や読者に関するゼロ照応はガ格,ニ格,ガ2格で多く出現し,ヲ格ではほとんど出現しないことが分かる.\begin{table}[t]\caption{著者・読者表現の例}\label{著者・読者表現の例}\input{1011table08.txt}\end{table}
\section{著者・読者表現推定}
\label{135602_6May13}日本語では様々な表現で著者や読者が文章中で言及され,\ref{130555_9May13}節で述べたように人称代名詞だけでなく,固有表現,役職など様々な表現で言及される.一方,表\ref{著者・読者表現の例}に挙げたような表現でも文脈によっては著者・読者表現にならないこともある.下記の例\ref{お客様not著者}では,「お客様」はこの文章の読者として想定している客とは別の客を指していると考えられるので,読者表現とはならない.\ex.先月、お部屋のリフォームをされた\underline{お客様}の例を紹介します。\label{お客様not著者}このように,表記のみから著者・読者表現を同定することは困難である.本研究では著者・読者表現候補自体の表現だけでなく,周辺文脈や文章全体に含まれる情報から文章の著者・読者表現を推定することとする.\ref{130555_9May13}節で述べたように,DDLCでは基本句単位で著者・読者表現がアノテーションされており,共参照関係にある複数の表現が著者・読者表現である場合には,その内の1つに対して著者・読者表現を付与するとしている.これは\ref{114838_18Jun13}節で述べた談話要素単位に著者・読者表現が付与されていると言え,本研究でも著者・読者表現は談話要素単位で扱う.著者・読者表現の推定にはランキング学習を利用し,その素性には著者・読者表現自身および周辺文脈の語彙統語パターンを利用する.\subsection{著者・読者表現推定モデル}著者・読者表現の推定は著者表現,読者表現それぞれ独立して行う\footnote{以降の具体例では著者表現を例として説明するが,読者表現の場合でも同様である.}.著者・読者表現の推定にはランキング学習を利用し,著者・読者表現にあたる談話要素が他の談話要素より上位になるように学習する.例えば図\ref{著者表現が出現する文章例}の著者表現では,談話要素(1)が他の談話要素より上位となる学習データを作成する.そして学習された識別関数により最上位となった談話要素を著者・読者表現と推定する.なお,著者・読者表現候補として扱う談話要素は下記の条件のうち最低1つは満たしているもののみとする.\begin{itemize}\item自立語の形態素のJUMANカテゴリが「人」「組織・団体」「場所」\item固有表現である\item形態素に「方」「人」を含む\end{itemize}ここで,学習データ作成時および推定時に考慮しなければならないのは,著者・読者表現が出現しない文書が存在することである.著者・読者表現が出現しない文書は大きく分けて2つの種類がある.1つ目は図\ref{談話構造自体に著者が出現しない文章例}のように談話構造自体に著者・読者が出現しない文書である.2つ目は図\ref{談話構造に著者が出現するが著者表現が出現しない文章例}のように談話構造には著者・読者が出現するが著者・読者表現として明示的に言及されない場合である\footnote{全て省略されており,外界ゼロ照応の照応先としてのみ出現する.}.これらに対応する仮想的なインスタンスとして,「著者・読者表現なし(談話構造)」と「著者・読者表現なし(省略)」を設定する.\begin{figure}[b]\includegraphics{21-3ia1011f4.eps}\caption{著者表現が出現する文書例}\label{著者表現が出現する文章例}\end{figure}\begin{figure}[b]\includegraphics{21-3ia1011f5.eps}\caption{談話構造自体に著者が出現しない文書例}\label{談話構造自体に著者が出現しない文章例}\end{figure}「著者・読者表現なし(談話構造)」は談話構造自体に外界ゼロ照応としても著者・読者が出現しないことに対応するインスタンスであり,文書全体の語彙統語パターンを素性とした文書ベクトルで表現されるインスタンスである.これは,著者・読者が談話構造自体に出現しない文書では,尊敬や謙譲表現が少ないなど文体的な特徴があると考えられ,文書全体の語彙統語パターンは文体を反映した素性といえるからである.\begin{figure}[t]\includegraphics{21-3ia1011f6.eps}\caption{談話構造に著者が出現するが著者表現が出現しない文書例}\label{談話構造に著者が出現するが著者表現が出現しない文章例}\end{figure}「著者・読者表現なし(省略)」は談話構造には外界ゼロ照応として著者・読者が出現するが,著者・読者表現として明示的に言及されないことに対応するインスタンスであり,ゼロベクトルとして表現される.識別関数はゼロベクトルについて常に$0$を返すため,このインスタンスより下位に順位付けされた談話要素は二値分類における負例とみなすことができる.学習された識別関数によるランキングの結果,これらのインスタンスが最上位となった文書については,著者・読者表現が出現しないものとする.各文書に対する学習データの作成について説明する.以下の手順で著者表現,読者表現に対して文書ごとにランキングデータ作成し,統合したものを最終的な学習データとする.著者・読者表現が存在する文書については,著者・読者表現にあたる談話要素が他の談話要素および「著者・読者表現なし」より上位になるように学習データを作成する.例えば,図\ref{著者表現が出現する文章例}の文書における著者表現推定では,\[(1)>(2)=(3)=\cdots=(6)=著者表現なし(談話構造)=著者表現なし(省略)\]となるように学習データを作成する.談話構造自体に著者・読者が出現しない場合には,「著者・読者表現なし(談話構造)」が文書中の談話要素および「著者・読者表現なし(省略)」より上位になるように学習データを作成する.例えば,図\ref{談話構造自体に著者が出現しない文章例}の文書における著者表現推定では,\[著者表現なし(談話構造)>(1)=(2)=\cdots=(6)=著者表現なし(省略)\]となるように学習データを作成する.談話構造に著者・読者が出現するが著者・読者表現が出現しない場合には,「著者・読者表現なし(省略)」が文書中の談話要素および「著者・読者表現なし(談話構造)」より上位になるように学習データを作成する.例えば,図\ref{談話構造に著者が出現するが著者表現が出現しない文章例}の文書における著者表現推定では,\[著者表現なし(省略)>(1)=著者表現なし(談話構造)\]となるように学習データを作成する.学習時の談話構造に著者・読者が出現するかの判定には,コーパスに付与された外界ゼロ照応の情報を利用する.外界ゼロ照応の照応先として著者・読者が出現する場合には談話構造に著者・読者が出現するとし,それ以外の場合には出現なしとする.例えば図\ref{談話構造に著者が出現するが著者表現が出現しない文章例}では,「気がつけば」のガ2格,「ほっとしました」のガ格などの照応先で著者が出現するので,談話構造に著者が出現していると分かる.なお,この情報はランキングの学習データを作成する際にのみ利用するので,テストデータに対する著者・読者表現推定時には利用しない.\subsection{素性として利用する語彙・統語パターン}談話要素に対しては,談話要素自身と係り先およびこれらの係り受けの語彙統語パターンを素性として扱う.ここで,語彙統語パターンを扱う単位として,基本句と文節という2つの単位を考える.談話要素は基本句単位であるが,その基本句が含まれる文節の情報も重要と考えられるからである.談話要素を表現する語彙統語パターンとしては,談話要素が含まれる基本句・文節,談話要素の係り先の基本句・文節およびこれらの係り受け関係を後述する基準にて汎化したものとなる.1つの談話要素が複数言及されている場合には,それらを合わせたものをその談話要素の素性として用いる.また,1文目には自己紹介的な表現が用いられることが多く,以降の文と区別して扱うことが有効であると考えられる.そこで,1文目で出現した語彙統語パターンは別の素性としても扱うこととする.例えば,図\ref{著者表現が出現する文章例}の談話要素(1)に対応する素性として利用するものは以下のものを汎化したものとなる.\begin{screen}「基本句:ホテルは」「基本句係り先:ございます。」「基本句係受け:ホテルは$\rightarrow$ございます。」「文節:米子タウンホテルは」「文節係り先:ございます。」「文節係り受け:米子タウンホテルは$\rightarrow$ございます。」「基本句:ホテルです。」「文節:ホテルです。」「1文目基本句:ホテルは」「1文目基本句係り先:ございます。」「1文目基本句係受け:ホテルは$\rightarrow$ございます。」「1文目文節:米子タウンホテルは」「1文目文節係り先:ございます。」「1文目文節係り受け:米子タウンホテルは$\rightarrow$ございます。」\end{screen}\begin{table}[t]\caption{汎化する種類と基準}\label{汎化する種類と基準}\input{1011table09.txt}\end{table}\begin{table}[t]\caption{一人称代名詞と二人称代名詞}\label{一人称代名詞}\input{1011table10.txt}\end{table}これらの要素を表\ref{汎化する種類と基準}の基準で汎化することで語彙統語パターンの素性として利用する.「形態素単位A」の汎化は形態素単位に付与された情報を元に形態素毎に汎化を行う.なお「品詞+活用」では内容語に対してのみ行い,機能語については汎化しない.「形態素単位B」でも形態素単位での汎化を行うが,内容語に対する汎化のみを行う.対象となる汎化表現を持たない場合(固有表現による汎化の際に固有表現を持たない場合など)には「品詞+活用」で汎化を行う.「形態素単位C」では「形態素単位B」と同様に汎化を行うが,複数の形態素をまたいだ汎化を行う場合がある.分類語彙表による汎化では,分類語彙表に複合語として登録されている場合には,その複合語の分類語彙表の内容を利用する.例えば,「ゴルフ場」は2形態素であるが,分類語彙表には「ゴルフ場:土地利用」として登録されているので,「ゴルフ場」を「土地利用」と汎化する.固有表現による汎化では,形態素に付与された固有表現は「固有表現名:head」「固有表現名:middle」「固有表現名:tail」「固有表現名:single」のように固有表現中での位置が付与されている.文節による汎化の際には連続したこれらの表現をまとめて「固有表現」という形に汎化する.例えば「ヤフージャパン株式会社」では「ORGANIZATION:head+ORGANIZATION:middle+ORGANIZATION:middle+\linebreak[2]ORGANIZATION:tail」のように固有表現が付与されるが,「ORGANIZATION」として汎化する.これらの形態素単位での汎化では,形態素ごとに汎化を行い,その後基本句内,文節内で汎化された情報を結合することでその基本句,文節の語彙統語パターンとする.例えば,「基本句:ホテルは」をカテゴリ(CT)の基準で汎化する際には,「ホテル」を「CT-場所-施設」に汎化し,「は」は機能語なのでそのまま「は」とする.そしてこれらを結合した「基本句:CT-場所-施設+は」がこの基本句のカテゴリによる汎化表現となる.上述の形態素単位の汎化の場合には,基本句,文節内に含まれる個々の汎化表現も素性とする.例えば,「基本句:ホテルは」のカテゴリによる汎化では上述の「基本句:CT-場所-施設+は」に加えて,「基本句内形態素:CT-場所-施設」も素性とする\footnote{「は」はカテゴリでは汎化されないので,形態素単位の素性としては利用しない.}.基本句・文節単位での汎化は基本句・文節に付与された情報を元に汎化を行う場合に利用する.基本句・文節単位での汎化では基本句・文節に付与された情報そのものを基本句,文節の語彙統語パターンとして利用する.このため,形態素単位による情報は素性としては利用しな\linebreakい.
\section{外界照応および著者・読者表現を考慮したゼロ照応解析モデル}
\label{115042_18Jun13}本節では,外界ゼロ照応および著者・読者表現を考慮したゼロ照応解析モデルについて説明する.提案モデルでは,ベースラインモデルと同様にゼロ照応解析を述語項構造解析の一部として解く.提案モデルではゼロ照応解析は以下の手順で行う.\begin{enumerate}\item形態素解析,固有表現認識,構文解析を行う.\item共参照解析を行いテキスト中に出現した談話要素を認識する.\item著者・読者表現の推定を行い,どの談話要素が著者・読者表現にあたるのかを推定する.\label{手順:著者・読者推定}\item推定された著者・読者表現から仮想的な談話要素を設定する(\ref{節:仮想的談話要素}節で説明).\label{手順:仮想的談話要素}\item各用言について以下の手順で述語項構造を決定する.\begin{enumerate}\item以下の手順で解析対象用言がとりえる述語項構造(格フレームと談話要素の対応付け)の組み合わせを列挙する.\begin{enumerate}\item解析対象用言の格フレームを1つ選ぶ.\item解析対象用言と係り受け関係にある語と格スロットの対応付けを行う.\item対応付けられなかったガ格,ヲ格,ニ格,ガ2格の格スロットと,対象用言の格スロットとまだ対応付けられていない談話要素の対応付けを行う.\end{enumerate}\item学習されたランキングモデルによりもっとも高いスコアが与えられたものを述語項構造として出力する.\end{enumerate}\end{enumerate}ベースラインモデルと異なる点は,手順(\ref{手順:著者・読者推定})で文章中の著者・読者表現を推定すること,手順(\ref{手順:仮想的談話要素})で仮想的な談話要素を設定することである.\subsection{外界ゼロ照応を扱うための仮想的談話要素}\label{節:仮想的談話要素}ベースラインモデルではゼロ代名詞の照応先を文章中の談話要素から選択することとした.提案モデルでは,文章中の談話要素に加えて仮想的な談話要素として[著者],[読者],[不特定:人],[不特定:その他]を設定し,解析の際の述語項構造の列挙においては,格に対応付ける談話要素の候補としてこれらの仮想的な談話要素も考えることとする\footnote{[不特定:状況]は数が少ないため,[不特定:物]と[不特定:状況]を合わせて[不特定:その他]とした.}.そして,これらが対応付けられた格は外界ゼロ照応であるとする.例\ref{仮想的談話要素例}では,「説明します」のガ格が外界ゼロ照応で著者を照応しており,ニ格は外界ゼロ照応で読者を照応しているため,ガ格に[著者]を,ニ格に[読者]を対応付けた述語項構造として表現される.\ex.今日はお得なポイントカードについて\underline{説明します}。\label{仮想的談話要素例}著者・読者表現が文章中に出現する場合には,[著者]と[読者]の仮想的談話要素の扱いが問題となる.下記の例\ref{著者・読者表現あり}ではゼロ代名詞$\phi$の照応先は,著者表現である「私」とも[著者]とも考えられる.\ex.肩こりや腰痛で来院された患者さんに対し、\underline{私}$_{著者}$は脈を診ることにしています。\\それは心臓の状態を($\phi$ガ)診ているだけではなく、身体全体のバランスを($\phi$ガ)診たいからです。\label{著者・読者表現あり}本研究では,このような曖昧性を取り除くため,照応先としては[著者],[読者]より著者・読者表現を優先することする.解析の際,文章中に著者・読者表現が存在する場合には,[著者],[読者]の仮想的談話要素は照応先として対応付けないこととする.図\ref{述語項構造解析によるゼロ照応解析の概要}の「紹介します」に対して列挙される述語項構造の例を図\ref{提案手法における述語項構造の候補の例}に示す.この例では,【1-3】のガ格や【1-4】のガ格などに仮想的な談話要素が対応付けられている.また,「(a)僕」が著者表現にあたるので[著者]はどの格にも対応付けを行わない.\begin{figure}[t]\includegraphics{21-3ia1011f7.eps}\caption{提案手法における述語項構造の候補の例}\label{提案手法における述語項構造の候補の例}\end{figure}一方,著者・読者表現は外界の[著者]や[読者]と似た振る舞いを取ると考えられる\footnote{例えば著者表現と外界の著者は共に謙譲表現の主体になりやすいなど.}.そこで,著者・読者表現は他の談話要素と区別し,素性表現の際に[著者]や[読者]の性質を持つように素性を与える.詳細は\ref{素性による述語項構造の表現}節で示す.\subsection{素性による述語項構造の表現}\label{素性による述語項構造の表現}ベースラインモデルと同様に提案モデルでも述語項構造単位を素性で表現し,その構成もベースラインモデルと同様に$\phi(\mathit{cf},a,p,t)$は直接係り受けがある述語項構造に関する素性ベクトル$\phi_{\textit{overt-PAS}}\allowbreak(\mathit{cf},a_\mathit{overt},p,t)$とゼロ照応解析で対象となる格$c$に談話要素$e$が割り当てられることに関する素性ベクトル$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$からなる.ベースラインモデルと提案モデルの差は$\phi_\mathit{case}(\mathit{cf},c\leftarrowe,p,t)$のうち,$c$に談話要素$e$が割り当てられた場合の素性ベクトル$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$の構成である.ここでベースラインモデルでの$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$を$\phi'_{A}(\mathit{cf},c\leftarrowe,p,t)$とおく.この$\phi'_{A}(\mathit{cf},c\leftarrowe,p,t)$と同内容,同次元の素性ベクトルを文章中に出現した談話要素,外界の[著者],[読者]などと対応する形で複数並べることで$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$を構成する.具体的には以下のような形となる.\begin{align*}\phi_{A}(\mathit{cf},c\leftarrowe,p,t)=(&\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t),\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t),\\&\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t),\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t),\\&\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t),\phi_\mathit{max}(\mathit{cf},c\leftarrowe,p,t))\end{align*}ここで,$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$は$e$が文章中に出現した談話要素の場合のみに発火し,内容は$\phi'_{A}(\mathit{cf},c\leftarrowe,p,t)$と同内容とする.$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$は$e$が外界の[著者],[読者]の場合または著者・読者表現に対応する談話要素の場合にのみ発火する.$\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t)$は$e$が外界の[不特定:人],[不特定:その他]の場合にのみ発火する.$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t)$は外界の談話要素に対応するため,表記やJUMANカテゴリといった情報を持たない.そこで,格フレーム素性で$e$の表記やJUMANカテゴリの情報を利用する場合には擬似的に表\ref{疑似表記,JUMANカテゴリ}の表記やJUMANカテゴリを利用する.最後の$\phi_\mathit{max}(\mathit{cf},c\leftarrowe,p,t)$は各素性において$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:人]}(\mathit{cf},c\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},c\leftarrowe,p,t)$で対応する素性の最大値を持つ素性ベクトルとする.\begin{table}[b]\caption{疑似表記,JUMANカテゴリ}\label{疑似表記,JUMANカテゴリ}\input{1011table11.txt}\end{table}このように素性を表現することで,著者・読者表現に対応する談話要素では$\phi_\mathit{mentioned}$および$\phi_{[著者]}$・$\phi_{[読者]}$が発火することになり,通常の談話要素と著者・読者としての両方の性質を持つこととなる.また,$\phi_\mathit{max}$は全ての要素に対して発火するため,$\phi_\mathit{max}$に対応する重みでは,ゼロ照応全体に影響する性質が学習されると考えられる.ここで,図\ref{提案手法における述語項構造の候補の例}の述語項構造候補【1-5】ついて各格の$\phi_{A}(\mathit{cf},c\leftarrowe,p,t)$の例を示す.\begin{align*}\phi_{A}(\mathit{cf},ガ\leftarrow(a)僕,p,t)&=(\phi_\mathit{mentioned}(\mathit{cf},ガ\leftarrow(a)僕,p,t),\phi_{[著者]}(\mathit{cf},ガ\leftarrow(a)僕,p,t),\\&\qquad{\bf0_{\phi_{[読者]}}},{\bf0_{\phi_{[不特定:人]}}},{\bf0_{\phi_{[不特定:その他]}}},\\&\qquad\mathit{max}(\phi_\mathit{mentioned}(\mathit{cf},ガ\leftarrow(a)僕,p,t),\phi_{[著者]}(\mathit{cf},ガ\leftarrow(a)僕,p,t)))\end{align*}まず,ガ格では「僕」は文章中に言及されているので,$\phi_\mathit{mentioned}(cf,ガ\leftarrow(a)僕,p,t)$が発火し,また著者表現に対応している談話要素なので$\phi_{[著者]}(\mathit{cf},ガ\leftarrow(a)僕,p,t)$も発火する.$\phi_{[読者]}(\mathit{cf},ガ\leftarrowe,p,t)$,$\phi_{[不特定:人]}(\mathit{cf},ガ\leftarrowe,p,t)$,$\phi_{[不特定:その他]}(\mathit{cf},ガ\leftarrowe,p,t)$は発火せず0ベクトルとなる.$\phi_\mathit{max}(\mathit{cf},ガ\leftarrowe,p,t)$は各要素において$\phi_\mathit{mentioned}(\mathit{cf},ガ\leftarrow(a)僕,p,t)$と$\phi_{[著者]}(cf,ガ\leftarrow(a)僕,p,t)$のうち大きい方の値が素性の値となる.\begin{align*}\phi_{A}(cf,ニ\leftarrow[読者],p,t)&=({\bf0_{\phi_\mathit{mentioned}}},{\bf0_{\phi_{[著者]}}},\\&\qquad\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t),{\bf0_{\phi_{[不特定:人]}}},\\&\qquad{\bf0_{\phi_{[不特定:その他]}}},\mathit{max}(\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t)))\end{align*}ニ格では文章中に言及されていない読者が対応付けられているので,$\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t)$のみが発火し,$\phi_\mathit{max}(\mathit{cf},ニ\leftarrow[読者],p,t)$は$\phi_{[読者]}(\mathit{cf},ニ\leftarrow[読者],p,t)$と同じ値となる.ヲ格は直接係り受けのある「ラーメン屋」と対応付けられているので,ベースラインモデルと同様に素性として考えず,$\phi_{A}(\mathit{cf},ヲ\leftarrowe,p,t)$,$\phi_\mathit{NA}(\mathit{cf},ヲ\leftarrow×,p,t)$ともに0ベクトルとなる.ガ2格は談話要素に対応付けられていないので,ベースラインモデルと同様に$\phi_\mathit{NA}(\mathit{cf},ガ2\leftarrow\linebreak×,p,t)$が発火し,$\phi_{A}(\mathit{cf},ガ2\leftarrowe,p,t)$は0ベクトルとなる.\subsection{使用する素性}提案モデルでは\ref{述語項構造を表現する素性}節で述べたものに加えて,著者表現,読者表現推定スコアを素性として利用する.著者表現,読者表現推定スコアは\ref{135602_6May13}節で著者・読者表現を推定した際のランキング学習の識別関数のスコアである.著者表現推定スコアは$e$が著者表現の場合に$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$と$\phi_{[著者]}(\mathit{cf},c\leftarrowe,p,t)$に,読者表現推定スコアは$e$が読者表現の場合に$\phi_\mathit{mentioned}(\mathit{cf},c\leftarrowe,p,t)$と$\phi_{[読者]}(\mathit{cf},c\leftarrowe,p,t)$に素性として導入する.
\section{実験}
\label{115121_18Jun13}\subsection{実験設定}実験ではDDLCの1,000文書を利用し,5分割交差検定により評価を行った.述語項構造解析および著者・読者表現推定以外の解析結果が原因となる解析誤りを除くため,形態素情報,係り受け情報,固有表現情報,共参照関係はコーパスに人手で付与された正しい情報を利用する.著者・読者表現推定および述語項構造のランキング学習には$\mathit{SVM}^\mathit{rank}$\footnote{http://www.cs.cornell.edu/people/tj/svm\_light/svm\_rank.html}を用いた.\subsection{著者・読者表現推定実験結果と考察}\begin{table}[b]\caption{著者・読者表現推定結果}\label{著者・読者推定結果}\input{1011table12.txt}\end{table}DDLCに対して,著者表現および読者表現を推定した結果を表\ref{著者・読者推定結果}に示す.ここで,著者表現と読者表現は独立に推定しているため,評価も独立して行った.著者・読者表現はそれぞれ各文書で最大1つと仮定されているため,著者・読者表現推定は文書ごとの多値分類問題といえる.そのため評価は文書単位で行い,以下のような数式で求めた.\pagebreak\begin{gather*}適合率=\frac{システムが著者・読者表現を正しく推定できた文書数}{システムが著者・読者表現ありと推定した文書数}\\[0.5zw]再現率=\frac{システムが著者・読者表現を正しく推定できた文書数}{コーパスに著者・読者表現が付与されている文書数}\\[0.5zw]F値=\frac{2\times適合率\times再現率}{適合率+再現率}\\[0.5zw]精度=\frac{システムが著者・読者表現を正しく推定or著者・読者表現なし推定できた文書数}{全文書数}\end{gather*}この結果より,著者・読者表現なしを含めた精度では,著者において0.829,読者において0.936と高い精度を達成できた.一方,再現率はあまり高くなく,著者表現で0.509,読者表現で0.595であった.これはコーパス全体で著者・読者表現が出現文書より著者・読者表現のない文書の方が多く,学習時に著者・読者表現なしを優先するように学習してしまったためと考えられる.読者において適合率が低いが,これは読者の一部のみを想定した表現を読者表現と推定してしまうことが多かったためと考えられる.\begin{figure}[b]\includegraphics{21-3ia1011f8.eps}\caption{著者推定誤り例1}\label{著者推定誤り例1}\end{figure}図\ref{著者推定誤り例1},図\ref{著者推定誤り例2},図\ref{読者推定誤り例1}に誤り例を示す.図\ref{著者推定誤り例1}では,コーパスでは著者表現が出現しないが誤って「山形県山上市」を著者表現と推測してしまった.著者表現では固有表現は大きな手掛かりとなり,特に1文目に出現する固有表現は著者表現となる傾向が強い.また,文体的に談話構造中に著者が出現するような表現が多用されている.そのため誤って「山形県山上市」を著者表現と推測してしまったと考えられる.図\ref{著者推定誤り例2}では,コーパスでは「ジュエリー工房」が著者表現だが,著者表現なしと推定してしまった.この例では「ジュエリー工房」を表現する語彙統語パターンとして利用する部分は,「ジュエリー工房だから」「実現します。」のみであり,手掛かりが少ない.また,「ジュエリー工房」は固有表現でないことも著者表現であると推定することが困難な原因である.\begin{figure}[t]\includegraphics{21-3ia1011f9.eps}\caption{著者推定誤り例2}\label{著者推定誤り例2}\end{figure}\begin{figure}[t]\includegraphics{21-3ia1011f10.eps}\caption{読者推定誤り例1}\label{読者推定誤り例1}\end{figure}図\ref{読者推定誤り例1}では,コーパスでは読者表現は出現しないが誤って「お客様」を読者表現と推測してしまった.この例では,文中の「お客様」は読者ではなく過去に質問をした人を指している.このような場合でも,「様」や「頂きます」のような敬語表現を用いることが多い.これらの表現は読者に対しても頻繁に利用されるため,これらの表現が用いられている「お客様」を著者表現と推定してしまったと考えられる.\subsection{ゼロ照応解析結果と考察}DDLCに対してゼロ照応解析を行った.ベースラインは\ref{114838_18Jun13}節で述べた外界ゼロ照応および著者・読者表現を考慮しないモデルである.提案モデルは\ref{115042_18Jun13}節で述べたモデルである.「提案モデル(推定)」は\ref{135602_6May13}節で述べた手法により自動推定した著者・読者表現を利用したものである.「提案モデル(正解)」は著者・読者表現についてはコーパスの正解を与えたものである.評価は各用言の各格ごとに行い,ある格に複数の正解が付与されている場合は,そのうちの1つと一致すれば正解とした.また,先に述べたように,著者・読者表現がある場合には[著者]・[読者]より著者・読者表現を照応先として優先するとしたが,提案モデル(推定)において,著者・読者表現がある文書に対して著者・読者表現なし,と推定してしまった場合,本来著者・読者表現があるにも関わらず,[著者]・[読者]を割り当てる場合がある.ここでは,ベースラインとの比較のため,このようなものは誤りとして扱った.表\ref{文章内ゼロ照応解析結果}はベースラインとの比較のために,文章内ゼロ照応のみで評価した結果であり,表\ref{全ゼロ照応解析結果}は外界ゼロ照応を含めた全てのゼロ照応で評価を行った結果である.\begin{table}[b]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果}\label{文章内ゼロ照応解析結果}\input{1011table13.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果}\label{全ゼロ照応解析結果}\input{1011table14.txt}\end{minipage}\end{table}\begin{figure}[b]\includegraphics{21-3ia1011f11.eps}\caption{提案モデルによりゼロ照応解析が改善した例1}\label{提案モデルによりゼロ照応解析が改善した例}\end{figure}この結果から,ゼロ照応解析において外界ゼロ照応および著者・読者表現を考慮することで,外界を含めたゼロ照応全体だけでなく,照応先が文章内に出現する文章内ゼロ照応においても再現率・適合率が向上することが分かる.文章内ゼロ照応での評価において,提案モデルは推定した著者・読者表現を利用した場合において,ベースラインのモデルよりも適合率,再現率ともに向上していることが分かる.適合率が向上している原因としては,必須的な格を埋める際に,無理に文章内から選択せず外界の談話要素を選択することができること,敬語などの表現の際に著者表現や読者表現を照応先として選択できることが考えられる.例えば,図\ref{提案モデルによりゼロ照応解析が改善した例}では,ガ格ではベースラインでは「あなた」を対応付けているが,提案モデルでは[著者]を対応付けることで文章内照応に限っても再現率・適合率が向上している.また,敬語表現に対してニ格を読者表現の「あなた」を正しく対応付けることができるようになった.再現率が向上する原因としては,ベースラインモデルでは学習の際に外界照応をゼロ代名詞なしと学習してしまうため,必須的な格でも必ずしも対応付ける必要がないと学習してしまうが,提案手法では必須的な格はなるべく埋めるように学習するためである.例えば図\ref{提案モデルによりゼロ照応解析が改善した例2}では,ベースラインモデルでは必須的な格であるガ格に何も対応付けていない.一方,提案手法ではガ格に対して「神さま」を対応付けることができた.正解の著者・読者表現を与えた場合には,再現率,適合率ともに大きく向上している.このことから著者・読者表現の推定精度を向上させることで,ゼロ照応解析の再現率・適合率がより向上すると考えられる.\begin{figure}[b]\includegraphics{21-3ia1011f12.eps}\caption{提案モデルによりゼロ照応解析が改善した例2}\label{提案モデルによりゼロ照応解析が改善した例2}\end{figure}\begin{table}[b]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ガ格)}\label{文章内ゼロ照応解析結果(ガ格)}\input{1011table15.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ガ格)}\label{全ゼロ照応解析結果(ガ格)}\input{1011table16.txt}\end{minipage}\end{table}\begin{table}[t]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ヲ格)}\label{文章内ゼロ照応解析結果(ヲ格)}\input{1011table17.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ヲ格)}\label{全ゼロ照応解析結果(ヲ格)}\input{1011table18.txt}\end{minipage}\end{table}\begin{table}[t]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ニ格)}\label{文章内ゼロ照応解析結果(ニ格)}\input{1011table19.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ニ格)}\label{全ゼロ照応解析結果(ニ格)}\input{1011table20.txt}\end{minipage}\end{table}\begin{table}[t]\begin{minipage}{0.49\textwidth}\caption{文章内ゼロ照応解析結果(ガ2格)}\label{文章内ゼロ照応解析結果(ガ2格)}\input{1011table21.txt}\end{minipage}\hfill\begin{minipage}{0.49\textwidth}\caption{全ゼロ照応解析結果(ガ2格)}\label{全ゼロ照応解析結果(ガ2格)}\input{1011table22.txt}\end{minipage}\end{table}格ごとに評価を行った結果を表\ref{文章内ゼロ照応解析結果(ガ格)},表\ref{全ゼロ照応解析結果(ガ格)},表\ref{文章内ゼロ照応解析結果(ヲ格)},表\ref{全ゼロ照応解析結果(ヲ格)},表\ref{文章内ゼロ照応解析結果(ニ格)},表\ref{全ゼロ照応解析結果(ニ格)},表\ref{文章内ゼロ照応解析結果(ガ2格)},表\ref{全ゼロ照応解析結果(ガ2格)}に示す.表\ref{文章内ゼロ照応解析結果(ガ格)},表\ref{全ゼロ照応解析結果(ガ格)}から,ガ格において特に提案手法により再現率,適合率が共に向上したことが分かる.これは,ガ格では特に著者に関するゼロ照応が多いこと,外界ゼロ照応を考慮することでほぼ全てのガ格がゼロ代名詞を持つことが原因と考えられる.表\ref{文章内ゼロ照応解析結果(ニ格)},表\ref{全ゼロ照応解析結果(ニ格)}から,ニ格においても提案手法により再現率,適合率が共に向上したことが分かる.特に適合率が大きく向上しており,これはニ格は用言の受け手(「紹介します」のニ格など)となることや謙譲語の敬意を示す対象(「お届けします」)となることが多く,読者の情報が照応先推定に大きく寄与したためと考えられる.一方,表\ref{文章内ゼロ照応解析結果(ヲ格)},表\ref{全ゼロ照応解析結果(ヲ格)}から,ヲ格では適合率が向上しているものの,再現率が低下していることが分かる.ヲ格は著者・読者に関するゼロ照応が少なく,外界ゼロ照応の割合も少ないことから提案手法が有効に働かなかったものと考えられる.適合率が向上し,再現率が低下した要因としては格フレームの選択誤りが考えられる.格フレームの用例選択においては特にヲ格が重要な役割を持っており,ヲ格が省略された場合には正しい格フレームを選択することが困難となる.特に他の格が外界ゼロ照応となる場合には,ベースライン手法では他の格の割り当てを考慮せずに,照応先候補の中にヲ格として対応するものが存在する格フレームを選択することが多い.この場合,格フレームとしてはヲ格に対応付けられることが妥当であるが,文脈的には正しくないものも含まれるので,再現率は高くなるが適合率が低くなると考えられる.一方,外界ゼロ照応を考える場合には,ガ格が格フレームに適合するかを考慮する必要があるため,述語項構造全体として適切な格フレームを選択できない場合がある.その場合には,ヲ格には適切な照応先がないと判断されてしまうので,再現率が低下していると考えられる.表\ref{文章内ゼロ照応解析結果(ガ2格)},表\ref{全ゼロ照応解析結果(ガ2格)}からガ2格はベースライン,提案手法ともにほぼ推定できていないことが分かる.これは,ガ2格のゼロ照応での出現が非常に少なく学習時にガ2格を割り当てる必要がないと判断されることと,ガ2格を持つ格フレームが少ないことが原因である.\begin{figure}[b]\vspace{-0.5\Cvs}\includegraphics{21-3ia1011f13.eps}\caption{提案モデルの誤り例1}\label{提案モデルの誤り例1}\end{figure}\begin{figure}[b]\includegraphics{21-3ia1011f14.eps}\caption{提案モデルの誤り例2}\label{提案モデルの誤り例2}\vspace{-0.5\Cvs}\end{figure}提案手法で誤った例を図\ref{提案モデルの誤り例1}と図\ref{提案モデルの誤り例2}に示す.図\ref{提案モデルの誤り例1}では,提案手法は「捻出しなければならない」のガ格に[不特定:人]を対応付けてしまった.\pagebreakこれは,「提出する」の格フレームではガ格に「国」を対応付ける用例が少なかったため,「国」ではなく外界の[不特定:人]を対応付けることを選択してしまったためである.\begin{table}[t]\caption{正解の条件を緩めて評価した結果}\label{緩和評価}\input{1011table23.txt}\end{table}図\ref{提案モデルの誤り例2}は著者表現の推定誤りがゼロ照応解析の誤りの原因である.この文章では著者表現が「領事館」であるため,「開設しました」のガ格には「領事館」を対応付けなければならない.しかし,提案手法では誤って著者表現なしと推定してしまったため,「領事館」を対応付けることができず,[著者]を対応付けてしまった.しかし,このような誤りは著者がガ格であるということは推定できているため厳密には誤りとは言えない.そこで,このような著者・読者表現を対応付けるべき格に対して[著者],[読者]を対応付けてしまった場合にも正解とみなして評価を行った結果を表\ref{緩和評価}に示す.表\ref{緩和評価}と表\ref{文章内ゼロ照応解析結果}および表\ref{全ゼロ照応解析結果}を比較すると,正解の条件を緩めた場合に再現率,適合率共に大きく向上している.このことから,提案モデル(推定)の誤りの多くが図\ref{提案モデルの誤り例2}のように著者・読者表現の推定が誤りといえる.一方,正解の条件を緩和させた場合でも提案モデル(コーパス著者・読者表現)よりは低い再現率と適合率となっている.これらの差は,解析時に正しい著者・読者表現を利用できる場合には$\phi_\mathit{mentioned}$および$\phi_{[著者]}$または$\phi_{[読者]}$を素性として利用しているが,解析後に著者・読者表現の情報から[著者],[読者]を正解とする場合には,解析時には$\phi_{[著者]}$,$\phi_{[読者]}$のみを利用していることである.このことから,提案手法のように著者・読者表現に対して文章中に言及される談話要素と仮想的な談話要素の両方の性質を与えることが有効といえる.\subsection{京都大学テキストコーパスでの実験}DDLCは先頭3文のみで構成されており,文章全体でゼロ照応解析を行った場合の影響が調査できない.そこで,文章全体での本手法の精度を調査するために京都大学テキストコーパスを利用した実験を行った.実験では京都大学テキストコーパスのゼロ照応関係が付与された567文書のうち,454文書を訓練に,113文書を評価に利用した.京都大学テキストコーパスには著者・読者表現が付与されていないため,全ての文書において著者・読者表現が存在しないと仮定して実験を行った.その結果を表\ref{京都大学テキスココーパスにおける文章内ゼロ照応解析結果}と表\ref{京都大学テキストコーパスにおける全ゼロ照応解析結果}に示す.この結果から,提案モデルはベースラインモデルに比べ大きくF値が向上したとは言い難い.これは,京都大学テキストコーパスを構成している新聞記事は,著者・読者が談話に登場することが稀であることが大きな原因である.提案手法では,特に著者・読者に着目しており,そのために外界ゼロ照応を扱ったが,著者・読者が談話に出現しない場合,外界ゼロ照応を扱うことの寄与度は低いことが分かる.\linebreak一方,文章全体におけるF値がベースラインとほぼ同等であり,提案手法を文章全体適用した場合についても,悪影響などはないと言える.これらの考察から,提案手法を著者・読者が談話に出現する文章の全体に対して適用した場合,先頭3文における実験結果と同様に精度が向上するものと考えられる.\vspace{-0.3\Cvs}\begin{table}[t]\setlength{\captionwidth}{200pt}\begin{minipage}{200pt}\hangcaption{京都大学テキストコーパスにおける文章内ゼロ照応解析結果}\label{京都大学テキスココーパスにおける文章内ゼロ照応解析結果}\input{1011table24.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{京都大学テキストコーパスにおける全ゼロ照応解析結果}\label{京都大学テキストコーパスにおける全ゼロ照応解析結果}\input{1011table25.txt}\end{minipage}\end{table}
\section{まとめ}
\label{115208_18Jun13}\vspace{-0.2\Cvs}本論文では,外界ゼロ照応および著者・読者表現を考慮した日本語ゼロ照応解析モデルを提案した.ゼロ照応解析の前処理として文章中の著者・読者表現を語彙統語パターンを用いて自動的に判別し,ゼロ照応解析において他の談話要素と区別して扱った.DDLCを用いた実験の結果,外界ゼロ照応だけでなく,文章内ゼロ照応においても提案手法を用いることで,高い精度が得られた.今後の課題としては,著者・読者表現の精度向上が挙げられる.本研究では,テキストの内容のみから著者・読者表現推定を行ったが,実際の解析ではWeb特有の情報(URLやHTMLタグ)が利用できる.これらの情報は,URLのドメインに含まれる表現は著者表現である可能性が高い,.comドメインでは客が読者表現になりやすい,など,著者・読者表現推定において有用であると考えれられる.ゼロ照応解析の精度向上では,事態間関係知識の利用などが考えられる.例えば,「Aを食べた$\leftarrow$Aが美味しかった」といった関係が分かっていれば,「チョコを食べたが(チョコガ)美味しかった」の「美味しかった」のゼロ照応解析で手掛かりになると考えられる.\vspace{-0.5\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Gerber\BBA\Chai}{Gerber\BBA\Chai}{2010}]{gerber-chai:2010:ACL}Gerber,M.\BBACOMMA\\BBA\Chai,J.\BBOP2010\BBCP.\newblock\BBOQBeyondNomBank:AStudyofImplicitArgumentsforNominalPredicates.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1583--1592},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hangyo,Kawahara,\BBA\Kurohashi}{Hangyoet~al.}{2012}]{hangyo-kawahara-kurohashi:2012:PACLIC}Hangyo,M.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2012\BBCP.\newblock\BBOQBuildingaDiverseDocumentLeadsCorpusAnnotatedwithSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe26thPacificAsiaConferenceonLanguage,Information,andComputation},\mbox{\BPGS\535--544},Bali,Indonesia.FacultyofComputerScience,UniversitasIndonesia.\bibitem[\protect\BCAY{Hayashibe,Komachi,\BBA\Matsumoto}{Hayashibeet~al.}{2011}]{hayashibe-komachi-matsumoto:2011:IJCNLP-2011}Hayashibe,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQJapanesePredicateArgumentStructureAnalysisExploitingArgumentPositionandType.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\201--209},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Herbrich,Graepel,Bollmann-Sdorra,\BBA\Obermayer}{Herbrichet~al.}{1998}]{herbrich1998learning}Herbrich,R.,Graepel,T.,Bollmann-Sdorra,P.,\BBA\Obermayer,K.\BBOP1998\BBCP.\newblock\BBOQLearningPreferenceRelationsforInformationRetrieval.\BBCQ\\newblockIn{\BemICML-98Workshop:TextCategorizationandMachineLearning},\mbox{\BPGS\80--84}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida-inui-matsumoto:2006:COLACL}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingSyntacticPatternsasCluesinZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\625--632},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2009}]{iida-inui-matsumoto:2009:ACLIJCNLP}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCapturingSaliencewithaTrainableCacheModelforZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\647--655},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida-EtAl:2007:LAW}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},\mbox{\BPGS\132--139},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura-saito-izumi:2009:Short}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\85--88},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{磯崎\JBA賀沢\JBA平尾}{磯崎\Jetal}{2006}]{磯崎秀樹:2006-07-15}磯崎秀樹\JBA賀沢秀人\JBA平尾努\BBOP2006\BBCP.\newblock辞書式順序を持つペナルティによるゼロ代名詞解消.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(7),\mbox{\BPGS\2279--2294}.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims2002optimizing}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesusingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\133--142}.ACM.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2007}]{河原大輔:2007-07-10}河原大輔\JBA黒橋禎夫\BBOP2007\BBCP.\newblock自動構築した大規模格フレームに基づく構文・格解析の統合的確率モデル.\\newblock\Jem{自然言語処理},{\Bbf14}(4),\mbox{\BPGS\67--81}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara-kurohashi:2006:HLT-NAACL06-Main}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\176--183},NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{KTC}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofaJapaneseRelevance-taggedCorpus.\BBCQ\\newblockIn{\BemProceedingsofThe3rdInternationalConferenceonLanguageResourcesEvaluation}.\bibitem[\protect\BCAY{Kong\BBA\Zhou}{Kong\BBA\Zhou}{2010}]{kong-zhou:2010:EMNLP}Kong,F.\BBACOMMA\\BBA\Zhou,G.\BBOP2010\BBCP.\newblock\BBOQATreeKernel-BasedUnifiedFrameworkforChineseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\882--891},Cambridge,MA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1997}]{199787}村田真樹\JBA長尾真\BBOP1997\BBCP.\newblock用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定.\\newblock\Jem{自然言語処理},{\Bbf4}(1),\mbox{\BPGS\87--109}.\bibitem[\protect\BCAY{Poesio,Uryupina,\BBA\Versley}{Poesioet~al.}{2010}]{poesio2010creating}Poesio,M.,Uryupina,O.,\BBA\Versley,Y.\BBOP2010\BBCP.\newblock\BBOQCreatingaCoreferenceResolutionSystemforItalian.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonInternationalLanguageResourcesandEvaluation(LREC'10)},Valletta,Malta.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Rello,Baeza-Yates,\BBA\Mitkov}{Relloet~al.}{2012}]{rello2012elliphant}Rello,L.,Baeza-Yates,R.,\BBA\Mitkov,R.\BBOP2012\BBCP.\newblock\BBOQElliphant:ImprovedAutomaticDetectionofZeroSubjectsandImpersonalConstructionsinSpanish.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\706--715}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ruppenhofer,Sporleder,Morante,Baker,\BBA\Palmer}{Ruppenhoferet~al.}{2010}]{ruppenhofer-EtAl:2010:SemEval}Ruppenhofer,J.,Sporleder,C.,Morante,R.,Baker,C.,\BBA\Palmer,M.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task10:LinkingEventsandTheirParticipantsinDiscourse.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\45--50},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano-kawahara-kurohashi:2008:PAPERS}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},\mbox{\BPGS\769--776},Manchester,UK.Coling2008OrganizingCommittee.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{sasano-kurohashi:2011:IJCNLP-2011}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\758--766},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{平\JBA永田}{平\JBA永田}{2013}]{平2013}平博順\JBA永田昌明\BBOP2013\BBCP.\newblock述語項構造解析を伴った日本語省略解析の検討.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\106--109}.\bibitem[\protect\BCAY{山本\JBA隅田}{山本\JBA隅田}{1999}]{山本和英:1999}山本和英\JBA隅田英一郎\BBOP1999\BBCP.\newblock決定木学習による日本語対話文の格要素省略補完.\\newblock\Jem{自然言語処理},{\Bbf6}(1),\mbox{\BPGS\3--28}.\end{thebibliography}\begin{biography}\bioauthor{萩行正嗣}{2008年京都大学工学部電気電子工学科卒業.2010年同大学大学院情報学研究科修士課程修了.2014年同大学院博士後期課程修了.博士(情報学).現在,株式会社ウェザーニューズ所属.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞等を受賞.}\end{biography}\biodate\end{document}
| |
V06N06-04
|
\section{はじめに}
\label{section:intro}日本のテレビ番組における字幕付き放送の割合は10\%程度と低く,近年,字幕放送率向上を目指し,自然言語処理技術を応用した効率的な字幕生成が切望されている\cite{EharaAndSawamuraAndWakaoAndAbeAndShirai1997}.番組の音声情報を字幕化するには,文章を適度な長さに要約する必要があるため,本研究では,ニュース原稿(テキスト)を入力とした,字幕生成のための自動要約を試みた.本要約手法では,ニュース文の特徴を利用し,1文ごとの要約を行っている.テキスト自動要約研究の多くは,テキスト中の文もしくは文のまとまりを1単位とし,何らかの情報に基づき重要度を決定,抽出することで要約を行う.このような要約手法は,文献検索において原文の大意を把握するための補助などに用いられ,成果を上げている\cite{SumitaAndChinoAndOnoAndMiike1995}.ニュース番組における字幕生成では,ニュース原稿の第1文(全体の概要を述べる場合が多い)を抽出することによる要約が考えられるが,画面に表示されるVTRなどとの対応を考慮に入れると,必ずしも十分でない.文単位の抽出においては,照応や文の結束性を保つため,採用文の前文も採用するなどの対策が講じられているが\cite{ChrisD.Paice1990},不要な文まで芋蔓式に採用してしまう場合もあり,結束性と首尾一貫性をより高めるには後編集を行う必要があるなど,その困難さも同時に報告されている\cite{YamamotoAndMasuyamaAndNaito1995}.また,与えられたテキストから必要な情報を抜き出す手法として,情報抽出研究が注目されている\cite{JimCowieAndWendyLehnert1996}.この手法は,領域が限定された記事に対しては有効である.しかし,与えられたニュース原稿には「事件」,「政治」といった領域を限定する情報が与えられておらず,字幕文生成への情報抽出手法の適用は難しいと考えられる.ニュース文は新聞記事に比べ,1文中の文字数が多く,1記事あたりの文数が少ないという特徴を持つ\cite{WakaoAndEharaAndMurakiAndShirai1997}.このため,字幕用の要約文を生成するために,文を単位とした抽出を行うと,採用される情報に大きな偏りが生ずるという問題がある.若尾ら\cite{WakaoAndEharaAndShirai1998_7}は,自動短文分割後,重要文を抽出することによるニュース文の自動要約を行っている.これに対し,本手法は,ニュース原稿における各文はそれぞれ同様に重要であり,画面との対応や記事全体での結束性を重視するという立場から,ニュース文の構文構造を利用し,文中の修飾語句等を削除することによる,1文ごとの要約を行っている.1文の一部を抜き出すことで,より自然な文章を生成するには,残存部に係る部分の削除を避けなければならない.本手法では,ニュース文の各文における最後尾の動詞は重要であると仮定し,これに係ると考えられる部分を残すことにより,不自然な要約文の生成を防いでいる.また,本研究は,言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}を後処理に適用し,最終的な字幕文を生成することを想定しているが,本論文では両手法を併用せず,本要約手法の分析に焦点を絞った.本要約手法についての背景,目的等は,\ref{section:news}節でも詳述する.自動要約研究においては,正しい要約を唯一に定義することが困難なことから,その評価についても様々な手法が用いられる.その一つに,人間の被験者の生成した要約文と,システムが生成した要約文を比較する評価法があるが,複数の被験者の要約が高い割合で一致することは難しいと考え\cite{OkumuraAndNanba1998},システムによる要約文を被験者に数値で評価させる手法をとった.同様の手法による評価を山本ら\cite{YamamotoAndMasuyamaAndNaito1995}が行っているが,数値のみで評価した場合,被験者が不適切と判断した箇所を特定するのが難しいという問題がある.山本らは被験者に対し,質問項目以外に感想を求めており,それを分析することで要約の不適切さの原因やその改善を検討している.本論文においては,要約が不適切な箇所をより特定し,分析を行うことを考え,実施したアンケートでは数値による評価に加え,要約が不適切と思われる箇所を被験者に指摘させた.自動要約の評価法に関しては,他に,要約を利用したタスクの達成率を見ることにより,間接的に要約文の評価を行うものがある.住田ら\cite{SumitaAndChinoAndOnoAndMiike1995}は,抄録文の文書集合から,設問に対応する文書を選択するというタスクを被験者に与え,選択された文書数と正解の文書数から再現率を求めている.しかし,本論文では字幕文生成の要約のため,適切なサブタスクを設定することが難しく,また,被験者の持つ知識の差を考慮した場合,その評価が難しいと予想されるため,用いなかった.以下,\ref{section:news}節でニュース文要約の目的,手法およびニュース原稿の特徴等について述べ,\ref{section:shuhokousei}節から\ref{section:sakujobunsetusentaku}節で,提案する1文ごとの自動要約手法について述べる.\ref{section:evaluation}節では,アンケート調査に基づき,本手法を評価する.\ref{section:observation}節では,自動要約実験およびアンケート調査によって明らかになった,本要約手法の問題点等を考察する.なお,入力コーパスとして,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.
\section{ニュース文要約}
\label{section:news}自動要約文は,多くの場合,文書のダイジェスト情報を把握することや,関連記事群の鳥瞰情報を得る等の目的で用いられる.このような目的で用いられる要約結果は,できる限り文字数が少なく,かつ,入力文の特徴もしくは必要とする情報を圧縮し,適切に抽出していることが求められる.これに対し,本研究における要約は,ニュース字幕の自動生成を目的とする.字幕の利用者として聴覚障害者等を想定した場合,本来ならニュース原稿の内容を全て字幕にするのが望ましい.しかし,より読みやすくするためには,適切な長さに要約する必要がある(冗長さの解消).実際,テレビ番組で使用されている字幕は文字数が制限されており\cite{WakaoAndEharaAndShirai1997},宮坂は,原稿を要約した字幕が,全文を用いた字幕より読みやすいことをアンケート結果から分析,報告している\cite{Miyasaka1998}.また,画面は時系列的に変化するため,利用者が読み直すことなく理解できる,より読みやすい(文として自然である)文章であることが字幕文には求められる(自然さの確保).さらに,要約による入力原稿重要部の欠落は極力避ける必要があり(忠実さの確保),生成された字幕は,できる限り画面の内容と同調していることが望ましい.このような理由から,本要約手法では,ニュース原稿の文ごとの短縮を目標としている(入力原稿は画面の内容と同調していると仮定).入力中の1文を全て削除した場合,画面に字幕が出力されない時間が生じ,字幕利用者に不安を与える可能性があるため,文そのものの削除は原則的に行っていない.より質の良い出力を得るには,記事全体を理解し,文脈を理解した上で要約を行うことが求められるが,現時点でそのような要約過程の全てを自動化するのは難しい.そこで,本研究では,まず,表層的な情報から連体修飾句などを冗長部と認定し,削除することによるニュース文要約を試みる.また,従来の自動要約には取り入れられていなかった構文解析を利用することで,文内の部分的な削除による構文構造の破壊に対処した.構文解析は,解析誤りによる要約文の品質低下への虞などから従来用いられていなかったと考えられ,本手法でも厳密な解析結果の利用は避けるべきと判断し,ニュース文要約に特化した簡易構文解析手法を考案した.ニュース文の要約手法として,言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}があるが,現段階の要約率は90\%程度であり,単独で用いたのでは必ずしも十分でない.本要約手法は,後処理として言い替えによる要約を適用することを想定し,実用化する際には両手法を併用して要約率70\%程度の達成を目標としている.このため,本要約手法は,語尾の冗長な表現などには対処していない.また,本研究は現在,実用的な要約システム構築のための基礎研究の段階にあり,本要約手法自身の持つ性質,効果,限界を明確にするため,本論文では言い替えによる要約\cite{YamasakiAndMikamiAndMasuyamaAndNakagawa98}を併用しなかった.言い替えによる要約は江原ら\cite{EharaAndSawamuraAndWakaoAndAbeAndShirai1997}の一連の要約研究においてもほぼ同様の手法が提案されており,これを本要約手法の後処理に用いることも原理的に可能である.また,本研究は対象をニュース文に限定し,要約手法を検討した.以下に,ニュース文の主な特徴をまとめる.\subsection*{ニュース原稿の特徴}\label{section:tokucho}与えられたニュース原稿の特徴を以下に列挙する.なお,これらのうちの一部は若尾ら\cite{WakaoAndEharaAndMurakiAndShirai1997}によって既に指摘されている.\begin{enumerate}\item各記事ごとに,日付と原稿名が与えられている(ただし,原稿名が記事の要約にはなっていない場合も多い)\item段落構造が無い\cite{WakaoAndEharaAndMurakiAndShirai1997}\item最初の1文が全体の要約文になっている\cite{WakaoAndEharaAndMurakiAndShirai1997}\item新聞記事に比べ,1文が長く,1記事内の文数が少ない\cite{WakaoAndEharaAndMurakiAndShirai1997}\item複文((主・)述を含む節が文全体の主・述部または修飾部等になっている文)や,連用中止法による並列構造が多い\item新聞記事に比べ,話し言葉に近く,助詞の欠落や変則的な読点の使用が見られる\end{enumerate}本研究では,これらの特徴を踏まえ,要約手法を検討した.
\section{本要約手法の構成}
\label{section:shuhokousei}本要約手法は以下に示す部分からなる.\begin{description}\item[簡易構文解析部]形態素解析器JUMAN3.5による形態素解析後,構文解析器KNP2.0b5により入力文の文節情報を取り出し,入力文を文節に切り分け,ニュース文要約に特化した簡易的な係り受け解析を行う.\item[削除文節選択部]修飾部など,事実を伝える上で比較的冗長である文節を認定後,さらに簡易構文解析結果を利用し,削除部を認定する.\end{description}
\section{簡易構文解析}
\label{section:kannikoubunkaiseki}1文を部分的に削除することにより構文構造が破壊されることを防ぐためには,構文解析を行う必要がある.しかし,\ref{section:tokucho}節でも触れたように,ニュース文は新聞記事等に比べ口語体に近く,現在の構文解析技術を用いて高精度な解析を行うことは難しい.\label{part:001}このため,不適切な削除を避ける目的においてより頑健であることを重視し,ある程度の曖昧性の残存を許した,ニュース文要約に特化した係り受け解析を行う.このような観点から,簡易構文解析は,厳密な解析を避け,KNPが出力する文節情報を基に,適切な削除を補助する目的で行った.本論文では,ニュース原稿における1文の最後の述部(1文中で最後に現れる用言,以下単に述部と呼ぶ)を文全体の核と仮定し,述部に係る文節の削除は,文全体の自然さを破壊すると考える.このような不適切な削除を避けるため,簡易構文解析では,係り関係が連用である文節は述部に係ると認定するなど,より遠い用言に係ると推定される文節は,全て述部に係ると認定する.ここで,述部に係ると考えられる文節までで文を分割した各文節列を並列単位(\ref{section:heiretsutanni}節参照)とし,各並列単位の最後尾の文節(以下,連用文節と呼ぶ)を原則的に残すことで,不適切な削除を避ける(「〜は」などの文節も用言に係ると考え,連用文節に含める).連用文節の全てが,必ずしも述部に係るわけではないが,より遠い用言に係ると推定される文節は,多くの場合,他の連用文節のいずれかに係ると推定される.また,削除部の認定においては,冗長部に係る文節が残存することによる,不適切な要約文の生成を避ける必要がある.このため,簡易構文解析は,冗長と認定された文節に係る文節を特定し,不要となる部分が残存することを避ける.この場合も,厳密な解析を避け,連用文節以外の文節は,同一並列単位内に含まれる後部のいずれかの文節に係ると推定することで対処する.以下では,簡易構文解析について述べる.\subsection{文節の認定}入力文をKNPによって解析した結果,KNPが1文節として出力した形態素列を,それぞれ1文節とする.\subsection{並列単位の認定}\label{section:kakarisaki}\label{section:heiretsutanni}以下に示す規則に基づき,述部に係る文節を認定する.KNPが出力した文節パターン情報(文節の働きを示す情報)に基づき,\begin{itemize}\item係り関係が<連用>の場合(用言で,その活用形が連用形),\item係り関係が<同格未格\footnote{「『(体言)など』(同格か未格かわからない)」(KNPrule\_comment.txt).\label{part:006}}>,<未格\footnote{「未格.『〜は』,『〜すら』など」(KNPrule\_comment.txt).KNP内部での,副助詞だけで格助詞がない格要素の呼称.}>の場合,\itemパターンが,「では」,「に」(外の関係\footnote{被修飾語が修飾語(動詞)の格要素にならない\cite{youyaku_ruikei}.格要素になる場合を,「内の関係」と呼ぶ.}),「で」(並列\footnote{KNPでは,「(外の関係)」および「(並列)」の特定を,構文解析の前に行う.\label{part:007}})を示す場合\end{itemize}に,その文節は述部に係ると認定する.ただし,\begin{itemize}\item時間を表す名詞の場合,\item副詞の場合,\item最後の形態素が「と」,「も」の場合,\item直後の文節が動詞を含む場合\end{itemize}には,その文節は述部には係らないものとする.以上の結果,述部に係ると認定された文節を連用文節とし,連用文節までで文を分割したそれぞれの文節列を,並列単位とする(ただし,形態素数が1の並列単位は認めず,その場合は直後の並列単位と統合する).また,連用文節以外の文節は,同一並列単位内に含まれる後部のいずれかの文節に係ると認定する.\label{part:000}\subsection{簡易構文解析結果例}\label{section:koubunkaisekirei}簡易構文解析結果の例を以下に示す(付録\ref{section:ap_g_5}節で示す要約結果例の第1文).認定された並列単位の区切りを,「$\parallel$」で表す.また,各文節の区切りを,「$\mid$」で表す.\begin{quote}\begin{namelist}{x}\item[{[例文1]}]政府は、$\parallel$きょうの$\mid$閣議で、$\parallel$退職公務員などに$\mid$支給される$\mid$恩給を、$\mid$今年の$\mid$四月から$\mid$年額$\mid$二点$\mid$六六パーセント$\mid$引き上げる$\mid$恩給法の$\mid$改正案を$\mid$決定し、$\parallel$国会に$\mid$提出する$\mid$ことに$\mid$しています。\end{namelist}\end{quote}KNPにより,例文中の「政府は」は未格,「閣議で」および「決定し」は連用と解析されたため,述部に係ると認定した.この例においては,「退職公務員などに支給される恩給を、」は「引き上げる」に係ると解釈するのが正しいと考えられるが,KNPでは,そのような解析結果を得ることができなかった.この場合,「引き上げる」が冗長と認定されても,「退職公務員などに支給される恩給を、」が要約文に残存してしまう.実際に,要約結果では「引き上げる」が冗長と認定されるが,簡易構文解析結果を利用することにより,同一並列単位内に含まれ,かつ,「引き上げる」よりも前方の全ての文節が,削除部として認定された(削除部の認定法については,\ref{section:sakujobunintei}節で後述).簡易構文解析では,「退職公務員などに支給される恩給を、」が「引き上げる」に係るのか「決定し」に係るのかは特定しないが,この例のように,不適切な残存を避けるために有用である.また,「決定し、」に係ると解釈するのが妥当と考えられる「閣議で、」は,簡易構文解析によって連用文節と認定されているが,「決定し、」も連用文節と認定されるため,適切な要約を生成することができる.
\section{削除文節選択}
\label{section:sakujobunsetusentaku}ニュース文の中心的な内容が影響を受けない部分を削除することにより,要約を行う.本要約手法では,連体修飾語,および,例示を表す語など,削除によって意味的に変化が生じにくいと考えられる語を伴う部分を冗長部と定義し,削除候補とする.削除候補は文節を最小単位として選択するが,同一文節中に重要と考えられる語を含む場合や,係り先の文節(直後の文節)の最初の形態素が形式名詞および形式名詞に準ずる名詞(その語単独ではあまり意味を持たない語,以下形式的表現と呼ぶ)である場合などは削除しないなど,例外処理も設けている.以下,冗長部の認定,形式的表現,削除部の認定について述べる.\subsection{冗長部の認定}\label{section:jochobunintei}JUMANによる形態素解析結果において,活用形がタ形・基本形・連体形のいずれかに分類され,かつ,直後に名詞(形式名詞および副詞的名詞を除く)がある場合,そのような形態素を伴う文節は修飾部であると判断し,冗長部とした.また,例示などを示す表現を含む文節を,冗長部とした(「など」,「や」,「ほか」,「とともに」,「うち」,「として」,「結果」).ただし,同一文節中に(1)原稿名および第1文中の名詞,(2)主要語(山本ら\cite{YamamotoAndMasuyamaAndNaito1995}が定義,角川類語新辞典\cite{kadokawa}の大分類番号が\{0,5,7,8,9\}である語および固有名詞),\label{part:002}(3)重要と考えられる表現(主格や目的格となり得る格助詞や,「ため」など)\label{part:003}を含む場合,それらの情報も考慮して,冗長/非冗長を決定した.なお,重要/冗長を示す語は,あらかじめ人手でテーブルを作成し,その情報から認定する.\subsection{形式的表現}\label{section:keishikitekihyogen}文中の修飾部を削除する場合,形式的表現に係るものを削除すると,意味が取れなくなる可能性がある.このため,係り先に形式的表現がある場合は,削除候補としない.形式的表現は,あらかじめ人手で辞書を作成し,その辞書を用いることで認定する.現在形式的表現として43個の表現を登録している(「時期」,「見通し」,「構え」など).以下の例文では,形式的表現に係る部分(下線部)が強制的に採用された.\begin{quote}\begin{namelist}{x}\item[{[例文2]}]六月までの上半期では\underline{去年の同じ}時期に比べて...\end{namelist}\end{quote}\subsection{削除部の認定}\label{section:sakujobunintei}\ref{section:jochobunintei}節および\ref{section:keishikitekihyogen}節に示す処理の結果,冗長部と認定され,削除の対象となる文節が選択される.このとき,削除される文節に係る部分が残存することによる構文構造の破壊を防ぐため,簡易構文解析において係り先である可能性があると判断された文節が削除される場合,係り元の文節も削除する.この結果,冗長部と認定された文節と同一並列単位内に含まれ,かつ,冗長部と認定された文節より前方にある文節は削除部と認定される.以下の例文では,「言われる」および「発生するなど」が冗長部と認定され,その文節に係る可能性のある文節を削除した結果,最終的に文中の[$\cdots$]の部分が削除部として認定された.\begin{quote}\begin{namelist}{x}\item[{[例文3]}]\label{part:008}[首都圏最後の”水がめ”とも言われる]霞ケ浦は、[毎年、夏場になると大量のアオコが発生するなど]流域の都市化に伴って年々汚れが目立っていることから建設省では浄化対策として昭和五十年から土浦港を中心に、しゅんせつ工事を進めています。\end{namelist}\end{quote}
\section{評価}
\label{section:evaluation}\subsection{要約結果および評価方法}ニュース文要約においては,自然さの確保,忠実さの確保,冗長さの解消が重要であると考えられる(\ref{section:news}節参照).このため,被験者(工学部学生および大学院生)32名に対して本手法による要約文に関するアンケートを行い,本要約手法の有効性を評価した.アンケートは,10記事(1993年1月および2月のニュース原稿)を用い,それぞれの記事を入力とした際の自動要約結果および自動要約による削除部を明示した入力原稿を被験者に提示し,以下に示す項目について0〜5までの整数で評価値を付与させることで行った.また,評価値が5以外の場合,要約の失敗箇所を明確化するため,評価値の他に自動要約結果の不適切と考えられる部分を指摘させた.\begin{enumerate}\item自然さ各要約文章のみを独立した文章として読んだときに,自然かどうか\item忠実度(重要部欠落の指摘)原文と要約文とを比較し,原文で重要と考えられる部分を抽出しているか(抽出されていない箇所がある場合,上位5箇所を指摘)\item非冗長度(冗長部残存の指摘)原文と要約文とを比較し,原文で冗長と考えられる部分が残存していないか(残存している箇所がある場合,上位5箇所を指摘)\end{enumerate}\ref{section:shizensa}節以下では,これらの質問および得られた回答について述べる.なお,アンケートに用いた要約結果は,\begin{itemize}\item適切な原稿名が付与されているもの\item元原稿が文として読みやすいもの\item入力の記事長が短すぎないもの\itemKNPがエラー(「;;Cannot」で始まる行など)を出していないもの\label{part:004}\itemKNPが大きな解析誤り(係り受け解析の誤り)を起こしていないもの\item要約率が80\%前後のもの\end{itemize}の全てを満たすという条件の下で無作為に選んだ.また,事前に試行テストを行うことにより,回答時間を1記事当たり10分と設定して回答させた.原稿1から10の要約率を表\ref{table:youyakukekka}に示す.要約率の算出は,\[要約率=\frac{要約文の全文字数}{入力文の全文字数}\times100(\%)\]で行った.表\ref{table:youyakukekka}中の原稿文字数は,入力原稿の文字数(記号,句読点等も1文字と数える)を表す.表\ref{table:yukokaitousu}に,自然さ,忠実度,非冗長度の数値による評価に対する有効回答数を示す.また,付録に,原稿5および原稿9の要約結果を示す.\begin{table}[tbp]\scriptsize\begin{center}\caption{要約結果}\label{table:youyakukekka}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|}\hline&原稿1&原稿2&原稿3&原稿4&原稿5&原稿6&原稿7&原稿8&原稿9&原稿10\\\hline\hline要約率(\%)&82.3&76.7&82.8&77.7&85.1&79.5&71.9&80.0&66.7&75.4\\\hline原稿文字数&672&514&580&506&424&555&551&426&555&334\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\scriptsize\begin{center}\caption{有効回答数}\label{table:yukokaitousu}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|}\hline&原稿1&原稿2&原稿3&原稿4&原稿5&原稿6&原稿7&原稿8&原稿9&原稿10\\\hline\hline自然さ&32&32&32&32&32&30&30&30&29&30\\忠実度&32&32&32&32&31&30&30&29&29&30\\非冗長度&32&32&32&32&32&30&30&29&29&29\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文の自然さ}\label{section:shizensa}要約文は字幕として表示されることを前提としているため,できるだけ読みやすい文章であることが求められる.このため,要約文が文章として自然であることが重要である.被験者が要約文の自然さを評価する際の判断基準を以下のように設定,提示し,要約文の自然さを尋ねた.\begin{itemize}\begin{namelist}{xxxxx}\item[5点:]ほぼ自然である.つまり,このような文章を書く人間もいると考えられる.\item[0点:]非常に不自然である.つまり,文もしくは文章全体としてのまとまりがなく,人間が用いないような表現が頻繁に見られる.\end{namelist}\end{itemize}なお,入力原稿は自然であると仮定している.自然さの評価は,あくまで削除によって不自然になった場合のみに注目して行うよう指示した.また,自然さに関しては,文全体で不自然と感じる場合もあり,被験者の判断が分かれることが予想されたため,文中の不適切な箇所の特定は難しいと判断し,行わなかった.表\ref{table:p_shizensa}に要約文の自然さの評価結果を示す.表は,各原稿に対して,1から5のそれぞれの評価値を与えた被験者の割合(各割合は小数点以下第2位を四捨五入しており,足して100\%にならない場合がある)と,各原稿の評価値の平均値を示している(1..10は1から10の全ての原稿で見た値).全体の平均点は4.07と,良好な値を得た.特に原稿5は高い評価値を得ている.しかし,原稿9においては,「ほぼ自然」と判断した被験者は全くおらず,どのような記事に対しても一様に自然な要約を行うには,問題が残る.原稿9については,\ref{section:chujitsudo}節で詳述する.\begin{table}[tbp]\begin{center}\caption{要約文の自然さの評価}\label{table:p_shizensa}\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline評価値&\\5\\\&\\4\\\&\\3\\\&\\2\\\&\\1\\\&\\0\\\&平均点\\\hline\hline原稿1(\%)&37.5&59.4&3.1&0&0&0&4.34\\原稿2(\%)&25.0&43.8&25.0&6.3&0&0&3.88\\原稿3(\%)&34.4&53.1&12.5&0&0&0&4.22\\原稿4(\%)&18.8&50.0&31.3&0&0&0&3.88\\原稿5(\%)&87.5&9.4&3.1&0&0&0&4.84\\原稿6(\%)&36.7&43.3&16.7&3.3&0&0&4.13\\原稿7(\%)&20.0&43.3&36.7&0&0&0&3.83\\原稿8(\%)&23.3&30.0&40.0&6.7&0&0&3.70\\原稿9(\%)&0&31.0&48.3&17.2&3.4&0&3.07\\原稿10(\%)&76.7&23.3&0&0&0&0&4.77\\\hline原稿1..10(\%)&36.2&38.8&21.4&3.2&0.3&0&4.07\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文の忠実度}\label{section:chujitsudo}要約文は,原文の重要部を適切に抽出している必要がある.重要部抽出の適切さを忠実度と表記し,以下のような判断基準を設けて忠実度を尋ねた.\begin{itemize}\begin{namelist}{xxxxx}\item[5点:]このような抽出を行う人間もいると考えられる.\item[0点:]重要部の欠落が非常に頻繁にみられる.\end{namelist}\end{itemize}要約文の文章としての自然さが損なわれた場合でも,内容が伝われば,ニュース字幕としてある程度有用である.このような観点から,要約文の忠実度は,原則的に要約文の文章としての自然さを無視した上で評価するよう注意させた.また,4点以下を与えた被験者には,欠落した重要部のうちで最も重要だと考えられる箇所から順に最大5箇所を指摘させた.表\ref{table:p_chujitsudo}に要約文の忠実度の評価結果を示す.全体の平均点は3.71で,良好ではあるが,自然さ,非冗長度(\ref{section:hijochodo}節参照)に比べて低い値となっている.また,自然さ,非冗長度の評価に比べ,1つの原稿に対する評価値にばらつきが目立ち,被験者によって重要部の認定に関する判断が異なることがうかがえる.\ref{section:shizensa}節の自然さ同様,原稿9の忠実度が最も低いと判定された.削除するのが不適切と指摘された箇所で特に数の多かったものは,「[日本を訪れる]外国人」(14名),「(文頭)[ところが]」(15名),「[外国人労働者の多くが働いている]建設現場」(10名),「[バブル経済の崩壊が建設業界にも及んだ]影響で」(28名),「[売り上げにもやや]陰りが出始めていますが」(18名)であった.特に,「[バブル...]影響で」の部分は,重要と指摘した28名の被験者のうち22名が(指摘箇所の中で)最も重要と答えている.本要約手法では,あらかじめ登録した形式的表現に係る文節を優先採用しているため,「影響」を新たに形式的表現に登録することで,このような不適切な削除は防ぐことができる.また,\ref{section:shizensa}節で原稿9の自然さが低いと評価されたのは,通常修飾語句を伴う「影響」に係る連体修飾句の削除や,「ところが」という接続詞の削除による文の結束性の低下が,不自然な印象を与えたためと考えられる.また,「ところが」は,それ自身では何も情報を伝えないが,適切な要約を生成する上で不可欠であると被験者が判断したため指摘されたと考えられる.\begin{table}[tbp]\begin{center}\caption{要約文の忠実度の評価}\label{table:p_chujitsudo}\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline評価値&\\5\\\&\\4\\\&\\3\\\&\\2\\\&\\1\\\&\\0\\\&平均点\\\hline\hline原稿1(\%)&12.5&65.6&21.9&0&0&0&3.91\\原稿2(\%)&9.4&43.8&31.3&15.6&0&0&3.47\\原稿3(\%)&15.6&59.4&21.9&3.1&0&0&3.88\\原稿4(\%)&3.1&46.9&40.6&6.3&3.1&0&3.41\\原稿5(\%)&54.8&25.8&16.1&3.2&0&0&4.32\\原稿6(\%)&16.7&36.7&33.3&6.7&6.7&0&3.50\\原稿7(\%)&3.3&36.7&50.0&3.3&6.7&0&3.27\\原稿8(\%)&24.1&44.8&27.6&3.4&0&0&3.90\\原稿9(\%)&0&31.0&51.7&13.8&3.4&0&3.10\\原稿10(\%)&43.3&50.0&6.7&0&0&0&4.37\\\hline原稿1..10(\%)&18.2&44.3&30.0&5.5&2.0&0&3.71\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文の非冗長度}\label{section:hijochodo}要約文生成は,原文中の比較的冗長であると考えられる部分の削除によって達成される.冗長部が残存しない度合を非冗長度と表記し,被験者に以下のような判断基準を与えて非冗長度を尋ねた.\begin{itemize}\begin{namelist}{xxxxx}\item[5点:]不要である部分はほとんどない.つまり,これ以上の削除は難しいと考えられる.\item[0点:]不要部の残存が非常に頻繁にみられる.\end{namelist}\end{itemize}\ref{section:chujitsudo}節同様,要約文の非冗長度は,要約文の文章としての自然さを無視した上で,評価させた.また,4点以下を与えた被験者には,冗長な残存部のうちで最も冗長だと考えられる箇所から順に最大5箇所を指摘させた.表\ref{table:p_hijochodo}に要約文の非冗長度の評価結果を示す.全体の平均点は4.16で,自然さ,忠実度と比較して最も高い値を得た.非冗長度を3以下と判断した被験者は全体で16\%程度と低く,要約結果は冗長さを解消していると言える.ただ,最も要約率が悪い原稿5に関しても非冗長度の値は高く,ニュース原稿自体がそれほど冗長ではないという被験者の判断がうかがえる.また,重要箇所の指摘に比べ,冗長箇所は全般に指摘が少なく,非冗長度の評価値を低いと判定した被験者にも同様の傾向がみられた.このことは,冗長と感じることはあっても,いざ削除するとなると,人手であっても冗長箇所を特定することが難しいことを示していると考えられる.原稿3は非冗長度が最も低いと判定された.しかし,原稿3の評価値を3以下と判定した被験者の冗長部の指摘箇所は一定せず,まちまちであった.このことからも,冗長箇所の特定の難しさがうかがえる.原稿3の冗長部指摘に関して,最も一致した意見は,第1文を全て削除するという指摘だった(4名).ニュース記事は多くの場合第1文が全体の概要になっているが,特に原稿3は第1文と第2文の内容がほとんど同じであり,これが冗長であるという印象を与えた原因であると考えられる.また,原稿2の非冗長度を0と判定した被験者がいるが,この被験者も原稿2の第2文を全て削除するという指摘をしている.\begin{table}[tbp]\begin{center}\caption{要約文の非冗長度の評価}\label{table:p_hijochodo}\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline評価値&\\5\\\&\\4\\\&\\3\\\&\\2\\\&\\1\\\&\\0\\\&平均点\\\hline\hline原稿1(\%)&31.3&56.3&12.5&0&0&0&4.19\\原稿2(\%)&18.8&65.6&12.5&0&0&3.1&3.94\\原稿3(\%)&18.8&50.0&28.1&3.1&0&0&3.84\\原稿4(\%)&37.5&31.3&31.3&0&0&0&4.06\\原稿5(\%)&43.8&43.8&12.5&0&0&0&4.31\\原稿6(\%)&36.7&50.0&13.3&0&0&0&4.23\\原稿7(\%)&33.3&60.0&6.7&0&0&0&4.27\\原稿8(\%)&37.9&41.4&20.7&0&0&0&4.17\\原稿9(\%)&55.2&37.9&3.4&3.4&0&0&4.45\\原稿10(\%)&31.0&58.6&10.3&0&0&0&4.21\\\hline原稿1..10(\%)&34.2&49.5&15.3&0.7&0&0.3&4.16\\\hline\end{tabular}\end{center}\end{table}
\section{考察}
\label{section:observation}ここでは,実験で明らかになった問題点や,有効であった点等を述べる.本要約手法による冗長部認定法に関して,以下のような事項が観察された.\begin{itemize}\item本要約手法では原則的に修飾部や例示などを表す部分を冗長部と認定しているが,アンケート結果より,その認定法が十分でないことが分かった.また,従来要約文においては比較的不要とされてきた固有名詞への修飾部が重要と判断されるなど,重要な修飾部の認定の難しさが明らかとなった.以下,明らかになった(1)連体修飾部,(2)固有名詞への修飾,(3)例示を表す部分に関する問題点について述べる.\begin{enumerate}\item本要約手法では,修飾節に含まれる重要語や,直後が形式的表現かどうかを調べることにより,修飾部の誤った削除を避けているが,忠実度の評価値を見ても,その精度が十分ではないことがわかる.しかし,修飾部に限っても,どの修飾部が重要であるかの判定は容易でない.人手による要約文においては,非内容的で付随的である「内の関係」の連体修飾語は削除される傾向にあることが指摘されているが\cite{youyaku_ruikei},アンケート結果では,「内の関係」の連体修飾語を重要部として指摘する例が少なくなかった.例えば,\ref{section:chujitsudo}節で挙げた「[日本を訪れる]外国人」,「[外国人労働者の多くが働いている]建設現場」などがそれにあたる.この場合,「外国人」や「建設現場」を形式的表現と解釈するのは不適切であると考えている.\itemまた,一般に,固有名詞に係る修飾語句は削除可能とされるが,アンケート結果から,固有名詞に係る修飾部が必ずしも削除可能ではないことがわかった.原稿4「...[冷戦後の大幅な核軍縮を早期に実現するための前提条件になっている]START1・第一次戦略兵器削減条約を批准しこれで、...」(4名),原稿7「[手当てにあたった]○○大学付属家畜病院の××講師は...」(3名)などが重要部として指摘されている.\item本要約手法では,例示を表す「など」を伴う部分は比較的冗長と判断するため,削除される場合が多い.しかし,アンケート結果では「など」を伴う部分が重要と判断される場合も多かった.例えば,原稿10は,忠実度において最も高い評価を得ているが,同原稿中で削除された,「...[医薬品や注射針など]総額一千三百万円相当の緊急援助を...」(3名),「...[首都のルサカなど]全土に広がっています。」(4名),「...[コレラの治療薬一万人分と、注射針二百箱など、]合わせて一千三百万円相当の緊急援助物資を...」(6名)といった箇所が重要部として指摘されている.\end{enumerate}これらの例で指摘されている部分は,付随的ではあるが,記事の背景を特定するなど,読み手の理解を助ける働きを持つため,被験者によって重要であると判断されたことが予想される.字幕文は画面上で一方的に流されるため,理解を助ける部分は読みやすさを保持する意味でも重要であると言える.このような重要な修飾部(および例示等を表す部分)を認定する新たな手法を検討する必要があるが,表層的な情報のみを用いた有効な対策は見つかっていない.\item\ref{section:hijochodo}節で述べたように,アンケート結果からは,人手によっても冗長箇所を特定することは必ずしも容易でないことがうかがえる.このため,本要約手法の指摘する冗長箇所を人手による字幕文生成の支援として補助的に用いることで,字幕作成者の負担を軽減することができると考えられる.\item実施したアンケートでは,質問項目以外に被験者の意見・感想を求めた.その中に,「第1文の内容は,第2文以降で詳述されるため,第1文は大胆に省略すべき」という意見があったが,これは\ref{section:hijochodo}節の分析結果と一致する.しかし,本要約手法は,音声認識処理および要約処理をリアルタイムに行う字幕生成に応用することを最終的な目標としており,第1文の要約時には第2文以降の情報は用いないことが前提になるため,このような第1文の冗長性を判定することはできない.本要約手法は,画面との対応を考え,文間の重複部の削除を行っていないが,ニュースを字幕(文字)から得る場合には,重複する内容を冗長と感じる場合が観察された.第2文以降の重複部の削除が適切か,検討する必要がある.\end{itemize}評価結果では,自然さ,忠実さ,非冗長さのそれぞれについて,良好な評価値が得られたが,以上に示すように,冗長部の認定について,より精度の高い手法を検討する必要があることが分かった.本要約手法は,生成された要約文の自然さを重視し,構文構造を破壊するなどの不適切な削除を防ぐ目的で簡易構文解析手法を用いた.現状の技術では高い精度で厳密な構文解析を行うのが難しいため,簡易構文解析では,できるだけ表層的な情報を用いた,厳密でない係り受け解析を行っている.この結果,実施したアンケートでは,要約文の自然さについて良好な評価結果が得られた.このことから簡易構文解析結果はおおむね良好であると言えるが,前述の通り冗長部の認定は難しく,厳密で精度の高い構文解析が実現できたとしても,重要部の特定という,より難しい問題が残される.また,前述の冗長部認定に関する考察に関連して,簡易構文解析は1文中の最後の用言(述部)を核とし,その必須格等を残すことにより自然な要約文を生成するが,連体修飾句が新情報を表す場合など,むしろ修飾部が重要である場合も考えられる.
\section{おわりに}
より自然な字幕文の生成を目標に,主に修飾部を削除することによる,ニュース文の1文ごとの自動要約を試みた.また,要約結果の有用性を評価するために,アンケート調査を行い,良好な評価値を得た.しかし,構文解析の失敗や,重要部の欠落もあり,前もって想定できない様々な表現を含む,幅広い入力原稿に対して一様に精度の高い要約を行うには,より高度な処理を行う必要がある.特に,限定修飾の認定は難しく,本要約手法では形式的表現をあらかじめ列挙することなどで対処した.より高い精度を実現するには,領域に依存しない知識の利用が必須であると考える.\label{part:005}また,修飾部および例示を示す箇所の削除だけでは,高い削減率を得るのは難しく,精度の高い構文解析が実現しても,必ずしも品質の高い要約は得られないため,今後は文脈解析等,より高度な解析の有用性,実現性を検討する必要がある.しかし,高度な解析は,前段階の処理で生じた解析誤りをさらに拡大するなど,問題も多くはらむことが予想され,その対処法を考える必要があろう.
\section{謝辞}
本研究でシソーラスに使用した「角川類語新辞典」\cite{kadokawa}を機械可読辞書の形でご提供いただき,その使用許可をいただいた(株)角川書店,および,KNPに関する問い合わせに懇切にお答えいただいた京都大学大学院情報学研究科黒橋禎夫先生に深謝する.なお,本研究の一部は文部省科学研究費基盤研究(B)および,(財)国際コミュニケーション基金の援助を受けて行った.\appendix
\section{原稿5}
\label{section:ap_g_5}\subsection*{原稿名:恩給法改正案}政府は、きょう(五日)の閣議で、[退職公務員などに支給される恩給を、今年の四月から年額二点六六パーセント引き上げる]恩給法の改正案を決定し、国会に提出することにしています。恩給は、[公務員給与の改定や]消費者物価の上昇などに伴って毎年引き上げられており、平成五年度についても、去年暮れの予算編成で、恩給年額と各種の最低保障額を二点六六パーセント引き上げることが決まっています。具体的には、長期在職者の場合の普通恩給では最低保障額が、六十五歳未満で二万五百円上がって七十九万千百円に、六十五歳以上七十五歳未満で二万七千三百円上がって百五万四千八百円に、また七十五歳以上では、引上げ率がさらに上乗せされて、三万二千五百円上がって百六万円になります。政府は、[こうした引き上げを盛り込んだ]恩給法の改正案を、きょうの閣議で決定した上で国会に提出することにしていますが、各党とも反対はないことから、改正案は今年度内に成立し、引き上げは今年四月から実施される見通しです。
\section{原稿9}
\subsection*{原稿名:リレーニュース・外国人の地下足袋}[東京からは、建設現場などでの作業に欠かせない]地下足袋が、外国人労働者の増加に伴って、[二十九センチや三十センチといった]特大のものが売れているという話題です。仕事を求めて[日本を訪れる]外国人の数は昭和五十五年ころから急激に増え始め最近では全国各地で外国人労働者の姿を見掛けるようになりました。[ところが外国人労働者の多くが働いている]建設現場で困ったことが起きました。[足場を気にしながらの作業に欠かせない]地下足袋が、日本人用のものでは小さくて履けない、というのです。[こうした注文をきいた]東京・日本橋のメーカーでは、[十年ほど前から通常のものより一回りも二回りも大きい]木型を新たに用意して、[二十九センチや]三十センチという特大の地下足袋を作りはじめました。この特大の地下足袋はビルの建設ラッシュも手伝って順調に売れ行きを伸ばしてきました。[都内のある履物店には、イランなど]中東出身の若者達が特大の地下足袋を求めて毎日のように訪れていますが[中にはパーティーや]ジョギング用にとスーツ姿の外国人も買っていくということです。[最近はバブル経済の崩壊が建設業界にも及んだ]影響で、[特大の地下足袋の売り上げにもやや]陰りが出始めていますが、業界では不景気になれば今度は公共工事が増えて、また地下足袋の売り上げが伸びるのではないかと期待しています。\bibliographystyle{jnlpbbl}\bibliography{v06n6_03}\begin{biography}\biotitle{略歴}\bioauthor{三上真}{1999年豊橋技術科学大学大学院修士課程修了.現在,(株)日立ソフトウエアエンジニアリング勤務.在学中は,自然言語処理,特にTVニュース字幕生成のための要約の研究に従事.}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1983年助教授.1990年教授.1985〜1986年カーネギメロン大学客員研究員.工博.1977年電子通信学会論文賞.1988年度IETE最優秀論文賞.著書「確率モデルによる音声認識」電子情報通信学会(1988年),「情報理論の基礎と応用」近代科学社(1992年),「パターン情報処理」丸善(1999年)など.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N03-05
|
\section{まえがき}
最近の文書作成はほとんどの場合,日本語ワードプロセッサ(ワープロ)を用いて行われている.これに伴い,ワープロ文書中に含まれる誤りを自動的に検出するシステムの研究が行われている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,Kuga1986,IkeharaAndYasudaAndShimazakiAndTakagi1987,SuzukiAndTakeda1989,OharaAndTakagiAndHayashiAndTakeishi1991,IkeharaAndOharaAndTakagi1993}.ワープロの入力方法としては一般にかな漢字変換が用いられている.このため,ワープロによって作成された文書中には変換ミスに起因する同音異義語誤りが生じやすい.同音異義語誤りは,所望の単語と同じ読みを持つ別表記の単語へと誤って変換してしまう誤りである.従って,同音異義語誤りを自動的に検出する手法を確立することは,文書の誤り検出/訂正作業を支援するシステムにおいて重要な課題の1つとなっている.同音異義語誤りを避けたり,同音異義語誤りを検出するために種々の方法が提案されている~\cite{FukushimaAndOtakeAndOyamaAndShuto1986,MakinoAndKizawa1981,Nakano1982,OshimaAndAbeAndYuuraAndTakeichi1986,SuzukiAndTakeda1989,TanakaAndMizutaniAndYoshida1984a,TanakaAndYoshida1987}.われわれは,日本文推敲支援システムREVISE~\cite{OharaAndTakagiAndHayashiAndTakeishi1991}において,意味的制約に基づく複合語同音異義語誤りの検出/訂正支援手法を採用している~\cite{Oku1994,Oku1996}.この手法の基本的な考え方は,「複合語を構成する単語はその隣に来うる単語(隣接単語)を意味的に制約する」というものである(3章参照).しかしながら,この手法においても以下のような問題点があった;\begin{description}\item{(1)}同音異義語ごとに前方/後方隣接単語に対する意味的制約を,誤り検出知識及び訂正支援のための知識として収集しなければならない.しかし,このような意味的制約を人手を介さずに自動的に収集することは困難である.\item{(2)}検出すべき同音異義語誤りを変更すると,意味的制約を記述した辞書を新たに構築する必要が生じる.\end{description}これらの問題点を解決するためには,誤り検出知識として収集が容易な情報を使用する必要がある.この条件に合致する情報の1つとして文書中の文字連鎖がある.文字連鎖の情報は既存の文書から容易に収集することができる.3文字連鎖を用いてかな漢字変換の誤りを減らす手法については~\cite{TochinaiAndItoAndSuzuki1986}が報告されているが,この手法は漢字をすべて1つのキャラクタとして扱っているため,複合語に含まれる同音異義語誤りを検出することができない.また,文字の2重マルコフ連鎖確率を用いて日本文の誤りを検出し,その訂正を支援する手法が提案されている~\cite{ArakiAndIkeharaAndTsukahara1993}.この手法は,「漢字仮名混じり文節中に誤字または誤挿入の文字列が存在するときは,m重マルコフ連鎖確率が一定区間だけ連続してあるしきい値以下の値を取る」という仮説に基づいて誤字,脱字及び誤挿入文字列の誤り種別及び位置を検出するものである.同音異義語誤りは単語単位の誤字と捉えることができるが,この手法が同音異義語誤りに対して有効であるか否かについては報告されていない.一方,日本文推敲支援システムREVISEは,ルールに基づく形態素解析を基本にしたシステムであり,その中に誤り検出知識として収集が容易な統計的な情報を導入した誤り検出手法を確立することも重要な課題である.そこで,本論文では,収集が容易な統計的な誤り検出知識として文字連鎖に焦点をあて,文字連鎖を用いた複合語同音異義語誤りの検出手法について述べる.さらに,その有効性を検証するために行った評価実験の結果についても述べる.以下,2章において本論文で用いる用語の定義を行い,3章において日本文推敲支援システムREVISEにおける誤り検出の流れと,意味的制約に基づく複合語同音異義語誤りの検出手法の概要及びその問題点について述べる.4章では,3章で述べる問題点を解決するために,文字連鎖を用いて複合語に含まれる同音異義語誤りを検出する手法を提案する.5章では,本手法の有効性を評価するために行った同音異義語誤り検定の評価実験について述べ,意味的制約を用いた同音異義語誤り検出/訂正支援手法との比較を含めた考察を加える.
\section{用語の定義}
\begin{description}\item[○複合語:]2つ以上の語が助詞を介さずに複合して成立した語.\item[○同音語:]読みが同じで意味の異なる2つ以上の語の集合と定義する.表1に同音語の種類を示す~\cite{OshimaAndAbeAndYuuraAndTakeichi1986}.\item[○同音異義語集合:]同じ読みを持つ単語を要素とする集合であって,各要素が同品詞であり,かつ表記ゆらぎでないもの(表1参照)を同音異義語集合と定義する.例えば“科学”と“化学”は同じ同音異義語集合に属する.\item[○同音異義語:]一般には同音語と同じ意味で用いられるが,本論文では,同音異義語集合の各要素のことを同音異義語と定義する.単語Aが単語Bと同じ読みを持つとき,「単語Aは同音異義語Bを持つ」,「単語Aの同音異義語はBである」などと表現する.\item[○同音異義語誤り:]ある単語から,それと同じ同音異義語集合に属する単語への置換誤りを同音異義語誤りと定義する.表2に同音異義語誤りの例を示す.\begin{figure}[htbp]\begin{center}\epsfile{file=table1-2.eps,scale=0.7}\end{center}\end{figure}\item[○前方隣接単語,後方隣接単語,隣接単語:]複合語において,ある単語の直前に位置する単語をその単語の前方隣接単語,直後に位置する単語をその単語の後方隣接単語とよぶ.また,隣接単語とは,前方隣接単語,後方隣接単語のいずれかを指す.\item[○確定単語:]ある単語が属する同音異義語集合の要素数が1であるとき,すなわち,ある単語に同音異義語が存在しないとき,この単語を確定単語とよぶ.\item[○不確定単語:]ある単語が属する同音異義語集合の要素数が2以上であるとき,すなわち,ある単語に同音異義語が存在するとき,この単語を不確定単語とよぶ.\item[○意味属性:]単語をその意味により有限個の概念に写像したもの.例えば,単語“自然”,“天然”はともに意味属性[自然]に属する.以降,意味属性を表すのに[]を用いる.\item[○n文字連鎖:]n文字連鎖とは,実文書に現れるn文字の並びである.誤りのない大量の文書からn文字の並び(n文字連鎖)を集めることによって,正しいn文字連鎖,すなわち,誤りを検出するための知識を収集することができる.\end{description}
\section{意味的制約に基づく複合語同音異義語誤り検出の概要}
\subsection{日本文推敲支援システムREVISEにおける位置づけ}日本文推敲支援システムREVISEの概略フロー図を図1に示す.REVISEは,入力された日本語文書に対して形態素解析処理を行う.次に綴り誤りや助詞抜けなどの誤りを誤り検出知識を参照して検定し,発見した誤りに対して訂正候補を提示する.REVISEにおける誤り検出の基本的な考え方は,「正しい文に対して高い解析精度を持つ形態素解析を適用したとき,解析に失敗した箇所には誤りが含まれている可能性が高い」というものである.しかし,誤りの種類によっては形態素解析に成功するものが存在する.同音異義語誤り,特に複合語に含まれる同音異義語誤りはこの種の誤りの1つである.REVISEでは,あらかじめ用意しておいた特定の同音異義語が複合語に含まれるときに3.2節で述べる同音異義語誤り検定処理が起動される.\begin{figure}[ht]\begin{center}\epsfile{file=fig1.eps,scale=0.7}\end{center}\end{figure}\subsection{処理の概要と問題点}従来より,ある単語に関係する語は限られており,特に複合語において隣接する単語の組合せは限られていることが指摘されている~\cite{TanakaAndMizutaniAndYoshida1984b,TanakaAndYoshida1987}.また,人間は前後一語の環境があれば,ある単語を認定することができ,特に複合語においてその傾向が顕著であると言われている~\cite{Nakano1982}.これらのことは複合語において隣接する単語間には意味的制約が存在することを示唆している.そこで我々は,複合語において隣接する単語間に成立する意味的制約に着目して複合語に含まれる同音異義語誤りを検出する手法を提案した~\cite{Oku1994,Oku1996}.この手法は,同音異義語とこれに隣接する単語との間に成立する意味的制約のみを利用して複合語に含まれる同音異義語誤りを検出する.以下に例を用いてこの手法の概要を述べる.図2に不確定単語“化学”を含む複合語“自然化学”における同音異義語誤りの検出/訂正候補推定の例を示す.ここで,“化学”は同音異義語“科学”を持つ不確定単語,“自然”は確定単語とする.なお,“化学”は“科学”のほかに同音異義語を持たないものとする.不確定単語“化学”の前方に対する意味的制約を表す意味属性集合を$PS_1$,不確定単語“科学”の前方に対する意味的制約を表す意味属性集合を$PS_2$とする.複合語“自然化学”において不確定単語“化学”の前方隣接単語“自然”の持つ意味属性は[自然]であるが,図2に示すように不確定単語“化学”の前方に対する意味的制約を表す意味属性集合$PS_1$は,\[[自然]\notinPS_1\]を満足する.すなわち,不確定単語“化学”の前方に位置する“自然”は,不確定単語“化学”の持つ前方に対する意味的制約を満足しない.従って,不確定単語“化学”を複合語“自然化学”において同音異義語誤りとして検出することができる.次に同音異義語誤り“化学”に対する訂正候補を推定する過程に入る.同音異義語誤り“化学”に対する訂正候補は,その前方に対する意味的制約を表す意味属性集合に意味属性[自然]を含んでいなければならない.図2より,読み“かがく”を持つ“化学”と同音異義の関係にある“科学”の意味的制約を表す意味属性集合$PS_2$は,\[[自然]\inPS_2\]を満足する.すなわち,“自然”は不確定単語“化学”の同音異義語である“科学”の前方に対する意味的制約を満足する.従って,“化学”の同音異義語“科学”を訂正候補として推定し,ユーザに提示することができる.\begin{figure}[ht]\begin{center}\epsfile{file=fig2.eps,scale=0.7}\end{center}\end{figure}しかしながら,この手法には以下のような問題点が存在する;\begin{description}\item{(1)}同音異義語ごとに前方/後方隣接単語に対する意味的制約を,誤り検出/訂正支援知識としてあらかじめ収集しておかなければならない.しかし,このような意味的制約を人手を介さずに自動的に収集することは困難である.すなわち,誤り検出/訂正支援知識の収集に大きな工数を要する.\item{(2)}検出すべき同音異義語誤りを変更すると,意味的制約を記述した辞書を新たに構築する必要が生じる.\end{description}
\section{文字連鎖を用いた複合語同音異義語誤り検出手法の提案}
3.2節で述べた問題点を解決するために,本論文では誤り検出知識として収集が容易な情報である文字連鎖を用いた手法について提案する.\subsection{基本的な考え方}日本文推敲支援システムREVISEは,ルールベースの形態素解析によって複合語を単語単位に分割するので,その単語間の結びつきを見るには文字や単語の連鎖確率ではなく,連鎖そのものを調べればよい\footnote{連鎖確率を用いる場合には,形態素解析とともに誤り検出も行うという戦略がとられる.REVISEのようにルールベースの形態素解析が完了している状態で誤り検出を行うには,文字連鎖確率ではなく文字連鎖そのものを誤り検出知識として利用すれば十分であると考えられる.また,確率値は誤り検出の確からしさを計算するのには有効であろう.}.また,単語連鎖を収集するには,誤り検出知識の収集の段階で,形態素解析を大量の文書に対して正確に行わなければならず,誤り検出知識を容易に収集するという目的に反する.一方,文字連鎖は,大量の文書から機械的にかつ容易に収集することができる.以上のことから,本論文で述べる文字連鎖を用いた複合語同音異義語誤りの検出手法の基本的な考え方は,「既存の文書に現れているn文字連鎖をあらかじめ大量に集めておき,検定対象の不確定単語を含むn文字連鎖がその中に含まれているかを検証することにより,検定対象の不確定単語が誤りか否かを判定する」というものである.図3に不確定単語を含む複合語に対して,どの部分のn文字連鎖を誤り検出に用いるかを模式的に示す.複合語中で不確定単語に前方隣接単語が存在する場合には,不確定単語の先頭から(n-i)文字と前方隣接単語の末尾i文字とから構成されるn文字連鎖を用いて検定を行う.複合語中で不確定単語に後方隣接単語が存在する場合には,不確定単語の末尾から(n-i)文字と後方隣接単語の先頭i文字とから構成されるn文字連鎖を用いて検定を行う.\begin{figure}[ht]\begin{center}\epsfile{file=fig3.eps,scale=0.7}\end{center}\end{figure}\subsection{処理の流れ}図4にn文字連鎖を用いた同音異義語誤り検出の概略フローを示す.ここで,複合語の範囲および単語への分割は,図1に示した形態素解析処理の段階で既に行われているものとする.最初に,入力された複合語が検定対象の不確定単語を含むか否かを調べる.次に,検定対象の不確定単語を含む場合には,不確定単語の先頭(n-i)文字とその前方隣接単語の末尾i文字あるいは不確定単語の末尾(n-i)文字とその後方隣接単語の先頭i文字とからn文字連鎖を作成し,このn文字連鎖があらかじめ収集してあるn文字連鎖辞書に存在するか否かを調べる.存在すれば着目している不確定単語は正しく使用されていると判定し,存在しない場合にはその不確定単語を同音異義語誤りであると判定する.\begin{figure}[ht]\begin{center}\epsfile{file=fig4.eps,scale=0.7}\end{center}\end{figure}
\section{評価実験}
本手法の有効性を確認するために同音異義語誤り検出の評価実験を行った.なお,入力となる複合語はすでに形態素解析処理により構成単語は既知となっているものとする.\subsection{文字連鎖辞書の作成}n文字連鎖辞書としては,2文字連鎖辞書(n=2,i=1)と3文字連鎖辞書(n=3,i=1)を用意して,誤り検出の精度という観点から両者の比較を行う.さらに,辞書の大きさ,すなわち文字連鎖の収集度合いによる誤り検出の変化を調べるために,それぞれ3種類の2文字連鎖辞書,3文字連鎖辞書を用意した.表3に評価実験に用いた6種類の文字連鎖辞書の概要を示す.なお,これらの辞書はすべて新聞記事から作成した.誤り検出の知識として長い文字連鎖を用いる方が誤りの検出精度が高くなることが予想されるが,反面,正しいものまで誤りとして検出してしまう可能性も同時に高くなると考えられる.2文字連鎖辞書と3文字連鎖辞書とを用いた実験を行うことにより,このような傾向についても考察することができる.\begin{figure}[h]\begin{center}\epsfile{file=table3.eps,scale=0.7}\end{center}\end{figure}\vspace*{-5mm}\subsection{評価実験1}評価実験1では正しく使用されている不確定単語をn文字連鎖によってどの程度正しいと判定できるかを調べた.\vspace{-0.2mm}\subsubsection{評価実験1に用いた評価用データ}\begin{description}\item{○評価実験に用いた不確定単語}表4に評価実験に用いた23個の同音異義語集合とこれらに含まれる同音異義語77語を示す.\begin{figure}[htbp]\begin{center}\epsfile{file=table4.eps,scale=0.7}\end{center}\end{figure}\item{○評価実験1に用いた複合語正解データ}表5に評価実験に用いた複合語データの概要を示す.高校の教科書および新聞記事において,表4に示した同音異義語のいずれかを含む複合語を抽出し,それぞれデータ1,データ2とした.なお,データ2を抽出した新聞記事は5.1節で述べた文字連鎖辞書を作成した新聞記事とは異なる\footnote{データ1を用いた評価実験は,文字連鎖辞書を作成した文書(新聞記事)と異なる分野の文書(教科書)に対して行うものであり,データも分野もオープンという性格を持つ.また,データ2を用いた評価実験は,文字連鎖辞書と同じ分\\野(新聞記事)であるが,異なる文書に対して行うものであり,分野はクローズであるがデータはオープンという性格を持つ.}.\begin{figure}[htbp]\begin{center}\epsfile{file=table5.eps,scale=0.7}\end{center}\end{figure}\end{description}\subsection{評価実験2}評価実験2では,誤った不確定単語を含む複合語を用意し,n文字連鎖によってどの程度誤りを検出できるのかを調べた.本論文では,同音異義語集合を前記の表4に示すものに限定し,評価用の複合語誤りデータを作成した\footnote{本来,表4に示す23個の同音異義語集合に属する同音異義語77語だけでなく,同じ読みを持つ同音異義語すべてを対象に評価実験を行うべきであろう.しかし,表4に示すもの以外の表記を持つ同音異義語の出現頻度は低いため,今回の評価実験ではこのような限定を設けた.}.\subsubsection{評価実験2に用いた評価用データ}\begin{description}\item{○評価実験2に用いた複合語誤りデータ}表5に示すように,複合語正解データに含まれる不確定単語をその同音異義語で置き換えることによって複合語誤りデータ(データ3)を作成した.元とした複合語正解データは評価実験1で用いた教科書から抽出した複合語正解データ(データ1)である.\end{description}\subsection{実験方法}\subsubsection{正解/誤りの判定}2文字連鎖辞書を用いる場合,不確定単語が複合語の先頭にあるときには,その不確定単語の末尾1文字とその後方隣接単語の先頭1文字とから2文字連鎖を作成する.不確定単語が複合語の末尾にあるときにはその不確定単語の先頭1文字とその前方隣接単語の末尾1文字とから2文字連鎖を作成する.そして,これらの2文字連鎖をキーとして2文字連鎖辞書を検索する.また,3文字連鎖辞書を用いる場合,不確定単語が複合語の先頭にあるときには,その不確定単語の末尾2文字とその後方隣接単語の先頭1文字とから3文字連鎖を作成する.不確定単語が複合語の末尾にあるときにはその不確定単語の先頭2文字とその前方隣接単語の末尾1文字とから3文字連鎖を作成する.そして,これらの3文字連鎖をキーとして3文字連鎖辞書を検索する.検索の結果,前記の2(または3)文字連鎖が存在すれば不確定単語は正しく使用されている(正解)と判定し,存在しない場合には同音異義語誤りであると判定する.なお,不確定単語が複合語の中間に位置するときには,両方の2(または3)文字連鎖を調べ,どちらか一方でも2(または3)文字連鎖辞書に存在すれば正解と判定する.\subsubsection{実験結果を評価するための指標}本論文では,実験結果を以下の2つの指標を用いて表現する.\begin{description}\item{(1)正解指摘率:}正解語を正しいと指摘できる能力を示す指標;評価実験1の結果を表すのに用いる.\[○正解指摘率=\frac{正解と判定できた件数}{正解データの全件数}\]\item{(2)誤り検出率:}誤り語を誤りとして検出できる能力を示す指標;評価実験2の結果を表すのに用いる.\[○誤り検出率=\frac{誤りとして検出した件数}{誤りデータの全件数}\]\end{description}\subsubsection{実験結果}評価実験1,評価実験2の結果を表6および図5,図6に示す.\noindent{\bf○評価実験1の結果}\indent表6および図5,図6より以下のことが分かる;\begin{description}\item{(1)}2文字連鎖辞書を用いた場合には,3文字連鎖辞書を用いた場合に比較して正解指摘率は6〜15\%程度高い.また,この差は辞書サイズが大きくなるにつれて小さくなる.\item{(2)}正解指摘率は辞書の大きさに依存して,2文字連鎖辞書を用いた場合には40〜83\%の間で,3文字連鎖辞書を用いた場合には27〜77\%の間で大幅に変動しているが,辞書サイズを大きくするにつれて正解指摘率は向上する.\item{(3)}文字連鎖辞書と同一の分野である新聞記事を対象とした場合(データ2)の方が,教科書を対象とした場合(データ1)に比較して15〜30\%程度高い値を示しており,誤り検出における分野依存性が見られる.\item{(4)}誤り検出知識である文字連鎖を収集する分野と同一分野の文書を対象とすると,3文字連鎖辞書3の場合で正解指摘率=77\%となり,意味的制約を用いた手法~\cite{Oku1996}と同等の能力を有している.\item{(5)}文字連鎖辞書1を用いた場合と文字連鎖辞書2を用いた場合とを比較すると,2文字連鎖,3文字連鎖ともに文字連鎖辞書2を用いた場合の方が高い正解指摘率を示している.このことは,既存の文書に1回でもその文字連鎖が現れれば正解とすべきであることを示している\footnote{文字連鎖辞書1と文字連鎖辞書2とは同じ量の新聞記事から作成した(表3参照).異なるのは文字連鎖辞書1が2回以上現れた文字連鎖のみをカウントしているのに対して,文字連鎖辞書2は1度でも現れた文字連鎖をカウントしている点のみである.}.\end{description}\noindent{\bf○評価実験2の結果}\smallskip\indent評価実験2の結果を示した表6および図5,図6より以下のことが分かる;\begin{description}\item{(1)}3文字連鎖辞書を用いた場合には,2文字連鎖辞書を用いた場合に比較して誤り検出率は21〜34\%程度高い.また,この差は辞書サイズが大きくなるほど,大きくなっている.すなわち,2文字連鎖辞書を用いた場合には,辞書サイズが大きくなるほど誤り検出率が急激に悪くなることを示している.\item{(2)}誤り検出率は辞書の大きさに依存して,2文字連鎖辞書を用いた場合には60〜78\%の間で,3文字連鎖辞書を用いた場合には94〜99\%の間で変動しているが,辞書サイズを大きくするにつれて誤り検出率は徐々に減少する.また,この減少割合は正解指摘率の増加割合に比較して緩やかである.\item{(3)}データ3は教科書から作成したものであり,文字連鎖辞書を作成した分野(新聞記事)とは異なる.しかし,分野が異なるにも関わらず,どの3文字連鎖辞書でも90\%以上の誤り検出率が得られている.\end{description}\begin{figure}[htbp]\begin{center}\epsfile{file=table6.eps,scale=0.7}\end{center}\vspace{-4mm}\end{figure}\subsubsection{考察}\noindent{\bf○文字連鎖を用いた複合語同音異義語誤り検出手法のポテンシャル}\smallskip\indent上記の結果から,2文字連鎖辞書を用いた場合には,3文字連鎖辞書を用いた場合に比較して,正解指摘率が高く,誤り検出率が低いことが分かる.推敲支援という目的を考えれば,2文字連鎖辞書を用いた場合の誤り検出率が60〜78\%というのは低すぎると考えられる.これに対して3文字連鎖辞書を用いた場合には辞書サイズにかかわらず,90\%以上の誤り検出率が得られている.また,正解指摘率で見た場合,確かに2文字連鎖辞書を用いた方が3文字連鎖辞書を用いた場合に比べて高い値を示しているが,辞書サイズを大きくするとその差は6\%程度と非常に小さくなる.すなわち,推敲支援という目的に使用するには,2文字連鎖よりも3文字連鎖を誤り検出知識として用いる方がよいと言える.\begin{figure}\begin{center}\epsfile{file=fig5.eps,scale=0.7}\end{center}\vspace*{-2mm}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig6.eps,scale=0.7}\end{center}\end{figure}3文字連鎖辞書による検定の方が2文字連鎖辞書による検定よりも優れている理由の1つとして次のことが考えられる.多くの単語は2文字(特に2漢字)から構成されているため,3文字連鎖はこれらの単語とその前後1文字との連鎖を表すことになる.すなわち,単語そのものとその前後の文字との連鎖として3文字連鎖を近似的にとらえることができるためである.従って,さらに文字連鎖の長さを長くしても,必要な連鎖を集める文書量が大幅に増えるだけで,誤り検出率や正解指摘率の向上はあまり望めないと考えられる.次に3文字連鎖辞書を用いた場合,意味的制約を用いた複合語同音異義語誤りの検出手法と同程度の精度となる,誤り検出率90\%,正解指摘率70\%のときの辞書サイズの概算を行う.図6の誤り検出率と正解指摘率を簡単に直線近似すると,求める辞書サイズは約250万件となる.概算すると1年分の新聞記事から3文字連鎖辞書を作成すればこの辞書サイズを得ることができる.3文字連鎖の収集の容易さから考えて,1年分の新聞記事から辞書を作成することは,実現性の上からも問題はない.すなわち,3文字連鎖辞書を用いた複合語同音異義語誤り検出手法によって,意味的制約を用いたそれと同程度の精度を実現することが可能であろうと推定できる.以上のことから,3文字連鎖辞書を誤り検出の知識として用いれば,誤り検出率90\%以上が得られ,しかも,3文字連鎖辞書と検定対象データとが同一の分野であれば,正解指摘率も70\%以上と高い値を示す.また,意味的制約を用いた複合語同音異義語誤りの検出手法と同程度の精度を得ることも可能であると予測される.すなわち,本論文で提案した文字連鎖を用いた複合語同音異義語誤りの検出手法は,検定対象の文書の分野を限定し,その分野において3文字連鎖辞書を収集することによって,日本文推敲支援システムにおける複合語同音異義語誤りの検出手法として十分に利用することが可能であると言える.\clearpage\noindent{\bf○日本文推敲支援システムへの適用形態}\smallskip\indent表7に本手法と意味的制約を用いた手法との長所と短所を示す.意味的制約を用いた手法は高精度の同音異義語誤りの検出と訂正候補の提示が可能であり,分野依存性が小さい反面,意味的制約辞書すなわち誤りを検出するための知識の収集が容易ではない.これに対して,本論文で提案した手法において誤り検出知識として利用する3文字連鎖は,既存の文書から容易に収集することができる.従って,日本文推敲支援システムにおいては,高頻度の同音異義語誤りに対しては意味的制約を用いた手法により検出/訂正支援を行い,それ以外の幅広い範囲の同音異義語誤りに対しては本論文で述べた3文字連鎖を用いた手法によって誤りを検出するといった,両手法を統合した利用形態が望ましいと考えられる.\begin{figure}\begin{center}\epsfile{file=table7.eps,scale=0.7}\end{center}\end{figure}
\section{むすび}
本論文では誤り検出知識として文字連鎖を用いた複合語同音異義語誤りの検出手法について述べた.評価実験の結果,3文字連鎖辞書を誤り検出知識として用いれば,分野依存性はあるものの,3文字連鎖を収集した分野と同一の分野に属する文書に対しては,誤り検出率90\%以上,正解指摘率70\%以上の値が得られた.このことは,本論文で提案した文字連鎖を用いた複合語同音異義語誤りの検出手法は,検定対象の文書の分野を限定し,その分野において3文字連鎖辞書を収集することによって,日本文推敲支援システムにおける複合語同音異義語誤りの検出手法として十分に利用することが可能であることを示している.本論文では3文字連鎖によって複合語同音異義語誤りの検出が高精度で可能であることを述べたが,3文字連鎖を用いれば,他の種類の誤り,例えば文字脱落を検出することも可能である~\cite{MatsuokaAndTakagi1989}.\acknowledgment本研究の遂行にあたり,有益な討論,助言を頂いた高木伸一郎氏,島崎勝美氏の両氏に深謝致します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{奥雅博}{1982年大阪府立大学工学部電子工学科卒業.1984年同大学院博士前期課程修了.同年,日本電信電話公社(現NTT)入社.現在,NTT情報通信研究所主任研究員.自然言語処理の研究実用化に従事.慣用表現,比喩などの非標準的な言語現象に興味を持つ.情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{松岡浩司}{1979年九州大学電子工学科卒業.同年,日本電信電話公社(現NTT)入社.現在,NTT情報通信研究所主任研究員.自然言語処理の研究実用化に従事.推敲支援、音声合成などの形態素解析を応用したシステムに興味を持つ.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N01-07
|
\section{はじめに}
\label{sec:introduction}適格なテキストでは,通常,テキストを構成する要素の間に適切な頻度で照応が認められる.この照応を捉えることによって,テキスト構成要素の解釈の良さへの裏付けや,解釈の曖昧性を解消するための手がかりが得られることが多い.例えば,次のテキスト\ref{TEXT:shiji}の読み手は,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」で触れた事象に,「知事選での奥田氏支持」が再び言及していると解釈するだろう.\begin{TEXT}\text\underline{新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する}方針をようやく固めた.\underline{知事選での奥田氏支持}に強く反対する有力議員も多く,決定が今日までずれ込んでいた.\label{TEXT:shiji}\end{TEXT}この照応解釈は,「奈良県知事選で」が「支持する」と「固めた」のどちらに従属するかが決定されていない場合には,この曖昧性を解消するための手がかりとなり,何らかの選好に基づいて「支持する」に従属する解釈の方が既に優先されている場合には,この解釈の良さを裏付ける.このようなことから,これまでに,前方照応を捉えるための制約(拘束的条件)と選好(優先的条件)がText-WideGrammar~\cite{Jelinek95}などで提案されている.Text-WideGrammarによれば,テキスト\ref{TEXT:shiji}でこの照応解釈が成立するのは,「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」を$X$,「知事選での奥田氏支持」を$Y$としたとき,これらが次の三つの制約を満たすからである.\smallskip\begin{LIST}\item[\bf構文制約]$Y$は,ある構文構造上で$X$の後方に位置する\footnote{$X$と$Y$が言語心理学的なある一定の距離以上離れていると,$Y$は$X$を指せないことがあると考えられるが,距離に関する制約は構文制約に含まれていない.}.\item[\bf縮約制約]$Y$は,$X$を縮約した言語形式である.\item[\bf意味制約]$Y$の意味は,$X$の意味に包含される.\end{LIST}\smallskipあるテキスト構成要素$X$で触れた事象に他の要素$Y$が再言及しているかどうかを決定するためには,$X$と$Y$がこれらの制約を満たすかどうかを判定するための知識と機構を計算機上に実装すればよい.実際,構文制約と縮約制約については,実装できるように既に定式化されている.これに対して,意味制約が満たされるかどうかを具体的にどのようにして判定するかは,今後の課題として残されている.意味制約が満たされるかどうかを厳密に判定することは,容易ではない.厳密な判定を下すためには,$X$と$Y$の両方またはいずれか一方が文や句である場合,その構文構造とそれを構成する辞書見出し語の意味に基づいて全体の意味を合成する必要がある.テキストの対象分野を限定しない機械翻訳などにおいて,このような意味合成を実現するためには,膨大な量の知識や複雑な機構を構築することが必要となるが,近い将来の実現は期待しがたい.本稿では,近い将来の実用を目指して,構築が困難な知識や機構を必要とする意味合成による意味制約充足性の判定を,表層的な情報を用いた簡単な構造照合による判定で近似する方法を提案する.基本的な考え方は,構文制約と縮約制約を満たす$X$と$Y$について,それぞれの構\\文構造を支配従属構造で表し,それらの構造照合を行ない,照合がとれた場合,$X$の意味が$Y$の意味を包含するとみなすというものである.もちろん,単純な構造照合で意味合成が完全に代用できるわけではないが,本研究では,日英機械翻訳への応用を前提として,簡単な処理によって前方照応がどの程度正しく捉えられるかを検証することを目的とする.以降,本稿の対象を,サ変動詞が主要部である文(以降,サ変動詞文と呼ぶ)を$X$とし,そのサ変動詞の語幹が主要部であり$X$の後方に位置する名詞句(サ変名詞句)を$Y$とした場合\footnote{このようなサ変動詞文とサ変名詞句の組は,我々の調査によれば,新聞一カ月分の約8000記事のうち,その23\%において見られた.}に限定する.これまでに,性質の異なる曖昧性がある二つの構文構造を照合することによって互いの曖昧性を打ち消す方法に関する研究が行なわれ,その有効性が報告されている\cite{Inagaki88,Utsuro92,Kinoshita93,Nasukawa95b}.本稿の対象であるサ変動詞文とサ変名詞句にも互いに性質の異なる曖昧性があるので,構造照合を行ない,類似性が高い支配従属構造を優先することによって,サ変動詞文とサ変名詞句の両方または一方の曖昧性が解消される.例えば,サ変名詞句「奥田氏支持」から得られる情報だけでは「奥田氏」と「支持」の支配従属関係を一意に決定することは難しいが,テキスト\ref{TEXT:shiji}では,サ変動詞文「奥田氏を支持する」との構造照合によって,サ変名詞句を構成する要素間の支配従属関係が定まる.このように,サ変名詞句の曖昧性解消に,サ変名詞句の外部から得られる情報を参照することは有用である.一方,複合名詞の内部から得られる情報に基づく複合名詞の解析法も提案されている\cite{Kobayashi96}.複合名詞の主要部がサ変名詞である場合,これら二つの方法を併用することによって,より高い解析精度の達成が期待できる.\ref{sec:depredrules}節では,サ変動詞文とサ変名詞句の支配従属構造を照合するための規則を記述する.\ref{sec:matching}節では,構造照合規則に従って照応が成立するかどうかを判定する手順について述べ,処理例を挙げる.\ref{sec:experiment}節では,新聞記事から抽出したサ変動詞文とサ変名詞句の組を対象として行なった実験結果を示し,照応が正しく捉えられなかった例についてその原因を分析する.
\section{サ変動詞文とサ変名詞句の構造照合規則}
\label{sec:depredrules}サ変動詞文がサ変名詞句に縮約されるときに観察される現象のうち次の現象に着目して,サ変動詞文とその後方に位置するサ変名詞句の間で照応が成立するときに従うべき規則を定める.\begin{enumerate}\itemサ変動詞とその従属語を関係付ける助詞(以降,用連助詞と呼ぶ)は,その支配従属関係を保ったまま,サ変名詞とその従属語を関係付ける助詞(体連助詞)に変化する.\itemサ変動詞文でのサ変動詞の態の区別は,サ変名詞句では制限されるか,あるいは行なわれなくなる.\itemサ変名詞句では,サ変動詞の従属語のうち,情報伝達に必須である語のみが,サ変動詞文での出現順序に因われない順序で表現される.\end{enumerate}\subsection{用連助詞から体連助詞への変化}サ変動詞文がサ変名詞句に縮約されるとき,サ変動詞文におけるサ変動詞とその従属語の支配従属関係は,サ変名詞句におけるサ変名詞とその従属語の支配従属関係として保存される.ただし,サ変動詞と従属語を関係付ける用連助詞は,規範に従って,サ変名詞と従属語を関係付ける体連助詞に置き換えられるか,あるいは表現されなくなる.例えば,サ変動詞文「奥田氏を支持する」における用連助詞「を」が体連助詞「の」またはゼロ形態素に変化することによって,それぞれ,サ変名詞句「奥田氏の支持」または「奥田氏支持」に縮約される.用連助詞から体連助詞への変化は,一般に,表\ref{tab:youren2tairen}に示す対応に従う.動詞あるいは動詞型に固有の変化,例えば,「イラク説得の成功を期待する」から「成功への期待」への縮約に見られる用連助詞「を」から体連助詞「への」への変化は,表\ref{tab:youren2tairen}の対応とは別に,動詞あるいは動詞型毎に記述する.\begin{RULE}\rule用連助詞は,それが表す支配従属関係と深層的に同じ支配従属関係\footnotemarkを表す体連助詞に変化する.その変化は,動詞固有の対応が記述されていれば,それに従い,さもなければ表\ref{tab:youren2tairen}に従う.\label{RULE:youren2tairen}\end{RULE}\footnotetext{本稿で行なっている支配従属関係の区別は,比較的浅い深層度での区別である.例えば,助詞「が」と「に」が表す支配従属関係の一つは,より深い層では共に``動作主''になりえるが,ここではSubject,Agentという別の関係としている.その理由は,本稿での区別は日英機械翻訳での利用を前提としたものであり,この限りにおいて,表層表現をより深い層へ写像する必要はないからである.}\begin{table}[htbp]\caption{用連助詞と体連助詞の対応(抜粋)}\label{tab:youren2tairen}\begin{center}\begin{tabular}{|c|l|l|}\hline用連助詞&\multicolumn{1}{|c}{支配従属関係}&\multicolumn{1}{|c|}{体連助詞}\\\hline\hlineが&Subject&による,の,$\phi^\dagger$\\\hline&Instrument&での,による,の,$\phi$\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{で}}&PlaceActive&での,における,の,$\phi$\\\hline&Company&との,の,$\phi$\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{と}}&Quotation&との,の,$\phi$\\\hline&Agent&による,の,$\phi$\\に&PlaceStatic&での,における,の,$\phi$\\&Target&への,までの,に対する,の,$\phi$\\\hlineへ&Target&への,までの,に対する,の,$\phi$\\\hline&Object&に対する,の,$\phi$\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{を}}&PlaceOfTransit&上の,の,$\phi$\\\hline\multicolumn{3}{r}{\raisebox{0.5ex}[0pt]{\scriptsize$\dagger$}{\footnotesize記号$\phi$はゼロ形態素を意味する.}}\\\end{tabular}\end{center}\end{table}\subsection{態の区別の制限}サ変動詞文では,サ変動詞に接続する助動詞によって,能動態,受動態,使役態,間接受動態,可能態と,これらの組合せ(受動使役態など)が区別される.これに対して,サ変名詞句では,態の区別が制限されるか,あるいは行なわれなくなる.例えば,次のテキスト\ref{TEXT:sabetsu}では,サ変動詞文「日本ではアジア人が差別される」が受動態であったことは,サ変名詞句「足元にいるアジア人に対する差別」では表現されていない.\begin{TEXT}\text\underline{日本ではアジア人が差別される}のは当然だという考え方が強い.日本にとって国際化とは,\underline{足元にいるアジア人に対する差別}を撤廃して,一緒に手を組んで生きてゆくことだと思う.\label{TEXT:sabetsu}\end{TEXT}表\ref{tab:youren2tairen}の対応は,サ変動詞の態が能動である場合の対応である.従って,サ変動詞が能動態でない場合,用連助詞から体連助詞への変化が規則\ref{RULE:youren2tairen}に従うかどうかを調べる前に,サ変動詞の態を能動態に戻しておく必要がある.\begin{RULE}\ruleサ変動詞の態が能動でなければ,サ変動詞とその従属語との支配従属関係は表\ref{tab:voice}に示す対応に従って変化する.\label{RULE:voice}\end{RULE}\begin{table}[htbp]\caption{能動態への還元に伴う支配従属関係の変化}\label{tab:voice}\begin{center}\begin{tabular}{|l|lcl|}\hline\multicolumn{1}{|c}{態}&\multicolumn{3}{|c|}{支配従属関係の変化}\\\hline\hline&Subject&$\Longrightarrow$&Object\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{受動}}&Agent&$\Longrightarrow$&Subject\\\hline使役&Agent&$\Longrightarrow$&Subject\\\hline&Subject&$\Longrightarrow$&$\{\mbox{IndirectObject},\mbox{Target}\}^\ddagger$\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{間接受動}}&Agent&$\Longrightarrow$&Subject\\\hline可能&PotentialObject&$\Longrightarrow$&Object\\\hline\multicolumn{4}{r}{\raisebox{0.5ex}[0pt]{\scriptsize$\ddagger$}{\footnotesizeIndirectObjectかTargetかは動詞型による.}}\\\end{tabular}\end{center}\end{table}\subsection{情報伝達に必須でない従属語の削除}サ変動詞の従属語のうち,情報伝達に必須でない語は,サ変名詞句では表現されなくなる.また,削除されずに残ったサ変名詞の従属語の出現順序は,サ変動詞文におけるサ変動詞の従属語の出現順序に一致するとは限らない.例えば,サ変動詞文「新自由クラブは,奈良県知事選で自民党推薦の奥田氏を支持する」は,1)すべての語を元の出現順序のままで表現した「新自由クラブによる奈良県知事選での自民党推薦の奥田氏の支持」から,2)「新自由クラブ」と「自民党推薦」が削除され,「奈良県知事選」と「奥田氏」の出現順序が交替した「奥田氏に対する奈良県知事選での支持」などを経て,3)サ変名詞以外の語をすべて削除した「支持」に至るまで,様々なサ変名詞句に縮約されうる.「奈良県知事選で支持する」から「知事選での支持」への縮約における「奈良県知事選」から「知事選」への変化に見られるように,情報伝達に必要でない従属語は,語全体ではなくその部分が削除されることがある.従属語(名詞)は,$\langle\langle接頭語\rangle^*\\langle語基\rangle^+\\langle接尾語\rangle^*\rangle^+$という構成\footnote{記号${}^*$は0回以上の繰り返し,${}^+$は1回以上の繰り返しを意味する.}をしており,語の主要部は最後尾の語基である.従属語の一部が削除されるとき,まず削除されるのは主要部以外の部分であり,語の主要部である最後尾の語基は最後まで削除されずに残る場合が多いので,次のような規則をおく.\begin{RULE}\ruleサ変名詞の従属語は,サ変動詞のいずれかの従属語から接尾語を除いた部分に後方文字列一致する.\label{RULE:stringmatch}\end{RULE}\vspace*{-1mm}
\section{構造照合による意味合成の近似}
\label{sec:matching}\ref{sec:depredrules}節で述べた構造照合規則を用いたサ変動詞文とサ変名詞句の照応判定は,図\ref{fig:algorithm}に示す手順に従って行なう.この手順に従う処理によって照応が成立すると判定される例,成立しないと判定される例を示す.\begin{figure}[htbp]\samepage\begin{center}\fbox{\small{\begin{minipage}{0.8\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGO}\stepサ変動詞文を含む文の支配従属構造から,サ変動詞とその直接従属語で構成される支配従属構造を抽出する.サ変名詞句を含む文の支配従属構造から,サ変名詞とその直接従属語で構成される支配従属構造を抽出する.\label{ALGO:extract}\vspace*{1mm}\stepサ変名詞句の支配従属構造のすべてがサ変名詞のみで構成されていれば,照応が成立するものとして処理を終える.さもなければ,サ変名詞句の各支配従属構造を$Y_1,Y_2,\ldots,Y_n$とする.\vspace*{1mm}\stepサ変動詞文の支配従属構造におけるサ変動詞と従属語との支配従属関係を規則\ref{RULE:voice}に従って書き換えた支配従属構造を$X_1,X_2,\ldots,X_m$とする.\vspace*{1mm}\step$X_i(1\lei\lem)$と$Y_j(1\lej\len)$のすべての対[$X_i,Y_j$]について,それぞれ,ステップ\ref{ALGO:matching:binarygraph}と\ref{ALGO:matching:match}に従ってマッチング問題を解き,各最大マッチング$M_{i,j}$とその評価点$S_{i,j}$を求める.\label{ALGO:matching}\vspace*{1mm}\substep$X_i$における従属語$Xdep_{i,k}$と支配従属関係を表す助詞$Xrel_{i,k}$の対$\langleXdep_{i,k},Xrel_{i,k}\rangle$を一方の頂点,$Y_j$における従属語と助詞の対$\langleYdep_{j,l},Yrel_{j,l}\rangle$を他方の頂点とし,用連助詞$Xrel_{i,k}$と体連助詞$Yrel_{j,l}$が規則\ref{RULE:youren2tairen}に従うとき,二つの頂点を辺で結び,二部グラフを構成する.\label{ALGO:matching:binarygraph}\vspace*{1mm}\substep辺で結ばれている二つの頂点の従属語$Xdep_{i,k}$と$Ydep_{j,l}$が規則\ref{RULE:stringmatch}に従うとき,どの頂点も高々一つの組にしか属さないように,これら二つの頂点を一つの組にする.可能なマッチングのうち,組の数が最も多いものを[$X_i,Y_j$]についての構造照合結果$M_{i,j}$とする.$M_{i,j}$の評価点$S_{i,j}$は,より多くの頂点が対応付けられるほど良いという単純な基準に基づき,$M_{i,j}$に含まれる組の数とする.\label{ALGO:matching:match}\vspace*{1mm}\stepステップ\ref{ALGO:matching}で得られた各評価点$S_{i,j}$の最大値$S$を求める.$S$が正ならば,照応が成立すると判定し,$S$を与えるマッチング$M$を返す.さもなければ,照応が成立しないと判定する.\label{ALGO:max}\end{ALGO}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{サ変動詞文とサ変名詞句の構造照合の手順}\label{fig:algorithm}\end{figure}照応が成立すると判定される例として,\ref{sec:introduction}節のテキスト\ref{TEXT:shiji}を処理する過程を追う.サ変動詞文を含む文とサ変名詞句を含む文に対して形態素,構文,意味的共起解析を行ない,可能な支配従属構造のうち,形態素,構文,意味的共起に関する選好による総合評価点が最も高い構造を入力とすると,テキスト\ref{TEXT:shiji}の場合,図\ref{fig:depstruct}に示すように,サ変動詞文の支配従属構造が3通り,サ変名詞句の支配従属構造が2通り抽出される\footnote{語の従属先の曖昧性は個別の支配従属構造で表現するが,支配従属関係の曖昧性は,重複が許されていない支配従属関係の重複が生じない限り,一つの支配従属構造上にまとめて表現する.テキスト\ref{TEXT:shiji}のサ変名詞句の支配従属構造を展開すれば,$6(=3+3)$通りになる.}.抽出されたサ変名詞句の支配従属構造を$Y_1,Y_2$とする.\hspace*{0.2mm}また,\hspace*{0.2mm}抽出されたサ変動詞は能動態であり,\hspace*{0.2mm}規則\ref{RULE:voice}に従って支\hspace*{0.2mm}配\hspace*{0.2mm}従\hspace*{0.2mm}属\hspace*{0.2mm}関\hspace*{0.2mm}係を書\\き換える必要はないので,抽出されたサ変動詞文の支配従属構造をそのまま$X_1,X_2,X_3$とする.$X_1$は,「支持する」が「新自由クラブは」と「奈良県知事選で」と「奥田氏を」を支配する解釈,\\$X_2$は,「支持する」が「奈良県知事選で」と「奥田氏を」を支配し,第一文の主動詞「固めた」が「新自由クラブは」を支配する解釈,$X_3$は,「支持する」が「奥田氏を」を支配し,「固めた」が「新自由クラブは」と「奈良県知事選で」を支配する解釈である.また,$Y_1$は,「支持」が「知\\事選での」と「奥田氏を」を支配する解釈,$Y_2$は,「支持」が「奥田氏」を支配し,「奥田氏」が「知事選での」を支配する解釈である.\begin{figure}[htbp]\begin{center}\vspace*{-4mm}\epsfile{file=y022.eps,scale=1.0}\vspace*{-2mm}\end{center}\vspace*{-2mm}\caption{テキスト\protect\ref{TEXT:shiji}から抽出される支配従属構造}\label{fig:depstruct}\end{figure}ステップ\ref{ALGO:matching}で,$X_1,X_2,X_3$と$Y_1,Y_2$の組合せから成る6通りの対について,それぞれマッチング問題を解く.頂点の支配従属関係が集合として表されている場合,支配従属関係の集合の交わりが空でないときに限り二つの頂点が辺で結べることにすると,対[$X_1,Y_1$]についての処理では,図\ref{fig:matching1}に示すように,$X_1$の二つの頂点$\langle新自由クラブ,は/\mbox{Subject}\rangle$,$\langle奥田氏,を/\mbox{Object}\rangle$を$Y_1$の頂点$\langle奥田氏,\phi/\{\mbox{Subject,\,Object,\,Company}\}\rangle$と結び,$X_1$の頂点$\langle奈良県知事選,で/\mbox{PlaceActive}\rangle$を$Y_1$の頂点$\langle知事選,での/\mbox{PlaceActive}\rangle$と結んだ二部グラフが構成できる.この二部グラフでは,実線の辺で結ばれている頂点を組にすることによって,評価点2点の最大マッチングが得られる.なお,辺で結ばれている頂点を組にしたとき,頂点の支配従属関係は元の集合から集合の交わりに変化する.他の対についても同様に処理すると,対[$X_1,Y_1$]と[$X_2,Y_1$]から得られる最大マッチングが全体で最も評価点が高いマッチングとなる.\begin{figure}[htbp]\begin{center}\vspace{-4mm}\epsfile{file=y03.eps,scale=1.0}\vspace{-2mm}\end{center}\caption{支配従属構造$X_1$と$Y_1$における最大マッチング}\vspace{-2mm}\label{fig:matching1}\end{figure}全体で最も評価点が高いマッチングが得られる支配従属構造の対を優先させることによって,サ変動詞文とサ変名詞句の両方または一方の曖昧性を絞り込むことができる.$X_1$と$Y_1$の構造照合の結果,\hspace*{0.2mm}図\ref{fig:matching1}の最\hspace*{0.2mm}大\hspace*{0.2mm}マ\hspace*{0.2mm}ッ\hspace*{0.2mm}チ\hspace*{0.2mm}ン\hspace*{0.2mm}グ\hspace*{0.2mm}が得\hspace*{0.2mm}ら\hspace*{0.2mm}れ\hspace*{0.2mm}ることから,\hspace*{0.2mm}$Y_1$における「奥\hspace*{0.2mm}田\hspace*{0.2mm}氏」と「支\\持」の支配従属関係がObjectに定まる.もう一つの対[$X_2,Y_1$]についての処理でも,$Y_1$における「奥田氏」と「支持」の支配従属関係が一意に定まる.従って,テキスト\ref{TEXT:shiji}の場合,全体で\\$18(=3\times6)$通りの可能性を2通りに絞り込めたことになる.次のテキスト\ref{TEXT:teishi}を対象とした処理では,サ変動詞文「大統領がリトアニアに対する強硬手段を停止する」とサ変名詞句「ECによる援助の停止」の間に照応は成立しないと判定される.\begin{TEXT}\textソ連軍による弾圧は,\underline{大統領がリトアニアに対する強硬手段を停止する}との方針を明らかにした直後に起きた.これに対しベルギー外務省筋は\underline{ECによる援助の停止}もあり得ると語っている.\label{TEXT:teishi}\end{TEXT}サ変動詞文の支配従属構造としては,「停止する」が「大統領が」を支配する場合とそうでない場合の2通りが可能であり,サ変名詞句の支配従属構造としては,「停止」が「ECによる」を支配する場合とそうでない場合の2通りが可能であるので,支配従属構造の各対について規則\ref{RULE:youren2tairen}に従う頂点を辺で結ぶと,図\ref{fig:matching2}に示すような4通りの二部グラフが構成できる.しかし,いずれの二部グラフにおいても規則\ref{RULE:stringmatch}に従う頂点が存在しないので,組が構成できない.従って,サ変動詞文とサ変名詞句の間に照応は成立しないと判定される.\begin{figure}[htbp]\begin{center}\epsfile{file=y04.eps,scale=1.0}\end{center}\caption{テキスト\protect\ref{TEXT:teishi}のサ変動詞文とサ変名詞句に関する二部グラフ}\label{fig:matching2}\end{figure}
\section{実験と考察}
\label{sec:experiment}支配従属構造照合による意味制約充足性の判定法の有効性を検証するために,新聞記事データ\cite{Asahi91}からサ変動詞文とサ変名詞句を含む100記事を無作為に抽出し,各記事に含まれるサ変動詞文とサ変名詞句の組のうち,両者の物理的な距離が最も近いもの178組を対象として実験を行なった.サ変動詞文を含む文とサ変名詞句を含む文に対して形態素,構文,意味的共起解析を行ない,可能な支配従属構造のうち,形態素,構文,意味的共起に関する選好による総合評価点が最も高い構造を入力とした.なお,処理対象のサ変動詞文とサ変名詞句は,サ変動詞の語幹がサ変名詞句の主要部であるため照応が成立する可能性が高いと考えられるが,人間に照応が認められるのは178組中95組(53.4\%)であった.\subsection{照応判定成功率}本手法による照応判定と人間による判定を比較した結果を表\ref{tab:result}に示す.本手法と人間による判定が,照応成立という解釈で一致したサ変動詞文とサ変名詞句は77組(43.2\%),不成立という解釈で一致したのは56組(31.5\%)であった.この結果,本手法による判定成功率は74.7\%となる.また,判定を誤った組のうち,人間には照応が認められるものを照応不成立と判定した組は18組(10.1\%),その逆は27組(15.2\%)であった.\begin{table}[htbp]\caption{新聞記事を対象とした本手法の判定精度}\label{tab:result}\begin{center}\begin{tabular}{|c|c|c|r|}\hline\multicolumn{1}{|l}{人間による}&\multicolumn{2}{|c|}{本手法による判定}&\\\cline{2-3}\multicolumn{1}{|l|}{判定との比較}&照応成立&照応不成立&\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{成功/失敗率}}\\\hline\hline一致&43.2\%(77/178)&31.5\%(56/178)&74.7\%\\\hline不一致&15.2\%(27/178)&10.1\%(18/178)&25.3\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{照応不成立と誤判定された原因の分析}\label{tab:fail}\begin{center}\begin{tabular}{|l|r|}\hline\multicolumn{1}{|c}{原因}&\multicolumn{1}{|c|}{誤り数}\\\hline\hline類義語等による従属語の言い換え&10\\\hlineサ変名詞句での従属語の追加&3\\\hline従属語の主要部の削除&3\\\hlineその他&2\\\hline\end{tabular}\end{center}\end{table}照応不成立と誤判定した18組について,その原因を分析した結果を表\ref{tab:fail}に示す.最も多かった原因は,サ変名詞の従属語としてサ変動詞の従属語あるいはその一部が用いられず,その類義語などの別の語が用いられていることであった.\begin{FAIL}\failただ,\underline{歴訪を中止し}て湾岸危機の平和的解決に努める,といっても,具体的な手立ては乏しい.(中略)\首相は11日朝,\underline{ASEAN訪問中止}の理由を記者団から聞かれ,「米国とイラクの9日の外相会談が不調に終わって総合的に判断して決めた」.\label{FAIL:chuushi}\end{FAIL}失敗例\ref{FAIL:chuushi}では,「歴訪」と「訪問」の文字列照合に失敗するので,照応は成立しないと誤判定された.サ変動詞文では明示されていない語がサ変名詞句で初めて表現されているため,判定を誤った例を示す.\begin{FAIL}\failしかし,期限切れ前に締結される今回の新特別協定によって,これまでの諸手当に加え,日本人従業員の基本給と光熱水費を91年度から段階的に肩代わりし,\\\underline{新中期防衛力整備計画の最終年度の95年度には,その全額を負担できる}仕組みにな\hspace*{0.2mm}って\hspace*{0.2mm}い\hspace*{0.2mm}る.\hspace*{0.2mm}(中略)\必\hspace*{0.4mm}要\hspace*{0.4mm}経\hspace*{0.4mm}費\hspace*{0.4mm}は\hspace*{0.2mm}約\hspace*{0.6mm}2\hspace*{0.2mm}2\hspace*{0.2mm}0\hspace*{0.2mm}0\hspace*{0.2mm}億\hspace*{0.4mm}円\hspace*{0.2mm}で,\hspace*{0.2mm}\underline{\hspace*{0.2mm}日\hspace*{0.4mm}本\hspace*{0.4mm}側\hspace*{0.4mm}負\hspace*{0.4mm}担}\hspace*{0.4mm}分\hspace*{0.4mm}は,\hspace*{0.4mm}9\hspace*{0.2mm}5\hspace*{0.2mm}年\hspace*{0.4mm}度\hspace*{0.2mm}に\hspace*{0.2mm}在\\日駐留経費全体の約半分に達する見通しだ.\label{FAIL:futan}\end{FAIL}失敗例\ref{FAIL:futan}の場合,明示されていないサ変動詞文の主語が「日本側」であることがすでに推論されているならば,本手法をそのまま適用することによって照応が正しく捉えられ,推論の正しさが裏付けられる.しかし,明示されていない主語が「日本側」であるとの推論をサ変動詞文を含む文から得られる情報だけに基づいて行なうことは容易ではない.むしろ,本手法による判定から得られる情報を曖昧性絞り込みの手がかりとして,より積極的に利用する方が容易である.サ変動詞文で明示されていない従属語に関する情報が完全には得られておらず,例えば,主語が明示されていないことだけが分かっており,それが具体的に何であるかは分かっていないならば,任意の文字列と照合がとれる節点を主語としてサ変動詞文の従属構造構造に加えておけば,本手法の判定によって曖昧性絞り込みの手がかりが提供されるようになる.人間には照応が認められないものを照応成立と誤判定した27組についての原因は,すべて,サ変動詞文とサ変名詞句の間に照応が成立しないことを示す手がかりが,サ変動詞文とサ変名詞句以外の部分にあることによるものであった.失敗例\ref{FAIL:koukan}では,サ変動詞文「フセイン・イラク大統領と意見を交換する」とサ変名詞句「意見交換」の間に照応が成立しないと判定するためには,「フセイン国王との間で」の部分を参照しなければならない.\begin{FAIL}\fail同事務総長は空港で報道陣に対し,「わたしはいかなる和平案も携行していない.\underline{フセイン・イラク大統領と意見を交換し}に行く」と手短に答え,ジュネーブで言及したイラク軍撤退後の国連平和維持軍派遣の構想などには触れなかった.この後,王宮に向かい,欧州4カ国歴訪から9日に帰国したばかりのフセイン国王との間で,\underline{意見交換}を行った.\label{FAIL:koukan}\end{FAIL}特に,27組中21組については,サ変名詞句がサ変名詞だけで構成されているために,照応が成立しないことを示す情報がサ変名詞句からは得られなかった.今回の実験では,サ変動詞の語幹がサ変名詞句の主要部である場合に対象を限定しているため,サ変名詞句がサ変名詞だけで構成されている場合,照応が成立する可能性が高いと考え,そのように判定している.実際,そのように判定することで,サ変名詞だけで構成されているサ変名詞句を含む73組のうち,52組(71.2\%)について正しい判定が下されている.本手法では,各記事に含まれるサ変動詞文とサ変名詞句の組のうち,両者の距離が最も近いものを対象としてはいるが,サ変動詞文とサ変名詞句の距離に関する制約を課していないので,サ変名詞句がサ変名詞だけで構成されている場合,両者がどんなに離れていても照合成立と判定される.距離に関するパラメータと算式を定めることは今後の課題である.\subsection{曖昧性解消率}本手法の判定によって照応が成立すると正しく判定された77組のサ変動詞文とサ変名詞句について,類似性が最も高いと判断された(全体で最も高い評価点が与えられた)支配従属構造の組を優先することによって,どの程度曖昧性が絞り込めるかを調べた.本手法への入力である支配従属構造から抽出されたサ変動詞文とサ変名詞句に関係する部分の解釈の可能性は一組当たり平均3.4通り存在したが,これを構造照合によって1.8通りへ絞り込めた.可能な解釈の数が減少した組は18組であり,このうち17組は絞り込まれた解釈の中に,人間によって正しいと判定される解釈が含まれていた.また,18組中10組については解釈を一意に決定でき,そのうち9組が人間によって正しいと判定される解釈であった.
\section{おわりに}
本稿では,テキストの対象分野を限定しない日英機械翻訳への応用を前提として,構築が困難な知識や機構を必要とする意味合成による意味制約充足性の判定を支配従属構造照合による判定で近似する方法を示し,実験を行なった.本手法による照応判定を第一次近似とみなせば,比較的精度が高い結果が得られた背景には,英語では,先行文脈中に現れた語をそのまま反復することは文体上の理由から希であり,別の語に言い換える場合が多いのに対し,日本語では既出の語をそのまま繰り返す場合が多いことがあるものと考えられる.今回の実験では,処理対象をサ変動詞文とサ変名詞句に限定し,文字列情報のみを用いて処理を行なったが,類義関係を記述した意味体系が利用可能ならば,対象を拡げることも可能である.\acknowledgment新聞記事データの利用を承諾下さった朝日新聞社の関係者の方々に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{anaph}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)情報商品開発研究所にて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{JiriJelinek}{チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1995年退職.1992年より1996年までシャープ専任研究員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N04-01
|
\section{はじめに}
近年,対話の内容を特定のタスクに限定しない自由対話システムの研究が盛んに行われている\cite{Libin:04:a,Higashinaka:14:a}.対話システムの重要な要素技術の1つにユーザの発話の対話行為の自動推定がある.対話行為の推定は自由対話システムにおいて重要な役割を果たす.例えば,対話行為が「質問」の発話に対しては知識ベースから質問の回答を探して答えたり,映画の感想を述べているような「詳述」の発話に対しては意見を述べたり単にあいづちを返すなど,対話システムは相手の発話の対話行為に応じて適切な応答を返す必要がある.対話行為の推定手法として機械学習を用いた手法が既に提案されている\cite{milajevs:14:a,isomura:09:a,sekino:10:a,kim:10:a,Meguro:13:a}.しかし,機械学習に用いる特徴\footnote{本稿では,機械学習による識別のために用いる情報の種類(タイプ)のことを「特徴」,その具体的な情報のことを「特徴量」と呼ぶ.例えば,「単語3-gram」は特徴,「思い+ます+か」はその特徴量である.}を設定する際,個々の対話行為の特質が十分に考慮されていないという問題点がある.既存研究の多くは,対話行為の自動推定を多値分類問題と捉え,対話行為の分類に有効と思われる特徴のセットを1つ設定する.しかし,機械学習の特徴の中には,ある特定の対話行為の分類にしか有効に働かないものもある.例えば,ユーザの発話の対話行為が(質問に対する)「応答」であるかを判定するためには,発話者が交替したかという特徴は重要だが,対話行為が「質問」であるかを判定するためには,相手の発話の後に質問することもあれば自身の発話に続けて質問することもあるので,話者交替は重要な特徴とは考え難い.本論文では,上記の問題に対し,対話行為毎に適切な特徴のセットを設定することで個々の対話行為の推定精度を改善し,それによって全体の対話行為推定の正解率を向上させる手法を提案する.
\section{関連研究}
対話を形成する上で,話者の対話行為は対話の展開に強い影響を与えるだけでなく,対人印象や対人関係にも影響を及ぼしている\cite{nishida:92:a}.自由対話においては,対話を継続するか否かの判断はユーザに委ねられており,対話の内容のみならず,対話システムの不自然な応答や不快な発話は対話の破綻に繋がる.自由対話を継続するには,ユーザと対話システムが良好な関係を築く必要があり,そのためには,話者の対話行為を正確に推測し,それに応じて適切な応答を返さなければならない.\subsection{対話行為の利用}対話システムにおける対話行為情報の利用目的として,ユーザ意図の理解,システムの応答文生成における条件,システムの対話制御などが挙げられる\cite{Higashinaka:14:a,inui:01:a,Maeda:11:a,Sugiyama:13:a}.例えば,ユーザの発話を分析し,対話行為にクラス分けすることは,ユーザの意図理解の1つとみなせる.ユーザが挨拶をしているか,何かを質問しているのかなどをシステムが理解することで,その後の対話の展開を決定する.南らは行動予測確率に基づく報酬を設定する部分観測マルコフ決定過程(POMDP)を用いた対話制御手法において,対話行為列のtri-gramによる行動予測確率を導入した手法を提案し,その有効性を確認した\cite{Minami:12:a}.また,発話からの情報抽出のためのフィルタリング条件としても対話行為の情報は用いられる.平野らは,ユーザの発話からユーザ情報を抽出する手法を提案し,その手法では発話がユーザ情報を含むか否かを対話行為に基づき判断している\cite{Hirano:16:a}.\subsection{対話行為推定}教師あり機械学習に基づく対話行為の自動推定では,機械学習に用いる基本的な特徴として単語n-gramが利用されることが多い.これに加えて独自の特徴も提案されている.単語uni-gramは語順を考慮していないため,Milajevsらは単語bi-gramを特徴として用い,単語uni-gramのみよりもbi-gramを併用したときの方が高い精度が得られることを示した\cite{milajevs:14:a}.また,対話の流れを考慮するために前の発話の対話行為を特徴として利用し,その効果を評価した.磯村らは,頻度2以上の単語uni-gramと単語bi-gram,及び1つ前の発話の対話行為を特徴として,ConditinalRandomField(CRF)を用いて対話行為を推定し,75.77\%の推定精度を得たと報告している\cite{isomura:09:a}.機械学習アルゴリズムとしてSupportVectorMachine(SVM)とNaiveBayesを用いた実験も行ったが,これらでは1つ前の発話の対話行為を特徴として利用しておらず,推定精度はそれぞれ66.95\%と60.14\%となり,CRFより劣る.関野らは,特徴として発話文字数,内容語数,発話順番を提案し,磯村の手法\cite{isomura:09:a}の特徴にこれらを1つ以上追加したモデルを評価した\cite{sekino:10:a}.全ての組み合わせにおいてその有効性が確認され,内容語数と発話順番を追加した場合が最も高い精度となった.Kimらは,bag-of-wordsに加え,対話中の話者の役割などの構造的な情報と,直前の発話や同一話者によるこれまでの対話行為などといった対話の依存関係を機械学習の特徴として提案した\cite{kim:10:a}.ドメインが限られた対話を評価の対象としているが,96.86\%という高い推定精度が得られている.目黒らは,多種多様な話題や語彙を含み,また非文法的な文が多いマイクロブログ中の発話に対する対話行為自動付与のため,シソーラスを用いて抽象化した単語n-gramと文字n-gramを特徴とする手法を提案した\cite{Meguro:13:a}.評価実験の結果,Bag-of-Ngramsを特徴として用いたベースライン手法よりも高い精度を得た.これらの先行研究では,機械学習のために用いる特徴のセットは1つであり,それで全ての対話行為を推定している.しかし,どの特徴がどの対話行為の推定に有効に働くかなど,特徴と対話行為の関係については議論されていない.本研究では,発話がある対話行為を持つか否かを推定する機械学習において,対話行為それぞれに対して有効な特徴を自動的に選択する.
\section{提案手法}
本節では,自由対話における発話を入力とし,その対話行為を推定する手法について述べる.対話行為の分類クラスをあらかじめ定義し,その中から適切な対話行為のクラスを1つ選択する.従来手法の多くは教師あり機械学習に基づくが,学習のための特徴のセットはあらかじめ一律に定められている.しかし,全ての特徴が全ての対話行為の分類に必要というわけではなく,ある特徴が特定の対話行為の分類に貢献しないことがある.そのような特徴は正解率を低下させる要因となりうる.この問題を解決するために,提案手法では,対話行為の分類クラス毎に異なる特徴のセットを設定する.提案手法の処理の流れを図\ref{fig:proposed_method}に示す.対話行為毎に,入力発話がその対話行為に該当するか否かを判定する二値分類器を学習する.その際,対話行為毎に最適な特徴のセットを実験的に決める.また,分類と同時に判定の信頼度も算出する.次に,二値分類器による判定の結果,ならびに判定の信頼度を基に,入力発話の対話行為をひとつ選択する.本論文では,対話行為を選択するアルゴリズムとして,\ref{sec:対話行為の選択}項で述べる4つの手法を提案する.本論文では,各対話行為の二値分類器をL2正則化ロジスティック回帰によって学習し,学習ツールとしてLIBLINEAR\cite{fan:08:a}を用いた.LIBLINEARの学習パラメタはデフォルト値を用いた.判定の信頼度はLIBLINEARが出力する確率を用いた.\begin{figure}[t]\begin{center}\includegraphics{24-4ia1f1.eps}\caption{提案手法の流れ}\label{fig:proposed_method}\end{center}\end{figure}\subsection{対話行為の定義}対話行為の定義としてはSWBD-DAMSL\cite{jurafsky:97:a}が著名だが,かなり詳細な対話行為が定義されており,また自由対話を対象としたものではない.自由対話を想定した対話行為のセット\cite{Meguro:14:a}も提案されてはいるが,本研究では,今後構築を目指す自由対話システムの仕様を考慮して独自に定義した9つの対話行為のセットを用いる.その一覧を表\ref{tab:dialog_tag}に示す.\begin{table}[t]\caption{対話行為の定義}\label{tab:dialog_tag}\input{01table01.txt}\end{table}\subsection{機械学習に用いる特徴}人間同士の自由対話を人手で分析し,対話行為の言語的特徴を考慮して,対話行為の推定に有効と思われる28個の特徴を設定した.その一覧を表\ref{tab:feature_type_list}に示す.これらは大きく4つのグループに分けられる.\begin{table}[t]\caption{対話行為推定のための特徴}\label{tab:feature_type_list}\input{01table02.txt}\end{table}\noindent\textbf{グループ1}\quad$f_1$〜$f_{10}$は,発話の内容を表わし,全ての対話行為の分類に有効と考えられる特徴である.現在の発話(対話行為を推定するべき入力発話)ならびにその直前の発話に含まれる単語n-gram,自立語,文末に出現する単語n-gramならびに付属語の列を特徴とする.$f_9$,$f_{10}$は,それぞれ現在の発話と前発話の単語n-gram,付属語列の組を表わす.単語n-gramを用いた特徴($f_1$,$f_2$,$f_5$,$f_6$,$f_9$)では$n=1,2,3$とした.\noindent\textbf{グループ2}\quad$f_{11}$〜$f_{17}$は,発話の内容を表わし,特定の対話行為の推定に有効に働くと考えられる特徴である.$f_{11}$〜$f_{15}$はそれぞれの対話行為の発話で頻出すると思われるキーワードである.これらのキーワードは訓練データを参照して人手で選定した.$f_{16}$は要求の発話の文末によく見られる表現であり,文末が命令形の動詞,動詞基本形+「な」の否定の命令形,動詞連用形+「て」,動詞連用形+「や」,これらの表現+「よ」or「ね」,のいずれかに当てはまることを表わす.$f_{17}$は,あいづちを示唆する文末表現「ね」が出現するかを表わす.\noindent\textbf{グループ3}\quad$f_{18}$〜$f_{21}$は,発話の内容以外の情報を表わし,全ての対話行為の分類に有効と考えられる特徴である.$f_{18}$,$f_{19}$は,それぞれ相手もしくは話者自身の直近のいくつかの発話の対話行為の列である.対話行為列の長さは実験的に定める.詳細は\ref{sec:対話行為列の長さの最適化}で述べる.$f_{20}$は発話文中の文字数に基づく発話の長さである.発話長を機械学習の特徴として用いる場合,長さを適当な間隔($1\sim5$,$6\sim10$,11以上,など)に切って発話長を分類するのが一般的であるが,その適切な間隔を決めるのは難しい.本論文では,「発話長が$l\pm2$である」($3\lel\le19$),「発話長が20以上である」といった特徴量で発話長を表現する.例えば,発話長が10の発話に対しては,$l=8,9,10,11,12$の特徴量の重みを1とする.$f_{21}$は現在と直前の発話の話者が同じかどうかを表わす.実験に用いた自由対話コーパスでは,同じ話者が2つ以上の発話を連続して発言することがあるため,この特徴を導入した.\noindent\textbf{グループ4}\quad$f_{22}$〜$f_{28}$は,発話の内容以外の情報を表わし,特定の対話行為の推定に有効に働くと考えられる特徴である.$f_{22}$の「自立語の有無」は自立語を含まなくても生成できる「応答(YesNo)」,「あいづち」,「フィラー」とその他の対話行為の区別に有効であると考えられる.$f_{23}$〜$f_{25}$における「自立語繰り返し」とは,相手の前発話の自立語が現在の発話で繰り返し用いられるかを表わす.単語を繰り返して聞き返す「確認」や,反復による「あいづち」の特徴を捉えられる.$f_{23}$は単純に自立語が繰り返されるか否かを考慮するが,より厳密に「確認」,「あいづち」を示唆する自立語の繰り返しを区別するため,繰り返される自立語が相手の前発話の文末に出現する場合を$f_{24}$,発話で繰り返される自立語が現在の発話における唯一の自立語である場合を$f_{25}$とする.$f_{26}$,$f_{27}$はそれぞれ発話が自立語1語,非自立語1語で構成されているかを表わす.自立語1語で表現されることの多い対話行為としては「応答(平叙)」や「あいづち」がある.$f_{28}$は同じ単語が発話の中で複数回使われているかを表わす.応答表現や「あいづち」によく見られる繰り返しによる強調表現に対応するために導入した.対話行為を推定する二値分類器を学習する際には,発話を特徴量のベクトルで表現する.特徴量ベクトルの重みは,その特徴量が発話に出現していれば1,それ以外は0とする.\subsection{特徴セットの最適化}\label{sec:特徴セットの最適化}ここでは,個々の対話行為毎に,対話行為推定のための特徴を最適化する手法について述べる.\begin{figure}[b]\input{01fig02-algo.txt}\caption{特徴の選択アルゴリズム}\label{al:feature_selection}\end{figure}\subsubsection{最適な特徴セットの決定}\label{sec:最適な特徴セットの決定}個々の対話行為に対し,表\ref{tab:feature_type_list}に示した特徴の中から,その対話行為の分類に有効でないものを削除することで,対話行為毎に最適な特徴のセットを決める.そのアルゴリズムを図~\ref{al:feature_selection}に示す.$E$は全特徴の集合,$E'$は最適化された特徴の集合である.$f(X)$は,$X$を特徴として学習した分類器の開発データにおけるF値\footnote{発話がある対話行為に該当するか否かを判定する二値分類のF値.}である.特徴$f_i$を除いたときのF値$f(E\setminus\{f_i\})$が全特徴を用いたときのF値$f(E)$よりも低ければ,$f_i$を有効な特徴とみなして$E'$に入れ,そうでなければ削除する.これを全ての特徴について行い,1つ以上の特徴が削除されたら,残された特徴を新たに全特徴の集合とみなして同様の操作を行う.ただし,個別に評価したときに有効でない特徴は$E'$に残されていないにも関わらず,7行目の段階で複数の特徴が削除された$E'$を用いたときのF値がもとの$E$と比べて低くなることがある.そのときは,特徴を削除することによって最もF値が向上する(最も悪影響を与える)ものを1つ選択し,それのみを削除した特徴の集合を新たな$E$とする(10行目).これを特徴が削除されなくなるまで繰り返す.\subsubsection{対話行為列の長さの最適化}\label{sec:対話行為列の長さの最適化}特徴$f_{18}$と$f_{19}$は,「質問(YesNo)」の次には「応答(YesNo)」の発話が出現しやすいといったように,対話行為の並びを考慮するために導入した.しかし,直前だけでなく,2つ以前の発話からの対話の流れが対話行為の推定に有効である場合も考えられる.このとき,どれくらい前の発話を辿ればよいか,つまり過去の発話の対話行為列の長さをいくつに設定すればよいかは,分類対象とする対話行為によって異なると考えられる.本研究では,特徴$f_{18}$と$f_{19}$をそれぞれ相手もしくは話者自身の過去の$N_h(=1,2,3,4,5)$個の発話の対話行為の列とし,$N_h$の値を対話行為に応じて最適化する.すなわち,対話行為毎に,開発データでのF値が最大となる$N_h$を選択する.また,$N_h$の値が大きいときには特徴量の数が増えるため,特徴量の選択を行う.具体的には,特徴量と対話行為の相関の強さを$\chi^2$値で測り,それが閾値$T_h$よりも小さい特徴量を削除する.$T_h$は0,1,5,10のいずれかとし,$N_h$と同様に開発データでのF値が最大となる値を選択することで最適化する.$N_h$と$T_h$の最適化は,\ref{sec:最適な特徴セットの決定}で述べた最適な特徴セットを決定する前に行う.このとき,特徴は$f_{1}$(単語n-gram)と$f_{18}$もしくは$f_{19}$のみを使用する\footnote{予備実験では,先に最適な特徴のセットを決定し,その後$N_h$と$T_h$の最適化を行う手法も試したが,対話行為推定のF値はわずかに低下した.}.\subsection{組み合わせ特徴量}\label{sec:組み合わせ特徴量}本研究で使用するLIBLINEARでは特徴量間の相関関係は考慮されていない.しかし,特徴量の組み合わせが対話行為の分類に特に有効に働く可能性がある.そのため,2つの特徴量を組み合わせた特徴量も使用する.以下,これを「組み合わせ特徴量」と呼ぶ.ただし,全ての特徴量を組み合わせると特徴量の数が増大するため,図\ref{al:feature_selection}のアルゴリズムにより得られたそれぞれの対話行為に最適な特徴セットのF値と,その特徴セットから1つの特徴を除いた場合のF値の差が最も大きい特徴を「最も有効な特徴」と定義し,最も有効な特徴の特徴量とそれ以外の特徴量の組のみを組み合わせ特徴量として導入する.\subsection{対話行為の選択}\label{sec:対話行為の選択}本項では,個々の対話行為の二値分類器の出力結果から,最も適切な対話行為を1つ選択する手法について述べる.\subsubsection{判定の信頼度による選択}\label{sec:判定の信頼度による選択}対話行為の二値分類器が出力する信頼度を比較し,それが最も高い対話行為を選択する.具体的には,式(\ref{eq:model_simple})にしたがって最終的に選択する対話行為$\hat{d}$を決定する.$r(d_i)$は対話行為$d_i$の判定の信頼度を表わす.\begin{equation}\label{eq:model_simple}\textstyle\hat{d}=\arg\max_{d_i}r(d_i)\end{equation}\subsubsection{信頼度を特徴量とする機械学習による手法}\label{sec:信頼度を特徴量とする機械学習による選択}9つの対話行為の二値分類器の出力結果を特徴量とし,対話行為を選択するモデルを機械学習する.当然だが,\ref{sec:判定の信頼度による選択}で述べた手法において,信頼度1位の対話行為が常に正解となるわけではない.ここでの狙いは,「対話行為$d_a$と$d_b$について,$d_a$の信頼度が1位であるが,$d_a$と$d_b$の信頼度の差がそれほど大きくないときは,$d_b$が正解である可能性が高い」といった傾向を自動的に学習することにある.この手法では以下の特徴量を用いる.\begin{itemize}\item対話行為$d_i$の判定の信頼度.\item信頼度の順位が$n$位の対話行為の判定の信頼度.($n=1,2,3$)\end{itemize}上記の特徴量の重みは信頼度の値とする.後者の特徴量は,テキスト分類において,他クラスの信頼度を考慮する有効性が高橋らにより報告されている\cite{Takahashi:07:a}ことから設定した.機械学習アルゴリズムとしてロジスティック回帰(LIBLINEAR)を用いた.\subsubsection{信頼度に対する重み付けに基づく手法}\label{sec:信頼度に対する重み付けに基づく手法}予備実験の結果,「自己開示」以外の対話行為を持つ発話に対して「自己開示」が誤って選択される事例が多いことがわかった.「自己開示」の信頼度は他の対話行為に比べて平均的に高く,「自己開示」が最終的に選ばれやすいためであった.これは,\ref{sec:data}項で後述するように,訓練データにおける「自己開示」の出現頻度が高いためと考えられる.このような信頼度の不均衡を是正するため,式(\ref{eq:model_weighting})にしたがって対話行為を選択する.\begin{equation}\label{eq:model_weighting}\hat{d}=\left\{\begin{array}{ll}\arg\max_{d_i}w_i\cdotr(d_i)&\textrm{ifrank(1)=自己開示}\\\arg\max_{d_i}r(d_i)&\textrm{ifそれ以外}\\\end{array}\right.\end{equation}rank(1)は信頼度の順位が1位の対話行為を表わす.$w_i$は対話行為$d_i$の信頼度に与える重みであり,「自己開示」以外の対話行為の信頼度を大きくする働きをする.また,「自己開示」に対する重みは1と設定する.\begin{figure}[b]\input{01fig03-algo.txt}\caption{信頼度に対する重みを決定するアルゴリズム}\label{al:weighting_method}\vspace{-0.5\Cvs}\end{figure}信頼度の重みを反復推定するアルゴリズムを図\ref{al:weighting_method}に示す.変数$j$は反復のステップを表わす変数で,7〜13行目の処理を繰り返す.開発データ$D_{dev}$における発話$u_k$に対し,その正解の対話行為が自己開示ではなく,誤って自動推定された対話行為が自己開示であり,$uncertainty(u_k)$が閾値$TU_i$より大きいとき(9行目),正解の対話行為$d_i$に対する重み$w_i^{(j)}$を10行目の式にしたがって更新する.$uncertainty(u_k)$は発話$u_k$に対する対話行為推定の不確かさを表わす指標であり,9つの対話行為に対する判定の信頼度$r(d_i)$を得たとき,その1位の信頼度と2位の信頼度の比と定義する\footnote{1位と2位の信頼度が近ければ近いほど,1位の対話行為が正しくない可能性が高い.}.$TU_i$は対話行為$d_i$に対する重みを更新するか否かを決める$uncertainty(u_k)$の閾値である.基本的には,不正解となった「自己開示」の信頼度と正解の対話行為$d_i$の信頼度の差が大きいときほど$w_i^{(j)}$により大きい値を加える.$w_i^{(j)}$の値を増やすことにより,正解の対話行為$d_i$の信頼度が高くなり,選ばれる可能性が増す.$\delta$は重みの1回当たりの変動量を調整するパラメタである.本研究では$\delta=0.001$とした.開発データの全ての発話について重みの調整が終わったら,新しい重みを用いて,システムによる自動推定の結果を更新する(13行目).一般に$w_i^{(j)}$は収束するが,本研究では収束後の重みではなく,1回の反復毎に開発データにおける対話行為推定の改善度$eval_j(d_i)$を測り,これが最も高い時点での重みを選択する(15行目).$eval_j(d_i)$の定義は式(\ref{eq:def_eval})であり,対話行為が$d_i$である発話のうち重み付けによって新たに正解となった発話数($|B|$)と,対話行為が「自己開示」である発話のうち重み付けによって新たに不正解となった発話数($|W|$)の差である\footnote{$predict_0(u_k)$は重み付けしない手法で選択された発話$u_k$の対話行為を表わす.}.\begin{equation}\label{eq:def_eval}\begin{array}[t]{l}eval_j(d_i)=|B|-|W|\\\hspace*{3mm}B=\{u_k\;|\;gold(u_k)=d_i\landpredict_0(u_k)\negold(u_k)\landpredict_j(u_k)=gold(u_k)\}\\\hspace*{3mm}W=\{u_k\;|\;gold(u_k)=自己開示\landpredict_0(u_k)=gold(u_k)\landpredict_j(u_k)\negold(u_k)\}\end{array}\end{equation}本手法では,$uncertainty(u_k)$が低いときは重みの更新を行わない.これは個々の対話行為の二値分類器の結果が十分に信頼できるとみなしているためである.閾値$TU_i$は重みの更新を行うか行わないかをコントロールする働きをする.$TU_i$は重み$w_i$の推定に用いたものとは別の開発データを用いて最適化する.$TU_i$を変動させ,学習した重みを用いたシステムのevalの値が最大となる閾値を選択する.\begin{table}[b]\caption{信頼度1位が不正解,2位が正解となる対話行為の組と発話数}\label{tab:classificationerrorofdialogpair}\input{01table03.txt}\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求\end{table}\subsubsection{特定の対話行為の組に対して機械学習で識別する手法}\label{sec:特定の対話行為の組に対して機械学習で識別する手法}対話行為の中には互いに識別が難しい組み合わせがある.表\ref{tab:classificationerrorofdialogpair}は,対話行為のそれぞれの組に対し,一方の対話行為の信頼度の順位が1位でかつ不正解,もう一方の対話行為の信頼度の順位が2位でかつ正解となる発話の開発データにおける数を示している.この表において発話数(誤り数)の多い対話行為の組は,特に判定が難しいと考えられる.ここでは,このような対話行為の組に対し,適切な対話行為を選択する分類器を機械学習することを試みる.ただし,「自己開示」($d_1$)については,\ref{sec:信頼度に対する重み付けに基づく手法}で述べた信頼度の重み付けによる手法で対応することとし,ここでは$d_1$を含まない組の中で表\ref{tab:classificationerrorofdialogpair}における誤り発話数が多い組に着目する.具体的には,他と比べて誤り発話数の多い(あいづち,フィラー)と(質問(YesNo),確認)の2つの組について,機械学習により適切な対話行為を選択する.以上をまとめると,本手法は式(\ref{eq:model_dialog_act_pair})にしたがって$\hat{d}$を決定する.\begin{equation}\label{eq:model_dialog_act_pair}\hat{d}=\left\{\begin{array}{ll}\arg\max_{d_i}w_i\cdotr(d_i)&\textrm{ifrank(1)=$d_1$(自己開示)}\\\mathrm{classify(rank(1),rank(2))}&\textrm{if\{rank(1),rank(2)\}=\{$d_6,d_7$\}or\{$d_2,d_8$\}}\\\arg\max_{d_i}r(d_i)&\textrm{ifそれ以外}\\\end{array}\right.\end{equation}rank(1),rank(2)は判定の信頼度が1位,2位の対話行為を表わし,classify($x,y$)は2つの対話行為$x,y$の中から一方を選択する分類器である.classify($x,y$)の学習に使う特徴量は,組み合わせ特徴量も含めて対話行為$x$と$y$の分類に用いる特徴量の和集合とし,学習にはLIBLINEARを用いる.
\section{評価実験}
\subsection{データ}\label{sec:data}対話コーパスとして,人間同士の自由対話を書き起こした名大会話コーパス\cite{meidai:01:a}を用いた.実験では,対話コーパスの中から参加者が二名の対話のみを選択し,各発話に対し対話行為タグを人手で付与した.対話数は97,発話数は91,906である.3対話について二者によって対話行為タグを付与したところ,一致率は77.3\%,$\kappa$係数は0.636であった.コーパスにおける対話行為の出現頻度ならびに割合を表\ref{tab:distribution_of_dialog_tag}に示す.$d_1$(自己開示)が最も多く,全体の6割弱を占めている.一方,$d_9$(要求)は最も少なく,それが占める割合は1\%未満である.コーパスをおよそ80\%,10\%,10\%に分割し,77対話(74,228発話)を訓練データ,10対話(8,984発話)を開発データ,10対話(8,694発話)をテストデータとした.開発データは最適な特徴の選択やパラメタの最適化のために用いた.それぞれのデータにおける対話行為の頻度分布は全体とほぼ同じであった.\begin{table}[b]\caption{実験データにおける対話行為の出現頻度の分布}\label{tab:distribution_of_dialog_tag}\input{01table04.txt}\end{table}\subsection{パラメータ最適化}特徴$f_{18}$(相手の過去の発話の対話行為列),$f_{19}$(話者の過去の発話の対話行為列)について,\ref{sec:対話行為列の長さの最適化}で述べたように,過去の対話行為列の長さ$N_h$ならびに特徴量選択の閾値$T_h$の最適化を行った.本実験では,テストデータにおける発話の対話行為を推定する際,$f_{18}$と$f_{19}$の特徴量は正解の対話行為を用いる.実際には,過去の発話の対話行為は自動的に推定するべきである.しかし,このような実験設定では,対話行為推定の誤りが次の発話の対話行為の推定に影響し,対話行為の誤推定が前の発話の対話行為の誤りによるものか,それとも提案手法の不備など他の要因によるものなのかを区別できない.今回の実験では,提案手法の有効性を確認することに重点を置き,過去の発話の対話行為の分類に誤りはないという理想的な条件下で実験を行った.開発データにおけるF値が最大となった$N_h$と$T_h$の値を表\ref{tab:selected_history_length1}に示す.この表ではパラメタの最適化を行わないとき($N_h=1$,$T_h=0$)のF値も示した.`---'は$N_h=1$,$T_h=0$のときにF値が最大になった場合,すなわちパラメタの最適化によってF値が向上しなかった場合を表わす.\begin{table}[b]\caption{過去の発話の対話行為の特徴のパラメタ}\label{tab:selected_history_length1}\input{01table05.txt}\end{table}この結果から,対話行為毎に話者自身の過去の発話の対話行為列,相手の過去の発話の対話行為列の最適な長さが異なることが示された.特に,「フィラー」についてはF値が11もしくは14ポイント向上しており,パラメータ最適化の影響が大きい.これは「フィラー」の発話を認識するためにはそれまでの対話の流れが重要な情報であることを示唆する.一方で,「質問(YesNo)」,「応答(YesNo)」については自身の過去の発話,相手の過去の発話ともに$N_h=1$,$T_h=0$のときが最良となっている.「質問(YesNo)」については,前の発話の対話行為の影響が小さいと考えられるので,対話行為列の長さを変化させても影響がなかったと考えられる.「応答(YesNo)」については,前の相手の最後の発話が「質問」であることが多いため,$f_{18}$についてはひとつ前の相手の発話の対話行為だけを特徴量とすれば十分と考えられる.一方,$f_{19}$については,F値が他の対話行為と比べて極端に低い.$N_h$,$T_h$の最適化の際には$f_1$(単語n-gram)のみを特徴としていることが原因と考えられる.\subsection{特徴セットの最適化の結果}個々の対話行為に対して選択された特徴を表\ref{tab:selected_feature2-1}に示す.表\ref{tab:selected_feature2-1}の結果から,対話行為毎に有効な特徴が大きく異なることが確認された.$f_{1}$(単語n-gram)は全ての対話行為に共通して有効な特徴である.一方で,$f_{2}$(前発話の単語n-gram)や$f_{8}$(前発話の文末付属語列)は全ての対話行為で不要であり,前の相手の発話の内容は有効な特徴ではないと考えられる.表\ref{tab:effective_feature}は\ref{sec:組み合わせ特徴量}項で定義した最も有効な特徴の一覧である.これらも対話行為毎に異なるが,$f_1$,$f_{18}$,$f_{19}$のいずれかが選ばれており,これらが特に重要な特徴であることがわかる.\begin{table}[b]\caption{選択された特徴}\label{tab:selected_feature2-1}\input{01table06.txt}\par\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求\end{table}\begin{table}[b]\caption{対話行為の分類に最も有効な特徴}\label{tab:effective_feature}\input{01table07.txt}\end{table}\subsection{信頼度の重みの推定}\ref{sec:信頼度に対する重み付けに基づく手法}で述べた手法において,対話行為毎の信頼度の重み$w_i$は開発データを用いて推定した.一方,閾値$TU_i$は,開発データとは別のデータで最適化する必要がある.本実験では,訓練データの8分割交差検定により$TU_i$を最適化した.交差検定の際には,機械学習の特徴や重み$w_i$は開発データで決定したものを用いるが,分類器の学習は分割されたデータ毎にやり直した.$TU_i$を0から0.9まで0.1刻みで変動させ,式(\ref{eq:def_eval})のevalの値が一番大きい閾値を選択した.「自己開示」以外の対話行為に対する$w_i$と$TU_i$の一覧を表\ref{tab:w_k_and_TU_k_optimalization}に示す.$d_4$(応答(YesNo)),$d_7$(あいづち),$d_8$(確認)の3つの対話行為については,信頼度に対する重み付けを行っても対話行為推定結果は向上しなかったため,重みを1に設定している.すなわち,これらの対話行為の信頼度に対しては重み付けを行わない.\begin{table}[t]\caption{対話行為ごとの$w_i$と$TU_i$}\label{tab:w_k_and_TU_k_optimalization}\input{01table08.txt}\end{table}\begin{table}[t]\caption{8分割交差検定における分割データ毎のeval値}\label{tab:result_of_each_dialogue}\input{01table09.txt}\end{table}表\ref{tab:result_of_each_dialogue}は,例として$d_2$,$d_5$,$d_7$の3つの対話行為について,8分割交差検定において分割された個々のデータ($TR_1\simTR_8$)に対するevalの値を示している\footnote{$TU_i$は表\ref{tab:result_of_each_dialogue}における「合計」が最も大きい値を選んで最適化している.}.evalの値は対話データによってばらつきが見られ,負の値になる(重み付けによって悪化する)こともある.この結果から,信頼度に対する重み付けに基づく手法は,対話によって効果的に働く場合とそうでない場合があることがわかった.信頼度に対する重み付けは,「自己開示」の判定の信頼度が他の対話行為に比べて高いことを是正するための手法であるが,自己開示の発話の出現のしやすさは対話の内容に強く依存しており,自己開示の発話が多く出現する対話に対しては,「自己開示」以外の対話行為を選択しやすくする本手法が有効に働かなかったと推察できる.\subsection{対話行為推定の評価}対話行為を推定する提案手法の性能を評価する.評価基準は,各対話行為の推定の精度,再現率,F値,ならびにこれら3つの全対話行為についてのマクロ平均とマイクロ平均である.なお,精度および再現率のマイクロ平均は正解率(システムが選択した対話行為と正解の対話行為が一致する割合)に等しい.提案手法を2つのベースラインと比較する.一つは,全ての特徴を用いて,9つの対話行為のいずれかを選択する分類器をLIBLINEARで学習する手法($BL_a$)である.もう一つは,3.3項で説明した方法で特徴を選択する手法($BL_s$)である.提案手法が個々の対話行為毎に最適な特徴を選択するのに対し,$BL_s$では特徴のセットを1つだけ選択し,それを用いて全ての対話行為を分類する.一方,提案手法として,\ref{sec:判定の信頼度による選択}で述べた信頼度を比較する手法($Pro_p$),\ref{sec:信頼度を特徴量とする機械学習による選択}で述べた信頼度を特徴量とした機械学習を用いる手法($Pro_m$),\ref{sec:信頼度に対する重み付けに基づく手法}で述べた「自己開示」以外の対話行為の信頼度に対して高い重みを与える手法($Pro_w$),\ref{sec:特定の対話行為の組に対して機械学習で識別する手法}で述べた判定の難しい対話行為の組に対して機械学習で適切な対話行為を選択する手法($Pro_b$)の4つを評価する.まず,発話がある対話行為を持つか否かを判定するタスク(以下,「個別対話行為判定タスク」と呼ぶ)についてベースラインと提案手法を比較する.言い換えれば,個別対話行為判定タスクでは,図\ref{fig:proposed_method}の第1段階における対話行為毎に学習した分類器の性能を評価する.表\ref{tab:result_binary_task}は同タスクにおける$BL_s$と$Pro_p$の精度(P),再現率(R),F値(F)を示している.表\ref{tab:result_binary_task}(a)は開発データの結果であり,対話行為毎に特徴を最適化することによって,全ての対話行為について評価値が同等もしくは向上していることが確認できる.一方,表\ref{tab:result_binary_task}(b)はテストデータの結果であり,$Pro_p$は$BL_s$に比べてF値のマクロ平均が2.9ポイント向上した.しかしながら,「あいづち」と「要求」についてはF値が低下している.これは開発データとテストデータとで対話の内容が異なるため,両データにおいて最適な特徴が一致していないためと考えられる.この結果は,自由対話では様々なトピックが話題に挙がるため,対話行為分類のための最適な特徴を実験的に決定することが難しいことを示唆する.\begin{table}[b]\caption{個別対話行為判定タスクの結果}\label{tab:result_binary_task}\input{01table10.txt}\end{table}表\ref{tab:result_multi_task1}は,発話に対して9つの対話行為の中から該当するものを推定するタスク(以下,「対話行為推定タスク」と呼ぶ)における各手法の評価値を示している.2つのベースラインを比較すると,$BL_s$はマクロ平均では$BL_a$を上回るが,マイクロ平均は等しい.対話行為を区別せずに単純に特徴を最適化しても,正解率は向上しないことがわかる.一方,4つの提案手法のF値のマイクロ平均はいずれもベースラインよりも高い.最も結果が良かったのは手法$Pro_b$であった.$BL_s$と$Pro_b$の結果をマクネマー検定で検定したところ,5\%の有意水準で有意差があった.$Pro_b$が選択した対話行為と正解の対話行為の対応表を付録\ref{sec:contingency_table_Pro_b}に示す.\begin{table}[t]\caption{対話行為推定タスクの結果}\label{tab:result_multi_task1}\input{01table11.txt}\par\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求,Ma:マクロ平均,Mi:マイクロ平均\end{table}対話行為毎に結果を比較すると,「応答(YesNo)」「あいづち」「確認」「要求」については$Pro_b$は$BL_s$に比べてF値は改善しなかったが,「自己開示」「質問(YesNo)」「質問(What)」「応答(平叙)」「フィラー」についてはF値が0.3〜9.7ポイント改善した.$Pro_p$と$Pro_m$を比較すると,$Pro_m$は「あいづち」「確認」「要求」以外の対話行為でより高いF値が得られており,信頼度を特徴量とした機械学習の手法が有効であることを示している.「自己開示」について$Pro_p$と$Pro_w$を比較すると,再現率は$Pro_p$の方が高いが,精度ならびにF値では$Pro_w$が上回る.信頼度に重み付けを行う$Pro_w$は,判定の信頼度が全般に高い「自己開示」が過度に選ばれることを抑制するための手法であるが,この手法により「自己開示」のfalsepositiveの誤りが減少したことが確認された.また,表\ref{tab:w_k_and_TU_k_optimalization}で重みを1より大きく設定した全ての対話行為でF値が向上した.$Pro_b$は$Pro_w$と比べて,誤りが多かったために改めて機械学習で分類し直した「質問(YesNo)」「フィラー」「確認」の結果が改善されていることが確認できた.ただし,「あいづち」については,精度,再現率に変化はあったが,F値は変化しなかった.本論文では,ベースラインで精度や再現率が低い対話行為に対して推定の性能を向上させることを目指したが,一部の対話行為についてはその目標が達成されていない.具体的には,ベースラインで性能の低い「フィラー」の評価値は向上しているが,「確認」や「要求」については逆にベースラインよりも低くなっている.「確認」については,表\ref{tab:result_binary_task}より,個別対話行為分類タスクでは提案手法はベースラインを上回っているため,図\ref{fig:proposed_method}における二段階の処理のうち,第1段階で「確認」に該当するかを判定する時点では性能の向上が見られるものの,第2段階の対話行為を推定する段階で誤りを多く生じていることがわかる.一方,「要求」については表\ref{tab:result_binary_task}でも表\ref{tab:result_multi_task1}でも提案手法はベースラインより劣る.この原因として,コーパスにおいて「要求」の対話行為を持つ発話の数が他の対話行為と比べて極端に少ないことが考えられる.組み合わせ特徴量の有効性を評価するために,組み合わせ特徴量を使用したモデルと使用しないモデルのF値のマイクロ平均(正解率)を比較した.結果を表\ref{tab:result_evaluate_comb_multi_task}に示す.いずれの手法も組み合わせ特徴量を用いることでF値が向上していることから,組み合わせ特徴量の有効性が確認できた.\begin{table}[t]\caption{組み合わせ特徴量の評価}\label{tab:result_evaluate_comb_multi_task}\input{01table12.txt}\end{table}\subsection{機械学習アルゴリズムの比較}\label{sec:機械学習アルゴリズムの比較}前項までの実験では機械学習アルゴリズムとしてL2正則化ロジスティック回帰を用いたが,本項ではこれと他の機械学習アルゴリズムを比較する.また,対話行為毎に適切な特徴セットを設定するという提案手法の基本的な考え方が他の機械学習アルゴリズムでも有効であるかを検証する.そのため,$BL_a$(全特徴を用いたベースライン),$BL_s$(対話行為を区別しないで特徴を選択したベースライン),ならびに提案手法のうち最も基本的な$Pro_p$を比較する実験を行う.比較する機械学習アルゴリズムはSVMとする.カーネル関数として,線形カーネル,多項式カーネル(カーネルの次数は3),RadialBasisFunction(RBF)カーネル,シグモイドカーネルの4つを用いる.$Pro_p$では,対話行為毎に特徴を選択するために,特徴セットを変えて学習とテストを繰り返す必要があるが,SVMの学習は非常に時間がかかるため,現実的な時間では特徴選択が終了しない.そこで,高速なLIBLINEARを用いて選択された特徴のセット(表\ref{tab:selected_feature2-1})を用い,対話行為毎の二値分類器を学習するときのみSVMを用いる.同様に,$BL_s$もLIBLINEARを用いて選択された特徴のセットを用いる.また,L2正則化ロジスティック回帰とは異なり多項式カーネルのSVMでは特徴量の組み合わせも学習時に考慮されるため,ここでの実験では組み合わせ特徴量は用いない.SVMの学習にはLIBSVM\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/}を用いる.学習パラメタはデフォルト値を用いる.$Pro_p$で用いる個々の対話行為判定の信頼度は,LIBSVMが出力する確率とする.SVMによる対話行為推定のF値のマイクロ平均(正解率)を表\ref{tab:result_SVM}に示す.比較のため,L2正則化ロジスティック回帰を用いたときの結果(表\ref{tab:result_evaluate_comb_multi_task}の組み合わせ特徴量なしの結果)も再掲する.*と$\dagger$はマクネマー検定で$Pro_p$と他の手法の差を検定した結果を表わす.*はロジスティック回帰の$Pro_p$との間に有意水準5\%で有意差が,$\dagger$は同じ学習アルゴリズムの$BL_s$との間に有意差があることを示している.多項式カーネルのSVMでは全ての発話に対して「自己開示」が選択された.これは過学習のためと考えられる.\begin{table}[t]\caption{機械学習アルゴリズムの比較}\label{tab:result_SVM}\input{01table13.txt}\vspace{4pt}\small*:$p<0.05$(vs.ロジスティック回帰の$Pro_p$),~~$\dagger$:$p<0.05$(vs.$BL_s$)\end{table}異なる機械学習アルゴリズムの$Pro_p$の結果を比較すると,L2正則化ロジスティック回帰は全てのSVMよりも正解率が有意に高い.線形カーネルのSVMについては,$Pro_p$よりも$BL_s$の方が正解率が高いが,ロジスティック回帰の$Pro_p$よりは劣る.ただし,今回の実験では,特徴選択の際に用いた機械学習アルゴリズム(ロジスティック回帰)と対話行為推定の分類器の学習に用いたアルゴリズム(SVM)が異なる.特徴選択もSVMで行えば,SVMでの分類に適した特徴セットが選ばれて,正解率が向上する可能性がある.SVMの中で最も結果が良かった線形カーネルの$BL_s$については,特徴選択も線形カーネルのSVMを用いてモデルを学習する追加実験を行ったところ,F値は0.806と変化しなかった\footnote{選択された特徴は異なる.ロジスティック回帰を用いて選択された特徴は$f_{1}$,$f_{5}$,$f_{8}$,$f_{14}$,$f_{15}$,$f_{18}$,$f_{19}$,$f_{20}$,$f_{22}$,$f_{24}$であったのに対し,線形カーネルのSVMで選択された特徴は$f_{1}$,$f_{5}$,$f_{6}$,$f_{8}$,$f_{10}$,$f_{11}$,$f_{12}$,$f_{13}$,$f_{16}$,$f_{17}$,$f_{18}$,$f_{19}$,$f_{20}$,$f_{21}$,$f_{23}$,$f_{24}$,$f_{25}$,$f_{26}$,$f_{27}$,$f_{28}$であった.}.このモデルと提案手法(ロジスティック回帰の$Pro_p$)とは5\%の有意水準で有意差があった.他のカーネルの$BL_s$や$Pro_p$についても特徴選択の段階からSVMを用いるべきであるが,LIBLINEAR以外では特徴選択に非常に時間がかかるという問題がある.例えば,IntelXeon2.93~GHz,メモリ8~GBのサーバを用いて,対話行為「自己開示」に該当するかを判定する二値分類器の学習に,LIBLINEARでは16秒を要したのに対し,LIBSVMではおよそ168倍の2,697秒を要した.今回の実験結果からは,LIBLINEARを用いる手法が対話行為推定のF値ならびに計算時間の両方の観点から最も優れているといえる.機械学習アルゴリズム毎に$BL_s$と$Pro_p$を比較すると,ロジスティック回帰,RBFカーネルのSVM,シグモイド関数のSVMにおいて,差はそれほど顕著ではないものの,$Pro_p$は$BL_s$よりも正解率が高かった.有意義な分類器が学習できなかった多項式カーネルのSVMを除けば,4つのうち3つの機械学習アルゴリズムについて,対話行為毎に最適な特徴を選択するというアプローチは有効と言える.但し,提案手法のアプローチの妥当性をより正確に検証するためには,異なる対話行為のセットを用いた実験や,異なる対話コーパスを用いた実験などを行う必要があるだろう.次に,多値分類の機械学習アルゴリズムであるCRFならびにランダムフォレスト\cite{breiman:01:a}と提案手法を比較する.CRFで分類されるのは系列(本論文の場合は発話列)であることに注意していただきたい.ここでは,対話全体の発話列を入力として与える手法($CRF_{all}$)と,対話の先頭から解析対象となる発話までの発話列を逐次的に入力として与える手法($CRF_{seq}$)の2つを評価する.実際に対話システムでの利用を想定しているのは$CRF_{seq}$である.$CRF_{all}$は対話が全て終了するまで対話行為を分類できないため,実際の対話システムに組み込むことは不可能だが,文献\cite{isomura:09:a}のようにコーパスへの対話行為のタグ付けを目的とする場合には利用できる.CRFの学習にはCRFsuite\footnote{http://www.chokkan.org/software/crfsuite/}を,ランダムフォレストの学習にはscikit-learn\footnote{http://scikit-learn.org/}を用いる.$CRF_{all}$,$CRF_{seq}$,$RF$(ランダムフォレスト)のそれぞれについて,$BL_a$と同じ特徴セット(28個の全ての特徴)を用いたときと,$BL_s$と同じ特徴セットを用いたときの対話行為推定のF値を表\ref{tab:crf_random-forest}に示す.最良の提案手法である$Pro_b$(F値0.825)は,$CRF_{seq}$と$RF$を上回り,マクネマー検定で5\%の有意水準で有意差があることを確認した.$CRF_{all}$は$CRF_{seq}$よりも解析に利用できる発話数が多いため,F値が高い.$BL_s$と同じ特徴セットを用いたときの$CRF_{all}$は$Pro_b$を上回るが,$CRF_{all}$は対話システムでの利用を想定したモデルではない.\begin{table}[t]\caption{CRF,ランダムフォレストの結果}\label{tab:crf_random-forest}\input{01table14.txt}\end{table}
\section{おわりに}
本論文では,自由対話における発話の対話行為を自動推定する新しい手法を提案した.提案手法は,個々の対話行為毎に発話がその対話行為に該当するかを判定する第1段階と,第1段階の結果から最終的に最も適切な対話行為を選択する第2段階から構成される.第1段階において,教師あり機械学習のために有効な特徴は対話行為毎に異なるという仮定の下,対話行為毎に最適な特徴のセットを自動的に決定する点に特長がある.評価実験の結果,対話行為を区別せずに特徴の選択を行う手法と比べて,提案手法の対話行為推定のF値は0.6ポイント高かった.F値の差はそれほど大きくはないものの,統計的に有意な差があることを確認した.本論文の貢献は以下の通りである.表\ref{tab:selected_feature2-1}に示すように,有効な特徴のセットは対話行為によって異なることを実験的に確認し,対話行為毎に特徴の最適化を行う提案手法のアプローチが有望であることを示した.表\ref{tab:result_SVM}に示したロジスティック回帰ならびに4種のカーネル関数のSVMを用いた検証実験では,ロジスティック回帰,SVM(RBF),SVM(シグモイド)について,対話行為毎に特徴の最適化を行うことでF値の向上が見られた.ただし,統計的に有意差が確認されたのはSVM(RBF)のみであった.また,過去の対話行為を特徴とするとき,その最適な長さは対話行為毎に異なることを確認した.さらに,提案手法の第2段階において,分類の信頼度を単純に比較して対話行為を1つ選択すると,分類の信頼度が対話行為によって大きく差があるために特定の対話行為(具体的には「自己開示」)が選ばれやすいという問題に対し,適切な対話行為を選択する3つの手法を提案し,それらがF値の向上に貢献することを確認した.一方,対話行為によっては,特徴の最適化により,開発データではF値が向上するもののテストデータは低下することがわかった.自由対話システムでは様々なトピックが話題になることから,対話によって有効な特徴が異なる可能性があり,特徴の最適化を実験的に行う提案手法のアプローチの問題点も明らかにした.表\ref{tab:result_of_each_dialogue}に示したように,信頼度の重み付けに基づく手法が対話によって有効に働く場合とそうでない場合があることがわかったが,これも自由対話システムにおけるトピックの多様性に起因すると考えられる.今後の課題としては,F値が依然として低い「フィラー」「確認」「要求」に対して対話行為推定の性能を向上させることが挙げられる.これらの対話行為の推定に有効な新たな特徴を発見したり,提案手法の第2段階における対話行為選択手法を洗練する必要がある.また,上記の考察を踏まえ,領域適応の技術を応用し,対話の内容が訓練データ・開発データとテストデータとで異なる場合でもF値を低下させない方法を探究することも重要な課題である.\ref{sec:機械学習アルゴリズムの比較}項で述べたように,対話行為毎に適切な特徴のセットを設定するという提案手法のアプローチの妥当性を検証するためには更なる実験が必要である.また,自然言語処理分野でも近年盛んに利用されるようになった深層学習\cite{Kim:14:a}との比較も重要である.\acknowledgment本論文の査読にあたり,査読者の方から数多くの有益なコメントをいただきました.深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Breiman}{Breiman}{2001}]{breiman:01:a}Breiman,L.\BBOP2001\BBCP.\newblock\BBOQRandomForests.\BBCQ\\newblock{\BemMachineLearning},{\Bbf45}(1),\mbox{\BPGS\5--32}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{fan:08:a}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Higashinaka,Imamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014}]{Higashinaka:14:a}Higashinaka,R.,Imamura,K.,Meguro,T.,Miyazaki,C.,Kobayashi,N.,Sugiyama,H.,Hirano,T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQTowardsanOpen-domainConversationalSystemFullyBasedonNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014},\mbox{\BPGS\928--939}.\bibitem[\protect\BCAY{平野\JBA小林\JBA東中\JBA牧野\JBA松尾}{平野\Jetal}{2016}]{Hirano:16:a}平野徹\JBA小林のぞみ\JBA東中竜一郎\JBA牧野俊朗\JBA松尾義博\BBOP2016\BBCP.\newblockパーソナライズ可能な対話システムのためのユーザ情報抽出.\\newblock\Jem{人工知能学会論文誌},{\Bbf31}(1),\mbox{\BPGS\DSF--B\_1--10}.\bibitem[\protect\BCAY{Inui,Ebe,Indurkhya,\BBA\Kotani}{Inuiet~al.}{2001}]{inui:01:a}Inui,N.,Ebe,T.,Indurkhya,B.,\BBA\Kotani,Y.\BBOP2001\BBCP.\newblock\BBOQACase-BasedNaturalLanguageDialogueSystemUsingDialogueAct.\BBCQ\\newblockIn{\BemProceedingsofIEEEInternationalConferenceonSystems,Man,andCybernetics},\mbox{\BPGS\193--198}.\bibitem[\protect\BCAY{磯村\JBA鳥海\JBA石井}{磯村\Jetal}{2009}]{isomura:09:a}磯村直樹\JBA鳥海不二夫\JBA石井健一郎\BBOP2009\BBCP.\newblock対話エージェント評価におけるタグ付与の自動化.\\newblock\Jem{電子情報通信学会論文誌.A,基礎・境界},{\Bbf92}(11),\mbox{\BPGS\795--805}.\bibitem[\protect\BCAY{Jurafsky,Shriberg,\BBA\Biasca}{Jurafskyet~al.}{1997}]{jurafsky:97:a}Jurafsky,D.,Shriberg,E.,\BBA\Biasca,D.\BBOP1997\BBCP.\newblock\BBOQSwitchboardSWBD-DAMSLShallow-Discourse-FunctionAnnotationCodersManual.\BBCQ\\newblock\BTR,InstituteofCognitiveScienceTechnicalReport.\bibitem[\protect\BCAY{Kim,Cavedon,\BBA\Baldwin}{Kimet~al.}{2010}]{kim:10:a}Kim,S.~N.,Cavedon,L.,\BBA\Baldwin,T.\BBOP2010\BBCP.\newblock\BBOQClassifyingDialogueActsinOne-on-oneLiveChats.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\862--871}.\bibitem[\protect\BCAY{Kim}{Kim}{2014}]{Kim:14:a}Kim,Y.\BBOP2014\BBCP.\newblock\BBOQConvolutionalNeuralNetworksforSentenceClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1746--1751}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2001}]{meidai:01:a}国立国語研究所\BBOP2001\BBCP.\newblock名大会話コーパス.\科学研究費基盤研究(B)(2)「日本語学習辞書編纂に向けた電子化コーパス利用によるコロケーション研究」(平成13年度〜15年度),http://pj.ninjal.ac.jp/conversation/nuc.html.\bibitem[\protect\BCAY{Libin\BBA\Libin}{Libin\BBA\Libin}{2004}]{Libin:04:a}Libin,A.~V.\BBACOMMA\\BBA\Libin,E.~V.\BBOP2004\BBCP.\newblock\BBOQPerson-robotinteractionsfromtherobopsychologists'pointofview:theroboticpsychologyandrobotherapyapproach.\BBCQ\\newblockIn{\BemProceedingsoftheIEEE,{\upshape\textbf{92}(11)}},\mbox{\BPGS\1789--1803}.\bibitem[\protect\BCAY{前田\JBA南\JBA堂坂}{前田\Jetal}{2011}]{Maeda:11:a}前田英作\JBA南泰浩\JBA堂坂浩二\BBOP2011\BBCP.\newblock人ロボット共生におけるコミュニケーション戦略の生成.\\newblock\Jem{日本ロボット学会誌},{\Bbf29}(10),\mbox{\BPGS\887--890}.\bibitem[\protect\BCAY{目黒\JBA東中\JBA杉山\JBA南}{目黒\Jetal}{2013}]{Meguro:13:a}目黒豊美\JBA東中竜一郎\JBA杉山弘晃\JBA南泰浩\BBOP2013\BBCP.\newblock意味属性パターンを用いたマイクロブログ中の発言に対する自動対話行為付与.\\newblock\Jem{研究報告音声言語情報処理(SLP)},{\Bbf2013}(1),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Meguro,Minami,Higashinaka,\BBA\Dohsaka}{Meguroet~al.}{2014}]{Meguro:14:a}Meguro,T.,Minami,Y.,Higashinaka,R.,\BBA\Dohsaka,K.\BBOP2014\BBCP.\newblock\BBOQLearningtoControlListening-orientedDialogueUsingPartiallyObservableMarkovDecisionProcesses.\BBCQ\\newblock{\BemACMTransactionsonSpeechandLanguageProcessing},{\Bbf10}(4),\mbox{\BPGS\1--20}.\bibitem[\protect\BCAY{Milajevs\BBA\Purver}{Milajevs\BBA\Purver}{2014}]{milajevs:14:a}Milajevs,D.\BBACOMMA\\BBA\Purver,M.\BBOP2014\BBCP.\newblock\BBOQInvestigatingtheContributionofDistributionalSemanticInformationforDialogueActClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponContinuousVectorSpaceModelsandtheirCompositionality(CVSC)},\mbox{\BPGS\40--47}.\bibitem[\protect\BCAY{南\JBA東中\JBA堂坂\JBA目黒\JBA森\JBA前田}{南\Jetal}{2012}]{Minami:12:a}南泰浩\JBA東中竜一郎\JBA堂坂浩二\JBA目黒豊美\JBA森啓\JBA前田英作\BBOP2012\BBCP.\newblock対話行為タイプ列Trigramによる行動予測確率に基づくPOMDP対話制御.\\newblock\Jem{電子情報通信学会論文誌.A,基礎・境界},{\Bbf95}(1),\mbox{\BPGS\2--15}.\bibitem[\protect\BCAY{西田}{西田}{1992}]{nishida:92:a}西田公昭\BBOP1992\BBCP.\newblock対話者の会話行為が会話方略ならびに対人認知に及ぼす効果.\\newblock{\BemTheJapaneseJournalofPhychology},{\Bbf63}(5),\mbox{\BPGS\319--325}.\bibitem[\protect\BCAY{関野\JBA井上}{関野\JBA井上}{2010}]{sekino:10:a}関野嵩浩\JBA井上雅史\BBOP2010\BBCP.\newblock発話に対する拡張談話タグ付与.\\newblock\Jem{第6回情報処理学会東北支部研究会報告}.\bibitem[\protect\BCAY{Sugiyama,Meguro,Higashinaka,\BBA\Minami}{Sugiyamaet~al.}{2013}]{Sugiyama:13:a}Sugiyama,H.,Meguro,T.,Higashinaka,R.,\BBA\Minami,Y.\BBOP2013\BBCP.\newblock\BBOQOpen-domainUtteranceGenerationforConversationalDialogueSystemsusingWeb-scaleDependencyStructures.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\334--338}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2007}]{Takahashi:07:a}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2007\BBCP.\newblock\BBOQEstimationofClassMembershipProbabilitiesintheDocumentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe11thPacific-AsiaConferenceonAdvancesinKnowledgeDiscoveryandDataMining(PAKDD)},\mbox{\BPGS\284--295}.\end{thebibliography}\appendix\vspace{-1\Cvs}
\section{対応表}
\label{sec:contingency_table_Pro_b}\begin{table}[b]\caption{正解の対話行為と$Pro_b$の出力との対応表}\label{tab:contingency_table_Pro_b}\input{01table15.txt}\vspace{4pt}\small$d_1$:自己開示,$d_2$:質問(YesNo),$d_3$:質問(What),$d_4$:応答(YesNo),$d_5$:応答(平叙),$d_6$:あいづち,$d_7$:フィラー,$d_8$:確認,$d_9$:要求\end{table}正解の対話行為と提案手法のうち最もF値の高い$Pro_b$が選択した対話行為の対応表を表\ref{tab:contingency_table_Pro_b}に示す.\clearpage\begin{biography}\bioauthor{福岡知隆}{2010年東京工科大学コンピュータサイエンス学科コンピュータサイエンス学部卒業.2012年同大学院バイオ・情報メディア研究科修士課程修了.2017年北陸先端科学技術大学院大学情報科学研究科博士課程修了.同年株式会社NextremerAIエンジニア.現在に至る.博士(情報科学).電子情報通信学会会員.}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士課程修了.同年同大学院助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授.現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会,人工知能学会,電子情報通信学会各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V02N04-03
|
\section{まえがき}
形態素解析処理は自然言語処理の基本技術の一つであり,日本語の形態素解析システムも数多く報告されている\cite{yosimura83}\cite{hisamitu90}\cite{nakamura}\cite{miyazaki}\cite{kitani}\cite{hisamitu94a}\cite{maruyama94}\cite{juman}\cite{nagata}.しかし,使用している形態素文法について詳しく説明している文献は少ない.文献\cite{miyazaki}では三浦文法\cite{miura}に基づいた日本語形態素処理用文法を提案しているが,品詞の体系化と品詞間の接続ルールの記述形式の提案のみに留まり,具体的な文法記述や実際の解析システムへの適用にまでは至っていない.公開されている形態素解析システムJUMAN\cite{juman}では,形態素文法は文献\cite{masuoka}に基づくものであった.その他の文献は解析のアルゴリズムや,固有名詞や未知語の特定機能に関する報告で,使用された形態素文法については述べられていない.言語学の分野で提案されている文法を形態素解析に適用する場合の問題点は,品詞分類が細か過ぎる点と,ほとんどの場合,動詞の語尾の変化について全ての体系が与えられていない点である.言語学の分野では文の過剰な受理を避けるように文法を構築することによって,日本語の詳細な文法体系を解明しようとするので,品詞分類が細かくなるのは当然である.しかし,そのために,文法規則も非常に細かくなり,形態素の統一的な扱いも難しくなる.そこで,本文法では,「形態素解析上差し支えない」ことを品詞の選定基準とする.つまり,ある品詞を設定しないが為に,ある文節に関して構文上の性質に曖昧性が生じる場合に,その品詞を設定する.そして,過剰な受理を許容することと引き替えに,できる限り形態素を統一的に扱う.従来の多くの文法では活用という考え方で動詞の語尾変化を説明するが,それらの活用形についての規則は,個々の接尾辞について接尾可能な活用形を列挙するという形になっている.例えばいわゆる学校文法では,「書か」はカ行五段活用動詞「書く」の未然形であり,否定の接尾辞の「ない」や使役の接尾辞の「せる」が接尾する等の規則が与えられる.さらに一段活用動詞には「せる」ではなく「させる」が接尾する等の規則があり,規則が複雑になっている.そのため,それらの複雑な規則を吸収するために活用形を拡張し,「書こう」を意志形としたり,「書いた」を完了形とするような工夫がなされる.しかし,このように場当たり的に活用形を拡張すると活用形の種類が非常に多くなり,整合性を保つための労力が大きくなる.日本語形態素処理における動詞の活用の処理については文献\cite{hisamitu94b,hisamitu94c}に詳しい.そこでは,音韻論的手法\cite{bloch,teramura},活用形展開方式,活用語尾分離方式が紹介され,新たに活用語尾展開方式\footnote{文献\cite{hisamitu94b,hisamitu94c}では,提案方式と呼ばれている.}が提案されている.音韻論的手法は,子音動詞の語幹と屈折接辞を音韻単位に分解し,屈折接辞の音韻変化の規則を用いて,活用を単なる動詞語幹と屈折接辞の接続として捕らえる.しかし,これまでの音韻論的手法では,子音動詞についての知見しか得られていなかったために,子音動詞に接尾する接尾辞と母音動詞に接尾する接尾辞を別々に扱わなければならなかった.また,音韻単位で処理する必要があると考えられているため,文献\cite{hisamitu94b,hisamitu94c}でも,処理の効率が落ちるとされている.一方,活用形展開方式,活用語尾分離方式,活用語尾展開方式は何れも伝統的な学校文法に基づいている.活用形展開方式は,各動詞についてその活用形を全て展開して辞書に登録し,それぞれ接尾辞との接続規則を与えるもので,処理速度の点で有利であるが,登録語数が非常に多くなる上に,接続規則の与え方によっては効率の点でも不利になる可能性がある.活用語尾分離方式は,活用語尾を別の形態素とし,動詞語幹と活用語尾の接続規則および活用語尾と接尾辞の接続規則を与えるもので,動詞の屈折形の解析の際に分割数が多くなり,効率の点で不利である.また,接続規則が非常に複雑になる.活用語尾展開方式は,活用語尾と接尾辞の組み合わせを形態素とし,これらと動詞語幹との接続規則だけを与えるもので,活用語尾分離方式よりも分割数が少なくなり,効率的に有利であるとされている.しかし,活用形展開方式,活用語尾分離方式,活用語尾展開方式の共通の問題点は,活用語尾と接尾辞の接続規則が体系的でない点である.特に活用語尾展開方式では,新しい接尾辞を追加する度に10以上ある動詞の活用の型それぞれに対する形態素の展開形を追加しなければならない.また,「られ」「させ」といったいわゆる派生的な接尾辞に対してはさらに多くの展開形を別々の形態素として登録する必要があるはずである\footnote{この点については文献中には触れられていない.}.そこで本文法では,動詞の語尾変化について体系的に扱うことに成功している派生文法\cite{kiyose}を基にした\footnote{派生文法を基にしたシステムとしては,文献\cite{nisino}で,何らかの方法で分解した動詞の語尾の構造を派生文法に基づいて解析するシステムについて報告されているが,形態素解析システムへの適用は報告されていない.}.派生文法も音韻論的アプローチの文法であるが,従来のものに対して,連続母音と連続子音の縮退,および内的連声\footnote{上記の屈折接辞の音韻変化と同じもの}という考え方を用いて,母音動詞も子音動詞も同様に扱うことができる.しかし,派生文法は音韻論的手法であるため,形態素解析に適用するには,処理を音韻単位で行う必要があるという問題がある.日本語のテキストを処理するような形態素解析システムでは,文字を子音と母音に分けずに日本語の文字でそのまま処理できた方が都合がよい.本研究では,派生文法における動詞語尾の扱いを日本語の文字単位で処理できるように変更する方法を見い出すことができた.すると図らずも従来の活用という考え方に適合する形になることが判明し\footnote{派生文法では日本語における活用の考え方を完全に否定している.},これによって,活用の考えを用いて作られている既存の形態素解析システムに適用することができた.しかも語尾変化についての完全な体系を背後に持つため,新たに認識された語尾変化に対しても活用形を順次増やす必要がなく,対応する形態素を一つだけ辞書に登録すれば済むようになった.事実,「食べれる」といったいわゆる「ら抜き表現」や,「書かす」といった口語的な使役表現などもそれぞれ一つの形態素を追加することで対応できている.このように新しい語尾を簡単に追加できることから,口語的な語尾の形態素を充実させることができ,口語的な文章に対しても高い精度で解析できるようになった.また,「食べさせられますまい」といった複雑な語尾変化も正確に解析できる.本研究で開発された形態素解析文法は,文字表記された日本語のテキストから言語データを抽出することを主な目的として開発されたものである.従って,日本語の漢字仮名混じりの正しい文\footnote{一般の日本人が許容できる範囲で正しいという意味で,正式な日本語という意味ではない.}を文節に区切り,その文節の係り受けの性質を識別することを最優先した解析用の文法となっている.また,形態素の意味的な面を捨象し,過剰な受理を許容することで,形態素の統一的な扱いをすることに重点を置いている.これはあくまで計算機上へのシステムの構築を容易にするためであり,なんらかの言語学的な主張をする意図はない.さらに過剰な受理を許容する意味で,この文法は解析用の文法といえる.生成等に利用するにはこの過剰な受理が障害になる可能性がある.また,誤りを含む文の識別に用いるのにも問題がある.本形態素文法はあくまで正しい文の解析に特化した文法として位置付ける必要がある.本稿では\ref{system}節で形態素の種類とそれらが満たすべき制約の体系を説明し,\ref{verb}節で動詞の語尾の扱いについて述べる.\ref{apply}節では,それを日本語文字単位の形態素解析向きに変更する方法を示す.さらに,\ref{detail}節では個別の問題がある語尾について述べ,最後にこの形態素文法を形態素解析プログラムJUMANに適用した場合の解析性能を評価する.なお,われわれが作成した形態素文法の形態素解析プログラムJUMANへの適用事例は,以下のanonymousftpで入手可能である.但し,評価の際に使用した辞書の一部について配布に制限のあるものは含まれていない.\\camille.is.s.u-tokyo.ac.jp/pub/member/fuchi/juman-fuchi
\section{形態素の体系}
\label{system}本稿では,形態素文法を品詞間の隣接可能性を示す形で与える.文献\cite{maruyama94}にあるように,形態素文法も正規文法等で記述した方がより細かい記述ができるが,処理効率や形態素解析システムへの適用の関係でこの形に落ちついた.\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline属性名&属性値\\\hline主属性&無$|$動$|$形$|$名$|$数$|$時$|$格$|$尾\\係属性&無$|$連体$|$連用$|$終止\\左隣接属性&無$|$動$|$形$|$名$|$数$|$時$|$接続$|$連体$|$連用\\右隣接属性&無$|$動$|$形$|$名$|$数$|$時$|$接続$|$尾\\\hline\end{tabular}\end{center}\caption{形態素の属性}\label{attribute}\end{table}本文法では形態素に対して表\ref{attribute}に示す属性を設定する.逆にこのような属性を付加できるような文字の最小の連鎖を形態素と呼ぶ.また,形態素をその性質によって分類したものを品詞と呼ぶ.但し,システムの解析精度を上げるために,「かどうか」のように幾つかの形態素から合成され,厳密には形態素と言えないものを,一つの形態素として扱う場合がある.形態素の属性は以下のリストで表記する.\\[主属性,係属性,左隣接属性,右隣接属性]\\主属性は形態素の基本的な性質による分類であり,その形態素を含む文節がどのような「受け」を構成するかを示す.係属性はその形態素で終わる文節がどのような「係り」を構成するかを示す.文節の「係り」の種類としては「連体」と「連用」を設定する.「連体」は主属性が「名」「数」「時」の形態素に対して係り,「連用」は「述語\footnote{「述語」は名詞+名詞接尾辞,動詞語幹+動詞語尾,形容詞語幹+形容詞語尾,名詞+句読点,数詞+句読点および時詞+句読点によって構成される.}」に対して係る.そして,「連用」の「係り」となる文節の末尾に位置する形態素の係属性の値を「連用」とし,そのような形態素を「連用形」と呼ぶ.同様に「連体」の「係り」となる文節の末尾に位置する形態素の係属性の値を「連体」とし,そのような形態素を「連体形」と呼ぶ.さらに,「係り」を構成しない文節の末尾に位置する形態素の係属性の値は「終止」とし,そのような形態素を「終止形」と呼ぶ.左右の隣接属性は隣接する二つの形態素が満たすべき制約を表している.文を左から右に記述した場合に,隣接している形態素の内,左にある形態素の属性が[X1,Y1,L1,R1]であり,右にある形態素の属性が[X2,Y2,L2,R2]であったならば,以下が成り立つ必要がある.\\R1$\in$X2$\cup$Y2$\cup$L2かつL2$\in$X1$\cup$Y1$\cup$R1.\\大まかには,左にある形態素の右隣接属性は,その値がすぐ右の形態素の主属性,係属性,左隣接属性のいずれかの値と同じである場合に,それらの形態素が隣接可能であることを示す.また,右にある形態素の左隣接属性は,その値がすぐ左の形態素の主属性,係属性,右隣接属性のいずれかの値と同じである場合に,それらの形態素が隣接可能であることを示す.また,右隣接属性が「接続」である形態素を「接続形」と呼ぶ.これらの属性は,その取りうる値の組合せの内,一部は実在しない.表\ref{meisi-list}から表\ref{sonota-list}に実在する品詞を示す.以下で,それぞれの品詞について説明する.なお,それぞれの品詞名は,なるべく統語的な性質を反映した名前になるように本研究で独自に与えたものである.また,表中の補足の欄で与える例の内,アルファベットで表記してあるものは,\ref{verb}節で説明する連続母音縮退,連則子音の縮退,および内的連声との関連で,そのままでは日本語文字表記にならないものである.\subsection{名詞,連用名詞,補助名詞,時詞,数詞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[名,無,無,無]&名詞&名&人名,地名,物名\\&&&動作名ex.跳躍\\&&&形状名ex.静か\\[名,連用,無,無]&連用名詞&名/連用&ex.道中,半分,反面\\[名,連用,連体,無]&補助名詞&補名&ex.の,ん,際\\[(名,時),連用,無,無]&時詞&時&時の名称ex.今日,夏\\[(名,数),無,無,無]&数詞&数&数字ex.1,一,壱\\\hline\end{tabular}\end{center}\caption{名詞,数詞,時詞,補助名詞}\label{meisi-list}\end{table*}表\ref{meisi-list}に名詞関連の形態素を示す.名詞の属性は[名,無,無,無]である.主属性が「名」である事は,連体の係りを受けることを意味する.また,隣接属性が左右とも「無」であることは,名詞が単独で文節を構成可能であることを示す.係属性が「無」であることは,名詞自身では係りの種類を指定しないことを示す.特に,直後に名詞がくる場合には,複合して一つの名詞を形成する.名詞はさらに細かく「動作名詞」や「形状名詞」などへの分類が可能である.これらの細分類には「する」が接尾可能であるとか,「な」が接尾可能であるなどの統語的な振る舞いの違いが見られる.しかし,基本的にはこれらの細分類は意味的なものを反映している.従って,発話者がある単語にどのような意味を込めるかによって変動しうるものである.聞き手の立場からは逆にそのような使われ方から発話者が込めた意味を読みとる必要がある.従って,解析の場合には,解析の際に不都合がない限り,このような細分類は必要でないと考える.特に一般的に形容動詞といわれるものも,文献\cite{tokieda}と同様に,形容的な意味合いが強い名詞として,名詞に含める.連用名詞は属性が[名,連用,無,無]の品詞で,係りの種類を「連用」に指定する名詞の一種である.「半分冗談で言った」の例のように,直後に名詞が来ても複合名詞を形成せず,連用の文節を形成する.但し「冗談半分で言った」のように連用名詞が名詞の後に来る場合には複合名詞を形成する.補助名詞は述語の連体形の直後のみに現れる\footnote{従って,左隣接属性が「連体」になる.}という性質以外は連用名詞と同様な振る舞いをする.代表的な補助名詞は「の」で,属性は[名,連用,連体,無]である.「の」と「ん」は,実際には述語の連体形の直後にしか現れ得ないなど,さらに細かい制約があるが,本文法ではそれらの制約を表していない.時詞は連用名詞の一種であるが,「昨年夏に」などのように時詞が連続した場合には複合すると考え,別に設定した.属性は[(名,時),連用,無,無]である.主属性が(名,時)となっているのは,両方の属性を持つことを表す.数詞は名詞の一種とも見なせるが,数詞のみに接尾する接尾辞が存在し,これを区別しないと曖昧性が生ずる場合がある.そこで,属性を[(名,数),無,無,無]として名詞とは別に数詞を設定した.\subsection{格接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[格,連用,名,無]&格接尾辞/連用形&格尾/連用&格助詞ex.が,を,に,で\\[格,連体,名,無]&格接尾辞/連体形&格尾/連体&属格,助詞ex.の,や,か,と\\\hline\end{tabular}\end{center}\caption{格接尾辞}\label{kakusetsubi-list}\end{table*}表\ref{kakusetsubi-list}に格接尾辞を示す.格接尾辞は名詞に接尾して連用または連体の文節を形成する.格接尾辞が次節の名詞接尾辞と異なる点は,述語を形成しない点である.終止形は述語を形成してしまうため,この品詞には終止形が存在しない.文節に区切る目的からは格接尾辞と名詞接尾辞を区別する必然性はないが,構文解析での利用を考慮してこのように設定した.しかし「で」などは格接尾辞と名詞接尾辞の両方に所属すると考えられ,しかも形態素レベルで区別する方法がない.また「と」に関しては,連用と連体の両方の用法があると考えられ,これも形態素レベルでは区別ができない.これらについてはその取り扱いを\ref{detail}節で改めて述べる.\subsection{名詞接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[尾,終止,名,無]&名詞接尾辞/終止形&名尾/終止&ex.だ,です,でしょう,だろ\\[尾,連用,名,無]&名詞接尾辞/連用形&名尾/連用&ex.で,でして\\[尾,連体,名,無]&名詞接尾辞/連体形&名尾/連体&ex.{\dgな},だった\\[尾,無,名,接続]&名詞接尾辞/接続形&名尾/接続&ex.だ,です,でしょう\\\hline\end{tabular}\end{center}\caption{名詞接尾辞}\label{meisisetsubi-list}\end{table*}表\ref{meisisetsubi-list}に名詞接尾辞を示す.名詞接尾辞は名詞に接尾して述語の文節を形成する.従って「連用」の係りを受ける.本文法で名詞接尾辞の連体形としている\hspace{-0.3mm}「な」\hspace{-0.3mm}については,\hspace{-1mm}「学生\hspace{-0.5mm}\underline{な}ので」\hspace{-0.5mm}と\hspace{-0.5mm}「健康\hspace{-0.1mm}\underline{な}\hspace{-0.2mm}人」では意味的に異なるものと考えられるが,前者の「の」を補助名詞と考えると,両者とも統語的には同一に扱える.さらに本文法では「な」は話し手が形容的な意味合いを付加したあらゆる名詞に接尾可能であると考える.また,「体が健康な人」の例を考えると「名詞+な」で述語を形成していることが分かる.従って,「な」は格接尾辞連体形ではなく,名詞接尾辞連体形とする.接続形の形態素は全て連体形や終止形の形態素と表記が同じであるが,接続形では必ず接続接尾辞が接尾し,逆に連体形や終止形には接続接尾辞が接尾しないので,両者は区別可能である.このことは動詞接尾辞や形容詞接尾辞の接続形についても同じである.\subsection{動詞語幹,動詞接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[動,無,無,尾]&動詞語幹&動&ex.食べ,歩k,走r,思w\\\hline[尾,終止,動,無]&動詞接尾辞/終止形&動尾/終止&ex.ru,ita,you,ina\\[尾,連用,動,無]&動詞接尾辞/連用形&動尾/連用&ex.i,ite,eba\\[尾,連体,動,無]&動詞接尾辞/連体形&動尾/連体&ex.ru,ita\\[尾,無,動,接続]&動詞接尾辞/接続形&動尾/接続&ex.ru,ita\\\hline\end{tabular}\end{center}\caption{動詞語幹,動詞接尾辞}\label{dousi-list}\end{table*}表\ref{dousi-list}に動詞関連の形態素を示す.動詞語幹の属性は[動,無,無,尾]であり,右隣接属性が「尾」なので,「尾」の属性を持つものが接尾しなければならない.実際に接尾できるのは動詞接尾辞もしくは派生接尾辞の一部である.動詞語幹は動詞接尾辞を伴って動詞を形成する.動詞語幹には子音で終わるものと母音で終わるものがある.例えば「書く」の語幹は「kak」であり,「食べる」の語幹は「tabe」である.実際に存在する動詞語幹の末尾の子音は,K,G,S,T,N,B,M,R,Wの九個である.動詞接尾辞は動詞語幹または「動」の属性値を持つ派生接尾辞に接尾して,述語を形成する.動詞接尾辞には子音で始まるものと,母音で始まるものがある.例えば「書く」の動詞接尾辞は後述するように「ru」であると見なせ,「書きます」の動詞接尾辞は「imasu」であると見なせる.実際に存在する動詞接尾辞の先頭は,A,I,U,E,YO,RUである.さらに動詞語幹に接尾する派生接尾辞にはRA,SA,REで始まるものがある.これらの語幹に接尾辞が接尾する場合には,連続母音縮退,連続子音縮退,内的連声という規則的な変換がおこる.その詳細については\ref{verb}節で述べる.\subsection{形容詞語幹,形容詞接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[形,無,無,尾]&形容詞語幹&形&ex.美し,高\\\hline[尾,終止,形,無]&形容詞接尾辞/終止形&形尾/終止&ex.い,かった,かれ\\[尾,連用,形,無]&形容詞接尾辞/連用形&形尾/連用&ex.く,くて,ければ\\[尾,連体,形,無]&形容詞接尾辞/連体形&形尾/連体&ex.い,かった\\[尾,無,形,接続]&形容詞接尾辞/接続形&形尾/接続&ex.い,かった\\\hline\end{tabular}\end{center}\caption{形容詞語幹,形容詞接尾辞}\label{keiyousi-list}\end{table*}表\ref{keiyousi-list}に形容詞関連の形態素を示す.形容詞語幹の属性は[形,無,無,尾]であり,右隣接属性が「尾」なので,「尾」の属性を持つものが接尾しなければならない.実際に接尾できるのは形容詞接尾辞もしくは派生接尾辞の一部である.形容詞語幹は形容詞接尾辞を伴って形容詞を形成する.形容詞接尾辞は形容詞語幹または「形」の属性値を持つ派生接尾辞に接尾する.基本的には形容詞接尾辞は動詞接尾辞のような語形の変化はなく,そのままの形で形容詞語幹に接尾する.しかし,形動派生接尾辞「ござr」が形容詞語幹に接尾する場合にのみ内的連声と呼ばれる語形変化があり,表\ref{adj_onbin}のようになる.例えば,「たか(高)」という形容詞語幹に「ござる」が接続する場合には「taka$\rightarrow$takou」と変形され,「たこうござる」となる.\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline内的連声&具体例\\\hline-a$\rightarrow$-ou&たこうござる\\-i$\rightarrow$-yuu&うつくしゅうござる\\-u$\rightarrow$-ou&さもうござる\\-o$\rightarrow$-ou&ほそうござる\\\hline\end{tabular}\end{center}\caption{形容詞の内的連声}\label{adj_onbin}\end{table}\subsection{連体詞,連用詞,連文詞,終止詞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[無,連体,無,無]&連体詞&連体&指示語ex.その\\[名,連用,無,無]&連用詞&連用&副詞ex.ゆっくり,とても\\[無,連用,無,無]&連文詞&連文&接続詞ex.しかし,ところで\\[無,終止,無,無]&終止詞&終止&感動詞,感嘆詞ex.おはよう,おや\\\hline\end{tabular}\end{center}\caption{連体詞,連用詞,連文詞,終止詞}\label{rentaisi-list}\end{table*}連体詞は属性が[無,連体,無,無]で,それだけで連体形の文節を構成する形態素である.代表的なものは「その」などの指示を表す形態素である.連体詞はどのような係りも受けない.連用詞は一般的には副詞と言われるもので,属性が[名,連用,無,無]で,それだけで連用形の文節を構成する形態素である.これには「彼ののんびりにはいらいらさせられる」などに見られる名詞的な用法があるため,主属性を「名」とした.そのため,属性としては連用名詞と同じであるが,名詞の直後に来ても複合名詞を形成しない点が連用名詞とは異なる.例えば「車ゆっくり走らせて下さい」という文では「車ゆっくり」という名詞であるとは受け取られない.その他に,「とてもゆっくり走らせた」の例では「とても」が「ゆっくり」に係ると考えられるが,本文法では「とても」は「走らせた」に係ると考えることにして,連用詞に係る連用詞を設定していない.これに関しては\ref{detail}節でも触れる.連文詞は一般的には接続詞と言われるもので,文と文をつなぐ働きをする.属性は[無,連用,無,無]で連用詞と似ているが,名詞的な用法がない.また,普通は文頭に現れる.終止詞は一般的には感動詞や感嘆詞と言われるもので,単独で文を形成し,係り受けを形成しない.\subsection{接頭辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素の属性&品詞名&略記&補足\\\hline[無,無,無,名]&名詞接頭辞&頭名&ex.お,ご,前,元\\[無,無,無,時]&時詞接頭辞&頭時&ex.翌,昨,来\\[無,無,無,数]&数詞接頭辞&頭数&ex.第,約,計\\[無,無,無,動]&動詞接頭辞&頭動&ex.お,ぶち\\[無,無,無,形]&形容詞接頭辞&頭形&ex.お,うすら\\\hline\end{tabular}\end{center}\caption{接頭辞}\label{settouji-list}\end{table*}表\ref{settouji-list}に接頭辞を示す.接頭辞は,ある形態素に接頭する形態素で,文節全体の係り受けの性質には影響を与えない.本文法では,名詞,時詞,数詞,動詞,形容詞に接頭する接頭辞を設定する.\subsection{派生接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[名,無,名,無]&名名派生接尾辞&名名&ex.さん,製,的\\[動,無,名,尾]&名動派生接尾辞&名動&ex.する,できr,ぶr\\[形,無,名,尾]&名形派生接尾辞&名形&ex.らし,くさ\\\hline[名,連用,時,無]&時名派生接尾辞&時名&ex.前,中,下旬\\[名,無,数,無]&数名派生接尾辞&数名&ex.人,個,姉妹\\[時,連用,数,無]&数時派生接尾辞&数時&ex.年,日,秒\\[数,無,数,無]&数数派生接尾辞&数数&ex.万,億,兆\\\hline[(尾,名),連用,動,無]&動名派生接尾辞&動名&ex.i手,aなさそう\\[(尾,動),無,動,尾]&動動派生接尾辞&動動&ex.sase,rare,imakur\\[(尾,形),無,動,尾]&動形派生接尾辞&動形&ex.aな,iた,iにく\\\hline[(尾,名),連用,形,無]&形名派生接尾辞&形名&ex.そう\\[(尾,動),無,形,尾]&形動派生接尾辞&形動&ex.がr\\[(尾,形),無,形,尾]&形形派生接尾辞&形形&ex.かな\\\hline[(尾,名),連用,接続,無]&接名派生接尾辞&接名&ex.か,かどうか\\[(尾,動),無,接続,尾]&接動派生接尾辞&接動&ex.にすぎ\\[(尾,形),無,接続,尾]&接形派生接尾辞&接形&ex.らし\\\hline\end{tabular}\end{center}\caption{派生接尾辞}\label{hasei-list}\end{table*}表\ref{hasei-list}に派生接尾辞の一覧を示す.派生接尾辞は,名詞や動詞語幹,形容詞語幹または接続形に接尾して,品詞を変換し,新たに語幹を形成する接尾辞である.これらの派生接尾辞は派生文法\cite{kiyose}を参考に,本研究で整理,拡充したものである.品詞の名称から個々の派生接尾辞の働きは明らかなので,以下では幾つか注意を要するものについてのみ説明する.名動派生接尾辞は,名詞に接尾して動詞語幹を形成する接尾辞である.代表的なものが「する」で,これは普通は動作を表す名詞に接尾するが,本文法では発話者が単語に込める意味によって全ての名詞に接尾可能であるとしている.動名派生接尾辞は,動詞語幹に接尾して名詞を形成する.これは\ref{verb}節で説明する動詞接尾辞の基本接続規則のみに従い,内的連声には従わない.この点は動形派生接尾辞や動動派生接尾辞も同様である.動動派生接尾辞は,動詞語幹に接尾してまた動詞語幹を形成する.代表的なものは使役の「sase」や受身・尊敬・自発・可能の「rare」である.この動動派生接尾辞は動詞の語幹に次々に接尾して動詞語幹を派生する.例えば「書かせられますまい」という表現は,後述する連続母音縮退や連続子音縮退に注意すれば,「書k/sase/rare/imas/umai」である.その他に,口語的な表現では「食べさせる」「書かせる」を「食べさす」「書かす」などともいうが,これは「sas」という形態素で説明できる.さらに,可能の意味での「食べれる」「書ける」という表現は「re」という形態素で説明できる.このように最近になって新しく使われるようになったと考えられる表現でも本文法に沿っていることが分かる.このような派生接尾辞は,個々の形態素の意味に応じて,接尾可能でない場合がある.特に動動派生接尾辞では,その順番に明らかに制約が存在する.しかし,本文法では文法の簡潔性を優先し,それらの制約を反映していない.これらは文生成においては解明すべき重要な問題である.\subsection{接続接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,終止,接続,無]&接続接尾辞終止形&接尾/終止&ex.ぜ,もん,の,か\\[尾,連用,接続,無]&接続接尾辞連用形&接尾/連用&ex.し,が,ので,のに\\[尾,連体,接続,無]&接続接尾辞連体形&接尾/連体&ex.だろう,でしょう\\[尾,無,接続,接続]&接続接尾辞接続形&接尾/接続&ex.だろう,でしょう\\\hline\end{tabular}\end{center}\caption{接続接尾辞}\label{setsuzoku-list}\end{table*}表\ref{setsuzoku-list}に接続接尾辞を示す.接続接尾辞は名詞接尾辞や動詞接尾辞,形容詞接尾辞の接続形に接尾して連用形,連体形,終止形,接続形を形成する.これには例えば「かのような」のように幾つかの形態素から成り立っているみなせるものも含まれている.このようなものは,成り立ちは確かに幾つかの形態素の組合せと考えられるが,使用上は一つの接尾辞として振舞うので,まとめて一つの形態素として扱う.名詞接尾辞の「だ」に関連して,この品詞の隣接規則には例外があり,接続接尾辞の連用形と終止形の一部のみが「だ」に接尾可能である.さらに「ので」「のに」に関して個別の例外があり,これは\ref{detail}節で検討する.\subsection{末尾接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,終止,終止,無]&末尾接尾辞&尾尾&ex.よ,ね,さ,か\\[尾,終止,連用,無]&&&\\[尾,終止,名,無]&&&\\\hline\end{tabular}\end{center}\caption{末尾接尾辞}\label{matsubi-list}\end{table*}表\ref{matsubi-list}に末尾接尾辞を示す.末尾接尾辞は文の末尾に用いられる接尾辞で,基本的には終止形に接尾し,属性は[尾,終止,終止,無]である.しかし,連用形や名詞に対しても接尾が可能であり,[尾,終止,連用,無],[尾,終止,名,無]の属性も持つと考えられる.いずれにしても終止形を構成する.末尾接尾辞にさらに末尾接尾辞が接尾することは可能であるが,全ての組合せが見られるわけではない.これは形態素の隣接規則とは別の意味的な制約によるものと考えられるが,解析の立場からは可能な組合せを洗い出す必要はないと考え,全ての末尾接尾辞が隣接可能であるとしている.また,頻出する末尾接尾辞の連続に対しては,一つの形態素として辞書に登録している.\subsection{引用接尾辞}\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,連用,終止,無]&引用接尾辞連用形&引用/連用&ex.と\\[尾,連用,連用,無]&&&\\[尾,連用,名,無]&&&\\\hline[尾,連体,終止,無]&引用接尾辞連体形&引用/連体&ex.との\\[尾,連体,連用,無]&&&\\[尾,連体,名,無]&&&\\\hline\end{tabular}\end{center}\caption{引用接尾辞}\label{in'you-list}\end{table*}表\ref{in'you-list}に引用接尾辞を示す.引用接尾辞の基本的な属性は[尾,連用,終止,無]である.これは終止形に接尾して連用形を構成することを意味する.しかし,連用形や名詞に対しても接尾が可能であるため,[尾,連用,連用,無],[尾,連用,名,無]という属性も持つ.また「首相が辞任したとのニュース」の例のように連体形も存在する.\subsection{連用接尾辞}表\ref{ren'you-list}に連用接尾辞を示す.連用接尾辞連用形の属性は[尾,連用,連用,無]であり,その代表的なものは「は」「も」「すら」「さえ」「だけ」「まで」等である.これらは連用形の形態素に接尾して再び連用形を形成する接尾辞である.これらはさらに名詞にも接尾するので,[尾,連用,名,無]でもある.また隣接規則に例外があり,接続接尾辞連用形には接尾しない.さらに連用接尾辞の隣接可能な組み合わせは全てのものが存在するわけではなく,何らかの意味的な制約によって制限されていると思われるが,本文法では,その制約を追求することはしていない.連用接尾辞連体形は用いられることは希であるが存在し,属性は[尾,連用,連用,無],[尾,連用,名,無]である.\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[尾,連用,連用,無]&連用接尾辞連用形&用尾/連用&ex.は,も,すら,まで\\[尾,連用,名,無]&&&\\\hline[尾,連体,連用,無]&連用接尾辞連体形&用尾/連体&ex.すらの,までの\\[尾,連体,名,無]&&&\\\hline\end{tabular}\end{center}\caption{連用接尾辞}\label{ren'you-list}\end{table*}\subsection{間投辞,句読点,括弧}その他の品詞を表\ref{sonota-list}に挙げる.その中に,文節の切れ目にのみ置くことができる間投辞がある.これに属する代表的な形態素は「ね」である.また句読点や括弧なども間投詞と形態素としての性質は同じで,これらの品詞の属性は全て[無,無,無,無]である.\begin{table*}\begin{center}\begin{tabular}{|l|l|l|l|}\hline形態素属性&品詞&略記&補足\\\hline[無,無,無,無]&間投辞&間投&ex.ね,さ,よ\\[無,無,無,無]&読点&読点&ex.,\\[無,無,無,無]&句点&句点&ex..?!\\[無,無,無,無]&括弧&括弧&ex.「」{}\\\hline\end{tabular}\end{center}\caption{間投辞,句読点,括弧}\label{sonota-list}\end{table*}\subsection{隣接規則の例外}隣接規則の例外は特殊な用法から生まれている.一つは「彼の飛びは最高だった.」のように「動詞語幹+i」を名詞として扱うものである.これを動名詞と呼ぶ.今一つは,連用形を終止形とみなす用法で,何らかの述語を省略して連用形で文を終わらせてしまう用法である.この場合,本来終止形に接尾するものが連用形に接尾することになる.本研究で使用した形態素解析プログラムJUMANでは隣接規則が自由に記述できるようになっているので,これらの例外的隣接規則も,基本的な隣接規則と同様に記述できた.
\section{派生文法による動詞の語尾変化}
\label{verb}本節では,派生文法に則して,動詞語幹と動詞接尾辞もしくは派生接尾辞との接続規則を記述する.これを日本語の文字単位で処理するのに適する形に変更する方法については,次節で述べる.派生文法では,動詞の語幹と接尾辞との接続規則を連続母音の縮退と連続子音の縮退で説明する.連続子音の縮退は従来から指摘されていたものであるが,これに連続母音の縮退という考え方を導入することにより,活用という考え方を用いずとも体系的に現代日本語の動詞の語尾変化を説明できる.具体的には「kak」に「ru」が接尾すると「kak/ru」となるが,「k/r」の部分が連続子音となり,後ろの「r」が縮退し,「kaku」となる.これが連続子音の縮退である.一方「tabe」に「imasu」が接尾すると「tabe/imasu」となるが,「e/i」の部分が連続母音となって後ろの「i」が縮退し,「tabemasu」になる.これが連続母音の縮退である.その他の組み合わせ,「kak」と「imasu」,「tabe」と「ru」の場合はそれぞれ「kak/imasu」,「tabe/ru」となり,子音も母音も連続しないので,縮退せず「kakimasu」,「taberu」になる.以上の接続規則を基本接続規則と呼ぶことにする.この基本接続規則に加えて,表\ref{onbin}に示すような内的連声がある.表中の具体例は完了の接尾辞「ita」との組み合わせで示す.\begin{table*}\begin{center}\begin{tabular}{|l|l|}\hline音便&具体例\\\hlinek/it$\rightarrow$it&書くkak/ita$\rightarrow$kaita書いた\\g/it$\rightarrow$id&嗅ぐkag/ita$\rightarrow$kaida嗅いだ\\t/it$\rightarrow$tt&待つmat/ita$\rightarrow$matta待った\\n/it$\rightarrow$n'd&死ぬsin/ita$\rightarrow$sin'da死んだ\\b/it$\rightarrow$n'd&飛ぶtob/ita$\rightarrow$ton'da飛んだ\\m/it$\rightarrow$n'd&噛むkam/ita$\rightarrow$kan'da噛んだ\\r/it$\rightarrow$tt&掘るhor/ita$\rightarrow$hotta掘った\\w/it$\rightarrow$tt&買うkaw/ita$\rightarrow$katta買った\\(k/it$\rightarrow$tt)&(例外)行くik/ita$\rightarrow$itta行った\\\hline\end{tabular}\end{center}\centering{(具体例は完了の接尾辞「ita」との組み合わせで示している)}\caption{内的連声}\label{onbin}\end{table*}例えば「書く」であれば「kak」に「ita」が接尾するとまず「kak/ita」となり,この「k/it」の部分が内的連声により「it」となるから,最終的には「kaita」となる.この内的連声の唯一の例外が「行く」で,「ik/ita」が「iita」とならずに「itta」となる.注意すべきはこの内的連声は動詞接尾辞が接尾する場合にのみ適用されることで,例えば願望を表す動形派生接尾辞の「iた(い)」では連声しない.派生文法における動詞の語形変化の扱いの例外が「する」と「くる」の二つの動詞と,これらを使って作られる動詞,さらに「感じる」など「する」が濁音化して変化したと思われる一群の動詞である.「する」「じる」「くる」の語幹変化を表\ref{henka}に示す.これらには同一の接尾辞に対して複数の語幹変化があるものがある.\begin{table}\begin{minipage}[t]{5cm}\begin{tabular}{|l|l|}\hline語幹&接尾辞の始まりの部分\\\hlines&i-,u-,e-,sa-,ra-\\si&anai,yo-\\se&a-\\sur&u-,e-,re-,ru-\\\hline\multicolumn{2}{c}{「する」}\\\end{tabular}\end{minipage}\hspace{-3mm}\begin{minipage}[t]{5cm}\begin{tabular}{|l|l|}\hline語幹&接尾辞の始まりの部分\\\hlinezi&a-,i-,u-,e-,yo-,\\&sa-,ra-,ru-,re-\\zur&e-,ru-,re-\\\hline\multicolumn{2}{c}{「じる」}\\\end{tabular}\end{minipage}\hspace{-3mm}\begin{minipage}[t]{5cm}\begin{tabular}{|l|l|}\hline語幹&接尾辞の始まりの部分\\\hlinek&i-,u-,e-\\ko&a-,yo-,sa-,ra-,ru-\\kur&re-\\\hline\multicolumn{2}{c}{「くる」}\\\end{tabular}\end{minipage}\caption{「する」「じる」「くる」の語幹変化}\label{henka}\end{table}また,「おっしゃる」「いらっしゃる」「なさる」「下さる」の四つの動詞は,基本的には語幹が「r」で終わるものと同じであるが,幾つかの語幹の変化がある.それを表\ref{nasaru}に示す.注意すべきは,内的連声が適用される場合は,内的連声が語幹変化よりも優先されることである.\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline語幹&接尾辞\\\hline-r&a-,i-,u-,e-,yo-,sa-,ra-,ru-,re-\\-&i,i-\\\hline\end{tabular}\end{center}\caption{「おっしゃる」「いらっしゃる」「なさる」「下さる」の語幹変化}\label{nasaru}\end{table}最後に命令の動詞接尾辞に例外がある.動詞接尾辞「ro」「yo」は母音で終わる動詞語幹にのみ接尾し,「e」は子音で終わる動詞語幹にのみ接尾する.また,語幹が変化する不規則な動詞に関しては命令の形も不規則なものとなる.動詞の形成における語形の変化は以上の規則で全て説明できるが,このままでは日本語の文字単位で解析するのには向かない.そこでこれらを基礎にして,日本語文字単位の解析向きに変更する方法について次の節で述べる.
\section{形態素解析システムへの適用}
\label{apply}前節で説明したような形態素を設定すれば,現代日本語の文を構成する形態素を説明できるが,このままでは形態素解析には向かない.なぜならば日本語の文は漢字や平仮名などで記述されているので,特に動詞に関しては一旦文字を子音と母音に分解しなければ解析できないからである.そこで子音や母音に分解せず日本語の文字の単位で解析できるように工夫することを考えた.すると,従来用いられていた活用という考え方に近づき,そのことによって,従来の活用という考え方に沿って作られた形態素解析プログラムに,本稿で示した形態素文法を処理させることができるようになった.\subsection{動詞に関する修正}まず,動詞語幹に接尾する接尾辞の始まりの部分が数種類しかない.さらに動詞語幹の末尾の子音もいくつかの種類に限定されている.そこで,これらの組み合わせを動詞の活用語尾とし,動詞の語幹から末尾の子音を除いた部分を新たに動詞語幹とする.各接尾辞については先頭の部分を隣接型とし,その部分を除いた残りの文字列を新たにその形態素の表記とする.そして,それらの新たな接続規則を設定する.\begin{table*}\begin{center}\begin{tabular}{|rl|ccccccccccc|}\hline&\hspace{-5mm}{\tiny活用形}&A&I&U&E&YO&T&D&RA&RU&RE&SA\\{\tiny活用型}&&&&&&&&&&&&\\\hlineA&&*&*&*&*&よ&*&--&ら&る&れ&さ\\K&&か&き&く&け&こ&い&--&か&く&け&か\\G&&が&ぎ&ぐ&げ&ご&--&い&が&ぐ&げ&が\\S&&さ&し&す&せ&そ&し&--&さ&す&せ&さ\\T&&た&ち&つ&て&と&っ&--&た&つ&て&た\\N&&な&に&ぬ&ね&の&--&ん&な&ぬ&ね&な\\B&&ば&び&ぶ&べ&ぼ&--&ん&ば&ぶ&べ&ば\\M&&ま&み&む&め&も&--&ん&ま&む&め&ま\\R&&ら&り&る&れ&ろ&っ&--&ら&る&れ&ら\\W&&わ&い&う&え&お&っ&--&わ&う&え&わ\\SX&&し&し&する&すれ&しよ&し&--&さ&する&--&さ\\ZX&&じ&じ&じる&じれ&じよ&じ&--&じら&じる&じれ&じさ\\&&&&ずる&ずれ&&&--&&ずる&&\\KX&&こ&き&くる&くれ&こよ&き&--&こら&くる&これ&こさ\\KKX&&来&来&来る&来れ&来よ&来&--&来ら&来る&来れ&来さ\\RX&&ら&り&る&れ&ろ&っ&--&ら&る&れ&ら\\&&&い&&&&&&&&&\\IKU&&か&き&く&け&こ&っ&--&か&く&け&か\\\hline\end{tabular}\end{center}\centering{(``*''は語尾の表記文字がないことを表し,``--''はその活用形自体がないことを表す)}\caption{活用型と活用形}\label{katuyou1}\end{table*}具体的に,動詞語幹に接尾する接尾辞の始まりはA,I,U,E,YO,T,D,RA,RU,RE,SAの11種類である.ここで,TとDは内的連声を形成するit-という接尾辞の始まりをi-と区別したもので,さらにTは清音の内的連声に対応し,Dは濁音の内的連声に対応する.そこで個々の動詞語幹に対して,この11の活用形を設定することになる.この活用形のパターンは動詞語幹の末尾に応じて決まるが,末尾が母音で終わる場合をAと表記することにすると末尾の種類はA,K,G,S,T,N,B,M,R,Wの10種類であるから,それに応じた10種類の活用型があることになる.さらに例外の活用型をSX,ZX,KX,KKX,RX,IKUで表すことにすると,活用型と活用形の組み合わせは表\ref{katuyou1}のようになる.個々の動詞に関しては,語幹の末尾の子音を除いた文字列を「語幹」とし,「食べ」のように語幹が母音で終わる場合にはAを,「書k」のように語幹が子音で終わるものは子音そのものを活用型とする.例えば,「食べ」の場合は「食べ」が語幹で活用型がA,「書k」の場合は「書」が語幹で活用型がK,「嗅g」の場合は「嗅」が語幹で活用型がG,「思w」の場合は語幹が「思」で活用型がWとなる.動詞語幹に接尾するのは接尾辞は動名派生接尾辞,動形派生接尾辞,動動派生接尾辞,そして動詞接尾辞である.これらについて例を挙げると,動名派生接尾辞の「iそう」は隣接型がI型で表記文字は「そう」となり,動形派生接尾辞の「aな」は隣接型がA型で表記文字は「な」,動動派生接尾辞の「rare」は隣接型がRA型,活用型がA型,表記文字が「れ」となる.接尾辞は例えば「iます」は隣接型がI型で,表記文字が「ます」になる.連声するような接尾辞,例えば「itarou」では,隣接型がT型で表記文字が「たろう」の形態素と,隣接型がD型で表記文字が「だろう」の形態素の二つに分ける.これらの隣接規則は「動詞語幹の活用形名と,接尾辞の隣接型名が一致するものが隣接可能である」ということになる.例えば「書か」は動詞語幹「書」の活用形Aの形態であるから,隣接型がAの動形派生接尾辞「な」と隣接可能である.\subsection{活用形に対する追加}上記のような修正を語幹に対して行う場合,連体形,終止形,接続形の動詞接尾辞「ru」,連用形の動詞接尾辞「i」,さらに可能の動動派生接尾辞「re」は,動詞語幹の活用形として先頭の文字が吸収されてしまうと形態素としての表記文字が残らないという問題が起こる.また,命令の動詞接尾辞の「ro」「e」には,動詞語幹の末尾が母音か子音かによって接続規則が異なるという問題がある.そこで動詞接尾辞の「ru」「i」「ro」「e」に関してはそれぞれ活用形としてしまう.そのため,表\ref{katuyou1}に表\ref{katuyou2}を加える.新たに加わったものは動詞語幹と動詞接尾辞が合成されたものであるので,属性も合成されたものになる.それを表\ref{gousei}に示す.可能の動動派生接尾辞「re」は,さらに後ろに動詞接尾辞などが来るため,活用形として加えられない.そこで,全ての活用型に対して語幹自体を活用形Xとして設定し,個々の子音との組み合わせによる「re」の変化を別々の形態素とした.そして,これらについて活用形Xに対する隣接規則をそれぞれ作ることで解決した.このように,修正された接尾辞の扱いでは,一文字で構成される動詞接尾辞や派生接尾辞を新たに加えようとすると新たな活用形を作り出さなければならないが,一文字で構成されるという制約があるため,これ以上追加する必要が生ずる可能性は低い.\begin{table*}\begin{center}\begin{tabular}{|rl|cccccc|}\hline&\hspace{-5mm}{\tiny活用形}&X&連用形&連体形&終止形&接続形&命令形\\{\tiny活用型}&&&&&&&\\\hlineA&&*&る&る&る&る&ろ,よ\\K&&*&き&く&く&く&け\\G&&*&ぎ&ぐ&ぐ&ぐ&げ\\S&&*&し&す&す&す&せ\\T&&*&ち&つ&つ&つ&て\\N&&*&に&ぬ&ぬ&ぬ&ね\\B&&*&び&ぶ&ぶ&ぶ&べ\\M&&*&み&む&む&む&め\\R&&*&り&る&る&る&れ\\W&&*&い&う&う&う&え\\SX&&--&し&する&する&する&しろ,せよ\\ZX&&じ&じ&じる&じる&じる&じろ\\&&&&ずる&ずる&ずる&ぜよ\\KX&&こ&き&くる&くる&くる&こい\\KKX&&来&来&来る&来る&来る&来い\\RX&&*&り&る&る&る&れ,い\\IKU&&*&き&く&く&く&け\\\hline\end{tabular}\end{center}\caption{活用形の追加}\label{katuyou2}\end{table*}\begin{table}\begin{center}\begin{tabular}{|l|l|}\hline活用形&属性\\\hline連用形&[動,連用,無,無]\\連体形&[動,連体,無,無]\\終止形&[動,終止,無,無]\\接続形&[動,無,無,接続]\\命令形&[動,終止,無,無]\\\hline\end{tabular}\end{center}\caption{合成された属性}\label{gousei}\end{table}\subsection{形容詞に関する修正}前述したように形容詞の語幹は,形動派生接尾辞「ござr」が接尾する場合には連声する.しかし,これは非常に限られた現象で,しかもこれを本研究で使用した形態素解析プログラムの形態素文法に反映させると非常に煩雑になるので,実際にはこれを正確に実装はせずに「うござr」「ゅうござr」という形動派生接尾辞を辞書に登録した.こうすると「高ゅうござる」などを過剰に受理してしまい,また「たこうござる」のような平仮名表記の場合には解析ができない.過剰な受理に関しては,解析に対してなんらかの悪影響を及ぼさない限り許容する.実際,今までのところ,解析に関してはこのための悪影響は確認されていない.また,平仮名表記の場合は解析が不可能であるが,そのような事例は皆無に近いと考え,対処しないことにした.
\section{問題点の検討}
\label{detail}この節では以下に関する問題点について検討する.\begin{itemize}\item複数の品詞に属する形態素\item動名詞\item連用詞に係る連用詞\item複合名詞\item複数解に対する優先度付け\end{itemize}複数の品詞に属する形態素の内,幾つかは形態素レベルの情報では識別できない.そのような形態素が現れる文は本来複数の解釈が存在し,これを完全に一つの解釈に決めるためには文脈を参照する必要がある.本研究での形態素解析システムでは,このような識別は形態素解析システムの範囲を超えるものと見なしている.以下でそのような形態素のついて述べるが,他の形態素解析システムとの性能の比較を容易にするために,新聞記事1万文中\footnote{形態素数約20万,文節数約8万5千}の出現頻度についても述べ,正しい品詞を選ぶ確率が高くなるような規則を付す.\subsection{「名詞+と」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline&格接尾辞連体形&格接尾辞連用形&引用接尾辞連用形&合計\\\hline名詞+と&465(37.8\%)&211(17.2\%)&553(45.0\%)&1229(100\%)\\名詞+と+名詞&436(35.4\%)&102(8.3\%)&8(0.7\%)&546(44.4\%)\\名詞+と+動詞&0(0\%)&93(7.6\%)&519(42.2\%)&612(49.8\%)\\名詞+と+引用性動詞&0(0\%)&0(0\%)&511(41.6\%)&511(41.6\%)\\名詞+と+読点&20(1.6\%)&4(0.3\%)&4(0.4\%)&28(2.2\%)\\\hline\end{tabular}\end{center}\caption{「名詞+と」の用法の分布}\label{to}\end{table}「名詞+と」には,格接尾辞連体形(名詞を並列に並べる用法)と,格接尾辞連用形(共同作業者を示す用法)と,引用接尾辞連用形の三つがある.この内,最初の用法は連体であり,その他の用法は連用である.また,引用接尾辞の場合は述語を形成する.形態素レベルではこれらの用法を識別できない.表\ref{to}に「名詞+と」の用法の分布を示す.なお,引用性動詞とは「なる」「する」「いう」「みる」「みなす」「思う」などあらかじめ選ばれた動詞である.この表によると,次の規則により,1060/1229(86.2\%)の場合で正しい品詞を得られる.\begin{itemize}\item「名詞+と+名詞」の場合は格接尾辞連体形\item「名詞+と+引用性動詞」の場合は引用接尾辞連用形\item「名詞+と+引用性動詞以外の動詞」の場合は格接尾辞連用形\item「名詞+と+読点」の場合は格接尾辞連体形\end{itemize}\subsection{「名詞+との」}「名詞+との」にも,格接尾辞連体形(共同作業者を示す用法)と引用接尾辞連体形があり,前者は述語を形成しないが,後者は述語を形成する.この場合も,名詞に「との」が接尾しているものは,識別できない.「名詞+との」は評価に用いた文中では130箇所に現れ,その内123箇所(94.6\%)が格接尾辞連体形であった.引用接尾辞連体形の場合は7箇所で,その係先は「認識」「見方」「情報」「主張」「理由」「考え」であり,逆にこれらの名詞に係る場合で格接尾辞であるものはなかった.\subsection{「名詞+とも」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline&名名派生接尾辞&引用接尾辞&格接尾辞&合計\\\hline名詞+とも&46(63.9\%)&18(25.0\%)&8(11.1\%)&72(100\%)\\名詞+とも+引用性動詞&0(0.0\%)&18(25.0\%)&0(0.0\%)&18(25.0\%)\\文頭+名詞+とも&18(25.0\%)&1(1.4\%)&0(0.0\%)&19(26.4\%)\\読点+名詞+とも&18(25.0\%)&0(0.0\%)&3(4.2\%)&21(29.2\%)\\連用形+名詞+とも&7(9.7\%)&5(6.9\%)&0(0.0\%)&12(16.7\%)\\連体形+名詞+とも&3(4.2\%)&12(16.7\%)&5(6.9\%)&20(27.8\%)\\\hline\end{tabular}\end{center}\caption{「名詞+とも」の用法の分布}\label{tomo}\end{table}「名詞+とも」は名名派生接尾辞,引用接尾辞+連用接尾辞,格接尾辞+連用接尾辞の三つの可能性がある.評価文中では名名派生接尾辞が46箇所,引用接尾辞+連用接尾辞が18箇所,格接尾辞+連用接尾辞が8箇所であった.表\ref{tomo}に「名詞+とも」の用法の分布を示す.以下の規則により,66/72(91.7\%)の場合で正しい品詞が得られる.\begin{itemize}\item「名詞+とも+引用性動詞」の場合は,引用接尾辞.\item「連体形+名詞+とも+引用性動詞以外」の場合は,格接尾辞.\item上記以外は,名名派生接尾辞.\end{itemize}\subsection{「名詞+で」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&格接尾辞連用形&名詞接尾辞連用形&合計\\\hline名詞+で&2124(64.5\%)&1171(35.3\%)&3295(100\%)\\名詞+で+ある/ない&0(0.0\%)&461(14.0\%)&461(14.0\%)\\名詞+で+は/も+ある/ない&0(0.0\%)&134(4.1\%)&134(4.1\%)\\名詞+で+は/も+(ある/ない)以外&476(14.4\%)&10(0.3\%)&486(14.7\%)\\名詞+で+(ある/ない/読点)以外&1373(41.7\%)&347(10.5\%)&1720(52.2\%)\\連用形+名詞+で+読点&256(7.8\%)&129(3.9\%)&385(11.7\%)\\連用形以外+名詞+で+読点&19(0.6\%)&90(2.7\%)&109(3.3\%)\\\hline\end{tabular}\end{center}\caption{「名詞+で」の用法の分布}\label{de}\end{table}「で」には,格接尾辞連用形(場所や道具を示す用法)と名詞接尾辞連用形がある.前者は述語を形成せず,後者は述語を形成する.これらは形態素レベルの情報では識別できない.「名詞+で」の用法の分布を表\ref{de}に示す.これによると以下の規則で2790/3295(84.7\%)の場合で正しい品詞が得られる.\begin{itemize}\item「名詞+で+ある/ない」の場合は,名詞接尾辞連用形\item「名詞+で+は/も+ある/ない」の場合は,名詞接尾辞連用形\item「名詞+で+は/も+(ある/ない)以外」の場合は,格接尾辞連用形\item「名詞+で+(ある/ない/読点)以外」の場合は,格接尾辞連用形\item「連用形+名詞+で+読点」の場合は,名詞接尾辞連用形\item「連用形以外+名詞+で+読点」の場合は,格接尾辞連用形\end{itemize}\subsection{「名詞+か」}「か」には,格接尾辞連体形,名詞接尾辞連用形,接名派生接尾辞,接続接尾辞終止形がある.この内,「名詞+か」では格接尾辞連体形と名詞接尾辞連用形が形態素レベルの情報では識別できない.ただし,本研究では例えば「太郎か次郎か分からない.」という文の場合,両方の「か」は名詞接尾辞連用形であると考えている.「名詞+か」は評価の文中の84箇所に現れ,その内,10箇所(11.9\%)が格接尾辞連体形,74箇所(88.1\%)が名詞接尾辞連用形であった.また,評価文中では以下の規則で全ての場合を正しく識別できた.\begin{itemize}\item「名詞+か+名詞」の場合は,格接尾辞連体形\item「名詞+か+名詞以外」の場合は,名詞接尾辞連用形\end{itemize}\subsection{「述語+ので」}「述語+ので」については,「の(補助名詞)+で(格接尾辞)」,「ので(接続接尾辞連用形)」の二通りの解釈がある.例えば,「大きいので壊した.」という文では,「大きい物で壊した」のか「大きいから壊した」のかの区別ができない.しかし,前者の解釈は口語的なので,評価に用いた新聞記事では1万文の中に現れた50箇所全てが後者の用法であった.\subsection{「述語+のに」}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&補助名詞+格接尾辞&接続接尾辞連用形&合計\\\hlineのに&25(53.2\%)&22(46.8\%)&47(100\%)\\のに+読点&1(2.1\%)&14(29.8\%)&15(31.9\%)\\のに+名詞&15(31.9\%)&5(10.6\%)&20(42.6\%)\\のに+述語&9(21.3\%)&1(2.1\%)&10(21.3\%)\\\hline\end{tabular}\end{center}\caption{「述語+のに」の用法の分布}\label{noni}\end{table}「述語+のに」については,「の(補助名詞)+に(格接尾辞)」,「のに(接続接尾辞連用形)」の二通りの解釈がある.例えば,「高いのに乗った.」では,「高いにも関わらず乗った」のか「高いものに乗った」のか識別できない.「述語+のに」の用法の分布を表\ref{noni}に示す.これによると,以下の規則で38/47(80.9\%)の場合に正しい品詞を得られる.\begin{itemize}\item「のに+読点」の場合は,接続接尾辞連用形\item「のに+名詞」の場合は,補助名詞+格接尾辞\item「のに+述語」の場合は,接続接尾辞連用形\end{itemize}\subsection{「そう」}「そう」には,動名派生接尾辞,形名派生接尾辞,名名派生接尾辞,接名派生接尾辞があり,ほとんどの場合はこれらは形態素レベルの情報で識別できる.しかし,「動詞語幹(活用型A)+そう」の場合には識別できない二つの解釈がある.例えば「食べたそうだ.」という文では「食べ(動詞語幹)た(動形派生接尾辞[欲求])そう(形名派生接尾辞[様態])だ(名詞接尾辞終止形)」と「食べ(動詞語幹)た(動詞接尾辞接続形[完了])そう(接名派生接尾辞[伝聞])だ(名詞接尾辞終止形)」を形態素レベルで識別できない.評価に用いた文中ではこのような「そう」は11箇所に現れ,その全てが後者の用法であった.これは評価に用いた文が新聞記事であるためと考えられる.\subsection{「動詞語幹+i+に」}「動詞語幹+i+に」には二つの解釈がある.例えば「話しに花を添える.」「話しに行く.」では「話し」は前者では「動名詞+格接尾辞``に''」であり,後者では「動詞語幹+動詞接尾辞``ini''」である.これらは形態素レベルの情報では区別できない.これは評価文中では168箇所で現れた.その内150箇所が動名詞であり,18箇所が動詞であった.動詞の18箇所の内,「動詞+に+行く」が5箇所であり,「動詞+に+来る」が8箇所,その他,「入る」「通う」「向かう」「寄る」が直後に来るものがそれぞれ1箇所ずつあった.逆にこれらの動詞が直後に来る場合で動名詞であったものはなかった.従って,以下の規則で167/168(99.4\%)が正しく識別できる.\begin{itemize}\item「来る」「行く」などの特定の動詞が直後に来る場合は「動詞語幹+動詞接尾辞``ini''」.\item上記以外の場合は「動名詞+格接尾辞``に''」.\end{itemize}\subsection{「動詞語幹+i」}「動詞語幹+i」には,動詞の連用形である場合と,動名詞である場合がある.「動詞語幹+i+名詞接尾辞」「動詞語幹+i+格接尾辞」「動詞語幹+i+連用接尾辞」の場合は動名詞であると識別することができる.また「動詞語幹+i+読点」は動詞の連用形と識別できる.文節に区切る際に最も問題になるのは「動詞語幹+i+名詞」の場合である.「動詞語幹+i」を動詞の連用形と見なす場合にはそこで文節が区切れるが,「動詞語幹+i」を動名詞と見なす場合には複合名詞になるので文節が区切れない.このような「動詞語幹+i+名詞」のパターンは評価文中の129箇所に現れ,動名詞であったのが79箇所であり,動詞であったのが50箇所であった.これらは形態素レベルの情報では区別できない.しかし,評価文中では表\ref{doumeisi}のような用法の分布があった.従って,下記の規則で127/129(98.4\%)の場合で正しく識別できる.\begin{itemize}\item「連用接尾辞``は''+動詞語幹+i+名詞」の場合は,動名詞.\item「連用接尾辞``は''以外の連用形+動詞語幹+i+名詞」の場合は,動詞.\item上記以外は動名詞.\end{itemize}\begin{table}\begin{center}\begin{tabular}{|l|r|r|r|}\hline&動名詞&動詞&合計\\\hline動詞語幹+i+名詞&79(60.5\%)&50(39.5\%)&129(100\%)\\読点+動詞語幹+i+名詞&13(10.0\%)&0(0.0\%)&13(10.0\%)\\名詞+動詞語幹+i+名詞&25(19.4\%)&0(0.0\%)&25(19.4\%)\\文頭+動詞語幹+i+名詞&6(4.7\%)&0(0.0\%)&6(4.7\%)\\連体形+動詞語幹+i+名詞&26(20.2\%)&0(0.0\%)&26(20.2\%)\\連用形+動詞語幹+i+名詞&9(7.0\%)&50(39.5\%)&59(45.7\%)\\は+動詞語幹+i+名詞&7(5.4\%)&0(0.0\%)&7(5.4\%)\\\hline\end{tabular}\end{center}\caption{「動詞語幹+i+名詞」の用法の分布}\label{doumeisi}\end{table}\subsection{「いく」と「いう」}「いった」「いって」などは「言った」「言って」なのか「行った」「行って」なのか分からない.評価の文中には77箇所でこのような表現が現れたが,動詞の連用形の直後に来るものは全て「行く」であり,それ以外はすべて「言う」であった.これは,評価に用いた文が校正済みの新聞記事であるためと考えられる.\subsection{「ある」}「ある」には,連体詞と動詞の可能性がある.これは評価文中に260箇所に現れ,24箇所が連体詞,236箇所が動詞であった.この内,「読点+ある」は8箇所で,全て連体詞であった.その他の連体詞の「ある」は16箇所全てが「名詞+の+ある」の形で現れたが,動詞の「ある」が「名詞+の+ある」の形で現れたのが29箇所であった.従って,以下の規則で,244/260(93.8\%)が正しく認識される.\begin{itemize}\item「連用形+ある」の場合は,動詞.\item「名詞+の+ある」の場合は,動詞.\item上記以外の「連体形+ある」の場合は,連体詞.\item「読点+ある」の場合は,連体詞.\end{itemize}\subsection{連用詞に係る連用詞}連用詞の中には他の連用詞を修飾していると考えられるものがある.例えば「非常にゆっくり歩いた.」という文で,「非常に」は「ゆっくり」の様態を表していると考えられる.一つの解決法は連用詞は他の連用詞に係ることができるとしてしまうことであるが,全ての連用詞が他の連用詞に係るわけではないので,連用詞に係ることができる連用詞として別の品詞を設定する必要が出てくる.別の解決法は,先ほどの例で言えば,「非常に」が「ゆっくり」ではなく「歩いた」に係ると見なすことにしてしまう方法である.その場合は,「非常に」と「ゆっくり」の関係を「歩いた」を仲介して算出する仕組みを別に用意しなければならない.しかし,この利点は,「非常に私はゆっくり歩いた.」という文でも係り受けの非交差の原則が守られていると見なせる点である\footnote{同様な現象は「は」にも見られ,例えば「この料理は私は彼女が作ったと思う.」という文で「料理は」が「作った」に係るとすると非交差の原則が破られるが,これも「料理は」は「思う」に係ると見なして,別の仕組みによって,「料理」と「作った」の関係を算出すると考えれば,非交差の原則が守られていると見なせる.}.また連用詞の変種を作る必要もないので,本研究では後者の解決法を取っている.\subsection{複合名詞}本研究における形態素解析システムは,その目的から,複合名詞をさらに細かく区切ることを重要視していない.つまり,文節の区切りの精度を測定する場合に「名詞+名詞\footnote{「連用名詞+名詞」は複合名詞にならない.}」の並びを複合した結果が名詞として正解であればよしとしている.従って,複合した状態では正解であっても,それをさらに細かく分解した状態では間違っている場合がある.評価文中では11845箇所に複合名詞の分割が現れた\footnote{この中には辞書に一つの名詞として登録されている複合名詞は含まれない.そのような複合名詞は1302箇所に現れた.}.この内,492箇所(4.2\%)が誤って分割されていた.誤りの内,221箇所(1.9\%)が固有名詞に起因するものであった.\subsection{複数解に対する優先度付け}本稿では述べていないが,実際の形態素解析処理における重要な要素に複数解に対する優先度付けの問題がある.例えば,「太郎が帰ってきたとき,犬が吠えた.」という文には,本稿で示した形態素文法だけでは,「とき」の部分に曖昧性が生じる.一つの解釈は明らかなように「とき(時)」という名詞である.今一つの解釈は,「と(引用)」「き(``来る''の連用形)」である.ここでは明らかに前者の解釈を取らなければならない.その他にも,単語の平仮名表記を含めれば多くの曖昧性がある.そこで,実際の形態素文法の定義では,品詞や品詞の隣接規則に重み付けをし,優先度の計算を行っている.しかし,この重み付けはまったくアドホックなものであり,実際,多くの例文を処理させた結果を分析して,優先度の計算がうまく人間の解釈と適合するように調整する事によって作成した.実際のシステムへの適用にあたってはこの部分が最も時間がかかった部分であり,さらなる精度向上に対する障害の一つである.
\section{性能評価}
label{eval2}本稿で提案した形態素文法を形態素解析プログラムJUMAN\cite{juman}\footnote{JUMANは品詞や形態素文法を再定義できる公開された形態素解析システムである.}に適用し,形態素解析の精度を測定した.本来のJUMANは接続コストによって枝狩りした解に対して後方最長一致の解を出力するもの\footnote{オプションによってただ一つの解を出力するように指定した場合}であるが,本研究ではこれを接続コストが最小になる解\cite{hisamitu90}を出力するように改造して使用した.利用した辞書は異なり語数35万程度であり,これらの内,動詞語幹,形容詞語幹,名詞,連用詞,連体詞,名名派生接尾辞,数名派生接尾辞については日本電子化辞書研究所の日本語辞書の他,いくつかの仮名漢字変換プログラム用辞書や機械可読な人間用の辞書から抽出したものを用いた.また,漢字表記の語については,その平仮名表記も辞書に登録し,全体で50万語程度となっている.ただし,単語の中で漢字の一部だけを平仮名に変えたものは辞書に登録していない.評価には日本電子化辞書研究所から提供されたコーパス\footnote{このコーパスには主に朝日新聞社の記事から収集した文が集められている.}の内,1万文を使用した.これらの文に対して形態素解析システムに{\dgただ一つ}の解を出力させ,これとコーパスに付けられている人手による解析結果とを比較した.ただし,日本電子化辞書研究所における品詞の分類と本論文での品詞の分類が異なっているため,文節単位にまで形態素をまとめたものを比較した.結果を表\ref{error}に示す.但し,「区切り誤り」は\ref{detail}節で与えた規則によって品詞が間違う場合の数である.\begin{table}\begin{center}\begin{minipage}[t]{6cm}\begin{tabular}{|l|r|}\hline文数&10000\\文節数&84841\\形態素数&207547\\\hline文節区切り位置の誤り数&445\\\hline分割誤り複合名詞数&221\\\hline\multicolumn{2}{c}{区切り誤り}\end{tabular}\end{minipage}\begin{minipage}[t]{5cm}\begin{tabular}{|l|r|r|}\hline&頻度&誤り数\\\hline名詞+と&1229&169\\名詞+との&130&0\\名詞+とも&72&6\\名詞+で&3295&505\\名詞+か&84&0\\述語+ので&50&0\\述語+のに&47&9\\動詞語幹(A)+そう&11&0\\動詞語幹+i+に&168&1\\動詞語幹+i+名詞&129&2\\ある&260&16\\\hline\multicolumn{3}{c}{品詞付け誤り}\end{tabular}\end{minipage}\end{center}\caption{誤り数}\label{error}\end{table}文節の区切り位置を誤っていたのは445箇所であった.区切り位置を誤ると,その前後の文節が共に誤りとなるので,誤りの文節が含まれる率は,全形態素数に対して,\[445\times2\div207547\times100=0.43\%\]である.これは全文節数に対しては1.05\%である.また,1文中に複数の区切り誤りがあったものはなかったので,文節区切りが失敗した文は全文数に対して4.45\%である.文献\cite{maruyama94}では,分割誤りとして複合名詞の分割誤りを含めて,形態素数に対して分割誤り率は1.25\%と報告されている.本稿のシステムを同様に評価すると,\[(445+221)\times2\div207547\times100=0.64\%\]の分割誤り率である.さらに文献\cite{maruyama94}では品詞誤りを含めた全体的な誤り率を2.36\%と報告している.文献\cite{maruyama94}では本稿で与えた形態素文法よりも細かい品詞分類を行っているので,同様に比較できないが,表\ref{error}に挙げたものを形態素に対する品詞付けの誤りとすると,\[((445+221)\times2+169+6+505+9+1+2+16)\div207547\times100=0.98\%\]である.文節の区切りに関する誤りは,8箇所が複数解の優先度付けの誤りによるものであり,残りの437箇所は対応する形態素を辞書に登録することによって解決できるものであった.従って,辞書を整備することで文節区切りの性能はさらに向上させることができると期待できる.辞書の整備に関して,語の中の一部の漢字が平仮名表記されるものについては,自動的に漢字の一部を平仮名に置き換えたものを登録することが可能である.しかし,その場合,登録語数がほぼ4倍になる.実際にはこれらの内ほとんどのものは用いられない上,解析速度にも悪影響を与えるので,コーパスの分析結果などから必要な表記のみを登録するのが望ましい.複合名詞の区切り誤りについては本形態素文法では対処できない.しかし,複合名詞としてまとまった形で認識する精度は高い.複数の品詞に属する形態素に関しては,新聞記事に対しては有効性の高い識別規則を与えたが,これらはあくまで確率的なものであり,根本的な解決にはならない.動詞の語尾変化は全て正しく解析され,派生文法における動詞の取り扱い方法の優秀さが実証された.口語的な表現に対しても,JUNETの生活関連のニュースグループの記事の内,明らかな間違いを除いた500文を解析させたところ,動詞語の語尾変化に対しては全て正しく解析されていた.
\section{まとめ}
本稿では形態素解析に的を絞った日本語形態素文法を提案した.この形態素文法における動詞語尾の扱いは,派生文法を拡充整備し,日本語の文字単位で扱えるように修正したものである.その結果,実存する形態素解析プログラムJUMANに適用できるようになり,実際に適用して実用的な解析性能を得ることができた.辞書を整備することでさらなる精度の向上が期待できる.しかし,形態素の隣接規則間の優先度を決める重みの決定は,手作業による微妙な調整によるものであり,何らかの自動的な学習の仕組みが必要である.\acknowledgment形態素解析プログラムJUMANを提供して下さった奈良先端科学技術大学院大学の松本裕治先生,および辞書を提供して下さった日本電子化辞書研究所の方々に感謝します.\begin{thebibliography}{}\bibitem[\protect\BCAY{Bloch}{Bloch}{1946}]{bloch}Bloch,B.\BBOP1946\BBCP.\newblock\BBOQ{S}tudiesin{C}olloquial{J}apanese,{P}art{I},{I}nflection\BBCQ\\newblock{\BemJournaloftheAmericanOrientalSociety},{\Bbf66}.\bibitem[\protect\BCAY{Hisamitu\BBA\Nitta}{Hisamitu\BBA\Nitta}{1994}]{hisamitu94b}Hisamitu,T.\BBACOMMA\\BBA\Nitta,Y.\BBOP1994\BBCP.\newblock\BBOQ{A}n{E}fficient{T}reatmentof{J}apanese{V}erb{I}nflectionfor{M}orphological{A}nalysis\BBCQ\\newblockIn{\BemColing94},\lowercase{\BVOL}~I.\bibitem[\protect\BCAY{久光\JBA新田}{久光\JBA新田}{1990}]{hisamitu90}久光徹,新田義彦\BBOP1990\BBCP.\newblock\JBOQ接続コスト最小法による日本語形態素解析の提案と計算量の評価について\JBCQ\\newblock言語理解とコミニュケーション\90-8,電子情報通信学会.\bibitem[\protect\BCAY{久光\JBA新田}{久光\JBA新田}{1994a}]{hisamitu94a}久光徹,新田義彦\BBOP1994a\BBCP.\newblock\JBOQゆう度付き形態素解析用の汎用アルゴリズムとそれを利用したゆう度基準の比較.\JBCQ\\newblock\Jem{電子情報通信学会論文誌D-II},{\BbfJ77}(5).\bibitem[\protect\BCAY{久光\JBA新田}{久光\JBA新田}{1994b}]{hisamitu94c}久光徹,新田義彦\BBOP1994b\BBCP.\newblock\JBOQ日本語形態素解析における効率的な動詞活用処理\JBCQ\\newblock自然言語処理研究会\103-1,情報処理学会.\bibitem[\protect\BCAY{木谷}{木谷}{1992}]{kitani}木谷強\BBOP1992\BBCP.\newblock\JBOQ固有名詞の特定機能を有する形態素解析処理\JBCQ\\newblock自然言語処理研究会\90-10,情報処理学会.\bibitem[\protect\BCAY{清瀬}{清瀬}{1989}]{kiyose}清瀬~義三郎則府\BBOP1989\BBCP.\newblock\Jem{日本語文法新論--派生文法序説--}.\newblock桜楓社.\bibitem[\protect\BCAY{丸山\JBA荻野}{丸山\JBA荻野}{1994}]{maruyama94}丸山宏,荻野紫穂\BBOP1994\BBCP.\newblock\JBOQ正規文法に基づく日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(7).\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{masuoka}益岡隆志,田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法--改訂版--}.\newblockくろしお出版.\bibitem[\protect\BCAY{松本,黒橋,宇津呂,妙木,長尾}{松本\Jetal}{1994}]{juman}松本裕治,黒橋禎夫,宇津呂武仁,妙木裕,長尾真\BBOP1994\BBCP.\newblock\JBOQ日本語形態素解析システム{JUMAN}使用説明書version2.0\JBCQ\\newblock\JTR,奈良先端科学技術大学院大学.\bibitem[\protect\BCAY{三浦}{三浦}{1975}]{miura}三浦つとむ\BBOP1975\BBCP.\newblock\Jem{日本語の文法}.\newblock勁草書房.\bibitem[\protect\BCAY{宮崎\JBA高橋}{宮崎\JBA高橋}{1992}]{miyazaki}宮崎正弘,高橋大和\BBOP1992\BBCP.\newblock\JBOQ三浦文法に基づく日本語形態素処理用文法の構築\JBCQ\\newblock自然言語処理研究会\90-1,情報処理学会.\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{nagata}Nagata,M.\BBOP1994\BBCP.\newblock\BBOQ{A}{S}tochastic{J}apanese{M}orphological{A}nalyzer{U}singa{F}orward-{D}{P}{B}ackward-{A}*{N}-{B}est{S}earch{A}lgorithm\BBCQ\\newblockIn{\BemColing94},\lowercase{\BVOL}~I.\bibitem[\protect\BCAY{中村,吉田,今永}{中村\Jetal}{1991}]{nakamura}中村順一,吉田将,今永一弘\BBOP1991\BBCP.\newblock\JBOQ接続コスト最小法による日本語形態素解析の評価実験\JBCQ\\newblock言語理解とコミニュケーション\91-1,電子情報通信学会.\bibitem[\protect\BCAY{西野,鷲北,石井}{西野\Jetal}{1992}]{nisino}西野博二,鷲北賢,石井直子\BBOP1992\BBCP.\newblock\JBOQ派生文法による日本語構文解析\JBCQ\\newblock自然言語処理研究会\87-6,情報処理学会.\bibitem[\protect\BCAY{寺村}{寺村}{1984}]{teramura}寺村秀夫\BBOP1984\BBCP.\newblock\Jem{日本語のシンタクスと意味II}.\newblockくろしお出版.\bibitem[\protect\BCAY{時枝}{時枝}{1950}]{tokieda}時枝誠記\BBOP1950\BBCP.\newblock\Jem{日本語文法口語篇}.\newblock岩波書店.\bibitem[\protect\BCAY{吉村,日高,吉田}{吉村\Jetal}{1983}]{yosimura83}吉村賢治,日高達,吉田将\BBOP1983\BBCP.\newblock\JBOQ文節数最小法を用いたべた書き日本語の形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf24}(1).\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{渕武志}{1965年生.1988年東京大学理学部情報科学科卒業.1991年慶応大学大学院修士課程終了.1995年東京大学大学院博士課程修了.理学博士.同年,NTTに入社,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{米澤明憲}{1947年生.1977年Ph.D.inComputerScience(MIT).1989年より東京大学理学部情報科学科教授.超並列ソフトウエアアーキテクチャ,ソフトウエア基礎論,人工知能基礎論などに興味を持つ.著書「算法表現論」,「モデルと表現」(岩波書店),編著書「ABCL:AnObject-OrientedConcurrentSystem」,「ResearchDirectionsinConcurrentObject-OrientedComputing」(MITPress)等.現在IEEEParallelandDistributedTechnology編集委員.1992年よりドイツ国立情報処理研究所(GMD)科学顧問.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N01-06
|
\section{はじめに}
質問応答,情報抽出,複数文章要約などの応用では,テキスト間の含意関係や因果関係を理解することが有益である.例えば,動詞「洗う」と動詞句「きれいになる」の間には,「何かを洗うという行為の結果としてその何かがきれいになる」という因果関係を考えることができる.本論文では,このような述語または述語句で表現される事態と事態の間にある関係を大規模にかつ機械的に獲得する問題について述べる.事態表現間の因果関係,時間関係,含意関係等を機械的に獲得する研究がいくつか存在する~\cite[etc.]{lin:01,inui:DS03,chklovski,torisawa:NAACL,pekar:06,zanzotto:06,abe:08}.事態間関係の獲得を目的とする研究では,事態を表現する述語(または述語句)の間でどの項が共有されているのかを捉えるということが重要である.例えば,述語「洗う」と述語句「きれいになる」の因果関係は次にように表現できる.\begin{quotation}($X$を)\emph{洗う}$\rightarrow_{因果関係}$($X$が)\emph{きれいになる}\end{quotation}この$X$は述語「洗う」のヲ格と述語句「きれいになる」のガ格が共有されていることを表している.関係$R$を満たす述語対は次のように一般化して表現することができる.\begin{quotation}($X項_{1}$)$\emph{述語}_1$$\rightarrow_{R}$($X項_{2}$)$\emph{述語}_2$\end{quotation}$\emph{述語}_i$は自然言語における述語(または述語句)であり,典型的には動詞または形容詞である.$X$はある述語の項ともう一つの述語の項が共有されていることを表している.我々の目的は,(a)特定の関係を満たす述語対を見付けだし(\emph{述語対獲得}),(b)述語対の間で共有されている項を特定する(\emph{共有項同定})ことである.事態間関係の獲得を目的とする研究は既にいくつかあるが,どの研究も関係述語対獲得または共有項同定の片方の問題のみを対象としており,両方の問題を対象とした研究はない.我々が提案する手法は,目的が異なる2種類の手法を段階的に適用して述語間関係を獲得する手法である.
\section{関連研究}
\label{sec:related}既存の述語間関係獲得の手法は2種類の手法に分類することができる.本論文ではそれぞれの手法を\emph{パターン方式},\emph{アンカー方式}と呼称する.\subsection{パターン方式}\label{ssec:related_patt}パターン方式に共通する手法は,多数の事例と共起する様な語彙統語的な共起パターンを作成し,これを用いて特定の関係を満たす述語対を獲得するという手法である.パターン方式の中で最も基本的な手法は,\emph{VerbOcean}という知識源を構築するためにChklovskiとPantel~\cite{chklovski}が用いたものである.例えば,\emph{to\bracket{\emph{Verb-X}}andthen\bracket{\emph{Verb-Y}}}~\footnote{共起パターン中の\bracket{~}は変数スロットを意味しており,特定の表現に置き換えることが可能である.また,\bracket{~}の中に記述している情報は語彙または統語的な制約であり,\bracket{Verb-X\,}は\bracket{~}を置き換える表現が動詞であることを表現している.}のような共起パターンを人手で作成し,\emph{strength}(e.g.\emph{taint--poison})という述語間の関係を獲得した.述語間関係毎に共起パターンを人手で作成することで6種類の述語間関係を獲得した.このように人手で作成した共起パターンを用いることで少数の共起パターンを用意するだけで多数の述語間関係を獲得することができるが,獲得した述語間関係の再現率は高いが,精度が低くなる傾向がみられる.例えば,Chklovskiらが約29,000の述語間関係を獲得した実験における精度は約65.5\%であった.これに対し,自動獲得した述語間関係から誤り事例を除くための手法も提案されている~\cite{chklovski,torisawa:NAACL,zanzotto:06,inui:DS03}.近年,Abeら~\cite{abe:08}がPantelとPennacchiotti~\cite{pantel2006}の手法を拡張した.Pantelらの手法は,実体間関係獲得のために提案されたもので,任意の関係のみとよく共起するパターンと実体対をブートストラップ的に獲得する.Abeらはこの手法を述語間関係獲得に適用できるように拡張し,例えば「\bracket{\text{\bfseries名詞}}不足により\bracket{\text{\bfseries動詞}}できなかった」\footnote{この共起パターンは,例えば「\emph{研究}不足により\emph{発見}できなかった」という事例と共起する.}のような,多数の事例とは共起しないが獲得した述語対の精度が高くなる傾向を持つ共起するパターン(特殊な共起パターン)をブートストラップ的に学習し,述語間関係知識を獲得した.\subsection{アンカー方式}\label{ssec:related_anc}アンカー方式は,述語間関係を決めるための手がかりとして述語の項を埋める表現を用い,主に述語間の類義関係を獲得する場合や含意関係を獲得する場合の前処理として利用される.述語の項を埋める表現を取り扱う方法の違いから,アンカー方式を2つに分けることができる.ひとつめ手法はDistributionalHypothesis~\cite{harris}を利用し,述語の項を埋める表現が似ている述語の間には同義関係が成り立つと仮定する方法であり,Linら~\cite{lin:01}とSzpektorら~\cite{szpektor-EtAl:2004:EMNLP}らの研究がこのような手法を用いている.もうひとつの手法はPekar~\cite{pekar:06}が提案している手法である.この手法は,含意関係を満たす動詞対の候補を見付けるために次の2つの基準を用いる.\begin{itemize}\item2つの動詞が同一の談話に出現する.\item2つの動詞の項を埋める表現が指しているものが同一である(これを\emph{アンカー}と呼ぶ).\end{itemize}例えば,次の節対``\emph{Maryboughtahouse.}''と``\emph{ThehousebelongstoMary.}''が同一談話に存在する場合,動詞対\emph{buy}(object:\emph{X})-\emph{belong}(subject:\emph{X})と\emph{buy}(subject:\emph{X})-\emph{belong}(to:\emph{X})は含意関係の候補である\footnote{含意関係の候補となる動詞対を2つ挙げたが,どちらも\emph{buy}と\emph{belong}の対である.2つの動詞対は,それぞれ項が異なるため別の対であるとみなす.}.\subsection{パターン方式とアンカー方式の違い}パターン方式とアンカー方式の2つの手法を説明したが,この2つの手法は独立かつ相補的な関係にある.パターン方式は,アンカー方式と比較して関係の種類を詳細に識別することができ,例えばChklovskiとPantel~\cite{chklovski}が用いたパターンは6種類の関係を認識し,Abeら~\cite{abe:08}はInuiら\cite{inui:DS03}によって定義された4種類の因果関係のうち2種類の関係を認識した.しかし,パターン方式は共起パターンを用いて同一文内で共起した述語対を関係の候補とするが,同一文内ではしばしば述語の項が省略されるため,述語の間で共有されている項を同定することが難しい.例えば,普通は「お茶を淹れてからお茶を飲んだ」とは言わずに「お茶を淹れてから飲んだ」と言うように,同一文内において同じ項が2回以上出現する場合は2回目以降はその項が省略されることが多い.一方,アンカー方式では,述語の間で共有されている項を用いて述語間関係を発見するため,この手法で獲得した述語対は述語間で共有されている項が同定されている.しかし,述語間の関係を決めるために用いる情報がせいぜい項の情報であるため,同義関係や含意関係よりも詳細な因果関係や前提条件を直接的に識別することが難しい.\subsection{パターン方式とアンカー方式の組み合わせ}このような独立的かつ相補的な特徴にも関わらず,2つの手法の組み合わせについては十分に研究が行われていない.興味深い例外としてTorisawa~\cite{torisawa:NAACL}の手法がある.この手法は,一般的な接続表現「\emph{\bracket{Verb-X\,}て\bracket{Verb-Y\,}}」と動詞と項の間の共起情報を組み合わせて時間的な順序関係の制約を持つような事態間の推論規則を獲得する.この手法は有望であるように思えるが,時間的な制約を持つ事態間の推論規則に特化したヒューリスティックを用いているために,別の種類の関係を獲得するためにこの手法を適用できるのかという点が明かではない.
\section{2段階述語間関係獲得手法}
\label{sec:method}パターン方式の関係指向手法とアンカー方式の類義指向手法を組み合わせる手法を提案する.この手法の概要を\fig{overview}に記す.この手法は述語対獲得と共有項同定の2つの過程からなる.最初にパターン方式を用いて所与の関係を満たす述語対を獲得し,これを述語対候補とする.次に,アンカー方式を用いて各述語対候補のフィルタリングと共有項同定を行う.アンカーとして,インスタンスアンカーとタイプアンカーの2種類を用いる.述語対候補のアンカーを発見した場合,述語対候補は確かに所与の関係にあると見なし,アンカーを共有している述語対の項対を共有項とする.一方で,述語対候補のアンカーがない場合はその述語対候補を破棄する.\sec{result}で示すように,パターン方式とアンカー方式を組み合わせて述語対の関係を判断することにより精度が向上した.\begin{figure}[p]\begin{center}\includegraphics{17-1ia7f1.eps}\end{center}\vspace{-3pt}\caption{2段階述語間関係獲得}\label{fig:overview}\end{figure}\subsection{述語対獲得}\label{ssec:pred_pair}述語対獲得ではパターン方式の手法を用いて,所与の関係にある述語対を獲得する.このとき,パターン方式の手法は,関係を詳細に識別して因果関係のような事態間関係を獲得することができれば任意の手法でもよい.例えば,\ssec{related_patt}で挙げた手法はこの条件を備えているが,\ssec{related_anc}で挙げた手法はこの条件を備えていない.実験ではパターン方式の手法として,Abeら~\cite{abe:08}の手法を用いることにした.その理由は,この手法が獲得した事態対の確からしさを表すスコアを持つため,このスコアを用いて信頼度の高い事態対だけを利用することができるという利点を備えているためである.この手法の詳細は~\cite{abe:08}に記されているが,概要を\sec{patt_method}にも記す.\subsection{共有項同定}\label{ssec:shared_case}共有項同定では,パターン方式を用いて獲得した所与の関係にある述語対候補に対して,アンカーを用いることで,フィルタリングと共有項同定を行う.インスタンスアンカーとタイプアンカーの2種類のアンカーを用いる.この2種類のアンカーはそれぞれ独立的かつ相補的な特徴を持つため,この2つのアンカーを組み合わせることで再現率を向上できる可能性がある.\subsection{共有項同定:インスタンスアンカー}\label{ssec:instance_anc}Pekar~\cite{pekar:06}が動詞間の含意関係を獲得するためにアンカーを用いた方法に示唆を受けて,我々は次の3つの仮説を置いた.\begin{itemize}\item同一談話内において2つの述語が項に同じ名詞表現を伴っているとき,この名詞表現は同じものを指している.\item同一談話内において2つの述語の項が同じものを指しているのであれば,この2つの述語の項は共有されている.\item同一談話内において2つの述語の項が同じものを指しているのであれば,この2つの述語は何らかの関係\footnote{ここで言う関係とは含意関係や因果関係のことである.また述語間の含意関係や因果関係では,述語の間の順序関係が重要であるが,この仮説は順序関係について述べない.}を満たす.\end{itemize}例えば\fig{overview}の(2a)はある文章中の談話である.この談話において,名詞「パン」は2回出現し,1つめの「パン」は「焼く」のヲ格であり,2つめの「パン」は「焦げる」のガ格である.仮説から,2回出現した「パン」は同じ「パン」を指していると仮定でき,「焼く」のヲ格と「焦げる」のガ格は項を共有し,さらに「焼く」と「焦げる」は何らかの関係にあると仮定できる.ここで重要な役割を果す名詞(この例では「パン」)を我々はアンカーと呼び,このようなアンカーを\ssec{type_anc}で述べる「タイプアンカー」と対比させて「インスタンスアンカー」と呼ぶ.述語対$\emph{Pred}_1$,$\emph{Pred}_2$が与えられたとき,次の条件を満たす3つ組\bracket{$\emph{Pred}_1$-$\emph{Arg}_1$;$\emph{Pred}_2$-$\emph{Arg}_2$;\emph{Anc}}を探す.\begin{itemize}\item[(a)]Webページ中に出現した$\emph{Pred}_1$の項の名詞句の主辞$\emph{Arg}_1$をアンカー\emph{Anc}とする.\item[(b)](a)と同じWebページに出現する$\emph{Pred}_2$の項の名詞句の主辞$\emph{Arg}_2$が\emph{Anc}と等しい.\item[(c)]\emph{Anc}がストップリストに含まれていない.\item[(d)]条件$\textit{PMI}(\emph{Pred}_1,\emph{Arg}_1)\geq\alpha$かつ$\textit{PMI}(\emph{Pred}_2,\emph{Arg}_2)\geq\alpha$を満たす(ただし実験では$\alpha=-1$とした).\end{itemize}実験では人手でストップリストを作成した.リストには219語の代名詞,数字,「こと」,「もの」,「とき」のように非常に一般的な名詞を含んでいる.条件(d)の$\textit{PMI}(\emph{Pred}_i,\emph{Arg}_i)$は,\emph{Pred}$_i$と\emph{Arg}$_i$の間の自己相互情報量である.この条件は,係り受け解析器のエラーが原因で誤認したアンカーを除くことを目的としている.インスタンスアンカーの集合は,項の共有関係を持つ述語対の組\emph{Pred}$_1$-\emph{Arg}$_1$と\emph{Pred}$_2$-\emph{Arg}$_2$から次のように求められる.\[\mathit{AnchorSet}(\mathit{Pred}_1\text{-}\mathit{Arg}_1,\mathit{Pred}_2\text{-}\mathit{Arg}_2)=\{\mathit{Arg}|\langle\mathit{Pred}_1\text{-}\mathit{Arg}_1;\mathit{Pred}_2\text{-}\mathit{Arg}_2;\mathit{Anc}\rangle\}.\]Pekarは談話の範囲をできるだけ正確に認識しようと勤めているのに対して,我々は同一Webページに含まれる文を同じ談話であると見なし,同一Webページ内でアンカーを共有している述語対は何らかの関係を持つと仮定した.このようにPekarと比較してより少ない制約のみを用いているにもかかわらず,\sec{result}で示すように我々の手法を用いて良い実験結果を得ることができた.この理由は,我々は少ない制約を用いて談話関係を認識したが,代りに語彙統語的パターンを用いて獲得した述語対を用いたため,これが強い制約となり精度の低下を防いでいると考えられる.\subsection{共有項同定:タイプアンカー}\label{ssec:type_anc}我々は次の仮説を置いた.\begin{itemize}\item同一文内で共起する2つの述語は何らかの関係\footnote{ここで言う関係とは,\ssec{instance_anc}における何らかの関係と同じであり,含意関係や因果関係のことである.また,述語の間の順序関係について述べない.}を満たす.\item同一文内で2つの述語が共起するという状況下において,2つの述語の項が伴う名詞をそれぞれの項毎に独立に集めたとき,2つの名詞集合の両方において出現する名詞は,2つの述語の項の間で共有されるような名詞である.\end{itemize}\fig{overview}の文(3a)と(3b)について考察する.この2文は独立した文であり,同一文章内の2文であっても,異なる文章の2文であってもよい.この2文はともに述語「焼く」と述語「焦げる」を含む.(3a)では名詞「パン」が「焼く」のヲ格にあり,(3b)では名詞「パン」が「焦げる」のガ格にある.ここから名詞「パン」は,「焼く」のヲ格に伴うことができ,かつ「焦げる」のガ格に伴うこともできるということがわかる.仮説から,「焼く」のヲ格と「焦げる」のガ格は同じ名詞(少なくとも名詞「パン」)を伴うことができるということがわかる.このときの名詞「パン」は,「焼く」のヲ格と「焦げる」のガ格が共有項である可能性を示す名詞である.このような名詞を「タイプアンカー」と呼ぶ.この名称の理由は,(3a)の「パン」と(3b)の「パン」は同じものを指していないが,同じタイプであるためである.タイプアンカーの集合は次のように求める.述語対$\emph{Pred}_1$と$\emph{Pred}_2$が与えられたとき,コーパス全体から$\emph{Pred}_1$と$\emph{Pred}_2$が共起する文を探し,次に示すように,どちらか片方の述語の項を埋める名詞の出現頻度を計算する.\begin{itemize}\item$\emph{Pred}_1$の項$\emph{Arg}_1$に名詞\emph{Anc}があれば,\bracket{$\emph{Pred}_1$-$\emph{Arg}_1$;$\emph{Pred}_2$;\emph{Anc}}の頻度を増やす.\item$\emph{Pred}_2$の項$\emph{Arg}_2$に名詞\emph{Anc}があれば,\bracket{$\emph{Pred}_1$;$\emph{Pred}_2$-$\emph{Arg}_2$;\emph{Anc}}の頻度を増やす.\end{itemize}$\emph{Pred}_1$-$\emph{Arg}_1$と$\emph{Pred}_2$-$\emph{Arg}_2$の間で共有された名詞集合の交差集合を計算する.すなわち,\[\mathit{AnchSet}(\mathit{Pred}_1\text{-}\mathit{Arg}_1,\mathit{Pred}_2\text{-}\mathit{Arg}_2)=S_1\capS_2,\]となる.このとき,\begin{align*}S_1&=\{\mathit{Arg}|\langle\mathit{Pred}_1\text{-}\mathit{Arg}_1;\mathit{Pred}_2;\mathit{Anc}\rangle\},\\S_2&=\{\mathit{Arg}|\langle\mathit{Pred}_1;\mathit{Pred}_2\text{-}\mathit{Arg}_2;\mathit{Anc}\rangle\}.\end{align*}である.\subsection{共有項同定:アンカー集合の利用}インスタンスアンカーとタイプアンカーに共通する性質を利用して次の目的を達成する.\begin{itemize}\itemアンカーを持つ述語対候補は何らかの関係を満たすという性質を利用し,何らかの関係を満たさないような述語対候補を除く.\item述語対の項対の共有項を見付けることができるというアンカーの性質を利用し,述語対候補の項対の共有項を同定する.\end{itemize}このとき,ある述語対のある項対に対応するアンカーが見付かった場合,その項対は\emph{アンカーを持つ}と言うことにする.また,ある述語対の項対がアンカーを持てば,その述語対もアンカーを持つとみなす.逆にある述語対の項対がアンカーを持てば,その述語対もアンカーを持つとみなす.\fig{overview}の例を用いて,アンカーによる述語対候補のフィルタリングと共有項同定について説明する.述語対獲得から述語対候補$\emph{焼く}\rightarrow_{行為—効果関係}\emph{焦げる}$を得る.この述語対候補のインスタンスアンカーには「パン」「肉」「オーブン」「トースター」の4つの名詞が存在するため,この述語対候補はインスタンスアンカーを持つ.同様に,タイプアンカーも4つの名詞を持つため,この述語対候補はタイプアンカーも持つ.このときアンカーが存在しなければ,この述語対候補は何の関係も満たさないとみなして候補から除かれるが,この例ではインスタンスアンカーとタイプアンカーを持つため,所与の関係を満たす可能性のある述語対であると見なされる.さらに,この述語対は,アンカー「パン」と「肉」より「焼く」のヲ格と「焦げる」のガ格が共有項であり,アンカー「オーブン」と「トースター」より「焼く」のデ格と「焦げる」のデ格も共有項であるとみなす.アンカーを用いて,述語対獲得によって獲得した述語対候補それぞれに対して次の手続きを実行する.\begin{enumerate}\itemアンカーを持たない述語対を除く.\item述語対毎に項対を選ぶ.このとき頻度の高い項対を最大で$k$個を選ぶ(実験では$k=3$).\item項対毎にアンカーを選ぶ.このとき頻度の高いアンカーを最大で$l$個を選ぶ(実験では$l=3$).\end{enumerate}
\section{実験設定}
\label{ssec:settings}述語間関係獲得手法の性能を確認するために,Kawaharaとkurohashiが獲得したWebコーパス約5億文~\cite{kawahara:NAACL06}を用いた.このコーパスに含まれる文に対してMecabで形態素解析を行い,CaboCha~\cite{cabocha}で係り受け解析を行い,述語表現の共起事例を獲得した.頻度20回未満の共起パターンを伴う述語表現は計算コストを削減するために削除した.実験では,Inuiら\cite{inui:DS03}の4つの因果関係のうち行為—効果関係(Inuiらの分類ではEffectに相当する)と行為—手段関係(Inuiらの分類ではMeansに相当する)を獲得し,評価した.行為—効果関係は,非意志的な出来事$y$の起るように直接または間接的にしばしば意志的な行為$x$を行うことであり,$x$と$y$の間に必然性がなくてもよい.例えば,行為「Xが運動する」と出来事「Xが汗をかく」は行為—効果関係を満たす.また「飲む」の結果として「二日酔いになる」ことに必然性はないが,これも行為—効果関係を満たす.一方で行為—手段関係は行為$x$を行うためにしばしば行為$y$を行うことであり,$x$と$y$の間に必然性がなくともよい.例えば,「Xが走る」は「Xが運動する」ためにしばしば行うことであるため行為—手段関係を満たす.実験では,12,000以上の動詞に対して意志性の有無を人手で付与した.これには,8,968の意志性のある動詞,3,597の意志性のない動詞,547の意志性の有無が曖昧な動詞を含んでいる.意志性のある動詞は「食べる」「研究する」等であり,意志性のない動詞は「温まる」「壊れる」「悲しむ」等である.この動詞の意志性の有無に関する情報は,共起パターンを用いて述語対を獲得する際に述語の素性として用いる.
\section{実験結果}
\label{sec:result}\subsection{関係獲得}\label{ssec:result_relation}パターン方式の手法を用いて,行為—効果関係と行為—手段関係の述語対を獲得した.このとき,行為—効果関係では正例25,負例4のシード述語対,行為—手段関係では正例174,負例131のシード述語対を用いた.また,ブートストラップを40回繰り返した後,行為—効果関係では9,511共起パターンと22,489事態対,行為—手段関係では14,119共起パターンと13,121述語対を獲得した.獲得した述語対を信頼度の順番に並べ,4つの範囲(1--500,501--1,500,1,501--3,500,3,501--7,500)からそれぞれ100述語対をランダムに取得した(行為—効果関係の400述語対と行為—手段関係の400述語対の合計800述語対).この述語対候補に対して,アンカー方式を用いてフィルタリングし,共有項を付与した.このとき,インスタンスアンカーまたはタイプアンカーによって共有項を付与された述語対は,行為—効果関係で254述語対,行為—手段関係で254述語対であった.共有項を付与できた事例の一部を\tab{examples}に示す.\begin{table}[b]\caption{獲得した述語対と共有項とアンカーの例}\label{tab:examples}\input{07table01.txt}\end{table}共有項を付与できた述語対と付与できなかった述語対に対して,2人の評価者により述語対の関係が正しいかを判定した(行為—効果関係の400述語対と行為—手段関係の400述語対の合計800述語対を評価した).このとき,与えられた述語対が所与の関係を満たすときに述語対が必要とする項対とアンカーの組を評価者が最低でも1つ以上想像できない場合は,その述語対の関係は正しくないと判断した.例えば,述語対「かける」と「つながる」は正しい行為—効果関係であるが,この関係は,「電話」というアンカーが「かける」のヲ格と「つながる」のガ格が共有項であるときに満たされる.\begin{align*}&かける(を:\mathit{X})\rightarrow_{行為—効果関係}つながる(が:\mathit{X})\\&(X\in\{電話\})\end{align*}評価者は,共有項を付与できた述語対については,評価者は共有項とアンカーを想像するために,機械的に付与された共有項とアンカーを参照してもよいとした\footnote{述語対候補の関係を評価する場合において,機械的に付与された共有項とアンカーは評価者の作業を補助するための情報である.仮に機械的に付与したアンカーと共有項が全て誤りであったとしても,評価者が述語対の関係を誤りであると評価するとは限らない.述語対の関係は,評価者が述語対の関係が正しいときのアンカーと共有項を想像できたかできないかによって決定する.}.2人の評価結果は,400事例のうち,行為—効果関係では294事例,行為—手段関係では297事例が一致し,一致度は然程高くない.しかし,1人目の評価は一貫して厳しい判定基準で,2人目の評価は一貫して寛容な基準であるように見える.その証拠に2人目の評価結果が正しいと仮定した場合,1人目の評価の精度と相対再現率は行為—効果関係で0.71と0.97であり,行為—手段関係で0.75と0.99となり,2人の間で評価の厳しさの基準は異なっているが個々の評価基準は一貫しており,厳しい基準を考えると両者の評価はよく一致していると言える.これを受けて,評価者2人が共に正しいとした事例のみを正解とみなした.\begin{table}[b]\caption{関係獲得の精度と相対再現率}\label{tab:rel-prec}\input{07table02.txt}\end{table}評価結果を\tab{rel-prec}に示す.なお,行為—効果関係の評価結果も行為—手段関係の評価結果も同じ傾向を示しているため,行為—効果関係の評価結果に注目して説明する.また,今回の実験で用いたコーパスから獲得可能な全て行為—効果関係(または行為—手段関係)を満たす述語対のリスト,または,特にコーパスを限定しない行為—効果関係(または行為—手段関係)を満たす述語対のリストを用意することができれば再現率を計算できるが,このようなリストを用意することは困難であり,かつこのようなリストは存在しないため再現率を計算することは難しい.そこで,本実験では我々が評価した400述語対を用いて相対再現率を計算し,ここから本手法が再現率に及ぼす影響を考察する.アンカーを用いないパターン方式のみの評価結果を,\tab{rel-prec}の「パターン方式」の「全て」に示した.先にサンプルした400述語対のうち269述語対が正しい関係を満たした.精度は,269述語対を400述語対で割って0.67と計算した.また,このときの相対再現率は1.00である.パターン方式で獲得した述語対候補をアンカー方式でフィルタリングした場合の評価結果を\tab{rel-prec}の「アンカーを持つ事例」に示した.先にサンプルした400述語対のうち175述語対はインスタンスアンカーを持ち,そのうち144述語対は正しい関係を満たした(「アンカーを持つ事例」の「インスタンス」).142述語対を175述語対で割って精度0.81を計算した.さらに,インスタンスアンカーを用いたときに正しく関係を満たす144事例を,評価した400述語対のうち正しく関係を満たす269述語対で割って相対再現率0.52を計算した.一方で,タイプアンカーを持つ事例は169事例中143事例が正しい関係を満たした(「アンカーを持つ事例」の「タイプ」).このときの精度は0.84であり,相対再現率は0.53である.ここから,インスタンスアンカーを用いた場合もタイプアンカーを用いた場合も同程度の精度と相対再現率であり,どちらも再現率を犠牲にする代わりに高い精度を得ていることがわかる.インスタンスアンカーまたはタイプアンカーのどちらかのアンカーを持つ述語対の評価結果を「アンカーを持つ事例」の「混成」に示した.インスタンスアンカーのみまたはタイプアンカーのみの場合と比較して,同程度の精度であるが相対再現率が向上している.この結果から,インスタンスアンカーとタイプアンカーを組み合わせることで精度を犠牲にせずに再現率を改善できることがわかる.タイプアンカーとインスタンスアンカーは高い精度と低い相対再現率という似た傾向を示すが,カバーしている述語対は互いに異なるため2つのアンカーを組み合わせることで再現率が改善されたと考えられる.本実験で用いたパターン方式の手法は,所与の関係にある述語対をその確からしさを表わすスコアと共に導く.そこで,述語対候補をこのスコアでフィルタリングした場合と,アンカー方式(インスタンスアンカーとタイプアンカーの組み合わせ)によりフィルタリングした場合で精度と相対再現率を比較する.アンカー方式ではフィルタリングにより結果400事例中254事例を残した.これと比較するために,400事例からスコアの高い上位254事例について精度と相対再現率を計算した(「パターン方式」の「高スコア254件」).スコアによるフィルタリングの結果(「パターン方式」の「高スコア254件」)とアンカー方式(「アンカーを持つ事例」の「混成」)によるフィルタリングの結果を比較すると,精度と相対再現率の両方においてアンカー方式の方が良い結果である.この結果は,パターン方式の述語対獲得手法にアンカー方式のフィルタリングを組み込むことで述語対獲得の性能を改善できることを示唆している.さらに,共有項を付与できた254述語対(「アンカーを持つ事例」の「混成」)について信頼度毎の述語対の数と,共有項を付与できない146述語対\footnote{評価した400述語対のうち共有項を付与できた254述語対を除いた残りの述語対.}について信頼度毎の述語対の数を比較した結果を\fig{effect_shared},\fig{means_shared}に示す\footnote{この図においては,小数点第2位で四捨五入して信頼度を用いた.}.ここから,共有項を付与できた述語対も付与できない述語対も信頼度の面からは類似した傾向を持つため,共有項を付与できたことと信頼度の間には強い相関がないことがわかる.この結果から,共有項によるアンカー方式は信頼度によるパターン方式とは異なる性質を持ち,この2つを組み合わせることが有効であることがわかる.\begin{figure}[b]\begin{minipage}[t]{.45\textwidth}\begin{center}\includegraphics{17-1ia7f2.eps}\caption{共有項の有無と信頼度(行為—効果関係)}\label{fig:effect_shared}\end{center}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\begin{center}\includegraphics{17-1ia7f3.eps}\caption{共有項の有無と信頼度(行為—手段関係)}\label{fig:means_shared}\end{center}\end{minipage}\end{figure}\subsection{共有項同定}共有項同定の評価結果を示す.評価者2人に,インスタンスアンカーとタイプアンカーを組み合わせた手法で共有項を付与することができた述語対の内,所与の関係を満たすと判断された事例について,付与された共有項が正しいかどうかを尋ねた(行為—結果関係で203述語対,行為—手段関係で196述語対).次の2種類の基準で共有項の正しさを評価した.\begin{itemize}\item共有項(1-best):最も頻度の高い共有項が正しい場合を正解とした.\item共有項(3-best):頻度の高い最大3つの共有項のうち1つ以上が正しい場合を正解とした.\end{itemize}評価結果を\tab{arg-prec}に示す.この評価結果も,評価者2人が両方とも正しいとした事例のみを正解とした.\begin{table}[b]\caption{共有項同定の精度}\label{tab:arg-prec}\input{07table03.txt}\end{table}続けて,共有項によって共有されているアンカーの正しさを,次の3種類の基準で評価した.\begin{itemize}\item共有名詞(厳格):最大3つのアンカーが全て正しい場合を正解とした.\item共有名詞(寛容):最大3つのアンカーのうち1つ以上が正しい場合を正解とした.\end{itemize}評価結果を\tab{noun-prec}に示す.この評価結果も,評価者2人が両方とも正しいとした事例のみを正解とした.\tab{arg-prec}と\tab{noun-prec}から,アンカー方式の手法は高い精度で共有項とアンカーを同定できていることがわかる.この手法の精度は,獲得したアンカーの良さに依存しているが,インスタンスアンカーもタイプアンカーも実際に出現した事例から獲得しているため,結果的に高い精度に結び付いたと考えられる.しかし,「共有項(1-best)」かつ「共有名詞(厳格)」の精度はまだ改善の余地はあるとみられるが,これは将来の課題である.\begin{table}[t]\caption{共有項同定と共有名詞同定の精度}\label{tab:noun-prec}\input{07table04.txt}\end{table}また,典型的な誤りとその原因を次に示す.\begin{itemize}\item[(1)]項の誤り\begin{itemize}\item[(1a)]コーパス中において不適切に格を用いていたため,誤った格を伴う知識が獲得されている.\item[(2b)]係り受け解析器の誤りのため,誤った項を伴う知識が獲得されている.\end{itemize}\item[(2)]アンカーの誤り\begin{itemize}\item[(2a)]コーパス中において表記は等しいが,それが指す実体が異なる名詞をインスタンスアンカーが共有名詞とみなしてしまうことにより,誤った共有項を伴う知識が獲得されている.\item[(2b)]コーパス中において名詞が多義であったため,タイプアンカーにより誤った共有項を伴う知識が獲得されている.\end{itemize}\end{itemize}理由(1a)の問題は低頻度の事例を除くことで,理由(1b)の問題は\ssec{instance_anc}で述べた係り受け解析器の誤りを除くための制約を強くすることで解決することができる.しかし,理由(2a),(2b)の問題は本手法で対処することが難しく,これを解決するためには同一表記の実体の同一性を判定する照応技術を導入する必要がある.理由(2a),(2b)の誤り例を次に示す.\begin{align*}&Xが操作する\rightarrow_{行為—効果関係}Xが動く(X=プレイヤー)\\&Xを雇う\rightarrow_{行為—効果関係}Xに雇われる(X=他人)\\&Xから到着する\rightarrow_{行為—手段関係}Xから旅する(X=空港)\end{align*}
\section{まとめと今後の研究}
\label{sec:discussion}述語間関係獲得のためにパターン方式の関係指向のアプローチとアンカー方式の項指向のアプローチの相補的な性質に注目し,パターン方式による述語対獲得とアンカー方式による共有項同定を組み合わせた2段階手法を提案し,これを実験し評価した.この結果,(a)アンカー方式のフィルタリングは事態対獲得の精度を改善し,(b)インスタンスアンカーとタイプアンカーは同じくらいの性能で,これらを組み合わせることで精度を犠牲にせずに(相対)再現率を改善でき,(c)アンカー方式は共有項同定で高い精度を達成することがわかった.将来的には3つの方向を考えている.1つめは評価方法の改善であり,コーパスベースの評価とタスクベースの評価を検討している.Szpektorら\cite{Szpektor2008}は,英語コーパスに対して事態に関する情報が付与されたAutomaticContentExtraction(ACE)のeventtrainingset\footnote{http://projects.ldc.upenn.edu/ace/}を用いて,自動獲得した事態間の含意関係知識を評価した.しかし,これは英語に関する評価セットであり,日本語のコーパスに対して同様の情報を付与した評価セットは存在しない.そのため,Szpektorらのようにコーパスベースの評価を行うためには,日本語の評価セットを作成する必要がある.評価セットの作成を含めてコーパスベースの評価を検討している.また他にも特定のタスクに述語間関係知識を適用し,その結果を評価することを検討している.2つめは,ゼロ照応解析~\cite[etc.]{iida:ACL06,komachi2007}の利用して共有項同定を行うことを検討している.本稿では,所与の関係を満たす述語対とその共有項を獲得するためにパターン方式とアンカー方式を組み合わせる手法を提案したが,もうひとつ方法として,ゼロ照応解析とパターン方式を組み合わせることでも所与の関係を満たす述語対とその共有項を獲得できる可能性がある.しかし,現在のゼロ照応解析の精度は然程高くないため,本稿ではパターン方式とアンカー方式を組み合わせる手法を用いた.ただし,現状のゼロ照応解析の精度でも,アンカー方式を改善するための前処理としてゼロ照応解析用いることはできる可能性がある.この方法の検証を検討している.3つめは,アンカー方式の結果を文内のゼロ照応解析に利用することを検討している.これによりゼロ照応解析の精度を向上させることができる可能性がある.\appendix
\section{パターン方式の手法}
\label{sec:patt_method}実験で用いたパターン方式の手法であるAbeら~\cite{abe:08}の手法の概要を述べる.本稿ではこの手法を拡張Espressoと言うことにする.拡張Espresoは,共起パターンを利用して実体対を獲得する手法であるEspressoを,共起パターンを利用して事態対を獲得するように拡張したものである.Espressoに対する拡張Espressoの主要な変更点は次の2つである.\begin{itemize}\itemEspressoにおける実体対は名詞句の対であるが,拡張Espressoの事態対は述語または述語句の対である.\itemEspressoにおける共起パターンは名詞句の対の間にある文字列であるが,拡張Espressoの共起パターンは係り受け関係の木を考えた場合の事態対の間のパスに相当する.\end{itemize}\subsection{Espresso}Espressoは,共起パターンを用いた実体間関係獲得手法のひとつであり,共起パターンを用いた手法に共通する,任意の関係のみを表現する共起パターンを用いて任意の関係にある実体対を獲得でき,任意の関係のみで表現される実体対を用いることで,任意の関係のみを表現する共起パターンを獲得できるという仮定を持っている.さらにEspressoは,共起パターンまたは実体対が任意の関係を表わす程度を信頼度という指標で表わし,信頼度の高い共起パターンとよく共起する実体対は信頼度が高く,信頼度の高い述語対とよく共起する共起パターンも信頼度が高いという仮定をおいた.このとき,Espressoは人手で作成した任意の関係にある信頼度の高い実体対を入力として,これと共起する信頼度の高い共起パターンを獲得する.次に信頼度の高い共起パターンを用いて,信頼度の高い実体対を獲得する.この操作をブートストラップ的に繰り返すことで,信頼度の高い実体対を大量に獲得する.\subsection{共起パターンの信頼度}獲得したい関係にある実体対\bracket{$x,y$}が与えられたとき,Espressoは$x$と$y$の両方が含まれた文をコーパスから探し出す.例えば,\textsl{is-a}関係の実体対\bracket{\textit{Italy,country}}が与えられたとき,Espressoはテキスト\textit{countriessuchasItaly}が含まれるような文を見つけ出し,共起パターン\textit{YsuchasX}を獲得する.Espressoは共起パターン$p$の良さを測るために信頼度$r_\pi(p)$という尺度を用いる.共起パターンの信頼度$r_\pi(p)$は,共起パターン$p$と共起する実体対$i$の信頼度$r_\iota(i)$から求められる.$I$は共起パターン$p$と共起する実体対$i$の集合である.\begin{eqnarray}\label{eq:rpi}r_\pi(p)=\frac{1}{|I|}\sum_{i\inI}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\iota(i)\end{eqnarray}$\mathit{pmi}(i,p)$は\eq{pmi}で定義される$i$と$p$のpointwisemutualinformation(PMI)であり,$i$と$p$の関連度を表現する.$max_{pmi}$は,共起パターンと実体対が共起した場合全てのPMIの中で最大となるPMIである.\begin{eqnarray}\label{eq:pmi}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\end{eqnarray}PMIは頻度が少ないときに不当に高い関連性を示すという問題が知られている.この問題を軽減するために,Espressoでは\eq{pmi}の代りに\cite{pantel2004}で定義された\eq{pmi2}を用いる.\begin{eqnarray}\label{eq:pmi2}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\times\frac{C_{xy}}{C_{xy}+1}\times\frac{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})}{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})+1}\end{eqnarray}$C_{xy}$は$x$と$y$が同時に出現した回数,$C_{x_i}$は個々の$x$の出現した回数,$C_{y_j}$は個々の$y$の出現した回数,$n$は$x$の異り数,$m$は$y$の異り数である.\subsection{実体対の信頼度}共起パターンの信頼度と同じように,実体対$i$の信頼度$r_\iota(i)$を次のように定義する.\begin{eqnarray}\label{eq:rl}r_\iota(i)=\frac{1}{|P|}\sum_{p\inP}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\pi(p)\end{eqnarray}共起パターン$p$の信頼度$r_\pi(p)$は,前述の\eq{rpi}で定義され,$max_{pmi}$は先の定義と同じであり,$P$は実体対$i$と共起する共起パターン$p$の集合である.共起パターンの信頼度$r_\iota(i)$と実体対の信頼度$r_\pi(p)$は再帰的に定義され,人手で与えたシード$i$の信頼度を$r_\iota(i)=1$とする.なお,我々の拡張では,人手で与えた負例関係にある述語対の信頼度を$r_\iota(i)=-1$とした.\acknowledgment「Web上の5億文の日本語テキスト」の使用許可を下さった情報通信研究機構の河原大輔氏と京都大学大学院の黒橋禎夫氏に感謝いたします.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abe,Inui,\BBA\Matsumoto}{Abeet~al.}{2008}]{abe:08}Abe,S.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQAcquiringEventRelationKnowledgebyLearningCooccurrencePatternsandFertilizingCooccurrenceSampleswithVerbalNouns.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\497--504}.\bibitem[\protect\BCAY{Chklovski\BBA\Pantel}{Chklovski\BBA\Pantel}{2005}]{chklovski}Chklovski,T.\BBACOMMA\\BBA\Pantel,P.\BBOP2005\BBCP.\newblock\BBOQGlobalPath-basedRefinementofNoisyGraphsAppliedtoVerbSemantics.\BBCQ\\newblockIn{\BemProceedingsofJointConferenceonNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Harris}{Harris}{1968}]{harris}Harris,Z.\BBOP1968\BBCP.\newblock\BBOQMathematicalStructuresofLanguage.\BBCQ\\newblockIn{\BemInterscienceTractsinPureandAppliedMathematics}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida:ACL06}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingsyntacticpatternsascluesinzero-anaphoraresolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheACL},\mbox{\BPGS\625--632}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Inui,Inui,\BBA\Matsumoto}{Inuiet~al.}{2003}]{inui:DS03}Inui,T.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQWhatkindsandamountsofcausalknowledgecanbeacquiredfromtextbyusingconnectivemarkersasclues?\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonDiscoveryScience},\mbox{\BPGS\180--193}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara:NAACL06}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{komachi2007}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearningBasedArgumentStructureAnalysisofEvent-nounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{cabocha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2001}]{lin:01}Lin,D.\BBACOMMA\\BBA\Pantel,P.\BBOP2001\BBCP.\newblock\BBOQDIRT:discoveryofinferencerulesfromtext.\BBCQ\\newblockIn{\BemProceedingsoftheseventhACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining},\mbox{\BPGS\323--328}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel2006}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel2004}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnology/NorthAmericanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pekar}{Pekar}{2006}]{pekar:06}Pekar,V.\BBOP2006\BBCP.\newblock\BBOQAcquisitionofVerbEntailmentfromText.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Szpektor\BBA\Dagan}{Szpektor\BBA\Dagan}{2008}]{Szpektor2008}Szpektor,I.\BBACOMMA\\BBA\Dagan,I.\BBOP2008\BBCP.\newblock\BBOQLearningEntailmentRulesforUnaryTemplates.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\849--856}.\bibitem[\protect\BCAY{Szpektor,Tanev,Dagan,\BBA\Coppola}{Szpektoret~al.}{2004}]{szpektor-EtAl:2004:EMNLP}Szpektor,I.,Tanev,H.,Dagan,I.,\BBA\Coppola,B.\BBOP2004\BBCP.\newblock\BBOQScalingWeb-basedAcquisitionofEntailmentRelations.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofEMNLP2004},\mbox{\BPGS\41--48}\Barcelona,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2006}]{torisawa:NAACL}Torisawa,K.\BBOP2006\BBCP.\newblock\BBOQAcquiringInferenceRuleswithTemporalConstraintsbyusingJapaneseCoordinatedSentencesandNoun-VerbCo-occurrences.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologyConference/NorthAmericanchapteroftheAssociationforComputationalLinguisticsannualmeeting(HLT-NAACL06)},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Zanzotto,Pennacchiotti,\BBA\Pazienza}{Zanzottoet~al.}{2006}]{zanzotto:06}Zanzotto,F.~M.,Pennacchiotti,M.,\BBA\Pazienza,M.~T.\BBOP2006\BBCP.\newblock\BBOQDiscoveringAsymmetricEntailmentRelationsbetweenVerbsUsingSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\849--856}.\end{thebibliography}\begin{biography}\bioauthor{阿部修也}{2008年奈良先端科学技術大学院大学後期課程単位取得満期退学.同年,奈良先端科学技術大学院大学研究員,現在に至る.専門は自然言語処理.情報処理学会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.博士(工学).同研究科助手,九州工業大学情報工学部助教授を経て,2002年より奈良先端科学技術大学院大学情報科学研究科助教授.現在同研究科准教授,情報通信研究機構有期研究員を兼任.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員,ComputationalLinguistics編集委員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.博士(工学).同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V09N02-05
|
\section{はじめに}
差分検出を行なうdiffコマンドは言語処理の研究において役に立つ場面が数多く存在する.本稿では,まず簡単にdiffの説明を行ない,その後,diffを使った言語処理研究の具体的事例として,差分検出,書き換え規則の獲得,データのマージ,最適照合の例を示す\footnote{本稿は筆者のさまざまな言語処理研究におけるdiffというツールの使用経験を述べたものであり,今後の自然言語処理,言語学の研究に有益な知見を与えることを目的にしている.}.あらかじめ本稿の価値を整理しておくと以下のようになる.\begin{itemize}\itemdiffコマンドはUNIXで標準でついているため,これを用いることは極めて容易である.この容易に利用できるdiffコマンドを用いることで,さまざまな言語処理研究を行なうことができることを示している本稿は,容易さ,簡便さの観点から価値がある.\item近年,言い換えの研究が盛んになりつつある\cite{iikae_jws}.本稿の\ref{sec:kakikae}節では実際に話し言葉と書き言葉の違いの考察,また話し言葉と書き言葉の言い換え表現の獲得\cite{murata_kaiho_2001}にdiffが利用できることを示している.diffの利用は,話し言葉と書き言葉に限らず,多方面の言い換えの研究に役に立つと思われる.本稿はそれらの基盤的なものとなると思われる.\itemdiffコマンドは一般には差分の検出に利用される.しかし,本稿で述べるようにデータのマージや最適照合にも利用できるものである.本稿では\ref{sec:merge}節で,このデータのマージ,最適照合の例として,対訳コーパスの対応づけ,講演と予稿の対応づけ,さらに最近はやりの質問応答システム(「日本の首都はどこですか」と聞くと「東京」と答えるシステムのこと)といった,種々の興味深い研究をdiffという簡便なツールで実現する方法を示している.本稿はこのような研究テーマもしくは研究手段の斬新性といった側面も兼ね備えている.\end{itemize}
\section{diffとmdiff}
\label{sec:diff_and_mdiff}本節ではdiffについて説明する.本稿でいうdiffとはUNIXのファイル比較ツールdiffのことである.このコマンドは,与えられた二つのファイルの差分を順序情報を保持したまま行を単位として出力する\footnote{diffコマンドの内部のアルゴリズムについては文献\cite{algo}のp.282に説明がある.}.例えば,\begin{verbatim}今日学校へいく\end{verbatim}ということが書いてあるファイルと\begin{verbatim}今日大学へいく\end{verbatim}ということが書いてあるファイルがあるとする.これらのdiffをとると,差分の部分が\begin{verbatim}<学校へ>大学へ\end{verbatim}のような形で出力される.ところで,diffコマンドには\verb+-D+オプションという便利なオプションがある.これをつけてdiffコマンドを使うと差分部分だけでなく共通部分も出力される.つまりファイルのマージが実現される.また,差分部分はCのプリプロセッサなどで使われるifdef文などで表現される.この場合,場所によって差分部分の表示の順番が逆転しテキスト全体として差分の状態がわかりにくくなり,また,ifdefという機械的な記号だと人間の目で認識するのが困難であるため,ここでは差分部分は以下のように表示することにする\footnote{ここにifdef文からmdiffの出力への変形方法を記述しておく.ifdefが使われているときは順序を保存したまま,表現のみ``;▼▼▼▼▼▼''などに変更する.ifndefが使われているときは差分の順序を変更してから表現を``;▼▼▼▼▼▼''などに変更する.}.\begin{verbatim};▼▼▼▼▼▼(一つめのファイルにだけある部分);●●●(二つめのファイルにだけある部分);▲▲▲▲▲▲\end{verbatim}ここでは,``\verb+;▼▼▼▼▼▼+''は差分部分の始まりを,``\verb+;▲▲▲▲▲▲+''は差分部分の終りを意味し,``\verb+;●●●+''は差分を構成する二つのデータの境界を意味する.本稿では,\verb+-D+オプションをつけてさらにifdefの部分を上記のように表示して,ファイルのマージを行なう場合のdiffを{\bfmdiff}と呼ぶ(mはmergeのm).(mdiffの構成方法および使用方法については付録\ref{sec:exp_mdiff}をつけておいた.参考にしてほしい.)実際に先ほどのデータに対してmdiffをかけてみると,以下のような結果になる.\begin{verbatim}今日;▼▼▼▼▼▼学校へ;●●●大学へ;▲▲▲▲▲▲いく\end{verbatim}「今日」が一致し,「学校へ」と「大学へ」が差分となり,「いく」がまた共通部分となっている.mdiffの出力はdiffと異なり一致部分も出力されるためにわかりやすい.また,mdiffの結果からは元の二つのファイルのデータを完全に復元することができる.共通部分と,差分部分の黒丸(;●●●)の上側だけを取り出すと,\begin{verbatim}今日学校へいく\end{verbatim}のように一つ目のファイルの情報が取り出される.また,共通部分と,差分部分の黒丸(;●●●)の下側だけを取り出すと,\begin{verbatim}今日大学へいく\end{verbatim}のように二つ目のファイルの情報が取り出される.このように元の情報を完全に復元できる.また,mdiffでは一致部分は片方のデータにあったものだけを表示し,不一致部分のみ両方のデータのものを表示するために,元の二つのデータよりもデータ量は削減できるが,上記のように元の情報を完全に復元できるために,復元できる状態でデータ量を削減するという意味でmdiffはデータ圧縮を実現しているものともいえる.次に文字を単位としたmdiffを考える.言語処理の場合は文字単位で差分を取りたい場合が多い.そのようなときは一度ファイルの中身の情報を,一文字ずつ改行をして出力したファイルでmdiffをとればよい.例えば先のファイルの情報だと,\begin{verbatim}今日学校へいく\end{verbatim}という形にしてから,mdiffをとればよい.diffの表示は見にくく,mdiffはdiffで表示される情報を完全に含むので以降の説明はmidffを用いて行なう.以降の節では,実際にこのmdiffを使った言語処理の実例を見ていくこととする.
\section{差分検出,および,書き換え規則の獲得}
本節ではmdiffを用いて差分検出したり,またその差分結果から書き換え規則を獲得する研究などを記述する.具体的には,以下のものを示す.\begin{itemize}\item複数システムの出力の差分検出\item差分の考察と書き換え規則の獲得\end{itemize}\subsection{複数システムの出力の差分検出}\label{sec:system}筆者は以前,jumanのシステムのバージョン\cite{juman,araya_juman}が複数乱立しているとき,この複数のjumanの出力をmdiffによりマージして形態素結果の品質を向上させる\footnote{これは,文脈処理の研究\cite{murata_shuuron,murata_noun_nlp,murata_deno_nlp}を行なう際に,文脈処理の前段階の形態素解析,構文解析の誤りを修正するために行なっていた.}ことをしていた\footnote{同様の考え方は文献\cite{fujii1998}にもある.また,この種の考え方はシステム融合(複数のシステムを組み合わせることで個々のシステムの精度以上のものを得ることを目的としたもの)という形でよくしられている\cite{murata_nlc2001_wsd}.}.ここではこれを説明する.「といったこと」を解析し,jumanのAというバージョンの出力が\begin{verbatim}とと助詞いった言う動詞ことこと名詞\end{verbatim}となっていて,Bのバージョンの出力が\begin{verbatim}とと助詞いった行く動詞ことこと名詞\end{verbatim}となっているとしよう.「いった」という語は「行く」と「言う」の曖昧性があり,Bのバーションではこれを誤って「行く」の方の語であると出力していたとする.ここでmidffをとると以下のような結果となる.\begin{verbatim}とと助詞;▼▼▼▼▼▼いった言う動詞;●●●いった行く動詞;▲▲▲▲▲▲ことこと名詞\end{verbatim}mdiffをとることで複数のシステムの出力の差異を容易に検出することができる.この場合「いった」の部分の出力に差異があることがわかる.ここで,出力修正の作業者はこのような差分が検出された箇所においてどちらが正しいかを判断し,上が正しければなにもせず下が正しければ「;●●●」の先頭に``x''をつけるなどとすると決めておく.そのようにすると,``x''がなければ差分の下を,あれば差分の上の情報と区切り記号を消すことで,その作業結果のデータから自動的にそれぞれの差分からよい結果の方を選び,それぞれのバージョンのものよりも高い精度の結果を生成できる.また,差分の両方が誤っている場合がよくある.このときは「;●●●」の上の方のデータを実際に書き直すとよい.この方法を用いると,修正できないものは両方のバージョンで同じように誤るものだけであり,多くの形態素誤りを修正できる.ここで注意すべきことは異なる性質のシステムを複数用意しないといけないということである.誤り方が同じシステムの場合だと多くの誤りを見逃すことになる.また,システムが三つある場合はdiff3コマンドを使うとよい.diff3は三つのファイルの差分を検出することができる.上記では形態素解析を例にあげたが,他の解析でも解析結果を行単位にすることでmdiffで差分をとることができる.ここでは,複数のシステムの出力の差分をとる話をしたが,一つをタグつきコーパスとし,それをなにかのシステムで解析した結果と比較することで,そのタグつきコーパスの誤りを検出し修正する\footnote{コーパス修正の先行研究には文献のもの\cite{murata2000_3_nl,NLP2001}がある.}ということもできる.\begin{table}[t]\begin{center}\leavevmode\caption{書き言葉データと話し言葉データの例}\label{tab:write_talk_juman}\begin{tabular}{|l|}\hline\multicolumn{1}{|c|}{書き言葉データ}\\\hline本\\論文\\で\\は\\意味\\ソート\\に\\ついて\\述べる\\。\\一般に\\ソート\\は\\50\\音\\順\\\hline\end{tabular}\hspace{.5cm}\begin{tabular}{|l|}\hline\multicolumn{1}{|c|}{話し言葉データ}\\\hline今日\\は\\え\\意味\\ソート\\に\\ついて\\述べ\\ます\\一般に\\ソート\\って\\いう\\の\\は\\だいたい\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\leavevmode\caption{書き言葉データと話し言葉データのdiffの結果}\label{tab:write_talk_diff}\begin{tabular}{|l|}\hline;▼▼▼▼▼▼\\本\\論文\\で\\;●●●\\今日\\;▲▲▲▲▲▲\\は\\;▼▼▼▼▼▼\\;●●●\\え\\;▲▲▲▲▲▲\\意味\\ソート\\に\\(右欄につづく)\\\hline\end{tabular}\hspace{.5cm}\begin{tabular}{|l|}\hlineついて\\;▼▼▼▼▼▼\\述べる\\。\\;●●●\\述べ\\ます\\;▲▲▲▲▲▲\\一般に\\ソート\\;▼▼▼▼▼▼\\;●●●\\って\\いう\\の\\;▲▲▲▲▲▲\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\leavevmode\caption{差分部分の抽出}\label{tab:write_talk_diff_ext}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{書き言葉データ}&\multicolumn{1}{|c|}{話し言葉データ}\\\hline本論文で&今日\\&え\\述べる。&述べます\\&っていうの\\\hline\end{tabular}\end{center}\end{table}\subsection{差分の考察と書き換え規則の獲得}\label{sec:kakikae}ここでは,文献\cite{murata_kaiho_2001}でも述べた話し言葉と書き言葉のdiffの研究について記述する.この研究では,対応のとれた話し言葉と書き言葉のデータを使い,それらの差分から話し言葉と書き言葉の違いを考察したり,話し言葉から書き言葉への言い換え規則,また,その逆のための規則を獲得した.データとしては,学会の口頭発表を話し言葉データとし,その口頭発表の内容が記されたその学会の予稿原稿を書き言葉として用いた.例えば,話し言葉と書き言葉のデータが表\ref{tab:write_talk_juman}のような形で与えられたとする\footnote{ここではわれわれの意味ソートの論文\cite{murata_msort_nlp}のものを例にあげている.ところで,本稿ではdiffを扱ったが,その論文ではUNIXのsortコマンドを用いて様々な情報を意味の情報でソートする,つまり,順序付けて並べるということを行ない,それらが種々の言語処理にどのように役に立つかを議論している.興味があれば,この文献も読むことをお奨めする.}.ここでは,差分がとりやすいように形態素解析システムなどで1行に1単語がはいるような形に変換してある.このような書き言葉と話し言葉のデータが与えられたとき,mdiffをとると,表\ref{tab:write_talk_diff}のような結果を得る.この結果から,差分部分だけを抽出すると表\ref{tab:write_talk_diff_ext}のような結果が得られる.この結果から,話し言葉には「え」などが挿入されること,また話し言葉では「っていうの」という表現をいれて発話をなめらかにすることなどがわかる.また,「述べる」が「述べます」と言い換えられることがわかる\footnote{実際には,ここであげた例ほどきれいに話し言葉と書き言葉は対応がとれず,「本論文は」と「今日」のような言い換え表現としてはよくない対応が多く,確率などを用いたソートを用いて確信度の高い良質な差分情報を集めるということを行なう(これについては文献\cite{murata_kaiho_2001,murata_nl2001_henkei}を参照せよ).}.以上のようにmdiffを使うことで話し言葉と書き言葉の差異を検出でき,またそれを考察することで,話し言葉と書き言葉の違いを調査できることがわかる.また,これらの差分は話し言葉と書き言葉の言い換え規則としてみることもできる.例えば,「え」の部分は,書き言葉になにもないところに話し言葉に変換する場合「え」をいれるという規則のように見ることができる.また,「述べる」と「述べます」の部分は,話し言葉に変換する場合は「述べる」を「述べます」に言い換える規則のように見ることができる.その意味でmdiffを用いることで言い換え規則,もしくは,変換規則を検出できることがわかる.ここでは,話し言葉と書き言葉のデータを例にとったが,このようなことはさまざまなところで可能である.例えば,英文校閲前のテキストと英文校閲後のテキストで,mdiffをとると,どのような間違いをどのように直せばよいかがわかるし,また英文校閲用の規則が獲得できる.また,要約前のテキストと要約後のテキストで,mdiffをとると,どのように要約されているかを如実に見ることができるし,また要約用の規則が獲得できる\footnote{diffやmdiffは用いていないが,要約前のテキストと要約後のテキストで,DPマッチングを用い,どのように要約されているかを調べたり要約用の規則を獲得したりする研究として文献\cite{Kato1999,mochinushi2000}などがある.diffで行なうことはDPマッチングでもできる.diffは文献にもあるように最長共通部分列(longestcommonsubsequence)のアルゴリズムを用いるもので,共通部分が最大になるような形でデータの照合を行なう.このため,共通部分を評価値とするDPマッチングのプログラムを作るとその出力する結果はdiffとまったく等価となる.さらにDPマッチングでは品詞,意味情報なども評価値に使うことでより精密に照合を行なうことができる.このため,精度を重視する場合はDPなどをプログラミングした方がよい.しかし,それほど精度を重視せず研究として差異がどうなっているかを調べる程度ならばdiffでも十分役に立つ.}.その他にも対応のとれた性質の異なるデータに対してmdiffをとることで,さまざまな考察と,言い換え規則の獲得ができることだろう\footnote{ここでの議論とは逆に,性質の同じ対応のとれたデータに対してmdiffをとることも考えられる.この場合,性質が同じデータのため,差分としては等価な表現対,つまり,同義表現が獲得されることになる.実際,われわれは異なる辞書の定義文をmdiffにより照合することで,同義表現の獲得\cite{murata_nl2001_henkei}を行なっている.}.
\section{データのマージ,および,最適照合}
\label{sec:merge}本節ではmdiffのデータをマージする機能,および,そのマージの最適照合能力\footnote{diffの場合共通部分を最大にするような形で最適な照合を行なっている.}を利用したものについて記述する.具体的には以下の三つについて記述する.\begin{itemize}\item対訳コーパスの対応づけ\item講演と予稿の対応づけ\item最適照合能力を用いた質問応答システム\end{itemize}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Section1>+..................................................\verb+<Section2>+..................................................\end{minipage}}\\\hline\end{tabular}\caption{コーパスの構成}\label{tab:mt_corpus}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Section1>+;▼▼▼▼▼▼(日本語文の内容);●●●(英語文の内容);▲▲▲▲▲▲\verb+<Section2>+;▼▼▼▼▼▼(日本語文の内容);●●●(英語文の内容);▲▲▲▲▲▲\end{minipage}}\\\hline\end{tabular}\caption{mdiffによって対応づけられた対訳コーパス}\label{tab:mt_corpus_mdiff}\end{center}\end{figure}\subsection{対訳コーパスの対応づけ}\label{sec:taiyaku}ここでは対訳コーパスの対応づけを考える\footnote{対訳コーパスは,機械翻訳\cite{murata_nlc2001,modal2001}の研究を行なう上で重要な研究資料となる.}.ここで条件としてそれぞれのコーパスには対応する箇所に同じ記号が入っていることを前提とする.また,対応づけの単位はこの記号で区切られた部分であるとする.例を図\ref{tab:mt_corpus}にあげる.ここでは日本語のコーパスと英語のコーパスがまだばらばらに存在し,対応づけられていないとする.また,それぞれは図\ref{tab:mt_corpus}のように両方とも\verb+<Section1>+などの同じ形をしたセクション情報が与えられているとする.このとき,日本語と英語では同じセクションのものは同じ内容であるとする.この場合,これらのデータのmdiffをとることで,図\ref{tab:mt_corpus_mdiff}のような結果を得ることができる.この結果では,\verb+<Section1>+などが共通部分となり,その他の部分が不一致部分となる.この不一致部分では日本語と英語が上下にわかれて格納されることになる.このようにすることで,mdiffを用いて対訳データが作成されることになる.ここで示したものは,文ごとなどの細かい対応づけをするものでなく,セクションなどの大雑把なもので一見役に立たないように思えるかもしれないが,文の対応づけは難しい問題で,まずあらかじめ対応がとれていることがはっきりしている章,段落のレベルで対応づけをしてから細かい対応づけをするという考え方もあり\cite{haruno_ipsj97},その意味ではこのような粗い対応づけも役に立つ.また,ここで示したものは\verb+<Section1>+などの情報を認識させて区分するだけなのでそのようなことをするプログラムを書くことでも同じように対訳データの対応づけを行なうことができる.しかし,mdiffを使うとそのようなプログラムも書くこともなく対応づけを容易に実現できるのである.\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Chapter1>+(1章の内容)\verb+</Chapter1>+\verb+<Chapter2>+(2章の内容)\verb+</Chapter2>+\verb+<Chapter3>+(3章の内容)\verb+</Chapter3>+\end{minipage}}\\\hline\end{tabular}\caption{予稿データの構成}\label{tab:youkou_kousei}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm};▼▼▼▼▼▼\verb+<Chapter1>+(予稿のみの内容);●●●(講演のみの内容);▲▲▲▲▲▲(共通する内容);▼▼▼▼▼▼(予稿のみの内容);●●●(講演のみの内容);▲▲▲▲▲▲(共通する内容);▼▼▼▼▼▼\verb+</Chapter1>+\verb+<Chapter2>+(予稿のみの内容);●●●(講演のみの内容);▲▲▲▲▲▲\end{minipage}}\\\hline\end{tabular}\caption{予稿と講演のmdiffの結果}\label{tab:youkou_mdiff}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\begin{tabular}[h]{|l|}\hline{\begin{minipage}[h]{4cm}\verb+<Chapter1>+(講演のみの内容)(共通する内容)(講演のみの内容)\verb+</Chapter1>+\verb+<Chapter2>+(講演のみの内容)\end{minipage}}\\\hline\end{tabular}\caption{講演データへの章の情報の挿入結果}\label{tab:youkou_mdiff2}\end{center}\end{figure}\subsection{講演と予稿の対応づけ}\label{sec:sp_merge}本節では講演と予稿の対応づけ\cite{uchimoto2001}を考える.この講演と予稿は,先の書き換え規則の獲得でも述べた書き言葉データと話し言葉データに対応する.講演は学会の口頭発表で,予稿はその口頭発表に対応する論文のことである.このような講演と予稿が与えられたとき,講演の各部分と,予稿の各部分の対応がとれると,講演を聞いている時だと,それに対応する予稿の部分を参照できるし,予稿を読んでいるときだと,それに対応する講演の部分を参照できて便利である\cite{uchimoto2001,fujii_kaiho_2001}.本節ではこの講演と予稿の対応づけをmdiffで行なうことを考える.ここでは特に予稿の各章が講演のどこの部分に対応するかをmdiffでもとめることにする.ここで予稿と講演とは話は同じ順序でなされると仮定する.また,予稿の章が認識しやすいように予稿のデータには図\ref{tab:youkou_kousei}のように,``\verb+<Chapter1>+''のような記号を挿入しておく.この形にしておいて,予稿と講演のデータに対して,形態素解析をして各行に単語がくる状態でmdiffを使うことで,図\ref{tab:youkou_mdiff}のような結果を得る.ここで,差分部分で予稿に対応する上半分の方を,``\verb+<Chapter1>+''のような記号を除いてすべて消し去ると図\ref{tab:youkou_mdiff2}のような結果を得る.図では元の講演のデータに対して``\verb+<Chapter1>+''のような記号だけが挿入された形になる.つまり,講演のどの部分が予稿のどの章にあたるかがわかることになる.これは簡単にいうと,mdiffの照合能力を用いて予稿と講演を照合し,章の情報だけ残して予稿の情報を消し去ることにより,講演データに章の情報を挿入するということを行なっていることを意味する.このような予稿と講演の対応づけもmdiffを用いると簡単に行なえるのである\footnote{この予稿と講演の対応づけを実際に文献\cite{uchimoto2001}のデータで行なってみた.このときは,mdiffを用いまたデータは各行に単語がくるような状態で行なった.結果は文献\cite{uchimoto2001}の精度と同程度か少しよい程度であった.mdiffを使うこのような簡単な処理でもこのような結果を得ることができるのである.}.\subsection{最適照合能力を用いた質問応答システム}\label{sec:qa}本節ではmdiffの最適照合能力を用いた質問応答システム\cite{qa_memo,murata2000_1_nl,murata_QA_nlp2000ws,murata_nlp2001ws_true}について記述する.質問応答システムとは,例えば,「日本の首都はどこですか」と聞くと「東京」と答えそのものをずばり返すシステムである.知識が自然言語で書かれていると仮定すると,基本的には質問文と知識の文を照合し,その照合結果で疑問詞に対応するところを答えとして出力すればよい.例えば先の問題だと,「日本の首都は東京です」という文を探してきてこの文で疑問詞に対応する「東京」を解として出力するのである.ここではこれをmdiffで行なうことを考える.まず,質問文の疑問詞の部分をXに置き換え,また文末を平叙文に変換し,「日本の首都はXです」を得る.また,知識ベースから「日本の首都は東京です」を得る.ここでこの二つを一文字ずつ改行してからmdiffをとると以下のような結果を得る.\begin{verbatim}日本の首都は;▼▼▼▼▼▼X;●●●東京;▲▲▲▲▲▲です\end{verbatim}ここでXと差分部分で組になっているものを解とすると,「東京」を正しく取り出せることになる.ところで一文字単位に改行してからmdiffを使う場合少々文に食い違いがあっても答えを正しく取り出すことができる.例えば,知識ベースの文が「日本国の首都は東京です」であったとする.この場合はmdiffの結果は以下のようになる.\begin{verbatim}日本;▼▼▼▼▼▼;●●●国;▲▲▲▲▲▲の首都は;▼▼▼▼▼▼X;●●●東京;▲▲▲▲▲▲です\end{verbatim}差分部分は少し増えるがXに対応する箇所は「東京」のままで,解を正しく抽出できる.ところで,われわれが提案する質問応答システムでは類似度を尺度として用いた変形をくりかえし,質問文と知識データの文がより一致した状態で上記のような照合を行なう.このために類似度を定義する必要がある.mdiffを用いた場合は一致部分と不一致部分が認定できるので,類似度は(一致部分の文字数)/(全文字数)のような形で定義できる\footnote{ここではmdiffにより類似度を求めるようなことをしている.このようにmdiffは文の類似性/類似度を求めることにも役に立つ.}.ここで,「日本国」と「日本」を言い換える規則があれば「日本の首都はXです」を「日本国の首都はXです」と言い換えて照合し,不一致部分を減らすことで,より確実に解を得ることができる\footnote{\label{fn:qa}ここではmdiffに基づく質問応答システムを述べたが,このmdiffに基づく質問応答システムは文献\cite{murata_nlp2001ws_true}でも述べているように文献\cite{murata2000_1_nl}の研究の予備実験として構築したシステムである.精度の高いシステムを目指すならば,文献\cite{murata2000_1_nl}にあるような情報検索\cite{murata_irex_ir_nlp}で用いられるIDFなどの重みを単語に与えてなおかつ構文情報なども用いたシステム\cite{qa_memo}を構築した方がよい.といってもmdiffを使うだけでも簡単な質問応答システムは容易に構築できることは簡便さの観点から価値がある.}.
\section{おわりに}
本稿ではdiffを用いた言語処理の例を多数記述した.\ref{sec:system}節では複数システムの出力を融合することで個々のシステムの精度以上のものを得る研究をdiffを用いて実現する方法を述べた.この種の考え方はシステム融合という形で広く知られているもので,それがdiffで簡便に実現できることを示した.\ref{sec:kakikae}節では言い換えの研究の一例として話し言葉と書き言葉の違いの考察,また,話し言葉から書き言葉への言い換え規則,また,その逆のための規則の自動獲得をdiffで行なっている研究を紹介した.そこでは,話し言葉と書き言葉の言い換えを扱っていたが,言い換えの問題は,文を短縮する要約から,文を修正する文章校正支援,わかりにくい文からわかりやすい文を作成する平易文生成の研究まで幅広いものを含むものであり,それらでもdiffを用いることで,種々の考察や種々の書き換え規則の獲得を容易に実現することができる.この意味で本稿はこの今後発展の予想される言い換えの研究の基盤的なものとなると思われる.\ref{sec:merge}節ではデータのマージ,最適照合の例を示した.diffコマンドは一般には差分の検出に利用されるものなので,データのマージや最適照合にも利用できることを示した\ref{sec:merge}節の例はまた別の新しさがある.その節では対訳コーパスの対応づけ,講演と予稿の対応づけ,さらに最近はやりの質問応答システム(「日本の首都はどこですか」と聞くと「東京」と答えるシステムのこと)といった,種々の興味深い研究をdiffという簡便なツールで実現する方法を示した.本稿はこのような研究テーマもしくは研究手段の斬新性といった側面も兼ね備えている.本稿ではこのようにdiffを用いた言語処理の例を多数記述した.diffに関係することでここまでいろいろな例をまとめたものはおそらくないだろう.他にも面白い利用方法があると思う.本稿であげた多数の例を参考にし,より面白い利用方法を考えて使うのもよいし,本稿であげた例と同じような使い方をしてもよい.diffを使って効率よく様々な研究がなされていくことを期待したい.\appendix
\section{mdiffの構成方法および使い方}
label{sec:exp_mdiff}本付録では読者の便を考えmdiffの構成方法と使い方を記す.また,現在はこのプログラムは筆者のホームページ(http://www.crl.go.jp/jt/a132/members/murata/software/software.html)からダウンロードできる.\subsection{mdiffの構成方法}\label{sec:make_mdiff}筆者はmdiffはcshとperlを使って構成している\footnote{SunOSとSunSolarisのOSとLinuxの一部のOSで筆者はこのプログラムが実際に動くことを確認している.他のOSではプログラムを少々変更する必要があるかもしれない.}.\begin{verbatim}------------------------------------------------------------ファイルmdiff------------------------------------------------------------#!/bin/csh-f/usr/bin/diff-D@@@mm$*|~username/bin/Perl/tmpdiff_patch.pl#------------------------------------------------------------\end{verbatim}\begin{verbatim}------------------------------------------------------------ファイル~username/bin/Perl/tmpdiff_patch.pl------------------------------------------------------------#!/usr/local/bin/perl$|=1;while(<>){if(/^\#ifn?def(\/\*)?\@\@\@mm(\*\/)?/){$con=$_;while(<>){$con.=$_;if(/^\#endif(\/\*)?\@\@\@mm(\*\/)?/){#print";▼▼▼▼▼▼\n";print";▲▲▲▲▲▲\n";if($con=~/^\#ifndef/){if($con=~/^\#ifndef(\/\*)?\@\@\@mm(\*\/)?\n((\\.|\n)*)\#else(\/\*)?\@\@\@mm(\*\/)?/||$con=~/^\#ifndef(\/\*)?\@\\\@\@mm(\*\/)?\n((.|\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}print";●●●\n";if($con=~/\#else(\/\*)?\@\@\@mm(\*\/)?\n((.|\\\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}}elsif($con=~/^\#ifdef/){if($con=~/\#else(\/\*)?\@\@\@mm(\*\/)?\n((.|\\\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}print";●●●\n";if($con=~/^\#ifdef(\/\*)?\@\@\@mm(\*\/)?\n((.\\|\n)*)\#else(\/\*)?\@\@\@mm(\*\/)?/||$con=~/^\#ifdef(\/\*)?\@\@\\\@mm(\*\/)?\n((.|\n)*)\#endif(\/\*)?\@\@\@mm(\*\/)?/){print$3;}}print";▼▼▼▼▼▼\n";#print";▲▲▲▲▲▲\n";last;}}}else{print;}}exit;------------------------------------------------------------\end{verbatim}cshのプログラムの中からdiffとperlで書いた整形プログラム\\\verb+~username/bin/Perl/tmpdiff_patch.pl+を呼ぶことでdiffによる処理,さらに整形を実現している.またページの都合上,長い行の部分は``\verb+\\+''で分割している.実際のプログラミングは``\verb+\\+''を消してさらに改行せずに記述して欲しい.また,このプログラムでは本稿の表示と少し違う表示をする.本稿では\begin{verbatim};▼▼▼▼▼▼(一つめのファイルにだけある部分);●●●(二つめのファイルにだけある部分);▲▲▲▲▲▲\end{verbatim}と表示しているところ,このプログラムでは\begin{verbatim};▲▲▲▲▲▲(一つめのファイルにだけある部分);●●●(二つめのファイルにだけある部分);▼▼▼▼▼▼\end{verbatim}と表示する.つまり差分の始まりと終りを示す記号が逆転する.これは,理論の説明としては差分部分を挟んでいることを示す上の表示がよいが,みやすさとしては下の表示の方が見やすいからそうしているのである.下の表示だと差分部分とそれ以外との境目で,三角形の底辺が差分部分側に並び差分部分が見やすいのである.上の表示の方がみやすいという人はプログラムのその部分だけ書き直せばよい.ちょうど以下のように\begin{verbatim}#print";▼▼▼▼▼▼\n";#print";▲▲▲▲▲▲\n";\end{verbatim}コメントアウトして行があるのでそのコメントを削り,もとのをコメントアウトするとすぐに表示方法をかえることができる.プログラム中,\verb+~username+としている部分があるが,そのusernameの部分はそのUNIXシステムにloginしているユーザの名前にしてほしい(例:``\verb+~murata+'').また,二つのプログラムの実行許可は与えておき,\verb+mdiff+は環境変数PATHのとおっているところに,\verb+~username/bin/Perl/tmpdiff_patch.pl+は,\verb+~username/bin/Perl+のディレクトリに置くこと.また,mdiffのプログラム中の``/bin/csh''と``/usr/bin/diff''の部分と,\verb+tmpdiff_patch.pl+のプログラム中の``/usr/local/bin/perl''の部分は各マシンごとに,それらのコマンドがあるディレクトリに書き直すこと.\subsection{mdiffの使い方}\label{sec:use_mdiff}上のように二つのプログラムを記述しそれぞれのファイルを所定の場所におくとあとは以下のように打ち込んでmdiffを使うだけである.\begin{verbatim}mdiff<ファイル1><ファイル2>\end{verbatim}\verb+<ファイル1>+,\verb+<ファイル2>+は比較する二つのファイルである.例えば,二つのファイルが\begin{verbatim}------------------------------------------------------------<ファイル1>------------------------------------------------------------今日学校へいく------------------------------------------------------------<ファイル2>------------------------------------------------------------今日大学へいく------------------------------------------------------------\end{verbatim}であったとする.それで,mdiffを動かすと以下の出力を得る.\begin{verbatim}今日;▲▲▲▲▲▲学校へ;●●●大学へ;▼▼▼▼▼▼いく\end{verbatim}「学校へ」と「大学へ」の部分が差分として正しく抽出できる.あとはうまく行単位にデータを格納したファイルを二つ作り,これらを上記のようにmdiffにかければよい.そうすると様々な結果がmdiffにより出力される.\acknowledgment本稿の\ref{sec:sp_merge}節の話し言葉データと書き言葉データの対応づけの実験では独立行政法人通信総合研究所内元清貴研究員に実験データなどを提供してもらった.また,本稿には筆者が学生であったころの研究室の同僚のコメントが役に立っている.ここに感謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{新谷}{新谷}{1995}]{araya_juman}新谷研\BBOP1995\BBCP.\newblock\JBOQ日本語形態素解析システムJUMANの精度向上\JBCQ\\newblock\Jem{京都大学工学部学士論文}.\bibitem[\protect\BCAY{藤井,伊藤,秋葉,石川}{藤井\Jetal}{2001}]{fujii_kaiho_2001}藤井敦,伊藤克亘,秋葉友良,石川徹也\BBOP2001\BBCP.\newblock\JBOQ音声言語データの構造化に基づく講演発表の自動要約\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{春野}{春野}{1997}]{haruno_ipsj97}春野雅彦\BBOP1997\BBCP.\newblock\JBOQ辞書と統計を用いた対訳アライメント\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4).\bibitem[\protect\BCAY{石間,藤井,石川}{石間\Jetal}{1998}]{fujii1998}石間衛,藤井敦,石川徹也\BBOP1998\BBCP.\newblock\JBOQ日本語形態素・構文解析システム{JEMONI}の開発と評価について\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会98-NL-127}.\bibitem[\protect\BCAY{加藤,浦谷}{加藤,浦谷}{1999}]{Kato1999}加藤直人,浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7).\bibitem[\protect\BCAY{松本,黒橋,宇津呂,妙木,長尾}{松本\Jetal}{1992}]{juman}松本裕治,黒橋禎夫,宇津呂武仁,妙木裕,長尾真\BBOP1992\BBCP.\newblock\JBOQ日本語形態素解析システム{JUMAN}使用説明書version1.0\JBCQ\\newblock京都大学工学部長尾研究室.\bibitem[\protect\BCAY{望主,荻野,太田,井佐原}{望主\Jetal}{2000}]{mochinushi2000}望主雅子,荻野紫穂,太田公子,井佐原均\BBOP2000\BBCP.\newblock\JBOQ重要文と要約の差異に基づく要約手法の調査\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2000-NL-135}.\bibitem[\protect\BCAY{村田}{村田}{1995}]{murata_shuuron}村田真樹\BBOP1995\BBCP.\newblock\JBOQ日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{京都大学工学部修士論文}.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1996}]{murata_noun_nlp}村田真樹,長尾真\BBOP1996\BBCP.\newblock\JBOQ名詞の指示性を利用した日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf3}(1).\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{murata_deno_nlp}村田真樹,長尾真\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf4}(1).\bibitem[\protect\BCAY{村田,馬,内元,小作,内山,井佐原}{村田\Jetal}{2000a}]{murata_irex_ir_nlp}村田真樹,馬青,内元清貴,小作浩美,内山将夫,井佐原均\BBOP2000a\BBCP.\newblock\JBOQ位置情報と分野情報を用いた情報検索\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf7}(2).\bibitem[\protect\BCAY{村田,神崎,内元,馬,井佐原}{村田\Jetal}{2000b}]{murata_msort_nlp}村田真樹,神崎享子,内元清貴,馬青,井佐原均\BBOP2000b\BBCP.\newblock\JBOQ意味ソートmsort---意味的並べかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例---\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf7}(1),51--66.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2000c}]{murata2000_3_nl}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2000c\BBCP.\newblock\JBOQ決定リスト,用例ベース手法を用いたコーパス誤り検出・誤り訂正\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-136},49--56.\bibitem[\protect\BCAY{村田,内山,井佐原}{村田\Jetal}{2000d}]{murata_QA_nlp2000ws}村田真樹,内山将夫,井佐原均\BBOP2000d\BBCP.\newblock\JBOQ質問応答システムを用いた情報抽出\JBCQ\\newblock\Jem{言語処理学会第6回年次大会ワークショップ論文集},\BPGS\33--40.\bibitem[\protect\BCAY{村田,内山,井佐原}{村田\Jetal}{2000e}]{murata2000_1_nl}村田真樹,内山将夫,井佐原均\BBOP2000e\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},181--188.\bibitem[\protect\BCAY{村田,馬,内元,井佐原}{村田\Jetal}{2001a}]{murata_nlc2001}村田真樹,馬青,内元清貴,井佐原均\BBOP2001a\BBCP.\newblock\JBOQサポートベクトルマシンを用いたテンス・アスペクト・モダリティの日英翻訳\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2000-78}.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2001b}]{NLP2001}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2001b\BBCP.\newblock\JBOQ機械学習を用いた機械翻訳用モダリティコーパスの修正\JBCQ\\newblock\Jem{言語処理学会第7回年次大会}.\bibitem[\protect\BCAY{村田,井佐原}{村田,井佐原}{2001c}]{murata_nlp2001ws_true}村田真樹,井佐原均\BBOP2001c\BBCP.\newblock\JBOQ言い換えの統一的モデル---尺度に基づく変形の利用---\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2001d}]{murata_nlc2001_wsd}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2001d\BBCP.\newblock\JBOQ種々の機械学習手法を用いた多義解消実験\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2001-2}.\bibitem[\protect\BCAY{村田,井佐原}{村田,井佐原}{2001e}]{murata_nl2001_henkei}村田真樹,井佐原均\BBOP2001e\BBCP.\newblock\JBOQ同義テキストの照合に基づくパラフレーズに関する知識の自動獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-142}.\bibitem[\protect\BCAY{村田,馬,内元,井佐原}{村田\Jetal}{2001f}]{modal2001}村田真樹,馬青,内元清貴,井佐原均\BBOP2001f\BBCP.\newblock\JBOQ用例ベースによるテンス・アスペクト・モダリティの日英翻訳\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf16}(1).\bibitem[\protect\BCAY{村田,井佐原}{村田,井佐原}{2001g}]{murata_kaiho_2001}村田真樹,井佐原均\BBOP2001g\BBCP.\newblock\JBOQ話し言葉と書き言葉のdiff\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{Murata,Utiyama\BBA\Isahara}{Murataet~al.}{1999}]{qa_memo}Murata,M.,Utiyama,M.,\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\newblock\BBOQQuestionAnsweringSystemUsingSyntacticInformation\BBCQ.\newblockhttp://xxx.lanl.gov/abs/cs.CL/9911006.\bibitem[\protect\BCAY{佐藤}{佐藤}{2001}]{iikae_jws}佐藤理史\BBOP2001\BBCP.\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{島内,有澤,野下,浜田,伏見}{島内\Jetal}{1994}]{algo}島内剛一,有澤誠,野下浩平,浜田穂積,伏見正則\BBOP1994\BBCP.\newblock\Jem{アルゴリズム辞典}.\newblock共立出版株式会社.\bibitem[\protect\BCAY{内元,野畑,太田,村田,馬,井佐原}{内元\Jetal}{2001}]{uchimoto2001}内元清貴,野畑周,太田公子,村田真樹,馬青,井佐原均\BBOP2001\BBCP.\newblock\JBOQ予稿とその講演書き起こしの対応付けおよび書き起こしのテキストのテキスト分割\JBCQ\\newblock\Jem{言語処理学会年次大会},317--321.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N01-04
|
\section{はじめに}
情報検索において,検索対象となるデータはさまざまな人に記述されたものであり,同じ事柄を表す言葉であっても人によって表記が異なるために,ユーザは検索システムから意図した情報を得られないことがある.人間ならば柔軟に表記から意図を読み取り対応できるが,機械はこの柔軟性を備えていない.ここで考える表記の異なりとは,たとえば,「ウイルス」と「ウィルス」,「コンピュータ」と「コンピューター」といった一般的な表記の揺ればかりでなく,その他「機械を使って翻訳する」という事柄を表すために,ある人は「機械翻訳」,別の人は「機械による翻訳」と多少表現が異なるといった表記の違いといったあいまいな表現のことである.本研究では,このようなあいまいな表現を合わせて「表記の揺れ」と呼ぶ.情報検索においてあいまいな表現は性能低下を招く.日本語には表記の揺れが多く存在するために,日本語における情報検索は難しいものである.そこで,表記の揺れに対応できる類似尺度が必要である.これまでに,表記の揺れに対応できる尺度として,編集距離\cite{Korfhage97}が知られている.編集距離は一方の文字列をもう一方の文字列に一致させるために必要な最小限の編集操作の数である.編集操作には挿入,削除,置換があり,編集操作の数を距離として考える.このため,編集距離は二つの文字列の不一致な文字を計数する相違尺度とみることができる.そこで,本論文ではまず,この編集距離を一致する文字を計数する類似尺度に変換し,情報検索テストコレクションNTCIR1\cite{Kando98,Kageura97}を用いて実験を行ったが,その結果は満足できるものではなかった.その原因の一つは,文字をすべて同等に扱い,文章の意味に大きく関わるような文字と表記の揺れとなりうる文字を区別せずに計数したことにあると考えた.たとえば,ひらがなは助詞や助動詞を表現するために用いられることが多く,漢字は名詞や動詞の表記に用いられるため,ひらがなの一致と漢字の一致では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.もう一つの原因は,編集距離の定義に使われている編集操作が一文字に限られていたことにあると考えた.たとえば,連続した三文字が一致した場合と不連続な三文字が一致した場合では直感的にも重要さが異なるにもかかわらず,同じように一致した文字を計数してしまうことである.本論文では,この二つの原因を解消するために,一致した文字に対して重み付けを行い,次に一致した文字列に対応できるように,編集距離を変換した類似尺度の拡張を試みる.そして,編集距離から最終的に本論文で提案する類似尺度に到達する過程で定義する類似尺度を組み込んだシステムを構築し,類似尺度を拡張することによって表記の揺れに寛容な性質を損なうことなく,情報検索性能が向上するかを検証する.さらに,一致した文字列に対する重みをその文字列が持つ$IDF$に基づくスコアとするという条件の下で,類似尺度の違いによる情報検索性能の差を検証する.すなわち,本論文で提案する表記の揺れに寛容な類似尺度を組み込んだ情報検索システムと,形態素解析によって得られた単語を一致する文字列の単位とし,その単語が持つ$tf\cdotIDF$を重みとして累計するシステム,{\itngram}を一致する文字列の単位とし,その{\itngram}が持つ$IDF$を重みとして累計するシステムと比較する.実験結果において,本論文で提案する類似尺度を用いたシステムが,従来法である単語に基づくシステムや{\itngram}に基づくシステムと同等以上の検索性能を実現できたことを示す.この論文の構成は次のとおりである.2節では,編集距離から本論文で提案する類似尺度に到達するまでの過程をその過程で定義される類似尺度とともに示す.3節では,本論文で用いる重みを明示する.4節では,本論文で行った情報検索性能を測るための実験の概要を示す.5節では,2節で定義した類似尺度の検索性能が実際に定義した順に向上しているかと表記の揺れに寛容な性質が損なわれていないかを検証する.6節では,5節の結果を踏まえ,本論文で提案する類似尺度の検索性能を測るために,比較対象としたシステムについて説明した後,検索性能の比較を行う.7節でこれまで示した実験結果から考察を述べ,最後にまとめる.
\section{編集距離の類似尺度への変換とその拡張}
本論文では,検索性能の低下を招く表記の揺れに寛容な類似尺度を提案する.そのために,まず編集距離を類似尺度に変換し,次に一致した文字の重みを加算する類似尺度に拡張し,最後に一致した文字列の重みを加算する類似尺度に拡張する.本節では,この三つのステップ毎に定義した類似尺度を示すことで,本論文で提案する類似尺度が考慮する性質を明示する.\subsection{編集距離の類似尺度への変換}情報検索において,検索対象となるデータに存在する表記の揺れは検索性能の低下を招くものである.そこで,本論文では,表記の揺れに対応することができる尺度としてよく知られている編集距離に基づく類似尺度を考えた.編集距離(またはレーベンシュタイン距離)は,二つの文字列の距離として,それらを一致させるために必要な文字の削除,挿入,置換操作の回数を距離として考える方法である.この距離はダイナミックプログラミングを用いて計算できる.次に,編集距離$DST_e$の定義を示す.\begin{df}編集距離$\alpha,\beta$を文字列,$x,y$を異なる文字,``"を空文字列とする.関数$MIN$は与えられた引数のうちもっとも小さい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$DST_e(``",``")=0.0$\item長さ1文字以下の異なる文字列のとき~~~~$DST_e(x,y)=1.0$\item先頭の1文字が同じとき\[DST_e(x\alpha,x\beta)=MIN(DST_e(\alpha,x\beta)+1.0,DST_e(x\alpha,\beta)+1.0,DST_e(\alpha,\beta))\]\item先頭の1文字が異なるとき($x\neqy$)\[DST_e(x\alpha,y\beta)=MIN(DST_e(\alpha,y\beta)+1.0,DST_e(x\alpha,\beta)+1.0,DST_e(\alpha,\beta)+1.0)\]\end{itemize}\end{df}この定義で示すように,編集距離は不一致な文字を数えることによって二つの文字列の相違度を測っている.このため,編集距離は相違尺度とみることができる.定義から,編集距離は相違度が最小になるように,関数$MIN$を用いて不一致な文字の位置を決定している.この部分が編集距離に表記の揺れに対応できる性質を持たせている.二つの文字列全体をみて,もっとも相違が小さくなるように試行錯誤することによって,表記の揺れがあっても類似したものとみなせる定義式となっている.本論文では,情報検索に適した編集距離に基づく類似尺度を提案するための第一ステップとして,この定義を変形して,相違尺度である編集距離を類似尺度に変換する.具体的には,編集距離とは逆に類似度が最大になるように,関数$MIN$の代わりに関数$MAX$を用いて一致する文字の位置を決定する尺度に変換する.本論文では,この尺度を「単純編集類似度」と呼ぶことにした.この尺度と編集距離との違いは類似度を最大にするか相違度を最小にするかの違いだけなので,編集距離の持つ表記の揺れに寛容な性質は損なわれていない.次に単純編集類似度$SIM_1$の定義を示す.\begin{df}単純編集類似度$\alpha,\beta$を文字列,$x,y$を異なる文字,``"を空文字列とする.関数$MAX$は与えられた引数のうちもっとも大きい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$SIM_1(``",``")=0.0$\item長さ1文字以下の異なる文字列のとき~~~~$SIM_1(x,y)=0.0$\item先頭の1文字が同じとき\[SIM_1(x\alpha,x\beta)=MAX(SIM_1(\alpha,x\beta),SIM_1(x\alpha,\beta),SIM_1(\alpha,\beta)+1.0)\]\item先頭の1文字が異なるとき($x\neqy$)\[SIM_1(x\alpha,y\beta)=MAX(SIM_1(\alpha,y\beta),SIM_1(x\alpha,\beta),SIM_1(\alpha,\beta))\]\end{itemize}\label{sim1}\end{df}\subsection{文字重み編集類似度への拡張}単純編集類似度はすべての文字を同等に扱うため,一致する文字の重みはすべて1.0である.しかし,一致した文字が内容語に含まれる文字である場合と機能語に含まれる文字である場合とでは,情報検索においてその文字の貢献度は異なる.これは,意味に大きく関わる文字と表記の揺れとなりうる文字の貢献度の違いに相当する.一般に,情報検索の性能を向上させるために機能語を考慮せず,内容語だけを考慮するシステムが多く存在する.これは,機能語よりも内容語のほうが検索性能に貢献する度合いが高いためである.日本語における機能語はたとえば,「は」,「が」,「を」,「の」,「では」や「〜する」,「〜である」,「〜した」,「〜でない」,「〜しない」などであり,主にひらがなで構成されている.一方,内容語は主に漢字やカタカナで構成されている.カタカナは主に外来語を構成している.このような背景から,情報検索に適した編集距離に基づく類似尺度を提案するための第二ステップとして,文字が一致した場合,常に1.0を加算するのではなく,一致した文字が持つ重みを加算する類似尺度に単純編集類似度を拡張する.言い換えると,この類似尺度は単純編集類似度の一般化である.本論文では,この類似尺度を「文字重み編集類似度」と呼ぶことにした.また,編集距離(レーベンシュタイン距離)に関して各操作に重みを持たせた重みづきレーベンシュタイン距離がある\cite{Kohonen95}.この距離では,操作ごとに対象となる文字に関する重みを持つ.ここで,文字に関して操作ごとに重み付けるのではなく,その文字に対してどの操作が行われても文字が持つ唯一の重みを付けると,編集距離(レーベンシュタイン距離)から単純編集類似度への変形のように,重みづきレーベンシュタイン距離を文字重み編集類似度に変形することができる.次に文字重み編集類似度$SIM_2$の定義を示す.\begin{df}文字重み編集類似度$\alpha,\beta$を文字列,$x,y$を異なる文字,``"を空文字列とする.関数$Score(z)$は文字$z$が持つ重みを返す関数,関数$MAX$は与えられた引数のうちもっとも大きい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$SIM_2(``",``")=0.0$\item長さ1文字以下の異なる文字列のとき~~~~$SIM_2(x,y)=0.0$\item先頭の1文字が同じとき\[SIM_2(x\alpha,x\beta)=MAX(SIM_2(\alpha,x\beta),SIM_2(x\alpha,\beta),SIM_2(\alpha,\beta)+Score(x))\]\item先頭の1文字が異なるとき($x\neqy$)\[SIM_2(x\alpha,y\beta)=MAX(SIM_2(\alpha,y\beta),SIM_2(x\alpha,\beta),SIM_2(\alpha,\beta))\]\end{itemize}\label{sim2}\end{df}例を用いて,単純編集類似度と文字重み編集類似度の振る舞いの違いを示す.\begin{ex}文字重みの効果文$\alpha,\beta,\gamma$がそれぞれ\begin{quote}\begin{tabular}{ll}$\alpha$:&「機械で自動的に翻訳するシステム」\\$\beta$:&「自動翻訳システム」\\$\gamma$:&「人手で直感的に表示するシステム」\\\end{tabular}\end{quote}であり,Score関数が次のように与えられたとする.\begin{itemize}\item文字$x$がひらがなの場合~~~~$Score(x)=0.0$\item文字$x$がひらがな以外であった場合~~~~$Score(x)=1.0$\end{itemize}このとき,$\alpha$と$\beta$の類似度,$\alpha$と$\gamma$の類似度は表\ref{tab:character-weight}のようになる.\begin{table}[htbp]\caption{文字重みの効果}\label{tab:character-weight}\begin{center}\vspace{-1em}\begin{tabular}{|c||c|c|}\hline引数&単純編集類似度&文字重み編集類似度\\\hline\hline$\alpha,\beta$&8.0&8.0\\\hline$\alpha,\gamma$&9.0&5.0\\\hline\end{tabular}\end{center}\end{table}\label{ex:weight}\end{ex}この例において,$\alpha$と$\beta$は人間であれば類似していると判断される文である.これらの文に対する類似度は一致する文字がすべてひらがな以外であるため,単純編集類似度でも文字重み編集類似度でも同じ類似度となる.一方,$\alpha$と$\gamma$は人間であれば類似していないと判断される文である.これらの文に対して,単純編集類似度は一致する文字がひらがなであっても同じ重みを加算するため,高い類似度を与えてしまう.しかし,文字重み編集類似度は類似していると判断される$\alpha$と$\beta$が持つ類似度よりも低い類似度を与えることができている.このことより,単純な重み付けでも,二つの文が類似するかしないかの判断に役立つことが予想できる.\subsection{文字列重み編集類似度への拡張}\label{sim3}例\ref{ex:weight}の$\beta$は「自動翻訳システム」であり,この文は「自動」,「翻訳」,「システム」という三つの内容語で構成されている.これらの単語のうち,漢字で構成されるものは文字自体が意味を表しているために一文字だけでも検索に貢献する場合があるが,「システム」はほとんどの場合,一文字では意味を表すことができないカタカナで構成されている.「システム」は構成する文字が連続して現れることによって意味を表す単語となる.同様に,ひらがなで構成される文字列でも連続して現れることによって貢献する場合がある.このような場合,情報検索において,構成する文字それぞれの貢献よりも連続して現れることによって構成された文字列のほうが貢献度が高いことが知られている.言い換えると,一致した文字列を構成する文字毎に重みを加算するのではなく,文字列が持つ重みを加算したほうが検索性能が向上する可能性があるということである.多くの情報検索システムに用いられている単語を単位とし,一致した単語が持つ重みを加算することによって類似度を求める尺度があるが,この尺度もこの可能性に基づくものとみることができる.さらに,一単語より長い文字列が検索に大きく貢献するように{\itngram}を単位とし,一致した{\itngram}の重みを加算することによって類似度を求める尺度もある.この尺度は一致する文字列の長さに重きを置く尺度である.人間は一致する部分が長ければ長いほど,二つの文は類似していると判断することが多い.このため,一致する文字列の長さに重きを置くことは人間の直感に合致している.このような背景から,情報検索に適した編集距離に基づく類似尺度を提案するための最終ステップとして,一致した文字ではなく,一致した文字列が持つ重みを加算する類似尺度に文字重み編集類似度を拡張する.言い換えると,この類似尺度は文字重み編集類似度の一般化である.本論文では,この類似尺度を「文字列重み編集類似度」と呼ぶことにした.次に文字列重み編集類似度$SIM_3$の定義を示す.\begin{df}文字列重み編集類似度\label{df:sim3}$\alpha,\beta,\gamma,\delta$を文字列,$\xi$を長さ1以上の文字列,$x,y$を文字とする.関数$Score(\epsilon)$は文字列$\epsilon$が持つ重みを返す関数,関数$MAX$は与えられた引数のうちもっとも大きい値を返す関数とする.\begin{itemize}\item両方とも空文字のとき~~~~$SIM_3(``",``")=Score(``")$\itemそれ以外のとき\begin{eqnarray*}&&\hspace*{-2mm}SIM_3(\alpha,\beta)=MAX(SIM_{3s}(\alpha,\beta),SIM_{3g}(\alpha,\beta))\end{eqnarray*}\begin{itemize}\item一致している最大の文字列を$\xi$として\begin{eqnarray*}&&\hspace*{-8mm}SIM_{3s}(\xi\alpha,\xi\beta)=MAX(Score(\gamma)+SIM_3(\delta\alpha,\delta\beta))\\&&\hspace*{-6mm}for~all~\gamma;~for~all~\delta;such~that~\xi=\gamma\delta\end{eqnarray*}\itemそのような文字列が存在しないとき~~~~$SIM_{3s}(\alpha,\beta)=0.0$\item任意の文字列について\[SIM_{3g}(x\alpha,y\beta)=MAX(SIM_3(\alpha,y\beta),SIM_3(x\alpha,\beta),SIM_3(\alpha,\beta))\]\end{itemize}\end{itemize}\end{df}
\section{本論文で用いる重み}
例\ref{ex:weight}では,ひらがな以外の文字に重みを持たせたが,文字に持たせる重みを調節することによって,検索性能を大きく向上することが容易に予測できる.情報検索だけでなく他の分野においても,適した重みを決定することは難しく,多くの場合,経験によって決められることが多い.情報検索においては,検索対象となるデータによって調整することが広く行われている.本論文では,情報検索において重みの基本とされている文字列が一致したときの情報量に相当する$IDF$(InverseDocumentFrequency)を用いることにした.また,通常の$IDF$は単語を対象とするが,文字列を対象とする$IDF$とした.これは,提案する類似尺度が{\itngram}を対象とするためである.本論文で扱う類似尺度が用いる重みはすべて$IDF$に基づくものとし,類似尺度の定義の違いによる検索性能の比較を行った.次に本論文で提案する類似尺度に用いた重みを返す関数$Score$を示す.ここで,$df(\xi)$は長さ1以上の文字列$\xi$が出現するドキュメントの数,$N$はドキュメントの総数とする.\begin{itemize}\item空文字ならば,~~~~$Score(``")=0.0$\itemそれ以外ならば,~~~~$Score(\xi)=-\log_2(df(\xi)/N)$\end{itemize}本論文の目的は検索性能の低下を招く表記の揺れに寛容な類似尺度を提案することであるため,最適な重みについては今後の課題と考えている.
\section{実験の概要}
本論文では,提案する類似尺度の情報検索性能を評価するために,実験対象となる類似尺度を組み込んだ情報検索システムをそれぞれ作成し,検索性能を比較した.まず,単純編集類似度,文字重み編集類似度,文字列重み編集類似度の情報検索における性能を比較し,順に拡張したことによって表記の揺れに寛容な性質を損なうことなく,予想通り性能の向上を計ることができているかを検証する.そして,この検証においてもっとも高い性能を持つ類似尺度の検索性能を,多くの情報検索システムに用いられる類似尺度の基となっている二つの類似尺度と比較する.実験では,情報検索テストコレクションNTCIR1\cite{Kando98,Kageura97}を使用した.質問はキーワードではなく文章で表され,検索対象となる文書は技術論文の抄録である.コレクションには,質問集合83問(訓練用30問,本番用53問)と文書集合33万件,正解集合が含まれている.図\ref{fig:query}と図\ref{fig:document}にNTCIR1の質問と文書の記述例をそれぞれ示す.\begin{figure}[htbp]\vspace*{-1em}\begin{center}\fbox{\epsfile{file=query-image2.eps,scale=0.6}}\caption{質問の例}\label{fig:query}\vspace{0.5em}\fbox{\epsfile{file=document-image2.eps,scale=0.6}}\caption{文書の例}\label{fig:document}\end{center}\end{figure}質問の記述は「タイトル」,「検索要求」,「検索要求説明」,「概念」,「分野」で構成され,検索対象となる文書の記述は「タイトル」,「著者名」,「抄録」,「分野」などで構成されている.本論文では,質問の「検索要求」部分の文章と,文書の「抄録」部分を連結した文章との類似度を測ることによって,情報検索を行った.システムから得る結果は,質問ごとに類似度を高い順に並べたランキングリストである.性能評価は,この実験結果の上位1000件に対する11点平均精度を比較することによって行った.
\section{編集類似度の性質および検索性能の検証}
\label{comp-sim}本節では,単純編集類似度($SIM_1$),文字重み編集類似度($SIM_2$),文字列重み編集類似度($SIM_3$)の情報検索における性能を比較し,順に拡張したことによって表記の揺れに寛容な性質を損なうことなく,予想通り性能の向上を計ることができているかを検証する.実験結果を表\ref{sim-11pt-comp}--表\ref{sim-win-comp}に示す.まず,情報検索性能について検証する.表\ref{sim-11pt-comp}は,単純編集類似度,文字重み編集類似度,文字列重み編集類似度をそれぞれ用いたシステムで訓練用30問について情報検索を行った結果の11点平均精度(11pointaverageprecision)に示す.\begin{table}[bht]\vspace{-1em}\caption{編集類似度の11点平均精度(訓練課題30問)}\vspace{-1em}\label{sim-11pt-comp}\begin{center}\begin{tabular}{|c||c|c|c|}\hline類似尺度&$SIM_1$&$SIM_2$&$SIM_3$\\\hline\hline11-pt&0.135&0.203&0.281\\\hline\end{tabular}\end{center}\caption{質問ごとの11点平均精度}\label{sim-each-comp}\vspace{-1em}\begin{center}\hspace*{-1em}\begin{tabular}{|c||c|c|c||c||c|c|c|}\hline{\bf質問番号}&{\bf$SIM_1$}&{\bf$SIM_2$}&{\bf$SIM_3$}&{\bf質問番号}&{\bf$SIM_1$}&{\bf$SIM_2$}&{\bf$SIM_3$}\\\hline\hline1&0.2611&0.2675&0.3006&16&0.5577&0.6777&0.8263\\\hline2&0.0159&0.6025&0.6704&17&0.0009&0.0283&0.0407\\\hline3&0.0006&0.0023&0.0148&18&0.0380&0.1288&0.0980\\\hline4&0.0049&0.2929&0.3136&19&0.4026&0.4487&0.6890\\\hline5&0.0006&0.0009&0.0013&20&0.2683&0.6493&0.7775\\\hline6&0.0212&0.1626&0.1890&21&0.0215&0.1339&0.1583\\\hline7&0.0022&0.0000&0.0024&22&0.2068&0.2525&0.2493\\\hline8&0.0020&0.0003&0.2119&23&0.2308&0.3596&0.3481\\\hline9&0.1050&0.0398&0.2402&24&0.2903&0.3153&0.3234\\\hline10&0.1052&0.3669&0.3618&25&0.0248&0.1324&0.4877\\\hline11&0.3268&0.2194&0.2638&26&0.4438&0.1266&0.5136\\\hline12&0.0742&0.0224&0.1566&27&0.0259&0.1784&0.2556\\\hline13&0.0057&0.0330&0.0655&28&0.0478&0.0518&0.0589\\\hline14&0.2980&0.3646&0.4257&29&0.1753&0.0501&0.1151\\\hline15&0.1001&0.1528&0.2116&30&0.1025&0.0349&0.0527\\\hline\end{tabular}\end{center}\caption{類似尺度ごとの比較}\label{sim-win-comp}\begin{center}\vspace*{-1em}\begin{tabular}{|c||c|c|}\hline{XvsY}&{Xwin}&{Ywin}\\\hline\hline{$SIM_1$vs$SIM_2$}&8&22\\\hline{$SIM_2$vs$SIM_3$}&4&26\\\hline{$SIM_1$vs$SIM_3$}&3&27\\\hline\end{tabular}\end{center}\vspace*{-1em}\end{table}11点平均精度は情報検索における一般的な評価基準で,再現率(recall)が0\,\%,10\,\%,20\,\%,30\,\%,40\,\%,50\,\%,60\,\%,70\,\%,80\,\%,90\,\%,100\,\%の11点における適合率(precision)の平均値である\cite{Manning99}.この表はこの実験における各システムの検索性能を表し,文字列重み編集類似度が単純編集類似度や文字重み編集類似度より情報検索に有効であることを示している.表\ref{sim-win-comp}は,訓練用30問において一方の編集類似度が他方の編集類似度より検索に有効であった質問を表\ref{sim-each-comp}を用いて数えた結果を示す.この表は,この実験において,文字重み編集類似度が単純編集類似度よりも多くの質問に対して有効に働き,文字列重み編集類似度が単純編集類似度や文字重み編集類似度よりもさらに多くの質問に対して有効に働くことを示している.たとえば,「各質問について$SIM_2$より$SIM_1$が高い11点平均精度を出す確率が1/2以下のとき,$SIM_2$が$SIM_1$より30個のうち22個以上の割合で性能が高い」という仮説を立てた場合,危険率$8.1\times10^{-3}$以下で仮説は棄却される.これは,$SIM_2$が$SIM_1$より高い性能を出す確率は1/2以上であることを示し,$SIM_2$と$SIM_1$には有意な差があることがわかる.また同様に,$SIM_3$と$SIM_1$には危険率$3.0\times10^{-5}$以下のレベルで有意な差があり,$SIM_3$と$SIM_2$には危険率$4.2\times10^{-6}$以下のレベルで有意な差があることがわかる.以上のことから,編集距離に基づく類似尺度を拡張することによって情報検索性能を向上していることが確認できる.次に,表記の揺れに寛容な性質が損なわれていないかを検証する.例として,図\ref{fig:query}に示す質問20を取り上げる.検索に使うこの質問の検索要求は「日本語文におけるカタカナ外来語の研究」である.図\ref{fig:document}に示す文書は質問20に関連する文書である.まず,単純編集類似度から文字重み編集類似度に拡張した場合,表記の揺れに寛容な性質が損なわれていないかを検証する.これらの質問と文書において単純編集類似度と文字重み編集類似度は同じ「文,る,カ,タ,カ,ナ,外,来,語,の」の10文字が一致する.重みが影響するのは,質問に現れる文字が文書ではそれらの文字が質問に現れる順とは異なり,前後に交換されている場合に考えられる.たとえば,質問に「有無」が現れ,文書に「・・は無いが,・・は有る」と,「有」と「無」が逆順に現れるとき,もし「無」が持つ重みのほうが大きい場合,文字重み編集類似度は前にある「有」ではなく,後ろにある「無」の重みを加算するが,単純編集類似度はどちらを選んでも同じである.このため,単純編集類似度と文字重み編集類似度において,稀に選択された文字が異なると考えられるが,サンプルで調査したすべての質問においてはすべて同じ文字を選択していた.これは,単純編集類似度を文字重み編集類似度に拡張しても表記の揺れに寛容な性質を保持しているということを表している.図\ref{fig:document}の文書を,単純編集類似度は181位,文字重み編集類似度は10位に位置付けている.表\ref{sim-each-comp}に示す質問20における11点平均精度を見ると,単純編集類似度よりも文字重み編集類似度のほうが精度が高い.これは,表記の揺れに寛容な性質を持ち,一致した文字の重みを考慮したことによって検索性能が向上したことを示している.一方,文字列重み編集類似度は「文,る,カタ,カナ,外,来語,の」の7つの文字列が一致する.これは,単純編集類似度と文字重み編集類似度で選択された10文字と同じである.これは,文字重み編集類似度を文字列重み編集類似度に拡張しても表記の揺れに寛容な性質を保持しているということを表している.実際に,図\ref{fig:document}の文書に対して,文字重み編集類似度は4.44,文字列重み編集類似度は12.37を得ている.また,この文書を文字重み編集類似度は10位に位置付けているが,文字列重み編集類似度は6位に位置付けている.表\ref{sim-each-comp}に示す質問20における11点平均精度を見ると,文字重み編集類似度よりも文字列重み編集類似度のほうが精度が高い.これは,表記の揺れに寛容な性質を持ち,一致した文字列の重みを考慮したことによって検索性能が向上したことを示している.以上のように,類似尺度を拡張しても表記の揺れに寛容な性質を損なっていないことをサンプルで確認した.
\section{基本的な類似尺度との検索性能比較}
\ref{comp-sim}節に示した実験において,本論文で提案する三つの編集類似度のなかで,文字列重み編集類似度がもっとも情報検索において有効であることがわかった.本節では,提案する文字列重み編集類似度の検索性能を,多くの情報検索システムに用いられる類似尺度の基となっている類似尺度と比較する.まず,情報検索において基とされる類似尺度を用いたシステムの概要を示す.本論文では,形態素解析を利用して内容語を抽出し,質問と文書のどちらともに存在する内容語の重みを加算する類似尺度と,質問と文書のどちらともに存在する文字列({\itngram})の重みを加算する類似尺度を選び,これらの尺度を用いた二つのシステムをベースラインシステムとした.\subsection{ベースラインシステム:BD}本論文では,一つ目のベースラインシステムとして,形態素解析を利用し内容語を抽出し,質問と文書のどちらともに存在する内容語の重みを加算することによって類似度を測るシステムを作成した.本論文では,このシステムを辞書を用いることから「BD(baseline-dictinary)」と呼ぶことにした.形態素解析には,日本語形態素解析プログラム「茶筌」\cite{Matsumoto97}を用いた.「茶筌」は大きな日本語の単語辞書を使って文字の列を単語に区切り,品詞を割り当てるシステムである.BDシステムはまず,質問と文書それぞれに対して形態素解析を行い,そして,解析結果から内容語(名詞,動詞,未定義語)の原形を抽出し,類似度を測るための内容語だけが並ぶ質問集合のファイルと文書集合のファイルを作成する.BDシステムに原形を採用した理由は,文章に現れる内容語の形そのままを対象とした場合と原形を対象とした場合の検索性能を比較した結果,原形のほうが検索性能が高かったためである.これらの二つのファイルを用いて,Salton\cite{Salton88}が用いている多くの情報検索手法の基となっている内積スコアリング関数を用いて類似度を求める.内積スコアリング関数は文字列重み編集類似度に用いられる重み関数と同じ$IDF(=-\log(df/N))$に基づく重み関数である.このことから,辞書を用いて形態素解析を行うことに関して比較することにした.次にBDシステムに用いた類似尺度$SIM_{dict}$の定義を示す.\begin{df}$t$は比較される各々の文字列両方に現われる単語,$tf(t)$はそのドキュメントの単語$t$の出現頻度(termfrequency),$df(t)$は単語$t$が出現するドキュメントの数(documentfrequency),$N$はドキュメントの総数とする.\[SIM_{dict}=\sum_{t}tf(t)\cdot(-log_2(df(t)/N))\]\end{df}\subsection{ベースラインシステム:BN}本論文では,二つ目のベースラインシステムとして,質問と文書のどちらともに存在する文字列({\itngram})の重みを加算することによって類似度を測るシステムを作成した.本論文では,このシステムを{\itngram}をマッチングの対象とすることから「BN(baseline-{\itngram})」と呼ぶことにした.BNシステムは,質問と文書のどちらともに現れる文字列を検出し,文字列重み編集類似度に用いられるScore関数を用いて類似度を求める.通常,処理効率を考え,長さ2のバイグラム(bigram)または長さ3のトライグラム(trigram)のような短い{\itngram}だけをマッチングの対象とするが,本論文では,$SIM_3$がすべての{\itngram}を対象としているので,条件をそろえるために,すべての{\itngram}を対象とすることにした.一般には,\cite{Fujii93}が示したように,短い{\itngram}は日本語にはかなり効果的であることが報告されている.しかし,実際にNTCIR1において短い{\itngram}に制限した場合と制限しない場合の検索性能の比較を行った結果,制限しない場合のほうが高い性能を得たため,バイグラムやトライグラムより長い{\itngram}を考慮することにした.また,提案する文字列重み編集類似度においても扱う文字列の長さを制限していないので,条件は同じである.実際に長い{\itngram}を考慮することは,複合語のマッチングを行う情報検索\cite{Yamada97}の報告で,共起情報を用いないケースに相当する.DPも長い{\itngram}を検出するので,BNを比較対象とした.BNシステムはマッチングの対象が文字列重み編集類似度と同じ文章にある部分文字列({\itngram})である.BNシステムと文字列重み編集類似度の唯一の違いは,類似尺度の定義が語順を無視した重みの総和をとるか語順を保存した重みの合計の最大値をとるかの違いである.このことが表記の揺れに寛容な性質を持つか持たないかの差となっていると予想される.このため,本論文では,この二つの類似尺度を表記の揺れに対する振る舞いについて比較することにした.次にBNに用いた類似尺度$SIM_{ngram}$の定義を示す.\begin{df}$\alpha,\beta,\xi,\eta$を文字列とする.$\alpha_{ik}$を$i$番目の文字から$i+k-1$番目の文字までの$\alpha$の部分文字列とし,$\beta_{jk}$を$j$番目の文字から$j+k-1$番目の文字までの$\beta$の部分文字列とする.また,$Score$は$IDF$に基づく文字列から正の実数値を求める関数とする.\[SIM_{ngram}=\sum_{i,j,k}Comp(\alpha_{ik},\beta_{jk})\]ただし,$Comp(\xi,\eta)$は次のように定義され,ここで現れる$Score(\xi)$は\ref{sim3}節に示したものと同じである.\begin{itemize}\item$\xi=\eta$ならば,~~~~$Score(\xi)=-log_2(df(\xi)/N)$\item$\xi\neq\eta$ならば,~~~~$0.0$\end{itemize}\end{df}\subsection{検索性能の比較}本節では,本論文で提案する文字列重み編集類似度($SIM_3$)を用いたシステムと,$SIM_{dict}$を用いたBDシステム,$SIM_{ngram}$を用いたBNシステムの検索性能を比較する.本論文では,文字列重み編集類似度を用いたシステムをダイナミックプログラミングを用いて計算できることから,「DP」と呼ぶことにした.\begin{table}[htb]\caption{システムの11点平均精度(訓練課題30問)}\vspace{-1.2em}\label{tab:all-prec}\begin{center}\begin{tabular}{|c||c|c|c|}\hlineシステム&{\bfBD}&{\bfBN}&{\bfDP}\\\hline\hline11-pt&0.154&0.164&0.281\\\hline\end{tabular}\vspace{-0.3em}\end{center}\caption{それぞれのシステムの質問ごとの11点平均精度}\vspace{-1.2em}\label{tab:precision}\begin{center}\hspace*{-2em}\begin{tabular}{|c||c|c|c||c||c|c|c|}\hline{\bf質問番号}&{\bfBD}&{\bfBN}&{\bfDP}&{\bf質問番号}&{\bfBD}&{\bfBN}&{\bfDP}\\\hline\hline1&0.2462&0.2216&0.3006&16&0.0180&0.3275&0.8263\\\hline2&0.2099&0.5022&0.6704&17&0.0471&0.0011&0.0407\\\hline3&0.0257&0.0028&0.0148&18&0.0788&0.0051&0.0980\\\hline4&0.1048&0.1815&0.3136&19&0.2091&0.4901&0.6890\\\hline5&0.1046&0.0008&0.0013&20&0.5660&0.5705&0.7775\\\hline6&0.0580&0.0221&0.1890&21&0.0881&0.0713&0.1583\\\hline7&0.0005&0.0010&0.0024&22&0.0516&0.0703&0.2493\\\hline8&0.0836&0.0086&0.2119&23&0.2003&0.1475&0.3481\\\hline9&0.0157&0.0372&0.2402&24&0.1915&0.2887&0.3234\\\hline10&0.3751&0.2991&0.3618&25&0.6076&0.2291&0.4877\\\hline11&0.2533&0.0303&0.2638&26&0.1087&0.4665&0.5136\\\hline12&0.1008&0.1687&0.1566&27&0.0659&0.0696&0.2556\\\hline13&0.0707&0.0150&0.0655&28&0.0072&0.0435&0.0589\\\hline14&0.4107&0.3051&0.4257&29&0.1543&0.0882&0.1151\\\hline15&0.1538&0.1436&0.2116&30&0.0094&0.0142&0.0527\\\hline\end{tabular}\end{center}\vspace{-0.3em}\caption{システムごとの比較}\vspace{-1.2em}\label{tab:comparison}\begin{center}\begin{tabular}{|c||c|c|}\hline{XvsY}&{Xwin}&{Ywin}\\\hline\hline{DPvsBD}&23&7\\\hline{DPvsBN}&29&1\\\hline{BDvsBN}&15&15\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:all-prec}に33万件のドキュメントに対して30個の検索質問を行った場合の11点平均精度を示す.この表は実験において,DPがBDやBNよりも精度が高かったことを示している.表\ref{tab:comparison}はそれぞれのシステムを二つずつ各質問について,表\ref{tab:precision}に示す11点平均精度を使って比較し,すべての質問について数値で判定した結果から作成した.これらの表もまた,DPがBDやBNよりも精度が高いことを示している.質問1に対して,三つのシステムは同じような性能を示す.質問1は,用語と用語を構成する単語の多くがそれらの$IDF$重みによって示されるようなよいキーワードである用語を含む質問であり,すべてのシステムにとって簡単な質問である.図\ref{fig:recall1and12}の左図に上位1000件の文書に関する再現率を示す.この図から,三つのシステムは比較の条件が揃っていることがわかる.実験結果において,表\ref{tab:comparison}から\ref{comp-sim}節に示すような仮説を立て,検索性能を検証すると,$DP$と$BD$には危険率$2.6\times10^{-3}$以下のレベルで有意な差があり,$DP$と$BN$には危険率$2.9\times10^{-8}$以下のレベルで有意な差があることがわかる.\begin{figure}[htb]\begin{center}\fbox{\epsfile{file=dp-01and12-2.eps,scale=0.7}}\caption{再現率:質問1「自立移動ロボット」,質問12「データマイニング」}\label{fig:recall1and12}\end{center}\vspace{-3em}\end{figure}\subsection{BDとの振る舞いの差}本論文の実験において,表\ref{tab:comparison}に示すように,DPはBDと同等以上の性能を持つことを示している.これは,未知語に対する振る舞いの違いによるものである.辞書を利用するシステムは解析できない未知語が重要となる質問に対応することが難しい.たとえば,図\ref{fig:recall1and12}の右図はそのような質問に関する再現率のグラフである.BDはデータマイニングを「デー」「タマ」「イニング」に分割してしまうため,その結果,情報検索の性能が低い.NTCIR1において,このように未知語が重要となる質問がこの他にも存在する.辞書を利用するBDの場合,新しい単語が作成されるたびに辞書に単語を登録すれば語分割の失敗を避けることができるが,新しい単語に対する辞書のメンテナンスが必要である.一方,BNとDPは辞書を利用しないため,このコストがかからないという利点を持っている.しかし,未知語を学習することによって検索性能が向上することは明白であるため,システムを相補的に用いることが理想である.\subsection{実行時間}実験における各システムの実行時間を表\ref{tab:cost}に示す.BDはperlで記述し,他のシステムはCで記述したため,BDシステムの実行時間は参考値であり,前処理となる文書頻度(documentfrequency)の計算を除いた類似度計算のみの実行時間である.\begin{table}[h]\vspace*{-0.5em}\caption{実行時間}\label{tab:cost}\vspace*{-1em}\begin{center}\hspace*{-2em}\begin{tabular}{|c||c|c|c|c|c|}\hlineシステム&{\bfBD}&{\bfBN}&{\bf$SIM_1$}&{\bf$SIM_2$}&{\bfDP($SIM_3$)}\\\hline\hline総実行時間[sec]&43947&2099&3257&3713&5302\\\hline1質問当たり[sec]&1464.9&70.0&108.6&123.8&176.7\\\hline1ドキュメント当たり[msec]&4.44&0.21&0.33&0.38&0.54\\\hline\end{tabular}\end{center}\vspace*{-1.5em}\end{table}また,すべてのシステムは文書と質問を一つずつ比較するシステムであるため,インデックスファイルは使用していない.実験はVineLinux2.0,CPU800MHz,メモリ1GBの計算機を用いて行った.この表では,``総実行時間''は33万件のドキュメントに対して30個の質問を検索することにかかった時間,``1質問当たり''は総実行時間を30で割った,1質問当たりにかかる平均実行時間,``1ドキュメント当たり''は1質問当たりの時間を33万で割った,1ドキュメントとの類似度を計算することにかかる平均実行時間である.$BN$と$DP(SIM_3)$を比較すると,実際のデータでの計算時間の差は2倍程度であった.これは,任意の文字列の文書頻度を高速に求められる方法\cite{Yamamoto98}を利用した効果である.そして,文字列重みを利用しても単純な編集距離の計算よりも桁違いに遅くないことがわかる.しかし,提案する類似尺度を用いたシステムは情報検索システムとして実用的とは言えない.本論文では,情報検索に利用できる表記の揺れに寛容な類似尺度の提案を目的としているので,インデックスを利用する処理速度の向上は今後の課題と考えている.
\section{考察}
\subsection{単語の順序について}定義\ref{df:sim3}に示すように,文字列重み編集類似度は一致する文字列の重みにその文字列以外の部分の類似度を加算する操作をしている.この定義では,質問と文書に二つずつ同一の文字が出現した場合に,出現の順序が一致したときには加算操作の対象になるが,順序が異なった場合には,加算の対象とならないため,結果的にどちらかの重みが選ばれることになる.この「順序が一致したときに,スコアが加算される」という性質は単純編集類似度,文字重み編集類似度,文字列重み編集類似度に共通する性質である.順序関係を保存しながら,重みの合計が最大になるように部分文字列の組合せを探す尺度のなかで文字列重み編集類似度はすべての文字列の重みを考慮するということが特徴となっている.キーワードの検索においても順序を保存することで検索精度が向上するという報告\cite{Tanaka97}があるが,文字列重み編集類似度はキーワードに限定せず質問を構成する文字列の順序を保存する.また,順序情報を利用するという意味では,形態素解析を行い,内容語の列を作り,その列が持つ順序情報を利用して検索性能を向上させている研究\cite{Otake99}があるが,本論文で提案する手法では形態素解析を行わない.さらに,修飾語の欠損と付加がある場合にも提案する手法は対応できる.\subsection{句の検出}文字列重み編集類似度は,重みの合算の過程において類似判定に効果のある部分文字列を選び出す処理を行っている.つまり,定義\ref{df:sim3}に示される定義式で関数$MAX$によって選び出された文字列は類似判定に効果がある文字列として選び出されている.この一連の文字列は,検索に効果があるひとかたまりと解釈できる.言い替えれば,文字列重み編集類似度によって,検索に利用可能な「分離している複合語」を抽出していると解釈できる.これは,類似判定ごとに「語」の定義を変更することで効果を上げている情報検索システム\cite{Ozawa99}と同様に,情報検索のための句分割方法の一つと解釈することもできる.検索に効果がある文字列の集合を選ぶためによく用いられる方法は共起関係を利用する方法である\cite{Takagi96}.文字列重み編集類似度で選び出される文字列の集合は共起によるものとは異なる文字列となる.端的には,文字列重みによるものは,$IDF$が高ければ統計的に独立に出現し,共起関係にない文字列でもキーワードとして検出される.実際に,文字列重み編集類似度で選択された一群の文字列の性質を分析することは行う価値のある今後の課題である.\subsection{シソーラスの利用}文字列の一致の検出を行うときに,シソーラスを利用する拡張が考えられる.すなわち,質問中の文字列がシソーラスの見出し語にあるときは,その対応する単語がドキュメントにあったときに文字列が一致しているとみなす拡張である.この方法を実装することは簡単であるが,適切な重みを何にするか,実際に検索に効果があるかなどの問題が存在し,今後の課題である.
\section{まとめ}
本論文では,情報検索のための表記の揺れに寛容な類似尺度を提案し,その検索性能を評価した.表記の揺れに対応できる尺度として編集距離が知られているが,実際にこの尺度を単純に類似尺度に変換したものでは性能がでない.本論文では,表記の揺れに寛容な類似尺度を,情報検索に適するように,文字列に対する重みを計算するように拡張した.それを用いて情報検索による評価を行い,性能が向上したことを示した.さらに,提案する類似尺度を組み込んだ情報検索システムを構築し,多くのシステムに用いられている一般的な類似尺度と同等以上の検索性能を実現できたことを示した.\acknowledgment本研究は住友電気工業株式会社の援助による成果です.そして,本研究を進めるにあたって有意義なコメントを戴いたAT\&TのKennethW.Church氏と筑波大学の山本幹雄助教授に深く感謝いたします.\bibliographystyle{jnlpbbl}\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Fujii,Croft}{Fujii,Croft}{1993}]{Fujii93}HideoFujii\BBA\W.BruceCroft\BBOP1993\BBCP.\newblock\BBOQAComparisonofIndexingTechniquesforJapaneseTextRetrieval\BBCQ\\newblockIn{\BemProceedingofSIGIR'93},pp.~237--246,\newblockPittsburghPA,USA.\bibitem[\protect\BCAY{Kageura,Koyama,Yoshioka,Takasu,Nozue,Tsuji}{Kageuraetal.}{1997}]{Kageura97}KyoKageura,TeruoKoyama,MasaharuYoshioka,AtsuhiroTakasu,ToshihikoNozue,\BBA\KeitaTsuji\BBOP1997\BBCP.\newblock\BBOQNACSISCorpusProjectforIRandTerminologicalResearch\BBCQ\\newblockIn{\BemNaturalLanguageProceedingPacificRimSymposium'97},pp.~493--496.\bibitem[\protect\BCAY{Kando,Koyama,Oyama,Kageura,Yoshioka,Nozue,Matsumura,Kuriyama}{Kandoetal.}{1998}]{Kando98}NorikoKando,TeruoKoyama,KeizoOyama,KyoKageura,MasaharuYoshioka,ToshihikoNozue,AtsushiMatsumura,\BBA\KazukoKuriyama\BBOP1998\BBCP.\newblock\BBOQNTCIR:NACSISTestCollectionProject\BBCQ\\newblockIn{\Bem20thAnnualColloquiumofBCS-IRSG}.\bibitem[\protect\BCAY{Kohonen}{Kohonen}{1995}]{Kohonen95}TeuvoKohonen\BBOP1995\BBCP.\newblock\BBOQSelf-OrganizingMaps\BBCQ\Springer-VerlagBerlinHeidelberg.\bibitem[\protect\BCAY{Korfhage}{Korfhage}{1997}]{Korfhage97}RobertR.Korfhage\BBOP1997\BBCP.\newblock\BBOQInformationStorageandRetrieval\BBCQ\\newblockIn{\BemWILEYCOMPUTERPUBLISHING},pp.~291--303,\newblockJohnWiley\&Sons,Inc.,PrintedinUSA.\bibitem[\protect\BCAY{Manning,Schutze}{Manning,Schutze}{1999}]{Manning99}ChristopherD.ManningandHinrichSchutze\BBOP1999\BBCP.\newblock\BBOQFoundationalsofStatisticalNaturalLanguageProcessing\BBOQ\TheMITPress,CambridgeMA.\bibitem[\protect\BCAY{Matsumoto,Kitauchi,Yamashita,Hirano}{Matsumotoetal.}{1997}]{Matsumoto97}YujiMatsumoto,AkiraKitauchi,TatsuoYamashita,YoshitakaHirano,OsamuImaichi,\BBA\TomoakiImamura\BBOP1997\BBCP.\newblock\BBOQJapaneseMorphologicalanalysisSystemChaSenManual\BBCQ\\newblock{\BemNAISTTechnicalReport,NAIST-IS-TR97007},http://cactus.aist-nara.ac.jp/lab/nlt/chasen.html.\bibitem[\protect\BCAY{大竹,増山,山本}{大竹\Jetal}{1999}]{Otake99}大竹清敬,増山繁,山本和英\BBOP1999\BBCP.\newblock\JBOQ名詞の連接情報を用いた関連文書検索手法\BBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40(5)},pp.~2460--2467.\bibitem[\protect\BCAY{小澤,山本,山本,梅村}{小澤\Jetal}{1999}]{Ozawa99}小澤智裕,山本幹雄,山本英子,梅村恭司\BBOP1999\BBCP.\newblock\JBOQ情報検索の類似尺度を用いた検索要求文の単語分割\BBCQ\\newblock\Jem{言語処理学会大会},{\BbfA5-2}.\bibitem[\protect\BCAY{Salton,Buckley}{Salton\BBA\Buckley}{1988}]{Salton88}GerardSalton\BBA\ChristopherBuckley\BBOP1988\BBCP.\newblock\BBOQTerm-WeightingApproachesinAutomaticTextRetrieval\BBCQ\\newblockIn{\BemInformationProceedingandManagement},{\Bbf24},pp.~513--523.\bibitem[\protect\BCAY{高木,木谷}{高木,木谷}{1996}]{Takagi96}高木徹,木谷強\BBOP1996\BBCP.\newblock\JBOQ単語出現共起関係を用いた文書重要度付与の検討\JBCQ\\newblock\Jem{情報処理学会情報学基礎研究会},{\BbfFI41-8}.\bibitem[\protect\BCAY{田中}{田中}{1997}]{Tanaka97}田中英輝\BBOP1997\BBCP.\newblock\JBOQ長い日本語表現の高速類似検索手法\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},{\BbfNL121-10}.\bibitem[\protect\BCAY{山田,森,中川}{山田\Jetal}{1997}]{Yamada97}山田剛一,森辰則,中川裕志\BBOP1997\BBCP.\newblock\JBOQ複合語マッチングと共起情報を併用する情報検索\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39(8)},pp.~2431--2439.\bibitem[\protect\BCAY{Yamamoto,Church}{Yamamoto\BBA\Church}{1998}]{Yamamoto98}MikioYamamoto\BBA\KennthW.Church\BBOP1998\BBCP.\newblock\BBOQUsingSuffixArraystoComputeTermFrequencyandDocumentFrequencyforAllSubstringsinaCorpus\BBCQ\\newblockIn{\BemProceedingoftheSixthWorkshoponVeryLargeCorpora},\newblockEditor:EugeneCharniak,pp.~28--37.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本英子}{1996年豊橋技術科学大学情報工学課程卒業.2002年同大学大学院工学研究科電子・情報工学専攻博士課程修了.博士(工学).同年,通信総合研究所に専攻研究員として入所.}\bioauthor{武田善行}{2000年豊橋技術科学大学工学部情報工学課程卒業.2002年同大学工学研究科情報工学専攻修士課程修了.同年同大学大学院工学研究科電子・情報工学専攻博士課程入学.現在に至る.}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究系情報工学専攻修士課程修了.博士(工学).同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,現在に至る.システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N05-07
|
\section{はじめに}
label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\underline{にあたって},荷物をチェックした.\label{ex:niatatte-F}\itemボールは,壁\underline{にあたって}跳ね返った.\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,本論文では,文\nobreak{}(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現検出は,日本語解析技術の中でも基盤的な技術であり,高カバレージかつ高精度な技術を確立することにより,後段の様々な解析や応用の効果が期待できる.一例として,以下の例文を題材に,機能表現検出の後段の応用として機械翻訳を想定した場合を考える.\begin{example}\item私は,彼の車\underline{について}走った.\label{ex:nitsuite-C}\item私は,自分の夢\underline{について}話した.\label{ex:nitsuite-F}\end{example}\strref{ex:nitsuite-C}では,下線部は内容的用法として働いており,\strref{ex:nitsuite-F}では,下線部は機能的用法として働いており,それぞれ英語に訳すと,\strref{ex:nitsuite-C-e},\strref{ex:nitsuite-F-e}となる.\begin{example}\itemIdrove\underline{\mbox{following}}hiscar.\label{ex:nitsuite-C-e}\itemItalked\underline{about}mydream.\label{ex:nitsuite-F-e}\end{example}下線部に注目すれば分かる通り,英語に訳した場合,内容的用法と機能的用法で対応する英単語が異なっている.このように内容的用法と機能的用法で対応する英単語が異なるので,機能表現検出のタスクは,機械翻訳の精度向上に効果があると考えられる.また,機能表現検出の後段の解析として格解析を想定する.格解析は,用言とそれがとる格要素の関係を記述した格フレームを利用して行われる.\begin{example}\item私は,彼の仕事\underline{について}話す.\label{ex:nitsuite-k}\end{example}「について」という機能表現を含む\strref{ex:nitsuite-k}において,格解析を行う場合,機能表現を考慮しなければ,「仕事」と「話す」の関係を検出することができず,「私は」と「話す」の関係がガ格であることしか,検出できない.それに対して,「について」という機能表現を考慮することができれば,「仕事」と「話す」の関係の機能的な関係を「について」という機能表現が表現していることが検出することができる.このことから,機能表現検出の結果は,格解析の精度向上に効果があると考えられる.さらに,以下の例文を題材にして,機能表現検出の後段の解析としてを係り受け解析を想定する.\begin{example}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-1}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-2}\end{example}\strref{ex:niouzite-1},\strref{ex:niouzite-2}における空白の区切りは,それぞれ,機能表現を考慮していない場合の文節区切り,機能表現を考慮した場合の文節区切りを表している.この例文において,「限度に」という文節の係り先を推定する時,「限度に」という文節が動詞を含む文節に係りやすいという特徴をもっているので,\strref{ex:niouzite-1}の場合,「応じて」という文節に係ってしまう.それに対して,\strref{ex:niouzite-2}では,「に応じて」を機能表現として扱っているので,「限度に」の係り先を正しく推定できる.このようなことから,機能表現のタスクは,格解析の精度向上に効果があると考えられる.本論文では,これら3つの応用研究の内,係り受け解析への機能表現検出の適用方法を考えた.日本語の機能表現として認定すべき表記の一覧については,いくつかの先行研究が存在する.\cite{Morita89aj}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{Matsuyoshi06ajm}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.\cite{日本語複合辞用例データベースの作成と分析}は,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類である.本論文では,この59種類の表現を当面の検討対象とする.まず,既存の解析系について,この59種類の表現に対する取り扱い状況を調査したところ,59種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照.}.59種類の表現の内,形態素解析器JUMAN\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は24種類である.また,形態素解析器ChaSen\cite{chasen-2.3.3}と構文解析器CaboCha\cite{TKudo02aj}の組合わせを用いた場合には,識別される可能性がある表現は20種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器と検出器によって検出される機能表現を考慮した係り受け解析器が必要である.まず,検出器の実現方法を考えた場合,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは容易ではない.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出するアプローチ~\cite{Tsuchiya07aj}をとる.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha\cite{TKudo02bj}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた59表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.次に,機能表現を考慮した係り受け解析器の実現方法としては,既存の解析系であるKNPとCaboChaを利用する方法が考えられる.KNPを利用する場合は,新たに機能表現を考慮した係り受け規則を作成する必要がある.それに対して,CaboChaを利用する場合は,現在使用されている訓練用データ(京都テキストコーパス~\cite{Kurohashi97bj})を機能表現を考慮したものに自動的に変換すればよい.そこで,本論文では,CaboChaの学習を機能表現を考慮した訓練データで行うことによって,機能表現を考慮した係り受け解析器を実現する.訓練データの作成には,訓練の対象となる文の係り受け情報と文に存在する機能表現の情報を利用する.本論文の構成は以下の通りである.\ref{sec:fe}~節で,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べる.\ref{sec:chunker}~節で,機能表現検出をチャンク同定問題として定式化し,SVMを利用した機能表現のチャンキングについて説明し,機能表現検出器の検出性能の評価を行い,この検出器が,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.\ref{sec:係り受け解析}~節では,機能表現検出器によって検出される機能表現を考慮した係り受け解析器について説明を行い,機能表現を考慮した係り受け解析器と従来の係り受け解析器を使った機能表現を考慮した最適な係り受け解析について述べ,実際に機能表現を考慮した係り受け解析の評価を行う.\ref{sec:関連研究}~節では,関連研究について述べ,最後に\ref{sec:結論}~節で結論を述べる.
\section{機能表現およびその用法}
label{sec:fe}\subsection{用例データベース}森田ら\cite{Morita89aj}は,機能表現の中でも特に「単なる語の連接ではなく,表現形式全体として,個々の構成要素のプラス以上の独自の意味が生じている」表現を{\bfseries複合辞}と呼び,個々の構成要素の意味から構成的に表現形式全体の意味を説明できるような表現とは区別している.現代語複合辞用例集\cite{NLRI01aj-nlp}(以下,{\bfseries複合辞用例集}と呼ぶ)は,主要な125種類の複合辞について,用例を集成し,説明を加えたものである.\begin{table}[t]\setlength{\tabcolsep}{4pt}\caption{判定ラベル体系}\label{tbl:判定ラベル体系}\newcommand{\exlabel}[1]{}\input{07t01.txt}\end{table}日本語複合辞用例データベース\cite{日本語複合辞用例データベースの作成と分析}(以下,{\bfseries用例データベース}と呼ぶ)は,機能表現の機械処理を研究するための基礎データを提供することを目的として設計・編纂されたデータベースである.用例データベースは,複合辞用例集に収録されている125種類の複合辞および,その異形(合計337種類の機能表現)を対象として,機能表現候補と一致する表記のリストと,個々の機能表現候補に対して最大50個の用例を収録している.また,用例は,毎日新聞1995年から収集されている.そして,各機能表現候補が文中において果たしている働きを,\tabref{tbl:判定ラベル体系}および次節に示す6種類の判定ラベルのうちから人手で判定し,付与している.\subsection{判定ラベル体系}\label{subsec:label}判定ラベルとは,機能表現候補が文中でどのような働きをしているかを表すラベルであり,用例データベースでは\tabref{tbl:判定ラベル体系}の通り,6種類のラベルが設定されている.以下,個々の判定ラベルについて説明する.用例データベースでは,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に登録されている語から,「助詞・格助詞・連語」として登録されている語を取り除いた残りの語を,語としている.そして,ある機能表現候補が,1個以上の語,複合辞または慣用表現からなる列である場合,その候補は判定単位として適切であるが,それ以外の場合は,その候補は判定単位として不適切であるとして,判定ラベルBを付与している.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A43-2000:B}に含まれる機能表現候補「にかけて」は,「心配する」という意味の慣用表現「気にかける」の一部が活用した形であり,先に述べた条件を満たしていない.したがって,\strref{ex:A43-2000:B}には,判定ラベルBが付与される.判定ラベルYは,機能表現候補の読みが,判定対象となっている機能表現の読みと一致していないことを表す.例えば,「AうえでB」という形で,「Aした後でB」という出来事の継起関係を表す機能表現「うえで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A12-1000:Y}を判定する場合を考える.この場合,機能表現候補の読み「じょうで」と,判定対象となっている機能表現の読み「うえで」が一致していないので.判定ラベルYを付与する.判定ラベルCは,機能表現候補に内容的に働いている語が含まれていることを表す.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A56-1000:C}の機能表現候補に含まれる動詞「とる」は本来の意味で内容的に働いているので,判定ラベルとしてCを付与する.判定ラベルF,A,Mは,機能表現候補が機能的に働いているとき,その機能を区別するためのラベルである.判定ラベルFは,機能表現候補が複合辞用例集で説明されている用法で働いていることを表し,判定ラベルAは,機能表現候補が接続詞的に働いていることを表す.判定ラベルMは,これら以外の機能的な働きをしていることを表す.例として,機能表現候補「ところで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A22-1000:F}$\sim$(\ref{ex:A22-1000:M})を判定する場合を考える.\strref{ex:A22-1000:F}では,複合辞用例集で説明されている通りに逆接の働きをしているので,判定ラベルFを付与する.\strref{ex:A22-1000:A}では,文頭で接続詞的に働いているので,判定ラベルAを付与する.\strref{ex:A22-1000:M}では,形式名詞「ところ」を含めて機能的に働いているので,判定ラベルMを付与する.本論文では,判定ラベルF,A,Mが付与される機能表現候補を検出対象とする.
\section{機能表現検出}
label{sec:chunker}\subsection{SVMを用いたチャンキングによる機能表現検出}\label{sec:chunking_using_svm}\subsubsection{SupportVectorMachines}サポートベクトルマシンは,素性空間を超平面で分割することによりデータを2つのクラスに分類する二値分類器である\cite{SVM,tinysvm}.2つのクラスを正例,負例とすると,学習データにおける正例と負例の間隔(マージン)を最大にする超平面を求め,それを用いて分類を行う.すなわち,以下の識別関数$f(x)$の値によってクラスを判別することと等価である.{\allowdisplaybreaks\begin{align}\label{eq:svm1}f({\bfx})&=sgn\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\[0.5ex]b&=-\frac{\max_{i,y_i=-1}b_i+\min_{i,y_i=1}b_i}{2}\nonumber\\[0.5ex]b_i&=\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{align}}ここで${\bfx}$は識別したい事例の文脈(素性の集合),${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈とクラスである.また,関数$sgn(x)$は,$x\geq0$のときに1,$x<0$のときに$-1$となる二値関数である.各$\alpha_i$は,式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもとで式(\ref{eq:svm4})の$L(\mbox{\boldmath$\alpha$})$を最大にするものである.\begin{align}L(\mbox{\boldmath$\alpha$})&=\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\label{eq:svm4}\\&0\leq\alpha_i\leqC\,\,(i=1,...,l)\label{eq:svm5}\\&\sum^l_{i=1}\alpha_iy_i=0\label{eq:svm6}\end{align}関数$K$はカーネル関数と呼ばれ,様々なものが提案されているが,本論文では次式で定義される多項式カーネルを用いる.\begin{equation}\label{eq:svm3}K({\bfx},{\bfy})=({\bfx}\cdot{\bfy}+1)^d\end{equation}ここで,$C,d$は実験的に設定される定数である.予備実験を行い,次数$d$の値として$1,\2,\3$の3通りを検討した.$d=2,3$とした場合はF値に大きな差はなかったが,$d=1$とするとF値がかなり悪化した\footnote{評価尺度(F値)については\ref{subsec:評価尺度}節を参照.}.ただし,$d=3$とした場合は,$d=2$とした場合に比べて,学習時間がかなり増加したため,本論文では,次数$d$の値として2を用いる.また,予備実験において,マージン$C$の値として$1,0.1,0.01,0.001,0.0001$の5通りを検討したところ,F値に大きな差が見られなかったため,本論文ではマージン$C$の値として1を用いる.\subsubsection{チャンクタグの表現法}本論文では,検出対象とする機能表現全てに共通のチャンクタグを,形態素を単位として付与するという手順で,機能表現検出を行う.チャンクタグは,そのチャンクタグが付与された形態素が,検出対象とする機能表現のいずれかに含まれるか否かを表し,チャンクの範囲を示す要素とチャンクの用法を示す要素という2つの要素からなる.以下,本論文で用いたチャンクタグについて詳細を述べる.チャンクの範囲を示す要素の表現法としては,以下で示すようなIOB2フォーマット\cite{Sang00a}が広く利用されている.本論文でも,このIOB2フォーマットを使用する.\begin{center}\begin{tabular}{cl}\textbf{I}&チャンクに含まれる形態素(先頭以外)\\\textbf{O}&チャンクに含まれない形態素\\\textbf{B}&チャンクの先頭の形態素\\\end{tabular}\end{center}ただし,本論文ではIOB2フォーマットを,さらに\tabref{tbl:chunktag}のように機能表現候補の用法によって細分化したものを使用する.この表において,機能的用法とは,用例データベースで設定されている判定ラベルのうち,ラベルF,A,Mのいずれかが付与されたものを表し,内容的用法とは,判定ラベルのうち,ラベルC,Y,Bのいずれかが付与されたものを表している.本論文では,2つの用法のうち,機能的用法を検出する機能表現検出器を作成する.\begin{table}[t]\caption{チャンクタグ}\label{tbl:chunktag}\input{07t02.txt}\end{table}SVMは二値分類器であるため,そのままでは,2クラスの分類しか扱えない.本論文のようにクラス数が3以上の場合には,複数の二値分類器を組み合わせて拡張する必要がある.本論文では,拡張手法としては,広く利用されているペアワイズ法を用いる.ペアワイズ法とは,$N$個のクラスに属するデータを分類する時,異なる2つのクラスのあらゆる組み合わせに対する二値分類器を作り,得られた$N(N-1)/2$個の二値分類器の多数決により,クラスを決定する方法である.\subsubsection{素性}\label{subsec:feature}学習$\cdot$解析に用いる素性について説明する.文頭から$i$番目の形態素$m_{i}$に対して与えられる素性$F_{i}$は,形態素素性$MF(m_{i})$,チャンク素性$CF(i)$,チャンク文脈素性$OF(i)$の3つ組として,次式によって定義される.\begin{equation}F_{i}=\langleMF(m_{i}),CF(i),OF(i)\rangle\end{equation}形態素素性$MF(m_{i})$は,形態素解析器によって形態素$m_{i}$に付与される情報である.本論文では,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に基づいて動作する形態素解析器ChaSenによる形態素解析結果を入力としているため,以下の10種類の情報(表層形,品詞,品詞細分類$1\sim3$,活用型,活用形,原形,読み,発音)を形態素素性として用いた.チャンク素性$CF(i)$とチャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補に基づいて定まる素性である.今,下図のような形態素列$m_j\ldotsm_i\ldotsm_k$からなる機能表現候補$E$が存在したとする.\begin{center}\begin{tabular}[tb]{ccccc}$m_{j-2}$&$m_{j-1}$&\fbox{$m_j\ldotsm_i\ldotsm_k$}&$m_{k+1}$&$m_{k+2}$\\&&機能表現候補$E$&&\end{tabular}\end{center}チャンク素性$CF(i)$は,$i$番目の位置に出現している機能表現候補$E$を構成している形態素の数(機能表現候補の長さ)と,機能表現候補中における形態素$m_{i}$の相対的位置の情報の2つ組である.チャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補の直前2形態素および直後2形態素の形態素素性とチャンク素性の組である.すなわち,$i$番目の位置に対する$CF(i)$および$OF(i)$は次式で表される.\begin{align*}CF(i)&=\langlek-j+1,\;\;i-j+1\rangle\\OF(i)&=\langle~MF(m_{j-2}),CF(m_{j-2}),MF(m_{j-1}),CF(m_{j-1}),\\&~~MF(m_{k+1}),CF(m_{k+1}),MF(m_{k+2}),CF(m_{k+2})~\rangle\end{align*}機能表現検出においては,1つの文中に,複数の機能表現候補が部分的に重複して現れる場合を考慮する必要がある.ここでは,そのような場合のチャンク素性とチャンク文脈素性の付与方法について考える.複数の機能表現候補が部分的に重複して現れている場合,それらの候補全てに基づいてチャンク素性とチャンク文脈素性を付与するという方法と,それらの候補から何らかの基準を用いて1つの候補を選択し,選択された候補に基づいてチャンク素性とチャンク文脈素性を付与するという方法が考えられる.前者の方法で付与された素性を参照して機械学習を行うには,重複する可能性がある機能表現の全ての組み合わせに対して十分な量の学習事例が必要であるが,そのような学習事例を準備することは現実的ではない.そのため,本論文では,後者の方法を採り,次の優先順序に従って選ばれた1つの機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与することにする.\begin{description}\item[1]先頭の形態素が,最も左側の機能表現候補を用いる.\item[2]1を満たす候補が複数存在する場合は,その中で最も形態素数が多い候補を用いる.\end{description}例えば,\strref{ex:nakutehaikemasen}には,「なくてはいけません」および「てはいけません」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\item慎重にし\kern0pt\OriUnderline{なく}\kern0pt\OriUnderline{\OriUnderline{てはいけません}}.\label{ex:nakutehaikemasen}\end{example}この場合,「なくてはいけません」という機能表現候補が,「てはいけません」という機能表現候補に比べて,より左の形態素から始まっているので,「なくてはいけません」という機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与する.また,\strref{ex:toiumonono}には,「という」および「というものの」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\itemそれが試合\kern0pt\OriUnderline{\OriUnderline{という}}\kern0pt\OriUnderline{ものの}{\kern0pt}難しさだ.\label{ex:toiumonono}\end{example}この場合,2つの機能表現候補の先頭の形態素は同一であるため,より形態素数が多い候補「というものの」に基づいて,チャンク素性とチャンク文脈素性を付与する.$i$番目の形態素に対するチャンクタグを$c_{i}$とすると,チャンクタグ$c_{i}$の学習・解析を行う場合に用いる素性として,$i$番目の形態素および前後2形態素に付与された素性$F_{i-2},F_{i-1},F_{i},F_{i+1},F_{i+2}$と,直前2形態素に付与されたチャンクタグ$c_{i-2},c_{i-1}$を用いる(\figref{yamcha}).解析時には,解析によって得られたチャンクタグを,直前2形態素に付与されたチャンクタグとして順に利用して,解析を行う.前後3形態素の素性と直前3形態素のチャンクタグを用いて学習・解析を行う予備実験も行ったが,前後2形態素の素性と直前2形態素のチャンクタグを用いた場合に比べて,殆んど性能が変わらなかったため,前後2形態素の素性と直前2形態素のチャンクタグを用いる.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f1.eps}\end{center}\caption{YamChaの学習・解析}\label{yamcha}\end{figure}\subsection{実験と考察}\label{subsec:実験と考察}本論文で提案する機能表現検出器に対して,学習および解析を行い,各ベースラインと性能を比較した.\subsubsection{データセット}\label{subsec:dataset}文を単位として学習を行うには,文中に現れる全ての機能表現候補に対して判定ラベルが付与されたデータが必要である.本論文では,判別が必要な111表現のなかでも,新聞記事においても,機能的用法と内容的用法の両方が一定の割合で出現する59表現を対象とする.そして,これらの59表現に対する用例として用例データベースに収録されている2583例文について,これらの例文に含まれている全ての機能表現候補に判定ラベルを付与した.さらに,この例文の内,京都テキストコーパスに含まれる文と重複する154文を除いた.本論文では,この2429文(各表現について20用例以上収録)を機能表現検出器の訓練データとして使用する.ただし,用例データベースでは,機能表現候補の先頭と末尾が形態素境界と一致しない候補にも判定ラベルが付与されているが,本論文では,形態素解析結果に基づいて機能表現を検出する立場をとるため,そのような機能表現候補に対する判定ラベルは取り除くことにする.具体的には,以下のような処理を行った.最初に,用例データベースに収録されている用例を,IPA品詞体系の形態素解析用辞書に基づいて動作する形態素解析器ChaSenを用いて形態素解析した.次に,形態素解析結果中に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されており,かつ実験の対象である59表現となる複合語が含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた.このようにして得られた形態素解析結果と機能表現候補を照合し,先頭と末尾が形態素境界と一致しなかった判定ラベルを取り除いた.また,機能表現検出器の評価データとしては,京都テキストコーパスに収録されている文を対象とし,その文に含まれている全ての機能表現候補に対して,判定ラベルを付与したものを使用した.\begin{table}[t]\caption{データセットの各統計量}\label{tbl:dataset}\input{07t03.txt}\end{table}訓練・評価データに含まれる各用法の数と,全形態素数を\tabref{tbl:dataset}に示す.1つの例文に,複数の機能表現候補が出現する場合があるため,機能表現候補の総数は,例文の総数よりも多くなっている.また,評価データ(京都テキストコーパス)における機能表現候補の分布は,\tabref{tbl:kyoto_FE_freq1}の通りである.\tabref{tbl:kyoto_FE_freq1}には,京都テキストコーパスにおける機能表現の分布以外に,機能表現の用例データベースにおける分類,その分類に基づいた係り受け解析の学習の際に使用する品詞体系の情報が示されている.機能表現の分類には,接続詞相当の働きをするもの(接続詞型),助詞相当の働きをするもの(助詞型),助動詞相当の働きをするもの(助動詞型)の3種類存在する.さらに,助詞型の機能表現は,接続助詞相当のもの(接続辞類),格助詞相当のもの(連用辞類),連体助詞相当のもの(連体辞類)に細分類することができる.係り受け解析の学習の際に使用する品詞体系は,上で述べた機能表現の分類に基づいて作成されている.また,\tabref{tbl:kyoto_FE_freq1}には,「といっても」,「とはいえ」など,接続詞型と助詞型の二つの分類に重複して登場している表現がある.これは,「といっても」などの機能表現候補は,接続詞型,助詞型のどちらの機能表現にもなりうるからである.\begin{table}[p]\caption{京都テキストコーパスにおける機能表現候補の出現頻度}\vspace{-2pt}\label{tbl:kyoto_FE_freq1}\input{07t04.txt}\end{table}\subsubsection{評価尺度}\label{subsec:評価尺度}実験を評価する際の尺度には,以下の式で表される精度,再現率,F値,および判別率を用いた.{\allowdisplaybreaks\begin{align*}\mbox{精度}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{解析によって検出されたチャンク数}}\\[1zw]\mbox{再現率}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{評価データに存在するチャンク数}}\\[1zw]\mbox{F値}&=\frac{2\times\mbox{精度}\times\mbox{再現率}}{\mbox{精度}+\mbox{再現率}}\\[1zw]\mbox{判別率}&=\frac{\mbox{正解した判定ラベル数}}{\mbox{全判定ラベル数}}\end{align*}}\subsubsection{既存の解析系に対する評価基準}\label{subsec:既存の解析系}既存の解析系(JUMAN/KNPおよびChaSen/CaboCha)は,形態素解析および構文解析段階で処理が必要となる機能表現を,部分的に処理の対象としている.しかし,明示的に機能表現を取り扱うという立場は取っていないため,機能表現のチャンキングというタスクに対する既存の解析系の性能を評価するには,その出力をどのように解釈するかを定めておく必要がある.形態素解析器JUMANと構文解析器KNPの組み合わせでは,機能表現は以下のように処理される.最初に,接続詞として形態素解析用辞書に登録されている機能表現は,形態素解析時に検出される.次に,構文解析時に,解析規則に記述された特定の形態素列が現れると,直前の文節の一部としてまとめたり,直前の文節からの係り受けのみを受けるように制約を加えて,機能表現である可能性を考慮した解析を行う.一方,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}を用いた形態素解析器ChaSenと,京都テキストコーパス\cite{Kurohashi97bj}から機械学習したモデルを用いた構文解析器CaboChaの組合わせでは,機能表現は以下のように処理される.最初に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている機能表現は,形態素解析時に検出される.また,「ざるを得ない」などの表現は直前の文節の一部としてまとめられ,機能的な表現として解析される.既存の解析系でも,一部の機能表現については,機能的な働きをしていることを考慮した解析が行われているが,その対応状況は不十分である.判定ラベルF,A,Mのいずれかが付与されている用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮して解析され,かつ,判定ラベルC,Y,Bのいずれかが付与された用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮せずに解析されている場合,その機能表現は,用法が正しく区別される可能性があるとする.用例データベースに50用例が収録されている表現で,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類ある\footnote{ここでの機能表現の種類数には,\cite{Tsuchiya07aj}における記述とは差異があるが,これは,本論文においては,「機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する」という条件の認定方法の改訂を行ったためである.}.その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は,23種類である.一方,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は21種類である.また,用例データベースに収録されている337表現全体では,新聞上の実際の用法の割合に関係なく識別が必要と思われる表現は,111種類である.その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は43種類,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は40種類である.\subsubsection{評価結果}本論文で提案する機能表現検出器と,各ベースラインの検出性能を\tabref{tab:kekka_gaiyou}に示す.\tabref{tab:kekka_gaiyou}において,「頻度最大の判定ラベル」とは,全ての候補部分に対して頻度最大の判定ラベル(機能的用法)を付与した場合の検出性能である.「人手作成の規則による検出器」は,\cite{形態素情報を用いた日本語機能表現の検出}による検出性能である.\begin{table}[b]\caption{各検出器の検出性能(\%)}\label{tab:kekka_gaiyou}\input{07t05.txt}\end{table}\tabref{tab:kekka_gaiyou}中の「CRFを用いた検出器」は,ConditionalRandomFileds(CRF)\cite{CRF}によって学習・解析を行った場合の検出性能である.CRFとは,系列ラベリング問題のために設計された識別モデルであり,正しい系列ラベリングを他の全ラベリング候補と弁別するような学習を行う.本論文では,CRFによる学習・解析用ツールとしてCRF++\footnote{\url{http://chasen.org/~taku/software/CRF++/}}を利用した.素性としては,前後2形態素の形態素素性,チャンク素性,チャンク文脈素性と,直前2形態素のチャンクタグを用いた.学習時には,事前分布としてGaussianPriorを用いて事後確率を最大化することにより,パラメータを正則化した\cite{TKudo04b}.その際のハイパーパラメータとしては,1,2,3,4,5の5通りの値について予備実験を行い,最も良い性能を示した1を採用した.\tabref{tab:kekka_gaiyou}中の「SVMを用いた検出器」は,本論文の提案するSVMによるチャンキング手法による検出性能である.表より,提案手法は,学習・解析に用いた素性に関わらず,ベースラインおよび人手作成の規則による検出よりも,高いF値を示した.また,提案手法は,CRFを用いた検出器よりも,高いF値を示した.\tabref{tab:kekka_gaiyou}を見ると,「JUMAN/KNP」,「ChaSen/CaboCha」が他の手法に比べて著しく性能が悪いのがわかる.これは,\ref{subsec:既存の解析系}節で述べたように,「JUMAN/KNP」,「ChaSen/CaboCha」が取り扱っている機能表現が,本実験の対象である59表現の内,23表現,21表現となっているのが,一つの原因である.もう一つの原因は,評価対象の大部分を占める「という」という表現に対する再現率が,両解析系において,著しく低いということである.学習・解析に用いた素性の違いによる性能の違いを検討すると,形態素素性のみを用いた場合よりも形態素素性とチャンク素性を併用した場合の方が,形態素素性とチャンク素性を併用した場合よりも形態素素性,チャンク素性,チャンク文脈素性すべてを使用した場合の方が検出性能がすぐれていることから,チャンク素性とチャンク文脈素性は,機能表現を検出するための素性として適当であったといえる.全ての素性を用いて学習と解析を行った機能表現検出器において,評価用データにおいて10用例以上存在し,他の表現と比較して極端に検出性能が悪く,F値が70に達しなかった表現は,「にあたり」の1表現である.例えば,\strref{ex:niatari-F}に含まれる「にあたり」は,「(新規参入という)時が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatari-C}および\strref{ex:niatari-C2}に含まれる「にあたり」は,内容的に用いられている.\begin{example}\item新規参入\underline{にあたり},潜在的なニーズを掘り起こそうと,転勤族を主な対象にした.\label{ex:niatari-F}\itemお神酒の瓶が女性\underline{にあたり},けがをする事故があった.\label{ex:niatari-C}\item米国の最先端の科学者が知恵を結集して原爆の開発\underline{にあたり},一九四五年八月に広島・長崎に原爆が投下された.\label{ex:niatari-C2}\end{example}しかし,SVMを用いた検出器は,\strref{ex:niatari-F}と\strref{ex:niatari-C}の用法を内容的用法として,また,\strref{ex:niatari-C2}の用法を機能的用法として検出してしまい,用法を正しく判定できたのは\strref{ex:niatari-C}のみであった.仮に,\strref{ex:niatari-F}と\strref{ex:niatari-C}を区別することだけが必要ならば,直前がサ変名詞であることが有効な素性として働く可能性があるが,\strref{ex:niatari-C2}は,そのような素性だけではうまく判定できない.このように,提案手法によっては適切に検出できない表現もごく少数ながら存在するが,他の表現については,\tabref{tab:kekka_gaiyou}に示したように適切に検出することができた.
\section{機能表現を考慮した係り受け解析器}
\label{sec:係り受け解析}\subsection{SVMを用いた統計的係り受け解析}\label{subsec:CaboCha}本論文では,SVMを用いた統計的係り受け解析手法\cite{TKudo02aj}を利用して係り受け解析を行っている.工藤らの手法は,入力文$B$に対する,条件付き確率$P(D\!\mid\!B$)を最大にする係り受けパターン列$D$を求める従来の手法と異なり,チャンキングを段階的に適用することによって係り受け解析を実現している.ここで,入力文$B$とは,あらかじめ文節にまとめられ,属性付けされた文節列${b_1,b_2,...,b_m}$を表しており,係り受けパターン列$D$とは,${Dep(1),Dep(2),...,Dep(m-1)}$を表している.ただし,$Dep(i)$は,文節$b_i$の係り先文節番号を示す.実際には,以下のようなアルゴリズムによって,段階的にチャンキングを行っている.\begin{enumerate}\item入力文節すべてに対し,係り受けが未定であることを示すOタグを付与する.\item文末の文節を除くOタグが付与された文節に対し,直後の文節に係るか否かを判定.係る場合はDタグを付与.文末から2番目の文節には無条件にDタグを付与.\itemOタグの直後にあるすべてのDタグおよびその文節を削除する.\item残った文節が一つ(文末の文節)の場合は終了,それ以外は2.に戻る.\end{enumerate}このアルゴリズムによる解析例を\figref{fig:example_dep}に示す.\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f2.eps}\end{center}\caption{係り受け解析の流れ}\label{fig:example_dep}\end{figure}\figref{fig:example_dep}では,入力として「彼は彼女の温かい真心に感動した.」という文を文節単位に区切ったものが与えられている.そして,それぞれの文節に対して,係り受けが未定であることを示すOタグが付与される.その後,Oタグが付与されている文節に対し,直後の文節に係るか否かを判定する(文末から2番目の文節は無条件にDタグを付与).すると,「温かい」,「真心に」という文節が直後の文節に係ると推定されるので,Dタグが付与される.その後,Oタグの直後にあるすべてのDタグおよびその文節を削除するので,「温かい」という文節を削除する.この文節を削除できる理由としては,削除される文節は,非交差条件を考慮すると,他の文節から修飾されることはなく,それ自身の係り先もすでに同定されているため,係り受け候補として考慮する必要がなくなるためである.以上の作業を,入力が「感動した.」という文節のみになるまで続けると,「彼は」が「感動した.」に,「彼女の」が「真心に」に,「温かい」が「真心に」に,「真心に」が「感動した.」に係ると判定することができる.このアルゴリズムにおける係り受け関係の同定には,SVMを用いている.この場合,従来手法では,訓練データ中の全ての2文節の候補を学習事例として抽出していた.しかし,このような抽出方法では,学習データを不必要に多くしてしまい,学習の効率が悪い.それに対して,工藤らの手法では,学習も解析時と同じアルゴリズムを採用している.つまり,学習で使われる文節のセットは,上のアルゴリズムにおいて隣り合う文節のみであるので,負例が不必要に増えるのを防ぐことができる.SVMの学習・解析に使用する素性は,\tabref{tbl:feature}に示す通りである.\begin{table}[b]\setlength{\tabcolsep}{4pt}\caption{係り受けの学習・解析に使う素性}\label{tbl:feature}\input{07t06.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f3.eps}\end{center}\caption{係り受け解析例}\label{fig:feature_for_cabocha}\end{figure}静的素性とは,文節の作成時に決定される素性を示しており,動的素性とは,係り関係そのものを素性としたものである.また,主辞とは文節内で品詞が特殊,助詞,接尾辞となるものを除き,文末に一番近い形態素を指し,語形とは文節内で品詞が特殊となるものを除き,文末に一番近い形態素のことを指す.具体的に\figref{fig:feature_for_cabocha}の文において,「して」という文節と「参加した」という文節の係り受け関係の学習・解析に使われる素性について見てみる.まず,係り元,係り先の文節である「して」と「参加した」の主辞,語形の情報と,各文節における括弧の有無,句読点の有無,文節の位置(文頭,文末)が素性として使用される.次に文節間の素性として,文節の距離,文節の間に存在する全ての助詞の見出し,文節間の括弧の有無,文節間の句読点の有無が使用される.「して」と「参加した」の間には,「運動会に」という文節が存在している.よって,文節の距離としては,「2以上5以下」(素性として1,2以上5以下,6以上の3通りの素性を選択)が使用される.文節の間に存在する全ての助詞の見出しとしては,「運動会に」に含まれる「に」が使用される.括弧の有無は,「運動会に」には括弧が含まれていないので「0」,句読点の有無も,句読点が含まれていないので「0」が使用される.動的素性としては,係り先文節「参加した」に係る文節「運動会に」の語形見出し「に」と,係り元文節「して」に係る文節「保護者と」の語形見出し「と」と,係り先文節「参加した」が係る文節「私は,」の主辞品詞「名詞」が使用される.以上の素性の一覧を\tabref{tbl:feature_for_cabocha}に示す.\begin{table}[b]\caption{係り受けの学習・解析に使う素性の例}\label{tbl:feature_for_cabocha}\input{07t07.txt}\end{table}\subsection{機能表現を考慮した係り受け解析}\label{subsec:機能表現を考慮した学習}次に,本論文で提案する,機能表現を考慮した係り受け解析の流れを\figref{fig:flow1}に示す.まず,ChaSenによって形態素解析を行う.次に,形態素解析結果に対して,機能表現検出器を用いて,機能表現検出を行う.その際,検出された機能表現は,構成している形態素列を連結し,一つの形態素として出力される.最後に,その出力結果に対して,機能表現を考慮した係り受け解析器を用いて,係り受け解析を行う.\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f4.eps}\end{center}\caption{機能表現を考慮した係り受け解析}\label{fig:flow1}\end{figure}機能表現を考慮した係り受け解析器の学習において,形態素を連結して作られた機能表現に対して,新たに品詞名を付与する必要がある.用例データベースによると,機能表現は,接続詞相当の働きをするもの(接続詞型)と助詞相当の働きをするもの(助詞型),助動詞相当の働きをするもの(助動詞型)に分類することができる.さらに,助詞型の機能表現は,接続助詞相当のもの(接続辞類),格助詞相当のもの(連用辞類),連体助詞相当のもの(連体辞類)に細分類することができる.そこで,本論文では,\tabref{tbl:kyoto_FE_freq1}のような品詞体系を採用した.そして,現代語複合辞用例集~\cite{NLRI01aj-nlp}に掲載されている各機能表現と品詞分類との対応に基づいて,機能表現への品詞の付与を行った.特に,接続詞型になる可能性のある機能表現については,文頭に出現した場合は接続詞型とし,文頭以外の場合は助詞型とした.本論文では,SVMを用いた統計的係り受け解析手法の学習・解析ツールとしてCaboChaを利用して,機能表現を考慮した係り受け解析器を実現している.その際に,CaboChaの係り受け解析における訓練データを,機能表現を考慮したものに変換している.機能表現を考慮した係り受け解析の訓練データを作成するために必要な情報は二つある.一つは,既存の係り受け情報付与済みコーパスから得られる係り受け関係の情報である.もう一つは,対象文における機能表現の情報である.この二つの情報を用いて\figref{fig:学習の流れ}の流れで,訓練データを作成し,学習を行っている.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f5.eps}\end{center}\caption{機能表現を考慮した係り受け解析器の学習の流れ}\label{fig:学習の流れ}\end{figure}\figref{fig:学習の流れ}の訓練データ作成モジュールでは,末尾の文節から順に以下の手順に従って処理を行っている.\begin{description}\label{アルゴリズム}\item[1.]機能表現を構成している形態素列を連結する.\item[2.]連結する形態素列が複数の文節にまたがっている場合,文節の連結も行う.連結後の文節の係り先は,連結文節中の末尾の文節の係り先を採用する.\item[3a.]助詞・助動詞型の機能表現の場合で,連結した文節の先頭形態素が,機能表現の場合は,直前の文節に連結する.連結後の文節の係り先は,連結文節中の末尾の文節の係り先を採用する.\item[3b.]接続詞型の機能表現の場合で,一文節が機能表現のみで構成されない場合は,機能表現のみで一文節を構成するように文節を分解する.\item[4.]文節の連結,分解に伴う文節ID,係り先の変化を反映させる.\end{description}\figref{fig:訓練データ作成の流れ}に,機能表現を考慮した係り受け解析の訓練データ作成の例を示す.\figref{fig:訓練データ作成の流れ}中には,「にあたり」という機能表現が存在している.よって,まず格助詞「に」と動詞「あたる」の連用形「あたり」の連結を行う.それに伴い,「年頭に」という文節と「あたり」という文節の連結を行う.連結された「年頭にあたり」という文節の係り先は,「あたり」の係り先を採用する.次に,「年頭にあたり」以降の文節の文節IDと,「年頭にあたり」以降の文節に係る文節の係り先文節IDに対して変更を加える.このような作業をすることによって,機能表現を考慮していない係り受け解析の訓練データを,機能表現を考慮したものに変換していく.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f6.eps}\end{center}\caption{機能表現を考慮した係り受け解析の訓練データ作成の例}\label{fig:訓練データ作成の流れ}\end{figure}機能表現を考慮しない係り受け解析の学習(\figref{fig:feature_for_cabocha1})と機能表現を考慮した係り受け解析の学習(\figref{fig:feature_for_cabocha2})の間では,学習に使用する素性が異なる.以下では,\figref{fig:feature_for_cabocha1}における「して」という文節,および,\figref{fig:feature_for_cabocha2}における「保護者として」という文節と,「参加した」という文節の間の係り受け関係に注目する.まず,\figref{fig:feature_for_cabocha2}においては,文節の区切りが機能表現を考慮したものになっている.それによって,注目する係り受け関係の係り元文節が,\figref{fig:feature_for_cabocha1}では「して」という文節なのに対し,\figref{fig:feature_for_cabocha2}では「保護者として」となる.この違いによって,\tabref{tbl:feature_change_for_cabocha}に示すように,実際に学習・解析に使用する素性の間にも差違が生じる.具体的には,係り元の文節が「して」から「保護者として」と変化することによって,係り元の主辞が「し」から「保護」に,係り元の語形が「て」から「として」に変化している.また,係り元の文節に係る文節も「保護者と」から「甥の」に変化している.このように学習・解析に使用する素性を機能表現を考慮したものにすることによって,機能表現を考慮した係り受け解析が実現される.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f7.eps}\end{center}\caption{係り受け解析例(機能表現考慮せず)}\label{fig:feature_for_cabocha1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f8.eps}\end{center}\caption{係り受け解析例(機能表現考慮)}\label{fig:feature_for_cabocha2}\end{figure}\begin{table}[t]\caption{係り受けの学習・解析に使う素性の変化}\label{tbl:feature_change_for_cabocha}\input{07t08.txt}\end{table}\subsection{実験と考察}\label{subsec:係り受け解析の実験}本論文で提案する係り受け解析器に対して,学習および解析を行い,各ベースラインと性能比較をした.この際,対象とする表現は,機能表現検出器が対象としていた59表現である.実験で使われた機能表現検出器は,\ref{subsec:実験と考察}節の実験の訓練データで訓練を行ったものである.この際,素性は,形態素素性,チャンク素性,チャンク文脈素性を使用した.\subsubsection{データセット}\label{subsec:cabocha_dataset}係り受け解析器の訓練データとしては,京都テキストコーパス~\cite{Kurohashi97bj}を利用する.ここで,オリジナルの京都テキストコーパスには,機能表現の情報は付与されていないので,まず,京都テキストコーパス38,400文に存在する全ての機能表現に対して,判定ラベルを付与した.これらのデータセットに含まれる各用法の数と,全文数を\tabref{tbl:cabocha_dataset}に示す.\begin{table}[t]\caption{係り受け解析器用データセットの各統計量}\label{tbl:cabocha_dataset}\input{07t09.txt}\end{table}\subsubsection{評価尺度}実験結果を評価する際の尺度には,以下の式で表される係り先精度,係り元精度を用いた.\begin{align*}\mbox{係り先精度}&=\frac{\mbox{係り先を正しく同定できた文節数}}{\mbox{機能表現候補を含む文節数}}\\[1zw]\mbox{係り元精度}&=\frac{\mbox{係り元を正しく同定できた文節数}}{\mbox{機能表現候補を含む文節数}}\end{align*}\subsubsection{評価結果および考察}\begin{table}[b]\caption{係り受け解析の評価結果(\%)}\label{tbl:cabocha_result}\input{07t10.txt}\end{table}機能表現を考慮した係り受け解析器と各ベースラインの精度を\tabref{tbl:cabocha_result}に示す.評価においては,京都テキストコーパスを訓練・評価データとする10分割交差検定を行った.\tabref{tbl:cabocha_result}中の「CaboCha(機能表現抜き)」は,IPAdic辞書に連語として登録されている機能表現の内,評価対象の機能表現にあたるものを機能表現を構成している形態素に分解し,CaboChaの訓練を再度行ったものである.それらの機能表現は,59表現中「ところが」,「にあたって」,「にあたり」,「にかけて」,「に従い」,「につき」,「につけ」,「にとり」,「にかけ」,「として」,「をめぐる」,「という」,「といった」の13表現である.「CaboCha(オリジナル)」は,上記の連語に対して構成形態素への分解を行わず,CaboChaの訓練を再度行ったものである.また,機能表現を考慮した係り受け解析では,機能表現判定ラベルとして,\ref{sec:chunker}~節で述べた検出器により出力された結果を用いた場合,および,人手で付与した正解判定ラベルを用いた場合の二通りを評価した.\tabref{tbl:cabocha_result}を見ると,提案手法は,係り先精度については,ベースラインとの差を見ることができなかったが,係り元精度については,ベースラインと比べ統計的に有意な改善(有意水準5\%)が見られた\footnote{提案手法(検出器出力使用)の係り元精度$0.740(=\frac{5251}{7096})$およびベースライン(CaboCha(機能表現抜き)の係り元精度$0.725(=\frac{5148}{7100})$の母比率の差の検定による.}.よって,機能表現検出や,機能表現を考慮することが,係り元の推定に特に効果的であることがわかった.\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f9a.eps}\\(a)ベースラインによる失敗例\\[.2cm]\includegraphics{14-5ia7f9b.eps}\\(b)提案手法による成功例\end{center}\caption{係り元同定の改善例(助詞型—連用辞類)}\label{depended_sample}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f10a.eps}\\(a)ベースラインによる失敗例\\[.2cm]\includegraphics{14-5ia7f10b.eps}\\(b)提案手法による成功例\end{center}\caption{係り先同定の改善例(助動詞型)}\label{depend_sample}\end{figure}係り元の推定が改善された\underline{事例}においては,\underline{機能表現}を構成している形態素列を独立に扱うのではなく,一つの機能表現として検出していることが効果的に働いていると考えられる.例えば,「として」の場合,構成要素である形態素列を独立に扱うと,\figref{depended_sample}(a)の例文において,「チェチェン進行を」という文節が動詞を含む文節に係りやすいという特徴をもっているので,誤って「して」という文節に係ってしまう.それに対して,「として」を機能表現として扱った場合,\figref{depended_sample}(b)のように,「チェチェン進行を」の係り先を正しく推定することができる.また,係り元の推定が改悪された\underline{事例}においては,機能表現の検出ミスが改悪の主な原因であった.一方,係り先の推定が改善された\underline{事例}においては,\underline{機能表現}を構成している形態素列を独立した形態素として扱うのではなく,一つの機能表現として検出していることが効果的に働いていると考えられる.例えば,「として」の場合,構成要素である形態素列を独立に扱うと.\figref{depend_sample}(a)のように構成要素の一つである動詞「する」の連用形「し」が,最も近くの動詞と並立に係ると誤判定されることがある.それに対して,「として」を機能表現として扱った場合,\figref{depend_sample}(b)のように係り先を正しく判定できる.逆に,機能表現を考慮した係り受け解析によって,係り先の推定精度があまり改善されない原因としては,内容的用法と機能的用法とで,係り先の特徴が変化する表現がほとんどないということが挙げられる.例えば,『「絶対に勝つ」という自信満々な人もいた.』という文章において,「という」は内容的に働いており,その係り先は「人も」という文節である.また,『トップという名にこだわる人もいる.』という文章において,「という」は機能的に働いており,その係り先は「名に」という文節である.この様に,「という」は内容的用法であっても機能的用法であっても,名詞を含む文節に係る特徴がある.機能表現候補が内容的用法・機能的用法のいずれであるかということは,上で述べた通り,係り先の推定精度の改善にはあまり寄与しない.しかし,機能表現の係り先は,機能表現の品詞分類に依存する傾向がある.例えば,連用辞類の「として」は,動詞を含む文節に係るという特徴をもっているが,連体辞類の「という」は,動詞を含む文節には係らず,名詞を含む文節に係るという特徴を持っている.提案手法では,機能表現の品詞分類を行っており,機能表現の品詞を,相当する既存の品詞の細分類として扱うことによって,この問題を解決している.それに対して,CaboCha(オリジナル)では,全ての機能表現に対して,「助詞—格助詞—連語」という品詞を与え,機能表現の品詞分類を全く行っていない.このことが原因で,CaboCha(オリジナル)の係り先精度が,CaboCha(機能表現抜き)の係り先精度を下回っていると考えられる.
\section{関連研究}
\label{sec:関連研究}\cite{Uchimoto04aj,Uchimoto04}は,話し言葉コーパス\cite{CSJ}を対象コーパスとして,半自動で精度良く短単位・長単位の2種類の粒度の形態論的情報を付与する枠組みを提案している.この枠組みでは,なるべく少ない人的コストで話し言葉コーパス全体に2種類の粒度の形態素情報を付与するため,最初に短単位の解析を行い,次に,短単位の形態素情報を素性として,短単位をチャンキングすることによって長単位の形態素情報を付与するという手順を採っている.例えば,「という」という機能表現は,短単位列としては助詞「と」および動詞「いう」の連体形の2短単位に分割され,長単位としては助詞「という」という1長単位にチャンキングされる.短単位から長単位をチャンキングするための機械学習手法としては,最大エントロピー法(ME)とSVMを比較し,SVMがより優れていると報告している.内元らの研究は,話し言葉コーパス全体を対象としているのに対して,本論文では,機能表現に焦点をあてて検討を行っている点で異なる.そのため,内元らは話し言葉コーパス中の長単位全体に対する形態素解析精度の評価は行っているが,機能表現に特化した評価は行っていない.一方,本論文では,既存の解析系における機能表現の取り扱い状況を整理した上で,機能表現に特化した性能評価を行っている.また,本論文では,対象となる機能表現のリストを事前に用意しているため,形態素列のどの部分が機能表現として検出される可能性があるかという情報(チャンク素性およびチャンク文脈素性)を利用して,チャンキングを行うことができる.機械学習手法としては,CRFとSVMを比較し,SVMの方が検出性能が高いことを示している.\cite{shudo.coling80,shudo.NL88,shudo.NLC98,shudo.mwe2004}は,機能表現や慣用表現を含む複数の形態素からなる定型的表現をできるだけ網羅的に収集し,機能表現間に類似度を定義して,機能表現の言い換えや機械翻訳に利用することを提案している.\cite{hyoudo.NLC98,hyoudo.NLP99,hyoudo.NLP00}と\cite{isaji.NLP04}は,日本語の文構造の解析を容易にするため,通常よりかなり長い文節を単位として解析を行うことを提案し,機能表現を含む大規模な長単位機能語辞書を作成している.しかし,これらの先行研究における日本語処理系においては,機能表現と同一の形態素列が内容的に振る舞う可能性が考慮されていない.\cite{knp-2.0}と\cite{TKudo02aj}は,機能表現を考慮して,係り受け解析を実現している.\cite{knp-2.0}では,接続詞として形態素解析辞書に登録されている機能表現は,形態素解析時に検出される.次に,構文解析時に,解析規則に記述された特定の形態素列が現れると,直前の文節の一部にまとめたり,直前の文節からの係り受けのみを受けるように制約を加えて,機能表現を考慮した係り受け解析を実現している.\cite{TKudo02aj}では,形態素解析辞書に「助詞・格助詞・連語」や「接続詞」として登録されている機能表現は,形態素解析時に検出される.また,「ざるを得ない」などの表現は直前の文節の一部としてまとめることによって,機能表現を考慮した係り受け解析を実現している.しかし,\ref{subsec:既存の解析系}~節で述べた通り,これらの手法において考慮されている機能表現の数は,我々の一連の研究において対象とした機能表現の数よりも少ない.また,これらの研究では,機能表現検出が係り受け解析にどれだけ効果的かという評価を行っていない.一方,本論文では,評価対象を機能表現候補を含む文節に限定し,機能表現検出が係り受け解析にどのような影響を与えるのかを調べ.機能表現検出が,係り受け解析に効果的であることを示している.\cite{Tsuchiya07aj}では,本論文の\ref{sec:chunker}~節の内容に相当する機能表現のチャンキングについて述べられており,本論文では,この結果をふまえて,機能表現検出の結果を考慮した日本語係り受け解析手法(\ref{sec:係り受け解析}~節)を提案している.\cite{Tsuchiya07aj}と本論文との差分は\ref{sec:係り受け解析}~節の内容に相当するが,技術的な内容を本論文の記述範囲で完結させるために,本論文では,\ref{sec:chunker}~節を設けて,機能表現のチャンキングについても記述している.
\section{結論}
\label{sec:結論}本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,形態素を単位とするチャンク同定問題として機能表現検出タスクを定式化し,機械学習手法を適用して機能表現の検出を実現し,さらに,その機能表現検出を利用して日本語機能表現を考慮した係り受け解析を実現した.実際に,SVMを用いたチャンカーYamChaを利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装し,59種類の機能表現を対象として性能評価を行った.その結果,機械学習によって作成した機能表現検出器は,既存の解析系および人手で作成した規則を用いた検出器よりも,高精度に機能表現を検出できることを示した.係り受け解析に関しても,機能表現を考慮した訓練データから,係り受け解析・学習ツールをCaboChaを利用して学習を行い,機能表現検出器の解析結果を入力とす日本語機能表現を考慮した係り受け解析器を実装した.59種類の機能表現を対象とした評価実験において,総体的に従来のCaboChaよりもよい性能を示すことができた.今後の研究課題として,対象とする機能表現の種類を増やし,その性能を評価することを計画している.また,格解析との統合的解析の実現により,解析性能をさらに改善することが期待できると考えている.\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原松本}{浅原\JBA松本}{2003}]{ipadic-2.6.1}浅原正幸\BBACOMMA\松本裕治\BBOP2003\BBCP.\newblock\JBOQ{IPAdic}version2.6.1ユーザーズマニュアル\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/ipadic-2.6.1-j.pdf}.\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{SVM}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductionto{S}upport{V}ector{M}achinesand{O}ther{K}ernel-based{L}earning{M}ethods}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{兵藤池田}{兵藤\JBA池田}{1999}]{hyoudo.NLP99}兵藤安昭\BBACOMMA\池田尚志\BBOP1999\BBCP.\newblock\JBOQ文節単位のコストに基づく日本語文節解析システム\JBCQ\\newblock\Jem{言語処理学会第5回年次大会発表論文集},\BPGS\502--504.\bibitem[\protect\BCAY{兵藤,村上,池田}{兵藤\Jetal}{2000}]{hyoudo.NLP00}兵藤安昭,村上裕,池田尚志\BBOP2000\BBCP.\newblock\JBOQ文節解析のための長単位機能語辞書\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\407--410.\bibitem[\protect\BCAY{兵藤,若田,池田}{兵藤\Jetal}{1998}]{hyoudo.NLC98}兵藤安昭,若田光敏,池田尚志\BBOP1998\BBCP.\newblock\JBOQ文節ブロック間規則による浅い係り受け解析と精度評価\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL.\bibitem[\protect\BCAY{伊佐治,山田,池田}{伊佐治\Jetal}{2004}]{isaji.NLP04}伊佐治和哉,山田将之,池田尚志\BBOP2004\BBCP.\newblock\JBOQ長単位の機能語を辞書に持たせた文節構造解析システムibukiC\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\636--639.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2001}]{NLRI01aj-nlp}国立国語研究所\BBOP2001\BBCP.\newblock\Jem{現代語複合辞用例集}.\bibitem[\protect\BCAY{Kudo,,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{TKudo04b}Kudo,T.,,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{Japanese}MorphologicalAnalysis\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\BPGS\230--237.\bibitem[\protect\BCAY{工藤松本}{工藤\JBA松本}{2002a}]{TKudo02bj}工藤拓\BBACOMMA\松本裕治\BBOP2002a\BBCP.\newblock\JBOQ{SupportVectorMachineを用いたChunk同定}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),3--21.\bibitem[\protect\BCAY{工藤松本}{工藤\JBA松本}{2002b}]{TKudo02aj}工藤拓\BBACOMMA\松本裕治\BBOP2002b\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),1834--1842.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2000}]{tinysvm}Kudoh,T.\BBOP2000\BBCP.\newblock\BBOQ{TinySVM:SupportVectorMachines}\BBCQ\\newblock\url{http://cl.aist-nara.ac.jp/~taku-ku/software/TinySVM/index.html}.\bibitem[\protect\BCAY{黒橋河原}{黒橋\JBA河原}{2005a}]{juman-5.1}黒橋禎夫\BBACOMMA\河原大輔\BBOP2005a\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}version5.1使用説明書}.\newblock\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman/juman-5.1.tar.gz}.\bibitem[\protect\BCAY{黒橋河原}{黒橋\JBA河原}{2005b}]{knp-2.0}黒橋禎夫\BBACOMMA\河原大輔\BBOP2005b\BBCP.\newblock\Jem{日本語構文解析システム{KNP}version2.0使用説明書}.\newblock\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp/knp-2.0.tar.gz}.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{Kurohashi97bj}黒橋禎夫\BBACOMMA\長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\BPGS\115--118.\bibitem[\protect\BCAY{Lafferty,Mc{C}allum,\BBA\Pereira}{Laffertyet~al.}{2001}]{CRF}Lafferty,J.,Mc{C}allum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditional{R}andom{F}ields:{P}robabilistic{M}odelsfor{S}egmentingand{L}abeling{S}equence{D}ata\BBCQ\\newblockIn{\BemProceedingsofICML},\BPGS\282--289.\bibitem[\protect\BCAY{前川}{前川}{2004}]{CSJ}前川喜久雄\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』の概観ver.1.0}.\newblock\url{http://www2.kokken.go.jp/~csj/public/members_only/manuals/overview10.pdf}.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{chasen-2.3.3}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\JBOQ形態素解析システム{C}ha{S}enversion2.3.3使用説明書\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/chasen-2.3.3-j.pdf}.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2005}]{接続情報にもとづく助詞型機能表現の自動検出}松吉俊,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ接続情報にもとづく助詞型機能表現の自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\1044--1047.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2006}]{Matsuyoshi06ajm}松吉俊,佐藤理史,宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ階層構造による日本語機能表現の分類\JBCQ\\newblock\Jem{言語処理学会第12回年次大会論文集},\BPGS\408--411.\bibitem[\protect\BCAY{森田松木}{森田\JBA松木}{1989}]{Morita89aj}森田良行\BBACOMMA\松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型},\Jem{NAFL選書},5\JVOL.\newblockアルク.\bibitem[\protect\BCAY{中塚,佐藤,宇津呂}{中塚\Jetal}{2005}]{助動詞型機能表現の形態・接続情報と自動検出}中塚裕之,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ助動詞型機能表現の形態・接続情報と自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\596--599.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{shudo.coling80}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectofJapaneseLanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics(COLING'80)},\BPGS\1--8.\bibitem[\protect\BCAY{首藤,小山,高橋,吉村}{首藤\Jetal}{1998}]{shudo.NLC98}首藤公昭,小山泰男,高橋雅仁,吉村賢治\BBOP1998\BBCP.\newblock\JBOQ依存構造に基づく言語表現の意味的類似度\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL,\BPGS\33--40.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{shudo.mwe2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQMWEsasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\BPGS\32--39.\bibitem[\protect\BCAY{首藤,吉村,武内,津田}{首藤\Jetal}{1988}]{shudo.NL88}首藤公昭,吉村賢治,武内美津乃,津田健蔵\BBOP1988\BBCP.\newblock\JBOQ日本語の慣用的表現について---語の非標準的用法からのアプローチ---\JBCQ\\newblock\Jem{情報処理学会研究報告},1988-NL-66\JVOL,\BPGS\1--7.\bibitem[\protect\BCAY{{TjongKimSang}}{{TjongKimSang}}{2000}]{Sang00a}{TjongKimSang},E.\BBOP2000\BBCP.\newblock\BBOQNounPhraseRecognitionbySystemCombination\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceof{NAACL}},\BPGS\50--55.\bibitem[\protect\BCAY{土屋,注連,高木,内元,松吉,宇津呂,佐藤,中川}{土屋\Jetal}{2007}]{Tsuchiya07aj}土屋雅稔,注連隆夫,高木俊宏,内元清貴,松吉俊,宇津呂武仁,佐藤理史,中川聖一\BBOP2007\BBCP.\newblock\JBOQ機械学習を用いた日本語機能表現のチャンキング\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(1),111--138.\bibitem[\protect\BCAY{土屋,宇津呂,松吉,佐藤,中川}{土屋\Jetal}{2006}]{日本語複合辞用例データベースの作成と分析}土屋雅稔,宇津呂武仁,松吉俊,佐藤理史,中川聖一\BBOP2006\BBCP.\newblock\JBOQ日本語複合辞用例データベースの作成と分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6).\bibitem[\protect\BCAY{土屋,宇津呂,佐藤,中川}{土屋\Jetal}{2005}]{形態素情報を用いた日本語機能表現の検出}土屋雅稔,宇津呂武仁,佐藤理史,中川聖一\BBOP2005\BBCP.\newblock\JBOQ形態素情報を用いた日本語機能表現の検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\BPGS\584--587.\bibitem[\protect\BCAY{Uchimoto,Takaoka,Nobata,Yamada,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2004}]{Uchimoto04}Uchimoto,K.,Takaoka,K.,Nobata,C.,Yamada,A.,Sekine,S.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQMorphologicalAnalysisoftheCorpusofSpontaneousJapanese\BBCQ\\newblock{\BemIEEETransactionsonSpeechandAudioProcessing},{\Bbf12}(4).\bibitem[\protect\BCAY{内元,高岡,野畑,山田,関根,井佐原}{内元\Jetal}{2004}]{Uchimoto04aj}内元清貴,高岡一馬,野畑周,山田篤,関根聡,井佐原均\BBOP2004\BBCP.\newblock\JBOQ『日本語話し言葉コ-パス』への形態素情報付与\JBCQ\\newblock\Jem{第3回「話し言葉の科学と工学」ワークショップ論文集},\BPGS\39--46.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98a}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley-Interscience.\end{thebibliography}\begin{biography}\bioauthor{注連隆夫}{2005年大阪府立大学工学部卒業.2007年京都大学大学院情報学研究科修士課程修了.現在,日本電気株式会社C\&Cイノベーション研究所勤務.在学中は自然言語処理の研究に従事.}\bioauthor{土屋雅稔}{1998年京都大学工学部電気工学科第二学科卒業.2004年京都大学大学院情報学研究科知能情報学専攻博士後期課程単位認定退学.2004年より豊橋技術科学大学情報メディア基盤センター助手.2007年より同助教.京都大学博士(情報学).自然言語処理に関する研究に従事.}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2005年同大学院情報学研究科修士課程修了.現在,同大学院情報学研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻助教授.2007年より同准教授.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\end{biography}\biodate\end{document}
| |
V21N02-05
|
\section{はじめに}
label{sec:intro}自然言語処理の分野において,文章を解析するための技術は古くから研究されており,これまでに様々な解析ツールが開発されてきた.例えば,形態素解析器や構文解析器は,その最も基礎的なものであり,現在,誰もが自由に利用することができるこれらの解析器が存在する.形態素解析器としては,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}やJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}などが,構文解析器としては,CaboCha\footnote{http://code.google.com/p/cabocha/}やKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}などが利用可能である.近年,テキストに存在する動詞や形容詞などの述語に対してその項構造を特定する技術,すなわち,「誰がいつどこで何をするのか」という\textbf{事象}\footnote{この論文では,動作,出来事,状態などを包括して事象と呼ぶ.}を認識する技術が盛んに研究されている.日本語においては,KNPやSynCha\footnote{https://www.cl.cs.titech.ac.jp/{\textasciitilde}ryu-i/syncha/}などの解析ツールが公開され,その利用を前提とした研究を進めることが可能になってきた.自然言語処理の応用分野において,述語項構造解析の次のステップとして,文の意味を適切に解析するシステムの開発,および,その性能向上が望まれている.意味解析に関する強固な基盤を作るために,次のステップとして対象とすべき言語現象を見定め,言語学的観点および統計学的観点から具にその言語データを分析する過程が必要である.主に述語項構造で表現される事象の末尾に,「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文では,一般に,その事象が成立しないことが表現される.否定文において,否定の働きが及ぶ範囲を\textbf{スコープ},その中で特に否定される部分を\textbf{焦点}(フォーカス)と呼ぶ\cite{neg2007}.否定のスコープと焦点の例を以下に示す.ここでは,注目している否定を表す表現を太字にしており,そのスコープを角括弧で囲み,焦点の語句に下線を付している.\begin{enumerate}\item雪が降っていたので、[ここに\underline{車では}来ませ]\textbf{ん}でした。\item別に[\underline{入りたくて}入った]\textbf{のではない}。\end{enumerate}文(1)において,否定の助動詞「ん」のスコープは,「ここに車では来ませ」で表現される事象である.文(1)からは,この場所に来たが,車を使っては来なかったことが読み取れるので,否定の焦点は,「車では」である.文(2)において,否定の複合辞「のではない」のスコープは,「入りたくて入った」であり,否定の焦点は,「入りたくて」であると解釈できる.文(1)も文(2)もいずれも否定文であるが,成立しない事象のみが述べられているわけではない.文(1)からは,書き手がここに来たことが成立することが読み取れ,文(2)からは,書き手がある団体や部活などに入ったことが事実であることが読み取れる.一般に,否定文に対して,スコープの事象が成立しないことが理解できるだけでなく,焦点の部分を除いた事象は成立することを推測することができる\cite{neg2007,EduardoMoldo2011b}.ゆえに,自然言語処理において,否定の焦点を的確に特定することができれば,否定文を含むテキストの意味を計算機がより正確に把握することができる.このような技術は,事実性解析や含意認識,情報検索・情報抽出などの応用処理の高度化に必須の技術である.しかしながら,現在のところ,日本語において,実際に否定の焦点をラベル付けしたコーパスや,否定の焦点を自動的に特定する解析システムは,利用可能ではない.そこで,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点に関する情報をテキストにアノテーションする枠組みを提案する.提案するアノテーション体系に基づいて,既存の2種類のコーパスに対して否定の焦点の情報をアノテーションした結果についても報告する.日本語において焦点の存在を明確に表現する時に,しばしば,「のではない」や「わけではない」といった複合辞が用いられる.また,「は」や「も」,「しか」などに代表されるとりたて詞\cite{toritate2009}は,否定の焦点となりやすい.我々のアノテーション体系では,前後の文脈に存在する判断の手がかりとなった語句とともに,これらの情報を明確にアノテーションする.本論文は,以下のように構成される.まず,2章において,否定のスコープおよび否定の焦点を扱った関連研究について紹介する.次に,3章で,否定の焦点アノテーションの基本指針について述べる.続く4章で,与えられた日本語文章に否定の焦点をアノテーションする枠組みを説明する.5章で,既存の2種類のコーパスにアノテーションした結果について報告する.6章はまとめである.
\section{関連研究}
\label{sec:related}言語学の分野においては,英語や日本語を対象として,否定という言語現象に関して多くの研究や解説書が存在する.そこには,否定の焦点についての説明や理論を述べる文献\cite{Cambridge,kato2010,neg2007}も存在する.日本語においては,否定文の解釈にとりたて詞が強く関わる.それゆえ,否定との共起関係\cite{neg2007,toritate2009}や,とりたて詞のスコープの広さ\cite{Numata1986,Mogi1999,Numata2009,Kobayashi2009}といった観点から,とりたて詞が関わる否定文の研究が行われている.自然言語処理の分野では,これまでに,否定のスコープを対象としたアノテーションコーパスがいくつか構築されている.BioScope\cite{VeronikaVince2008}は,生医学分野における英語文章を対象に,``not''や``without''などの否定の手がかり語句とそのスコープをアノテーションしたコーパスである.Moranteらは,このコーパスを利用して,教師あり機械学習手法を用いた,否定のスコープ検出システムを提案している\cite{Morante2008}.Liらは,BioScopeを対象として,浅い意味解析を取り入れた,否定のスコープ検出システムを提案している\cite{Li2010}.*SEM2012\footnote{http://ixa2.si.ehu.es/starsem/}では,Sharedtaskの1つとして,否定のスコープを検出するタスクが設定されており,ConanDoyleの小説を対象とした,否定のスコープアノテーションコーパスが提供されている\footnote{http://www.clips.ua.ac.be/sem2012-st-neg/}.日本語に関しては,川添らが,日本語の新聞を対象として否定のスコープのアノテーションを進めている\cite{Kawazoe2011}.否定のスコープを対象とした研究に比べ,否定の焦点を対象とした研究はまだ少ない.Blancoらは,PropBank\cite{Olga2005}を基盤データとし,そこにラベル付けされた述語と項の間の関係を利用して,否定の焦点をアノテーションする方法を提案し,アノテーションコーパスを構築した\cite{EduardoMoldo2011b}.彼らは,次の手順で否定の焦点をアノテーションする.\begin{enumerate}\item``not''などの否定の語句に付与されるMNEGラベルを含む文を抽出する\itemMNEGラベルと直接関係する述語を対象とする\item対象の述語に関係する項(A0,A1,A2,TMP,LOCなど)の中から否定の焦点を選択\footnote{否定の焦点がスコープ全体である場合は,便宜上,MNEGラベルを選択する.}し,その項のラベルを「焦点」としてコーパスに記述する\end{enumerate}このコーパスを利用して,Blancoらは,機械学習手法やヒューリスティックを用いて否定の焦点を検出するシステムを提案している\cite{EduardoMoldo2011b,EduardoMoldo2011}.*SEM2012では,Sharedtaskの1つとして,このコーパスを利用して,否定の焦点を検出するタスクが設定された\footnote{http://www.clips.ua.ac.be/sem2012-st-neg/}.Rosenbergらは,4つのヒューリスティック規則を組み合わせる手法を用いて,否定の焦点を検出するシステムを提案している\cite{Rosenberg2012}.日本語に関しては,松吉らが,拡張モダリティの1項目として否定の焦点を扱っている\cite{matuyosi2010}.しかしながら,主要な項目ではないとして,彼らのコーパスにおいて実際にアノテーションされた事例の数は非常に少ない.
\section{否定の焦点アノテーションの基本指針}
文章に存在する否定を検出し,その焦点にラベルを付け,コーパスを構築する.言語学的利用のみでなく,自然言語処理への応用も考慮して,アノテーションの基本指針を定める.\subsection{焦点の部分を除いた事象が成立すること}\label{subsec:hold}『現代日本語書き言葉均衡コーパス』(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}から抽出した,否定の焦点の例を以下に示す.ここでは,否定を表す表現を太字にし,焦点の語句に下線を付している\footnote{例文の後の``PN''から始まる文字列は,その例文を抽出したBCCWJ内のファイル名を表す.}.\begin{enumerate}\item[(3)]だが、\underline{学校での}子どもの様子はわから\textbf{ない}から、それだけでうれしい。[PN1a\_00002]\item[(4)]\underline{十七日まで}選手にも協会関係者にも明かさ\textbf{ない}。[PN2f\_00002]\item[(5)]\underline{力を出し切って}敗れた\textbf{わけではない}。[PN2f\_00003]\item[(6)]WHOは五月十八日、ジュネーブで開いた総会で台湾の総会へのオブザーバー参加問題を議題としないことを決め、オブザーバー参加を認め\textbf{なかっ}た。[PN4g\_00001]\end{enumerate}\ref{sec:intro}章で述べたように,否定文において,否定の働きが及ぶ範囲が否定のスコープである\cite{neg2007}.一般に,否定のスコープには,次のものが含まれる\footnote{生成文法においては,「ない」や「ず」がc-統御する領域が否定のスコープであると定められる\cite{kato2010,Kataoka2006}.文中に量化子や数量表現やとりたて詞が存在する場合,否定のスコープとこれらが持つスコープの間の包含関係が文の解釈を定めるために重要であり,生成文法の記法を用いてこれを正確に表現することができる.本研究では,否定のスコープに関して深く立ち入らない.}.\begin{itemize}\item否定付与の対象となった述語\itemその述語のすべての項(必須の項だけでなく,任意の項も含む)\item(従属度が高い)従属節\item述語のアスペクト\end{itemize}「のではない」や「わけではない」などの形式が用いられた場合,文の主題や述語のモダリティもスコープに含まれることがある.これらの要素を含むスコープの中で,特に否定される部分が否定の焦点である.文(3)は,家庭訪問を受けた母親の発言の一部である.「ない」のスコープは,「学校での子どもの様子はわから」で表現される事象である.家庭での子どもの様子は分かると考えられるので,焦点は「学校での」とするのが妥当であると思われる.文(4)は,最終登録選手に関しての監督の発言の一部である.「ない」のスコープは,「十七日まで選手にも協会関係者にも明かさ」で表現される事象である.十七日かそれ以降に登録選手を明かすことが期待できるので,焦点は「十七日まで」と考える.文(5)は,試合に敗れた選手に関する報道記事の一部である.否定の複合辞「わけではない」のスコープは「力を出し切って敗れた」であり,否定の焦点は「力を出し切って」であると解釈できる.文(6)は,WHO総会に関する報道記事の一部である.「なかっ」のスコープは,「WHOはオブザーバー参加を認め」で表現される事象である.この例文においては,(前後の文脈を考慮しても,)スコープの中に特に否定される部分はないように思われる.本研究では,このような場合に,「なかっ」の焦点は,無しとせず,便宜上,スコープ全体であると考える.紙面が煩雑になるのを避けるため,焦点がスコープ全体である場合には,例文に下線を付けない.否定の焦点がスコープ全体でない場合,スコープの事象が成立しないことだけでなく,焦点の部分を除いた事象は成立することが推測できる\cite{neg2007,EduardoMoldo2011b}.例えば,文(5)において,「力を出し切って敗れた」ことは否定されるが,「力を出し切って」の部分に否定の焦点があることが分かれば,「敗れた」ことは成立することが推測できる.同様に,文(4)において,「十七日まで」の部分に否定の焦点があることが分かれば,監督はずっと明かさないのではなく,十七日かそれ以降に「選手にも協会関係者にも明かす」ことが成立することが推測できる.我々は,基本指針の1つとしてこの考え方を取り入れる.\subsection{否定要素}\label{subsec:neg}本論文では,文中において否定を表す表現のことを\textbf{否定要素}と呼ぶ.本研究では,次の3種類の語群をまとめたものを否定要素と定める.\begin{description}\item[否定辞]助動詞「ない」と「ず」,接尾辞「ない」,接頭辞「非」,「不」,「無」,「未」,「反」,「異」\item[非存在の内容語]形容詞「無い」,名詞「無し」\item[否定を表す複合辞]「のではない」,「わけではない」,「わけにはいかない」など\end{description}否定辞のみでなく,非存在の内容語まで含める理由は,「無い」は,存在の内容語「ある」の丁寧な否定「ありません」と同等と思われるからである.否定辞「ん」が使用されている「ありません」は対象とし,「無い」は内容語なので対象としないのは,不合理であると思われる.言語学の文献\cite{morita1989,neg2007}において,否定を表す複合辞とされる表現は,1形態素の否定辞と異なる性質を持つと思われるので,区別して扱う.接頭辞「非」や「不」は,直後の語を否定する働きを持つのみであり,これらに対して焦点を判断する必要はないと思われがちである.しかしながら,次の例のように,「ない」や「ん」と同様に,接頭辞もスコープの一部に焦点を持つことがあるので,対象とした.\begin{enumerate}\item[(7)]九十年代の「失われた十年」ではっきりしたのは、もはや\underline{民間まかせでは}過剰債務処理は\textbf{不}可能ということだ。[PN1b\_00004]\end{enumerate}これは,前の文脈から,過剰債務処理には政府の介入が必要であることが読み取れる例であり,否定の焦点は「民間まかせでは」であると考える.\subsection{否定要素としない語句}\label{subsec:outof}否定辞か非存在の内容語を含む2形態素以上の慣用表現は,全体を1語とし,焦点判断の対象としないこととする.これらの慣用表現は,大きく分けると,次の2種類からなる.\begin{description}\item[複合語]「物足り\underline{ない}」,「仕方が\underline{ない}」,「思わ\underline{ず}」など\item[否定以外の意味を持つ複合辞]「\underline{なけれ}ばなら\underline{ない}」,「\underline{ない}といけ\underline{ない}」,「かもしれませ\underline{ん}」,「にもかかわら\underline{ず}」,「だけで\underline{なく}」など\end{description}上記の複合語に相当するかどうかは,次の2点から判断する.\begin{itemize}\item肯定形(例えば,「仕方がない」に対する「仕方がある」)が,通常,使用されるか\item国語辞典\cite{daijisen,iwanami}に見出しが立っているか\end{itemize}複合辞であるかどうかの判断は,言語学や日本語教育の文献\cite{morita1989,Jamasi1998}を参考にし,前節で述べたように,否定を表す複合辞とされる表現は,否定要素として扱う.助動詞「ない」か接尾辞「ない」,もしくは,形容詞「無い」を使った単純な否定表現に言い換えられない否定の接頭辞は,否定要素とはしない.例えば,「\underline{不}十分」は,「十分でない」ことであるので,焦点判断の対象とする.一方,「\underline{不}気味」は,「気味が悪い」ことであり,「気味がない」や「気味でない」に言い換えられないので,対象としない.\subsection{否定要素と呼応する程度・頻度の副詞}以下の例文のように,否定要素に呼応する,程度の副詞や頻度の副詞が用いられることがある.ここでは,注目している否定要素を太字にし,程度の副詞や頻度の副詞に下線を付ける.\begin{enumerate}\item[(8)]ボールを回すくらいで、\underline{そんなに}ハードな練習じゃ\textbf{なかっ}た。[PN2f\_00002]\item[(9)]市街地では、街灯やライトアップによる“光害”で夜空の星が\underline{なかなか}見え\textbf{ない}。[PN2g\_00004]\item[(10)]価格は1万円前後で、「\underline{いつもは}ぜいたくでき\textbf{ない}けれど、お正月くらい、という方が多いようです」。[PN3b\_00004]\end{enumerate}文(8)で述べられていることは,「全くハードな練習ではなかった」ことではなく,ハードな練習ではあったが,その程度が想定されるよりも高くなかったということである.同様に,文(9)では,星は全く見えないのではなく,見える程度や頻度が低いということが述べられている.文(10)の該当箇所は,いわゆる部分否定であり,「ぜいたくできる」ことが全く成り立たないわけではなく,たまには成り立つことが読み取れる.否定要素に呼応する,程度の副詞や頻度の副詞は,全く成り立たないことを強調する\textbf{完全否定}の副詞と,全く成り立たないわけではないことを表現する\textbf{弱否定}の副詞に分類することができる\cite{neg2007}\footnote{文献\cite{neg2007}では,頻度の副詞については,このような分類がなされていないが,本研究では,程度の副詞と同様に,頻度の副詞も完全否定と弱否定に分類する.}.「全然」や「絶対に」,「決して」などの副詞は,完全否定の副詞であり,文(8)〜(10)における下線の副詞などは,弱否定の副詞である.本研究では,否定と呼応する弱否定の副詞を否定の焦点とみなす.これらの副詞は,「多くは(持てない)」や「速くは(走れない)」のような形容詞連用形+「は」や,「頻繁には(通えない)」のような形状詞+「には」と同様に用いられる.このような形容詞や形状詞を否定の焦点として扱うことは自然であることから,これらの形容詞や形状詞に連続するものとして,否定と呼応する弱否定の副詞も否定の焦点とみなす\footnote{本研究では,連続するものとしてまとめて扱うが,否定の焦点として狭義のもののみを認める立場の場合,\ref{subsec:hold}節の考え方が成立する言語現象の1つとして,異なる枠組みを用意して弱否定の副詞を扱うことが考えられる.}.このようにみなしても,\ref{sec:intro}章で述べた,言語学の文献における焦点の定義と矛盾することはないと思われる.上の例で見たように,弱否定の副詞に対しても\ref{subsec:hold}節の考え方が成立する.一方,完全否定の副詞は,否定のスコープの一部ではなく,否定のスコープ全体が全く成り立たないことを強調する\cite{neg2007}.文(11)と文(12)に,否定と呼応する完全否定の副詞の例を示す.ここでは,注目している否定要素を太字にし,完全否定の副詞に二重下線を付ける.\begin{enumerate}\item[(11)]栃乃洋を\underline{\underline{まったく}}寄せ付け\textbf{なかっ}た。[PN1e\_00004]\item[(12)]\underline{\underline{一向に}}出口が見え\textbf{ない}長期の不況、社会全体をおおう閉塞状況、重なる将来への不安など前世紀終盤から引き継いだ課題への各党の対応を、国民はどう判断するか。[PN1b\_00002]\end{enumerate}このような場合,スコープ全体が否定の焦点であるので,否定と呼応する完全否定の副詞を否定の焦点とみなすことはしない.\subsection{とりたて詞}\label{subsec:toritate}\textbf{とりたて}とは,文中のある要素をきわだたせ,同類の要素との関係を背景にして,特別な意味を加えることである\cite{toritate2009}.「は」や「も」,「さえ」,「しか」など,とりたての機能を持つ助詞のことを,本研究では\textbf{とりたて詞}と呼ぶ.とりたて詞が付いた語句は,否定の焦点になりやすい.例として,対比を表す「は」を含む否定文と,限定を表す「しか」を含む否定文を以下に示す.いずれの例においても,とりたて詞が付いた箇所が否定の焦点である.\begin{enumerate}\item[(13)]\underline{前半は}スコアが伸び\textbf{ず}パープレー。[PN3d\_00003]\item[(14)]普段は\underline{決まったものしか}料理し\textbf{ない}ので、おけいこ感覚で。[PN3b\_00004]\end{enumerate}文(13)は,ゴルフの大会において,前半と後半を対比して述べるものであり,後半はスコアが伸びたことがほのめかされている.文(14)\footnote{「普段は\underline{決まったもの以外}料理し\textbf{ない}.」という文において,「以外」を含めて否定の焦点であると判断するように,文(14)では,「しか」も含めて否定の焦点であると判断する.}では,決まったものは料理するが,それ以外のものは料理しないことが述べられている.本研究では,否定の焦点ととりたて詞の関係を観察するために,とりたて詞の有無とその種類をアノテーションする.基本的にはガ格やヲ格などの格情報と同様の形式でアノテーションするが,限定を表す「しか」と,数量語に付く「も」には特別なマークを付与する.文(14)で見たように,「しか」は,必ず否定要素と共起する.「しか」が付く項は強く取り立てられるので,常に否定の焦点となる.\underline{「しか」が存在する否定文では,文に述べられたまさ}\\\underline{にこの場合には事象は成立するが,これ以外の場合には成立しないことが表現される}.「しか」が存在する事例には,\ref{subsec:hold}節の考え方を適用できないので,特別なマークを付けて,「しか」が存在することを明示する.これにより,計算機は以下に例示するような解釈を得ることが可能になる.文(13)の焦点には特別なマークを付けないので,計算機は,\ref{subsec:hold}節の考え方を適用して,「前半でない場合にスコアが伸びた」という解釈を得る.一方,下の文(13$'$)の焦点には「しか」という特別なマークを付けるので,計算機は,規則の例外であることを認識し,「前半にスコアが伸びた.前半でない場合はスコアが伸びなかった」という解釈を得る.\begin{enumerate}\item[(13$'$)]\underline{前半しか}スコアが伸び\textbf{なかっ}た。[作例]\end{enumerate}数量語に付く「も」が否定要素と共起すると,「その概数には届かない」という意味と,「書き手はそれを少ない・低いと捉えている」ことが表現される\cite{toritate2009}.これは,累加の「も」にはない性質である.例を以下に示す.\begin{enumerate}\item[(15)]出場者ランキングの\underline{二十位にも}入ってい\textbf{なかっ}た2年生・高平慎士が、晴れの舞台で堂々と高校3傑入り。[PN1e\_00003]\end{enumerate}\ref{subsec:hold}節の考え方の適用外ではないが,自然言語処理における評判分析・感情解析タスクに有用であると思われるので,累加の「も」ではないことを示す特別なマークを付けて,数量語に付く「も」が存在することを明示する.\ref{sec:related}章の冒頭で少し触れたように,言語学の分野においては,否定文にとりたて詞が存在する場合,否定のスコープととりたて詞のスコープのどちらが広いかを考慮しながら,否定文の解釈に対するとりたて詞の性質を議論する\cite{Numata1986,Mogi1999,Numata2009,Kobayashi2009}.例えば,次の文は,2つのスコープのどちらが広いかにより,2つの異なる解釈が可能である\cite{Mogi1999}.\begin{enumerate}\item[(16)]親にまで打ち明けなかった。[\cite{Mogi1999}のp.~29]\end{enumerate}\begin{description}\item[「まで」のスコープが否定のスコープより広い場合の解釈]最初に打ち明けるべきである親に対しても打ち明けなかったし,親以外に対しても打ち明けなかった.\item[否定のスコープが「まで」のスコープより広い場合の解釈]信頼できる親友には打ち明けたが,(問題を大きくしたくなかったので,)親には打ち明けなかった.\end{description}\ref{subsec:guideline}節で述べるように,本研究では,\ref{subsec:hold}節の考え方に基づいて否定の焦点をアノテーションする.とりたて詞のスコープの広さも考慮しながら情報をアノテーションすることは,今後の課題である.\subsection{二重否定}否定要素が2つ重なって用いられることを\textbf{二重否定}と呼ぶ\cite{neg2007}.以下に,二重否定を含む例文を示す.ここでは,否定要素とその焦点の対応を明示するため,$i$や$j$などの添字を用いている.\begin{enumerate}\item[(17)]1年生のうち、\underline{鈴木は}$_{j}$、眠たそうに走っていたけれど、早朝練習に来$\mbox{\textbf{なかっ}}_{i}$た\textbf{わけで}$\mbox{\textbf{はない}}_{j}$。[作例]\item[(18)]山田は、\underline{気まずくて}$_{j}$合宿に参加し$\mbox{\textbf{なかっ}}_{i}$た$\mbox{\textbf{のではない}}_{j}$。[作例]\item[(19)]\underline{理由$\mbox{\textbf{なく}}_{k}$~}$_{j}$、\underline{レストランでは}$_{i}$これを食べ$\mbox{\textbf{ない}}_{i}$$\mbox{\textbf{のではない}}_{j}$。[作例]\item[(20)]\underline{彼なら}$_{j}$金曜日までに報告書を仕上げることは$\mbox{\textbf{不}}_{i}$可能では$\mbox{\textbf{ない}}_{j}$。[作例]\end{enumerate}文(17)では,「なかっ」と「わけではない」という2つの否定要素が重なって用いられている.鈴木以外の1年生の誰かは早朝練習に来なかったことが読み取れるので,外側の否定要素の「わけではない」は,「鈴木は」に焦点を持つと考えられる.文(18)では,外側の否定要素の「のではない」の焦点は,「気まずくて」であると思われる.文(19)には,3つの否定要素が使用されており,「のではない」のスコープの中に,残りの2つの否定要素が含まれる.家ではこれを食べるが,レストランでは食べないことが推測できるので,「ない」の焦点は,「レストランでは」である.理由がないのではなく,理由があることが読み取れるので,「のではない」の焦点は,「理由なく」であると考える.文(20)は,接頭辞の否定要素を含む例である.彼以外には不可能であることが推測できるので,「ない」の焦点は「彼なら」である.本研究では,二重否定に関わる否定要素に対して,それぞれその焦点が何であるかを判断してアノテーションする\footnote{残念ながら,今回対象としたテキスト(\ref{sec:corpus}章参照)には二重否定は出現しなかった.}.このとき,内側の否定要素のスコープの事象が二重否定により成立する場合,内側の否定要素に特別なマークを付ける.例えば,文(17)の「なかっ」のスコープは,「鈴木は早朝練習に来」で表現される事象であり,二重否定により,この事象は成立することが読み取れる.この「なかっ」には上記のマークを付け,「鈴木は早朝練習に来なかった」ことが事実ではないこと(すなわち,「鈴木は早朝練習に来なかった」ことが否定されていること)を表現する.一方,文(18)の「なかっ」のスコープは,「山田は合宿に参加し」で表現される事象であり,この文からは,「山田は合宿に参加しなかった」ことが事実であることが推測できる.この場合は,二重否定に関わらない通常の否定要素と同様に扱うことができるので,特別なマークは付けない.このようなアノテーションは,\ref{subsec:hold}節の考え方と矛盾を起こさない.例えば,文(17)における外側の否定要素である「わけではない」に対して\ref{subsec:hold}節の考え方を適用して,1年生のうち鈴木以外の誰かは早朝練習に来なかったことを推測することができる.同様に,文(19)における内側の否定要素である「ない」に対して\ref{subsec:hold}節の考え方を適用して,レストラン以外の場所ではこれを食べることが推測できる.\ref{subsec:toritate}節で述べたように,「しか」が存在する事例には,\ref{subsec:hold}節の考え方を適用できない.二重否定と「しか」が混在する場合は,これらに対する特別なマークを併用する.例えば,次の例文からは,田中が早朝練習に来たことと,田中以外の誰かも早朝練習に来たことが読み取れる.\begin{enumerate}\item[(21)]今朝は、\underline{田中しか}$_{i}$早朝練習に来$\mbox{\textbf{なかっ}}_{i}$た$\mbox{\textbf{わけではない}}_{j}$。[作例]\end{enumerate}このような解釈を表すために,内側の否定要素である「なかっ」に「否定されている」ことを表す特別なマークを付け,さらに,その焦点である「田中しか」に「しか」に関する特別なマークを付ける.出現頻度はかなり低いと思われるが,三重以上の否定が存在する場合も,二重否定の場合と同様にアノテーションする.
\section{否定の焦点アノテーションの枠組み}
この章では,まず,否定の焦点を判断する基準について述べる.そして,否定要素とその焦点に対して定めたアノテーション項目と,そこに付与するラベルについて説明する.\subsection{否定の焦点の判断基準}\label{subsec:guideline}\ref{sec:intro}章で述べたように,否定要素によって特に否定される部分が否定の焦点である.これを安定して判断するために,\ref{subsec:hold}節の考え方に基づいて,我々は次のような判断基準を定めた.\begin{enumerate}\itemある文の否定の焦点を判断する時には,その文だけでなく,周りの文脈も広く参照する\item対象とする文から,一部の表現と否定要素を除外した事象を生成する.その事象が成立することが推測できれば,除外した表現の部分を否定の焦点と判断する\item解釈に複数の可能性が考えられる場合は,否定の焦点はスコープ全体であるとする\begin{itemize}\item例えば,一部に焦点があると考えることもできるし,スコープ全体が焦点であると考えることもできる場合\item例えば,Aという部分に焦点があると解釈することもできるし,Bという部分に焦点があると解釈することもできる場合\end{itemize}\end{enumerate}基準(3)は,判断する人間の思い込みを最大限排除するために設けたものである.複数の解釈が発生するのはどのような状況であるかを調査し,その状況の説明を含め,複数の解釈が存在することをアノテーションする枠組みを設計することは,今後の課題である.\subsection{項目とラベル}\label{subsec:label}否定要素に対して,以下の5つのアノテーション項目を定める.\begin{description}\item[表層文字列]文に出現した否定要素の表層文字列.出現形で記述する\item[形態素ID]否定要素の形態素のID\item[品詞]助動詞,接尾辞,接頭辞,形容詞,名詞,否定複合辞のいずれか(\ref{subsec:neg}節参照)\item[二重否定]二重否定により,事象が成立しているとみなせるか\item[最終更新日]``YYYYMMDD''という形式で記述された最終更新日\end{description}否定複合辞のリストとプログラムを用意すれば,これらのうち,二重否定以外の情報は自動付与が可能である.ただし,形態素解析辞書UniDic\footnote{http://sourceforge.jp/projects/unidic/}では,助動詞ではない「ない」は,すべて「形容詞,非自立可能」と解析されるため,これらを半自動的に「形容詞」と「接尾辞」に分類する必要がある.否定の焦点に対して,以下の7つのアノテーション項目を定める.\begin{description}\item[代表表層文字列]焦点の表層文字列.ただし,後述する代表形態素のみを記述する\item[代表形態素ID]焦点の代表形態素のID\item[項・節の種類]ガ格,ヲ格,デ格,副詞,ノの項,ナの項,テ節,ト節など,焦点の統語的分類.複数記述可\item[特別なとりたて詞]「しか」や,数量語に付く「も」が存在するか\item[意味分類]制限-時間,制限-場所,制限-対象,付加-連用修飾,付加-連体修飾,付加-アスペクトなど,意味解釈に基づいた,否定されている語句の分類\item[判断の根拠]その箇所を焦点であると判断するに至った根拠.自由記述\item[手がかり語句]文章中に存在する,焦点判断の手がかりとなった語句.複数記述可\end{description}コーパスにおいて否定の焦点は代表1形態素にラベル付けする.このように決めた理由は,否定の焦点の自動検出システムを評価する際に,正解とシステムの出力の比較が容易になるからである.代表1形態素は,次のように定める.\begin{itemize}\item内容語\item複合語の場合,接尾辞を除く末尾の語\item修飾語が存在する場合,それが係る末尾の語\end{itemize}1形態素にラベル付けするが,その1形態素のみに焦点があると考えるのではなく,その形態素を含む項(場合によっては,節)全体に焦点があるとみなす.表層的な格助詞や接続助詞などに基づく分類が,「項・節の種類」であり,焦点の語句が表す意味に基づく分類が,「意味分類」である.例えば,「意味分類」の``制限-場所''は,場所を表す語句に否定の焦点があり,そこではない場所をうまく選べば,対象事象が成立することを表す.「意味分類」の``付加-連用修飾''は,程度の副詞や頻度の副詞に対して付与する.文中に存在する形態素列をそのまま記述する項目が「手がかり語句」であり,人手による判断の根拠を備考として自由記述する項目が「判断の根拠」である.現在は,「判断の根拠」は自由記述としているが,使用できる語彙を制限した,いわゆる制限言語により根拠を記述する方法を模索している.上に挙げた項目のうち,「項・節の種類」と「意味分類」,「手がかり語句」は,否定の焦点を自動的に検出するシステムを構築する際に,有用な情報を提供すると考えている.焦点検出の最初の処理として,焦点の候補となる語句に対してこれらの項目を適切に特定することができれば,その情報は,それぞれ,形態的・統語的手がかり,意味的手がかり,談話的手がかり\footnote{機械学習手法を用いる場合は,それぞれ,形態的・統語的素性,意味的素性,談話的素性に対応する.}として,否定の焦点を決定する処理に利用することが可能であると思われる.構文的制約から,否定要素に対して選択できる焦点の候補が1つしかない場合,すなわち,焦点はスコープ全体であると考えるしかない場合,そのような事例とその他の事例を区別することは有用である.なぜならば,焦点検出システムの評価にアノテーションコーパスを用いる時,このような事例に対してシステムは必ず正解のラベルを出力するので,システムの本質的な性能を見るために,評価データからこのような事例をすべて除去したいことがあるからである.我々は,上で述べた項目に加え,アノテーション項目として「候補数」を設計\footnote{ラベルは,``1''か``複数''の2択とした.}し,アノテーション作業を行ったが,今回の作業では,候補数が1となる事例は見つからなかった.アノテーションコストを考慮すると,人手によりこの項目をアノテーションすることは良い方法ではないことが分かった.プログラムにより,「1文中に述語と否定要素しか存在しない」事例を見つけることが,候補数が1の事例を見つけるための得策であると思われる.現在,「候補数」をアノテーションすることは保留している.\subsection{否定のスコープ}本来ならば,否定の焦点をアノテーションする前に,否定のスコープを明示的にアノテーションすべきである.既存の述語項構造解析の技術を用いれば,ある程度は自動的に否定のスコープを認識することができるが,対象が整った文章でない場合,人間による修正作業が多く発生する.本研究では,人的コストの関係から,否定のスコープをアノテーションしない.人間が否定の焦点を判断する時には,対象となる否定要素のスコープを目で確認するに留める.頑健かつ高い精度で否定のスコープを認識するシステムを開発することは,今後の課題である.\subsection{データ構造}\label{subsec:XML}我々が提案するアノテーション体系に基づく否定の焦点コーパスは,図\ref{fig:XML}のようなXMLによって表現する.この図は,\ref{subsec:hold}節の文(3)に対するアノテーション結果である.アノテーション対象のテキストデータは,次のような形式でファイルに保存されていることを前提とする.\begin{itemize}\item文分割されている\item1文が$<$sentence$>$要素で囲まれている\item形態素解析されている\item各形態素は,$<$SUW$>$や$<$tok$>$のような要素で囲まれている\item形態素を囲む要素は,少なくとも1文内で一意のID属性を持っている\end{itemize}例えば,BCCWJのXML形式のデータは,上記の形式に合う.また,文分割したテキストデータを,オプション``-f3''を指定しながら構文解析器CaboChaで構文解析した出力結果もまた,上記の形式に合う.我々は,前処理として,すべての$<$sentence$>$要素に独自のID(通し番号)を付与する.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA6f1.eps}\end{center}\caption{提案するアノテーション体系に基づくXMLファイルの例[PN1a\_00002]}\label{fig:XML}\end{figure}提案するXMLでは,$<$wsb:negation$>$要素を用いて否定要素の情報を記述し,$<$wsb:focus$>$要素と$<$wsb:description$>$要素,$<$wsb:clue$>$要素を用いて否定の焦点の情報を記述する\footnote{ここで,``wsb''は,植物のわさびから名付けた名前空間である.}.\subsubsection*{$<$wsb:negation$>$要素}1文もしくは文の断片を表す$<$sentence$>$要素の直接の子要素として記述する.\ref{subsec:label}節で述べたアノテーション項目に対する値を以下の属性に記述する.\begin{itemize}\item@wsb:orthtoken(必須属性):表層文字列\item@wsb:morphID(必須属性):形態素ID\item@wsb:POS(必須属性):品詞\item@wsb:doubleNegative(任意):二重否定\item@wsb:lastupdate(必須属性):最終更新日\end{itemize}\subsubsection*{$<$wsb:focus$>$要素}$<$wsb:negation$>$要素の直接の子要素として記述する.否定の焦点がスコープ全体である場合は,1という値を記述した@wsb:scope属性のみを指定する.否定の焦点がスコープの一部である場合,子要素として$<$wsb:description$>$要素と$<$wsb:clue$>$要素を用意すると同時に,$<$wsb:focus$>$要素の以下の属性\footnote{@wsb:numOfCandidatesは,\ref{subsec:label}節で述べた「候補数」を表す.図\ref{fig:XML}における``pl''という値は「複数」を表す.}に値を記述する.\begin{itemize}\item@wsb:orthtoken(必須属性):代表表層文字列\item@wsb:morphID(必須属性):代表形態素ID\item@wsb:argTypes(必須属性):項・節の種類\item@wsb:toritate(任意):特別なとりたて詞\item@wsb:class(必須属性):意味分類\end{itemize}$<$wsb:description$>$要素のコンテンツに「判断の根拠」を記述する.この要素は1つのみ用意することができる.「手がかり語句」を記述する$<$wsb:clue$>$要素には,次の属性の値を記述する.\begin{itemize}\item@wsb:sID(任意):手がかりの形態素列が対象の文の外に存在する場合,手がかりが存在する文のIDを記述する\item@wsb:orthtokens(必須属性):手がかりの表層文字列の列.形態素間は``.''で区切る\item@wsb:morphIDs(必須属性):表層文字列の列に対応する形態素IDの列.形態素間は``.''で区切る\end{itemize}必要ならば,$<$wsb:clue$>$要素は2つ以上用意しても良い.我々のデータ構造は,$<$sentence$>$要素に1つの子要素(孫要素を含む)を追加するのみであるので,BCCWJのXML形式のデータを利用するアノテーションや,XML形式のCaboChaフォーマットを利用するアノテーションと共存できるという長所を持つ.例えば,松吉らの拡張モダリティアノテーション(松吉他2010)と我々のアノテーションは共存可能である.
\section{否定の焦点コーパス}
\label{sec:corpus}前章で説明したアノテーションの枠組みに基づき,次の2つのテキストデータを対象として,否定の焦点コーパスを構築した.\begin{enumerate}\item楽天データ\footnote{http://travel.rakuten.co.jp/}の楽天トラベル:レビューデータ\itemBCCWJにおけるコアデータ内の新聞(PN)\end{enumerate}\subsection{楽天トラベル:レビューデータ}楽天トラベル:レビューデータのうち,重要文抽出に関して小池らが使用したものと同じレビュー集合\cite{koike2012}を対象とした.これを選択した理由は,小池らのコーパスと合わせることで,要約における重要文と否定の焦点の間の関係が明らかになる可能性があるからである\footnote{この関係性の分析は今後の課題である.}.小池らのレビュー集合について説明する.彼らは,まず,宿泊施設に対するレビュー数の分布を調査し,90\%以上の宿泊施設はレビュー数が1から58の範囲にあることを明らかにした.そして,その結果に基づき,レビュー数が10から58の範囲の宿泊施設の全体から,無作為に40の宿泊施設を抽出した.最後に,独自の文分割規則により半自動的にそのレビュー集合を文分割した.このコーパスには,5,178文が含まれており,形態素の品詞情報のみに基づいて抽出した否定要素の候補は,1,246個であった.以下,このコーパスを「レビュー」と表記する.\subsection{BCCWJコアデータの新聞}BCCWJ全体の約1/100のデータがコアデータに指定されており,このデータは,その他の部分と比較して高い精度で解析が施されている.コアデータの一部に言語学的情報を付与する場合,国立国語研究所が定めたファイル優先順位\footnote{http://d.hatena.ne.jp/masayua/20120807/1344313720}に従うことが推奨される.我々は,コアデータ内の新聞340ファイルのうち,優先順位が1から54までの``A''グループを対象とした.このコーパスには,1文もしくは文の断片を表す,XMLの$<$sentence$>$要素が2,708個含まれており,否定要素の候補は,406個であった.以下,このコーパスを「新聞」と表記する.\subsection{アノテーション作業}\ref{subsec:XML}節で説明したXML形式のファイルは,独自プログラムにより,HTML形式のファイルに変換することができる.このHTML形式のファイルをブラウザーで開いたところを,図\ref{fig:HTML}に示す.作業者は,ブラウザー上でHTMLファイルを確認しながら,テキストエディターにおいてXMLファイルを更新する.作業にかかる時間は,100個の否定要素候補に対して3時間程度である.XMLの編集に適したエディター環境の構築は,今後の課題である.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA6f2.eps}\end{center}\caption{ブラウザー上で見たHTMLファイル}\label{fig:HTML}\end{figure}2人の作業者が独立に「新聞」に対してアノテーション作業を行い,2人の作業結果において焦点の場所がどれほど一致するかを調査した.全304個の否定要素のうち,103個が不一致であったが,2時間ほど2人で議論することにより,これらの不一致をすべて解消することができた.不一致の主な原因は,以下の3点であった.\begin{itemize}\itemスコープが明示されていないことによる勘違い\item作業者のうち1名は,広く文脈を参照していなかった\itemとりたて詞「だけ」が持つ限定の意味に引っ張られた\end{itemize}「レビュー」に対するアノテーション作業は,1人の作業者が行った.その後,もう1人の作業者が作業結果を確認し,議論の上,数個のラベルを修正した.\subsection{コーパスの分析}2つのコーパス「レビュー」と「新聞」における,否定要素候補の分布を表\ref{tab:neg}に示す.2つのコーパスにおいて,否定要素はそれぞれ1,023個と304個であり,いずれのコーパスでも,助動詞「ない」と「ず」が全体の過半数を占めることが分かる.2つのコーパスにおいて,否定の焦点がスコープ全体でないものは,それぞれ301個と72個であった.「レビュー」では,29\%(301/1,023)の否定要素が,「新聞」では,24\%(72/304)の否定要素が,スコープの一部に焦点を持つことが分かる.自然言語処理において,否定の焦点が適切に検出されず,すべての焦点はスコープ全体であるとして否定文を扱う場合,30\%弱の事例に対して,否定文が含意する解釈を把握できないことになる.この数字は無視できないほど大きいと思われる.スコープ全体でない焦点の「項・節の種類」の分布を表\ref{tab:foc}に示す.図\ref{fig:XML}に例示されるような,ある格と``ノの項''が同時に付与されている事例は,この表では,``ノの項''として集計した.「レビュー」には,焦点が副詞である否定要素が多いことが分かる.「新聞」のデータ数が少ないので,確定的なことは言えないが,どの格が焦点になりやすいかも,2つのコーパスで異なる傾向があるようである.\begin{table}[b]\begin{minipage}[t]{0.48\hsize}\caption{否定要素候補の分布}\label{tab:neg}\input{ca06table01.txt}\end{minipage}\hfill\begin{minipage}[t]{0.48\hsize}\caption{スコープ全体でない焦点の分布}\label{tab:foc}\input{ca06table02.txt}\end{minipage}\end{table}焦点である部分に付いていたとりたて詞の数を表\ref{tab:toritate}に示す.2つのコーパスを合わせ,35\%(129/373)の焦点に何らかのとりたて詞が付いていたことが分かる.とりたて詞「は」は,焦点である箇所の手がかりとして利用できそうに見えるが,「は」は,特に主題を表す「は」として,スコープ全体が焦点である事例にも多く出現するので,注意が必要である.\ref{subsec:toritate}節で述べたように,スコープの中に「しか」が付く項が存在する場合,それが否定の焦点となる.焦点の語句が表す意味に基づく分類結果を表\ref{tab:semantic}に示す.「レビュー」には,焦点が副詞である否定要素が多いため,``付加-連用修飾''が多いことが見て取れる.「レビュー」は宿泊施設のレビュー集合であるので,場所を表す語句に否定の焦点がある``制限-場所''が,「新聞」に比べ,著しく多いことが分かる.判断の根拠\footnote{判断の根拠と手がかり語句は,アノテーションコストの理由により,今回,1人の作業者しか記述していない.}は,自由記述であるため,様々な回答が見られた.「レビュー」では,副詞が焦点となる事例が多かったので,次のような根拠が多く見られた.\begin{itemize}\item程度の副詞が付加的に使用されている(86事例)\item時間の副詞(句)が付加的に使用されている(20事例)\item様態の副詞が付加的に使用されている(8事例)\end{itemize}しかしながら,このような特別な場合を除けば,一致する回答はほとんどなく,出現回数が1回の回答は,160事例あった.参考として,その中から任意に選択した回答を以下に示す.\begin{itemize}\itemそれまでは連絡が取れた\item一般に材料は入れる\item一部は押さえた\itemその他の項目では負ける可能性がある\itemこのホテルは特別なサービスがある\end{itemize}これらの回答を自然言語処理において有効に活用するためには,\ref{subsec:label}節で述べたように,できる限り,語彙と書き方を制限する方法が有効であると思われる.\begin{table}[b]\begin{minipage}[t]{0.48\hsize}\caption{焦点に付いていたとりたて詞}\label{tab:toritate}\input{ca06table03.txt}\end{minipage}\hfill\begin{minipage}[t]{0.48\hsize}\caption{焦点の意味分類結果}\label{tab:semantic}\input{ca06table04.txt}\end{minipage}\end{table}\begin{table}[b]\caption{手がかり語句が存在した位置}\label{tab:clue}\input{ca06table05.txt}\end{table}対象文内に存在した手がかり語句の数と,対象文の外に存在した手がかり語句の数を,表\ref{tab:clue}に示す.「レビュー」では,2事例に対してそれぞれ2つの手がかり語句が記述されていたため,合計が373ではなく,375となっている.この表から,87\%(327/375)の手がかり語句は,対象文内に見つかることが分かる.しかしながら,今回のアノテーション作業においては,広く文脈を見渡すことにより,対象文が持つ意味の曖昧性を解消してから,手がかり語句を決定しているので,ほとんどの否定の焦点は対象文内の情報のみで特定できると結論付けることはできないと思われる.今後は,徐々に参照する文脈を広げながら,「どこまで参照したか」という情報とともに,手がかり語句を記述する枠組みが必要である.
\section{おわりに}
本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し,実際に2種類のテキストを対象として構築した否定の焦点コーパスについて報告した.今後の課題は大きく3つある.1つめは,アノテーション結果を分析することにより明らかになった,アノテーション体系の不備を改めることである.特に,判断の根拠や手がかり語句の情報を,自然言語処理において使いやすい形で記述する方法を考案する必要がある.2つめは,新しいジャンルのテキストに焦点の情報をアノテーションし,コーパスを大きくすることである.現在,BCCWJの新聞以外のレジスタに対してアノテーション作業を進めることを計画している.3つめは,構築したコーパスを利用して,実際に日本語における否定の焦点を検出するシステムを実装することである.大槻らは,独自のヒューリスティックを利用することにより,日本語における否定の焦点を検出するシステムを提案している\cite{otsuki2013}.我々は,今回アノテーションした情報を有効に活用することにより,高い精度で焦点を検出できるシステムの構築を目指したい.構築したコーパスは,楽天データおよびBCCWJとの差分形式で,無償で一般公開する予定である.\acknowledgment本論文の査読者の方々から,本研究に関して有益なご助言をいただきました.また,本研究では,楽天トラベル株式会社の施設レビューデータと,国立国語研究所の『現代日本語書き言葉均衡コーパス』を利用させていただきました.ここに記して感謝の意を表します.本研究の一部は,科研費若手研究(B)「否定焦点コーパス構築と焦点自動解析に関する研究」(課題番号:25870278,代表:松吉俊)の支援を受けています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Babko-Malaya}{Babko-Malaya}{2005}]{Olga2005}Babko-Malaya,O.\BBOP2005\BBCP.\newblock{\Bem{PropBankAnnotationGuidelines}}.\newblockACE(AutomaticContentExtraction)Program.\newblock\url{http://verbs.colorado.edu/~mpalmer/projects/ace/PBguidelines.pdf}.\bibitem[\protect\BCAY{Blanco\BBA\Moldovan}{Blanco\BBA\Moldovan}{2011a}]{EduardoMoldo2011b}Blanco,E.\BBACOMMA\\BBA\Moldovan,D.\BBOP2011a\BBCP.\newblock\BBOQSemantic{R}epresentationof{N}egation{U}sing{F}ocus{D}etection.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\581--589}.\bibitem[\protect\BCAY{Blanco\BBA\Moldovan}{Blanco\BBA\Moldovan}{2011b}]{EduardoMoldo2011}Blanco,E.\BBACOMMA\\BBA\Moldovan,D.\BBOP2011b\BBCP.\newblock\BBOQSome{I}ssueson{D}etecting{N}egationfrom{T}ext.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalFloridaArtificialIntelligenceResearchSocietyConference},\mbox{\BPGS\228--233}.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{Huddleston\BBA\Pullum}{Huddleston\BBA\Pullum}{2002}]{Cambridge}Huddleston,R.\BBACOMMA\\BBA\Pullum,G.~K.\BEDS\\BBOP2002\BBCP.\newblock{\BemTheCambridgeGrammarofthe{English}Language}.\newblockCambridge{U}niversity{P}ress.\bibitem[\protect\BCAY{片岡}{片岡}{2006}]{Kataoka2006}片岡喜代子\JED\\BBOP2006\BBCP.\newblock\Jem{日本語否定文の構造かき混ぜ文と否定呼応表現}.\newblockくろしお出版.\bibitem[\protect\BCAY{加藤\JBA吉村\JBA今仁}{加藤\Jetal}{2010}]{kato2010}加藤泰彦\JBA吉村あき子\JBA今仁生美\JEDS\\BBOP2010\BBCP.\newblock\Jem{否定と言語理論}.\newblock開拓社.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA崔\JBA戸次}{川添\Jetal}{2011}]{Kawazoe2011}川添愛\JBA齊藤学\JBA片岡喜代子\JBA崔栄殊\JBA戸次大介\BBOP2011\BBCP.\newblock\Jem{言語情報の確実性に影響する表現およびそのスコープのためのアノテーションガイドラインVer.2.4}.\newblockTechnicalReportofDepartmentofInformationScience,OchanomizuUniversity.\bibitem[\protect\BCAY{小林}{小林}{2009}]{Kobayashi2009}小林亜希子\BBOP2009\BBCP.\newblockとりたて詞の極性とフォーカス解釈.\\newblock\Jem{言語研究},{\Bbf136},\mbox{\BPGS\121--151}.\bibitem[\protect\BCAY{小池\JBA松吉\JBA福本}{小池\Jetal}{2012}]{koike2012}小池惇爾\JBA松吉俊\JBA福本文代\BBOP2012\BBCP.\newblock評価視点別レビュー要約のための重要文候補抽出.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\1188--1191}.\bibitem[\protect\BCAY{Li,Zhou,Wang,\BBA\Zhu}{Liet~al.}{2010}]{Li2010}Li,J.,Zhou,G.,Wang,H.,\BBA\Zhu,Q.\BBOP2010\BBCP.\newblock\BBOQ{LearningtheScopeofNegationviaShallowSemanticParsing}.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\671--679}.\bibitem[\protect\BCAY{松村\JBA小学館『大辞泉』編集部}{松村\JBA小学館『大辞泉』編集部}{1998}]{daijisen}松村明\JBA小学館『大辞泉』編集部\JEDS\\BBOP1998\BBCP.\newblock\Jem{大辞泉(増補・新装)}.\newblock小学館.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{matuyosi2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf93}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{茂木}{茂木}{1999}]{Mogi1999}茂木俊伸\BBOP1999\BBCP.\newblockとりたて詞「まで」「さえ」について—否定との関わりから—.\\newblock\Jem{日本語と日本文学},{\Bbf28},\mbox{\BPGS\27--36}.\bibitem[\protect\BCAY{Morante,Liekens,\BBA\Daelemans}{Moranteet~al.}{2008}]{Morante2008}Morante,R.,Liekens,A.,\BBA\Daelemans,W.\BBOP2008\BBCP.\newblock\BBOQ{LearningtheScopeofNegationinBiomedicalTexts}.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\715--724}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2007}]{neg2007}日本語記述文法研究会\JED\\BBOP2007\BBCP.\newblock\Jem{現代日本語文法3}.\newblockくろしお出版.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{toritate2009}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法5}.\newblockくろしお出版.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{2000}]{iwanami}西尾実\JBA岩淵悦太郎\JBA水谷静夫\JEDS\\BBOP2000\BBCP.\newblock\Jem{岩波国語辞典第六版}.\newblock岩波書店.\bibitem[\protect\BCAY{沼田}{沼田}{2009}]{Numata2009}沼田善子\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語とりたて詞の研究}.\newblockひつじ書房.\bibitem[\protect\BCAY{奥津\JBA沼田\JBA杉本}{奥津\Jetal}{1986}]{Numata1986}奥津敬一郎\JBA沼田善子\JBA杉本武\JEDS\\BBOP1986\BBCP.\newblock\Jem{いわゆる日本語助詞の研究}.\newblock凡人社.\bibitem[\protect\BCAY{大槻\JBA松吉\JBA福本}{大槻\Jetal}{2013}]{otsuki2013}大槻諒\JBA松吉俊\JBA福本文代\BBOP2013\BBCP.\newblock否定の焦点コーパスの構築と自動検出器の試作.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\936--939}.\bibitem[\protect\BCAY{Rosenberg\BBA\Bergler}{Rosenberg\BBA\Bergler}{2012}]{Rosenberg2012}Rosenberg,S.\BBACOMMA\\BBA\Bergler,S.\BBOP2012\BBCP.\newblock\BBOQ{UConcordia:CLaCNegationFocusDetectionat*Sem2012}.\BBCQ\\newblockIn{\BemProceedingsofthe1stJointConferenceonLexicalandComputationalSemantics:SemEval'12},\mbox{\BPGS\294--300}.\bibitem[\protect\BCAY{Vincze,Szarvas,Farkas,M\'ora,\BBA\Csirik}{Vinczeet~al.}{2008}]{VeronikaVince2008}Vincze,V.,Szarvas,G.,Farkas,R.,M\'ora,G.,\BBA\Csirik,J.\BBOP2008\BBCP.\newblock\BBOQThe{B}io{S}cope{C}orpus:{B}iomedical{T}exts{A}nnotatedfor{U}ncertainty,{N}egationandtheir{S}copes.\BBCQ\\newblockIn{\BemBMCBioinformatics},\mbox{\BPGS\1--9}.\end{thebibliography}\begin{biography}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2008年同大学院情報学研究科博士後期課程修了.奈良先端科学技術大学院大学情報科学研究科特任助教を経て,現在,山梨大学大学院医学工学総合研究部助教.京都大学博士(情報学).自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
| |
V15N03-04
|
\section{はじめに}
近年,自然言語処理において評価情報処理が注目を集めている\cite{Inui06}.評価情報処理とは,物事に対する評価が記述されたテキストを検索,分類,要約,構造化するような処理の総称であり,国家政治に対する意見集約やマーケティングといった幅広い応用を持っている.具体的な研究事例としては,テキストから特定の商品やサービスに対する評価情報を抽出する処理や,文書や文を評価極性(好評と不評)に応じて分類する処理などが議論されている\cite{Kobayashi05,Pang02,Kudo04,Matsumoto05,Fujimura05,Osashima05,McDonald07}.評価情報処理を行うためには様々な言語資源が必要となる.例えば,評価情報を抽出するためには「良い」「素晴しい」「ひどい」といった評価表現を登録した辞書が不可欠である\cite{Kobayashi05}.また,文書や文を評価極性に応じて分類するためには,評価極性がタグ付けされたコーパスが教師あり学習のトレーニングデータとして使われる\cite{Pang02}.我々は,評価情報処理のために利用する言語資源の一つとして,評価文コーパスの構築に取り組んでいる.ここで言う評価文コーパスとは,何かの評価を述べている文(評価文)とその評価極性を示すタグが対になったデータのことである(表\ref{tab:corpus}).タグは好評と不評の2種類を想定している.大規模な評価文コーパスがあれば,それを評価文分類器のトレーニングデータとして利用することや,そのコーパスから評価表現を獲得することが可能になると考えられる.\begin{table}[b]\caption{評価文コーパスの例.$+$は好評極性,$-$は不評極性を表す.}\label{tab:corpus}\input{04table1.txt}\end{table}\begin{figure}[b]\input{04fig1.txt}\caption{不評文書に好評文が出現するレビュー文書}\label{fig:pang}\end{figure}評価文コーパスを構築するには,単純に考えると以下の2つの方法がある.人手でコーパスを作成する方法と,ウェブ上のレビューデータを活用する方法である.後者は,例えばアマゾン\footnote{http://amazon.com/}のようなサイトを利用するというものである.アマゾンに投稿されているレビューには,そのレビューの評価極性を表すメタデータが付与されている.そのため,メタデータを利用することによって,好評内容のレビューと不評内容のレビューを自動的に収集することができる.しかしながら,このような方法には問題がある.まず,人手でコーパスを作るという方法は,大規模なコーパスを作ることを考えるとコストが問題となる.また,レビューデータを利用する方法には,文単位の評価極性情報を取得しにくいという問題がある.後者の具体例として図\ref{fig:pang}に示すレビュー文書\cite{Pang02}を考える.これは文書全体としては不評内容を述べているが,その中には好評文がいくつも出現している例である.このような文書を扱う場合,文書単位の評価極性だけでなく,文単位の評価極性も把握しておくことが望ましい.しかし,一般的にレビューのメタデータは文書に対して与えられるので,文単位の評価極性の獲得は難しい.さらに,レビューデータを利用した場合には,内容が特定ドメインに偏ってしまうという問題もある.こうした問題を踏まえて,本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに大量の評価文を収集することが可能となる.また,評価文書ではなく評価文を収集対象としているため,図\ref{fig:pang}のような問題は緩和される.さらに任意のHTML文書に適用できる方法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.
\section{アイデア}
\label{sec:idea}提案手法は「定型文」「箇条書き」「表」という3つの記述形式を利用して評価文を自動抽出する.本節では,これら3つの形式で記述された評価文の例を概観して,基本的な考え方を説明する.手法の詳細は次節で述べる.\subsection{定型文}まず我々が着目したのは定型的な評価文である.\begin{lingexample}\head{これの\underline{良いところは}\fbox{計算が速い}\underline{ことです}.}\sent{\underline{悪い点は},\fbox{慣れるまで時間がかかる}\underline{こと}.}\end{lingexample}\noindentいずれの評価文も「良いところ/悪い点は〜なこと」という定型的な表現を使って記述されている.そのため,下線部にマッチするような語彙統語パターンを用意すれば,四角で囲まれたテキストを評価文として抽出することができる\footnote{四角で囲まれたテキストは正確には文ではなく句と呼ぶべきであるが,箇条書きと表から抽出される評価文との整合性を考えて,ここでは文と呼ぶことにする.}.以下では「良いところ」「悪い点」のように,評価文の存在を示唆する表現のことを手がかり句と呼ぶ.特に好評文の存在を示す手がかり句を「好評手がかり句」と呼ぶ.例えば「良いところ」は好評手がかり句である.同様に,不評文の存在を示す手がかり句を「不評手がかり句」と呼ぶ.\subsection{箇条書き}次に着目したのは,図\ref{fig:itemize}のように箇条書き形式で列挙された評価文である.この箇条書きは手がかり句(良い点,悪い点)を見出しに持つため,各項目に評価文が含まれていることが分かる.\begin{figure}[b]\input{04fig2.txt}\caption{箇条書き形式で記述された評価文}\label{fig:itemize}\end{figure}\subsection{表}箇条書きと同様に,図\ref{fig:table}のような表形式からも評価文を自動収集することができる.この表は左側の列が見出しの働きをしているが,ここにも手がかり句(気に入った点,イヤな点)が使われているので,表中に評価文が記述されていることが分かる.\begin{figure}[b]\input{04fig3.txt}\caption{表形式で記述された評価文}\label{fig:table}\end{figure}
\section{評価文の自動収集}
HTML文書から評価文を収集する手続きは次のようになる.\begin{enumerate}\item手がかり句のリストを作成する.\itemHTML文書をタグとテキストに分割する.一部の箇条書きと見出しはHTMLタグを使わないで記述されているので,ルールでタグを補完する.\item手がかり句のリストを利用して「定型文」「箇条書き」「表」から評価文を抽出する.\end{enumerate}\noindent以下では,まず実験で用いた手がかり句について説明する.そして「定型文」「箇条書き」「表」から評価文を抽出する方法を順に説明する.\subsection{手がかり句}実験で用いた手がかり句の一覧を表\ref{tab:cue}に示す.これらは予備実験を通して人手で選定した.表中の動詞,形容詞,形容動詞(「良い」など)は「所」「点」「面」という3つの名詞と組み合わせて使う.例えば「良い」は「良い所」「良い点」「良い面」の3つを手がかり句として使うことを意味する.「長所」や「メリット」のような名詞は,単語そのものを手がかり句として使う.なお,詳細は省略しているが「駄目な所」と「ダメな所」または「良い所」と「良いところ」のような表記揺れも網羅的に人手で記述している.\begin{table}[b]\caption{実験で使用した手がかり句}\label{tab:cue}\input{04table2.txt}\end{table}\subsection{定型文からの抽出}定型文から評価文を抽出するために,3種類の語彙統語パターンを人手で作成した.各パターンとそれにマッチする定型文の具体例を表\ref{tab:pattern}に示す.\begin{table}[b]\caption{語彙統語パターンと評価文抽出の例}\label{tab:pattern}\input{04table3.txt}\end{table}最初のパターン(表\ref{tab:pattern}上)は,主部が手がかり句(良いところ)で述部が評価文であるような定型文にマッチする.パターン中の矢印は文節間の依存関係,\fbox{手がかり句}\は手がかり句をそれぞれ表している.また\\ovalbox{評価文}\は,この部分にマッチしたテキストが評価文として抽出されることを意味する.表の右側に評価文が抽出される様子を示す.残り2つのパターンも同様である.それぞれ,主部が評価文で述部が手がかり句である定型文にマッチするパターン(表\ref{tab:pattern}中)と,評価文と手がかり句が同格になっている定型文にマッチするパターン(表\ref{tab:pattern}下)である.\subsection{箇条書きからの抽出}箇条書きからの評価文抽出は,手がかり句リストとHTMLタグを利用すれば容易に実現できる.すなわち,手がかり句が見出しになっている箇条書きを見つけて,その箇条書きの項目を順に取り出していけばよい.例えば,前節の図\ref{fig:itemize}からは「変に加工しない素直な音を出す」「曲の検索が簡単にでる」が好評文として,「リモコンに液晶表示がない」「ボディに傷や指紋がつきやすい」が不評文として取り出される.ここで問題となるのは,1つの項目に複数文が記述されている場合の処理である(図\ref{fig:itemize2}の3番目の項目).このような場合は1項目に好評文と不評文が混在している可能性がある.各文の評価極性を自動判定することは難しいので,1つの項目に複数文が存在した場合,その項目は抽出に使わないことにした.例えば図\ref{fig:itemize2}からは「発色がものすごくよい.」と「撮っていくうちに楽しくなる.」「カメラ背面の液晶画面が大きく,見やすい.」が好評文として抽出される.\begin{figure}[b]\begin{minipage}[b]{200pt}\input{04fig4.txt}\caption{1項目に複数文が記述されている箇条書き}\label{fig:itemize2}\end{minipage}\hfill\begin{minipage}[b]{200pt}\input{04fig5.txt}\caption{評価文を抽出するときに考慮する表タイプ}\label{fig:table_pattern}\end{minipage}\end{figure}\subsection{表からの抽出}最後に,表から評価文を抽出する方法を述べる.基本的には手がかり表現と$<$table$>$タグを利用すればよいのだが,HTML文書には多種多様な表が出現するので,あらゆる表に対応した抽出規則を作成することは難しい.そこで2種類の表だけを考えることにした(図\ref{fig:table_pattern}).図中の$C_{+}$と$C_{-}$は好評手がかり句と不評手がかり句を表し,+と−は好評文と不評文を表す.タイプAは,1列目に手がかり句があって,その横に評価文があるタイプである.前節で紹介した図\ref{fig:table}はこのタイプに相当する.タイプBは,1行目に手がかり句があって,その下に評価文があるタイプである.与えられた表のタイプは,1列目(1行目)を調べて,好評手がかり句と不評手がかり句の両方が出現していればタイプA(タイプB)であると判定する.表のタイプが決まれば,あとは図の+と−に対応するマスから評価文を抽出すればよい.ただし,1つのマスに複数文が記述されている場合は抽出対象としない.これは箇条書きの1項目に複数文が記述されている場合と同様の理由からである.
\section{実験}
約10億件のHTML文書集合を用いて評価文の収集実験を行った結果,約65万の評価文を獲得することができた.ただし,使用したHTML文書にはミラーサイトなどの重複文書も含まれているため,同一の評価文が複数回抽出された場合は集計に入れていないようにした.表\ref{tab:result}に収集された評価文数の詳細を示す.定型文は,3種類の語彙統語パターン(表\ref{tab:pattern})から抽出された評価文数を分けて示している.定型文1,2,3というのは,それぞれ表\ref{tab:pattern}の上,中,下に記述されたパターンに相当する.表\ref{tab:example}に自動収集された評価文の一例を示す.\begin{table}[b]\begin{minipage}[t]{168pt}\caption{収集された評価文の数}\label{tab:result}\input{04table4.txt}\end{minipage}\hfill\begin{minipage}[t]{220pt}\caption{収集された評価文の例}\label{tab:example}\input{04table5.txt}\end{minipage}\end{table}収集された評価文コーパスから250文(各抽出法ごとに50文ずつ)を無作為に取り出し,妥当な評価文が集められているかどうかを2人の評価者が人手で調査した.評価者には収集された文のみを提示して,それを好評,不評,曖昧の3つに分類するように指示した.曖昧というカテゴリは,好評文か不評文かを決めるのが困難な場合に使用するものとした.評価の結果を表\ref{tab:acc1}に示す.抽出に利用した記述形式によって精度にややばらつきが見られるものの,おおよそ80\%から90\%の収集精度で評価文が収集できたことが分かる.ただし,評価者が曖昧と判断した文は不正解としている.さらに表\ref{tab:acc2}に,評価者が曖昧と判断した文を除いた場合の精度を示す.表\ref{tab:acc1}の結果と比べて,精度は大きく向上している.この結果から,表\ref{tab:acc1}で不正解に数えられている事例は,ほとんどが人間でも判断に迷う(=評価者が「曖昧」に分類していた)ケースであったことが分かる.曖昧に分類された文の典型例は文脈情報が欠如している文であった.これについては次節で詳しく議論する.なお,調査で用いた250文のうち,2人の評価者の分類結果が一致したものは208文であった(Kappa値は0.748).\begin{table}[b]\begin{minipage}{176pt}\caption{評価文の収集精度}\label{tab:acc1}\input{04table6.txt}\end{minipage}\hfill\begin{minipage}{228pt}\caption{評価者が曖昧と判断した評価文を除いた収集精度}\label{tab:acc2}\input{04table7.txt}\end{minipage}\end{table}次に,自動構築した評価文コーパスをトレーニングデータに使って評価文分類器を構築し,その分類精度を調べた(表\ref{tab:classify}).テストデータは,レストラン,コンピュータ,自動車の3ドメインのレビューサイトから収集したものを用いた.分類器はナイーブベイズ,素性は形容詞の原形を用いた.「良くない」などの言い回しに対応するため,形容詞と同一文節内に「ない」「ぬ」がある場合には,形容詞の原形に否定を示すタグを付与したものを素性に使った.また,自動収集した好評文と不評文の数に偏りがあったため,クラスの事前分布は好評,不評ともに0.5に設定した.\begin{table}[b]\caption{本コーパスを用いた評価文分類の結果}\label{tab:classify}\input{04table8.txt}\end{table}\begin{table}[b]\caption{レビューデータを用いた評価文分類の結果}\label{tab:classify2}\input{04table9.txt}\end{table}比較のため,上記3種類のレビューデータを,それぞれトレーニング/テストデータとして使ったときの分類精度も調査した(表\ref{tab:classify2}).ただし,トレーニングとテストで同一データを用いた場合には,10分割の交差検定を行った.この表から,トレーニングとテストに同一データを使った場合は,本コーパスを用いた場合と同等の精度であることが分かる.その一方で,異なるデータを用いた場合には精度が大きく低下していることが確認できる.この実験結果から,レビューデータよりも本コーパスの方がドメインの変化に頑健であると言うことができる.これは,大量のHTML文書から評価文を収集しているため,幅広いドメインの表現を網羅しているからであると考えられる.
\section{議論}
実験の結果から,提案手法は80\%から90\%という精度で評価文を獲得できることが分かった.また,収集した評価文が分類タスクに対して有効であることも確認することができた.今後の課題としては,定型文から収集された評価文が多かったことから,新しい語彙統語パターンを利用して収集量をさらに拡大させることを検討している.また,収集した評価文からの評価表現辞書の構築にも取り組んでいる.評価者が「曖昧」と分類した評価文を分析したところ,評価極性を決定するために十分な文脈情報が与えられていない場合が大半であることが分かった.それ以外のものとしては,文分割と構文解析の誤りに起因するものが3例だけ見つかった.3例とも定型文から抽出されていた.文脈情報が欠落している例として「何しろ情報量が多い」という文が好評文として獲得されていた.この文の評価極性は文脈に依存するため,この文単独で評価極性を決定することは困難である.したがって,この評価文を人手で評価した場合には「曖昧」に分類される可能性が高い.しかし,実際にこの文が抽出された元テキストを調べてみると,次のようなものであった.\begin{lingexample}\single{このガイドブックのいいところは\underline{何しろ情報量が多い}ところです.}\end{lingexample}\noindentこれを見ると「何しろ情報量が多い」という文は,少なくとも原文では好評文として使われていたことが分かる.このことから,表\ref{tab:acc1}で不正解に数えられている評価文の中には,完全な間違いとは言いきれないものが含まれていると考えている.利用した記述形式によって,収集される好評文と不評文の割合に大きな差が見られた.特に定型文2の内訳を見ると,不評文の数が圧倒的に多いことが分かる(表\ref{tab:result}の定型文2).この理由を調べたところ「〜なのが難点」という言い回しが頻出していることが原因であった.このような好不評の偏りは,例えば本コーパスを評価文分類器のトレーニングデータとして使うときには考慮しておく必要があると考えられる.本実験ではHTML文書から評価文の収集を行ったが,提案手法自体はHTML文書に特化したものではないと考えている.たしかに,箇条書きと表形式を利用した抽出処理は,HTML文書の特性を利用している.しかし,表\ref{tab:result}から分かるように,抽出された評価文のうち80\%以上が定型文から抽出されている.このことから,提案手法はHTML文書以外のコーパスに対しても有効に働くと考えられる.
\section{関連研究}
我々の知る限り,評価文の自動収集を行ったという研究はこれまでに報告されていない.最も関連が深いのは,評価語や評価句の自動獲得に関する研究である.これには主に2つのアプローチがあり,1つはシソーラスや国語辞典のような言語資源を利用して評価語を獲得する手法である.Kampsらは,類義語/反義語は同一/逆極性を持ちやすいという仮定にもとづき,WordNetを利用して評価語を獲得する手法を提案した\cite{Kamps04}.同様の考え方にもとづく手法はこれまでに多数提案されている\cite{Hu04,Kim04,Takamura05}.一方で,Esuliらは語の評価極性の判定を定義文の分類問題として解いている\cite{Esuli05,Esuli06a}.評価語や評価句を獲得するためのもう1つのアプローチは,評価表現同士の共起関係を利用する方法である.Turneyは,評価表現は同一ウィンドウ内に共起しやすいとことに着目し,語句の評価極性を判定する手法を提案した\cite{Turney02a,Turney02b}.共起頻度を求めるときに既存のコーパスを利用するのではなく,検索エンジンを利用してウェブという大規模コーパスでの頻度を見積もり,データスパースネスの問題に対処している点が特徴である.Hatzivassiloglouらは,コーパス中で2つの形容詞が{\itand}などの順接を表す接続詞で結ばれていれば同一評価極性を持ちやすく,逆に{\itbut}のような逆接で結ばれていれば逆極性を持ちやすいという観察にもとづき,コーパスから評価語を獲得する手法を提案した\cite{Hatzivassiloglou97}.この考え方はKanayamaらによってさらに拡張されている\cite{Kanayama06}.語句の評価極性ではなく主観性に着目した研究報告も存在する.Wiebeは,人手でタグ付けされたトレーニングデータ利用して,主観的形容詞を学習する手法を提案している\cite{Wiebe00}.Riloffらは主観的名詞の獲得を行っている\cite{Riloff03a}.Riloffらの手法では,主観的名詞とその抽出パターンが交互に学習される.まずシステムには少数の主観的名詞が入力として与えられる.そして,それを利用して主観的名詞の抽出パターンを学習する,学習されたパターンで新たな主観的名詞を獲得する,という処理が繰り返される.これにより大量の主観的名詞の獲得が行われる.\cite{Riloff03a}では名詞が対象とされていたが,\cite{Riloff03b}では名詞以外の句も獲得対象となっている.同様のブートストラップ的な手法は\cite{Wiebe05}でも議論されている.提案手法のように語彙統語パターンやレイアウト(箇条書きや表)パターンを用いて知識獲得を行う手法は古くから研究されてきている.Hearstは,{\itsuchas}のようなパターンに着目して,単語間の上位下位関係をコーパスから獲得する手法を提案した\cite{Hearst92}.Hearstの手法は英語を対象としているが,日本語においても安藤らが同様の手法を試している\cite{Ando03}.一方,新里らは,同一箇条書きに出現する単語は共通の上位語を持ちやすいという仮説にもとづき,上位下位関係を獲得する手法を提案している\cite{Shinzato05}.これ以外にも,全体部分関係にある単語対の獲得や,属性と属性値の獲得といったタスクにも,同様の手法が用いられている\cite{Berland99,Chklovski04,Yoshinaga06}.我々の知る限り,評価情報処理に同様の手法を適用したという報告はない.HuらやKimらの手法ではレイアウトパターンが利用されているが,これらの研究では,レイアウトは特定サイトに固有の手がかりとして議論されているため意味合いが異なる\cite{Hu05,Kim06}.
\section{おわりに}
本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案した.提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.収集精度はおおよそ80\%から90\%であったが,文脈依存する評価文の存在を考慮すると,良好な結果であると考えている.今後は,このコーパスからの評価表現の収集に取り組む予定である.\acknowledgment本研究は文部科学省リーディングプロジェクトe-society:先進的なウェブ解析技術によって支援された.また,実験を進めるにあたって,東京大学の荒牧英治氏と田渕史郎氏に協力していただきました.感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{安藤まや\JBA関根聡\JBA石崎俊}{安藤まや\Jetal}{2003}]{Ando03}安藤まや\JBA関根聡\JBA石崎俊\BBOP2003\BBCP.\newblock\JBOQ定型表現を利用した新聞記事からの下位概念単語の自動抽出\JBCQ\\newblock\Jem{情報処理学会研究報告2003-NL-157},\mbox{\BPGS\77--82}.\bibitem[\protect\BCAY{Berland\BBA\Charniak}{Berland\BBA\Charniak}{1999}]{Berland99}Berland,M.\BBACOMMA\\BBA\Charniak,E.\BBOP1999\BBCP.\newblock\BBOQFindingPartsinVeryLargeCorpora\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Chklovski\BBA\Pantel}{Chklovski\BBA\Pantel}{2004}]{Chklovski04}Chklovski,T.\BBACOMMA\\BBA\Pantel,P.\BBOP2004\BBCP.\newblock\BBOQ{\scVerbOcean}:MiningtheWebforFine-GrainedSemanticVerbRelations\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Esuli\BBA\Sebastiani}{Esuli\BBA\Sebastiani}{2005}]{Esuli05}Esuli,A.\BBACOMMA\\BBA\Sebastiani,F.\BBOP2005\BBCP.\newblock\BBOQDeterminingtheSemanticOrientationofTermsthroushGlossClassification\BBCQ\\newblockIn{\BemProceedingsofConferenceonInformationandKnowledgeManagement(CIKM)},\mbox{\BPGS\617--624}.\bibitem[\protect\BCAY{Esuli\BBA\Sebastiani}{Esuli\BBA\Sebastiani}{2006}]{Esuli06a}Esuli,A.\BBACOMMA\\BBA\Sebastiani,F.\BBOP2006\BBCP.\newblock\BBOQDeterminingTermSubjectivityandTermOrientationforOpinionMining\BBCQ\\newblockIn{\BemProceedingsofEuropeanChapteroftheAssociationofComputationalLinguistics(EACL)},\mbox{\BPGS\193--200}.\bibitem[\protect\BCAY{藤村滋\JBA豊田正史\JBA喜連川優}{藤村滋\Jetal}{2005}]{Fujimura05}藤村滋\JBA豊田正史\JBA喜連川優\BBOP2005\BBCP.\newblock\JBOQ文の構造を考慮した評判抽出手法\JBCQ\\newblock\Jem{電子情報通信学会第16回データ工学ワークショップ}.\bibitem[\protect\BCAY{Hatzivassiloglous\BBA\McKeown}{Hatzivassiloglous\BBA\McKeown}{1997}]{Hatzivassiloglou97}Hatzivassiloglous,V.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP1997\BBCP.\newblock\BBOQPredictingtheSemanticOrientationofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\174--181}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Hearst92}Hearst,M.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004}]{Hu04}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004\BBCP.\newblock\BBOQMiningandSummarizingCustomerReviews\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD)},\mbox{\BPGS\168--177}.\bibitem[\protect\BCAY{乾孝司\JBA奥村学}{乾孝司\JBA奥村学}{2006}]{Inui06}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblock\JBOQテキストを対象とした評価情報の分析に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{Kamps,Marx,Mokken,\BBA\de~Rijke}{Kampset~al.}{2004}]{Kamps04}Kamps,J.,Marx,M.,Mokken,R.~J.,\BBA\de~Rijke,M.\BBOP2004\BBCP.\newblock\BBOQUsingWordNettoMeasureSemanticOrientationsofAdjectives\BBCQ\\newblockIn{\BemInproceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)}.\bibitem[\protect\BCAY{Kanayama\BBA\Nasukawa}{Kanayama\BBA\Nasukawa}{2006}]{Kanayama06}Kanayama,H.\BBACOMMA\\BBA\Nasukawa,T.\BBOP2006\BBCP.\newblock\BBOQFullyAutomaticLexiconExpansionforDomain-orientedSentimentAnalysis\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{Kim\BBA\Hovy}{Kim\BBA\Hovy}{2004}]{Kim04}Kim,S.-M.\BBACOMMA\\BBA\Hovy,E.\BBOP2004\BBCP.\newblock\BBOQDeterminingtheSentimentofOpinions\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\1367--1373}.\bibitem[\protect\BCAY{Kim\BBA\Hovy}{Kim\BBA\Hovy}{2006}]{Kim06}Kim,S.-M.\BBACOMMA\\BBA\Hovy,E.\BBOP2006\BBCP.\newblock\BBOQAutomaticIdentificationofProandConReasonsinOnlineReviews\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonComputationalLinguistics,PosterSessions(COLING)},\mbox{\BPGS\483--490}.\bibitem[\protect\BCAY{小林のぞみ\JBA乾健太郎\JBA松本裕二\JBA立石健二\JBA福島俊一}{小林のぞみ\Jetal}{2005}]{Kobayashi05}小林のぞみ\JBA乾健太郎\JBA松本裕二\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出のための評価表現の収集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2004}]{Kudo04}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQABoostingAlgorithmforClassificationofSemi-StructuredText\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Liu,Hu,\BBA\Cheng}{Liuet~al.}{2005}]{Hu05}Liu,B.,Hu,M.,\BBA\Cheng,J.\BBOP2005\BBCP.\newblock\BBOQOpinionObserver:AnalyzingandComparingOpinionsontheWeb\BBCQ\\newblockIn{\BemProceedingsofWWW}.\bibitem[\protect\BCAY{Matsumoto,Takamura,\BBA\Okumura}{Matsumotoet~al.}{2005}]{Matsumoto05}Matsumoto,S.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQSentimentClassificationUsingWordSub-sequencesandDependencySub-tree\BBCQ\\newblockIn{\BemProceedingsofPacificAsiaConferenceonKnowledgeDiscoveryandDataMining(PAKDD)},\mbox{\BPGS\301--311}.\bibitem[\protect\BCAY{McDonald,Hannan,Neylon,Wells,\BBA\Reynar}{McDonaldet~al.}{2007}]{McDonald07}McDonald,R.,Hannan,K.,Neylon,T.,Wells,M.,\BBA\Reynar,J.\BBOP2007\BBCP.\newblock\BBOQStructuredModelsforFine-toCoarseSentimentAnalysis\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{筬島郁子\JBA嶋田和孝\JBA遠藤勉}{筬島郁子\Jetal}{2005}]{Osashima05}筬島郁子\JBA嶋田和孝\JBA遠藤勉\BBOP2005\BBCP.\newblock\JBOQ系列パターンを利用した評価表現の分類\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\448--451}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaihyanathan}{Panget~al.}{2002}]{Pang02}Pang,B.,Lee,L.,\BBA\Vaihyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Riloff\BBA\Wiebe}{Riloff\BBA\Wiebe}{2003}]{Riloff03b}Riloff,E.\BBACOMMA\\BBA\Wiebe,J.\BBOP2003\BBCP.\newblock\BBOQLearningExtractionPatternsforSubjectiveExpressions\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Riloff,Wiebe,\BBA\Wilson}{Riloffet~al.}{2003}]{Riloff03a}Riloff,E.,Wiebe,J.,\BBA\Wilson,T.\BBOP2003\BBCP.\newblock\BBOQLearningSubjectiveNounsusingExtractionPatternBootstrapping\BBCQ\\newblockIn{\BemProceedingsoftheSeventhConferenceonNaturalLanguageLearning(CoNLL)}.\bibitem[\protect\BCAY{新里圭司\JBA鳥澤健太郎}{新里圭司\JBA鳥澤健太郎}{2005}]{Shinzato05}新里圭司\JBA鳥澤健太郎\BBOP2005\BBCP.\newblock\JBOQHTML文書からの単語間の上位下位関係の自動獲得\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\125--150}.\bibitem[\protect\BCAY{Takamura,Inui,\BBA\Okumura}{Takamuraet~al.}{2005}]{Takamura05}Takamura,H.,Inui,T.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQExtractingSemanticOrientationofWordsusingSpinModel\BBCQ\\newblockIn{\BemProceedingsofthe43thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\133--140}.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney02a}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsuporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2002}]{Turney02b}Turney,P.~D.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2002\BBCP.\newblock\BBOQUnsupervisedLearningofSemanticOrientationfromaHundred-Billion-WordCorpus\BBCQ\\newblock\BTR,NationalResearchCouncilCanada.\bibitem[\protect\BCAY{Wiebe\BBA\Riloff}{Wiebe\BBA\Riloff}{2005}]{Wiebe05}Wiebe,J.\BBACOMMA\\BBA\Riloff,E.\BBOP2005\BBCP.\newblock\BBOQCreatingSubjectiveandObjectiveSentenceClassifiersfromUnannotatedTexts\BBCQ\\newblockIn{\BemProceedingsoftheSixthInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing-2005)}.\bibitem[\protect\BCAY{Wiebe}{Wiebe}{2000}]{Wiebe00}Wiebe,J.~M.\BBOP2000\BBCP.\newblock\BBOQLearningSubjectiveAdjectivesfromCorpora\BBCQ\\newblockIn{\BemProceedingsoftheSeventhNationalConferenceonArtificialIntelligence(AAAI)}.\bibitem[\protect\BCAY{吉永直樹\JBA鳥澤健太郎}{吉永直樹\JBA鳥澤健太郎}{2006}]{Yoshinaga06}吉永直樹\JBA鳥澤健太郎\BBOP2006\BBCP.\newblock\JBOQWebからの属性情報記述ページの発見\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf21}(6),\mbox{\BPGS\493--501}.\end{thebibliography}\begin{biography}\bioauthor{鍜治伸裕}{2005年東京大学大学院情報理工学系研究科博士課程修了.情報理工学博士.現在,東京大学生産技術研究所特任助教.自然言語処理の研究に従事.}\bioauthor{喜連川優}{1978年東京大学工学部電子工学科卒業.1983年同大大学院工学系研究科情報工学専攻博士課程修了.工学博士.同年同大生産技術研究所講師.現在,同教授.2003年より同所戦略情報融合国際研究センター長.データベース工学,並列処理,Webマイニングに関する研究に従事.現在,日本データベース学会理事,情報処理学会,電子情報通信学会各フェロー.ACMSIGMODJapanChapterChair,電子情報通信学会データ工学研究専門委員会委員長歴任.VLDBTrustee(1997--2002),IEEEICDE,PAKDD,WAIMなどステアリング委員.IEEEデータ工学国際会議ProgramCo-chair(99),GeneralCo-chair(05).}\end{biography}\biodate\end{document}
| |
V15N02-02
|
\section{はじめに}
企業内には,計算機で処理できる形での文書が大量に蓄えられている.情報検索,テキストマイニング,情報抽出などのテキスト処理を計算機で行う場合,文書内には,同じ意味の語句(同義語)が多く含まれているので,その処理が必要となる.例えば,日本語の航空分野では,「鳥衝突」を含む文書を検索したい場合,「鳥衝突」とその同義語である「BirdStrike」が同定できなければ,検索語として「鳥衝突」を指定しただけでは,「BirdStrike」を含み「鳥衝突」を含まない文書は検索できない.したがって,同義語の同定を行わないと,処理能力が低下してしまう.特定分野における文書には,専門の表現が多く用いられており,その表現は一般的な文書での表現とは異なっている場合が多い.その中には,分野独特の同義語が多量に含まれている.これらの多くは汎用の辞書に登録されていないので,汎用の辞書を使用することによる同義語の処理は難しい.したがって,その分野の同義語辞書を作成する必要がある.本論文では,このような特定分野における同義語辞書作成支援ツールについて述べる.本論文では,特定分野のひとつとして航空分野を対象とするが,航空分野のマニュアル,補足情報,業務報告書等に使用される名詞に限っても,漢字・ひらがなだけでなく,カタカナ,アルファベットおよびそれらの略語が使用されている.例えば,飛行機のマニュアルの場合,「Flap」を日本語の「高揚力装置」と表現しないで「Flap」と表現し,用語の使用がマニュアルよりも自由なマニュアル以外の文書では,「Flap」や「フラップ」と表現している.また,略語も頻繁に使用され,「滑走路」を「RWY」,「R/W」と表現している.そして,これらの表現が混在している.その理由は,海外から輸入された語句は,漢字で表現するとイメージがつかみ難いものがあるためであり,そのような語句は,英語表現や英語のカタカナ表現が使用される.「Aileron」を「補助翼」というよりは,「Aileron」や「エルロン」と通常表現している.マニュアルの場合は,ある程度,使用語が統一されているが,マニュアル以外のテキストは,語句の使用がより自由で,同義語の種類・数も多くなっている.そして,分野の異なる人間や計算機にとって理解し難いものとなっている.このようなテキストを計算機で処理する場合には,同義語辞書が必要であるが,これらの語句は,前述したように汎用の辞書に載っていない場合が多い.さらに,語句の使用は統制されているものではなく,また,常に新しい語が使用されるので,一度,分野の辞書を作成しても,それを定期的にメンテナンスする必要がある.これを人手だけで行うのは大変な作業である.我々は,同義語の類似度をその周辺に出現する語句の文脈情報により計算することにより同義語辞書を半自動的に作成するツールを開発している~\cite{terada06,terada07}.本論文では,上記の支援ツールを基礎にした計算機支援による同義語辞書作成ツールを提案する.その動作・仕組みは以下の通りである.計算機は,与えられたクエリに対して,意味的に同じ語句(同義語)の候補を提示する.辞書作成者は,クエリをシステムに与えることにより,同義語の候補語をシステムから提示され,その中から同義語を選択して,辞書登録をすることができる.システムは,これまで蓄えられた大量のテキスト情報を参照し,与えられたクエリの文脈と類似する文脈を持つ語句を同義語候補語とする.文脈は,クエリ・同義語の候補語の周辺に出現する語句を使用している.既知の同義語が存在する場合には,これらの同義語を使用して文脈語を同定することにより,システムの精度向上を行った.提案手法は,語句を認識できればよいので,分野・言語を問わないものである.実験は,日本語の航空分野のレポートを使用した.このコーパスには,上述したように多数の同義語が存在し,その多くは汎用の辞書に載っていないものである.評価は,回答の中で正解が上位にある程,評価値が高くなる平均精度を用いて行い,他の手法と比較して満足できる結果が得られた.論文構成は,第2節では関連研究について述べる.第3節では類似度と平均精度について述べるが,その中で文脈情報,類似度,平均精度の定義について説明する.第4節では提案方式の詳細と実験について述べる.コーパス,評価用辞書,特徴ベクトルの定義について説明し,文脈語の種類・頻度,window幅による精度比較について述べる.第5節では,第4節の結果をもとにして,詳細な議論を行う.クエリ・同義語候補語の種類による精度の比較,大域的文脈情報との比較,文脈語の正規化,特異値分解,関連語について述べる.第6節では複合名詞の処理を述べる.複合名詞については,専門用語自動抽出システム~\cite{termextract}が抽出した複合名詞を使用することにより単名詞と同様の処理を行った.第7節では同義語辞書の作成について考察する.第8節では結論と今後の研究課題について述べる.
\section{関連研究}
\label{sec:関連研究}同義語を自動的に計算する研究は,これまで数多く行われてきた.その種類としては,カタカナと英語の対応,英語とその略語の対応,日本語とその略語の対応などがある.略語処理では,略語の近傍に括弧書きで略語の定義がされている場合の研究がある~\cite{schwartz03},\cite{pustejovsky01}.この手法は,略語の定義が略語の近傍でされているものについては有効であるが,文書の中で必ずしも略語の定義がされているとは限らない.本論文で扱う文書では略語の定義はされていないので,この手法は適用できない.カタカナとアルファベット(英語)の対応では,Knightらは,カタカナとアルファベット(英語)の対応を発音記号から対応付けしている~\cite{knight98}.阿玉らは,カタカナのローマ字表記とアルファベットとの対応付けをしている~\cite{adama04}.Teradaらは,英語における原型語とその略語の対応を両者に含まれる文字及びその順序などの情報を使用することで同定している~\cite{terada04}.この研究も本論文と同じく,航空分野という特定分野を対象としているが,対象とする言語が英語であり,略語をその原型語に復元するタスクを目的としている.同義語の類似度の計算は,文脈情報から余弦を用いて計算するものが多い.文脈情報として,語句の前後の局所的なものを用いるもの~\cite{terada04},文書全体から抽出して用いるものがある~\cite{sakai05}.Ohtakeらは,カタカナの変形を探すのに,エディット距離で候補を絞った後に,文脈情報を用いているが,その際,カタカナが用いられている構文を解析して,動詞,名詞,助詞を使用している~\cite{ohtake04}.Masuyamaらは,カタカナ処理でWEBデータから英語に対応するカタカナのエディット情報を取得している~\cite{masuyama05}.文脈情報を用いる場合には,全ての種類の語句を用いるのでなく,内容語を用いるものが多い.計算量の削減及び精度の向上のために,文脈情報だけではなく,文字情報を用いて,対応関係を絞り込む,または,決定する研究が多い.本論文では,日本語を対象とし,漢字,ひらがな,カタカナ,アルファベット,およびそれらの略語の類似度を同時に計算するために,文字情報による絞り込みは行わず,文脈情報のみでどの程度の精度が得られるかを実験した.Teradaらは,英語を対象として,略語とその原型語の対応を文脈情報および文字情報を使用して行っているが~\cite{terada04},略語とその原型語のみならず,その他の同義語においても文脈情報を使用することにより,クエリに対する同義語が得られると考えた.したがって,提案手法は,Teradaらの手法を応用し,言語を日本語に適応し,対象を略語から同義語に拡張し,文脈情報の使用に工夫を加えたものである.また,Teradaらは,略語復元の精度を向上させるために,略語の多いコーパスと略語の少ないコーパスを使用しているが,提案手法では,同義語が同一のコーパスに含まれている場合は,コーパスは1つでよいと考え,1種類のコーパスのみを使用した.文脈情報のみを使用しているが,同義語の日本語の文字種(漢字,ひらがな,カタカナ,アルファベット)について,種類の組み合わせにより精度が異なるかを調べ,今後の精緻なシステム構築の参考となるようにした.さらに,文脈情報のみでは,十分な精度が得られない場合があるので,既知の同義語を知識として使用することにより,精度の向上を図った.
\section{類似度と平均精度}
システムは,クエリに対して同義語候補語を順位付けして出力する.そのためには,クエリに対する同義語候補語の類似度を計算できなければならない.本節では,同義語候補語,文脈情報を定義し,提案手法での類似度について説明する.本節では,単名詞の処理について述べ,複合名詞の処理については,第6節で述べる.\subsection{同義語候補語}単名詞の同義語候補語は,テキストを形態素解析し,形態素解析器が出力した名詞である,漢字・ひらがな,カタカナ,アルファベットとした.形態素解析器は茶筅\footnote{http://chasen.naist.jp/hiki/ChaSen/}を使用し,その中で出現頻度が100以上のものを使用した.\subsection{文脈情報}「同義語は,同じような文脈で使用される」という仮定から,語句の類似度を文脈の類似性から計算できると考えた.これは,人間が語の意味を理解するのにその語句が出現する前後の文脈から類推しているというアイデアからである.文脈は,同義語の近傍の語句(局所的文脈)とした.人間は,前後の語句の中で,場面に応じて文脈語を選別をしていると考えられるが,計算機で実現するのは不可能であるので,場面に応じた選別については,この研究では考慮しないことにした.クエリを$q$とし,その前後の語句の並びを,$x_{\alpha}\ldotsx_{2}\x_{1}\q\y_{1}\y_{2}\ldotsy_{\beta}$とする.ここで,前後の語句は,形態素解析器が出力した単語とする.対象とするクエリの文脈語をクエリの前で$x_{\alpha}\ldotsx_{1}$,クエリの後ろで$y_{1}\ldotsy_{\beta}$とすると,window幅は$\alpha$,$\beta$であり,これ以降window~[$\alpha,\beta$]と表現することとする.同義語候補語のwindow幅についても,同様とする.window幅は,クエリ,同義語候補語を含む1文の範囲内だけを考慮した.どのような文脈語を選択するかについては,第4.3節で述べる.\subsection{類似度}クエリ(query)の文脈情報を$\boldsymbol{c_{q}}$,同義語候補語(synonym)の文脈情報を$\boldsymbol{c_{s}}$とする.$\boldsymbol{c_{q}}$と$\boldsymbol{c_{s}}$をベクトル空間モデルで表し,その類似度をベクトルの余弦で表すと,クエリと同義語候補語の類似度($sim$)は,次式で計算される.\begin{equation}sim(query,synonym)=\mathbf{\frac{c_{q}\cdotc_{s}}{|c_{q}|\cdot|c_{s}|}}\end{equation}\subsection{平均精度}情報検索の性能評価として精度と再現率がよく用いられるが,これらは,与えられたクエリに対する検索結果全体に対する性能を表すものである.同義語の検索結果から辞書作成者が辞書登録することを考えると,検索結果の順位における精度が重要である.つまり,上位の検索結果ほど評価値は高い必要がある.このような評価尺度を表すものとして平均精度(averageprecision)を用いた.N個のクエリの評価をする場合,$i$番目のクエリに対する平均精度は次式で表される:\begin{equation}\mathit{AveragePrecision}[i]=\frac{1}{R[i]}\sum_{j=1}^{N_{s}[i]}(rel[j]\cdot\sum_{k=1}^{j}rel[k]/j)\end{equation}\begin{quote}ここで,\\$N_{s}[i]$:$i$番目のクエリの同義語の候補数.\\$R[i]$:$i$番目のクエリの同義語数.\\$rel[k]$:システムが順序付けした回答の中で,$k$番目の回答が正解であれば1,そうでなければ0.\end{quote}$i$番目のクエリに対する平均精度は,検索結果の各順位での精度$\sum_{k=1}^{j}rel[k]/j$の同義語$i$番目全体に対する和を同義語数$R[i]$で割ったものである.$N$個のクエリ全体の平均精度は,次式のように個々のクエリに対する平均精度の平均として定義する:\begin{equation}\mathit{AveragePrecision}=\frac{1}{N}\sum_{i=1}^{N}\mathit{AveragePrecision}[i]\end{equation}
\section{提案方式の詳細と実験}
第4.1節では,実験に使用したコーパスの説明をする.第4.2節では,評価用に人手で作成した辞書について述べ,第4.3節では,提案手法で用いる特徴ベクトルについて述べる.第4.4節では,window幅等による比較についての実験結果を示す.\subsection{コーパス}コーパスとして,日本語の航空分野のレポートを使用した.個人情報保護の観点から,事前に名前等の個人情報は削除し,個人を特定できないような処理を行った.レポートの内容には,出発地・到着地などの定型情報とテキストで自由に記述された表題,本文が含まれているが,本文を対象とした.1992年から2003年までのレポートを使用した結果,6,427件のレポートが対象となり,そのサイズは,約6.9~Mバイトであった.同義語候補語は,第3.1節で述べたように名詞を対象とし,その中には,漢字・ひらがな,カタカナ,アルファベット,およびそれらの略語があるが,その頻度が100以上のものを対象とした.その結果,同義語候補語の数は,1,343になった.同義語抽出のタスクは,クエリに対する同義語をこれらの同義語候補語の中から選択するものである.\subsection{評価用辞書}今回の実験評価のために,4.1節と同じ条件で出現頻度が100以上の候補語の中から,人手で選んだ406個の単語に対する同義語を求めることにより同義語辞書を作成した.単語には,同義な語句が複数存在する場合があるので,406個のクエリに対する同義語数は777になり,平均同義語数は1.91であった.同義語の中には,「Service」,「SVC」,「サービス」のようにアルファベット(英語)とその略語およびそのカタカナ表現のほか,「Traffic」,「相手機」のようにドメイン特有のものも含まれる.\subsection{特徴ベクトルの定義}\label{subsec:文脈語の重み付けによる比較}文脈情報を特徴ベクトルとして表すが,類似度計算に使用する特徴ベクトルの定義には,様々な方法がある.本節では,特徴ベクトルの定義が精度にどのような影響を及ぼすかを調査した.クエリと同義語候補語の文脈語としてそれぞれの前後に出現する語句を用いるが,本節では,名詞(漢字・ひらがな,カタカナ,アルファベット),動詞,形容詞という内容語を使用した.クエリ・同義語候補語の文脈情報は,コーパス全体の中でクエリ・同義語候補語のwindow内に出現する文脈語を取得し,その頻度ベクトルとした.\begin{table}[b]\begin{center}\caption{文脈語の頻度の対数による補正の比較}\label{tblf}\input{02table01.txt}\end{center}\end{table}類似度は,3.3節で述べたように余弦で計算する.クエリの文脈ベクトルを$\boldsymbol{c_{q}}=(q_{1},\ldots,q_{N_{c}})$,同義語候補語\footnote{今後,同義語候補語を候補語と呼ぶこととする.}の文脈ベクトルを$\boldsymbol{c_{s}}=(s_{1},\ldots,s_{N_{c}})$とすると,類似度(sim)は次式で表される($N_{c}$:文脈語の異なり数):\begin{equation}\mathit{sim}(\mathit{query,synonym})=\mathbf{\frac{c_{q}\cdotc_{s}}{|c_{q}|\cdot|c_{s}|}}=\frac{\sum_{i=1}^{N_{c}}q_{i}s_{i}}{\sqrt{\sum_{i=1}^{N_{c}}q_{i}^2\sum_{i=1}^{N_{c}}s_{i}^2}}\end{equation}ここで,文脈ベクトルの各要素($q_{i}$又は$s_{i}$)は,文脈語の頻度を対数で補正したものを表す.表~\ref{tblf}は,頻度の対数による補正の有無の比較を示すが,対数による補正が精度に与える影響が大きいことが分かる.文脈語として,名詞(漢字・ひらがな,カタカナ,アルファベット),動詞,形容詞を選択した場合とそれ以外の文脈語を選択した場合の比較を表~\ref{tblc}に示す.\begin{table}[t]\begin{center}\caption{文脈語の種類による比較(window~[2,2])}\label{tblc}\input{02table02.txt}\end{center}\end{table}\begin{figure}[t]\begin{minipage}{0.48\textwidth}\begin{center}\includegraphics{15-2ia2f1.eps}\caption{文脈語の最小頻度による平均精度への影響}\label{fig:minfreq}\end{center}\end{minipage}\hfill\begin{minipage}{0.48\textwidth}\begin{center}\includegraphics{15-2ia2f2.eps}\caption{文脈語の最大頻度による平均精度への影響}\label{fig:maxfreq}\end{center}\end{minipage}\end{figure}文脈語の頻度については,高頻度の文脈語は,一般的であり同義語の判別に役立たず,一方,低頻度の文脈語は,特殊すぎてノイズとなることが考えられる.したがって,中程度の頻度の文脈語を採用するのがよいと考えられるので,最小頻度50,最大頻度600を使用するものとする(図~\ref{fig:minfreq},\ref{fig:maxfreq}参照).\subsection{window幅による比較}\label{subsec:window幅による比較}window幅をどのように設定すれば,平均精度が最適になるかを調査した.window幅を大きくすれば,候補語に対する文脈語を多く得られる反面,候補語から遠い文脈語は,候補語と関連性が薄くなり,ノイズとして悪影響を及ぼすので同義語の判別能力が弱くなり,また逆に,window幅を小さくすれば,候補語に対して得られる文脈語が少なくなり,判別に使用する情報が少なくなると考えられる.window幅を同義語候補語の前(FWD)に0〜4語,後(AFT)に0〜4語,変化させて実験した結果を表~\ref{window}に示す.平均精度は,window~[2,2]が43.1\%で最も高かった.同義語候補語の前後のwindowの比較では,window~[2,0]では35.5\%,window~[0,2]では37.8\%であった.例えば,「Boarding」というクエリに対する正解は「搭乗」であるが,window~[2,0]では「搭乗」が1位になるが,window~[0,2]では8位になる.理由としては,window~[2,0]では「Boarding」と「搭乗」の前に共通の語である「お客様」が多く出現するが,window~[0,2]では「Boarding」と「搭乗」の後に共通の文字列(例:「を開始」など)の出現が少ないためであると考えられる.つまりwindow~[2,2]では,window~[2,0]の影響を受けて1位になっているといえる.「CAT\footnote{CATは,ClearAirTurbulenceを表す.}」というクエリに対する正解は「TURB」と「揺れ」であるが,window~[2,0]では「TURB」が2位,「揺れ」が9位になる.共通に出現する代表的な言葉は「突然の」であるが,その数がそれ程多くないためだと考えられる.window~[0,2]では「TURB」が1位,「揺れ」が2位になる.その理由として,後に「に遭遇」という表現が多く出現しているからだと考えられる.window~[2,2]では,window~[0,2]の影響を受けて「TURB」が1位,「揺れ」が2位になっている.\begin{table}[t]\begin{center}\caption{window幅による平均精度(\%)の比較}\label{window}\input{02table03.txt}\end{center}\end{table}各同義語によりバラツキはあるものの,全体を通して,window~[2,2]では,同義語の前2語のwindow~[2,0]と同義語の後2語のwindow~[0,2]が補完しあって,よい結果になっているものと考えられる.クエリ・候補語のwindow幅内の前と後とでどちらが精度に貢献しているかについては,顕著な差は認められなかった.
\section{議論}
第4節での実験結果をもとにして,以下のような考察を行った.第5.1節ではクエリ・候補語の種類による精度の違いを調査した.第5.2節では,文脈情報の正規化による精度変化について述べる.第5.3節では,本手法がクエリ・候補語の近傍の文脈情報を使用しているのに対して,文書からの大域的情報を用いる手法との精度の比較を行った.第5.4節では関連語の検索について述べる.\subsection{クエリ・候補語の種類による精度の違い}本節では,クエリと候補語の種類による精度の違いについて調べる.同義語の種類として,「Dispatch」と「DISP」のようなアルファベット同士,「ベルト」と「Belt」のようなカタカナとアルファベット,「座席」と「席」のような漢字同士,「Check」と「検査」のようなそれ以外のものに分類して,表~\ref{classification}のような基準で平均精度を調べた.一般に,候補語の頻度が高いほど文脈情報が豊富となり,平均精度も高くなる傾向にあるため,候補語の頻度に対する閾値を増加させることで平均精度を上げることができる.このようにして平均精度を上げることで50\%を超えることができた場合,基準3に該当する.また,10\%以上50\%未満のときを基準4,10\%未満のときを基準5として分類した.また,閾値の頻度100未満でも50\%を超えることができた場合を基準2,頻度50未満でも50\%を超えることが出来た場合を基準1とした.\begin{table}[b]\begin{center}\caption{同義語候補語の頻度による精度の高低の分類基準}\label{classification}\input{02table04.txt}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{同義語候補語の種類による平均精度(\%)の比較}\label{variation}\input{02table05.txt}\end{center}\end{table}表~\ref{variation}にその結果を示すが,横軸の基準の数字は,各分類毎の基準1〜5での比率を示す.各分類の括弧の中の数字は,各分類の全体での比率を示す.アルファベット同士は,基準1と基準2の合計で81\%以上の平均精度が得られた.カタカナとアルファベットでは,基準1から基準3までの合計でも平均精度は15\%程度であった.この理由としては,カタカナとアルファベットでは,ごく近傍に出現する語の種類(カタカナではカタカナが多く,アルファベットではアルファベットが多い)が異なるためである.漢字同士の場合には,基準1から基準3までの合計で平均精度は約63\%得られた.それ以外の場合は,全体の76\%を占めるが,基準1から基準3までの合計で平均精度は約27\%であった.この結果から,カタカナとアルファベット及びそれ以外の分類のものの精度が低いことが分かった.それに対して,アルファベット同士,漢字同士の同義語の場合には,高い確度でユーザに同義語を提示できる.\subsection{文脈語の正規化}\label{subsec:文脈語の正規化}第5.1節でカタカナとアルファベット及びそれ以外の分類のものの精度が低いことが分かったが,その解決法を考える.その方法として,文脈語に出現する同義語を同定することを考え,それによる精度変化を調べた.同義語同士の周辺に出現する文脈語を観察すると,文脈語の中にも同義語\footnote{今後,文脈同義語と呼ぶこととする.}が多く存在する.例えば,「Cargo」と「貨物」という同義語には,「CargoLoading」と「貨物搭載」というように「Loading」と「搭載」という文脈同義語が出現する.しかしながら,「Cargo搭載」,「貨物Loading」という使用は,ほとんどされないので,「Cargo」と「貨物」の文脈語の中で「Loading」と「搭載」の分布は偏っている.したがって,特徴ベクトルにおいて別の要素である「Loading」と「搭載」は,「Cargo」と「貨物」の類似度の向上にあまり寄与しない.そこで,これらの文脈同義語を正規化\footnote{ここで正規化とは,文脈語を既知の同義語に置換することをいう.例では,「搭載」を「Loading」に置換することである.}することにより平均精度の向上が期待できる.実験として,筆者の1人が選択した25対の同義語(表~\ref{syn1}参照)について,41個の文脈同義語(表~\ref{syn}参照)の正規化を行い,個々の同義語の精度変化および評価辞書全体への影響を調査した.25対の同義語の平均精度は,9.6\%で,評価辞書全体の精度43.1\%と比較して難易度の高いものである.文脈同義語は,各同義語について特徴的なものを,筆者の1人が,PortableKiwi~\cite{pkiwi}を使用して1〜4個選択した.PortableKiwiは,対象としているコーパスに対して,ある言語表現を入力すると,その前後に現れる適当な長さの文字列~\cite{kiwi}のうち,頻度の高いものから順に表示する用例検索システムである.\begin{table}[b]\begin{center}\hangcaption{文脈語の正規化に使用した同義語対(括弧内の数字は,正規化に使用された文脈同義語の表~\ref{syn}の番号を示す.最初の括弧は文脈語の頻度制限をしたもの,2番目の括弧は頻度制限をしないもの.)}\label{syn1}\input{02table06.txt}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{正規化に使用した文脈同義語(矢印(⇒)は,⇒の左の語句から右の語句に置換したことを示す.)}\label{syn}\input{02table07.txt}\end{center}\end{table}最初に文脈語の頻度をこれまで通り50から600のものに制限すると,表~\ref{syn}の41個の文脈同義語の内,使用されたものは21個で,表~\ref{syn1}の25対の同義語の中で文脈同義語が使用されたものは,15対であった.ただし,15対の同義語は,想定していた文脈同義語が1個でも使用されたもので,想定していた文脈同義語が全て使用されていないものを含む.15対の同義語について,平均精度の変化を調べたところ,正規化しない場合の8.4\%から,正規化した場合は43.0\%に上昇した.その内容は,平均精度が上昇したものが28個,精度の低下したものが2個であった\footnote{1つの同義語対について,左辺から右辺と右辺から左辺で精度が異なるため,15対の同義語では30個の精度計算が必要である.}.精度の低下した例は,クエリ「Final」に対する「最終」とクエリ「最終」に対する「Final」である.両例とも精度の低下した理由は同様なので,クエリ「Final」に対する「最終」の例を見てみると,正規化しない場合の順位203位から,正規化した場合は355位に落ちていた.理由としては,文脈同義語が想定していた3個の内,「搭載」⇒「Load」という1個しか使用されず,その文脈同義語も「Final」と「最終」を同義語として認識させ,他の候補語の順位は上昇させないようなものではなかったからであると推定される.次に,文脈同義語のみ,文脈語の頻度制限(50〜600)を外して実験を行った.その結果,想定していた全ての文脈同義語が使用され,25対の同義語について平均精度が上昇したものが46個,低下したものが2個,変化しないものが2個であった.25対の同義語について平均精度の変化を調べたところ,正規化しない場合の9.6\%から,正規化した場合は42.9\%に上昇した.精度の低下した同義語の1つの例は,クエリ「GRP」に対する「グループ」である.類似度の値は,正規化しない場合の0.24から,正規化した場合の0.32に上昇していたが,他の候補語,例えば,「同行」の類似度が0.21から0.39のようにより上昇したために順位が低下したものである(「同行」は不正解である).もう1つの低下した例は,クエリ「手順」に対する「PROC」であるが,その理由も同様である.精度の変化しなかった同義語の1つ例は,クエリ「PROC」に対する「手順」である.正規化しない場合の「手順」の順位は2位で,1位は「PROC」の同義語の「Procedure」であったが,正規化により双方の類似度が上昇し,結果として「手順」の順位は2位のままであった.もう1つの精度の変化しなかった例は,クエリ「DEP」に対する「出発」であるが,正規化しない場合の順位が2位はあり,その類似度は0.42であった.「遅延」⇒「Delay」という文脈同義語により正規化すると,「出発」の類似度は,0.48に上昇したが,1位であった「ARR」も同様に0.48から0.57に上昇した(「ARR」は不正解である).これは,文脈同義語「遅延」⇒「Delay」が「出発」にも「ARR」にも関係しているためである.したがって,正解にのみ関係する文脈同義語を選択できれば,正解のみ精度を向上させることが期待できるが,どのように選択すればよいかは今後の課題である.15対の同義語の文脈語を正規化した場合の評価用辞書全体での平均精度は45.7\%であり,文脈語の正規化を行う前の43.1\%よりも向上していた.その理由の1つは,15対の同義語の精度が上がり,その結果として平均精度を向上させたもの(その効果は,1.3\%),もう1つの理由は,それ以外の同義語も文脈語の正規化により若干精度が向上したためである.文脈同義語の頻度制限を外した25対の同義語の文脈語を正規化した場合の評価用辞書全体での平均精度は46.8\%であり,文脈語の正規化を行う前の43.1\%よりも向上していた.25対の同義語の精度向上による効果は,2.1\%であった.結論として,文脈同義語は,第4.3節で述べたような高頻度と低頻度の文脈語の制限を外した方がよい結果となった.尚,頻度制限を外した場合,高頻度側で使用可能となった文脈同義語は20個,低頻度側で使用可能となった文脈同義語は1個であった.高頻度の文脈同義語が圧倒的に多かった.したがって,高頻度の同義語が既知である場合には,同義語の文字種に拘わらず,正規化することによりシステムの精度を向上できることが分かった.\subsection{大域的文脈情報との比較}酒井らは,日本語の略語からその原型語との対応関係を取得するのに以下のような手法を用いている~\cite{sakai05}.略語候補とそれに対応する原型語の候補を,それを構成している文字情報から獲得する.略語候補と原型語の候補の類似度を計算して,対応関係を取得する.文脈情報の類似度について第3節で提案した手法との比較を行った.彼らは,漢字・ひらがなの名詞の略語を対象としたが,それをカタカナ,アルファベットに拡張して提案手法との比較を行った.彼らの類似度の計算は,コーパス中の略語候補語を含んでいる文書における略語候補語の出現頻度,全ての名詞の総出現頻度,文の数,略語候補語が最初に出現する文番号の情報を用いて重みを付与して順位付けを行い,その上位$N_{n}$文書を取り出して,略語候補の関連文書としている.次に,その関連文書に含まれる各名詞に対して出現頻度,文書頻度などの情報を用いて重みを付与して順位付けを行い,上位$N_{m}$個の名詞を取り出し,名詞の重みを付与したベクトルを生成している.原型語候補に対しても同様のベクトルを生成する.そして,その余弦により類似度を計算している.本論文でも酒井ら~\cite{sakai05}と同様に,$N_{n}=20$,$N_{m}=200$として実験した.\begin{table}[t]\begin{center}\caption{大域的文脈情報と局所的文脈情報の比較}\label{tbl1}\input{02table08.txt}\end{center}\end{table}結果は,表~\ref{tbl1}にあるように,提案手法よりも,かなり低い値となった.その原因として,略語とその原型語の対応関係を求めるのに,関連文書全体から代表的な名詞を抽出して類似度を計算している(大域的文脈情報)が,必ずしも,略語に関連する文書があるとは限らないと考えられる.我々は,局所的な文脈語から類似計算を行っている(局所的文脈情報)が,この手法の優秀性が証明された.\subsection{関連語の検索}語句には,同義であるもの以外に関連性のあるものが存在する.このような語句の分類も,テキスト処理においては重要である.例えば,「引き返し」という語句の関連語として「GTB(GroundTurnBack:地上引き返し)」,「ATB(AirTurnBack:空中引き返し)」,「RTO(RejectedTakeoff:離陸中止)」,「トラブル」などがある.「トラブル」は,「GTB」,「ATB」,「RTO」の上位概念あり,「GTB」,「ATB」,「RTO」は類義語である.これらの語句にも,「HYDFailureによるGTB」,「HYDFailureによるATB」のように同じような文脈が現れる場合が多い.したがって,提案手法で関連語の検索も可能と考えられる.表~\ref{rel}に,いくつかのクエリに対する回答の中での関連語を示す.\begin{table}[t]\begin{center}\hangcaption{関連語の検索:番号は検索された番号,括弧内の「同」は同義語,「原」は原因を表す関連語,「結」は結果を表す関連語,括弧無しは類義語を示す.}\label{rel}\input{02table09.txt}\end{center}\end{table}事実「RTO」について調べたところ,クエリに対する50位までの回答で類義語が2つ,原因を表す関連語が5つ,結果を表す関連語が1つ含まれていた.同じような文脈で使用される関連語は,本手法で検索できることが分かる.関連語によりどのように文脈が違うかについては.今後の研究課題である.本論文では,精度は計算していないが,関連語の検索にも本手法が適用できると考えられる.
\section{複合名詞の処理}
複合名詞の処理については,全ての連接する単名詞の組み合わせを調べると,その数が多くなり非効率である.したがって,最初に複合名詞を抽出して,それを単名詞と同様に扱うことで,これまで述べた処理と同じ手法を用いることとした.複合名詞の抽出については,専門用語抽出システム~\cite{termextract}を使用し,それが抽出したものの中で,重要度評価値が3,000以上の用語の中の複合名詞を使用した.専門用語抽出システムは,単名詞の左右に出現する単名詞の連接種類数と連接頻度および候補語の出現頻度から専門用語を抽出するものである.上記の条件で,350の複合名詞が得られた.人手で複合名詞に対して同義語辞書を作成した結果,辞書の登録数73で,平均同義語数は2.00であった.複合名詞の同義語の中には,複合名詞と単名詞が含まれる.この複合名詞350と単名詞1,343に対してwindow~[2,2]で文脈語の最小頻度50,最大頻度600で文脈情報を取得した.実験の結果,平均精度は,44.3\%であった.辞書登録数が少ないので単純には比較できないものの単名詞と同等の精度が得られた.\subsection{複合名詞と単名詞の関係}複合名詞と単名詞について以下のような関係があることが分かった.\begin{enumerate}\item複合名詞の同義語が単名詞の同義語の組み合わせでできているもの:\\例:\ul{出発}~\ul{遅れ}‐\ul{出発}~\ul{遅延}\item複合名詞の基底名詞\footnote{複合名詞を単名詞に分解した時に,複合名詞の最後に現れる単名詞.例の場合は,「券」.}と単名詞が同義なもの:\\例:搭乗~\ul{券}‐\ul{券}\item複合名詞の基底名詞以外の語同士が同義なもの:\\例:\ul{整備}~点検‐\ul{整備}\item複合名詞の中で一部の名詞に省略があるもの:\\例:搭乗~\ul{旅客}~数‐搭乗~数\item単名詞同士では,同義でなかったものが複合名詞では同義になるもの:\\例:\ul{搭乗}~\ul{口}‐\ul{ゲート},\ul{到着}~地‐\ul{目的}~地\\\end{enumerate}以下では,複合名詞を最初に抽出した利点に着目して述べる.(1)については,複合名詞の処理を行わなくても,単名詞の同義語を置き換えることにより複合名詞の同義語を得ることが可能であるが,その場合には,「DEP遅延」のようにあまり使用されない複合名詞の同義語が得られてしまい,単名詞の同義語を置き換えだけでは複合名詞の同義語を絞り込むことができない.したがって,複合名詞抽出の前処理を行うのが効率的である.(2)と(3)については,複合名詞を構成する名詞の中でより一般的で省略しても意味が変化しないものが省略されている.(4)の日本語の略語ついては,第6.2節で述べる.(5)の関係は,上記4種類と異なり,単純に省略や単名詞の置き換え,単名詞の同義語の組み合わせだけでは扱えないもので,複合名詞の前処理を行わないと同義語が得られないものである.\subsection{日本語の略語}\label{subsec:日本語の略語}日本語の略語の平均精度について調査した.日本語の略語とは,例えば,「整備作業」と「整備」のようなものであり,略語が原型語に完全に包含されるものである.したがって,「整備作業」と「整備点検」のようなものは含まれない.単名詞と複合名詞を合わせた同義語候補語1,693個について日本語の省略語の辞書を人手で作成したところ,エントリー数:92,項目数:123,平均項目数:1.34であった.この辞書を使用して実験したところ,平均精度で52.3\%という高い精度が得られた.これは,日本語の原型語と一部省略されている略語では,その周辺には同じような文脈語が出現しやすいと考えられ,本手法の得意な分野だといえる.
\section{同義語辞書作成}
同義語辞書は,表~\ref{dic}のように見出し語に対して1語以上の同義語が辞書項目として登録される.情報検索やテキストマイニングでは,同じ概念をグループ化し精度を向上させるために見出し語に対して1対1で同義語を対応させる必要がある場合がある.例えば,表~\ref{dic}に対して,同義語リストは表~\ref{list}のようになる.表~\ref{list}では,「APP」が「進入」に,「Approach」が「進入」に,「CRZ」が「巡航」に変換されることを示す.「進入」,「巡航」は,変換されないでそのまま使用される.複数の同義語の中からどの語を変換語に選択するかは,専門用語抽出システムの重要度評価値の最も大きなものを用いた.つまり,同義語同士の中で最も重要度の高い語に変換するものである.また,「CRZ」⇒「巡航」と「巡航」⇒「CRZ」の場合には,「CRZ」と「巡航」の重要度評価値の大きな方に変換した.この例では,「巡航」の方が重要度評価値が大きく「CRZ」⇒「巡航」という云い換えになる.もちろん多義性のある語では,一意に同義語を決定できないのでこのようなリストは使用できない.この場合には,個々の語が出ている文脈から判断する必要があるが,これは今後の課題である.\begin{table}[t]\begin{minipage}{0.45\textwidth}\begin{center}\caption{同義語辞書}\label{dic}\input{02table10.txt}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\caption{同義語リスト}\label{list}\input{02table11.txt}\end{center}\end{minipage}\end{table}次に同義語辞書を作成する際に一度に全て作成するのではなく,以下に示すように同義語辞書を一部作成した段階で同義語リストを文脈情報の正規化に使用するために文脈同義語としてシステムに与えることにより,残りの辞書作成の精度(平均精度)が向上するかを検証した.例えば,「PAX」を「旅客」に変換することにより,「PAXBoarding」と「旅客搭乗」の例では,「Boarding」と「搭乗」という同義語の文脈語が同一になる.第~\ref{subsec:文脈語の正規化}節では,筆者の一人が選択した同義語対について,頻出する1〜4個の文脈同義語を選択して使用したが,今回は出現頻度順に自動的にシステムに付与した.文脈同義語は,第~\ref{subsec:文脈語の正規化}節の文脈語の正規化で頻度制限をしない方が精度が良かったので,本節でも頻度制限を行わなかった.出現頻度が500以上の同義語リストを作成したところ,41個の同義語リストが得られた.これを文脈同義語とし,正規化したものとしないものについて平均精度を比較したところ,それぞれ平均精度は43.3\%,41.1\%であり,正規化したものの方が約2.2\%精度が向上した(文脈同義語リストに含まれる同義語は評価から除外した).同様に出現頻度が300以上,1,000以上のものについて比較したところ,正規化したものの平均精度がそれぞれ約2.2\%,1.8\%精度が向上した.出現頻度が100〜300,300〜500のものについては,平均精度の変化はなかった.以上の結果から,同義語の中で頻度の高いものを文脈同義語としてシステムに付与すると,若干平均精度が向上することが分かった.
\section{結論および今後の課題}
本論文では,特定分野における同義語辞書作成支援システムを提案した.提案手法は,語句の境界が認識できればよいので,深い言語処理技術は必要とせず,分野・言語を問わないものである.クエリ・候補語の前後に出現する語句の文脈情報のみを使用したが,人間の辞書支援システムとしては,十分に機能することを実験の結果確認した.文字種が異なり精度の低い同義語については,文脈語を正規化することにより,精度を向上できる事を確認した.実験の結果,以下の知見が得られた:\begin{itemize}\itemwindow幅による精度の比較では,Teradaら~\cite{terada04}の英文の略語を対象としたものではwindow~[3,3]が最も精度が良かったと報告されているが,本論文で使用した日本語のコーパスでは,window~[2,2]が最も精度がよかった.日本語の漢字1文字の持つ情報量は,明らかに英語1文字の情報量よりも多いので,漢字を含む日本語のコーパスの方が英文のコーパスよりもwindow幅が小さい場合に精度がよい事が,文脈情報という形で確認できた.\item同義語の字種別での平均精度は,アルファベット同士が最も高く,カタカナとアルファベットの平均精度は,最も低かったが,その原因は周辺の文脈情報の文字種が異なる場合が多いからである.\item文脈語の正規化について,以下の2点で,その有効性を確認できた.1番目は,いくつかの同義語対について文脈同義語をシステムに与えることにより,その同義語対の精度をかなり向上させることができた.その理由は,文脈語の正規化をすることにより,異なる文字種の同義語の周辺に出現する異なる文字種の文脈同義語が同定されるためである.また,PortableKiwiを用いることにより,対象とする同義語の周辺に頻出する文脈語を簡単に選択できることが分かった.2番目は,同義語辞書の作成途中で,出現頻度の高い同義語をシステムに与えることにより,システムの精度が向上した.したがって,同義語辞書を出現頻度の高いものから作成し,作成した同義語を知識としてシステムに与えることにより,それ以降の同義語抽出の精度を向上できることが分かった.\end{itemize}今後の課題としては,以下が挙げられる:\begin{itemize}\item文脈同義語として,PortableKiwiを用いて候補語に特徴的な語句を選択して,本システムとハイブリッドに使用できるようにすると,精度を向上できる可能性がある.\item航空分野だけでなく他の分野の同義語でも本手法をテストして有効性を確認する必要がある.\item多義語の処理については,クエリに対する典型的な文脈(ベクトル)情報が得られていれば,そのクエリが出現する文脈から多義性を解消できる可能性がある.例えば,「Noiseについて\ul{Cabin}に問い合わせたところ,\ul{Cabin}でのNoiseは,Door近くからであることが判明した」という文の1番目のCabinは,客室乗務員のことであり,2番目のCabinは,客室のことである.\item同義語の辞書作成というテーマで議論したが,語の意味的な関係は複雑であり,同義語の中にはある場面では同義語であるが,別の面では上位—下位概念として扱わないといけないものがある.例えば,「引き返し」と「ATB(空中引き返し)」,「GTB(地上引き返し)」において,「引き返し」は「ATB」,「GTB」の上位概念である.「引き返し」に関する事例を収集したい場合には,「引き返し」を「ATB」,「GTB」と同義で扱ってよいが,更に詳細に分類したい場合には,上位—下位概念として扱わなければならない.したがって,今後オントロジーを構築する手法についても研究する必要がある.\end{itemize}\acknowledgment専門用語自動抽出システムは,東京大学中川研究室・横浜国立大学森研究室で開発された用語抽出システムを使用させて頂きました.ここに感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Knight\BBA\Graehl}{Knight\BBA\Graehl}{1998}]{knight98}Knight,K.\BBACOMMA\\BBA\Graehl,J.\BBOP1998\BBCP.\newblock\BBOQMachineTransliteration\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(4),\mbox{\BPGS\599--612}.\bibitem[\protect\BCAY{Masuyama\BBA\Nakagawa}{Masuyama\BBA\Nakagawa}{2005}]{masuyama05}Masuyama,T.\BBACOMMA\\BBA\Nakagawa,H.\BBOP2005\BBCP.\newblock\BBOQWeb-basedaquisitionofJapanesekatakanavariants\BBCQ\\newblockIn{\BemSIGIR'05:Proceedingsofthe28thannualinternationalACMSIGIRconference},\mbox{\BPGS\338--344}.\bibitem[\protect\BCAY{Ohtake\BBA\Sekiguchi}{Ohtake\BBA\Sekiguchi}{2004}]{ohtake04}Ohtake,K.\BBACOMMA\\BBA\Sekiguchi,Y.\BBOP2004\BBCP.\newblock\BBOQDetectingTransliteratedOrthographicVariantsviaTwoSimilarityMetrics\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\709--715}.\bibitem[\protect\BCAY{Pustejovsky,Castao,Cochran,Kotecki,Morrell,\BBA\Rumshisky}{Pustejovskyet~al.}{2001}]{pustejovsky01}Pustejovsky,J.,Castao,J.,Cochran,B.,Kotecki,M.,Morrell,M.,\BBA\Rumshisky,A.\BBOP2001\BBCP.\newblock\BBOQExtractionandDisambiguationofAcronym-MeaningPairsin{Medline},unpublishedmanuscript\BBCQ.\bibitem[\protect\BCAY{Schwartz\BBA\Hearst}{Schwartz\BBA\Hearst}{2003}]{schwartz03}Schwartz,A.~S.\BBACOMMA\\BBA\Hearst,M.~A.\BBOP2003\BBCP.\newblock\BBOQASimpleAlgorithmforIdentifyingAbbreviationDefinitionsinBiomedicalText\BBCQ\\newblockIn{\BemPacificSymposiumonBiocomputing},\mbox{\BPGS\8:451--462}.\bibitem[\protect\BCAY{Tanaka-Ishii\BBA\Nakagawa}{Tanaka-Ishii\BBA\Nakagawa}{2005}]{kiwi}Tanaka-Ishii,K.\BBACOMMA\\BBA\Nakagawa,H.\BBOP2005\BBCP.\newblock\BBOQAMultilingualUsageConsultationToolbasedonInternetSearching---Morethansearchengine,LessthanQA\BBCQ\\newblockIn{\BemThe14thInternationalWorldWideWebConference(WWW2005)},\mbox{\BPGS\363--371}.\bibitem[\protect\BCAY{Terada,Tokunaga,\BBA\Tanaka}{Teradaet~al.}{2004}]{terada04}Terada,A.,Tokunaga,T.,\BBA\Tanaka,H.\BBOP2004\BBCP.\newblock\BBOQAutomaticexpansionofabbreviationsbyusingcontextandcharacterinformation\BBCQ\\newblock{\BemInf.Process.Manage.},{\Bbf40}(1),\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{阿玉\JBA橋本\JBA徳永\JBA田中}{阿玉\Jetal}{2004}]{adama04}阿玉泰宗\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2004\BBCP.\newblock\JBOQ日英言語横断情報検索のための翻訳知識の獲得\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG10),\mbox{\BPGS\37--48}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2005}]{sakai05}酒井浩之\JBA増山繁\BBOP2005\BBCP.\newblock\JBOQ略語とその原型語との対応関係のコーパスからの自動獲得手法の改良\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\207--231}.\bibitem[\protect\BCAY{寺田\JBA吉田\JBA中川}{寺田\Jetal}{2006}]{terada06}寺田昭\JBA吉田稔\JBA中川裕志\BBOP2006\BBCP.\newblock\JBOQ文脈情報による同義語辞書作成支援ツール\JBCQ\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\87--94}.\bibitem[\protect\BCAY{寺田\JBA吉田\JBA中川}{寺田\Jetal}{2007}]{terada07}寺田昭\JBA吉田稔\JBA中川裕志\BBOP2007\BBCP.\newblock\JBOQ同義語の類似度に関する考察\JBCQ\\newblock\Jem{言語処理学会第13回年次大会},\mbox{\BPGS\1097--1100}.\bibitem[\protect\BCAY{中川\JBA森\JBA湯本}{中川\Jetal}{2003}]{termextract}中川裕志\JBA森辰則\JBA湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\bibitem[\protect\BCAY{藤本\JBA吉田\JBA中川}{藤本\Jetal}{2005}]{pkiwi}藤本宏凉\JBA吉田稔\JBA中川裕志\BBOP2005\BBCP.\newblock\JBOQローカルコーパスからのテキストマイニングツール:PortableKiwi\JBCQ\\newblock\Jem{言語処理学会第11回年次大会},\mbox{\BPGS\97--100}.\end{thebibliography}\begin{biography}\bioauthor{寺田昭}{1976年京都大学工学部電気工学第二学科卒業.1978年同大学大学院工学研究科修士課程電気工学第二専攻修了.2003年東京工業大学大学院情報理工学研究科後期博士課程修了.博士(工学).現在,(株)日本航空インターナショナル勤務.自然言語処理,テキストマイニング,航空安全に興味を持つ.言語処理学会会員.}\bioauthor{吉田稔}{1998年東京大学理学部情報科学科卒業.2003年東京大学大学院理学系研究科情報科学専攻博士課程修了.博士(理学).2003年より東京大学情報基盤センター図書館電子化研究部門助手.2007年より同助教.自然言語処理,Web文書解析の研究に従事.}\bioauthor{中川裕志}{1975年東京大学工学部卒業.1980年東京大学大学院工理学系研究科修了.工学博士.同年より横浜国立大学工学部勤務.1999年より東京大学情報基盤センター教授.現在に至る.2000年から2002年言語処理学会編集長,2002年から2004年言語処理学会総編集長,2004年から2006年言語処理学会会長,2006年より情報処理学会自然言語処理研究会主査.自然言語処理,機械学習,WWWの研究に従事.}\end{biography}\biodate\end{document}
| |
V26N04-02
|
\section{はじめに}
label{sec:introduction}単語を密ベクトルで表現する単語分散表現\cite{mikolov-13b,mikolov-13a,pennington-14,levy-14,bojanowski-17}が,機械翻訳\cite{sutskever-14},文書分類\cite{mikolov-14}および語彙的換言\cite{melamud-15}など多くの自然言語処理応用タスクにおける性能改善に大きく貢献してきた.単語分散表現は今やこれら応用タスクの基盤となっており,その性能改善は重要な課題である.広く利用されているCBOW(ContinuousBag-of-Words)\cite{mikolov-13a}やSGNS(Skip-gramwithNegativeSampling)\cite{mikolov-13b}などの手法では各単語に対して$1$つの分散表現を生成するが,LiandJurafsky\citeyear{li-17}によって,語義ごとに分散表現を生成することで多くの応用タスクの性能改善に貢献することが示されている.そこで,本研究では各単語に複数の語義の分散表現を割り当てる手法を提案する.文脈に応じて分散表現を使い分けるために,多義語に複数の分散表現を割り当てる手法\linebreak\cite{neelakantan-14,paetzold-16d,fadaee-17,athiwaratkun-17}が提案されている.しかし,語義曖昧性解消はそれ自体が難しいタスクであるため,これらの先行研究では近似的なアプローチを用いている.例えば,PaetzoldandSpecia\citeyear{paetzold-16d}は品詞ごとに,Fadaeeら\citeyear{fadaee-17}はトピックごとに異なる分散表現を生成するが,これらの手法には多義性を扱う粒度が粗いという課題がある.以下の例では,いずれの文もトピックは{\ttfood}であり,単語{\ttsoft}の品詞は形容詞である.\begin{enumerate}\renewcommand{\labelenumi}{}\setlength{\leftskip}{1.0cm}\item{\itIatea\textit{\textbf{soft}}candy.}\label{enum:soft1}\item{\itIdrunk\textit{\textbf{soft}}drinks.}\label{enum:soft2}\end{enumerate}先行研究ではこれらの単語{\ttsoft}を同じ分散表現で表す.しかし,例\ref{enum:soft1})の単語{\ttsoft}は{\tttender}という意味を,例\ref{enum:soft2})の{\ttsoft}は{\ttnon-alcoholic}という意味を表すため,これらに同一の分散表現を生成するのは適切ではない.このような品詞やトピックでは区別できない多義性を考慮するために,各単語により細かい粒度で複数の分散表現を割り当てることが望ましい.そこで本研究では,文脈中の単語を手がかりとして,先行研究よりも細かい粒度で各単語に複数の分散表現を割り当てる$2$つの手法を提案する.$1$つ目の手法は,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法である.この手法では語義を区別する手がかりとして,各単語と依存関係にある単語を用いる.$2$つ目の手法は,文脈中の全ての単語を考慮して語義の分散表現を生成する手法である.この手法では双方向LSTM(LongShort-TermMemory)を用いて文中に出現する全ての単語を同時に考慮する.どちらの手法も教師なし学習に基づいており,訓練データが不要という利点がある.提案手法の有効性を評価するため,多義性を考慮する分散表現が特に重要な,文脈中での単語間の意味的類似度推定タスク\cite{huang-12}および語彙的換言タスク\cite{mccarthy-07,kremer-14,ashihara-19a}において実験を行った.評価の結果,提案手法は先行研究\cite{neelakantan-14,paetzold-16d,fadaee-17}よりも高い性能を発揮し,より細かい粒度で分散表現を生成することが応用タスクでの性能向上に繋がることが示された.また,詳細な分析の結果,文脈中の代表的な$1$単語を考慮して語義の分散表現を生成する手法は文長に影響を受けにくいため,文が長い場合に,文脈中の全ての単語を考慮して語義の分散表現を生成する手法よりも高い性能を示すことが確認できた.
\section{関連研究}
LiandJurafsky\citeyear{li-17}は,各単語に複数の分散表現を与えることが,品詞付与や文の意味的類似度推定など多くの応用タスクの性能改善に貢献することを示した.このような各単語に複数の分散表現を与える先行研究は,予め複数の分散表現を生成する手法と文脈から動的に分散表現を生成する手法に大別できる.予め各単語に複数の分散表現を生成する手法として,以下に示す先行研究がある.AthiwaratkunandWilson\citeyear{athiwaratkun-17}は,全ての単語が定数個の語義を持つと仮定し,各単語に複数の分散表現を生成した.彼らは語義数として$2$または$3$を仮定しているが,現実的には語義数は単語ごとに大きく異なる.Neelakantanら\citeyear{neelakantan-14}は文脈の類似度に基づいて語義に相当するクラスタリングを行い,各単語に対してクラスタごとに分散表現を生成した.しかし,語義曖昧性解消はそれ自体が難しいタスクであり,クラスタリングの性能が分散表現学習の性能に影響を与えてしまう.PaetzoldandSpecia\citeyear{paetzold-16d}は,各単語に対して品詞ごとに分散表現を生成した.品詞付与は解析誤りの影響が小さいという利点を持つが,先述の例\ref{enum:soft1})と例\ref{enum:soft2})のように同じ品詞の中でも更に多義性を持つ単語が存在する.Fadaeeら\citeyear{fadaee-17}は,各単語に対してトピックごとに分散表現を生成した.トピックは品詞よりも細かい粒度で語義を区別できるが,例\ref{enum:soft1})と例\ref{enum:soft2})のように更に細かい粒度で語義を区別することが望まれる場合がある.文脈から各単語の分散表現を動的に生成するモデルとして,\citeA{melamud-16}はcontext2vecを提案した.context2vecでは,word2vecのCBOWアルゴリズム\cite{mikolov-13a}と同様に単語ベクトルと文脈ベクトルを近づける学習を行うが,窓幅を設けず双方向LSTMによって文全体を符号化する.また,単語ベクトルと文脈ベクトルが同じ空間に埋め込まれるため,単語-単語間,文脈-文脈間,単語-文脈間のそれぞれで余弦類似度による意味的類似度の計算ができる.このモデルは語彙的換言タスクで高い性能を示しているが,最適なハイパーパラメータの決定のためにラベル付きデータが必要となる.我々の提案手法はラベル付きデータセットを一切使用しない教師なし学習であるため,本稿における評価実験においてはcontext2vecを比較対象としないこととする.深層学習に基づく自然言語処理では,LSTMなどのRecurrentNeuralNetworkを用いてタスクに応じて入力文を符号化することが多い.特に,ELMo\cite{peters-18}は,大規模コーパスを用いた双方向言語モデルの訓練によって,固有表現抽出など多くの応用タスクにおいて有用な文脈化された単語分散表現を獲得することに成功している.一般的にELMoは,任意の応用タスクにおける再訓練を経て,タスクに特化した単語分散表現\footnote{ELMoによって得られる単語分散表現は応用タスクにおける埋め込み層や隠れ層と連結して使用する.}を生成する.本研究では,ELMoを意味的類似度推定タスクおよび語彙的換言タスクに適用する.教師なし学習による設定で実験を行うため,ELMoの文脈化された単語分散表現は再訓練しないものとする.多義性を考慮する分散表現の評価のために,多くの先行研究\cite{melamud-15,roller-16,fadaee-17}で文脈中での単語間の意味的類似度推定タスクおよび語彙的換言タスクが採用されている.文脈中での単語間の意味的類似度推定タスクは,与えられた$2$つの文脈中の単語対の類似度を推定するタスクである.語彙的換言タスクは,文脈,ターゲット単語,言い換え候補が与えられ,言い換え候補を文脈中のターゲット単語との置換可能性の観点からランキングするタスクである.どちらのタスクも文脈中での単語の意味を考慮することが重要である.我々も先行研究に従い,提案手法の有効性を両タスクを用いて評価する.本研究では扱わないが,多義性を考慮する分散表現が重要なタスクとして,WiC\cite{pilehvar-19}が新たに提案された.WiCでは,同一のターゲット単語を含む$2$つの文脈が与えられる.このタスクの目的は,与えられた文脈中のターゲット単語が同じ意味で使用されているか否かを$2$値分類することである.このタスクは,文脈中の単語間の意味を推定するという点で,文脈中での単語間の意味的類似度推定タスクと関連が深い.しかし,WiCは分類問題であるのに対して,文脈中での単語間の意味的類似度推定タスクは回帰問題であるという違いがある.また,WiCではターゲット単語対が同一単語であるのに対し,SCWSでは異なるターゲット対が含まれているという差異もあり,タスクの性質は大きく異なっている.
\section{提案手法}
本研究では,所与の文脈を手がかりとして,各単語に品詞\cite{paetzold-16d}やトピック\cite{fadaee-17}よりも細かい粒度で複数の分散表現を生成する$2$つの手法を提案する.まず\ref{method:ashihara}節では,文脈中の代表的な$1$単語を手がかりとして用いる.我々は依存構造に着目し,ターゲット単語と依存関係にある単語を用いて文脈化された単語分散表現を得る.次に\ref{method:elmo}節では,文脈中の全ての単語を手がかりとして用いる.我々は双方向言語モデルに着目し,双方向LSTMのターゲット単語に対応する隠れ層を用いて文脈化された単語分散表現を得る.本研究では得られた単語分散表現を意味的類似度推定タスクおよび語彙的換言タスクに適用する.\begin{figure}[b]\begin{center}\includegraphics{26-4ia2f1.eps}\end{center}\hangcaption{提案手法の概要:事前学習と事後学習の$2$段階に分かれている.図中の{\tttender}および{\ttnon-alcoholic}は説明のための例であり,実際のベクトル空間上の点とは異なる.}\label{fig:propose_imagie}\vspace{1\Cvs}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-4ia2f2.eps}\end{center}\caption{複数回に分けた学習手法の概要}\label{fig:split_training}\end{figure}\subsection{DMSE:依存構造に基づく単語分散表現の文脈化}\label{method:ashihara}語義を区別して各単語に複数の分散表現を割り当てるために,ターゲット単語と依存関係にある単語(context-word)に注目するDMSE(Dependency-basedMulti-SenseEmbedding)を提案する.ここで,context-wordは意味表現においてより有効と考えられる内容語(名詞,動詞,形容詞,副詞)に限定する.各単語$w_i$はcontext-wordの集合$C$の要素ごとに異なる意味を持つと仮定し,$w_i$に対して$|C|$だけ分散表現を生成する.ここで,context-wordの数$|C|$は語義数よりも多くなる.例えば,単語{\ttsoft}について,{\ttcheese}をcontext-wordに持つ{\ttsoft\_cheese}と{\ttcandy}をcontext-wordに持つ{\ttsoft\_candy}が同じ{\tttender}という意味を表す分散表現として生成される.しかし,DMSEでは各分散表現は互いに干渉しないと仮定し,独立して学習および使用する.図\ref{fig:propose_imagie}の例では,{\ttsoft}のcontext-wordとして{\ttcandy},{\ttdrink}および{\ttiron}がある.本手法では{\ttsoft\_candy}や{\ttsoft\_drink}のようにcontext-wordごとに分散表現を学習する.Algorithm\ref{alg:proposed_method}にDMSEの疑似コードを示す.まず,学習データ$S$\footnote{学習コーパスは一文ずつ区切られており,各文の末尾には$<EOS>$タグが含まれている.}に含まれる各文$s$について,依存構造解析によって依存関係$D$を得る次に,各単語$w_i\ins$について\Call{GetContextWord}{$w_i,D$}によってcontext-wordの集合$C$を獲得する.そして,単語$w_i$とcontext-word$c\inC$を連結し,文脈化された単語$w_{i,c}$とする.最後に,$w_i$の前後$H$単語の左文脈$l_c$および右文脈$r_c$とともに$w_{i,c}$を\Call{Cbow}{$w_{i,c},l_c,r_c$}へ入力\footnote{左文脈において$i-H<1$となる場合は不足分に対応する$1$文前の末尾部の単語を,右文脈において$i+H>|s|$となる場合は不足分に対応する$1$文後の先頭部の単語を,それぞれ$l_c$および$r_c$として用いる.}し,CBOWのアルゴリズムを用いて文脈化された単語の分散表現$v_{w_{i,c}}$を訓練する.ここで,$H$はCBOWにおける窓幅である.\begin{algorithm}[t]\caption{DMSE:依存構造に基づく単語分散表現の文脈化}\label{alg:proposed_method}\input{02algo01.tex}\end{algorithm}本手法では,ターゲット単語とそのcontext-wordの対ごとに分散表現を学習するため,学習コーパスのサイズによっては学習時に文脈化された単語の分散表現をGPUメモリにロードできない可能性\footnote{本実験で使用したコーパスの場合,ターゲット単語の語彙サイズは約$11.2$万語であった.それに対して,文脈化された単語の語彙サイズは約$1.12$億個であった.文脈化された各単語を$32$bitのfloat型による$300$次元ベクトルで表した場合,約$134$GBのGPUメモリが必要となり,全てを一度にGPUメモリにロードするのは現状のGPU性能では現実的ではない.}がある.そこで我々は,事前学習および事後学習の$2$段階の学習によって,これに対処する.まず事前学習では,context-wordを考慮せずCBOWモデルを学習し,各単語$w_i$の分散表現$v_i$を得る.次に事後学習では,事前学習した$v_i$を初期値として,同じくCBOWのアルゴリズムによって文脈化された各単語$w_{i,c}$の分散表現$v_{w_{i,c}}$を学習する.CBOWでは文脈化された単語の分散表現のみを更新するので,GPUメモリにロードするのは更新されない文脈単語$w_j\inl_c\cupr_c$の分散表現$v_j$と文脈化された単語の分散表現$v_{w_{i,c}}$のみである.そのため,この事後学習はGPUのメモリサイズに合わせて複数回に分けて実施\footnote{文脈単語の分散表現が更新されないので,各回で学習された文脈化された単語に対応する分散表現は同一のベクトル空間上に配置され,自然に統合できる.}できる.例えば,図\ref{fig:split_training}に示すように,事前学習した分散表現を元に,事後学習($1$)では{\ttsoft\_candy}および{\ttsoft\_iron}を,事後学習($2$)では{\ttsoft\_drink}を,それぞれ学習できる.事後学習で変化するのは文脈化された単語に対応する分散表現のみであるため,事後学習($1$)で得られた{\ttsoft\_candy}および{\ttsoft\_iron}と,事後学習($2$)で得られた{\ttsoft\_drink}を統合し,それぞれ学習済分散表現として利用できる.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{26-4ia2f3.eps}\end{center}\caption{ELMoのモデル図}\label{fig:elmo}\end{figure}\subsection{ECWR:双方向言語モデルを利用した単語分散表現の文脈化}\label{method:elmo}単語分散表現を文脈化するもう一つのアプローチとして,所与の文脈全体を考慮し各単語の語義の分散表現を生成する.我々はELMo\cite{peters-18}を用いて,所与の文脈全体を考慮した各単語の語義の分散表現を生成するECWR(ELMo-basedContextualizedWordRepresentations)を提案する.Petersら\citeyear{peters-18}に従い,$i$番目の単語の文脈化された分散表現として$i$番目の隠れ層の出力を用いる.図\ref{fig:elmo}に示すように,ELMoは$2$層の双方向言語モデルに基づき,FirstLayer,SecondLayer,ThirdLayerの$3$つの層から構成されている.我々は,これら$3$層から得られる分散表現を,文脈を考慮した分散表現として利用する.ECWRでは,各単語の語義の分散表現として,これらの各層から得られる$3$種類の分散表現を連結\footnote{予備実験として,$3$層の分散表現から$1$つを使用する,$3$層の分散表現のベクトル和を使用する,$3$層の分散表現を連結して使用する手法で実験を行った.意味的類似度推定タスクおよび語彙的換言タスクでの実験の結果,$3$層を連結する手法が最も高い性能を発揮した.}して用いる.ECWRからは,各単語に対して文脈ごとに異なる分散表現が生成され,先行研究に比べて細かい粒度で分散表現を割り当てることが可能となる.PilehvarandCamacho-collados\citeyear{pilehvar-19}も同様に,ELMoから得られる分散表現を文脈を考慮した分散表現として利用している.彼らはELMoから得られる$3$つの分散表現の加重合計を用いているが,本研究では3$つ$の分散表現を連結して使用する.
\section{実験設定}
提案手法の有効性を検証するために,文脈中での単語間の意味的類似度推定タスク\cite{huang-12}および語彙的換言タスク\cite{mccarthy-07,kremer-14,ashihara-19a}で実験を行う.いずれのタスクも所与の文脈における語義を考慮する必要があり,多義性を考慮した分散表現が重要となる.\subsection{比較手法}本実験では,各単語に対して$1$つあるいは複数の分散表現を生成する以下の手法を,提案手法であるDMSEおよびECWRと比較する.\begin{description}\item[CBOW\cite{mikolov-13a}]\mbox{}\\CBOWのアルゴリズムを用いて各単語に$1$つの分散表現を生成する.\item[SGNS\cite{mikolov-13b}]\mbox{}\\SGNSのアルゴリズムを用いて各単語に$1$つの分散表現を生成する.\item[MSSG\cite{neelakantan-14}]\mbox{}\\文脈の類似度に基づくクラスタリングによって各単語に複数の分散表現を生成する.\item[POS\cite{paetzold-16d}]\mbox{}\\各単語に品詞ごとの分散表現を生成する.\item[TOPIC\cite{fadaee-17}]\mbox{}\\各単語にトピックごとの分散表現を生成する.\end{description}{\emCBOW}および{\emSGNS}は各単語に唯一の分散表現を生成するベースラインである.{\emDMSE}のバリエーションとして,PaetzoldandSpecia\citeyear{paetzold-16d}から着想を得て,各単語とcontext-wordの品詞も用いる{\emDMSE+POS}も実装し,比較評価を行う.例えば,単語{\ttsoft}(adjective)のcontext-wordが{\ttcandy}(noun)の場合,{\emDMSE+POS}では{\ttsoft\_adjective\_candy\_noun}の分散表現を生成する.\subsection{分散表現の学習}\label{sec:分散表現の学習}各モデルを学習するために,EnglishWikipedia\footnote{https://dumps.wikimedia.org/enwiki/20170601/}の本文約$1$億文(累計約$22$億単語)を利用する.これらの文は,StanfordParser\cite{manning-14}によって形態素解析し,各単語を原形にする.ここで,CBOWの学習時間を考慮して本実験では出現頻度$200$以下の低頻度語を$\langleunk\rangle$タグに置換し,$112,087$語のみを利用する.{\emDMSE}モデルを訓練するために,さらにStanfordParserを用いて依存構造解析を行い,各単語のcontext-wordを特定する.{\emDMSE}の事前学習および事後学習においては,CBOW\cite{mikolov-13a}のアルゴリズムを用いてエポック数$20$,窓幅$5$で$300$次元の分散表現を得る.{\emECWR}も同様に前処理されたEnglishWikipedia上で我々が訓練する.また,実験結果の再現性のため公開されている学習済みモデル\footnote{https://allennlp.org/elmo}の性能も報告する.以降,前者を{\emECWR(Wikipedia)},後者を{\emECWR($1$BWB)}と表記する.両モデルとも,各層から得た$1,024$次元の分散表現を連結し,$3,072$次元の分散表現として利用する.ベースラインモデルのうち,{\emCBOW}および{\emPOS}はEnglishWikipedia上で我々が訓練する.これらはそれぞれ,{\emDMSE}および{\emDMSE+POS}の事前学習に対応する.{\emSGNS},{\emMSSG}および{\emTOPIC}はFadaeeら\citeyear{fadaee-17}によってEnglishWikipedia上で学習されたモデルを利用する.これらのベースラインモデルでは,いずれも$300$次元の分散表現を利用する.
\section{文脈中での単語間の意味的類似度推定タスク}
本実験では,StanfordContextualWordSimilarity(SCWS)のデータセット\footnote{http://www-nlp.stanford.edu/{\textasciitilde}ehhuang/SCWS.zip}\cite{huang-12}を利用する.このデータセットでは,$2$つのターゲット単語(ターゲット単語対)とそれらの出現する文脈(前後$50$単語)が与えられる.タスクは,所与の文脈中でのターゲット単語間の意味的類似度を推定することである.SCWSデータセットは,AmazonMechanicalTurkを用いてアノテータを採用し,$2,003$組のターゲット単語対のそれぞれに類似度を付与している.アノテータは与えられた$2$つの文脈中のターゲット単語対が意味的にどの程度似ているかについて,$0$から$10$の$11$段階でスコアを付与する.各ターゲット単語対に対して$10$人がスコアを付与し,その平均値を単語間の意味的類似度とする.表\ref{tb:example_scws}に意味的類似度推定タスクの一例を示す.この例では,文脈$1$中のターゲット単語{\ttcredit}と文脈$2$中のターゲット単語{\ttmoney}の類似度を推定する.特定の文脈において意味的に近い単語対や,逆に特定の文脈において意味的に遠い単語対が含まれるため,このタスクでは単語の多義性を考慮して類似度を推定する必要がある.\begin{table}[t]\caption{SCWSのデータセット中に含まれる例\label{tb:example_scws}}\input{02table01.tex}\vspace{4pt}\small与えられた文脈の一部を抜粋.ターゲット単語は{\bfbold}体で表示している.\end{table}人手で定義された類似度と,システムが推定した類似度は,スピアマンの順位相関係数を用いて評価する.スピアマンの順位相関係数$r$は以下の式で定義される\cite{zwillinger-00}\footnote{参考文献$14.7$節を参照.}.\begin{align}T_x&=\frac{n^3-n-\sum_{i=1}^{n_x}(s_i^3-s_i)}{12}\\T_y&=\frac{n^3-n-\sum_{i=1}^{n_y}(t_i^3-t_i)}{12}\\r&=\frac{T_x+T_y-\sum_{i=1}^{n}(x_i-y_i)^2}{2\sqrt{T_xT_y}}\end{align}ここで,$n$はデータ数,$x_i$,$y_i$はそれぞれシステムが出力した$i$番目の単語対の類似度の順位と,人手でつけられた$i$番目の単語対の類似度の順位である.また,$n_x$および$n_y$はシステムおよび人手の順位付けにおいて存在する同順位の種類数である.$s_i$,$t_i$は同順位について,その順位が持つデータ数である.\subsection{意味的類似度の推定}\subsubsection{DMSEにおける意味的類似度の推定}\label{sec:word_sim_estimation}まず,ターゲット単語$w_{t_1}$および$w_{t_2}$のcontext-word$c_{t_1}\inC_{t_1}$および$c_{t_2}\inC_{t_2}$を依存構造解析によって抽出する.次に,各ターゲット単語とそのcontext-wordから得られる文脈化された単語の分散表現の集合$V_{t_1}$および$V_{t_2}$を得る.そして,以下の$3$つの方法で,文脈中でのターゲット単語間の意味的類似度を推定する.\begin{align}S_{\rmavg}&=\frac{1}{|V_{t_1}||V_{t_2}|}\sum_{v_{t_1}\inV_{t_1},v_{t_2}\inV_{t_2}}\cos(v_{t_1},v_{t_2})\\S_{\rmmax}&=\max_{v_{t_1}\inV_{t_1},v_{t_2}\inV_{t_2}}\cos(v_{t_1},v_{t_2})\\S_{\rmmin}&=\min_{v_{t_1}\inV_{t_1},v_{t_2}\inV_{t_2}}\cos(v_{t_1},v_{t_2})\end{align}ただし,$|\cdot|$は集合の要素数を,$\cos(\cdot,\cdot)$は$2$つのベクトル間の余弦類似度を表す.ここで,各分散表現は正規化されたものを用いる.$S_{\rmavg}$では,それぞれの文脈に出現する全てのcontext-wordを等しく考慮して,所与の文脈中での単語間の意味的類似度を推定する.$S_{\rmmax}$および$S_{\rmmin}$では,それぞれの文脈に出現するcontext-wordの重要度は異なると仮定し,代表的な$1$組のみを考慮して,所与の文脈中での単語間の意味的類似度を推定する.ここで,context-wordが存在しない場合および文脈化された単語が語彙に存在しない場合,類似度を計算できない.これらの場合は,事前学習した{\emCBOW},{\emPOS}の分散表現をターゲット単語の分散表現とする.またターゲット単語そのものが語彙に存在しない場合は$\langleunk\rangle$の分散表現を用いる.\subsubsection{ECWRにおける意味的類似度の推定}ターゲット単語を含む$1$文を入力として,文脈を考慮したターゲット単語の分散表現を獲得する.得られた分散表現間の余弦類似度を,単語間の意味的類似度とする.\begin{table}[b]\caption{SCWSデータセットにおけるスピアマンの順位相関係}\label{tb:CAWS_result}\input{02table02.tex}\end{table}\subsection{実験結果}表\ref{tb:CAWS_result}に,モデルが推定した類似度と人手で定義された類似度のスピアマンの順位相関係数を示す.SGNS,MSSG,TOPICの$3$手法については,Fadaeeetal.\citeyear{fadaee-17}で報告されているスコアを引用した.表\ref{tb:CAWS_result}の結果から,{\emDMSE}は比較手法と比べて有意に差があるとは言えないが,{\emECWR}はベースラインおよび先行研究の手法と比べて高い性能を示した.これは,粒度の細かい分散表現を使用することにより,各単語の語義をより正確に捉えることができたためである.{\emDMSE}と{\emECWR}を比較すると,{\emECWR}がより高い性能を示している.これは,SCWSデータセット中には{\ttescapologist}や{\ttnutriment},{\ttexudation}などの,低頻度語がターゲット単語として出現するためである.本実験で{\emDMSE}は,学習データ中の頻度$200$回以下の単語を全て$\langleunk\rangle$タグに置換したため,全ターゲットの内,$2.8$\%の単語はすべて同じ$\langleunk\rangle$の分散表現を用いた.一方,{\emECWR}では,ターゲット単語が語彙内に含まれていない場合でも,文脈情報のみから分散表現を生成できる.そのため,{\emECWR}が高い性能を示したと考えられる.実際,$\langleunk\rangle$の分散表現を用いたデータを除いてスピアマンの順位相関係数を調べたところ,{\emDMSE}ではそれぞれの類似度推定手法で$0.01$から$0.02$のスコアの増加が見られ,低頻度語の影響が確認されている.よって,低頻度語が多く出現する場合には{\emDMSE}よりも{\emECWR}を使用する方が,より正確な分散表現を生成できることがわかる.
\section{語彙的換言タスク}
本実験では,LS-SEおよび,LS-CIC\footnote{https://github.com/stephenroller/naacl2016}\cite{roller-16}およびCEFR-LPの$3$つのデータセットを利用する.これらのデータセットでは,ターゲット単語と文脈に加えて,言い換え候補群が与えられる.タスクは,所与の文脈を考慮しつつ,ターゲット単語との置換可能性の観点から言い換え候補群をランク付けすることである.そのため,このタスクも文脈中での単語の意味を考慮する必要がある.\begin{description}\item[LS-SE\cite{mccarthy-07}]\mbox{}\\SemEval-2007のLexicalSubstitutionタスクで用いられたデータセット.$201$種類のターゲット単語について,それぞれ$10$種類の文脈が与えられている.各ターゲット単語には,$5$人のアノテータが最大$3$種類ずつの言い換えを文脈を考慮して付与している.\item[LS-CIC\cite{kremer-14}]\mbox{}\\LexicalSubstitutionのための大規模なデータセット.$15,629$語のターゲット単語について,$6$人のアノテータが最大$5$種類ずつの言い換えを文脈を考慮して付与している.\item[CEFR-LP\cite{ashihara-19a}]\mbox{}\\類義語辞書に基づく言い換え候補群を用いるLexicalSubstitutionのデータセット.$893$種類のターゲット単語を持ち,このうち$600$語は$60$種類のターゲット単語について,それぞれ$10$種類の文脈が付与されたものである.各言い換え候補について$4$人のアノテータが言い換えの可否のスコアを$3$段階で付与している.\end{description}先行研究\cite{melamud-15,roller-16,fadaee-17}に従い,各ターゲット単語に付与された全ての言い換えの和集合を言い換え候補群として用いる.そのため,これらの候補は少なくともある文脈においてはターゲット単語と意味的および構文的に十分に近い単語であり,モデルは文脈を用いてターゲット単語の語義を区別する必要がある.人手で定義された言い換えランキングと,システムが推定した言い換えランキングは,GeneralizedAveragePrecision(GAP)\cite{kishida-05,thater-09}を用いて評価する.GAPは語彙的換言タスクで広く用いられる\cite{melamud-15,roller-16,fadaee-17}評価尺度であり,式(\ref{eq:gap1}),(\ref{eq:gap2})のように正解事例の重みを考慮してランキングを評価できる.\begin{align}p_i&=\frac{\sum_{k=1}^{i}x_k}{i}\label{eq:gap1}\\GAP&=\frac{\sum_{i=1}^{n}I(x_i)p_i}{\sum_{i=1}^{n}I(y_i)\overline{y_i}}\times100\label{eq:gap2}\end{align}ここで,$x_i$は$i$番目にランクされた言い換え候補のスコアを表し,$y_i$は理想的なランキング(スコアの降順)をした時の$i$番目の言い換え候補のスコアを表す.$n$は言い換え候補数である.また,$I(x)$は$x$が$0$の場合は$0$を,$1$以上の場合は1を返す関数である.本実験では,LS-SEおよびLS-CICにおいては各言い換え候補を付与したアノテータの人数を,CEFR-LPにおいては各アノテータによる言い換え可否のスコアの合計を,重みとして用いる.\subsection{言い換え候補のランキング}語彙的換言タスクでは文脈$s$を考慮してターゲット単語$w_t$と言い換え候補$w_p$の置換可能性を推定する.本実験では,ターゲット単語と言い換え候補の分散表現間の類似度が高いほど,その言い換え候補が高い置換可能性を持つと仮定する.\subsubsection{DMSEにおける言い換え候補のランキング}まず,ターゲット単語$w_t$のcontext-word$c\inC_t$を依存構造解析によって抽出する.次に,これらを用いてターゲット単語$w_t$の分散表現の集合$V_t$を得る.続いて,ターゲット単語の各context-wordを用いて,言い換え候補$w_p$の分散表現の集合$V_p$を得る.そして,以下の2つの方法で,ターゲット単語の分散表現$v_t\inV_t$と言い換え候補の分散表現$v_p\inV_p$の間の類似度を計算し,言い換え候補群をランキングする.\begin{description}\item[Cos]\mbox{}\\ベクトル間の余弦類似度$cos(v_t,v_p)$を計算する.\item[balAddCos\cite{melamud-15}]\mbox{}\\この類似尺度では,ターゲット単語と言い換え候補の類似度だけでなく,言い換え候補と文脈の類似度も考慮し,$|s|\cos(v_t,v_p)+\sum_{w\ins}\cos(v_p,v_w)$を計算する.ここで,$s$はターゲット単語を含む一文を表す.\end{description}複数のcontext-wordが存在する場合,最終的な置換可能性を推定する単純な方法は,\ref{sec:word_sim_estimation}節で説明した$S_{\rmavg}$,$S_{\rmmax}$および$S_{\rmmin}$を用いることである.しかし,単語間の意味的類似度推定タスクとは異なり,本タスクではターゲット単語と言い換え候補群の文脈が共通のため,共通のcontext-wordのみを考慮して,より正確に文脈を考慮できる.そこで本実験では,$S_{\rmavg}$,$S_{\rmmax}$および$S_{\rmmin}$に加えて,共通のcontext-wordのみを考慮する以下の$S_{\rmavgc}$,$S_{\rmmaxc}$および$S_{\rmminc}$によって,所与の文脈を考慮しつつ言い換え候補をランキングする.\begin{align}S_{\rmavgc}&=\frac{1}{|C_t|}\sum_{c\inC_t}{\rmsim}(v_{w_{t,c}},v_{w_{p,c}})\\S_{\rmmaxc}&=\max_{c\inC_t}{\rmsim}(v_{w_{t,c}},v_{w_{p,c}})\\S_{\rmminc}&=\min_{c\inC_t}{\rmsim}(v_{w_{t,c}},v_{w_{p,c}})\end{align}ここで,${\rmsim}(\cdot,\cdot)$には{\emCos}または{\embalAddCos}を用いる.これらの手法で推定された置換可能性のスコアを用いて,スコアの高い順に言い換え候補群をランキングする.\ref{sec:word_sim_estimation}節と同様に,context-wordが存在しない場合は,事前学習した{\emCBOW},{\emPOS}の分散表現をターゲット単語の分散表現とする.またターゲット単語そのものが語彙に存在しない場合は$\langleunk\rangle$の分散表現を用いる.\subsubsection{DMSEのオラクル性能}{\emDMSE}ではcontext-wordの選択における性能が全体の性能に影響する.そこでcontext-wordを理想的に選択できたときのオラクル性能も報告する.オラクル選択$S_{\rmoracle}$では,ターゲット単語と言い換え候補が同一のcontext-wordによって意味を決定づけられると仮定し,まず全てのcontext-wordについて言い換え候補のランキングを作成する.その中から,最もGAPスコアが高くなるcontext-wordを採用し,そのランキングを用いる.\newcommand{\argmax}{}\begin{equation}S_{\rmoracle}={\rmsim}(v_{w_{t,c}},v_{w_{p,c}}),\;\;\;c=\argmax_{c\inC_t}{\rmGAP}\end{equation}ただし,$c$によって与えられる文脈化された単語が語彙に存在しない場合,事前学習した単語の分散表現を用いて単語間の余弦類似度を計算する.\subsubsection{ECWRにおける言い換え候補のランキング}ターゲット単語を含む1文を入力として,文脈を考慮したターゲット単語の分散表現を獲得する.各言い換え候補については,ターゲット単語を含む1文において,ターゲット単語と言い換え候補を置換して{\emECWR}に入力する.得られた分散表現間の余弦類似度を,ターゲット単語と言い換え候補の置換可能性スコアとし,スコアの降順に言い換え候補をランク付けする.\begin{table}[b]\caption{LS-SE,LS-CIC,CEFR-LPデータセットにおけるGAPスコア}\label{tb:result_gap}\input{02table03.tex}\end{table}\subsection{実験結果}表\ref{tb:result_gap}に,LS-SE,LS-CIC,CEFR-LPの各データセットにおけるGAPスコアを示す.だたし,$NA$は参考文献中\cite{fadaee-17}で行われていない実験設定のため,数値を記載できなかった部分である.{\emDMSE}については,類似尺度として$S_{\rmoracle}$を除いた中で最も高い精度を示した$S_{\rmmaxc}$のみを記載する.他の類似尺度については次節で議論する.LS-SEにおいて最も高い性能を示した類似度尺度$Cos$の時の{\emDMSE}$(S_{\rmmaxc})$は,{\emSGNS}より$8.3$ポイント,{\emMSSG}より$8.1$ポイント,{\emTOPIC}より$6.4$ポイント,{\emCBOW}より$7.5$ポイント,{\emPOS}より$6.3$ポイント,それぞれ高いGAPスコアを達成した.また,LS-CICにおいて最も高い性能を示した類似度尺度$Cos$の時の{\emECWR(Wikipedia)}は,{\emSGNS}より$12.0$ポイント,{\emMSSG}より$10.3$ポイント,{\emTOPIC}より$7.2$ポイント,{\emCBOW}より$3.7$ポイント,{\emPOS}より$2.7$ポイント,それぞれ高いGAPスコアを達成した.CEFR-LPにおいては,類似度尺度$balAddCos$の時の{\emECWR(Wikipedia)}が{\emCBOW}より$5.8$ポイント,{\emPOS}より$6.0$ポイント,それぞれ高いGAPスコアを示した.これらの結果から,文脈を考慮してより細かい粒度で語義の分散表現を生成する提案手法が,トピックや品詞を用いて語義を区別する既存手法に比べて,効果的に語義を捉えられることを確認できた.LS-SEでは{\emDMSE}が最も高い性能を示した一方で,LS-CICおよびCEFR-LPでは{\emECWR}が最も高い性能を示した.これは,各データセットの$1$文を構成する平均単語数が影響を与えたと考えられる.図\ref{fig:gap_word_num}に示すのは,$1$文を構成する単語数ごとのGAPスコアである.$1$文を構成する単語数が$30$単語までは{\emECWR}が高い性能を示している一方,$31$単語からは{\emDMSE}が高い性能を示している.{\emECWR}では,$1$文の全ての情報を考慮した分散表現を生成するため,$1$文が長ければ多くの情報が混在してしまう.そのため,$1$文を構成する単語数が増加すると性能が向上せず頭打ちとなる.一方,{\emDMSE}ではターゲット単語と依存関係にあるcontext-wordのみを考慮する.そのため,長文になると利用できるcontext-word候補が増える傾向となり,より信頼できるcontext-wordを選択することで性能が向上すると考えられる.そのため,$1$文あたりの単語数が多いほど{\emDMSE}が{\emECWR}よりも高い性能を示すと考えられる.実際,LS-SE,LS-CIC,CEFR-LPはそれぞれ$1$文あたり平均$27.2$単語,$23.3$単語,$21.2$で構成されており,$1$文あたりの平均単語数が多いデータセットでは{\emDMSE}が{\emECWR}の性能を上回っている.\begin{figure}[t]\begin{center}\includegraphics{26-4ia2f4.eps}\end{center}\caption{$1$文を構成する単語数ごとのGAPスコア\label{fig:gap_word_num}}\end{figure}
\section{DMSEの分析}
\subsection{語彙的換言タスクにおける意味的類似度推定手法の比較}表\ref{tb:result_gap_DMSE}に,語彙的換言タスクにおける{\emDMSE}のGAPスコアを示す.類似尺度として文脈を考慮する{\embalAddCos}を用いた場合,{\emDMSE}においては単純な{\emCos}よりも性能が悪化する傾向が見られた.{\embalAddCos}は,文脈を考慮しない分散表現のために提案された手法であり,言い換え候補と文脈に現れる単語の分散表現を用いて類似度計算を行う.{\emDMSE}では文脈化された単語の分散表現を使用しているため,{\embalAddCos}を利用すると文脈を$2$重で考慮したことになり,精度が改善しなかったと考えられる.また,複数のcontext-wordを利用できるとき,$S_{\rmmaxc}$が最も高い性能を示す傾向にある.この結果から,同一のcontext-wordによって与えられる分散表現を用いることで,全てのcontext-wordを考慮するよりも高精度に単語間の置換可能性を推定できると言える.$S_{\rmavgc}$の性能が$S_{\rmmaxc}$に及ばないのは,各分散表現の影響が平均することによって軽視されるためと考えられる.ターゲット単語の語義をピンポイントで表現できるcontext-wordが存在したとしても,平均することによってその影響が薄れてしまう.また,$S_{\rmminc}$では類似度の下限値を基準にランク付けする.$S_{\rmmaxc}$であれば,その文中での意味を表していないcontext-wordは類似度が低くても無視されるが,$S_{\rmminc}$ではその影響を受けるため,性能が低下したと考えられる.$S_{\rmoracle}$では類似尺度を$Cos$とした時の{\emDMSE}$(S_{\rmoracle})$が最も高い性能を示した,また,同じく類似度尺度$Cos$の$S_{\rmavg}$,$S_{\rmmax}$,$S_{\rmmin}$および$S_{\rmavgc}$,$S_{\rmmaxc}$,$S_{\rmminc}$が出力した最も高いスコアと比較して,LS-SEでは$6.2$ポイント,LS-CICでは$3.7$ポイント,CEFR-LPでは$4.1$ポイント高い性能を示している.さらにこれらは,表\ref{tb:result_gap}における類似尺度$Cos$を用いた際の{\emECWR(Wikipedia)}の性能よりもLS-SEで$7.8$ポイント,LS-CICで$3.1$ポイント,CEFR-LPで$0.6$ポイント高い.ここから,複数ある中から正しいcontext-wordを特定することができた場合,{\emDMSE}はさらに精度向上することが見込まれる.\begin{table}[t]\caption{各データセット中でのDMSEのGAPスコア}\label{tb:result_gap_DMSE}\input{02table04.tex}\end{table}\subsection{実際の出力例}表\ref{tb:ls_example}に語彙的換言タスクにおいて,context-wordを用いて多義語{\tthard}の語義を捉えることに成功した例を示す.最も多くのアノテータによって付与された言い換え候補を最上位にランク付けできている.\begin{table}[t]\caption{語彙的換言タスクにおける出力例}\label{tb:ls_example}\input{02table05.tex}\vspace{4pt}\smallターゲット単語は{\bfbold}体で,context-wordは{\emitalic}体で表示している.出力は言い換え候補群のランキング,括弧内の数値は各候補の重みを表す.\end{table}\begin{figure}[t]\begin{center}\includegraphics{26-4ia2f5.eps}\end{center}\caption{分散表現の可視化\label{fig:visualization}}\end{figure}図\ref{fig:visualization}は,表\ref{tb:ls_example}における単語や語義の分散表現を主成分分析を用いて,実際の分散表現の第一主成分ベクトルを横軸に,第二主成分ベクトルを縦軸に可視化したものである.第二主成分までの寄与率は$0.53$である.丸は文脈を考慮しない単語の分散表現,三角は{\emDMSE}による分散表現を表す.この図から,{\tthard\_listen}(言い換え元の単語)および{\ttcarefully\_listen}(正解の言い換え単語)が事前学習された単語分散表現から離れ,お互いに近づいていることが分かる.実際の分散表現間の余弦類似度を測ったところ,{\tthard}と{\ttcarefully}間は$0.125$,{\tthard\_listen}と{\ttcarefully\_listen}間は$0.421$であり,大きく向上している.同様に,{\tthard\_hit}および{\ttbadly\_hit}の分散表現も事後学習によって近づいていることが分かる.実際,{\tthard}と{\ttbadly}間の類似度は$0.159$,{\tthard\_hit}と{\ttbadly\_hit}間の類似度は$0.547$であった.また,{\tthard\_listen}と{\tthard\_hit}は大きく離れており,{\emDMSE}によって期待通り語義ごとに分散表現を学習できていることが分かる.同じ{\tthard}という形で文脈中に出現する単語でも,context-wordによって異なる場所に配置できている.実際,{\tthard\_listen}と{\tthard\_hit}間の類似度は$0.558$であり,元々一つの分散表現(余弦類似度$1.0$)から余弦類似度が低下するよう分離できている.
\section{まとめ}
本研究では,文脈中の単語を手がかりとして,細かい粒度で各単語に複数の分散表現を生成する$2$つの手法について述べた.{\emDMSE}は,文脈中の依存関係にある単語を手がかりとして語義を区別する分散表現を生成する.また双方向言語モデルである{\emECWR}を利用することで,文脈中の全ての単語を考慮した単語分散表現を獲得する.単語間の意味的類似度推定タスクおよび語彙的換言タスクにおける評価実験の結果,品詞やトピックを用いて語義を区別する先行研究と比較して,より細かい粒度で語義を区別できる提案手法の有効性を示した.\acknowledgment本研究は公益財団法人KDDI財団による助成を受けたものである.また,貴重なコメントや議論をいただいた九州大学大学院言語文化研究院のChristopherG.Haswell准教授に感謝の意を表す.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ashihara,Kajiwara,Arase,\BBA\Uchida}{Ashiharaet~al.}{2018}]{ashihara-18b}Ashihara,K.,Kajiwara,T.,Arase,Y.,\BBA\Uchida,S.\BBOP2018\BBCP.\newblock\BBOQContextualizedWordRepresentationsforMulti-SenseEmbedding.\BBCQ\\newblockIn{\BemProceedingsofthePacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\28--36}.\bibitem[\protect\BCAY{Ashihara,Kajiwara,Arase,\BBA\Uchida}{Ashiharaet~al.}{2019}]{ashihara-19a}Ashihara,K.,Kajiwara,T.,Arase,Y.,\BBA\Uchida,S.\BBOP2019\BBCP.\newblock\BBOQContextualizedcontext2vec.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponNoisyUser-generatedText}.\bibitem[\protect\BCAY{Athiwaratkun\BBA\Wilson}{Athiwaratkun\BBA\Wilson}{2017}]{athiwaratkun-17}Athiwaratkun,B.\BBACOMMA\\BBA\Wilson,A.~G.\BBOP2017\BBCP.\newblock\BBOQMultimodalWordDistributions.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1645--1656}.\bibitem[\protect\BCAY{Bojanowski,Grave,Joulin,\BBA\Mikolov}{Bojanowskiet~al.}{2017}]{bojanowski-17}Bojanowski,P.,Grave,E.,Joulin,A.,\BBA\Mikolov,T.\BBOP2017\BBCP.\newblock\BBOQEnrichingWordVectorswithSubwordInformation.\BBCQ\\newblockIn{\BemProceedingsoftheTransactionsoftheAssociationforComputationalLinguistics},\mbox{\BPGS\135--146}.\bibitem[\protect\BCAY{Fadaee,Bisazza,\BBA\Monz}{Fadaeeet~al.}{2017}]{fadaee-17}Fadaee,M.,Bisazza,A.,\BBA\Monz,C.\BBOP2017\BBCP.\newblock\BBOQLearningTopic-SensitiveWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\441--447}.\bibitem[\protect\BCAY{Huang,Socher,Manning,\BBA\Ng}{Huanget~al.}{2012}]{huang-12}Huang,E.~H.,Socher,R.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2012\BBCP.\newblock\BBOQImprovingWordRepresentationsviaGlobalContextandMultipleWordPrototypes.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\873--882}.\bibitem[\protect\BCAY{Kishida}{Kishida}{2005}]{kishida-05}Kishida,K.\BBOP2005\BBCP.\newblock\BBOQPropertyofAveragePrecisionanditsGeneralization:AnExaminationofEvaluationIndicatorforInformationRetrievalExperiments.\BBCQ\\newblock{\BemNationalInstituteofInformaticsTechnicalReports},\mbox{\BPGS\1--19}.\bibitem[\protect\BCAY{Kremer,Erk,Pad{\'{o}},\BBA\Thater}{Kremeret~al.}{2014}]{kremer-14}Kremer,G.,Erk,K.,Pad{\'{o}},S.,\BBA\Thater,S.\BBOP2014\BBCP.\newblock\BBOQWhatSubstitutesTellUs-Analysisofan``All-Words''LexicalSubstitutionCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\540--549}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{levy-14}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQDependency-BasedWordEmbeddings.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\302--308}.\bibitem[\protect\BCAY{Li\BBA\Jurafsky}{Li\BBA\Jurafsky}{2015}]{li-17}Li,J.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2015\BBCP.\newblock\BBOQDoMulti-SenseEmbeddingsImproveNaturalLanguageUnderstanding?\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1722--1732}.\bibitem[\protect\BCAY{Manning,Surdeanu,Bauer,Finkel,Bethard,\BBA\McClosky}{Manninget~al.}{2014}]{manning-14}Manning,C.,Surdeanu,M.,Bauer,J.,Finkel,J.,Bethard,S.,\BBA\McClosky,D.\BBOP2014\BBCP.\newblock\BBOQTheStanfordCoreNLPNaturalLanguageProcessingToolkit.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\55--60}.\bibitem[\protect\BCAY{McCarthy\BBA\Navigli}{McCarthy\BBA\Navigli}{2007}]{mccarthy-07}McCarthy,D.\BBACOMMA\\BBA\Navigli,R.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task10:EnglishLexicalSubstitutionTask.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSemanticEvaluations},\mbox{\BPGS\48--53}.\bibitem[\protect\BCAY{Melamud,Goldberger,\BBA\Dagan}{Melamudet~al.}{2016}]{melamud-16}Melamud,O.,Goldberger,J.,\BBA\Dagan,I.\BBOP2016\BBCP.\newblock\BBOQcontext2vec:LearningGenericContextEmbeddingwithBidirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsoftheSIGNLLConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Melamud,Levy,\BBA\Dagan}{Melamudet~al.}{2015}]{melamud-15}Melamud,O.,Levy,O.,\BBA\Dagan,I.\BBOP2015\BBCP.\newblock\BBOQASimpleWordEmbeddingModelforLexicalSubstitution.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponVectorSpaceModelingforNaturalLanguageProcessing},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{mikolov-13b}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{mikolov-13a}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingoftheInternationalConferenceonLearningRepresentations},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Mikolov\BBA\Com}{Mikolov\BBA\Com}{2014}]{mikolov-14}Mikolov,T.\BBACOMMA\\BBA\Com,T.~G.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofSentencesandDocuments.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonMachineLearning},\mbox{\BPGS\1188--1196}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2014}]{neelakantan-14}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2014\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1059--1069}.\bibitem[\protect\BCAY{Paetzold\BBA\Specia}{Paetzold\BBA\Specia}{2016}]{paetzold-16d}Paetzold,G.~H.\BBACOMMA\\BBA\Specia,L.\BBOP2016\BBCP.\newblock\BBOQUnsupervisedLexicalSimplificationforNon-NativeSpeakers.\BBCQ\\newblockIn{\BemProceedingsoftheAssociationfortheAdvancementofArtificialIntelligence},\mbox{\BPGS\3761--3767}.\bibitem[\protect\BCAY{Pennington,Socher,\BBA\Manning}{Penningtonet~al.}{2014}]{pennington-14}Pennington,J.,Socher,R.,\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQGloVe:GlobalVectorsforWordRepresentation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1532--1543}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{peters-18}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Pilehvar\BBA\Camacho-collados}{Pilehvar\BBA\Camacho-collados}{2019}]{pilehvar-19}Pilehvar,M.~T.\BBACOMMA\\BBA\Camacho-collados,J.\BBOP2019\BBCP.\newblock\BBOQWiC:TheWord-in-ContextDatasetforEvaluatingContext-SensitiveMeaningRepresentations.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\1267--1273}.\bibitem[\protect\BCAY{Roller\BBA\Erk}{Roller\BBA\Erk}{2016}]{roller-16}Roller,S.\BBACOMMA\\BBA\Erk,K.\BBOP2016\BBCP.\newblock\BBOQPICaDifferentWord:ASimpleModelforLexicalSubstitutioninContext.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\1121--1126}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{sutskever-14}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonNeuralInformationProcessingSystems},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Thater,Saarlandes,Dinu,Saarlandes,Pinkal,\BBA\Saarlandes}{Thateret~al.}{2009}]{thater-09}Thater,S.,Saarlandes,U.,Dinu,G.,Saarlandes,U.,Pinkal,M.,\BBA\Saarlandes,U.\BBOP2009\BBCP.\newblock\BBOQRankingParaphrasesinContext.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAppliedTextualInference},\mbox{\BPGS\44--47}.\bibitem[\protect\BCAY{Zwillinger\BBA\Kokoska}{Zwillinger\BBA\Kokoska}{2000}]{zwillinger-00}Zwillinger,D.\BBACOMMA\\BBA\Kokoska,S.\BBOP2000\BBCP.\newblock{\BemCRCStandardProbabilityandStatisticsTablesandFormulae}.\newblockChapmanandHall.\end{thebibliography}\begin{biography}\bioauthor{芦原和樹}{2018年大阪大学工学部電子情報工学科卒業.同年,同大学大学院情報科学研究科博士前期課程に進学.}\bioauthor{梶原智之}{2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域修了.博士(工学).同年より大阪大学データビリティフロンティア機構特任助教.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,北京のMicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現認識と生成,機械翻訳技術,対話システムに興味を持つ.}\bioauthor{内田諭}{2005年東京外国語大学外国語学部欧米第一課程英語専攻卒業.2007年東京大学大学院総合文化研究科言語情報科学専攻修士課程修了.2013年に同大学院にて博士号(学術)を取得.東京外国語大学特任講師を経て,2014年より九州大学大学院言語文化研究院准教授.認知意味論,コーパス言語学,英語教育学などの研究に従事.日本認知言語学会,英語コーパス学会,大学英語教育学会,言語処理学会等会員.}\end{biography}\biodate\end{document}
| |
V14N03-13
|
\section{はじめに}
近年,人間の感情を理解可能な機械(感性コンピュータ)に応用するための感情認識技術の研究が言語処理・音声処理・画像処理などの分野において進められている.感情のような人間の持つあいまいな情報をコンピュータで処理することは現段階では難しく,人間の感情モデルをどのように情報処理のモデルとして扱うかが感情認識研究の課題である.我々の研究グループでは,人間とロボットが感情表現豊かなコミュニケーションをとるために必要な感情インタフェース(AffectiveInterface)の実現を目指し,人間の発話内容・発話音声・顔表情からの感情認識の研究を行っている\cite{Ren},\cite{ees},\cite{ecorpus},\cite{Ren2}.感情は,人間の行動や発話を決定付ける役割を持つ.また,表\ref{tb:hatsuwa}に示すように,発話には,感情を相手に伝えようとするもの(感情表出発話)と,そうでないもの(通常発話)とに分類することができる.表の例のように,感情表出発話の場合,聞き手は話者が感情を生起しているように感じ取ることができ,話者も感情を伝えようという気持ちがある.一方,通常発話でも,感情を生起するような出来事(感情生起事象)を述べる場合には話者に感情が生起していることもある.\begin{table}[b]\begin{center}\caption{感情表出発話と通常発話の例}\begin{tabular}{|p{10.5cm}|c|}\hline「あの人が私を殴る.」,「私は面白くて笑う.」,「あの子供は空腹だ.」&通常発話\\\hline「あいつが私を殴りやがった.」,「面白いなぁ.」,「可哀想に,お腹を空かせているようだ.」&感情表出発話\\\hline\end{tabular}\label{tb:hatsuwa}\end{center}\end{table}感情推定手法の従来研究として,目良らが提案する情緒計算手法がある\cite{mera},\cite{mera2}.この手法において,ユーザが単語に対して好感度(単語の示す対象が好きか嫌いかを示す値)を与えておき,情緒計算式に代入することにより快か不快かを決定する.さらに,得られた結果と文末様相などを感情生起ルールに当てはめることで,20種類の感情を判定する.この手法では,直接的な感情表現(感情表出発話)よりも,文が示す事象の望ましさに着目しており,感情表現を含まないような感情生起事象文に対応できるという利点がある.我々の提案する手法は,感情表出発話文と感情生起事象文の両方からの感情推定を目標とする.具体的には,感情表出発話文の文型パターンとの照合を行い,感情を表現する語・イディオムの辞書を用いて,文中の単語に含まれている感情の種類を与える.感情の強度は,修飾語や文末表現(モダリティ)などで変化させる.結果として,発話テキストから複数の感情とその強度が得られる.これにより,単語が表す感情と文単位で表現する感情の2つの面から感情推定が行える.本稿では,感情生起事象文型パターンと感情語に基づく感情推定手法を提案し,その評価用プロトタイプシステムを構築する.そして,システムを用いて会話文の感情推定実験を行い,人間による感情判断との比較に基づく評価と,その評価結果について考察を行う.
\section{従来研究}
現状の対話システムを感情豊かな自然な会話の流れに対応させるためには,感情状態による発話の制御が必要となる.人間の感情状態は,対話における相手との発話のやり取りで変化すると考えられる.感情表出についての研究は,これまでに,コミュニケーションロボット「ifbot」\cite{ifbot}や擬人化エージェント\cite{Mori}の研究でも行われてきた.しかし,これらの研究においては,ロボットや擬人化エージェントが感情を表出することで,ユーザの感情を誘発することを目的としており,ユーザの感情状態を言語から認識することはほとんど考慮されていなかった.ロボットや擬人化エージェントに応用するための,感情インターフェースにおける感情表出では,相手(ユーザ)の感情状態の認識により自己感情の状態を適切に変化させることが必要となる.なぜなら,例えば,ユーザが怒っているのに楽しそうに話すロボットは人間らしい振る舞いをしているとはいえないからである.相手感情を認識できてはじめて,人間らしく自然に自己感情を表出できるであろう.したがって,感情インターフェースの実現のためには,発話内容,声の抑揚,顔表情などからの話者の感情状態の認識技術が必要不可欠となる.感情を話者の言葉(発話内容)から認識するためには自然言語文から感情推定を行う必要がある.自然言語文テキストからの感情の自動抽出や自動判定の研究として以下のようなものがある.\begin{itemize}\item{A【感情語彙や感情表現の自動抽出】}\\文に含まれる感情を抽出する研究として,大量のテキストデータからの感情表現や評価表現の自動抽出を目的とする\cite{Nakayama}や,\cite{Kobayashi},\cite{Kobayashi2},\cite{Nasukawa},\cite{Turney},\cite{Kamps},\cite{Kudo},\cite{Fujimura},\cite{Yano}などがある.\cite{Nakayama}では,感情表現の基本となる語をシードとして準備しておき,それらの語との係り受け関係から頻出の感情表現パターンを抽出する.\item{B【語の好感度を用いた会話文からの感情推定】}\\会話文から話者の感情を推定する試みとして,語に好感度(プラスかマイナスの評価)を与え,文毎の事象の望ましさを推定し,話者の感情の推定を行う手法\cite{mera},\cite{mera2}が提案されている.\item{C【ニュース記事の感情判定】}\\単語と喜怒哀楽との対応関係を示す感情辞書の構築を行い,Webニュース記事から喜怒哀楽を自動判定する研究として\cite{Kumamoto}がある.この手法では,読み手側の立場での感情推定を行う.\item{D【人手により作成された学習データに基づく感情推定モデルの構築】}\\テキスト中に含まれる要素と生起感情との因果関係を付与することで,大量の学習データを作成する試みとして,\cite{tokuhisa}らの研究がある.この研究では,対話文コーパスに対し,人物の生起感情(感情クラス)以外に,感情生起要因や感情強度などのタグを付与した大規模コーパスを構築し,感情推定への応用を目標としている.\item{E【結合価パターンへの感情生起の付与】}\\\cite{TanakaTsutom}らは,文を構成する用言と格要素(名詞+助詞)の意味的用法を体系化した結合価パターン(文型パターン)に対し,生起する感情の種類と,生起要因,生起主体などを記述した辞書の構築を行っている.\end{itemize}手法A,Cでは,いずれも文中に出現する単語が示す感情的な意味に着目し,文の感情判定や単語の感情極性判定に利用している.\cite{Kobayashi},\cite{Fujimura},\cite{Nasukawa}などは,単語にpositive,negativeの二極指標を与えることによって評価表現の判定を行っているが,我々人間は,会話において発話内容から快か不快かの単純な感情のみならず,「喜怒哀楽」に代表されるような複雑な感情を理解することができる.したがって,より複雑な感情を推定するためには,語の感情的意味の範囲を快/不快からさらに広げて考慮すべきであると考える.手法Bでは,文末の様相などの情報から,最終的には複数の感情を推定することが可能である.また,手法Dや手法Eでは,文型や文脈を考慮することにより,多くの複雑な感情を推定することを目標としている.これらの研究から,会話文には語の感情的意味のみからでは判定できないような文が多く,そのような文に対しては,文全体,複数の文からなるテキストが示す感情的意味からの感情推定手法が必要であることが分かる.本研究では,感情を表す語や表現を収集・分類し,感情辞書を構築した.さらに,感情表現の文型パターンを収集し,パターンごとに感情生起のルールを作成することで,話者が生起している感情を推定する手法を提案する.
\section{提案手法}
文中の格要素や述語をfeatureとして機械学習によるポジティブまたはネガティブの推定を行う研究\cite{Takamura},\cite{Nasukawa},\cite{Kobayashi},\cite{Okanohara}は多数あるが,文型ごとに感情を対応付けし,ポジティブ・ネガティブ以外の感情(例えば「喜び」や「悲しみ」)を推定する研究は少ない.文型パターンへの感情生起に関する情報の付与は,\cite{TanakaTsutom}でも行われているが,情緒生起情報として感情の種類のほかに生起要因などの情報を付与している点や,格要素に当てはまる語に関わらず1つのパターンに対し1種類の感情生起を記述している点で,本研究とは異なる.また,本手法においては,文型が登録されていない文でも,感情を表す語や表現を登録しておくことによって,「感情表出発話」としての感情推定を行うことができる.本手法では,単体で感情を表現することが可能な単語を「感情語」と定義する.また,感情を表現するような慣用句(イディオム)を「感情イディオム」と定義する.感情語と感情イディオムの例を以下に示す.\begin{itemize}\item感情語(名詞)「楽しさ」,「恐ろしさ」,「憤慨」,「涙雨」\item感情語(形容詞)「あくどい」,「痛々しい」,「嬉しい」,「おぞましい」\item感情語(副詞)「嫌でも」,「思いの外」,「折悪しく」,「心置きなく」\item感情語(動詞)「喜ぶ」,「楽しむ」,「怒る」\item感情イディオム「へそを曲げる」,「耳にたこができる」,「心がはずむ」\end{itemize}\begin{figure}[b]\begin{center}\includegraphics[scale=0.26]{flowchart.eps}\caption{提案手法の流れ}\label{fig:flow}\end{center}\end{figure}本研究で提案する感情推定の大まかな流れを図\ref{fig:flow}に示す.まず,感情推定対象の発話テキスト(1発話ターン)が入力されると,前処理として文末などに含まれる不要な記号を削除し,文毎に分割を行う(Step1).この処理は,係り受け解析時に記号類が文末要素として判定されてしまうことを避けるために行う.また,このとき,記号「?」や「!」は疑問文判定や感嘆文判定に用いるため,モダリティの要素として抽出しておく.次に,前処理された文を係り受け解析する(Step2).係り受け解析には係り受け解析器の「南瓜」(CaboCha),\cite{cabocha2}を用いる.その後,文節ごとに格助詞の検出を行い,文の表層格の決定を行う(Step3).このとき,表層格要素はすべて述語(文末要素)に係るものとする.そして,抽出された格要素,修飾語,述語に感情語辞書を参照して感情属性を付与する(Step4).感情語辞書とは,感情語やイディオムを分類し,収録した辞書のことである.また,感情属性とは主に感情の種類を示す言葉であり,本手法では22種類の基本的な感情属性を定義している(表\ref{tb:ema}参照).辞書中には,感情語ごとに感情属性が1つ以上付与されている.次に,格要素や述語に係っている修飾語により,被修飾要素の感情属性の値の更新を行う(Step5).修飾語が感情属性を持たない場合は感情属性の値の更新は行わない.その後,感情生起事象文型パターンとの照合を行い(Step6),一致すれば,感情生起事象文とみなされ,感情生起ルールに基づいて感情属性値が与えられる.モダリティ要素が存在すれば,モダリティによる感情属性更新ルールに基づき,文全体の感情属性値を更新する(Step7).最後に,感情パラメータの計算を行い(Step8),感情推定結果として,複数の感情属性を候補として出力する.出力された各感情属性は強度を持ち(感情属性の値),大きいほどその感情が強く表れているとする.1つの発話に感情の種類が1つも付与されなかった場合は,感情推定結果として「無感情」が付与されたとする.以下,3.1節で「感情語・感情イディオム」について記述する.また,3.2節で「意味属性イメージ値」,3.3節で「感情生起事象文型パターン」について記述し,3.4節で「感情パラメータ」,3.5節で「修飾語とモダリティによる感情属性値の更新ルール」について記述する.また,3.6節では,全体の処理の流れを具体例を用いて説明する.\subsection{感情語・感情イディオム}本研究では,単体で感情を表すような単語(感情語)とイディオム(感情イディオム)をまとめた辞書を感情辞書として構築した.この辞書を参照し,文中に含まれる感情語と感情イディオムに対して感情属性値(各感情属性の有無)を付与する.感情語とその感情属性値の例を表\ref{tb:eword_ex}に示す.\begin{table}[b]\begin{center}\caption{感情語の感情属性値}\begin{tabular}{|c|c|}\hline感情語&感情属性値\\\hline\hline楽しさ&楽しみ(1.0)\\\hline恐ろしい&恐れ(1.0)\\\hline憤慨&怒り(1.0)\\\hline悲観する&悲しみ(1.0),不安(1.0)\\\hline\end{tabular}\label{tb:eword_ex}\end{center}\end{table}\begin{table}[p]\begin{center}\caption{22種類の感情属性の定義}\begin{tabular}{|c|p{12cm}|}\hline感情属性名&\multicolumn{1}{|c|}{定義}\\\hline\hline喜び&いいことがあって嬉しく思い,心がはずむような思いをすること.\\\hline期待&こうなりたい,こうなってほしい等,今よりも好ましくなるだろうその実現を願うこと.\\\hline怒り&腹がたつこと.我慢できない不快な気持ちを覚えたり,言動に表したりすること.\\\hline嫌悪&ある人や物事に対して不快な気持ちをもつこと.また,その気持ちを行動や態度に表す.\\\hline悲しみ&心が痛むこと.つらい気持ち.心がしめつけられる気持ち.\\\hline驚き&突然予測もしなかったようなことにであったりして,一瞬心臓が止まるような気持ちになる.また,今まで知らなかった(気づかなかった)ことが事実だと知らされ,普段の落ち着きを失ったり自分がうかつであることを思い知らされたりする.\\\hline恐れ&それに近づくと無事に済みそうもないと思われて避けたいと思う気持ち.また,何か嫌いなことが起こるのではないかという心配する.\\\hline受容&社会や個人が受け入れて自分のものとして取り込むこと.心が広く,人をよく受け入れ,過ちなども許すようなことに近い意味.\\\hline恥&自分の欠点や失敗などを恥ずかしく思うこと.\\\hline誇り&自分のこと,または自分の立場に自信をもち,名誉に感じること.\\\hline感謝&誰か(何か)に対してありがたいと思うこと.\\\hline平静&何も感情が起こっていない状態.\\\hline賞賛&相手のことを褒め称える気持ち.\\\hline軽蔑&相手のことをを劣っているものとして見下す気持ち.\\\hline愛&対象をいつくしみ,大切にしたいと思う気持ち.\\\hline楽しみ&現在の状況を楽しいと思い,心が浮かれている状態.\\\hline興奮&ある物事に対して心を動かされ,気が昂ぶっている状態.\\\hline後悔&過去に起こった出来事に対し,悔しがる気持ち.\\\hline安心&不安や心配が無く,心が安らいでいる状態.\\\hline不安&悪い結果になるのではないかと思って心が落ち着かない状態.\\\hline尊敬&相手を自分より優れていると思い,尊び,敬う気持ち.\\\hline好き&誰か(何か)を好きだと思う気持ち.\\\hline\end{tabular}\label{tb:ema}\end{center}\vspace{\baselineskip}\begin{center}\caption{基本13感情}\begin{tabular}{|p{1.3cm}|p{1.3cm}|p{1.3cm}|p{1.3cm}|p{1.3cm}|}\hline怒り&期待&不安&嫌悪&楽しみ\\\hline恐れ&喜び&平静&受容&−\\\hline後悔&尊敬&悲しみ&驚き&−\\\hline\end{tabular}\label{tb:13kind}\end{center}\end{table}感情語と感情イディオムに対して付与する感情属性として定義した22種類の感情属性とその定義を,表\ref{tb:ema}に示す.ここで,この22種類を初期感情属性として定義した過程について述べる.まず,感情の種類を定義するにあたって,Plutchik\cite{Plutchik}の定義した基本8感情に,「尊敬」「楽しみ」「不安」「後悔」の4感情と「平静」を加えた13感情を基本13感情として定義した(表\ref{tb:13kind}参照).次に,日本語語彙大系の一般名詞属性体系中の感情に関する語彙を調べ,13感情に当てはまらず,新たな感情として定義可能であるものを分類し,抽出していったところ,全部で表\ref{tb:ema}に示す22種類となった.また,感情語や感情イディオムの中には,この22種類の感情のどれにも当てはまらなかったり,他に適切な感情の種類が考えられる語(例.語:「やけくそ」→感情:「自暴自棄」)もあり,これらを強制的に22種類中のどれかに分類することは好ましくないと考えたため,付与する際はこの22種類以外の感情属性も許容し,新たな感情属性定義の作成を行うこととした.新たに追加された感情属性の一部を表\ref{tb:newema}に示す.\begin{table}[b]\begin{center}\caption{新たに追加された感情属性の例}\begin{tabular}{|p{1.4cm}|p{1.4cm}|p{1.4cm}|p{1.4cm}|p{1.4cm}|p{1.4cm}|}\hline憤り&非難&当惑&可笑しさ&失望&畏怖\\\hline憎しみ&悔しさ&呆れ&嫉妬&罪悪感&自暴自棄\\\hline羨望&恨み&興味&淋しさ&倦怠感&ためらい\\\hline不平不満&焦燥感&憂鬱&自信&無力感&不審\\\hline憧れ&—&—&—&—&—\\\hline\end{tabular}\label{tb:newema}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{感情属性の分類}\begin{tabular}{|c|p{11.5cm}|}\hline正感情属性&期待,感謝,賞賛,喜び,好き,愛,楽しみ,誇り,受容,安心,尊敬,可笑しさ,自信,憧れ\\\hline負感情属性&怒り,不安,軽蔑,嫌悪,恐れ,後悔,悲しみ,恥,憤り,非難,当惑,失望,憎しみ,悔しさ,呆れ,嫉妬,罪悪感,恨み,淋しさ,倦怠感,ためらい,不平不満,焦燥感,憂鬱,無力感,不審,自暴自棄\\\hline\end{tabular}\label{tb:emotion_pn}\end{center}\end{table}これらの感情属性は,ポジティブまたはネガティブに分類できるので,表\ref{tb:emotion_pn}に示すような定義を行った.感情辞書の構築作業は,抽出対象である日本語語彙大系\cite{jlexicon},感情表現辞典\cite{Nakamura},分類語彙表\cite{bunrui}に含まれる単語(副詞,形容詞,名詞,感動詞,動詞など)と,イディオムから,「単独で感情を表現できる語,イディオムならば抽出」を抽出基準として,作業者1人により抽出した.さらに,抽出された語とイディオムに対して感情属性(感情の種類)を付与する作業を作業者1人が人手により行った.例えば,「怒り」を単独で表現可能な語として「憤慨」や「憤激」,イディオムでは「腹を立てる」のような表現を抽出する.各単語,イディオムに付与する感情属性については作業者自身の判断に任せた.具体的には,感情語(名詞,動詞)と感情イディオムは,主に日本語語彙大系,感情表現辞典,分類語彙表などの辞書からの抽出を行った.日本語語彙大系から抽出した名詞は,一般名詞体系の「精神」以下に含まれる単独で感情を表現できる語である.また,感情表現辞典からは,辞典中で定義されている10種類+複合感情に分類されている全ての単語,イディオム(感情表現)を抽出した.分類語彙表からは,【2.3000心】〜【2.3042欲望・期待・失望】に含まれる語から抽出した.さらに,形容詞と副詞における感情語は,「現代形容詞用法辞典」\cite{adjective}と「現代副詞用法辞典」\cite{adverb}からの抽出を行った.抽出基準としては,辞典中に感情的な暗示が記されている単語を抽出した.具体的には,辞典中の解説文と用例を参照しながら,単語1つ1つに対し暗示されている感情などを初期定義の22種類の感情に当てはまるかどうかを判断しながら抽出を行った.また,22種類の感情には当てはまらないが,その単語が感情を表す言葉であると判定できるものは抽出し,後に新たに感情属性の定義を行うこととした.品詞ごとの感情語と感情イディオムの総数を表\ref{tb:eword}に示す.\begin{table}[t]\begin{center}\caption{感情語・感情イディオムの総数}\begin{tabular}{|p{2cm}|p{2cm}|p{2cm}|p{2cm}|p{2cm}|p{2cm}|}\hline副詞&形容詞&名詞&動詞&感動詞&イディオム\\\hline4890&1834&1438&937&81&582\\\hline\end{tabular}\label{tb:eword}\end{center}\end{table}また,1つの語,またはイディオムに複数の感情属性を付与しても良いこととした.さらに,追加した感情属性については,全ての単語への感情属性付与作業が終了してから見直しを行い,単語への感情属性の追加・修正を行った.\subsection{意味属性イメージ値}\begin{table}[b]\begin{center}\caption{意味属性イメージ値}\begin{tabular}{|r||l|r|}\hline意味属性番号&意味属性名&イメージ値\\\hline\hline120&のけ者・じゃま者&-1\\\hline196&弱虫&-1\\\hline199&働き者&1\\\hline200&怠け者&-1\\\hline669&反吐〔へど〕&-1\\\hline1141&善&1\\\hline1142&悪&-1\\\hline\end{tabular}\label{tb:image_sem}\end{center}\end{table}日本語語彙大系における一般名詞に関して,意味属性に対するイメージ値として,正か負の値を付与した.正,負のどちらのイメージも持たないような意味属性にはイメージ値として0を付与した.意味属性のイメージ値の例を表\ref{tb:image_sem}に示す.名詞は属している意味属性のイメージ値を持つことになる.なお,1つの名詞が複数の意味属性に属する場合,イメージ値は0と判定する.一般名詞の意味属性の総数は2715あり,そのうち162種類に正のイメージ値,273種類に負のイメージ値を付与した.この方法によって感情辞書に含まれていない一般名詞に対してのイメージ値の付与を行う.なお,感情辞書に含まれる一般名詞は,付与されている感情属性の種類(正感情属性または負感情属性)によってイメージ値が決まる.イメージ値は,感情語や感情イディオムが含まれない場合(含まれている語から感情属性値が得られない場合)に,モダリティとの組み合わせにより感情の種類を判定するために用いる.具体的には,負のイメージ値を持つ語と不確定(未確認)の様相を持つモダリティが共起している場合,「不安」という感情を生起させ,逆に正のイメージ値を持つ語に不確定の様相を持つモダリティが共起する場合には「期待」という感情を生起させるという処理を行う.表\ref{tb:imvrule}に,意味属性イメージ値とモダリティの共起ルールを示す.例えば,文末に「悪者でしょう」という表現が含まれる場合,意味属性「悪者」と不確定様相と判定される「〜でしょう」とが共起していると判定し,(負の意味属性に属する語)+(不確定様相)となり,「不安」を生起する.\begin{table}[t]\begin{center}\caption{意味属性イメージ値とモダリティの共起ルール}\begin{tabular}{|c|c|c|}\hline意味属性イメージ値&モダリティ&生起感情\\\hline\hline正&不確定(未確認)様相&期待=0.5\\\hline負&不確定(未確認)様相&不安=0.5\\\hline\end{tabular}\label{tb:imvrule}\end{center}\end{table}\subsection{感情生起事象文型パターン}本研究では,感情を生起すると考えられる感情動作や感情状態を記述した文を,感情生起事象文と定義する.感情生起事象文に当てはまる文のパターンに,感情生起主体がどういった感情を生起しているかを付与したものを感情生起事象文型パターン辞書として構築する.\begin{table}[t]\begin{center}\caption{感情生起事象文型パターンの例}\footnotesize\renewcommand{\baselinestretch}{}\selectfont\begin{tabular}{|l|l|p{3cm}|c|}\hline\multicolumn{2}{|c|}{文型パターン}&\multicolumn{1}{|c|}{生起感情($E_s$)}&感情生起主体($N_s$)\\\hline\hlineN1[3]-に|N2[1000]-を|遣る気-が&ある&期待&N1\\\hlineN1[4]-が&慌てる&驚き&N1\\\hlineN1[1253]-が|N2[41,238]-に&込み上げる&N1の感情属性&N2\\\hlineN1[4]-が&いじける&悲しみ\&嫌悪&N1\\\hlineN1[4]-は|N2[2415,*]-に/で|頭-が&痛い&不安\&嫌悪&N1\\\hlineN1[4]-が|N2[*]-で/に&泣く&if(N2が負感情属性)$E_s=悲しみ$&N1\\&&if(N2が正感情属性)$E_s=喜び$&\\\hlineN1[3]-が|N2[1000]-を|胸-に&抱く&期待&N1\\\hlineN1[4]-が|N2[1000]-に/で|胸-を&痛める&悲しみ&N1\\\hlineN1[3]-が|N2[3]-に|迷惑-を&掛ける&嫌悪&N2\\\hlineN1[4]-が|N2[1000]-で|落ち着き-を&失う&驚き&N1\\\hlineN1[*]-が|N2[4]-に&嬉しい&喜び&N1\\\hlineN1[410,11,235]-が|N2[4]-の|不意-を&襲う&驚き&N2\\\hlineN1[4]-は|気-が&重い&不安&N1\\\hlineN1[*]-が|N2[4]-に&思いがけない&驚き&N1\\\hlineN1[3]-が|N2[*]-に/より|頭-を&抱える&不安&N1\\\hlineN1[4]-が|N2[*]-を|鼻-に&掛ける&誇り&N1\\\hlineN1[4]-は|N2[1000]-が&悲しい&悲しみ&N1\\\hlineN1[4]-が|N2[4]-の|鼻-を&折る&恥&N2\\\hlineN1[3]-は|N2[1000]-が&悔しい&後悔&N1\\\hlineN1[*]-が|N2[3,535]-に&怖い&恐れ&N1\\\hlineN1[43,885,341]-が&寂しい&悲しみ&N1\\\hlineN1[4]-が|N2[*]-に&痺れる&興奮&N1\\\hlineN1[3]-が|N2[*]-を&自慢|する&誇り&N1\\\hline\end{tabular}\label{tb:patterns}\end{center}\end{table}具体的には,感情生起事象文型として,日本語語彙大系\cite{jlexicon}に収録されている用言意味属性から「感情動作」と「感情状態」に属する用言パターン1615種類(感情状態275,感情動作1340)を基本感情生起事象文型パターンとして抽出し,感情の種類と感情生起条件を付与した.(各文型パターンには文中の格スロットに入る名詞の意味属性制約が設定されている.)感情生起条件には,感情生起の主体を定義している.例えば,「N1-がN2-に怯える」という感情生起事象ならば,事象の主体であるN1が「恐れ」という感情を生起していることを定義する.また,格スロットに入る単語によって異なる感情が生起するような場合には,単語の意味制約(好感度やイメージ値,感情属性値など)による条件も付加した.表\ref{tb:patterns}に,感情生起事象文型パターンと,生起感情,その生起主体の例を示す.文中において感情生起主体が省略されている場合などは,話者を感情生起主体とみなして感情推定を行う.しかし,話者以外の人物が感情生起主体の場合には,他者の感情生起に対する話者の感情生起を推定する必要がある.この場合,話者と他者との関係(社会的地位や親密度)などの違いによって生起する感情が異なってくる.そこで,本手法では,各感情生起事象文型パターン毎に感情生起主体の感情生起条件のみを記述し,入力文中の感情生起主体が話者であると判定したときのみ,感情生起事象として感情生起条件を適用し,話者の感情推定を行う.入力文が感情生起事象文型パターンに当てはまるかどうかの判定条件として,述語の一致を用いる.述語が入力文のものと一致する文型パターンを,その文の感情生起事象として採用する.さらに,述語が一致する文型パターンが複数存在するとき,文中に含まれる単語の意味属性類似度を選択の基準とする.具体的には,文における単語意味属性類似度の和の平均値が最大値をとる文型パターンを採用することにする.単語意味属性類似度は各単語の,日本語語彙大系で定義されたシソーラスにおける意味属性により求めることができる.単語意味属性の類似度を求める式を式\ref{eq:sim}に示す.\begin{equation}\label{eq:sim}単語意味属性類似度\\sim(W_i,N_i)=\frac{(共通の親のシソーラスの根からの深さ)*2}{W_iとN_iのシソーラスの根からの深さの和}\end{equation}$W_i$は文中の格要素の単語の意味属性を表しており,$N_i$は,文型パターン中の格スロットに付与されている意味属性を示す.式\ref{eq:conc}に,文における単語意味属性類似度の平均値($AVG_s$)を求める式を示す.式\ref{eq:conc}中の$n$は,文型パターン中の格スロット数を表す.式\ref{eq:conc}中のそれぞれの格要素ごとの類似度$sim(W_i,N_i)$は,\cite{Kawahara}らの格フレーム類似度の算出で用いられている方法と同様に,ある単語が複数の意味属性に属する場合には,単語意味属性類似度が最大の意味属性を採用することにする.\begin{equation}\label{eq:conc}AVG_s=\frac{\sum^{n}_{i=0}sim(W_i,N_i)}{n}\end{equation}また,格スロットに具体的な単語が設定されている場合(「N1-が大志-を抱く」の「大志」など),その単語に一致すれば類似度を1,一致しない場合には類似度を0とする.以下,述語が一致する場合の文型パターンの照合処理から感情生起条件適用までの流れについて述べる.\begin{enumerate}\item入力文中の,モダリティ要素などを取り除いた述語が一致する文型パターンを検索し,該当するものが複数ある場合は,式\ref{eq:conc}により値$AVG_s$を求め,最大値をとる文型パターンを採用する.\item採用した文型パターンに付与されている感情生起条件を適用する.各格要素の人物判定には話者ごとに自身または他者の呼び名を記述した人物辞書が必要であるが,文中で代名詞を用いている場合には,意味属性が「対称」なら対話相手,「自称」なら話者自身,その他ならば他の人物(あるいは物)であると判定する.\item感情生起条件に一致すれば,その感情が感情生起主体に生起していると推定される.以下,感情生起主体が話者の場合は(4),それ以外の場合は(5)のように処理される.\item感情生起主体が話者であれば,採用された文型パターンに付与されている感情生起条件に基づき,話者の感情を推定する.このとき,推定された話者の感情は,3.4節で述べる感情パラメータ計算において述語の感情属性値ベクトルとして計算される.\item感情生起主体が話者以外であれば話者以外の感情生起とみなし,これを保持し,3.5節で述べるモダリティの感情属性値更新ルール(動作主体が話者以外)に当てはまる場合に,話者の感情が推定される.また,(4)と同様,推定された感情は述語の感情属性値ベクトルとして計算される.\end{enumerate}述語が一致せず,感情生起事象として判定されない場合には感情表出発話文とみなし,次節で述べる感情パラメータを計算することによって話者の感情推定が行われる.\\\subsection{感情パラメータ}感情表出発話文には感情を表す単語やイディオムが含まれていることが多い.そこで,本手法では,文に含まれる感情語や感情イディオムからその文における話者の感情表出の程度を計算する.まず,文に含まれる各感情の強度を示す値として感情属性値を定義する.また,文から計算される感情の値として感情パラメータを定義する.感情パラメータとは,文中の格要素に付与された感情属性値を感情の種類ごとに合成したものを指す.また,感情パラメータは,$(感情属性の種類数)*(文中の格要素数+1)$の感情属性値ベクトルで表現する.感情辞書で照合した語やイディオムに,複数の感情属性が付与されている場合には,その全ての種類が感情パラメータ計算式に代入されることになる.各感情パラメータは,0か正の値をとる.\begin{equation}\label{eq:ea}EA=\sum^{n-1}_{i=0}ea_{i}*w_i+ea_p*w_p\end{equation}式\ref{eq:ea}は,文の感情パラメータ計算式であり,式\ref{eq:ea}における$ea_{i}$は,感情属性値ベクトルを表し,$w_i$は,各格要素ごとの重みを表す.また,$ea_p$は述語の感情属性値ベクトルで,$w_p$は述語への重みを表す.1発話中の感情パラメータは1文ごとに計算されるが,感情は記憶の一種であり,発話中において記憶と同じように忘却されていくであろうという考えに基づき,エビングハウスの提案した忘却曲線\cite{eb}の近似式を用いることにより,同一発話テキスト中の前の文から計算されたパラメータとの合成を行う.感情パラメータ合成の計算式を式\ref{eq:ep}に示す.式中の$EA_n$は,観測中の文から得られた最新の感情属性値ベクトルを表し,$EA_t$は,それまでに計算された感情属性値ベクトルを表す.\begin{equation}\label{eq:ep}EP=EA_n+\sum^{n-1}_{t=0}\frac{1}{(n-t+\frac{1}{n})^{(n-1)}}*EA_t\end{equation}また,それぞれの感情パラメータを計算する際,感情属性値の値に掛ける重みは,格要素の種類ごとに異なる.主体・客体に好感度またはイメージ値がある場合にはそれを考慮して重みが決定される.心理学の分野では,人間はプラスイメージの対象を優先して評価する場合が多いことがS-V-Oポジティビティ\cite{Inomata}として知られている.そこで,正のイメージ値,または感情属性を持つ要素ほど重みを大きくする,格要素ごとの重みを決定するルールを定義する.表\ref{tb:svoBias}に示すように,主体への重みを$w_s$,客体への重みを$w_o$とし,その値を定義した.また,述語への重み$w_p$は1.5とする.本手法では,表層格決定処理時に深層格決定は行わないが,主体,客体は,表層格の種類(ガ/ハ格,ヲ格)と当てはまる語の意味属性(人物,事物)から判定を行う.\begin{table}[t]\begin{center}\caption{格要素重み決定ルールの一部}\begin{tabular}{|r|c|c|}\hline\multicolumn{1}{|c|}{格要素の種類}&格要素の好感度(イメージ値)&重み\\\hline\hlineガ/ハ格(人物)[主体(Subject)]&正&$w_s=1.4$\\\hlineガ/ハ格(人物)[主体(Subject)]&0&$w_s=1.0$\\\hlineガ/ハ格(人物)[主体(Subject)]&負&$w_s=0.5$\\\hlineヲ格(人物/事物)[客体(Object)]&正&$w_o=1.2$\\\hlineヲ格(人物/事物)[客体(Object)]&0&$w_o=0.7$\\\hlineヲ格(人物/事物)[客体(Object)]&負&$w_o=0.3$\\\hline\multicolumn{1}{|c|}{その他の格}&正&$w_{other}=0.7$\\\hline\multicolumn{1}{|c|}{その他の格}&0&$w_{other}=0.5$\\\hline\multicolumn{1}{|c|}{その他の格}&負&$w_{other}=0.4$\\\hline\end{tabular}\label{tb:svoBias}\end{center}\end{table}感情パラメータ計算により,述語が感情生起事象文型パターンに当てはまらない場合にも,感情語と感情イディオムを含んでいる文(感情表出発話文)からの感情推定を行うことが可能となる.また,述語が感情生起事象文型パターンに当てはまり,話者の感情が推定されている場合には,その推定感情の種類と値を述語の感情属性値ベクトルとした上で,感情パラメータを計算する.(この場合,感情属性付与処理において述語単体に付与された感情属性は考慮しない.)\subsection{修飾語とモダリティによる感情属性値の更新ルール}文中の格要素や述語を修飾する語が存在する場合,それらが被修飾要素の感情属性値の増減や変化に関わることをルールとして定義した(表\ref{tb:shushoku}).修飾語,または修飾句のタイプによって,被修飾要素の感情属性への変化の与え方が異なる.本手法では,「直接修飾型」と「程度変化型」の修飾語を定義する.修飾語が直接修飾型である場合,被修飾要素の感情属性の有無に関わらず,修飾語の感情属性に書き換えられることとする.これは,直接修飾型に分類されるような形容詞や副詞などは,感情に大きく影響を与えるものと考えたためである.例えば,「美しい」などの直接修飾型の形容詞によって「花子」という語が修飾されるとすると,被修飾要素「花子」に付与されている感情属性は打ち消され,修飾要素「美しい」の持つ感情属性「賞賛」に書き換えられることになる.一方,被修飾要素の感情属性値の大きさに変化を与えるのが程度変化型の修飾語である.表\ref{tb:shushoku}に示すように,程度の違いによって「強め」,「弱め」に分類した.このタイプに分類される修飾語は主に副詞である.\begin{table}[b]\begin{center}\caption{修飾語による感情属性値更新ルール}\begin{tabular}{|l|l|l|}\hline\multicolumn{2}{|c|}{修飾語の種類}&\multicolumn{1}{|c|}{更新処理}\\\hline\hline直接修飾型修飾語&\multicolumn{1}{|c|}{修飾語の例}&\multicolumn{1}{|c|}{被修飾語の感情属性値を書き換え}\\\cline{2-3}&悲しい(感情属性値=“悲しみ”)&感情属性値を“悲しみ”に書き換え\\\cline{2-3}&楽しい(感情属性値=“喜び”)&感情属性値を“喜び”に書き換え\\\cline{2-3}&美しい(感情属性値=“賞賛”)&感情属性値を“賞賛”に書き換え\\\hline\hline程度変化型修飾語&\multicolumn{1}{|c|}{修飾語の例}&\multicolumn{1}{|c|}{被修飾語の感情属性値の強度を増減}\\\cline{2-3}&とても,かなり,すごく,...(強め)&被修飾語の感情属性値に1.2を掛ける\\\cline{2-3}&少し,ちょっと,あまり,...(弱め)&被修飾語の感情属性値に0.9を掛ける\\\hline\end{tabular}\label{tb:shushoku}\end{center}\end{table}これらの修飾語のタイプの判定のために,感情辞書とは別に,形容詞と副詞を上記の2タイプに分類した修飾語辞書を準備した.この辞書には程度の値なども記述している.また,修飾語には,上で述べた2つのタイプのものと,文のモダリティの変化に影響するものがある.例として,「おそらく,雨が降るだろう」のように,「おそらく」という副詞には「未来」や「予測」という暗示があり,文末の「だろう」という予測の意味を持つ表現を伴うことが多い.よって,副詞には文末の様相と同様のはたらきを持つものも存在するので,修飾語辞書にモダリティとしての属性(モダリティの種類)の登録も行っておく.また,モダリティを文全体の感情属性値に影響させるルールを定義した.基本ルールとして,不確定様相や過去様相なら,感情属性値を減少させる.モダリティの種類ごとに不確定の度合い(やや弱い不確定=0.2,不確定=0.4,やや強い不確定=0.6)を不確定の程度値として定義する.具体的には,文の感情属性値ベクトルに$(1.0-不確定の程度値)$を掛ける処理を行う.この1.0という値は基準値であり,確定している事象であれば不確定の程度値が0.0ということであるから,文の感情属性値ベクトルは減少しないことになる.一方,不確定の程度が高くなるほど文の感情属性値ベクトルが減少する.\begin{table}[b]\begin{center}\caption{モダリティによる感情属性値更新ルール}\begin{tabular}{|c|p{4cm}|p{7cm}|l|}\hline種類&文末例&\multicolumn{2}{|c|}{条件と更新処理}\\\hline\hline許可&V-てよい,V-てかまわない&$Em(V)\geq0\and\Sbj=“話者”$&期待(+0.5)\\\cline{3-4}&&$Em(V)\geq0\and\Sbj=“他者”$&受容(+0.5)\\\hline禁止&V-てはいけない,V-な&$Em(V)\geq0\and\Sbj=“話者”$&不安(+0.5)\\\cline{3-4}&&$Em(V)<0\and\Sbj=“他者”\and\Asp=“乱暴”$&嫌悪(+0.5)\\\hline依頼&V-てくれ&$Em(V)\geq0\and\Sbj=“他者”$&期待(+0.5)\\\hline希望&V-たい,V-てほしい,V-てもらいたい&$Em(V)\geq0$&期待(+0.5)\\\hline恩恵&V-てもらう,V-てくれる&$Em(V)\geq0\and\Sbj=“他者”$&感謝(+0.5)\\\hline恩恵&V-てあげる&$Em(V)\geq0\and\Sbj=“話者”$&受容(+0.5)\\\hline\end{tabular}\label{tb:modality}\end{center}\end{table}不確定様相とは,述べられている事象がまだ未実施である場合や,未確認であるような場合に用いる表現を指す.一方,過去様相(確認様相)は既に過去に確認済みの事象の場合に用いる表現を指す.他に,モダリティの種類(「許可」,「禁止」,「依頼」など)ごとに,表\ref{tb:modality}に示すような感情属性値更新ルールを定義した.表\ref{tb:modality}中の$Sbj$は,動作主体を表す.本研究では,モダリティの持つ属性として「確認/未確認(Asc)」,「時制(Time)」,「態度(Asp)」を定義する.表\ref{tb:modality}中の$Em$は,述語の感情属性が正感情属性か負感情属性かを判定する関数である.式\ref{eq:emfunc}に関数の定義を示す.$sign$は符号関数を表す.また,$ea_i$は,述語動詞(V)の感情属性値を表し,\pagebreak関数$em$は感情属性ごとの正負を判定するものである.\begin{equation}\label{eq:emfunc}Em(V)=sign\left(\frac{\sum^{n}_{i=0}em(ea_i)}{n}\right)\end{equation}\subsection{感情推定の例}ここで,(a)「私が優しい花子の言葉に感謝するだろう.」という文(発話テキスト)から感情推定する例を各ステップごとに示しながら処理の流れを説明する.\begin{figure}[b]\begin{center}\includegraphics[scale=0.23]{Step5-fig.eps}\caption{Step5修飾語による感情属性更新処理}\label{fig:step5}\end{center}\end{figure}\newcommand{\StepLabel}[1]{}\StepLabel{〈Step1〉}まず,入力された発話テキスト(a)を「.」や「!」などの句点に基づき,文毎に分割を行う.(a)は1文のみで構成される発話テキストなので,分割処理は行われない.また,(a)には「?」(疑問符)や「!」(感嘆符)のような記号や,その他の記号は含まれないと判定される.\StepLabel{〈Step2〉}次に,南瓜による係り受け解析を行う.具体的には,〈Step1〉で分割された一文ごとに解析を行う.\StepLabel{〈Step3〉}係り受け解析された結果に基づいて,表層格決定処理が行われる.(a)では,ガ格は「私」,ニ格は「言葉」,述語は「感謝する」と決定される.また,ニ格に係る修飾句として「優しい花子の」が抽出される.ここで,述語に付属している文末表現は,モダリティ要素として抽出しておく.\StepLabel{〈Step4〉}次は,文中の語と感情辞書との照合を行う.具体的には,格要素ごとに感情属性が含まれるかどうかを判定する.ここで,図\ref{fig:step5}に示すように,感情語として登録されている「優しい」に感情属性「賞賛」が付与される.係り受け関係から,ニ格への修飾句「優しい花子」となり,これが感情属性「賞賛」を持つことになる.また,修飾型は「優しい」のものをそのまま継承して「直接修飾型」となる.\StepLabel{〈Step5〉}ここで,修飾語による感情属性値の更新ルールが適用される.(a)の場合,修飾句「優しい花子」が「言葉」に係り,ニ格の感情属性値は上書きされ,「賞賛=1.0」となる.\StepLabel{〈Step6〉}次に,文型パターンの照合処理が行われるが,(a)の場合,文型パターン「N1-がN2-に感謝する」に一致し,生起主体=「私」であり,(a)から推定される感情は話者の生起感情となる.そして,文型パターンに付与されているルールに基づき,述語感情属性として「感謝=1.0」が付与される.\StepLabel{〈Step7〉}文中にモダリティがあるかどうかの判定が行われる.(a)に含まれる推定のモダリティ「だろう」により,文感情属性値の更新が行われる.この「だろう」の不確定の度合いが「やや弱い不確定」であれば,不確定値は0.2となり,文感情属性値ベクトルに$(1-0.2)$を掛け合わせることで,結果として,{$賞賛=0.8,感謝=0.8$}という感情属性値が得られる.\StepLabel{〈Step8〉}最後に感情パラメータの計算が行われるが,発話テキスト中の文が1文のみなので,式\ref{eq:ea}により,\\$EP=EA=\{感謝=0.8*1.5,賞賛=0.8*0.7\}$\\という計算が行われ,話者の生起感情として,{感謝=1.2,賞賛=0.56}という結果が出力される.
\section{評価実験1}
\begin{figure}[b]\begin{center}\includegraphics[scale=0.57]{14-3ia13f3.eps}\caption{実験システムの構成}\label{fig:structure}\end{center}\end{figure}本手法の有効性を評価するために,実験用の感情推定システムを構築し,連続する会話文の感情推定実験を行った.プロトタイプシステムの構成を図\ref{fig:structure}に示す.システムは,大きく分けて文解析モジュール,感情推定モジュール,感情文蓄積モジュール,推定結果比較モジュールの4つの部分からなる.入力された発話テキストデータは文解析モジュールでCaboCha(CaboCha)により係り受け解析され,表層格の決定が行われる.次に,感情推定モジュールで感情推定処理が行われ,感情文蓄積モジュールにおいて入力発話テキストは感情推定結果と共にデータベースに蓄積される.その後,推定結果比較モジュールにおいて人手により付与された正解感情(人手による正解感情)との比較が行われ,各発話テキストごとの評価結果が出力される.\subsection{評価方法}評価は,人が判断した話者の感情と,システムが推定した結果との比較により行った.正解として,シナリオ会話文に正解とする感情を人手により付与したものを用いた.今回,人手による解を作成するにあたり,システム構築と感情辞書構築に関与していない5人の学生に対して,1シナリオずつを分担して行った.人手による解の作成者は,文脈を理解しながら割り当てられたシナリオを読み,シナリオ中の全発話に対して1発話ごとに選択候補(感情語,感情イディオムに付与された割合の高かった感情属性の上位45種類)の中から話者の生起している感情として考えられる数種類を選択する.付与の際,選択候補中に適するものが無いと判断した場合に,新たに感情の種類を自由入力できるようにした.また,感情が生起していないと判断したものについては「平静」を付与するように指示した.作成者が自由入力し,追加された感情で,感情辞書中に含まれていなかったものとして,以下に示すようなものがあった.\begin{itemize}\item嫌味,不思議,苛立ち,納得,同意,同情,否定,からかい,心配,満足,あわれみ,切望,緊張\end{itemize}\subsection{対象データ}対象とする文は,Webサイトから収集した連続する会話文から構成される5種類の演劇用台本から抽出したシナリオ文章(合計1774発話)である.各シナリオについてのデータを表\ref{tb:scenario-info}に示す.シナリオ会話文は,あらかじめ各話者の発話(ターン単位)ごとに分割しておいた.これらの発話の単位を1発話テキストと定義した.\begin{table}[b]\begin{center}\caption{シナリオに関するデータ}\begin{tabular}{|c|c|c|}\hlineシナリオ番号&発話テキスト数&登場人物数\\\hline\hline1&589&2\\\hline2&523&5\\\hline3&361&4\\\hline4&165&2\\\hline5&136&4\\\hline\end{tabular}\label{tb:scenario-info}\end{center}\end{table}\subsection{実験結果}システムは,1発話テキストごとの推定結果として複数の感情属性を出力する.出力結果の例を,表\ref{tb:sample}に示す.今回,感情推定結果と,人手による正解感情とを比較することで提案手法の有効性の評価を行ったが,評価にあたり,解の作成者ごとの感情の種類の認識の差を考慮するため,感情属性の種類の大まかな分類(感情属性の大分類)を表\ref{tb:lclass}に示すように定義した.正しいもの(人手による正解感情と完全一致)は○,完全に正しいとはいえないが,間違いではないと判断できるもの(完全には一致しないが,人手により付与された感情と同じ大分類に属するもの)は△,明らかな間違い(完全一致せず,人手による正解感情と同じ大分類にも属さないもの)であるものは×として定義した.また,感情推定結果として1発話に何も感情属性が付与されない「無感情」については,「平静」と同じ大分類に属するものとして評価を行うことにした.\begin{table}[t]\begin{center}\caption{出力結果の例}\begin{tabular}{|c|p{4.5cm}|l|}\hline\multicolumn{1}{|c|}{発話者}&\multicolumn{1}{|c|}{発話}&\multicolumn{1}{|c|}{推定結果}\\\hline\hlineM&来てくれたんだ.&安心=0.70\\\hlineF&ビックリしたよ.かぜだって聞いてたのに,入院なんて…&驚き=1.00,嫌悪=1.00\\\hlineM&あー,大したことないんだけど,こじらせちゃって.&興奮=1.00,否定=1.00,受容=1.00\\\hlineF&大したことないんだ?じゃあ心配して損したな.&期待=0.50,不安=1.00,嫌悪=1.00\\\hlineM&心配してくれたんだ.ゴメンね.&不安=0.33,嫌悪=1.03,恐れ=0.33\\\hline\end{tabular}\label{tb:sample}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{感情属性の大分類}\begin{tabular}{|c||p{9cm}|}\hline分類1&喜び,幸福,感謝,好き,愛,楽しみ,可笑しさ\\\hline分類2&憧れ,尊敬,賞賛,羨望,懐かしさ\\\hline分類3&怒り,非難,憤り\\\hline分類4&嫌悪,軽蔑,からかい,不快,倦怠感,焦燥感,憎しみ,恨み,不平不満,呆れ,焦燥,苛立ち,皮肉,厭味\\\hline分類5&悲しみ,失望,恥,無力感,憂鬱,淋しさ,哀れみ\\\hline分類6&恐れ,不安,ためらい,畏怖,不審\\\hline分類7&驚き,当惑,興奮,緊張\\\hline分類8&後悔,悔しさ,罪悪感,嫉妬\\\hline分類9&受容,納得,同意,同情\\\hline分類10&期待,興味\\\hline分類11&安心,満足\\\hline分類12&平静,無感情\\\hline\end{tabular}\label{tb:lclass}\end{center}\end{table}表\ref{tb:result1}に,実験の結果得られた感情属性ごとの評価結果を示す.表\ref{tb:result1}中の合計は,すべての発話において付与された感情属性の数を示す.\begin{table}[p]\begin{center}\caption{評価実験の結果}\renewcommand{\baselinestretch}{}\selectfont\begin{tabular}{|c||r|r|r|r|r|r||r|}\hline&\multicolumn{6}{c}{評価結果}&\\\hline感情の種類&\multicolumn{2}{|c|}{○}&\multicolumn{2}{|c|}{△}&\multicolumn{2}{|c||}{×}&合計\\\hline\hline喜び&24&3.5\%&654&96.5\%&0&0.0\%&678\\\hline誇り&0&0.0\%&0&0.0\%&2&100.0\%&2\\\hline平静&9&90.0\%&0&0.0\%&1&10.0\%&10\\\hline無感情&0&0.0\%&45&90.0\%&5&10.0\%&50\\\hline不安&28&6.8\%&384&93.2\%&0&0.0\%&412\\\hline恥&23&10.4\%&198&89.6\%&0&0.0\%&221\\\hline楽しみ&2&1.3\%&151&98.7\%&0&0.0\%&153\\\hline尊敬&0&0.0\%&66&100.0\%&0&0.0\%&66\\\hline好き&11&1.2\%&918&98.8\%&0&0.0\%&929\\\hline賞賛&0&0.0\%&117&100.0\%&0&0.0\%&117\\\hline受容&63&4.6\%&1296&95.4\%&0&0.0\%&1359\\\hline興奮&3&1.3\%&222&98.7\%&0&0.0\%&225\\\hline後悔&18&6.9\%&242&93.1\%&0&0.0\%&260\\\hline嫌悪&26&1.3\%&1973&98.7\%&0&0.0\%&1999\\\hline軽蔑&19&2.9\%&644&97.1\%&0&0.0\%&663\\\hline期待&52&5.8\%&840&94.2\%&0&0.0\%&892\\\hline感謝&24&9.4\%&231&90.6\%&0&0.0\%&255\\\hline悲しみ&0&0.0\%&218&98.6\%&3&1.4\%&221\\\hline驚き&33&11.1\%&263&88.9\%&0&0.0\%&296\\\hline恐れ&23&10.3\%&200&89.7\%&0&0.0\%&223\\\hline怒り&46&15.4\%&252&84.6\%&0&0.0\%&298\\\hline安心&3&0.6\%&465&99.4\%&0&0.0\%&468\\\hline愛&0&0.0\%&133&100.0\%&0&0.0\%&133\\\hline否定&0&0.0\%&0&0.0\%&322&100.0\%&322\\\hlineためらい&0&0.0\%&0&0.0\%&69&100.0\%&69\\\hline当惑&11&8.3\%&122&91.7\%&0&0.0\%&133\\\hline自暴自棄&0&0.0\%&0&0.0\%&22&100.0\%&22\\\hline呆れ&3&5.7\%&0&0.0\%&50&94.3\%&53\\\hline不審&10&13.7\%&63&86.3\%&0&0.0\%&73\\\hline無力感&3&2.4\%&124&97.6\%&0&0.0\%&127\\\hline幸福&0&0.0\%&62&100.0\%&0&0.0\%&62\\\hline罪悪感&0&0.0\%&30&93.8\%&2&6.3\%&32\\\hline可笑しさ&14&37.8\%&23&62.2\%&0&0.0\%&37\\\hline不平不満&4&7.4\%&50&92.6\%&0&0.0\%&54\\\hline倦怠感&11&10.6\%&93&89.4\%&0&0.0\%&104\\\hline憎しみ&0&0.0\%&0&0.0\%&72&100.0\%&72\\\hline憧れ&0&0.0\%&5&100.0\%&0&0.0\%&5\\\hline非難&42&19.4\%&174&80.6\%&0&0.0\%&216\\\hline\end{tabular}\label{tb:result1}\end{center}\end{table}また,それぞれの評価ラベルに対し,○(1.0),△(0.5),×(0.0)と重み付けを行い,各文の平均値を評価スコアとして算出した.評価スコアの算出方法を,式\ref{eq:score}に示す.$w_n$は,各評価ラベルに対する重みを表す.また,$C$はその発話文の推定結果として出力された(値が0より大きい)感情属性の数を表す.\begin{equation}\label{eq:score}各発話文ごとの評価スコア=\frac{\sum^{c-1}_{n=0}w_n}{C}\end{equation}評価スコアが0.5以上と判定されたものを正しく感情属性が付与された発話テキストとみなし,正解文として集計した結果,該当する文は1006文であり,全体の約57\%であった.評価スコアの詳細を表\ref{tb:result2}に示す.また,シナリオの種類ごとの成功率を表\ref{tb:result3}に示す.\begin{table}[b]\begin{minipage}{0.45\textwidth}\begin{center}\caption{評価スコア集計結果}\begin{tabular}{|l|r|}\hline評価スコア(score)&発話テキスト数\\\hline\hline0.9$\leq$score&0\\\hline0.8$\leq$score<0.9&0\\\hline0.7$\leq$score<0.8&76\\\hline0.6$\leq$score<0.7&99\\\hline0.5$\leq$score<0.6&831\\\hline0.4$\leq$score<0.5&66\\\hline0.3$\leq$score<0.4&178\\\hline0.2$\leq$score<0.3&200\\\hline0.1$\leq$score<0.2&117\\\hline0.0$\leq$score<0.1&207\\\hline\end{tabular}\label{tb:result2}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\caption{シナリオごとの成功率}\begin{tabular}{|c|r|}\hlineシナリオ番号&成功率\\\hline\hline1&53.5\%\\\hline2&58.7\%\\\hline3&57.9\%\\\hline4&54.4\%\\\hline5&62.4\%\\\hline\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\\\multicolumn{2}{c}{}\end{tabular}\label{tb:result3}\end{center}\end{minipage}\end{table}\subsection{誤り例}ここでは,評価実験の結果,感情生起事象文型パターンに当てはまらず,推定誤りとなった発話テキストについてその原因を考察し,対処方法について述べる.推定誤りの原因の内訳を表\ref{tb:error_rate}に示す.複数の原因が考えられる場合には,考えられる全ての原因を付与する.また,誤り原因の解析は,失敗とみなした発話テキスト(評価スコアが0.5より小さかったもの)に対して行った.\begin{table}[t]\begin{center}\caption{推定誤り原因}\begin{tabular}{|l|r|}\hline誤り原因&発話テキスト数\\\hline\hline文脈を判断できないことによる誤り&305\\\hline文型の未登録&61\\\hlineモダリティの未登録&60\\\hlineモダリティの照合失敗&76\\\hline感情語,感情イディオムの未登録,照合失敗&53\\\hlineその他(主体判定誤りなど)&26\\\hline\end{tabular}\label{tb:error_rate}\end{center}\end{table}以下,それぞれの原因による推定誤りの例を示し,感情推定結果との比較を行う.\begin{itemize}\item[(1)]文脈による誤り例\\\begin{itemize}\item[i]「それは,ちょっと.」\\\hspace{0.3cm}(推定感情):“無感情”\\\hspace{0.3cm}(人手による正解感情):“ためらい”\\\hspace{0.3cm}(誤り原因):文脈によるものに加え,文末要素が副詞になっており,述語が省略された形になっているため.述語には,否定的な言葉が当てはまると思われる.\begin{itembox}{文脈}話者(Y)「じゃあ,電話で言う.」\\話者(S)「いやぁ.電話はどうだろう.」\\話者(Y)「そう.じゃあメールで.」\\話者(S)「\underline{それは,ちょっと.}」\end{itembox}\item[ii]「全く.」\\\hspace{0.3cm}(推定感情):“無感情”\\\hspace{0.3cm}(人手による正解感情):“あきれ”\\\hspace{0.3cm}(誤り原因):文脈によって,「全く」の後に続く語が限定される.この場合,「全く」の後には相手を非難する言葉が続くと思われる.(相手に呆れてしまい,その先の言葉に詰まる状況)\begin{itembox}{文脈}話者(M)\\「嫌なら他の人に頼みなさいよ.」\\話者(F)\\「そりゃちょっと気が引ける…」\\話者(M)\\「私ならいいわけ?」\\話者(F)\\「もう習慣みたいなもんだから.」\\話者(M)\\「\underline{全く.}」\end{itembox}\item[iii]\\「そのたんびに母親に怒鳴られていたよ.」\\\hspace{0.3cm}(推定感情):“怒り”\\\hspace{0.3cm}(人手による正解感情):“愛”かつ“受容”\\\hspace{0.3cm}(誤り原因):文脈からは,同年代の子供達に,愛する自分の息子について楽しそうに話す話者の心情がうかがえる.「母親に怒鳴られる」という事象のみからでは推定が不可能.\begin{itembox}{文脈}話者(M)「…ほら,これがうちの子.浩っていうんだ.汚い格好だろう?いつもこうなんだ.隣の家へ行っては,自分より小さな子を泣かして帰ってきたり,どこへ遊びに行ってたのやら,体中泥だらけにして帰ってきたりな.\underline{そのたんびに母親に怒鳴られていたよ.}」\end{itembox}\item[iv]\\「顔くらい,いーだろ.」\\\hspace{0.3cm}(推定感情):“受容”\\\hspace{0.3cm}(人手による正解感情):“不平不満”かつ“嫌悪”\\\hspace{0.3cm}(誤り原因):文脈からは,相手の怒りを受けての発言であることが分かる.\begin{itembox}{文脈}話者(M)「何すんのよ!ヘンタイ!」\\話者(F)「そりゃねーだろ.お化けの次はヘンタイかよ.」\\話者(M)「女の子に触っていいと思ってんの!」\\話者(F)「\underline{顔くらい,いーだろ.}」\end{itembox}\item[v]\\「おかしいなあ.」\\\hspace{0.3cm}(推定感情):“楽しみ”かつ“喜び”\\\hspace{0.3cm}(人手による正解感情):“不安”かつ“不審”\\\hspace{0.3cm}(誤り原因):「おかしい」の意味を,「違和感がある」という意味でなく,「可笑しい」ととってしまったため.「おかしい」の意味を判定するには,文脈の考慮が必要.\begin{itembox}{文脈}話者(A)「おい!!あれ!!」\\話者(B)「ちょうどいいところに来たな.」\\話者(C)「\underline{おかしいなあ.}俺,武器も一緒においてっちまったんだっけかな…?」\end{itembox}\end{itemize}\item[(2)]モダリティの未登録,照合失敗,感情生起主体の判定失敗など\\\begin{itemize}\item[i]\\「怒られたくも,叩かれたくもないでしょ?」\\\hspace{0.3cm}(推定感情):“怒り”\\\hspace{0.3cm}(人手による正解感情):“受容”\\\hspace{0.3cm}(誤り原因):「〜でしょ」の未登録,主体の判定失敗(話者として判定)\\\hspace{0.3cm}(対処方法):「〜でしょ」の登録(「受容」を生起するルール),受身形「〜られる」の判定による感情生起主体の判定.\\\begin{itembox}{モダリティ,感情生起主体の判定が正しく行われる場合}(a)問いかけのモダリティ「〜でしょ」が抽出される.(このモダリティが受容を生起するとする)\\(b)モダリティによる感情属性値ルールにより「受容」を生起.\\(c)“生起主体が「怒られる」”という事象であるが,主体判定の結果「他者」と判定されればこの事象からの感情は推定されない.\\(d)結果として(b)で生起した「受容」が話者感情として推定される.\end{itembox}\item[ii]\\「お前何そんなに怒ってんの?」\\\hspace{0.3cm}(推定感情):“怒り”\\\hspace{0.3cm}(人手による正解感情):“受容”\\\hspace{0.3cm}(誤り原因):疑問の様相「〜てんの」の未登録,生起主体の判定失敗(話者として判定)\\\hspace{0.3cm}(対処方法):生起主体判定方法の改善と「〜てんの」の登録.\\\item[iii]「そお,そこそこ.どんなにしっかりしていても,君もまだ子供なんだ.笑ったり,怒ったり,泣いたり,していいんだよ.その子と同じようにね.」\\\hspace{0.3cm}(推定感情):“喜び”かつ“怒り”かつ“悲しみ”\\\hspace{0.3cm}(人手による正解感情):“受容”\\\hspace{0.3cm}(誤り原因):「許可」を表すモダリティ「V-ていい」の抽出失敗.「笑ったり」,「怒ったり」,「泣いたり」からそれぞれの感情属性が結果に表れたため,推定結果のような感情属性が得られてしまった.\\\hspace{0.3cm}(対処方法):モダリティの照合方法の改善\\\end{itemize}\item[(3)]感情語・感情イディオムの未登録\begin{itemize}\item[i]「みんな\underline{大袈裟に}騒ぎ立てちゃって.」\\\hspace{0.3cm}(推定感情):“嫌悪”\\\hspace{0.3cm}(人手による正解感情):“呆れ”\\\hspace{0.3cm}(誤り原因):感情語としての「大袈裟」が未登録.\\\hspace{0.3cm}(対処方法):「大袈裟」を感情語として登録.\\\begin{itembox}{「大袈裟」が登録されている場合}表層格判定:“みんな”(ガ格),“大袈裟”(ニ格),“騒ぎ立てる”(述語)\\(1)感情語として「大袈裟」に,感情属性として「呆れ」が付与される.\\(2)述語「騒ぎ立てる」に,感情属性「嫌悪」が付与される.\\→述語とニ格の感情属性から,「嫌悪」+「呆れ」が推定される.\end{itembox}\end{itemize}\end{itemize}\subsection{考察}実験結果より,感情語が含まれていて,主語や述語が明確な比較的単純な構造の文でも,推定が上手くいかない場合が多かった.この原因として,文脈を受けて感情語の表す感情の程度が変化してしまうということがある.例えば,笑い話をしている最中に,不快を表すような感情語が出現することも多く,そのような場合,単純に感情語から「感情表出発話」として話者の感情を推定してしまうことには問題がある.会話全体のムード(雰囲気)も考慮しなければならない.また,感情の種類によって推定数,推定成功率共にばらつきが出た.この原因として,対象のシナリオの内容によって,感情の種類ごとに含まれる文の数に差があったということと,感情辞書に含まれる感情語やイディオムに付与されている感情属性の種類ごとの数の偏りがあることが挙げられる(図\ref{fig:emotion_dictionary}参照).\begin{figure}[b]\begin{center}\includegraphics[scale=0.40]{emdic.eps}\caption{感情語,感情イディオムに付与された感情属性の付与数}\label{fig:emotion_dictionary}\end{center}\end{figure}また,感情語の表記のゆれや,感情語・感情イディオムのパターン不足による照合失敗も多かった.このような照合失敗については,照合処理の改善と単語拡充による対応で解決できると考えている.また,感情推定への影響が大きいモダリティの照合処理の改善とモダリティのパターン拡充も必要である.また,今回実験に用いたシナリオには,登録されている文型パターンに一致する文がほとんど含まれていなかった.さらに係り受け解析の出力による表層格決定の失敗も多数あった.これらのことから,提案手法における文型パターン照合手法が話し言葉特有の表現に対応できていないことが問題であるといえる.また,文脈による誤りが推定失敗の原因の50\%を超えていたことから,これらの文から正しく感情推定を行うために,文脈を考慮した感情推定を行えるようにしなければならない.
\section{評価実験2}
評価実験1の結果から,単純な文からの感情推定に失敗する原因として「文脈誤り」が多かった.したがって,対話の流れ(会話全体のムード)に応じて感情推定を行う必要がある.そこで,各シナリオの登場人物ごとに感情状態を保持し,感情の持続性を考慮した感情パラメータ蓄積ルールを適用することにより対話全体の雰囲気を考慮することにした.\subsection{感情の持続性}感情は,一時的なものと継続的なものの2種類に分けることができる.一時的な感情の場合,生起した時点から発話が進むにしたがって減少し,収束していくと考えられる.一方,継続的な感情は,対話中にほとんど減少しないと考えられる.感情の種類について述べている\cite{emotion_psychology}によると,感情を継続性と対人性の観点から分類すると,表\ref{tb:emotion_category}のようになる.\begin{table}[b]\begin{center}\caption{感情の分類}\begin{tabular}{|c|c|c|p{8cm}|}\hline分類名&継続性&対人/自我&属する感情\\\hline\hline衝動&なし&自我&悲しみ・可笑しさ・怒り(侮辱)・憤り・照れ(謙遜)・喜び(懐かしさ)\\\hline反応&なし&対人&驚き・恥・悔しさ・安心・当惑・恐怖・畏怖・失望\\\hline態度&あり&対人&愛(尊敬・崇拝・愛着・責任感・勇気)・憎しみ・嫉妬・哀れみ・罪悪感・興味(美しさ・ユーモア・憧れ)・恋・軽蔑・恨み・嫌悪(醜さ)・感謝・羨望\\\hline気分&あり&自我&幸福・誇り・淋しさ・楽しさ・倦怠感・不平不満(執着,頑固,意地っ張り)・焦燥感・憂鬱・不安・希望(勇気・野心・意志)・自信(優越感)・無力感(劣等感・せつなさ・後悔)\\\hline\end{tabular}\label{tb:emotion_category}\end{center}\end{table}したがって,継続的感情は,発話の進行に影響されず感情状態が維持させる.また,一時的感情は発話の進行に伴い,1発話テキストにおける感情パラメータの合成時と同様に,同じ対話中の過去に生起した感情を忘却曲線の近似式によって減衰させ,最新の感情パラメータに足し合わせる.また,対話が終了するまで継続的感情を蓄積し続けることにより,後に生起した感情よりも強度が大きくなってしまうことを避けるため,継続的感情と一時的感情とで減少の割合を変更することで対処する.具体的には継続的感情は一時的感情よりも減少率を低くする.この感情の持続性を考慮したルールを感情パラメータ蓄積ルールとする.ここで,ある発話者による2発話における感情パラメータを合成する例を示す.対話例として,表\ref{tb:para_ex}に示すように各話者ごとの発話において感情パラメータが計算されたとする.表中の感情パラメータは,1発話テキスト内のみで計算されたものとする.発話は,$U_{A1},U_{B1},U_{A2},U_{B3}$の順に行われたとする.この対話中の$U_{A2}$において,直前の発話$U_{A1}$で計算された感情パラメータとの合成を行う.一時的感情と継続的感情の減少の割合の比を1.5と定義し,計算を行う.計算の過程を図\ref{fig:katei}に示す.\begin{table}[b]\begin{center}\caption{各発話ごとの感情パラメータの例}\begin{tabular}{|c|c|l|}\hline\multicolumn{1}{|c|}{発話者}&発話番号&\multicolumn{1}{|c|}{感情パラメータ}\\\hline\hlineA&$U_{A1}$&喜び=0.70,誇り=0.60\\\hlineB&$U_{B1}$&驚き=1.00,嫌悪=1.00\\\hlineA&$U_{A2}$&怒り=0.50,悲しみ=1.00,受容=0.60\\\hlineB&$U_{B2}$&期待=0.50,不安=1.00,嫌悪=1.00\\\hline\end{tabular}\label{tb:para_ex}\end{center}\end{table}\begin{figure}[b]\vspace{\baselineskip}\begin{center}\includegraphics[scale=0.34]{katei.eps}\caption{感情パラメータの合成}\label{fig:katei}\end{center}\end{figure}評価実験2として,1発話のみからでは推定が困難な場合に,直前の発話から推定された感情パラメータを利用する感情パラメータ蓄積ルールによる効果が得られるかどうかを確かめるための実験を行った.\subsection{対象データ}評価実験1に用いた同じシナリオ文(5種類,合計1774文)と人手による解のデータを実験対象とした.\subsection{実験結果}\begin{figure}[b]\begin{center}\includegraphics[scale=0.25]{14-3ia13f6.eps}\caption{感情状態の時間的推移}\label{fig:etra}\end{center}\end{figure}図\ref{fig:etra}は,実験システムにおいて,ある話者の感情状態(嫌悪)の時間的変化を表示させたところである.感情パラメータ蓄積ルール適用前と,適用後の発話ごとの評価スコアの平均を比較すると(表\ref{tb:score_comp}参照),適用前が0.42で,適用後が0.47と,適用後の方が高くなっている.また,表\ref{tb:paraHyoka}に示す通り,成功率も上がっている.実験1で推定に失敗したような文脈を考慮する必要のある短い文からの推定に効果があったと考えられる.一方,この評価実験において,シナリオの場面転換による時間経過を考慮しなかったため,本来ならば0になっているべき感情が推定されてしまうような誤りも見られた.表\ref{tb:error_param}にその例を示す.\subsection{考察}感情パラメータ蓄積ルールを適用することにより,前の発話からの感情の持続性を考慮することができ,成功率が57\%から76\%へと大幅に改善された.しかし,依然として人手による正解感情と推定結果との完全一致率は低かった.また,感情推定の成功率を上げるために,話者自身の発話による感情状態の維持に加え,直前の対話者の発言の影響を考慮する必要があると考える.\begin{table}[t]\begin{minipage}{0.4\textwidth}\begin{center}\caption{評価スコアの比較}\begin{tabular}{|c|r|r|}\hlineシナリオ番号&適用前&適用後\\\hline\hline1&0.42&0.47\\\hline2&0.41&0.48\\\hline3&0.42&0.46\\\hline4&0.42&0.48\\\hline5&0.46&0.48\\\hline\hline全体&0.42&0.47\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\end{tabular}\label{tb:score_comp}\end{center}\end{minipage}\hfill\begin{minipage}{0.5\textwidth}\begin{center}\caption{感情パラメータ蓄積ルール適用後の評価結果}\begin{tabular}{|l|r|}\hline評価スコア&発話テキスト数\\\hline\hline0.9$\leq$score&3\\\hline0.8$\leq$score<0.9&0\\\hline0.7$\leq$score<0.8&10\\\hline0.6$\leq$score<0.7&111\\\hline0.5$\leq$score<0.6&1235\\\hline0.4$\leq$score<0.5&97\\\hline0.3$\leq$score<0.4&138\\\hline0.2$\leq$score<0.3&105\\\hline0.1$\leq$score<0.2&24\\\hline0.0$\leq$score<0.1&51\\\hline\end{tabular}\label{tb:paraHyoka}\end{center}\end{minipage}\end{table}\begin{table}[t]\begin{center}\caption{誤り例}\begin{tabular}{|c|c|p{6.5cm}|c|c|}\hline発話番号&話者&発話文&推定結果&人手による正解感情\\\hline\hline97&S&ひどいなあ,その言い方.&非難&非難\\\hline98&A&事実でしょ?それより,早く仕事に戻りなさいよ!!お昼休みはとっくに過ぎてるの!みんなカンカンよ?&怒り,軽蔑&怒り\\\hline99&S&はいはい.わかりました.じゃあな.また明日.&受容&受容\\\hline\multicolumn{5}{|c|}{—場面転換—}\\\hline100&A&…いつでも来たい時にって言ったくせに….&軽蔑&悲しみ\\\hline\end{tabular}\label{tb:error_param}\end{center}\end{table}
\section{まとめ}
本研究では感情推定を行うアルゴリズムについて提案し,評価実験用システムを構築した.そして,シナリオデータを対象とした会話文の感情推定実験(評価実験1)を行い,約57\%の成功率が得られた.さらに,感情状態の維持を考慮した感情パラメータ蓄積ルールを適用し,同じデータで評価実験(評価実験2)を行ったところ,約76\%の成功率が得られた.しかし,評価実験1と同様に,推定結果と人手による解との完全一致率が低いという問題があった.また,評価スコアから誤りと判定された文についてその原因を分析した結果,表記の揺れなどによる感情語と感情イディオムの照合失敗と,モダリティのパターン不足による照合失敗が推定誤りの原因の約30\%を超えていたことから,感情語と感情イディオムの照合処理の改善と,モダリティのパターンの拡充,照合処理の改善が必要である.また,評価実験において,感情生起事象文型パターンに一致する文が全体の5\%にも満たなかったことから,感情生起事象について見直し,感情状態と感情動作以外の用言パターンに対しても感情生起ルールを付与するとともに,実会話文で使用される表現の文型パターンを拡充していく必要があると思われる.文脈を判断できないことによる誤りが,推定誤りの原因のうち50\%以上みられ,推定誤りを減らすためには文脈を判断するためのアルゴリズムが必要であることが分かった.今後は,会話文に特化した感情推定手法に発展させるため,\begin{itemize}\item[(1)]係り受け解析誤りに依存しない文型照合方法の提案\item[(2)]感情生起事象文型の拡充と感情表現文型辞書の構築のため,感情文コーパスからの文型パターン自動登録手法の提案\item[(3)]対話相手の発話による感情状態の変化規則の構築\end{itemize}を行いたいと考えている.\\\acknowledgment本研究の一部は文部科学省科学研究費,基盤研究(B)17300065,および萌芽研究17656128の補助を受けた.\nocite{cabocha}\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{国立国語研究所編}{国立国語研究所編}{2004}]{bunrui}国立国語研究所編\BBOP2004\BBCP.\newblock\Jem{分類語彙表増補改訂版}.\newblock大日本図書.\bibitem[\protect\BCAY{CaboCha}{Cab}{}]{cabocha}CaboCha.\newblock\JBOQ日本語係り受け解析器「CaboCha」\\texttt{http://chasen.org/{\textasciitilde}taku/software/cabocha/}\JBCQ.\bibitem[\protect\BCAY{藤村\JBA豊田\JBA喜連川}{藤村\Jetal}{2004}]{Fujimura}藤村滋\JBA豊田正史\JBA喜連川優\BBOP2004\BBCP.\newblock\JBOQWebからの評判および評価表現抽出に関する一考察\JBCQ\\newblock\Jem{情報処理学会研究報告2004-DBS-134},\mbox{\BPGS\461--468}.\bibitem[\protect\BCAY{Gray}{Gray}{1991}]{eb}Gray,P.~O.\BBOP1991\BBCP.\newblock{\BemPsychologyNY}.\newblockWorthpublishers.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{1991}]{adjective}飛田良文\JBA浅田秀子\BBOP1991\BBCP.\newblock\Jem{現代形容詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{1994}]{adverb}飛田良文\JBA浅田秀子\BBOP1994\BBCP.\newblock\Jem{現代副詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{ひろた}{ひろた}{2001}]{emotion_psychology}ひろたかなん\BBOP2001\BBCP.\newblock\Jem{ココロを動かす技術,ココロを読み解く科学}.\newblock新風舎.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBAほか}{池原\Jetal}{1999}]{jlexicon}池原悟\JBA宮崎正弘\JBA白井諭\JBAほか\BBOP1999\BBCP.\newblock\Jem{日本語語彙大系CD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{猪股}{猪股}{1982}]{Inomata}猪股佐登留\BBOP1982\BBCP.\newblock\Jem{態度の心理学}.\newblock培風館.\bibitem[\protect\BCAY{Kamps,Marx,Mokken,\BBA\de~Rijke}{Kampset~al.}{2004}]{Kamps}Kamps,J.,Marx,M.,Mokken,R.~J.,\BBA\de~Rijke,M.\BBOP2004\BBCP.\newblock\BBOQUsingWordNettoMeasureSemanticOrientationsofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2004)},pp.~1115--1118.\bibitem[\protect\BCAY{加納\JBA吉田\JBA加藤\JBA伊藤}{加納\Jetal}{2004}]{ifbot}加納政芳\JBA吉田宏徳\JBA加藤祥平\JBA伊藤英則\BBOP2004\BBCP.\newblock\JBOQ感性会話型ロボット『Ifbot』の表情制御の感情空間へのマッピング\JBCQ\\newblock\Jem{第66回情報処理学会全国大会論文集},{\Bbf4},\mbox{\BPGS\77--78}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Mera,Ichimura,\BBA\Yamashita}{Meraet~al.}{2003}]{mera}Mera,K.,Ichimura,T.,\BBA\Yamashita,T.\BBOP2003\BBCP.\newblock\BBOQComplicatedEmotionAllocatingMethodbasedonEmotionalElicitingConditionTheory\BBCQ\\newblock{\BemJournaloftheBiomedicalFuzzySystemsandHumanSciences},{\Bbf9}(1),\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{目良\JBA黒澤\JBA市村}{目良\Jetal}{2004}]{mera2}目良和也\JBA黒澤義明\JBA市村匠\BBOP2004\BBCP.\newblock\JBOQ話し言葉における感情を考慮した知的インタラクションシステムの構築\JBCQ\\newblock\Jem{第20回ファジィシステムシンポジウム講演論文集},\mbox{\BPG~26}.\bibitem[\protect\BCAY{小林\JBA乾\JBA乾}{小林\Jetal}{2001}]{Kobayashi}小林のぞみ\JBA乾孝司\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した「p/n」辞書の作成\JBCQ\\newblock\Jem{人工知能学会言語・音声理解と対話処理研究会SIG-SLUD-33},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{Kobayashi2}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock\JBOQ意見情報の抽出/構造化のタスク仕様に関する考察\JBCQ\\newblock\Jem{情報処理学会研究報告2006-NL-171},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2005}]{Kudo}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ部分木を素性とするDecisionStumpsとBoostingAlgorithmの適用\JBCQ\\newblock\Jem{自然言語処理研究会NL-158-9},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{cabocha2}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{熊本\JBA田中}{熊本\JBA田中}{2005}]{Kumamoto}熊本忠彦\JBA田中克己\BBOP2005\BBCP.\newblock\JBOQWebニュース記事からの喜怒哀楽抽出\JBCQ\\newblock\Jem{情報処理学会研究報告2005-NL-165},\mbox{\BPGS\15--20}.\bibitem[\protect\BCAY{Matsumoto,Minato,Ren,\BBA\Kuroiwa}{Matsumotoet~al.}{2005}]{ees}Matsumoto,K.,Minato,J.,Ren,F.,\BBA\Kuroiwa,S.\BBOP2005\BBCP.\newblock\BBOQEstimatingHumanEmotionsUsingWordingandSentencePatterns\BBCQ\\newblockIn{\BemProceedingsofIEEEICIA2005InternationalConference},\mbox{\BPGS\421--426}.\bibitem[\protect\BCAY{松本\JBABracewell,任\JBA黒岩}{松本\Jetal}{2005}]{ecorpus}松本和幸\JBABracewell,David~B.,任福継\JBA黒岩眞吾\BBOP2005\BBCP.\newblock\JBOQ感情コーパス作成支援システムの開発\JBCQ\\newblock\Jem{情報処理学会研究報告2005-NL-170},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{森\JBAHelmut\JBA土肥\JBA石塚}{森\Jetal}{2003}]{Mori}森純一郎\JBAHelmutPrendinger\JBA土肥浩\JBA石塚満\BBOP2003\BBCP.\newblock\JBOQユーザ感情を考慮したインタフェースエージェントの行動決定\JBCQ\\newblock{人工知能学会全国大会予稿集No.~1C5-02}.\bibitem[\protect\BCAY{中村}{中村}{1993}]{Nakamura}中村明\BBOP1993\BBCP.\newblock\Jem{感情表現辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{中山\JBA江口\JBA神門}{中山\Jetal}{2004}]{Nakayama}中山記男\JBA江口浩ニ\JBA神門典子\BBOP2004\BBCP.\newblock\JBOQ感情表現の抽出手法に関する提案\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-164},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{Nasukawa}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock\JBOQ文脈一貫性を利用した極性付評価表現の語彙獲得\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-162},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{岡野原\JBA辻井}{岡野原\JBA辻井}{2005}]{Okanohara}岡野原大輔\JBA辻井潤一\BBOP2005\BBCP.\newblock\JBOQ評価文に対する二極指標の自動付与\JBCQ\\newblock\Jem{言語処理学会第11年次大会発表論文集},\mbox{\BPGS\664--667}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1960}]{Plutchik}Plutchik,R.\BBOP1960\BBCP.\newblock\BBOQTheMultifactor-AnalyticTheoryofEmotion\BBCQ\\newblock{\BemtheJournalofPsychology},{\Bbf50},\mbox{\BPGS\153--171}.\bibitem[\protect\BCAY{Ren\BBA\Mitsuyoshi}{Ren\BBA\Mitsuyoshi}{2003}]{Ren}Ren,F.\BBACOMMA\\BBA\Mitsuyoshi,S.\BBOP2003\BBCP.\newblock\BBOQToUnderstandandCreatetheEmotionandSensitivity\BBCQ\\newblock{\BemInternationalJournalofInformation},{\Bbf6}(5),\mbox{\BPGS\547--556}.\bibitem[\protect\BCAY{任}{任}{2005}]{Ren2}任福継\BBOP2005\BBCP.\newblock\JBOQ人間感情の認知と機械感情の創生ができる感情インターフェース\JBCQ\\newblock\Jem{国際学術誌「情報誌」,招待論文},{\Bbf8}(1),pp.~7--20.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2006}]{Takamura}高村大也\JBA乾孝司\JBA奥村学\BBOP2006\BBCP.\newblock\JBOQスピンモデルによる単語の感情極性抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(2),\mbox{\BPGS\627--637}.\bibitem[\protect\BCAY{田中\JBA徳久\JBA村上\JBA池原}{田中\Jetal}{2004}]{TanakaTsutom}田中努\JBA徳久雅人\JBA村上仁一\JBA池原悟\BBOP2004\BBCP.\newblock\JBOQ結合価パターンへの情緒生起情報の付与\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\345--348}.\bibitem[\protect\BCAY{徳久\JBA乾\JBA徳久\JBA岡田}{徳久\Jetal}{2001}]{tokuhisa}徳久良子\JBA乾健太郎\JBA徳久雅人\JBA岡田直之\BBOP2001\BBCP.\newblock\JBOQ言語コーパスにおける感情生起要因と感情クラスの注釈づけ\JBCQ\\newblock\Jem{人工知能学会研究資料,SIG-SLUD-A003-2},pp.~9--16.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsup?thumbsdown?SemanticOrientationAppliedtoUnsupervizedClassificationofReviews\BBCQ\\newblock{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{矢野\JBA目良\JBA相沢}{矢野\Jetal}{2004}]{Yano}矢野宏美\JBA目良和也\JBA相沢輝昭\BBOP2004\BBCP.\newblock\JBOQ嗜好を考慮した評判情報検索手法\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-164},\mbox{\BPGS\165--170}.\end{thebibliography}\begin{biography}\bioauthor{松本和幸}{2003年徳島大学工学部知能情報工学科卒業.同大学院工学研究科情報システム工学専攻博士後期課程在学.感性情報処理の研究に従事.情報処理学会会員.}\bioauthor{三品賢一}{2006年徳島大学工学部知能情報工学科卒業.同大学院先端技術科学教育部システム創生工学専攻博士前期課程在学.感性情報処理の研究に従事.電子情報通信学会会員.}\bioauthor{任福継}{1982年北京郵電大学電信工程卒,1985年同大学修士課程了.1991年北海道大学大学院工学研究科博士後期課程了.博士(工学).CSK研究員,広島市立大学情報科学部助教授を経て,2001年から徳島大学工学部教授.2005年から徳島大学大学院ソシオテクノサイエンス研究部教授.北京郵電大学教授兼務.自然言語処理,感性情報処理,学習システム,人工知能,多言語多機能メディア知的システムに関する研究に従事.IEEE,ACL,電子情報通信学会,人工知能学会,情報処理学会,言語処理学会,教育システム情報学会各会員.}\bioauthor{黒岩眞吾}{1986年,電通大・電気通信・通信卒.1988年,同大大学院修士課程了.博士(工学).同年国際電信電話株式会社入社.1988年〜2001年,同社研究所において電話音声認識システムの研究・開発に従事.2001年,徳島大学工学部助教授.2005年から徳島大学大学院ソシオテクノサイエンス研究部助教授.音声認識,話者照合,情報検索,感性情報処理の研究に従事.電子情報通信学会平成8年度学術奨励賞,日本音響学界第3回及び第5回技術開発賞受賞.電子情報通信学会,情報処理学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V18N04-03
|
\section{はじめに}
\label{section:はじめに}\vspace{-0.5\baselineskip}形態素解析は,日本語における自然言語処理の基礎であり,非常に重要な処理である.形態素解析の入力は文字列であり,出力は単語と品詞の組(形態素)の列である.形態素解析の出力は,固有表現抽出や構文解析などの後段の言語処理の入力となるばかりでなく,情報検索システムやテキストマイニング等の自然言語処理の応用の入力として直接利用される.そのため,形態素解析の精度は自然言語処理やその応用に大きな影響を与える.昨今,自然言語処理の応用は医療\cite{電子カルテからの副作用関係の自動抽出}や法律\cite{日英特許コーパスからの専門用語対訳辞書の自動獲得}からWeb文書\cite{2ちゃんねる解析用の形態素解析器の作成}まで多岐に渡る.したがって,様々な分野のテキストに対して,高い形態素解析解析精度を短時間かつ低コストで実現する手法が望まれている.現在の形態素解析器の主流は,コーパスに基づく方法である.この方法では,統計的なモデルを仮定し,そのパラメータをコーパスから推定する.代表的な手法は,品詞$n$-gramモデル\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法},全ての品詞を語彙化した形態素$n$-gramモデル\cite{形態素クラスタリングによる形態素解析精度の向上},条件付き確率場(CRF)\cite{Conditional.Random.Fields.を用いた日本語形態素解析}などを用いている.これらの統計的手法は,パラメータをコーパスから推定することで,際限なきコスト調整という規則に基づく方法の問題を解決し,コーパス作成の作業量に応じて精度が確実に向上するようになった.一方,これらの既存の統計的手法による形態素解析器で,医療や法律などの学習コーパスに含まれない分野のテキストを解析すると実用に耐えない解析精度となる.この問題に対して,分野特有の単語を辞書に追加するという簡便な方法が採られるが,問題を軽減するに過ぎない.論文等で報告されている程度の精度を実現するには,解析対象の分野のフルアノテーションコーパスを準備しなければならない.すなわち,解析対象の分野のテキストを用意し,すべての文字間に単語境界情報を付与し,すべての単語に品詞を付与する必要がある\footnote{CRFのパラメータを部分的アノテーションコーパスから推定する研究\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}もあるが,能動学習などの際に生じる非常にスパースかつ大規模な部分的アノテーションコーパスからの学習の場合には,必要となる主記憶が膨大で,現実的ではない.}.この結果,ある分野のテキストに自然言語処理を適用するのに要する時間は長くなり,コストは高くなる.本論文では,上述の形態素解析の現状と要求を背景として,大量の学習コーパスがある分野で既存手法と同程度の解析精度を実現すると同時に,高い分野適応性を実現する形態素解析器の設計を提案する.具体的には,形態素解析を単語分割と品詞推定に分解し,それぞれを点予測を用いて解決することを提案する.点予測とは,推定時の素性として,周囲の単語境界や品詞情報等の推定値を参照せずに,周辺の文字列の情報のみを参照する方法である.提案する設計により,単語境界や品詞が文の一部にのみ付与された部分的アノテーションコーパスや,品詞が付与されていない単語や単語列からなる辞書などの言語資源を利用することが可能となる.この結果,従来手法に比して格段に高い分野適応性を実現できる.
\section{点予測を用いた形態素解析}
\label{sec:KyPt}本論文では,形態素解析を単語分割と品詞推定に分けて段階的に処理する手法を提案する(\figref{figure:flow}参照).それぞれの処理において,単語境界や品詞の推定時に,推定結果しか存在しない動的な情報を用いず,周辺の文字列情報のみを素性とする点予測を用いる.\begin{figure}[b]\begin{center}\includegraphics{18-4ia922f1.eps}\end{center}\caption{処理の流れ}\label{figure:flow}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-4ia922f2.eps}\end{center}\caption{単語分割に使用する素性(窓幅が3,$n$-gram長の上限が3の場合)}\label{figure:KyWS}\end{figure}\subsection{点予測を用いた単語分割}点予測による単語分割には先行研究\cite{点推定と能動学習を用いた自動単語分割器の分野適応}がある.提案手法での単語分割にはこれを採用する.以下では,この点予測による単語分割を概説する.点予測による単語分割の入力は文字列$\Bdma{x}=\Conc{x}{n}$であり,各文字間に単語境界の有無を示す単語境界タグ$\Bdma{t}=\Conc{t}{n-1}$を出力する.単語境界タグ$t_i$がとりうる値は,文字$x_{i}$と$x_{i+1}$の間に単語境界が「存在する」か「存在しない」の2種類である.したがって,単語境界タグの推定は,2値分類問題として定式化される.点予測による単語分割では,以下の3種類の素性を参照する線形サポートベクトルマシン(LinearSVM)\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classification}による分類を行っている.参照する素性は以下の通りである(\figref{figure:KyWS}参照).\begin{enumerate}\item文字$n$-gram:判別するタグ位置$i$の周辺の部分文字列である.窓幅$m$と長さ$n$のパラメータがあり,長さ$2m$の文字列$x_{i-m+1},\cdots,x_{i-1},x_{i},x_{i+1},\cdots,x_{i+m}$の長さ$n$以下のすべての部分文字列である.\item文字種$n$-gram:文字を文字種に変換した記号列を対象とする点以外は文字$n$-gramと同じである.文字種は,漢字(K),片仮名(k),平仮名(H),ローマ字(R),数字(N),その他(O)の6つである.\item単語辞書素性:判別するタグ位置$i$を始点とする単語,終点とする単語,内包する単語が辞書にあるか否かのフラグと,その単語の長さである.\end{enumerate}\subsection{点予測を用いた品詞推定}様々な言語資源を有効活用するために,点予測による単語分割の考え方を拡張し,点予測を用いた品詞推定手法を提案する.提案手法による品詞推定の入力は単語列であるが,品詞推定対象の単語以外の単語境界情報を参照しない.この設計により,一部の単語にのみ単語境界や品詞情報が付与された部分的アノテーションコーパスが容易に利用可能となる.この点が,英語などの単語に分かち書きされた言語に対する品詞推定の既存手法\cite{Grammatical.Category.Disambiguation.by.Statistical.Optimization}との相違点である.提案手法における品詞推定は,注目する単語に応じて以下の4つの種類の処理を行う.\begin{enumerate}\item学習コーパスに出現し,複数の品詞が付与されている単語は,後述する単語毎の分類器で品詞を推定する.\item学習コーパスに出現し,唯一の品詞が付与されている単語には,その品詞を付与する.\item学習コーパスに出現せず,辞書に出現する単語には,辞書に最初に現れる品詞を付与する.\item学習コーパスに出現せず,辞書にも出現しない単語は,その品詞を名詞とする.\end{enumerate}分類器で品詞を推定する(1)の場合は,点予測を用いることとする.点予測による品詞推定は,品詞を推定する単語$w$とその直前の文字列$\Bdma{x}_{-}$と直後の文字列$\Bdma{x}_{+}$を入力とし,これらのみを参照して単語$w$の品詞を推定する多値分類問題として定式化される.参照する文字列の窓幅を$m'$とすると,入力において参照される文脈情報は$\Bdma{x}_{-},w,\Bdma{x}_{+}=x_{-m'}\cdotsx_{-2}x_{-1},w,\Conc{x}{m'}$となる.すなわち,この文字列と$w$の前後に単語境界があり内部には単語境界がないという情報のみから$w$の品詞を推定する.換言すれば,推定対象の単語以外の単語境界情報や周囲の単語の品詞などの推定結果を一切参照しない.この設計により,パラメータ推定時に様々な言語資源の柔軟な活用が可能となる.分類器品詞推定に利用する素性は以下の通りである(\figref{figure:KyPT}参照).\begin{enumerate}\item$\Bdma{x}_{-}\Bdma{x}_{+}$に含まれる文字$n$-gram\item$\Bdma{x}_{-}\Bdma{x}_{+}$に含まれる文字種$n$-gram\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f3.eps}\end{center}\caption{品詞推定に使用する素性(窓幅が3,$n$-gram長の上限が3の場合)}\label{figure:KyPT}\end{figure}単語分割とは異なり,品詞推定は多値分類である.したがって,各単語の品詞候補毎の分類器を作る.つまり,ある単語に品詞候補が3つ存在すれば分類器はその単語に対して3つ作り,推定には1対多方式(one-versus-rest)を用いて多値分類を行う.なお,全単語に対して1つの多値分類器を作るという方法も考えられる.予備実験で,この手法を能動学習で用いたところ,能動学習に対して頑健性が低く,偏ったデータを学習データに利用すると解析精度が大幅に下がる現象が起きたので本論文では利用しないこととした.\subsection{点予測による柔軟な言語資源利用}点予測を用いた単語分割,および品詞推定は,入力から計算される素性のみを参照し,周囲の推定値を参照しない.この設計により,様々な言語資源を柔軟に利用することが可能となる.系列ラベリングとして定式化する既存手法による形態素解析器のパラメータ推定には,一般的に次の2つの言語資源のみが利用可能である.これらは提案手法でも利用可能である.\begin{description}\item[1.フルアノテーションコーパス]すべての文字間に単語境界情報が付与され,すべての単語に品詞が付与されている.既存手法の分野適応に際しては,適応対象の文に対して人手によりこれらの情報を付与する必要があるが,各文の大部分の箇所は,一般分野のコーパスにすでに出現している単語や表現であり,文のすべての箇所に情報を付与することは効率的ではない.\item[2.形態素辞書]この辞書の各見出し語は,フルアノテーションコーパスと同様の単語の基準を満たし,品詞が付与されている.既存手法の分野適応に際しては,対象分野の形態素解析や文字$n$-gramの統計結果\cite{nグラム統計によるコーパスからの未知語抽出}から,頻度が高いと推測される単語から辞書に追加される.しかしながら,文脈情報が欠落するのでコーパスほど有効ではない.\end{description}フルアノテーションコーパスを作成する作業者は,対象分野の知識に加えて,単語分割基準と品詞体系の両方を熟知している必要がある.現実にはこのような人材の確保は困難であり,比較的短時間の訓練の後に実作業にあたることになる.その結果,不明な箇所や判断に自信のない箇所が含まれる文に対しては,その文すべてを棄却するか,確信の持てない情報付与をすることとなる.また,形態素辞書を作成する際にも,単語であることのみに確信があり,品詞の判断に自信がない場合,その単語を辞書に加えないか,確信の持てない品詞を付与するかのいずれかしかない.このような問題は,言語資源作成の現場では非常に深刻であり,確信の持てる箇所で確信の持てる情報のみのアノテーションを許容する枠組みが渇望されている.提案する枠組みでは,以下のような部分的な情報付与の結果得られる言語資源も有効に活用することができる(\figref{figure:LR}参照).\begin{description}\item[3.部分的アノテーションコーパス]文の一部の文字間の単語境界情報や一部の単語の品詞情報のみがアノテーションされたコーパスである.形態素解析という観点では,単語境界情報のみが付与された単語分割済みコーパスも部分的アノテーションコーパスの一種である.ほかに,部分的単語分割コーパスや部分的品詞付与コーパスなどがある.\item[4.単語辞書]単語の表記のみからなる辞書であり,比較的容易に入手可能である.自動単語分割の際に単語境界情報として利用できる.\end{description}フルアノテーションコーパスは,各分野で十分な量を確保することは難しいが,上記の言語資源は比較的簡単に用意することができる.本手法では,これらの様々な言語資源を有効活用することにより,高い分野適応性を実現する.\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f4.eps}\end{center}\caption{提案手法で利用可能な言語資源}\label{figure:LR}\end{figure}\subsection{分野適応戦略}\label{subsection:戦略}本項は,分野適応戦略について述べる.最も効果が高い分野適応の戦略は,適応分野のフルアノテーションコーパスを用意することであるが,作成に必要な人的コストが膨大であるという問題がある.低い人的コストで高い効果を得るためには,推定の信頼度が低い箇所に優先的にアノテーションを行うことが望ましい.単語境界や品詞の推定の信頼度は,文内の各箇所で異なるので,アノテーションは文単位ではなく,推定対象となる最小の単位であるべきである.このようなアノテーションの結果,部分的アノテーションコーパスが得られる.既存手法の形態素解析器では,部分的アノテーションコーパスの利用は困難であるが,提案手法では周囲の文字列の情報のみを用いて形態素解析を行うので,部分的アノテーションコーパスの利用が容易である.そこで,分野適応戦略として,形態素解析器の学習と部分的アノテーションを交互に繰り返し行う能動学習を採択する.手順は以下の通りである(\figref{figure:AL}参照).\begin{enumerate}\item一般分野のフルアノテーションコーパスで分類器の学習を行う.\item適応分野の学習コーパス(初期状態は生コーパス)に対して形態素解析を行い,後述する方法で推定の信頼度が低い100箇所を選択する\footnote{理論的には,1箇所のアノテーション毎に分類器の再学習を行うべきであるが,それでは作業者の待ち時間の合計が非常に長くなる.また,予備実験で1箇所を選んだ場合の精度は100箇所を選んだ場合の精度と有意な差とならなかった.}.\item選択した箇所を作業者に提示し,単語境界と品詞を付与してもらう.その結果,適応分野の部分的アノテーションコーパスが得られる.\item一般分野のフルアノテーションコーパスと適応分野の部分的アノテーションコーパスを用いて分類器の再学習を行う.\item上記の(2)〜(4)の手順を繰り返す.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f5.eps}\end{center}\caption{能動学習}\label{figure:AL}\end{figure}アノテーション箇所の候補は,分類器の判断の信頼度が低い単語分割箇所と品詞推定対象の単語である.信頼度の尺度は,SVMの分離平面からの距離であり,単語分割箇所と品詞推定の単語を一括して比較する.実際のアノテーションは,選択された箇所(選択箇所)に応じて以下のように行う.\begin{enumerate}\item選択箇所が単語分割箇所(文字間)の場合:以下の2通りに分類する.\begin{enumerate}\item選択箇所が単語内の場合:その単語の内部と前後の単語境界情報および品詞情報を付与する.\item選択箇所が単語境界の場合:その前後の単語の内部と前後の単語境界情報および品詞情報を付与する.\end{enumerate}\item選択箇所が品詞推定箇所(単語)の場合:その単語の内部と前後の単語境界情報および品詞情報を付与する.\end{enumerate}
\section{評価}
提案手法の評価を行うために2つの評価実験を行った.1つ目の実験では,自然言語処理の適応対象を医薬品情報のテキストと想定し,言語資源が豊富な一般分野のコーパスで学習を行い,医薬品情報のテキストに対する形態素解析精度を既存手法と比較する.2つ目の実験は,能動学習による提案手法の分野適応性の定量的評価である.比較的大きなコーパスが存在する分野のテキストを対象に,一部をテストコーパスとし,残りを能動学習を模擬するための学習コーパスとして利用し,アノテーション数と精度の関係を評価する.\subsection{コーパス}実験には「現代日本語書き言葉均衡コーパス」モニター公開データ(2009年度版)のコアデータ(以下BCCWJと呼ぶ)\cite{代表性を有する大規模日本語書き言葉コーパスの構築}と医薬品情報のテキスト(以下JAPICと呼ぶ)を用いた.これらのコーパスは,単語分割と品詞付与が人手で行われている.コーパスの諸元を\tabref{table:corpus}に示す.また,219,583形態素を収めたUniDic\cite{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}を辞書として用いた.\begin{table}[b]\caption{コーパス}\input{03table01.txt}\label{table:corpus}\end{table}本論文で提案するのは,分野適応性の高い形態素解析器であり,1つ目の実験では,一般分野とJAPIC(適応分野)をテストコーパスとする評価を行う.この実験では,コーパスと同じ基準の辞書がある場合とない場合も比較した.それぞれの場合のカバー率は\tabref{table:coverage}の通りである.2つ目の実験では,提案手法と既存手法の代表であるCRFの能動学習を行ない,分野適応性を評価する.この実験でもJAPICを適応分野とするのが理想的であるが,我々は能動学習の実験に必要なアノテーションを模擬する学習コーパスを有していない.したがって,性質に応じてBCCWJを2つに分割し,能動学習の実験を行った.分割においては,文献\Cite{Design.Compilation.and.Preliminary.Analyses.of.Balanced.Corpus.of.Contemporary.Written.Japanese}を参考に,他の出典のデータと大きく性質が異なるYahoo!知恵袋を適応分野とし,白書と書籍と新聞を一般分野とした.分野適応性の評価のための実験で,UniDicを利用することも考えられるが,\tabref{table:coverage}から分かるように,これを語彙に加えた場合のYahoo!知恵袋のカバー率は99.80\%とJAPICを対象とした場合の95.99\%に比べて非常に高く,実際の分野適応を模擬していることにはならない.したがって,分野適応性の評価実験においては,UniDicを使用しないこととした.なお,この場合のカバー率は96.29\%であり,この判断はおおむね妥当である.\begin{table}[t]\caption{カバー率}\input{03table02.txt}\label{table:coverage}\end{table}\subsection{評価基準}本論文で用いた評価基準は,文献\cite{EDRコーパスを用いた確率的日本語形態素解析}で用いられている再現率と適合率であり,次のように定義される.正解コーパスに含まれる形態素数を$N_{REF}$,解析結果に含まれる形態素数を$N_{SYS}$,単語分割と品詞の両方が一致した形態素数を$N_{COR}$とすると,再現率は$N_{COR}/N_{REF}$と定義され,適合率は$N_{COR}/N_{SYS}$と定義される.例として,コーパスの内容と解析結果が以下のような場合を考える.\begin{description}\item[コーパス]\\\\begin{tabular}{l}外交/名詞\政策/名詞\で/助動詞\は/助詞\な/形容詞\い/語尾\end{tabular}\item[解析結果]\\\\begin{tabular}{l}外交政策/名詞\で/助詞\は/助詞\な/形容詞\い/語尾\end{tabular}\end{description}この場合,分割と品詞の両方が一致した形態素は「は/助詞」と「な/形容詞」と「い/形容詞語尾」であるので,$N_{COR}=3$となる.また,コーパスには6つの形態素が含まれ,解析結果には5つの形態素が含まれているので,$N_{REF}=6,\,N_{SYS}=5$である.よって,再現率は$N_{COR}/N_{REF}=3/6$となり,適合率は$N_{COR}/N_{SYS}=3/5$となる.また,再現率と適合率の調和平均であるF値も評価の対象とした.\subsection{各手法の詳細}提案手法においては,学習コーパスのみを用いた予備実験により,文字$n$-gram長の$n$の上限値,文字種$n$-gram長の$n$の上限値,窓幅$m,\;m'$をすべて3とした.なお,分類器には,精度と学習効率を考慮して線形SVM\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classification}を用いた.比較対象とした既存手法は,品詞2-gramモデル(HMM)\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}と,形態素$n$-gramモデル($n=2,\;3$)\cite{形態素クラスタリングによる形態素解析精度の向上}と,CRFに基づく方法(MeCab-0.98)\cite{Conditional.Random.Fields.を用いた日本語形態素解析}である.予備実験の結果,CRFに基づく方法において素性とする語彙は,学習コーパスに出現する全単語のうちの低頻度語500語以外とした.また,学習コーパスの出現頻度上位5,000語を語彙化した.素性は,品詞,文字種,表記2-gram,品詞2-gram,形態素2-gramである.素性列から内部状態素性列に変換するマッピング定義の1-gramには,品詞と表記を用い,右文脈2-gramと左文脈2-gramには,品詞2-gramと語彙化された単語を用いた.\subsection{既存手法との比較}まず,一定量の言語資源がある状況での精度を既存手法と比較した.\tabref{table:L1T1}と\tabref{table:L1T3}は,各手法において学習コーパスのみを用いる場合の一般分野と適応分野のテストコーパスに対する精度である.また,\tabref{table:L2T1}と\tabref{table:L2T3}は,言語資源として辞書も用いる場合の結果である.\begin{table}[b]\caption{一般分野に対する単語分割精度および形態素解析精度(UniDicなし)}\input{03table03.txt}\label{table:L1T1}\end{table}\begin{table}[b]\caption{JAPICに対する単語分割精度および形態素解析精度(UniDicなし)}\input{03table04.txt}\label{table:L1T3}\end{table}まず,全体の傾向としては,多くの場合に表の上から順に精度が良くなっていく.品詞2-gramモデルと形態素2-gramモデルと形態素3-gramモデルの精度は,いずれの場合もこの順に向上する.これは,文献\cite{形態素クラスタリングによる形態素解析精度の向上}に報告されている通りである.唯一の例外は,JAPICに対する単語分割精度である.これは,過学習が原因であると考えられる.\begin{table}[t]\caption{一般分野に対する単語分割精度および形態素解析精度(UniDicあり)}\input{03table05.txt}\label{table:L2T1}\end{table}\begin{table}[t]\caption{JAPICに対する単語分割精度および形態素解析精度(UniDicあり)}\input{03table06.txt}\label{table:L2T3}\end{table}次に,CRFに基づく方法と品詞2-gramモデルとの比較である.ある程度大きな辞書が利用可能でカバー率が高いという条件下ではCRFに基づく方法は品詞2-gramモデルより精度が高いことがわかる.これは,文献\cite{Conditional.Random.Fields.を用いた日本語形態素解析}に述べられている結果と同じである.しかしながら,利用可能な辞書がなくカバー率が低い場合には,学習コーパスと異なる分野のテキストに対してほぼ同じ形態素解析精度になっている.この原因は,CRFに基づく方法の未知語処理が不十分で\footnote{CRFに基づく方法を提案している文献\cite{Conditional.Random.Fields.を用いた日本語形態素解析}には,「もし,辞書にマッチする単語が存在せず,ラティスの構築に失敗した場合は,別の未知語処理が起動される.」と記述されており,既知語列に分解できない場合にのみ文字種に対するヒューリスティクスに基づく未知語処理が起動されると考えられる.この結果,例えば「投与/名詞」を「投/動詞与/接頭辞」と誤って解析することが頻繁に起こっている.これはMeCab-0.98に固有の問題で,CRFに基づく方法一般の問題ではないかもしれない.しかしながら,我々の知る限り,適切な未知語モデルも含めたCRFに基づくモデルを提案し,その評価について日本語を対象として報告している論文ははない.},単語分割精度が著しく低いことである.形態素$n$-gramモデルは,いずれの条件でも品詞2-gramモデルよりも高い精度となっている.これは,文献\cite{形態素クラスタリングによる形態素解析精度の向上}の結果を追認し,品詞列のみならず,表記列の情報をモデル化することの重要性を強く示唆する.形態素$n$-gramモデルとCRFに基づく方法との比較では,単語分割においては形態素$n$-gramモデルがCRFを用いる方法よりも優れているが,品詞の一致も評価に含めた場合,CRFに基づく方法がより優れている.唯一の例外は,カバー率が最も低い\tabref{table:L1T3}の場合で,CRFに基づく方法の単語分割精度が低すぎて,形態素解析精度においても形態素$n$-gramモデルよりも低い精度となっている.最後に,本論文で提案する点予測に基づく方法と既存手法の比較についてである.品詞2-gramモデルや形態素$n$-gramモデルとの比較においては,唯一の例外(\tabref{table:L2T1}の単語分割の再現率)を除いて,提案手法が高い精度となっている.CRFに基づく方法との比較では,辞書を用いて学習コーパスと同一の分野のテストコーパスを解析対象とする\tabref{table:L2T1}の場合を除いて,提案手法が高い精度となっている.現実的な応用を想定したJAPICを対象とする場合(\tabref{table:L1T3}と\tabref{table:L2T3}参照)において,提案手法がいずれの既存手法よりも高い精度となっている点は注目に値する.特筆すべきは,コーパスと同じ基準で作成された辞書がない\tabref{table:L1T3}の場合に,提案手法が他の手法と比べて圧倒的に高い精度となっている点である.以上の結果から,点予測に基づく方法は,ある単語分割および品詞付与の基準に基づく言語資源作成の初期や,同じ分野の学習コーパスの存在が望めない実際の言語処理において非常に有効であることがわかる.\subsection{分野適応性の評価}提案手法の分野適応性を評価するために,以下の4つの手法を比較した.部分的アノテーションコーパスの作成手順は\subref{subsection:戦略}の通りである.なお,前述の通り,カバー率の観点から初期の言語資源として一般分野の学習コーパスのみを用い,適応分野をYahoo!知恵袋とする.\begin{description}\item[Pointwise:part]適応分野の部分的アノテーションコーパスから構築した提案手法:一般分野コーパスで学習を行い,適応分野の学習コーパスを生コーパスとみなして形態素解析を行う.単語境界推定または品詞推定の信頼度の低い100箇所に対して,単語アノテーションを行い,部分的アノテーションコーパスを作成する.部分的アノテーションコーパスを一般分野の学習コーパスに加えて,分類器の再学習を行う.同様の手順を,単語アノテーション箇所が20,000になるまで繰り返す.\item[Pointwise:full]適応分野のフルアノテーションコーパスから構築した提案手法:適応分野の学習コーパスに文単位でフルアノテーションを行う.この際,文の内容が偏らないように,ランダムに文を選択し,能動学習で単語アノテーションした単語数とほぼ同じになるようにアノテーションを行う.\item[CRF:part]適応分野の部分的アノテーションコーパスから構築したCRFに基づく方法:上述の{\bfPointwise:part}で得られる部分的アノテーションコーパスに含まれる単語をCRFに基づく方法の語彙として追加する.\item[CRF:full]適応分野のフルアノテーションコーパスから構築したCRFに基づく方法:上述の{\bfPointwise:full}でフルアノテーションした文に出現する単語をCRFに基づく方法の語彙として追加し,さらにそれらの文を学習コーパスに追加する.\end{description}以上のそれぞれで学習したモデルで適応分野のテストコーパスに対して形態素解析を行い,その精度を測定した.その結果を\figref{figure:res2}に示す.\begin{figure}[t]\begin{center}\includegraphics{18-4ia922f6.eps}\end{center}\caption{形態素解析精度と適応分野のアノテーション形態素数の関係}\label{figure:res2}\end{figure}まず,各形態素解析器において,フルアノテーションと部分的アノテーションでは,部分的アノテーションの方が解析精度の向上に貢献していることがわかる.また,フルアノテーションによる解析精度向上に対する効果は,いずれの手法においてもほぼ同じであることがわかる.最後に,部分的アノテーションによる解析精度向上に対する効果は,提案手法においてより大きいことがわかる.このことから,点予測による形態素解析手法と部分的アノテーションによる能動学習は,非常に良い組み合わせであり,本論文の提案により既存手法に比べて高い分野適応性が実現できることが分かる.このことは,ある分野のテキストに対して言語処理がどの程度有効かを迅速に示す必要があるようなプロジェクトの初期や,形態素解析がプロジェクトの一部に過ぎず,投資額が限られるような実際の言語処理において非常に大きな意味を持つ.
\section{おわりに}
\label{section:おわりに}本論文では,点予測による形態素解析手法を提案した.言語資源が豊富な一般分野のコーパスで学習を行い,一般分野と適応分野において提案手法と既存手法の解析精度の比較を行った.その結果,提案手法を用いた形態素解析は,実際の言語処理において非常に有効であることが示された.さらに,部分的アノテーションを用いる能動学習と提案手法を組み合わせることで,既存手法と比較して高い分野適応性が実現できることが示された.\acknowledgment本研究の一部は,科学研究費補助金・若手A(課題番号:08090047)により行われました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{DeRose}{DeRose}{1988}]{Grammatical.Category.Disambiguation.by.Statistical.Optimization}DeRose,S.~J.\BBOP1988\BBCP.\newblock\BBOQGrammaticalcategorydisambiguationbystatisticaloptimization.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf14}(1),\mbox{\BPGS\31--39}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{LIBLINEAR:.A.Library.for.Large.Linear.Classification}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQ{LIBLINEAR}:Alibraryforlargelinearclassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{Design.Compilation.and.Preliminary.Analyses.of.Balanced.Corpus.of.Contemporary.Written.Japanese}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheSeventhInternationalConferenceonLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Graham\JBA中田\JBA森}{Graham\Jetal}{2010}]{点推定と能動学習を用いた自動単語分割器の分野適応}GrahamNeubig\JBA中田陽介\JBA森信介\BBOP2010\BBCP.\newblock\JBOQ点推定と能動学習を用いた自動単語分割器の分野適応\JBCQ\\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{下畑\JBA井佐原}{下畑\JBA井佐原}{2007}]{日英特許コーパスからの専門用語対訳辞書の自動獲得}下畑さより\JBA井佐原均\BBOP2007\BBCP.\newblock\JBOQ日英特許コーパスからの専門用語対訳辞書の自動獲得\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(4),\mbox{\BPGS\23--42}.\bibitem[\protect\BCAY{前川}{前川}{2009}]{代表性を有する大規模日本語書き言葉コーパスの構築}前川喜久雄\BBOP2009\BBCP.\newblock\JBOQ代表性を有する大規模日本語書き言葉コーパスの構築\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf24}(5),\mbox{\BPGS\616--622}.\bibitem[\protect\BCAY{早藤\JBA建石}{早藤\JBA建石}{2010}]{2ちゃんねる解析用の形態素解析器の作成}早藤健\JBA建石由佳\BBOP2010\BBCP.\newblock\JBOQ2ちゃんねる解析用の形態素解析器の作成\JBCQ\\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{三浦\JBA荒牧\JBA大熊\JBA外池\JBA杉原\JBA増市\JBA大江}{三浦\Jetal}{2010}]{電子カルテからの副作用関係の自動抽出}三浦康秀\JBA荒牧英治\JBA大熊智子\JBA外池昌嗣\JBA杉原大悟\JBA増市博\JBA大江和彦\BBOP2010\BBCP.\newblock\JBOQ電子カルテからの副作用関係の自動抽出\JBCQ\\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblock\JBOQコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用\JBCQ\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{永田}{永田}{1995}]{EDRコーパスを用いた確率的日本語形態素解析}永田昌明\BBOP1995\BBCP.\newblock\JBOQEDRコーパスを用いた確率的日本語形態素解析\JBCQ\\newblock\Jem{EDR電子化辞書利用シンポジウム},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルとN-best探索を用いた日本語形態素解析法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998a}]{nグラム統計によるコーパスからの未知語抽出}森信介\JBA長尾眞\BBOP1998a\BBCP.\newblock\JBOQ$n$グラム統計によるコーパスからの未知語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(7),\mbox{\BPGS\2093--2100}.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998b}]{形態素クラスタリングによる形態素解析精度の向上}森信介\JBA長尾眞\BBOP1998b\BBCP.\newblock\JBOQ形態素クラスタリングによる形態素解析精度の向上\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQConditionalRandomFieldsを用いた日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会研究報告},NL161\JVOL.\bibitem[\protect\BCAY{坪井\JBA森\JBA鹿島\JBA小田\JBA松本}{坪井\Jetal}{2009}]{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}坪井祐太\JBA森信介\JBA鹿島久嗣\JBA小田裕樹\JBA松本裕治\BBOP2009\BBCP.\newblock\JBOQ日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(6),\mbox{\BPGS\1622--1635}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年より京都大学学術情報メディアセンター准教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.情報処理学会会員.}\bioauthor{中田陽介}{2009年香川大学工学部信頼性情報システム工学科卒業.2011年京都大学大学院情報学研究科修士課程修了.同年エヌ・ティ・ティ・コミュニケーションズ(株)入社.}\bioauthor[:]{NeubigGraham}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.同年同大学院博士後期課程に進学.現在に至る.自然言語処理に関する研究に従事.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.音声言語処理,特に音声認識及び対話システムに関する研究に従事.京都大学博士(工学).1997年度日本音響学会粟屋潔学術奨励賞受賞.2000年度情報処理学会坂井記念特別賞受賞.2004年から2008年まで言語処理学会理事.日本音響学会,情報処理学会各代議員.電子情報通信学会,人工知能学会,言語処理学会,IEEE各会員.}\end{biography}\biodate\end{document}
| |
V07N01-03
|
\section{はじめに}
label{intro}言語処理の研究に名詞句の指示性の推定という問題がある\cite{murata_ref_nlp}.名詞句の指示性とは,名詞句の対象への指示の仕方のことであり,主に以下の三つに分類される.(指示性の詳細な説明は次節で行なう.)\begin{itemize}\item不定名詞句--その名詞句の意味する類の不特定の成員を意味する.(例文)\underline{犬}が三匹います.\item定名詞句--文脈中唯一のものを意味する.(例文)\underline{その犬}は役に立ちます.\item総称名詞句--その名詞句の類すべてを意味する.(例文)\underline{犬}は役に立つ動物です.(この例文の「犬」は犬一般を意味しており,総称名詞句に分類される.)\end{itemize}この指示性というものを,日本語文章中にある各名詞句について推定することは,(i)日英機械翻訳における冠詞の生成の研究や,(ii)名詞句の指示先などを推定する照応解析の研究に役に立つ.\begin{itemize}\item[(i)]冠詞生成の研究冠詞生成の研究では,不定名詞句と推定できれば単数名詞句なら不定冠詞をつけ,複数名詞句なら冠詞はつけないとわかるし,定名詞句と推定できれば定冠詞をつければよいとわかるし,総称名詞句の場合ならばtheをつける場合もaをつける場合も複数形にする場合もあり複雑であるが総称名詞句用の冠詞生成の方法に基づいて生成すればよいとわかる\footnote{名詞句の指示性を冠詞の生成に実際に用いている研究としては,Bondのもの\cite{Bond_94}がある.}.例えば,\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称名詞句であるので英語では``abook''にも``books''にも``thebook''にも訳すことができるとわかる.また,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は定名詞句であるので,英語では``thebook''と訳すことができるとわかる.\item[(ii)]照応解析の研究名詞句の指示先などを推定する照応解析の研究では,定名詞句でなければ前方の名詞句を指示することができないなどがわかる\cite{murata_noun_nlp}.例えば,\begin{equation}\begin{minipage}[h]{6.5cm}\vspace*{0.2cm}\underline{本}をお土産に買いました.\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.\vspace*{0.2cm}\end{minipage}\label{eqn:book_miyage}\end{equation}の例文では,二文目の「本」は総称名詞句であるので一文目の「本」を指示することはないと解析することができる.\end{itemize}以上のように総称や定・不定などの名詞句の指示性というものは,冠詞の生成や照応解析で利用されるものであり,これを推定することは言語処理研究の一つの重要な問題となっている.名詞句の指示性の推定の先行研究\cite{murata_ref_nlp}では,表層表現を用いた規則を人手で作成して指示性の推定を行なっていた.例えば,前述の例文(\ref{eqn:book_hito})の「本」だと,「というのは」という表現から総称名詞句であると,また例文(\ref{eqn:book_boku})の「本」だと,修飾節「昨日僕が貸した」が限定していることから定名詞句であると解析していた.また,規則は86個作成しており,複数の規則が競合しどの規則を信頼して解けばよいかが曖昧な場合については,規則に得点を与えることで競合を解消していた.本稿では,先行研究で行なった名詞句の指示性の推定における人手の介入が若干でも減少するように,規則の競合の際に人手でふっていた得点の部分において機械学習の手法を用いることで,人手で規則に得点をふるという調整を不要にすることを目的としている.本稿で用いる機械学習手法としては,データスパースネスに強い最大エントロピー法を採用した.
\section{名詞句の指示性の分類}
label{sec:riron}名詞句の指示性とは名詞句の対象への指示の仕方である.まず名詞句を,その名詞句の類の成員すべてか類自体を指示対象とする{\bf総称名詞句}と,類の成員の一部を指示対象とする{\bf非総称名詞句}に分ける.次に,非総称名詞句を指示対象が確定しているか否かで,{\bf定名詞句}と{\bf不定名詞句}に分ける(図\ref{fig:sijisei_bunrui})\footnote{ここでの名詞句の指示性の分類は先行研究\cite{murata_ref_nlp}での分類に基づく.}.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\begin{center}{\tiny\[\mbox{\normalsize名詞句}\left\{\begin{array}[h]{cc}\mbox{\normalsize総称名詞句}&\\&\\\mbox{\normalsize非総称名詞句}&\left\{\begin{array}[h]{c}\mbox{\normalsize定名詞句}\\\\\mbox{\normalsize不定名詞句}\end{array}\right.\end{array}\right.\]}\end{center}\caption{名詞句の指示性の分類}\label{fig:sijisei_bunrui}\end{minipage}}\end{center}\end{figure}\paragraph{総称名詞句}総称名詞句は,その名詞句が意味する類に属する任意の成員(単数でも,複数でも,不可算のものでもよい)のすべて,もしくはその名詞句が意味する類それ自身を指示する.例えば,次の文(\ref{eqn:doguse})の「犬」は総称名詞句である.\begin{equation}\underline{犬}は役に立つ動物です.\label{eqn:doguse}\end{equation}ここでの「犬」は「犬」という類に属する成員のすべてを指示対象としている.\paragraph{定名詞句}定名詞句は,その名詞句が意味する類に属する文脈上唯一の成員(単数でも複数でも不可算のものでもよい)を指示する.例えば,次の文(\ref{eqn:thedoguse})の「その犬」は定名詞句である.\begin{equation}\underline{その犬}は役に立ちます.\label{eqn:thedoguse}\end{equation}ここでの「その犬」は,「犬」という類に属する文脈上唯一の成員を指示対象としている.このことは,指示詞「その」によって表わされており,聞き手は「その犬」なるものを確定できる.\paragraph{不定名詞句}不定名詞句は,その名詞句が意味する類に属するある不特定の成員(単数でも複数でも不可算のものでもよい)を指示する.不特定の成員を指示するというのは,現時点での聞き手の情報ではその名詞句が成員のどれを指し示すのか確定していないという意味である.また,現時点での聞き手の情報では,その名詞句が成員のどれを指し示しているとしても,その文の解釈として間違っていないということでもある.不定名詞句は総称名詞句とは異なり,その名詞句の意味する類の成員のすべてを指示するのではなくて,その名詞句の意味する類の成員の一部を指示する.次の文の「犬」は不定名詞句である.\begin{equation}\underline{犬}が三匹います.\label{eqn:dog3}\end{equation}ここでの「犬」は犬という類に属する任意の三匹の成員を指示対象として持ちえる.これはどんな犬でも三匹いればこの文が使えるということである.
\section{名詞句の指示性の推定方法}
label{sec:decide}\subsection{先行研究での推定方法}\label{sec:decide_pre}先行研究\cite{murata_noun_nlp}では,「可能性」と「得点」という二つの評価値を用い,人手で作成した規則により,各指示性に「可能性」と「得点」を与えこの評価値により指示性を推定していた.各規則によって与えられる「可能性」と「得点」は,「可能性」については指示性ごとにANDをとり,「得点」については指示性ごとに足し算を行なう.その結果,「可能性」が存在し「得点」の合計が最も大きい指示性を解であると推定していた.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{1.0cm}\protect\verb+(規則の適用条件)+\\\hspace*{2.0cm}\protect\verb++\{\verb+不定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+総称(可能性得点)+\}\caption{名詞句の指示性を推定する規則}\label{fig:rule_kouzou_sijisei}\end{minipage}}\end{center}\end{figure}規則は図\ref{fig:rule_kouzou_sijisei}の構造をしており,図の「規則の適用条件」には,その規則が適用されるかどうかの条件として,文中の手がかりとなる表現を記述する.各分類には「可能性」と「得点」を一つずつ与えている.「可能性」は1か0のみであり,「得点」は0から10の間の整数である.「可能性」が1の分類がただ一つ求まった場合は,その分類を推定の結果とする.「可能性」が1の分類が複数ある場合は,その中で「得点」の合計が最も大きい分類を推定の結果としていた.この推定方法では,「得点」だけでなく「可能性」という評価値も用いている.これは,人手での調整を軽減するために,確実に決まりそうなところは「可能性」によって確実に決め「得点」の調整を不要にするためであった.規則は86個作成していた.全規則については文献\cite{murata_B}を参照のこと.主要なものをいくつか以下に示す.\begin{enumerate}\item指示詞(「この」や「その」など)によって修飾される時,\\\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(00)\}\footnote{各分類の「可能性」と「得点」を表わす.図\ref{fig:rule_kouzou_sijisei}参照.}\\(例文)\underline{\.こ\.の本}はおもしろい.\\(訳文)\underline{Thisbook}isinteresting.\item名詞句につく助詞が「は」で述語が過去形の時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(11)\}}\\(例文)\underline{犬}\.は向こうに\.行\.き\.ま\.し\.た.\\(訳文)\underline{Thedog}wentaway.\item名詞句につく助詞が「は」で述語が現在形の時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}}\\(例文)\underline{犬}\.は役に立つ動物\.で\.す.\\(訳文)\underline{Dogs}\footnote{主語が総称名詞句になる場合であるので``adog''でも``thedog''でもよい.}areusefulanimals.\end{enumerate}他にも,(i)「地球」「宇宙」のような名詞句自身から定名詞句と推定する規則\footnote{\label{foot:tikyuu}これは本来的には語の意味として取り扱うのが適切だろうが,これまで取り扱ってきた場合の特殊な場合と位置付けて規則の形で処理することにしている.},(ii)名詞句に数詞がかかることから総称名詞句以外と推定する規則,(iii)同一名詞の既出により定名詞句と推定する規則,(iv)「いつも」「昔は」「〜では」のような副詞が動詞にかかることから総称名詞句と推定する規則,(v)「〜が好き」「〜を楽しむ」のような動詞から総称名詞句と推定する規則,(vi)「用」「向き」のような接尾辞から総称名詞句と推定する規則などがある.手がかりとなる語がない時は不定名詞句と推定するようにしている例として,次の文の中に現れる名詞句「我々が昨日摘みとった果物」に注目し,これにどのような規則が適用され得点がどのようになるか,具体的に説明する.\begin{description}\item\underline{我々が昨日摘みとった果物}は味がいいです.\end{description}\underline{Thefruitthatwepickedyesterday}tastesdelicious.\\以下のように七つの規則が適用され,この「果物」は定名詞句と推定された.\begin{itemize}\item[(a)]名詞句につく助詞が「は」で述語が現在形の時,\\(果物\.は味が\.い\.い\.で\.す.)\footnote{規則が適用される手がかりとなる表現.}\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}}\item[(b)]述部が過去形の節が係る時,\\(摘み\.と\.っ\.た)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(c)]「は」か「が」がついた定名詞句を含む節が係る時,\\(\.我\.々\.が)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(d)]助詞がついた定名詞句を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(e)]代名詞を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\item[(f)]名詞句につく助詞が「は」で述語が形容詞の時,\\(果物\.は味が\.い\.い\.で\.す.)\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(14)\}}\item[(g)]主要部の名詞が普通名詞の時,\\(果物)\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(10)\}}\end{itemize}これらすべての規則の適用の結果として「果物」の最終の「可能性」と「得点」は,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(19)\,\mbox{総称名詞句}(17)\}}\\となり,定名詞句と推定される.このような解析を,対象とする文章の各名詞句について最初のものから順番に決定的に行なっていく.既に推定された指示性は後続の名詞句の解析において手がかりとして用いられる場合がある(例:上記の規則(c),(d)).先行研究での推定方法はおおよそ以上のとおりである.この方法では,「可能性」と「得点」という二つの評価値をうまく解析できるように人手で付与する必要があり,人手の介入が大きいものとなっている.規則の条件部分にある,解析に効果のある手がかり表現については人手で収集するのも有効かもしれないが,「可能性」と「得点」の二つの評価値についてはなんらかの機械学習手法で解決できるのではないかと考えた.そこで,本稿では次節で述べるような手法を利用することで,「可能性」と「得点」の二つの評価値を人手でふる必要性をないものとした.\subsection{本稿での推定方法}\label{sec:decide_now}本稿での指示性の推定は教師あり機械学習手法に基づいて行なう.機械学習手法としては,正解の名詞句の指示性を付与した大規模なコーパスを作成するのはコストが大きく困難であるので,データスパースネスに強い最大エントロピー法を利用することにした.最大エントロピー法とは,分類先の推定において,素性(解析に用いられる情報の細かい単位のこと)を定義しておくと,学習データから素性の各出現パターンに対して各分類になる確率を求めるもので,この確率を求める際に,エントロピーを最大にする操作を行なうため,この方法は最大エントロピー法と呼ばれている.このエントロピーを最大にする操作は,確率モデルを一様にする効果を示し,このことが最大エントロピー法がデータスパースネスに強い理由とされている.最大エントロピー法の詳細な説明は付録\ref{sec:me}最大エントロピー法(文献\protect\cite{uchimoto:nlp99}より)で行なっている.本研究の最大エントロピー法の利用では,文献\cite{ristad98}のシステムを用いた\footnote{今はWeb上に存在していない.文献としては\cite{ristad97}を参照のこと.}.解析は,そのシステムの出力から総称名詞句,定名詞句,不定名詞句の三つの確率を計算し,その確率の大きいものが解であると推定することによって行なう.最大エントロピー法の利用においては学習に用いる素性が必要となる.学習に用いる素性としては,先行研究で用いていた86個の人手で作成した規則の条件部を用いた.このため,学習に用いる素性の個数は86個となる.例えば,先にあげた\ref{sec:decide_pre}節の三つの規則1〜3だと,条件部分だけを取り出して以下のような三つの素性が得られる.\begin{enumerate}\item指示詞(「この」や「その」など)によって修飾されるか.\item名詞句につく助詞が「は」で述語が過去形か.\item名詞句につく助詞が「は」で述語が現在形か.\end{enumerate}最大エントロピー法によってどのように指示性が解析されるかを,前節であげた以下の同じ例文で具体的に説明する.\begin{description}\item\underline{我々が昨日摘みとった果物}は味がいいです.\end{description}\underline{Thefruitthatwepickedyesterday}tastesdelicious.\\前節と同じように「我々が昨日摘みとった果物」に注目する.規則としては前節と同じように以下の七つの規則が適用される.規則の指示性の各分類につけてある数は,各規則だけが適用される場合のその分類になる条件確率のことで,学習コーパスから最大エントロピー法によって計算される値である\footnote{この条件確率の詳細は付録\ref{sec:me}を参照のこと.付録\ref{sec:me}の式(\ref{eq:alpha})の$\alpha_{a,j}$を各指示性で正規化したものがここの条件確率に相当する.}.(ここで付与している値は実際に\ref{sec:jikken}節の機械学習2において得られたものである.)\begin{itemize}\item[(a)]名詞句につく助詞が「は」で述語が現在形の時,\\(果物\.は味が\.い\.い\.で\.す.)\footnote{規則が適用される手がかりとなる表現.}\\\mbox{\{\mbox{不定名詞句}\,0.31,\,\mbox{定名詞句}\,0.29,\,\mbox{総称名詞句}\,0.40\}}\item[(b)]述部が過去形の節が係る時,\\(摘み\.と\.っ\.た)\\\mbox{\{\mbox{不定名詞句}\,0.31,\,\mbox{定名詞句}\,0.49,\,\mbox{総称名詞句}\,0.19\}}\item[(c)]「は」か「が」がついた定名詞句を含む節が係る時,\\(\.我\.々\.が)\\\mbox{\{\mbox{不定名詞句}\,0.19,\,\mbox{定名詞句}\,0.61,\,\mbox{総称名詞句}\,0.19\}}\item[(d)]助詞がついた定名詞句を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}\,0.01,\,\mbox{定名詞句}\,0.80,\,\mbox{総称名詞句}\,0.18\}}\item[(e)]代名詞を含む節が係る時,\\(\.我\.々が)\\\mbox{\{\mbox{不定名詞句}\,0.20,\,\mbox{定名詞句}\,0.44,\,\mbox{総称名詞句}\,0.37\}}\item[(f)]名詞句につく助詞が「は」で述語が形容詞の時,\\(果物\.は味が\.い\.い\.で\.す.)\\\mbox{\{\mbox{不定名詞句}\,0.13,\,\mbox{定名詞句}\,0.80,\,\mbox{総称名詞句}\,0.07\}}\item[(g)]主要部の名詞が普通名詞の時,\\(果物)\\\mbox{\{\mbox{不定名詞句}\,0.72,\,\mbox{定名詞句}\,0.15,\,\mbox{総称名詞句}\,0.14\}}\end{itemize}最大エントロピー法を用いた方法では,上記の規則についている値を分類ごとに掛け合わせ,それらを正規化した結果が最も大きい分類を求める分類先とする(ここでのかけ算と正規化の演算は最大エントロピー法では付録\ref{sec:me}の式(\ref{eq:p})の演算を行なっていることに相当する.).この場合で,すべての規則にふられた数値を掛け合わせて正規化(各分類の数値を足すと1になるように)すると,\\\mbox{\{\mbox{不定名詞句}0.001,\,\mbox{定名詞句}0.996,\,\mbox{総称名詞句}0.002\}}\\となり,定名詞句の値が最も大きく定名詞句と正しく推定される.文章全体での解析の流れは,先行研究と全く同じで,対象とする文章の各名詞について最初のものから順番に決定的に指示性の推定を行なっていく.
\section{実験と考察}
label{sec:jikken}実験には,先行研究で用いていたものと全く同じデータを利用した.この実験に用いるデータは,名詞句の指示性の分類の付与がやりやすいように日英の対訳がある文章に限ったものだった.実験対象のテキストの各名詞句への正解の分類の付与は人手で行なっていた.正解の決定の際には対訳の英語文を見て行なったが,必ずしも冠詞にとらわれることなく\ref{sec:riron}節で説明した分類の定義によって正解を決定していた.指示性の分類のうち総称名詞句の判定は極めて困難であり,表~\ref{fig:sousyou}のようなものを総称名詞句としたが,付与した正解自体が間違っている可能性がある.以下,正解とはこの人手による分類のことをいう.\begin{table}[t]\small\caption{総称名詞句とした名詞句の例(下線部の名詞を主要部に持つ名詞句)}\label{fig:sousyou}{\begin{center}\begin{tabular}{|c@{}p{7.4cm}|}\hline(1)&\underline{ラクダ}は\underline{水}を飲まなくても長い間歩くことができます.\\(2)&ワシントンスクールから一クラスの学生たちが,昨日,\underline{見学}にいきました.\\(3)&多くの若い\underline{男}の\underline{人たち}は\underline{陸軍}に兵役します.\\(4)&\underline{紳士}は普通\underline{淑女}のために\underline{ドア}を開けます.\\(5)&有名なシャ−ロックホ−ムズ探偵の物語は大抵ロンドン地域を\underline{背景}にしたものです.\\(6)&彼はクリスマスの\underline{贈り物}に本を買いました.\\(7)&ワールドカップ大会の決勝戦は,\underline{タンゴ}のアルゼンチンと\underline{行進曲}の西ドイツとの勝負だ.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}本研究の推定で用いる素性では,形態素・構文情報が必要であるが,指示性の推定の前に形態素・構文解析を行なっている\cite{juman}\cite{csan2_ieice}.また,形態素・構文解析での誤りは人手で修正している.本研究の学習セット,テストセットは,先行研究のものとまったく同じものを使った.学習セットは,三つの資料\{英語冠詞用法辞典\cite{kanshi}から取り出した典型的な用法の例文(140文,解析した名詞句380個),物語の「こぶとりじいさん」\cite{kobu}全文(104文,解析した名詞句267個),86年7月1日の天声人語(23文,解析した名詞句98個)\}で,テストセットは,三つの資料\{物語の「つるのおんがえし」\cite{kobu}全文(263文,解析した名詞句699個),86年7月8,9,15日の天声人語の三回分(75文,解析した名詞句283個),冷戦後世界と太平洋アジア$\langle$国際文化会館会報Vol.3No.21992年4月号$\rangle$(22文,解析した名詞句192個)\}である.\ref{sec:decide}節で説明した86個の規則は学習セットを人手で調査して作成したものである.また,先行研究において86個の規則に人手で「得点」をふる際には,学習セットでの解析精度を確認しながら「得点」の微調整を行なっている.\begin{table}[t]\small\caption{人手ルールベース(学習セット)}\label{tab:kanshi_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&96&184&58&1&339\\不正解&4&28&8&1&41\\\hline正解率&96.0&86.8&87.9&50.0&89.2\\\hline\multicolumn{6}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&73&140&6&1&222\\不正解&14&27&4&0&45\\\hline正解率&83.9&84.0&60.0&100.0&83.2\\\hline\multicolumn{6}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&25&35&16&0&76\\不正解&5&14&3&0&22\\\hline正解率&83.3&71.4&84.2&-----&77.6\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0\\全体での正解率&89.4&84.0&84.2&66.7&85.5\\\hline\end{tabular}}\end{center}\end{table}\begin{table}[t]\small\caption{人手ルールベース(テストセット)}\label{tab:turu_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&109&363&13&10&495\\不正解&38&160&6&0&204\\\hline正解率&74.2&69.4&68.4&100.0&70.8\\\hline\multicolumn{6}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&75&81&16&0&172\\不正解&41&60&10&0&111\\\hline正解率&64.7&57.5&61.5&-----&60.8\\\hline\multicolumn{6}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&21&108&11&2&142\\不正解&17&31&2&0&50\\\hline正解率&55.3&77.7&84.6&100.0&74.0\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0\\全体での正解率&68.1&68.7&69.0&100.0&68.9\\\hline\end{tabular}}\end{center}\end{table}まず,このコーパスを用いて以下の二つの実験を行なった.\begin{itemize}\item人手ルールベースの手法---\ref{sec:decide_pre}節で述べた方法により指示性を推定する.(先行研究\cite{murata_ref_nlp}での実験結果を再掲しているのと等価)\item機械学習1---\ref{sec:decide_now}節で述べた方法により,指示性を推定する.\end{itemize}これらの実験結果を表\ref{tab:kanshi_d}〜表\ref{tab:turu_m1}に示す.ただし,機械学習1での学習においては,前述の規則(c),(d)のような既に推定された指示性を用いる場合はその学習において推定されるものではなく正解の指示性を用いて学習を行なっている.一方,表\ref{tab:kanshi_m1},表\ref{tab:turu_m1}のような精度を求める際の解析においては,正解の指示性ではなく,推定された指示性を用いている.表中の「出現率」は各分類の個数を総数で割ったものである.「その他」は,先行研究において指示性が曖昧な場合にふっていたタグに相当するもので,事例数が少なく本研究では無視してよい.\begin{table}[t]\small\caption{機械学習1(学習セット)}\label{tab:kanshi_m1}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&95&199&32&0&326\\不正解&5&13&34&2&54\\\hline正解率&95.0&93.9&48.5&0.0&85.8\\\hline\multicolumn{6}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&71&151&1&0&223\\不正解&16&18&9&1&44\\\hline正解率&81.6&89.4&10.0&0.0&83.5\\\hline\multicolumn{6}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&21&46&5&0&72\\不正解&9&3&14&0&26\\\hline正解率&70.0&93.9&26.3&---&73.5\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0\\全体での正解率&86.2&92.1&40.0&0.0&83.4\\\hline\end{tabular}}\end{center}\end{table}\begin{table}[t]\small\caption{機械学習1(テストセット)}\label{tab:turu_m1}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&104&408&0&0&512\\不正解&43&115&19&10&187\\\hline正解率&70.8&78.0&0.0&0.0&73.3\\\hline\multicolumn{6}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&72&108&2&0&182\\不正解&44&33&24&0&101\\\hline正解率&62.1&76.6&7.7&---&64.3\\\hline\multicolumn{6}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&21&130&1&0&152\\不正解&17&9&12&2&40\\\hline正解率&55.3&93.5&7.7&0.0&79.2\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0\\全体での正解率&65.5&80.5&5.2&0.00&72.1\\\hline\end{tabular}}\end{center}\end{table}テストセットの指示性全体での精度では,人手ルールベースで68.9\%(表\ref{tab:turu_d}),機械学習1で72.1\%(表\ref{tab:turu_m1})であった.人手ルールベースの方法では規則に人手で得点をふる必要があったが,規則に人手で得点をふる必要がない機械学習の方法でも,人手ルールベースの方法と同程度以上の精度を出すことができることがわかった.しかし,実験結果の表\ref{tab:turu_d}と表\ref{tab:turu_m1}を見比べるとわかるように,人手ルールベースの方法では各指示性ともに70\%弱で極端に精度の悪い分類はないが,機械学習1の方では不定名詞句と定名詞句は70\%前後で問題ないが総称名詞句での精度は5.2\%と極端に低いものとなっている.これでは,総称名詞句の出現率は4.9\%であり出現率が小さいので,総称名詞句での精度が悪くとも全体での精度が高くなっているだけで,あまり良い結果とはいえない.\begin{table}[t]\small\caption{機械学習2(学習セット)}\label{tab:kanshi_m2}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&97&188&57&0&342\\不正解&3&24&9&2&38\\\hline正解率&97.0&88.7&86.4&0.0&90.0\\\hline\multicolumn{6}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&80&137&6&0&223\\不正解&7&32&4&1&44\\\hline正解率&92.0&81.1&60.0&0.0&83.5\\\hline\multicolumn{6}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&26&40&17&0&83\\不正解&4&9&2&0&15\\\hline正解率&86.7&81.6&89.5&---&84.7\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0\\全体での正解率&93.6&84.9&84.2&0.0&87.0\\\hline\end{tabular}}\end{center}\end{table}\begin{table}[t]\small\caption{機械学習2(テストセット)}\label{tab:turu_m2}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数\\\hline\multicolumn{6}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&112&360&13&0&485\\不正解&35&163&6&10&214\\\hline正解率&76.2&68.8&68.4&0.0&69.4\\\hline\multicolumn{6}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&79&88&14&0&181\\不正解&37&53&12&0&102\\\hline正解率&68.1&62.4&53.9&---&64.0\\\hline\multicolumn{6}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&25&110&10&0&145\\不正解&13&29&3&2&47\\\hline正解率&65.8&79.1&76.9&0.0&75.5\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0\\全体での正解率&71.8&69.5&63.8&0.0&69.1\\\hline\end{tabular}}\end{center}\end{table}総称名詞句での精度が下がっているのは,学習データにおいて総称名詞句の頻度が小さく頻度が多い定名詞句に偏った学習がなされているためではないかと考えた.(例えば,表\ref{tab:kanshi_m1}の学習セットでの機械学習の精度では定名詞句の精度は92\%と高いが,総称名詞句の精度は40\%と学習セットにおいてもかなり低いものとなっており,定名詞句に偏った学習がなされていることを予想させる.)そこで,次に以下の実験を行なった.\begin{itemize}\item機械学習2---\ref{sec:decide_now}節で述べた方法により指示性を推定する際の最大エントロピー法の学習において,不定名詞句と定名詞句と総称名詞句に対しその出現率の逆数にみあう値を学習での頻度に掛け合わす.本研究は,不定名詞句と定名詞句と総称名詞句に対し4,2,9の値を掛け合わした.\end{itemize}つまり,総称名詞句は定名詞句の2/9ぐらいしか出現していないので,定名詞句がもとよりも2倍多めに出現していたこと,総称名詞句がもとよりも9倍多めに出現していたというように学習データでの頻度を操作する.この操作を行なうことで,学習データでの不定名詞句と定名詞句と総称名詞句の頻度は見かけ上均等になり,定名詞句に偏った解析にはならなくなると考えた.また,この操作は次のようなことを行なっているとも考えることができる.機械学習1では一般の学習と同じなので,\begin{equation}\label{eq:ml1}評価関数=(全体での正解率)\end{equation}の値を極力大きくするように学習するが,機械学習2では各指示性とも頻度をそろえるため,\begin{equation}\label{eq:ml2}\begin{minipage}[h]{6.5cm}\begin{tabular}[h]{l@{}l}評価関数=&(不定名詞句での正解率)と\\&(定名詞句での正解率)と\\&(総称名詞句での正解率)の平均\\\end{tabular}\end{minipage}\end{equation}の値を極力大きくするように学習を行なっていることになると思われる\footnote{表\ref{tab:turu_m1}と表\ref{tab:turu_m2}のテストセットのでの精度を見比べてほしい.全指示性での正解率では機械学習1の72.1\%は機械学習2の69.1\%を上回っており,機械学習1の式(\ref{eq:ml1})を最大にするという傾向にそった結果となっている.また,式(\ref{eq:ml2})の値では,機械学習1で50.4\%(=(65.5+80.5+5.2)/3),機械学習2で68.4\%(=(65.5+80.5+5.2)/3)となり,機械学習2で式(\ref{eq:ml2})を最大にするという効果のおかげで機械学習2の値が機械学習1の値を上回ったものと思われる.ところで,これを学習セットで考察すると思わしくない面がある.式(\ref{eq:ml2})の方はよいが,式(\ref{eq:ml1})の方では機械学習2の方が大きいものとなっている.これは学習セットにおいて既に解析した指示性を後続の名詞句の指示性の推定に用いる場合が影響しているものと思われる.前述のとおり既に推定された指示性を用いる場合は,学習においては正解の指示性を用い,表\ref{tab:kanshi_m1},表\ref{tab:kanshi_m2}での解析において精度を求める際には正解の指示性ではなく推定された指示性を用いている.学習セットで式(\ref{eq:ml1})の議論をする場合は学習で行なった条件での精度を見る必要がある.このため,学習セットでの解析精度を出すときにも学習時と同様正解の指示性を用いることにして精度を求めると,全指示性での正解率は機械学習1で88.1\%,機械学習2で87.5\%であった.この数値ならば,機械学習1の方で式(\ref{eq:ml1})を大きくするように学習するということと矛盾しない.}\footnote{ここで頻度をそろえることが式(\ref{eq:ml2})を最大にするように学習していることになると述べているが,厳密には証明が必要であろう.(実験的な確認は一つ前の脚注によっている.)事例の頻度の調整は付録\ref{sec:me}の式(\ref{eq:constraint})や式(\ref{eq:entropy})で事例で和をとっている部分に対して影響が出ると思われるが,厳密に理論をつめていない.このあたりの証明は理論よりの研究者にゆだねたい.}.機械学習2の実験結果を表\ref{tab:kanshi_m2},表\ref{tab:turu_m2}に示す.ただし,機械学習2と同様,前述の規則(c),(d)のような既に推定された指示性を用いる場合は,学習においては正解の指示性を用い,精度を求める際には正解の指示性ではなく推定された指示性を用いている.機械学習2のテストセットの指示性全体での精度では,69.1\%であった.これは人手ルールベースでの68.9\%とほぼ同じ値である.次に各指示性での精度を見てみると,機械学習2ではそれほど均等ではないがおおよそ70\%前後に集まっていることがわかる.一番悪い総称名詞句でも63.8\%の精度を出していることから,機械学習2の方法をとれば,指示性を均等な精度で解析できることがわかった.整理すると本研究において以下のことがわかったことになる.\begin{itemize}\item機械学習の方法により,規則の競合の解消に用いる得点を人手でふる必要性がなくなる場合がある.\item分類に均等な精度が得られていない場合には,学習データでの各分類の頻度を均等にすることである程度分類に均等な精度にできる場合がある.\end{itemize}以上の結果のように機械学習の手法を用いることで,規則の競合の解消用の得点を人手で調整する必要がなくなって,人手のコストが軽減できる場合があることがわかった.しかし,本研究で行なったことはまだ規則の競合の解消だけであり,規則の条件部分,つまり,どのような表現が手がかりとして有効かの部分の抽出は人手にゆだねられたままである.今後はどのような表現が手がかりとして有効かを調査する部分も自動化する方法を模索する予定であるが,有効な手がかりの抽出は難しい問題でこの部分だけは人手に頼らざるをえないのではないかとも考えている.次に機械学習2において最大エントロピー法を用いて規則にふった値について考察する.86個の規則のうち主要なものについて以下で考察する.それぞれ規則とも,条件部,人手で付与した得点,機械学習2によって付与した値の順で示している.\begin{enumerate}\item不定名詞句に関わる規則\begin{itemize}\item名詞句につく助詞が「が」である時,\\\mbox{\{\mbox{不定名詞句}(12)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}}\\\mbox{\{\mbox{不定名詞句}\,0.62,\,\mbox{定名詞句}\,0.21,\,\mbox{総称名詞句}\,0.17\}}助詞「が」つくと不定名詞句の傾向があるが,機械学習2による値でもその傾向が反映されている.また,0.99のような極端に大きい値でないことから,その傾向がそれほど強くないということも示している.また,「が」がつくと総称名詞句の可能性が低いがその傾向も示されている.\item名詞句の修飾語が連体詞「ある」である時,\\\mbox{\{\mbox{不定名詞句}(12)\,\mbox{定名詞句}(00)\,\mbox{総称名詞句}(00)\}}\\\mbox{\{\mbox{不定名詞句}\,0.99,\,\mbox{定名詞句}\,0.0001,\,\mbox{総称名詞句}\,0.0001\}}連体詞「ある」がつくときはほぼ不定名詞句だろうと考え,人手で付与した「可能性」は不定名詞句以外を0にしていたが,機械学習2による値でも不定名詞句以外の値が0.0001と極めて小さく上記の傾向がしっかりと得られている.連体詞「ある」と同様に,判定詞「だ」がつく場合,数詞がつく場合も不定名詞句の値が極端に高く,これらの表現により不定名詞句になりやすいことが機械学習2によっても正しく求めることができることがわかる.\item普通名詞である時,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(10)\}}\\\mbox{\{\mbox{不定名詞句}\,0.72,\,\mbox{定名詞句}\,0.15,\,\mbox{総称名詞句}\,0.14\}}この規則は他の規則が適用されないとき,つまり手がかりとなる表現がないときに不定名詞句であると推定するデフォルトの規則である.機械学習2により得られた値も不定名詞句が幾分大きな値を持つということで,適切にデフォルトの規則の役割を果たしていると思われる.\end{itemize}\item定名詞句に関わる規則\begin{itemize}\item解析する名詞句が代名詞の場合,\\\mbox{\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(00)\}}\\\mbox{\{\mbox{不定名詞句}\,0.005,\,\mbox{定名詞句}\,0.99,\,\mbox{総称名詞句}\,0.005\}}代名詞の場合はほぼ定名詞句だろうと考え,人手で付与した「可能性」は定名詞句以外を0にしていたが,機械学習2による値でも定名詞句以外の値が極めて小さく上記の傾向がしっかりと得られている.\item「は」か「が」がついた定名詞句を含む節が係る場合,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(11)\}}\\\mbox{\{\mbox{不定名詞句}\,0.19,\,\mbox{定名詞句}\,0.61,\,\mbox{総称名詞句}\,0.19\}}単に「は」か「が」がついた定名詞句を含んでいるだけでは限定修飾になるとは限らないが,それでもそういう表現があると限定修飾になりやすく定名詞句になる傾向が強いと考えられるが,実際の値もそのような傾向(完全に定名詞句というわけではないが定名詞句の可能性が高い)に沿ったものとなっている.\item直前の五つの文のどれかに同じ名詞句が既に現れており,その名詞句の指示性が「不定名詞句」の場合,\\\mbox{\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(10)\}}\\\mbox{\{\mbox{不定名詞句}\,0.07,\,\mbox{定名詞句}\,0.88,\,\mbox{総称名詞句}\,0.05\}}同一名詞句が既出の場合は,それを指示することが多く指示性は定名詞句になりやすいが,機械学習2の値はその傾向に沿ったものとなっている.\end{itemize}\item総称名詞句に関わる規則\begin{itemize}\item修飾語を持たない名詞句で,うしろにつく助詞が「は」である時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(11)\}}\\\mbox{\{\mbox{不定名詞句}\,0.03,\,\mbox{定名詞句}\,0.26,\,\mbox{総称名詞句}\,0.71\}}助詞「は」は旧情報の定名詞句と総称名詞句につきやすい表現として人手の得点ではそれぞれに1点ずつ与えるものを作成していた.機械学習2の値でも,定名詞句と総称名詞句の値が大きくその傾向はある.しかし,総称名詞句の値の方が大きくなっている.定名詞句を推定する他の規則が多くあるため,助詞「は」で手がかりが少ないときに総称名詞句と判定できるようになっているものと思われる.\item名詞句につく助詞が「は」で述語が形容詞の時,\\\mbox{\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(14)\}}\\\mbox{\{\mbox{不定名詞句}\,0.13,\,\mbox{定名詞句}\,0.80,\,\mbox{総称名詞句}\,0.07\}}人手で作成した規則では総称名詞句になる可能性が高いとしていたが,機械学習2での値は定名詞句が大きいものとなっている.これは学習データの不足による機械学習2での推定ミスか,一つ上の規則などの他の規則との兼ね合いでこの規則では総称名詞句よりも定名詞句を重視するということになっているのか,もともとの人手での得点が良くなかったかのいずれかによると思われる.もし,学習データの不足であればデータを増やすことで改善が期待できる.\item名詞句に続く助詞が「とは」か「というのは」の時,\\\mbox{\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(12)\}}\\\mbox{\{\mbox{不定名詞句}\,0.05,\,\mbox{定名詞句}\,0.05,\,\mbox{総称名詞句}\,0.90\}}助詞「とは」「というのは」が続く場合は,なんらかの概念について説明するということで総称名詞句になることが多いが,その傾向が反映されている.\item述語に総称副詞(例:「いつも」「一般に」「伝統的に」「昔は」「〜では」)などがかかる文中の語の時\footnote{この規則の条件部には多くの総称副詞を``or''の形で人手で列挙している.つまり,ここであげた総称副詞のどれが出現してもこの規則が適用されるように規則の抽象化がなされている.機械学習では,小量の学習データでも学習できるようにいかに抽象化した規則を獲得していくかが問題であるが,この規則の場合その規則の抽象化を人手で行なっているということになる.(例えば,森らのコーパスベースの形態素解析の研究\cite{mori_nlp98}では複数の形態素をまとめたクラスというものを用いることで情報の抽象化を実現し精度向上を行なっている.)今後,指示性の問題で規則の条件部も機械学習により獲得しようと思えば,この抽象化を考慮する必要があるということをこの規則が物語っている.},\\\mbox{\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(12)\}}\\\mbox{\{\mbox{不定名詞句}\,0.02,\,\mbox{定名詞句}\,0.09,\,\mbox{総称名詞句}\,0.89\}}この場合,総称副詞により総称名詞句になりやすいがその傾向が表れている.\end{itemize}\end{enumerate}以上のように機械学習2により得られた値は,人手でふった数値とほぼ同じ傾向のものであり,かつ,言葉に対する直観的な理由づけに沿ったものとなっている.
\section{おわりに}
label{sec:end}本研究では,名詞句の指示性の推定における規則の競合解消のため,人手で付与していた得点づけを,機械学習で自動化することに成功した.このことにより,規則の競合解消のために人手のコストを払う必要がないことになった.また,機械学習においては,学習データでの頻度を分野ごとに均等にすることで,解析結果の精度も分野ごとに均等にできる場合があることがわかった.また,機械学習によって得られた各規則に付与する値を考察し,これらの値が言語学的な理由づけとも矛盾しないことを確認した.しかし,本研究で行なったことはまだ規則の競合の解消を自動化しただけであり,規則の条件部分の抽出,つまり,どのような表現が手がかりとして有効かの特定の部分は人手にゆだねられたままである.現在の指示性の推定精度は70\%程度とそれほど高くなく精度向上を図る必要があるが,この精度向上には手がかりとなる表現を増やしていくことが不可欠である.そういう意味でもどのような表現が手がかりとして有効かを抽出する部分も自動化する必要性は大きい.今後,有効な表現を自動的に抽出する方法を模索する予定ではあるが,有効な手がかりの抽出は難しい問題でこの部分だけは人手に頼らざるをえないのではないかとも考えている.\appendix
\section{最大エントロピー法(文献\protect\cite{uchimoto:nlp99}より)}
label{sec:me}本付録では読者の便を考え最大エントロピー法について説明している.本付録の最大エントロピー法の説明は文献\cite{uchimoto:nlp99}での説明を一部改変のうえそのまま引用している.一般に確率モデルでは,文脈(観測される情報のこと)とそのときに得られる出力値との関係は既知のデータから推定される確率分布によって表される.いろいろな状況に対してできるだけ正確に出力値を予測するためには文脈を細かくする必要があるが,細かくしすぎると既知のデータにおいてそれぞれの文脈に対応する事例の数が少なくなりデータスパースネスの問題が生じる.最大エントロピー法では,文脈は素性と呼ばれる個々の要素によって表され,確率分布は素性を引数とした関数として表される.そして,各々の素性はトレーニングデータにおける確率分布のエントロピーが最大になるように重み付けされる.このエントロピーを最大にするという操作によって,既知データに観測されなかったような素性あるいはまれにしか観測されなかった素性については,それぞれの出力値に対して確率値が等確率になるようにあるいは近付くように重み付けされる.このため最大エントロピー法はデータスパースネスに強いとされている.このモデルは例えば言語現象などのように既知データにすべての現象が現れ得ないような現象を扱うのに適したモデルであると言える.以上のような性質を持つ最大エントロピー法では,確率分布の式は以下のように求められる.文脈$b(\in$$B)$で出力値$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$を最大エントロピー法により推定することを考える.文脈$b$は$k$個の素性$f_j(1\leqj\leqk)$の集合で表す.そして,文脈$b$において,素性$f_j$が観測されかつ出力値が$a$となるときに1を返す以下のような関数を定義する.{\small\it\begin{eqnarray}\label{eq:f}g_{j}(a,b)&=&\left\{\begin{array}[c]{l}1\(exist(b,f_{j})=1\\&\出力値=a)\\0\(それ以外)\end{array}\right.\end{eqnarray}}これを素性関数と呼ぶ.ここで,$exist(b,f_j)$は,文脈$b$において素性$f_j$が観測されるか否かによって1あるいは0の値を返す関数とする.次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a|b)$による素性$f_j$の期待値と,既知データにおける確率分布$\tilde{p}(a,b)$による素性$f_j$の期待値が等しいと仮定する.これは以下の制約式で表せる.{\small\it\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$,$(a,b)$の出現頻度として以下のように推定する.{\small\it\begin{eqnarray}\tilde{p}(b)&=&\frac{freq(b)}{\displaystyle\sum_{b\inB}freq(b)}\\\tilde{p}(a,b)&=&\frac{freq(a,b)}{\displaystyle\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray}}次に,式(\ref{eq:constraint})の制約を満たす確率分布$p(a,b)$のうち,エントロピー{\small\it\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)\log\left(p(a,b)\right)\end{eqnarray}}を最大にする確率分布を推定するべき確率分布とする.これは,最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{*}$として記述される.{\small\it\begin{eqnarray}\label{eq:p}p^{*}(a|b)&=&\frac{\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}{\sum_{a\inA}\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}\\&&(0\leq\alpha_{a,j}\leq\infty)\nonumber\end{eqnarray}}ただし,{\small\it\begin{eqnarray}\label{eq:alpha}\alpha_{a,j}&=&e^{\lambda_{a,j}}\end{eqnarray}}であり,$\lambda_{a,j}$は素性関数$g_{j}(a,b)$のパラメータである.このパラメータは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,パラメータの推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}などが用いられる.学習コーパスから実際に式(\ref{eq:p})の確率分布を求めるために,われわれはRistadのツール\cite{ristad98}を使っている.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-08
|
\section{はじめに}
災害は,住居や道路などに対する物的損害だけでなく,被災地内外の住民に対する健康への影響も及ぼしうる.そこで,従来の防災における危機管理の考えを援用し,健康における危機管理という概念が発達しつつある.この「健康危機管理」は,わが国の行政において,災害,感染症,食品安全,医療安全,介護等安全,生活環境安全,原因不明の健康危機といった12分野に整理されており,厚生労働省を中心として,それぞれの分野において生じうる健康問題とその対応策に関する知見の蓄積が進められている\cite{tanihata2012}.こうした健康危機においては,適切な意思決定のためにできる限り効率的に事態の全体像を把握する必要性がある.しかし,2009年に生じた新型インフルエンザによるパンデミックでは,国内の発症者や疑い症例の急激な増加に対し,状況把握に困難が生じていた\cite{okumura2009}.2011年に生じた東日本大震災においては,被災地の行政機能が失われ,通信インフラへの被害も合わさって,被災地の基本的な状況把握すら困難な状態が生じた\cite{shinsai2012}.とりわけ,災害初期の混乱期においては,事態の全体像を迅速に把握する必要があり,情報の厳密性よりも行動に結びつく実用性や迅速性が優先されうる\cite{kunii2012}.この「膨大なテキスト情報が発生」し,また,「情報の厳密性よりも迅速性が優先される」という特徴は,自然言語処理が健康危機管理に大きく貢献しうる可能性を示している.そこで本稿では,健康危機における情報と自然言語処理との関係について整理し,自然言語処理が健康危機管理に果たしうる役割について検討する.まず,次章では,健康危機における情報とその特徴について整理する.3章では,筆者らが関わった東日本大震災に対する保健医療分野の情報と自然言語処理との関わりをまとめ,4章において提言を記す.
\section{健康危機管理における情報とその特徴}
震災やパンデミックにより引き起こされる健康危機時においては,被災者に関する医学的情報や医療機関の損害情報,支援物資に関する情報など,様々な情報が生じることになる.実際,東日本大震災の後には,災害支援における情報の処理に様々な課題が生じ,その効率化に向けて多くの情報システムが開発された\cite{utani2011}.以下では,保健医療活動の観点から,情報を対象毎に分類し,その特徴を整理する.\subsection{被災者に関する情報}まず,個々の被災者に関する健康情報が挙げられる.災害による怪我などの急性疾患に関する情報の他,持病や内服薬に関する情報,栄養状態に関する情報は,適切な医学的管理に欠かせない.一方で,緊急時においては,利用できる検査や医薬品にも限りがあり,また,患者の診療記録についても,通常時とは異なった簡潔さが求められることになる.患者の状態を緊急度により分類する「トリアージタグ」は,患者情報を極限まで簡素化したもので,言語表現が関与する余地はタグに含まれる特記事項欄の記載に限られている.これは極端な例ではあるが,災害時においては,災害用カルテの利用など多かれ少なかれ診療記録にも大幅な省力化が図られる傾向がある.こうした患者情報は,電子化されているケースもあれば,混乱する被災地の医療現場で必要最小限の記録を残すために紙に記載されているケース,さらには,紙への記載すら困難な状況下で患部に巻いた包帯の上に最小限の処置内容と指示のみを記載する例などもあり,すべてが自然言語処理の対象として適した形態とは言えない.しかしながら,こうした個々の被災者に関する医学情報は,適切に処理することにより様々な活用が可能である.まず,i)多数の患者情報の中から,特別な治療が必要なケースなど,条件に見合った患者を抽出する活用が考えられる.ただし,緊急性の高い患者については,直接診察にあたる医師により対応が行われるはずであり,また,直接診察以上の情報をカルテ解析より見出すことには本質的な困難さがある.次に,ii)多数の患者情報の中から,症状や疾患に関する一定の傾向を読み取り,支援や対策に生かすという目的が考えられる.たとえば,感染症の集団発生や呼吸器疾患の上昇などが把握できれば,必要な予防を講じることが出来る.カルテ解析は,医師による労働集約的な作業が求められるために非常時に行うには困難が伴うが,自然言語処理により改善がもたらされる可能性がある.最後に,iii)歯科カルテ等を用いることで,ご遺体等の個人同定が行われるケースがある.ただし,遺体側の特徴として,歯科治療跡が保存性,視認性共に優れることから,このケースにおいて自然言語処理が関与しうる余地は未知数である.\subsection{被災者集団に関する情報}被災者の状況の詳細な把握に際しては,上述のように個人毎の情報管理が求められる.しかしながら,発災初期など,数百人が収容された避難所から個々人の医学情報を正確に収集,管理することは容易ではない.そこで,とりわけ発災直後の混乱期において,避難所毎の大まかな人数や電気,ガス,水道,食料等,集団に関する情報の収集と共有が優先されることになる.保健医療の観点からは,これらに加えて,特別な配慮が求められる妊婦の数や,乳児や高齢者などの災害弱者数,衛生状態,食事の加熱の有無等が求められる.さらに,支援に際しては,定量的な情報だけでなく,被災地域のニーズや避難所で行われている工夫等が文字情報として収集されうる.こうした現地報告からは,様々な情報の抽出と分析が可能である.その中でも,保健医療系のdomainexpertが抽出したいとした情報は,後述する被災地支援活動を行った栄養士の現地報告会\cite{sudo2012}での意見を分析すると,主に4種類に分類された.まず,i)要所を押さえた記録の「要約」が挙げられた.とりわけ,保健医療分野では多くの支援が交代制により行わるため,後発チームが支援先においてなされている活動の概要や目下の課題を効率良く知りたいというニーズが少なくない.したがって,先発チームの報告を効率的に要約する技術により,報告する先発チーム,報告を受ける後発チームの双方の負担を軽減できる可能性がある.また,ii)報告文書には,ベストプラクティスや避けるべき行動などの現場で見出された様々な知見が含まれる.報告文書の解析に際しては,こうした情報を適切にまとめることで,今後の活動ガイドラインの反映に繋げたいという要望も挙げられた.災害時のさまざまな記録から作成されたガイドラインとしては,たとえば,阪神淡路大震災後に編纂された資料が参考となるだろう\cite{naikakufu1999}.さらに,iii)災害やその支援において生じた事態と対応を整理し記録する「適切な整理と保存」へのニーズも認められた.この震災対応のアーカイブ化については,国立国会図書館\cite{ndl2012}や東北大学\cite{tohoku2012}を初めとした多くの試みがあるが,保健医療系では体系的な取り組みがなされておらず,情報系研究者による支援が望まれている.最後に,iv)過去の報告内容を分析することで,状況把握の適切化・迅速化・省力化に向けた「報告書式の改善」に繋げたいという要望が存在した.現地状況をより詳細に把握するために報告が詳細化すると,報告者の負担が増してしまう.しかし,苦労をして報告した情報も,被災地の状況や今後の災害対応に生かされなければ,報告者の士気を保つことが困難である.そこで,報告書式や手法そのものを過去の経験に基づき改善して欲しいという要望が生じることになる.これら四種の希望は,栄養士に限らず,広く保健医療系の支援活動に当てはまる一般性を有すると考えられる.\subsection{支援者に関する情報}次に,支援者側の情報が挙げられる.災害時の保健医療情報としては,被災者や避難所の情報に注目が集まるが,医療支援は,医師や歯科医師,看護師,保健師,薬剤師等,他職種の連携により初めて機能する.したがって,適切な医療支援を行うためには,支援者側の情報を効率的に収集すると共に,被災地ニーズと支援者とのマッチングを最適化していかなければならない.また,行政における支援には厳密な労務管理が求められるために,活動報告を適切に収集,管理することは行政上の要請でもある.こうした情報は,派遣前に収集される属性情報と,派遣してから継続的に収集される活動情報に分類される.前者は,派遣チームの編成,派遣先,スケジュール等のマッチングに役立てるもので,言語表現が関与する余地が少ない.一方,後者は,支援者の専門性に基づく現地の課題や対応等が収集しうる可能性がある他,支援にまつわる各種の意思決定を評価,改善していくための基礎資料となりうる.実際,東日本大震災においては,日々届けられる派遣行政官の日報を人事部門が目視確認し,支援の改善に繋げていた自治体があったという.また,支援者は,多くの遺体や苦境に喘ぐ避難民に接することでストレスが生じがちであり,報告書を通じて支援者側のメンタルヘルスを適切に管理する仕組みも検討の余地がある.\subsection{まとめ}このように,健康危機管理においては被災者や支援者に関する情報が欠かせない.上述の例では,被災者情報のフィルタリング,情報抽出,個人同定,被災者集団情報からの文書要約,情報抽出,文書分類ないし情報検索技術,支援者情報からの情報抽出等が求められていることを示した.また,支援活動の最適化にとっては,上記以外にも,被害を受けていない都道府県における透析施設や老人保健施設の情報など被災地以外の情報も欠かせない.被災地以外からの情報は,定量的情報が多いが,たとえば,パンデミック対応においては,海外から刻々ともたらされる感染情報や治療効果に関する最新情報の整理など,自然言語処理が貢献しうる余地は少なくない.これらは,高い精度よりも効率性が重視される処理であり,多少の不完全性を許容しうる点でも,自然言語処理の有望な応用分野であると言える.一方,健康危機時に発生する情報には,下記の点で,自然言語処理を応用していく上での障害がある.まず,医療や医学に関する情報は専門性が高いことが一般的であり,些細な情報の解釈においても医学や栄養学などのdomainknowledgeが求められる.たとえば,降圧薬と抗精神薬が足らないという情報に触れた際,どちらがより重要か,あるいは緊急性が高いか,という解釈は,医学知識の有無により大きく異なるだろう.また,医療や公衆衛生に関わる情報には,公的機関が関与することが多く,収集した情報に個人情報保護の制約が課され自由な解析や活用が困難となるケースが少なくない.さらに,公的機関には,様々な情報が集まり易い一方で,情報系人材が少なく,また,予算上,外部に技術支援や情報解析を依頼することが困難となりがちであることから,収集された情報が有効活用されないケースが往々にして生じる.これらの条件は,健康危機管理における自然言語処理研究を進めるうえで大きな障害となりうるが,東日本大震災を経て,保健医療分野における情報処理の効率化に向けた問題意識は関係者間で共有されつつあり,次に述べるような試験的な試みが進められている.
\section{東日本大震災における健康危機と自然言語処理}
本章では,以上の観点から,東日本大震災において筆者らが関わった保健医療分野の言語処理について概要を整理する.\subsection{日本栄養士会支援活動報告}東日本大震災においては,東北地方沿岸部を中心に広範囲に渡って甚大な被害が生じた.そのために,避難所に1次避難した被災者のための仮設住宅が行き渡るまでにも時間が掛かり,また,2次避難後にも,物流等の問題から被災者が口にしうる食事のほとんどが配給によるものとなりえた.そこで,栄養の偏りによる健康被害を避けるため,栄養士の職能団体である公益社団法人日本栄養士会が被災地における栄養管理に取り組んだ.栄養士による災害支援は新潟県中越地震(2004),能登半島地震(2007)より開始され,これらの震災においては被災者の個人単位での栄養指導と記録も試みられていた.一方,東日本大震災においては,支援者単位での活動報告が行われた.図1に,今回用いられた活動報告書式を示す.震災後,MSWord,PDF,手書きと,複数の形式で,合計4103件の活動支援報告書が収集され,その後,数値や自由記載文が混在したMSExcel形式へと統合した(1,524~KB).下記に,報告書式に含まれる一日の活動内容についての文例を記す.\vspace{1\Cvs}\begin{screen}○○○○病院医師宿舎到着\\海外支援物資の缶詰の試食と記録試作\\全体的にスパイシーな味付けが多いが,いわしの油浸けはアレンジの仕方によっては和風になるので,避難所で実践してもらえれば,と思う.\end{screen}\vspace{1\Cvs}\begin{screen}○○○小学校到着\\居住者数104名体育館が避難所トイレ使用可自衛隊の風呂装備あり\\配食自衛隊(ごはん・汁物)ニッコー(おかず)夜に明朝のパンと飲み物を配る\\体育館内をラウンド式に巡回させてもらう\\・下痢の方の水分補給について相談を受ける\\本部の方に食事についてのアンケートをみせてもらう.\\漁港らしく,魚や刺身が食べたいと書いてあるものが多い.\\冷やし中華の要望:季節が変わり長期化していることを意味している.\\昼前,配食の仕分け作業が始まったので見学させてもらう.\\(エンボス,アルコール,マスク使用.バンダナ着用.)\end{screen}\vspace{1\Cvs}今回は,活動報告書式の構造化が不十分であったため,以上のように,支援対象の避難所の状況報告と,具体的な活動内容,その評価が混在した文となっている.今後,報告書式を改良することにより,現地の避難者数や衛生状態などに関するより効率的な情報集積が可能となることが伺われる.一方で,「冷やし中華への要望」というエピソードからは,支援活動においては,単なるカロリー量や栄養素などの数量的な問題を解決するだけなく,調理法やメニューなど様々なレベルでの問題解決が求められている点,ならびに,数値情報からは読み取りえない質的情報を扱う必要が理解されよう.次に,報告書式中の「今日の思い」と題された一日の感想欄に記載された文例を記す.\vspace{1\Cvs}\begin{screen}「元の生活に戻していく」ことを目標に医療支援が縮小・撤退していく中で,過剰診療にならないように支援することの難しさを痛感した.栄養剤の配布についてもいつまでも支援できるわけではないので,今後は購入してもらうかもしくは市販食品での代替を念頭に入れて栄養ケアプランを考える必要性がある.また,患者を見ている家族も被災者であることから,患者の栄養状態だけを見るのではなく,周りの状況をよく理解した上で食事相談をしなくてはならないと思った.\end{screen}\begin{figure}[t]\begin{center}\includegraphics{20-3ia14f1.eps}\end{center}\caption{支援活動報告書式}\label{fig:report}\end{figure}\vspace{1\Cvs}災害支援においては,まず被災地全体のアセスメントを行い,必要物資の量的なマッチングを行う.しかしながら,人間的な生活を回復していく過程においては,事前に想定された調査項目に基づく量的情報の集積だけではなく,現地の様々な状況に関する質的情報が欠かせない.上述の例では,栄養剤を配布することにより数値の上では現地ニーズを満たしても,適切な撤退戦略を立案するためには地域毎の特性や復興計画,進捗状況を考慮することが不可欠であることが読み取れる.そのためには,オペレーションズリサーチのような最適化技術だけではなく,現地に関する膨大な自由記載文から状況や課題,解決提案等を効率的に抽出する技術が不可欠であり,自然言語処理が災害支援に大きく貢献しうる可能性が示唆される.そこで,筆者らのグループでは,今回の支援活動報告を活用した自然言語処理研究を支援して来た\cite{okazaki2012,aramaki2012,kazama2012}.また,上述のように,避難所の状況,活動内容,その評価等が混在した文章からの情報抽出は効率が悪いために,より効率的な解析に向けて,支援活動報告における数値等の構造化された情報と自由記載文のベストミックスについての考察を試みた\cite{okumura2012}.さらに,報告の自由記載欄に支援者自身の急性ストレスの兆候が認められたことから,支援者の活動報告の解析によるストレス症状と早期発見によるPTSD(Posttraumaticstressdisorder)対策について,検討を行っている.\subsection{石巻圏合同救護チーム災害時用カルテ}災害時の医療支援においては,メンバーが入れ替わる医療チームにより医療が供給されることになるため,かかりつけ医などが継続して治療に当たる平常時以上に診療記録の重要性が高まる.また,通院中の医療機関におけるカルテを継続利用することが困難なために,医療支援にあたる団体等が災害時用カルテ(災害時救護記録)を用いるケースもある.今回の東日本大震災において,石巻圏では広範な範囲に渡り医療機関が深刻な被害を受けた.そこで,全国より日本赤十字や医師会など様々な組織が医療支援に訪れたが,それぞれの医療チームは短期滞在であったため,どのチームがどの地域で何をするのかの調整が求められた.また,数多くの避難所から統一的な情報収集体制を構築する必要に迫られた.そこで,石巻圏合同救護チームは,広範な医療圏を15のエリアに分割し,エリア内の情報集約や短期滞在する医療チーム間での引き継ぎをエリアの責任者に託す分割統治戦略を取った.その際,石巻圏合同救護チームの本部がある石巻赤十字病院が主導し,災害時用カルテの運用を行った\cite{tanaka2012}.図2に,今回用いられたカルテの書式を示す.震災後,合計25,387枚のカルテが収集され,現在,全カルテがPDF化されている(3.19~GB).このうち,とりわけ患者の多いエリア6,7の9,209人分のカルテについて,氏名,年齢,性別,既往歴,診断,処方等の情報を目視で抽出し,本災害カルテに即して設計したデータベースに入力し,1診療を1レコードとしてデータ化を行った結果,合計23,645件のデータ化が完了している.図2に示されるように,カルテにおいては略称や特殊な表現が多く,医学知識がなければ記載されている情報を読み取ることができない.そのために,データ入力が高コストとなりがちであり,収集した全カルテをデータ化することができていない.また,データ化においては,カルテに記載された現病歴(疾患の発症から受診に至る経緯が文章で記載されたもの)等のテキストが割愛されている.そのために,今回収集されたカルテの本格的な解析においては,データベースをインデックスとして使用し,条件に当てはまる患者を抽出した上で,必要な情報抽出を再びPDFから行う必要がある.たとえば,本データベースを利用してとある薬剤が処方された患者を抽出することは可能であるが,その処方が震災前より内服していた薬を在庫のある薬に切り替えた結果であるのか,震災により新たに生じた症状に対して処方した結果であるのかを知るためには,専門家がPDFを目視確認する必要がある.\begin{figure}[t]\begin{center}\includegraphics{20-3ia14f2.eps}\end{center}\caption{災害カルテの例}\label{fig:record}\end{figure}災害時に集積されるカルテは,災害による健康への影響に関する貴重な一次情報である.そのために,迅速な分析により,地域に生じた新たな感染症や慢性疾患の増悪等の情報が得られ,効果的な被災地支援に繋がりうる.また,事後解析により将来の災害にも役立ちうることになる.一方で,カルテの解析には専門知識が不可欠であり,プライバシーの問題も生じることから,効果的な解析手段が無ければ,折角の情報が死蔵されてしまう懸念がある.とりわけ,「災害により引き起こされたと考えられる病態に関する情報の抽出」は,既存のカルテ解析とは異なる課題であるため,今後,災害カルテのデジタル化と効率的な解析に向けた自然言語処理技術の発展が望まれる.\subsection{医療・公衆衛生系メーリングリスト情報}被災地では,震災後から,行政が主導するDMAT(災害派遣医療チーム:DisasterMedicalAssistanceTeam),日本医師会によるJMAT(JapanMedicalAssosiationTeam)や日本赤十字社,日本プライマリケア医学会によるPCAT等の医療支援チームが数多く活動した.また,保健所等において公衆衛生に携わる公衆衛生医師や保健師等の派遣や,東日本大震災リハビリテーション支援関連10団体など,職能団体による支援も数多くなされた.これらの活動により被災地入りした医療従事者は,震災直後より,学会や各種団体,同窓会等の組織が維持するメーリングリストに多くの現地報告を投稿した.一例として,筆者の所属するメーリングリストに2011年3月14日に投稿された現地報告の抜粋を以下に示す.\vspace{1\Cvs}\begin{screen}同日朝より○○地区の災害現場の担当となり,要救護者の対応や死亡確認などを行いました.津波による影響で民家はすべて崩壊していましたが,歩行困難患者と低体温患者を数名処置し病院に搬送しました.ただし,その午後および翌日は死亡者の確認がほとんどという残念な状況でした.消防および救急隊,自衛隊と一緒になって活動しましたが足場も悪いため死亡者も見た目で分かるところ以外の検索は困難であり,時折来る津波警報で撤退し,落ち着いたら再び現場に戻るを繰り返していました.死亡者も多くその場から回収できない状態です.DMATとして現場ではあまり役に立てず,本当に心が痛みました.\end{screen}\vspace{1\Cvs}例文に示されているように,本報告には,i)現地の客観的な情報(津波の影響で民家はすべて崩壊),ii)具体的な活動内容(軽症例の処置と死亡確認),iii)活動の医学的な評価(DMATは現場で役に立たなかった),iv)報告者の主観的な感想(心が痛んだ)が混在している.しかしながら,高度に訓練を積んだ医療従事者による現地報告には,要所を押さえた現地情報や活動の評価等の貴重な情報が,発災後の早い段階から含まれていたことが分かる.災害時における被災情報をソーシャルネットワークから抽出する試みにおいては,発信者の匿名性や伝聞情報による撹乱が課題となる.一方で,医療従事者によるメーリングリストは,報告者の特定が容易であり,情報源としての確度が高い.また,情報の専門性も高く,投稿数も豊富であった.そのために,災害の支援活動初期に生じる膨大なテキストからこれらの情報を効率的に抽出する技術は,その後の災害支援活動にとって極めて有益となる可能性がある.一方で,メーリングリストへの投稿文は構造を持たないことに加えて,人命に関わる意思決定に関係することから情報抽出の精度が求められ,自然言語処理には適さない課題かも知れない.しかしながら,自然言語処理を活用した各種ツールが大量の情報整理を効率化する可能性は依然として高く,首都圏における大規模災害時等,多量の情報が発生することが想定される災害への備えとして,求められる自然言語処理技術のあり方を検討しておくことが望ましい.
\section{おわりに}
わが国は,地震や風水害が多いだけでなく,狭い国土に多くの国民が住むことから,高度成長期に多発した環境汚染問題など,大規模な健康問題が生じるリスクを常に抱えている.とりわけ,首都圏直下型地震のような大災害やパンデミックは常に発生する可能性があり,これらの際には保健医療に関わる膨大なテキストが発生しうる.そこで,厚生労働省も,健康危機への備えとして,既知の経験を収集し\cite{tanihata2012},避難者情報の効率的な把握と共有に向けた研究投資を行ってきた\cite{mizushima2012}.しかしながら,情報の柔軟性を担保するうえで必要となる自由記載文に対しては,依然,効率的な処理手段を欠いている.具体的には,被災者情報のフィルタリング,情報抽出,個人同定,被災者集団情報からの文書要約,情報抽出,文書分類ないし情報検索技術,支援報告からの情報抽出等は,ほとんど手付かずの状況にある.一方,これらはまさに自然言語処理が取り組んできた課題であり,東日本大震災の教訓を生かすうえでも,今回の災害が遺した教訓とデータを元に保健医療情報における大量の自由記載文を効率的に処理する備えを行っておくことが望ましい.筆者らも,可能な限りでの情報の保存と研究利用に向けた環境整備に努めており,今後,自然言語処理研究者による集積したデータの活用と研究分野としての発展を願っている.\acknowledgment本稿の背景となった,東日本大震災における保健医療分野の対応を自然言語処理を用いてご支援頂く試みにおいては,グーグル株式会社賀沢秀人氏に多大なご尽力を賜った.また,奈良先端大松本裕治先生,東北大学乾健太郎先生,情報通信研究機構鳥澤健太郎先生,東北大学岡崎直観先生,東京工業大学橋本泰一先生,東京大学荒牧英治先生,富士通研究所落谷亮氏の各先生方からは,多くの御助言を頂き,また,実際の解析の労をお取り頂いた.お茶の水女子大学須藤紀子先生,国立健康・栄養研究所笠岡(坪山)宜代先生,日本栄養士会下浦佳之理事,清水詳子様には,災害時の栄養管理に関する自然言語処理に関して御指導を賜った.また,査読者の方々には,有益なご助言を多数頂いた.この場をお借りし深謝申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒牧}{荒牧}{2012}]{aramaki2012}荒牧英治\BBOP2012\BBCP.\newblock言語処理による分析—支援物資の分析.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPG~8}.\bibitem[\protect\BCAY{風間}{風間}{2012}]{kazama2012}風間淳一\BBOP2012\BBCP.\newblock言語処理による分析—活動報告の評価情報分析.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPG~9}.\bibitem[\protect\BCAY{国立国会図書館}{国立国会図書館}{2012}]{ndl2012}国立国会図書館(2012).\newblock東日本大震災アーカイブ.\\newblock\Turl{http://kn.ndl.go.jp/}.\bibitem[\protect\BCAY{國井}{國井}{2012}]{kunii2012}國井修\JED\\BBOP2012\BBCP.\newblock\Jem{災害時の公衆衛生—私たちにできること}.\newblock南山堂.\bibitem[\protect\BCAY{水島\JBA金谷\JBA藤井}{水島\Jetal}{2012}]{mizushima2012}水島洋\JBA金谷泰宏\JBA藤井仁\BBOP2012\BBCP.\newblockモバイル端末とクラウド,CRMを活用した災害時健康支援システムの構築.\\newblock\Jem{モバイルヘルスシンポジウム2012}.\bibitem[\protect\BCAY{内閣府}{内閣府}{1999}]{naikakufu1999}内閣府(1999).\newblock阪神・淡路大震災教訓情報資料集.\\newblock\Turl{\\http://www.bousai.go.jp/kyoiku/kyokun/hanshin\_awaji/data/}.\bibitem[\protect\BCAY{岡崎\JBA鍋島\JBA乾}{岡崎\Jetal}{2012}]{okazaki2012}岡崎直観\JBA鍋島啓太\JBA乾健太郎\BBOP2012\BBCP.\newblock言語処理による分析—日本栄養士会活動報告の分析.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPGS\6--8}.\bibitem[\protect\BCAY{奥村}{奥村}{2009}]{okumura2009}奥村貴史\BBOP2009\BBCP.\newblock新型インフルエンザ対策を契機とした国立保健医療科学院における反復型開発による感染症サーベイランスシステムの構築.\\newblock\Jem{保健医療科学},{\Bbf58}(3),\mbox{\BPGS\260--264}.\bibitem[\protect\BCAY{奥村\JBA金谷}{奥村\JBA金谷}{2012}]{okumura2012}奥村貴史\JBA金谷泰宏\BBOP2012\BBCP.\newblock災害時における支援活動報告.\\newblock\Jem{日本栄養士会雑誌},\mbox{\BPGS\12--13}.\bibitem[\protect\BCAY{震災対応セミナー実行委員会}{震災対応セミナー実行委員会}{2012}]{shinsai2012}震災対応セミナー実行委員会\BBOP2012\BBCP.\newblock\Jem{3.11大震災の記録—中央省庁・被災自治体・各士業等の対応}.\newblock民事法研究会.\bibitem[\protect\BCAY{須藤}{須藤}{2012}]{sudo2012}須藤紀子\BBOP2012\BBCP.\newblock東日本大震災における被災地以外の行政栄養士による食生活支援の報告会.\\newblock\Jem{厚生労働科学研究費補助金健康安全・危機管理対策総合研究事業『地域健康安全を推進するための人材養成・確保のあり方に関する研究』平成23年度総括・分担研究報告書},\mbox{\BPGS\126--152}.\bibitem[\protect\BCAY{田中}{田中}{2012}]{tanaka2012}田中博\BBOP2012\BBCP.\newblock災害時と震災後の医療IT体制:そのグランドデザイン.\\newblock\Jem{情報管理},{\Bbf54}(12),\mbox{\BPGS\825--835}.\bibitem[\protect\BCAY{谷畑\JBA奥村\JBA水島\JBA金谷}{谷畑\Jetal}{2012}]{tanihata2012}谷畑健生\JBA奥村貴史\JBA水島洋\JBA金谷泰宏\BBOP2012\BBCP.\newblock健康危機発生時に向けた保健医療情報基盤の構築と活用.\\newblock\Jem{保健医療科学},{\Bbf61}(4),\mbox{\BPGS\344--347}.\bibitem[\protect\BCAY{東北大学災害科学国際研究所}{東北大学災害科学国際研究所}{2012}]{tohoku2012}東北大学災害科学国際研究所(2012).\newblockみちのく震録伝.\\newblock\Turl{http://shinrokuden.irides.\linebreak[2]tohoku.\linebreak[2]ac.jp/}.\bibitem[\protect\BCAY{Utani,Mizumoto,\BBA\Okumura}{Utaniet~al.}{2011}]{utani2011}Utani,A.,Mizumoto,T.,\BBA\Okumura,T.\BBOP2011\BBCP.\newblock\BBOQHowGeeksRespondedtoaCatastrophicDisasterofaHigh-techCountry:RapidDevelopmentofCounter-disasterSystemsfortheGreatEastJapanEarthquakeofMarch2011.\BBCQ\\newblockIn{\BemProceedingsofSpecialWorkshoponInternetandDisasters(SWID11)}.\end{thebibliography}\begin{biography}\bioauthor{奥村貴史}{1998年慶應義塾大学大学院修了.2007年国立旭川医科大学医学部医学科卒業,同年ピッツバーグ大学大学院計算機科学科にてPh.D.(ComputerScience).2009年国立保健医療科学院研究情報センター情報評価室長,2011年より研究情報支援研究センター特命上席主任研究官.}\bioauthor{金谷泰宏}{1988年防衛医科大学校卒業,医学博士,1999年厚生省保健医療局エイズ疾病対策課課長補佐,2003年防衛医科大学校防衛医学研究センター准教授,2009年国立保健医療科学院政策科学部長,2011年より同院健康危機管理研究部長.}\end{biography}\biodate\clearpage\end{document}
| |
V20N02-06
|
\section{はじめに}
情報検索や情報抽出において,テキスト中に示される事象を実時間軸上の時点もしくは時区間に関連づけることが求められている.Web配信されるテキスト情報に関しては,文書作成日時(DocumentCreationTime:DCT)が得られる場合,テキスト情報と文書作成日時とを関連づけることができる.しかしながら,文書作成日時が得られない場合や,文書に記述されている事象発生日時と文書作成日時が乖離する場合には他の方策が必要である.テキスト中に記述されている時間情報解析の精緻化が求められている.時間表現抽出は,固有表現抽出の部分問題である数値表現抽出のタスクとして研究されてきた.英語においては,評価型国際会議MUC-6(thesixthinaseriesofMessageUnderstandingConference)\cite{MUC6}で,アノテーション済み共有データセットが整備され,そのデータを基に各種の系列ラベリングに基づく時間表現の切り出し手法が開発されてきた.TERN(TimeExpressionRecognitionandNormalization)\cite{TERN}では,時間情報の曖昧性解消・正規化がタスクとして追加され,様々な時間表現解析器が開発された.さらに,時間情報表現と事象表現とを関連づけるアノテーション基準TimeML\cite{TimeML}が検討され,TimeMLに基づくタグつきコーパスTimeBank\cite{TimeBank}などが整備された.2007年には,時間情報表現—事象表現間及び2事象表現間の時間的順序関係を推定する評価型ワークショップSemEval-2007のサブタスクTempEval\cite{TempEval}が開かれ,種々の時間的順序関係推定器が開発された.後継のワークショップSemEval-2010のサブタスクTempEval-2\cite{TempEval2}では,英語だけでなく,イタリア語,スペイン語,中国語,韓国語を含めた\modified{5}言語が対象となった.\modified{2013年に開かれるSemEval-2013のサブタスクTempEval-3では,データを大規模化した英語,スペイン語が対象となっている.}一方,日本語においてはIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX}の固有表現抽出タスクの部分問題として時間情報表現抽出が定義されているのみで,時間情報の曖昧性解消・正規化に関するデータが構築されていなかった.そこで,我々はTimeMLに基づいた日本語に対する時間情報アノテーション基準を定義し,時間情報の曖昧性解消・正規化を目的とした時間情報タグつきコーパスを構築した.\modified{他言語のコーパスが新聞記事のみを対象としているのに対し,本研究では均衡コーパスである『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')を対象としており,新聞記事だけでなく,一般書籍・雑誌・ブログなどに出現する多様な時間情報表現を対象としている.本稿ではアノテーション基準を示すとともに,アノテーションしたコーパスの詳細について示す.}以下,2節では時間情報表現についての背景について概観する.3節では,対象とする時間情報表現について詳しく述べる.4節では策定した日本語時間情報表現に対するアノテーション基準を示す.\modified{5節でアノテーションにおける日本語特有の問題について説明する.}\modified{6節でアノテーション作業環境を示す.}\modified{7}節で実際にアノテーションしたコーパスの分析を行う.最後にまとめと今後の課題を示す.
\section{背景\label{sec:previous_work}}
\subsection{\modified{時間情報表現に関する関連研究}}テキスト中の時間情報表現を分析する研究は日本語以外の言語で進んでおり,時間表現の文字列の切り出しや正規化のみならず,時間表現と事象表現の関連づけなどが行われている.表\ref{tbl:previous_work}に英語もしくは日本語を対象とした時間情報表現に関連する研究を示す.以下,まず英語の時間情報表現に関する代表的な研究を俯瞰する.次に日本語の数少ない時間情報表現に関する研究を示す.\begin{table}[b]\caption{関連研究}\label{tbl:previous_work}\input{06table01.txt}\end{table}英語においては,評価型国際会議MUC-6\cite{MUC6}の1タスクである固有表現抽出の中に時間情報表現の抽出が含まれていた.MUC-6で定義されている時間情報表現タグ\timexは日付表現({\tt@type="DATE"})と時刻表現({\tttype="TIME"})からなる.アノテーション対象は絶対的な日付・時刻を表す表現にのみ限定され,''lastyear''などといった相対的な日付・時刻表現は含まれていない.このMUC-6のアノテーション基準\timexに対し,Setzerは時間情報表現の正規化に関するアノテーション基準を提案している\cite{Setzer-2001}.評価型国際会議TERN\cite{TERN}では,時間情報表現検出に特化したタスクを設定している.TERNで定義された時間表現情報タグ\timexiiは,相対的な日付・時刻表現,時間表現や頻度集合表現が検出対象として追加されている.\modified{時間表現の正規化情報を記述する}ISO-8601形式を拡張した\value属性などが設計され,\modified{こちらも}自動解析対象となっている.その後,Pustejovskyらによりアノテーション基準TimeML\cite{TimeML}が提案されている.その中では,TERNで用いられている\timexiiを拡張した\timexiiiが提案され,さらに時間情報表現と事象表現の時間的順序関係を関連づけるための情報が付加される.これらの情報は人手でアノテーションすることを目的に設計され,TimeBank\cite{TimeBank}やAquaintTimeMLCorpusなどの人手によるタグつきコーパスの整備が行われた.これらのコーパスに基づく時間情報表現の自動解析\cite{Boguraev-2005,Mani-2006}が試みられたが,タグの情報に不整合があったり,付与されている時間的順序関係ラベルに偏りがあったりなど扱いにくいものであった\cite{Boguraev-2006}.2007年に開かれたSemEval2007の1タスクTempEval\cite{TempEval}では,時間的順序関係のラベルを簡略化し,人手で見直したデータによる時間的順序関係同定のタスクが行われた.このタスクでは,時間表現に対して正規化された\value属性などが付与されており,事象表現の時間的順序関係同定に利用してよい.TempEval-2\cite{TempEval2}では,英語だけでなく,イタリア語,スペイン語,中国語,韓国語に関しても同様なデータを利用したタスクが設定された.日本語においては,IREX\cite{IREX}の1タスクとして,固有表現抽出タスクが設定された.IREXの時間情報では,日付・時刻表現を対象にし,相対的な表現が定義に含められている.また,関根らは拡張固有表現体系\fullcite{Sekine-2002}を提案し,辞書/オントロジやコーパスの作成などを行っており,BCCWJにも同じ体系の拡張固有表現タグが付与されている\cite{Hashimoto-2010}.日本語においては,表現の分類の体系化が進んでいるが,正規化のための研究は他言語と比べて遅れをとっている.\subsection{\modified{コーパスアノテーションの標準化}}\modified{本研究はコーパスアノテーションにおける標準化活動の観点から重要である.}\modified{国際標準化機構(InternationalOrganizationforStandardization:ISO)の標準化技術委員会(TechnicalCommittee)TC37は``Terminologyandotherlanguageandcontentresources''と題し,言語資源に関するさまざまな標準化を提案している.そのなかに分科会(Structureofthecommittee)が四つ設定されているが,TC37/SC4が言語資源管理(Languageresourcemanagement;LRM)に関する国際規格の規定を行っている.TC37/SC4はさらに以下に示すような作業部会を六つ設定しており,さまざまな形式・出自の一次言語データに対するアノテーションやXMLに代表される汎用マークアップ言語に基づくアノテーションの表現形式についての仕様記述言語を設計している.}\begin{itemize}\item\modified{TC37/SC4/WG1Basicdescriptorsandmechanismsforlanguageresources\\言語資源に関する情報を記述するための作業部会}\item\modified{TC37/SC4/WG2Semanticannotation\\アノテーションと表現方法を議論する作業部会}\item\modified{TC37/SC4/WG3Multilingualinformationrepresentation\\多言語対訳テキストに特化した作業部会}\item\modified{TC37/SC4/WG4Lexicalresources\\言語資源そのものに関する作業部会}\item\modified{TC37/SC4/WG5Workflowoflanguageresourcemanagement\\言語資源管理の作業手順を議論する作業部会}\item\modified{TC37/SC4/WG6Linguisticannotation\\言語情報アノテーションを議論する作業部会}\end{itemize}\modified{TimeML開発者は,作業部会TC37/SC4/WG2と連携を取りながら,SemanticAnnotationFramework(SemAF)-Time(ISO-24617-1:2012)を2012年に正式に制定した.}\modified{日本の言語資源整備は,実データを作成せずに標準化活動を行うものと実データを作成するが標準化活動を無視して行うものとに二極化している.一方,国際標準の中には,実世界上の特定のモノもしくはコトに関係づけられる言語横断的な標準化が有効なアノテーションと,言語の表現形態・表現機能のような言語横断的な標準化がそぐわないアノテーションとが混在している.後者の作業の失敗が顕在化しており,アノテーションの標準化作業を低く評価する傾向がある.}\modified{我々のグループは2006年よりTimeML開発者からTimeML関連の情報を得ながら時間情報表現アノテーションと事象表現アノテーションに取り組んできた.標準化に適した時間情報表現アノテーションと,標準化に適さない事象表現アノテーションを切り分けたうえで,前者についてISO-TimeMLに準拠する日本語版\timexiiiアノテーション基準を検討し策定した.この部分が本研究の内容に相当する.一方,後者についてはモダリティが豊かな日本語の事象表現を国際標準に合わせてアノテーションすることが困難であり,別の方策でアノテーションすることを検討中である.}\modified{日本において,国際標準に準拠している他のアノテーションデータとして,策定中のSemAF-NENamedEntities(ISO-24617-3制定中)に準拠しているBCCWJに対する拡張固有表現体系アノテーション\cite{Hashimoto-2010}がある.}
\section{対象とする時間情報表現}
まず以下の例文を見て欲しい.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{例文:}{\small彼は{\bf2008年4月}から{\bf週に3回}ジョギングを{\bf1時間}行ってきたが,{\bf昨日}ケガをして走れなくなり,{\bf今朝9時}に病院に行った.}\end{itembox}\par}本稿の研究対象である時間情報表現\footnote{「時間情報表現」は\ding{"AC}「日付表現」(``DATE'')・\ding{"AD}「時刻表現」(``TIME'')・\ding{"AE}「時間表現」(``DURATION'')・\ding{"AF}「頻度集合表現」(``SET'')の4種類の表現を包含するものを指す.}は時間軸上の時点もしくは時区間を表現するテキスト中の文字列とする.時間情報表現は以下の四つの分類に分けられる.\ding{"AC}日付表現・\ding{"AD}時刻表現は「2008年4月」「昨日」「今朝9時」といった,時点もしくは時区間の時間軸上の位置を定義することを目的として用いられる表現である.\ding{"AE}時間表現は「1時間」といった,時間軸上の位置に焦点をあてずに時区間幅を定義することを目的として用いられる表現である.\ding{"AF}頻度集合表現は「週に3回」といった,時間軸上複数の時区間を定義することを目的として用いられる表現である.これら時間情報表現の曖昧性を解消しながら時間軸上の特定の区間に写像することを正規化と呼ぶ.日付・時刻表現において,表層の情報だけで正規化ができる表現と,文脈の情報を用いなければ正規化ができない表現がある.前者を定時間情報表現(fully-specifiedtemporalexpression)と呼び,後者を不定時間情報表現(underspecifiedtemporalexpression)と呼ぶ.上の例では「2008年4月」が定時間情報表現であり,「昨日」「今朝9時」が不定時間情報表現である.時間情報表現の正規化には計算機で扱う日付や時刻を扱うための国際標準ISO-8601形式\footnote{日付や時刻を{\ttYYYY-MM-DDThh:mm:ss}などといった数値と記号列で表記する標準.{\ttYYYY}は年を表す四ケタの数字が,{\ttMM}は月を表す二ケタの数字が,{\ttDD}は日を表す二ケタの数字が,{\tthh}は24時間制で時刻を表す二ケタの数字が,{\ttmm}は分を表す二ケタの数字が,{\ttss}は秒を表す二ケタの数字が入る.Tは日付と時刻を分割する記号.様々な略記方法が提案され,例えば「2008年4月」は``{\tt2008-04}''と表記する.詳細についてはISO-8601に対応する日本工業規格JISX0301「情報交換のためのデータ要素及び交換形式—日付及び時刻の表記」参照のこと.}への変換が一般的である.しかしながら,自然言語では表現できるが,ISO-8601形式では直接表現できない時間情報表現がある.例えば,時間表現や頻度集合表現は時間軸上不定な場合が多くISO-8601形式だけでは表現できず,\modified{TimeMLの\timexiiiにおいてさまざまな拡張形式が提案されている.}想定する時間情報表現解析では手がかりとして,テキストが書かれた日付・時刻を表す文書作成日時を用いることを仮定している.例えば,文書作成日時が2008年9月1日であれば,「昨日」は2008年8月31日(ISO-8601形式では``{\tt2008-08-31}'')を表し,「今朝9時」は2008年9月1日午前9時(同``{\tt2008-09-01T09:00}'')を表す.
\section{TimeML\timexiiiタグに基づいた日本語時間情報アノテーション基準}
本節では日本語時間情報表現に対するアノテーション基準の概略を示す.アノテーション基準は,言語資源管理に関する国際標準ISO/TC37/SC4\footnote{http://www.tc37sc4.org/}において,2009年に採用されたISO-24617-1の元になっているTimeML\cite{TimeML}\timexiiiタグの仕様に準拠\footnote{2003年のTimeMLと区別するためにISO-24617-1の基準はISO-TimeMLと呼ばれている.国際標準として,英語だけでなく他言語の時間情報表現をアノテーションするために仕様が拡張されている.本研究の\timexiiiタグはISO-TimeMLにも準拠している.}している.以下,\timexiiiのタグの\modified{日本語適応について}説明する.細かな点で日本語に合うように変更しており,合わない部分については次節で説明する.\subsection{アノテーション対象}アノテーション対象は日付表現・時刻表現・時間表現・頻度集合表現の4種類である.図\ref{fig:example}にアノテーション事例を示す.\begin{figure}[b]\input{06fig01.txt}\caption{アノテーション例}\label{fig:example}\end{figure}日付表現は「一九二九年二月」「前日」のような日暦に焦点をあてた表現である.時刻表現は「午前十時ごろ」「午後六時ごろ」「昼」「九日昼」のような一日のうちのある時点に焦点をあてた表現である.日付表現と時刻表現の区別は時間軸上の粒度の区別でしかない.便宜上不定の現在を表す「今」という表現を時刻表現に分類する.時間表現は「その間」のような時間軸上の両端に焦点をあてておらず,期間を表すことに焦点をあてている表現である.頻度集合表現は「毎日」のような複数の日付・時刻・時間に焦点をあてた表現である.この分類は,解析の方便のために導入したものである.時間軸上一つもしくは複数の時点・時区間を表現するものをアノテーション対象である時間情報表現とする.現在のアノテーション基準では\timexiiiタグの入れ子を許さない.日付・時刻表現の線形結合はこれを一つの日付・時刻表現として切り出す.例えば「九日昼」のように日付表現と時刻表現が連接する場合には一つの時刻表現として切り出す.時間を表す際に,開始時点と終了時点を明示している場合には,開始時点と終了時点とを別々の日付・時刻表現として切り出す.例えば「午前十時ごろから午後六時ごろまで」は一つの時間表現として切り出さず,「午前十時ごろ」と「午後六時ごろ」の二つの時刻表現として切り出す.事象が起こる期間を表すために,今後,関連する事象表現に対し,この二つの時刻表現への参照関係を付与する予定である.頻度集合表現は,文字列上できるだけ短い単位を切り出す.例えば「毎日」を頻度集合表現として切り出すが,「毎日午前十時ごろから午後六時まで」は現在のところ頻度集合表現として切り出していない.\subsection{\timexiiiの属性}\timexiiiタグの属性のうち\tid,\type,\value,\valuefromsurface,\freq,\quant,\modを概説する.また,作業・分析用に導入した\definiteについて説明する.\tid属性は一文書中の各時間情報表現に付与される識別子である.各時間情報表現を一意に同定するために用い,今後同一指示,参照,事象表現との時間的順序を表す際に用いる.\type属性は{\ttDATE},{\ttTIME},{\ttDURATION},{\ttSET}の四つの値を持つ.それぞれ日付表現・時刻表現・時間表現・頻度集合表現を意味する.\value及び\valuefromsurface属性は時間情報表現が含意する日付・時刻・時間の値を表す.値としてISO-8601形式を自然言語表現向けに拡張したものを用いる.このうち\valueは文脈情報を用いて正規化を行った値を付与し,\valuefromsurface属性は文脈情報を用いずに文字列の表層表現のみから判定できる値を付与する.\modified{ここで\valueと\valuefromsurface属性の違いについて例を用いて説明する.「2013年4月」という表現は,文脈を用いなくても表層の文字列から時間軸上に一意に曖昧性解消ができる.「4月」という表現に対して,文脈情報からそれが2013年の「4月」であるとわかる場合には以下のように記述する(ここで属性にわりあてる値の詳細については\ref{subsec:value}節に示す).}定時間情報表現は\valueと\valuefromsurfaceの値は同じになるが,不定時間情報表現は同じになるとは限らない.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{\valueと\valuefromsurface}{\small{\tt$\langle$TIMEX3@type="DATE"@value="2013-04"@valueFromSurface="2013-04"$\rangle$}2013年4月{\tt$\langle$/TIMEX3$\rangle$}{\tt$\langle$TIMEX3@type="DATE"@value="2013"@valueFromSurface="2013"$\rangle$}2013年{\tt$\langle$/TIMEX3$\rangle$}の予定ですが{\tt$\langle$TIMEX3@type="DATE"@value="2013-04"@valueFromSurface="XXXX-04"$\rangle$}4月{\tt$\langle$/TIMEX3$\rangle$}は…}\end{itembox}\par}\freq,\quant属性は頻度集合表現に付与される頻度情報及び量化子情報である.属性にわりあてる値の詳細を\ref{subsec:freqquant}節に示す.\mod属性は時間情報表現のモダリティを表す.例えば「2000年以前」をアノテーションするために\mod属性に{\ttON\_OR\_BEFORE}という値をわりあてることにより「以前」というモダリティを表現する.属性にわりあてる値の詳細を\ref{subsec:mod}節に示す.\modified{\definite属性は``{\tttrue}'',``{\ttfalse}''のいずれかの値を持ち,\value属性が,文脈情報により}定時間情報が得られる時間情報表現は``{\tttrue}''の値を持ち,その他の時間情報表現は``{\ttfalse}''の値を持つ.\modified{言い換えると,日付・時刻表現が時間軸上の特定時区間に写像できる場合と時間・頻度集合表現の時間幅が特定できる場合に``{\tttrue}''の値を持ち,そうでない場合に``{\ttfalse}''の値を持つ.}\modified{例えば,以下の例はともに\temporalfunctionが``{\ttfalse}''の例である.「10日」という表現は,文脈から「4月」ということがわかるが,何年かまではわからないために定時間情報が得られない.なお,\definite属性は作業・分析の便宜上導入したもので,元のISO-TimeMLの\timexiiiには規定されていない.}{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{\temporalfunction}{\small{\tt$\langle$TIMEX3@type="DATE"@value="XXXX-04"@valueFromSurface="XXXX-04"@definite="false"$\rangle$}4月{\tt$\langle$/TIMEX3$\rangle$}の予定ですが{\tt$\langle$TIMEX3@type="DATE"@value="XXXX-04-10"@valueFromSurface="XXXX-XX-10"@definite="false"$\rangle$}10日{\tt$\langle$/TIMEX3$\rangle$}は…}\end{itembox}\par}作成したコーパスに対し上記属性を付与した.他の属性として,記事配信日時など特別な意味を表す時間情報表現に付与する{\tt@functionInDocument},同一指示を表す{\tt@anchorTimeID},時間表現の開始位置と終了位置を表す{\tt@beginPoint},{\tt@endPoint},アノテーション時の問題点を自由記述する{\tt@comment}がある.これらの情報は作業者が気づいた範囲で付与を行ったが完全ではない.\subsection{\value及び\valuefromsurface\label{subsec:value}}各表現に付与する\value及び\valuefromsurfaceはISO-8601形式を基として,自然言語が表す時間情報向けに拡張したものである.\modified{\valueは文脈情報を用いて正規化を行った値を付与し,\valuefromsurface属性は文脈情報を用いずに文字列の表層表現のみから判定できる値を付与する.}ISO-8601の標準表記では,日付・時刻表現を{\ttXXXX-XX-XXTXX:XX:XX}の形で表す.日付表現に対する値の事例を表\ref{tbl:date-value}に示す.自然言語向けの拡張により,ISO-8601では表現できない季節・四半期・年度などが表現できるようになっている.曜日表現に対する値の事例を表\ref{tbl:date-value-dofw}に示す.曜日表現が表す{\ttWXX}の数値部分は年内の暦週の番号を表す.日本語でよく用いられる「第3水曜」のような月内の暦週の番号を表す方策がとられていない.\modified{これについては5.2節で詳説する.}\begin{table}[b]\begin{minipage}[t]{280pt}\caption{日付表現に対する\value}\label{tbl:date-value}\input{06table02.txt}\end{minipage}\hfill\begin{minipage}[t]{130pt}\caption{曜日表現に対する\value}\label{tbl:date-value-dofw}\input{06table03.txt}\end{minipage}\end{table}\begin{table}[b]\caption{時刻表現に対する\value}\label{tbl:time-value}\input{06table04.txt}\end{table}時刻表現に対する値の事例を表\ref{tbl:time-value}に示す.自然言語向けの拡張により,「朝」「昼」「夜」などが表現できるようになっている.\modified{*が付与されている「未明」と「深夜」は日本語新聞記事に頻出したために\valuefromsurfaceの値を独自に導入した.\valueにはどちらも「夜」と同じく{\ttTNI}をわりあてる.詳しくは5.3節で説明する.}時間表現に対する値の事例を表\ref{tbl:duration-value}に示す.基本的にISO-8601の時間表現\footnote{ISO-8601では時間を表現するためにTimeinterval形式とDuration形式の二つがあるが,ここではDuration形式を用いる.}と同じであり,接頭辞として{\ttP}を付与し,その後に数値とともにそれぞれ年,月,日,時間,分,秒,週を表す{\ttY},{\ttM},{\ttD},{\ttH},{\ttM},{\ttS},{\ttW}を接尾辞として付与する.月(M)と分(M)を区別するために日と時間の境界に{\ttT}を付与する.「今」「近年」「今後」など不定な表現に対する値の事例を表\ref{tbl:date-value-undef}に示す.これらは全て自然言語向けに導入した値である.\begin{table}[b]\begin{minipage}[t]{0.5\textwidth}\caption{時間表現に対する\value}\label{tbl:duration-value}\input{06table05.txt}\end{minipage}\begin{minipage}[t]{0.5\textwidth}\caption{不定な表現に対する\value}\label{tbl:date-value-undef}\input{06table06.txt}\end{minipage}\end{table}頻度集合表現は上記\value属性を流用しながら次節に示す\freq,\quant属性を組み合わせることによって表現される.\subsection{頻度集合表現に対する\freq及び\quant属性\label{subsec:freqquant}}頻度集合表現は\value,\freq,\quant属性を組み合わせることにより複雑な時間情報を表現する.頻度情報を表すためには,期間を表す\value属性とともに,\freq属性に{\itn}{\ttX}をわりあてることにより,焦点をあてている期間中に事象が{\itn}回起こることを示す.例えば「週に2回」を表現する際には以下のようにアノテーションする\footnote{説明に不要な属性は省略して表示.以下同様.}.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「週に2回」}{\small{\tt$\langle$TIMEX3type="SET"value="P1W"freq="2X"$\rangle$}週に2回{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}\quant属性には「毎日」「毎週」「毎10月」といった表現に{\ttEACH}をわりあて,「10日おき」「3日毎」といった表現に{\ttEVERY}をわりあてる.この際\value属性には期間を表す値だけでなく,日付・時刻を表す値が入ることがある.以下に例を示す.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「毎日」「毎10月」「10日おき」}{\small{\tt$\langle$TIMEX3type="SET"value="P1D"quant="EACH"$\rangle$}毎日{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="SET"value="XXXX-10"quant="EACH"$\rangle$}毎10月{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="SET"value="P10D"quant="EVERY"$\rangle$}10日おき{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}頻度集合表現は,できるだけ文字列上小さな単位で切り出しているため,現在のところ上記定義で意味論的表示に曖昧性が生じていない.例えば「毎日午前十時ごろから午後六時まで」のような表現の場合,表現全体の単位で切り出すとすると,\value,\freq,\quant属性のみで曖昧性なく意味論的表示に落とすことは困難である.これは,時間情報表現間の時間的順序関係のアノテーションにおいて今後対処していきたい.\subsection{モダリティ修飾\mod属性\label{subsec:mod}}時間情報表現は接尾表現をともない,様々なモダリティを表現する.\mod属性は時刻・時間表現に対するモダリティ修飾情報である.表\ref{tbl:mod}に取りうる値の一覧と例を示す.\begin{table}[b]\caption{\mod属性に対する値}\label{tbl:mod}\input{06table07.txt}\end{table}日付・時刻・時間表現に共通して用いられる\mod属性として{\ttSTART},{\ttMID},{\ttEND},{\ttAPPROX}がある.例えば,「60年代初頭」「10月半ば」「約40年」は以下のようにアノテーションする.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「60年代初頭」「10月半ば」「約40年」}{\small{\tt$\langle$TIMEX3type="DATE"value="196X"mod="START"$\rangle$}60年代初頭{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="DATE"value="XXXX-10-XX"mod="MID"$\rangle$}10月半ば{\tt$\langle$/TIMEX3$\rangle$}\\{\tt$\langle$TIMEX3type="DURATION"value="P40Y"mod="APPROX"$\rangle$}約40年{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}日付・時刻表現に対する\mod属性として,{\ttBEFORE},{\ttAFTER},{\ttON\_OR\_BEFORE},{\ttON\_OR\_AFTER}がある.例えば「1998年以前」は以下のようにアノテーションする.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「1998年以前」}{\small{\tt$\langle$TIMEX3type="DATE"value="1998"mod="ON\_OR\_BEFORE"$\rangle$}1998年以前{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}時間表現に対する\mod属性として,{\ttEQUAL\_OR\_LESS},{\ttEQUAL\_OR\_MORE},{\ttLESS\_THAN},{\ttMORE\_THAN}がある.例えば「10分以内」は以下のようにアノテーションする.{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{「10分以内」}{\small{\tt$\langle$TIMEX3type="DURATION"value="PT10M"mod="EQUAL\_OR\_LESS"$\rangle$}10分以内{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}
\section{\timexiii日本語適応上の問題点}
\modified{本節では$\langle$TIMEX3$\rangle$の日本語適応について問題となった事例について個別に紹介する.基本的には\valuefromsurfaceに日本語特有の表示を用い,\valueにTimeMLに適合した表示を用いる.必要に応じて韓国語のデータK-TimeML\cite{KTimeML}に準拠したKoreanTimebank1.0/2.0でどのような扱いを行っているのかを付記する.}\subsection{暦}\modified{日本語に\timexiiiを適応するうえで一番大きな問題として,和暦の問題がある.日本語では元号法に基づいた「昭和」「平成」などの年表記がテキスト中に出現する.これについては\valuefromsurfaceに「明治」「大正」「昭和」「平成」を表現する``M'',``T'',``S'',``H''の接頭子を二ケタの数字表現に付与することで記述し,\valueに西暦に換算したものを記述することとする.上記四つ以外の元号については\value相当に西暦を記述するのみで対処する.元号以外の時代名(例:「江戸時代」)については,時間情報表現として切り出しを行うのみで,\value相当は空白とした.}{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{和暦の扱い}{\small{\tt$\langle$TIMEX3type="DATE"@value="1985"@valueFromSurface="S60"$\rangle$}昭和60年{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}\modified{旧暦に対しては,\valuefromsurfaceにおいて日付表現の表示の末尾に''Q''を付与し旧暦を表し,明示的に新暦の暦日が記述されている場合にのみ\value相当に記述する.}\modified{皇紀に対しては,\valuefromsurfaceにおいて表示の最初に''JY''を付与し皇紀を表し,\value相当に西暦を記述する.}\modified{韓国語(韓国・北朝鮮),中国語(中国・台湾)なども同様の問題が起きうるが,公開されている文書を見る限り\value相当に西暦を記述することで対処している.}\subsection{月次の週番号の扱い}\modified{欧米地域では年単位の週番号を利用する傾向がある一方,東アジア地域では「第三木曜」など月単位の週番号を利用する傾向がある.このため,韓国より\timexiiiに対して月単位の週番号を記述可能にする拡張が提案されている.具体的には以下のように\valuefromsurfaceの日相当部分に週番号を記述する.\valueにはカレンダーを参照することによりISO-8601の標準表記{\ttXXXX-XX-XX}形式の値をわりあてた.}{\addtolength{\linewidth}{-6zw}\setlength{\leftskip}{3zw}\begin{itembox}[l]{月次の週番号の扱い}{\small{\tt$\langle$TIMEX3type="DATE"@value="2013-01-17"\\@valueFromSurface="XXXX-XX-W3-4"$\rangle$}第三木曜{\tt$\langle$/TIMEX3$\rangle$}}\end{itembox}\par}\subsection{\modified{その他日本語特有の表現}}\modified{以下では日本語適応において問題となった雑多な事例について紹介する.基本的に\valuefromsurfaceにおいて日本語に限定した形式で正規化を行い,\value相当は正規表現などを用いて正規化を行う.}\begin{itemize}\item旬(月の細分類)上旬,中旬,下旬\\\valuefromsurfaceにおいては``1J''(上旬),``2J''(中旬),``3J''(下旬)などと日本語に限定した形式を導入し,\valueには``XXXX-XX-(0[123456789]$|$10)''(上旬)のように正規表現を用いて正規化を行った.\item未明・午前・真夜中\\\valuefromsurfaceにおいては新聞記事などで頻出する表現に対応するため``DW''(未明;\valueは``NI''(夜)相当)・``FN''(午前;\valueは``MO''(朝)相当)・``MN''(真夜中;\valueは``NI''(夜)相当)を導入した.\item学期\\\valuefromsurfaceにおいては学期を表現する記号として``G''を導入した.\valueは何学期制かが不明なので空白である事例が多い.\item国民の祝日\\国民の祝日は,国立天文台が官報で公表する「春分日」「秋分日」やハッピーマンデー制度が適用される四つの祝日も含めて\value相当にその年の正しい日付を記述する.\pagebreak\item休日\\時間情報表現として切り出すが,具体的にいつなのかわからない場合が多く,\valueは空白とした.\itemお盆\\\value相当に``SU''(夏)を記述する.\item十干十二支\\時間情報表現として切り出すが,具体的にいつなのかわからない場合が多く,\valueは空白とした.\end{itemize}
\section{\modified{作業環境と作業対象}}
\modified{本節では作業環境と作業対象であるBCCWJについて詳しく説明する.}\subsection{\modified{作業環境}}\begin{figure}[b]\begin{center}\includegraphics{20-2ia6f2.eps}\end{center}\caption{XMLEditoroXygenによるアノテーション}\label{fig:oxygen}\vspace{-0.5\Cvs}\end{figure}\modified{アノテーション作業にはXMLEditoroXygen\footnote{http://www.oxygenxml.com/}を利用した.DTDやXMLSchemaを記述することにより時間表現の切り出し部分や属性にわりあてる値などを統制することができる.\pagebreak時間表現の切り出しはマウスもしくはキーボードで対象となる文字列を選択したうえでCtrl-eとタイプし,タグを選択することで,XMLタグ(閉じタグも含む)が挿入される.この状態で画面右の属性項目を記述することにより,XMLファイルを編集することができる.}\modified{言語資源に対するアノテーションにおいて,ある一定の基準を守ったうえで複数の作業者の主観を尊重してそれぞれの作業者間の判断の揺れを許す場合\footnote{例えば例文「柔道家が先輩に勝った仲間を紹介した」に対して一般的な統語的な制約基準を教示したうえで,本質的に2通りの解釈が残る場合に片方の解釈に矯正せずに作業者間の選択選考性の差異の判断を委ねるような場合.},基準を厳格化し作業者間の判断の揺れを許さない場合の2通りの統制手法がある.本論文の時間情報表現の特定の時間軸上への写像作業は後者の統制手法を取るために図\ref{fig:pair}のようにペアプログラミングのような手法を取った.1台のPCに,キーボード二つ・マウス二つ・ディスプレイ二つを接続し,ディスプレイはミラーリングを行う.一つのPCを共有したうえで,作業者がアノテーション作業を行い,作業監督者がアノテーション仕様の改訂を行う.}\begin{figure}[t]\begin{center}\includegraphics{20-2ia6f3.eps}\end{center}\caption{ペアプログラミングによるアノテーション作業}\label{fig:pair}\vspace{-1\Cvs}\end{figure}\modified{アノテーション作業は1人の作業者と1人の作業監督者により行った.1回目のアノテーション時の作業時間は7時間15分週2日勤務で約2か月だった.1回目のアノテーション直後(1回目見直し)と6か月後(2回目見直し)に見直しを行った.1回目の見直し作業はアノテーション結果を帳票形式で出力したうえで,属性に関する見直しを行った.2回目の見直し作業は再度XMLEditor上で行った.アノテーションデータは1回目の見直し作業が終わった時点で公開しており,利用者から誤りの指摘があった場合に修正を行っている.}\modified{このアノテーション作業の準備段階の\timexiiiの切り出しの一致率は95\%以上であり,切り出しの不一致の多くが単純な見落としであった.属性についての一致率は,一つの時刻・時間に複数の意味論的表示を許す\value,\valuefromsurface\footnote{例えば,「30分」を表現する\valueとして``PT30M''と``PT0.5H''の両方が許されている.}を除いて90\%以上である.}\subsection{\modified{作業対象}}\modified{作業対象であるBCCWJ\cite{BCCWJ}について\pagebreak概説する.BCCWJのコアデータは,OW:白書,PB:書籍,PN:新聞,OC:Yahoo!知恵袋,PM:雑誌,OY:Yahoo!ブログの六つのレジスタからなり,それぞれ約5万語単位で,アノテーションすべき優先順位に基づいた部分集合が規定されている\footnote{\modified{BCCWJにおいては,均衡性を保つためにコアデータにアノテーションする際の優先順位($A>B>C>D>E$)が定義されており,その優先順位に基づいて部分集合が定義されている.}}.上記全レジスタの部分集合``A''と比較的時間表現が多いレジスタであるPN(新聞)の部分集合``B''をアノテーション対象とした.}\modified{表\ref{tbl:data}にデータの概要を示す.表中「ファイル数」はアノテーションしたファイルの数,ファイル数の「うち時間表現あり」は時間表現を一つ以上含むファイルの数を表す.}\begin{table}[t]\caption{作業対象データ}\label{tbl:data}\input{06table08.txt}\end{table}\modified{OC,OYなどのユーザー生成コンテンツはサンプリングの長さにもよるが1ファイルに時間情報表現が一つも含まれないものがある一方,OW,PB,PN,PMなどのユーザー生成コンテンツ外のほとんどは時間表現が必ず一つ以上含まれている.OWの中で時間表現を一つも含まない1ファイルは「平成16年度森林・林業白書」であった.文単位では,OW,PNが時間情報表現を含む割合が最も多く,PBが時間情報表現を含む割合が最も少なかった.}
\section{タグの分析}
\modified{本節ではアノテーションした情報について,時間情報表現の正規化の観点から分析を行う.表\ref{tbl:result:stat}に文書作成日時を示すタグを除いた\typeごとのタグの出現数を曖昧性解消の観点から二つの視点で四つに分割して示す.一つ目の視点は\temporalfunctionが``{\tttrue}''か``{\ttfalse}''かである.``{\tttrue}''の場合,時間軸上に時区間が特定可(``DURATION''と``SET''は時間幅が特定可)であることを意味し,``{\ttfalse}''の場合,時間軸上に時区間が特定不可であることを意味する.二つ目の視点は\valueと\valuefromsurfaceの値が一致する(``=''で表記)か,一致しない(``$\neq$''で表記)かである.一致する場合人手による文脈を用いた正規化作業が行われていないことを意味し,一致しない場合人手による文脈を用いた正規化作業が行われたことを意味する.}\begin{table}[t]\caption{\type属性ごとの出現数と文脈による曖昧性解消可能性}\label{tbl:result:stat}\input{06table09.txt}\end{table}\modified{まず日付表現(``DATE'')について,時区間特定可(\temporalfunctionが``{\tttrue}'')であるものの多くが,人手による曖昧性解消が行われている(\value$\neq$\valuefromsurface)ことがわかる.このことから本アノテーションの目的とする時間表現の正規化作業の重要性がうかがえる.レジスタにもよるが,OW白書やPN新聞など,出版年・発行年月日が明らかであるものほど曖昧性解消がよく行われる傾向がある.日付表現の曖昧性解消は,和暦から西暦への換算や,西暦二ケタ表記から西暦四ケタ表記への換算,さらに年が省略されている表現の文脈や文書作成日時に基づく年の補完によるものがあり,白書の多くの事例がこの暦の換算作業であった.他のレジスタは曖昧性がない表現が多いわけではなく,文書作成日時など曖昧性を解消するに足る情報がデータ中に含まれていないことにより,具体的な時間軸上の区間を指し示すことができない事例が多かった.部分的に情報を補完すること(例えば「3日」という表現に対し9月であることまでがわかるが,何年であるかまではわからないので,{\tt\value="XXXX-09-03"}をわりあてること)も含まれており,時区間特定不可(\temporalfunctionが``{\ttfalse}'')であるが人手による曖昧性解消が行われている(\value$\neq$\valuefromsurface)ものがこれにあてはまる.}\modified{次に時刻表現(``TIME'')については,PBの1件を除いて時区間特定可であるものの殆どが人手による曖昧性解消が行われている.時刻表現の曖昧性解消は,日付が省略されている場合の日付の補完のほか,午前と午後の曖昧性解消が含まれる.日付表現と同様に出版年月日がわかる新聞記事の曖昧性解消がよく行われている一方,OCYahoo!\知恵袋やPM雑誌は,お店の営業時間など時間軸上の特定の時刻を表現しないものが多かった.}\modified{時間表現(``DURATION'')と頻度集合表現については,時間軸上の時区間を特定することを目的とせず,時間幅が特定できれば\temporalfunctionが``{\tttrue}''になると定義している.実際に時間軸上の時区間に写像する際には,日付・時刻表現や事象表現との時間的順序関係(TimeMLの\tlink)を定義することが必要になる.}
\section{おわりに}
本稿では\modified{BCCWJに対する日本語時間情報アノテーションについて}説明した.\modified{アノテーションは各国で進められている国際標準ISO-TimeMLに定義された\timexiiiタグに準拠している.他言語においては対象を新聞記事に限定しているのに対し,本研究は6種類のレジスタを対象にアノテーションを行い,レジスタ横断的な分析を行うとともに,日本語適応における問題点を調査した.}\modified{作成したアノテーションデータはスタンドオフ形式で}公開する.BCCWJのDVDを入手することでタグつきテキストコーパスが復元できる.以下,今後の展望を示す.今回作成したテキストコーパスをベンチマークとして正規化を行う日本語時間表現解析器の開発を現在進めている.作成中の解析器では,まず,表層文字列からわかる値をラティス上に展開し,セミマルコフモデルを用いて曖性解消を行う.解析対象表現—文書作成日時および解析対象表現—隣接時間情報表現の時間的順序関係を今回作成したタグつきコーパスを用いて機械学習器を用いて推定することにより,不定時間情報表現に対する情報補完を行う.今後,TimeMLで行われている事象表現と時間表現間の時間的順序関係(TimeML中の\tlink)付与を進めていきたい.そのためには,対象となる事象表現の策定,事象表現に対する分類(TimeML中の{\ttEVENT@type}),テンス・アスペクト体系の整備(同{\ttMAKEINSTANCE@tense,@aspect}),節間の関係定義(同{\ttSLINK})など解決すべき問題は山積している.事象表現に対する分類として工藤らの動詞分類\cite{工藤1995,工藤2004}を基にしたうえで,{\ttEVENT@type}を付与している.テンス・アスペクト体系については中村らのテンス・アスペクトの解釈\cite{中村2001}を参考にしてラベルを設計する予定である.日本語のアスペクト表現は多様であるために{\ttMAKEINSTANCE@aspect}については,元のTimeMLから拡張する予定である.今後TimeMLに準じた事象表現に対するアノテーションを行い,最終目標である事象表現に対する時間情報付与の研究へと進んでいきたい.\acknowledgment本研究は,国立国語研究所基幹型共同研究「コーパスアノテーションの基礎研究」および国立国語研究所「超大規模コーパス構築プロジェクト」による補助を得ています.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Boguraev\BBA\{KubotaAndo}}{Boguraev\BBA\{KubotaAndo}}{2005}]{Boguraev-2005}Boguraev,B.\BBACOMMA\\BBA\{KubotaAndo},R.\BBOP2005\BBCP.\newblock\BBOQ{TimeML-CompliantTextAnalysisforTemporalReasoning}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe19thInternationalJointConferenceonArtificialIntelligence(IJCAI-05)}},\mbox{\BPGS\997--1003}.\bibitem[\protect\BCAY{Boguraev\BBA\{KubotaAndo}}{Boguraev\BBA\{KubotaAndo}}{2006}]{Boguraev-2006}Boguraev,B.\BBACOMMA\\BBA\{KubotaAndo},R.\BBOP2006\BBCP.\newblock\BBOQ{AnalysisofTimeBankasaResourceforTimeMLparsing}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC-06)}},\mbox{\BPGS\71--76}.\bibitem[\protect\BCAY{{DARPATIDES}}{{DARPATIDES}}{2004}]{TERN}{DARPATIDES}\BBOP2004\BBCP.\newblock{\Bem{TheTERNevaluationplan;timeexpressionrecognitionandnormalization}}.\newblock{Workingpapers,TERNEvaluationWorkshop}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{MUC6}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQ{MessageUnderstandingConference-6:abriefhistory}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING-96)}},\mbox{\BPGS\466--471}.\bibitem[\protect\BCAY{橋本\JBA中村}{橋本\JBA中村}{2010}]{Hashimoto-2010}橋本泰一\JBA中村俊一\BBOP2010\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築—白書,書籍,Yahoo!知恵袋コアデータ—}.\\newblock\Jem{{言語処理学会第16回年次大会発表論文集}},\mbox{\BPGS\916--919}.\bibitem[\protect\BCAY{Im,You,Jang,Nam,\BBA\Shin}{Imet~al.}{2009}]{KTimeML}Im,S.,You,H.,Jang,H.,Nam,S.,\BBA\Shin,H.\BBOP2009\BBCP.\newblock\BBOQKTimeML:specificationoftemporalandeventexpressionsinKoreantext.\BBCQ\\newblockIn{\BemProceedingofALR7Proceedingsofthe7thWorkshoponAsianLanguageResources},\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{{IREX実行委員会}}{{IREX実行委員会}}{1999}]{IREX}{IREX実行委員会}\BBOP1999\BBCP.\newblock\Jem{{IREXワークショップ予稿集}}.\bibitem[\protect\BCAY{国立国語研究所コーパス開発センター}{国立国語研究所コーパス開発センター}{2011}]{BCCWJ}国立国語研究所コーパス開発センター\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』利用の手引}(第1.0\JEd).\bibitem[\protect\BCAY{工藤}{工藤}{1995}]{工藤1995}工藤真由美\BBOP1995\BBCP.\newblock\Jem{アスペクト・テンス体系とテクスト—現代日本語の時間の表現—}.\newblockひつじ書房.\bibitem[\protect\BCAY{工藤}{工藤}{2004}]{工藤2004}工藤真由美\BBOP2004\BBCP.\newblock\Jem{日本語のアスペクト・テンス・ムード体系—標準語研究を超えて—}.\newblockひつじ書房.\bibitem[\protect\BCAY{Mani}{Mani}{2006}]{Mani-2006}Mani,I.\BBOP2006\BBCP.\newblock\BBOQ{MachineLearningofTemporalRelations}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2006)}},\mbox{\BPGS\753--760}.\bibitem[\protect\BCAY{中村}{中村}{2001}]{中村2001}中村ちどり\BBOP2001\BBCP.\newblock\Jem{日本語の時間表現}.\newblockくろしお出版.\bibitem[\protect\BCAY{Pustejovsky,Casta\~{n}o,Ingria,Saur\'{i},Gaizauskas,Setzer,\BBA\Katz}{Pustejovskyet~al.}{2003a}]{TimeBank}Pustejovsky,J.,Casta\~{n}o,J.,Ingria,R.,Saur\'{i},R.,Gaizauskas,R.,Setzer,A.,\BBA\Katz,G.\BBOP2003a\BBCP.\newblock\BBOQ{TheTIMEBANKCorpus}.\BBCQ\\newblockIn{\Bem{ProceedingsofCorpusLinguistics2003}},\mbox{\BPGS\647--656}.\bibitem[\protect\BCAY{Pustejovsky,Hanks,Saur\'{i},See,Gaizauskas,Setzer,Radev,Sundheim,Day,Ferro,\BBA\Lazo}{Pustejovskyet~al.}{2003b}]{TimeML}Pustejovsky,J.,Hanks,P.,Saur\'{i},R.,See,A.,Gaizauskas,R.,Setzer,A.,Radev,D.,Sundheim,B.,Day,D.,Ferro,L.,\BBA\Lazo,M.\BBOP2003b\BBCP.\newblock\BBOQ{TimeML:RobustSpecificationofEventandTemporalExpressionsinText}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponComputationalSemantics(IWCS-5)}},\mbox{\BPGS\337--353}.\bibitem[\protect\BCAY{Sekine,Sudo,\BBA\Nobata}{Sekineet~al.}{2002}]{Sekine-2002}Sekine,S.,Sudo,K.,\BBA\Nobata,C.\BBOP2002\BBCP.\newblock\BBOQ{ExtendedNamedEntityHierarchy}.\BBCQ\\newblockIn{\Bem{TheThirdInternationalConferenceonLanguageResourcesEvaluation(LREC-02)}},\mbox{\BPGS\1818--1824}.\bibitem[\protect\BCAY{Setzer}{Setzer}{2001}]{Setzer-2001}Setzer,A.\BBOP{2001}\BBCP.\newblock{\Bem{TemporalInformationinNewswireArticles:AnAnnotationSchemeandCorpusStudy}}.\newblockPh.D.\thesis,{UniversityofSheffield}.\bibitem[\protect\BCAY{Verhagen,Gaizauskas,Schilder,Hepple,Katz,\BBA\Pustejovsky}{Verhagenet~al.}{2007}]{TempEval}Verhagen,M.,Gaizauskas,R.,Schilder,F.,Hepple,M.,Katz,G.,\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQ{SemEval-2007Task15:TempEvalTemporalRelationIdentification}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)}},\mbox{\BPGS\75--80}.\bibitem[\protect\BCAY{Verhagen,Saur\'{i},Caselli,\BBA\Pustejovsky}{Verhagenet~al.}{2010}]{TempEval2}Verhagen,M.,Saur\'{i},R.,Caselli,T.,\BBA\Pustejovsky,J.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task13:TempEval-2}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)}},\mbox{\BPGS\57--62}.\end{thebibliography}\begin{biography}\bioauthor{小西光}{2005年上智大学文学部卒業.2007年上智大学文学研究科博士前期課程修了.2008年より国立国語研究所コーパス開発センタープロジェクト奨励研究員.現在に至る.『日本語書き言葉均衡コーパス』『日本語話し言葉コーパス』『日本語超大規模コーパス』の整備に携わる.}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在に至る.博士(工学).自然言語処理・コーパス言語学の研究に従事.}\bioauthor{前川喜久雄}{1956年生.1984年上智大学大学院外国語学研究科博士後期課程(言語学)中途退学.国立国語研究所教授.言語資源系長.コーパス開発センター長.博士(学術).専門は音声学ならびに言語資源学.}\end{biography}\biodate\end{document}
| |
V17N02-02
|
\section{はじめに}
\label{sec:first}情報抽出や機械翻訳などのNLPの応用処理への需要が高まる中で,その技術を実現するための中核的な要素技術となる照応・共参照と述語項構造の解析に関して多くの研究者が解析技術を向上させてきた.それらの技術の多くは各情報が付与されたコーパス(以後,タグ付与コーパス)を訓練用データとして教師あり手法を用いるやり方が一般的であり,解析の対象となるコーパス作成の方法論についても議論がなされてきた\cite{Hirschman:97,Kingsbury:02,Doddington:04}.照応・共参照解析については,主に英語を対象にいくつかのタグ付与のスキーマが提案されており,実際にそのスキーマに従ったコーパスが作成されている\cite{Hirschman:97,Kawahara:02,Hasida:05,Poesio:04,Doddington:04}.例えば,MessageUnderstandingConference(MUC)のCoreference(CO)タスク\cite{Hirschman:97}や,その後継にあたるAutomaticContentExtraction(ACE)programのEntityDetectionandTracking(EDT)タスクでは,数年に渡って主に英語を対象に詳細な仕様が設計されてきた.また,述語項構造解析に関しては,CoNLLのsharedtask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}で評価データとして利用されているPropBank~\cite{Palmer:05}を対象に仕様が模索されてきた.日本語を対象に述語項構造と照応・共参照の研究をするにあたり,分析,学習,評価のための大規模なタグ付きコーパスが必要となるが,現状で利用可能なGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)は,述語項構造や共参照の解析のための十分な規模の評価データとはいえない.日本語を対象に述語項構造を照応・共参照の研究を進めるためには,英語の場合と同様にタグ付きコーパスを構築する必要があるが,日本語では述語の格要素が省略される\textbf{ゼロ照応}の現象が頻出するため,後述するように述語項構造の記述の中で照応現象も同時に扱う必要がある.そのため,英語では独立に扱われている述語項構造と(ゼロ)照応の関係の両方のタグ付与の仕様を把握し,2つの関係横断的にどのようにタグ付与の仕様を設計するかについて考える.タグ付与の仕様は最初から完成したものを目指すのではなく,作業仕様を経験的に定め,人手によるタグ付与の作業を行い,作業結果を検討することで洗練していくことを想定している.本論文ではこれまでに行った仕様に関する比較検討の内容と現在採用している我々の作業仕様について説明する.この際,MUCやACEの英語を対象に設計されたタグ付与の仕様に加え,日本語を対象に作成された既存の共参照・述語項構造のタグ付きコーパスであるGlobalDocumentAnnotation(GDA)~\cite{Hasida:05}タグ付与コーパス(以後,GDAコーパス)や京都テキストコーパス第4.0版(以後,京都コーパス4.0)\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}との比較も行う.本論文ではまず\sec{second}で照応と共参照の関係について確認し,\sec{third}では述語項構造と照応・共参照のタグ付与に関する先行研究を紹介する.次に,\sec{fourth}で先行研究を踏まえた上の我々のタグ付与の基準を示し,その基準に従った作業結果についても報告する.さらに,\sec{fifth}で今回作業を行った際に問題となった点について説明し,\sec{fifth}でその改善案とその案にしたがって作業をやり直した結果について報告し,最後に\sec{seventh}でまとめる.また,今回の作業の結果作成された述語項構造と照応・共参照タグ付与コーパスをNAISTテキストコーパスとして公開している.詳細は{http://cl.naist.jp/nldata/corpus/}を参照されたい.
\section{照応と共参照}
\label{sec:second}\begin{figure}[b]\begin{center}\includegraphics{17-2ia3f1.eps}\end{center}\caption{文内ゼロ照応}\label{fig:zero}\end{figure}\textbf{照応}とはある表現が同一文章内の他の表現を指す機能をいい,指す側の表現を\textbf{照応詞},指される側の表現を\textbf{先行詞}という.日本語の場合は述語の格要素の位置に出現している照応詞が頻繁に省略される.この省略された格要素を\textbf{ゼロ代名詞}といい,ゼロ代名詞と照応関係となる場合を\textbf{ゼロ照応}と呼ぶ.本研究では便宜上ゼロ照応の関係をゼロ代名詞とその先行詞の出現位置で3種類に分類する.ゼロ代名詞と先行詞が同一文内に出現している場合を\textbf{文内ゼロ照応}と呼び,また先行詞がゼロ代名詞と同一文章内の異なる文に出現している場合を\textbf{文間ゼロ照応}と呼ぶ.例えば,\fig{zero}で``行く''のガ格が省略されており,その項が述語と係り受け関係にないため,``行く''のガ格のゼロ代名詞とその項``太郎''は文内ゼロ照応の関係にあると考える\footnote{この例は並列表現はゼロ照応と区別すべきという議論もあるが,項が係り受け関係にない場合は統一的にゼロ照応とみなすほうが機械処理を行う際には見通しがよいと考えている.}.最後に,ゼロ代名詞の先行詞が文章内に出現しない場合を\textbf{外界照応}と呼ぶ.一方,二つ(もしくはそれ以上)の表現が現実世界(もしくは仮想世界)において同一の実体を指している場合には\textbf{共参照}(もしくは\textbf{同一指示})の関係にあるという.先行詞となる表現が固有表現になる場合など,多くの場合は照応関係かつ共参照の関係が成り立つ.例えば,文章\NUM{ex1}では,代名詞``彼$_i$''が``横尾$_i$''を指しており,かつ同一の人物を指しているため,照応関係かつ共参照関係である.\EX{ex1}{\ul{横尾}$_i$は画家でもないし、デザイナーでもない。\\~要するに、そんなことは\ul{彼}$_i$にとってはどうでもよいことなのだ。}これに対し,文章\NUM{ex2}では,2文目の``それ$_i$''は1文目の``iPod$_i$''を指しているため照応関係となるが,同じ実体を指していないため共参照関係とはならない.\EX{ex2}{太郎は\ul{iPod}$_i$を買った。\\~次郎も\ul{それ}$_i$を買った。}このように照応関係にある場合でも,同一の実体を指している場合とそれ以外の場合が存在する.文献~\cite{Mitkov:02}では,前者のような共参照かつ照応関係となる関係をidentity-of-referenceanaphora(IRA),後者をidentity-of-senseanaphora(ISA)と呼び区別している.照応と共参照は異なる概念であるにもかかわらず,IRAが両方の性質を兼ねるため,既存研究ではそれぞれの概念が混同して扱われてきた.\sec{third}で述べるタグ付与コーパス作成の先行研究でも同様にいくつかの異なる解釈で仕様が設計されている.
\section{先行研究}
\label{sec:third}この節では,共参照と述語項構造のタグ付与に関する主な先行研究を説明する.\subsection{照応・共参照のタグ付与}\label{ssec:pre_coref}情報抽出の主要な会議であるMessageUnderstandingConfernce(MUC)では,第6回と第7回の会議(以後,MUC-6とMUC-7)において,情報抽出の部分問題として共参照解析の問題を扱っている\footnote{http://www-nlpir.nist.gov/related\_projects/muc/proceedings/co\_task.html}.MUC-6,MUC-7の共参照関係タグ付与コーパスでは名詞句間の共参照関係がタグ付与され(ただし,動名詞(gerund)は除く),Soonら\cite{Soon:01}やNgら\cite{Ng:02}などさまざまな機械学習に基づく共参照解析手法のgoldstandardデータとして利用されてきた.しかし,このコーパスの仕様では,一般に共参照関係とはみなされないような量化表現(every,mostなど)を伴う場合や同格表現(\ul{JuliusCaesar}$_i$,\ul{\mbox{the/awell-known}\mbox{emperor}}$_i$,...)も共参照関係とみなしてタグ付与されているという問題を含んでいる\footnote{詳細は文献\cite{Deemter:99}を参照されたい.}.MUCの共参照解析タスクの後継に相当するAutomaticContentExtraction(ACE)~\cite{Doddington:04}のEntityDetectionandTracking(EDT)では,この過剰な共参照関係の認定を回避するために,mention(\textbf{言及})とentity(\textbf{実体})という2つの概念を導入しタスクを設定している.言及とは文章中に出現する表現のことで,情報抽出で解析の対象となる特定の種類の固有表現を含む.これに対し,実体とは\sec{second}で述べた意味での実体,つまり現実世界(もしくは仮想世界)で指せるモノを意味する.例えば,\fig{ace}の例については,``ジョン''と``彼''はそれぞれクラスがnamesとpronounsの言及であり,その2つの表現が実体のレベルではクラスがspecific\_referenceである同一の実体を指しているというタグ付与を行う.\begin{figure}[t]\begin{center}\includegraphics{17-2ia3f2.eps}\end{center}\caption{言及(mention)と実体(entity)}\label{fig:ace}\end{figure}EDTのタグ付与\footnote{http://projects.ldc.upenn.edu/ace/annotation/}では,言及の型が人名や組織名など特定の種類の固有表現に該当する場合で,かつ総称的(generic)でない場合にのみ共参照関係のタグ付与を行う.このため,ACEのデータセットでは文章内に出現する共参照関係に網羅的にタグが付与されず,文章内のすべての実体を対象として解析を行うには不十分なデータとなっている.日本語に関しても,京都コーパス4.0\cite{Kawahara:02}やGDAコーパス\cite{Hasida:05}などのタグ付きコーパスに共参照相当のタグが付与されている.京都コーパス4.0には,係り受けの情報に加え,毎日新聞95年度版の一部(555記事,5,127文)に114,729もの共参照タグが付与されている.ただし,このコーパスではACEで導入されている実体と実体の間の共参照関係に加え,実体と属性の間にも共参照関係のタグを付与している.例えば,文\NUM{kyc}では,実体``村山富市$_i$''とその属性``\nobreak首相$_i$''の間に共参照の関係が付与されることになる.\EX{kyc}{\ul{村山富市}$_i$\ul{首相}$_i$の年頭記者会見の要旨は次の通り。}一方,GDAコーパスでは,表現が実体を指している場合と総称的な表現の場合を区別せずに共参照の関係を認定している.下記の\NUM{gda_ex}はGDAコーパスから抜粋したものだが,この文章では総称名詞である2つの``フロン$_i$''に対して共参照タグが付与されている.このような例が多数見られたため,GDAの共参照タグはIRAとISAの両方の関係で付与されていると考えられる.\EX{gda_ex}{\ul{フロン}$_i$対策急げ...\ul{フロン}$_i$による環境破壊対策は...}\subsection{述語項構造のタグ付与}\label{ssec:pre_pred}述語とその項\footnote{本稿で用いる用語``項''はcomplementとadjunctの両方を指す.}のタグ付与に関しては,表層格レベルから深層格レベルまでさまざまなレベルでのタグ付与についての議論がある.例えば,英語を対象としたPropBank~\cite{Palmer:05}では,述語の項のラベルとして,基本的にはagentやthemeなどの意味役割に相当するARG0,ARG1,$\dots$,ARG5,AA,AM,AM-ADVなど,35種類のタグを用いて文章にタグ付与を行っている.一例をあげると,文\NUM{prop}に出現している動詞``earned''に対し,``therefiner''をagent相当であるARG0,``\$66million,or\$1.19ashare''をthemeに相当するARG1としてタグが付与されている.\EX{prop}{[$_{{\rmARGM-TMP}}$\textit{Ayearearlier}],[$_{{\rmARG0}}$\textit{therefiner}][$_{{\rmrel}}$\textit{earned}][$_{{\rmARG1}}$\textit{\$66million,or\$1.19ashare}].}ただし,PropBankでは項が付与される範囲は同一文内に限定されている.一方,日本語を対象に述語項構造を考える場合は必須格が省略されるゼロ照応の現象が頻繁に起きるため,文を越えて出現している表現や,もしくは文章外の要素も考慮してタグ付与を行う必要がある.京都コーパス4.0では文間ゼロ照応,外界照応となる項に関してもタグが付与されている.共参照タグ付与の対象となった555記事を対象にガ/ヲ/ニ/カラ/ヘ/ト/ヨリ/マデなどの格助詞相当の表層格に加え,ニツイテのような連語も一つの表層格として述語と項の関係が付与されている.例えば,文\NUM{zero_ex}に出現している述語``答え(る)''では前方に出現している``状態$_i$''をニツイテという表層格でタグ付与している.\EX{zero_ex}{体の\textbf{状態}$_i$について健康と\ul{答えた}$_{ニツイテ:i}$人は八七・八%で、体力に自信を持っているとの回答は八一・一%だった。}また,GDAコーパスではゼロ照応に関してagent,themeなどの粒度で意味役割のタグが付与されているが,我々が確認した限りでは,述語と係り関係にある場合や,ゼロ照応の関係として認定できる場合であっても先行詞が同一文内に出現している場合にはタグが付与されておらず,述語項構造解析の訓練事例として利用するには網羅性の点で問題がある.\subsection{事態性名詞のタグ付与}\label{ssec:event_noun}動詞や形容詞などの述語への項構造の付与に加え,動詞派生名詞やサ変名詞などの名詞(以後,\textbf{事態性名詞})についても述語と同様に,項同定の問題が設計され\cite{Meyers:04,Hasida:05,Kawahara:02},実際にそれらの問題への取り組みも報告されている\cite{Jiang:06,Komachi:07,Liu:07}.例えば,Meyersらが作成したNomBank~\cite{Meyers:04}では,PennTreebank~\cite{Marcus:93}を対象に名詞とその項構造のタグ付与を行っている.このコーパスでは英語における動詞の名詞化に着目して,PropBank~\cite{Palmer:05}で用いられている意味役割相当の項のラベルを句の中に項が出現している場合に限ってタグ付与している.例えば,文\NUM{nom}中の名詞``complaints''について,``customer''がagent相当の表現であり,また``aboutthatissue''がtheme相当の表現であるといったタグ付与を行っている.\EX{nom}{Therehavebeen[$_{\rmARGM-NEG}$\textit{no}][$_{\rmARG0}$\textit{customer}][$_{\rmrel}$\textit{complaints}][$_{\rmARG1}$\textit{aboutthatissue}].}日本語に関しても,京都コーパス4.0では事態性名詞とその項に対して表層格でタグが付与されている.例えば,文\NUM{event_ex}に示すように``及ぼす''の格要素となっている事態``影響''に対して,``離党$_i$''が``影響する''ことのガ格として付与されている.\EX{event_ex}{村山富市首相は年頭にあたり首相官邸で内閣記者会と二十八日会見し、社会党の新民主連合所属議員の\textbf{離党}$_i$問題について「政権に\ul{影響}$_{ガ:i}$を及ぼすことにはならない。離党者がいても、その範囲にとどまると思う」と述べ、大量離党には至らないとの見通しを示した。}名詞の項構造については,名詞と項の関係が「\textbf{候補}$_i$\ul{擁立}$_{ヲ:i}$」や「\textbf{兵士}$_j$の\ul{脱走}$_{ガ:j}$」のように,複合名詞句の中や``AノB''などに縮退される場合もあり,このような場合どこまでをタグ付与の対象とするかを決定する必要がある.
\section{NAISTテキストコーパスで採用するタグ付与の仕様}
\label{sec:fourth}\sec{third}で述べた先行研究のタグ付与仕様の背景にある考え方,およびまたその仕様を採用した場合に生じる問題点を考慮した結果,我々は以下の3つの基準を基本方針として採用するに至った.\begin{enumerate}\item\textbf{述語項構造については,述語の基本形にその項となる表現を表層格(ガ格,ヲ格,ニ格)レベルでタグ付与する.}\item\textbf{事態性名詞についても,述語と同様に表層格レベルで項を付与する.}\item\textbf{共参照関係については,IRAの関係のみを対象として共参照の関係を認定する.}\end{enumerate}以下で,それぞれの詳細を説明する.\subsection{述語と項のタグ付与}\label{ssec:spec_pred}述語そのものの認定に関しては,品詞体系としてIPADIC~\cite{Asahara:03}を採用し,動詞,形容詞,名詞+``だ(助動詞)''の3種類をタグ付けの対象となる述語とみなし,作業を行う.述語の格要素については,京都コーパス4.0が採用しているような表層格,GDAで採用されているagent,themeのような意味役割,またPropBankで付与されているARG0やARG1といった意味役割相当のラベルなど,さまざまなタグ付与のレベルが考えられる.この中で我々は「誰が何を何に対してどうする」という情報抽出的な観点でタグを付与することが自然だと考え,述語の原形の必須格に対して項のタグを付与するという仕様を採用した.この仕様に従った場合,さらにガ格などの表層格レベルでのタグ付与を行うか,もしくはagentもしくはARG0といった意味役割レベルでタグを付与するかという2つの選択肢があるが,ここでは表層レベルからなんらかの情報を捨象して意味のレベルを考えることが応用処理横断的に有益かどうかが現状では判断できないという理由で,格交替の情報のみを捨象した表層格でタグ付与を行った.例えば,京都コーパス4.0では文\NUM{pred_ex1}の述語``食べさせる''に対して``私$_i$'',``彼$_j$'',``リンゴ$_k$''をそれぞれガ,ヲ,ニ格でタグ付与するのに対し,我々の仕様では述語の原形``食べる''に対して``彼$_j$ガリンゴ$_k$ヲ食べる''というタグを付与する.ただし,述語の原形に対してタグを付与する場合には使役者に相当する``私$_i$''と述語``食べる''の間の関係にタグが付与されないことになる.これを回避するため,格要素を増やす助動詞に対してタグ``追加ガ(ニ)格''を付与した.例えば,文\NUM{pred_ex1}では,助動詞``させる''に対し``私$_i$''を追加ガ格でタグ付与し,文\NUM{pred_ex2}では助動詞``やる''に対し``彼$_j$''を追加ニ格でタグ付与する.\EXS{pred_ex1}{\small\item\textbf{私}$_i$は\textbf{彼}$_j$に\textbf{リンゴ}$_k$を\ul{食べさせる}$_{ガ:i,ヲ:k,ニ:j}$\item\textbf{私}$_i$は\textbf{彼}$_j$に\textbf{リンゴ}$_k$を\ul{食べ}$_{ガ:j,ヲ:k}$\ul{させる}$_{追加ガ格:i}$}\EX{pred_ex2}{\small\textbf{私}$_i$は\textbf{彼}$_j$に\textbf{本}$_k$を\ul{読ん}$_{ガ:i,ヲ:k}$で\ul{やる}$_{追加ニ格:j}$}京都コーパス4.0では表層格を網羅する形をとっているが,今回の作業では,頻出するガ/ヲ/ニ格のみを対象にタグ付与を行う.当面このような基準で作業を進めることで,今後深層格の情報をタグとして付与する必要がでてきた場合にも,述語の基本形の必須格に付与した情報は,agent,themeのような意味役割を付与する場合や語彙概念構造(LCS)\cite{Jackendoff:90}の意味述語の情報を付与する際にも役立つと考えられる.また,ゼロ照応の関係として項を付与する場合には,前方文脈に先行詞と認め得る名詞句が複数個出現している場合がある.例えば,文章\NUM{multi_ants}の2文目で動詞``接する''のガ格は省略されており,このゼロ代名詞に対して1文目の``村山富市首相'',もしくは2文目の``首相''の両方が補完可能である.\EX{multi_ants}{就任後初めて地元の大分県へ里帰りしていた\textbf{村山富市首相}$_i$は三十一日夕、三泊四日の日程を終えて日航機で羽田空港に到着した。\\~\textbf{首相}$_i$は記者団に対し、「突然大分に帰ったが、温かい歓迎に\ul{接し}$_{ガ:i}$『地元はいいなあ』という感謝の気持ちでいっぱい。期待に応えてしっかり頑張らないといかんという気持ちを一層強く持った」と感想を述べた。}このような状況の場合,ゼロ照応の正解データとしては両方の表現が先行詞としてタグ付与されているべきであるが,すべての先行詞となり得る表現を作業者が把握しタグ付与していくことは作業効率と作業品質の両方から見て得策とはいえない.このような問題に対し,我々が行った作業では共参照の関係も同時にタグ付与することで,共参照関係にある表現の集合のうちどれか一つが先行詞としてタグ付与されるだけで,共参照関係にある他の表現にもタグが付与されたこと同じ結果として考えることができる.文章\NUM{multi_ants}の例に戻ると,``村山富市首相''と``首相''が共参照の関係であるとタグ付与されていることで,``接する''のガ格ゼロ代名詞の先行詞はいずれかの表現にタグ付与するだけでよくなる.最後に,\tab{comp_pred}に述語に関する我々の仕様と他のコーパスの仕様の比較をまとめる.\begin{table}[t]\caption{述語と項のタグ付与の比較}\label{tab:comp_pred}\input{03table01.txt}\end{table}\subsection{事態性名詞と項のタグ付与}\label{ssec:spec_event}動詞や形容詞などの述語に加え,事態性名詞に対して述語と同様に必須格となるガ/ヲ/ニ格を付与する.作業者は与えられた名詞(主にサ変名詞)が事態を表しているか否かを判定し,事態性名詞と判断した名詞(句)に対して必須格を付与する.例えば,文\NUM{ex_event}で出現している二つの``電話''という名詞のうち,``電話$_i$''が「電話する」というコトを表しているのに対し,\mbox{``電話$_j$''}は「(携帯)電話」というモノを表している.この状況で作業者は``電話$_i$''のみを事態性名詞と認定し,これに対して``\nobreak彼\nobreak$_a$''をガ格,``私$_b$''をニ格として付与しなければならない.\EX{ex_event}{\textbf{彼}$_a$からの\ul{電話}$_{i_{(ガ:a,ニ:b)}}$によると、\textbf{私}$_b$は彼の家に\ul{電話}$_j$を忘れたらしい。}また,タグ付与の対象が複合語の場合はその構成素を構成的に分解した上でそれぞれの構成素に対して事態性判別の作業を行う.例えば,「紛争仲裁」は構成素``紛争''と``仲裁''のそれぞれの意味を構成的に組み合せてできた複合語だとみなし,``仲裁''を事態性名詞と判断する.\subsection{名詞句間の共参照関係のタグ付与}\label{ssec:spec_coref}共参照のタグ付与では,\sec{second}で述べたIRAに加えISAの関係も含めてタグを付与するか否かの選択肢があるが,ISAの関係まで含めてしまうと,総称名詞間の包含関係のような複雑な関係を考慮して作業を行う必要がある.例えば,文章\NUM{book}では,``食べ物''と``食料''が同一の概念であるため,共参照の関係とするか否かの判断が必要となるが,厳密にはこの二つの表現は\mbox{``兵}庫県内で不足している食べ物''と``被災地(兵庫県)を離れた場所にある食料''という異なる概念を指すためISAの関係として認定すべきではない.このように,概念の同一性を判断するためにはその表現が出現する文脈との関連性を捉え,その表現が指す範囲を考えた上で同じ概念を指しているかを考える必要があり,共参照の認定が非常に困難な作業となる.\EX{book}{兵庫県内の暗やみの中で、人々が水と\ul{食べ物}の不足に苦しんでいる同じ夜、隣接した大阪の繁華街ではネオンが光り、飲食店はにぎわっている。\\~水も\ul{食料}も、被災地を離れるとふんだんにある。}そこで,述語や事態性名詞がISAも含めた関係にタグ付与しているのに対し,共参照に関してはIRAの関係にのみタグを付与する.ただし,EDTの仕様のように,実体が組織名や場所名など数種の固有表現に限定して共参照関係のタグを付与することは,さまざまな応用分野で必要となる共参照の表現を網羅できないため望ましくない.そこで,今回の作業では,以下の3つの基準に基づいて表現のクラスを限定せずに共参照関係のタグ付与を行い,どのような問題が生じるのかを調査した.\begin{enumerate}\item\textbf{照応詞は文節の主辞(最右の名詞自立語)のみに限定する}.\item\textbf{談話内に出現した名詞句のみを先行詞とする}.\item\textbf{総称名詞は照応詞,先行詞とみなさない}.\end{enumerate}既存の共参照関係のタグ付与の研究と比較すると\tab{diff_coref}のようになる.\begin{table}[t]\caption{共参照タグ付与の差異}\label{tab:diff_coref}\input{03table02.txt}\end{table}\subsection{統計}\ssec{spec_pred},\ssec{spec_event},\ssec{spec_coref}の仕様に従い,京都コーパス3.0の全記事(2,929記事,38,384文)\footnote{タグ付与の対象として本研究では京都コーパス3.0を採用しているが,その後新たに公開された京都コーパス4.0は京都コーパス3.0と比較して2記事を削除してあるだけであり,こちらのコーパスにタグ付与された係り受け情報と照合する際にもNAISTコーパスの述語項構造・共参照のタグの情報は問題なく照合できると考えられる.}を対象に,2人の作業者が述語項構造と共参照の関係についてタグ付与作業を行った.述語/事態性名詞とその項に付与されたタグの個数を\tab{statics}にまとめる.ただし,項の出現位置によって,同一文節内\footnote{「明らかになる」のような表現がコーパス中では一文節であるのに対し,作業者が「明らかに」と「なる」を分けて付与した場合などを含む.},係り関係にある場合\footnote{「サンマを焼く男」の「男」が「焼く」のガ格となるような,連体修飾の関係も含む.},文内のゼロ照応関係,文間のゼロ照応関係,外界照応の5つに分類して頻度を求めた\footnote{今回タグ付与される情報には係り受け関係は含まないが,京都コーパスの係り受け情報と統合することによりゼロ照応か否かの判別が可能である.}.\tab{statics}より,述語の項目ではヲ格,ニ格の項のほとんどは係り関係にあるのに対し,ガ格の約6割はゼロ照応の関係にあることがわかる.これに対して,事態性名詞のヲ格,ニ格は同一文節内,つまり複合語の構成素として項が出現している割合が高く,ガ格に関しては約8割がゼロ照応の関係にあり,述語の場合と比較して項の出現箇所がおおきく異なっていることがわかる.\begin{table}[t]\caption{述語と事態性名詞のタグの統計(NAISTテキストコーパス全体)}\label{tab:statics}\input{03table03.txt}\end{table}共参照関係のタグについては,タグ付与された実体の総数が10,531,最初に出現した表現を先行詞,その他を照応詞とみなしたときの照応詞の個数が25,357であった.京都コーパス4.0より圧倒的に個数が少ないが,これは厳密にISAの関係と判断できる場合のみタグ付与を行ったためだと考えられる.また,共参照に関与する代名詞の個数は622と,京都コーパスと比較してタグ付与した記事に対する割合が小さい.これは作業者が(1)節照応の付与を行わずに,(2)共参照タグ付与に関して厳密な実体の一致を強いたために完全に一致するとみなせない場合にはタグが付与されなかったためだと考えられる.代名詞に関しては現状の仕様のようにIRAの関係でタグを付与する立場と,実体の一致を問題としないISAの関係で付与するという立場の二つを考えることができ,どちらが良いかは応用分野によって異なる.そのため,代名詞については追加的にISA関係のタグを分けて付与することも今後検討したい.次に,実際に作業を行っている2人の作業者間のタグ付与の一致率を調査するため,ランダムに選択した報道30記事を対象に作業を行った.評価は一方の作業者のタグ付与の結果を正解,他方の作業結果をシステムの出力とみなし再現率と精度で評価する.ただし,それぞれのタグの一致率は各タグの終了位置の一致で評価した.また,述語と事態性名詞の項の一致率については,2人の作業者の述語(事態性名詞)が一致した箇所のみを対象に評価した.また,共参照の一致率についてはMUCscore\cite{Vilain:95}を用いて再現率と精度を求めた.これらの基準で評価した結果を\tab{agree}に示す.\tab{agree}よりわかるように,それぞれのタグ付与は多くの場合8割を越える品質で作業ができているが,改善の余地は大きい.\sec{fifth}では,各タグ付与において,問題となった主要な点を説明し,その問題を解決するための今後の方向性について議論する.\begin{table}[t]\caption{タグの一致率(報道30記事)}\label{tab:agree}\input{03table04.txt}\end{table}
\section{タグ付与の問題点と今後の展望}
\label{sec:fifth}この節では述語,事態性名詞,共参照のそれぞれのタグ付与作業中に生じた問題を説明し,それに対する今後の対応などをまとめる.\subsection{述語のタグ付与の問題点}まず,述語そのもののタグ付与に関してだが,タグ付与対象となる述語が「〜と\ul{し}て」のような機能語相当表現と表現上では同一の場合に述語認定に揺れが生じることがわかった.例えば「会社Aが会社Bを子会社と\ul{し}て」では「として」が``ある一つの側面からの価値付け・意味付け''という意味の機能語相当表現なのか,それとも「会社Aが会社Bを子会社と\ul{する}」と解釈すべきなのかを判断することが難しい.この機能語相当表現の問題については,土屋ら\cite{Tuchiya:06}がタグ付与作業に関して作業者間の高い一致率を得ており,彼らの作業方針を参考に仕様を洗練していく予定である.\subsection{事態性名詞タグ付与の問題点}\label{ssec:problem_eventnoun}事態性名詞の認定に関して,今回は「対象となる名詞(句)が出現文脈でモノとコトのどちらを表しているかを判断し,コトの場合のみ項を付与する」という仕様を採用したが,タグ付与作業の結果,モノとコトの2値に分類することが困難な事例が多数出現し,それが作業の揺れの主な原因となった.例えば,例\NUM{report}の名詞``報告''は``文化庁ガ報告スル''というコトを表していると同時に報告された結果(内容物)というモノを表していることになり,この例からもわかるように,事態性名詞の中にはモノとコトのどちらとも解釈できるものがある.\EX{report}{\textbf{文化庁}の2005年の\ul{報告}によると、各宗教団体の報告による信者数は合計2億1100万人である。}つまり,項となり得る表現(例\NUM{report}では``文化庁'')が近傍に出現しているか否かがコトを指すか否かの判定におおきく影響し,上のような場合でも項となる表現が近くに出現していない場合はモノと判断されるなど,一貫した作業結果が得られていない.\subsection{項のタグ付与の問題点}項のタグ付与に関しては述語が取り得る格パタンが複数存在するために作業者間で揺れが生じることがわかった.この問題の典型的な例が自動詞と他動詞の交替である.例えば,述語\mbox{``実現する''}は同じ語義に対して表層格レベルで``agentガthemeヲ実現する''と``themeガ実現する''の2つの格パタンが存在するため,文章中ですべての格要素が省略されている場合は,作業者はどちらの解釈でもタグ付与が可能になってしまう.自他交替の問題と類似して,制度などの表現に動作主性(agentivity)を認めるか否かで解釈が異なるために揺れが生じる場合もある.例えば,文\NUM{alter}において,述語``しばる''は,直前に出現している``規制''の動作主性を認め,``規制ガthemeヲしばる''と``agentガ規制デthemeヲしばる''の2つの解釈が存在する.\EX{alter}{我々の生活が知らず知らずにどれだけ規制で\ul{しばら}れているか、規制緩和によって豊かさが変わっていくのかを考えてみた。}このような交替を伴う場合の揺れに関しては,どちらかのパタンを優先するという規則をあらかじめ決めておき作業することで対応できると考えられる.動作主性の問題に関連して,組織のような実体にどのくらい動作主性を認めるかが作業者間で異なるために揺れが生じる場合も頻繁に起こった.例えば,文\NUM{ex_role}では,組織``与野党''もしくはその組織の``党首''が事態``協力(する)''のガ格として解釈可能である.\EX{ex_role}{...自民、さきがけ、新進各党の\textbf{与野党}$_a$の\textbf{党首}$_b$会談を呼び掛けて\ul{協力}を求めるべきだ。}このような組織とその組織の関係者のような対立や,また文\NUM{ex_part}の``北朝鮮''と``同指導部''のような組織とその部署の関係など,ある名詞が他の名詞と関連しているために,複数の解釈が可能な場合は``(与野党ノ)党首''のように詳細化されているほうにタグを付与することによって作業者間の揺れを少なくすることができると考えられる.このように扱うことで,もし$\langle$所属(党首,与野党)$\rangle$のような名詞間の関係解析が実現できれば,他方の名詞(\NUM{ex_role}では``与野党'')と対象となる述語を関連付けて扱うことができる.\EX{ex_part}{\textbf{北朝鮮}$_a$における新年の辞は、\textbf{同指導部}$_b$の施政方針\ul{発表}に当たる重要行事である。}また\fig{lack}(a)のように,項としてタグ付与されるべき名詞句がIRAの関係で他の名詞句と関連付けられている場合は,共参照関係にある名詞句のいずれかを項として同定する問題とみなすことができるが,一方\fig{lack}(b)の``子供''と``児童''のようなISAの関係で出現している名詞句については,ラベルが付与されていない``子供''は述語の項としてタグが付与されないという問題が起こる.\begin{figure}[b]\begin{center}\includegraphics[width=.7\columnwidth,keepaspectratio]{17-2ia3f3.eps}\end{center}\caption{先行詞が総称名詞の場合のタグ付与の漏れ}\label{fig:lack}\end{figure}また,本研究では必須格となるガ/ヲ/ニを対象に述語項構造のタグ付与について議論したが,それ以外の格(カラ/ヘ/ト/ヨリ/マデ/デ)についても付与することが可能であるかを調査する必要がある.そこでコーパスの一部136記事を対象にこれらのタグを試験的に付与し,どのような結果となるかを調査した.ただし,項の出現箇所に制限を加えずに作業を行った場合,作業者は各述語に対し文章全体を対象に格要素を探す必要があるため,すべての項に網羅的にタグ付与できるかどうかがわからない.そのため,今回は項を同定する範囲を述語と同一文内に限定し,その中で網羅的に項のタグ付与を行った.\tab{adjunct}に作業者2人が付与したタグの個数を表層格ごとにまとめる.\tab{adjunct}より,ガ/ヲ/ニ以外の項についてもある程度の個数が付与可能なように見えるが,このうち文~\NUM{adjunct1}や文~\NUM{adjunct2}のような,複数の述語が同一表現を項として持つ並列や文内ゼロ照応など,明示的にタグを付与すべき現象がどのくらい出現しているかを人手で調査したところ,作業者1と2でそれぞれ16回と31回であった.つまり,項のタグ付与の対象を同一文内に限定した場合,ほとんどの項は係り受け関係にあり,かつ明示的にタグ付与対象となる格助詞を伴い出現するため,今回人手でタグ付与作業を行った結果のほとんどは機械的に処理できる問題となる.\EX{adjunct1}{\textbf{台北}$_i$では、屋外のスタジアムも満員に\ul{なり}$_{デ:i}$、失神者が\ul{出た}$_{デ:i}$ほど。}\EX{adjunct2}{...「新民主連合」は六、九の両日に\textbf{総会}$_i$を\ul{開き}$_{ヲ:i}$、離党問題などの対応を\ul{話し合う}$_{デ:i}$ことにしており、党内調整は大きなヤマ場を迎える。}このため,文を越えて述語と任意格の関係を付与することを考慮する必要があるが,どのような基準でその作業に取り組めばよいのかは自明ではなく,今後さらに検討する必要があると考えている.\begin{table}[t]\caption{ガ/ヲ/ニ格以外のタグ付与結果(新聞136記事)}\label{tab:adjunct}\input{03table05.txt}\end{table}\subsection{共参照タグ付与の問題点}\label{ssec:problem_coref}共参照関係のタグ付与に関して作業を行った結果,共参照関係を厳密な同一実体を参照している場合に限定したことで,多くの関係は固有名の間で認定され,照応の現象と関連する代名詞や指示連体詞を伴う名詞句のような表現についてはほとんどには共参照の関係が付与されなかった.これは,新聞記事の場合は読み手が理解できる箇所では代名詞のような表現よりゼロ代名詞を優先的に利用している,また,代名詞が名詞句に加え,直前の節を指す場合などが比較的多く,仕様で定義した共参照関係として認定できない,などの理由がある.ただし,代名詞,指示連体詞などの指示表現については照応関係を研究するための良い題材になると考えられるので,これらの指示表現に特化したタグ付与作業を行った.作業結果については\ssec{revise_coref}でまとめる.また,IRAのみを対象に共参照のタグを付与する作業に関してもいくつかの問題が残る.まず1つ目の問題を文章\NUM{gpe_ex}を例に説明しよう.\EX{gpe_ex}{グロズヌイからの報道によると三日、大統領官邸の北西一・五キロの鉄道駅付近で\ul{ロシア軍部隊}$_i$とチェチェン側部隊が衝突したが、\ul{ロシア側}$_i$は中心部への進撃を阻まれて苦戦。...\ul{ロシア政府}$_j$は三日、戦況に関する声明を発表し、大統領官邸を含む首都中心部は依然としてロシア側が支配していると強調した。しかし現地からのテレビ映像では、官邸はじめ中心部は依然としてドゥダエフ政権部隊の兵士が警戒に当たっており、\ul{ロシア側}$_j$の発表と食い違いを見せている。}この例で,最初に出現する``ロシア側$_i$''が``ロシア軍部隊$_i$''の換喩に相当するのに対し,次に出現する``ロシア側$_j$''は``ロシア政府$_j$''の換喩として解釈できる.現状の仕様では``ロシア軍部隊$_i$''と``ロシア側$_i$'',``ロシア政府$_j$''と``ロシア側$_j$''それぞれに共参照関係のタグを付与することになるが,換喩の解釈しながらタグ付与作業を行なうことが困難であることに加え,実際の自動解析する際にも非常に困難な問題設定となる.この問題を回避するために,換喩の解釈で共参照のタグを付与するのではなく,文章に出現している4つの``ロシア''を同一の実体としてタグ付与するなどの方法が考えられるが,どのように仕様を決めた方がよいかは明らかでないため今後検討していく必要がある.また,IRAの認定に関しても,実体が具体名詞である場合は2つの言及が同一の実体を指すか否かの認定が容易であるが,抽象名詞の場合は同じものを指しているかの判定が困難である.\ssec{spec_coref}で共参照関係のタグ付与にはあらかじめ名詞のクラスを指定して作業を行うことは望ましくないと述べたが,抽象名詞に関してはいくつかの意味クラスに限定して作業を行い,どのくらい揺れなく作業できるかを調査したい.
\section{タグの仕様の改善}
\label{sec:sixth}\sec{fifth}で見たように,今回採用したタグ付与の基準には解決しなければならないいくつかの問題点が含まれている.この節ではその中で事態性名詞と名詞句の照応関係についてさらに仕様を洗練し,作業を行った結果について報告する.\subsection{事態性名詞}\ssec{problem_eventnoun}に示したように,事態性名詞に関する典型的な作業の揺れは,事態性名詞が文脈によってモノとコトの両方の解釈がある場合に「あらかじめ明示的にコトかモノかを判別し,コトへのみ項を付与する」という仕様と矛盾するために起こる.この矛盾を回避するために,以下に示すの2つの項目をタグ付与の仕様として採用した.\paragraph{修正点1:モノを指す表現へも項を付与する}~モノとコトの境界を項付与できるか否かで弁別することは困難であり,モノとして解釈できる場合にも項を持つ場合がある.そこで,今回の仕様ではモノである場合でも項を持つと判断できた場合には,モノ/コトの判別とは独立に項を付与する.\paragraph{修正点2:モノとコトを指す表現を区別するためモノと判断した根拠もタグ付与する}~提案1で述べた仕様を採用すると,モノの場合も項を付与するため項を付与したことがコトを指すという情報と等価ではなくなる.しかし,文章中の事態のみを抽出したい応用分野も存在するため,作業結果には事態性名詞がコトを指すという情報もできる限り残しておくことが望ましい.そこで,まず我々はあらかじめ揺れが起こった事態性名詞を人手分析し,モノとコトの解釈で曖昧性が生じる名詞を\textbf{結果物/内容\nobreak},\textbf{モノ(具体物)},\textbf{役割},\textbf{述語と事態性名詞との語義のずれ}の4種のクラスに分類した.事態性名詞をモノとして解釈できる場合には,これら4つのうちいずれかをタグ付与することでモノとしての証拠を残す.逆にこれらのタグが付与されないことで純粋に事態を表す事態性名詞を表現する.また,名詞クラスのタグを用意することで,項付与が困難な場合に作業者が無理に項を付与しようとする事態を回避することができる.上述の2つの提案を採用することにより,これまでモノに分類するか項を取るかどちらか一方の情報しか付与できなかった例\NUM{report}の``報告''についても,``\nobreakモノ(具体物)''としての解釈と``文化庁ガ報告スル''という項構造の両方を情報を付与できるようになる.以下で,今回付与する4種の名詞クラスについて説明する.\begin{itemize}\item\textbf{結果物/内容}:典型的には例\NUM{content}のような内容節をとる(トノ,トイウを伴って出現する)場合,``意見''のような名詞は内容節が表す内容と同格であり,``意見スル''というコトを指すとは考えにくい\footnote{もちろん``意見''という表現だからといって必ず\brace{結果物/内容}タグを付与するわけではなく,文脈から``XガYト意見スル''という事態と判断できる場合は項を付与し,\brace{結果物/内容}タグはしない.}.\EX{content}{党内には「社会党会派の離脱者は従来通り除名すべきだ」との\ul{意見}が根強く...}この類例としては``提案'',``決定'',``報告''などがある.また,``連合シタ''結果,``連合''という実体が存在するという解釈に基づき,例\NUM{union}のような実体を指すのみで事態を表すとは考えにくい``連合''についても\brace{結果物/内容}のタグを付与し,項は付与しない.この類例としては``組織''などの表現がある.\EX{union}{十日夜には、自由\ul{連合}の新年会に自民党から森喜朗幹事長、島村宜伸国対委員長らが出席した。}同様に,例\NUM{regulation}の``規制''も``規制スル''事態よりも規制の内容そのものを指すと判断した場合は,項は付与せず\brace{結果物/内容}タグのみを付与する.\EX{regulation}{また、経済問題については日本経済の構造変革のため\ul{規制}緩和に積極的に取り組むと訴える。}\item\textbf{モノ(具体物)}:事態性名詞が文脈中でモノ(具体物)を指しているかを判定する.前述の例\NUM{ex_event}のモノとしての``電話$_j$''や場所としての``施設'',道具としての``装備''などの表現がこれに相当する.例えば,ある文脈で``携帯''という表現が``携帯電話''というモノを指す場合は\brace{\nobreakモノ}タグを付与する.\item\textbf{役割}:``課長\ul{補佐}'',``松本\ul{教授}'',``オシム\ul{監督}''などの表現は,名詞句全体で個人を指示しており,名詞句内の事態性名詞がコトを指すとは考えにくく,この場合には\brace{\nobreak役割}タグを付与することで項の付与を回避する.このような表現は典型的に主辞の位置に出現している場合が多い.\item\textbf{述語と事態性名詞との語義のずれ}:事態性名詞が派生前の動詞の意味と異なる場合には,項を付与することができない.例えば,例\NUM{zure}のサ変名詞``\nobreak一定''は動詞``一定スル''と異なった意味で用いられており,このような場合には\brace{ずれ}タグを付与し,項は付与しない.\EX{zure}{\ul{一定}の得票で議席を占めた後に今回と同様「除名」などの騒動が起きれば、...}\end{itemize}上述の作業方法を採用することで人手でのタグ付与品質にどのような影響が出るかの調査を行った.具体的には,作業者2人が新聞報道50記事中のサ変名詞665箇所に対し,その名詞が項を持つか否かの判定と項を持つ場合は項の付与を行った.この作業とは独立に\sec{third}に示した名詞クラスの付与を行った.今回の作業では頻出するサ変名詞を対象に作業し,和語動詞派生の名詞は対象外とした.作業者2名の作業結果とその一致率を\tab{result}に示す.\tab{result}より,665件のサ変名詞のうちどちらの作業者も550を越えるサ変名詞に対して項を持つと判定しており,文章中のほとんどのサ変名詞は項付与対象となっていることがわかる.また,項を持つか否かの作業者間の一致率はそれぞれの作業者について見た場合0.95と0.91と以前の作業品質の調査\cite{Iida:07}(一致率は0.905と0.810)と比較して一致率が向上しており,今回の作業方針が品質向上に有効であったことがわかる.また,項を持つか否かKappa値で評価したところ0.522という結果を得た.名詞クラスの一致率については良いとは言い難いが,これは作業者間で\brace{結果物/内容}と\brace{ずれ}にそれぞれ付与するなど,クラス間の揺れが生じたためであり,またそもそもスル接続で表現する頻度が低い``確証''などの事態性名詞に関する解釈の異なりも作業の揺れの原因となった.また,項を取るか否かのタグ付与が不一致だった78事例を調べたところ,44事例は項を付与するか否かに作業者間で解釈が異なる事例であり,残りは付与の誤りとみなせる事例であった.\begin{table}[b]\caption{名詞クラスのタグ付与の作業結果(報道50記事,サ変名詞665箇所)}\label{tab:result}\input{03table06.txt}\end{table}次に,2人の作業者が項を持つと判断した531事例について,項(ガ/ヲ/ニ格)がどのくらい一致するかを評価した結果を\tab{agree_arg}に示す.項を取ると判断された事態性名詞のうち付与された項が一致しなかった265事例を人手で分析,揺れの原因を調査した結果を\tab{inconsistence}にまとめる\footnote{1事例を複数の誤りの原因に割り割り振ったため,合計は265事例より多くなる.}.作業の揺れはおおきく2つの問題に起因している.一つは,各事態性名詞を述語化して考えた際に作業者間で異なった格パタンを想起したためである.特に,ある事態性名詞に対して,一方の作業者は必須格としてヲ格を取ると判断したが,他方はそれを取らないと判断した場合が揺れの大部分を占めていることがわかった.この問題に関しては,語彙概念構造\cite{Jackendoff:90}を考慮して作成されている動詞辞書\cite{Takeuchi:06}のような情報を作業の際に提示することで,作業者が想起できない格パタンを網羅的に把握することができ,揺れが少なくなると考えられる.このような作業者支援については,野口らの作成しているアノーテションツール\cite{Noguchi:08}でどのように情報を提示するかという問題と同時に考えていきたい.\begin{table}[b]\caption{事態性名詞の項タグ付与の一致率(サ変名詞531箇所)}\label{tab:agree_arg}\input{03table07.txt}\end{table}\begin{table}[b]\caption{タグ付与不一致の原因分析の結果(サ変名詞265箇所)}\label{tab:inconsistence}\input{03table08.txt}\end{table}また,もう一つの主要な揺れの原因は,同定すべき項の粒度に関するものである.例えば,例\NUM{exo}で項を持つと判断された``整備''には,前方文脈に出現している``\nobreak日本鉄道建設公団''という組織が``整備スル''という解釈と,文章中に出現しない``特定の誰か(もしくは集団)''が``整備スル''という2つの解釈が存在する.\EX{exo}{\textbf{日本鉄道建設公団}は十一日、整備新幹線の北海道新幹線について、ルート公表に向けた函館市と小樽市付近の調査に一月下旬から着手すると発表した。\\調査は、\ul{整備}新幹線建設費とは別枠の、建設推進準備事業費三十億円の中で行われる。}この問題は「できるだけ文章内から項を選択する」という基準を用いた場合でも,作業結果は作業者の解釈に左右されるため,解決はできず,述語の場合も同様に問題となる.この問題と関連して,これまでのタグ付きコーパス構築の方法論はできるだけ揺れを無くすことが前提であり,解析はその厳密な設定のもと問題を解くという立場で研究が進められてきたが,今後はその代替案として作業者一人もしくは複数人の揺れを許容するような学習・分類の枠組みを検討すべきかもしれない.\subsection{名詞句の照応関係}\label{ssec:revise_coref}\ssec{problem_coref}で示したように,\ssec{spec_coref}で示した名詞句の共参照関係の仕様に従って作業を進めた場合,厳密な共参照関係であることを作業者に強いてタグを付与させるため,例えば表現が代名詞であっても,照応関係が付与されないことになる.どの粒度での照応関係が応用処理に必要となるかは応用処理それぞれの問題に依存するため,同一の実体を指していることが保証できない場合でも,照応関係を認定してタグを付与したい.しかし,この対象を名詞句全体に広げた場合,\ssec{spec_coref}で述べた概念間の包含関係など,複雑な関係を把握した上で照応関係を付与するという作業を作業者に強いることになる.ここではそのような照応関係を捉える第一歩として,``この''や``その''といった指示連体詞を伴う名詞句を作業対象とすることで,照応関係についてどのような作業を進めていくべきかを考える.以下で示すように,指示連体詞を伴う名詞句を対象にする場合,共参照の関係を含む\textbf{指定指示(限定指示)}やbridgingreference\cite{Clark:77}などの間接照応の関係に相当する\textbf{代行指示}といった複数のの関係を考慮する必要があり,名詞句全体の照応現象を考える上での良い縮図となっていると考えられる.\paragraph{指定指示(限定指示)}:``指示連体詞+\brace{名詞(句)}''が文章中の他の表現と照応関係になる場合にその関係を指定指示(限定指示)という.例えば,例\NUM{direct_ana}において,``このデータ$_i$''は先行詞``資料$_i$''を指す.\EX{direct_ana}{図書館で\ul{資料}$_i$を手に入れた。\ul{このデータ}$_i$は機械的に処理される。}\paragraph{代行指示}:指示連体詞単体が前方文脈の表現と照応関係になる場合にその関係を{代行指示}という.例えば,例\NUM{indirect_ana}において,``こ(の)''は前文の``水質調査''と照応関係にある.\EX{indirect_ana}{5年間、\ul{水質調査}$_i$を行った。\ul{この}$_i$データは機械的に処理される。}この2種類の関係を分けて付与するため,指定指示の場合は``指示連体詞+\brace{名詞(句)}''全体を照応詞とし,代行指示の場合は指示連体詞のみに照応詞のタグを付与する.また作業の確認のため,各に指示代名詞にはどちらの関係で出現しているかを明示的にタグ付与を行う.また,``この日''などの表現は文章中に必ずしも先行詞が存在するとは限らず,このような場合には\textbf{外界照応}のタグを付与し,指定指示や代行指示と区別する.この結果,指示連体詞には指定指示,代行指示,外界照応のいずれかのタグが付与されることになる.共参照関係を付与した際には,談話要素間の厳密な共参照関係を強いたため先行詞は名詞(句)に限られたが,指示連体詞を伴う場合には,先行詞の品詞には制約を加えずに作業を行った.このため,照応詞の指し先が節となる場合も含まれる.このような場合は節の主辞(多くの場合は述語)をその節を代表して先行詞としてタグ付与した.例えば,例\NUM{ant_pred}では,``その前計算''は``前述のシステムは前もって値を計算する''ことを指しており,この場合はこの節を代表して,``計算する''を先行詞としてタグ付与する.\EX{ant_pred}{システムは前もって値を\ul{計算する}$_i$。\ul{その前計算}$_i$はシステムの性能を大幅に向上させている.}また,先行詞の表現によっては指示関係が指定指示なのか代行指示なのか曖昧な例が存在する.例えば,例\NUM{rel_ambiguous}では,``その土地''が``アメリカ''を指す指定指示の関係なのか,``その''が``アメリカ''を指し,``アメリカの土地''として解釈すべきかの判断が困難である.\EX{rel_ambiguous}{彼は\ul{アメリカ}$_{ij}$へ向かった。\ul{\mbox{その$_{i}$土地}}$_{j}$で彼は新しい仕事をみつけるつもりだ。}このような曖昧性のある指示関係については指示関係が曖昧であることをタグ付与し,明かにわかる指定指示や代行指示の関係とは区別する.上述の作業内容にしたがい,一人の作業者が指示関係とその先行詞のタグ付与作業を行った.作業対象はすでにタグ付与を行ったNAISTテキストコーパスの中から指示連体詞を含む記事をあらかじめ抽出し,その記事を対象に作業を行う.茶筌\footnote{http://chasen.naist.jp/hiki/ChaSen/}で形態素解析した結果を利用し,品詞が``連体詞''として解析された形態素を含む記事1,463記事(報道883記事,社説580記事)を対象に作業を行った.この結果4,089の指示連体詞にタグが付与され,このうち指定指示は30.9\%(1,264/4,089)代行指示は57.4\%(2,345/4,089),外界照応は11.5\%(470/4,089)であった.\tab{ana_table}に記事の種類や先行詞の種類ごとの出現数をまとめる.\begin{table}[b]\caption{照応関係のタグ付与の統計(新聞1,463記事,4,089の指示連体詞)}\label{tab:ana_table}\input{03table09.txt}\end{table}次に,作業の信頼度を調査するために,別の作業者がすでにタグ付与した記事の一部(418の指示連体詞)を対象に新たにタグ付与作業を行い,作業の一致率を見る.まず,指示関係の判別についてKappa値で評価したところ0.73と高い数値を得た.また,先行詞の一致率については,評価に使った418の指示連体詞のうち,先行詞を持つ322の指示連体詞についてどの程度同じ先行詞にタグ付与されたかの一致率を見た.その結果,指定指示については80.7\%(88/109)が一致するという高い一致率が見られたが,代行指示については,62.9\%(134/213)と指定指示に比べ低い一致率となった.これは,指定指示についての作業は照応詞に対し先行詞が同じ意味カテゴリに入る候補のみを探す比較的容易な作業であるのに対し,代行指示に関してはさまざまな意味的な関係を考慮して先行詞を探す必要があり,作業がより困難であることに起因すると考えられる.この品質の向上のためにある意味カテゴリを先行詞として持つ可能性のある表現については,あらかじめその情報を提示した状況で作業を行うなどが考えられる.その点を含め,どのような情報をどのような状況に提示するかについては今後さらに検討していく予定である.
\section{おわりに}
\label{sec:seventh}本稿では,日本語を対象とした述語項構造・共参照タグ付与コーパスに関して,我々が今回採用したタグ付与の基準について報告した.\sec{third}の議論に基づき,述語項構造のタグに関してはISAとIRAの関係両方で,共参照関係はIRAの関係でタグ付与作業を行い,京都コーパス3.0を対象にこれまでにない大規模な述語項構造・共参照タグ付きコーパスを作成した.また,特に一致率の悪かった事態性名詞のタグ付与に着目し,作業仕様の洗練を行った.具体的にはモノのタグ付与と項付与を独立に扱うことで,作業品質が向上するという結果を得た.さらに,その他のタグ付与作業に関しても,作業の過程で起こった問題について考察し,作業の詳細化のための項目を述べた.今回作業では述語と事態性名詞の表層ガ/ヲ/ニ格と共参照関係のタグ付与を行ったが,情報抽出などの応用分野を想定した場合,今回作業したラベルに加え,以下に示す内容に取り組む必要があると考えている.まず,今回の作業では名詞間の関係として共参照関係のみを作業対象としたが,上位下位や部分全体,所属関係など,さまざまな関係の解析も述語項構造・共参照解析と同様に応用処理のための重要な構成素となる.この名詞間の関係について,京都コーパス4.0で採用されている``AノB''の粒度でタグを付与した場合,この``ノ''で付与した結果には上位下位関係や部分全体関係などさまざまな関係を含んでしまうため,関係抽出の粒度としては不十分である.また,この名詞句間の関係解析は,bridgingreference\cite{Clark:77}や間接照応\cite{Yamanashi:92}などの用語で表現される場合もあるが,bridgingreferenceは一般に英語の定情報(definite)の存在が仮定された上で述べられることが多い.つまり,``the''を伴った名詞句があるにもかかわらず,参照する先行詞が文章中に出現していない場合にどう解釈すればよいかという点が議論の中心となっている.一方,日本語などの冠詞のが利用できない言語の場合,``the''のような手がかりがないために,どの名詞句の対に対して間接照応の関係を付与するかという課題設計そのものが困難になると考えられる.ACEのRelationDetectionandCharacterization(RDC)タスクでは,\ssec{pre_coref}で述べた実体の間の関係にのみ抽出対象となる関係を定義しているが,実体のクラスをオープンにした場合に揺れなく作業できるかについても今後調査したい.さらに,今回の作業では新聞記事を対象に作業を行ったが,例えば代名詞の出現が少ないなど,このコーパス内の用例だけを学習手法の訓練事例として利用すると,blogなどの照応解析,述語項構造解析を適用したい記事との異なりのために適切に解析できない恐れがあり,今後はタグ付与作業をいくつかの領域に拡張して進める必要がある.また,タグ付与に関する仕様書に関して,それぞれ個別の仕様について,外延的に例を示すだけで仕様をまとめるのではなく,それぞれのタグがどのような性質を持っているために付与されているかという内包的な仕様も明示的に記述することで,実際に解析に利用した研究者が問題の性質を分析するのに役立つ仕様書を作成することが重要だと考えており,今後の作業内容については順次Webページ\footnote{http://cl.naist.jp/\~{}ryu-i/coreference\_tag.html}にまとめていく予定である.\acknowledgment本研究は科研費特定領域研究「代表制を有する大規模日本語書き言葉コーパスの構築」,ツール班「書き言葉コーパスの自動アノテーションの研究」(研究代表者:松本裕治)の支援を受けた.記して謝意を表する.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2003}]{Asahara:03}浅原正幸\JBA松本裕治\BBOP2003\BBCP.\newblockipadicversion2.6.3ユーザーズマニュアル.\bibitem[\protect\BCAY{Clark}{Clark}{1977}]{Clark:77}Clark,H.~H.\BBOP1977\BBCP.\newblock\BBOQBridging.\BBCQ\\newblockInJohnson-Laird,P.~N.\BBACOMMA\\BBA\Wason,P.\BEDS,{\BemThinking:ReadingsinCognitiveScience}.CambridgeUniversityPress.\bibitem[\protect\BCAY{Doddington,Mitchell,Przybocki,Ramshaw,Strassel,\BBA\Weischedel}{Doddingtonet~al.}{2004}]{Doddington:04}Doddington,G.,Mitchell,A.,Przybocki,M.,Ramshaw,L.,Strassel,S.,\BBA\Weischedel,R.\BBOP2004\BBCP.\newblock\BBOQAutomaticContentExtraction(ACE)program---taskdefinitionsandperformancemeasures.\BBCQ\\newblockIn{\BemProceedingsofthe4rdInternationalConferenceonLanguageResourcesandEvaluation{\rm(}LREC-2004{\rm)}},\mbox{\BPGS\837--840}.\bibitem[\protect\BCAY{Hasida}{Hasida}{2005}]{Hasida:05}Hasida,K.\BBOP2005\BBCP.\newblockGDA日本語アノテーションマニュアル草稿第0.74版.\http://i-content.org/gda/tagman.html.\bibitem[\protect\BCAY{Hirschman}{Hirschman}{1997}]{Hirschman:97}Hirschman,L.\BBOP1997\BBCP.\newblock\BBOQ\textit{MUC-7coreferencetaskdefinition}.{\rmVersion3.0}.\BBCQ.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2007}]{Iida:07}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblockNAISTテキストコーパス:述語項構造と共参照関係のアノテーション.\\newblock\Jem{情報処理学会研究報告(自然言語処理研究会)NL-177-10},\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{Jackendoff}{Jackendoff}{1990}]{Jackendoff:90}Jackendoff,R.\BBOP1990\BBCP.\newblock{\BemSemanticStructures}.\newblockCurrentStudiesinLinguistics18.TheMITPress.\bibitem[\protect\BCAY{Jiang\BBA\Ng}{Jiang\BBA\Ng}{2006}]{Jiang:06}Jiang,Z.~P.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQSemanticRoleLabelingofNomBank:AMaximumEntropyApproach.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2006)},\mbox{\BPGS\138--145}.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara:02}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{Kingsbury\BBA\Palmer}{Kingsbury\BBA\Palmer}{2002}]{Kingsbury:02}Kingsbury,P.\BBACOMMA\\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQFromTreeBanktoPropBank.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC-2002)},\mbox{\BPGS\1989--1993}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{Komachi:07}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearningBasedArgumentStructureAnalysisofEvent-nounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics(PACLING)},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Liu\BBA\Ng}{Liu\BBA\Ng}{2007}]{Liu:07}Liu,C.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQLearningPredictiveStructuresforSemanticRoleLabelingofNomBank.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\208--215}.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{Marcus:93}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofEnglish:ThePennTreebank.\BBCQ\\newblockIn{\BemComputationalLinguistics},\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004}]{Meyers:04}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQTheNomBankProject:AnInterimReport.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACLWorkshoponFrontiersinCorpusAnnotation}.\bibitem[\protect\BCAY{Mitkov}{Mitkov}{2002}]{Mitkov:02}Mitkov,R.\BED\\BBOP2002\BBCP.\newblock{\BemAnaphoraResolution}.\newblockStudiesinLanguageandLinguistics.PearsonEducation.\bibitem[\protect\BCAY{Ng\BBA\Cardie}{Ng\BBA\Cardie}{2002a}]{Ng:02}Ng,V.\BBACOMMA\\BBA\Cardie,C.\BBOP2002a\BBCP.\newblock\BBOQImprovingMachineLearningApproachestoCoreferenceResolution.\BBCQ\\newblockIn{\BemProceedingsofthe40thACL},\mbox{\BPGS\104--111}.\bibitem[\protect\BCAY{野口\JBA三好\JBA徳永\JBA飯田\JBA小町\JBA乾}{野口\Jetal}{2008}]{Noguchi:08}野口正樹\JBA三好健太\JBA徳永健伸\JBA飯田龍\JBA小町守\JBA乾健太郎\BBOP2008\BBCP.\newblock汎用アノテーションツールSLAT.\\newblock\Jem{言語処理学会第14回年次大会発表論文集}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{Palmer:05}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Poesio}{Poesio}{2004}]{Poesio:04}Poesio,M.\BBOP2004\BBCP.\newblock\BBOQDiscourseAnnotationandSemanticAnnotationintheGNOMECorpus.\BBCQ\\newblockIn{\BemProceedingsoftheACL2004WorkshoponDiscourseAnnotation},\mbox{\BPGS\72--79}.\bibitem[\protect\BCAY{Soon,Ng,\BBA\Lim}{Soonet~al.}{2001}]{Soon:01}Soon,W.~M.,Ng,H.~T.,\BBA\Lim,D.C.~Y.\BBOP2001\BBCP.\newblock\BBOQAMachineLearningApproachtoCoreferenceResolutionofNounPhrases.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4),\mbox{\BPGS\521--544}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田}{竹内\Jetal}{2006}]{Takeuchi:06}竹内孔一\JBA乾健太郎\JBA藤田篤\BBOP2006\BBCP.\newblock語彙概念構造に基づく日本語動詞の統語・意味特性の記述.\\newblock影山太郎\JED,\Jem{レキシコンフォーラム},2\JNUM,\mbox{\BPGS\85--120}.ひつじ書房.\bibitem[\protect\BCAY{土屋\JBA宇津呂\JBA松吉\JBA佐藤\JBA中川}{土屋\Jetal}{2006}]{Tuchiya:06}土屋雅稔\JBA宇津呂武仁\JBA松吉俊\JBA佐藤理史\JBA中川聖一\BBOP2006\BBCP.\newblock日本語複合辞用例データベースの作成と分析.\\newblock\Jem{情報処理学会論文誌},47\JVOL,\mbox{\BPGS\1728--1741}.\bibitem[\protect\BCAY{vanDeemter\BBA\Kibble}{vanDeemter\BBA\Kibble}{1999}]{Deemter:99}vanDeemter,K.\BBACOMMA\\BBA\Kibble,R.\BBOP1999\BBCP.\newblock\BBOQWhatiscoreference,andwhatshouldcoreferenceannotationbe?\BBCQ\\newblockIn{\BemProceedingsoftheACL'99WorkshoponCoreferenceanditsapplications},\mbox{\BPGS\90--96}.\bibitem[\protect\BCAY{Vilain,Burger,Aberdeen,Connolly,\BBA\Hirschman}{Vilainet~al.}{1995}]{Vilain:95}Vilain,M.,Burger,J.,Aberdeen,J.,Connolly,D.,\BBA\Hirschman,L.\BBOP1995\BBCP.\newblock\BBOQAModel-TheoreticCoreferenceScoringScheme.\BBCQ\\newblockIn{\BemProceedingsofthe6thMessageUnderstandingConference(MUC-6)},\mbox{\BPGS\45--52}.\bibitem[\protect\BCAY{山梨}{山梨}{1992}]{Yamanashi:92}山梨正明\BBOP1992\BBCP.\newblock\Jem{推論と照応}.\newblockくろしお出版.\end{thebibliography}\begin{biography}\bioauthor{飯田龍}{1980年生.2007年奈良先端科学技術大学院大学情報科学研究科博士後期課程終了.同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2008年12月より東京工業大学大学院情報理工学研究科助教.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年同大学博士後期課程に進学.修士(工学).日本学術振興会特別研究員.大規模なコーパスを用いた意味解析に関心がある.言語処理学会第14回年次大会最優秀発表賞,情報処理学会第191回自然言語処理研究会学生奨励賞受賞.ACL・人工知能学会・情報処理学会各会員.}\bioauthor{井之上直也}{1985年生.2008年武蔵大学経済学部経済学科卒業.同年より奈良先端科学技術大学院大学情報科学研究科博士前期課程.現在に至る.自然言語処理の研究に従事.}\bioauthor{乾健太郎}{1967年生.1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科准教授.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,電子情報通信学会,ソフト科学会各会員.}\bioauthor{松本裕治}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.現在に至る.工学博士.専門は自然言語処理.人工知能学会,日本ソフトウェア科学会,情報処理学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
| |
V09N04-03
|
\section{はじめに}
\label{sec:intro}近年テキスト情報が膨大になり,真に必要とする情報を的確に選択することが量的にも,質的にも困難になっている.また,携帯端末の普及に伴い情報をよりコンパクトにまとめる技術が必要とされている.これらのことから,文章を自動要約する技術の重要性が高まっている.これまで様々な要約研究が行なわれてきたが\cite{Okumura99},原文から重要と判断される文,段落等を抜き出し,それを要約と見なす手法が主流である.これには,単語出現頻度を元にした重要度によって重要文を抽出する手法\cite{Edmundson69,Luhn58,Zechner96},談話構造を利用して文を抽出する方法\cite{Marcu97},などがあるが,文単位の抽出方法では余分な修飾語など不必要な情報が多く含まれるため,圧縮率に限界がある.また文を羅列した場合には,前後のつながりが悪いなど可読性に問題があった.そこで近年では,文単位だけでなく語句単位で重要箇所を抽出する研究\cite{Hovy97,Oka2000},語句単位の抽出を文法的に行なう研究\cite{Knight2000,Jin2000},可読性を高めるための研究\cite{Mani99,Nanba2000}が行なわれるようになってきた.中には,原文に現れる幾つかの概念を上位概念に置き換えるようなabstractの手法も見られる\cite{Hovy97}.しかし,重要語句を列挙するだけでは文を形成しないため,可読性が低くなるという問題点がある.また,文を形成する場合でも,人に近い言い替えや概念の統合を行なうには膨大な知識が必要となる.本研究では,文単位ではなく語句単位の抽出を行ない,本文から必要最低限の重要語句を抽出し,それらを用いて文生成を行なう要約手法を提案する.提案手法は,必要最低限の語句を抽出することで圧縮率を高めるとともに,抽出した語句から文を形成することで可読性を考慮した.また,重要語句を抽出して文を形成するためには少なくとも主語,述語,目的語が必要であると考え,格要素を特定することで重要語句を抽出した.これによって,端的な要約文を生成するために必要最低限の情報を得ることが可能となった.また,現在利用可能な知識で文を生成するために,この格要素の抽出には,日英機械翻訳システムALT-J/E\cite{Ikehara91}の格フレーム辞書\cite{Goi-Taikei99}を用いた.本論文で提案する要約モデルは以下の2点によって構成される:\vspace{1mm}\begin{quote}\begin{itemize}\item語句抽出\item文生成\end{itemize}\end{quote}\vspace{1mm}このうち,語句抽出には以下の2つの方法があると考える:\vspace{1mm}\begin{quote}\begin{itemize}\item[A)]キーワードに着目する方法\vspace{1mm}\item[B)]文生成に必要な語句に着目する方法\end{itemize}\end{quote}\vspace{1mm}キーワードA)は,内容の特徴を表す単語であり,高頻度語など,従来のキーワード抽出等で抽出されてきた単語列である.しかし,単語列を提示しただけでは文を形成しないため可読性が低く,誤読を起こしかねない.一方,文生成に必要な単語B)とは,A)に加えて,文を構成するために必要な機能語や,高頻度語に含まれない内容語も含まれている.本論文では,要約結果は単語列ではなく文を形成していることを基本方針とするため,B)の語句抽出に着目して要約文を生成する.以上の方針を元に,本研究では,新聞記事を自動要約するシステムALTLINEを試作した.ALTLINEは一文〜複数文の要約を生成することができ,文単位ではなく重要語句を抽出することによって圧縮率を高くすることが可能になった.また,ALTLINEの評価基準を設定し,人間による要約実験の結果と比較することで評価を行なった.本論文では,2章で提案する要約方式,3章で要約システムの実装について述べる.4章では評価の正解基準を作成するための被験者実験について説明し,5章ではALTLINEの評価を行なう.6章で考察を行ない,7章でまとめを行なう.
\section{要約方式}
\label{sec:Summarizationmethod}本章では,提案手法の要約方式について述べる.図\ref{fig:flow1}は要約手順を表す.\begin{figure}[!htbp]\begin{center}\epsfile{file=summarization-flow3.eps,scale=0.4}\caption{要約手順(1)}\label{fig:flow1}\end{center}\end{figure}最初に,各文に重要度を得点付ける.次に,各文について主動詞を特定し,主動詞の格フレーム情報と,抽出ルールを用いて重要語句を抜き出す.次に,抜き出した重要語句を再構成し要約文を生成する.最後に,各文毎に生成された要約文の中から,ユーザーが求める要約率に応じた数の要約文を出力する.\subsection{文の重要度}原文の形態素解析,構文解析を行なった後,文の位置,手がかり語,文の長さによって得点付けをし,その重要度によって重要文を選択する.\vspace{1mm}{\bf1)文の位置}\\事前調査として,日本経済新聞において重要語が含まれる文の出現位置を調査し分析を行なった.重要語の判定を客観的に行なうため,同社が出している英文要約記事のヘッドラインに着目し,これに含まれる英単語に対応する日本語単語を含む文の出現位置を調べた.この結果は,第1段落第1文目だけでよいもの:72\%,第1段落第2文目以降も必要なもの:24\%,第2段落目も必要なもの:2.4\%,見出しが必要なもの:1.3\%であった.このことから,先頭位置に近い文ほど重要度が高いと判断し,上位置文に重要度を加点する.\vspace{1mm}{\bf2)手がかり語}\\以下の手がかり語が含まれる文に重要度を加点する.\\・``[代名詞]によると'',``[名詞]によると'',``[代名詞]の結果''.\\・``〜A計画を発表した。A計画では〜''のように連続した文に単語の対応がある場合,後文に加点する.\\・{提出する/発表する/公表する/まとめる/報告する/議論する}の場合,次の文に加点する.\footnote{これらの語が出現する場合,``XはA白書をまとめた。'',``XはA調査結果を発表した。''のように,自身は導入文になり実内容を後続文で説明する場合がある.記事例「クリントン米大統領は、1999会計年度の予算教書を議会に\underline{提出した}。順調な経済成長や制度改革による歳出削減などで、財政収支は99会計年度に30年ぶりの黒字転換するとの見通しを示した。」}\\・文の引用としてではなく語句を強調するために使われる括弧「」を含む文に加点する.\vspace{1mm}{\bf3)文の長さ}\\前述の事前調査において,上位置にあっても文節数が短い文は導入文である傾向があり,重要語句が含まれない(重要文にはならない)ことが分かった.このことから,上位置にあっても文節数が少ない文は重要度を減点する.\\以上のルールによって各文の重要度を計算する.\subsection{主動詞の特定}重要要素を選出するために,まず,主動詞を特定する.通常,一文の中には複数の動詞が含まれ複文も多く存在するが,ここでは原文の中で最も重要な意味をもつ動詞を選定する.日本語の新聞記事によく見られる表現として,以下のようなものがある.\vspace{3mm}「Sは〜Vする(した)ことを\underline{明らかにした}。」「Sは〜Vする(した)と\underline{発表した}。」\vspace{3mm}\\表層的に見た場合,下線部が述語の動詞となるが,文の意味を考えると主内容は「Sが〜Vする」ことである.この場合,文の意味を考えた実質的に意味のある動詞,つまり要約として残したい主動詞は「Vする(した)」の部分である.しかし,多くの日本語新聞記事の場合,このような直接的な表現は行なわず,「〜することを決定した/発表した/明らかにした」という間接的な表現が用いられる.このような場合に骨格文を得るためには主内容を表す動詞を特定する必要がある.本論文では,このような最も重要な意味を持つ動詞を``主動詞''と定義する.また,この場合の「明らかにした/発表した」のように,主動詞にならない述語動詞を広義の意味で``様相表現的動詞''と定義する.様相表現的動詞を判断して主動詞を得るルールには,以下のようなものがあり,現在47ルールで構成されている.これらの様相表現的動詞ルールから主動詞を特定する.\begin{table}[hb]\begin{center}\begin{tabular}{p{119mm}}\hline{\bf様相表現的動詞の着目語:}\\発表する/明らかになる/乗り出す/分かる/決める/見通し/\\方針だ/方針を固める/可能性が出る/模様だ/考える/示す/\\合意する/考えを示す/着手する/鮮明になる/\\する方向で検討を始める/表明する/\\\hlineルール例\end{tabular}\begin{tabular}[hb]{p{75mm}|p{40mm}}\hline{\bf発表した:}&\\〜[V{する/した}]見通しに{なった/だ}と発表した。&〜Vする。\\〜[V{する/した}]ことで合意した{、}と発表した。&〜Vする(した)。\\〜[V終止]{と/ことを}発表した。&〜Vする。\\〜[V連用]{た/ている}{事/実態/全容/こと}を発表した。&〜[V連用]{た/ている}。\\\hline{\bf明らか:}&\\〜[V連用]{た/ている}{事/実態/全容/こと}{が/を}明らかに{した/なった}。&〜[V連用]{た/ている}。\\〜[V{する/した}]{事/実態/全容/こと}{が/を/と}{φ/、}[数字]日{φ/、}明らかに{した/なった}。&〜Vした。\\〜[V連用]{た10/ている}{事/事態/全容/こと}{が/を/と}{φ/、}[数字]日{φ/、}[?]の{話し/話/はなし}で明らかになった。&〜[V連用]{た/ている}。\\〜{が/を/と}明らかに{した/なった}。&〜{した/なった}。\\\hline{\bf乗り出す:}&\\〜の[用言名詞サ変他動詞]に乗り出す。(例:〜の生産に乗り出す。→〜を生産する。)&〜を[用言名詞]する。\\〜の[用言名詞サ変自動詞]に乗り出す。(例:〜の普及に乗り出す。→〜を普及させる。)&〜を[用言名詞]させる。\\〜[固有名詞]での[用言名詞サ変他動詞]に乗り出す。(例:中国での〜販売に乗り出す→中国で〜販売する。)&〜[固有名詞]で[用言名詞]する。\\\hline\end{tabular}\end{center}\end{table}\clearpage\subsection{重要語句の抽出}重要語句として,主動詞の格フレーム情報をもとに,主動詞の格要素を抽出する.前述の事前調査において,一文を生成するために必要な情報について調査,分析を行なった.その結果,一文を生成するために必要な情報は主動詞の必須格であることであり,その他の修飾要素の必要性が低いことが分かった.そこで本手法では,主動詞の主語,目的語を抽出し,その修飾語句を削除することを基本的な方針とした.また,この格要素を得るために,NTTの格フレーム辞書を採用した.この格フレーム辞書には,動詞とその必須格の制限ルールが大規模な(2700ノード)カテゴリーによって記述されているため,制約条件を満たすかどうかで動詞の必須格かどうかを判断することが可能である.その他の修飾語句は語句抽出ルールによって抽出する.\\\begin{indention}{4mm}\noindent1)主語を得る.\\1-1)主動詞にかかる主語候補が1つの場合:その主語候補を取る.\\1-2)主動詞にかかる主語候補が複数ある場合:文頭に近い主語候補を取る.\\1-3)主動詞にかかる主語候補が無い場合:主動詞にかかるハ格,ガ格を取る.\\1-4)上記以外の場合:主動詞にかからないハ格,ガ格を取る.\\\noindent2)目的語を得る.\\2-1)主動詞にかかる目的語候補がある場合:その目的語を取る.\\2-2)上記以外の場合:主動詞に格関係でかかる文節たちの中でヲ格のもので文頭に近いものを取る.\\\noindent3)補語を得る.\\3-1)主動詞にかかる補語候補がある場合:その補語を取る.\\\noindent4)1〜3)それぞれの修飾語句を得る.\\4-1)必須格自立部が「会社」の場合:修飾文節を全て採用する.\\4-2)必須格が具体名詞の場合:修飾文節のカテゴリが地域名/企業名/数詞/時詞/「場」/「組織」ならば採用する.\\4-3)必須格が抽象名詞の場合:修飾文節が具体名詞になるまで係り元を遡り採用する.\\\end{indention}以上のルールによって語句抽出を行ない,抽出された語句を用いて一文を生成する.
\section{要約システムの実装}
前節で説明した手法を元に,新聞記事を自動要約するシステムALTLINEを試作した.ALTLINEは一文〜複数文の要約を生成することができ,必要最低限の重要語句を抽出することによって短い要約文を生成することができる.本システムは入力された文章の各文に対して要約文を生成し,各要約文の重要度に基づき順位付けを行なう.その後,要約率に応じて順位の高い要約文を要約結果として出力する(図\ref{fig:flow2}).本論文では,一文を要約結果として出力する場合について説明する.\begin{figure}[!htbp]\begin{center}\epsfile{file=summarization-flow4.eps,scale=0.5}\caption{要約手順(2)}\label{fig:flow2}\end{center}\end{figure}\vspace{-20pt}図\ref{fig:Originalarticles}の文章を入力すると,ALTLINEは図\ref{fig:Systemgeneratedsummary}の要約文を生成し,その後,最も重要度の高い文を要約結果として出力する.原文の中で下線のある語句は要約に使用された部分であり,四角付きの語句は格要素を表している.また,要約文の後に付けられた数字は文の重要度を表す.\begin{figure}[htb]\begin{center}\begin{tabular}{cp{11cm}}\hline1:&\fbox{郵政省は}9日、2000年末にBS(放送衛星)デジタル放送とともに始まる\underline{BSデータ放送に}\underline{NTTグループの}\fbox{\underline{参入を}}\fbox{\underline{認める}}方針を決めた。\\2:&BSデータ放送会社への3分の1未満の資本参加をNTTグループ会社に認め、NTTドコモなどが30%出資する\fbox{\underline{新会社を}}\underline{放送事業者に}\fbox{\underline{認定する}}。\\\hline\end{tabular}\caption{原文(新聞記事)}\label{fig:Originalarticles}\end{center}\end{figure}\vspace{-10mm}\begin{figure}[htb]\begin{center}\begin{tabular}{cp{11cm}}\hline1:&郵政省はBSデータ放送にNTTグループの参入を認める。(20)\\2:&新会社を放送事業者に認定する。(10)\\\hline\end{tabular}\caption{システムが生成した要約文}\label{fig:Systemgeneratedsummary}\end{center}\end{figure}図\ref{fig:Originalarticles}の例では,まず,システムは各文に対し重要度を計算して得点をつける.次に主動詞を特定する.「Sは〜を認めることを決めた」の「決めた」は様相的表現的動詞であるので,「認める」が主動詞に特定される.次に,「認める」の格フレームを用いて抽出する語句を特定する.「認める」の格フレームは図\ref{fig:Case-frame}のようである.\begin{figure}[!htbp]\begin{center}\begin{tabular}{c}\hline{\tt[subject]}が/{\tt[action]}を/認める\\\hline\end{tabular}\vspace{2mm}\caption{「認める」の格フレーム情報}\label{fig:Case-frame}\end{center}\end{figure}「認める」の格要素は``{\tt[subject]が}''と``{\tt[action]を}''であるが,文中では「郵政省は」と「参入を」がそれぞれ主動詞に格関係でかかり,制約条件にも相当するため,重要語句として抽出される.その他の語句は,構文情報と単語抽出ルールによって抽出される.「BSデジタル放送に」は主動詞に格関係でかかる要素であるため取得され,「NTTグループ」は「参入」が抽象名詞のため,その修飾語句として得られる.最後に,抽出されたこれらの語句で一文を生成する(図\ref{fig:Systemgeneratedsummary}).
\section{被験者を用いた要約実験}
\label{sec:Human-writtensummary}本章では,提案手法の語句抽出について評価を行なう方法を説明する.従来の要約結果の評価方法として,要約結果だけで原文の内容が理解できるかどうかを評価する読解評価方法や,要約文の文としての整合性を評価する文生成評価方法がある.しかし,人間は単語の羅列からでも文章の内容を推測することができるため,読解評価では抽出語句が文形成に適切であるかを評価することができない.一方,文生成評価では生成文の文法的正しさに着目するため,要約文生成における重要語句の抽出精度を評価することができない.これまで述べたように,本手法は原文の単語のみを用いて要約文を作成している.そこで語句抽出の評価を行なう際,公平に評価を行なうために被験者を本手法の語句抽出と同条件下に置き,要約を作成する実験を行った.そして,被験者が作成した要約文から平均的な単語集合を作成した.この単語集合から抽出語句の正解集合を定義し,使用単語を比較することによって提案手法の性能を評価する.(評価結果は節\ref{sec:humanvsALTLINE}).以上の理由から,評価基準を作成するため,人間の要約を収集するための被験者実験を行なった.この節では,被験者要約実験の手法,実験条件,結果について述べ,次節でALTLINEとの比較について述べる.\subsection{実験条件}この実験では,原文に出現する語句だけを用いて一文の要約文を作成することを制約とした.被験者は13名で,20代から30代までの男女,新聞を読み慣れていることを期待し社会人とした.これ以降,この13名の被験者を$S_{i}(i=1,\ldots,13)$と表記する.実験を行なう際に(機械を意識した回答を作らせないために)被験者に機械要約の正解を作る目的は告げなかったが,機械要約のための参考にすることは告げた.また,この実験には正解や理想解がないことを説明した.実験に使用した文章は100記事で,要約作業は各記事に対して行なう.1記事の要約作業につき10〜20分で作業を終えるよう指示し,記事の作業順序は被験者に委ねた.被験者には,節\ref{sec:Newspaperarticles}に示す問題用新聞記事と,節\ref{sec:wordlist}に示す回答用単語リストを提示し,回答用単語リストの単語のみを使って要約文を作成するように指示した.\subsection{実験データ}\subsubsection{問題用新聞記事}\label{sec:Newspaperarticles}実験に使用する原文は,毎日新聞1998年版CD-ROMの新聞記事の一面から,ランダムに100記事を選んだ(図表の説明がある記事は除いた).また,見出しは除き,段落が分からないよう一文ずつに改行した(付録\ref{app:article}).選ばれた100記事は,平均9.64文からなり,最小で4文,最長で19文から成る.文節では,最少で49文節,最多で244文節,平均119.34文節である.\subsubsection{単語リスト}\label{sec:wordlist}以下のように単語リストを作成した.原文に対し,日英機械翻訳器ALT-J/Eの形態素解析部ALTJAWSを用いて形態素解析,文節区切りをしたあと,解析誤りを人手で修正し,助詞,助動詞に括弧をつけ,文節毎に番号をふった(付録\ref{app:list}).\subsection{課題について}\label{sec:task}元記事の要約を作るために必要な単語を,単語リストの中から選び,単語リストにある単語のみを用いて一文の要約文を作ってもらった.その際の教示は以下のようである.\begin{itemize}\itemこの記事が最も伝えたいことを1文(最小の要約文)に要約にする.\item「最小の要約文」を作るために必要な単語を選ぶ.\item単語は,単語リストの中から選ぶ.\item単語を選ぶ際,元記事に出現する位置や順序を考慮する必要はない.\item()内の助詞・助動詞は,適当に削除,補完,活用して構わない\end{itemize}\subsection{実験結果}\label{sec:Experimentalresults}図\ref{figure:Human-writtensummary}は,付録\ref{app:article}に示す記事の要約結果の例である.括弧付きの数字は,単語リストの単語番号を表している.単語リストは,多くの同義語を含んでいるため,実験後,同じ表現は一つの単語に単一化した.(例:大田昌秀知事,大田知事,大田昌秀沖縄県知事→大田昌秀知事に統一する).\begin{figure}[!htbp]\begin{center}\begin{tabular}{cp{90mm}}\hline$S_{1}$:&\tiny{(2)}\normalsize{大田昌秀知事は、/}\tiny{(6)}\normalsize{米軍海上ヘリポート建設問題に/}\tiny{(14)}\normalsize{反対を/}\tiny{(15)}\normalsize{明言した。}\\$S_{4}$:&\tiny{(1)}\normalsize{沖縄県の/}\tiny{(2)}\normalsize{大田昌秀知事は/}\tiny{(6)}\normalsize{米軍海上ヘリポート建設問題について/}\tiny{(26)}\normalsize{代替案を/}\tiny{(123)}\normalsize{検討している。}\\$S_{9}$:&\tiny{(1)}\normalsize{沖縄県/}\tiny{(2)}\normalsize{大田知事は/}\tiny{(4)}\normalsize{名護市沖/}\tiny{(6)}\normalsize{米軍海上ヘリポート建設問題/}\tiny{(14)}\normalsize{反対を/}\tiny{(17)}\normalsize{橋本首相に/}\tiny{(12)}\normalsize{述べ、/}\tiny{(26)}\normalsize{代替案を/}\tiny{(30)}\normalsize{提言した。}\\\hline\end{tabular}\caption{被験者による要約文}\label{figure:Human-writtensummary}\end{center}\end{figure}被験者の要約文に使用した文節数は100記事の平均で5.49文節,最少で4.17文節,最多で7.6文節であった.
\section{被験者結果を用いたALTLINEの評価}
\label{sec:humanvsALTLINE}この章では,被験者実験の結果とALTLINEの要約結果を比較し,考察する.本論文では,正解集合は人手要約の平均であると定義する.\subsection{ALTLINEによる要約}\label{sec:ALTLINE'ssummarization}被験者実験に使用したものと同じ新聞記事(\ref{sec:Newspaperarticles}節)をALTLINEに入力し,要約文を自動生成した.例えば,付録\ref{app:article},\ref{app:list}の記事の場合,ALTLINEの要約結果は以下のようになる.\vspace{3mm}\begin{center}\begin{tabular}{c}\hline\tiny{(1)}\normalsize{沖縄県の/}\tiny{(2)}\normalsize{大田昌秀知事は/}\tiny{(14)}\normalsize{反対を/}\tiny{(15)}\normalsize{明言した。}\\\hline\end{tabular}\end{center}\vspace{3mm}本論文では,これ以降ALTLINEを$S_{0}$と呼び,表中では$A$と表記する(表1,2,3).100要約中,被験者$S_{i}(i=1,\ldots,13)$の平均は5.49文節,ALTLINEの平均使用文節数は3.62文節であった.また,ALTLINEを含めた$S_{i}(i=0,\ldots,13)$での平均使用文節数は5.35文節であった.これらを比較するとALTLINEの使用文節数は被験者よりかなり小さいことが分かる.\subsection{評価基準の設定}\label{Evaluationcriteriondesign}人手要約とALTLINEの結果を元に,評価基準を設定した.記事$k(k=1,\ldots,100)$,被験者$S_{i}(i=0,\ldots,13)$,記事$k$の総文節数$J_{k}$,記事$k$における各文節$j(j=1,\ldots,J_{k})$とするとき,記事$k$における被験者$S_{i}$の回答使用文節を$B_{kji}$で表し,次のような値を与える.\[B_{kji}=\left\{\begin{array}{ll}1&(回答に使用した文節)\\0&(回答に使用しなかった文節)\\\end{array}\right.\]記事$k$における被験者$S_{i}$の回答使用文節数は\[W_{ki}=\sum_{j=1}^{J_{k}}{B_{kji}}\]で表すことができる.このとき,$記事k$の第$j$文節の重要度$SCORE_{kj}$を以下のように定義する.\[SCORE_{kj}=\sum_{i=0}^{13}{\frac{B_{kji}}{W_{ki}}}\]ある閾値$TH_{k}$を決めたとき,$SCORE_{kj}>TH_{k}$を満たす文節$j$の集合を,その記事$k$における正解集合$ASET_{k}$とする.\[ASET_{k}=\{j\midSCORE_{kj}>TH_{k}\}\]なお,閾値$TH_{k}$は,正解集合に含まれる平均文節数と被験者の平均使用文節数が近似する値に設定する.つまり,$x$の個数を$num(x)$で表した時,以下を満たす.\[num(ASET_{k})=\sum_{i=0}^{13}{\frac{W_{ki}}{13}}\]\subsection{評価結果}\subsubsection{全体での評価}本節では,それぞれの$被験者S_{i}$とALTLINEについて,再現率,適合率,F値の結果を示す.5.2節での正解集合の定義から,本論文では正解集合は被験者の回答の平均を意味しており,F値等の数値が高いほど被験者の平均的な回答に近いことを意味する.\[再現率R=\frac{被験者S_{i}の回答\cap正解集合}{正解集合}\]\[適合率P=\frac{被験者S_{i}の回答\cap正解集合}{被験者S_{i}の回答}\]\[F値=\frac{2RP}{R+P}\]表1は$S_{i}~(i=0,\ldots,13)$の結果,元記事の全体から文節をランダムに抽出した結果($B_{r}$),元記事の第1文目から文節をランダムに抽出した結果($B_{l}$),元記事からidfによる高順位語をもつ文節を抽出した結果($B_{i}$)を示している.それぞれ抽出した文節数は,各記事の正解集合$ASET_{k}$の文節数と同じである.100記事についての結果を以下の表に示す(表1).\begin{table}[!htbp]\begin{center}\label{table:F-measure1}\caption{再現率,適合率,F値の平均(1)}\vspace{2mm}\begin{tabular}{c|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l}\hline順位&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{F値}&\multicolumn{2}{c}{文節数}\\\hline1&$S_{13}$&0.867&$S_{7}$&0.779&$S_{13}$&0.717&$S_{11}$&7.53\\2&$S_{11}$&0.801&$\bf{A}$&0.777&$S_{7}$&0.704&$S_{13}$&7.39\\3&$S_{5}$&0.760&$S_{1}$&0.718&$S_{12}$&0.692&$S_{4}$&6.66\\4&$S_{4}$&0.698&$S_{12}$&0.715&$S_{5}$&0.676&$S_{5}$&6.57\\5&$S_{12}$&0.697&$S_{13}$&0.637&$S_{11}$&0.660&$S_{9}$&6.25\\6&$S_{7}$&0.668&$S_{5}$&0.635&$S_{1}$&0.648&$S_{3}$&5.87\\7&$S_{8}$&0.626&$S_{2}$&0.635&$\bf{A}$&0.622&$S_{8}$&5.40\\8&$S_{9}$&0.617&$S_{8}$&0.618&$S_{8}$&0.609&$S_{12}$&5.23\\9&$S_{1}$&0.615&$S_{6}$&0.591&$S_{4}$&0.606&$S_{10}$&4.70\\10&$S_{3}$&0.566&$S_{11}$&0.587&$S_{2}$&0.570&$S_{7}$&4.51\\11&$\bf{A}$&0.544&$S_{10}$&0.565&$S_{9}$&0.557&$S_{2}$&4.45\\12&$S_{2}$&0.538&$S_{4}$&0.565&$S_{3}$&0.526&$S_{1}$&4.44\\13&$S_{10}$&0.515&$S_{9}$&0.531&$S_{10}$&0.525&$S_{6}$&4.16\\14&$S_{6}$&0.479&$S_{3}$&0.510&$S_{6}$&0.515&$\bf{A}$&3.60\\\hline{\footnotesize平均}&&0.642&&0.633&&0.616&&5.48\\\hline15&$B_{l}$&0.366&$B_{l}$&0.364&$B_{l}$&0.364&$B_{l}$&5.18\\16&$B_{i}$&0.141&$B_{i}$&0.124&$B_{i}$&0.131&$B_{i}$&5.18\\17&$B_{r}$&0.050&$B_{r}$&0.050&$B_{r}$&0.050&$B_{r}$&5.18\\\hline\end{tabular}\end{center}\end{table}表から分かるようにALTLINEはF値で7位,再現率で11位,適合率で2位であった.3種類のベースライン($B_{l},B_{i},B_{r}$)と比較してALTLINEの順位が被験者の平均に近いことから,人間に匹敵する結果が得られたと言える.しかし,表1において,ALTLINEの出力文節数(3.60文節)はいずれの被験者の出力数よりも小さい値となっている.これは,6章で述べる失敗原因が重複して発生すると出力が極端に少なくなる(出力数が1,2など)場合があり,その悪影響によって全体の平均が低下することが原因である.そこで,ALTLINEの出力数が被験者と同程度の場合を評価するため,100記事の中からALTLINEの出力が4文節以上の記事(45記事),5文節以上(19記事),6文節以上(9記事)の場合に対し,同様の評価を行なったところ次の結果を得た.\\ALTLINEの出力が4文節以上の場合(A:4.26文節,全体平均:5.16文節),再現率8位,適合率3位,F値7位.\\ALTLINEの出力が5文節以上の場合(A:5.57文節,全体平均:5.73文節),再現率6位,適合率5位,F値7位.(表2に詳細を示す)\\ALTLINEの出力が6文節以上の場合(A:6.22文節,全体平均:6.03文節),再現率6位,適合率4位,F値5位.\begin{table}[!htbp]\begin{center}\caption{ALTLINEの出力が5文節以上の記事(19記事)の平均}\vspace{2mm}\begin{tabular}{c|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l}\hline順位&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{F値}&\multicolumn{2}{c}{文節数}\\\hline1&$S_{13}$&0.845&$S_{1}$&0.802&$S_{13}$&0.711&$S_{13}$&7.78\\2&$S_{11}$&0.802&$S_{7}$&0.779&$S_{1}$&0.708&$S_{11}$&7.73\\3&$S_{5}$&0.745&$S_{12}$&0.727&$S_{12}$&0.689&$S_{5}$&7.05\\4&$S_{12}$&0.676&$S_{8}$&0.679&$S_{11}$&0.686&$S_{4}$&6.94\\5&$S_{1}$&0.656&$\bf{A}$&0.661&$S_{7}$&0.683&$S_{3}$&5.94\\6&$\bf{A}$&0.655&$S_{9}$&0.646&$S_{5}$&0.656&$S_{9}$&5.94\\7&$S_{9}$&0.647&$S_{13}$&0.631&$\bf{A}$&0.650&$\bf{A}$&5.57\\8&$S_{3}$&0.635&$S_{11}$&0.628&$S_{8}$&0.642&$S_{12}$&5.42\\9&$S_{4}$&0.635&$S_{3}$&0.609&$S_{9}$&0.636&$S_{8}$&5.26\\10&$S_{7}$&0.633&$S_{5}$&0.603&$S_{3}$&0.611&$S_{7}$&4.73\\11&$S_{8}$&0.630&$S_{6}$&0.596&$S_{4}$&0.573&$S_{1}$&4.68\\12&$S_{6}$&0.465&$S_{10}$&0.581&$S_{6}$&0.512&$S_{2}$&4.63\\13&$S_{10}$&0.450&$S_{2}$&0.560&$S_{10}$&0.498&$S_{6}$&4.36\\14&$S_{2}$&0.436&$S_{4}$&0.552&$S_{2}$&0.483&$S_{10}$&4.21\\\hline{\footnotesize平均}&&0.636&&0.646&&0.624&&5.73\\\hline\end{tabular}\end{center}\end{table}このように,出力文節数を被験者に近付けた場合においても,適合率は比較的順位が高く,F値では順位的にほぼ被験者中央に位置し,数値的にはF値平均を上回る結果が得られた.これらのことから,出力文節数が被験者に近い場合でも人間と同程度の精度を得ることができると言える.\subsubsection{CrossValidationによる評価}前節では,全被験者(ALTLINEを含む)の結果によって正解集合を作成したが,ここでは被験者集団を2つに分け,各被験者について本人を含まない集団で正解集合を作成し,評価を行なった.表3に100記事の結果を示す.閾値は正解集合の平均文節数が被験者全体の平均文節数に近くなるよう設定してある.\begin{table}[!htbp]\begin{center}\label{table:F-measure2}\caption{再現率,適合率,F値の平均(2)}\vspace{2mm}\begin{tabular}{c|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l|p{1.3mm}l}\hline順位&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{F値}&\multicolumn{2}{c}{文節数}\\\hline1&$S_{13}$&0.853&$S_{7}$&0.802&$S_{7}$&0.718&$S_{11}$&7.53\\2&$S_{11}$&0.784&$S_{1}$&0.737&$S_{13}$&0.716&$S_{13}$&7.39\\3&$S_{5}$&0.745&$\bf{A}$&0.734&$S_{12}$&0.698&$S_{4}$&6.66\\4&$S_{4}$&0.693&$S_{12}$&0.729&$S_{5}$&0.675&$S_{5}$&6.57\\5&$S_{12}$&0.689&$S_{2}$&0.654&$S_{1}$&0.658&$S_{9}$&6.25\\6&$S_{7}$&0.670&$S_{8}$&0.654&$S_{11}$&0.655&$S_{3}$&5.87\\7&$S_{8}$&0.649&$S_{5}$&0.639&$S_{8}$&0.640&$S_{8}$&5.40\\8&$S_{1}$&0.613&$S_{13}$&0.636&$S_{4}$&0.613&$S_{12}$&5.23\\9&$S_{9}$&0.613&$S_{6}$&0.604&$\bf{A}$&0.584&$S_{10}$&4.70\\10&$S_{3}$&0.576&$S_{10}$&0.586&$S_{2}$&0.582&$S_{7}$&4.51\\11&$S_{2}$&0.538&$S_{11}$&0.584&$S_{9}$&0.563&$S_{2}$&4.45\\12&$S_{10}$&0.519&$S_{4}$&0.577&$S_{3}$&0.543&$S_{1}$&4.44\\13&$\bf{A}$&0.506&$S_{9}$&0.539&$S_{10}$&0.540&$S_{6}$&4.16\\14&$S_{6}$&0.472&$S_{3}$&0.527&$S_{6}$&0.523&$\bf{A}$&3.60\\\hline平均&&0.637&&0.643&&0.622&&5.48\\\hline\end{tabular}\end{center}\end{table}ALTLINEの結果は,F値で9位,再現率が13位,適合率が3位であった.この場合でも,再現率は低い代わりに適合率が高いという結果が得られ,F値でみると人間と同程度の結果を得ることができた.
\section{考察}
5.3.1節で述べたように,ALTLINEは被験者平均に近い文節数を出力する場合と,極端に小さい出力をする場合があり,全体の平均として出力文節数が小さくなる傾向がある.このような,ALTLINEが不適切な要約を生成する原因として,1)語句抽出ルールの不足,2)主動詞特定の失敗,3)解析誤りの悪影響の3つが考えられる.第1の原因であるが,全体平均においてALTLINEの出力が小さい場合でも,適合率が高いことから文構成に必要最小限の要素が獲得できていると言える.しかし,必要最小限の要約にさらに情報を加える格要素以外の修飾語句が十分に獲得できていないと考えられる.それらの語句は語句抽出ルールにより獲得しているため,語句抽出ルールの不十分さが大きな原因だと考えられる.これは,3つの原因のなかで最も影響のある点で,ルールの強化が今後の課題である.しかし,仮に課題を「十分小さな要約を得ること」または,「精度の高い要約を得ること」に設定すれば,現在の精度でも十分有効だと考えられる.第2の原因であるが,システムが様相表現的動詞を主動詞として誤認識した場合,別の格要素が抽出され,観点の異なった文を生成してしまうために不適切な要約結果が得られてしまう.例えば,原文が「米銀行3位の銀行持ち株会社のネーションズバンクと同5位のバンカメリカは13日、今年10〜12月に対等合併することで合意した、と発表した。」の場合,本システムでは「ネーションズバンクと同5位のバンカメリカは発表した。」という要約文を生成してしまう.これは,システムが「発表した」を主動詞と誤認識したからであり,これもルール不足が原因と考えられる.第3の原因であるが,解析誤りは上記の主動詞特定誤りや格要素獲得誤りを起こすという悪影響を及ぼす.また,自然言語処理において解決が必要な一般的重要課題である.ランダム抽出とidfを元にした語句抽出の評価結果が低いことから,従来のキーワード抽出的な語句抽出方法では要約文を生成するために必要な語句を取り出すには不十分であると言える.一方,本手法は語句抽出に関して正解平均に匹敵する精度を得たことから,要約文生成のための語句抽出に対して有効であると考えられる.また,5.3.1節で述べたように,出力文節数を被験者に近付けた場合でも,再現率,適合率,F値において被験者全体の平均を上回る結果が得られることから,出力文節数が被験者に近い場合でも人間と同程度の精度を得ることができると言える.
\section{おわりに}
本論文では,格フレーム辞書を用いて原文から重要語句を抽出し,抽出した語句から要約文を生成する新聞記事要約の手法を提案した.また,要約システムALTLINEを試作し,生成した要約について人手要約を用いた評価を行なった.この評価結果において本提案手法は人手要約の平均に位置し,人手要約に匹敵する結果を得た.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\clearpage\appendix
\section{付録:原文(新聞記事)の例}
\label{app:article}\begin{table}[!h]\caption{原文の例(この記事の場合1記事7文)}\vspace{1mm}\begin{center}\begin{tabular}{p{12cm}}\hline沖縄県の大田昌秀知事は14日、名護市沖が候補地の米軍海上ヘリポート建設問題について、毎日新聞記者らに「建設反対は当初から考えていたこと」と述べ、初めて反対を明言した。\\そのうえで「橋本首相が困るような結論は言いたくない。何かオプションはないかと考えている」と語り、代替案がないかどうかなどを模索し、橋本龍太郎首相に提言する考えを示した。\\正式な反対表明の時期は、現在空席の吉元政矩前副知事の後任を決めた後としており、早ければ今月末にも首相に表明する見通しになった。\\$\cdots$\\\hline\end{tabular}\end{center}\end{table}
\section{付録:単語リスト}
\label{app:list}\begin{table}[!hb]\begin{center}\caption{単語リストの例(この記事の場合1記事127文節)}\vspace{1mm}\begin{tabular}{|c|p{50mm}|c|p{50mm}|}\hline1&沖縄県(の)&2&大田昌秀知事(は)\\\hline3&14日&4&名護市沖(が)\\\hline5&候補地(の)&6&\parbox{30mm}{米軍海上ヘリポート\\建設問題(について)}\\\hline7&毎日新聞記者ら(に)&8&建設反対(は)\\\hline9&当初(から)&10&考えていた\\\hline11&こと(と)&12&述べ\\\hline13&初めて&14&反対(を)\\\hline15&明言した&16&そのうえ(で)\\\hline17&橋本首相(が)&18&困る(ような)\\\hline19&結論(は)&20&言いたくない\\\hline21&何か&22&オプション(は)\\\hline23&ない(かと)&24&考えている(と)\\\hline25&語り&26&代替案(が)\\\hline27&ない(かどうかなどを)&28&模索し\\\hline29&橋本龍太郎首相(に)&30&提言する\\\hline31&考え(を)&32&示した\\\hline$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\end{tabular}\end{center}\end{table}\clearpage
\section{付録:被験者の要約結果}
\label{app:B-result}\begin{table}[!h]\begin{center}\caption{被験者の要約結果例}(括弧内の数字は,付録\ref{app:list}の文節番号に対応している)\\\vspace{2mm}\begin{tabular}{rp{100mm}}\hline$S_{1}$&大田昌秀知事は、米軍海上ヘリポート建設問題に反対を明言した。(2,6,14,15)\\$S_{2}$&大田昌秀知事は米軍海上ヘリポート建設問題に反対を明言した。(2,6,14,15)\\$S_{3}$&沖縄県の知事は米軍海上ヘリポート建設問題について反対を明言した。(1,50,6,14,15)\\$S_{4}$&沖縄県の大田昌秀知事は米軍海上ヘリポート建設問題について代替案を検討している。(1,2,6,26,123)\\$S_{5}$&沖縄県の大田昌秀知事は米軍海上へリポート建設問題に反対を明言した。(1,2,6,14,15)\\$S_{6}$&沖縄県知事は、海上ヘリポート建設に反対を明言した。(1,50,85,14,15)\\$S_{7}$&沖縄県は米軍海上ヘリポート建設問題について反対を明言した。(1,6,14,15)\\$S_{8}$&大田昌秀知事は、米軍海上へリポート建設問題の反対を明言した。(2,6,14,15)\\$S_{9}$&沖縄県大田知事は名護市沖米軍海上ヘリポート建設問題反対を橋本首相に述べ、代替案を提言。(1,2,4,6,14,12,26,30)\\$S_{10}$&沖縄県の大田昌秀知事が米軍海上ヘリポート建設問題について反対を明言した。(1,2,6,14,15)\\$S_{11}$&大田知事は米軍ヘリポート建設問題に反対を明言した。(2,6,14,15)\\$S_{12}$&大田昌秀知事は米軍海上へリポート建設問題について反対を明言した。(2,6,14,15)\\$S_{13}$&沖縄県の大田昌秀知事は名護市沖の米軍海上ヘリポート建設問題について反対を明言した。(1,2,4,6,14,15)\\\hline\end{tabular}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{畑山満美子}{1995年北海道大学工学部情報工学科卒業.1997年同大学院修士課程修了.同年日本電信電話(株)入社.同年NTTコミュニケーション科学基礎研究所入所.自然言語処理,知識情報処理の研究に従事.2002年4月よりNTT東日本研究開発センタに所属.情報処理学会,言語処理学会会員,各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒.1990年同大大学院研究科博士前期課程修了.同年日本電信電話(株)入社.機械翻訳,自然言語処理の研究に従事.情報処理学会,言語処理学会会員,各会員.}\bioauthor{白井諭}{1978年大阪大学工学部通信工学科卒業.1980年同大学院博士前期課程修了.同年日本電信電話公社(現,NTT)に入社.日英機械翻訳を中心とする自然言語処理システムの研究開発に従事.1998年10月から国際電気通信基礎技術研究所に出向.1995年第30回日本科学技術情報センター賞(学術賞),同年人工知能学会論文賞,2000年IEEE-ICTAI最優秀論文賞,2002年第17回電気通信普及財団賞(テレコムシステム技術賞)受賞.著書「日本語語彙大系」(岩波書店,共編,1997,1999).電子情報通信学会,情報処理学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V11N02-05
|
\section{はじめに}
\label{sec:intro}現状の機械翻訳システムによる翻訳(以降,MT訳と呼ぶ)は,品質の点で人間による翻訳(人間訳)よりも劣り,理解しにくいことが多い.理解しやすい翻訳を出力できるようにシステムを高度化するためには,まず,MT訳と人間訳を比較分析し,両者の間にどのような違いがあるのかを把握しておく必要がある.このような認識から,文献\cite{Yoshimi03}では,英日機械翻訳システムを対象として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数,体言と用言の分布などについて人間訳とMT訳の比較分析を行なっている.また,文献\cite{Yoshimi04}では,係り先未決定文節数\footnote{文を構成するある文節における係り先未決定文節数とは,文を文頭から順に読んでいくとき,その文節を読んだ時点で係り先が決まっていない文節の数である\cite{Murata99}.}の観点から人間訳とMT訳における構文的な複雑さを比較している.しかし,文章の理解しにくさの要因は多種多様であり,また互いに複雑に絡み合っていると考えられるため,比較分析は,上記のような観点からだけでなく,様々な観点から行なう必要がある\footnote{文献\cite{Nakamura93}には,作家の文体を比較するための言語分析の着眼点として,文構成,語法,語彙,表記,修辞など多岐にわたる項目が挙げられている.}.本研究では,上記の先行研究を踏まえて,英文ニュース記事に対する人間訳とMT訳を,そこで使用されている表現の馴染みの度合いの観点から計量的に比較分析する.MT訳の理解しにくさの原因の一つとして,馴染みの薄い表現が多く使われていることがあると考えられる.このような作業仮説を設けた場合,人間訳とMT訳の間で理解しにくさに差があるかどうかを明らかにする.市販されているある機械翻訳システムで次の文(E\ref{SENT:sample})を翻訳すると,文(M\ref{SENT:sample})のような訳文が得られる.これに対して,人間による翻訳は文(H\ref{SENT:sample})のようになる.\begin{SENT2}\sentEThethrill-seekerfloatedtotheground.\sentHその冒険者は地上に舞い降りました。\sentMスリル‐捜索者は、地面に浮動した。\label{SENT:sample}\end{SENT2}文(M\ref{SENT:sample})は文(H\ref{SENT:sample})に比べて理解しにくい.その原因は次のような点にあると考えられる.\begin{enumerate}\item``thrill-seeker''の訳が文(H\ref{SENT:sample})では「冒険者」となっているが,文(M\ref{SENT:sample})では「スリル-捜索者」となっている.「スリル-捜索者」は,「冒険者」に比べて馴染みの薄い表現である.\item``float''が文(H\ref{SENT:sample})では「舞い降りる」と訳されているのに対して,文(M\ref{SENT:sample})では「浮動する」と訳されている.「浮動する」は,「舞い降りる」に比べて馴染みの薄い表現である.\end{enumerate}馴染みの薄い表現としては,文(M\ref{SENT:sample})における「スリル-捜索者」のような名詞や「浮動する」のような動詞など様々なものがあるが,本稿では動詞を対象とする.そして,人間訳で使用されている動詞の馴染み度の分布と,MT訳で使用されている動詞の馴染み度の分布を比較する.馴染み度の測定には,NTTデータベースシリーズ「日本語の語彙特性」の単語親密度データベース\cite{Amano99}を利用する.文献\cite{Takahashi91}では,(1)形容動詞化接尾辞「性」や「的」などを伴う語,(2)比較対象が省略された形容詞,(3)機械翻訳システムの辞書において「抽象物で,かつ人が作り出した知的概念」というラベルが付与されている語を抽象語句と呼び,「抽象語句密度は理解しにくさに比例する」という仮説が示されている.この仮説と本稿での仮説は関連性が高いと考えられる.ただし,本稿では,特に抽象語句という制限を設けず,単語親密度データベースを用いて表現の馴染み度を一般的に測定し,仮説の検証を行なう.なお,特にMT訳には誤訳の問題があるが,本研究は,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳が理解しにくい原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくものである.
\section{分析方法}
\label{sec:method}\subsection{分析対象とした標本}\label{sec:method:corpus}コーパスとしてBilingualNetNews\footnote{http://www.bnn-japan.com/}の英文ニュース記事を使用し,2001年5月26日から2002年1月15日までの記事を構成する英文5592文を母集団とした.これらの英文にはあらかじめ人間訳が与えられている.この母集団から乱数によって500文を単純無作為抽出した.抽出した500文を市販されているある英日機械翻訳システム\footnote{シャープ(株)の英日翻訳支援ソフトウェア「翻訳これ一本2002」を利用した.}で翻訳し,入力文全体を覆う構文構造が得られなかった文と,一文の認識に失敗した文,合わせて24文を除いた476文を標本とした.英文476文に対する訳文の数は,地の文の句点の数で数えた場合,人間訳では559文であり,MT訳では519文であった.\subsection{形態素解析}\label{sec:method:morphy}人間訳とMT訳の各文に対して,形態素解析を行なった.この処理には,形態素解析システム茶筌\footnote{http://chasen.aist-nara.ac.jp/index.html.ja}をデフォルトの状態で利用した.\subsection{形態素解析結果の修正と動詞の抽出}\label{sec:method:extract}動詞の抽出に先立って,茶筌による形態素解析の結果に含まれる誤りを人手で修正した.動詞に関連する主な修正点は次の通りである.\begin{enumerate}\item「にらみ合いが〜」や「ゆさぶりを〜」などは動詞の連用形と解析されるが,これらを名詞とした.\item「〜により,」や「〜という」などは助詞と動詞に分解されるが,全体をまとめて助詞とした.なお,「により」が助詞と動詞に分解されるのは,読点を伴う場合であり,読点がない場合は,全体が助詞と解析される.\item「勝てる」や「戻れる」などの可能動詞を五段活用動詞に変更した.これは,NTTの単語親密度データベースには可能動詞が見出し語として登録されていないことに対処するためである.\item「〜するかもしれない」における「しれ」や「〜しておきながら」における「おき」が自立動詞と解析されるが,これらを非自立動詞とした.\item「する」や「できる」を伴っている一般名詞,例えば「レイオフ」や「先触れ」などをサ変名詞に変更した.\end{enumerate}抽出対象は自立動詞とした.ただし,サ変名詞が「する」か「できる」を伴っている場合,全体をサ変動詞として抽出した.\subsection{単語親密度データベース}\label{sec:method:database}動詞の馴染み度の測定は,NTTデータベースシリーズ「日本語の語彙特性」の単語親密度データベースを利用して行なった.単語親密度とは,ある単語を馴染みがあると感じる程度を複数の被験者が7段階で評価したときの平均値である.馴染みがあると感じられる程度が高い単語ほど,大きい数値が与えられている.単語親密度データベースの構成は次の通りである.すなわち,単語に対するID番号,カタカナによる単語の読み,単語の表記,モーラ数で表わした単語の長さ,アクセント型,文字音声単語親密度,音声単語親密度,文字単語親密度,単語親密度評定実験の被験者数,複数アクセント区切り記号付きカタカナによる読みの10項目から成る.文字単語親密度は,単語が文字で書かれた場合の親密度であり,音声単語親密度は,単語が音声で発せられた場合の親密度である.また,文字音声単語親密度は,単語を文字と音声で同時に見聞きした場合の親密度である.単語親密度データベースの見出し語数は,88569語である.ただし,このうち75語については文字単語親密度が与えられていない.動詞の馴染み度の測定には文字単語親密度を利用した.以降,文字単語親密度を単に単語親密度と呼ぶ.単語親密度データベースにおける単語親密度の分布を表\ref{tab:histgram-database}\,に示す.\begin{table}[htbp]\caption{単語親密度データベースにおける単語親密度の分布}\label{tab:histgram-database}\begin{center}\begin{tabular}{|c||r|r|}\hline階級&\multicolumn{1}{c|}{度数}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&1233&1.39\%\\$1.5\lefam<2.0$&4112&4.65\%\\$2.0\lefam<2.5$&6750&7.63\%\\$2.5\lefam<3.0$&8232&9.30\%\\$3.0\lefam<3.5$&8720&9.85\%\\$3.5\lefam<4.0$&8617&9.74\%\\$4.0\lefam<4.5$&9280&10.49\%\\$4.5\lefam<5.0$&11401&12.88\%\\$5.0\lefam<5.5$&13795&15.59\%\\$5.5\lefam<6.0$&11191&12.65\%\\$6.0\lefam<6.5$&4761&5.38\%\\$6.5\lefam\le7.0$&402&0.45\%\\\hline合計&88494&100.00\%\\\hline\end{tabular}\end{center}\end{table}\subsection{動詞への単語親密度の付与}\label{sec:method:matching}人間訳あるいはMT訳から抽出した動詞をキーとして単語親密度データベースを検索することによって,各動詞の単語親密度を得た.動詞がサ変動詞である場合は,語幹をキーとして単語親密度データベースを検索した.人間訳あるいはMT訳から抽出した動詞が単語親密度データベースに登録されていない語であるか,あるいは登録されているが単語親密度が与えられていない語(以降,これらをまとめて未登録語と呼ぶ)である場合,その動詞は分析対象外とした.なぜならば,未登録語には低い単語親密度を与えるという方針も考えられるが,\ref{sec:result:undef}\,節で述べるように,未登録語には馴染みのある語も混在しているため,一律に低い単語親密度を与えることは適切ではないからである.また,個々の未登録語に適切な単語親密度を与えることはコスト的に容易ではないからである.
\section{分析結果}
\label{sec:result}分析は,動詞全体で見た場合の単語親密度の分布と,動詞を語種ごとに分けた場合の単語親密度の分布について行なった.\subsection{動詞全体での単語親密度の比較}\label{sec:result:global}\ref{sec:method:extract}\,節の方法によって人間訳から抽出された動詞は,延べで1269語,異なりで583語であった.他方,MT訳からは,延べで1330語,異なりで553語が抽出された.人間訳から抽出された583語,MT訳から抽出された553語を単語親密度データベースと照合した.その結果単語親密度が付与できた動詞の数は,人間訳で520語,MT訳で515語であった.基本統計量を表\ref{tab:stat-kotonari}\,に示す.表\ref{tab:stat-kotonari}\,を見ると,単語親密度の最小値において人間訳とMT訳で大きな差があり,標準偏差に若干の差があるが,平均値と最大値については人間訳とMT訳で差がないことが分かる.\begin{table}[htbp]\caption{基本統計量}\label{tab:stat-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.801&0.449&6.719&4.000\\MT訳&5.802&0.561&6.719&2.438\\\hline\end{tabular}\end{center}\end{table}人間訳とMT訳における単語親密度の分布を表\ref{tab:fam-histgram-kotonari}\,に示す.表\ref{tab:fam-histgram-kotonari}\,から次のような点が読み取れる.\begin{enumerate}\item表\ref{tab:stat-kotonari}\,の標準偏差を見ても分かるが,MT訳は人間訳に比べて散らばりの度合いがやや大きい.具体的には,人間訳では単語親密度が2.0以上4.0未満の範囲である動詞は全く存在しないのに対して,MT訳では9語(1.74\%)存在する.\item単語親密度が5.0以上6.0未満の範囲である動詞の比率は,人間訳のほうが若干高い.\item単語親密度が6.0以上7.0以下の範囲である動詞の比率は,MT訳のほうが若干高い.\item上記以外の階級では,人間訳とMT訳に大きな差は見られない.\end{enumerate}\begin{table}[htbp]\caption{単語親密度の分布}\label{tab:fam-histgram-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\cline{2-5}\raisebox{1.5ex}[0pt]{階級}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&0&0.00\%&0&0.00\%\\$1.5\lefam<2.0$&0&0.00\%&0&0.00\%\\$2.0\lefam<2.5$&0&0.00\%&1&0.19\%\\$2.5\lefam<3.0$&0&0.00\%&1&0.19\%\\$3.0\lefam<3.5$&0&0.00\%&4&0.78\%\\$3.5\lefam<4.0$&0&0.00\%&3&0.58\%\\$4.0\lefam<4.5$&7&1.35\%&8&1.55\%\\$4.5\lefam<5.0$&18&3.46\%&17&3.30\%\\$5.0\lefam<5.5$&82&15.77\%&63&12.23\%\\$5.5\lefam<6.0$&215&41.35\%&203&39.42\%\\$6.0\lefam<6.5$&193&37.12\%&204&39.61\%\\$6.5\lefam\le7.0$&5&0.96\%&11&2.14\%\\\hline合計&520&100.00\%&516&100.00\%\\\hline\end{tabular}\end{center}\end{table}単語親密度の分布に関して,人間訳とMT訳で統計的有意差があるかどうかを確認するために,Wilcoxonの順位和検定を行なった.その結果,両者の間には有意水準5\%で有意差は認められなかった.以上より,NTT単語親密度データベースを利用して馴染み度を測定した場合,MT訳が人間訳に比べて馴染みの薄い動詞を多く含んでいるということはないと考えてよさそうである.\subsection{単語親密度が低い動詞に関する分析}\label{sec:result:low-fam}表\ref{tab:fam-histgram-kotonari}\,を見ると,単語親密度が4.5未満である動詞の分布の違いが特徴的である.そこで,単語親密度が4.5未満である動詞について,若干詳細に分析した.単語親密度が4.5未満である動詞を表\ref{tab:lowfam-word}\,に示す.表\ref{tab:lowfam-word}\,において括弧内の数値は単語親密度である.著者の主観による判断では,表\ref{tab:lowfam-word}\,の人間訳には特に馴染みの薄い動詞は現れていない.これに対して,MT訳には,「被覆する」や「起草する」,「先触れする」,「浮動する」など,馴染みの薄い動詞が含まれているように感じられる.\begin{table}[htbp]\caption{単語親密度が4.5未満である動詞}\label{tab:lowfam-word}\begin{center}\begin{tabular}{|l||l|}\hline\multicolumn{1}{|c||}{人間訳}&\multicolumn{1}{c|}{MT訳}\\\hline享受(4.000)&精査(2.438)\\着弾(4.031)&レイオフ(2.781)\\破綻(4.094)&被覆(3.125)\\召喚(4.188)&享有(3.344)\\起案(4.188)&包含(3.375)\\駆る(4.281)&布陣(3.469)\\追随(4.438)&起草(3.500)\\&醸す(3.719)\\&強襲(3.969)\\&削ぐ(4.062)\\&審理(4.094)\\&先触れ(4.125)\\&経る(4.250)\\&完遂(4.250)\\&浮動(4.375)\\&急襲(4.438)\\&帰着(4.469)\\\hline\end{tabular}\end{center}\end{table}次に,MT訳において単語親密度が4.5未満となっている動詞の翻訳元である英語表現が人間訳ではどのような語に翻訳され,その語がどの程度の単語親密度を持つのかを調査した.MT訳において単語親密度が4.5未満である動詞の延べ出現回数は22回であった.これら22の動詞について,その動詞を含むMT訳の文に対応する人間訳の文から,その動詞に対応する語を抽出した.ただし,動詞が単語ではなく句に対応している場合,句の主辞だけを抽出した.例えば,MT訳における「精査する」と人間訳における「厳密に探る」という句が対応しているが,主辞の動詞「探る」だけを抽出した.また,動詞に対応する語の品詞は,自立語ならば問わなかった.例えば,MT訳における「レイオフする」と人間訳における「削減」という名詞が対応しているが,名詞「削減」を抽出した.人間訳から抽出された22語を単語親密度データベースと照合した.その結果,単語親密度が付与できたのは18語であった.基本統計量を表\ref{tab:stat-diff}\,に示す.表\ref{tab:stat-diff}\,を見ると,単語親密度の平均値,最大値,最小値のすべてにおいて,人間訳がMT訳を上回っていることが分かる.\begin{table}[htbp]\caption{基本統計量(単語親密度が4.5未満であるMT訳の動詞と,それに対応する人間訳の語)}\label{tab:stat-diff}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.793&0.753&6.594&4.000\\MT訳&3.712&0.540&4.438&2.438\\\hline\end{tabular}\end{center}\end{table}MT訳の動詞とそれに対応する人間訳の語から成る各組について,両者の単語親密度を比較した.その結果,すべての組においてMT訳より人間訳のほうが単語親密度が高くなっていた.ただし,人間訳でも単語親密度が4.5未満になっている組が2組存在した.具体的には,MT訳の「起草(3.500)」と人間訳の「起案(4.188)」から成る組と,MT訳の「享有(3.344)」と人間訳の「享受(4.000)」から成る組である.この2組を除けば,人間訳における語の単語親密度は5.3以上であった.18組中15組で,MT訳における動詞の単語親密度と人間訳における語と単語親密度の差は1.0以上あった.単語親密度の差が最も大きい組は,MT訳の「精査(2.438)」と人間訳の「探る(5.688)」から成るもので,3.25の差があった.他方,差が最も小さい組は,MT訳の「享有(3.344)」と人間訳の「享受(4.000)」から成るもので,0.656の差であった.\subsection{語種ごとの単語親密度の比較}\label{sec:result:wordclass}本節では,動詞の単語親密度の分布の違いが動詞の語種と関係するかどうかを検証するために語種ごとの単語親密度の分布について分析した結果を示す.人間訳とMT訳からそれぞれ抽出された動詞を語種で分類すると表\ref{tab:wordclass-kotonari}\,のようになる.ここで,漢字で表記でき,かつそれを音読する語を漢語とし,漢字で表記できないか,あるいは表記できてもそれを訓読する語を和語とした.\begin{table}[htbp]\caption{語種の分布}\label{tab:wordclass-kotonari}\begin{center}\begin{tabular}{|l||r@{}r|r@{}r|}\hline\multicolumn{1}{|c||}{語種}&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline和語&303&(51.97\%)&268&(48.46\%)\\漢語&275&(47.17\%)&252&(45.57\%)\\外来語&2&(0.34\%)&30&(5.43\%)\\混種語&3&(0.52\%)&3&(0.54\%)\\\hline合計&583&(100.00\%)&553&(100.00\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:wordclass-kotonari}の動詞のうち外来語と混種語は事例が少ないため計量分析の対象外とし,和語と漢語の場合について分析した.人間訳から抽出された和語303語,漢語275語,MT訳から抽出された和語268語,漢語252語をそれぞれ単語親密度データベースと照合した.その結果,単語親密度が付与できた動詞の数は,人間訳からの和語が247語,漢語が270語,MT訳からの和語が242語,漢語が250語であった.\begin{table}[htbp]\caption{単語親密度の分布(和語動詞の場合)}\label{tab:fam-histgram-wago-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\cline{2-5}\raisebox{1.5ex}[0pt]{階級}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&0&0.00\%&0&0.00\%\\$1.5\lefam<2.0$&0&0.00\%&0&0.00\%\\$2.0\lefam<2.5$&0&0.00\%&0&0.00\%\\$2.5\lefam<3.0$&0&0.00\%&0&0.00\%\\$3.0\lefam<3.5$&0&0.00\%&0&0.00\%\\$3.5\lefam<4.0$&0&0.00\%&1&0.41\%\\$4.0\lefam<4.5$&1&0.40\%&3&1.24\%\\$4.5\lefam<5.0$&8&3.24\%&8&3.31\%\\$5.0\lefam<5.5$&29&11.74\%&28&11.57\%\\$5.5\lefam<6.0$&107&43.32\%&91&37.60\%\\$6.0\lefam<6.5$&99&40.08\%&104&42.98\%\\$6.5\lefam\le7.0$&3&1.21\%&7&2.89\%\\\hline合計&247&100.00\%&242&100.00\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{単語親密度分布の基本統計量(和語動詞の場合)}\label{tab:stat-wago-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.863&0.403&6.594&4.281\\MT訳&5.884&0.465&6.656&3.719\\\hline\end{tabular}\end{center}\end{table}和語動詞の単語親密度の分布を表\ref{tab:fam-histgram-wago-kotonari}\,に示す.また,基本統計量を表\ref{tab:stat-wago-kotonari}\,に示す.表\ref{tab:fam-histgram-wago-kotonari}\,から次のようなことが分かる.\begin{enumerate}\item単語親密度が5.0以上6.0未満の範囲である動詞の比率は,人間訳のほうが若干高い.\item単語親密度が6.0以上7.0以下の範囲である動詞の比率は,MT訳のほうが若干高い.\item上記以外の階級では,人間訳とMT訳に差はほとんど見られない.\end{enumerate}\begin{table}[htbp]\caption{単語親密度の分布(漢語動詞の場合)}\label{tab:fam-histgram-kango-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\cline{2-5}\raisebox{1.5ex}[0pt]{階級}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{頻度}&\multicolumn{1}{c|}{比率}\\\hline\hline$1.0\lefam<1.5$&0&0.00\%&0&0.00\%\\$1.5\lefam<2.0$&0&0.00\%&0&0.00\%\\$2.0\lefam<2.5$&0&0.00\%&1&0.40\%\\$2.5\lefam<3.0$&0&0.00\%&0&0.00\%\\$3.0\lefam<3.5$&0&0.00\%&4&1.60\%\\$3.5\lefam<4.0$&0&0.00\%&2&0.80\%\\$4.0\lefam<4.5$&6&2.22\%&5&2.00\%\\$4.5\lefam<5.0$&10&3.70\%&9&3.60\%\\$5.0\lefam<5.5$&53&19.63\%&34&13.60\%\\$5.5\lefam<6.0$&107&39.63\%&107&42.80\%\\$6.0\lefam<6.5$&92&34.07\%&86&34.40\%\\$6.5\lefam\le7.0$&2&0.74\%&2&0.80\%\\\hline合計&270&100.00\%&250&100.00\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{単語親密度分布の基本統計量(漢語動詞の場合)}\label{tab:stat-kango-kotonari}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{c|}{平均値}&\multicolumn{1}{c|}{標準偏差}&\multicolumn{1}{c|}{最大値}&\multicolumn{1}{c|}{最小値}\\\hline\hline人間訳&5.740&0.481&6.719&4.000\\MT訳&5.704&0.607&6.719&2.438\\\hline\end{tabular}\end{center}\end{table}次に,漢語動詞の単語親密度の分布を表\ref{tab:fam-histgram-kango-kotonari}\,に示す.また,基本統計量を表\ref{tab:stat-kango-kotonari}\,に示す.表\ref{tab:fam-histgram-kango-kotonari}\,から次のようなことが分かる.\begin{enumerate}\item人間訳では単語親密度が2.0以上4.0未満の範囲である動詞は全く存在しないのに対して,MT訳では7語(2.80\%)存在する.\item単語親密度が5.0以上5.5未満の範囲である動詞の比率は,人間訳のほうが高い.\item単語親密度が5.5以上6.0未満の範囲である動詞の比率は,MT訳のほうが高い.\item上記以外の階級では,人間訳とMT訳に大きな差は見られない.\end{enumerate}Wilcoxonの順位和検定を行なった結果,漢語動詞の場合も和語動詞の場合も,人間訳とMT訳の間には有意水準5\%で有意差は認められなかった.以上より,動詞を漢語と和語に分けた場合でも,MT訳が,人間訳に比べ,馴染みの薄い動詞を多く含んでいるということはないと判断できる.\subsection{外来語の出現比率の差について}\label{sec:result:foreign}表\ref{tab:wordclass-kotonari}\,を改めて見ると,人間訳とMT訳とで外来語の出現比率の差が顕著であり,MT訳には人間訳に比べて外来語が数多く現れる傾向があることが分かる.人間訳とMT訳における語種の分布に差があるかどうかをFisherの正確確率検定法で検定したところ,有意水準5\%で有意差が認められた.MT訳で外来語の出現比率が高い理由として,次のようなことが考えられる.ある英単語に対して複数の訳語があり,各訳語を選択する条件を記述することが難しい場合,訳語選択を誤る可能性が高い.さらに,各訳語の間で語義の違いが著しい場合,訳語選択を誤ると翻訳品質に重大な悪影響が出る.このような場合,訳語選択の誤りを避けるために,訳語選択をシステムが行なわず人間に委ねるという方策がありうる.訳語選択を人間に委ねるためには,英語の曖昧さを日本語で表現する必要があるが,そのための手段として,英単語の読みを片仮名で表記したものが訳語として採用されるのではないかと考えられる.例えば,``miss''という動詞の訳語として,「寂しく思う」,「し損なう」,「免れる」などがあるが,これらの中から適切なものを選ぶための条件を記述することは容易ではないため,次の文(M\ref{SENT:miss1})のような「ミスする」という翻訳になるのであろう.\begin{SENT2}\sentEWhatthey'llmissmostistheirfriends.\sentH最も失ってさみしいと思うのは友達です.\sentMそれらが最もミスするであろうことは,それらの友人である.\label{SENT:miss1}\end{SENT2}MT訳において外来語に分類された動詞の翻訳元である英語表現が人間訳ではどのような語に翻訳され,その語種はどのようになっているかを調査した.その結果,人間訳でも外来語に訳されているのは,「ハイジャック」,「ボイコット」,「スパイ」,「プレー」の4語であった\footnote{このうち「スパイ」と「プレー」は,「する」を伴っていなかったので,表\ref{tab:wordclass-kotonari}\,では計上されていない.}.\subsection{単語親密度データベースの未登録語について}\label{sec:result:undef}\ref{sec:result:global}\,節で述べたように,単語親密度データベースと照合しても単語親密度が得られなかった未登録語は,人間訳に63語(=583-520),MT訳に38語(=553-515)存在した.これらの語が単語親密度データベースに登録されていない原因を調査した.その結果をまとめたものを表\ref{tab:undef}\,に示す.\begin{table}[htbp]\caption{未登録語の分類}\label{tab:undef}\begin{center}\begin{tabular}{|l||r@{}r|r@{}r|}\hline\multicolumn{1}{|c||}{原因}&\multicolumn{2}{c|}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline平仮名表記&48&(76.19\%)&24&(63.16\%)\\複合動詞&6&(9.52\%)&1&(2.63\%)\\外来語&0&(0.00\%)&8&(21.05\%)\\接尾辞&3&(4.76\%)&2&(5.26\%)\\その他&6&(9.52\%)&3&(7.89\%)\\\hline合計&63&(100.00\%)&38&(100.00\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:undef}\,において,「平仮名表記」とは,例えば「脅かす」のように漢字表記で単語親密度データベースを検索すれば照合がとれるが,標本では「おどかす」という平仮名表記になっていたために照合がとれなかった場合の件数である.なお,「取りやめる」のように一部が平仮名表記になっており「取り止める」となっていなかったために照合に失敗したものもここに分類した.人間訳においてもMT訳においても,平仮名で表記されているために未登録語となった件数が大半を占めている.これらの未登録語の中には,「もらう(貰う)」や「まとめる(纏める)」のように,平仮名表記でも不自然さを感じないものも含まれている.「複合動詞」に分類された動詞は,「舞い降りる」や「抱き合わせる」などである.ここに分類された動詞の数は,MT訳に比べて人間訳のほうが多くなっている.「外来語」に分類された動詞は,人間訳では存在しないのに対して,MT訳では,「アクセス」や「スワップ」など8語存在した.「接尾辞」に分類されたのは,「商品化」などであり,接尾辞「化」を除けば照合に成功したものである.以上の調査結果から分かるように,未登録語に対して一律に低い単語親密度を与えることは適切ではない.このため,本稿では未登録語は分析対象外とした.今後,単語親密度データベースの拡充を待って,これらを含めて調査分析を行なう必要がある.
\section{おわりに}
\label{sec:conc}本稿では,人間訳とMT訳を動詞の馴染み度の観点から計量的に比較分析した.その結果,次のような点が明らかになった.\begin{enumerate}\item人間訳とMT訳の間で動詞の単語親密度の分布に統計的有意差は認められない.ただし,単語親密度が4.5未満である動詞はMT訳のほうが多い傾向が見られる.\item動詞を語種ごとに分けた場合でも,単語親密度の分布に統計的有意差は認められない.\end{enumerate}以上の分析結果より,未登録語を対象外とした問題はあるものの,馴染みの薄い動詞の使用がMT訳の理解しにくさに大きな影響を及ぼしているわけではないと判断できる.従って,動詞とその格要素などとの共起関係を考えず動詞だけの訳語選択に着目した場合,調査対象とした機械翻訳システムでは,動詞の翻訳品質は一定のレベルに達していると考えられる.ただし,格要素との共起関係を考慮に入れた場合,不自然な翻訳となっている場合が見られる.例えば,次の文(M\ref{SENT:cooccur})において,「落ちる」という動詞は,馴染みの薄い動詞とは言えないが,「経済」という名詞との共起関係を考慮すると,文(H\ref{SENT:cooccur})のように「低迷する」と翻訳する必要がある.なお,「低迷」の単語親密度は5.406であり,「落ちる」の単語親密度6.156より低い.\begin{SENT2}\sentETheJapaneseeconomyisslumping.\sentH日本経済は低迷している.\sentM日本の経済は落ちている.\label{SENT:cooccur}\end{SENT2}今後,動詞とその格要素との共起関係について,人間訳とMT訳を比較し,両者の間に違いはあるのか,あるとすればそれらはどのような違いであるのかを明らかにしていきたい.\acknowledgment本稿に対して非常に有益なコメントを頂いた査読者の方々に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{天野成昭近藤公久}{天野成昭\JBA近藤公久}{1999}]{Amano99}天野成昭\BBACOMMA\近藤公久\BBOP1999\BBCP.\newblock\Jem{日本語の語彙特性---単語親密度---}.\newblockNTTデータベースシリーズ第1巻.三省堂,東京.\bibitem[\protect\BCAY{村田真樹,内元清貴,馬青,井佐原均}{村田真樹\Jetal}{1999}]{Murata99}村田真樹,内元清貴,馬青,井佐原均\BBOP1999\BBCP.\newblock\JBOQ日本語文と英語文における統語構造認識とマジカルナンバー7±2\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(7),61--73.\bibitem[\protect\BCAY{Nagao,Tsujii,\BBA\Nakamura}{Nagaoet~al.}{1985}]{Nagao85}Nagao,M.,Tsujii,J.,\BBA\Nakamura,J.\BBOP1985\BBCP.\newblock\BBOQ{TheJapaneseGovernmentProjectforMachineTranslation}\BBCQ\\newblockInSlocum,J.\BED,{\BemMachineTranslationSystems},\BPGS\141--186.CambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{中村明}{中村明}{1993}]{Nakamura93}中村明\BBOP1993\BBCP.\newblock\Jem{日本語の文体---文芸作品の表現をめぐって---}.\newblock岩波セミナーブックス47.岩波書店,東京.\bibitem[\protect\BCAY{高橋善文牛島和夫}{高橋善文\JBA牛島和夫}{1991}]{Takahashi91}高橋善文\BBACOMMA\牛島和夫\BBOP1991\BBCP.\newblock\JBOQ計算機マニュアルの分かりやすさの定量的評価法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf32}(4),460--469.\bibitem[\protect\BCAY{吉見毅彦}{吉見毅彦}{}]{Yoshimi04}吉見毅彦.\newblock\JBOQ人間による翻訳文と機械翻訳文における係り受け構造の統計的性質\JBCQ\\newblock\Jem{計量国語学},{\Bbf24}(5).\newblock掲載予定.\bibitem[\protect\BCAY{吉見毅彦}{吉見毅彦}{2003}]{Yoshimi03}吉見毅彦\BBOP2003\BBCP.\newblock\JBOQ人間による翻訳文と機械翻訳文の語彙的差異の計量分析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(5),55--74.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V23N04-02
|
\section{はじめに}
\label{sec:introduction}統計的機械翻訳(StatisticalMachineTranslation,SMT)では,翻訳モデルを用いてフレーズ単位で翻訳を行い,並べ替えモデルを用いてそれらを正しい語順に並べ替えるフレーズベース翻訳(PhraseBasedMachineTranslation)\cite{koehn03phrasebased},構文木の部分木を翻訳に利用する統語ベース翻訳\cite{yamada01syntaxmt}などの翻訳手法が提案されている.一般的に,フレーズベース翻訳は英仏間のような語順が近い言語間では高い翻訳精度を達成できるものの,日英間のような語順が大きく異なる言語間では翻訳精度は十分でない.このような語順が大きく異なる言語対においては,統語ベース翻訳の方がフレーズベース翻訳と比べて高い翻訳精度を達成できることが多い.統語ベース翻訳の中でも,原言語側の構文情報を用いるTree-to-String(T2S)翻訳\cite{liu06treetostring}は,高い翻訳精度と高速な翻訳速度を両立できる手法として知られている.ただし,T2S翻訳は翻訳に際して原言語の構文解析結果を利用するため,翻訳精度は構文解析器の精度に大きく依存する\cite{neubig14acl}.この問題を改善する手法の一つとして,複数の構文木候補の集合である構文森をデコード時に利用するForest-to-String(F2S)翻訳\cite{mi08forestrule}が挙げられる.しかし,F2S翻訳も翻訳精度は構文森を作成した構文解析器の精度に大きく依存し,構文解析器の精度向上が課題となる\cite{neubig14acl}.構文解析器の精度を向上させる手法の一つとして,構文解析器の自己学習が提案されている\cite{mcclosky2006effective}.自己学習では,アノテーションされていない文を既存のモデルを使って構文解析し,自動生成された構文木を学習データとして利用する.これにより,構文解析器は自己学習に使われたデータに対して自動的に適応し,語彙や文法構造の対応範囲が広がり,解析精度が向上する.しかし,自動生成された構文木は多くの誤りを含み,それらが学習データのノイズとなることで自己学習の効果を低減させてしまうという問題が存在する.Katz-Brownら\cite{katzbrown11targetedselftraining}は構文解析器の自己学習をフレーズベース翻訳のための事前並べ替えに適用する手法を提案している.フレーズベース翻訳のための事前並べ替えとは,原言語文の単語を目的言語の語順に近くなるように並べ替えることによって,機械翻訳の精度を向上させる手法である.この手法では,構文解析器を用いて複数の構文木候補を出力し,この構文木候補を用いて事前並べ替えを行う.その後,並べ替え結果を人手で作成された正解並べ替えデータと比較することによって,各出力にスコアを割り振る.これらの並べ替え結果のスコアを基に,構文木候補の中から最も高いスコアを獲得した構文木を選択し,この構文木を自己学習に使用する.このように,学習に用いるデータを選択し,自己学習を行う手法を標的自己学習(TargetedSelf-Training)という.Katz-Brownらの手法では,正解並べ替えデータを用いて,自己学習に使用する構文木を選択することで,誤った並べ替えを行う構文木を取り除くことができ,学習データのノイズを減らすことができる.また,Liuら\cite{liu12emnlp}は,単語アライメントを利用して構文解析器の標的自己学習を行う手法を提案している.一般に,構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い.そのため,この一貫性を基準として構文木を選択し,それらを用いて構文解析器を学習することでより精度が向上することが考えられる.以上の先行研究を基に,本論文では,機械翻訳の自動評価尺度を用いた統語ベース翻訳のための構文解析器の標的自己学習手法を提案する.提案手法は,構文解析器が出力した構文木を基に統語ベース翻訳を行い,その翻訳結果を機械翻訳の自動評価尺度を用いて評価し,この評価値を基にデータを選択し構文解析器の自己学習を行う.統語ベース翻訳では,誤った構文木が与えられた場合,翻訳結果も誤りとなる可能性が高く,翻訳結果を評価することで間接的に構文木の精度を評価することができる.以上に加え,提案手法は大量の対訳コーパスから自己学習に適した文のみを選択し学習を行うことで,自己学習時のノイズを減らす効果がある.Katz-Brownらの手法と比較して,提案手法は事前並べ替えだけでなく統語ベース翻訳にも使用可能なほか,機械翻訳の自動評価尺度に基づいてデータの選択を行うため,対訳以外の人手で作成された正解データを必要としないという利点がある.これにより,既存の対訳コーパスが構文解析器の標的自己学習用学習データとして使用可能になり,構文解析器の精度やF2S翻訳の精度を幅広い分野で向上させることができる.また,既に多く存在する無償で利用可能な対訳コーパスを使用した場合,本手法におけるデータ作成コストはかからない.さらに,Liuらの手法とは異なり,翻訳器を直接利用することができる利点もある.このため,アライメント情報を通して間接的に翻訳結果への影響を計測するLiuらの手法に比べて,直接的に翻訳結果への影響を構文木選択の段階で考慮できる.実験により,提案手法で学習した構文解析器を用いることで,F2S翻訳システムの精度向上と,構文解析器自体の精度向上が確認できた\footnote{本論文では,\textit{IWSLT2015:InternationalWorkshoponSpokenLanguageTranslation}で発表した内容\cite{morishita15iwslt}に加え,翻訳システムの人手評価を実施した結果をまとめた.}.
\section{Tree-to-String翻訳}
\label{sec:t2s_mt}SMTでは,原言語文$\bm{f}$が与えられた時に,目的言語文$\bm{e}$へと翻訳される確率$Pr(\bm{e}|\bm{f})$を最大化する$\hat{\bm{e}}$を推定する問題を考える.\begin{equation}\hat{\bm{e}}\coloneqq\argmax_{\bm{e}}Pr(\bm{e}|\bm{f})\end{equation}様々な手法が提案されているSMTの中でも,T2S翻訳は原言語文の構文木$T_{\bm{f}}$を使用することで,原言語文に対する解釈の曖昧さを低減し,原言語と目的言語の文法上の関係をルールとして表現することで,より精度の高い翻訳を実現する.T2S翻訳は下記のように定式化される.\begin{align}\hat{\bm{e}}&\coloneqq\argmax_{\bm{e}}Pr(\bm{e}|\bm{f})\\&=\argmax_{\bm{e}}\sum_{T_{\bm{f}}}Pr(\bm{e}|\bm{f},T_{\bm{f}})Pr(T_{\bm{f}}|\bm{f})\\&\simeq\argmax_{\bm{e}}\sum_{T_{\bm{f}}}Pr(\bm{e}|T_{\bm{f}})Pr(T_{\bm{f}}|\bm{f})\\&\simeq\argmax_{\bm{e}}Pr(\bm{e}|\hat{T}_{\bm{f}})\end{align}ただし,$\hat{T}_{\bm{f}}$は構文木の候補の中で,最も確率が高い構文木であり,下記の式で表される.\begin{equation}\label{eq:best_tree}\hat{T}_{\bm{f}}=\argmax_{T_{\bm{f}}}Pr(T_{\bm{f}}|\bm{f})\end{equation}\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f1.eps}\end{center}\caption{日英T2S翻訳における翻訳ルールの例}\label{fig:t2s_example}\vspace{-1\Cvs}\end{figure}図\ref{fig:t2s_example}に示すように,T2S翻訳\footnote{具体的には,木トランスデューサ(TreeTransducers)を用いたT2S翻訳.}で用いられる翻訳ルールは,置き換え可能な変数を含む原言語文構文木の部分木と,目的言語文単語列の組で構成される.図\ref{fig:t2s_example}の例では,$x_{0}$,$x_{1}$が置き換え可能な変数である.これらの変数には,他のルールを適用することにより翻訳結果が挿入され,変数を含まない出力文となる.訳出の際は,翻訳ルール自体の適用確率や言語モデル,その他の特徴などを考慮して最も事後確率が高い翻訳結果を求める.また,ビーム探索などを用いることで確率の高い$n$個の翻訳結果を出力することが可能であり,これを$n$-best訳という.T2S翻訳では,原言語文の構文木を考慮することで,語順が大きく異なる言語対の翻訳がフレーズベース翻訳と比べて正確になる場合が多い.しかし,T2S翻訳は翻訳精度が構文解析器の精度に大きく依存するという欠点がある.この欠点を改善するために,複数の構文木を構文森と呼ばれる超グラフ(Hyper-Graph)の構造で保持し,複数の構文木を同時に翻訳に使用するF2S翻訳\cite{mi08forestrule}が提案されている.この場合,翻訳器は複数ある構文木の候補から構文木を選択することができ,翻訳精度の改善が期待できる\cite{zhang12helporhurt}.F2S翻訳は$\bm{e}$と$T_{\bm{f}}$の同時確率の最大化として下記のように定式化される.\begin{align}\label{eq:forest_to_string}\langle\hat{\bm{e}},\hat{T}_{\bm{f}}\rangle&\coloneqq\argmax_{\langle\bm{e},T_{\bm{f}}\rangle}Pr(\bm{e},T_{\bm{f}}|\bm{f})\\&\simeq\argmax_{\langle\bm{e},T_{\bm{f}}\rangle}Pr(\bm{e}|T_{\bm{f}})Pr(T_{\bm{f}}|\bm{f})\end{align}しかし,\ref{sec:introduction}節で述べたとおりF2S翻訳であっても翻訳精度は構文森を生成する構文解析器の精度に大きく依存する.そこで,この問題を解決するため,自己学習によって構文解析器の精度を向上する手法について説明する.
\section{構文解析の自己学習}
\subsection{自己学習の概要}構文解析器の自己学習とは,既存のモデルで学習した構文解析器が解析・生成した構文木を学習データとして用いることで,構文解析器を再学習する手法である.言い換えると,自己学習対象の各文に対して,式(\ref{eq:best_tree})に基づいて確率が最も高い構文木$\hat{T_{\bm{f}}}$を求め,この構文木を構文解析器の再学習に用いる.この手法は追加のアノテーションを必要としないため,構文解析器の学習データ量が大幅に増え,解析精度が向上する.Charniakは,WallStreetJournal(WSJ)コーパス\cite{marcus93penntreebank}によって学習された確率文脈自由文法(ProbabilisticContext-FreeGrammar,PCFG)モデルを用いた構文解析器では,自己学習の効果は得られなかったと報告している\cite{Charniak97}.一方で,潜在クラスを用いることで構文解析の精度を向上させたPCFG-LA(PCFGwithLatentAnnotations)モデルは自己学習により大幅に解析精度が向上することが知られている\cite{huang2009self}.これは,PCFG-LAモデルを用いることで自動生成された構文木の精度が比較的高くなることに加え,PCFG-LAモデルが通常のPCFGモデルと比べて多くのパラメータを持つので,学習データが増加する恩恵が大きいことが理由として挙げられる.これらの先行研究を基にして,本論文ではPCFG-LAモデルを用いた構文解析器の自己学習を考える.\subsection{機械翻訳における構文解析器の自己学習と効果}\subsubsection{事前並べ替えのための標的自己学習}\label{sec:mt_selftrain}\ref{sec:introduction}節でも述べたように,構文解析器の自己学習により機械翻訳精度を改善した研究が存在する.Katz-Brownらは,自己学習に使用する構文木を外部評価指標を用いて選択する手法を提案し,これにより翻訳精度自体も向上したと報告している\cite{katzbrown11targetedselftraining}.この手法の概要を図\ref{fig:katz-brown}に示す.この研究では,構文解析器により複数の構文木候補を自動生成し,これらの候補を基にした事前並べ替えの結果が人手で作成した正解並べ替えデータに最も近いものを選択し,自己学習に使用する.これにより,構文木の候補からより正しい構文木を選択することができるため,自己学習の効果が増すと報告されている.このように一定の基準を基に学習データを選択し,自己学習を行う手法を標的自己学習(TargetedSelf-Training)という.\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f2.eps}\end{center}\caption{事前並べ替えのための標的自己学習手法}\label{fig:katz-brown}\end{figure}事前並べ替えでは,構文木$T_{\bm{f}}$に基づいて,並べ替えられた原言語文$\bm{f}'$を生成する並べ替え関数$\text{reord}(T_{\bm{f}})$を定義し,システムによる並べ替えを正解並べ替え$\bm{f}'^{*}$と比較するスコア関数$\text{score}(\bm{f}'^{*},\bm{f}')$で評価する.学習に使われる構文木$\bar{T}_{\bm{f}}$は,構文木の候補$\bm{T_f}$から以下の式によって選択される.\begin{equation}\bar{T}_{\bm{f}}=\argmax_{T_{\bm{f}}\in{\bm{T}_{\bm{f}}}}{\rmscore}(\bm{f}'^{*},\text{reord}(T_{\bm{f}}))\end{equation}本論文ではこれらの先行研究を基に,統語ベース翻訳のための構文解析器の標的自己学習手法を提案する.\ref{sec:proposed_method}節以降において,提案手法の詳細を示し,実験により提案手法の効果を検証する.\subsubsection{フロンティアノードを利用した構文解析器の標的自己学習}\label{sec:frontier_node}統語ベース翻訳を利用して構文解析器の標的自己学習を行う手法として,フロンティアノード(FrontierNode)を利用する手法が提案されている\cite{liu12emnlp}.\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f3.eps}\end{center}\caption{5つのフロンティアノードを含む構文木の例}\label{fig:frontier_node_tree}\end{figure}一般に,構文木と単語アライメントの一貫性が取れている場合,その構文木は正確な可能性が高い.この一貫性を評価する指標として,フロンティアノードの数が挙げられる.フロンティアノードとは,対象ノードから翻訳ルールを抽出できるノードのことを指す.例として,5つのフロンティアノードを持つ構文木を図\ref{fig:frontier_node_tree}に示す.図中の灰色で示されたノードがフロンティアノードである.各ノード中の数字は上から順にスパン(span),補完スパン(complementspan)を示している\footnote{スパンおよび補完スパンは,文献によってはアライメントスパン(alignmentspan),補完アライメントスパン(complementalignmentspan)とも称される.}.ノードNのスパンとは,ノードNから到達可能な全ての目的言語単語の最小連続単語インデックスの集合であり,ノードNの補完スパンとは,NおよびNの子孫ノード以外のノードに対応する,目的言語単語インデックスの和集合とする\footnote{フロンティアノードについての詳細は\cite{galley06syntaxmt}を参照.}.フロンティアノードは,スパンと補完スパンが重複しておらず,かつスパンがnullでないという条件を満たすノードのことを指す\cite{galley06syntaxmt}.フロンティアノードの数が多いほど,構文木と単語アライメントの一貫性が取れているといえる.例えば,「助詞のP」のスパンは3-5であり,``ofthisrestaurant''に対応する.また,補完スパンは1-2,4であり,``thespeciality'',``this''に対応する.この場合,3-5のスパンと,4の補完スパンが部分的に重複しているためフロンティアノードではない.Liuらの手法では,構文解析結果の5-bestの中からフロンティアノードの数が最も多くなる構文木を選択し,選ばれた構文木を自己学習に使用する.これにより,5-best中で最も精度が高いと考えられる構文木を選択することができ,従来の自己学習手法よりも効果が高くなる.この手法で自己学習した構文解析器により,統語ベース翻訳の翻訳精度が有意に改善されたと報告されている.本論文では,Liuらの手法も比較対象として実験を行う\footnote{Liuらは翻訳器が強制的に参照訳を出力するforceddecodingを用いる手法も提案しているが,これを実現するために特殊なデコーダが必要であり,翻訳に用いるデコーダ自体に大幅な変更を加える必要がある.そのため,フロンティアノードに基づく手法や本研究の提案法に比べて実装が困難である.ゆえに,本論文ではフロンティアノードに基づく手法のみを比較対象とした.}.
\section{統語ベース翻訳のための構文解析器の標的自己学習}
\label{sec:proposed_method}標的自己学習において,どのように自己学習用のデータを選択するかは最も重要な点である.本論文ではF2S翻訳の精度を向上させるために,自己学習に使用する構文木および文の選択法をいくつか提案する.構文木の選択法を用いることで,一つの文の構文木候補から精度向上につながる構文木を選択し,文の選択法を用いることで,コーパス全体から精度向上に有効な文のみを選択する.以降ではそれぞれの手法について説明する.\subsection{構文木の選択法}\label{sec:tree_selection}\ref{sec:mt_selftrain}節で述べたように,Katz-Brownらによって提案された標的自己学習手法\cite{katzbrown11targetedselftraining}では,自動生成された構文木と人手で作成した正解並べ替えデータを比較することにより,$n$-best候補の中から最も評価値の高い構文木を選択する.しかし,人手で正解並べ替えデータを作成するには大きなコストがかかるため,この手法のために大規模なデータセットを作成することは現実的でない.一方で,統計的機械翻訳は対訳コーパスの存在を前提としており,対訳データは容易に入手できることが多い.そこで,この問題を解決するために,対訳コーパスのみを使用して構文木を選択する方法を2つ提案する.一つは,翻訳器によって選択された1-best訳に使われた構文木を自己学習に使用する手法である(翻訳器1-best).もう一つは,$n$-best訳の中から,最も参照訳に近い訳(Oracle訳)を自動評価尺度により選択し,Oracle訳に使われた構文木を自己学習に使用する手法である(自動評価尺度1-best).\subsubsection{翻訳器1-best}\label{sec:mt_1best}\ref{sec:t2s_mt}節でも述べたように,F2S翻訳では,構文森から翻訳確率が高くなる構文木を翻訳器が選択する.先行研究では,翻訳ルールや言語モデルの確率を使用することで,F2S翻訳器は構文森から正しい構文木を選択する能力があることが報告されている\cite{zhang12helporhurt}.翻訳器の事後確率を用いることで,構文解析器だけでは考慮できない特徴を使用して構文木を選択するため,F2S翻訳器が出力した1-best訳に使われた構文木は,構文解析器が出力した1-best構文木よりも自己学習に効果的だと考えられる.この際の自己学習に使われる構文木は式(\ref{eq:forest_to_string})の$\hat{T}_{\bm{f}}$となる.\subsubsection{自動評価尺度1-best}\label{sec:bleu_1best}翻訳の際,翻訳器は複数の翻訳候補の中から,最も翻訳確率が高い訳を1-best訳として出力する.しかし,実際には翻訳候補である$n$-best訳の方が,翻訳器が出力した1-best訳よりも翻訳精度が高いと考えられる場合が存在する.そこで本論文では,翻訳候補の集合$\bm{E}$の中から最も参照訳$\bm{e}^*$に近い訳をOracle訳$\bar{\bm{e}}$と定義し,$\bar{\bm{e}}$に使われた構文木を自己学習に使用する.翻訳候補$\bm{e}$と参照訳$\bm{e}^*$の類似度を表す評価関数$\rm{score}(\cdot)$を用いて,Oracle訳$\bar{\bm{e}}$は下記の通り表される.\begin{equation}\bar{\bm{e}}=\argmax_{\bm{e}\in\bm{E}}{\rmscore}(\bm{e}^*,\bm{e})\end{equation}\subsection{文の選択法}\label{sec:sentence_selection}\ref{sec:tree_selection}節では,1つの対訳文の$n$-best訳から学習に有用だと考えられる構文木を選択する方法について述べた.しかし,正しい訳が$n$-best訳の中に含まれていない場合もあり,これらの例を学習に用いること自体が構文解析器の精度低下を招く可能性がある.そのため,$n$-best訳の中に良い訳が含まれていない場合その文を削除するように,学習データ全体から自己学習に用いる文を選択する手法を提案する.具体的には,翻訳文の自動評価値が一定の閾値を超えた文のみを学習に使用する(自動評価値の閾値).また,学習データ全体から翻訳精度を改善すると考えられる構文木を選択する手法も提案する.具体的には,翻訳器1-best訳とOracle訳の自動評価値の差が大きい文のみを使用する(自動評価値の差).従来の標的自己学習手法では,構文木の選択手法は提案されていたものの,文の選択手法については検討されていなかった.本論文では,この文の選択手法についても検討を進める.文の選択法を使用する場合は,構文木の選択法として,自動評価尺度1-bestを使用する.自動評価尺度1-bestを用いて構文木を選択する手法と,文の選択法を組み合わせた提案手法を図にすると,図\ref{fig:proposed_method}のようになる.図のように原言語文を構文解析器に入力し,出力された構文森を翻訳器に入力する.これにより$n$-best訳と,翻訳に使われた構文木のペアが出力される.その後,参照訳を基に自動評価尺度を用いて$n$-best訳をリスコアリングする.これを基に学習データを選択し,自己学習を行う.\begin{figure}[t]\begin{center}\includegraphics{23-4ia2f4.eps}\end{center}\caption{提案手法の概要}\label{fig:proposed_method}\end{figure}\subsubsection{自動評価値の閾値}\label{sec:bleu_threshold}本節では,学習のノイズとなる誤った構文木を極力除外するために,自動評価値を基にデータを選択する手法を提案する.コーパスの中には,翻訳器が正しく翻訳することができず,自動評価値が低くなってしまう文が存在する.自動評価値が低くなる原因としては以下のような理由が考えられる.\begin{itemize}\item誤った構文木が翻訳に使用された.\item翻訳モデルが原言語文の語彙やフレーズに対応できていない.\item自動評価値を計算する際に用いられる参照訳が,意訳となっていたり,誤っていたりするため,翻訳器が参照訳に近い訳を出力することができない.\end{itemize}このような場合は,たとえOracle訳であっても自動評価値は低くなってしまうことがある.これらのデータは,F2S翻訳器が正しい構文木を選択することができていない場合や,自動評価尺度が実際の翻訳品質との相関が低い場合があるため,Oracle訳で使われた構文木であっても誤った構文情報を持つ可能性がある.そのため,これらのデータを学習データから取り除くことで,学習データ中のノイズが減ると考えられる.そこで,より正確な構文木のみを使用するために,Oracle訳の自動評価値が一定の閾値を超えた文のみ学習に使用する手法を提案する.自己学習に使用される構文木$T_{f^{(i)}}$の集合は下記の式のように定義される.ここで,$t$は閾値,$\bm{e}^{*(i)}$は文$i$の参照訳,$\bar{\bm{e}}^{(i)}$は文$i$のOracle訳,$\bar{\bm{E}}$はOracle訳全体の集合,$\text{score}(e)$は訳の自動評価関数を示す.\begin{equation}\label{eq:oracle}\{T_{f^{(i)}}\|\\text{score}(\bm{e}^{*(i)},\bar{\bm{e}}^{(i)})\get,\\bar{\bm{e}}^{(i)}\in\bar{\bm{E}}\}\end{equation}\subsubsection{自動評価値の差}\label{sec:bleu_diff}本節では,翻訳結果を大きく改善すると考えられる構文木を中心に選択する手法を提案する.この際に着目した指標は,翻訳器1-best訳とOracle訳の自動評価値の差である.構文解析器により誤った構文木が高い確率を持った構文森が出力された場合,翻訳器は誤った構文木を選択し,誤った翻訳を1-best訳として出力することが多い.一方,Oracle訳では構文森の中から正しい構文木が使われた可能性が高い.そのため,翻訳器1-best訳とOracle訳の自動評価値の差が大きい場合,Oracle訳に使われた構文木を学習データとして使用することで,構文解析器が出力する確率が正しい値へ改善される可能性がある.これにより,自己学習した構文解析器を用いた翻訳システムは正しい訳を1-best訳として出力するようになり,翻訳精度が向上すると考えられる.文を選択するために,翻訳器1-best訳$\hat{\bm{e}}^{(i)}$とOracle訳$\bar{\bm{e}}^{(i)}$の自動評価値の差を表す関数$\text{gain}(\bar{\bm{e}}^{(i)},\hat{\bm{e}}^{(i)})$を定義し,式(\ref{eq:oracle})と同様に,自動評価値の差が大きい文の構文木を選択する.自動評価値の差を表す関数$\text{gain}(\bar{\bm{e}}^{(i)},\hat{\bm{e}}^{(i)})$は下記のように定義される.\begin{equation}\text{gain}(\bar{\bm{e}}^{(i)},\hat{\bm{e}}^{(i)})=\text{score}(\bm{e}^{*(i)},\bar{\bm{e}}^{(i)})-\text{score}(\bm{e}^{*(i)},\hat{\bm{e}}^{(i)})\end{equation}本手法ではこれに加えて,学習に用いる文の長さの分布をコーパス全体と同様に保つため,Gasc{\'o}ら\cite{gasco2012does}によって提案された下記の式を用いて,文の長さに応じて選択数を調節する\footnote{自動評価値の差を基準に文を選択する手法では,文の長さの分布を考慮しない場合,短い文のみを選択する傾向があり,自己学習が正しく行えないことを予備実験で確認した.これは,短い文の場合,文が少し変わっただけでも自動評価値が大幅に上昇してしまうことが原因である.}.以下の式では,$|\bm{e}|$は目的言語文$\bm{e}$の長さ,$|\bm{f}|$は原言語文$\bm{f}$の長さ,$N_{c}(|\bm{e}|+|\bm{f}|)$はコーパス全体で目的言語文,原言語文の長さの和が$|\bm{e}|+|\bm{f}|$となる文の数,$N_{c}$はコーパス全体の文数を表す.\begin{equation}\label{eq:length_1}p(|\bm{e}|+|\bm{f}|)=\frac{N_{c}(|\bm{e}|+|\bm{f}|)}{N_{c}}.\end{equation}$N_{t}$を自己学習データ全体の文数とすると,自己学習データの内,目的言語文,原言語文の長さの和が$|\bm{e}|+|\bm{f}|$となる文数$N_{t}(|\bm{e}|+|\bm{f}|)$は下記の式で表される.\begin{equation}\label{eq:length_2}N_{t}(|\bm{e}|+|\bm{f}|)=p(|\bm{e}|+|\bm{f}|)N_{t}.\end{equation}
\section{評価}
\subsection{実験設定}\label{sec:experimental_setup}本論文では,\pagebreak日本語の構文解析器を用いる日英・日中翻訳(それぞれJa-En,Ja-Zhと略す)を対象に実験を行った.翻訳データとして,科学論文を抜粋した対訳コーパスであるASPEC\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC}を用いた.ASPECに含まれる対訳文数を表\ref{tab:ASPEC}に示す\footnote{実際はASPECのJa-EnTrainセットは300万文存在する.しかし,このデータは自動的に文対応が取られたため,対応が誤っている文がある.そのため,信頼できる上位200万文のみ使用し,学習データの質を確保した.}.自己学習の効果を検証するためのベースラインシステムとして,アジア言語間での翻訳ワークショップWorkshoponAsianTranslation2014(WAT2014)\cite{nakazawa14wat}において高い精度を示した,Neubigのシステムを用いた\cite{neubig14wat}\footnote{http://github.com/neubig/wat2014}.デコーダにはTravatar\cite{neubig13travatar}を用い,F2S翻訳を行った.構文解析器には\cite{neubig14acl}で最も高い日英翻訳精度を実現したPCFG-LAモデルに基づくEgret\footnote{http://code.google.com/p/egret-parser}を用い,日本語係り受けコーパス(JDC)\cite{mori14jtb}(約7,000文)に対してTravatarの主辞ルールで係り受け構造を句構造に変換\footnote{https://github.com/neubig/travatar/blob/master/script/tree/ja-adjust-dep.pl\\https://github.com/neubig/travatar/blob/master/script/tree/ja-dep2cfg.pl}したものを用いて学習したモデルを,ベースラインの構文解析器として使用した.構文森は100-best構文木に存在するhyper-edgeのみで構成し,その他については枝刈りした\footnote{Egretは極希に構文解析に失敗し,構文木を出力しない場合がある.そのため,構文解析に失敗した文は学習データから取り除いた.}.機械翻訳の精度はBLEU\cite{papineni02bleu}とRIBES\cite{isozaki10ribes}の2つの自動評価尺度,Acceptability\cite{goto11ntcir}という人手評価尺度を用いて評価した.また,文単位の機械翻訳精度はBLEU+1\cite{lin04orange}を用いて評価した.自己学習に用いるデータは既存のモデルで使用しているJDCに加え,ASPECのトレーニングデータの中から選択されたものとした.自己学習したモデルは,テスト時にDevセット,Testセットを構文解析する際のみに使用し,TrainセットについてはJDCで学習した既存のモデルで行った.Trainセットについても自己学習したモデルで構文解析することにより,さらなる精度向上の可能性はあるが,翻訳器を学習し直すには多くの計算量が必要になってしまう.そのため,本実験ではDevセット,Testセットについてのみ自己学習したモデルで構文解析を行った.実験で得られた結果は,ブートストラップ・リサンプリング法\cite{koehn04sigtest}により統計的有意差を検証した.次節では,下記の手法を比較評価する.\begin{table}[b]\caption{ASPECに含まれる対訳文数}\label{tab:ASPEC}\input{02table01.txt}\end{table}\begin{description}\item[構文木の選択法]\mbox{}\begin{description}\item[Parser1-best]\mbox{}\\式(\ref{eq:best_tree})のように,構文解析器が出力した1-best構文木を自己学習に用いる.\item[FrontierNode1-best]\mbox{}\\\ref{sec:frontier_node}節のように,既存の構文解析器が出力した5-best構文木の中から,フロンティアノードの数が最も多くなる構文木を学習に使用する.\item[MT1-best]\mbox{}\\\ref{sec:mt_1best}節のように,構文森を翻訳器に入力し,1-best訳に使われた構文木を自己学習に使用する.\item[BLEU+11-best]\mbox{}\\\ref{sec:bleu_1best}節のように,構文森を翻訳器に入力し,翻訳器が出力した500-best訳の中から,最もBLEU+1スコアが高い訳に使われた構文木を選択し,自己学習に用いる.この際,出力される$n$-best訳は全て重複が無い文となるようにする.\end{description}\item[文の選択法]\mbox{}\begin{description}\item[Random]\mbox{}\\全トレーニングデータからランダムに文を選択する.この際ランダムに選択される文は手法毎に異ならず,同一になるようにする\footnote{大規模なコーパス全てを用いて構文解析器を学習するには多くの計算量が必要になるため,今回はランダムに抽出した文のみを使用する.}.\item[BLEU+1$\geqt$]\mbox{}\\\ref{sec:bleu_threshold}節のように,Oracle訳とその構文木の中でも,訳のBLEU+1スコアが閾値$t$を超えた文のみを自己学習に使用する.\item[BLEU+1Gain]\mbox{}\\\ref{sec:bleu_diff}節のように,Oracle訳とその構文木の中でも,翻訳器1-best訳とOracle訳のBLEU+1スコアの差が大きい文のみを自己学習に使用する.この手法では,文の長さの分布を式(\ref{eq:length_1}),(\ref{eq:length_2})に従って調節する.\end{description}\end{description}なお文をランダムに抽出する場合は,日英翻訳では全トレーニングデータの$1/20$,日中翻訳では$1/10$を抽出した.また,他の手法とほぼ同様の文数となるように,BLEU+1Gainに関しては上位10万文を抽出した.以下,\ref{sec:mt_eval}節では,自己学習した構文解析モデルを使用して翻訳を行った際の翻訳器の精度評価,\ref{sec:parser_eval}節では,構文解析器の精度評価を行う.\subsection{翻訳器の精度評価}\label{sec:mt_eval}各手法で自己学習した構文解析器を用いて,翻訳精度の変化を確認する.\ref{sec:automatic_eval}節では自動評価尺度を用いた評価結果を示し,\ref{sec:human_eval}節で人手評価による評価結果を示す.また,\ref{sec:ex_improve}節では提案手法により改善された翻訳例を示し,どのような場合に提案手法が有効かを検討する.\subsubsection{自動評価尺度による翻訳精度の評価}\label{sec:automatic_eval}日英・日中翻訳の実験結果を表\ref{tab:result}に示す.表中の短剣符は,提案手法の翻訳精度がベースラインシステムと比較して統計的に有意に高いことを示す($\dag:p<0.05,\\ddag:p<0.01$).また,表中の星印は,提案手法の翻訳精度がLiuらの手法(手法(c))と比較して統計的に有意に高いことを示す($\star:p<0.05,\\star\star:p<0.01$).表\ref{tab:result}中の(b),(c),(d),(e)の手法で自己学習に使用している文は,Egretが構文解析に失敗した場合を除いて同一である\footnote{手法(d),(e)ではEgretが解析に失敗した場合,代替の構文解析器としてJDCで学習したCkylark\cite{oda15naacldemo}を用いた.}.なお,表中の``文数''は自己学習に使用した文数を示し,既存モデルで使用しているJDCの文数は含まない.本実験では,BLEU+1を文や構文木選択を行う際の指標としたため,以降では,主にBLEUスコアに着目して分析を行う.\begin{table}[b]\caption{日英・日中翻訳の実験結果}\label{tab:result}\input{02table02.txt}\end{table}実験により,以下の3つの仮説について検証を行った.\begin{itemize}\item構文木の選択法を用いた標的自己学習(\ref{sec:tree_selection}節)は翻訳精度向上に効果があるのか\item文の選択法(\ref{sec:sentence_selection}節)は学習データ中のノイズを減らし,精度を向上させる効果があるのか\item標的自己学習したモデルは目的言語に依存するのか,多言語に渡って使用できるのか\end{itemize}\textbf{構文木の選択法による効果:}Parser1-bestの構文木を自己学習に使用する手法では,日英,日中翻訳ともにBLEUスコアの向上は見られなかった(表\ref{tab:result}(b)).FrontierNode1-bestを用いた場合,Parser1-bestを用いた手法と比較して多少の精度向上は見られたものの,ベースラインとの有意な差は見られなかった(表\ref{tab:result}(c)).また,日英翻訳でMT1-bestを自己学習に用いた手法では,Parser1-bestを用いた手法と比較すると精度は向上したもののベースラインシステムと比較すると精度は向上しなかった(表\ref{tab:result}(d)).日中翻訳では,MT1-bestを使用した手法はParser1-bestを用いた手法とほぼ同じ結果となった(表\ref{tab:result}(d)).この際に自己学習に用いられた構文木を確認したところ,正しい構文木もあるが誤った構文木も散見され,精度向上が確認できなかったのは誤った構文木が学習の妨げになったからだと考えられる.次にBLEU+11-bestを用いた手法では,Oracle訳に使われた構文木が選択されることにより,BLEUスコアが日英,日中翻訳ともに向上していることがわかる(表\ref{tab:result}(e)).特に,日中翻訳についてはベースラインより有意に精度が向上している.図\ref{fig:oracle_bleu}に,この手法で自己学習に使われたOracle訳のBLEU+1スコア分布を示す.横軸の値$x$は,$x$以上$x+0.1$未満のBLEU+1を持つ文を表しており,縦軸が該当する文の数である.この図からもわかるように,Oracle訳であってもBLEU+1スコアが低い文は多く存在する.このため,\ref{sec:sentence_selection}節の文選択を実施した.\begin{figure}[b]\begin{center}\includegraphics{23-4ia2f5.eps}\end{center}\caption{表\ref{tab:result}手法(e)のBLEU+1スコア分布}\label{fig:oracle_bleu}\end{figure}\textbf{文の選択法による効果:}次に,BLEU+1スコアの閾値を用いた文選択手法の効果を確認する.結果から,日英翻訳,日中翻訳ともに,この手法は効果的であることがわかった(表\ref{tab:result}(f),(g),(h)).Liuらの手法(表\ref{tab:result}(c))と比較を行った場合でも,提案手法の一部では有意に高い精度が得られている.この結果から,自己学習を行う際には,精度が低いと思われる構文木を極力取り除き,精度が高いと思われる構文木のみを学習データとして使用することが重要であると言える.さらに,翻訳器1-best訳とOracle訳でBLEU+1スコアの差が大きい文のみを使用する手法でも,BLEU+1スコアの閾値を用いた手法と同程度の精度向上を達成することができた(表\ref{tab:result}(i)).\textbf{目的言語への依存性:}最後に,日英対訳文で自己学習し,日英翻訳の精度改善に貢献した構文解析器のモデルを,他の言語対である日中翻訳に使用した場合の翻訳精度の変化を検証した.興味深いことに,この場合でも直接日中対訳文で自己学習したモデルとほぼ同程度の翻訳精度の改善が見られた(表\ref{tab:result}(j)).これにより,学習されたモデルの目的言語に対する依存性はさほど強くなく複数の目的言語のデータを合わせて学習データとすることで,さらに効果的な自己学習が行える可能性があることが示唆された.\subsubsection{人手による翻訳精度の評価}\label{sec:human_eval}提案手法によりBLEUスコアは改善されたが,自動評価尺度は完璧ではなく,実際にどの程度の質で翻訳できたか明確に判断することは難しい.そのため,人手評価による翻訳精度の評価を行い,実際にどの程度翻訳の質が改善されたかを確認した.評価基準は,意味伝達と訳の自然性を両方加味するAcceptability\cite{goto11ntcir}とした.本研究と関わりが無いプロの翻訳者に各翻訳文に対し評価基準を基に5段階のスコアをつけてもらい,これらの平均を評価値とする.評価は日英翻訳システムを対象とし,Testセットからランダムで抽出した200文について評価を行った.各システムの評価結果を表\ref{tab:human_eval_result}に示す.既存の自己学習手法で学習したモデルでは,ベースラインシステムと比較して有意な翻訳精度向上は確認できなかった(表\ref{tab:human_eval_result}(b)).一方,提案手法で自己学習したモデルでは,ベースラインシステムより有意に良い翻訳精度が実現できており,かつ既存の自己学習手法と比較しても$p<0.1$水準ではあるが精度が向上している(表\ref{tab:human_eval_result}(c)).このように,自動評価尺度だけでなく,人手評価でも提案手法で自己学習したモデルを用いることにより,有意に翻訳精度が向上することが確認できた.\begin{table}[b]\caption{人手による日英翻訳精度の評価}\label{tab:human_eval_result}\input{02table03.txt}\end{table}\subsubsection{自己学習による訳出改善の例}\label{sec:ex_improve}構文解析器の自己学習によって改善された日英訳の例を表\ref{tab:ex_better_trans}に示す.また,表\ref{tab:ex_better_trans}の訳出の際に使用された構文木を図\ref{fig:selftrain_tree}に示す.この文では,「C投与群」と「Rの活動」という名詞句が含まれている.ベースラインシステムの構文木は,これらの名詞句を正しく解析できておらず,この構文解析誤りが翻訳結果にも悪影響を与えてしまっている.一方,提案手法で自己学習したシステムでは,これらの名詞句を正しく解析できており,翻訳も正しく行われている.これはMcCloskyら\cite{mcclosky08coling}が報告していたように,既存モデルで使用しているJDCで既知の単語が,ASPECで異なる文脈で現れた際に解析精度が向上した結果であると考えられる.\begin{table}[t]\caption{日英翻訳における訳出改善例}\label{tab:ex_better_trans}\input{02table04.txt}\vspace{0.5\Cvs}\end{table}\begin{figure}[t]\begin{center}\includegraphics{23-4ia2f6.eps}\end{center}\caption{自己学習により構文解析の精度が改善した例}\label{fig:selftrain_tree}\end{figure}\subsection{構文解析器の精度評価}\label{sec:parser_eval}次に,提案手法により自己学習した構文解析器自体の精度を測定した.ASPECに含まれる日英対訳データの内,Testセット中の100文を人手でアノテーションを行い,正解構文木を作成した.その後,各構文解析器の精度をEvalb\footnote{http://nlp.cs.nyu.edu/evalb}を用いて測定した.評価には,再現率,適合率,およびそれぞれの調和平均であるF値を用いる.表\ref{tab:parser_result}に構文解析器の精度評価結果を示す.\begin{table}[t]\caption{自己学習した日本語構文解析器の精度}\label{tab:parser_result}\input{02table05.txt}\end{table}表からもわかるように,Parser1-bestを用いて自己学習したモデルはベースラインシステムと比較して$p<0.05$水準で有意に精度が向上している.これに加えて,FrontierNode1-bestを用いた手法や提案手法で自己学習したモデルは$p<0.01$水準で有意に精度が向上している.これらの結果から,提案手法は機械翻訳の精度だけでなく,構文解析器自体の精度もより向上させることがわかった.よって,本手法は構文解析器を分野適応させる場合においても有効であるといえる.\subsection{翻訳器の精度が低い場合の自己学習効果}提案手法では,翻訳結果を用いて間接的に構文木を評価し構文解析器を改良する.そのため,使用する翻訳器の精度によっては十分な学習効果が得られない可能性がある.本節では,精度が低い翻訳器を使用し構文解析器の自己学習を行い,翻訳精度と自己学習効果の依存性について検討する.なお本実験では日英翻訳のみを対象として実験を行った.\subsubsection{実験設定}200万文使用していた学習データを25万文に制限し,低精度の翻訳器を新たに作成した.使用した対訳文数,および翻訳精度を表\ref{tab:low_accuracy_decoder}に示す.学習データが減ったことにより,以前のシステムと比較してBLEU,RIBESともに低下している.これ以外の条件は全て\ref{sec:experimental_setup}節と同一である.なお,\ref{sec:mt_eval}節の実験結果との比較のために,自己学習後の翻訳精度評価には200万文を使用して学習したシステムを用いる.\begin{table}[t]\caption{使用した対訳文数と翻訳精度}\label{tab:low_accuracy_decoder}\input{02table06.txt}\end{table}\subsubsection{実験結果,考察}低精度翻訳器を自己学習時に使用し,自己学習した構文解析器を用いて翻訳器を構築しその精度を測定した.この実験結果を表\ref{tab:result_low_accuracy}に示す.また,構文解析器自体の精度も\ref{sec:parser_eval}節と同様に測定した.測定結果を表\ref{tab:parser_result_low_accuracy}に示す.\begin{table}[t]\caption{日英翻訳の実験結果(低精度の翻訳器を用いて自己学習を行った場合)}\label{tab:result_low_accuracy}\input{02table07.txt}\end{table}\begin{table}[t]\caption{自己学習した日本語構文解析器の精度(低精度の翻訳器を用いて自己学習を行った場合)}\label{tab:parser_result_low_accuracy}\input{02table08.txt}\end{table}結果は,低精度翻訳器を使用した場合でも,以前の高精度翻訳器を使用して自己学習を行った場合(表\ref{tab:result_low_accuracy}(b))と遜色ない自己学習効果が得られた.構文解析器の精度自体も,高精度翻訳器を用いた場合(表\ref{tab:parser_result_low_accuracy}(b))と大きな差は無いことがわかった.これらの結果から,提案手法は既存翻訳器の翻訳精度に依存しないことが示された.これは,翻訳器が出した500-bestの中からOracle訳を選択しており,翻訳器が低精度の場合でも500-bestの中にはある程度誤りが少ない訳が含まれているため,比較的正確な構文木が選択できたからだと考えられる.そのため,$n$-bestの$n$を変えるとこの結果は多少変化する可能性がある.\subsection{自己学習を繰り返し行った場合の効果}構文解析器の自己学習では,1回自己学習を行った構文解析器をベースラインとして使用し2回目の自己学習を行うことで,さらなる精度向上が期待できる.本節では,自己学習を繰り返し行うことで,翻訳精度および構文解析精度にどのような影響が及ぶかを検証する.なお本実験では日英翻訳のみを対象として実験を行った.本実験では,1回自己学習を行ったものの構文解析モデルとして,表\ref{tab:result}中の(g)のモデルを用いる.その他の実験設定は\ref{sec:experimental_setup}節と同一である.自己学習を2回行った構文解析モデルを使用して翻訳精度を測定した結果を表\ref{tab:result_iterate_accuracy}に示す.また,構文解析器の精度自体も\ref{sec:parser_eval}節と同様に測定した.測定結果を表\ref{tab:parser_result_iterate_accuracy}に示す.\begin{table}[t]\caption{日英翻訳の実験結果(2回の繰り返し学習)}\label{tab:result_iterate_accuracy}\input{02table09.txt}\end{table}\begin{table}[t]\caption{自己学習した日本語構文解析器の精度(2回の繰り返し学習)}\label{tab:parser_result_iterate_accuracy}\input{02table10.txt}\end{table}実験より,2回の繰り返し学習を行っても,1度のみの場合と比較して翻訳精度,構文解析精度ともに向上は見られなかった.これは,学習時に500-bestの中からOracle訳を選択しているため,1度目でも既にある程度精度の高い構文木が選ばれていたことが原因として考えられる.また,スコアを基に学習データを制限しているため,2度目の学習時に改善された構文木であっても,翻訳結果がスコアの制限を満たさず学習データとして使われなかった可能性がある.そのため,本手法では繰り返し学習の効果は薄いと考えられる.
\section{おわりに}
本論文では,統語ベース翻訳で用いられる構文解析器の標的自己学習手法を提案し,これによりF2S翻訳および構文解析の精度が向上することを検証した.具体的には,日英,日中翻訳を対象に実験を行い,本手法で標的自己学習した構文解析器を用いることで,ベースラインシステムと比較して有意に高精度な翻訳結果を得られるようになったことが確認できた.また,日英で自己学習した構文解析器のモデルを,日中の翻訳の際に用いても同様に精度が向上することが確認できた.日英翻訳については訳の人手評価も実施し,人手評価においても有意に翻訳精度の改善が見られた.さらに,提案手法では翻訳精度だけでなく,構文解析の精度自体も向上することを実験により検証した.また,既存翻訳器の精度が十分でない場合でもこの手法は適用可能であることを確認した.本手法の繰り返し適用に関する検討も行ったが,本手法では繰り返し学習の効果は薄いと考えられる.今後の課題としては,さらに多くの言語対で提案手法が適用可能であることを確認することが挙げられる.また,自己学習による効果は目的言語によらないという可能性が示唆されたため,実際に多言語で学習データを集めて適用することで,より翻訳精度および構文解析精度を向上させることが期待される.さらに,対訳コーパスに対して他の複数の構文解析器を用いて解析し,それらの解析結果が一致している文を正解とみなして構文解析器の学習に使用するtri-trainingとの比較についても検討を行いたいと考えている.\acknowledgment本論文の一部は,JSPS科研費25730136および24240032の助成を受け実施したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Charniak}{Charniak}{1997}]{Charniak97}Charniak,E.\BBOP1997\BBCP.\newblock\BBOQStatisticalParsingwithaContext-FreeGrammarandWordStatistics.\BBCQ\\newblockIn{\BemProceedingsofAAAI},\mbox{\BPGS\598--603}.\bibitem[\protect\BCAY{Galley,Graehl,Knight,Marcu,DeNeefe,Wang,\BBA\Thayer}{Galleyet~al.}{2006}]{galley06syntaxmt}Galley,M.,Graehl,J.,Knight,K.,Marcu,D.,DeNeefe,S.,Wang,W.,\BBA\Thayer,I.\BBOP2006\BBCP.\newblock\BBOQScalableInferenceandTrainingofContext-RichSyntacticTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\961--968}.\bibitem[\protect\BCAY{Gasc{\'{o}},Rocha,Sanchis-Trilles,Andr{\'{e}}s-Ferrer,\BBA\Casacuberta}{Gasc{\'{o}}et~al.}{2012}]{gasco2012does}Gasc{\'{o}},G.,Rocha,M.-A.,Sanchis-Trilles,G.,Andr{\'{e}}s-Ferrer,J.,\BBA\Casacuberta,F.\BBOP2012\BBCP.\newblock\BBOQDoesMoreDataAlwaysYieldBetterTranslations?\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\152--161}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{goto11ntcir}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR},\lowercase{\BVOL}~9,\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Huang\BBA\Harper}{Huang\BBA\Harper}{2009}]{huang2009self}Huang,Z.\BBACOMMA\\BBA\Harper,M.\BBOP2009\BBCP.\newblock\BBOQSelf-TrainingPCFGGrammarswithLatentAnnotationsAcrossLanguages.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\832--841}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{isozaki10ribes}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\944--952}.\bibitem[\protect\BCAY{Katz-Brown,Petrov,McDonald,Och,Talbot,Ichikawa,Seno,\BBA\Kazawa}{Katz-Brownet~al.}{2011}]{katzbrown11targetedselftraining}Katz-Brown,J.,Petrov,S.,McDonald,R.,Och,F.,Talbot,D.,Ichikawa,H.,Seno,M.,\BBA\Kazawa,H.\BBOP2011\BBCP.\newblock\BBOQTrainingaParserforMachineTranslationReordering.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\183--192}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04sigtest}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03phrasebased}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsofHLT},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{lin04orange}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQOrange:AMethodforEvaluatingAutomaticEvaluationMetricsforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\501--507}.\bibitem[\protect\BCAY{Liu,Li,Li,\BBA\Zhou}{Liuet~al.}{2012}]{liu12emnlp}Liu,S.,Li,C.-H.,Li,M.,\BBA\Zhou,M.\BBOP2012\BBCP.\newblock\BBOQRe-trainingMonolingualParserBilinguallyforSyntacticSMT.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\854--862}.\bibitem[\protect\BCAY{Liu,Liu,\BBA\Lin}{Liuet~al.}{2006}]{liu06treetostring}Liu,Y.,Liu,Q.,\BBA\Lin,S.\BBOP2006\BBCP.\newblock\BBOQTree-to-StringAlignmentTemplateforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Marcus,Marcinkiewicz,\BBA\Santorini}{Marcuset~al.}{1993}]{marcus93penntreebank}Marcus,M.~P.,Marcinkiewicz,M.~A.,\BBA\Santorini,B.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofEnglish:ThePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2006}]{mcclosky2006effective}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2006\BBCP.\newblock\BBOQEffectiveSelf-trainingforParsing.\BBCQ\\newblockIn{\BemProceedingsofHLT},\mbox{\BPGS\152--159}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2008}]{mcclosky08coling}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2008\BBCP.\newblock\BBOQWhenisSelf-trainingEffectiveforParsing?\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\561--568}.\bibitem[\protect\BCAY{Mi\BBA\Huang}{Mi\BBA\Huang}{2008}]{mi08forestrule}Mi,H.\BBACOMMA\\BBA\Huang,L.\BBOP2008\BBCP.\newblock\BBOQForest-basedTranslationRuleExtraction.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\206--214}.\bibitem[\protect\BCAY{Mori,Ogura,\BBA\Sasada}{Moriet~al.}{2014}]{mori14jtb}Mori,S.,Ogura,H.,\BBA\Sasada,T.\BBOP2014\BBCP.\newblock\BBOQAJapaneseWordDependencyCorpus.\BBCQ\\newblockIn{\BemProceedingsofLREC},\mbox{\BPGS\753--758}.\bibitem[\protect\BCAY{Morishita,Akabe,Hatakoshi,Neubig,Yoshino,\BBA\Nakamura}{Morishitaet~al.}{2015}]{morishita15iwslt}Morishita,M.,Akabe,K.,Hatakoshi,Y.,Neubig,G.,Yoshino,K.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQParserSelf-TrainingforSyntax-BasedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofIWSLT},\mbox{\BPGS\232--239}.\bibitem[\protect\BCAY{Nakazawa,Mino,Goto,Kurohashi,\BBA\Sumita}{Nakazawaet~al.}{2014}]{nakazawa14wat}Nakazawa,T.,Mino,H.,Goto,I.,Kurohashi,S.,\BBA\Sumita,E.\BBOP2014\BBCP.\newblock\BBOQOverviewofthe1stWorkshoponAsianTranslation.\BBCQ\\newblockIn{\BemProceedingsofWAT},\mbox{\BPGS\1--19}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsofACLDemoTrack},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2014}]{neubig14wat}Neubig,G.\BBOP2014\BBCP.\newblock\BBOQForest-to-StringSMTforAsianLanguageTranslation:NAISTatWAT2014.\BBCQ\\newblockIn{\BemProceedingsofWAT},\mbox{\BPGS\20--25}.\bibitem[\protect\BCAY{Neubig\BBA\Duh}{Neubig\BBA\Duh}{2014}]{neubig14acl}Neubig,G.\BBACOMMA\\BBA\Duh,K.\BBOP2014\BBCP.\newblock\BBOQOntheElementsofanAccurateTree-to-StringMachineTranslationSystem.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\143--149}.\bibitem[\protect\BCAY{Oda,Neubig,Sakti,Toda,\BBA\Nakamura}{Odaet~al.}{2015}]{oda15naacldemo}Oda,Y.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQCkylark:AMoreRobustPCFG-LAParser.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\41--45}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Yamada\BBA\Knight}{Yamada\BBA\Knight}{2001}]{yamada01syntaxmt}Yamada,K.\BBACOMMA\\BBA\Knight,K.\BBOP2001\BBCP.\newblock\BBOQASyntax-basedStatisticalTranslationModel.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\523--530}.\bibitem[\protect\BCAY{Zhang\BBA\Chiang}{Zhang\BBA\Chiang}{2012}]{zhang12helporhurt}Zhang,H.\BBACOMMA\\BBA\Chiang,D.\BBOP2012\BBCP.\newblock\BBOQAnExplorationofForest-to-StringTranslation:DoesTranslationHelporHurtParsing?\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\317--321}.\end{thebibliography}\begin{biography}\bioauthor{森下睦}{2015年同志社大学理工学部インテリジェント情報工学科中途退学(大学院への飛び入学のため).現在,奈良先端科学技術大学院大学情報科学研究科博士前期課程在籍.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{赤部晃一}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{波多腰優斗}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,セイコーエプソン株式会社にて勤務.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同博士後期課程修了.同年日本学術振興会特別研究員(PD).2015年より奈良先端科学技術大学院大学情報科学研究科特任助教.京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞受賞.IEEE,ACL,情報処理学会,言語処理学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学電子卒.京都大学博士(工学).シャープ株式会社.奈良先端大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.ISCA理事,IEEESLTC委員,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V07N04-12
|
\section{はじめに}
手話言語は,主に手指動作表現により単語を表出するため,手指動作特徴の類似性が意味の類似性を反映している場合がある.例えば,図\ref{amandpm}に示した「午前」と「午後」という日本語ラベルに対応する二つの手話単語の手話表現を比較すると,手の動きが逆方向,すなわち,線対称な関係にあることが分かる.ここで,手話単語の手指動作特徴を手の形,手の位置,手の動きとした場合\cite{Stokoe1976},この単語対は,手の動きに関する手指動作特徴だけが異なる手話の単語対である.また,意味的には対義を構成し,動作特徴の類似性が意味の類似性を反映している単語対と捉えることができる.なお,手指動作特徴の一つだけが異なる単語対を特に,{\gt手話単語の最小対}と呼ぶ\cite{Deuchar1984}.明らかに,図\ref{amandpm}に示した単語対は,手の動きを対立観点とする手話単語の最小対を構成している.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=gozen.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\begin{epsf}\epsfile{file=gogo.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\end{center}\caption{手の動きを対立観点とする手話単語の最小対(午前,午後)}\label{amandpm}\end{figure}このように,類似した動作特徴を含む手話の単語対の抽出と収集は,言語学分野における,手話単語の構造と造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなる.例えば,計算機による手話単語の認識処理においては,認識誤りを生ずる可能性が高い単語対の一つと捉えることができる.一般に,人間の認識過程においても非常に類似している(差異が小さい)二つのオブジェクトを認識する際に,何の情報トリガも無ければ,同一のオブジェクトとして認識してしまう傾向がある.しかし,「このペアは似ているけど違うよ」というような情報トリガが与えられると,認識をより精密に行おうと(差異を検出)する傾向が見られる.一方,手話表現の生成処理においては,ある手話単語の手指動作特徴パラメータの一部を変更することで,別の手話表現を生成できることを意味する.また,日本語と手話単語との対訳電子化辞書システムを核とする学習支援システムの検索処理においては,類似の動作特徴を含む他の手話単語と関連付けて検索できるなど,学習効果の向上に貢献できるものと考える.本論文では,類似した手指動作特徴を含む手話言語の単語対(以後,本論文では,{\gt類似手話単語対}と略記する.)を与えられた単語集合から抽出する方法を提案し,その有効性を検証するために行った実験結果について述べる.本手法の特徴は,市販の手話辞典に記述されている手指動作記述文を手指動作の特徴構造を自然言語文に写像した手指動作パターンの特徴系列と捉え,手指動作記述文間の類似度計算に基づき,類似手話単語対を抽出する点にある.なお,関連する研究として,音声言語\footnote{本論文では,手話言語と対比させる意味で書記言語としての特徴を持つ日本語や英語などを総称して,音声言語と呼ぶことにする.}を対象とした同様なアプローチとして,市販の国語辞典や英語辞書に記述されている語義文(あるいは定義文)の情報を利用した単語間の意味関係や階層関係を抽出する研究\cite[など]{Nakamura1987,Tomiura1991,Tsurumaru1992,Niwa1993}が報告されている.以下,2章では,本研究の対象言語データである手指動作記述文の特徴と,その特徴から導出される特徴ベクトル表現について,3章では,手指動作記述文間の類似性に基づく手話単語間の類似度の計算方法について,4章では,本提案手法の有効性を検証するために行った実験結果を示し,5章で考察を行う.
\section{手指動作記述文の特徴とベクトル表現}
本研究で使用する手話辞典\cite{MaruyamaKoji1984}は,図\ref{amandpm}に示したように,手話単語見出しに対して,その手指動作手続きをイラストで表現する部分と,自然言語文で表現する手指動作記述文の部分で構成されている.前章で説明したように,図\ref{amandpm}の手話イラストの比較から,手話単語対(午前,午後)は,手の形,手の位置に関する手指動作特徴が共通で,手の動き(右に倒すか左に倒すか\footnote{辞書に記述されている手指記述文では,手話を行う動作主体から見た場合の方向で記述されている.})に関する手指動作特徴だけが異なる手話単語の最小対を構成していることが分かる.ここで,手話辞典に記述されている手指動作記述文を以下に示す.\begin{itemize}\item{\gt午前}右手の人差指と中指を立てて額の中央にあて、\underline{右に倒す}\item{\gt午後}右手の人差指と中指を立てて額の中央にあて、\underline{そのまま左に倒す}\end{itemize}明らかに,手指動作記述文の比較からも同様に,手の動きを示す部分だけが異なることが容易に理解できる.このように,手指動作記述文は,手話単語の動画像の特徴構造を,構造を持つ1次元の記号系列(日本語文)に写像した特徴系列と捉えることができる.すなわち,手話単語の手指動作表現を生成するための手続きを記述したプログラム(手続き)文と捉えることができる.また,手指動作記述文は一般の自然言語文と比べて,使用される語彙(単語集合)は,手や顔の部位を表す名詞や手指の動きを表現する動詞が制限され,動作の手続き文としての特徴から,文中での単語の配列(文形式)に制約がある.これらの特徴から,手指動作記述文は言語の使用環境が,一般の自然言語文に比べて,語彙的にも構文的にも強い制約を受けた文集合と捉えることができる.\subsection{手指動作記述文のベクトル表現}日本語文の形態素解析規則は,原則として,正規文法で記述できることが知られている\cite{MaruyamaHiroshi1994}.さらに,前節で議論した特徴から,手指動作記述文は構文的にも語彙的にも非常に限定された文集合である.一般に,ある範囲の限定された文集合を認識する有限オートマトンは比較的簡単に構成することができる\cite{Nagao1983}.議論を明確にするため,以下に示す例では,与えられた三つの手指動作記述文の文集合を認識する有限オートマトンの状態遷移図を示し,そこから導出される正規表現の文字列に基づく$n$次元の特徴ベクトル表現について述べる.\begin{description}\item[例]手話単語$A,B,C$に対する手指動作記述文を,$A=右手の親指を上げる$,$B=左手の小指を下げる$,$C=両手の小指を曲げる$とする.図\ref{FSTD}は,この三つの手指動作記述文を受理する有限状態遷移図を示す\footnote{文生成の観点からは非文を生成する可能性があるが,認識の観点ではこのままで十分である.}.\end{description}\begin{figure}[htbp]\begin{center}\unitlength=1mm\begin{picture}(65,11)\put(5,11){\vector(2,-1){10}}\put(18,5){\circle{3}}\put(21,5){\vector(1,0){10}}\put(21,6){左手の}\put(25,7){\oval(15,10)[t]}\put(21,13){右手の}\put(33,5){\circle{3}}\put(25,3){\oval(15,10)[b]}\put(21,-1){両手の}\put(36,5){\vector(1,0){10}}\put(36,6){小指を}\put(48,5){\circle{3}}\put(40,3){\oval(15,10)[b]}\put(36,-1){親指を}\put(51,5){\vector(1,0){10}}\put(51,6){下げる}\put(55,7){\oval(15,10)[t]}\put(51,13){上げる}\put(55,3){\oval(15,10)[b]}\put(51,-1){曲げる}\put(63,5){\circle{3}}\put(63,5){\circle{2}}\end{picture}\end{center}\caption{有限状態遷移図}\label{FSTD}\end{figure}次に,図\ref{FSTD}に示した有限状態遷移図から導出される文節単位の正規表現と文字連接に基づく正規表現を以下に示す.\begin{itemize}\item{\gt文節単位の正規表現}$(右手|左手|両手)の+(親指|小指)を+(上げる|下げる|曲げる)$\item{\gt文字連接に基づく正規表現}$(右|左|両)+手+の+(親|小)+指+を+(上|下|曲)+げ+る$\end{itemize}ここで,文字の連接関係を保持した形で,正規表現の各文字を手話単語(すなわち,手指動作記述文)の特徴観点と定義し,この特徴観点の有無を2値\{0,1\}で表現すると,表\ref{vector}に示したように,手話単語$A,B,C$は,上記の手続きにより,手指動作記述文から導出される14次元の特徴ビット・ベクトルで表現することができる.このように,与えられた手指動作記述文の有限集合を受理する有限オートマトンを構成し,正規表現による文字系列の各文字を特徴観点とする$n$次元の特徴ビット・ベクトルで手話単語を表現することができる.\begin{table}[htbp]\tabcolsep=3pt\footnotesize\caption{手指動作記述文の特徴ビット・ベクトル}\label{vector}\begin{center}\begin{tabular}{l|llllllllllllll}\hline&右&左&両&手&の&親&小&指&を&上&下&曲&げ&る\\\hline\hlineA&1&0&0&1&1&1&0&1&1&1&0&0&1&1\\B&0&1&0&1&1&0&1&1&1&0&1&0&1&1\\C&0&0&1&1&1&0&1&1&1&0&0&1&1&1\\\hline\end{tabular}\end{center}\end{table}
\section{手話単語間の類似度の考え方}
パターン認識においては,一般に,二つのパターン間の関係を計算するために,パターン空間上での距離あるいは類似度を定義する必要がある\cite[など]{Iijima1989,Tanaka1990}.例えば,\cite{MaruyamaHiroshi1989}は,単語の意味関係を計算する方法として,各単語を$n$次元のユークリッド意味空間上の点と見なし,点の座標を計算する代わりに各単語に多くの特徴観点を独立に収集し,大数の法則に基づき$n$次元の特徴ベクトルを与え,二つの単語間の意味の類似度を対応する特徴ベクトル間のなす角として定義している.本研究では,手話単語を手指動作特徴の$n$次元の特徴パターン空間上の点とみなし,$n$次元の特徴ベクトルのなす角を用いて,手話単語間の類似度を近似する.手話単語とそれに対応する手指動作記述文は,原則として1対1対応である.すなわち,{\gt手話単語間の類似度問題は対応する手指動作記述文間の類似度問題}と捉えることができる.また,この手指動作記述文は,前章で示したように,$n$次元の特徴ビットベクトルで表現できる.\subsection{手指動作記述文間の類似度の計算方法}任意に与えられた二つの手話単語$A,B$に対する手指動作記述文の文字系列から導出された,$n$次元の特徴ベクトルを\mbox{\boldmath$A$}$=(a_1,a_2,\cdots,a_n)$,\mbox{\boldmath$B$}$=(b_1,b_2,\cdots,b_n)$とし,二つの手指動作記述文間の類似度を$S(\mbox{\boldmath$A$,$B$})$と表記するとき,類似度を次式で定義する.\begin{equation}\label{eq:one}S(\mbox{\boldmath$A$,$B$})=\cos^2\theta=\frac{(\mbox{\boldmath$A$,$B$})^2}{\|\mbox{\boldmath$A$}\|^2\|\mbox{\boldmath$B$}\|^2}(0\leS(\mbox{\boldmath$A$,$B$})\le1)\end{equation}ここで,$(\mbox{\boldmath$A$,$B$})$は二つのベクトルの内積を表わし,$\|\mbox{\boldmath$A$}\|$は,ベクトル\mbox{\boldmath$A$}のノルムを表わし,次式で計算される.\begin{equation}(\mbox{\boldmath$A$,$B$})=\sum_{k=1}^na_kb_k\end{equation}\begin{equation}\|\mbox{\boldmath$A$}\|^2=\Bigl(\sqrt{(\mbox{\boldmath$A$,$A$})}\Bigl)^2\\=\Bigg(\sqrt{\sum_{k=1}^na_k^2}\Bigg)^2\\=\sum_{k=1}^na_k^2\end{equation}ここで,計算対象となる特徴ベクトルは,表\ref{vector}に示したように,要素成分の値が2値$\{0,1\}$で表現されるビットベクトルであるため,ベクトルのノルムの自乗は,特徴ベクトルの要素成分の値が1である要素の総数で計算できる.すなわち,特徴ベクトルに対応する{\gt手指動作記述文の長さ}\footnote{手指動作記述文の長さとは,文を構成する文字数を意味する.}と等しくなる.同様に,ベクトルの内積の自乗は,二つの特徴ベクトルの各要素成分の値が共に1である要素の総数で計算できる.これは,特徴ベクトルに対応する手指動作記述文間の{\gt最長共有部分列の長さ}と等しくなることを次節で述べる.\subsection{最長共有部分列の長さの計算}一般に,与えられた記号列の部分列とは,与えられた記号列から0個以上の記号を削除することにより得られる任意の記号列のことである.また,二つの文字列の最長共有部分列(longestcommonsubsequence)とは,記号の出現順序(連接関係)を保存した形で,双方に共通の部分列のうち,最長の部分列のことである\cite{Thomas1990}.例えば,二つの記号列を,$X=abcbdab,Y=bdcaba$とすると,$X$と$Y$の最長共有部分列の一つは$bcba$であり,その長さは4となる.一般に,最長共有部分列は一つとは限らず複数存在する可能性がある.実際,$X$と$Y$の最長共有部分列は,他に$bdab$と$bcab$がある.しかし,その長さは一意に決定される.以下では,最長共有部分列の長さを計算する方法について述べる.与えられた一つの系列$X=x_1x_2\cdotsx_l$に対して,$i$番目($i=0,1,\cdots,l$)までの部分列を$X_i=x_1x_2\cdotsx_i$と表記する.例えば,$X=abcde$なら$X_3=abc$であり,$X_0$は空列を意味する.二つの系列を,$A=a_1a_2\cdotsa_m$と$B=b_1b_2\cdotsb_n$とする.また,二つの系列$A$と$B$の最長共有部分列の長さを$LCS(A,B)$で表記すると,動的計画法を利用し,次式で計算される.\begin{equation}LCS(A,B)=LCS(A_m,B_n)\end{equation}\[LCS(A_i,B_j)=\left\{\begin{array}{@{\,}ll}LCS(A_{i-1},B_{j-1})+1&\mbox{if$a_i=b_j$,}\\\max\{LCS(A_i,B_{j-1}),LCS(A_{i-1},B_j)\}&\mbox{if$a_i\neqb_j$}\end{array}\right.\]ここで,$LCS(A_i,B_j)$は部分列$A_i$と$B_j$の最長共有部分列の長さを表わす.また,$1\lei\lem,1\lej\len$であり,$LCS(A_i,B_0)=LCS(A_0,B_j)=0$とする.なお,\cite{SatoSatoshi1992}は,複数存在する最長共有部分列を絞り込むため,この最長共有部分列の長さを求める計算式に,文字連接の制約を考慮した関数を新たに導入し,類似例文の最適照合計算に利用している.\subsection{文字列照合に基づく類似度の計算}これまでの議論をまとめると,手話単語間の類似度は,対応する手指動作記述文間の類似度とみなし,二つの手話単語$A,B$に対する手指動作記述文の文字列を$A=a_1a_2\cdotsa_m,B=b_1b_2\cdotsb_n$とすると,(\ref{eq:one})で定義した特徴ベクトルに基づく手指動作記述文間の類似度$S(\mbox{\boldmath$A$,$B$})$は、次式で表現できる.\begin{equation}\label{sim}S(\mbox{\boldmath$A$,$B$})=\frac{LCS(A,B)^2}{mn}\end{equation}これにより,有限オートマトンを求め,$n$次元の特徴ベクトルによるベクトル計算をする代わりに,与えられた二つの手指動作記述文間の文字列照合により類似度が計算できることが導ける.
\section{実験と考察}
\subsection{実験方法と結果}実験には,手話辞典\cite{MaruyamaKoji1984}に記述されている手指動作記述文の中から,二つの文字列(「両手」,「掌」)を両方含み,かつ複合語\footnote{例えば,手話単語見出し【青森】は【青い】と【森】で複合語を構成し,それぞれの手指動作記述文が記述されている.}を構成していない手話単語とその手指動作記述文(142文)を選定し,計算機に人手で入力したものを用いた\footnote{手指動作記述文中の句読点は,挿入位置のゆらぎが文字列照合に影響を与えるため,入力の段階で削除した.}.なお,上記の選定条件に適合するが,一つの手指動作記述文中に括弧書きで説明あるいは、別の手話表現が併記されている17文(手話単語)は実験対象外とした.実験方法は,手指動作記述文間の類似度を式(\ref{sim})に基づいて求め,類似度が0.6以上の手話単語対を抽出した.なお,本論文で定義した類似度の計算式(\ref{sim})は反射律($S(A,A)=1$)と対称律($S(A,B)=S(B,A)$)を満たすため,例えば,S(休む,閉める)とS(閉める,休む)は,片方のみを計算した.評価方法としては,抽出された手話単語対を正解/不正解というような二義的に判定することは適切でないと考え,共通の手指動作特徴は何か,また異なる手指動作特徴は何かを明らかにし,手話単語の電子化辞書システムを構築する上で有用な情報が得られたか否かで評価を行う.実験の結果,表\ref{kekka.1}に示すように類似度が0.6以上の手話単語対として,36組の単語対が抽出された.ここで,表中の単語見出しの添字は,同一の単語見出しに別の手話表現すなわち,異なる手指動作記述文が手話辞典\cite{MaruyamaKoji1984}に登録されていることを意味する.\begin{table}[htbp]\caption{類似度0.6以上で抽出された手話単語対}\label{kekka.1}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{c|l|l||c|l|l}\hline類似度&手話単語(1)&手話単語(2)&類似度&手話単語(1)&手話単語(2)\\\hline\hline1.00&働く&仕事&0.64&陳列&豊か\\1.00&鮮やか&濃い&0.64&忙しいA&状態\\0.96&嬉しい&楽しい&0.63&終るA&廃れる\\0.93&明るい&晴れ&0.61&守るA&気を付ける\\0.87&バランスB&比べる&0.61&いよいよ&対応\\0.83&動揺&迷う&0.60&贈る&届ける\\0.74&休む&閉める&0.60&勉強&比べる\\0.74&すべて&だいたい&0.60&届く&届ける\\0.72&楽しい&喜ぶ&0.60&慌てる&育てる\\0.70&会舘&センター&0.60&比べる&状態\\0.69&今&重い&0.60&忙しいA&比べる\\0.69&終るA&〜でしたA&0.60&林&バランスB\\0.68&一途&専念&0.60&与える&発行\\0.67&林&比べる&0.60&陳列&森\\0.67&嬉しい&喜ぶ&0.60&間A&贈る\\0.67&遠慮&届く&0.60&頂く&届く\\0.66&重い&暇&0.60&慌てる&豊か\\0.65&戸&閉める&0.60&多いA&陳列\\\hline\end{tabular}\end{center}\end{table}次に,抽出された各単語対の手指動作特徴の類似性を評価するため,対応する二つの手指動作記述文間の共有部分列と差異部分列を分析し,手指動作特徴の共通属性と差異属性は何かを明らかにする.分析の結果,表\ref{kekka.2}に示す14組の単語対は,{\bf同一の手話表現}であることが分かった.なお,同一の手話表現でありながら,類似度の値にばらつきが生じた原因については\ref{kousatu}章で議論する.\begin{table}[htbp]\caption{同一の手話表現である手話単語対}\label{kekka.2}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{c|l|l||c|l|l}\hline類似度&手話単語(1)&手話単語(2)&類似度&手話単語(1)&手話単語(2)\\\hline\hline1.00&働く&仕事&0.70&会舘&センター\\1.00&鮮やか&濃い&0.69&終るA&〜でしたA\\0.96&嬉しい&楽しい&0.68&一途&専念\\0.93&明るい&晴れ&0.67&嬉しい&喜ぶ\\0.91&バランスB&比べる&0.65&戸&閉める\\0.83&動揺&迷う&0.63&終るA&廃れる\\0.72&楽しい&喜ぶ&0.61&守るA&気を付ける\\\hline\end{tabular}\end{center}\end{table}また,表\ref{kekka.31}に示す7組の単語対は,{\bf掌の向き}を対立観点とする手話単語の最小対である.同様に,表\ref{kekka.32}に示す6組の単語対は,{\gt手の動き}を対立観点とする最小対である.なお,単語対(間A,贈る)は「間A」の手指動作記述文が「贈る」の手指動作記述文に含まれる関係を示している.すなわち,「間A」の手話表現が「贈る」の手話表現の初期状態と捉えることができる.\begin{table}[htbp]\caption{掌の向きを対立観点とする手話単語対}\label{kekka.31}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hline休む&閉める&下に向ける&前方に向ける\\林&比べる&左右に向かい合わせる&上に向ける\\遠慮&届く&左右に向かい合わせる&上下に向かい合わせる\\贈る&届ける&左右に向かい合わせる&上下に向かい合わせる\\慌てる&育てる&(上に向ける)&左右に向かい合わせる\\林&バランスB&左右に向かい合わせる&上に向ける\\頂く&届く&上に向ける&上下に向かい合わせる\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{手の動きを対立観点とする手話単語対}\label{kekka.32}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hlineすべて&だいたい&両手を接触させる&両手を接触させない\\重い&暇&動作の移動量が多い&動作の移動量が少ない\\いよいよ&対応&片手を近付ける&両手を近付ける\\届く&届ける&手前に動かす&前方に動かす\\与える&発行&前方に弧を描く&左右に広げる\\間A&贈る&\multicolumn{2}{c}{包含関係}\\\hline\end{tabular}\end{center}\end{table}表\ref{kekka.33}に示す2組の単語対は,{\gt手の位置}を対立観点とする最小対である.さらに,表\ref{kekka.34}に示した単語対は,{\bf指先の向き}を対立観点とする最小対である.ここで,今回の実験に使用した手指動作記述文では,指先の向きに関する情報の記述は明示されておらず,手指動作記述文間の比較だけではこの関係は抽出できない.\begin{table}[htbp]\caption{手の位置を対立観点とする手話単語対}\label{kekka.33}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hline陳列&豊か&腹の前&胸の前\\多いA&陳列&胸の前&腹の前\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{指先の向きを対立観点とする手話単語対}\label{kekka.34}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hline忙しいA&比べる&中央に向ける&前方に向ける\\\hline\end{tabular}\end{center}\end{table}このように,今回の実験に用いた手話辞典\cite{MaruyamaKoji1984}では,イラストと手指動作記述文が相互に情報を補完している.すなわち,指先の向きに関する情報はイラスト情報で提示されているため,本実験の類似度の計算には直接,反映されていないことが明らかとなった.また,実験対象の手指動作記述文を抽出する際に指定した「両手」と「掌」を両方とも含む手話単語は,結果として,手の形に関しては「五指を広げた形」の手指動作特徴を共通の属性とする単語群の一つであり,手の形を対立観点とする単語対は抽出されないことが分かった.なお,指先の向きに関しては,例えば,「掌を上に」の場合と「掌を前方に」の場合とでは,指先の向きはそれぞれ,前方と上方を指しているという違いはあるが,掌の向きと連動して変化することに着目すると,指先の向きに関する動作特徴は掌の向きに関する動作特徴に吸収されているとみなして分析を行った.残りの6組の単語対については,表\ref{kekka.35}に示すように,基本となる動作を交互(点対称)に行うか同時(線対称)に行うか,掌の向き,手の位置,指先の向きなど複数の特徴観点の違いが見られる.ここで,二つの単語対(勉強,比べる)と(慌てる,豊か)は,手指動作記述文間の文字列の比較を基準とする本提案手法の問題点を示している.これについては,\ref{kousatu}章で議論する.\begin{table}[htbp]\caption{複数の特徴観点で異なる手話単語対}\label{kekka.35}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l|l|l|l}\hline手話単語&手の位置&掌の向き&手の動き&指先の向き\\\hline\hline今&---&下に向ける&二度程下におろす&---\\重い&---&上に向ける&下におろす&---\\\hline勉強&---&顔に向ける&同時に上下させる&---\\比べる&---&上に向ける&交互に上下させる&---\\\hline陳列&---&上に向ける&同時に上下させながら左右に広げる&---\\森&---&手前に向ける&交互に上下させながら左右に広げる&---\\\hline忙しいA&胸の前&上に向ける&---&中央に向ける\\状態&顔の前&前に向ける&---&上に向ける\\\hline比べる&胸の前&上に向ける&---&---\\状態&顔の前&前に向ける&---&---\\\hline慌てる&腹の前&---&交互に上下させながら上にあげる&中央に向ける\\豊か&胸の前&---&同時に上下させながら左右に広げる&前方に向ける\\\hline\end{tabular}\end{center}\end{table}次に,これらの分析結果を基に,抽出された手話単語対が手話単語の電子化辞書の構築(計算機処理)に有用な情報が抽出できたか否かについて,利用方法の例を示しながら評価を行う.\begin{itemize}\item同一の手話表現である単語対市販の手話辞書を基に,機械可読形式に変換する場合,同一の手話表現を持つ単語見出しを抽出することは,対応する手話画像データとのリンクを効率的に関係付ける上で重要であり,手話表現から対応する日本語の単語見出しを検索する機能を実現する上でも重要な知識源の一つと捉えることができる.また,手話を日本語に変換する手話通訳システムにおける訳語選択において,有効利用できると考える.例えば,「明るい」と「晴れ」,「迷う」と「動揺」などは文脈に応じて適切な日本語単語見出しを選択する必要がある.このように,従来の手話電子化辞書の多くが,ある一つの日本語単語見出しに対して,複数の手話表現が対応する訳し分け\footnote{例えば,「あがる」に対して,雨があがる,成績があがる,階段をあがるなど.}に重点をおき構成されていたものを,ある手話表現に対して,複数の日本語単語見出しが対応する点を考慮して,再構成する必要性を示唆するものと考える.\item最小対手話単語の最小対は,手話単語の造語法の解明に重要な知識データの一つとなる.一方,掌の向き,手の位置,手の動き,指先の向きを対立観点としているため,手話表現をアニメーションで表現する際に,両者の差異となる手指動作特徴項目のみを変更することで,生成できる可能性がある.例えば,複数の画像フレームを連続的に表示して,動画アニメーションを生成する場合に、表示する配列順序を逆転させることで「届く」と「届ける」の両方を同一の画像フレーム集合で生成できる.また,学習支援システムとしての電子化辞書の場合には,ある手話単語を検索した場合に,手指動作特徴の一部だけが異なる他の手話単語を提示し,両者間の差異を認識させることで,学習効果が向上できると考える.\end{itemize}このように,今回の実験で抽出された単語対を分析した結果,抽出された36組の単語対の中で30組は,非常に類似した手指動作特徴を含む単語対である.また,手話単語の計算機処理に有用な単語対と捉えることができ,本提案手法の有効性を示す結果が得られたと考える.しかし,分析の結果,幾つかの問題点も明らかになった.これらの問題点と今後の課題について,次章で詳細に議論する.
\section{考察}
label{kousatu}まず最初に,同一の手話表現でありながら,類似度の値にばらつきが生じた原因について,以下に手指動作記述文間の差異を明示しながら分析を行う.例として,類似度が0.6の(守るA,気を付ける)の手話単語対の手指動作記述文間の差分を以下に示す.ここで,文中の記号``【''と``】''でくくられた部分が相違部分文字列を示す.\begin{center}\begin{tabular}{ll}守るA&掌を手前に向けた両手を【胸の前に上下にして】おき手前\\&に引き寄せ【ると同時に拳をさっと】重ねて胸にあてる\\気を付ける&掌を手前に向けた両手を【上下にして胸の前に】おき手前\\&に引き寄せ【ながらさっと拳を】重ねて胸にあてる\\\end{tabular}\end{center}\bigskip明らかに,二つの手指動作記述文は同一の手指動作を表現している.しかしながら,文字列【胸の前に】と【上下にして】が双方の手指動作記述文間で逆転している.このような関係は,文字の出現順序を考慮しながら照合を行う,最長共有部分文字列検索を基本とする類似度の計算方法では,類似度の値が低下する要因として働く.この場合には、文字数の多い【上下にして】が共有部分列として計算される.同様に,【さっと】は副詞であり,その挿入位置は日本語文中では比較的自由度が大きく,【さっと拳を】も【拳をさっと】も日本語文としては正しい.次に,類似度が低下する他の要因について分析する.表\ref{kekka.2}に示した中で,(明るい,晴れ),(動揺,迷う)の手話単語対は片方の手指動作記述文が両者の最長共有部分文字列に相当し,それぞれ,【同時】,【揺らすように】が付加されている違いがある.従って,類似度計算では,この差分の文字数により類似度の値が変動している.このように,同一の動作表現を別の表現方法を用いて記述されている等の要因が複合化され,結果として,同一の手話表現であるにもかかわらず、類似度が低下する要因として働いている.上記の問題を解決する方法の一つとして,与えられた手指動作記述文を認識の観点ではなく,生成の観点から有限オートマトンを再構成するなどの正規化手法を検討することが考えられる.この正規化手法については今後の課題である.次に,表\ref{kekka.35}中の単語対(勉強,比べる)と(慌てる,豊か)は,文字列の照合法に基づく本手法の限界を示している.例えば,(勉強,比べる)における,手の動きに関する記述文間の差異は,上下の動作を同時に行うか交互に行うかの違いがある.また,掌の向きの差異は,顔に向けるか上に向けるかの違いと判断できる.しかし,「顔に向ける」の意味するところは,本を読むしぐさを表現しており,手話表現では斜めに両手を構えて,斜めに上下する動作を表現している.また,(慌てる,豊か)は,複合動作を表現しているため,「慌てる」が上方に両手を上げてゆく動作に対して,「豊か」が左右に広げてゆく動作である.しかし,これらの動作表現を示す文形式の共有部分が動作の差異を表現する部分より極端に大きいため,本論文の類似度の計算では,高い類似度となる.このように,手指動作記述文間の比較だけから手話単語対の詳細な分析は困難であるが,本論文で提案した手法を用い,与えられた単語集合の膨大な組合せの中から,分析対象となる類似の手話単語対の候補を適切な閾値を設定することで容易に抽出し,収集することができると考える.
\section{むすび}
本論文では,与えられた手話単語集合から類似の動作特徴を含む手話単語対を抽出する方法として,市販の手話辞典に記述されている手指動作記述文間の類似性に着目した手法を提案した.本手法の特徴は,手話単語間の動作特徴の類似関係を対応する手指動作記述文間の類似関係と捉え,手話単語間の類似度を手指動作記述文間の類似度で計算する点にある.類似度が0.6以上の手話単語対を抽出する実験の結果,手話単語の認識や生成,検索処理に有用な手話単語の最小対や類似の動作特徴を含む手話単語対を抽出できることを確認した.今後の課題として,与えられた手指動作記述文を正規化する手法の検討と手指動作特徴の類似性に基づく手話単語の体系化を試みる予定である.\acknowledgment本研究を進めるにあたり有益なご示唆,ご討論を頂いた宇都宮大学鎌田一雄教授,熊谷毅助教授に感謝する.また,データ整理,実験等にご協力頂いた研究室の学生諸氏に感謝する.なお,本研究の一部は文部省科研費,厚生省科研費,実吉奨学会,電気通信普及財団,放送文化基金,トヨタ自動車,栢森情報科学振興財団,大川情報通信基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{adachi}\begin{biography}\biotitle{略歴}\bioauthor{安達久博}{1981年宇都宮大学工学部情報工学科卒業.1983年同大学院工学研究科修士課程修了.同年,東京芝浦電気(現.東芝)入社.同社総合研究所情報システム研究所研究員を経て,1992年宇都宮大学工学部助手.現在に至る.この間,科学技術庁の機械翻訳プロジェクトに従事のため京都大学(1983.10--1984.10)に滞在.通産省主導による自然言語処理用大規模電子化辞書プロジェクトに従事のため日本電子化辞書研究所(1985.5--1989.5)に出向(第五研究室室長代理).現在,聴覚障害者の情報獲得を支援する手話通訳システムに関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,計量国語学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\newpage\\end{document}
| |
V24N01-03
|
\section{はじめに}
\label{sec:introduction}機械翻訳システムの性能向上や大量のコーパスを伴なう翻訳メモリなどの導入により,機械支援翻訳(CAT)が広く行われるようになってきている.その一方で,翻訳の対象となる文書の内容が専門的である場合,その分野特有の専門用語や定型表現に関する対訳辞書が必要となる.そうした辞書を人手で作成することはコストが高いため,あらかじめ翻訳された対訳コーパスから専門用語や定型表現の対訳を自動抽出する研究が盛んである\cite{Matsumoto00}.しかし,自動抽出の結果は必ずしも正確ではなく,間違った対訳表現を抽出したり,対訳表現の一部だけを抽出する場合がある.また,一つの語に対して複数の対訳表現を抽出した場合には,訳し分けに関する知見が必要となる.そこで,対訳表現を抽出するだけでなく,対訳表現の各候補を,それが出現した文脈と一緒に表示することによって,ユーザによる対訳表現の選定を支援し,対訳辞書構築を支援するシステムBilingualKWIC\textsuperscript{\textregistered}を開発した.BilingualKWICは,対訳抽出の技術とKWIC(KeyWordInContext)表示\cite{luhn1960}を統合し,文単位で対応付けされたパラレル・コーパスから,与えられたキーワードとその対訳表現の候補をそれぞれ文脈付きで表示する.BilingualKWICの開発過程については\ref{sec:history}章において詳しく述べるが,最初は法律分野の対訳辞書構築を支援する目的で開発した.しかし,このシステムは対訳辞書構築だけでなく,翻訳支援にも有用であるため,その後に開発された法務省・日本法令外国語訳データベース・システム(JLT){\footnote{http://www.japaneselawtranslation.go.jp/}\cite{Toyama12}}においても採用されるに至った.JLTは,日本の主要法令とその英訳,法令用語日英標準対訳辞書,および日本法令の英訳に関する関連情報をインターネット上において無償で提供するウェブサイトである.また,BilingualKWICは名古屋大学が開発した学内情報翻訳データベースNUTRIAD\footnote{http://nutriad.provost.nagoya-u.ac.jp/}\cite{Fukuda}でも採用され,学内文書の英文化を支援し,大学の国際化に寄与している.NUTRIADのシステムは,九州大学・熊本大学・東北大学でも導入され,BilingualKWICも同様に利用されている.BilingualKWICの現在の目的は,対訳辞書のようにあらかじめ登録された訳語と少数の用例を提示するのではなく,任意の入力キーワードに対して対訳表現を計算し,豊富なパラレル・コーパスからの情報を一緒に提示することにより,従来の対訳辞書や翻訳メモリとは異なるアプローチでの翻訳支援を実現することである.以下に本論文の構成を示す.まず\ref{sec:summary}章においてBilingualKWICの概要について述べ,\ref{sec:character}章においてその特徴を紹介する.\ref{sec:spec}章において,BilingualKWICの技術的詳細を,\ref{sec:history}章においてその開発過程をそれぞれ述べる.\ref{sec:evaluation}章ではユーザによるBilingualKWICの評価について述べ,\ref{sec:compare}章では類似するシステムとの比較を行う.\ref{sec:conclusion}章は本論文のまとめである.
\section{BilingualKWICの概要}
\label{sec:summary}BilingualKWICの概観を図~\ref{fig:BilingualKWIC}に示す.これはBilingualKWICが「文脈検索」という名前で採用されているJLT版での画面である.なお,BilingualKWIC自体はJLTに先立って開発されたものであり,以降の説明は,特に断わりがない限り,JLT版以外のBilingualKWICに共通するものである.\begin{figure}[b]\begin{center}\includegraphics{24-1ia3f1.eps}\end{center}\caption{BilingualKWICの概観}\label{fig:BilingualKWIC}\end{figure}左上のキーワード入力欄にキーワードを入力し,その横の[検索]ボタンを押すと,左側に原言語,右側に対象言語で対応付けられた対訳文を表示する.その際,原言語ではキーワードを中心に,また,対象言語では自動的に推定したその対訳表現を中心に,それぞれKWIC形式で表示する.また,注目したい文をマウスでクリックすると,その文全体が下側に表示される.その際,コーパスが複数の文書から構成される場合には,注目文の出典である文書名を表示できる.右上の対訳表現入力欄にはBilingualKWICが推定した対訳表現が表示されるが,それが間違っていたときには,ユーザが自分で適切な対訳表現をここに入力し,[訳語再検索]ボタンを押すことにより再表示できる.それに加えて,この欄右の[▼]ボタンを押すと,BilingualKWICが推定した他の対訳表現が表示され,ユーザは別の対訳表現を選択することができる.なお,キーワードおよび対訳表現ともにコーパス中における出現回数がそれらのすぐ横に表示され,対訳表現選定の一助となっている.また,KWIC表示欄の上部にある[並び替え]と表示された部分をクリックすることにより,出力結果をソートすることが可能である.原言語欄もしくは対象言語欄の中心にある表現の左側・右側でそれぞれソートすることができる.これにより対訳表現や用例の比較が簡単に行える.図~\ref{fig:BilingualKWIC}では,キーワード「専用利用権」の右側に続く語を基準にソートされている.\begin{figure}[t]\begin{center}\includegraphics{24-1ia3f2.eps}\end{center}\caption{``negotiation''に対する実行結果}\label{fig:BilingualKWIC2}\vspace{-0.5\Cvs}\end{figure}なお,図~\ref{fig:BilingualKWIC}では,原言語が日本語,対象言語が英語となっているが,キーワード入力欄に英単語を入力すれば,図~\ref{fig:BilingualKWIC2}のように原言語を英語,対象言語を日本語として対訳表現の自動抽出が行える.またキーワード・対訳表現ともに複合語を含め,任意の文字列を入力することができる.\clearpage
\section{BilingualKWICの特徴}
\label{sec:character}BilingualKWICは次のようなことが可能であるという特徴を持つ.\begin{enumerate}\item対訳表現の抽出における誤りの訂正\item派生表現の獲得\item訳し分けに関する知見の獲得\item対訳辞書との併用\item対訳表現の指定\item他の言語への応用\end{enumerate}以下,これらの特徴を詳しく述べる.\subsection{対訳表現の抽出における誤りの訂正}BilingualKWICでは,自動対訳抽出における誤りをユーザが簡単に修正できる.図~\ref{fig:BilingualKWIC}の例では,JLT版で公開されている日本法令の日英対訳コーパスを「専用利用権」をキーワードとして検索している.正しい対訳は,``exclusiveexploitationright''であるが,自動対訳抽出の結果は``exclusiveexploitation''となっている.しかし,図~\ref{fig:BilingualKWIC}のKWIC形式で表示された英語文において``exclusiveexploitation''の右側の文脈を見れば,``exclusiveexploitationright''が対訳として正解であることが直観的に理解できる.\subsection{派生表現の獲得}BilingualKWICでは,派生表現とその対訳を容易に獲得できる.図~\ref{fig:BilingualKWIC}の例では,「専用利用権」``exclusiveexploitationright''の下に続いて表示される用例から「専用利用権者」という派生語と,その対訳``holderofanexclusiveexploitationright''を得ることができる.このような特徴は対訳表現の抽出を支援するときに有用であるが,対訳表現に加えて,実際の用例も表示されることから,BilingualKWICは翻訳支援に対しても有用である.\subsection{訳し分けに関する知見の獲得}翻訳支援システムとして捉えたとき,BilingualKWICは訳し分けに関する知見が容易に獲得できる点が優れている.図~\ref{fig:BilingualKWIC2}の例では,``negotiation''の対訳として,「譲渡」と「交渉」が表示されている.そのような場合には,前後の文脈から,対訳語がどのように使い分けられているかを比較することが容易であり,この例では``between''が後続する場合は「交渉」と翻訳するのが適当であるといった知識を得ることができる.\subsection{対訳辞書との併用}BilingualKWICでは,あらかじめ対訳辞書が用意されていれば,それを組み込んで併用することも可能である.辞書に対訳表現が登録されている場合は,その対訳を優先的に表示し,その後,自動的に推定した対訳表現を含む文を表示する.図~\ref{fig:BilingualKWIC2}の例では,「譲渡」がこれに該当し,辞書に登録されている対訳であることを示すために緑色で表示される.その下に続く「交渉」は自動推定された対訳であり,辞書に登録されているものと区別するために青色で表示される.JLTにおいては,「法令用語日英標準対訳辞書」が公開されており,JLT版BilingualKWICに組み込まれている.\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{24-1ia3f3.eps}\end{center}\caption{「検証」の訳語として``review''を指定した結果}\label{fig:BilingualKWIC3}\end{figure}\subsection{対訳表現の指定}BilingualKWICでは,対訳表現の抽出に失敗した場合や,\pagebreak特定の対訳表現に注目したい場合は,対訳表現入力欄にそれを入力することにより,対訳を指定できる.図~\ref{fig:BilingualKWIC3}の例では,「検証」の訳語として少数ながら出現した``review''を入力することにより,その用例を表示している.なお,ユーザが指定した対訳表現は赤色で表示され,辞書にある対訳よりもさらに優先して表示される.\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{24-1ia3f4.eps}\end{center}\caption{ベトナム語--英語コーパスへの適用}\label{fig:BilingualKWICv}\end{figure}\subsection{他の言語への応用}またBilingualKWICは,後述するように形態素解析を利用せず,文字レベルの情報だけを利用しているため,様々な言語対での利用が可能である.図~\ref{fig:BilingualKWICv}は,ベトナム語と英語の対訳コーパスを利用した例である\hspace{-0pt}\footnote{これはJLT版ではなく,別のウェブ・サーバ上で実行した例である.}.なお,この例のように,言語の種類の判定が入力文字列からでは容易でない言語対で利用する場合は,入力言語を切り替えるトグル・ボタンをキーワード入力欄の左に用意している.
\section{BilingualKWICの技術的詳細}
\label{sec:spec}本章では,BilingualKWICの技術的な詳細について述べる.まず,対訳表現の自動抽出手法について述べたあと,どのような文字列を対訳ペアの単位とするかについて述べる.\subsection{対訳表現の自動抽出}本節では,BilingualKWICにおける対訳表現の自動抽出の手法について述べる.\subsubsection{Dice係数の利用}対訳コーパスから対訳表現を自動的に抽出する手法については,これまでも様々な手法が提案されている.基本的な手法は,対訳コーパスから統計的に得られる情報をもとに類似度を計算するものである.すなわち,対訳コーパスの中から対訳表現の候補を求め,入力語との類似度を計算して,もっとも類似したものを対訳表現として抽出する.類似度としては,Dice係数・相互情報量・$\phi^2$統計量・対数尤度比などが知られているが,これらに関しては文献~\cite{Matsumoto00}が詳しい.また,類似度として翻訳確率を利用するIBMモデル~\cite{IBMModel}とそれをHMMに基づいて実装したGIZA++~\cite{GIZA++}も広く利用されている.IBMモデルの場合,与えられた入力語の対訳表現を求めるのではなく,原言語文中の各単語と対象言語文中の各単語の間に対応を付ける.さらに対応付けを単語の連続として表現されるフレーズに拡張したものとして,統計的機械翻訳システムMoses~\cite{Moses}が出力するフレーズ・テーブルも利用されている.GIZA++やMosesは,出現回数がある一定以上の単語やフレーズに対しては高い精度で対応を付けることが可能である.その他,統計情報に加えて,既存の対訳辞書など,他の言語情報を利用する手法も提案されている~\cite{Kumano94,Izuha04}.BilingualKWICにおいては,より多くの言語対に適用できるようにするため,言語情報はできるだけ利用せず,統計情報だけから対訳表現を求めることとした.この場合,高い精度をもつGIZA++やMosesの結果を利用することも考えられるが,GIZA++は単語,Mosesはフレーズを単位として対応を付けるため,単語の一部などのような単位にそぐわない表現に対しては対訳を推定することができない.BilingualKWICでは,ユーザがキーワードを入力することを前提としており,特に日本語のように1単語の定義が曖昧な言語では,入力キーワードがシステムが想定する単位に合致しない場合が発生しやすいと考えられる.そこで,どのようなキーワードに対しても対訳表現を計算できるよう,BilingualKWICでは類似度を計算する手法を採用した.類似度にも複数の候補があるが,文献~\cite{Kitamura97}において,候補間の類似度を計算する手法として相互情報量とDice係数を比較し,Dice係数の方が高い精度を出すことが示されている.これを参考にし,BilingualKWICでも以下に示すDice係数を類似度として採用した.\begin{equation}\label{eq1}\Dice(x,y)=\frac{2\times\freq(x,y)}{\freq(x)+\freq(y)}\end{equation}ここで$\freq(x)$と$\freq(y)$は,入力キーワード$x$および対訳表現候補$y$がそれぞれ原言語コーパスおよび対象言語コーパス中に出現する回数であり,$\freq(x,y)$は,対応付けられた文に$x$と$y$が同時に出現する回数である.よって,$0\leq\Dice(x,y)\leq1$となる.実際にBilingualKWICで使用する場合は,入力キーワード$x$を固定した上で,$\Dice(x,y)$が最大となる$y$を探すことになることから,以下の式を用いる.\begin{equation}\label{eq2}\hat{y}=\argmax_{y}\frac{2\times\freq(x,y)}{\freq(x)+\freq(y)}\end{equation}実装においては,まずキーワード$x$が出現した文に対応する対訳文を集めて探索範囲とし,その中に出現するあらゆる候補$y$について上記の式(\ref{eq1})を計算し,最大となるものを求めている.\subsubsection{再帰的な対訳表現の抽出}\label{sec:recursive}上述の式(\ref{eq2})を使用した場合,$\hat{y}$は一つしか求められない.しかし,実際には同じ入力キーワードが複数の対訳表現をもつことがある.そこで,BilingualKWICでは,下記に示す方法で複数の対訳表現を再帰的に抽出する.まず,最初の$\hat{y}$が求まった場合,探索範囲から$\hat{y}$を含んだ文を削除する.そして残った文を新たな探索範囲とし,式(\ref{eq2})を再度計算することにより,異なる対訳表現を求める.探索範囲に含まれる文数や,$\hat{y}$に対するDice係数の値が閾値以下になった場合は計算を終了し,そうでない場合はさらに対訳表現を再帰的に求める.単純にDice係数の値が大きな順に対訳候補とすると,最初に求めた表現の部分文字列などが含まれる場合があるが,既に抽出した対訳表現が出現しない文から対訳候補を求めることにより,最初の候補とは別の対訳表現を抽出できる.以上の方法により,図~\ref{fig:BilingualKWIC2}のように入力キーワードが複数の対訳表現をもつ場合に,それぞれを抽出できる.\subsection{文字レベルの情報のみの利用}GIZA++や文献\cite{Kitamura97}を含め,先行研究では日本語・英語とも形態素解析を利用するものが多いが,BilingualKWICでは,形態素解析を利用せずに文字レベルの情報だけを用いている.ここで文字レベルの情報とは,日本語の平仮名は対訳表現に含めない\hspace{0pt}\footnote{オプションで含めることも可能である.},英語の単語は空白で区切られる,といった情報である.具体的には,日本語は文字Nグラム,英語は単語Nグラムを用いて,ある程度の長さNをもつ対訳表現の候補を求めている.なお,Nの最大値は言語ごとに指定できる.ところで,形態素解析を利用する利点として,対訳表現抽出の精度向上が期待できる点が挙げられる.特に動詞のように活用する語や,英語名詞の複数形などは,形態素解析を利用しないと,変化形が別の語として認識されてしまう.しかし,形態素解析の誤りは対訳抽出に影響を与える,他の言語に応用する場合はその言語に対応した形態素解析システムが必要といった問題もある.さらに,形態素解析システムの辞書にない単位では利用できないという問題がある.そうした点を考慮し,さらに対訳表現抽出の誤りを容易に修正できることから,BilingualKWICでは形態素解析を利用しないこととした.それにより,語の一部だけをキーワードとして入力するなど,柔軟な入力も可能になった.ただし,単語の途中からを候補対象とすると,精度や速度の点で問題があるため,接頭語として含まれている場合だけを数え上げている.例えば,``search''の出現回数を数えるときには``searches'',``searching'',``searched'',``searcher''なども含めて数えている.これにより,動詞の活用形や名詞の複数形が規則変化する語については,形態素解析の利用なしでも,ある程度対処できている.
\section{BilingualKWICの開発}
\label{sec:history}本章では,BilingualKWICの開発について,その段階にそって述べる.\subsection{プロトタイプ版の開発}プロトタイプ版となる最初のBilingualKWICの実装は,2003年に筆者が独自に行った.PC上でスタンドアロンで動作するように設計し,使用した言語はRuby,GUI作成のためにTkのライブラリを利用した.Rubyはスクリプト言語であり,プログラム開発が容易である一方,実行速度が遅いという欠点がある.BilingualKWICの実装においては,Dice係数の計算のために文字列の出現回数を高速に数え上げる必要がある.そこで,文字列検索の高速化のために,SuffixArray\cite{SuffixArray}のライブラリであるsary\footnote{http://sary.sourceforge.net/}を使用した.なお,今日では当然であるが,文字コードにはUTF-8を採用した.これにより,図~\ref{fig:BilingualKWICv}の例のように,各種言語に対応した.\subsection{対訳辞書作成支援版の開発}プロトタイプ版BilingualKWICは,JLT\cite{Toyama12}で公開される「法令用語日英標準対訳辞書」の構築において利用された\cite{Toyama08}.その際には,この標準対訳辞書に収録する対訳ペアの候補を収集することが必要になるため,BilingualKWIC上から対訳ペアを候補として登録できるようにした.具体的には,登録したい単語を指定して右クリックすると図~\ref{fig:pop}に示すポップ・ウィンドウが表示されるようにした.このウィンドウ上で,必要に応じてデータを修正・追加して,登録できるようにした.\begin{figure}[b]\begin{center}\includegraphics{24-1ia3f5.eps}\end{center}\caption{対訳ペア登録用ウィンドウ}\label{fig:pop}\end{figure}実際に,このシステムがインストールされたノートPCを作業担当者に配布することにより,標準対訳辞書に収録する対訳ペアの候補が収集された.この時点では,BilingualKWICが利用する対訳コーパスの大きさは39,560文であったが,ノートPC上で問題なく動作していた.なお,この対訳ペア登録機能は,対訳辞書の構築には有用であるが,翻訳支援の目的とは異なるため,次節のウェブ対応版では採用しなかった.\subsection{ウェブ対応版の開発}プロトタイプ版はスタンドアロンなPC上で起動するが,あらかじめRubyの処理系などを用意する必要があり,インストールは簡単ではなかった.また,利用者が各自で対訳コーパスを用意する必要があり,広く使用してもらうことができなかった.そこで多くのユーザに利用してもらうために,ウェブ・サーバ上で動作可能なバージョンを開発した.基本的なエンジンはプロトタイプ版と同じであるが,ウェブ・ブラウザを利用するためのGUI部分の開発は業者に委託した.この時点で,ユーザ・インターフェイスも含めて,BilingualKWICは一通り完成した.なお,BilingualKWICの完成後,日本法令外国語訳データベースシステム(JLT)の開発が始まったが,BilingualKWICは翻訳支援における有用性も認められ,2009年のJLT開設当初から「文脈検索」の名前で採用されている.その際には,より多くのウェブ・ブラウザに対応させるなどの改良を施した.これにより多くの一般ユーザにBilingualKWICを利用してもらえるようになった.\subsection{高速化}\label{sec:high-speed}最初のプロトタイプ版では,対訳コーパスとして数万文程度のサイズを想定していた.しかし,JLT版では新しい対訳法令が次々に追加されるため,コーパスのサイズが10万文を超える段階において,実行速度の点で問題が発生した.特に入力キーワードの出現回数が1万を超えるような場合は,結果が表示されるまでに数十秒かかることもあった.この問題には2010年から取り組み,以下の二つの方法で対処した.この手法はJLT版には適用していないが,\ref{sec:introduction}章で述べたNUTRIAD版において適用している.\subsubsection{対訳表現抽出の高速化}実行速度が遅い原因の一つは,コーパスが大きくなると対訳表現抽出に時間が掛かるためである.式(\ref{eq2})においては,$\hat{y}$を求めるために,あらゆる対訳表現候補$y$について$\freq(y)$と$\freq(x,y)$の計算が必要となる.$y$は,上限(デフォルトは日本語で6文字,英語で4単語)までのあらゆるNグラムを候補とするため,入力キーワード$x$が出現する文数が大きくなると,$\freq(y)$と$\freq(x,y)$の計算回数がそれだけ多くなる.このうち$\freq(y)$の計算は,コーパスの並び替えとインデックス化を事前に行うSuffixArrayを用いることにより,高速に実行できるため問題ない.しかし,$\freq(x,y)$に関しては,$y$の出現回数を数える探索範囲が$x$に依存して変化する.そのため,探索範囲を事前にインデックス化することが不可能であり,SuffixArrayを用いた高速化ができない.そこでプロトタイプ版およびJLT版では,探索範囲内を順次Nグラムに分割し,その出現回数を数え上げていた.この$\freq(x,y)$の計算を高速化するため,コーパスの各文をあらかじめ一定サイズ以下のNグラムに分割したデータを別に保持し,それを数え上げることとした.すなわち,デフォルトでは日本語は8文字以下,英語は10単語以下のNグラム単位であらかじめ分割したデータを保持しておく.また実装においては,テキストデータ自体へのアクセスを高速化するためにTokyoCabinet\footnote{http://fallabs.com/tokyocabinet/}を導入した.\subsubsection{表示の高速化}実際の利用の上では,表示速度においてもボトルネックがあった.入力キーワード$x$が出現する文が多くなると,ブラウザ側に負担が掛かり,表示が遅くなっていた.そのため,JLT版においては,デフォルトで100文を超える分は表示しないこととし,オプションとして表示できる文数の上限の設定を200,400,800と変更できるようにした.このため,入力キーワードを含むすべての対訳文を表示することができない場合があるが,通常の利用では,800文を表示できれば充分に比較ができると考えた.また,入力キーワードに文字列を付加したり,対訳表現を指定することにより,希望する対訳文を表示することができる.しかし,JLT版においては,別の問題があった.JLT版においては,表示結果のソートをブラウザ側で実現していた.しかし,これもブラウザに負担を掛け,表示が遅くなる結果となっていた.よってソート自体をサーバで実行し,その結果をブラウザ側に再送して再表示することにより,高速化を実現した.\subsubsection{高速化の効果}上述した二つの高速化手法の効果を測定するために,高速化を適用していないJLT版と,適用したNUTRIAD版とにおける表示速度を比較した.具体的には,出現回数が異なるキーワード50語を選び,そのキーワードを入力してから結果が表示されるまでの時間を測定した.時間の計測には,ウェブ・ブラウザを利用してウェブ・アプリケーションをテストするツールであるSeleniumWebDriver{\footnote{http://www.seleniumhq.org/projects/webdriver/}}をRubyから使用した.表示する文数の上限はデフォルト値である100とした.また,組み込まれている対訳辞書を併用した場合,対訳表現の自動推定の一部が省略されて訳語推定の時間が異なってくるため,併用しない設定で測定した.その結果を図~{\ref{fig:time}}に示す.\begin{figure}[t]\begin{center}\includegraphics{24-1ia3f6.eps}\end{center}\caption{出力時間の比較}\label{fig:time}\end{figure}この結果から分かるように,結果が表示されるまでの時間は出現回数が増えるに従って増加する傾向にあるが,単純に比例する訳ではない.これは再帰的な対訳表現の抽出が主な原因と考えられる.\ref{sec:recursive}節で述べたように,BilingualKWICでは,最初の対訳表現を求めた後,それが含まれない残りの文から再帰的に対訳表現を求める.そのため,多くの対訳表現をもつキーワードほど,すべての対訳表現を抽出するまでの時間が長くなる.JLT版とNUTRIAD版では,サーバの性能や登録されているコーパスの量・内容,入力されるキーワードが異なるため,単純な数値の比較はできないが,高速化を施したNUTRIAD版の方がキーワードの出現回数が増えた場合でも,実行時間の増加が緩やかであり,高速化手法が有効であったことが分かる.
\section{ユーザによる評価}
\label{sec:evaluation}本章では,実際に利用したユーザに対するアンケートに基づくBilingualKWICの評価について述べる.\subsection{アンケートの対象と内容}法学部の講義の一環として法令翻訳の課題が実施されており,受講生はBilingualKWICを利用して法律文を翻訳している.今回は,この講義の受講生にBilingualKWICの評価を依頼した.受講生は,まず初回の講義において,使用する道具に関する説明なしで与えられた法律文を翻訳した.それから,次の回の講義においてJLT版のBilingualKWICである「文脈検索」の説明を受けた後,改めて別の法律文を翻訳した.なお,説明の内容は,キーワードを入力して結果が表示される例を示すという単純なものであり,一般のユーザがウェブサイトに辿り着いてキーワード入力を実行し,その動作を理解する場合と同程度と想定した.BilingualKWICを使用しない場合と使用した場合の両方の翻訳を試みることにより,BilingualKWICが翻訳に有用であったかを評価してもらった.評価項目は,表示の見やすさ(視認性)・訳語の推定精度(推定精度)・表示速度・役に立ったか(有用性)に関する満足度であり,それぞれ5段階で評価してもらった.\subsection{評価結果}受講生49人に対するアンケートの集計結果を図~\ref{fig:enquete}に示す.視認性と訳語の推定精度に関しては,約5割が満足している一方で,表示速度に関しては4割以上が不満を感じている.JLT版のBilingualKWICには,\ref{sec:high-speed}節で述べた高速化が適用されていないため,その点も低い評価に繋っていると考えられる.しかし,有用性に関しては8割以上が肯定的な評価であり,BilingualKWICが翻訳支援として役に立つことが示された.\begin{figure}[t]\begin{center}\includegraphics{24-1ia3f7.eps}\end{center}\caption{ユーザによる評価結果}\label{fig:enquete}\end{figure}
\section{関連研究}
\label{sec:compare}コーパスに対して検索や分析を行うツールはコンコーダンサと呼ばれるが,これを2言語コーパスに拡張したものはバイリンガル・コンコーダンサもしくはパラレル・コンコーダンサと呼ばれる.BilingualKWICはバイリンガル・コンコーダンサの一種であると言える.本章では,いくつかのバイリンガル・コンコーダンサについて紹介し,BilingualKWICとの違いについて述べる.文献\cite{Uchiyama03b}における翻訳メモリの利用方法はバイリンガル・コンコーダンサといえる.ここでは,与えられたキーワードの日本語コーパスにおける出現をKWIC形式で表示し,コーパス中においてキーワードと良く共起した日本語単語と英語単語を提示する.ユーザが対訳候補となる英語単語を選ぶと,それに基づいた絞り込み検索を行い,対訳文のペアを別ウィンドウに表示する.ただし,別ウィンドウに表示される対訳文のペアでは,キーワードと対訳候補の部分がそれぞれ下線で明示されるが,中心に揃えて表示される訳ではない.BilingualKWICでは,最初に対訳候補を自動的に決定する点,任意の対訳表現を指定できる点,原言語だけでなく対象言語も同時にKWIC形式で表示する点が異なる.TransSearch\footnote{http://www.tsrali.com/}\cite{Macklovitch}はオンラインのバイリンガル・コンコーダンサであり,原言語文と対象言語文を左右に並べて表示する.当初は原言語文中の入力キーワードがハイライトされるだけであり,対訳語はユーザが推測する必要があった.文献\cite{Bourdaillet10TS3MT}による改良により,対訳語の自動推定機能が追加され,対訳語はハイライトされるようになったが,KWIC形式の表示は導入されていない.一方で,単数形と複数形などのように類似した訳語をまとめるなど,BilingualKWICにはない機能を備えている.LinearB\cite{Callison}はパラレル・コーパスを翻訳メモリとして捉え,検索できる翻訳メモリというコンセプトに基づくバイリンガル・コンコーダンサである.原言語文と対象言語文が上下交互に表示される形式であり,KWIC形式は導入されていない.対訳語は自動推定されるが,同じ対訳語を含む文が多数ある場合,その一部だけを表示し,複数の対訳語が同じ画面に表示されるようになっている点がBilingualKWICとは異なる.なお,TransSearchおよびLinearBの自動推定はGIZA++やMosesなどで利用される単語やフレーズの対応付け技術を応用したものであり,キーワードが入力される前にあらかじめ推定している点がBilingualKWICと異なる.よって,両者では対訳自動推定の精度をいかに向上させるかが重視されており,特に文献\cite{Bourdaillet10TS3MT}では様々な自動推定の方法が比較・検討されている.一方,BilingualKWICでは表示方法を工夫することにより,ユーザが自動推定の誤りを訂正しやすくするというアプローチで,自動推定の誤りに対処している.原言語文と対象言語文の両者をKWIC形式で表示するバイリンガル・コンコーダンサとしてはParaConc\footnote{http://paraconc.com/}\cite{Barlow}が挙げられる.ただし,そのKWIC表示は半自動というべきものである.ユーザがキーワードを入力すると,原言語文は上ウィンドウにおいてKWIC形式で表示されるが,対象言語は下ウィンドウに通常の形式で表示される.その際,対訳語の候補が示されており,それをクリックすることによりKWIC形式での表示に変化する.ただし,原言語文と対象言語文が上下のウィンドウで完全に分割されており,例えば上ウィンドウの3文目に対応する文は下ウィンドウの3文目に表示されるといった具合であり,左右に並べて表示するBilingualKWICと比べた場合,原言語文と対象言語文の対応は分かりにくい.なお,対訳語候補の選出方法は出現頻度に基づくものであり,Dice係数と類似したものと考えられるが,具体的な計算式が掲載されていないため,詳細は不明である.
\section{まとめ}
\label{sec:conclusion}本論文では,対訳表現抽出を可視化することで翻訳を支援するBilingualKWICの開発について述べた.BilingualKWICは,任意の入力キーワードに対して対訳表現を自動抽出し,パラレル・コーパス中での用例と一緒に提示することにより,ユーザの翻訳作業を支援する.本システムは,既に述べた通り,法務省・日本法令外国語訳データベースシステム(JLT)および名古屋大学・学内情報翻訳データベースNUTRIADにおいて採用されている.現在,JLTでは36万文150~MB以上からなる対訳コーパスを用いてBilingualKWICを運用している.出現回数の少ない入力キーワードに対しては問題なく動作しているが,\ref{sec:high-speed}節で述べた高速化が適用されていないため,出現回数が多いキーワード,特に出現回数が1万回を超えるような場合には結果が表示されるまでに数十秒かかることがある.また,高速化が適用されたNUTRIAD上の実装においても,出現回数が極端に多いキーワードに対しては応答に時間がかかっており,BilingualKWICの一層の高速化が求められている.それに対しては,出現回数や入力頻度の多いキーワードに対する計算結果をキャッシュしておくなどの対応を検討している.さらには,Mosesなどを利用してフレーズ・テーブルをあらかじめ計算しておき,入力キーワードがフレーズ・テーブルにある場合はその結果を,そうでない場合はDice係数によりその場で計算するなどのハイブリッドな手法を導入することにより,高速化と高精度化を同時に実現する方法も検討している.\acknowledgmentBilingualKWICの開発にあたっては,ウェブ版インターフェイスの開発,高速化などにおいて株式会社リーガルアストレイに協力していただいた.ユーザによる評価実験においては,名古屋大学大学院法学研究科附属法情報研究センターの中村誠特任准教授と佐野智也特任講師に協力していただいた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barlow}{Barlow}{2004}]{Barlow}Barlow,M.\BBOP2004\BBCP.\newblock\BBOQParallelConcordancingandTranslation.\BBCQ\\newblockIn{\BemProceedingsofASLIBTranslatingandtheComputer},\lowercase{\BVOL}~26.\bibitem[\protect\BCAY{Bourdaillet,Huet,Langlais,\BBA\Lapalme}{Bourdailletet~al.}{2010}]{Bourdaillet10TS3MT}Bourdaillet,J.,Huet,S.,Langlais,P.,\BBA\Lapalme,G.\BBOP2010\BBCP.\newblock\BBOQTransSearch:fromaBilingualConcordancertoaTranslationFinder.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf24}(3--4),\mbox{\BPGS\241--271}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{IBMModel}Brown,P.~F.,Pietra,V.J.~D.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Callison-burch\BBA\Bannard}{Callison-burch\BBA\Bannard}{2005}]{Callison}Callison-burch,C.\BBACOMMA\\BBA\Bannard,C.\BBOP2005\BBCP.\newblock\BBOQACompactDataStructureforSearchableTranslationMemories.\BBCQ\\newblockIn{\Bem10thEAMTConference:PracticalApplicationsofMachineTranslation},\mbox{\BPGS\59--65}.\bibitem[\protect\BCAY{福田\JBA外山\JBA野田}{福田\Jetal}{2013}]{Fukuda}福田薫\JBA外山勝彦\JBA野田昭彦\BBOP2013\BBCP.\newblock学内情報翻訳データベースの構築と運用.\\newblock\Jem{大学ICT推進協議会2013年次大会論文集},\mbox{\BPGS\146--152}.\bibitem[\protect\BCAY{出羽}{出羽}{2004}]{Izuha04}出羽達也\BBOP2004\BBCP.\newblock対訳文書から自動抽出した用語対訳による機械翻訳の訳語精度向上.\\newblock\Jem{電子情報通信学会論文誌.D-II,情報・システム,II-パターン処理},{\Bbf87}(6),\mbox{\BPGS\1244--1251}.\bibitem[\protect\BCAY{北村\JBA松本}{北村\JBA松本}{1997}]{Kitamura97}北村美穂子\JBA松本裕治\BBOP1997\BBCP.\newblock対訳コーパスを利用した対訳表現の自動抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4),\mbox{\BPGS\727--736}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheACLonInteractivePosterandDemonstrationSessions},ACL'07,\mbox{\BPGS\177--180},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{熊野\JBA平川}{熊野\JBA平川}{1994}]{Kumano94}熊野明\JBA平川秀樹\BBOP1994\BBCP.\newblock対訳文書からの機械翻訳専門用語辞書作成.\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(11),\mbox{\BPGS\2283--2290}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1960}]{luhn1960}Luhn,H.~P.\BBOP1960\BBCP.\newblock\BBOQKeyWord-In-ContextIndexforTechnicalLiterature(KWICIndex).\BBCQ\\newblock{\BemAmericanDocumentation},{\Bbf11}(4),\mbox{\BPGS\288--295}.\bibitem[\protect\BCAY{Macklovitch,Simard,\BBA\Langlais}{Macklovitchet~al.}{2000}]{Macklovitch}Macklovitch,E.,Simard,M.,\BBA\Langlais,P.\BBOP2000\BBCP.\newblock\BBOQTransSearch:AFreeTranslationMemoryontheWorldWideWeb.\BBCQ\\newblockIn{\Bem2ndInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1201--1208}.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto00}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition.\BBCQ\\newblockInRobert,D.,Hermann,M.,\BBA\Harold,S.\BEDS,{\BemHandbookofNaturalLanguageProcessing},\mbox{\BPGS\563--610}.MarcelDekker.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{GIZA++}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{外山\JBA小川}{外山\JBA小川}{2008}]{Toyama08}外山勝彦\JBA小川泰弘\BBOP2008\BBCP.\newblock自然言語処理の応用に基づく法令外国語訳支援.\\newblock\Jem{人工知能学会誌},{\Bbf23}(4),\mbox{\BPGS\521--528}.\bibitem[\protect\BCAY{外山\JBA齋藤\JBA関根\JBA小川\JBA角田\JBA木村\JBA松浦}{外山\Jetal}{2012}]{Toyama12}外山勝彦\JBA齋藤大地\JBA関根康弘\JBA小川泰弘\JBA角田篤泰\JBA木村垂穂\JBA松浦好治\BBOP2012\BBCP.\newblock日本法令外国語訳データベースシステムの設計と開発.\\newblock\Jem{情報ネットワーク・ローレビュー},{\Bbf11},\mbox{\BPGS\33--53}.\bibitem[\protect\BCAY{内山\JBA井佐原}{内山\JBA井佐原}{2003}]{Uchiyama03b}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock日英新聞記事対応付けデータを用いた翻訳メモリと言語横断検索.\\newblock\Jem{情報処理学会全国大会講演論文集},65-5\JVOL,\mbox{\BPGS\355--358}.\bibitem[\protect\BCAY{山下}{山下}{2000}]{SuffixArray}山下達雄\BBOP2000\BBCP.\newblock用語解説「SuffixArray」.\\newblock\Jem{人工知能学会誌},{\Bbf15}(6),\mbox{\BPG\1142}.\end{thebibliography}\begin{biography}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同工学研究科助手,同情報科学研究科助教を経て,2012年名古屋大学情報基盤センター准教授(同大学院情報科学研究科兼担).現在に至る.博士(工学).自然言語処理および法律情報処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{外山勝彦}{1984年名古屋大学工学部電気学科卒業.1989年同大学院工学研究科情報工学専攻博士課程満了.同工学部助手,中京大学情報科学部講師,同助教授,名古屋大学大学院工学研究科助教授,同情報科学研究科助教授を経て,2013年名古屋大学情報基盤センター教授(同大学院情報科学研究科兼担).現在に至る.工学博士.論理に基づく知識処理,自然言語処理に関する研究に従事.近年は法制執務支援や法令翻訳支援に関心を持つ.言語処理学会,電子情報通信学会,情報処理学会,人工知能学会,日本認知科学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V16N03-03
|
\section{はじめに}
\subsection{背景\label{haikei}}事物の数量的側面を表現するとき,「三人」,「5個」,「八つ」のように,「人」,「個」,「つ」という付属語を数詞の後に連接する.これらの語を一般に助数詞と呼ぶ.英語などでは``3students'',``5oranges''のように名詞に直接数詞が係って名詞の数が表現されるが,日本語では「3人の学生」,「みかん五個」のように数詞だけでなく助数詞も併せて用いなければならない.形態的には助数詞はすべて自律的な名詞である数詞に付属する接尾語とされる.しかし,助数詞の性質は多様であり,一律に扱ってしまうことは統語意味的見地からも計算機による処理においても問題がある.また構文中の出現位置や統語構造によって,連接する数詞との関係は異なる.つまり,数詞と助数詞の関係を正しく解析するためには1)助数詞が本来持つ語彙としての性質,そして2)構文中に現れる際の文法的な性質について考慮する必要がある.KNP~\cite{Kurohashi}やcabocha~\cite{cabocha}などを代表とする文節単位の係り受け解析では,上記のような数詞と助数詞の関係は同じ文節内に含まれるため,両者の関係は係り受け解析の対象にならない.ところが,単なる係り受け以上の解析,例えばLexicalFunctionalGrammar(以下,LFG)やHead-drivenPhraseStructureGrammar(以下,HPSG)のような句構造文法による解析では,主辞の文法的役割を規程する必要がある.つまり文節よりも細かい単位を対象に解析を行うため,名詞と助数詞の関係や数詞と助数詞の関係をきちんと定義しなければならない.上記のような解析システムだけでなく,解析結果を用いた応用アプリケーションにおいても助数詞の処理は重要である.\cite{UmemotoNL}で紹介されている検索システムにおける含意関係の判定では数量,価格,順番などを正しく扱うことが必要とされる.\subsection{\label{mokuteki}本研究の目的}本稿では,数詞と助数詞によって表現される構文\footnote{但し,「3年」,「17時」など日付や時間に関する表現は\cite{Bender}と同様にこの対象範囲から除く.}を解析するLFGの語彙規則と文法規則を提案し,計算機上で実装することによってその規則の妥当性と解析能力について検証する.これらのLFG規則によって出力された解析結果(f-structure)の妥当性については,下記の二つの基準を設ける.\begin{enumerate}\item{他表現との整合}\\統語的に同一の構造を持つ別の表現と比較して,f-structureが同じ構造になっている.\item{他言語との整合}\\他の言語において同じ表現のf-structureが同じ構造になっている.\end{enumerate}\ref{senkou}章では助数詞に関する従来研究を概観し,特に関連のある研究と本稿の差異について述べる.\ref{rule}章では助数詞のためのLFG語彙規則と助数詞や数詞を解析するためのLFG文法規則を提案する.\ref{fstr}章では\ref{rule}章で提案したLFG規則を\cite{Masuichi2003}の日本語LFGシステム上で実装し,システムによって出力されるf-structureの妥当性を上記の二つの基準に照らして検証する.日本語と同様にベトナム語や韓国にも日本語のそれとは違う性質をもった固有の数詞と助数詞が存在する\cite{yazaki}.また,日本語の助数詞は一部の語源が中国語にあるという説もあり,その共通性と差異が\cite{watanabe}などで論じられている.そこで,ParallelGrammarProject\cite{Butt02}(以下,ParGram)においてLFG文法を研究開発している中国語LFG文法\cite{ji}で導出されたf-structureを対象にして,基準2を満たしているかを確認するために比較を行う.``3~kg''の`kg'や,``10dollars''の`dollar'など,英語にも数字の後に連接する日本語の助数詞相当の語が存在する.また,日本語においても英語のように助数詞なしに数詞が直接連接して名詞の数量を表現する場合もある.ParGramにおいて英語は最初に開発されたLFG文法であり,その性能は極めて高い\cite{Riezler}.ParGramに参加する他の言語は必ず英語のf-structureとの比較を行いながら研究を進める.以上のことから,中国語だけではなく\cite{Riezler}の英語LFGシステムで出力されたf-structureとの比較を行う.\ref{hyouka}章では精度評価実験を行って,解析性能を検証する.数詞と助数詞によって形成される統語をLFG理論の枠組みで解析し,適切なf-structureを得ることが本研究の目的である.
\section{\label{senkou}先行研究}
国語学や言語学の分野において,助数詞に関する研究は古くから行われてきた.また,文法的な性質だけでなく,助数詞や助数詞の数える対象である名詞との関係に着目して,意味的な分類を行う試みもある.さらに,自然言語処理の分野では助数詞の特徴を考慮して処理を行う解析手法が提案されている.本章では助数詞の文法に関する研究,助数詞の分類に関する研究,助数詞を対象にした自然言語処理についてそれぞれ概観する.\subsection{助数詞の文法に関する研究}日本語助数詞の代表的な研究に\cite{kenbo}が挙げられる.形態的には「最も単純な品詞」とされてきた助数詞であるが用法の点では助数詞の振る舞いが複雑多様であることを指摘した上で,その個別的な用法を用例に即して紹介している.\cite{kenbo}では世の中には生活の必要に応じていろいろな物の数え方があり,生活の新しい場面,新しい話題に即して新しい助数詞が生まれると述べられている.その一方で明治の始まる前後までは助数詞として用いられてきたが,現在はその機能が失われている語の例が指摘されている.このような「助数詞の用いられ方の変化」に着目し,\cite{ogino}は大規模なアンケートを実施して,助数詞の実際の用いられ方について調査を行った.さまざまな年代,さまざまな職種の男女半数づつ計425人に対して行われたアンケート結果から年齢層別の助数詞の使われ方の差異を明らかにしている.さらに\cite{tanihara}では\cite{ogino}の調査結果に基づき,5つの助数詞の典型的な用法について考察している.助数詞を数詞に連接する付属語ではなく数詞の語尾とする研究もある\cite{morishige}.しかし,本稿では二つの理由からこの立場は採用しない.一つは,助数詞に関する様々な現象を説明するのに,語尾という考え方は不適切であると考えるからである.\cite{kenbo}で指摘されているような多様性や可変性を説明するのに,数詞と助数詞は独立した語であると考えるのが自然である.もう一つは,LFG規則を実装する日本語LFGシステムにおいて,形態素解析に茶筌\cite{chaurl}を用いているためである.茶筌では数詞と助数詞を明確に分けている\footnote{但し,「一つ」,「二つ」のような数詞と助数詞「つ」,及び「一筆」,「四方八方」のような名詞として定着している数詞と助数詞については,まとめて一つの名詞としている.}.本稿で扱う対象ではないが,日本語数量詞の大きな研究課題の一つに数量詞遊離構文の問題がある\cite{okabe}.遊離数量詞とは(a)「3個のりんごを食べた」(b)「りんごを3個食べた」の(b)のような構文である.この構文をめぐって,(a)の連体数量詞文との置換の可否や,その決定要因,また(a),(b)の表現の意味やニュアンスの違いについて様々な先行研究が分析や解釈を行っている.これらの課題を解決するためには,文法的な関係というよりはむしろ数量表現とそれが指す名詞や動詞などの意味関係に着目しなければならない.\subsection{助数詞の分類に関する研究}\cite{Yo93}はプロタイプ理論に基づいて,認知意味論的な立場から,助数詞の分類を試みている.\cite{Iida}は,助数詞ならびに助数詞と同じ働きをする名詞600語に対し,数えられる対象や同じ対象を数える助数詞群の共通点や差異について解説を行っている.\cite{Sirai}は\cite{Iida}に記載されている助数詞cとそれが数える名詞nを書き起こしたデータから一つのcが二つ以上のnとペアになっているもの計9,352組を用いて,自動的に助数詞オントロジーを構築する手法について提案している.\subsection{助数詞を対象とした自然言語処理に関する研究}\cite{Bond}は翻訳などのアプリケーションに必要となる日本語文生成の際に,オントロジーを用いて名詞の意味的な情報を参照し助数詞を選択する手法について提案している.英語でも``tenfeetlong''の`feet'や``twoshelveshigher''の`shelves'のように日本語の助数詞に似た数量表現が存在する.\cite{Dan}はこのような表現を対象にしてHPSGシステム上で解析を行う手法を提案している.上記と同様にHPSGに関する研究ではあるが,本稿に最も関連のある先行研究は\cite{Bender}である.\cite{Bender}は日本語HPSG文法において助数詞を解析し,適切な解析結果,すなわちMinimalRecursionSemantics(以下,MRS)を出力する手法について提案している.本研究も基本的な目的は同様であるが,次の点が異なる.まず,\cite{Bender}では網羅的な助数詞の処理を提案していながら,MRSについての考察は主に対象となる名詞を数え上げるための助数詞に限定されていることである.本稿では,その他の助数詞についても考察を行う.さらに,助数詞が省略されていてもその省略の有無に関係なく同一のf-structureを導出する文法や助数詞の性質を変化させる接頭辞や接尾語を考慮した文法について提案する.また,二つの基準を設定してf-strucrtureの妥当性を検討することも本稿の特徴である.さらに\cite{Bender}には,提案されている語彙規則(typehierarchy)に助数詞をどのように割り当てるかの具体的な記述がない.本稿では,LFGの語彙規則(lexicalcategory)に語を割り当てる方法についても言及する.また,本稿では,今回提案した文法がどのくらい網羅的に実際のテキストを処理できるかを検証するための精度評価実験を行う.
\section{\label{rule}助数詞のための日本語LFG規則}
\subsection{\label{rule-intro}LFG規則の表記法について}提案規則の詳細について述べる前に,この節ではLFG規則の表記方法について説明する.LFG規則は語彙規則と文法規則によって定義される.語彙規則では,f-structureの素性に対応するSUBJ(ect)やOBJ(ect)などの引数(argument)やlexicalcategory,属性と属性値などを定義する.(\ref{lex-intro})に語彙規則の例を示す.1行目は動詞「読む」にVというlexicalcategoryが割り当てられており,PRED(icate)「読む」はargumentにSUBJとOBJという二つの引数を持つことが記述されている.2行目には名詞「太郎」のlexicalcategoryがNでありPREDが「太郎」であることが記述されている.3行目には名詞「本」のlexicalcategoryがNでありPREDが「本」であることが記述されている.4行目には格助詞「が」のlexicalcategoryがPPであり,主格を示す属性NOM(inative)とその値`+'を持つことが記述されている.5行目には格助詞「を」のlexicalcategoryがPPであり,目的格を示す属性ACC(usative)とその値`+'を持つことが記述されている.\begin{example}\label{lex-intro}\begin{tabular}[t]{lccl}読む\quad\quad&V&&PRED=`読む$\langle$($\uparrow$SUBJ)($\uparrow$OBJ)$\rangle$'\\太郎\quad\quad&N&&PRED=`太郎'\\本\quad\quad&N&&PRED=`本'\\が\quad\quad&PP&&($\uparrow$NOM)=+\\を\quad\quad&PP&&($\uparrow$ACC)=+\\\end{tabular}\end{example}\begin{example}\label{grammar-intro}\begin{tabular}[t]{lccc}S$\longrightarrow$&NP\*&&V\\&\{($\uparrow$SUBJ)=$\downarrow$\space($\uparrow$NOM)=$_c$+$|$($\uparrow$OBJ)=$\downarrow$\space($\uparrow$ACC)=$_c$+\}&&$\uparrow$=$\downarrow$\\[2ex]NP$\longrightarrow$&N\*&&PP\\&$\uparrow$=$\downarrow$&&\\[2ex]\end{tabular}\end{example}\begin{figure}[b]\begin{center}\includegraphics{16-3ia3f1.eps}\end{center}\caption{LFG規則の適用例}\label{lfg-intro}\end{figure}文法規則は,句構造規則とそれに付与される機能的注釈で表現される.注釈において用いられる`$\uparrow$'という記号は句構造の一つ上の節点に存在するf-strucutreを,`$\downarrow$'は現在の節点のf-structureを指す.(\ref{grammar-intro})に(\ref{lex-intro})の語彙規則を含む文法規則を示す.1行目の句構造規則では,0個以上のNPとVがSになることを定義している.Vに付与されている注釈はVのPREDが一つ上,すなわち文全体のPREDであることを定義している.NPに付与されている注釈はNOM属性の値が`+'であればNPの値が一つ上のSUBJに,ACC属性が`+'であればOBJになることを定義している.2行目の句構造規則では,NとPPがNPになることを定義している.Nに付与されている注釈はPREDが一つ上の節点であるNPのPREDであることを定義している.(\ref{lex-intro})の語彙規則と(\ref{grammar-intro})の文法規則を「太郎が本を読む」の解析に適用すると,\pagebreak図\ref{lfg-intro}に示すように句構造規則によってc-structureの木構造が形成されると同時に,機能的注釈によって属性と属性値で表現されるf-structureが生成される.\subsection{\label{lex}助数詞のための語彙規則}表\ref{lexical-table}に助数詞の語彙カテゴリの一覧を示す.本稿では助数詞が数詞に持たせる数の性質(基数/序数)という側面から「数量」,「順番」という二つの語彙カテゴリを設定する.また,\cite{kokugojiten}では単位名を表す「メートル」,「円」などを助数詞に含めないとする説があることを紹介しているが,文法的には同じ働きをすることが指摘されている.本稿ではこの立場から,これらの語も助数詞とする.ただし,上述の二つのカテゴリとは別に「単位」,「通貨」という項目を設け,さらに数詞との位置関係から通貨を細分類した.それぞれの語彙カテゴリについて以下に述べる.\begin{table}[b]\caption{助数詞の語彙カテゴリ一覧}\label{lexical-table}\input{03table01.txt}\end{table}単位に関する語彙カテゴリは,計測する対象の計測基準量を表す助数詞に割り当てられる.日本語LFGシステムにおいてこの語彙カテゴリにはEDR概念辞書\cite{edr}の接尾語のうち,単位に分類されている語から「ヶ月」,「週目」などの時間に関する語を除いた計659語を採用する.助数詞の中には単独で名詞として働く語も存在する.「身長を\underline{\mbox{cm}}で,体重は\underline{\mbox{Kg}}で入力して下さい」や「対\underline{ユーロ}で\underline{ドル}が下落している」など,単位や通貨も数詞を伴わずに単独で名詞として用いられる場合がある.従って,このカテゴリの語には単に助数詞としての語彙ルールだけではなく,名詞としてのカテゴリも割り当てる.さらに,助数詞として働く場合でも名詞の属性であるNTYPEを付与する.これは,後述する英語のf-structureと平行にするためでもある.通貨に関する語彙カテゴリは\cite{Bender}と同様にその語彙的な特徴から二つに分ける.まず,数詞の後に連接する後置詞,つまりいわゆる助数詞とほぼ同じふるまいをする語群である.この語彙カテゴリに属する語はEDR概念辞書の「計量の単位」(概念ID`30f93d')の下位概念である「金銭の単位」(概念ID`4446bd')の直下にある語を採用した.ただし,これらの語のうち「両」や「文」など通貨の単位ではあるものの現在ほとんど使われておらず,助数詞の他のカテゴリに分類した方が適切であると判断した語は除いた.一方,数詞の前に連接する前置詞のカテゴリにはコーパスを観察した結果得られた3語だけが割り当てられている.これらの語は助数詞というよりは純粋な名詞,もしくは記号としての性質が強い.しかし,通貨に関する数量表現の整合を考慮して,これらの語にも語彙カテゴリと文法ルールを割り当てた.通貨も単位と同様の理由から名詞のカテゴリも割り当て,NTYPE属性も付与する.数量に関する語彙カテゴリはもっとも典型的な助数詞と言える語に割り当てるカテゴリである.このカテゴリには,助数詞の表層を示すCLASSIFIER-FORM属性と助数詞の性質を示すCLASSIFIER-TYPE属性を付与する.このカテゴリに属する語はIPA辞書\cite{ipadicurl}に登録されている接尾語のうち,数えられるものを特徴づける語を人手で選別した.順番に関する語彙カテゴリは物事の順序を示す助数詞である.このカテゴリにもCLASSIFIER-FORMとCLASSIFIER-TYPE属性を与える.このカテゴリには,英語の序数を英訳したときに用いられる語である「等」,「位」,「号」,「級」,「流」及びIPA辞書において品詞が助数詞として定義されている語のうち「目」,「番」,「次」を含む語で,単位を示す「貫目」,「次元」を除いた語を採用した.\subsection{\label{grammar}助数詞のための文法規則}表\ref{grammar-table}に助数詞の語彙カテゴリの一覧を示す.本節では数詞が助数詞もしくは名詞に連接して数量を表現している構文を解析するための文法について述べる.助数詞の語彙カテゴリは\ref{lex}節のものを用いる.\begin{table}[b]\caption{助数詞を解析するための文法規則一覧}\label{grammar-table}\input{03table02.txt}\end{table}\subsubsection{単位や通貨に関する文法規則}単位や通貨に関する文法規則を(\ref{grammar-unit})に示す.単位や通貨を表す助数詞が数詞と連接する場合には,助数詞をPREDとし,数詞がそれを修飾する.これは英語の``3~kg''や``10dollars''のf-structureとの整合性を図ると同時に,\ref{lex}節でも述べたようにこれらの助数詞が接尾辞というよりもむしろ独立した名詞としての性質が強いと考えるからである.単位・通貨は修飾先の名詞の属性について述べるために用いられる.例えば「60デニールのストッキング」であれば「60デニール」はストッキングの数量ではなく,「繊維密度」を表現しているのであり,「300円のストッキング」の「300円」はストッキングの「価格」を表現している.つまり「60デニール(という繊維密度)のストッキング」,「300円(という価格)のストッキング」と解釈できる.従って,「60」や「300」などの数詞は直接「ストッキング」を修飾しているのではなく,「デニール」や「円」を修飾しているとして解析するのが妥当である.さらに,通貨を示す接頭語が数詞に連接する表現を解析する文法を(\ref{grammar-currency})に示す.これも上記と同じ理由から接頭語をPREDとし,数詞がそれを修飾する.\begin{example}\label{grammar-unit}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&(NUMBER)&&\{CL\_unit$|$CL\_currency\}\\&($\uparrow$SPECNUMBER)=$\downarrow$\hspace*{.3cm}&&($\uparrow$PRED)=$\downarrow$\\[2ex]\end{tabular}Nadj:体言\quadNUMBER:数詞\quadCL\_unit:単位に関する助数詞\quadCL\_currency:通貨に関する助数詞():省略可能$|$:ORPRED:主辞SPEC:指定部\end{example}\begin{example}\label{grammar-currency}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&CL\_Pref\_currency&&NUMBER\\&($\uparrow$PRED)=$\downarrow$&&($\uparrow$SPECNUMBER)=$\downarrow$\\[2ex]\end{tabular}CL\_Pref\_currency:通貨に関する接頭語\end{example}\subsubsection{数量に関する文法規則}数量を表す助数詞は,数詞の中でも「もの」や「こと」の数量を表現するのに用いられる典型的なものである.「3個のりんご」や「3箱のりんご」の「3個」や「3箱」はいずれもりんごの数や量を表している.単位・通貨とは異なり,数詞「3」は「りんご」を直接修飾していると考えられる.つまり,助数詞は「数え方」を表現するために補助的に用いられる接尾語として扱う.この場合,「個」と「箱」の数え方の違いはf-structureの構造そのものには反映されないが,助数詞の表層を属性値として表現することで,オントロジなどの知識源を利用した意味解析や文脈解析の処理を利用してより詳細な数え方の違いを扱うことを想定している.数量に関する文法規則は,数詞と助数詞だけではなく,それによって数えられる名詞についても記述する必要がある.例えば「りんご3個」と「3個のりんご」はそれぞれ「3個」が「りんご」の数を表しているため,これらの解析結果は同じであることが望ましい.(\ref{grammar-card1})に「3個のりんご」と「りんご3個」を解析するための文法規則を示す.この規則ではPREDはりんごであり,その数が3であると解析する.これは英語の``3apples''と同じf-structureを持たせることを意図した分析である.\begin{example}\label{grammar-card1}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&\{NPnum&&Nadj\\&($\uparrow$SPECNUMBER)=$\downarrow$&&($\uparrow$PRED)=$\downarrow$\\[2ex]&$|$Nadj&&Nnumeric\}\\&($\uparrow$PRED)=$\downarrow$&&($\uparrow$SPECNUMBER)=$\downarrow$\\[2ex]\end{tabular}\begin{tabular}[t]{lccccc}NPnum$\longrightarrow$&Nnumeric&&PPadnominal\\&($\uparrow$PRED)=$\downarrow$\hspace*{.3cm}&&\\[2ex]\end{tabular}\begin{tabular}[t]{lccccc}Nnumeric$\longrightarrow$&NUMBER&&CL\_cardinal\\&($\uparrow$PRED)=$\downarrow$\hspace*{.3cm}&&($\uparrow$NUMBER-TYPE)=cardinal&&\\[2ex]\end{tabular}CL\_cardinal:数量に関する助数詞\quadPPadnominal:連体化助詞\end{example}また「3個の値段」,「3個を食べた」など,数える対象である名詞が省略され,数詞と助数詞が単独で現れる場合もある.このような現象を解析するための文法規則を(\ref{grammar-card2})に示す.この文法規則ではPREDには代名詞を示す記号`PRO'を挿入し,その属性に表層が無いことを示す属性値nullを与える.この操作によって,名詞の省略の有無によらず同じ構造のf-structureを出力することができる.上述(\ref{grammar-card1})と下記の(\ref{grammar-card2})の二つの規則は数詞と助数詞に同時に適用される.体言には(\ref{Nadj})に示すように連体化助詞による連体修飾のための規則も定義されていることから,数量に関する表現が連体化助詞によって連体修飾を行う場合には,常に二つのf-structureが出力される.\begin{example}\label{grammar-card2}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&Nnumeric&&e\\&($\uparrow$SPECNUMBER)=$\downarrow$\hspace*{.3cm}&&($\uparrow$PRED)=`pro'\\&&&($\uparrow$PRON-TYPE)=null\\[2ex]\end{tabular}e:省略記号\end{example}\begin{example}\label{Nadj}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&NPadnominal&&Nadj\\&($\uparrow$ADJUNCT)$\ni$$\downarrow$\hspace*{.3cm}&&($\uparrow$PRED)=$\downarrow$\\[2ex]\end{tabular}\begin{tabular}[t]{lccccc}NPadnominal$\longrightarrow$&Nadj&&PPadnominal\\&($\uparrow$PRED)=$\downarrow$\hspace*{.3cm}&&\\[2ex]\end{tabular}ADJUNCT:修飾成分\end{example}また,上述とは逆に,「3自衛隊」や「7競技」のように助数詞を伴わずに直接数詞が名詞に連接してその数を表すことがある.このような現象を解析するための文法規則を(\ref{grammar-card3})に示す.この文法規則では助数詞の表層を表すCLASSIFIER-FORM属性に表層が無いことを示す属性値`null'を与えることにより,助数詞の有無によらず同じ構造のf-structureを出力することができる.\begin{example}\begin{tabular}[t]{lccc}Nadj$\longrightarrow$&NUMBER&e&N\\&($\uparrow$SPECNUMBER)=$\downarrow$\hspace*{.3cm}&($\uparrow$CLASSIFIER-FORM)=null&($\uparrow$PRED)=$\downarrow$\\\label{grammar-card3}\end{tabular}N:名詞\end{example}\subsubsection{順番に関する文法規則}数詞が順番を示す表現は主に三つが想定される.まず一つは\ref{lex}節で挙げた順番に関する助数詞が連接した場合である.このような構文に対しては(\ref{grammar-card1})の文法がほぼそのまま適用できる.もう一つは接尾辞や接頭辞の連接によって数詞や助数詞の性質が変化する場合である.これは,「3人目」,「5回目」のように数量を表す助数詞に接尾辞「目」が連接する場合と「第3章」,「第1回」など数詞の前に接頭辞「第」が連接する場合がある.さらに,「第3回目」,「第5次」など,接頭辞は助数詞が順番を示していても任意に連接する場合がある.これらの現象を解析するための文法規則を(\ref{grammar-ord1})に示す.助数詞の属性値が基数を示すcardinalであっても,数詞の示す数の性質は基数から序数に変化する.従って,語彙ルールには接尾辞によって数詞の属性NUMBER-TYPEが序数を示す値ordinalになる可能性について記述しておく必要がある.(\ref{grammar-ord2})に数量を示す助数詞「回」の語彙規則の記述例を示す.\begin{example}\label{grammar-ord1}\begin{tabular}[t]{lccc}Nnumeric$\longrightarrow$&CL\_Pre\_ord&NUMBER&CL\_cardinal\\&\{($\uparrow$NUMBER-TYPE)=ordinal&($\uparrow$PRED)=$\downarrow$&\\&$|$($\uparrow$NUMBER-TYPE)=$_c$ordinal\}&&CL\_Post\_ord\\&&&\vtop{\hbox{($\uparrow$NUMBER-TYPE)}\hbox{\quad=ordinal}}\end{tabular}CL\_Pre\_ord:第CL\_Post\_ord:目\end{example}\begin{example}\label{grammar-ord2}\begin{tabular}[t]{lccc}回\quad\quad&CL\_cardinal&&\{($\uparrow$NUMBER-TYPE)=cardinal\\&&&$|$($\uparrow$NUMBER-TYPE)=$_c$ordinal\}\\\end{tabular}$_c$:制約条件の相等\end{example}さらに接頭辞「第」は「第3の男」,「第6のコース」のように助数詞を伴わない単独の数詞に連接して数の性質を序数にする場合がある.このような現象を解析するための文法規則を(\ref{grammar-ord3})に示す.\begin{example}\label{grammar-ord3}\begin{tabular}[t]{lcccc}Nadj$\longrightarrow$&CL\_Pre\_ord&&NUMBER\\&($\uparrow$NUMBER-TYPE)=ordinal&&($\uparrow$PRED)=$\downarrow$\\\end{tabular}\end{example}\subsubsection{機能的関係と照応的関係について}\cite{Bender}は,可算名詞を修飾する助数詞の処理において,「猫を2匹飼う」のように,格助詞「を」に連接するNPの後に単独で現れる数詞と助数詞をNPの修飾要素として扱う文法規則を提案している.しかし,本稿の文法規則はこのように数詞と助数詞が単独で現れる場合には助数詞の修飾先として代名詞を示す記号`PRO'を挿入する.これは,「2匹」と「猫」の関係が統語機能的な修飾関係にあるのではなく,照応関係にあると考えるからである.\cite{Bresnan01}では,f-structureでは統語機能的関係を表現すべきであり,照応的な関係はその対象としないと述べているが,本稿もこの立場から文法規則を設計した.日本語構文では数量表現が指すNPが必ず数量表現の直前に現れるとは限らない.例えば「猫をマンションで2匹飼っていた」のように,「2匹」の係り先が構文中の任意の場所に現れる可能性がある.\cite{Bender}の文法規則では修飾先のNPが直前に現れない場合は数量詞の修飾を特定しない.つまり本稿と同様に照応的な関係として解析する.しかしその結果,「猫をマンションで2匹飼っていた」と「マンションで猫を2匹飼っていた」の解析結果が異なることになる.本稿では,こういった単なる語順の違いにf-structureが影響されないことを配慮している.
\section{\label{fstr}f-structureの妥当性の検討}
\subsection{日本語LFGシステムの構成}LFG規則の妥当性の検証と解析精度の評価実験を行う処理は\cite{Masuichi2003}に改良を加えて拡張した日本語LFG解析システムを用いる.図\ref{kousei}に,本稿で用いる日本語LFGシステムの構成を示す.まず日本語入力文が日本語taggerに渡される.日本語taggerではChaSen\linebreak\cite{chaurl}による形態素解析が行われる.その結果に表層文字列や品詞情報を利用した形態素区切りの修正ルールを適用し,修正された形態素列に品詞情報を利用したアノテーションルールによってtagを付与する.tagが付与された形態素列をXeroxLinguisticEnvironment(XLE)に入力する.XLEはLFG理論の仕様をほぼ完全に実装した処理系である\cite{Maxwell93}.日本語システムは大きく分けて3種類のデータで構成されている.一つはメモリ容量や探索深さ,LFG規則の優先順位などの設定を定義するデータ群である.二つ目はLFGの文法理論に沿って実装された文法規則群である.\ref{grammar}章で提案した文法規則群は名詞句に関する文法規則に追加されている.三つ目は語彙規則群である.\ref{lex}章で提案した助数詞に関する語彙規則はここに追加されている.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f2.eps}\end{center}\caption{日本語LFGシステムの構成}\label{kousei}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f3.eps}\end{center}\caption{「100ドルを両替した。」と「ドルを両替した。」のf-structure}\label{currency}\end{figure}\subsection{他表現のf-structureとの比較\label{fstr-j}}本節では\ref{rule}章で提案したLFG規則が導出するf-structureが\ref{mokuteki}節で設定した基準1を満たしているかを検証するために,同じ統語意味構造を持ちながらも語順の変化や省略によって表層形が異なった構文のf-structureを比較する.一般に通貨や単位は数詞を伴わないで単独の名詞として用いられる例も多い.そこで通貨の助数詞が数詞を伴う構文「100ドルを両替した。」に対して文法規則(\ref{grammar-card1})を適応して導出したf-structureと数詞を伴わない構文「ドルを両替した。」のf-structureを図\ref{currency}に示す.両者を比較すると同じ構造を持っていることが分かる.次に数量に関する表現のf-structureについて検討する.数量を表現する文法規則は\ref{grammar}節の文法規則(\ref{grammar-card1})と文法規則(\ref{grammar-card2})があり,これらは同時に適用されるので必ず2通りのf-structureが出力される.「3箱の煙草」について図\ref{3box-a}に文法規則(\ref{grammar-card1})によって導出されたf-structureを図\ref{3box-b}に文法規則(\ref{grammar-card2})によって導出されたf-structureを示す.図\ref{3box-a}のf-structureで「煙草」のSPECのNUMBER属性中のPREDが「3」になっているのは,煙草の数量が3であることを表現している.従って,正しいf-structureは文法規則(\ref{grammar-card1})によって導出された図\ref{3box-a}のf-structureである.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f4.eps}\end{center}\caption{文法規則(\ref{grammar-card1})によって導出された「3箱の煙草」のf-structure}\label{3box-a}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f5.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「3箱の煙草」のf-structure}\label{3box-b}\end{figure}さらに,助数詞を伴わず直接数詞が名詞を修飾してその数を表す場合も,文法規則(\ref{grammar-card3})によって図\ref{3box-a}と同じ構造のf-structureで表現される.図\ref{3meigara}に「3銘柄」のf-structureを示す.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f6.eps}\end{center}\caption{文法規則(\ref{grammar-card3})によって導出された「3銘柄」のf-structure}\label{3meigara}\end{figure}しかし,数詞の数える対象が係り先の名詞ではない場合がある.例えば,「3箱の値段」という表現において数詞「3」の数える対象は「値段」ではない.この名詞句の解釈は「3箱の何か(例えば煙草)の値段」とするのが妥当である.図\ref{3box-c}と図\ref{3box-d}に「3箱の値段」のf-structureを示す.文法規則(\ref{grammar-card2})によって導出された図\ref{3box-d}のf-structureでは表層が省略されていることを現すPRON-TYPEの属性値nullを持つ代名詞`pro'の数量として表現されている.つまり,図\ref{3box-d}のf-structureが「3箱の値段」の正しい統語意味構造を表している.また,数量表現が係り先の名詞を伴わずに単独で現れる場合も(\ref{grammar-card2})によって適切なf-structureを出力する.例として「彼が選んだ3箱」のf-structureを図\ref{3box-tandoku}に示す.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f7.eps}\end{center}\caption{文法規則(\ref{grammar-card1})によって導出された「3箱の値段」のf-structure}\label{3box-c}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f8.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「3箱の値段」のf-structure}\label{3box-d}\end{figure}次に,順序を示す表現について検討する.それぞれの表現の差異は,属性や属性値によって表現されるが,基本的な構造はすべて等しいことが分かる.図\ref{3banme}に文法規則(\ref{grammar-ord1})によって導出された「3番目の男」のf-structureを示す.「番目」は順番を示す助数詞の語彙カテゴリが割り当てられているため,CLASSIFIER-TYPE属性とNUMBER-TYPE属性の値は共に序数を示すord(inal)になっている.図\ref{3ninme}に文法規則(\ref{grammar-ord2})によって導出された「3人目の男」のf-structureを示す.「人」は数量を示す助数詞の語彙カテゴリが割り当てられているため,CLASSIFIER-TYPE属性の値には基数を示すcard(inal)が入る.しかし,接尾辞「目」が順番を表現しているためNUMBER-TYPE属性の値が序数を示すord(inal)になっている.図\ref{dai3}に文法規則(\ref{grammar-ord3})によって導出された「第3の男」のf-structureを示す.この名詞句には助数詞が存在せず,助数詞の省略も想定され難いためCLASSIFIER-TYPE属性を持たない.しかし,接頭辞「第」が順番を表現していることをNUMBER-TYPE属性の値がord(inal)になっていることで示している.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f9.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「彼が選んだ3箱」のf-structure}\label{3box-tandoku}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f10.eps}\end{center}\caption{文法規則(\ref{grammar-ord1})によって導出された「3番目の男」のf-structure}\label{3banme}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f11.eps}\end{center}\caption{文法規則(\ref{grammar-ord2})によって導出された「3人目の男」のf-structure}\label{3ninme}\end{figure}\subsection{他言語のf-structureとの比較\label{fstr-cande}}本節では\ref{mokuteki}節で設定した基準2について検証するために,日本語の表現に対応する他言語のf-structureと日本語のf-structureの比較を行う.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f12.eps}\end{center}\caption{文法規則(\ref{grammar-ord3})によって導出された「第3の男」のf-structure}\label{dai3}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f13.eps}\end{center}\caption{``Iexchanged100dollars''のf-structure}\label{currency-e}\end{figure}まず通貨・数量に関する表現のf-structureについて検討する.図\ref{currency-e}に「100ドルを両替した.」の英訳``Iexchanged100dollars.''を入力として\cite{Riezler}の英語LFGシステムで出力されたf-structureを示す.\ref{fstr-j}節の図\ref{currency}の日本語のf-structureと比較すると同じ構造を持っていることが分かる.次に数量に関する表現のf-structureについて中国語のf-structureとの比較を行う.数量に関する表現は助数詞を伴う場合と助数詞が省略される場合がある.助数詞を伴う表現については\cite{ji}の中国語LFGシステムで出力されたf-structureと,助数詞を伴わない表現については英語のf-structureと比較する.図\ref{3bin-1-j}に文法規則(\ref{grammar-card1})が導出した「三本の酒」のf-structureを,図\ref{3bin-1-c}に「三瓶酒」に対応する中国語のf-structureを示す.図\ref{3bin-1-c}のf-structureでは助数詞のための属性であるCLASSIFIERをPREDにしている.これは,中国語の助数詞が連体修飾を受けることができるほど名詞としての性質が強いためである.このような違いはあるものの,この表現に対するする日本語と中国語のf-structureの基本的構造はほぼ同じである.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f14.eps}\end{center}\caption{文法規則(\ref{grammar-card1})によって導出された「三本の酒」のf-structure}\label{3bin-1-j}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f15.eps}\end{center}\caption{「三瓶酒」のf-structure}\label{3bin-1-c}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f16.eps}\end{center}\caption{文法規則(\ref{grammar-card2})によって導出された「彼女は三本を飲んだ。」のf-structure}\label{3bin-2-j}\end{figure}次に,助数詞が数える対象である名詞が存在しない数量表現について「彼女が三本を飲んだ」と「\KetujiX{16-3ia3f00.eps}喝了三瓶」の解析結果を比較する.図\ref{3bin-2-j}に日本語のf-structureを,図\ref{3bin-2-c}に中国語のf-strcutureを示す.両者とも数える対象に,代名詞を示す`pro'を代入している.これは,数える対象の名詞が存在する場合のf-structureとの整合性を図るための手当てであるが,それと同時に中国語と日本語の間のf-structreの整合性を保持することも可能にしている.助数詞が省略される表現については英語のf-structureと比較を行う.図\ref{3families}に「3家族」と``3families''のf-structureを示す.日本語のf-structureでは助数詞が存在しないことを明示的に表現するためにCLASSIFIER-FORM属性がnullになっているが,英語では基本的に助数詞を用いないので,それに対応する属性は存在しない.しかし,基本的な構造は等しいことが分かる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f17.eps}\end{center}\caption{「\protect\KetujiX{16-3ia3f00.eps}渇了三瓶」のf-structure}\label{3bin-2-c}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f18.eps}\end{center}\caption{「3家族」と「3families」のf-structure}\label{3families}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia3f19.eps}\end{center}\caption{``thirdman''のf-structure}\label{3rd-man}\end{figure}次に順序を示す表現について検討する.図\ref{3rd-man}に\ref{fstr-j}節の図\ref{3banme}〜\ref{dai3}に対応する英語``thirdman''のf-structureを示す.特に図\ref{dai3}の「第3の男」のf-structureとは同じ構造を持っている.
\section{\label{hyouka}解析結果の精度評価}
\subsection{評価方法}解析結果の評価はf-structureを\cite{triples}に準拠した形式(triples)に変換して行う.この変換の際に文法的な情報ではなく実装の都合上付与されている属性は削除する.図\ref{triples}に「3個のりんご」のf-structureとtriplesの対応関係を示す.\begin{figure}[b]\begin{center}\includegraphics{16-3ia3f20.eps}\end{center}\caption{f-structureとtriplesの対応関係}\label{triples}\end{figure}triples形式は``{\it属性C(ノードA,ノードB)}''もしくは``{\it属性C(ノードA,属性値B)}''という書式で表現される.いずれも「{\itA}の属性{\itC}は{\itB}である」と解釈する.属性の要素はノードか値であるが,ノードは必ずノードIDを持つため,同じ語が同一文中に現れても区別が可能である.図\ref{triples}中のtriples形式のデータは「りんご」のNUMBER属性が3であること,「3」のCLASSIFIER-FORM属性の値は「個」であること,「3」のCLASSIFIER-TYPE属性の値がcardinalであること,「3」のNUMBER-TYPE属性の値がcardinalであることを表現している.解析対象はEDRコーパスから数詞を含む文を無作為に選び,単位・通貨に関する表現,数量に関する表現,そして順序に関する表現を人手で200表現ずつ抽出した.本稿で提案する規則の効果を確認するために,精度の比較を\cite{Masuichi2003}で採用されているLFG規則の解析結果と行う.今回の提案規則による効果を正確に計測するために,旧規則の解析結果に単なる仕様変更によって正解にないNUMBER-TYPEなどの属性が含まれる場合はこの属性を削除した.評価実験におけるtriplesに含まれる属性の一覧を表\ref{feature-table}に示す.今回の実験では,多義性の解消を行っていないため,複数の解析結果が出力される可能性もあるが,精度の測定はそれらの解析結果すべてに対して行った.例えば,\ref{fstr-j}節で「3箱の煙草」に対して得られた図\ref{3box-a}と図\ref{3box-b}の二つの解析結果のうち,図\ref{3box-a}が正解であるならば,この解析結果の精度は下記の表\ref{tagi-kekka}のように求められる.\begin{table}[t]\caption{triplesに含まれる属性一覧}\label{feature-table}\input{03table03.txt}\end{table}\begin{table}[t]\caption{「3箱の煙草」の解析結果}\label{tagi-kekka}\input{03table04.txt}\end{table}今回提案したLFG規則のみを評価するため,解析する範囲を数詞,助数詞及びそれらが連体連体修飾を行っている場合はその修飾先の名詞句,連体修飾を受けている場合にはその修飾成分のみに限定した.また「およそ30個」の「およそ」や「5\%以下」の「以下」など直接連接して助数詞や数詞の修飾を行う付属語的な名詞も対象とした.下記に解析対象の例を示す.\begin{itemize}\item{単位・通貨に関する表現}\begin{itemize}\item{\underline{\mbox{400万円のミンクのコート}}、\underline{\mbox{250万円の腕時計}}も頭にちらついた。}\item{IBMおよびコンパチは\underline{\mbox{パソコン全体の80%以上}}を占めた。}\end{itemize}\item{数量に関する表現}\begin{itemize}\item{\underline{\mbox{3国}}合わせての総人口が\underline{\mbox{約750万人}}だから\underline{\mbox{5人に1人}}が参加したことになる。}\end{itemize}\item{順序に関する表現}\begin{itemize}\item{\underline{\mbox{2番目のLAN}}は事務職員のためのLANだ。}\item{ASTの\underline{\mbox{第1のライバル}}である強化ボードの開発者クォードラムでは、IBMが新しいラインに残したメモリー拡張のギャップに焦点を合わせている。}\end{itemize}\end{itemize}\subsection{結果と考察}\subsubsection{単位・通貨に関する表現}\begin{table}[b]\caption{単位・通貨に関する表現の解析結果}\label{unit-kekka}\input{03table05.txt}\end{table}\begin{table}[b]\caption{単位・通貨に関する表現の属性別の解析結果(旧規則)}\label{unit-kekka-old}\input{03table06.txt}\end{table}\begin{table}[b]\caption{単位・通貨に関する表現の属性別の解析結果(提案規則)}\label{unit-kekka-new}\input{03table07.txt}\end{table}表\ref{unit-kekka}に単位・通貨に関する表現の解析結果を,表\ref{unit-kekka-old}と表\ref{unit-kekka-new}に属性別の結果を示す.旧規則では単位・通貨と他の助数詞との区別をしていなかったため,CLASSIFIER-FORM属性とCLASSIFIER-TYPE属性が解析結果に含まれる.そこで,今回の比較は,この二つの属性を予め削除して行った.今回提案したLFG規則により全体的なF値はおよそ25\%向上した.表\ref{unit-kekka-old}のfragmentは,部分解析結果の属性であり,旧規則では適用される規則が存在せず部分解析しかできなかった表現があることを示している.表\ref{unit-kekka-new}にこのfragment属性が存在しないことは提案規則ではすべて全体的な解析に成功していることを示している.また,EDR概念辞書を用いて語彙エントリを追加したことにより,修飾関係を示す属性adjunctのF値が向上している.表\ref{unit-kekka-new}でsubj,tense,atype,clause\_typeのprecisionの値が下がっているのはすべての単位・通貨に名詞のlexicalcategoryを割り当てた結果,文法規則(\ref{grammar-card3})が誤って適用されてしまう例があったためである.今後は一般的に名詞としても用いられる単位名とほとんど名詞としては現れない単位の分別が必要である.併置関係を示す属性conjのF値が両規則ともに0なのは,下記の例にあるような数詞と記号による表現を提案規則でカバーできなかったためである.特に単位に関する表現は記号を含む表現が多く見られ,今後はこれらの記号と数詞に関する規則の精緻化が課題である.\begin{itemize}\item{\underline{\mbox{640×400ドットの解像度}}でグラフィックを表示できるという。}\item{\underline{\mbox{旧システムの30%〜50%}}をリプレースする大規模な計画で、2年がかりで構築する。}\end{itemize}\subsubsection{数量に関する表現}\begin{table}[b]\caption{数量に関する表現の解析結果}\label{card-kekka}\input{03table08.txt}\end{table}\begin{table}[b]\caption{数量に関する表現の属性別の結果(旧規則)}\label{card-kekka-old}\input{03table09.txt}\end{table}表\ref{card-kekka}に数量に関する表現の解析結果を,表\ref{card-kekka-old}と表\ref{card-kekka-new}に属性別の結果を示す.\pagebreak全体的なF値はおよそ5%向上している.両者とも連体修飾を示すadjunct属性の値が低いのは,文法規則(\ref{grammar-card1})と文法規則(\ref{grammar-card2})によって生じた多義性によるものである.この種の多義性を解消するためには\cite{Sirai}や\cite{Bond}で提案されているオントロジーのような知識資源の利用が有効であると思われる.その一方で,下記の例の「2人」と「仲間」のように,助数詞と数えられる対象の関係だけでは正しいf-structureを決定することが困難である場合もあり,文脈解析のようなより深い知識処理が必要である.\begin{table}[t]\caption{数量に関する表現の属性別の結果(提案規則)}\label{card-kekka-new}\input{03table10.txt}\end{table}\begin{itemize}\item{3年前には、横浜防衛施設局に\underline{\mbox{仲間2人}}が火炎瓶を投げて逮捕された。}\item{\underline{\mbox{2人の仲間}}だったシンイチは、いつか姿を消した。}\end{itemize}さらに,連体修飾成分と数詞,助数詞の関係を表現するのが難しい場合があった.下記の文の「長男と2人」は「長男と(自分の)2人」を指しており,「長男」と「2人」の並置と考えるよりは「長男と」が「2人」を修飾すると解釈するのが適切であるが,本稿で提案したLFG規則ではこのような表現は扱えない.\begin{itemize}\item{10年前、姉妹を頼って、\underline{\mbox{長男と2人}}で引き揚げてきた。}\end{itemize}また,本稿で提案した規則では評価用コーパス中の下記の表現が解析できなかった.「100万票差」の「差」,あるいは「合計」,「積」なども含めて数量操作に関わる名詞については今後f-structureの表現方法も含めて扱い方を検討する必要がある.\begin{itemize}\item{71年の大統領選挙で朴大統領に\underline{\mbox{約100万票差}}で敗れる。}\item{\underline{\mbox{11の市民団体}}が実行委員会を結成し、それぞれの企画を原爆忌の9日まで繰り広げる。}\item{これで輸入解禁州は全部で\underline{38}になる。}\end{itemize}上記の「11の市民団体」の「11」や「全部で38になる」の「38」のように,助数詞や接頭辞,接尾辞など数詞の性質を表現する機能語が連接せずに名詞を修飾している場合,その数詞が何を表現しているのか判断するのが難しい.評価コーパスには数量を表す例しか出現しなかったが,下記の例文の「二百万のお宝」の「二百万」は「お宝」である「トルエン」の価格を表現しており,「一の富」の「一」は宝くじの一等を示している.\begin{itemize}\item{千本の物が—。\underline{二百万のお宝}が。そのとき、トルエンが爆発した。[大沢在昌「ちきこん」『らんぼう』新潮文庫(1998)]}\item{ふつうこれは百回ついたものだそうで、百回目を突きどめといって、これがつまり\underline{一の富}、千両もらえるわけである。[横溝正史「鶴の千番」『くらやみ婿』春陽文庫(1984)]}\end{itemize}\subsubsection{順序に関する表現}表\ref{ord-kekka}に順序に関する表現の解析結果を,表\ref{ord-kekka-old}と表\ref{ord-kekka-new}に属性別の結果を示す.旧文法ではCLASSIFIER-TYPE属性の序数を表現する値ordinalを定義していなかったため,解析結果を公平に比較するためにこの属性を削除した.それでも,全体的なF値は21\%以上向上した.\begin{table}[b]\caption{順序に関する表現の解析結果}\label{ord-kekka}\input{03table11.txt}\end{table}\begin{table}[b]\caption{順序に関する表現の属性別の結果(旧規則)}\label{ord-kekka-old}\input{03table12.txt}\end{table}ただし,本稿で提案した規則では扱えない表現も見られた.順序に関する表現は,通貨・単位や数量に関する表現よりも,助詞を介さずに直接他の名詞と連結して,複合名詞を形成する場合が多く,下記のように係り先がうまく決定できない例が散見された.本稿で用いた日本語LFGシステムでは,処理時間を高速化するために\cite{modpatent}の手法を用いて,名詞が二つ以上連続するときにはすべて最右の名詞を主辞とする複合名詞としてまとめる処理を実施する.その結果,下記の(a)では「第2次」が複合名詞中で最も右にある「撤兵」を修飾するため正しいf-structureを得ることができる.しかし,(b)では「2次」が複合名詞中の「下請け」を修飾しているので本稿のシステムでは誤ったf-structureを導出する.\begin{table}[t]\caption{順序に関する表現の属性別の結果(提案規則)}\label{ord-kekka-new}\input{03table13.txt}\end{table}\begin{itemize}\item[(a)]{このサマー地区はベトナム軍が\underline{\mbox{第2次}}\underline{カンボジア}\underline{撤兵}の際に通過した地だ。}\item[(b)]{\underline{\mbox{2次下請け工場}}になると、忙しさだけは1次下請けに負けない。}\end{itemize}また,下記の「版」,「条」,「面」のように助数詞が数量を現すものであっても実際には順序に関する表現である例があった.これは\cite{Sogino}で示唆されているように,助数詞には基数と序数の両方を表すものがあるためであると思われる.今後は,こういった助数詞の特定も必要である.\begin{itemize}\item{この批評は大阪本社発行の\underline{\mbox{13版}}をもとにしています。}\item{\underline{\mbox{航空法施行規則145条}}に規定された各種の航空計器および航法装置。}\item{これは先日、離婚請求権が有責者にも認められたという判決が、新聞の\underline{\mbox{1面}}に出た翌日の会話である。}\end{itemize}
\section{おわりに}
\subsection{まとめ}本稿では数詞と助数詞によって表現される構文を日本語LFGシステムで解析するための語彙規則と文法規則を提案した.さらに提案した規則によって導出されるf-structureを他の表現や他の言語のf-structureと比較して解析結果の妥当性を検討した.また,精度評価実験を実施して提案規則の解析能力について,従来のLFG規則との比較を行った.その結果,通貨・単位に関する表現では25\%,数量に関する表現では5\%,順序に関する表現では21\%のF値の向上が確認できた.\subsection{今後の課題}\ref{rule}章では,助数詞を通貨・単位,数量,順序という三つの語彙カテゴリに分類し,それぞれに対して文法規則を提案した.しかし,助数詞の中にはこの三つのカテゴリのどれか一つに明確に分類できないものも存在する.例えば,本稿で「組」は数を表す助数詞として分類されるが,「ダース」は単位を表す助数詞として分類されている.このように,単位が数や量を表す場合には今回の分類を明確に適用することが難しい.また,\ref{hyouka}章の実験結果にも見られたように,「版」や「条」など数量と順序の両方を表す助数詞も存在する.このような問題を解決するためには,特殊な性質を持つ助数詞を特定し,本稿で提案した分類の細分化や複数の語彙カテゴリの割り当てなどを検討する必要がある.\ref{fstr-cande}節では本稿で提案したLFG規則が導出するf-structureの妥当性を検証するために,英語と中国語のf-structureとの比較を行った.これは,両者とも実用的なLFGシステムが既に構築されており,日本語文の訳文に対して適切なf-structureを得ることが可能だったためである.しかし,他の言語のLFGシステムの研究開発が進めば,他の言語のf-structureとも比較したい.\ref{hyouka}章の評価実験では,解析精度の比較対象として旧LFG規則の解析結果を用いたが,より正確に解析能力を検証するためには,他のシステムの出力結果と比較する必要がある.しかし,\ref{haikei}節でも述べたとおり,現在公開されている構文解析システムでは本稿が対象にしている助数詞と数詞,名詞の関係を表現しないため,f-structureと直接比較することができない.今後,翻訳や質問応答などのシステムの出力を利用して間接的に比較を行うなど,評価の工夫が必要である.本稿の評価実験対象は助数詞に関する表現に限定した.今回の改良によって文全体のカバー率には特に変化が見られなかったが,個々の解析結果が文全体の解析精度にどのような影響を及ぼしているかはより詳細に観察する必要がある.今後は,今回解析できなかった構文を扱うためにLFG規則の改良と拡張に取り組む.また,\cite{umemoto}や\cite{Crouch}などf-structureを入力とする意味解析手段,つまりLFG解析の次の段階の処理を用いて,提案した規則によって生じたf-strcutureの曖昧性解消を実施したい.\acknowledgmentParGramのメンバー,特に助数詞の解析に関する議論を通じて有益なコメントをいただいたり,解析結果を提供していただいたMicrosoft社のTracyHollowayKing氏,MartinForst氏,PaloAltoResearchCenterInc.のJiFang氏に感謝いたします.また,日本語LFGについて有益なコメントをいただいた早稲田大学の原田康也教授,中野美知子教授に感謝いたします.XLEの開発者であり,日本語システム構築時に実装に関する貴重な助言を頂いたPaloAltoResearchCenterInc.のJohnMaxwell氏,Microsoft社のRonaldKaplan氏に感謝いたします.\bibliographystyle{jnlpbbl_1.3}\input{03refs.bbl}\begin{biography}\bioauthor{大熊智子(正会員)}{1994年東京女子大学文理学部日本文学科卒業.1996年慶應義塾大学政策・メディア研究科修了.同年,富士ゼロックス(株)総合研究所入社.2006年より慶應義塾大学政策・メディア研究科後期博士課程在籍.2009年より東京女子大学非常勤講師.現在,富士ゼロックス(株)研究技術開発本部研究副主任.}\bioauthor{梅基宏(正会員)}{1995年東京大学大学院工学系研究科機械情報工学修士課程修了.同年,富士ゼロックス(株)入社.日本語意味解析,情報検索システムの研究開発に従事.2004〜2006年Stanford大学CSLI客員研究員.言語処理学会,情報処理学会各会員.}\bioauthor{三浦康秀}{2004年電気通信大学大学院電気通信学研究科電子情報学専攻修了.同年,富士ゼロックス(株)入社.日本語の統計的構文解析,医療テキストを対象とした自然言語処理の研究開発に従事.}\bioauthor{増市博(正会員)}{1989年京都大学工学部機械工学科卒.1991年京都大学工学研究科精密工学専攻修士課程修了.同年,富士ゼロックス(株)入社.1998〜2000年米国Stanford大学CSLI客員研究員およびPaloAltoResearchCenterInc.コンサルタント研究員.現在,富士ゼロックス(株)研究技術開発本部研究主査.博士(工学).}\end{biography}\biodate\end{document}
| |
V06N04-02
|
\section{まえがき}
本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案する.対話システムをインタラクティブに動作させるためには,発話理解から応答生成までを段階的に管理する{\dg発話理解・生成機構}と,発話列をセグメント化し,焦点および意図と関連付けて構造的にとらえる{\dg対話管理機構}とが必要である.さらに,入力に音声を用いた音声対話システムでは,音声の誤認識によるエラーを扱う機構を組み込む必要がある.これらの機構は従来,比較的独立して研究されてきた.発話理解から応答生成までを通してモデル化したものに関しては,大きく分類して並列マルチエージェント(およびそれに付随する分散データベース)によるモデル\cite{peckham91}と,逐次的なモジュールの結合によるモデル\cite{jonsson91},\cite{airenti93}とが提案されている.並列マルチエージェントモデルは様々なレベルの制約を同時に発話理解・生成に用いているという人間の認知プロセスのモデル化になっているが,制御の難しさ・確実な動作保証の難しさから,対話システムの実現には逐次的なモジュール結合方式がよく用いられている.逐次的なモジュール結合方式において,音声対話システムに不可欠な発話の柔軟な解釈や次発話の予測を行うためには,個々のモジュールが常に参照できる情報を集中的に管理する対話管理機構が必要になる.対話管理機構に関して,Groszらは言語構造・意図構造・注意状態の3要素に分割してモデル化を行っている\cite{grosz86}.言語構造をとらえる方法としては,スタックによるモデル化\cite{grosz86},\cite{allen96},\cite{jonsson91}\footnote{\cite{jonsson91}ではやりとり(働き掛け+応答)単位を対話木によって管理しているが,この対話木は働き掛け+応答の2分木の中にあらたなやりとりが挿入できるという形式なので,本質的にはスタックと同機能であると考えられる.}とAND-OR木によるモデル化\cite{young89},\cite{smith94},\cite{smith95}がある.スタックによるモデル化は実現しやすく,注意状態との関係が明確であるという利点を持つ.しかし,入れ子構造をなさないような副対話が生じた場合にその管理が難しい.また,ユーザから主導権を取る発話(典型的にはユーザの誤った知識・方略を協調的に修正する発話)を生成した場合には,いくつかのスタック要素のポップを伴うことが多く,ユーザが主導権を改めて取ろうとしたときに必要な情報がスタックから消えているという状況が生じる.また,原則としてスタックからポップした情報にはアクセスできないので,音声の誤認識による誤解を(しばらく対話が進んだ後で)修正する必要のある音声対話システムに用いるには適していない.一方,AND-OR木によるモデル化は,基本的にタスクの問題構造の記述であり,Groszらの言語構造と意図構造とを混同してしまっているので,タスクの問題構造に従わない対話(例えば詳細化対話やシステムの能力に関するメタ的な質問など)は特別に扱わなければならないという欠点を持つ.これらのことを考え合わせると,音声対話に適した対話管理は,焦点とする範囲を適当に絞りながらも過去の対話履歴にアクセスする可能性を残した方法を用いて,言語構造と意図構造を区別して管理する必要があるといえる.\cite{airenti93}では言語構造と意図構造とを区別してモデル化し,これらを会話ゲームと行動ゲームと呼んでいる.しかし,それぞれのゲームがどのように表現されるかについては部分的にしか示されておらず,音声対話システムを構成するには不十分であるといえる.さらに,音声対話システムに適用する対話モデルには,音声の誤認識によるエラーに対処する機能が不可欠である.従来研究の多くは発話単位でのロバストな解析を実現することに目標が置かれ\cite{kawa95},いくつかの例外を除いては,対話システムに入力される発話または意味表現はユーザの意図したものであることが前提になっていた.しかし,ある単語が同一カテゴリーの単語と置き換わった場合や選択格に関する情報が欠落していた場合などは,ロバストな解析では対処できないので,対話レベルでの対処が必要となる.以上の議論より,我々は音声対話システムのための対話モデルとして,逐次的なモジュール結合による発話理解・生成機構,言語構造と意図構造とを区別した対話管理機構,それら相互の密接な情報のやりとりによる頑健な処理の実現が必要であると考えた.本稿で提案するモデルは,(1)\cite{airenti93}で提案された伝達行為理解のプロセスモデルを音声対話システムに適用可能なレベルまで具体化し,(2)それらと言語構造を表現した会話空間,意図構造を表現した問題解決空間とのやりとりを規定し,(3)個々のプロセスで同定可能な誤りへの対処法を網羅的に記述したものである.このモデルを実装することによって,ある程度のエラーにも対処できる協調的な音声対話システムの実現が期待できる.以後本稿では,我々のモデルに関して発話理解・生成機構,会話レベルの管理機構,問題解決レベルの管理機構について順に説明し,最後に動作例を示す.
\section{対話処理の認知プロセスモデル}
本章ではまず,我々のモデルのベースとなっているAirentiらの伝達行為理解のモデルについて概観した後,我々のモデルで拡張を行った点を中心に各段階での処理について説明する.\subsection{Airentiらの伝達行為理解のモデル}対話における認知プロセスのモデル化では,相手の発話を聞いてから自分の発話を生成するまでに,どのようなプロセスによって,どのような信念の変化が起こっているのかをとらえる必要がある.Airentiらは,この認知プロセスを会話ゲームと行動ゲームという2つのゲームによってモデル化し,主に伝達行為を理解するという側面においての分析を行っている\cite{airenti93}.会話ゲームは(1)意味理解,(2)意図理解,(3)伝達効果,(4)意図生成,(5)応答生成の5段階に分れており,各段階の処理における目標とするタスクの集合および処理の流れを決めるメタルールからなっている.図\ref{airenti}にAirentiらの提案した会話ゲームを示す.ここで用いる述語の定義を付録\ref{appendixA}に示す.これらのプロセスは標準的な処理では(1)から(5)までが順に行われ,いずれかの段階でタスクが達成できなかった場合は,即座に応答生成に行く.\begin{figure}[htbp]\small\begin{enumerate}\item{\dg意味理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,s)}\lor\mbox{SH}_{yx}\mbox{DO}_{xy}G(x,y)${\bfthengoto}意図理解;{\bfelsegoto}応答生成\item{\dg意図理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthengoto}心的状態の更新;{\bfelsegoto}応答生成\item{\dg心的状態の更新}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthen}$\mbox{INT}_y\mbox{DO}_{yx}G(y,x)$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye${\bfthen}$\mbox{INT}_y\mbox{DO}_ye$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p${\bfthen}$\mbox{BEL}_yp$;\\{\bfgoto}意図生成\item{\dg意図生成}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthen}$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_{yx}G(y,x)$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye${\bfthen}$\mbox{CINT}_{yx}\mbox{INT}_ye\lor\mbox{CINT}_{yx}\lnot\mbox{INT}_ye$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p${\bfthen}$\mbox{CINT}_{yx}\mbox{BEL}_yp\lor\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp$;\\{\bfgoto}応答生成\item{\dg応答生成}\noindent{\itnotspecified}\end{enumerate}\caption{Airentiらの会話ゲーム(\cite{airenti93}より抜粋したものを整理)}\label{airenti}\end{figure}会話ゲームは,基本的に理解から生成に至るまでの1ターンを説明するために用いられたもので,対話全体を管理できるほどには具体化されていない.また,会話ゲームを対話全体が扱える程度に拡張しようとすると,明確化対話の挿入や応答の省略などの現象を会話ゲームの規則として記述せねばならず,規則の組合わせが手に負えないほどの量になってしまうことが予測される.一方,行動ゲームは妥当性条件と参加者の行為の集合からなるとされている(図\ref{airenti2}).しかし,どのような知識表現を用いるか,どのような推論ができるのかが明確にされていないため,意味理解段階において,ある表層発話がその行動ゲームの手となるかどうかの判定に用いられたり,意図理解段階において,ある行為がその行動ゲームの手となるかどうかの判定に用いられたりしており,あやふやな位置付けになっている.\begin{figure}[htbp]\begin{center}\begin{minipage}{10cm}\begin{verbatim}[KITCHEN]validitycondition:athome,aftermeal-xdoesthedishes-ymakessomethinguseful.\end{verbatim}\end{minipage}\end{center}\caption{Airentiらの行動ゲームの例(\cite{airenti93}より抜粋)}\label{airenti2}\end{figure}\subsection{認知プロセスモデルの概要}我々は,対話における言語構造に関して,会話ゲーム中の局所的な制約として記述するのではなく,行動ゲームと同様に認知プロセス中から参照されるものとして,言語構造を表現した空間を設定する.行動ゲームに対応するものを{\bf問題解決空間},言語構造を表現したものを{\bf会話空間}と定義する.このことによって,各プロセスの処理は比較的単純でありながら,対話の局所的な単位であるやりとりにおけるフェーズの把握や対話全体における問題解決過程の把握ができるモデルとなる.我々の認知プロセスモデルの概要を図\ref{model}に示す.\begin{figure}[htbp]\vspace{-5mm}\begin{center}\epsfile{file=fig1.eps,scale=0.8}\end{center}\caption{対話処理の5段階モデル}\label{model}\end{figure}さらに我々はこのモデルの各段階において,音声の誤認識への対処が行えるように拡張を行った.認知プロセスに誤認識への対処法を組み込むアプローチは,発話理解や問題解決構造に組み込む方法に比べて,発話スタイルやタスクへの依存度が少ないので,より一般性のある方法であるといえる.以後,我々のモデルにおける各段階での処理について,主にAirentiらのモデルをどのように拡張したかという視点から説明する.\subsection{意味理解}Airentiらのモデルにおける意味理解段階の処理は,ゴールとして$\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,s)}$または$\mbox{SH}_{yx}\mbox{DO}_{xy}G(x,y)$を得ることとしている.後者は,発話が直接に行動ゲームの手となるような場合(行動ゲームgreetingにおける``Haveaniceday.''のような発話)であり,システムとの対話においては例外的であると思われるので,ここでは前者の拡張について議論する.Airentiらは表層発語内行為(assertive,interrogative,directive)から話者の意味したもの(述語express中の命題)を導き出す規則を明示しているが,自然な音声対話においては述語の省略や代用表現(「〜お願いします」など)がよく用いられるので,表層的な情報だけでは話者の意味したものが特定できない場合が多い.そこで,対話の局所的な情報を何らかの形式で保持しておき,それを参照しながら意味表現を生成する処理が必要になる.我々のモデルでは,表層発語内行為と発語内行為との対応規則を用いるのではなく,ロバストパーサの出力として仮定している「全体として整合した部分的な意味表現」を,局所的な対話文脈に位置付けるという方法で意味理解を行っている.ここで部分的な意味表現とは,キーワード・句・文のそれぞれのレベルで解析できた範囲でロバストパーサが出力する意味表現であり,例えば述語部分の解析に失敗した場合には,句に相当する意味表現が複数出力されることを仮定している.それが全体として整合しているとは,複数出力された意味表現を組み合わせてひとつの発話の意味表現を構成し得ることを指しており,一文一格の原理を満たさない場合や,従属関係になりえない述語レベルの意味表現が複数ある場合などは全体として整合していないことになり,ロバストパーサの段階で解析失敗となる.この意味表現を対話文脈に位置付けるという方法は発話には文脈独立な意味表現が存在するという表層発語内行為仮説(literalmeaninghypothesis)\cite{allen95}に基づいたものであり,処理は以下の2段階に分割される.\begin{enumerate}\item入力発話から,全体として整合した部分的な意味表現を抽出する.これは表層情報のみから決まるもので,理想的には表層発語内行為と命題内容を導き出す.\itemその部分意味情報から発語内行為への対話文脈に応じたマッピングを行う.\end{enumerate}ここで,(1)の段階が達成されない場合(すなわちロバストパーサによって何も意味表現が生成されない場合)は,応答生成段階に制御を移し,再入力を促す発話を生成する.(1)の処理をいかに頑健に行うかということはロバストパーサの問題であり本稿では扱わないが,この時点でいかなる誤りも存在しないと仮定するわけではない.すなわち,表層発語内行為や命題内容を構成する要素の中に音声の誤認識による誤りが含まれている場合でも,これ以降の処理で検出・修復を行う.例えば(1)の段階の処理としては,個人スケジュール管理タスクにおける「2時から会議を登録して下さい.」というユーザ$x$からシステム$y$への発話に対して,その命題内容\\register([[start\_time,2],[obj,meeting]])を抽出し,表層発語内行為を組み合わせて,\begin{quote}$\mbox{DO}_x\mbox{lit-illoc(y,register([[start\_time,2],[obj,meeting]]),directive)}$\end{quote}という命題が共有信念として得られる.これに続く(2)の処理として,この共有信念からユーザの発語内行為を認識することを目的とする.発語内行為の認識の前提として,意味理解段階ではまず発語内行為の分類を考える.発語内行為は大きく働き掛けと応答に分類できる\footnote{自然な対話では,応答に対する了解・相手の発話を促す相槌・伝達そのものの調整などの行為があるが,本稿におけるモデルでは音声対話システムを対象としているので,働き掛けと応答のみを扱う.}ので,ここでは命題内容と表層発語内行為を基にして得られた共有信念から,以下のどちらに分類できる行為であるかを認識し,その表明された内容を共有信念とすることを意味理解段階の目標とする.\begin{enumerate}\item[(a)]ユーザ$x$がシステム$y$に行為$e$をしてほしい($\mbox{INT}_x\mbox{DO}_ye$)と表明した(働き掛け)\item[(b)]ユーザ$x$が信念$p$を持っている($\mbox{BEL}_xp$)ということを表明した(応答)\end{enumerate}しかし,表層発語内行為には働き掛け/応答の双方の機能と対応するものがあり,また,音声対話によく出現する述語の省略・代用表現によって,この機能を決定するためには対話の局所的な知識が必要となる.我々のモデルでは\ref{conv}章で述べる会話空間に対して,ここで得られた要素を局所的対話文脈に位置づけるという処理を行うことによって,これらの問題を扱っている.さらに会話空間では入力発語内行為および命題が,現在維持している対話履歴と整合しているかどうかを判定し,整合していなければ誤認識とみなして応答生成段階に処理を移し,問い返しの応答を生成する.以上の意味理解段階の処理をまとめると図\ref{step1}に示すようになる.\begin{figure}[htbp]\begin{quote}\noindent{\dg意味理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,INT}_x\mbox{DO}_ye)\lor\mbox{SH}_{yx}\mbox{DO}_x\mbox{express(y,BEL}_xp)$\\{\bfthengoto}意図理解;\\{\bfelsegoto}応答生成\end{quote}\caption{意味理解段階の処理}\label{step1}\end{figure}\vspace{-3mm}\subsection{意図理解}対話において発語内行為を成功させるには,話者の意図と,その意図を伝えようとする意図(伝達意図)とが聴者に理解されることが必要であり,さらにそれらが相互に信念として持たれている必要がある\cite{allen95}.すなわち,対話において聴者が話者の意図を理解する(あるいは話者の発語内行為が成功する)とは,「話者の意図と,その意図を伝達しようとする意図とを話者と聴者の共有信念とすること」である.では,ここでは話者の持つ意図はどの程度具体化されているべきであろうか.対話システムが知的な振る舞いをするためには,対話がタスク構造に従って構造化されており,かつ各副対話が適切にその機能を明らかにされている必要がある\cite{grosz86}.すなわち話者の意図として話者が持つプランが聴者に理解されている状況が望ましい.よって,意図理解段階の目的は,話者の発語内行為およびプランを認識することとなる.しかし,対話の初期段階では話者のプランに関して複数の候補が考えられる状況がある.この場合,どのようにして対話を維持するかについて,異なる対話戦略が考えられる.例えば,\cite{vanBeek93}においては,プラン候補が複数ある場合に,それらに(1)前提の失敗,(2)順序不整合,(3)より良いプランの存在,(4)欠点なし,のいずれかのラベルを付け,ラベルが同じものに揃うまで詳細化のための副対話を行うアルゴリズムが提案されている.この手法はシステムが扱うプランが多数ある場合に有効であると考えられるが,必ずしも全てのタスクが副対話生成による冗長性をカバーするほどの数のプラン候補を持つとは限らない.Airentiらのモデルにおいては,この段階で相手の行動ゲームが認識されなければ応答段階に処理を移すことになっている.これは,相手の発話によって行動ゲームが唯一に同定されなければ,その発話内容を無視して行動ゲームの同定を行うための発話を生成することを意味するので,協調的なシステムの振る舞いとしては適当ではない.我々は,冗長な詳細化用副対話やユーザ発話を無視した副対話の生成を避けるために,プランが唯一に特定できなければ,表層的なやりとり規則で対話を維持し,漸進的にプランを認識する方法を提案している\cite{araki95a}.対話の初期段階,すなわちプランがまだ共有信念になっていない段階では,相手の発語内行為の意図に加えて,話者のプランを伝えようとする意図($\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)$)を共有信念とするよう試みる.ここで,話者のプランを伝達しようとする意図を共有信念とすることが\mbox{できれば},心的状態の更新に進む.プラン認識の方法は\ref{prob}章で説明する.一方,\mbox{プランが認識で}きなかった場合は,会話空間上で典型的なやりとりを構成するような展開を行って,意図生成に進む.ここで典型的なやりとりとは,相手の発話と,その発話に含まれる情報のみで対応できる応答からなるものであり,質問に対する回答や情報伝達に対する受諾などの発話対からなるものである.一方,プランがすでに共有信念になっている場合は,その実行のステップとなる行為または情報を伝えようとする意図($\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{y}e\lor\mbox{SH}_{yx}\mbox{CINT}_{xy}p$)を共有信念とする.意味理解段階の処理をまとめると図\ref{step2}に示すようになる.\begin{figure}[htbp]\begin{quote}\noindent{\dg意図理解}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)\\\lor(\mbox{SH}_{yx}\mbox{DO}_{xy}G(y,x)\land(\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{y}e\lor\mbox{SH}_{yx}\mbox{CINT}_{xy}p))$\\{\bfthengoto}心的状態の更新;\\{\bfelsegoto}意図生成\end{quote}\caption{意図理解段階の処理}\label{step2}\end{figure}\subsection{心的状態の更新}この段階では意図理解の結果に基づいて,必要があれば心的状態を更新する.ここでの処理はAirentiらのモデルと同様である.意図理解で新たにプランが認識された場合は,以下の(1)の処理を行いながら,入力発話に応じて(2)または(3)の処理を行う.既にプランを意図している場合は,(2)または(3)の処理を行う.ここでの推論は対話エージェントとしての協調原則\cite{allen95}に基づいたものである.(1)および(2)は入力されたプランや行為の要求を処理するという意味でattentivenessconstraintを実現したものであり,(3)は共有知識の食い違いを最小限にするsharedknowledgepreferenceを実現したものである.\begin{enumerate}\item話者の意図があるプランを提示するものであれば,そのプランが達成不可能でなければ(問題解決空間においてそのプランを達成するのに必要な分割リンクのうち,達成不可能であることが判明しているものがなければ),そのプランを意図する\\($\mbox{INT}_x\mbox{DO}_{xy}G(y,x)$).\item話者の意図がある行為をすることであれば,その行為が何らかの役割を果たすものであり(その行為と認識済みのプランが分割リンクを介して繋がっている),かつ達成不可能でなければ,その行為を意図する($\mbox{INT}_y\mbox{DO}_ye$).\item話者の意図がある信念を表明するものであり,自分がそれと矛盾する信念を持っていなければ,その信念を保持する($\mbox{BEL}_yp$).\end{enumerate}これらの処理を行った後,意図生成に移る.心的状態の更新段階の処理をまとめると図\ref{step3}に示すようになる.\begin{figure}[htbp]\begin{quote}\noindent{\dg心的状態の更新}\noindent{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)${\bfthen}$\mbox{INT}_y\mbox{DO}_{xy}G(y,x)$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye${\bfthen}$\mbox{INT}_y\mbox{DO}_ye$;\\{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p${\bfthen}$\mbox{BEL}_yp$;\\{\bfgoto}意図生成\end{quote}\caption{心的状態の更新段階の処理}\label{step3}\end{figure}ここで得られた命題は,以後の発話の処理に用いる.共有信念として持ったゴールについては,それを達成することを対話の目標とし,目標達成に関連する命題については,これと矛盾する命題がユーザによって言及された(すなわち現在の発話または過去の発話のどちらかに認識エラーが存在した)ことを検出するのに用いられる.\subsection{意図生成}ここでは意図理解の結果と心的状態の更新の結果から,次にどのような意図を持つべきかを決める.この段階では,我々のモデルはAirentiらのモデルの詳細化と位置付けられるが,その詳細化はAirentiらのモデルでは考慮されていなかった認識誤りに基づく誤解の解消に役立つ発話の生成に寄与するものである.具体的には,相手のプラン・働き掛け・応答が受け入れられないときに,その根拠となる命題を心的状態および問題解決空間で探索し,相手の発話内容の問い返しとともに,受け入れられない根拠を応答として述べることによって対話参加者間の信念の違いを明示するものである.この信念の違いが認識誤りによって生じた場合は,それを修正する副対話が生成される.我々のモデルにおける意図生成は以下の規則に従って行われる.\begin{enumerate}\item[(1)]ユーザのプランを認識した場合\begin{enumerate}\item[(1-a)]心的状態の更新段階において,プランを遂行するという意図を持った場合,(2)の処理に移り,ユーザの働き掛けに応じた意図を生成することによって暗にプランを意図することを示す($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye$).\item[(1-b)]心的状態の更新において,プランを受け入れない(プランは認識できたがそれを意図しない)と決めた場合は,システムの知識の中にそのプランを達成不能にするものがある場合なので,システムはプランを受け入れないことを明示的に示すと共に,そのプランの障害になっている命題をユーザに伝える.($\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{BEL}_yp$)\end{enumerate}\item[(2)]あるプランを認識しそれを遂行するという意図を持った場合(あるいは既にプランが認識されている場合),ユーザの働き掛けに応じて意図を生成する.\begin{enumerate}\item[(2-a)]ユーザの働き掛けが情報要求ならば,検索結果をユーザに応答する意図($\mbox{CINT}_{yx}\mbox{DONE}_ye$)を持つ.\item[(2-b)]ユーザの働き掛けが行為要求ならば,その行為が達成可能であるかどうかを問題解決空間で調べる.\begin{enumerate}\item[(2-b-1)]行為が達成可能である場合,その行為を遂行し,さらに問題解決空間を探索し,そのプラン遂行に役立つ新たな行為$e'$を行う意図を伝達する意図($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'$)を持つ.新たな行為$e'$の決定に関しては\ref{prob}章で述べる.\item[(2-b-2)]提案された行為が達成不可能であるか,または共有されているプランのステップではない場合は,その行為を行わないということと,その理由を示す命題を伝える意図($\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_ye\land\mbox{CINT}_{yx}\mbox{BEL}_yp$)を持つ.\end{enumerate}\end{enumerate}\item[(3)]ユーザ発話が信念を表明するものである場合\begin{enumerate}\item[(3-a)]システムが表明された命題$p$と矛盾する命題を持っていなければ,その命題はシステムの信念となり,そのことは明示的に示さなくてもよく,新たなステップとなる行為$e'$を行う意図を伝達する意図($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'$)を持つ.\item[(3-b)]表明された命題$p$を信じないのなら否定応答をすると共に,システムが持っているそれと矛盾した命題$p'$を伝える意図($\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp\land\mbox{CINT}_{yx}\mbox{BEL}_yp'$)を持つ.\end{enumerate}\end{enumerate}意図生成段階の処理をまとめると図\ref{step4}に示すようになる.\begin{figure}[htbp]\noindent\hspace*{1cm}{\dg意図生成}\noindent\hspace*{1cm}{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_{xy}G(y,x)$\\\hspace*{1cm}{\bfthen}($\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye)\lor\\\hspace*{1cm}\hspace*{9mm}(\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_{yx}G(y,x)\land\mbox{CINT}_{yx}\mbox{BEL}_yp)$;\\\hspace*{1cm}{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}\mbox{INT}_x\mbox{DO}_ye$\\\hspace*{1cm}{\bfthen}$\mbox{CINT}_{yx}\mbox{DONE}_ye\lor\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'\lor(\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_ye\land\mbox{CINT}_{yx}\mbox{BEL}_yp)$;\hspace*{1cm}{\bfif}$\mbox{SH}_{yx}\mbox{CINT}_{xy}p$\\\hspace*{1cm}{\bfthen}$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_ye'\lor(\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp\land\mbox{CINT}_{yx}\mbox{BEL}_yp')$;\\\hspace*{1cm}{\bfgoto}応答生成\caption{意図生成段階の処理}\label{step4}\end{figure}\vspace{4mm}\subsection{応答生成}\cite{airenti93}では応答生成は例示に止まっている.我々は,応答生成を起動された処理段階および伝達意図の違いによって異なったテンプレートを用いることによって実現している.\begin{enumerate}\item意味理解処理の失敗によって起動された場合は単なる問い返し(「もう一度言ってください」)を生成する.\item意図生成から起動された場合は,表\ref{step5}に示すそれぞれの伝達意図に対応するテンプレートを用いて,応答文を生成する\footnote{ある行為を意図しない場合,「〜ですか」という問い返し文を生成するのは,誤認識を修正するきっかけを与えるためである.この方法は,システムとユーザの知識が大きく違い,ユーザの知識を否定することが大きな情報を与えるようなタスク(例えば機器のインストラクションなど)には不適切である.\mbox{ユーザ知識の否定が頻繁に現われるタスクへの適応}は今後の課題としたい.}\begin{table}[htbp]\centering\caption{伝達意図に対応する応答}\label{step5}\begin{tabular}{|l|l|}\hline伝達意図&応答\\\hline\hline$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_y\mbox{assertive}$&($SUBJ$は)$VAL$です.\\\hline$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_y\mbox{interrogative}$&($SUBJ$は)$WHAT$ですか.\\\hline$\mbox{CINT}_{yx}\mbox{INT}_y\mbox{DO}_y\mbox{directive}$&$OBJ$を$VERB$.\\\hline$\mbox{CINT}_{yx}\mbox{BEL}_yp$&$p$です.\\\hline$\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_{yx}G(y,x)$&$G$ですか.\\\hline$\mbox{CINT}_{yx}\lnot\mbox{INT}_y\mbox{DO}_ye$&$e$ですか.\\\hline$\mbox{CINT}_{yx}\lnot\mbox{BEL}_yp$&$p$ですか.\\\hline\end{tabular}\medskip\begin{center}\begin{minipage}{10cm}\smallただし,SUBJは主題,OBJは目的語,VERBは述語部分,VALは値,WHATは疑問詞が入るスロットである.\end{minipage}\end{center}\end{table}\end{enumerate}\vspace{-3mm}
\section{会話レベルの管理機構}
\label{conv}\subsection{会話空間の概要}これまでに述べた認知プロセスモデルにおいて,発語内行為の理解,省略・参照表現の処理,および相手の発話に対する適切な応答発話の生成のために,会話が現在までどのように進んできたかを管理する機構が必要となる.従来の対話モデルでは,これら(またはその一部)の処理を行うためにスタックを用いることが多かった.例えば,Groszらのモデルでは焦点管理のために,対話のある時点でもっとも顕著な対象・属性・対話セグメントの目的をスタックを用いて管理している\cite{grosz86}.しかし我々は,スタックの利用は以下の理由で音声対話システムには適さないと考える.\begin{enumerate}\item[(a)]Groszらのモデルでは対話が入れ子構造をなすことを前提としてスタックを用いているが,自然な対話では入れ子が必ずしも明確になるわけではない.\item[(b)]音声の誤認識による誤解の修正の際には,対話履歴の任意の時点の情報が必要になるが,既にスタックからポップされた情報には原則としてアクセスできない.\end{enumerate}我々のモデルでは会話レベルの最小単位としてやりとりを想定し,このやりとりを管理することによって,発話の対応付けを行う.やりとりは,基本的に「働き掛け」と,その働き掛けに対する「応答」からなる.ただし,詳細化対話や音声の誤認識の修復のために,応答の前または代りに働き掛けおよびそれに対する応答が挿入される場合もある.このやりとり単位の管理と,そのやりとりによって達成された行為を4章で説明する問題解決空間で管理することによって,明示的な入れ子構造を用いずに,対話の流れを追跡できる.また,参照の解釈・省略発話の解析・誤認識による誤解の解消のために,対話に現れた句レベルの情報から,発話レベルの情報,やりとりレベルの情報を階層的な動的ネットワークを用いて管理する.この動的ネットワークを{\bf会話空間}と呼ぶ.会話空間にはフレーズノード,インスタンスノード,スロット充足ノードの3種類のノードを設定する.インスタンスノードとスロット充足ノードは,ほぼCharniakらの定義\cite{charniak93}に従っている.基本的にリンクは,両端のノードが表す命題間の因果関係を条件付き確率の行列を用いて表現できるようになっている\footnote{現在は条件付き確率を決めるのに十分なデータがないので,0または1の値をあらかじめ割り当てている.}.各インスタンスノードはスロット充足ノードを経由して結合される.ただし,フレーズノードは直接対応するインスタンスノードに結合される.会話空間の構成要素の関係の例を図\ref{cs}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=fig2.eps,scale=0.7}\end{center}\caption{会話空間の構成要素の関係}\label{cs}\end{figure}\subsection{意味理解段階との相互作用}会話空間は意味理解段階と以下のような相互作用を行い,意味表現を生成し,対話の履歴を管理する.意味理解段階からの入力は全体として整合した部分的な意味表現で,出力は発語内行為である.\begin{enumerate}\item意味理解の結果として得られた命題表現の中で句に相当する部分をフレーズノードとして,会話空間に導入する.\itemフレーズノードが意味理解で,どのような概念のインスタンスとして生成されたかを示す句レベルのインスタンスノードを生成し,フレーズノードとリンクを張る.\item(2)で生成された句レベルのインスタンスノードが,発話の中でどのような役割を果たすか(構文的な意味では格に相当する)を示すスロット充足ノード,およびそれらをまとめる発話レベルのインスタンスノードを生成し,それぞれリンクを張る.\item(1)で生成された発話レベルのインスタンスノードが,やりとりの中でどのような役割を果たすかを示すスロット充足ノード,およびそれらをまとめるやりとりレベルのインスタンスノードを生成し,それぞれリンクを張る.\itemここまでの処理が達成されると,やりとりの中での役割を入力発話の発語内行為として出力する.\end{enumerate}このように会話空間という形式で対話に現れた情報を管理することによって,Groszらが焦点として扱った対象・属性・対話セグメントの目的のみではなく,やりとりに現れた全ての要素を,処理対象としている発話のインスタンスノードからの距離(パスの長さ)をコストとして用いることにより優先度を付けて,誤認識による誤解の解消や省略・参照表現の処理に用いることができる.\subsection{やりとり規則による対話の継続}プランが同定されるまでの対話の初期段階のやりとりや,問題解決に関係のない誤認識の修復のやりとりなどは,心的状態の更新を経ずに意味理解段階で得られたやりとりに関する情報を使って行う.このようなやりとりは意図理解段階の処理の失敗(プラン認識の失敗および誤解の検出)によって起動される.プラン認識の失敗の場合は,会話空間中で現在展開中のやりとり単位を継続させる発語内行為を意図生成段階へ出力する.また,誤解が検出された場合は,修復の副対話をやりとり内に挿入し,修復発話に対応する発語内行為を意図生成段階へ出力する.\subsection{応答生成段階との相互作用}生成された発話意図から応答文を生成する際に,同じやりとりを構成する発話であれば,展開された意味表現から主題格などを省略する.入力としては全ての要素が列挙された意味表現,出力は応答として出力するのに適切な省略を行った意味表現である.
\section{問題解決機構}
\label{prob}\subsection{問題解決空間の概要}我々のモデルでは,{\dg問題解決空間}と呼ぶネットワーク構造の知識表現を用いて,タスクレベルの対話管理を行っている.問題解決空間はタスクにおけるプランとサブプランの関係や,プランとそれを達成するための行為との関係を記述した静的ネットワークである.本稿で説明に利用するタスクである個人スケジュール管理を行うシステムに対応した問題解決空間の例を図\ref{event}に示す.\begin{figure}[htbp]\vspace{-4mm}\begin{center}\epsfile{file=fig8.eps,scale=0.8}\end{center}\caption{問題解決空間の例}\label{event}\end{figure}問題解決空間では,葉ノードが行為を表し,それ以外のノードがプランを表す.リンクは2種類あり,プランの間の抽象関係を表現する抽象化リンク(図\ref{event}の上向き太矢印)と,プランからサブプランや行為への分割を表す分割リンク(図\ref{event}の下向き細矢印)がある.またプランの分割にはAND分割(下向き細矢印をまとめる記号のついたもの)とOR分割がある.\subsection{意図理解段階との相互作用}意図理解段階では話者のプランを認識するために,意味理解段階で得られた発語内行為を問題解決空間に渡し,プラン認識を行う.問題解決空間におけるプラン認識には最小被覆法\cite{kautz90}を適用する.この手法は基本的には,問題解決空間において既に実行された(または観測された)行為の全てを含むサブグラフを求めるものである.問題解決空間のプランを表すノードの中で,各々のタスクにおける基本的なプランすなわち,1まとまりの対話によって達成されるプランをエンドイベントと呼ぶ.ユーザが1対話において,プランを1つしか持たないという前提に立てば,プラン認識の問題はエンドイベント集合から,ユーザの持っているプランに対応する要素を1つ選ぶことになる.問題解決空間では,意味理解結果として得られたユーザの行為を入力として,新たに入力された行為と以前に入力された行為をカバーするプランを最小被覆法を用いて認識し,プランが認識された場合はそのプランを,プラン認識に失敗した場合はそのことを意図理解段階に出力する.\subsection{意図生成段階との相互作用}発話生成段階においては,問題解決空間には意図生成段階からのユーザの行為と,更新された心的状態が入力される.もし,ユーザの行為が情報要求であれば,データベース検索を行ってその値を答えるという処理が意図生成段階でなされるが,それ以外の場合はユーザの行為に応じて,次のシステムの行為をAND-OR木上の未達成の行為ノードとして探索し,意図生成段階に出力する.
\section{対話モデルの処理例}
本章では,対話モデルの各段階での処理,および会話空間・問題解決空間での処理を例によって説明する.個人スケジュールを管理するシステム$s$とユーザ$u$との対話例を図\ref{example}に示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{ll}U1:&「2時から会議を登録してください.」\\S2:&「何時までですか.」\\U3:&「4時まで登録してください.」(「登録」→「変更」の誤認識)\\S4:&「変更するのですか.」\\U5:&「登録して下さい.」\\S6:&「場所はどこですか.」\\U7:&「中会議室です.」(「中会議室」→「小会議室」の誤認識)\\S8:&「小会議室は予約が入っています.」\\U9:&「中会議室です.」\\S10:&「2時から4時まで中会議室での会議を登録します.よろしいですか.」\\U11:&「はい.」\\\end{tabular}\end{center}\caption{対話例}\label{example}\end{figure}\subsection{第1ターンの処理とプラン認識}まず前提として,表層発語内行為及び命題内容の抽出はここでの対話モデルで扱う問題の対象外と想定しているので,U1に対して\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{lit-illoc(}s,\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]]),directive)}\end{equation}という表層意味表現が得られるものとする\footnote{この意味表現では1対話中で1つの対象(ミーティング・休暇など)しか扱えないので,スケジュール管\mbox{理一般に適用す}るには不十分である.複数の対象を扱えるような拡張は今後の課題としたい.}.これに対して,まず意味理解段階の処理としては,対話の初期状態で会話空間に何も対話履歴がない状態であることと,入力発話がdirectiveという表層発語内行為を持つことから,これをユーザの働き掛けと解釈し,\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{express(}s,\mbox{INT}_u\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]]))}\end{equation}という共有信念が形成され,意味理解段階の処理が成功したことになるので,処理を次の意図理解段階に進める.ここまでの処理を表\ref{ex-table1}に示す.\begin{table}[htbp]\centering\caption{意味理解段階での入出力および内部表現}\label{ex-table1}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline&(inst2start\_time)&&&\\(1)&(instutt1directive)&----------&句レベルの情報に分割&(2)\\&(instunit1directive-reply)&&&\\\hline\end{tabular}\medskipただし,会話空間はインスタンスノードのみの列挙\end{table}次に,意図理解段階の処理としてはユーザのプランがまだ共有信念になっていないので,\\$\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]])}$をプラン達成のための1ステップとするようなプランが存在するかどうかを問題解決空間で探索する.ここではregister\_meeting\_planが唯一に定まるので,ユーザの伝達意図として以下の2つの共有信念が形成される.ここまでの処理を表\ref{ex-table2}に示す.\noindent\hspace*{1cm}$\mbox{SH}_{su}\mbox{CINT}_{us}\mbox{INT}_u\mbox{DO}_{us}\mbox{register\_meeting\_plan}\land\\\hspace*{1cm}\mbox{SH}_{su}\mbox{CINT}_{us}\mbox{INT}_u\mbox{DO}_{s}\mbox{register([[start\_time,2],[obj,meeting]])}$\hspace*{30mm}(3)\setcounter{equation}{3}\begin{table}[htbp]\centering\caption{意図理解段階での入出力および内部表現}\label{ex-table2}\begin{tabular}{|l|l|l|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline&®ister\_meeting\_plan&&\\(2)&変更なし&(subplan:decide\_start\_time,&最小被覆法によるプラン認識&(3)\\&&decide\_end\_time,decide\_place)&&\\\hline\end{tabular}\end{table}心的状態の更新の段階では,意図理解で新たにプランが認識されたので,このプランにシステムとして合意するか,また,ユーザの意図する行為を行うかどうかを決め,その結果をシステムの心的状態に反映させる.ここでは,問題解決空間のregister\_meeting\_plan以下の行為ノードの中で,達成不可能であることがわかっているものがないことを確認し,このプランを意図する.また,$\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]])}$がこのプラン達成のための行為であることから,これを実行することを意図する.すなわち,ここで以下の命題をシステムの心的状態に新たに導入する.ここまでの処理を表\ref{ex-table3}に示す.\begin{equation}\mbox{INT}_s\mbox{DO}_{us}\mbox{register\_meeting\_plan}\land\mbox{INT}_s\mbox{DO}_s\mbox{register([[start\_time,2],[obj,meeting]])}\end{equation}\begin{table}[htbp]\centering\caption{心的状態の更新段階での入出力および内部表現}\label{ex-table3}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline(3)&変更なし&decide\_start\_time遂行済&問題解決空間における&(4)\\&&&プラン遂行可能性の検索&\\\hline\end{tabular}\end{table}次に,意図生成段階の処理としては,プランに合意し,ユーザの意図した行為が達成可能である場合であるので,2.6節で説明した(2-b-1)の処理を行う.ここで,問題解決空間のregister\_meeting\_plan以下を探索し,新たな行為$e'$として終了時刻の同定を選び,その達成を意図する.ここまでの処理を表\ref{ex-table4}に示す.\begin{equation}\mbox{CINT}_{su}\mbox{INT}_s\mbox{DO}_u\mbox{inform\_ref([end\_time,E])}\end{equation}\begin{table}[htbp]\centering\caption{意図生成段階での入出力および内部表現}\label{ex-table4}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline(4)&変更なし&decide\_end\_time活性化&問題解決空間における&(5)\\&&&未遂行行為の探索&\\\hline\end{tabular}\end{table}次に,応答生成段階の処理としては,テンプレート$\mbox{CINT}_{su}\mbox{INT}_s\mbox{DO}_s\mbox{interrogative}$を利用して,ユーザに情報伝達行為inform\_refを意図させるために,S2の質問文を生成する.ここまでの処理を表\ref{ex-table5}に示す.\begin{table}[htbp]\centering\caption{応答生成段階での入出力および内部表現}\label{ex-table5}\begin{tabular}{|l|l|c|l|l|}\hline入力&会話空間&問題解決空間&処理&出力\\\hline\hline(5)&(instend\_timeqcase)&変更なし&テンプレートマッチングと&S2\\&(instutt2interrogative)&&変数の同一化&\\\hline\end{tabular}\end{table}\vspace{-4mm}\subsection{会話空間における意図生成の例}\label{ex-1}次に,述語の誤認識が生じたU3の解析例を説明する.述語の誤認識によるエラーは,意味理解では検出できない場合がある.その時点までの対話の文脈からして不適当な発語内行為が入力されたことが意図理解段階によって検出されて,その修復のためのやりとりがこの会話空間上で展開される.ここまでのやりとりの展開はU1:「働き掛け」,S2:「働き掛け」となっており,会話空間上でのやりとりのパターンから,U3の発話はS2の働き掛けに対する応答またはそれに関連した働き掛けが予測されている.しかし,U3を意味理解した結果\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{express(}s,\mbox{INT}_u\mbox{DO}_s\mbox{modify([[end\_time,4]]))}\end{equation}は,このどちらにも相当せず,述語の誤認識が起こったことが考えられる.そこで会話空間上に修復のやりとり(S4-U5)を展開する.ここで修復が成功したので,U3は改めて\begin{equation}\mbox{SH}_{su}\mbox{DO}_u\mbox{lit-illoc(}s,\mbox{BEL}_u\mbox{equal(end\_time,4),assertive)}\end{equation}と解釈され,以下,\smallskip\begin{quote}意味理解:$\mbox{SH}_{su}\mbox{DO}_u\mbox{express(}s,\mbox{BEL}_u\mbox{equal(end\_time,4))}$\\意図理解:$\mbox{SH}_{su}\mbox{CINT}_{us}\mbox{equal(end\_time,4)}$\\意図生成:$\mbox{CINT}_{us}\mbox{INT}_s\mbox{DO}_u\mbox{inform\_ref([[place,P]])}$\end{quote}\smallskipと処理され,応答発話S6が生成される.\subsection{問題解決空間における意図生成の例}U3の処理で示した例は述語のエラーに対処するものであった.一方,内容語のエラーは,同一範疇の語と置換した場合は対話文脈を参照しないと検出されない場合が多い\footnote{これでも検出されない場合があるので,音声対話システムにおいては対話の最後に伝達された情報を確認するやりとりを設けることが必要である.}.ここでは,問題解決空間における処理で検出可能な内容語のエラーが生じたU7の処理について説明する.ここまでの問題解決空間の処理で,U1でユーザプランが明示されていることから,プラン認識は成功している.その場合,それ以降の問題解決空間の役割はやりとりがそのプランを達成するためのサブプラン達成を目的とするものか,またそのサブプランが所定のインスタンスで達成可能なものかを判定することである.S6の発話によって,場所の設定というサブプランに「小会議室」をインスタンスとして達成を試みるが,失敗したとする.そこでこれに対応した意図生成(2.6節の(2-b-2)の場合)を行い,エラー訂正のやりとり(S8-U9)が生成される.問題解決空間におけるこのような処理によって,内容語の誤認識にも対処できるようになっている.
\section{むすび}
本稿では,音声を用いて人間と機械が対話をする際の対話過程を,認知プロセスとしてとらえたモデルを提案した.発話理解から応答生成までを段階的に管理する発話理解・生成機構と,発話列をセグメント化し焦点および意図と関連付けて構造的にとらえる対話管理機構とについてモデル化を行い,音声の誤認識によるエラーを扱う機構を組み込んだ.今回提案したようなモデルがどの程度有効であるかを調べるために,我々は通信路にノイズを混入させたシステム−システムの自動対話による評価法を提案している\cite{araki97}.今後,適当なタスクを設定し,モデルの有効性を検証するとともに,タスク・文などの複雑さの程度を,モデルを評価する上でどのように扱うべきであるかという指針を立てることも目標とする.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた京都大学情報学研究科堂下研究室の皆様に感謝いたします.また,多くの有益なご指摘をいただきました査読者氏に深く感謝いたします.\appendix
\section{述語の定義}
\label{appendixA}\begin{table}[htbp]\begin{center}\begin{tabular}{|l|l|l|}\hline述語&定義&意味\\\hline\hline$\mbox{BEL}_xp$&primitive&xは$p$を信じている\\\hline$\mbox{SH}_{xy}p$&$\mbox{BEL}_x(p\land\mbox{SH}_{yx}p)$&xとyは互いに$p$を信じている\\\hline$\mbox{DO}_xe$&Primitive&xが$e$をするという行為\\\hline$\mbox{DO}_{xy}G(x,y)$&Primitive&xとyが$G$を目標とする行為\\\hline$\mbox{DONE}_xe$&Primitive&xが$e$を行った結果(命題)\\\hline$\mbox{INT}_xe$&Primitive&xが$e$を意図している\\\hline$\mbox{CINT}_{xy}p$&$\mbox{INT}_x\mbox{SH}_{xy}(p\land\mbox{CINT}_{xy}p)$&xがyに$p$を伝えようと意図している\\\hline\end{tabular}\\\end{center}\medskipただし,x,yはエージェント,$e$は行為,$p$は命題,$G(x,y)$はxから見た(yを参加者として含む)ゴールである.また,本文中で使用している述語lit-illocは表層的な発語内行為,expressは伝達意図の表明である.\end{table}\bibliographystyle{jnlpbbl}\vspace{3mm}\bibliography{v06n4_02}\begin{biography}\biotitle{略歴}\bioauthor{荒木雅弘}{1988年京都大学工学部情報工学科卒業.1993年同大学院博士課程単位取得退学.京都大学博士(工学).京都大学工学部助手,京都大学総合情報メディアセンター講師を経て,1999年より京都工芸繊維大学助教授.自然言語処理,音声対話理解の研究に従事.人工知能学会,情報処理学会等各会員.}\bioauthor{堂下修司}{1958年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,同助教授,東京工業大学助教授を経て,1973年京都大学工学部教授.1998年京都大学情報学研究科教授.1999年より龍谷大学理工学部教授.その間,音声の分析と認識,オートマトンの学習的構成,自然言語処理,人工知能など知的情報処理の研究に従事.人工知能学会前会長.情報処理学会等各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V19N05-04
|
\section{はじめに}
感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.特に,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.本邦においてもインフルエンザが流行したことによって総死亡がどの程度増加したかを示す推定値({\bf超過死亡概念による死者数})は毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施され,その結果はウェブでも閲覧することができる\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ウェブを用いた感染症サーベイランスに注目が集まっている.これらは現行の調査法と比べて,次のような利点がある.\begin{enumerate}\item{\bf大規模}:例えば,日本語単語「インフルエンザ」を含んだTwitter上での発言は平均1,000発言/日を超えている(2008年11月).このデータのボリュームは,これまでの調査手法,例えば,本邦における医療機関の定点観測の集計を圧倒する大規模な情報収集を可能とする.\item{\bf即時性}:ユーザの情報を直接収集するため,これまでにない早い速度での情報収集が可能である.早期発見が重視される感染症の流行予測においては即時性が極めて重要な性質である.\end{enumerate}以上のように,ウェブを用いた手法は,感染症サーベイランスと相性が高い.ウェブを用いた手法は,ウェブのどのようなサービスを材料にするかで,様々なバリエーションがあるが,本研究では近年急速に広まりつつあるソーシャルメディアのひとつであるTwitterに注目する.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,単語「インフルエンザ」を含む発言を収集すると,以下のような発言を抽出してしまう:\begin{enumerate}\itemカンボジアで鳥インフルエンザのヒト感染例、6歳女児が死亡(インフルエンザに関するニュース)\itemインフルエンザ怖いので予防注射してきました(インフルエンザ予防に関する発言)\itemやっと...インフルエンザが治った!(インフルエンザ完治後の発言)\end{enumerate}上記の例のように,単純な単語の集計では,実際に発言者がインフルエンザにかかっている本人(本稿では,{\bf当事者}と呼ぶ)かどうかが区別されない.本研究では,これを文書分類の一種とみなして,SupportVectorMachine(SVM)\cite{Vapnik1999}を用いた分類器を用いて解決する.さらに,この当事者を区別できたとしても,はたして一般の人々のつぶやきが正確にインフルエンザの流行を反映しているのかという情報の正確性の問題が残る.例えば,インフルエンザにかかった人間が,常にその病態をソーシャルメディアでつぶやくとは限らない.また,つぶやくとしても時間のずれがあるかもしれない.このように,不正確なセンサーとしてソーシャルメディアは機能していると考えられる.この不正確性は医師の診断をベースに集計する従来型のサーベイランスとの大きな違いである.実際に実験結果では,人々は流行前に過敏に反応し,流行後は反応が鈍る傾向があることが確認された.すなわち,ウェブ情報をリソースとした場合,現実の流行よりも前倒しに流行を検出してしまう恐れがある.本研究では,この時間のずれを吸収するために,感染症モデル\cite{Kermack1927}を適応し補正を行う.本論文のポイントは次の2点である:\begin{enumerate}\itemソーシャルメディアの情報はノイズを含んでいる.よって,文章分類手法にてこれを解決する.\itemソーシャルメディアのインフルエンザ報告は不正確である.これにより生じる時間的なずれを補正するためのモデルを提案する.\end{enumerate}本稿の構成は,以下のとおりである.2節では,関連研究を紹介する.3節では,構築したコーパスについて紹介する.4節では,提案する手法/モデルについて説明する.5節では,実験について報告する.6節に結論を述べる.
\section{関連研究}
これまで,インフルエンザの流行予測は,政府主導のトップダウンな集計が中心であったが(2.1節),現在では,ICT技術を用いた大規模な調査方法が検討されている(2.2節).近年では,検索クエリやソーシャルメディアなどウェブの情報を利用した研究が行われている(2.3節).\subsection{現在行われている調査方法}インフルエンザの流行に対しては,事前の十分なワクチン準備が必須の対応となるため,世界各国で共通の課題として対策が行われてきた.このため,多くの国で,自国の感染症調査のための機関が組織されている.例えば,アメリカではCentersforDiseaseControlandPrevention(CDC)\footnote{http://www.cdc.gov/},EUはEUInfluenzaSurveillanceScheme(EISS)\footnote{http://ecdc.europa.eu/en/activities/surveillance/EISN/Pages/index.aspx}を運営している.本邦では,国立感染症研究所(InfectionDiseaseSurveillanceCenter;IDSC)の感染症情報センター\footnote{http://idsc.nih.go.jp/}がこの役目を担っている.これらの機関は主としてウイルスの遺伝子解析,国民の抗体保有状況や協力体制にある医療機関からの報告に頼って集計を行っている.例えば,IDSCは全国約5,000の診療所から情報を集め,集計結果を発表している.ただし,この集計には時間がかかるため,1週間前の流行状況が発表される.この遅延のため,発表時にはすでに流行入りしている可能性があり,より迅速な情報収集への期待が高まっている.\subsection{新しい調査方法}より早くインフルエンザの流行を捉えるため様々な手法が提案されている.Espinoetal.\cite{Espino2003}は電話トリアージ・アドバイス(電話を通じて医療アドバイスを行う公共サービス)に注目し,一日の電話コールの回数がインフルエンザの流行と相関していることを明らかにした.後の追試でもその有効性は確かめられている\cite{Yih2009}.Magruder\citeyear{Magruder2003}は,インフルエンザ市販薬の販売量(over-the-counterdrugsales)に注目した.ただし,本邦ではインフルエンザ薬の購入には処方が必要となっているように,この手法は万国で有効な手段ではない.このため,近年,薬事法など国ごとの制度に依存しない手法としてウェブが注目されている.\subsubsection{ログ・ベースの手法}近年,もっとも注目されている手法はGoogleのウェブ検索クエリを用いた手法\cite{Ginsberg2009}である.彼らはインフルエンザ流行と相関のある検索クエリ(相関係数の高い上位50語)を調査し,それらをモニタリングすることで,インフルエンザの予測を行っている.彼らの予測は,アメリカのCDC報告との相関係数0.97(最小値0.92;最大値0.99)という高い精度を報告している.同様のアイデアにもとづいた研究は他にも報告されている.例えば,Polgreenetal.はYahoo!のクエリを用いて同精度の予測を行った\cite{Polgreen2009}.Hulthetal.はスイス国内のウェブ検索会社のクエリを用いた\cite{Hulth2009}.Johnsonetal.は健康情報に関するウェブサイト「HealthLink」の閲覧のアクセスログを用いた\cite{Johnson2004}.これらは,それぞれ異なった情報源を用いているものの,患者の行動を直接調査するという観点からは同様のアプローチであるとみなせる.このアプローチは,多くの情報を即時的に収集することができるが,これを実現可能なのは,サービス・プロバイダのみという問題が残る.例えば,ウェブ検索クエリをリアルタイムに利用できる機関はGoogle,Yahoo!やMicrosoftといったいくつかのサービス・プロバイダに限定されてしまう.\subsubsection{ソーシャルメディアベースの手法}前述したように,ログ・ベースの手法はサービス・プロバイダに依存してしまうため,より利用が容易であるソーシャルメディアを情報源とした手法も2010年から開始されている.その中でも特にTwitterは,1.2億ユーザが参加しており,550万ツイートが毎日やりとりされている(2011年3月現在).このデータ量と即時性はクエリログに匹敵するため,感染症の把握について多くの研究が行われてきた\cite{Lampos2010,Culotta2010,Paul2011,Aramaki2011,Tanida2011}.これらの研究は,表\ref{t_relwork}のように,単語選択,発言の分類などの観点から分類できる.\begin{table}[b]\caption{ソーシャルメディア・ベースの疾患サーベイランス研究の分類}\label{t_relwork}\input{04table01.txt}\end{table}まず,この単語選択の問題に対しては,経験則で「風邪」や「インフルエンザ」などのキーワードとなる単語を選択し,その頻度を集計することが考えられ,これまでの多くの先行研究はこの手法をとっている\cite{Culotta2010,Aramaki2011}.これに対し,最近では統計的に単語の選択を行った手法が模索されている.例えば,L1正規化を用いて単語の次元を圧縮する方法\cite{Lampos2010},疾患をある種のトピックとみたてトピックモデルを用いる方法\cite{Paul2011}や,素性選択の手法を適応する研究\cite{Tanida2011}が試みられた.本研究では,これらの最新の単語選択手法を用いず,経験的に語を決めているが,単語選択と組み合わせることで,さらに精度を高めることが可能であり,今後の課題としたい.次に,いかに罹患した発言を集計するかという問題(分類問題)がある.この問題に対しては,高橋ら\citeyear{Takahashi2011}がBoostingを用いた文章分類,Aramakiet~al.\citeyear{Aramaki2011}がSVMによる分類手法を提案している.本研究では後者を用いた.以上の2つの単語選択問題と分類問題が,これまでの研究で扱われてきた主な問題であった.これに加え,本研究では,1節にて指摘したように,そもそもウェブから得られる情報は不正確である可能性に注目し,これを補正するために感染症モデルを用いる.
\section{インフルエンザ・コーパス}
実際に発言者がインフルエンザにかかっている当事者かどうかを分類するためには,コーパスが必要となる.本節ではこのコーパスの構築方法とその統計について述べる.まず,材料として,2008年11月から2010年7月にかけてTwitterAPIを用いて30億発言を収集した.次に,そこから「インフルエンザ」という語を含む発言を抽出した.この結果40万発言が得られ,データを次の2つの領域に分割した.\begin{enumerate}\item{\bfトレーニング・データ}:2008年11月から無作為に5,000発言.それぞれの発言について人手で,発言者が実際にインフルエンザにかかっているかどうか(当事者かどうか)を判定した.判定の結果,発言者が実際にインフルエンザにかかっている場合をポジティブな発言とみなし(本稿では{\bf陽性発言}と呼ぶ),逆にインフルエンザにかかっていない場合をネガティブな発言({\bf陰性発言})とみなす.\item{\bfテスト・データ}:残りのデータ.後述する実験に用いる.\end{enumerate}陽性発言と陰性発言の区別は,以下の除外基準に照らし1つでも該当するものがあれば陰性発言とみなした.\begin{enumerate}\item{\bf非当事者}:発言者(または,発言者と同一都道府県近郊の人間)のインフルエンザについてのみ扱い,それ以外の発言は除外する(陰性発言とみなす).居住地が正確に分からない場合は陰性発言とみなす.例えば,「インフルエンザが実家で流行っている」では,「実家」の所在が不正確であるので,陰性発言とみなす.\item{\bf不適切な時制}:現在または近い過去のインフルエンザのみ扱い,それ以外の発言は除外する.ここでいう「近い過去」とは24時間以内とする.例えば,「{\bf昨年}はひどいインフルエンザで参加できなかった」は,陰性発言とみなす.\item{\bf否定/不適切なモダリティ}:「インフルエンザでなかった」等の否定の表現(ネゲーション)は除外する.また,疑問文や「かもしれない」と不確定な発言は基準を満たさないものとする.ここでいうモダリティとは狭義のモデリティの他に法(仮定法),表現類型(疑問文,命令文),価値判断(必要,許可)をも含む.例えば,「インフルにでもかかってしまえ」(命令文)や,「インフルエンザだとしても,熱がないのが不思議」(仮定法)は陰性発言とみなす.\item{\bf比喩的表現}:実際の疾患としての「インフルエンザ」を指さない表現は除外する.例えば,「インフルエンザ的な感染力じゃないですか!RT@■■■:朝からPCの調子が悪く困っています」におけるインフルエンザは,コンピューターウィルスをインフルエンザと比喩しており陰性発言とみなす.\end{enumerate}詳細な基準についてはアノテーション・ガイドラインを公開し,実際の用例とともに参照できるようにしている\footnote{http://www.mednlp.jp/resources/}.また,構築したコーパスについても同サイトにて配布している.なお,陽性発言/陰性発言のアノテーター間(3人)の平均一致率は84\%であった.トレーニング・データについてアノテートした結果,およそ半数の発言が陰性発言となった.すなわち,発言分類を行わない場合,半分近い発言はノイズとなっていることになる.ここで,陰性発言の一部(546発言)について,原因の割合を調査した(表\ref{t_内訳}).陰性発言となる主要な要因は広告であることが分かる.\begin{table}[t]\caption{コーパスの分類結果}\label{t_内訳}\input{04table02.txt}\end{table}
\section{提案手法}
提案手法は,陽性発言と陰性発言を分類する手法(4.1節)と,集計の時間的なずれを補正する手法(4.2節)の2つからなる.\subsection{文章分類器を用いた発言の分類}前節にて述べたように,Twitterの発言の約半数は陰性発言となってしまう.そこで,前章にて述べたコーパスを用いて,発言を分類することでこれを解決する.このタスクは,スパムメール・フィルタリングや評価表現分析といった文の分類タスクと類似しており,本研究では,これらの研究で一般的な手法である機械学習による手法を用いる.\begin{description}\item{\bf【学習アルゴリズム】}学習アルゴリズムは先行研究(Aramakietal.2011)で使われていたSVMを用いた.先行研究では,モダリティごとにアノーテションを行い,これを複数のSVMを用いて学習する手法が提案されていたが,陰性発言を区別せず,単一のSVMで学習した場合と比べ,必ずしも精度を向上させず,また,コーパス作成が高コストになった.したがって,本研究では,陰性発言の種類を区別せず,一様に扱った.なお,SVMのカーネルは2次の多項カーネルとした.他のパラメータは用いたパッケージのデフォルト値\footnote{http://chasen.org/~taku/software/TinySVM/}を用いた.\item{\bf【素性の種類】}素性は注目している単語「インフルエンザ」または「インフル」とその周辺の形態素とした.この際,形態素解析器\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}を用い,原形,読み,品詞を用いた(表\ref{t_素性}).\item{\bf【素性の範囲】}周辺文脈の範囲(ウィンドウ・サイズ)は予備実験によって調査した.予備実験は前節のトレーニング・データを10分割交差検定することによって行った.パフォーマンスはウィンドウ・サイズに依存する.表\ref{f_win_size.eps}にウィンドウ・サイズと精度(F値)の関係を示す.最もよいパフォーマンスは左右両方のコンテキストを6形態素までみる設定(表中の$\text{BOTH}=6$)で得られたため,以降の実験ではこの値を用いた.\end{description}\begin{table}[t]\caption{素性}\label{t_素性}\input{04table03.txt}\end{table}\begin{table}[t]\caption{ウィンドウ・サイズと精度(F値)}\label{f_win_size.eps}\input{04table04.txt}\end{table}素性の範囲を決める予備実験が示すように約74\%程度の精度で陰性発言を分類できる.この精度が,実際のインフルエンザ推定にとって有用かどうかは5節の実験にて検証する.\subsection{感染症モデルを用いた補正}前節では発言から陰性発言を取り除く手法について述べた.しかし,たとえ全てのノイズが取り除かれても,個々の発言が必ずしも正確にインフルエンザを報告しているわけではない.例えば,インフルエンザにかかってしまっても,あまりに症状がひどいとTwitterを使って発言している余裕がないことも考えられる.このような過誤が起こっているのならば,正しく発言を収集したとしても,実際の流行と集計結果との間にずれが生じてしまう.そこで,本研究では,この時間のずれを吸収するために,感染症の流行モデルである{\bfSIRモデル}\cite{Kermack1927}をソーシャルメディア用に修正したモデルを用いる.SIRモデル\cite{Kermack1927}は,感染症流行の古典的な計算モデルである.このモデルでは人間は下記の3つの状態のうちのいずれかをとっていると仮定し,各状態間の遷移確率を定義することで感染シミュレーションを行う.\begin{enumerate}\item{\bf状態S}(Susceptible):感染症に対して免疫を持たない者,\item{\bf状態I}(Infectious):発症者,\item{\bf状態R}(Recovered):感染症から回復し免疫を獲得した者.\end{enumerate}状態Sから状態Iの遷移は,健康な人に感染者が接触し感染が拡大する過程,状態Iから状態Rは感染者が回復する過程とみなせる.なお,感染症から回復して状態Rにいたった者は免疫を獲得したものとし再び感染しないものとする.また,各状態の総和,$\mathrm{S}(t)+\mathrm{I}(t)+\mathrm{R}(t)$,は人口全体であり定数とみなす.ここで,異なる状態にある個人同士の接触には,S-I,S-R,I-Rの3通りがあるが,感染が広がるのは,発症者と免疫を持たない者の接触であるS-Iだけである.すなわち,SとIが多いと感染は速く広がることになり,逆に少ないと感染は遅くなる.これを考慮して,状態Sと状態Iの量に比例した割合でSが感染するとみなす.\begin{equation}\frac{d\mathrm{S}}{dt}=-\beta\mathrm{IS}\end{equation}また,状態Iの者は単位時間あたり一定確率で回復し,状態Rに遷移すると考える.\begin{gather}\frac{d\mathrm{I}}{dt}=\beta\mathrm{IS}-\gamma\mathrm{I}\\\frac{d\mathrm{R}}{dt}=\gamma\mathrm{I}\end{gather}ここで$\beta$は,状態Sから状態Iへの遷移確率であり,感染率とみなせる.同様に,$\gamma$は状態Iから状態Rへの遷移確率であり,回復率とみなせる.それぞれの遷移確率は1日ごとの確率とする.つまり,感染者が100人いる状態で$\gamma$が0.1とすると翌日には,10人が回復し,90人が依然としてインフルエンザ状態のままであることを意味する.以上3つの式を用いることで,感染者が増えてからピークを迎えやがて収束するインフルエンザの流行がシミュレーション可能となる.前述のオリジナルのSIRモデルをソーシャルメディアに適応させるため,本研究では次の3点の修正を行った.\begin{enumerate}\itemインフルエンザに感染した患者(状態S--状態Iへの遷移)がウェブを通じて観測されるものとする.したがって,式(1)と式(2)で用いられる$\Delta$S(=$\beta$IS)が実数として,直接集計されるものとする.\item状態I--状態R間の遷移確率(変数$\gamma$)はインフルエンザの先行研究\cite{Anderson1979}において報告されていた値$(\gamma=0.38)$を用いる.\item各シーズンの開始時は,感染症はまったく流行していないものと仮定する$(\mathrm{I}(0)=0)$.\end{enumerate}
\section{実験}
\subsection{実験期間}テストデータのうち,インフルエンザ流行が起こりうる冬季(2009年と2010年の10月1日から3月31日まで)を実験対象とした.正解データとして,感染症情報センター(IDSC)から報告されているインフルエンザの定点当たりの患者数を用いた.これは週1回の報告であるので,各年24点(6ヶ月×4週)のデータポイントが含まれる\footnote{提案手法は日単位での集計が可能であるが,正解データの間隔に合わせた.}.\subsection{比較手法}提案手法の精度と比較するため以下の6つの手法を用意した.本研究の提案である(1)発言の分類と(2)SIRモデルによる補正のうち,後者に関しては,他のウェブベースの手法にも適応可能であり,Twitterだけでなく,Googleインフルトレンドを用いての検証を行った.\begin{description}\item{\bfTWITTER}:Twitter上での単語「インフルエンザ」の頻度を用いた手法.単なる単語頻度をそのまま出力する(ベースライン).\item{\bfTWITTER+SVM}:上記手法TWITTERにSVMによる発言の分類を適応した手法.陽性と分類された発言のみが集計される.\item{\bfTWITTER+SIR}:ベースラインの手法TWITTERにSIRモデルを適応した手法.\item{\bfTWITTER+SVM+SIR}:ベースラインの手法TWITTERにSVMのよる発言の分類とSIRモデルの両方を適応した手法(提案手法).\item{\bfGOOGLE}:Google検索サービスのクエリログを用いた手法\cite{Ginsberg2009}.Googleインフルトレンドのサイトにおいて,過去の推定値は公開されており\footnote{http://www.google.org/flutrends/jp/},そのデータをそのまま比較手法として用いた.\item{\bfGOOGLE+SIR}:上記手法GOOGLEにSIRモデルを適応した手法.\end{description}SIRモデルの挙動はパラメータ$\gamma$に依存する.パラメータ$\gamma$はその季節に流行するインフルエンザによって異なるが,本実験では,先行研究\cite{Anderson1979}において報告されている値$(\gamma=0.38)$と,もっともパフォーマンスの高い値であった0.20を参考値として用いた.\subsection{評価}評価方法は正解データとシステムの出力値の相関係数(ピアソンの相関係数)を用いた.この評価法は,クエリログを用いた先行研究\cite{Ginsberg2009}やTwitterを用いた研究\cite{Aramaki2011}と共通である.なお,上記の各手法の出力する値のスケール(最小値や最大値)はそれぞれ異なるが,相関係数で評価することで,スケールの差異はキャンセルされる.\subsection{結果と考察}各種法の結果を表\ref{t_result}に示す.文章分類手法を用いたTWITTER+SVM(相関係数0.902)は,TWITTER(相関係数0.850)よりも精度を向上させている(統計的には有意ではない).\begin{table}[b]\caption{各手法の推定精度}\label{t_result}\input{04table05.txt}\end{table}次に,SIRモデルは,すべての手法(TWITTER+SIRやGOOGLE+SIR)において精度を向上させている.特に,GOOGLE+SIRは$\gamma=0.2$と$\gamma=0.38$の両方で有意な精度向上となっている.他の場合も,いずれも精度を向上させており,SIRモデルは応用範囲が広い手法であると言える.さらに,文章分類手法とSIRモデルの両方を組み合わせて用いた場合(TWITTER+SVM+SIR)には,それぞれを個別に用いたよりも高い精度が得られた.特に,$\gamma=0.2$の時に相関係数0.850から0.919へ有意な$(p=0.10)$精度向上が見られた.この結果により,ソーシャルメディア上の情報をそのまま用いるのではなく,文章分類や疾患モデルと組み合わせて用いることで,さらにサーベイランス精度を向上できることが示された.本研究はインフルエンザを対象としたが,インフルエンザのみならず,熱中症,食中毒など,全貌の把握は困難であるが,各個人については把握が可能な疾患は数多く存在する.このような疾患においても,提案手法のパラメータを調整することで,対応できる可能性があることを強調したい.\subsection{誤り分析}発言の分類精度は,前節の実験で示されたようにF値74\%にすぎず(表\ref{f_win_size.eps}),4回に1回程度は誤っていることになる.どのように誤っているか表\ref{t_confusion}に示す.表に示されるように,陽性発言や否定や広告など定型的な表現はうまく判定できているが,不適切な時制や非当事者などは一部しか除外できていない.この理由は,時制の判定においては過去の程度(24時間以内かどうか)という判定が高度であること,また,当事者の判定においては,省略された主語の推定が困難なことなど,種々の原因が考えられる.このような課題はあるものの発言の分類はインフルエンザ流行推定という最終的な精度を向上できており,今後,より深い言語処理を導入することへの動機となりうる.\begin{table}[b]\caption{コンフュージョン・マトリクス}\label{t_confusion}\input{04table06.txt}\end{table}SIRモデルにおいても,改良の余地がある.推定値を可視化した結果を図\ref{f_result.eps}に示す.図に示されるように,TWITTERやGOOGLEの集計結果では,流行前に多めに推定し,流行後は少なめに推定するという傾向がある.これに対して,SIRモデルは,流行前の発言を後ろにずらして集計し,精度を高めることに成功している.しかし,SIRモデルにおいて,もっとも,高い推定値であったのは$\gamma=0.20$であり,先験的なパラメータ$(\gamma=0.38)$から外れていた.このベストパラメータ$(\gamma=0.20)$を用いた場合,相関係数0.919が得られるはずであり,これがモデルの上限値となる.今後,いかに,ベストパラメータを事前に設定するかが問題となる.なお,このパラメータ$\gamma$は,実験期間におけるインフルエンザ流行型の特質を示していると考えられ,シーズンを通して不変である可能性がある.この仮定が成り立つならば,シーズン開始時に正解データと誤差を最小化するようにし,最適なパラメータを得られる可能性があり,今後の課題としたい.\subsection{提案手法の有効性}本稿の冒頭にて,ウェブを用いた感染症サーベイランスの利点として,大規模性と即時性の2つの利点を挙げた.本節では,提案システムをウェブ・サービス\footnote{http://www.mednlp.jp/influ/}として運用した結果をもとに,これら2つの利点について実証的に議論する.\begin{figure}[b]\begin{center}\includegraphics{19-5ia6f1.eps}\end{center}\caption{各手法により推定された流行の可視化}\label{f_result.eps}\centerline{\footnotesize*Y軸は相対頻度を示す(最大値で正規化している).X軸は時間軸を示す.}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{19-5ia6f2.eps}\end{center}\caption{東日本災害時の福島県のサーベイランス結果(提案手法のサービスのスクリーン・ショット)}\label{f_result2}\footnotesize{*Y軸は既存手法については患者数(左目盛り),提案手法については陽性発言数を示す(右目盛り).X軸は時間軸を示す.}\end{figure}\begin{enumerate}\item{既存手法との比較:}既存手法では全国約5,000の診療所から情報を集め,集計結果を発表している.ただし,その分布は均一でなく,過疎地については,少数の診療所からの情報に頼っている.このため,地震などの災害時には,流行把握が不可能な地域が生じてしまう事がある.例えば,東日本大震災時には,3月の中旬と下旬の2度にわたって,福島県からの報告が途絶えた(図2).一方,提案手法は,GPS発信情報が付加された発言をもとに,福島県のインフルエンザ・サーベイランスが可能であった.さらに,既存の手法では,1週間前の流行しか把握できない.一方,提案手法では,つねに現状の流行をタイム・ラグなしに把握が可能である.\item{クエリ・ベースの手法(Googleインフルトレンド)との比較:}クエリ・ベースの手法であるGoogleインフルトレンドは,提案手法と同じくウェブを活用し,提案手法と同等の即時性と大規模性を持つ.ただし,根幹となるリソースの検索クエリは非公開であり,サービスを第三者が構築/拡張できないという問題がある.具体的には,Googleインフルトレンドの集計は,平成24年7月現在,国単位の集計にとどまっており,都道府県単位の集計を行っていない.この拡張を行う事はサービス・プロバイダ(Google)以外は不可能である.一方,提案手法のリソースであるTwitterは,公開されたAPIを通じて柔軟にサービスの開発が可能である.\end{enumerate}以上のように,提案手法は,既存手法と比較し,大規模性と即時性の両方において上回っている.また,クエリ・ベースの手法と比較し,同程度の大規模性と即時性を持つものの,サービスの拡張性という点では,ソーシャル・メディアが優位である.ただし,実用的には,両者のうち優位な方のみを利用するのではなく,いずれかが利用困難な場合でも,残った手法が稼働できる可能性があり,両者を併用することで頑健なサーベイランスを実現していくのが有効だと考えられる.
\section{おわりに}
本研究ではソーシャルメディアを材料に,インフルエンザの流行の推定に注目した.これまでの多くのシステムは,単純に単語の頻度情報をもとに患者の状態を調査するというものであった.しかし,Twitterの情報はノイズを含んでおり,実際に疾患にかかっていない場合の発言を収集してしまう恐れがある.また,そもそも,ウェブの情報が必ずしもインフルエンザの流行を反映しているとは限らない.これらの問題に対応するため,発言者が実際にインフルエンザにかかっているかどうかの分類を行った.また,現実とウェブ情報の時間の差を吸収するための感染症モデルを適応した.実験の結果,前者はTwitterベースのシステムの精度を向上させた.また,後者はTwitterベースのシステムのみならず,Googleインフルトレンドの精度も向上させた.また,これらの両手法は独立した現象を扱っており,両方を組み合わせて用いた場合,Twitterにおいて感染症情報センター報告の患者数と相関係数0.910という高い推定精度を示すことができた.本研究により,ソーシャルメディア上の単語頻度を単純に用いるのではなく,文章分類や疾患モデルを組み合わせることで,さらに精度の向上が可能であることが示された.\acknowledgment本研究は,JST戦略的創造研究推進事業さきがけ「情報環境と人」領域「自然言語処理による診断支援技術の開発」,科研費補助金若手研究A「表記ゆれ及びそれに類する現象の包括的言語処理に関する研究」,および科研費補助金挑戦的萌芽研究「ダミー診療録の構築および自動構造化に関する研究」による.本論文を書くにあたって有益な議論をいただいた東京大学知の構造化センター宮部真衣氏,東京大学医学部附属病院篠原恵美子氏に謹んで感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Anderson\BBA\May}{Anderson\BBA\May}{1979}]{Anderson1979}Anderson,R.~M.\BBACOMMA\\BBA\May,R.~M.\BBOP1979\BBCP.\newblock\BBOQPopulationBiologyofInfectious-Diseases.\BBCQ\\newblock{\BemNature},{\Bbf280}(361).\bibitem[\protect\BCAY{Aramaki,Maskawa,\BBA\Morita}{Aramakiet~al.}{2011}]{Aramaki2011}Aramaki,E.,Maskawa,S.,\BBA\Morita,M.\BBOP2011\BBCP.\newblock\BBOQTwitterCatchesTheFlu:DetectingInfluenzaEpidemicsusingTwitter.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2011)},\mbox{\BPGS\1568--1576}.\bibitem[\protect\BCAY{Carbonell\BBA\Goldstein}{Carbonell\BBA\Goldstein}{1998}]{Carbonell1998}Carbonell,J.\BBACOMMA\\BBA\Goldstein,J.\BBOP1998\BBCP.\newblock\BBOQTheuseofMMR,diversity-basedrerankingforreorderingdocumentsandproducingsummaries.\BBCQ\\newblockIn{\BemProceedingsoftheSIGIR}.\bibitem[\protect\BCAY{Culotta}{Culotta}{2010}]{Culotta2010}Culotta,A.\BBOP2010\BBCP.\newblock\BBOQDetectinginfluenzaoutbreaksbyanalysingTwittermessages.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1007.4748}.\bibitem[\protect\BCAY{Espino,Hogan,\BBA\Wagner}{Espinoet~al.}{2003}]{Espino2003}Espino,J.,Hogan,W.,\BBA\Wagner,M.\BBOP2003\BBCP.\newblock\BBOQTelephonetriage:Atimelydatasourceforsurveillanceofinfluenza-likediseases.\BBCQ\\newblockIn{\BemProceedingsoftheAMIAAnnualSymposium},\mbox{\BPGS\215--219}.\bibitem[\protect\BCAY{Ferguson,Cummings,Cauchemez,Fraser,Riley,Meeyai,Iamsirithaworn,\BBA\Burke}{Fergusonet~al.}{2005}]{Ferguson2005}Ferguson,N.~M.,Cummings,D.A.~T.,Cauchemez,S.,Fraser,C.,Riley,S.,Meeyai,A.,Iamsirithaworn,S.,\BBA\Burke,D.~S.\BBOP2005\BBCP.\newblock\BBOQStrategiesforcontaininganemerginginfluenzapandemicinSoutheastAsia.\BBCQ\\newblock{\BemNature},{\Bbf437}(7056),\mbox{\BPGS\209--214}.\bibitem[\protect\BCAY{Ginsberg,Mohebbi,Patel,Brammer,Smolinski,\BBA\Brilliant}{Ginsberget~al.}{2009}]{Ginsberg2009}Ginsberg,J.,Mohebbi,M.~H.,Patel,R.~S.,Brammer,L.,Smolinski,M.~S.,\BBA\Brilliant,L.\BBOP2009\BBCP.\newblock\BBOQDetectinginfluenzaepidemicsusingsearchenginequerydata.\BBCQ\\newblock{\BemNature},{\Bbf457}(7232),\mbox{\BPGS\1012--1014}.\bibitem[\protect\BCAY{Hulth,Rydevik,\BBA\Linde}{Hulthet~al.}{2009}]{Hulth2009}Hulth,A.,Rydevik,G.,\BBA\Linde,A.\BBOP2009\BBCP.\newblock\BBOQWebQueriesasaSourceforSyndromicSurveillance.\BBCQ\\newblock{\BemPLoSONE},{\Bbf4}(2),\mbox{\BPG\e4378}.\bibitem[\protect\BCAY{Iwakura\BBA\Okamoto}{Iwakura\BBA\Okamoto}{2008}]{Iwakura2008}Iwakura,T.\BBACOMMA\\BBA\Okamoto,S.\BBOP2008\BBCP.\newblock\BBOQAfastboosting-basedlearnerforfeature-richtaggingandchunking.\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthConferenceonComputationalNaturalLanguageLearning(CoNLL)},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Johnson,Wagner,Hogan,Chapman,Olszewski,Dowling,\BBA\Barnas}{Johnsonet~al.}{2009}]{Johnson2004}Johnson,H.,Wagner,M.,Hogan,W.,Chapman,W.,Olszewski,R.,Dowling,J.,\BBA\Barnas,G.\BBOP2009\BBCP.\newblock\BBOQAnalysisofWebaccesslogsforsurveillanceofinfluenza.\BBCQ\\newblock{\BemStudiesinHealthTechnologyandInformatics},{\Bbf107},\mbox{\BPGS\1202--1206}.\bibitem[\protect\BCAY{Kermack\BBA\McKendrick}{Kermack\BBA\McKendrick}{1927}]{Kermack1927}Kermack,W.~O.\BBACOMMA\\BBA\McKendrick,A.~G.\BBOP1927\BBCP.\newblock\BBOQAContributiontotheMathematicalTheoryofEpidemics.\BBCQ\\newblockIn{\BemTheRoyalSocietyofLondon},\mbox{\BPGS\700--721}.\bibitem[\protect\BCAY{国立感染症研究所}{国立感染症研究所}{2006}]{国立感染症研究所2006}国立感染症研究所\BBOP2006\BBCP.\newblock\Jem{インフルエンザ・パンデミックに関するQ&A(2006.12改訂版)\inhibitglue}.\newblock国立感染症研究所感染症情報センター.\bibitem[\protect\BCAY{Kwak\BBA\Choi}{Kwak\BBA\Choi}{2002}]{Kwak2002}Kwak,N.\BBACOMMA\\BBA\Choi,C.-H.\BBOP2002\BBCP.\newblock\BBOQInputfeatureselectionforclassificationproblems.\BBCQ\\newblock{\BemNeuralNetworks},{\Bbf13}(2).\bibitem[\protect\BCAY{Lampos\BBA\Cristianini}{Lampos\BBA\Cristianini}{2010}]{Lampos2010}Lampos,V.\BBACOMMA\\BBA\Cristianini,N.\BBOP2010\BBCP.\newblock\BBOQTrackingtheflupandemicbymonitoringthesocialweb.\BBCQ\\newblockIn{\BemCognitiveInformationProcessing(CIP),20102ndInternationalWorkshopon},\mbox{\BPGS\411--416}.\bibitem[\protect\BCAY{Magruder}{Magruder}{2003}]{Magruder2003}Magruder,S.\BBOP2003\BBCP.\newblock\BBOQEvaluationofover-the-counterpharmaceuticalsalesasapossibleearlywarningindicatorofhumandisease.\BBCQ\\newblockIn{\BemJohnsHopkinsUniversityAPLTechnicalDigest(24)}.\bibitem[\protect\BCAY{大日\JBA重松\JBA谷口\JBA岡部}{大日\Jetal}{2003}]{大日2003}大日康史\JBA重松美加\JBA谷口清州\JBA岡部信彦\BBOP2003\BBCP.\newblockインフルエンザ超過死亡「感染研モデル」2002/03シーズン報告.\\newblock{\BemInfectiousAgentsSurveillanceReport},{\Bbf23}(11).\bibitem[\protect\BCAY{Paul\BBA\Dredze}{Paul\BBA\Dredze}{2011}]{Paul2011}Paul,M.~J.\BBACOMMA\\BBA\Dredze,M.\BBOP2011\BBCP.\newblock\BBOQYouAreWhatYouTweet:AnalysingTwitterforPublicHealth.\BBCQ\\newblockIn{\BemProcessingoftheFifthInternationalAAAIConferenceonWeblogsandSocialMedia(ICWSM)}.\bibitem[\protect\BCAY{Peng,Long,\BBA\Ding}{Penget~al.}{2005}]{Peng2005}Peng,H.,Long,F.,\BBA\Ding,C.\BBOP2005\BBCP.\newblock\BBOQFeatureselectionbasedonmutualinformation:Criteriaofmax-dependency,max-relevance,andmin-redundancy.\BBCQ\\newblock{\BemPatternAnalysisandMachineIntelligence},{\Bbf27}(18).\bibitem[\protect\BCAY{Polgreen,Chen,Pennock,Nelson,\BBA\Weinstein}{Polgreenet~al.}{2009}]{Polgreen2009}Polgreen,P.~M.,Chen,Y.,Pennock,D.~M.,Nelson,F.~D.,\BBA\Weinstein,R.~A.\BBOP2009\BBCP.\newblock\BBOQUsingInternetSearchesforInfluenzaSurveillance.\BBCQ\\newblock{\BemClinicalInfectiousDiseases},{\Bbf47}(11),\mbox{\BPGS\1443--1448}.\bibitem[\protect\BCAY{高橋\JBA野田}{高橋\JBA野田}{2011}]{Takahashi2011}高橋哲朗\JBA野田雄也\BBOP2011\BBCP.\newblock実世界のセンサーとしてのTwitterの可能性.\\newblock\Jem{電子情報通信学会情報・システムソサイエティ言語理解とコミュニケーション研究会}.\bibitem[\protect\BCAY{谷田\JBA荒牧\JBA佐藤\JBA吉田\JBA中川}{谷田\Jetal}{2011}]{Tanida2011}谷田和章\JBA荒牧英治\JBA佐藤一誠\JBA吉田稔\JBA中川裕志\BBOP2011\BBCP.\newblockTwitterによる風邪流行の推測.\\newblock\Jem{マイニングツールの統合と活用&情報編纂研究会}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{Vapnik1999}Vapnik,V.\BBOP1999\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Yih,Teates,Abrams,Kleinman,Kulldorff,Pinner,Harmon,Wang,\BBA\Platt}{Yihet~al.}{2009}]{Yih2009}Yih,W.~K.,Teates,K.~S.,Abrams,A.,Kleinman,K.,Kulldorff,M.,Pinner,R.,Harmon,R.,Wang,S.,\BBA\Platt,R.\BBOP2009\BBCP.\newblock\BBOQTelephoneTriageServiceDataforDetectionofInfluenza-LikeIllness.\BBCQ\\newblock{\BemPLoSONE},{\Bbf4}(4),\mbox{\BPG\e5260}.\end{thebibliography}\begin{biography}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2002年京都大学大学院情報学研究科修士課程修了.2005年東京大学大学院情報理工系研究科博士課程修了(情報理工学博士).以降,東京大学医学部附属病院企画情報運営部特任助教を経て,現在,東京大学知の構造化センター特任講師,科学技術振興機構さきがけ研究員(兼任).自然言語処理の研究に従事.}\bioauthor{増川佐知子}{1989年お茶の水女子大学理学部物理学科卒業.1991年お茶の水女子大学大学院理学研究科物理学専攻修士課程修了.同年花王株式会社入社数理科学研究所配属.以降,国立福山病院附属看護学校,福山平成大学,福山市立女子短期大学非常勤講師を経て,2010年より,東京大学知の構造化センター学術支援専門職員.医療情報および自然言語処理の研究に従事.}\bioauthor{森田瑞樹}{2003年東京工業大学生命理工学部卒業.2005年東京工業大学大学院生命理工学研究科修士課程修了.2008年東京大学大学院農学生命科学研究科博士課程修了.同年東京大学大学院農学生命科学研究科特任助教.2009年医薬基盤研究所特任研究員.2012年東京大学知の構造化センター特任研究員.現在に至る.生命情報科学,医療分野における自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V15N03-06
|
\section{はじめに}
label{節:背景}近年,インターネットの普及や企業に対するe-文書法等の施行に伴い,我々の周りには膨大な電子化文書が存在するようになってきた.そこで,ユーザが必要な情報へ効率よくアクセスするための支援技術の研究として自動要約の研究が盛んに行われている.自動要約の既存研究としては,要約する前の文章(原文)とそれを要約したもの(要約文)のパラレルコーパスを使用し,どのような語が要約文へ採用されているのか確率を用いることによってモデル化する手法\cite{Jing:2000,Daume:2002,Vandeghinste:2004}や,大量のコーパスから単語や文に対して重要度を計算し,重要であると判断された語や文を要約文に採用する方法\shortcite{oguro:1991論文,Hori:2003}がある.これらは計算機のスペックや大量の言語資源を手に入れることが出来るようになったことにより近年多く研究されている.しかし言語を全て統計的に処理してしまうことはあまりにも大局的過ぎ,個々の入力に合った出力が難しくなってしまう.また我々人間が要約を行うときには文法などの知識やどのように要約を行ったら良いのか等,様々な経験を用いている.そのため人間が要約に必要だと考える語や文と相関のあるような重要度の設定は難しい.さらに人間が要約を行う際は様々な文の語や文節など織り交ぜて要約を作成するが,既存手法である文圧縮や文抽出ではこのような人間が作成する要約文は作ることができない.そこで本論文では人間が作成するような要約文,つまり複数の文の情報を織り交ぜて作成する要約文の作成を目指す.また上述のように語や文などに人間と同じように重要度を設定することは困難であるため,本論文ではこれらに対して重要度の設定を行わずに用例を模倣利用することによって要約文を獲得する方法を提案する.以下,\ref{章:用例利用型のアプローチ}章にて用例利用型の考え方と既存研究,また用例利用型を要約にどう適用するのか述べる.続いて\ref{章:提案法のシステム概要}章にて提案法のシステム概要を述べ,\ref{章:類似用例文の選択}章から\ref{章:文節の組合せ}章にて提案法の詳細を述べる.そして\ref{章:評価実験及び考察}章にて実験,\ref{章:結果及び考察}章にて結果及び考察を行う.
\section{用例利用型のアプローチ}
label{章:用例利用型のアプローチ}\subsection{用例利用型の既存研究}用例利用型のアプローチ(example-basedapproach)とは事例を模倣して要約や翻訳など言語を作成することであり,アナロジーに基づく翻訳手法としてNagao~\cite{Nagao:1984}によって提唱された.Nagaoは人間が第二言語を学ぶ際の学習過程に注目し,機械もその人間の学習過程を真似れば翻訳ができるのではないかと提案した.人間が言語を習得する際にはまずは基本的で単純な文や文節を学習し,さらに学習を進める際には今までに学習した事例の中から類似した文や文節を模倣利用して組合せたり語句を置き換えたりすることによって新しく文を作成している.機械も同様に今までに収集した事例を真似ることで文が作れるのではないかという考えである.機械翻訳の分野では用例利用型の翻訳が実装され,これまでに良好な結果を得ている\shortcite{佐藤理史:1989NL,imamura:2004,Kurohashi:2005,Sato:1995}.これらの既存研究では原言語(日本語)と目的言語(英語)のパラレルコーパスを用例として使用している.そして用例がどのように翻訳が行われているか参照し,その対を利用することで翻訳を行っている.さらに換言処理の分野でも用例利用の考え方が用いられている.大竹\cite{大竹清敬:2003NLP}は同一言語内における翻訳と捉え被換言表現と換言表現の対を用例として利用している.そして入力となる被換言表現と類似した用例の被換言表現側を検索しそれと対となっている換言表現を模倣して換言を行っており,良好な結果を得ている.このように用例利用型のアプローチは翻訳や換言で用いられており,良好な結果が得られている.\subsection{自動要約へ適応}\label{節:自動要約へ適応}人間が要約を行う際にはコツがあるという.それは対象物を読んでどのような文や文節が要旨として必要なのか判断し,より短い表現に置き換えることである.その要旨判断の元となっているのは要約とはどういうものなのか,どういう傾向で作成すれば良いのか等の今までの要約事例を元にした知識や経験である.図\ref{人間が考える要約}に人間が行う要約方法の例を示す.図\ref{人間が考える要約}では人間が要約の対象となる文章を読んで,この記事は「監査に乗り出す」という内容の記事だと認識する.また「監査」と「捜査」が似ている単語であるという知識も持っている.そして人間は監査や捜査という内容の記事がどのような傾向で要約されるのかという経験も用いて,要約文を作成する.つまり人間が行う要約過程も前節で述べた人間が第二言語を学習する際の翻訳する過程と似ており,経験,事例を利用していることが分かる.そこで本論文では機械も人間の要約する過程を真似れば自動要約ができるのではないかと考え,用例利用型の要約を行う.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f1.eps}\caption{人間が行う事例をもとにした要約}\label{人間が考える要約}\end{center}\end{figure}\subsection{用例利用型要約の利点}\label{節:用例利用型要約の利点}用例利用型のアプローチを自動要約に用いることの利点は以下である.\begin{enumerate}\item保守が容易である\\システムを構築する際には一般的に管理,保守の容易性が求められる.用例利用型のアプローチでは使用する状況に応じて用例を変更,または加えることだけで容易に改良ができるため,管理や保守が容易に行うことができる.なお追加した用例が他の用例に副作用を及ぼすことがない.これに対して,人手で要約規則を作成する規則利用の要約は修正や保守に高いコストがかかる.また,修正するための規則が他の規則と競合してしまうことや人手による作成がゆえ,要約する際に必要な規則が欠ける等の問題も起こってしまう.\item重要度の設定が不要\\これまでに行われてきた重要文抽出や文圧縮の研究の多くは頻度情報や位置情報,タイトル情報などを用いて語や文節に対して重要度を計算していた.しかしながら人間はさまざまな情報を考慮して要点を判断しているため,その要点と相関のあるような重要度を設定することは難しい.これに対して用例利用型要約では重要度の計算を必要としない.その代わりに2つの表現間の類似度を用いるのである.本論文ではある表現に対して計算する重要度よりも2つの表現間対して計算する類似度の方が容易であると考える.\item入力の内容により適した出力が得られる\\統計的な要約手法は一般的に要約文のコーパスに含まれる単語に対して確率を計算する\cite{Witbrock:1999,Knight:2002}.統計的なアプローチではより大局的な確率に注目するため入力の内容により適した出力を得ることが難しい.しかしながら用例利用型要約では用例の中から類似した用例を見つけ,その用例に従って要約を行うため入力によりふさわしい出力が得られる.\end{enumerate}
\section{提案法のシステム概要}
label{章:提案法のシステム概要}本章では用例利用型の要約である提案法の概要を示す.まず本論文で使用する用例を紹介し,その後提案システムの全体の流れを説明する.最後に,用例を用いた要約の既存手法を取り上げ,本手法との違いを述べる.\subsection{用例として用いる言語資源}\label{節:用例として用いる言語資源}本論文の用例利用型要約では用例として,日経ニュースメールNikkei-goo\toolref{言語資源:nikkei-goo}から配信されている速報ニュースを使用した.この速報ニュースは月曜日から金曜日までの週に5日,1日3回のメールによって配信されており,以下のようなものである.\begin{screen}\exp{例:日経メール}日経ニュースメールNikkei-gooで配信されているメールの例\ul{記事のタイトル}{\setlength{\leftskip}{1zw}九州新幹線長崎ルート、JR九州が並行在来線の運行継続\par}\ul{本文}{\setlength{\leftskip}{1zw}九州新幹線長崎ルート問題で、並行する在来線の運行をJR九州が続けることに。沿線市町村の反対根拠が消え着工へ前進。\par}…………………………………………………………………………………………………………\ul{記事のタイトル}{\setlength{\leftskip}{1zw}素材各社、高機能品を中国で生産\par}\ul{本文}{\setlength{\leftskip}{1zw}素材各社が中国で高機能素材を生産へ。三井化学など車などに使う高機能樹脂工場を建設。中国素材市場の需要急伸に対応。\par}\end{screen}例\ref{例:日経メール}のように配信されているニュースは記事のタイトル及び本文(1文から3文)から構成されておりニュース記事の要点を短くまとめたものである.しかし2文目以降の文は1文目の付加情報であることが多いため,本論文では用例文として利用する対象を本文の1文目に限定した.またシステムで使用する構文解析器での誤りや解析の揺れを最小限に抑えるため,この速報ニュースには前処理を施してから用例データベースに格納している.この前処理は\ref{章:類似用例文の選択}章で述べる.\subsection{システムの流れ}\label{節:システムの流れ}提案法の要約システムは大きく分けて3つのステップから構成される.入力は複数の文を持つ文書または1文のみの文書であり,これを用例に従い1文に要約する.用例には前節で述べた速報ニュースを用いている.図\ref{提案システムの流れ図}を用いてシステムの流れを説明する.\begin{figure}[b]\begin{center}\includegraphics{15-3ia6f2.eps}\caption{提案システムの流れ図}\label{提案システムの流れ図}\end{center}\end{figure}まずStep1では入力となるニュース記事(複数文)を受け取り,用例の集合の中から内容の類似した類似用例文を検索する.続いてStep2で先程選ばれた類似用例文と入力ニュース記事の文節を比較する.類似用例文の文節1つに対して類似していると判断された入力の文節が全て対応候補として選択される.また類似用例文の文節に対して,対応する入力の文節が1つも無い場合はその類似用例文を使用せず,次に検索された類似用例文を使って対応付けを行う.そしてStep3では選択された対応候補を使用し,用例により類似した文節で日本語として繋がりの良い組合せを探索する.このステップによって出力の要約文が得られる.\subsection{用例に基づく要約の関連研究}用例に基づいた言語生成の研究は主に機械翻訳または換言で実装されているが,要約の分野ではNguyenら\cite{Le:2004}以外に前例はない.Nguyenら\cite{Le:2004}は用例利用型の要約として,1文を入力としてそれを圧縮する手法を提案している.この要約手法は用例として原文と要約文の対から作成したテンプレート規則を使用している.またこのテンプレートの他にも換言規則(lexicalrule)も作成している.これは例えば,ThedocumentをDocumentに,TwocompaniesをCompaniesに換言するものである.そして入力として``Thedocumentisverygoodandincludesatutorialtogetyoustarte.''という文が入ってきたときに,``Documentisverygood.''と文圧縮されるシステムである.これに対し,提案法のシステムでは人間が作成するような要約文により近づけるため入力の単位を複数文(ニュース1記事)として文節を組合せることにより1文に要約する.つまり文圧縮とは異なる.そのため文字の削除率は必然的に高くなり,Nguyenらよりも本論文で取り組む問題はさらに困難である.また本論文では人手で作成された要約文のみを用例として用いているため原文との対応を取る必要がない.そのため容易に用例を収集することができ,原文と要約文の対応コーパスが少ない特許や医学文書の分野でも効果的に要約が作成できる.
\section{類似用例文の選択}
label{章:類似用例文の選択}本章ではニュース1記事を入力として受け取り,その記事の内容に類似した用例「類似用例文」の選択方法を述べる.この類似用例文は入力ニュース記事が要約文を作成する際に模倣利用するものである.類似用例文を選ぶ際には解析誤り等を防ぐためまず初めに入力に対して文の整形を施す.これは用例として使用している速報ニュースに対して施した文の整形と同様の方法であり,本章で説明する.続いて類似用例文の選択や\ref{章:文節の対応付け}章で用いる類似単語データベースについて説明し,最後に類似用例文の選択での中心部分を述べる.\subsection{前処理}類似用例文の選択を行う前に,前処理として文の整形を行う.これは構文解析を行う際に解析ミスや解析の揺れが出てしまうのを未然に防ぐために行うものである.解析ミスや解析の揺れは\ref{節:類似用例文の選択}節で行う類似用例文の選択で不当な類似スコアを与えてしまうことに繋がってしまうためできるだけ抑えなくてはいけない.整形を施す部分は括弧の部分であり,これらについては括弧及びその中の情報を削除するまたは括弧のみを削除する操作を行っている.この整形は入力されるニュース記事に対して,また用例データベースを作成する際の用例にあらかじめ施すものである.用例文や入力のニュース記事に含まれる括弧には丸括弧()やカギ括弧「」がある.丸括弧では直前にくる語に関する年齢,地名,代表者名,補足情報,換言であり,このような役割である丸括弧の情報は削除してもニュースの内容は変わらない.そのため丸括弧については括弧及びその括弧内に含まれている語を削除する操作を行う.続いて,カギ括弧の整形について述べる.カギ括弧の役割としては引用や強調があるが,入力記事や用例文には同じような使われ方であるにも関わらず,カギ括弧が付いている場合とそうでない場合がある.またカギ括弧の有無だけで構文解析の結果が異なってしまうことがあるため,これを防ぐには引用部分がある場合には全てカギ括弧を付ける,もしくは全てカギ括弧を削除するどちらかをしなくてはならない.しかしカギ括弧の付いていないものに対して範囲を指定し括弧を付加することは意味解析など様々な技術を用いても確実にできるものは少ないため後者のカギ括弧を削除する操作を行った.\subsection{類似単語データベース}\label{節:類似単語データベース}類似単語データベースは使われ方の似た単語を類似したものとして格納したものである.この場合の使われ方が似ているとは同じ語と係り受け関係を持ちやすいことを意味する.例えば例\ref{類似単語DB}に示すように「参入」と「進出」は同じ係り受け関係を持ちやすい.このような語を似ていると判断し,データベースに格納する.\begin{screen}\exp{類似単語DB}使われ方の似た単語参入を予定—進出を予定参入を発表—進出を発表\end{screen}この類似度を測る際にはLin~\cite{Lin:1998}の相互情報量を用いた類似度を日本語に対応できるように改良して単語間の類似度計算を行った.Linはテキストコーパスから係り受け関係にある2文節とその文法関係に対して``(have,SUBJ,I)''のように3つ組($w,r,w'$)を作成している.3つ組には以下の式で与えられる相互情報量も付加している.この相互情報量は係り受け関係の繋がりの強さを意味する.\begin{equation}\begin{aligned}[b]I(w,r,w')&=\log\frac{P(w,r,w')}{P(r)\timesP(w|r)\timesP(w'|r)}\\&=\log\frac{||w,r,w'||\times||*,r,*||}{||w,r,*||\times||*,r,w'||}\end{aligned}\label{IM}\end{equation}上式の$*$は任意の単語であり,$||\cdot||$は出現頻度を表す.例えば$||*,r,*||$ならば文法関係が$r$である3つ組の出現頻度を表す.さらに単語$w_1$と単語$w_2$の類似度を算出するために以下の式を用いて計算を行っている.\begin{equation}{Sim_w(w_1,w_2)}=\frac{\sum_{(r,w)\inT(w_1)\capT(w_2)}(I(w_1,r,w)+I(w_2,r,w))}{\sum_{(r,w)\inT(w_1)}I(w_1,r,w)+\sum_{(r,w)\inT(w_2)}I(w_2,r,w)}\label{simMI}\end{equation}式(\ref{simMI})における$T(w_i)$は式(\ref{IM})の$I(w_i,r,w')$が正となるような$(r,w')$の集合を表す.この類似度によって同じ係り受け関係を持ちやすいような単語が類似していると判断できる.本論文ではあらかじめ日本経済新聞コーパス1990--2004年\toolref{言語資源:日経}を使用し,類似単語データベースを作成した.類似用例データベースには単語$w_1$と類似度が高かった上位10\%の類似した単語$w_2$を格納している.また相互情報量を計算する3つ組($w,r,w'$)を日本語に対応できるよう,係り受け関係にある2文節の各々の主辞($w,w'$)と係り元文節に含まれる機能語$r$へと改良した.この例を図\ref{図:3つ組}に示す.続いて,類似単語データベースの一例を以下に示す.例の括弧内の数値の1つ目は類似度を示す.2つ目はその類似度をある単語(例中の「事務所」)と類似している単語(例中の「支店,室,センター」など)の中で最も高かった類似度で正規化したものである.\begin{screen}\exp{nolabel01}類似単語データベースの一例\ul{事務所}{\setlength{\leftskip}{1zw}支店(0.22606~:~1.00000)、室(0.22601~:~0.99977)、センター(0.21635~:~0.95705)、所(0.21327~:~0.94342)、局(0.20754~:~0.91807)\par}\ul{値上げ}{\setlength{\leftskip}{1zw}引き上げ(0.24755~:~1.00000)、値下げ(0.22883~:~0.92438)、引き下げ(0.22575~:~0.91194)、削減(0.21192~:~0.85606)、増産(0.20626~:~0.83321)\par}\ul{再建}{\setlength{\leftskip}{1zw}解決(0.20423~:~1.00000)、復興(0.19219~:~0.94104)、構築(0.19162~:~0.93826)、実現(0.18707~:~0.91598)、開拓(0.17891~:~0.87602)\par}\ul{スポーツ}{\setlength{\leftskip}{1zw}サッカー(0.16291~:~1.00000)、ゴルフ(0.15383~:~0.94426)、ビジネス(0.14445~:~0.88668)、野球(0.14405~:~0.88423)、競技(0.14355~:~0.88116)\par}\ul{描く}{\setlength{\leftskip}{1zw}作る(0.13313~:~1.00000)、書く(0.13185~:~0.99039)、埋める(0.13058~:~0.98085)、つくる(0.12920~:~0.97048)、生かす(0.12774~:~0.95951)\par}\end{screen}\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f3.eps}\caption{相互情報量を計算する3つ組の例}\label{図:3つ組}\end{center}\vspace{-1\baselineskip}\end{figure}\subsection{類似用例文の選択}\label{節:類似用例文の選択}類似用例文の選択では入力ニュース記事と用例データベースに格納されている用例とを比較し,入力の内容や話題の類似した用例「類似用例文」を選択する.提案法のシステムではこの選択された類似用例文を模倣利用して入力ニュース記事を要約する.内容や話題の類似した文章には共通して出現する語が多い.そのため提案法では入力ニュース記事に対して同じ語を多く含むような用例文を獲得する.しかしどんな語でも共通して出現していればよいというわけではない.文章の内容や話題を表すのに貢献する語が両者に共通して出現したときにはそれらの文章は類似していると言える.よって類似用例文の選択では内容をより表している語に注目して比較を行わなくてはならない.本論文では注目する語によって類似用例文の選択部分を2つの段階に分ける.\subsubsection{述語の一致による用例文の限定}まずは述語に注目する.述語は記事の骨子であるため内容を表す最も重要な語である.そのため類似用例文として獲得する用例文を入力の述語を1つ以上含むものに限定する.この段階で行う操作の流れを図\ref{図:類似用例1}に示す.図\ref{図:類似用例1}の入力及び用例文の述語群の獲得をするための規則を説明する.規則を適用する際は文節情報,品詞情報を使用するため入力ニュース記事が複数文であるときは1文単位に分割し各々の文に対して構文解析を行う.用例文は全て1文であるのでそのまま構文解析を施す.本論文では構文解析器CaboCha\toolref{ツール:cabocha}を用いた.このツールには文節内の最も重要となる語である主辞や助詞などの機能語を判定する機能も含まれている.続いて構文解析した結果を用いて作成した規則を適用する.なお述語には活用を考慮せず,全て基本形を用いている.述語を取り出す規則を以下に示す.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f4.eps}\caption{述語に注目して選択する用例文を限定}\label{図:類似用例1}\end{center}\end{figure}\begin{enumerate}\item文末の1文節に含まれている主辞(例外処理(4)(5)も行う)\\例)\\決めた。→決める\\発表した。→発表\item動詞--自立\footnote{この品詞は構文解析器Cabochaが使用している形態素解析器ChaSen\toolref{ツール:chasen}の品詞体系に基づいている.}+読点が含まれている文節の主辞(例外処理(4)も行う)\\例)\\決め、→決める\\発表し、→発表\item動詞--自立+助詞--引用が含まれている文節の主辞(例外処理(4)(5)も行う)\\例)\\決めたと→決める\\発表したと→発表\item\uc{\mbox{例外処理1}}\\動詞「する,ある,なる」が主辞と判定された場合,その直前の形態素がサ変名詞であればそのサ変名詞を述語とする.直前の形態素がサ変名詞でなければ1つ前の文節を参照しその文節の主辞を述語とする.\\(「する」は機能語的に使用されていることが多いため.また「ある,なる」は文の内容を表すものとして情報は少ない.そのためこれらの語は述語として用いず,他の語を述語とした.)\\例)\\発表を|\kern-0.25zw\footnote{`|'は文節区切りを表す.}\する。→発表\\発表する。→発表\\狙いが|ある。→狙い\\先送りに|なる。→先送り\item\uc{\mbox{例外処理2}}\\「予定,計画,方針,方向,見込み,見通し」のいずれかが主辞と判定された場合,その直前の文節の主辞を述語とする.\\(これらの表現は本来の意味よりも未来,推量などを表すムード\cite{寺村}であることが多く,「だろう」などの助動詞として扱うこともできる.そのためその語が持つ記事の内容を表す貢献度は低く,直前の形態素がサ変名詞または動詞であればその語を述語とした.)\\例)発表する|予定。→発表\end{enumerate}本論文では以上の規則を用いて述語を取り出した.続いて用例文の述語に対して使われ方の類似した単語を付加し,用例の述語群を拡張する.これは述語群の一致をみるときに,完全に一致した述語でなくても使われ方が似ていれば,次節で述べる対応付けも可能であり,類似用例文として有用であるためである.類似した単語は,あらかじめ作成しておいた類似単語データベースのその述語と類似した上位3単語とした.この処理では上述した述語群の一致を使用して類似用例文となりうる用例文を限定した.続いて,述語が一致した用例文からさらに内容語に注目して類似用例文を獲得する.\subsubsection{内容語の一致による用例文の選択}\label{節:内容語の一致}内容語の一致では先ほど述語に注目し類似用例文となりうる用例文の中から内容のより類似したものを獲得する.この段階で行う操作を図\ref{図:類似用例2}に示す.本論文で注目している内容語とは助詞,助動詞,記号以外の形態素であり,数字は$\#$として汎化してある.ここで機能語は用いず内容語のみに限定した理由は機能語の役割が文法的な意味を付け加えるだけで内容自体を含むものではないためである.また内容語の中でもより注目すべき語とそうではない語がある.まずは連体修飾部に含まれる内容語は注目すべきではない語である.以下に図\ref{図:連体修飾}を示して連体修飾部について考えを示す.図\ref{図:連体修飾}では「家電メーカの」という連体修飾部が「松下電器産業は、」という文節に係っている.しかしこの連体修飾部は記事の内容を直接表しているのではなく,被修飾部である松下電器産業のみと関係を持っている.そのため入力ニュース記事の連体修飾部の内容語は類似用例文の検索時には使用しない.用例文の連体修飾部も同様に使用するべきではないが,文がもともと短いため削除すると検索される情報が減りすぎてしまう.そのため連体修飾部の単語を使用しない制約は入力ニュース記事のみに限る.図\ref{図:連体修飾2}に連体修飾部の判断方法を示す.連体修飾部の判断ではまず構文解析を行った結果を文末から参照していく.そして以下の条件に\ul{当てはまらない文節}(体言)を被連体修飾部として特定し,その被連体修飾部の文節に係る部分を再帰的に参照し,連体修飾部とする.この連体修飾部に含まれる内容語は類似用例文の選択では用いない.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f5.eps}\caption{内容語に注目して類似用例文を選択}\label{図:類似用例2}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f6.eps}\caption{連体修飾部を含む文の例}\label{図:連体修飾}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f7.eps}\caption{連体修飾部の判定}\label{図:連体修飾2}\end{center}\end{figure}\begin{enumerate}\item動詞--自立を含む文節\item形容詞--自立を含む文節\item名詞--サ変接続+読点,または名詞--サ変接続+句点を含む文節\end{enumerate}また複数の形態素から構成される複合名詞を形態素に分割して扱うと意味内容の異なる用例文が出力される恐れがある.この例を例\ref{複合語}に示す.\begin{screen}\exp{複合語}複合語であることを考慮しない場合の出力例〈入力ニュース記事1〉{\setlength{\leftskip}{2zw}大手私鉄や\underline{\underline{地下鉄}}でもJRと同様に安全上、コインロッカーやごみ箱の使用をやめる動きが広がっている。JR東日本では主要駅などで警備員を増員。(以下省略)\par}〈入力ニュース記事2〉{\setlength{\leftskip}{2zw}\ul{地下鉄サリン事件}から三年。被害者と遺族ら計四十二人がオウム真理教の破産管財人に損害賠償の上積みを求めていた訴訟は二十五日、東京地裁で開かれた口頭弁論で和解が成立し、賠償額を約十一億千九百万円とすることで合意した。(以下省略)\par}〈用例文〉{\setlength{\leftskip}{2zw}\underline{\underline{地下鉄}サリン事件}の実行犯のオウム真理教元幹部、北村被告に対する控訴審で東京高裁は無期懲役の一審判決支持し控訴棄却。\par}\end{screen}\noindent例\ref{複合語}の入力ニュース記事1では入力ニュース記事の内容語「地下鉄」が用例文と一致している.しかし用例文で使用されている地下鉄は事件名の一部であり,入力で用いられている用法とは異なる.このように複合語を形態素に分割すると本来注目すべきではない部分とも一致してしまう.また例\ref{複合語}の入力ニュース記事2では用例文と「地下鉄」「サリン」「事件」という3形態素の一致がある.しかしこの記事の内容は類似していない.このように長い複合語があると記事の内容が似ていないのも関わらず局所的に一致してしまい類似していると判断してしまう可能性がある.そのため名詞が連続して出現する場合は複合名詞として判断し,形態素で分割するのではなく1語として扱う,もしくは複合名詞の中心的意味を表す主辞のみを扱う必要がある.提案法では汎用性を高めるため後者の主辞のみを扱うことにした.また主辞が接尾辞である場合には直前の形態素も結合させている.またその直前の形態素も接尾辞である場合(例\ref{syuzi}の2つ目の例),再帰的に接尾辞でない形態素までを結合した.\begin{screen}\exp{syuzi}複合名詞の主辞が接尾辞と判定された場合\\製鉄\ul{所}→製鉄所\\五人\ul{目}→人目→\#人目\end{screen}\noindentこれにより以下の例に示すような入力ニュース記事にも例\ref{複合語}の用例文が類似していると判断できる.この例は複合名詞全体が一致していないが複合名詞の主辞「事件」が一致している.\begin{screen}\exp{nolabel02}例\ref{複合語}の用例と似ている入力ニュース記事の例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}衆院選で比例代表近畿ブロックで当選した自民党の野田実議員派の選挙違反\ul{事件}で、公選法違反の罪に問われた同議員の地元事務所職員、仲修平被告の上告審で、最高裁第一小法廷は七日までに、被告側の上告を棄却。(以下省略)\par}\end{screen}上記の方法により,得た内容語群を使用して入力ニュース記事と述語の一致している用例文とを比較する.本論文では述語一致数により優先的に出力する類似用例文を選び,同数の述語一致数の中でも用例文の内容語数に対する入力の内容語一致率が高いものをより優先的に類似用例文として出力する.述語では一致数,内容語では一致率に注目している.この理由は述語を多く含む用例文を選ぶことにより多くの情報を圧縮でき,さらに内容語一致率の高い用例文を選ぶことで後で行う対応付けがしやすい類似用例文を得ることが可能となる.以下,例\ref{例:類似用例出力}に得られた類似用例文の例を示す.\begin{screen}\exp{例:類似用例出力}類似用例文の出力例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}山梨県がまとめた九七年十二月の甲府市消費者物価指数は一〇一・五で前月に比べ〇・三%下落した。冬物衣料やゴルフプレー料が値下がりした。前年同月比では一・二%の上昇。気候要因による値動きが激しい生鮮食品を除いた総合指数は一〇二・三で、前月比では〇・五%下落、前年同月比は一・九%上昇した。前年同月比では、医療保険制度の改革に伴う医療費本人負担の増加で保健医療が一二・四%の上昇。被服・履物、光熱・水道なども上昇した。住居家具・家事用品は家賃の値下げなどで低下した。\par}〈得られた類似用例文(文頭の数字は順位)〉\begin{itemize}\item[(1)]6月の国内企業物価指数は100.5と前月比では0.1%下落、前年同月比3.3%上昇した。\item[(2)]9月の企業向けサービス価格は、前月比0.1%上昇、前年同月比では0.5%下落。\item[(3)]7月の国内企業物価指数は、前月比で0.3%上昇、前年同月比0.7%下落した。\item[(4)]日銀が26日発表した10月の企業向けサービス価格指数は、前月比0.2%上昇、前年同月比では1.2%下落した。\item[(5)]米国のガソリン小売価格が高騰、2月中旬に比べて24%上昇。\end{itemize}\end{screen}
\section{文節の対応付け}
label{章:文節の対応付け}本章では\ref{章:類似用例文の選択}章で得られた類似用例文と入力ニュース記事とを比較し,両者の文節で類似したものを対応付ける方法を述べる.まず対応付けを行う単位である文節を説明する.続いて対応付けに用いた3つの尺度である助詞の一致,固有表現タグの一致,そして単語間類似度を述べる.\subsection{対応付けの単位}\label{節:対応付けの単位}類似用例文と入力ニュース記事の対応付けで用いることができる単位としては,形態素や文節がある.しかし形態素では単位が小さく対応付けられない語が出現しやすい.以下の例を用いて説明する.\begin{screen}\exp{例:形態素対応付け}形態素単位では対応付けられない文の例〈入力ニュース記事1〉{\setlength{\leftskip}{2zw}愛知県半田市などで二十二日から二十七日にかけて、自動販売機から、変造した韓国の\ul{五百ウォン硬貨}が見つかった。(以下省略)\par}〈類似用例文1〉{\setlength{\leftskip}{2zw}東京都千代田区で偽造された\ul{千円札}が見つかる。\par}…………………………………………………………………………………………………………〈入力ニュース記事2〉{\setlength{\leftskip}{2zw}ウィンが十一月十日、\ul{大阪証券取引所第二部}に株式を上場する。(以下省略)\par}〈類似用例文2〉{\setlength{\leftskip}{2zw}幻冬舎は来年1月にも、\ul{ジャスダック市場}に株式を上場する。\par}\end{screen}\noindent例\ref{例:形態素対応付け}における類似用例文の「五/\footnote{`/'は形態素の区切りを表す.}百/ウォン/硬貨/」と入力の「千/円/札/」は類似しており,対応付けの候補となる.しかし「五/百/」という2形態素に対して「千/」は1形態素であるため対応が取れない.また2つ目の例では類似用例文の「ジャスダック/市場/」と「大阪/証券/取引/所/第/二/部/」という部分が類似しているが,2形態素に対して7形態素を対応付けなくてはならず,形態素の単位では対応がとれない.これに対して文節を用いれば「五百ウォン硬貨が」と「千円札が」が,「ジャスダック市場に」と「大阪証券取引所第二部に」が対応付けすることができ,対応付けの難しさは軽減される.そのため提案法では対応付けを行う単位として文節を考慮する.しかし対応付けを行う単位が文節であっても明らかに対応付けが不可能な例が存在する.以下に例を示して説明を行う.\begin{screen}\exp{例:文節対応付けA}文節単位でも対応付けられない文の例〈入力ニュース記事1〉{\setlength{\leftskip}{2zw}\ul{ソニーは}二十五日、有機ELディスプレー技術を開発したと発表。(以下省略)\par}〈類似用例文1〉{\setlength{\leftskip}{2zw}\setnami\uc{米有力総合病院の}\ul{メイヨー・クリニックは}炭疽菌の高性能検出技術を開発し、今秋にも発売を開始する。\par}…………………………………………………………………………………………………………〈入力ニュース記事2〉{\setlength{\leftskip}{2zw}富士商は二十日、平生町に\setnami\uc{\mbox{県内最大規模の書籍販売とAVレンタルの}}\ul{複合店アップルクラブ平生店を}オープンした。(以下省略)\par}〈類似用例文2〉{\setlength{\leftskip}{2zw}JR秋葉原駅前で9日、\setnami\uc{\mbox{地上22階建ての}}\ul{\mbox{複合ビル秋葉原UDXが}}オープン。\par}\end{screen}例\ref{例:文節対応付けA}における用例文の「メイヨー・クリニックは」と入力の「ソニーは」という類似しており,対応付けの候補となる.しかし類似用例文の「米有力病院の」という連体修飾部の文節に対応した文節は入力には存在せず対応が取れない.また2つ目の例における類似用例文「複合ビル秋葉原UDXが」と入力の「複合店アップルクラブ平生店を」という文節は類似している.しかし連体修飾部である「地上|\kern-0.25zw$^{2}$22階建ての|」に対して「県内最大規模の|書籍販売と|AVレンタルの|」という文節は文節数が異なるため対応付けすることができない.このように連体修飾部は被修飾語によって内容や長さが異なる.よって被修飾語が異なる場合はそれに係る連体修飾部を対応付けることが困難である.そのため提案法では連体修飾部が存在する文節に対しては,対応付けの単位としてその連体修飾部と被修飾部を結合した文節を用いた.また連体修飾部は\ref{節:内容語の一致}節と同様の方法で判断している.なお連体修飾部が文の内容の本筋ではないため,文節が対応付けられるか比較する際は被修飾部同士による比較を行う.以下に例\ref{例:文節対応付けB}の2つ目の例を用いて対応付けを行う際に使用する文節を具体的に示す.\begin{screen}\exp{例:文節対応付けB}対応付けに用いる文節の例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}富士商は二十日、平生町に県内最大規模の書籍販売とAVレンタルの複合店アップルクラブ平生店をオープンした。(以下省略)\par}〈入力ニュース記事から作成した文節〉{\setlength{\leftskip}{2zw}富士商は\\二十日、\\平生町に\\県内最大規模の$|$書籍販売と$|$AVレンタルの$|$複合店アップルクラブ平生店を\\オープンした。\par}〈類似用例文〉{\setlength{\leftskip}{2zw}JR秋葉原駅前で9日、地上22階建ての複合ビル秋葉原UDXがオープン。\par}〈類似用例文から作成した文節〉{\setlength{\leftskip}{2zw}JR秋葉原駅前で\\9日、\\地上22階建ての$|$複合ビル秋葉原UDXが\\オープン。\par}\end{screen}\subsection{3つの尺度を用いた文節の対応付け}\label{節:3つの尺度を用いた文節の対応付け}本論文では\ref{節:対応付けの単位}節で説明した文節を対応付けの単位とし,類似用例文の文節に対して類似している入力ニュース記事の文節複数個を対応付ける.なお,対応付けを行う際は文節内に含まれる語をすべて基本形に変更した形で行う.対応付けは助詞の一致,固有表現タグの一致,そして単語間類似度の3つの尺度を用いて行う.提案法では類似用例文の文節1つに対して,類似している入力の文節を全て対応付ける.つまり1文節に対して複数個の対応文節が得られる.この時,3つの尺度を用いても対応文節が見つからない場合は,\ref{章:類似用例文の選択}章の類似用例文の選択で次に内容の似ていると判断された類似用例文を使用して再度対応付けを行う.図\ref{図:対応付け例}を用いて以下にそれぞれの尺度について述べる.\subsubsection{助詞の一致}本論文では類似用例文と入力の文節末尾にある助詞が一致した場合,それらの文節を対応付ける.日本語では助詞をみることで概ね主語や目的語などを判断することができる.そのため助詞が一致した文節は同じような使われ方をしているため,文節の対応付ける尺度の1つとして用いた.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f8.eps}\caption{入力ニュース記事と類似用例文での文節対応例}\label{図:対応付け例}\end{center}\vspace{-1\baselineskip}\end{figure}助詞の一致を測る際には文節が複数の文節で構成されている場合(連体修飾部と被修飾語の文節)は1番末尾の文節,1文節で構成されている場合はその文節から助詞を取り出す.そして入力と類似用例文のその助詞を比較し,一致した場合文節を対応付ける.但し例\ref{例:格助詞相当句}のように複数の助詞が連接して出てくる場合,その助詞は格助詞相当句として連結した形で用いる.\begin{screen}\exp{例:格助詞相当句}格助詞相当句となる助詞の一例〈では〉{\setlength{\leftskip}{2zw}で(助詞--格助詞--一般)、は(助詞--係助詞)として出現→格助詞相当句「では」として連結して用いる\par}〈には〉{\setlength{\leftskip}{2zw}に(助詞--格助詞--一般)、は(助詞--係助詞)として出現→格助詞相当句「には」として連結して用いる\par}\end{screen}係助詞「は」や「も」,格助詞「が」は主語となる文節に対して付与されている助詞である.そのため,この3つの助詞に対しては同一視する.図\ref{図:対応付け例}の類似用例文の文節「NTTが」に対して,入力の文節「東芝は」「同社は」が対応付けられているのはこのためである.また助詞の一致で対応付ける文節は入力と類似用例文の文節で主辞が同じ品詞のグループに属するもののみとした.これは助詞が一致したとしても文節内容が明らかに類似していない場合に対応付けを行わないようにするためである.品詞のグループは各文節末尾の文節内に含まれている主辞の品詞\footnote{品詞の判断にはChaSen\toolref{ツール:chasen}の品詞体系に従っている.}を参照し表\ref{表:品詞グループ}に従う.よって助詞の一致で対応付けられる文節は助詞が一致しており,さらに品詞のグループが同じものである.\begin{table}[b]\caption{品詞のグループ}\label{表:品詞グループ}\input{06table01.txt}\end{table}\subsubsection{固有表現タグの一致}\label{節:固有表現タグの一致}固有表現とは人名,地名,組織名などの固有名詞の他,日付や金額などの数値表現などのまとまりを示す.提案法では構文解析器CaboChaの出力\footnote{構文解析器CaboChaには固有表現タグの付与機能も備わっている.}に従って固有表現タグが一致した文節を対応付ける.この固有表現タグが一致する文節は固有表現のまとまりが同じであることを意味し,類似した文節である.対応付けの際に参照する部分は助詞の一致の場合と同様,複数の文節から構成される文節は末尾の文節,1文節で構成されている文節ならばその文節である.その文節の主辞の固有表現タグが類似用例文と入力で一致した場合に対応付けを行う.CaboChaが持つ固有表現タグは9つである.なお本論文では`DATE'タグと`TIME'タグは同じ時間表現を表しているタグであると判断し,同一視する.また類似用例文の文節に固有表現タグ`DATE'もしくは`TIME'があるにも関わらず,入力の文節にそのようなタグが無かった場合は空情報``$\epsilon$''を入れる.これは`DATE'及び`TIME'タグの表現に限り,空であっても文の内容には大きく関係せず,次のステップである文節の組合せで日本語やその内容としても正しい要約文が作成できると考えたためである.よって空情報``$\epsilon$''があるだけでは\ref{章:類似用例文の選択}章に戻って次に内容の似た類似用例文を選ぶことはしない.図\ref{図:対応付け例}では類似用例文の文節「NTTが」に対して入力の文節「東芝は」が組織名を表す`ORGANIZATION'タグが一致したため対応付けられている.また類似用例文の「今秋にも」と入力の「来年六月に」は日付表現`DATE'タグが一致したため対応付けられたものである.\subsubsection{単語間の類似度}\label{節:単語間の類似度}単語間の類似度では上述の2つの尺度と同様,文節末尾の文節を比較する.提案法では特に文節内の主辞同士の類似に注目して対応付けを行った.対応付けには\ref{節:類似単語データベース}節で説明した類似単語データベースを用いた.類似用例文と入力における文節末尾の文節内の主辞同士を比較し,その2語が類似単語データベースに含まれている場合はその文節を対応付けている.またこの対応付けでも助詞の一致と同様に品詞のグループによる制限を設けた.つまり単語間の類似度では文節内の主辞を比較して類似単語データベースに含まれ,さらに主辞の品詞が表\ref{表:品詞グループ}で同じグループに属するときにそれらの文節を対応付ける.
\section{文節の組合せ}
label{章:文節の組合せ}\ref{章:文節の対応付け}章の文節の対応付けでは,類似用例文の文節1つに対して入力の複数個の文節が対応付けられた.本章ではその得られた対応文節を組み合せることによって要約文を作成する方法を述べる.用例利用型の要約では出力される要約文が類似用例文の文節により似たもので構成され,かつ日本語として連接のよいものが理想である.したがって提案法では要約文を得る操作を類似用例文の文節に対して得られる類似度を最大に,かつ日本語としてできるだけ自然な文節列を取り出す組合せ最適化問題として定式化し,これを動的計画法によって解く.また\ref{章:文節の対応付け}章の対応付けや本章の組合せは全ての語を基本形にして扱っている.そのため提案法では組合せを行うことによって出力された文に対し,規則を用いて類似用例文の形と同じ形になるよう変更した.\subsection{組合せ最適化問題}\label{節:組合せ最適化問題}前章で得られた類似用例文に対する対応文節を組合せて要約文を作成する.組合わせの方法を図\ref{図:組合せ}を用いて説明する.図\ref{図:組合せ}のノード$a_i$は類似用例文の文節$A$に対して\ref{章:文節の対応付け}章で得られた入力の対応文節を指す.また同様にノード$bi$は類似用例文の文節$B$に対して得られた入力の文節である.\ref{章:文節の対応付け}章の対応付けでは類似用例文の文節1つに対して類似していると判断した入力の文節複数個を対応付けているため図\ref{図:組合せ}では$a_i\(i\geqq1)$となる.なお組合せの際には初期状態と最終状態を明確にするため文頭記号$\langle\rm{s}\rangle$と文末$\langle/\rm{s}\rangle$を挿入する.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f9.eps}\caption{対応文節の組合せ図の例}\label{図:組合せ}\end{center}\vspace{-1\baselineskip}\end{figure}ここでノード$n_i$に対してのスコア$N(n_i)$として類似用例文の文節にどれだけ類似しているかを与え,エッジのスコア$E(n_{i-1},n_i)$としてフレーズ間の繋がりの良さを与える.これにより本章の目的である,類似用例文の文節により似たもので構成され,かつ日本語として連接の良い部分文節列を得るためにはこのノードとエッジのスコアの総和を最大にするような経路を求める問題に帰着できる.さらに図\ref{図:組合せ}では文頭から文末に向かう全ての組合せを2次元空間に示したものであり,探索領域は限られている.そのためこの問題は動的計画法で解くことができる.続いて式を用いて具体的にどのような問題を解くのかを考える.経路列$W_p=\{n_0,n_1,n_2,\cdots,n_m\}$\footnote{図\ref{図:組合せ}における太線ならば$W_p=\{\langle{\rms}\rangle,a_3,b_2,c_1,d_2,\langle/{\rms}\rangle\}$を通る経路.}に対し,以下のスコアを最大にするような経路を求める問題を考える.このとき最適経路列$\hatW_p$は以下で与えられる.\begin{equation}\hat{W_p}=W_p\hspace{5mm}{\rms.t.}\hspace{3mm}\argmax_p\mathit{Path}(W_p)\end{equation}またスコア$Path(W_p)$を次式で表す.{\small\begin{equation}\label{scoredp}\mathit{Path}(W_p)=\sum_{i=0}^{m}N(n_i)+\sum_{i=1}^{m}E(n_{i-1},n_i)\end{equation}}$m$は類似用例文の文節の最終番号を表す\footnote{図\ref{図:組合せ}ならば$m=5$である.}.以下にノード重みを定義する.\begin{equation}N(n_i)=\alpha\cdot\mathit{particle}(n_i)+\beta\cdot\mathit{NEtag}(n_i)+\gamma\cdot\mathit{MI}(n_i)\label{nodescore}\end{equation}式\ref{nodescore}の$particle(n_i),NEtag(n_i),MI(n_i)$は以下の式で表される.また$\alpha,\beta,\gamma$は各スコアに対するバランスパラメータである.{\allowdisplaybreaks\begin{align}\mathit{particle}(n_i)&=\begin{cases}1&\text{ノード$n_i$が助詞の一致で対応付けされた場合}\\0&\text{それ以外}\end{cases}\label{particle}\\\mathit{NEtag}(n_i)&=\begin{cases}1&\text{ノード$n_i$が固有表現タグの一致で対応付けされた場合}\\0&\text{それ以外}\end{cases}\label{NEtag}\\\mathit{MI}(n_i)&=\begin{cases}\mathit{sim}(n_i,ph)&\text{ノード$n_i$が単語間の類似度で対応付けされた場合}\\0&\text{それ以外}\end{cases}\label{sim}\end{align}}式(\ref{sim})内の$ph$は類似用例文のある文節を示し,$sim(n_i,ph)$は類似用例文の文節$ph$と\ref{章:文節の対応付け}章で対応付けられた入力の文節との類似度を正規化した数値である.この数値は\ref{節:類似単語データベース}節での類似単語データベースの作成時であらかじめ計算してあるものを使用した.次にエッジ重みを以下に定義する.\begin{equation}E(n_{i-1},n_i)=\begin{cases}\sigma\cdot\frac{1}{loc(n_{i})-loc(n_{i-1})+1}&\text{$\mathit{loc}(n_{i})\geqq\mathit{loc}(n_{i-1})$の場合}\\0&\text{それ以外}\end{cases}\label{edge}\end{equation}エッジスコアは文節間の繋がりの良さを示す.本論文では様々な文の文節を組み合せることにより文を作成するが,1文目→5文目→2文目→10文目の様に1つ1つの文節があまりにも様々な文を跨いで組み合わさるようなものは多くの話題が混在することとなり,連接も悪くなる.そのため式(\ref{edge})では対応付けられた文節が存在する入力の文の位置$\mathit{loc}(n_i)$を考慮した.$\mathit{loc}(n_i)$はノードつまり対応文節$n_i$が入力したニュース記事の何文目に存在しているかという情報である.連接する文節$(n_{i-1},n_i)$がどれだけ離れているかを$\mathit{loc}(\cdot)$の差の絶対値を取ることで測っている.このとき文節が文頭に向かって(4文目→2文目のように)戻る場合は話題が戻ることとなり,連接をより悪くしてしまう可能性があるため,このような場合にはスコア0を与えている.以上の方法により,類似用例文の文節に似ており,さらに日本語の連接としてより正しい文が作成される.しかし提案法の文節の対応付けでは図\ref{図:対応付け例}のように入力中の同じ文節「…ヘリカルCTを」が類似用例文の文節複数「…ネット技術を」,「サービスを」に似ていると判断される場合が存在する.この時文節の組合せを行うと1文中に同じ文節が複数個出現してしまう恐れがある.要約文1文中に全く同じ文節が2回以上出現する文は不自然で冗長である.そのため提案法では,組合せによって得られた文に同じ文節が2つ以上存在した場合,組合せによって得られた全体のスコアが次に高かった組合せ結果を採用する.本論文では複数の組合せ解を効率的に得るために永田の後向き$A^*$アルゴリズム\cite{永田:1999論文}を用いた.\makeatletter\def\footnotemark{}\def\footnotetext{}\makeatother\subsection{用例の形へと合わせる}\label{節:用例の形へ合わせる}対応文節の組合せを最適化問題として解いて得られた文は以下の例に示すように基本形の文節で,さらに句点など入力ニュースで用いられていたそのままの形で表されている.\begin{screen}\exp{例:組合せ結果}対応文節の組合せで得られた組合せの例〈入力ニュース記事〉{\setlength{\leftskip}{2zw}中国地域ニュービジネス協議会は、|\kern-0.25zw$^{2}$財務や営業、技術、マーケティングの分野で助言するシニアアドバイザーを|募集した。|ベンチャー企業から|財務や営業面で弱点補強の要請が|あれば、|アドバイザーとして|派遣する。(以下省略)\par}〈類似用例文〉{\setlength{\leftskip}{2zw}産業再生機構は|リストラ特命隊を|募集し、|カネボウ化粧品へ|派遣。|\par}〈対応文節の組合せ結果〉{\setlength{\leftskip}{2zw}中国地域ニュービジネス協議会は、|財務や営業、技術、マーケティングの分野で助言するシニアアドバイザーを|募集する\footnotemarkた。|ベンチャー企業から|派遣する。|\par}\end{screen}\footnotetext{文節の対応付け,組合せは全て基本形で行ったため,組合せ結果も基本形となっている.}そのため本節では得られた組合せ結果を類似用例文の形に倣い変更する.例\ref{例:組合せ結果}を類似用例文の形へと合わせると以下のような文が得られる.\begin{screen}\exp{nolabel03}例\ref{例:組合せ結果})で得られた組合せ結果を類似用例文の形へと変更中国地域ニュービジネス協議会は、財務や営業、技術、マーケティングの分野で助言するシニアアドバイザーを募集し、ベンチャー企業へ派遣。\end{screen}以下に類似用例文の形へと合わせるための規則を示す.この規則は対応文節末尾の文節に対して行うものである.\begin{enumerate}\item類似用例文の文節が文末の場合\\\ul{対応文節も文末である場合}\\対応する入力の文節も文末で活用語がある場合,それらの語を入力ニュース記事の元の活用へ変更する.\\述べるた。→述べた。\\但し対応文節が「サ変名詞+する」である場合,冗長な表現であるため文末整形も兼ね「する」を削除する.\\派遣する。→派遣。\\\ul{対応文節が文末以外の場合}\\対応する入力の文節が文末以外で活用語がある場合,それらの語は基本形のままにする.この時対応文節の助詞は削除する.\\述べるて、(述べて、)→述べる。\\但し対応する入力の文節が過去形を表す助動詞「た」を含む場合,時制を変えないようにするため,入力ニュース記事の元の活用へ変更する.\\述べるたと、(元の形は「述べたと、」)→述べた。\item類似用例文の文節が文末以外の場合\\\ul{対応文節が文末である場合}\\対応する入力の文節が文末で活用語がある場合,それらの語を類似用例文の文節の活用に合わせる.この時対応文節に類似用例文のフレーズに含まれる助詞を付加する.\\類似用例文の文節:発表して\\述べる。→述べて\\但し対応する入力の文節が過去形を表す助動詞「た」を含み,さらに類似用例文の文節にも「た」を含む場合,時制を変えないようにするため,入力ニュース記事の元の活用へ変更する.この時対応文節に類似用例文の文節に含まれる助詞を付加する.\\類似用例文の文節:発表したと\\述べるた。(元の形は「述べた。」)→述べたと\\\ul{対応文節が文末以外である場合}\\対応する入力の文節も文末以外で活用語がある場合,それらの語を類似用例文の文節の活用に合わせる.この時対応文節に類似用例文の文節に含まれる助詞を付加する.\\類似用例文の文節:発表して\\述べる、(元の形は「述べ、」)→述べて\\但し対応する入力の文節が過去形を表す助動詞「た」を含み,さらに類似用例文の文節にも「た」を含む場合,時制を変えないようにするため,入力ニュース記事の元の活用へ変更する.この時対応文節に類似用例文の文節に含まれる助詞を付加する.\\類似用例文の文節:発表したと\\述べるたと(元の形は「述べたと」)→述べたと\end{enumerate}なお文節内の連体修飾部の文節に対しては例\ref{例:連体修飾部の活用}に示すように全て入力ニュース記事の元の活用へと変更した.\begin{screen}\exp{例:連体修飾部の活用}連体修飾部に対する変更の処理〈入力ニュース記事〉小泉首相は、|\ul{○○を事前に公表した}\footnotemarkことを|受け、|…。|(以下省略)〈類似用例文〉政府は、|××したものを|…。|〈対応文節の組合せ結果〉小泉首相は、|\ul{○○を事前に公表}\setnami\uc{する}\ul{た}ことを|…。|〈連体修飾部は活用を元の記事に合わせる〉小泉首相は、|\ul{○○を事前に公表}\setnami\uc{し}\ul{た}ことを|…。|\end{screen}\footnotetext{下線部は文節内の連体修飾部を示す.}これらの規則により組合せで得られた文を類似用例文の形へと合わせた.
\section{実験}
label{章:評価実験及び考察}\subsection{実験条件}評価実験の際に用いるデータや設定するパラメータについて述べる.また提案法と同じく複数文を要約するシステムである従来研究を比較対象として説明する.\subsubsection{使用するデータ}\label{節:使用するデータ}この節では実験で使用する用例データベース,パラメータの調整,テストに用いたデータについて述べる.\noindent\ul{用例データベース}用例データベース内の用例には日経ニュースメールNikkei-goo\toolref{言語資源:nikkei-goo}から配信されているニュースの要約文を用いた.このニュース要約文は人手で作成されているものであり\footnote{用例データベースについては\ref{節:用例として用いる言語資源}節の用例として用いる言語資源でも述べている.},1999年12月から2007年12月までに収集した27036件を用いた.1文あたりの平均形態素数は23.1形態素,平均文節数は6.6文節である.\noindent\ul{パラメータ調整用のデータ}従来手法,提案法のシステムにおけるパラメータを調整するためのデータとして,日本経済新聞1999年のデータ121件を用いた.またこの新聞データの日付やタイトル情報を利用し,用例データベースと同じ形式である日経ニュースメールNikkei-goo\toolref{言語資源:nikkei-goo}の中から記事タイトルと日付情報が一致したものを正解データとして利用した.このパラメータ調整用のデータは入力ニュース記事1件に対して,正解要約文1件が1対1で存在する.1記事当たりの平均文数は10.6文であり,1文当たりの平均形態素数は30.6形態素,平均文節数は9.6文節である.\noindent\ul{テストデータ}日本経済新聞1998年のデータ200件を用いた.このデータはパラメータ調整用のデータとは異なり,オープンテストである.この200件のうち100件は1記事あたりの文数が3文以下で比較的短いものである.また他の100件は1記事あたりの文数が4文以上10文以下の長めの記事である.テストデータの詳細は表\ref{表:テストデータ詳細}に示す.\begin{table}[b]\caption{テストデータの詳細}\label{表:テストデータ詳細}\input{06table02.txt}\end{table}なおテストデータ200件には3人が独立で作成した正解データ(人手で作成した要約文)が存在する.つまりこのデータは入力ニュース記事1件に対して,正解要約文3件が1対3で存在する.要約文の自動評価ではこれら複数の正解データを使用して\ref{節:自動評価}節に示すBLEUとROUGEにて評価を行う.\subsubsection{パラメータの調整}\label{節:パラメータの調整}提案法で使用するパラメータの調整方法について述べる.調整するパラメータは文節の組合せ時のノードとエッジのバランスを取るためのものであり,式(\ref{nodescore})と式(\ref{edge})の$\alpha,\beta,\gamma,\sigma$である.このパラメータの調整には\ref{節:使用するデータ}節のパラメータ調整用のデータを用いた.ここで対応文節の組合せを行うには,まず類似用例文を獲得し,文節の対応付けをしなくてはならない.本論文では類似用例文の検索精度によらずパラメータを調整するため,正解データを類似用例文として使用した.そして提案法により文節の対応付けを行い,パラメータを適宜変動させることで組合せを行った.パラメータは式(\ref{nodescore})と式(\ref{edge})の$\alpha,\beta,\gamma,\sigma$をそれぞれ0.1刻みで変動を行った.調整用のデータ121件で出力された要約文と正解データでのBLEU値の合計が最も高かったパラメータをテストで用いる.このBLEU値は要約や翻訳で用いられている自動評価手法であり,\ref{節:自動評価}節で詳細を述べる.調整したパラメータを表\ref{表:提案法パラメータ}に示す.\begin{table}[t]\caption{提案法のパラメータ最適値}\label{表:提案法パラメータ}\input{06table03.txt}\end{table}\subsubsection{従来手法}\label{節:比較手法}提案法と同じく複数文の語を使用して1文に要約するHori~\cite{hori:2002th}の手法を従来手法として挙げる.この手法は複数文要約を複数の入力文中に含まれる単語列から部分単語列を抽出する問題として定式化することによって1文の要約文を作成している.またこの要約手法は要約率を自由に設定することができる.そこで本論文では従来手法が出力する要約文の形態素数と提案法が出力する要約文と形態素数を同じに設定して比較実験を行う.\subsection{評価方法}\label{節:評価方法}本論文ではシステムが出力した要約文を評価するために2つの評価方法を用いた.まず自動要約の分野でよく用いられている自動評価方法,もう1つは出力した要約文を人手で評価する方法である.\subsubsection{自動評価}\label{節:自動評価}本論文ではBLEUスコア\shortcite{BLEU}とROUGEスコア\cite{ROUGE}を用いて自動評価を行う.これらは入力に対してあらかじめ作成した正解要約文とシステムが出力した要約文を比較し,正解にどれだけ近い文が得られたか評価することによってシステムの優劣を測るものである.\noindent\ul{\mbox{BLEUスコア}}BLEUスコアは1~gramから4~gramまでの適合率の重み付き和で以下の式で定義され,複数の正解文にも対応した評価尺度である.\begin{align}{\rmBLEU}({\rmsys},{\bfref})&=\mathit{BP}\cdot{\rmexp}\left(\sum_{n=1}^{4}\frac{1}{n}\logp_n\right)\label{bleu1}\\p_n&=\frac{\sum^{M_n}_{j=1}\min(s^n_j,\max_{k=1,\dots,L}r_{jk}^n)}{\sum^{M_n}_{j=1}s^n_j}\label{bleu2}\end{align}式(\ref{bleu2})の$s_j^n$はシステムが出力した要約文に含まれる$j$番目の$n$gramの出現数を表す($j=1,...,M_n;\n=1,...,4$).また$r_{jk}^n$はその$j$番目の$n$gramが$k$番目の正解要約文に出現する数である($k=1,...,L$).このとき$L$は正解要約文の数である.よって\ref{節:パラメータの調整}節のパラメータの調整時は正解要約文が1つであるため$L=1$,テスト時には正解要約文が3つ存在するため$L=3$となる.またこの評価式は適合率であるため,システムが出力した文が正解文に対してあまりにも短いと評価を不当に上げてしまう恐れがある.そのためペナルティ($BP$)が導入されている.しかし,要約文の評価では短い出力文である方が高圧縮であり一般的に良いとされ,この$BP$は課さない場合が多い.そのため本論文でも同様に$BP=1$として評価を行う.\noindent\ul{\mbox{ROUGEスコア}}ROUGEスコアは正解要約文とシステムが出力した要約文を比較して$N$gram再現率を算出することにより正解文にどの程度近いかを評価することができる.以下にROUGEスコアの式を示す.\begin{equation}{\rmROUGE-}N({\rmsys,ref_\mathit{k}})=\frac{\sum^{M_N}_{j=1}\min(s^N_j,r_{jk}^N)}{\sum^{M_N}_{j=1}r^N_{jk}}\label{rouge}\end{equation}式(\ref{rouge})の分母は正解要約文に含まれる$N$gram総数であり,分子はシステムと正解要約文で一致した$N$gramの総数である.Lin~\cite{ROUGE}によると1~gram再現率または2~gram再現率を測ったときに人手の評価と相関の高い結果が得られたとしている.つまりROUGE-1またはROUGE-2の場合である.そのため本論文でもこのROUGEスコア(ROUGE-1及びROUGE-2)を用いて自動評価を行う.なお\ref{節:使用するデータ}節で示したようにテストデータには1件の入力ニュース記事に対して3つの正解要約文が存在する.そのためROUGE尺度による評価実験では入力ニュース記事1件に対して,システムが出力した要約文と正解要約文それぞれとでROUGE-1及びROUGE-2を算出し,最も高い値が得られたものを評価値として採用する.\subsubsection{人手による評価}\label{節:人手による評価}人手による評価では,評価者3人が提案法と従来手法それぞれが出力した要約文を可読性と内容の適切性の2点について評価を行った.\noindent\ul{可読性の評価}可読性の評価では評価者3人が独立にシステムが出力した要約文のみを読み,表\ref{表:可読性の評価}の指標に基づいて4段階評価を行った.この評価ではシステムが作成した要約文が日本語として読み易いかを評価するものであり,値が小さいほど可読性は良い.\noindentまた評価者に与えた教示は以下の通りである.\begin{screen}システムが出力した要約文を読み,表\ref{表:可読性の評価}に基づいて,評価値を付与しなさい.また,以下に示す例のように述語(「逮捕」及び「述べた」)はどちらも「ガ,デ,ヲ格」を取るが,例2の文は明らかに日本語として不適切な表現(述べた)があるため,4文節中1文節を変更しなくてはならない.そのため例2の場合は評価2となる.例1)新潟県警が/○○疑惑で/××容疑者を/\ul{逮捕。}/例2)新潟県警が/○○疑惑で/××容疑者を/\ul{述べた。}/\end{screen}\noindent\ul{内容の適切性評価}内容の適切性評価では可読性の評価を行った同じ評価者3人が入力のニュース記事とシステムが出力した要約文を読んで,表\ref{表:内容の適切性評価}の指標に基づいて内容の適切性評価を行った.この評価値は小さい方が内容の適切性は良い.\begin{table}[b]\caption{要約文の可読性評価の指標}\label{表:可読性の評価}\input{06table04.txt}\end{table}\begin{table}[b]\caption{要約文の内容の適切性評価の指標}\label{表:内容の適切性評価}\input{06table05.txt}\end{table}また評価者に与えた教示は以下の通りである.\begin{screen}システムが出力した要約文を読む前に,システムに入力した記事のみを読んで,自分が要約文に必要だと考える内容を考えなさい.その後,自分が考えた内容とシステムが出力した要約文を比較して,表\ref{表:内容の適切性評価}に基づいて,評価値を付与しなさい.\end{screen}
\section{結果及び考察}
label{章:結果及び考察}\subsection{実験結果}\label{節:実験結果}\subsubsection{自動評価による結果}\label{節:自動評価による結果}\noindent\ul{\mbox{BLEUスコアによる結果}}表\ref{表:BLEU結果}に自動評価尺度BLEUにて評価を行った結果を示す.\begin{table}[b]\caption{自動評価尺度BLEUによる評価結果}\label{表:BLEU結果}\input{06table06.txt}\end{table}表\ref{表:BLEU結果}より本手法は1--3文の入力データの場合も,4--10文の入力データの場合も従来手法よりも良好な結果が得られていることが分かる.次に4--10文のデータを入力した場合と1--3文のデータを入力した場合を比較してBLEU値の低下率を以下の式により算出した.\begin{equation}\rmBLEU値低下率=1-\frac{4文から10文の入力データで得られたBLEU値}{1文から3文の入力データで得られたBLEU値}\end{equation}上式によりBLEU値の低下率を算出したところ,従来手法の低下率は56\%であり,一方本手法は29\%であった.長い記事を入力として1文の要約を作成する場合,必然的に削除率が高くなりタスクとしては困難である.しかし上述の精度低下率をみると,本手法は長い記事を入力した場合でも短い記事を入力したときの精度とそれ程変わらずに1文の要約文を作成できることが分かる.\noindent\ul{\mbox{ROUGEスコアによる結果}}続いて表\ref{表:ROUGE-1結果}と表\ref{表:ROUGE-2結果}にて自動評価尺度ROUGEにて評価を行った結果を示す.本論文ではROUGE-1及びROUGE-2を使用して評価を行った.まず表\ref{表:ROUGE-1結果}にROUGE-1における評価結果を示す.表\ref{表:ROUGE-1結果}より,1文から3文のデータを入力した場合,本手法が出力した要約文は正解文と比較して1~gram再現率が0.631で従来手法の0.462を大きく上回っていることが分かる.また4文から10文のデータを入力した場合でも本手法の方が優位である結果が得られた.続いて表\ref{表:ROUGE-2結果}にROUGE-2における評価結果を示す.\begin{table}[t]\caption{自動評価尺度ROUGE-1による評価結果}\label{表:ROUGE-1結果}\input{06table07.txt}\end{table}\begin{table}[t]\caption{自動評価尺度ROUGE-2による評価結果}\label{表:ROUGE-2結果}\input{06table08.txt}\end{table}表\ref{表:ROUGE-2結果}でもROUGE-1の結果同様に,従来手法の結果に比べて本手法の方が良好である結果が得られた.また長めの記事データを入力した場合,従来手法における100件中の最大ROUGE-2値は0.667に留まっているが,本手法の方はROUGE-2の最大値1を獲得していることも表から分かる.\subsubsection{人手による評価の結果}\label{節:人手による評価の結果}人手による評価では被験者3人がシステムが出力した要約文と従来手法であるHori~\cite{hori:2002th}手法が出力した要約文の評価を行った.評価尺度等は\ref{節:人手による評価}節に示した通り,可読性の評価(4段階評価)と内容適切性の評価(4段階評価)の2点である.\vspace{1\baselineskip}\noindent\ul{可読性の評価結果}表\ref{表:人手可読性}と表\ref{表:人手可読性2}に1文から3文から構成されるデータを入力した場合の要約文を評価者が可読性評価した結果を示す.可読性の評価は1--4の4段階で1が良好であり,4が不良である.表\ref{表:人手可読性}は従来手法が出力した要約文を評価した結果であり,表\ref{表:人手可読性2}は本手法の結果を表している.\setlength{\tabcolsep}{0.5zw}\setlength{\captionwidth}{200pt}\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の可読性評価(1文から3文の入力データ時)}\label{表:人手可読性}\input{06table09.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{本手法の要約文の可読性評価(1文から3文の入力時)}\label{表:人手可読性2}\input{06table10.txt}\end{minipage}\end{table}続いて表\ref{表:人手可読性3}と表\ref{表:人手可読性4}に4文から10文から構成されるデータを入力した場合の要約文を評価者が可読性評価した結果を示す.表\ref{表:人手可読性3}は従来手法の結果であり,表\ref{表:人手可読性4}は本手法の結果である.表\ref{表:人手可読性}から表\ref{表:人手可読性4}の結果より,本手法の可読性評価の平均値はどの評価者においても従来手法に比べて優位である結果が得られたことが分かる.また1--3文から構成されているデータを入力とした場合と4--10文のデータを入力した場合で結果を比較すると,本手法は従来手法に比べ評価者全員を通して評価値の低下があまり見られなかった.そのためデータを入力しても本手法は可読性が保たれると考えることができる.\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の可読性評価(4文から10文の入力時)}\label{表:人手可読性3}\input{06table11.txt}\end{minipage}\hfill\begin{minipage}{200pt}\caption{本手法の要約文の可読性評価(4文から10文の入力時)}\label{表:人手可読性4}\input{06table12.txt}\end{minipage}\end{table}\setlength{\tabcolsep}{1zw}\begin{table}[b]\caption{評価者の人数と入力データに含まれる評価値1(良好)の件数}\label{表:人手可読性5}\input{06table13.txt}\end{table}続いて表\ref{表:人手可読性5}において,評価者3人全員が良好である評価値1を付与したのが入力データ中にどの程度存在するか,また評価者2人以上が評価値1を付与したのがどの程度存在するか調査した結果を示す.表\ref{表:人手可読性5}より本手法において,評価者3人が共に評価値1を付与した入力データの件数は1--3文の入力データだと52件,4--10文の入力データだと53件という結果が得られた.またいずれの場合も本手法は従来手法の結果よりも優位な結果が得られたことが分かる.評価者の過半数が最も良好である評価値1を付与したものを正解とすると本手法の正解率は1--3文の入力データだと84\%,4--10文の入力データだと79\%である.\vspace{1\baselineskip}\noindent\ul{内容適切性の評価結果}表\ref{表:人手内容適切性}と表\ref{表:人手内容適切性2}に1文から3文から構成されるデータを入力した場合の要約文を評価者が内容適切性を評価した結果を示す.内容適切性の評価は1--4の4段階で1が良好であり,4が不良である.表\ref{表:人手内容適切性}は従来手法が出力した要約文を評価した結果であり,表\ref{表:人手内容適切性2}は本手法の結果を表している.\setlength{\tabcolsep}{0.5zw}\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の内容適切性の評価(1文から3文の入力時)}\label{表:人手内容適切性}\input{06table14.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{本手法の要約文の内容適切性の評価(1文から3文の入力時)}\label{表:人手内容適切性2}\input{06table15.txt}\end{minipage}\end{table}\noindentここで評価値1は評価者が考えた要約文の内容とシステムが出力した要約文を比較して内容がほとんど一致するという評価であり,評価値2は評価者が考える要約文と50\%以上75\%未満で内容が一致する評価である.表\ref{表:人手内容適切性2}をみると,1文から3文の短いデータを入力した場合,本手法の評価の平均値はいずれの評価者においても評価値2前後であり,人間が作成する要約文の内容に半分以上は一致することが分かる.続いて表\ref{表:人手内容適切性3}と表\ref{表:人手内容適切性4}に4文から10文から構成されるデータを入力した場合の要約文を評価者が内容適切性を評価した結果を示す.表\ref{表:人手内容適切性3}は従来手法の結果であり,表\ref{表:人手内容適切性4}は本手法の結果である.\begin{table}[b]\begin{minipage}{200pt}\hangcaption{従来手法の要約文の内容適切性の評価(4文から10文の入力時)}\label{表:人手内容適切性3}\input{06table16.txt}\end{minipage}\hfill\begin{minipage}{200pt}\hangcaption{本手法の要約文の内容適切性の評価(4文から10文の入力時)}\label{表:人手内容適切性4}\input{06table17.txt}\end{minipage}\end{table}表\ref{表:人手内容適切性}から表\ref{表:人手内容適切性4}の結果よりどの評価者を見ても従来手法より本手法の方が平均値が低い,つまり評価が高かったことが分かる.続いて表\ref{表:人手内容適切性5}において,評価者3人全員が良好である評価値1を付与したのが入力データ中にどの程度存在するか,また評価者2人以上が評価値1を付与したのがどの程度存在するか調査した結果を示す.\setlength{\tabcolsep}{1zw}\begin{table}[t]\caption{評価者の人数と入力データに含まれる評価値1(良好)の件数}\label{表:人手内容適切性5}\input{06table18.txt}\end{table}表\ref{表:人手内容適切性5}より本手法において,評価者3人が共に評価値1を付与した入力データの件数は1文から3文の入力データだと26件,4文から10文の入力データだと21件という結果が得られた.またいずれの場合も本手法は従来手法の結果よりも優位な結果が得られたことが分かる.評価者の過半数が最も良好である評価値1を付与したものを正解とすると本手法の正解率は1文から3文で構成される短めの入力データ,4文から10文で構成される長めのデータ共に43\%を獲得できたこととなる.また内容の適切性を十分に満足するような要約文を得るタスクは従来手法の結果である表\ref{表:人手内容適切性}や表\ref{表:人手内容適切性3}を見ても分かるように難しいタスクであることが分かる.しかし表\ref{表:人手内容適切性2}や表\ref{表:人手内容適切性4}をみると,評価者の多くは評価値1と評価値2の合計が50\%を超えている.そのため,正解率が43\%であると言っても不正解である57\%の多くは評価値1に近いことが言える.\subsubsection{実験結果のまとめ}\label{節:実験結果のまとめ}自動評価尺度であるBLEUやROUGE-$N$,また人手による可読性評価,内容適切性評価のいずれにおいても従来手法より優位な結果が得られた.また結果より,短めの記事を入力した場合と長めの記事を入力した場合で,比較対象と精度を比べると本手法の精度はほとんど変化しなかったことが分かった.そのため,長い記事を入力とした場合でも良好な結果が得られる.\subsection{要約文が含んでいる情報の量}\label{章:要約文が含んでいる情報の量}本論文では入力を1記事として,それを1文に要約する手法を述べた.また目的の1つとして複数の文を1文に圧縮することを挙げた.そのため本手法で出力した要約文が何文の情報を含んでいるのか調査した.これには入力した記事と本手法が出力した要約文の形態素で比較することにより調査を行った.表\ref{表:情報量1}に1文から3文で構成されているデータを入力したときの結果を示す.表\ref{表:情報量1}より,出力した要約文の60\%は2文以上の文を圧縮したものであるという結果が得られた.続いて,4文から10文で構成される長い記事を入力したときに得られた要約文が何文を圧縮したものなのかを調査した.この結果を表\ref{表:情報量2}に示す.\begin{table}[t]\begin{minipage}[t]{200pt}\hangcaption{1文から3文のデータを入力したときに得られた要約文の圧縮文数}\label{表:情報量1}\input{06table19.txt}\end{minipage}\hfill\begin{minipage}[t]{200pt}\hangcaption{4文から10文のデータを入力したときに得られた要約文の圧縮文数}\label{表:情報量2}\input{06table20.txt}\end{minipage}\end{table}表\ref{表:情報量2}より2文以上を圧縮した要約文は100件中80件であることが分かる.これらの結果より,本論文で目的としていた複数の文を1文に圧縮した要約文が作成できたことが分かる.\subsection{用例の収集時期の影響}\label{章:}本実験では1999年から2007年までに収集した用例を最大限使用し,さらにオープンテストを行うため,入力するテストデータとしては1998年の記事を使用した.本節では用例と入力の時間的関係が精度にどの程度の影響を与えるかについて,以下のような調査を行った.収集した用例データベースを1999年から2007年で時系列に沿って10分割し,1998年のテストデータを用いてそれぞれのデータに対して類似用例文の獲得,文節の対応付け,対応文節の組合せを行った.そして対応文節の組合せ時における動的計画法のスコアを比較する.この動的計画法のスコアは入力した記事と獲得された類似用例文がどれ程似ているのかを表している.この結果を図\ref{図:用例データベースと動的計画法のスコアの関係}に示す.図\ref{図:用例データベースと動的計画法のスコアの関係}の結果を見ると用例データベースの収集時期によらず結果がほぼ同一であることが分かる.つまりテストデータとして用いた1998年の記事と近い時期の用例データベースを用いた場合でも,また離れた時期である2007年の用例データベースを用いても結果に変化はない.よって用例データベースの収集時期に関わらず,要約文の作成が可能である.\subsection{用例数と精度との関係}\label{章:用例数を変更}類似用例文を検索する先の用例データベースに含まれる用例文数を変更したときの要約文の精度を調査した.用例文数を変更するときは無作為で用例文を設定した件数になるまで獲得している.また要約文の評価は自動評価尺度であるROUGE-1及びROUGE-2を用いている.この調査結果を図\ref{図:DB大きさと精度}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f10.eps}\caption{用例データベースの収集時期と動的計画法のスコアの関係}\label{図:用例データベースと動的計画法のスコアの関係}\end{center}\end{figure}図\ref{図:DB大きさと精度}の横軸は対数表示になっている.また図中の直線は対数近似を行った結果である.用例文の数が1000件に満たない場合は,ランダムで選んできた用例文の種類によって大きく精度が変わってしまうため,これによってROUGE-$N$スコアが大きく変化している.近似した回帰グラフを見ると右上がりのグラフが作成されている.また用例数を増加させることによっていずれ精度は飽和することが考えられるが,現在約27000件の用例文を用いている現段階では精度が飽和していない.よって今後,用例文を増加させることによって更なる精度向上が期待できる.\subsection{誤った要約文に対する考察}\label{節:誤った文に対する考察}誤った要約文について例を挙げて示す.\begin{figure}[t]\begin{center}\includegraphics{15-3ia6f11.eps}\caption{用例データベースの規模と要約精度}\label{図:DB大きさと精度}\end{center}\end{figure}\begin{screen}\exp{例:例1}誤って出力した要約文の例〈入力記事〉{\setlength{\leftskip}{2zw}米石油大手のコノコは二十九日、従業員九百七十五人を\setnami\uc{削減し、}十--十二月期に五千万ドルの特別損失を\ul{計上すると}発表した。九九年の投資額も石油探査・開発関連を中心に約五億ドル減らし、九八年比で二一%少ない十八億ドル規模にする。\par}〈類似用例文〉米AOLは9日、従業員の7%に相当する1300人を削減すると発表〈出力結果〉米石油大手のコノコは二十九日、従業員九百七十五人を\ul{計上すると}発表\end{screen}例\ref{例:例1}における出力結果では下線の部分が不自然であり,可読性が良くない.文節の対応付けの際には類似用例文の文節「削減すると」に対して,助詞の一致で「計上すると」が対応付けられ,さらに単語間類似度による対応付けで「削除し、」と「計上すると」が対応付けられた.本手法の対応文節の組合せでは助詞の一致と固有表現タグの一致,単語間類似度の信頼度を重み付き和で表している.このため助詞の一致,単語間類似度で共に対応付けが行われた「計上すると」という文節の方が優位であると判断された.このように組合せを行う際に求めた唯一の解ではこのような例が存在するため,N-best解を出力することや複数の類似用例文を使用して複数個の要約文を作成,そして最終的に可読性の良さを連接確率などで測って要約文を選定することによってこの問題は解決できるのではないかと考える.\begin{screen}\exp{例:例3}誤って出力した要約文の例〈入力記事〉{\setlength{\leftskip}{2zw}ハンバーガー大手のロッテリアは一月四日から十四日まで、\setnami\uc{全店で骨なしフライドチキンチキンテンダーを}\setniju\uc{半額で}販売する。通常二百四十円の五個入りを百二十円で、十個入りを二百四十円で販売する。サイドメニューの人気商品の半額キャンペーンで、ハンバーガー類とのセット購入を促して客単価のアップを狙う。\par}〈類似用例文〉イトーヨーカ堂は24日から5日間限定で8200円の紳士・婦人スーツを販売。〈出力結果〉ハンバーガー大手のロッテリアは一月四日から全店で\ul{十個入りを}販売。\end{screen}例\ref{例:例3}では類似用例文の「8200円の紳士・婦人スーツを」に対応する文節として「十個入りを」という文節を対応付けている.本手法では連体修飾部を連結させて,対応付けを行う時には被修飾部のみを参照することで類似した文節の対応付けを行っている.この例では連体修飾部の「8200円の」という部分がその文の最も言いたいことであるが,出力結果にはそのような表現は一切現れていない.本手法では文節単位で対応付けを行い,連体修飾部の内容は比較していないためこのような要約文を作ってしまった.文節を用いたのは形態素単位での対応付けでは対応が取れない例が多く見られたためであるが,逆に文節単位ではこのような連体修飾部の対応付けまでができない.よって今後の展望として形態素で対応付けする場合と,そうではなく文節で対応付けを行う場合どちらも使用して要約文を作成することが挙げられる.\begin{screen}\exp{例:例4}誤って出力した要約文の例〈入力記事〉\par太平工業第一回無担保債一億二百万円。二百万円の利益。〈類似用例文〉\par米穀物大手ADMの10--12月は純利益が20%増の4億4100万ドル。〈出力結果〉\par二百万円の利益が太平工業第一回無担保債一億二百万円。\end{screen}この例では入力記事にもともと助詞があまり存在しない.そのため助詞に一致による文節の対応付けは行われなかった.また入力記事の1文目は連体修飾部を連結した場合,1つのまとまりであると判断された.そのため類似用例文の「純利益が」という文節に対して入力記事の2文目「利益」が対応付けられ,さらに類似用例文の文節「$\cdots$ドル」に対して1文目の「$\cdots$円」が対応付けられた.これらを理由に対応付けが行われたため,出力結果をみると可読性も内容適切性も悪い結果となったと考えられる.
\section{結論}
重要度の設定を必要とせず,さらに複数文の情報を圧縮した要約文を作成することを目標とした要約手法を提案した.この要約手法は文書を入力として受け取り,その文書内の複数の文から文節を抽出,また組み合わせることで複数文の情報を含む要約文を作成する.ここで,単に文節を抽出して組み合わせるだけでは,日本語として正しくかつ適切な内容を含む要約文を作ることはできない.これに対して,本論文では過去に人間が作成した要約文(要約事例)を用例文として用い,その用例文を模倣して文節を抽出,組み合わせることで,日本語として連接が良く,さらに適切な内容を含む要約文の作成を可能にした.評価実験ではBLEU,ROUGE-Nによる自動評価と人手による評価の2つから評価を行い,また従来法の1つを比較手法として取り上げた.評価結果では自動評価,人手による評価結果ともに,従来手法に比べ本手法の方が良好な結果が得られたことが分かった.さらに2つの評価方法各々の結果からも本手法の有効性が確認できた.\def\labelenumi{}\section*{使用したツール及び言語資源}\begin{enumerate}\def\newblock{}\item\label{ツール:cabocha}構文解析器{CaboCha},{Ver}.0.53,\newblock奈良先端科学技術大学院大学松本研究室,\\\newblockhttp://chasen.org/\~{}taku/software/cabocha/\item\label{ツール:chasen}形態素解析器{ChaSen},{Ver}.2.3.3,\newblock奈良先端科学技術大学院大学松本研究室,\\\newblockhttp://chasen.naist.jp/hiki/ChaSen\item\label{言語資源:nikkei-goo}日経ニュースメール,NIKKEI-goo,\\\newblockhttp://nikkeimail.goo.ne.jp/\item\label{言語資源:日経}日本経済新聞全記事データベース1990--2004年度版,\newblock日本経済新聞社\end{enumerate}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{{DaumeIII}\BBA\Marcu}{{DaumeIII}\BBA\Marcu}{2002}]{Daume:2002}{DaumeIII},H.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQANoisy-ChannelModelforDocumentCompression\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\449--456}.\bibitem[\protect\BCAY{Hori}{Hori}{2002}]{hori:2002th}Hori,C.\BBOP2002\BBCP.\newblock{\BemAStudyonStatisticalMethodsforAutomaticSpeechSummarization}.\newblockPh.D.\thesis,TokyoInstituteofTechnology.\bibitem[\protect\BCAY{Hori,Furui,Malkin,Yu,\BBA\Waibel}{Horiet~al.}{2003}]{Hori:2003}Hori,C.,Furui,S.,Malkin,R.,Yu,H.,\BBA\Waibel,A.\BBOP2003\BBCP.\newblock\BBOQAStatisticalApproachtoAutomaticSpeechSummarization\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf2},\mbox{\BPGS\128--139}.\bibitem[\protect\BCAY{Imamura}{Imamura}{2004}]{imamura:2004}Imamura,K.\BBOP2004\BBCP.\newblock{\BemAutomaticConstructionofTranslationKnowledgeforCorpus-basedMachineTranslation}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{Jing}{Jing}{2000}]{Jing:2000}Jing,H.\BBOP2000\BBCP.\newblock\BBOQSentenceReductionforAutomaticTextSummarization\BBCQ\\newblockIn{\BemProceedingsofThe6thConferenceonAppliedNaturalLanguageProcessing},\mbox{\BPGS\310--315}.\bibitem[\protect\BCAY{Knight\BBA\Marcu}{Knight\BBA\Marcu}{2002}]{Knight:2002}Knight,K.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQSummarizationBeyondSentenceExtraction:AProbabilisticApproachtoSentenceCompression\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf139}(1),\mbox{\BPGS\91--107}.\bibitem[\protect\BCAY{Kurohashi,Nakazawa,Alexis,\BBA\Kawahara}{Kurohashiet~al.}{2005}]{Kurohashi:2005}Kurohashi,S.,Nakazawa,T.,Alexis,K.,\BBA\Kawahara,D.\BBOP2005\BBCP.\newblock\BBOQExample-basedMachineTranslationPursuingFullyStructuralNLP\BBCQ\\newblockIn{\BemProceedingsofInternationalWorkshoponSpokenLanguageTranslation2005(IWSLT2005)},\mbox{\BPGS\207--212}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{ROUGE}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQLookingforaGoodMetrics:ROUGEanditsEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe4thNTCIRWorkshops},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{Lin:1998}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticRetrievalandClusteringofSimilarWords\BBCQ\\newblockIn{\BemThe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics(COLING-ACL)},\mbox{\BPGS\768--774}.\bibitem[\protect\BCAY{Nagao}{Nagao}{1984}]{Nagao:1984}Nagao,M.\BBOP1984\BBCP.\newblock\BBOQAFrameworkforaMechanicalTranslationbetweenJapaneseandEnglishbyAnalogyPrinciple\BBCQ\\newblockIn{\BemArtificialandHumanIntelligence},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{永田:1999論文}永田昌明\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルとN-best探索を用いた日本語形態素解析法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{Nguyen,Horiguchi,Shimazu,\BBA\Bao}{Nguyenet~al.}{2004}]{Le:2004}Nguyen,M.~L.,Horiguchi,S.,Shimazu,A.,\BBA\Bao,H.\BBOP2004\BBCP.\newblock\BBOQExample-basedSentenceReductionUsingHiddenMarkovModel\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing},{\Bbf3}(2),\mbox{\BPGS\146--158}.\bibitem[\protect\BCAY{小黒\JBA尾関\JBA張\JBA高木}{小黒\Jetal}{2001}]{oguro:1991論文}小黒玲\JBA尾関和彦\JBA張玉潔\JBA高木一幸\BBOP2001\BBCP.\newblock\JBOQ文節重要度と係り受け整合度に基づく日本語文簡約アルゴリズム\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(3),\mbox{\BPGS\3--18}.\bibitem[\protect\BCAY{大竹}{大竹}{2003}]{大竹清敬:2003NLP}大竹清敬\BBOP2003\BBCP.\newblock\JBOQ用例に基づく換言:中日旅行会話翻訳への適用\JBCQ\\newblock\Jem{言語処理学会年次大会発表論文集},\mbox{\BPGS\345--348}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{BLEU}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'02)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Sato}{Sato}{1995}]{Sato:1995}Sato,S.\BBOP1995\BBCP.\newblock\BBOQMBT2:AMethodforCombiningFragmentsofExamplesinExample-basedTranslation\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf75}(1),\mbox{\BPGS\31--49}.\bibitem[\protect\BCAY{佐藤\JBA長尾}{佐藤\JBA長尾}{1989}]{佐藤理史:1989NL}佐藤理史\JBA長尾真\BBOP1989\BBCP.\newblock\JBOQ実例に基づいた翻訳\JBCQ\\newblock\Jem{情報処理学会研究報告},{\BbfNL70-9},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{寺村}{寺村}{1993}]{寺村}寺村秀夫\BBOP1993\BBCP.\newblock\Jem{日本語のシンタクスと意味I,第1章}.\newblockくろしお出版.\bibitem[\protect\BCAY{Vandeghinste\BBA\{KimSang}}{Vandeghinste\BBA\{KimSang}}{2004}]{Vandeghinste:2004}Vandeghinste,V.\BBACOMMA\\BBA\{KimSang},E.~T.\BBOP2004\BBCP.\newblock\BBOQUsingaParallelTranscript/SubtitleCorpusforSentenceCompression\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\231--234}.\bibitem[\protect\BCAY{Witbrock\BBA\Mittal}{Witbrock\BBA\Mittal}{1999}]{Witbrock:1999}Witbrock,M.\BBACOMMA\\BBA\Mittal,V.\BBOP1999\BBCP.\newblock\BBOQUltra-Summarization:AStatisticalApproachtoGeneratingHighlyCondensedNon-ExtractiveSummaries\BBCQ\\newblockIn{\BemProceedingsofResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\315--316}.\end{thebibliography}\section*{付録出力された要約文の例}\vspace{-0.5\baselineskip}以下に本手法で得られた要約文の出力例を示す.\newenvironment{InL}{}{}\small\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}三十日午後二時十分ごろ、剣淵町の国道40号で、旭川市東旭川町下兵村二二八、農業南部正さんの乗用車と、旭川市流通団地二条二ノ四三、運転手原政運さんのトラックが正面衝突した。乗用車の四人のうち、南部さんと妻の喜美子さん、士別市東山町三〇二、無職池沢一郎さんの三人が頭を打つなどして死亡、旭川市東旭川北一条四ノ一ノ二八、無職真岩高子さんも左足の骨を折る重傷を負った。原さんにけがはなかった。\end{InL}\noindent{\bf類似用例文}\begin{InL}イラク中部で28日深夜、油送管が爆発し74人が死亡。\end{InL}\noindent{\bf出力した要約文}\begin{InL}剣淵町の国道40号で三十日午後二時十分ごろ、旭川市流通団地二条二ノ四三、運転手原政運さんのトラックが正面衝突し南部さんと妻の喜美子さん、士別市東山町三〇二、無職池沢一郎さんの三人が死亡\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}衛星携帯電話イリジウムの日本法人、日本イリジウムは一月一日から衛星携帯電話の本サービスを開始する。これまでは各国での通話品質の向上を待つため、試験サービスとして実施していた。一月以降は携帯電話利用で月額五十ドル、ポケットベルの併用で月額八十ドルの基本料を徴収する。\end{InL}\noindent{\bf類似用例文}\begin{InL}イランは、次期国会議員選挙を08年3月14日に実施。\end{InL}\noindent{\bf出力した要約文}\begin{InL}衛星携帯電話イリジウムの日本法人、日本イリジウムは、衛星携帯電話の本サービスを一月一日に開始\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}大阪府警柏原署は二十九日、親子げんかの末に父親を殴って死なせたとして、柏原市内の中学三年生の少年を傷害致死の疑いで逮捕した。調べによると、少年は二十八日午後十時五十分ごろ、自宅で会社員の父親に日ごろの生活態度を注意されたことから口論となり、取っ組み合いの末に父親の胸を強く殴り死亡させた疑い。父親は殴られた直後にめまいがすると言って両手をけいれんさせたため、家族が一一九番通報、病院に運ばれたが、二十九日朝、胸部打撲による大動脈の裂傷が原因で死亡した。\end{InL}\noindent{\bf類似用例文}\begin{InL}警視庁は14日、元藍沢証券社員を業務上横領の疑いで逮捕した。\end{InL}\noindent{\bf出力した要約文}\begin{InL}大阪府警柏原署は二十九日、柏原市内の中学三年生の少年を傷害致死の疑いで逮捕\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}九九年三月に大阪商工会議所の次期会頭に就任する田代和副会頭は二十八日、鳥井信一郎・サントリー社長に副会頭への就任を要請した。田代氏の昇格で空席となる分をまず決める狙い。残りの六副会頭のうち半数程度が十一月の改選期に入れ替わると見られており、鳥井氏も同時に就任する可能性が高い。\end{InL}\noindent{\bf類似用例文}\begin{InL}米GMは著名投資家カーコリアン氏側近のジェリー・ヨーク氏に社外取締役就任を要請へ。\end{InL}\noindent{\bf出力した要約文}\begin{InL}九九年三月に大阪商工会議所の次期会頭に就任する田代和副会頭は鳥井信一郎・サントリー社長に副会頭への就任を要請\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}栃木県がまとめた十月の県鉱工業生産指数は九三・三で前月比〇・九%、前年同月比八・四%それぞれ低下した。業種別では金属製品、鉄鋼、精密機械などが低下し、木材、化学工業などは上昇した。\end{InL}\noindent{\bf類似用例文}\begin{InL}ゴールデンウイーク期間中の格安国際航空券の価格が上昇、前年比1--7割高に。\end{InL}\noindent{\bf出力した要約文}\begin{InL}栃木県がまとめた十月の県鉱工業生産指数が低下、前月比〇・九%に\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}北海道中小企業家同友会旭川支部は一月五日、旭川市内のホテルで合同就職説明会を開催する。同友会加盟企業十五社が参加、Uターン就職希望者や大学、短大などの卒業予定者を対象に直接面談する。入退場自由で無料。\end{InL}\noindent{\bf類似用例文}\begin{InL}自民党は16日、都内のホテルで党大会を開催。\end{InL}\noindent{\bf出力した要約文}\begin{InL}北海道中小企業家同友会旭川支部は一月五日、旭川市内のホテルで合同就職説明会を開催\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}日本トランスオーシャン航空は来年四月、客室乗務員の制服を十一年ぶりに一新する。新しい制服は濃紺のジャケットに赤、青、グリーンの三種類のブラウスなど、オーソドックスな色合いとデザインで落ち着いた雰囲気を演出。帽子や胸章などを廃止して、従来の制服より約三〇%コストを削減した。\end{InL}\noindent{\bf類似用例文}\begin{InL}仏エールフランス航空は5日から、客室乗務員などの制服を18年ぶりに一新する。\end{InL}\noindent{\bf出力した要約文}\begin{InL}日本トランスオーシャン航空は来年四月から、客室乗務員の制服を十一年ぶりに一新\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}\noindent{\bf入力記事}\begin{InL}宮崎銀行は二十八日、住宅金融公庫の住宅ローン返済問題の相談コーナーを本店営業部内に設置した。政府が住宅公庫ローン返済者に対する救済策を打ち出したため、専門的にアドバイスする統括相談員を配置した。設置は来年三月末まで。\end{InL}\noindent{\bf類似用例文}\begin{InL}政府は7月にもバイオテクノロジー戦略会議を設置する。\end{InL}\noindent{\bf出力した要約文}\begin{InL}政府は二十八日にも住宅金融公庫の住宅ローン返済問題の相談コーナーを設置\end{InL}\vspace{0.5\baselineskip}\hrule\vspace{0.5\baselineskip}なお,最後の例では要約結果が「宮崎銀行は...」とはならず,「政府は...」と出力された.これは,類似用例文の「政府は」に対して,入力記事1文目の「宮崎銀行は」よりも入力記事2文目の「政府が」のほうが,内容語と助詞の類似性の点からより類似していると判断されたためである.\normalsize\begin{biography}\bioauthor{山本和英}{1996年3月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),主観表現処理(評判,意見,感情)などに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.e-mail:[email protected]}\bioauthor{牧野恵}{2006年3月長岡技術科学大学電気電子情報工学課程卒業.2008年3月同大学大学院工学研究科修士課程電気電子情報工学専攻修了.修士(工学).在学中は自動要約の研究に従事.言語処理学会学生会員.e-mail:[email protected]}\end{biography}\biodate\end{document}
| |
V10N05-04
|
\section{はじめに}
\label{sec:intro}1980年代に市販され始めた機械翻訳システムはその後改良が重ねられ,システムの翻訳品質は確実に向上してきている.しかし,現状のシステムには解決すべき課題が数多く残されており,高品質の翻訳が可能なシステムは未だ実現されていない.翻訳品質を高めるためにシステムを評価改良していく方法としては,(1)システムの新バージョンによる訳文と旧バージョンによる訳文との比較や,異なるシステム間での比較によって行なう方法\cite{Niessen00,Darwin01}と,(2)システムによる訳文と人間による訳文を比較することによって行なう方法\cite{Sugaya01,Papineni02}がある.前者の方法では,システムによる翻訳(以降,MT訳と呼ぶ)と人間による翻訳(人間訳)を比較することによって初めて明らかになる課題が見逃されてしまう恐れがある.これに対して,後者の方法では,MT訳と人間訳の間にどのような違いがあるのかを発見し,その違いを埋めていくために取り組むべき課題を明らかにすることができる.このように,MT訳と人間訳の比較によるシステムの評価改良は有用な方法である.しかしながら,MT訳と人間訳の違いを明らかにするために両者の比較分析を計量的に行なった研究は,従来あまり見られない.ところで,人間によって書かれた文章間の比較分析は,文体論研究の分野において以前から行なわれてきている\cite{Yamaguchi79}.文体論研究の目的は,比較対象の文章の個別的あるいは類型的特徴を明らかにすることにある.文体論研究は,文章に対する直観的な印象を重視する立場と,文章が持つ客観的なデータ(文長や品詞比率など)を主に扱う計量的立場\cite{Hatano65}に分けることができる.また,別の観点からは,言語表現の特徴を作家の性格や世界観に結び付けて扱う心理学的文体論と,言語表現の特徴を記述するに留める語学的文体論\cite{Kabashima63}に分けられる.計量的・語学的文体論に分類される研究のうち,同一情報源に基づく内容を伝える文章を比較対象とした研究として,文献\cite{Horikawa79,Hasumi91}などがある.堀川は,四コマ漫画の内容を説明する文章を童話作家,小説家,学者に書いてもらい,それらの違いを分析している.蓮見は,古典の源氏物語を複数の翻訳者が現代語に翻訳した文章において,文数,文長,品詞比率などを比較分析している.本研究では,英日機械翻訳システムの翻訳品質の向上を目指し,その第一歩として,英文ニュース記事に対する人間訳とMT訳を比較し,それらの違いを計量的に分析する.人間訳とMT訳の違いは多岐にわたるため様々な観点から分析を行なう必要があるが,本稿では,英文一文に対する訳文の数,訳文の長さ,文節レベルの現象について量的な傾向を明らかにする.なお,特にMT訳には誤訳の問題があるが,本研究は,訳文の意味内容ではなく訳文の表現形式について分析するものである.すなわち,翻訳の評価尺度として忠実度と理解容易性\cite{Nagao85}を考えた場合,後者について,MT訳の分かりにくさ,不自然さの原因がどこにあるのかを人間訳とMT訳を比較することによって明らかにしていくことが本研究の目的である.以下,\ref{sec:method}\,節で人間訳とMT訳の比較分析方法について述べ,\ref{sec:result}\,節で分析結果を示し,考察を加える.最後に\ref{sec:conc}\,節で今回の比較分析で明らかになった点をまとめる.
\section{調査方法}
\label{sec:method}\subsection{調査対象とした標本}\label{sec:method:corpus}コーパスとしてBilingualNetNews\footnote{http://www.bnn-japan.com/}の英文ニュース記事を使用し,2001年5月26日から2002年1月15日までの記事を構成する英文5592文を母集団とした.これらの英文にはあらかじめ人間訳が与えられている.この母集団から乱数によって500文を単純無作為抽出した.この500文を市販されている代表的な機械翻訳システムの一つで翻訳し,入力文全体を覆う構文構造が得られなかった文と,一文の認識に失敗した文\footnote{例えば,`BushbacksthemorecomprehensivebansponsoredbyRep.DavidWeldon(R)ofFlorida.'という文は,`Rep.'のところで一つの文が完結し,`David'のところから新たな文が始まると認識されてしまう.},合わせて24文を除いた476文を標本とした.これらの英文476文の文長の平均値は,11.5であり,標準偏差は6.2であった.文長の計測は,冠詞や前置詞などの機能語と,ピリオドや引用符などの記号を除き,内容語の数で行なった.また,訳文の数を地の文の句点の数で数えた場合,英文476文に対する訳文数は,人間訳では559文であり,MT訳では519文であった.\subsection{形態素解析と文節解析}\label{sec:method:parse}人間訳とMT訳の各文に対して,形態素解析と文節解析を行なった.これらの処理には,形態素解析システム茶筅\footnote{http://chasen.aist-nara.ac.jp/chasen/}と係り受け解析システム南瓜\footnote{http://cl.aist-nara.ac.jp/\symbol{126}taku-ku/software/cabocha/}をデフォルトの状態で利用した.\subsection{解析結果の変更}\label{sec:method:modify}茶筅と南瓜による解析結果に対して,必要な変更を人手で加えた.品詞タグ付け誤りの修正以外の主な変更点は次の通りである.なお,変更前の文節区切りを記号`$|$'で,変更後の文節区切りを記号`/'で表わす.また,茶筅での品詞タグを二重引用符で括って示す.\begin{enumerate}\item``未知語''は名詞に変更する.\item南瓜による解析では``名詞-非自立''が自立語として扱われている場合がある(「難色を$|$示した$|$ため」など)が,これを付属語とみなす(「難色を/示したため」).\item「する」,「できる」が``名詞-サ変接続''と結合しているとき,全体をサ変動詞とする.\item「だ」,「である」,「です」が``名詞-形容動詞語幹''と結合しているとき,全体を形容動詞とする.\item「だ」,「である」,「です」が``名詞-形容動詞語幹''以外の名詞と結合して述語を構成しているとき,これらを判定詞とする.\item「に$|$よる」,「に$|$基づく」などは,原則として,全体を助詞とみなす.\item``記号''は,原則として,``接頭詞''または付属語と同様に扱う.\end{enumerate}\subsection{調査分析項目}\label{sec:method:items-checked}まず,概略的な調査として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数について人間訳とMT訳を比較する.これらの調査は,人間訳とMT訳の複雑さに違いがあるかを明らかにするためのものである.次に,体言と用言の分布に人間訳とMT訳で違いがあるかを調査する.この調査の目的は,名詞を中心として展開していく英語の構造が人間訳とMT訳でそれぞれどのように訳されているかを明らかにすることにある.なお,本稿では,動詞,形容詞,形容動詞の他に判定詞も用言とみなす.さらに,動詞,名詞,代名詞について若干詳細な比較分析を行なう.これらの品詞に着目したのは,動詞と名詞(代名詞)は,出現比率が高く,これらを適切に処理することが特に重要な課題になっているからである.
\section{結果と考察}
\label{sec:result}\subsection{英文一文に対する訳文数}\label{sec:result:num-of-sent}自然な翻訳では,英文一文が訳文一文に対応しているとは限らず,複数の文に分けて訳されることも少なくない.そこで,まず,人間訳とMT訳それぞれにおいて訳文数が$n$文である英文の数を$n$毎に集計した.その結果を表\ref{tab:ej-sent-num}\,に示す.表\ref{tab:ej-sent-num}\,において,上段が頻度,下段が比率である.\begin{table}[htbp]\caption{訳文数が$n$文である英文の数}\label{tab:ej-sent-num}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline$n$&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{2}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{4}\\\hline\hline&403&64&8&1\\\raisebox{1.5ex}[0pt]{人間訳}&84.7\,\%&13.4\,\%&1.7\,\%&0.2\,\%\\\hline&433&43&0&0\\\raisebox{1.5ex}[0pt]{MT訳}&91.0\,\%&9.0\,\%&0.0\,\%&0.0\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-num}\,を見ると,人間訳では英文一文が三文以上に分けて訳されていることもあるのに対して,MT訳では高々二文にしか分割されていない\footnote{MT訳での文の分割は,機械翻訳システムが正常に動作した結果である.\ref{sec:method:corpus}\,節で述べたように,入力文全体を覆う構文構造が得られないために分割された文は標本に含まれていない.}.また,MT訳では,英文一文が二文に訳されることは比較的少なく,一文に訳されることが多い.人間訳とMT訳における訳文数の分布の差は,有意水準5\,\%で統計的に有意である.これらのことから,MT訳には,人間訳に比べて,複数の文に分割されにくい傾向があると言える.表\ref{tab:ej-sent-num}\,から,英文一文に対する訳文数の分布に人間訳とMT訳とで差があることが分かったが,さらに詳細な分析を行なうために,人間訳での訳文数$n\,(n=1,2,3,4)$とMT訳での訳文数$m\,(m=1,2)$との対応関係を調査した.その結果を表\ref{tab:ej-sent-num-hum-mt}\,に示す.\begin{table}[htbp]\caption{人間訳とMT訳の訳文数の対応}\label{tab:ej-sent-num-hum-mt}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hlineMT訳($m$)$\backslash$人間訳($n$)&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{2}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{4}\\\hline\hline&371&55&7&0\\\raisebox{1.5ex}[0pt]{1}&77.9\,\%&11.6\,\%&1.5\,\%&0.0\,\%\\\hline&32&9&1&1\\\raisebox{1.5ex}[0pt]{2}&6.7\,\%&1.9\,\%&0.2\,\%&0.2\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-num-hum-mt}\,によれば,全体的な傾向として,人間訳とMT訳とで訳文数が等しい場合が380件(79.8\,\%)あり,人間訳とMT訳とで訳文数が異なる場合が96件(20.2\,\%)ある.表\ref{tab:ej-sent-num-hum-mt}\,では,英文一文が人間訳では一文に訳されているのに対してMT訳では二文に分けて訳されている場合が32件ある.この32件について,英文のどのような表現のところで分割されているかを調べた.その結果を表\ref{tab:ej-sent-div-mt}\,に示す.\begin{table}[htbp]\caption{MT訳のみでの訳文分割箇所}\label{tab:ej-sent-div-mt}\begin{center}\begin{tabular}{|l|r@{}r|}\hline\multicolumn{1}{|c|}{分割箇所}&\multicolumn{2}{c|}{頻度}\\\hline\hline従属接続詞(名詞節)&14&(43.8\,\%)\\等位接続詞&9&(28.1\,\%)\\従属接続詞(副詞節)&6&(18.8\,\%)\\現在分詞&1&(3.1\,\%)\\関係副詞&1&(3.1\,\%)\\コロン&1&(3.1\,\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-div-mt}\,を見ると,分割が生じる表現のほとんどは,名詞節を導く従属接続詞(`that'など),等位接続詞(`and'など),副詞節を導く従属接続詞(`because'など)で占められている.なお,名詞節を導く従属接続詞の集計には,従属接続詞が省略されている場合も含めている.逆に,英文一文が人間訳では二文に分けて訳されているのに対してMT訳では一文に訳されている55件について,英文のどのような表現のところで分割されているかを調べた結果を表\ref{tab:ej-sent-div-hum}\,に示す.\begin{table}[htbp]\caption{人間訳のみでの訳文分割箇所}\label{tab:ej-sent-div-hum}\begin{center}\begin{tabular}{|l|r@{}r|}\hline\multicolumn{1}{|c|}{分割箇所}&\multicolumn{2}{c|}{頻度}\\\hline\hline関係代名詞&14&(25.5\,\%)\\前置詞&10&(18.2\,\%)\\等位接続詞&7&(12.7\,\%)\\従属接続詞(副詞節)&7&(12.7\,\%)\\現在分詞&6&(10.9\,\%)\\従属接続詞(名詞節)&4&(7.3\,\%)\\to不定詞&2&(3.6\,\%)\\関係副詞&2&(3.6\,\%)\\その他&3&(5.5\,\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:ej-sent-div-hum}\,を見ると,MT訳に見られない分割箇所として関係代名詞や前置詞が目立つ.次の文(H\ref{SENT:ej-sent-div-rel})のように,文を関係代名詞のところで二分割し,それらの間を同一名詞の繰り返しによってつなぐ手法は,よく知られている英日翻訳技法の一つである\cite{Anzai82,Kondo92,Kamei94}.なお,本稿では,英文,人間訳,MT訳をそれぞれ(E\ref{SENT:ej-sent-div-rel}),(H\ref{SENT:ej-sent-div-rel}),(M\ref{SENT:ej-sent-div-rel})のように参照する.英文と人間訳はすべてBilingualNetNewsからの引用である.記事の掲載年月日を英文の後ろに示す.\begin{SENT2}\sentEHouseandSenatenegotiatorsquicklybeganhammeringoutafinalcompromise,{\itwhich}RepublicanshopedtopresentforBush'ssignatureassoonastoday.[2001年5月26日]\sentH下院と上院の交渉者たちはすぐに最終的な{\bf妥協案}を成立させることにとりかかった.共和党は今日にも{\bf妥協案}をまとめて提出しブッシュの署名を得たいと望んでいる.\sentM下院,そして,上院交渉者は,迅速に最終の妥協(共和党員がブッシュのサインのために今日と同じくらいすぐに提示することを望んだ)を打ち出し始めた.\label{SENT:ej-sent-div-rel}\end{SENT2}表\ref{tab:ej-sent-div-hum}\,は,このような手法が調査対象のシステムに取り入れられていないことを示している.関係節を伴う名詞句を機械翻訳システムにおいて適切に処理するための自動前編集手法が文献\cite{KatoTerumasa97,Saraki01}などで報告されていたり,今回の調査に用いたシステムとは異なる別の市販システムでは関係代名詞が先行詞に置き換えられることがあったりするが,人間が行なう関係節の翻訳は,柔軟性に富み,かつ,様々な工夫がなされているため,関係節に関する翻訳規則をより高度化していく必要がある.人間訳では,前置詞のところで文を単に分割するだけでなく,自然な翻訳になるように工夫が施されている.その一つは,前置詞句が一つの完全な文になるように翻訳されている点である\cite{Nakamura82}.例えば次の文(H\ref{SENT:ej-sent-div-prep})では,「のものである」が補われている.また別の工夫として,二つの文を滑らかにつなぐために,「これは」という照応表現が補われている.\begin{SENT2}\sentEInanepictennismatch,PeteSamprasedgedAndreAgassitoreachtheUSOpensemi-finals{\itafter}adramaticconfrontationinwhichneitherlegendlostaservicegame.[2001年9月8日]\sentH叙事詩のようにすごいテニスの戦いで,ピート・サンプラスはアンドレ・アガシに競り勝ち,全米オープン準決勝に進んだ.{\bfこれは,}どちらの伝説的選手もサービスゲームを落とさないという,劇的な対決の末{\bfのものである}.\sentM叙事詩のテニスの試合において,ピート・サンプラスは,劇的な直面(伝説のいずれもサービスゲームに負けなかった)の後で全米オープン準決勝に達するために,アンドレ・アガシを研いだ.\label{SENT:ej-sent-div-prep}\end{SENT2}\subsection{訳文の長さ}\label{sec:result:sent-len}文の長さは,文章の類型設定に関する心理学的研究\cite{Hatano65}や,文章の難易度の測定\cite{Morioka88},手書き文章とワープロ書き文章の比較分析\cite{Jim93}など様々な研究において,比較尺度として用いられている.本節では,文長を,訳文の複雑さを近似的に測るための尺度の一つとして用いる.日本語の文の長さを測る単位としては,文字,単語,文節などが考えられるが,ここでは文節数(自立語数)を計測単位とする.人間訳とMT訳それぞれにおける文長の度数分布表を表\ref{tab:sent-length-hum}\,と表\ref{tab:sent-length-mt}\,に示す.表\ref{tab:sent-length-hum}\,と表\ref{tab:sent-length-mt}\,の累積比率を比べると,人間訳では文長14までの文が全体の85.8\,\%を占めるのに対して,MT訳では73.8\,\%しかないことなどから,人間訳よりMT訳のほうが長い文が多いと言える.Wilcoxonの順位和検定の結果,人間訳とMT訳の文長の分布の間には有意水準5\,\%で有意差が認められた.\begin{table}[htbp]\caption{人間訳における文長の分布}\label{tab:sent-length-hum}\begin{center}\begin{tabular}{|r||r|r|r|r|}\hline\multicolumn{1}{|c||}{文長}&\multicolumn{1}{c|}{度数}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{累積度数}&\multicolumn{1}{c|}{累積比率}\\\hline\hline1〜2&47&8.4\,\%&47&8.4\,\%\\3〜4&65&11.6\,\%&112&20.0\,\%\\5〜6&62&11.1\,\%&174&31.1\,\%\\7〜8&89&15.9\,\%&263&47.0\,\%\\9〜10&82&14.7\,\%&345&61.7\,\%\\11〜12&81&14.5\,\%&426&76.2\,\%\\13〜14&57&10.2\,\%&483&86.4\,\%\\15〜16&31&5.6\,\%&514&92.0\,\%\\17〜18&22&3.9\,\%&536&95.9\,\%\\19〜20&12&2.2\,\%&548&98.1\,\%\\21〜22&3&0.5\,\%&551&98.6\,\%\\23〜24&3&0.5\,\%&554&99.1\,\%\\25〜26&4&0.7\,\%&558&99.8\,\%\\27〜28&1&0.2\,\%&559&100.0\,\%\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{MT訳における文長の分布}\label{tab:sent-length-mt}\begin{center}\begin{tabular}{|r||r|r|r|r|}\hline\multicolumn{1}{|c||}{文長}&\multicolumn{1}{c|}{度数}&\multicolumn{1}{c|}{比率}&\multicolumn{1}{c|}{累積度数}&\multicolumn{1}{c|}{累積比率}\\\hline\hline1〜2&47&9.0\,\%&47&9.0\,\%\\3〜4&56&10.8\,\%&103&19.8\,\%\\5〜6&60&11.5\,\%&163&31.3\,\%\\7〜8&57&11.0\,\%&220&42.3\,\%\\9〜10&46&8.9\,\%&266&51.2\,\%\\11〜12&68&13.1\,\%&334&64.3\,\%\\13〜14&51&9.8\,\%&385&74.1\,\%\\15〜16&50&9.6\,\%&435&83.7\,\%\\17〜18&32&6.2\,\%&467&89.9\,\%\\19〜20&27&5.2\,\%&494&95.1\,\%\\21〜22&11&2.1\,\%&505&97.2\,\%\\23〜24&4&0.8\,\%&509&98.0\,\%\\25〜26&6&1.2\,\%&515&99.2\,\%\\27〜28&4&0.8\,\%&519&100.0\,\%\\\hline\end{tabular}\end{center}\end{table}文長の平均値は人間訳で9.25,MT訳で10.42,標準偏差は人間訳で4.94,MT訳で5.95と,平均値,標準偏差ともMT訳のほうが若干大きい.MT訳での文長の最頻値は階級では11〜12であるが,観測値では2である.MT訳での最頻値が2となるのは,次の文(M\ref{SENT:ej-sent-div-say})のように,伝達文の主節だけを独立した文として訳している場合が多いためである.\begin{SENT2}\sentEHastertsaidbothsidesaretryingtostrikeacompromise.[2001年7月28日]\sentHハスタートは,両党とも妥協を試みていると語っている.\sentMHastertは言った.両側は,妥協を打とうとしていると.\label{SENT:ej-sent-div-say}\end{SENT2}\subsection{連体修飾節の数}\label{sec:result:rentai}文の長さは文の複雑さを測る尺度の一つとなりえるが,それだけでは十分な近似ではない.例えば次の二つの文は文長(文節数)は等しいが,文構造としては連体修飾節を含む文(J\ref{SENT:renyo-rentai}')のほうが複雑である\footnote{連体修飾節は,複雑な文を簡単な文に書き換える際の書き換え対象候補の一つとなっている\cite{Nogami00}が,これは,連体修飾節を含む文(J\ref{SENT:renyo-rentai}')のような文が複雑になる傾向があるからであろう.}.\begin{JSENT}\sentJシングテルは政府所有の会社で,経営を世界規模に広げて業界大手になることを目指している.\sentJJシングテルは,経営を世界規模に広げて業界大手になることを目指している政府所有の会社である.\label{SENT:renyo-rentai}\end{JSENT}文(J\ref{SENT:renyo-rentai})のような文のほうが読み手の負担が軽いことに関して文献\cite{Yanabu79}では次のように述べられている.\begin{quote}読者は,動詞が現れたところで,だいじな意味を語ることばが分り,思考の流れはひと区切りつくのである.ひと区切りついた部分は一応前ヘ預けておいて,その先へ読み進んで行ける.文は,全体としては長いが,読者の頭脳には,この文の長さは決して過重な負担とはならないのである.\end{quote}意味的に一区切りつけることができるのは,用言(動詞,形容詞,形容動詞,判定詞)の連用形が現れるところである.文(J\ref{SENT:renyo-rentai})の場合,判定詞「だ」の連用形「で」のところで意味的なまとまりを認識することができる.これに対して,文(J\ref{SENT:renyo-rentai}')における「目指している」のように用言の連体形が現れるところでは,意味的な区切りをつけることができない.そこで,人間訳とMT訳とで用言の連用形と連体形の分布に差があるかどうかを調べた.茶筅の活用形の分類では,終止形と連体形が区別されず,これらの代わりに``基本形''という一つのタグが与えられている.このため,``基本形''を含む文節において次の三つの条件のうちいずれかが成り立つ場合に,``基本形''を連体形とみなし,それ以外の場合には終止形とみなすことにした.\begin{enumerate}\item\label{enum:katsuyo:matsubi}``基本形''が文節末尾の形態素である.\item\label{enum:katsuyo:keishiki}``基本形''に``名詞-非自立''が後続する.\item\label{enum:katsuyo:toten}``基本形''に``記号-読点''が後続し,その``記号-読点''が文節末尾の形態素である.\end{enumerate}表\ref{tab:yogen-katsuyo}\,に集計結果を示す.連用形と連体形の分布に差があるかどうかを$\chi^2$検定したところ,有意水準5\,\%で差があると認められた.\begin{table}[htbp]\caption{用言の連用形と連体形の分布}\label{tab:yogen-katsuyo}\begin{center}\begin{tabular}{|c||r|r|}\hline活用形&\multicolumn{1}{|c}{連用形}&\multicolumn{1}{|c|}{連体形}\\\hline\hline&190&576\\\raisebox{1.5ex}[0pt]{人間訳}&24.8\,\%&75.2\,\%\\\hline&146&626\\\raisebox{1.5ex}[0pt]{MT訳}&18.9\,\%&81.1\,\%\\\hline\end{tabular}\end{center}\end{table}連用形は人間訳でより多く,連体形はMT訳でより多く出現する.このことから,MT訳のほうが人間訳よりも複雑な文構造をした文が多い可能性が示唆される.連体形の数が,長く複雑な連体修飾節の数に直接結びつくわけではないが,ある程度の傾向を知ることはできる.より正確な傾向を把握するためには,文中において係り先が未だ決まっていない文節数を数える\cite{Murata99}などの構文的なレベルでの検証が必要である.\subsection{体言と用言の分布}\label{sec:result:pos-ratio}英語は名詞を中心として展開していく構造であるのに対して,日本語は用言を中心として展開していく構造である\cite{Yanabu79}.従って,人間による自然な翻訳では,英語の名詞中心の構造は,日本語の用言中心の構造に変換されていると考えられる.他方,英語の名詞的表現を日本語の動詞的表現に変換することは現状の機械翻訳システムでは容易ではなく,一般的な方法は実現されていない\footnote{この問題に取り組んだ研究として,文献\cite{Yoshimi01b}などがある.}.このため,体言の出現比率はMT訳のほうが高くなると予想される.この点を確認するために,体言(代名詞を含む名詞)と用言(動詞,形容詞,形容動詞,判定詞)の分布を求めた.その結果を表\ref{tab:pos-total}\,に示す.表\ref{tab:pos-total}\,を見ると,体言の比率はMT訳のほうが若干高いが,統計的には人間訳とMT訳で体言と用言の分布に有意差は認められない(有意水準5\,\%).\begin{table}[htbp]\caption{体言と用言の分布}\label{tab:pos-total}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{1}{|c}{体言}&\multicolumn{1}{|c|}{用言}\\\hline\hline&3441&1238\\\raisebox{1.5ex}[0pt]{人間訳}&73.5\,\%&26.5\,\%\\\hline&3513&1191\\\raisebox{1.5ex}[0pt]{MT訳}&74.7\,\%&25.3\,\%\\\hline\end{tabular}\end{center}\end{table}以下,\ref{sec:result:verb}\,節と\ref{sec:result:noun}\,節で動詞と名詞についてそれぞれ分析する.\subsection{動詞に関する分析}\label{sec:result:verb}\begin{table}[htbp]\caption{出現頻度5以上の動詞の一覧}\label{tab:hifreq-verb}\begin{center}\begin{tabular}{|r|p{0.35\textwidth}||r|p{0.35\textwidth}|}\hline\multicolumn{2}{|c||}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline\multicolumn{1}{|c}{頻度}&\multicolumn{1}{|c||}{訳語(基本形)}&\multicolumn{1}{c}{頻度}&\multicolumn{1}{|c|}{訳語(基本形)}\\\hline74&なる*&51&言う(*)\\55&する*&34&する*\\38&ある*&18&ある*\\32&述べる*&15&発表する*\\24&発表する*&13&持つ*\\20&行う*&12&示す*,なる*\\13&受ける&&\\11&いる*,語る&11&拒絶する\\10&求める*,見る*,開く&10&獲得する,望む\\9&考える*&9&先導する,与える*,使う,考える*\\8&主張する,持つ*,出す&8&予測する,見る*,述べる*,行う*,分かる,思う*\\7&非難する,起きる,示す*&7&報告する,カットする,増加する*,もたらす,求める*\\6&かける,みる,いう(*),得る,向ける&6&独立する,告発する,確認する,提案する,置く,できる,戻る,含む*,殺す,いる*\\5&開始する,死亡する,殺害する,警告する,調査する,拒否する,減少する,予定する,実現する,増加する*,行なう(*),含む*,支払う,思う*,なす,出る,認める,報じる,与える*&5&保持する,宣告する,所有する,サポートする,支持する,提供する,終える,会う,告げる\\\hline\end{tabular}\end{center}\end{table}出現頻度が5以上の動詞の基本形の一覧を表\ref{tab:hifreq-verb}\,に示す.記号`*'が付いている語は,人間訳でもMT訳でも頻度5以上で出現するものである.また,例えば「言う」と「いう」のように記号`(*)'が付いている語は,それらを異綴りとみなせば,人間訳でもMT訳でも頻度5以上で出現する語である.表\ref{tab:hifreq-verb}\,から次のような特徴が読み取れる.\begin{enumerate}\item\label{enumerate:suru-naru}「なる」は人間訳にもMT訳にも現れるが,出現頻度が人間訳では74と高いのに対して,MT訳では12と比較的低い.\item\label{enumerate:say}「言う」の出現頻度がMT訳では51と高いのに対して,人間訳では6と低い.\item\label{enumerate:func-verb}人間訳では,「行(な)う」,「受ける」,「出す」,「かける」などの機能動詞\cite{Muraki91}が多い.\end{enumerate}\subsubsection{「する」的表現と「なる」的表現}よく知られているように,英語では行為者が対象に能動的に働きかけるという捉え方がされる傾向が強いのに対して,日本語では物事が自然にある状態になるという表現が好まれる\cite{Ikegami81,Anzai83}.上記の特徴(\ref{enumerate:suru-naru})は,このような英語と日本語の言語的慣習の違いに現状の機械翻訳システムが対処できていないことを示唆している.例えば,次の文(H\ref{SENT:suru-naru})では,「法律によって政府は$\cdots$提出できるようになる」という表現がなされている.これに対して,文(M\ref{SENT:suru-naru})では,英語表現と同様に,行為者「規則」が対象「政府」に働きかけるという表現になっている.\begin{SENT2}\sentERulesforsuchacourtalsogivethegovernmentafreerhandtointroduceevidence.[2001年11月16日]\sentHさらに,このような裁判所で適応される法律によって,政府は,証拠をより自由に提出できるようになる.\sentM同じくそのような法廷のための規則は,証拠を提出するために,政府に更に自由な援助を行う.\label{SENT:suru-naru}\end{SENT2}なお,表\ref{tab:hifreq-verb}\,の集計では「する」が自動詞か他動詞かの区別や能動態か受動態かの区別をしていないが,「する」的表現と「なる」的表現の量的な違いを厳密に把握するためにはこれらの区別を考慮する必要がある.\subsubsection{`say'の訳し分け}MT訳で「言う」と訳されているのは`say'である.「言う」の出現頻度が人間訳で低いのは,`say'が「述べる」や「語る」,「発表する」などに訳し分けられているためである.調査対象がニュース記事であるため記者会見での発言が多いが,このような発言では,`say'を「言う」と訳すより,「述べる」などと訳したほうが適切であることによるものであろう.\subsubsection{機能動詞表現}機能動詞表現は,例えば「注目を集める」のように,表現全体の実質的意味のほとんどを担う名詞と,文法的な機能を果たすだけで動詞本来の意味を持たない動詞とから構成される表現である\cite{Muraki91}.機能動詞は同一表現の繰り返しを避けたい場合や受動態にすると不自然になる場合などに用いられ,これによって表現の豊富さや自然さがもたらされる.例えば,次の文(H\ref{SENT:func-verb-treat})で用いられれている機能動詞表現「治療を受ける」と,文(M\ref{SENT:func-verb-treat})で用いられれている受動態「治療される」を比べると,後者には不自然さが感じられる.\begin{SENT2}\sentEThousandsofpostalandCapitolworkers{\itwerebeingtreated}withantibioticsasaprecaution.[2001年10月19日]\sentH数千の郵便や議事堂の労働者は,予防として抗生物質での{\bf治療を受けている}.\sentM何千もの郵便の,そして,国会議事堂労働者は,事前対策として抗生物質で{\bf治療されつつあった}.\label{SENT:func-verb-treat}\end{SENT2}この点を確認するために,ウェブ検索エンジンGoogleとAltaVistaを用いて,ウェブ文書における「治療され」の出現頻度と「治療を受け」の出現頻度を比較したところ,前者の出現頻度がGoogleで1210,AltaVistaで3859であるのに対して,後者の出現頻度はGoogleで21900,AltaVistaで34374であった\footnote{これは2002年8月23日の検索結果である.}.「治療を受ける」において,助詞「を」は「も」,「は」,「さえ」など他の助詞との交替が可能であり,さらに,名詞と機能動詞の間に他の語句の挿入が可能であるが,このような交替や挿入が生じた表現は検索の対象としていないので,これらを考慮した場合の出現頻度はさらに高くなる.このことから,「治療される」は「治療を受ける」に比べて用いられにくい表現であると言えそうである.\newpage\subsection{名詞に関する分析}\label{sec:result:noun}\begin{table}[htbp]\caption{出現頻度5以上の名詞の一覧}\label{tab:hifreq-noun}\begin{center}\begin{tabular}{|r|p{0.35\textwidth}||r|p{0.35\textwidth}|}\hline\multicolumn{2}{|c||}{人間訳}&\multicolumn{2}{c|}{MT訳}\\\hline\hline\multicolumn{1}{|c}{頻度}&\multicolumn{1}{|c||}{訳語}&\multicolumn{1}{c}{頻度}&\multicolumn{1}{|c|}{訳語}\\\hline&&69&彼*\\&&65&それら\\21&アメリカ(*)&53&米国*\\16&彼*&40&それ*\\15&ブッシュ大統領*&17&他*,状態,政府*,会社\\14&これ&16&イスラエル*\\13&政府*&14&攻撃,人々*\\11&予定*,大統領&11&アフガニスタン*,最初*,日本*,パレスチナ\\10&それ*&10&2人*,取扱い,多く\\9&アフガニスタン*,可能性,ロシア*,女性*,州,今回&9&ホーム,ブッシュ,予定*\\8&米国*,9月11日,日本*,議会*,人々*,以下,他*&8&ブッシュ大統領*,近く,ロシア*,ジョブ,闘士,最近*,パキスタン*,英国(*),全て,会議\\7&選挙*,ワシントン*,従業員,パレスチナ人*,調査,ニューヨーク*,2人*,イギリス(*),先週*,イスラエル*,人*&7&リーダ,何千,レイオフ,総裁,都市*,ワシントン*,先週*,ニューヨーク*,5.,6.,あなた\\6&同社,一環,最近*,家,国,上院,今,裁判所,最初*,その他,本社,都市*&6&テロリスト*,一部,必要,武器,首相,軍人,女性*,1つ,選挙*,パレスチナ人*,準備,2つ,子供*,タリバン,問題*,道,10.\\5&アラファト議長,北アイルランド,彼ら,人物,東芝,買収,1人,ホワイトハウス,テロリスト*,報道,映画,第6位,取引,国連,現在,問題*,パキスタン*,その後,爆弾,家庭,子供*,罪&5&人*,ヤセル・アラファト,停戦,イスラム教,結果,連邦,歴史,イラン,ケース,国家,人間,メーカー,4つ,時間,前,戦い,暴力,議会*,日曜日,新聞,今年,昨年,有罪,アナリスト,軍隊\\\hline\end{tabular}\end{center}\end{table}出現頻度が5以上の名詞の一覧を表\ref{tab:hifreq-noun}\,に示す.表\ref{tab:hifreq-noun}\,から次のような特徴があることが読み取れる.\begin{enumerate}\item\label{enum:noun:pronoun}人間訳に比べてMT訳での出現頻度が高い(頻度差が10以上の)名詞は,「彼」(頻度差:53),「それら」(65),「それ」(30),「米国」(24),「状態」(15),「会社」(14),「攻撃」(11),「パレスチナ」(11),「取扱い」(10)であるが,特に代名詞の出現頻度差が大きい.\item\label{enum:noun:anaph}逆に,MT訳に比べて人間訳での出現頻度が高い名詞は,「これ」(頻度差:12)である.\end{enumerate}まず,代名詞「彼」,「それら」,「それ」の出現頻度差について検討する.MT訳で「彼」,「それら」,「それ」と訳されている人称代名詞が人間訳ではどのように訳されているかを調べた.その結果を表\ref{tab:pron-hum}\,に示す.なお,「それら」と訳されているのが人称代名詞`they',`their',`them'ではなく,定冠詞や指示代名詞`those'である場合があるが,この場合は集計に含めていない.このため,表\ref{tab:pron-hum}\,での「それら」の頻度は,表\ref{tab:hifreq-noun}\,での「それら」の頻度とは一致しない.同様に,「それ」と訳されているのが人称代名詞`it',`its'ではなく,指示代名詞`that'である場合は集計に含めていないため,「それ」についても表\ref{tab:pron-hum}\,での頻度と表\ref{tab:hifreq-noun}\,での頻度は一致しない.\begin{table}[htbp]\caption{人間訳における人称代名詞の翻訳}\label{tab:pron-hum}\begin{center}\begin{tabular}{|l||l|r@{}r|}\hline\multicolumn{1}{|c||}{MT訳}&\multicolumn{1}{c|}{人間訳}&\multicolumn{2}{c|}{頻度}\\\hline\hline&ゼロ代名詞&29&(42.0\,\%)\\&先行詞&19&(27.5\,\%)\\&「彼」&16&(23.2\,\%)\\\raisebox{1.5ex}[0pt]{「彼」}&「自分」&1&(1.5\,\%)\\&「その」&1&(1.5\,\%)\\&その他&3&(4.3\,\%)\\\hline&ゼロ代名詞&28&(56.0\,\%)\\&先行詞&13&(26.0\,\%)\\「それら」&「自分」&3&(6.0\,\%)\\&「その」&3&(6.0\,\%)\\&「彼ら」&3&(6.0\,\%)\\\hline&ゼロ代名詞&26&(74.3\,\%)\\&先行詞&6&(17.1\,\%)\\\raisebox{1.5ex}[0pt]{「それ」}&「それ」&2&(5.7\,\%)\\&その他&1&(2.9\,\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:pron-hum}\,を見ると,人間訳では,人称代名詞がゼロ代名詞化されるか先行詞に置き換えて訳される割合が高く,`he',`his',`him'の場合で69.5\,\%,`it',`its'の場合で82.0\,\%,`they',`their',`them'の場合では91.4\,\%を占めていることが分かる.英語では人称代名詞による照応が一般的に用いられるのに対して,日本語では,人称代名詞による照応よりも,同一名詞の繰り返し,ゼロ代名詞,再帰代名詞などによる照応が自然である\cite{Kanzaki94}.このことを反映した英日翻訳技法として,英語の人称代名詞を先行詞,ゼロ代名詞,再帰代名詞に置き換えて翻訳する手法が知られている\cite{Umegaki75,Nakamura82}.今後,人称代名詞の翻訳に関するこのような手法を機械翻訳システムに実装していく必要があると言える.次に,表\ref{tab:hifreq-noun}\,における「これ」の出現頻度差について検討する.人間訳でどのような英語表現が「これ」と訳されているのかを調べたところ,14件のうち7件は,「これ」に直接対応する英語表現は存在せず,訳文で補われたものであった.「これ」の補充は,次の文(H\ref{SENT:kore})のように,一文に訳すと複雑になる文を二文に分割し,それらの間を滑らかにつなぐために行なわれている\footnote{代名詞「これ」に類似した表現として連体詞「この」などがあるが,「この」のMT訳における出現頻度が5であるのに対して,人間訳では55であった.詳細な分析を行なっていないので断定できないが,「この」の頻度差も,MT訳と人間訳における分かりやすさの違いにつながっているのではないかと予想される.}.\begin{SENT2}\sentELeftistrebelsinColombiafreed62governmentpoliceandsoldiersaspartofamassprisonerreleasehailedasamajorboostforpeacetalkstoendColombia's37-year-oldcivilconflict.[2001年7月3日]\sentHコロンビアの左翼ゲリラが,大量の捕虜釈放の一環として,警官と兵士62人を解放した.{\bfこれは,}37年間にわたる内戦を終結させるための和平会議への重要な起爆剤として歓迎されている.\sentMコロンビアにおける左派の反逆者は,和平交渉がコロンビアの37年を経た民間の対立を終えるために,メジャーな増大と認められた大規模な囚人リリースの一部として62の政府警察,及び,軍人を解放した.\label{SENT:kore}\end{SENT2}なお,\ref{sec:result:num-of-sent}\,節で挙げた文(H\ref{SENT:ej-sent-div-prep})も同様の例である.\subsection{代名詞に関する分析}\label{sec:result:pron}英語の代名詞を適切に翻訳することは,(1)代名詞を直訳すると誤った訳文や不自然な訳文となることが多い,(2)代名詞の出現頻度は比較的高い\footnote{我々が英字新聞を対象にして行なった調査では,4240文中1845文(43.5\,\%)に人称代名詞が含まれていた.},などの理由から,英日機械翻訳において重要な課題となっている\cite{Yoshimi01a}.本節では,代名詞について\ref{sec:result:noun}\,節とは別の観点からさらに分析する.\subsubsection{代名詞とそれ以外の名詞の分布}\label{sec:result:pron:pron-others}名詞全体のうちで代名詞がどの程度を占めるかを明らかにするために,人間訳とMT訳それぞれにおいて,名詞全体に占める代名詞の割合を算出した.その結果を表\ref{tab:pron-others}\,に示す.\begin{table}[htbp]\caption{代名詞と他の名詞の分布}\label{tab:pron-others}\begin{center}\begin{tabular}{|c||r|r|}\hline品詞&\multicolumn{1}{c|}{代名詞}&\multicolumn{1}{c|}{代名詞以外}\\\hline\hline&66&3375\\\raisebox{1.5ex}[0pt]{人間訳}&1.9\,\%&98.1\,\%\\\hline&213&3300\\\raisebox{1.5ex}[0pt]{MT訳}&6.1\,\%&93.9\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:pron-others}\,の分布には,統計的有意差が認められ(有意水準5\,\%),名詞全体に占める代名詞の割合は人間訳よりMT訳のほうが高い.表\ref{tab:pron-others}\,の結果は,表\ref{tab:pron-hum}\,とも合致し,人間訳では英語の代名詞がゼロ代名詞化されるか先行詞に置き換えられる割合が高いことを示している.\subsubsection{人称代名詞の訳語}\label{sec:result:pron:trans}英語の人称代名詞のうち人間を指すものを直訳すると,多くの場合,日本語の代名詞「私」,「我々」,「あなた」,「彼」,「彼女」,「彼ら」になる.人間訳とMT訳におけるこれらの出現頻度を表\ref{tab:pron-distri}\,に示す.表\ref{tab:pron-distri}\,の分布には統計的に有意な差が認められる(有意水準5\,\%).\begin{table}[htbp]\caption{人称代名詞の訳語の分布}\label{tab:pron-distri}\begin{center}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|}\hline訳語&\multicolumn{1}{|c}{私}&\multicolumn{1}{|c}{我々}&\multicolumn{1}{|c}{あなた}&\multicolumn{1}{|c}{彼}&\multicolumn{1}{|c}{彼女}&\multicolumn{1}{|c|}{彼ら}\\\hline\hline&0&1&2&16&2&5\\\raisebox{1.5ex}[0pt]{人間訳}&0.0\,\%&3.9\,\%&7.7\,\%&61.5\,\%&7.7\,\%&19.2\,\%\\\hline&2&4&7&69&2&2\\\raisebox{1.5ex}[0pt]{MT訳}&2.3\,\%&4.7\,\%&8.1\,\%&80.3\,\%&2.3\,\%&2.3\,\%\\\hline\end{tabular}\end{center}\end{table}人間訳での出現頻度よりMT訳での出現頻度が高いもののうち,「私」,「あなた」について検討する.「彼」については,\ref{sec:result:noun}\,節で既に分析した.人称代名詞`I'がMT訳では「私」と訳されているが人間訳ではゼロ代名詞化されている2件は,いずれも次の文(H\ref{SENT:pron-trans-i})のように,`I'が被伝達節の主語であり,主節の主語を指している場合であった.\begin{SENT2}\sentE``{\itI}'vealreadywonthisone,''CoachDukesaidbeforetheceremony.[2001年7月17日]\sentH「もうこのゲームは勝ち取ったよ.」と,デュークコーチは式の前に言いました.\sentM「{\bf私は},既にこれを獲得した」と,Coach公爵は,セレモニーの前に,言った.\label{SENT:pron-trans-i}\end{SENT2}このようなゼロ代名詞化は,主節の主語と従属節の主語が同一の場合,日本語では一方の主語を省略するという原則に沿うものである.「あなた」については,人間訳で現れていない5件のうち2件は,ゼロ代名詞化が文脈上可能であるものであった.さらに,別の2件は,`you'が歌詞の一部でありその歌詞が原語のまま訳文に現れているものであり,残りの1件は,`you'が総称的に用いられているためゼロ代名詞化されているものであった.文脈によるゼロ代名詞化が行なわれていたのは,次のようなテキスト(E\ref{SENT:pron-trans-you})における第二文の`you'である.なお,テキスト(E\ref{SENT:pron-trans-you})の第一文は,無作為抽出した標本には含まれていない.\begin{SENT2}\sentEIsyourlastnameDunlop?Ifso,{\ityou}'reeligibleforabigpayoff.[2001年12月19日]\sentHもしかして,あなたの苗字はダンロップさんではないですか.もしそうなら,大金をもらう資格があります.\sentMあなたの姓は,ダンロップであるか?もしそうであるならば,{\bfあなたは},大きな利益に適格である.\label{SENT:pron-trans-you}\end{SENT2}現在市販されている機械翻訳システムでは一文を越える範囲での処理はほとんど行なわれていないが,このようなゼロ代名詞化を実現するためには,文間照応の解析などを実装していく必要がある.\subsubsection{一文に含まれる人称代名詞の数}\label{sec:result:pron:num-of-pron}人間訳とMT訳とで,一文中に含まれる代名詞の数に違いがあるかどうかを明らかにするために,代名詞を$n$個含む文の分布を調べた.その結果を表\ref{tab:num-of-pron}\,に示す.表\ref{tab:num-of-pron}\,の分布には,統計的な有意差は認められない(有意水準5\,\%).\begin{table}[htbp]\caption{人称代名詞の訳語を$n$個含む文の分布}\label{tab:num-of-pron}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline$n$&\multicolumn{1}{|c}{1}&\multicolumn{1}{|c}{2}&\multicolumn{1}{|c}{3}&\multicolumn{1}{|c|}{4}\\\hline\hline&25&1&0&0\\\raisebox{1.5ex}[0pt]{人間訳}&96.2\,\%&3.8\,\%&0.0\,\%&0.0\,\%\\\hline&64&9&0&1\\\raisebox{1.5ex}[0pt]{MT訳}&86.5\,\%&12.1\,\%&0.0\,\%&1.4\,\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:num-of-pron}\,を見ると,人間訳では一文に最大で二つしか人称代名詞が含まれないのに対して,MT訳では四つも含む文がある.MT訳で人称代名詞を四つ含むのは次の文(E\ref{SENT:4prons})に対する文(M\ref{SENT:4prons})である.\begin{SENT2}\sentEInarepeatofpreviousrun-insbetweenthepair,MaythenturnedoffMilosevic'smicrophone,told{\ithim}{\ithe}wouldhave{\ithis}chancetomake{\ithis}caseduringthetrialandclosedthehearing.[2002年1月11日]\sentH前回交わされた言い合いの繰り返しになり,メイ氏はミロシェビッチ氏のマイクロホンのスイッチを切り,ミロシェビッチ氏に対し公判中に自己弁護できる機会があると告げ審問手続きを終了させた.\sentMペアの間の前の口げんかの反復において,5月は,それからミロセビッチのマイクロホンをオフにし,{\bf彼に}トライアルの間に{\bf彼の}ケースを作る{\bf彼の}チャンスがあるであろう,と{\bf彼に}告げ,そして,ヒアリングを閉じた.\label{SENT:4prons}\end{SENT2}文(M\ref{SENT:4prons})には,訳語選択において不適切な点がいくつかあるので,人称代名詞以外の部分を人間訳と同じにして,比較してみる.次の文(J\ref{SENT:4prons-mod})は人称代名詞以外の部分を人間訳に置き換えたものである.なお,`makehiscase'の訳語を慣用句として「自己弁護する」と辞書に登録しておけば,`his'は訳出されないものと仮定した.\begin{JSENT}\sentJ前回交わされた言い合いの繰り返しになり,メイ氏はミロシェビッチ氏のマイクロホンのスイッチを切り,{\bf彼に対し}公判中に自己弁護できる{\bf彼の}機会が{\bf彼に}あると告げ審問手続きを終了させた.\label{SENT:4prons-mod}\end{JSENT}文(H\ref{SENT:4prons})では,`him'は「ミロシェビッチ氏」と訳され,`he'と`his'はゼロ代名詞化されている.これに対して,文(J\ref{SENT:4prons-mod})では,`him'を「ミロシェビッチ氏」ではなく「彼」としているのは許容できるが,`he'と`his'を「彼」と訳しているのは不自然に感じられる.
\section{おわりに}
\label{sec:conc}本稿では,人間訳とMT訳にどのような違いがあるのかを明らかにするための第一歩として,英文一文に対する訳文の数,訳文の長さ,訳文に含まれる連体修飾節の数の違いを計量分析し,さらに,動詞,名詞,代名詞について人間訳とMT訳を比較した.その結果,次のような点が明らかになった.\begin{enumerate}\item人間訳に比べMT訳には,英文一文が複数の訳文に分割されにくい傾向がある.MT訳では分割されないが人間訳では分割される箇所として,関係代名詞や前置詞などが目立つ.関係代名詞での分割では,関係代名詞が先行詞に置き換えられることが多い.前置詞での分割では,前置詞句を日本語に翻訳したとき,完全な文になるように工夫が施されている.分割した文の間を滑らかにつなぐために照応表現が補われることがある.\item訳文の長さ(文節数)の分布に統計的有意差が認められる.\item用言の連用形と連体形の分布に有意差が認められ,MT訳のほうが人間訳よりも複雑な構造をした文が多いことが示唆される.\item体言と用言の分布に有意差は認められない.\item動詞に関するMT訳の主な課題としては,英語の「する」的表現を日本語で好まれる「なる」的表現に翻訳すること,ある内容を言語形式化する際の表現手段の選択肢の一つとして機能動詞表現を考慮に入れることなどが挙げられる.\item名詞と代名詞に関しては,複雑な関係代名詞節を連体修飾節に翻訳しないようにする処理,人称代名詞をゼロ代名詞化するかあるいは先行詞に置き換える処理などを実現することが課題である.\end{enumerate}人間訳とMT訳の計量的比較分析は,機械翻訳システムが抱える問題点について改めて考え直したり,これまで見逃されていた問題点を見つけたりする上で有用である.今後,構文レベルでの分析を行なっていく予定である.\acknowledgment本稿の改善に非常に有益なコメントを頂いた査読者の方,内山将夫氏(通信総合研究所),小谷克則氏(関西外国語大学)に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{complexity}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V13N03-06
|
\section{はじめに}
\label{sec:intro}意味が近似的に等価な言語表現の異形を\textbf{言い換え}と言う.言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つという問題と同様,自然言語処理における重要な問題である.言い換えの自動生成に関する工学的研究には,言い換えを同一言語間の翻訳とみなし,異言語間機械翻訳(以下,単に機械翻訳)で培われてきた技術を応用する試みが多い.たとえば,構造変換方式による言い換え生成\cite{lavoie:00,takahashi:01:c},コーパスからの同義表現対や変換パターン(以下,合わせて言い換え知識と呼ぶ)獲得\cite{shinyama:03,quirk:04,bannard:05}の諸手法は,機械翻訳向けの手法と本質的にはそれほど違わない.ただし,言い換えは入出力が同一言語であるため,機械翻訳とは異なる性質も備えている.たとえば,平易な文章に変換する,音声合成の前処理として聴き取りやすいように変換するなど,ミドルウェアとしての応用可能性が高いことがあげられる.すなわち,言い換えを生成する過程のどこかに,応用タスクに合わせた言い換え知識の使い分け,および目的適合性を評価する処理が必要になる\cite{inui:04:a}.事例集の位置付けも異なる.翻訳文書は日々生産・蓄積されており,大規模な対訳コーパスが比較的容易に利用可能である.これらは主に,翻訳知識の収集源あるいは統計モデルの学習用データとして用いられている.一方,言い換え関係にある文または文書の対が明示的かつ大規模に蓄えられることはほとんどない.\sec{previous}で述べるように,言い換えの関係にある文の対を収集して\textbf{言い換えコーパス}を構築する試みはいくらか見られるが,我々が知る限り,現在無償で公開されている言い換えコーパスはDolanら\cite{dolan:05}が開発したものしかない\footnote{Web上のニュース記事から抽出した5,801文対に対して2名の評価者が言い換えか否かのラベルを付与したコーパス.\\\uri{http://research.microsoft.com/research/nlp/msr\_paraphrase.htm}}.さらに,言い換え知識の収集源として用いられるようなコーパスはあっても,言い換えと呼べる現象の類型化,個々の種類の言い換えの特性の分析,言い換え生成技術の開発段階における性能評価などの基礎研究への用途を意図して構築された言い換えコーパスはない.我々は,言い換えの実現に必要な情報を実例に基づいて明らかにするため,また言い換え生成技術の定量的評価を主たる目的として言い換えコーパスを構築している.本論文では,このような用途を想定して,\begin{itemize}\itemどのような種類の言い換えを集めるか\itemどのようにしてコーパスのカバレージと質を保証するか\itemどのようにしてコーパス構築にかかる人的コストを減らすか\item言い換え事例をどのように注釈付けて蓄えるか\end{itemize}などの課題について議論する.そして,コーパス構築の方法論,およびこれまでの予備試行において経験的に得られた知見について述べる.以下,\sec{previous}では言い換えコーパス構築の先行研究について述べる.次に,我々が構築している言い換えコーパスの仕様について\sec{aim}で,事例収集手法の詳細を\sec{method}で述べる.予備試行の設定を\sec{trial}で述べ,構築したコーパスの性質について\sec{discussion}で議論する.最後に\sec{conclusion}でまとめる.
\section{先行研究}
\label{sec:previous}言い換えコーパスの構築に関する先行研究は,内省に基づく生成,コーパスからの自動獲得の2種類に大別できる.いずれにおいても,コーパスを構成する個々の事例は,言い換えの関係にある文対である.\subsection{内省に基づく言い換え生成}\label{ssec:manual}同じ原文に対して複数の翻訳がある場合,それらは言い換えとみなすことができる.機械翻訳では,システムの評価方法として1つの原文に対して複数の正解翻訳例を用意することが一般的になってきており,そうした複数の翻訳例を含む対訳コーパスもいくつか整備されつつある\cite{shirai:01:a,shirai:01:b,zhang:01,kinjo:03,shimohata:03:b}.人間が内省に基づいて言い換えを記述するアプローチは大きな人的コストを要する.それにも関わらず,上述の先行研究では,どのような種類の言い換えを集めるのか,その範囲の言い換えをどのようにして網羅するのかという課題に対する解は示されていない.先行研究の多くが,言い換えそのものへの関心よりもむしろ,機械翻訳の被覆率・訳質の改善を主たる目的としているためであろう.たとえば,\cite{shirai:01:a,shirai:01:b}は機械翻訳の被覆率向上を目的として低頻度語や語のあらゆる語義を網羅するため例文収集方法を提案している.しかしながら,語や語義ごとの例文を得るための手段として言い換えを用いているに過ぎず,様々な種類の言い換えを網羅する,あるいは所与の例文に対して十分多様な言い換えの例を収集することについては焦点を当てていない.\subsection{コーパスからの自動獲得}\label{ssec:automatic}近年,同義表現対や変換パターンなどの言い換え知識を獲得するために,言い換え関係にある文対を自動的に収集する試みが報告されるようになってきた.とくにここ数年は,同じ出来事を報道している複数の新聞社の記事を対応付ける試みが多い\cite{barzilay:03:a,shinyama:03,quirk:04,dolan:04,dolan:05,brockett:05}.このアプローチでは,異なるコーパス中の文と文を,内容語や固有表現の重なり具合,構文構造の類似度,文の抽出元の記事の日付や記事中の文の位置などのメタ情報に基づいて照合し,言い換えらしい文対を得る.言い換え文対の自動獲得手法には人的コストを必要としないという利点がある.収集された個々の言い換え文対には多くのノイズが含まれるが,これを人手で除外するにしても,内省に基づいて事例を記述する手法に比べてコストは低い.また,未知の種類の言い換えを発見できる可能性も秘めている.しかしながら,収集可能な言い換え事例の種類は文の照合における制約によって擬似的に限定されるため,コーパス中に出現している言い換えを網羅的には収集できない.また,制約を特に設けずに言い換えらしい文対を集めるとしても,類似する文対を漠然と集めているに過ぎず,複数の言い換えが組み合わさった複雑な言い換え事例が含まれてしまう可能性がある.このような事例を現象解明に向けた分析に利用するには,人手による言い換えの分解・分類を要する.
\section{対象とねらい}
\label{sec:aim}言い換えと呼べる現象は多岐にわたる.その中には談話の状況に関する高度な推論を要するものもあり\cite{inui:04:a},現在の技術ですべてを実現することは難しい.そこで,まずはどのような種類の言い換えの事例を集めるかについて議論する.言い換えに関する工学的研究のほとんどが,語あるいは言語表現の内包的意味が等価であるような現象を対象としている.そのような現象は,主として語と語の意味の同一性や自他の構文交替,態交替などの構文的な変形に基づいて実現されるため,\textbf{語彙・構文的言い換え}と呼ばれる.本論文で扱う対象もこの例に洩れない.語彙・構文的言い換えに限っても,純粋に統語論で扱えそうな言い換えから語の詳細な意味に立ち入る必要のある言い換えまで多岐にわたるが,実現に必要な知識の観点から以下のように4種類に分けて考えることができる.\begin{description}\item[統語的言い換え:]個別の語の意味に立ち入らなくても,統語論の記述レベルで概ね説明できる言い換え\end{description}\numexs{1}{\item[]最初に合格した\textbf{のは}高橋さん\textbf{だ}{\Lra}高橋さん\textbf{が}最初に合格した}\begin{description}\item[語彙的言い換え:]語の同義性だけで概ね説明できる,統語操作を伴わない局所的言い換え\footnote{言い換えの実現に必要な知識という観点では,慣用表現から文字通りの意味を持つ表現への言い換えもこの分類に入る.たとえば「手を上げる」という表現を言い換える場合,表現全体を「降参する」または「殴る」に言い換えるべきか,「手」や「上げる」と言う構成語のみを言い換えるべきかという曖昧性がある.ただし,言い換え前の表現が構成的か非構成的かを見分けることも広く語義曖昧性解消の課題と位置付ければ,言い換えそのものは,語を別の語に置き換える場合と同様,局所的に同義の表現対の知識を用いて実現できる.}\end{description}\numexs{2}{\item[]一層の\textbf{苦境}に陥いる\textbf{恐れ}がある{\Lra}一層の\textbf{窮地}に陥いる\textbf{可能性}がある}\begin{description}\item[語彙構成的言い換え:]言語の統語的特性と意味的特性に基づいて構成的に説明できると考えられる規則性の高い言い換え\end{description}\numexs{3}{\item[]2位\textbf{が}先頭\textbf{との}距離\textbf{を}\textbf{縮めた}{\Lra}2位\textbf{と}先頭\textbf{の}距離\textbf{が}\textbf{縮まった}}\begin{description}\item[推論的言い換え:]世界知識や社会慣習に根ざし,統語論,語彙意味論のような言語に関する知識だけでは説明が難しい言い換え\footnote{比喩表現や間接発語行為から文字通りの意味を持つ表現への言い換えなども含む.}\end{description}\numexs{4}{\item[]財政再建\textbf{が急務の課題だ}{\Lra}\textbf{緊急に}財政再建\textbf{する必要がある}}言い換えの計算モデルが実用規模で機能するためには,大規模な言い換え知識が必要となるので,その開発および保守を効率化するための方法論が重要な研究課題になる.知識開発に関しては,人手で作成された既存の語彙資源を利用するアプローチと\ssec{automatic}で述べたような手法で得た言い換えコーパスから言い換え知識を自動獲得するアプローチがある.言い換え知識の自動獲得に関する研究動向についての詳細は\citeA{inui:04:a}の解説に譲るが,既存の語彙資源から抽出できるのは限定的な種類の言い換え知識だけであり,またコーパスから力任せに自動獲得する方法もこれまでのところ実用に耐える成果を挙げられていないのが現状である.さて,語彙・構文的言い換えの中には,次に示す一連の例のように,構成的に計算できる可能性が高い,上で語彙構成的言い換えと呼んだ現象も少なくない.\numexs{alternation}{\item[{\quad}\textbf{動詞交替}]\item洗濯物\textbf{が}風\textbf{に}\textbf{揺れる}{\Lra}風\textbf{が}洗濯物\textbf{を}\textbf{揺らす}\hfill(自他交替)\item円\textbf{の}レート\textbf{が}\textbf{下がった}{\Lra}円\textbf{が}レート\textbf{を}\textbf{下げた}\hfill(自他交替・再帰)\item先輩\textbf{が}後輩\textbf{に}合格の秘訣を\textbf{教える}{\Lra}後輩\textbf{が}先輩\textbf{から}合格の秘訣を\textbf{教わる}\\\hfill(授受の動詞交替)\item多くの地域\textbf{が}暴風雨\textbf{に}\textbf{見舞われた}{\Lra}暴風雨\textbf{が}多くの地域\textbf{を}\textbf{見舞った}\hfill(直接受身)\item翔一\textbf{が}誰か\textbf{に}自転車を\textbf{盗まれた}{\Lra}誰か\textbf{が}翔一\textbf{の}自転車を\textbf{盗んだ}\hfill(間接受身)\item通り\textbf{が}群衆\textbf{で}あふれた{\Lra}群衆\textbf{が}通り\textbf{に}あふれた\hfill(場所格交替)\item柳\textbf{が}芽\textbf{を}ふく{\Lra}柳\textbf{に}芽\textbf{が}ふく\hfill(湧出動詞の交替)\item太郎\textbf{が}犯人\textbf{であると}認める{\Lra}太郎\textbf{を}犯人\textbf{と}認める\hfill(補文構文)}\numexs{category-shift}{\item[{\quad}\textbf{範疇交替(品詞交替)}]\item息子が友人の活躍に\textbf{刺激を受ける}{\Lra}息子が友人の活躍に\textbf{刺激される}\\\hfill(機能動詞構文(格+動詞){\Lra}動詞)\item部屋は十分\textbf{暖まっている}{\Lra}部屋は十分\textbf{暖かい}\hfill(動詞{\Lra}形容詞)\item彼女は頬を\textbf{赤らめて}うなずいた{\Lra}彼女は頬を\textbf{赤くして}うなずいた\\\hfill(動詞{\Lra}形容詞+する/なる)\item身体\textbf{の}\textbf{だるさを}感じる{\Lra}身体\textbf{が}\textbf{だるいと}感じる\hfill(名詞(句){\Lra}形容詞(節))\item水がとても\textbf{清らかだ}{\Lra}水がとても\textbf{清い}\hfill(ナ形容詞+だ{\Lra}イ形容詞)}\numexs{syntactic-deformation}{\item[{\quad}\textbf{その他の構文的な交替}]\item彼の言葉\textbf{に}\textbf{温かみ}を感じた{\Lra}彼の言葉\textbf{の}\textbf{温かさ}を感じた\hfill(係り先の交替(格))\item\textbf{厳密に}審査基準を定める{\Lra}\textbf{厳密な}審査基準を定める\hfill(係り先の交替(修飾語))\item彼\textbf{の}顔が真っ赤だ{\Lra}彼\textbf{は}顔が真っ赤だ\hfill(係り先の交替(主題化))\item目的地は\textbf{赤い屋根の}建物だ{\Lra}目的地は\textbf{屋根が赤い}建物だ\hfill(主辞交替(名詞句{\Lra}節))\item\textbf{リサイクルの効率化}が求められる{\Lra}\textbf{効率的なリサイクル}が求められる\\\hfill(主辞交替(名詞句{\Lra}名詞句))\item\textbf{財政再建}が課題だ{\Lra}\textbf{財政を再建すること}が課題だ\hfill(複合名詞の分解・構成)\item夕飯を\textbf{食べ過ぎた}{\Lra}夕飯を\textbf{必要以上に食べた}\hfill(複合動詞の分解・構成)\item新しい機材\textbf{の必要性}を議論する{\Lra}新しい機材\textbf{が必要かどうか}を議論する\\\hfill(名詞接尾辞の着脱)}これらの例はそれぞれ異なる形態・構文的パターンによって特徴付けられる.このパターンに基づいて一括りにできる言い換え現象を,本論文では\textbf{言い換えクラス}と呼ぶ.言い換えクラスの実在性は言語学的な分析\cite{melcuk:87,jackendoff:90,levin:93,kageyama:01}においても示されており,場所格交替や自他交替の構成性を言語学的に説明する試みもある.これをふまえると,語彙構成的言い換えについては,個別の語の統語・意味的特性に関する知識と一般性の高い原理的な変換規則によって実現することが望ましい.語彙構成的言い換えが構成要素の語彙的知識から組み合わせ的に計算できるとすれば,少なくともそのクラスの言い換えについては,人手で開発・保守できる規模の語彙資源で実現することができる.我々の言い換えコーパス構築の動機は,これら語彙構成的言い換えに関わる語の統語・意味的な特性を明らかにすること,その過程で言い換え生成に関する仮説を定量的に評価することにある.そこで,次に示すような要求仕様を念頭におき,個々の言い換えクラスごとに言い換えコーパスを構成する.\begin{itemize}\item言い換えコーパスは言い換えクラスごとのサブコーパス群からなる.\item各サブコーパスは所与の言い換えクラスに属する言い換え関係にある文対の集合からなる.\item各サブコーパス中の言い換え事例は実世界における表現の分布(密度,多様性)を反映している.\end{itemize}
\section{形態・構文パターンを用いた言い換え事例の半自動収集}
\label{sec:method}\sec{aim}の議論をふまえ,所与の言い換えクラス$\mathcal{C}$に属する言い換え事例を,文集合$\mathcal{S}$から\textbf{(i)できるだけ網羅的に},\textbf{(ii)できるだけ少ない人的コストで}収集するという目標を設定する.当然,各事例の言い換えとしての適否の判定の\textbf{(iii)信頼性をできるだけ高く}保たねばならない.まずは,どのような方法論でどのような言い換えクラスの言い換え事例を収集できるかを経験的に調査する必要がある.その試みの一つとして,本論文では,次の3ステップからなる半自動的な事例収集手法について検討する.\begin{description}\item[ステップ1.]所与の言い換えクラス$\mathcal{C}$について,形態・構文的変換パターン集合と辞書的な知識を記述する.\item[ステップ2.]既存の言い換え生成システムを用いて,所与の文集合$\mathcal{S}$に変換パターンを適用し,言い換え事例の候補集合を生成する.\item[ステップ3.]言い換えクラスごとに\textbf{適否判定ガイドライン}を用意し,それに基づいて個々の言い換え候補を適格,不適格に分類する.\end{description}この手法は\sec{previous}で述べた2種類のアプローチの中間に位置付けられる.すなわち,言い換え生成システムの利用により,(i)言い換え事例収集における人的コストを低減すると同時に,(ii)所与の言い換えクラスに対するカバレージ,および(iii)適否判定の質を保証することをねらいとしている.この手法では,ステップ1と3に人手を要する.まず,ステップ1において,所与の言い換えクラス$\mathcal{C}$を定義するための形態・構文的パターンを記述する必要がある.これは,文献\cite{dras:99:a}における文法開発と同様に,少数の典型的な言い換え事例に基づいて帰納的に作成する.たとえば,例\refexs{category-shift}{a}から,機能動詞構文の言い換えに関する\refex{lvcinst}のようなパターン\footnote{s.,t.は各々言い換え前後の文あるいはパターンを表す.言い換え後の文が文法的・意味的に不適格な場合は記号``$\ast$''を,文法的・意味的に適格でも言い換えとして適切でない場合は記号``$\neq$''を記す.また,言い換えの適否に関する作業者の判定結果が分かれた事例については記号``?''を記す.}を記述する.\numexs{lvcinst}{\item[s.]$N$を$\phdep{V}${\quad}$V$\item[t.]$v(N)$}ここで,$N$,$V$は各々名詞,動詞を表す変数,$v(N)$は$N$の動詞形を表す.係り受け関係に関する条件を右下に添えた矢印で表す.上の例では「$N$を」が「$V$」に係ることを条件としている.\begin{figure*}[t]\leavevmode\begin{center}\includegraphics*[scale=.37,keepaspectratio]{annotation-ppt.eps}\caption{自動生成した事例の適否を判定するための作業環境}\label{fig:annotation}\end{center}\end{figure*}所与の文集合$\mathcal{S}$に含まれる言い換え可能な文を網羅的に収集するために,形態・構文的パターンには過剰な制約を記述しないように配慮する.逆に,不適格な例を大量に生成してステップ3のコストを増やしてしまわないように,言い換えのクラスごとに語彙的な資源を用意する.たとえば,パターン\refex{lvcinst}においては,$N$と$v(N)$を動作性名詞とその動詞形に限定する.形態素解析や係り受け解析の精度が十分実用的な精度であるため,形態・構文パターンと語彙的制約に基づいて言い換えクラスを定義するアプローチは現実的であると考える.ステップ3では自動生成された言い換え候補の適否判定に人手を要する.ここでは言い換えクラスごとにどのような種類の誤りが生じるかをある程度予測できるという仮説に基づき,言い換えクラスごとに適否判定ガイドラインを作成しておく.このガイドラインは,文献\cite{fujita:03:c}が示す言い換え誤りの分類に基づき,あらかじめいくらかの作例に基づいて予測できる範囲で誤りの種類を列挙したものである.言い換え候補の適否を判定する作業の過程で未知の誤りが出現した場合や作業者間で判定結果が分かれた場合は,いくらか事例が溜まった時点で議論し,このガイドラインを更新する.作業者は\fig{annotation}に示す作業環境で個々の言い換え候補の適否を判定する.(a)言い換え前の文と(b)自動生成した言い換え候補が与えられたときに,作業者は,(c)その言い換え候補の適否,(d)もしも不適格であればその原因の分類情報,(e)修正することで言い換え可能,あるいは複数の言い換えが可能ならばそれらを記述する.判定に迷った候補については,(f)議論用に自由形式でコメントを記述する.
\section{言い換えコーパス構築の予備試行}
\label{sec:trial}言い換えコーパス構築における種々の課題に対し,前節で述べた言い換え事例の収集方法がどれだけ有効であるかを検証するため,事例分析および言い換え生成実験の評価に利用できる規模のサブコーパスを構築した.今回は,機能動詞構文の言い換え,および動詞の自他交替の2つの言い換えクラスを取り上げた.この節では,共通の設定について述べた後,各言い換えクラスを対象としたサブコーパス構築の詳細について述べる.\subsection{共通の設定}\label{ssec:setting}我々の手法では,形態・構文的パターンと対象文との照合のためにいくつかのソフトウェアを必要とする.今回は,形態素解析器『茶筌』\footnote{\uri{http://chasen.naist.jp/}},係り受け解析器『南瓜』\footnote{\uri{http://chasen.org/\~{}taku/software/cabocha/}},言い換え生成システム『{\KURA}』\footnote{\uri{http://cl.naist.jp/kura/doc/}}を用いた.言い換え候補を収集する文のドメインは新聞記事中の文とした.具体的には日本経済新聞\footnote{\uri{http://sub.nikkeish.co.jp/gengo/zenbun.htm}}(2000年,一文あたり平均25.3形態素)を用いた.茶筌,南瓜が新聞記事中の文を学習に用いているため,また,非常に稀なクラスの言い換え事例を集める場合でも十分大規模な文集合を用意できるためである.言い換え候補の適否判定は,日本語母語話者であり大学卒業程度の教養を備えている2名の作業者が実施した.今回は作業コストをできるだけ削減するというねらいから,2名が完全に独立に言い換え候補の適否を判定するのではなく,\fig{judgement}に示す3ステップの手順で判定した.以下,各ステップについて述べる.\begin{description}\item[ステップ1.]第1作業者は自動生成した言い換え候補の各々の適否を判定する.\item[ステップ2.]第2作業者は,第1作業者が『適格』とした言い換え候補をすべて判定する.また,第1作業者の判定が過度に『適格』,『不適格』に偏っていないかを確認するため,第1作業者が『不適格』とした言い換え候補をサンプリングして判定する.\item[ステップ3.]2名の判定結果が分かれた候補について,数日に一度作業者間で議論する.また,適否判定のガイドラインを更新し,一貫性を保つためにステップ1に戻って再度判定する.議論を経ても適否判定が一致しなかった場合は『保留』とする.\end{description}\subsection{機能動詞構文の言い換え(LVC)}\label{ssec:lvc}機能動詞構文とは,動詞が動作性名詞を格要素に持つときに,実質的な意味を失い,単に動詞としてのみ機能するような構文である.ここで例\refexs{category-shift}{a}を再掲して説明しよう.\numexs{lvc}{\item[s.]息子が友人の活躍に\textbf{刺激を受ける}.\item[t.]息子が友人の活躍に\textbf{刺激される}.}例文\refexs{lvc}{s}では,動作性名詞「刺激」が実質的な動作内容を表しており,動詞「受ける」は動作の方向を表しているに過ぎない.今回は,\refexs{lvc}{s}を\refexs{lvc}{t}に言い換えるように,機能動詞構文の動詞を取り除き,動作性名詞の動詞形を主辞に据えるような言い換えを扱う.例文\refexs{lvc}{s}では動作性名詞は対格に現れているが,例\refex{lvc1},\refex{lvc2}のように,動作性名詞が主格,与格になる場合でも機能動詞構文が形成されうる.\numexs{lvc1}{\item[s.]彼女に対する気持ちに\textbf{変化が起こった}.\item[t.]彼女に対する気持ちが\textbf{変化した}.}\numexs{lvc2}{\item[s.]日本の住宅事情を\textbf{考慮に入れる}.\item[t.]日本の住宅事情を\textbf{考慮する}.}また,和語動詞,サ変名詞は形態的には異なるが同じように動作性名詞として機能動詞構文を形成する.これらを考慮し,\refex{pattern:lvc}のようなパターンを4種類記述した.\numexs{pattern:lvc}{\item[s.]$N$\{が,を,に\}$\phdep{V}${\quad}$V$\item[t.]$v(N)$}ここで,$N$,$V$,$v(N)$は\refex{lvcinst}と同様,各々名詞,動詞を表す変数,$N$の動詞形を表す関数である.格助詞の部分の``\{'',``\}''は選言を表す.次に,\longbracket{間違い,間違う},\longbracket{考慮,考慮する}のような動作性名詞と動作性名詞の動詞形の組を用意した.具体的には,茶筌が用いる日本語形態素解析用辞書『IPADIC』からサ変名詞,和語動詞の連用形とそれらの動詞形の組を20,155組抽出した.この集合を$N$と$v(N)$に関する語彙的制約とする.他方,機能動詞構文を形成しうる動詞については,文献\cite{muraki:91}に約60語例示されているものの網羅的とはいえない.このため,$V$についてはとくに制約を設けなかった.\begin{figure}[t]\leavevmode\vspace{-\baselineskip}\begin{center}\includegraphics*[scale=.37,keepaspectratio]{judgement-ppt.eps}\caption{事例ごとの適否判定の確定までの流れ}\label{fig:judgement}\end{center}\end{figure}形態・構文的パターンは{\KURA}によって自動的に係り受け構造の対に変換され,所与の文集合に網羅的に適用される.10,000文を入力したときに自動生成された言い換え候補は2,566件であった.個々の言い換え候補の適否判定にあたり,可能ならば作業者が言い換え候補を修正する.形態・構文的な情報のみでは言い換え先の表現を一意に決められない場合や{\KURA}に実装されている誤り修正機構が不適切な修正を施してしまう場合があるためである.機能動詞構文の言い換えについては,(i)活用形の変更,(ii)格助詞の変更,(iii)副詞の挿入,(iv)ヴォイス表現,アスペクト表現,ムード表現などの動詞性接尾辞の追加,の4種類の修正処理を許可した.たとえば,\refex{pattern:lvc}に示したパターンを例文\refexs{lvc}{s}に適用した場合は,正しい言い換え文\refexs{lvc}{t}を得るために受動態を表すヴォイス表現「られる」を後続する.一方,例文\refexs{aspect}{s}に同じパターンを適用した場合は,始動相を表すアスペクト表現「しだす」を後続するとともに格助詞「の」を「を」に置き換える.\numexs{aspect}{\item[s.]コンサートのチケット\textbf{の}\textbf{販売を始めた}.\item[t.]コンサートのチケット\textbf{を}\textbf{販売しだした}.}現在までに,最初の4,500文に対する言い換え候補983件の判定を終えている.また,残りの5,500文に対する言い換え候補から無作為に選んだ131件のみ判定を終えている.内訳は,判定結果が『適格』であった候補が547件,『不適格』であった候補が520件,『保留』であった候補が47件であった.ある文が異なる形に言い換えられる場合は作業者の内省に基づいて思い付くだけ例を記述しており,547件の言い換え候補に対して591件の言い換え事例を得ている.参考までに,『不適格』,『保留』とされた言い換え候補の例を各々例\refex{lvc:bad},\refex{lvc:deferred}に示す.\numexs{lvc:bad}{\item[s.]憲政擁護をさけぶ民衆の\textbf{デモに包囲された}.\item[t.]{\neqex}憲政擁護をさけぶ民衆に\textbf{デモされた}.}\numexs{lvc:deferred}{\item[s.]「存続は不可能」と\textbf{区切りをつけ}たがっている感じもしないではなかった.\item[t.]{\hatenaex}「存続は不可能」と\textbf{区切り}たがっている感じもしないではなかった.}例文\refexs{lvc:bad}{s}における「包囲する」はヴォイスあるいはアスペクトなどの機能を持っておらず「対象を取り囲む」という意味を持っている.これを取り除くように言い換えると意味が変化してしまうため,不適格とした.一方,例\refex{lvc:deferred}では,「区切りをつける」を一つの慣用句とみなし「終わらせる」というべきか,「(仕事を)区切る」とすべきかで意見が分かれた.また,自動生成した言い換え候補の中には,例\refex{lvc:out1},\refex{lvc:out2}のように,収集しようとしたのとは異なるクラスの言い換えもあった.このような候補についても可能ならば言い換え例を記述したが,適否については『不適格』とした.\numexs{lvc:out1}{\item[s.]\textbf{帰りに立ち寄る}温泉も大きな楽しみだ.\item[t.]\textbf{帰りの}温泉も大きな楽しみだ.\hfill(動詞省略による換喩化)}\numexs{lvc:out2}{\item[s.]\textbf{調査によると},仕事でのパソコン利用率は八六・一%.\item[t.]\textbf{調査の結果},仕事でのパソコン利用率は八六・一%.\hfill(複合辞の言い換え)}\subsection{動詞の自他交替(TransAlt)}\label{ssec:transalt}例\refexs{alternation}{a}のような動詞の自他交替を実現するためには\longbracket{揺れる,揺らす}のような自動詞と他動詞の組に関する知識が必要である.しかし,語彙調査の過程で作られた辞書や自他交替を扱う言語学の文献に断片的には記述されているものの,網羅性の高い資源はない.そこで,少なくとも収集源からは言い換え候補をもれなく収集できるように,自動詞と他動詞の組を人手で記述する.まず,次の\refex{pattern:transalt0}のような動詞の抽出パターンを記述した.このパターンは,形式的には言い換え候補の自動生成のための形態・構文的パターンと等しいが,言い換え後の表現を与えていない点のみ異なる.\numexs{pattern:transalt0}{\item[s.]$N_{1}$が$\phdep{V}${\quad}$N_{2}$\{に,から,で\}$\phdep{V}${\quad}$V$\item[t.]変形なし.}ここで,$N_{1}$,$N_{2}$は名詞を表す変数,$V$は動詞を表す変数である.なお,2つの格要素が動詞に係ることを条件としているが,これらの順序は問わない.言い換え候補を1,000件程度生成することにし,LVCとのおおまかな頻度の比較から言い換え候補の収集源として25,000文を用いることにした.この文集合に\refex{pattern:transalt0}などのパターン群を適用したところ,$V$に対応する動詞800語が取り出された.そして,各動詞に対して人手で自動詞,他動詞を付与を記述したところ,自動詞と他動詞の組を212組収集できた.次に,言い換え候補の自動生成のために,\refex{pattern:transalt1}のようなパターンを記述した.\numexs{pattern:transalt1}{\item[s.]$N_{1}$が$\phdep{V_{i}}${\quad}$N_{2}$に$\phdep{V_{i}}${\quad}$V_{i}$\item[t.]$N_{2}$が$\phdep{v_{t}(V_{i})}${\quad}$N_{1}$を$\phdep{v_{t}(V_{i})}${\quad}$v_{t}(V_{i})$}$N_{1}$,$N_{2}$はここでも名詞を表す変数である.一方,$V_{i}$,$v_{t}(V_{i})$は自動詞とそれに対応する他動詞を表しており,上の212組を用いて実現する.動詞の自他交替には例\refex{transalt1},\refex{transalt2}のように様々な助詞が関わるが,どの要素を主格に据えるべきかは文脈に依存するため,すべての候補を別々に生成する.また,例\refex{reciprocal}のように他動詞文を自動詞文に言い換える例も同時に収集するため,合計8種類のパターンを記述した.\numexs{transalt1}{\item[s.]与党の法案\textbf{に}野党\textbf{から}反対意見\textbf{が}\textbf{出る}.\item[t.]与党の法案\textbf{に}野党\textbf{が}反対意見\textbf{を}\textbf{出す}.}\numexs{transalt2}{\item[s.]戦火や迫害\textbf{で}難民\textbf{が}\textbf{生まれる}.\item[t.]戦火や迫害\textbf{が}難民\textbf{を}\textbf{生む}.}\numexs{reciprocal}{\item[s.]2位\textbf{が}先頭\textbf{との}距離\textbf{を}\textbf{縮めた}.\item[t.]2位\textbf{と}先頭\textbf{の}距離\textbf{が}\textbf{縮まった}.}動詞の自他交替についても適否を判定するためのガイドラインを作成し,修正の例を掲載した.具体的には,(i)活用形の変更,(ii)格助詞の変更,(iii)ヴォイス表現の変更,の3種類の修正処理を許可した.たとえば,例文\refexs{reciprocal}{s}のように他動詞を自動詞に置き換える場合,「2位が」や「先頭との」をどのように残すべきかは形態・構文的な情報のみでは特定できない.ゆえに,非決定のまま生成した候補を人手で修正する.自動詞と他動詞の組を得る際に用いた25,000文に上述のパターン群を適用した結果,985件の言い換え候補が生成された.これまでにこれらすべての判定を終えており,その内訳は『適格』が461件,『不適格』が503件,『保留』が21件であった.LVCの場合と同様,ある文が異なる形に言い換えられる場合があったため,461件の言い換え候補に対して484件の言い換え事例を得ている.参考までに,『不適格』,『保留』とされた言い換え候補の例を各々例\refex{transalt:bad},\refex{transalt:deferred}に示す.\numexs{transalt:bad}{\item[s.]議会の多数党\textbf{が}政権の座\textbf{に}\textbf{ついた}.\item[t.]{\neqex}議会の多数党\textbf{を}政権の座\textbf{に}\textbf{つけた}.}\numexs{transalt:deferred}{\item[s.]ビスマルクの左CK\textbf{を}熊谷\textbf{が}頭\textbf{で}\textbf{決めた}.\item[t.]{\hatenaex}ビスマルクの左CK\textbf{が}熊谷\textbf{の}頭\textbf{で}\textbf{決まった}.}例\refex{transalt:bad}は2名の作業者が同じ理由で『不適格』とした.言い換え前の文が自然発生的な出来事を指すにも関わらず,言い換えた後の文においては,それが何らかの主体の行為によってなされたという含みを持ってしまうためである.一方,例\refex{transalt:deferred}は,言い換えることによって「(ゴールを)決める」が表していた行為の動作主性が損なわれると考えるか否かで意見が分かれたため『保留』とした.また,LVCの場合と同様に,収集しようとしたのとは異なるクラスの言い換えもいくらか出現したが『不適格』とした.例を\refex{transalt:out1}に示す.\numexs{transalt:out1}{\item[s.]北朝鮮側の提案\textbf{が}米側の希望\textbf{を}十分に\textbf{満たし}ていなかった.\item[t.]北朝鮮側の提案\textbf{で}米側の希望\textbf{が}十分に\textbf{満たされ}ていなかった.\hfill(直接受身)}
\section{議論}
\label{sec:discussion}前節で述べた2つの言い換えサブコーパスの仕様を\tab{stats}に示す.また,\fig{lvc},\ref{fig:transalt}に適否の判定結果が確定した言い換え候補の数を示す.図中の横軸は2名の作業時間の合計であり,言い換え候補の判定時間,作業者間の議論の時間,適否判定ガイドラインの更新後に各候補の適否を再度判定する時間を含む.以下,(i)事例収集効率,(ii)収集した事例の網羅性,(iii)判定結果の信頼性について述べ,(iv)言い換えクラスの定義について議論する.\begin{table}[t]\leavevmode\begin{center}\footnotesize\caption{構築した言い換えサブコーパスの仕様}\label{tab:stats}\begin{tabular}{ll||c|c}\hline\hline\multicolumn{2}{l||}{言い換えクラス}&LVC&TransAlt\\\hline\multicolumn{2}{l||}{言い換え候補の収集源の文数}&10,000&25,000\\\multicolumn{2}{l||}{言い換えパターンの数}&4&8\\\multicolumn{2}{l||}{語彙知識の種類}&\bracket{$n$,$v_{n}$}&\bracket{$v_{i}$,$v_{t}$}\\\multicolumn{2}{l||}{語彙知識の規模}&20,155&212\\\hline\multicolumn{2}{l||}{言い換え候補の数}&2,566&985\\\hline\multicolumn{2}{l||}{作業者が適否を判定した言い換え候補の数(Judged)}&1,114&985\\&判定結果:『適格』(Correct)&547&461\\&判定結果:『不適格』(Incorrect)&520&503\\&判定結果:『保留』(Deferred)&47&21\\\hline\multicolumn{2}{l||}{収集した言い換え事例の数}&591&484\\\multicolumn{2}{l||}{作業時間(人時間)}&118&169.5\\\hline\end{tabular}\end{center}\end{table}\subsection{事例収集効率}\label{ssec:efficiency}現在までに2,031件の言い換え候補の判定結果が確定(\ssec{setting}で述べた通り不適格な候補の大半は1名のみの判定結果)しており,1,075件の言い換え事例が収集できた.\fig{lvc},\ref{fig:transalt}が示すように判定の速度は比較的安定していた.一人時間あたりでは,7.1件の言い換え候補の適否を確定,3.7件の言い換え事例を収集できている.先行研究では事例収集効率を定量的に評価していないため,我々の手法がどれほど効率的であるかを比較によって示すことはできない.ただし,同じ作業者が判定結果を見直すための時間,作業者間の議論の時間も計上していることを考慮すれば,妥当な速度といえよう\footnote{文献\cite{brockett:05,dolan:05}では,Web上のニュース記事から抽出した10,000文対を2名の作業者が独立に言い換えか否かに分類している.ChrisBrockett氏とのパーソナルコミュニケーションによると2〜3日(4〜6人日)で作業を終えたとのことであるが,この試みでは,(i)言い換えのクラスを限定せず,(ii)適否に関する厳密なガイドラインなしに節の重複の度合いと作業者の直感に基づいて判定し,(iii)判定結果が分かれた場合は議論なしに不適格としているためである.すなわち,本論文のような言い換えの適否に関する議論はない.}.さらなる事例収集効率の向上のためには,どの作業に最も時間を要しているかの分析が必要である.今回は各作業の時間を計測していなかったため,作業者のヒアリングに基づいて次の2つの原因を取り上げる.第一に,言い換え候補を不適格とした場合にどのような誤りが原因で不適格としたかの記述(\fig{annotation}の(d))に時間を要していた.誤り分類の体系は形態素情報や品詞体系,係り受け構造の情報に基づいているため,馴染みのない作業者には分類が難しかったようである.第二に,言語テストの難しさが作業効率を低下させる原因となっていた.これは,TransAltにおいてLVCよりも顕著に(1.75倍)作業効率が悪かったことにも現れている.本論文で用いたクラス指向の言い換え事例収集手法の効率は,用いている言語テストにも影響される.これについては\ssec{definition}で詳述する.ある程度の時間をかけても適否が判定できなかった場合に判定を保留することにすれば,さらなる効率化は実現できる.ただしこれは,次に述べる言い換え事例の網羅性という指標とのトレードオフになる.\begin{figure*}[t]\parbox[t]{.5\textwidth}{\leavevmode\begin{center}\includegraphics*[width=\linewidth,keepaspectratio]{13-3ia6f3.eps}\caption{適否を判定した言い換え候補の数および\\その判定結果の内訳(LVC)\\各線の意味は\tab{stats}を参照されたい.}\label{fig:lvc}\end{center}}\parbox[t]{.5\textwidth}{\leavevmode\begin{center}\includegraphics*[width=\linewidth,keepaspectratio]{13-3ia6f4.eps}\caption{適否を判定した言い換え候補の数および\\その判定結果の内訳(TransAlt)\\各線の意味は\tab{stats}を参照されたい.}\label{fig:transalt}\end{center}}\end{figure*}\subsection{網羅性}\label{ssec:exhaustiveness}どれだけ網羅的に言い換え事例を収集できているかを見積もるために,LVCで用いた文集合から無作為に750文取り出し,人手で同じクラスの言い換えを試行した.作成された206事例のうち獲得済みの事例は158事例であり,カバレージは約77\%(158\,/\,206)となった\footnote{TransAltの場合は格が省略されている文を抽出していないため,LVCよりもカバレージが低いと予想される.}.形態・構文的パターンでは収集できなかった48事例のうち,解析誤りによるものは1件のみであった.ゆえに,形態・構文的パターンを用いた候補生成は現実的なアプローチであると言える.34件は形態・構文的パターンをいくつか追加することで自動的に収集できる.たとえば,\refex{lvcka:pat1}のようなパターンを追加すれば,\refex{lvcka:ex1}のような事例も収集できるようになる.\numexs{lvcka:pat1}{\item[s.]$N\textrm{化}$\{が,を,に\}$_{(\RightarrowV)}${\quad}$V$\item[t.]$v(N\textrm{化})$}\numexs{lvcka:ex1}{\item[s.]これは市場\textbf{の}\textbf{活性化にむけた}規制緩和策だ.\item[t.]これは市場\textbf{を}\textbf{活性化する}規制緩和策だ.}残りの13件の取りこぼしは,\longbracket{ズレ,ズレる},\longbracket{伸び,伸びる}のような動詞形を持つ語の品詞がIPADICにおいて一般名詞となっていたことに起因する.これらをあらかじめ辞書に記述しておくことはパターンの記述に比べると難しいが,形態素辞書の整備が進めばカバレージを上げられると期待できる.手持ちのパターンおよび語彙資源がどれだけのカバレージを持っているか,制約としてどれだけ適切であるかを,言い換え生成および人手による適否判定の前に知ることはできない.ゆえに,上のような人手による分析は,我々がある言い換えクラスに対して持っている直感的な定義と自動的に収集できる範囲との違いを見極めるために欠かせない作業である.\subsection{判定結果の信頼性}\label{ssec:reliability}判定結果の信頼性を保証するには,より多くの作業者を用いる必要がある.ただしそれは人的コストとのトレードオフになる.そこで我々は,作業者間の判定結果に揺れが生じないように言い換えクラスごとに適否判定ガイドラインを設け,適格な言い換え候補についてのみ多重判定を施した(\fig{judgement}).また,判定に悩んだ場合は何日か後に見直す,作業者間で判定結果が分かれた場合は議論を通じて適否判定ガイドラインを更新するなどの工夫を施した.適格と判定された言い換え候補に関する作業者間の一致率は,作業への習熟,および適否判定ガイドラインの更新に伴って上昇した.たとえば,LVCの場合の作業者間一致率は,74\%(3日目),77\%(6日目),88\%(9日目),93\%(11日目)であった.このことは,作業者間の議論によって判断に悩むような言い換え候補や作業者間で判定結果が分かれるような言い換え候補に関する情報が整理され,ガイドラインが洗練されてきていることを示唆している.\fig{judgement}の判定手順がもたらす判定結果の信頼性をより正確に見積もるため,今後は第1,第2作業者とは独立に言い換え候補の適否を判定する第3作業者を立てる予定である.\subsection{言い換えクラスの定義に関する議論}\label{ssec:definition}特定の言い換えクラスのみを考えるならば言い換えの適否の判定基準を明確に定義できると期待していた.しかし,LVCとTransAltの作業効率の比較から,必ずしもその期待は満たされないことが明らかになった.TransAltでは他動詞を自動詞に言い換える際に格要素が欠落することをどこまで認めるかが議論になり,我々は,言い換えによって生成された自動詞文の主格要素が意志性(あるいは内在的コントロール\cite{kageyama:96})を持つか否かに着目した.すなわち,自動詞文に「自ら」,「勝手に」などの副詞を挿入した場合に文として成り立つ場合には,言い換え前の他動詞文の主格が自動詞文では含意されないため不適格とした.この言語テストに照らすと,例\refex{detrans1}は適格,\refex{detrans2}は不適格と判定される.\numexs{detrans1}{\item[s.]彼がスープ\textbf{を}\textbf{温めた}.\item[t.]スープ\textbf{が}\textbf{温まった}({\bad}勝手に).}\numexs{detrans2}{\item[s.]彼が氷\textbf{を}\textbf{溶かした}.\item[t.]{\neqex}氷\textbf{が}\textbf{溶けた}(勝手に).}ただし,言い換え前の文の主格が言い換えによって欠けるため,両例とも不適格だとする考え方もある.今回の試みによって蓄えられた多くの言い換え事例と適否判定ガイドラインには,今後このような問題を議論するための素材としての用途もある.
\section{おわりに}
\label{sec:conclusion}言い換えという現象を工学的・言語学的側面の両方から解明するためには,様々な言い換えを漠然と扱うだけでなく,特定の言い換えクラスに焦点をしぼった事例研究が欠かせない.本論文では,このような基礎研究の基盤となる言い換えコーパスを構築するため,言い換え前後の表現の形態・構文的パターンと既存の言い換え生成システムを用いる半自動的な事例収集手法について検討した.また,2つの言い換えクラスを取り上げた予備試行を通じ,この手法が比較的頑健に作用することを示した.言い換えコーパスに求められる仕様はその用途によって異なると予測される.たとえば,言い換え技術の性能評価用のコーパスは実際に用いられる表現の分布を反映する必要があるが,言い換えの構成性を裏付ける語の統語・意味的な特性を特定するためには,特定の構成要素ごとに偏りのないコーパスが求められる.ゆえに今後は,実際の言い換えコーパスの構築を通じてこれらの仕様の整理とそれを実現する技術の開発に取り組みたい.そして,事例収集効率と適否判定の信頼性の改善をはかりながら,\sec{aim}で示したような語彙構成的言い換えのそれぞれについてコーパスを構築していきたい.\bibliographystyle{jnlpbbl}\newcommand{\noopsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bannard\BBA\Callison-Burch}{Bannard\BBA\Callison-Burch}{2005}]{bannard:05}Bannard,C.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2005\BBCP.\newblock\BBOQParaphrasingwithbilingualparallelcorpora\BBCQ\\newblockIn{\BemProceedingsofthe43thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\597--604.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2003}]{barzilay:03:a}Barzilay,R.\BBACOMMA\\BBA\Lee,L.\BBOP2003\BBCP.\newblock\BBOQLearningtoparaphrase:anunsupervisedapproachusingmultiple-sequencealignment\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceandtheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\16--23.\bibitem[\protect\BCAY{Brockett\BBA\Dolan}{Brockett\BBA\Dolan}{2005}]{brockett:05}Brockett,C.\BBACOMMA\\BBA\Dolan,W.~B.\BBOP2005\BBCP.\newblock\BBOQSupport{Vector}{Machines}forparaphraseidentificationandcorpusconstruction\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalWorkshoponParaphrasing{\rm(}IWP\/{\rm)}},\BPGS\1--8.\bibitem[\protect\BCAY{Dolan,Quirk,\BBA\Brockett}{Dolanet~al.}{2004}]{dolan:04}Dolan,B.,Quirk,C.,\BBA\Brockett,C.\BBOP2004\BBCP.\newblock\BBOQUnsupervisedconstructionoflargeparaphrasecorpora:exploitingmassivelyparallelnewssources\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\350--356.\bibitem[\protect\BCAY{Dolan\BBA\Brockett}{Dolan\BBA\Brockett}{2005}]{dolan:05}Dolan,W.~B.\BBACOMMA\\BBA\Brockett,C.\BBOP2005\BBCP.\newblock\BBOQAutomaticallyconstructingacorpusofsententialparaphrases\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalWorkshoponParaphrasing{\rm(}IWP\/{\rm)}},\BPGS\9--16.\bibitem[\protect\BCAY{Dras}{Dras}{1999}]{dras:99:a}Dras,M.\BBOP1999\BBCP.\newblock{\BemTreeadjoininggrammarandthereluctantparaphrasingoftext}.\newblockPh.D.\thesis,DivisionofInformationandCommunicationScience,MacquarieUniversity.\bibitem[\protect\BCAY{藤田乾}{藤田\JBA乾}{2003}]{fujita:03:c}藤田篤,乾健太郎\BBOP2003\BBCP.\newblock\JBOQ語彙・構文的言い換えにおける変換誤りの分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11),pp.~2826--2838.\bibitem[\protect\BCAY{乾藤田}{乾\JBA藤田}{2004}]{inui:04:a}乾健太郎,藤田篤\BBOP2004\BBCP.\newblock\JBOQ言い換え技術に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(5),pp.~151--198.\bibitem[\protect\BCAY{Jackendoff}{Jackendoff}{1990}]{jackendoff:90}Jackendoff,R.\BBOP1990\BBCP.\newblock{\BemSemanticstructures}.\newblockTheMITPress.\bibitem[\protect\BCAY{影山}{影山}{1996}]{kageyama:96}影山太郎\BBOP1996\BBCP.\newblock\Jem{動詞意味論---言語と認知の接点}.\newblockくろしお出版.\bibitem[\protect\BCAY{影山}{影山}{2001}]{kageyama:01}影山太郎\JED\\BBOP2001\BBCP.\newblock\Jem{日英対照動詞の意味と構文}.\newblock大修館書店.\bibitem[\protect\BCAY{金城,青野,安田,竹澤,菊井}{金城\Jetal}{2003}]{kinjo:03}金城由美子,青野邦夫,安田圭志,竹澤寿幸,菊井玄一郎\BBOP2003\BBCP.\newblock\JBOQ旅行会話基本表現に対する日本語パラフレーズデータの収集\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\101--104.\bibitem[\protect\BCAY{Lavoie,Kittredge,Korelsky,\BBA\Rambow}{Lavoieet~al.}{2000}]{lavoie:00}Lavoie,B.,Kittredge,R.,Korelsky,T.,\BBA\Rambow,O.\BBOP2000\BBCP.\newblock\BBOQAframeworkfor{MT}andmultilingual{NLG}systemsbasedonuniformlexico-structuralprocessing\BBCQ\\newblockIn{\BemProceedingsofthe6thAppliedNaturalLanguageProcessingConferenceandthe1stMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}ANLP-NAACL\/{\rm)}},\BPGS\60--67.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin:93}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishverbclassesandalternations:apreliminaryinvestigation}.\newblockChicagoPress.\bibitem[\protect\BCAY{Mel'\v{c}uk\BBA\Polgu\`{e}re}{Mel'\v{c}uk\BBA\Polgu\`{e}re}{1987}]{melcuk:87}Mel'\v{c}uk,I.\BBACOMMA\\BBA\Polgu\`{e}re,A.\BBOP1987\BBCP.\newblock\BBOQAformallexiconinmeaning-texttheory(orhowtodolexicawithwords)\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13}(3-4),pp.~261--275.\bibitem[\protect\BCAY{村木}{村木}{1991}]{muraki:91}村木新次郎\BBOP1991\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{Quirk,Brockett,\BBA\Dolan}{Quirket~al.}{2004}]{quirk:04}Quirk,C.,Brockett,C.,\BBA\Dolan,W.\BBOP2004\BBCP.\newblock\BBOQMonolingualmachinetranslationforparaphrasegeneration\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing{\rm(}EMNLP\/{\rm)}},\BPGS\142--149.\bibitem[\protect\BCAY{下畑,竹澤,菊井}{下畑\Jetal}{2003}]{shimohata:03:b}下畑光夫,竹澤寿幸,菊井玄一郎\BBOP2003\BBCP.\newblock\JBOQ旅行会話における英語の同義表現コーパスの作成と分析\JBCQ\\newblock\Jem{情報科学技術レターズ},\BPGS\83--85.\bibitem[\protect\BCAY{Shinyama\BBA\Sekine}{Shinyama\BBA\Sekine}{2003}]{shinyama:03}Shinyama,Y.\BBACOMMA\\BBA\Sekine,S.\BBOP2003\BBCP.\newblock\BBOQParaphraseacquisitionforinformationextraction\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\65--71.\bibitem[\protect\BCAY{白井山本}{白井\JBA山本}{2001a}]{shirai:01:a}白井諭,山本和英\BBOP2001a\BBCP.\newblock\JBOQ換言事例の収集---日英基本構文を対象として\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\401--404.\bibitem[\protect\BCAY{白井山本}{白井\JBA山本}{2001b}]{shirai:01:b}白井諭,山本和英\BBOP2001b\BBCP.\newblock\JBOQ換言事例の収集---機械翻訳における多様性確保の観点から\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\3--8.\bibitem[\protect\BCAY{Takahashi,Iwakura,Iida,Fujita,\BBA\Inui}{Takahashiet~al.}{2001}]{takahashi:01:c}Takahashi,T.,Iwakura,T.,Iida,R.,Fujita,A.,\BBA\Inui,K.\BBOP2001\BBCP.\newblock\BBOQ{\scKura}:atransfer-basedlexico-structuralparaphrasingengine\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\37--46.\bibitem[\protect\BCAY{Zhang,Yamamoto,\BBA\Sakamoto}{Zhanget~al.}{2001}]{zhang:01}Zhang,Y.,Yamamoto,K.,\BBA\Sakamoto,M.\BBOP2001\BBCP.\newblock\BBOQParaphrasingutterancesbyreorderingwordsusingsemi-automaticallyacquiredpatterns\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}},\BPGS\195--202.\end{thebibliography}\newcommand{\email}[1]{}\begin{biography}\biotitle{略歴}\bioauthor{藤田篤(正会員)}{2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2006年より名古屋大学大学院工学研究科助手.現在に至る.博士(工学).自然言語処理,特にテキストの自動言い換えの研究に従事.情報処理学会,ACL各会員.}\bioauthor{乾健太郎(正会員)}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授.2004年文部科学省長期在外研究員として英国サセックス大学に滞在.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-07
|
\section{はじめに}
label{sec:intro}近年,Twitter\footnote{http://twitter.com/}などのマイクロブログが急速に普及している.主に自身の状況や雑記などを短い文章で投稿するマイクロブログは,ユーザの情報発信への敷居が低く,現在,マイクロブログを用いた情報発信が活発に行われている.2011年3月11日に発生した東日本大震災においては,緊急速報や救援物資要請など,リアルタイムに様々な情報を伝える重要な情報インフラの1つとして活用された\cite{Book_Hakusho,Article_Nishitani,Book_Tachiiri}.マイクロブログは,重要な情報インフラとなっている一方で,情報漏洩や流言の拡散などの問題も抱えている.実際に,東日本大震災においても,様々な流言が拡散された\cite{Book_Ogiue}.{\bf流言}については,これまでに多くの研究が多方面からなされている.流言と関連した概念として{\bf噂},{\bf風評},{\bfデマ}といった概念がある.これらの定義の違いについては諸説あり,文献毎にゆれているのが実情である.本研究では,{\bf十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義し,その発生過程(悪意をもった捏造か自然発生か)は問わない}ものとする.よって,最終的に正しい情報であっても,発言した当時に,十分な根拠がない場合は,流言とみなす.本論文では,マイクロブログの問題の1つである,流言に着目する.流言は適切な情報共有を阻害する.特に災害時には,流言が救命のための機会を損失させたり,誤った行動を取らせたりするなど,深刻な問題を引き起こす場合もある.そのため,マイクロブログ上での流言の拡散への対策を検討していく必要があると考えられる.マイクロブログの代表的なツールとして,Twitterがある.Twitterは,投稿する文章(以下,ツイート)が140字以内に制限されていることにより,一般的なブログと比較して情報発信の敷居が低く\cite{Article_Tarumi},またリツイート(RT)という情報拡散機能により,流言が拡散されやすくなっている.実際に,東日本大震災においては,Twitterでは様々な流言が拡散されていたが,同じソーシャルメディアであっても,参加者全員が同じ情報と意識を持ちやすい構造を採用しているmixi\footnote{http://mixi.jp/}やFacebook\footnote{http://www.facebook.com/}では深刻なデマの蔓延が確認されていないという指摘もある\cite{Book_Kobayashi}.マイクロブログ上での流言の拡散への対策を検討するためには,まずマイクロブログ上の流言の特徴を明らかにする必要がある.そこで本論文では,マイクロブログとして,東日本大震災時にも多くの流言が拡散されていたTwitterを材料に,そこから481件の流言テキストを抽出した.さらに,どのような流言が深刻な影響を与えるか,有害性と有用性という観点から被験者による評価を行い,何がその要因となっているか,修辞ユニット分析の観点から考察を行った.その結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性という全く別の側面を持つ可能性があることが明らかとなった.以下,2章において関連研究について述べる.3章では分析の概要について述べる.4章で分析結果を示し,マイクロブログ上での流言について考察する.5章で将来の展望を述べ,最後に6章で本論文の結論についてまとめる.
\section{関連研究}
label{sec:reference}本論文では,災害時のマイクロブログ上での流言について分析を行う.そこで本章では,まず,流言に関するこれまでの定義について述べた後,災害や流言について扱ったソーシャルメディアに関する研究について述べる.\subsection{流言の定義と流言の伝達}本節では,実社会における流言の先行研究について述べる.流言の分類としては,ナップによる第2次世界大戦時の流言の分類がある\cite{ナップ1944}.ナップは,流言を「恐怖流言(不安や恐れの投影)」「願望流言(願望の投影)」「分裂流言(憎しみや反感の投影)」の3つに分類している.また,これらの流言がどのように流通するかは,例えば不景気,災害など,社会状況に依存すると述べている.また,社会状況だけでなく,流言の伝達に影響する要素として,流言の内容,特に,{\bf曖昧さ},{\bf重要さ},{\bf不安}という3つの要因が知られている\cite{Book_Kawakami}.オルポートとポストマンは,流言の流布量について,$R\simi\timesa$のように定式化し,「流言の流布量(R)は,重要さ(i)と曖昧さ(a)の積に比例する」と述べている\cite{Book_dema}.このように,流言に関しては古くから研究が行われてきたが,主に口伝えでの流言の伝達を対象としてきた.本論文では,口伝えより,より迅速に,また,広範囲に広まりうるネットワーク上での流言を扱った点が新しい.\subsection{災害,流言とソーシャルメディア}本節では,災害を扱ったTwitterをはじめとするソーシャルメディアの先行研究について概観する.災害時のソーシャルメディアの利用方法について分析した研究としては,まずLonguevilleらやQuら,Backら,Cohnら,Viewegらの研究がある\cite{Inproc_Longueville,Inproc_Qu2009,Inproc_Qu,Article_Back,Article_Cohn,Inproc_Vieweg}.Longuevilleらは,2009年にフランスで発生した森林火災に関して,Twitterに発信されたツイートの分析を行っている\cite{Inproc_Longueville}.この研究においては,ツイートの発信者の分類や,ツイートで引用されたURLの参照内容に関する分析などを行っている.Quらは四川大地震および青海地震において中国のオンラインフォーラム(BBS)がどのように利用されたのかを分析している\cite{Inproc_Qu2009,Inproc_Qu}.また,BackらやCohnらは,9.11時のブログの書き込み内容を分析し,人々の感情の変化を分析している\cite{Article_Back,Article_Cohn}.Viewegら\cite{Inproc_Vieweg}は,2009年のオクラホマの火事(OklahomaGrassfires)やレッドリバーでの洪水(RedRiverFloods)におけるTwitterの利用方法を調査している.これらの研究では発信された内容を分類し,情報の発信の方法(情報発信か返信か)や,その位置関係について議論しているが,情報が流言かどうかといった観点からの分析は行われていない.流言については,災害時に限らず,多くのソーシャルメディア上の研究がある.Qazvinianらは,マイクロブログ(Twitter)における特定の流言に関する情報を網羅的に取得することを目的とし,流言に関連するツイートを識別する手法を提案している\cite{Inproc_Qazvinian}.Mendozaらは,2010年のチリ地震におけるTwitterユーザの行動について分析を行っている\cite{Inproc_Mendoza}.この研究では,正しい情報と流言に関するツイートを,「支持」「否定」「疑問」「不明」に分類し,支持ツイート,否定ツイートの数について,正しい情報と流言との違いを分析している.分析結果として,正しい情報を否定するツイートは少ないが(0.3\%),流言を否定するツイートは約50\%に上ることを示している.
\section{分析の概要}
マイクロブログ上での流言拡散への対策を検討するためには,マイクロブログ上の流言の特徴を明らかにする必要がある.まず,なぜ人間は流言を拡散させるのであろうか.一般に,人々がある情報を他者に伝える場合,その情報が正しいと思って伝えていることが多く,本人がでたらめだと思う話を,悪意をもって他者に伝えることは少ない\cite{Book_Kawakami}.また,流言とは,曖昧な状況に巻き込まれた人々が,自分たちの知識や情報を寄せ集めることにより,その状況について意味のある解釈を行おうとするコミュニケーションであるという考察もある\cite{Article_Sato}.つまり,災害時の流言は,何らかの役に立ち得る(有用性のある)情報を含み,それを共有するために善意で拡散されている可能性がある.次に,流言が拡散された場合,どのような問題が起きるかという点を考えると,\ref{sec:intro}章で述べたように,情報受信者を誤った行動に導き,様々な損失を与えるということが考えられる.つまり,特に対策を講じるべき流言とは,情報受信者にとって有害性のある情報である.また,上述した何らかの役に立ち得る(有用性のある)情報は,人々の行動などに影響を与える可能性もある.すなわち,流言の内容が有用と判断される場合には,情報受信者の何らかの行動を引き起こし得ると考えられ,有用性の高さは有害性と関連する可能性がある.そこで本研究では,上述した「有害性」および「有用性」という観点に着目し,次の2つの分析を行う.\begin{enumerate}\item{\bf流言の有害性/有用性}:どのような流言が有害または有用とみなされるのかの主観評価を行う.\item{\bf流言の修辞ユニット分析}:どのような特徴が先の有害性/有用性に影響を与えているのか,後述する修辞ユニット分析という手法を用いて解析する.\end{enumerate}\subsection{材料:対象データセット}\label{sec:dataset}本研究では,分析対象のデータとして,東日本大震災ビッグデータワークショップにおいてTwitterJapan株式会社により提供された,3月11日から1週間分のツイートデータを用いた.\ref{sec:intro}章で述べたように,本論文では,十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義する.そこで,ある情報の真偽について言及しているツイートが投稿されている場合,真偽を疑問視された内容は流言と見なし,それらを分析対象の流言として用いることとする.\begin{table}[b]\caption{流言抽出のパターン}\label{正規表現}\input{24table01.txt}\end{table}流言は以下の手順で抽出した.\begin{enumerate}\itemデータ全体から,情報の真偽について言及しているツイートをキーワード「デマ」をもとに抽出する\footnote{今回は,真偽を言及する際に「デマ」「流言」など特定のキーワードが用いられる可能性があると考え,表\ref{正規表現}のPTN2に相当する文字列を含むツイートを抽出した.}.\item手順(1)で抽出したツイートから,``「〜」というデマ''というパターンを用いて流言内容(「〜」部)を抽出する.用いたパターンは表\ref{正規表現}に示す.\item抽出された流言内容を人手で確認し,内容を理解可能なもののみを抽出する.\end{enumerate}上記の手順により,486件\footnote{なお,抽出した486件の流言テキストのうち,5件は分析対象外としたため,実際の分析対象となった流言テキストは481件である.詳細は\ref{sec:result}章で述べる.}の流言テキストを抽出した.抽出されたテキストの一部を表~\ref{table:example}に示す.なお,本手順では,同じ流言の異なる表現のバリエーションも抽出されうる.例を表~\ref{table:difEx}に示す.本研究では,同じ流言を意図していても,伝え方によって印象が異なる可能性があると考え,1つの流言に対する分析対象を1つのテキストとするのではなく,複数のテキストを扱うこととする.\begin{table}[t]\caption{抽出された流言の例}\label{table:example}\input{24table02.txt}\end{table}\begin{table}[t]\caption{同じ流言の表現のバリエーションの例}\label{table:difEx}\input{24table03.txt}\end{table}\subsection{分析1:流言内容の影響度に関する主観評価}前述したように,災害時の流言拡散において,実際的に問題となるのは,その流言が実際に流言(虚偽の情報)であった場合,どれくらい有害であるか,また,逆に,それが流言でなかった場合,どれくらい有用であるのかという2つの問題である.そこで,以下の2項目について主観評価を実施した.\begin{description}\item[有害性:]この情報が間違っている場合,この情報は人にとって有害である.\item[有用性:]この情報が正しい場合,この情報は人にとって有用である.\end{description}なお,本評価では,評価者自身にとって有害・有用でない情報であっても,ある人にとって有害・有用であると考えられる場合は,有害・有用と判断してもらうこととした.各項目の評価は,5段階評価(1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する)を用いることとし,共著者を含む7名の評価者により評価を行った.また,評価者が上記のいずれの評価値もつけることができないと判断した場合,評価不能($-1$)とすることとした.\subsection{分析2:流言内容の分類}分析1では,流言の有害性と有用性という2つの尺度から,流言について主観評価を行った.次に問題となるのは,流言のどのような要素が有害性や有用性に影響を与えているかである.そこで,2つ目の分析として,流言内容をいくつかの特徴から分析した.この際に,先行研究で観られた分類(行動を促進するかどうか,ネガティブな内容であるかどうか)に加え,知識伝達の分析に用いられる修辞ユニット分析を用いた.\subsubsection{従来の分類}流言内容を分類した先行研究\cite{Article_Umejima}では,「ネガティブである」「不安を煽る」「行動を促進する」といった観点により流言の分類を行っている.そこで,先行研究における分類に基づき,以下の5項目について主観評価を実施した.\begin{description}\item[ネガティブさ:]この情報はネガティブな内容である.\item[行動促進:]この情報は行動を促している.\item[不安扇動:]この情報は不安を煽る.\item[尤もらしさ:]この情報は尤もらしい.\item[伝聞情報:]この情報には伝聞情報が含まれる.\end{description}各項目の評価は,5段階評価(1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する)を用いることとし,共著者を含む7名の評価者により評価を行った.\subsubsection{修辞ユニット分析}\label{sec:rua}修辞ユニット分析(RhetoricalUnitAnalysis以下,RUA)\cite{Cloran99}は,談話分析手法の1つであり,分析の過程で,伝達される内容の{\bf修辞機能}の特定を行い,文脈化の程度を知ることができる.ここでいう文脈とは,一般的な話であるほど脱文脈化されており,個人的な話であるほど文脈化されているとみなす尺度である.例えば,「ホウ素は特殊な結晶構造をとるため放射線を吸収します。」というのは一般性を持つため脱文脈化されているとみなす.逆に,「ホウ素サプリを採りましょう」というのは聞き手に行動を促しており,文脈化されているとみなす.先行研究では,母子会話や生徒—教師の解析\cite{Cloran94,Cloran99,Cloran2010},作文指導\cite{Article_Sano},Q\&Aサイトの解析\cite{Inproc_TanakaandSano,Inproc_TanakaandSano2,Inproc_TanakaandSano3,Inproc_Tanaka}などに用いられてきた.日本語への適用については文献\cite{Web_Sano,Article_Sano2011}が詳しい.本稿では,その概要のみを述べるものとする.\begin{table}[b]\caption{修辞機能の特定と脱文脈化指数}\label{table:rua}\input{24table04.txt}\vspace{0.5zw}\small「n/a」は該当なし/太字の部分が修辞機能の種類/[]内は脱文脈化指数\par\end{table}RUAは通常次の手続きを踏む.\begin{enumerate}\item発話のメッセージ(基本的には節)の{\bf発話機能}を認定し,{\bf中核要素}と{\bf現象定位}を確認する.{\bf発話機能}は,「与える」と「要求する」の「交換における役割」と,「品物/行為」と「情報」という「交換されるもの」の二項の組み合わせで構成され,「品物/行為」の交換を「提言」,「情報」の交換を「命題」とする\cite{Book_Halliday}.{\bf中核要素}は,基本的には発話内容の主語で判断し,「状況外」など4つのカテゴリからなる.{\bf現象定位}は,発話機能が「命題」と認定されたメッセージについて,その発話内容の出来事が起こった,あるいは起こる時を,基本的にはテンスや時間を表す副詞句などから判断し,「過去」など6つのカテゴリからなる.\itemこの,発話機能と中核要素と現象定位の組み合わせから,14のレベルに細分化された修辞機能が特定され,文脈化の程度(脱文脈化指数と呼ばれる)が測られる(表\ref{table:rua}).脱文脈化指数の数値が大きいものほど脱文脈化の程度が高く一般的・汎用的で,小さいものほど脱文脈化の程度が低く個人的・特定的である.\end{enumerate}各修辞機能と脱文脈化指数へと分類されるテキストの例を以下に示す.[]内は脱文脈化指数を示す.\begin{description}\item[[01]行動]みんなで節電しましょう\\(中核要素対象:みんなで,現象定位対象:節電しましょう)\item[[02]実況]血が流れている。\\(中核要素対象:血が,現象定位対象:流れている)\item[[03]状況内回想]ラックが倒壊した。\\(中核要素対象:ラックが,現象定位対象:倒壊した)\item[[04]計画]お水買っといた方がいいんじゃない?\\(中核要素対象:$\phi$=あなたは(あるいはわたしは),現象定位対象:お水買っといた方がいいんじゃない?)\item[[05]状況内予想]もうすぐ肉不足で焼肉食べられなくなる\\(中核要素対象:$\phi$=あなたは(あるいはわたしは),現象定位対象:もうすぐ肉不足で焼肉食べられなくなる)\item[[06]状況内推測]放射能が来ても自転車のチューブがあれば助かるらしいぞ\\(中核要素対象:$\phi$=あなたは,現象定位対象:自転車のチューブがあれば助かるらしいぞ)\item[[07]自己記述]国際線で1回飛ぶと宇宙線を1ミリシーベルト近く被曝します\\(中核要素対象:$\phi$=あなたは,現象定位対象:宇宙線を1ミリシーベルト近く被曝します)\item[[08]観測]このそば屋の店主はいつも愛想がない\\(中核要素対象:このそば屋の店主,現象定位対象:いつも愛想がない)\item[[09]報告]301号にけが人がいます\\(中核要素対象:けが人が,現象定位対象:います)\item[[10]状況外回想]阪神大震災の際ははじめの地震から三時間後に一番強い地震がきた\\(中核要素対象:一番強い地震が,現象定位対象:きた)\item[[11]予測]関東の方は深夜に地震が起きる可能性があるそうです。\\(中核要素対象:地震が,現象定位対象:起きる可能性があるそうです)\item[[12]推量]首都圏で買いだめすると被災地に物資が届かなくなる\\(中核要素対象:物資が,現象定位対象:届かなくなる)\item[[13]説明]日本ユニセフ協会は募金をピンハネする\\(中核要素対象:日本ユニセフ協会は,現象定位対象:募金をピンハネする)\item[[14]一般化]ホウ素は特殊な結晶構造をとるため放射線を吸収します。\\(中核要素対象:ホウ素は,現象定位対象:特殊な結晶構造をとるため放射線を吸収します。)\end{description}なお,修辞ユニット分析については,修辞ユニット分析に精通した1名の作業者が分類作業を行った.
\section{分析結果と考察}
\label{sec:result}本論文では,分析1における評価結果において,評価者7名の内4名以上が判定不能と判断したもの,および分析2における修辞機能と脱文脈化指数の認定ができなかったものは分析対象から除外することとした.確認の結果,分析1において評価者4名以上が判定不能と判断したものは存在しなかったため,分析2における修辞機能と脱文脈化指数の認定ができなかった5件のみを除外した,481件の流言テキストを分析対象とした.また,分析1の評価結果については,7名の評価者による全ての評価結果(481件×7名分,3,367件)および7名による評価結果の中央値を用いて考察する\footnote{なお,評価者が「判定不能」と評価した場合,中央値の算出や頻度の計算においては,その評価値は除外する.}.\subsection{流言内容の影響度に関する主観評価結果}\label{sec:subjective}\begin{table}[b]\caption{有害性,有用性に関する分類結果}\label{table:evalRes}\input{24table05.txt}\par\vspace{0.5zw}\small・各評価値は,1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する,を意味する.\\・「判定不能」と評価した評価者がいた場合,その値は除外して中央値を取っている.表中の1.5,2.5,3.5,4.5欄は,除外後の評価結果が偶数個の場合の中央値(中央に近い2つの値の算術平均)である.\par\end{table}本節では,分析1(流言内容の影響度に関する主観評価)の結果について述べる.流言テキストの有害性,有用性に関する主観評価結果を表~\ref{table:evalRes}に示す.表~\ref{table:evalRes}より,481件に対する7名の全評価値\footnote{表中の該当数の合計が全評価結果数(3,367件)に満たないのは,「判定不能」と評価されたものは除外しているためである.}についてみると,有害性,有用性のどちらについても,「同意する」(評価値4または5)が多い傾向が見られる.また,481件の各流言テキストに対する評価値の代表値として,中央値をとった場合の分類結果を見ると,全評価値と同様に,有害性,有用性のどちらも「同意する」(評価値4または5)に分類された流言が多く,震災時に発信された流言テキストは,有害性や有用性が高い傾向が見られる.\begin{table}[b]\caption{有害性評価と有用性評価の分布(中央値を用いた場合)}\label{table:harmful_median}\input{24table06.txt}\end{table}\begin{table}[b]\caption{有害性評価と有用性評価の分布(7名の全評価結果)}\label{table:harmful_all}\input{24table07.txt}\end{table}また,481件に対する7名の有害性,有用性の評価結果ペア(3,367ペア)をもとに順位相関係数を調査した結果,順位相関係数は0.601であり,正の相関がみられた.また,流言テキスト1件毎に中央値をとった場合の,481ペアの有害性,有用性評価結果の順位相関係数は0.628となり,同様に正の相関がみられた.有害性評価と有用性評価の分布を表~\ref{table:harmful_median},\ref{table:harmful_all}に示す.表~\ref{table:harmful_median},\ref{table:harmful_all}より,一部,有害性と有用性の分類結果に相関がみられないものも見られる.例えば,「ほくでんが東京電力に電力提供する準備を始めた」という流言テキストは,有害性の評価結果(中央値)は2であったが,有用性の評価結果(中央値)は4であった.また,「韓国で日本の大地震を記念したTシャツが売られている」という流言テキストは,有害性の評価結果(中央値)は4であったが,有用性の評価結果(中央値)は2であった.これらの一部例外となる流言テキストはあるものの,大部分の流言テキストについては,有害性と有用性の分類結果は類似している.つまり,{\bf有用性と有害性は表裏一体の関係にあることが多く,情報が正しい場合に有用性の高い内容は,その情報が間違っていた場合に有害となりうると言える.}\subsection{流言内容の分類結果}\label{sec:ruaRes}\begin{table}[b]\caption{主観評価による分類結果}\label{table:evalRes2}\input{24table08.txt}\par\vspace{0.5zw}\small・各評価値は,1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する,を意味する.\\・「判定不能」と評価した評価者がいた場合,その値は除外して中央値を取っている.表中の1.5,2.5,3.5,4.5欄は,除外後の評価結果が偶数個の場合の中央値(中央に近い2つの値の算術平均)である.\par\end{table}\begin{table}[b]\caption{主観評価結果の相関係数(中央値を用いた場合)}\label{table:correl}\input{24table09.txt}\end{table}本節では,分析2(流言内容の分類)の結果について述べる.まず,先行研究に基づく流言内容の主観評価結果を表~\ref{table:evalRes2}に,各項目および有害性,有用性の評価結果の順位相関係数を表~\ref{table:correl},\ref{table:correl2}にそれぞれ示す.表~\ref{table:evalRes2}より,震災時に流れた流言内容は,ネガティブで,不安を煽るものであることがわかる.これは,先行研究における結論\cite{Book_dema}と一致する.なお,表~\ref{table:correl},\ref{table:correl2}に示した各項目と有害性,有用性の評価結果の相関を見ると,中央値を用いた場合は,行動促進と有害性,有用性との間や,不安扇動と有用性との間に相関が見られる.全評価値を用いた場合の上記の関連は,中央値を用いた場合よりも相関は弱くなるものの,同様の傾向が見られる.一方,尤もらしさや伝聞情報に関しては,上述した指標と比較して相関が弱く,これらの影響で有害性や有用性が決定されているわけでないと言える.次に,修辞ユニット分析による分類結果を表~\ref{table:ruaRes}に示す.\begin{table}[b]\caption{主観評価結果の相関係数(全評価値を用いた場合)}\label{table:correl2}\input{24table10.txt}\end{table}\begin{table}[b]\caption{修辞機能と脱文脈化指数による分類結果}\label{table:ruaRes}\input{24table11.txt}\vspace{0.5zw}\small*修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が認定され,脱文脈化指数が付与される場合がある.そこで,表~\ref{table:ruaRes}には1つのツイートに付与された脱文脈化指数のうち,最大値および最小値を代表値とした場合の該当数を提示している.\par\end{table}まず,脱文脈化指数の観点から考察する.\ref{sec:rua}項で述べたように,脱文脈化指数は,数値が大きいものほど一般的・汎用的で,小さいものほど個人的・特定的であるとされる.表~\ref{table:ruaRes}を見ると,各脱文脈化指数に分類される流言テキストの数にはばらつきがみられ,発信された流言について,各脱文脈化指数の大きさとの関連は見られなかった.つまり,内容が一般的か,個人的かに関わらず,流言は発信されると考えられる.次に,修辞機能の観点から考察する.表~\ref{table:ruaRes}より,[01]行動,[09]報告,[10]状況外回想,[11]予測に分類されたものが合計397件(代表値が最大値の場合)および408件(代表値が最小値の場合)で,代表値を最大値,最小値とした場合のいずれについても,分析対象の80\%以上となる.つまり,{\bf震災時の流言のカテゴリは4つ(行動を促す内容,状況の報告,状況外回想,予測)が大部分を占めていることがわかる.}\subsection{修辞機能と脱文脈化指数による分類結果から見た有害性,有用性}\label{sec:ResTotal}本節では,修辞機能および脱文脈化指数による分類結果をもとに,有害性,有用性との関連について考察する.修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が特定され脱文脈化指数が付与される場合がある.表~\ref{table:ruaRes}に示したように,代表値を最大値,最小値とした場合の分布は類似している.それぞれの結果をもとに有害性,有用性との関連を確認した結果,いずれも同様の傾向を示したが,最小値を用いた場合により顕著な傾向が見られたため,以降の分析では脱文脈化指数の最小値を代表値とした場合の分類結果をもとに議論する.\subsubsection*{有害性との関連}図~\ref{fig:bargraph_yugai}に,有害性の各評価値に分類された流言に関する,修辞機能と脱文脈化指数の割合を示す.なお,図~\ref{fig:bargraph_yugai}では,有害性の評価結果(中央値)に基づき,有害性の低いもの(評価値1,1.5,2),中程度のもの(評価値2.5,3,3.5),高いもの(評価値4,4.5,5)に分類されたものをまとめた際の修辞機能と脱文脈化指数の割合を提示している.各評価値における修辞機能と脱文脈化指数の割合については,付録における図~\ref{fig:bargraph1}として提示している.また,分類結果の例として,[01]行動と[09]報告の例を表~\ref{table:ruaRes1}に示す.図~\ref{fig:bargraph_yugai}より,有害性が高いと評価された流言(評価値4〜5)は,修辞機能と脱文脈化指数の分類結果としては,[01]行動に約30\%が,[11]予測に約25\%の流言が分類されている.ここでいう行動には注意喚起や救援要請など,情報受信者の行動を促進するものが含まれ(表~\ref{table:ruaRes1}),この結果は,\ref{sec:ruaRes}節で述べた,行動促進が有害性と相関していることを裏付けている.逆に,有害性が低いと評価された流言(評価値1〜2)の70\%程度は,修辞機能と脱文脈化指数が[09]報告や[10]状況外回想に分類されている.このように,本結果から,行動促進のみが有害性と相関するだけでなく,有害性を低くする要素として,回想や報告があることが伺える.\begin{figure}[p]\begin{center}\includegraphics{20-3ia24f1.eps}\end{center}\caption{有害性と修辞機能および脱文脈化指数}\label{fig:bargraph_yugai}\end{figure}\begin{table}[p]\caption{有害性評価結果における特徴的な分類結果の例}\label{table:ruaRes1}\input{24table12.txt}\end{table}\subsubsection*{有用性との関連}図~\ref{fig:bargraph_yuyou}に,有用性の各評価値に分類された流言に関する,修辞機能と脱文脈化指数の割合を示す.図~\ref{fig:bargraph_yuyou}についても,図~\ref{fig:bargraph_yugai}と同様に,有用性の評価結果(中央値)に基づき,有用性の低いもの(評価値1,1.5,2),中程度のもの(評価値2.5,3,3.5),高いもの(評価値4,4.5,5)に分類されたものをまとめた際の修辞機能と脱文脈化指数の割合を提示している.各評価値における修辞機能と脱文脈化指数の割合については,付録における図~\ref{fig:bargraph2}として提示する.\begin{figure}[b]\begin{center}\includegraphics{20-3ia24f2.eps}\end{center}\caption{有用性と修辞機能および脱文脈化指数}\label{fig:bargraph_yuyou}\end{figure}先の有害性と同じく,有用性が高いと評価された流言の30\%前後が[01]行動に,25\%程度が[11]予測に分類され,有用性が低いと評価された流言の74\%程度が[09]報告や[10]状況外回想に分類された.表~\ref{table:ruaRes2}に,分類結果の例として[10]状況外回想と[11]予測の例を示す.このように,有害性と有用性は基本的には同様の傾向を示すことがわかった.\subsubsection*{有害性,有用性と修辞機能との関連のまとめ}以上の有害性,有用性との関連の結果から,行動を促すテキストおよび将来発生し得る事象の予測を含むテキストは,震災時高い有用性と有害性を持つと判断される.また,回想や報告を含むテキストは,震災時の有用性と有害性が低い傾向がある.つまり,{\bf情報受信者の未来の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性を持ち,過去に発生したことの報告については,有用性・有害性が低いと考えられる.}\begin{table}[t]\caption{有用性評価結果における特徴的な分類結果の例}\label{table:ruaRes2}\input{24table13.txt}\vspace{0.5zw}\small*「〜と聞いた」のような形式のテキストについては,「〜」の部分が分析対象となる.\par\end{table}\subsection{表現の違いによる影響}\label{sec:diff}\ref{sec:dataset}節で述べたように,本論文における抽出手順では,同じ流言の異なる表現のバリエーションも抽出されうる.本論文では,同じ流言を意図していても,伝え方によって印象が異なる可能性があると考え,1つの流言に対する分析対象を1つのテキストに限定せず,複数のテキストを扱った.しかし,同じ流言を意図する表現が大量に含まれる場合,それらが結果に影響する可能性がある.そこで,本節では,1つの流言に対するテキストを限定した場合の結果について述べる.まず,表~\ref{table:difEx}に示したような,同じ内容を取り扱っているが異なる表現を持つものを1つの流言と見なした場合の,データセット中の流言数を確認した.流言テキストに含まれるキーワードをもとに分類し,さらに人手で内容を確認しながら流言内容毎の表現バリエーション数を調査した.確認の結果,481件の流言テキストに含まれる独立した流言内容は256件であった.表~\ref{table:variation}に,表現バリエーション数を示す.2つ以上の表現バリエーションを持つ流言内容は256件中44件であり,1つの流言内容に対する最大の表現バリエーション数は,81バリエーションであった.次に,複数の表現バリエーションを持つ流言内容から,代表となるテキストをランダムに抽出した.なお,同じ流言を意図する複数の表現が,すべて同じ修辞機能に認定されるとは限らない.修辞機能により違いがある可能性もあるため,今回はある流言に対して単純に1つのテキストを抽出するのではなく,修辞機能に違いのあるテキストが含まれる場合は,修辞機能ごとに1つずつ抽出することとした.上記の条件で抽出されたテキストは300件である.300件のテキストを用いて,\ref{sec:subjective}節〜\ref{sec:ResTotal}節と同様の分析を行った結果,\ref{sec:subjective}節〜\ref{sec:ResTotal}節で示した結果と同様の傾向が見られた\footnote{300件のテキストによる結果については,付録として提示する.}.したがって,今回の分析においては,流言における複数の表現は,分析結果に大きな影響は与えていないと考えられる.\begin{table}[t]\caption{表現バリエーション数}\label{table:variation}\input{24table14.txt}\end{table}\subsection{分析結果の限定性}本章では,震災時の流言テキストを対象として流言内容の主観評価,分類を行い,流言テキストの持ち得る性質についてまとめた.本論文で得られた結果は,流言テキストのみを対象として調査した結果得られたものであり,流言ではないものについても,今回明らかにした流言テキストと同様の性質を持つ可能性もある.つまり,本論文で得られた結論が,流言のみにあてはまるものであるかどうかという点までは,本論文では検証できていない.今後,流言以外のテキストを対象とした調査を行い,流言との違いの有無を確認し,今回得られた結論が流言のみに限定されるものか,テキスト全般に適用されるものかを明らかにする必要がある.
\section{将来への展望}
本研究により,流言において,有害性と有用性に影響を与える要素として,行動の促進,予測があることが分かった.一部の行動を促す表現は「〜して下さい」「に注意!」など,典型な表現を含んでいるため,本研究の知見により,大量の流言の中から,有害または有用であるものをある程度ピックアップすることも可能だと思われる.我々は自動的に流言を収集するサービスをすでに動かしているが\cite{Article_MiyabeRakuten,Article_MiyabeDICOMO},今後,本知見による有害性,有用性推定システムを組み込む予定である.
\section{おわりに}
本研究では,マイクロブログ上での流言の特徴を明らかにするために,Twitterを例とした分析を行った.分析対象として,東日本大震災時のTwitterデータから抽出した481件の流言テキストを用いた.流言テキストに対する主観評価および修辞ユニット分析を行い,震災時に発生したマイクロブログ上の流言テキストには,以下の傾向があることを明らかにした.\begin{enumerate}\item情報が正しい場合に有用性の高い内容は,その情報が間違っていた場合に有害性がある.\item震災時に拡散する流言テキストは,行動を促す内容や,状況の報告,回想,予測が大部分を占める.\item情報受信者の行動に影響を与えうる表現,または,予想を含む情報は,高い有用性と有害性を持つと考えられる.\end{enumerate}ただし,上記の結論は,流言テキストのみを対象として調査した結果得られたものであり,これらの性質が流言のみにあてはまるものであるかどうかは不明である.今後は,流言以外のテキストを対象とした調査を行い,上述した結論が流言のみに限定されるものなのかどうかの検証が必要である.また,得られた知見に基づき,流言拡散を防ぐための仕組みを検討していく必要がある.\acknowledgment本研究の一部は,JST戦略的創造研究推進事業による.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Back,Kufner,\BBA\Egloff}{Backet~al.}{2010}]{Article_Back}Back,M.~D.,Kufner,A.C.~P.,\BBA\Egloff,B.\BBOP2010\BBCP.\newblock\BBOQTheEmotionalTimelineofSeptember11,2001.\BBCQ\\newblock{\BemPsychologicalScience},{\Bbf21}(10),\mbox{\BPGS\1417--1419}.\bibitem[\protect\BCAY{Cloran}{Cloran}{1994}]{Cloran94}Cloran,C.\BBOP1994\BBCP.\newblock{\BemRhetoricalunitsanddecontextualisation:anenquiryintosomerelationsofcontext,meaningandgrammar}.\newblockPh.D.\thesis,NottinghamUniversity.\bibitem[\protect\BCAY{Cloran}{Cloran}{1999}]{Cloran99}Cloran,C.\BBOP1999\BBCP.\newblock\BBOQInstructionathomeandschool.\BBCQ\\newblockInChristie,F.\BED,{\BemPedagogyandtheshapingofconsciousness:Linguisticandsocialprocesses},\mbox{\BPGS\31--65}.Cassell,London.\bibitem[\protect\BCAY{Cloran}{Cloran}{2010}]{Cloran2010}Cloran,C.\BBOP2010\BBCP.\newblock\BBOQRhetoricalunitanalysisandBakhtin'schronotype.\BBCQ\\newblock{\BemFunctionsofLanguage},{\Bbf17}(1),\mbox{\BPGS\29--70}.\bibitem[\protect\BCAY{Cohn,Mehl,\BBA\Pennebaker}{Cohnet~al.}{2004}]{Article_Cohn}Cohn,M.~A.,Mehl,M.~R.,\BBA\Pennebaker,J.~W.\BBOP2004\BBCP.\newblock\BBOQLinguisticMarkersofPsychologicalChangeSurroundingSeptember11,2001.\BBCQ\\newblock{\BemPsychologicalScience},{\Bbf15}(10),\mbox{\BPGS\687--693}.\bibitem[\protect\BCAY{De~Longueville,Smith,\BBA\Luraschi}{De~Longuevilleet~al.}{2009}]{Inproc_Longueville}De~Longueville,B.,Smith,R.~S.,\BBA\Luraschi,G.\BBOP2009\BBCP.\newblock\BBOQ``OMG,fromhere,Icanseetheflames!'':ausecaseofmininglocationbasedsocialnetworkstoacquirespatio-temporaldataonforestfires.\BBCQ\\newblockIn{\BemProceedingsofthe2009InternationalWorkshoponLocationBasedSocialNetworks},LBSN'09,\mbox{\BPGS\73--80}.ACM.\bibitem[\protect\BCAY{G.W.オルポート\JBAL.ポストマン}{G.W.オルポート\JBAL.ポストマン}{2008}]{Book_dema}G.W.オルポート\JBAL.ポストマン\BBOP2008\BBCP.\newblock\Jem{デマの心理学}.\newblock岩波書店.\bibitem[\protect\BCAY{Halliday\BBA\Matthiessen}{Halliday\BBA\Matthiessen}{2004}]{Book_Halliday}Halliday,M.A.~K.\BBACOMMA\\BBA\Matthiessen,C.M.I.~M.\BBOP2004\BBCP.\newblock{\BemAnintroductiontofunctionalgrammar\/}(3rded\BEd).\newblockArnold,HodderEducation.\bibitem[\protect\BCAY{インプレス~R\&D}{インプレス~R\&D}{2011}]{Book_Hakusho}インプレス~R\&Dインターネットメディア総合研究所\BBOP2011\BBCP.\newblock\Jem{インターネット白書2011}.\newblockインプレスジャパン.\bibitem[\protect\BCAY{川上}{川上}{1997}]{Book_Kawakami}川上善郎\BBOP1997\BBCP.\newblock\Jem{うわさが走る情報伝搬の社会心理}.\newblockサイエンス社.\bibitem[\protect\BCAY{Knapp}{Knapp}{1944}]{ナップ1944}Knapp,R.~H.\BBOP1944\BBCP.\newblock\BBOQAPsychologyofRumor.\BBCQ\\newblock{\BemPublicOpinionQuarterly},{\Bbf8}(1),\mbox{\BPGS\22--37}.\bibitem[\protect\BCAY{小林}{小林}{2011}]{Book_Kobayashi}小林啓倫\BBOP2011\BBCP.\newblock\Jem{災害とソーシャルメディア〜混乱、そして再生へと導く人々の「つながり」〜}.\newblock毎日コミュニケーションズ.\bibitem[\protect\BCAY{Mendoza,Poblete,\BBA\Castillo}{Mendozaet~al.}{2010}]{Inproc_Mendoza}Mendoza,M.,Poblete,B.,\BBA\Castillo,C.\BBOP2010\BBCP.\newblock\BBOQTwitterundercrisis:canwetrustwhatweRT?\BBCQ\\newblockIn{\BemProceedingsoftheFirstWorkshoponSocialMediaAnalytics},SOMA'10,\mbox{\BPGS\71--79}.ACM.\bibitem[\protect\BCAY{宮部\JBA梅島\JBA灘本\JBA荒牧}{宮部\Jetal}{2011}]{Article_MiyabeRakuten}宮部真衣\JBA梅島彩奈\JBA灘本明代\JBA荒牧英治\BBOP2011\BBCP.\newblock流言訂正情報に基づいた流言情報クラウドの提案.\\newblock\Jem{第4回楽天研究開発シンポジウム},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{宮部\JBA梅島\JBA灘本\JBA荒牧}{宮部\Jetal}{2012}]{Article_MiyabeDICOMO}宮部真衣\JBA梅島彩奈\JBA灘本明代\JBA荒牧英治\BBOP2012\BBCP.\newblock人間による訂正情報に着目した流言拡散防止サービスの構築.\\newblock\Jem{マルチメディア,分散,協調とモバイル(DICOMO2012)シンポジウム},\mbox{\BPGS\1442--1449}.\bibitem[\protect\BCAY{西谷}{西谷}{2010}]{Article_Nishitani}西谷智広\BBOP2010\BBCP.\newblockI見聞録:Twitter研究会.\\newblock\Jem{情報処理学会誌},{\Bbf51}(6),\mbox{\BPGS\719--724}.\bibitem[\protect\BCAY{荻上}{荻上}{2011}]{Book_Ogiue}荻上チキ\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災の流言・デマ}.\newblock光文社新書.\bibitem[\protect\BCAY{Qazvinian,Rosengren,Radev,\BBA\Mei}{Qazvinianet~al.}{2011}]{Inproc_Qazvinian}Qazvinian,V.,Rosengren,E.,Radev,D.~R.,\BBA\Mei,Q.\BBOP2011\BBCP.\newblock\BBOQRumorhasit:IdentifyingMisinformationinMicroblogs.\BBCQ\\newblockIn{\BemEMNLP},\mbox{\BPGS\1589--1599}.ACL.\bibitem[\protect\BCAY{Qu,Huang,Zhang,\BBA\Zhang}{Quet~al.}{2011}]{Inproc_Qu}Qu,Y.,Huang,C.,Zhang,P.,\BBA\Zhang,J.\BBOP2011\BBCP.\newblock\BBOQMicrobloggingafteramajordisasterinChina:acasestudyofthe2010Yushuearthquake.\BBCQ\\newblockIn{\BemProceedingsoftheACM2011conferenceonComputersupportedcooperativework},CSCW'11,\mbox{\BPGS\25--34}.ACM.\bibitem[\protect\BCAY{Qu,Wu,\BBA\Wang}{Quet~al.}{2009}]{Inproc_Qu2009}Qu,Y.,Wu,P.~F.,\BBA\Wang,X.\BBOP2009\BBCP.\newblock\BBOQOnlineCommunityResponsetoMajorDisaster:AStudyofTianyaForuminthe2008SichuanEarthquake.\BBCQ\\newblockIn{\BemHICSS},\mbox{\BPGS\1--11}.IEEEComputerSociety.\bibitem[\protect\BCAY{佐野}{佐野}{}]{Web_Sano}佐野大樹.\newblock日本語における修辞ユニット分析の方法と手順ver.0.1.1—選択体系機能言語理論(システミック理論)における談話分析—(修辞機能編).\\newblock\Turl{http://researchmap.jp/systemists/資料公開/}.\bibitem[\protect\BCAY{佐野}{佐野}{2010}]{Article_Sano}佐野大樹\BBOP2010\BBCP.\newblock特集選択体系機能言語理論を基底とする特定目的のための作文指導方法について—修辞ユニットの概念から見たテクストの専門性.\\newblock\Jem{専門日本語教育研究},{\Bbf12},\mbox{\BPGS\19--26}.\bibitem[\protect\BCAY{佐野\JBA小磯}{佐野\JBA小磯}{2011}]{Article_Sano2011}佐野大樹\JBA小磯花絵\BBOP2011\BBCP.\newblock現代日本語書き言葉における修辞ユニット分析の適用性の検証—「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係—.\\newblock\Jem{機能言語学研究},{\Bbf6},\mbox{\BPGS\59--81}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2007}]{Article_Sato}佐藤健二\BBOP2007\BBCP.\newblock関東大震災後における社会の変容.\\newblock\Jem{立命館大学・神奈川大学21世紀COEプログラムジョイントワークショップ報告書『歴史災害と都市—京都・東京を中心に—』},\mbox{\BPGS\81--89}.\bibitem[\protect\BCAY{立入}{立入}{2011}]{Book_Tachiiri}立入勝義\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災そのときソーシャルメディアは何を伝えたか?}\newblockディスカヴァー・トゥエンティワン.\bibitem[\protect\BCAY{田中\JBA佐野}{田中\JBA佐野}{2011}]{Inproc_TanakaandSano3}田中弥生\JBA佐野大樹\BBOP2011\BBCP.\newblockYahoo!知恵袋における質問と回答の分類—修辞ユニット分析を用いた脱文脈化—文脈化の程度による検討—.\\newblock\Jem{社会言語科学会第27回大会発表論文集},\mbox{\BPGS\208--211}.\bibitem[\protect\BCAY{田中}{田中}{2011}]{Inproc_Tanaka}田中弥生\BBOP2011\BBCP.\newblock修辞ユニット分析を用いたQ\&Aサイトの質問と回答における修辞機能の展開の検討.\\newblock\Jem{社会言語科学会第28回大会発表論文集},\mbox{\BPGS\226--229}.\bibitem[\protect\BCAY{田中\JBA佐野}{田中\JBA佐野}{2011a}]{Inproc_TanakaandSano}田中弥生\JBA佐野大樹\BBOP2011a\BBCP.\newblockYahoo!知恵袋における質問の修辞ユニット分析—脱文脈化—文脈化の程度による分類—.\\newblock\Jem{信学技報},{\Bbf110}(400),\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{田中\JBA佐野}{田中\JBA佐野}{2011b}]{Inproc_TanakaandSano2}田中弥生\JBA佐野大樹\BBOP2011b\BBCP.\newblock修辞ユニット分析からみたQ\&Aサイトの言語的特徴.\\newblock\Jem{言語処理学会第17回年次大会(NLP2011)論文集},\mbox{\BPGS\248--251}.\bibitem[\protect\BCAY{垂水}{垂水}{2010}]{Article_Tarumi}垂水浩幸\BBOP2010\BBCP.\newblock実世界インタフェースの新たな展開:4.ソーシャルメディアと実世界.\\newblock\Jem{情報処理学会誌},{\Bbf51}(7),\mbox{\BPGS\782--788}.\bibitem[\protect\BCAY{梅島\JBA宮部\JBA荒牧\JBA灘本}{梅島\Jetal}{2011}]{Article_Umejima}梅島彩奈\JBA宮部真衣\JBA荒牧英治\JBA灘本明代\BBOP2011\BBCP.\newblock災害時Twitterにおけるデマとデマ訂正RTの傾向.\\newblock\Jem{情報処理学会研究報告.データベース・システム研究会報告},{\Bbf2011}(4),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Vieweg,Hughes,Starbird,\BBA\Palen}{Vieweget~al.}{2010}]{Inproc_Vieweg}Vieweg,S.,Hughes,A.~L.,Starbird,K.,\BBA\Palen,L.\BBOP2010\BBCP.\newblock\BBOQMicrobloggingduringtwonaturalhazardsevents:whattwittermaycontributetosituationalawareness.\BBCQ\\newblockIn{\BemProceedingsoftheSIGCHIConferenceonHumanFactorsinComputingSystems},CHI'10,\mbox{\BPGS\1079--1088}.ACM.\end{thebibliography}\appendix
\section{各評価値における修辞機能と脱文脈化指数の割合}
\label{sec:append}有害性および有用性の評価値毎に分類された流言に関する修辞機能と脱文脈化指数の割合を,図~\ref{fig:bargraph1}および図~\ref{fig:bargraph2}にそれぞれ示す.\begin{figure}[h]\begin{center}\includegraphics{20-3ia24f3.eps}\end{center}\caption{有害性(各評価値)と修辞機能および脱文脈化指数}\label{fig:bargraph1}\end{figure}\clearpage\begin{figure}[t]\begin{center}\includegraphics{20-3ia24f4.eps}\end{center}\caption{有用性(各評価値)と修辞機能および脱文脈化指数}\label{fig:bargraph2}\end{figure}\clearpage
\section{1つの流言に対するテキストを限定した場合の分析結果}
\ref{sec:diff}節で述べた,1つの流言に対するテキストを限定し,300件のテキストを用いた場合の分析結果として,以下のデータを提示する.\begin{enumerate}\item各主観評価結果の相関係数(表\ref{table:correl_300},\ref{table:correl2_300})\item修辞機能と脱文脈化指数による分類結果(表\ref{table:ruaRes_300})\item有害性および有用性の評価値毎に分類された流言に関する修辞機能と脱文脈化指数の割合(図\ref{fig:bargraph_yugai_300},\ref{fig:bargraph_yuyou_300})\end{enumerate}\begin{table}[h]\caption{300件のテキストにおける主観評価結果の相関係数(中央値を用いた場合)}\label{table:correl_300}\input{24table15.txt}\end{table}\begin{table}[h]\caption{300件のテキストにおける主観評価結果の相関係数(全評価値を用いた場合)}\label{table:correl2_300}\input{24table16.txt}\end{table}\clearpage\begin{table}[h]\caption{300件のテキストにおける修辞機能と脱文脈化指数による分類結果}\label{table:ruaRes_300}\input{24table17.txt}\vspace{0.5zw}\small*修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が認定され,脱文脈化指数が付与される場合がある.そこで,表~\ref{table:ruaRes_300}には1つのツイートに付与された脱文脈化指数のうち,最大値および最小値を代表値とした場合の該当数を提示している.\par\end{table}\clearpage\begin{figure}[p]\begin{center}\includegraphics{20-3ia24f5.eps}\end{center}\caption{300件のテキストにおける有害性と修辞機能および脱文脈化指数}\label{fig:bargraph_yugai_300}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{20-3ia24f6.eps}\end{center}\caption{300件のテキストにおける有用性と修辞機能および脱文脈化指数}\label{fig:bargraph_yuyou_300}\end{figure}\clearpage\begin{biography}\bioauthor{宮部真衣}{2006年和歌山大学システム工学部デザイン情報学科中退.2008年和歌山大学大学院システム工学研究科システム工学専攻博士前期課程修了.2011年和歌山大学大学院システム工学研究科システム工学専攻博士後期課程修了.博士(工学).現在,東京大学知の構造化センター特任研究員.コミュニケーション支援に関する研究に従事.}\bioauthor{田中弥生}{1997年青山学院大学大学文学部第二部英米文学科卒業.1999年青山学院大学大学院国際政治経済学研究科国際コミュニケーション専攻修士課程修了.修士(国際コミュニケーション学).現在,神奈川大学外国語学部,青山学院女子短期大学非常勤講師.英語およびコミュニケーション論を担当.}\bioauthor{西畑祥}{2013年甲南大学知能情報学部知能情報学科卒業.在学中は,マイクロブログ上の流言情報の特徴分析に関する研究に従事.}\bioauthor{灘本明代}{東京理科大学理工学部電気工学科卒業.2002年神戸大学大学院自然科学研究科情報メディア科学専攻後期博士課程修了.博士(工学).現在,甲南大学知能情報学部教授.Webコンピューティング,データ工学の研究に従事.ACM,IEEE,情報処理学会,電子情報通信学会会員.}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2002年京都大学大学院情報学研究科修士課程修了.2005年東京大学大学院情報理工系研究科博士課程修了(情報理工学博士).以降,東京大学医学部附属病院企画情報運営部特任助教,東京大学知の構造化センター特任講師を経て,現在,京都大学デザイン学ユニット特定准教授,科学技術振興機構さきがけ研究員(兼任).自然言語処理,医療情報学の研究に従事.}\end{biography}\biodate\end{document}
| |
V07N05-01
|
\section{はじめに}
\label{sec:introduction}係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.係り受け解析には,日本語が語順の自由度が高く省略の多い言語であることを考慮して依存文法(dependencygrammar)を仮定するのが有効である.依存文法に基づく日本語係り受け解析では,文を文節に分割した後,それぞれの文節がどの文節に係りやすいかを表す係り受け行列を作成し,一文全体が最適な係り受け関係になるようにそれぞれの係り受けを決定する.依存文法による解析には,主にルールベースによる方法と統計的手法の二つのアプローチがある.ルールベースによる方法では,二文節間の係りやすさを決める規則を人間が作成する\cite{kurohashi:ipsj92,SShirai:95}.一方,統計的手法では,コーパスから統計的に学習したモデルをもとに二文節間の係りやすさを数値化して表す\cite{collins:acl96,fujio:nl97,Haruno:ipsj98,ehara:nlp98,shirai:jnlp98:1}.我々は,ルールベースによる方法ではメンテナンスのコストが大きいこと,また統計的手法で利用可能なコーパスが増加してきたことなどを考慮し,係り受け解析に統計的手法を採用することにした.統計的手法では二文節間の係りやすさを確率値として計算する.その確率のことを係り受け確率と呼ぶ.これまでよく用いられていたモデル(旧モデル)では,係り受け確率を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案する.このモデルは以下の二つの特徴を持つ.\begin{itemize}\item[(1)]二つの文節(前文節と後文節)間の関係を,「間」(前文節が二文節の間の文節に係る)か「係る」(前文節が後文節に係る)か「越える」(前文節が後文節を越えてより文末側の文節に係る)かの三カテゴリとして学習する.(旧モデルでは二文節が「係る」か「係らないか」の二カテゴリとして学習していた.)\item[(2)]着目している二つの文節の係り受け確率を求める際に,その二文節に対しては「係る」確率,二文節の間の文節に対しては前文節がその文節を越えて後文節に係る確率(「越える」の確率),後文節より文末側の文節に対しては前文節がその文節との間にある後文節に係る確率(「間」の確率)をそれぞれ計算し,それらをすべて掛け合わせた確率値を用いて係り受け確率を求める.(旧モデルでは,着目している二文節が係る確率を計算し,係り受け確率としていた.)\end{itemize}このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.
\section{係り受け確率モデル}
\label{sec:dependency_model}統計的日本語係り受け解析では,二文節間の係りやすさは確率値で表される.この確率値は係り受け確率モデルから計算される.\subsection{係り受け確率モデル(旧モデル)}\label{sec:old_model}この節ではこれまでに依存文法に基づく係り受け解析によく用いられているモデル\cite{collins:acl96,fujio:nl97,Haruno:ipsj98,Uchimoto:ipsj99}について説明する.入力文$S$が与えられると,$S$は$n$個の文節$b_{1},\ldots,b_{n}$に一意に分割されると仮定し,$S$をそれらの順序付き集合$B=\{b_{1},\ldots,b_{n}\}$で表す.そして,文全体の係り受け関係$D$はそれぞれの文節$b_{i}(i=1,\ldots,n-1)$を係り元の文節とする係り受け関係$D_{i}$の順序付き集合$D=\{D_{1},\ldots,D_{n-1}\}$で表されると仮定する.さらに文節の集合$B$が決まると,それぞれ文節$b_{i}(1\leqi\leqn-1)$と文節$b_{m}(m>i,2\leqm\leqn)$に関して観測される素性$F_{i,m}$が一意に決まると仮定し,文節の集合$B$を素性の集合$F$\begin{eqnarray}\label{eq:b}F&=&\{F_{1,2},F_{1,3},\ldots,F_{i,m},\ldots,F_{n-1,n}\}\end{eqnarray}で表す.統計的係り受け解析とは,$S$が与えられたときに文全体の係り受けが$D$となる確率$P(D|S)$が最も高くなるものを全体の係り受け関係とする処理のことである.つまり,\begin{eqnarray}\label{eq:d_best}D_{best}&=&argmax_{D}P(D|S)\nonumber\\&=&argmax_{D}P(D|B)\nonumber\\&=&argmax_{D}P(D|F)\end{eqnarray}となるような$D_{best}$を求めることに相当する.日本語の係り受けには,主に以下の特徴があるとされている.\begin{enumerate}\item[(i)]\mbox{係り受けは前方から後方に向いている.(後方修飾)}\item[(ii)]係り受け関係は交差しない.(非交差条件)\item[(iii)]係り要素は受け要素を一つだけ持つ.\end{enumerate}以降では,これらの特徴を満たすような$D_{best}$を求めることを考える.まず,式(\ref{eq:d_best})の$P(D|F)$は以下のように変形できる.\begin{eqnarray}\label{eq:p_db}P(D|F)&=&P(D_{1},\ldots,D_{n-1}|F)\nonumber\\&=&P(D_{n-1}|F)\timesP(D_{n-2}|D_{n-1},F)\timesP(D_{n-3}|D_{n-2},D_{n-1},F)\nonumber\\&&\times\ldots\timesP(D_{1}|D_{2},\ldots,D_{n-1},F)\end{eqnarray}この式で各々の係り受けつまり$D_{1},\ldots,D_{n-1}$が独立であると仮定すると,$P(D|F)$は以下のようにそれぞれの文節に対する係り受けの確率の積で表せる.\begin{eqnarray}\label{eq:p_db2}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i}|F)\end{eqnarray}ここで,$D_{i,i+j}$を後で定義するように文節$b_{i}$と文節$b_{i+j}$の間の関係を表すフラグとし,$D_{i}$を文節$b_{i}$と文節$b_{i+j}(1\leqj\leqn-i)$との間の関係の集合として,以下のように表す.ここでは,上述の(i)の特徴を仮定している.\begin{eqnarray}\label{eq:d_i}D_{i}&=&\{D_{i,i+1},D_{i,i+2},\ldots,D_{i,n}\}\end{eqnarray}すると,式(\ref{eq:p_db2})から以下の式が導ける.\begin{eqnarray}\label{eq:p_db3}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+1},\ldots,D_{i,n}|F)\end{eqnarray}旧モデルでは,$D_{i,i+j}$として文節$b_{i}$が文節$b_{i+j}$に係るか否かの1,0の二値をとると仮定していた.文節$b_{i}$と係り受けの関係にある文節が文節$b_{i}$の次から数えて$dep(i)\(1\leqdep(i)\leqn-i)$番目の係り先の候補であるとき,上述の(iii)の特徴,つまり係り要素は受け要素を一つだけ持つということを仮定すると,\begin{eqnarray*}D_{i,i+l}&=&\left\{\begin{array}[c]{l}0\(l\not=dep(i),1\leql\leqn-i)\\1\(l=dep(i))\end{array}\right.\end{eqnarray*}となる.よって,式(\ref{eq:p_db3})は以下のように変形できる.\begin{eqnarray}\label{eq:p_db4}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+dep(i)}=1|F)\timesP(D_{i,i+1}=0|D_{i,i+dep(i)}=1,F)\nonumber\\&&\q\timesP(D_{i,i+2}=0|D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)\nonumber\\&&\q\times\ldots\timesP(D_{i,n}=0|D_{i,n-1}=0,\ldots,D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)\nonumber\\\end{eqnarray}$D_{i,i+dep(i)}=1$のとき必ず$D_{i,i+j}=0\(j\not=dep(i))$となるので,\clearpage\begin{eqnarray*}P(D_{i,i+1}=0|D_{i,i+dep(i)}=1,F)&=&1\\P(D_{i,i+2}=0|D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)&=&1\\\vdots\q\q\q\q\\P(D_{i,n}=0|D_{i,n-1}=0,\ldots,D_{i,i+1}=0,D_{i,i+dep(i)}=1,F)&=&1\end{eqnarray*}となり,式(\ref{eq:p_db4})は次のように表せる.\begin{eqnarray}\label{eq:p_db5}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+dep(i)}=1|F)\end{eqnarray}さらに,$F_{i,m}$はそれぞれ独立で,文節$b_{i}$と文節$b_{i+dep(i)}$との関係$D_{i,i+dep(i)}$は$F_{i,i+dep(i)}$のみによって決まり,他の$F_{i,i+j}(j\not=dep(i))$とは独立であると仮定する.すると,式(\ref{eq:p_db5})は,以下のように変形できる.\begin{eqnarray}\label{eq:p_db6}P(D|F)&=&\prod_{i=1}^{n-1}P(D_{i,i+dep(i)}=1|F_{i,i+dep(i)})\end{eqnarray}式(\ref{eq:p_db6})と式(\ref{eq:d_best})とから$D_{best}$が導かれる.\subsection{後方文脈を考慮した係り受け確率モデル}\label{sec:new_model}この節では,我々が提案するモデルについて説明する.旧モデルでは,二つの文節の関係を「係る」か「係らない」かの二カテゴリとして学習し,それらの二文節が係る確率を計算して係り受け確率としていた.我々のモデルでは,(A)二つの文節(前文節と後文節)間の関係を,「間」か「係る」か「越える」かの三カテゴリとして学習し,(B)着目している二つの文節の係り受け確率を求める際に,その二文節に対しては「係る」確率,二文節の間の文節に対しては前文節がその文節を越えて後文節に係る確率(「越える」の確率),後文節より文末側の文節に対しては前文節がその文節との間にある後文節に係る確率(「間」の確率)をそれぞれ計算し,それらをすべて掛け合わせた確率値を用いて係り受け確率を求める.このモデルでは,$D_{i,i+j}$の仮定が旧モデルにおけるものと異なる.$D_{i,i+j}$としては,「越える」,「係る」,「間」を表す0,1,2の三値をとると仮定する.この点がこのモデルの特徴の一つである.文節$b_{i}$と係り受けの関係にある文節が$dep(i)\(1\leqdep(i)\leqn-i)$番目の係り先の候補であるとき,\ref{sec:old_model}節の(iii)の特徴,つまり係り要素は受け要素を一つだけ持つということを仮定すると,\begin{eqnarray*}D_{i,i+l}&=&\left\{\begin{array}[c]{l}0\(1\leql<dep(i))\\1\(l=dep(i))\\2\(dep(i)<l\leqn-i)\end{array}\right.\end{eqnarray*}となる.よって,式(\ref{eq:p_db3})は以下のように変形できる.\begin{eqnarray}\label{eq:p_db7}P(D|F)&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|\{D_{i,i+k}=0|1\leqk<j\},F)\right.\nonumber\\&&\q\p\times\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|\{D_{i,i+k}=0|1\leqk<dep(i)\},\nonumber\\&&\q\q\q\q\q\q\q\p\{D_{i,i+k}=2|j<k\leqn-i\},F)\nonumber\\&&\q\p\times\left.P(D_{i,i+dep(i)}=1|\{D_{i,i+k}|1\leqk<dep(i),dep(i)<k\leqn-i\},F)\right)\nonumber\\\end{eqnarray}$D_{i,i+l}$の値が決まるのは,$l<m$を満たすような$m$に対し$D_{i,i+m}=0$になる場合か,$l>m$を満たすような$m$に対し,$D_{i,i+m}=2$になる場合か,$D_{i,i+dep(i)}=1$となる$dep(i)$が決まる場合かのいずれかである.これらの条件を満たさないように両端から順に係り受け関係$D_{i,i+l}$を確率式の前件部に移していけば,式(\ref{eq:p_db7})の最後の項を除くそれぞれの項の確率値は一意には決まらない.式(\ref{eq:p_db7})の最後の項は$D_{i,i+l}$の値がすべて決まると$dep(i)$が決まるので確率値は1になる.式(\ref{eq:p_db7})のその他の項については,$\{D_{i,i+k}=0|1\leqk<j\}$の間の独立性,および$\{D_{i,i+k}=0|1\leqk<dep(i)\},\{D_{i,i+k}=2|j<k\leqn-i\}$の間の独立性を仮定すると,式(\ref{eq:p_db7})は次のように表せる.\begin{eqnarray}\label{eq:p_db8}P(D|F)&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|F)\times\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|F)\right)\end{eqnarray}\ref{sec:old_model}節の旧モデルにおける仮定と同様に$F_{i,m}(m=1,\ldots,n)$はそれぞれ独立で,$D_{i,i+j}$つまり文節$b_{i}$と文節$b_{i+j}$との関係は,$F_{i,i+j}$のみによって決まると仮定する.すると,式(\ref{eq:p_db8})は,以下のように変形できる.\begin{eqnarray}\label{eq:p_db9}P(D|F)&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|F_{i,i+j})\times\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|F_{i,i+j})\right)\end{eqnarray}この式の$P(D|F)$を$P_{new\_model}(D|F)$とし,旧モデルの式(\ref{eq:p_db6})における$P(D|F)$を$P_{old\_model}($$D|F)$とする.$P_{old\_model}(D|F)$では素性$F_{i,i+dep(i)}$が用いられているが,$P_{new\_model}(D|F)$では用いられておらず,$P_{new\_model}(D|F)$では素性$F_{i,i+dep(i)}$以外の素性が用いられているが,$P_{old\_model}(D|F)$では用いられていない.したがって,$P_{old\_model}(D|F)$と$P_{new\_model}(D|F)$は相補的な関係にあるため,この二つを組み合わせる.すると以下の式が得られる.\begin{eqnarray}\label{eq:p_db10}P(D|F)^{2}&=&P_{old\_model}(D|F)\timesP_{new\_model}(D|F)\nonumber\\&=&\prod_{i=1}^{n-1}\left(\prod_{j=1}^{dep(i)-1}P(D_{i,i+j}=0|F_{i,i+j})\right.\nonumber\\&&\q\p\times\P(D_{i,i+dep(i)}=1|F_{i,i+dep(i)})\nonumber\\&&\q\p\times\left.\prod_{j=dep(i)+1}^{n-i}P(D_{i,i+j}=2|F_{i,i+j})\right)\\end{eqnarray}本節のモデルはこの式の平方根をとることによって係り受け確率$P(D|F)$を求めるものである.この$P(D|F)$と式(\ref{eq:d_best})とから$D_{best}$が導かれる.\begin{figure}[htbp]\begin{center}\leavevmode\atari(85,123)\caption{係り受け確率の求め方の例}\label{fig:dependency}\end{center}\end{figure}実際にこのモデルから係り受け確率がどのように求まるかを図\ref{fig:dependency}を用いて説明する.図\ref{fig:dependency}はある文節$b_{i}$の係り先の候補が5個あったときにそれぞれの候補に係るとしたときの係り受け確率を計算している様子を表している.このとき,文節$b_{i}$とそれぞれの候補との関係がそれぞれ「越える」,「係る」,「間」となる確率として表\ref{table:example}のような値が得られたと仮定している.{\small\begin{table*}[htbp]\begin{center}\caption{「越える」,「係る」,「間」となる確率の例}\label{table:example}\renewcommand{\arraystretch}{}\begin{tabular}[c]{llll}\hline候補&\multicolumn{1}{c}{越える}&\multicolumn{1}{c}{係る}&\multicolumn{1}{c}{間}\\\hline候補1&$P(D_{i,i+1}=0|F_{i,i+1})=0.6$&$P(D_{i,i+1}=1|F_{i,i+1})=0.4$&$P(D_{i,i+1}=2|F_{i,i+1})=0$\\候補2&$P(D_{i,i+2}=0|F_{i,i+2})=0.6$&$P(D_{i,i+2}=1|F_{i,i+2})=0.3$&$P(D_{i,i+2}=2|F_{i,i+2})=0.1$\\候補3&$P(D_{i,i+3}=0|F_{i,i+3})=0.3$&$P(D_{i,i+3}=1|F_{i,i+3})=0.5$&$P(D_{i,i+3}=2|F_{i,i+3})=0.2$\\候補4&$P(D_{i,i+4}=0|F_{i,i+4})=0.1$&$P(D_{i,i+4}=1|F_{i,i+4})=0.5$&$P(D_{i,i+4}=2|F_{i,i+4})=0.4$\\候補5&$P(D_{i,i+5}=0|F_{i,i+5})=0$&$P(D_{i,i+5}=1|F_{i,i+5})=0.4$&$P(D_{i,i+5}=2|F_{i,i+5})=0.6$\\\hline\end{tabular}\end{center}\end{table*}}例えば,候補3を係り先だと仮定したとき,候補1,候補2は越えて,文節$b_{i}$と候補4,候補5の間に係る確率は,式(\ref{eq:p_db6})の文節$b_{i}$に関する項を用いて\begin{eqnarray*}P(D_{i}|F)^{2}&=&\prod_{j=1}^{2}P(D_{i,i+j}=0|F_{i,i+j})\timesP(D_{i,i+3}=1|F_{i,i+3})\times\prod_{j=4}^{5}P(D_{i,i+j}=2|F_{i,i+j})\\&=&P(D_{i,i+1}=0|F_{i,i+1})\timesP(D_{i,i+2}=0|F_{i,i+2})\timesP(D_{i,i+3}=1|F_{i,i+3})\\&&\p\timesP(D_{i,i+4}=2|F_{i,i+4})\timesP(D_{i,i+5}=2|F_{i,i+5})\\&=&0.6\times0.6\times0.5\times0.4\times0.6=0.0432\end{eqnarray*}つまり,\begin{eqnarray*}P(D_{i}|F)&=&\sqrt{0.0432}=0.208\end{eqnarray*}のように計算され,これが最も高い.各々の係る確率だけを考えた場合にはそれぞれの$P(D_{i,i+j}=1|F_{i,i+j})$を比較することになり,候補3と候補4の確率がどちらも0.5のため決まらないが,この方法によると,候補3を優先的に係り先とすることになる.一文全体の確率はそれぞれの文節について求めた係り受け確率の積で表され,その積の値が最も高くなるようにそれぞれの係り受けを決めることになる.我々は,式(\ref{eq:d_best})において$P(D|F)$を最大にする係り受け関係の集合$D_{best}$を求めるために,文末から文頭に向けて解析することにより,効率良く組み合わせの数を減らしながら一文全体の係り受けを決定する方法を提案している\cite{Sekine:99}.この方法では解の探索をビームサーチにより行う.この方法によると決定的に解析を行ってもビーム幅を広くしたときとほとんど同じ精度が得られることが実験により分かっている.そこで,$D_{best}$を求めるためにこの方法を採用する.このとき,上述のモデルに\ref{sec:old_model}節で述べた(ii)の特徴,つまり非交差条件を仮定すると,文節$b_{i}$の係り先の候補はすでに解析の終わった文節$b_{i+1}$から文節$b_{n}$までの係り受け関係$D_{i+1},\ldots,D_{n}$に依存して制限されることになる.つまり,非交差条件のために文節$b_{i}$の係り先の候補とはなり得ない文節$b_{j}$に対しては,係る確率は0になり,「越える」か「間」かについては$b_{j}$の前後の文節のうち非交差条件を満たす文節と文節$b_{i}$との関係が決まれば一意に決まり確率は1になる.文節$b_{i}$の係り受け確率$P(D_{i}|F)$は文節$b_{i}$のすべての係り先の候補につい確率値を足すと1になるように正規化する.実際にこのモデルから係り受け確率がどのように求まるかを図\ref{fig:dependency2}を用いて説明する.図\ref{fig:dependency2}は図\ref{fig:dependency}において非交差条件を考慮した場合の係り受け確率の計算の仕方を表している.ここで,ある文節$b_{i}$より後方の文節について,破線の矢印で表されるような係り受け関係が決まったものと仮定している.このとき,候補3と候補4は非交差条件を満たさないために文節$b_{i}$の係り先の候補とはなり得ない.また,文節$b_{i}$とそれぞれの候補との関係としては,図\ref{fig:dependency}と同様に表\ref{table:example}の値が得られたと仮定している.例えば,候補5を係り先だと仮定したとき,図\ref{fig:dependency2}の一番下の例のように,候補1,候補2に対しては越える確率,候補5に対しては係る確率を用いてそれぞれ掛け合わせ,その平方根をとることにより係り受け確率が得られる.一文全体の確率はそれぞれの文節について求めた係り受け確率の積で表され,その積の値が最も高くなるように各々の係り受けを決めることになる.\begin{figure}[htbp]\begin{center}\leavevmode\atari(100,123)\caption{係り受け確率の求め方の例}\label{fig:dependency2}\end{center}\end{figure}
\section{実験結果}
\label{sec:results}この節では,新モデル(後方文脈を考慮したモデル)と旧モデルとの比較実験を行う.実験に用いたコーパスは,京大コーパス(Version2)\cite{kurohashi:nlp97}の一般文の部分で,基本的に学習には1月1日と1月3日から8日までの7日分(7,958文),試験には1月9日の1日分(1,246文)を用いた.\ref{sec:old_model}節に述べた旧モデルと\ref{sec:new_model}節に述べた新モデル(後方文脈を考慮したモデル)のそれぞれを文献\cite{Uchimoto:ipsj99}と同様にMEモデルとして実装し,テストコーパスに対する係り受け解析の精度を調べた.係り受け解析の実験に用いた素性は,文献\cite{Uchimoto:ipsj99}のものと同じものとした.これは表\ref{table:feature1}の基本素性と呼ばれるものとそれらの組み合わせである.このうち,学習コーパス中に4回以上現れた素性約38,000個を用いている.\begin{table}[htbp]\begin{center}\caption{解析結果}\label{Result}\begin{tabular}{|l@{}|c@{}|r@{}c@{}|}\hlineモデル&係り受け正解率&\multicolumn{2}{c|}{文正解率}\\\hline新モデル&87.93\%(9904/11263)&43.58\%&(540/1239)\\旧モデル&87.02\%(9801/11263)&40.68\%&(504/1239)\\ベースライン&64.09\%(7219/11263)&6.38\%&(79/1239)\\\hline\end{tabular}\end{center}\end{table}解析結果を表\ref{Result}に示す.ここで,係り受けの正解率というのは文末の一文節を除く残りすべての文節に対して,係り先を正しく推定していた文節の割合を求めたものである.また,文正解率というのは文全体の解析が正しいものの割合を意味する.表\ref{Result}の第1行および第2行はそれぞれ新モデル,旧モデルを用いて京大コーパス1月9日の\mbox{1,246}文を解析した結果である.いずれも,コーパスの形態素情報,文節区切情報を入力として,文節間係り受けの解析を決定的に(ビーム幅$k=1$)行なった.ビーム幅を大きくしても精度にほとんど違いはなかったため,決定的に解析した結果のみを示した.ベースラインとしては各文節がすべて隣に係るとしたときの精度をあげた.新モデルとしては\ref{sec:new_model}節に述べた後方文脈を考慮したモデルの精度をあげた.\begin{table}[phtb]\begin{center}\caption{学習に利用した素性(基本素性)}\label{table:feature1}\renewcommand{\arraystretch}{}\leavevmode\begin{tabular}[c]{|l|l|}\hline\multicolumn{2}{|c|}{\bf基本素性(43種類)}\\\hline素性名&素性値\\\hline\hline前(後)文節主辞見出し&(2204個)\\\hline前(後)文節主辞品詞(Major)&動詞名詞$\ldots$(11個)\\前(後)文節主辞品詞(Minor)&普通名詞数詞$\ldots$(24個)\\\hline前(後)文節主辞活用(Major)&母音動詞$\ldots$(30個)\\前(後)文節主辞活用(Minor)&語幹基本形命令形$\ldots$(60個)\\\hline前(後)文節語形(String)&とにも$\ldots$(73個)\\前(後)文節語形(Major)&助詞子音動詞カ行$\ldots$(43個)\\前(後)文節語形(Minor)&格助詞基本連用形$\ldots$(102個)\\\hline前(後)文節助詞1(String)&からまでへ$\ldots$(63個)\\前(後)文節助詞1(Minor)&(無)格助詞副助詞(5個)\\\hline前(後)文節助詞2(String)&けどままやよか$\ldots$(63個)\\前(後)文節助詞2(Minor)&格助詞副助詞(4個)\\\hline前(後)文節句読点の有無&(無)読点句点(3個)\\\hline前(後)文節括弧開の有無&(無)「‘(“[$\ldots$(14個)\\\hline前(後)文節括弧閉の有無&(無)」’)”]$\ldots$(14個)\\\hline文節間距離&A(1)B(2〜5)C(6以上)(3個)\\\hline文節間読点の有無&無有(2個)\\\hline文節間"は"の有無&無有(2個)\\\hline文節間括弧開閉の有無&無開閉開閉(4個)\\\hline文節間前文節同一語形の&\\\q\q有無&無有(2個)\\\q\q主辞品詞(Major)&動詞名詞$\ldots$(11個)\\\q\q主辞品詞(Minor)&普通名詞数詞$\ldots$(24個)\\\q\q主辞活用(Major)&母音動詞$\ldots$(30個)\\\q\q主辞活用(Minor)&語幹基本形命令形$\ldots$(60個)\\\hline文節間後文節同一主辞の&\\\q\q有無&無有(2個)\\\q\q語形(String)&とにも$\ldots$(73個)\\\q\q語形(Major)&助詞子音動詞カ行$\ldots$(43個)\\\q\q語形(Minor)&格助詞基本連用形$\ldots$(102個)\\\hline\end{tabular}\end{center}\end{table}\subsection{旧モデルとの比較}\label{sec:comparison_with_old_model}本節では,\ref{sec:old_model}節に述べた旧モデルと\ref{sec:new_model}節に述べた新モデル(後方文脈を考慮したモデル)をそれぞれ理論と実験の観点,学習の観点から比較する.\vspace{1em}\noindent[{\bf理論と実験の観点から}]式(\ref{eq:p_db10})は式(\ref{eq:p_db6})を包含するものであり,式(\ref{eq:p_db6})に比べるとより多くの文節との関係(素性$F_{i,i+j}$で表される)が考慮されている.ただし,式(\ref{eq:p_db7})から式(\ref{eq:p_db8})を導くときに用いている独立性の仮定は,実際の現象そのままではなく近似になっているので,旧モデルに比べると近似の部分が多い.しかしながら,同じ素性を用いた実験(表\ref{Result})で,新モデルは旧モデルに比べて1\%程度良い結果を得ている.これは多少近似があっても実際に係り受け確率の計算に多くの情報を考慮している新モデルの方が良いということを示している.\begin{figure}[htbp]\hspace*{3em}\beginpicture\setcoordinatesystemunits<6pt,6pt>\setplotareaxfrom0to30,yfrom70to100\axisbottomlabel{文節数}ticksshortquantity7numberedat0102030//\axisleftlabel{係り受け正解率}ticksshortquantity4numberedat708090100//\put{*}at2098\put{+}at2095\put{:新モデル}at2598.5\put{:旧モデル}at2595\multiput{*}at393.75493.52592.06691.65790.48890.48989.251090.531188.071286.671386.221489.141586.401686.321783.931886.901983.862086.322184.232283.732385.452486.962581.252686.402783.332885.93/\setlinear\plot393.75493.52592.06691.65790.48890.48989.251090.531188.071286.671386.221489.141586.401686.321783.931886.901983.862086.322184.232283.732385.452486.962581.252686.402783.332885.93/\multiput{+}at393.75493.98591.12689.01790.99890.30988.381088.341186.391287.881385.881487.931586.951684.041784.381885.291983.072083.682182.692281.752386.822483.852581.252683.202779.492890.37/\setlinear\plot393.75493.98591.12689.01790.99890.30988.381088.341186.391287.881385.881487.931586.951684.041784.381885.291983.072083.682182.692281.752386.822483.852581.252683.202779.492890.37/\endpicture\caption{文節長と解析精度の関係}\label{fig:length}\end{figure}次に,図~\ref{fig:length}に文節長と解析精度の関係をあげる.この図から,どの文節数に対しても新モデルの精度は旧モデルの精度とほぼ同等以上であることが分かる.\vspace{1em}\noindent[{\bf学習の観点から}]学習には学習コーパス中で非交差条件を満たす任意の二文節を用いる.旧モデルでは各二文節に対し「係る」と「係らない」の二つのカテゴリを学習しているのに対し,新モデルでは「越える」と「係る」と「間」の三つのカテゴリを学習している.一般に学習するカテゴリを多くするとデータスパースネスになりやすいが,新モデルでは三つのカテゴリに分けてもデータスパースネスの問題は生じない.これは新モデルで「越える」と「間」の二つのカテゴリに分けた,旧モデルの「係らない」というカテゴリにはもともと十分な学習データがあったためである.例えば,ある文節の係り先の候補が10個あるときには,そのうち1個だけが「係る」に対するデータであり,残りの9個は「係らない」に対するデータである.ここで「係らない」を「越える」と「間」の二つに分けても,「係る」に比べるとそれぞれ十分な量の学習データがある.\begin{figure}[htbp]\begin{center}\leavevmode\atari(113,77)\caption{学習コーパスの量と解析精度の関係}\label{fig:learning_curve}\end{center}\end{figure}次に,新モデルが旧モデルに比べて優れていることを定量的に示すデータを図~\ref{fig:learning_curve}にあげる.これはそれぞれのモデルに対し,学習コーパスの量と解析精度の関係をプロットしたものである.学習コーパスの量にかかわらず,新モデルの方が旧モデルに比べて常に1\%程度精度がよいことが分かる.\subsection{その他のモデルとの比較}\label{sec:comparison_with_related_works}統計的な手法では,ルールベースに比べて並列構造や従属節間の係り受け関係に対する解析誤りが多い.西岡山らは,この後者の問題を取り上げ,二つの文節の関係が係るか係らずに越えるかを学習するモデルを提案した\cite{Nishiokayama:98}.このモデルを用いることにより,二つの文節だけでなくその二文節とそれらの間にある文節との関係も扱えるようになる.本論文で我々が提案したモデル(後方文脈を考慮したモデル)はさらにその二文節とそれらよりも文末に近い側の文節との関係も扱うため,彼らのモデルよりも多くの情報を考慮していることになる.\begin{table}[htbp]\begin{center}\caption{解析結果}\label{Result2}\begin{tabular}{|l@{}|c@{}|r@{}c@{}|}\hlineモデル&係り受け正解率&\multicolumn{2}{c|}{文正解率}\\\hline「係る」と「越える」&85.40\%(9618/11263)&41.40\%&(513/1239)\\「係る」と「係らない」&86.95\%(9793/11263)&40.27\%&(499/1239)\\「間」「係る」「越える」&87.93\%(9904/11263)&43.58\%&(540/1239)\\\hline\end{tabular}\end{center}\end{table}表~\ref{Result2}の一行目に西岡山らのモデルを用いたときの実験結果を示す.実験に用いた素性,コーパスは\ref{sec:results}章の最初に説明したものと同じである.後方文脈を考慮したモデルを用いた実験のときと異なるのは,「係る」と「越える」の二つのカテゴリを学習するモデルを用いている部分のみである.表~\ref{Result2}より定量的にも,後方文脈を考慮したモデルのように「間」というカテゴリも考慮した方がよいことが分かる.次に,後方文脈を考慮したモデルにおいて三カテゴリを学習する必要があることを示す.後方文脈を考慮したモデルでは特徴(1)としてあげたように二文節間の関係を「間」か「係る」か「越える」かの三カテゴリとして学習する.この三カテゴリのうち二つのカテゴリ「間」と「越える」を,旧モデルの二カテゴリのうち「係らない」によって代用させたモデルを考える.このモデルは,係り受け確率を求める際に,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮している点が旧モデルとは異なる.表~\ref{Result2}の二行目にこのモデルを用いたときの実験結果を示す.この表より,「間」と「越える」の違いは区別して学習するべきであることが分かる.
\section{おわりに}
\label{sec:conclusion}係り受け解析は日本語解析の重要な基本技術の一つとして認識されている.依存文法に基づく解析には,主にルールベースによる方法と統計的手法の二つのアプローチがあるが,我々は利用可能なコーパスが増加してきたこと,規則の変更に伴うコストなどを考慮して,統計的手法をとっている.統計モデルとしてこれまでよく用いられていたもの(旧モデル)では,係り受け確率を計算する際に,着目している二つの文節が係るか係らないかということのみを考慮していた.本論文では,着目している二つの文節(前文節と後文節)だけを考慮するのではなく,前文節と前文節より文末側のすべての文節との関係(後方文脈)を考慮するモデルを提案した.このモデルをME(最大エントロピー)に基づくモデルとして実装した場合,旧モデルを同じくMEに基づくモデルとして実装した場合に比べて,京大コーパスに対する実験で,全く同じ素性を用いているにもかかわらず係り受け単位で1\%程度高い精度(88\%)が得られた.また,後方文脈を考慮したモデルの精度は旧モデルに比べて,どの文長に対してもほぼ常に良く,学習コーパスの量によらず常に1\%程度良かった.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\thispagestyle{plain}\verb++\end{document}
| |
V17N01-11
|
\section{はじめに}
筆者らは,1990年,自然言語処理のための解析辞書の日本語表記の揺れを管理することから始め,1995年に同義語辞書の初版を発行した.その後,用語の意味関係を含むシソーラスのパッケージを発売し,現在6版を重ねている.1年間に20,000語程度を追加していて,420,000語に達している.これまでのシソーラスは,主として,情報検索のキーワードを選択するための支援ツールとして開発されてきた.登録されている用語は該当する分野の専門用語が主体で,さらに品詞は名詞だけであった.そのため,情報検索を越えて,文書整理や統計処理などのために必要な構文解析や用語の標準化など,自然言語処理に利用することは難しかった.筆者らのシソーラスは,自然言語処理を目的とした一般語を主とするシソーラスである.いわゆる名詞だけでなく,動詞,形容詞,形容動詞,副詞,代名詞,擬態語さらに慣用句までを登録している.これまでのシソーラスでは,作成者の考え方で分類してあった.使用者は,その分類基準に従ってたどって探さなければならなかった.また紙面の物理的な制約もあって意味空間を1次元的に整理してあった.本来意味分類は多次元空間のはずで,筆者らのシソーラスでは,複数の観点で多次元的に分類してある.また,メール整理に代表されるような文書整理のために,時事的な用語や省略語も積極的に登録している.送り仮名や訳語などの差異による異表記語も網羅的に収集した.自然言語処理で使うことを目的としているため,テレビなどから収集した新語や,構文解析で発見した新語を登録している.用語間の意味関係として,広義—狭義(上位—下位)関係,関連関係および同義—反義関係を持っている.流動的に変化する用語の意味および用語間関係への対応とコスト・パフォーマンスの観点から,トップダウン方式ではなく,ボトムアップ方式で開発した.一般語を主体としているが,他の専門シソーラスと併合もできる.以下,(第2章)用語の収集とシソーラスの構造,(第3章)用語同士の意味関係,(第4章)パッケージソフトの機能について順次述べる.
\section{用語の収集とシソーラスの構造}
用語の収集と分類の仕方について述べる.\subsection{用語の収集}市販の辞書は語義が分からない用語を調べるためのものである.筆者らのシソーラスは自然言語処理で使うのが目的なので,市販の辞書に記載されている用語よりも,頻繁に使われる用語を中心に登録している.正しい表記だけでなくよく使われるのであれば「キューピット」(Cupid)のように誤った表記も登録している筆者らの構文解析(別途SDKとして販売)で新しい記事コーパスを解析した結果,解析できなかった新しい用語は逐次,解析辞書に登録しているが,同時にシソーラスにも登録している.シソーラス更新中に,追加登録した用語も形態素解析の辞書に登録している.見つけた用語がよく使われている用語かどうかはネットで調べている.新語を探しだす作業よりもシソーラス上の用語と関連付ける作業の方が工数がかかった.品詞分類も名詞の意味を除いて解析辞書と同じにしてある(文末付録参照).構文解析では名詞を意味で分類しているが,シソーラスでは意味分類が構文解析より詳細なこと,名詞に複数の意味を持たせられないことなどの理由で意味では分類していない.自然言語処理用のシソーラスではほとんど全ての自立語が収集の対象になる.構文解析では,解析時に結合して処理するので,複合語の要素だけを網羅すれば十分である.一方シソーラスでは組み合わされた複合語もすべて網羅する必要があるため,語数が多くなる.自然言語処理では固有名詞も重要な位置をしめるが,日々生成されていて,かつ変化するため辞書として登録するには手が付けられないので,地名など変化の少ないもの以外は登録できていない.\subsection{シソーラス構造における分類}\noindent{\gtfamily複数の観点での分類}意味空間は1次元ではなく多次元である.どの属性に注目して(観点で)分類するかによって,いろいろな分類の仕方が考えられる.身近な例で「料理」について考えてみる.古今東西の料理の種類は相当な数になり,分類の仕方も人によって異なる.ここで調理法,材料,地域の3つの観点で分類するとつぎのようになる.調理法の観点で分類すると生もの,煮物,焼き物材料の観点で分類すると魚料理,肉料理,野菜料理地域の観点で分類すると和食,中華,洋食例えば「刺し身」は,料理を3つの観点によって分類した結果,連想された用語「魚料理」「生もの」「和食」の狭義語である.逆に「刺し身」の広義語が「生もの」「魚料理」「和食」の3つあることになる.その結果,網構造になる。これを図にすると,図1のようになる.この他に「料理」のための観点としては「対象」(病人食,独身料理)「スタイル」(会席料理,飲茶)などが考えられる.いろいろな考え方で探す利用者がいるので,なるべく多くの観点で分類しておく必要がある.\noindent{\gtfamily人間の感覚に沿った分類}色を分類するときにも参考文献にあげたシソーラスでは「赤系統」「青系統」「黄色系統」などと色相や明度などに従って分類してある.データベースの検索の支援をするためには,人間との関係を重視して「はでな色」「暖かい色」といった人間の感覚に沿った観点での分類も併設した方が実用的である.筆者らのシソーラスもなるべく多くの観点で分類している.検索された用語を見やすくする目的で,グループに入れる用語を少なくする方針を取ったため階層が深くなってしまった.電子化されたシソーラスでは,クリックするだけで,簡単に上下の階層に移行できるので階層を深くしても問題は少ないのであるが,グループにつける名前が恣意的になりがちなことが課題である.\noindent{\gtfamily分類作業における揺れの吸収}\nopagebreak用語同士の意味的な関係は,自明な場合だけではない.どこまでを同義語として認めるかは,シソーラスの作業者同士でも食い違うことがある.現在3名で相談しながら,最終的には多数決で決めている.\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f1.eps}\end{center}\caption{「料理」を「調理法」「材料」「地域」の3つの観点で分類した例}\label{fig:one}\end{figure}例えば「明日」と「翌日」を考えて見ると,意味的にほとんど重なっていて同義語と思われるが,厳密に言えば違いがある.同義語にするか関連語にするかが一義的に決定できない.「明日」「翌日」現在○○過去×○このように微妙に意味の異なる場合にユーザーの意見を聞いて,同義語として扱った場合が多い.\subsection{シソーラス構造における記述}\noindent{\gtfamily補助的な記述}各の用語の持つ関係語の数が多いため,用語を3つの目的で,(|)で区切って補助的な記述をつけている.A.分類の観点を表示する.狭義語の例料理|材料肉料理,魚料理,野菜料理料理|地域和食,洋食,中華料理B.同じ分類に属する用語が膨大な数になるため細分したいときに,細分した分野に対応する適当な用語がなく,恣意的な用語になるのを防ぐ.狭義語の例肉料理|煮物シチュー肉料理|薫製ビーフジャーキーC.多義語を区別する.狭義語の例月|天体満月,寒月,三日月月|時間正月,うるう月現在関係語が多い用語を中心に,全体の4.0パーセントの用語に補助的な記述が付けてある.\noindent{\gtfamily語義の違いの記述法}冊子体のシソーラスは木構造で,その構造をたどりながら探していかなければならなかった.筆者らの電子化されたシソーラスはキーボードから直接構造上のどこでも指定できるので,もはや木構造である必要はない.網構造で,複数の広義語を持つことになる.しかしその結果同じ文字列で複数の意味を持つ多義語が区別できないという問題がでてくる.例えば木構造で検索したときには,「時間」からたどった「月」(month)と,「天体」からたどった「月」(moon)の2つの異なった意味の用語は区別できるが,直接「月」と指定する方法では区別ができなくなる.補助的な記述をつけて「月」を「天体」の観点でとらえたときは「月|天体」で「時間」の観点でとらえたときは「月|時間」として区別した.広義語狭義語月|天体名月月|時間正月\begin{figure}[b]\begin{center}\includegraphics{17-1ia12f2.eps}\end{center}\caption{「月」を中心にした構造}\label{fig:2}\end{figure}\noindent{\gtfamily用言}自然言語処理で使うには,名詞だけでなく用言(動詞,形容詞)や副詞も登録しておく必要がある.用言は語幹と活用形で登録してある.パッケージソフトでは終止形で表示する.\pagebreak活用形も構文解析に合わせてある.例動(く)動詞カ行5段活用赤(い)形容詞\noindent{\gtfamily慣用句}日本語では,慣用句が大きな意味的位置を占めている.慣用句はまとめた形で1語にして登録してある.例「水をあける」=「引き離す」「水をあける」は「引き離す」という意味で「水」の意味はまったくない.「水をあけ(る)」は1つの動詞にして「引き離す」の同義語として登録してある.慣用句は用法によって間に挟まれる助詞までが変わるものがある.「山田は顔が広い」(叙述用法)「顔が広(い)」を形容詞として登録してある.「顔の広い山田は」(限定用法)「顔の広い」を連体詞として登録してある.\noindent{\gtfamily誤りのある用語}実際にシソーラスを運用するためには,関係する用語として差別語を出力しないなどといった細かい配慮が必須である.差別語は年々増える方向にある.増える差別語を次々に登録していくためにもいつもシソーラスを更新していかなければならない.エラーに2つのレベルがある.誤り語および差別語.誤り語例ご多聞にもれず(正:ご多分にもれず)差別語標準でない用語.常用漢字以外を含んでいる用語表記の揺れ例インタフェース(正:インターフェース)旧地名例浦和市旧機関名例文部省商品名例宅急便
\section{用語同士の意味関係}
label{sec:ITEM}用語同士の意味関係として,表1のものを用意した.広義語—狭義語の関係は自然言語処理で広義語に適用した規則は,狭義語にも適用できるようにするため狭義語になるのは同じ属性のものだけとした.「自動車」—「タイヤ」のような「全体」—「部分」関係は「部分」という観点の関連語とした.原則として自立語だけとしたが,一部に接尾辞も採択してある.\subsection{同義語}英語で1人称単数は「I」だけであるが,日本語には「私」「僕」「我」「小生」「我が輩」「手前」「愚生」と数十あり,話者と相手との関係で使い分けられている.日本語にはなぜ同じ意味の用語,同義語がこんなに多いのか考えてみる.(表2参照)\begin{table}[b]\caption{用語同士の意味関係}\input{12table01.txt}\end{table}\begin{table}[b]\caption{同義語の例}\input{12table02.txt}\end{table}辞書の中では,「大和言葉」「外来語」などの区別はせず,同等に扱っている.\noindent{\gtfamily外来語}日本語のなかに奈良時代には中国,朝鮮から,最近は主に米国から輸入されて日本語の中に入ってきている用語がある.多少のニュアンスの違いはあるが,すべて同義語といえる.このような組み合わせが日本語のなかにたくさんあり,これが同義語を増やしている大きな原因である.大和言葉は親しみやすさを,漢語は権威を,片仮名語は近代的な感じをあたえる.また最近は「計算機」が「コンピューター」に,「写真機」が「カメラ」になるといったふうに,漢語が片仮名語に置き換わる傾向がある.\noindent{\gtfamily通称}通称と正式名称が両方使われている.「首相」=「内閣総理大臣」\noindent{\gtfamily年号}わが国だけの問題であるが,年号が2種類ある.さらに漢数字とアラビア数字が両方使われる.「2008年」=「平成20年」=「平成二十年」\noindent{\gtfamily立場による用語の違い}立場によって同じことを違った用語で表す場合がある.例えば「税金」という用語を政府は「公的資金」という言い方をするが,納税者は「血税」という言葉を使う.検索者は「税金」という用語で探すだろう.このような傾向は社会科学の用語に多い.\noindent{\gtfamily省略語}「特別急行」→「特急」のようなものをいうが,「マスコミ」は「マス・コミュニケーション」の省略形であったというように,現在は省略形の方が4拍の新しい用語として定着してしまっているものがたくさんある.省略の程度も地域によって異なる.関東よりも関西の方が積極的に省略するようである.「弱冷房車」(JR東日本)「弱冷車」~(JR西日本)頭字語(英語の用語の先頭の文字だけを集めた用語:アクロニム)もこの省略形に入れるべきだろう.ROMReadOnlyMemory\noindent{\gtfamily表記の揺れ}同義語のうち発音も同じものを表記の揺れ(異表記語ともいう)と言う.日本語では標準とされている表記の他に複数の「表記の揺れ」が許されている用語がある.個人により,機関により,いろいろな表記が氾濫している.極端な場合には,同じ著者が書いた記事でも表記法が違うことがある.複数の機関の記事を一度に検索しようとする場合には,考えられる揺れをすべてキーにして検索しなければならない.漢字と仮名による表記の揺れ犬,イヌ,いぬ漢字表記の揺れ沈殿,沈澱(「澱」の字が常用漢字でないので「殿」の字を代用した.)超電導(JIS)超伝導(学術用語)外来語をカタカナ書きするときの揺れインターフェース(新聞1996年まではインタフェース)インタフェース(JIS)インターフェイス(学術用語)インタフェイス古い記事を扱うときは異体字も問題になる.国語,國語送り仮名の違いによる表記の揺れ行う,行なう打ち合わせ,打ち合せ,打合わせ,打合せ,打合(内閣告示の「送り仮名の付け方」の中にも複数の表記が許容されている.)\noindent{\gtfamily推奨語}用語を標準化するために,同義語のグループのなかから,言語工学研究所が推奨する用語である.標準の用語に置き換える機能はパッケージソフトには含まれていない.別売の用語標準化ソフトとして提供している.インターフェース(新聞)インタフェース(JIS)インターフェイス(学術用語)インタフェイス$\Longrightarrow${\gtfamilyインターフェース}(言語工学研究所推奨)米,米国,USA,U.S.A.,アメリカ合衆国,合衆国,アメリカ(新聞)$\Longrightarrow${\gtfamilyアメリカ}(言語工学研究所推奨)\subsection{反義語}意味が対立する用語の関係である.対立の仕方にいくつかある.A.片方を否定すると対立する相手になる用語の関係である.「良いこと」を否定すると「悪いこと」になるような関係である.例善←→悪B.ある中間的な点を中心にして逆の方向になる用語の関係である.例上←中→下C.一つの行為を対立する立場で捕らえた用語の関係である.例売る←→買うD.さらには「兄」に年齢で対立する用語として「弟」がある.また性別で対立する用語として「姉」がある.どちらも反義語になる.例兄←年齢的対立→弟↑性別的対立↓姉\subsection{広義語・狭義語}自然言語処理で広義語との関係が狭義語にも適用できるように広義語・狭義語の関係は,属性が同じものだけにした.「自動車」—「タイヤ」のような全体部分関係は関連語にした.例1東京都新宿区(狭義語)東京都都庁(関連語)「東京都に住む」,「新宿区に住む」は成り立つが,「都庁に住む」は成り立たない.例2疾病伝染病(狭義語)疾病発病(関連語)\subsection{関連語}ある程度の意味的な関連性を持つ用語の関係を言う.大きく分けると同じカテゴリーの用語と異なるカテゴリーの用語との関係がある.A.共通の広義語を持つ用語.広義語狭義語食材$\rightarrow$肉$\searrow$野菜(「肉」と「野菜」とは関連語である.)B.異なるカテゴリーであるが,意味的な関係のある用語.広義語狭義語食材→肉料理→肉料理(「肉」と「肉料理」とは関連語と,人の判断で設定する.)\subsection{多義語}英語は多義語が多いと言われているが,日本語,特に大和言葉も多義語が多い.関係語は別の言葉になる.大和言葉での例うめる穴をうめる.お風呂をうめる.借金をうめる.時間をうめる.外来語での例英語の多義性の影響も受けている.ライト光,照明,明るい,軽い右,右翼手権利書く多義語は,|で区切って補助的な記述を付けてそれぞれ別の語として扱っている.\subsection{共起語}係り受けを構成する組み合わせを集めた辞書である.構文解析で係り先を決定したり,「良しあし」を決定したりするときに用いる.係り側の格助詞を含めて管理している.構文解析の通常の単語には必要に応じて「良しあし」のフラグが振ってあり,リスク管理やリコメンデーションなどに使っている.しかし例えば下記の例では,例寿命が延びる(良い)例寿命が短い(悪い)「寿命」,「延びる」,「短い」など用語はそれ自体では「良しあし」の情報は持っていないが,係り受けになったときに「良しあし」の性質が出てくる.共起語として,7万組を登録してある.係り,受けのそれぞれの用語の同義語,狭義語を実行時に拡張するので,共起語辞書に登録されていない係り受けにも対応できる.ビールが冷えている.麦酒が冷えている(同義語)生ビールが冷えている(狭義語)組み合わせの意味的な関係として,現在は「良い」「悪い」「それ以外」の3種類の情報しか持っていない.将来オントロジーとして発展させていく予定である.\noindent{\gtfamily共起辞書の作成方法}コーパスを構文解析で係り受けファイルにして,その結果を整理して,共起語辞書に登録する方式を取っている.\subsection{用語の意味関係は時と共に変化する}1991年当時「発泡酒」は「ビール」の意味を含む広義語であった(JISX0901-1991).しかし現在は「発泡酒」は「ビール」とは別のものの名前になったため,「ビール」「発泡酒」は共に「醸造酒」の狭義語となった.シソーラスには,原則として最新の意味だけを採択している.広義語狭義語醸造酒$\rightarrow$ビール$\searrow$発泡酒
\section{パッケージソフトの機能}
筆者らのシソーラスはパッケージで販売するほかにネットからも使えるようにしてある.\subsection{操作画面}\begin{figure}[h]\vspace{-1\baselineskip}\begin{center}\includegraphics{17-1ia12f3.eps}\end{center}\caption{「料理」で検索したときの操作画面}\label{fig:3}\vspace{-1\baselineskip}\end{figure}観点の「——」は下に表示したどの観点にも属さない関係語を集めたものである.\begin{figure}[b]\begin{center}\includegraphics{17-1ia12f4.eps}\end{center}\caption{「調理法」の観点で検索したときの操作画面}\label{fig:4}\end{figure}「かっぽう」に対する「割烹」,「はし休め」に対する「箸休め」など,標準でない標記も表示されている.実際の画面上では文字色で区別している.(注)「エラーレベル・差別語の表示」(4.5)を参照のこと以下に「料理」を「調理法」「材料」「地域」の観点で検索したときの画面を示す.\subsection{未知語の形態素解析}ユーザーがシソーラスに登録されていない用語で検索したときのために,形態素解析をして分解された形態素を自動表示する.画面上の分解された形態素をクリックすると検索できる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f5.eps}\end{center}\caption{「材料」の観点で検索したときの操作画面}\label{fig:5}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f6.eps}\end{center}\caption{「地域」の観点で検索したときの操作画面}\label{fig:6}\end{figure}複合語の最後の用語を広義語に,それ以外の用語を関連語とした.接尾辞は同じ意味の自立語に置き換える(下の例を参照).例「未知語解析」を形態素解析すると,下記の3つの用語が表示される.未知(関連語)言語(広義語)「語」は接尾辞なので同じ意味の「言語」に変換する.解析(広義語)\subsection{語末一致検索}日本語の複合語はほとんどの場合,意味や品詞を決定する用語が語末に,修飾する用語が前方にくる.この性質に着目して語末が同じ用語を取り出すと同じ意味の用語が集められ,狭義語を集めたのと同じような効果を持たせることができる.例えば「トンボ」をキーにして検索すると,語末が一致として下記の用語が表示される.狭義語「アカトンボ」「イトトンボ」「シオカラトンボ」……ノイズ「竹トンボ」「尻切れトンボ」「極楽トンボ」漏れ「オニヤンマ」「ギンヤンマ」「トンボ」という言葉を比ゆ的に用いている場合にノイズになる.接尾辞シソーラスには接尾辞も登録できる.\subsection{カスタマイズ機能}ユーザーがどんな用語を関係語として要求するかは個人によって,また置かれた状態によってまちまちである.「非常勤社員」「フリーター」「非正規社員」の同義語である「テンポラリー・ワーカー」などという用語は最近の労働問題を調べているひとには必要であるが,労働問題の歴史を研究しているひとには不要である.用語同士の関係がそのひとの環境,世代で異なることもある.筆者らの世代では,「パソコン」は「コンピューター」の狭義語であるが,最近の社会一般では「パソコン」という言葉の方が一般的になっている.個人別に学習したりする柔らかい機能が必要である.筆者らのシソーラスには次の機能を用意してある.A.当面不要な用語をじゃまにならないように,一時隠しておく機能B.ユーザーが手持ちのシソーラスをファイルから併合する機能筆者らのシソーラスには専門用語が登録されていない.利用者がそれぞれの専門分野の用語を登録する方式を取っている.ユーザー登録語は優先して表示する.\subsection{エラーレベル・差別語の表示}エラーのある用語と差別語は赤で表示している.また標準でない次のような用語をピンクで表示している.常用漢字以外を含んでいる用語例割烹表記の揺れ例インタフェース旧地名例浦和市旧機関名例文部省商品名例宅急便画面上正しい用語だけにするために,エラーのある用語と標準でない用語を表示しないようにする機能もある.\subsection{インターネット・辞書との接続}「言葉のポータルサイト」を目指している.画面上の用語をクリックするとGoogle,Wikipediaなどのインターネット検索ができる.また同様に電子化された辞書を串刺し検索できるようにしてある.(図7参照)\begin{figure}[t]\begin{center}\includegraphics{17-1ia12f7.eps}\end{center}\caption{他のシステムとの接続}\label{fig:7}\end{figure}\subsection{文章を推敲中の自動検索}ワープロなどで文章を推敲中により適した用語を探すために,クリッピングボード(コピーなどのために切り取った文字列)の文字列でシソーラスを自動的に探す.
\section{おわりに}
ネット上の記事が現在のペースで増えていくと,キーワードだけの検索ではノイズが多く早晩限界がくると思われる.ノイズを減らすためにも自然文検索のニーズ高まっている.今後日本語解析などを高度化していくためには意味の分野に立ち入らざるを得ないだろう.そのときにシソーラスが多用されるだろう.「補助的な記述」(1.4)ではすべて同じ(|)で区切って示しているが,それぞれの目的で区切り方を分けておくべきであったと思っている.特に多義語は,それ以外とは意味が異なる.シソーラス・ファイルのコードは外国語との結合を考えて,unicodeを使用している.これから高度な自然言語処理で活用していくためには,固有名詞も扱わなければならないだろう.本シソーラスについてご興味のある方は下記までお問い合わせください。E-mail:[email protected]\acknowledgment本稿の改善に有益なコメントを頂いた査読者の方に感謝いたします.\nocite{Book_01}\nocite{Book_02}\nocite{Book_03}\nocite{Book_04}\nocite{Book_05}\nocite{Book_06}\nocite{Web_07}\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林}{池原悟\Jetal}{1997}]{Book_04}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{医学中央雑誌刊行会編}{医学中央雑誌刊行会編}{2007}]{Book_06}医学中央雑誌刊行会編\BBOP2007\BBCP.\newblock\Jem{医学用語シソーラス第6版}.\newblock医学中央雑誌刊行会.\bibitem[\protect\BCAY{大野晋\JBA浜西正人}{大野晋\JBA浜西正人}{1985}]{Book_03}大野晋\JBA浜西正人\BBOP1985\BBCP.\newblock\Jem{類語国語辞典}.\newblock角川学芸出版.\bibitem[\protect\BCAY{科学技術振興機構編}{科学技術振興機構編}{1999}]{Book_05}科学技術振興機構編\BBOP1999\BBCP.\newblock\Jem{JICST科学技術用語シソーラス}.\newblock科学技術振興機構.\bibitem[\protect\BCAY{言語工学研究所}{言語工学研究所}{}]{Web_07}言語工学研究所.\newblock「類語.jp」(類語辞書オンライン版)\inhibitglue.\\newblock\Turl{http://ruigo.jp}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{Book_02}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{日本工業規格}{日本工業規格}{1991}]{Book_01}日本工業規格\BBOP1991\BBCP.\newblock\Jem{シソーラスの構成及びその作成方法:JISX0901-1991}.\newblock日本規格協会.\end{thebibliography}\appendix
\section{付録品詞一覧}
かっこ内は活用語尾である.品詞・活用形例名詞学校サ変名詞形勉強(する)サ変非名詞形察(する)ザ変信(ずる)一段生き(る)カ行五段書(く)カ行五段例外行(く)ガ行五段泳(ぐ)サ行五段押(す)タ行五段立(つ)ナ行五段死(ぬ)バ行五段遊(ぶ)マ行五段飲(む)ラ行五段走(る)ラ行五段例外おっしゃ(る)ワア行5段買(う)ワ行五段例外問(う)形容詞青(い)形容動詞閑静(な)形容動詞と/たる形矍鑠(たる)副詞さっぱり打ち消しの動詞年端もいか(ない:助動詞)打ち消しの形容詞必要(ない:形容詞)連体詞こんな接尾辞*法見出しに*をつける.\begin{biography}\bioauthor{国分芳宏(正会員)}{1966年東京理科大学理学部応用物理学科卒.同年日本科学技術情報センター入社.1985年株式会社言語工学研究所設立代表取締役就任.自然言語処理,シソーラス作成に従事.情報処理学会会員.}\bioauthor{岡野弘行(正会員)}{1966年大阪大学理学部物理学科卒.同年日本科学技術情報センター入社.2004年株式会社言語工学研究所入社.シソーラス作成に従事.}\end{biography}\biodate\end{document}
| |
V07N03-03
|
\section{はじめに}
形態素解析処理とは文を形態素という文字列単位に分割し品詞情報を付与する処理である.すでに成熟している技術であるが,解析精度や速度の向上のために様々な手法を試みる余地はあり,そのための技術的な拡張要求もある.他の自然言語処理処理技術と比べ形態素解析技術は実用に近い位置にあり,それゆえ,形態素解析システムに対する現場からの使い勝手の向上のための要求が多い.その要求の一つに,多言語対応がある.インターネット上で様々な言語のテキストが行き交う現代において,特定の言語に依存しない,多種多様な言語を視野に入れた自然言語処理が必要とされている.しかし,これまでの形態素解析システムは,特定の言語,または,同系統の数言語の解析のみを念頭に置いて開発されている.本研究の目的の一つは,特定の言語に依存しない形態素解析の枠組の構築である.我々は,形態素解析処理の言語に依存した部分を考察し,その部分をできるかぎり共通化した枠組を提案する.形態素解析は自然言語処理における基本的なコンポーネントであるが,ミクロな視点から見れば形態素解析処理自体も複数のコンポーネントからなりたっている.本研究では,完成した単一のシステムとして提供するだけではなく,システムを構成しているコンポーネント単位で利用できるように設計・実装を行った.コンポーネント化により,変更箇所を最小限におさえることができ,機能拡張が容易になる.また,言語非依存化などの調整や個々のコンポーネントの評価が行いやすくなる.\ref{tok}章では,形態素解析処理の言語に依存した部分をできるかぎり共通化した言語非依存の枠組について解説する.\ref{comp}章では,形態素解析システムの主要な内部処理のコンポーネント化を行い,それを基に形態素解析ツールキットの実装を行った.個別のコンポーネントについての言語非依存性と汎用性を考察し,実装の方針について解説する.
\section{言語に依存しないトークン認識と辞書検索}
label{tok}特定の言語に依存しない一般的な形態素解析システムを考えてみる.まず,最初に行う処理は,システムに与えられた解析対象文を{\bfトークン}と呼ばれる文字列単位に分割する処理である.この処理を{\bfトークン認識}(tokenization)と呼ぶ.トークンとは,英語では単語や数字や記号などに該当するが,厳密な定義は無い.トークンを発展させた概念が本論文で提案する{\bf形態素片}である.\ref{MF}節で導入する.{\bf語}は一個以上の連続するトークンから構成されるもので用意された{\bf辞書のエントリとして存在するもの}と定義する.語は{\bf形態素}と呼ばれることもあるが,言語学的な形態素の定義とは異なるので別名を与えることにした.次に行う処理は,認識されたトークンの列に対して形態素辞書の検索を行い,語を認識する処理である.この処理を本論文では単に{\bf辞書検索}と呼ぶ.トークン認識と辞書検索は解析対象言語のコンピュータ上での表記の特性によって処理方法が異なる.言語によって異なる場合もあるし,同じ言語でも清書法によって異なる場合もある.本論文では「書かれた言語」を対象に形態素解析することを前提としているので,「言語」とは表記,清書法をも含む意味に捉えることにする.本論文では,言語を表記の特性によって以下の二つに分類する.\begin{itemize}\itemわかち書きされる言語\itemわかち書きされない言語\end{itemize}わかち書きされる言語の例として英語があげられる.英語では語は{\bf空白文字}(whitespace)や{\bf記号文字}(panctuationmark)によって区切られていると考えられることが多く,トークン認識は単純明解な処理とみなされあまり重要視されなかった.しかし,いくつかの問題がある.これについては\ref{1t=1l}節で説明する.わかち書きされない言語の例として日本語や中国語などがあげられる.単語の境界が視覚的にはっきりしていないという表記上の特性をもっている.ゆえに,トークン認識は重要かつ困難な処理である.トークンの処理はわかち書きされる言語とわかち書きされない言語ではまったく異なるとみなされてきた.英語などのわかち書きされる言語では明白な境界が単語の両側にあるが,日本語や中国語などわかち書きされない言語では明白な単語境界を表すものが必ずしもあるとは言えない.わかち書きされる言語とされない言語の違いは,言語の特性というよりも表記の特性によるものであり,清書法の方針による分類と言える\cite{永田97}.本章ではわかち書きされる言語とされない言語のトークン認識方法の違いに着目し,どちらの表記法にも適応できる統一的な枠組を提案する.この統一的な枠組により,システムの最小限の変更(もしくは変更不要)とデータの入れ換えだけで様々な言語を同じシステムで解析できる.また,複数の言語が混じった文章を解析することもできる.\subsection{わかち書きされる言語とされない言語の処理の違い}わかち書きされない言語では,トークン認識は全ての文字をトークンとして認識すれば良い.理論的には文中の全ての部分トークン列(この場合,部分文字列)を語の候補として考慮する必要がある.また,語辞書により同じ字面の候補に複数の品詞候補が与えられることがある.そのため,区切りの曖昧性と品詞付与の曖昧性の二種類の曖昧性が生じる.わかち書きされる言語では,トークンは一意に決定され,かつ,1トークン=1語という単純化を行うことが多く,その場合は品詞付与の曖昧性だけが生じる.しかし,実際はわかち書きされる言語でも,必ずしも1トークン=1語とみなすことが困難な場合がある.これについては\ref{1t=1l}節で説明する.このような,わかち書きされる言語とされない言語のトークン認識処理の違いは,辞書検索の方法に影響を与える.わかち書きされる言語が語の両側に必ず明白な区切りを持つならば,辞書検索ではシステムはわかち書きされた文字列が語辞書に存在するかを問い合わせるだけでよい.もし存在するなら品詞等の情報を辞書から得る.一方,わかち書きされない言語では文は明白な単語区切りを持っていないため,辞書検索ではシステムは全ての部分トークン列(部分文字列)が語辞書に存在するかそれぞれ問い合わせる必要がある.一般にわかち書きされない言語の辞書検索は,文中のある位置から始まる全ての語を辞書から一括で取り出す{\bf共通接頭辞検索}(commonprefixsearch)と呼ばれる手法が用いられる.一般に共通接頭辞検索を効率的に行うためにTRIEというデータ構造を用いる.図\ref{fig:trieJ}に日本語TRIE辞書の一部を示す.TRIE構造は一回の問い合わせで文中のある位置からはじまる全ての語を返すことを保証しているので,効率的な辞書検索ができる.例えば,「海老名へ行く」という文字列を図\ref{fig:trieJ}のTRIEで検索すれば,枝を一回たどるだけで,「海(名詞)」「海老(名詞)」「海老名(固有名詞)」という語が見つかる.文中の全ての語を探す単純な方法は,文頭から一文字ずつ文字位置をずらしながら各位置で共通接頭辞検索を行うというものである.しかし,AhoとCorasickにより提案されたAC法\cite{Aho93}を用いれば,入力文を一回スキャンするだけで入力文に含まれる全ての語候補を取り出すことができ,TRIEによる方法と比べ検索速度は格段に向上する.Maruyama\cite{Maruyama94}はこのAC法を用いて日本語形態素解析の辞書検索の高速化を行っている.だが,辞書のデータ格納領域が大きくなるという欠点がある.本論文では前者のTRIEによる方法を用いて以降の解説を行う.\begin{figure}[bt]\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{l}海\\─┬─●┬─{\bf海}:名詞\\││\\││老\\│└─●┬─{\bf海老}:名詞\\││\\││名\\│└─●─{\bf海老名}:固有名詞\\│歩\\├─●┬─{\bf歩}:名詞\\││\\││く\\│├─●─{\bf歩く}:動詞\\││\\││道\\│└─●┬─{\bf歩道}:動詞\\││\\││橋\\│└─●─{\bf歩道橋}:動詞\\:\\\end{tabular}\end{center}\caption{日本語TRIE辞書}\label{fig:trieJ}\end{figure}\subsection{1トークン=1語の問題}\label{1t=1l}わかち書きされる言語でも,単語は常に明白な単語境界文字列で区切られているわけではない.明白な単語境界を前提とした単純なトークン認識手法には限界がある.そこで,本論文では,わかち書きされる言語をわかち書きされない言語と同じ方法で解析する方法を提案する.英語を例に,問題点とその解決のための方針を述べる.\begin{description}\item[単語内区切り曖昧性の問題---一つのトークンに複数の語が含まれている]~語の構成要素に記号文字が含まれている場合,区切りの曖昧性が生じてしまう.``Mr.''や``Inc.''のように,ピリオドがトークンの末尾にある場合,それが文末記号なのか省略記号なのかという曖昧性がある.これは,わかち書きされる言語の「文の認識」という大きな課題であり,Palmerら\cite{Palmer97}によって研究されている.アポストロフィがトークンの途中に含まれている場合も曖昧性が生じる.所有を表す``'s''が辞書にあれば解析文中の``John's''を``John''+``'s''という二つの語として認識したい.しかし,``McDonald's''(固有名詞)が辞書にあれば解析文中の``McDonald's''を``McDonald''+``'s''ではなく一つの語としても解析したい.それゆえ,区切りの曖昧性を生じることになる.ハイフンの場合は,ハイフンでつながれた文字列が辞書にあればそれを候補としたいし(例:``data-base''),無ければハイフンを無視したい(例:``55-year-old'').これらの問題は単純なパターンマッチでは対処できない.そこで,我々はわかち書きされない言語での方法を適用する.記号文字を含むトークン全てを記号文字で分割し(例:``McDonald's.''→``McDonald''+``'''+``s''+``.''),分割されたトークン列に対して共通接頭辞検索で語辞書を検索する.記号文字を含めた形で語が辞書に登録されていればそれも候補になる.\item[複合語問題---複数のトークンが一つ語になる]~語の構成要素に空白文字が含まれている場合について考える.空白文字などの明白な境界を利用した単純なトークン認識では,複合語固有名詞``SouthShields''のような空白文字を含む語が扱えない.このような場合``South''(固有名詞)と``Shields''(固有名詞)を辞書に登録して解析することが考えられる.しかし,``South''(形容詞)+``Shields''(名詞複数形)と認識されてしまう危険も高くなる.``SouthShields''(固有名詞)という空白文字を含んだ語を辞書に登録できれば,この種の誤りは減るであろう.PennTreebank\cite{PennTreebank90}では,``NewYork''のような空白文字を含む固有名詞は``New''と``York''に分割され,それぞれに「固有名詞」という品詞タグが与えられている.そのため,このコーパスから得られる語も空白文字を含まない分割されたものになってしまう.このように空白文字を含んだまま単独の語として扱うべきものをわざわざ分割してしまうと,形態素解析処理における曖昧性の増加の要因になる.この問題を解決するために,我々はわかち書きされない言語での方法を適用する.これは,我々の知る限りWebsterら\cite{Webster92}により最初に提示されたアイディアである.彼らはわかち書きされる語のイディオムや定型表現などを扱うため,空白文字を含む語の辞書登録を可能にし,トークン認識時にそれらをTable-look-upmatchingという方法で検索をする.我々は語辞書を共通接頭辞検索で検索するという方法により,空白文字を含む語を扱う.\end{description}これらの問題を\underline{同時に}解決するためには,「記号文字,及び,空白文字で区切られた文字列単位をベースに語辞書を共通接頭辞検索」すれば良いという結論に達した.そのためには,この文字列単位を,言語非依存性と処理効率を考慮しきちんと定義する必要がある.これについては,次節で詳しく解説する.\subsection{形態素片}\label{MF}\subsubsection{形態素片の導入}\label{MFintro}\ref{1t=1l}節で述べたように,わかち書きされる言語は単語境界が明白であると考えられてきたにもかかわらず,単語内区切り曖昧性,複合語の問題がある.このような問題を解決する素朴な方法として,わかち書きされる言語をわかち書きされない言語と同じとみなし,「わかち書きされない言語を解析する方法」で解析するという方法が考えられる.英語を例に考えると,``They've{\delimi}gone{\delimi}to{\delimi}school{\delimi}together.''という文の全てのスペース({\delimi})を削除して,``They'vegonetoschooltogether.''という文を作り,これをわかち書きされない言語を解析する方法で解析すればよい\cite{Mills98}.しかし,このような方法は``They/'ve/gone/to/school/to/get/her/.''のような余計な曖昧性を含む結果を生んでしまう.スペースを消した場合の影響を調べるため,簡単な精度測定実験を行った.PennTreebank\cite{PennTreebank90}の128万形態素から学習されたパラメータ(品詞trigramによる状態遷移表と出現確率が付与された単語辞書)を用いたHMMベースの形態素解析システム\moz(\ref{comp:moz}節を参照)で解析精度を計った.テストデータは学習に用いた全データを使用した.図\ref{fig:ORGvsNWS}に実験結果を示す.スペースを削除した場合は区切りの曖昧性が発生するため,recallとpresicionで評価した.区切りの曖昧性の影響で精度が落ちていることが分かる.結果を細かく見てみると,``away'',``ahead'',``anymore'',``workforce''のような複数の語の連続をそれぞれ``away'',``ahead'',``anymore'',``workforce''のように一つの語として認識してしまう傾向にある.recallよりもprecisionが高いのはこのためである.また,``atour'',``aton'',``Alaskanor''を``atour'',``aton'',``Alaskanor''のように認識してしまう誤りもある程度見られた.前者のような区切りの曖昧性はconjunctiveambiguity,後者のような区切りの曖昧性はdisjunctiveambiguityと呼ばれる\cite{Webster92}\cite{Guo97}.conjunctiveambiguityによる区切り誤りは11267個,disjunctiveambiguityによる区切り誤りは223個あった.区切り曖昧性は精度以外にも性能に影響を与える.文の全ての位置から検索ができるので検索回数が増え,それにともない候補となる語も増えるため,解析時間が増大してしまう.実験ではスペースを削除した方法の解析時間は,そうでない場合の約5倍を要した.これは重大な問題である.より精度の高い効率的な解析を行うためには,わかち書きの情報を活かし,余計な曖昧性をできるかぎり排除できる単位を定義すべきである.また,特定の言語に依存しないように考慮する必要がある.\begin{figure}[bt]\vspace{-3mm}\begin{center}\begin{tabular}{|l||c|c|}\hline&Recall&Presicion\\\hline\hlineスペースあり({\ttIt{\delimi}is{\delimi}my...})&\multicolumn{2}{c|}{\begin{tabular}{c}97.36\%\\$(\frac{1250889}{1284792})$\end{tabular}}\\\hlineスペース削除({\ttItismy...})&\begin{tabular}{c}97.04\%\\$(\frac{1246811}{1284792})$\end{tabular}&\begin{tabular}{c}97.16\%\\$(\frac{1246811}{1283203})$\end{tabular}\\\hline\end{tabular}\end{center}\caption{英語におけるわかち書きの効果を調べる実験}\label{fig:ORGvsNWS}\end{figure}本論文では,わかち書きされる言語のこのような問題を解決するために,効率的かつ洗練された方法を提案する.それは,文中での「辞書検索を始めて良い位置・終えて良い位置」を言語ごとに明確に定義し,それを元に共通接頭辞検索で辞書検索するという方法である.これは,わかち書きされない言語で採用されている方法を一般化したものである.わかち書きされない言語では「文字」の境界が辞書検索を始めて良い位置・終えて良い位置となる.このような「辞書検索を始めて良い位置・終えて良い位置」に囲まれた文字列を{\bf形態素片}\cite{Yamashita2000}と呼ぶ.この形態素片を各言語ごとに定義すれば,本節冒頭の英語の例のような非論理的な曖昧性を含むことなく,わかち書きされる言語とされない言語を統一的に扱える.形態素片は,言語非依存性や処理の効率を考慮してより厳密に定義されたトークンと言える.ある言語の形態素片の集合は,その言語の辞書中の全ての語を構成できる文字列の最小集合と定義する.ただし,{\bfデリミタ}と呼ばれる文字列集合は除く.デリミタは文中で語の境界を表す空白文字などの文字列で,語の最初と最後には現れないものと定義する.以降,``{\delimi}''と表記する.英語ではアルファベットのみが連続する文字列,及び,全ての記号文字は形態素片であると定義できる.それゆえ,単語中の記号文字で分断される各文字列も形態素片である.例えば,英語文字列``they're''は``they'',``''',``re''の3つの形態素片から成る.当然,複合語を構成する各単語も形態素片である.辞書に``New{\delimi}York''や``New''というエントリがあれば,``New'',``York''はそれぞれ形態素片であるが,``{\delimi}''はデリミタなので形態素片にはならない.また,``{\delimi}York''といった文字列は定義により語にならない.日本語,中国語などのわかち書きされない言語では全ての文字が形態素片になる.図\ref{fig:MFrslt}に文から形態素片を認識した例を示す.認識された形態素片は角括弧で囲って表されている.\begin{figure}[bt]\vspace{-5mm}\begin{center}\begin{tabular}{|l|lll|}\hline英語&{\ttI'minNewYork.}&→&[{\ttI}][{\tt'}][{\ttm}]{\delimi}[{\ttin}]{\delimi}[{\ttNew}]{\delimi}[{\ttYork}][{\tt.}]\\\hline日本語&学校へ行きましょう.&→&[学][校][へ][行][き][ま][し][ょ][う][.]\\\hline\end{tabular}\end{center}\caption{形態素片認識の例}\label{fig:MFrslt}\end{figure}我々の方法では,わかち書きされない言語と同様にわかち書きされる言語の語辞書はTRIEに格納する.形態素片が枝のラベルになる.図\ref{fig:trieE}に形態素片ベースの英語TRIE辞書を示す.図\ref{fig:MFrslt}の英語の例の[New]の位置から図\ref{fig:trieE}のTRIEを検索すれば,一回たどるだけで``New(形容詞)'',``New{\delimi}York''(固有名詞)という二つの語が見つかる.TRIE辞書構築時と形態素片認識処理時には,連続する二つ以上のデリミタは一つのデリミタと見なして処理を行う.デリミタの連続には,特に言語的な意味は無いと仮定している.\begin{figure}[bt]\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{l}\bfI\\─┬─●─{\bfI}:代名詞\\│\\│\bf'\\├─●┬─{\bf'}:記号\\││\\││\bfm\\│├──●─{\bf'm}:動詞\\││\\││\bfs\\│└──●─{\bf's}:所有\\│\\│{\bfNew}\\├──●┬─{\bfNew}:形容詞\\││\\││\delimi\bfYork\\│└──●───●─{\bfNew\_York}:固有名詞\\:\\\end{tabular}\end{center}\caption{英語TRIE辞書}\label{fig:trieE}\end{figure}\subsubsection{形態素片認識の方法}\label{MFimpl}形態素片は辞書を引き始める位置と引き終える位置を明確にし,わかち書きされる言語でも,効率的な共通接頭辞検索を可能にする概念である.しかし,ある言語の形態素片の集合を過不足なく定義することは難しい.そこで,我々は「ユーザが簡単に定義できる必要最小限の情報」のみを用いた疑似的な形態素片の定義法を提案する.わかち書きされる言語である英語を例に考えてみると「デリミタと記号文字で区切られる文字(アルファベット)の連続」と「記号文字」の二種類が形態素片となり,形態素片認識にはデリミタと記号文字を定義する必要があることが分かる.わかち書きされない言語である日本語や中国語を例に考えると,各「文字」が形態素片になり,「文字」を定義すれば良いことが分かる.これらの考察により,次の3種類の情報を用いれば形態素片認識処理ができることが分かる.\begin{enumerate}\item文字の定義,及び,全ての文字が形態素片になりうるかどうかの区別わかち書きされない言語では全ての文字が形態素片になりうる.つまり,これは,わかち書きされる言語かされない言語かを区別する情報である.\itemデリミタ辞書形態素片の境界として働き,それ自体は独立した形態素片にはならない文字列の辞書.語の開始と終了位置にはデリミタは現れない.\item形態素片辞書形態素片となる特殊な文字・文字列の辞書.記号文字のように形態素片の境界として働き,それ自体も形態素片として扱われる文字列などを格納する.\end{enumerate}全ての文字が形態素片となるわかち書きされない言語では,(2),(3)は不要の場合が多い.これらの情報の英語(PennTreebank\cite{PennTreebank90}のフォーマットに準拠)での定義例を示す.\begin{enumerate}\item1文字≠1形態素片(わかち書きされる言語)\itemデリミタ辞書:空白文字(\delimi)\item形態素片辞書:[{\tt.}][{\tt,}][{\tt:}][{\tt;}][{\tt'}][{\tt-}]$\cdots$[{\tt\$}][{\tt\%}]$\cdots$[{\ttn't}]\end{enumerate}PennTreebankでは,``don't''などの縮約形は``do''と``n't''に分割されタグ付与されているので,形態素片辞書に[{\ttn't}]が必要になる.日本語での定義例を示す.\begin{enumerate}\item1文字=1形態素片(わかち書きされない言語)\itemデリミタ辞書:空白文字(\delimi)\item形態素片辞書:なし\end{enumerate}日本語はわかち書きされない言語であるが,デリミタを定義しておくと,わかち書きした文の解析もできる.わかち書きした日本語文は区切り曖昧性が減少する.韓国語の通常の清書法では,句単位でわかち書きする.これは,日本語の文節に相当する単位である.わかち書きをする位置は,新国語表記法\cite{全96}によって定められているが,必ずしも完全に守られているわけではない\cite{平野97}.我々の視点では,韓国語は日本語のようなわかち書きされない言語に分類できる.形態素片の定義例は上記の日本語のものをそのまま用いることができる.しかし,わかち書きの境界の前後の品詞の分布には偏りがある.平野ら\cite{Hirano96}\cite{平野97}は,境界内部では品詞bigramを用い,境界を越えての連接には品詞trigram(境界も品詞の一つ)を用いることにより,わかち書き境界という情報をうまくとりこんでいる.わかち書き境界がスペース(\delimi)で表されるとすれば,この場合の韓国語での定義例は次のようになる.\begin{enumerate}\item1文字=1形態素片(わかち書きされない言語)\itemデリミタ辞書:なし\item形態素片辞書:空白文字(\delimi)\end{enumerate}もちろん,語辞書にスペース(\delimi)を登録し「わかち書き境界」などといった品詞を持たせておく必要がある.ドイツ語はわかち書きされる言語であるが,複合名詞は区切りの曖昧性を持っている.例えば,{\itStaubecken}は,{\itStau-becken}と区切れば「貯水池」,{\itStaub-ecken}では「ゴミ捨て場」という意味になる\cite{Lezius98}.このような区切り曖昧性を扱うためには,わかち書きされない言語として処理を行えば良い.定義例をあげる.\begin{enumerate}\item1文字=1形態素片(わかち書きされない言語)\itemデリミタ辞書:空白文字(\delimi)\item形態素片辞書:なし\end{enumerate}形態素片認識アルゴリズムは,文の先頭から末尾まで1バイトずつずらしながら,形態素片・デリミタを探して行くという単純なものである.しかし,この方法による形態素片認識結果を用いれば全ての語を認識でき,実用上の問題は無い.
\section{コンポーネント化と実装}
label{comp}本章では,形態素解析システム内部の様々な処理をそれぞれコンポーネント化した設計・実装について述べる.コンポーネント化は,形態素解析以外の用途への利用,特殊な機能の追加,言語に特化した処理の追加などに必須である.本章では,これらの目的を念頭に置いた設計・実装の方針について解説する.我々の考える言語非依存の形態素解析処理の流れを次に示す.\begin{enumerate}\item入力された解析対象文を形態素片列として認識し,辞書検索を簡単にする.\item形態素片列に対し語辞書検索を行い品詞候補,及び,語自体のコストを与える.\item語を区切り・品詞の曖昧性を保持したままトレリス(trellis)データ構造に格納する.同時に状態遷移の情報もチェックし格納する.\itemトレリスから最適解(語の列)を選択する.\item結果を出力する.\end{enumerate}このような処理の流れに基づき各処理をコンポーネントに分割した設計を行い,形態素解析ツールキットLimaTKを実装した\cite{LimaTK99}\cite{山下and松本98}\cite{山下99}.図\ref{fig:TK}に示すようなコンポーネントから成り立っている.全てのコンポーネントは独立しておりインターフェース等の仕様に従えば自作のコンポーネントと置き換えが可能である.これらのコンポーネントのうちで言語依存性の高いものは,形態素片認識,辞書検索,未定義語処理である.形態素片認識と辞書検索は形態素片の導入により,言語依存部分がほぼ解消されたと言える.形態素片認識の実装については,\ref{tok}章で説明した.辞書検索の実装については\ref{comp:dic}節,最適解選択の実装については\ref{comp:lattice}節,未定義語処理の実装については\ref{comp:udw}節で述べる.\ref{comp:moz}節ではLimaTKを用いて実装した形態素解析システム\mozについて述べる.\begin{figure}[bt]\begin{center}\leavevmode\renewcommand{\arraystretch}{}\begin{tabular}{l}\fbox{\bf形態素解析システム}\\││││\\│││└──形態素片認識\\│││\\││└──辞書検索\\││\\│└──未定義語処理\\││\\│└─品詞推定\\│\\└──形態素データ管理\\│\\├─状態遷移表管理\\│\\└─最適解選択\\\end{tabular}\end{center}\caption{ModulesofLimaTK}\label{fig:TK}\end{figure}\subsection{辞書検索}\label{comp:dic}辞書検索コンポーネントは形態素片列として認識された文から可能性のある語全てを辞書から獲得する.これらの処理の詳細については,\ref{tok}章で既に述べた.現在の辞書検索コンポーネントの実装について述べる.語辞書のデータ構造であるTRIEを単純に実装すると大きなデータ領域が必要になる.そこで現在は,データ格納領域が小く済む2種類の方法で実装している.suffixarray\cite{Manber90}を使うものと,パトリシア木\cite{Morrison68}を使うものである.パトリシア木はデータ消費量が若干大きいが高速であり,suffixarrayは若干低速であるがデータ消費量が小さいという特徴がある.suffixarrayによる実装は高速文字列検索ライブラリ{\sufary}\cite{SUFARY99}を使用している.語としてどのようなものを辞書に入れておくかということは言語や用途に依存した問題である.例えば,英語で動詞イディオム``lookup''(``lookingup'',``lookedup''なども)を語として辞書登録したいとする.すると,以下の例の(1)では,登録された語が辞書検索の結果得られるが,(2)では分割されているのでイディオムとして認識されない.\begin{enumerate}\itemIlookeduptheanswer.\itemIlookedtheanswerup.\end{enumerate}Websterら\cite{Webster92}はこのような連続した文字列で表現できないイディオム,定型表現などを形態素解析処理の段階で扱うために,辞書検索とパージングの知識・処理を融合するという枠組を提案している.コンポーネント化設計により,文字列として連続していない語の認識処理も,他のコンポーネントに影響を与えないように辞書検索コンポーネントなどの内部で実装できる.しかし,我々はこのような言語の構造に関わる処理は形態素解析より後の高次の処理で扱うべきであると考える.これは我々の目標が,形態素解析システムの単純化・効率化・言語非依存性を目指すことにあるためである.\subsection{最適解選択処理}\label{comp:lattice}我々はHMMによる最適解の選択方法を採用した.最適解選択に必要なHMMパラメータはある程度の量の品詞タグ付きコーパスがあれば得られるので,特定の言語の解析が容易に始められるという利点がある.具体的には,品詞タグ付きコーパスから,語と品詞N-gramをカウントし,シンボル出力確率(品詞別単語出現確率)と状態遷移確率(品詞間,または,状態と品詞間の遷移確率)を計算し,動的計画法の一つであるビタビ・アルゴリズムで出現確率最大の解を求める.実際の実装は,積演算より和演算の方が効率的に処理できるという理由から\cite{Manning99}パラメータ(確率値)の逆数の対数に適当な係数をかけた整数値({\bfコスト})を用いている.コストの和演算で最適な解を選択する方法は{\bfコスト最小法}とも呼ばれており\cite{永田97}\cite{長尾96},JUMAN\cite{JUMAN98},茶筌\cite{ChaSen99}といった日本語形態素形態素解析システムなどで採用されている.つまり,和演算による実装は,これらのシステムで長年用いられてきた,人手によって調整されたコスト体系(単語コスト,接続コストなど)も利用できるという柔軟性を持っている.特定の言語のために形態素解析を行うためにユーザが必要なものは,形態素片認識を行うための情報と,語と接続表(HMMパラメータ)だけである.HMMパラメータは,十分な大きさの品詞タグ付きコーパスとユーザの望む統計モデル(bigram,trigram,variablememorymodel\cite{Haruno97}など)に基づいた学習プログラムがあれば得られる.形態素情報管理コンポーネントは,前述の方法により最尤解選択を行う.これは形態素解析における解選択の一般的な実装方法である\cite{永田97}\cite{長尾96}.文頭から文末へ向かって,一語ずつトレリス(ラティス)構造に格納してゆき,そのときにその語までの部分解析のコストを求める.最適解は,文末から文頭へ向かって,最適な部分解析のコストを持つノードを順次辿れば得られる.格納の際に必要になる,状態遷移(接続)にかかるコストと遷移先状態は,状態遷移表管理コンポーネントから得る.状態遷移表管理コンポーネントは,現在の状態と次の品詞をキーに状態遷移のコストと遷移先状態を返すという単純な仕事をする.\subsection{未定義語処理}\label{comp:udw}未定義語処理コンポーネントは辞書に登録されていない語に対して品詞推定を行う.未定義語の品詞推定は統計的な方法と人手による規則などのヒューリスティックを用いる方法がある.統計的な方法は,未定義語が全ての品詞を持つと仮定し,トレリスでの曖昧性解消処理の段階で品詞N-gramの統計値により最適な品詞を自動的に選ぶという方法である\cite{Manning99}.これは,言語に依存しない実装が可能である.しかし,この方法ではデータ格納領域が増大してしまい,処理効率が悪い.そこで,未定義語が全ての品詞を持つのではなく,あらかじめ「未定義語が推定されうる品詞」の集合を限定する方法が考えられる.例えば「この言語の未定義語は『名詞』か『固有名詞』である」と定義すれば,曖昧性解消処理で未定義語の品詞はどちらかに選ばれる.この方法は完全な推定とは言えないがデータ格納領域の増大を押えることができる現実的な方法であり,茶筌\cite{ChaSen99}で採用されている.実用性と性能のバランスの良さから,LimaTKの未定義語処理コンポーネントの標準の機能として採用した.ヒューリスティックによる方法は,例えば,英語ならば,「文中で大文字で始まるなら固有名詞」「-tionで終われば名詞」といった規則を用いて品詞を推定する方法である.これは言語に依存する方法なので,言語ごとに処理系を実装する必要がある.LimaTKではこのようなルールを埋め込むためには,統計的手法による未定義語処理コンポーネントを修正するか,まったく新しく作り直す必要があるが,作り直す場合でもインターフェース規約を守れば他の処理に影響を与えずに実装できる.未定義語の長さ,すなわち,未定義語がいくつの形態素片で構成されるかを決定する処理も難しい.理論的にはある位置から始まる全ての長さの部分形態素片列が未定義語の候補になる可能性がある.しかし,これでは候補が増大してしまい処理効率に問題がある.日本語のように字種にバリエーションのある言語は,連続する漢字列・カタカナ列・記号列などを一まとめにするといった字種によるまとめ処理により未定義語の候補を限定できる\cite{長尾96}.このような字種による未定義語候補の決定処理はJUMAN\cite{JUMAN98}や茶筌\cite{ChaSen99}の様な日本語形態素解析システムに採用されている.単純なまとめ処理ではなく,字種による語の長さの分布の違いに着目して未定義語処理を行うという研究もある\cite{Nagata99}.わかち書きされる言語ではこれまでこの問題は起こらなかった.しかし,本研究では形態素片という概念を導入したため,わかち書きされる言語でも問題になるようになった.未定義語に複合語は無いと仮定すれば,ある位置から始まり次のデリミタまで間の全ての部分形態素片列を未定義語の候補とすれば良い.この仮定は正しいものではないが,実用上はさほど問題なく現実的である.そもそも未定義語処理は言語依存性の高い処理であり,品詞推定精度の高い共通の枠組を構築するのは困難である.より精度の高い処理を求めるユーザはやはりプログラムの調整を行う必要がある.ゆえに,我々は各言語共通に利用できる最低限の機能と調整の行いやすい枠組で実装を行った.言語非依存性とユーザの利便性と処理効率のバランスを考慮した実装と言える.実装方針をあげておく.\begin{itemize}\item未定義語の品詞推定:あらかじめ「未定義語が推定されうる品詞」の集合を定義し,最適解選択処理にまかせる\item未定義語の長さの決定:「形態素片」「字種によるまとまり」「デリミタに挟まれた領域」を未定義語を構成する単位に選択でき,未定義語を構成する「最大単位数」も指定できる\end{itemize}\begin{figure*}[htb]\baselineskip3.9mm\fbox{日本語}~\begin{verbatim}そんな感じがします.そんな30752263648[Y:ソンナBF:そんなP:連体詞Pr:100/3864]感じ69601981585[Y:カンジBF:感じP:名詞-一般Pr:37/144546]が130659744[Y:ガBF:がP:助詞-格助詞-一般Pr:17509/82739]し01172688[Y:シBF:するP:動詞-自立/サ変・スル/連用形Pr:10638/10638]ます3048731666[Y:マスBF:ますP:助動詞/特殊・マス/基本形Pr:813/30431].1112072[PP:記号-句点Y:.BF:.P:記号-句点Pr:27418/27452]\end{verbatim}\bigskip\fbox{英語}~\begin{verbatim}Whatisaword?What2208201835[P:WPPr:218/3156]is946621373[P:VBZPr:8789/27619]a1207281384[P:DTPr:25820/111243]word662985117[P:NNPr:59/179722]?377154202[P:.Pr:556/53362]\end{verbatim}\bigskip\fbox{中国語}~\begin{verbatim}人力基盤構築不能促成.人力59292828[P:NaPr:185/372140]基盤82862828[P:NaPr:9/372140]構築68167070[P:VCPr:17/106692]不能39897878[P:DPr:1003/167440]促成84733232[P:VHPr:2/105135].20073131[P:PERIODCATEGORYPr:6046/79413]\end{verbatim}\caption{形態素解析例}\label{fig:mar}\end{figure*}\subsection{ツールキットによる形態素解析システムの実装}\label{comp:moz}LimaTKを用いて,簡単な多言語対応形態素解析システム\mozを作成した.日本語,英語,中国語,韓国語など様々な言語を実装した.図\ref{fig:mar}に解析結果の例を示す.各行はそれぞれ一つの形態素を表し,各列は左から,「見出し文字列」「各形態素の持つコスト」「品詞コード」「状態コード」「解析には用いないその他の情報(角括弧で囲まれている)」\footnote{出力を人間にも読みやすくするための情報であり,解析時には一切使用されない.形態素辞書のこの項目に記述されている文字列をそのまま表示する.フォーマットは任意であり,後処理の目的に合わせ,形態素辞書を作成する段階で自由に変更できる.英語,中国語の例では,品詞名(P)と形態素の出現確率(Pr)が,日本語の例では,読み(Y),基本形(BF),品詞名(P),形態素の出現確率(Pr)がこの項目に含まれている.形態素の出現確率は「各形態素の持つコスト」を算出する基になった値である($Pr:この形態素のコーパスでの出現回数/品詞のコーパスでの出現回数$).}となっている.使用した言語データを次に示す.\begin{description}\item[日本語]RWCPの品詞タグ付きコーパス\cite{IPA97}(約92万形態素)から品詞trigramモデルでパラメータ学習を行い,さらに茶筌\cite{ChaSen99}の語辞書エントリを追加した.解析精度は,同様の方法で作成された解析用データを用いた茶筌のものと同等で,インサイドデータでRecall,Precisionとも97\%程度である.\item[英語]PennTreebank\cite{PennTreebank90}の品詞タグ付きコーパス(約128万形態素)から品詞trigramモデルで学習を行い,電子化テキスト版OxfordAdvancedLearner'sDictionary\cite{OALD92}の辞書エントリを追加した.語幹(stem)情報も同じくOxfordAdvancedLearner'sDictionaryから補完した.解析精度はインサイドデータで97\%,アウトサイドデータで95\%程度である.\item[中国語]台湾の中央研究院の品詞タグ付きコーパス\cite{CKIP-TR9502}(約210万形態素)から品詞bigramモデルで学習を行った.解析精度はRecall,Precisionともインサイドデータで95\%,アウトサイドデータで91\%程度である.\end{description}未定義語品詞推定のチューニング,高次のN-gramの利用,スムージングなどより高度な統計的手法を用いれば,それに応じて精度は向上する.しかし,本研究の目的は精度の向上ではないので,これ以上は追求しない.
\section{関連研究}
Websterら\cite{Webster92}はわかち書きされる言語(英語)のイディオムや定型表現が扱えるように,英語のデリミタで区切られた単位をわかち書きされない言語(中国語を想定している)の文字に対応させわかち書きされない言語での解析方法を適用している.しかし,``They've''のような単語内区切り曖昧性の問題(\ref{MFintro}節)には言及していない.曖昧性の解消については,確率を使った方法が適用できると言及されているのみである.わかち書きされる言語における境界の曖昧性解消について,Millsはわかち書きが不明瞭な古代英語の解析の際に,わかち書きされない言語で用いる形態素解析手法を単純に適用している\cite{Mills98}.これは,\ref{MFintro}節で説明した,文の全てのスペース({\delimi})が削除された英文をわかち書きされない言語の解析手法で解析する方法である.しかし,この研究での解決法は,目的から分かるように,言語非依存ではない.また,単純なマッチング,ヒューリスティックによる力まかせな方法に基づいている.言語非依存な形態素解析の枠組として,Kimmoの二段階形態素論(two-levelmorphology)\cite{Kimmo83}が知られている.簡単に言うと,オートマトンを用いてトークン認識と品詞付与を同時に行う方法である.我々は,わかち書きされる言語で考えられる分割の可能性,及び,わかち書きされる言語とされない言語との整合性も考慮し,形態素片という概念を導入した.形態素片はこれまで漠然と定義されていたトークンに替わる概念である.これにより言語非依存の枠組を構築した.このアイディアは極めて単純ではあるが,効率的なTRIE辞書検索の実現とトークン認識における非論理的な曖昧性の排除を達成した.本研究の成果物である形態素解析ツールキットLimaTKの柔軟性を示す例として文節まとめあげと形態素解析の融合についての研究\cite{浅原99}をあげる.英語を念頭に考えると,これは品詞付与と名詞句(BaseNP)認識をHMMにより同時に行うという方法である.スペース({\delimi})を「名詞句始まり」「名詞句終わり」「名詞句の間(終わりであり始まりである)」「名詞句途中」「名詞句の外部」のタグ(品詞)を持つ語として扱い,名詞句区切り情報と品詞情報の付与されたコーパスからHMMパラメータを学習し,それを用いて最適なものを選ぶという手法である.この手法は,形態素片を以下の情報で定義すれば\mozで簡単に実装できる.\begin{enumerate}\item1文字≠1形態素片(わかち書きされる言語)\itemデリミタ辞書:なし\item形態素片辞書:スペース({\delimi})\end{enumerate}このように,LimaTKは様々な言語を解析できるだけでなく,形態素解析以外の用途にも適用できる汎用的なHMMパーザとして柔軟に利用できる.
\section{おわりに}
本論文では,言語に依存しない形態素解析の枠組の提案と,形態素解析の内部処理のコンポーネント化によるツールキットの設計・実装を行った.従来は,わかち書きするか否かという言語の特徴により大きく処理が異なる形態素解析処理を,形態素片という辞書検索単位を定義したことにより,言語非依存の共通の枠組で行えるようになった.また,形態素解析の内部処理のコンポーネント化により,言語非依存化のみならず様々な改良や他の言語処理への適用が行いやすくなった.本研究に関する情報・ツールキットのパッケージは下記のURLで入手できる.\begin{center}\mbox{\tt$<$http://cl.aist-nara.ac.jp/\symbol{"7E}tatuo-y/ma/$>$}\end{center}\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた松本研究室の方々に感謝いたします.また,データを快く提供していただいた関係各社に深く感謝いたします.\bibliographystyle{jnlpbbl_old}\bibliography{v07n3_03}\begin{biography}\biotitle{略歴}\bioauthor{山下\達雄}{1995年広島大学総合科学部総合科学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2000年同大学同研究科博士後期課程研究指導認定退学.情報処理学会,人工知能学会各会員.}\bioauthor{松本\裕治\(正会員)}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V23N05-03
|
\section{はじめに}
質問応答とは,入力された質問文に対する解答を出力するタスクであり,一般的に文書,Webページ,知識ベースなどの情報源から解答を検索することによって実現される.質問応答はその応答の種類によって,事実型(ファクトイド型)質問応答と非事実型(ノンファクトイド型)質問応答に分類され,本研究では事実型質問応答を取り扱う.近年の事実型質問応答では,様々な話題の質問に解答するために,構造化された大規模な知識ベースを情報源として用いる手法が盛んに研究されている\cite{kiyota2002,tunstall2010,fader2014}.知識ベースは言語によって規模が異なり,言語によっては小規模な知識ベースしか持たない.例えば,Web上に公開されている知識ベースにはFreebase\footnote{https://www.freebase.com/}やDBpedia\footnote{http://wiki.dbpedia.org/}などがあるが,2016年2月現在,英語のみに対応しているFreebaseに収録されているエンティティが約5,870万件,多言語に対応したDBpediaの中で英語で記述されたエンティティが約377万件であるのに対し,DBpediaに含まれる英語以外の言語で記述されたエンティティは1言語あたり最大125万件であり,収録数に大きな差がある.知識ベースの規模は解答可能な質問の数に直結するため,特に言語資源の少ない言語での質問応答では,質問文の言語と異なる言語の情報源を使用する必要がある.このように,質問文と情報源の言語が異なる質問応答を,言語横断質問応答と呼ぶ.こうした言語横断質問応答を実現する手段として,機械翻訳システムを用いて質問文を知識ベースの言語へ翻訳する手法が挙げられる~\cite{shimizu2005,mori2005}.一般的な機械翻訳システムは,人間が高く評価する翻訳を出力することを目的としているが,人間にとって良い翻訳が必ずしも質問応答に適しているとは限らない.Hyodoら~\cite{hyodo2009}は,内容語のみからなる翻訳モデルが通常の翻訳モデルよりも良い性能を示したとしている.また,Riezlerらの提案したResponse-based~online~learningでは,翻訳結果評価関数の重みを学習する際に質問応答の結果を利用することで,言語横断質問応答に成功しやすい翻訳結果を出力する翻訳器を得られることが示されている\cite{riezler2014,haas2015}.{Reponse-based~learningでは学習時に質問応答を実行して正解できたかを確認する必要があるため,質問と正解の大規模な並列コーパスが必要となり,学習にかかる計算コストも大きい.これに対して,質問応答に成功しやすい文の特徴を明らかにすることができれば,質問応答成功率の高い翻訳結果を出力するよう翻訳器を最適化することが可能となり,効率的に言語横断質問応答の精度を向上させることが可能であると考えられる.さらに,質問と正解の並列コーパスではなく,比較的容易に整備できる対訳コーパスを用いて翻訳器を最適化することができるため,より容易に大規模なデータで学習を行うことができると考えられる.}本研究では,どのような翻訳結果が知識ベースを用いた言語横断質問応答に適しているかを明らかにするため,知識ベースを利用する質問応答システムを用いて2つの調査を行う.1つ目の調査では,言語横断質問応答精度に寄与する翻訳結果の特徴を調べ,2つ目の調査では,自動評価尺度を用いて翻訳結果のリランキングを行うことによる質問応答精度の変化を調べる.調査を行うため,異なる特徴を持つ様々な翻訳システムを用いて,言語横断質問応答データセットを作成する(\ref{sec:dataset}節).作成したデータセットに対し,\ref{sec:QAsystem}節に述べる質問応答システムを用いて質問応答を行い,翻訳精度(\ref{sec:MTevalexp}節)と質問応答精度(\ref{sec:QAexp}節)との関係を分析する(\ref{sec:discussion1}節).また,個別の質問応答事例について人手による分析を行い,翻訳結果がどのように質問応答結果に影響するかを考察する(\ref{sec:discussion2}節).さらに,\ref{sec:discussion1}節および\ref{sec:discussion2}節における分析結果から明らかとなった,質問応答精度と高い相関を持つ自動評価尺度を利用して,翻訳$N$ベストの中から翻訳結果を選択することによって,質問応答精度がどのように変化するかを調べる(\ref{sec:nbestselect}節).{このようにして得られる知見は日英という言語対に限られたものとなるため,さらに一般化するために様々な言語対で言語横断質問応答を行い,言語対による影響を調査する({\ref{sec:exp4}}節).}最後に,言語横断質問応答に適した機械翻訳システムを実際に構築する際に有用な知見をまとめ,今後の展望を述べて本論文の結言とする(\ref{sec:conclusion}節).
\section{本調査の概観}
\label{sec:how2research}本論文では2種類の調査を行う.{1つ目は言語横断質問応答に対する翻訳結果の影響に関する調査である.翻訳結果の訳質評価結果と言語横断質問応答精度の関係を求め,その結果からどのような特徴を持つ翻訳結果が言語横断質問応答に適しているかを明らかにする.}2つ目は1つ目の調査結果から,言語横断質問応答に適応した翻訳をできるかについての調査である.{具体的には1つ目の調査で質問応答精度との相関が高かったスコアを用いて翻訳結果のリランキングを行い,質問応答精度がどのように変化するかについて調べる.これにより,質問応答精度との相関が高いスコアを用いた翻訳結果によって質問応答精度を改善できることを確認する.}\subsection{言語横断質問応答精度に影響する翻訳結果の調査}\label{sec:how2exp1}1つ目の調査では,翻訳結果がどのように言語横断質問応答精度に影響を与えるかを調べる.実験の概要を図\ref{fig:how2exp1}に示す.本調査は,以下の手順で行う.\begin{figure}[b]\begin{center}\includegraphics{23-5ia3f1.eps}\end{center}\caption{質問応答精度に影響する翻訳結果の調査実験概要}\label{fig:how2exp1}\end{figure}\begin{description}\item[翻訳を用いたデータセット作成]質問応答に使用されることを前提として作成された英語質問応答データセットを用意し,その質問文を理想的な翻訳結果と仮定する.まず,理想的な英語質問セットを人手で和訳し(図中の「人手翻訳」),日本語質問セットを作成する.続いて,これらの日本語質問セットを,様々な翻訳手法を用いて英訳し(図中の「翻訳手法1〜$n$」),英語質問セットを作成する.\item[翻訳精度測定]作成した英語質問セットについて,複数の評価尺度を用いて翻訳精度の評価を行う(翻訳精度評価システム).この時,参照訳は理想的な英語質問セットに含まれる質問文とする.\item[質問応答精度測定]理想的な英語質問セットと,作成した英語質問セットそれぞれについて,同一の質問応答器による質問応答実験を行い,質問応答精度を測定する.\item[分析]複数の翻訳精度評価尺度それぞれについて,どのような特徴を持つ評価尺度が質問応答精度と高い相関を持つかを調べる.また,質問セット単位ではなく,文単位でも翻訳精度と質問応答精度との相関を分析する.この際,正確な翻訳であっても正解するのが難しいと思われる質問が存在することを考慮するため,理想的な質問文で正解したかどうかで2グループに分けて分析する.さらに,個別の質問応答事例について人手で確認し,どのような翻訳結果が質問応答の結果を変化させるかを考察する.\end{description}\subsection{自動評価尺度を用いた翻訳結果選択による質問応答精度改善}\label{sec:how2exp2}前節に述べた実験により得た知見を元に,できる限り既存の資源・システムを用いて言語横断質問応答精度を向上させる可能性を探る.図\ref{fig:how2exp2}に調査方法の概要を示す.まず,翻訳結果をもっともらしいものから$N$通り出力する$N$ベスト出力を行う.質問応答精度と高い相関を持つ評価尺度を用いて,$N$ベストから翻訳結果を選択することによって質問応答精度の向上が見られれば,そのような評価尺度が高くなるように翻訳結果を選択することで質問応答システムの精度が向上することが期待できる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia3f2.eps}\end{center}\caption{自動評価尺度を用いた翻訳結果選択}\label{fig:how2exp2}\end{figure}
\section{データセット作成}
\label{sec:dataset}本調査では,日英言語横断質問応答を想定した実験を行うため,基本となる英語質問応答セットとそれを和訳した日本語質問応答セット,日本語質問応答セットから翻訳された英語質問応答セットという3種類の質問応答セットを用いた.本節では,これらのデータセットの作成方法について述べる.\subsection{作成手順}基本となる英語質問セットとして,Free917~\cite{cai2013}を用いた.Free917はFreebaseと呼ばれる大規模知識ベースを用いた質問応答のために作成されており,知識ベースを用いた質問応答の研究に広く利用されている~\cite{cai2013,berant2013}.このデータセットは917対の英語質問文と正解で構成され,各正解はFreebaseのクエリの形で与えられている.先行研究~\cite{cai2013}に従い,このデータセットをtrainセット(512対),devセット(129対),testセット(276対)に分割した.以降,この翻訳前のtestセットをORセットと呼ぶ.まず,ORセットに含まれる質問文を和訳し,日本語質問セット(JAセット)とした.和訳は,1名による人手翻訳で行った.なお,今回は日本語の人手翻訳を各セットに対して1通りのみ用意するが,この人手翻訳における微妙なニュアンスが以降の機械翻訳に影響を与える可能性がある.次に,JAセットに含まれる質問文を後述する5種類の翻訳手法によって翻訳し,各英語質問セット(HT,GT,YT,Mo,Tra)を作成した.質問応答セットの一部を表1に示す.\begin{table}[t]\caption{各質問セットに含まれる質問文と正解クエリの例}\label{tb:testSetExample}\input{03table01.txt}\end{table}\subsection{比較した翻訳手法}\label{sec:MTsystems}本節では,質問セット作成で比較のため用いた5種類の翻訳手法について述べる.\begin{description}\item[{人手翻訳}]翻訳業者に日英翻訳を依頼し,質問文の日英翻訳を行った.これによって作成したデータセットをHTセットと呼ぶ.人手による翻訳結果は人間にとってほぼ最良の翻訳であると考えられ,人間が高く評価する翻訳結果が言語横断質問応答にも適しているかを調べるためにHTセットを作成した.\item[商用翻訳システム]Webページを通して利用できる商用翻訳システムであるGoogle翻訳\footnote{https://translate.google.co.jp/,2015年1月アクセス}とYahoo!翻訳\footnote{http://honyaku.yahoo.co.jp/,2015年2月アクセス}を利用して日英翻訳を行った.これらの枠組みや学習に用いられているデータの詳細は公開されていない.Google翻訳の翻訳結果を用いて作成した英語質問応答セットをGTセット,Yahoo!翻訳の翻訳結果を用いて作成したものをYTセットと呼ぶ.これらの機械翻訳システムは商用目的に作成されており,実用的な品質を持つと考えられるため,機械翻訳の精度についての目安となることを期待して使用した.\item[フレーズベース翻訳]統計的機械翻訳で最も代表的なシステムであるMoses(Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,\linebreakConstantin,andHerbst2007)\nocite{moses}を用いて作成されたフレーズベース機械翻訳を用いて質問文を翻訳した.学習には,英辞郎例文\footnote{http://www.eijiro.jp/},京都フリー翻訳タスクのWikipediaデータ\footnote{http://alaginrc.nict.go.jp/WikiCorpus/index.html},田中コーパス\footnote{http://www.edrdg.org/wiki/index.php/Tanaka\_Corpus},日英法令コーパス\footnote{http://www.phontron.com/jaen-law/index-ja.html},青空文庫\footnote{http://www2.nict.go.jp/univ-com/multi\_trans/member/mutiyama/align/index.html},TED講演\footnote{https://wit3.fbk.eu/},BTEC,オープンソース対訳\footnote{http://www2.nict.go.jp/univ-com/multi\_trans/member/mutiyama/manual/index-ja.html}を利用した.また,辞書として英辞郎,WWWJDIC\footnote{http://www.csse.monash.edu.au/~jwb/wwwjdicinf.html\#dicfil\_tag},Wikipediaの言語間リンク\footnote{https://en.wikipedia.org/wiki/Wikipedia:Database\_download}を利用した.合計で,対訳コーパス約255万文,辞書約277万エントリーである.Mosesによる翻訳結果を用いて作成したデータセットをMoセットと呼ぶ.\item[Tree-to-string翻訳]Tree-to-string機械翻訳システムであるTravatar~\cite{travatar}を用いて質問文を英訳した.学習に用いたデータはMosesと同様である.Travatarによる翻訳結果を用いて作成したデータセットをTraセットと呼ぶ.Moセット,Traセットの作成に用いた翻訳器は,翻訳過程に用いられる手法が明らかであり,翻訳過程という観点からの分析に必要であると考え,これらのセットを作成した.\end{description}
\section{質問応答システム}
\label{sec:QAsystem}本研究では,質問応答を行うためにSEMPRE\footnote{http://nlp.stanford.edu/software/sempre/}という質問応答フレームワークを利用した.SEMPREは,大規模知識ベースを利用し,高水準な質問応答精度が示されている~\cite{berant2013}.本節ではSEMPREの動作を述べ,言語横断質問応答に利用する場合に,どのような翻訳が各動作に影響を与えるかを考察する.図\ref{fig:sempre_framework}にSEMPREフレームワークの動作例を示し,その動作についてアライメント,ブリッジング,スコアリングの三段階に分けて説明する.\begin{figure}[b]\begin{center}\includegraphics{23-5ia3f3.eps}\end{center}\caption{SEMPREフレームワークによる質問応答の動作例}\label{fig:sempre_framework}\end{figure}\begin{description}\item[アライメント(Alignment)]アライメントでは,質問文中のフレーズからクエリの一部となるエンティティやプロパティを生成する.このためには,レキシコン(Lexicon)と呼ばれる,自然言語フレーズからエンティティ/プロパティへのマッピングを事前に作成する必要がある.レキシコンは大規模なテキストコーパスと知識ベースを用いて共起情報などを元に作成される.本研究では先行研究\cite{berant2013}に従い,ClueWeb09\footnote{http://www.lemurproject.org/clueweb09.php/}~\cite{clueweb09}と呼ばれるデータセットに含まれる新聞記事のコーパスとFreebaseを用いて作成されたレキシコンを用いた.図\ref{fig:sempre_framework}の例では,{\it``college''}からType.Universityのエンティティが生成され,{\it``Obama''}からBarackObamaのエンティティが生成されている.アライメントに最も影響を及ぼすと考えられる翻訳の要因は,単語の変化である.質問文の中の部分文字列はアライメントにおける論理式の選択に用いられるため,誤って翻訳された単語はアライメントでの失敗を引き起こすと考えられる.\item[ブリッジング(Bridging)]アライメントによって作成されたエンティティ/プロパティの系列について,隣接するエンティティやプロパティを統合し,知識ベースに入力するクエリを生成する.ブリッジングは隣接する論理式から新たな論理式を生成し,統合する動作である.図\ref{fig:sempre_framework}の例では,Type.UniversityとBarackObamaが隣接しており,両者を繋ぐ論理式としてEducationが生成されている.ブリッジングに影響を及ぼすと考えられる翻訳の要因は,語順の変化である.語順が異なるとアライメントで生成される論理式の順序が変化するため,隣接する論理式の組み合わせが変化する.したがって,翻訳結果の語順が誤っていた場合,ブリッジングでの失敗を引き起こすと予想される.\item[スコアリング(Scoring)]アライメントとブリッジングでは,網羅的に組合せを試し,多数のクエリ候補を出力する.スコアリングでは,評価関数に基づいて候補の導出過程を評価し,最も適切な候補を選択する.図\ref{fig:sempre_framework}の例では,Type.University$\sqcap$Education.BarackObamaというクエリ候補のスコアを,「{\it``college''}からType.Universityを生成」し,「{\it``Obama''}からBarackObamaを生成」し,「Educationでブリッジする」という導出過程に対して決定する.質問応答システムの学習では,正解を返すクエリを導出することができた導出過程に高いスコアが付くよう評価関数を最適化する.言語横断質問応答に最適な評価関数は単言語質問応答と異なる可能性があり,翻訳はこの処理にも影響する可能性がある.しかしながら,言語横断質問応答に最適化するよう学習するためには翻訳された学習データセットが必要であり,その作成には大きなコストがかかる.そのため,本論文ではこれに関する調査は行っていない.\end{description}
\section{実験}
\label{sec:experiments}本実験では,言語横断質問応答においてどのような翻訳の要因が質問応答精度に影響を及ぼすかを調査した.そのために,\ref{sec:dataset}節で述べたデータセットと\ref{sec:QAsystem}節で述べた質問応答システムを用い,日本語の質問文を翻訳システムで英語の質問文に変換し,英語の単言語質問応答器によって解答を得るという状況を想定した実験を行った.\subsection{実験1:翻訳された質問セットの訳質評価}\label{sec:MTevalexp}翻訳精度と質問応答精度の関係を調査するため,まず翻訳結果の訳質を評価した.\subsubsection{実験設定}\label{sec:mt_criterion}本実験では,JAセットの質問文から翻訳された5つの英語質問応答セットに含まれる質問文の訳質をいくつかの自動評価尺度および人手評価によって評価した.自動評価尺度の参照訳としては,ORセットの質問文を用いた.これは,JAセットの質問文の理想的な英訳がORセットの質問文であると仮定することに相当する.評価尺度には,4つの訳質自動評価尺度(BLEU+1~\cite{bleu+1},NIST~\cite{nist},RIBES~\cite{ribes},WER~\cite{wer})と,人手による許容性評価(Acceptability)~\cite{goto2013}を用いた.\begin{description}\item[BLEU+1]BLEU+1は,最初に提案された自動評価尺度であるBLEU~\cite{bleu}の拡張(平滑化版)である.BLEUは,参照訳と翻訳仮説との間のn-gram適合率を基準とした評価を行うため,局所的な語順を評価する評価尺度であると言える.短い訳出には参照訳の長さに応じたペナルティを与えることで極端な翻訳に高いスコアを与えないよう設計されている.BLEUはコーパス単位の評価を想定した評価尺度であるが,BLEU+1は平滑化を導入することで文単位での評価でもBLEUと比べて極端な値が出づらくなっている.評価値は0〜1の実数で,参照訳と完全に一致した文の評価は1となる.\item[RIBES]RIBESは単語の順位相関係数に基づいた評価尺度であり,大域的な語順を捉えることができる.その特性から,日英・英日のように大きく異なる文構造の言語対の翻訳評価で人間評価と高い相関が認められている.評価値は0〜1の実数で,参照訳と完全に一致した文の評価は1である.\item[NIST]NISTスコアは,BLEUやBLEU+1と同じくn-gram適合率に基づいた評価尺度であるが,各n-gramに出現頻度に基づいて重み付けをする点でそれらと異なる.低頻度の語ほど大きな重みが与えられ,結果として頻出する機能語よりも低頻度な内容語に重点を置いた評価尺度となる.評価値は正の実数で与えられ,上限が設定されない.本研究では,参照訳と完全に一致した文の評価値で除算することで,0〜1の範囲に正規化した値を用いる.\item[WER]WER(WordErrorRate:単語誤り率)は参照訳と翻訳仮説の編集距離を語数で割ることで得られる尺度で,BLEUやRIBESより厳密に参照訳との語順・単語の一致を評価する.WERは誤り率を表し,低いほどよい翻訳仮説となるため,他の評価尺度と軸向きを揃えるために$1-{WER}$の値を用いた.\item[許容性(Acceptability)]許容性は人間による5段階の評価である.この評価尺度では,意味的に正しくなければ1と評価され,意味理解の容易さ,文法的な正しさ,流暢性によって2から5の評価が行われる.評価値は$1〜5$の整数であるが,他の評価尺度と比率を合わせるため,$0〜1$に正規化した値を用いる.\end{description}\subsubsection{実験結果}JAセットの質問文を入力とし,ORセットの質問文を参照訳とした時の各翻訳結果の評価値を図\ref{fig:mteval}に示す.図\ref{fig:mteval}より,人手翻訳の訳質は全ての評価尺度において機械翻訳のものよりも高いことが読み取れる.次に,GTとYTに着目すると,BLEUとNISTではGTが高く,RIBESと許容性ではYTが高い.これは先行研究~\cite{ribes}と同様の結果となっており,日英翻訳でのRIBESと人手評価による許容性との相関が高いという特性が確認された.また,MoとTraを比べると,Traの翻訳精度が劣っている.通常,日英間の翻訳では,文構造を捉えるTree-to-string翻訳の精度が比較的良くなるとされているが,今回は翻訳対象が質問文であるため,通常と異なる文型に偏っていることと,各入力文がそれほど長くなく構造が単純である傾向があるため,文構造を捉える長所が生かされなかったことなどが原因と考えられる.次節で,このような特性が人間相手ではなく質問応答システムの入力として用いた場合でも同様に現れるかどうかを検証する.\begin{figure}[t]\begin{center}\includegraphics{23-5ia3f4.eps}\end{center}\caption{訳質評価値(平均)}\label{fig:mteval}\vspace{1\Cvs}\end{figure}\subsection{実験2:翻訳された質問セットを用いた質問応答}\label{sec:QAexp}次に,翻訳精度との関係を調査するため,作成したデータセットを用いて質問応答を行い,質問応答精度を測定した.\subsubsection{実験設定}本実験では\ref{sec:QAsystem}節で述べた質問応答フレームワークSEMPREを用いて,\ref{sec:dataset}節で述べた手順で作成した4つの質問セット及びORセットの質問応答実験を行い,各セットの質問応答精度を測定した.レキシコンには,ClueWeb09の新聞記事コーパスとFreebaseから構築されたものを使用した.また,評価関数の学習には,Free917のTrainセットとDevセットを用いた.テストセットとして使用した質問276問のうち12問で,正解論理式をFreebaseに入力した際に出力が得られなかったため,これらを除いた264問の結果を用いて質問応答精度を測定した.\subsubsection{実験結果}\label{sec:QAexpresult}各データセットの質問応答の結果を図\ref{fig:QAaccuracy}に示す.図\ref{fig:QAaccuracy}より,元のセット(ORセット)であっても約53\%の精度に留まっていることがわかる.また,HTセットの精度は機械翻訳で作成した他のデータセットと比較して高いことが読み取れる.しかしながら図\ref{fig:mteval}に示したように高い訳質を持つHTセットであっても,ORセットと比べると質問応答精度は{有意水準5\%で}有意に低いという結果となった(対応有りt検定).{機械翻訳で作成したセットの中では,GTが最も質問応答精度が高く,HTセットの結果との差は有意と言えない結果となった.}また,YTはAcceptabilityにおいてGTを上回るが,質問応答精度はGTより{有意水準5\%で}有意に低かった.これらの結果は,{人間にとって分かりやすい翻訳結果は必ずしも質問応答に適する翻訳結果であるとは限らないことを示唆している}.\ref{sec:discussion1}節,\ref{sec:discussion2}節で,これらの現象について詳細な分析を行う.\subsection{質問応答精度と機械翻訳自動評価尺度の関係}\label{sec:discussion1}質問応答精度に影響を及ぼす翻訳結果の要因をより詳細に分析するため,訳質評価値と質問応答精度の相関を文単位で分析した.まず,図{\ref{fig:QAaccuracy}}に示すように,質問応答用に作成されたデータセット(ORセット)であっても約半数の質問は正解できていない.参照訳で正解できていない質問は翻訳の結果に関わらず正解することが難しいと考え,質問を2つのグループに分けた.「正解グループ」は,ORセットにおいて正解することができた141問の翻訳結果$141\times5=705$問からなるグループであり,「不正解グループ」は残りの123問の翻訳結果$123\times5=615$問からなるグループである.\begin{figure}[t]\begin{center}\includegraphics{23-5ia3f5.eps}\end{center}\caption{各データセットにおける質問応答精度}\label{fig:QAaccuracy}\end{figure}正解グループにおける質問応答精度と訳質評価値の関係を図\ref{fig:result_correct}に示す.このグラフにおいて,棒グラフは評価値に対する質問数の分布を表し,折れ線グラフは評価値に対する正答率の変化を表す.例えば,BLEU+1の値が0.2--0.3の質問は正解グループの内30\%ほどを占め,それらの質問の正答率は35\%程度である.図中の$R^2$は決定係数である.決定係数は,線形回帰における全変動に対する回帰変動の割合を示し,値が1に近いほどよく当てはまる回帰直線であることを示す.この図より,本実験に使用した全ての評価尺度は質問応答精度と相関を持ち,言語横断質問応答において訳質は重要であることを示している.また,質問応答精度はNISTスコアと最も高い決定係数を示した.前述したように,NISTスコアは単語の出現頻度を考慮した尺度であり,機能語よりも内容語を重要視する特徴を持つ.この結果から,内容語が言語横断質問応答において重要な役割を持つことが確認でき,これを考慮した翻訳を行うことで質問応答精度が改善できると考えられる.これは,内容語が\ref{sec:QAsystem}節に述べたアライメントにおける論理式選択において重要であることを考えると自然な結果と言える.また,NISTスコアによってこの影響を自動的に適切に評価できる可能性もこの結果から読み取れる.一方で,人手評価との相関が高かったRIBESは,質問応答精度においては\hl{決定係数}が低いという結果となった.つまり,大域的な語順が言語横断質問応答のための翻訳にはそれほど重要ではない可能性があると言える.これらの結果を合わせると,語順に影響を受けやすいブリッジングよりも,単語の変化に影響を受けやすいアライメントの方が誤りに敏感であると考えられる.Acceptabilityの図に着目すると,1→2と3→4で精度の上昇の幅が大きく,2→3や4→5ではほとんど変化していない.Acceptabilityにおける評価値1は,「重要な情報が欠落しているか,内容が理解できない文」であることを示し,評価値2は「重要な情報が含まれており内容も理解できるが,文法的に誤っており理解が困難な文」であることを表す.このことからも,重要な情報や内容が欠落することは質問応答の精度に大きな影響を与えることがわかる.評価値2と3の差異は「容易に理解できるかどうか」である.この2つの評価値間で質問応答精度が大きく変わらないことは,人間にとっての理解の容易さは,質問応答精度の向上にはそれほど寄与しない可能性を示唆している.評価値3と4の差異は「文法的に正しいかどうか」である.この2つの間でも精度が大きく上昇しており文法が重要な可能性があるが,評価値4と評価された文が少ないため誤差が含まれている可能性もある.この点については後の分析で述べる.評価値4と5の差異は「ネイティブレベルの英語かどうか」である.この間では質問応答精度がほとんど変わらず,評価値5の方が少し下がる傾向が見られた.前述したように評価値4の文が少ないことによる誤差の可能性もあるが,ネイティブに用いられる言い回しが質問応答器にとっては逆効果となっている可能性も考えられる.\begin{figure}[p]\setlength{\captionwidth}{0.44\linewidth}\begin{minipage}[b]{0.44\linewidth}\begin{center}\includegraphics{23-5ia3f6.eps}\end{center}\hangcaption{評価尺度値と質問応答精度の相関(正解グループ)\protect\newline横軸:評価値の範囲\protect\newline棒グラフ(左縦軸):質問数の割合(\%)\protect\newline折れ線(右縦軸):質問応答精度(範囲内平均)}\label{fig:result_correct}\end{minipage}\hfill\begin{minipage}[b]{0.44\linewidth}\begin{center}\includegraphics{23-5ia3f7.eps}\end{center}\hangcaption{評価尺度値と質問応答精度の相関(不正解グループ)\protect\newline横軸:評価値の範囲\protect\newline棒グラフ(左縦軸):質問数の割合(\%)\protect\newline折れ線(右縦軸):質問応答精度(範囲内平均)}\label{fig:result_wrong}\end{minipage}\end{figure}次に,不正解グループにおける訳質評価値と質問応答精度の関係を図\ref{fig:result_wrong}に示す.不正解グループにおいては,\hl{全ての自動評価尺度において正解グループと比較して決定係数が低いという結果となった.}この結果より,参照訳で質問応答器が解答できない問題では,翻訳を改善することで正解率を向上させるのが難しいということが言える.これは,言語横断質問応答のための翻訳器を評価する際の参照訳は質問応答器で正解可能であることが望ましいと言うこともできる.また,質問応答成功率を予測できれば,質問応答成功率が高い文を参照訳として機械翻訳を最適化することでこの問題を軽減できると考えられる.しかし,正解グループ・不正解グループのどちらにおいても,訳質評価尺度の値に対する質問数の分布は似通っており,訳質評価尺度でこの問題を解決することは困難であると考えられる.\subsection{質問応答事例分析}\label{sec:discussion2}本節では,翻訳によって質問応答の結果が変化した例を挙げながら,どのような翻訳結果の要因が影響しているかを考察する.\begin{table}[b]\caption{{内容語の変化による質問応答結果の変化の例}}\label{tb:example.cw}\input{03table02.txt}\end{table}内容語の変化による質問応答結果の変化の例を表{\ref{tb:example.cw}}に示す.{第1列は,各質問文での質問応答が成功したかどうかを表す記号であり,{$\circ$}が成功,{$\times$}が失敗を表す.}表{\ref{tb:example.cw}}の1つ目の例では,{\it``interstate579''}という内容語が翻訳によって様々に変化している({\it``interstatehighway579''},{\it``expressway579''}など).ORとTraの文のみが{\it``interstate579''}というフレーズを含んでおり,これらを入力とした場合のみ正しく答えることができている.出力された論理式を見比べると,不正解であった質問文ではinterstate\_579のエンティティが含まれておらず,別のエンティティに変換されていた.例えば,HTに含まれる{\it``interstatehighway579''}というフレーズはinterstate\_highwayという音楽アルバムのエンティティに変換されていた.2つ目の例も同様に,{\it``librettist''}という内容語が翻訳によって様々に変化し,不正解となっている.ここで,{\it``librettistmagicflute''}という質問文を作成し質問応答を行ったところ正解することができた{が,{\it``whomademagicflute''}では不正解であったことから,{\it``librettist''}が重要な語であることがわかる}.この例でも1つ目の例と同様に,librettistというFreebase内のプロパティと一致する表現を含むことが質問応答の精度に寄与することが示唆される例である.このような例から,内容語が変化することでアライメントが失敗し,{正しいエンティティが生成されないことや誤ったエンティティが生成されること}が重要な問題であること{が確認できる}.{この問題は,正しいエンティティと結びつきやすい内容語の表現を翻訳の過程で考慮することで改善できる可能性がある.}また,これらの結果は本実験で使用した質問応答器の問題であるとも考えられ,言い換えを考慮できる質問応答器を用いることでも改善できる可能性がある.\begin{table}[b]\caption{{質問タイプ語の誤訳による質問応答結果の変化の例}}\label{tb:example.qt}\input{03table03.txt}\end{table}次に,質問タイプを表す語の誤訳が質問応答結果の変化の原因となる例を表{\ref{tb:example.qt}}に示す.1つ目の例では,内容語と考えられる{\it``tv(television)programs''},{\it``dannydevito''}(YTは綴りミスあり),{\it``produce(d)''}の3つは全ての翻訳結果に含まれているが,HT以外は正解できていなかった.正解できた質問文とそれ以外の質問文を比較すると,{\it``howmany''}という質問タイプを表す語を含んでいることが必要である{と考えられる}.{GTやMoの質問文に対する解答を確認したところ,番組名をリストアップして答えており,正解とされる数と同じ数だけ答えていた.この例より,解答の形式を変化させるような質問タイプを示す語を,正確に翻訳する必要があることがわかる.一方で,2つ目の例では,{\it``what''}や{\it``which''}といった語が含まれていないMoの質問文でも正解することができている.この例より,質問タイプを表す語であっても重要度が低いものがあると考えられる.したがって,言語横断質問応答のための翻訳器は,解答の形式を変えるような質問タイプ語の一致を重視することが求められる.}質問タイプを表す語は内容語と異なり頻出するため,NISTスコアのように頻度に基づいて重要度を決めることは難しく,質問応答固有の指標が必要であると考えられる.文法{や語順}に関連する例を表{\ref{tb:example.ms}}に示す.1つ目の例では,YT以外の機械翻訳の結果は文法が整っていないにも関わらず全て正解している.一方,2つ目の例では,ORとHTでは文法が正しいにも関わらず不正解となっている.ORとHTの質問応答の結果を調べると,ベーブルースの打撃成績を出力していた.これは,{\it``baberuth''}と{\it``play''}が隣接しており,ブリッジングの際に結びついたためと考えられる.{これらの例は,少なくともFree917に含まれるような単純な事実型質問においては,語順を正しく捉えることは質問応答精度の向上の観点からは必ずしも重要でないことを示している.ただし,より複雑な事実型質問や,非事実型質問に対して解答する際には,誤った語順の影響が強くなる可能性は否定できない.}\begin{table}[b]\caption{{文法誤りを含む訳による質問応答結果の例}}\label{tb:example.ms}\input{03table04.txt}\end{table}これらの例は,使用した質問応答システムが語順の影響を受けづらいものであったことによる可能性も考えられる.これを明らかにするためには様々な質問応答システムを用いて実験を行うことが必要であるが,それは今後の課題とする.{{\ref{sec:QAexpresult}}節で述べたように,人間にとってわかりやすい翻訳が質問応答にも成功しやすい翻訳とは限らない可能性がある.実際に質問応答の結果を見ると,質問応答の正誤とAcceptabilityの評価が反する例が確認された.その一例を表{\ref{tb:example.QAvsAccept}}に示す.1つ目の例では,{\it``doyou''}というフレーズを含むことによって文章の意味が変わっているためAcceptabilityは1と評価されているが,質問応答では正解できている.この例では内容語は正しく翻訳できており,{\it``doyou''}というフレーズを無視することができたため正解することができたと考えられる.2つ目の例では,主に前置詞の意味の違いによって,GTは2という低い評価が付けられている.一方でYTはGTと比較して意味的に正しく翻訳されており3と評価されているが,質問応答の結果は不正解であった.質問応答の過程を見ると,ORとGTの文からはareasというテーマパークのエリアを示すプロパティが得られたのに対し,YTの文からはareaという面積を示すプロパティが得られていた.このことから,意味的に正しい文であることよりも内容語の表層的な一致がより重要であることがわかる.3つ目の例では,YTは固有名詞である{\it``mannypacquiao''}を{\it``manniepacquiao''}としており,質問応答結果が不正解となっている.人間が固有名詞を判断するときには少々の誤字が含まれていたとしても読み取れることから,YTの文に3という評価値が付けられたと考えられるが,機械による質問応答においては,特に固有名詞中の誤字は重大な問題であることがこの例により示唆される.}\begin{table}[t]\caption{{許容性と質問応答結果が反する例}}\label{tb:example.QAvsAccept}\input{03table05.txt}\end{table}\subsection{実験3:自動評価尺度を用いてリスコアリングされた翻訳結果を用いた質問応答}\label{sec:nbestselect}\ref{sec:discussion1}節,\ref{sec:discussion2}節の分析の結果,質問応答精度と最も高い相関を持つ自動評価尺度はNISTスコアであった.したがって,NISTスコアが高評価となるよう翻訳システムを学習させることで,質問応答に適した翻訳システムとなる可能性がある.そこでまず,多数の翻訳結果からNISTスコアが最も高い翻訳結果を選択することで,質問応答精度が向上するかどうかを調べる.\subsubsection{実験設定}翻訳$N$ベストの内,最もNISTの高い翻訳を使用した時の質問応答精度を調査する.本実験では,翻訳器にMosesとTravatarを用い,$N=100$とした.また,比較のためBLEU+1についても同様の実験を行った.\subsubsection{実験結果}表\ref{table:reordering_result}に実験結果を示す.また,比較のため翻訳システム第一位の結果を用いた場合の精度も表中に示す.表より,翻訳$N$ベストの中から適切な選択を行うことで,質問応答の精度が向上することがわかる.{特にTravatarを用いた言語横断質問応答において,BLEU+1およびNISTスコアを用いて翻訳結果を選択することで,有意水準5\%で統計的有意に質問応答精度が向上している.}また,選択基準にNISTスコアを選んだ場合の正答率は,選択基準にBLEU+1を選んだ時の正答率よりも向上する傾向にある.これらの結果は,{機械翻訳器の最適化によって言語横断質問応答の精度を改善できる可能性を示している.}\begin{table}[t]\caption{翻訳$100$ベスト選択実験結果}\label{table:reordering_result}\input{03table06.txt}\end{table}{本実験で使用した選択手法は,質問応答精度の高い参照訳が必要であり,未知の入力の翻訳結果選択に直接用いることはできない.しかし,質問応答精度と高い相関を持つ評価尺度に基づいて翻訳器を最適化することで,質問応答精度の高い翻訳結果を得ることが可能であると考えられる.}\subsection{{実験4:様々な言語対での翻訳精度と質問応答精度の関係調査}}\label{sec:exp4}{実験1から3では,日英言語横断を行い,訳質と翻訳精度の関係について調査した.次に,日英以外の言語対における言語横断質問応答においても,同様の結果が得られるかどうかを調査する.}\subsubsection{{データセット作成}}{Haasらによって作成されたドイツ語版の{free917}セット~{\cite{haas2015}}を入手し,そのテストセットに含まれる質問文を{Google}翻訳{\footnote{https://translate.google.co.jp/,2016年6月アクセス}}および{Bing}翻訳{\footnote{https://www.bing.com/translator,2016年6月アクセス}}を用いて英訳し,{DE-GT}セットおよび{DE-Bing}セット(独英)を作成した.また,{\ref{sec:dataset}}章に示す手順に従い,ORセットに含まれる質問文を中国語,インドネシア(尼)語,ベトナム(越)語の母語話者に依頼して人手翻訳してもらい,それぞれの言語の質問セットを新たに作成した.次に,これらの3つの質問セットをそれぞれGoogle翻訳およびBing翻訳を用いて英訳し,ZH-GTセット(中英),ID-GTセット(尼英),VI-GTセット(越英),ZH-Bingセット,VI-Bingセット,ID-Bingセットの6つの英語質問セットを作成した.また比較のため,JAセットをBing翻訳を用いて英訳し,JA-Bingセット(日英)を作成した.}\subsubsection{{訳質評価と質問応答精度の関係}}{作成した9つの質問セットを用いて,{\ref{sec:QAsystem}}章に示す質問応答システムによる質問応答を行い,質問応答精度を評価した.その結果を図{\ref{fig:MltLngQAacc}}に示す.比較のため,同翻訳手法を用いた日英の質問セット(JA-GT)での結果を合わせて示す.図より,どの言語対においても,翻訳による質問応答精度の低下は起こっており,その影響を緩和するような翻訳結果を得ることは重要であると言える.また,中英セットと越英セットの質問応答精度が他と比較して低いことから,同じ翻訳手法を用いても言語対によって影響に差があることがわかる.}\begin{figure}[b]\begin{center}\includegraphics{23-5ia3f8.eps}\end{center}\caption{{様々な言語対における質問応答精度}}\label{fig:MltLngQAacc}\end{figure}{次に,{\ref{sec:mt_criterion}}節に示す評価尺度の内,許容性評価を除く4つの評価尺度を用いて,前節で作成した9つの質問セットの訳質を評価した.また各質問セットについて,{\ref{sec:discussion1}}節と同様に参照訳での質問応答が正解できているかどうかで2つのグループに分け,各グループ内での各評価尺度と質問応答精度との相関を測定した.ただし本実験では,評価値の範囲で平均するのではなく,各文の評価値と質問応答結果(完全正解で1,完全不正解で0)を直接使用した.表{\ref{tb:exp4result}},表{\ref{tb:exp4resultBing}}に示す結果より,どの言語対においても不正解グループの決定係数は正解グループに比べて小さく,無相関に近いことがわかる.正解グループの決定係数も最大0.200となっており図{\ref{fig:result_correct}}の値と比べると小さいが,これはほぼ2値で表現される質問応答結果と連続値で表される評価尺度の間で相関を計算したことが原因であると考えられる.まず,全言語対の結果をまとめて計算した時(表中の右端の列),最も相関が高い評価尺度はNISTスコアであり,本実験で使用したどの言語対においても内容語の表層の一致が重要であることがうかがえる.各言語対の正解グループの決定係数に着目すると,日英と中英では似た傾向がある一方で,尼英では1-WERが最大の決定係数を持っており,言語対によっては異なった特徴が現れている.また独英では,他言語対と比べてNISTスコアとBLEU+1の差が大きく,両評価尺度の差である内容語の一致が特に重要であることが予想できる.このことから,全体としてNISTスコアが質問応答精度と強く相関するが,言語対の特徴を考慮することでより強い相関を持った尺度を得ることができると考えられる.しかしながら,言語対によって異なる特徴については,現段階では詳細に至るまで分析できておらず,今後さらなる分析が必要とされる.}\begin{table}[t]\caption{評価尺度と質問応答精度との決定係数(GT)(太字は正解グループ内の最大値)}\label{tb:exp4result}\input{03table07.txt}\end{table}\begin{table}[t]\caption{評価尺度と質問応答精度との決定係数(Bing)(太字は正解グループ内の最大値)}\label{tb:exp4resultBing}\input{03table08.txt}\end{table}
\section{まとめ}
\label{sec:conclusion}本研究では,言語横断質問応答システムの精度を向上させるため,翻訳結果が質問応答の結果に与える影響を調査した.具体的には,翻訳精度評価({\ref{sec:MTevalexp}}節)と言語横断質問応答精度の評価({\ref{sec:QAexp}}節)を行い,両者の関係を分析した({\ref{sec:discussion1}}節).その結果,内容語の一致を重視するNISTスコアが質問応答精度と高い相関を持つことがわかった.これは質問応答において内容語が重要であるという直感にも合致する結果である.一方で,人手評価がNISTスコアやBLEU+1といった自動評価よりも相関が低いこともわかった.この結果より,人間が正しいと評価する翻訳が必ずしも質問応答に適しているとは限らないという知見が得られた.この結果に対して,質問応答結果の事例分析({\ref{sec:discussion2}}節)を行ったところ,以下の2つのことがわかった.1つ目は,人間が正しいと評価した内容語でも質問応答システムが正しく解答できない場合もあり,翻訳結果に含まれる内容語の正しさの評価基準は人間と質問応答システムで必ずしも一致しないということがわかった.2つ目は,質問タイプを表す語の中には,正しい解答を出すために重要な語と重要でない語があることがわかった.具体的には,{\it``howmany''}など解答の形式を変化させる語は正しい翻訳が必須であり,{\it``what''}や{\it``which''}などの語は翻訳結果に含まれていなくても正しく解答することができている例が確認できた.また,NISTスコアに基づいて選択された翻訳結果の質問応答実験({\ref{sec:nbestselect}}節)により,内容語に重点を置いた翻訳結果を使用することで言語横断質問応答精度が改善されることがわかった.この結果から,機械翻訳器の最適化を行うことで,言語横断質問応答の精度を改善できる可能性を示した.最後に,日英以外の言語対における言語横断質問応答実験({\ref{sec:exp4}}節)では,日英以外の3言語対においても日英と同様に内容語を重視する訳質評価尺度が質問応答精度と相関が高い傾向が見られた.このことから,内容語を重視した訳質評価尺度と質問応答精度が高い相関を持つという知見は多くの言語対で見られ,一般性のある知見であることが示された.今後の課題としては,様々な言語対および質問応答システムを用いた言語横断質問応答を行うことでより一般性のある知見を得ることや,質問応答精度と高い相関を持つ評価尺度の作成,そのような尺度を用いて機械翻訳器を最適化することによる質問応答精度の変化を確認することなどが挙げられる.\acknowledgment\vspace{-0.5\Cvs}本研究の一部は,NAISTビッグデータプロジェクトおよびマイクロソフトリサーチCORE連携研究プログラムの活動として行ったものである.また,本研究開発の一部は総務省SCOPE(受付番号152307004)の委託を受けたものである.\vspace{-0.4\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Berant,Chou,Frostig,\BBA\Liang}{Berantet~al.}{2013}]{berant2013}Berant,J.,Chou,A.,Frostig,R.,\BBA\Liang,P.\BBOP2013\BBCP.\newblock\BBOQSemanticParsingonFreebasefromQuestion-AnswerPairs.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1533--1544}.\bibitem[\protect\BCAY{Cai\BBA\Yates}{Cai\BBA\Yates}{2013}]{cai2013}Cai,Q.\BBACOMMA\\BBA\Yates,A.\BBOP2013\BBCP.\newblock\BBOQLarge-scaleSemanticParsingviaSchemaMatchingandLexiconExtension.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\423--433}.\bibitem[\protect\BCAY{Callan,Hoy,Yoo,\BBA\Zhao}{Callanet~al.}{2009}]{clueweb09}Callan,J.,Hoy,M.,Yoo,C.,\BBA\Zhao,L.\BBOP2009\BBCP.\newblock\BBOQClueweb09Dataset.\BBCQ.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{nist}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityUsingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofHLT},\mbox{\BPGS\138--145}.\bibitem[\protect\BCAY{Fader,Zettlemoyer,\BBA\Etzioni}{Faderet~al.}{2014}]{fader2014}Fader,A.,Zettlemoyer,L.,\BBA\Etzioni,O.\BBOP2014\BBCP.\newblock\BBOQOpenQuestionAnsweringoverCuratedandExtractedKnowledgeBases.\BBCQ\\newblockIn{\BemProceedingsofACMSIGKDD},\mbox{\BPGS\1156--1165}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto2013}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskatTheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-10},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Haas\BBA\Riezler}{Haas\BBA\Riezler}{2015}]{haas2015}Haas,C.\BBACOMMA\\BBA\Riezler,S.\BBOP2015\BBCP.\newblock\BBOQResponse-basedLearningforMachineTranslationofOpen-domainDatabaseQueries.\BBCQ\\newblockIn{\BemProceedingsofNAACLHLT},\mbox{\BPGS\1339--1344}.\bibitem[\protect\BCAY{Hyodo\BBA\Akiba}{Hyodo\BBA\Akiba}{2009}]{hyodo2009}Hyodo,T.\BBACOMMA\\BBA\Akiba,T.\BBOP2009\BBCP.\newblock\BBOQImprovingTranslationModelforSMT-basedCrossLanguageQuestionAnswering.\BBCQ\\newblockIn{\BemProceedingsofFIT},\lowercase{\BVOL}~8,\mbox{\BPGS\289--292}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{ribes}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\944--952}.\bibitem[\protect\BCAY{Kiyota,Kurohashi,\BBA\Kido}{Kiyotaet~al.}{2002}]{kiyota2002}Kiyota,Y.,Kurohashi,S.,\BBA\Kido,F.\BBOP2002\BBCP.\newblock\BBOQDialogNavigator:AQuestionAnsweringSystembasedonLargeTextKnowledgeBase.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Leusch,Ueffing,\BBA\Ney}{Leuschet~al.}{2003}]{wer}Leusch,G.,Ueffing,N.,\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQANovelString-to-stringDistanceMeasurewithApplicationstoMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofMTSummitIX},\mbox{\BPGS\240--247}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{bleu+1}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQORANGE:AMethodforEvaluatingAutomaticEvaluationMetricsforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\501--507}.\bibitem[\protect\BCAY{Mori\BBA\Kawagishi}{Mori\BBA\Kawagishi}{2005}]{mori2005}Mori,T.\BBACOMMA\\BBA\Kawagishi,M.\BBOP2005\BBCP.\newblock\BBOQAMethodofCrossLanguageQuestion-answeringbasedonMachineTranslationandTransliteration.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-5},\mbox{\BPGS\182--189}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Riezler,Simianer,\BBA\Haas}{Riezleret~al.}{2014}]{riezler2014}Riezler,S.,Simianer,P.,\BBA\Haas,C.\BBOP2014\BBCP.\newblock\BBOQResponse-basedLearningforGroundedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\881--891}.\bibitem[\protect\BCAY{Shimizu,Fujii,\BBA\Itou}{Shimizuet~al.}{2005}]{shimizu2005}Shimizu,K.,Fujii,A.,\BBA\Itou,K.\BBOP2005\BBCP.\newblock\BBOQBi-directionalCrossLanguageQuestionAnsweringusingaSingleMonolingualQASystem.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-5},\mbox{\BPGS\455--462}.\bibitem[\protect\BCAY{Tunstall-Pedoe}{Tunstall-Pedoe}{2010}]{tunstall2010}Tunstall-Pedoe,W.\BBOP2010\BBCP.\newblock\BBOQTrueKnowledge:Open-domainQuestionAnsweringUsingStructuredKnowledgeandInference.\BBCQ\\newblock{\BemAIMagazine},{\Bbf31}(3),\mbox{\BPGS\80--92}.\end{thebibliography}\begin{biography}\bioauthor{杉山享志朗}{2014年呉工業高等専門学校機械電気専攻卒業.2016年奈良先端科学技術大学院大学情報科学研究科修士課程修了.同年より,同大学院博士後期課程在学.自然言語処理に関する研究に従事.}\bioauthor{水上雅博}{2012年同志社大学理工学部卒業.2014年奈良先端科学技術大学院大学情報科学研究科修士課程修了.同年より同大学院博士後期課程在学.自然言語処理および音声対話システムに関する研究に従事.人工知能学会,音響学会,言語処理学会各会員.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.2016年より米国カーネギーメロン大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同博士後期課程修了.同年日本学術振興会特別研究員(PD).2015年より奈良先端科学技術大学院大学情報科学研究科特任助教.2016年より同助教.京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞受賞.IEEE,ACL,情報処理学会,言語処理学会各会員.}\bioauthor{鈴木優}{2004年奈良先端科学技術大学博士後期課程修了.博士(工学).現在,奈良先端科学技術大学院大学情報科学研究科特任准教授.情報検索やクラウドソーシングに関する研究開発に従事.情報処理学会,電子情報通信学会,ACM,IEEEComputer各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学博士(工学).シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.IEEESLTC委員,ISCA理事,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V07N04-13
|
\section{はじめに}
\label{sec:intro}テキスト自動要約は,自然言語処理の重要な研究分野である.自動要約の方法には様々なものがあるが,現在の主流は,テキスト中から重要文を抽出して,それらを連結することにより要約を生成する方法である\cite{oku99}.重要文を選ぶための文の重要度は,一般に,\begin{itemize}\item位置情報(例:先頭部分の文は重要)\item単語の重要度(例:重要単語を含む文は重要)\item文間の類似関係(例:タイトルと類似している文は重要)\item文間の修辞関係(例:結論を述べている文は重要)\item手がかり表現(例:「要するに〜」などで始まる文は重要)\end{itemize}などのテキスト中の各種特徴に基づいて決める\cite{oku99}.これらの特徴の組合せは,人手で決める\cite{edmundson69:_new_method_autom_extrac}ことも,機械学習により決める\cite{kupiec95:_train_docum_summar}こともできるが,いずれの方法で決めるとしても,それぞれの特徴を精度良く自動的に求めることが重要である.そのため,我々は,これらの特徴を個別に調査し,それぞれの自動要約への寄与を調べることを試みた.特に,本稿では,文間の類似度の各種尺度を,新聞記事要約を対象として比較した.類似度の良さは,要約の良さにより比較した.すなわち,精度の高い要約ができるような類似度ほど,高精度の類似度であると解釈した.ここで,文間の類似度を求める方法としては,単語間の共起関係を利用する方法と利用しない方法とを試みた.その結果は,共起関係を利用する方法の方が高精度であった.なお,各種の類似度を比較するための要約方法としては,タイトルとの類似度が高い文から重要文として抽出するという方法を利用した.この要約方法を利用して類似度を比較した理由は,タイトルは本文中で最も重要であるので,それとの類似度が文の重要度として利用できると考えたからである.なお,タイトルが重要であるという考えに基づく要約には,\cite[など]{yoshimi98:_evaluat_impor_senten_connec_title,okunishi98}がある.また,要約の手法としては,他に,本文の先頭数文を抽出する方法\cite{brandow95:_autom_conden_elect_public}と,単語の重要度の総和を文の重要度とする方法\cite{zechner96:_fast_gener_abstr_gener_domain}も試みたが,これらの方法よりも,タイトルとの類似度に基づく方法の方が高精度であった.これらのことから,共起関係を利用した方法によりタイトルとの類似度を求め,その類似度が高い方から重要文として抽出する方法が,自動要約に有効であることが分かった.以下では,まず,\ref{sec:measures}章で,各種の文の重要度の定義を述べ,次に,\ref{sec:expriments}章で,各種重要度を比較した実験について述べる.\ref{sec:conclusion}章は結論である.
\section{文の重要度の定義}
\label{sec:measures}重要文を抽出するためには,文に重要度を付与する必要がある.そのための各種の重要度を以下に定義する.なお,以下では,重要度が数値的に高い文ほど重要な文であるとする.\subsection{先頭の数文を抽出する手法}\label{sec:lead}文章(特に新聞記事)の先頭の数文(冒頭部)は重要と考えられる\cite{brandow95:_autom_conden_elect_public}.その先頭の数文を抽出するためには,文$S$の文章中での位置を$p(>=1)$とすると,$S$の重要度$lead(S)$を,たとえば,\begin{equation}\label{eq:lead}lead(S)=\frac{1}{p}\end{equation}と定義すれば良い.なお,$lead(S)$としては,その他には,$lead(S)=-p$などを採用することもできる.\subsection{単語重要度の和による文重要度}\label{sec:sum}重要単語を多く含む文は重要と考えられるので,単語の重要度の和を文の重要度とすれば良いと考えられる\cite{zechner96:_fast_gener_abstr_gener_domain}.文の重要度を単語重要度の和として求めるためには,文$S$を構成する単語集合を$W(S)$とすると,単語$w$の重要度を$f(w)$とし,$w$の$S$中での頻度を$n(w,S)$とするとき,文$S$の重要度$sum(S,f)$を,\begin{equation}\label{eq:sum}sum(S,f)=\sum_{w\inW(S)}n(w,S)\timesf(w)\end{equation}と定義すれば良い.単語$w$の重要度$f(w)$としては,以下のものを定義する.\begin{eqnarray}\label{eq:wimps1}one(w)&=&1\\\label{eq:wimps2}tf(w)&=&\mbox{要約対象文書中での$w$の頻度}\\\label{eq:wimps3}idf(w)&=&\log\frac{\mbox{全文書数}}{\mbox{$w$を含む文書数}}\\\label{eq:wimps4}tfidf(w)&=&tf(w)\timesidf(w)\end{eqnarray}なお,(\ref{eq:sum})式における$f(w)$を$tfidf(w)$としたときの重要度が,\cite{zechner96:_fast_gener_abstr_gener_domain}で採用された文の重要度に相当する.\subsection{タイトルとの類似度による文重要度}\label{sec:sim}タイトルは本文中で最も重要と考えられる\cite{yoshimi98:_evaluat_impor_senten_connec_title}ので,それと類似度が高い文は重要と考えられる.そのタイトルとの類似度を文の重要度とするために,文$S$とタイトル$T$の類似度を以下に定義する.まず,共起頻度を利用しない方法(以下の$common$,$ip$,$cos$)を定義する.これらは,類似度の定義として良く知られたものである.\subsubsection*{共通単語の重みの和}\begin{equation}\label{eq:common}common(S,T,f)=\sum_{w\inW(S)\capW(T)}n(w,S)f(w)\end{equation}\subsubsection*{内積}\begin{equation}\label{eq:ip}ip(S,T,f)=\sum_{w\inW(S)\capW(T)}n(w,S)f(w)\timesn(w,T)f(w)\end{equation}\subsubsection*{コサイン}\begin{equation}\label{eq:cos}cos(S,T,f)=\frac{ip(S,T,f)}{\sqrt{ip(S,S,f)}\sqrt{ip(T,T,f)}}\end{equation}ここで,$f$は,(\ref{eq:wimps1})式から(\ref{eq:wimps4})式で定義された関数のいずれかである.次に共起頻度を利用する方法(以下の$coProb$,$coIDF$)を定義する.共起頻度は条件付き確率として式中に現れる.なお,以下で述べる,比較的簡単な式である$coProb$と,IDF(InverseDocumentFrequency)の拡張としての$coIDF$とは,類似度の尺度として,本稿で新たに提案するものである.\subsubsection*{共通単語の条件付き確率の和}\begin{equation}\label{eq:coProb}coProb(S,T)=\sum_{w\inW(S)}n(w,S)\Pr(w|T)\end{equation}\subsubsection*{IDFの拡張}\begin{equation}\label{eq:coIDF}coIDF(S,T)=\sum_{w\inW(S)}n(w,S)\times\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}\end{equation}ここで,\begin{eqnarray}\label{eq:pr1}\Pr(w)&=&\frac{\mbox{$w$を含む文書数}}{\mbox{全文書数}}\\\label{eq:pr2}\Pr(w|T)&=&\max_{v\inW(T)}\Pr(w|v)\\\label{eq:pr3}\Pr(w|v)&=&\frac{\mbox{$w$と$v$を含む文書数}}{\mbox{$v$を含む文書数}}\end{eqnarray}である.これらの確率の定義によると,$\Pr(x|x)=1$である.そのため,(\ref{eq:coIDF})式は,\begin{eqnarray}coIDF(S,T)&=&\sum_{w\inW(S)\capW(T)}n(w,S)\timesidf(w)\nonumber\\&+&\sum_{w\inW(S)-W(S)\capW(T)}n(w,S)\times\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}\nonumber\end{eqnarray}と変形できる.つまり,$coIDF(S,T)$は,共通単語$w$については,$idf(w)=1\times\log\frac{1}{\Pr(w)}$の和を求め,それ以外については,共起確率を考慮した値$\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}$の和を求めていると言える.これから分かるように,$\Pr(w|T)\log\frac{\Pr(w|T)}{\Pr(w)}$は,$idf(w)$の拡張と言える.また,(\ref{eq:coProb})式は,\begin{eqnarray}coProb(S,T)&=&\sum_{w\inW(S)\capW(T)}n(w,S)\timesone(w)\nonumber\\&+&\sum_{w\inW(S)-W(S)\capW(T)}n(w,S)\times\Pr(w|T)\nonumber\end{eqnarray}であるので,共通単語数を確率的に求めたものとも言える.
\section{実験}
\label{sec:expriments}本章では,各種重要度により重要文を抽出し,その抽出精度を求めた.\subsection{実験材料}\label{sec:material}\subsubsection*{コーパス等}IDF等を求めるときのコーパスとしては,「CD-毎日新聞」の91-98年版(8年間分)の約86万記事を茶筅version2.02\cite{matsumoto99}により形態素解析した結果を用いた.なお,IDF等の計算においては,1記事を1文書とした.また,各種の重要度を求めるときに,各文の単語を必要とするが,このときの単語としては,10記事以上に出現した単語で,かつ,茶筅の品詞体系における,「名詞」「未知語」「記号-アルファベット」に該当するもののみを選んだ.ただし,名詞のうちで,その下位分類が「数」「代名詞」「非自立」「特殊」「接尾」「接続詞的」「動詞非自立的」に該当するものは除いた.\subsubsection*{正解データ}「CD-毎日新聞」94年版から抽出した56記事についての,被験者による重要文抽出結果を正解データとした\footnote{正解データは筑波大学山本幹雄助教授に提供していただいた.}.これらの記事は以下の分布である.\begin{itemize}\item14記事からなるセットが4セットで合計56記事\item各セットの14記事は、記事の長さを100文字単位で区切って,各文字数の範囲から1記事を無作為に選択.つまり,\begin{quote}\begin{tabular}{ll}0〜99文字&1記事\\100〜199文字&1記事\\200〜299文字&1記事\\...\\1300〜1399文字&1記事\\\end{tabular}\end{quote}\end{itemize}各セットは,3または5人の被験者により要約された(set1,3が5人,set2,4が3人).被験者は,各記事から重要文を,抽出結果の分量が,元の記事の約30\%になるように抽出した\footnote{被験者は,実際には,重要文から,更に,重要文節も抽出したが,その情報は今回の実験では使用しなかった.また,抽出された重要文についても,特に重要な文と,その他の重要文という2通りが被験者により区別されているが,今回の実験では,この区別は無視して,抽出された文は,区別なく全て重要文とした.}.その抽出結果についての諸元を表\ref{tab:stat}に示す.これらの結果は,各記事を,抽出された文の数によりクラス分けした場合の統計である.なお,ある文が抽出されたとは,その文が,過半数の被験者(5人の場合は3人,3人の場合は2人)により抽出されたことであると定義する.また,全記事とは,56記事全てについての結果である.\begin{table}[htbp]\caption{被験者による重要文抽出結果の諸元}\begin{center}\begin{tabular}{|c|cccc|}\hline抽出文数&記事数&平均抽出数&平均記事長&抽出率\\\hline1&10&1.0&2.7&0.37\\2&10&2.0&5.9&0.34\\3〜4&13&3.6&12.6&0.28\\5〜6&11&5.2&16.9&0.31\\7〜11&12&8.6&27.6&0.31\\\hline全記事&56&4.2&13.8&0.31\\\hline\end{tabular}\label{tab:stat}\end{center}\end{table}表\ref{tab:stat}で,「抽出文数」により分かれる記事のクラスにおいて,「記事数」とは,そのクラスに属する記事の数である.「平均抽出数」とは,そのクラスの各記事から抽出された文数の平均値である.「平均記事長」とは,そのクラスの各記事に含まれる文数の平均値である.「抽出率」とは,平均抽出数を平均記事長で割った値である.\paragraph{被験者の重要文抽出精度}5人の被験者(a,b,c,d,e)について,それぞれが選んだ文と正解データ(過半数の被験者が選んだ文)との再現率と適合率を表\ref{tab:sbj}に示す.ただし,被験者$x$が選んだ文の集合を$S(x)$とし,過半数の被験者に選ばれた文の集合を$M$とするとき,\begin{eqnarray}\label{eq:recall}再現率(x)&=&\frac{|S(x)\capM|}{|M|}\\\label{eq:precision}適合率(x)&=&\frac{|S(x)\capM|}{|S(x)|}\end{eqnarray}である.\begin{table}[htbp]\caption{被験者の重要文抽出精度}\begin{center}\begin{tabular}{|c|ccccc|ccccc|}\hline&&&再現率&&&&&適合率&&\\\cline{2-11}抽出文数&a&b&c&d&e&a&b&c&d&e\\\hline1&0.86&0.80&1.00&1.00&1.00&0.75&0.67&0.88&0.80&0.78\\2&0.88&0.75&0.88&0.92&0.94&0.88&0.67&0.82&0.85&0.94\\3〜4&0.75&0.71&0.81&0.82&0.98&0.64&0.61&0.69&0.68&0.83\\5〜6&0.83&0.63&0.86&0.79&0.97&0.79&0.56&0.78&0.71&0.90\\7〜11&0.78&0.76&0.82&0.80&0.86&0.78&0.74&0.83&0.76&0.87\\\hline全記事&0.80&0.71&0.84&0.82&0.92&0.75&0.65&0.79&0.73&0.87\\\hline\end{tabular}\label{tab:sbj}\end{center}\end{table}表\ref{tab:sbj}の再現率や適合率が高いのは,正解データをこれらの被験者から作成したので,ある程度は,当然であるが,それでも,後掲の表\ref{tab:comp}に示す,自動抽出の結果に比べるとずいぶんと高い.統計的には,全記事を対象として,再現率と適合率とを考えたとき,もっとも数値の低い被験者bの適合率0.65を除いては,自動抽出で最高精度である$coIDF$の結果と比べても,比率の差の検定による片側検定で,全てが有意水準5\%で有意に再現率や適合率が高い.\subsection{実験方法と実験結果}\label{sec:results}正解データの与えられた56記事を要約の対象とし,茶筅により形態素解析し,その結果について,各種重要度を適用して重要文を抽出した.各記事から抽出する文数は,正解データにおける抽出文数と同じにした.これは,(\ref{eq:recall})式と(\ref{eq:precision})式において,$|M|=|S(x)|$であることを意味する.したがって,再現率と適合率とが等しくなる.そのため,本節では,それらを単に精度と呼ぶことにする.表\ref{tab:comp}は,\ref{sec:measures}章で定義した各種重要度について,抽出文数によりクラス分けされた記事について,抽出精度を求めたものである.たとえば,まず,$lead(S)$は,抽出文数1の記事に対しては,精度1.00,つまり,1文だけを抜き出すなら,先頭文を抜き出すと必ず正解であることを示す.次に,たとえば,$sum(S,one)$は,(\ref{eq:sum})式の関数$f$として,(\ref{eq:wimps1})式の関数$one$を用いたことを示し,$common(S,T,one)$は,タイトル$T$との類似度を,関数$one$により,(\ref{eq:common})式を用いて求めたことを示す.\begin{table}[htbp]\caption{各種重要度による重要文抽出精度(=適合率,再現率)の比較}\begin{center}\begin{tabular}{|l|llllll|}\hline&&&\multicolumn{2}{c}{抽出文数と精度}&&\\\cline{2-7}重要度&1&2&3〜4&5〜6&7〜11&全記事\\\hline$lead(S)$&1.00&0.65&0.68&0.49&0.42&0.53\\\hline$sum(S,one)$&0.50$^{--}$&0.75&0.43$^-$&0.40&0.53&0.50\\$sum(S,tf)$&0.70&0.70&0.55&0.46&0.50&0.53\\$sum(S,idf)$&0.50$^{--}$&0.70&0.45$^-$&0.42&0.50&0.49\\$sum(S,tfidf)$&0.70&0.65&0.49&0.40&0.55&0.52\\\hline$common(S,T,one)$&0.80&0.75&0.49&0.49&0.55&0.55\\$common(S,T,tf)$&0.80&0.75&0.49&0.46&0.53&0.54\\$common(S,T,idf)$&0.80&0.70&0.47$^-$&0.49&0.56$^{+}$&0.55\\$common(S,T,tfidf)$&0.90&0.70&0.49&0.47&0.52&0.54\\\hline$ip(S,T,one)$&0.80&0.75&0.47$^-$&0.49&0.55&0.55\\$ip(S,T,tf)$&0.90&0.75&0.49&0.44&0.51&0.53\\$ip(S,T,idf)$&0.80&0.70&0.49&0.47&0.53&0.54\\$ip(S,T,tfidf)$&0.90&0.70&0.47$^-$&0.44&0.48&0.50\\\hline$cos(S,T,one)$&0.80&0.65&0.49&0.49&0.51&0.53\\$cos(S,T,tf)$&0.80&0.65&0.47$^-$&0.46&0.50&0.51\\$cos(S,T,idf)$&0.80&0.65&0.47$^-$&0.46&0.52&0.52\\$cos(S,T,tfidf)$&0.80&0.70&0.45$^-$&0.44&0.49&0.50\\\hline$coProb(S,T)$&0.80&0.75&0.53&0.47&0.62$^{++}$&0.59\\$coIDF(S,T)$&0.80&0.75&0.53&0.54&0.61$^{++}$&0.60\\\hline\end{tabular}\label{tab:comp}\end{center}\end{table}表\ref{tab:comp}では,$lead(S)$をベースラインとして,各種重要度を評価した.このとき,もし,ある重要度が$lead(S)$と比率の差の検定による両側検定により有意に精度が異なるときには,有意水準5\%のときには,`$+/-$',有意水準1\%のときには,`$++/--$'を付けてそれを示した.ここで,正の符号は,その重要度が$lead(S)$よりも精度が高いことを示し,負の符号は,その逆を示している.表\ref{tab:comp}から,抽出文数1,2,3〜4,5〜6(平均記事長は,それぞれ,2.7,5.9,12.6,16.9文)については,$lead(S)$の精度が他よりも良いか同等であることが分かる.これは,先頭部に重要なことが書かれているという新聞記事の性質を反映している.しかし,抽出文数7〜11(平均記事長=27.6)になると,先頭部のみでは,カバーできる重要文が少なくなるため,$lead(S)$は他と比べて有効な方法ではなくなる.全記事での精度に基づいた結果から,まず,単語重要度の組合せ方の精度を比較すると,\begin{equation}\label{eq:comp1}coIDF,coProb(0.595)>=common(0.545)>=ip(0.53)>=cos(0.515)>=sum(0.51)\end{equation}である.この順位は,たとえば,$common$については,$common(S,T,one)$,$common(S,T,tf)$,$common(S,T,idf)$,$common(S,T,tfidf)$の全記事についての精度の平均を求めると,$(0.55+0.54+0.55+0.54)/4=0.545$であり,$coIDF$と$coProb$では,$(0.59+0.60)/2=0.595$であることなどから順位付けた.なお,括弧内の数字は,求めた平均値である.この結果から,$coIDF$と$coProb$が他よりも重要文選択に適した重要度であることが分かるが,この結果は統計的には有意ではない.統計的に有意であることを示すには,より規模の大きい実験が必要である.ただし,$coIDF$と$coProb$は,表\ref{tab:comp}でも,抽出文数7〜11の場合には,$lead(S)$と比べて,有意水準1\%で高精度に重要文を抽出できるので,長い記事については,$lead(S)$を使うよりも,これらの共起情報を利用した重要度を使った方が良いと言える.また,短い記事についても,共起情報を利用した重要度は,$lead(S)$と比べて,統計的には同等であるので,共起情報を利用した重要度は,自動要約に適していると言える.
\section{おわりに}
\label{sec:conclusion}重要文抽出によるテキスト自動要約のために,各種の重要度を比較した.本稿では,特に,文間の類似度の各種尺度を,新聞記事要約を対象として比較した.このとき,文の重要度は,タイトルとの類似度により定義した.文間の類似度を求める方法としては,単語間の共起関係を利用する方法と利用しない方法とを試みた.実験の結果,共起関係を利用した類似度の方が,高精度な要約ができた.この結果から,共起関係を利用した類似度が自動要約に有効であると言える.我々は,今後,本稿での知見に基づいて,各種情報を統合した自動要約システムを作ることを考えている.また,本稿で提案した,IDFの拡張としての類似度を,自動要約だけでなく,情報検索にも応用して,その有効性を確かめたいと考えている.\bibliographystyle{jnlpbbl}\bibliography{sum}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).言語処理学会,情報処理学会,ACL,人工知能学会,日本音響学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V02N01-03
|
\section{はじめに}
本論文では日本語の論説文を対象にした要約文章作成実験システム\G\footnote{\slGeneratorofREcapiturationsofEditorialsandNoticesの略.}(以下\Gと呼ぶ)について述べる.一般に,質の良い文章要約を行うためには,照応,省略,接続的語句,語彙による結束性,主題・話題,焦点など多くの談話現象の処理が必要であり,これらの談話現象は互いに複雑に影響しあっているので,これらの談話現象の一部のみの処理を行って要約を試みても,質の高い要約が得られる可能性は低い.本研究の目的は,以上の見地から現状で解析可能な談話要素をできるだけ多く取り込み,実際に計算機上で動作する実験的な要約作成システムを試作してその効果を検討することである.文章要約については,日本語学あるいは日本語教育の分野でも,現状では定義や手法が確立していない\cite{要約本}.本論文では,文章要約とは,重要度が相対的に低い部分を削除することであるとみなす.一般には,文章中のある部分の「重要度」は文章の種類によって異なるので,要約の方法は,文章の種類によって異なったアプローチを取る必要があると考えられる.本研究では,新聞社説などの,筆者が読者に対して何らかの主張や見解を示す文章(以下,論説文章と呼ぶ)を要約の対象にする.田村ら\cite{田村}は,文章の構造および話題の連鎖を表現する修辞構造ネットワークおよび話題構造を作成することによる要約方式を提案しているが,思考実験に留まっており,その実現には,一般的知識に関するシソーラスの構築や,修辞構造ネットワークの自動作成手法などの困難な問題が残されている.また間瀬らは,「重要文に比較的よく出現する表層的特徴を多種類含んでいる文が真の重要文である」という仮定に基づき,題名語,高頻度名詞,主題(助詞「は」)などのパラメータを総和することによって重要語を決定し,要約文を選択するという統計的手法に基づく要約法を提案している\cite{杉江}.本研究では,要約中で原文章の文をそのまま使用するのではなく,文内で比較的重要度が低いと考えられる連体修飾要素の削減も行った.一方,本手法は文章内の談話構造の利用による文章要約を試みたものであり,\cite{杉江}などの従来の抄録作成に使用されてきた語の頻度に関する情報は,使用しなかった.また,前述の両論文でも使用している文章のタイトル(題名)の情報も,タイトルはそもそも文章の「究極的な要約」であるという立場から,要約処理への使用は循環論的であると考えられるので,本手法では利用しなかった.以下,\ref{システム}節で,\Gのシステム構成を述べる.\ref{要約文選択}節から\ref{段落分け}節で,要約文の選択,一文内で修飾語を削減することによる文長の短縮法,要約文章の段落分け,のシステム各部の詳細を述べる.\ref{評価}節では,アンケート調査に基づき\Gを評価する.\ref{議論}節では,大量の要約文生成で明らかになった問題点や,得られた知見を紹介する.本論文では要約実験対象として日本経済新聞の社説を用いた.論文中の例文,要約例は,[例文\ref{作例から}]〜[例文\ref{作例まで}]を除いてすべて1990年9月と1990年11月の同社説から引用したものである.
\section{システム構成}
label{システム}要約システム\GはSunSPARCStationI上で,Perl言語を使用して作成されている.システムは,以下の五つの部分からなる.以下では要約文として使用することを「採用する」と表現する.\begin{description}\item[形態素解析部]解析方法は,文節数最小法を基本として,いくつかのヒューリスティックスを取り入れている.文献\cite{手がかり語}で使用したLisp版の形態素解析部を移植して,改良を加えたものである.辞書は角川類語新辞典\cite{角川類語}に,固有名詞及び機能語を追加したものである.形態素解析を行うと同時に,各語について同辞典の分類番号を調べておく.\item[要約文選択部]すでに採用した文の文長の合計と,あらかじめ設定した目標要約率とを比較しながら,新たに採用する要約文を選択していく.要約文として採用された文に対して,手がかり語による結束処理,及び省略処理を行い,条件に該当する場合,その前文も要約文として採用する.\item[文要約解析部]要約文として採用された文に対して,修飾句を削減することにより文レベルの圧縮を行う.\item[段落分け解析部]文献\cite{手がかり語}で述べた方法を用いて,原文の意味段落にそって段落分けを行い,要約文章を生成する.\end{description}
\section{要約文選択}
label{要約文選択}\subsection{見解文と現象文}論説文章中の文は,著者の主張,意見,希望などを述べた文と,その主張,意見,希望などを述べるために必要な出来事,事実,現象を述べた文の二種類に大別することができる.例えば,以下の[例文\ref{one}]は現在の状況を事実として述べた文,[例文\ref{two}]は筆者の意見を述べた文である.\begin{sample}\item地球温暖化の防止を目指してジュネーブで開かれていた第二回地球気候会議が終わった。[13/Nov/1990]\label{one}\item今回の会議は、来年二月から始まる温暖化防止のための条約作りの基礎になるだけに、目標が不明確のままに終わったのは残念である。[13/Nov/1990]\label{two}\end{sample}以下では,著者の主張,意見,希望などを述べた文を「見解文」,出来事,事実,現象を述べた文を「現象文」と呼ぶ.文章中のすべての文は,見解文か現象文のどちらかに属すると仮定する.\subsection{見解文の抽出}日本語の文章から見解文を抽出するためには,文末表現に注目することが有効である.例えば,「〜が必要である」「〜すべきである」などは見解文に特徴的な文末表現である.\Gでは,あらかじめ作成した見解文の文末の典型的パターンとのマッチングを行うことにより,近似的に見解文を抽出する.\begin{center}\begin{tabular}{|l|l|}\hline文末表現&「〜求められる」「言うまでもない」\\&「〜と思われる」「〜だろう(か)」\\&「〜と言える」「〜のではないか」\\&「〜したい」「ほしい」「〜と考える」\\&「なければならない」「〜ずにはおかない」\\&「気になる」\\\hline単語&「大切」「必要」「期待」「残念」「はず」\\&「注目」「べき」「歓迎」「課題」「危険」\\\hline\end{tabular}\caption{見解文の文末パターンの例}\end{center}\subsection{冒頭文と最終文}文章の冒頭文は,前提を全く持っていない読者(聴者)に,はじめて著者(話者)の持つ情報を伝達して,話題に関する情報を共有するという重要な役割を果たす文であり,文章要約においても原文章の冒頭文は重要な役割を果たすと考えられる.また文章の最終文は,著者が話を締めくくる必要があるため,文章の他の部分と異なった,何らかの特別な意図を持って書かれた文と考えることができる.このため,冒頭文と同様に重要であり,要約作成時にも欠かせない重要な文と考えられる.文献\cite{要約本}にも,「要約文の作成では,一般的に原文の冒頭文と最終文の重要性が高く,その中間文において思いきった圧縮が行われることが多い」(p.138)と述べられており,本研究での考察と一致する.本論文の要約システムでは,文章の冒頭文および最終文を重要視する.\subsection{文章の総括方式と見解文の位置}一般に文章の統括形式は,以下の4つに分類できる\cite{市川}.\begin{enumerate}\item冒頭で統括するもの(頭括式)\item結尾で統括するもの(尾括式)\item冒頭と結尾で統括するもの(双括式)\item中ほどで統括するもの(中括式)\end{enumerate}実際の新聞社説の観察では,中括式や純粋な頭括式はまれであることから,文章の最終部分では,文章の主要な結論が述べられていることが多いといえる.これらの考察に基づき,冒頭,および最終の見解文を除いた中間の部分に存在する見解文では,主要な結論が述べられる最終の見解文と距離的に近いところにある,より文章の後半部に出現する見解文の方が相対的に重要であると仮定し,要約文選択のヒューリスティックスとして採用した.\subsection{段落内構造}段落内構造に関しても,基本的には文章の構造と同じモデルを考える.つまり,各段落の冒頭文は,新しい主題に関する前提を持っていない読者に,著者の持つ情報を初めて伝達する役割を持つので,その段落を代表する文である場合が多いと考えられる.\subsection{結束性解析}\label{結束性解析}\Gでは,以前に行った研究\cite{手がかり語}での考察などに基づき,近似的な結束性の処理を行い,要約文選択に用いている.\subsubsection{手がかり語による結束性}\label{anaphora}文献\cite{手がかり語}では,文頭に出現する指示語(これ,その,など)や接続詞(そして,しかし,など)などの語句を「手がかり語」と定義し,これらの語が文頭に出現した場合に,前文との強い結束性を示す場合が多いことを示した.このことから,文頭にこれらの語が出現した文は,要約文中には単独で出現せず,必ず前文を伴って出現すると考え,要約文として選択する際にはこれら二文のどちらも採用することにする.また,前文の文頭にも「手がかり語」を含んでいる場合には再帰的にさらに前文を要約文として採用する.\begin{sample}\item夏場以降は一転して中東情勢に関心が移っている。しかし、構造協議で示された課題はイラク問題の発生で後退したわけではない。[9/Sep/1990]\item課徴金の引き上げについては具体化を約し、独禁法改正法案を次期通常国会に提出することになっている。その措置が形式的なものに終らぬように、議論を広めるべきだ。[9/Sep/1990]\end{sample}\subsubsection{省略による結束性}文の要素の省略は,照応よりも扱いが難しい.そこで,\Gでは広義の主語(主格を表す格助詞,またはとりたて詞(例えば,は,こそ,さえ)が後接している句)が省略されている文は,その文単独で要約文中に採用されても意味の把握が難しいと判断し,前文も採用する\footnote{照応の場合と同様に,前文にも主語が存在しない場合は再帰的にさらにその前文を採用するが,実際にはこのような場合はほとんどない.}.以下の2例文では,それぞれ「政府,与野党が」(主格),「約二十六億円を投じて地方公共団体に電気自動車を普及させようという政策は」(とりたて詞の後接する句)が省略されているので,2文目が採用される時には,1文目も採用される.\begin{sample}\item放置しておけば大きなツケが残るのは目に見えている。一刻も早い対応を望む。[20/Sep/1990]\item日本全国で走っている自動車の数を考えると、大気汚染を防止する直接的な効果は皆無である。この点、割箸と非常に似ている。[8/Sep/1990]\end{sample}\subsection{要約文選択アルゴリズム}以上の要因を組み込んだ\Gでの要約文選択アルゴリズムを以下に示す.また,主要語,要約率は以下のように定義する.\vspace{5mmplus5mm}\begin{定義}「主要語」とは,角川類語新辞典\cite{角川類語}に掲載されている語のうち,大分類の番号が\{0,5,7,8,9\}である語,及び固有名詞である\footnote{実際にはさらに一部の小分類に属する語,及び一部の語を除いてある.}.複数の意味分類に含まれる多義性のある語については,その一つが前述の大分類に含まれていれば,主要語とする.\end{定義}\begin{equation}\mbox{要約率(\%)}=\frac{\mbox{要約文長}}{\mbox{原文章の(原文のままの)文字長}}\times100\end{equation}\begin{equation}\mbox{要約文長}=\sum_{\mbox{採用した文}}\mbox{単文要約処理後の文字長}\end{equation}\vspace{10mmplus10mm}\noindent\underline{要約文選択のアルゴリズム:}\begin{description}\item[Step0.]文章の冒頭文,及び最終文を採用する.\item[Step1.1.]各段落冒頭文に対して手がかり語の検査・省略の検査を行い(詳細は\ref{段落分け}節を参照),原文の段落を意味段落に再構成する.\item[Step1.2.]第一意味段落の全文と各段落の冒頭文の中で,文章冒頭文に含まれる主要語が主語になっている文を採用する.\item[Step1.3.]最終意味段落の全文と各段落の冒頭文の中で,文章最終文に含まれる主要語が主語になっている文を採用する.\item[Step2.]Step1が終了した時点で,要約率が$(\alpha+\delta)\%$以上ならば,冒頭文,最終文以外の採用\\した文すべてを未採用にする.ここで,$\alpha$は要約率の目標,$\delta$は許容範囲パラメータである.\item[Step3.1.]まだ採用されてない見解文のうち,文章の最も後ろにある文を採用する.\item[Step3.2.]手がかり語による結束性の解析を行い,要約文の文頭に手がかり語が出現する場合は,その前文を要約文に採用する.\item[Step3.3.]要約文に対する省略解析を行い,広義の主語(主格を表す格助詞,またはとりたて詞が後接している語)が省略されている要約文に対しては,その前文も要約文として採用する.\item[Step4.]要約率が$\alpha\%$未満ならば,Step3.1へ.$\alpha\%$以上ならば,採用した文を意味段落に沿って出力,終了.\eos\vspace*{-0.2mm}\end{description}
\section{文要約解析}
label{文要約}文中の修飾句を削減することにより,一文内での要約を行う.文の中心内容は,文中の修飾句の削減による影響を受けない.\vspace*{-0.2mm}本研究では,(1)二重修飾・多重修飾,(2)固有名詞への修飾,(3)例示の三通りの場合に,連体修飾句を削除する.\vspace*{-0.2mm}\subsection{二重修飾・多重修飾}ある名詞を修飾する連体修飾句には,表\ref{kindof}に示す種類が考えられる\cite{国研文法下}\footnote{ただし,文献とは一部の品詞名を変更している.}.そこで,実際の文によく見られる「二重修飾」及びそれを一般化した「多重修飾」を,以下のように定義する.\begin{table}[htbp]\begin{center}\begin{tabular}{|l|l|}\hline文法的性質&例\\\hlineこそあど詞連体形&この話\\連体詞&ある話\\形容詞の現在形・過去形&おもしろい話\\形容動詞の連体形・過去形&変な話\\名詞+連体助詞「の」&昔の話\\名詞+格助詞+「の」&昔からの話\\名詞+取り立て詞+「の」&ここだけの話\\副詞+「の」&突然の話\\節(被修飾名詞が修飾節の格要素)&私が聞いた話\\節(被修飾名詞が修飾節の格要素でない)&子狸が少年と仲良くなる話\\\hline\end{tabular}\vspace{3mm}\caption{連体修飾の種類}\label{kindof}\end{center}\end{table}\begin{定義}一つの名詞に対して,上の例に示したような要素が二つ以上修飾している状態を「多重修飾」と呼ぶ.特に,二つの要素が修飾している状態を「二重修飾」と呼ぶ.複合名詞(地域紛争など)は,名詞が名詞を修飾しているとみなす.\end{定義}本研究では,名詞の二重修飾があった場合,前方の修飾要素を省略しても意味は大きく変化しないことが多いと考え,要約文生成の際には前方の修飾要素を省略する.同様に,多重修飾の場合には,最終の修飾要素を残して,残りを省略する.例として,「おもしろい昔の話」は「昔の話」に,「突然のうれしい話」は「うれしい話」に,「私が聞いた変なおもしろい話」は「おもしろい話」のように省略を行う.ただし,後半の修飾要素が,名詞(+格助詞または取り立て詞)+「の」である場合には,意味的なあいまいさが生じる.\begin{sample}\item私が聞いた作家の話$\cdots$\label{作例から}\end{sample}\begin{sample}\item私がインタビューした作家の話$\cdots$\label{作例まで}\end{sample}上の二つの例では,形態上は同一であるが,前者は「私が聞いた」が「話」に,後者は「私がインタビューした」が「作家」に,それぞれかかる.しかし,以上のことを形態情報だけで判断することは不可能である.ここで,被修飾名詞「話」を基本に考えると,前者の例は「私が聞いた」「作家の」の二つが「話」にかかり,後者の例は,「作家の」だけが「話」にかかって「私がインタビューした」は「作家」にかかる.ここで,両者に共通するのは,「作家の」は「話」にかかる,という点である.以上より,例えば「私が$V$した作家の話」(「$V$した」は任意の動詞)という表現を短縮する場合,\begin{enumerate}\item修飾要素をすべて取り除いた「話」だけでは漠然としすぎて一般に意味がつかめない.\item「私が$V$した」は「作家」と「話」のどちらにかかるか不明.\item「作家の」は必ず「話」にかかる.\end{enumerate}\noindentという理由から,「私が$V$した」を削除し,「作家の話」としている.また一般に,修飾節のほう\\が名詞+「の」よりも文字数が多く,このため修飾節を削除することによる要約の効果が高いことも,修飾節削除の理由となっている.実際に出現した例文を以下に示す.ただし,文中の[$\cdots$]の部分は計算機が削除可能と判断した修飾要素である.\begin{sample}\item要綱素案で目につくのは、[海部首相の要請にこたえて去る四月末、選挙制度審議会がまとめた]衆院選改革の答申と大きく異なることだ。[14/Nov/1990]\item統一を実現するうえで最大の難関は、米英仏とともに[[統一問題やベルリンの地位変更に関する]国際法上の権限を留保している]ソ連の承認をどう取りつけるかだった。[14/Sep/1990]\label{double}\end{sample}[例文\ref{double}]のように,該当する削除可能候補が複数ある場合は,削除文字列の長い方を採用する.\subsection{固有名詞への修飾}修飾の用法は,一般に限定修飾と,非限定的修飾に分類することができる\cite{寺村}.個々の修飾語句がこのどちらで使用されているかの判断は,必ずしも容易ではないが,本研究では,非限定に用法が限られる固有名詞への修飾を扱う.ここでいう固有名詞とは,一般的な意味の固有名詞の他,固有物を示す一般名詞(例えば,わが国)も含めて考える.\Gでは,固有名詞にかかる連体修飾節は限定機能を果たさないので削減可能と判断し,単文要約処理の際,削除する.\begin{sample}\item{[絵の具に油を混ぜ表面をニスで覆う]西欧絵画に比べ、[ニカワが下に沈んで絵の具がむき出しになる]日本の絵は、長期的に照明下に置くことはできないのである。[16/Sep/1990]}\label{proper1}\item{[消費と設備投資をけん引車とする内需と、堅調な輸出に支えられて順調な拡大を続けてきた]日本経済に、二つの警戒信号がついた。[3/Sep/1990]}\label{proper2}\item{[党より人で投票する傾向の強い]日本の選挙の実情からすると、候補者への投票がそのまま政党への投票とみなされる一票制による小選挙区比例代表制は、[地域密着型の選挙を得意とする]自民党候補に有利と考えられる。[14/Nov/1990]}\label{proper3}\end{sample}[例文\ref{proper1}]〜[例文\ref{proper3}]に示す例は,いずれも固有名詞を直接修飾していない.すなわち,固有名詞の前方にある修飾要素(例えば,[例文\ref{proper2}]では「消費と$\cdots$続けてきた」)が,固有名詞(日本)を修飾しているのではなく,その後方の複合名詞(日本経済)を修飾している.\Gでは,その後方の複合名詞(日本経済)に固有名詞が含まれていることを利用して,その名詞(日本経済)も固有名詞に準ずる取り扱いを行い,その前方の修飾要素の削除を行う.\subsection{例示}「$\cdots$などの」「$\cdots$といった」のような例示も,広い意味の修飾語と考えることができる.修飾としての例示は,そのほとんどが非限定的修飾用法と考えられ,削除しても意味的に変化が生じないと近似的に仮定し,これらの語句が文内に出現した場合に,その例示部分を削除する.\begin{sample}\item警視庁では、[[最高時には三万七千人という]空前の警備体制を決めるなど、]過激派の動きに対応してきた。[3/Nov/1990]\label{重複}\item百二十ヶ国の政府代表が閣僚宣言を採択したが、[焦点の二酸化炭素など]温室効果ガスの排出量を規制する具体的な目標値を設定することはできなかった。[13/Nov/1990]\end{sample}[例文\ref{重複}]では,二重修飾の削除対象(「最高時$\cdots$という」)と,例示の削除対象(「最高時$\cdots$など,」)が重複している.この場合,より広い範囲を対象とした例示部分を削除対象とする.現在のシステムで,例示の対象としている語句は「など」「などの」「といった」「のような」「のように」の五つである.
\section{段落分け解析}
label{段落分け}\Gでは,原文の段落をそのまま意味的な段落,つまり「一つの主題を持つ文の集合」と考えるのではなく,前述した結束性に関する処理を行うことによって意味段落を再構成している.意味段落は,以下の手順によって原文章の一つ以上の段落の集まりで構成される.すなわち,原文の段落の冒頭文について,手がかり語の検査(冒頭に「手がかり語」を含むかどうか)及び省略の検査(主語が省略されていないかどうか)を行い,少なくとも一方が該当する場合,その段落はその前の段落とつながっている(一つの意味段落を構成している)とする.この処理を第2段落以降の全段落の冒頭について行い,最終的にできた意味段落を対象にして,その後の様々な処理を行っている.以下の例では,原文中の手がかり語(「こう(した)」)を検知し,原文にある直前の改行を削除して,要約文章を作成する.\begin{sample}\item$\cdots$一般市民にも危険が迫ったことをうかがわせる。(改行)こうした過激派のゲリラ活動は、かねて十分予想されていたことであった。$\cdots$[3/Nov/1990]\end{sample}
\section{評価}
label{評価}要約システム\Gの有効性を評価するために,被験者18名に対して要約文章の評価に関するアンケート調査を行った.調査はそれぞれの被験者に対し,各5編の社説と\Gによる要約結果(ただし,目標要約率$\alpha=25\%$,および$\delta=5\%$に設定して出力した.調査対象要約文章を末尾に示す.)を提示し,\\以下に示す3項目について,それぞれ0〜5までの数字(整数に限らず,小数を含んだ数も許す)で回答してもらう,という形式で行った.\begin{enumerate}\item(社説の原文を読まずに)各要約文章のみを独立した文章として読んだ時に,自然かどうか\item社説本文,及びそのタイトルと比較した時に,原文で重要と考えられる部分を抽出しているか\item文内で修飾語を省略している部分について,それが適切な省略かどうか\end{enumerate}以下では,この3つの質問とその回答結果について述べる.\subsection{要約文の自然さ}要約文章は文章全体としてまとまりのあるものでなければならない.そこで最初の質問では,要約文章を独立した文章と考えた時の自然さを被験者に判断してもらった.なお,被験者が評価する際の判断基準を以下のように設定し,被験者に提示した.\begin{description}\item[5点]ほぼ自然である.つまり,このような文章を書く人間もいると考えられる.\item[0点]非常に不自然である.つまり,文章全体としてのまとまりがなく,文章として何を意味するのかほとんど理解できない.\end{description}表\ref{表:自然さ}に調査結果の平均と,満点(5点)の評価をつけた人数を示す.全体の平均点は,3.78という比較的良好な評価が得られている.特に文章Aについて高い評価点が得られた.質問項目とは別に被験者に感想を求めたところ,今回の要約率が25\%となっていることに関連して,要約文の中に多くの内容を盛り込み過ぎて,その結果として内容にまとまりを欠いている点を指摘する声があった.また,要約された文章の段落間,及び文間に接続詞がないために読みやすさに欠けるという意見が多かった.この事実から,日本語では文章の結束性を維持するために接続詞が重要な役割をしていることを再確認するとともに,\vspace*{-0.1mm}要約文章は相対的に文章の情報量が減少しているため,その質を高めるためには,\vspace*{-0.1mm}接続詞などを加えることで文章全体の結束性を補う必要のあることを示唆しているものと考えられる.\vspace*{-0.1mm}\begin{center}\begin{tabular}{|c||c|c|c|c|c||c|}\hline文章&A&B&C&D&E&平均\\\hline評価&4.05&3.45&3.96&3.81&3.62&3.78\\満点&5&0&2&3&0&\\\hline\end{tabular}\caption{要約文章の自然さの評価}\label{表:自然さ}\vspace*{-0.2mm}\end{center}\subsection{要約内容の適切さ}要約文章は,それ自身にまとまりがなければならないと同時に,原文で重要と考えられる情報を適切に抽出しなければならない.そこで,被験者を対象に,原文で重要と考えられる部分を\Gで抽出しているかどうかを尋ねた.評価基準及び調査結果を以下に示す.\vspace*{-0.1mm}\begin{description}\item[5点]このような抽出を行う人間もいると考えられる.\vspace*{-0.1mm}\item[0点]全くatrandomに抽出したものとそう大きな差はない.\vspace*{-0.1mm}\end{description}\begin{center}\begin{tabular}{|c||c|c|c|c|c||c|}\hline文章&A&B&C&D&E&平均\\\hline評価&3.81&3.39&3.89&3.61&3.78&3.70\\満点&2&0&2&2&1&\\\hline\end{tabular}\caption{要約内容の適切さの評価}\vspace*{-0.2mm}\end{center}この調査では,他と比較して文章Bの評価値が低かったが,全文書の平均では評価値3.70という比較的良好な値が得られた.\Gの行った文書Bの要約では,その第3段落で日本の行動計画を全文引用しているが,これについて,要約に全文引用することの必要性に疑問を持った被験者がいた.また,要約では第2段落に米ソの話題を採用しているが,これよりも,目標値の設定がなぜ重要なのかという理由を採用すべきであるという指摘など,目標値に関する話題を採用すべきだという意見が多かった(要約例参照).また,\Gの要約では原文の後半に要約の重点がおかれ過ぎている傾向があるという意見もいくつか聞かれた.このことから,\Gでは見解文を必要以上に抽出した場合に,近似的に文章の後半部分の見解文を採用するようにしているが,この近似方法をさらに検討する必要性が明らかになった.\subsection{修飾句省略}\Gでは,単文単位での修飾句の省略も試みている.この点についても,被験者にその適切さを判断してもらった.判断基準は以下の通りとした.\begin{description}\item[5点]ほぼ適当である.つまり,省略された部分は,原文の中では重要性の低い部分であり,このような省略を行うことは妥当だと考えられる.\item[0点]ほぼ不適当である.つまり,全くatrandomに省略したものと大差はない.\end{description}\begin{center}\begin{tabular}{|c||c|c|c|c||c|}\hline文章&B&C&D&E&平均\\\hline評価&3.28&4.02&3.02&3.72&3.64\\満点&0&4&1&1&\\\hline\end{tabular}\caption{修飾語省略の適切さの評価}\end{center}被験者の判断した4文書\footnote{文書Aでは修飾句省略の処理が行われなかったため,評価の対象から外している.}のうち,特に文書Cで高い評価が得られた.ただ,\Gで使った修飾語省略のヒューリスティックスの適切さに関しては,今後の課題として検討すべきであるとの意見がいくつか出された.文中で,構文解析を行わずに修飾・非修飾の関係,あるいは主述関係を完全に特定することは不可能である.現在のシステムはこの処理を近似的に行っているため,以下の例のような連体修飾節の認定に問題が生じる場合がある.\begin{sample}\itemだが、各国の意見が割れたまま会議を開くのは[危険だとする]スペインの主張はうなずける。[11/Sep/1990]\end{sample}また,文法的には正しいが,連体修飾節が限定用法を示す場合,削除すると意味的におかしくなる.\begin{sample}\itemインドシナ難民の受け入れが十二万人を超し米、加に次ぎ、[人口比でみた]日本語学習者数が韓国に次いで多いという事実はそうした方向の反映だろう。[21/Sep/1990]\end{sample}\subsection{主語のない文}文章では,さまざまな談話メカニズムにより結束性が保たれている.その結果主語などの省略は自然に行われているが,[例文\ref{主語なし}]のような主語のない文を要約文章として抽出してしまうと,要約文章の結束性は原文のそれよりも弱いために人間は主語のない文にとまどいを感じ,また場合によっては文の意味が理解できなくなってしまう.今回のアンケート調査でも,主語のない文に不自然さを感じた被験者が何人かいた.要約文章作成では,接続詞などを補うことと同様に,主語などの省略語を補うことも検討する必要がある.\begin{sample}\item経済のメカニズムを働かせる試みで、うまく機能するかどうか注目したい。[16/Nov/1990]\label{主語なし}\end{sample}
\section{議論}
label{議論}ここでは,機械処理した大量の要約結果の考察から得られた知見や明らかになった問題点などを述べる.\begin{itemize}\item本研究では,原文の結束性のまとまりをくずすことなく,そのまま要約文にも反映させることで,要約文の読みやすさの維持に努めた.その結果,文を芋蔓式に採用してしまい,文数の短縮にならない例が見られた.\item例えば文章の冒頭文に,より抽象的で,その結果文章中に多用される語(例えば「経済」「事件」)が含まれている場合,有効な要約文抽出が出来ないことがあった.またこのことは,高頻度の語が(文章の分野特定には有効でも)必ずしも要約で重要な語にはならないことも示している.\item文章の冒頭文が例えば「文化の日.([3/Nov/1990])」のように,極端に短い場合,あるいは,文章冒頭文が極端に長い場合,何らかの比喩から文章が始まっている場合などは,本手法が有効に機能しない.\item比較的短い文で構成されている文章に対して,本手法が特に有効であることが観察された.この理由としては,文が短いと,要約率の微調整が容易になること,重要文の抽出の精度が上がることが考えられる.このことより,要約の前処理として,文の短文への分割,あるいは文のパラフレーズを行うことが有効であると考えられる.\item論説文中にある現象文は,以降の記述内容の特定のために周知の事実を述べる場合と,未知の事実そのものを紹介するために事実を述べる場合とに分けられる.このうち,前者の要約文としての重要性は低いが後者のそれは高い.これの判別は,構文や修辞関係の情報を使用しただけでは不可能なことから,現実世界の一般的な知識が必要と考えられる.\end{itemize}
\section{おわりに}
label{まとめ}本論文では日本語の論説文を対象にした要約文章作成実験システム\Gを紹介した.\Gは現在論説文だけを対象としているが,見解文抽出に関連する処理以外の処理は,他の種類の文章の要約にも十分に利用できるものである.\Gの要約文の品質の評価をアンケート調査により行ったが,アンケート結果の中には,出力された文章に最小限の後編集をすることによって,人間が行った要約と変わらない程度の質の高い文章となる要約文が多い,という意見があった.このことから,\Gでは論説文からの重要な情報の抽出は比較的うまくいっているが,より「まとまりのある文章」,つまり,結束性と首尾一貫性をより強く持った文章にするための編集機能を強化することが\Gの今後の課題であると考えられる.ただしこのために必要な処理である,接続詞や主語の補完の実現には,より高度な文章の解析が必要であり,困難な問題が多く存在する.\section*{謝辞}本研究で,シソーラスに使用した「角川類語新辞典」\cite{角川類語}を機械可読辞書の形で提供いただき,その使用許可をいただいた(株)角川書店に深謝する.\bibliographystyle{jtheapa}\bibliography{yamamoto}\newpage\section*{付録:要約例}以下に,\Gで出力した要約のうち,本文のアンケート調査に使用した要約例を示す.要約目標は25%とした.なお,文章中で[$\cdots$]があるものは,文レベルの圧縮処理で削除された部分を示し,その部分は出力された要約には含まれないが,便宜的にその部分も示す.\subsection*{文章A{\rm([8/Nov/1990],要約率:30.6%)}}\centerline{\large「再検討が必要な政令恩赦」}政府は天皇陛下の即位の礼に伴い、恩赦(政令恩赦と特別恩赦)を実施する方針だ。救済の対象はおおむね狭まっており、戦前のように殺人犯まで釈放してしまうようなことはなくなった。その代わりに復権という形で救済措置が取られるようになり、その結果として選挙違反者の公民権回復が目立つようになった。道路交通法違反者の免許取得などの権利を回復する件数が数百万に上るようだが、だからといって選挙違反者を含めていいという説明にはならない。こうしたことが繰り返されるようでは、政治への信頼は損なわれるばかりだ。政府部内には「ずっと続いてきたものを、今やめることも難しい」との意見もある。しかし、国民に影響を与えることを惰性で続けるのはおかしい。広く意見を聞きながら、恩赦を改めて考え直すべき時期に来ている。\subsection*{文章B{\rm([13/Nov/1990],要約率:27.9%)}}\centerline{\large「環境保全は目標値が必要」}地球温暖化の防止を目指してジュネーブで開かれていた第二回世界気候会議が終わった。[米ソの緊張緩和が進み、世界に対する]米ソ両国の影響力が減少したといわれる。両国共に厳しい国内事情があるとはいえ、地球環境問題でもその指導的役割を自覚して欲しいものである。わが国が先に決めた「国民一人あたりの二酸化炭素排出量を二〇〇〇年に一九九〇年の水準で安定化する、日本の総排出量を二〇〇〇年以降一九九〇年の水準で安定化するよう努力する」という地球温暖化防止行動計画は、会議の席上でも高く評価され、日本の指導力にも期待が寄せられている。日本は、この行動計画に向けて最大限の努力を払うと共に、条約交渉に当たって米ソ両国に対し目標を設定すべく強く働きかける必要がある。\subsection*{文章C{\rm([17/Nov/1990],要約率:27.0%)}}\centerline{\large「全欧安保会議に期待する」}[東西冷戦後の欧州新秩序を討議する]全欧安保協力会議(CSCE)の首脳会議が十九日、パリで開幕する。CSCEは来るべき統合欧州の「屋根」としての役割を担い、世界各地域の安全保障体制のあり方にも示唆を与える。東側が西側の価値観を受け入れ、協調しながら欧州統合を目指そうとしているのが今の局面と見ていいだろう。ECの果たす役割は一段と大きくなるが、その中軸である統一ドイツとソ連の接近で、欧州の重心は東の方に移動するだろう。欧州にとって当面の最大の課題は、どうすればソ連・東欧の市場経済化に成功するか、にある。経済改革には十年単位の時間が必要だ。欧州の統合が進めば、米国のプレゼンスは確実に小さくなっていく。米側の対欧州戦略にも注目したい。\subsection*{文章D{\rm([23/Nov/1990],要約率:25.9%)}}\centerline{\large「突然終わった『サッチャーの時代』」}サッチャー英首相は二十二日辞意を表明、一九七九年五月以来の長期政権に終止符を打った。[レーガン前大統領との親密な関係とこれを背景にした]欧州外交の展開には見るべきものがあった。サッチャー首相は、閣内の統一に厳しく、批判閣僚を容赦なく解任した。だが、政権誕生以来首相の股肱の臣だったハウ副首相の辞任は、さすがに首相にこたえたようである。ハウ氏は辞任のあいさつで「過去への感傷にとらわれてはならない」と批判した。サッチャー退陣は、英国の国内政策ばかりでなく、対外政策に大きな影響を及ぼそう。特に、サッチャー首相はブッシュ米大統領の強力な支持者であっただけに、湾岸危機への西側の対応で変化が生じかねない。また、ゴルバチョフ大統領は良き理解者を失うことになり、ソ連の欧州政策にも微妙な影響が出よう。\subsection*{文章E{\rm([25/Nov/1990]要約率:25.8%)}}\centerline{\large「国連の武力行使決議案と日本の選択」}国連安全保障理事会は[イラクのクウェート撤退を求めた]国連諸決議の実効をあげるため、対イラク武力行使を認める新たな決議案の協議に入る。米国や英国政府内部には、[国連憲章で集団的自衛権が認められており、安保理決議がなくともクウェート、サウジなど]紛争関係国の要請と合意に基づく対イラク武力行使はできるという見解がある。国連の重要メンバーであることを自認してはいるが、[いま常任理事国でも理事国でもない]わが国として、どうこの国連外交の重大局面に対処するのか。軍事力行使による解決策に反対するのならば、代替案を明確に表明しなければならないし、そのための外交努力を一段と強化する必要がある。例えば[現実問題として、イラクに撤退決意を促すためにも、米軍など]多国籍軍の増強が必要とみられるが、[戦わず存在し続けるだけでも意義のある]「国際警察軍」の維持費をだれが、どう負担すべきかについて明確にしなければならない。そうした対応を欠けば、湾岸危機は欧米のニッポンただ乗り論の火に油を注ぐ結果になりかねない。\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1969年生.1991年豊橋技術科学大学知識情報工学課程卒業.1993年同大学院修士課程修了.現在同大学院博士後期課程システム情報工学専攻在学中.自然言語処理,特に談話処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{増山繁}{1952年生.1977年京都大学数理工学科卒業.1983年同博士後期課程修了.1982年日本学術振興会奨励研究員.1984年京都大学工学部助手.1989年豊橋技術科学大学知識情報工学系講師.1990年同助教授,現在に至る.グラフ・ネットワークのアルゴリズム,組合せ最適化,並列アルゴリズム,自然言語処理等の研究に従事.工学博士.日本オペレーションズ・リサーチ学会,電子情報通信学会,情報処理学会,ACL等会員.}\bioauthor{内藤昭三}{1955年生.1979年京都大学工学部数理工学専攻修士課程修了.同年NTT入社.現在NTTソフトウェア研究所広域コンピューティング研究部所属.自然言語処理,要求仕様獲得の研究開発に従事.電子情報通信学会,情報処理学会,人工知能学会,ACL,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V05N04-05
|
\section{はじめに}
WWWの普及とともに多言語情報検索,とりわけ,クロス言語検索(crosslanguageinformationretrieval,CLIR)に対するニーズが高まっている.CLIRによって,例えば,日本語の検索要求(キュエリ)によって英語ドキュメントの検索が可能となる.CLIRは,キュエリもしくは検索対象となるドキュメントの翻訳が必要となるので,IRよりも複雑な処理が必要となる\cite{hull97}.CLIRの多くは,キュエリを翻訳した後,情報検索を行なう.キュエリの各タームには,訳語としての曖昧性が存在するため,CLIRの精度は単言語でのIRよりも低い.特に日英間では,機械翻訳の訳語選択と同様に,対訳の訳語候補が多いので困難である\cite{yamabana96}.機械翻訳の訳語選択手法として,コンパラブルコーパスでの単語の文内共起頻度に基づいたDoubleMAXimize(DMAX)法が提案されている\cite{yamabana96,doi92,doi93,muraki94}.DMAX法は,ソース言語コーパスにおいて最大の共起頻度を持つ2つの単語に着目し,その2つの単語の訳語候補が複数ある場合,正しい訳語は,コンパラブルなコーパスにおいても最大の共起頻度を有するという事実に基づいた訳語選択手法である.機械翻訳においては,一つの単語は一意に訳されるべきであるが,CLIRにおいては,キュエリのタームは適切な複数のタームに訳される方が精度良く検索できることもある.シソーラスや他のデータベースによって適切に展開されたキュエリのタームは良い検索結果を導くことが報告されている\cite{trec,trec4}.CLIRにおけるキュエリタームの訳語選択の問題を解決するために,DMAX法を一般化したGDMAX法を提案する.GDMAX法では,コンパラブルコーパスを用いてキュエリタームの共起頻度を成分とする共起頻度ベクトルを生成し,入力キュエリと翻訳キュエリの類似度をベクトルとして計算して類似性の高い翻訳キュエリを選択する.本報告では,まず,CLIRにおけるキュエリの翻訳の課題について説明し,次に,GDMAX法によるキュエリタームの翻訳・生成ついて説明する.GDMAX法に関して,TREC6(TextRetrievalConference)の50万件のドキュメントと15の日本語キュエリを用いて実験したので報告する\cite{trec}.
\section{キュエリタームの訳語選択}
キュエリタームの翻訳では,検索精度が向上するよう適切な訳語集合を得ることが課題である.一般には,表~\ref{queryall}に示すように,ソースキュエリのターム$j_{i}$には,ターゲットキュエリのタームとして対訳辞書から$e_{i1}$,...,$e_{ik}$,...,$e_{ir}$の候補を得る.それぞれのソースキュエリのタームに対して適切な訳語集合を得なければならない.\begin{table}[htbp]\renewcommand{\arraystretch}{}\vspace*{-2mm}\caption{キュエリタームの選択}\begin{center}\begin{tabular}[tb]{|c|c|}\hlineSourcequeryterms&Targetqueryterms\\\hline$j_{1}$&$e_{11}$~~~$e_{12}$~~~...~~~$e_{1p}$\\$j_{2}$&$e_{21}$~~~$e_{22}$~~~...~~~$e_{2q}$\\…&…\\$j_{i}$&$e_{i1}$~~~...~~$e_{ik}$~~...~~~$e_{ir}$\\…&…\\$j_{n}$&$e_{n1}$~~~$e_{n2}$~~~...~~~$e_{nm}$\\\hline\end{tabular}\end{center}\label{queryall}\end{table}キュエリタームの翻訳には,パラレルコーパスやコンパラブルコーパスを用いるコーパスベースの手法,機械翻訳を含めて対訳辞書を用いる辞書ベースの手法,コーパスベースと辞書ベースを統合したハイブリッドな手法,の3種類がある\cite{hull97}.パラレルコーパスは,異なる言語の文書セットで,対訳関係が保証されたものであって,パラレルコーパスによって,キュエリの選択を高い精度で行なうことができるが,一般にはなかなか整備されていないので,適用ドメインが限定される.コンパラブルコーパスは,対訳コーパスほど異言語間で文書の対応が保証されていないが,記述内容の分野的同一性が保証されたものであり,同一の概念や表現がコーパス中に含まれる.コンパラブルコーパスは,収集しやすいが,関連性の低いタームもキュエリの中に含みがちである.また,辞書ベースの手法では,ドメイン毎に適切な訳語を柔軟に得ることが困難である.こういった問題を解決するためにハイブリッドな手法が研究されている.GDMAX法は,対訳辞書とコンパラブルコーパスを用いるハイブリッドな手法で,対訳辞書から得られた訳語候補の中から適切なものをコンパラブルコーパスを用いて抽出する.
\section{GDMAX訳語選択法}
GDMAX法は,DMAX法と同様に,対訳辞書およびコンパラブルコーパスにおけるタームの文内共起頻度を利用する.DMAX法は,ソース言語コーパスにおいて最大の共起頻度を持つ2つの単語に着目し,その2つの単語の複数の訳語候補の中から,コンパラブルコーパスにおける共起頻度を用いて訳語を選択する.DMAXのアルゴリズムは,以下の通りである\cite{doi93}.\begin{enumerate}\setlength{\itemsep}{-1mm}\itemコンパラブルコーパスにおけるタームの1文内の共起頻度をカウントする.\\{j}$_{i}(i=1\cdotsn)$:ソース言語のターム\\{e}$_{ij}(j=1\cdotsm_{i})$:{j}$_{i}$に対する$m_{i}$個のターゲット言語の訳語\\{f}({j}$_{a}$,{j}$_{b}$):ソース言語でのターム{j}$_{a}$,{j}$_{b}$の共起頻度\\{f}({e}$_{ai}$,{e}$_{bj}$):ターゲット言語のターム{e}$_{ai}$,{e}$_{bj}$の共起頻度\item$\max_{p,q}{f}({j}_{p},{j}_{q})$となる{j}$_{p}$,{j}$_{q}$を選択する.\\この段階では,{j}$_{p}$と{j}$_{q}$のターゲット言語の訳語が決定されていない.\item$\max_{r,s}{f}({e}_{pr},{e}_{qs})$となる{e}$_{pr}$,{e}$_{qs}$を選択する.\item{j}$_{p}$のターゲット言語の訳語を{e}$_{pr}$に決定する.\item{j}$_{q}$のターゲット言語の訳語を{e}$_{qs}$に決定する.\itemすべての{j}$_{a}(a=1\cdotsn)$のターゲット言語の訳語が決まるまで,2-5のステップを繰り返す.\end{enumerate}DMAX法は,機械翻訳における訳語選択のために開発されたもので,最大の共起頻度をもつ訳語のペアに着目して,決定的に訳語のタームを探索していく.一方,GDMAX法は,CLIRのために訳語集合を得るもので,ターゲット言語のタームをランキングするために,すべてのタームのペアの文書内共起頻度を考慮しながら探索する.共起頻度データがスパースな場合,ひとつの候補を選択できても,すべての候補をランキングすることは困難である.そこで,GDMAX法では,文内共起頻度よりも文書内共起頻度を用いる.GDMAX法では,ソース言語のキュエリタームとターゲット言語のキュエリタームからコンパラブルなそれぞれの言語コーパスを用いて,各タームの共起頻度を成分とするベクトル,共起頻度ベクトルを生成する.例えば,$n$タームからなる日本語キュエリからは,共起頻度ベクトルの列である${\bfF}_{jap}$が生成される.\begin{eqnarray*}{\bfF}_{jap}=({\bff}_{j}^{1},{\bff}_{j}^{2},..,{\bff}_{j}^{n})\end{eqnarray*}${\bff}_{j}^{p}$は,$~_{n}C_{p}$次元のベクトルで,同一文中の$p$個のタームの共起頻度である.つまり,GDMAX法は,キュエリを表現するために,ベクトル空間法におけるタームの代わりにタームの共起頻度を成分として用いる.以下の式において,${\bff}_{j}^{2}$は,任意の2つのタームが1文書中で共起する頻度から構成される.ここで,$f(j_{i},j_{j})$は,日本語コーパスにおけるターム$j_{i}$と$j_{j}$の共起頻度を正規化した値である.\begin{eqnarray*}{\bff}_{j}^{2}=(f(j_{1},j_{2}),f(j_{1},j_{3}),...f(j_{n-1},j_{n}))\end{eqnarray*}同様に,英語翻訳キュエリの共起頻度ベクトル列${\bfF}_{eng}$は,以下のように表現される.\begin{eqnarray*}{\bfF}_{eng}=({\bff}_{e}^{1},{\bff}_{e}^{2},..,{\bff}_{e}^{n})\end{eqnarray*}表~\ref{queryall}に示すような訳語候補が存在する場合,${\bfF}_{eng}$として,$p*q*r*..*m$通りの可能性が存在する.${\bfF}_{jap}$と${\bfF}_{eng}$の類似性,${\bfSim}({\bfF}_{jap},{\bfF}_{eng})$は,各成分の類似性,${\bfSim}({\bff}_{j}^{1},{\bff}_{e}^{1})$,${\bfSim}({\bff}_{j}^{2},{\bff}_{e}^{2})$,...,${\bfSim}({\bff}_{j}^{n},{\bff}_{e}^{n})$の関数と考えられる.ここでは,類似性${\bfSim}({\bff}_{j}^{p},{\bff}_{e}^{p})$を以下のようにコサインによって定義する.\begin{eqnarray*}{\bfSim}({\bff}_{j}^{p},{\bff}_{e}^{p})=\frac{({\bff}_{j}^{p},{\bff}_{e}^{p})}{|{\bff}_{j}^{p}||{\bff}_{e}^{p}|}\end{eqnarray*}実際には,データスパースネスの問題もあって,3ターム以上の共起頻度は,2タームの共起頻度と比べて無視できるほど小さくなることが多い.また,1タームの出現頻度は,非常に大きく,日英の単語がカバーする意味の違いを考えた場合,類似性における1タームの出現頻度の影響は抑制されるべきである.例えば,「米」というタームには,riceとUSAなどの意味があり,「米」の出現頻度が日本語コーパスにおいて多いからといって,訳語の一つであるriceがコンパラブルな英語コーパスにおいて出現頻度が多いとは限らない.そこで,ここでは,2タームの共起頻度にのみ着目してモデルを簡略化する.つまり,${\bfF}_{jap}$と${\bfF}_{eng}$は,${\bff}_{j}^{2}$と${\bff}_{e}^{2}$を用いて類似性を照合する.類似性は,以下に示すように,${\bfF}_{jap}$とその訳語候補である${\bfF}_{eng}$の内積を計算しコサインによって照合する.\vspace{-4mm}\begin{eqnarray*}{\bfSim}({\bfF}_{jap},{\bfF}_{eng})&=&{\bfSim}({\bff}_{j}^{2},{\bff}_{e}^{2})\\&=&\frac{({\bff}_{j}^{2},{\bff}_{e}^{2})}{|{\bff}_{j}^{2}||{\bff}_{e}^{2}|}\end{eqnarray*}訳語候補は,ベクトルの距離の近いものから順にランキングされる.例えば,日本語キュエリが3つのターム,$j_{1},j_{2},j_{3}$で表現される場合,2つのタームの共起頻度として,$f(j_{1},j_{2})$,$f(j_{1},j_{3})$,$f(j_{2},j_{3})$の3つの値がある.この日本語キュエリは,図~\ref{dmaxspace}の示すように日本語コーパス空間の三角形で表現できる.GDMAX法は,コンパラブルな英語コーパス空間において,$j_{1},j_{2},j_{3}$と相似に近い三角形$e_{1i},e_{2j},e_{3k}$を探索する.ある閾値を越えた類似性をもつ訳語集合が,検索で用いられる英語訳語キュエリタームとなる.\begin{figure}[htbp]\begin{center}\epsfile{file=./compspace.prn,height=5cm,width=8cm}\end{center}\caption{コンパラブルコーパスにおける類似性}\label{dmaxspace}\end{figure}
\section{実験・評価}
\subsection{実験方法}TREC6のドキュメントとトピックを用いて,GDMAX法を実験・評価する\cite{trec,trec4}.TREC6では,図~\ref{topic1e}に示すように,トピックと呼ばれる英語検索要求文が用意されている.それぞれのトピックには,関連があることが人手により確認されたリレバントドキュメントと呼ばれる正解データが準備されている.今回の実験では,図~\ref{topic1j}に示すように,英語トピックと等価な日本語トピックを15作成した.つまり,15の日本語トピックに関しては,英語ドキュメントのリレバントドキュメントが存在しており,この15の日本語トピックを入力として実験を行なう.トピックの内容は,政治,経済,科学,社会的なもので,およそ,50から100のタームのキュエリで表現される.検索対象となる英語ドキュメントは,ウォールストリートジャナールやAP通信などから抽出された約50万件の記事である.\begin{figure}[tb]\vspace*{-4mm}\begin{center}\epsfile{file=./topic1e.prn,height=5cm,width=8cm}\end{center}\caption{TREC英語トピック例}\label{topic1e}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=./topic1j.prn,height=5cm,width=8cm}\end{center}\caption{TREC日本語トピック例}\label{topic1j}\end{figure}訳語集合による検索の効果を確認するために,英語トピックから生成したキュエリによる検索,日本語キュエリの各タームの可能な英語訳語をすべて用いた検索,日本語キュエリの各タームの英語訳語を一つに絞った検索との比較を行なう.図~\ref{expenv}に示すように,以下の4種類の方法で生成された英語キュエリに関して,実験・評価を行なう.英語のキュエリタームの重みは,それぞれのトピックに対するリレバントドキュメントを含むトレーニングデータから与える.評価用のドキュメントには,トレーニングデータは含まない.重みの与え方としては,キュエリタームの全ドキュメント中の出現頻度とリレバントドキュメント中の出現頻度に基づく対数尤度比を用いて行なう\cite{trec4}.検索は,ベクトル空間モデルを用いており,重みつきのベクトルとして表現されたキュエリとドキュメントの内積を計算することでランキングする\cite{trec}.\begin{figure}[tb]\begin{center}\epsfile{file=./expenv2.prn,height=8cm,width=12cm}\end{center}\caption{実験環境}\label{expenv}\end{figure}\noindent{\bf・理想訳語キュエリ(理想訳):}キュエリタームは,人手によって作成された英語タームである.TRECの英語トピックから約50のストップワードを除外し,キュエリのタームとなる英単語を抽出して生成した英語キュエリで,理想訳として扱う.シソーラスや人手によるキュエリの拡張は行なわない.\noindent{\bf・可能訳語キュエリ(可能訳):}キュエリタームは,日英対訳辞書による訳語すべてである.日本語トピックは,形態素解析によって単語単位に分割され,約50のストップワードを除く自立語をタームとし,日英機械翻訳システムの約5万語の一般辞書(対訳辞書)を用いて,それぞれの日本語タームにリンクされた英語訳語すべてを可能訳としてキュエリタームとする.\noindent{\bf・機械翻訳キュエリ(機械翻訳):}キュエリタームは,日英機械翻訳システムによって選択されたものである.日本語トピックは,約5万語の一般辞書(対訳辞書)をもつ日英機械翻訳システムによって英語に翻訳される.英語に翻訳されたトピックは,理想訳語キュエリ生成と同様の手順で,英語キュエリに変換される.対訳辞書は,可能訳語キュエリ生成に用いたものと同一のものである.訳語を一つに絞る方法としては,機械翻訳システム以外に,代表訳語によるもの,DMAX法などコーパスを用いる方法などが考えられるが,ドメインに影響されずに安定した訳出を行なうルールベースの機械翻訳システムを用いることとした.\noindent{\bf・GDMAXキュエリ(GDMAX):}キュエリタームは,GDMAX法によって日英対訳辞書から選択されたものである.共起頻度データは,図~\ref{datamake}に示すように,コンパラブルコーパスと対訳辞書を用いて準備する.日本語トピックは,形態素解析によって単語に分割され,約50のストップワードを除く自立語をタームとして,すべての2つのタームの文書内共起頻度を日本語コーパスにおいてカウントする.日本語タームは,対訳辞書を用いて訳語となり得るすべての英語タームに変換する.対訳辞書は,可能訳と機械翻訳に用いたものと同一のものである.日本語コーパスとコンパラブルな英語コーパスにおいて,英語タームについても,すべての2つの組み合わせの文書内共起頻度をカウントする.例えば,図~\ref{datamake}に示すように,日本語ターム,「危機」と「水」には,英語タームとして,それぞれ,``crisis,precipice,criticalsituation,pinch,imminentdanger,emergency''と``water,aqua,plasma''が存在し,それぞれの組み合わせに対する共起頻度がカウントされる.日本語キュエリと英語キュエリから共起頻度を成分とするベクトルを生成し,ベクトルの類似度計算によって,類似した英語キュエリを求める.今回,ひとつのタームあたり平均3個程の訳語となるように,実験的にベクトルの類似性の閾値を0.85とした.この閾値を越える共起頻度ベクトルをもつすべての英語キュエリを類似キュエリとし,類似キュエリのすべてのタームから構成されるキュエリを作成して検索を行なう.\begin{figure*}[tb]\vspace*{-6mm}\begin{center}\epsfile{file=./datamake.prn,height=8.2cm,width=14cm}\end{center}\caption{共起頻度データの作成フロー}\label{datamake}\end{figure*}\subsection{日英コンパラブルコーパス}共起頻度データは,50万記事ずつの日英コンパラブルコーパスから抽出する.コーパスは,ドメインとサイズに関して,以下の点を考慮して収集した.\noindent{\bf・ドメイン:}実験対象となるドメインが,政治,経済,社会,科学の分野であることから,これらの分野に関する新聞,雑誌記事を収集する.コンパラブルコーパスを用いることの利点の一つは,その収集しやすさであることから,ジャンルや話題の一致などの特別な調整は行なわずに収集を行なう.ただし,新聞記事の時間情報に着目して,日英ともに10年未満のものとし,時間的な共有を図る.実験をオープンテストとするために,検索対象となるドキュメント(TRECドキュメント)は,コーパスの中に含めない.\newpage\noindent{\bf・サイズ:}コンパラブルコーパス作成のために収集した記事の平均的サイズは,日本語約500文字,英語約300単語であり,共起頻度は記事毎にカウントする.コーパスのサイズが小さく共起頻度データがスパースになると,GDMAXの有効性が低下すると予想されるので,共起頻度データが0となるタームの対が,極力少なくなるまでデータを収集する.データサイズは,大きければ大きいほどデータスパースネスの問題は解消されるが実験コストが大きくなる.今回のトピックを用いて実験するために,9,815対の日本語キュエリタームの共起頻度データが必要であり,英語タームは,すべての訳語候補の組合せとして,166,111対の共起頻度データが必要であった.日英50万件の記事を収集した時点で,頻度0の日本語ターム対は96対,英語ターム対は2,503対となった.ターム対総数に対する0件のターム対の割合が,日英ともに1〜2\%程度であり,共起頻度0のターム対がほとんど増加しなくなったので,データスパースネスの問題は少ないと判断し,かつ,現実的に実験可能なサイズであることから,50万件ずつのコンパラブルコーパスを用いて実験を行なうこととした.\subsection{実験結果}4つの方法で生成されたキュエリの各タームに先に述べたように対数尤度比によって重みをつけ,ベクトル空間モデルによってドキュメントとの類似性を計算する.キュエリベクトルとドキュメントベクトルとの内積によってランキングされた1000件のドキュメントが,各キュエリ毎に出力される.適合率/再現率は,TRECの評価方法に基づいて4種類のキュエリによる検索結果に対して計算した\cite{trec}.TRECでは,各キュエリ毎にリレバントドキュメントが用意されており,このデータをもとに,interpolatedprecision-recallcurveを描く.これは,リレバントドキュメントの10\%,20\%,30\%,40\%,50\%,60\%,70\%,80\%,90\%,100\%を含むように上位の検索結果をとった場合の精度をプロットして曲線を描くもので,それぞれ4つの方法に対して,15件のキュエリの平均をプロットした結果,図\ref{result}に示すような適合率/再現率曲線(precision-recallcurve)を得ることができた.\vspace*{0.5cm}\begin{figure}[htbp]\vspace*{-8mm}\begin{center}\epsfile{file=./eval2.prn,height=10cm,width=12cm}\end{center}\vspace*{-1cm}\caption{適合率/再現率曲線}\label{result}\end{figure}\vspace*{0.5cm}
\section{考察}
GDMAX法は,理想訳に比べて再現率の各ポイントの平均で約62\%の精度を得た.また,機械翻訳による手法と対訳辞書による手法と比べて,適合率/再現率ともに高い結果を得た.特に,実際にユーザがブラウズすることが多い再現率10\%までの精度に関して,GDMAX法は,機械翻訳による手法に比べて,約6\%,対訳辞書による手法と比べて,約12\%高い精度を得た.理想訳のキュエリよりも低かったのは,主に2つの理由による.第1は,対訳辞書が十分な語彙を持っていなかったことである.理想訳語が対訳辞書のエントリとして含まれていない場合と,エントリとしては存在するが,入力訳語の対訳としてのパスがない場合がある.IRにおいては,専門用語や固有名詞が精度の向上に大きく寄与する.今回,5万語の一般的な語彙に関する対訳辞書を用いたので,必ずしも専門用語や固有名詞の語彙が十分ではなかった.そのため,3つの手法によるキュエリの精度がすべて低くなっている.対訳の中に的確な訳語が含まれていなかったので,GDMAX法が正しい訳語を選択できなかった.第2は,タームの重み付けの問題である.タームの重みは,それぞれのトピックに対するリレバントドキュメントから計算されて付与されているが,GDMAX法によって得られた類似性の割合も考慮すべきである.類似性が低いタームであっても類似性の高いタームと同様の重みがつけられたことが,検索精度として大きな差を生じなかった原因と考えられる.今回の実験結果を基に,以下の課題に取り組む予定である.\noindent{\bf・対訳辞書}キュエリを翻訳するための適切な訳語を辞書の中に含むように対訳辞書を改良する.改良した対訳辞書を用いて,GDMAX法によるキュエリ,機械翻訳によるキュエリ,可能訳語すべてのキュエリ,TRECの英語トピックから作ったキュエリによる,4つの検索精度を比較する予定である.また,対訳辞書を改良した後,訳語選択能力を評価する.予め入力訳語ごとに選択されるべき訳語(集合)を明らかにしておき,選択能力を適合率と再現率で評価する.選択されるべき訳語とは,検索精度をベストにするものであるべきだが,ここでは,検索能力と訳語選択能力を切り分けるために,理想訳語およびその同義語を選択すべき訳語として評価する.\noindent{\bf・タームの重み調整と閾値の設定}今回の実験で,GDMAX法によるキュエリのタームの重みは,ベクトルとしての類似性を考慮しなかった.基本的には,タームの重みに類似度を掛け合わせて調整を図る必要がある.その時,ワードネットのようなシソーラスを用いて重み調整をコントロールする\cite{WORDNET}.例えば,類似性の高いベクトルの訳語タームと類似性が低いベクトルの訳語タームが,シソーラスによって同義語関係があることが保証された場合,タームの重みを調整する必要はないと考えられる.タームの重みの調整方法は,実験的に最適なものを見つけていく.また,今回の実験では,平均選択訳語数の観点から類似度の閾値を設定したが,閾値は,検索精度が最適となるように設定されるべきものである.実験的に最適な閾値を求めていく.類似ベクトルの選択方法としては,類似度の絶対値を閾値とするのではなく,類似度の差分を用いる方法も考えられる.例えば,ランキングされたベクトルの1位と2位の差分,2位と3位の差分,…というように差分を比較して,その差分がある一定の値を超えたところを境界として選択することができる.他の統計的な手法も含めて,ランキングされたベクトルからの選択手法について検討する.\noindent{\bf・多次元的な類似性照合}今回のモデルでは,2タームの共起頻度,${\bff}_{j}^{2}$に着目して,${\bfF}_{jap}$と${\bfF}_{eng}$の類似性を照合した.厳密には,${\bfF}_{eng}$の他の次元の共起頻度ベクトルも${\bfF}_{jap}$と照合されるべきである.例えば,次元毎の重み$w_{p}$を各次元の類似度に掛け合わせて以下のような総合的な類似性が考えられる.\begin{eqnarray*}{\bfSim}({\bfF}_{jap},{\bfF}_{eng})=\sum_{p=1}^{n}{w}_{p}{{\bfSim}({\bff}_{j}^{p},{\bff}_{e}^{p})}\end{eqnarray*}計算が複雑になるので探索アルゴリズムを工夫する必要はあるが,少なくとも,主成分分析や他の統計的手法によって,重要な次元を認定する必要がある.\noindent{\bf・コーパスへの依存性}コンパラブルコーパスは,パラレルコーパスに比べて収集しやすく,ドメインへの依存性が少ない.さらに,本方式では,訳語を複数選択するので,訳語を一つに選択する手法よりもドメイン依存の影響は小さいと考えられる.その代わり,不要な訳語がキュエリに含まれる可能性が増えるが,選択された訳語集合の個々のタームにリレバンスデータから計算された重みをつけるので,不要な訳語の検索への悪影響を抑制することができる.実験によって,すべての訳語に重みをつけたもの(可能訳キュエリ)と,一つに選択したものに重みをつけたもの(機械翻訳キュエリ)の双方よりも精度が上回ったので,訳語集合としての選択と重み付けは効果があったと考えられる.しかしながら,その精度は,作成された共起頻度データの質に依存するものであり,共起頻度データの質的評価方法の確立が必要である.一つの方法として,パラレルコーパスとの比較において,コンパラブルコーパスの質を評価することが考えられる.パラレルコーパスによる共起頻度データを用いた方が,より正確に類似度の高い共起頻度ベクトルを求めることができるので,訳語集合を選択するためには好ましい.コンパラブルコーパスによる共起頻度データと,パラレルコーパスによる共起頻度データとの差異が,一つの質的評価基準となりうると考える.コンパラブルコーパスのいずれかの言語に関してパラレルコーパスを作成して,パラレルコーパスにおける共起頻度データとコンパラブルコーパスにおける共起頻度データを比較することができれば,コンパラブルコーパスとパラレルコーパスのずれを分析できるが,大量データでの実現は困難である.そこで,いくつかのドメインをサンプリングして,小規模でもパラレルコーパスとコンパラブルコーパスを作成して評価する方法が考えられる.例えば,すでにパラレルコーパスが存在するものをいくつかの異なる分野で収集して,パラレルコーパスと同じ分野のコーパスを類似文検索の手法を用いてそれぞれの言語で独立に収集することによって,コンパラブルコーパスを作成する.また,実際に収集したコンパラブルコーパスの中には,パラレルコーパスとなっているものもある.対訳辞書と統計情報を用いてテキスト照合を行なうことにより,パラレルコーパス部分を抽出することも可能だと考えられる\cite{Utsuro94al}.パラレルコーパス部分とコンパラブルコーパス部分を分離して,共起頻度データを作成して比較することで,コンパラブルコーパスの質の評価が可能になる.さらに,コーパスの量に関する評価として,コーパスの量と検索精度の関係を明らかにする必要がある.現状の50万記事以上を集めるのは,必ずしも容易ではないので,量を減少させた場合の検索精度の変化を測定する予定である.その際には,コーパスに含まれる記事のドメインの割合が同じくなるように変化させることが必要と考える.今後,上述した手法でコーパスの質と量に関する分析を行ない,コンパラブルコーパスの収集方法と質的・量的評価手法を確立していく.
\section{関連研究}
CLIRのシステムは利用するリソースから以下のように分類される\cite{hull97}.\noindent{\bf・コーパスベースシステム}コーパスベースシステムは,パラレルコーパスやコンパラブルコーパスをキュエリの翻訳のために用いる.LSI(LatentSemanticIndexing)は,行列の次元を縮退させる手法で,パラレルコーパスから言語に依存せずに,タームとドキュメントを表現することができる\cite{14,17}.LSIは,パラレルコーパスから抽出したタームとドキュメントの対応をターム/ドキュメント間頻度マトリクスに,特異値分析法(singularvaluedecomposition)を適用して,次元数を縮退し新たな空間を形成するベクトルを抽出する.LSIが,トレーニングコーパス以外のドメインでどの程度有効なのかは明らかではない.ETHは,疑似的なパラレルコーパスとシソーラスを用いて類似のキュエリタームを拡張しながら,ドイツ語キュエリをイタリア語キュエリに変換した\cite{26}.シソーラスを用いた類似性判定では,タームの分布状況によって,ドキュメントにまたがるタームを関連つける.拡張されたイタリア語キュエリタームが,イタリア語ドキュメントと照合される.この手法は,平均適合率で単言語の検索の約半分の精度を得たが,ドメイン依存の問題点がある.また,機械翻訳のためにコンパラブルコーパスから単語レベルの訳語知識を抽出する手法がいくつか提案されている\cite{Fung95,Fung97,Rappo95,Kaji96,Tanaka96}.訳語集合抽出に活用できる手法については比較・検討し,GDMAX法の改良のために参考としていく.\noindent{\bf・辞書ベースシステム}辞書ベースシステムは,対訳辞書によってタームやフレーズを翻訳しすべての翻訳結果を結合してキュエリを生成する.SPIRITは,ターム,複合語,イディオムの辞書を用いてキュエリタームを翻訳しブーリアンモデルによって検索する\cite{23}.この辞書ベースのシステムは,単言語検索の75-80\%の精度を得たが,機械翻訳システムでは,60-65\%の精度であった.この性能は,ドメイン対応辞書を作ってキュエリをマニュアル編集した結果によるものであり,機械翻訳においても,ドメイン辞書を用意して比較したものである.我々も,対訳辞書をドメインに適応させた後,GDMAX法に関して同様の比較実験を行なう予定である.辞書ベースシステムに関して,DavidHullは,自身のシステムの実験の中でキュエリの約20\%は,キュエリ翻訳の訳語の曖昧性の問題により,不適切なものになっていることを報告している\cite{hull97}.対訳辞書の改良とともに,GDMAX法に関しても同様の分析を行なう.\noindent{\bf・ハイブリッドシステム}ハイブリッドシステムは,キュエリ翻訳のために,辞書,コーパス,ユーザインタラクションなどを組み合わせて用いるもので,GDMAX法は,この範疇に属する.日英の言語対の報告ではないが,以下の評価結果とGDMAX法の結果を比較検討する予定である.マサチュセッツ大学では,翻訳前と翻訳後のフィードバックを用いる手法を提案している\cite{1}.キュエリの拡張には,キュエリタームと高頻度で共起するタームを選択する自動フィードバック手法が用いられている.キュエリ拡張は,ソース言語で翻訳前に,ターゲット言語で翻訳後に行なう.翻訳前のフィードバックは,検索結果と関係のないコーパスを用いて,翻訳後のフィードバックは,検索結果のコーパスを用いて行なわれる.はじめは,単言語検索の40-50\%の精度だったものが,キュエリ拡張により,60-65\%まで向上した\cite{1}.ニューメキシコ州立大学は,品詞タガーを使って,同じ品詞の訳語だけを選択するようにしている.さらに,各タームの訳語候補の中から,パラレルコーパス中のアラインメントされた文に着目して,最も対応性の高い訳語を選択する.CLIRの精度は,初期翻訳では40-50\%の精度であったが,この2段階の訳語絞り込みにより70-75\%の精度となった\cite{5}.CNRは,コンパラブルコーパスを用いた自動キュエリ翻訳の手法を提案している\cite{20}.ソース言語のキュエリタームは,限られた範囲内で共起する単語集合というプロファイルで表現される.ターゲット言語のキュエリタームに関しても同様のプロファイルが作成される.ソース言語のプロファイルは,対訳辞書を用いて翻訳され,ターゲット言語のプロファイルと最も類似しているものが認定される.その中で上位のターゲット言語のタームが,翻訳キュエリとして用いられる.この手法は,ソース言語キュエリとターゲット言語キュエリをプロファイルという別の形式で表現し比較する点において,GDMAX法と類似しているが,共起する単語というインスタンスで表現している点で異なる.GDMAX法は,共起頻度という数値と共起の次元数も複数とれるので,より一般的な記述と考えられる.CNRについては,具体的な評価結果が報告されていないが,同様の実験を日英に関しても行なって比較評価していきたい.
\section{おわりに}
本稿では,クロス言語情報検索のためのキュエリ翻訳手法として,GDMAX法を提案した.GDMAX法をTREC6の50万件の英語ドキュメントと15の日本語キュエリを用いて実験評価したところ,理想訳に比べて再現率の各ポイントの平均で約62\%の精度を得た.また,適合率/再現率において,機械翻訳を用いる方法,対訳辞書を用いる方法よりも高い精度を得た.今後は,対訳辞書を整備しシソーラスと統合するとともに,GDMAX法の一般化によって検索精度の向上を図っていく予定である.\acknowledgment本研究を進めるにあたって,DMAX法に関して,C\&Cメディア研究所音声言語TGの土井伸一氏より,また,関連研究並びにGDMAX法の検討にあたって,C\&Cメディア研究所音声言語TGの山端潔氏より,有意義なコメントを頂きました.また,東京工業大学の田中穂積教授と徳永健伸助教授からは,論文作成にあたり大変貴重なコメントを頂きました.\bibliographystyle{jnlpbbl}\bibliography{draft}\newpage\begin{biography}\biotitle{略歴}\bioauthor{奥村明俊}{1984年京都大学工学部精密工学科卒業.1986年同大学院工学研究科修士課程修了.同年,日本電気株式会社入社.1992年10月より1年半南カリフォルニア大学客員研究員としてDARPA機械翻訳プロジェクトに参加.現在,C\&Cメディア研究所,主任研究員.自然言語処理,自動通訳システムの研究に従事.情報処理学会,人工知能学会,ACL各会員}\bioauthor{石川開}{1994年東京大学理学部物理学科卒業.1996年同大学大学院修士課程修了.同年,日本電気株式会社入社.1997年ATR音声翻訳通信研究所出向.現在,第三研究室,研究員.音声翻訳,情報検索の研究に従事.情報処理学会会員}\bioauthor{佐藤研治}{1989年京都大学工学部情報工学科卒業.1991年同大学院工学研究科修士課程修了.同年,日本電気株式会社入社.現在,C\&Cメディア研究所,主任.自然言語処理,情報分類の研究に従事.情報処理学会,人工知能学会,各会員}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N05-05
|
\section{はじめに}
本研究の目的は自然言語の意味理解に必要な連想システムの開発である.例えば,“冷蔵庫に辞書がある”と人間が聞けば,冷蔵庫に辞書があることを奇妙に思い“本当ですか”と聞き返したり,誤りの可能性を考えることができるだろう.しかし,計算機ではこのような処理は困難である.これは,人間なら冷蔵庫と辞書には関係がないことを判断できたり,最初の冷蔵庫という語から辞書を連想することができないためである.このような語間の関係の強さを求める機能や,ある語に関係のある語を出力する機能を持った連想システムの開発が本研究の目的である.従来,連想ではシソーラスや共起情報などがよく用いられるが,シソーラスでは語の上位下位関係を基本とした体系しか扱えず,共起情報では人間の感覚とは異なる場合も多く十分ではない.本研究において,連想システムは語の意味と概念を定義する概念ベースおよび概念ベースを用いて語間の関連の強さを評価する関連度計算アルゴリズムで構成されている.最初の概念ベース(基本概念ベース)は複数の国語辞書から機械構築され,語は属性とその重みのペア集合により定義される.語は国語辞書の見出し語から,属性は説明文の自立語から,その重みは自立語の出現頻度をベースに決定されている\cite{Kasahara1997}.概念ベースは大規模であるため,一度に完成させることは困難であり,継続的に構築する必要がある.機械構築した概念ベースは,不適切な属性(雑音)が多く含まれ,自立語の出現頻度による重みでは,属性の意味的な重要性を正確に表現しているとは言えない.そこで,概念ベースの属性や重みの質を向上する精錬が必要となる.本稿では精錬方式として属性の確からしさ(属性信頼度)\cite{Kojima2001}を用いた重み決定方式を提案している.以下,2章では概念の定義と概念ベースについて述べる.3章では概念ベースの構築や評価に用いる関連度の定義について述べる.4章では属性信頼度を用いた概念ベースの精錬方式について述べる.5章では概念ベースの評価法について述べ,精錬後の概念ベースの評価結果について考察する.
\section{概念の定義と概念ベース}
概念ベースにおいて語Aの意味は語$a_i$とその重み$u_i$($0<u_i\le1$)の集合としてモデル化されている(式\ref{eq:conceptA}).語Aの意味の定義に使われる語$a_i$を属性と呼ぶ.概念ベースにおいて,全ての属性は必ず語として意味が定義されている.なお,属性はその重みが0になった時点で概念ベースから論理的に存在しなくなる.\begin{equation}{\rmA}=\{(a_1,u_1),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\label{eq:conceptA}\end{equation}本研究において,概念は概念ベースによって定義される無限に続く属性の連鎖としてモデル化されている(図\ref{fig:con_img}).概念Aとは,語Aの属性$a_i$,さらに属性$a_i$を語として見たときの属性と言うように続く属性の連鎖である.属性の連鎖は無限に続くが,実際に概念を用いる処理では2回程度の有限の連鎖を用いる.概念Aにおいて,1連鎖目の属性,すなわち語Aの属性$a_i$を1次属性,2連鎖目の属性,すなわち属性$a_i$の属性を2次属性と呼ぶ.単に属性と呼ぶ場合は1次属性を指す.本稿において,概念は人間の頭に浮かぶ事物のイメージに対応するものであり語は概念の表現であるととらえている.なお,本稿では語の多義性については考慮していない.将来的に,多義性に対しては辞書により分類された意味ごとに概念を分割して対応するつもりである\cite{Yamanishi2001}.このように,語とその概念は一対一に対応し密接に結びついて定義されているため,語と概念という用語の使い分けはあまり意味がない.以降では,特別の理由がない限り語と概念の使い分けを厳密には行っていない.\begin{figure}[ht]\begin{center}\epsfile{file=fig/con_img.eps,scale=1.0}\caption{概念ベースと概念の構造}\label{fig:con_img}\end{center}\end{figure}本研究における精錬の対象である基本概念ベース(基本CB)は,次のように構築されている\cite{Kasahara1997}.まず,複数の国語辞書から説明文中の自立語を見出し語の属性として取得し,属性の重みをその出現頻度をベースに決定した概念ベースを構築する.次に,ある語Aの持つ属性に,語Aの属性の属性や,語Aを属性として持っている語を加え,実験や情報量によって重みを決定する.最後に,重みが小さい属性を削除する.このときの閾値は,サンプリングした属性を人手で調べることにより決定している.このように作成した基本CBの語は約3万4千種類,属性は重複を許して数えると約150万ある.基本CBには雑音も取得され,さらに不適切な重みが付与されている.この基本CBの雑音を削除し,適切な重みを付与する方式の開発が本研究のねらいである.
\section{関連度の定義}
関連度とは語と語の関連の深さを定量化した0から1の値で,関係が深いほど大きな値となる.関連度の計算には様々な方式があるが\cite{Utsumi2002},本研究では関連度計算方式として2連鎖までの属性を比較する方式\cite{Watabe2001}を採用している.この方式は,概念ベースのようなデータを用いる関連度計算方式の一つであるベクトルの余弦を用いる方式より良好な結果が得られることがわかっている\cite{Watabe2001}.以下では,まず関連度計算に用いる一致度の定義について述べ,その後で関連度の定義について述べる.一致度は語の1次属性がどの程度一致しているかを示す0から1の値で,以下のような定義となっている.一致度を求める2語をA,Bとする.語Aは式1の通りで,語Bは次のようになっている.\begin{equation}{\rmB}=\{(b_1,v_1),\cdots,(b_i,v_i),\cdots,(b_M,v_M)\}\label{eq:conceptB}\end{equation}このときの語A,Bの一致度$\match({\rmA},{\rmB})$は次のようになる.\begin{equation}\match({\rmA},{\rmB})=\frac{1}{2}\left(\frac{U_m}{U}+\frac{V_m}{V}\right)\label{eq:mach}\end{equation}ただし,$U_m$は$a_i=b_j$が成り立つ$u_i$の合計,$V_m$も同様で$a_i=b_j$が成り立つ$v_j$の合計である.$U$,$V$は次のようになる.\begin{equation}U=\sum_{i=1}^{L}u_i\label{eq:U}\end{equation}\begin{equation}V=\sum_{i=1}^{M}v_i\label{eq:V}\end{equation}関連度を求める2語をA,Bとする.語A,Bはそれぞれ式\ref{eq:conceptA},\ref{eq:conceptB}のように定義され,属性数の多い方をAとする.したがって,$L\geM$である.まず,A,Bの属性を一対一で対応付ける.このとき,対応付けられた属性間の一致度の合計が最大になるようにする.ただし,これは組み合わせ最適化問題であり最適解を求めるのは厄介である.そこで,属性の全ての組の中で最も一致度の大きな組から順に対応を決めている.Aの属性を並べ替えて${\rmA}'$を作る.${\rmA}'$の第$i$属性はBの第$i$属性と対応する.Bの属性に対応しなかったAの属性は無視する.したがって,${\rmA}'$の属性数は$M$となる.\begin{equation}{\rmA}'=\{(a'_1,u'_1),\cdots,(a'_i,u'_i),\cdots,(a'_M,u'_M)\}\label{eq:conceptA'}\end{equation}関連度$\Rel({\rmA},{\rmB})$は次のようになる.\begin{equation}\Rel({\rmA},{\rmB})=\frac{1}{2}\left(\frac{U'_m}{U}+\frac{V'_m}{V}\right)\label{eq:Rel}\end{equation}ただし,$U$,$V$はそれぞれ式\ref{eq:U},\ref{eq:V}の通りで,$U'_m$,$V'_m$は次のようになっている.\begin{equation}U'_m=\sum_{i=1}^{M}\match(a'_i,b_i)u'_i\label{eq:U'_m}\end{equation}\begin{equation}V'_m=\sum_{i=1}^{M}\match(a'_i,b_i)v_i\label{eq:V'_m}\end{equation}このような関連度の定義から,語間の関連度の妥当性は結局,概念ベースがいかに適切に構築されているかに依存することになる.以下の節では,概念ベースの精錬方式について述べる.
\section{概念ベースの精錬}
\subsection{精錬の流れ}提案する概念ベース精錬方式は,属性信頼度の計算,属性の分類,重みの決定からなる.ここでは,概念“雪”の例(図\ref{fig:refine_cb})を用いてその流れを述べる.\begin{figure}[ht]\begin{center}\epsfile{file=fig/refine_cb.eps,scale=1.0}\caption{概念ベースの精錬の例}\label{fig:refine_cb}\end{center}\end{figure}属性信頼度の計算(図\ref{fig:refine_cb}-1)では,様々な手がかり毎に属性信頼度を取得し,複数ある属性信頼度を一つの属性信頼度に合成する.属性信頼度とは語と属性の間にある関係の確からしさを定量化した0\,\%から100\,\%の値である.このとき用いる各手がかり,属性信頼度の合成については後の節で述べる.図\ref{fig:refine_cb}-1では,各手がかり毎の属性信頼度を合成した結果を示している.属性の分類(図\ref{fig:refine_cb}-2)では,属性信頼度により表\ref{tb:reli_class}のように属性を分類する.図\ref{fig:refine_cb}-2では,表\ref{tb:reli_class}の分類方法に従い,属性信頼度が100\,\%,65\,\%,100\,\%,84\,\%の属性を,それぞれ,信頼度1,信頼度3,信頼度1,信頼度2クラスに分類している.基本的に属性は属性信頼度によって分類されるが,さらに詳細に重み付けを行うために属性信頼度100\,\%の信頼度1クラスについてはより細かく分けている.なぜなら,信頼度1クラスに分類された属性は,それが定義する語と同義,類義,上位下位の3種類の論理的関係(表\ref{tb:log_data})にある属性で構成しており,これらの重みは当然異なることが想定できるからである.このような理由から,信頼度1クラスの属性は,重み付けのクラス分けとして更に同義クラス,類義クラス,上下クラスに分類している.属性の分類は,同じクラスに分類された属性に同じ重みを付けることを目的としている.属性信頼度によって属性を分類するのは,属性の重みは語と属性との関係に大きく依存しているという考えに基づいている.\begin{table}[ht]\begin{minipage}{.48\linewidth}\begin{center}\caption{属性信頼度による分類}\label{tb:reli_class}\begin{tabular}{cl}\hlineクラス&属性信頼度(\%)\\\hline信頼度1&100\\信頼度2&80以上100未満\\信頼度3&60以上80未満\\信頼度4&40以上60未満\\信頼度5&20以上40未満\\信頼度6&0以上20未満\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{論理的関係のデータの例}\label{tb:log_data}\begin{tabular}{ccc}\hline語&語&関係\\\hline書籍&本&同義\\書籍&辞書&上位下位\\字引&辞書&同義\\雪&吹雪&類義\\\hline\end{tabular}\end{center}\end{minipage}\end{table}重みの決定(図\ref{fig:refine_cb}-3)では各クラスの重みを学習用データを使って実験的に決定する.これは,どのような関係がどのような重みになるかは人間にもわからないためである.今回は重みを決定するために,次のような試行実験を行った.信頼度2クラスを常に基準値1とし,信頼度3,4,5,6のクラスの重みには,1,0.5,0.25,0を試行した.ただし,試行数を抑えるため信頼度クラスの試行では属性信頼度が高いクラスの重みより低いクラスの重みが大きくならないような試行を行った.また,信頼度1クラスを細分して作ったクラスである同義,類義,上下クラスには,16,8,4,2,1,0.5,0.25,0を試行した.実験では以上の全ての組み合わせである17,920通りの実験を行った.重みの決定では,属性信頼度をそのまま重みにする方法も考えられるが,信頼度と重みが一致しているという保証がないため重みは実験的に決めている.図\ref{fig:refine_cb}-3は,各クラスの重みに様々な値を試行している過程を示している.このように決定された重みは,最大が1.0となるように正規化され,最終的な概念ベースの重みとなる.\subsection{属性信頼度を導く手がかり}属性信頼度は様々な手がかりを用いて求めるが,その手がかりから導かれる各属性の属性信頼度は,人間による属性の評価を用いて次のように決定する.まず,基本CBから100語をサンプル語として選び出し,サンプル語の属性であるサンプル属性が適切かどうかの判定を人間が次のように行う.判定するのは3人の学生で,各属性に対して適切,どちらでもない,不適切の3段階の評価を行う.誰にも不適切と判定されなかった属性を適切な属性,誰か一人でも不適切と判定した属性を不適切な属性として処理している.評価者の人数が3人と言うのは一見少ないように思えるが,極めて常識的に判断できる属性の評価ができればよいとしているので,3人で十分と考えている.こうして得られた判定結果を用いて,各手がかりとサンプル属性の適切な率との関係を調べる.例えば,手がかりの一つである関連度の場合,サンプル属性を関連度により何グループかに分ける.その後,各グループにおいて人間に適切と判断された属性の率を参考に,そのグループの関連度から導かれる属性の属性信頼度(関連度)を決める.なお,手がかり$n$から直接的に導かれた属性信頼度は属性信頼度(手がかり$n$)と表記する.以下では,個々の手がかりとそこから導かれる属性信頼度について述べる.なお,ここでは語$a_i$は語Aの属性としている.\subsubsection{語と属性の一致による属性信頼度(属性一致)}語Aと属性$a_i$が等しければ語Aと属性$a_i$は関係があることは間違いないため,属性$a_i$の属性信頼度(属性一致)は100\,\%である.同時に,語Aと属性$a_i$が同義であることがわかる.このような属性は概念ベース全体に約10,000語存在している.語Aの属性に語Aを用いるのは矛盾しているようにも見えるが,概念ベースの重要な利用法である関連度計算から見ると,次のような理由で有効であると考えている.語Bの属性として語Aが使われ,それが適切であるとする.このとき,語Aの属性として語Aが使われていれば,語Aと語Bの関連度は上昇する.この上昇は関連のある語同士にしか起こらないため適切な上昇である.したがって,関連度計算において語と同じ語が属性として使われることに問題はない.さらに,実験により,語Aの属性に語Aがあった方が評価結果が良いことも確認している.\subsubsection{関係データから得られる属性信頼度(関係データ)}語Aと属性$a_i$の間に関係データ(表\ref{tb:log_data})において論理的関係が定義されている場合,属性$a_i$の属性信頼度(関係データ)は100\,\%になると同時に,語Aと属性$a_i$の間にある論理的関係も明らかになる.関係データとは,電子化国語辞書の解析\cite{Kojima2000}により機械的に作成した語間の論理的関係のデータである.本研究で扱う論理的関係とは国語辞書の記述から得られる語間の同義,類義,上下の関係である.また,同義,類義の境界は明確には定義しにくいが,本研究では国語辞書の記述に従っている.見出し語の類義語であると記述されている場合が類義であり,同義であると記述されている場合が同義であるとしている.\subsubsection{基本CBにおける属性の重みから得られる属性信頼度(頻度重み)}基本CB構築時の出現頻度に基づく重みが大きければ属性$a_i$が語Aの属性として適切である可能性が高い.重みと適切な属性の率の関係は図\ref{fig:wei-reli}のようになっている.図\ref{fig:wei-reli}の横軸は重みの範囲を示している.例えば,横軸の0.01の部分は重みが0.01以上0.02未満の属性を示す.重みは0から1.0の値であるが,分布には偏りがあり0.1以上1.0以下の値は非常に少ないのでグラフでは0.1以上1.0以下を一つにまとめている.基本CBの属性の重みから属性信頼度を求める場合,適切な属性の率を属性信頼度(頻度重み)とし,図\ref{fig:wei-reli}から求める.重みが属性の適不適を判別する能力を見るために,図\ref{fig:wei-num}に重みと属性数の関係を示す.横軸は図\ref{fig:wei-reli}と同じである.図\ref{fig:wei-num}に示すように,適切な属性の率が80\,\%以上となる重み0.09以上の属性は約280個と少なく,図\ref{fig:wei-reli}には適切な属性の率が20\,\%より低い部分はない.また,図\ref{fig:wei-num}から重みが0.01から0.04の属性が多いことがわかるが,この部分の適切な属性の率は図\ref{fig:wei-reli}から50\,\%前後であり,属性として適切かどうかを判断しにくい.この2点から,基本CBの重みだけでは,多くの属性において採用か削除かの判断がしにくいことがわかる.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/wei_reli.eps,scale=1.0}\caption{重みと適切な属性の率の関係}\label{fig:wei-reli}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/wei_num.eps,scale=1.0}\caption{重みと属性数の関係}\label{fig:wei-num}\end{center}\end{minipage}\end{figure}\subsubsection{関連度から得られる属性信頼度(関連度)}語Aと属性$a_i$の関連度が高ければ,属性$a_i$が語Aの属性として適切である可能性が高い.関連度と適切な属性の率の関係は図\ref{fig:da-reli}のようになっている.図\ref{fig:da-reli}の横軸は関連度の範囲を示している.例えば,横軸の0.1の部分は関連度が0.1以上,0.2未満の属性を示す.関連度から属性信頼度(関連度)を求める場合,適切な属性の率を属性信頼度(関連度)とし,図\ref{fig:da-reli}から求める.関連度が属性の適不適を判別する能力を見るために,図\ref{fig:da-num}に関連度と属性数の関係を示す.横軸は図\ref{fig:da-reli}と同じである.図\ref{fig:da-num}から関連度が0.1前後の属性が多いことがわかるが,関連度が0.1の適切な属性の率は図\ref{fig:da-reli}から約50\,\%である.2番目に属性の多い関連度が0の部分では,適切な属性の率が25\,\%と比較的低く,3番目に属性の多い関連度が0.2の部分では,適切な属性の率が75\,\%と比較的高くなっている.以上から,基本CBの重みと比べると,関連度の属性の判別能力が高いことがわかる.関連度は重みを用いて計算するため,重みと同価値の手がかりに見えるが,次のような点で異なる.属性$a_i$の重みは基本的に語Aの説明文における出現頻度から得た値である.一方,関連度は語Aとその属性$a_i$を語と見たときのそれぞれの属性全体の一致数から導かれ,図\ref{fig:wei-num}と図\ref{fig:da-num}の比較からわかるように重みとは異なる傾向を持つ.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/da_reli.eps,scale=1.0}\caption{関連度と適切な属性の率の関係}\label{fig:da-reli}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/da_num.eps,scale=1.0}\caption{関連度と属性数の関係}\label{fig:da-num}\end{center}\end{minipage}\end{figure}\subsubsection{漢字一致から得られる属性信頼度(漢字一致)}語Aの綴りにある漢字と属性$a_i$の綴りにある漢字が一致しているかどうかという手がかりである.語Aと属性$a_i$の漢字が一致していれば,漢字は表意文字であるため両者が関係している可能性,すなわち属性$a_i$が語Aの属性として適切である可能性が高い.語Aと漢字が一致している属性$a_i$が属性として適切な率は実験により73\,\%であることを確認している.\subsubsection{相互属性から導く属性信頼度(相互属性)}属性$a_i$は語Aの属性であるが,さらに語Aが語$a_i$の属性として使われている場合,属性$a_i$を語Aの相互属性と呼ぶ.これは,語Aと$a_i$に対応する国語辞書の説明文における語の出現頻度を調べた結果,どちらの説明文からも語Aと語$a_i$の間に関係がある可能性があると判断されたことを意味する.したがって,語Aの属性$a_i$が相互属性である場合,相互属性から導かれる属性信頼度(相互属性)として,語$a_i$の属性Aの基本CBにおける重みから導かれる属性信頼度(頻度重み)を用いることができる.\subsection{属性信頼度の合成}属性信頼度は確率のような値であるため,一つの属性に対して複数の属性信頼度がある場合,計算により一つに合成できる.ある属性$a_i$に対して統計的に独立した2つの手がかり1,2から属性信頼度$p_1$,$p_2$が得られたとき,このときの属性$a_i$の属性信頼度$P$は次のようになる.\begin{equation}P=\frac{p_1p_2}{p_1p_2+(1-p_1)(1-p_2)}\label{eq:integ_reli}\end{equation}ただし,実際に属性信頼度を導く全ての手がかりが完全に独立である可能性は低いため,本研究では各手がかりの間にある程度の独立性が期待できれば良いとしている.この式は次のように導かれる.属性$a_i$の属性信頼度が手がかり1,2から$p_1$,$p_2$と導かれているが,これは手がかり1では確率$p_1$で適切と判定され,手がかり2では確率$p_2$で適切と判定されたことを意味する.この事象の空間は図\ref{fig:two_reli}のように表現できる.図\ref{fig:two_reli}には4つの領域があるが,起こり得るのは両方が適切または不適切となる領域のみである.なぜなら,属性が適切であれば,手がかり1,2ともに属性が適切である事象が,属性が不適切であれば,手がかり1,2ともに属性が不適切である事象が発生するからである.この図\ref{fig:two_reli}の起こり得る領域の中で,属性が適切な部分の率を示す式が式\ref{eq:integ_reli}である.\begin{figure}[ht]\begin{center}\epsfile{file=fig/two_reli.eps,scale=1.0}\caption{2つの手がかりの事象空間}\label{fig:two_reli}\end{center}\end{figure}この計算には合成の順序によらず結果が等しいという特徴がある.例えば,属性$a_i$の属性の3つの属性信頼度$p_1$,$p_2$,$p_3$を合成するとき,$p_1$と$p_2$を先に合成しても,$p_2$と$p_3$を先に合成しても結果は変わらない.したがって,属性信頼度が多数あっても,将来属性信頼度に関する情報が増えても,一つの属性信頼度への合成が可能である.このために,属性信頼度は継続的に行う必要がある概念ベース構築に適している.様々な手がかりを属性信頼度に変換すると,それらを一元的に扱えるようになる.これが手がかりをそのまま用いずに,手がかりから属性信頼度を求める理由である.手がかりをそのまま用いようとすると,どの手がかりも属性の確からしさを示しているにもかかわらず一元的に扱うことができない.\subsection{属性信頼度の計算手順}語Aの属性$a_i$の属性信頼度は以下の属性信頼度を合成して求める.\begin{itemize}\item語Aと属性$a_i$が一致するなら,語と属性の一致から導かれる信頼度(属性一致)\item語Aと属性$a_i$の関係が関係データにあるなら,関係データから導かれる信頼度(関係データ)\item基本CBにおける$a_i$の重みから導かれる属性信頼度(頻度重み)\item語Aと属性$a_i$の関連度から導かれる属性信頼度(関連度)\item属性$a_i$が漢字一致の条件を満たすなら,漢字一致から導かれる属性信頼度(漢字一致)\item$a_i$が相互属性なら,基本CBにおける語$a_i$の属性Aの重みから導かれる属性信頼度(相互属性)\end{itemize}サンプル属性において,以上のように求めた属性信頼度と実際の適切な属性の率の関係を図\ref{fig:reli-the-real}に示す.図\ref{fig:reli-the-real}の横軸は属性信頼度の範囲を示している.例えば,横軸の10\,\%の部分は属性信頼度が10\,\%以上,20\,\%未満の属性を示す.理想的なグラフは属性信頼度と適切な属性の率が一致するグラフ(図\ref{fig:reli-the-real}の破線)であるが,実際に求まった属性信頼度はほぼ理想値通りの結果となっているのがわかる.最終的な属性信頼度の属性の適不適を判別する能力を見るために,図\ref{fig:reli-num}に属性信頼度と属性数の関係を示す.図\ref{fig:reli-num}の横軸は図\ref{fig:reli-the-real}と同じである.図\ref{fig:reli-num}では属性信頼度が90\,\%の部分の属性数が約1,800個と最も多いが,この部分の適切な属性の率は87\,\%である.各手がかり単独では,適切な属性の率が80\,\%以上で属性を集めるのは困難で,単独で最も能力の高い関連度でも80\,\%以上の部分に約1,000個の属性しかない.さらに,属性信頼度が0\,\%から80\,\%の部分には属性が一様に分布し,各手がかりを単独で用いた場合のように適切な属性の率が50\,\%の部分にデータが集中していない.以上から,最終的に得られた属性信頼度が属性の適不適を判別する能力は,各手がかり単独より極めて高いことがわかる.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/reli_right.eps,scale=0.99}\caption{属性信頼度と適切な属性の率の関係}\label{fig:reli-the-real}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/reli_num.eps,scale=0.99}\caption{属性信頼度と属性数の関係}\label{fig:reli-num}\end{center}\end{minipage}\end{figure}
\section{評価実験と考察}
ここでは,概念ベースの評価法と評価結果について述べる.評価対象は精錬の対象である基本CBと提案手法で精錬した精錬CBであるが,比較のために,重みに関連度をそのまま用いた関連度概念ベース(関連度CB)と,重みに信頼度をそのまま用いた信頼度概念ベース(信頼度CB)についても評価した.なお,精錬CBは実験において最高の順序正解率(後述)のものを採用した.\subsection{適正属性率}概念ベースから無作為に100語を取り出し,人手により属性が適切かどうかを判定した.属性の人手による評価に用いる100語をサンプル語と呼び,その属性をサンプル属性と呼ぶ.また,概念ベースのサンプル語における適切な属性の率を適正属性率と呼ぶ.なお,この評価では属性の適切性のみを評価しており重みの妥当性を無視している.これは,人間の感覚では,数量的な重みの妥当性を評価することが困難であるためである.各概念ベースの適正属性率を図\ref{fig:rar}に示す.図\ref{fig:rar}から,適正属性率は精錬CBが67\,\%と基本CBの54\,\%から13\,\%向上していることがわかる.重みが0となった属性は削除されるが,属性が削除されたのは精錬CBのみであり,関連度CB,信頼度CBともに,重みが0になる属性はなかった.このため,関連度CB,信頼度CBの適正属性率は基本CBと変わらない.次に,精錬CB構築におけるサンプル属性の変化について考察する.図\ref{fig:cb_attnum}にサンプル属性の数を示す.精錬CBは精錬により,基本CBから31\,\%にあたる1,613個の属性が削除されている.このとき,サンプル属性における適切な属性の15\,\%,雑音の49\,\%が削除され,雑音が重点的に削除されていることがわかる.なお,このとき削除された1,613個の属性の内訳は,適切な属性が26\,\%,雑音が74\,\%であった.\begin{figure}[ht]\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/rar.eps,scale=1.0}\caption{各概念ベースの適正属性率}\label{fig:rar}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\epsfile{file=fig/cb_attnum.eps,scale=1.0}\caption{各概念ベースにおけるサンプル属性数}\label{fig:cb_attnum}\end{center}\end{minipage}\end{figure}精錬CBの属性と削除された属性の例を表\ref{tb:del_att}に示す.削除された属性に適切な属性は少なく,重点的に雑音が削除されているのがわかる.しかし,削除された属性に適切な属性が含まれ,精錬CBには雑音が残っている.以下では,精錬の誤りの原因について考察する.まず,雑音である“我が物”が削除されなかった理由について考察する.属性“我が物”の属性信頼度を導くことができる手がかりは,国語辞書における語の出現頻度に基づいた基本CBの重み,関連度,相互属性となっている.属性“我が物”においては,重みが0.045で属性信頼度(頻度重み)55\,\%が導かれ,関連度が0.171で属性信頼度(関連度)45\,\%が導かれる,相互属性から得られる重み0.136で属性信頼度(相互属性)85\,\%が導かれる.3つの属性信頼度を合成すると85\,\%となり,雑音“我が物”は削除されずに残る.属性信頼度を向上させる大きな原因は相互属性から得た重みであることがわかる.次に,適切な属性である“美しい”が削除された理由について考察する.属性“美しい”の信頼度を導くことができる手がかりは,基本CBの重みと,関連度である.属性“美しい”においては,重みが0.045で属性信頼度(頻度重み)55\,\%が導かれ,関連度が0.044で属性信頼度(関連度)25\,\%が導かれる.2つの属性信頼度を合成すると29\,\%が導かれ,属性“美しい”は削除対象となる.属性信頼度を低下させる大きな原因となったのは,関連度であることがわかる.以上より,精錬における誤りは基本CBの重みと関連度の不正確さが原因となっていることがわかる.しかしながら,複数の手がかりを複合して使っているため,例えば,属性“美しい”の属性信頼度において,属性信頼度(関連度)による25\,\%という低い値が,属性信頼度(頻度重み)の55\,\%により29\,\%へと少しではあるが増加している.ここからも,様々な手がかりを複合的に用いることの有効性がわかる.また,概念ベースをさらに改善するなら,属性判別のための新たな手がかりが必要となるが,提案方式では属性信頼度という考え方により新たな手かがりにも容易に対応できる.\begin{table}[ht]\begin{center}\caption{精錬CBの属性と削除された属性の例}\label{tb:del_att}\begin{tabular}{c|p{0.5\linewidth}|p{0.3\linewidth}}\hline\hline\multicolumn{1}{c|}{語}&\multicolumn{1}{c|}{精錬CBの属性}&\multicolumn{1}{c}{削除された属性}\\\hline\hline雪&雪,白雪,吹雪,雪模様,語,色,大雪,積雪,風雪,深雪,小雪,牡丹雪,降雪,万年雪,霙,白い,雪肌,雪景色,雪原,雪消,雪女,下る,雪渓,雪明かり,雪達磨,降水量,除雪,橇,白髪,氷,雲,真っ白,結晶,白,雪国,雪解け,我が物,枝垂れる,水蒸気,大根,綿帽子,多様,鱈,庵,氷水,冬,角柱,凝結,昇華,白紙,東国,豊年,見分け,小片,精,方言,地,上代,流石,見紛う,曲がり,旁,貢ぎ物,正反対,作詞,五穀,零度&上層,作曲,外形,針,色合い,欺く,髪,峰,隅,回,象徴,訓読み,気温,前兆,歌舞,大気,舞う,劣る,外観,相違,空気,肌,作,地上,紋所,温度,取り,喜ぶ,主な,頭,代表,古来,月,空中,美しい,名,集まる,異称,風,子供,芝居\\\hline衛星&衛星,天体,月,惑星,木星,星,太陽系,地球,火星,公転,交点,太陽,恒星,水星,彗星,運行,巡る,巡り,周囲,最大,三つ,作用,有力&称,類い,略,対す\\\hline\hline\end{tabular}\end{center}\end{table}\subsection{順序正解率}概念ベースの全属性は非常に多く全てを人間が評価するのは不可能である.そこで,次のようにテストデータを用いて導かれる順序正解率により評価を行った.テストデータは多数の語を集めたデータで,4語で1組をなす.1組の語は,基準語X,語Xと同義または類義の語A,ある程度関係のある語B,関係のない語Cからなっている(表\ref{tb:ex_measure}).テストデータは590組のデータで,人手によって作られている.各データは4人の人間が確認を行い,その全員により正しいと判断されている.順序正解率はテストデータの語間で関連度計算を行い,求まった関連度の値を比較して求める.基準語XとA,B,Cの関連度をそれぞれ$R_a$,$R_b$,$R_c$とする.これらの値は$R_a>R_b>R_c$という大小関係が期待される.テストデータの全ての語の組の中で,このような順序になり,かつ各関連度の差が全$R_c$の平均より大きい率を順序正解率として概念ベースの評価に用いる.各関連度の差を全$R_c$の平均より大きいときに正解とするのは,基準語Xに無関係な語Cの関連度$R_c$の平均が関連度の誤差の基準となるためである.\begin{table}[ht]\begin{center}\caption{テストデータの実例}\label{tb:ex_measure}\begin{tabular}{cccc|cccc}\hlineX&A&B&C&X&A&B&C\\\hline樹木&木&木の葉&頭&人&人間&動物&箱\\天気&天候&雨&写真&子供&童&大人&雲\\町&都市&住民&石&辞書&辞典&本&家\\海&海洋&波&耳&絵&絵画&紙&経済\\瞳&目&顔&靴&景色&風景&観光&爪\\\hline\end{tabular}\end{center}\end{table}各概念ベースの順序正解率を図\ref{fig:ror}に,関連度の平均と分散を表\ref{tb:cb_da}に示す.精錬CBが63.7\,\%,基本CBが49.0\,\%と精錬により14\,\%向上した.精錬CBの構築ではサンプル語における適切な属性の15\,\%が削除されているが,精錬により順序正解率は改善している.基本CBから精錬CBへの各関連度の平均の変化は,$R_a$の平均で0.405から0.482への増加,$R_b$の平均で0.188から精錬CBの0.196へと$R_a$の増加分より小さな増加,$R_c$の平均で0.065から0.042への小さな減少となった.したがって,$R_a$,$R_b$,$R_c$間の差はどれも精錬により拡大したことになる.以上から,順序正解率においては適切な属性の削除による悪影響より,雑音の削除と重み付けによる改善の方が大きいことがわかる.精錬により$R_a$,$R_b$の分散が増加しているが,これは$R_a$,$R_b$の平均が大きくなった影響と考える.関連度をそのまま用いた関連度CBの順序正解率は49.5\,\%,信頼度をそのまま用いた信頼度CBの順序正解率は51.9\,\%と,基本CBの49.0\,\%からあまり変化が見られない.関連度の平均に関しては,関連度CB,信頼度CBともに基本CBから少し減少し,関連度の分散に関しても関連度CB,信頼度CBともに基本CBから少し減少しており,傾向に大きな変化はない.以上より,関連度,属性信頼度をそのまま重みとしても,関連度,分散が少し減少する以外にあまり変化がないことがわかる.\begin{figure}[ht]\begin{center}\epsfile{file=fig/ror.eps,scale=1.0}\caption{各概念ベースの順序正解率}\label{fig:ror}\end{center}\end{figure}\begin{table}[ht]\begin{center}\caption{各概念ベースの関連度の平均と分散}\label{tb:cb_da}\begin{tabular}{l|cc|cc|cc}\hline\multicolumn{1}{c|}{}&\multicolumn{2}{c|}{$R_a$}&\multicolumn{2}{c|}{$R_b$}&\multicolumn{2}{c}{$R_c$}\\概念ベース&平均&分散&平均&分散&平均&分散\\\hline基本CB&0.405&0.0316&0.188&0.0136&0.065&0.0009\\関連度CB&0.321&0.0223&0.154&0.0105&0.048&0.0006\\信頼度CB&0.368&0.0280&0.167&0.0118&0.053&0.0007\\精錬CB&0.482&0.0376&0.196&0.0214&0.042&0.0009\\\hline\end{tabular}\end{center}\end{table}属性の適切な重みを知るために,順序正解率と重みの関係を調べた.順序正解率で上位10位の精錬CBにおける各クラスの重みの付き方を表\ref{tb:wei_list}に示す.表\ref{tb:wei_list}においては,どのクラスにおいても特定の一つの値が半数以上を占め,高い評価を導く重みに傾向が存在することがわかる.表\ref{tb:clwei}に,表\ref{tb:wei_list}における各クラスの最高評価の重み,平均の重みと最多の重みを示す.表\ref{tb:clwei}に示すように各クラスとも,最高評価,重みの平均,最多の重みにそれほど大きな違いはない.各クラスの重みはどれも似たような値で,ほぼ同義,類義,上下,信頼度3,信頼度4,信頼度5,信頼度6の順に大きいという大小関係も変わらない.これより,最高評価の重みは,偶然に決まったのではなく,適切な重みの持つ傾向に従って決まったことがわかる.以上から,精錬CBの各クラスの適切な重みは,試行した値が離散的であるため完全ではないが,ほぼ最高評価の重みでよいと考える.また,精錬CBでは属性が削除されているが,表\ref{tb:clwei}から精錬CBで削除されたのは,信頼度5,6のクラスの属性であることがわかる.さらに,表\ref{tb:clwei}において,信頼度5,6の重みの平均は他と比べて小さく,最高評価の重み,最多の重みともに0であることから,信頼度5,6のクラスは概念ベースに不要なクラスであることがわかる.\begin{table}[ht]\begin{center}\caption{上位10位までの精錬CBにおける各クラスの重み}\label{tb:wei_list}\begin{tabular}{c|rrrrrrr}\hline\multicolumn{1}{c|}{}&\multicolumn{7}{c}{クラスの重み}\\順位&同義&類義&上下&信頼度3&信頼度4&信頼度5&信頼度6\\\hline1&8&4&1&0.5&0.25&0&0\\2&4&4&4&0.5&0.25&0&0\\3&4&4&4&0.25&0.25&0&0\\4&2&8&4&0.5&0.5&0.25&0\\5&4&4&0.5&0.25&0.25&0&0\\6&8&2&1&0.5&0.25&0&0\\7&8&2&1&0.25&0.25&0&0\\8&4&4&2&0.5&0.5&0.25&0\\9&8&4&1&1&0.25&0.25&0\\10&4&4&1&0.5&0.25&0&0\\\hline\end{tabular}\end{center}\end{table}\begin{table}[ht]\begin{center}\caption{精錬CBの上位10位における各クラスの重みの傾向}\label{tb:clwei}\begin{tabular}{crrr}\hlineクラス&最高評価&重みの平均&最多の重み\\\hline同義&8&5.4&4\\類義&4&4&4\\上下&1&1.95&1\\信頼度3&0.5&0.475&0.5\\信頼度4&0.25&0.3&0.25\\信頼度5&0&0.075&0\\信頼度6&0&0&0\\\hline\end{tabular}\end{center}\end{table}\subsection{情報検索における効果}本研究の総合的な効果を考察するため,連想機能を有効に利用できる処理の一つであるWebの情報検索を考える.連想機能をWebなどの情報検索に適用する場合,指定されたキーワードだけでなく連想により意味的に拡張した複数のキーワードを用いることにより,より適切な検索が可能となる.この場合,連想される語の良し悪しが検索結果の適切性に大きく影響するため,連想の基盤となる概念ベースの精度向上が極めて重要となる.例えば,"雪"について見てみると,基本CBによる連想では"上層","作曲","外形"のような不適切なキーワードが多く拡張され,検索結果の誤りを確実に増加させる.精錬CBでは不適切な属性が重点的に削除されているため,不適切なキーワードの拡張を抑制することができる.このように,提案方式による概念ベースの精錬は情報検索の結果を大きく改善する.\newpage
\section{おわりに}
概念ベースと関連度計算アルゴリズムは連想システムの重要な要素である.概念ベースは大規模であるため,電子化辞書などから自動的に構築し,さらに継続的に構築および精錬を続けていく必要がある.自動構築された概念ベースは多くの雑音を含み,出現頻度による属性の重みは信頼性が低いため,適切な連想にはこれらの雑音の除去と適切な重み付けが重要である.さらに,継続的な構築および精錬が必要であるため,精錬方式も継続的に実行できることが重要となる.本稿では,雑音の除去と属性の重み付けに属性の確からしさを属性信頼度として用いる方法を提案した.提案手法では,属性の確からしさにより,単語の出現頻度に重点を置く方式より信頼性の高い重みを付けを実現している.さらに,提案方式は継続的な構築にも対応しやすい.これは,属性の確からしさは属性信頼度という値で表現すると新しくデータが増加しても合成計算により対応できるためである.人間の感覚による評価とテストデータの関連度を用いた評価実験により,提案方式で精錬した概念ベースを評価した.その評価結果により雑音が大幅に削除され,重みの信頼性が向上したことを示した.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\bibliography{376.bbl}\begin{biography}\biotitle{略歴}\bioauthor{小島一秀}{1998年同志社大学工学部知識工学科卒業.2000年同大学院工学研究科知識工学専攻修士課程修了.同大学院工学研究科知識工学専攻博士後期課程在学.知識情報処理の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,電子情報通信学会,情報処理学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N04-02
|
\section{はじめに}
label{sec:INTRO}音声対話は,人間にとって機械との間のインターフェースとして最も望ましいものである.しかし,音声対話システムが日常にありふれた存在となるためには,人間の使用する曖昧で誤りの多い言葉,いわゆる話し言葉に対応できなければいけない.そのためには,繰り返し,言い淀み,言い直し,助詞落ち,倒置などの不適格性とよばれる現象に対処できる必要がある\cite{YM1992,DY1997}.これらの不適格性の中で特に問題となるのは,言い直しあるいは自己修復と呼ばれている現象である.ユーザの発話中に自己修復が存在した場合,システムはその発話の中から不必要な語を取り除き,受理可能な発話を回復する必要がある.この自己修復に関する研究は,英語に関するものでは,\cite{HD1983,BJ1992,OD1992,NC1993,HP1997,CM1999}などがあり,日本語に関するものでは,\cite{SY1994,KG1994,IM1996,DY1997,NM1998,HP1999}などがある.しかしながらこれらの論文で提案されている手法では,自己修復を捉えるモデルに不十分な点があり,ソフトウェアロボットとの疑似対話コーパス\cite{QDC}に見られるような表現をカバーできない.また,自己修復を検出した後の不要語の除去処理に関しても十分な手法を与えていない.本論文では,日本語の不適格性,特に自己修復に対処するための新しい手法を提案する.この手法では,従来の手法では捉えられなかった自己修復を捉える事ができるように自己修復のモデルを拡張する.そして,表層及び意味レベルでのマッチングを用いた自己修復の解消法を提案する.まず,\ref{sec:ILL_FORMEDNESS}節では不適格性とその中での自己修復の位置づけについて述べる.\ref{sec:PARSER}節では,本論文で用いるパーザと文法について述べる.\ref{sec:SC}節では,本論文で提案する自己修復の処理手法について述べる.そして\ref{sec:EVAL}節では,提案手法をコーパスに対して適用した結果に基づいて考察する.
\section{不適格性}
label{sec:ILL_FORMEDNESS}本論文で扱う不適格性は,助詞落ち,倒置,冗長表現の3つである.このうち,助詞落ちと倒置は,次節で述べる文法記述の方法によって,構文解析の枠組みの中で処理をする.もう一つの不適格性である冗長表現は,同一話者によるものと複数話者によるものに分けられる\cite{KM1996}.本論文では,同一話者による冗長表現のみを考慮する.同一話者による冗長表現を,本論文では図\ref{fig:RD_CLASS}のように分類する.\ref{sec:INTRO}節で言及した自己修復は同一話者による冗長表現の一種となる.自己修復はさらに,繰り返し,言い足し,言い直しに分ける.本論文では,強調を意図した繰り返しについては考慮しない.従って,全ての繰り返し表現は自己修復として扱う.自己修復は,\cite{HD1983}と同様に,パーザに処理機構を埋め込むことで対処する.言い淀みは,話者が単語を最後まで言わなかったために,単語の断片が残る現象である.言い淀みは,自己修復と共に現れる場合が多いため,既存の研究では自己修復の枠組みの中に取り込んでいる.これらの研究では,単語断片が単語断片として正確に認識されることを仮定しているが,現在の音声認識技術では難しい仮定である.そこで本論文では,言い淀みの処理は自己修復とは切り放し,未知語の誤認識を除去するための不要語処理に委ねる.これは,解析の途中で不要語の可能性がある語を読み飛ばすことで行う.ある語が不要語であるかどうかを局所的に見極めることは難しいので,それを不要語と見なした場合と,そうでない場合と,2つの仮説をパーザは保持する.そしてパーザは,できるだけ多くの入力語を用いる仮説を優先することで,不必要に読み飛ばしを行うことを避ける.\begin{figure}\begin{center}\begin{minipage}{.5\linewidth}\small\begin{enumerate}\item繰り返し(強調を意図したもの)\item自己修復\begin{enumerate}\item繰り返し(話者の思考の淀みによるもの)\item言い足し(新しい情報を付け足すもの)\item言い直し(新しい情報で置き換えるもの)\begin{enumerate}\item部分訂正(発話の一部分を訂正するもの)\item全訂正(発話を新しく始めるもの)\end{enumerate}\end{enumerate}\item言い淀み\end{enumerate}\end{minipage}\end{center}\caption{同一話者による冗長表現の分類}\label{fig:RD_CLASS}\end{figure}
\section{パーザ}
label{sec:PARSER}不適格性を解消するための処理は全て,構文解析と平行してパーザの上で行う.本論文では,音声認識の結果が直接パーザに与えられ,パーザは入力された単語列を不適格性を解消しながら解析し,意味構造に変換して談話処理部に出力することを想定する.発話は,必ずしも音声認識器の出力単位に対応する必要はない.ただし,ここでは,発話の終端はなんらかの手法によって判断できるものと仮定する.以下,本論文で用いるパーザとパーザの使用する辞書について説明する.\subsection{係り受け解析を用いた漸進的な構文解析}\label{subsec:PARSER}構文解析の手法として,文節ベースの係り受け解析を採用した.我々の解析手法では内容語を重視し,機能語は内容語に付属するものと捉える.構文解析はスタックを用いて漸進的に行なう.本論文では詳細は省くが,このパーザの使用は,将来,提案手法を組み込む予定の音声対話システムに,漸進的な処理を行わせることを目的としている.パーザは,解析の途中に生成される複数の構文仮説を,別々のスタックに保持する.スタックの各要素には,依存関係で表現された構文木が納められる(図\ref{fig:STACK}).各スタックの要素である部分構文木のルートになっている語を「ルート語」と呼ぶことにする\footnote{図\ref{fig:STACK}において四角で囲まれた語.}.スタックに新しい単語がプッシュされると解析が行われる.プッシュされた語が機能語であった場合には,単純にスタックの上から2つ目の要素のルート語にその機能語を付属させる.既に機能語が付属している場合には,「に・も」のように連接が可能な場合を除いて,機能語が言い直されたと考えて新しい機能語に置換する.次にプッシュされる予定の語が機能語でなければ,ここで係り受け解析を行う.係り受け解析はスタックトップの要素のルート語($rw_2$)とトップのすぐ下の要素のルート語($rw_1$)の関係を見て行う.すなわち,$rw_1$が$rw_2$に係り得るかどうか(もしくはその逆)を調べる.$rw_1$が$rw_2$に係ることができないならば,スタックは変化しない.しかし,$rw_1$が$rw_2$に係ることができるならばこのスタックをコピーし,片方には$rw_1$が$rw_2$に係る仮説(H1),もう片方には$rw_1$が$rw_2$に係らない仮説(H2)を保持する.仮説H1を保持するスタックでは,一度上2つの要素をスタックから取り出したあとに,新しい係り受け関係を作った要素1つをスタックトップに戻す.仮説H2を保持するスタックは変化しない.また,H1については同様の操作を再帰的に行う.従って,\begin{quote}[(君が)$|$(玉を)$>$\end{quote}という仮説スタック\footnote{``[''がスタックの底,``$|$''が要素間の区切り,``$>$''がスタックのトップ,``()''が係り受け関係を表す.}に「押せ」という単語がプッシュされると,\begin{quote}[(君が)$|$(玉を)$|$(押せ)$>$[(君が)$|$((玉を)押せ)$>$[((君が)(玉を)押せ)$>$\end{quote}という3つの仮説スタックが生成される.このパーザは,\ref{sec:ILL_FORMEDNESS}節に述べたように言い淀みを処理するために読み飛ばしも平行して行うが,本論文では詳細は述べない.\begin{figure}\begin{center}\epsfile{file=fig/stack.eps,width=0.35\linewidth}\caption{「机の上の赤い玉を床」という入力を解析した場合のスタックの一例}\label{fig:STACK}\end{center}\end{figure}\begin{figure}\begin{center}\begin{minipage}{.65\linewidth}\footnotesize\begin{verbatim}押してVERBIMP+PUSH+DEGREE:#STDSPEED:#STD!<OBJECT>1*NOUNは|を|も|-INSTANCE+!<AGENT>1*NOUNは|が|も|-ANIMATE+INSTANCE+<TO>1*NOUNに|へ|-LOCATION+<FROM>1*NOUNからLOCATION+<EXTENT>1*ADV-DEGREE:*<SPEED>1*ADV-SPEED:*\end{verbatim}\end{minipage}\end{center}\caption{命令動詞「押して」の辞書エントリ}\label{fig:DIC_ENTRY}\end{figure}\subsection{文法表現と辞書}本手法では,文節構造以外の文法に相当するものは,全て単語辞書の中に単語毎に用意する.ある内容語$c_1$が別の内容語$c_2$に係る時,$c_1$は$c_2$に対して特定の役割を担っていると考える.「赤い玉」という名詞句であれば,「赤い」は「玉」に対してその色に関する情報を与える役割を持っていると見なす.「馬は前行って」という文であれば,「馬」は「行って」に対して,その動作主を特定する情報を与える役割を持ち,「前」は「行って」に対して,その進行方向を特定する役割を持つと見なす.例えば,「押して」という命令動詞の辞書のエントリは図\ref{fig:DIC_ENTRY}のように記述する\footnote{現在は語彙数が少ないので,活用語は活用形の見出し語として辞書に登録している.}.図\ref{fig:DIC_ENTRY}の第一行目は,「押して」という語が,左から順に,\begin{itemize}\item動詞である\item命令(IMP+)である\itemPUSH+という動作を表す素性を持つ\item指定の無いときの動作の程度は\#STDである\item指定の無いときの動作の速さは\#STDである\end{itemize}ということを表している.第二行目以降は,「押して」に係ることのできる語の制約を役割毎に示している.例えば第二行目の,$<$OBJECT$>$(目的格)という役割は,左から順に,\begin{itemize}\item必須格(!が示す)である\item「押して」に対して1つしか存在しない\item「押して」に係るときは前方依存(F)/後方依存(B)のどちらでも良い(*はワイルドカード)\item名詞しかこの役割は取れない\itemその名詞についている機能語は「は」「を」「も」「-(無標)」のどれか\itemINSTANCE+素性を持っている語でなければならない\end{itemize}という事を表している.\ref{subsec:PARSER}節で述べたパーザは,この辞書を用いて解析を行う.内容語$c_1$が内容語$c_2$に係ることができるかどうかは,$c_1$が$c_2$のエントリに示された役割の内のどれかを満たすことができるかどうかによって決まる.そして解析の段階で,全ての係り受けにその意味役割が割り当てられる.このパーザにより,不適格性の内,助詞落ち,倒置は解決できる.すなわち,助詞落ちは上記の文法での-(無標)の場合として扱い,倒置は前方依存が可能かどうかを辞書に記述することで対処する.またこのように係り受け解析の段階で,語の意味役割を特定することで,後述する自己修復の意味的な修正処理が可能になる.
\section{自己修復の処理}
label{sec:SC}\subsection{過去の研究の問題点}\label{subsec:PROBLEM}我々の疑似対話コーパスの中に現れる自己修復に過去の研究で提案されていた手法を適用したところ,対処できない例が見られた.対処できない理由は2つある.1つは,自己修復のモデルの問題,もう1つは自己修復を検出した後の修正処理の問題である.まず,自己修復のモデルの問題について説明する.既存の研究では,どれも\cite{NC1993}のRepairIntervalModel(RIM)に類するモデルを用いて自己修復を捉えている.RIMは,入力文の上で,修復を受けるものを含む区間をREPARANDUM(以下RPD),修復するものを含む区間をREPAIR(以下RP)\footnote{\cite{HP1997}ではalternation,\cite{SJ2000}ではreparans.},RPDとRPの間に現れるフィラーや休止,手がかり句(cuephrase)\footnote{自己修復を示す手がかり句は編集表現と呼ぶ.「ごめんなさい」,「じゃない」,「ちがう」等.}を含む区間をDISFLUENCY(以下DF)としたときに,\begin{quote}...RPDDFRP...\end{quote}の関係になるというモデルである.そして,RPDとDFの境界,不適格性が始まる点,を中断点(interruptionsite/point)と呼ぶ.例えば,\begin{quote}「[赤い玉を]$_{RPD}$[えっと]$_{DF}$[青い玉を]$_{RP}$押して」\end{quote}となる.そしてこのモデルでは,手がかり句やフィラー以外の語がRPDにもRPにも含まれずにRPDとRPの間に現れることはないと仮定する.従って,RIMは日本語に現れる次のような自己修復を扱えない.\begin{equation}\mbox{「[赤い玉を]$_{RPD}$前に押して[えっと]$_{DF}$[君の前の玉を]$_{RP}$」}\label{EQ:EXAMPLE1}\end{equation}この例では「前に押して」が,RPDとRPの間に入っており,モデルの前提を破っている.パターンマッチングや統計的言語モデルによる自己修復の検出\footnote{本論文でいう検出とは,自己修復の範囲の同定までを指す.\cite{NC1993,HP1997,SJ2000}などでは,検出(detection)とは中断点の検出のみを指し,範囲の同定は含まない.}\cite{BJ1992,NC1993,HP1997,HP1999,SJ2000}は,人間が`self-monitoring'によって即座にエラーを訂正する\cite{LW1989}ため,自己修復が局所的であり,かつRPDの始端からRPの終端までが3,4語程度の短いものが大多数であると仮定している.従って,パターンマッチングや統計的言語モデルを用いて(\ref{EQ:EXAMPLE1})のような自己修復を検出することは,原理的には可能でも,精度を悪化させることが予想される.またこれらの手法では,DFの始端をRPDの終端として定義し,検出したRPDは単純に削除してしまうので,(\ref{EQ:EXAMPLE1})のような例を正しく修正できない(この場合,「前に押して」まで削除される).\cite{KG1994}は\cite{KS1992}の並列構造推定手法を用いてRPDの始端を推定しており,他のパターンマッチング手法とやや性質を異にするが,仮に正しくRPDの始点を推定できたとしても,RPDの終端はDFの始端に固定されているので,(\ref{EQ:EXAMPLE1})を正しく修正できない点は変わらない.また,中断点の位置が予め適切に与えられること,2つの並列構造が完全に単語列の中に含まれていることなどが要求されるので,漸進的な処理には向かず,実用上も疑問が残る.\cite{SJ2000}も中断点が音響的に検出されることを前提にしているが,その報告では,中断点の音響的な検出の再現率は50\,\%に満たない.\cite{DY1997}は,自己修復をRPDからRPへの係り受け関係として扱うため,(\ref{EQ:EXAMPLE1})に類する自己修復は原理的に扱えない.単一化を基にした句構造規則で自己修復を扱う\cite{NM1998}の場合,現在提案されている規則では(\ref{EQ:EXAMPLE1})のような表現を扱うことはできない.新しい規則を追加すれば扱えるかもしれないが,その場合,条件の判定に必要な仕組みなどを新たにパーザに加える必要があり,規則の追加だけで一般的に解決することはできないだろう.\cite{CM1999}も句構造規則で自己修復を扱うが,検出自体は\cite{HP1997}の手法に頼っており,上のような例は扱えない.\cite{SY1994,IM1996}も,提案手法のままでは(\ref{EQ:EXAMPLE1})のような表現は扱えない.次に,自己修復を検出した後の修正処理の問題について説明する.先にも触れたように,従来の手法では,検出したRPDの部分全体を発話から削除する.実際,英語,日本語に関わらずこの処理が正しく機能する場合は多い.しかし,次のような発話では,この方法は重要な情報を落としてしまう.\begin{quote}「[さっき押した赤い玉を]$_{RPD}$[遠くに押したやつを]$_{RP}$もってきて」\end{quote}この自己修復の処理は単なる削除だけでは不十分で,もっと複雑な処理が必要である.\cite{IM1996}では,動詞句の自己修復の場合に,RPDには含まれるがRPに含まれていない格情報を保存することの必要性について言及しているが,具体的な方法は述べていない.\cite{CM1999}は,RPDを単純に削除してしまうと,RP内の代名詞がRPD内の名詞を参照する場合に問題が起きることを指摘しているが,RPDも意味解析モジュールに渡す必要があるというだけで,意味解析モジュールでの具体的な処理法については言及していない.\subsection{自己修復の再分類}\label{subsec:re-categorize}\begin{figure}\begin{center}\begin{minipage}{.55\linewidth}\newcommand{\basesize}{}\newcommand{\examplesize}{}\basesize\begin{enumerate}\item言い足し(繰り返しも含む)\begin{enumerate}\item構造隣接\examplesize「赤い玉を大きい玉を押して」\basesize\item構造非隣接\examplesize「赤い玉を押して大きい玉を」\basesize\end{enumerate}\item言い直し\begin{enumerate}\item明示的\begin{enumerate}\item構造隣接\examplesize「赤い玉をごめん青い玉を押して」\basesize\item構造非隣接\examplesize「赤い玉を押してごめん青い玉を」\basesize\end{enumerate}\item非明示的\begin{enumerate}\item構造隣接\examplesize「赤い玉を青い玉を押して」\basesize\item構造非隣接\examplesize*「赤い玉を押して青い玉を」\basesize\end{enumerate}\end{enumerate}\itemリスタート\begin{enumerate}\item明示的\examplesize「赤い玉をごめん馬は前に行って」\basesize\item非明示的\examplesize「赤い玉を馬は前に行って」\basesize\end{enumerate}\end{enumerate}\end{minipage}\end{center}\caption{自己修復の処理上の分類}\label{fig:SC_CLASS}\end{figure}図\ref{fig:RD_CLASS}の内,自己修復に関する部分を,実際の処理に合わせて図\ref{fig:SC_CLASS}のように再分類する.この分類の中では,繰り返しを言い足しに含めている.ここで構造隣接という言葉を使っているのは,従来の\cite{KM1996}などの分類で使われている表面的な隣接性を示す言葉と区別するためである\footnote{\cite{KM1996}の分類では,「赤い玉青い玉」という言い直し表現の二つの「玉」は表面的に離れているために非隣接であると分類される.本論文の自己修復処理手法では,この表面的な隣接/非隣接は問題にはならない.}.言い足しは,``addition'',``appropriaterepair'',などと呼ばれているもので,RPDの中に間違った情報は含まれていないものである.図\ref{fig:RD_CLASS}の言い足しと繰り返しに対応する.言い足しの中で,構造隣接に含まれるものが今までのモデルでも扱える部類である.構造非隣接に含まれるものが,\ref{subsec:PROBLEM}節で述べた,今までのモデルでは扱えないものである.この言い足しのRPDとRPの間には次のような制限がある.\begin{equation}\label{addition_constraint}\mbox{RPDとRPは同じ物,同じ様態,同じ動作を示していなければならない.}\end{equation}言い直しは,``repair'',``errorrepair''などと呼ばれるもので,RPDの中に間違った情報が含まれているものである.図\ref{fig:RD_CLASS}の部分訂正に対応する.言い直しは,手がかり句が挿入されている{\bf明示的}な言い直しとそうでない{\bf非明示的}な言い直しとに区別する.これは,非明示的な構造非隣接に分類される類いの発話を人間が通常することはなく,仮に発話されても人間の聞き手ですら混乱し,理解できないと仮定するからである.おそらく,「赤い玉を押して青い玉を」などと指示された場合には,通常の人間であれば発話者に真意を問い質すだろう.リスタートは,``restart'',``freshstart'',``fullsentencerepair''などと呼ばれているもので,これも明示的なものと非明示的なものとに分ける.図\ref{fig:RD_CLASS}の全訂正に対応する.漸進的な処理において,早い段階でリスタートを言い直しと区別することは難しい.RPに連体修飾句が含まれていたりすると,かなり先まで解析が進まないと判別できない場合もある.しかし,日本語においては「名詞句+は」やある種の手がかり句などの検出をすることで,ある程度のリスタートは正しく検出するできる可能性がある.明示的なリスタートの場合には既に訂正を行う意思表示を示す編集表現が与えられているので,この言い直しの手がかり句とその後に現れる情報を組み合わせることで,リスタートの処理を行える.一方,非明示的なリスタートは,ポーズの他にも,アクセントや身ぶりなど,パラリンガルな要素を考慮しないと,有意な検出は難しい.そこで,本論文では明示的なリスタートのみを考慮する.\subsection{自己修復の処理}本手法では\cite{HD1983}と同様に,自己修復個所の検出と修正を,構文解析と平行して行う.ただし,\cite{HD1983}が決定的であるのに対し,本手法では自己修復の処理においても複数の仮説が生成される.複数の仮説が生成される場合,仮説に尤度を与える必要があるが,その方法については本論文では省略する。本手法では,自己修復が検出されるとすぐに修正処理が行われるので,出力を見てもどのような自己修復が存在したのかは判らない.パーザの出力は,修正され冗長性を除去された構文木,もしくは辞書に与えられた役割を基に変換された格フレームの形で出力されるからである.冗長表現はそれ自体が曖昧で,言い直し,リスタート,言い淀みのどれと解釈して処理を行っても得られる結果が同じである場合が多い.結果が同じであるにも関わらず,冗長性の解釈の違いで異なる仮説を保持することは,不必要な曖昧性と計算量の増加を招くだけである.従って本手法では,冗長性の解釈のされかたには関心を持たず,冗長表現の検出と修正処理を同時に行って極力曖昧性を無くす.解析途中で同じ結果をもつ仮説が複数生成された場合は,1つだけ残して残りのものは破棄する.新しい単語が仮説スタックにプッシュされて係り受け解析が行われると,係り受け解析が終わった仮説から順に自己修復の検出・修正処理を受ける.自己修復の検出と修正の処理は,係り受け解析と同様にスタックの上2つの要素を処理することで行う.すなわち,スタックトップの要素の木がRPで,スタックの上から2番目の要素の木がRPDである(あるいはRPDを含んでいる\footnote{構造非隣接の場合,ルート語に係っている部分木のいずれかがRPDである.})と考える.要素を2つ取り出した後の処理は,言い足し及び言い直しとリスタートの2つで別れる.図\ref{fig:SC_CLASS}では,言い足しと言い直しは別に分けたが,実際の処理は似ている部分が多いので1つにまとめて処理をする.\subsubsection{言い足し及び言い直しの処理}\label{subsubsec:processingSC}まず,構造非隣接型の自己修復をどのように捉えるべきかを考える.ここで,コーパスの観察などから,構造非隣接に分類されるタイプの発話は,\begin{quote}...RPD...動詞DFRP...\end{quote}という形しか取らず,RPDは,主格や目的格として必ず動詞に係っていると仮定する.この結果,構造非隣接でRPDとRPになることができる組は,名詞句の組か副詞句の組しか無いことになる.この構造非隣接型の冗長性を解消するための解釈の仕方は2通り考えられる.1つは,RPが動詞に後ろから係ると考える方法(A)である.この時既に動詞に係っているRPDは,後から述べられたRPによって置き換えられると捉える.つまり,この解釈では自己修復が倒置と組み合わさったものと考える.もう1つは,RPの後ろに来るべき動詞が省略されたものと解釈する方法(B)である.つまり,\begin{quote}...RPD...動詞DFRP(動詞)...\end{quote}という解釈をする.この場合,構造非隣接は見かけ上の存在であり,本質的には構造隣接と同じになる.つまり,省略された動詞を補完することで,\begin{quote}...RPDDFRP...\end{quote}という形に還元でき,これは従来のRIMで捉えられるパターンとなる.この解釈の場合,動詞を補完した後の処理は構造隣接の場合の処理とほぼ同じになるために,統一的な解釈ができるという利点がある.しかしながら,(B)の場合,動詞の補完をするまでの処理を特別に用意しなければならず,これは(A)の処理に必要な手続きのほとんどを含む上に更に多くの処理が必要になる.さらに,動詞を補完してしまえば動詞が省略されなかった場合と全く同じように処理してよいのかは疑問である\footnote{「赤い玉を押して青い玉を」は理解しがたいが,「赤い玉を押して青い玉を押して」は多少の戸惑いはあるものの言い直しであるのだろうと解釈できる(もちろん語勢やイントネーションの補助もあってである).}.このような理由に加え,著者の内省では(A)の解釈の方が自然に思えたため,本論文では(A)の解釈を取った.\paragraph{検出処理}\label{para:DETECTION_RP}\begin{figure}\small\begin{enumerate}\itemスタックの上2つの要素を,上から要素2,要素1として取出す.ただし,要素1が編集表現ならば,明示的な自己修復であるというフラグを立てて,要素1の下のスタックの要素を取り出して,それを要素1とする.要素1のルート語が$rw_1$,要素2のルート語が$rw_2$である.\item$rw_1$と$rw_2$の品詞が同じ場合(構造隣接)\begin{enumerate}\item$rw_1$と$rw_2$が置き換え条件を満たせば,$rw_2$は$rw_1$の自己修復である可能性があると返して終了.\end{enumerate}\item$rw_1$と$rw_2$の品詞が異なる場合(構造非隣接)\begin{enumerate}\item$rw_1$が動詞でなければ,自己修復である可能性は無いと返して終了.\item$rw_2$が名詞でも副詞でもなければ,自己修復である可能性は無いと返して終了.\item$rw_1$に係っている内容語の中に$rw_2$と置き換え条件を満たすもの($d_i^{rw_1}$とする)があれば,$rw_2$は$d_i^{rw_1}$の自己修復である可能性があると返して終了.ただしこの時,明示的でないならば$rw_2$と$d_i^{rw_1}$は\ref{subsec:re-categorize}節の(\ref{addition_constraint})の制約を満たさなければならない.\end{enumerate}\end{enumerate}\caption{言い足しと言い直しの検出手順}\label{fig:DETECTION_RP}\end{figure}ある仮説スタックが与えられると,検出は図\ref{fig:DETECTION_RP}の手順で行う.図\ref{fig:DETECTION_RP}の手順の中で使用されている置き換え条件とは,$rw_1$あるいは$d_i^{rw_1}$(図\ref{fig:DETECTION_RP}参照)と$rw_2$がそれぞれに付属している機能語も含めて満たさなければならない条件である.この条件が満たされるとき,$rw_1$(あるいは$d_i^{rw_1}$)は$rw_2$で置き換えられる.この置き換え条件は\cite{NM1998}の分類Aの(I)\footnote{これは,RPDとRPが同じ構文カテゴリの句である場合に,自己修復表現であるならば満たさなければいけな条件を示したものである.名詞句,助詞句,助詞,動詞句,連体詞,副詞の自己修復の場合に分けて述べられている.例えば名詞句の場合,\begin{quote}\begin{quote}\begin{description}\item[(I-1)]同じ名詞句(例:[角][角]ですか)\item[(I-2)]同じ意味カテゴリの名詞句(例:[ここ]あ[受け付け]におりますが)\end{description}\end{quote}\end{quote}と分類されている.}とほぼ同じである\footnote{\cite{NM1998}の分類Aの(I)では形容詞の場合について触れられていない.ただし,形容詞の場合は副詞と同じでよい.}.置き換え条件の一部(名詞に対する条件)を図\ref{fig:REPLACE_COND}に示す\footnote{これは,\cite{NM1998}の分類Aの(I)の名詞句と助詞句に関する条件をまとめたものである.}.名詞$N_1$と名詞$N_2$の組に関して,図\ref{fig:REPLACE_COND}のどれかを満たせば良い.\begin{figure}\small\begin{center}\begin{minipage}{.5\linewidth}\begin{quote}\begin{itemize}\item$P_1$=$P_2$\item$N_1$=$N_2$and$P_2$$\neq$nil\item$N_1$$\sim$$N_2$and$P_1$=nil\end{itemize}\end{quote}$P_1$,$P_2$はそれぞれ名詞$N_1$,$N_2$に付いている機能語である.=は全く同じ語であること,$\sim$は$N_1$と$N_2$が同じ意味クラスに入ることを意味する.$P_1$=nilは,$N_1$には機能語が付いていないことを示す.\end{minipage}\end{center}\caption{名詞の置き換え条件}\label{fig:REPLACE_COND}\end{figure}\paragraph{修正処理}検出した自己修復には,続いて修正処理を行う.既存の研究での修正処理は,単純にRPDを削除することで行われていた.しかし,これではRPDの中には存在するがRPでは省略されてしまった情報まで削除してしまい好ましくない.そこで本手法では,$rw_1$をルートとする部分木($t_1$すなわちRPD)が$rw_2$をルートとする部分木($t_2$すなわちRP)で置き換えられるときに,$t_1$には存在するが$t_2$には存在しない情報を,$t_1$から$t_2$に移し替える処理を行う.これは,具体的には$rw_1$に係っている語の内,$t_2$では省略された語を$rw_2$に付け替えることで行う.ただし,この時$rw_2$に付け替えることで矛盾が起きるような語は付け替えないで捨てる.例えば,\begin{center}\begin{mbox}「[ニワトリの前の赤い玉を]$_{t_1}$[青い玉を]$_{t_2}$\ldots」\\\begin{tabular}{lcccc}$t_1$:&(((ニワトリの)&前の)&(赤い)&玉を)\\&\verb+<GEN>+&\verb+<LOC>+&\verb+<COL>+\\$t_2$:&&&((青い)&玉を)\\&&&\verb+<COL>+\\\end{tabular}\end{mbox}\end{center}という例の場合(\verb+<GEN>+,\verb+<LOC>+,\verb+<COL>+などは,そのすぐ上の語にパーザが与えた役割を示す),$t_2$で省略されている``((ニワトリの)前の)''を,$t_2$の「玉を」に付け替える.その結果$t_2'$は,\begin{center}\begin{tabular}{lcccc}$t_2'$:&(((ニワトリの)&前の)&(青い)&玉を)\\\end{tabular}\end{center}となる.この処理は部分木のルートだけではなく,その中間ノードに対しても再帰的に適用する必要がある.例えば,\begin{center}\begin{mbox}「[馬は前の玉を押して]$_{t_1}$[青い玉を押して]$_{t_2}$」\\\begin{tabular}{lcccc}$t_1$:&((馬は)&((前の)&玉を)&押して)\\&\verb+<AGNT>+&\verb+<LOC>+&\verb+<OBJ>+&\\$t_2$:&&((青い)&玉を)&押して)\\&&\verb+<COL>+&\verb+<OBJ>+&\\\end{tabular}\end{mbox}\end{center}という自己修復で,$t_1$と$t_2$のルートの「押して」に対してのみこの処理を適用した場合$t_2'$は,\begin{center}\begin{tabular}{lcccc}$t_2'$:&((馬は)&((青い)&玉を)&押して)\end{tabular}\end{center}となり「前の」が落ちてしまう.これを防ぐためには,$t_1$の「玉を」と$t_2$の「玉を」を対応づけて,「玉を」に関しても同様に付け替え処理を行う必要がある.語$rw_1$をルートとする部分木$t_1$を,語$rw_2$をルートとする部分木$t_2$で置き換えるとする.この時,$rw_1$に係っている$m$個の語を$d_1^{rw_1},d_2^{rw_1},...,d_m^{rw_1}$とする.$rw_2$に係っている$n$個の語を$d_1^{rw_2},d_2^{rw_2},...,d_n^{rw_2}$とする.この$t_1$と$t_2$に対して,付け替え処理を行う関数$dmerge(rw_1,rw_2)$のアルゴリズムの概要を図\ref{fig:DMERGE}に示す.このアルゴリズムは人間の自己修復の認識に関する下の3つの仮定を満たすようになっている.\begin{itemize}\item[仮定1]$d_1^{rw_1},...,d_m^{rw_1}$の中の任意の語$d_i^{rw_1}$と同じ語は$d_1^{rw_2},...,d_n^{rw_2}$の中にただ1つ$d_j^{rw_2}$しかなく,その逆もまた成り立つ時に限り,$d_i^{rw_1}$と$d_j^{rw_2}$のそれぞれの$rw_1$と$rw_2$に対する役割が例え異なろうとも,$d_i^{rw_1}$は$d_j^{rw_2}$によって置き換えられたと認識できる.\item[仮定2]$d_1^{rw_1},...,d_m^{rw_1}$の中の任意の語$d_i^{rw_1}$と同じ役割を持つ語は$d_1^{rw_2},...,d_n^{rw_2}$の中にただ1つ$d_j^{rw_2}$しかなく,その逆もまた成り立つ時に限り,$d_i^{rw_1}$と$d_j^{rw_2}$が例え異なる語であろうとも,$d_i^{rw_1}$は$d_j^{rw_2}$によって置き換えられたと認識できる.\item[仮定3]上の2つの認識に食い違いがない場合にのみ,$d_i^{rw_1}$は$d_j^{rw_2}$によって置き換えられたと認識できる.\end{itemize}つまり,図\ref{fig:DMERGE}のアルゴリズムは,$d_i^{rw_1}$が語そのものか役割によって$d_j^{rw_2}$と1対1に対応付けが可能な場合で,なおかつ語と役割に関する対応付けに食い違いがない場合のみ,$d_i^{rw_1}$と$d_j^{rw_2}$を対応づけ,$dmerge(d_i^{rw_1},d_j^{rw_2})$を再帰的に実行する.この条件を満たさない$d_i^{rw_1}$と$d_j^{rw_2}$に関しては処理は何も行われずに無視される.これは,RPD($t_1$)とRP($t_2$)の間での対応関係が曖昧な場合には人間も特定の解釈をすることができないと仮定するからである.仮定1によって,\begin{center}\begin{mbox}「[あれを右から押して]$_{t_1}$ごめん[右に押して]$_{t_2}$」\\\begin{tabular}{lccc}$t_1$:&((あれを)&(右から)&押して)\\&\verb+<OBJ>+&\verb+<FROM>+\\$t_2$:&&((右に)&押して)\\&&\verb+<TO>+&\\\end{tabular}\end{mbox}\end{center}という発話から,$t_2''$ではなく$t_2'$を得ることができる.\begin{center}\begin{tabular}{lcccc}$t_2'$:&((あれを)&&(右に)&押して)\\$t_2''$:&((あれを)&(右から)&(右に)&押して)\\\end{tabular}\end{center}同様に仮定2によって,「あれを馬の前に押してごめん後ろに押して」という発話から「あれを馬の後ろに押して」という解釈を得ることができる.このアルゴリズムで,語と語の対応を取るのに役割を使うのは,基本的には助詞が同じかどうかを見ることと同じである.しかしながら,助詞は省略される場合があるので,助詞を見るだけでは解決できない場合がある.例えば,\begin{center}\begin{mbox}「[君赤い玉押して]$_{t_1}$[大きいやつ押して]$_{t_2}$」\\\begin{tabular}{lcccc}$t_1$:&((君)&((赤い)&玉)&押して)\\&\verb+<AGNT>+&\verb+<COL>+&\verb+<OBJ>+&\\$t_2$:&&((大きい)&やつ)&押して)\\&&\verb+<SIZE>+&\verb+<OBJ>+&\\\end{tabular}\end{mbox}\end{center}という例の場合,単語も助詞も異なるため,意味すなわち役割を考えないと「玉」と「やつ」の対応を取ることができない.もともと助詞がない場合(名詞に係る形容詞など)でも,すでに役割のラベルが与えられているので,新たに意味素性などの情報を用いて対応関係を計算する必要がなく,処理が効率的になる.また,対応付けた2つの内容語のうち,より詳細な情報を持つ下位クラスの語を残すことによって,代名詞による繰り返しなどの場合も情報の損失を防げる(図\ref{fig:DMERGE}の3.の後半).上の例の場合,下の$t_2''$ではなく,$t_2'$を得られる.\begin{center}\begin{tabular}{lcccc}$t_2'$:&((君)&((赤い)(大きい)&玉)&押して)\\$t_2''$:&((君)&((赤い)(大きい)&やつ)&押して)\\\end{tabular}\end{center}\begin{figure}\small$dmerge(rw_1,rw_2)$:$rw_1$をルートとする部分木から$rw_2$をルートとする部分木への付け替え処理を行う\begin{enumerate}\item$d_1^{rw_1},...,d_m^{rw_1}$と$d_1^{rw_2},...,d_n^{rw_2}$の間で同じ語であることを基準に対応を取る(対応1).\item$d_1^{rw_1},...,d_m^{rw_1}$と$d_1^{rw_2},...,d_n^{rw_2}$の間で同じ役割を持つことを基準に対応を取る(対応2).\item対応1と対応2それぞれのなかで1対1の対応であり,なおかつ対応1と対応2の間で食い違いがない対応をもつ語のペア$(d_x^{rw1},d_y^{rw2})$を取り出し,$dmerge$を再帰的に適用する.$d_x^{rw1}$が$d_y^{rw2}$よりも下位の意味クラスに属するならば,$d_y^{rw2}$を$d_x^{rw1}$で置き換える.\item$d_1^{rw_1},...,d_m^{rw_1}$の内,対応1・対応2のどちらからも対応づけを与えられなかったものを取り出し,それらをルートとする部分木だけを,$rw_2$にそのまま付け替える.\end{enumerate}\caption{付け替え処理のアルゴリズムの概略}\label{fig:DMERGE}\end{figure}\subsubsection{リスタートの処理}先に述べたように,リスタートに関しては明示的な場合,つまり編集表現が発話された場合しか扱わない.リスタートの場合重要なのは適切な検出のみで,処理に関してはリスタートの発生点より以前の入力を無視すれば良い.リスタートの検出には,2つの特徴を捉えることで対処する.1つは,日本語の特性を利用し,編集表現の後に「名詞+は」が出現するかどうかを調べる.もう1つは,\ref{para:DETECTION_RP}で述べた,置き換え条件を逆に利用する.もし,編集表現の後に出現している部分木のルートが編集表現の直前に出来ていた部分木のルートと置き換え条件を満たさないならば,それは明示的な言い直しではなく,リスタートである可能性が高いと考えられる.この可能性は,編集表現の後に出現している部分木のルートの,編集表現からの形態素列上の距離が離れれば離れるほど高くなる.
\section{提案手法の評価と考察}
label{sec:EVAL}提案手法を評価するために,提案手法を「ソフトウェアロボットとの疑似対話コーパス\cite{QDC}」(以後,疑似対話コーパス)に人手で適用した.その結果に基づいて,定性的な考察を行う.\subsection{疑似対話コーパスへの提案手法の適用}「ソフトウェアロボットとの疑似対話コーパス」は,全15対話,532発話を含む.疑似対話コーパスは,「仮想世界内にある2体のロボットを操作して,同じく仮想世界内にある4つの球をあらかじめ指定された位置に配置する」という課題で収集された.収集に参加したのは,1対話につき5人である.5人の参加者の内訳は,\begin{itemize}\itemロボットに音声言語で指示を与える者(指示者)\item指示者の指示にしたがってロボットを操作する者(ロボット操作者)\item仮想世界の様子を映すカメラを操作する者(カメラ操作者)\item仮想世界を管理するシステムを担う者(システム管理者)\itemタスクの終了を判断する者(終了判定者)\end{itemize}である.参加者は対話毎に役割を交替した.指示者はモニタに映されるカメラの映像を通して仮想世界内の様子を知り,球を操作する2体のロボットに加えて,カメラの位置も言語によって操作する.また,指示者は自分や球の位置などをシステム管理者に質問することができる.1対話の収集は,ロボットや球がランダムに配置された状態から始まり,指示者が指定された配置を完了したと終了判定者が判断した所で終る.コーパスの収集は,「発話者が指示を与え,それに対してロボットが動作する」といサイクルの繰り返しによって採集された.また,収集経過は市販のビデオカメラで撮影された.このコーパスを調べた結果,今回対象とした不適格性の内,助詞落ち以外のものは99個所あった.この内,単純な倒置15個を除いた84個所が冗長表現で,14個所の言い淀みを除く70個所が,単語断片ではないはっきりとした単語で構成される自己修復であった.70個の自己修復を図\ref{fig:SC_CLASS}の分類に従って分類した結果は以下の通りである.\begin{center}\begin{tabular}{ll}言い足し:&構造隣接37個(52.9\,\%),構造非隣接16個(22.9\,\%)\\言い直し:&明示的構造隣接1個(1.4\,\%),明示的構造非隣接0個(0\,\%)\\&非明示的構造隣接10個(14.3\,\%),非明示的構造非隣接0個(0\,\%)\\リスタート:&明示的0個(0\,\%),非明示的1個(2.9\,\%)\\分類不能:&5個(5.7\,\%)\\\end{tabular}\end{center}RPが文頭から始まっていて,言い足し/言い直しともリスタートとも解釈できる場合には,言い足し/言い直しとした.分類不能の5個は後で説明する挿入表現に該当する.提案手法をこれらの自己修復に適用した場合,提案手法で解決できるものが53個,解決できないものが17個であった.疑似対話コーパスの調査,及び手法の適用に際しては,「ねえ」,「ですねえ」,「さあ」,「下さい」等の,間投詞的あるいは定型的な接尾表現は無視した.コーパスの規模が小さいことと,人手での作業であることから,本論文ではこれ以上の定量的な評価は行わない.かわりにこのコーパスを用いて定性的な考察を行う.\subsection{考察}図\ref{fig:successful}に,今回使用した疑似対話コーパス中のデータで,提案手法が有効に動作する例を示す.今回使用した疑似対話コーパスに現れた自己修復を含む発話には,図\ref{fig:successful}の例(I)のような単純なものから,例(VI),(VII)のような複数の自己修復を含むものまであった.例(V)では構造非隣接の言い足しが起きているが,提案手法により問題なく対処できている.また,例(IV),(V),(VI),(VII)では修正処理によってRPDからRPへ適切に情報が残されている.例(V),(VI)では「その」という連体詞が,RPDにしか現れていない.「その」という連体詞は具体的な情報を与えるものではないが,「その」という語が発話されたということを意味解析以降の処理に伝えることで,対象の特定などにおいてある種の絞り込みを行なうことができる可能性がある.従って,このような語を削除せずに残しておけることにも意義がある.また,本手法は漸進的に処理を行なっていくので,例(VII)のように自己修復が入れ子になっている場合でも問題なく処理できる.\begin{figure}\footnotesize\begin{enumerate}\item[例](I)\begin{enumerate}\item[修正前][もう]$_{RPD}$,[もう]$_{RP}$90度回り込む\item[修正後]もう90度回り込む\end{enumerate}\item[例](II)\begin{enumerate}\item[修正前]そうじゃなくて[反対側で]$_{RPD}$,[反対側に]$_{RP}$できるだけ回り込んで\item[修正後]そうじゃなくて反対側にできるだけ回り込んで\end{enumerate}\item[例](III)\begin{enumerate}\item[修正前][ザクは]$_{RPD}$,[ごめんなさい]$_{DF}$,[カメラは]$_{RP}$斜め45度くらいから映して\item[修正後]カメラは斜め45度くらいから映して\end{enumerate}\item[例](IV)\begin{enumerate}\item[修正前][青い玉の近くまで押して]$_{RPD}$,[まっすぐ押して]$_{RP}$\item[修正後]青い玉の近くまでまっすぐ押して\end{enumerate}\item[例](V)\begin{enumerate}\item[修正前]どっちか手の空いてる方が,[その赤いやつを]$_{RPD}$カメラのすぐ手前あたりまで持ってくる,[カメラのすぐ前の赤いやつを]$_{RP}$\item[修正後]どっちか手の空いている方が,カメラのすぐ前のその赤いやつをカメラのすぐ手前あたりまで持ってくる\end{enumerate}\item[例](VI)\begin{enumerate}\item[修正前]ザクは,[その青いやつを]$_{RPD1}$,[さっきのやつを]$_{RP1}$,[もうちょっとカメラから見て]$_{RPD2}$,[見て]$_{RP2}$右に押す\item[修正後]ザクは,その青いさっきのやつを,もうちょっとカメラから見て右に押す\end{enumerate}\item[例](VII)\begin{enumerate}\item[修正前][[[右の]$_{RPD1}$,[右の]$_{RP1}$青を]$_{RPD2}$,[カメラから見て右の青を]$_{RP2}$,白から見て赤の反対側に置いて]$_{RPD3}$,[押して]$_{RP3}$\item[修正後]カメラから見て右の青を,白から見て赤の反対側に押して\end{enumerate}\end{enumerate}\caption{処理可能な発話の例}\label{fig:successful}\end{figure}次に提案手法では対処できなかった表現をタイプ別に分類し,それぞれに必要な処理について述べる.\paragraph*{$\bullet$挿入表現}このタイプの自己修復は\cite{NM1998}では分類Aの(II)\footnote{\label{NM1998_CAT:A-II}\cite{NM1998}では「X(RPDに相当)の単語列が,Z(RPに相当)の単語列の部分列になっている場合」と定義され(()内は著者の注),「[二十分]$_{X}$[愛甲石田まで二十分もかからない]$_{Z}$から」という例が挙げられている.}に分類され,\cite{TH1999}では挿入と呼ばれている.これには5つ該当する例があった.その内の1つとして,\begin{quote}「{\bf黒の},ガンダムが{\bf黒の}後ろに行って」\end{quote}が挙げられる(ここで,「黒」は「黒いブロック」をさしている).\cite{DY1997}のように係り受け解析を基本とする場合,このタイプのものが解決できないことは\cite{NM1998}で指摘されている.しかし,読み飛ばしや非明示的なリスタートの処理をポーズの情報などを用いて高い確信度で行うことができれば,うまく解決出来る可能性がある.また,構造非隣接の扱いを拡張するか,パターンマッチングによる対応付けを別に導入することによって解決することも可能である.\cite{NM1998}は,\cite{HP1997}の様な手法は漸進的な処理に用いられないと述べているが,その理由は不明である.\cite{NM1998}は音声認識器の出力を解析することを前提にしており,そうであるならばパターンマッチング手法を併用することも(その結果を必ず信用するかどうか,あるいは修正処理までを行わせるかどうかは別として)可能なはずである.\cite{NM1998}の手法自体も,挿入表現を扱う規則の条件から(脚注\ref{NM1998_CAT:A-II}参照),読み飛ばし以上の事はできず,例えば,\begin{quote}「私は[あの分厚い本を]$_{X}$,[図書館からご注文の本を運んできました]$_{Z}$」\end{quote}というような発話は扱えない.\paragraph*{$\bullet$単純な置き換えによる情報の損失}これに含まれるものは1つであった.本手法では,RPDの単純な削除は情報の損失を招くとして,付け替えによる情報の保存を考えた自己修復の処理手法を提案した.しかし,本手法で提案した情報の保存はRPで省略された係り受け関係の移し替えのみを考慮していて,言い直された単語自体は単純に置き換えている.このままでは,次のような例で情報の損失を起こす.\begin{quote}「{\bf青を},その{\bfブロックを}押して」\end{quote}この例では,「青」は青いものを示す代名詞として使われている.この「青」を単純に「ブロック」で置き換えてしまうと,折角話者が提供した「青色」という情報を失い,システムは曖昧性を正しく解決できない恐れがある.これを防ぐためには,単純に表層のシンボルの操作として自己修復を扱うのではなく,本論文で提案した手法よりもより深い意味の操作として自己修復を扱う必要がある.この例であれば,単語間においても単純な置き換えを行うのではなく,意味素性の引き渡しを行わなければならない.\paragraph*{$\bullet$より高度な意味処理が必要な表現}これには9つの例が含まれる.上に述べたタイプも,本手法よりも高度な意味処理を要求するものであるが,上のタイプはまだ比較的簡単な問題である.それよりも,ここに分類されるものは更に複雑な意味処理を要求するものである.提案手法では,情報の保存のために行われるRPDとRPの対応づけが単語のレベルで行われるため,下の例のような場合正しく修正処理を行うことができない.\begin{quote}「それをガンダムの{\bf前に}押して,前の{\bf辺りに}」\end{quote}この例の場合,「前に」は「辺りに」と対応づけられるために,「ガンダムの」は「辺りに」に付け替えられてしまい,``((それを)((ガンダムの)(前の)辺りに)押して)''という結果が生成されてしまう.この例を正しく解釈するためには,「前に」が「前の辺りに」という複合表現と対応していることを理解できる必要がある.また,本手法を含めて,表層のレベルで自己修復を扱う既存の手法はどれも,品詞が異なるために次のような簡単な表現も扱う事ができない.\begin{quote}「{\bf赤い},ごめん,{\bf緑の}玉を押して」\end{quote}当然,\begin{quote}「{\bf白いのが入るぐらいに}映して,{\bf白いのを}映して」\end{quote}のような,表層上はかなり異なるが意味的にはほぼ同じと考えられる表現も扱う事ができない.\paragraph*{$\bullet$主辞の省略}このタイプのものは2つあった.2つとも下の例のように「〜から見て」という句が動詞の後から付け足されている例である.\begin{quote}「{\bf右に}押して,カメラから見て({\bf右に})」\end{quote}「カメラから見て」は「押して」に係るわけではないので,本論文で提案した構造非隣接に対する処理手法では解決できない.これを解決するためには「右に」あるいは「右に押して」までを,何らかの推論によって補完して考える必要がある.あるいは,交差する係り受けも許すような仕組みが必要である.\paragraph*{$\bullet$見かけは普通の言い直しだが,単純な言い直しとしては解決できない表現}このタイプのものは1つ見つかった.\begin{quote}「カメラもうちょっと右から{\bf映してくれる},右に{\bf回り込んでくれる}」\end{quote}この例の場合,一見動詞句の非明示的な言い直しのように見えるが,単純に「映して」を「回り込んで」で置き換えてしまうことはできない.ここでは,話者は「右から映す」ための手段として「右に回り込む」ことを依頼しているのであって,回り込みながら「(何かを)撮影する」ことが重要なのである.このような発話を正しく理解するためには,談話解析までも構文解析と並列化した仕組みが必要である.そして,外界の状況やユーザの意図に応じた処理を行わなければならない.
\section{おわりに}
本論文では,自己修復のモデルを拡張し,従来よりも多くの表現を検出する方法を示した.そして,RPDとRPの間で単語間の対応関係を取ることにより,従来の手法では単純に削除されてしまった情報を,自己修復の冗長性を修正した後にも適切に残すことができる手法を提案した.また,本論文で用いたパーザは,単語の役割を認識することで,日本語に見られる不適格性の1つである助詞落ちを回復することができる.そして,自己修復の修正処理は,パーザによって構文木に付与される単語の役割を利用することで,適切かつ効率的に行なうことができる.提案した検出処理は,日本語,及び導入したパーザに依存するため,その他の言語への直接の応用は難しいかも知れない.しかし,修正処理は,日本語やパーザに関係なく応用が可能である.本論文では,小規模のコーパスに人手で適用した結果をもとに定性的な考察を行った.今後の課題の1つとして,実際の音声対話システム上での利用を視野にいれたより定量的な評価を行う必要がある.提案手法では,自己修復の検出に構文的な手がかりのみを用いた.構文的な手がかりを用いれば,ほとんどの自己修復の検出は可能である.しかし,非明示的なリスタートはこの限りではない.また,\ref{sec:ILL_FORMEDNESS}節で述べたように,本手法で用いたパーザは,多くの語を含んでいる仮説を優先する.従って,自己修復の可能性を検出することはできても,そこに自己修復の存在を認めない仮説の方が優先されてしまうことがある.例えば,「馬の右の,馬の左の玉を押して」という発話の場合,「馬の右の」を「馬の左の」で言い直しているとする仮説よりも,「馬の右の」が2番目の「馬」に係るとする仮説が優先される.この問題を解決するためには,\cite{BJ1992,OD1992,NC1993,HP1997,SJ2000}等のように音響/音韻情報を導入して,自己修復として処理する仮説の方が尤度が高くなるような処理が必要になる.検出後の修正処理のために提案したアルゴリズム(図\ref{fig:DMERGE})は,我々のコーパス内の事例と我々が解釈可能であると考え出した例とを満足する.しかしながら,このアルゴリズムが前提としする3つの仮定(\ref{subsubsec:processingSC}節)が,広く一般に成り立つものであるかどうかについては,他の分野のコーパスなどを用いて検証する必要がある.また,本論文では,発話の終端は判るものと仮定して話を進めたが,実際にはこれは大きな問題であり,本論文で用いたパーザが漸進的な構文解析を行うのも,1つにはこの問題を踏まえてのことである.発話が連続する状態では,自己修復として扱うべきか別々の発話として扱うべきかを決定できる枠組みが必要である.そのような枠組みとの連携も今後の課題である.自己修復を検出する手がかりとして,編集表現と呼ばれるキーワードが用いたが,これらの表現は必ずしも自己修復だけに用いられるのではなく,通常の否定表現としても用いられる.自己修復とそれらの表現の区別をつけられる仕組みも必要である.\bibliographystyle{jnlpbbl}\bibliography{JSelfCorrection}\begin{biography}\biotitle{略歴}\bioauthor{船越孝太郎(学生会員)}{2000年東京工業大学工学部情報工学科卒業.2002年同大学院情報理工学研究科計算工学専攻修士課程終了.同年同大学院情報理工学研究科計算工学専攻博士課程進学,在学中.音声対話に関する研究に従事.情報処理学会,人工知能学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{徳永健伸(正会員)}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\bioauthor{田中穂積(正会員)}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程終了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N01-05
|
\section{はじめに}
label{sec:Introduction}参照表現の生成は自然言語処理の重要なタスクの1つであり~\cite{BD2003},多くの研究者により様々な手法が提案されてきた~\cite{DA1985,RD1991,RD1992,RD1995,EK2002,EK2003}.参照表現生成に関する従来の研究は,主に対象物体固有の属性と他の物体との関係を扱ってきた.ただし,他の物体との関係は2項関係のみである.そのため従来の手法では,指示すべき物体とその他の物体との間に外見的特徴の差異が少なく,他の物体との2項関係も弁別の用を成さない状況において,適切な参照表現を生成することができない.ここで適切な参照表現とは,自然で過度な冗長性のない表現のことを言う.\begin{figure}[b]\begin{center}\includegraphics{14-1ia5f1.eps}\end{center}\caption{従来手法で表現生成が困難な例}\label{fig:Problem}\end{figure}例として,図~\ref{fig:Problem}において対象物体$c$を人物$P$に示すことを考える.対象物体$c$は,外見からは物体$a$や物体$b$から区別することができない.そこで次の方策として,対象物体$c$とテーブルとの間の関係を用いることが考えられる(例えば,「テーブルの右の玉」).しかし,物体$a$も物体$b$もテーブルの右にあるため,この状況においては「$X$の右の$Y$」という関係に弁別能力はない.テーブルの代わりに物体$a$や物体$b$を参照物として使うことも意味がない.なぜなら物体$a$および物体$b$は物体$c$が一意に特定できないのと同じ理由によって一意に特定することができないからである.このように,物体の属性と2項関係のみを用いる従来の手法では参照表現の生成に失敗する.手法によっては「玉の前の玉の前の玉」のような論理的には誤りでない表現を生成できるが,適切な参照表現ではない.このような状況は今まで注目されてこなかったが,物体配置の様な状況(例えば\cite{TH2004})では頻繁に起こりうる.この場合,「一番手前の玉」という表現が自然かつ簡潔であると考えられる.このような参照表現を生成するためには,話し手は知覚的に特徴のある物体群を認識し,群に含まれる物体の間の$n$項関係を用いる必要がある.この問題に対し,我々は知覚的群化~\cite{KT1994}を用いて物体群を認識し,物体群の間の関係を用いて参照表現を生成する手法を提案した~\cite{KF2006}.知覚的群化(perceptualgrouping)とは外見的に類似した物体や相互に近接した物体を1つの群として認識することである.我々の提案した手法によって物体の$n$項関係を利用した参照表現の生成が可能となったが,この手法の想定する状況は同形同色同大の物体を複数配置した2次元空間という非常に限られたものであったため,一般的な状況には対応できなかった.本論文では,我々が提案した手法を拡張し,従来より利用されてきた色,形,大きさ等の属性や2項関係も利用できる,知覚的群化に基づく参照表現の生成手法を提案する.\cite{KF2006}では,知覚的群化を利用して参照表現を生成するために,参照表現と参照する空間の状況とを結びつけるSOG(SequenceofGroups)という中間表現形式を提案した.本論文では,SOGを包含関係以外の関係や物体の属性も表現できるように拡張する.そして拡張したSOGを用いた生成手法を提案し,大学生18人に対する心理実験によって実装システムが生成した参照表現を評価する.本論文の構成は以下の通りである.まず\ref{sec:SOG}節では\cite{KF2006}で提案したSOGについて説明し,その拡張を行なう.\ref{sec:Generation}節では拡張したSOGを用いて知覚的群化に基づく参照表現生成手法を提案する.そして提案手法の評価と考察を\ref{sec:EvalAndDiscussion}節に示す.最後に\ref{sec:Conclusion}節で本論文の結論と今後の課題を述べる.
\section{SOG}
label{sec:SOG}我々は,参照する空間の状況と対象物体を特定する参照表現との間の中間表現として,SOG(SequenceOfGroups)を提案した~\cite{KF2006}.これは,物体全体の群$G_{0}$から始まり対象物体のみを含む物体群$G_{n}$に至る物体群の列を表現したものである.日本語では,物体全体からより小さな物体群へ参照範囲を絞り込みながら対象物体を特定する.SOGはこの絞り込みの過程を抽象化したものである.SOG中の物体群の順序は主要部後置型である日本語における群の表現順序に対応する.\cite{KF2006}で想定している状況は同形同色同大の物体を複数配置した2次元空間であったため,物体群の間の関係は空間的関係のみであった.したがって群間の関係を明示する必要はなく,SOGは以下のように定式化されている.\[\mbox{SOG}:[G_{0}\G_1\\dots\G_{n}]\]ここで$G_x$は物体群であり,$G_0$は物体全体の群,$G_n$は対象物体のみを含む群である.また群間の関係は空間的な絞り込みの関係(内部参照関係)のみを利用している.本論文では色,形,大きさ等の属性情報も利用した参照表現の生成を目的とするため物体群の間の関係が多様化する.そこで我々はSOGの群間に関係を挿入する.拡張したSOGは以下のように定式化できる.\[\mbox{SOG}:[G_{0}\R_{0}\G_1\R_1\\dots\G_{i}\R_{i}\\dots\R_{n-1}\G_{n}]\]ここで,$R_x$は群間の関係を示している.以後,断りなしにSOGという場合は,この拡張したSOGを指す.\subsection{群間の関係}$R_{i}$は群$G_{i}$と群$G_{i+1}$を結ぶ関係を表す.関係には内部参照関係と外部参照関係の2種類がある.\begin{itemize}\item{内部参照関係}\\群$G_{i}$から$G_{i+1}$への絞り込みの関係であり,$G_{i}\supsetG_{i+1}$となる.内部参照関係は,絞り込みに利用する素性の種類に応じて下位範疇に細分類できる.これらの下位範疇を以下の記号で表す.\\\begin{tabular}{cl}\rel{type}&:物体のタイプ\\\rel{space}&:位置関係\\\rel{shape}&:物体の形\\\rel{color}&:物体の色\\\rel{size}&:物体の大きさ\end{tabular}\\\item{外部参照関係}\\$G_{i}\capG_{i+1}=\phi$となり,この関係は空間的な関係に限られる.外部参照関係は記号{\extrel}によって表す.\end{itemize}\bigskip以上より,$R_{i}$は以下のように定式化できる.\[R_{i}\in\{\mrel{space},\mrel{type},\mrel{shape},\mrel{color},\mrel{size},\mextrel\}\]図~\ref{fig:GenSample}に示す状況で,物体$b4$を指示する参照表現とその参照表現に対応するSOGの例を示す.全体群は$\{all\}$と略記する.下線は言語表現と群・関係の間の対応関係を表す.\begin{center}\begin{tabular}{ll}参照表現:&「\underline{手前の}$_{(1)}$\underline{机の}$_{(2)}$\underline{上の}$_{(3)}$\underline{黒い}$_{(4)}$\underline{玉}$_{(5)}$」\\SOG:&[$\{all\}\\mrel{type}\\{t1,t2,t3\}\\underline{\mrel{space}}_{(1)}\\underline{\{t2\}}_{(2)}\\underline{\mextrel}_{(3)}\\{b3,b4\}\\underline{\mrel{color}}_{(4)}\\underline{\{b4\}}_{(5)}$]\\\end{tabular}\end{center}\begin{figure}[hbtp]\begin{center}\includegraphics{14-1ia5f2.eps}\caption{参照表現を生成する状況の例}\label{fig:GenSample}\end{center}\end{figure}
\section{参照表現の生成}
label{sec:Generation}本論文が提案する参照表現の生成アルゴリズムは以下の4ステップから成る.\begin{quote}\begin{description}\item[Step~1]知覚的群化\item[Step~2]SOGの生成\item[Step~3]言語表現の付与\item[Step~4]順位付け\end{description}\end{quote}以降,これらのステップをそれぞれ説明する.また,例として図~\ref{fig:GenSample}中の状況を利用する.提案手法は,物体の重なりを許すことで「〜の上の〜」という位置関係にも対応する.\subsection*{Step~1:知覚的群化}知覚的群化は以下の5つの素性に対して行う.\begin{quote}\begin{enumerate}\item物体のタイプ\item物体の形\item物体の色\item物体の大きさ\item物体の位置\end{enumerate}\end{quote}ただし,「(5)物体の位置」に関しては以下の2種類の知覚的群化を行なう.\begin{quote}\begin{itemize}\item[(5.1)]物体間の近接性:近接した物体を群化する.\item[(5.2)]閉包:他の物体または特定の領域に囲まれている物体を群化する.\\\hskip3em図~\ref{fig:GenSample}の例の場合,それぞれの机の上に乗っている玉を群化する.\end{itemize}\end{quote}物体間の近接性(5.1)については,\cite{KT1994}の手法を用いて知覚的群化を行なう.同手法は色や大きさや形などの近接性以外の素性にも素性毎の「距離」を定義することによって適用可能であるが,本論文ではこれらの素性については物体毎に予め定めたカテゴリに分類した.タイプには「机,植木,玉」,形には「四角,丸」,色には「赤,青,緑,黒」,大きさには「大,中,小」のカテゴリを用意し,Step~3で付与する言語表現もカテゴリ毎に用意した.知覚的群化に際しては「(1)物体のタイプ」を特に重要視する.なぜなら,人は一般的に異なるタイプの物体を同一の物体群として捕らえることは少なく,また「タイプ」という素性はその物体を最も単純に表現できるものだからである.そこで本手法では,まず物体のタイプを利用した群化を行ない,それぞれのタイプの物体群に対して(2)〜(5)の素性を利用した群化を行なう.Th\'{o}rissonは下の3通りの素性の組み合わせを知覚的群化の異なる方略として認めている.\begin{itemize}\item形と近接性\item色と近接性\item大きさと近接性\end{itemize}つまり,Th\'{o}rissonの知覚的群化の手法では,形,色,大きさが類似しているだけでなく,各物体が相互に近接している場合のみそれらを群化する.しかし,視覚情報から物体の群化を行なうだけの場合,この方略は有効だが,物体群を利用して参照表現を生成しようとする場合(例えば図~\ref{fig:GenSample}の状況で「青い2つの玉のうち」の様に青い2つの玉を群化した表現を生成したい場合),距離の離れた物体同士を色や形,大きさ等の素性から1つの物体群として扱うことが必要となる.よって本手法では,素性ごとに単独で知覚的群化を行なう.生成した各物体群には,知覚的群化の際に利用した素性に応じてラベルを付与する.このラベルは,次のステップのSOG生成において使用する.本手法が対象とする状況では,\{\textit{type,shape,color,size,space}\}の5つのラベルを定義する.また特別な群として,全体群と各物体単体の群も生成する.単体群に対しては\textit{space}ラベルを与える.全体群にはラベルは必要ない.下の例が示すように,一つの群は複数のラベルを持ちうる.図~\ref{fig:GenSample}の状況に対して知覚的群化を行なった結果生成される物体群を以下に示す.\bigskip\begin{quote}\renewcommand{\arraystretch}{}\begin{tabular}{lll}\hline素性&ラベル&認識された群\\\hline{\bf全体群}&なし&$\{t1,t2,t3,p1,b1,b2,b3,b4,b5\}$\\{\bf単体群}&\textit{space}&$\{t1\},\{t2\},\{t3\},\{p1\},\{b1\},\{b2\},\{b3\},\{b4\},\{b5\}$\\{\bfタイプ}&\textit{type}&$\{t1,t2,t3\},\{p1\},\{b1,b2,b3,b4,b5\}$\\{\bf形}&\textit{shape}&$\{t1,t2\},\{t3\}$\\{\bf色}&\textit{color}&$\{b1,b2\},\{b3\},\{b4,b5\}$\\{\bf大きさ}&\textit{size}&$\{b1,b3,b4\},\{b2,b5\}$\\{\bf近接性}&\textit{space}&$\{t2,t3\},\{b1,b3,b4,b5\},\{b3,b4,b5\}$\\{\bf閉包}&\textit{space}&$\{b1\},\{b3,b4\}$\\\hline\end{tabular}\end{quote}\subsection*{Step~2:SOGの生成}\label{subsec:MakeSOG}Step~1で生成した群をもとに,SOGを生成する.SOG生成は,自然言語生成のいわゆるコンテント・プランニングの段階に相当する.生成アルゴリズムを図~\ref{fig:makeSOG}〜図~\ref{fig:search}に示す.図~\ref{fig:makeSOG}に定義した3つの変数,\texttt{Target},\texttt{AllGroups},\texttt{SOGList}は大域変数である.\texttt{Target}は参照表現によって指示する対象物,\texttt{AllGroups}はStep~1で生成されたすべての群の集合,\texttt{SOGList}は生成されたSOGのリストである.\texttt{Target}と\texttt{AllGroups}が与えられると,関数\texttt{makeSOG}はすべての可能なSOGを深さ優先で生成し,\texttt{SOGList}に追加する.\paragraph{makeSOG(図~\ref{fig:makeSOG})}\texttt{makeSOG}は最初にSOGの第1要素として全体群を追加する.次に空間内に存在する物体のタイプの中から対象物体より顕現性が高いか等しいタイプを選択し,SOGを拡張する.顕現性の高い物体を優先的に手がかりとして使うことにより,聞き手の理解が容易になると期待できる.ここでは,大きさに着目して,机,植木,ボールの順に顕現性が高いと仮定する.これを繰り返し,選択する物体のタイプがなくなったら終了する.\paragraph{search(図~\ref{fig:search})}この関数は生成途中のSOGを引数とする.SOGの最後の要素を\texttt{LastGroup}とし,以下の場合に分けて処理を行なう.\begin{enumerate}\item\texttt{LastGroup}が対象物体のみからなる単体群の場合(05--06行)\\この場合SOGは完成しているので,\texttt{SOGList}にSOGを追加して終了.\item\texttt{LastGroup}が対象物体以外の単体群からなる場合(08--14行)\\この場合は,\texttt{LastGroup}の単体群と外部参照関係によって関係付けられる対象物体を含む群を探し,この群によってSOGを拡張する.まず,対象物体を含み,\texttt{LastGroup}に含まれる物体(参照物体)から適切な位置関係にある物体群を探し\texttt{GroupList}に代入する.適切な位置関係とは,以下の条件(a),(b),(c)を満たすものである.ここで実装上の効率化のため,条件(a)に該当する方向を記録しておく.\begin{enumerate}\item対象物体を含む群の全要素が参照物体から「奥,右奥,右,右手前,手前,左手前,左,左奥,上」\footnote{参照物体の重心を原点とし,空間内の人物が向いている方向を「奥」の方向として方向を8等分し,この順に方向を割り当てる.}のいずれかの表現で表せる同一の方向にある.\item(a)と同一の方向で,なおかつ対象物体を含む群のいずれの要素よりも参照物体から近い位置に対象物体と同じタイプの他の物体が存在しない.\item対象物体を含む群はいずれかのタイプの全体群ではない.\end{enumerate}次に外部参照関係{\extrel}と\texttt{GroupList}の中のそれぞれの物体群を追加したSOGを生成し,関数\texttt{search}(図~\ref{fig:search})を再帰的に呼び出す.\texttt{GroupList}中の物体群を全て適用したら終了.\item\texttt{LastGroup}が対象物体を含む複数の物体を含む場合(17--26行)\\この場合は,新しい素性(内部参照関係)を使って\texttt{LastGroup}をさらに絞り込む.\texttt{AllGroups}中の各物体群と\texttt{LastGroup}との積集合をとった群\texttt{NewG}を生成し,付与されているラベルもコピーする.\texttt{NewG}が対象物体を含むならば,その時点のSOGと\texttt{NewG}を引数として関数\texttt{extend}(図~\ref{fig:extend})を呼び出す.ただし,\texttt{NewG}が重複しないように\texttt{GroupList}を利用してチェックする.\texttt{AllGroups}中の物体群を全て適用したら終了.\item\texttt{LastGroup}が対象物体以外の複数の物体を含む場合(28--32行)\\この場合は,当面の目標として対象物体以外の単体群を作る.\texttt{AllGroups}の中から,\texttt{LastGroup}に包含される物体群\texttt{Group}を選択し,それぞれの\texttt{Group}に対してその時点のSOGと\texttt{Group}を引数として関数\texttt{extend}(図~\ref{fig:extend})を呼び出す.\texttt{LastGroup}に包含される物体群\texttt{Group}を全て適用したら終了.\end{enumerate}\paragraph{extend(図~\ref{fig:extend})}この関数は生成途中のSOG(\texttt{SOG})と次に追加する群(\texttt{Group})を引数とする.\texttt{Group}に付与されているラベルのリストを\texttt{LabelList}に取り出す(ただし\textit{type}ラベルは除外する).それぞれのラベルから\texttt{SOG}の末尾の物体群と\texttt{Group}を結ぶ関係,および\texttt{Group}を\texttt{SOG}のコピー\texttt{SOGcopy}に追加する.そして関数\texttt{search}(図~\ref{fig:search})を\texttt{SOGcopy}に対して呼び出す.図~\ref{fig:GenSample}の状況において対象物体を$b1$としたときに生成されるSOGを以下に示す.全体群は$\{all\}$と略記する.\begin{enumerate}\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\mrel{space}\\{t1\}\\mextrel\\{b1\}]$\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\mrel{shape}\\{t1,t2\}\\mrel{space}\\{t1\}\\mextrel\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{color}\\{b1,b2\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{color}\\{b1,b2\}\\mrel{size}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{size}\\{b1,b4,b3\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{size}\\{b1,b4,b3\}\\mrel{color}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1,b3,b4,b5\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1,b3,b4,b5\}\\mrel{color}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b1,b3,b4,b5\}\\mrel{size}\\{b1,b4,b3\}\\mrel{space}\\{b1\}]$\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\mrel{space}\\{b3,b4,b5,b1\}\\mrel{size}\\{b1,b4,b3\}\\mrel{color}\\{b1\}]$\end{enumerate}\begin{center}\begin{figure}[t]{\small\setlength{\baselineskip}{13pt}\begin{alltt}Target#対象物体AllGroups#知覚的群化によって生成された全ての群のリストSOGList#SOGのリスト01:makeSOG()02:SOG=[];#物体群と関係を要素とするリスト03:All=getAll();#物体の全体群を得る04:add(All,SOG);#SOGに追加05:TypeList=getAllTypes(All);#物体のタイプの集合を得る06:TypeOfTarget=getType(Target);#対象物体のタイプを得る07:TargetSaliency=saliency(TypeOfTarget);#対象物体のタイプの顕現性08:foreachTypeinTypeListdo#Type\oneof\{Table,Plant,Ball\}09:ifsaliency(Type){\izyo}TargetSaliencythen#顕現性を比較(Table>Plant>Ballを仮定)10:Group=get(AllGroups,Type);#そのタイプの全体群を得る11:SOGcopy=copy(SOG);#SOGのコピーを作る12:add(\rel{\mathtt{type}},SOGcopy);#typeの関係を末尾に追加13:add(Group,SOGcopy);#Groupを末尾に追加14:search(SOGcopy);15:endif16:endfor17:return\end{alltt}}\caption{makeSOG}\label{fig:makeSOG}\end{figure}\begin{figure}[t]{\small\setlength{\baselineskip}{13pt}\begin{alltt}01:search(SOG)02:LastGroup=getLastElement(SOG);#SOGの最後に位置する物体群を得る03:Card=getCardinality(LastGroup);#物体群の要素数を得る04:ifCard==1then05:ifcontainsTarget(LastGroup)then#群が対象物体を含んでいるかを調べる06:add(SOG,SOGList);07:else08:GroupList=searchTargetGroups(LastGroup);#LastGroupから適切な位置にあり,対象物体を含んでいる物体群の集合を得る09:foreachGroupinGroupListdo10:SOGcopy=copy(SOG);11:add(\extrel,SOGcopy);12:add(Group,SOGcopy);13:search(SOGcopy);14:endfor15:endif16:elsifcontainsTarget(LastGroup)then17:Checked=[];18:foreachGroupinAllGroupsdo19:NewG=Intersect(Group,LastGrouop);#交差をとった群を生成20:Labels=getLabels(Group);21:setLabels(Labels,NewG);#ラベルをGroupからNewGへコピー22:ifcontainsTarget(NewG)\&!contains(Checked,NewG)then23:add(NewG,Checked);24:extend(SOG,Group);25:endif26:endfor27:else28:foreachGroupofAllGroupsdo29:ifcontains(LastGroup,Group)then30:extend(SOG,Group);31:endif32:endfor33:endif34:return\end{alltt}}\caption{search}\label{fig:search}\end{figure}\begin{figure}[t]{\small\setlength{\baselineskip}{13pt}\begin{alltt}01:extend(SOG,Group)02:LabelList=getLabels(Group);#Groupに付与されている属性ラベルのリストを得る03:foreachLabelinLabelListdo#Label\oneof\{space,shape,color,size\}04:SOGcopy=copy(SOG);#SOGのコピーを作る05:add(\rel{\mathtt{Label}},SOGcopy);#関係を末尾に追加06:add(Group,SOGcopy);#Groupを末尾に追加07:search(SOGcopy);08:endfor09:return\end{alltt}}\caption{extend}\label{fig:extend}\end{figure}\end{center}\subsection*{Step~3:言語表現の付与}\label{subsec:MakeExp}SOGの各要素に表現を付与することで,参照表現を生成する.表現の付与には以下の規則を用いる.規則1は物体群の表現を,規則2は群間の関係の表現を生成する規則である.それぞれの規則の中では,各下位規則は表記順に優先度が高いものとする.\paragraph{[規則1]:物体群に対する表現付与}\begin{description}\item[規則1.1]\textbf{全体群($\{all\}$)は言語化しない}\\\cite{KF2006}で述べられているとおり,全体群が明示的に言語化されることがまれであるという被験者実験の結果を参考にした.\item[規則1.2]\textbf{各単体群には「タイプ名」もしくは「タイプ名+『の』」を付与}\\単体群がSOGの最後の要素でない場合は,外部参照関係(\extrel)が後続するため「の」を付与する.規則2.1によりタイプの絞り込みは言語化せず,単体群に対して「タイプ名」を付与することで必要な情報を言語化する.\item[規則1.3]\textbf{各タイプの全体群は言語化しない}\\理由は規則1.1に同じ.\item[規則1.4]\textbf{後続が内部参照関係$\mrel{space}$の場合,「個数+タイプ名+『のうち』」を付与,その他の関係が後続する場合は言語化しない}\\後続する関係が空間的な関係($\mrel{space}$)以外の場合,その関係は名詞(タイプ名)の前の関係の列として言語化できる.例えば,「大きい玉のうちの赤い玉」は「大きい赤い玉」と表現できる.外部参照関係については,単体群以外には後続しないので規則1.2で全て処理される.\end{description}\paragraph{[規則2]:群間の関係に対する表現付与}\begin{description}\item[規則2.1]\textbf{タイプの関係(\rel{type})は言語化しない}\\規則1.2を参照.\item[規則2.2]\textbf{各関係に関係を示す表現を付与}\\\rel{shape},\rel{color},\rel{size}にはそれぞれの属性の値の表現を付与する.\extrel,\rel{space}に対する表現の付与は以下の場合分けに従って行なう.ここで,$|G_i|$は$G_i$の要素数を表す.\paragraph{内部参照関係($G_i\\mrel{space}\G_{i+1}$)}\begin{itemize}\item$|G_i|=2$のとき\\絞り込みの前後で要素数は必ず少なくなるため,$|G_{i+1}|=1$である.各物体の座標から,4つの表現「[右/左/手前/奥]の」のいずれかを付与する.\item$|G_i|\geq3$かつ$|G_{i+1}|=1$のとき\\各物体の座標を参考にし,以下の表現の妥当性をこの順に調べ,妥当な表現を付与する.\begin{itemize}\item[(1)]「一番[手前/奥/右/左/右手前/左手前/右奥/左奥]の」\item[(2)]「真ん中の」\item[(3)]「[左/右/手前/奥]から$j$番目の」\end{itemize}\item$|G_{i+1}|\geq2$のとき\\各物体群の座標を参考にし,「[右/左/手前/奥/真ん中/右手前/左手前/右奥/左奥]の」の中から妥当な表現を付与する.\end{itemize}\paragraph{外部参照関係($G_i\mextrel\G_{i+1}$)}\begin{itemize}\item\texttt{search}の性質からこの場合は$|G_{i}|=1$となる.ここではStep~2のSOG生成のときに記録した方向に対応する表現(「[奥/右奥/右/右手前/手前/左手前/左/左奥/上]の」)を付与する.\end{itemize}\end{description}図~\ref{fig:GenSample}の状況においてStep~2で生成したSOGに表現を付与すると以下のようになる.\begin{enumerate}\itemsep=0.8ex\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\underline{\mrel{space}}_{(1)}\\underline{\{t1\}}_{(2)}\\underline{\mextrel}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{一番左の}$_{(1)}$\\underline{机の}$_{(2)}$\\underline{上の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\underline{\mrel{shape}}_{(1)}\\underline{\{t1,t2\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{t1\}}_{(4)}\\underline{\mextrel}_{(5)}\\underline{\{b1\}}_{(6)}]$\\「\underline{丸い}$_{(1)}$\\underline{2つの机のうち}$_{(2)}$\\underline{左の}$_{(3)}$\\underline{机の}$_{(4)}$\\underline{上の}$_{(5)}$\\underline{玉}$_{(6)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\underline{\{b1\}}_{(2)}]$\\「\underline{一番左の}$_{(1)}$\\underline{玉}$_{(2)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{color}}_{(1)}\\underline{\{b1,b2\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{青い}$_{(1)}$\\underline{2つの玉のうち}$_{(2)}$\\underline{左の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{color}}_{(1)}\\{b1,b2\}\\underline{\mrel{size}}_{(2)}\\underline{\{b1\}}_{(3)}]$\\「\underline{青い}$_{(1)}$\\underline{小さい}$_{(2)}$\\underline{玉}$_{(3)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{size}}_{(1)}\\underline{\{b1,b3,b4\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{小さい}$_{(1)}$\\underline{3つの玉のうち}$_{(2)}$\\underline{一番左の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{size}}_{(1)}\\{b1,b3,b4\}\\underline{\mrel{color}}_{(2)}\\underline{\{b1\}}_{(3)}]$\\「\underline{小さい}$_{(1)}$\\underline{青い}$_{(2)}$\\underline{玉}$_{(3)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\underline{\{b1,b3,b4,b5\}}_{(2)}\\underline{\mrel{space}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{左の}$_{(1)}$\\underline{4つの玉のうち}$_{(2)}$\\underline{一番左の}$_{(3)}$\\underline{玉}$_{(4)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\{b1,b3,b4,b5\}\\underline{\mrel{color}}_{(2)}\\underline{\{b1\}}_{(3)}]$\\「\underline{左の}$_{(1)}$\\underline{青い}$_{(2)}$\\underline{玉}$_{(3)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\{b1,b3,b4,b5\}\\underline{\mrel{size}}_{(2)}\\underline{\{b1,b3,b4\}}_{(3)}\\underline{\mrel{space}}_{(4)}\\underline{\{b1\}}_{(5)}]$\\「\underline{左の}$_{(1)}$\\underline{小さい}$_{(2)}$\\underline{3つの玉のうち}$_{(3)}$\\underline{一番左の}$_{(4)}$\\underline{玉}$_{(5)}$」\item$[\{all\}\\mrel{type}\\{b1,b2,b3,b4,b5\}\\underline{\mrel{space}}_{(1)}\\{b1,b3,b4,b5\}\\underline{\mrel{size}}_{(2)}\\{b1,b3,b4\}\\underline{\mrel{color}}_{(3)}\\underline{\{b1\}}_{(4)}]$\\「\underline{左の}$_{(1)}$\\underline{小さい}$_{(2)}$\\underline{青い}$_{(3)}$\\underline{玉}$_{(4)}$」\end{enumerate}\subsection*{Step~4:順位付け}\label{subsec:SetScore}出力表現を決定するために,表現中で使用された関係と表現の長さを考慮して,各表現にスコアを与える.最初にSOG内の各関係に対して$[0,1]$の範囲でコストを与える.関係のコストは以下のように決定する.これらのコストは\cite{RD1995}で述べられている素性の優先順位に従う.\vspace{5mm}\begin{center}\begin{tabular}{l@{:}p{0.7\hsize}}\hline\rel{type}&(無視)\\\rel{shape}&0.2\\\rel{color}&0.4\\\rel{size}&「大きい」:0.6,「小さい」:0.8,「中くらいの」:1.0\\\rel{space},\extrel&コスト関数を\cite{TTS2005}で提案されたポテンシャル関数に従って定義した.ただし,関係「〜の上にある〜」のコストは0とする.\\\hline\end{tabular}\end{center}\vspace{5mm}次に,関係のコスト$\mathit{cost\_rel}$を各関係のコストの平均値として求める.そして表現長のコスト$\mathit{cost\_len}$を以下の式で求める.表現長は文字数で測る.\begin{displaymath}\mathit{cost\_len}=\frac{\mathrm{length(expression)}}{\max_i\mathrm{length(expression_{\mathit{i}})}}\end{displaymath}コスト$\mathit{cost\_rel}$及び$\mathit{cost\_len}$を用い,表現のスコア$\mathit{score}$を以下のように定める.\begin{displaymath}\mathit{score}=\frac{1}{\alpha\times\mathit{cost\_rel}+(1-\alpha)\times\mathit{cost\_len}}\end{displaymath}$\alpha$の値は,次節の実験では0.5に固定した.図~\ref{fig:GenSample}の状況において生成した表現にコストを付与し,スコアの高い順に示す.各行の表現の右の数値はその表現のスコア($\mathit{score}$,$\alpha=0.5$),括弧内の数値は左から関係のコスト($\mathit{cost\_rel}$),表現長のコスト($\mathit{cost\_len}$)である.\begin{flushleft}\begin{tabular}{rll}1.&「一番左の玉」&3.66(0.251,0.294)\\2.&「左の青い玉」&2.62(0.468,0.294)\\3.&「一番左の机の上の玉」&2.44(0.289,0.529)\\4.&「青い2つの玉のうち左の玉」&2.20(0.204,0.706)\\5.&「青い小さい玉」&2.10(0.600,0.353)\\6.&「小さい青い玉」&2.10(0.600,0.353)\\7.&「左の小さい青い玉」&1.90(0.578,0.471)\\8.&「丸い2つの机のうち左の机の上の玉」&1.67(0.259,0.941)\\9.&「左の4つの玉のうち一番左の玉」&1.64(0.393,0.824)\\10.&「小さい3つの玉のうち一番左の玉」&1.42(0.526,0.882)\\11.&「左の小さい3つの玉のうち一番左の玉」&1.31(0.529,1.000)\\\end{tabular}\end{flushleft}
\section{評価と考察}
label{sec:EvalAndDiscussion}提案手法を評価するため,上記のアルゴリズムをJavaで実装し,大学生18人を対象に心理実験を行なった.\subsection{実験}実装システムが生成した参照表現を評価する被験者実験を実験1と実験2に分けて行なった.被験者は実験1の後に実験2を行なったが,それらの関連については被験者には知らせていない.実験に使用した20布置と,各布置に対して実装システムが生成した上位5つの参照表現を付録に示す.布置は物体の個数も位置もランダムに決定したもので,対象物体もランダムに選んだ.ただし布置は,参照表現が5つ以上生成され,かつ対象物体と同じタイプの物体が2つ以上存在するものに限定した.これは「机」のような1単語の表現では対象物体を特定できないようにするためである.\paragraph{実験1}この実験は,システムによって生成した参照表現を人間が解釈した時に,どの程度正確に対象物体を同定できるかを評価するために行なった.被験者に,布置とその布置中の対象物体1つに対して生成した参照表現のうち最もスコアが高かったものを示し,その参照表現が指し示す物体を選ばせた.図~\ref{fig:Eval1}は実験に使用した視覚刺激の例である.\begin{figure}[t]\begin{center}\includegraphics{14-1ia5f6.eps}\caption{実験1に使用した視覚刺激の例}\label{fig:Eval1}\end{center}\end{figure}\paragraph{実験2}この実験はシステムに実装したスコア付けがどの程度人間の直感に合致しているかを評価するために行なった.対象物体を明示した布置の画像と,その布置中の対象物体1つに対して生成した参照表現をスコアが高い順に5つ被験者に示し,その中で被験者が最もよいと思う表現を選ばせた.判断基準は明確に設定せず各自の判断に任せた.図~\ref{fig:Eval2}は実験に使用した視覚刺激の例である.布置は課題1と同じもの20種を使用した.被験者に示した5つの参照表現は実験1で評価した参照表現も含む.\begin{figure}[t]\begin{center}\includegraphics{14-1ia5f7.eps}\caption{実験2に使用した視覚刺激の例}\label{fig:Eval2}\end{center}\end{figure}\subsection{結果}表~\ref{tab:Result1}に実験1の結果を示す.対象物体特定の正解率は全体で95.0\%であった.このことから,実装システムが生成した参照表現は高い対象物体特定能力をもつと言える.他の布置に比べ,布置20(付録参照)は正解率が低いが,これは位置の計算を直交座標系に準じて行なったためと考えられる.布置20中の対象物体に対して実装システムは,対象物体が垂直方向において人物$P$に最も近いため,「一番手前の玉」という表現を生成している.この表現に対してほとんどの被験者は図中の一番右側の玉を選択した.このことから「一番手前」という表現では,人物$P$と物体間のユークリッド距離が最も重要な要素となっていると考えられる.\begin{table}[b]\centering\caption{実験結果:正解率}\label{tab:Result1}\vspace{1mm}\begin{tabular}{c|cccccccccc|c}\cline{1-11}布置&1&2&3&4&5&6&7&8&9&10\\正解率&0.89&1&1&1&1&1&1&0.94&1&1\\\hline\hline布置&11&12&13&14&15&16&17&18&19&20&平均\\正解率&1&0.94&1&1&1&1&1&1&1&0.17&0.95\\\hline\end{tabular}\vspace{10pt}\centering\caption{実験結果:得票率}\label{tab:Result2}\vspace{1mm}\begin{tabular}{c|ccccc|c}\hline表現No.&1&2&3&4&5&計\\\hline度数&134&125&59&22&20&360\\得票率&0.37&0.35&0.16&0.06&0.06&1\\\hline\end{tabular}\end{table}表~\ref{tab:Result2}に実験2の結果を示す.表現No.1〜5の順にスコアが高かった参照表現を表している.上位2位の参照表現の得票率が全体の72\%を占めていることから,本論文で提案した参照表現に対する順位付けの手法が有効であるといえる.\subsection{生成能力の限界}提案手法で生成可能な参照表現には原理的な限界がある.その代表的な3つを以下に示す.\paragraph{並列表現}SOGは直列的に焦点を遷移していくため,例えば「机の前で,木の左の玉」という様な並列的に他の物体を参照する表現は生成できない.また「〜と〜の間の」という関係を利用する表現も生成できない.この様な並列表現を生成するためにはSOGの更なる拡張が必要となる.\paragraph{多重に他の物体を参照する表現}例えば「四角い机の左の木の奥にある玉」という表現では「机→木→玉」という順に3タイプの物体を参照するが,提案手法では対象物体と異なるタイプの物体を2つ以上参照するこのような表現は生成できない.しかしこの制限は,参照表現の簡潔さの観点から意図的に設けたものであり,Step~2のSOG生成を拡張すれば多重に他の物体を参照する表現は生成できる.\paragraph{複数の他の物体を参照する表現}外部参照関係における焦点の遷移には,単体から群への遷移のみを定義している.そのため提案手法では,例えば図~\ref{fig:GenSample}の状況において物体$b1$に対して,\begin{center}\begin{tabular}{ll}参照表現:&「丸い机の上の青い玉」\\SOG:&$[\{all\}\\mrel{type}\\{t1,t2,t3\}\\mrel{shape}\\underline{\{t1,t2\}\\mextrel}\\{b1,b3,b4\}\\mrel{color}\\{b1\}]$\\\end{tabular}\end{center}の様に,SOG中で複数の机(\{$t1,t2$\})を外部参照する表現を生成できない.これを解決するためには,SOG生成手法と表現付与の規則を工夫する必要があり,今後の課題である.\subsection{その他の課題}\paragraph{位置計算}現在のシステムでは,妥当な位置表現を選択するために,直交座標系を8方向に分割して位置を計算するという単純な手法を使っている.適切な位置表現を付与するための座標系や参照枠・視点の選択方法について,今後心理実験などをもとに解明する必要がある.\paragraph{簡潔性と曖昧性}SOGへの表現付与の規則1.4は,物体群の言語化を省略することで表現の簡潔さと自然さを得ることを目的としている.例えば「黒い3つの玉のうち小さい玉」という表現は規則1.4より「黒い小さい玉」という簡潔で人間がより自然と感じる表現となる.しかし,「丸い2つの机のうち右の机」という表現は,一般的に「丸い右の机」とした方が自然であるが,この場合「2つの机のうち」という部分表現が表す物体群の後には「右の」という部分表現が表す群間の空間的内部参照関係\rel{space}が続くため規則1.4による省略は行なわれない.この例から規則1.4が一見不十分だと感じるかもしれないが,空間的内部参照関係の前の物体群を省略してしまうと対象物体特定に曖昧性を生じる場合がある.例えば図~\ref{fig:Problem2}の布置で,物体$b7$を指し示す「青い3つの玉のうち左から2番目の玉」という表現を省略して「青い左から2番目の玉」とすると,「青い玉」で「左から2番目の玉」である物体$b3$との間に曖昧性が生じる.このように,対象物体を特定する情報を適切に言語化する方法にも,さらに改良の余地がある.\begin{figure}[htbp]\begin{center}\includegraphics{14-1ia5f8.eps}\caption{表現を省略できない布置の例}\label{fig:Problem2}\end{center}\end{figure}\paragraph{人間が生成する表現との比較}提案手法のスコア付けの手法はIncrementalAlgorithm~\cite{RD1995}を参考に人手で作成したものである.実験2の結果からスコアの高いものがよりよい表現として選ばれていることより,提案手法のスコア付けの手法が有効であるといえる.しかしながら,この結果は,実装システムが生成した参照表現が人間の生成する参照表現にどこまで近づけたかを示すものではない.人間が生成する参照表現との比較は今後の課題である.
\section{まとめ}
label{sec:Conclusion}本論文では知覚的群化を利用した参照表現の生成手法を提案した.参照表現と参照される空間の状況との間の中間表現であるSOG~\cite{KF2006}を拡張し,空間的包含関係でない位置関係や物体の属性も扱えるようにした.提案手法を実装したシステムが生成した参照表現の対象物体特定の精度は95\%であった.またスコア付けによる参照表現の順位付けは被験者による高い評価を得た.提案手法の生成能力には制限があり,ある種の表現は原理的に生成できない.しかし,提案手法は対象を特定する表現を生成する十分な能力を備えている.\appendix\section*{付録:実験に用いた布置と生成された参照表現}\label{App:A}\ref{sec:EvalAndDiscussion}~節で使用した布置と生成された参照表現をスコアの高い順に以下に示す.机の形や玉の色,物体の個数はランダムに決定した.物体の個数は以下の範囲に制限した.\begin{itemize}\item机:0〜3個\item木:0〜2個\item玉:3〜9個\end{itemize}対象物体もランダムに選択し,図中ではXを付けて,破線で囲んである.\def\arrangement#1#2{}\def\arraystretch{}\begin{longtable}{lcl}\arrangement{1}{\begin{enumerate}\item左奥の青い玉\item左から2番目の玉\item青い3つの玉のうち一番左の玉\item左奥の小さい玉\item青い大きい2つの玉のうち左の玉\end{enumerate}}\\\arrangement{2}{\begin{enumerate}\item一番奥の玉\item緑の玉\item小さい緑の玉\item木の左の玉\item小さい2つの玉のうち奥の玉\end{enumerate}}\\\arrangement{3}{\begin{enumerate}\item左の木の右の玉\item一番手前の玉\item左の赤い玉\item左の木の右奥の赤い玉\item左の小さい玉\end{enumerate}}\\\arrangement{4}{\begin{enumerate}\item左の赤い玉\item赤い玉\item木の左の赤い玉\item木の左の玉\item左の2つの玉のうち奥の玉\end{enumerate}}\\\arrangement{5}{\begin{enumerate}\item青い玉\item奥の青い玉\item丸い机の奥の玉\item丸い机の左奥の青い玉\item右の机の奥の玉\end{enumerate}}\\\arrangement{6}{\begin{enumerate}\item一番手前の玉\item青い玉\item左の机の左の玉\item大きい青い玉\item大きい青い玉\end{enumerate}}\\\arrangement{7}{\begin{enumerate}\item一番左奥の玉\item赤い大きい玉\item赤い2つの玉のうち奥の玉\item左の赤い大きい玉\item左の赤い2つの玉のうち奥の玉\end{enumerate}}\\\arrangement{8}{\begin{enumerate}\item右の緑の玉\item真ん中の緑の玉\item緑の大きい玉\item大きい緑の玉\item緑の2つの玉のうち右の玉\end{enumerate}}\\\arrangement{9}{\begin{enumerate}\item真ん中の机\item丸い大きい机\item大きい丸い机\item丸い2つの机のうち右の机\item大きい2つの机のうち左の机\end{enumerate}}\\\arrangement{10}{\begin{enumerate}\item青い玉\item手前の青い玉\item左の青い玉\item木の右の青い玉\item木の右の青い玉\end{enumerate}}\\\arrangement{11}{\begin{enumerate}\item右の木の右の玉\item一番手前の玉\item右の青い小さい玉\item右の小さい青い玉\item青い小さい玉\end{enumerate}}\\\arrangement{12}{\begin{enumerate}\item左の机の右の玉\item四角い机の右の玉\item右から3番目の玉\item小さい机の右の玉\item緑の3つの玉のうち一番右手前の\\玉\end{enumerate}}\\\arrangement{13}{\begin{enumerate}\item一番右の玉\item一番右の机の右の玉\item木の左の玉\item黒い3つの玉のうち一番右の玉\item丸い2つの机のうち右の机の右の\\玉\end{enumerate}}\\\arrangement{14}{\begin{enumerate}\item机の右の緑の玉\item緑の玉\item右の緑の玉\item右の緑の玉\item大きい緑の玉\end{enumerate}}\\\arrangement{15}{\begin{enumerate}\item机の上の玉\item赤い玉\item手前の赤い玉\item真ん中の玉\item真ん中の赤い玉\end{enumerate}}\\\arrangement{16}{\begin{enumerate}\item左の玉\item丸い机の上の玉\item緑の玉\item左の丸い机の上の玉\item一番左奥の机の上の玉\end{enumerate}}\\\arrangement{17}{\begin{enumerate}\item右の赤い玉\item赤い玉\item一番奥の玉\item右の木の右の赤い玉\item右の木の右の玉\end{enumerate}}\\\arrangement{18}{\begin{enumerate}\item机の奥の玉\item一番右奥の玉\item緑の大きい玉\item大きい緑の玉\item緑の2つの玉のうち右の玉\end{enumerate}}\\\arrangement{19}{\begin{enumerate}\item真ん中の青い玉\item左の机の右の玉\item四角い机の右の玉\item左の机の右手前の青い玉\item木の手前の青い玉\end{enumerate}}\\\arrangement{20}{\begin{enumerate}\item一番手前の玉\item赤い2つの玉のうち手前の玉\item左の3つの玉のうち一番手前の玉\item左の赤い2つの玉のうち手前の玉\item左の机の左手前の3つの玉のうち\\一番手前の玉\end{enumerate}}\\\end{longtable}\begin{thebibliography}{}\bibitem[\protect\BCAY{Appelt}{Appelt}{1985}]{DA1985}Appelt,D.~E.\BBOP1985\BBCP.\newblock\BBOQPlanning{English}ReferringExpressions\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf26},\mbox{\BPGS\1--33}.\bibitem[\protect\BCAY{Byron}{Byron}{2003}]{BD2003}Byron,D.~K.\BBOP2003\BBCP.\newblock\BBOQUnderstandingReferringExpressionsinSituatedLanguage:SomeChallengesforReal-WorldAgents\BBCQ\\newblockIn{\BemtheFirstInternationalWorkshoponLanguageUnderstandingandAgentsfortheRealWorld}.\bibitem[\protect\BCAY{Dale}{Dale}{1992}]{RD1992}Dale,R.\BBOP1992\BBCP.\newblock\BBOQGeneratingReferringExpressions:ConstructingDescriptionsinaDomainofObjectsandProcesses\BBCQ\\newblockMITPress,Cambridge.\bibitem[\protect\BCAY{Dale\BBA\Haddock}{Dale\BBA\Haddock}{1991}]{RD1991}Dale,R.\BBACOMMA\\BBA\Haddock,N.\BBOP1991\BBCP.\newblock\BBOQGeneratingreferringexpressionsinvolvingrelations\BBCQ\\newblockIn{\BemProceedingsoftheFifthConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL'91)},\mbox{\BPGS\161--166}.\bibitem[\protect\BCAY{Dale\BBA\Reiter}{Dale\BBA\Reiter}{1995}]{RD1995}Dale,R.\BBACOMMA\\BBA\Reiter,E.\BBOP1995\BBCP.\newblock\BBOQComputationalinterpretationsoftheGriceanmaximsinthegenerationofreferringexpressions\BBCQ\\newblock{\BemCognitiveScience},{\Bbf19}(2),\mbox{\BPGS\233--263}.\bibitem[\protect\BCAY{Krahmer\BBA\Theune}{Krahmer\BBA\Theune}{2002}]{EK2002}Krahmer,E.\BBACOMMA\\BBA\Theune,M.\BBOP2002\BBCP.\newblock\BBOQEfficientcontext-sensitivegenerationofdescriptions\BBCQ\\newblockInKeesvanDeemterandRodgerKibble,editors,InformationSharing:GivennessandNewnessinLanguageProcessing.CSLIPublications,Stanford,California.\bibitem[\protect\BCAY{Krahmer,vanErk,\BBA\Verleg}{Krahmeret~al.}{2003}]{EK2003}Krahmer,E.,vanErk,S.,\BBA\Verleg,A.\BBOP2003\BBCP.\newblock\BBOQGraph-BasedGenerationofReferringExpressions\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\53--72}.\bibitem[\protect\BCAY{Tanaka,Tokunaga,\BBA\Shinyama}{Tanakaet~al.}{2004}]{TH2004}Tanaka,H.,Tokunaga,T.,\BBA\Shinyama,Y.\BBOP2004\BBCP.\newblock\BBOQAnimatedAgentsCapableofUnderstandingNaturalLanguageandPerformingActions\BBCQ\\newblockInPrendinger,H.\BBACOMMA\\BBA\Ishizuka,M.\BEDS,{\BemLife-LikeCharacters},\mbox{\BPGS\429--444}.Springer.\bibitem[\protect\BCAY{Th\'{o}risson}{Th\'{o}risson}{1994}]{KT1994}Th\'{o}risson,K.~R.\BBOP1994\BBCP.\newblock\BBOQSimulatedPerceptualGrouping:AnApplicationtoHuman-ComputerInteraction\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthAnnualConferenceoftheCognitiveScienceSociety},\mbox{\BPGS\876--881}.\bibitem[\protect\BCAY{Tokunaga,Koyama,\BBA\Saito}{Tokunagaet~al.}{2005}]{TTS2005}Tokunaga,T.,Koyama,T.,\BBA\Saito,S.\BBOP2005\BBCP.\newblock\BBOQMeaningof{Japanese}spatialnouns\BBCQ\\newblockIn{\BemProceedingsoftheSecond{ACL-SIGSEM}WorkshopontheLinguisticDimentionsofPrepositionsandtheirUseinComputationalLinguistics:FormalismsandApplications},\mbox{\BPGS\93--100}.\bibitem[\protect\BCAY{船越\JBA渡辺\JBA栗山\JBA徳永}{船越\Jetal}{2006}]{KF2006}船越孝太郎\JBA渡辺聖\JBA栗山直子\JBA徳永健伸\BBOP2006\BBCP.\newblock\JBOQ知覚的群化に基づく参照表現の生成\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\79--97}.\end{thebibliography}\begin{biography}\bioauthor{船越孝太郎}{2002年東京工業大学大学院情報理工学研究科修士課程修了.2005年同大学院同研究科博士課程修了.同年同大学院同研究科特別研究員.2006年(株)ホンダ・リサーチ・インスティチュート・ジャパン入社.博士(工学).自然言語理解,音声対話に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,IEEE,AAAI,ISCA各会員.}\bioauthor{渡辺聖}{2006年東京工業大学大学院情報理工学研究科修士課程修了.同年(株)日立製作所入社.公共システム事業部にて自治体システムの開発に従事.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\end{biography}\biodate\end{document}
| |
V25N01-03
|
\section{はじめに}
オンラインショッピングでは出店者(以下,店舗と呼ぶ)と顔を合わせずに商品を購入することになるため,店舗とのやりとりは顧客満足度を左右する重要な要因となる.商品の購入を検討しているユーザにとって,商品を扱っている店舗が「どのような店舗か」という情報は,商品に関する情報と同じように重要である.例えば,以下に示す店舗A,Bであれば,多くのユーザが店舗Aから商品を購入したいと思うのではないだろうか.\begin{figure}[b]\begin{center}\includegraphics{25-1ia3f1.eps}\end{center}\hangcaption{楽天市場における店舗レビューの例.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)がメタデータとして付いている.自由記述部分を読むと,発送が遅れているにも関わらず,店舗から何の連絡も来ていないことがわかる.店舗からの連絡に関する評価は,評価対象となっている6つの観点では明確に捉えられていない.}\label{review}\end{figure}\begin{description}\item[店舗A:]こまめに連絡をとってくれ,迅速に商品を発送してくれる\item[店舗B:]何の連絡もなく,発注から1週間後に突然商品が届く\end{description}ユーザに対して店舗に関する情報を提供するため,楽天市場では商品レビューに加え,店舗に対するレビューの投稿・閲覧ができるようになっている.店舗レビューの例を図\ref{review}に示す.自由記述以外に6つの観点(品揃え,情報量,決済方法,スタッフの対応,梱包,配送)に対する購入者からの5段階評価(5が最高,1が最低)が閲覧可能である.この5段階評価の結果から店舗について知ることができるが,評価値からでは具体的にどう良かったのか,どう悪かったのかという情報は得られないのに加え,ここに挙がっている観点以外の情報も自由記述に含まれているため,店舗をより詳細に調べるには自由記述に目を通す必要がある.そのため,レビュー内の各文をその内容および肯定,否定といった評価極性に応じて分類することができれば,店舗の良い点,悪い点などユーザが知りたい情報へ効率良くアクセスできるようになり,今まであった負担を軽減することが期待できる.このような分類は,オンラインショッピングサイトの運営側にとっても重要である.例えば楽天では,より安心して商品を購入してもらえるように,ユーザに対する店舗の対応をモニタリングしており,その判断材料の1つとして店舗レビューの自由記述部分を用いている.そのため,レビューに含まれる各文を自動的に分類することで,問題となる対応について述べられた店舗レビューを効率良く発見できるようになる.こうした背景から,我々は店舗レビュー中の各文を記述されている内容(以下,アスペクトと呼ぶ)およびその評価極性(肯定,否定)に応じて分類するシステムの開発を行った.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでないため,まず無作為に選び出した店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,14種類のアスペクトについて書かれていることがわかった.次いでこの調査結果に基づき,新しく選び出した1,510件の店舗レビュー(5,277文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類するシステムを開発した.アスペクト分類の際は,2つの異なる機械学習手法により得られた結果を考慮することで,再現率を犠牲にはするものの,1つの手法で分類する場合より高い精度を実現している.このように精度を重視した理由は,システムの結果をサービスや社内ツールとして実用することを考えた場合,低精度で網羅的な結果が得られるよりも,網羅的ではないが高精度で確実な結果が得られた方が望ましい場合が多いためである.例えば1つの機能として実サービスに導入することを考えた際,誤った分類結果が目立つと機能に対するユーザの信頼を失う要因となる.このような事態を回避するため,本手法では精度を重視した.以降,本稿では店舗レビュー中に記述されているアスペクト,機械学習を使ったアスペクト・評価極性の分類手法について述べた後,構築した店舗レビュー分析システムについて述べる.
\section{店舗レビューには何が書かれているか?}
\label{mentions}調査にあたり,まず楽天市場の店舗レビューを評価が高いものと低いものに分類した.具体的には,各店舗レビューに含まれる6つの評価観点に対する評価値の平均を求め,値が4.5以上のものを高評価,2.0以下のものを低評価レビューとした.続いてレビューを「\textbackslashn」「。」「!」「?」「‥」「…」「...」「・・・」を手がかりに文に区切った\footnote{ただし「」内に出現する場合は区切らない.また(1)直前の文が「:」もしくは「、」で終了している場合,または(2)直前の文が「?」又は「!」で終了し,当該文が「が」「とても」「とりあ」「ところ」で始まっている場合は当該文を直前の文に連結した.}.そして,高評価,低評価に分類されたレビューのうち,3文以上含むものを無作為に50件ずつ選びだし,それらに記述されている内容を調査した.対象となったレビュー100件には487文含まれていた.3文以上含むレビューを調査対象とした理由は,(1)「大変良かったです。」のように一言だけ書かれたレビューを除くため,および(2)文数が多いレビューほど具体的にアスペクトを記述していると考えたためである.\begin{table}[p]\vspace{2\Cvs}\caption{店舗レビューで言及されるアスペクト}\label{aspect-list}\input{03table01.tex}\end{table}調査により明らかとなったアスペクトを表\ref{aspect-list}に示す.実際の調査では決済方法に関する記述は見当たらなかったが,決済方法に関する観点が店舗レビューのメタデータとして含まれるため追加した.表よりメール・電話などの店舗とのやりとり,店舗に対する評価,再度購入したいと思ったかどうか,キャンセル・返品時の対応など,先述した6つの評価観点では明確に捉えられていないアスペクトについてレビュー中で言及されていることがわかる.また店舗レビューではあるが,商品やその価格に関する言及もあることがわかる.
\section{アスペクトおよび評価極性の自動分類}
\label{methodology}表\ref{aspect-list}のアスペクトをもとに,新しく無作為に選び出した店舗レビュー1,510件(5,277文)に対して人手でアノテーションを行い,これに基づいてアスペクトおよびその評価極性(肯定,中立,否定)を分類するモデルを構築した.本節ではこれらについて述べる.\subsection{学習データの作成}\label{training-data}まず\ref{mentions}節で述べた方法で,店舗レビューを高評価および低評価に分類し,文分割処理を行った.そして表\ref{datastats}に示す割合でレビューを無作為に選びだし,アノテーションの対象とした.\begin{table}[t]\caption{アノテーションの対象とした店舗レビューの統計}\label{datastats}\input{03table02.tex}\end{table}アノテーションは1名のアノテータで行った.まず調査に用いたレビュー100件を使って訓練した後,5,277文に対して該当する全てのアスペクトおよびその評価極性を付与するよう依頼した.アスペクトに「その他」を設けてあるため各文には必ず1つ以上のアスペクトおよびその評価極性が付与されることに注意されたい.また文単体ではアスペクト・評価極性の同定が難しい場合は,前後の文脈を利用するように指示した.そのため,同じ文であっても前後の文脈により付与されるアスペクト・評価極性が異なる場合がある.以下に,文脈によってアスペクト・評価極性の判定結果が異なる例を示す(「/」は文の境界を表す).\begin{description}\item[レビューA:]欲しかった商品の在庫がなかったのにすぐ手配してくれてとても助かりました。/注文した翌々日に届きました。/{\bf驚きました。}\item[レビューB:]初めてこの店舗を利用しましたが、梱包が最低。/{\bf驚きました。}/商品にクッションもされず、コードが箱から出ちゃって、一度使うのに出した物を、また箱に戻してキレイに戻らなくて、セロテープでペタペタ貼ってあるように見えました。/人となりが、解ってしまう様な店舗です。\end{description}\noindentレビューA,Bは文「驚きました。」をそれぞれ含んでいるが,そのアスペクト・評価極性は異っており,レビューAは(配送,肯定),Bは(梱包,否定)が適切なアノテーションである.\begin{table}[t]\caption{店舗レビュー1,510件(5,277文)中に言及されるアスペクトの評価極性の分布}\label{topic}\input{03table03.tex}\end{table}5,277文における各アスペクトおよびそれらの評価極性の分布を表\ref{topic}に示す.1文に対して複数のアスペクト,評価極性が付与されることがあるため実際の文数よりもアノテーションの件数は多くなっている.連絡,店舗,再購入,情報,商品価格など多くのアスペクトで評価極性の分布に偏りが見られる.\subsection{分類モデルの構築}\label{models}\ref{training-data}節で構築したアスペクトおよび評価極性がアノテートされたデータを使いアスペクト分類モデルおよび評価極性分類モデルを構築する.表\ref{topic}からわかるように,評価極性分類モデルの構築に十分な量の事例数が確保できないアスペクトがあるため,アスペクト分類および評価極性分類のモデル構築は独立に行った.分類にあたり,文ごとに分類を行う文単体モデル,およびレビュー内の文に対する系列ラベリング問題とみなし,レビュー単位で各文の分類を行う文書モデルの2種類を考えた.文書モデルを設けた理由は,先述の「驚きました。」の例のように前後の文脈を利用しないとアスペクト・評価極性の同定が難しい曖昧な文があるためである.\subsubsection{アスペクトの分類}\label{topic-classificaiton}より高い精度(Precision)を得るため,文単体モデルおよび文書モデルの両方を構築し,両モデルにより推定されたアスペクトが同じ場合のみアスペクトを出力した.そのため,現状では1文に対して1つのアスペクトしか推定できない.複数のアスペクトを推定する方法については今後検討する予定である.文単体モデルおよび文書モデルでは以下に示す共通の素性を用いた.\begin{table}[b]\caption{アスペクト分類用辞書の例(全171件)}\label{feature-topic}\input{03table04.tex}\end{table}\begin{description}\item[単語素性:]品詞の大分類が名詞\footnote{\ref{eval}節で述べるように形態素解析をMeCab,NAISTJapanesedictionaryを利用して行っているが,その際に品詞の細分類が非自立のものは除いた.},形容詞,動詞,感動詞,副詞となる単語の原形を素性とした.ただし接尾辞が後続している場合は,「良心:的」のように当該単語と接尾辞を連結した.また当該単語の直前が接頭辞「未」「不」,もしくは次の単語素性になりえる語(最後方の語の場合は文末)との間に否定を表す語(「ない」「無い」「無し」,助動詞「ぬ」「ん」のいずれか)が存在する場合は,否定を表すフラグを付与し,肯定の場合と区別した.例えば文「余計な梱包もなく、ごみも出なくて助かります。」からは「余計」「梱包【否定】」「ごみ」「出る【否定】」「助かる」が単語素性として抽出される.\item[辞書素性:]人手で構築した辞書の要素と一致する形態素(列)が文中に含まれていれば,要素に対応するラベルを素性とする.表\ref{feature-topic}に構築した辞書の例を示す.\end{description}\subsubsection{評価極性の分類}\label{polarity-classificaiton}アスペクトが推定された文に対してのみ分類を行う.同じ評価極性の文が続けて現れやすい文脈一貫性\cite{nasukawa_2004,kanayama2006}を利用するため,評価極性の判定には文書モデルを採用した.文単体モデルと併用しなかった理由は,\ref{eval}節で示すように文書モデルだけである程度の精度が達成できたこと,および全体としてのカバレージがさらに下がることを避けるためである.評価極性の分類には以下の素性を用いた.\begin{description}\item[単語素性:]アスペクト分類と同じ.\item[接続詞素性:]逆接の関係を表す接続詞「でも」「しかし」「だけど」で文が始まっているかどうか.これらの接続詞は,それ以前の文と評価極性が反転することがあるために素性として扱った.\cite{nasukawa_2004,kanayama2006,inui2013}.\item[評価極性素性:]文内に含まれる肯定的な語,否定的な語の数.\end{description}\begin{table}[b]\caption{肯定,否定に分類された表現の例}\label{positive-negative-dict}\input{03table05.tex}\end{table}\noindent評価極性素性を抽出するにあたり,次の方法で単語に対してポジティブ,もしくはネガティブの度合いを計算した.まず2016年に楽天に投稿された店舗レビューの中から,5文以上含む高評価,低評価レビューを無作為に5万件ずつ集めた.文分割方法および高評価,低評価の判定方法は\ref{mentions}節と同じである.次に集められたレビューから単語素性と同様の方法で単語を抽出し,各語について高評価レビュー中での文書頻度$df_{pos}$,低評価レビュー中での文書頻度$df_{neg}$を算出した.そして,$df_{pos}>df_{neg}$であれば肯定的,それ以外は否定的として各語の評価極性を決定した.この時,$df_{pos}$と$df_{neg}$の和が100未満のものは低頻度語として見なし削除した.この結果,806表現が肯定的,2,102表現が否定的として判定された.得られた肯定的な語,否定的な語の一部を表\ref{positive-negative-dict}に示す.表を見ると「ゴム(肯定的)」や「始める(否定的)」のように直感的でない事例も確認できるが,評価極性素性としては各単語の出現をそのまま用いるのではなく,各評価極性に分類される語の頻度を集計してから用いているため,このような直感的でない事例による影響は小さいと考えられる.
\section{実験}
本節では,\ref{training-data}節で構築したアノテーションデータの評価,\ref{topic-classificaiton}節,\ref{polarity-classificaiton}節で述べた分類手法の性能について報告する.\subsection{$\kappa$統計量に基づくアノテーションの評価}\ref{training-data}節で述べたアノテーション済の1,510件のレビューから高評価レビュー100件,低評価レビュー100件を無作為に選びだし,別の作業者に改めてアスペクトおよび評価極性のアノテーションを依頼した.この200件のレビューには752文含まれていた.作業者には\ref{mentions}節の調査に用いたレビュー100件を使って事前に訓練してからアノテーションに取り組んでもらった.今回の作業者をA,1,510件のレビューに対してアノテーションを実施した作業者をBとすると,作業者Aが752文に対して付与したラベル(アスペクトとその評価極性)の異なり数は169,作業者Bは168であった\footnote{例えば,1文に対して配送\_肯定,梱包\_否定がアノテーションされていた場合,それぞれに分解することはせず,「配送\_肯定,梱包\_否定」を1つのラベルとして計数した.}.またどちらの作業者にも共通するラベルの異なり数は98であった.$\kappa$統計量\cite{kappa}を計算する際,複数のラベルがアノテートされている文については,作業者間で全てのラベルが一致しているかどうかをチェックした.その結果,作業者間の$\kappa$統計量は0.562であった.これは{\itmoderateagreement}とされる値である.\subsection{アスペクト分類および極性判定の評価}\label{eval}\ref{training-data}節で作成したデータをもとに10分割交差検定を行い分類手法の性能を評価した.評価の際,アスペクト「システム」および「決済方法」は事例数が少ないため学習が困難と判断し,「その他」として扱った.文単体モデルの学習にはopal\footnote{http://www.tkl.iis.u-tokyo.ac.jp/\textasciitildeynaga/opal/}を,文書モデルの学習にはCRFsuite\footnote{http://www.chokkan.org/software/crfsuite/}を用いた.opalで学習する際は2次の多項式カーネルを用い,他のパラメータはデフォルトを利用し,CRFsuiteでの学習は全てデフォルトのパラメータを利用した.素性を抽出する際は前処理としてMeCab\footnote{http://taku910.github.io/mecab/}およびNAISTJapaneseDictionary\footnote{https://ja.osdn.net/projects/naist-jdic/}を使って文を形態素解析した.モデルを学習する際,複数のアスペクト,評価極性がアノテートされた文は,その全てのアスペクト・評価極性の訓練事例とした.例えば,図\ref{lattice}は複数のアスペクトを持つ文を含むレビューの例である.文単体モデルではs$_3$を配送,梱包の事例として扱った.一方で文書モデルの場合は,系列「その他$\to$商品$\to$配送$\to$再購入」「その他$\to$商品$\to$梱包$\to$再購入」を学習データとして利用した\footnote{評価極性分類の際も同様に全て系列を利用した.}.\begin{figure}[b]\begin{center}\includegraphics[width=407pt]{25-1ia3f2.eps}\end{center}\caption{複数のアスペクトが付与された文の例}\label{lattice}\end{figure}\begin{table}[b]\caption{アスペクト分類(評価極性判定込み)の評価結果}\label{performance}\input{03table06.tex}\vspace{4pt}\small斜体はデータセット中での事例数が100件未満のものを意味する.\end{table}\begin{table}[t]\noindent\begin{minipage}[t]{0.5\columnwidth}\caption{アスペクト分類のみの評価結果}\label{performance_aspect}\input{03table07.tex}\end{minipage}\hfill\begin{minipage}[t]{0.4\columnwidth}\caption{評価極性判定のみの評価結果}\label{performance_pn}\input{03table08.tex}\end{minipage}\end{table}評価極性判定を考慮したアスペクト分類の評価結果を表\ref{performance},アスペクト分類単体の評価結果を表\ref{performance_aspect},極性判定単体の評価結果を表\ref{performance_pn}にそれぞれ示す.複数の正解ラベルを持つ文がある一方で,\ref{topic-classificaiton}節で述べたように提案手法は1つの文に対して1つのアスペクト,評価極性しか出力できない.そこで部分一致を考慮するために,各表の精度$P$,再現率$R$を以下の方法により求め,${\rmF_1}$値は以下の式において$\beta=1$として計算した.{\allowdisplaybreaks\begin{gather*}P=\frac{提案手法がラベルlを出力した際,正解ラベルの集合にlが含まれていた文の数}{提案手法がlを出力した文の数}\\[1ex]R=\frac{提案手法がラベルlを出力した際,正解ラベルの集合にlが含まれていた文の数}{lを正解ラベルの集合に含む文の数}\\[1ex]F_{\beta}=(1+\beta^2)\times\frac{P\timesR}{(\beta^2\timesP)+R}\end{gather*}}ここでラベル$l$は評価極性付きアスペクト,アスペクト単体,評価極性単体のいずれかである.表\ref{performance},表\ref{performance_pn}より,肯定,否定に比べ中立の性能が低いことがわかる.表\ref{performance}では事例数が100件未満のものを斜体で表示しており,これを見ると訓練事例数が少ないアスペクトが多く,これらは性能が低いことがわかる.このことが他の評価極性に比べて性能が低い理由と考えられる.また表\ref{performance},表\ref{performance_aspect}より,アスペクト「商品」「その他」に関して性能が低いことがわかる.これは(1)そもそも店舗レビューは店舗について記述することが前提となっているため商品に関する記述が少ない,(2)楽天では多種多様な商品が販売されており,それらをカバーするだけの商品に関する十分な量のテキストが学習データに含まれていないためと考えられる.「その他」についても様々な事柄について言及した文がこのアスペクトに分類されており,そのバリエーションの多さゆえに十分学習できておらず性能が低くなったと考えられる.\ref{topic-classificaiton}節で述べたように,より高い精度を得るために,文単体モデルおよび文書モデルの両方の出力が一致した場合のみ,推定されたアスペクトを出力している.これが実際にどの程度の効果があるのかを確認した.表\ref{sent-doc-models}に各モデル単体での性能および組み合わせた場合の性能を示す.${\rmF_1}$値に加え,精度を重視した尺度である${\rmF_{0.5}}$値もあわせて示した.全てのアスペクトにおいて,両モデルを組み合わせて用いることで精度を改善できていることが表よりわかる.より具体的には,組み合わせることで,再現率がマクロ平均で8.6\%,マイクロ平均で9.1\%それぞれ下がるが,それと引き換えに精度をマクロ平均で7.4\%,マイクロ平均で8.2\%改善できている.また${\rmF_{0.5}}$値の値も,マクロ平均,マイクロ平均ともに改善されていることがわかる.\begin{table}[t]\caption{文単体モデルおよび文書モデルの評価結果}\label{sent-doc-models}\input{03table09.tex}\end{table}評価極性判定の精度については表\ref{performance_pn}に示したとおりであるが,実応用を考えた時,肯定的な文を誤って否定的に分類してしまうケース,もしくはその反対のケースは致命的なエラーとなる.そこでこのような事例数がどの程度あるか調査した.具体的には,評価極性が1つのみアノテーションされた4,789文を対象に両ケースの事例数を調べた.その結果,肯定を誤って否定と判定してしまった件数は99件(2.1\%),その反対のケースは52件(1.1\%)であった.これより評価極性判定を極端に誤るような致命的なエラーはほとんど起きていないことがわかる.図\ref{senti_error}に判定を極端に誤った文の例を示す.店舗が好意で行った特別な梱包方法に対し,「送れない」などの表現が引き金となって評価極性判定を誤ったと考えられる.\begin{figure}[t]\vspace{0.5\Cvs}\begin{center}\includegraphics[width=412pt]{25-1ia3f3.eps}\end{center}\caption{評価極性判定を極端に誤った文の例}\label{senti_error}\end{figure}
\section{考察}
\ref{aspect-design-analysis}節では\ref{training-data}節で設計したアスペクトの妥当性について考察する.続いて,アスペクト「商品」「その他」の分類において,そのバリエーションの多さゆえに現状の学習データ量では不十分であることが示唆される結果が評価実験により得られたため,アスペクト分類の性能と学習データの量について調査した.\ref{aspect-learning-curve}節ではこの結果について述べる.\ref{error-analysis}節では,前節で行った実験によりアスペクト分類の方が評価極性分類に比べ性能が低いことがわかったため,アスペクト分類の誤り分析について報告する.\subsection{設計したアスペクトの分析}\label{aspect-design-analysis}表\ref{topic}を見ると,7,113件のアノテーションのうち,6,416件が「その他」以外の13個のアスペクトでカバーされていることがわかる.これは全アノテーション数の90.2\%にあたる.この結果から,店舗レビュー中の大多数の文に対して「その他」以外のアスペクトが付与されていることがわかり,これは定義したアスペクトが店舗レビューに記載された内容を代表するものになっていることを示唆していると考えられる.「決済方法」は,\ref{mentions}節の調査では見つからなかったが,決済方法に関する評価観点が店舗レビューのメタデータに含まれているため追加したものである.1,510件の店舗レビューを対象にアノテーションを実施したところ,「決済方法」が付与された文数は9件であり,楽天のレビューにおいてメタデータとして特別扱いされているものの,それに関する記述はレビュー内にはほとんどないことがわかる.このことから,少なくとも楽天の店舗レビューにおいては,「決済方法」に関しては自由記述部分よりもメタデータを用いて分析する方が良いことがわかる.類似の既存研究と比較すると,レビューではないが,大野ら\cite{ohno_2005}が,ネットオークションサイトの出品者に対する評価コメントを調査し13種類のアスペクトを定義している.これには「配送」「梱包」「連絡」「商品」「対応」など今回我々が設計したアスペクトとの重なりも見られる一方で,「お礼」「挨拶」「謝罪」「入金」「出品者」など評価コメント特有と考えられるアスペクトも含まれている.反対に,我々が設計した「店舗」「商品の在庫・種類」「キャンセル・返品」「情報」「商品価格」「システム」「決済方法」は,大野らのアスペクトの定義に類似したものはなく,店舗レビューに特有のものであると考えられる.これらのアスペクトが付与された文は全体(5,277文)の34.6\%に相当する1,826文あり,店舗レビューのアスペクトとして重要であることがわかる.\subsection{アスペクト分類の学習曲線}\label{aspect-learning-curve}\ref{eval}節の実験より,アスペクト「商品」「その他」の分類については記述内容のバリエーションが多く,現状の学習データでは量が不足しているため性能が低い可能性が示唆された.本節では,これを確認するため「商品」「その他」について学習データの量を変えながら,性能がどのように変化するのかを確認する.具体的には,1,510件の評価データセットから無作為に選び出した510件を評価用データ,残りの1,000件を学習用データとし,学習データに用いるレビューの数を100件ずつ増やした時の${\rmF_1}$値を調査した.\begin{figure}[t]\begin{center}\includegraphics{25-1ia3f4.eps}\end{center}\caption{アスペクト分類の学習曲線}\label{lc}\end{figure}調査の結果得られた学習曲線を図\ref{lc}に示す.図には「商品」「その他」に加え,これらと事例数が近い「店舗」および「再購入」の結果,さらに参考として全体(マクロ平均)の${\rmF_1}$値の推移も含めた.図よりアスペクト「商品」「その他」は,「店舗」「再購入」に比べ,事例数が近いにも関わらず性能が低いことがわかる.これは「店舗」「再購入」に比べ「商品」「その他」は事例のバラつきが多く,難しい分類問題になっていることが原因と考えられる.また「商品」「その他」「全体」を見ると,学習に用いる事例数を増やすことで性能の改善が見られる.改善の幅は緩やかであるが,分類に用いる素性の工夫や複雑なモデルを用いるなどすることでその幅を大きくすることが期待できる.\subsection{アスペクト分類の誤り分析}\label{error-analysis}無作為に選んだ1,358件のレビュー(4,740文)で学習を行い,残り152件(537文)をアスペクト分類した際の誤りについて分析した.分析の対象となった事例は63件であり,各事例には1つ以上のエラータイプを付与した.分析の結果を表\ref{error}に示す.最も数が多かったタイプは「分類に必要な素性が得られていない」で42件あった.例えば「欲しい色とサイズもあって、良かったです。」は「商品の在庫・種類」に分類されるべきであるが,提案手法は「商品」に分類していた.抽出された素性と各アスペクトの関連を調べたところ,「商品」と関連の強い素性が多く,「商品の在庫・種類」と関連のある素性はなかった.また商品に関する記述を含む文はアスペクト「商品」と関連の強い素性が抽出されていない傾向にあった.これは,楽天で多様な商品を扱っていること,店舗レビューの性質上,商品に関する記述はメインでないことから十分な量の訓練事例が得られていないためと考えられる.「商品」以外では「親戚宅への訪問土産に購入しました。」のような購入背景,「重さのあるものも家の玄関に届くのでとっても助かっています。」のような感想を述べた文もこのタイプのエラーに分類された.購入背景や感想はユーザによって様々であるため,これらを正しく分類するためには,学習データを増やすほか,これらを認識するモデルを別途用意するなどの対応が考えられる.\begin{table}[t]\caption{エラーのタイプおよびその事例数}\label{error}\input{03table10.tex}\end{table}次に多かったタイプは「文単体では分類が難しい」であり,21件が該当した.例えば文「あきれます。」は商品にも店舗にも当てはまる表現であり,この文を正しいアスペクトに分類するためには,この文の前後にどのような記述があるのかを捉える必要がある.現状では文単体モデル,文書モデルともに明確な素性として前後の文脈の内容を用いていない.このタイプのエラーを減らすには,何らかの方法で前後の文脈を取り込む素性が必要になる.また「アノテーションの誤り」も確認された.例えば文「別に目立つほど悪い点は無かったです。」は「その他」が付与されていたが,提案手法は「商品」に分類していた.レビューを確認するとこれは商品についての記述であり「商品」が付与されることが妥当である.このようなエラーを減らすには複数人のアノテータにアノテーションを依頼し多数決をとる,または分類基準を精緻にするなどが考えられる.
\section{関連研究}
従来より評判分析は多くの研究がなされてきており\cite{inui_2006,pang2008},その対象はレビューのみならず,新聞記事,ブログ,Twitterなどのマイクロブログと様々である\cite{seki_2013}.レビューを対象とした評判分析研究では,映画\cite{pang_2002},宿泊施設\cite{wang_2010},商品\cite{ding_2008}に対して書かれたレビューに基づくデータセットが利用されている.また,意味解析に関する国際的評価型プロジェクトSemEvalにおいて2014年より毎年実施されているAspectBasedSentimentAnalysisにおいてもデータセットが提供されており,その内容はノートパソコン,マウス,レストラン,デジタルカメラなど7種類の対象について英語,中国語,ドイツ語など8言語で書かれたレビューである\cite{semeval_2016}.オンラインショッピングサイトを利用して商品を購入する際,商品レビューに加えて「どの店舗から購入するのか」も重要な指針の1つであるが,店舗の評判が記載されたレビューに基づくデータセットはない.日本語で書かれたレビューを対象にした研究ではAndoら\cite{ando_2012},浅野ら\cite{asano2014},Tsunodaら\cite{tsunoda_2015}が宿泊施設レビューを対象に,記述されているアスペクトの調査や,特定のタスクを対象とした宿泊施設に関するアスペクトの設計を行っている.安藤ら\cite{ando2013}は商品レビューを対象に,そこに記述されている内容を調査し,23種類のアスペクトが書かれていると報告している.また,レビューではないが,Kobayashiら\cite{kobayashi_2007}はレストラン,車,携帯電話,ゲームについて書かれたブログを対象に,アスペクトを含む7種類の情報を付与した意見タグ付きコーパスを構築している.大野ら\cite{ohno_2005}は,ネットオークションサイトの出品者に対する評価コメントの要約を目的に,コメントの記述内容を調査し13種類のアスペクトを定義している.いずれの研究もレビューやブログ,オークション出品者に対する評価コメントに記載されているアスペクトの調査や,その(自動)分類という点で本研究と類似しているが,対象が宿泊施設,商品・製品,レストラン,オークション出品者であり本研究で対象とした店舗ではない.従来よりアスペクト分類に関する研究は数多く行われている.例えば先述したSemEvalではアスペクト分類およびその評価極性の判定というタスクが設定されており,対象は異なるものの解こうとしている問題は同じである.今回の分類手法はごく単純なものであるため,既存研究の成果(例えば論文\cite{wang_2016}等)を取り入れることで今よりも高い精度で分類を行える可能性がある.山下ら\cite{yamashita2016}は商品レビューを商品について記述したものと,店舗について記述したものに分類する手法を提案している.このような分類を行う背景には,商品レビューにも関わらず店舗について記述したレビューの存在があり,これらは純粋に商品について知りたいユーザや,商品に関する評判を抽出したいサイト運営者にとってノイズとなるため自動検出したいという要望がある.同様に新里ら\cite{shinzato_2015}の研究においても,商品の使用感を記述した文を抽出する際に,商品レビュー中に存在する店舗に関しての言及が問題となることが報告されている.そのため,商品レビューに対して事前に今回構築したアスペクト分類モデルを適用することで,商品に関する記述だけを精度良く集めることが可能になり,これらの研究の改善が見込める.評判分析システムに関する研究として富田らの研究がある\cite{tomita_2012}.彼らのシステムはブログを対象に評判分析を行い,任意のキーワードに対する評判を整理してユーザに提示するものである.評判抽出の際は係り受け解析を行い,アスペクトに相当する単語と,その係り先になっている単語の組を評判として抽出する.そのため,係り受け解析に失敗した場合や,文をまたいで評判が記述されている場合は評判を抽出できない.我々の手法は文を単位にアスペクト分類を行っており,その際は当該文から得られる情報だけでなく,同一レビュー内の他の文から得られるアスペクトの遷移情報も用いている.このため,当該文内にアスペクトに相当する語が含まれていない場合であっても正しく分類することが可能である.また,係り受け解析を用いていないため,係り受け解析に失敗するような長文や構文的に複雑な文であっても正しく分類できる可能性がある.しかしながら,富田らのシステムは1文から複数の評判を抽出することができるのに対し,我々の手法は1つの文を複数のアスペクトに分類することができないという欠点もある.
\section{店舗レビュー分析システム}
\label{application}これまでに述べた技術を用いて店舗レビュー分析システムを開発した.本節ではシステムの概要,およびその性能について報告する.\subsection{システムの概要}開発した店舗レビュー分析システムの実行例を図\ref{screenshot}に示す.分析を行いたい店舗名およびアスペクトをクエリとしてユーザより受け取ると,システムは条件に一致するレビューをその評価極性分類結果と共に出力する.過去2年分の店舗レビューおよびその分類結果をApacheSolr\footnote{http://lucene.apache.org/solr/}を用いてインデキシングしており,任意の店舗名およびアスペクト・評価極性(肯定,否定)の組み合わせに対して分類結果を検索できるようになっている.\begin{figure}[t]\begin{center}\includegraphics{25-1ia3f5.eps}\end{center}\hangcaption{店舗レビュー分析システムの実行例(クエリとして与えた店舗名およびレビューを投稿したユーザ名は伏せてある).画面右には,自動分析結果に基づきグラフ化した肯定的レビュー,否定的レビューの割合の時系列変化が表示される.画面左にはクエリとして与えられたアスペクトに分類された肯定的,否定的な文を含むレビューの一覧が表示される.画面では「配送」に関する肯定的な文を含むレビューのリストが表示されている.}\label{screenshot}\end{figure}画面右側には,分類結果に基づく肯定的レビュー,否定的レビューの割合の時系列変化がグラフで表示される.グラフ中の実線は肯定的,破線は否定的なレビューの変化をそれぞれ表しており,線の太さは細いものが1週間分の,太いものが3ヶ月分の変化の単純移動平均を示している.このグラフを確認することで,ユーザの調べたいアスペクトに関する評判の推移が簡単に把握できるようになっている.例えば図の場合,一時期配送に関する否定的なレビューが増大したが,現在は収束していることが読み取れる.一方,画面左側にはクエリに一致する店舗レビューのリストが,肯定,否定に分かれて表示される.肯定,否定の切り替えはリスト上部のタブをクリックすることでできる.図では肯定的なレビューが表示されており,クエリとして与えられたアスペクトかつ肯定的と自動的に分類された文がハイライトされている.これにより,ユーザは任意のアスペクトについて具体的にどう良かったのか(またはどう悪かったのか)を簡単に調べることができる.別の使い方として,ある店舗からの購入をやめた理由の検索が挙げられる.以下はある店舗に対して書かれたレビューのうち,再購入-否定に分類された文を含むものである.\begin{itemize}\itemX月X日に注文しましたが、\underline{まだ届きません}。/\underline{連絡もないし...}/こんなに遅い通販て珍しいですね。/どこ頼んでも2〜3日で届きます。/{\bf2度と注文しません。}\item{\bfもう二度と購入しません。}/間違えてすぐにショップにメールしたのに、発送してしまったとの事。/私が注文間違えた事に問題はありますが、\underline{キャンセル出来ない}ところでは購入しません。\end{itemize}太字は再購入-否定に分類された文,下線の引かれた文・表現は購入をやめた理由について記述しているものである.このような理由について記述した箇所を自動的に特定することは今後の課題であるが,現状のシステムを使って「再購入-否定」を含むレビューを検索することで,再購入しない理由を述べたレビューを効率よく集めることができる.このような再購入をやめた理由は運営サイト側にとって大変貴重なデータであり,店舗やサービスの改善など,いろいろな場面で役立てることが可能である.以上,ここで挙げた任意のアスペクト・評価極性について記述された文(を含むレビュー)の検索や,該当する文のハイライト機能,さらには検索結果に基づくレビューの活用は,図\ref{review}に示したレビューをユーザから得られる5段階評価のみで管理していては実現できない.本稿で述べた手法を用いてレビュー本文を構造化することで初めてこれらが実現可能になる点を強調したい.\subsection{性能評価}店舗の良い点,悪い点を調べようとする際,従来はレビュー本文を1つずつユーザは読む必要があった.しかしながら,図\ref{screenshot}に挙げたシステムを用いることで,ユーザは任意のアスペクト・評価極性について記述されたレビューに簡単にアクセスできるようになる.そこで,どのくらいの精度,再現率で条件に一致するレビューにアクセスできるのかを調査した.具体的には,\ref{training-data}節で構築した学習データ中のそれぞれのレビューについて,各文に付与されたアスペクト-評価極性のラベルを集約し,それをレビューに対するラベルと見なした.例えば,図\ref{aggregation}のレビューであれば,「配送-否定」「対応-肯定」をレビューに対するラベルと見なす.\begin{figure}[b]\begin{center}\includegraphics[width=348pt]{25-1ia3f6.eps}\end{center}\hangcaption{店舗レビューの例.各文についたラベルを集約し,「配送-否定」,「対応-肯定」をこのレビューに対するラベルと見なす.}\label{aggregation}\end{figure}実験結果を表\ref{system-performance}に示す.表のマイクロ平均を見ると,否定的なものに比べ,肯定的なアスペクトを含むレビューをより高い精度で収集できることがわかる.一方で,マクロ平均に関しては,「キャンセル・返品-肯定」に関して性能が出ていないため,否定的なアスペクトを含むレビューの分類の方が${\rmF_1}$値で高い結果となった.また表\ref{performance}の文単位での評価結果と比べると,精度の改善に比べ,再現率の改善の方が大きい.これはラベルを集約した結果,同一の評価極性付きアスペクトを複数含むレビューにおいて,そのいずれか1つを分類することができれば良くなったためであると考えられる.\begin{table}[t]\caption{レビュー単位で評価した場合の評価結果}\label{system-performance}\input{03table11.tex}\end{table}
\section{おわりに}
本稿では,オンラインショッピングサイト出店者(店舗)に対するレビュー中の各文を,記述されている内容(アスペクト)およびその評価極性(肯定,否定)に応じて分類するシステムについて述べた.店舗レビュー中にどのようなアスペクトが記載されているのかは明らかでなかったため,まず無作為に選び出した店舗レビュー100件(487文)を対象に,各文がどのようなアスペクトについて書かれているのか調査した.その結果,配送や梱包など14種類のアスペクトについて書かれていることがわかった.このうち,店舗とのやり取り,店舗に対する評価,再度購入したいと思ったかどうか,キャンセル・返品時の対応などは,店舗レビューがもともとメタデータとして持っているアスペクトには含まれていないものであり,自由記述部分には店舗に対するより詳細な評価が含まれていることがわかった.次いでこの調査結果に基づき,新しく選び出した1,510件の店舗レビュー(5,277文)に対して人手でアスペクトおよびその評価極性のアノテーションを行い,既存の機械学習ライブラリを用いてレビュー内の文をアスペクトおよびその評価極性に分類する店舗レビュー分析システムを開発した.システムを用いることで肯定的レビュー,否定的レビューの割合の時系列変化を確認できたり,任意のアスペクト,評価極性に分類された文,およびそれらを含むレビューへ簡単にアクセスすることが可能となる.このような利便性の向上はオンラインショッピングサイトのユーザのみならず,運営側にとっても店舗の対応をモニタリングする上で大変有用であり,社内ツールとしての運用に向けて関係部署と現在調整中である.以下,今後の課題について述べる.現在の手法では1文に対して1つのアスペクト,評価極性しか推定できないが,実際には複数のアスペクトおよび評価極性をもつ文が無視できない数あった.そのため,複数のアスペクト,評価極性を推定できるように分類手法を拡張する必要がある.またエラー分析の結果,アスペクト分類に必要な素性が抽出できていない場合が多いこともわかった.そのため,素性に関して再検討することも今後の課題である.さらに分析システムという観点から考えると,分類結果の効果的な表示方法についても検討する必要がある.分類結果をどのように表示すればより良いのかはその利用方法と関連が深いため,今後システムの利用を想定している関係部署のメンバーと表示方法について検討していく必要があるであろう.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ando\BBA\Ishizaki}{Ando\BBA\Ishizaki}{2012}]{ando_2012}Ando,M.\BBACOMMA\\BBA\Ishizaki,S.\BBOP2012\BBCP.\newblock\BBOQAnalysisofTravelReviewDatafromReader'sPointofView.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponComputationalApproachestoSubjectivityandSentimentAnalysis},\mbox{\BPGS\47--51}.\bibitem[\protect\BCAY{安藤\JBA関根}{安藤\JBA関根}{2013}]{ando2013}安藤まや\JBA関根聡\BBOP2013\BBCP.\newblockレビューには何が書かれているのか?\\newblock\Jem{ALAGIN\&NLP若手の会合同シンポジウム}.\bibitem[\protect\BCAY{浅野\JBA乾\JBA山本}{浅野\Jetal}{2014}]{asano2014}浅野翔太\JBA乾孝司\JBA山本幹雄\BBOP2014\BBCP.\newblock談話役割に基づくクラス制約規則を利用したレビュー文の意見分類.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\880--883}.\bibitem[\protect\BCAY{Ding,Liu,\BBA\Yu}{Dinget~al.}{2008}]{ding_2008}Ding,X.,Liu,B.,\BBA\Yu,P.~S.\BBOP2008\BBCP.\newblock\BBOQAHolisticLexicon-basedApproachtoOpinionMining.\BBCQ\\newblockIn{\BemProceedingsofthe2008InternationalConferenceonWebSearchandDataMining},\mbox{\BPGS\231--240}.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{inui_2006}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{乾\JBA梅澤\JBA山本}{乾\Jetal}{2013}]{inui2013}乾孝司\JBA梅澤佑介\JBA山本幹雄\BBOP2013\BBCP.\newblock評価表現と文脈一貫性を利用した教師データ自動生成によるクレーム検出.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\683--706}.\bibitem[\protect\BCAY{Kanayama\BBA\Nasukawa}{Kanayama\BBA\Nasukawa}{2006}]{kanayama2006}Kanayama,H.\BBACOMMA\\BBA\Nasukawa,T.\BBOP2006\BBCP.\newblock\BBOQFullyAutomaticLexiconExpansionforDomain-orientedSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{Kobayashi,Inui,\BBA\Matsumoto}{Kobayashiet~al.}{2007}]{kobayashi_2007}Kobayashi,N.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQExtractingAspect-EvaluationandAspect-OfRelationsinOpinionMining.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1065--1074}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{kappa}Landis,R.\BBACOMMA\\BBA\Koch,G.\BBOP1977\BBCP.\newblock\BBOQTheMeasurementofObserverAgreementforCategoricalData.\BBCQ\\newblock{\BemBiometrics},{\Bbf33}(1),\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{nasukawa_2004}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock文脈一貫性を利用した極性付評価表現の語彙獲得.\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{大野\JBA楠村\JBA土方\JBA西田}{大野\Jetal}{2005}]{ohno_2005}大野華子\JBA楠村幸貴\JBA土方嘉徳\JBA西田正吾\BBOP2005\BBCP.\newblock社会的関係を用いたネットオークションの評価コメントの自動要約.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf88}(3),\mbox{\BPGS\668--683}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{pang2008}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis}.\newblockFoundationsandTrendsinInformationRetrieval.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{pang_2002}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsUp?SentimentClassificationusingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\76--86}.\bibitem[\protect\BCAY{Pontiki,Galanis,Papageorgiou,Androutsopoulos,Manandhar,AL-Smadi,Al-Ayyoub,Zhao,Bing,Clercq,Hoste,Apidianaki,Tannier,Loukachevitch,Kotelnikov,Bel,Jimenez-Zafra,\BBA\Eryigit}{Pontikiet~al.}{2016}]{semeval_2016}Pontiki,M.,Galanis,D.,Papageorgiou,H.,Androutsopoulos,I.,Manandhar,S.,AL-Smadi,M.,Al-Ayyoub,M.,Zhao,Y.,Bing,Q.,Clercq,O.~D.,Hoste,V.,Apidianaki,M.,Tannier,X.,Loukachevitch,N.,Kotelnikov,E.,Bel,N.,Jimenez-Zafra,S.~M.,\BBA\Eryigit,G.\BBOP2016\BBCP.\newblock\BBOQSemEval-2014Task5:AspectbasedSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\19--30}.\bibitem[\protect\BCAY{関}{関}{2013}]{seki_2013}関洋平\BBOP2013\BBCP.\newblock意見分析コーパスの現状と課題.\\newblock\Jem{情報処理学会論文誌データベース},{\Bbf6}(4),\mbox{\BPGS\85--103}.\bibitem[\protect\BCAY{新里\JBA益子\JBA関根}{新里\Jetal}{2015}]{shinzato_2015}新里圭司\JBA益子宗\JBA関根聡\BBOP2015\BBCP.\newblockオノマトペを利用した商品の使用感の自動抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf56}(4),\mbox{\BPGS\1305--1316}.\bibitem[\protect\BCAY{富田\JBA松尾\JBA福田\JBA山本}{富田\Jetal}{2012}]{tomita_2012}富田準二\JBA松尾義博\JBA福田浩章\JBA山本喜一\BBOP2012\BBCP.\newblock大規模データを対象とした文書情報集約データベースと評判分析サービスにおける検証.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf95}(2),\mbox{\BPGS\250--263}.\bibitem[\protect\BCAY{Tsunoda,Inui,\BBA\Sekine}{Tsunodaet~al.}{2015}]{tsunoda_2015}Tsunoda,T.,Inui,T.,\BBA\Sekine,S.\BBOP2015\BBCP.\newblock\BBOQUtilizingReviewAnalysistoSuggestProductAdvertisementImprovements.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponComputationalApproachestoSubjectivity,SentimentandSocialMediaAnalysis},\mbox{\BPGS\41--50}.\bibitem[\protect\BCAY{Wang,Lu,\BBA\Zhai}{Wanget~al.}{2010}]{wang_2010}Wang,H.,Lu,Y.,\BBA\Zhai,C.\BBOP2010\BBCP.\newblock\BBOQLatentAspectRatingAnalysisonReviewTextData:ARatingRegressionApproach.\BBCQ\\newblockIn{\BemProceedingsofthe16thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\783--792}.\bibitem[\protect\BCAY{Wang,Huang,Zhu,\BBA\Zhao}{Wanget~al.}{2016}]{wang_2016}Wang,Y.,Huang,M.,Zhu,Z.,\BBA\Zhao,L.\BBOP2016\BBCP.\newblock\BBOQAttention-basedLSTMforAspect-levelSentimentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\606--615}.\bibitem[\protect\BCAY{山下\JBA東野}{山下\JBA東野}{2016}]{yamashita2016}山下達雄\JBA東野進一\BBOP2016\BBCP.\newblock商品レビューに含まれるストア言及の抽出.\\newblock\Jem{情報処理学会第78回全国大会講演論文集}.\end{thebibliography}\begin{biography}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(情報科学).京都大学大学院情報学研究科特任助教,特定研究員を経て,2011年から楽天技術研究所.自然言語処理,特に,知識獲得,情報抽出,評判分析の研究に従事.}\bioauthor{小山田由紀}{2017年東京女子大学人間科学研究科人間文化科学専攻現代日本語・日本語教育分野博士前期課程修了.修士(人間文化科学).楽天技術研究所で自然言語処理のためのアノテーション業務に従事.}\end{biography}\biodate\end{document}
| |
V03N02-03
|
\section{まえがき}
国文学研究は,わが国の文学全体に渡る文学論,作品論,作家論,文学史などを対象とする研究分野である.また,広く書誌学,文献学,国語学などを含み,歴史学,民俗学,宗教学などに隣接する.研究対象は上代の神話から現代の作品まで,全ての時代に渡り,地域的にも歴史上のわが国全土を網羅する.文学は,人の感性の言語による表出であるから,国文学は日本人の心の表現であり,日本語を育んだ土壌であると言える.すなわち,国文学研究は現代日本人の考え方と感じ方を育てた土壌を探る学問であると言える.文学研究の目標は,文学作品を通じて,すなわち文字によるテキストを主体として,思潮,感性,心理を探求することである.テキストは単なる文字の羅列ではなく,作者の思考や感情などが文字の形で具象化されたものであるから,研究者は書かれた文字を「ヨム」ことによって,作者の思考や感情を再構築しようとする.換言すれば,文学作品を鑑賞し,評論し,その作品を通しての作者の考え方を知ることである.なお,「ヨム」こととは,読む,詠む,訓むなどの意味である.最近,国文学とコンピュータの関わりに対する関心が高まり,議論が深まってきた\cite{Jinbun1989-1990}.元来,国文学にとってコンピュータは最も縁遠い存在と見られてきた.国文学者からみれば,コンピュータに文学が分かるかとか,日本語のコンピュータが無いなどの理由である.一方では,コンピュータへ寄せる大きな期待と,現状との落差から来る批判もある\cite{Kokubun1982,Kokubun1992,Kokubun1989-1994}.現在,文学研究にコンピュータが役立つかを確かめることが必要となった.日本語処理可能なパソコンなどの普及により,国文学者の中でも\cite{DB-West1995},自身でテキストの入力を行い,また処理を始めている.しかし,未だほんの一部であって,普及にはほど遠く,またワープロ的な利用が多い.コンピュータは,単に「ハサミとノリ」の役割\cite{Murakami1989}であるとしても,その使い方によっては,かなり高度な知的生産のツールに成り得る.また,研究過程で使われる膨大な資料や情報と,それから生成される多様なデータや情報の取り扱いには,コンピュータは欠かせないに違いない.具体的にコンピュータの活用を考えるためには,文学の研究過程の構造認識が必要である.文学研究は個人的と言われるが,この研究過程が普遍化できれば,モデルが導出できる.すなわち,コンピュータの用途が分かってくる.本稿では,国文学研究資料館における事例に基づき,国文学とコンピュータの課題について考える.国文学研究資料館は,国の内外に散在する国文学資料を発掘,調査,研究し,収集,整理,保存し,広く研究者の利用に供するために,設立された大学共同利用機関である.また,国文学研究上の様々な支援活動を行っている\cite{Kokubun1982}.本稿は,以下のような考察を行っている.2章では,国文学の研究態様を分析し,情報の種類と性質を整理し,研究過程を解明し,モデル化を行っている.3章では,モデルを詳細に検討し,定義する.また,モデルの役割をまとめ,コンピュータ活用の意味を考える.4章は,モデルの実装である.研究過程で利用され,生成される様々な情報資源の組織化と実現を行う.そのために,「漱石と倫敦」考という具体的な文学テーマに基づき,システムの実装を行い,モデルの検証を行った.その結果,モデルは実際の文学研究に有効であること,とくに教育用ツールとして効果的であるとの評価が得られた.
\section{国文学研究におけるコンピュータ}
\subsection{課題の整理}コンピュータは国文学研究に役立つか,という問いに答えるためには,まず国文学研究とは何かを知る必要がある.例えば,和歌研究などではよく本歌どり\footnotemark\footnotetext{国文学の用語は,まとめて付録で解説している.}の研究などと言われる.これは,ある和歌が過去の和歌の系譜を引いて詠まれることがよくあり,その関連を探ることである.有名な事例に次のようなものがある.新古今集巻六の冬に,藤原定家朝臣の歌(歌番号671)がある.\vspace{1em}「駒とめて\underline{袖打ちはらふかげもなし}\underline{\underline{佐野のわたり}}の雪の夕暮」\vspace{1em}この歌は,万葉集巻三の長忌寸奥麻呂(ナガノイミキノオキマロ)の次の歌(歌番号265)が,本歌とされている.\vspace{1em}「苦しくも降りくる雨か三輪が崎\underline{\underline{佐野のわたり}}に\underline{家もあらなくに}」\vspace{1em}この例では,単純に本歌を見つけるという点では,「佐野のわたり」の文字列検索でよい.しかし,「佐野のわたり」は他にも例があって,本歌の確定はこれだけでは充分ではない.「袖打ちはらふかげもなし」の意味と,「家もあらなくに」が対照されなければならない.定家は雨を雪に変え,家なしという直接的な表現に新しい描写を与え,寂しさに優美な情感を込めている\cite{Tanaka1992}.万葉集の素朴さと,新古今集の優雅さを比べる古来より有名な例である.和歌の解釈,あるいは鑑賞をコンピュータで行うことは,極めて困難であろうが,この例のような本歌を探すこと位は可能であろうか.しかし,本歌取りと言っても次のような例もある.例えば,散文中で意味や句の切れ端によって引かれる引歌\setcounter{footnote}{0}\footnotemark,男女間などでやりとりされる問答歌\hspace{-0.2mm}\setcounter{footnote}{0}\footnotemark,\hspace*{-1.3mm}また同じ主題で詠われる連歌\hspace{-0.2mm}\setcounter{footnote}{0}\footnotemarkなどがある.\hspace*{-1.2mm}さらに,\hspace*{-1.3mm}折句\hspace{-0.2mm}\setcounter{footnote}{0}\footnotemarkの1つである沓冠(クツカブリ)\hspace{-1.2mm}\setcounter{footnote}{0}\footnotemarkなどの技巧歌などもある.これらの研究にコンピュータは使えるであろうか.このような課題に応えるためには,様々な関連する材料の収集と整理,並びに組織化が不可欠である.その上で,知的活動を行うための方法と技術が準備されていなければならない.まず,コンピュータの役割はこの辺りにあると考えられる.すなわち,第1に研究材料の収集と整理であり,第2にそれらを用いた知的創造への参与である.国文学の研究は観念的,思弁的であり,かつ主観的であると言われる.しかし,プロダクトはそうであるにしても,それに至るプロセスは一般化して考えることができる.研究過程は普遍的と考えられる.普遍的な文学研究過程を解明し,その構造を把握し,モデルを構築することができれば,研究過程をコンピュータ上に再現できる.さらに,研究過程におけるコンピュータ活用の様相が分かる.つまり,集積すべき情報やシステムの性格がより明確になるはずである.なお,研究過程を知ることは知的創造のプロセスを知ることにつながる.要するに,コンピュータの役割は国文学の研究材料の組織化とその高次活用にあり,並びに研究過程の構造認識にある.そこで,次のようなステップに従って,この問題を考える.\begin{enumerate}\item国文学研究の態様を知る.\item取り扱う資料や情報の種類や性質を知る.\item資料や情報の整理,分析などの処理の方法を知る.\itemこれらについて情報科学的考察を行う.\end{enumerate}なお,観点を変えれば,国文学の研究過程のシミュレータの開発とも考えられる.\subsection{国文学の研究態様}国文学研究のスタイルとも言うべき研究の態様を考える.図\ref{fig:1}に,研究過程のモデルを示す.このモデルはかなり一般化したもので,国文学研究のみならず,他の多くの分野にも通じるモデルと考えている.研究過程は図に示す順序で展開するものとする.\begin{figure}[htb]\begin{center}\epsfile{file=fig1.eps,width=74mm}\caption{国文学の研究過程モデル}\label{fig:1}\end{center}\end{figure}\begin{itemize}\item[1.][研究課題]ステップから,研究は開始する.ここでは,関心のある分野の先人の研究と動向が詳しく調査研究される.各種の関連する資料や文献などが収集され,参照され,分析され,やゝ漠とした広い分野から,より具体的な研究対象が絞り込まれる.すなわち,研究課題の確立が行われる.次に,研究課題の解のための仮説が立てられる.\item[2.][調査]ステップは,仮説の検証のための具体的な実験,観測,調査などである.実験を例に取れば,実験計画,方法の準備,その実行とデータ採取まで,一連の流れを含む.実験の結果はデータとして取得され,集積される.\item[3.][展開]ステップは,これらのデータの考察と評価,すなわち検証である.ここでは,データに対する計算,分析,図式化などの処理が行われる.検証の結果,仮説の構造認識に至り,仮説が実証される.場合によっては,再度前段階へのフィードバックが行われたり,仮説の修正なども行われる.\item[4.][研究成果]ステップで,最後に結果がまとめられる.研究成果は論文の形で公表され,一応これで完了である.しかし,[研究成果]ステップは,また新しく次の[研究課題]ステップに戻る.この研究過程はサイクルをなしていると考えられる.ただし,回を追う毎に,質的な展開が行われている.\end{itemize}図の中心に,研究ファイル(FR:FilesforResearch)を置く.研究の全過程において,研究者個人が生成し,かつ参照する資料,データ,情報のファイルである.手書きで採取,記録されたデータやメモ類,あるいは複写物,写真,原本など,あらゆる研究用の材料も含む.この段階のFR中の各ファイルはたいへん雑多なもので,それらには相互に何のまとまりも脈絡もない.単に資料類の集積に過ぎない.研究成果として出版,公表されるもの以外は,FRに個人仕様に基づき蓄積されている.さて,このFRのファイル構造の認識は可能であろうか.すなわち,分類,整理などは可能であろうか.これらのファイルの電子情報化(ここでは,コンピュータに入力すること,以下電子化と言う)が可能であれば,FRのデータベース化が考えられる.この段階のFRの様相を知ることは,コンピュータ利用の可能性を知ることに繋がる.なお,現状では利用済みの材料はそのまま死蔵されるか,捨てられることが多い.他者による再利用を考慮することは,この分野への大きな貢献となる.\subsection{国文学情報の種類と性質}国文学研究で取り扱うべき材料の種類と性質を知る必要がある.研究対象である資料は,文献資料\setcounter{footnote}{0}\footnotemark及びテキスト資料\setcounter{footnote}{0}\footnotemarkである.文献資料には写本や刊本\setcounter{footnote}{0}\footnotemarkなどの原本\setcounter{footnote}{0}\footnotemarkや写真資料があり,また翻刻\setcounter{footnote}{0}\footnotemarkされ,印刷された活字本もある.テキスト資料はテキスト,語彙索引,用例索引などがある.また,研究論文の必要なことは言うまでもない.表\ref{tbl:1}に,国文学における資料,情報の種類と特徴をまとめる\cite{Yasunaga1989a}.高次性とは情報の表現形態を表す性質ではなく,取り扱うべき資料,情報の質的な違いを区分するものである.国文学情報は階層構造をなすと考えられる\cite{Yasunaga1995b}.情報は各階層においてそれぞれ独自に記録され,表現されている.文字だけではなく,画像,音声などマルチメディアによる表現である.\begin{table}[htb]\begin{center}\caption{国文学における資料,情報の種類と特徴}\label{tbl:1}\epsfile{file=tab1.eps,width=82mm}\end{center}\end{table}\vspace{-1mm}0次情報は,原本そのものに関わる情報である.1つの作品に関する本は,異本\setcounter{footnote}{0}\footnotemarkとして複数種類存在する.古典籍では同じ本はないと言っても過言ではない.主に,画像として取り扱う.さらに,動画,音曲,音声も用いる.1次情報は,原本の翻刻されたテキストに関わる情報(校訂本\setcounter{footnote}{0}\footnotemarkを含む)を対象とする.原本とその翻刻された本は異なるものである.また,1つの原本に対しても複数種類の翻刻本がある.主に文字で表すが,画像も取り扱う.2次情報は,主として目録情報である.目録情報はその伝本\setcounter{footnote}{0}\footnotemarkの書誌や所在を示すが,目録そのものを研究対象とする場合も多く,1次情報的に取り扱われる場合がある.研究論文などの目録も2次情報である.2次情報はおおむね文字である.3次情報は,特定テーマや分野に関する解説,研究動向あるいは目録の目録などを対象とする.また,高次情報は年間の全論文の総合解説や広範な引用分析など,より総合的な情報を言う.両者共文字と画像を用いる.音声を用いる場合もある.なお,文字は日本語として伝来された文字全てを対象とするため,システム外字(JIS規格外字)が多い.外字セットは先験的に分かっているものではなく,新資料発掘の度に発生する.すなわち,日常的な研究や業務の進行中に頻出する.恐らく,国文学用文字セットの定義域を規定することは不可能である.\subsection{従来の情報の処理}従来からの国文学研究におけるコンピュータの役割は,情報検索である\cite{Yasunaga1988,Yasunaga1989b}.情報の提供者側から見れば,国文学に関わる様々な学術情報の組織化を行い,データベースの形成を計り,研究者に役立つ情報検索システムを作り,サービスを行うことである.例えば,国文学研究資料館では創設時のコンピュータ導入に当たって,文献資料の検索,研究論文の検索,主要語彙の検索,及び定本\setcounter{footnote}{0}\footnotemarkの作成が計画されている.これらを対象とした情報検索システムの開発が進み,一部はサービスされてきている.また,表\ref{tbl:2}に示す様なデータベースの研究開発と構築が進んでいる.これらは,主として大型コンピュータを中心とした大量データの共有と共用に主眼が置かれたシステムである\cite{Yasunaga1990,Yasunaga1991}.\begin{table}[htb]\begin{center}\caption{国文学データベースの一覧}\label{tbl:2}\epsfile{file=tab2.eps,width=73.5mm}\end{center}\end{table}一方,情報の利用者側から見れば,コンピュータの役割は情報の探査と取得である.また,高次に利用することである.研究活動においては単純な情報検索だけではなく,いわゆる応用プログラマとして,多角的な観点からの柔軟な活用ができなければならない.\subsection{データベースの利用}図\ref{fig:2}に,データベースの利用を前提とした研究過程のモデルの1例を示す.このモデルは,表\ref{tbl:2}に基づく現在研究中の国文学研究支援システムに基づいている\cite{Hara1994,Hara1995}.\begin{figure}[htb]\begin{center}\epsfile{file=fig2.eps,width=74mm}\caption{データベース利用による研究過程のモデル}\label{fig:2}\end{center}\end{figure}論文検索フェーズでは,まず研究テーマを高次情報や3次情報により広く調査研究する.次いで,その研究テーマを確定するために,過去の研究経緯と成果を深く調査研究する.これはオンラインデータベース利用によって行う.例えば,2次情報によって関連資料の所在,有無などを知り,1次情報があれば直接入手する.原本検索フェーズでは,研究テーマの研究対象である文献資料を探し,入手する.すなわち,2次情報によって文献資料の書誌や所在を知り,1次情報あるいは0次情報によって直接入手する.研究推進フェーズでは,研究支援ツールを用いて研究を進める.支援ツールは一般的なテキスト解析システム,画像処理システムなどである.図\ref{fig:2}は,図\ref{fig:1}を電子化の側面で,やゝ具体的にとらえ直したモデルと考えられる.ただし,情報提供者側からの公用的な共有ファイルの提供である.ここで,考えるべきは個人の参画である.共有ファイルを個人で活用し,個人の環境に合わせて改編して行くことが出来ればよい.個人環境への部分集合の切り出しと,そのFRへの転化が必要である.
\section{研究ファイルのモデル}
\subsection{研究ファイル(FR)の基本構成}再びFRを考える.FRは研究者個人が自分の研究のために,自分で収集,蓄積し,かつ所有する資料,情報の集合と蓄積である.この蓄積は自分の仮説の検証のために行うのであって,研究過程の進展において,種類,量,質も変って行く.ときに,データとの対比により,仮説の再構築も必要となる.図\ref{fig:3}に,FRの基本構造を示す.5つの基本ファイルから構成している.各基本ファイルは,それぞれ内部に様々な個別のデータファイルを集積している.また,基本ファイル間には相互に密接な関連がある.\begin{figure}[htb]\begin{center}\epsfile{file=fig3.eps,width=78mm}\caption{FRの基本ファイルとその関連}\label{fig:3}\end{center}\end{figure}文献ファイルは,研究動向を知るための研究論文などのデータファイルの集積である.環境ファイルは作家,登場人物,時代,地域,ジャンルなど,その作品成立の諸々の環境をデータファイルとして集積する.素材ファイルは研究対象である作品そのものであって,原本,図書,校訂テキスト,各種索引などのデータファイルの集積である.ときに原稿も含む.人文科学でよく行われる用例などの採取されたデータのカードやノート類は,ここに位置づける.参照ファイルは事例や事項,風俗や習慣,各種制度,行事や式典,及び用字,用語,用例などの参考事項のデータファイルの集積である.図の中心に,メモファイルを置く.メモファイルは研究途中のデータ分析,計算,実験,シミュレーション,メモなどの記録のデータファイルである.各基本ファイルは随時に編集を可能とする.また,個別のデータファイルは随時に書き込み,切り張りを行う.ときに,関連の付け替えなど構造の改編を伴う.最大の特徴はメモファイルにある.単なる備忘的記録ばかりではなく,研究推進中のあらゆる記録が保存され,個人の研究そのものの経緯を持っている.さて,これらのデータファイルの電子化は可能であろうか.現在の技術環境からは,データの入力にそれほどの問題はない.問題は入力したデータの蓄積と取り扱いである.また,相互関連の付与である.関連は,極めて多様なかつ重層構造を持つであろう.さらに,各個別のデータファイル間,並びに基本ファイル間を渡り歩くことを可能としなければならない.\subsection{FRの成長過程}研究ファイルの電子化された状態のファイルを,以下FRと言う.とくに,この段階のFRは個人仕様であるので,これを個FR(PFR:PrivateFR)と言う.PFRは主観的であり,他者への提供を考慮して初めてデータに客観性が生まれる.ただし,この段階のデータはまだ特定の範囲に限定されている.この段階での客観的なFRを共有FR(SFR:SharedFR)と呼ぶことにする.ただし,以下の理由で,一次SFRと言う.研究成果のSFRへの投入を考える.このとき,情報構造の再編成が行われる.研究課題あるいは分野の範囲を明確に規定し,その情報表現と構造を確定することができれば,データファイルとしてのより確かな客観性が生まれる.少なくとも同じ分野の研究者への提供が可能になる.すなわち,他者への提供,あるいはデータファイルの流通である.この段階のSFRを二次SFRと言う.一次SFRと二次SFRにはあまり差異は無いが,二次SFRには構造の再編があり,より普遍的と考えられる.ところで,このデータファイルに対して,さらに網羅性と普遍性が保証されれば,これはデータベースに成長する\cite{Inose1981}.つまり,SFRからデータベースへの転換である.この段階でのデータは研究過程の全てを提供するのではなく,もっと客観的で普遍的なデータの提供である.一般の利用者が,誤りなくデータを利用できなければならない.FRの成長過程を図\ref{fig:4}にまとめる.図\ref{fig:4}では,机上の雑多なファイルを整理し,組織化し,電子化をはかる.PFRの形成である.PFRは研究者間での共有を考慮して,再編をはかればSFRに成長する.すなわち,一次SFRである.一次SFRは研究成果の投入によって,二次SFRに転換できる.さらに,データの網羅性を増し,普遍化されることによって,データベースへ成長する.\begin{figure}[htb]\begin{center}\epsfile{file=fig4.eps,width=79mm}\caption{FRの成長過程}\label{fig:4}\end{center}\end{figure}\subsection{FRの構築}FRの実現に当たっての課題は,個人仕様に依存するメモファイルの組織化,並びに各基本ファイルのマルチメディア対応である.SFRとしての実現は前述したモデルと方法に従って行う.実現の方式にはいくつかの方法が考えられるが,ここではハイパーテキストによる実装を考える.ハイパーテキストは上記の課題に応えられ,実装も各種ツールを使えば比較的容易である.本稿では,SFRの一般的な実装方法については触れていないが,次章で示すように具体的な課題を設定し,これを実現し,評価している.この場合,SFRそのものの具体的な実現を,一種の本の体裁,形式に合わせて作る.これを電子本と呼ぶ.電子本としてのイメージはSFRの実現形態の事例として,作る立場からも,使う立場からも分かり易いことによる.
\section{実験的FR「漱石と倫敦」考}
\subsection{実験的FRのテーマ設定}コンピュータにFRを作り,使うという試みを行った.このねらいはFRを実際に作ることができるかどうか,またこれを使うことによって文学研究は可能かどうかということの検証である.さらに,他者が使うことができるかどうかという重要な検証がある.具体的な文学研究のテーマとして,「漱石と倫敦」考を選んだ.「漱石と倫敦」考は,漱石が文学創作を始めるに至った彼のロンドン留学の影響を考察しようとするものである\cite{Inagaki1988}.19世紀末(ビクトリア期最後)の大英帝国の首都ロンドンに,夏目漱石(33歳)は文部省給費留学生として,英語研究のために(本人は英文学研究と認識している)2年間滞在した.この留学がその後の創作活動に与えた影響は大きい\cite{Deguchi1991}.そこで,ここでは漱石と共に,この留学を追体験し,漱石研究に資するという研究テーマを考えてみることにする.しかし,このテーマはたいへん大きいので,FRの例題としては少し絞らざるを得ない.留学に関わる創作で,最も影響のある作品の1つに処女作とも言うべき短編「倫敦塔\setcounter{footnote}{0}\footnotemark」がある.これをヨムこととする.すなわち,漱石のロンドン留学を知ることがテーマであるが,その直接的な影響による創作である倫敦塔を読むことを主題とする.この場合,どのような文学的テーマがあるであろうか\cite{Mizutani1987}.例えば,倫敦塔は暗く,漱石的狂気であるなどの研究が主なものであるが,シェークスピアの戯曲の影響による実験的創作と見ても差し支えない.あるいは,抑圧された漱石の女に対する憧れの吐露とみても差し支えない.文学は読み手の主観に訴える.さらに,ここから「ロンドンが漱石に与えた影響」について考え,あるいは「漱石がロンドンから得た知見」について考えることは可能であろうか.\subsection{実験的FRの考え方}\subsubsection{FRの作成}「漱石と倫敦」考を命題と言おう.この命題を考究し,分析し,文学的なテーマの解を得るステップ,すなわち文学研究過程を考える.この場合の研究過程は,図\ref{fig:1}〜図\ref{fig:3}に示す考え方に従って,構造を把握し,モデル化し,コンピュータに実装しなければならない.すなわち,FRを実現することが目的である.なお,当初の開発段階ではPFRの形成で進めたが,開発中にある程度の普遍化が可能であったため,SFRとして実現をはかっている.また,資料などの入力に当たっては,著作権などを極力考慮している.FRの作成は以下の手順で進める.(1)\\まず,倫敦塔を読む.また,関連して,漱石の最初の短編集「漾虚集\setcounter{footnote}{0}\footnotemark」,ロンドンでの生活についての小作品や文章(例えば「永日小品」や「自転車日記」),ロンドン滞在中の日記や書簡なども読む.次に,テキストをコンピュータに入力する.現代文であるが,校訂テキストが必要である\cite{Etou1991}.著作権を考慮し,解説,注記も入れる.(2)\\命題に関する研究論文を収集する.単行本,学会雑誌などである.現在,人文科学で利用可能なオンラインデータベースは少ない.冊子体で分散しており入手し難いが,国文学では明治期からの研究論文を参照しなければならない\cite{Sawai1993}.書誌目録程度はFRに入力する.著作権を考慮し,可能な限りテキストも入力する.(3)\\可能な限り,文献資料をオンラインで入手する.恐らく写真,絵などの画像である.著作権を考慮し,FRに入れる.(4)\\研究論文を読みながら,研究動向を分析し,把握し,研究テーマを確立する.文学研究のテーマは,例えば,\begin{quote}\begin{enumerate}\item漱石の倫敦塔におけるx,\itemxの視座から見た倫敦塔,\item倫敦塔とx\end{enumerate}\end{quote}などと考えられる.ここで,xは漱石の女性観,狂気,孤独,歴史観などである.ここでは何でも良い.(5)\\研究を展開する.経緯をFRに取り込む.研究の展開は,まず漱石の留学に関わる状況,環境,行動などを知ることである.例えば,以下のような課題について調査研究する.\begin{quote}\begin{enumerate}\item漱石はどの様な精神状態であったか.\item漱石はどの様な生活をしたか.\itemロンドンはどの様な都市であったか.\item時代背景・文化の潮流はどうであったか.\end{enumerate}\end{quote}このためには,参考となる資料,情報を集める必要がある.例えば,彼の日記や書簡から知る様々な環境情報,ロンドン市街地図,主たる建造物,風景などの絵または写真,もしくは動画による疑似体験,彼を取り巻く歴史的環境の情報,関連人物の情報,漱石がその点景で考えたことなどである.さらに,漱石は絵画などをよく鑑賞し,作品にはその影響が表れている.これらを全てFRに入れる.なお,各点景は関連する歴史的事実や解釈などによって,同定されなければならない.(6)\\これらをデータベースにする.文字,数値,画像,音声などマルチメディアである.\subsubsection{FRの検証}以上のFRが,データベースとして準備できれば,検証のための利用実験を行う.利用実験の目的は幾つかある.まず,倫敦塔をヨムことにどれだけ役立ったかの評価である.漱石と実際にロンドンを生活し,歩いてみること,あるいは漱石とロンドン塔に行くことである.このとき,具体的なテーマxが倫敦塔のどの箇所にどの様に現れているか,データベースより,具体的,網羅的に考究し,結論が得られるかどうかを検証する.この過程で,資料,情報の不備が判明し,それらの充足の必要性が分かる.この繰り返しによって,FRは徐々に完成度に近づく.なお,このとき他者の目が入ると,SFRが作成可能である.次の関心事は,新しい研究テーマと研究成果が期待できるかである.これについては後述する.他の観点として,教育への利用がある.すなわち,教材としての活用が考えられる.電子本として,完成された本に構成できれば,普遍的知識の提供という点で,利用効果は高いと考えられる.また,新しい出版メディアとしての電子出版も考えられる.なお,この検証は教育などの専門家によらなければならない.\subsection{実験的FRの構築}\subsubsection{FRの基本設計}図\ref{fig:5}に示すように,FRの基本構造を階層構造で定義する.電子本を意識しているので,目次建ての構成にしている.横軸は目次の章立てを表す.縦軸は各章の階層を表すと同時に,その章に含まれるべき各データファイルを置く.データファイルには,文献ファイルを例にとれば,特定の主題毎の研究論文リスト,あるいは研究論文のテキストなどがまとまりの単位として,定義される.\begin{figure}[htbp]\begin{center}\epsfile{file=fig5.eps,width=83mm}\caption{FRの基本構造}\label{fig:5}\end{center}\end{figure}階層はあまり深くしない.同じ階層に位置づけられるデータファイルは,厳密な範囲を設けないため,種類と数が多くなる.データファイルは,同じ階層間並びに異なる階層間で相互に関連を持つ.FRの構造はネットワーク構造などが適しているかも知れない.しかし,ここではプロトタイプとしての実現の容易さを考慮して,階層構造とした.各データファイル間の連絡は,HTML(HyperTextMarkupLanguage)などによる実現を想定している.一方,FRは倫敦塔をヨムことに主眼を置いている.倫敦塔は紀行的作品の形態をとっている.作者の目と共に,ロンドン塔の点景が移ろい行き,それぞれの点景で漱石的幻想空間が広がる.すなわち,漱石が感じたそれぞれの点景が,時系列として移り行き,作品に盛り込まれている.したがって,具体的な点景に基づき,そこに必要なあらゆる資料,情報が参照できると良いと考えられる.このFRの概念モデルを,彼が現実の下宿を出て,市街を歩き,ロンドンを眺め,ロンドン塔に入り,幻想的体験に浸り,また出て行き,現実の下宿に帰るという時の流れに従って定義する.図\ref{fig:6}に,時系列に従った構造を持つ概念モデルを簡潔に表す.この図に従って,電子本,すなわちFRを構成するものとする.\begin{figure}[htbp]\begin{center}\epsfile{file=fig6.eps,width=82mm}\caption{「漱石と倫敦」考の時系列による概念モデル}\label{fig:6}\end{center}\end{figure}なお,他の作品については倫敦塔と同様の構造が定義できなければならないが,作品によって時系列は使えない場合がある.その場合は,論理的構造,空間的構造などを考慮する.\subsection{実験的FRの実現}\subsubsection{電子本を作る}実装はハイパー構造を考えた.ここでは,ハイパーテキストをベースとして考えているが,必ずしもこれが最適と言うわけではない.ある知識の固まりが自由に手軽にポイントされるという点で,実装の便宜から選んだ.Macintoshに実装している.システムはボイジャー社製ツールキットを用いた.ツールキットは,電子本の作成を意識して開発されたハイパーカードをベースとする作成ツールである.構造は本の体裁をとる.すなわち,表紙,タイトル,目次,各章,本文,解説,索引などの目次スタイルの構造を持つ.図\ref{fig:7}に,「漱石と倫敦」考の電子本の目次と構成例を示す.煩雑さを避けるため,第2階層までとし,かつ一部しか示していない.目次から各章に飛ぶ.もちろん,目次を順に追うこともできる.各章ではその配下のデータファイルに対しては,事項のマウスクリックによるハイパージャンプで参照する.データファイル間のジャンプの他,ポインティング用ウインドウが定義できる.機能ウインドウも各種定義できる.例えば,テキストに対しての語彙の探査とコンコーダンスの作成,インデックスの作成などである.大まかな実装は以下の通りである.\begin{figure}[htb]\begin{center}\epsfile{file=fig7.eps,width=80mm}\caption{電子本「漱石と倫敦」考のもくじ構成}\label{fig:7}\end{center}\end{figure}1章は,「漱石と倫敦」の関わりである.留学の経緯,ロンドンにおける漱石を考える.留学に関わるあらゆる情報を集積する.基本ファイルのうち,環境ファイルと参考ファイルに相当する.2章は,ロンドンの情景である.環境ファイルである.ロンドンの市街地図(目下百年前の地図を探している),倫敦塔に関わる市街の建造物,風景の絵画,挿し絵,写真など,とくにロンドン塔の情景,建物構造図,言及している建物や文物の写真などを入れる.漱石は2年余の間下宿を5回変わっている.その図や近郊の情景は作品に関係が深い.3章は,漱石のロンドンに関わる作品に対する研究者と研究である.文献ファイルである.研究論文の索引,あるいは研究論文そのものをテキストで入れる.研究動向や研究経緯も入力する.研究の現在が辿れ,必要なデータベースなどへのアクセス法も分かる.4章は,倫敦塔をヨム.この電子本の中核である.すなわち,素材ファイルである.校訂テキストと事項解説などを入力する.作品の解題や解説,各種注記も入力する.このためには様々な参考ファイルが必要である.具体的な構造は後述の図\ref{fig:8}によっている.5章は,漱石のロンドン留学に関わる他の作品,例えばカーライル博物館,自転車日記などである.これも素材ファイルである.構造は4章と同様である.6章は,史跡の散策である.環境ファイルである.ここでは,現在のロンドンの町並みを動画による案内風にまとめた.言わば,観光案内のようなものである.動画と音声による情景描写は,仮想現実感を与え,作品をヨムことの深まりを与える.なお,ここではメモファイルは明確に定義していない.7章に準備だけはしている.何故ならば,メモは各章の各ページの中で,ツールキットにより自由に書き込みができるためである.また,逆のような理由で,ロンドンの情景は全て第2章に集約した.必要なデータファイルから,自由にアクセスできるためである.\begin{figure}[htb]\begin{center}\epsfile{file=fig8.eps,width=83mm}\caption{倫敦塔をヨム}\label{fig:8}\end{center}\end{figure}\subsubsection{倫敦塔をヨム}4章の実装は図\ref{fig:8}による.倫敦塔のテキストは,ロンドン塔へ実際に彼と行くことを想定して,時系列に従って,各種点景が参照できるよう配慮した.いつでも事項によるハイパージャンプによって,対応するデータが参照可能である.また,テキストには朗読を入れた.これにより,テキストを文字を追って読むこと以外にも,音声による鑑賞を可能とした.なお,可能ならば,漱石自筆の原稿が入ると価値が高まる.図\ref{fig:8}は,また「漱石と倫敦」考の全体構造を示している.実装は図\ref{fig:7}によっているが,言わば1つのビューとして図\ref{fig:8}が位置づけられる.この意味では,図\ref{fig:8}を基軸にした実装も考えられる.電子本として,約40枚の画像,主たるテキストとその朗読,及び各種索引,解説,注記などを含む.現在,約200ページの本となっているが,なお追加されつつある.実装したテキストとその検索例を,図\ref{fig:9}に示す.この例は,倫敦塔テキスト中から「余」と言う語を探し,そのKWICを表示した例である.画面コピーで示した.余は作品中で主体であり,その視点の移動によって,主題が展開する.\begin{figure}[htb]\begin{center}\epsfile{file=fig9.eps,width=113mm}\caption{倫敦塔テキストの検索例}\label{fig:9}\end{center}\end{figure}ハイパーテキストは基本的に階層構造であり,情報のまとまりを関連付けることができる.しかし,それらの複雑な相互関連,とくに論理構造は定義できない.限界はあるが,実験としては十分と考えている.\subsection{評価実験}\subsubsection{検証課題(電子本をヨム)}電子本をヨムことは,漱石と一緒に留学を追体験し,とくに一緒に倫敦塔の情景に従って,ロンドン塔まで歩いてみることである.日記には,ロンドン着後4日の10月31日(水)に,「TowerBridge,LondonBridge,Tower,Monumentヲ見ル」とある.どう歩いたか,何を考えたか想像しながら歩く.実際に,彼の辿った足取りを追って行く.これは地図,写真,関連する文などによって,ある程度可能である.これらの情報は現在入手可能な資料などで作るが,可能な限り当時の資料を収集する.なお,幸いなことに百年前と今のロンドンの町並みはほとんど変わっていない.漱石のロンドン留学が,漱石の内面にどの様な変化を生じさせたか.彼の文学論構築に至る精神活動は,彼と共に仮想現実的にロンドン体験を置くことにより,よりはっきりとするはずである.このシステムを訪れることによって,何かの発見が生まれると素晴らしい.次に,作品倫敦塔を読みながら,彼と一緒にロンドン塔内を歩いてみる.作品で何を言おうとしたかを考える.英国史の断片と,シェークスピアを知らなければならない.参照すべき情報が大量に必要である.19世紀末のロンドンを考え,日本を考えることに役立つ情報の集積がなければならない.これは,ある程度図\ref{fig:8}に従って実装されている.\subsubsection{評価}作り手以外の他者による利用を,大学院の教育現場における実験として行った.また,研究者による新しい知見獲得の可能性を探る利用実験も試みた.幾つかの経緯と文学的評価について述べる.10数名の国文学の学生を対象とした利用実験を行った.結果はおおむね好評であった.彼らにとっては初めての経験であり,戸惑いも多いようであったが,数時間の訓練で充分使いこなすことができた.机上と同じように研究を進めることができ,自分の感想や考えを簡単に入力できる(メモを取る)ことが評価された.また,題材としては,やや使い尽くされた感があり,必ずしも素材が完備していないとの批判があるが,プロセスそのものは新しく,かつ応用が利くことが確認された.一方,研究者による利用実験では建設的な評価が多く,以下にまとめる.漱石はジェーンの処刑の場面を,ドラローシュ\setcounter{footnote}{0}\footnotemarkの絵によっている.この絵は現在英国ナショナルギャラリにある.実際の絵は畳3枚くらいの大きさの絵であるが,コンピュータでは画面サイズでしかない.しかし,この程度のイメージでも,単に文を読むだけでは味わえない臨場感を与え,彼の幻想を体験できる意義が強調され,評価された.作品では首切り役人は醜く書かれ,哀れさを助長するのに役立つ風情があるが,漱石が見たドラローシュの絵の首切り役人は,大した美丈夫に描かれている.果たして,この差には何らかの意味,あるいは意図があるのであろうか,大きなテーマであり,このシステムによる発見である.すなわち,彼が作品の中で言及した絵を実際に見ることによって,発見できるテーマである.ジェーンの処刑の場面は,その幽閉された塔に行って,その題辞を見ることによって,より深く作品に同化できる.実際に,システムを通じて目にしなくては実感が湧かない.処刑の場面に登場する首切り歌などは,そこに恐ろしい音楽のように響く描写がなされている.これなども,実際に朗読を聴くことで,より作者と同化する作品鑑賞につながる.以上は,マルチメディアによる新しい作品鑑賞,並びに研究の道があることの事例となった.また,テキストは結構難解な歴史的背景や事項があり,これらの解説など多くの参考データをハイパージャンプで簡単に参照できる.作品を読むに当たって,たいへん有効な手段であることが確認され,好評であった.さらに,自分のメモが残せることも有用であった.これらのことに加え,様々な知識の利用や参照に関して,自由度の高い教材の提供が可能であろうという点で,一般教育への電子本の活用はかなり有効であるとの評価を得た.
\section{あとがき}
コンピュータを用いて国文学研究を進めるには,研究ファイルの組織化が必要なことを述べた.現在,その試みとして電子本「漱石と倫敦」考の研究開発を進めている.実際に研究者による評価では概して評判がよい.例えば,倫敦塔と言う作品をヨム場合に,各種関連情報を利用できるメリットが大きい.利用者はメモを書き込んだり,必要な情報を入れるなど,自分の研究環境の整備がコンピュータ上でできる.狙いは,文学的テーマの解が得られるか,あるいは知的生産活動に耐えうるかということである.この評価が必要である.実験ではマルチメディアで文学作品をヨムことにより,従来無かった新しい研究テーマも指摘されている.しかしながら,「漱石と倫敦」考と言うテーマは極めて大きい.しかも倫敦塔に絞っている.そのため,カーライル博物館や自転車日記など他の関連作品に進み,トータルな「漱石と倫敦」考を体験できることが望まれている.なお,電子本は先験的に構造が与えられているので,自由度がなく研究には向かないとの指摘もある.これは,メモファイルは常時書き込み,修正などが許され,1部の共有部分を除き,個人研究環境の累積となることで,対処できよう.確かに,倫敦塔から他の作品に適用する場合など,時系列を柱とすることはできないかも知れない.この場合は,その作品特有の構造に着目すればよい.要するに,本稿で述べた方法は,言わば方式の例示的標本を提供し,そこから自由に個人環境を作れるようにすることである.特筆すべきは,教育用の電子本という点である.大学院レベルの教育用素材としての価値の他に,大学あるいは高校,一般においても,充分価値のある新しい形態の本ではなかろうか.著作権などをクリアして上での電子出版が望まれている.また,SFRの共有は例えばグループウェアとして,プロジェクト研究などの推進に役立つと考えられる.とくに,今後はパソコン環境への実装ばかりではなく,例えばWWW(WorldWideWeb)サーバなどへの登録,あるいはグループ内のLAN環境での実装など,用途は広いと考えられる.Mosaicなどによる一般提供なども考慮する必要がある.現在計画中である.本稿は,現在死蔵される運命にある研究個人環境の研究過程の素材の活用に道を開いた.恐らく,今後はコンピュータの活用を前提にすれば,研究過程でのPFRの活用は,ある程度の研究者の責務と考えるべきかも知れない.以上のような観点から,コンピュータ応用を考える場を,コンピュータ国文学と呼んでいる.コンピュータ国文学は,国文学研究にとって従来型の研究をより一層推進することは当然であるが,一歩進んで従来無かった新しい研究領域を提供することが期待される.本論では触れなかった重要な課題が多くある.例えば,データベースの一貫性制御,典拠コントロール,テキスト処理の実際,並びに著作権の問題である.とくに,著作権は原著者,校訂者,電子化データ作成者,出版者などの複雑な関連もあり,今後真剣に考え対処すべき問題である.ここでは,問題点の指摘に留める.最後に,本稿は文献\cite{Yasunaga1995a}に基づいている.\acknowledgment本研究では,日頃ご指導いただく国文学研究資料館の佐竹昭廣館長,藤原鎮男教授,立川美彦教授に御礼申し上げる.また,同館松村雄二教授,中村康夫助教授には,有益な助言と批評などをいただいた.とくに,原正一郎助教授,情報処理係野村龍氏をはじめ,係員諸氏には,システム開発,実験などの協力をいただいた.合わせて深謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\section*{付録}\subsection*{国文学の用語}主として,広辞苑(1983,岩波書店,第三版)によった,読みのABC順で示す.\begin{description}\item[異本(イホン):]同一の書物であるが,文字,語句,順序に異同があるもの.別本.\item[折句(オリク):]短歌,俳句などの各句の上に物名などを一字ずつ置いたもの.\item[刊本(カンポン):]狭義には主として江戸時代の木活字本,銅活字本,整版本などの称.版本.\item[沓冠(クツカブリ):]ある語句を各句の始めと終わりに1音ずつ読み込むもの.折句の1つ.\item[原本(ゲンポン):]写し,改訂,翻刻などをする前の元になる本.\item[校訂本(コウテイボン):]古書などの本文を他の伝本と比べ合わせ,手を入れて正した本.\item[定本(テイホン):]異本を校合して誤謬,脱落などを検討し,校正し類書中の標準となるように本文を定めた本.\item[テキスト資料:]国文学作品の本文(ほんもん),ここでは活字化され印刷された本.\item[伝本(デンポン):]ある文献の写本または版本として世に伝存するもの.\item[ドラローシュ:]Delaroche,Paul(1797-1856).フランスの歴史画家.漱石の見た絵は,フランスルーブル美術館にある「エドワードの子供達」と,イギリスナショナルギャラリにある「ジェーンの処刑」.\item[引歌(ヒキウタ):]有名な古歌を自分の文章にひき踏まえて表現し,その箇所の情趣を深め広める表現技巧.\item[文献資料:]国文学の研究対象となる原本や写真資料.\item[本歌(ホンカ)どり:]和歌,連歌などで,意識的に先人の作の用語,語句などを取り入れて作ること.\item[翻刻(ホンコク):]手書き文字,木版文字などを活字に置き換えること.翻刻本とは,写本,刊本を底本として,木版または活版で刊行した本.\item[問答歌(モンドウカ):]一方が歌で問い,他方が歌で答えたものの併称.\item[漾虚集(ヨウキョシュウ):]夏目漱石の短編集.倫敦塔を含む初期7編の短編を収めたもので,明治39年(1906)大月書店から出版された.\item[連歌(レンガ):]和歌の上句と下句に相当する長句と短句との唱和を基本とする詩歌の形態.\item[倫敦塔(ロンドントウ):]夏目漱石の短編.明治38年(1905)「帝国文学」に発表.ロンドン滞在中に見物したロンドン塔の印象を骨子とする.\end{description}\begin{biography}\biotitle{略歴}\bioauthor{安永尚志}{1966年電気通信大学電気通信学部卒業.同年電気通信大学助手,東京大学大型計算機センター助手,同地震研究所講師,文部省大学共同利用機関国文学研究資料館助教授を経て,1986年より同館教授.情報通信ネットワークに興味を持っている.現在人文科学へのコンピュータ応用に従事.とくに,国文学の情報構造解析,モデル化,データベースなどに関する研究と応用システム開発を行っている.最近では,テキストデータベースの開発研究に従事.電子情報通信学会,情報知識学会,情報処理学会,言語処理学会,ALLC,ACHなど会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N05-02
|
\section{はじめに}
label{sec:intr}構文解析は自然言語処理の基礎技術として研究されてきたものであり,それを支える枠組の一つに言語学上の理論があると考えるのが自然であろう.過去においては言語に関する理論的理解の進展が解析技術の開発に貢献していたことは改めて述べるまでもない.しかし,現状はそうではない.現在開発されている様々な解析ツールには文法理論との直接的な関係はない.形態素解析や係り受け解析には独自のノウハウがあり,またそうしたノウハウは言語学上の知見とは無関係に開発されている.そのような事情の背景には,自然言語処理に文法理論を導入することは実用向きではない,という見解があった.また,そもそも自然言語処理という工学的な技術が文法理論の応用として位置付けられるものであるかどうかすら明確ではない.工学的なシステムは,1970年代,学校文法を発展させたものか,60年代の生成文法などにもとづいて開発されていた.そのようなアプローチの問題は個別的な規則を多用したことにあり,様々な言語現象にわたる一般性が捉えられないばかりか,肥大した文法は処理効率の面でも望ましいものではなかった.素性構造(featurestructure)の概念の形式化が進んだ80年代は,それを応用した構文解析などの研究が行われていた.研究の関心は専ら単一化(unification)という考え方が言語に特徴的な現象の説明に有効かどうかを明らかにすることであった.そのため構文解析器の開発は文法の構築と並行して行われたものの,実用面より理論的な興味が優先された.90年代になると,コーパスから統計的推定によって学習した確率モデルを用いる手法が,人手で明示的に記述された文法に匹敵する精度を達成しつつあった.しかしながら,コーパスだけに依存した方法も一つの到達点に達し,そろそろ限界が感じられてきている.これらの文法システムに共通する特徴は,自然言語に関する様々な知見を何らかの計算理論にもとづいて実装しようと試みていることである.そのような知見は言語に関する人間の認知過程の一端を分析して得られたものに他ならないが,そもそも人間の情報処理というものが他の認知活動と同様に部分的な情報を統合して活動の自由度をできるだけ小さく抑えているようなものであるならば,言語も人間が処理している情報である以上,そのような性質を持つものと考えることができる.その意味で,構文解析が果たすべき役割とは,文の構造といった言語に関する部分的な情報を提供することで可能な解析の数を抑制することにあり,またより人間らしい,あるいは高度な自然言語処理に向けての一つの課題は,そのような言語解析における部分的な情報の統合にあると考えることができる.本論文ではこういう前置きをおいた上で,現在NAISTで開発中の文法システムを概観し,自然言語処理に文法理論を積極的に導入した構文解析について論じてみたいと思う.言語データを重視する帰納的な言語処理とモデルの構築を優先する演繹的な文法理論を両立させた本論のアプローチは,どちらか一方を指針とするものよりも,構文解析,あるいは言語情報解析においてシステムの見通しが良いことを主張する.また,このような試みが自然言語処理における実践的な研究に対してどのようなパースペクティブを与えるか,ということも述べてみたい.本論文の構成は以下のとおりである.文法理論は言語の普遍的な(universal)性質を説明する原理の体系であるが,\ref{sec:jpsg}節では,言語固有の(language-specific)データを重視して構築していながらも普遍的体系に包含されるような日本語文法の骨子を明示的に述べる.\ref{sec:jl}節以下は,日本語特有の現象についての具体的分析を示す.形式化が進んでいる格助詞,取り立て助詞,サ変動詞構文を例に.言語現象の観察・基本事項の抽出を踏まえた上で,断片的な現象の間に潜む関連性が我々の提案する文法に組み込まれた一般的な制約によって捉えられることを示す.\ref{sec:adn}節では,本論の構文解析の問題点の一つ,連体修飾の曖昧性について検討する.一般に,コーパス上の雑多な現象を説明するための機構を文法に対して単純に組み込んでしまうと曖昧性は増大する.しかし,格助詞に関わる連体修飾については,文法全体を修整することなく不必要な曖昧性を抑えることができる.ここでは各事例の検討を交えながら,その方法について述べる.\ref{sec:cncl}節は総括である.本論文が示したことを簡単にまとめ,締めくくりとする.\setcounter{section}{1}
\section{基本的な枠組と実装に向けての理論の精緻化・拡張}
label{sec:jpsg}文法理論は,言語に関する最も体系的な知見として,人間の言語活動に対して見通しのよい説明を提供している.本研究が立脚する主辞駆動句構造文法(Head-drivenPhraseStructureGrammar---HPSG)\cite{Pollard&Sag1987,Pollard&Sag1994,Sag&Wasow1999}は,言語現象を情報という観点から形式的に捉えようとした文法理論である.HPSGは,統語,意味,あるいは今日亨受できる豊かなデータの蓄積をもとにした音韻・形態情報などの系統的な関係を記述することができ,さらにはそれらの統合的な情報も単一化によって得ることを可能にしている.また,開発の経緯において情報科学との交流が密であったため,構文解析などの言語処理の基礎技術を考える基本的な枠組みを提供するという目的においても導入に適した理論である.以下に論じる文法システムは,文法理論の導入によるこのような利点が言語処理に反映されるように設計を試みたものである.\subsection{HPSGの実装における問題点}\label{sec:jpsg:issue}HPSGの体系\cite{Pollard&Sag1987,Pollard&Sag1994}を解析システムとして実装する場合,特に考慮を要するのは次の三点である.\begin{itemize}\item[1.]語順に関する原理・制約\item[2.]音形を持たない(空の)語彙を仮定した``省略''(や``痕跡'')の説明\item[3.](無効な)構文木の生成・曖昧性の抑制\end{itemize}1は線形順序制約(LinearPrecedenceConstraint)によって規定され,直接支配スキーマ(ImmediateDominanceSchema---IDスキーマ)は構成素が左右どちらの枝にあるかという区別はしない.この制約は構成素間の局所的な順序のみを規定し,制約に違反しない任意の語順を文法的とするが,このような理論的枠組を実際の解析に反映させるためには,予め線形順序制約とIDスキーマから全ての句構造規則を派生させるといった工夫が別途必要となる.2は下位範疇化(subcategorization)に関する素性の打ち消し(cancellation)を問題にする.下位範疇化された要素が表層に現れていない場合,音形を持たない空の語彙を仮定することで素性は打ち消される.しかしながら,日本語では文中のほとんどの要素が省略可能であるため,省略の分析を実装するには,実際には起きていない省略を検査してしまう冗長な解析を抑制する方法も組み込まなければならない.3はシステムの処理対象と言語理論の説明対象の間の調整に関する問題である.原理・スキーマなどの制約は,可能であれば解析のあらゆる段階でその適用が全て検査されるが,その数が多いほど評価を試みる(無効な)構文木が組み合わせ的に増大してしまう.処理系への負担を減らすには,システムの持つ文法を調整し適用可能性を抑える必要があるが,それには言語現象の理論的な一般化を損わないような配慮が必要である.これらは,言語理論が推し進めている抽象的な原理の体系をそのまま実装する上で問題となる.しかしながら,我々の文法システムでは\ref{sec:intr}節で述べたような言語現象に対する理論の見通しの良さを活かすために,HPSGの形式化に対し独自の修正を加えることでその実装を可能にした.以下では,上記の問題点を解消するために我々が行ったHPSGの精緻化・拡張について述べる.まず,\ref{sec:jpsg:frml}節では日本語文法の形式化に関する全体的見通しを概観し,\ref{sec:jpsg:worder}節では``語順''の扱いを,次いで\ref{sec:jpsg:drop}節では``省略''の扱いについて述べる.最後に,\ref{sec:jpsg:atree}節で構文木の生成・曖昧性の抑制に関して,頻出構文である複合述語に問題を限定して論じることにする.\subsection{日本語文法の形式化}\label{sec:jpsg:frml}本論文で提案する文法は当面の記述対象を日本語に限っているため,JPSGとよんでいる.HPSGにもとづいた日本語文法としては,既にICOTJPSGが存在している\footnote{\citeA{Gunji1987,Tsuda&etal1989L}などを参照.90年代には,ICOTの成果を発展させた研究\cite{郡司1994,Gunji&Hasida1998}が,自然言語の一般的性質の説明を目指した理論体系の開発に関心を向けている.}.ここで提案する文法も言語に関する基本的な洞察はICOTと同じである.しかし,文法の理論的一貫性を保持しつつ実用的なシステムを開発することに,より関心を向けているため,理論の射程や実装面の特徴においては大きく異なっている.ゆえに,ICOTJPSGとは区別して,我々が提案する文法をNAISTJPSGとよぶことにした.HPSGにもとづくJPSGの理論的構成は,普遍原理($P_1,\dots,P_n$),日本語固有の原理($P_{n+1},\dots,P_{n+m}$),スキーマ($S_1,\dots,S_p$),語彙($L_1,\dots,L_q$),の関係として図\ref{fig:jpn}のように形式化することができる.\begin{figure}\begin{center}$日本語=P_1\wedge\dots\wedgeP_n\wedgeP_{n+1}\wedge\dots\wedgeP_{n+m}\wedge(S_1\vee\dots\veeS_p\veeL_1\vee\dots\veeL_q)$\end{center}\caption{HPSGにもとづく日本語文法の形式化}\label{fig:jpn}\end{figure}このように連言的な原理と選言的なスキーマを仮定し,言語の性質を理論的に組み立てることによって,言語の普遍性と日本語の特徴の記述を両立させている.言語的対象物(linguisticobjects)は,実際の言語状況において,図\ref{fig:fstr}のような属性(attribute)と値(value)が対になった素性構造で表わされる音韻・形態情報,統語情報,そして意味情報が互いに制約し合って配置された部分情報構造(partialinformationstructures)に則して分析される.\begin{figure}\avmvskip{-.2ex}\begin{center}\begin{avm}\[{\footnotesize\itsynsem\_struc}\\syn&\[head&\[{\footnotesize\ithead}\\case&{\itcase}\\arg-st&{\itlist(synsem\_struc)}\\mod&{\itlist(synsem\_struc)}\]\\val&\[subcat&{\itlist(synsem\_struc)}\\adjacent&{\itlist(synsem\_struc)}\]\]\\sem&{\itsem\_struc}\]\end{avm}\end{center}\avmvskip{-.5ex}\caption{NAISTJPSGの基本的な素性構造{\protect\footnotemark}}\label{fig:fstr}\end{figure}\footnotetext{以下,素性名からどの素性の値か明らかなものについては適宜\\begin{avm}\[adjcnt\\<\,\>\,\]\end{avm}\のように簡略化して記述する.}{\itsynsem\_struc\/}は語または句の持つ情報を記述するための型(type)の総称であるが,このように部分情報構造の型の名前をイタリック体で示す.また,{\itlist($\alpha$)\/}は$\alpha$という型を持つ素性のリストを表す.{\itsynsem\_struc\/}は{\itphrase,word,\dots\/}といった下位型(subtype)を持つ.主辞素性(headfeature---{\schead}素性)の値{\ithead\/}は品詞,格素性(casefeature---{\sccase}素性)の値{\itcase\/}は格に関する情報をそれぞれ表すが,各素性の詳細は以下の節で必要に応じて述べる.上記のように,素性構造に対する基本的な構想,またこのような言語情報の統合が素性構造に対する単一化によってなされる点はHPSGの見解に従うものであるが,NAISTJPSGはさらに日本語の解析システムとして,日本語を指向した新しい型体系を導入している.HPSGなどの言語理論と構文解析・文生成といった自然言語処理技術が最も密接に関連するのは,句構造の構築に関するスキーマであろう.HPSGは文の構築に関する個別の句構造規則を仮定していない.伝統的な統語論で仮定されていた句構造規則は,下位範疇化に関する情報と直接支配原理(ImmediateDominancePrinciple)に関する六つのスキーマ(1.~Head-Subject,2.~Head-Complement,3.~Head-Subject-Complement,4.~Head-Marker,5.~Head-Adjunct,6.~Head-Filler)といった普遍的制約に置き換えられている.NAISTJPSGも基本的にはこの考え方に従うものであるが,スキーマに関しては独自に図\ref{fig:schm}の四つを設定している.\begin{figure}\begin{center}\begin{tabular}{rllcllcl}a.&complement-headschema:&[{\itphrase}]&$\rightarrow$&C[{\itphrase}]&H\\b.&adjunct-headschema:&[{\itphrase}]&$\rightarrow$&A[{\itphrase}]&H[{\itphrase}]\\c.&0-complement-headschema:&[{\itphrase}]&$\rightarrow$&H[{\itword}]&\\d.&pseudo-lexical-ruleschema:&[{\itword}]&$\rightarrow$&X[{\itword}]&H[{\itword}]\\\end{tabular}\end{center}\caption{NAISTJPSGのスキーマ{\protect\footnotemark}}\label{fig:schm}\end{figure}\footnotetext{図中のC,A,H,Xはそれぞれ,補語(complement)・付加語(adjunct)・主辞(head)・任意の統語範疇を表している.}(a)のcomplement-headschemaは1--3を包括し,(b)のadjunct-headschemaは5に相当する.(c)の0-complementschemaおよび(d)のpseudo-lexical-ruleschemaは新たに導入したものであるが,これらのスキーマの必然性は\ref{sec:jpsg:issue}節で提起した問題と関連しており,順次説明していくことにする.6に関しては空所という言語学的な分析をどのように実装に反映するかを検討中ゆえに,現在のところ扱いが明確となっていない.4に相当するスキーマがないのは,NAISTJPSGでは日本語の助詞(および補文標識)をマーカと分析しないためである.助詞については\ref{sec:jl}節で詳しく論じる.\subsection{語順に関する原理・制約}\label{sec:jpsg:worder}図\ref{fig:schm}のスキーマは,HPSGで仮定されているものとは一部異なっているものの,その選択が図\ref{fig:jpn}に示すように選言的であること,またcomplement-headschemaは下位範疇化,adjunct-headschemaは付加語に関する制約を担うスキーマとして,伝統的な句構造規則に代わり,構成素の階層関係に制約を課し,図\ref{fig:btree}のような構文木の生成を保証している点では変わりはない.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\AnnoLn7{\llap{\boxit{1}\,}PP}{\xnode{xa}{\}}\tangle6{健が}}{\AnnoRn7{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@1\,\>\,\]\end{avm}}}{\hspace*{6.6cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn7{ADV\rlap{\,\begin{avm}\[mod\\<\,\@3\,\>\,\]\end{avm}}}{\xnode{ya}{\}}\Tangle1{こっそり}}{\AnnoRn7{\llap{\boxit{3}\,}V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@1\,\>\,\]\end{avm}}}{\hspace*{4.8cm}\xnode{yb}{\}{\itadjunct-head}}{\AnnoLn4{\llap{\boxit{2}\,}PP}{\xnode{za}{\}}\Tangle1{ケーキを}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\@4\,\]\end{avm}}}{\hspace*{3.5cm}\xnode{zb}{\}{\itcomplement-head}}\Annorn0{V\rlap{\,\begin{avm}\[arg-st\\@4\<\,\@1xp[{\itga}],\@2yp[{\itwo}]\,\>\,\]\end{avm}}}{\xnode{wa}{\}\hspace*{3cm}\xnode{wb}{\}{\it0-complement-head}}\lf{食べた}}}}}\hspace*{5cm}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\nodeconnect[l]{wa}[l]{wb}\caption{「健がこっそりケーキを食べた」の構文木}\label{fig:btree}\end{figure}図\ref{fig:stree}に図\ref{fig:btree}の語順転換(かき混ぜ,scrambling)の一例を示す.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\<\,\>\,\]\end{avm}}}{\AnnoLn7{\llap{\boxit{2}\,}PP}{\xnode{xa}{\}}\Tangle1{ケーキを}}{\AnnoRn7{V$'$\rlap{\,\begin{avm}\[subcat\<\,\@2\,\>\,\]\end{avm}}}{\hspace*{6.4cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn7{ADV\rlap{\,\begin{avm}\[mod\\<\,\@3\,\>\,\]\end{avm}}}{\xnode{ya}{\}}\Tangle1{こっそり}}{\AnnoRn7{\llap{\boxit{3}\,}V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@2\,\>\,\]\end{avm}}}{\hspace*{4.6cm}\xnode{yb}{\}{\itadjunct-head}}{\AnnoLn4{\llap{\boxit{1}\,}PP}{\xnode{za}{\}}\tangle7{健が}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@1,\@2\,\>\,\]\end{avm}}}{\hspace*{3.3cm}\xnode{zb}{\}{\itcomplement-head}}\lf{食べた}}}}}\hspace*{5cm}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\caption{「ケーキをこっそり健が食べた」の構文木}\label{fig:stree}\end{figure}図\ref{fig:btree}と比較するとわかるように,どちらも下位範疇化素性(subcategorizationfeature---{\scsubcat}素性)の打ち消しには違いがない.HPSGでは,言語の階層性を規定するこのような句構造表示の制約によって,英語のように語順の制限が厳しい言語と日本語のように語順の制限がゆるい言語を区別していた.NAISTJPSGの実装では次の2点により語順転換を説明する.\begin{itemize}\item[1.]{\scsubcat}素性の打ち消しに順序を設けないことにより,任意の順序での素性の打ち消しを可能とする.\item[2.]構文木の構造は構成素の階層関係を直接的には反映しておらず,そのような情報は{\scsem}素性の埋め込みで記述する.\end{itemize}また,complement-headschema,adjunct-headschemaの意図するところは,日本語の基本的な文の統語構造を,語順の制約がゆるい非階層言語のような平坦な構文木として分析するのでもなく,また階層言語のような主語・目的語の非対称性も仮定しない,ということである.1に関してはICOTJPSGでも{\scsubcat}素性の打ち消しに順序を設けないというアプローチがとられている.しかし,その定式化は素性の値をリストではなく,集合とする別の方法によって実装されていた.NAISTJPSGの{\scsubcat}素性は,{\scarg-st}素性から\citeA{Sag&Wasow1999}で提案されている項顕在化原理(ArgumentRealizationPrinciple)によって変換されたリストであり,統語情報と意味情報の関係に対する普遍的制約によって計算されている.2に関しては\citeA{Manning&etal1999}でも埋め込み分析が提案されているが,我々とは分析の対象とする言語事実やその説明の枠組,理論的帰結が異なっている.また,近年の言語学では統語構造と音韻・形態構造の独立性が考えられており,例えば\citeA{Gunji1999}では,順序連接(sequenceunion)という制約を用いることで,それらの関係を適切に捉えるような機構を提案している.しかし,順序連接は解析システムとして実装するのが困難であり,また音韻・形態情報を反映して語順を規定する構文木にもとづく解析の方が,係り受け情報を利用することで不要な可能性の数を制限しやすいため,このような分析を採用している.\subsection{省略に関するスキーマ}\label{sec:jpsg:drop}日本語では,いわゆるゼロ代名詞とよばれる,(\ref{ex:omit})に示すような項の省略が頻繁に起こる.\enumsentence{\label{ex:omit}\quad\tabcolsep=0pt\begin{tabular}[t]{rp{3mm}ccc}a.&&健が&ケーキを&食べた.\\b.&&健が&$\phi$&食べた.\\c.&&$\phi$&ケーキを&食べた.\\d.&&$\phi$&$\phi$&食べた.\end{tabular}}すなわち,(\ref{ex:omit}a)に対し,動詞が要求する項が一部表出していないような(\ref{ex:omit}b,c)や,極端な場合,(\ref{ex:omit}d)のように項が全く表出していなくても,その動詞は句または文と成り得る.一方,英語ではこのようなことはほとんど起こらず,語と句は厳格に区別される.英語はさらに語順が固定的であることから,\citeA{Sag&Wasow1999}では(主語以外の)全ての項を同時に打ち消すスキーマが標準的な機構となっている.NAISTJPSGでは次の二点を考慮し,図\ref{fig:schm}(a)のcomplement-headschemaの他に(c)の0-complementschemaを導入した.\begin{itemize}\item[1.]日本語においては部分的に飽和した動詞句がごく自然に現れる.\item[2.]仮に全ての項が表出しても,それらの間に任意の付加語が入り得る.\end{itemize}0-complementschemaに続けてcomplement-headschemaを再帰的に適用してゆけば,任意の個数の項を打ち消すことができる.図\ref{fig:go}はこのスキーマによって解析を行なった(\ref{ex:omit}d)の構文木である.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{S\,\begin{avm}\[head&\@1\\adjcnt&\<\,\>\\subcat&\@2\,\]\end{avm}}\Annorn0{V\,\begin{avm}\[head&\@1\,{\itverb}\\adjcnt&\<\,\>\\arg-st&\@2\,\<\,xp[{\itga}],yp[{\itwo}]\,\>\,\]\end{avm}}{\xnode{a}{\}\hspace*{3cm}\xnode{b}{\}{\it0-complement-head}}\lf{食べた}}\end{center}\nodeconnect[l]{a}[l]{b}\caption{(\ref{ex:omit}d)「食べた」の構文木}\label{fig:go}\end{figure}「食べた」の{\schead}素性が主辞素性原理(HeadFeaturePrinciple)によって{\scs}の{\schead}素性に受け継がれている.また,「食べた」の意味的な項を表わす{\scarg-st}素性は項顕在化原理によって{\scs}の{\scsubcat}素性に変換されている.\subsection{複合述語に関する曖昧性の抑制}\label{sec:jpsg:atree}日本語では(\ref{ex:aux})のように動詞に対する助動詞の連接が生産的に行われている.\enumsentence{\label{ex:aux}\begin{tabular}[t]{rl}a.&奈緒美が本を\underline{読んだ.}\\b.&健が奈緒美に本を\underline{読ませた.}\\c.&健が奈緒美に本を\underline{読ませたがった.}\\d.&奈緒美と違って健は絵本を\underline{読ませられたがらなかった.}\end{tabular}}図\ref{fig:schm}(c)の0-complementschemaとともに新たに導入した(d)のpseudo-lexical-ruleschemaは,このようないわゆる複合述語形成を扱うスキーマである.例えば(\ref{ex:aux}b)における複合動詞「読ませた」は図\ref{fig:lcaus}のように分析される.\begin{figure}\begin{center}\unitlength=0.08ex\tree{\node{S\rlap{\,\begin{avm}\[head&\@1\\subcat&\<\@3\,\>\,\]\end{avm}}}{\AnnoLn7{\llap{\boxit{4}\,}PP\rlap{\,\begin{avm}\[head&\[{\itni\/}\]\\adjcnt&\<\,\>\,\]\end{avm}}}{\xnode{wa}{\}}\tangle9{奈緒美に}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[head&\@1\\subcat&\<\@3,\@4\,\>\,\]\end{avm}}}{\hspace*{6cm}\xnode{wb}{\}{\itcomplement-head}}{\AnnoLn7{\llap{\boxit{5}\,}PP\rlap{\,\begin{avm}\[head&\[{\itwo\/}\]\\adjcnt&\<\,\>\,\]\end{avm}}}{\xnode{xa}{\}}\tangle4{本を}}{\AnnoRn4{V$'$\rlap{\,\begin{avm}\[{\footnotesize\itphrase}\\head&\@1\\subcat&\@6\,\]\end{avm}}}{\hspace*{4cm}\xnode{xb}{\}{\itcomplement-head}}{\Annorn0{\hspace*{5zw}V\,\begin{avm}\[{\footnotesize\itword}\\head&\@1\\arg-st&\@6\<\@3xp[{\itga\/}],\@4yp[{\itni\/}]$_{\boxit{7}}$,\@5zp[{\itwo\/}]$_{\boxit{8}}$\>\,\]\end{avm}}{\xnode{ya}{\}\hspace*{3cm}\xnode{yb}{\}{\it0-complement-head}}{\AnnoLn9{\llap{\boxit{2}\,}V\rlap{\,\begin{avm}\[{\footnotesize\itword}\\adjcnt\\<\,\>\\arg-st\\<up[{\itga}]$_{\boxit{7}}$,wp[{\itwo}]$_{\boxit{8}}$\>\,\]\end{avm}}}{{\itpseudo-lexical-rule}\xnode{zb}{\}\hspace*{2.0cm}}\lf{読ま}}{\AnnoRn6{\hspace*{11zw}V\,\begin{avm}\[{\footnotesize\itword}\\head&\@1{\itverb}\\adjcnt&\<\@2v[{\itword}]\>\,\\arg-st&\@6\]\end{avm}}{\xnode{za}{\}}\lf{せた}}}}}}\end{center}\nodeconnect[r]{wa}[l]{wb}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[l]{ya}[l]{yb}\nodeconnect[l]{za}[r]{zb}\caption{{\protect(\ref{ex:aux}b)}「(健が)奈緒美に本を読ませた」の構文木}\label{fig:lcaus}\end{figure}pseudo-lexical-ruleschemaを導入することの利点は,助動詞「せた」が左にくる姉妹を{\itword\/}に指定することで,解析における複合動詞句の曖昧性を抑制できる点にある.その指定で用いられる隣接素性(adjacentfeature---{\scadjcnt}素性)はICOTJPSGで採用されていた素性であり,下位範疇化されている要素の中でも特に隣接したものに関する制約を扱う.図\ref{fig:val}(左)に隣接素性原理(AdjacentFeaturePrinciple)を示す.\begin{figure}\begin{center}\unitlength=0.08ex\begin{tabular}{ccc}\tree{\node{\begin{avm}\[subcat&\@3\\adjcnt&\@2\,\]\end{avm}}{\Ln5{\begin{avm}\@1\[adjcnt&\<\,\>\,\]\end{avm}}}{\Rn5{\begin{avm}\[subcat&\@3\\adjcnt&\<\,\@1\,\>\$\oplus$\@2\,\]\end{avm}}}}&&\tree{\node{\begin{avm}\[subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}{\Ln5{\begin{avm}\@1\[adjnt&\<\,\>\,\]\end{avm}}}{\Rn5{\begin{avm}\[subcat&\<\,\@1\,\>\$\oplus$\@2\,\\adjcnt&\<\,\>\,\]\end{avm}}}}\\\end{tabular}\end{center}\caption{隣接素性原理(左)と下位範疇化原理(右)}\label{fig:val}\end{figure}{\scadjcnt}素性は{\scsubcat}素性を保存したまま語彙的に緊密な隣接要素を指定する.助動詞や\ref{sec:jl}節で論じる助詞のように,日本語においては他の要素を下位範疇化するだけでなく,それらと隣接していることを要求する語が存在するため,制約を局所的に記述するにはこのような素性の導入が必要である.{\scadjcnt}素性は言語類型的に膠着語(agglutinativelanguage)とよばれる言語を特徴付ける素性であると考えられるが,そのような素性の普遍的位置付けを提案するには諸言語との比較対照研究が必要であり,現時点では日本語などに固有の素性として扱っている.図\ref{fig:lcaus}の「せた」の{\scadjcnt}素性が指定する要素を{\itword\/}に制限しないと,図\ref{fig:schm}(a)のcomplement-headschemaが適用され,(\ref{ex:aux}b)は図\ref{fig:scaus}のようにも分析できる.\begin{figure}\begin{center}\unitlength=0.07ex\tree{\node{S}{\AnnoLn5{PP}{\xnode{xa}{\}}\Tangle1{奈緒美に}}{\AnnoRn5{VP\rlap{$_2$}}{\hspace*{3.4cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn3{VP\rlap{$_1$}}{\xnode{ya}{\}}{\AnnoLn1{PP}{{\itcomplement-head\/}\xnode{za}{\}\hspace*{3cm}}\tangle7{本を}}{\AnnoRn1{V$'$}{\xnode{zb}{\}}\tangle7{読ま}}}{\AnnoRn3{V$'$}{\hspace*{2cm}\xnode{yb}{\}{\itcomplement-head}}{\tangle7{せた}}}}}\hspace*{1cm}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\caption{「奈緒美に本を読ませた」の別の構文木}\label{fig:scaus}\end{figure}これは言語学的にしばしば論じられる補文分析であるが,この分析には次の二つの問題がある.\begin{itemize}\item[1.]実装が困難な順序連接を導入しないと「奈緒美に」と「本を」の語順転換が説明できない.\item[2.]「奈緒美に」と「本を」の間に付加語が挿入されるとVP$_1$とVP$_2$のどちらに付加されるかで曖昧性が組み合わせ的に増大してしまう.\end{itemize}2については,このような曖昧性が意味的な差をもたらすこともある.例えば「健は奈緒美に大声で本を読ませた」は,「大声で読んだ」と「大声で指示した」という二つの読みがあるが,このような意味的解釈が可能かどうかは,一般には統語的な構造よりも語の意味的な共起関係や背景知識に依存する.よって,統語解析の段階でこのような曖昧性を展開してしまうのは解析システムとして実装する上では得策ではない.図\ref{fig:lcaus},\ref{fig:scaus}の分析にはそれぞれ利点・欠点はあるが,現在NAISTJPSGは次の二つの理由により(\ref{ex:aux}b)の構造を図\ref{fig:lcaus}とするような分析を採用している.\begin{itemize}\item[1.]``語順転換''や(ゼロ主語などの)``省略''が構文木の情報を反映した形で直接的に扱える.\item[2.]構文木と意味素性の構造は必ずしも一致しないが,どちらの構造を採用しても,文全体の意味論としては全く同じ{\scsem}素性を考えることが可能である.\end{itemize}つまり,句構造構築に関して,先に述べた「音韻・形態情報は構文木に,階層関係などの統語情報は{\scsem}素性にそれぞれ反映する」という一貫した立場をとっているのである.\ref{sec:jpsg}節では,いくつかのHPSGの普遍原理に対し自然な拡張を行いつつ,NAISTJPSGの個別言語を指向したスキーマを導入した.関連モデルとの比較によっても明らかだが,構文解析のようなモデルの実用面においては,本論文の文法はその射程と説明力において優位にあると言える.もちろん,普遍的な体系を考慮せずに構文に特化したスキーマを仮定することによって諸構文を説明することは原理的に可能である.しかし,言語の一般性を捉えるためにはより多くの構文が原理の相互作用によって説明されることが望ましい.そこで\ref{sec:jl}節では,そのような分析の一例として,日本語に特徴的ないくつかの現象について論じることにする.\setcounter{section}{2}
\section{語彙記述の設計と素性・原理の相互作用}
label{sec:jl}普遍的かつ計算機処理に適した文法記述体系の開発には対象言語の理論的な理解が欠かせないが,\ref{sec:jpsg}節では,いくつかの現象にもとづいて原理やスキーマを拡張した日本語句構造文法を導入した.そのような枠組みに立脚することで,一般的な言語現象は諸現象に関与する頻度の高い一般的な原理によって説明されるが,特殊な言語現象もまた原理の相互作用の結果として説明されることが望ましい.そこで\ref{sec:jl}節では,分析が進んでいる格助詞,取り立て助詞およびサ変動詞構文を取り上げ,NAISTJPSGが日本語に特有な現象をどのように扱っているかについて述べる.また,この枠組における文法に内在した計算機構(computationalsystem)および入力となる語彙項目(lexicalitem)に関する制約の記述法についても合わせて論じることにする.\subsection{格助詞に関する素性と原理}\label{sec:jl:case}日本語などの言語に特有な現象の一つは,名詞が助詞を伴う点にある.格助詞については(\ref{ex:case})にあげる四つの現象が特徴的である.\enumsentence{\label{ex:case}\begin{tabular}[t]{rlll}a.&名詞に後接する場合:&\underline{健が}走る.&\underline{奈緒美を}知っている.\\b.&省略される場合:&\underline{健}来た?&\underline{奈緒美}知っている?\\c.&動詞に後接する場合:&\underline{行くが}よい.&\underline{足るを}知る.\\d.&省略されない場合:&\BAD\underline{行く}よい.&\BAD\underline{足る}知る.\end{tabular}}\ref{sec:jpsg:issue}節でその方針を述べたように,NAISTJPSGでは(\ref{ex:case}b,c,d)に対して,空の助詞ガや形式名詞コトなどの語彙を辞書に仮定した解析はしない.格助詞は名詞と動詞の両方を直接下位範疇化しているものとして分析する.さらに,説明できなければならない現象として「(\ref{ex:dcase})のように(名詞句でも動詞句でも)ガやヲ等の格助詞を二つ以上伴えない」ということも挙げられる.\enumsentence{\label{ex:dcase}\begin{tabular}[t]{rl}a.&\BAD健をが走る.\\b.&\BAD行くががよい.\end{tabular}}(\ref{ex:case}),(\ref{ex:dcase})のような個別言語特有の現象も,動詞・名詞・格助詞に対してそれぞれ図\ref{fig:lexicon}のような言語固有の語彙情報さえ適切に記述しておけば,原理には一切手を加えることなく説明できる.\begin{figure}\begin{center}\begin{tabular}{ccc}\begin{avm}\[\footnotesize\it{word}\\head&\[\footnotesize\it{verb}\\case&{\itnone\/}\]\\arg-st&\<xp[$\alpha$],yp[$\beta$],\dots\>\,\]\end{avm}&\begin{avm}\[\footnotesize\it{word}\\head&\[\footnotesize\it{noun}\\case&X\]\,\]\end{avm}&\begin{avm}\[\footnotesize\it{word}\\head&\[\footnotesize\it{ptcl}\\case&{\itcase\/}\]\\adjcnt&\<xp[{\itnone\/}]\>\,\]\end{avm}\end{tabular}\end{center}\caption{動詞(左)・名詞(中)・格助詞(右)の素性記述}\label{fig:lexicon}\end{figure}図\ref{fig:lexicon}中の略記{\scxp[$\alpha$]}は図\ref{fig:abbr}(左)の素性構造である.また,{\itnone\/}および{\itga\/}は\ref{sec:jpsg:frml}節で説明した型{\itcase\/}の下位型であり,図\ref{fig:abbr}(右)のような型階層を形成しているとする.\begin{figure}\begin{center}\begin{tabular}{cp{1cm}c}\raisebox{-12pt}{\begin{avm}\[{\footnotesize\itphrase}\\head&\[case&$\alpha$\]\,\]\end{avm}}&&\unitlength=0.07ex\tree{\node{\itcase}{\Ln7{\itnone}}{\Ln2{\itga}}{\rn2{\itni}}{\Rn4{\itwo}}{\Rn7{({\itto})}}}\end{tabular}\end{center}\caption{{\sccase}素性(左)と型階層(右)}\label{fig:abbr}\end{figure}つまり,言語理論が捉えようとしている言語の普遍的性質を損うことなく,日本語の現象を説明することが可能な理論となっているのである.NAISTJPSGがそのような仕組みを提案していることは,\ref{sec:jpsg}節の議論に加え,図\ref{fig:drop}に示す(\ref{ex:case}a,b)に対する名詞句と格助詞の具体的な素性構造の記述からも明らかである.\begin{figure}\begin{center}\small\begin{tabular}{cc}\unitlength=0.095ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\Ln4{\llap{\boxit{2}\,}PP\rlap{\,\begin{avm}\[head&\[{\itwo\/}\]\,\\adjcnt&\<\,\>\]\end{avm}}}{\AnnoLn2{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[head\\[X\]\,\]\end{avm}}}{\footnotesizeX={\itnone}\,}\lf{奈緒美}}{\AnnoRn2{P\rlap{\,\begin{avm}\[head&\[{\itwo\/}\]\\adjcnt&\<\@1xp[{\itnone\/}]\>\,\]\end{avm}}}{\footnotesize\,XP=NP}\lf{を}}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\<\@2yp\[{\itwo\/}\]\,\>\,\]\end{avm}}}{\footnotesize\,YP=PP}}}\hspace*{3.0cm}&\unitlength=0.17ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\Annoln9{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[head\\[X\]\,\]\end{avm}}}{\footnotesizeX={\itwo}\,}\lf{奈緒美}}{\Annorn8{V$'$\rlap{\,\begin{avm}\[subcat\\<\@1xp\[{\itwo\/}\]\,\>\,\]\end{avm}}}{\footnotesize\,XP=NP}}}\hspace*{3.0cm}\end{tabular}\end{center}\caption{格助詞が名詞に後続する場合(左)と格助詞が省略される場合(右)の構文木}\label{fig:drop}\end{figure}図\ref{fig:drop}では,格助詞が明示される場合とされない場合の任意性が,名詞の{\sccase}素性を変数(すなわち{\itnone\/}や{\itga\/}の上位である{\itcase\/}型)とすることで捉えられている.実際,このような省略は会話文においては顕著に現れ得るので,実用的な文法はそのような現象にも対処できなければならない.ICOTJPSGをはじめとして,従来の文法の実装ではこのような現象の扱いは例外として軽視されがちであったが,NAISTJPSGでは規範的でない文に対しても可能な限り特別視しないという方針をとっている.(\ref{ex:case}c)は図\ref{fig:drop}(左)の「奈緒美」に相当する部分が「行く,足る」といった動詞となったものと考えるが,そのような素性構造も助詞の{\scadjnt}素性の指定が{\itnone\/}となっているので適切に記述することができる.さらに,(\ref{ex:case}d)のように動詞に後接する格助詞が省略されないということは,動詞の{\sccase}素性が{\itnone\/}であることで捉えられている.また,この枠組では,格助詞を二つ以上伴うことにより排除されていた(\ref{ex:dcase})のような現象は,すでに格の情報が指定されているものにさらに格の指定をするという点において排除される.つまり,格助詞の{\scadjcnt}素性には{\sccase}素性が{\itnone\/}である要素に隣接することが記述されているが,すでに格助詞を伴った助詞句PPの{\sccase}素性は{\itnone\/}ではないため,さらに格助詞が隣接することはできないのである.\subsection{取り立て助詞に関する素性と原理}\label{sec:jl:focus}現時点では全ての助詞の記述が済んだわけではない.格助詞においてもそうであるが,現在のNAISTJPSGは当面の処理において必要となる助詞の機能の一部を記述したにすぎない.格助詞以外で分析が進んでいるのは取り立て助詞などとよばれるものである.サエ・スラなどの用例・用法は実に様々であるが,それらに共通する統語的特徴としては「それが選択(あるいは隣接)している語」の様々な情報に関して,「本来その語を選択している語」から参照することができるということが挙げられる.\enumsentence{\label{ex:sae}\begin{tabular}[t]{rl}a.&健が奈緒美を誉めた.\\b.&健が奈緒美サエ誉めた.\end{tabular}}例えば,(\ref{ex:sae}a)では動詞「誉める」の目的語「奈緒美を」は,ヲ格を伴うことによってそれ自身の文法機能を明示しているが,(\ref{ex:sae}b)ではサエを伴うことによりヲ格を表出していない.しかしながら,ヲ格を伴っていなくても依然「奈緒美」は「誉める」の目的語であるので,ヲ格を明示することで示していた文法機能は単に形態的に表出していないだけであることがわかる.また,サエ自身はガ格などの代わりに用いることもできるので,動詞はサエに関係なく目的語の助詞句を下位範疇化していると考えられる.\begin{figure}\begin{center}\begin{tabular}{cc}\raisebox{-45pt}{\hspace*{-5mm}\avmvskip{0ex}\begin{avm}\[head\quad\[{\footnotesize\itptcl}\\case&\@1\,\\arg-st&\@2\]\\adjcnt\\<\[{\footnotesize\itphrase}\\head\\[case\quad\\@1\\arg-st\\@2\,\]\]\>\,\]\end{avm}\avmvskip{-.5ex}}&\unitlength=0.09ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\>\,\]\end{avm}}}{\AnnoLn3{\llap{\boxit{1}\,}PP\rlap{\,\begin{avm}\[case\quad\Y\\adjcnt\\<\,\>\,\]\end{avm}}}{\smallY={\itwo\/}\,}{\AnnoLn1{NP\rlap{\,\begin{avm}\[case\X\,\]\end{avm}}}{\smallX=Y\,}\lf{奈緒美}}{\AnnoRn4{P\rlap{\,\begin{avm}\[case&Y\\adjcnt&\<xp[Y]\>\,\]\end{avm}}}{\small\,XP=NP}\lf{サエ}}}{\AnnoRn3{V$'$\rlap{\,\begin{avm}\[subcat\\<\@1yp\[{\itwo\/}\]\>\,\]\end{avm}}}{\small\,YP=PP}}}\hspace*{7zw}\end{tabular}\end{center}\caption{取り立て助詞の語彙項目(左)と「\dots奈緒美サエ\dots」の構文木(右)}\label{fig:sae}\end{figure}図\ref{fig:drop}(左)では格助詞ヲの{\schead}素性の一部である{\sccase}素性の値{\itwo\/}が,おなじく{\scpp}の{\schead}素性の一部である{\sccase}素性に主辞素性原理によって受け継がれている.この情報が,下位範疇化原理において,{\scpp}が動詞の{\scsubcat}素性の中のヲ格を持つ要素と単一化する際に制約として機能する.図\ref{fig:sae}(右)では,助詞サエの{\sccase}素性が変数Yになっており,{\scpp}全体としても{\sccase}素性は変数のまま指定されない.この状態で,下位範疇化原理に従って動詞の{\scsubcat}素性の中のヲ格を持つ要素と{\scpp}が単一化すれば,Yの値が{\itwo\/}となり助詞句はヲ格句と同じ素性の指定を持つ句として解析される.ただし,サエの記述は図\ref{fig:sae}で仮定しているほど単純ではない.例えば,サエに動詞が前接する場合,特定の活用を要求することがコーパスからも伺えるので,サエの記述には格の指定の有無だけでなく品詞や活用も下位範疇化情報として記述しておくことが考えられる.これに関してはさらに詳しく調査する必要がある.もちろん,こういう原理的なアプローチだけで格助詞に関する全ての現象を説明できるわけではなく,その点に関しては\ref{sec:adn:crpsadj}節でもいくつかの事例を検討してみることにする.\subsection{サ変動詞構文}\label{sec:jl:sahen}ここで検討するサ変動詞構文とは,いわゆる項構造(argumentstructure)を持つ漢語名詞(サ変名詞,動名詞,verbalnoun---VN)とサ変動詞スルを含む(\ref{ex:suru})のような文のことである.\enumsentence{\label{ex:suru}\begin{tabular}[t]{rlll}a.&船が沈没した&船の沈没&沈没$\langleI\rangle$\\b.&健が英語を勉強した&健の英語の勉強&勉強$\langleI,J\rangle$\\c.&師匠が弟子に秘伝を伝授した&師匠の弟子への秘伝の伝授&伝授$\langleI,J,K\rangle$\end{tabular}}例えば(\ref{ex:suru}c)の$I$,$J$,$K$は,「伝授」という行為において,それぞれ伝授する人({\scinitiator}),伝授される人({\scinitiatee}),伝授される内容({\scinitiated})を表わし,NAISTJPSGでは図\ref{fig:astr}のように記述する.\begin{figure}\begin{center}\begin{avm}\[syn&\|head\\|arg-st\$\langle${\scxp}$_i$,{\scyp}$_j$,{\sczp}$_k$$\rangle$\\sem&\[rel&{\itinitiation}\\initiator&{\iti}\\initiatee&{\itj}\\initiated&{\itk\/}\]\]\end{avm}\end{center}\caption{NAISTJPSGの素性構造における項構造の表記}\label{fig:astr}\end{figure}この構文は(\ref{ex:suru})に示すように,VNを主辞とする名詞句と現れる項の数と種類が同じになっているという点に特徴がある.京大コーパスversion2.0\cite{Kurohashi&Nagao1997}を調べてみると,「動詞・助動詞・形容詞・形容動詞・副詞・終助詞」を含む全述語的文節の出現回数約19,000回に対して約10,000回と半分以上を占めており,日本語では頻出と考えられ,文法の被覆率を上げるためには無視できない構文である.このサ変動詞構文の興味深い点は,いわゆる``局所性''に関するところにある.制約が局所的な形式化で述べられるか否かは,自然言語の記述体系としての理論的関心もさることながら,実装においてはこと重要である.(\ref{ex:suru}c)を例に詳しく見てみると,VNを主辞とする名詞句では図\ref{fig:nonloc}(左)に示すようにそれを主辞とした句の内部で``局所的に''意味的関係が成立している.一方,同じVNを含むサ変動詞構文ではそのような``局所性''に従わず,図\ref{fig:nonloc}(右)に示すように句の外側の要素との間で意味的関係が成立しているように見える.このことから\citeA{Grimshaw&Mester1988}などの研究では,概ね(i)項構造を持たない特殊な軽動詞(lightverb---LV)という語彙項目と,(ii)VNが持つ意味的な主辞として機能をLVに転送する(transfer)といった操作,いわゆる項転送(ArgumentTransfer)を仮定することで,図\ref{fig:nonloc}(右)における一見するところの局所性違反を説明しようとする.\begin{figure}\begin{center}\small{\unitlength=0.085ex\begin{tabular}{cc}\hspace*{-1zw}\tree{\node{\fbox{VNP}}{\Ln6{PP$_{I}$}\tangle8{師匠の}}{\Ln1{PP$_{J}$}\tangle9{弟子への}}{\rn9{PP$_{K}$}\tangle8{秘伝の}}{\Rn5{VN\rlap{\,$\langleI,J,K\rangle$}}\lf{伝授}}}\hspace*{3zw}&\hspace*{1zw}\tree{\node{VP}{\Ln7{PP$_{I}$}\tangle8{師匠が}}{\Ln4{PP$_{J}$}\tangle8{弟子に}}{\rn0{PP$_{K}$}\tangle8{秘伝を}}{\Rn3{\fbox{VNP}}\raisebox{1ex}{\lf{伝授}}}{\Rn6{V\rlap{\,$\langleI,J,K\rangle$}}\lf{した}}}\hspace*{3zw}\end{tabular}}\end{center}\caption{VNを主辞とする名詞句(左)とVNを含むサ変動詞構文(右)の意味的関係}\label{fig:nonloc}\end{figure}これに対しNAISTJPSGでは,特殊な``操作''は導入せず,スルに対してこのような特性を反映した語彙項目を仮定するだけでサ変動詞構文の局所性に関する問題を説明する.この場合,語彙項目は原理から導き得ない特性を述べているにすぎない.単一化という,ここまでの諸現象の説明においても仮定してきた,NAISTJPSGでは当然の操作が,項転送を仮定するまでもなくサ変動詞構文の問題を局所的に説明する.つまり,\citeA{Grimshaw&Mester1988}のように特殊な操作を計算機構に組み込む必要はなく,ごく少数の単一化のような計算機構と,充実した語彙情報のみで個別言語の現象を説明するのである.では,このような分析の入力となる語彙情報は,いかにして記述されるのか.それは(\ref{ex:vnomit}),(\ref{ex:vnscr})のような個別言語(JPSGの場合は日本語)の言語事実の観察にもとづいて規定される.\enumsentence{\label{ex:vnomit}\begin{tabular}[t]{rl}a.&\BAD船が$\phi$した.\\b.&\BAD健が英語を$\phi$した.\\c.&\BAD師匠が弟子に秘伝を$\phi$した.\\\end{tabular}}\enumsentence{\label{ex:vnscr}\begin{tabular}[t]{rl}a.&\BAD沈没$_i$船が$t_i$した.\\b.&\BAD健が勉強$_i$英語を$t_i$した.\\c.&\BAD師匠が弟子に伝授$_i$秘伝を$t_i$した.\end{tabular}}もしVNがLVの{\scsubcat}素性の要素(ここでは目的語)ならば,省略や語順転換が可能だが,(\ref{ex:vnomit}),(\ref{ex:vnscr})はそれができないことを示している.このことはVNとLVが``語彙的''に緊密であり,その構文木は\ref{sec:jpsg:atree}節で論じた図\ref{fig:schm}(d)のpseudo-lexical-ruleschemaによって生成されることを示唆する.図\ref{fig:lvlex}にそのような特性を反映したスル(以下これをLVとよぶ)の素性構造を示す.\begin{figure}\begin{center}\begin{avm}\[head&{\itverb}\\arg-st&\@1\\adjcnt&\<\[{\footnotesize\itword}\\case&{\itnone}\,\\arg-st&\@1\]\>\,\]\end{avm}\end{center}\caption{NAISTJPSGにおける軽動詞スルの語彙項目}\label{fig:lvlex}\end{figure}未確定の{\scarg-st}素性,項構造を含む範疇と単一化すべき要素が{\scsubcat}素性ではなく{\scadjcnt}素性となっていること,およびその値が{\itword\/}型に制限されているのは先の分析にもとづいている.また,図\ref{fig:stlvc}には図\ref{fig:lvlex}の語彙記述を持つLVを入力として,一般的な計算機構によって構築された(\ref{ex:suru}c)の構文木を示す.\begin{figure}\begin{center}\small{\unitlength=0.06ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\\<\\>\,\]\end{avm}}}{\AnnoLn4{\llap{\boxit{3}\,}PP\rlap{$_{I}$}}{\xnode{xa}{\}}\tangle9{師匠が}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_{I}$\>\,\]\end{avm}}}{\hspace*{7.7cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{4}\,}PP\rlap{$_{J}$}}{\xnode{ya}{\}}\tangle9{弟子に}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_{I}$,\@4yp$_{J}$\>\,\]\end{avm}}}{\hspace*{6.2cm}\xnode{yb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{5}\,}PP\rlap{$_{K}$}}{\xnode{za}{\}}\tangle9{秘伝を}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_{I}$,\@4yp$_{J}$,\@5zp$_{K}$\>\,\]\end{avm}}}{\hspace*{4.8cm}\xnode{zb}{\}{\itcomplement-head}}\Annorn0{V\rlap{\,\begin{avm}\[arg-st\\@1\,\]\end{avm}}}{\xnode{a}{\}\hspace*{4cm}\xnode{b}{\}{\it0-complement}}{\Ln6{\llap{\boxit{2}\,}VN\rlap{\,\begin{avm}\[arg-st\\@1\<I,J,K\>\,\]\end{avm}}}\tangle5{伝授}}{\Rn7{\hspace*{12zw}V\,\begin{avm}\[arg-st&\@1\\adjcnt&\<\@2\[arg-st\\@1\,\]\,\>\,\]\end{avm}}\lf{した}}}}}}}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\nodeconnect[l]{a}[l]{b}\caption{NAISTJPSGにおけるサ変動詞構文の構文木}\label{fig:stlvc}\end{figure}未確定の部分\begin{avm}\@1\end{avm}は{\scadjcnt}素性と単一化したVNが持つ項構造と構造共有(structuresharing)されている.LVのもつ{\scadjcnt}素性の要素は隣接素性原理に従って,VNによって打ち消され,VNの項は構造共有によって「VNスル」全体の項構造となる.この項は一般的な句構造同様に下位範疇化素性原理に従って打ち消されるが,項転送相当の現象は捉えられているのである.ところが,\citeA{Grimshaw&Mester1988}などの研究にも言えることであるが,スルという語彙の記述は図\ref{fig:lvlex}に挙げたものだけでは充分でない.(\ref{ex:vnsae})のようにVNとスルの間に取り立て助詞が介在する文や,(\ref{ex:sbjitv}b,c)のように主語が介在する文は,LVとはまた違った特性を持ったスルが必要であることを示している.\enumsentence{\label{ex:vnsae}\begin{tabular}[t]{rl}a.&船が[沈没サエ]した.\\b.&健が英語を[勉強サエ]した.\\c.&師匠が弟子に秘伝を[伝授サエ]した.\end{tabular}}\enumsentence{\label{ex:sbjitv}\begin{tabular}[t]{rl}a.&\BAD沈没サエ船がした.\\b.&英語を勉強サエ健がした.\\c.&弟子に秘伝を伝授サエ師匠がした.\end{tabular}}(\ref{ex:vnomit}),(\ref{ex:vnscr})の例では,VNとスルは隣接しなければならないと分析し,それに適ったスルの語彙記述を仮定した.しかしながら,(\ref{ex:vnsae}),(\ref{ex:sbjitv}b,c)は隣接していなくてもよい例と考えられる.さらに,(\ref{ex:sbjitv})は項との間で語順転換が可能なVNとそうでないものがあることを示している.VNとスルの間に要素が介在するということは,図\ref{fig:lvlex}のように{\scadjnt}素性でVNを指定すると説明できない.そこで,新たに図\ref{fig:hvlex}のスル(これを重動詞,heavyverb---HVとよぶ)を導入する.\begin{figure}\begin{center}\begin{avm}\[head&{\itverb}\\arg-st&\<\@1\[case\{\itga}\],\[{\footnotesize\itphrase}\\case&{\itwo}\\arg-st&\<\,\@1$\mid$\@2\,\>\,\]\,$\mid$\@2\,\>\,\\adjcnt&\<\,\>\]\end{avm}\end{center}\caption{重動詞スルの語彙項目}\label{fig:hvlex}\end{figure}図\ref{fig:sthvc}は(\ref{ex:sbjitv}b)の構文木であるが,図\ref{fig:hvlex}のHVが図\ref{fig:schm}(c)の0-complementschemaで句となった場合,VNと単一化すべき要素と主語は{\scsubcat}素性の要素として顕在化するので,語順転換が可能となっている\footnote{ただし,図\ref{fig:hvlex}において\begin{avm}\@2\end{avm}が未確定ならば,それを語順転換に参与させない機構を導入する必要がある.}.\begin{figure}\begin{center}\small\\unitlength=0.08ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@4\,\>\,\\adjcnt\\<\,\>\,\]\end{avm}}}{\Ln7{\llap{\boxit{3}\,}PP\rlap{\,\begin{avm}\[case\quad\\@5\\arg-st\\@6\\adjcnt\\<\,\>\,\]\end{avm}}}{\Ln5{\llap{\boxit{1}\,}VNP\rlap{\,\begin{avm}\[case\quad\\@5X\\arg-st\\@6\,\<\,\@2,\@4\,\>\,\\adjcnt\\<\,\>\]\end{avm}}}\lf{勉強}}{\Rn6{P\rlap{\,\begin{avm}\[case\quad\\@5\\arg-st\\@6\\adjcnt\\<\,\@1\,\>\,\]\end{avm}}}\lf{サエ}}}{\AnnoRn8{V$'$\rlap{\,\begin{avm}\[subcat\\<\,\@3,\@4\,\>\,\\adjcnt\\<\\>\]\end{avm}}}{$X=${\itwo}}{\Ln1{\llap{\boxit{2}\,}PP}\tangle2{健が}}{\Rn2{\hspace*{10zw}HVP\,\begin{avm}\[subcat\\<\@2,\@3\[{\footnotesize\itphrase}\\case\quad\{\itwo\/}\\arg-st\\@6\,\],\@4\,\>\,\\adjcnt\\<\,\>\]\end{avm}}\lf{HV}\lf{スル}}}}\end{center}\caption{(\ref{ex:sbjitv}b)「\dots勉強サエ健がスル」の構文木}\label{fig:sthvc}\end{figure}図\ref{fig:hvlex}において{\scarg-st}素性の第二項の{\sccase}素性が{\itwo\/}であることに注意されたい.これはVNが格助詞ヲを伴っている(\ref{ex:double})の観察にもとづいている.\enumsentence{\label{ex:double}\begin{tabular}[t]{rl}a.&\BAD船サエ沈没ヲした.\\b.&健が英語サエ勉強ヲした.\\c.&師匠が弟子に秘伝サエ伝授ヲした.\end{tabular}}ただし,(\ref{ex:sbjitv}b,c)で「英語,秘伝」がヲ格を伴っていることを考えると,HV自体は(\ref{ex:vnwo}b,c)のような文まで認可してしまう.しかし,これらは日本語では一般的な,いわゆる二重ヲ格制約(Double-{\itWO\/}Constraint)という別の制約によって排除されていると分析することができる.\enumsentence{\label{ex:vnwo}\begin{tabular}[t]{rl}a.&\BAD船ヲ沈没ヲした.\\b.&\BAD健が英語ヲ勉強ヲした.\\c.&\BAD師匠が弟子に秘伝ヲ伝授ヲした.\end{tabular}}(\ref{ex:vnwo}b)を例にとれば,「英語」もVN「勉強」もどちらも潜在的にはヲ格を伴うことができるのであるが,そのような制約により,両方がヲ格を伴った文は排除されていると考えるのである.また,(\ref{ex:vnwo}a)が非文法的なのは,文中に一つもガ格名詞句が含まれていないなどの理由によると説明できる.しかしながら,ガ格の生起についての制約は検討しなければならない現象が広範囲に及ぶため,具体的な制約の定式化は今後の課題である.これまでの議論では,(\ref{ex:double}a)の非文法性は捉えられない.しかし,(\ref{ex:double}a)に含まれる「沈没」のような名詞は,能格名詞(ergativenominal)とよばれるクラスを形成し,ヲ格を伴えないことが\citeA{Miyagawa1989}などの研究により知られている.\enumsentence{\label{ex:ergn}\begin{tabular}[t]{rl}a.&船が沈没(*ヲ)した.\\b.&矢が的に命中(*ヲ)した.\\c.&隕石が落下(*ヲ)した.\end{tabular}}本論文は(\ref{ex:ergn})のようなVNを含むサ変動詞構文については明確な分析を持たない.それはすぐ後に述べる理由によるのであるが,もし能格名詞の型{\itergative}を導入して(\ref{ex:vnsae}a),(\ref{ex:sbjitv}a),(\ref{ex:double}a)を説明するならば,図\ref{fig:lvlex}のLV,図\ref{fig:hvlex}のHVに加えて,さらに図\ref{fig:ergvn}のような語彙項目のスルを導入する必要があるだろう.\begin{figure}\begin{center}\avmvskip{-.2ex}\begin{avm}\[head&{\itverb}\\arg-st&\@1\\adjcnt&\<\[{\scriptsize\itphrase/ergative}\\case\;{\itnone}\,\\arg-st\;\@1\]\>\,\]\end{avm}\avmvskip{-.5ex}\end{center}\caption{能格名詞を指定するスルの語彙項目}\label{fig:ergvn}\end{figure}(\ref{ex:double}a)などのスルが図\ref{fig:ergvn}のような語彙記述であるならば,その非文法性は{\sccase}素性が単一化できないことによると説明できる.しかしながら,このような分析にも反例がある.例えば(\ref{ex:ergn}c)の「落下」は,主語が行為者と解釈できれば,(\ref{ex:fall}a)のようにVNがヲ格を伴っていても我々の判断では容認できてしまう.\enumsentence{\label{ex:fall}\begin{tabular}[t]{rl}a.&スタントマンが派手な落下をした.\\b.&スタントマンが派手な落下サエした.\\c.&派手な落下サエスタントマンがした.\end{tabular}}この場合(\ref{ex:fall})のスルはHVと考えられるが,(\ref{ex:vnsae}a)と(\ref{ex:sbjitv}a)のスルを同様にHVとするなど,これらの文が同じスルを含むと仮定していては文法性の差が説明できない.(\ref{ex:vnsae}a),(\ref{ex:sbjitv}a)の文法性は{\sccase}素性の単一化というよりは,むしろ主語の意味解釈の観点,つまり意味素性の制約から説明すべき問題と考えられるが,現時点ではデータの指摘にとどまっている.\ref{sec:jl}節では格助詞,取り立て助詞およびサ変動詞構文という日本語特有の現象が,普遍的かつ計算機処理に適した文法体系において,どのように扱われるべきかを論じた.いくつかの言語事実を取り上げ,一部の語彙項目に関してはその詳細な素性記述法についても論じてきたが,言及しなかった他の語彙に関してもここで示したような考察・分析の過程を経ることによってはじめて入力として認められる.つまり,NAISTJPSGは原理からは導き得ない情報を語彙に記述し,単一化といった一般的な計算機構によって諸現象を説明するのである.このことは,特殊な現象を処理するために特別な計算機構を導入する必要がなくなるということに外ならず,システムの見通しを良くし,設計を単純化するには不可欠な考え方と言える.\setcounter{section}{3}
\section{コーパス調査にもとづく,分析と語彙記述の設計}
label{sec:adn}\ref{sec:jl}節ではNAISTJPSGで導入した図\ref{fig:schm}のスキーマの中で,おもに下位範疇化に関するものである(a)complement-headschema,(c)0-complementschema,(d)pseudo-lexical-ruleschemaについて述べた.\ref{sec:adn}節では連体修飾に関する現象を中心に,(b)adjunct-headschemaについて論じることにする.\subsection{補語と付加語の意味制約}\label{sec:adn:cmpadj}VNは(\ref{ex:fasp}a)のようにLVとともに用られる以外にも,(\ref{ex:fasp}b)のように相接辞(AspecutualMorpheme---AM)とも共起できる.実際,(\ref{ex:fasp}b)のような連体修飾の用例はコーパスにおいてもかなりの割合を占めている.京大コーパスversion2.0を調べてみても「名詞性接尾辞」で終わる文節の頻度は約1,000回であり,「サ変名詞+サ変動詞」という文節の約10,000回に比べると十分の一程度となっている.\enumsentence{\label{ex:fasp}\begin{tabular}[t]{rl}a.&師匠が弟子に秘伝を伝授した.\\b.&師匠が弟子に秘伝を伝授中\end{tabular}}「中」などのAMは,(\ref{ex:asp})に示すように様々な項構造を持つVNと隣接できることから,それ自体が項構造を持っているとは考え難い.\enumsentence{\label{ex:asp}\begin{tabular}[t]{rlll}a.&船が沈没後&船の沈没&沈没$\langleI\rangle$\\b.&健が英語を勉強前&健の英語の勉強&勉強$\langleI,J\rangle$\\c.&師匠が弟子に秘伝を伝授中&師匠の弟子への秘伝の伝授&伝授$\langleI,J,K\rangle$\end{tabular}}AMの項構造もVNから伝わったものと考えるならば,AMを主辞として形成される句構造も「サセル,スル」を主辞とした場合と共通の構造を内包し,その生成には同様に図\ref{fig:schm}(d)のpseudo-lexical-ruleschemaの適用が考えられるだろう.\begin{figure}\begin{center}\small\unitlength=0.06ex\tree{\node{S\rlap{\,\begin{avm}\[subcat\\<\\>\,\]\end{avm}}}{\AnnoLn4{\llap{\boxit{3}\,}PP\rlap{$_I$}}{\xnode{xa}{\}}\tangle9{師匠が}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_I$\>\,\]\end{avm}}}{\hspace*{8.2cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{4}\,}PP\rlap{$_J$}}{\xnode{ya}{\}}\tangle9{弟子に}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_I$,\@4yp$_J$\>\,\]\end{avm}}}{\hspace*{6.7cm}\xnode{yb}{\}{\itcomplement-head}}{\AnnoLn4{\llap{\boxit{5}\,}PP\rlap{$_K$}}{\xnode{za}{\}}\tangle9{秘伝を}}{\AnnoRn6{V$'$\rlap{\,\begin{avm}\[subcat\\<\@3xp$_I$,\@4yp$_J$,\@5zp$_K$\>\,\]\end{avm}}}{\hspace*{5.3cm}\xnode{zb}{\}{\itcomplement-head}}\Annorn0{V\rlap{\,\begin{avm}\[arg-st\\@1\,\]\end{avm}}}{\xnode{a}{\}\hspace*{4.5cm}\xnode{b}{\}{\it0-complement}}{\Ln6{\llap{\boxit{2}\,}VN\rlap{\,\begin{avm}\[arg-st\\@1\<I,J,K\>\,\]\end{avm}}}\tangle5{伝授}}{\Rn7{\hspace*{12.8zw}V\,\begin{avm}\[arg-st&\@1\\adjcnt&\<\@2\[arg-st\\@1\,\]\,\>\,\]\end{avm}}\lf{中}}}}}}\hspace*{2zw}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\nodeconnect[l]{a}[l]{b}\caption{{\protect(\ref{ex:asp}c)}「師匠が弟子に秘伝を伝授中」の構文木}\label{fig:sca}\end{figure}(\ref{ex:asp}c)の「師匠が弟子に秘伝を伝授中」は,使役構文・サ変動詞構文と同じく,主辞はそれぞれ異なるものの,複合AM句は三項述語のように振舞っている.特に,その三つの名詞句の表出には「ガ,ニ,ヲ」の格助詞が伴われていることに注目したい.HPSG/NAISTJPSGにおける格は\ref{sec:jl:case}節で論じたように動詞の下位範疇化素性の一部として記述される.その仮定に従うならば,VN「伝授」には図\ref{fig:conv}のような語彙記述がなされていることになる.\begin{figure}\begin{center}\avmvskip{0ex}\begin{avm}\[syn&\[head&{\itnoun/verb\/}\\arg-st&\<xp[{\itga\/}]$_i$,yp[{\itni\/}]$_j$,zp[{\itwo\/}]$_k$\>\,\]\\sem&\[rel&{\itinitiation\/}\\initiator&{\iti\/}\\initiatee&{\itj\/}\\initiated&{\itk\/}\]\]\end{avm}\avmvskip{-.5ex}\end{center}\caption{VN「伝授」の語彙項目}\label{fig:conv}\end{figure}格に関する情報をそのように記述してしまうと,(\ref{ex:asp}c)の「師匠の弟子への秘伝の伝授」のような連体修飾における修飾要素のノ格の説明が捉えられなくなってしまうと思われるかもしれない.このような問題に対し,NAISTJPSGでは名詞句内において修飾語として機能しているノ格名詞句については付加語と分析している.図\ref{fig:scaa}に(\ref{ex:asp}c)のノ格名詞句を伴った場合の構文木を示す.\begin{figure}\begin{center}\unitlength=0.05ex\tree{\node{VNP\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\AnnoLn5{PP$_i$}{\xnode{xa}{\}}\Tangle1{師匠の}}{\AnnoRn5{VN$'$\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\hspace*{9cm}\xnode{xb}{\}{\itadjunct-head}}{\AnnoLn5{PP$_j$}{\xnode{ya}{\}}\Tangle1{弟子への}}{\AnnoRn5{VN$'$\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\hspace*{8cm}\xnode{yb}{\}{\itadjunct-head}}{\AnnoLn3{PP$_k$}{\xnode{za}{\}}\Tangle1{秘伝の}}{\AnnoRn2{VN$'$\rlap{\,\begin{avm}\[arg-st\\@4\,\]\end{avm}}}{\hspace*{7cm}\xnode{zb}{\}{\itadjunct-head}}{\rn0{VN\rlap{\,\avmvskip{0ex}\begin{avm}\[syn\\[head&{\itnoun/verb\/}\\arg-st&\@4\<\@1xp[{\itga\/}]$_i$,\@2yp[{\itni\/}]$_j$,\@3zp[{\itwo\/}]$_k$\>\,\]\\sem\\[rel&{\itinitiation\/}\\initiator&{\iti\/}\\initiatee&{\itj\/}\\initiated&{\itk\/}\]\]\end{avm}\avmvskip{-0.5ex}}}\lf{伝授}}}}}}\hspace*{25zw}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\nodeconnect[r]{za}[l]{zb}\caption{{\protect(\ref{ex:asp}c)}「師匠の弟子への秘伝の伝授」に対する構文木}\label{fig:scaa}\vspace*{-0.2mm}\end{figure}この場合,主辞「伝授」には項顕在化原理が適用されず,そのため{\scarg-st}素性は{\scsubcat}素性に変換されない.よって,{\scsubcat}素性の打ち消しも起こらず「伝授」の{\scarg-st}素性は投射内で母(mother)へ受け継がれてゆく.一般に付加語と主辞の関係は統語的な情報だけでは決められないので,NAISTJPSGではこれらの間に付加語と主辞の関係があるということまでは規定するが,どのような関係であるかまでは規定しない.また,通常ノ格名詞句の語順転換はできないと言われるが,上述のような分析をとれば,(\ref{ex:ssca})の文法性も意味論の観点から説明できる.\enumsentence{\label{ex:ssca}\begin{tabular}[t]{rl}a.&\%弟子の師匠への秘伝の伝授\\b.&\%弟子の秘伝への師匠の伝授\end{tabular}}もし付加語間の語順,つまり階層関係がなんらかの素性に反映されるならば,そのような素性と受け継がれた{\scarg-st}素性を比較することで,どの名詞がどの項と対応すべきかが計算できる.また,その場合(\ref{ex:ssca})では,そのような対応が述語の意味の点から整合的でないことも予測できる.つまり,「伝授」という語が意味する関係{\scinitiation}においては,(\ref{ex:ssca}a)のように弟子が{\scinitiator}で師匠が{\scinitiatee}であったり,(\ref{ex:ssca}b)のように弟子が{\scinitiator}で秘伝が{\scinitiatee}であることはないと考えるのである.付加語と主辞の関係を統語的制約として文法においては規定しないという立場は,計算機構の記述を簡潔にし,解析システム全体をモジュラーな構造にできるという利点がある半面,曖昧性を抑制する手段を制限してしまうという欠点もある.従ってNAISTJPSGでは,ある句が付加語とも必須項とも分析できるならば,積極的に必須項として分析している.\ref{sec:adn:amb}節では付加語が関与する解析において起こる問題と,その解決方法について述べる.\subsection{付加語に関わる曖昧性の増大}\label{sec:adn:amb}動詞に対する必須項となっていないような修飾句も,連体修飾と同様に図\ref{fig:schm}(b)のadjunct-headschemaによって扱われ,図\ref{fig:modifier}のように分析される.\begin{figure}\begin{center}\unitlength=0.1ex\parbox{0.45\textwidth}{\tree{\node{\begin{avm}\[{\itverb}\\subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}{\Ln4{\begin{avm}\[{\itptcl}\\mod\\<\@1\[{\itverb}\]\>\,\]\end{avm}}\tangle8{三時から}}{\Rn4{\begin{avm}\@1\[{\itverb}\\subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}\Tangle1{出かける}}}}\quad\parbox{0.45\textwidth}{\tree{\node{\begin{avm}\[{\itnoun}\\arg-st&\@2\\adjcnt&\<\,\>\,\]\end{avm}}{\Ln4{\begin{avm}\[{\itptcl}\\mod\\<\@1\[{\itnoun}\]\>\,\]\end{avm}}\tangle8{演奏会の}}{\Rn4{\begin{avm}\@1\[{\itnoun}\\arg-st&\@2\\adjcnt&\<\,\>\,\]\end{avm}}\tangle6{準備}}}}\end{center}\caption{付加語が動詞を修飾する場合(左)と名詞を修飾する場合(右)}\label{fig:modifier}\end{figure}これらは次のような特徴を持つ.\begin{itemize}\item[1.]被修飾句側ではどのような修飾句が認可されるかを制限する手立てがない.\item[2.]修飾句側がどのような句を修飾するかは(比較的)固定されている.\end{itemize}2を定式化したものがHPSGでも導入されている被修飾素性(modifiedfeature---{\scmod}素性)である.これによれば「赤い花」のような形容詞による名詞の修飾や,「さんまを焼く匂い」のような連体修飾についても図\ref{fig:modifier}と同様の分析ができる.なお,(a)のcomplement-headschemaとadjunct-headschemaの間には{\scsem}素性に関して重要な違いがある.すなわち,母の{\scsem}素性は,complement-headschemaにおいては主辞の{\scsem}素性と同一となり,adjunct-headschemaにおいては付加語の{\scsem}素性と同一となる.このように{\scmod}素性には「どのような句を修飾できるか」が記述されるが,NAISTJPSGでは助詞を主辞にしているので,この情報は助詞が元来持っている{\scmod}素性に記述しなければならない.格助詞ガの{\scmod}素性は,(\ref{ex:csadn})にあげる三通りの場合があり得る.\enumsentence{\label{ex:csadn}\begin{tabular}[t]{rlll}a.&項として動詞に下位範疇化される場合:&\begin{avm}\[mod\\<\,\>\,\]\end{avm}\\[-3pt]&\multicolumn{3}{l}{[$_{vp}$\underline{健が}走る].}\\b.&付加語として動詞句を修飾する場合:&\begin{avm}\[mod\\<\[head\{\itverb\/}\]\>\,\]\end{avm}\\[-3pt]&\multicolumn{3}{l}{[$_{vp}$\underline{東京が}[$_{vp}$人が多い]].}\\c.&付加語として名詞句を修飾する場合:&\begin{avm}\[mod\\<\[head\{\itnoun\/}\]\>\,\]\end{avm}\\[-3pt]&\multicolumn{3}{l}{[$_{vp}$[$_{np}$\underline{今年が}初出場]の奈緒美が優勝した].}\end{tabular}}ところが,(\ref{ex:csadn})に従うならば,「健が本を読む」のような単純な文でさえ,概ね[$_{vp}$健が[$_{vp}$本を読む]]の構造に対応した(\ref{ex:csadn}a,b)の分析だけでなく,[$_{vp}$[$_{np}$健が本]を読む]に対応した(\ref{ex:csadn}c)の分析も可能となってしまう.この問題に対してコーパスを予備的に調査した結果,NAISTJPSGでは現在のところ次のような立場をとるのが妥当であると考えている.\begin{itemize}\item[1.]格助詞ガ・ヲ・ニ・トの四つについては(\ref{ex:csadn}c)のような語彙は仮定しない.\item[2.]サ変名詞以外にも項構造をもつような名詞のクラスをいくつか仮定する.\item[3.]ニ・ノ・トについては繋辞(copula)のように機能する述語的な語彙も用意する.\end{itemize}上記を仮定し,(\ref{ex:csadn}c)に対しては具体的に図\ref{fig:copula}のような構文木を与えている.\begin{figure}\begin{center}\unitlength=0.06ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat&\@2\\adjcnt&\<\,\>\,\]\end{avm}}}{\AnnoLn7{PP\rlap{\,\begin{avm}\[mod\\<\@3\[head\{\itverb}\]\,\>\,\]\end{avm}}}{\xnode{xa}{\}}\tangle7{今年が}}{\AnnoRn8{\llap{\boxit{3}\,}V$'$\rlap{\,\begin{avm}\[subcat&\@2\,\\adjcnt&\<\,\>\,\]\end{avm}}}{\hspace*{5.3cm}\xnode{xb}{\}{\itadjunct-head}}{\AnnoLn5{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[arg-st&\@2\,\]\end{avm}}}{\xnode{ya}{\}}\tangle9{初出場}}{\AnnoRn5{\hspace*{13zw}V\,\begin{avm}\[subcat&\@2\\adjcnt&\<\@1\[arg-st\\@2\,\]\,\>\,\]\end{avm}}{\hspace*{3.3cm}\xnode{yb}{\}{\itcomplement-head}}\lf{の}}}}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\caption{格助詞句が名詞句に係る場合}\label{fig:copula}\end{figure}このような例について調査した結果は,\ref{sec:adn:crpsadj}節でさらに検討する.また,以下では(\ref{ex:csadn}c)における修飾先の「名詞句」をより厳密に「サ変名詞・動詞・助動詞・形容詞・形容動詞・判定詞・終助詞・副詞を全く含まない文節」すなわち「述語的でない文節」と解釈して分析する.\subsection{コーパスを利用した連体修飾の分類}\label{sec:adn:crpsadj}まず,格助詞句が「述語的でない文節」に係る場合の頻度を調べるために,京大コーパスversion2.0中の全ての係り受けの中から次の二つの条件を満たすものを抽出した.\begin{itemize}\item[1.]係り側の文節中,記号類以外で最も右の形態素が格助詞「ガ,ヲ,ニ,ト」である.\item[2.]「通常の」係り関係である\footnote{京大コーパスでは「並立」も係り受け関係の一種としてタグ付けされており,普通の意味での係り受け関係とは付与されたマークで区別される.}.\end{itemize}このような係り受けは表\ref{tbl:all}に示すように四つの格助詞に対してのべ約51,000回出現する.\begin{table}\caption{格助詞句が係る文節の内訳(京大コーパス全係り受け157901から抽出)}\label{tbl:all}\begin{center}\begin{tabular}{c|r|r|r|r}&&\multicolumn{3}{c}{受け側の文節}\\[2pt]\cline{3-5}\rule{0pt}{25pt}格助詞&\shortstack{係り受け\\[-2pt]出現数}&\shortstack{品詞\\[-2pt]パターン数}&\shortstack{述語的でない\\[-2pt]文節}&\shortstack{出現する\\[-2pt]文数}\\[2pt]\hline&&&&\\[-7pt]が&12179&1227&98&302\\[2pt]を&16906&963&39&415\\[2pt]に&13824&875&61&140\\[2pt]と&8134&518&65&174\\[2pt]\hline&&&&\\[-7pt]計&51043&3583&263&1031\end{tabular}\end{center}\end{table}次に,受け側の文節の品詞を細分類まで区別してまとめ,パターンの数を数えた.例えば,\begin{center}\begin{tabular}{ll}\underline{健が}&\underline{走った(動詞)こと(形式名詞)も(副助詞),(読点)}\\\underline{「ハトが}都市に&\underline{増えた(動詞)の(形式名詞)は(副助詞),(読点)}\end{tabular}\end{center}の二つはいずれも「ガ格が[動詞・形式名詞・副助詞・読点]という文節に係る」というパターンにまとめられる.この結果,四つの格助詞の受け側の文節は約3,600パターンに分類できた.この中から「述語的でない文節」だけを抽出し,約260パターンを得た.文の数にすると約1,000文である.本来はこれら全ての文を確認すべきであるが,ここでは各パターンについて最初の一文だけを詳細に分類した.これをまとめたのが表\ref{tbl:detail}である.すなわち,考慮したパターン258(もとは263)のうち約1/3がコーパスの誤りであり,正しくタグ付けされていれば「述語的な文節」に係ると分類されるはずのものであった.残りの200パターン弱のうち半分以上は,いわゆる体言止めや動詞の省略もしくは並立関係の一方に係っているものであった.例えば,「シンクタンクの多くが一%台,官公庁が一○%台であった.」のような場合である.文末の「であった」まで省略される場合もあるので,動詞の省略と並立は厳密には区別していない.この結果から,確認したものだけでも約60例は(少なくとも表層上は)格助詞句が「述語的でない文節」に係っていたことがわかる.なお,表\ref{tbl:all}の「述語的でない文節」に対して表\ref{tbl:detail}の「文数」がガ格で2パターン,ニ格で3パターン少ないのは,同じ文が二つ以上のパターンを含んでいたことによる.\begin{table}\caption{述語的でない文節の内訳}\label{tbl:detail}\begin{center}\begin{tabular}{c|r|r|r|r|r|r}&&\multicolumn{2}{c|}{コーパスの誤り}&\multicolumn{3}{c}{考慮すべきパターン}\\[2pt]\cline{3-7}\rule{0pt}{25pt}格助詞&文数&\shortstack{係り先\\[-2pt]間違い}&\shortstack{品詞\\[-2pt]間違い}&\shortstack{動詞の\\[-2pt]省略}&並立&その他\\[2pt]\hline&&&&&&\\[-7pt]が&96&14&13&55&3&11\\[2pt]を&39&8&6&17&5&3\\[2pt]に&58&7&11&11&10&19\\[2pt]と&65&1&38&2&0&24\\[2pt]\hline&&&&&&\\[-7pt]計&258&30&75&85&18&57\end{tabular}\end{center}\end{table}以下,各々の助詞に関する特徴的な係り方のパターンについて論じる.\paragraph{ガ格}ガ格名詞では,時間・期間を表わす名詞に係る傾向が見られる\footnote{以下では例文のうち特徴的な係り方が現れている部分だけを示す.最後の(\,)内は文番号である.}.\enumsentence{\label{ex:ga}\begin{tabular}[t]{rp{0.8\textwidth}}a.&\underline{野茂投手が}\underline{大阪府立成城工高時代に}野球部監督を務め,現在,府立淀川工高野球部顧問の宮崎彰夫さんは\dots.(S-ID:950110151-017)\\b.&\underline{政界再編が}いまだ\underline{途上の}せいか,\dots.(S-ID:950207056-001)\\c.&法の\underline{施行が}\underline{四年後とは,}\dots.(S-ID:950522042-015)\end{tabular}}このような係り受け関係を許す例には「Aガ〜時間・期間(中に)」などがあり,その主辞の名詞「時間・期間」は一定の意味クラスを形成すると考えられる.さらに,サ変動詞構文のLVと同じように,ニが前接する名詞から項構造を受け継ぐと考えると,図\ref{fig:interval}のような分析が可能となる.\begin{figure}\begin{center}\unitlength=0.08ex\tree{\node{V$'$\rlap{\,\begin{avm}\[subcat&\<\,\>\,\\adjcnt&\<\,\>\]\end{avm}}}{\AnnoLn4{\llap{\boxit{3}\,}PP\rlap{\,\begin{avm}\[mod&\<\,\>\,\]\end{avm}}}{\xnode{xa}{\}}\tangle7{健が}}{\AnnoRn4{V$'$\rlap{\,\begin{avm}\[subcat&\@2\<\,\@3\,\>\,\\adjcnt&\<\,\>\]\end{avm}}}{\hspace*{5.3cm}\xnode{xb}{\}{\itcomplement-head}}{\AnnoLn5{\llap{\boxit{1}\,}NP\rlap{\,\begin{avm}\[arg-st&\@2\<\,\@3\,\>\,\]\end{avm}}}{\xnode{ya}{\}}\tangle9{学生時代}}{\AnnoRn5{\hspace*{13zw}V\,\begin{avm}\[subcat&\@2\\adjcnt&\<\@1\[arg-st\\@2\,\]\,\>\,\]\end{avm}}{\hspace*{3.7cm}\xnode{yb}{\}{\itcomplement-head}}\lf{に}}}}\end{center}\nodeconnect[r]{xa}[l]{xb}\nodeconnect[r]{ya}[l]{yb}\caption{時間・期間を表す名詞にガ格が係る場合}\label{fig:interval}\end{figure}また,係り先としてノが含まれる例も多かった.\enumsentence{\label{ex:no:cop}\begin{tabular}[t]{rp{0.8\textwidth}}a.&十二月の土曜日,ちょうど半月の夜に,大人が七人,\underline{子供が}\\underline{九人の}五家族が集まった.(S-ID:950107034-007)\\b.&\dots,国民,\underline{メディアを}\underline{相手の}カジ取りが注目される.(S-ID:950107047-011)\\c.&四輪部門の総合で,篠塚建次郎が\underline{首位と}2時間44分\underline{10秒差の}五位に浮上した.(S-ID:950109078-001)\end{tabular}}(\ref{ex:no:cop}b)はヲ格が,(\ref{ex:no:cop}c)はト格がノ格名詞句に係っているが,このように係り側の格の間には,共通に見られるような修飾関係がいくつか存在している.\paragraph{ヲ格}ガ格で見られた「ニ,ノ」の他に「スル,シテ」などが省略されたとみなせる例がヲ格には存在する.前接する名詞もやはり「主体,先頭,中心」などを表わす名詞として一定の意味クラスを形成すると考えられ,これらについても統語的には図\ref{fig:interval}に示した分析と同様に扱うことができる.\enumsentence{\label{ex:wo}\begin{tabular}[t]{rp{0.8\textwidth}}a.&\underline{二月十日ぐらいを}\underline{めどに}決着がつけられる\dots.(S-ID:950101008-026)\\b.&ピークの午後五時半ごろには大阪,京都府境の\underline{天王山トンネルを}\underline{先頭に}栗東インター付近まで約四十キロの車の列.(S-ID:950103137-002)\end{tabular}}その他に,「割合」を表わすパターンがある.\enumsentence{\label{ex:wo:ratio}\begin{tabular}[t]{rp{0.8\textwidth}}a.&他県から車で乗り付け,\underline{おにぎり六個を}\underline{千五百円で}売りさばいた家族連れもいた.(S-ID:950126047-017)\\b.&\underline{変動金利五・〇%を}\underline{四・〇%に,}固定金利五・九〇%を五・四〇%に優遇する.(S-ID:950110075-002)\end{tabular}}このような用法に関しては,次のニ格にも見られる.\paragraph{ニ格}ヲ格の例(\ref{ex:wo:ratio})のように,ニ格にも「割合」を表わすパターンが多い.\enumsentence{\label{ex:ni}\begin{tabular}[t]{rp{0.8\textwidth}}a.&日本農業の危機的現象を示すものとして,しばしば新規学卒の就農者が\underline{年に}\underline{二千人弱しか}いないことが指摘される.(S-ID:950419051-020)\\b.&\underline{年に}\underline{一度の}便りで修復しようというのだから,\dots.(S-ID:950104230-008)\end{tabular}}\enumsentence{\label{ex:ni:gap}\begin{tabular}[t]{rp{0.8\textwidth}}a.&\underline{南に}\underline{約三キロ}離れた袖ケ浦市代宿の県企業庁袖ケ浦工業用水浄水場内で車から降ろし,\dots.(S-ID:950101111-002)\\b.&\underline{一階に}\underline{六室,}二階に一室と広間があった.(S-ID:950105224-007)\end{tabular}}ただし,(\ref{ex:ni:gap})のような例は,「南に\dots離れた」のように述部の方に係ると考え,「南に三キロ,東に五キロ離れた」のように現れた場合は,「並立」として別の扱いをする.\paragraph{ト格}ト格で着目すべき頻出の例は,本来の係り先の文節が省略されているために,さらに先の文節に係るような変更が生じているものである.\enumsentence{\label{ex:to}\begin{tabular}[t]{rp{0.8\textwidth}}a.&「エンディング・テーマ曲,\underline{英語詞と}{}\underline{初めての}経験だったが,言葉や文化は違っても,音楽にそれほど変わりはありません.(S-ID:950105207-015)\\b.&公定歩合は\underline{一・七五%と}歴史的な\underline{低水準に}あり,これ以上下げると,いつの日にかインフレの火種になる恐れはある.(S-ID:950325045-026)\end{tabular}}(\ref{ex:to}a)は,本来「英語詞トいった初めての経験だった」であり,その解釈においては「英語詞ト」は「いった」に係る.この「いった」が省略されたことにより,(コーパスでは誤って「初めての」に係るとされているが)「いった」の係り先である「経験だった」に係ると考えられる.(\ref{ex:to}b)も,本来「一・七五%トいった低水準に」のような表現であり,「一・七五%ト」は「いった」が省略されたことにより,「いった」の係り先である「低水準に」に係るとされている.ただし,(\ref{ex:to}b)は意味的には「一・七五%ト(いった)」は「低水準にある」という句に係ると考えた方が自然であり,「一・七五%ト」の係り先を「あり」という述語的な文節としている.以上,ガ・ヲ・ニ・トの四つの格助詞が「述語的でない文節」を修飾する場合に関して,コーパスの調査結果を説明した.多くの用例は,(場合によってはニやノを述語を形成する繋辞とみることによって)実際には述語的な文節を修飾しているとみなせる.すなわち,(\ref{ex:csadn}c)のように{\scmod}素性が{\itnoun\/}であるような助詞を仮定する必要は今のところないといえる.また,図\ref{fig:interval}中の,繋辞のように機能する語彙項目の{\scadjcnt}素性は前接するNPを選択するので,ニやノを繋辞とそうでないものに分けても曖昧性が生じることはない.すなわち,(\ref{ex:csadn}c)の解析を排除し図\ref{fig:interval}の分析をとれば,曖昧性の数を減少させることができる.一方,(\ref{ex:csadn}a,b)のような項か付加語かの曖昧性は依然として残るが,これについては項の組み合わせに対する優先度を統計的に求め\cite{Miyata&etal1997,Utsuro&etal1997},統計的係り受け情報にもとづいた優先度に従って漸進的に解析を進めるアルゴリズム\cite{Miyata&etal2000}を用いることで解決できると考えている.\setcounter{section}{4}
\section{おわりに}
label{sec:cncl}本論文で論じてきたことは,次の二点に集約される.\begin{itemize}\item[1.]文法理論における知見の実装に向けての精緻化.\item[2.]文法理論の射程外である出現頻度などの調査.\end{itemize}特に文法理論の精緻化においては,実装上の都合だけに応じたような素性の設計はせず,言語現象を的確に捉えることを常に優先してきた.図\ref{fig:overview}に本論文で取り上げた言語現象とそれを扱うための主要な原理・スキーマの関係を示しておく.\begin{figure}\begin{center}\unitlength=1pt{\begin{picture}(405,170)\put(380,80){\myfbox{head}{\shortstack{Head\\Feature}}(40,25)}\put(210,10){\myfbox{subcat}{\shortstack{Subcat\\Feature}}(40,25)}\put(140,160){\myfbox{adjcnt}{\shortstack{Adjacent\\Feature}}(45,25)}\put(210,110){\myobox{comphead}{\shortstack{Complement\\Head}}(60,25)}\put(310,160){\myobox{ajcthead}{\shortstack{Adjunct\\Head}}(45,25)}\put(40,80){\myobox{zerocomp}{\shortstack{0-Complement\\Head}}(70,25)}\put(90,120){\myobox{pseudlex}{\shortstack{Pseudo\\Lexical\\Rule}}(45,37)}\put(40,160){\mybbox{complx}{\shortstack{複合動詞\\(\ref{sec:jpsg:atree}節)}}}\put(210,160){\mybbox{adnoun}{\shortstack{連体修飾\\(\ref{sec:adn:amb}節)}}}\put(380,160){\mybbox{nocase}{\shortstack{ノ格の修飾\\(\ref{sec:adn:cmpadj}節)}}}\put(140,80){\mybbox{sahen}{\shortstack{サ変動詞\\(\ref{sec:jl:sahen}節)}}}\put(310,110){\mybbox{topic}{\shortstack{取り立て助詞\\(\ref{sec:jl:focus}節)}}}\put(210,60){\mybbox{scrmbl}{\shortstack{補語の\\語順転換\\(\ref{sec:jpsg:worder}節)}}}\put(110,10){\mybbox{cmpomt}{\shortstack{補語の省略\\(\ref{sec:jpsg:drop}節)}}}\put(310,50){\mybbox{mkrdrp}{\shortstack{助詞欠落\\(\ref{sec:jl:case}節)}}}\end{picture}}\end{center}\anodeconnect[b]{comphead}[tr]{cmpomt}\anodeconnect[l]{comphead}[tr]{sahen}\anodeconnect[b]{comphead}[t]{scrmbl}\anodeconnect[r]{comphead}[tl]{mkrdrp}\anodeconnect[r]{comphead}[l]{topic}\anodeconnect[t]{comphead}[b]{adnoun}\anodeconnect[b]{zerocomp}[tl]{cmpomt}\anodeconnect[r]{zerocomp}[l]{sahen}\anodeconnect[t]{zerocomp}[b]{complx}\anodeconnect[b]{pseudlex}[tl]{sahen}\anodeconnect[t]{pseudlex}[br]{complx}\anodeconnect[l]{ajcthead}[r]{adnoun}\anodeconnect[r]{ajcthead}[l]{nocase}\anodeconnect[tl]{subcat}[br]{sahen}\anodeconnect[t]{subcat}[b]{scrmbl}\anodeconnect[tr]{subcat}[bl]{topic}\anodeconnect[r]{subcat}[bl]{mkrdrp}\anodeconnect[bl]{head}[r]{mkrdrp}\anodeconnect[tl]{head}[r]{topic}\anodeconnect[l]{adjcnt}[r]{complx}\anodeconnect[br]{adjcnt}[tl]{topic}\anodeconnect[b]{adjcnt}[t]{sahen}{\makedash{2pt}\anodeconnect[r]{adjcnt}[l]{adnoun}}\caption{NAISTJPSGの原理・制約と本論文で扱った言語現象}\label{fig:overview}\end{figure}もちろん,図\ref{fig:overview}に示すような枠組みだけで言語の諸相が捉えられるわけではない.本論文ではコーパスの調査を行なうことで,理論指向の研究ではあまり顧みられることのなかった現象に関しても整合的な説明を試みた.今後の課題としては,十分に論じることができなかった次の二点があげられる.\begin{itemize}\item[1.]文法の適用範囲の拡大.\item[2.]構文解析の効率化・高速化.\end{itemize}文法の適用範囲を広げるということは,単にコーパスに対する被覆率をあげるためだけにアドホックな文法を構築するということではない.特に,\ref{sec:adn}節で挙げた分析は,どのような名詞のクラスを仮定し,それらにどのような項を付与するか,およびどのような繋辞を仮定するかを体系的に決めないと,文法をいたずらに複雑化することになる.この点に関しては,従来単なるラベルとして捉えられていた名詞に対して様々な情報を付与する生成語彙\cite{Pustejovsky1995}の枠組などが参考になると思われる.また,効率化・高速化に関しては,計算機上での実装の都合というものもある程度考えなくてはならないが,処理系の実装という点では既に成果をあげているLiLFeS\cite{Makino&etal1998}などを参考にしたい.以上,文法理論と自然言語処理を結びつける一つの方法を示すことによって,本論文は新たな問題を示すことになったが,少なくとも,今後の課題が具体的になったという点においてはこのような試みも十分意義のあるものと考えておきたい.\smallskip\noindent{\bf謝辞}本研究を進めるにあたって郡司隆男,橋田浩一,白井英俊,松井理直,橋本喜代太の諸氏,および匿名の査読者から様々なコメントを頂いた.ここに記して感謝の意を表したい.なお,本論文に述べられている見解などについては全て筆者らが責任を負う.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{大谷朗}{1991年愛知教育大学教育学部総合科学課程卒業.1993年大阪大学大学院言語文化研究科言語文化学専攻博士前期課程修了.1996年同大学大学院言語文化研究科言語文化学専攻博士後期課程単位取得退学.大阪大学言語文化部,同大学大学院言語文化研究科助手を経て,1999年より奈良先端科学技術大学院大学情報科学研究科情報処理学専攻博士後期課程,2000年より大阪学院大学情報学部講師,現在に至る.言語文化学博士(大阪大学).言語処理学会,情報処理学会,日本認知科学会,日本言語学会,日本英語学会各会員.}\bioauthor{宮田高志}{1991年東京大学理学部情報科学科卒業.1993年同大学大学院理学系研究科情報科学専攻修士課程修了.1996年同大学院理学系研究科情報科学専攻博士課程単位取得退学.同年,奈良先端科学技術大学院大学情報科学研究科助手,現在に至る.理学博士(東京大学).言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,ACL,ACM各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科情報工学専攻修士課程修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学情報科学研究科教授,現在に至る.工学博士(京都大学).言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\newpage\verb++\thispagestyle{plain}\end{biography}\end{document}
| |
V02N01-01
|
\section{はじめに}
\label{sec:hajime}機械翻訳システムを使用する時,利用者はシステム辞書に登録されていない単語や,登録されているが,訳語が不適切な単語に対して,利用者辞書を作成して使用することが多い\cite{Carbonell:1992}.しかし,辞書に新しく単語を登録する際は,登録する語の見出し語,訳語の他に,文法的,意味的な種々の情報を付与する必要がある.高い翻訳品質を狙ったシステムほど,利用者辞書にも詳細で正確な情報を必要としており\cite{Ikehara:1993,Utsuro:1992},素人の利用者がそれらの情報を正しく付与するのは簡単でない\footnote{単語意味属性を付与するには,通常のシステムの意味属性を理解していることが必要であるが,一般の利用者には簡単でない.}.例えば,日英機械翻訳システムALT-J/Eでは,意味解析のため約3,000種の精密な意味属性体系\footnote{単語の意味的用法を分類したもので,各要素となる名詞に着目した動詞の訳し分けにおいて,ほぼ必要十分といえる意味属性分解能が約2,000種類であることを示し,実際に名詞の意味属性を3,000種に分類している.詳細は\cite{Ikehara:1993}を参照のこと.}を持っており,利用者辞書の単語を登録する際は,各単語にこの意味属性体系に従って意味的用法(一般に複数)を指定する必要がある\cite{Ikehara:1989b,Ikehara:1989a}.この作業は熟練を要し,一般の利用者には困難であるため,従来から自動化への期待が大きかった.そこで本論文では,利用者登録語の特性に着目し,利用者が登録したい見出し語(単一名詞または複合名詞)に対して英語訳語を与えるだけで,システムがシステム辞書の知識を応用して,名詞種別を自動的に判定し,名詞種別に応じた単語の意味属性を推定して付与する方法を提案する.また,自動推定した利用者辞書を使用した翻訳実験によって,方式の効果を確認する.具体的には,名詞を対象に,与えられた見出し語と訳語から主名詞と名詞種別(一般名詞,固有名詞)を判定し,それぞれの場合に必要な単語意味属性を自動推定する方法を示す.また,適用実験では,まず,本方式を,新聞記事102文とソフトウエア設計書105文の翻訳に必要な利用者辞書の作成に適用して,自動推定した単語意味属性と辞書専門家の付与した単語意味属性を比較し,精度の比較を行う.次に,これらの意味属性が翻訳結果に与える影響を調べるため,(1)意味属性のない利用者辞書を使用する場合,(2)自動推定した意味属性を使用する場合,(3)専門家が利用者登録語の見出し語と訳語を見て付与した意味属性を使用する場合,(4)正しい意味属性(専門家が翻訳実験により適切性を最終的に確認した意味属性)を使用した場合,の4つの場合について翻訳実験を行う.\vspace{-0.2mm}
\section{システム辞書と利用者辞書}
\label{sec:dic}\subsection{ALT-J/Eの意味辞書の構成}\label{sec:2.1}ここでは,機械翻訳システム側であらかじめ用意された辞書をシステム辞書,利用者が作成して使用する辞書を利用者辞書と呼ぶ.日英機械翻訳システムALT-J/Eのシステム辞書と利用者辞書および単語意味属性の関係を図1に示す.{\unitlength=1mm\begin{figure}[htbp]\begin{center}\epsfile{file=fig1.eps,width=134mm}\vspace{-0.2mm}\end{center}\caption{ALT-J/Eの意味属性体系と意味辞書}\label{fig:1}\end{figure}}\begin{description}\vspace{-0.2mm}\item[(1)意味辞書の種類]ALT-J/Eでは意味解析を実現するため,これらの辞書に単語意味属性を使用した意味情報が登録されるようになっている.意味情報を記載した辞書を意味辞書と呼ぶ.現在,実装されている意味辞書は単語意味辞書と,構文意味辞書の2種類からなる.単語意味辞書は日本語単語の意味的用法を記述した辞書(日本語解析用の40万語辞書と訳語決定用の38万語辞書)であり,構文意味辞書は,用言毎の日本語文型とそれに対応する英語文型を収録した辞書(13,000文型)である.システムがあらかじめ用意したこれらの単語または文型が不足したとき,もしくは不適切なときは,同種の辞書を利用者が利用者辞書として作成して使用する.\item[(2)単語意味属性の種類]ALT-J/Eの単語意味属性には一般名詞意味属性(2,800種),固有名詞意味属性(200種),用言意味属性(100種)の3種類がある.固有名詞意味属性は,一般名詞意味属性の一部を取り出して,複合語解析の観点から詳細化したものであり,属性名の数は一般名詞意味属性の数より少ないが,分類精度は詳細である.単語意味辞書の一般名詞には一般名詞意味属性(一般に複数個)が,固有名詞には一般名詞意味属性と固有名詞意味属性の両者(いずれも複数個)が付与される.用言意味属性は構文意味辞書に登録された文型パターンの主用言に付与される\cite{Nakaiwa:1992}.\end{description}\subsection{利用者登録語の特性}\label{sec:2.2}本論文では,名詞(一単語名詞または複合名詞)の利用者辞書への登録を考える.通常の機械翻訳システムでは,一般語(一般名詞)についてはほぼ漏れなくシステム辞書に収録されるが,専門用語や固有名詞などは余り収録されていない場合が多い.ALT-J/Eの場合は,新聞記事で使用される語を中心に多数(延べ50万語)の固有名詞,専門用語なども収録されているが,全てを網羅することは不可能であり,必ずしも十分とは言えない.従って,通常,利用者辞書に登録される語は,(1)原文に現れた専門用語や固有名詞,利用者固有の技術用語で,システム辞書に登録されていないため未知語となった語,もしくは(2)システム辞書に登録されているが,訳語が適切でない語の2種類に大別される.後者の単語意味属性は既にシステム辞書に登録されているため,通常改めて登録する必要はないのに対して,前者は登録語が複合名詞で,その構成要素の一部がシステム辞書に登録されていなかったため未知語となったものが多い.このようにシステム辞書は,多くの場合,利用者辞書登録語と関係する情報を持つ場合が多いので,その情報を利用すれば,多くの利用者登録語の意味属性は自動付与できると期待できる.
\section{意味属性推定の方法}
\label{sec:3}{\unitlength=1mm\begin{figure}[htbp]\begin{center}\epsfile{file=fig2.eps,width=55mm}\end{center}\caption{意味属性自動推定の手順}\label{fig:2}\end{figure}}利用者登録語の日本語表記と英語訳語が与えられたとき,機械翻訳システムに装備されたシステム辞書の情報を使って,登録語の意味属性を推定する方法を図\ref{fig:2}に示す\footnote{意味属性は,あらかじめシステムで決められた体系を使用する.その意味属性体系に不足や不適切な部分があっても,本方式で修正改良することは考えない.これは,利用者辞書作成は通常システム運用時に行なわれるものであり,この段階では,意味属性体系の変更に伴って生じるシステム辞書や翻訳プログラムの修正は通常困難と考えられることからである.}.利用者登録語の単語意味属性を推定する手順は,主名詞の判定,名詞種別(固有名詞,一般名詞)の判定,固有名詞意味属性の推定(固有名詞の場合),一般名詞意味属性の推定(一般名詞,固有名詞双方の場合)の手順からなる.\subsection{主名詞の判定方法}\label{sec:3.1}利用者辞書に登録される見出し語は,単一の名詞もしくは複数単語から構成される複合名詞のいずれかとし,訳語は単一の単語,名詞連続の複合語,名詞句のいずれかとする.見出し語,訳語を構成する単語のうち,中心的な意味を担う名詞を主名詞と呼ぶ.通常,登録語の単語意味属性は主名詞の単語意味属性と一致することが多いと考えられる.また,システム辞書の中に利用者辞書登録語の見出し語または訳語の一致する語が存在する可能性に比べて,利用者辞書登録語の主名詞が存在する可能性は高い.従って,主名詞に着目すれば,登録語の意味属性を推定できる可能性が大きい.日本語名詞は語形変化しないため,システム辞書の見出し語と利用者登録語の主名詞を含む部分とを直接比較し,システム辞書内から必要な情報を引き出すことができる.これに対して,英語名詞は複合語内などで屈折による語形変化を伴うことがあるため,主名詞を含む部分とシステム辞書の英語訳語を直接比較することはできない.そこで,ここでは,システム辞書の訳語との比較が可能となるよう,利用者登録語の英語訳語に対して主名詞を抽出する.[英語主名詞の判定手順]\begin{description}\item[(1)]まず,訳語が単語一語で構成されるときは,その語を主名詞とする.\item[(2)]次に,訳語が2語以上の語から構成されている場合は,まず,訳語の全体が,システム辞書に登録されているか否かを調べ,登録されている場合は,訳語全体を主名詞とする.\item[(3)]登録されていない場合は,名詞句(訳語)を構成する単語の中から主名詞を推定する.この場合,英語訳語は名詞連続複合語または修飾語や句を伴った名詞句で構成されていると考えられる.前者の場合は,最後の名詞が主名詞になるのに対して,後者の場合では,修飾語句は主名詞の前方だけでなく後方に来る場合のあることを考慮する必要がある.通常,後方修飾は前置詞,関係詞で導かれることを考慮して,以下の方法で主名詞を選定する.\begin{itemize}\item訳語中にin,on,withなどの前置詞,またはthat,whichなどの関係詞(ストップワード)があるか否かを調べ,ある場合は,それの語以下の語を削除する.\item次に,残った英語全体に対して英語辞書引きを行い,辞書内に一致する語があれば,それを主名詞とする.\item一致する語のないときは,前方から一語ずつ落としながら(修飾語を外しながら),残った語に対して英語辞書引きを行い,辞書と一致した語(または語の組)を主名詞とする.外せる修飾語がなくなったときは,残った語を主名詞とする.\end{itemize}\end{description}\subsection{名詞種別の判定方法}\label{sec:3.2}前に述べたように,一般名詞には,一般名詞意味属性を付与すればよいのに対して,固有名詞には一般名詞意味属性と固有名詞意味属性の両方を付与することが必要である.そのため,利用者登録語が固有名詞か一般名詞かの判定を行う必要がある.この判定は,利用者にとって比較的容易な作業であるが,利用者の負担を少しでも削減することを狙って,自動化の方法を考える.日本語表現では,一般名詞と固有名詞は通常,表記上区別されないのに対して,英語表現では,固有名詞の先頭文字は大文字で書かれる点に特徴がある.そこで,登録された単語の英語側の表記に着目し,訳語が1単語のときは,先頭文字1文字が大文字の場合は固有名詞とし,それ以外は一般名詞とする.複数の単語から構成される訳語のときは,各単語の先頭1文字が大文字の場合は,固有名詞とする.訳語にすべて大文字からなる単語が含まれる場合は,それ以外の単語がすべて固有名詞と判定されるときは全体を固有名詞とし,それ以外は一般名詞とする.\subsection{意味属性推定の方法}\label{sec:3.3}利用者登録語の見出し語,訳語,訳語の主名詞と,システムに既に準備されている日英対照辞書の内容を比較して,利用者登録語の単語意味属性を推定する.利用者登録語が一般名詞の場合は,日英対照辞書に登録された一般名詞を検索の対象として,一般名詞意味属性を推定するのに対して,利用者登録語が固有名詞の場合は,日英対照辞書に登録された固有名詞を検索の対象として,一般名詞意味属性と固有名詞意味属性を推定する.\vspace{-0.1mm}以下,利用者登録語の見出し語から意味属性を推定する方法と訳語から推定する方法を示すが,これらの手順は一般名詞意味属性の場合と固有名詞意味属性の場合に共通である.\vspace{-0.1mm}また,意味属性をなるべく漏れなく抽出するため,見出し語と訳語のそれぞれに対して下記の手順を適用する.なお,事項の順序は任意である.\vspace{-0.2mm}\subsubsection{見出し語(日本語表記)から推定する方法}\vspace{-0.2mm}日英対照辞書を検索し,利用者登録語の見出し語と一致する見出し語が日英対照辞書の登録語にある場合は,既に登録された訳語が適切でないため,訳語を変えるのが利用者辞書登録の目的である場合が多いと考えられるから,単語意味属性の変更はしないものとし,日英対照辞書に記載された単語意味属性を利用者登録語の単語意味属性とする.\vspace{-0.1mm}利用者登録語の見出し語と一致する見出し語が日英対照辞書の登録語にない場合は,利用者登録語の後方からの最長一致法で,再度,日英対照辞書を検索する.カタカナ語を除き,2文字以上が,日英対照辞書の見出し語と部分一致(カタカナ語の場合は単語単位で一致)すれば,日英対照辞書の意味属性を利用者登録語の意味属性とする.\vspace{-0.1mm}例えば表\ref{tab:1}で,利用者登録語の「治療」,「放射線治療」は,システム辞書(表\ref{tab:2})に「治療」があるので,意味属性は《治療》となる.\vspace{-0.1mm}\begin{table}\hspace{-0.5cm}\begin{minipage}{8.8cm}\caption{利用者辞書の例}\label{tab:1}\begin{center}\leavevmode\begin{tabular}{|p{2.3cm}|p{2.3cm}|l|}\hline\multicolumn{1}{|c|}{日本語見出し}&\multicolumn{1}{|c|}{英語訳}&単語意味属性\\\multicolumn{1}{|c|}{(利用者付与)}&\multicolumn{1}{|c|}{(利用者付与)}&(推定結果)\\\hline治療&cure&《治療》\\\hline放射治療&radiotherapy&《治療》\\\hline手当て&{\ittreatment\/}&《治療》\\\hline医療&medical{\ittreatment\mbox{}\/}&《治療》\\\hline数値\bf制御ロボット&numerically{\itcontrolledrobot\/}&《産業機器》\\\hline照明付き\bf机&{\itdesk\/}withlightunit&《家具》\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{5.3cm}\caption{システム辞書の例\\(日英対照辞書)}\label{tab:2}\begin{center}\leavevmode\begin{tabular}{|l|p{1.2cm}|l|}\hline日本語&\multicolumn{1}{|c|}{英語訳}&単語意味属性\\見出し&&\\\hline治療&treatment&《治療》\\\hline制御&controlled&《産業機器》\\ロボット&robot&\\\hline机&desk&《家具》\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\subsubsection{訳語(英語表記)から推定する方法}日英対照辞書の訳語の中に,利用者登録語の訳語と一致する語がある場合は,その訳語に対応する見出し語は,利用者登録語の見出し語と同義語の場合が多いと考えられるので,日英対照辞書に登録された意味属性を,そのまま利用者登録語の意味属性とする.利用者登録語の訳語と一致する訳語が日英対照辞書の登録語にない場合は,(1)の場合と同様,再度,日英対照辞書を検索する.その中に,利用者登録語の主名詞もしくは主名詞を含む訳語部分が,日英対照辞書の訳語にあれば,日英対照辞書の意味属性を利用者登録語の意味属性とする.但し,利用者登録語と日英対照辞書の訳語が同一の主名詞を持つ場合でも,語形が異なる場合があるので,主名詞は可能な語形変化(単数複数など)をさせながら,照合を行う\footnote{具体的には,まず,抽出された主名詞のシステム辞書内での有無を調べ,それが発見されないときに,主名詞を語形変化させ再度,システム辞書を検索する.これにより,語形変化によって意味の変わる単語の場合などで,システム辞書内から,なるべくもとの語形と一致する単語が抽出される.}.例えば,表\ref{tab:1}で,利用者登録語の「手当」,「医療」は,その訳語(または主名詞訳語)「treatment」がシステム辞書(表\ref{tab:2})にあるので,意味属性は《治療》となる.以上の方法では,システム辞書には一般に複数の意味属性が付与されていること,日本語表記だけでなく英語表記からも意味属性が抽出されるため,一般に一語に対して複数の意味属性が抽出されることになる.利用者辞書は特定の翻訳対象に対して指定して使用されるため,用語の用法が限られる特徴がある.従って,実際の用法が意味属性として与えられていれば,それ以外の用法が多少付与されていても,副作用は少ないと期待される.そこで,意味属性としては,得られた意味属性すべてを登録する.但し,同一の単語意味属性が重複して抽出された場合は,重複を取って登録する.
\section{意味属性推定精度の評価}
\label{sec:4}\subsection{実験の条件}\label{sec:4.1}表\ref{tab:3}に示すような新聞記事文とソフトウエア設計書の日本文に対して前章の方法を適用し,自動推定の精度を評価する.具体的には,以下の3つの場合に分けて,得られた単語意味属性を比較評価する.\begin{description}\item[(1)自動推定方式による場合]与えられた見出し語,訳語のペアに対して,前章の方法で単語意味属性を付与する.\item[(2)人手付与方式の場合]意味属性体系に精通した辞書担当のアナリストが,与えられた見出し語,訳語のペアを見て,単語意味属性を付与する.\item[(3)最適意味属性の場合](2)で作成した利用者辞書を使用して対象文の翻訳実験を行い,その結果を見て意味属性の修正追加を行う.最終的に翻訳結果が最適となるまでこの作業を繰り返して,意味属性を定める.この方法で得られた意味属性を,最適値と仮定する.\end{description}\begin{table}[htbp]\caption{実験対象文の特性}\label{tab:3}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|}\hline\multicolumn{2}{|c|}{項目}&新聞記事&ソフト設計書\\\hline\multicolumn{2}{|c|}{対象文数(文)}&102文&105文\\\hline\multicolumn{2}{|c|}{平均文字数(文字/文)}&42文字&40文字\\\hline\multicolumn{2}{|c|}{平均単語数(単語/文)}&21.2単語&16.0単語\\\hline\raisebox{-6pt}{利用者辞書}&一般名詞&28語&98語\\\cline{2-4}\raisebox{-6pt}{登録語数}&固有名詞&49語&7語\\\cline{2-4}&合計&77語&106語\\\hline\multicolumn{2}{|c|}{利用者登録語を含む文数}&53文&93文\\\hline\end{tabular}\end{center}\end{table}\subsection{名詞種別自動判定精度}\label{sec:4.2}前章の3種類の意味属性付与方式で得られた名詞種別の判定精度を表\ref{tab:4}に示す.\begin{table}[htbp]\caption{名詞種別の判定結果}\label{tab:4}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|c|}\hline標本&\multicolumn{3}{|c|}{新聞記事}&\multicolumn{3}{|c|}{ソフトウエア設計書}\\\hline属性種別&自動判定&人手判定&最適解&自動判定&人手判定&最適解\\\hline一般名詞&31語&30語&28語&93語&99語&98語\\\cline{2-7}意味属性&(27語)&(27語)&&(90語)&(97語)&\\\hline固有名詞&46語&47語&49語&12語&6語&7語\\\cline{2-7}意味属性&(45語)&(46語)&&(4語)&(5語)&\\\hline\raisebox{-6pt}{合計}&77語&77語&77語&105語&105語&105語\\\cline{2-7}&(72語)&(73語)&&(94語)&(102語)&\\\hline判定正解率&93.5\%&94.8\%&100\%&89.5\%&97.1\%&100\%\\\hline\end{tabular}\vspace{1.5mm}()内の数は,正しい判定の数を示す.\end{center}\end{table}新聞記事の場合,自動判定方式では,利用者登録語全体77語のうち,判定の正しかった名詞は一般名詞27語,固有名詞45語の合計72語で,正解率は93.5\%であった.人手付与方式では,一般名詞27語,固有名詞語46語を正しく判定し,正解率は94.8\%であった.これに対して,設計書の場合は,自動判定法の正解率89.5\%,人手付与方式の正解率は97.1\%であった.自動判定で,一般名詞を誤って固有名詞と判定した語は,「郵政大臣」,「中部圏」,「GE」,「IGS」,「汎用GS」などであった.逆に,固有名詞を誤って一般名詞と判定したのは,「PC9800」,「VOS3.2」,「X.25プロトコル」などであった.以上から,文書の種類によって多少の差はあるが,自動判定方式で人手判定方式と大差のない結果が得られることがわかった.判定に失敗した約10\%の名詞について考えると,固有名詞には固有名詞意味属性のほかに一般名詞意味属性も付与することになっているため,一般名詞を固有名詞と判定した語(新聞記事1語,設計書語8語)の場合は,一般名詞意味属性も付与されることになり,訳文品質への影響は殆どないと期待される.しかし,逆に,固有名詞を一般名詞と判定した語(新聞記事4語,設計書3語)には,固有名詞意味属性が付与されないので,その語が複合語構成要素として使用された場合,影響がでると考えられる.\subsection{意味属性自動推定精度}\label{sec:4.3}\begin{table}[htbp]\caption{単語別にみた単語意味属性の自動付与品質}\label{tab:5}\begin{center}\leavevmode\begin{tabular}{|l|l|c|c|c|c|c|c|}\hline\multicolumn{4}{|r|}{属性種別}&\multicolumn{2}{|c|}{新聞記事}&\multicolumn{2}{|c|}{ソフトウエア設計書}\\\hline\multicolumn{4}{|r|}{}&一般名詞&固有名詞&一般名詞&固有名詞\\\multicolumn{4}{|c|}{比較項目}&意味属性&意味属性&意味属性&意味属性\\\hline\multicolumn{4}{|c|}{属性付与の必要な語数}&77語(100\%)&49語(100\%)&105語(100\%)&7語(100\%)\\\cline{2-8}\hspace{4mm}&\multicolumn{2}{|c|}{属性が付与された}&自動&73語(94.8\%)&47語(95.9\%)&88語(83.8\%)&3語(42.9\%)\\&\multicolumn{2}{|c|}{語数の合計}&人手&77語(100\%)&47語(95.9\%)&100語(95.2\%)&5語(71.4\%)\\\cline{2-8}&\hspace{4mm}&そのうち&自動&38語(49.4\%)&42語(85.7\%)&3語(2.9\%)&2語(28.6\%)\\&&全属性が正解&人手&44語(57.1\%)&42語(85.7\%)&50語(47.6\%)&1語(14.3\%)\\\cline{3-8}&&そのうち&自動&21語(27.3\%)&0語(0.0\%)&41語(39.2\%)&0語(0.0\%)\\&&余分に付与&人手&9語(11.7\%)&0語(0.0\%)&11語(10.5\%)&1語(14.3\%)\\\cline{3-8}&&そのうち&自動&4語(5.2\%)&0語(0.0\%)&18語(17.1\%)&0語(0.0\%)\\&&一部付与不足&人手&8語(10.4\%)&0語(0.0\%)&27語(25.7\%)&2語(28.6\%)\\\cline{3-8}&&そのうち&自動&10語(13.0\%)&5語(10.2\%)&26語(24.8\%)&1語(14.3\%)\\&&全てが誤り&人手&16語(20.8\%)&4語(8.2\%)&12語(11.4\%)&1語(14.3\%)\\\cline{2-8}&\multicolumn{2}{|c|}{自動付与され}&自動&4語(5.2\%)&2語(4.3\%)&17語(16.2\%)&4語(57.1\%)\\&\multicolumn{2}{|c|}{なかった語数}&人手&0語(0.0\%)&2語(4.3\%)&5語(4.8\%)&2語(28.6\%)\\\hline\multicolumn{4}{|c|}{属性付与の必要ない語数}&0語&28語&0語&98語\\\cline{2-8}&\multicolumn{2}{|c|}{\raisebox{-6pt}[0pt][0pt]{属性付与された語数}}&自動&0語&1語&0語&8語(8.2\%)\\&\multicolumn{2}{|c|}{}&人手&0語&1語&0語&1語(0.1\%)\\\hline\end{tabular}\vspace{-3mm}\end{center}\end{table}\begin{table}[htbp]\caption{属性数から見た自動推定と人手付与の比較}\label{tab:6}\vspace{-2mm}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|c|}\hline標本&\multicolumn{3}{|c|}{新聞記事}&\multicolumn{3}{|c|}{ソフトウエア設計書}\\\hline属性付与&自動推定&人手付与&最適解の&自動推定&人手付与&最適解の\\の方法&で付与し&の属性数&属性数&で付与し&の属性数&属性数\\\cline{1-1}属性の種類&た属性数&&&た属性数&&\\\hline一般名詞意味属性&194件&110件&127件&341件&130件&191件\\&74+21件&93+17件&--&67+20件&74+17件&--\\\hline固有名詞意味属性&46件&43件&48件&12件&7件&7件\\&42+0件&42+1件&--&2+0件&1+2件&--\\\hline合計&240件&153件&175件&353件&137件&198件\\&116+21件&135+18件&--&63+22件&75+19件&--\\\hline\end{tabular}\vspace{1.3mm}下段の数字の説明:nnn+mmm\\nnn=付与された属性の内,最適解と一致する属性の数\\mmm=自動付与された属性が最適値の近傍(上位または下位)にあるものの数を示す.\vspace{-2mm}\end{center}\end{table}\begin{table}[htbp]\caption{自動付与した意味属性の適合率と再現率}\label{tab:7}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{標本}&\multicolumn{2}{|c|}{新聞記事}&\multicolumn{2}{|c|}{ソフトウエア設計書}\\\hline\multicolumn{2}{|c|}{意味属性種別}&適合率&再現率&適合率&再現率\\\hline一般名詞&自動付与方式&38.1\%&58.3\%&19.6\%&35.1\%\\意味属性&&(49.0\%)&(74.8\%)&(25.5\%)&(45.5\%)\\\cline{2-6}&人手付与方式&84.5\%&73.2\%&56.9\%&38.7\%\\&&(100\%)&(86.6\%)&(70.0\%)&(47.6\%)\\\hline固有名詞&自動付与方式&91.3\%&87.5\%&16.7\%&28.6\%\\意味属性&&(同上)&(同上)&(同上)&(同上)\\\cline{2-6}&人手付与方式&97.6\%&87.5\%&14.3\%&14.3\%\\&&(100\%)&(89.6\%)&(42.9\%)&(42.9\%)\\\hline全体&自動付与方式&48.3\%&66.3\%&17.8\%&31.8\%\\&&(57.5\%)&(78.3\%)&(24.0\%)&(42.9\%)\\\cline{2-6}&人手付与方式&88.2\%&77.1\%&54.7\%&37.9\%\\&&(100\%)&(87.4\%)&(68.6\%)&(47.5\%)\\\hline\end{tabular}\vspace{1.5mm}()内の数字は,最適意味属性の近傍(上位下位)も正解とした場合を示す.\end{center}\end{table}単語別にみたときの自動推定とアナリスト付与の結果を表\ref{tab:5},付与された意味属性全体の数とその内訳を表\ref{tab:6}に示す.アナリストの付与した意味属性が正解であると考えたときの適合率と再現率は,表\ref{tab:6}から表\ref{tab:7}の通り求められる.これらより以下のことが分かる.\vspace{-0.2mm}\begin{description}\item[(1)]意味属性自動推定のアルゴリズムは,システム辞書の情報を手がかりに働くため,利用者登録語の全てに意味属性が付与されるとは限らない.これに対して,実験結果では,意味属性付与の必要な単語延べ238語に対して,意味属性が自動推定された語数は211語であり,その割合(88.7\%)は大きい.これは利用者登録語に関連する語の情報が,既にシステム辞書に豊富に存在することを示している.\vspace*{-0.2mm}\item[(2)]単語毎に見たとき,正解以外の余分の意味属性が付与された語も多いため,適合率はあまり高くないが,再現率を見ると,新聞記事の場合は8割近く,設計書の場合は約4割を得ている.従って,3.3節に述べた理由から自動推定の効果は十分あると予測される.\item[(3)]ソフトウエア設計書の場合,固有名詞の意味属性の精度かなり低い.しかし,この場合,固有名詞の数は少数であること,固有名詞でも一般名詞意味属性は付与されることから,訳文品質への影響は少ないと思われる.\end{description}
\section{訳文品質の向上効果}
\label{sec:5}\subsection{実験の条件}\label{sec:5.1}利用者登録語に対する意味属性自動推定の効果を調べるため,前章と同一の試験文(新聞記事102文,ソフトウエア設計書105文)を対象に,前章で得られた利用者辞書を用いて,翻訳実験を行った.実験は以下の4つの場合に分けて実施した.\begin{description}\item[場合1]単語意味属性の付与されない利用者辞書を使用した場合\item[場合2]自動推定方式により付与した意味属性を使用した場合\item[場合3]人手付与方式により付与した意味属性を使用した場合\item[場合4]最適意味属性を使用した場合\end{description}\subsection{実験結果}\label{sec:5.2}\begin{table}[htbp]\caption{訳文品質の比較評価}\label{tab:8}\begin{center}\leavevmode\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{訳文品質の比較}&\multicolumn{2}{|c|}{新聞記事}&\multicolumn{2}{|c|}{ソフトウエア設計書}\\\hline\multicolumn{2}{|c|}{意味属性付与の方法}&訳文合格率&品質変化*&訳文合格率&品質変化*\\\hline場合1&意味属性付与無し&56.7\%&0.0\%&65.7\%&0.0\%\\\hline場合2&自動推定方式&69.6\%&+16.7\%&71.4\%&+10.5\%\\\hline場合3&人手付与方式&71.5\%&+21.6\%&71.4\%&+15.2\%\\\hline場合4&最適意味属性&72.5\%&+25.5\%&73.3\%&+23.8\%\\\hline\end{tabular}\vspace{1.5mm}*10点満点評価で1点以上,訳文品質に変化のあった文の割合を示す.\vspace{-1mm}\end{center}\end{table}上記の4つの場合の翻訳結果を表\ref{tab:8}に示す.この表より以下のことが分かる.\begin{description}\item[(1)]自動推定された単語意味属性を使用した場合,意味属性を付与しなかった場合に比べて,訳文合格率は,新聞記事の場合約10\%,ソフトウエア設計書の場合約6\%向上した.\item[(2)]これらの値は,いずれも,人手付与方式によって得られる効果と大差ない値である.\item[(3)]最適意味属性を使用した場合は,人手付与方式よりさらに1〜3\%高い訳文品質向上率が得られている.\end{description}\subsection{考察}\label{sec:5.3}\subsubsection{訳文品質向上効果について}最適意味属性を決定する繰り返し実験のコストを考えると,上記で得られた結果は,十分満足できる値である.経験的に言って,機械システムの改良により10\%の翻訳率向上を得ることは容易ではない.機械翻訳の実用レベルの品質は70〜80\%以上と考えられるから,訳文品質が50〜60\%の現状のシステムでは,10\%前後の翻訳率の向上は大きな効果といえる.\subsubsection{対象文による効果の違い}新聞記事文の場合に比べて,ソフトウエア設計書の場合は,訳文品質向上効果が少ない.この理由は以下の通りと考えられる.すなわち,新聞記事文では,一般語を組み合わせた複合語が利用者辞書登録語となる場合が多く,主名詞が,既にシステム辞書に登録されていることが多いため,必要な意味属性が付与されやすい.これに対して,ソフトウエア設計書では,意味不明な英字略語やカタカナ語の登録が多く,システム辞書から適切な意味属性を抽出するのが困難な場合が多い.しかし,後者の場合は,人手付与の場合も,適切な意味属性付与は簡単とは言えず,意味属性付与の効果は,前者に比べて少ないことを考えると,両者の実験から,本方式では,人手付与に近い効果が得られたと言える.\subsubsection{方式の有効範囲について}本実験では,3,000種の意味属性を使用したが,本方式は意味属性の数によらず適用可能である.方式の適用性は,システム辞書の充実性に依存する点が大きいと考えられる.特に,一般語に関する見出し語の網羅性が保証され,登録語に対してそのシステムで定められた意味属性が漏れなく付与されていることが大切と思われる.但し,意味属性付与の効果は,意味属性体系自体の構成概念(何を狙ってどんな方針で体系化するか)や分類精度\footnote{\citeA{Ikehara:1993}において,日英機械翻訳では,格フレームを使用して動詞を訳し分ける(一部の動詞を除く)には,格要素の意味マーカをおおよそ2,000種類程度に分類すれば良いことが報告されている.従って,3,000通りの分類を用いた本実験は,動詞の意味による訳し分けの点から見て,意味属性分類能の必要十分と見られる領域での実験と考えらる.}(どれだけ細かく分類するか),品質などにも強く依存しており,使用する意味属性体系が異なれば,意味属性付与の効果そのものが本実験の場合と異なることになる.しかし,本実験の結果から,自動付与方式では,システム辞書が充実していれば,人手付与の場合に近い効果が得られることが期待される.\subsubsection{その他}新聞記事の場合,自動推定方式で訳文品質を向上できなかった3文を見ると,その原因は,名詞種別の判定誤りが1件,正解の意味属性の上位または下位の属性を選択したものが,それぞれ1件であった.本方式では,名詞の種別も自動判定しているが,誤りの例から見て,名詞種別と意味属性の単純な分類(上位2〜3段程度)を利用者に依頼することができれば,これらの誤りは,ほぼ防ぐことができると推定される.以上の結果,従来,利用者が利用者辞書を作成する際,最も熟練の必要な単語意味属性の付与作業を自動化できる展望が得られた.
\section{あとがき}
\label{sec:6}利用者辞書に登録する利用者登録語の見出し語(日本語)と訳語(英語)が与えられたとき,機械翻訳システムに既に存在する情報を利用して,その単語意味属性を自動的に推定する方法を提案した.また,本方式を新聞記事102文,ソフトウエア設計書105文の翻訳に必要な利用者辞書の作成に適用し,推定された単語意味属性の精度,最終的な翻訳結果に与える影響などを評価した.その結果,自動推定された単語意味属性は,専門家が実験の繰り返しによって決定した意味属性(最適意味属性)の40〜80\%を再現していることが分かった.この値は,専門家が自動推定と同一の条件で人手付与方式により付与した意味属性の再現率(50〜90\%)よりは若干(〜10\%)低いが,十分効果の期待できる値である.また,自動推定された単語意味属性を使用した翻訳実験では,意味属性を付与しなかった場合に比べて,訳文合格率は6〜13\%向上し,人手付与方式の場合と同等の品質が得られることが分かった.この品質は,最適意味属性を使用した場合に比べても,2〜3\%しか低下しない値であり,最適意味属性を決定する繰り返し実験のコストを考えると,十分満足できる値である.これらの結果,従来,利用者が利用者辞書を作成する際,最も熟練の必要な単語意味属性の付与作業を自動化できる展望が得られた.今後は,対訳コーパスから,利用者辞書登録の必要な単語の見出し語と訳語を自動抽出し,利用者辞書全体を自動生成する方法について研究を進める予定である.\bibliographystyle{jtheapa}\bibliography{/home/ecl/bond/Bib/ling}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程終了.同年日本電信電話公社に入社.以来,電気通信研究所において数式処理,トラヒック理論,自然言語処理の研究に従事.現在,NTTコミュニケーション科学研究所池原研究グループ・リーダ(主幹研究員).工学博士.1982年情報処理学会論文賞,1993年情報処理学会研究賞受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員.}\bioauthor{白井諭}{1978年大阪大学工学部通信工学科卒業.1980年同大学院博士前期課程修了.同年日本電信電話公社入社.現在,NTTコミュニケーション科学研究所主任研究員.日英機械翻訳を中心とする自然言語処理の研究に従事.電子情報通信学会,情報処理学会,各会員.}\bioauthor{横尾昭男}{1980年電気通信大学電気通信学部電子計算機学科卒業.1982年同大学院電子計算機学専攻修士課程終了.同年日本電信電話公社に入社.現在,NTTコミュニケーション科学研究所勤務.この間,自然言語処理の研究に従事.現在,日英機械翻訳システムにおける日英構造変換処理や翻訳辞書の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,ACL,各会員.}\bioauthor{FrancisBond}{FrancisBondreceivedaB.A.inJapaneseandmathematicsfromtheUniversityofQueenslandin1988followedbyaB.Enginelectricalsystemsengineeringin1990.HejoinedNTTin1991andiscurrentlyresearchingmachinetranslationintheNTTCommunicationScienceLaboratories.HeisamemberofALS,IEEE,IPSJandNLP.}\bioauthor{小見佳恵}{1977年鶴見大学文学部日本文学科卒業.1988年NTT技術移転株式会社(現・NTTアドバンステクノロジ株式会社)入社.現在,情報技術部担当課長.日英機械翻訳システムを中心に自然言語処理における言語データベースの構築,言語現象の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N03-04
|
\section{はじめに}
本研究では眼球運動に基づき文の読み時間を推定し,ヒトの文処理機構の解明を目指すとともに,工学的な応用として文の読みやすさのモデル構築を行う.対象言語は日本語とする.データとして\ref{subsec:bccwj-eyetrack}節に示す『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}を用いる.\ref{subsec:prev}節に示す通り,過去の研究は統語・意味・談話レベルのアノテーションを重ね合わせることにより,コーパス中に出現する言語現象と読み時間の相関について検討してきた.一方,Haleは,\modified{言語構造の頻度(Structuralfrequency)}が文処理過程に影響を与えると言及し,漸進的な文処理の困難さについて情報量基準に基づいたモデルをサプライザル\modified{理論}(SurprisalTheory)として定式化している\cite{Hale-2001}.このサプライザル\modified{理論}に基づく日本語の読み時間の分析が求められている.しかしながら,日本語においては,心理言語学で行われる読み時間を評価する単位と,コーパス言語学で行われる頻度を計数する単位に齟齬があり,この分析を難しくしていた.具体的には,前者においては一般的に統語的な基本単位である文節が用いられるが,後者においては斉一な単位である短い語(国語研短単位など)が用いられる.この齟齬を吸収するために,単語埋め込み\cite{Mikolov-2013a}の利用を提案する.単語埋め込みは前後文脈に基づき構成することにより,単語の置き換え可能性を低次元の実数値ベクトル表現によりモデル化する.このうちskip-gramモデルは加法構成性を持つと言われ\footnote{\modified{原論文\cite{Mikolov-2013b}5節AdditiveCompositionalityを参照.}},句を構成する単語のベクトルの線形和が,句の置き換え可能性をモデル化できる\cite{Mikolov-2013b}.日本語の単語埋め込みとして,『国語研日本語ウェブコーパス』(NWJC)\cite{Asahara-2014}からfastText\cite{fastText}により構成したNWJC2vec\cite{nwjc2vec}を用いた.ベイジアン線形混合モデル\cite{Sorensen-2016}に基づく統計分析\footnote{\modified{本研究では,複雑な要因分析の際にモデルの収束が容易なベイズ主義的な統計分析を行う.頻度主義的な統計分析を用いない理由については,『言語研究』論文\cite{Asahara-2019d}の付録を参照されたい.}}の結果,skip-gramモデルに基づく単語埋め込みのノルムと隣接文節間のコサイン類似度が,読み時間を予測する因子となりうることが分かった.前者のノルムが\modified{読み時間を長くする文節の何らかの特性}を,後者の隣接文節間のコサイン類似度が隣接\modified{尤度}をモデル化すると考える.\modified{「隣接尤度」は文節のbigram隣接尤度のようなものを想定する.}以下,\ref{sec:related}節に前提となる関連情報について示す.\ref{sec:method}節に分析手法について示す.4節に結果と考察について示し,5節でまとめと今後の展開を示す.
\section{前提}
\label{sec:related}\subsection{BCCWJ-EyeTrack}\label{subsec:bccwj-eyetrack}BCCWJ-EyeTrack\cite{Asahara-2019d}は,BCCWJの新聞記事サンプル20記事に対して,日本語母語話者24人分(女性19人,未回答1人,男性4人;20--55歳)の読み時間を収集して,データベース化したものである.自己ペース読文法(SELF:Self-PacedReading)と視線走査法に基づく文節単位の5種類の読み時間(FFT:FirstFixationTime,FPT:FirstPassTime,SPT:SecondPassTime,RPT:RegressionPathTime,Total:TotalTime)が視線停留オフセット値に基づいて算出されている.\modified{自己ペース読文法は,実験協力者がスペースキーを押しながら1文節ずつ読む方法で,スペースキーを押す時間間隔が当該文節を読む時間として計測される.基本的に後戻りして読むことはできない.視線走査法は,視線走査装置を用いて眼球運動を計測することにより,視線停留時間から読み時間を直接評価する手法である.}図\ref{fig:eyetrack}に読み時間のタイプの集計例を示す.\begin{figure}[b]\begin{center}\includegraphics{26-3ia4f1.eps}\end{center}\caption{視線走査データの読み時間のタイプの集計例}\label{fig:eyetrack}\end{figure}表\ref{tbl:data}にBCCWJ-EyeTrackのデータ形式について示す.{\ttsurface}は単語の表層形である.読み時間(i.e.,{\tttime})は対数に変換したデータ(i.e.,{\ttlogtime})も保持し,一般化線形混合モデル用に用いられる.{\ttmeasure}は読み時間のタイプ\{SELF,FFT,FPT,RPT,SPT,TOTAL\}を表す.{\ttsample,article,metadata\_orig,metadata}は記事に関連する情報である.{\ttspace}は文節境界に半角空白を入れたか否かを示す.{\ttlength}は表層形の文字数である.{\ttis\_first,is\_last,is\_second\_last}はレイアウトに関する特徴量である.{\ttsessionN,articleN,screenN,lineN,segmentN}は要素の呈示順に関する特徴量である.{\ttsubj}は被験者のIDで統計処理においてランダム要因として用いる.{\ttdependent}は当該文節に係る文節の数を人手で付与したもの\cite{Asahara-2016b}である.\begin{table}[t]\caption{BCCWJ-EyeTrackのデータ形式}\label{tbl:data}\input{04table01.tex}\end{table}また,被験者が記事をきちんと読んでいるか確認するために,各記事を読んだ後に,Yes/Noで解答できる簡単な内容理解課題を課した.視線走査法の内容理解課題の正解率は99.2\%(238/240)で,自己ペース読文法の内容理解課題の正解率77.9\%(187/240)より有意に高かった(p$<$0.001)\footnote{\modified{自己ペース読文法は,読み戻しができないために正解率が低くなったと考える.}}.\subsection{サプライザル}\label{subsec:surprisal}\citeA{Hale-2001}は文脈中に出現する言語的な事象$x$(音韻的特徴・単語・発話)が伝達する情報を次式によりはかることができ,これを\modified{サプライザル(surprisal)\footnote{\modified{以下,サプライザル理論一般を表す場合にカタカナ表記で,個々の式を表す場合にアルファベット表記を用いる.}}}と呼んだ:\[{\ttSurprisal}(x)=\log_{2}\frac{1}{P(x|{\ttcontext})}\]Surprisalは$x$の(文脈{\ttcontext}による条件付き)確率が低い場合に大きい値をとり,確率が高い場合に小さい値をとる.さらに単語を処理する認識努力(cognitiveeffort)はそのsurprisalに比例するとしている:\[{\ttEffort}\propto{\ttSurprisal}\]Surprisalは前方部分単語列に基づいて選好されるparse木を再考するコストと\pagebreakともに後方部分単語列を期待しうるか否かの困難さをモデル化する.Surprisalは,確率的言語モデルに基づくもの\footnote{確率的言語モデル:${\ttSurprisal}_{k+1}=-\log_{2}P(w_{k+1}|w_{1}\ldotsw_{k})$}・N-gramSurprisal\footnote{N-gram:${\ttSurprisal}_{w_{k+1}}=-\log_{2}P(w_{k+1}|w_{k-2},w_{k-1},w_{k})$}・Parser(PCFG)Surprisal\footnote{PCFG:${\ttSurprisal}_{n}=-\log_{2}P(T{i},w_{i}|T_{1}\ldotsT_{i-1},w_{1}\ldotsw_{i-1})$}などがあり,\citeA{Hale-2001}はEarley法に基づくParserSurprisalを提案した.\citeA{Levy-2008}は,前方部分単語列に対する可能なparse木の確率分布を反映するKLダイバージェンスに基づくsurprisal\footnote{KLダイバージェンス:${\ttSurprisal}_{k+1}=D(P_{k+1}||P_{k})=-\logP(w_{k+1}|w_{1}\ldotsw_{k})$}を提案した.またPynteらはLatentSemanticAnalysis(LSA)\cite{Landauer-1997}による分散表現を用いたsemanticsurprisal\cite{Pynte-2008}を提案し,英語の視線走査データであるDundeeCorpusのモデル化を行っている.具体的には,300次元のLSAモデルを用いて,\modified{wLSA\footnote{\modified{wordlevelLSA}}}-basedsurprisal(前隣接単語と注目単語との意味的類似度)と\modified{sLSA\footnote{\modified{sentencelevelLSA}}}-basedsurprisal(従前に出現する前隣接単語以外の単語と注目単語の意味的類似度)について一般化線形混合モデルにより調査した.wLSA-basedsurprisalは読み時間を予測する効果が確認されたが,sLSA-basedsurprisalには効果が確認できなかった.Mitchellらは,LatentDirechretAllocation(LDA)\cite{Blei-2003,Griffiths-2007}による分散表現を用いたLDA-basedsurprisalを提案した\cite{Mitchell-2010}.\subsection{単語埋め込みとNWJC2vec}\label{subsec:nwjc2vec}単語埋め込み\cite{Mikolov-2013a}\modified{は}単語を数百次元のベクトルで表現する技術である.従来はその単語か否かを表すone-hot表現が用いられていたため,大規模語彙を表現するために高次元ベクトルになっていた.学習の際のモデルとして,文脈から単語を推定するCBOWモデルと単語から文脈を推定するskip-gramモデルが提案されている.単語埋め込みにより,単語の入れ替え可能性を低次元のベクトルで表現できるようになったほか,skip-gramモデルには加法構成性と呼ばれる句を構成する語ベクトルの和が,句ベクトルとして利用できるという良い性質を持つ.本研究ではこの性質を,日本語における語を計数する単位と読み時間を評価する単位の齟齬の吸収に用いる.NWJC2vec\cite{nwjc2vec}はNWJC258億語から訓練した日本語の単語埋め込みデータである.fastText\cite{fastText}を用いて訓練した300次元のCBOWおよびskip-gramモデル\footnote{CBOWかskip-gramか以外のオプションは次の通り:{\tt-size300-window8-negative25-hs0-sample1e-4-iter15}}を用いる.この学習した単語ベクトルを用いて,視線走査データの集計単位である文節単位のベクトルを合成する.合成には線形和を用いた.\subsection{BCCWJ-EyeTrackの過去の分析}\label{subsec:prev}BCCWJ-EyeTrackに対して,統語・意味・談話レベルのアノテーションを重ね合わせて,様々な言語現象に対してヒトがどのような反応をするのかについて検討を進めてきた.\citeA{Asahara-2017a}は被験者属性を対象とし,記憶力がある群は読む速度が速いが全読み時間は記憶力がない群と変わらないこと,語彙力がある群が読み時間が長いことを明らかにした.浅原ら\citeyear{Asahara-2019d}は文節係り受けアノテーションBCCWJ-DepPara\cite{Asahara-2016b}と対照比較を行い,係り受けの数が多い文節ほど読み時間が短くなることを明らかにした.\citeA{Asahara-2018a}は節情報アノテーションBCCWJ-ToriClause\cite{Matsumoto-2018}と対照比較を行い,節末の読み時間が短いことを明らかにした.\citeA{Asahara-2017b}は分類語彙表番号アノテーションBCCWJ-WLSP\cite{Kato-2018}と対照比較を行い,統語分類の「用の類」$<$「相の類」$<$「体の類」の順で読み時間が長くなる傾向と,意味分類の「関係」が他の分類(「主体」「活動」「生産物」「自然物」)と比べて読み時間が短くなる傾向を明らかにした.\citeA{Asahara-2017c}は情報構造アノテーションBCCWJ-Infostr\cite{Miyauchi-2018}と対照比較を行い,共有性において旧情報(hearer-old)が新情報(hearer-new)よりも読み時間が短いことを明らかにした.\citeA{Asahara-2018b}は述語項構造・共参照情報アノテーションBCCWJ-PAS\cite{Ueda-2015,Asahara-2016c}と対照比較を行い,主語がゼロ代名詞の際に外界照応として二人称を指す場合の述語において,SPTが短くなることを明らかにした.これらの分析には,サンプルと被験者をランダム要因とし,アノテーションを固定要因とした対数時間に対する一般化線形混合モデルかベイジアン線形混合モデル\cite{Sorensen-2016}に基づく方法を用いている.
\section{分析手法}
\label{sec:method}分析においては,いくつかの要因に基づく線形式に基づいて,読み時間をベイジアン線形混合モデル\cite{Sorensen-2016}により推定し,その係数を見ることにより進める.図\ref{fig:formula}に推定に用いた線形式を示す.分析は,分散表現のノルムと隣接文節類似度に基づくもの($\mu_{\ttwv}$),頻度情報に基づく当該文節の出現確率のみに基づくもの($\mu_{\ttfreq}$),両方を用いたもの\modified{に}基づくもの($\mu_{\ttall}$)を対比する.分散表現は\ref{subsec:nwjc2vec}節に示したfastTextに基づくNWJC2vec300次元のものを用い,CBOWモデルとskip-gramモデルの両方を比較した.対象とする読み時間は,読み戻しが可能な視線走査法のFFT,FPT,RPT,TOTALとする.SPTについては,\modified{付録}\ref{sec:spt}節に述べる.\begin{figure}[t]\begin{center}\includegraphics{26-3ia4f2.eps}\end{center}\caption{推定に用いた線形式}\label{fig:formula}\end{figure}まず読み時間{\tttime}を対数正規分布lognormalによりモデル化し,期待値を$\mu_{\tt*}$,分散を$\sigma$とする.式において$\mu_{\ttbase}$は基本的な要因を表し,$\alpha$を切片とする.$\beta^{\ttlength}$は文節の文字数に対する係数,$\beta^{\ttspace}$は文節間に半角空白を入れたか否かの係数である.$\beta^{\ttsessionN}$,$\beta^{\ttarticleN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,\linebreak$\beta^{\ttsegmentN}$が呈示順に対する係数,$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$がレイアウト情報に対する係数である.その他,記事に対するランダム係数として$\gamma^{{\ttarticle}=a(x)}$を,\modified{実験協力者}に対するランダム係数として$\gamma^{{\ttsubj}=s(x)}$を考慮する.\modified{このランダム係数により記事間の揺れと実験協力者間の揺れを,それぞれ$\sigma_{article}$,$\sigma_{subj}$を標準偏差とする正規分布によりモデル化することにより吸収する.}$\beta^{\ttdependent}$は当該文節に係る文節の数に対する係数である.先行研究においては,PCFGの部分木により統語構造に基づく効果をモデル化していた.日本語においては,比較的語順が自由な言語であるために句構造木ではなく,文節係り受け木により評価する.日本語は主辞後置言語であり,当該文節に係る文節は基本的に全て前置することから,この係数によって実質的に統語構造に基づく効果がモデル化できると考える\footnote{\modified{詳細については『言語研究』論文\cite{Asahara-2019d}の付録を参照されたい.}}.単語ベクトルから構成した文節ベクトルの情報の二つの情報を用いる.一つは当該文節ベクトルのノルム${\ttwv\_norm}(x)$である.もう一つは当該文節ベクトルと左隣接ベクトルのコサイン類似度${\ttwv\_sim}(x)$である.この上で,単語埋め込みを考慮した期待値として\modified{$\mu_{\ttwv\_all}$}を検討する.$\beta^{\ttwm\_norm}$は単語埋め込みに基づく文節ベクトルのノルムに対する係数,$\beta^{\ttwm\_sim}$は単語埋め込みに基づく左隣接文節とのコサイン\modified{類似度}に対する係数であり,これを評価する.分散表現のモデルとして,CBOWとskip-gramの二つを評価する.\modified{また,比較のためにノルムのみのもの$\mu_{\ttwv\_norm}$とコサイン類似度のみのもの$\mu_{\ttwv\_sim}$も評価する.}比較対照として,単語の頻度を考慮した期待値として$\mu_{\ttfreq}$を検討する.$\beta^{\ttfreq\_ave}$は文節内頻度に対する係数である.単語の頻度に基づく手法については,文節間の連接\modified{尤度}を考慮しない.文節内頻度は文節内の単語の頻度の相乗平均を評価する\footnote{\modified{頻度を確率値とした場合に連接単語数で正規化した対数線形モデルに相当し,Surprisalの式と親和性が良いと考える.}}.相乗平均を評価する際にゼロ頻度は1を乗じた.なお,相加平均でも評価したがモデルが収束しなかった.最後に,単語埋め込みと単語の頻度の両方を考慮した$\mu_{\ttall}$を検討する.分析においては,\modified{RStan}\footnote{\modified{https://mc-stan.org/users/interfaces/rstan}}を用いた.500iterのwarmupのあと,5000iterを4chains行った.\begin{table}[b]\caption{分析結果(概要)}\label{tbl:result}\input{04table02.tex}\end{table}
\section{結果と考察}
\label{sec:result}表\ref{tbl:result}に各モデルの分析結果を示す.詳細な結果については,\modified{付録}\ref{sec:detailed}節に示す.推定されるmeanが0.00から$\pm2$SD以上の差があるものに+もしくは$-$を付与する.0はmeanが$\pm2$SD以内のものである.+はその値が大きければ,読み時間が長くなることを示す.$-$はその値が大きければ,読み時間が短くなることを示す.まず,いずれの結果も\modified{($\beta_{\ttdependent}$)}で係り受けが多ければ多いほど,読み時間が短くなった\footnote{\modified{先行文脈が統語的な関係を持ち,予測に効くために読み時間が短くなる\cite{Levy-2008}.}}.つまり,次に述べる結果は係り受けの効果を確認したうえでの付加的な効果である.単語埋め込みに基づくモデル\modified{($\mu_{\ttwv\_all}$)}においては,隣接文節間類似度が大きければ大きいほど読み時間が短くなる傾向が見られた($\beta_{\ttwm\_sim}$).skip-gramモデルにおいては,ベクトルのノルムが大きければ大きいほど読み時間が長くなる傾向が見られた($\beta_{\ttwm\_norm}$).この傾向はCBOWには見られなかった.\modified{また,ノルムと類似度を個別にモデル化したもの($\mu_{\ttwv\_norm}$,$\mu_{\ttwv\_sim}$)でも同じ傾向がみられた.}次に,頻度の相乗平均に基づくモデル($\mu_{\ttfreq}$)においては,高頻度のものが読み時間が短くなる傾向がみられた.単語埋め込みと頻度の双方を考慮したモデル($\mu_{\ttall}$)では,skip-gramのFFT以外において,両者を個別にモデル化したものを合成したような結果が得られた.以下,結果について考察する.まず,文節間の隣接\modified{尤度}ついては,\modified{隣接文節間類似度に関する係数$\beta_{\ttwm\_sim}$で確認できる.類似度が大きいほど読み時間が短くなることにより,隣接\modified{尤度}による予測が効くことが考えられる.つまり,}wLSA-basedsurprisal\cite{Pynte-2008}やLDA-basedsurprisal\cite{Mitchell-2010}\modified{などの既存のsemanticsurprisal}と同様に,fastTextによる単語埋め込みに基づくモデルでもモデル化できることが確認された.単語の頻度情報からは文節単位の隣接尤度の推定が困難であった.\modified{skip-gramの}加法構成性に基づき構成した文節単位のベクトルのコサイン類似度が,適切に隣接尤度をモデル化できた.\modified{一方,CBOWについては加法構成性をもつか否かについては管見の限り報告されていない.本稿の結果,読み時間の推定においてCBOWはskip-gramほどの明確な加法構成性が認められないことが示唆される.}文節内の単語の頻度の相乗平均は,その文節の生起確率を表す.確率が高ければ高いほど読み時間が短くなることが適切にモデル化できている.これは文節単位のunigramsurprisalを適切にモデル化できていると考える.skip-gramのFFT以外においては,このunigramsurprisalと異なる文節単位の特徴として,単語埋め込みのノルムの効果が認められた\modified{.}単語埋め込みのノルム\modified{($\beta_{\ttwm\_norm}$)}は,他の単語の\modified{特徴}を表現していると考えられる.\modified{Schakelらは,単語埋め込みのノルムが,単語の頻度と同様に単語の重要度(wordsignificance)を表している\cite{Schakel-2015}とし,Luhn\citeyear{Luhn-1958}らの議論を引用しながら語の共起に関連する何らかの尺度を示していることを議論している.我々はこのノルムが文節間の何らかの\modified{特性}を表していると考える.}\modified{加法構成性に基づき文節単位のベクトルを構成することにより,ノルムが大きければ大きいほど予測が難しく,読み時間が長い傾向が確認できた.skip-gramのノルムの大きなものの例を見ると,数値表現\footnote{数値表現例:「2262億ドルで」「9975億1300万円と」}・長い付属語連接\footnote{長い付属語連接例:「掲載させていただくことがあります。」「持たせてくれるんですよね」}・長い複合語\footnote{長い複合語例:「クラーク元北大西洋条約機構(NATO)欧州連合軍最高司令官が、」「「21世紀COE(センター・オブ・エクセレンス)プログラム」に」「農畜産業振興事業団(現農畜産業振興機構)から、」}が見られた.数値表現や付属語連接は,一般的に構成要素の頻度が高くなり,頻度の相乗平均の効果($\beta_{\ttfreq\_ave}$)のみの場合は読みやすいと判定されるが,この部分の読みにくさがモデル化されているのではないかと考える.}\modified{文脈から単語を推定するCBOWモデルではこの傾向が見られなかった.skip-gramにおいてはその加法構成性を持つことが解説されている\cite{Mikolov-2013b}が,CBOWに関してはそのモデル化の方向性のためか加法構成性について議論がされていない.本研究結果でもCBOWの線形和に基づくノルムに対する読み時間の効果は確認できなかった.}いずれの結果も係り受けの効果とともに表れていることから,\modified{先行研究で示されている効果と従属性が低い特徴量}が発見できたといえる.
\section{おわりに}
本研究では,日本語の読み時間の推定のために単語埋め込みを用いることを提案した.英語などで進められているsurprisalの分析において,単語の頻度に基づく確率が用いられている.しかしながら,日本語においては頻度を計数する単位と読み時間を評価する単位との齟齬があり,この分析を難しくしていた.今回skip-gramの単語埋め込みを用いて,ベクトルの線形和により文節ベクトルを構成することにより,この問題を解決した.文節ベクトルのノルムが当該文節の\modified{頻度とは異なる何らかの特性}をモデル化し,ノルムが大きければ大きいほど読み時間が長くなることを確認した.さらにこれらの結果は統語的なモデルとともに導入されるものであり,新しいsurprisalを発見したといえる.また,先行研究と同様に,左隣接文節のベクトルと当該文節ベクトルのコサイン類似度が,\modified{読み時間}を適切にモデル化できることを確認した.\modified{今回,この文節ベクトルのノルムが読み時間に影響を与える何らかの特性を持っていることを経験的に発見したが,数学的に言語学的に何であるのかについての理論的検証については今後の課題としたい.}工学的な応用として重要な点として,これらの単語埋め込みに関する情報は形態素解析器などで単語単位に割り当て可能であり,線形和やコサイン類似度など比較的軽い演算で計算できる.今回用いた統計モデル\modified{は}線形式であることから,\modified{任意の日本語文章に対して簡単に読み時間の推定が計算できる.これまでのBCCWJ-EyeTrackの分析は,高度な統語・意味・談話情報アノテーションに基づくものであり,読み時間のモデル化については,人手によりアノテーションを行う必要があった.}本研究で提案する単語埋め込みに基づくモデルは,NWJC2vecに収録されている語で構成される文章であれば,人間が解釈しやすい線形式で読み時間を与えることができる.本モデルを用いて,読み時間に基づく文章の読みやすさの自動評価ができると考える.\acknowledgment本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費基盤研究(A)17H00917,挑戦的研究(萌芽)18K18519,新学術領域研究18H05521の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara}{Asahara}{2018a}]{Asahara-2018b}Asahara,M.\BBOP2018a\BBCP.\newblock\BBOQBetweenReadingTimeandZeroExophorainJapanese.\BBCQ\\newblockIn{\BemREAD2018:InternationalInterdisciplinarySymposiumonReadingExperience\&AnalysisofDocuments},\mbox{\BPGS\34--36}.\bibitem[\protect\BCAY{Asahara}{Asahara}{2018b}]{nwjc2vec}Asahara,M.\BBOP2018b\BBCP.\newblock\BBOQNWJC2Vec:Wordembeddingdatasetfrom`NINJALWebJapaneseCorpus'.\BBCQ\\newblock{\BemTerminology:InternationalJournalofTheoreticalandAppliedIssuesinSpecializedCommunication},{\Bbf24}(2),\mbox{\BPGS\7--25}.\bibitem[\protect\BCAY{浅原}{浅原}{2018}]{Asahara-2017c}浅原正幸\BBOP2018\BBCP.\newblock名詞句の情報の状態と読み時間について.\\newblock\Jem{自然言語処理},{\Bbf25}(5),\mbox{\BPGS\527--554}.\bibitem[\protect\BCAY{浅原}{浅原}{2019}]{Asahara-2018a}浅原正幸\BBOP2019\BBCP.\newblock日本語の読み時間と節境界情報—主辞後置言語におけるwrap-upeffectの検証.\\newblock\Jem{自然言語処理},{\Bbf26}(2),\mbox{\BPGS\301--328}.\bibitem[\protect\BCAY{浅原\JBA加藤}{浅原\JBA加藤}{2019}]{Asahara-2017b}浅原正幸\JBA加藤祥\BBOP2019\BBCP.\newblock読み時間と統語・意味分類.\\newblock\Jem{認知科学},{\Bbf26}(2),\mbox{\BPGS\219--230}.\bibitem[\protect\BCAY{Asahara,Maekawa,Imada,Kato,\BBA\Konishi}{Asaharaet~al.}{2014}]{Asahara-2014}Asahara,M.,Maekawa,K.,Imada,M.,Kato,S.,\BBA\Konishi,H.\BBOP2014\BBCP.\newblock\BBOQArchivingandAnalysingTechniquesoftheUltra-large-scaleWeb-basedCorpusProjectofNINJAL,Japan.\BBCQ\\newblock{\BemAlexandria:TheJournalofNationalandInternationalLibraryandInformationIssues},{\Bbf25}(1--2),\mbox{\BPGS\129--148}.\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2018}]{Asahara-2016b}浅原正幸\JBA松本裕治\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造.\\newblock\Jem{自然言語処理},{\Bbf25}(4),\mbox{\BPGS\331--356}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2017}]{Asahara-2017a}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の読み時間とその被験者属性.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\473--476}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2019}]{Asahara-2019d}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2019\BBCP.\newblockBCCWJ-EyeTrack『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析.\\newblock\Jem{言語研究},{\Bbf156},\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{浅原\JBA大村}{浅原\JBA大村}{2016}]{Asahara-2016c}浅原正幸\JBA大村舞\BBOP2016\BBCP.\newblockBCCWJ-DepParaPAS:『現代日本語書き言葉均衡コーパス』の係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\489--492}.\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{Blei-2003}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQLatentDirichletAllocation.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Bojanowski,Grave,Joulin,\BBA\Mikolov}{Bojanowskiet~al.}{2017}]{fastText}Bojanowski,P.,Grave,E.,Joulin,A.,\BBA\Mikolov,T.\BBOP2017\BBCP.\newblock\BBOQEnrichingWordVectorswithSubwordInformation.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\135--146}.\bibitem[\protect\BCAY{Griffiths,Steyvers,\BBA\Tanenbaum}{Griffithset~al.}{2007}]{Griffiths-2007}Griffiths,T.~L.,Steyvers,M.,\BBA\Tanenbaum,J.~B.\BBOP2007\BBCP.\newblock\BBOQTopicsinSemanticRepresentation.\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf114}(2),\mbox{\BPGS\211--244}.\bibitem[\protect\BCAY{Hale}{Hale}{2001}]{Hale-2001}Hale,J.\BBOP2001\BBCP.\newblock\BBOQAProbabilisticEarleyParserasaPsycholinguisticModel.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\lowercase{\BVOL}~2,\mbox{\BPGS\159--166}.\bibitem[\protect\BCAY{加藤\JBA浅原\JBA山崎}{加藤\Jetal}{2019}]{Kato-2018}加藤祥\JBA浅原正幸\JBA山崎誠\BBOP2019\BBCP.\newblock分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の書籍・新聞・雑誌データ.\\newblock\Jem{日本語の研究},{\Bbf15}(2),\mbox{\BPGS\134--141}.\bibitem[\protect\BCAY{Landauer\BBA\Dumais}{Landauer\BBA\Dumais}{1997}]{Landauer-1997}Landauer,T.~K.\BBACOMMA\\BBA\Dumais,S.~T.\BBOP1997\BBCP.\newblock\BBOQASolutiontoPlato'sproblem:TheLatentSemanticAnalysisTheoryofAcquisition,InductionandRepresentationofKnowledge.\BBCQ\\newblock{\BemPsyochologicalReview},{\Bbf104}(2),\mbox{\BPGS\211--240}.\bibitem[\protect\BCAY{Levy}{Levy}{2008}]{Levy-2008}Levy,R.\BBOP2008\BBCP.\newblock\BBOQExpectation-basedSyntacticComprehension.\BBCQ\\newblock{\BemCognition},{\Bbf106},\mbox{\BPGS\1126--1177}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1958}]{Luhn-1958}Luhn,H.~P.\BBOP1958\BBCP.\newblock\BBOQTheAutomaticCreationofLiteratureAbstracts.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf2}(2),\mbox{\BPGS\159--165}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{Matsumoto-2018}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponAsianLanguageResources(ALR12)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{Mikolov-2013a}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemInternationalConferenceonLearningRepresentations,{\upshape\textbf{abs/1301.3781}}}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{Mikolov-2013b}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mitchell,Lapata,Demberg,\BBA\Keller}{Mitchellet~al.}{2010}]{Mitchell-2010}Mitchell,J.,Lapata,M.,Demberg,V.,\BBA\Keller,F.\BBOP2010\BBCP.\newblock\BBOQSyntacticandSemanticFactorsinProcessingDifficulty:AnIntegratedMeasure.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\196--206}.\bibitem[\protect\BCAY{宮内\JBA浅原\JBA中川\JBA加藤}{宮内\Jetal}{2018}]{Miyauchi-2018}宮内拓也\JBA浅原正幸\JBA中川奈津子\JBA加藤祥\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』への情報構造アノテーションとその分析.\\newblock\Jem{国立国語研究所論集},{\Bbf16},\mbox{\BPGS\19--33}.\bibitem[\protect\BCAY{Patterson\BBA\Drummer}{Patterson\BBA\Drummer}{2016}]{Patterson-2016}Patterson,C.\BBACOMMA\\BBA\Drummer,J.\BBOP2016\BBCP.\newblock\BBOQEyeTracking--Focus:EyetrackingDuringReading.\BBCQ\\newblockLinguistischerMethodenworkshop(HUBerlin).\bibitem[\protect\BCAY{Pynte,New,\BBA\Kennedy}{Pynteet~al.}{2008}]{Pynte-2008}Pynte,J.,New,B.,\BBA\Kennedy,A.\BBOP2008\BBCP.\newblock\BBOQOn-lineContextualInfluencesDuringReadingNormalText:AMultiple-regressionAnalysis.\BBCQ\\newblock{\BemVisionResearch},{\Bbf48},\mbox{\BPGS\2172--2183}.\bibitem[\protect\BCAY{Schakel\BBA\Wilson}{Schakel\BBA\Wilson}{2015}]{Schakel-2015}Schakel,A.M.~J.\BBACOMMA\\BBA\Wilson,B.~J.\BBOP2015\BBCP.\newblock\BBOQMeasuringWordSignificanceusingDistributedRepresentationsofWords.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1508.02297}.\bibitem[\protect\BCAY{Sorensen,Hohenstein,\BBA\Vasishth}{Sorensenet~al.}{2016}]{Sorensen-2016}Sorensen,T.,Hohenstein,S.,\BBA\Vasishth,S.\BBOP2016\BBCP.\newblock\BBOQBayesianLinearMixedModelsUsingStan:ATutorialforPsychologists,Linguists,andCognitiveScientists.\BBCQ\\newblock{\BemQuantitativeMethodsforPsychology},{\Bbf12},\mbox{\BPGS\175--200}.\bibitem[\protect\BCAY{植田\JBA飯田\JBA浅原\JBA松本\JBA徳永}{植田\Jetal}{2015}]{Ueda-2015}植田禎子\JBA飯田龍\JBA浅原正幸\JBA松本裕治\JBA徳永健伸\BBOP2015\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する述語項構造・共参照関係アノテーション.\\newblock\Jem{第8回コーパス日本語学ワークショップ予稿集},\mbox{\BPGS\205--214}.\bibitem[\protect\BCAY{Vasishth\BBA\Drenhaus}{Vasishth\BBA\Drenhaus}{2011}]{vasishth2011locality}Vasishth,S.\BBACOMMA\\BBA\Drenhaus,H.\BBOP2011\BBCP.\newblock\BBOQLocalityinGerman.\BBCQ\\newblock{\BemDialogue\&Discourse},{\Bbf2}(1),\mbox{\BPGS\59--82}.\end{thebibliography}\appendix
\section{分析結果(詳細)}
\label{sec:detailed}本節では,skip-gramの最大モデル($\mu_{all}$)の結果の詳細について示す.Rhatが収束判定指標でchain数3以上ですべての値が1.1以下を収束とみなす.本研究では全ての設定でchain数4とした.n\_effが有効サンプル数,meanがサンプルの期待値(事後平均),sdがMCMC標準偏差(事後標準偏差),se\_meanが標準誤差で,MCMCのサンプルの分散をn\_effで割った値の平方根を表す.\modified{なお,表中$\sigma$が対数正規分布の標準偏差,$\sigma_{article}$が記事に対するランダム係数をモデル化する分布の標準偏差,$\sigma_{subj}$が実験協力者に対するランダム係数をモデル化する分布の標準偏差を表す.}\subsection{分析結果:FFTskip-gram}表\ref{tbl:fft}にFFTskip-gramの最大モデル($\mu_{all}$)の結果を示す.FFTは文節内の最初の停留の注視時間を評価する.\modified{1回の停留のみの評価のために,文節の長さが長い場合(文節内に複数回視線が停留する場合)に,その2回目以降の停留は加算されない.このため短い文節でかつ文処理負荷が高い文節で長くなる傾向がある.}このため文節長の効果($\beta_{\ttlength}$)や文節間に空白を入れるか否かの効果($\beta_{\ttspace}$)が確認されなかった.呈示順($\beta_{\ttsessionN}$,$\beta_{\ttarticleN}$,$\beta_{\ttscreenN}$,$\beta_{\ttlineN}$,$\beta_{\ttsegmentN}$)・レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)に関しては,行呈示順($\beta_{\ttlineN}$)で読み時間が短くなる傾向が,文節呈示順($\beta_{\ttsegmentN}$)で読み時間が長くなる傾向が,行内最右要素($\beta_{\ttis\_last}$)で読み時間が短くなる傾向が見られた.\begin{table}[t]\caption{分析結果:FFTskip-gram($\mu_{all}$)}\label{tbl:fft}\input{04table03.tex}\end{table}係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという弱い効果がみられる.\modified{ベクトルのノルムは,長い文節ほど大きくなる傾向があるために,1回の停留のみの評価では強い効果が出なかったのではないかと考える.}隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.\subsection{FPTskip-gram}表\ref{tbl:fpt}にFPTskip-gramの最大モデル($\mu_{all}$)の結果を示す.FPTは文節内に初めて視線が停留し,その後文節から出るまでの総注視時間である.出る方向は右方向でも左方向でも構わない.\modified{一般に,予想と異なる文節とは異なるものが出てきた場合(expectation-based),短期記憶の負荷がかかる文節が出てきた場合(memory-based)に値が大きくなるとされている.}文節長の効果($\beta_{\ttlength}$)は視線停留対象の面積に相当するために,正方向に効果が出る.また,レジビリティの観点である文節間に空白を入れるか否かの効果($\beta_{\ttspace}$)ついては,空白を入れたほうが読み時間が短くなることが確認された.呈示順($\beta_{\ttsessionN}$,$\beta_{\ttarticleN}$,$\beta_{\ttscreenN}$,$\beta_{\ttlineN}$,$\beta_{\ttsegmentN}$)に関しては,記事呈示順以外で実験が進むにつれて読み時間が短くなる.記事呈示順は実験計画として4パターンのみ準備しており,記事に対するランダム効果($\sigma_{\ttarticle}$)に吸収されたと考える.以上の傾向は,RPT,TOTALについても共通してみられる.\begin{table}[t]\caption{分析結果:FPTskip-gram($\mu_{all}$)}\label{tbl:fpt}\input{04table04.tex}\end{table}レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)は,行内最左要素($\beta_{\ttis\_first}$)と右から2番目の要素($\beta_{\ttis\_second\_last}$)で読み時間が長くなる傾向が見られた.これは,注視点の復帰改行の移動の効果だと考える.係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという強い効果がみられる.隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.\subsection{RPTskip-gram}表\ref{tbl:rpt}にRPTskip-gramの最大モデル($\mu_{all}$)の結果を示す.RPTは文節内に初めて視線が停留し,その後文節の右側から出るまでの総注視時間である.左側に抜ける場合は継続して合算する.\modified{当該文節が予想と異なった場合に事前文脈を再確認する時間を評価している.}\begin{table}[t]\caption{分析結果:RPTskip-gram($\mu_{all}$)}\label{tbl:rpt}\input{04table05.tex}\end{table}文節長・空白・呈示順については,FPTと同じ傾向であった.レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)は,行内最右要素($\beta_{\ttis\_last}$)と右から2番目の要素($\beta_{\ttis\_second\_last}$)で読み時間が長くなる傾向が見られた.これは,RPTの読み時間の定義から,最右要素や右から2番目の要素はこれ以上右につきぬけにくいためであろう.係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという強い効果がみられる.隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.\subsection{TOTALskip-gram}表\ref{tbl:total}にTOTALskip-gramの最大モデル($\mu_{all}$)の結果を示す.TOTALは文節内の総注視時間である.\modified{2回目以降の確認作業も含めた読み時間を評価する.}文節長・空白・呈示順については,FPTと同じ傾向であった.\begin{table}[t]\caption{分析結果:TOTALskip-gram($\mu_{all}$)}\label{tbl:total}\input{04table06.tex}\end{table}レイアウト情報($\beta_{\ttis\_first}$,$\beta_{\ttis\_last}$,$\beta_{\ttis\_second\_last}$)は,FPTと同様に,行内最左要素($\beta_{\ttis\_last}$)と右から2番目の要素($\beta_{\ttis\_second\_last}$)で読み時間が長くなる傾向が見られた.係り受けの数が多いほど読み時間が短くなる傾向($\beta_{\ttdependent}$)がみられる.ベクトルのノルム($\beta_{\ttwm\_norm}$)については,ノルムが大きくなればなるほど読み時間が長くなるという強い効果がみられる.隣接要素との類似度($\beta_{\ttwm\_sim}$)や頻度($\beta_{\ttfreq\_ave}$)については,値が大きいほど読み時間が短くなるという強い効果がみられる.
\section{SecondPassTimeについて}
\label{sec:spt}SecondPassTime(SPT)は研究者によって,ゼロ読み時間(読み飛ばし)の扱いが異なり,査読などで議論が対立することが多く,本稿ではSPTの結果を除外した.自己ペース読文法においては,実験協力者は必ずすべての文節を見るために読み飛ばしが発生しない.視線走査法のFFT,FPT,RPT,TOTALにおいては,ゼロ読み時間を考慮しないことが研究コミュニティにおいて共有されている.SPTはゼロ読み時間を扱う研究とゼロ読み時間を扱わない研究があり,BCCWJ-EyeTrackでは後者の扱いをとっている.著者らが考える理由は三つある.一つ目はTOTALとFPTの関係である.SPTにおいてゼロ読み時間をする場合,TOTALにおいてゼロ読み時間の場合を除いて$\text{TOTAL}-\text{FPT}$の値とSPTの値が完全従属する.二つ目は対数正規分布{\ttlognormal}によりモデル化できる点である.対数正規分布は定義域が$0<x<\infty$であり,ゼロ読み時間を評価することができない.しかしながら,正規分布と異なり,サンプリングの際に自然に負の時間を回避できるほか,外れ値の影響が軽減されるというメリットがある.三つ目は,本質的に2回目の読み時間がないということは欠損値であると考え,モデル化する対象から外すことで,0の値を割り当てるというoverspecifiedの問題を回避することができる.Vasishthらは,ゼロ読み時間を扱うものをrereadingtimeと呼び,ゼロ読み時間を扱わないものをSPTとして区別したうえで,SPTを扱うべきとしている\cite{vasishth2011locality}.さらにrereadingtimeについてはUMASSのeyedry\footnote{http://blogs.umass.edu/eyelab/software/}など$\text{rereadingtime}=\text{RPT}-\text{FPT}$としているものもある.Pattersonらは2016年の時点で``controversyoverincluding0whennorereading''\cite{Patterson-2016}とし,この扱いについては,まだ議論が収束していない.なお,SPT分析結果としては,分散表現のノルムのみ(CBOW,skip-gramとも)が効果として確認され,それ以外の効果(単語頻度の幾何平均・隣接文節との類似度)は確認されなかった.\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
| |
V25N01-01
|
\section{はじめに}
人工知能分野の手法や技術を,金融市場における様々な場面に応用することが期待されており,例えば,膨大な金融情報を分析して投資判断の支援を行う技術が注目されている.その一例として,日本銀行が毎月発行している「金融経済月報」や企業の決算短信,経済新聞記事をテキストマイニングの技術を用いて,経済市場を分析する研究などが盛んに行われている\cite{izumi,kitamori,Peramunetilleke,sakai1,sakaji}.日経リサーチでは,各種データを収集し,様々なデータベースを構築している.データ処理にあたっては,たとえばXBRL形式のように値に付与されたタグ等の付加情報を利用し,自動分類によるデータベース化を行っている.しかしデータ分類用付加情報が付与されているデータはまだ少数で,データベース構築の多くは自動分類化がすすんでおらず,人手をかけた作業による分類が大半を占めている.手作業で必要な情報を抽出するには,専門的知識や経験が必要となる.そのような環境の中,「株主招集通知の議案別開始ページの推定」を研究課題として設定した\footnote{株主招集通知から推定するべき情報は人事案件など他にもあり,そのような他テーマへの応用も可能である.}.企業が株主総会を開催する場合,企業は招集の手続きが必要になる.会社法では公開会社である株式会社が株主総会を招集する場合,株主総会の日の二週間前までに,株主に対してその通知を発しなければならないと定めている(会社法第二百九十九条).また,株式会社が取締役会設置会社である場合,その通知は書面で行わなければならない(会社法第二百九十九条第二項).この株主総会に関する書面通知が株主招集通知である.取締役会設置会社においては,定時株主総会の招集の通知に際し,取締役会の承認を受けた計算書類及び事業報告を提供しなければならない,株主総会の目的が役員等の選任,役員等の報酬等,定款の変更等に係る場合,当該事項に係る議案の概要を通知する必要がある等,会社法および株主招集通知にて通知する事項は会社法および会社法施行規則で定められている(会社法第二百九十八条,会社法施行規則第六十三条).一般的な株式公開会社の株主招集通知は,株主総会の日時・場所・目的事項(報告事項・決議事項)が記載される他,参考書類・添付書類として決議事項の議案概要,事業内容等の株式会社の現況に関する事項,株式に関する事項,会社役員に関する事項,会計監査人の状況,計算書類,監査報告書等が記載される.記載内容が法令で定められている株主招集通知だが,有価証券報告書等のように様式が定められておらず,その形式は記載順序や表現方法を含め各社で異なっており,ページ数も数ページのものから100ページを超えるものもある.今回の研究の対象は,株主招集通知に記載されている決議事項に関する議案である.議案については,その記載がどのページにあるか,何の事項の前後に記載されるかは各社各様であり,多様なパターンを識別するには株主招集通知を読み解く経験を積む必要があった.従来は抽出したい議案(「取締役選任」「剰余金処分」などの項目)が報告書のどのページに記載されているか人手により確認し,データを作成していたが,各社で報告書のページ数や議案数が異なるため,確認に時間を要していた.現状は,株主招集通知を紙で印刷するとともに,PDFファイルで取得,人手にてデータベースに収録,校正リストの出力,チェックという流れで収録業務を行っている.ここで,抽出したい議案がその報告書にあるのか,どのページに記載されているのかが自動で推定できれば,時間の短縮やペーパーレス化などの業務の効率化につながる.したがって本研究の目標は,株主招集通知の各ページが議案の開始ページであるかそうでないかを判別し,さらに,開始ページであると判断されたページに記述されている議案が,どのような内容の議案であるかを自動的に分類することである\footnote{上記のようなアプローチを採用した理由は,最初に議案の開始ページを推定することで,議案分類に使用する文書を絞り込むためである.}.株主招集通知の開示集中時期には,短時間に大量の処理を進めるため,臨時的に収録作業者を配置し,データ入力を行う.臨時作業者には,株主招集通知の理解から始まり,収録定義に関する教育時間や練習時間が2日程度必要となる.この教育時間を経て,実際のデータ入力を始めると,慣れるまでは1社あたりのデータベース化に1時間半〜2時間を要し,本研究で対象としている議案分類のみの作業でも,慣れた作業者さえ数分かかる.特に議案など必要なページにたどりつくまでに株主招集通知を一枚一枚めくって探すこと,議案分類について議案タイトルやその詳細から対応する語を見つけ出すことに時間を要している.処理・判断が早くなるには,各社で異なる株主招集通知の構成を見極め,構造の特徴をつかむことが必要になる.しかし,これらの勘をつかむには,およそ1週間程度かかっている.さらに,信頼性の高いデータ収録ができるようになるには,3ヶ月以上を要している.本研究によるシステムによって,これらの構造理解と勘の習得が不要になると共に,議案の開始ページの推定や議案内容が分類されることにより,当該部分の1社あたりにかかる処理時間の短縮が期待される.さらに,理解の十分でない作業者の判断ミスや判断の揺れが減少し,信頼度の高いデータ生成を支えることとなる.その結果,データベース収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることが可能となる.一般的に株主は,株主招集通知に掲載されている議案を確認し,「この議案に賛成もしくは反対」の判断をしている.多数の企業の株式を保有している株主は,これに時間がかかることが推測される.株主招集通知に載っている議案が分類されれば,議案の内容をより早く把握することができ,判断に集中できるようになると考える.ここで,本論文で提案するシステムの全体像について述べる.本論文で提案するシステムは,株主招集通知を入力として,表\ref{sc_miss}に示すような結果を返すシステムである.この結果を得るためには,まず議案が何ページから記載されているのかを推定する必要がある.そして推定したページに対して,議案がいくつ存在し,どの議案分類に分類されるかを自動で行う.\begin{table}[t]\caption{出力結果}\label{sc_miss}\input{01table01.tex}\end{table}本論文の第2章では議案がある開始ページの推定について述べる.第3章から第5章では各議案分類の手法について詳細な内容について述べる.第6章では各手法の評価を適合率,再現率,F値を用いて述べる.第7章では第6章の評価結果を踏まえて考察を述べる.第8章では応用システムについて述べる.第9章では関連研究について述べ,関連研究と本研究の違いについて述べる.\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f1.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例1}\label{expdf1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f2.eps}\end{center}\caption{株主招集通知のテキストデータ変換の例2}\label{expdf2}\end{figure}
\section{議案がある開始ページの推定}
株主招集通知から議案を分類するために,議案が開始するページの推定を行う必要がある.開始ページの推定は,テキスト情報を用いてルールベースで行う.まず,株主招集通知のPDFを$1$ページごとに分割したうえで,テキストデータに変換する.変換にはpdftotext\footnote{http://www.foolabs.com/xpdf/home.html}を用いた.PDFデータをテキストデータに変換するとき,以下の処理を加えて変換を行った.\begin{description}\item[処理1]半角を全角に変換する\item[処理2]空白は除去する\item[処理3]()が含まれる文は括弧ごと除去する\item[処理4]「の件」または「する件」を含んでいる場合,「件」の後に改行を加える\item[処理5]行頭が「第◯号議案」または「議案」と一致する場合,行頭に改行を加える\item[処理6]「。」は改行に置き換える\end{description}上記の処理によってPDFデータは図\ref{expdf1}や図\ref{expdf2}のようなテキストデータに変換される.議案がある開始ページは,以下の条件のもと推定した.ここで,「決議事項」または「目的事項」という表現が含まれているページを\underline{目次ページ}とし,「参考書類」,「議題及び参考事項」または「議題および参考事項」という表現が含まれているページを\underline{参考ページ}とする.\begin{description}\item[条件1]議案がある開始ページは,「議案」または「第$X$号議案」が先頭に含まれるページを対象とする\item[条件2]\underline{目次ページ}は議案がある開始ページの候補から除外する\item[条件3]\underline{参考ページ}から議案に関する記載が始まるため,\underline{参考ページ}以降を対象とする\end{description}議案がある開始ページの推定は上記の条件に関わるページ番号の抽出の他に,議案数の推定とページ数の抽出が必要となる.「第$X$号議案」という語が株主招集通知に含まれている場合,議案数は「$X$」の最大値であると推定できる.「第$X$号議案」という語が株主招集通知に含まれていない場合,議案という語が含まれていれば,議案数は$1$であると推定できる.ページ数の抽出は,PDFデータを$1$ページずつテキストデータ化し,テキストデータが取得できた最後のページ番号をページ数として抽出する.\begin{table}[t]\noindent\begin{minipage}[t]{0.45\textwidth}\caption{抽出された情報1}\label{pre1}\input{01table02.tex}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\caption{抽出された情報2}\label{pre2}\input{01table03.tex}\vspace{1cm}\caption{抽出された情報3}\label{pre3}\input{01table04.tex}\end{minipage}\end{table}これらを踏まえて,変換されたテキストデータから必要な情報を抽出した例を表\ref{pre1},表\ref{pre2},表\ref{pre3}に示す.例えば,図\ref{expdf1}は,株主招集通知のP.~40の例であり,そのページから抽出される議案は「第1号議案」,「第2号議案」となる.これらの情報を基にページの推定を以下の図\ref{flowchart1}のフローチャートに従って行う.\begin{figure}[t]\includegraphics{25-1ia1f3.eps}\caption{議案の開始ページ推定のためのフローチャート}\label{flowchart1}\end{figure}表\ref{pre1}と表\ref{pre3}の例の場合,まず参考ページの最も後ろのページである$42$ページが探索開始ページとなるが,第1号議案が$42$ページ以降に出現しないため,探索開始ページを$40$に更新して行うことで,第1号議案から第8号議案の開始ページの推定に成功する.
\section{提案手法1特徴語による議案分類}
本章では,特徴語による議案分類について説明する.この提案手法は以下のステップで議案の分類を行う.\begin{description}\item[Step1:]議案分類ごとの特徴語の獲得\item[Step2:]議案の分類\end{description}\subsection{議案分類ごとの特徴語の獲得}\subsubsection{特徴語候補の抽出}株主招集通知に出現する議案を分類するために,議案分類ごとの特徴語の抽出をする.例えば,「取締役選任」の特徴語として,「現任取締役」のような語を抽出する.議案分類ごとの特徴語の獲得をするために,株主招集通知における議案別の開始ページとその議案の分類が記述されたデータ(6,444件)を,株主招集通知のPDFを$1$ページごとに分割したうえで,テキストデータに変換し,学習データとして使用する.特徴語の抽出は上記の学習データを形態素解析し,それから以下の条件のもと,各議案分類の開始ページに$2$回以上出現する語を特徴語の候補とする.\begin{description}\item[条件1]名詞を対象\item[条件2]分割はN-gram単位\item[条件3]25文字以上の長すぎる複合名詞は除外\end{description}例えば,名詞を対象にN-gram単位の分割を「株主招集通知における議案タイトル」に対して行うと,「株主」,「招集」,「通知」,「株主招集」,「招集通知」,「株主招集通知」,「議案」,「タイトル」,「議案タイトル」のように分割される.\subsubsection{特徴語候補への重み付け}特徴語の候補$n_{i}$に対して議案分類ごとに重み付けを行い,特徴語を選択する.重み付けの式には式\ref{weighting}を用いる.\begin{equation}\label{weighting}W(n_{i},C(t))=(0.5+0.5\frac{TF(n_{i},C(t))}{max_{j=1,...,m}TF(n_{j},C(t))})×H(n_{i},C(t))\log_{2}\frac{N}{df(n_{i})}\end{equation}ここで,学習データにおいて,\begin{description}\item[$C(t)$:]議案分類$t$の開始ページの文書集合.\item[$TF(n,C(t))$:]$C(t)$において,名詞$n$が出現する頻度.\item[$H(n,C(t))$:]$C(t)$の各文書である$d$に名詞$n$が出現する確率$P(n,d)$に基づくエントロピー.以下の式\ref{entropy}によって求める.\begin{equation}\label{entropy}H(n,C(t))=-\sum_{d\inC(t)}P(n,d)\log_{2}P(n,d)\end{equation}ここで,$P(n,d)$は$d$に名詞$n$が出現する確率である.\item[$df(n)$:]名詞$n$を含む文書の数.\item[$N$:]学習データにおける文書の総数.\end{description}エントロピーを用いた理由は,各議案分類の文書集合中で多くの文書に分散して出現している語の方が,少数の文書に集中して出現している語と比較して,よりその議案分類の特徴を表し,特徴語としても有効であるという仮定に基づく.例として,議案分類「監査役選任」の特徴語候補への重み付けを,エントロピーを用いて行った結果を表\ref{w_H1}に示し,エントロピーを用いずに行った結果を表\ref{w_H2}に示す.\begin{table}[b]\noindent\begin{minipage}[t]{0.45\textwidth}\caption{エントロピーを用いた重み付けの結果}\label{w_H1}\input{01table05.tex}\end{minipage}\hfill\begin{minipage}[t]{0.5\textwidth}\caption{エントロピーを用いずに重み付けをした結果}\label{w_H2}\input{01table06.tex}\end{minipage}\end{table}表\ref{w_H2}に示した特徴語候補は上位$6$単語だが,上位$300$単語のほとんどが固有名詞であるため議案分類の特徴としては適切でなく,エントロピーを計算に用いることは有用と思われる.\subsubsection{特徴語の選択}各議案分類ごとの特徴語候補の重み付けの平均値を算出し,平均値よりも重みの高いものを特徴語として選択する.すなわち,以下の条件が成り立つ語$n_{i}$を特徴語として選択する.\begin{equation}\label{mean}W(n_{i},C(t))>\frac{1}{m}\sum_{j=1}^{m}W(n_{j},C(t))\end{equation}\begin{description}\item[$m$:]議案分類$t$の特徴語候補の総数.\end{description}例えば,「取締役選任」の特徴語の一部を表\ref{w_result1},「定款変更」の特徴語の一部を表\ref{w_result2}に示す.表\ref{w_result2}に注目すると,「定款変更」の項目なので「変更」,「施行」,「定款」などを含む特徴語が上位に来ることは想像できるが,それ以上に「下線部」のような単語に高い重みが付与されることは,機械学習のメリットである.実際,図\ref{expdf2}は「定款変更」に分類される議案の開始ページであるが,「下線部」という単語が出現している.\begin{table}[b]\noindent\begin{minipage}[t]{0.45\textwidth}\caption{「取締役選任」の特徴語}\label{w_result1}\input{01table07.tex}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\caption{「定款変更」の特徴語}\label{w_result2}\input{01table08.tex}\end{minipage}\end{table}\subsection{議案の分類}$3.1$節で得られた特徴語の重みと第2章の手法で推定した議案の開始ページを用いて,開始ページごとの議案の分類を行う.議案分類$t$の開始ページ$j$に対するスコア付与は式\ref{cos}を用いる.\begin{equation}\label{cos}score(j,t)=\frac{\boldsymbol{V(t)}・\boldsymbol{V(j)}}{|\boldsymbol{V(t)}||\boldsymbol{V(j)}|}\end{equation}ここで,\begin{description}\item[$\boldsymbol{V(t)}$:]議案分類$t$の特徴語を要素,特徴語の重みを要素値とするベクトル\item[$\boldsymbol{V(j)}$:]開始ページ$j$の名詞N-gramを要素,出現数を要素値とするベクトル\end{description}複数の議案が同ページに存在する場合,スコアが上位のものから順に選ばれるものとする.
\section{提案手法2多層ニューラルネットワークによる議案分類}
提案手法1では,学習データから各議案の特徴語を抽出し,それに基づいて議案を分類している.この学習データを使用すれば,機械学習手法に基づく手法でも議案分類が可能である.そこで,本研究では多層ニューラルネットワーク(深層学習)\footnote{以降,多層ニューラルネットワークを深層学習と表記する.}を用いた議案分類も試みた.\subsection{素性選択}株主招集通知に記載されている議案の開始ページの議案分類を,深層学習により行う.すなわち,議案の開始ページが,ある議案分類であるかそうでないかを判別する分類器を議案分類の数だけ生成し,テストデータとなる議案の開始ページがどの議案分類に属するかを判定する.したがって,例えば議案分類「取締役選任」を判別するための学習データは,「取締役選任」の開始ページが正例,それ以外の議案分類の開始ページが負例となる.また,テストデータは,学習データとして使用した株主招集通知を除き,株主招集通知を1ページごとに分割したうえで,第2章の手法を用いて推定されたページを対象とした.まず,入力層の要素となる語(素性)を選択する.具体的には,学習データにおいて正例に含まれる内容語(名詞,動詞,形容詞)に対して,以下の式\ref{weight_score}にて重みを計算する.\begin{equation}\label{weight_score}W_{p}(t,S_{p})=TF(t,S_{p})H(t,S_{p})\end{equation}ただし,\begin{description}\item[$S_{p}$:]学習データにおいて正例に属する文の集合\item[$TF(t,S_{p})$:]文集合$S_{p}$において,語$t$が出現する頻度\item[$H(t,S_{p})$:]文集合$S_{p}$における各文に含まれる語$t$の出現確率に基づくエントロピー\end{description}$H(t,S_{p})$が高い語ほど,正例の文集合に均一に分布している語であることが分かる.$H(t,S_{p})$は次の式\ref{entropy1}で求める.\begin{gather}\label{entropy1}H(t,S_{p})=-\sum_{s\inS_{p}}P(t,s)\log_{2}P(t,s)\\P(t,s)=\frac{tf(t,s)}{\sum_{s\inS_{p}}tf(t,s)}\end{gather}ここで,$P(t,s)$は文$s$における語$t$の出現確率を表し,$tf(t,s)$は文$s$において語$t$が出現する頻度を表す.次に,負例に含まれる内容語(名詞,動詞,形容詞)に対しても,同様に重みを計算する.\begin{equation}W_{n}(t,S_{n})=TF(t,S_{n})H(t,S_{n})\end{equation}ただし,$S_{n}$は学習データにおいて負例に属する文の集合である.ここで,ある語$t$の正例における重み$W_{p}(t,S_{p})$が負例における重み$W_{n}(t,S_{n})$より大きければ,その語$t$を素性として選択する.もしくは,語$t$の負例における重み$W_{n}(t,S_{n})$が正例における重み$W_{p}(t,S_{p})$の2倍より大きければ,その語$t$を素性として選択する.すなわち,以下の条件のどちらかが成り立つ語$t$を素性として選択する.\begin{gather}W_{p}(t,S_{p})>W_{n}(t,S_{n})\\W_{n}(t,S_{n})>2W_{p}(t,S_{p})\end{gather}上記の条件を課すことで,正例,負例における特徴的な語のみを素性として選択し,ともによく出現するような一般的な語を素性から除去する.以下に議案分類「取締役選任」を判別するための学習データから選択された素性の一部を例示する.\begin{screen}取締役,監査,議案,配当,株主,社外,変更,事業,代表,現任,責任,部長,社長\end{screen}上記の学習データでは,$2,845$語が素性として選択された.\subsection{モデル}入力は,学習データから抽出された語(素性)を要素,語$t$における$\log(W_{p}(t,S_{p}))$,もしくは,$\log(W_{n}(t,S_{n}))$の大きいほうを要素値としたベクトルとする.モデルの入力層のノード数を入力ベクトルの次元数(すなわち素性の数)と同じとし,隠れ層は,ノード数1,000が3層,ノード数$500$が3層,ノード数$200$が3層,ノード数$100$が3層の計12層とする.出力層は$1$要素である.深層学習のパラメータとして,活性化関数はランプ関数(ReLU)\cite{ReLU}を,出力層はsigmoidを使用した.また,エポック数は$50$回とした.機械学習による分類を2値で行った理由は,1つのページに複数の議案が記載されており,複数の議案分類が割り当てられる可能性があるからである.例えば,「取締役選任」と「監査役選任」が同じページに記載されている場合があり,その場合は,そのページを「取締役選任」と「監査役選任」に分類する必要がある.そのため,ある議案分類とそれ以外を分類する分類器を議案分類数だけ生成するアプローチを採った.
\section{提案手法3抽出した議案タイトルを用いた議案分類}
本章では,議案タイトルの抽出手法と,抽出した議案タイトルを用いた議案分類手法について説明する.議案タイトルとは,図\ref{expdf1}の第1号議案の隣に記載されている「剰余金の処分の件」や,第2号議案の隣に記載されている「定款一部変更の件」のことを指す.議案タイトルを正確に抽出することは難しいが,正しく議案タイトルを抽出できれば議案分類の大きな手助けとなるとともに,議案タイトルを人手で入力する手間を省くことができる.\subsection{議案タイトルの抽出}PDFデータを第2章と同様の条件でテキストデータに変換し,図\ref{flowchart2}のフローチャートの条件で議案タイトルの抽出を行う.\begin{figure}[b]\vspace{-0.5\Cvs}\includegraphics{25-1ia1f4.eps}\caption{議案タイトル抽出のフローチャート}\label{flowchart2}\end{figure}議案タイトルは第2章の手法を用いて推定された開始ページを用いて,ハッシュに保存された議案タイトルが選択される.以下の優先順位でハッシュは選ばれ,優先すべきハッシュに議案タイトルがない場合,次順位のハッシュに保存された議案タイトルを選択する.\begin{equation}hash1\{''第◯号議案''\}>hash2\{ページ数\}\{''第◯号議案''\}>hash3\{ページ数\}\{m\}\end{equation}ここで,$hash3\{ページ数\}\{m\}$はそのページに出現する$m$番目の議案タイトルである.\subsection{議案タイトルを用いた議案分類手法}議案タイトルに含まれるキーワードを用いたルールベースによって議案分類を行う\footnote{作成したルールは,学習データとして用いられている株主招集通知を参考に作成した.}.図\ref{flowchart3}に本手法である議案分類のフローチャートを示す.\begin{figure}[t]\includegraphics{25-1ia1f5.eps}\caption{抽出した議案タイトルを用いた分類のフローチャート}\label{flowchart3}\end{figure}
\section{評価}
本手法を実装した.学習データとして,$2016$年$4$月から$8$月までの株主招集通知から,人手にて議案開始ページとその分類を作成し使用した(学習データ数は6,444件).実装にあたり,形態素解析器としてMeCab\footnote{http://taku910.github.io/mecab/}を使用した.深層学習においてはTensorFlow\footnote{https://www.tensorflow.org/}を使用した.評価において,正解データとして,$2016$年$9$月から$10$月までの株主招集通知から,人手にて議案開始ページとその分類を作成した(正解データ数は345件).議案分類ごとの学習データと正解データは以下の表\ref{count}の通りである.次に,正解データと同じ$9$月から$10$月までの株主招集通知から,各手法を用いて議案開始ページとその議案分類を推定した.表\ref{c_ex}はある企業の株主招集通知における正解データと提案手法1による議案開始ページと議案分類の推定結果を示す.そして,各手法の推定結果と正解データが一致すれば正解とし,議案ごとの適合率,再現率,F値を算出した.また,比較手法として,SupportVectorMachine(SVM)\cite{svm}による分類も行った\footnote{SVMのカーネルとして線形カーネルを使用した.}.素性選択の方法は深層学習と同様である.評価結果を表\ref{c_result}に示す.表\ref{c_result}の手法1は提案手法1の特徴語による議案分類手法,手法2は提案手法2の深層学習による議案分類手法,手法3は提案手法3の抽出した議案タイトルを用いた議案分類手法の結果を示す.\begin{table}[b]\caption{議案別データ数}\label{count}\input{01table09.tex}\end{table}\begin{table}[b]\caption{提案手法1による議案開始ページと議案分類の推定結果とその正解データ}\label{c_ex}\input{01table10.tex}\end{table}\begin{table}[p]\caption{評価結果}\label{c_result}\input{01table11.tex}\end{table}\begin{table}[p]\caption{比較手法と設定}\label{cond}\input{01table12.tex}\end{table}深層学習による提案手法2を評価するために,素性選択を行わなかった場合,深層学習ではなくSVMを使用した場合,深層学習の隠れ層やエポック数を変化した場合の評価を行った.表\ref{cond}に各手法や設定を示す.ここで,比較手法2の「素性選択なし」とは,学習データにおける内容語を全て素性として使用し,重みとして情報利得を使用したものである.また,各手法や設定ごとに全ての議案分類の適合率,再現率を載せるのは数値が多すぎるため,各手法や設計ごとの全議案における適合率,再現率のみを表\ref{comparison}に示す.\begin{table}[b]\caption{比較評価結果}\label{comparison}\input{01table13.tex}\end{table}
\section{各手法に対する考察}
各手法の評価の結果,提案手法3,提案手法2,手法(SVM),提案手法1の順に良好な結果が得られた.各手法には特徴があり,「ストックオプション」のF値では提案手法1が最も高く,「剰余金処分」のF値は提案手法2が最も高い.提案手法1は「ストックオプション」の結果が他の手法と比較して良好な結果となった.これは特徴語の選択とその重み付けに起因している.得られた特徴語と重みを表\ref{w_result3}に示す.また,特に提案手法3と比較すると高い結果が得られているが,これは「ストックオプション」に該当する議案のタイトルは多種多様であることから,提案手法3のタイトルを用いた分類は難しいことが原因でもある.\begin{table}[b]\caption{「ストックオプション」の特徴語}\label{w_result3}\input{01table14.tex}\end{table}提案手法1の分類推定が誤っていたものを確認したところ,誤分類は$46$件だった.その誤分類の詳細を確認したところ,「取締役選任」の項目が,「監査役選任」の項目に誤分類されている件数が$15$件あった.これはどちらの項目も選任の件であり,分類が難しいことと,議案としての出現確率が高いことに起因している.また,分類には「その他」といった項目が存在するが,今回は「その他」への分類をしていないため,$15$件が誤分類となった.「その他」の項目は,どの議案にも分類されない議案で構成されるため,特徴語となるものが抽出できない.そのため分類対象から除外した.提案手法1は議案の分類をスコアが上位のものから順に割り当てるため,同一ページに対し同じ議案分類を割り当てることができない.そのため,同じ議案分類が複数出てきた開始ページの推定に影響を与え,$6$件の誤分類となった.また,その場合の推定は「退職慰労金」に分類される傾向にあり,それに起因して「退職慰労金」の分類の適合率が低くなってしまった.その際の正解データと提案手法1の出力結果を表\ref{c_miss}に示す.この例は,P.53に「役員報酬」に関する議案が$2$件記載されているが,「役員報酬」の次にスコアが高い「退職慰労金」が議案分類として割り当てられてしまった結果である.\begin{table}[b]\caption{同じ議案が同一ページに複数出てきた例}\label{c_miss}\input{01table15.tex}\end{table}提案手法1の分類推定を向上させるためには,「取締役選任」と「監査役選任」の項目の特徴語の選択をヒューリスティックに調整することが考えられる.また,「その他」の項目も,同様の手法で分類できるようにすることも考えられる.同じ議案が複数存在するページに関しては,「退職慰労金」の項目に分類されることが多いため,「退職慰労金」への分類に制約を与えることで,解消されると考えられる.提案手法2の結果は,議案があると推定されたページに対して各分類器を適用するため,そのページにある議案数とは異なった結果を返すことがある.提案手法1で述べた,同じ議案が複数存在するページに関しては,結果を余分に返さないメリットがある.しかし,提案手法2は$1$ページ毎に分類を行うため,議案が複数存在し,該当ページの後半以降から始まり,次のページに跨ぐような議案に対しては,正しい分類結果を返せないデメリットが存在する.提案手法3の抽出した議案タイトルを用いた議案分類は,高い適合率,再現率を示しているが,議案タイトルの抽出の結果に強く依存しているため,他の分類手法と照らし合わせる必要がある.他の分類手法はページに出現する特長語を用いて分類を行うため,議案タイトルが正しく抽出できない場合においても分類を行うことが可能である.議案がある開始ページの推定は,議案があると推定された株主招集通知に対しては$100\%$推定できていた.しかし,議案が本来は記載されているが,議案がないと判断された株主招集通知が$2$件あった.原因を調べたところ,PDFからテキストデータへの変換のとき,「議案」といった表現が抽出されてないことが原因であった.その例を図\ref{extxt2}に示す.\begin{figure}[b]\includegraphics{25-1ia1f6.eps}\caption{議案が正しく変換できなかったテキストデータの例}\label{extxt2}\end{figure}図\ref{extxt2}の矢印で示した位置に,本来PDFに記載されている「議案」という文字列がテキストに変換されるはずだができていない.これは文字列「議案」のPDFへの入力が特殊であるために生じる.PDFを画像ファイルとして読み込み,文字認識をかけるなど解決策はあるが,本研究から内容が逸脱するため例外として処理した.表\ref{comparison}における本手法と素性選択なしの比較手法1との比較により,素性選択ありのほうが素性選択なしよりも高いF値を達成した.従って,本手法における素性選択は本タスクにおいて有効であると考える.SVMとの比較では,SVMのほうが適合率が高いが再現率が低いという結果となり,F値はほぼ同じ結果となった.隠れ層の数やエポック数の変化でも本手法とほぼ同じ結果となっており,機械学習に基づく手法では,手法の如何にかかわらず,この結果が上限であると考える.
\section{応用システム}
評価の結果と考察を踏まえ,特徴語の重みによる議案分類と抽出した議案タイトルを用いた議案分類を,実際に運用できるシステム構築を行った.システムへのインプットは株主招集通知のPDF,アウトプットには議案のあるページ,抽出した議案タイトル,各手法の議案分類の結果,分類の信頼度とする.図\ref{system}にシステムの構造を示す.\begin{figure}[b]\begin{center}\includegraphics{25-1ia1f7.eps}\end{center}\caption{システム構造}\label{system}\end{figure}ここで,信頼度とは,抽出したタイトルを用いた議案分類の結果の確からしさを示したものであり,値が1に近いほど議案分類の推定結果が正しいことを意味している.人が最終確認をする際に確認対象の判断を行うため,抽出した議案タイトルを用いた議案分類の分類結果の信頼度を追加した.信頼度の計算は,\textit{BayesianBiostatistics}\cite{bayesian}を参考にベイズ推定を利用した.\subsection{ベイズ推定による信頼度の推定}ここで説明のため,議案集合を$U$とし,抽出した議案タイトルによる分類結果「$t$」が得られたときの事象を以下のように定義する.\begin{description}\item[$A(t)$:]議案分類は「$t$」である.\item[$B(t)$:]抽出した議案タイトルによる議案分類結果が「$t$」であった.\item[$C(m)$:]特徴語による議案分類が「$m$」であった\footnote{$m$は$m=t$でも可.また,複数議案が選ばれることもある.例:$t=$「定款変更」,$m=$「定款変更」.}.\end{description}このとき求めたい信頼度は以下の式\ref{bayesian1}で得られる.\begin{equation}\label{bayesian1}P(A(t)|B(t),C(m))=\frac{P(B(t),C(m)|A(t))P(A(t))}{\sum_{d\inU}P(B(t),C(m)|A(d))P(A(d))}\end{equation}ベイズ推定では,$P(A(t)|B(t),C(m))$を事後確率,$P(B(t),C(m)|A(t))$を尤度,$P(A(t))$を事前確率と呼ぶ.すなわち式\ref{bayesian1}は,元々の議案の出現確率に尤度をかけることで,$B(t),C(m)$という根拠を加味した条件付き確率を得ることができる.しかし,特徴語による議案分類は,同ページに議案が複数ある場合,複数の分類結果を返すため,全パターンの尤度の計算はデータ数の関係もあり困難である.よって,事象を以下のように変更した.\begin{description}\item[$A$:]議案分類は「$t$」である.\item[$\bar{A}$:]議案分類は「$t$」でない.\item[$B$:]抽出した議案タイトルによる議案分類結果が「$t$」であった.\item[$C$:]特徴語による議案分類が「$t$」を含む.\item[$\bar{C}$:]特徴語による議案分類が「$t$」を含まない.\end{description}よって先ほどの式\ref{bayesian1}は式\ref{bayesian2}のようになる\footnote{$\bar{C}$の場合もほぼ同様であるためここでは省略する.}.\begin{equation}\label{bayesian2}P(A|B,C)=\frac{P(B,C|A)P(A)}{P(B,C|A)P(A)+P(B,C|\bar{A})P(\bar{A})}\end{equation}また,ベイズ流のアプローチは条件をひとつずつ加え,事後確率を変化させていくのが基本となる.したがって,条件$B$を加えたことによって得られた事後確率を,更新された事前確率として条件$C$を加えたときに用いることで,最終的な事後確率を計算する\footnote{これはベイズ更新と呼ばれる.}.これは,事象$B$と事象$C$はマルコフ性のある確率過程であるという仮定に基づく.\subsubsection{条件$B$を加えた事後確率$P(A|B)$の算出}まずは事前確率$P(A)$に,条件$B$を加えた事後確率$P(A|B)$を求める必要がある.$P(A|B)$はベイズの定理より以下の式\ref{bayesian3}で求めることができる.\begin{equation}\label{bayesian3}P(A|B)=\frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|\bar{A})P(\bar{A})}\end{equation}これは議案タイトル抽出の議案分類の適合率の計算と同様であるため,評価で得られた各議案の適合率を$P(A|B)$として用いる.例えば,「定款変更」の事前確率$P(A)$は$0.133$であるが,ベイズ更新によって事後確率$P(A|B)$は$0.9737$となる.\subsubsection{条件$C$を加えた事後確率$P(A|B,C)$の算出}すでに条件$B$を加えたので,更新された事前確率$P(A|B)$を用いて$P(A|B,C)$を求める.$P(A|B,C)$はベイズの定理より以下の式\ref{bayesian4}で求めることができる.\begin{equation}\label{bayesian4}P(A|B,C)=\frac{P(C|A,B)P(A|B)}{P(C|A,B)P(A|B)+P(C|\bar{A},B)P(\bar{A}|B)}\end{equation}ここで,事象$B$は議案タイトルを用いた分類による分類結果,事象$C$は文中に出現した特徴語を用いた分類結果であるため,分類に用いる情報源が異なることから,分類結果は独立であるという仮定の下,式\ref{bayesian4}は以下の式\ref{bayesian5}で表すことができる.\begin{equation}\label{bayesian5}P(A|B,C)=\frac{P(C|A)P(A|B)}{P(C|A)P(A|B)+P(C|\bar{A})P(\bar{A}|B)}\end{equation}ここで,\begin{description}\item[$P(A|B)$:]抽出した議案タイトルによる議案分類の適合率.\item[$P(\bar{A}|B)$:]$1-P(A|B)$.\item[$P(C|A)$:]特徴語による議案分類の再現率.\item[$P(C|\bar{A})$:]特徴語による議案分類の誤検知率\footnote{再現率は真の値が$1$のものに対して$1$であると予測される比率であるため,誤検知率を真の値が$0$であるものに対して,$1$であると予測される比率と定義する.例:真の分類が「定款変更」のものに対して,「定款変更」と予測されたものの比率が再現率であり,真の分類が「定款変更」でないものに対して,「定款変更」と予測されたものの比率が誤検知率である.}.\end{description}同様に$P(A|B,\bar{C})$も以下の式\ref{bayesian6}で表すことができる.\begin{equation}\label{bayesian6}P(A|B,\bar{C})=\frac{P(\bar{C}|A)P(A|B)}{P(\bar{C}|A)P(A|B)+P(\bar{C}|\bar{A})P(\bar{A}|B)}\end{equation}ここで,\begin{description}\item[$P(\bar{C}|A)$:]$1-P(C|A)$.\item[$P(\bar{C}|\bar{A})$:]$1-P(C|\bar{A})$.\end{description}\subsection{システムの実行例}株主招集通知のPDFファイルをアップロードすると,ページ数,議案番号,議案タイトル,抽出した議案タイトルを用いた議案分類の結果,特徴語を用いた議案分類の結果,信頼度が画面に表示される.システムの実行結果の例を,図\ref{system2}と図\ref{system3}に示す.左上の「〜.pdf」のリンクをクリックすると,アップロードしたPDFファイルの閲覧が可能である.また,右のPDFのリンクをクリックすると,該当ページのPDFファイルを閲覧することが可能である.\begin{figure}[t]\includegraphics{25-1ia1f8.eps}\caption{「サムコ」の株主招集通知をアップロードした出力結果}\label{system2}\end{figure}\begin{figure}[t]\includegraphics{25-1ia1f9.eps}\caption{「テクノメディカ」の株主招集通知をアップロードした出力結果}\label{system3}\end{figure}図\ref{system3}の第4号議案の結果に注目すると,抽出した議案タイトルを用いた分類では「取締役選任」となっているが,特徴語を用いた分類では「監査役選任」に分類結果となっている.ここで信頼度を見ると,抽出した議案タイトルによる分類結果である「取締役選任」は約96\%の信頼度である.実際に確認したところ,真の分類は「取締役選任」だった.これは,「取締役選任」の分類において,抽出した議案タイトルを用いた手法は高い適合率を誇る一方で,特徴語による議案分類は,「取締役選任」の再現率が低いため,約96\%の信頼度という結果が得られた.これは実際に人手で確認するとき,有用であると考えられる.
\section{応用システムの評価}
本応用システムによる業務の効率化を評価するために,実装した応用システムと従来の人手による作業の比較評価を行った.評価基準は実際の業務に基づいたデータ収録にかかった時間と適合率・再現率とする.応用システムは,$2$つの議案分類手法を採用しているため$2$つの結果が得られるが,信頼度は抽出したタイトルを用いた議案分類の結果の確からしさを示したものであることから,適合率と再現率は抽出したタイトルを用いた議案分類の結果を用いた.\subsection{評価方法}学習データとテストデータとは別に,新たに$95$社分の株主招集通知を人手にて確認し,実際の業務と同じ手順によりデータベースに収録した.その後チェックを行ったものを正解データとする.この$95$社分のデータを$1$社ずつ時間を計り収録する作業を,$12人$の方に行ってもらい,$12人$から得られた各$1$社ずつの収録時間の平均を算出した.応用システムは$95$社分のデータをアップロードし,出力結果をcsvファイルでダウンロードし,データベースに収録するまでの時間を測定した.この時点までにかかった時間を測定し,収録されたデータがどのくらい正しく入力されているかを確認した.\subsection{収録時間}実装した応用システムの収録時間の結果と人手による収録時間の結果を表\ref{s_result}に示す\footnote{企業5〜企業93はスペースの関係上省略.}.\begin{table}[b]\caption{収録にかかった時間の結果}\label{s_result}\input{01table16.tex}\end{table}\subsection{適合率・再現率}各作業者の適合率・再現率と応用システムの適合率・再現率を表\ref{score_result}に示す.\subsection{考察}応用システムの実装によって,当該部分の$1$社あたりにかかる処理時間は約10分の1となった.また,適合率・再現率から明らかなように,人手による作業よりも高い精度で開始ページの推定と議案分類が実現できた.応用システムは例外に対応できないことや$100\%$の正解率で議案の分類ができないため,この後の作業工程であるチェックの際に,人手で作成したデータよりも時間がかかると考えていた.しかし,人手にて作成したデータは,勘違いによるミスや誤分類が多く,応用システムよりも質の低い結果となっているため,応用システム以上に時間をかける必要がある.また,この後のチェック段階において,人手によるデータには信頼度はないため,全収録データを複数人で確認する必要がある.しかし,応用システムの信頼度が$0.9$を越えるものと下回るものに対しての議案数と適合率は表\ref{s_result_0.9}のようになっており,信頼度が$0.9$を下回るものに対しては複数人での確認が必要だが,信頼度が$0.9$を越えるものに対しては一人が確認を行えば十分であると思われる.これにより,さらなる業務の効率化が期待される.\begin{table}[t]\caption{収録されたデータの適合率・再現率}\label{score_result}\input{01table17.tex}\end{table}\begin{table}[t]\caption{信頼度別応用システムの適合率}\label{s_result_0.9}\input{01table18.tex}\end{table}
\section{関連研究}
本研究は,金融テキストマイニング\cite{izumiandmatui}の一環であるが,関連研究として酒井らは,企業の業績発表記事から業績要因を抽出し\cite{sakai1},抽出した業績要因に対して業績に対する極性(「ポジティブ」,「ネガティブ」)を付与する手法\cite{sakai2}や,抽出される複数の業績要因から重要な業績要因を自動的に抽出する手法を提案している\cite{sakai3}.更に,酒井らは,上記の手法\cite{sakai1}を決算短信PDFに適用し,決算短信PDFから,例えば「半導体製造装置の受注が好調でした」のような業績要因を含む文を抽出する手法を提案している\cite{CEES}.その発展研究として北森らは,決算短信PDFからの業績予測文の抽出する手法を提案している\cite{kitamori}.松田らは,日本銀行政策委員会金融政策決定会合議事要旨のテキストデータから,トピック抽出の研究を行っている\cite{matuda}.それらの研究を踏まえ本研究では,株主招集通知のデータを扱う点や,トピックや業績要因の抽出ではなく,議案の開始ページの推定,議案タイトルの抽出,その議案分類をする点が異なっている.開始位置の推定に関する関連研究としては,XMLドキュメントを対象とした研究はあるが,株主招集通知を対象とし,議案ごとの開始ページを推定する研究はない\cite{kamps}.機械学習による分類手法の比較に関しては数多くの論文が存在するが\cite{textmining,liandyamanishi2002,chenandho2000,zhangandyang2003},それらの論文のほぼすべてが手法の比較を行い,新規手法によって「適合率や再現率の改善が見られた」のような内容である.しかし,実際のシステムにおいては,一つの手法に依存するのは大変危険であるため(機械学習は過去のデータを学習データとすることから,新規データの変化に弱いため),複数の手法によって結果を出し,統合した確からしさ(信頼度)をユーザーに与える必要がある.個々の手法の適合率や再現率を示しても,ユーザーはどの結果を信頼するべきか迷うため,結果の統合は価値があると考えられる.この結果の統合による信頼度の算出が本研究の特色の一つである.複数の分類手法の統合の関連研究としては,線形結合による分類手法の統合を行っているが\cite{Fumera},本研究ではベイズ推定を用いた確率的なアプローチを行っている.
\section{まとめ}
本研究では,株主招集通知における議案の開始ページを推定し,その議案を分類する手法を提案した.本研究により,人手で株主招集通知から議案の開始ページを探しだし,分類をする作業時間を大幅に削減できた.議案の開始ページ推定は,議案がある開始ページには「議案」または「第$X$号議案」が先頭に含まれるといった規則に基づく.議案分類の推定は,議案ごとの特徴語を抽出し,その特徴語のスコアに基づき分類する手法,深層学習を用いた分類,議案タイトルを用いたキーワードによる分類,の3手法を用いた.評価の結果,特徴語による議案分類,深層学習による議案分類,抽出した議案タイトルを用いた議案分類,どの手法も良好な適合率,再現率を達成した.これらの結果を踏まえ,応用システムの実装により,株主招集通知の構造理解の習得が不要になると共に,議案の開始ページの推定や議案内容が分類されることにより,当該部分の$1$社あたりにかかる処理時間が10分の1程度に短縮された.また,信頼度により,その後の作業工程であるチェックの時間も短縮されることが見込まれる.これらのことから,理解の十分でない作業者の判断ミスや判断の揺れが減少し,信頼度の高いデータ生成を支えることとなる.その結果,収録に係る人件費の削減と,データベース化に伴うデータ収録の早期化をはかることができるであろう.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen\BBA\Ho}{Chen\BBA\Ho}{2000}]{chenandho2000}Chen,H.\BBACOMMA\\BBA\Ho,T.~K.\BBOP2000\BBCP.\newblock\BBOQEvaluationofDecisionForestsonTextCategorization.\BBCQ\\newblockIn{\BemProceedingsofthe7thSPIEConferenceonDocumentRecognitionandRetrieval},\mbox{\BPGS\191--199}.\bibitem[\protect\BCAY{Feldman\BBA\Sanger}{Feldman\BBA\Sanger}{2007}]{textmining}Feldman,R.\BBACOMMA\\BBA\Sanger,J.\BBOP2007\BBCP.\newblock{\BemTheTextMiningHandbook}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Fumera\BBA\Roli}{Fumera\BBA\Roli}{2005}]{Fumera}Fumera,G.\BBACOMMA\\BBA\Roli,F.\BBOP2005\BBCP.\newblock\BBOQATheoreticalandExperimentalAnalysisofLinearCombinersforMultipleClassifierSystems.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence},{\Bbf27}(6),\mbox{\BPGS\942--956}.\bibitem[\protect\BCAY{Glorot,Bordes,\BBA\Bengio}{Glorotet~al.}{2011}]{ReLU}Glorot,X.,Bordes,A.,\BBA\Bengio,Y.\BBOP2011\BBCP.\newblock\BBOQDeepSparseRectifierNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonArtificialIntelligenceandStatistics},\mbox{\BPGS\315--323}.\bibitem[\protect\BCAY{和泉\JBA後藤\JBA松井}{和泉\Jetal}{2011}]{izumi}和泉潔\JBA後藤卓\JBA松井藤五郎\BBOP2011\BBCP.\newblock経済テキスト情報を用いた長期的な市場動向推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3309--3315}.\bibitem[\protect\BCAY{和泉\JBA松井}{和泉\JBA松井}{2012}]{izumiandmatui}和泉潔\JBA松井藤五郎\BBOP2012\BBCP.\newblock金融テキストマイニング研究の紹介.\\newblock\Jem{情報処理},{\Bbf53}(9),\mbox{\BPGS\321--332}.\bibitem[\protect\BCAY{Kamps,Koolen,\BBA\Lalmas}{Kampset~al.}{2007}]{kamps}Kamps,J.,Koolen,M.,\BBA\Lalmas,M.\BBOP2007\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe30thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\723--724}.\bibitem[\protect\BCAY{北森\JBA酒井\JBA坂地}{北森\Jetal}{2017}]{kitamori}北森詩織\JBA酒井浩之\JBA坂地泰紀\BBOP2017\BBCP.\newblock決算短信PDFからの業績予測文の抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ100-D}(2),\mbox{\BPGS\150--161}.\bibitem[\protect\BCAY{Lesaffre\BBA\Lawson}{Lesaffre\BBA\Lawson}{2012}]{bayesian}Lesaffre,E.\BBACOMMA\\BBA\Lawson,A.~B.\BBOP2012\BBCP.\newblock{\BemBayesianBiostatistics}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{Li\BBA\Yamanishi}{Li\BBA\Yamanishi}{2017}]{liandyamanishi2002}Li,H.\BBACOMMA\\BBA\Yamanishi,K.\BBOP2017\BBCP.\newblock\BBOQTextClassificationUsingESC-basedStochasticDecisionLists.\BBCQ\\newblock{\BemInformationProceedingsandManagement},{\Bbf38}(3),\mbox{\BPGS\343--361}.\bibitem[\protect\BCAY{松田\JBA岡石\JBA白田\JBA橋本\JBA佐倉}{松田\Jetal}{2014}]{matuda}松田安咲子\JBA岡石一真\JBA白田由香利\JBA橋本隆子\JBA佐倉環\BBOP2014\BBCP.\newblockLDA方式による金融経済月報からのトピック抽出〜第2次安倍内閣の金融政策と経済動向分析〜.\\newblock\Jem{信学技報},{\Bbf114}(204),\mbox{\BPGS\79--84}.\bibitem[\protect\BCAY{Peramunetilleke\BBA\Wong}{Peramunetilleke\BBA\Wong}{2002}]{Peramunetilleke}Peramunetilleke,D.\BBACOMMA\\BBA\Wong,R.~K.\BBOP2002\BBCP.\newblock\BBOQCurrencyExchangeRateForecastingfromNewsHeadlines.\BBCQ\\newblockIn{\BemProceedingsoftheAAAISpringSymposiumonExploringAttitudeandAffectinText},\mbox{\BPGS\131--139}.\bibitem[\protect\BCAY{Sakai\BBA\Masuyama}{Sakai\BBA\Masuyama}{2008}]{sakai1}Sakai,H.\BBACOMMA\\BBA\Masuyama,S.\BBOP2008\BBCP.\newblock\BBOQCauseInformationExtractionfromFinancialArticlesConcerningBusinessPerformance.\BBCQ\\newblock{\BemIEICETransactionsInformationandSystems},{\BbfE91-D}(4),\mbox{\BPGS\959--968}.\bibitem[\protect\BCAY{Sakai\BBA\Masuyama}{Sakai\BBA\Masuyama}{2009}]{sakai2}Sakai,H.\BBACOMMA\\BBA\Masuyama,S.\BBOP2009\BBCP.\newblock\BBOQAssigningPolaritytoCausalInformationinFinancialArticlesonBusinessPerformanceofCompanies.\BBCQ\\newblock{\BemIEICETransactionsInformationandSystems},{\BbfE92-D}(12),\mbox{\BPGS\2341--2350}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2013}]{sakai3}酒井浩之\JBA増山繁\BBOP2013\BBCP.\newblock企業の業績発表記事からの重要業績要因の抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ96-D}(11),\mbox{\BPGS\2866--2870}.\bibitem[\protect\BCAY{酒井\JBA西沢\JBA松並\JBA坂地}{酒井\Jetal}{2015}]{CEES}酒井浩之\JBA西沢裕子\JBA松並祥吾\JBA坂地泰紀\BBOP2015\BBCP.\newblock企業の決算短信PDFからの業績要因の抽出.\\newblock\Jem{人工知能学会論文誌},{\BbfJ98-D}(5),\mbox{\BPGS\172--182}.\bibitem[\protect\BCAY{坂地\JBA酒井\JBA増山}{坂地\Jetal}{2015}]{sakaji}坂地泰紀\JBA酒井浩之\JBA増山繁\BBOP2015\BBCP.\newblock決算短信PDFからの原因・結果表現の抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ98-D}(5),\mbox{\BPGS\811--822}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{svm}Vapnik,V.\BBOP1999\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley.\bibitem[\protect\BCAY{Zhang\BBA\Yang}{Zhang\BBA\Yang}{2003}]{zhangandyang2003}Zhang,J.\BBACOMMA\\BBA\Yang,Y.\BBOP2003\BBCP.\newblock\BBOQRobustnessofRegularizedLinearClassificationMethodsinTextCategorization.\BBCQ\\newblockIn{\BemProceedingsofthe26thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformaionRetrieval},\mbox{\BPGS\190--197}.\end{thebibliography}\begin{biography}\bioauthor{高野海斗}{2013年成蹊大学理工学部情報科学科入学.2016年成蹊大学大学院理工学専攻理工学研究科入学.在学中は,統計学,特に,欠測データ解析,集計データ解析の研究と,自然言語処理,特に,言語情報を用いたデータの自動分類の研究に従事.日本計算機統計学会学生会員.}\bioauthor{酒井浩之}{2005年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).2005年豊橋技術科学大学知識情報工学系助手.2012年成蹊大学理工学部情報科学科講師.2014年成蹊大学理工学部情報科学科准教授.自然言語処理,特に,テキストマイニング,テキスト自動要約の研究に従事.人工知能学会,言語処理学会,電子情報通信学会,情報処理学会等会員.}\bioauthor{坂地泰紀}{2012年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).2012年株式会社ドワンゴ入社.2013年成蹊大学理工学部情報科学科助教.2017年東京大学大学院工学系研究科システム創成学専攻助教.自然言語処理,特に,テキストマイニングの研究に従事.人工知能学会,電子情報通信学会,言語処理学会等会員.}\bioauthor{和泉潔}{1998年東京大学大学院総合文化研究科広域学専攻博士課程修了.博士(学術).同年より2010年まで,電子技術総合研究所(現産業技術総合研究所)勤務.2010年より東京大学大学院工学系研究科システム創成学専攻准教授.2015年より同教授.マルチエージェントシミュレーション,特に社会シミュレーションに興味がある.IEEE,人工知能学会,情報処理学会,電子情報通信学会会員.}\bioauthor{岡田奈奈}{株式会社日経リサーチ企業情報部長.1997年入社.企業調査部,企業経営研究部など企業に係る各種情報に関するデータ収集・収録関連業務,従業員満足度ほか企業・病院等の評価軸の分析等に従事.分析評価に使用可能な企業データベースの構築に長年従事し,構築に係る運用設計を担当.2017年より現職.}\bioauthor{水内利和}{株式会社日経リサーチ企業情報部所属.会計事務所勤務を経て,2000年入社,企業財務部で有価証券報告書,決算短信などの主に企業の財務諸表等の情報のデータ収録関連業務に従事.2007年より部内で使用するシステムの開発にも従事.2015年から2年間システム統括室と兼務.2017年1月より企業情報部のみの所属となる.近年は主にスケジュール管理等の管理系,資料PDFやXBRLを活用しての社内的なシステム開発に従事.}\end{biography}\biodate\end{document}
| |
V10N05-05
|
\section{はじめに}
インターネットが急速に広まり,その社会における重要性が急速に高まりつつある現在,他言語のウェブ情報を閲覧したり,多言語で情報を発信するなど,機械翻訳の需要は一層高まっている.これまで,機械翻訳の様々な手法が提案されてきたが,大量のコーパスが利用可能となってきたことにともない用例ベース翻訳\cite{Nagao1984}や統計ベース翻訳\cite{Brown1990}が主な研究対象となってきている.本稿は前者の用例ベース翻訳に注目する.用例ベース翻訳とは,翻訳すべき入力文に対して,それと類似した翻訳用例をもとに翻訳を行なう方式である.経験豊かな人間が翻訳を行う場合でも用例を利用して翻訳を行っており,この方式は他の手法よりも自然な翻訳文の生成が可能だと考えられる.また,用例の追加により容易にシステムを改善可能である.以上のような利点を持つものの,用例ベース方式は翻訳対象領域をマニュアルや旅行会話などに限定して研究されている段階であり,ウェブドキュメント等を翻訳できるような一般的な翻訳システムは実現されていない.その実現が困難な理由の一つに,用例の不足が挙げられる.用例ベース翻訳は入力文とできるだけ近い文脈をもつ用例を使うため,用例は対訳辞書のように独立した翻訳ペアではなく,まわりに文脈を持つことが必要である.つまり,用例中のある句が相手側言語のある句と対応するというような対応関係が必要となる.用例ベース翻訳を実現するためには大量の用例が必要だが,人手でこのような用例を作成するのは大量のコストがかかる.そこで,対訳文に対して句アライメントを行い用例として利用できるように変換する研究が90年代初頭から行われてきた.当初は,依存構造や句構造を用いた研究が中心であったが\cite{Sadler1990,Matsumoto1993,Kaji1992},構文解析の精度が低いために実証的な成果が上がらなかった.その後には,構造を用いず用例を単なる語列として扱った統計的手法が研究の中心となっている\cite{北村1997,Sato2002}.統計的手法によって対応関係を高精度に得ることは可能だが,そのためには大量の対訳コーパスが必要となる.近年は構文解析の精度が日英両言語で飛躍的に向上し,再び構造的な対応付けが試みられている.Menezes等\cite{Menezes2001}は,マニュアルというドメインで依存構造上の句アライメントを行なっている.今村\cite{今村2002}は,旅行会話というドメインで句構造的上の句アライメントを行なっている.これらの先行研究は,限定されたドメインのパラレリズムが高いコーパスを扱っており,一般的なコーパスが用いられていない.本稿はコーパスに依存しない対応付けを実現するために依存構造上の位置関係を一般的に扱い,対応全体の整合性を考慮することにより対応関係を推定する.これは,\cite{Watanabe2000}を基本句の概念を導入して発展させたものである.本稿の構成は以下のとおりである.2章で提案手法について述べる.3章で実験と考察を述べ,4章にまとめを付す.
\section{提案手法}
提案手法は,対訳文を入力とし,両言語に含まれている{\bf基本句}(次節にて定義)間の対応関係を推定する.提案手法の本質的な部分は対象とする言語ペアに依存しないが,実験は日英間で行なったため,以下の章では日英を対象として手法を説明する.提案手法の大まかな流れは次のようになる.\vspace{1ex}\begin{enumerate}\item{\bf基本句を単位とした依存構造への変換}:日英両言語の文を構文解析し,語をまとめることにより,基本句を単位とした依存構造を得る.\item{\bf辞書の情報による対応関係の推定}:日英対訳辞書(以下,{\bf辞書}とよぶ)を利用し基本句対応を推定する.\item{\bf未対応句の処理}:辞書の情報では対応のつかなかった基本句(以下,このような句を{\bf未対応句}とよぶ)を含んだ基本句対応を推定する.\end{enumerate}\vspace{1ex}\subsection{基本句}日本語では,語(形態素)という単位の基準が曖昧であり,高精度に自動検出することができる文節が統語解析の単位として一般的に用いられてきた.一方,英語においては,語の基準が明確であるため,文節に相当する単位は通常用いられない.これら両言語の言語の構造を照合する際には,従来,語を単位とした構造照合が行われてきた\cite{Matsumoto1993,Kaji1992}.提案手法では,文節に相当する単位を英語に導入し,両言語の構造を文節に相当する単位で照合する.英語には,文節に相当する単位は存在しないため,本稿では,この単位を{\bf基本句}とよぶ.基本句を対応の単位とすることのメリットは次のようにまとめられる.\vspace{1ex}\begin{enumerate}\item複合名詞などにおける基本句の内部の結びつきは強い結び付きであるので,対応の整合性を調べる際の強い手がかりとできる.\item機能語は各言語固有の振る舞いがあり,それをバラバラに扱うと問題が複雑になってしまう.基本句を単位とすることにより内容語中心の取り扱いとなり,問題が単純化される.\itemある対応が周辺と整合的であるかどうかを計算する場合に,まわりとの距離の尺度が必要であるが,単語を単位として考えるよりも,基本句を単位とする方が妥当な尺度となる.\end{enumerate}\vspace{1ex}\subsection{基本句を単位とした依存構造への変換}\begin{figure}\begin{center}\leavevmode\epsfxsize=12cm\epsfysize=8.2cm\epsfbox{f_kihonnku2.eps}\caption{基本句を単位とした依存構造}\label{f_kihonnku2.eps}\end{center}\end{figure}まず,対訳文中の両言語の文を統語解析し,その結果を基本句を単位とした依存構造に変換する.これは日英それぞれ次のように行なう.日本語の文については,KNP\cite{Kurohashi1994}を用いて統語解析を行なう.その結果得られる「$(接頭辞*)(内容語+)(機能語*)$」という構造を持つ文節を基本句とする(*は0回以上の繰り返し,+は1回以上の繰り返し).文節と異なる点は,「(〜に)ついて」や「(〜に)おいて」など,機能的表現となっている内容語を直前の文節にまとめることである.ここでいう機能的表現となる文節は,人手で登録した文節パターン約30に当てはまる文節と,KNPの解析結果が<複合辞>となる文節とする.英語の文については,Charniakの統語解析システム\cite{Charniak2000}を用いて解析を行なう.これは句構造を出力するので,各句構造規則に主辞を定義することにより依存構造に変換する.次に内容語を中心にして,その前後の機能語(前置詞・冠詞・不定詞など)をまとめる.これには次の規則を用いた.\vspace{1ex}\begin{enumerate}\item複合名詞をまとめる(例:the\underline{oilcrises})\item機能語を内容語とまとめる(例:\underline{atthis}meeting)\item助動詞や助動詞的表現を主動詞とまとめる(例:\underline{hadbetter}study)\end{enumerate}\vspace{1ex}図\ref{f_kihonnku2.eps}に,両言語の文を基本句を単位とした依存構造に変換した例を示す.日本語側の「役割に向け」の「向け」や,「踏み出すことになる」と」の「ことになる」が機能的表現であるために直前の文節にまとめられて基本句となっている.英語側では,(1)〜(3)の規則により,図\ref{f_kihonnku2.eps}右のように語がまとめられる.日本語側との大きな相違点は,基本句をまとめる際に表層の文字列上でギャップが発生する場合があることである.例えば,``〜towardanewNATO〜''は,``toward''と``a''をその係り先である``NATO''にまとめた結果,``towardaNATO'と``new''に分けて基本句となる.このように基本句でもとの語順が保存されない場合は,本稿中では,``an_step'',``(important)''のように表記する.\subsection{辞書の情報による対応関係の推定}\subsubsection{辞書対応リンクの付与}\begin{figure}\begin{center}\leavevmode\epsfxsize=11cm\epsfysize=8.2cm\epsfbox{f_d-link.eps}\end{center}\caption{辞書対応リンク}\label{f_d-link.eps}\end{figure}辞書(日本語の見出し語:約14万語)を用いて日英の内容語間に対応をつける.辞書には単語間あるいは単語列間(例:「寝る」$\Leftrightarrow$``gotobed'',「事務総長」$\Leftrightarrow$``secretarygeneral''など)の対応関係が記述されており,対訳文中の両言語の語(列)と一致するものがあれば,対訳文中の両言語の語(列)同士をリンク付ける(以下,このリンクを{\bf辞書対応リンク}とよぶ).両言語とも内容語を含まない対応関係(例:「で」$\Leftrightarrow$``at''など)や,片側の言語で内容語を含まない対応関係(例:「進行中の」$\Leftrightarrow$``on''など)については,曖昧性が高いために辞書対応リンクを付与しない.ある語(列)の訳語が相手側言語に複数存在すれば,語(列)は複数の辞書対応リンクを持つ.以降,このような辞書対応リンクを{\bf曖昧な}辞書対応リンクよぶ.一方,辞書対応リンクが1本だけ付与されている単語(列)において,その辞書対応リンクを{\bf一意な}辞書対応リンクよぶ.図\ref{f_d-link.eps}は先の図\ref{f_kihonnku2.eps}の対訳文に張られる辞書対応リンクの例である.\subsubsection{辞書の情報による基本句対応の推定}\begin{figure}\begin{center}\leavevmode\epsfxsize=11cm\epsfysize=8.2cm\epsfbox{f_kouho4.eps}\end{center}\caption{辞書対応リンクと基本句対応の候補}\label{f_kouho4.eps}\end{figure}次に辞書対応リンクを用いて,基本句の対応({\bf基本句対応})を推定する.これは次のような手続きで行なう.まず,基本句が辞書対応リンクで接続されており,かつ,日英それぞれで依存関係で接続されていることを条件に,対訳文中からあらゆる基本句対応の候補(以降,{\bf候補}とよぶ)を生成する.例えば,図\ref{f_d-link.eps}の例では,7つの候補を生成する(図\ref{f_kouho4.eps}の候補1〜7).ここで,候補7に含まれている語(列)には,曖昧な辞書対応リンクを持ったものがない.このような候補(以降,{\bf一意な候補}とよぶ)を採用して基本句対応とする.候補1〜6には,曖昧な辞書対応リンクをもった語(列)が存在する.このような候補(以降,{\bf曖昧な候補}とよぶ)については次の手順で採用する候補を判定する.\vspace{1ex}\vspace{1ex}\begin{description}\itemstep1:曖昧な候補のスコア計算\itemstep2:最高スコアを持つ候補を採用\itemstep3:採用した候補と重複する候補は削除.候補が残っているならstep1へ,残っていないならstep4へ.\itemstep4:基本句対応の棄却判定\end{description}\vspace{1ex}\vspace{1ex}step1では曖昧な候補にスコアを付与する.スコアは次の2つの整合性を用いて以下のように定義する.\vspace{1ex}\begin{description}\item{\bf内的整合性}:対応内部に含まれる辞書対応リンクの整合性\item{\bf外的整合性}:近傍のすでに採用された基本句対応の整合性\end{description}\vspace{1ex}\[(基本句対応候補のスコア)=(内的整合性)\timesC+(外的整合性)\times(1-C)\]Cは定数であり,どちらの情報をより重視するかのパラメータである.\subsubsection*{\underline{内的整合性}}基本句対応の候補内に辞書対応リンクを多く持っている場合,その候補は信頼性が高い.そこで,候補内の辞書対応リンクの情報を内的整合性として,以下のように定義する.\[(内的整合性)=\frac{D_j+D_e}{W_j+W_e}\times\log(D_j+D_e)\]ただし,$W_j$は候補内の日本語の内容語の数,$W_e$は英語の内容語の数である.$D_j$は辞書対応リンクを付与されている日本語の内容語の数,$D_e$は辞書対応リンクを付与されている英語の内容語の数である.$\frac{D_j+D_e}{W_j+W_e}$は,候補内の辞書対応リンクの充足の度合いを示しており,候補内のすべての内容語が辞書対応リンクを付与されている場合に最大値である1をとる.ここで,すべての内容語が辞書対応リンクで接続されていても,内容語数が1:1の候補と,2:2の候補では,後者の候補の方が候補内の辞書対応リンクがお互いに支持しあっており,信頼性が高いと考えられる.そこで後者を優先するために,log$(D_j+D_e)$により重み付けをしている.例えば,図\ref{f_kouho4.eps}の候補3は内容語数が9つ(日本語側4つ,英語側5つ)であり,そのうちの8つが辞書対応リンクをもつ.よって,内的整合性は1.84(=$\frac{4+4}{4+5}×\log(4+4)$)となり,候補1〜6の中でもっとも高い値となる.\subsubsection*{\underline{外的整合性}}\begin{figure}\begin{center}\leavevmode\epsfxsize=8cm\epsfysize=5.6cm\epsfbox{f_gaiteki2.eps}\end{center}\caption{外的整合性}\label{f外的整合性}\end{figure}候補の近傍に基本句対応が多く存在すればするほど,その候補は他の基本句対応に支持されており確かだと考えられる.本稿ではこの支持を外的整合性とよぶ.外的整合性は,候補の近傍の基本句のうち,基本句対応に含まれるものの割合を用いて以下のように定義する.\[(外的整合性)=\frac{\sum_i(C_iによる候補への支持)}{\#(N_j)+\#(N_e)}\\\]{\small\[(C_iによる候補への支持)=\left\{\begin{array}{@{\hspace{0.6mm}}ll}\#(C_{ij}\capN_j)+\#(C_{ie}\capN_e)&\\mbox{if}\\#(C_{ij}\capN_j)>0かつ\#(C_{ie}\capN_e)>0\\0&\\mbox{otherwise}\\end{array}\right.\]}ただし,$N_j$は候補の日本語側の近傍に存在する基本句の集合,$N_e$は候補の英語側の近傍に存在する基本句の集合,$C_{ij}$は基本句対応$C_i$の日本語側の基本句の集合,$C_{ie}$は基本句対応$C_i$の英語側の基本句の集合である.\#は集合の要素数を示す.{\bf近傍}とは,依存構造上で基本句間の距離が2以内に含まれる基本句の集合と定義する\footnote{近傍を依存構造上で基本句間の距離1〜3と変化させて実験を行ったが,距離2が高い精度を示した.よって,ここでは依存構造上で基本句間の距離2を近傍とした.どの範囲を近傍と扱うのがよいかは対訳コーパスに依存し,本稿では詳細に取り扱わなかった.}.例えば,図\ref{f外的整合性}で「NATOは」$\Leftrightarrow$``towarda_NATO''という候補に注目してみと,日本語側の「NATOは」近傍には4つの基本句があり,英語側の``towarda_NATO''近傍にも4つの基本句がある.この近傍の基本句対応は「一歩を」$\Leftrightarrow$``an_step''だけなので,外的整合性は,0.25(=$\frac{2}{4+4}$)となる.\vspace{1ex}\vspace{1ex}\vspace{1ex}\vspace{1ex}step2では,曖昧な候補のうち最も高いスコアを持つものを採用し,候補を基本句対応とする.この際,基本句対応を次の4つに分類しておく.この分類は後の処理で利用する.\vspace{1ex}\begin{enumerate}\item{\bf充足対応}:内的整合性が1である基本句対応.この基本句対応は対応内のすべての内容語が辞書対応リンクを付与されている.\item{\bf日本語過剰対応}:基本句対応内の英語側の内容語はすべて辞書対応リンクが付与されており,日本語側の内容語の一部が辞書対応リンクを付与されていない基本句対応.\item{\bf英語過剰対応}:基本句対応内の日本語側の内容語はすべて辞書対応リンクが付与されており,英語側の内容語の一部が辞書対応リンクを付与されていない基本句対応.\item{\bf不安定対応}:基本句対応内の日英いずれの言語側にも辞書対応リンクを付与されていない内容語が含まれている基本句対応.\end{enumerate}\vspace{1ex}step3では,基本句対応が持つ基本句と候補が持つ基本句が重複していれば,その候補を削除する.例えば図\ref{f_d-link.eps}の下例では候補3を採用すると,候補1〜2,4〜6は削除する.まだ候補が残っているならば,次の候補を採用するためにstep1に戻る.候補が存在しないならば,step4に移る.step4では,すべての基本句対応について外的整合性を計算し,外的整合性が0であれば,その基本句対応を棄却する.この処理を行なう理由は次のようになる.先に一意な候補は外的整合性がなくても無条件に採用した.また,曖昧な候補についても,内的整合性が高ければ外的整合性がなくても採用されうる.しかし,外的整合性が小さい基本句対応は誤っている可能性が高く,ここで外的整合性の有無を手がかりとして基本句対応の棄却を行なう.\subsection{未対応句の処理}\begin{figure}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=8.2cm\epsfbox{f_kisoku.eps}\end{center}\caption{未対応句の推定規則}\label{f_kisoku.eps}\end{figure}先の処理で推定された基本句対応だけでは,対応付けられていない基本句が残る場合がある.このような未対応句を対応付ける場合,次の2通りの可能性がある.\vspace{1ex}\begin{enumerate}\item未対応句同士を基本句対応とする(以降,{\bf新規対応}とよぶ)\item未対応句をすでに推定された基本句対応に含めて新たな基本句対応とする(以降,{\bf拡張対応}とよぶ)\end{enumerate}\vspace{1ex}そこで,コーパスを調査して図\ref{f_kisoku.eps}のような新規対応と拡張対応を推定する規則を作成した.未対応句の対応付けは規則に適合した場合に行なう.新規対応の規則は,日本語側のn個の未対応句(以降,{\bf未対応句群}とよぶ)と英語側のm個の未対応句群が,それぞれの親方向,子方向が対応付けられている,あるいは端点となっている場合に,それらを基本句対応とする.ただし,未対応句群に含まれる未対応句は依存構造上で連続していることを条件とする.\vspace{1ex}\begin{description}\item{\bf新規-a}:両言語の未対応句群の親同士が対応付けられていおり,子同士が対応付けられている場合.ただし,子が複数ある場合は,いずれかの子同士が対応付けられていればよいものとする.\item{\bf新規-b}:両言語の未対応句群がともに依存構造上の葉である場合,両言語の未対応句群の親同士が対応付けられており,かつ,兄弟がすべて基本句対応に含まれている場合.ただし,兄弟同士が対応付けられている必要はない.\item{\bf新規-c}:両言語の未対応句群がともに依存構造上の根であり,子同士が対応付けられている場合.ただし,子が複数ある場合はいずれかの子同士が対応付けられていればよいものとする.\end{description}\vspace{1ex}\vspace{1ex}拡張対応も新規対応と同様に,未対応句群の親方向,子方向が対応付けられている,あるいは端点となっている場合に未対応句群の対応付けを行なうが,未対応句群が片方の言語側だけに存在する点が異なる.ここで,基本句対応を不適切に拡張対応としてしまわないように,拡張対応は次の2つの条件のいずれかを満たすものとする.条件のいずれかを満たした上で以下の規則に適合すれば拡張対応を推定する.\vspace{1ex}\begin{description}\item条件1:英語過剰対応の日本語側に未対応句群が拡張される場合.または,日本語過剰対応の英語側に未対応句群が拡張される場合\item条件2:不安定対応に未対応句群を拡張する場合\end{description}\vspace{1ex}\vspace{1ex}\vspace{1ex}\begin{description}\item{\bf拡張-a}:2つの基本句対応が,片方の言語側で依存構造で接続されており,他方の言語側では未対応句群を挟んで接続されている場合に,未対応句群をいずれかの基本句対応に加える.どちらの基本句対応を拡張対応とするかの判定は,条件1の基本句対応を条件2の基本句対応よりも優先する.また,条件1同士や,条件2同士の判定は,内的整合性の低い基本句対応を優先する.\item{\bf拡張-b}:未対応句群が依存構造上の葉である場合,親と兄弟すべてが基本句対応に含まれており,親の対応先が葉であれば,未対応句群を親の基本句対応に加える.\item{\bf拡張-c}:未対応句群が依存構造上の根である場合,子が基本句対応に含まれており,かつ,子の対応先が根であれば,未対応句群を子の基本句対応に加える.\end{description}\vspace{1ex}規則に適合する未対応句群が存在しなくなると,未対応句の処理は終了する.
\section{実験と考察}
\subsection{コーパスと実験環境}\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline日本語の平均文字数&8.18文字&12.4文字&51.7文字\\英語の平均語数&4.98語&6.0語&21.4語\\\hline\end{tabular}\caption{各コーパスの文の長さ}\label{文長}\end{center}\end{table}実験には以下の3種類の対訳コーパスを使用した.\vspace{1ex}\begin{description}\item(2){\bf翻訳用例コーパス}:SENSEVAL2のtranslationtask\cite{Kurohashi2001}にて作成されたもので,文以下のサイズの対訳表現からなる.\item例:「私はそれについて多くを知らない.」/``Idonotknowmuchaboutit.''\vspace{1ex}\vspace{1ex}\item(1){\bf辞書用例コーパス}:短文であり,平易な表現が多い.\item例:「危なくて仕方がない」/``tobenothingbutdanger''\vspace{1ex}\vspace{1ex}\item(3){\bf白書コーパス}:科学技術庁及び経済の白書.文長が長く,専門用語が多く含まれている.\item例:「年1回,過去12回開催され,我が国は第6回より参加している.」/``Theconferencehasbeenheldannuallyfor12years,andJapanhasparticipatedsincethe6thmeeting.''\end{description}\vspace{1ex}\vspace{1ex}\vspace{1ex}それぞれのコーパスの平均文長を表\ref{文長}に示す.実験にあたっては3つのコーパスから,それぞれ100対訳文ずつ計300対訳文を無作為抽出した.使用した統語解析システムは日本語においてはKNP\cite{Kurohashi1994},英語においてはCharniakのnl-parser\cite{Charniak2000}である.内的整合性と外的整合性の比であるパラメータ$C$は0.2とした\footnote{実験の結果,この値がもっともよい精度を示した.}.未対応句の処理で未対応句群を扱う個数は日英とも1とした.\subsection{基本句対応の評価}システムが推定した基本句対応を評価するために,正しい対応関係を内容語単位で作成した(以降,この対応を{\bf内容語対応}とよぶ).これは,内容語を基本句にまとめる規則が変化した場合も評価を可能にするためである.具体的な記述例を以下に示す.\vspace{1ex}\begin{description}\item対訳文1「主要国の科学技術政策動向」/``Trendsamongthemajorcountries''\item内容語対応(1)主要$\Leftrightarrow$major,(2)国$\Leftrightarrow$countries,(3)動向$\Leftrightarrow$Trends\vspace{1ex}\vspace{1ex}\item対訳文2「可能性は限りなくゼロに近い」/``Itisalmostimpossible''\item内容語対応(1)可能性は限りなくゼロに近い$\Leftrightarrow$Itisalmostimpossible\end{description}\vspace{1ex}\vspace{1ex}対訳文2のように個々の内容語のレベルでは対応がつかない場合は,$n$語:$m$語の内容語対応を記述した($n\geq$1,$m\geq$1).作成された内容語対応のサイズを表\ref{tb正解サイズ}に示す.各コーパスで8割以上が1語:1語の対応となった.\begin{table}\begin{center}\begin{tabular}{llll}\hline対応のサイズ&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline1:1&205(81\,\%)&303(84\,\%)&637(80\,\%)\\2:1&23(9.1\,\%)&23(6.4\,\%)&79(9.9\,\%)\\2:2&3(1.1\,\%)&10(2.7\,\%)&34(4.2\,\%)\\それ以上&21(8.3\,\%)&23(6.4\,\%)&42(5.3\,\%)\\\hline合計&252&359&792\\\hline\end{tabular}\caption{内容語対応のサイズ}\label{tb正解サイズ}\end{center}\end{table}\begin{figure}\begin{center}\leavevmode\epsfxsize=11cm\epsfysize=2.2cm\epsfbox{f_seikai.eps}\end{center}\caption{内容語対応による評価}\label{評価}\end{figure}評価は内容語対応を用いて情報検索と同様に適合率と再現率の2つの尺度で行なった.ただし,出力は基本句対応であるのに対して正解は内容語対応なので,適合率は基本句対応の適合率,再現率は内容語対応の再現率とした.\vspace{1ex}\vspace{1ex}(基本句対応)適合率は以下のように定義した.\[(基本句対応)適合率=\frac{(内容語対応を完全に含んでいる基本句対応の数)}{(システムが推定した基本句対応の数)}\]例えば,図\ref{評価}の3つの基本句対応のうち基本句対応(a)と(b)は内容語対応を完全に含んでいるが,基本句対応(c)は1つの内容語対応を含んでいない.よって,3つの基本句対応の適合率は0.66(=2/3)となる.この定義では大きなサイズの基本句対応を推定すれば,適合率が高くなる.しかし,表\ref{tb具体例}の出力例が示すように提案手法は不当に大きなサイズの対応を推定する性質を持っていない.\vspace{1ex}\vspace{1ex}(内容語対応)再現率は以下のように定義した.\[(内容語対応)再現率=\frac{(基本句対応に完全に含まれている内容語対応の数)}{(内容語対応の数)}\]例えば図\ref{評価}では,5つの内容語対応のうち4つだけが基本句対応に含まれており,再現率は0.8(=4/5)となる.\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline(基本句対応)適合率&82.2\,\%(134/163)&90.6\,\%(253/279)&92.8\,\%(454/489)\\\hline(内容語対応)再現率&81.7\,\%(206/252)&86.3\,\%(310/359)&76.7\,\%(608/792)\\\hline\end{tabular}\caption{コーパスと精度}\label{tbコーパスと精度}\end{center}\end{table}\vspace{3ex}提案手法の(基本句対応)適合率と(内容語対応)再現率は表\ref{tbコーパスと精度}に示す.また,見つかった基本句対応を次の3つに分類し,それぞれの適合率を調べた結果を表\ref{tb基本句対応の分類と適合率}に示す.\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline辞書対応&91.5\,\%(108/118)&95.7\,\%(199/208)&94.6\,\%(421/445)\\拡張対応&76.2\,\%(48/63)&76.2\,\%(32/42)&80.0\,\%(40/50)\\新規対応&66.7\,\%(20/30)&73.8\,\%(31/42)&72.7\,\%(16/22)\\\hline\end{tabular}\caption{基本句対応の分類と適合率}\label{tb基本句対応の分類と適合率}\end{center}\end{table}\vspace{1ex}\begin{description}\item{\bf辞書対応}:未対応句が含まれない基本句対応.\item{\bf拡張対応}:辞書対応を未対応句によって拡張した基本句対応.\item{\bf新規対応}:未対応句同士の基本句対応.または,それを拡張したもの.\end{description}\vspace{1ex}拡張対応と新規対応の精度は辞書対応に比べて低いが,再現率をあげるために重要である.対訳コーパスは一言語のコーパスと比べて量が少なく貴重であるため,再現率の高さは重要である.\subsection{基本句対応についての考察}コーパスには,しばしば対応すべき内容の表現が異なっていたり,依存構造が異なっている対訳文が含まれる.例えば,白書コーパスでは,図\ref{f_f3.eps}のように日本語側の「わが国」が英語側で``Japan''と訳されている.このように,対応すべき表現の対応関係が辞書で得られないような現象を,ここでは表現の異なりとよぶ.また,この対訳文では,日本語側が「わが国を取り巻く国際的状況は〜問題をはらんでいる」と対応する部分が,英語側で``Japanisconfronting〜intheinternationalarena.''となっており,「わが国」と``Japan''の係り先が異なる.このような対応すべき表現の係り先が異なる現象を構造の異なりとよぶ.表現の異なりと依存構造の異なりのいずれか一方だけが起こっている場合には,提案手法は対応関係を正しく推定できる.例えば,図\ref{f_f4.eps}の対訳文では構造が一致しているため,表現が異なる「わが国」と``Japan''の対応関係を推定できている.一方,表現の異なりと構造の異なりが同時に起こっている場合は,対応関係を正しく推定できず,誤りの主要な原因となっている.これは,提案手法では,表現の異なる部分(未対応句)の対応関係を構造を手がかりとした規則で処理しているからである.提案手法だけではこの問題の解決は困難であるが,白書コーパスでは「わが国」が``Japan''と訳される頻度は多く,提案手法に重み付きダイス係数などの統計量を用いることで,ドメイン特有の表現の異なりをある程度吸収できると考えられる.また,構造の異なりが統語解析結果の誤りによって引き起こされる場合がある.この場合は文献\cite{Matsumoto1993}にて両言語の解析結果を照合し,適切な統語解析を選択するという手法が提案されており,提案手法に導入することで精度の向上が期待できる.\begin{figure}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=4.6cm\epsfbox{f_f3.eps}\end{center}\caption{構造の異なりと表現の異なり}\label{f_f3.eps}\end{figure}\begin{figure}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=4cm\epsfbox{f_f4.eps}\end{center}\caption{表現の異なり}\label{f_f4.eps}\end{figure}\subsection{辞書対応リンクの曖昧性解消の評価}本節では,2.3節で述べた辞書対応リンクの曖昧性を解消する部分のみの精度を調べ,考察した結果を述べる.精度は,基本句の単位を導入した場合(提案手法)と,語を単位とした場合(ベースライン)の精度を比較した.ベースラインでは,語を単位とした依存構造上で近傍(4語以内)に存在するすでに採用された他の辞書対応リンクの多いものを採用することによって,辞書対応リンクの曖昧性の解消を行なう.近傍を4語以内としたのは,提案手法とほぼ同じ範囲の情報を用いるためである(提案手法は近傍の2基本句の情報を用いており,1つの基本句は約2語から構成されている).また,提案手法が,外的整合性が0となる辞書対応リンク(近傍2基本句以内に他の辞書対応リンクが存在しない辞書対応リンク)を採用しないように(2.3節のstep4),ベースラインも近傍4語以内に他の辞書対応リンクが存在しない場合は採用しないものとする.評価は,採用した辞書対応リンクのうち曖昧性のあるものが,人手による内容語対応が一致していれば正解とし,そうでない場合は不正解とした.実験の結果は表\ref{tb辞書引き精度}のようになった.翻訳用例コーパスや辞書用例コーパスでは,文長が短いため曖昧な辞書対応リンクは少数であり,精度の違いについて有意な議論はできない.一方,文長の長い白書コーパスでは曖昧な辞書対応リンクの数は多く,曖昧性解消が重要な問題となっている.この白書コーパスにおいて,提案手法の精度は94.4\,\%であり,ベースラインの精度の89.9\,\%よりも高い.ベースラインと提案手法は依存構造のほぼ同じ範囲の対応情報を利用しているため,提案手法の精度が高い理由は基本句という単位を導入した効果と考えられる.\begin{table}\begin{center}\begin{tabular}{llll}\hline&翻訳用例コーパス&辞書用例コーパス&白書コーパス\\\hline提案手法&100\,\%(5/5)&70.5\,\%(12/17)&94.4\,\%(170/180)\\ベースライン&50.0\,\%(2/4)&76.9\,\%(10/13)\,\%&89.9\,\%(143/159)\\\hline\end{tabular}\caption{辞書対応リンクの精度}\label{tb辞書引き精度}\end{center}\end{table}
\section{まとめ}
本稿は,句アライメントの推定において基本句の概念と辞書を用いた新しい手法を提案した.本手法が解決すべき問題は次の2つにまとめられる.(1)辞書による対応に曖昧性があった場合に,その曖昧性を解消する問題(2)辞書で対応つかない場合に,対応関係を推定する問題(1)に関しては,基本句の導入で高い精度を得ることができ,また,精度も高いことから問題は解決したと考えられる.(2)に関しては,十分な精度は得れなかった.しかし,人手による修正が可能な範囲の精度であり,また,本手法に統計量等の手がかりを導入することで,今後精度を上げることが可能だと考えられる.\begin{table}\begin{center}\begin{tabular}{ll}\hline\hline辞書対応&\\\hline示さ,れて,いる&is,indicated\\使命,である&is,an,mission\\科学,技術,局,が&the,Office,of,Science,and,Technology\\政府,の,施策,の&government,policy\\世界,規模,で&on,a,global,scale\\踏まえ,、&Based,on\\国際,協力,へ,の&toward,international,cooperation\\先進国,間,の&among,advanced,countries\\政策,担当,者,を&The,policy,makers\\\hline\hline新規対応&\\\hline全,要素,生産性,が&of,TFP\\先進,7,カ国,の&of,the,G7,nations\\策定,に,加え,、&In,addition,to,the,formulation\\発足,した&came,into,power\\上げる,こと,だけ,で,なく,、&is,not,only,to,improve\\終わった&are,over\\ただちに&lost,no,time\\かって,もらった&have,cut\\\hline\hline拡張対応&\\\hline冷戦,終結,後,の,世界,に,おいて,は&in,the,post,Cold,War,years\\雇用,創出,に,おいて&and,job,creation\\有形,固定,資産,購入,費,の&of,expenditures,on,tangible,fixed,assets\\転換,期,に,おける&during,the,period,of,transition\\グローバル,化,の,進展,の,中,で,、&Amid,globalization\\輸送,用,機械,工業,の,出超,は&The,surplus,in,the,transport,equipment,industry\\勉強,し,さえ,すれば,よい&have,to,study\\それ,を,して,しまう,でしょう&will,have,done,it\\健康です&in,good,health\\まだ,有効だ&still,holds,good\\\hline\end{tabular}\caption{基本句対応の具体例}\label{tb具体例}\end{center}\end{table}\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{荒牧英治}{1998年京都大学総合人間学部基礎科学科卒業.2002年京都大学情報学研究科修士課程修了.現在,東京大学大学院情報理工学系研究科博士課程在学中.機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1992年同大学院修士課程修了.現在,京都大学大学院情報学研究科知能情報学専攻助教授.}\bioauthor{渡辺日出雄}{1984年京都大学工学部電気工学第二学科卒業.1986年同大学院修士課程修了.京都大学工学博士.1986年日本アイ・ビー・エム株式会社に入社,現在同社東京基礎研究所にて専任研究員及びグループリーダー.機械翻訳や自動要約などの自然言語処理研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N02-06
|
\section{はじめに}
近年,情報化社会の進展と共に大量の電子化された文書情報の中から,自分が必要とする文書情報を効率良く検索することの必要性が高まり,従来のKW検索に加えて,全文検索,ベクトル空間法による検索,内容検索,意味的類似性検索など,さまざまな文書検索技術の研究が盛んである.その中で,文書中の単語を基底とする特性ベクトルによって文書の意味的類似性を表現するベクトル空間法は,利用者が検索要求を例文で与える方法であり,KW検索方式に比べて検索条件が具体的に表現されるため,検索精度が良い方法として注目されている.しかし,従来のベクトル空間法は,多数の単語を基底に用いるため,類似度計算にコストがかかることや,検索要求文に含まれる単語数が少ないとベクトルがスパースになり,検索漏れが多発する恐れのあることなどが問題とされている.これらの問題を解決するため,さまざまな研究が行われてきた.例えば,簡単な方法としては,$tf\cdotidf$法\cite{Salton}などによって,文書データベース中での各単語の重要度を判定し,重要と判定された語のみをベクトルの基底に使用する方法が提案されている.また,ベクトル空間法では,ベクトルの基底に使用される単語は,互いに意味的に独立であることが仮定されているのに対して,現実の言語では,この仮定は成り立たない.そこで,基底の一次結合によって,新たに独立性の高い基底を作成すると同時に,基底数を減少させる方法として,KL法\cite{Borko}やLSI法\cite{Golub},\cite{Faloutsos},\cite{Deerwester}が提案されている.KL法は,単語間の意味的類似性を評価する方法で,クラスタリングの結果得られた各クラスターの代表ベクトルを基底に使用する試みなどが行われている.これに対して,LSI法は,複数の単語の背後に潜在的に存在する意味を発見しようとする方法で,具体的には,データベース内の記事の特性ベクトル全体からなるマトリックスに対して,特異値分解(SVD)の方法\cite{Golub}を応用して,互いに独立性の高い基底を求めるものである.この方法は,検索精度をあまり低下させることなく基底数の削減が可能な方法として着目され,数値データベースへの適用\cite{Jiang}も試みられている.しかし,ベクトルの基底軸を変換するための計算コストが大きいことが問題で,規模の大きいデータベースでは,あらかじめ,サンプリングによって得られた一定数の記事のみからベクトルの基底を作成する方法\cite{Deerwester}などが提案されている.このほか,単語の共起情報のスパース性の問題を避ける方法としては,擬似的なフィードバック法(2段階検索法とも呼ばれる)\cite{Burkley},\cite{Kwok}なども試みられている.また,ベクトルの基底とする単語の意味的関係を学習する方法としては,従来から,MiningTermAssociationと呼ばれる方法があり,最近,インターネット文書から体系的な知識を抽出するのに応用されている\cite{Lin}.しかし,現実には,単語間の意味的関係を自動的に精度良く決定することは容易でない.これに対して,本論文では,ベクトル空間法において,検索精度をあまり低下させることなく,基底数を容易に削減できることを期待して,単語の意味属性をベクトルの基底として使用する方法を提案する.この方法は,従来の特性ベクトルにおいて基底に使用されている単語を,その意味属性に置き換えるものである.単語意味属性としては,日本語語彙大系\cite{池原}に定義された意味属性体系を使用する.この意味属性体系は,日本語の名詞の意味的用法を約2,710種類に分類したもので,属性間の意味的関係(is-a関係とhas-a関係)が12段の木構造によって表現されている.また,日本語の単語30万語に対して,どの意味属性(1つ以上)に属す単語であるかが指定されている.従って,本方式では,意味属性相互の意味的上下関係を利用すれば,検索精度をあまり落とさずにベクトルの基底数を削減できる.同時に基底として使用すべき必要最低限の意味属性の組を容易に決定できることが期待される.また,本方式では,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価されるため,再現率の向上が期待できる.すなわち,従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用された単語間のみでの一致性が評価されるのに対して,本方式では,すべての単語(30万語)が検索に寄与するため,検索漏れの防止に役立つと期待される.本論文では,TRECに登録された情報検索テストコレクションBMIR-J2\cite{木谷}を検索対象とした検索実験によって,従来の単語を用いた文書ベクトル空間法と比較し,本方式の有効性を評価する.
\section{意味属性体系を基底とした文書ベクトル空間法}
\label{vector}\subsection{単語を基底とした文書ベクトル空間法(W-VSM)}従来の単語を基底とした文書ベクトル空間法では,文もしくは文書の意味的類似性はその中に出現した単語の組で表現されるものと仮定している.すなわち,文書の意味的類似性を表現するために使用される単語の番号を$i\\(1\leqi\leqn)$とし,文書中での単語$i$の重みを$w_i$とするとき,文書は,以下のような特性ベクトルで表わされる.\begin{equation}\label{equ1}V=(w_1,w_2,\cdots,w_i,\cdots,w_n)\end{equation}ベクトルの基底とすべき単語としては,キーワード検索の場合と同様,データベース全体に使用された単語の出現統計から,$tf\cdotidf$値などによって重要と判断された単語を通常使用している.また,重み$w_i$の値としては,文中に単語$i$が使用されているときは1,使用されていないときは0とする方法と,文中に使用された単語の出現頻度とする方法がある.また,各文書全体の相対的重みはいずれも等しいとする立場から,ベクトルの絶対値が1となるよう正規化する方法も採られている.本論文では以後,式\ref{equ1}で与えられる特性ベクトルを「単語を基底とした文書ベクトル」と呼び,このベクトルを使用したベクトル空間法を「単語を基底とした文書ベクトル空間法W-VSM(Word-VectorSpaceModel)」と呼ぶ.\subsection{単語を基底とした文書ベクトル空間法における意味的類似度}単語を基底とした文書ベクトル空間法において,文書の意味類似度を特性ベクトルで表現したとき,異なる文書$D_i$,$D_j$間の意味的類似性$sim(D_i,D_j)$は,それぞれの文書に対して求めた特性ベクトルの内積として,式\ref{equ2}のように表現される.\begin{equation}\label{equ2}sim(D_i,D_j)=V_i\cdotV_j\end{equation}但し,$V_i\cdotV_j$は,それぞれ,文書$D_i$,$D_j$の特性ベクトルを表す.従って,単語を基底とした文書ベクトル空間法を用いた情報検索では,利用者の与えた検索要求文について特性ベクトルを求めて,データベースに収録された各文書の特性ベクトルとの間で類似度を計算し,類似度がある一定値以上の文書を抽出している.また,単語を基底とした文書ベクトル空間法では,任意の文書をつなぎ合わせた文書についての特性ベクトルも容易に合成できるから,類似度の高い文書相互間で順にベクトル合成を行えば,文書全体を容易にクラスタリングすることができる.\subsection{単語意味属性を基底とした文書ベクトル空間法(S-VSM)}\label{word_meaning}本論文では,単語の代わりに,その単語の意味属性を使用する方法を提案する.本方式では,すべての単語を$k$個の意味属性に分類したのち,分類された意味属性を要素とする特性ベクトルによって文書の意味的類似性を表現する.すなわち,対象とする文書$D_j$において$i$番目の意味属性を持つ単語全体の重み$S_i$とするとき,文書$D_j$の特性ベクトル$V_j$は,次式で表現される.\begin{equation}\label{equ3}V_j=(S_1,S_2,\cdots,S_i,\cdots,S_k)\end{equation}重み$S_i$の与え方としては,種々の方法が考えられるが,本論文では,単語を基底とした文書ベクトル空間法の場合と同様,$tf\cdotidf$法の考えを適用し,以下の方法で得られた値とする.\begin{enumerate}\itemデータベースに収録された文書全体に対して,意味属性$S_i$に属す単語が出現した頻度の合計を求め,それぞれの$idf$値を計算する.\item文書$D_j$を対象に,意味属性$S_i$に属す単語が出現した頻度の合計を求め,その値を文書$D_j$の$tf$値とする.\item上記で得られた$tf$値と$idf$値から,意味属性$S_i$の$tf\cdotidf$値を求める.\item上記で得られた$tf\cdotidf$値を$|V_j|=1$となるように正規化する.\end{enumerate}なお,式\ref{equ1}で与えられる特性ベクトルを「単語を基底とした文書ベクトル」と呼んだのに対して,以下では,式\ref{equ3}で与えられる特性ベクトルを「単語意味属性を基底とした文書ベクトル」と呼び,このベクトルを使用したベクトル空間法を「単語意味属性を基底とした文書ベクトル空間法S-VSM(Semantic-VectorSpaceModel)」と呼ぶ.\subsection{日本語単語の意味属性体系}\label{goitaikei}単語の代わりに意味属性を基底とする文書ベクトル空間法では,単語の意味属性についての分類体系が必要である.本論文では,意味分類体系として,最近,「日本語語彙大系」\cite{池原}で提案された日本語名詞の意味属性体系を使用する.図\ref{imi}に意味属性体系の一部を示す.\begin{figure}[h]\begin{center}\epsfile{file=figure/zu1.eps,scale=0.77}\end{center}\caption{一般名詞意味属性体系の一部}\label{imi}\end{figure}この意味属性体系は,日本語名詞の意味的な用法を2,710種類の意味属性に分類したもので,意味属性間の意味的関係(is-a関係,has-a関係)が,12段の木構造で表現されている.また,単語意味辞書では,日本語名詞30万語のそれぞれが,どのような意味属性を持つか(一つ以上)が規定されている.従って,文書中に使用された名詞の出現頻度が分かれば,\ref{equ3}式のベクトルの要素$S_i$は,$i$番目の意味属性を持つ名詞の出現頻度から\ref{word_meaning}章で述べた方法で容易に求めることができる.\subsection{単語意味属性を基底とした文書ベクトルの効果}情報検索において,従来の単語を基底とした文書ベクトル空間法W-VSMに比べて,単語意味属性を基底とする文書ベクトル空間法S-VSMが,どのような効果を持つかについて考察する.\begin{enumerate}\itemベクトルの基底数削減の可能性従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用される名詞の意味は,互いに独立であることが仮定されているが,現実にはこの仮定は成り立たない.そのため,ベクトルの基底数を減少させるため,従来,基底をクラスタリングで得られたクラスターのベクトルとしたり,特異値分解(SVD:SingularValueDecomposition)によって得られたベクトルに変換する方法の研究\cite{Deerwester}が行われてきた.しかし,これらの方法は,ベクトルの変換に多くのコストを要する点が問題であった.これに対して,本論文で基底として使用する単語意味属性は,木構造によって意味的上下関係(is-a関係とhas-a関係)が規定されている(\ref{goitaikei}節参照).この関係を利用して基底数を削減するため,計算コストはきわめて小さい.また,あまり効果のない意味属性を上位の意味属性で代用できるので,削減された意味属性も検索精度に寄与できるため,従来の方法と同様,検索精度をあまり落とすことなく,基底数が削減できると期待される.\item検索漏れの減少の可能性従来の単語を基底とした文書ベクトル空間法では,文書中に出現した単語のうち,ベクトルの基底として選択された単語のみがその文書の意味に反映する.そのため,意味が同じであっても,表記が異なる語は別の語として判定される.また,同義語や類義語を含む文書であっても,それが基底として採用されない限り検索の対象とならない.これに対して,単語意味属性を基底とした文書ベクトル空間法では,\ref{word_meaning},\ref{goitaikei}節で述べたように,30万語の名詞が2,710の意味属性にマッピングされ,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価される.すなわち,文書中に使用される語は,それが異表記語,同意語,同義語のいずれでであっても,その意味が特性ベクトルに反映するため,情報検索において,検索漏れの削減の効果が期待できる.\item適合率の低下単語意味属性を基底とした文書ベクトル空間法では,1つの単語に対して意味属性による検索をおこなうため,複数の単語を検索するのと等価になる.そのため適合率の低下が予想される.\end{enumerate}
\section{必要最小限の意味属性の決定}
本論文では,\ref{vector}章で述べた単語意味属性を基底とした文書ベクトルの効果を評価するため,日本語語彙大系で定義された意味属性2,710種類のすべてを使用する場合と,その中から必要最小限と見られる意味属性を選択して使用する場合について検索精度を調べる.本章では,意味属性の上下関係に着目した汎化により,ベクトルの基底として使用すべき必要最小限の意味属性の組を発見する方法について述べる.\subsection{汎化の方法}\label{generation}汎化とは,モデル学習において,事例から規則を発見するための帰納的推論の一種である.ここでは,特性ベクトルの基底数を減少させるため,情報検索に効果が少ないと推定される意味属性を直属上位の意味属性に縮退させることを汎化と呼ぶ.本論文では,汎化によって基底から削除された意味属性の$tf\cdotidf$値は,その上位の意味属性の$tf\cdotidf$値に加えることとする.汎化の対象とする意味属性の選び方については,様々な方法が考えられるが,ここでは,意味属性の粒度と意味属性の$tf\cdotidf$値に着目する方法を考える.\subsubsection{粒度による汎化\\S-VSM(g)}ベクトルの基底に使用される意味属性は,12段の木構造からなり,下位になるほど意味の粒度が相対的に小さくなる.そこで,各意味属性の位置する段数を粒度と考え,ある一定の粒度より小さい意味属性を汎化する.図\ref{generation-fig}に,8段以下の意味属性を7段目の意味属性に汎化する場合の例を示す.\subsubsection{$tf\cdotidf$値による汎化\\S-VSM(w)}検索対象となるデータベースの文書全体での$tf\cdotidf$値の小さい意味属性は,検索に寄与する程度が小さいと考えられるため,$tf\cdotidf$値の小さい意味属性を汎化の対象とする.汎化によって削除された意味属性の$tf\cdotidf$値は,上位直属の意味属性の$tf\cdotidf$値に加算する.直属の意味属性が削除されているときは,さらに上位の意味属性の$tf\cdotidf$値に加算する.図\ref{generation-fig}に,$tf\cdotidf$値が5以下の意味属性を汎化する場合の例を示す.\begin{figure}[ht]\begin{center}\epsfile{file=figure/zu2.eps,scale=0.92}\end{center}\caption{汎化の方法}\label{generation-fig}\end{figure}\subsection{必要最小限の意味属性の決定}\label{decision}ベクトル空間法では,計算量を削減する観点から,ベクトルの基底数を減少させることが望まれる.しかし,多くの場合,検索精度は低下させずに基底数を削減することは困難である.そこで,前節で述べた汎化の方法を使用し,検索精度をある一定値以上低下させない範囲で,必要最小限の意味属性の組を求める方法を考える.\subsubsection{粒度による汎化\\S-VSM(g)}元来,特性ベクトルで表現される文書の意味の粒度は,ベクトルの基底に単語そのものを使用する場合が最も細かい.意味属性を使用する方法では,すでに意味的な汎化が行われており,意味の粒度は荒くなっている.粒度に着目した汎化がさらに進めば検索精度は次第に低下すると考えられるため,必要最小限の意味属性の組を発見するには,順次,汎化を進めながら,検索精度の変化を追跡する必要がある.その結果,検索精度が低下する直前に使用した意味属性の組を必要最小限の組とする.\subsubsection{$tf\cdotidf$値による汎化\\S-VSM(w)}\begin{enumerate}\item{基本的な考え方}データベース中で$tf\cdotidf$値の小さい意味属性が汎化の対象となる.しかし,必ずしも,$tf\cdotidf$値の小さい意味属性のすべてを汎化すればよいとは限らない.いま,データベース内に収録された文書が検索対象となる確率はすべて均等だとし,すべての文書を対象に求めた特性ベクトルの和を$V_t$とする.$V_t$要素$n_i$の値の小さい意味属性$\#i$は,検索精度に与える影響が少ないから,情報検索において少ないベクトルの基底数で高い検索精度を得るには,各$n_i$の値がバランスしていることが必要である.すなわち,$tf\cdotidf$値の低い意味属性でも,基底間でアンバランスが増大するような汎化は,検索精度低下の原因となるから,高い検索精度を得るためには,データベース内の文書全体で出現する$tf\cdotidf$値がバランスするような意味属性を特性ベクトルの基底に選定する必要がある.\item{汎化すべき意味属性の選択基準}汎化すべき意味属性の選択基準について考える.データベース内に収録された文書全体の特性ベクトルを式\ref{equvec}とする.\begin{equation}\label{equvec}V_t=(n_1,n_2,\cdots,n_i,\cdots,n_m)\end{equation}ただし,$n_i$は,意味属性$\#i$に属す単語のデータベース全体での$tf\cdotidf$値の和を,また,$m$は,基底に使用される意味属性の数を示す.ここで,各$n_i$の値の均等さを変動によって評価するとし,評価関数$H$を以下のように定義する.\begin{equation}H=(n_1-n)^2+(n_2-n)^2+\cdots+(n_i-n)^2+\cdots+(n_m-n)^2\end{equation}但し$n$は$n_i$の平均値とする.\begin{equation}n=\sum_{i=1}^{m}{n_i\overm}\end{equation}基底のバランスを向上させるには,$H$の値が,減少するような基底(意味属性$\#i$)を選んで汎化を行う.そこで,意味属性$\#i$を汎化することを考える.$\#i$の直属上位の意味属性の番号を$\#j$とすると,汎化では,$n_i$の値が$n_j$に加算され,基底数$m$が1だけ減少する.従って,このようにして得られた$H$の値を$H_1$とすると,$H$と$H_1$の差は,近似的に\footnote{$H_1$の平均$n'$は$n'=\frac{m}{m-1}n$となる.ここで$m>>1$とすると$\frac{m}{m-1}\simeq1$から$n'\simeqn$となる.}式\ref{equuvi1}が得られる.\begin{equation}\label{equuvi1}H-H_1\simeq(n_i-n)^2+(n_j-n)^2-(n_i+n_j-n)^2\end{equation}ここで,条件から,$H-H_1>0$とおくと,式\ref{equuvi2}が得られる.\begin{equation}\label{equuvi2}n_i\cdotn_j<n^2/2\end{equation}以上から,汎化すべき基底は,その重$tf\cdotidf$値と直属上位の基底の$tf\cdotidf$値との積が,基底の平均値の二乗値の半分以下になるものを選択する.\item汎化の手順具体的には,以下の手順で汎化を行う.\begin{enumerate}\item汎化\label{itemitem1}上下関係にある意味属性$n_i$,$n_j$のすべての組のうち,積が最も小さい組を汎化する.\item検索情報検索実験を行い,検索精度を求める.\item停止検索精度の低下がある閾値以下の値のときは(a)に戻り,それ以上の時は,汎化を停止する.\end{enumerate}\end{enumerate}\subsection{ベクトル変換のための計算コスト}\ref{generation}節で述べた汎化は,基本となるベクトルの軸を変換する点では,従来のKL法やLSI法と同様である.そこで,そのために必要な計算コストを比較する.まず,ベクトルの基底数を削減するのに要するコストについて考える.データベースに収録された文書の総数と削減前のベクトルの基底数の和を$N$,削減後のベクトル基底数を$k$とすると,単語を基底とした文書ベクトル空間法の場合,通常,計算量は$N^4$もしくは$N^5$に比例すると言われている.LSI方式でも,特異値分解に必要な計算量は,$N^2\cdotk^3$に比例する.このため,データベースの規模が増大すると急激に計算量が増大することが大きな問題であった.\footnote{なお,大規模疎行列の固有値計算アルゴリズムはKrylov部分空間法の一種であるLanczos法を用いて高速に解くことができる.この方法は,一定次元の部分空間における近似固有ベクトルをもとに新たに初期ベクトルを計算し,反復法として用いることによって記憶容量を低減させる.反復Lanczos法は,特に疎行列を扱う場合に実際的な解法であるといえるが,固有値が近接している場合,正確な計算が難しいことが知られている.}これに対して,使用される意味属性の総数を$M$,段数を$d$(日本語語彙大系の場合$M=2,710$,$d=10$)とすると,単語意味属性を基底とした文書ベクトルにおいて粒度による汎化を行うときは,必要最小限の意味属性の数を求めるための計算コストは,ほぼ,$M\cdotd$に比例する.また$tf\cdotidf$値による汎化の場合は,ほぼ,$M^2-k^2$に比例する.また,必要最小限の意味属性の組が決定した後,文書毎の特性ベクトルを変換することは容易で,その計算コストは,文書量に比例する.
\section{実験}
\label{experiment}本章では,情報検索の精度と必要最小限の意味属性の組に関する実験を行い,提案した方式の特徴を評価する.\subsection{使用する文書}実験には,TRECに登録された「情報検索評価用テストコレクションBMIR-J2」\cite{木谷}(以下BMIR-J2)を利用する.BMIR-J2は,1994年の毎日新聞より国際十進分類(UDC)で経済,工学,工業技術一般に分類される記事5,080件を対象とするもので,文書集合,検索要求,正解判定結果から構成される.検索要求は「$\sim$に関する記事が欲しい」という形式で統一され,「$\sim$」の部分にあたる名詞句が列挙されている.また,検索要求に対する正解として,下記の通り,2種類の記事が示されている.\begin{enumerate}\itemランクA検索要求を主題としている記事\itemランクB検索要求の内容を少しでも含む記事\end{enumerate}\subsection{評価のパラメータ}実験結果は,以下の4つのパラメータを用いて評価する.\begin{enumerate}\item$sim$:文書類似度\begin{equation}sim(D_i,D_j)=V_i\cdotV_j\end{equation}(但し,$V_i\cdotV_j$は,それぞれ,文書$D_i,D_j$の特性ベクトル)\item$R$:再現率(recallfactor)\begin{equation}R={抽出された正解文書数\overデータベース中の正解文書数}\end{equation}\item$P$:適合率(precisionfactor)\begin{equation}P={抽出された正解文書数\over抽出された文書数}\end{equation}\item$F$:検索精度(f-parameter)\begin{equation}\label{equ-12}F={{(b^2+1)\cdotP\cdotR}\over{b^2\cdotP+R}}\end{equation}\end{enumerate}但し,式\ref{equ-12}のパラメータ$b$は,$P$に対する$R$の相対的な重みを示す.実験では,両者を対等と考え,$b=1$とする.\subsection{実験の方法}検索要求として新聞記事が与えられたとき,類似した新聞記事を検索することを考え,「主題が一致している新聞記事」を正解とする.具体的には,主題が一致している記事(ランクA)のうちの1つを検索要求用の記事に使用し,データベース内に収録された5,079件の記事の中から残りのランクAの記事を検索する.検索要求用の記事を替えながら,この手順を90回繰り返し,平均の検索精度で評価する.従来の単語を基底とした文書ベクトル空間法による実験では,データベース記事全体を対象に使用されている名詞の$tf\cdotidf$値を求め,その値の大きい順に基底とする名詞を決定する.また,基底毎の重要度を考慮し,各単語ベクトルの要素の値には,単語の文書中での出現頻度に$idf$値を掛けた値を使用する.なお,情報検索では,ある一定値以上の類似度を持つ文書を抽出の対象とするが,その値の選び方によって,再現率,適合率の値は変化する.そこで,検索の精度評価では,いずれの場合も,$F$値が最大となるよう類似度を設定する.
\section{実験結果}
\subsection{単語意味属性を基底とした文書ベクトル(S-VSM)と単語を基底とした文書ベクトル空間法(W-VSM)の比較}2,710種類の意味属性のすべてを使用する場合について情報検索実験を行い,従来の単語を基底とした文書ベクトル空間法(W-VSM)と検索精度を比較する.本論文の方法による検索精度を従来の単語を基底とした文書ベクトル空間法と比べた結果を図\ref{result1}に示す.図\ref{result1}では,情報検索において類似度$\alpha$以上の文書を抽出した場合について,$\alpha$と再現率$R$,適合率$P$の関係を示している.なお,類似度0.7以上とする場合は,検索される文書が1件程度となってしまい,信頼できないので,グラフから削除した.\begin{figure}[ht]\begin{center}\epsfile{file=figure/gra22.eps,scale=0.82}\end{center}\caption{記事の類似度と検索の精度の関係}\label{result1}\end{figure}また,この結果から得られた類似度$sim$と検索精度$F$値の関係を図\ref{result2}に示す.\begin{figure}[ht]\begin{center}\epsfile{file=figure/gra1.eps,scale=0.92}\end{center}\caption{記事の類似度と検索の精度の関係}\label{result2}\end{figure}\newpageこれらの図から,以下のことが分かる.\begin{enumerate}\item単語意味属性を基底とした文書ベクトルは,単語を基底とした文書ベクトル空間法に比べて,すべての類似度領域で,再現率が高く,適合率が低い.\item検索精度($F$値の最大値)は,両者は殆ど変わらない.\end{enumerate}\subsection{粒度による汎化(S-VSM(g))と$tf\cdotidf$値による汎化(S-VSM(w))の比較}\ref{decision}節で述べたような,意味属性の粒度に着目する汎化(S-VSM(g))と意味属性の$tf\cdotidf$値に着目する汎化(S-VSM(w))の2つの汎化の方法を用いて,ベクトルの基底として使用する意味属性の数と検索精度の関係を求めた.その結果を図\ref{result3}に示す.また,このうち,意味属性の$tf\cdotidf$値による汎化の場合について,汎化に伴う評価関数$H$の値の変化を同図に示す.なお,ここでは,$b=1$とした.\begin{figure}[ht]\begin{center}\epsfile{file=figure/gra3.eps,scale=0.86}\end{center}\caption{必要最小限の基底数の決定}\label{result3}\end{figure}図\ref{result3}の結果から,検索精度をあまり低下させない範囲(ピーク値の$10\sim20\%$以内の低下)で必要最小限のベクトルの基底数を求めると表\ref{result4}の結果を得る.\begin{table}[ht]\begin{center}\caption{必要最小限の基底数}\label{result4}\begin{tabular}{|c|c|c|c|}\hline\raisebox{-1.8ex}[0pt][0pt]{方式種別}&\raisebox{-1.8ex}[0pt][0pt]{基底数削減の方法}&\multicolumn{2}{|c|}{検索精度($F$値)低下の許容度}\\\cline{3-4}&&ピーク値の10\%&ピーク値の20\%\\\hline本論文の方法&粒度による汎化(W-VSM(g))&900属性&700属性\\\cline{2-4}(単語意味属性を基底)&$tf\cdotidf$値による汎化(W-VSM(w))&600属性&300属性\\\hline従来の方法&$tf\cdotidf$による方法&2,200属性&1,500属性\\(単語を基底)&&&\\\hline\end{tabular}(注)意味属性を上位8段まで使用\\\end{center}\end{table}これらの図表から,以下のことが示される.\begin{enumerate}\item今回の実験では,単語意味属性を基底とする文書ベクトル空間法は,従来の単語を基底とする文書ベクトル空間法に比べて,基底数が小さくても検索精度が高いことが示された.\item汎化の方法としては,粒度による汎化(S-VSM(g))より$tf\cdotidf$値による汎化(S-VSM(w))の方が基底数削減に強い.\end{enumerate}必要最小限の基底数について見ると,十分な基底数を持つ場合に比べて,検索精度を10$\sim$20\%以上低下させないためには,単語を基底とする文書ベクトル法では,最低2,000程度の基底数が必要とされるのに対して,単語意味属性ベクトルを用いて,$tf\cdotidf$値による汎化では,基底数を約300$\sim$600程度まで削減できる.
\section{考察}
\subsection{単語意味属性を基底とする文書ベクトル空間法と単語を基底とする文書ベクトル空間法の比較}実験によれば,単語意味属性を基底とする文書ベクトルは,単語を基底とする文書ベクトル空間法に比べて,再現率が高いことが分かった.本研究では,簡単のため,文書中に使用された単語の頻度から直接,意味属性の$tf\cdotidf$値を求めることとし,複数の意味を持つ単語は,その$tf\cdotidf$値を,該当する複数の意味属性に均等に加える方法を採った.これは,単語を基底とする文書ベクトルの場合と同じ扱いであるが,適合率を減少させる原因の一つと考えられる.これに対して,文書中で使用された単語の多義解消を行うことができれば,適合率の向上は可能であると期待される.ただし,今回の実験は,BMIR-J2における新聞記事検索のタスクであり,文書数も約5,000件と少ない.今後検索する分野が変化したときや,文章数が増加した場合,これらの結論が変わってくる可能性がある.今後,これらの課題を追求する必要がある.\subsection{意味属性体系}本研究に使用した意味属性体系は,元来,単語多義の解消を狙って開発されたものであり,複数の語義を持つ単語は,通常,複数の意味属性を持つ構造となっている.日本語語彙大系には,さらに,動詞と名詞の共起関係から,両者の文中での意味を特定するための仕組みが定義されている.そこで,これらの情報を使用した意味解析によって文書中で使用された単語の意味的用法を決定し,その後,該当する意味の重みを求めることにすれば,質問文と同じ単語が使用された文書でも意味の異なる用法の文書は検索対象外とすることができるため,適合率は向上すると期待される.\subsection{基底数の削減のためのテストデータ}実験では,提案した単語意味属性を基底とした文書ベクトル空間法と従来の単語を基底とした文書ベクトル空間法が基底数削減にどれだけ強いかを比較評価するため,情報検索方式の評価実験用として広く提供されているBMIRのデータセット(検索条件と正解付き)を使用した.実験はいずれもオープンテストである.これは,以下に述べるように,この種の研究では大量のデータを対象としたオープンテストは困難なためである.すなわち,本手法では,検索対象とするデータベースに対して必要最小限の意味属性の組を発見することが必要であるが,そのためには,汎化を進める過程で検索精度が低下するかどうかの評価が必要で,検索結果についてあらかじめ正解を知っておく必要がある.しかし,大規模なデータベースの場合,様々な検索条件について,あらかじめ正しい検索結果を知ることは通常難しい(この事情は他の検索方式の場合も同様である).ところで,本方式を現実のシステムに応用するには,部分的な標本(例えば,数千件程度の記事)に対して今回と同様の実験により必要最小限の意味属性の組決める必要があるが,必要な意味属性の数(これを$n$個とする)が分かれば,$n$個を構成する意味属性の種類は,データベースの規模に応じてさらに最適化することができる.すなわち,大規模なデータベースでも単語の出現頻度統計を取るのは比較的容易であるから,単語統計から作成された意味属性を初期値とし,意味属性数が$n$となるまで汎化すれば,残った$n$個の意味属性は,データベース全体から見て最適な組み合わせとなり,運用段階においてもクローズドテストに近い検索精度が得られるものと期待できる.\subsection{必要最小限の意味属性}粒度による汎化(S-VSM(g))において文書ベクトル数を700に汎化したときに残った単語意味属性を調査した.この結果.汎化で残った単語意味属性の多くは,汎化をする前に$tf\cdotidf$値が大きく,かつ頻度も多い単語意味属性であった.例として「抽象」,「名詞」,「事」など意味意味属性であった.\subsection{$tf\cdotidf$値による汎化と頻度による汎化}\ref{generation}節において,必要最小限の意味属性の決定するために,粒度による汎化(S-VSM(g))と$tf\cdotidf$値による汎化(S-VSM(w))を示した.本論文でしめした両方法は,どちらも$tf\cdotidf$値を利用しているが,単語の出現頻度を利用する方法も考えられる.そこで\ref{experiment}節の実験の前に,予備実験として,出現頻度を利用する場合と$tf\cdotidf$値を利用する場合で$F$値がどちらが高くなるか調査した.この結果,$tf\cdotidf$値を利用する場合のほうが良い値を示した.そのため,以後の実験においては$tf\cdotidf$値を利用した.なお,頻度が大きいが$tf\cdotidf$値が小さくなる単語意味属性は,,「自尊,卑下」,「敬称(女)」,「自信,自棄」,「生産行程」,「自信」などであった.また,比較的頻度が小さいが$tf\cdotidf$値が大きくなる単語意味属性は,「乗り物」,「親、祖父母,先祖」,「親」,「報償」,「庭園」,「休養」,「余暇」などであった.
\section{結論}
従来,ベクトル空間法では,文書の意味を表す特性ベクトルの基底に,文中に現れる単語を使用していた.本論文では,単語の代わりに単語の意味属性(「日本語語彙大系」で規定された約2,710件)を使用する方法を提案した.また,意味属性間の意味的上下関係に着目したベクトルの基底の汎化の方法を提案し,情報検索の精度を低下させない範囲で,基底数を削減する方法を示した.この方法は,基底数を削減するための計算量が,データベース内の文書数に依存しないため,大規模なデータベースへの適用が容易である.BMIR-J2の新聞記事(5,080記事)の検索に適用した実験結果によれば,提案した方法は,単語の表記上の揺らぎに影響されず,同義語や類義語の存在も検索の対象となることから,従来の方法と比べて高い再現率が得られた.その反面,単語を基底とする文書ベクトルの場合に比べて,不適切な記事を拾いやすく,適合率が低下することが分かった.この効果は,キーワード検索においてシソーラスを使用したKW拡張の効果に相当する.また,本方式は,次元数の削減に強い方法であり,従来の方法に比べて,検索精度を落とすことなく,ベクトルの基底数を大幅に削減できることが分かった.今回は,単語の多義性の問題は考慮しなかったが,単語意味属性を基底とする文書ベクトルでは,意味属性体系の持つ能力を用いて単語の多義を解消した後,基底とする意味属性の重みを計算する方法が可能と考えられるので,今後は,この方法についても検討していきたい.また,基底数をさらに削減する方法として,意味属性体系の上位のノードから順に,不適切な記事を拾いやすいノードを選択してベクトルの基底から削除する方法についても検討していく予定である.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967阪大・基礎工・電気卒.1969同大大学院修士課程修了.同年日本電信電話公社入社,電気通信研究所配属.1996鳥取大学工学部教授に着任,現在に至る.工博.この間,数式処理,トラフィック理論,自然言語処理の研究に従事.1996スタンフォード大学客員教授.1982情報処理学会論文賞,1993同研究賞,1995日本科学技術情報センタ賞(学術賞),同年人工知能学会論文賞受賞.2002電気通信普及財団テレコムシステム技術賞,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\bioauthor{村上仁一}{1984筑波大・第3学群基礎工学類卒.1986同大大学院修了.同年NTT情報処理研究所に入社.1991より1995ATR自動翻訳電話研究所に出向.1998鳥取大学助教授就任,現在に至る.この間,自然言語処理,音声認識の研究に従事.日本音響学会,電子情報通信学会,各会員.}\bioauthor{木本泰博}{1998鳥取大・工学部・知能情報工学科卒.2000同大大学院修士課程修了.同年積水ハウス入社.現在に至る.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V12N01-01
|
\section{はじめに}
\label{sec:Introduction}近年,情報化が進むにつれて,大量の電子テキストが流通するようになった.これを有効活用するために,情報検索や情報抽出,機械翻訳など,計算機で自然言語を処理する技術の重要性が増している.この自然言語処理技術は様々な知識を必要とするが,その中で構文解析の際に最もよく用いられるものは文脈自由文法(CFG,以下,文法と略す)である.ところが,人手で作成した大規模な文法は,作成者の想定する言語現象にどうしても``もれ''があるため,網羅性に欠けるという問題がある.一方,最近では,コーパスから抽出した統計情報を用いて自然言語を解析するコーパスベースの研究が成果をあげており,それに伴い,(電子)コーパスの整備が進んでいる.このコーパスから文法を自動的に抽出する研究もあり\cite{charniak:96,shirai:97},文法作成者に大きな負担をかけることなく,コーパス内に出現する多様な言語現象を扱える大規模な文法を作成することが可能である.しかし,コーパスから抽出した文法には問題がある.それは,コーパスから抽出した文法で構文解析を行うと,一般に,膨大な量の構文解析結果(曖昧性)\footnote{以降,特に断わらない限り,構文解析結果の曖昧性を単に曖昧性と呼ぶ.}が出力されることである.その要因については後述するが,これが,解析精度の低下や解析時間,使用メモリ量の増大の要因となる.コーパスから抽出した大規模文法がこれまで実用に供されなかった最大の理由はここにある.コーパスには意味を考慮した構文構造が付与されていることが普通であり,そのコーパスから抽出した文法で構文解析を行うと,意味解釈に応じた異なる構文解析結果が多数生成される.しかし,意味情報を用いない構文解析の段階では,意味的に妥当な少数の構文構造に絞り込めず,可能な構文構造を全て列挙せざるを得ない.我々は,構文解析結果(構文木)に沿って意味解析を進める構文主導意味解析(SyntaxDirectedSemanticAnalysis,SDSA)\cite{jurafsky:2000}を想定し,構文解析の段階で生じる曖昧性を極力抑え,次の意味解析の段階で意味的に妥当な意味構造を抽出するという2段階の解析手法を採用する(図\ref{fig:analysis_flow}).\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Introduction/figure/flow.eps}\caption{自然言語解析の流れ}\label{fig:analysis_flow}\end{figure}\if0\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Introduction/figure/procedure.eps}\caption{大規模日本語文法作成手順}\label{fig:procedure}\end{figure}\fi本論文では,構文解析の段階の曖昧性を極力抑え,その後の意味解析の段階にも有効な構文構造を生成する大規模日本語文法について検討する.\if0そこで,我々は,既存の構文構造付きコーパスを出発点とし,以下の手順で文法を作成することを試みている(図\ref{fig:procedure}).\begin{enumerate}\item既存の構文構造付きコーパスから文法を抽出する\item構文解析結果の曖昧性を増大させる要因を分析する\item分析結果をもとに構文構造付きコーパスの変更方針を作成する\item変更方針に従ってコーパスを変更し,そこから新しい文法を再抽出する\item(2)〜(4)を繰り返す\end{enumerate}ただし,文法の抽出は,Charniakによる``tree-bankgrammar''の抽出方法\cite{charniak:96}と同様の方法をとる.上述の文法作成手順では,構文構造付きコーパスの変更に重点が置かれ,文法の作成,変更というより,むしろコーパスの作成,変更のように思われるかもしれない.しかし,実際の変更過程では,抽出した文法を変更し,それをコーパス中の構文構造に反映させる方法をとっている.文法の変更をコーパスにまで反映させるのは,PCFGモデル等の確率モデルによる学習の際に訓練データとして必要であるからであり,文法の作成,変更とコーパスの作成,変更は同時に扱うべき問題である.つまり,「曖昧性を抑えた構文構造を出力するように文法を変更する」ことと,「コーパスに付与されている構文構造を曖昧性を抑えたものに変更する」ことは,結局のところ,同じことであると考えている.\fiその結果,検討前の文法と比較して,出力される解析木の数を$10^{12}$オーダから$10^5$オーダまで大幅に減少させることが可能になった.さらに,この文法から得た解析結果に対して,意味情報をまったく用いず,確率一般化LRモデル(PGLRモデル)\cite{inui:98}によるスコア付け1位の解析木の文の正解率は約60\%であった.一方,スコア付け1位の解析木に対し,機械的な方法で文節の係り受けの精度を測定したところ,意味情報を用いなくても,89.6\%という高い係り受け精度が得られた.意味情報を本格的に利用することで,さらなる精度向上が図れるという見通しを得ている.以下に本論文の構成を述べる.第\ref{sec:Related}節では,コーパスから文法を抽出する主な研究を二つ紹介する.第\ref{sec:Procedure}節では,我々が大規模日本語文法を作成する際の手順について述べる.第\ref{sec:Problem}節では,コーパスから抽出した文法が,構文解析において膨大な量の曖昧性を出力する要因を考察する.第\ref{sec:Modification}節では,構文解析結果の曖昧性の削減を考慮した具体的な文法とコーパスの変更方針を述べ,第\ref{sec:Evaluation}節,第\ref{sec:SDDA}節では,変更したコーパスから抽出した文法の有効性を実験により明らかにする.最後に,第\ref{sec:Conclusion}節で本研究を総括し今後の課題を述べる.
\section{関連研究とその問題点}
\label{sec:Related}本節では,文法をコーパスから抽出する主な類似研究を紹介する.\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Related/figure/grammar_extraction.eps}\caption{PennTreebankコーパスからの文法抽出}\label{fig:grammar_extraction_from_penntree}\end{figure}英語の大規模な構文構造付きコーパスとしてPennTreebankコーパスがある\cite{marcus:93}.Charniakはこのコーパスから``tree-bankgrammar''と呼ばれるCFGを抽出し,人手で作成した文法との比較を行っている\cite{charniak:96}.tree-bankgrammarは,各中間ノードについて,そのラベルを左辺に,子ノードのラベルを右辺に持つCFG規則を獲得することで抽出できる(図\ref{fig:grammar_extraction_from_penntree}).これまで,コーパスから抽出した文法では,構文解析はうまくいかないと言われていたが,人手で作成した文法との比較実験の結果,特に単語数の多い長い文では,コーパスから自動抽出した文法の解析精度が良くなることを示し,それまでの一般的な見識が誤りであることを明らかにしている.一方,日本語では,PennTreebankコーパスのような大規模な構文構造付きコーパスが存在しない.大規模なコーパスとしてEDRコーパス\cite{edr:2001}と京大コーパス\cite{kurohashi:97}がある.しかし,EDRコーパスは括弧付きコーパスであり,付与されている構文木の内部ノードにラベルが付いていない.京大コーパスは,二つの文節間の依存関係が付与されているだけで,文節内の構造は付与されていないので,tree-bankgrammarのようなCFGは抽出できない.白井らはEDRコーパスからのCFGの自動抽出を試みている\cite{shirai:97}.構文木の内部ノードにラベルが付与されていないので,各内部ノードに対して適当なラベル(非終端記号)を付与する方法を提案している.しかし,日本語,英語いずれの場合にも,構文構造付きコーパスから抽出した大規模なCFGで構文解析を行うと,膨大な数の構文解析結果が出力される.この問題に対し,Charniakは,コーパス中の出現頻度の低い文法規則を削除し,確率文脈自由文法(PCFG)で得られる生成確率に基づく最良優先解析(best-firstparsing)を行い,解析途中で曖昧性を抑えている.これは,出現頻度の低い文法規則は構文解析における曖昧性を増大させるだけで,解析精度にほとんど影響を与えないという仮定に基づいている.しかし,詳細は後述するが,出現頻度の低い文法規則だけが構文解析結果の曖昧性を増大させるわけではない.労力は要するが,構文解析における曖昧性を増大させる要因を人手で分析する必要があると我々は考えている.白井らは,構文解析結果の曖昧性を増大させる要因を分析し,多数の曖昧性を作り出す文法規則を機械的に変更することで,曖昧性の削減を図っている.しかし,機械的な変更だけで曖昧性を削減することには限界があり,人手による変更も必要になる.人手による変更が必要となる例を以下に挙げる.\if0\begin{description}\item[人間の直観に反する規則:]白井らは,括弧付きコーパスであるEDRコーパスからCFGを抽出するために,内部ノードに付与するラベルを機械的に推定している.しかし,抽出される文法規則が人間の直観に合わない場合がある.例えば,「変化/し/まし/た/か」という単語列をカバーするノードのラベルを考えると(スラッシュは単語区切りを示す),白井らのアルゴリズムでは,右端の「か」が助詞であるため,``後置詞句''となり,次のCFG規則が得られる.しかし,直観的には,後置詞句ではなく動詞句の方が適切である.\end{description}\fi\begin{description}\item[機能による助詞の細分化:]白井らは,助詞を形態素ごとに細分化することで曖昧性を抑えている.しかし,格助詞,終助詞,並列助詞など機能による細分化も曖昧性の削減には必要である.EDRコーパス中の助詞に付与されている品詞はすべて``助詞''であり,機能による細分化は人手を要する.\item[意図しない非終端記号の割り当て:]白井らは,括弧付きコーパスであるEDRコーパスからCFGを抽出するために,内部ノードに付与するラベルを機械的に推定している.しかし,機械的な推定では,アルゴリズムで想定していない文法規則を生成することがある.例えば,「変化/し/まし/た/か」という単語列をカバーするノードのラベルを考えると(スラッシュは単語区切りを示す),白井らのアルゴリズムでは,右端の「か」が助詞であるため,``後置詞句''となり,次のCFG規則が得られる.\[\mbox{後置詞句→動詞語尾助動詞助動詞助詞}\]直観的には,後置詞句ではなく動詞句の方が適切であるが,機械的な推定では,意図しない非終端記号の割り当てを細かく除外していくことは困難である.\end{description}\if0例えば,白井らは助詞を形態素ごとに細分化することで曖昧性を抑えている.しかし,格助詞,終助詞,並列助詞など機能による細分化も曖昧性の削減には必要である.EDRコーパス中の助詞に付与されている品詞はすべて``助詞''であり,機能による細分化は人手を要する.さらに,括弧付きコーパスであるEDRコーパスからCFGを抽出するために,内部ノードに付与するラベルを機械的に推定している.しかし,抽出される文法規則が人間の直観に合わない場合がある.例えば,「変化/し/まし/た/か」という単語列をカバーするノードのラベルを考えると(スラッシュは単語区切りを示す),白井らのアルゴリズムでは,右端の「か」が助詞であるため,``後置詞句''となり,次のCFG規則が得られる.\[\mbox{後置詞句}\to\mbox{動詞}~~\mbox{語尾}~~\mbox{助動詞}~~\mbox{助動詞}~~\mbox{助詞}\]しかし,直観的には,後置詞句ではなく動詞句の方が適切である.\fi後者は曖昧性の増減と直接は関係のないことである.しかし,人間が見て妥当なCFGを作成するためには,機械的に内部ノードのラベルを推定するのではなく,(PennTreebankコーパスのような)構文構造付きコーパスを用意し,そこから文法を抽出すべきであると考えている.
\section{大規模日本語文法の作成手順}
\label{sec:Procedure}\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Procedure/figure/procedure.eps}\caption{大規模日本語文法作成手順}\label{fig:procedure}\end{figure}我々は,既存の構文構造付きコーパスを出発点とし,以下の手順で文法を作成することを試みている(図\ref{fig:procedure}).\begin{enumerate}\item既存の構文構造付きコーパスから文法を抽出する\item構文解析結果の曖昧性を増大させる要因を分析する\item分析結果をもとに構文構造付きコーパスの変更方針を作成する\item変更方針に従ってコーパスを変更し,そこから新しい文法を再抽出する\item(2)〜(4)を繰り返す\end{enumerate}文法の抽出は,Charniakによるtree-bankgrammarの抽出方法\cite{charniak:96}と同様の方法をとる.出発点として使用した構文構造付きコーパスの概要については,付録\ref{sec:Corpus}節で述べる.上述の文法作成手順では,変更対象が構文構造付きコーパスであり,文法はコーパスから抽出されるだけであるため,「文法の作成」という表現に違和感を感じるかもしれない.しかし,既存のコーパスから抽出した文法は,コーパス作成者の意図に反し,きわめて多数の構文解析結果を出力する.そのため,コーパスの作成は,そこから抽出した文法による構文解析結果を考慮しながら行うことが望ましい.換言すれば,文法の作成,変更とコーパスの作成,変更は並行して進める必要があると考えている.このようにして作成したコーパスは,PCFGモデル等の確率モデルによる学習の際に,訓練データとしても利用できる.
\section{構文解析結果の曖昧性を増大させる要因}
\label{sec:Problem}繰り返し述べたように,大規模な構文構造付きコーパスから抽出したCFGをそのまま利用して構文解析を行うと,多数の曖昧性を生じる.曖昧性が増大すると,解析に必要な時間,メモリ量が増大するだけでなく,その中から構文的に正しいものを選択することが困難になる.この問題を解決するためには,曖昧性を増大させる要因を分析しなければならない.\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Problem/figure/lack_of_syn.eps}\caption{CFG抽出時における構文情報の欠落}\label{fig:lack_of_syn}\end{figure}曖昧性を増大させる要因は,以下の4種類に大別できる.\begin{description}\item[ラベル付けの誤り(要因1):]構文構造は人手で付与するため,誤りは避けられない.誤った構造が付与されたコーパスから抽出した文法は,誤った構造を生成し,それが無意味な曖昧性の増大につながる.\item[構文構造の不一致(要因2):]大規模なコーパスを作成する際,作業は一人ではなく複数で行うことが一般的である.この時,作業者による構造の付け方の``ゆれ''が問題となる.一貫性のない構文構造付きコーパスから抽出した文法は冗長な文法規則を持ち,それが無意味な曖昧性の増大につながる.\item[構文情報の欠落(要因3):]構文構造を付与する際,コーパス作成者は文全体の構造を考慮しながら,部分的な構造を決定することが多い.ところが,CFGの各規則はノードの親子関係に関する情報しか持たず,それ以外の周辺文脈情報(各子ノードを根とする部分木の情報や,親ノードを根とする部分木の外側の構文情報)を持たない.構文構造の曖昧性を解消する上で有用な構文情報が欠落することで,構文解析において,構文的に誤った解析木を余分に生成することがある.例えば,図\ref{fig:lack_of_syn}に示す2つの構文木が存在した場合,構文木(a)からは``$<$連体句$>\to<$動詞句$>$''という規則が,構文木(b)からは``$<$連用句$>\to<$動詞句$>$''という規則が抽出される.しかし,これらの規則には動詞の活用形に関する情報が欠落しているため,活用形に関係なく,すべての動詞句が連体句にも連用句にもなれてしまう.その結果,連用形の動詞句が連体句として体言を修飾したり,終止・連体形の動詞句が連用句として用言を修飾したりする解析木が生成でき,これが曖昧性を不必要に増大させる要因となる.\item[意味情報の必要性(要因4):]曖昧性の中には,その解消において,構文情報だけではなく意味情報も必要とするものがある.例えば,「彼の目の色」の「彼の」が「目」と「色」のどちらを修飾するかの曖昧性の解消には,各語の意味を考慮する必要があり,構文情報だけでは解消できない.詳細は後述するが,我々が想定する自然言語解析では,構文解析時は構文情報のみを利用し,意味情報を必要とする曖昧性の解消は,構文解析後の意味解析で行うこととしている.構文解析時に解消できない曖昧性を列挙することは,構文解析結果を組み合わせ的に増大させることになる\footnote{英語においても,PPattachment問題を構文情報だけで解決することはできない.この曖昧性は,前置詞句の数に対するCatalan数のオーダで増大し\cite{martin:87,church:82},文全体の構文解析結果の曖昧性の増大の最大の要因の1つとなる.}.\end{description}要因1と2は,コーパスの誤りであるため,訂正すべきもとのして,以下の考察から除外する.一方,要因3と4はコーパスの誤りではない.要因3の解決には,どの構文情報が必要であるかを考察し,その情報を非終端記号に追加し,細分化する.要因4の解決には,意味情報を利用しない限り解決が困難な曖昧性を包含した単一の構文構造をコーパスに付与し,CFGを再抽出する.すなわち,再抽出したCFGによる構文解析結果では,要因4による曖昧性を区別しない.こうすることで,構文解析結果の曖昧性を抑えられるだけでなく,意味解析で解消すべき曖昧性の所在が明らかになる.次節では,我々の具体的な変更方針について述べる.
\section{文法,コーパスの変更方針}
\label{sec:Modification}\label{sec:Policy}要因3の曖昧性はすべて除外することが理想である.EisnerやKomagataは,CategorialCombinatoryGrammar(CCG)について,解析器側を変更することによってこの曖昧性を完全に除外し,一つの意味解釈に対して一つの解析木を出力する(exactlyonesyntacticstructurepersemanticreading)手法を提案している\cite{eisner:1996,komagata:97b}.本研究ではCFGを使用し,解析器に変更を加えるのではなく,文法とコーパスそのものを変更しながら,この曖昧性を抑える.さらに,我々は,要因4の曖昧性を包含した単一の構造を生成する(意味的情報は利用しないことを前提とした),構文解析のための大規模日本語文法の構築を目的としている.しかし,この方針によって,出力される構文解析木の数を抑えることは,その後の意味解析を困難にすることもあり得る.そのため,構文解析時には包含された曖昧性を意味解析で解消することを念頭に置きながら,要因4の曖昧性のうち,どれを単一の構文構造で表現し,構文解析結果の曖昧性を抑えるかを詳細に検討する必要がある.我々が使用しているコーパスには,以下のような不備や欠点があった.\begin{enumerate}\item用言の活用形に関する情報の欠落(要因3)\item複合名詞内の構造の曖昧性(要因4)\item連用修飾句,連体修飾句の係り先の曖昧性(要因4)\item並列構造の曖昧性(要因4)\end{enumerate}これらについて,具体的に変更方針を述べる\footnote{我々は,第\ref{sec:Introduction}節で述べた文法開発の手順のサイクルを複数回に分けてこれらの検討を行った\cite{noro:2003}.}.\subsection{用言の活用形に関する情報の欠落}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/conjugation.eps}\caption{活用形に関する情報の付与}\label{fig:conjugation}\end{figure}用言の活用形の情報が欠落しているためにそれが連体修飾句になるか連用修飾句になるかで曖昧になることを,第\ref{sec:Problem}節で,要因3の曖昧性の例として挙げた.実際,我々が使用しているコーパスで,この問題があった.これを解決するために,用言等の語尾や助動詞の活用形に関する情報を構文構造に引き継ぐように変更する(図\ref{fig:conjugation}).ただし,未然形,連用形等すべての活用形を付与するのではなく,その語が末尾に現れることで連用修飾句,または連体修飾句になり得る場合にのみ,それぞれ「連用」,「連体」というラベルを追加する.これは,活用形の情報を付与する目的が,その用言が連用修飾句になり得るものか,連体修飾句になり得るものかを区別するためであり,それ以外の情報は必要ないからである.\subsection{複合名詞内の構造の曖昧性}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/convert_compound_noun.eps}\caption{複合名詞の構造の変更}\label{fig:convert_compound_noun}\end{figure}複合名詞内の構造の曖昧性を構文解析で解消することは困難であり,この曖昧性を構文解析結果の違いとして出力すべきではないと考えている.白井らも,この曖昧性を構文解析結果の違いとして出力しないよう文法を変更している\cite{shirai:97}\footnote{白井らは,複合名詞という言葉ではなく,「同一品詞列を支配するノード」という表現を使用している.我々は,名詞,接頭語,接尾語などで構成され,名詞として働く構成素を対象とし,複合名詞と呼んでいる.}.我々もその方針に倣い,複合名詞については,語構成に関係なく右下がりの構造に統一する(図\ref{fig:convert_compound_noun})\footnote{構造を右下がりにする際,複合名詞の根ノードと内部のノードのラベルを図\ref{fig:convert_compound_noun}のように区別している.もし,これらを同一のラベルにすると,「金谷さん夫妻」の例において,「さん夫妻」という接尾語が先頭に出現する複合名詞を認める文法規則になってしまう.}.\subsection{連用修飾句,連体修飾句の係り先の曖昧性}次に,連用修飾句,連体修飾句の係り先の曖昧性の扱いを検討する.我々は,連用修飾関係の曖昧性は従来通り別の構造として区別し(すなわち,構造は変更しない)\footnote{元のコーパスでは用言のとる表層格の情報を利用していたが,格の区別は意味情報を必要とし,構文解析時の曖昧性解消が困難な曖昧性を増大させる要因となる.そこで,図\ref{fig:convert_adv_phrase}に示すように,用言のとる表層格の情報は無視する\cite{noro:2003}.},連体修飾関係を表す構造を,複合名詞の場合と同様,意味に関係なく同一の構造にする(図\ref{fig:convert_adn_phrase})\footnote{構造を変更する際,図\ref{fig:convert_adn_phrase}に示すように,右側の名詞句と左側の連体句の下の名詞句を区別している.もし,これらを同一のラベルにすると,抽出した文法規則は変更前後の両方の構造を生成することが可能になり,構造を制限することができなくなる.}.つまり,連用修飾関係の曖昧性は構文解析結果の曖昧性として残し,連体修飾関係の曖昧性は構文解析の段階では出さず,後の意味解析でこの曖昧性を解消することになる.\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/convert_adv_phrase.eps}\caption{連用修飾句の係り先に関する変更}\label{fig:convert_adv_phrase}\end{figure}\begin{figure}[tp]\centering\epsfxsize=\textwidth\epsfbox{Modification/figure/convert_adn_phrase.eps}\caption{連体修飾句の係り先に関する変更}\label{fig:convert_adn_phrase}\end{figure}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/structure.eps}\caption{単文「欧米諸国は日本の流通制度の改善を求めている」の構造}\label{fig:structure}\end{figure}上述の方針に決定した理由は二つある.一つは,連用修飾関係を表す構造を意味に関係なく同一の構造にすることは,構文解析後の意味解析を困難にすることになるからである.例えば,「欧米/諸国/は/日本/の/流通/制度/の/改善/を/求めている」という単文を考える.ただし,スラッシュは単語区切りを表す(「求めている」は動詞語幹,助動詞語幹,語尾に分割されるが,簡単のため,ここでは1語として表記する).この文に対してボトムアップに(意味的に正しい)構文構造を付与すると,次の手順になる.\begin{enumerate}\item「欧米諸国」,「流通制度」のそれぞれを一つの複合名詞にまとめる(図\ref{fig:structure}の破線で囲まれた部分).\item「日本の」と「流通制度」,そして「(日本の)流通制度の」と「改善」のそれぞれを一つの連体修飾関係にまとめる(図\ref{fig:structure}の細い実線で囲まれた部分).\item「(日本の流通制度の)改善を」と「求めている」,「欧米諸国は」と「(日本の流通制度の改善を)求めている」の二つの連用修飾関係をまとめる(図\ref{fig:structure}の太い実線で囲まれた部分).\end{enumerate}このように考えると,単文では,連用修飾関係を表すレベルが連体修飾を表すレベルより上にある.複文や重文は,この単文を組み合わせることで構成される.上位レベルである連用修飾関係を表す構造を意味に関係なく同一構造にすることは,複文や重文を構成する単文のまとまりを破壊することになり,文全体の構造がとらえにくくなる.その結果,構文解析後の意味解析が困難になる.下位レベルである連体修飾関係を表す構造を,意味に関係なく同一構造にし,連用修飾関係を表す構造は従来通り別の構造として区別することで,その後の意味解析を困難にせずに,構文解析の段階の曖昧性を抑えられると考えている.もう一つの理由は,連用修飾句の係り先の曖昧性の解消は,連体修飾句の係り先の曖昧性の解消に比べて,構文解析での解決が容易であるからである.連用修飾句の係り先は,助詞と動詞の関係,副詞と助動詞の関係等を利用することで,決定できる可能性があるのに対し,連体修飾句の係り先は,連用修飾句の場合に比べて,品詞レベルでの解決が難しい.そこで,品詞レベルでの解決が比較的容易な連用修飾関係を表す構造は従来通りとし,連体修飾関係を表す構造は,意味に関係なく同一構造にすべきであると,我々は考えている.\begin{figure}[tp]\centering\epsfxsize=.6\textwidth\epsfbox{Modification/figure/rentai_amb.eps}\caption{連体修飾句の係り先に関する2種類の曖昧性}\label{fig:adnominal_phrase}\end{figure}ただし,連体修飾句の係り先の曖昧性が,大別して2種類あることに注意したい.\begin{enumerate}\item連用修飾句の範囲を変えないもの\item連用修飾句の範囲を変えるもの\end{enumerate}図\ref{fig:adnominal_phrase}にそれぞれの例を示す.太い実線で囲まれた句は連用修飾句を,細い実線で囲まれた句は連体修飾句を,破線で囲まれた句は動詞を,網掛けの長方形で囲まれた句は連体修飾を受ける名詞を,矢印の始点は修飾関係の係り元を,終点は係り先を表す.「新しい環境への適応能力を調べる」の場合,連体修飾句「新しい」が「環境」に係る場合でも「適応能力」に係る場合でも,動詞「調べる」に係る連用修飾句は「新しい環境への適応能力を」であることには変わりはない(図\ref{fig:adnominal_phrase}(a),(b)).ところが,「百年の歴史を持つ祭り」では,連体修飾句「百年の」が「歴史」に係る場合の動詞「持つ」に係る連用修飾句は「百年の歴史を」であるのに対し,「百年の」が「祭り」に係る場合も考えられないこともない.後者の場合は,「歴史を」のみが「持つ」に係る連用修飾句となる(図\ref{fig:adnominal_phrase}(c),(d)).我々は,連用修飾句の範囲と係り先は従来のまま変更せず,そこから抽出した文法は,その曖昧性を構文解析の段階に出力することにしている.その方針に合わせ,連用修飾句の範囲を変えない場合に限り,連体修飾関係を表す構造を同一の構造に統一する(すなわち,「新しい環境への適応能力を調べる」の場合は図\ref{fig:adnominal_phrase}(b)の構造に変更し,「百年の歴史を持つ祭り」の場合は図\ref{fig:adnominal_phrase}(c)の構造のままにしておく).\subsection{並列構造の曖昧性}並列構造の曖昧性の解消には意味的情報が必要であり,係り受け解析において並列構造を含む文の正解率は,含まない文に比べて低くなる.予備実験によると,並列構造を含む文の正解率は,含まない文の正解率の半分程度しかない\cite{noro:2003}\footnote{「文の正解率」の定義は第\ref{sec:Evaluation}節で述べる.}.文の正解率を全体的に上げるためには,並列構造の曖昧性について検討する必要がある.KNP\cite{kurohashi:1998}では,先に並列関係にある部分を決定し,次にその内部の構造を分析するアプローチを採用している\cite{kurohashi:1992}.しかし,我々は,並列関係にあるかどうかの判定は構文解析に先立って行わず,その後の意味解析の段階で行うこととする.言い換えると,注目している二つの部分が並列関係にあるかどうかの曖昧性は,構文解析の段階では区別しない.\begin{figure}[tp]\centering\epsfxsize=.9\textwidth\epsfbox{Modification/figure/convert_para_noun.eps}\caption{並列名詞句の構造に関する変更}\label{fig:convert_para_noun}\end{figure}\begin{figure}[tp]\centering\epsfxsize=.8\textwidth\epsfbox{Modification/figure/convert_para_verb.eps}\caption{並列述語句の構造に関する変更}\label{fig:convert_para_verb}\end{figure}日本語には,並列名詞句,並列述語句,並列助詞句の3種類の並列構造がある\footnote{黒橋らは,それぞれを名詞並列,述語並列,部分並列と呼んでいる\cite{kurohashi:1998}.}.我々は,これらの構造を以下の方針で変更する.\begin{description}\item[並列名詞句:]名詞句「日本と中国の関係」において,「日本」と「中国」が並列関係にあるのか,それとも「日本」と「関係」が並列関係にあるのかという曖昧性の解消には,各語の意味的情報が必要となる.「AのBのC」,「AとBのC」の二つの名詞句を考えると,どちらの場合も名詞「A」,「B」,「C」の間の関係を分析することになる.このことから,並列名詞句の分析は連体修飾句の係り受けの解析に似ている.構文解析の段階では「Aと」を連体修飾句と同様に扱い,並列構造の曖昧性の解消は,次の意味解析の段階で,連体修飾関係の曖昧性の解消と同時に行うこととする(図\ref{fig:convert_para_noun}).\item[並列述語句:]予備実験\cite{noro:2003}によると,並列述語句を含む文の正解率は,それ以外の並列構造を含む文の正解率と比べて大幅に低くなる.これは,二つの述語句が並列関係にあるか否かの判断が,構文解析の段階では難しいためである.例えば,「歌を歌い,踊りを踊る」という文が並列構造を持つか否かは,並列関係の定義を明確にしなければ,コーパス作成者によっても判断が分かれるところである.構文解析の段階では並列述語句は連用修飾関係と同様に扱い,二つの述語句が並列関係にあるか否かの判断は,後の意味解析の段階で行うこととする(図\ref{fig:convert_para_verb}).\item[並列助詞句:]並列助詞句は,「国政段階\underline{でも}個別産業レベル\underline{でも}影響力は小さい」のように,並列関係にある二つの助詞句に含まれる助詞が同じであることが多いので,並列助詞句を含む文の正解率はそれほど低くならないと思われるかもしれない.ところが,予備実験\cite{noro:2003}によると,並列助詞句を含む文の正解率は並列述語句を含む場合よりは高いが,並列名詞句を含む場合とほぼ同じであった.二つの助詞句が並列関係にあるか否かの判定には意味的情報が必要であり,構文解析の段階で解決することは困難である.構文解析の段階では,とりあえず並列関係にある助詞句は別個に動詞に係る構造を作ることとし,二つの助詞句が並列関係にあるか否かの判定は意味解析の段階で行うこととする(図\ref{fig:convert_para_pp}).\end{description}\begin{figure}[tp]\centering\epsfxsize=.8\textwidth\epsfbox{Modification/figure/convert_para_pp.eps}\caption{並列助詞句の構造に関する変更}\label{fig:convert_para_pp}\end{figure}以上をまとめると,我々の文法とコーパスの変更方針は以下のようになる.\if0\begin{enumerate}\item複合名詞内の構造の曖昧性,連用修飾句の範囲を変えない連体修飾句の係り先の曖昧性はタイプ3の曖昧性とし,構文解析の段階では一つの構文構造を出力する.\item連用修飾句の係り先の曖昧性,連用修飾句の範囲を変える連体修飾句の係り先の曖昧性はタイプ1の曖昧性とし,構文解析の段階で係り受け構造を反映した異なる構造を出力する.\item並列構造の曖昧性はタイプ3の曖昧性とし,二つの句が並列関係にあるか否かの曖昧性は,構文解析の段階では一つの構文構造を出力する.\end{enumerate}\fi\begin{enumerate}\item複合名詞内の構造,連用修飾句の範囲を変えない連体修飾句の係り受け関係の構造は,語構成や意味に関係なく同一の構造にする.\item連用修飾句の係り受け関係の構造,連用修飾句の範囲を変える連体修飾句の係り受け関係の構造は,従来通りの構造にする.ただし,用言のとる表層格の情報は無視する.\item二つの句が並列関係にあるか否かの判定は構文解析の段階では行わず,並列関係にあるか否かで構造の区別はしない.\end{enumerate}\begin{figure}[tp]\centering\epsfxsize=.7\textwidth\epsfbox{Modification/figure/basicPolicy.eps}\caption{構文解析で生成される構造}\label{fig:example_of_policy}\end{figure}以上の方針に従って構築した文法を使用し,「道路の両側には水を流すための溝が掘ってあります」という文を構文解析すると,図\ref{fig:example_of_policy}に示す4個の構文構造が生成される.ただし,実線で囲まれた句は連用修飾句を,破線で囲まれた句は動詞を,矢印の始点は連用修飾関係の係り元を,終点は係り先を表す.これら4個の構文構造は,連用修飾句の範囲とその係り先の違いを表し,この中から一つの構文構造を選択することは,連用修飾句の範囲とその係り先を決定することを意味する.一方,連体修飾句の係り先は,各構文構造が持つ意味的曖昧性の中から一つの意味解釈を生成することによって決定する.例えば,構文構造(b)では連体修飾句「道路の両側には水を流す」が「ため」に係るか「溝」に係るかを決定し,構文構造(c)では連体修飾句「道路の」と「両側には水を流す」が,それぞれ「ため」に係るか「溝」に係るかを決定する.一方,構文構造(b)では,「道路の」が「ため」や「溝」に係る可能性は,動詞「流す」を連用修飾する「道路の両側には」という句の範囲を変えることになるので考慮する必要はない.
\section{評価実験}
\label{sec:Evaluation}前節で述べた方針によるコーパスへの構文構造の付与の有用性を確認するため,コーパスから抽出した文法を用いて,以下の2点について評価実験を行った.\begin{enumerate}\item構文解析結果の曖昧性がどの程度抑えられているか\itemどの程度の構文解析精度が得られるか\end{enumerate}(1)の評価実験は本研究の目的そのものであるが,曖昧性が抑えられていても,解析精度が低ければ問題であるので,(2)の評価実験も必要である.\subsection{文法,コーパスの構文構造の変更}まず,付録\ref{sec:Corpus}節で述べたコーパス8911文(平均20形態素)に対し,我々の方針に従って構文構造付きコーパス作成支援ツール\cite{okazaki:2001}で構文構造を変更した\footnote{変更前のコーパスは約2万文あるが,8911文しか変更していないので,それに対応する文だけを変更前のコーパスから抜き出し,実験に使用する.}.具体的には,以下の手順で変更を行っている.\begin{enumerate}\item我々の変更方針に従って文法を人手で変更.\itemMSLRパーザ\cite{shirai:00}でコーパス中の文を構文解析し,構文解析結果の集合(統語圧縮共有森,packed-sharedforest\cite{tomita:86})を獲得.\itemコーパス作成支援ツールで,構文解析結果の集合を絞り込み,最終的に1つの正しい構文構造を選択.\end{enumerate}手順(3)で使用するコーパス支援ツールは,解析結果を1つずつ表示させながら正しい構文構造を選択するためのものではなく,非終端記号名や特定の句の係り先を,正しい構文構造が満たすべき制約として,作業者が順々に与え,それを満たさない候補を排除しながら正しい構文構造を残すためのものである.制約は,構文構造が曖昧な箇所(制約の教示を必要とする非終端記号や係り受け)をマウスで選択し,表示される選択肢から正しい候補を選択することで与える.作業は,100文をラベル付けするのに約3時間かかり,4人でこの約9000文をラベル付けするのに約1ヶ月かかった\footnote{4人のうち3人は変更方針の検討に直接は関わっておらず,ラベル付け前に我々(方針作成者)がその説明を行ったが,作業者が方針を理解し,本格的にラベル付けを開始できるまでに(作業期間の1ヶ月の他に)1,2週間かかった.}.\subsection{構文解析結果の曖昧性の変化}変更前,変更後のコーパス全8911文からそれぞれ文法を抽出し\footnote{\cite{charniak:96}のようにコーパス出現頻度の低い文法規則を削除することはせず,全文法規則を利用する.}(以降,変更前,変更後のコーパスから抽出した文法を,それぞれ「変更前の文法」,「変更後の文法」と呼ぶ),MSLRパーザで構文解析を行った\footnote{MSLRパーザは形態素解析と構文解析を同時に行うものであるが,品詞列を入力とすることで構文解析のみを行うことができる.今回は,品詞列を入力とし,形態素解析は終了しているものとしている.}.変更前,変更後の文法による構文解析結果の数を表\ref{tab:result_ambiguity}に示す.我々のコーパスの変更方針により,文法規則数は約250個増加しているが,構文解析結果の数は$10^{12}$オーダから$10^5$オーダに減少した\footnote{今回の我々の方針では品詞レベルの変更は考慮しておらず,非終端記号の数の変化はない.}.\begin{table}[tp]\centering\caption{変更前,変更後の文法による構文解析結果の数}\label{tab:result_ambiguity}\begin{tabular}{|c|r|r|r|r|}\hline&\multicolumn{1}{|c|}{文法規則数}&\multicolumn{1}{|c|}{非終端記号数}&\multicolumn{1}{|c|}{終端記号数}&\multicolumn{1}{|c|}{構文解析結果数}\\\hline変更前&1,694&249&600&$1.868\times10^{12}$\\\hline変更後&1,949&279&600&$9.355\times10^5$\\\hline\end{tabular}\end{table}白井らの手法では,EDRコーパス約188,000文から抽出した文法で1文あたり$10^9$オーダの解析木が出力される\cite{shirai:97}.文法抽出に使用した文の数に大きな差があるため公平な比較にはならないが,白井らの文法に比べて曖昧性が減少している主な要因として,以下の3つが考えられる.\begin{description}\item[連体修飾句と連用修飾句の区別:]白井らの文法では,連体修飾句か連用修飾句かを区別するためのラベルが付与されていない.これは,第\ref{sec:Problem}節で挙げた曖昧性を増大させる要因の3番目にあたる.この問題は第\ref{sec:Problem}節で挙げた用言の活用形の問題だけでなく,後置詞句でも同様に起こり得る.EDRコーパスでは,「が」,「を」等と「の」を区別せず,すべて「助詞」としているので,白井らの文法ではこれらの助詞が末尾に現れる句はすべて「後置詞句」となり,連体修飾句か連用修飾句かの区別が付かなくなる.我々の文法では,「\underline{東京へ}行く」のように連用修飾句になる場合は「助詞句」,「\underline{東京の}人口」のように連体修飾句になる場合は「連体句」となるので,このような曖昧性は出ない\footnote{「\underline{鼻の}長い象」のように,「の」が末尾に出現する句が連用修飾句になる場合もあるので,曖昧性は残る.しかし,逆に,現代語において,他の助詞が末尾に出現する句が連体修飾句になることはほとんどない.「\underline{駅を}中心に発展する」のような例外もあるが,これは「中心に」の後に動詞「して」が省略されていると考えることができる.現段階では省略をCFGで扱うことを考えていないので,このような文は対象外とし,曖昧性を除外している.}.\item[品詞の細分化:]我々が使っているコーパスの品詞体系はEDR日本語単語辞書に基づいて細分化されている.例えば,白井らは名詞を細分化していないが,「今日,東京へ行く」の「今日」のように助詞を伴わずに連用修飾可能な名詞を他の名詞と区別しておかなければ,すべての名詞が助詞を伴わずに連用修飾することを認める文法規則となり,曖昧性を増大させる要因となる\footnote{日本語では助詞が頻繁に省略され,一般的な名詞であっても助詞を伴わずに連用修飾する例もあるが,助詞が省略されていると判断できるものは対象外としている.}.\item[連体修飾関係と並列関係:]我々の文法では,連体修飾句の係り先の曖昧性と2つの句が並列関係にあるか否かの曖昧性を出さないようにしている.1文に含まれる連体修飾句や並列句の数はそれほど多くなく,先に挙げた2つの要因ほど,大きく曖昧性の削減に貢献していないが,構文解析での解決が困難な曖昧性を抑えることは,その後の意味解析においても重要なことである.\end{description}\subsection{構文解析精度の変化}\begin{figure}[p]\centering\epsfxsize=.9\textwidth\epsfbox{Evaluation/figure/resultPGLR-close.eps}\caption{変更前と変更後の文法$G_{\mbox{all}}$による構文解析結果の文の正解率}\label{fig:result_accuracy_close}\end{figure}\begin{figure}[p]\centering\epsfxsize=.9\textwidth\epsfbox{Evaluation/figure/resultPGLR-open.eps}\caption{変更前と変更後の文法$G_{\mbox{train}}$による構文解析結果の文の正解率}\label{fig:result_accuracy_open}\end{figure}構文解析結果を確率一般化LR(PGLR)モデル\cite{inui:98}でランク付けし,解析精度を調べた\footnote{\cite{charniak:96,shirai:97}はPCFGを用いているが,我々はPGLRモデルを使用する.我々が行った予備実験によると,PGLRモデルの方がPCFGよりも解析精度が高くなる.}.ただし,8911文を10分割し,一つを評価用,残りをPGLRモデルの学習用とし,10分割交差検定で評価を行った.文法は全8911文から抽出したもの($G_{\mbox{all}}$)と,学習用データのみから抽出したもの($G_{\mbox{train}}$)の2通りを用意した.図\ref{fig:result_accuracy_close},図\ref{fig:result_accuracy_open}に,上位1位から100位以内の解析結果についての文の正解率を示す.ただし,文の正解率は以下のように定義される.\[\mbox{文の正解率}=\frac{\mbox{出力した解析木の集合の中に正しい木が含まれる文の数}}{\mbox{解析した文の総数}}\]ここで,「正しい木」とは,コーパスの構文構造と完全に一致する解析木を指す.また,文法$G_{\mbox{train}}$の被覆率,再現率を表\ref{tab:coverage_recall}に示す.ただし,被覆率,再現率は以下のように定義する.\[\mbox{被覆率}=\frac{\mbox{解析した文の総数}-\mbox{解析に失敗した文の総数}}{\mbox{解析した文の総数}}\]\[\mbox{再現率}=\frac{\mbox{出力されたすべての解析木の中に正しい木が存在する文数}}{\mbox{解析した文の総数}}\]\begin{table}[tp]\centering\caption{文法$G_{\mbox{train}}$の被覆率と再現率}\label{tab:coverage_recall}\begin{tabular}{|c|r|r|}\hline&\multicolumn{1}{|c|}{変更前}&\multicolumn{1}{|c|}{変更後}\\\hline被覆率&98.51\%&97.32\%\\\hline再現率&96.63\%&95.88\%\\\hline\end{tabular}\end{table}従来の研究では,評価尺度として括弧付けの再現率や適合率など部分的な構造の正しさを示すものを使用することが多い.しかし,我々は,構文解析結果の集合から尤もらしい解析結果をいくつか選択し,それらに対して意味解析を行うことを前提としているので,構文解析の段階では,意図した構文構造と完全に一致していることが望ましい.構文構造の部分的な正しさを示す括弧付けの再現率や適合率よりも,上述の文の正解率の方が条件が厳しいが,重要な尺度であると考えている.PGLRモデルによる生成確率の上位100位以内の解析結果について見てみると,変更前,変更後の文法による文の正解率は,文法$G_{\mbox{all}}$ではそれぞれ88.45\%,98.62\%となり,文法$G_{\mbox{train}}$ではそれぞれ86.23\%,94.66\%となり,変更後の文法の方が8〜10\%高くなっている.また$G_{\mbox{all}}$,$G_{\mbox{train}}$どちらの場合でも,変更後の文法で,変更前の文法による上位100位以内の文の正解率に達するには,上位10位以内の解析結果を考慮するだけで十分であり,我々のコーパスの変更方針が有効であることが分かる.表\ref{tab:coverage_recall}より,我々の文法$G_{\mbox{train}}$の被覆率は97\%以上であり,広範囲の文の解析が可能であることが分かる.一方,被覆率,再現率ともに,我々の方針による変更によって1\%程度低くなり,解析不能なものが変更前に比べて1\%程度多く生じる.これは,構文解析結果の曖昧性を抑えるために非終端記号を細分化したことによるものである.文法$G_{\mbox{train}}$による上位100位の文の正解率の差が文法$G_{\mbox{all}}$によるものの差より小さくなる要因は,この再現率の差にある.しかし,文の正解率が我々の変更によって10\%近く上がることから,被覆率や再現率がこの程度低下することは許容できると考えている\footnote{コーパスをさらに増やせば,被覆率,再現率の差は小さくなる.}.\if0さらに,予備実験として,無作為に選んだ100文について,変更後の文法による1位の解析結果を調査したところ\footnote{100文を評価用データとし,残りを学習用データとしている.},文節区切りが完全に一致するものは96文あり,それらの文節の係り受け正解率は89.23\%であった\footnote{連体修飾句の係り先は,係り先となり得る名詞のうち最も近くにあるものであると仮定している}.これは,SupportVectorMachineや最大エントロピー法を用いた文節係り受け解析の手法の正解率と同程度であり\cite{uchimoto:99,kudo:2002}\footnote{使用しているコーパスや実験の条件が異なるため,公平な比較ではない.},意味情報を用いることでさらに正解率が向上すると考えている\footnote{変更前の文法でも,文節の係り受け正解率は,変更後の文法の場合とほぼ同じである.しかし,係り受け構造は完全に同じであっても非終端記号が異なるものが多く,それらは意味解析の段階で誤った解釈をすることになる可能性が高い.}.\fi
\section{PGLRモデルによる解析結果を利用した係り受け解析}
\label{sec:SDDA}前節で,我々の方針により作成したコーパスから抽出した大規模日本語文法が,構文解析結果の曖昧性を抑え,文の正解率が約10\%向上することを示した.しかし,構文解析結果の曖昧性を抑えるために,一部の曖昧性を同一の構造で表現することとし,その内部構造を厳密に決定していないため,文の正解率が高くなるのは当然であるという疑問が残る.そこで,PGLRモデルによる解析結果を利用した文節係り受け解析を行い,係り受け精度を調べた.\subsection{構文木からの文節係り受け関係の抽出}\label{sec:DepExtraction}文節の係り受け関係は,構文木から取り出す.その手順を以下に示す.\begin{enumerate}\item文節区切りを決定する\item構文構造をもとに,各文節について,係り先となる文節を決定する\end{enumerate}例えば,図\ref{fig:example_tree}の構文木の場合,文節区切りと各文節の係り先となる文節は表\ref{tab:extracted_dep}のようになる.我々が使用しているコーパスに付与されている構造は句構造であり,文節中のどの語に係るかをさらに厳密に決定することも可能である.しかし,今回の実験では,どの文節に係るかのみを決定する.\begin{figure}[t]\centering\epsfxsize=.8\textwidth\epsfbox{SDDA/figure/example_tree.eps}\caption{構文構造の例}\label{fig:example_tree}\end{figure}\begin{table}[tp]\centering\caption{図\protect\ref{fig:example_tree}の木構造から抽出される文節の係り受け関係}\begin{tabular}{|c|l|c|}\hline文節番号&\multicolumn{1}{|c|}{文字列}&係り先文節番号\\\hline1&1.8ヘクタールの&2\\\hline2&広さが&3\\\hline3&あり,&6\\\hline4&日本庭園の&5\\\hline5&眺めが&6\\\hline6&すばらしい&---(文末)\\\hline\end{tabular}\label{tab:extracted_dep}\end{table}変更後の文法では,連体修飾句の係り受け関係の構造は連用修飾句の範囲を変えない場合に限り,同一の構造(右下がりの構造)に制限している.そのため,連体修飾句の係り受け解析を行う際は,連体修飾関係の曖昧性をすべて考慮しなければならない.しかし,今回は,PGLRモデルによる生成確率1位の構文木中の連体修飾句は(意味的情報を用いず)係り得る名詞の中で最も近いものを含む文節に係ることとする\footnote{係り得る名詞の中で最も近いものに係るとすると,連体修飾句の係り先の正解率は70\%弱であった.}.\begin{figure}[t]\centering\epsfxsize=.6\textwidth\epsfbox{SDDA/figure/adnominal.eps}\caption{連体句の係り受け関係}\label{fig:sdda_adn}\end{figure}例えば,「青い目のアメリカから来た男性に会う」という文の「青い目のアメリカから来た男性に」という助詞句を考える.変更後の文法でこの文を構文解析すると,この助詞句について,図\ref{fig:sdda_adn}(a),(c),(e)の3通りの解析木が出力される(中間ノードのラベルは省略する)\footnote{実際には助詞句「青い目のアメリカから」が「会う」に係る解析木も出力されるが,ここの議論では省略する.}.図\ref{fig:sdda_adn}(a)のような構文木が生成された場合,その係り受けは,図\ref{fig:sdda_adn}(b)に示すように,文節「青い」が文節「目の」に,文節「目の」が文節「男性に」に直接係るとして係り受け精度を計算する(文節「アメリカから」は文節「来た」に,文節「来た」は文節「男性に」に係る).図\ref{fig:sdda_adn}(c),(e)の場合は,それぞれ図\ref{fig:sdda_adn}(d),(f)に示すような係り受け構造となる.連用修飾句の係り先の曖昧性は構文解析結果の曖昧性として残しているので,構文解析結果として出力された構造をそのまま利用する.複合名詞の内部の構造は語構成に関係なく同一の構造としているが,今回の実験では文節の係り受け構造を抽出するだけであるので,複合名詞の内部の構造までは考慮されない.2つの文節が並列関係にあるか否かの曖昧性は,今回の評価実験では無視し,並列名詞句は連体修飾関係として,並列述語句と並列助詞句は連用修飾関係として扱う.\subsection{評価実験}評価は,変更後のコーパス8912文で行った\footnote{第\ref{sec:Evaluation}節の評価実験では8911文を利用していた.実際のコーパスは8912文であるが,1文は変更前のコーパスから抽出した文法で構文解析を行うと,構文解析結果の数が膨大になり過ぎ,メモリ不足で解析できなかったため,この1文を除いて実験を行った.今回の実験は変更後のコーパスから抽出した文法のみを利用するので,8912文全てを利用している.}.このうち,評価用として100文をランダムに選択し,残りをPGLRモデルの学習用とした.この評価用データの100文は,1文あたり平均19.84形態素,7.16文節であり,並列構造を持つ文は17文含まれている.PGLRモデルにより評価用データ100文を構文解析し,生成確率が1位の構文木から,第\ref{sec:DepExtraction}節で述べた方法により,半自動的に係り受け構造を抽出し\footnote{構文解析結果から文節の係り受け構造を機械的に抽出することは,一見すると簡単に見える.しかし,コーパスに付与されている構造が複雑であるため,完全に自動化することはできなかった.機械的に正しい係り受け構造を抽出できない部分は人手で修正している.今後,文節係り受け構造の抽出を容易にするために,構造の変更を検討していく予定である.},その精度を以下の3つの尺度で評価した.\[\mbox{係り受けA型}=\frac{\mbox{正しい係り受け関係の数}}{\mbox{総文節数}-(\mbox{テスト文の総数}\times1)}\]\[\mbox{係り受けB型}=\frac{\mbox{正しい係り受け関係の数(文末2文節の関係以外)}}{\mbox{総文節数}-(\mbox{テスト文の総数}\times2)}\]\[\mbox{文正解率}=\frac{\mbox{正しい係り受け関係をすべて決定できた文数}}{\mbox{テスト文の総数}}\]「係り受けA型」とは,全ての係り受け関係の正解率であり,「係り受けB型」とは,文末2文節の係り受け関係以外の係り受け正解率である.「文正解率」とは,文全体の文節の係り受け関係の正解率である.テスト文の正しい係り受け関係は,変更前のコーパスに付与されている構文木から,先に述べた方法で取り出した.その結果を表\ref{tab:result_sdda}に示す.ただし,「文節不一致」は文節区切りが正解と一致しなかった文の数を表す.\begin{table}[tp]\centering\caption{係り受け解析の実験結果}\label{tab:result_sdda}\begin{tabular}{|r|r|r|r|}\hline\multicolumn{1}{|c|}{係り受けA型}&\multicolumn{1}{|c|}{係り受けB型}&\multicolumn{1}{|c|}{文正解率}&\multicolumn{1}{|c|}{文節不一致}\\\hline91.32\%&89.61\%&61.54\%&9\\\hline\end{tabular}\end{table}表\ref{tab:result_sdda}より,意味情報を全く利用しなくとも,PGLRモデルのみによる係り受け正解率が90\%前後と非常に高いことが分かる.これは,SupportVectorMachineや最大エントロピー法を用いた文節係り受け解析の手法の正解率と同程度である\cite{uchimoto:99,kudo:2002}\footnote{使用しているコーパスや実験の条件が異なるため,公平な比較ではない.}.我々は,構文解析結果に対して意味解析を行うことを想定している.現在,本格的な意味解析の代わりに,SDSAの枠組みのみを利用して,単語の共起に関する統計データを用いた小規模な係り受け解析の実験を行っているが,非常に単純なスコア付けであるにも関わらず,93.0\%の係り受け正解率(係り受けB型),68.8\%の文正解率が得られることを確認している\cite{yagi:2003}.今回は評価用データを100文として実験を行ったが,この規模は非常に小規模であるため,SDSAの有効性を示すには至っていない.しかし,我々は,実験結果からSDSAによるアプローチが有効である可能性があると考えている.今後,コーパスサイズを大きくし,SDSAベースの本格的な意味解析への移行を検討する予定である.
\section{まとめ}
\label{sec:Conclusion}多様な言語現象を扱える大規模な文法は,構文構造付きコーパスから抽出することで構築可能であるが,そのようにして抽出した文法を用いた構文解析は,構文解析結果の曖昧性を極端に増大させることが多く,実用に供されていないのが現状である.本論文では,困難ではあっても曖昧性を増大させる要因を十分分析し,文法やコーパスの変更を繰り返すことによって,構文解析のための実用的な大規模文法を構築できることを示した.これらの文法,コーパスの変更点は,我々が本論文で扱ったコーパス特有の問題ではなく,一般性を持つものである.また,本論文では既存のコーパスに付与されている構文構造を変更しながら,抽出した文法による構文解析結果の曖昧性の削減を図っているが,新たに構文構造付きコーパスを作成する際には,この方針がコーパス作成基準となる.従来の構文構造付きコーパス作成基準は抽出したCFGによる構文解析結果の曖昧性を十分に考慮していないが,本論文で述べた方針に留意してコーパスを作成することで,CFG抽出に適したコーパスを新たに作成可能であると我々は考えている.本論文で述べた変更を施したコーパスから抽出したCFGで構文解析を行うと,変更前のCFGを使用した場合に比べて,構文解析における曖昧性を大幅に抑えることが可能であることを実験的に示した.また,PGLRモデルによるスコア付けにより,上位100位以内の構文解析結果に対する文の正解率が10\%向上することを確認した.さらに,生成確率が1位となる構文解析結果の文節の係り受けの精度は90\%前後であり,既存の係り受け解析の手法と比較しても同程度の精度を有していることを確認した.我々は,SDSAの枠組みを利用し,共起情報を用いて係り受け解析を行うことにより,小規模実験の段階ではあるが,93\%の係り受け精度が得られている\cite{yagi:2003}.今後の課題を以下に示す.\begin{itemize}\item本論文で述べた変更方針で構文解析結果の曖昧性を大幅に抑制できたが,まだ十分ではない.例えば,日本語では助詞落ちが頻繁に出現するが,これを扱うことは曖昧性の増大につながる.省略されている助詞を前処理で補うべきか,意味解析で補うべきかを現在検討中である.\item我々の文法は,構文解析における曖昧性を抑えるために一部の構文構造を制限している.後処理として想定されている本格的な意味解析の手法の検討が必要である.\item本論文で述べたコーパスの変更方針では,形態素レベル(品詞レベル)の曖昧性を考慮していない.しかし,構文解析結果の曖昧性をさらに抑えるためには,形態素区切りの基準や品詞体系の見直しが必要である.現在,茶筌\cite{matsumoto:2003}の品詞体系を基に検討しているところである.\itemコーパスの作成や,変更方針の検討には複数の作業者が必要であり,さらに,その作業は長期間に及ぶため,バージョン管理が重要となる.そのために,コーパスをデータベース化し,検索システムやコーパス作成ツールを組み込むことで,コーパス作成のための大規模な支援システムを構築することが必要である.\end{itemize}\acknowledgmentこの研究は,21世紀COEプログラム「大規模知識資源の体系化と活用基盤構築」で行っているものである.コーパス作成,修正において協力を頂いた小林正博氏,大久保佳子氏をはじめとする(株)日本システムアプリケーションの皆様に感謝致します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Charniak}{Charniak}{1996}]{charniak:96}Charniak,E.\BBOP1996\BBCP.\newblock\BBOQTree-bankGrammars\BBCQ\\newblockIn{\Bemthe13thNationalConferenceonArtificialIntelligence},\BPGS\1031--1036.\bibitem[\protect\BCAY{Church\BBA\Patil}{Church\BBA\Patil}{1982}]{church:82}Church,K.\BBACOMMA\\BBA\Patil,R.\BBOP1982\BBCP.\newblock\BBOQCopingwithSyntacticAmbiguityorHowtoPuttheBlockintheBoxontheTable\BBCQ\\newblock{\BemAmericanJournalofComputationalLinguistics},{\Bbf8}(3--4),139--149.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{eisner:1996}Eisner,J.\BBOP1996\BBCP.\newblock\BBOQEfficientnormal-formparsingforcombinatorycategorialgrammar\BBCQ\\newblockIn{\Bemthe34thAnnualMeetingoftheACL},\BPGS\79--86.\bibitem[\protect\BCAY{Inui,Sornlertlamvanich,Tanaka,\BBA\Tokunaga}{Inuiet~al.}{1998}]{inui:98}Inui,K.,Sornlertlamvanich,V.,Tanaka,H.,\BBA\Tokunaga,T.\BBOP1998\BBCP.\newblock\BBOQProbabilistic{GLR}parsing:{A}newformalizationanditsimpactonparsingperformance\BBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(3),33--52.\bibitem[\protect\BCAY{Jurafsky\BBA\Martin}{Jurafsky\BBA\Martin}{2000}]{jurafsky:2000}Jurafsky,D.\BBACOMMA\\BBA\Martin,J.~H.\BBOP2000\BBCP.\newblock{\BemSpeechandLanguageProcessing}.\newblockPrentice-Hall.\bibitem[\protect\BCAY{Komagata}{Komagata}{1997}]{komagata:97b}Komagata,N.\BBOP1997\BBCP.\newblock\BBOQEfficientParsingfor{CCGs}withGeneralizedType-RaisedCategories\BBCQ\\newblockIn{\BemIWPT97},\BPGS\135--146.\bibitem[\protect\BCAY{工藤松本}{工藤\JBA松本}{2002}]{kudo:2002}工藤拓\BBACOMMA\松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),1834--1842.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1992}]{kurohashi:1992}黒橋禎夫\BBACOMMA\長尾眞\BBOP1992\BBCP.\newblock\JBOQ長い日本語文における並列構造の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(8),1022--1031.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{kurohashi:97}黒橋禎夫\BBACOMMA\長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会},\BPGS\115--118.\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{kurohashi:1998}黒橋禎夫\BBOP1998\BBCP.\newblock\Jem{日本語構文解析システム{KNP}version2.0b6}.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{marcus:93}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusof{English}:The{PennTreebank}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),313--330.\bibitem[\protect\BCAY{Martin,Church,\BBA\Patil}{Martinet~al.}{1987}]{martin:87}Martin,W.~A.,Church,K.~W.,\BBA\Patil,R.~S.\BBOP1987\BBCP.\newblock\BBOQPreliminaryanalysisofabreadth-firstparsingalgorithm:Theoreticalandexperimentalresults\BBCQ\\newblockInBolc,L.\BED,{\BemNaturalLanguageParsingSystems},\BPGS\267--328.Springer-Verlag.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{matsumoto:2003}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\Jem{形態素解析システム『茶筌』version2.3.0}.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2001}]{edr:2001}日本電子化辞書研究所\BBOP2001\BBCP.\newblock\Jem{{EDR}電子化辞書2.0版仕様説明書}.\bibitem[\protect\BCAY{野呂,橋本,徳永,田中}{野呂\Jetal}{2003}]{noro:2003}野呂智哉,橋本泰一,徳永健伸,田中穂積\BBOP2003\BBCP.\newblock\JBOQ大規模日本語文法の開発\JBCQ\\newblock\JTR\TR03-0006,東京工業大学大学院情報理工学研究科計算工学専攻.\bibitem[\protect\BCAY{岡崎,白井,徳永,田中}{岡崎\Jetal}{2001}]{okazaki:2001}岡崎篤,白井清昭,徳永健伸,田中穂積\BBOP2001\BBCP.\newblock\JBOQ正しい構文木の選択を支援する構文木付きコーパス作成ツール\JBCQ\\newblock\Jem{人工知能学会第15回全国大会}.\bibitem[\protect\BCAY{白井,徳永,田中}{白井\Jetal}{1997}]{shirai:97}白井清昭,徳永健伸,田中穂積\BBOP1997\BBCP.\newblock\JBOQ括弧付きコーパスからの日本語確率文脈自由文法の自動抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf4}(1),125--146.\bibitem[\protect\BCAY{白井,植木,橋本,徳永,田中}{白井\Jetal}{2000}]{shirai:00}白井清昭,植木正裕,橋本泰一,徳永健伸,田中穂積\BBOP2000\BBCP.\newblock\JBOQ自然言語解析のための{MSLR}パーザ・ツールキット\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),93--112.\bibitem[\protect\BCAY{Tomita}{Tomita}{1986}]{tomita:86}Tomita,M.\BBOP1986\BBCP.\newblock{\BemEfficientParsingforNaturalLanguage}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{内元,関根,井佐原}{内元\Jetal}{1999}]{uchimoto:99}内元清貴,関根聡,井佐原均\BBOP1999\BBCP.\newblock\JBOQ最大エントロピー法に基づくモデルを用いた日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),3397--3407.\bibitem[\protect\BCAY{八木,野呂,橋本,徳永,田中}{八木\Jetal}{2003}]{yagi:2003}八木豊,野呂智哉,橋本泰一,徳永健伸,田中穂積\BBOP2003\BBCP.\newblock\JBOQ単語の共起情報を利用した文法主導の係り受け解析\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2003-NL-157},\BPGS\17--24.\end{thebibliography}\appendix
\section{文法作成の出発点として使用したコーパス}
\label{sec:Corpus}本節では,我々が文法作成の出発点として使用した構文構造付きコーパスについて述べる.我々が使用したコーパスは,EDRコーパス中の文(約2万文)に対し,人手で構文構造を付与したものである.基本的な構造はEDRコーパスに付与されている括弧付き構造に準拠しているが,単語区切り,品詞体系,構文構造それぞれについて,元となるEDRコーパスと異なる点がある.\subsection{基本構造}\begin{figure}[tp]\centering\epsfxsize=\textwidth\epsfbox{Corpus/figure/edrtree_pos.eps}\caption{構文木を構成する3つの層}\label{fig:edrtree_pos}\end{figure}我々が使用したコーパスに付与されている構造は,以下の3つの層に分かれている(図\ref{fig:edrtree_pos}).\begin{description}\item[第1層:]形態素と終端記号(品詞)を対応付ける層.\item[第2層:]終端記号(品詞)をやや粗い品詞分類に変換する層.\item[第3層:]実際の構文構造を示す層.\end{description}\subsection{単語区切りと品詞体系}EDRコーパスで使用されている品詞は15種類しかなく,比較的粗い品詞体系となっている.しかし,これは構文解析を行うのに十分であるとは言えない.白井らは,助詞と記号を,表層情報(形態素)を利用して細分化しているが\cite{shirai:97},それでも,まだ十分ではないと考えている.そこで,EDR日本語単語辞書に記載されている品詞名,左右連接属性(連接属性対),用言のとる表層格情報を組み合わせることにより,さらに細分化したものを第1層の品詞として使用している(表\ref{tab:pos_example}).ただし,「開講」等「する」を伴って動詞を形成するものは,EDR日本語単語辞書では``JN1;JVE''という品詞が割り当てられているが,我々が使用したコーパスでは``JSH''で置き換えている.また,「(のぼり)はじめる」のように動詞に続く動詞や形容詞は,補助動詞(JAX)としている.\begin{table}[tp]\centering\caption{品詞の細分化の例(1)}\begin{tabular}{|c|c|c|}\hline単語&EDRコーパス&使用したコーパス\\\hline\hlineれんが&名詞&JN1\_JLN1\_JRN1\_*\\\hline埋め込(む)&動詞&JVE\_JLV1\_JRVM\_cが-に-を\\\hline(埋め込)む&語尾&JEV\_JSVM\_JEE1\_*\\\hlineと(格助詞)&助詞&JJO\_JL30C\_JR30C\_*\\\hlineと(接続助詞)&助詞&JJO\_JL30S\_JR30S\_*\\\hlineと(並列助詞)&助詞&JJO\_JL30H\_JR30H\_*\\\hline開講&動詞&JSH\_JLN3\_JRN4\_cが-を\\\hline(開講)する&語尾&JEV\_JSV2\_JEE1\_*\\\hline(のぼり)はじめ(る)&動詞&JAX\_JLV9\_JRV1\_*\\\hline\end{tabular}\label{tab:pos_example}\end{table}\begin{table}[tp]\centering\caption{品詞の細分化の例(2)}\begin{tabular}{|c|c|c|}\hline単語&EDRコーパス&使用したコーパス\\\hline\hline(強め)てい(る)&助詞/動詞&JJP\_JL26S\_JRV1\_*\\\hlineによって&助詞/動詞/語尾/助詞&JJ1\_JL48C\_JR26S\_hによって\\\hlineにおいて&助詞/動詞/語尾/助詞&JJ1\_JL48C\_JR26S\_hにおいて\\\hline\end{tabular}\label{tab:pos_example2}\end{table}EDRコーパスでは,「不安感を強めている」の「てい(る)」は「て(助詞)」,「い(動詞)」の2単語に分かれているが,我々が使用したコーパスでは,助動詞相当句として1単語としている(表\ref{tab:pos_example2}).「によって」等の助詞相当句も同様である\footnote{助詞相当句の左右連接属性は,左端の語の左連接属性と右端の語の右連接属性で決まるので,格助詞「に」ではじまり接続助詞「て」で終わる助詞相当句(「によって」,「にとって」等)はすべて同じ品詞になってしまう.そこで,これらを区別するために,形態素ごとに分類している.}.EDR日本語単語辞書をもとにした品詞体系は非常に細かく,実際にコーパスに出現した品詞だけでも600種類を数える(存在し得る品詞を含めると優に1000種類を超える).この品詞の上に直接構文構造を付けると,そのコーパスから抽出した文法規則が複雑になる.そこで,品詞分類を粗くする層として第2層を設けている.これにより,品詞分類が100種類程度に減少する.本論文では,構文構造を図示する際,必要でない限り,第1層の品詞を省略し,第2層の粗い品詞を終端記号とする.\if0粗い品詞分類は,以下のようになっている.\begin{description}\item[名詞:]「する」が直後に結合できるもの,助詞を伴なわずに連用修飾可能なもの等,機能ごとに分類するが,固有名詞等を分類しない.\begin{description}\item[(分類)]普通名詞,数名詞,サ変名詞,連用名詞,形容名詞,連体名詞,形式名詞,形式連用名詞,形式連体名詞\end{description}\item[動詞,形容詞:]語幹と語尾に分割されるが,動詞語尾と形容詞語尾の区別はしない.\begin{description}\item[(分類)]動詞語幹,形容詞語幹,語尾\end{description}\item[副詞:]基本的に用言を修飾するものであるが,「ほぼ全域」のように名詞を修飾するものもあり,これらを区別している.\begin{description}\item[(分類)]副詞,陳述副詞,連体副詞\end{description}\item[連体詞:]名詞を修飾するものであるが,「この」,「その」等は指示連体詞として区別している.\begin{description}\item[(分類)]連体詞,指示連体詞\end{description}\item[助動詞:]語幹と語尾に分けられるものは分け,それ以外のものはそれぞれ別のカテゴリを与える.ただし,語尾は動詞,形容詞語尾と区別しない.受身助動詞,使役助動詞は格の交代現象を引き起こすため,区別する.\begin{description}\item[(分類)]助動詞語幹,語尾,受身助動詞語幹,使役助動詞語幹,助動詞-た,助動詞-ます(その他多数)\end{description}\item[判定詞:]名詞の後に結合して判断を表す助動詞「だ」,「です」,「である」は判定詞として助動詞と区別する.「だ」,「です」は語幹と語尾に分けられないが,語幹となっている.語尾は,動詞語尾,形容詞語尾,助動詞語尾と区別しない.\begin{description}\item[(分類)]判定詞語幹,語尾\end{description}\item[補助動詞:]「(のぼり)はじめる」のように,動詞の後に続く動詞や形容詞を補助動詞とする.\begin{description}\item[(分類)]補助動詞語幹,語尾\end{description}\item[助詞:]機能により分類する.格助詞のうち,動詞や形容詞の結合価成分を作るものに対しては,形態素ごとに分割したカテゴリを与える.\begin{description}\item[(分類)]副助詞,連体助詞,接続助詞,準体助詞,終助詞,格助詞,格助詞$\backslash$が,格助詞$\backslash$を,格助詞$\backslash$に(その他多数)\end{description}\item[接辞:]接尾語は,それが結合することによって形成される複合語の種類(品詞)によって分類される.\begin{description}\item[(分類)]接頭語,接尾語/普通名詞,接尾語/連用名詞,接尾語/動詞(その他多数)\end{description}\end{description}\fi\subsection{構文構造}第3層の構造は基本的にEDRコーパスの括弧付けに従い,各中間ノードに非終端記号を付与する.ただし,我々が使用したコーパスでは1つの中間ノードに複数の非終端記号を縦に続けて割り当てることもあり,これにより,コーパスから抽出した文法が非終端記号の置き換え規則を含むようになる.例えば,「文法が」と「日本語文法が」という2つの句に対して,\cite{shirai:97}の場合は図\ref{fig:labelling}(a)のような構造になり,我々が使用したコーパスでは図\ref{fig:labelling}(b)のような構造になる.(a)から抽出される後置詞句に関する文法規則は,名詞句に助詞が結合する規則と名詞に助詞が結合する規則の2つになるが,(b)から抽出される助詞句に関する文法規則は,名詞句に助詞が結合する規則のみである\footnote{白井らが「後置詞句」と呼んでいる句は,我々が使用したコーパスでは「助詞句」と呼んでいる.}.その代わり,名詞句を構成するまでの部分が深くなるが,名詞や複合名詞から名詞句への置き換え規則を設け,類似の規則をまとめることで,句より上のレベルと下のレベルを明確に分けることができ,構造や抽出した文法規則が分かりやすくなる.\begin{figure}[tp]\centering\epsfxsize=\textwidth\epsfbox{Corpus/figure/labelling.eps}\caption{\protect\cite{shirai:97}との構文構造の違い}\label{fig:labelling}\end{figure}構造は基本的にEDRコーパスの括弧付けに従うが,次の場合には括弧付けとは異なる構造を付与する.\begin{description}\item[法,様相を表す助動詞:]「そうだ」など法や様相を表す助動詞は,EDRコーパスでは文全体に付加する構造になっている.しかし,白井らは,曖昧性を抑えるため,文末の最後の要素に結合する構造にしている.我々が使用したコーパスも,同様の構造になっている.\item[フラットな構造:]白井らも指摘しているように,EDRコーパスの括弧付けの中には,細かい括弧付けがなく,多くの要素を1つの括弧でまとめてしまうものがある.その場合には,さらに細かい構造を付与する.\item[用言に結合する語尾,助動詞:]用言に複数の語尾や助動詞が結合する場合,EDRコーパスでは1つの括弧でまとめられているが,この部分は,左下がりの構造にしている(図\ref{fig:verb_struct}).この部分をEDRコーパスに従ってフラットな構造にすると,結合する助詞や助動詞の列のパターンだけ文法規則が必要となるが,こうすることで,少ない文法規則でより多くのパターンをカバーできるようになる.\end{description}\begin{figure}[tp]\centering\epsfxsize=.5\textwidth\epsfbox{Corpus/figure/verb_struct.eps}\caption{動詞に複数の助動詞が結合する場合の構造}\label{fig:verb_struct}\end{figure}\begin{figure}[tp]\centering\epsfxsize=.5\textwidth\epsfbox{Corpus/figure/case.eps}\caption{用言のとる表層格を考慮した構造}\label{fig:case}\end{figure}我々が使用したコーパス中の用言を表す品詞には,それらがとる表層格の情報が付与されている.その表層格の情報は,第3層の構文構造にも引き継がれ,該当する助詞句によって打ち消される(図\ref{fig:case}).これにより,二重ヲ格等の制約を取り入れることが可能になる\footnote{本論文では,簡略化のため,説明において必要でない場合には,表層格の情報を省略して図示することがある.}.\begin{biography}\biotitle{略歴}\bioauthor{野呂智哉}{1977年生.2000年東京工業大学工学部情報工学科卒業.2002年同大学院情報理工学研究科計算工学専攻修士課程修了.同年同大学院情報理工学研究科計算工学専攻博士後期課程進学,在学中.日本語構文構造付きコーパスと日本語文法の構築に関する研究に従事.}\bioauthor{橋本泰一}{1999年東京工業大学大学院情報理工学研究科修士課程修了.2001年同大学院情報理工学研究科博士課程修了.現在,同大学大学院情報理工学研究科助手.博士(工学).情報処理学会,言語処理学会,各会員.}\bioauthor{徳永健伸}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,各会員.}\bioauthor{田中穂積}{1941年生.1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N04-04
|
\section{はじめに}
日本語の談話理解を考える際,文脈すなわち「会話の流れ」の認識は重要な要素となる.一般的に日本語では,「会話の流れ」を明示するために順接・逆接・話題転換・因果性,などを表す接続(助)詞が用いられることが多い.このことから,接続(助)詞を含む発話とそれと組になる発話,という関係を認識することが,談話理解の基本となると考えられる.これについては,マニュアルや論説文などのいわゆる書き言葉について,接続詞や指示語などによる連接パターンを用いてテキストの構造解析を行なう手法\cite{福本:文の連接関係解析,田中:文の連接パターン}や,対話中の質問--応答を表す発話対の認識に関する研究\cite{高野:発話対の認識手法について}などがある.これに対して本研究では,「だって」や「から」などの接続表現により因果関係の前件及び後件の関係が談話中で明示されている場合を対象とし,そのような因果関係が談話中でどのような特徴を伴って出現するのか,について検討する.また,この検討結果を,特に課題を設定していない状況での会話(自由会話)によるコーパスを用いて検証する.このような,文の意味内容に関する連接関係については,\cite{Hobbs:StructureOfDiscourse}で因果関係その他いくつかの場合について述べられているが,ここでは,接続表現により前件と後件の連接関係が明示されている場合を主な対象とするものである.なお,本技術資料では,会話データとして\figref{コーパス例}のようなコーパスを用いる.\begin{figure}[htbp]{\small\setlength{\baselineskip}{2.0mm}{\bf会話24}\begin{enumerate}\itemO→Pあのね、これでもいいんじゃん\da\itemP→Oわかった\da\itemO→Pえー、嘘で言ったんだよ\da\itemE→O何\ua\itemO→Eだって、牛乳入れろって言ってたらさー\da\itemG→G何か酒飲みたいなー\da\itemK→Gあっ、ありますよ\da\itemG→Kそれ何\ua\itemE→Gモルツ\da\itemP→Gウイスキー\da\itemE→Gうまいよ\da\end{enumerate}}\caption{コーパスの例}\figlabel{コーパス例}\end{figure}このコーパスは,大学のあるサークルでの飲み会の席上で録音された雑談(課題を特に設定していない自由会話)を,そこに同席した者がテキストに書きおこしたものであり,全部で1980の発話を含む.書きおこす際に,(1):発話の切れ目の認識\footnote{発話の切れ目は原則として話し手の交代時としているが,会話に同席した者が,発話が区切れていると判断した場合には,話し手の交代に関わりなく発話の切れ目としている.この時,発話間には平均して約0.5秒のギャップがある.},(2):会話内容によるセグメント分け,(3):話し手と聞き手のデータ追加,(4):発話の末尾の調子のデータ追加,を行なっており,例えば,「O→Pあのね、これでもいいんじゃん\da」\hspace{-.4em}という発話では,話し手が``O''で聞き手が``P''であり,末尾が下がり調子の発話であったことを示している.また,このコーパスでは,因果関係を表すとされる接続詞「だから/だって」および接続助詞(相当)「ので/から/のだから/のだもの」が用いられており,本論文ではこれらに注目して考察を行なう.
\section{因果関係を表わす発話の性質}
\subsection{接続表現による発話順序への影響}本技術資料では,因果関係を表わす接続表現として,接続詞「だから/だって」,接続助詞もしくはそれ相当の表現として「ので/から/のだから/のだもの」\footnote{以降ではこれらの語を「接続助詞類」と述べることにする.}を対象とする.ここではまず,これらが談話中でどのように因果関係の前件及び後件を関係付けるかについて述べる.はじめに,接続助詞類が用いられる場合であるが,発話の一例を\exsref{発話例1}に示す\footnote{各発話は``話し手→聞き手『発話本体』末尾の調子''と表記し,末尾の調子は``\da''が下がり調子,``\ua''が上がり調子を示す.}.\eenumsentence{\exslabel{発話例1}\itemA→Bこのお酒,とっても美味しいんだから\da\itemA→Bとりあえず,飲んでご覧なさいよ\da}この発話例のように,接続助詞類はそれを含む発話が因果関係の前件であることを示す.これと対応する後件は\exsref{発話例1}では前件の後方に位置するが,この順序は\exsref{発話例2}のように逆転してもよい.\eenumsentence{\exslabel{発話例2}\itemA→Bとりあえず,飲んでご覧なさいよ\da\itemA→Bこのお酒,とっても美味しいんだから\da}因果関係を表わす複文では,主節及び従属節の倒置現象が頻繁に生じるが,上記の現象もこれに類するものであり,\exsref{発話例1},\exsref{発話例2}ともに因果関係を認識可能である.以上の考察は次のようにまとめられる.\begin{screen}\begin{obs}\obslabel{接続助詞}接続助詞類による因果関係では,その前件を表わす発話と後件を表わす発話との間の順序関係は(1)「前件→後件」,(2)「後件→前件」のいずれも可能である.\end{obs}\end{screen}次に,接続詞が用いられる場合である.この場合,接続詞で関係付けられる発話は,基本的には接続詞を含む発話とその前方に位置する発話である\cite{三上:現代語法序説,森田:基礎日本語2}.例えば,「だから」の場合は\exsref{発話例3},「だって」の場合は\exsref{発話例4}のような発話例が考えられる.\eenumsentence{\exslabel{発話例3}\itemA→Bとても面白い落語だったのよ\da\itemA→Bだから,すごく笑っちゃった\da}\eenumsentence{\exslabel{発話例4}\itemA→Bすごく笑っちゃった\da\itemA→Bだって,とても面白い落語だったのよ\da}このように,「だから」の場合はそれを含む発話が後件を表わし,「だって」の場合はそれを含む発話が前件となるが,どちらもそれぞれ接続詞を含む発話とその前方に位置する発話とが関係付けられる.この発話の順序は,「だから」の場合は逆転不可能であり,例えば\exsref{発話例3}の発話の順序を入れ換えた\exsref{発話例5}において,\exsref{発話例5a}の前件が\exsref{発話例5b}であるという解釈はできない\footnote{``$\ast$''を含む発話例は,それが因果関係として解釈不可能であることを示す.}.\eenumsentence{\exslabel{発話例5}\item$\ast$A→Bだから,すごく笑っちゃった\da\exslabel{発話例5a}\item$\ast$A→Bとても面白い落語だったのよ\da\exslabel{発話例5b}}一方,「だって」の場合は,\exsref{発話例6}のように,前件と後件の順序が逆であっても因果関係が認識可能な場合がある.\eenumsentence{\exslabel{発話例6}\itemA→Bだって,とても面白くって\da\exslabel{発話例6a}\itemA→Bすごく笑っちゃった\da\exslabel{発話例6b}}この場合,\exsref{発話例6a}を前件,\exsref{発話例6b}を後件とする因果関係として解釈することが可能であるが,これには次の要素が影響しているものと考えられる.\begin{enumerate}\item「だって」が因果関係の前件を示す標識であり,\exsref{発話例6}のように順序を入れ替えた場合には「前件→後件」という発話順序となること.\item「だって」を含む発話が連用形で終わっており,「連用接続による因果関係の記述」という解釈が可能であること.\end{enumerate}前者について「だから」の場合と比較すると,\exsref{発話例3}のような「だから」が用いられる因果関係では,\exsref{発話例5}のように順序を入れ替えた場合は「後件→前件」という発話順序となってしまうことから解釈不可能となるが,「だって」ではそうではない.後者については,\exsref{発話例7}のように接続助詞類を用いるとさらにはっきりする.\eenumsentence{\exslabel{発話例7}\itemA→Bだって,とても面白いんだもの\da\exslabel{発話例7a}\itemA→Bすごく笑っちゃった\da\exslabel{発話例7b}}このような場合,前件と後件を関係付けるのは主に連用接続や接続助詞類の力であり,「だって」はそれを含む発話が因果関係の前件であることを強調する役目を果たしていると考えることができる.なお,「だから」を含む発話は因果関係の後件となるため,例えば\exsref{発話例8}のように連用接続とした場合でもやはり二つの発話を因果関係として認識することは不可能である.\eenumsentence{\exslabel{発話例8}\item$\ast$A→Bだから,すごく笑っちゃって\da\exslabel{発話例8a}\item$\ast$A→Bとても面白い落語だったのよ\da\exslabel{発話例8b}}以上から,接続詞による因果関係では,\obsref{接続助詞}に対して次のようなことがいえる.\begin{screen}\begin{obs}\obslabel{接続詞}接続詞「だから」による因果関係では,「A.だからB.」の順に発話がなされ,Aが前件,Bが後件を表わす.またこの順序が逆転することはない.接続詞「だって」による因果関係では,「A.だってB.」の順に発話がなされ,Aが後件,Bが前件を表わす.またこの順序はBが連用形で終わっている場合や因果関係を表わす接続助詞類で終わっている場合は「だってB.A.」の順序に逆転可能である.この時,因果関係は主に連用形や接続助詞類によって示され,「だって」はそれを含む発話が因果関係の前件であることを強調する役目を果たす.\end{obs}\end{screen}\subsection{前件と後件の隣接性}次に,\obsref{接続助詞},\obsref{接続詞}のような発話順序による因果関係の前件及び後件を述べる発話間の距離,及びそれぞれの発話の話し手の関係について検討する.まず,発話間の距離としてもっとも基本的な場合として,前件及び後件を述べる発話が隣接している場合が考えられる.発話の例をいくつか示す.\eenumsentence{\exslabel{発話例a}\itemA→Bこれ,飲んでよ\da\itemA→Bおいしいから\da}\eenumsentence{\exslabel{発話例b}\itemA→B飲み過ぎてしまった\da\itemA→Bだから,頭が痛くてたまらないんだ\da}このとき,両発話の話し手は同一である必要はない.例えば\exsref{発話例a}が\exsref{発話例c}のように発話された場合は,「AおよびCがBに勧める」という状況であると解釈可能である.\eenumsentence{\exslabel{発話例c}\itemA→Bこれ,飲んでよ\da\itemC→Bおいしいから\da}また,\exsref{発話例d}では「AおよびBが一緒に酒を飲んだ」という前提があるものとして解釈可能である.\eenumsentence{\exslabel{発話例d}\itemA→B飲み過ぎてしまった\da\itemB→Aだから,頭が痛くてたまらないんだ\da}結果として,前件及び後件の発話間の距離に関しては,まず次のような事柄が考えられる.\begin{screen}\begin{obs}\obslabel{基本距離}因果関係の前件及び後件を表わすそれぞれの発話は,談話中で隣接して出現する.この時,それぞれの発話の話し手は同一であっても異なっていてもよい.\end{obs}\end{screen}しかし,接続詞もしくは接続助詞類を含む発話と組となる発話が隣接して存在しない場合も考えられる.これにはおおまかにわけて次のような場合があげられる.\begin{itemize}\item[($\alpha$)]前件もしくは後件のいずれかもしくは双方が複数の発話からなる場合.\item[($\beta$)]前件と後件それぞれを表す発話の間に,質問あるいは同意を表す発話が存在する場合.\item[($\gamma$)]直接的に組となる発話は存在しないものの,発話の含意や前提などから,因果関係の前件と後件の関係が間接的に判明する場合.\end{itemize}まず,($\alpha$)の一例を示す.\eenumsentence{\exslabel{発話例e}\itemA→B飲んでみて\da\exslabel{発話例e1}\itemA→B美味しいんだから\da\exslabel{発話例e2}\itemC→Bそんなにアルコール強くないから\da\exslabel{発話例e3}}\exsref{発話例e1}と\exsref{発話例e2}は因果関係を表わす隣接発話の組であるが,一方\exsref{発話例e1}と\exsref{発話例e3}も,隣接していないものの,因果関係を表わすと解釈可能である.これは,\exsref{発話例e2}と\exsref{発話例e3}が前件を表わす一つのグループとしてまとまっており,このグループと,後件を表わす\exsref{発話例e1}が隣接していると捉えることができる.また,($\alpha$)の例として,後件が複数の発話からなる場合の例が\exsref{発話例ee}である.\eenumsentence{\exslabel{発話例ee}\itemA→B後かたづけは我々がやっておくから\da\exslabel{発話例ee1}\itemC→B心配しなくていいよ\da\exslabel{発話例ee2}\itemA→Bもう帰ってもいいよ\da\exslabel{発話例ee3}}この場合は,\exsref{発話例ee2}および\exsref{発話例ee3}がまとまって後件を表しており,その前件が\exsref{発話例ee1}であると捉えることができる.次に,($\beta$)の例として,質問が間に入るような発話例を次に示す.\eenumsentence{\exslabel{発話例f}\itemA→Bもう帰る\da\exslabel{発話例f1}\itemB→Aどうして\ua\exslabel{発話例f2}\itemA→Bだって,もう疲れたよ\da\exslabel{発話例f3}}この例では,表面上は\exsref{発話例f1}と\exsref{発話例f3}が因果関係を表しており,その間に存在する\exsref{発話例f2}は\exsref{発話例f1}への質問である.これは「B→Aどうして,もう帰るの\ua」という発話の後半(\exsref{発話例f1}で述べられている内容)を省略したものである.このことから,\exsref{発話例f3}は\exsref{発話例f2}において省略された部分を後件とした時の前件であるとみなすことも可能である.つまり,因果関係の前件に関与する発話\exsref{発話例f1},\exsref{発話例f2}に対し,\exsref{発話例f3}によって後件が述べられているとみなすことができる.なお,($\beta$)は形式的な特徴として「質問文に接続表現を含む発話が隣接する」と捉えられるが,この場合の例外として,「だから」を含む発話の前方に質問を示す発話が隣接する場合があげられる.その一例を\exsref{発話例外}に示す.\eenumsentence{\exslabel{発話例外}\itemD→A明日は打ち合わせがあるんですよね\ua\itemA→Dそうだよ\da\itemC→Aえっ\ua\exslabel{発話例外c}\itemA→Cだから,明日は打ち合わせだってば.\da\exslabel{発話例外d}}質問を示す発話と隣接するという点では\exsref{発話例f}や後述する\exsref{発話例l}と同様であるが,\exsref{発話例外}ではこれが因果関係を述べると仮定した場合に\exsref{発話例外d}の前件となるような意味内容を含む発話が述べられておらず,\exsref{発話例外c}から推測することも不可能である.実際には,この発話例では\exsref{発話例外d}は\exsref{発話例外c}を発した人物Mに対して「それは前に説明したはずだが,覚えていないのか」などのような非難の態度を表明するものであり,因果関係についての発話ではないと考えられる\cite{白川:理由を表さない「カラ」}.これについては,つぎの観察として述べることができる.\begin{screen}\begin{obs}\obslabel{例外}質問を示す発話に対し,「だから」が含まれる発話が隣接する場合,「だから」を含む発話が因果関係に関与しない場合がある.\end{obs}\end{screen}($\beta$)のもう一つの場合として,同意を示す発話が挿入される例を次に示す.\eenumsentence{\exslabel{発話例g}\itemA→Bもう疲れた\da\exslabel{発話例g1}\itemB→Aそうだね\da\exslabel{発話例g2}\itemA→Bだから,帰るよ\da\exslabel{発話例g3}}この例でも,表面上は\exsref{発話例g1}と\exsref{発話例g3}が因果関係を表している.さらに\exsref{発話例g2}は\exsref{発話例g1}で述べられている内容への同意を示している.この発話は,「B→Aそうだね,私ももう疲れた\da」のように言い換えることが可能であり,\exsref{発話例g1}による意味内容を含んでいるとみなすことができる.このことから,因果関係の前件の意味内容は\exsref{発話例g1},\exsref{発話例g2}の双方に含まれ,それに対する後件が\exsref{発話例g3}で述べられているとみなすことができる.このように,因果関係の前件もしくは後件が複数の発話の意味内容に含まれていると解釈可能な場合,それを{\bf発話群}として次のように定義する.\begin{screen}\begin{df}\deflabel{発話群}因果関係の前件もしくは後件が連続する複数の発話の意味内容に含まれていると解釈されるとき,それを発話群と呼ぶ.この時,発話群中には前件もしくは後件の意味内容を明示する発話が一つ以上必ず含まれる.\end{df}\end{screen}上の例文では,\exsref{発話例e2},\exsref{発話例e3}が前件となる発話群であり,双方の発話によって前件の意味内容が明示されている.また,\exsref{発話例f1},\exsref{発話例f2}は後件となる発話群であり,\exsref{発話例f1}が後件の意味内容を明示している.さらに,\exsref{発話例g1},\exsref{発話例g2}も前件となる発話群であり,やはり\exsref{発話例g1}が前件の意味内容を明示しているととらえることが可能である.そして,これまでの議論から\obsref{基本距離}は次のように言い換えることが可能となる.\begin{screen}\begin{obs}\obslabel{距離a}因果関係の前件及び後件が談話中で明示される場合,次のいずれかの構造をとることが可能である.\begin{enumerate}\item前件及び後件がそれぞれ一つの発話で表わされ,それらが隣接する.\item前件あるいは後件のいずれかが一つの発話で,もう一方が発話群により表わされ,それらが隣接する.\item前件及び後件の双方が発話群により表わされ,それらが隣接する.\end{enumerate}なお,すべての場合において,前件及び後件に関係する話し手についての制限はなく,前件と後件が同一話者による場合も異なる話者による場合も存在する.\end{obs}\end{screen}一方,($\gamma$)で述べたように,直接的に組となる発話は存在しないものの,発話の含意あるいは前提から因果関係の前件と後件との関係が間接的に認識可能な場合がある.例えば,\exsref{発話例l}では,\exsref{発話例l1}の発話により「Bが飲んでいない」あるいは「Bが飲むことをストップしている」などという前提が導かれ,これを後件として\exsref{発話例l2}が因果関係の前件を述べていると解釈可能である.\eenumsentence{\exslabel{発話例l}\itemA→B今日はもう飲まないの\ua\exslabel{発話例l1}\itemB→Aだってもう眠いし\da\exslabel{発話例l2}}これは,質問に対する返答となるという点では\exsref{発話例f}の場合と類似しているが,\exsref{発話例f}では\exsref{発話例f1}として因果関係の後件の意味内容が明示されているのに対し,\exsref{発話例l}では\exsref{発話例l2}の後件の意味内容が明示されていない点で異なるものであり,これらは区別して扱う必要があると考えられる.なお,この例では「質問--応答」という形式から,前件と後件との関係を認識するための間接的な手がかりとなる発話を比較的容易に認識可能であるが,例えば「周囲の人がお酒を探している」など平叙文により述べられている発話状況に対して「ここにお酒がたくさんあるから.」という発話がなされる場合も考えられる.この場合は,発話状況や文脈などから因果関係が存在するかどうかを推測する必要がある.以上のように,接続詞あるいは接続助詞類が談話中で用いられ,それによる因果関係の前件及び後件が発話中に明示されている場合は,\obsref{接続助詞}〜\obsref{距離a}に述べた事柄が観察されると考えられる.これについては,次章で実際にコーパスを用いて検証を行なう.一方,接続詞あるいは接続助詞を含む発話に対し,それと対応する前件あるいは後件を発話の含意あるいは前提をもとに推測する必要がある場合も存在する.この現象は本技術資料での観察の対象外であり,次章での検証でもその主な対象から省くこととする.
\section{コーパスによる検証}
ここでは,前章での議論をふまえ,実際の会話中に現れる発話の組について\figref{コーパス例}に例を示したコーパスを用いて調べる.このコーパスは1980発話からなり,因果関係を表す接続詞として「だから/だって」,接続助詞類として「ので/から/のだから/のだもの」が用いられている発話が121発話存在する.これから,「頼むから,もう撮るのを止めて下さい」など通常の複文が発話されている16例を除いた105例のうち,因果関係の前件及び後件の双方が談話中に明示されていると認められる例が61発話存在する.これを次のように分類する.\begin{itemize}\item\obsref{接続助詞},\obsref{接続詞}より,前件,後件の位置関係には次のような場合が考えられる.\begin{center}\begin{tabular}{rlcrl}(a1)&前件.だから---後件.&&(b1)&前件---接続助詞.後件.\\(a2)&後件.だって---前件.&&(b2)&後件.前件---接続助詞.\\(a3)&だって---前件.後件.&&&\end{tabular}\end{center}\item\obsref{距離a}より,前件と後件の間の距離およびそれぞれの話し手には次のような場合が考えられる.\begin{itemize}\item[(A)]前件および後件がそれぞれ隣接する一つの発話で表され,双方の話し手が同一人物である.\item[(B)]前件および後件がそれぞれ隣接する一つの発話で表され,双方の話し手は異なる人物である.\item[(C)]前件もしくは後件のいずれかが発話群である.\end{itemize}さらに,上記の(C)を次のように分類する.\begin{itemize}\item[(C--$\alpha$)]前件あるいは後件のいずれかが複数の発話からなる場合.\item[(C--$\beta$)]前件と後件それぞれを表す発話の間に,質問あるいは同意を示す発話が存在する場合.\end{itemize}\end{itemize}分類の結果を\tableref{分類結果}に示す\footnote{\obsref{距離a}より「前件および後件の双方が発話群である」という場合も考えられるが,今回用いたコーパス中ではそのような例は認められなかったため,ここでは省略した.}.\begin{table}[htbp]\caption{因果関係が認められる発話の分類}\tablelabel{分類結果}\begin{center}\begin{tabular}{|c|r|r|r|r|r||r|}\hline&(a1)&(a2)&(a3)&(b1)&(b2)&計\\\hline(A)&2&6&1&4&20&33\\\hline(B)&2&4&0&0&6&12\\\hline(C-$\alpha$)&1&2&0&1&4&8\\\hline(C-$\beta$)&3&3&0&0&2&8\\\hline\hline計&8&15&1&5&32&61\\\hline\end{tabular}\end{center}\end{table}この結果から,次のようなことがいえる.まず,前件と後件の位置関係に関する\obsref{接続助詞},\obsref{接続詞}について分類した結果からであるが,最も例が多いのは(b2)の32例であり,続いて(a2)の15例となっている.因果関係を表す複文では,後件は主節によって述べられ,こちらに重点を置くため主節と従属節を倒置する,という現象が見られるが,これが(b2)に相当するものと考えられる.一方,接続詞による因果関係では,前件と後件の間に接続詞が位置するような(a1)および(a2)が一般的であるといえる.これに対して,接続詞が前件と後件の間に明示されず,前件→後件の順序のみを満たす場合である(a3)は1例しか存在しない.これを\exsref{実例1}に示すが,\obsref{接続詞}で述べたように,因果関係は\exsref{実例1c}の「「ちきしょう,ばれたか」って出てきて,『は\ua』って」という部分での接続表現によって主に述べられているものと考えられる.\eenumsentence{\exslabel{実例1}\itemB→Eあ,テッチャンその場にいたのか\da\itemB→Eなんだ\da\itemE→Gだって,誰も気づいていないのに,いきなり平賀電信柱の陰から「ちきしょう,ばれたか」って出てきて,「は\ua」って\da\exslabel{実例1c}\itemE→Gすっげー面白かった\da}次に,前件と後件の隣接性に関する,\obsref{距離a}についての分類では,(A)は33例,(B)は12例,(C)は16例となっている.これから,「2つの発話が隣接し,かつ同一の話し手による発話である」という,人間による因果関係の認識を促す要素が重なっている場合が最も数が多い,という結果となる.また,61発話のうち,因果関係が認められるものの,その前件と後件の位置関係が隣接関係に収まらない例は全て(C--$\alpha$)もしくは(C--$\beta$)として分類可能であったことから,\defref{発話群}で述べた発話群を考慮した場合,前件と後件が発話もしくは発話群として明示されるような因果関係の場合は,それらは隣接関係にあるということが実際のコーパスからもいえる.ところで,上記の分類の対象から除外した44発話は,おおまかに次のような場合に分類される.\begin{enumerate}\item発話の含意もしくは前提などによって,因果関係が推定可能であると考えられる場合.…18例.\item因果関係の推定(認識)が不可能な場合.…26例.\end{enumerate}前者の一例を次に示す.\eenumsentence{\exslabel{実例3}\itemJ→B柿だけ食べてるの\ua\exslabel{実例3a}\itemB→Jいや,向こう豆ばっかあるからさ\da\exslabel{実例3b}}これは,\exsref{発話例l}と同じように,\exsref{実例3a}から「柿だけ食べている」という前提が導かれ,それに対する前件(理由)として\exsref{実例3b}が述べられているというように因果関係が推定可能である.なお,後者に属する例のうち,\obsref{例外}が確認される例が4例存在した.その一例を\exsref{実例2}に示す.\eenumsentence{\exslabel{実例2}\itemF→A肝試しとか騒いじゃいけないって意味じゃないんですか\ua\itemA→Fそうそうそう\da\itemM→Aはい\ua\exslabel{実例2c}\itemA→Mだから,肝試しとかうるさくするなってことだと思う\da\exslabel{実例2d}}今回用いたコーパス中では,質問を示す発話に「だから」を含む発話が隣接した場合は,すべて\obsref{例外}が確認されるような場合であった.以上の結果は,\tableref{最終結果}としてまとめることができる.この表から,今回用いたコーパスにおいて,接続詞もしくは接続表現が含まれる発話すべてを対象とした場合,\obsref{接続助詞},\obsref{接続詞}および\obsref{距離a}で述べた事柄は全体の50.4\%をカバーしており,人間により因果関係が認識される95例に限ればその64.2\%に対して有効な内容であることがわかる.\begin{table}[htbp]\caption{コーパス中の発話例の分類}\tablelabel{最終結果}\begin{center}\begin{tabular}{|c|c|r|}\hline&通常の複文&16例(13.2\%)\\\cline{2-3}&\obsref{接続助詞},\obsref{接続詞}および\obsref{距離a}が&\lw{61例(50.4\%)}\\%因果関係が認められる場合&認められる場合&\\\cline{2-3}&発話の含意や前提により&\lw{18例(14.9\%)}\\%&類推可能な場合&\\\hline\multicolumn{2}{|c|}{因果関係の認識が困難}&\lw{26例(21.5\%)}\\%\multicolumn{2}{|c|}{あるいは不可能な場合}&\\\hline\hline\multicolumn{2}{|c|}{計}&121例(100.0\%)\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本技術資料では,接続詞や接続助詞類によって前件と後件が関係づけられるような因果関係を対象とし,談話中で前件と後件が明示される場合にはどのような現象が観察されるのか,について検討を行ない,その結果を\obsref{接続助詞}〜\obsref{距離a}として述べた.特に\obsref{距離a}では,\defref{発話群}で示した「発話群」を導入することにより,因果関係の基本的構造が隣接関係として説明可能であることを示した.次に,実際の会話コーパスを用いて上記の考察を検討し,コーパス中で対象となる発話全体(121例)の50.4\%,人間により因果関係が認識可能な場合(95例)に限ると64.2\%の割合の発話例に対して\obsref{接続助詞}〜\obsref{距離a}で述べた事柄が確認されることを検証した.なお,この検証作業は手作業によるものだが,最終的にはこれを機械的に行なえるシステム,つまり談話理解システムの構築に対して本技術資料で述べた考察を適用することが考えられる.現段階では,\tableref{最終結果}のうち「通常の複文」の場合および「\obsref{接続助詞},\obsref{接続詞},\obsref{距離a}が認められる場合」については形態素解析の結果など発話の表層的な情報から因果関係の認識が可能であり,121発話に対して6割弱の場合については本技術資料での考察結果をもとにした談話構造の解析が可能と考えられる.ただし,発話の含意や前提を利用して因果関係を推定する必要がある場合や,人間による因果関係の認識自体が困難あるいは不可能な場合が存在し,これらを発話の表層情報から特定することは非常に困難であると考えられ,総合的な談話理解システムの構築に際してはこの点の検討が課題となると考えられる.\section*{謝辞}本研究は,文部省科学研究費重点領域研究「音声対話」の補助を受けていることを記し,御協力いただいた関係各位に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{j-paper}\begin{biography}\biotitle{略歴}\bioauthor{西澤信一郎}{1969年生まれ.1992年横浜国立大学工学部卒業.1997年同大学大学院工学研究科博士課程修了.工学博士.現在,富士通株式会社に勤務.情報処理学会および言語処理学会の会員.}\bioauthor{中川裕志}{1953年生まれ.1975年東京大学工学部卒業.1980年同大学院博士課程修了.工学博士.1980年より横浜国立大学工学部勤務.現在,同教授.日本語の意味論,語用論,電子化マニュアル検索システム,マルチメディア検索,情報検索,自動ハイパーテキスト化などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N05-06
|
\section{はじめに}
我々はこれまで,多様なテキストを要約することのできる頑健な自動要約システムの開発をめざして,重要文抽出を基にした要約システムを作成・拡張してきた.その過程で,作成したシステムを用いて日本語・英語双方において新聞記事などの書き言葉を対象にした要約評価ワークショップに参加し,良好な評価結果を得た\cite{nobata:tsc2001,sekine:duc2001}.また,日本語の講演録を対象として重要文抽出データを人手によって作成し,そのデータに対して要約システムの実験・評価を行った\cite{nobata:orc2002}.日本語と英語など異なる言語や,書き言葉と話し言葉など異なる性質をもつテキストを要約するためには,どのような点が共通化できてどのような点を個別に対応する必要があるのかを,実際に要約データにあたって要約手法を適用し,その結果を検討する必要がある.本論文の目的は,これまで行ってきた日本語と英語,また書き言葉と話し言葉のデータそれぞれについて,共通の素性を用いた重要文抽出の結果について示すことと,それらのデータ間での各素性の分布がどのように共通しているか,異なるかを示すことである.我々のシステムは,重要文抽出をベースにして自動要約を行っている.これは,文章全体を1〜2割程度縮める要約ではなく文章を大きく縮めて要約するためには,重要文抽出もしくはそれに類する手法を用いることが必要であると考えたためである.重要文抽出は自動要約に用いられる主要な手法の一つである\cite{mani:aats,okumura:nlp1999-07}.文章から重要文を抽出するためには,各文がどの程度重要であるかを示す素性を用意する必要がある.文の位置情報,たとえば文章の先頭にあるものほど重要だとみなす手法は,単純ではあるが現在でも自動要約の主要な手法である.他にも記事中の単語の頻度などの統計的な情報や,文書構造を示す表現などの手がかりなどが用いられている.これらの素性を統合的に用いる手法も研究されており,例えば\cite{edmundson:acm1969}は人手で重み付けの値を与えることによって,\cite{watanabe:coling1996}は回帰分析,\cite{kupiec:sigir1995-s}や\cite{aone:colingacl1998}はベイズの規則,また\cite{nomoto:ipsj1997},\cite{lin:cikm1999}らは決定木学習を用いて複数の情報を統合している.本論文では,これらの論文で示されているように素性を統合的に用いた要約システムの評価結果を示すだけでなく,自動要約に用いられる主な素性の振舞い・素性の組合せによる重要文の分布の違いなどを,性質の異なる3種類の要約データにおいて比較・分析した点に特徴がある.以下では,\ref{section:data}章において各要約データについて説明し,\ref{section:system}章において重要文抽出システムの概要を述べ,\ref{section:evaluation}章において各要約データにシステムを適用した結果の評価を示す.さらに,\ref{section:analysis}章においてシステムが用いた素性の各データにおける分布について考察する.
\section{要約データ}
\label{section:data}本研究で用いた要約データは,日本語新聞記事・英語新聞記事・日本語講演録の3種類のテキストデータを対象として作成されたものである.日本語新聞記事の要約データ,英語新聞記事の要約データは,ともに評価コンテストのために作成された公式のデータである.この2種類のデータを対象とすることで,異なる言語に対して用いることのできる要約システムを構築することを意図している.日本語講演録の要約データは,講演音声についての大規模なコーパスを構築するプロジェクトの中で作成された,学会講演の書き起しデータに対して作成されたものである.このようなデータを対象とすることによって,書き言葉と話し言葉それぞれに対応できる要約システムを構築することを意図している.以下,本研究で用いた3種類の要約データそれぞれについて説明する.\subsection{日本語新聞記事の要約データ}\label{section:data_tsc}TSC(TextSummarizationChallenge)は,自動要約の研究の発展を目的として2001年に開始された自動要約の評価プロジェクトであり,国立情報学研究所によって主催されている評価ワークショップNTCIRのタスクの一つである\cite{TSC1}.TSCは,複数の要約課題を提示して参加者を募り,参加者が作成した個々の自動要約システムを同一のデータに基づいて評価を行い,また自動要約の評価基準自体についての議論,さらに研究者間で共有できる要約データの作成・公開を行ってきている.第1回にあたるTSC2001では,日本語の新聞記事を対象として,A1:重要文抽出型要約,A2:人間の自由作成要約と比較可能な要約,B:IRタスク用要約の3種類の課題が提示された.本論文ではこのうち課題A1で用いられた重要文データを実験に用いた.予備試験,本試験データはそれぞれ30記事あり,ともに社説15記事と報道記事15記事で構成されている.この課題では,予備試験,本試験ともに3種類の要約率(10\,\%,30\,\%,50\,\%)に応じて重要文抽出を行うことが課された.本論文では,TSCで用いられた要約データを「TSCデータ」と呼ぶ.TSCデータは課題で用いられた新聞記事と,要約率ごとに作成されたそれらの記事の要約とから成る.TSCデータは日本語書き言葉要約データの例として\ref{section:evaluation}章に示す評価結果,\ref{section:analysis}章に示す分析で用いられる.\subsection{英語新聞記事の要約データ}\label{section:data_duc}DocumentUnderstandingConference(DUC)は,米国DARPAの支援の下にNationalInstituteofStandardsandTechnology(NIST)によって実施されている,自動要約の評価プロジェクトである\cite{DUC:2001}.DUCは日本におけるTSCと同様に,同一のデータに基づく複数の要約システムの評価,要約データの作成・公開を行うことで自動要約の研究の発展を図って行われているプロジェクトであり,2000年に最初のワークショップが行われた後,2001年から本格的に要約課題の提示,自動要約システムの評価が開始され,その結果に対する議論を経て課題内容や評価基準の改良が施されてきている.DUC2001では,英語新聞記事を対象として単一文書の要約・複数文書の要約の2種類の課題が出された.対象とするデータは両課題において共通であり,トレーニングデータとして30記事セット,テストデータとして新たに30記事セットが主催者から配布された.各記事セットには約10記事ずつ含まれており,それらの記事はAP通信やFinancialTimes,LosAngelsTimes,WallStreatJounalなどの新聞から取られている.各記事セットは,例えば「最高裁判事に任命されたトーマス氏についての記事」「ピナツボ火山の噴火についての記事」などの主題ごとに集められた記事から成っている.DUCでは,要約率ではなく語数によって作成する要約の長さが制限された.単一文書の要約では,各記事を100語以内に要約して出力することが課された.複数文書の要約では,各記事セットごとに50語,100語,200語,400語の4種類の要約が課された.DUC2001で用いられたデータのうち,本論文で示す実験では単一文書要約課題のデータを用いた.ただし主催者側から与えられた正解データは,文抽出(extract)データではなく人間が作成した要約(abstract)データであったので,我々はこのabstractデータをもとに記事セット中の対応する文を抜き出し,重要文抽出の正解データを作成した.本論文では,DUCで用いられた要約データを「DUCデータ」と呼ぶ.DUCデータは英語書き言葉要約データの例として\ref{section:evaluation}章に示す評価結果,\ref{section:analysis}章に示す分析で用いられる.\subsection{日本語話し言葉の要約データ}\label{section:data_csj}話し言葉の要約データとして本研究の実験に用いたコーパスは,国立国語研究所,東京工業大学,通信総合研究所の3団体が共同で構築作業をすすめているCSJコーパス(CorpusofSpontaneousJapanese)\cite{furui:asj2000}から得たものである.CSJコーパスは,学会講演などのモノローグを中心に収集・構築されているコーパスである.本論文では,このCSJコーパスのうち,1999年日本音響学会秋季研究発表会(AS99)の講演から35講演,2000年言語処理学会年次大会(NL00)の講演から25講演の計60講演を取り出して用いた.重要文抽出の実験では,60講演のうち50講演(AS99から30講演,NL00から20講演)をトレーニングデータとし,10講演(AS99から5講演,NL00から5講演)をテストデータとして用いた.重要文抽出を適用するには文境界が与えられている必要があるが,講演の書き起しデータは話し言葉の特性上,書き言葉のようには文の境界が予め与えられていない.このため,三人の被験者(論文の著者は含まない)が全60講演について文境界の検出と重要文抽出のデータ作成をともに行った.文境界においては,さらに各被験者の結果を言語学の専門家が統合して単一の文境界データを作成した.文境界データにおける各講演の平均文数は68.7文であった.一方重要文抽出においては,各被験者における重要文の判断の揺れが大きく,正解データを統一することは困難であったので,\ref{section:evaluation}章で示す評価結果では被験者の抽出結果を個々に正解とみなして評価している.なお,重要文抽出の要約率は10\,\%に設定した.本来のCSJコーパスはここで用いたものよりも大規模なコーパスであるが,本論文ではCSJコーパスを用いて作成された要約データを「CSJデータ」と呼ぶ.CSJデータは,日本語話し言葉要約データの例として\ref{section:evaluation}章に示す評価結果,\ref{section:analysis}章に示す分析で用いられる.
\section{重要文抽出手法の概要}
\label{section:system}自動要約では,文章中で重要な文を選択するために有効と思われる素性を考案し,それを用いた評価尺度を関数の形で表現し,その評価値の高い文を抽出するという重要文抽出の手法が主に用いられており,本システムでもこの手法を採用している.本章ではこの重要文抽出で用いた評価尺度について説明し,次にしきい値・重み付けなどその他の部分について説明する.TSC,CSJ,DUC各データに特化した部分については,個々に特化した項目を明記する.それ以外で特に対象データについて限定していない記述は,各データに対して共通して用いられた部分である.\subsection{評価尺度}本システムでは,個々の素性についてそれを基にした評価尺度を与える関数を予め定義している.それぞれの情報に対しては,複数の関数を用意しているものがある.それらの関数の選択も,各評価尺度に対する重みと同様,トレーニングデータを用いて行なう.使用した評価尺度は,文の位置情報・文の長さ・単語のtf*idf値・記事の見出し,そして言語的パタンである.各関数の出力したスコアに重みを掛け合せたものの和が,各文の重要度となる.\subsubsection{文の位置}本システムでは,文の位置情報に基づく関数を3種類用意した.重要文を抽出する際には,この三つのうちの一つが用いられる.1つ目の関数は,出力すべき文が\(N\)文であると指定されたときに,記事の先頭から\(N\)文目までにスコア1をつけ,それ以外は0とするものである:\begin{eqnarray*}\mbox{P1.}Score_{\mbox{pst}}(S_i)(1\lei\len)&=&1\quad(i<N\quadのとき)\\[-1mm]&=&0\quad(\mbox{それ以外})\end{eqnarray*}ここで\(n\)は記事中の文の数を示す.この関数は,最初の\(N\)文を要約結果とする単純な重要文選択の方法が好成績を納めてきているという事実に基いたものである.2つ目の関数は文の位置の逆数を与えるものである.つまり\(i\)番目の文に対するスコアは,\begin{eqnarray*}\mbox{P2.}Score_{\mbox{pst}}(S_i)&=&\frac{1}{i}\end{eqnarray*}となる.この2つ目の関数は先頭に近い程重要であるという点では1つ目の関数と同じであるが,他の評価尺度と組み合わせた際に両者の差が出てくることを意図して定義されたものである.3つ目の関数は,2つ目の関数に手を加え,先頭からの文の位置と末尾からの文の位置を共に用いるものである.つまり,全文数が\(n\)である記事において,\(i\)番目の文に対するスコアは以下のようになる.\begin{eqnarray*}\mbox{P3.}Score_{\mbox{pst}}(S_i)&=&\max(\frac{1}{i},\frac{1}{n-i+1})\end{eqnarray*}この関数は,先頭か末尾に近い文ほど重要であるという仮定を表現したものである.\subsubsection{文の長さ}各文の長さに基づく評価尺度については,以下の3種類の関数を用意した.1つ目の関数は,文の長さをそのままスコアとして与えるものである:\begin{eqnarray*}\mbox{L1.}Score_{\mbox{len}}(S_i)&=&L_i\end{eqnarray*}これは,「長い文ほど重要である」という仮定を表現したものである.2つ目の関数は,長さ\(L_i\)が一定の値\(C\)より短い文にはペナルティとして負の値を与えるものである:\begin{eqnarray*}\mbox{L2.}Score_{\mbox{len}}(S_i)&=&0\quad(L_i\geC\quadのとき)\\[-1mm]&=&L_i-C\quad(\mbox{それ以外})\nonumber\end{eqnarray*}このペナルティは,極端に短い文は重要文として選択されることが非常に稀であるという観測事実に基いている.3つ目の関数は,1つ目と2つ目の関数を組み合わせたもので,各文の長さをスコアとして与えるが,一定値\(C\)より短ければペナルティとして負の値を与えるものである:\begin{eqnarray*}\mbox{L3.}Score_{\mbox{len}}(S_i)&=&L_i\quad(L_i\geC\quadのとき)\\[-1mm]&=&L_i-C\quad(\mbox{それ以外})\nonumber\end{eqnarray*}この関数は先に挙げた両者の関数の長所を組み合わせることを意図している.TSCデータ・CSJデータにおける評価の際には,文の長さを文字数で表し,トレーニングデータを用いた実験の結果から一定値\(C\)を20(文字)とした.DUCデータにおける評価の際には,文の長さを単語数で表し,同様にトレーニングデータを用いた実験の結果から一定値\(C\)を10(単語)とした.\subsubsection{tf*idf値}\label{section:system_tfidf}この評価尺度は,各文中の単語についてtf*idf値を計算し文のスコア付けを行うものである.tf*idf値は,各記事中の単語\(w\)の頻度{\ittf}\((w)\)と,その単語がある記事群の中で現れた記事の数,すなわち記事頻度{\itdf}\((w)\)とを組み合わせて計算される値で,記事中のある単語がどの程度その記事特有の単語であるかを示す.記事数{\itDN}個の記事群が与えられたとき,最も単純なtf*idf値の計算式は以下のようになる:\begin{eqnarray*}\mbox{T1.}\mbox{tf*idf}(w)&=&\mbox{\ittf(w)}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}\\\end{eqnarray*}右辺第二項は特にinversedocumentfrequency(idf)と呼ばれる値である.tf*idf値は,与えられた検索要求に関連する記事をデータベースから検索する情報検索の分野において,記事の特徴を示すための指標として用いられるものであり,検索の精度を向上させるためにいくつか異なるtf*idf値の計算手法が提案されている.その一つは以下のようなものである:\begin{eqnarray*}\mbox{T2.}\mbox{tf*idf}(w)&=&\frac{\mbox{{\ittf(w)}}-1}{\mbox{\ittf(w)}}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}\\\end{eqnarray*}また,特に情報検索の分野において効果を挙げている\cite{2poisson}の定義に基づく式は以下のものである:\begin{eqnarray*}\mbox{T3.}\mbox{tf*idf}(w)&=&\frac{\mbox{\ittf}(w)}{1+\mbox{\ittf(w)}}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}\end{eqnarray*}tf*idf値を重要文抽出に用いる意図は,「その記事に特有な単語をより多く含む文は,その記事においてより重要である」という仮定を表現することである.各文のスコアは,文中の各単語に対するtf*idf値の和によって与えられる:\begin{eqnarray*}\mbox{\itScore}_{\mbox{tf*idf}}(S_i)&=&\sum_{w\inS_i}\mbox{tf*idf}(w)\end{eqnarray*}なお\ref{section:analysis}章で示す結果では,tf*idf値を用いた文のスコアから文の長さによる影響を避けるため,以下の式のようにtf*idf値の和を文の長さ\(\vertS_i\vert\)で割って正規化した値を文のスコアとしている:\begin{eqnarray*}\mbox{\itScore}_{\mbox{tf*idf}}(S_i)&=&\frac{1}{\vertS_i\vert}\sum_{w\inS_i}\mbox{tf*idf}(w)\end{eqnarray*}TSCデータ,CSJデータに対しては単語の切り分けにJUMANver.3.61\cite{juman361}を用い,tf*idf値を与える単語を時相名詞や副詞的名詞を除いた名詞に限定した.記事頻度を求めるための記事群には,1994年と1995年の毎日新聞の記事を用いた.DUCデータに対しては,品詞による単語の選別は行わず,ストップワードのリストを作成し,そのリストに含まれない単語についてtf*idf値を求めた.記事頻度を求めるための記事群としては,1994年と1995年のWallStreetJournalの記事を用いた.TSCデータ,CSJデータにおいては,各単語のtf*idf値を求める際に関数T3を用いた.DUCデータにおいては,T1〜T3の3つの関数のうち一つをトレーニングデータを用いて選択するようにした結果,T1が選択された.\subsubsection{見出し}この評価尺度は,対象記事の見出しに含まれる単語に対するtf*idf値を用いて文のスコア付けを行うものである.これは「見出しと類似している文は重要である」という仮定に基いている.類似度を求める際に対象とする単語は,前節のtf*idf値を用いた関数と同様に,日本語であるTSCデータ,CSJデータでは時相名詞や副詞的名詞を除いた名詞,英語であるDUCデータではストップワードのリストに含まれない単語である.文(\(S_i\))中の対象単語について,その名詞が見出し(\(H\))に含まれていれば,そのtf*idf値を文のスコアに加算する.文のスコアを与える式を以下に示す:\begin{eqnarray*}\mbox{H1.}\mbox{\itScore}_{\mbox{hl}}(S_i)=\frac{\displaystyle{\sum_{w\inH\capS_i}}\mbox{tf*idf}(w)}{\displaystyle{\sum_{w\inH}}\mbox{tf*idf}(w)}\end{eqnarray*}CSJデータにおいては,講演録そのものには見出しは存在しないが,それに対応する予稿から見出しを取り出して用いた.TSCデータ,DUCデータについては,さらに名詞の代わりに固有表現(NamedEntity:NE)を用いて見出しとの類似度を計算する関数も定義した.TSCデータに対する日本語の固有表現抽出には,最大エントロピー法を用いたシステムを使用した\cite{uchimoto:acl2000}.抽出する日本語固有表現の定義はIREXワークショップ\cite{IREX}で用いられたものに拠っている.DUCデータに対する英語の固有表現抽出には,パターンベースの固有表現抽出システムを用いた.このシステムは,拡張された固有表現の定義150クラスを抽出の対象とするものである\cite{sekine:lrec2002}.固有表現を用いる際には,簡便性のため,tf*idf値ではなく頻度のみを用いた.すなわち,各記事中の固有表現\(e\)に対する頻度\(\mbox{\ittf}(e)\)を用いれば,関数の式は以下のように示される:\begin{eqnarray*}\mbox{TF}(e)&=&\frac{\mbox{\ittf}(e)}{1+\mbox{\ittf}(e)}\\[1mm]\mbox{H2.}\mbox{\itScore}_{\mbox{hl\_{\scne}}}(S_i)&=&\frac{\displaystyle{\sum_{e\inH\capS_i}}\mbox{TF}(e)}{\displaystyle{\sum_{e\inH}}\mbox{TF}(e)}\end{eqnarray*}\subsubsection{言語的パタン}DUCデータに対しては,言語的パタンの獲得方法とそれを用いた評価尺度を導入した.ここで用いているパタンの獲得手法は,日本語情報抽出において提案された手法に基づいている\cite{sudo:hlt2001}.この手法は,例えば地震の発生を報道する記事には「○月×日x時y分ごろ,△□で地震があった」といった表現がよく現われるように,「分野(domain)を特定したときに,記事によく現れる表現はその分野において重要だ」という仮定に基づいてパタンを自動的に獲得するものである.DUC2001においては,約10記事ずつを1セットとして30記事セットのデータが配布されたので,この各記事セットを情報抽出における一つの分野とみなし,各セットごとにパタンの自動獲得を行った.パタンの獲得方法は以下の過程に従って行われる:\begin{enumerate}\item文の解析:\\与えられた記事セット中の記事全文について品詞・固有表現のタグづけ,係り受け解析を行う.\item部分木の抽出:\\係り受け木中の部分木を全て取り出す.\item固有表現による抽象化:\\部分木中に固有表現があった場合には,その固有表現を対応するクラスに置き換えたものと,元の表現のままの二通りの部分木をパタンとして用意する.複数の固有表現がある場合は,各置換操作の組み合わせだけ部分木を生成する.\item部分木のスコア付け:\\木全体の頻度と,部分木中の各単語の記事頻度から部分木のスコアを求める.このスコアの定義は,その記事セットに特有な部分木を取り出すという意図に基づいており,スコアが高い部分木ほど重要なパタンであると仮定することになる.\end{enumerate}パタンは重要文抽出を行う前に取り出され,スコアとともにシステムに格納される.実際に重要文抽出を行うときには,システムは各文\(S_i\)について品詞・固有表現のタグづけや係り受け解析を行って係り受け木を作成し,次いで格納されたパタンとの比較を行う.パタン\(P_j\)のスコアと文\(S_i\)の評価尺度をそれぞれ式に表わすと以下のようになる:\begin{eqnarray*}\mbox{\ita\_idf}_j&=&\displaystyle{\frac{1}{\vertP_j\vert}\sum_{w\inP_j}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}}\\\mbox{\itPatScore}(S_i)&=&\displaystyle{\sum_{j}F_{P_{j}}\mbox{\ita\_idf}_j}\mbox{(}P_j\mbox{が}S_i\mbox{の一部に一致)}\\&=&0\mbox{(それ以外)}\\\mbox{\itScore}_{\mbox{pat}}(S_i)&=&\log(\mbox{\itPatScore}(S_i)+1)\end{eqnarray*}ここで,\(F_{P_{j}}\)はパタン\(P_{j}\)の記事セット中の頻度,\(\vertP_j\vert\)は\(P_{j}\)中の単語数を示す.{\itDN}は予め与えられた記事群中の記事数,{\itdf}\((w)\)はその記事群の中で単語\(w\)が現れる記事の数である.すなわち,\(a\_idf\)は,パタン\(P_{j}\)中の単語の平均idf値であり,これとパタンの頻度\(F_{P_{j}}\)を用いて\ref{section:system_tfidf}節で述べたtf*idf値のような値を各パタンに与えることが,パタンのスコアを表す式の意図するところである.あるパタン\(P_j\)が文\(S_i\)の係り受け木の一部と一致した場合には,そのパタンのスコアが文の評価尺度として加算される.さらに各文について一致した全パタンのスコアを加算し,その値の対数をとったものを最終的な文の評価尺度\(\mbox{\itScore}_{\mbox{pat}}\)としている.\subsection{重み付け}本システムでは,各評価尺度の値({\itScore}\(_j()\))に重み(\(\alpha_j\))を掛け合わせたものの総和をとり,各文(\(S_i\))のスコアを与える:\begin{eqnarray}\label{eq:weight}\mbox{TotalScore}(S_i)=\sum_{j}\alpha_j\mbox{\itScore}_j(S_i)\end{eqnarray}この重み付けの最適値は,トレーニングデータを用いて求めた.具体的には,予め設定した値域内で,重みの値を変化させながらトレーニングデータに対する実験・評価を繰り返し,最も良い値を与える重みづけの値を求めた.複数の関数が定義されている評価尺度においては,その関数の選択も重み付けとともに行なわれた.TSCデータ,DUCデータにおいては,それぞれ予備試験のデータをトレーニングデータとして用いた.TSCデータにおいては,30の新聞記事を更に社説15記事とそれ以外の報道記事15記事とに分けてそれぞれについて最適な重み付けを求めた\footnotemark.\footnotetext{要約の対象となる各記事には,{\tt{}<SECTION>}社説{\tt{}</SECTION>}のようにセクションが明示されており,社説とその他の記事とを分類することは容易に行うことができた.}CSJデータでは,60講演のうち,テストデータとして残した10講演を除く50講演をトレーニングデータとして用いた.\ref{section:evaluation}章に示す実験結果では,各情報においてどの関数が選ばれたか,重みの程度がどのくらいだったかを報告する.\subsection{しきい値}本システムでは,重要文抽出を行う際に記事中の全文にスコア付けを行い,その結果を元にスコアの良い順に各文を順位付けする.これらの文のうち何文まで出力するかを決定するのに,本システムでは文数・文字数(単語数)・スコアの3種類のしきい値を用いることができる.どのしきい値を用いても,出力される文の順番は元の記事のまま保たれる.文の数\(N\)がしきい値として与えられたならば,システムは順位付けされた文の上位\(N\)文までを重要文として抽出する.文字数または単語数が与えられたときには,システムはこれを文数のしきい値に変換する.スコアがしきい値として与えられたならば,システムはそのしきい値より大きい値をもつ文のみを出力する.TSCデータ,CSJデータについては,文の数\(N\)をしきい値として用いた.DUCデータについては,DUC2001において100語前後の要約を出力することが課題に指定されていたので,単語数をしきい値として用いた.
\section{各タスクの評価結果}
\label{section:evaluation}本章では,前章で述べた重要文抽出システムをTSC,DUC,CSJの3種類のデータそれぞれに適用した結果を示す.\subsection{TSCデータでの評価結果}TSC2001の重要文抽出課題においては,人手で作成された重要文抽出の正解データとシステムの出力した重要文抽出結果との間で,どのくらい抽出された重要文が一致するかの度合に基づいた評価が行われた.評価の指標としては,再現率・精度・F値の3種類\footnotemark{}が用いられた.\footnotetext{再現率・精度・F値の定義は以下のように与えられる:\begin{quote}再現率(REC)=COR/GLD\\精度(PRE)=COR/SYS\\F値=2*REC*PRE/(REC+PRE)\end{quote}ここで,CORはシステムが出力した文のうち正解である文の数,GLDは正解データに含まれる重要文の数,SYSはシステムが出力した全文数を示す.各記事についてこれらの値を計算したあと,全記事の平均をとったものが最終的な評価値となった.}表\ref{table:result_tsc}は,本システムの重要文抽出での評価結果を,二種類のベースラインシステムの結果とともに示したものである.ベースラインシステムのうち,Lead-basedは常に記事の先頭から指定された文数まで出力するものであり,TF-basedは各文ごとに記事中の語(名詞,動詞,形容詞,未定義語)のTF値の和を計算し,そのスコアの高い順に文を選択する手法である.このとき選択された文の順序は,元記事の順序のものを保つ.表内の数値はF値を示す.また,表内の本システムの評価値に添えた括弧内の数字は,参加した10システム中の本システムの順位である.本システムは,平均・各要約率の各評価においてベースラインシステムの結果を上回る成果を得た.また,参加システム中でも,全体で2位の評価であった.社説と報道記事とでは,文の位置情報を用いる評価尺度において,異なる関数が選択されており,この選択が重要文抽出の評価向上に意味があったと考えられる.このことをより明確に示すために,文の位置情報のみを用いたときの,記事の種類別に見た評価結果を表\ref{table:result_tsc_location}に示す.P1とP2は,文の位置情報を単独で用いたときには同じ値を返すので,ここでは一つにまとめた.表\ref{table:result_tsc_location}に示されるように,P1,P2は社説以外の報道記事でP3より高い結果を示し,P3は社説においてP1,P2より高い結果を示した.すなわち,社説においては記事の前の方と後の方の両方に重要文として選択されたものが多く,社説以外では前の方だけに重要文として選択されたものが多いということを示している.本システムにおける文の位置を用いた評価尺度では,用いる関数を対象記事の種類に応じて適切に使い分けることで,どれか一つの関数に固定した場合の評価結果を上回ることができている.\begin{table}[t]\caption{TSCデータにおける重要文抽出の評価結果}\begin{center}\label{table:result_tsc}\begin{tabular}{l|lll|l}\hline要約率&10\,\%&30\,\%&50\,\%&平均\\\hline本システム~(順位)&0.363(1)&0.435(5)&0.589(2)&0.463(2)\\ベースライン1:~Lead-based&0.284&0.432&0.586&0.434\\ベースライン2:~TF-based&0.276&0.367&0.530&0.391\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{TSCデータの記事の種類別に見た文の位置情報の評価結果}\begin{center}\label{table:result_tsc_location}\begin{tabular}{c|ccc|c}\hline\multicolumn{5}{l}{P1,P2}\\\hline要約率&10\,\%&30\,\%&50\,\%&平均\\\hline社説&0.158&0.256&0.474&0.293\\その他&0.394&0.478&0.586&0.486\\全体&0.276&0.367&0.530&0.391\\\hline\multicolumn{5}{l}{P3}\\\hline社説&0.323&0.360&0.557&0.413\\その他&0.356&0.436&0.544&0.445\\全体&0.339&0.398&0.550&0.429\\\hline\multicolumn{5}{l}{本システムでの文の位置を用いた評価尺度}\\\hline全体&0.359&0.419&0.572&0.450\\\hline\end{tabular}\end{center}\end{table}各評価尺度がどの程度結果に寄与しているかをみるために,表\ref{table:optimal_weight_tsc}に各評価尺度の標準偏差とそれに対する重みを掛け合わせたものを示した.標準偏差が大きいほど各文に対する評価尺度の変化の度合が大きくなり,また各評価尺度の値には与えられた重みが掛け合わされて用いられるので,表に示した値によって各評価尺度が最終的な文のスコアにどの程度大きな影響を及ぼすかが分かる.表中の値は,各評価尺度の寄与する度合を正規化したものを示している.すなわち,各評価尺度についての値を要素とするベクトルについて,そのノルムが1になるように値を変換している.表\ref{table:optimal_weight_tsc}から,文の位置に基づく評価尺度はどの区分においても寄与している評価尺度であり,特に社説においてその値が大きいことが分かる.それ以外の評価尺度は,対象とする記事の分野や要約率によってその寄与する度合が大きく変化している.しかし,\ref{section:analysis}章で示す分析からは,文の位置を除く評価尺度間の相関が有意に存在することから,文の位置とそれ以外の評価尺度のどれかを使うということがより重要であって,文の位置以外のどの評価尺度を使うかによる差は,それほど重要でなかったと考えられる.\begin{table}[t]\small\caption{TSCデータにおける各評価尺度の重み×標準偏差,及び選択された関数の種類}\label{table:optimal_weight_tsc}\begin{center}\begin{tabular}{l|l|lr|lr|lr}\hline&&\multicolumn{6}{|c}{要約率}\\\cline{3-8}対象記事&評価尺度&\multicolumn{2}{|c|}{10\,\%}&\multicolumn{2}{|c|}{30\,\%}&\multicolumn{2}{|c}{50\,\%}\\\hline社説&文の位置&P3&0.811&P3&0.533&P3&0.788\\&文長&L2&0.000&L2&0.000&L2&0.000\\&tf*idf&T3&0.306&T3&0.503&T3&0.298\\&見出し(単語)&&0.311&&0.681&&0.504\\&見出し(NE)&&0.389&&0.000&&0.189\\[2mm]\hline報道&文の位置&P1&0.501&P1&0.464&P1&0.278\\&文長&L2&0.000&L2&0.870&L2&0.957\\&tf*idf&T3&0.365&T3&0.146&T3&0.080\\&見出し(単語)&&0.578&&0.058&&0.000\\&見出し(NE)&&0.531&&0.053&&0.029\\\hline\end{tabular}\end{center}\end{table}\subsection{DUCデータでの評価結果}表\ref{table:optimal_weight_duc}に,DUCデータにおける各評価尺度の標準偏差とそれに対する重みを掛け合わせたものを示す.TSCデータにおける値と同様に,これらの値は各評価尺度についての値を要素とするベクトルについて,そのノルムが1になるように値を変換している.結果から,最も文のスコアに対する影響が大きい評価尺度は文の位置であり,次いでtf*idf値であった.見出しや言語的パタンに基づく評価尺度は,それらに比較して結果に寄与する割合が小さかった.\begin{table}[t]\caption{DUCデータにおける各評価尺度の重み×標準偏差}\label{table:optimal_weight_duc}\begin{center}\begin{tabular}{l|l|r}\hline評価尺度&関数&重み×S.D.\\\hline文の位置&P1&0.943\\文の長さ&L2&0.027\\tf*idf&T1&0.327\\見出し&H2&0.061\\パタン&-&0.007\\\hline\end{tabular}\end{center}\end{table}DUC2001における要約結果の評価は主観評価によって行なわれた.すなわち,システムによって生成された要約と人間が作成した要約とを被験者が比較してその質を判定した.主観評価は,Grammaticality(文法性),Cohesion(結束性),Organization/coherence(一貫性)の3つの基準について行われ,10人の被験者が各基準について5段階(4が最も高く,0が最も低い)の評価を与えた.各被験者の評価結果の平均を表\ref{table:eval_result}に示す.全システムの結果は,参加した11システムとベースラインの結果の平均値である.ベースラインの要約は,各記事について先頭から100語ずつ出力したものである.本システムの結果は,どの評価基準においてもベースライン,全システムの平均を上回っている.また,システム全体での順位も,文法性では5位であったが,それ以外の評価では1位であり,全体でも1位であった.\begin{table}[t]\caption{DUCデータでの評価結果(主観評価:被験者の評価の平均)}\label{table:eval_result}\begin{center}\begin{tabular}{l|lll|l}\hline評価基準&文法性&結束性&一貫性&全体\\\hline本システム~(順位)&3.711~(5)&3.054~(1)&3.215~(1)&9.980~(1)\\ベースライン&3.236&2.926&3.081&9.243\\全参加者の平均&3.580&2.676&2.870&9.126\\\hline\end{tabular}\end{center}\end{table}\subsection{CSJデータでの評価結果}CSJデータにおける各評価尺度の標準偏差とそれに対する重みを掛け合わせたものを,表\ref{table:optimal_weight_csj}に示す.TSCデータにおける値と同様,これらの値は各評価尺度についての値を要素とするベクトルについて,そのノルムが1になるように値を変換している.結果から,最も文のスコアに対する影響が大きい評価尺度は文の長さであり,次いで文の位置,tf*idf値であった.CSJデータに対する要約の評価結果を表\ref{table:performance_csj}に示す.ここでは,文境界をパタンに基いたシステムによって自動的に検出した場合と,正しい文境界を予め与えた場合の双方について重要文抽出結果の評価を行った.また,\ref{section:data_csj}節で述べたように,3人の被験者がそれぞれ作成した重要文抽出の結果は判断の揺れが大きく,それらを統合して正解データを作成することは困難であったので,この表では,各被験者(それぞれA,B,Cとする)の重要文抽出結果を個々に正解とみなしてシステムの出力を評価した値と,それらの平均値とをともに示した.文境界を自動的に検出した場合の評価結果の平均は30\,\%を超えない.一方,正しい文境界を予め与えた場合の重要文抽出結果はF値で36.8\,\%という評価を得た.CSJデータについてはコンテストによる結果は存在しないため,同一データによる他のシステムとの評価結果の比較は行っていないが,TSC,CSJ両データに対する重要文抽出の結果を比較すると,10\,\%という小さい要約率においては文境界が正しく検出できれば,話し言葉に対する重要文抽出は新聞記事に対する重要文抽出に匹敵しうることを示しているといえる.\begin{table}[t]\caption{CSJデータにおける各評価尺度の重み×標準偏差}\label{table:optimal_weight_csj}\begin{center}\begin{tabular}{l|l|r}\hline評価尺度&関数&重み×S.D.\\\hline文の位置&P3&0.248\\文の長さ&L2&0.948\\tf*idf&T3&0.198\\見出し(単語)&-&0.028\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{CSJデータでの評価結果}\label{table:performance_csj}\begin{center}\begin{tabular}{l|llll}\hline文境界\被験者&A&B&C&平均\\\hline自動&0.352&0.297&0.250&0.300\\正解&0.411&0.359&0.334&0.368\\\hline\end{tabular}\end{center}\end{table}
\section{要約データの分析}
\label{section:analysis}\ref{section:evaluation}章では,複数の素性を用いた重要文抽出システムが,TSC,DUC,CSJの各データについて良好な結果を得たことを示した.しかしながら,評価結果だけでは,各データにおいて有効な素性に違いはあるのか,複数の素性を組み合わせて用いたことにどのような効果があったのかという点についてはっきり示されていない.そこで本章では,まず各素性についてその値の変化に対応する重要文の分布を図示し,どのような素性の用い方が効果的であるかを調べた.次に,有効な素性の組み合わせを調べるため,二つの素性間の相関と素性の組み合わせによる重要文の数・割合の分布を示した.\subsection{素性に対応する重要文の分布}本節では,重み付けの値を得たトレーニングデータにおいて重要と判断された文と素性との関連を調べ,素性を用いた評価尺度のうちどのようなものが有効であるかを考察する.具体的には,文の位置・文の長さ・tf*idf値・見出しの4種類の素性について,その評価尺度の値に対応する記事全体の文数・重要文の文数を調べた.文の位置・tf*idf値・見出しについてのグラフでは,各素性ごとにそれに基づく評価尺度の値の昇順に文を順位付けしてその順位を5\,\%または10\,\%ごとに区分し,各区分ごとに重要文の占める割合を示した.一方,文の長さについてのグラフでは,傾向をより見やすくするために,文の長さの値そのものに対して記事中の文数とそれに含まれる重要文の数とを示した.TSCデータにおいては,さらに記事の種類を社説と報道記事に分け,個々の要約率における正解要約(10\,\%,30\,\%,50\,\%)に含まれる重要文の割合をグラフによって示した.なおCSJデータについては,重要文の数・割合として3人の被験者による抽出結果の平均値を用いている.データ全体の文数・重要文の数を示すため,表\ref{table:training_num_of_sent}に各トレーニングデータの記事数と文数・重要文の数・要約率を掲げる.DUCデータにおいては,要約の制限は要約率ではなく語数(100語)であったため,全データにおける重要文の割合を要約率として示した.\begin{table}[t]\caption{各トレーニングデータの記事数と文数}\label{table:training_num_of_sent}\begin{center}\begin{tabular}{l|rrl}\hlineデータの種類&記事数&文数&重要文の数(要約率)\\\hlineTSCデータ:報道&15&257&34(10\,\%),86(30\,\%),118(50\,\%)\\TSCデータ:社説&15&459&51(10\,\%),143(30\,\%),225(50\,\%)\\DUCデータ&299&13988&3299(23.5\,\%)\\CSJデータ&50&3428&333.3(10\,\%:被験者間の平均)\\\hline\end{tabular}\end{center}\end{table}\clearpage\subsubsection{文の位置}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_position_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_position_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_position_train.eps,width=.47\columnwidth}&\epsfile{file=csj_ratio_position_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおける文の位置と重要文との関係}\label{figure:position_train}\end{figure*}各データ中の文の位置と重要文との関係を図\ref{figure:position_train}に示す.グラフ中の横軸は各記事中の文の位置であり,先頭を0,末尾を1として正規化した値を表している.TSC報道記事データ(Report)では,先頭に近いところに一番大きなピークがあり,「先頭の方ほど重要な文が多い」という仮定は当たっているようである.一方,社説データ(Editorial)では,先頭に重要な文がある割合は報道記事に比べて小さいが,末尾からの文の位置と文数の関係を見ると,末尾に近いところにも大きなピークがある.社説においては,先頭だけでなく末尾の部分にも被験者に選択された文が多かったということになる.DUCデータにおいては,末尾よりも先頭からの文の位置と重要文数の関係が比較的強く,DUCデータにおける文の位置と重要文との関係はTSC報道記事データに近い.一方CSJデータにおいては,先頭よりも末尾の方に被験者に選択された文がより多く,CSJデータにおける文の位置と重要文との関係はTSC社説データに近いことがグラフから分かる.CSJデータは学会講演から取られたものであるので,最後に発表をまとめる表現が重要文とされることが多いことがその要因として考えられる.\clearpage\subsubsection{文の長さ}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_total_length_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_total_length_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_total_length_train.eps,width=.47\columnwidth}&\epsfile{file=csj_total_length_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおける文の長さと文の数・重要文の数との関係}\label{figure:length_train}\end{figure*}文の長さと文の数・重要文の数との関係を図\ref{figure:length_train}に示す.TSCデータ,CSJデータでは文の長さを文字数で,DUCデータでは文の長さを単語数で示している.どのデータにおいても,短い文に対しては記事全体の文数に比べて重要文の文の割合が小さい.一定の長さ以下の文にペナルティを与える関数は重要でない文を除く上で有効であったといえる.また非常に長い文は,その数は少ないが重要文である割合が高く,一定の長さ以上の文を重要文とみなすような関数を用いることも考えられる.\clearpage\subsubsection{tf*idf値}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_tfidf1_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_tfidf1_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_tfidf1_train.eps,width=.47\columnwidth}&\epsfile{file=csj_ratio_tfidf1_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおけるtf*idf値を用いた評価尺度と重要文との関係}\label{figure:tfidf_train}\end{figure*}tf*idf値を用いた評価尺度と重要文との関係を図\ref{figure:tfidf_train}に示す.ここでは各単語ごとのtf*idf値の計算には式T1を用い,また文の長さによる影響を避けるため,各文ごとにtf*idf値の和を文長によって正規化している.横軸に示している値は,tf*idf値を用いた評価尺度の値そのものではなく,評価尺度の値によって各文を順序付けした相対順位である.TSC報道記事データでは,tf*idf値が大きくなるにつれて,特に30\,\%,50\,\%の要約率において正解要約に含まれる文の割合が大きくなる.tf*idf値の高い文は重要であると見なすことは報道記事において効果があったと考えられる.DUCデータ,CSJデータにおいては,tf*idf値が大きくなるに従って緩やかに重要文である割合が増しているが,際立った特徴は見られなかった.TSCデータにおいても10\,\%におけるグラフは,報道記事データ・社説データの双方においてほぼ同様の傾向を示しており,CSJデータの要約率は10\,\%であり,DUCデータにおける要約率の平均は23.5\,\%であることを考慮すると,要約率が小さい場合には,tf*idf値はどのデータにおいてもとくに目立った特徴は示していないといえる.\subsubsection{見出し}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_hl_noun_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_hl_noun_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_hl_noun_train.eps,width=.47\columnwidth}&\epsfile{file=csj_ratio_hl_noun_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおける見出しを用いた評価尺度(単語単位)と重要文との関係}\label{figure:hl_noun_train}\end{figure*}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_hl_ne_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_hl_ne_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_hl_ne_train.eps,width=.47\columnwidth}&\\\end{tabular}\end{center}\caption{各データにおける見出しを用いた評価尺度(固有表現単位)と重要文との関係}\label{figure:hl_ne_train}\end{figure*}見出しを用いた評価尺度と重要文との関係を図\ref{figure:hl_noun_train},図\ref{figure:hl_ne_train}に示す.図\ref{figure:hl_noun_train}は単語を単位とした見出しと文との類似度に基づくグラフ,図\ref{figure:hl_ne_train}は固有表現を単位とした見出しと文との類似度に基づくグラフである.CSJデータに対しては固有表現を単位とした評価尺度を適用していないので,図\ref{figure:hl_ne_train}のグラフはTSCデータとDUCデータのもののみ掲げてある.横軸に示している値は,tf*idf値におけるグラフと同様に,見出しを用いた評価尺度の値によって各文を順序付けした相対順位である.tf*idf値を用いた評価尺度とTSC報道記事データとの関連と同様に,TSC社説データにおいて見出しを用いた評価尺度による順位が大きくなるにつれて,特に30\,\%,50\,\%の要約率において正解要約に含まれる文の割合が大きくなる.見出しを用いた評価尺度の値が高い文を重要であると見なすことは,社説において効果があったと考えられる.DUCデータ,CSJデータにおいては,tf*idf値に比べると評価尺度による順位が90\,\%以上のときの重要文の増加の割合がより大きい.見出しを用いた評価尺度の値が大きい文は,数としては少ないが重要文である割合が高いことが分かる.固有表現を単位とした評価尺度においては,グラフ全体の傾きは単語を単位とした評価尺度よりも小さく,重要文の割合と評価尺度の値との関連はあまり見られないが,評価尺度による順位が90\,\%以上のときには,単語を単位とした評価尺度と同様に重要文の割合が増加している.\subsection{素性間の関係}\begin{table}[t]\small\caption{各データにおける素性間の順位相関係数}\label{rank_cc_results}\begin{center}\begin{tabular}{l|rrrrr}\hline\hline\multicolumn{6}{c}{TSC報道記事データ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&見出し(NE)\\\hline文の位置&--&0.019&$-$0.095&$-$0.139&$-$0.137\\文の長さ&0.019&--&0.546&0.338&0.272\\tf*idf値&$-$0.095&0.546&--&0.696&0.312\\見出し(単語)&$-$0.139&0.338&0.696&--&0.399\\見出し(NE)&$-$0.137&0.272&0.312&0.399&--\\\hline\hline\multicolumn{6}{c}{TSC社説データ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&見出し(NE)\\\hline文の位置&--&$-$0.047&$-$0.099&0.046&0.023\\文の長さ&$-$0.047&--&0.532&0.289&0.209\\tf*idf値&$-$0.099&0.532&--&0.658&0.371\\見出し(単語)&0.046&0.289&0.658&--&0.517\\見出し(NE)&0.023&0.209&0.371&0.517&--\\\hline\hline\multicolumn{6}{c}{DUCデータ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&見出し(NE)\\\hline文の位置&--&$-$0.130&$-$0.108&$-$0.134&$-$0.062\\文の長さ&$-$0.130&--&0.471&0.293&0.186\\tf*idf値&$-$0.108&0.471&--&0.526&0.269\\見出し(単語)&$-$0.134&0.293&0.526&--&0.493\\見出し(NE)&$-$0.062&0.186&0.269&0.493&--\\\hline\hline\multicolumn{6}{c}{CSJデータ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&--\\\hline文の位置&--&$-$0.092&$-$0.069&$-$0.106&--\\文の長さ&$-$0.092&--&0.460&0.224&--\\tf*idf値&$-$0.069&0.460&--&0.533&--\\見出し(単語)&$-$0.106&0.224&0.533&--&--\\\hline\end{tabular}\end{center}\end{table}複数の素性を用いて重要文抽出を行うには,素性間の独立性が高いことと,素性を組み合わせたときに重要文が多い値域を絞り込めることが重要である.本節では,まず素性間の独立性を調べるために,各素性による文のスコアの順序に基づく順位相関係数を求め,素性間の独立性を調べた結果を示す.次に,独立性が比較的高い素性同士のいくつかの組み合わせについて,その組み合わせによる重要文の数・割合の分布を示した.\subsubsection{素性間の相関}各要約データにおける文の位置・文の長さ・tf*idf値・見出しの4種類の素性について,その評価尺度の値に基づく順位相関係数(Spearman)を求めた.各素性の組ごとの順位相関係数の値を表\ref{rank_cc_results}に示す.結果からは,どのデータにおいても\begin{itemize}\item文の位置は他のどの素性とも相関が低く,比較的独立であること\item文の長さとtf*idf値との相関が高いこと\footnotemark\itemTF*idf値と見出し(単語)との相関が高いこと\end{itemize}が分かる.\footnotetext{ここでは,前節と同様に各単語ごとのtf*idf値の計算には式T1を用い,また文の長さによる影響を避けるため,各文のスコアは,tf*idf値の和を文の長さで割って正規化している.従って「文の長さ」と「tf*idf値」との相関が高いことは自明な結果ではない.}これら4種類の素性は重要文抽出に用いられる典型的な素性であり,\ref{section:evaluation}章ではこれらの素性を組合せて重要文抽出を行い日本語・英語双方のコンテストにおいて良好な結果を得たことを示したが,順位相関係数の値からはこれらの素性は必ずしも相互に独立ではないことが分かった.\subsubsection{素性の組み合わせ}前節の結果から,4種類の素性は互いに独立であるとはいえないが,文の位置と他の素性との組み合わせはどのデータにおいても他の組み合わせと比較して独立性が高いことが分かった.本節では,これらの素性の組み合わせにおいて重要文の分布とどのように関連しているかを調べる.TSCデータについては,素性の組み合わせについて示すにはデータ中の文数が少ないため,ここではDUCデータとCSJデータについて調べた結果のみを示している.前節の結果独立性の高かった文の位置と他の素性の組み合わせについて,重要文の分布がどう変化するかを示す.表\ref{table:diagram_pst_len},\ref{table:diagram_pst_tfidf},\ref{table:diagram_pst_hlnoun}は,二つの素性の組み合わせによって重要文の数・割合がどう変化するかを示したものである.これらの表では各素性ごとにその評価尺度の値の昇順に文を順位付けし,その順位を10\,\%ごとに区分して各区分ごとに重要文の数と割合を文字によって段階分けして示した.各区分中の文字は,重要文が各区分に均一に分布している場合に比べて,どのくらい偏りがあるかを示すものである.左側の文字は重要文の数の偏りを示すもので,具体的には,データ中の全重要文の数を\(T\)としたときに各区分中の重要文の数\(T_{i,j}\)が重要文の各区分に対する平均値\(M(=\frac{T}{100})\)からどのくらい離れているかを,以下のような範囲ごとに示している.ここで\(S\)は各区分に対する重要文数の標準偏差である.\begin{quote}\begin{tabular}{ll}A:&\(T_{i,j}\geM+2S\)\\B:&\(M+S\leT_{i,j}<M+2S\)\\C:&\(M-S\leT_{i,j}<M+S\)\\D:&\(M-2S\leT_{i,j}<M-S\)\\E:&\(T_{i,j}<M-2S\)\\O:&\(T_{i,j}=0\)\\{\tt-}:&その区分に対応する文が存在しない\end{tabular}\end{quote}同様に,各区分の右側の文字は,重要文の全文数に対する割合が均一に分布している場合と比較して,どのくらい偏りがあるかを示すものである.全文数\(N\)に占める重要文の割合を\(m(=\frac{T}{N})\)としたときに,各区分中の重要文の割合\(t_{i,j}\)が以下の範囲にあることを示している.ここで\(s\)は各区分に対する重要文の割合の標準偏差である.\begin{quote}\begin{tabular}{ll}a:&\(t_{i,j}\gem+2s\)\\b:&\(m+s\let_{i,j}<m+2s\)\\c:&\(m-s\let_{i,j}<m+s\)\\d:&\(m-2s\let_{i,j}<m-s\)\\e:&\(t_{i,j}<m-2s\)\\o:&\(t_{i,j}=0\)\\{\tt-}:&その区分に対応する文が存在しない\end{tabular}\end{quote}すなわち,重要文が素性に関係なく均一に分布している状態ならば,全ての区分がCcとなる.重要文の数が多くてもその割合が小さければ,単にその区分に含まれる文の数が多いだけで,重要文の抽出に有効な区分ではない.逆に重要文の割合が大きくてもその数が小さければ,その区分は重要文抽出の性能向上に有効ではあるが,寄与する度合は小さい.\begin{table}[tb]\small\caption{文の位置と文長を組み合わせたときの重要文の分布}\label{table:diagram_pst_len}\begin{center}\begin{tabular}{c|cccccccccc}\hline\hline\multicolumn{11}{c}{DUCデータ}\\\hline&\multicolumn{10}{c}{文の長さ}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Cb&Bb&Ba&Ba&Aa&Aa&Aa\\0.2&Cd&Cc&Cc&Cc&Cc&Cc&Cb&Bb&Bb&Aa\\0.3&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Bc&Cc&Cb\\0.4&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cb&Cc\\0.5&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.6&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.9&Dd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\1.0&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\\hline\hline\multicolumn{11}{c}{CSJデータ}\\\hline&\multicolumn{10}{c}{文の長さ}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Ab&Bc&Cc&Cc&Cc&Bc&Ab\\0.2&Cc&Cc&Cc&Cc&Cc&Bc&Cc&Cc&Cc&Cc\\0.3&Oo&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.4&Cc&Cc&Cc&Oo&Cc&Cc&Cc&Cc&Cc&Cc\\0.5&Oo&Oo&Oo&Cc&Oo&Cc&Oo&Cc&Cc&Cc\\0.6&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Cc&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.9&Cc&Cc&Cc&Cc&Bb&Cc&Cc&Cc&Cc&Cc\\1.0&Cc&Cc&Aa&Aa&Aa&Ba&Aa&Aa&Aa&Aa\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\small\caption{文の位置とtf*idf値を組み合わせたときの重要文の分布}\label{table:diagram_pst_tfidf}\begin{center}\begin{tabular}{c|cccccccccc}\hline\hline\multicolumn{11}{c}{DUCデータ}\\\hline&\multicolumn{10}{c}{tf*idf値}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Cb&Ba&Ba&Aa&Aa&Aa&Aa\\0.2&Cd&Cc&Cc&Cc&Cc&Cc&Bb&Bb&Bb&Bb\\0.3&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.4&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.5&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.6&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Cd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.9&Dd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\1.0&Dd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\\hline\hline\multicolumn{11}{c}{CSJデータ}\\\hline&\multicolumn{10}{c}{tf*idf値}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Cc&Bc&Cc&Ab&Bb&Bb&Bb\\0.2&Oo&Oo&Cc&Cc&Cc&Cc&Cc&Bb&Bc&Cc\\0.3&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.4&Cc&Cc&Cc&Cc&Oo&Cc&Cc&Cc&Cc&Cc\\0.5&Oo&Cc&Oo&Oo&Cc&Oo&Cc&Cc&Cc&Cc\\0.6&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Oo&Cc&Cc&Oo&Oo&Cc&Cc&Cc&Cc&Cc\\0.9&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Bb\\1.0&Cc&Cc&Ba&Bb&Bb&Aa&Aa&Bb&Aa&Aa\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\small\caption{文の位置と見出しを組み合わせたときの重要文の分布}\label{table:diagram_pst_hlnoun}\begin{center}\begin{tabular}{c|cccccccccc}\hline\hline\multicolumn{11}{c}{DUCデータ}\\\hline&\multicolumn{10}{c}{見出し}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Ab&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Ca&Ba&Ba&Aa\\0.2&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cb&Cc&Ca&Ca\\0.3&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cb&Cb\\0.4&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cb\\0.5&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc\\0.6&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc\\0.7&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc\\0.8&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cd&Cc&Cc&Cc\\0.9&Bd&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cd&Cc&Cc&Cc\\1.0&Bd&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cd&Cc&Cc&Cc\\\hline\hline\multicolumn{11}{c}{CSJデータ}\\\hline&\multicolumn{10}{c}{見出し}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Bb&Cc&Aa\\0.2&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cb&Cc&Cc&Bb\\0.3&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc&Cc\\0.4&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Oo&Cc&Cc&Cc&Cc\\0.5&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Oo&Cc&Oo&Cc&Cc\\0.6&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc&Cc\\0.7&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Oo&Cc&Cc&Cc&Cc\\0.8&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc&Cc\\0.9&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Ca&Cc&Cc&Cc&Cb\\1.0&Ab&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Ca&Aa&Ba&Ba&Ba\\\hline\end{tabular}\end{center}\end{table}まず,表\ref{table:diagram_pst_len}に示した文の位置と文長の組み合わせについて調べてみると,DUCデータでは文の位置が先頭から20\,\%以内で,かつ文長による順位が50\,\%以降の場合(文の位置\(\le\)0.2,文長\(\ge\)0.5)において重要文の数,割合とも大きいことが分かる.一方CSJデータでは文の位置が末尾から10\,\%以内で,かつ文長による順位が30\,\%以降の場合(文の位置=1.0,文長\(\ge\)0.3)に重要文の数,割合とも大きい.次に,文の位置とtf*idf値の組み合わせについての結果を表\ref{table:diagram_pst_tfidf}に示す.CSJデータにおいて文の位置が先頭から20\,\%以内のところに重要文の割合が大きい区分が若干増えたこと以外は,文長との組み合わせとほぼ同様の結果になっている.これらの結果から,文の位置と組み合わせて文長またはtf*idf値を用いた際には,ともにそのスコアが低い文を除くことで文の位置による重要文抽出の精度をより向上させていることが分かる.最後に,文の位置と見出しの組み合わせについての結果を表\ref{table:diagram_pst_hlnoun}に示す.見出しを用いた評価尺度の場合,ほぼ半数の文が見出しと共通する語を持たないため,スコアが0になる.このため,対応する文が存在しない区分が中間に現われている.見出しを用いた評価尺度においては,そのスコアが0であるような文においても重要文の数が多く,文長またはtf*idf値のような効果は得られていない.しかし,DUCデータにおいて文の位置が先頭から20\,\%以内で見出しによる順位が70\,\%以降の場合(文の位置\(\le\)0.2,見出し\(\ge\)0.7),重要文の割合は大きくなっている.また,CSJデータにおいては,文の位置が末尾から10\,\%以内(文の位置=1.0)の場合に加えて,文の位置=0.1,見出し=1.0の区分においても重要文の数,割合が大きくなっている.従って,文の位置と組み合わせて見出しの情報を用いた場合には,文長やtf*idf値とは逆に,そのスコアが高い文を優先することで文の位置単独の場合よりも重要文抽出の精度が向上するといえる.これらの実験結果をまとめると「重要文抽出に用いた素性を組み合わせたときに,その値の増減に応じて連続的に重要文の数・割合が増えるのではなく,組み合わせによってできる一定の境界があって,その内外で重要文の数・割合が大きく異なることがある」ということになる.つまり,重要文抽出を行う際には,式\ref{eq:weight}のように素性を用いた評価尺度を線型に組み合わせる方法ではなく,ここで発見された特徴を生かすような非線型の評価尺度を導入することで,同じ素性を用いても精度向上の可能性があるということである.また,DUCデータとCSJデータの双方において素性の組み合わせによる非線型な重要文の数・割合の変化がみられたことは,英語新聞記事と日本語講演録という異なる種類のデータにおいても,非線型な素性の組み合わせが重要文抽出に有効であることを示唆しているといえる.日本語新聞記事においても,\cite{hirao:phdthesis}はSVMを用いた重要文抽出を行う際に連続値を持つ素性を一定の値域に区切って二値素性に変換して用いているが,その分析において報告されている有効な二値素性の組み合わせからも,同様に非線型な素性の組み合わせが有効であることが推測される.
\section{おわりに}
本論文では,重要文抽出に基いた要約システムの評価結果を日本語新聞記事,英語新聞記事,日本語話し言葉コーパスの3種類のデータそれぞれについて示した.本システムは,日本語新聞記事の要約評価ワークショップTSC(2001),英語新聞記事の要約評価ワークショップDUC(2001)の各々において,単一文書の要約課題において良好な成績をおさめた.また要約率が10\,\%程度と小さいときには,文境界が正しく検出できれば,講演録などの話し言葉に対する重要文抽出は新聞記事に対する重要文抽出に匹敵しうることを示した.要約データの分析においては,トレーニングデータにおいて各素性に基づく評価尺度の値と重要文の分布を示し,各素性の重要文抽出における有効性を3種類のデータ間で比較した.また,素性間の順位相関係数を求め,用いたどのデータにおいても,文の位置とその他の素性との相関に比べて文の位置以外の素性間の相関が高く,重要文抽出に用いられるこれらの代表的な素性が必ずしも相互に独立ではないことを示した.さらに,比較的独立性の高い文の位置とそれ以外の素性との組み合わせについて重要文の分布を調べ,文の位置と組み合わせて文長またはtf*idf値を用いた際には,ともにそのスコアが低い文を除くことで文の位置による重要文抽出の精度が向上し,文の位置と組み合わせて見出しの情報を用いた場合には,逆にそのスコアが高い文を優先することで文の位置単独の場合よりも重要文抽出の精度が向上していることを示した.今後の課題としては,今回の実験で用いた素性と独立性の高い新たな素性を導入し,それによって重要文抽出の精度を上げることを考えている.本論文では,異なる言語・種類のコーパス間での比較を主眼としたため素性については重要文抽出において代表的な素性のみを対象としたが,例えば構文情報や,\cite{hirao:phdthesis}が用いたような機能語・モダリティを示す表現など,新たな素性についてもその独立性や組み合わせによる有効性を調べ,重要文抽出に有用で特定のコーパスに依存しないような素性を見出していきたい.\begin{acknowledgment}本研究を進めるにあたっては,通信総合研究所の自然言語グループのメンバーとの討論が参考になりました.特に内元清貴氏には有益な助言をいただき感謝します.\end{acknowledgment}\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aone,Okurowski\BBA\Gorlinsky}{Aoneet~al.}{1998}]{aone:colingacl1998}Aone,C.,Okurowski,M.~E.,\BBA\Gorlinsky,J.\BBOP1998\BBCP.\newblock\BBOQ{Trainable,ScalableSummarizationUsingRobustNLPandMachineLearning}\BBCQ\\newblockIn{\BemProc.ofthe17thInternationalConferenceonComputationalLinguisticsand36thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~62--66.\bibitem[\protect\BCAY{DUC}{DUC}{2001}]{DUC:2001}DUC\BBOP2001\BBCP.\newblock\BBOQDocumentUnderstandingConference\BBCQ\newblock\slashbr{http://duc.nist.gov/}.\bibitem[\protect\BCAY{Edmundson}{Edmundson}{1969}]{edmundson:acm1969}Edmundson,H.\BBOP1969\BBCP.\newblock\BBOQNewmethodsinautomaticabstracting\BBCQ\\newblock{\BemJournalofACM},{\Bbf16}(2),pp.~264--285.\bibitem[\protect\BCAY{古井,前川,井佐原}{古井\Jetal}{2000}]{furui:asj2000}古井貞煕,前川喜久雄,井佐原均\BBOP2000\BBCP.\newblock\JBOQ科学技術振興調整費開放的融合研究推進制度—大規模コーパスに基づく「話し言葉工学」の構築—\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf56}(11),pp.~752--755.\bibitem[\protect\BCAY{Hirao}{Hirao}{2002}]{hirao:phdthesis}Hirao,T.\BBOP2002\BBCP.\newblock{\Bem{AStudyonGenericandUser-FocusedAutomaticSummarization}}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{IREX}{IREX}{1999}]{IREX}IREX\BBOP1999\BBCP.\newblock\BBOQInformationRetrievalandExtractionExercise\BBCQ\\\newblock\slashbr{http://cs.nyu.edu/cs/projects/proteus/irex}.\bibitem[\protect\BCAY{Kupiec,Pedersen\BBA\Chen}{Kupiecet~al.}{1995}]{kupiec:sigir1995-s}Kupiec,J.,Pedersen,J.,\BBA\Chen,F.\BBOP1995\BBCP.\newblock\BBOQ{ATrainableDocumentSummarizaer}\BBCQ\\newblockIn{\BemProc.ofSIGIR'95},pp.~68--73.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋,長尾}{1999}]{juman361}黒橋禎夫,長尾真\BBOP1999\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}version3.61}.\newblock京都大学.\bibitem[\protect\BCAY{Lin}{Lin}{1999}]{lin:cikm1999}Lin,C.-Y.\BBOP1999\BBCP.\newblock\BBOQTrainingaSelectionFunctionforExtraction\BBCQ\\newblockIn{\BemProc.oftheCIKM'99}.\bibitem[\protect\BCAY{Mani\BBA\Maybury}{Mani\BBA\Maybury}{1999}]{mani:aats}Mani,I.\BBA\Maybury,M.\BBOP1999\BBCP.\newblock{\Bem{AdvancesinAutomaticTextSummarization}}.\newblockTheMITPress,Cambridge,MA.\bibitem[\protect\BCAY{Nobata,Sekine,Murata,Uchimoto,Utiyama\BBA\Isahara}{Nobataet~al.}{2001}]{nobata:tsc2001}Nobata,C.,Sekine,S.,Murata,M.,Uchimoto,K.,Utiyama,M.,\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQSentenceExtractionSystemAssemblingMultipleEvidence\BBCQ\\newblockIn{\BemProceedingsoftheSecondNTCIRWorkshop},pp.~319--324.\bibitem[\protect\BCAY{野畑,関根,内元,井佐原}{野畑\Jetal}{2002}]{nobata:orc2002}野畑周,関根聡,内元清貴,井佐原均\BBOP2002\BBCP.\newblock\JBOQ話し言葉コーパスにおける文の切り分けと重要文抽出\JBCQ\\newblock\Jem{第2回話し言葉の科学と工学ワークショップ},pp.~93--100.\bibitem[\protect\BCAY{野本,松本}{野本,松本}{1997}]{nomoto:ipsj1997}野本忠司,松本祐治\BBOP1997\BBCP.\newblock\JBOQ人間の重要文判定に基づいた自動要約の試み\JBCQ\\newblockIn{\BemIPSJ-NL120-11},pp.~71--76.\bibitem[\protect\BCAY{奥村,難波}{奥村,難波}{1999}]{okumura:nlp1999-07}奥村学,難波英嗣\BBOP1999\BBCP.\newblock\JBOQテキスト自動要約に関する研究動向(巻頭言に代えて)\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),pp.~1--26.\bibitem[\protect\BCAY{Robertson\BBA\Walker}{Robertson\BBA\Walker}{1994}]{2poisson}Robertson,S.~E.\BBA\Walker,S.\BBOP1994\BBCP.\newblock\BBOQSomeSimpleEffectiveApproximationstothe2-PoissonModelforProbabilisticWeightedRetreival\BBCQ\\newblockIn{\BemProc.oftheSeventeenthAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval}.\bibitem[\protect\BCAY{Sekine\BBA\Nobata}{Sekine\BBA\Nobata}{2001}]{sekine:duc2001}Sekine,S.\BBA\Nobata,C.\BBOP2001\BBCP.\newblock\BBOQ{SentenceExtractionwithInformationExtractionTechnique}\BBCQ\\newblockIn{\BemOnlineProceedingsoftheDocumentUnderstandingConference:http://www.itl.nist.gov/iaui/894.02/projects/duc/duc2001/agenda\_duc2001.html}\NewOrleans,LA.\bibitem[\protect\BCAY{Sekine,Sudo\BBA\Nobata}{Sekineet~al.}{2002}]{sekine:lrec2002}Sekine,S.,Sudo,K.,\BBA\Nobata,C.\BBOP2002\BBCP.\newblock\BBOQ{ExtendedNamedEntityHierarchy}\BBCQ\\newblockIn{\BemProceedingsoftheLREC-2002Conference},pp.~1818--1824.\bibitem[\protect\BCAY{Sudo,Sekine\BBA\Grishman}{Sudoet~al.}{2001}]{sudo:hlt2001}Sudo,K.,Sekine,S.,\BBA\Grishman,R.\BBOP2001\BBCP.\newblock\BBOQAutomaticPatternAcquisitionforJapaneseInformationExtraction\BBCQ\\newblockIn{\BemProc.ofHumanLanguageTechnologyConference}\SanDiego,California,USA.\bibitem[\protect\BCAY{TSC}{TSC}{2001}]{TSC1}TSC\BBOP2001\BBCP.\newblock\BBOQ{ProceedingsoftheSecondNTCIRWorkshoponResearchinChinese\&JapaneseTextRetrievalandTextSummarization(NTCIR2)}\BBCQ.\newblockNationalInstituteofInformatics.\bibitem[\protect\BCAY{Uchimoto,Ma,Murata,Ozaku\BBA\Isahara}{Uchimotoet~al.}{2000}]{uchimoto:acl2000}Uchimoto,K.,Ma,Q.,Murata,M.,Ozaku,H.,\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQ{NamedEntityExtractionBasedonAMaximumEntropyModelandTransformationRules}\BBCQ\\newblockIn{\BemProc.ofthe38thAnnualMeetingofAssociationforComputationalLinguistics(ACL2000)},pp.~326--335.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{1996}]{watanabe:coling1996}Watanabe,H.\BBOP1996\BBCP.\newblock\BBOQ{AMethodforAbstractingNewspaperArticlesbyUsingSurfaceClues}\BBCQ\\newblockIn{\BemProc.ofthe16thInternationalConferenceonComputationalLinguistics},pp.~974--979.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{野畑周}{1995年東京大学理学部情報科学科卒業.2000年東京大学大学院理学系研究科博士課程修了.博士(理学).同年郵政省通信総合研究所非常勤研究職員.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループ専攻研究員.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{関根聡}{AssistantResearchProfessor,NewYorkUniversity.1987年東京工業大学応用物理学科卒業.同年松下電器東京研究所に入社.1990年〜1992年UMIST客員研究員.1992年UMIST計算言語学科修士.1994年からNYU,ComputerScienceDepartment,AssitantResearchScientist.1998年Ph.D..同年から現職.自然言語処理の研究に従事.コーパスベース,パーザー,分野依存性,情報抽出,情報検索等に興味を持つ.言語処理学会,人工知能学会,ACL各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).1980年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V13N03-08
|
\section{はじめに}
近年,手話は自然言語であり,ろう者の第一言語である\cite{Yonekawa2002}ということが認知されるようになってきた.しかし,これまで手話に関する工学的研究は,手話動画像の合成や手話動作の認識といった画像面からの研究が中心的であり,自然言語処理の立場からの研究はまだあまり多くは行われていない.言語処理的な研究が行われていない要因として,自然言語処理における処理対象はテキストであるのに,手話には広く一般に受け入れられた文字による表現(テキスト表現)がないことがあげられる.言語処理に利用できる機械的に可読な大規模コーパスも手話にはまだ存在していないが,これもテキスト表現が定まっていないためである.本論文では,手話言語を音声言語と同様,テキストの形で扱えるようにするための表記法を提案する.また,ろう者が表現した手話の映像を,提案した表記法を使って書き取る実験により行った表記法の評価と問題点の分析について述べる.現在我々は,日中機械翻訳など音声言語間の機械翻訳と同じように,日本語テキストからこの表記法で書かれた手話テキストを出力する機械翻訳システムの試作を行なっている.一般に翻訳は,ある言語のテキストを別の言語の等価なテキストに置き換えることと定義されるが,手話にはテキスト表現がないため,原言語のテキストから目的言語のテキストへの言語的な変換(翻訳)と,同一言語内での表現の変換(音声言語ではテキスト音声合成,手話では動作合成/画像合成)とを切り離して考えることができなかった.我々は,テキスト表現の段階を置かずに直接手話画像を出力することは,広い範囲の日本語テキストを対象として処理していくことを考えると,機械翻訳の問題を複雑にし困難にすると考え,音声言語の機械翻訳の場合と同じように,日本語テキストから手話テキストへ,手話テキストから手話画像へと独立した二つのフェーズでの機械翻訳を構想することとした(図\ref{fig:sltext}).\begin{figure}[tb]\centering\epsfxsize=11cm\epsfbox{sltext.eps}\caption{日本語-手話機械翻訳における手話テキストの位置付け}\label{fig:sltext}\end{figure}現在,日本語から他の諸言語への翻訳を行うためのパターン変換型機械翻訳エンジンjawとそれに基づく翻訳システムの開発が進められているが(謝他2004;ト他2004;Nguyenetal.2005;Thelijjagodaetal.2004;マニンコウシン他2004),本表記法を用いた日本語-手話翻訳システムも,それらと全く同じく枠組みで試作が行なわれている(松本他2005;Matsumotoetal.2005).jawによる翻訳は次のように行われる.jawは入力日本語文を形態素/文節/構文解析して得られた日本語内部表現(文節係り受け構造,文節情報)の各部を,DBMS上に登録された日本語構文パターンと照合する.パターンの要素には階層的な意味カテゴリが指定できる.各パターンは,それを目的言語の表現に変換する翻訳規則と対応しており,その規則の適用により目的言語の内部表現が生成される.目的言語の内部表現は,各形態素の情報を属性として持つC++オブジェクトと,それらの間のリンク構造として実現される.目的言語の内部表現から目的言語テキストへの変換(語順の決定,用言後接機能語の翻訳など)は,各形態素オブジェクトが持つ線状化メンバ関数,および,目的言語ごとに用意された別モジュールによって行われる.\nocite{Bu2004,Shie2004,Nguyen2005,Thelijjagoda2004,Ngin2004}\nocite{Matsumoto2005a,Matsumoto2005b}本論文はこのような枠組みにおいて,翻訳システムが出力する手話のテキスト表現方法について述べるものである.機械翻訳システム,すなわち翻訳の手法については稿を改めて詳しく論じたい.手話の表記法は従来からいくつか提案されている\cite{Prillwitz2004,Sutton2002,Ichikawa2001,Honna1990}.しかしその多くは,音声言語における発音記号のように,手話の動作そのものを書き取り,再現するための動作記述を目的としている.このため,言語的な変換処理を,動作の詳細から分離するという目的には適していない.\renewcommand{\thefootnote}{}日本語から手話への機械翻訳の研究としては黒川らの研究があり\cite{Fujishige1997,Ikeda2003,Kawano2004},日本語とほぼ同じ語順で(日本語を話しながら)手指動作を行なう中間型手話\footnote{日本手話,日本語対応手話,中間型手話については次節で述べる.}を目的言語としたシステムについて研究が行なわれている.そこでも手話の表記法についての提案があるが,機械翻訳の結果出力のためのシステムの内部表現としての面が強く,手話をテキストとして書き取るための表記法というものではない.徳田・奥村(1998)も日本語-手話機械翻訳の研究の中で,手話表記法を定義している.しかし,主に日本語対応手話\footnotemark[1]を目的言語としているため,日本手話\footnotemark[1]において重要な言語情報を表す単語の語形変化や非手指要素に対する表記は定義されていない.テキスト表現を導入することによって,従来の音声言語間の機械翻訳と同じ枠組みで手話への機械翻訳が行えるようになるが,その記述能力が不十分であれば,逆に表記法が翻訳精度向上の隘路になる.機械翻訳を前提として提案された上述の既存表記法は,いずれも言語的に日本語に近い手話を対象としているため,日本手話を表記対象とした場合,記述能力不足が問題となる.本論文で提案する表記法では,手話単語に対してそれを一意的に識別する名前を付け,その手話単語名を基本として手話文を記述する.単語名としては日本語の語句を援用する.手話辞典や手話学習書等でも,例えば[あなた母話す]のように手話単語名を並べることによって手話文を書き表すことが多いが,手話単語はその基本形(辞書形)から,手の位置や動きの方向・大小・強弱・速さなどを変化させることによって,格関係や程度,様態,モダリティなどの付加的な情報を表すことができる.また,顔の表情,頭の動きなどの非手指要素にも文法的,語彙的な役割がある.したがって,これらの情報を排除した手話単語名の並びだけでは,主語や目的語が不明確になったり,疑問文か平叙文かが区別できなかったり,文の意味が曖昧になったりする.手話学習書等では,写真やイラスト,説明文によってこのような情報が補われるが,本表記法ではこれらの情報も,記号列としてテキストに含め手話文を記述する.基本的に動作そのものではなく,その動作によって何が表されるかを記述する.たとえば,「目を大きく開け,眉を上げ,頭を少し傾ける」といった情報ではなく,それによって表される疑問のムードという情報を記述する.ただし,手話テキストから手話動作記述への変換過程を考慮して,表記された内容が手話単語自体がもつものなのか,あるいは,その単語の語形変化によって生じるものか,非手指要素によるものかといった大まかな動作情報は表記に含める.以下,2節で手話言語について述べ,3節で提案する表記法の定義を述べる.4節で表記法の評価のための手話映像の書き取り実験と問題点の分析について述べる.5節で既存の代表的な手話表記法について概観し,本論文の表記法との比較を行う.
\section{手話について}
手話は手の形,位置,動き,そして,顔の表情や視線,頭の動きなどの非手指要素といった複数のチャネルを使って意味を視覚的に伝達する言語である.話し手の回りの空間上の位置を代名詞的に利用したり,手の動きの方向で格関係を表すなど,音声言語にはない独自の文法を持つ.語彙についても,手話単語が表す概念と日本語の単語が表す概念とは一般に一致しない.手話の述語はその主体または対象,道具の情報と一体的に表現されることが比較的多い(「魚が泳ぐ」「菓子を食べる」「ハサミで切る」など).このために,日本語では同じ一つの述語で表される動作や性質が,手話では異なる述語(あるいは同じ述語の異なる語形)で表現されることがある.逆に,日本語では別個の単語で表現される事柄が,手話では同じ単語で表される場合も多い(手話単語〈暑い〉は「夏」「南」「扇ぐ」「うちわ」などの意味でも使われる).また,手話には動詞名詞同形の単語が多く存在する.手話は世界共通ではなく,国や地域によって異なる手話が使われている\cite{Gordon2005}.日本で手話と呼ばれるものには「日本手話」と「日本語対応手話」がある.この分類にはさまざまな考え方があり,人によってその定義が異なるが,一般に,{\bf日本手話}はろう者の間で生まれ広がった,日本語とは別の体系を持つ手話言語をさし,{\bf日本語対応手話}は手話単語を使うものの,語彙や文法が日本語的な表現になっているものをさす\cite{Yonekawa2004}.日本語対応手話では日本語を話しながら手話が表現される場合が多いが,日本手話の場合,日本語とは異なる言語であるため,日本語を話しながら手話を話そうとすると2つの言語を同時に話すことになり,日本語につられて不自然な手話になったり,手話につられて不自然な日本語になったりするという\cite{Yonekawa2004}.日本語対応手話には,単に日本語の語順に沿って手話単語を並べただけのものから,手話的な表現を部分的に取り入れたもの({\bf中間型手話}とも呼ばれる),逆に,日本語の助詞や助動詞に対する手指表現も人工的に与え,できる限り日本語をそのまま手指動作で表そうとするものなど幅がある.中途失聴者や健聴者にとって比較的習得が容易なため,手話サークルや手話講習会では日本語対応手話を扱う場合が多い.その反面,日本語対応手話は日本語に堪能なろう者にとっても分かりづらいことが多いといわれる\cite{Akiyama2004,Ichida2005}.これは日本語と手話の単語の意味・用法の違いに加え,手話で用いられる文法標識としての非手指要素が日本語対応手話では欠落し,さらに日本語の助詞なども省かれることが多いため,個々の単語は認識できても,文として理解しにくいものと考えられる.本論文では,日本手話の記述に対応した手話表記法を提案する.日本手話の基本語順はSOV(主語-目的語-動詞)といわれている\cite{Kimura1995,Matsumoto2001}.ただし,話題化による語順の変化や主語の省略が見られ,文末に,主語などを指す指差し(pronouncopy)が現れることも多い.形容詞や副詞の語順については,修飾語が被修飾語に前置される場合と後置される場合が併存している.松本(2001)は,基本的には付随的な語が中心的な語の後ろに置かれる,つまり修飾語が後置されるのが手話の自然な表現であり,前置されるのは強調のための倒置であるが,現代では日本語の影響により,単語によっては前置も一般化してきていると述べている.一方,市田(1998)\nocite{Ichida1998}は名詞句内の語順は形容詞-名詞,関係節-名詞,属格-名詞であり,形容詞や関係節が名詞に後置されているように見える例は,主要部内在型関係節という構造を利用した表現である(前置の場合とは非手指要素が異なる)と説明している.数と単位の語順は,時刻や年齢などは「単位・数」の順で,金額や長さなどは逆に「数・単位」の順で表される.日数($n$日間)では手の形が「数」を,そしてその動きが「〜日間」という単位を表し,数と単位が同時に表現される.このような同時性も,手話の特徴の一つである.音声言語では1度に1つの形態素しか表すことができないが,手話では2本の手と非手指要素による複数のチャネルを介して,並行して異なる形態素を組み合わせて表出することができる.\renewcommand{\thefootnote}{}\setcounter{footnote}{0}また,手話による会話では,非手指要素が手指要素と同じように重要な役割を持っていることが知られており\footnote{米川(2002)は,「お面をかぶって手話をした場合と,顔を出してグローブをはめて手話をした場合とでは,後者の方がよく伝わる」と述べている.},実際,ろう者は会話中,主に互いの手ではなく顔を見ている\cite{Sutton-Spence1999}.
\section{手話表記法の提案}
ここでは本論文で提案する手話表記法について述べる.なお,表記法の詳細な構文と表記例については付録Aに記載する.\subsection{基本的な方針}日本語-日本手話機械翻訳における言語的な変換の問題を,音声言語間の機械翻訳と同様,動作合成(音声合成)の問題から切り離して扱えるようにすることが表記法導入の大きな目的である.そのため,手話の動作そのものを詳細に記述するのではなく,動作によって表される文の言語的な構造(語彙的・文法的情報)の記述に重点を置いた表記法とする.具体的には次のような要素によって手話文を記述する:手話単語とその語形変化,複合語等の単語の合成,句読点,および,非手指要素による文法標識.表記は汎用的で機械処理に適したテキスト形式で行い,一般的な日本語環境で扱える範囲の文字だけを使用する.これより,テキストエディタ等の既存のツールが手話用にそのまま流用できることになる.テキストはフリーフォーマットとし,文中に空白や改行を自由に挿入できるようにする.\subsection{手話単語とその語形変化}\label{sec:inflection}手話単語は手の形,位置,動き,および,顔の表情などの非手指要素で構成される.単語の基本形(辞書形)から,これらの要素を変化させることにより,意味を部分的に変えたり,付加することができる.本表記法では,単語の基本形は手話単語名で表し,基本形からの変化がある要素については,単語に対するパラメータとして,次のような形式で記述する.\begin{ex}手話単語名[手形](空間;修飾)\end{ex}手話単語名には手話単語の意味に近い日本語の語句を援用する(試作した翻訳システムでは基本的に『日本語-手話辞典』\cite{JISLS1997}の手話イラスト名を手話単語名として用いた).ただし,手話単語とその単語名として使われる日本語語句が表す概念とが全く同じであるとは限らないという点は注意しなければならない.語形変化は,手形要素,空間要素,修飾要素に分けて記述する.\subsubsection*{(a)手形要素}手形の変化による語義の変化は,変化した手形を手形要素として記述することによって表現する.手話単語〈行く〉の手形変化による語義の変化(松本2001)とその表記を図\ref{fig:iku}に示す.\begin{figure}\centering\epsfxsize=7cm\epsfbox{iku123b.eps}\caption{手形変化の表記例.手話単語〈行く〉の基本形(左)とその手形変化(中・右)}\label{fig:iku}\end{figure}\subsubsection*{(b)空間要素}手話では話し手の回りの空間が人称と対応づけられており,話し手の位置が一人称,聞き手の位置が二人称,その他の位置が三人称となっている(図\ref{fig:personalLocation}).その場にいない人や物,場所が三人称の位置で表現されるが,標準的には,人は話し手の斜め左右の位置に,物は話し手の前方中央の位置に配置される(Baker-ShenkandCokely1980;松本2001)\nocite{Baker-Shenk1980}.また,手話の動詞には,手の動きの方向や指先の向きによって格関係を表すものがある.動きが主語や目的語の人称(位置)や数に呼応して変化するため一致動詞と呼ばれる(Sutton-SpenceandWoll1999;市田1999).\nocite{Ichida1999}\begin{figure}\begin{minipage}[t]{.47\linewidth}\center\epsfxsize=5.5cm\epsfbox{personalLocations.eps}\caption{話し手の周りの空間上の位置と\\人称の対応}\label{fig:personalLocation}\end{minipage}\hfill\begin{minipage}[t]{.47\linewidth}\center\epsfxsize=5.5cm\epsfbox{look1221a.eps}\caption{一致動詞の方向変化とその表記}\label{fig:miru}\end{minipage}\end{figure}本表記法では格関係を表す一致動詞の方向や名詞の位置を,語形変化パラメータの空間要素として記述する.一人称と二人称の位置は位置定数``1''と``2''で表し,三人称の位置は``3'',``4'',``$x$'',``$y$'',``$L$'',``$R$''などの位置変数\footnote{変数名``$L$''と``$R$''はそれぞれ話者の左(Left)と右(Right)の位置を暗示している.},または,単語名で表す.単語名は,その単語が表現された位置を示す.図\ref{fig:miru}に動詞〈見る〉の方向変化とその表記を示す.〈見る〉の始点は動作主体を,終点は対象を表している.また,次の表記例では,〈母〉の位置と〈話す〉の始点が一致しており,「母が私に言う(=母から聞く)」という意味の手話を表している.\begin{ex}母($x$)話す($x$→1)\end{ex}\subsubsection*{数の一致}動詞の動きはその主体や対象が単数か複数かによっても変化する.例えば,「(みんなが私に)言う」という意味の手話は,動詞〈話す〉の始点を三人称の位置の範囲で2,3回変えて繰り返し表現される(図\ref{fig:numberAgreement}a).このような動詞の複数変化は,位置の複数形を用いることによって次のように記述する.\begin{ex}話す(3s→1)\end{ex}漠然と複数の人(位置)を表すのではなく,図\ref{fig:numberAgreement}(b)のように,具体的な数(とその人称位置)の指定が必要な場合には,位置の集合を用いて次のように記述する.\begin{ex}話す(\{$x,y$\}→1)\end{ex}一致動詞だけでなく,〈死ぬ〉のように方向を持たない動詞でも,表現位置を変えられる場合は,位置を変えて繰り返し表現することで,主体が複数であることが表される.また,位置変化可能な名詞も,同様の表現方法によって,物事が複数存在することを表すことができる.これらも,空間パラメータの「位置」を複数形にすることによって,表記することができる.\begin{figure}\centering\epsfxsize=5cm\epsfbox{numberAgreement.eps}\caption{動詞の複数変化}\label{fig:numberAgreement}\end{figure}\subsubsection*{(c)修飾要素}音声言語では,単語に対する修飾などの付加的な情報は,単語の前か後ろに一次元的に追加される.手話にも独立した単語としての副詞や形容詞,助動詞に相当する単語が存在するが,これとは別に,手話単語を表現する手の動きの速さや大小,強弱,顔の表情などが副詞(様態・程度)や形容詞(高さ・大きさ),アスペクト(起動・継続),モダリティ(勧誘)などを表す束縛形態素となり,ベースとなる単語と同時に表現される場合がある.このような情報については,その語彙内容を修飾パラメータに記述する.この記述にも便宜上,次のように日本語を援用する.\begin{ex}長い(;とても)&//「とても長い」\\\tt木(;高い)&//「高い木」\end{ex}\subsection{特殊な単語}\subsubsection*{指差しの表記}手話での指差しには,\MARU{1}話し手,聞き手,あるいは,手話単語(またはそれが表現された空間上の位置)を指して代名詞や限定詞として使う用法,\MARU{2}述語や文全体を指して,「〜するのは…」のように名詞化する形式名詞的な用法,\MARU{3}身体の一部を指して名詞として使う用法がある\cite{Matsumoto2001,Kanda1996}.\MARU{1}および\MARU{2}の用法での指差しは,``{\ttPt}''という手話単語名で表し,指差しが指す位置は空間パラメータで{\ttPt($x$)}のように指定する.手話単語〈私〉と〈あなた〉はそれぞれ{\ttPt(1)}と{\ttPt(2)}の別名である.同様に〈それ〉は直前の単語への指差し,〈あれ〉は会話の場にいない第三者を表す左右遠方への指差しに対する別名である.\MARU{3}の用法についてはその指差しによって表される名詞(「目」「耳」「鼻」など)を単語名として記述する.\subsubsection*{非利き手の指を代名詞的に用いた数詞の表記}手話には1,2,3,...や,第1,第2,第3,...といった通常の数詞に加え,指を代名詞的に使った手話特有の数詞があり,これらを松本(2001)は順序数詞,順位数詞,限定数詞と呼んでいる.順序数詞は複数の単語や文を順に列挙しながら,数え上げていく場合に用いられる数詞で,動作としては,握り拳をゼロとして出発し,順に指を立てたり,立てた指を他方の手の人さし指で触れるといった表現になる.数え上げていく過程で,それぞれの指に単語が対応づけられ,後にそれぞれの指が代名詞として参照される場合もある.順序数詞は``{\ttEnum}''という手話単語名と手形パラメータにより次のように記述する.\begin{ex}私Enum[1],妹Enum[2]&//私と妹\end{ex}順位数詞は全体の数があらかじめ判っていて,そのうちの何番目かを指定する数詞である.動作としては,全体の数に相当する本数の指を立て,指定する順位の指を他方の手でつまんだり,指差して指定する.それぞれの指が代名詞として何を指すかは,立てた指全体が兄弟のように序列のある集合を表す場合は自ずと明らかである(この場合,数を表現する手は横向きにして,上下にならんだ指で代名詞間の上下関係を表現する)が,前述の順序数詞を表現することによって1つずつ定義される場合もある.順位数詞は``{\ttRef}''という手話単語名と手形パラメータにより次のように記述する.\begin{ex}Ref[1/3]&//3人のうちの1番目\end{ex}限定数詞は,立てた指の内の何本かを倒すことにより,「いくつかの内のうちいくつかについては」のように数を限定する働きを持つ.``{\ttQuant}''という手話単語名と手形パラメータにより次のように記述する.\begin{ex}Quant[2/4]&//4人の内の2人\end{ex}\subsection{複合語などの単語の合成}\label{sec:compound}複合語(単語の逐次的な合成)は次のように記述する.\begin{ex}手話-サークル&//手話サークル\end{ex}両手で異なる単語を表現した単語の同時的な合成は次のように,\begin{ex}電話\verb+|+仕事&//電話しながら仕事をする\end{ex}そして,1つの単語を表現した後,その一部を保持したまま,次の単語と同時に表現する半同時的な合成は下のように表記する.\begin{ex}家/帰る(→家)&//家に帰る\end{ex}この例では,〈家〉を両手で表現した後,片手をそのまま残し,他方の手で〈帰る〉を表現する.〈帰る〉の動きの終点は,その目的地を表す.ただし,一般的な複合語については一つの単語名(別名)で表すことも許す.例えば,「病院」は「脈{\tt-}ビル」の別名である.\subsection{句読点}\label{sec:punctuation}文末は``。\unskip''で表す.ただし,疑問文の文末は``?''で表す.単語の並びが同じでも,平叙文と疑問文では顔の表情などの非手指要素が異なっており,実際の手話表現ではそれらを区別することができる.表記上,その違いをこれらの文末記号で表す.節や句などの構文的な切れ目は``{\tt,}''または``{\tt;}''で表す.これらは動作的には頷きや時間的な間,瞬きなどで表現される.動詞の後ろに置かれ,モダリティ等を表す助動詞に相当する単語が手話にも存在するが,手話の助動詞は,少数の例外を除き,動詞または形容詞としての用法をもつ\cite{Ichida2000,Matsumoto2001}.これらは述語として用いられるときと,助動詞として用いられるときとで表現に違いが表れる\cite{Kimura1995}.そのため,助動詞として用いられる場合には,``\verb+~+''を前置して助動詞的用法であることを明示する.\subsection{非手指要素}\label{sec:nms}ここでは非手指要素による文法的な標識の表記について述べる.\subsubsection*{非手指文法標識}木村・市田(1995)は話題化,平叙文,yes-no疑問文,wh疑問文,条件節などの標識となる非手指要素について述べている.表\ref{tab:markers}にその例を示す\footnote{現実の手話表現では,個人差やそのときの状況,話者の感情状態,ニュアンスの違いなどによって動作に変化があるものと考えられる.}.前述の句読点も非手指要素による文法標識を表す記号であるが,その他に次のような形式で非手指要素を表記する.\begin{ex}\{$<${\itNMS}$>$単語列\}\end{ex}これは,「単語列」に$<${\itNMS}$>$で示される非手指要素が伴うことを表す.ただし,$<${\itNMS}$>$部には,基本的に非手指要素の動作そのものではなく,それによって表現される機能を記述する.例)話題化:$<${\ttt}$>$,条件節:$<${\ttcond}$>$,同意を求める文:$<${\ttconf}$>$,強調:$<${\ttem}$>$.\begin{table}[tb]\centering\caption{非手指要素による文法標識の例.条件節の動作説明は米川(2005b)\nocite{Yonekawa2005b}から,その他は\\木村・市田(1995)から抜粋}\begin{tabular}{|l|p{9.6cm}|}\hline\multicolumn{1}{|c|}{表現内容}&\multicolumn{1}{c|}{一般的な動作}\\\hline\hline平叙文&文が終わったところ,または,最後の単語で頷く.\\\hlineyes-no疑問文&\begin{tabular}{@{}p{9.6cm}@{}}視線が聞き手に向かう.眉を上げ,最後の単語でうなずくか,あごを引いたまま答えを待つ.文末の単語は手の動きが終わった状態でしばらく保持される.\end{tabular}\\\hlinewh疑問文(疑問詞疑問文)&\begin{tabular}{@{}p{9.6cm}@{}}文末の単語が,相手の答えを待つように,手の動きが終わった状態でしばらく保持されるか,小刻みな動きが繰り返される.眉を上げるか下げるかし,あごを前方か斜め前方に突き出すようにし,さらにあごを左右に小刻みにふったりする.\end{tabular}\\\hline同意を求める文&\begin{tabular}{@{}p{9.6cm}@{}}文末のうなずきに,疑問文の特徴である文末の単語と表情の保持と眉上げが加わる.\end{tabular}\\\hline命令文&\begin{tabular}{@{}p{9.6cm}@{}}文全体または文末の指差しの直前の単語であごを上げる.命令の強さは表情で示す.\end{tabular}\\\hline修飾関係&\begin{tabular}{@{}p{9.6cm}@{}}名詞の並びが修飾関係なら,うなずきがなく連続的に表現される.\end{tabular}\\\hline並列関係&名詞の並びが並列関係なら,名詞ごとにうなずきがある.\\\hline話題化・焦点化&\begin{tabular}{@{}p{9.6cm}@{}}(話題化する語句を文頭に移動して)文頭で眉を上げ,語句の終わりで顎を引く.\end{tabular}\\\hline修辞疑問文(wh分裂文)&疑問詞の位置まではyes-no疑問文と同じで,疑問詞の直後で元に戻す.\\\hlineできごと・行動の順序&\begin{tabular}{@{}p{9.6cm}@{}}できごと・行動の順序どおりに,2つの文をつなげる場合,最初の文の動詞を少しの時間そのまま保ち,うなずいてから,次の文に進む.\end{tabular}\\\hline理由を述べる従属節&\begin{tabular}{@{}p{9.6cm}@{}}述語が形容詞の場合,述語を少しの時間そのまま保ち,うなずいてから次の文に進む.述語が動詞の場合はまゆを上げるか下げるという動作が加わる.\end{tabular}\\\hline原因・目的&\begin{tabular}{@{}p{9.6cm}@{}}原因を表す語でうなずく.原因を表す語の後に〈ため〉が続く場合は,〈ため〉の部分でうなずく.\end{tabular}\\\hline条件節&\begin{tabular}{@{}p{9.6cm}@{}}条件節では眉を上げ,頭と体を少し前に傾ける.続く主節が平叙文の場合,間を置いてから,まゆを下げ,頭と体を元の位置に戻す.\end{tabular}\\\hline\end{tabular}\label{tab:markers}\end{table}\subsubsection*{発言・行動の引用}他者や過去の自分の言動が直接話法的に引用される場合,引用部分では,その言動を行なった人物が配置された位置に応じて(その人物の役を演じるように)上体が少しシフトしたり,現実の聞き手に向かっていた視線が,引用内での聞き手へ移るなどの非手指要素が文法標識となることがある.非手指要素だけでなく,「あなた」を意味する聞き手への指差しや一致動詞の方向も,現実の聞き手ではなく,引用される文中の聞き手に向かう.例えば,「彼が私に『君が好きだ』と言う」という意味の手話において,図\ref{fig:referentialShift}のように〈彼〉が話者の右前方に配置されると,引用部分では上体が少し左を向き,『君』を表す指差しも左前方を指す\cite{Yonekawa2005a}.このような引用部での非手指要素と手指動作の変化を次のように記述する.\begin{exB}彼(R)言う(R→1),\{$<$rs(R)$>$あなた好き\}。\end{exB}\begin{figure}\centering\epsfxsize=7.5cm\epsfbox{referentialShift.eps}\caption{手形変化の表記例.手話単語〈行く〉の基本形(右)と}\label{fig:referentialShift}\end{figure}
\section{手話映像の書き取り実験}
本手話表記法の記述力を検証するため,ネイティブの手話話者が表現した手話映像を本表記法で書き取る実験を行った.対象としたのは,手話学習者向けビデオ教材「手話ジャーナル」のうちの2巻\cite{SignFactory1997,SignFactory1999}に含まれる720文である.ビデオにはそれぞれ4人のろう者が,家族・仕事・食事など日常の話題について日本手話で話している様子が撮影されている.\subsection{実験方法}ビデオには手話に対する自然な日本語訳のほか,手話文の構造に即して訳された構造訳が付属している.その構造訳を参考にしながら,手話映像を解析し,手話単語名とその語形変化,非手指文法標識等を,前節で定義した表記法で書き取った.手話単語名は『日本語-手話辞典』(日本手話研究所1997)のイラスト名を基本とし,他の手話辞書の見出しも参考にした.\subsection{結果と考察}実験の結果,720文のうち,本表記法で記述できたものは671文(約93\%)であった.表記例とその日本語訳を表\ref{tab:examples}に示す.\begin{table}[tb]\centering\caption{手話表記例.本表記法で記述した手話文(上段)とその日本語訳(下段).日本語訳の\\括弧内は構造訳を表す.}\label{tab:examples}\begin{tabular}{|l|p{12cm}|}\hline\raisebox{-1zw}{例1}&\tt\{$<$t$>$私家族\},私Enum[1],兄Enum[2],両親Enum[\{3,4\}]。\\\noalign{\vskip-.5zw}\cline{2-2}&私の家族は,私と兄と両親の4人です。\\\hline\raisebox{-1.5zw}{例2}&\tt\{$<$t$>$Ref[\{1,2\}/4]\}両親;\{$<$t$>$Ref[3/4]\}私;\{$<$t$>$Ref[4/4]\}妹。\\\noalign{\vskip-1zw}\cline{2-2}&\begin{tabular}{l}両親と私と妹です。\\(1番目と2番目は両親,3番目は私,4番目は妹です。)\end{tabular}\\\hline\raisebox{-2zw}{例3}&\tt\{$<$t$>$私,父(R),母(R),3/人(R)\}聾唖;\{$<$t$>$祖父(L),祖母(L),2/人(L)\}健聴。\\\noalign{\vskip-.5zw}\cline{2-2}&\begin{tabular}{l}私と父,母はろう者,祖父と祖母は聴者です。\\(私と父,母の3人はろう者,祖父と祖母の2人は聴者です。)\end{tabular}\\\hline\raisebox{-1.5zw}{例4}&\ttテレビ観る(→L),妻(R)Pt(R)一緒,会話(1→R)見る(1→L)食べる;650,家出る。\\\cline{2-2}&テレビを見ながら,また,妻と話をしながら食べて,6時50分に家を出ます。\\\hline\raisebox{-1zw}{例5}&\tt\{$<$cond$>$仕事終わる以降,必要ない\},はやい帰る。\\\noalign{\vskip-.5zw}\cline{2-2}&仕事が終わって,用事がない場合は,早く帰ります。\\\hline\raisebox{-1zw}{例6}&\tt\{$<$em$>$今いいえ\},過去(;とても)古い(;とても)本読む好き。\\\noalign{\vskip-.5zw}\cline{2-2}&最近のものではなく,昔の古い本を読むのが好きです。\\\hline\raisebox{-1zw}{例7}&\tt\{$<$t$>$意味\},日本-手話教える,行く[男](1→3s)たくさん。\\\noalign{\vskip-.5zw}\cline{2-2}&どうしてかというと,手話を教えにあちこち行くことが多いからです。\\\hline\raisebox{-1zw}{例8}&\tt\{$<$t$>$姉\}過去結婚終わる。\\\noalign{\vskip-.5zw}\cline{2-2}&姉は既に結婚しています。(姉はもう以前に結婚しました。)\\\hline\raisebox{-2zw}{例9}&\tt\{$<$t$>$今\}\{$<$t$>$友達\}いじめる($x$→1)\{$<$rs($x$)$>$あなた手話教える趣味\}話す($x$→1)。\\\noalign{\vskip-.5zw}\cline{2-2}&最近友達からは,おまえ手話を教えるのが趣味なんだろうとからかわれます。(いま友達がからかって,おまえ手話を教えるのが趣味なんだろう,と言います。)\\\hline\raisebox{-1zw}{例10}&\tt去年,3|月,$n$年[20]-目とき死ぬ。\\\noalign{\vskip-.5zw}\cline{2-2}&去年3月に20年目で死んでしまいました。\\\hline\end{tabular}\end{table}残りの49文(51表現)については,本表記法では十分表記できないと判断した.これら51表現の分類と表現例を表\ref{tab:problems}に示す.\begin{table}[tb]\centering\caption{十分表記できなかった手話表現の分類とその例}\label{tab:problems}\begin{tabular}{|l|p{4.4cm}|p{4cm}|l|r|}\hline&\multicolumn{1}{c|}{分\hskip2zw類}&\multicolumn{1}{c|}{手話動作例}&\multicolumn{1}{c|}{日本語訳}&\multicolumn{1}{c|}{数}\\\hline\hline1&語句をパントマイム的に説明&\begin{tabular}{@{}p{4cm}@{}}2本の柱と,その間にたわんで掛かる線を描写\end{tabular}&電線&11\\\hline2&実際の動作・反応を再現&「あっ」と驚いた表情&気がつく&10\\\hline3&大きさ・高さの実寸を手で示す&両手で楕円を形作る&これくらい&3\\\hline4&\begin{tabular}{@{}p{4.4cm}@{}}先に表現された単語の部分や相対的な位置の指定\end{tabular}&\begin{tabular}{@{}p{4cm}@{}}〈日本〉における山口県の地理的な位置を指示\end{tabular}&西日本のこの辺り&8\\\hline5&\begin{tabular}{@{}p{4.4cm}@{}}手話単語(手形)を実際の動きや位置関係に即して表現\end{tabular}&\begin{tabular}{@{}p{4cm}@{}}両手で2つの〈座る〉を向かい合わせに表し,話者の右側に配置\end{tabular}&隣の席に向かい合って座る&13\\\hline6&数量変化や時間経過の表現&\begin{tabular}{@{}p{4cm}@{}}〈お金〉を大きく上下させながら横に移動\end{tabular}&(ボーナスが)乱高下する&4\\\hline7&\begin{tabular}{@{}p{4.4cm}@{}}単語を連続的に組み合わせた複雑な表現\end{tabular}&省略(本文中に記載)&\multicolumn{1}{c|}{\rule{5zw}{.3pt}}&2\\\hline\end{tabular}\end{table}分類1は,対応する手話単語が存在しないか,一般的でないために,語句をパントマイム的な身振りで説明したり,視覚的に分りやすく補足する表現である.「電線」,「スカッシュ」,「キャッチボール」,「給与明細」,「腰の曲がったおばあさん」などの表現が見られた.本表記法では手話単語を基本に手話文を表記するため,単語化されていない自由な動作で表現された手話文を表記することができなかった.これらの表現を記述するためには,語句を説明している一連の身振り(あるいは,それを構成する個々の身振り)に単語名を定義する必要がある.分類2は,「疑うような目で見る」,「どきっとする」などの表情や動作をそのまま再現した表現で,分類1と同様,単語化されていない表現のため,表記できなかった.分類3は,飼っていた亀やネコの大きさとその変化,缶ビールのサイズなどを「これぐらい」と手で実物の大きさを示す表現である.「大きい」「小さい」といった抽象的な情報ではなく,視覚的に表された具体的な寸法の情報をテキストとして表記するのは難しく,今のところどのように表記するか定義できていない.分類4は,「〈ビル〉の1階」「〈道路〉の両側」のように,単語で表現された物の一部やそれを基準にした相対的な位置を指差しなどで示す表現である.このような表現に対する表記も今のところ定義しておらず,表記できなかった.分類5は,手話単語を現実世界の動きや位置関係に合わせて自由に動かす表現である\footnote{これらの動詞は空間動詞(spatialverb),あるいは,類辞述語(classifierpredicate)などと呼ばれる\cite{Sutton-Spence1999}.}.左右の手で表した〈座る〉を向かい合わせに配置して「向かい合わせに座る」や,〈男〉を倒して「息子が寝る」,〈男〉を前方に傾けた手形(動物の動き表すときに用いられる)を素早くランダムに動かして「(猫が)部屋中を荒らし回る」,などの表現が見られた.これらを表記するには,1)それぞれに単語名を与え,独立した単語として扱う,あるいは,2)例えば「向かい合う」という単語を定義し,その手形として〈座る〉を指定することで「向かい合わせに座る」を表記するか,3)〈座る〉の修飾パラメータとして「向かい合って」を指定する,といった方法が考えられる.ただし,「並木の間を歩いていって右に曲がる」という意味の手話文は,〈道路〉と〈木〉で表現された並木道に沿って〈歩く〉を動かし,途中で歩く方向を右に変えることによって表現されていた.このように,動きや配置が多様な上,他の単語との位置関係が重要な表現(分類4)の表記は困難である.分類6は,空間上に単語をプロットしてグラフを描くようにして金額や頻度の変動を表したり,時計の針の動きで時間の経過を表す表現である.これは分類5の一種と考えることもできる.グラフ的に表される変化の様子(手の動き)は,「増加」「減少」「一定」「乱高下」「急落」などある程度限られるため,それぞれ単語として定義し,何が変化するかをその手形変化として表記するという方法が考えられる.分類7は,単語を使っているが,その組合せ方が複雑で,表記しきれない手話表現である.そのうちの1つは,「祖母には後継ぎがなく,祖父の面倒を見て,その祖父が亡くなり,…」という意味の文であった.図\ref{fig:couple}に示すように,手話単語〈結婚〉は左右の手で〈男〉と〈女〉を表現し,それらを寄り添わせる動作によって表される.そしてこの寄り添った状態は〈夫婦〉を表す.この文の表現ではまず,〈夫婦〉を目の高さに近い位置で表現することで,目上の夫婦を表現し,眉を上げながら〈女〉を表す手を小刻みに振ることで,祖母についての話であることが示される.次に,〈女〉を表していた手で,〈生まれる〉〈ない〉を表し(祖母には後継ぎがない),〈男〉に向かって〈助ける〉を表現する(祖父の面倒を見る).再び〈夫婦〉を表してから,今度は〈男〉の手で〈死ぬ〉を表現する(祖父が亡くなる).手話単語だけを使った表現だが,現状では〈夫婦〉の構成要素である〈女〉側の手で単語を表現するという指定ができない,また,非手指文法標識のスコープを表すブロックと(半)同時的な合成を表すブロックがオーバーラップしてしまい中括弧の対応が曖昧になるなどの問題があり,表記することができなかった.これらに対する表記方法を検討する必要がある.\begin{figure}\centering\epsfxsize=3.5cm\epsfbox{couple.eps}\caption{多形態素からなる手話単語〈結婚〉}\label{fig:couple}\end{figure}以上,書き取りきれなかった手話表現について述べたが,その他に今後検討すべき点として,同形異義語を区別する口型(唇の動き)の表記への反映,および,複数の文から成る談話を表記対象としたときの位置変数の有効範囲指定が挙げられる.また,本表記法で書かれた手話文から動作記述を合成する過程では,語形変化パラメータの修飾要素の処理が大きな問題となることが予想される.
\section{関連研究}
日本語などの音声言語が,音声だけでなく文字による表現を持つことの重要性を考えれば,手話を音声言語に訳さず,手話言語のままテキストとして扱えることは,手話の使用者(手話研究者や学習者を含む)にとっても有用であると考えられる.このため,従来から目的に応じていくつかの表記法が考案されてきた.その多くは,音声言語における発音記号のように,手話の動作そのものを書き取り,再現するのに適した表記法である.HamNoSys(HamburgSignLanguageNotationSystem)は国際音声記号のように,特定の国の手話に依存しないことを目指した表記法である\cite{Prillwitz2004}.手話単語を構成する手の形や位置,動き,掌の向き,非手指要素といった個々の要素を約200種類の単純な図形記号(文字)で表し,それらを一定の順序で一列に並べることによって一つの手話単語の動作を表記する.例えば,図\ref{fig:bear}(a)に示すアメリカ手話で熊を表す手話単語は,同図(b)のような記号列により表現される.直感的には分りにくいが,研究用途での使用を想定しており,動作の詳細な記述が可能となっている.\begin{figure}\centering\epsfxsize=10cm\epsfbox{bears_in_asl.eps}\caption{ASLの``熊''を表す手話単語の表記:(a)イラストによる描写\cite{Fant1994},\\(b)HamNoSysによる表記\cite{Bentele1999},(c)SignWritingによる表記\\\cite{Sutton2006}}\label{fig:bear}\end{figure}SignWritingはダンスの振り付け表記法(DanceWriting)をもとに,1974年Suttonによって考案された手話表記法である\cite{Sutton2002}.HamNoSysと同様,基本となる記号(InternationalMovementWritingAlphabet,IMWA)を組み合わせて手話単語を表現するが,基本記号を一列に並べるのではなく,図\ref{fig:bear}(c)のように,2次元的に配置することにより,直感的に分りやすい表記になっている.基本記号は手の形,動き,顔など8つカテゴリ,約450種類が定義されている.HamNoSysとは対照的に,手紙や新聞,文学,教育など,主に日常生活で使用されることを想定している.SignWritingを日本手話用に拡張する研究も行なわれている\cite{Honna1990}.sIGNDEX\cite{Ichikawa2001,SILE2005}は手話単語をローマ字表記の日本語ラベルで表し,同時表現や非手指要素を表す記号を付加して手話文を表記する.個々の単語における詳しい手指動作についてはビデオ画像によって別途与えている(sIGNDEXV.1の動画語彙数は545語).眉の上げ下げ(eBU,eBD),目の開閉(eYO,eYS),口角の動き(cLD,cLP)など,目に見える動作を現象的に捉え,記号化することを基本としている.図\ref{fig:signdex}にsIGNDEXによる手話表記例を示す.以上は,手話の動作そのものを書き取ることを目的とした表記法であった.一方,徳田・奥村(1998)\nocite{Tokuda1998}は,計算機上で手話を自然言語として処理することを目的とした表記法を提案している(図\ref{fig:tokuda}).手話単語には手話単語辞書に登録された日本語見出しを使用し,指文字表記や,代名詞に対する働きかけを表す動作の表現(左手で代名詞,右手で動詞),単語の繰り返しなどの表記を定義した.しかし,基本的に日本語対応手話を表記対象としているため,非手指要素や語形変化を表記する方法については定義されていない.\begin{figure}[tb]\centering\begin{minipage}{.65\linewidth}\begin{screen}[4]\small\setlength{\baselineskip}{12pt}\begin{verbatim}pT2dOCHIRA+@eBU+@eYO+hDN+mOS-DOCCHIkOOCHA+hDN+mOS-KOOCHAkOOHII+hDN+mOS-KOOHIIdOCHIRA+eS2+hDF+mOS-DOCCHI+@@eBU+@@eYO+eYB//\end{verbatim}\end{screen}\end{minipage}\caption{sIGNDEXによる手話表記例.「コーヒーと紅茶,どちらがよい\\ですか?」に対する手話表記.\cite{Ichikawa2001}から引用}\label{fig:signdex}\vspace*{2ex}\begin{minipage}{.65\linewidth}\small\begin{screen}[4]\tt\hfil今日/本/買う\end{screen}\end{minipage}\caption{文献\cite{Tokuda1998}から引用した手話表記例.「今日,\\本を買った。」に対する手話表記}\label{fig:tokuda}\vspace*{2ex}\begin{minipage}{.65\linewidth}\begin{screen}[4]\small\setlength{\baselineskip}{12pt}\begin{verbatim}[[[],[[主格,[[[[[imoto.t,[rm,yes],[],[]],[[が,助詞,jyosi_ga.t],[],[],[]]],_]]]],[奪格,[[[[[kyoto.t,[rm,yes],[],[]],[[から,助詞,jyosi_kara.t],[],[],[]]],_]]]],[対格,[[[[[tokyo.t,[lm,yes],[],[]],[[に,助詞,yubi_ni.t],[],[],[]]],_G454]]]]],[[iku.t,[終始可変,rm,lm],[],[]],[ます。],_]]]$\end{verbatim}\end{screen}\end{minipage}\caption{文献(池田・岩田・黒川2003)から引用した手話表記例.\\「妹が京都から東京に行きました。」に対する手話表記}\label{fig:ikeda}\end{figure}池田・岩田・黒川(2003)は,中間型手話を対象とした日本語-手話翻訳システムにおいて,手話文の格フレーム(入力日本語文の格フレーム中の日本語形態素を手話形態素に置き換えたもの)からトークファイルと呼ばれる手話動作記述ファイルを生成する際の中間形式として,手話表記法を定義して用いている.各形態素での手の位置情報が記述可能となっており,格関係が,名詞や動詞の位置情報として記述される.表記例を図\ref{fig:ikeda}に示す.表記には,入力日本語文中の機能語情報が残され,組み込まれている.テキストという形式はとっているが,他の表記法のように手話を記号化して読み書きするためのものではなく,翻訳過程(図\ref{fig:sltext})における中間表現(中間言語)に相当するものと考えられる.このため,手話を書き取り,記録し,コーパスを構築するような用途には適していない.一方,我々は,音声言語に対する文字表現に相当するものとして手話テキストを捉え,手話文を読み書きすることを念頭に置いた上で,計算機でも処理しやすい表記法を目指した.前述のように手話には複数のチャネルを使って複数の形態素を組み合わせた表現が見られる.しかし,池田・岩田・黒川(2003)ではこのような同時的な語順に対する表記は定義されていない.同研究は,ほぼ日本語の語順に沿って表現される中間型手話を目的言語としているため,手話と日本語との語順の違いについては重視されていないのかもしれない.あるいは,表記中に残された日本語情報から,手話の語順を決定することが可能かもしれない.しかし,手話への翻訳過程を「言語的な変換(テキスト間の翻訳)」と「表現の変換」に分けたとき,どのような単語をどのような語順で表出するかは前者の段階で決定されるべき問題であり,そのためには手話表記法が語順を記述できる必要がある.本論文で提案した表記法では,手形と動作による同時的表現は語形変化(\ref{sec:inflection}節)として,左右の手による同時表現は単語の合成(\ref{sec:compound}節)として記述可能である.非手指要素が手指要素と同時的に表現される場合も多いが,徳田・奥村(1998),池田・岩田・黒川(2003)ともに,非手指要素の記述方法は定義していない.いずれも音声日本語を伴う手話を表記対象としており,そのような手話では日本語の口話と手指による表現が互いに情報を補完し合うために,非手指要素の役割が小さくなり,表記する必要性が低いと考えられる.しかし,音声日本語を伴わない日本手話では,非手指要素が話題化,疑問などの文法標識となるなど,文法的にも重要な役割も持ち,非手指要素なしでは正しく意味が伝わらないため,本表記法では,非手指文法標識(\ref{sec:nms}節)や句読点(\ref{sec:punctuation}節)として記述できるようにした.語形変化に関しては,既存の表記法でも一致動詞の方向を記述できるものはあるが,数の一致に伴う動作や手形の変化については,表記を定めたものは見あたらない.本論文では,手形変化パラメータ,位置の複数形,位置集合(\ref{sec:inflection}節)を定義することにより,手話の言語的な構造に沿う形で,記述できるようになった.
\section{おわりに}
本論文では日本手話をテキストとして表現するための表記法を提案した.従来の多くの手話表記法のように,手話の動作を正確に書き取ることを目的とするのではなく,動作によって表される意味的・文法的な情報,言語的な構造の記述に重点を置くことにより,個々の単語や単語間の動作の遷移など,動作の詳細に立ち入らずに手話文を記述することができ,日本語-日本手話機械翻訳の問題から動作合成の問題を切り離すことに貢献できる表記法となった.テキスト化によって,微妙なニュアンスなど失われる部分もあるが,文の構造や基本的な意味は正しく伝えられるものと考えている.表記法の表現力検証のため,手話を母語とする手話話者によって表現された720文の手話映像を対象に,書き取り実験を行なった.その結果,約93%の文については表記することができたと考えている.十分表記できなかった51表現を分析し,問題点について考察した.日本語-手話機械翻訳システムの構築を進めていく上での今後の課題として,手話の語彙の範囲で,手話の構造に沿った自然な手話テキストを生成するために必要となる,入力日本語テキストに対する換言処理があげられる.また,次の段階では手話テキストから動作記述を生成するという大きな課題がある.現在我々は,日本語テキスト(構造訳レベル)から本表記法での手話テキストへの機械翻訳システムの試作を行なっている.さらに,SignWritingで書かれた手話への機械翻訳についても検討している.\acknowledgment本研究を進めるにあたり,岐阜県立岐阜聾学校教諭鈴村博司氏・長瀬さゆり氏,岐阜大学教育学部池谷尚剛教授から貴重なご助言・コメントをいただきました.ここに記して感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{秋山\JBA亀井}{秋山\JBA亀井}{2004}]{Akiyama2004}秋山なみ\JBA亀井伸孝\BBOP2004\BBCP.\newblock\Jem{手話でいこう---ろう者の言い分聴者のホンネ}.\newblockミネルヴァ書房.\bibitem[\protect\BCAY{Baker-Shenk\BBA\Cokely}{Baker-Shenk\BBA\Cokely}{1980}]{Baker-Shenk1980}Baker-Shenk,C.\BBACOMMA\\BBA\Cokely,D.\BBOP1980\BBCP.\newblock{\BemAmerican{S}ign{L}anguage,ATeacher'sResourceTextonGrammarandCulture}.\newblockClercBooks,GallaudetUniversityPress.\bibitem[\protect\BCAY{Bentele}{Bentele}{1999}]{Bentele1999}Bentele,S.\BBOP1999\BBCP.\newblock\BBOQGoldilocks\&thethreebearsinHamNoSys\BBCQ\\newblockhttp://signwriting.org\allowbreak/forums/linguistics/ling007.html.\bibitem[\protect\BCAY{ト\JBA池田}{ト\JBA池田}{2004}]{Bu2004}ト朝暉\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日中機械翻訳における否定文の翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\97--122}.\bibitem[\protect\BCAY{Fant}{Fant}{1994}]{Fant1994}Fant,L.\BBOP1994\BBCP.\newblock{\BemTheAmericanSignLanguagePhraseBook}.\newblockContemporaryBooks.\bibitem[\protect\BCAY{藤重\JBA黒川}{藤重\JBA黒川}{1997}]{Fujishige1997}藤重栄一\JBA黒川隆夫\BBOP1997\BBCP.\newblock\JBOQ意味ネットワークを媒介とする日本語・手話翻訳のための日本語処理\JBCQ\\newblock\Jem{計測自動制御学会ヒューマン・インタフェース部会HumanInterfaceNewsandReport},{\Bbf12}(1),\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{Gordon}{Gordon}{2005}]{Gordon2005}Gordon,Jr.,R.~G.\BED\\BBOP2005\BBCP.\newblock{\BemEthnologue:LanguagesoftheWorld,Fifteenthedition}.\newblockSILInternational.\newblockOnlineversion:http://www.ethnologue.com/.\bibitem[\protect\BCAY{本名\JBA加藤}{本名\JBA加藤}{1990}]{Honna1990}本名信行\JBA加藤三保子\BBOP1990\BBCP.\newblock\JBOQ手話の表記法について\JBCQ\\newblock\Jem{日本手話研究所所報},{\Bbf\rule{0pt}{1pt}}(4),\mbox{\BPGS\2--9}.\bibitem[\protect\BCAY{市田}{市田}{1998}]{Ichida1998}市田泰弘\BBOP1998\BBCP.\newblock\JBOQ日本手話の名詞句内の語順について\JBCQ\\newblock\Jem{日本手話学会第24回大会論文集},\mbox{\BPGS\50--53}.\bibitem[\protect\BCAY{市田}{市田}{1999}]{Ichida1999}市田泰弘\BBOP1999\BBCP.\newblock\JBOQ日本手話一致動詞パラダイムの再検討---「順向・反転」「4人称」の導入から見えてくるもの---\JBCQ\\newblock\Jem{日本手話学会第25回大会論文集},\mbox{\BPGS\34--37}.\bibitem[\protect\BCAY{市田\JBA川畑}{市田\JBA川畑}{2000}]{Ichida2000}市田泰弘\JBA川畑裕子\BBOP2000\BBCP.\newblock\JBOQ日本手話の助動詞について\JBCQ\\newblock\Jem{日本手話学会第26回大会論文集},\mbox{\BPGS\6--7}.\bibitem[\protect\BCAY{市田}{市田}{2005}]{Ichida2005}市田泰弘\BBOP2005\BBCP.\newblock\JBOQ自然言語としての手話\JBCQ\\newblock\Jem{月刊言語},{\Bbf34}(1),\mbox{\BPGS\90--97}.\bibitem[\protect\BCAY{市川}{市川}{2001}]{Ichikawa2001}市川熹\BBOP2001\BBCP.\newblock\JBOQ手話表記法sIGNDEX\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(39),\mbox{\BPGS\17--23}.\bibitem[\protect\BCAY{池田\JBA岩田\JBA黒川}{池田\Jetal}{2003}]{Ikeda2003}池田隆二\JBA岩田圭介\JBA黒川隆夫\BBOP2003\BBCP.\newblock\JBOQ日本語手話翻訳のための言語変換とそこにおける語形変化規則の処理\JBCQ\\newblock\Jem{ヒューマンインタフェース学会研究報告集},{\Bbf5}(1),\mbox{\BPGS\19--24}.\bibitem[\protect\BCAY{神田\JBA藤野}{神田\JBA藤野}{1996}]{Kanda1996}神田和幸\JBA藤野信行\JEDS\\BBOP1996\BBCP.\newblock\Jem{基礎からの手話学}.\newblock福村出版.\bibitem[\protect\BCAY{河野\JBA黒川}{河野\JBA黒川}{2004}]{Kawano2004}河野純大\JBA黒川隆夫\BBOP2004\BBCP.\newblock\JBOQ日本語手話翻訳システムの開発\JBCQ\\newblock\Jem{知能と情報(日本知能情報ファジィ学会誌)},{\Bbf16}(6),\mbox{\BPGS\485--491}.\bibitem[\protect\BCAY{日本手話研究所}{日本手話研究所}{1997}]{JISLS1997}日本手話研究所\JED\\BBOP1997\BBCP.\newblock\Jem{日本語-手話辞典}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{木村\JBA市田}{木村\JBA市田}{1995}]{Kimura1995}木村晴美\JBA市田泰弘\BBOP1995\BBCP.\newblock\Jem{はじめての手話---初歩からやさしく学べる手話の本}.\newblock日本文芸社.\bibitem[\protect\BCAY{マニンコウシン\JBA福本\JBA池田尚志}{マニンコウシン\Jetal}{2004}]{Ngin2004}マニンコウシン\JBA福本真哉\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日本語-ミャンマー語機械翻訳システムjaw/Myanmarにおける述語構造の翻訳について\JBCQ\\newblock\Jem{第3回情報科学技術フォーラムFIT2004講演論文集},\mbox{\BPGS\139--142}.\bibitem[\protect\BCAY{松本}{松本}{2001}]{Matsumoto2001}松本晶行\BBOP2001\BBCP.\newblock\Jem{実感的手話文法試論}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{松本\JBA谷口\JBA吉田\JBA田中\JBA池田}{松本\Jetal}{2005}]{Matsumoto2005a}松本忠博\JBA谷口真代\JBA吉田鑑地\JBA田中伸明\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語-手話機械翻訳システムに向けて---テキストレベルの翻訳系の試作と簡単な例文の翻訳---\JBCQ\\newblock\Jem{信学技報},{\Bbf104}(637),\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Matsumoto,Taniguchi,Yoshida,Tanaka,\BBA\Ikeda}{Matsumotoet~al.}{2005}]{Matsumoto2005b}Matsumoto,T.,Taniguchi,M.,Yoshida,A.,Tanaka,N.,\BBA\Ikeda,T.\BBOP2005\BBCP.\newblock\BBOQAproposalofanotationsystemfor{J}apanese{S}ign{L}anguageandmachinetranslationfromJapanesetexttosignlanguagetext\BBCQ\\newblockIn{\BemProceedingsoftheConferencePacificAssociationforComputationalLinguistics(PACLING2005)},\mbox{\BPGS\218--225}.\bibitem[\protect\BCAY{{Nguyen,}~M.\JBA池田}{{Nguyen,}~M.\JBA池田}{2005}]{Nguyen2005}{Nguyen,}~M.C.\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語-ベトナム語機械翻訳における連体修飾構造の翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\145--182}.\bibitem[\protect\BCAY{Prillwitzet~al.}{Prillwitzet~al.}{2004}]{Prillwitz2004}Prillwitz,S.et.~al\BBOP2004\BBCP.\newblock\BBOQSignLanguageNotationSystem\BBCQ\\newblockhttp://www.sign-lang.unihamburg.de/Projects/HamNoSys.html.\bibitem[\protect\BCAY{謝\JBA今井\JBA池田}{謝\Jetal}{2004}]{Shie2004}謝軍\JBA今井啓允\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日中機械翻訳システムjaw/Chineseにおける変換・生成の方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\mbox{\BPGS\43--80}.\bibitem[\protect\BCAY{手話情報学研究会}{手話情報学研究会}{2005}]{SILE2005}手話情報学研究会\BBOP2005\BBCP.\newblock\JBOQsIGNDEX表記法\JBCQ\\newblockhttp://www.ns.kogakuin.ac.jp/~wwc1015/sig-sile/signdex/top.html.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1997}]{SignFactory1997}SignFactory\BBOP1997\BBCP.\newblock\Jem{手話ジャーナル初級教材No.1(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1999}]{SignFactory1999}SignFactory\BBOP1999\BBCP.\newblock\Jem{手話ジャーナル初級教材No.2(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{Sutton}{Sutton}{2002}]{Sutton2002}Sutton,V.\BBOP2002\BBCP.\newblock{\BemLessonsInSignWriting,Textbook\&Workbook,3rded.}\newblockTheDeafActionCommitteeforSignWriting.\newblockhttp://www.signwriting.org/archive/docs2/sw0116-Lessons-SignWriting.pdf.\bibitem[\protect\BCAY{Sutton}{Sutton}{2006}]{Sutton2006}Sutton,V.\BBOP2006\BBCP.\newblock{\BemSignWritingSite}.\newblockTheDeafActionCommitteeforSignWriting.\newblockhttp://www.SignWriting.org/.\bibitem[\protect\BCAY{Sutton-Spence\BBA\Woll}{Sutton-Spence\BBA\Woll}{1999}]{Sutton-Spence1999}Sutton-Spence,R.\BBACOMMA\\BBA\Woll,B.\BBOP1999\BBCP.\newblock{\BemTheLinguisticsofBritishSignLanguage---AnIntroduction}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Thelijjagoda,Imai,Elikewala,\BBA\Ikeda}{Thelijjagodaet~al.}{2004}]{Thelijjagoda2004}Thelijjagoda,S.,Imai,Y.,Elikewala,N.,\BBA\Ikeda,T.\BBOP2004\BBCP.\newblock\BBOQJapanese-SinhaleseMTsystem(jaw/Sinhalese)\BBCQ\\newblockIn{\BemProceedingsofAsianSymposiumonNaturalLanguageProcessingtoOvercomeLanguageBarriers,IJCNLP-04SatelliteSymposium},\mbox{\BPGS\73--78}.\bibitem[\protect\BCAY{徳田\JBA奥村}{徳田\JBA奥村}{1998}]{Tokuda1998}徳田昌晃\JBA奥村学\BBOP1998\BBCP.\newblock\JBOQ日本語から手話への機械翻訳における手話単語辞書の補完方法について\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(3),\mbox{\BPGS\542--550}.\bibitem[\protect\BCAY{米川}{米川}{2002}]{Yonekawa2002}米川明彦\BBOP2002\BBCP.\newblock\Jem{手話ということば---もう一つの日本の言語}.\newblockPHP新書.\bibitem[\protect\BCAY{米川}{米川}{2004}]{Yonekawa2004}米川明彦\BBOP2004\BBCP.\newblock\Jem{NHKみんなの手話4--6月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川}{米川}{2005a}]{Yonekawa2005a}米川明彦\BBOP2005a\BBCP.\newblock\Jem{NHKみんなの手話4--6月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川}{米川}{2005b}]{Yonekawa2005b}米川明彦\BBOP2005b\BBCP.\newblock\Jem{NHKみんなの手話7--9月号}.\newblock日本放送出版協会.\end{thebibliography}\appendix
\section{表記法の構文と表記例}
\begin{center}{\bf表4}手話表記法の構文\\\vskip10pt\tablefirsthead{\hline}\tablehead{\multicolumn{1}{l}{\small前頁からの続き}\\\hline}\tabletail{\hline\multicolumn{1}{r}{\small次頁へ続く}\\}\tablelasttail{\hline}\begin{supertabular}{|p{13.6cm}|}手話文::=手話表現列文末記号\\手話表現列::=手話表現{[区切り記号]手話表現}\\文末記号::=``。\unskip''|``?''\\区切り記号::=``{\tt,}''\hfill//節,句など文法的な切れ目\\\hspace{6zw}|``{\tt;}''\hfill//相対的に大きな切れ目\\\hspace{6zw}|``{\tt\verb+~+}''\hfill//動詞と助動詞間の区切り\\手話表現::=手話単語|複合表現|ブロック\\手話単語::=単語名語形変化|指文字表現\\語形変化::=[``{\tt[}''手形``{\tt]}''][``{\tt(}''[空間][``{\tt;}''修飾]``{\tt)}'']\\手形::=手形名|指代名詞\\手形名::=手話単語名|指文字\hfill//手話単語や指文字${}^{*}$の手形\\\hfill//${}^{*}$指文字とは,手指で表された音声言語の文字(かな,英字,数字)\\指代名詞::=ゆび指定[``{\tt/}''手形名]\hfill//指を代名詞的に用いる表現\\ゆび指定::=ゆび名|``{\tt\{}''ゆび名{``{\tt,}''ゆび名}``{\tt\}}''\\ゆび名::=``1''|``2''|``3''|``4''|``5''|``男''|``女''\hfill//指を表す数や文字\\空間::=空間指定[``\verb+|+''空間指定]\\空間指定::=位置|方向\\位置::=単一位置|複数位置\\単一位置::=位置指定[位置修飾子]\hfill//人称位置\\位置指定::=位置定数\hfill//1人称,2人称の位置\\\hspace{5zw}|位置変数\hfill//3人称(人・物・場所)の位置\\\hspace{5zw}|単語名\hfill//最後に現れた単語の位置\\位置定数::=``1''|``2''\\位置変数::=``3''|``4''|``$x$''|``$y$''|``$L$''|``$R$''|``$C$''|$\cdots$\\位置修飾子::=``$\hat{}$''|``\_''\hfill//相対的な上下(社会的上下関係)\\\hspace{6zw}|``{\tt'}''\hfill//少しずらした別の位置(関連のある別の個体)\\複数位置::=``\{''単一位置{``,''単一位置}``\}''\hfill//位置集合\\\hspace{5zw}|単一位置``{\tts}''\hfill//位置の複数形(彼ら,あちこち,…)\\方向::=[位置]``→''位置\hfill//始点と終点,または\\\hspace{5zw}|位置``→''[位置]\hfill//そのどちらかを指定\\修飾::=修飾指定{``{\tt,}''修飾指定}\hfill//動作の変化によって表される修飾語・機能語\\修飾指定::=修飾内容\hfill//修飾内容を日本語の語句で表す\\\hspace{5zw}|反復指定\hfill//動作の反復によって表される修飾内容\\反復指定::=``*''反復回数\hfill//n回〜する\\\hspace{5zw}|``**''\hfill//よく〜する(漠然と複数回)\\指文字表現::=``{\tt'}''指文字{``・''指文字}``{\tt'}''\\複合表現::=逐次複合語|半同時表現|同時表現\\逐次複合語::=手話単語``{\tt-}''手話単語{``{\tt-}''手話単語}\\半同時表現::=手話表現``{\tt/}''(手話単語|ブロック)\\同時表現::=手話表現``\verb+|+''(手話単語|ブロック)\\ブロック::=``{\tt\{}''[NMS列]手話表現列``{\tt\}}''\\NMS列::=``$<$''{\itNMS}\{``{\tt,}''{\itNMS}\}``$>$''\\{\itNMS}::=``{\ttt}''|``{\ttq}''|``{\ttwhq}''|``{\ttcond}''|``{\ttneg}''|``{\ttem}''|``{\ttrs}''[``{\tt(}''位置``{\tt)}'']|$\cdots$\\\end{supertabular}\end{center}\newlength{\elem}\setlength{\elem}{8zw}\newlength{\example}\setlength{\example}{10zw}\newlength{\note}\setlength{\note}{6.8cm}\newcommand{\tbsp}{}\begin{center}\vskip10pt{\bf表5}表記例\\\vskip10pt\tablefirsthead{\hline\multicolumn{1}{|c}{手話文の要素}&\multicolumn{1}{|c}{表記例}&\multicolumn{1}{|c|}{意味・説明}\\\hline\hline}\tablehead{\multicolumn{3}{l}{\small前頁からの続き}\\\hline\multicolumn{1}{|c}{手話文の要素}&\multicolumn{1}{|c}{表記例}&\multicolumn{1}{|c|}{意味・説明}\\\hline}\tabletail{\hline\multicolumn{3}{r}{\small次頁へ続く}\\}\tablelasttail{\hline}\begin{supertabular}{|p{\elem}|p{\example}|p{\note}|}単語(基本形)&都合&「都合」「運」「偶然」など\\\hline語形変化(手形)&\tt人[2]&「二人」.手形〈2〉で〈人〉を表現\\\hline語形変化(位置)&\tt東京(L)&〈東京〉をLの位置で表現\\\hline語形変化(方向)&\tt言う(2→1)&「あなた(2人称)が私(1人称)に言う」\\\hline\raisebox{-1zw}{動詞の複数変化}&\tt言う(3s→1)&「彼ら(3人称複数)が私に言う」\\\noalign{\vskip-.5zw}\cline{2-3}&\tt行く(;**)&「よく行く」〈行く〉を2,3回繰り返す\\\hline語形変化(修飾)&\tt風(;強い)&「強い風」「風が強い(強く吹く)」\\\hline指差し&\ttPt($x$)&\begin{tabular}{@{}p{\note}@{}}位置$x$をさして,「それ」「その」など代名詞,限定詞\end{tabular}\\\hline順序数詞&\ttEnum[2]&\begin{tabular}{@{}p{\note}@{}}「2つ目は…」単語や文を順に列挙しながら指を起こしてゆく表現\end{tabular}\\\hline順位数詞&\ttRef[\{1,2\}/4]&「4つのうちの1番目と2番目」\\\hline限定数詞&\ttQuant[2/4]&「4つのうち2つ」\\\hline指文字による表現&`パ・テ・ィ・シ・エ'&「パティシエ」.固有名詞や外来語\\\hline逐次的な合成&\tt使う-税金&「消費税」.複合語\\\hline同時的な合成&\tt電話\verb+|+仕事&\begin{tabular}{@{}p{\note}@{}}「電話をしながら仕事をする」左右の手で異なる単語を同時に表現\end{tabular}\\\hline半同時的な合成&\tt家/帰る(→家)&\begin{tabular}{@{}p{\note}@{}}「家へ帰る」両手で〈家〉を表現した後,片手を残したまま,〈帰る〉を表現\end{tabular}\\\hline文法的な区切り,&私{\tt,}妹&「私と妹」\\\cline{2-3}名詞の並列&食べる{\tt,}寝る&「食べて,寝る」\\\hline名詞による修飾&あなた母&「あなたのお母さん」\\\hline\begin{tabular}{@{}p{\elem}@{}}手話単語の助動詞的用法\end{tabular}&買う\verb+~+好き&「買いたい」「買って欲しい」\\\hline\raisebox{-1zw}{文末記号}&私聾唖。&「私はろう者です。」\\\noalign{\vskip-.5zw}\cline{2-3}&聾唖あなた?&「あなたはろう者ですか?」\\\hline直接話法&\begin{tabular}{@{}p{\example}@{}}\parbox{\example}{\tt彼/言う(彼→1)\\\{$<$rs(彼)$>$あなた\\美しい\}}\end{tabular}&\begin{tabular}{@{}p{\note}@{}}「彼が『君はきれいだ』と私に言う」.引用部では,視線や2人称への指差し,体の向きがシフトする\end{tabular}\\\hline非手指文法標識&\tt\{$<$t$>$本\}私買う&「本は私が買う」.話題化\\\end{supertabular}\end{center}\begin{biography}\biotitle{略歴}\bioauthor{松本忠博}{1985年岐阜大学工学部電子工学科卒業.1987年同大学院修士課程修了.現在,同大学工学部応用情報学科助手.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本ソフトウェア科学会,日本手話学会,各会員.}\bioauthor{原田大樹}{2006年岐阜大学工学部応用情報学科卒業.現在,同大学院工学研究科博士前期課程在学中.日本語から手話への機械翻訳の研究に従事.}\bioauthor{原大介}{1991年教育学修士(国際基督教大学).2003年Ph.D.(言語学)(シカゴ大学).2000年4月愛知医科大学看護学部専任講師.2004年10月同学部助教授.専門は手話言語学.日本手話学会副会長.}\bioauthor{池田尚志}{1968年東京大学教養学部基礎科学科卒業.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V18N02-02
|
\section{はじめに}
知的で高度な言語処理を実現するには,辞書,シソーラス,コーパスなどの言語資源の整備・構築が欠かせない.一方,実際のテキストに対して,言語資源を活用するときにボトルネックとなるのが,表層表現が実テキストと言語資源では一致しない問題である.例えば,「スパゲティー」には,「スパゲッティ」「スパゲティ」「スパゲッテー」などの異表記があるが,完全一致の文字列マッチングでは,これらの異表記から言語資源に含まれるエントリ(例えば「スパゲティー」)を引き出すことができない.ウェブなどの大規模かつ統制されていないテキストには,大量の異表記や表記誤りが含まれると考えられ,これらの実テキストに対して言語処理を頑健に適用するには,言語資源とテキストを柔軟にマッチングさせる技術が必要である.文字列を標準的な表記に変換してからマッチングさせる手法として,ステミング~\cite{Porter:80},レマタイゼーション~\cite{Okazaki:08,Jongejan:09},スペル訂正~\cite{Brill:00,Ahmad:05,Li:06,Chen:07},人名表記の照合~\cite{Takahashi:95},カタカナ異表記の生成及び統一~\cite{獅々堀:94},等が代表的である.これらの研究に共通するのは,与えられた文字列から標準形に変換するための文字列書き換え規則を,人手,マイニング,もしくは機械学習で獲得していることである.これらの研究では,語幹やカタカナ異表記など,異表記のタイプに特化した文字列書き換え規則を獲得することに,重点が置かれる.本論文では,より一般的なタスク設定として,与えられた文字列に似ている文字列を,データベースの中から見つけ出すタスク({\bf類似文字列検索})を考える.本論文では,「文字列の集合$V$の中で,検索クエリ文字列$x$と類似度が$\alpha$以上の文字列を全て見つけ出す操作」を,類似文字列検索と定義する.この操作は,$V$の部分集合$\mathcal{Y}_{x,\alpha}$を求める問題として記述できる.\begin{equation}\mathcal{Y}_{x,\alpha}=\{y\inV\bigm|{\rmsim}(x,y)\geq\alpha\}\label{equ:approximate-string-retrieval}\end{equation}ただし,${\rmsim}(x,y)$は文字列$x$と$y$の類似度を与える関数({\bf類似度関数})である.この問題の単純な解法は,検索クエリ文字列$x$が与えられる度に,文字列の類似度を総当たりで$|V|$回計算することである.文字列集合の要素数$|V|$が小さいときには,総当たりで解を求めることも可能だが,文字列集合が膨大(例えば数百万オーダー以上の要素数)になると,実用的な時間で解けなくなる.本論文では,自然言語処理でよく用いられる類似度関数であるコサイン係数,ジャッカード係数,ダイス係数,オーバーラップ係数に対して,式\ref{equ:approximate-string-retrieval}の簡潔かつ高速なアルゴリズムを提案する.本論文の貢献は,以下の2点に集約される.\begin{enumerate}\itemまず,類似文字列検索における必要十分条件及び必要条件を導出し,式\ref{equ:approximate-string-retrieval}が転置リストにおける{\bf$\tau$オーバーラップ問題}~\cite{Sarawagi:04}として正確に解けることを示す.次に,$\tau$オーバーラップ問題の効率的な解法として,{\bfCPMerge}アルゴリズムを提案する.このアルゴリズムは,$\tau$オーバーラップ問題の解となり得る文字列の数をできるだけコンパクトに保つ特徴がある.提案手法の実装は非常に容易であり,C++で実装したライブラリ\footnote{SimString:http://www.chokkan.org/software/simstring/}を公開している.\item提案手法の優位性を示すため,英語の人名,日本語の単語,生命医学分野の固有表現を文字列データとして,類似文字列検索の性能を評価する.実験では,類似文字列検索の最近の手法であるLocalitySensitiveHashing(LSH)~\cite{Andoni:08},SkipMerge,DivideSkip~\cite{Li:08}等と提案手法を比較する.実験結果では,提案手法が全てのデータセットにおいて,最も高速かつ正確に文字列を検索できることが示される.\end{enumerate}本論文の構成は以下の通りである.次節では,類似文字列検索の必要十分条件,必要条件を導出し,式\ref{equ:approximate-string-retrieval}が$\tau$オーバーラップ問題として正確に解けることを示す.第\ref{sec:method}節では,本論文が提案するデータ構造,及び$\tau$オーバーラップ問題の効率的なアルゴリズムを説明する.第\ref{sec:evaluation}節で,評価実験とその結果を報告する.第\ref{sec:related-work}節では,類似文字列検索の関連研究をまとめる.第\ref{sec:conclusion}節で,本論文の結論を述べる.
\section{類似文字列検索の定式化}
\label{sec:formalization}本研究では,文字列は{\bf特徴}の集合で表現されると仮定する.文字列の特徴の捉え方は,提案手法に依らず任意であるが,本論文では一貫して文字tri-gramを具体例として用いる.例えば,文字列$x=\mbox{「スパゲッティー」}$は,9要素の文字tri-gramから構成される集合$X$で表現される.\begin{equation}X=\{\mbox{\texttt{`$$ス'}},\mbox{\texttt{`$スパ'}},\mbox{\texttt{`スパゲ'}},\mbox{\texttt{`ゲッテ'}},\mbox{\texttt{`ッティ'}},\mbox{\texttt{`ティー'}},\mbox{\texttt{`ィー$'}},\mbox{\texttt{`ー$$'}}\}\end{equation}ここで,文字列の先頭と末尾に\texttt{`$'}を挿入し,文字列の開始と終了を表現している\footnote{この例では,先頭と末尾を表す記号\texttt{`$'}を付加したが,これも提案手法に依らず任意である.}.一般に,文字数が$|x|$の文字列$x$を文字$n$-gramの集合$X$で表現したとき,$|X|=|x|+n-1$という関係が成り立つ.本論文では,文字列を小文字の変数($x$など)で表し,文字列を特徴の集合に変換したものを{\bf特徴集合}と呼び,対応する大文字の変数($X$など)で表す.$|x|$を文字列$x$の{\bf長さ},$|X|$を文字列$x$の{\bfサイズ}と呼び,これらを区別する.なお,特徴に頻度などの重みが付くときは,特徴の識別子を分割することで,重み付きの集合を模擬する.例えば,文字列「トラトラトラ」を文字tri-gramで表現するとき,\texttt{`トラト'}と\texttt{`ラトラ'}が2回ずつ出現する.これを集合で表現するには,tri-gramの末尾に出現回数を表す番号を付加すれば良い.これにより「トラトラトラ」は,\{\mbox{\texttt{`$$ト'\#1}},\mbox{\texttt{`$トラ'\#1}},\mbox{\texttt{`トラト'\#1}},\mbox{\texttt{`ラトラ'\#1}},\mbox{\texttt{`トラト'\#2}},\mbox{\texttt{`ラトラ'\#2}},\mbox{\texttt{`トラ$'\#1}},\mbox{\texttt{`ラ$$'\#1}}\}という集合で表現できる.特徴に出現回数を付与することは実用上重要であるが,説明が冗長になるため,以降では省略する.本論文では,ダイス係数,ジャッカード係数,コサイン係数,オーバーラップ係数など,集合間のオーバーラップに基づく類似度(集合間類似度)に対して,類似文字列検索アルゴリズムを導出する.文字列の特徴と類似度関数は,類似文字列検索の精度を左右するので,アプリケーションに応じて慎重に選択する必要がある.しかし,どのくらいの精度の類似度関数が必要になるかはアプリケーション依存であるため,文字列の特徴や類似度関数の選び方は本論文の対象外とし,与えられた特徴空間と類似度関数に対して,出来るだけ効率よく$\mathcal{Y}_{x,\alpha}$を求めるアルゴリズムを提案することに注力する.精細な類似度が必要な場合は,適当な類似度関数に対して緩い閾値$\alpha$を用い,提案手法で再現率が高くなるように類似文字列を検索し,関連研究(第\ref{sec:related-work}節)で紹介する手法などで精査することで,適合率を改善すればよい.さて,文字列$x$と$y$を,それぞれ特徴集合$X$と$Y$で表すとき,$x$と$y$のコサイン係数は,\begin{equation}{\rmcosine}(X,Y)=\frac{|X\capY|}{\sqrt{|X||Y|}}.\label{equ:cosine}\end{equation}この定義式を式\ref{equ:approximate-string-retrieval}に代入すると,類似文字列のための必要十分条件が得られる.\begin{equation}\left\lceil\alpha\sqrt{|X||Y|}\right\rceil\leq|X\capY|\leq\min\{|X|,|Y|\}\label{equ:match-condition}\end{equation}ここで,$\lceilv\rceil$は$v$の整数値への切り上げを表す.また,式\ref{equ:match-condition}には,$|X\capY|$の上限値$\min\{|X|,|Y|\}$を不等式として組み込んだ.式\ref{equ:match-condition}は,特徴集合$X$と$Y$のコサイン係数が$\alpha$以上になるためには,少なくても$\left\lceil\alpha\sqrt{|X||Y|}\right\rceil$個の要素を共通に持つ必要があることを示している.必要十分条件において,$|X\capY|$が取るべき最小の値を,$X$と$Y$の{\bf最小オーバーラップ数}と呼び,以降{\bfこの数を$\tau$で表す}.$\tau$は,$|X|$,$|Y|$,$\alpha$に依存して計算される値である.ところで,式\ref{equ:match-condition}において$|X\capY|$を無視すると,$|X|$と$|Y|$に関する不等式を得る.\begin{equation}\alpha\sqrt{|X||Y|}\leq\min\{|X|,|Y|\}.\end{equation}この不等式を$|Y|$について解くと,類似文字列の必要条件が得られる.\begin{equation}\left\lceil\alpha^2|X|\right\rceil\leq|Y|\leq\left\lfloor\frac{|X|}{\alpha^2}\right\rfloor\label{equ:necessary-condition}\end{equation}ここで,$\lfloorv\rfloor$は$v$の整数値への切り捨てを表す.この不等式は,$X$に対して類似文字列検索を行う際の,$Y$に関する探索範囲を表現している.言い換えれば,特徴集合の要素数がこの範囲外の文字列は,無視できる.なお,同様の導出は,ダイス係数,ジャッカード係数,オーバーラップ係数などの類似度関数に対しても可能である.表\ref{tbl:conditions}に,それぞれの類似度関数の条件式をまとめた.これらの条件式の大元の出典は不明であるが,本論文で導出した条件式は,いくつかの先行研究でも用いられている~\cite{Sarawagi:04,Li:08,Xiao:08b}.\begin{table}[t]\caption{集合間類似度を用いた類似文字列検索における$|Y|$の必要条件,及び$|X\capY|$の必要十分条件}\label{tbl:conditions}\input{02table01.txt}\end{table}ここで,導出した不等式の利用例を説明する.検索クエリ文字列$x=\mbox{「スパゲティー」}$とし,コサイン類似度の閾値$\alpha=0.7$で類似文字列検索を行う.また,文字列の特徴を文字tri-gramで表現することとする(したがって,$|X|=6+3-1=8$である).式\ref{equ:necessary-condition}から,$Y$の要素数に関する探索範囲は$4\leq|Y|\leq16$である.この範囲内で,例えば$|Y|=9$となる文字列を考慮しているとき,式\ref{equ:match-condition}から,類似文字列の必要十分条件,$6\leq|X\capY|$が得られる.この必要十分条件は,$X$のtri-gramのうち,少なくても6個は$Y$にも出現しなければならないことを表す.例えば,$y=\mbox{「スパゲッティー」}$を考えると,$|X\capY|=6$である.したがって,$y$は類似文字列検索の解の1つである.実際,$x$と$y$のコサイン類似度は,$6/\sqrt{8\times9}=0.707$($\geq\alpha$)である.以上のことをまとめると,種々の類似度関数を用いた類似文字列検索は,次のような一般的な手順で実装することができる.\begin{enumerate}\item与えられた検索文字列$X$と類似度閾値$\alpha$から,$|Y|$の範囲を求める\itemその範囲内で,$|X\capY|$の条件を満たす$Y$を見つける\end{enumerate}次節では,これらの手順を効率良く実装するデータ構造とアルゴリズムを議論する.
\section{データ構造とアルゴリズム}
\label{sec:method}\subsection{データ構造}\label{sec:data-structure}前節までの議論により,類似文字列検索は次の部分問題を解くことに帰着される.\begin{definition}[$\tau$オーバーラップ問題]検索クエリ文字列の特徴集合$X$が与えられたとき,その特徴を$\tau$個以上共有する文字列$Y$を全て見つける.\end{definition}ここで,$\tau$は$X$と$Y$の最小オーバーラップ数で,コサイン係数を類似度関数として用いる場合は,$\tau=\left\lceil\alpha\sqrt{|X||Y|}\right\rceil$である.この部分問題を効率的に解くため,特徴をキーとして,その特徴を含む文字列のリストを値とする連想配列(転置インデックス)を構築する.式\ref{equ:match-condition}から,探索すべき文字列のサイズ$|Y|$の範囲が絞り込まれること,式\ref{equ:necessary-condition}から,$|Y|$に依存して最小オーバーラップ数$\tau$が決まることを考慮し,文字列のサイズ$l$毎に転置インデックス$D_l$を構築する.また,アルゴリズムを効率よく実行するため,文字列をユニークな文字列識別番号(SID)で表現し,転置リストは特徴を含む文字列のSIDを昇順に並べたものを格納することとする.図\ref{fig:data-structure}に,データ構造の実現例を示した.例えば,\texttt{`$$ス'}を特徴に持つ文字列のSIDは,\#267,\#452,\#743,\#2389,...であり,「スパゲッティー」のSIDは\#452である.図\ref{fig:data-structure}では,文字列のサイズ毎にハッシュ表を構築しているが,SQLなどの関係データベースを用いても,同様のデータ構造が実現できる.\begin{figure}[b]\begin{center}\includegraphics{18-2ia2f1.eps}\end{center}\caption{複数の転置インデックスで構築された類似文字列検索のためのデータ構造}\label{fig:data-structure}\end{figure}図\ref{alg:approximate-string-matching}に,類似文字列検索の擬似コードを示す.文字列のサイズ$l$毎に構成された転置インデックスの配列$D=\{D_l\}$に対して,検索文字列$x$,類似度閾値$\alpha$が与えられると,この擬似コードは$x$との類似度が$\alpha$以上の文字列のSIDのリスト$R$を返す.1〜3行目で,クエリ文字列$x$を特徴集合$X$に変換し,考慮すべき文字列のサイズの範囲を表\ref{tbl:conditions}から求める.探索範囲内のそれぞれの長さ$l\in[n,N]$に対し(5行目),最小オーバーラップ数$\tau$を求め(6行目),{\ttoverlap\_join}関数で$\tau$オーバーラップ問題を解き,解集合$R$を更新する(7行目).\subsection{$\tau$オーバーラップ問題のアルゴリズム}\ref{sec:data-structure}節では,特徴をキーとして,その特徴を含む文字列(SID)のリストを返す転置インデックスを構築した.特徴$q$の転置リストに含まれている文字列は,特徴$q$を含むことが保証されている.したがって,特徴$q\inX$に対応する$|X|$個の転置リストの中で,ある文字列$y$が$c$個の転置リスト2回出現するならば,$|X\capY|=c$である.ゆえに,転置リスト上において$\tau$回以上出現するSIDを見つけることで,$\tau$オーバーラップ問題を解くことができる.図\ref{alg:t-overlap-naive}に,このアイディアに基づく$\tau$オーバーラップ問題の解法({\bfAllScanアルゴリズム})を示した.4行目の関数$\mbox{\ttget}(d,q)$は,転置インデックス$d$の中で特徴$q$に対応する転置リスト(SIDのリスト)を返す関数である.この擬似コードは,転置インデックス$d$,特徴集合$X$,最小オーバーラップ数$\tau$を受け取り,SIDの出現頻度,すなわち$|X\capY|$を連想配列$M$に格納し,その値が$\tau$に到達したSIDをリスト$R$に入れて返すものである.表\ref{tbl:spaghetti-solutions}は,検索クエリ文字列$x=\mbox{「スパゲティー」}$に対して,Web日本語Nグラムコーパスのユニグラムの中で,文字数が7(つまり$|Y|=9$)の文字列を実際に検索するとき,$|X\capY|$の高い文字列10件を示したものである(文字列の特徴はtri-gramで表現).コサイン係数が0.7以上の文字列を探すには,$\tau=\left\lceil\alpha\sqrt{|X||Y|}\right\rceil=6$であるから,類似文字列検索の解は「スパッゲティー」「スパゲティーニ」「スパゲティー・」「スパゲッティー」の4つである.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{18-2ia2f2.eps}\end{center}\caption{類似文字列検索のアルゴリズム.}\label{alg:approximate-string-matching}\vspace{22pt}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{18-2ia2f3.eps}\end{center}\caption{AllScanアルゴリズム.}\label{alg:t-overlap-naive}\end{minipage}\end{figure}AllScanアルゴリズムの実装は簡単であるが,検索に用いる特徴が数多くの文字列に出現するとき,走査するSIDの数が非常に大きくなるという欠点がある.例えば,\texttt{`ティー'}(「ティー」を含む)や\texttt{`ー$$'}(「ー」で終わる)などの文字tri-gramは,日本語の多くの語で出現するため,転置リストが大きくなる傾向にある.表\ref{tbl:spaghetti-stat}に,Web日本語Nグラムコーパスにおいて,「スパゲティー」の各tri-gramの転置リストのサイズ(すなわち,各tri-gramを含む文字列の数)を示した.この表によると,AllScanアルゴリズムは30,584種類,35,964個のSIDを走査することになるが,その中でたった4個(0.013\%)しか解にならない.走査すべきSIDの数を減らすため,$\tau$オーバーラップ問題に関する次の性質に着目する~\cite{Arasu:06,Chaudhuri:06}.\newpage\begin{property}要素数が$k$の集合$X$と,要素数が任意の集合$Y$がある.要素数が$(k-\tau+1)$となる任意の部分集合$Z\subseteqX$を考える.もし,$|X\capY|\geq\tau$ならば,$Z\capY\neq\phi$である.\label{prop:signature}\end{property}この性質は,その対偶を考えれば明白である.すなわち,$Z\capY=\phi$ならば,$Z$の定義から$|X\setminusZ|=k-(k-\tau+1)=\tau-1$であるので,$|X\capY|=|\{(X\setminusZ)\cupZ\}\capY|=|(X\setminusZ)\capY|+|Z\capY|\leq\tau-1$.ゆえに,$|X\capY|<\tau$が示される\footnote{二項演算子$\setminus$は差集合を表す.つまり$A\setminusB$は集合$A$から集合$B$に属する要素を間引いて得られる集合である.}.\begin{table}[t]\begin{minipage}[t]{0.45\textwidth}\setlength{\captionwidth}{\textwidth}\hangcaption{検索文字列$x=\text{「スパゲティー」}$に対し,Web日本語Nグラムコーパス中で$|X\capY|$の大きい文字列($|Y|=9$のとき)}\label{tbl:spaghetti-solutions}\input{02table02.txt}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\setlength{\captionwidth}{\textwidth}\hangcaption{Web日本語Nグラムコーパス中で,検索文字列$x=\text{「スパゲティー」}$の各tri-gramを含む文字列の数($|Y|=9$のとき)}\label{tbl:spaghetti-stat}\input{02table03.txt}\end{minipage}\end{table}性質\ref{prop:signature}の利用例を,先の類似文字列検索を用いて説明する.検索クエリ文字列$x=「スパゲ\linebreakティー」$に対し,$|Y|=9$かつ,$\tau=6\leq|X\capY|$という条件を満たす文字列$y$を検索している.検索される文字列$y$が$|X\capY|\geq6$を満たすならば,特徴集合$X$中の任意の$(8-6+1)=3$要素で構成された任意の部分集合$Z\subsetX$に対し,$Z\capY\neq\phi$である.言い換えれば,特徴集合$X$中の任意の3要素を選ぶと,対応する転置リストに,類似文字列検索の解が(あるとすれば)必ず含まれている.この性質を用いると,類似文字列検索の解の候補を絞り込むことができる.解候補を生成するために用いる要素は,シグニチャ~\cite{Arasu:06}と呼ばれる.では,検索文字列の特徴集合の中で,どの要素をシグニチャとして採用すれば良いのだろうか?シグニチャの特徴数は性質\ref{prop:signature}から決定されるが,その選び方は任意である.したがって,転置リストのサイズが小さい特徴をシグニチャとして採用すれば,解候補生成時に走査するSIDの数を減らすことができる.すなわち,文字列データベース中で稀に出現するtri-gramを優先的にシグニチャとして採用し,解の候補を絞り込めばよい.表\ref{tbl:spaghetti-stat}の例では,「パゲテ」「ゲティ」「スパゲ」をシグニチャとして選択することになる.シグニチャによる解候補生成を採用したアルゴリズムを,図\ref{alg:t-overlap-cpmerge}に示す.性質\ref{prop:signature}より,特徴集合$X$を,要素数$(|X|-\tau+1)$のシグニチャ$S$と,残り$L$$(=X\setminusS)$に分解する.このアルゴリズムは,2から7行目で類似文字列検索の解候補をシグニチャ$S$から獲得し,8行目から21行目で解候補の検証と枝刈りを$L$で行う.このアルゴリズムは,解候補の生成と枝刈りをしながら転置リストをマージしていくので,{\bfCPMergeアルゴリズム}と命名した.\begin{figure}[b]\begin{minipage}{187pt}\includegraphics{18-2ia2f4.eps}\caption{CPMergeアルゴリズム}\label{alg:t-overlap-cpmerge}\vspace{74pt}\end{minipage}\hfill\begin{minipage}{231pt}\includegraphics{18-2ia2f5.eps}\caption{CPMerge-optの擬似コード}\label{alg:t-overlap-cpmerge-post}\end{minipage}\end{figure}1行目で,検索文字列の特徴集合の要素を,転置リストのサイズ(要素数)の昇順に並び替える.このとき,$X[k]$の転置リストの内容をすべてメモリに読み込まなくても,$|\mbox{\ttget}(d,X[k])|$の値を取得し,$X$の要素を並び替えられるようにしておくことは,実用上重要である(この理由は\ref{sect:cpmerge-stat}節で明らかになる).特徴集合$X$の要素を並び替えたとき,稀な特徴の順番に$X[0],\ldots,X[|X|-1]$とアクセスできるものとする.シグニチャ$S$として採用されるのは,$X[0],\ldots,X[|X|-\tau+1]$である.アルゴリズムの2から7行目では,シグニチャの特徴を持つ文字列をデータベース$d$から検索し,その転置リストにおける出現回数を連想配列$M$に記録する.先の例と同じ類似文字列検索($x=\mbox{「スパゲティー」}$,$|Y|=9$,$\tau=6\leq|X\capY|$)に対して,CPMergeアルゴリズムの動作例を表\ref{tbl:spaghetti-process}に示した.候補生成フェーズでは,「パゲテ」「ゲティ」「スパゲ」のtri-gramを含む文字列を検索し,検索された文字列を解候補とするとともに,該当する箇所に「○」を記している.シグニチャから獲得される解候補の数は32で,AllScanアルゴリズムと比べると,解候補数を0.105\%まで絞り込んだことになる.アルゴリズムの9行目から21行目では,それぞれの候補文字列が,残りの特徴$L$を持っているかどうかを調べる.それぞれの解候補$i\inM$が(10行目),特徴$X[k]$を持っているかどうかを,転置リスト$\mbox{\ttget}(d,X[k])$上における二分探索で調べ(11行目),転置リストが$i$を含んでいれば,頻度カウンタをインクリメントする(12行目).もし,頻度カウントが$\tau$に到達したら(14行目),$i$を結果リスト$R$に追加し(15行目),候補$M$から削除する(16行目).もし,頻度カウントが$\tau$に到達していない場合は,以下の性質を利用して枝刈りの可能性を調べる.\begin{property}要素数が$g$の集合$X$と,要素数が任意の集合$Y$がある.要素数が$h$のある部分集合$Z\subseteqX$を考える.もし,$|Z\capY|=\theta$ならば,$|X\capY|\leq\theta+g-h$である.\end{property}$Z$の定義により$|X\setminusZ|=g-h$であるから,$|(X\setminusZ)\capY|\leqg-h$.したがって,この性質は$|X\capY|$の上限値が$(\theta+g-h)$になることを表現している.図\ref{alg:t-overlap-cpmerge}のアルゴリズムでは,$\theta=M[i]$,$g=|X|$,$h=(k+1)$とおき,$|X\capY|$の上限値を$(M[i]-|X|-k-1)$と計算し,この値が$\tau$を下回っているならば(17行目),候補$i$を枝刈りする(18行目).\begin{table}[p]\hangcaption{Web日本語Nグラムコーパスにおいて,検索文字列$x=\text{「スパゲティー」}$に対し,$6\leq|X\capY|$となる文字列$y$を見つける際の,候補生成と検証プロセスの実行例($|Y|=9$の場合)}\label{tbl:spaghetti-process}\input{02table04.txt}\end{table}表\ref{tbl:spaghetti-process}は,検証フェーズ($3\leqk\leq7$)の動作例も示している.$k=3$では,32個の候補文字列のそれぞれに対して,414個のSIDを含む転置リスト上で二分探索を行い,「$スパ」というtri-gramを含むかどうか調べている.候補文字列が特徴を含む場合は「○」,含まない場合は「×」が記される.もし,候補文字列が「$スパ」というtri-gramを含んでおらず,これまでの出現頻度が1回だった場合は,今後$4\leqk\\leq7$の全ての転置リストに出現しても,出現頻度の最大値は5に留まる.つまり,$|X\capY|<6$となることが確定しているので,「アニスパゲス」「イカスバゲティ」などの文字列は,$k=3$において枝刈りする.表\ref{tbl:spaghetti-process}では,枝刈りされる候補に「{\bf×.}」を記している.枝刈りにより,$k=3$において15個の解候補が枝刈りされ,候補は17文字列に減る.$k=4,5$でも同様の処理を行い,解の候補はそれぞれ8個,5個まで絞り込まれる.$k=6$では,「スパゲティー・」と「スパゲティーニ」の出現回数が6に到達するので,候補集合から解集合に移動させる(\scalebox{1.7}{$\boldsymbol{\circ}$}\textbf{.}で表示).$k=7$では,「スパゲッティー」と「スパッゲティー」の出現回数が6に到達し,全ての候補の検証が終了したことになる.CPMergeアルゴリズムにおいて,$X[k]$の転置リストを処理した後に残る解候補の数を$C_k$,$X[k]$の転置リストの要素数を$P_k=|\mbox{\ttget}(d,X[k])|$とする.CPMergeの検証フェーズでは,それぞれの候補に対して二分探索を行うため,9行目の各$k$に対して,10〜20行目の計算量は$O(C_{k-1}\logP_k)$である.$X[k]$の並び順の定義から,$k$が大きくなると$P_k$も増加するが,枝刈りが有効に働けば,$C_k$が小さくなる.表\ref{tbl:spaghetti-process}の例では,各$k$に対して$C_{k-1}\logP_k$の値は,193($k=3$),115($k=4$),57.5($k=5$),45.1($k=6$),20.2($k=7$)であり,9〜21行目のループが進むにつれて,計算量の見積りが減少する.検索クエリ文字列やデータベースの文字列集合のtri-gramの分布により,$C_k$や$P_k$の傾向が異なるので,計算量の見積りを一般的に行うことは難しい.そこで,第\ref{sec:evaluation}節では,CPMergeアルゴリズムが実際のデータセットに対して動作する際の,解の候補数,転置リストに含まれるSIDの数などの統計情報を報告する.\subsection{実装上の工夫}図\ref{alg:t-overlap-cpmerge}のアルゴリズムでは,SIDをキーとして頻度を格納する連想配列$M$を用いていた.実は,転置リストが整列済みのSIDで構成されるという性質を利用すれば,情報検索における転置リストのマージ~\cite{IR}と同様に,連想配列をリスト構造(可変長配列)で代用できる.主要なプログラミング言語では連想配列を容易に扱えるが,アクセスのコストがリスト構造よりも大きいので,連想配列をリスト構造で置き換えることで,検索処理の高速化が期待できる.図\ref{alg:t-overlap-cpmerge-post}は,図\ref{alg:t-overlap-cpmerge}から連想配列を排除し,リスト構造のみでCPMergeアルゴリズムを実装するもの(CPMerge-opt)である.図\ref{alg:t-overlap-cpmerge-post}の2〜21行目は,図\ref{alg:t-overlap-cpmerge}の2〜7行目に対応し,解の候補生成を行う.2行目では,解候補の頻度を計測する変数$M$を初期化しているが,その型は連想配列($\{\\}$)から,可変長配列($[\]$)に変更されている.CPMerge-optでは,$M$の要素は$(\mbox{\rmSID},\mbox{頻度})$のタプルであり,要素はSIDの昇順に並べる.3〜21行目の基本的な流れは,$(k-1)$における解候補リスト$M$と,$P=\mbox{\ttget}(d,X[k])$の転置リストを,先頭から順に比較していき,一時変数$W$に$k$における解候補リストを作成する.最後に,$M$を$W$で上書きし(20行目),$k+1$のステップへと進む.各$k$において,$W$を空のリストで初期化し(4行目),$M$と$P$でこれから処理する要素の位置(インデックス)を管理する変数$m$と$p$を,それぞれ$0$で初期化する(6行目).7行目から19行目までは,$M$と$P$の全ての要素を処理し終わるまで,以下の処理を繰り返す.\begin{enumerate}\itemもし転置リスト$P$のSID($P[p]$)が,$(k-1)$における解候補リスト$M$に含まれていない場合(8行目),$P[p]$を新しい候補として$W$に登録し(9行目),$p$をインクリメントする(10行目).\itemもし,$(k-1)$における解候補リスト$M$中のSID($M[m].{\rmid}$)が,転置リスト$P$に含まれていない場合(11行目),$M[m]$を$W$にそのまま追加し(12行目),$m$をインクリメントする(13行目).\itemそれ以外の場合,すなわち転置リスト$P$の要素$P[p]$と解候補リスト$M$中の$M[m].{\rmid}$が等しい場合(14行目),$M[m]$の頻度をインクリメントしたものを$W$に追加し(15行目),$p$と$m$の両方をインクリメントする(16行目).\end{enumerate}図\ref{alg:t-overlap-cpmerge-post}の22〜36行目は,図\ref{alg:t-overlap-cpmerge}の8〜21行目に対応し,解の候補の検証と枝刈りを行っている.CPMerge-optでは,$(k-1)$における解候補リスト$M$に対して,転置リスト$\mbox{\ttget}(d,X[k])$で検証を行い,枝刈りされなかった候補を一時変数$W$に待避し,$k$における処理が終わったら$M$を$W$で上書きしている.図\ref{alg:t-overlap-cpmerge}と図\ref{alg:t-overlap-cpmerge-post}のその他の箇所は,ほとんど同じである.
\section{実験}
\label{sec:evaluation}\subsection{比較したシステム}本節では,大規模な文字列データセットに対して,種々の類似文字列検索アルゴリズムの性能を比較し,提案手法の有用性を示す.実験に用いたシステムは,以下の通りである.なお,先行研究の詳細については,\ref{sec:related-work}節を参照されたい.\begin{itemize}\item{\bf提案手法}:$\tau$オーバーラップ問題をCPMerge(図\ref{alg:t-overlap-cpmerge})で解くもの\item{\bf提案手法-opt}:CPMergeを図\ref{alg:t-overlap-cpmerge-post}の擬似コードで高速化したもの\item{\bf総当たり法}:検索クエリが与えられる毎に,データベース内の全ての文字列と類似度を計算し,閾値以上の文字列を見つけ出す方法\item{\bfAllScan}:$\tau$オーバーラップ問題をAllScanアルゴリズム(図\ref{alg:t-overlap-naive})で解くもの\item{\bfSignature}:$\tau$オーバーラップ問題をCPMerge(図\ref{alg:t-overlap-cpmerge})で解くが,解候補の枝刈りを行わないもの(図\ref{alg:t-overlap-cpmerge}の17〜18行目を削除)\item{\bfSkipMerge}:$\tau$オーバーラップ問題をSkipMergeアルゴリズム~\cite{Li:08}で解く\item{\bfDivideSkip}:$\tau$オーバーラップ問題をDivideSkipアルゴリズム~\cite{Li:08}で解く\footnote{今回の実験では,パラメータ$\mu\in\{0.01,0.02,0.04,0.1,0.2,0.4,1,2,4,10,20,40,100\}$を試し,最も検索レスポンスが速かった$\mu=40$を採用した.}\item{\bfMergeOpt}:$\tau$オーバーラップ問題をMergeOptアルゴリズム~\cite{Sarawagi:04}で解く.ただし,MergeOptは重み付きの類似度を用いた類似文字列検索アルゴリズムであり,本論文と実験設定を揃えるため,次のような修正を行った.(1)文字列の特徴の重みはすべて等しいこととする.(2)提案手法と同様に,転置リストはサイズの昇順でソートする.(3)転置リストを候補生成用$S$と検証用$L$に分割するときは,提案手法と同様に$S$をシグニチャの転置リストとする.\item{\bfLocalitySensitiveHashing(LSH)}~\cite{Andoni:08,Ravichandran:06}:文字列のtri-gramを特徴とし,64ビットの局所鋭敏ハッシュ(LSH)値を計算する関数を$h(x)$とする.2つのハッシュ値$v_1$と$v_2$の,ビット単位でのハミング距離(ビットの異なり数)を,${\rmhdist}(v_1,v_2)$と書く.このシステムは,クエリ文字列$x$が与えられると,そのハッシュ値$h(x)$とのハミング距離が$\delta$以内の文字列を$V$から探し,解候補となる文字列集合$C$($|C|\ll|V|$)を求める.\begin{equation}C=\{y\inV\bigm|{\rmhdist}\left(h(x),h(y)\right)\leq\delta\}\label{equ:LSH-candidate}\end{equation}解候補のそれぞれの文字列$y\inC$に対して,実際に$x$との類似度を計算し,閾値以上の文字列を解とする.式\ref{equ:LSH-candidate}の正確な解を求めることは難しいため,Ravichandranら~\cite{Ravichandran:06}の手順を参考に,近似解を求める.基本的なアイディアは,データベース中の文字列のハッシュ値のビット列を並び替え,検索クエリの(ビット列を並び替えられた)ハッシュ値の近傍を探すという試行を繰り返せば,式\ref{equ:LSH-candidate}の近似解が求まるというものである.ある文字列のハッシュ値$h(y)$のビット列を,置換$\sigma_p$で並び替えたものを$\sigma_p(h(y))$で表し,そのような置換をランダムに$P$種類用意し,$\Sigma=\{\sigma_p\}$とする.置換$\sigma_p$を用いて,データベースに含まれている全ての文字列$y\inV$のハッシュ値のビット列を並び替え,辞書順にソートしたハッシュ値リストを$a_p$とする.置換を$P$種類別々に適用すると,ハッシュ値のリストも$P$種類作られる.すると,$a_p$の中でクエリの(置換が適用された)ハッシュ値$\sigma_p(h(x))$に近い要素を二分探索で求め,その近傍の$W$個の文字列の中でハミング距離が$\delta$以内のものを見つけ出すことで,式\ref{equ:LSH-candidate}を近似的に求めることができる.この処理を,準備しておいた$P$個の置換と,対応する$P$個のハッシュ値リストに対して行い,式\ref{equ:LSH-candidate}の近似解の精度を向上させる.LSHは,類似文字列検索の解の近似解を高速に求める手法であるため,検索漏れ(類似文字列が検索されない状況)が生じることがある.LSHでは,ハミング距離の閾値($\delta$),並び替えハッシュ値リストの数($P$),近傍探索の幅($W$)の3つのパラメータで検索速度と再現率のトレードオフを調整する.今回の実験では,実験的に$\delta=24$,$P=24$と決定し\footnote{パラメータ$P$は,並び替えたハッシュ値リストが全てメモリ上に載るようにするため,$24$と決定した.パラメータ$\delta$として,$\delta\in\{8,16,24\}$を試し,検索速度と再現率のバランスが良かった$24$を採用した.},$W$を$W\in\{16,32,64\}$と変えながら性能を測定した.\end{itemize}総当たり法とLSH以外のすべてのシステムは,図\ref{alg:approximate-string-matching}の実装を共有しており,$\tau$オーバーラップ問題の解法が性能差となって現れる.ハッシュ・データベースとしては,CDB++\footnote{http://www.chokkan.org/software/cdbpp/}を用い,提案手法をC++で実装したライブラリとして,SimString\footnote{http://www.chokkan.org/software/simstring/}を公開している.すべての実験は,IntelXeon5140CPU(2.33~GHz)と8~GBの主記憶を搭載したDebianGNU/Linux4.0のアプリケーション・サーバー上で行った.転置インデックスはファイル上に構築し,実験時には必要に応じて主記憶に読み込んでいる.\subsection{実験に用いたデータセット}実験に用いたデータセットは,以下の3つである.\begin{itemize}\item{\bfIMDB}:IMDBデータベース\footnote{ftp://ftp.fu-berlin.de/misc/movies/database/}のファイル\texttt{actors.list.gz}から抜き出した\pagebreakすべての俳優名(1,098,022文字列,18~MB).1つの文字列当たりの文字tri-gramの特徴数は17.2,データセット全体における文字tri-gramの種類数は42,180である.SimStringは,このデータセットから83~MBのインデックスファイル群を,56.6秒で構築した.\item{\bf日本語ユニグラム}:Web日本語Nグラム第1版\footnote{http://www.gsk.or.jp/catalog/GSK2007-C/catalog.html}に収録されている単語ユニグラム\linebreak(2,565,424文字列,49~MB).1つの文字列当たりの文字tri-gramの特徴数は20.8,データセット全体における文字tri-gramの種類数は137,675である\footnote{実験では日本語の文字列をUTF-8で表現し,UTF-8の1バイトを1文字とみなしてtri-gramを作っている.}.SimStringは,このデータセットから220~Mのインデックスファイル群を,134.0秒で構築した.\item{\bfUMLS}:UnifiedMedicalLanguageSystem(UMLS)\footnote{http://www.nlm.nih.gov/research/umls/}に収録されている生命医学分野の英語の概念や記述(5,216,323文字列,212~MB).評価に用いる文字列は,UMLSRelease2009AA(April6,2009)の\texttt{MRCONSO.RRF.aa.gz}及び\texttt{MRCONSO.RRF.ab.gz}というファイルに含まれる全ての英語の概念名である.一つの文字列当たりの文字tri-gramの特徴数は43.6,データセット全体における文字tri-gramの種類数は171,596である.SimStringは,このデータセットから1.1~GBのインデックスファイル群を,1216.8秒で構築した.\end{itemize}それぞれのデータセットにおいて,1,000個の文字列をランダムに選び,テスト用のクエリ文字列とした.完全には一致しない文字列で検索する状況をシミュレートするため,1,000個の文字列のうち,1/3の文字列はそのまま,1/3の文字列には1文字をランダムな文字に置換,残りの1/3の文字列には2文字をランダムな文字に置換している.\subsection{1クエリあたりの平均レスポンス時間}\begin{figure}[b]\vspace{-1\baselineskip}\begin{center}\includegraphics{18-2ia2f6.eps}\end{center}\caption{1クエリ当たりの平均レスポンス時間(横軸はデータセットのサイズ)}\label{fig:query-time}\end{figure}図\ref{fig:query-time}に,各データセットでコサイン係数が0.7以上の類似文字列を検索するときの,1クエリあたりの平均レスポンス時間を示した.グラフの横軸は,データベースに登録する文字列の数($|V|$)で,データセット全体の10\%から100\%まで変化させた.また,表\ref{tbl:response}に,各データセットをすべて(100\%)利用したときのシステム性能として,検索の再現率(Recall),1クエリあたりの平均レスポンス時間(Mean),1クエリに対する最遅レスポンス時間(Max)をまとめた.実験したシステムの中ではLSH($W=16$)が最も高速に文字列を検索でき,データサイズが100\%の時の平均レスポンス時間は,0.53~ms(IMDB),1.61~ms(日本語ユニグラム),2.11~ms(UMLS)であった.また,平均レスポンス時間に対して最遅レスポンス時間がどのくらい遅くなるのかに着目すると,LSHは入力クエリの影響を受けにくいことが分かる\footnote{LSH(W=16)に関しては,最遅レスポンス時間が平均レスポンス時間と比べてかなり遅くなっているが,これは1クエリ当たりの処理時間が非常に短いため,実行時間の測定値の誤差が出やすくなるためと考えられる.}.これは,LSHでは探索範囲が$\delta$,$P$,$W$などのパラメータで一定に保たれるからである.一方,LSH以外の手法(総当たり法を除く)は,クエリ文字列に応じて$|Y|$の探索範囲が変化し,さらに,クエリ文字列に応じて転置リストのサイズが異なる(つまり,処理すべきSIDの数が変化する)ため,レスポンス時間のばらつきが大きくなる.\begin{table}[b]\hangcaption{各データセットを100\%利用したときのシステムの性能(Recall:再現率,Mean:平均レスポンス時間[ms/query],Max:最遅レスポンス時間[ms/query]).総当たり法に対しては,平均レスポンス時間のみを掲載した.}\label{tbl:response}\input{02table05.txt}\end{table}しかし,LSH($W=16$)は検索漏れが非常に多い.総当たり法で検索される類似文字列を正解とみなし,そのどのくらいをカバーできているか(再現率)を測定すると,LSH($W=16$)の再現率は,15.4\%(IMDB),7.5\%(日本語ユニグラム),4.0\%(UMLS)であった.これは,式\ref{equ:LSH-candidate}の近似解の精度が悪いためである.LSHの再現率を改善するには,周辺探索の幅($W$)を大きくすればよいが,レスポンス時間を犠牲にしなければならない.例えば,LSH($W=64$)では,再現率は25.8\%(IMDB),15.4\%(日本語ユニグラム),11.1\%(UMLS)に改善されるが,レスポンス時間は29.72~ms(IMDB9,38.07~ms(日本語ユニグラム),79.73~ms(UMLS)まで遅くなる.これに対し,提案手法では調整するパラメータもなく,正確な解(100\%の再現率)が保証されている.したがって,類似文字列検索の再現率を重視する場合は,提案手法の方が優れている.提案手法-optは,正確な解が得られるシステムの中で最もレスポンスが速く,データサイズが100\%の時の平均レスポンス時間は,1.07~ms(IMDB),26.99~ms(日本語ユニグラム),20.37~ms(UMLS)であった.提案手法と提案手法-optを比較すると,図\ref{alg:t-overlap-cpmerge-post}の実装上の工夫を利用することで,レスポンス時間が1.7〜2.1倍高速になった.そこで,以降の説明では単に「提案手法」というと,図\ref{alg:t-overlap-cpmerge-post}の工夫を適用した「提案手法-opt」を指すこととする.総当たり法のレスポンス時間は図\ref{fig:query-time}にプロットできないくらい遅く,32.8~s(IMDB),92.7~s(日本語ユニグラム),416.3~s(UMLS)であった.提案手法は,総当たり法よりも3,400〜20,000倍高速に動作し,類似文字列検索を実用的な速度で実現している.提案手法は,AllScanアルゴリズムよりもかなり高速に動作し,検索速度は65.3倍(IMDB),24.8倍(日本語ユニグラム),19.2倍(UMLS)高速であった.提案手法とSignatureシステムを比較すると,提案手法の方がSignatureよりも115.9倍(IMDB),237.0倍(日本語ユニグラム),2323倍(UMLS)高速であった.Signatureシステムと提案手法の差は,解候補の枝刈り(図\ref{alg:t-overlap-cpmerge}の17〜18行目)のみであるが,この処理を省くと大幅にレスポンスが低下し,AllScanアルゴリズムよりも遅くなる.これらのシステムの比較から,$\tau$オーバーラップ問題を解く際に解候補を絞り込んでおくこと,二分探索の回数を減らすために解候補の枝刈りをすることが,非常に重要であることが伺える.先行研究であるMergeOpt,SkipMerge,DivideSkipは,各転置リストの先頭(SIDの小さい方)からSIDを優先順位付きキューに挿入するアルゴリズムを採用しており,$\tau$オーバーラップ問題の解き方が提案手法と全く異なる.このため,レスポンス時間の差の要因を分析することは難しいが,提案手法はMergeOptよりも6.47〜9.68倍,SkipMergeよりも5.14〜6.15倍,DivideSkipよりも11.1〜24.1倍高速であった.IMDBデータセットにおいて,提案手法が検索に最も時間を要したクエリ文字列は,``Morales,Michael(VIII)''で,11.8~msを要した.以下,``Reiner,Robert(I)''(9.2~ms),``Dore,Michael(I)''(9.2~ms),``Dow,Christopher(III)''(8.6~ms),``Cain,William(II)''(8.0~ms)と続く.これらのクエリが遅いのは,データセット中に似ている文字列(例えば``Morales,Michael(III)''や``Morales,Rafael(VIII)''など)が多く,$\tau$-オーバーラップ問題を解くときに多くの解候補を抱えるためである.例えば,``Morales,Michael(VIII)''というクエリに対し,データセット中の72,375個の文字列が解候補となり,最終的に解になったのは42文字列であった.一方,提案手法とSkipMergeアルゴリズムのレスポンス時間の差を計算したとき,提案手法の改善が最も顕著に表れたクエリの上位3件は,``Morales,Michael(VIII)''($-44.4$~ms),``Pittman,Robert(III)''($-39.0$~ms),``Richards,Jon(VII)''($-36.6$~ms)であった.ここでも,``Morales,Michael(VIII)''というクエリが登場し,その他の2つのクエリも解候補が非常に多い(40,000個以上)ことから,データセット中にクエリ文字列と似ている文字列が多く存在するとき,提案手法の優位性が際立つと考えられる.逆に,提案手法がSkipMergeアルゴリズムよりも遅くなったクエリは無かったものの,改善が全く見られなかったクエリとして,``Zhao,lSh@nqiu''($\pm0$~ms),``Peral9a,dStacy''($\pm0$~ms),``Sen]g[renqing''($\pm0$~ms)などが見つかった.これらのクエリは,元々``Zhao,Shenqiu'',``Peralta,Stacy'',``Senggerenqing''の文字列にノイズが加わったものと考えられるが,転置リストに含まれる文字列の種類数が非常に少なく,それぞれ3個,108個,18個であった.したがって,転置リストにおいて処理すべき文字列の数が圧倒的に少ないため,アルゴリズム間の差が出にくくなったと考えられる.このような場合でも,提案手法はSkipMergeアルゴリズムよりも遅くならず,同程度のレスポンス時間を出していた.\begin{figure}[b]\begin{center}\includegraphics{18-2ia2f7.eps}\end{center}\caption{1クエリ当たりの平均レスポンス時間(横軸は類似度閾値)}\label{fig:query-time-sim}\end{figure}図\ref{fig:query-time-sim}は,異なる類似度関数と閾値を用いたときの,提案手法のレスポンス時間を示している.類似度の閾値を低く設定すると,類似文字列検索の解となる文字列の数$|\mathcal{Y}|$が大きくなるので,提案手法のレスポンス時間が遅くなる.類似度関数の良さはタスク依存で決めることであるが,同じ閾値を用いた場合はジャッカード係数が最も速く,ダイス係数とコサイン係数が同程度,オーバーラップ係数が最も遅いという傾向が見られる.この傾向は,類似度関数の性質(どの程度文字列を類似していると見なすか)によって,類似文字列検索の解の数が異なることから説明できる.例えば,日本語ユニグラムコーパスにおいて閾値0.7で類似文字列検索を行った場合,ジャッカード係数,ダイス係数,コサイン係数,オーバーラップ係数が返す解文字列数の平均は,それぞれ,1.2個,14.8個,16.2個,1036.4個であった.したがって,類似文字列検索では,最も多い解を返すオーバーラップ係数が遅く,最も少ない解を返すジャッカード係数が速くなる.また,表\ref{tbl:conditions}の必要条件から求まる$|Y|$の探索範囲が,ジャッカード係数では最も狭く\footnote{$0\leq\alpha\leq1$であるから,$|Y|$の探索範囲の下限に関して,$\alpha^2|X|\leq\alpha|X|$,$\frac{\alpha}{2-\alpha}|X|\leq\alpha|X|$が成立する.$|Y|$の探索範囲の上限に関しても,$|X|/\alpha\leq|X|/\alpha^2$,$|X|/\alpha\leq\frac{2-\alpha}{\alpha}|X|$であり,ダイス係数やコサイン係数よりもジャッカード係数の方が,同じ閾値$\alpha$を用いたとき,$|Y|$の探索範囲が狭くなる.},オーバーラップ係数では$|Y|$の探索範囲に制約が付かないことから,類似度関数による検索速度の違いを推察できる.\subsection{提案手法の動作統計}\label{sect:cpmerge-stat}\begin{table}[b]\caption{提案手法が各データセットで類似文字列検索を行うときの動作統計}\label{tbl:stats}\input{02table06.txt}\end{table}表\ref{tbl:stats}は,提案手法が各データセットにおいて類似文字列検索を行うときの,様々な統計情報をまとめたものである(類似度にコサイン係数を用い,閾値は0.7とした).この表の見方をIMDBデータセットで説明すると,提案手法はサイズが8.74から34.06までの文字列を検索対象とし,1クエリあたり4.63文字列を解として返した.提案手法の候補生成フェーズでは,平均4.6個の転置リストに含まれる279.7個のSIDを走査し,232.5個の解候補を得た.提案手法の候補検証フェーズでは,平均4.3個の転置リストに対して二分探索を行い,7,561.8個のSIDが二分探索の対象となった.これに対し,AllScanアルゴリズムは,17.7個の転置リストに含まれる16,155.1個のSIDを走査しなければならず,平均4.63個の解を求めるのに,9,788.7個の文字列を候補として考慮する必要があった.この表は,提案手法の3つの特筆すべき特徴を表している.\begin{itemize}\item提案手法はAllScanアルゴリズムと比較すると,走査するSIDの数を格段に減らしている.例えば,IMDBデータセットにおいて解候補を得るために,AllScanアルゴリズムは16,155.1個のSIDを走査する必要があったが,提案手法は279.7個のSIDを走査するだけで済んだ.別の言い方をすれば,提案手法はAllScanアルゴリズムと比較すると,1.1\%〜3.5\%の文字列を走査すれば,解候補が得られることを示している.\item提案手法はAllScanアルゴリズムと比較すると,解候補の数を9,788.7から232.5に減らしている.すなわち,解候補の数は提案手法により1.2\%〜6.6\%まで削減された.\item提案手法はAllScanアルゴリズムと比較すると,主記憶上に展開すべき転置リストの数を減らすことができる.提案手法は,$\tau$オーバーラップ問題を解くために,8.9(IMDB),18.8(日本語ユニグラム),31.7(UMLS)個の転置リストを使っている\footnote{これらの値は,4.6+4.3,7.0+11.8,14.3+17.4として計算される.}.AllScanアルゴリズムが用いる転置リストの数と比べると,提案手法は50.3\%(IMDB),53.6\%(日本語ユニグラム),51.9\%(UMLS)の転置リストしかアクセスしないことを意味する.これは,図\ref{alg:t-overlap-cpmerge}のアルゴリズムで,$k\approx0.5|X|$付近で解候補の検証・枝刈りが完了し,解の候補が0になっているからである.提案手法では,$k$が大きくなるにつれ,転置リストのサイズが大きくなるが,サイズの大きい転置リストをメモリ上に展開することなく,$\tau$オーバーラップ問題を解けるのは,提案手法の大きなアドバンテージである.\end{itemize}
\section{関連研究}
\label{sec:related-work}類似文字列検索は,データベースやデータマイニングの分野で,盛んに研究が行われている.その中で最も多い研究は,文字列の編集距離を距離尺度として用いるものである.Gravanoら~\cite{Gravano:01}は,$n$-gram\footnote{データベースの分野では$q$-gramと呼ばれることが多い.}で文字列のインデックスを作り,オーバーラップの個数,位置,文字列のサイズなどで編集距離の制約を満たす解を絞り込む方法を提案した.Kimら~\cite{Kim:05}は,$n$-gramが出現した場所をインデックスに効率よく格納するため,2階層の$n$-gramインデックスを提案した.Liら~\cite{Li:07}は,クエリの処理速度を向上させるため,可変長の$n$を用いた$n$-gramインデックスを用いた.Leeら~\cite{Lee:07}は,ワイルドカードを含む$n$-gramでインデックスを作り,編集距離制約の類似文字列を効率よく検索する手法を考案した.Xiaoら~\cite{Xiao:08}は,検索クエリとマッチングできなかった$n$-gramを活用する,Ed-Joinアルゴリズムを提案した.文字列を$n$-gramなどで表現することなく,編集距離に基づく類似文字列検索を実現する方式も,いくつか提案されている.Bocekら~\cite{Bocek:07}は,データベースに文字列を格納するときに,元の文字列に近い複数の隣接文字列を格納するアプローチ(隣接文字列生成)として,FastSimilaritySearch(FastSS)を提案した.Wangら~\cite{Wang:09}は,隣接文字列生成手法を改善するため,文字列を分割したり,接頭辞で枝刈りを行う方法を紹介した.Huynhら~\cite{Huynh:06}は,圧縮された接尾辞配列上で類似文字列検索を行うアルゴリズムを提案した.Liuら~\cite{Liu:08}は,文字列をトライに格納し,類似文字列検索を行う枠組みを提案した.これまでに紹介した研究は,編集距離を類似度関数として採用した場合に特化している.Chaudhuriら~\cite{Chaudhuri:06}は,編集距離とジャッカード係数に対する類似文字列検索に向けて,SSJoin演算を提案した.このアルゴリズムは,検索クエリ文字列からシグニチャを作成し,シグニチャの特徴を含む全ての文字列を解候補として検索し,編集距離やジャッカード係数の制約を満たす文字列を選び出すものである.Chaudhuriらは,関係データベースの等結合(equi-join)を用いてSSJoin演算を実装する方法を示した.本論文では,SSJoin演算を関係データベース上で実装していないが,これは第\ref{sec:evaluation}節のSignatureシステムと同等である.Sarawagiら~\cite{Sarawagi:04}は,$\tau$オーバーラップ問題を解くアルゴリズムとして,MergeOptを提案した.このアルゴリズムは,転置リストを$S$と$L$という2つのグループに分け,$S$で解の候補生成を行い,$L$で解の検証を行う.提案手法と異なる点は,$S$で解の候補生成を行うときにヒープを用いる点,$L$で解の検証を行うときに,枝刈りを行わない点である.Liら~\cite{Li:08}は,Sarawagiらの手法を改良し,SkipMergeとDivideSkipというアルゴリズムを提案した.SkipMergeアルゴリズムは,全ての転置リストの先頭から順にSIDをヒープに挿入し,ヒープの先頭から同じSIDの要素を取り出したとき,取り出された個数が$\tau$を超えたら,そのSIDを解とするものである.ただし,ヒープに転置リストからSIDを挿入するときに,$\tau$オーバーラップ問題の解となり得ない要素をスキップするメカニズムが組み込まれており,転置リスト中の全てのSIDをヒープに挿入しなくても,$\tau$オーバーラップ問題が解けるように工夫されている.DivideSkipアルゴリズムは,MergeOptアルゴリズムと同様,転置リストを$S$と$L$という2つのグループに分け,SkipMergeアルゴリズムを$S$に適用して解の候補生成を行い,$L$で解の検証を行うものである.しかしながら,DivideSkipアルゴリズムでは解の枝刈り方法については,述べられていない.これらの手法と提案手法を解析的に比較するのは難しいが,第\ref{sec:evaluation}節では,SkipMergeとDivideSkipアルゴリズムによる類似文字列検索の性能を測定し,提案手法の方が高速に検索できることを実験的に示した.続いて,提案手法とMergeOpt,SkipMerge,DivideSkipを空間計算量に関して比較する.ここに挙げた全てのアルゴリズムは,転置リスト上で二分探索を行うため,特殊な工夫をしない限り,転置リストの内容を主記憶に読み込む必要がある.最悪の場合を考えると,どのアルゴリズムも与えられたクエリ文字列に対して,最もサイズの大きい転置リストを主記憶に読み込む必要が生じる\footnote{細かい議論になるが,SkipMergeとDivideSkipでは複数の転置リスト上で並行して二分探索を行うため,特殊な工夫を施さない限り,複数の転置リストを同時に主記憶に読み込む必要が生じる.}.これに加え,各アルゴリズムとも解文字列の候補を主記憶上に保持しておく必要がある.MergeOpt,SkipMerge,DivideSkipアルゴリズムは,解候補をヒープに格納するアルゴリズムであり,ヒープに格納される解候補の数は,クエリに対する転置リストの数(すなわち,クエリの特徴集合$X$の要素数$|X|$)を超えない.これに対し,提案手法は,いったん解候補の列挙を行うため,おおよそ$\mbox{(転置リストの平均要素数)}\times(|X|-\tau+1)$程度の解候補を主記憶に保持することになる.したがって,提案手法はMergeOpt,SkipMerge,DivideSkipアルゴリズムよりも空間計算量が大きくなる.表\ref{tbl:stats}には,提案手法の各データセットにおける解候補数(\#候補)が示されている.これによると,途中で保持した解候補数は数百〜数千程度のオーダーであり,提案手法の空間計算量は実用上は問題にならないと考えられる.最後に,類似文字列検索に近いタスクとして,類似文字列照合との関係を説明する.このタスクでは,与えられた2つの文字列の表記が近いかどうかを精密に検出するため,文字列の類似度関数を改良したり~\cite{Winkler:99,Cohen:03},機械学習で獲得するアプローチ~\cite{Bergsma:07,Davis:07,Tsuruoka:07,Aramaki:08}が取られる.これらの研究成果を用いると,2つの文字列の類似性を高精度に判別できるが,判別する2つの文字列があらかじめ与えられることを前提としている.このような精細な類似度で類似文字列検索を行いたい場合は,適当な類似度関数に対して緩い閾値$\alpha$を用い,提案手法で類似文字列の候補を獲得してから,類似文字列照合を適用すればよい.
\section{まとめ}
\label{sec:conclusion}本論文では,コサイン係数,ダイス係数,ジャッカード係数,オーバーラップ係数を用いた類似文字列検索のための,新しいアルゴリズムを提案した.類似文字列検索を,$\tau$オーバーラップ問題に帰着させ,その簡潔かつ高速なアルゴリズムとしてCPMergeを提案した.このアルゴリズムは,$\tau$オーバーラップ問題の解候補をできるだけコンパクトに保ち,解を効率よく求めるものである.英語の人名,日本語の単語,生命医学分野の固有表現を文字列データとして,類似文字列検索の性能を評価した.CPMergeアルゴリズムは非常にシンプルであるが,類似文字列検索の最近の手法であるLocalitySensitiveHashing(LSH)~\cite{Andoni:08}やDivideSkip~\cite{Li:08}と比べ,高速かつ正確に文字列を検索できることを実証した.自然言語処理を実テキストに適用するときの基礎的な技術として,本研究の成果が活用されることを期待している.CPMergeアルゴリズムが従来手法(例えばMergeSkip)に対して特に有利なのは,全ての転置リストを主記憶に読み込まなくても,類似文字列検索の解を求めることができる点である.表\ref{tbl:stats}に示した通り,CPMergeアルゴリズムはクエリに対して約50\%の転置リストを読み込むだけで,類似文字列検索の解を求めることができた(コサイン類似度で閾値が0.7の場合).提案手法と従来手法は,アルゴリズム中で二分探索を用いるため,転置リスト上におけるランダムアクセスを,(暗黙的に)仮定している.したがって,読み込む転置リストの数を減らすことができるという提案手法の特徴は,転置リストを圧縮する際に有利であると考えられる.転置リストの圧縮に関する最近の研究成果~\cite{Behm:09,Yan:09}を参考に,圧縮された転置リストを用いた類似文字列検索を今後検討したいと考えている.\acknowledgment本研究は,岡崎が東京大学大学院情報学環,辻井が東京大学大学院情報学環,マンチェスター大学,英国国立テキストマイニングセンターに所属していた際に進められたものである.本研究の一部は,科学技術振興調整費・重要課題解決型研究等の推進「日中・中日言語処理技術の開発研究」,文部科学省科学研究費補助金特別推進研究「高度言語理解のための意味・知識処理の基盤技術に関する研究」の助成を受けたものである.本論文に関して,大変有益かつ丁寧なコメントを頂いた査読者の方々に,感謝の意を表する.\section*{付録:その他の類似度関数の条件式の導出}\subsection*{ダイス関数の場合}ダイス関数の定義は,\begin{equation}\rm{dice}(X,Y)=\frac{2|X\capY|}{|X|+|Y|}\end{equation}この関数の値が$\alpha$以上となる必要十分条件は,\begin{align}\alpha\leq&\frac{2|X\capY|}{|X|+|Y|}\\\frac{1}{2}\alpha(|X|+|Y|)\leq&|X\capY|\leq\max\{|X|,|Y|\}\label{equ:NS-dice}\end{align}$|X\capY|$は整数であることに注意すると,必要十分条件が得られる.\begin{equation}\left\lceil\frac{1}{2}\alpha(|X|+|Y|)\right\rceil\leq|X\capY|\leq\max\left\{|X|,|Y|\right\}\end{equation}式\ref{equ:NS-dice}において,$|X\capY|$の項を削除すると,\begin{equation}\frac{1}{2}\alpha(|X|+|Y|)\leq\max\left\{|X|,|Y|\right\}\end{equation}$|X|<|Y|$のとき,$|Y|$について解くと,\begin{equation}\frac{\alpha}{2-\alpha}|X|\leq|Y|\end{equation}$|X|\leq|Y|$のとき,$|Y|$について解くと,\begin{equation}|Y|\leq\frac{2-\alpha}{\alpha}|X|\end{equation}これらをまとめ,$|Y|$が整数であることに注意すると,$|Y|$の必要条件が得られる.\begin{equation}\left\lceil\frac{\alpha}{2-\alpha}|X|\right\rceil\leq|Y|\leq\left\lfloor\frac{2-\alpha}{\alpha}|X|\right\rfloor\end{equation}\subsection*{ジャッカード関数の場合}ジャッカード関数の定義は,\begin{equation}\rm{jaccard}(X,Y)=\frac{|X\capY|}{|X\cupY|}=\frac{|X\capY|}{|X|+|Y|-|X\capY|}\end{equation}この関数の値が$\alpha$以上となる必要十分条件は,\begin{align}\alpha\leq&\frac{|X\capY|}{|X|+|Y|-|X\capY|}\\\frac{\alpha}{1+\alpha}\left(|X|+|Y|\right)\leq&|X\capY|\leq\max\{|X|,|Y|\}\label{equ:NS-jaccard}\end{align}$|X\capY|$は整数であることに注意すると,必要十分条件が得られる.\begin{equation}\left\lceil\frac{\alpha}{1+\alpha}\left(|X|+|Y|\right)\right\rceil\leq|X\capY|\leq\max\left\{|X|,|Y|\right\}\end{equation}式\ref{equ:NS-jaccard}において,$|X\capY|$の項を削除すると,\begin{equation}\frac{\alpha}{1+\alpha}\left(|X|+|Y|\right)\leq\max\left\{|X|,|Y|\right\}\end{equation}$|X|<|Y|$のとき,$|Y|$について解くと,\begin{equation}\alpha|X|\leq|Y|\end{equation}$|X|\leq|Y|$のとき,$|Y|$について解くと,\begin{equation}|Y|\leq\frac{|X|}{\alpha}\end{equation}これらをまとめ,$|Y|$が整数であることに注意すると,$|Y|$の必要条件が得られる.\begin{equation}\left\lceil\alpha|X|\right\rceil\leq|Y|\leq\left\lfloor\frac{|X|}{\alpha}\right\rfloor\end{equation}\subsection*{オーバーラップ関数の場合}オーバーラップ関数の定義は,\begin{equation}\rm{overlap}(X,Y)=\frac{|X\capY|}{\min\{|X|,|Y|\}}\end{equation}この関数の値が$\alpha$以上となる必要十分条件は,\begin{align}\alpha\leq&\frac{|X\capY|}{\min\{|X|,|Y|\}}\\\alpha\min\{|X|,|Y|\}\leq&|X\capY|\leq\max\{|X|,|Y|\}\label{equ:NS-overlap}\end{align}$|X\capY|$は整数であることに注意すると,必要十分条件が得られる.\begin{equation}\left\lceil\alpha\min\{|X|,|Y|\}\right\rceil\leq|X\capY|\leq\max\left\{|X|,|Y|\right\}\end{equation}式\ref{equ:NS-overlap}において,$|X\capY|$の項を削除すると,\begin{equation}\alpha\min\{|X|,|Y|\}\leq\max\{|X|,|Y|\}\label{equ:N-overlap}\end{equation}ここで,$\min\{|X|,|Y|\}\leq\max\{|X|,|Y|\}$,$0\leq\alpha\leq1$であるから,式\ref{equ:N-overlap}は$Y$や$\alpha$の選び方に依らず,常に成立する.従って,オーバーラップ関数を用いた類似文字列検索では,$|Y|$に関する必要条件はない.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ahmad\BBA\Kondrak}{Ahmad\BBA\Kondrak}{2005}]{Ahmad:05}Ahmad,F.\BBACOMMA\\BBA\Kondrak,G.\BBOP2005\BBCP.\newblock\BBOQLearningaSpellingErrorModelfromSearchQueryLogs.\BBCQ\\newblockIn{\BemProceedingsoftheconferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLanguageProcessing(HLT-EMNLP2005)},\mbox{\BPGS\955--962}.\bibitem[\protect\BCAY{Andoni\BBA\Indyk}{Andoni\BBA\Indyk}{2008}]{Andoni:08}Andoni,A.\BBACOMMA\\BBA\Indyk,P.\BBOP2008\BBCP.\newblock\BBOQNear-optimalhashingalgorithmsforapproximatenearestneighborinhighdimensions.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf51}(1),\mbox{\BPGS\117--122}.\bibitem[\protect\BCAY{Aramaki,Imai,Miyo,\BBA\Ohe}{Aramakiet~al.}{2008}]{Aramaki:08}Aramaki,E.,Imai,T.,Miyo,K.,\BBA\Ohe,K.\BBOP2008\BBCP.\newblock\BBOQOrthographicDisambiguationIncorporatingTransliteratedProbability.\BBCQ\\newblockIn{\BemIJCNLP2008:ProceedingsoftheThirdInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\48--55}.\bibitem[\protect\BCAY{Arasu,Ganti,\BBA\Kaushik}{Arasuet~al.}{2006}]{Arasu:06}Arasu,A.,Ganti,V.,\BBA\Kaushik,R.\BBOP2006\BBCP.\newblock\BBOQEfficientExactSet-SimilarityJoins.\BBCQ\\newblockIn{\BemVLDB'06:Proceedingsofthe32ndInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\918--929}.\bibitem[\protect\BCAY{Behm,Ji,Li,\BBA\Lu}{Behmet~al.}{2009}]{Behm:09}Behm,A.,Ji,S.,Li,C.,\BBA\Lu,J.\BBOP2009\BBCP.\newblock\BBOQSpace-ConstrainedGram-BasedIndexingforEfficientApproximateStringSearch.\BBCQ\\newblockIn{\BemICDE'09:Proceedingsofthe2009IEEEInternationalConferenceonDataEngineering},\mbox{\BPGS\604--615}.\bibitem[\protect\BCAY{Bergsma\BBA\Kondrak}{Bergsma\BBA\Kondrak}{2007}]{Bergsma:07}Bergsma,S.\BBACOMMA\\BBA\Kondrak,G.\BBOP2007\BBCP.\newblock\BBOQAlignment-BasedDiscriminativeStringSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL2007)},\mbox{\BPGS\656--663}.\bibitem[\protect\BCAY{Bocek,Hunt,\BBA\Stiller}{Boceket~al.}{2007}]{Bocek:07}Bocek,T.,Hunt,E.,\BBA\Stiller,B.\BBOP2007\BBCP.\newblock\BBOQFastSimilaritySearchinLargeDictionaries.\BBCQ\\newblock\BTR\ifi-2007.02,DeportmentofInformatics(IFI),UniversityofZurich.\bibitem[\protect\BCAY{Brill\BBA\Moore}{Brill\BBA\Moore}{2000}]{Brill:00}Brill,E.\BBACOMMA\\BBA\Moore,R.~C.\BBOP2000\BBCP.\newblock\BBOQAnImprovedErrorModelforNoisyChannelSpellingCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingontheAssociationforComputationalLinguistics(ACL2000)},\mbox{\BPGS\286--293}.\bibitem[\protect\BCAY{Chaudhuri,Ganti,\BBA\Kaushik}{Chaudhuriet~al.}{2006}]{Chaudhuri:06}Chaudhuri,S.,Ganti,V.,\BBA\Kaushik,R.\BBOP2006\BBCP.\newblock\BBOQAPrimitiveOperatorforSimilarityJoinsinDataCleaning.\BBCQ\\newblockIn{\BemICDE'06:Proceedingsofthe22ndInternationalConferenceonDataEngineering},\mbox{\BPGS\5--16}.\bibitem[\protect\BCAY{Chen,Li,\BBA\Zhou}{Chenet~al.}{2007}]{Chen:07}Chen,Q.,Li,M.,\BBA\Zhou,M.\BBOP2007\BBCP.\newblock\BBOQImprovingQuerySpellingCorrectionUsingWebSearchResults.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\181--189}.\bibitem[\protect\BCAY{Cohen,Ravikumar,\BBA\Fienberg}{Cohenet~al.}{2003}]{Cohen:03}Cohen,W.~W.,Ravikumar,P.,\BBA\Fienberg,S.~E.\BBOP2003\BBCP.\newblock\BBOQAComparisonofStringDistanceMetricsforName-MatchingTasks.\BBCQ\\newblockIn{\BemProceedingsoftheIJCAI-2003WorkshoponInformationIntegrationontheWeb(IIWeb-03)},\mbox{\BPGS\73--78}.\bibitem[\protect\BCAY{Davis,Kulis,Jain,Sra,\BBA\Dhillon}{Daviset~al.}{2007}]{Davis:07}Davis,J.~V.,Kulis,B.,Jain,P.,Sra,S.,\BBA\Dhillon,I.~S.\BBOP2007\BBCP.\newblock\BBOQInformation-TheoreticMetricLearning.\BBCQ\\newblockIn{\BemICML'07:Proceedingsofthe24thInternationalConferenceonMachineLearning},\mbox{\BPGS\209--216}.\bibitem[\protect\BCAY{Gravano,Ipeirotis,Jagadish,Koudas,Muthukrishnan,\BBA\Srivastava}{Gravanoet~al.}{2001}]{Gravano:01}Gravano,L.,Ipeirotis,P.~G.,Jagadish,H.~V.,Koudas,N.,Muthukrishnan,S.,\BBA\Srivastava,D.\BBOP2001\BBCP.\newblock\BBOQApproximateStringJoinsinaDatabase(Almost)forFree.\BBCQ\\newblockIn{\BemVLDB'01:Proceedingsofthe27thInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\491--500}.\bibitem[\protect\BCAY{Huynh,Hon,Lam,\BBA\Sung}{Huynhet~al.}{2006}]{Huynh:06}Huynh,T.N.~D.,Hon,W.-K.,Lam,T.-W.,\BBA\Sung,W.-K.\BBOP2006\BBCP.\newblock\BBOQApproximatestringmatchingusingcompressedsuffixarrays.\BBCQ\\newblock{\BemTheoreticalComputerScience},{\Bbf352}(1-3),\mbox{\BPGS\240--249}.\bibitem[\protect\BCAY{Jongejan\BBA\Dalianis}{Jongejan\BBA\Dalianis}{2009}]{Jongejan:09}Jongejan,B.\BBACOMMA\\BBA\Dalianis,H.\BBOP2009\BBCP.\newblock\BBOQAutomaticTrainingofLemmatizationRulesthatHandleMorphologicalChangesinpre-,in-andSuffixesAlike.\BBCQ\\newblockIn{\BemACL-IJCNLP'09:ProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP:Volume1},\mbox{\BPGS\145--153}.\bibitem[\protect\BCAY{Kim,Whang,Lee,\BBA\Lee}{Kimet~al.}{2005}]{Kim:05}Kim,M.-S.,Whang,K.-Y.,Lee,J.-G.,\BBA\Lee,M.-J.\BBOP2005\BBCP.\newblock\BBOQ{n-Gram/2L}:aSpaceandTimeEfficientTwo-Leveln-GramInvertedIndexStructure.\BBCQ\\newblockIn{\BemVLDB'05:Proceedingsofthe31stInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\325--336}.\bibitem[\protect\BCAY{Lee,Ng,\BBA\Shim}{Leeet~al.}{2007}]{Lee:07}Lee,H.,Ng,R.~T.,\BBA\Shim,K.\BBOP2007\BBCP.\newblock\BBOQExtendingq-GramstoEstimateSelectivityofStringMatchingwithLowEditDistance.\BBCQ\\newblockIn{\BemVLDB'07:Proceedingsofthe33rdInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\195--206}.\bibitem[\protect\BCAY{Li,Lu,\BBA\Lu}{Liet~al.}{2008}]{Li:08}Li,C.,Lu,J.,\BBA\Lu,Y.\BBOP2008\BBCP.\newblock\BBOQEfficientMergingandFilteringAlgorithmsforApproximateStringSearches.\BBCQ\\newblockIn{\BemICDE'08:Proceedingsofthe2008IEEE24thInternationalConferenceonDataEngineering},\mbox{\BPGS\257--266}.\bibitem[\protect\BCAY{Li,Wang,\BBA\Yang}{Liet~al.}{2007}]{Li:07}Li,C.,Wang,B.,\BBA\Yang,X.\BBOP2007\BBCP.\newblock\BBOQVGRAM:ImprovingPerformanceofApproximateQueriesonStringCollectionsusingVariable-LengthGrams.\BBCQ\\newblockIn{\BemVLDB'07:Proceedingsofthe33rdInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\303--314}.\bibitem[\protect\BCAY{Li,Zhang,Zhu,\BBA\Zhou}{Liet~al.}{2006}]{Li:06}Li,M.,Zhang,Y.,Zhu,M.,\BBA\Zhou,M.\BBOP2006\BBCP.\newblock\BBOQExploringDistributionalSimilaritybasedModelsforQuerySpellingCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(Coling-ACL2006)},\mbox{\BPGS\1025--1032}.\bibitem[\protect\BCAY{Liu,Li,Feng,\BBA\Zhou}{Liuet~al.}{2008}]{Liu:08}Liu,X.,Li,G.,Feng,J.,\BBA\Zhou,L.\BBOP2008\BBCP.\newblock\BBOQEffectiveIndicesforEfficientApproximateStringSearchandSimilarityJoin.\BBCQ\\newblockIn{\BemWAIM'08:Proceedingsofthe2008TheNinthInternationalConferenceonWeb-AgeInformationManagement},\mbox{\BPGS\127--134}.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Sch\"{u}tze}{Manninget~al.}{2008}]{IR}Manning,C.~D.,Raghavan,P.,\BBA\Sch\"{u}tze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Okazaki,Tsuruoka,Ananiadou,\BBA\Tsujii}{Okazakiet~al.}{2008}]{Okazaki:08}Okazaki,N.,Tsuruoka,Y.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQADiscriminativeCandidateGeneratorforStringTransformations.\BBCQ\\newblockIn{\BemEMNLP'08:ProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\447--456}.\bibitem[\protect\BCAY{Porter}{Porter}{1980}]{Porter:80}Porter,M.~F.\BBOP1980\BBCP.\newblock\BBOQAnalgorithmforsuffixstripping.\BBCQ\\newblock{\BemProgram},{\Bbf14}(3),\mbox{\BPGS\130--137}.\bibitem[\protect\BCAY{Ravichandran,Pantel,\BBA\Hovy}{Ravichandranet~al.}{2005}]{Ravichandran:06}Ravichandran,D.,Pantel,P.,\BBA\Hovy,E.\BBOP2005\BBCP.\newblock\BBOQRandomizedAlgorithmsandNLP:UsingLocalitySensitiveHashFunctionforHighSpeedNounClustering.\BBCQ\\newblockIn{\BemACL'05:Proceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\622--629}.\bibitem[\protect\BCAY{Sarawagi\BBA\Kirpal}{Sarawagi\BBA\Kirpal}{2004}]{Sarawagi:04}Sarawagi,S.\BBACOMMA\\BBA\Kirpal,A.\BBOP2004\BBCP.\newblock\BBOQEfficientSetJoinsonSimilarityPredicates.\BBCQ\\newblockIn{\BemSIGMOD'04:Proceedingsofthe2004ACMSIGMODinternationalconferenceonManagementofdata},\mbox{\BPGS\743--754}.\bibitem[\protect\BCAY{獅々堀\JBA津田\JBA青江}{獅々堀\Jetal}{1994}]{獅々堀:94}獅々堀正幹\JBA津田和彦\JBA青江順一\BBOP1994\BBCP.\newblock片仮名異表記の生成および統一手法.\\newblock\Jem{電子情報通信学会論文誌.D-II,情報・システム,II-情報処理},{\Bbf77}(2),\mbox{\BPGS\380--387}.\bibitem[\protect\BCAY{高橋\JBA梅村}{高橋\JBA梅村}{1995}]{Takahashi:95}高橋克巳\JBA梅村恭司\BBOP1995\BBCP.\newblock人名のかな表記のゆれに基づく近似文字列照合法.\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(8),\mbox{\BPGS\1906--1915}.\bibitem[\protect\BCAY{Tsuruoka,McNaught,Tsuji,\BBA\Ananiadou}{Tsuruokaet~al.}{2007}]{Tsuruoka:07}Tsuruoka,Y.,McNaught,J.,Tsuji,J.,\BBA\Ananiadou,S.\BBOP2007\BBCP.\newblock\BBOQLearningstringsimilaritymeasuresforgene/proteinnamedictionarylook-upusinglogisticregression.\BBCQ\\newblock{\BemBioinformatics},{\Bbf23}(29),\mbox{\BPGS\2768--2774}.\bibitem[\protect\BCAY{Wang,Xiao,Lin,\BBA\Zhang}{Wanget~al.}{2009}]{Wang:09}Wang,W.,Xiao,C.,Lin,X.,\BBA\Zhang,C.\BBOP2009\BBCP.\newblock\BBOQEfficientApproximateEntityExtractionwithEditDistanceConstraints.\BBCQ\\newblockIn{\BemSIGMOD'09:Proceedingsofthe35thSIGMODInternationalConferenceonManagementofData},\mbox{\BPGS\759--770}.\bibitem[\protect\BCAY{Winkler}{Winkler}{1999}]{Winkler:99}Winkler,W.~E.\BBOP1999\BBCP.\newblock\BBOQThestateofrecordlinkageandcurrentresearchproblems.\BBCQ\\newblock\BTR\R99/04,StatisticsofIncomeDivision,InternalRevenueServicePublication.\bibitem[\protect\BCAY{Xiao,Wang,\BBA\Lin}{Xiaoet~al.}{2008a}]{Xiao:08}Xiao,C.,Wang,W.,\BBA\Lin,X.\BBOP2008a\BBCP.\newblock\BBOQ{Ed-Join}:AnEfficientAlgorithmforSimilarityJoinswithEditDistanceConstraints.\BBCQ\\newblockIn{\BemVLDB'08:Proceedingsofthe34thInternationalConferenceonVeryLargeDataBases},\mbox{\BPGS\933--944}.\bibitem[\protect\BCAY{Xiao,Wang,Lin,\BBA\Yu}{Xiaoet~al.}{2008b}]{Xiao:08b}Xiao,C.,Wang,W.,Lin,X.,\BBA\Yu,J.~X.\BBOP2008b\BBCP.\newblock\BBOQEfficientSimilarityJoinsforNearDuplicateDetection.\BBCQ\\newblockIn{\BemWWW'08:Proceedingofthe17thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\131--140}.\bibitem[\protect\BCAY{Yan,Ding,\BBA\Suel}{Yanet~al.}{2009}]{Yan:09}Yan,H.,Ding,S.,\BBA\Suel,T.\BBOP2009\BBCP.\newblock\BBOQInvertedIndexCompressionandQueryProcessingwithOptimizedDocumentOrdering.\BBCQ\\newblockIn{\BemWWW'09:Proceedingsofthe18thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\401--410}.\end{thebibliography}\begin{biography}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同年,東京大学大学院情報理工学系研究科・特別研究員.2011年より,東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{辻井潤一}{1971年京都大学工学部,1973年同修士課程修了.同大学助手・助教授を経て,1988年英国UMIST教授,1995年東京大学教授.マンチェスタ大学教授を兼任.2011年,東京大学,マンチェスタ大学を退職.同年より,マイクロソフトリサーチアジア研究員(PrincipalResearcher),国立情報学研究所客員教授,マンチェスタ大学客員教授.TM,機械翻訳などの研究に従事.工博.ACL元会長.}\end{biography}\biodate\end{document}
| |
V06N02-06
|
\section{はじめに}
近年の著しい計算機速度の向上,及び,音声処理技術/自然言語処理技術の向上により,音声ディクテーションシステムやパソコンで動作する連続音声認識のフリーソフトウェアの公開など,音声認識技術が実用的なアプリケーションとして社会に受け入れられる可能性がでてきた\cite{test1,test2}.我が国では,大量のテキストデータベースや音声データベースの未整備のため欧米と比べてディクテーションシステムの研究は遅れていたが,最近になって新聞テキストデータやその読み上げ文のデータが整備され\cite{test3},ようやく研究基盤が整った状況である.このような背景を踏まえ,本研究では大規模コーパスが利用可能な新聞の読み上げ音声の精度の良い言語モデルの構築を実験的に検討した.音声認識のためのN-gram言語モデルでは,N=3$\sim$4で十分であると考えられる\hspace{-0.05mm}\cite{test4,test5,test25}.しかし,N=3ではパラメータの数が多くなり,音声認識時の負荷が大きい.そこで,大語彙連続音声認識では,第1パス目はN=2のbigramモデルで複数候補の認識結果を出力し,N=3のtrigramで後処理を行なう方法が一般的である.\mbox{本研究では,第2パスのtrigramの改善}ばかりでなく,第1パス目の\hspace{-0.05mm}bigram\hspace{-0.05mm}言語モデルの改善を目指し,以下の3つの点に注目した.まずタスクについて注目する.言語モデルをN-gram\mbox{ベースで構築する場合(ルールベースで}記述するのとは異なり),大量の学習データが必要となる.最近では各種データベースが幅広く構築され,言語モデルの作成に新聞記事などの大規模なデータベースを利用した研究が行なわれている\cite{test6}.しかしN-gramはタスクに依存するのでタスクに関する大量のデータベースを用いて構築される必要がある.例えば,観光案内対話タスクを想定し,既存の大量の言語データに特定タスクの言語データを少量混合することによって,N-gram言語モデルの性能の改善が行なわれている\cite{test7}.また,複数のトピックに関する言語モデルの線形補間で適応化する方法が試みられている\cite{test8}.本研究ではタスクへの適応化のために,同一ジャンルの過去の記事を用いる方法とその有効性を示す.次に言語モデルの経時変化について注目する.例えば新聞記事などでは話題が経時的に変化し,新しい固有名詞が短期的に集中的に出現する場合が多い.以前の研究では、\mbox{直前の数百単}\mbox{語による言語モデルの適応化(キャッシュ法)が試}みられ\cite{test20},\mbox{小さいタスクでは}その有効性が示されてはいるが,本論文では直前の数万〜数十万語に拡大する.つまり,直前の数日間〜数週間の記事内容で言語モデルを適応化する方法を検討し,その有効性を示す.最後に認識単位に注目する.音声認識において,\mbox{認識単位が短い場合認識誤りを生じやすく,}付属語においてその影響は大きいと考えられ,小林らは,付属語列を新たな認識単位とした場\mbox{合の効果の検証をしている\cite{test9}}.\mbox{また高木らは,高頻度の付属語連鎖,}関連率の高い複合名詞などを新しい認識単位とし,\mbox{これらを語彙に加えることによる言語モデ}ルの性能に与える影響を検討している\cite{test10}.なお,連続する単語クラスを連結して一つの単語クラスとする方法や句を一つの単位とする方法は以前から試みられているが,いずれも適用されたデータベースの規模が小さい\cite{test11,test12}.同じような効果を狙った方法として,N-gramのNを可変にする方法も試みられている\cite{test8}.なお,定型表現の抽出に関する研究は,テキスト処理分野では多くが試みられている(例えば,新納,井佐原1995;北,小倉,森本,矢野1995).新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しなどの表現(以下,定型表現と呼ぶ)が非常に多いと思われる.定型表現は,音声認識用の言語モデルや音声認識結果の誤り訂正のための後処理に適用できる.そこでまず,定型表現を抽出した.次に,これらの(複数形態素から成る)定型表現を1形態素として捉えた上で,N-gram言語モデルを構築する方法を検討する.評価実験の結果,長さ2および3以下である定型表現を1形態素化してbigram,trigram言語モデルを作成することで,bigramに関しては,エントロピーが小さくなり,言語モデルとして有効であることを示す.なお,これらの手法に関しては様々な方法が提案されているが,大規模のテキストデータを用いて,タスクの適応化と定型表現の導入の有効性を統一的に評価した研究は報告されていない.\vspace*{-3mm}
\section{言語モデルの評価基準}
\vspace*{-1mm}\subsection{エントロピーとパープレキシティ}言語モデルの評価基準として,エントロピーとパープレキシティを用いる.エントロピーとパープレキシティは共に,対象とする文集合の複雑さを定量的に示す指標で,その文集合が複雑なほど,それぞれの値は大きくなる.単語列を生成する情報源をモデル化したものを言語モデルと呼ぶ.いま\mbox{言語Lにおいて,文}(単語列)$W_i={w_1}\cdotsw_{L_i}$の出現確率を$P(W_i)$とすれば,文集合$W_1$,$W_2$,$\cdots$,$W_N$のエントロピー\breakは次式で求められる.\vspace*{-3mm}\begin{equation}H(L)=-\sum^{N}_{i=1}P(W_i)\logP(W_i)\end{equation}テキスト文の連接を$W=W_1W_2\cdotsW_N=w_1w_2\cdotsw_T$とすれば,テストセットのエントロピーは\vspace*{-3mm}\begin{equation}H(L)=-\logP(W)\end{equation}で示される.トライグラムを用いた場合,P(W)は\vspace*{-3mm}\begin{eqnarray}P(W)&=&P(W_1)P(W_2)\cdotsP(W_N)\nonumber\\&=&P(w_1|*\\#)P(w_2|\#\w_1)\nonumber\\&&P(w_3|w_1\w_2)\cdotsP(w_T|w_{T-2}\w_{T-1})\end{eqnarray}となる(注:\#は文頭を,*は文末を示す.以降の評価実験では句読点を含む).この時,一単語当たりのエントロピーは\begin{equation}H_0(L)=-\frac{\sum_i\logP(W_i)}{\sum_iL_i}\end{equation}また,言語の複雑さ・パープレキシティは\begin{equation}PP=2^{H_0(L)}\end{equation}と定義される.パープレキシティは,情報理論的にある単語から後続可能な単語の種類数を表している.この値が大きくなるほど,単語を特定するのが難しくなり,言語として複雑であるといえる.また逆に,この値が小さくなるほど,音声認識での後続予測単語を特定するのがやさしくなるので,認識率が上がる傾向にある\cite{test13}.日本語の単語の定義は定かでなく,また形態素の定義も異なる.そこで,本論文では文字単位のエントロピー(パープレキシティ)の指標も用いる.\vspace*{-1mm}\subsection{補正パープレキシティ}本研究で使用したCMUSLMtoolkit\cite{test14}では語彙に含まれないものは全て一つの未知語のカテゴリにまとめられ,語彙に含まれる形態素と等価に未知語のカテゴリは扱われる.そのため語彙サイズのセットが小さい程(カバー率が小さい程),パープレキシティは小さくなるということになり好ましくない.そこで評価テキスト中に出現した未知語の種類$m$と,未知語の出現回数$n_u$を用いてパープレキシティを補正する\cite{test15}.補正パープレキシティは\vspace*{-3mm}\begin{equation}APP=(P(w_1...w_n)m^{-n_u})^{-\frac{1}{n}}\end{equation}で与えられる.これは,複数の未知語はそれぞれ等確率に生じると仮定して,補正したものである.勿論,これは評価テキストの大きさに依存する(テキストが大きくなると未知語の種類が増える)ので,簡易的な補正である.より厳密には未知語に対しては出現頻度を考慮するか\cite{newapp},未知語の生成モデルを用いる必要がある\cite{test5}.なお,一般には,未知語部分はスキップしてパープレキシティを算出する方法がよく使われている.\vspace*{-1mm}
\section{言語モデルの適応化}
\vspace*{-1mm}\subsection{面種別での学習と評価}\vspace*{-1mm}タスク依存の言語モデルを構築する場合,ターゲットとするタスクに関するデータのみを用いて学習する方がよいと考えられる\cite{test16}.学習と評価用のコーパスとして毎日新聞の1991年$\sim$1994年の記事を用いた.形態素解析にはRWCPが提供している毎日新聞形態素解析データを,電総研で作成された括弧除去ツールで加工し,使用している\cite{test17}.学習には1991年\mbox{1月から1994年11}月までの記事を用い,評価には1994年12月の記事を用いた.毎\mbox{日新聞には全部で13面種に分}類されているが,「社説」,「科学」,「読書」などの面種にはデータが少な過ぎるので,面種別の結果は省いた.登録した形態素数は5000,20000の2通りで,bigram,trigramの学習と評価にCMUSLMtoolkitを使用した.表\ref{base}に用いたコーパスの諸量をまとめた(学\mbox{習テキストが}1994年1月〜11月の場合の結果は,文献\cite{test26}を参照されたい).これらのデータを用いて作成したbigramとtrigramの評価結果を表\ref{tbl:pp_bi_20k},\ref{tbl:pp_tri_20k}に示す.\mbox{紙数の関係}で,5000形態素に関する結果は省略した.これらの表では,実験結果をエントロピーではなくパープレキシティで表示している.これは音声認識実験を行なうことを踏まえ,情報理論的にある単語から後続可能な単語の種類数を示すパープキシティという指標の方が直観的にわかりやすいためである.またカバー率とは,unigramのヒット率のことである.これらの結果より以下の事がわかる.\begin{itemize}\itembigramとtrigramを比較すると,bigramより,\mbox{trigramで言語モデルを構築した方が,ト}レーニングデータとテストデータのどちらのパープレキシティも小さくなる.\itemテストデータとトレーニングデータを比較すると,形態素数5000のbigramでは,テストデータとトレーニングデータとの間にパープレキシティの差はほとんど見られなかった.しかし,それ以外の言語モデル(bigram形態素数20000,trigram形態素数5000,trigram形態素数20000)では,テストデータとトレーニングデータとの間にパープレキシティの差が大きい.これは補正パープレキシティでも同様である.特に形態素数20000のtrigramで差が大きい.これは,9000万形態素では,トレーニングデータ量が不足していることを示している.\item全面種で学習した場合と面種別で学習した場合の比較をすると,面種別に語彙を設定する方がカバー率は向上する.また,テストデータのパープレキシティに関しては,形態素数20000のbigramでは全面種で学習するより面種別で学習する方がパープレキシティが小さくなる.trigramでは面種別で学習するより全面種で学習する方がパープレキシティが小さくなる.これは,面種別ではトレーニングデータが不足することによると考えられる.なお,テストデータの補正パープレキシティに関しては,形態素数20000のtrigramでは面種別で学習するより全面種で学習する方が補正パープレキシティが小さくなる.bigramでは全面種で学習するより面種別で学習する方が補正パープレキシティが小さくなる.また,スポーツ面に関しては全面種で学習するより,面種別(すなわち,スポーツ面)で学習する方がパープレキシティが小さくなる傾向が見られる.これは,スポーツ面は他の面種と異なった文が多いことによる.\end{itemize}表には示さなかったが,形態素数5000のbigramに関しては,全面種での学習では4年分の新聞記事で十分な学習が出来ている.一方,面種別での学習ではトレーニングデータとテストデータのパープレキシティの間に差があるのでトレーニングデータの不足が見られる.しかしトレーニングデータの不足が見られるものの,全面種で学習した言語モデルより面種別で学習した言語モデルの方がテストデータのパープレキシティが小さい.つまり,全面種で学習した言語モデルより面種別で学習した言語モデルを使用する方がよいことになる.形態素数5000のtrigramに関しては,面種別学習による効果はパープレキシティでは見られないが,補正パープレキシティでは効果が見られる.形態素数20000のtrigramに関しては,トレーニングデータとテストデータの(補正)パープレキシティの比較によって,面種別での学習のみならず全面種での学習でもトレーニングデータ量の不足が起きていることが分かる.全面種で学習した言語モデルと面種別で学習した言語モデルをテストデータの(補正)パープレキシティで比較すると,形態素数5000のbigramでの比較とは逆に,面種別で学習した言語モデルより全面種で学習した言語モデルの方が,(補正)パープレキシティが小さく,面種別で学習した言語モデルを使用するより,全面種で学習した言語モデルを使用する方がよいという結論が得られた.以上から,形態素数5000のbigramを言語モデルに使用する場合は,面種別で学習した言語モデルを用いればよいことがわかった.しかし,最近の大語彙音声認識に用いられる形態素数は20000以上で,また第2パスに言語モデルとしてtrigramを使用するのが主流となりつつある.形態素数20000のtrigramだと,本研究で用いたトレーニングデータ量程度では,面種別で学習した言語モデルを使用するより,全面種で学習した言語モデルを使用する方がよい.そこで,タスク(新聞では,面種)依存のより精度のよい言語モデルを構築するために全面種の記事で構築した言語モデルを,ターゲットとするタスク(面種)に適応化する手法をとる必要がある.\vspace*{-4mm}{\small\input{table_corpus.tex.euc}\vspace*{-5mm}}\newpage{\small\input{table_bi_20k.tex.euc}\vspace{-6mm}\input{table_tri_20k.tex.euc}}\newpage\subsection{適応化法}新聞記事では数日間に渡って関連のある記事が載っていることがある.そこで記事の評価時に,過去の数日間の記事で言語モデルを適応化しておけば,適応前より精度のよい言語モデルが出来ると考えられる.ここで,N-gram言語モデルの適応化にはMAP推定(最大事後確率推定)\cite{test7,test18,test19,test26}を用いる.適応化サンプルを与えた後の推定値は次式で与えられ,推定前の条件確率と現在与えたサンプルとの間で,サンプル数で重み付けされた線形補間の形になっている.\begin{center}\begin{equation}prob=\frac{\alpha\cdotN_0\cdotprob_0+N_1\cdotprob_1}{\alpha\cdotN_0+N_1}\end{equation}\small\gt\begin{tabular}{ll}$\alpha$&重み\\$N_0$&標準言語モデルの総数\\$N_1$&適応化サンプルの総数\\$prob$&MAP推定後の条件確率(N-gram確率)\\$prob_0$&標準言語モデルでの条件確率\\$prob_1$&適応化サンプルでの条件確率\\\end{tabular}\end{center}\begin{figure}[htbp]\begin{center}\epsfile{file=block.eps,scale=1.1}\end{center}\caption{MAP推定のブロック図}\label{fig:block}\end{figure}今回の実験では標準言語モデルと適応化サンプルによる言語モデルの2つを構築しておき,バックオフを行なってスムージングした2つの条件確率を用いてMAP推定を行なっている.この過程のブロック図を図\ref{fig:block}に示す.標準言語モデルでは,\mbox{新聞記事の全面種に対応する学習サン}プルで出現頻度の高い形態素20000に限定した.適応化サンプルでは語彙を限定せず,全ての形態素を語彙リストに登録した.そのため,2つのモデルの語彙リストは独立している.実験手順としては,{\large$\bigcirc$\hspace{-.73em}}1\hspace{0.3mm}形態素数20000の標準言語モデル(trigram)を構築し,{\large$\bigcirc$\hspace{-.73em}}2\hspace{0.3mm}\mbox{標準言語モ}デルを事前モデルとして,面種別の適応化サンプルでターゲットタスクの言語モデルをMAP推定し,{\large$\bigcirc$\hspace{-.73em}}3\hspace{0.3mm}テストデータのパープレキシティを求める.本実験では,$\alpha$を種々変えてパープレキシティが最小となる場合を求めた.\subsection{実験結果}実験結果を表\ref{tbl:MAP_pp_20k},\ref{tbl:MAP_app_20k}に示す.最適な$\alpha$の値は5日間の適応化データに対してはほとんどの面種で0.01,14日間の適応化データに対しては0.02$\sim$0.04であり,ほぼデータ量に比例した.これらの表より\begin{itemize}\item適応化前より適応化後の方がパープレキシティが小さくなること\item5日より14日間の適応化サンプルの方がパープレキシティが小さくなること\item6カ月前の数日間より直前の数日間の記事での適応化の方がパープレキ\mbox{シティが小さくな}ること\end{itemize}が分かる.通常,直前の数百単語をキャッシュとして用いて適応化する方法が効果があると言われているが\cite{test20},これよりも大量の直前データを用いる方が効果があるということである\cite{test8}.特に,スポーツ面において,直前の記事による適応化の効果が大きい.これは,他の面種記事よりも特定の話題が短期間継続するためと考えられる.国際面とスポーツ面で適応化サンプルの期間を5,14日,1,2,3,6カ月にして求めたパープレキシティと補正パープレキシティを図\ref{fig:pp2}に示す.\mbox{これを見ると,適応化サンプルの量が多くなるほ}ど,パープレキシティが小さくなること,日数が多くなるにつれてパープレキシティが飽和していくことが分かる.また,直前の適応化データと6カ月前の適応化データを比べると,後者の場合の方がやや最適な$\alpha$の値が大きくなった.これは直前の適応化データの方が6カ月前の適応化データよりも有用であることを示している.{\small\input{table_map_20k.tex.euc}}\begin{figure}[htbp]\centering\epsfile{file=MAP.4year.20k.ver2.eps,scale=0.7}\caption{MAP推定の日数とパープレキシティの関係(20000形態素)}\label{fig:pp2}\end{figure}\subsection{固有名詞の適応化}前述したように,新聞記事では数日間に渡って関連のある記事が載っていることが多い.音声認識では特に固有名詞の扱いが重要となってくるので,固有名詞の登録法について検討した.固有名詞はトピックに依存するものが多いので,数日間に渡って局所的に出現する傾向があると考えられる.そこで数日間〜数週間中に出現した固有名詞を基本語彙に追加することにより,評価文の固有名詞をどの程度カバーすることが出来るかを調べた.実験手順を以下に示す.\begin{description}\vspace{-1mm}\item[Step.1]形態素数5000,20000の基本語彙を構築する.\vspace{-1mm}\item[Step.2]基本語彙でテストデータのカバー率を求める.\vspace{-1mm}\item[Step.3]基本語彙に数日間〜数週間の適応化サンプル中に出現した固有名詞を高出現頻度順に追加し,固有名詞のカバー率を求める.\end{description}実験は,追加登録する形態素を5000に限定した場合と出現したすべてを登録する場合を行なった.実験結果を表\ref{tbl:Cover1},\ref{tbl:Cover2}に示す.\mbox{表中の括弧内の数値は出現した固有名詞をすべて登録した場}合の数を示している.この結果より次のことが言える.\begin{itemize}\item6ヶ月前の記事より直前の記事に出現する固有名詞を追加する方がカバー率が高い.これより,新しく出現した固有名詞の多くは直前の数日間に渡って出現していることが分かる.\item追加する固有名詞の数を制限しない場合は,適応化サンプルが多いほどカバー率が高くなるのは当然だが,固有名詞の数を制限した場合でも,10日間より30日間の適応化サン\breakプルを用いた方が,カバー率は少し高くなる.\itemテストデータ全体でのカバー率を見て分かるように,固有名詞を追加することによるカバー率の上昇は高々2\%程度である.このことは,基本語彙に登録されなかった単語(未知語)において,固有名詞の占める割合が低いことを示している(5000語彙に対しては約20\%,20000語彙に対しては約25\%).\end{itemize}\begin{table}[htbp]\caption{固有名詞の追加登録によるテストデータ全体でのカバー率[\%]の変化}\label{tbl:Cover1}\begin{center}\vspace*{1ex}\begin{tabular}{|c|c|c|c|c|c|c|c|c|}\hline基本語彙&追加語彙&&\multicolumn{3}{c|}{直前の記事で適応}&\multicolumn{3}{c|}{6カ月前の記事で適応}\\\cline{4-9}サイズ&サイズ&適応前&10日分&20日分&30日分&10日分&20日分&30日分\\\hline5000&5000&85.2&86.6&86.8&86.8&86.4&86.5&86.6\\\cline{2-9}&制限なし&85.2&86.8&87.1&87.2&86.6&86.9&87.0\\&(追加語彙)&---&(6860)&(11071)&(14380)&(7096)&(11353)&(14677)\\\hline20000&5000&95.2&95.7&95.7&95.8&95.5&95.5&95.6\\\cline{2-9}&制限なし&95.2&95.7&95.9&96.0&95.5&95.7&95.8\\&(追加語彙)&---&(5222)&(9166)&(12383)&(5403)&(9411)&(12655)\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{固有名詞の追加登録によるテストデータ中の固有名詞についてのカバー率[\%]の変化}\label{tbl:Cover2}\begin{center}\vspace*{1ex}\begin{tabular}{|c|c|c|c|c|c|c|c|c|}\hline基本語彙&追加語彙&&\multicolumn{3}{c|}{直前の記事で適応}&\multicolumn{3}{c|}{6カ月前の記事で適応}\\\cline{4-9}サイズ&サイズ&適応前&10日分&20日分&30日分&10日分&20日分&30日分\\\hline5000&5000&41.9&75.0&78.3&79.2&69.0&72.1&74.1\\\cline{2-9}&制限なし&41.9&79.5&85.0&87.7&73.6&80.5&84.2\\&(追加語彙)&---&(6860)&(11071)&(14380)&(7096)&(11353)&(14677)\\\hline20000&5000&69.9&81.3&81.8&82.9&76.7&77.8&78.5\\\cline{2-9}&制限なし&69.9&81.8&85.7&87.9&77.5&81.9&84.9\\&(追加語彙)&---&(5222)&(9166)&(12383)&(5403)&(9411)&(12655)\\\hline\end{tabular}\end{center}\end{table}なお,固有名詞に限定せずに,出現頻度の多い形態素を登録した場合の結果を表\ref{tbl:Cover3}に示す.\mbox{表\ref{tbl:Cover3}より},登録する単語を固有名詞\mbox{に限定しない方がカバー率は大きくなることかがわかる.し}かし,このような新しい登録単語のbigram,trigramの算出は困難なので固有名詞に限定した方が扱いやすいと思われる.また表\ref{tbl:Cover3}より,カバー率を98\%にするためには直前に出現した形態素を中心とした55000形態素程度が必要なことがわかる.但し,面種別で学習すれば,20000〜30000形態素でも十分である(表~2,3参照).\vspace*{-1mm}\begin{table}[htbp]\caption{高出現頻度の形態素の追加登録によるテストデータ全体でのカバー率[\%]の変化(品詞の限定なし)}\label{tbl:Cover3}\begin{center}\vspace*{-3mm}\begin{tabular}{|c|c|c|c|c|c|c|c|c|}\hline基本語彙&追加語彙&&\multicolumn{3}{c|}{直前の記事で適応}&\multicolumn{3}{c|}{6カ月前の記事で適応}\\\cline{4-9}サイズ&サイズ&適応前&10日分&20日分&30日分&10日分&20日分&30日分\\\hline5000&5000&85.2&90.8&91.0&91.1&90.0&90.3&90.5\\\cline{2-9}&制限なし&85.2&96.8&97.9&98.4&96.2&97.5&98.1\\&(追加語彙)&---&(34012)&(49539)&(60665)&(34287)&(49457)&(60314)\\\hline20000&5000&95.2&96.1&96.2&96.2&95.8&95.9&95.9\\\cline{2-9}&制限なし&95.2&97.3&98.0&98.4&96.9&97.7&98.1\\&(追加語彙)&---&(20906)&(35158)&(45966)&(21014)&(34999)&(45559)\\\hline\end{tabular}\end{center}\end{table}\vspace*{-13mm}
\section{定型表現}
新聞テキスト文には,定型表現が多いことに着目し,これらの高頻出定型表現を1形態素として捉えた上で,言語モデルを構築すれば,より精度の良いモデルが出来ると考られる.今回の実験では,定型表現を抽出するアルゴリズムとして,池原らの提案した方法\cite{test21}を用いる.エントロピー基準で連語を抽出する方法も考えられるが\cite{test11,test12,test23},今回は簡略化のため出現頻度に着目した.どのような基準で連語を抽出し,言語モデルを構築するかは興味ある課題であるが,手法による実質的な差は少ないと思われる\cite{nakagawa}.この方法では,最長一致の文字列抽出(ある文字列が抽出されたとき,その文字列に含まれる部分文字列は統計量を求める際にはこの部分文字列を定型表現とはカウントしない)を条件とし,任意の長さ以上,任意の使用頻度以上の表現を,もれなく自動的に抽出する.文献\cite{test21}では文字列単位で抽出していたが,これを\mbox{形態素単位で}抽出するように変更した.抽出例を表~\ref{rei}に示す.\vspace*{-5mm}\begin{table}[htbp]\centering\caption{定型表現抽出例}\label{rei}\begin{tabular}{|c|l|}\hline連語数&定型表現(頻度)\\\hline&て/いる(318691)\\&は/ない(56333)\\2&東京/都(23452)\\&大統領/は(14647)\\&国民/の(9909)\\\hline&し/て/いる(106121)\\&に/よる/と(24093)\\3&に/なっ/て(19718)\\&話し/て/いる(6130)\\&記者/会見/し(4297)\\\hline\end{tabular}\end{table}\subsection{標準言語モデル}標準言語モデルは,表~\ref{base}に示した全面種の学習用データから作成した表~\ref{tbl:pp_bi_20k}のモデルを用いる.まず,RWC\cite{test22}の毎日新聞形態素解析結果を用いて,出現頻度が上位20000番目までの形態素を語彙として辞書に登録した.言語モデルの構築には,CMUSLMToolkitVer.1を用いた.バックオフ・スムージングにはGood-Turing推定を用いた.\subsection{定型表現を用いた言語モデル}定型表現を用いた言語モデル構築のための手順を以下に示す.\subsubsection*{Step.1定型表現抽出}RWCの毎日新聞形態素解析結果に対して,定型表現抽出プログラムを実行し,連結数2または3の定型表現を抽出する.\subsubsection*{Step.2頻度の計算}定型表現を用いる前のトレーニングデータから,各形態素の頻度リストを求める.上位15000番目くらいの形態素の出現頻度が50回であるので,\mbox{定型表現の出現頻度が50回以上のものを新}しい形態素候補として用いることにする.\subsubsection*{Step.3定型表現の連結}Step.2の定型表現を用い,トレーニングデータ内の定型表現を図~\ref{renketu}のように\mbox{1つの単語にま}とめる.\vspace*{-5mm}\begin{figure}[htbp]\centering\epsfile{file=mai_renketu.eps}\caption{形態素の連結例}\label{renketu}\end{figure}\vspace*{3mm}\subsubsection*{Step.4語彙サイズ20000の辞書作成(1回目)}トレーニングデータから出現頻度の多い順に20000を求め,語彙サイズ20000の辞書を作成する.このとき,上位20000の辞書に登録された定型表現は2連結で9430個,\mbox{3連結で9357個}(このうち2連語が7010,3連語が2347)である.登録されなかった定型表現が\mbox{多数あるので,こ}れは未知語の数を増やすだけなので図~\ref{bun}のようにもとの形態素に分解しておく.\begin{figure}[htbp]\centering\epsfile{file=mai_bunkai.eps}\caption{形態素の分解例}\label{bun}\end{figure}\subsubsection*{Step.5語彙サイズ20000の辞書作成(2回目)}分解後のトレーニングデータから,もう一度語彙サイズ20000の辞書を作成する.これは,Step.3で定型表現を分解したことによって形態素の出現頻度が変わってしまうためである.当\break然ここでも登録されない定型表現がでてくる.登録された定型表現は2連結で8944個,3連結\breakで9282個(このうち2連語が6967,3連語が2315)になった.ここでも,\mbox{登録されなかった定型}表現はもとの形態素に分解する.厳密に行なうなら,辞書作成と定型表現の分解といった作業を繰り返し行ない,辞書に登録される定型表現の数が収束するまで行わないといけないが,今回は1回だけしか行なっていない.\subsubsection*{Step.6言語モデルの構築}CMUSLMToolkitを用いてトレーニングデータから,語彙サイズ20000の辞書を作成し,bigram,trigram言語モデルを構築する.\subsection{評価実験}評価を行なう時,注意しなければならないことは,いずれの比較対象に対しても同じ定義の1形態素あたりのパープレキシティを求めないといけないということである.\mbox{通常パープレキシ}ティを求める式は{\bfbigram}の場合で,\begin{equation}PP_0={}^M\sqrt{\prod_{i=1}^MP(w_i|w_{i-1})^{-1}}\end{equation}であるが,これは1連結形態素(定型表現として形態素を連結したもの)あたりのパープレキシティを求めている.形態素を連結する前の従来の1形態素あたりのパープレキシティを求めるには,\begin{equation}PP_1={}^{N}\sqrt{\prod_{i=1}^MP(w_i|w_{i-1})^{-1}}\end{equation}を用いなければならない.ここで$M$:定型表現を1つの形態素としたときの連結形態素と従来の形態素の総数$N$:定型表現を使わなかったときの従来の形態素の総数また,定型表現は述語表現に多く現れるため,それらの形態素は比較的短いものが多い.そのため形態素単位のパープレキシティでは全体に及ぼす影響が大きいと考えられる.そこで同時に文字単位のパープレキシティも求めた.標準言語モデルと,前節に述べた方法で定型表現を用いた言語モデルを構築し,その評価を行なった.トレーニングデータには,標準言語モデル作成の場合と同じ,表~\ref{base}の学習用データを用いている.テストデータには,標準言語モデル,定型表現を用いた言語モデルともに表~\ref{base}の評価用データを使用した.実験結果を表~\ref{kekka20k}と図~\ref{hyouka}に示す.まず,bigramモデルでは,トレーニングデータに関しては\break約半分,テストデータに関しては約3割,パープレキシティが減少しているのがわかる.しかし,trigramモデルではトレーニングデータでは効果があったが,テストデータに対しては大きな効果が得られなかった.これは,語彙サイズを一定にしたため,定型表現を登録したためにもとの語彙から省かれた単語が未知語となったのが原因であると考えられる.実際,定型表現を\break用いた場合,定型表現を用いなかった場合と比べて,未知語の種類数が約8000個増加している.次に,標準言語モデルを作成した時の語彙サイズ20000の辞書に,2および3連結の定型表現をそれぞれ高出現頻度順で上位2000個,5000個分を追加した場合の辞書で言語モデルを構築した.その評価結果を表~\ref{kekka22k},\ref{kekka25k}に示す.ここで表~\ref{kekka22k},\ref{kekka25k}の``定型表現の連結なし''は\mbox{通常の形態素}を22000個および25000個用いた時の結果である.この言語モデルの作成方法の場合でも,パープレキシティの改善が見られた.bigramでは定型表現を用いることにより,補正パープレキシティも大幅に減少している.また,定型表現5000個追加のものの方が,\mbox{定型表現2000個追加の}ものと比べて,語彙サイズが大きいのにも関わらず,パープレキシティが減少している.これより,出来るだけ多くの定型表現を辞書に登録すれば良いということが言える.以上より,trigramではトレーニングデータに対しては大きな効果があったが,テストデータに対しては効果がなかった.これはトレーニングデータの不足によるものと考えられる.一方,bigramでは大きな効果があった.同じパラメータ数(bigram)でも\mbox{パープレキシティが小さ}いモデルが構築できたことは,これを大語彙連続音声認識の第1パスに使用すると認識率の向上に繋がると考えられる.{\small\begin{table}[htbp]\centering\caption{定型表現の評価結果(語彙サイズ20000)}\label{kekka20k}\vspace*{-1mm}(括弧内は文字単位のパープレキシティ)\\\vspace*{1mm}\begin{tabular}{|c|c|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|}\hline\multicolumn{2}{|c|@{~}}{データセット}&\multicolumn{6}{c@{~}|@{~}}{トレーニングデータ}&\multicolumn{6}{c@{~}|}{テストデータ}\\\hline\multicolumn{2}{|c|@{~}}{定型表現}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|@{~}}{3連結}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|}{3連結}\\\hline\hlinebigram&PP&91.0&(16.3)&57.5&(12.2)&52.2&(11.5)&105.5&(17.9)&75.6&(14.5)&73.3&(14.3)\\\cline{2-14}&APP&136.7&(20.9)&121.3&(19.4)&113.1&(18.6)&156.0&(22.8)&160.8&(23.2)&151.6&(22.4)\\\hlinetrigram&PP&29.7&(8.1)&20.1&(6.4)&13.2&(4.9)&61.3&(12.8)&65.1&(13.3)&55.4&(12.0)\\\cline{2-14}&APP&44.6&(10.5)&42.3&(10.1)&28.6&(7.9)&90.7&(16.3)&131.5&(20.5)&114.6&(18.8)\\\hline\end{tabular}\end{table}\begin{table}[htbp]\centering\caption{定型表現の評価結果(語彙サイズ20000+2000)}\label{kekka22k}\vspace*{-1mm}(括弧内は文字単位のパープレキシティ)\\\vspace*{1mm}\begin{tabular}{|c|c|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|}\hline\multicolumn{2}{|c|@{~}}{データセット}&\multicolumn{6}{c@{~}|@{~}}{トレーニングデータ}&\multicolumn{6}{c@{~}|}{テストデータ}\\\hline\multicolumn{2}{|c|@{~}}{定型表現}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|@{~}}{3連結}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|}{3連結}\\\hline\hlinebigram&PP&92.7&(16.4)&73.7&(14.3)&75.9&(14.5)&108.5&(18.2)&93.9&(16.6)&98.2&(17.1)\\\cline{2-14}&APP&133.4&(20.6)&110.7&(18.3)&113.9&(18.7)&153.7&(22.6)&138.9&(21.2)&145.3&(21.8)\\\hlinetrigram&PP&29.7&(8.1)&19.5&(6.3)&18.8&(6.1)&62.8&(13.0)&62.8&(13.0)&64.6&(13.2)\\\cline{2-14}&APP&42.7&(10.2)&29.3&(8.1)&28.2&(7.8)&89.0&(16.1)&91.9&(16.4)&95.5&(16.8)\\\hline\end{tabular}\end{table}\begin{table}[htbp]\centering\caption{定型表現の評価結果(語彙サイズ20000+5000)}\label{kekka25k}\vspace*{-1mm}(括弧内は文字単位のパープレキシティ)\\\vspace*{1mm}\begin{tabular}{|c|c|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|@{~}r@{~}r@{~}|}\hline\multicolumn{2}{|c|@{~}}{データセット}&\multicolumn{6}{c@{~}|@{~}}{トレーニングデータ}&\multicolumn{6}{c@{~}|}{テストデータ}\\\hline\multicolumn{2}{|c|@{~}}{定型表現}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|@{~}}{3連結}&\multicolumn{2}{c@{~}|@{~}}{なし}&\multicolumn{2}{c@{~}|@{~}}{2連結}&\multicolumn{2}{c@{~}|}{3連結}\\\hline\hlinebigram&PP&94.8&(16.7)&66.0&(13.3)&66.5&(13.4)&111.9&(18.5)&89.6&(16.2)&93.6&(16.6)\\\cline{2-14}&APP&129.6&(20.2)&99.1&(17.1)&99.9&(17.2)&151.4&(22.4)&132.6&(20.6)&138.5&(21.2)\\\hlinetrigram&PP&30.2&(8.2)&16.6&(5.7)&14.9&(5.3)&64.6&(13.2)&63.2&(13.0)&65.9&(13.4)\\\cline{2-14}&APP&40.5&(9.9)&24.9&(7.3)&22.4&(6.8)&87.5&(15.9)&93.5&(16.6)&97.6&(17.0)\\\hline\end{tabular}\end{table}}\begin{figure*}[htbp]\begin{center}\epsfile{file=mainichi.eps,scale=0.6}\caption{定型表現の評価結果[注:()内の数値は補正パープレキシティを示す]}\label{hyouka}\end{center}\end{figure*}\newpage
\section{まとめ}
本研究では,毎日新聞記事データベースを用いた過去の記事による言語モデルのタスクへの適応化と抽出した定型表現を用い,N-gram言語モデルを構築する方法を検討した.まず言語モデルのタスクへの適応化については,実験の結果,6カ月前の数日間の記事より直前の数日間の記事で適応化した方がパープレキシティが小さくなった.このことは言語モデルがジャンルだけでなく時間にも依存するものであることを示すものである.ただ,適応化サンプルの量を多くするほどパープレキシティが小さくなる傾向があり,N-gramベースでの言語モデルを少量サンプルで適応化させることは限界があると考えられる.次に定型表現を抽出し,これを用いたN-gram言語モデルを構築した.定型表現を用いた言\mbox{語モデルを}作成することで,bigramモデルに関しては,テストデータに対し約3割程度\mbox{パープレ}キシティを低く押えるとこができ,言語モデルの有効性を示すことができた.しかし,trigramではトレーニングデータの量が不十分だったため,トレーニングデータでは効果があったがテストデータに対しては効果が得られなかった.トレーニングデータの量をもっと増やし,本方法の有効性を調べる必要がある.また,本研究では言語モデルの有効性をパープレキシティで評価したが,実際の音声認識で確認する必要がある\cite{akamatsu}.なお,NHKのニュース原稿に対する経時変化の適応化や定型表現の導入による言語モデルに関しては文献\cite{nhk,test24}を参照されたい.\begin{thebibliography}{99}\bibitem[\protect\BCAY{赤松,中川}{赤松}{1997}]{test26}赤松裕隆,中川聖一(1997).``新聞記事のトライグラムによるモデル化と適応化''言語処理学会,第3回年次大会D5-2,533-536.\bibitem[\protect\BCAY{赤松,甲斐,中川}{赤松}{1998}]{akamatsu}赤松裕隆,甲斐充彦,中川聖一(1998).``新聞・ニュース文の大語彙連続音声認識''情報処理学会,音声言語情報処理SLP-21-11,97--104.\bibitem[\protect\BCAY{Federico}{Federico}{1997}]{test18}Federico,M.(1997).``BaysianEstimationMethodsforN-gramLanguageModelAdaptation.''Proc.ICSLP-96,240--243.\bibitem[\protect\BCAY{Giachin}{Giachin}{1995}]{test11}Giachin,E.P.(1995).``Phrasebigramsforcontinuousspeechrecognition.''Proc.ICASSP,225--228.\bibitem[\protect\BCAY{池原,白井,河岡}{池原}{1995}]{test21}池原悟,白井諭,河岡司(1995).``大規模日本語コーパスからの連鎖型および離散型の共起表現の自動抽出法.''情報処理学会論文誌,Vol.36,No.11,2584--2596.\bibitem[\protect\BCAY{井佐原{\emetal.}}{井佐原{\emetal.}}{1995}]{test22}井佐原均,元吉文男,徳永健伸,橋本三奈子,荻野紫穂,豊浦潤,岡隆一(1995).``RWCにおける品詞情報付きテキストデータベースの作成''言語処理学会,第1回年次大会B3-1,181--184.\bibitem[\protect\BCAY{伊藤,牧野}{伊藤}{1996}]{test7}伊藤彰則,好田正紀(1996).``対話音声認識のための事前タスク適応の検討.''情報処理学会,音声言語情報処理SLP-14-13.\bibitem[\protect\BCAY{伊藤}{伊藤{\emetal.}}{1997}]{test3}伊藤克亘{\emetal.},(1997).``大語彙日本語連続音声認識研究基盤の整備---学習・評価テキストコーパスの作成---.''情報処理学会,音声言語情報処理SLP-18-2,7--12.\bibitem[\protect\BCAY{伊藤,松岡,竹沢,武田,鹿野}{伊藤}{1996}]{test17}伊藤克亘,松岡達雄,竹沢寿幸,武田一哉,鹿野清宏(1996).``大語彙連続音声認識研究のためのテキストデータ処理.''日本音響学会秋季講演論文集3-3-10,105--106.\bibitem[\protect\BCAY{甲斐,伊藤,山本,中川}{甲斐}{1997}]{test2}甲斐充彦,伊藤敏彦,山本一公,中川聖一(1997).``自然な発話を対象としたパソコン/ワークステーション用連続音声認識ソフトウェア.''日本音響学会秋季講演論文集2-Q-30,175--176.\bibitem[\protect\BCAY{北,小倉,森本,矢野}{北}{1995}]{no18}北研二,小倉健太郎,森元逞,矢野米雄(1995).``\mbox{仕事量基準を用いたコーパスからの定型表現の自}動抽出.''情報処理学会論文誌,Vol.34,No.9,1937--1943.\bibitem[\protect\BCAY{小林,今井,安藤}{小林}{1997}]{nhk}小林彰夫,今井亨,安藤彰男(1997).``ニュース音声認識用言語モデルの学習期間の検討.''電子情報通信学会,音声技報SP97-48,29--36.\bibitem[\protect\BCAY{小林,中野,和田,小林}{小林}{1998}]{test9}小林紀彦,中野裕一郎,和田陽介,小林哲則(1998).``統計的言語モデルにおける\mbox{高頻度形態素連鎖}の辞書登録に関する一考察.''情報処理学会,音声言語情報処理SLP-20-5,33--38.\bibitem[\protect\BCAY{Kuhn,Mori}{Kuhn}{1990}]{test20}Kuhn,R.,Mori,R.(1990).``Acache-basednaturallanguagemodelforspeechrecognition.''IEEETransPatternAnalysisandMachineIntelligence,Vol.12,No.6,570--583.\bibitem[\protect\BCAY{Marlin,Liermann}{Marlin,Liermann}{1997}]{test8}Marlin,S.C.,Liermann,J.,(1997).``Adaptivetopicdependentlanguagemodellingusingword-basedvarigrams.''Proc.EuroSpeech,1447--1450.\bibitem[\protect\BCAY{政瀧,松永,匂坂}{政瀧}{1995}]{test12}政瀧浩和,松永昭一,匂坂芳典(1995).``連続音声認識のための可変長連鎖統計言語モデル.''電子情報通信学会,音声技報SP95-73,1--6.\bibitem[\protect\BCAY{政瀧,匂坂,久木,河原}{政瀧}{1997}]{test19}政瀧浩和,匂坂芳典,久木和也,河原達也(1997).``MAP推定を用いたN-gram言語モデルのタスク適応.''電子情報通信学会,音声技報SP96--103,59--64.\bibitem[\protect\BCAY{松永,山田,鹿野}{松永}{1991}]{test16}松永昭一,山田智一,鹿野清宏(1991).``音節連鎖統計情報のタスク適応化.''\mbox{情報処理学会第42回}全国大会(2)6D-5,114-115.\bibitem[\protect\BCAY{森,山地}{森}{1997a}]{test5}森信介,山地治(1997).``日本語情報量の上限の推定.''情報処理学会論文誌,Vol.38,No.11,2191--2199.\bibitem[\protect\BCAY{森,山地,長尾}{森}{1997b}]{test23}森信介,山地治,長尾眞(1997).``予測単位の変更によるn-gramモデルの改善.''\mbox{情報処理学会,音}声言語情報処理SLP-19-14,87--94.\bibitem[\protect\BCAY{中川}{中川}{1992}]{test13}中川聖一(1992).``情報理論の基礎と応用.''近代科学社.\bibitem[\protect\BCAY{中川}{中川}{1998}]{nakagawa}中川聖一(1998).``音声認識のための統計的言語モデル.''日本音響学会春季講演論文集1-6-11,23--26.\bibitem[\protect\BCAY{中川,赤松}{中川}{1998}]{newapp}中川聖一,赤松裕隆(1998).``未知語を含む文集合のパープレ\mbox{キシティの算出法ー新補正パープレ}キシティ.''日本音響学会秋季講演論文集2-1-13,63--64.\bibitem[\protect\BCAY{西村,伊藤,山崎,萩野}{西村}{1998}]{test1}西村雅史,伊藤伸泰,山崎一孝,萩野紫穂(1998).``単語を認識単位とした日本語の\mbox{大語彙連続音声}認識.''情報処理学会,音声言語情報処理SLP-20-3,17--24.\bibitem[\protect\BCAY{西崎,中川}{西崎}{1998}]{test24}西崎博光,中川聖一(1998).``音声認識のための定型表現を用いた言語モデルの検討.''言語処理学会,第4回年次大会C4-3,520-523.\bibitem[\protect\BCAY{小黒,高木,橋本,尾関}{小黒}{1998}]{test10}小黒玲,高木一幸,橋本顕示,尾関和彦(1998).``ニュース音声認識のための\mbox{言語モデルの比較.''日}本音響学会春季講演論文集1-6-22,47--48.\bibitem[\protect\BCAY{大附,吉田,松岡,古井}{大附}{1997}]{test4}大附克年,吉田航太郎,松岡達雄,古井貞照(1997).``高次n-gramを用いた大語彙連続音声認識の検討.''日本音響学会春季講演論文集2-6-2,47--48.\bibitem[\protect\BCAY{大附,森,松岡,古井,白井}{大附}{1995}]{test6}大附克年,森岳至,松岡達雄,古井貞照,白井克彦(1995).``新聞記事を用いた大語彙連続音声認識の検討.''電子情報通信学会,音声技報SP95-90,63--68.\bibitem[\protect\BCAY{Rosenfeld}{Rosenfeld}{1995}]{test14}Rosenfeld,R.(1995).``TheCMUstatisticallanguagemodelingtoolkitanditsuseinthe1994ARPACSRevaluation.''Proc.ARPASpokenLanguageSystemsTechnologyWorkshop,47--50.\bibitem[\protect\BCAY{新納,井佐原}{新納}{1995}]{no15}新納浩幸,井佐原均(1995).``疑似Nグラムを用いた助詞的定型表現の自動抽出.''情報処理学会論文誌,Vol.36,No.1,32--40.\bibitem[\protect\BCAY{Ueberla}{Ueberla}{1994}]{test15}Ueberla,J.(1994).``Analysingasimplelanguagemodel-somegeneralconclusionforlanguagemodelsforspeechrecognition.''ComputerSpeechandLanguage,Vol.8,No.2,153--176.\bibitem[\protect\BCAY{Woodland{\emetal.}}{Woodland}{1997}]{test25}Woodland,P.C.,Cales,M.J.F.,Pye,D.,Young,S.J.(1997).``Thedevelopmentofthe1996HTKbroadcastnewstranscriptionsystems.''Proc.SpeechRecognitionWorkshop,73--78.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年京都大学情報助手.1980年豊橋技術科学大学情報工学系講師.1983年助教授.1990年教授.1985$\sim$86年カーネギメロン大学客員研究員.音声情報処理,自然言語処理,人工知能の研究に従事.工博.1977年電子情報通信学会論文賞,\mbox{1988年度IETE最優}秀論文賞受賞.}\bioauthor{赤松裕隆}{1997年豊橋技術科学大学情報工学課程卒業.現在,同大学研究科修士課程情報工学専攻在学中.言語モデルに関する研究に従事.}\bioauthor{西崎博光}{1998年豊橋技術科学大学情報工学課程卒業.現在,同大学研究科修士課程情報工学専攻在学中.言語モデルに関する研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N03-03
|
\section{はじめに}
人は必ずしも流暢に話しているわけではなく,以下の例のように,ときにつっかえながら,ときに無意味とも言える言葉を発しながら,話している.\newcounter{cacocnt}\begin{list}{例\arabic{cacocnt}}{\usecounter{cacocnt}}\item\underline{アッ}しまった\underline{エッ}本当?\item\underline{ド}どうしよう?\underline{アシ}あさってかな?\item\underline{エート}今度の日曜なんですが\underline{アノー}部屋はあいてるでしょうか\end{list}例1の下線部は感動詞(間投詞,interjections),例2は発話の非流暢性(disfluency)の一部であり,例3はその両方のカテゴリーに帰属する話し言葉特有の発話要素である.これらは,近年,人の言語処理を含む内的処理プロセス(mentalprocessing)や心の動きを映し出す「窓」として注目されてきている\cite{定延・田窪,田窪・金水,田中,Clark:02,山根,定延:05,富樫:05}.本研究では,これらを発話に伴う「心的マーカ(mentalmarker)」と捉え,例3のような「フィラー(fillers)」を中心に,「情動的感動詞(affectiveinterjections)」(例1)および「言い差し(途切れ;speechdiscontinuities)」(例2)と対比することで,人の内的処理プロセスとこれらの心的マーカとの対応関係について検討した.\subsection{従来の研究アプローチ}感動詞および非流暢性に焦点をあてた研究アプローチには,大きく分けて言語学的(linguistic)アプローチと言語心理学的(psycholinguistic)アプローチの2つが存在する.前者のアプローチからは,これまで主として,感動詞と感情の関係や感動詞の統語的性質が考察されてきた\cite[など]{田窪・金水,森山:96,土屋,富樫:05}.例えば,\citeA{森山:96}は「ああ」や「わあ」などの情動的感動詞を内発系と遭遇系に分類し,それらがどのような心的操作と対応するかについて詳しく考察した.一方,後者のアプローチからは,人の内的言語処理メカニズムを知るために,途切れや延伸,繰り返し,言い直しなどの非流暢性が研究されてきた\cite[など]{村井,伊藤,田中}\footnote{最近になって,\citeA{定延・中川}が非流暢性の言語学的な制約を分析するという言語学的アプローチによる考察を試みている.}.例えば,\citeA{村井}は,幼児の言語発達における言語障害的発話を分類し,言語発達過程における非流暢性の現れ方について考察した.これら2つのアプローチは,発話要素から人の内的処理メカニズムを探るという目的では類似している.しかしながら,前者は主としてそれぞれの感動詞に対応する心的操作について,後者は主として非流暢性の程度と言語処理メカニズムあるいは言語発達過程との関係について検討してきたため,共通する対象領域をカバーしながらも,それぞれ別の角度から取り組んできたといえる.本研究において中心に取り上げるフィラーは,言語学的には感動詞の一部として\cite{田窪・金水,定延・田窪},言語心理学的には非流暢性の一種である有声休止(filledpause,\cite{Goldman-Eisler,田中})として,双方のアプローチから研究されてきた音声現象である\cite{山根}.フィラーと情動的感動詞,言い差し(途切れ)を同一軸上で比較することで,両研究アプローチからの「切り口」により明らかにされる内的処理プロセスの諸側面をさらに深く理解することにつながると考えられる.以下に,本研究で扱う3つの発話要素(フィラー,情動的感動詞,言い差し)に関する先行研究を概観し,本研究の目的および特色を述べる.\subsubsection{フィラー}Merriam-WebsterOnlineDictionary(http://www.m-w.com/)によると,フィラー(fillers)には「間を埋めるもの」という意味がある.\citeA{Brown}によると,フィラーは主に発話権を維持するために,発話と発話の間を埋めるように発する発話要素とされる\footnote{\citeA{Clark-Tree}や\citeA{水上・山下}は,話し手のフィラーが長い場合,前後のポーズ長も長くなる傾向にあることを示しており,結果として,ポーズだけの場合よりも長く発話権を維持できる.}.この意味に相当する日本語の用語として,「間(場)つなぎ言葉」がある.その他に,無意味語,冗長語,繋ぎの語,遊び言葉,言い淀み,躊躇語など,これまでそれぞれの研究者の視点からさまざまに呼ばれてきている\cite{山根}.本研究では,近年の傾向にしたがい\cite{山根,定延:05},便宜的に,フィラーという名称を用いる.フィラーは,一般に命題内容を持たず,前後の発話を修飾するようなものでもない\cite{野村,山根}.例えば,例3の文からフィラーを除いたとしても,文意には何ら影響しない.そのため,古典的な日本語研究においては,感動詞や応答詞あるいは間投詞の一部として,その用法が取り上げられるにすぎなかった\cite{山根}.しかしながら,近年,言語学的アプローチによる研究により,フィラーのさまざまな機能が注目されるようになってきた.例えば,談話の区切りを表示する「談話標識(discoursemarker\cite{Schiffrin})」の機能\cite{Swerts,Watanabe,野村}や,換言や修正のマーカ\footnote{「渡したペーアノプリント」のように言い直しの前などに出現するフィラーを指す.}としての機能\cite{野村}があげられる.その他にも,``uh''や``ah''などのフィラーが構文理解(parsing)にもうまく利用されることが示されている\cite{Ferreira-Bailey}.また,フィラーは,非流暢性あるいは停滞現象(speechunfluency\cite{田中}),有声休止(filledpause)と呼ばれることもあり,発話上の問題として捉えられてきた側面もある(例えば,\citeA{Hickson}).一方で,1960年代から\citeA{Goldman-Eisler}ら言語心理学者によってさかんに非流暢性が研究されてきた理由の一つは,非流暢性が話し手の言語化に関わる内的処理過程・処理能力を表示するよい指標になり得るからである.注目すべきは,表情や一部の身体動作と共に(例えば,\citeA{Ekman,Ekman-Friesen}),フィラーが話し手の心的状態や態度が外化したものと考えることができる点である\cite{定延・田窪,田窪・金水}.\citeA{定延・田窪}は,フィラーを話し手の心的操作標識と捉え,「エート」と「アノ(ー)」を取り上げて,心的操作モニター機構について考察した.\citeA{定延・田窪}によれば,「エート」は,話し手が計算や検索のために心的演算領域を確保していることを表示し,一方で「アノ(ー)」は,話し手が主に聞き手に対して適切な表現をするために言語編集中であることを表示するとされる.この例以外に,状況によって適さないフィラーや,逆に儀礼的に使われるフィラーも存在する\cite{定延:05}.これらは,フィラーが発話者の心的状態を表示する標識となる一方で,状況や場などの制約を受ける言語学的な側面を持つことを示している.\subsubsection{情動的感動詞}情動的感動詞とは,\citeA{森山:96}が,情動的反応を表す感動詞として分類したものである.\citeA{森山:96}は,泉の比喩を使ったモデルで「アア」のような内から湧き上がってくる感情を表す内発系と,「オヤ」「オット」「ワア」「キャア」などの遭遇系の情動を分類し,それぞれと感情との関係を考察した.また,\citeA{田窪・金水}は,感動詞を,「心的な過程が表情として声に現れたもの」と捉え,特に情報の入出力に関わるものを「入出力制御系」とし,それらを応答,意外・驚き,発見・思い出し,気付かせ・思い出させ,評価中,迷い,嘆息に分類し,それぞれについて考察した\footnote{出力の際の操作に関わるものは「言い淀み系」として,非語彙的形式,語彙的形式(内容計算,形式検索,評価)に分類された.これはほぼフィラーに対応すると考えられる.}.彼らによれば,例えば,感動詞「ア」とは,発見・思い出しの標識であり,「予期されていなかったにも関らず関連性の高い情報の存在を新規に登録したということを表す」ものである.これに対し,近年,\citeA{富樫:05}は,驚きを伝えるとされる「アッ」と「ワッ」を取り上げ,「アッ」の本質は発見や新規情報の登録を示すものではなく,単に「変化点の認識」を示すものであると述べた.さらに\citeA{富樫:05}は,従来考えられてきたような感動詞の伝達的側面を疑問視し,感動詞の本質は感動を含まず,それは聞き手の解釈による効果に過ぎないと述べている.これらの研究は,情動的感動詞が少なくとも話し手の何らかの「心の状態の変化が音声として表出したもの(changeofstatetoken\cite{Heritage})」と考えられることを示している.\subsubsection{言い差し(途切れ)}言い差しとは,反復や言い直しによって途切れた不完全な語断片を指す.本研究では,スラッシュ単位マニュアル\shortcite{Slash-Manual}でタグとして使用されている言い差しの用法に従う\footnote{「ちょっと用事がありまして(参加できません)」のように,重要な部分を省略した用法を「言い差し表現」と言う場合もある.}.言い差しは,言語心理学的な研究の中で,意味処理や調音運動に関連付けて研究されてきた.例えば,\citeA{田中}は,スピーチの停滞現象を反復(「ヒヒトハオドロイタ」),言い直し(「キカイガヘンカコワレタ」),有声休止(フィラー),無声休止(ポーズ)などに分類し,それらが意味処理の過程とどのように関っているのかを実験に基づく考察から詳細に分析した.その結果,意味の処理には,音声を伴わない処理と音声を伴う処理の2つの様相があることが示された.この結果は,従来の考え方が前提としていた,人の発話処理過程において,意味の処理が完了してから音声出力されるという考え方に疑問を投げかけるものであった.つまり,人は考えてから話すのではなく,話しながら考えるという二重処理を行っていることを示す.言い差しとは,一旦,出力されかけた言語表現が並列的に動作する意味処理によって,中断されたものと考えられる.その意味で,言い差しは人の発話に伴う内的処理のプロセスの並列性,階層性を理解する上で,重要な鍵となると考えられている.\subsection{本研究のアプローチ}\subsubsection{3つの発話要素の定義}本研究では,先行研究\cite{山根}を参考に,フィラー,情動的感動詞,言い差しといった3つの発話要素を以下のように定義した.以下の例では,フィラー,情動的感動詞,言い差しに該当する部分をそれぞれカタカナで表記して示す.\\\noindent\textbf{フィラー}\\・それ自身命題内容を持たず,発話文の構成上,排除しても,意味に影響を及ぼさないもので\\\noindent(1)他との応答・修飾・接続関係にないもの\\○「エットソノー3つ目の正方形の」\\×「その角に」\noindent○「普通のモー三角形ですね」\\×「もう少し」\noindent○「コーナンテイウンデスカネ」\\×ジェスチャーを伴って「こう(こんなふうに)」\noindent(2)他との応答関係にあっても逡巡を示すもの\\○質問を受けて「ウーン左側が長いんですよね」\\×「うんそう」\noindent(3)情動的感動詞\cite{森山:96}や言い差し(途切れ)とは異なるもの\\○「エー左だけ書いてから」\\×「えっそれだけ?」(情動的感動詞)\\×「え円を描くように」(言い差し)\vspace{10pt}\noindent\textbf{情動的感動詞}\\・気付き,驚き,意外など,心的状態の変化を表出していると考えられるもの\\「アわかりました」「エ違う?」「アレ?」など\vspace{10pt}\noindent\textbf{言い差し(途切れ)}\\・反復,言い直しなど,言いかけて止めることによって,単語として成立していないもの\\「サさんかく」「フタ三つ目」「ホ(沈黙)」など\vspace{10pt}この定義により,本研究で扱う対話データ(後述)では,以下のようなものがフィラーとして認定された:アー,アノ(ー),アノナ,アノネ,アレ\footnote{フィラーとしての「アレ」は,平坦に短く,低ピッチで発音される.「それはアレ三角関数みたいに」という場合.同様に,代名詞と同表記である,「アノ」,「コノ」,「ソノ」もフィラーの場合には基本的に平坦かつ低ピッチで発音される.},アンナ,ウー,ウーン,ウ(ー)ント(ー),ウ(ー)ントネ,ウ(ー)ントナ,エ(ー),エ(ー)(ッ)ト,エ(ー)(ッ)トネ,エ(ー)(ッ)トナ,エ(ー)(ッ)トデスネ,コー,コノ(ー),ソーデスネ(ー),ソノ(ー),(ッ)ト(ー),(ッ)トネ,(ッ)トナ,ドウイエバイイノカ\footnote{{\kern-0.5zw}「ドウイエバイイノカ」に類するフィラーは,低ピッチで独り言のように発する場合であり,相手に答えを求めて「どう言えばいいんですか?」と問いかけているものではない.「ナンテイエバイイノカ」に類するフィラーも同様.これらが命題内容を持つかどうかについては議論の余地があるが,本研究では,\citeA{山根}において,フィラーとされる「ドウイウカ」「ナンテイウカ」の変形として,これらをフィラーに含めた.},ドウイエバイインダロウ,ドウイッタライイカ,ドウイッタライイノカ,ドウイッタライインデスカネ,ドウセツメイシタライイカ,ドウダロウ,ナンカ,ナンカネ,ナンカナ,ナンテイウカ,ナンテイウノカ,ナンテイウノ,ナンテイウノカナ,ナンテイイマスカ,ナンテイエバ,ナンテイエバイイカ,ナンテイエバイインデスカネ,ナンテイッタライイノカ,ナンテイウンデスカネ,ナンテイッタラインデスカネ,ハー,フーン,マ(ー),モー,ンー,ン(ー)ト,この他,方言による変異と考えられる,アンナー,ソヤネー,ナンチューカ,ナンテイエバイイトなどもフィラーとみなした.また,情動的感動詞としては,以下のものが認定された:ア(ー)(ッ),アレ(ッ),イ(ッ),ウ(ッ),エ(ー)(ッ),オ(ー)(ッ),ハ(ッ),ハイ,ヒ(ッ),ヘ(ッ),(ウ)ン.言い差しについては,不定形のため省略する.\subsubsection{本研究の目的}本研究の目的は,従来の言語学的アプローチと言語心理学的アプローチにより明らかにされてきた発話行為に伴う内的処理について,フィラーを中心に,情動的感動詞,言い差し(途切れ)という心的マーカを指標に検討することにある.対話において内的処理の過程に何らかの問題が発生すると,その内的状態を反映して,話し手,聞き手双方の発話中に,心的マーカが出現する.これらの心的マーカの出現率を分析することで,対応する処理プロセスとの関係を明らかにする.話し手の内的処理プロセスには,思考に関わるもの(検索・記憶操作,計算,類推,話の組み立てなど)と,発話生成に関わるもの(構文調整,音韻調整,単語・表現選択など),聞き手の内的処理プロセスには,発話の理解に関わるもの(構文理解,文脈理解,意味解釈,意図推論など)が考えられる.これらの話し手,聞き手の処理プロセスに,状況の認識に関わる内的処理(場の認識,関係性の認識,話者間の共通知識についての認識,利用可能なモダリティの認識,時間や空間の制約の認識など)が影響を及ぼすことが予想される.つまり,状況の認識が決定されることで,思考や発話のなされ方が変化すると考える.\begin{table}[b]\begin{center}\caption{話し手の内的処理プロセスおよび心的マーカと状況変数との対応}\label{map_speaker}\scriptsize\begin{tabular}{cccccc}\hline\multirow{2}{12mm}{状況変数}&\multirow{2}{24mm}{喚起される主だった状況認識のモード}&主な思考プロセス&主な発話生成プロセス\\&&[主な心的マーカ]&[主な心的マーカ]\\\hline親近性&関係性の認識&説明の組み立て&表現選択\\&(丁寧さの意識)&[フィラー(アノ)]&[フィラー(アノ)]&\\対面性&モダリティの認識&表象の言語化&単語選択\\&(制約の意識)&[フィラー(ナンカ)]&[フィラー(アノ)]\\難易度&必要な処理の認識&記憶・検索操作,説明方略&単語選択,文構成\\&(必要操作への意識)&[フィラー(エート,ソノ),情動的感動詞]&[フィラー(アノ),言い差し]\\\hline\end{tabular}\end{center}\end{table}そこで本研究では,発話の言語化に関わる内的処理プロセスに影響を及ぼすと想定される3つの状況変数(親近性,対面性,課題難易度)が操作され,話し手の内的処理プロセスが状況変数の影響をどのように受け,また聞き手の理解に影響するかどうかが検討された.本研究で操作される変数以外にも,状況変数としては性別差や年齢差などが考えられる.それらと比較して,親近性,対面性,課題難易度は,それぞれ,社会性,伝達手段,処理の複雑さといった異種の認識モードを必要とし,発話の言語化に関わる内的処理プロセスにも異なる影響を及ぼすと考えられた.本研究で想定された話し手の内的プロセス(思考と発話生成のプロセス)および心的マーカと状況変数の関係が,表\ref{map_speaker}に示される.具体的には,親近性の場合,対話の相手が友人か初対面の人であるかという関係性の認識によって,丁寧さへの意識が変化し,発話生成のための言葉選びや言い回しが変化する.つまり,初対面の人に説明する場合には,思考プロセスにおいて丁寧な説明のための発話の組み立てに負荷が,発話生成プロセスにおいては,発話表現の選択に負荷がかかることが予想される.次に,対面性の場合,相手と対面して対話するかどうかという利用可能なモダリティの認識によって,表現方法への制約が意識される.つまり,非対面の場合に,思考プロセスにおいては形状の表象への変換に負荷が,そして発話生成プロセスでは説明のための単語や表現の選択に負荷がかかるだろう.最後に,難易度の場合,説明内容が難しく,必要な処理操作が増加するという認識によって,記憶や対象への注意などの必要操作への意識が高まる.つまり,思考プロセスにおいては記憶操作や単語検索,対象把握や文の組み立てなどに,発話生成プロセスではどのような言語表現を使い,いかに発話の整合性を保つかという単語選択や文構成に負荷がかかるであろう.リアルタイムに処理可能な情報量に限界のある話し手にとって,特定の発話プロセスに負荷がかかると,その状態を表示するさまざまな心的マーカが外化することが予想される.例えば,先行研究からの予測として,単語や表現の検索・選択への負荷の増加は,「エート」や「アノ(ー)」などのフィラーの増加として表出するであろう.その他,「ナンカ」は,具現化できない何かを模索中であることの標識であり,表象の言語化過程に表出しやすいであろうし,「ソノ」は,すぐに具現化できない内容が思考プロセスに存在していることを示すとされ\cite{山根},言葉を掘り起こす負荷の高い場合に表出されやすいであろう.また,並列的に処理される思考プロセスと発話生成プロセスに同時に負荷がかかる場合,例えば,発話を始めてから言い間違いに気付いて,言い直す場合には,言い差しが表出することが予想される.一方,「ア」や「エ」などの情動的感動詞の場合には,上記の負荷の影響は間接的であり,例えば,説明しにくい(相手にも理解しにくい)対象を説明する場合に,自分が今行っている説明の仕方よりもさらによい説明の仕方を思いついたときや,説明の不備に気がついたときに表出される機会が増加することが予想される\footnote{ここでは,話し手の発話プロセスについて言及しているが,「ア」などの情動的感動詞は,理解や発見の表示として表出する場合が多く,聞き手の応答時に現れやすい(例えば,「ア,はいはいはい」).}.以上から,3つの状況変数は以下のような心的マーカの出現率の差として現れることが予測される.1)親近性が低いと,表現選択に関するフィラー出現率が高まり,2)対面性がないと,表象の言語化や単語選択に関するフィラー出現率が高まり,3)難易度が高いと,記憶・検索操作に関するフィラー出現率,情動的感動詞出現率,言い差し出現率のすべてが高まる.また,本研究では,状況による心的マーカの現れ方を検討するため,統制された実験環境において,課題遂行型の対話である図形説明課題対話を収録,分析した.先行研究では,自然な対話収録を目的とし,自由対話を課題とするものが多く,例えば,会話分析のような社会学的手法においては日常会話が主として扱われてきた\cite{好井}.しかし,本研究で用いる図形説明課題対話は,提示された図形を説明する説明者役と,説明を受けて理解し,選択肢を答える回答者役に分かれて行う課題であり,役割の非対称性(話し手/聞き手)と情報の非対称性(説明者≫回答者)を特徴としている\footnote{ただし,回答者には,説明者に対して質問することを許可しており,局所的には話し手/聞き手が逆転する場合がある.}.役割の非対称性がある対話として,インタビュー対話\shortcite[など]{CSJ}があげられるが,ここでは,聞き手であるインタビュアの会話進行能力や質問の仕方に依存し,発話量のバランスや難易度の統制が困難である.また,本研究での課題と同様に,協同作業型課題遂行対話である地図課題対話\shortcite{堀内-99}では,説明者役と回答者役の間の情報の非対称性が完全ではない(回答者にも手がかりがある).図形説明課題を使用することで,説明者側の内的処理プロセスは,説明のための言語化に係わる処理プロセスが主となり,回答者側の内的処理プロセスは,理解に係わる処理プロセスが主となると切り分けて検討できる利点を有する.
\section{方法}
\noindent実験参加者成人56(男性28,女性28)名がペアで実験に参加した.実験ペアは同世代かつ同性で組み合わされた,28(男性ペア14,女性ペア14)組であった.平均年齢は25.45(SD=5.80,範囲=18--38)歳であった.参加者には実験参加に対する謝礼が支払われた.\vspace{10pt}\noindent実験計画2×2×2の3要因混合計画が用いられた.親近性(知人vs初対面)と対面性(対面vs非対面)が被験者間要因であり,課題難易度(難vs易)が被験者内要因であった.各群のペア数は以下の通りであった;知人/対面群7ペア,知人/非対面群6ペア,初対面/対面群7ペア,初対面/非対面群8ペア.\vspace{10pt}\noindent装置・器具実験は防音室内で実施された.防音室は防音壁と防音ガラス窓で構成される仕切り壁によって,2つの小部屋に区切られていた.実験中,各参加者はマイクロホン(SONYECM88)とヘッドフォン(SONYMDR-CD900ST)を装着した.一方の参加者の話す音声はマイクロホンから入力され,音声ミキサー(JVCPS-M3016)を介して,他方の参加者のヘッドフォンへ出力された.これにより,各参加者の音声は互いに回り込むことなく,完全に分離した形で,オーディオワークステーション(TASCAMSX-1)に収録された.また,実験の様子はそれぞれの参加者の正面,側面について別々の小型カメラ(WATECWAT-204CX)を使用して撮影され,画面分割器(SONYYS-Q440)を通して,4つの画像情報を1つの画像としてデジタルビデオデッキ(SONYDSR-2000)に収録された.\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{stimulus.eps}\caption{提示刺激}\label{figures}\end{center}\end{figure}\vspace{10pt}\noindent課題と刺激実験では,図形説明課題が用いられた.図形説明課題とは,2人1組で実施し,参加者の一方が説明者役,他方が回答者役となり,説明者役が口頭で説明する抽象的な線画の形を,回答者役が選択肢の中から再認し,答える課題である.なお,本研究では報告されないが,実験では,写真を見てそこに写る複数の人物間の関係を類推し,2者間で回答を作成する合意形成課題も実施されたが,両課題は性質の異なる課題であると考えられた.つまり,2者間の社会的関係性(例えば,上司と部下,先輩と後輩など)を考慮せず,純粋に理論的に考えると,合意形成課題では,話者間での発話機会は均等に保証されているが,図形説明課題では,説明者役から回答者役への情報提供が主となり,説明者役の発話機会が大きくなる課題設定であり,お互いの発話機会が均等に保証されていない.また,自然な状況での会話に近い合意形成課題と比較して,図形説明課題では役割が設定されているので,個人差が反映しにくい課題であると考えられた.図形説明課題で用いられた刺激は抽象線画であり,予備調査によって,説明の難易度が統制されていた.予備調査では,ジェスチャと発話の関係を検討した\citeA{Graham-Argyle}で用いられた抽象線画を参考にして作成された12個の刺激図形を大学生男女43名に提示し,それぞれの図形の説明しやすさについて,7段階評定(1:簡単,7:難しい)を求めた.その結果から本実験のために,説明のしやすい図形2つ,しにくい図形2つ,合計4つの図形が選択された(図\ref{figures}参照).\vspace{10pt}\noindent手続き実験は実験手順の説明,マイク類の装着と音声チェック,図形説明課題,合意形成課題の順で実施された.全体の所要時間は約50分であった.実験に関する説明,ならびに実験課題の提示はパーソナルコンピュータ(SONYVAIOPCG-GR7/K)により制御された.実験はペアごとに防音室内で実施された.対面性の操作として,これらのペアの半数が間をガラスで隔てた対面(FTF:face-to-face)条件で実験を行い,残る半数は相手が見えず声のみしか聞こえない非対面(NFTF:non-face-to-face)条件で実験を実施した.また,親近性の操作として,ペアの半数はお互いが知り合い同士である知人(F:familiar)条件,残り半数は初対面(UF:unfamiliar)条件に割り当てられた.初対面条件のペアは事前にまったく面識がない者同士が組み合わされ,相手についてのいかなる情報(年齢や性別など)も告知されていなかった.また,実験開始前の印象やコミュニケーションが実験に何らかの影響を及ぼすことを避けるために,参加者は別々に控え室に入室し,個別に実験手順の説明を受けた.その結果,対面/初対面条件の参加者は実験開始のために防音室内に入室して初めて顔を合わすこととなり,非対面/初対面条件の参加者はマイク類の調整時点で,初めて相手の音声を耳にしたが,実験終了後まで顔を合わせることはなかった.最初に,各参加者はそれぞれ別々の控室に入室し,コンピュータディスプレイ(SONYLMD-230W)の前に座って,本実験の目的が「ペアで会話を通していくつかの課題を協力して解く」ことであり,実験の概要と注意事項について説明された.以下では,本研究で報告される図形説明課題に絞って記述する.図形説明課題では,参加者は図形を見てその形状を説明する説明者役(briefer)と,説明者の説明を聞いて選択肢から答えを再認する回答者役(answerer)に分かれ,図形の形状を伝達するように求められた.各参加者は実験者から指示された役割に従って,説明者役,回答者役を交替した.つまり,1人の参加者は説明者役を2回,回答者役を2回行った.課題難易度として,説明者役が図形を説明する際に,説明のしやすい図形がディスプレイ上に常に表示され参照可能な課題易条件と,説明のしにくい図形が5秒間のみ表示され記憶して説明しなければならない課題難条件が設定された\footnote{本実験では,実験時間の制約上,図形そのものの説明の難易度と課題設定の難易度の4つの組み合わせから,もっとも困難なものが課題難条件,もっとも易しいものが課題易条件として用いられたが,この操作により説明の生成と記憶操作という2つの異なるプロセスが関与することになった.}.結果として,図形説明課題は4セッション存在し(説明者役/課題難条件,説明者役/課題易条件,回答者役/課題難条件,回答者役/課題易条件),その実施順序はペアごとにランダマイズされていた.1回のセッションは最大10分間であり,10分以内に回答に至らない場合には,課題途中でセッションを中止し,次のセッションへと移動した.説明者には回答者が一度で正解できるように,できる限り詳しく,かつ分かりやすく説明するように求められ,回答者には分からないところがあれば,説明者に何度聞き返しても構わないことが説明された.1セッションの流れを以下に示す.\noindent1)説明説明者側のディスプレイにのみ,課題図形が表示され,説明者はそれを回答者にできる限り詳しく,かつ分かりやすく説明する.この時点で,説明者役にそのセッションが課題難条件で行われるか課題易条件か行われるかが提示される.回答者役は説明を聞き,図形の形が分かれば,「分かりました」と説明者に伝える.\noindent2)確認回答者は確認のため,その形を説明者役に自分の言葉を使って説明をする.説明者役は回答者役の説明を聞いて,自分の説明がうまく伝わっていると感じたならば,OKを出す.逆に,うまく伝わっていないならば,うまく伝わるまで,1)を反復する.\noindent3)回答回答者側のディスプレイにのみ6つの選択肢が表示され,回答者はこの中から回答を選択する.回答が正解であれば,次の課題に移る.\noindent4)再回答回答が不正解の場合は,1)へ戻り,説明を再度確認し,再回答する.制限時間内であれば,正解が出るまでこれを反復する.最後に,参加者には,密閉性の高い閉鎖環境(防音室)での実験により圧迫感や疲労感を感じた場合には,自らの判断でいつでも実験を中止する権限があり,中止しても不利益を被ることは一切ないことが書類で説明され,すべての説明について了解し,実験参加への同意を得た人のみを実験参加者とした.実験手順の説明終了後,参加者はそれぞれ防音室に移動し,マイク類の装着,及びチェックを行った後,課題を実施した.
\section{結果}
データとして,セッション開始から回答者が発する「分かりました」の合図までの区間,すなわち,説明者役が主な話し手となる「説明」フェーズで出現した心的マーカが対象とされた,セッション設定時間である10分を超過しても回答選択に至らなかったセッションを含む1ペア分のデータは,以下の分析から除外された(各群の最終的なペア数は,知人/対面群6ペア,知人/非対面群6ペア,初対面/対面群7ペア,初対面/非対面群8ペアであった).以下ではまず,収録された対話データの大まかな特徴を明らかにするため,条件別の課題所要時間を報告する.次に,本研究で検討する心的マーカであるフィラー,情動的感動詞,言い差し(途切れ)について,どのような手順でタグ付けされ,分析されたかが説明され,それぞれの発話要素の出現率を報告する.最後に,出現したフィラーの内容分類を行い,種類別出現度数について報告する.\subsection{課題のセッション所要時間}図\ref{time}はセッションに要した平均時間を条件別に示したものである.親近性(2)×対面性(2)×課題難易度(2)の分散分析を実施したところ,親近性と課題難易度の交互作用が有意であった(F(1,23)=5.69,$\mathrm{p}<.05$).親近性の単純主効果を検定したところ,課題難条件では有意であり(F(1,23)=5.73,$\mathrm{p}<.05$),課題易条件では有意ではなかった(F(1,23)=1.14).また,課題難易度の単純主効果は知人条件(F(1,23)=8.06,$\mathrm{p}<.01$),初対面条件(F(1,23)=38.57,$\mathrm{p}<.01$)の両方において有意であった.これらの結果から,本実験で用いられた課題難易度の操作は妥当なものであったことが裏付けられる.また,参加者はお互い初対面で,かつ課題が難しい場合に課題解決のための時間を要していたことが示された.\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{time.eps}\caption{セッションの平均所要時間(バーは標準誤差)}\label{time}\end{center}\end{figure}\subsection{分析手順とタグ付け}収録された対話データから,心的マーカであるフィラー,情動的感動詞,言い差し(途切れ)を抽出するため,まずは録音された音声がすべて文字化され,次に,2名の判定者があらかじめ定められた定義にしたがって,それぞれ別々にタグ付けを実施した.タグ付けの不一致率は全体の4\%以下であった.判定者間で判断が分かれたものについては,協議の上,最終的な判定を行った.判定者間で揺れが生じた代表的な例は,以下のとおりである.\noindent(例4)はいアンナーとりあえずな正方形が四つでてきてんやんか\\\noindent冒頭の「はい」は応答の先がなく,本研究の定義ではフィラーに属するが,この場合,これから話し始めるという合図であると考えられたため,フィラーには含まれなかった.また,「アンナー」は呼びかけとして使用されることもあるが,状況によりフィラーと区別することが困難であることが多いため,今回はすべてフィラーと判定された.\noindent(例5)‥今線が二つコウナンテイウンデスカネ斜めに‥\\\noindent「コウ」は音声のみから判定が難しいケースが多く,ビデオにより,発話者がハンドジェスチャを伴い,「こんなふうに」の意味で使用している場合はフィラーから除外された.\subsection{平均出現率}各条件間を比較するために,分析の基本単位として,正規化された出現率が算出された.まず,100msより長い無音により区切られた一連の発話区間である間休止単位(IPU:Inter-PausalUnit,\shortcite{Koiso-etal})を利用し,セッションごとに説明者役,回答者役のそれぞれで課題所要時間中に発話された総IPU度数が算出された.次に,フィラー,情動的感動詞,言い差し(途切れ)の出現度数から各々の出現率(出現度数/IPU度数)が求められた.本実験での課題である図形説明課題は,話し手(説明者)と聞き手(回答者)という役割による発話の質的・量的差異を見込んだ設定であったので,以下では,3つの発話要素の平均出現率について,役割間での違いが結果に反映されているかが確認された上で,それぞれについて親近性(2)×対面性(2)×課題難易度(2)の条件間の平均の差が検討された.\begin{figure}[tbh]\begin{center}\includegraphics[width=8cm]{f.eps}\caption{フィラーの条件別平均出現率(バーは標準誤差)}\label{filler_rate}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{e.eps}\caption{情動的感動詞の条件別平均出現率(バーは標準誤差)}\label{affect_rate}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=8cm]{d.eps}\caption{言い差しの条件別平均出現率(バーは標準誤差)}\label{dis_rate}\end{center}\end{figure}図\ref{filler_rate},図\ref{affect_rate},図\ref{dis_rate}は,条件別に見たフィラー,情動的感動詞,言い差し(途切れ)の平均出現率を示したものである.それぞれの平均出現率に関して,役割別の効果(説明者/回答者)を検討したところ,フィラーの場合,説明者役の出現率(M=0.18,SD=0.08)は,回答者役(M=0.04,SD=0.04)より約4倍高く(F(1,107)=174.76,$\mathrm{p}<.01$),情動的感動詞の場合,回答者役(M=0.09,SD=0.06)の出現率が説明者役(M=0.03,SD=0.02)よりも約3倍高く(F(1,107)=68.73,$\mathrm{p}<.01$),言い差し(途切れ)の場合,説明者役の出現率(M=0.08,SD=0.06)は回答者役(M=0.04,SD=0.04)より約2倍高いことが示された(F(1,107)=25.32,$\mathrm{p}<.01$).以上から,以降では役割ごとに条件比較がなされた.図\ref{filler_rate}をもとにした説明者役のフィラー出現率に関する分散分析の結果,親近性の主効果のみが有意であり,知人条件(M=0.15,SD=0.07)は初対面条件(M=0.20,SD=0.08)よりフィラー出現率が低かった(F(1,50)=6.38,$\mathrm{p}<.05$).フィラーは,全ての条件において差が予想されたが,親近性のみであった理由については,後述のフィラーの種類別の結果を踏まえ,考察で議論される.一方,回答者役に対する分析の結果,有意な効果は存在しなかった($\mathrm{F}<1$).次に,図\ref{affect_rate}をもとにした説明者役に対する情動的感動詞の平均出現率に関する分散分析の結果,親近性と課題難易度の交互作用が有意であった(F(1,50)=5.99,$\mathrm{p}<.05$).親近性の単純主効果を検定したところ,課題が難しい場合,知人より初対面の方が出現率が高い傾向にあったが(F(1,50)=2.95,$\mathrm{p}<.10$),課題が易しい場合には差がなかった(F(1,50)=1.61).また,初対面同士の場合,課題が難しいと出現率が高い傾向にあるが(F(1,50)=3.36,$\mathrm{p}<.10$),知人の場合にはそうではなかった(F(1,50)=2.65).一方,回答者役に対する分析の結果,二次の交互作用が有意であった(F(1,50)=4.27,$\mathrm{p}<.05$).そこで,対面・非対面条件別に親近性×課題難易度の単純交互作用を分析した.対面状況での交互作用が有意傾向にあったので(F(1,22)=3.38,$\mathrm{p}<.10$),水準別誤差項を用いた単純・単純主効果検定の結果,課題が難しい場合には知人よりも初対面同士の方が出現率が高かったが(F=14.44,$\mathrm{p}<.05$),課題が易しい場合にはその差はなかった.また,親近性条件による課題難易度の差はいずれも存在しなかった.一方で,非対面状況では,有意な効果は何も存在しなかった.図\ref{dis_rate}をもとにした説明者役の言い差し(途切れ)の平均出現率に関する分散分析の結果,課題難易度の主効果(F(1,50)=7.93,$\mathrm{p}<.01$)と親近性と対面性の交互作用が有意であった(F(1,50)=4.50,$\mathrm{p}<.05$).交互作用について,親近性の単純主効果を検定したところ,非対面条件では初対面より知人同士の方が出現率が高いが(F(1,50)=26.04,$\mathrm{p}<.01$),対面条件では有意差がなかった(F(1,50)=2.09).また,対面性の単純主効果は知人条件の場合,非対面の方が出現率が高く(F(1,50)=13.77,$\mathrm{p}<.01$),初対面条件の場合には,対面の方が出現率が高かった(F(1,50)=8.06,$\mathrm{p}<.01$).一方,回答者役に対する分散分析の結果,親近性と対面性の交互作用が有意傾向であった(F(1,50)=2.93,$\mathrm{p}<.10$).親近性の単純主効果を検定したところ,対面条件では有意差がないが(F(1,50)=0.06),非対面条件では知人同士の方が出現率が高かった(F(1,50)=7.31,$\mathrm{p}<.05$).また,対面性の単純主効果は知人条件(F(1,50)=1.71),初対面条件(F(1,50)=2.73)ともに有意でなかった.以上,出現率に関する結果のまとめを表\ref{marker_trend}に示す.\begin{table}[t]\caption{心的マーカの条件別出現率の結果まとめ}\label{marker_trend}\scriptsize\begin{tabular}{ccccccc}\hline&\multicolumn{3}{c}{説明者役}&\multicolumn{3}{c}{回答者役}\\&フィラー&情動的感動詞&言い差し&フィラー&情動的感動詞&言い差し\\\hline親近性&\multirow{2}{19mm}{知人$<$初対面**}&知人$<$初対面+&知人$>$初対面**&&知人$<$初対面**&知人$>$初対面*\\&&(課題難条件)&(非対面条件)&&(課題難・対面条件)&(非対面条件)\\対面性&&&対面$<$非対面**&&&\\&&&(知人条件)&&&\\&&&対面$>$非対面**&&&\\&&&(初対面条件)&&&\\課題難易度&&難$>$易+&\multirow{2}{12mm}{難$>$易**}&&&\\&&(初対面条件)&&&&\\\hline\multicolumn{5}{l}{**$\mathrm{p}<.01$,*$\mathrm{p}<.05$,+$\mathrm{p}<.10$}\end{tabular}\end{table}次に,説明者役のフィラー,情動的感動詞,言い差し(途切れ)が回答者の回答選択に影響したかどうかを検討するために,セッション中の回答者役による回答が一度で正解されたか,それとも再回答を要したかどうかで条件に分け,説明者役のフィラー,情動的感動詞,言い差し(途切れ)の平均出現率を検討した.分散分析の結果,フィラーと言い差しを指標とした場合には,一度で正解に至った場合とそうでない場合とに出現率の違いはなかったが,情動的感動詞では,一度で正解に至らない場合にその出現率が高かった(F(1,106)=4.77,$\mathrm{p}<.05$).\subsection{フィラーの種類別分析}表\ref{ab}はセッション中に出現したフィラー度数を種類別に分類し,説明者役と回答者役に分けて示したものである.説明者役は総数で回答者役の約6倍のフィラーを発していた.種類別に見ると,説明者役,回答者役ともに,「エート」「アノ」「エー」「ソノ」「ナンカ」で全体の8割以上を占めており,説明者役と回答者役でその構成比率にほとんど違いはなかった.\begin{table}[b]\caption{フィラーの種類別構成}\label{ab}\begin{center}\small\begin{tabular}{llrrrrrrr}\hline&&エート&アノ&エー&ソノ&ナンカ&その他&合計\\\hline説明者役&No&378&232&176&100&118&212&1216\\&\%&\phantom{0}31&\phantom{0}19&\phantom{0}14&\phantom{00}8&\phantom{00}10&\phantom{0}17&\phantom{0}100\\回答者役&No&\phantom{0}80&\phantom{0}35&\phantom{0}22&\phantom{0}19&\phantom{0}11&\phantom{0}38&\phantom{0}205\\&\%&\phantom{0}39&\phantom{0}17&\phantom{0}10&\phantom{00}9&\phantom{00}5&\phantom{0}19&\phantom{0}100\\\hline\end{tabular}\end{center}\end{table}表\ref{filler_kind}に種類別条件別出現率を示す.表\ref{filler_kind}に基づき,説明者役に対して,親近性×対面性×難易度の分散分析を行った\footnote{本研究では主に話し手の発話プロセスに着目するので,以下の分析では,回答者役を除外する.なお,回答者役の場合,フィラーの種類によってはセッション中に現れないものが存在したことも分析対象としない1つの理由であった.}.「エート」の場合,初対面条件の方が知人条件よりも有意に出現率が高かった(F(1,50)=10.13,$\mathrm{p}<.01$).「アノ」「エー」の場合,どちらも条件による有意な差はなかった.「ソノ」の場合,課題難条件の出現率が課題易条件よりも高かった(F(1,50)=5.09,$\mathrm{p}<.05$).「ナンカ」の場合,親近性と対面性の交互作用が有意傾向であり(F(1,50)=3.07,$\mathrm{p}<.10$),それぞれの単純主効果の分析の結果,非対面条件では,知人同士の方が初対面同士よりも出現率が高く(F(1,50)=6.52,$\mathrm{p}<.05$),知人条件では,非対面条件の方が,対面条件よりも出現率が高かった(F(1,50)=5.28,$\mathrm{p}<.05$).これらの結果を表\ref{filler_trend}にまとめる.\begin{table}[t]\caption{フィラーの種類別条件別出現率(説明者役)}\label{filler_kind}\begin{center}\footnotesize\begin{tabular}{cccccccccccccc}\hline&&\multicolumn{2}{c}{エート}&\multicolumn{2}{c}{アノ}&\multicolumn{2}{c}{エー}&\multicolumn{2}{c}{ソノ}&\multicolumn{2}{c}{ナンカ}&\multicolumn{2}{c}{その他}\\&&難&易&難&易&難&易&難&易&難&易&難&易\\\hlineF/FTF&M&0.02&0.02&0.03&0.02&0.01&0.01&0.02&0.02&0.02&0.01&0.10&0.07\\&SD&0.02&0.03&0.05&0.03&0.02&0.02&0.02&0.03&0.03&0.01&0.07&0.05\\F/NFTF&M&0.05&0.06&0.03&0.03&0.02&0.02&0.01&0.00&0.03&0.03&0.15&0.15\\&SD&0.04&0.05&0.03&0.04&0.04&0.02&0.02&0.01&0.03&0.04&0.07&0.05\\UF/FTF&M&0.07&0.07&0.04&0.04&0.03&0.03&0.01&0.01&0.01&0.01&0.17&0.16\\&SD&0.06&0.06&0.07&0.06&0.04&0.04&0.02&0.02&0.02&0.01&0.06&0.08\\UF/NFTF&M&0.07&0.07&0.02&0.02&0.05&0.04&0.02&0.01&0.01&0.01&0.17&0.16\\&SD&0.05&0.04&0.02&0.04&0.07&0.07&0.03&0.02&0.02&0.02&0.08&0.08\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{フィラー(上位5種)の種類別条件別出現率(説明者役)のまとめ}\label{filler_trend}\begin{center}\scriptsize\begin{tabular}{ccccccc}\hline&エート&アノ&エー&ソノ&ナンカ\\\hline\multirow{2}{13mm}{親近性}&\multirow{2}{21mm}{知人$<$初対面**}&&&&知人$>$初対面*\\&&&&&(非対面条件)\\\multirow{2}{13mm}{対面性}&&&&&対面$<$非対面*\\&&&&&(知人条件)\\\multirow{2}{13mm}{難易度}&&&&\multirow{2}{11mm}{難$>$易*}&\\&&&&&\\\hline\multicolumn{4}{l}{**$\mathrm{p}<.01$,*$\mathrm{p}<.05$,+$\mathrm{p}<.10$}&&\\\end{tabular}\end{center}\end{table}
\section{考察}
実験の結果,課題難易度が高くかつ初対面の場合には,セッション所要時間が増加することが示された.単純に考えれば,時間増加に伴って発話量も増加し,フィラー,情動的感動詞,言い差し(途切れ)も増加すると考えられる.そこで,この3つの発話要素の出現率について分析したところ,フィラーでは,説明者役の場合,回答者役よりも出現率が高かった.また,初対面条件の場合,知人条件よりも出現率が高かったが,課題難易度の影響は見られなかった.これに対し,情動的感動詞では,フィラーとは逆に回答者役の場合,説明者役よりも出現率が高く,課題難・対面条件で初対面条件の場合,知人条件よりも出現率が高かった.また,言い差し(途切れ)は,説明者役の場合,回答者役よりも出現率が高く,説明者役の場合,難易度が影響した.また,一度で正解に至ったかどうかに,説明者役の心的マーカがどう影響を与えたかを分析した結果,情動的感動詞のみが,一度で正解に至らなかった場合に,正解した場合よりも出現率が高かった.さらに,フィラーの種類別の検討から,「エート」は,初対面条件で出現率が上がったのに対し,「アノ」や「エー」では,条件による出現率の差はなかった.また,「ソノ」は課題難条件において出現率が上がり,「ナンカ」に関しては,非対面条件では,知人同士のほうが出現率が高まり,知人条件では,非対面のほうが出現率が高かった.以上の結果から,本研究における状況変数が,3つの心的マーカの出現の仕方に,さらにフィラーに関しては,種類の違いによって,それぞれ異なる影響を及ぼしたことが示唆される.つまり,この違いは,心的マーカの背後にある内的処理プロセスの違いを反映して有標化したものであると考えることができる.以下では,本研究で得られた結果を,1)従来の研究結果と本研究の結果の一致点および相違点,2)話し手の内的処理プロセスと心的マーカとの対応,3)本研究で得られた結果の応用可能性の観点から考察する.まず,従来の研究結果と本研究の結果の一致点および相違点を取り上げると,これまでの研究においては,フィラーは主に「場の改まり度(フォーマルかインフォーマルか;例えば,\citeA{Philips})」の影響を受けることが示されてきたが,本研究結果で,親近性条件に差があったということは,対話相手が初対面である場合,知人同士である場合より,改まった状況であると認識されることを考慮すれば,先行研究の結果を確認したことになる.一方,先行研究においては,対話の伝達内容の複雑さがフィラーを含めた発話における非流暢性の出現量に影響を与えることが示されてきた\cite{Goldman-Eisler}.本研究のフィラー全体の結果では,課題難易度の影響は見られなかった.ただし,種類別で見ると,「ソノ」に難易度の影響が見られたことから,フィラーに関しては種類別に分けた検討が必要であることがわかる.言い差し(途切れ)は,課題難易度の影響を受けており,これは先行研究と一致していた.また,フィラーには,後続する発話の内容の傾向(複雑さや重要度)を聞き手に予期させ,聞き手の理解を促す効果があることが示されてきたが(\shortciteA{FoxTree,渡辺}),本研究における,一度での正解率には影響は見られなかった\footnote{この理由として,フィラーの有無とは別に,言葉の曖昧さ(例えば,「底辺がへこんでいる」と表現した場合のへこみは三角形の内側か外側か)や,課題の設定上,説明者役には回答者側に表示される選択肢は見えず,どこまで説明すれば選択肢間の差異を表現できるかが不明であったため,説明の詳細化に関して個人差があり,回答者役の理解が直接正解につながらない場合があったことなども考えられる.}.次に,本研究でのフィラー種類の構成比率において,「エート」が3割を超えていた.これは,平均して1割程度,多くても2割以下という構成比率を示す先行研究の結果\cite[など]{山根}よりも多かった.先行研究では,「エート」は,主に発話者が記憶操作や計算・検索などの心的操作を行っている標識であると考えられてきた\cite{定延・田窪}が,本研究ではそれに対応する難易度(記憶操作)の影響はなく,これまであまり関係ないとされていた対人的な要因が影響したことを示している.ただし,\citeA{山根}が言及するように,「エート」は沈黙を回避するために選択的に使われる傾向があり,不要な間を開けることを避けるために,知人条件よりも初対面条件において多く使用された可能性がある.これとは逆に,一般に「アノ」は対人的な言語表現編集の標識や表現の和らげの機能を持つとされてきたが,本研究の結果では,親近性の影響は見られなかった.後述するように,「アノ」の持つ,対人的な機能の側面が,本研究の課題設定では現れにくかった可能性がある.先行研究と異なる結果になった理由については,前後の文脈関係を含めたより詳細な分析が必要であり,また本研究での図形説明課題とは異なる課題設定での検討も求められるだろう.次に,話し手の内的処理プロセスと心的マーカとの対応について,表\ref{map_speaker}で予想されたことと,本研究の結果(表\ref{marker_trend},表\ref{filler_trend})とを照らして考察する.まず,親近性に関して,フィラーに影響が見られたこと,難易度に関して,情動的感動詞,言い差しに影響が見られたことは,予想と一致した.しかしながら,対面性に関して,影響が見られると予想されたフィラーには,影響が見られなかった.その理由としては,参加者の多くが対面であることの利点の1つであると考えられるジェスチャなどの視覚的伝達手段を,あまり使用しなかったことが挙げられる.実験教示において,「ジェスチャを使用して良い(悪い)」という説明をしなかったこと,マイクとヘッドフォンを装着していたため,動きが制約されていたことなどから,結果的に,ジェスチャを使わないという潜在的な抑制が働いていた可能性が考えられる.この点は今後の実験設定,教示方法の検討材料である.また,言い差しに関して,知人同士か,初対面同士かによって,対面性の影響が逆転した.顔が見えることは,知人同士では安心感を,逆に初対面同士では緊張を生み出す要因として働いた可能性が考えられるだろう.さらに,フィラーの種類別の影響に関しては,難易度の影響を受けると予想された「ソノ」では予測通りの結果となったが,親近性条件の影響を受けると予想された表現の選択に関するマーカである「アノ」では影響は見られず,予想外の「エート」で親近性の影響が見られた.「エート」が「アノ」の代わりに使われたような結果となったのは,実験課題の性質上,「アノ」が出現しやすいとされる「言いにくいことを和らげる」という状況(依頼状況)が少なかったために,「アノ」の出現率が抑制され,一方,沈黙回避の必要性が増加したために,「エート」の出現率が増加したことが,理由の1つとして考えられる.また,「ナンカ」に関しては,非対面条件において,知人同士の出現率が初対面同士を上回っていた.通常,「ナンカ」は具現化できない何かがあり,それを模索中であることを示す標識であるとされ,特に「ナンテイウカ」は,操作に時間を要していることを表示するので,表象の言語化過程に負荷のかかる対面性の影響が見られると予測されたが,その影響は知人条件のみに限定されていた.これには前述のジェスチャの使用抑制が関係している可能性がある.また,本研究では出現率を分析対象としたが,説明所要時間を指標とした場合には難易度の影響が見られたことから,各状況変数が,フィラーの出現率以外の指標,例えば,個々のフィラーの表出継続時間や語形などに影響を与えた可能性も考えられる.本研究では,例えば,「エート」と「エーットデスネー」,「ナンカ」と「ナンテイッタライインデスカネー」を同じカテゴリに分類したが,今後,より詳細な条件設定の下で,より多くのデータを収集した上で,カテゴリ内の各語の語形や音響特性,継続時間長などの特徴別に分析することが必要となるだろう.最後に,本研究で得られた結果の応用可能性として,例えば,心的マーカをリアルタイムに検出,分類し,類推するシステムを,ヒューマノイドロボットやエージェントに実装することによって,システム側が,人間の話し手/聞き手の内的処理プロセスを類推できれば,それに応じてシステム側は柔軟な対応を生成でき,自然なインタラクションを生み出すことができると期待される.しかしながら,本研究は実験的設定のもとに得られた対話を分析した結果であるため,その応用可能性は限定的であり,また,必ずしも心的マーカの普遍的性質を示し得たわけではない.今回取り上げたものとは異なる状況変数(例えば,上司と部下などの社会的関係,性別など)や,3つの発話要素以外の心的マーカの要素(例えば,ジェスチャや表情,視線,ポーズなど)についてさらに詳細なる分析を進めていく必要がある.現在,我々は,時間情報を含む,フィラー,情動的感動詞,言い差し(途切れ)といった心的マーカをタグ付けした対話コーパスの作成を進めている.この対話コーパスを使用して,より質的な分析,例えば,話者交替や発話の連鎖の中での心的マーカの表れ方の違いについてや,条件ごとのフィラーや情動的感動詞の音響的特性の分析を通じて,心的マーカによる内的処理プロセスの理解がより一層深化することが期待される.\acknowledgment論文の改稿にあたり,多くの貴重なご助言を頂きました査読者に深く感謝いたします.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown}{Brown}{1977}]{Brown}Brown,G.\BBOP1977\BBCP.\newblock{\BemListeningtospokenEnglish}.\newblockLongman,London.\bibitem[\protect\BCAY{Clark}{Clark}{2002}]{Clark:02}Clark,H.~H.\BBOP2002\BBCP.\newblock\BBOQSpeakingintime\BBCQ\\newblock{\BemSpeechCommunication},{\Bbf36},\mbox{\BPGS\5--13}.\bibitem[\protect\BCAY{Clark\BBA\FoxTree}{Clark\BBA\FoxTree}{2002}]{Clark-Tree}Clark,H.~H.\BBACOMMA\\BBA\Tree,J.E.~F.\BBOP2002\BBCP.\newblock\BBOQUsinguhanduminspontaneousspeaking\BBCQ\\newblock{\BemCognition},{\Bbf84},\mbox{\BPGS\73--111}.\bibitem[\protect\BCAY{Ekman}{Ekman}{1972}]{Ekman}Ekman,P.\BBOP1972\BBCP.\newblock\BBOQUniversalandculturaldifferencesinfacialexpressionsofemotions\BBCQ\\newblockInCode,J.\BED,{\BemNebraskaSymposiumonMotivation},\mbox{\BPGS\207--283}.UniversityofNebraskapress,Lincoln.\bibitem[\protect\BCAY{Ekman\BBA\Friesen}{Ekman\BBA\Friesen}{1967}]{Ekman-Friesen}Ekman,P.\BBACOMMA\\BBA\Friesen,W.~V.\BBOP1967\BBCP.\newblock\BBOQHeadandBodycuesinthejudgementofemotion:Areformulation\BBCQ\\newblock{\BemPerceptualandMotorSkills},{\Bbf24},\mbox{\BPGS\711--724}.\bibitem[\protect\BCAY{Ferreira\BBA\Bailey}{Ferreira\BBA\Bailey}{2004}]{Ferreira-Bailey}Ferreira,F.\BBACOMMA\\BBA\Bailey,K.G.~D.\BBOP2004\BBCP.\newblock\BBOQDisfluenciesandhumanlanguagecomprehension\BBCQ\\newblock{\BemTRENDSinCognitiveSciences},{\Bbf8}(5),\mbox{\BPGS\231--237}.\bibitem[\protect\BCAY{Fox~Tree}{Fox~Tree}{1995}]{FoxTree}Fox~Tree,J.~E.\BBOP1995\BBCP.\newblock\BBOQTheeffectsoffalsestartsandrepetitionsontheprocessingofsubsequentwordsinspontaneousspeech\BBCQ\\newblock{\BemJournalofMemoryandLanguage},{\Bbf34},\mbox{\BPGS\709--738}.\bibitem[\protect\BCAY{Goldman-Eisler}{Goldman-Eisler}{1968}]{Goldman-Eisler}Goldman-Eisler,F.~G.\BBOP1968\BBCP.\newblock{\BemPsycholinguistics:Experimentsinspontaneousspeech}.\newblockAcademicPress,N.Y.\bibitem[\protect\BCAY{Graham\BBA\Argyle}{Graham\BBA\Argyle}{1975}]{Graham-Argyle}Graham,J.~A.\BBACOMMA\\BBA\Argyle,M.~A.\BBOP1975\BBCP.\newblock\BBOQAcross-culturalstudyofthecommunicationofextra-verbalmeaningbygestures\BBCQ\\newblock{\BemInternationalJournalofPsychology},{\Bbf10},\mbox{\BPGS\57--67}.\bibitem[\protect\BCAY{Heritage}{Heritage}{1998}]{Heritage}Heritage,J.\BBOP1998\BBCP.\newblock\BBOQOh-prefacedresponsetoinquiry\BBCQ\\newblock{\BemLanguageinSociety},{\Bbf27}(3),\mbox{\BPGS\291--334}.\bibitem[\protect\BCAY{Hickson,Stacks,\BBA\Moore}{Hicksonet~al.}{2004}]{Hickson}Hickson,I.~M.,Stacks,D.~W.,\BBA\Moore,N.\BBOP2004\BBCP.\newblock{\BemNonverbalcommunication:studiesandapplications(4thed.)}.\newblockRoxburyPublishingCo.,LosAngeles,California.\bibitem[\protect\BCAY{堀内\JBA中野\JBA小磯\JBA石崎\JBA鈴木\JBA岡田\JBA仲\JBA土屋\JBA市川}{堀内\Jetal}{1999}]{堀内-99}堀内靖雄\JBA中野有紀子\JBA小磯花絵\JBA石崎雅人\JBA鈴木浩之\JBA岡田美智男\JBA仲真紀子\JBA土屋俊\JBA市川熹\BBOP1999\BBCP.\newblock\JBOQ日本語地図課題対話コーパスの設計と特徴\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf14},\mbox{\BPGS\261--272}.\bibitem[\protect\BCAY{伊藤}{伊藤}{1994}]{伊藤}伊藤友彦\BBOP1994\BBCP.\newblock\Jem{幼児の発話における非流暢性に関する言語心理学的研究}.\newblock風間書房,東京.\bibitem[\protect\BCAY{人工知能学会「談話・対話研究におけるコーパス利用」研究グループ}{人工知能学会「談話・対話研究におけるコーパス利用」研究グループ}{2002}]{Slash-Manual}人工知能学会「談話・対話研究におけるコーパス利用」研究グループ\BBOP2002\BBCP.\newblock\Jem{日本語スラッシュ単位(発話単位)ラベリングマニュアル}.\bibitem[\protect\BCAY{Koiso,Horiuchi,Tutiya,Ichikawa,\BBA\Den}{Koisoet~al.}{1998}]{Koiso-etal}Koiso,H.,Horiuchi,Y.,Tutiya,S.,Ichikawa,A.,\BBA\Den,Y.\BBOP1998\BBCP.\newblock\BBOQAnanalysisofturn-takingandbackchannelsbasedonprosodicandsyntacticfeaturesinJapaneseMapTaskdialogues\BBCQ\\newblock{\BemLanguageandSpeech},{\Bbf41},\mbox{\BPGS\295--321}.\bibitem[\protect\BCAY{前川\JBA籠宮\JBA小磯\JBA小椋\JBA菊池}{前川\Jetal}{2000}]{CSJ}前川喜久雄\JBA籠宮隆之\JBA小磯花絵\JBA小椋秀樹\JBA菊池英明\BBOP2000\BBCP.\newblock\JBOQ日本語話し言葉コーパスの設計\JBCQ\\newblock\Jem{音声研究},{\Bbf4}(2),\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{水上\JBA山下}{水上\JBA山下}{2005}]{水上・山下}水上悦雄\JBA山下耕二\BBOP2005\BBCP.\newblock\JBOQ図形説明課題遂行時のフィラーとポーズの関係\JBCQ\\newblock\Jem{人工知能学会研究会資料},SIG-SLUD-A501,\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{森山}{森山}{1996}]{森山:96}森山卓郎\BBOP1996\BBCP.\newblock\JBOQ情動的感動詞考\JBCQ\\newblock\Jem{語文},{\Bbf65},\mbox{\BPGS\51--62}.\bibitem[\protect\BCAY{村井}{村井}{1970}]{村井}村井潤一\BBOP1970\BBCP.\newblock\Jem{言語機能の形成と発達}.\newblock風間書房,東京.\bibitem[\protect\BCAY{野村}{野村}{1996}]{野村}野村美穂子\BBOP1996\BBCP.\newblock\JBOQ大学の講義における文科系の日本語と理科系の日本語---「フィラー」に注目して---\JBCQ\\newblock\Jem{文教大学教育研究所紀要},第5号.\bibitem[\protect\BCAY{Philips}{Philips}{1998}]{Philips}Philips,M.~K.\BBOP1998\BBCP.\newblock{\BemDiscoursemarkersinJapanese:connectives,fillers,andinteractionalparticles}.\newblockDoctoraldissertaion,MichiganStateUniversity,EastLansing,MI.\bibitem[\protect\BCAY{定延}{定延}{2005}]{定延:05}定延利之\BBOP2005\BBCP.\newblock\Jem{ささやく恋人,りきむレポーター---口の中の文化---}.\newblock岩波書店,東京.\bibitem[\protect\BCAY{定延\JBA中川}{定延\JBA中川}{2005}]{定延・中川}定延利之\JBA中川明子\BBOP2005\BBCP.\newblock\JBOQ非流ちょう性への言語学的アプローチ---発音の延伸,とぎれを中心に---\JBCQ\\newblock串田秀也\JBA定延利之\JBA伝康晴\JEDS,\Jem{活動としての文と発話},\mbox{\BPGS\209--228}.ひつじ書房.\bibitem[\protect\BCAY{定延\JBA田窪}{定延\JBA田窪}{1995}]{定延・田窪}定延利之\JBA田窪行則\BBOP1995\BBCP.\newblock\JBOQ談話における心的操作モニタ機構—心的操作標識「ええと」と「あの(ー)」—\JBCQ\\newblock\Jem{言語研究},{\Bbf108},\mbox{\BPGS\74--93}.\bibitem[\protect\BCAY{Schiffrin}{Schiffrin}{1978}]{Schiffrin}Schiffrin,D.\BBOP1978\BBCP.\newblock{\BemDiscoursemarkers}.\newblockCambridgeUniversityPress,UK.\bibitem[\protect\BCAY{Swerts}{Swerts}{1998}]{Swerts}Swerts,M.\BBOP1998\BBCP.\newblock\BBOQFilledpausesasmarkersofdisoursestructure\BBCQ\\newblock{\BemJournalofPragmatics},{\Bbf30},\mbox{\BPGS\485--496}.\bibitem[\protect\BCAY{田窪\JBA金水}{田窪\JBA金水}{1997}]{田窪・金水}田窪行則\JBA金水敏\BBOP1997\BBCP.\newblock\JBOQ応答詞・感動詞の談話的機能\JBCQ\\newblock音声文法研究会\JED,\Jem{文法と音声},\mbox{\BPGS\257--279}.くろしお出版.\bibitem[\protect\BCAY{田中}{田中}{1995}]{田中}田中敏\BBOP1995\BBCP.\newblock\Jem{スピーチの言語心理学モデル}.\newblock風間書房,東京.\bibitem[\protect\BCAY{富樫}{富樫}{2005}]{富樫:05}富樫純一\BBOP2005\BBCP.\newblock\JBOQ驚きを伝えるということ---感動詞「あっ」と「わっ」の分析を通じて---\JBCQ\\newblock\linebreak串田秀也\JBA定延利之\JBA伝康晴\JEDS,\Jem{活動としての文と発話},\mbox{\BPGS\229--251}.ひつじ書房.\bibitem[\protect\BCAY{土屋}{土屋}{2000}]{土屋}土屋菜穂子\BBOP2000\BBCP.\newblock\JBOQ対話コーパスを用いた言い淀みの統語論的考察\JBCQ\\newblock\Jem{青山語文},{\Bbf30},\mbox{\BPGS\13--26}.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{2002}]{Watanabe}Watanabe,M.\BBOP2002\BBCP.\newblock\BBOQFillersandconnectivesasdiscoursesegmentboundarymarkersinanacademicmonologueinJapanese\BBCQ\\newblock\Jem{東京大学留学生センター紀要},{\Bbf12},\mbox{\BPGS\107--119}.\bibitem[\protect\BCAY{渡辺\JBA広瀬\JBA伝\JBA峯松}{渡辺\Jetal}{2006}]{渡辺}渡辺美知子\JBA広瀬啓吉\JBA伝康晴\JBA峯松信明\BBOP2006\BBCP.\newblock\JBOQ音声聴取時のフィラーの働き---「エート」による後続句の複雑さ予測---\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf62},\mbox{\BPGS\370--378}.\bibitem[\protect\BCAY{山根}{山根}{2002}]{山根}山根智恵\BBOP2002\BBCP.\newblock\Jem{日本語の談話におけるフィラー}.\newblock日本語研究叢書15.くろしお出版.\bibitem[\protect\BCAY{好井}{好井}{1999}]{好井}好井裕明\BBOP1999\BBCP.\newblock\Jem{会話分析への招待}.\newblock世界思想社,東京.\end{thebibliography}\begin{biography}\bioauthor{山下耕二}{1999年大阪大学大学院人間科学研究科博士課程修了.博士(人間科学).神戸商船大学地域共同研究センター講師を経て,2001年より(独)通信総合研究所特別研究員となり,現在,(独)情報通信研究機構専攻研究員.コミュニケーション(非言語,メディア)の研究に従事.日本心理学会,日本認知科学会各会員.}\bioauthor{水上悦雄}{1992年神戸大学理学部卒業.1997年同大学院博士課程修了.博士(理学).2000年学習院大学計算機センター助手.2003年通信総合研究所専攻研究員,現在,(独)情報通信研究機構自然言語グループ専攻研究員.言語・非言語コミュニケーションの研究に従事.認知科学会,人工知能学会,動物行動学会各会員.}\end{biography}\biodate\end{document}
| |
V06N05-03
|
\section{はじめに}
近年,研究者数の増加,学問分野の専門分化と共に学術情報量が爆発的に増加している.また,研究者が入手できる文献の量も増える一方であり,人間の処理能力の限界から,入手した文献全てに目を通し利用することが益々困難になってきている.このような状況で必要とされるのは,特定の研究分野に関連した情報が整理,統合された文書,すなわちサーベイ論文(レビュー)や専門図書である.サーベイ論文や専門図書を利用することで,特定分野の研究動向を短時間で把握することが可能になる.しかし,論文全体に対するサーベイ論文の占める割合が極端に少ないという指摘がある\cite{Garvey79}.その理由の一つとして,サーベイ論文を作成するという作業がサーベイ論文の作者にとって,時間的にも労力的にも非常にコストを要することが挙げられる.しかし,今後の学術情報量の増加を考えれば,このようなサーベイ論文の需要は益々高まっていくものと思われる.我々はサーベイ論文を複数論文の要約と捉えており,サーベイ論文の自動作成の研究を行っている.本来サーベイ論文とは,多くの論文に提示されている事実や発見を総合化,また問題点を明らかにし,今後更に研究を要する部分を提示したものであると考えられる\cite{Garvey79}.しかし現在の自動要約の技術\footnote{近年の自動要約技術の動向に関しては\cite{奥村98}を参照されたい.}から考えると,このようなサーベイ論文の自動作成は,非常に困難であると思われる.そこで関連する複数の論文中から各論文の重要箇所,論文間の相違点が明示されている箇所を抽出し,それらを部分的に言い替えて読みやすく直した後,並べた文書をサーベイ論文と考え,そのような文書の自動作成を試みる.本稿では,その第1歩として,サーベイ論文作成を支援するシステムを示す.本研究では,サーベイ論文作成支援の際,論文間の{\bf参照情報}に着目する.一般に,ある論文は他の複数の論文と参照関係にあり,また論文中に参照先論文の重要箇所や,参照先論文との関係を記述した箇所(以後,{\bf参照箇所})がある.この参照箇所を読むことで,著者がどのような目的で論文を参照したのか(以後,{\bf参照タイプ})や参照/被参照論文間の相違点が理解できる.論文の参照情報とは,このように論文間の参照・被参照関係だけでなく,参照箇所や参照タイプといった情報まで含めた物を指す.参照情報は特定分野の論文の自動収集や論文間の関係の分析に利用できると考えられる.本稿の構成は以下の通りである.2章では,複数テキスト要約におけるポイントとサーベイ論文作成におけるポイントについて述べ,また関連研究を紹介する.3章では参照箇所と参照タイプについて説明する.また,参照箇所,参照タイプがサーベイ論文作成においてどのように利用できるかについて述べる.4章では,3章で述べた考え方を基にしたサーベイ論文作成支援システムの実現方法について説明する.また,参照箇所の抽出手法,参照タイプの決定手法について述べる.5章ではそれらの手法を用いた実験結果を示す.6章では,作成したサーベイ論文作成支援システムの動作例を示す.
\section{サーベイ論文作成}
\subsection{サーベイ論文作成のポイント}これまで,単一論文の要約に関して,論文中の重要箇所を抽出する数多くの手法が提案されてきた(例えば\cite{Edmundson69,Kupiec95,Teufel97,Mani98}).しかし,要約対象が複数論文の場合,単一論文の要約とは別に考慮すべき点が出てくる.まず,要約対象となる複数の論文をどのように収集するのか.また,収集してきたテキスト間で内容が重複する場合,従来の単一論文要約の手法を個々の論文に適用し並べただけでは,個々の要約の記述が重複する可能性があり,冗長で要約として適切ではない.そのため,冗長な箇所(論文間の共通箇所)をどのように検出し削除するかが問題となる.一方,冗長な箇所を削除しても複数論文の要約文書としてはまだ十分であるとは言えない.複数論文を要約するとは,それらの論文を比較し要点をまとめることであり,そのためには論文間の共通点だけでなく相違点も明らかにすることが必要であると考えられる.さらに,要約文書を作成するためには,検出された論文間の共通点や相違点を並べ,使用する単語の統一,接続詞の付与,``we'',``they'',``inthispaper''といった照応詞の著者名への置換等,readabilityを上げるための処理が必要となる.従って,複数論文要約のポイントは図\ref{fig:multi-paper-sum}のようにまとめることができる.\vspace{-0.3cm}\begin{figure}[h]\[\left\{\begin{array}{lll}(a)&関連論文の自動収集&\\(b)&関連する複数論文からの情報の抽出&\left\{\begin{array}{ll}(b)-1&重要箇所の抽出\\(b)-2&論文間の共通点の検出\\(b)-3&論文間の相違点の検出\\\end{array}\right.\\(c)&論文の著者毎の文体の違い等を考慮した&\\&要約文書の生成&\\\end{array}\right.\]\caption{複数論文要約のポイント\label{fig:multi-paper-sum}}\end{figure}\vspace{-0.3cm}\subsection{関連研究}神門は,手がかり語を用いて論文中の各文に構成要素カテゴリの自動付与を行い,そのカテゴリを論文検索に応用している\cite{Kando97}(a).このようにして収集された特定分野の論文集合の「既存の研究」や「既存の研究の不完全さ」カテゴリの文を抽出し,それらを並べて表示することで,その分野の基本的な動向を把握するのに有用であると述べている(b).神門は,このようなカテゴリの文が「当該論文の著者の判断を通してみた,その課題に関する現状や背景を示している」と考えている.本研究でもこのような著者の主観的な判断をサーベイ論文作成の際に利用している.対象テキストが学術論文とは異なるが,Yamamotoら\cite{Yamamoto95},船坂ら\cite{船坂96},稲垣ら\cite{稲垣98},柴田ら\cite{柴田97},McKeownら\cite{McKeown95},Maniら\cite{Mani97}はいずれも,複数の新聞記事を対象に複数記事要約を試みている\footnote{これらの論文のサーベイについては,\cite{奥村98}の5章を参照されたい}.要約対象が新聞記事の場合,次のような特徴がある.\vspace{0.3cm}\begin{itemize}\item新聞記事は,記事中の事実文が重要であると考えられることが多い.従って,客観的な正解データが作成しやすいと思われる.\item図\ref{fig:multi-paper-sum},(c)に関して,新聞記事では文体がある程度統一されているため,記事間の文体の違いをあまり意識する必要がない.\end{itemize}一般に,論文には著者毎の文体の違いが存在し,しかも新聞記事を要約対象とした場合と比べてその違いが大きいため,論文間の共通点の検出には新聞記事の場合のような各文中の個々の形態素の比較といった手法が適用しにくい.また,論文は著者毎に異なる観点で書かれているため,複数論文をまとめるにはどのような観点でまとめるのかが重要なポイントとなる.本研究では,このような著者毎の観点の違いに着目している.
\section{サーベイ論文作成における参照情報の利用}
\subsection{参照箇所と参照タイプ}図\ref{fig:reference_area}の5文は\cite{Bond96a}中で\cite{Murata93}を参照している文の前後数文を抜粋したものである\cite{Bond96a},\cite{Murata93}は共に,機械翻訳に関する論文で,特に数詞表現について取り扱っている.文(2)では,参照先論文\cite{Murata93}について,どのような問題を取り扱った論文であるかについて述べられている.文(3)では,参照先論文の問題点の指摘がなされている.そして文(4)では,参照元論文\cite{Bond96a}がその問題点を考慮した論文であると述べている.\begin{figure}[t]\begin{center}\small\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}\flushleft{in\cite{Bond96a}\vspace{0.2cm}\begin{quote}(1)Inaddition,whenJapaneseintranslatedintoEnglish,theselectionofappropriatedeterminersisproblematic.\\{\bf(2)Varioussolutionstotheproblemsofgeneratingarticlesandpossessivepronounsanddeterminingcountabilityandnumberhavebeenproposed\cite{Murata93}.\\(3)ThedifferencesbetweenthewaynumericalexpressionsarerealizedinJapaneseandEnglishhasbeenlessstudied.\\(4)InthispaperweproposeananalysisofclassifiersbasedonpropertiesofbothJapaneseandEnglish.\\}(5)OurcategoryofclassifierincludesbothJapanesejos\=ushi`numeralclassifiers'andEnglishpartitivenouns.\end{quote}\begin{center}\begin{center}参照箇所文(2)〜(4)\end{center}\end{center}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{typeCの参照箇所\label{fig:reference_area}}\end{figure}\normalsizeここで,参照元論文\cite{Bond96a}と参照先論文\cite{Murata93}の関係は文(2)〜(4)を読めばわかる.このように参照元/参照先論文の関係が明示されている箇所を{\bf参照箇所}と呼ぶ.参照箇所を読むことで参照元論文の参照の理由({\bf参照タイプ})や,参照元/参照先論文の関係が容易に理解できる.我々は,Weinstockの15種類の参照の理由\cite{Weinstock71}の分類を基に,参照タイプを次に示す3種類に分類する.\vspace{0.3cm}\begin{itemize}\item{\bftypeB(論説根拠型)}\\新しい理論を提唱したり,システムを構築する場合,他の研究者の研究の成果を利用する場合がある.例えば,他の研究者が提唱する理論や手法を用いて新しい理論を提唱する場合などである.このような参照タイプを{\bftypeB(論説根拠型)}と呼ぶ.\item{\bftypeC(問題点指摘型)}\\新しく提案した理論や,構築したシステムの新規性について述べる場合,関連研究との比較,あるいは既存研究の問題点の指摘を行う場合がある.このような目的の参照タイプを{\bftypeC(問題点指摘型)}と呼ぶ.\item{\bftypeO(その他型)}\\typeBにもtypeCにも当てはまらない参照を{\bftypeO(その他型)}とする.\end{itemize}\vspace{0.3cm}我々は,3つの参照タイプの中でtypeCが最も重要であると考えている.typeCの参照箇所からは,図\ref{fig:C-type_refer}のような情報が得られる.図\ref{fig:reference_area}の例の場合,文(2)が($\alpha$)に,文(3)が($\beta$)に,文(4)が($\gamma$)にそれぞれ対応する.ここで,($\alpha$)は参照元論文の著者の観点から見た参照先論文の一種の要約であると考えられ,同時に参照元/参照先論文がどのような観点で共通点があるのかを示している箇所であると捉えることもできる.文(2)では,参照元/参照先論文の両方が,冠詞,所有代名詞,可算・不可算,数詞等の生成を問題にしている論文であると述べている.一方,既存研究の問題点と著者の研究の目的が文(3),(4)に書かれており,これが論文間の相違点と考えられる.このように,typeCの参照箇所には論文間の共通点や相違点に関する事項が書かれているため,サーベイ論文作成に有用であると思われる.\begin{figure}[t]\[\left\{\begin{array}{ll}(\alpha)&既存研究の紹介\\(\beta)&既存研究の問題点\\(\gamma)&参照元論文の研究の目的\\\end{array}\right.\]\caption{typeCの参照箇所中の記述\label{fig:C-type_refer}}\end{figure}\subsection{サーベイ論文作成における参照情報の利用}\subsubsection{関連論文の自動収集}本研究では関連論文の自動収集に,論文間の参照関係を利用する.論文間の参照関係を単純に辿ることで,ある程度自動的に関連論文を収集することが可能であると考えられる.しかし,そのようにして得られた論文集合は複数分野の論文が混在してしまう可能性があり,サーベイ論文作成上望ましくない.そこで,必要な参照関係のみを辿って論文を収集する手法が必要とされる.そのために,参照タイプを考慮した論文収集の手法が考えられる.我々は,typeCの参照関係が論文収集に有効であると考えている.それは,「typeCの参照箇所中の``既存研究の紹介''の記述が参照元/参照先論文共通の問題点である」という仮定に基づいている.この仮定がどの程度正しいか,次章で説明する論文データベースを用いて調べた.その結果,論文データベース中でtypeCの参照関係で結ばれる参照元/参照先論文31組のうち,29組は参照元/参照先共に同じ分野の論文であることが確認された.図\ref{fig:graph}は,被要約対象論文の集合を示している(図中の楕円内の論文集合を以後,{\bf参照グラフ}と呼ぶ)\begin{figure}[t]\centering\epsfile{file=Images/s-sim-def.eps,scale=0.6}\caption{論文間の共通点と相違点\label{fig:graph}}\end{figure}\subsubsection{論文間の共通点,相違点の検出}typeCの参照箇所から得られる情報(図\ref{fig:C-type_refer})と,複数論文要約のポイント(図\ref{fig:multi-paper-sum})との関係について,$(\alpha)$は(b)-1,2に,$(\beta)$と$(\gamma)$は(b)-3にそれぞれ対応している.従って,参照箇所を抽出し提示することで,サーベイ論文作成支援が可能になると考えられる.さて,ひとつの論文を他の複数の論文が参照する場合,著者の観点毎に参照の仕方も異なる可能性がある.図\ref{fig:reference_area}には,\cite{Bond96a}の\cite{Murata93}に関する参照箇所を示したが,図\ref{fig:reference_area2}に,\cite{Murata93}に関する\cite{Bond94}と\cite{Takeda94}の参照箇所を示す.\cite{Bond96a}中の文(1)は図\ref{fig:multi-paper-sum}の$(\alpha)(\beta)$に,文(2)は$(\gamma)$にそれぞれ対応する.また\cite{Takeda94}中の文(1)(2)が$(\alpha)$に,文(3)が$(\beta)(\gamma)$に対応する.2つの論文の$(\alpha)(\beta)(\gamma)$同士を比較すれば,同じ\cite{Murata93}に関しても著者毎に参照の仕方が様々であることがわかる.このように,ひとつの論文を参照する複数の論文中の参照箇所(著者の観点の違い)を比較することはサーベイ論文作成の上で有用であると考えられる.\begin{figure}[t]\begin{center}\vspace{0.1cm}\small\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{in\cite{Bond94}\vspace{0.5cm}\begin{quote}(1)Recently,\cite{Murata93}haveproposedamethodofdeterminingthereferentialitypropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglish,buttheresearchhasnotyetbeenextendedtoincludetheactualEnglishgeneration.\\(2)ThispaperdescribesamethodthatextractsinformationrelevanttocountabilityandnumberfromtheJapanesetextandcombinesitwithknowledgeaboutcountabilityandnumberinEnglish.\end{quote}\vspace{0.5cm}}}\end{minipage}\\\hline\end{tabular}\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{in\cite{Takeda94}\vspace{0.5cm}\begin{quote}(1)Anotherexampleistheproblemofidentifying{\itnumber}and{\itdeterminer}inJapanese-to-Englishtranslation.\\(2)ThistypeofinformationisrarelyavailablefromasyntacticrepresentationofaJapanesenounphrase,andasetofheuristicrules\cite{Murata93}istheonlyknownbasisformakingareasonableguess.\\(3)Evenifsuchcontextualprocessingcouldbeintegratedintoalogicalinferencesystem,theobtainedinformationshouldbedefeasible,andhenceshouldberepresentedbygreennodesandarcsintheTDAGs.\end{quote}\vspace{0.5cm}}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{\cite{Murata93}に関するtypeCの参照箇所\label{fig:reference_area2}}\end{figure}\normalsize
\section{サーベイ論文作成支援システム}
前章で,ひとつの論文を他の複数の論文が参照する場合は,著者の観点毎にまとめる必要があることについて述べた.しかし同じ事項を述べる場合でも,論文の著者毎に用いる単語や文体等が異なるため,形態素同士の比較といった単純な手法では著者毎の観点の同一性は明らかにできない.また,著者の使用する単語や文体等の違いは,著者の観点の分類だけでなく,サーベイ論文生成時にも問題がある.論文間の共通点や相違点を検出して並べただけではreadabilityに欠けるため,ひとつのサーベイ論文として非常に読みづらくなると思われる.readabilityを向上するためには使用する単語や文体の統一といった処理を必要とするが,それには高度な言い替えの処理技術が必要になると考えられる.そこで,本稿ではサーベイ論文の自動作成ではなく,サーベイ論文作成システム実現の第1歩として,関連論文を自動収集し,関連論文間の相違点や各論文のABSTRACTが表示できるサーベイ論文作成支援システム作成を試みた.\subsection{論文間の参照・被参照関係の解析}サーベイ論文作成の対象としてe-Printarchive\footnote{http://xxx.lanl.gov/cmp-lg/}という論文データベースの``TheComputationandLanguage''の分野の論文の\TeXソース約450本を用いる.論文間の参照情報を利用して要約を作成するには,まず要約対象となる論文データベース中の論文間の参照・被参照の関係を解析する必要がある.\TeXには参考文献を記述するためのコマンドbibliographyがあり,これを解析することで自動的に450本の\TeXソース間の参照関係が明らかにできる.図\ref{fig:biblio}は,\TeXファイル\cite{Bond96a}(cmp-lg/9608014)の参考文献の記述の一部を抜粋したものである.\cite{Bond96a}は論文中で\cite{Murata93}を参照している.一方,e-Printarchiveの論文リストファイルをftpサイトより入手することができる.図\ref{fig:e-list}はそのリストの一部を抜粋したものである.\cite{Bond96a}(cmp-lg/9608014)が\cite{Murata93}(cmp-lg/9405019)を参照しているという情報を得るには,図\ref{fig:biblio}と図\ref{fig:e-list}の論文が同一であることを判断する必要がある.そこで,bibliography中の論文のタイトルや著者名の記述のありそうな箇所から単語(キーワード)を切り出し,切り出された全ての単語を含むような書誌情報を持つものを論文リストから検索する,という手法で論文間の参照・被参照関係の解析を行う.どのようにしてbibliographyから検索に有用なキーワードを切り出すかが問題となるが,参考文献の記述形式に着目する.齊藤ら\cite{齊藤93}によれば,参考文献の記述形式は多くの場合,最初に著者名,次に文献名が記述される.場合によっては著者名の後に発行日が記述されるケースもある.そこで,図\ref{fig:biblio}のような個々のbibitemの先頭3行以内に含まれる単語からアルファベット以外のデータはすべて除去し,残ったものをキーワードとして利用する.図\ref{fig:biblio}の場合以下の語がキーワードとなる.\begin{quote}``Murata'',``Masaki'',``Makoto'',``Nagao'',``Determination'',``of'',``referential'',``property'',``and'',``number'',``of'',``nouns'',``in''\end{quote}\begin{flushleft}そして,これらのキーワードを用いてe-Printarchiveの論文リストに対してand検索をかけ,論文間の参照・被参照関係の解析を試みた結果,94\%の精度が得られた.\end{flushleft}\begin{figure}[t]\begin{center}\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{\vspace{0.3cm}\begin{quote}{\footnotesize\begin{verbatim}\bibitem[\protect\citename{MurataandNagao}1993]{Murata:1993a}Murata,MasakiandMakotoNagao.\newblock1993.\newblockDeterminationofreferentialpropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglish.\newblockIn{\emProceedingsoftheFifthInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI~'93)},pages218--25,July.\end{verbatim}}\end{quote}}}\vspace{0.3cm}\end{minipage}\\\hline\end{tabular}\end{center}\caption{\TeXファイル中のbibliographyコマンドの使用例\label{fig:biblio}}\end{figure}\vspace{-0.5cm}\normalsize\begin{figure}[t]\begin{center}\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}{\bf\flushleft{\vspace{0.3cm}\begin{quote}{\footnotesize\begin{verbatim}\\Paper:cmp-lg/9405019Title:DeterminationofreferentialpropertyandnumberofnounsinJapanesesentencesformachinetranslationintoEnglishAuthor:MasakiMurata,MakotoNagaoComments:8pages,TMI-93\\\end{verbatim}}\end{quote}}}\vspace{0.3cm}\end{minipage}\\\hline\end{tabular}\end{center}\caption{e-Printarchive論文リスト中の書誌情報の一例\label{fig:e-list}}\end{figure}\normalsize\subsection{参照箇所の抽出}参照箇所の抽出とは,citationの出現する段落において,citationのある文と文間のつながりが強いと考えられる文を,citationの前後の文から抽出する処理と考えることができる.このような文間のつながりは大まかに(1)照応詞(2)接続詞(3)1人称代名詞(4)3人称代名詞(5)副詞,(6)その他の6つの種類に分類される語により示されていると我々は考え,これらの6つの分類を考慮し,cuewordを用いて参照箇所の抽出を試みた.cuewordとしてどのような語を用いるかは,人間が主観的に決める方法もあるが,本研究では,参照箇所コーパスのn$-$wordgram統計をとり半自動的にcuewordを得ることを試みた.n$-$wordgram統計の結果を分類し整理することで,最終的に86個のcuewordを得た.なお,n$-$wordgram統計をとる際,大文字,小文字の区別をしている.表\ref{table:ra_cue}にcuewordの例を示す.\begin{table}[t]\caption{参照箇所抽出用cuewordの例\label{table:ra_cue}}\begin{center}\begin{tabular}{|l|l|}\hline{\bf(1)照応詞}&Inthis,Onthis,Such\\\hline{\bf(2)接続詞}&But,However,Although\\\hline{\bf(3)1人称}&We,we,Our,our,us,I\\\hline{\bf(4)3人称}&They,they,Their,their,them\\\hline{\bf(5)副詞}&Furthermore,Additionally,Still\\\hline{\bf(6)その他}&Inparticular,follow,Forexample\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\vspace{-0.8cm}\centering\epsfile{file=Images/flow_ra.eps,scale=0.6}\caption{参照箇所抽出の手順\label{fig:ext_ra}}\end{figure}{\small\begin{figure}[t]\centering\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}\vspace{0.5cm}\begin{quote}\begin{verbatim}#cuewordの設定@this_cue=('Forthis','Forthese','Onthis','Onthese','Inthis','Inthese','This','These');@however_cue=('However','however','But','Inspiteof','inspiteof'…);#照応詞に関する参照箇所抽出ルールforeach$cue(@this_cue){#ルール1if($paragraph[$first_sentence]=~/$cue/){$first_sentence--}}#接続詞に関する参照箇所抽出ルールforeach$cue(@however_cue){#ルール2if($paragraph[$first_sentence]=~/$cue/){$first_sentence--}}foreach$cue(@however_cue){#ルール3if($paragraph[$last_sentence]=~/$cue/){$last_sentence++}}…\end{verbatim}\end{quote}\vspace{0.5cm}\end{minipage}\\\hline\end{tabular}\caption{参照箇所抽出ルールの例\label{fig:ext_rule}}\end{figure}}次に,cuewordを用いた参照箇所抽出の手順を図\ref{fig:ext_ra}に示す.入力は,予めcitationの含まれる段落を1行1文の形に直し,配列(paragraph)に入れておき,ルールを用いて参照箇所抽出を行う.参照箇所抽出ルールとは,「参照箇所候補となる文の前後の文にcuewordが出現すれば,その文も参照箇所候補に含める」といったものである.参照箇所抽出ルールの例を図\ref{fig:ext_rule}に示す.図\ref{fig:ext_rule}において,変数\$first\_sentenceとは参照箇所候補の最初の一文の文番号,\$last\_sentenceは最後の一文の文番号を意味する.図\ref{fig:ext_rule}に示すようなルールを11種類作成し,抽出を試みた.一方,これらの11種類のルールの中には参照箇所抽出精度低下の原因となるルールも含まれる可能性が考えられる.従って,11種類のルールの組み合わせ$2^{11}$通りの中で最も精度が高くなる場合が,ルールの最適な組み合わせであると考えられる.調査の結果,11種類のうちで10種類のルールを組み合わせた場合,参照箇所抽出精度が最も高くなり,この組み合わせで参照箇所抽出を行うことにした.\subsection{参照タイプの決定}参照箇所中で,例えばcitationの後の文が``However''で始まるような場合,参照元論文の著者は参照先論文の何らかの問題点を指摘している(typeC)と考えられる.また,citationの前に``Weuse''や``Weadopt''といった語が出現する場合,参照元論文は参照先論文の理論や手法等をベースにしている(typeB)と思われる.従って,参照タイプ決定には,まず``However''や``Weadopt''といった,参照タイプ決定のためのcuewordlistを作成し,次にcuewordとcitationの出現順序を考慮したルールを作成することが必要であると考えられる.まず,cuewordの抽出方法について述べる.学術論文には,論文特有の構造がある.Biberらは,医学論文において``Introduction'',``Methods'',``Discussion'',``Results''の4つのsectionで使われる言語の特徴を調査し,4つのsection間の言語的な特徴の違いを明らかにしている\cite{Biber94}.本研究では参照タイプ毎にこのようなsectionに注目した.typeCの場合,論文中の``Introduction'',``RelatedWork'',``Discussion''に注目した.また,Btypeについては,``Introduction'',``Experiment''のsectionに注目した.e-Printarchiveの論文約450本からsection毎にn$-$wordgramをとり,次にcostcriteria\cite{Kita94}を利用することでcuewordの候補のリストを自動的に作成した.n$-$wordgram統計をとる際,大文字と小文字の区別を行った.また,カンマやピリオドも一語として取り扱った.こうして得られたリストから,参照タイプ決定に有用であると思われるものを,typeC用に76個,typeB用に84個を,cuewordとして選びだした.cuewordの一部を表\ref{table:cue1},表\ref{table:cue2}に示す.\begin{table}[t]\caption{typeC決定用cuewordの例\label{table:cue1}}\begin{center}\begin{tabular}{|c|c|c|}\hlineAlthough,&Though,&,although\\\hlineHowever,&however,their&however,the\\\hlinebutthe&butit&Butthey\\\hlineInspiteof&Insteadof&Butinstead\\\hlinedoesnot&didnot&wasnot\\\hlineshouldnot&hasnot&werenot\\\hlinenotrequire¬ineffect¬provide\\\hlinedifficultto&moredifficult&adifficult\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{typeB決定用cuewordの例\label{table:cue2}}\begin{center}\begin{tabular}{|c|c|c|}\hlinebasedmainlyon&basis&isbasedon\\\hlinethebasic&usedin&uses?of\\\hlineusedby&tousea&canuse\\\hlinethatcan&Wecan&Weuse\\\hlinewhichcanbe&follow&usefulfor\\\hlineavailablein&availablefor&appliedto\\\hlinetheapplicationof&applicationto&Weadopted\\\hlineextendthe&extendedto&Forthis\\\hline\end{tabular}\end{center}\end{table}次に参照タイプ決定ルールについて説明する.参照タイプ決定は,表\ref{table:cue1},表\ref{table:cue2}に示すcuewordを用いてルールを作成した.参照タイプ決定には,本節の始めでも述べたようなcitationとcuewordの出現順序を考慮することが有用であると考えられ,この情報を用いたルールを作成した.ルールは大きく2種類に分けることができる.ひとつはtypeCに決定するためのルール,もうひとつはtypeBに決定するためのルールである.そして,B,Cいずれのタイプも割り振られなかった参照箇所をtypeOとする.ルールは各cueword毎に作成されているため,typeC決定用ルールは76個,typeB決定用ルールは84個ある.これらのルールの適用順序について説明する.typeC決定用ルールは76個の順序を入れ換えても参照タイプ決定精度には影響がない.typeB用ルール84個についても同様である.そこで,typeC用ルール,typeB用ルールの順に適用した後にtypeOを割り振った場合と,typeB用ルール,typeC用ルールの順に適用した後にtypeOを割り振った場合について調べた.その結果,先にtypeC用ルールを用いた方が解析精度が高くなったので,typeC用,typeB用ルールの順に適用した後,参照タイプがどちらにも割り振られなかったものをtypeOとした.参照タイプ決定ルーチンの一部を図\ref{fig:type_decision}に示す.参照タイプ決定ルーチンでは,1行1文に整形された参照箇所を配列として,また配列中のcitationの位置を入力値として受け取り,参照タイプB,C,Oを値として返す.{\small\begin{figure}[t]\centering\begin{tabular}{|c|}\hline\begin{minipage}[c]{13.5cm}\vspace{0.3cm}\begin{quote}\begin{verbatim}subreference_type_decision($@){#参照タイプ決定ルーチン($citeline,@ra)=@_;#$citeline:citationの位置#@ra:参照箇所,1行1文のリスト#typeC決定用ルールfor($i=1;$i<=3;$i++){if($ra[$citeline+$i]=~/However/]){return(C)}}for($i=0;$i<=2;$i++){if($ra[$citeline+$i]=~/lessstudied/]){return(C)}}for($i=0;$i<=2;$i++){if($ra[$citeline+$i]=~/Inspiteof/]){return(C)}}…#typeB決定用ルールfor($i=-2;$i<=0;$i++){if($ra[$citeline+$i]=~/basedmainlyon/]){return(B)}}for($i=-3;$i<=0;$i++){if($ra[$citeline+$i]=~/applyto/]){return(B)}}for($i=-2;$i<=0;$i++){if($ra[$citeline+$i]=~/Usingthe/]){return(B)}}…#B,Cに割り振られなかったものはtypeOreturn(O);}\end{verbatim}\end{quote}\end{minipage}\\\hline\end{tabular}\caption{参照タイプ決定ルーチンの一部\label{fig:type_decision}}\end{figure}}
\section{実験}
\subsection{参照箇所の抽出}前章で述べた手法の有効性を評価するため,参照箇所抽出実験を行った.評価は式(\ref{f-measure})(b=1)に示すF-measure\cite{rijsbergen79}を用いて行う.\begin{equation}\label{f-measure}F(F-measure)=\frac{(1+b^2)PR}{b^2P+R}\end{equation}ここで,P,Rは以下により計算される.\begin{equation}R(Recall)=\frac{抽出された文のうち正解のものの数}{参照箇所コーパスの抽出すべき文の総数}\end{equation}\begin{equation}P(Precision)=\frac{抽出された文のうち正解のものの数}{\left(\begin{array}{l}参照箇所抽出ルールにより\\抽出された文の総数\end{array}\right)}\end{equation}実験用データとして,citationの含まれる段落を1行1文に整形したものと,段落中の何文目から何文目までが参照箇所かを記したものを150個用意した.段落の切れ目は話題の切れ目と考え,参照箇所は最大でもcitationの含まれる段落全体までとした.そのうちルール作成用を100個,評価用を50個とした.ルールについては4.2節で述べた通りである.また,ルール作成用データを用いて,参照箇所抽出用の11種類のルールの最適な組み合わせを得た.この組み合わせで評価用データに対して実験を行った.結果を表\ref{table:5_3}に示す.\begin{table}[t]\caption{参照箇所抽出精度\label{table:5_3}}\begin{center}\begin{tabular}{|c|c|c||c|}\hline&Recall(\%)&Precision(\%)&F-measure\\\hline\hline本手法&&&\\(ルール作成用)&90.9&76.9&0.833\\本手法&&&\\(評価用)&79.6&76.3&0.779\\ベースライン1&40.4&100.0&0.575\\ベースライン2&100.0&36.4&0.534\\\hline\end{tabular}\end{center}\end{table}本手法の有効性を示すために,2つのベースラインを考慮した.citationの含まれる文のみを参照箇所として抽出した場合,その文は必ず参照箇所である.この時F-measureは0.575(Recall/Precision:40.4/100.0\%)であった.一方,citationのある段落全体を参照箇所として抽出した場合,参照箇所として抽出されうる文はすべて含まれてしまう.この時F-measureは0.534(Recall/Precision:100.0/36.4\%)であった.表\ref{table:5_3}に示すように,本手法のF-measure値は2つのベースラインの値を上回っており,従って参照箇所抽出手法の有用性が示されたと言える.\subsection{参照タイプの決定}参照タイプ決定実験の評価方法も参照箇所抽出と同様,Recall,Precisionを用いた.式(4)(5)はtypeCのタイプ決定精度の評価方法である.\begin{equation}Recall=\frac{\left(\begin{array}{l}ルールを用いてtypeCに決定された\\参照箇所のうち正解の数\end{array}\right)}{参照箇所コーパス中のtypeC参照の数}\end{equation}\begin{equation}Precision=\frac{\left(\begin{array}{l}ルールを用いてtypeCに決定された\\参照箇所のうち正解の数\end{array}\right)}{ルールを用いてtypeCに決定された参照箇所の数}\end{equation}\vspace{0.5cm}実験用データとして,参照箇所とそのタイプを人手で決定したものを382個用意し,そのうち282個をルール作成用,残り100個を評価用とした.ルール作成用データにおけるタイプ決定精度を表\ref{table:training}に,評価用データにおける精度を表\ref{table:evaluation}に示す.\begin{table}[t]\caption{ルール作成用データを用いた参照タイプ決定精度(282)\label{table:training}}\begin{center}\begin{tabular}{|c|c||r|r|r||r|}\hline\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{ルールで決定}&{タイプ毎の}\\%\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{されたタイプ}&{精度(\%)}\\\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{1}{c|}C&\multicolumn{1}{c|}B&\multicolumn{1}{c||}O&\\\hline\hline{正解の}&C&{\bf46}&2&1&93.9\\\cline{2-6}&B&1&{\bf105}&13&88.2\\\cline{2-6}{タイプ}&O&3&8&{\bf103}&90.3\\\hline\multicolumn{6}{c}{}\\\multicolumn{6}{c}{\bf\large\underline{参照タイプ決定精度90.1(\%)}}\\\end{tabular}\end{center}\end{table}\normalsize\begin{table}[t]\caption{評価用データを用いた参照タイプ決定精度(100)\label{table:evaluation}}\begin{center}\begin{tabular}{|c|c||r|r|r||r|}\hline\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{ルールで決定}&{タイプ毎の}\\%\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{3}{c||}{されたタイプ}&{精度(\%)}\\\cline{3-5}\multicolumn{2}{|l||}\,&\multicolumn{1}{c|}C&\multicolumn{1}{c|}B&\multicolumn{1}{c||}O&\\\hline\hline{正解の}&C&{\bf12}&0&4&75.0\\\cline{2-6}&B&2&{\bf25}&5&78.1\\\cline{2-6}{タイプ}&O&1&5&{\bf46}&88.5\\\hline\multicolumn{6}{c}{}\\\multicolumn{6}{c}{\bf\large\underline{参照タイプ決定精度83.0(\%)}}\\\end{tabular}\end{center}\end{table}タイプ決定精度について考察する.過去の研究\cite{難波98}ではcuewordとしてuni-gramを多く用いていたが,今回はcueword選定の際,極力排除した.それはuni-gramが参照タイプ決定の精度を低下させる要因になっていたためである.例えばこれまでは``not''や``but''といった語をcuewordとして用いていたが,``notonly〜butalso''のように``not''や``but''が明らかに否定以外の目的で使われているものもある.今回は例えば``not''に関するcuewordでは,``cannot'',``couldnot'',``mightnot''といったbi-gramをタイプ決定に利用している.これにより,以前の解析精度(約66\%)を大幅に改善することができた.一方で,cuewordのような表層的な情報のみを用いたタイプ決定方法は精度的にほぼ限界に達していると思われ,これ以上の精度向上には意味処理等を行う必要があると考えられる.
\section{サーベイ論文作成支援システムの構築}
4章に基づき,サーベイ論文作成支援システムを作成した.サーベイ論文作成支援の流れを図\ref{fig:system}に示す.サーベイ論文作成を支援する過程は大きく2つに分けられる.ひとつは論文検索過程である.以前の研究\cite{難波98}で作成した論文検索システムPRESRI({\bfP}aper{\bfRE}trieval{\bfS}ystemusing{\bfR}eference{\bfI}nformation)\footnote{http://galaga.jaist.ac.jp:8000/pub/tools/sum}を利用して論文検索を行う.この検索システムには2種類の検索機能がある.ひとつはキーワード検索機能で,論文のタイトル中の語や著者名をキーワードとして論文を検索できる.検索結果はリスト表示される.このリスト中の個々の論文について,e-Printarchiveのデータベース中に参照・被参照関係の論文がある場合,論文間の参照・被参照関係のグラフを表示することができる.このグラフを辿ることで,論文間の参照・被参照関係を用いた検索が可能になる.\begin{figure}[t]\centering\epsfile{file=Images/system.eps,scale=0.7}\caption{サーベイ論文作成支援の流れ\label{fig:system}}\end{figure}次にサーベイ論文作成支援過程について説明する.この過程では,関連論文の収集,関連論文の参照箇所やABSTRACTの表示を行うことでサーベイ作成の支援を行う.このような機能を提供するために,前章の参照箇所抽出や参照タイプ決定といった処理が必要とされる.3章で論文間の参照・被参照関係でtypeCのものだけを辿ることで関連論文の自動収集に近いことができることを示した.これは,論文検索過程で示された論文間の参照・被参照関係を示したグラフを利用し,グラフ中でtypeCの参照・被参照関係だけを表示することで,実現可能であると考えられる.図\ref{fig:sss}は,サーベイ論文作成支援システムの実行画面で,左側のウィンドウは[Murata93](9405019)という論文に関する論文間の参照・被参照関係を示したグラフである.このグラフから4本の論文が[Murata93]を参照していることがわかる.この4本の論文のうち[Bond96](9601008)が黒く表示されている.これは,[Bond96](9601008)がMurata93(9405019)をtypeC以外のタイプで参照しているためである.他の3つの論文に関しては[Murata93](9405019)をtypeCで参照している.typeCの参照・被参照関係の論文は関連分野の論文であると考えられ,グラフ中の``ABSTRACT''や``REFERENCEAREA''(参照箇所)の箇所をクリックすることで,個々の論文のABSTRACTや参照箇所を閲覧することが可能になる.図\ref{fig:sss}の右側のウィンドウは3本の論文[Takeda94](9407008),[Bond94](9511001),[Bond96](9608014)の[Murata93](9405019)に関する参照箇所を示しており,左側ウィンドウのグラフ中の``REFERENCEAREA''の箇所をクリックした結果である\footnote{図中に``REFERENCEAREA''が3箇所あるが,いずれの箇所をクリックしても右側ウィンドウの表示になる}.このように,ひとつの論文を参照している複数の論文の参照箇所を並べて表示することで,ひとつの論文に関する複数の著者の観点を直接比較することが可能となり,サーベイ論文作成において有用であると考えられる.尚,このシステムはPerlで実装し,またCGIを用いることでWorldWideWeb上からの利用が可能となっている.\begin{figure}[t]\centering\epsfile{file=Images/PRESRI.eps,scale=0.85}\caption{サーベイ論文作成支援システム\label{fig:sss}}\end{figure}
\section{おわりに}
本研究では,関連する論文集合からのサーベイ論文自動作成を目指し,その第1歩としてサーベイ論文作成支援システムを構築した.本研究では,複数の論文間の共通点,相違点を検出するために,論文間の参照情報に着目した.ある論文中の他の論文について記述してある箇所(参照箇所)を論文中から自動的に抽出し,その箇所を解析することで,論文の参照の目的(参照タイプ)が明らかにされる.参照箇所の抽出と参照タイプの決定には,cuewordを利用した.cuewordの選定には\cite{Kita94}らの提唱するcostcriteriaという手法を利用し,得られたcuewordを用いて参照箇所抽出ルールと参照タイプ決定ルールを作成した.その結果,参照箇所抽出精度はRecall,Precision共に80\%弱,参照タイプ決定は83\%の精度が得られた.また,サーベイ論文作成支援をするシステムを作成した.このシステムでは論文データベース中から特定分野の論文を自動収集し,関連論文間の相違点や個々の論文のABSTRACTが閲覧可能である.ひとつの論文を参照する複数の論文の参照箇所を並べて表示することで,著者間の参照が直接比較できるため,サーベイ論文作成の際に有用であると考えられる.\bigskip\acknowledgment本研究にあたり,御指導を賜わりました学術情報センターの神門典子助教授に心から感謝致します.また,論文データの提供および論文検索システムPRESRIの公開を快く承諾して下さったe-Printarchiveadministratorの方々に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v06n5_03}\begin{biography}\biotitle{略歴}\bioauthor{難波英嗣(学生会員)}{1972年生.1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.同年同大学院博士後期課程,現在に至る.自然言語処理,特にテキスト自動要約に関する研究に従事.情報処理学会,人工知能学会各学生会員.}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,語彙的知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V02N03-03
|
\section{はじめに}
著者らは放送分野を対象とした英日機械翻訳システムを開発している\cite{Aiz90,Tan93,TanAndHat94}.この中で最もコストがかかり手間を要するのが辞書の作成である.著者らの経験によれば,この中で最も困難なのが動詞の表層格フレーム(以下,格フレームと省略する)の記述である.これは英語の動詞の日本語訳語を選択するために利用される情報で,動詞の取りうる文型とその時の訳語を記述したものである.従来,これらは冊子辞書や用例を参照しながら人手で収集・記述していた.しかし,\begin{enumerate}\item記述する表層格要素(以下,格要素と省略する)や,その制約を一貫して用いることが難しいこと\item格フレームの一部を変更した場合に,訳語選択に与える影響が把握しにくいこと等の問題があり,この収集・記述作業の効率は非常に悪かった.\end{enumerate}このため本論文ではこれらの問題の解決を目指し,格フレームの新たな表現手法,および獲得手法を提案する.これは著者らの英日機械翻訳システムのみならず,動詞訳語選択に格フレームを利用するその他の機械翻訳システムの構築にも応用できるものである.本論文では上記の2問題を解決するために次の2点を提案する.\begin{enumerate}\item動詞の翻訳のための格フレームを決定木の形で表現する.以下,本論文ではこの決定木を格フレーム木と呼ぶ.\item英日の対訳コーパスから,統計的な帰納学習アルゴリズムを用いて格フレーム木を自動的に学習する\cite{TanAndEha93,Tan94a,Tan94b}.\end{enumerate}また,この提案に基づいて実際に対訳コーパスから格フレーム木を獲得する実験を2種類行う.本論文で学習の対象としたのは訳語の数の多い英語の7つの動詞(``come'',``get'',``give'',``go'',``make'',``run'',``take'')である.最初の獲得実験では格要素の制約として語形を利用した.この結果,人間の直観に近く,かつ人手で獲得する場合より精密な訳し分けの情報が獲得されたことを示す.また2番目の実験では,格フレーム木の一般性を確保することを目的とし,意味コードを格要素の制約として用いた.この結果,未学習のデータを入力して動詞の訳語を決定する実験で2.4\%から32.2\%の誤訳率が達成された.これらの結果と,単純に最高頻度の訳語を出力した場合の誤訳率との差は13.6\%から55.3\%となりかなりの改善が得られた.実験に先だって著者らは英日の対訳コーパスを作成した.著者らの目的とする格フレーム木は,放送ニュース文を対象とすることを想定している.このため,学習には放送分野のコーパスを利用するのが望ましい.しかし,現在このような英日対訳コーパスは入手可能でないため,AP(AssociatedPress)のニュース英文を利用して作成した.本論文ではこの対訳コーパスの設計,作成過程および特徴についても触れる.著者らの研究は,コーパスから自然言語処理システムのルールを獲得する研究である.大規模コーパスが入手可能になるにつれ,この種の研究は盛んになりつつある.また,その獲得の目的とするルールもさまざまである.これらの中で本論文に近い研究としては,\cite{UtuAndMat93}および,\cite{Alm94}の研究が挙げられる.\cite{UtuAndMat93}では,自然言語処理一般に利用することを目的とした日本語動詞の格フレームの獲得を試みている.ここで提案されている手法は,タグ付けされていない対訳テキストから格フレームが獲得できる点で著者らの手法より優れている.しかし,ここで利用されている学習アルゴリズムは,格フレームの利用の仕方を考慮したものではない.このため,著者らの目的である動詞の訳語選択にどの程度有効であるかは不明である.これに対して,著者らのアルゴリズムはエントロピーを基準にして,動詞の訳語選択の性能を最大にするように格フレーム木の獲得を行う.この結果,訳語選択に適した情報が獲得され,しかもその性能が統計的に把握できる利点を持っている.\cite{Alm94}では著者らと逆に日英機械翻訳システムで利用するための日本語動詞の翻訳ルールを学習する手法を提案している.用いられている学習手法は基本的には本論文と同じものである.ただし,この論文では動詞の翻訳のための規則を決定木で表現することの利点について触れていないが,これには大きな利点があることを著者らは主張する.また,この論文では学習に利用した対訳事例をどのような所に求めたかは明らかにされていない.しかし,これは獲得される格フレーム木に大きな影響を与えるため著者らはこれを詳細に論ずる.さらに,この論文では人手で作成したルールとの一致で評価を行っているが,訳語選択の性能については触れられていない.これに対して著者らは動詞の誤訳率で評価を行う.本論文の構成は以下の通りである.2章では,人手で行っていた従来の格フレームの獲得,記述の問題点を整理する.3章ではこの解決のため,先に述べた提案を行うとともに,格フレーム木を英日対訳コーパスから学習する手法を説明する.4章では,本論文で利用する英日対訳コーパスの作成について述べる.5章では,このコーパスの語形を直接的に利用した格フレーム木の獲得実験を行う.6章では,対訳コーパスを意味コードで一般化したデータを作成して格フレーム木の獲得実験を行う.7章では本論文のまとめを行い,今後の課題について述べる.\begin{figure}\begin{center}\begin{tabular}{|ll|}\hlineSN[man]takeON[boy]&選ぶ\\SN[I]takeON[him]PN[to]PNc[BUILD]&連れていく\\SN[HUMAN]takeON[CON]PN[to]PNc[BUILD]&持っていく\\\hline\multicolumn{2}{r}{記号:格要素{[制約]}}\\\end{tabular}\caption{``take''の格フレームの例}\end{center}\end{figure}
\section{人手による格フレーム獲得の問題点}
著者らの英日機械翻訳システムで現在利用している格フレームの例(説明用)を図~1に示す.これは,英語の動詞が持つ複数の日本語訳語から適切な訳語を選択するために利用される.これらの格フレームは,それぞれの訳語ごとに記述されている.著者らの格フレームに記述してある要素は次の4つである.\begin{itemize}\item動詞が必須格として取りうる格要素\item格要素の制約(語形や意味分類のマーカー)\item動詞の日本語訳語\itemウエイト(図~1では省略)\end{itemize}ウエイトとは,それぞれの格フレームに与えられた数値であり「使われにくさ」の指標として使われる.この値が大きいほどその格フレームは利用されにくくなる.格フレームは構文解析が終了してから利用される.すなわち入力英文の構文構造と動詞が認定されてから利用される.この動詞の訳語を決定するには,まず動詞の持つ格フレームすべて(辞書中に登録されているもの)と構文構造の比較が行われ,それらの間の類似度が計算される.そして最も類似度の高い格フレームの訳語が出力される.類似度は,構文構造と格フレームの間での格要素と制約の一致度合,および格フレームのウエイトを総合して計算される.従来,格フレームは人手で記述されていたが,困難かつコストのかかる作業となっていた.これは以下のような理由による.\begin{enumerate}\item[{\bf問題1)}]{\bf利用する情報の一貫性の確保}\\格要素として何を記述すべきか.必須格の定義は何か.格要素の制約は何を使用するか.これらは記述する時に必ず決めなければならないパラメータである.これらは何らかの規範として事前に決められ,作業者はそれに添って記述を行う.このとき,規範で決められた制約と格要素は一貫して利用しなくてはならない.なぜなら,動詞の訳語を選択する時に行われる計算は,すべての格フレームが平等であることを前提としているからである.しかし,人手で一貫した方針を貫くのは困難であり不平等な記述になりがちである.\item[{\bf問題2)}]{\bf格フレームの不透明性}\\格フレームは一旦記述し終わった後で部分的に変更されることがしばしばある.例えば,ある格フレームの格要素を削除,追加したり,格要素の制約を変更することなどである.しかし,この結果が動詞の訳語選択にどういう影響を与えるかを把握するのは難しい.これには構文構造との比較時に発生する他の格フレームとの競合の状態の変化,すなわち類似度計算への影響を把握しなくてはならないからである.このような格フレームの変更結果の不透明性は,記述,保守管理の重大な障害となっている.\item[{\bf問題3)}]{\bfウエイト決定の恣意性}\\ある格フレームのウエイト,すなわち「使われにくさ」を人間の内省で決めるのは非常に難しい.しかもウエイトは格要素と制約の一致度合と共に類似度計算に用いられるため,両者の評価の比重をどう設定するかなど問題は多い.実際には辞書の頻度情報などを参考に記述することが多いが,客観的なウエイトを与えることは難しい.\end{enumerate}以上の3点の問題の内,問題3は著者らのシステムに固有の問題であるが,問題1,2は格フレームを利用して動詞の訳語を決定する場合の共通する問題であると考える.
\section{対訳コーパスからの格フレーム木の学習}
著者らは,2章で述べた問題の解決のため以下の2点を提案する.\begin{itemize}\item格フレームを決定木の形で表現する(格フレーム木)\item英日の対訳コーパスから,統計的な帰納学習アルゴリズムを用いて格フレーム木を自動的に学習する\end{itemize}また,本章ではこれらを実現する手法を具体的に述べる.\subsection{格フレーム木}\begin{figure}\begin{center}\unitlength=1mm\begin{picture}(60,35)\put(0,0){\framebox(60,35){}}\put(10,5){\makebox(0,0){連れていく}}\put(30,5){\makebox(0,0){選ぶ}}\put(45,10){\makebox(0,0){持っていく}}\put(10,10){\makebox(0,0){$\bullet$}}\put(30,10){\makebox(0,0){$\bullet$}}\put(45,15){\makebox(0,0){$\bullet$}}\put(20,20){\makebox(0,0){$\bullet$}}\put(30,30){\makebox(0,0){$\bullet$}}\put(30,30){\makebox(0,0)[b]{\raisebox{1ex}{ON}}}\put(20,20){\makebox(0,0)[rb]{PN}}\put(25,25){\makebox(0,0)[rb]{him}}\put(15,15){\makebox(0,0)[rb]{to}}\put(35,25){\makebox(0,0)[lb]{box}}\put(25,15){\makebox(0,0)[lb]{$\phi$}}\thicklines\put(10,10){\line(1,1){20}}\put(20,20){\line(1,-1){10}}\put(30,30){\line(1,-1){15}}\end{picture}\end{center}\caption{``take''の格フレーム木}\end{figure}格フレーム木は図~2に示すような構造をしている.各ノードには格要素,アークにはその制約,リーフには動詞の訳語が付与されている.一方,従来の形式の格フレーム(図~1)を便宜的に線形格フレームと呼ぶ.格フレーム木は決定木であるため,動詞の訳語選択を行うには,ルートからリーフに向かって構文構造と比較するだけでよい.このため線形格フレームよりも効率良く動詞の訳語選択を行うことができる.しかし,この構造を採用する最大の利点は,2章で述べた問題2の「格フレームの不透明さ」を軽減できる点にある.これは,決定木にすることによって,変更の影響が変更場所の下の訳語に限られるためである.例えば,図~2の格要素PN(前置詞)を削除した場合には,下位の訳語「連れていく」と「選ぶ」の選択が行われなくなることが容易にわかる.\subsection{統計的な帰納学習}2章で述べた問題1「利用する情報の一貫性の確保」は,統計的な帰納学習プログラムを利用することで解決される.このようなプログラムとしてはCART~\cite{Brei84},ID3~\cite{Qui86},C4.5~\cite{Qui93}など,いろいろなものが既に提案されている.これらは共通して(属性,属性値,クラス)の形式の表から決定木を学習する.著者らの目的とする格フレーム木を学習するには属性として格要素,属性値として格要素の制約,クラスとして動詞の訳語を与える(表~1).本稿ではこの表を原始格フレーム表と呼ぶ.またこの表の各行を事例と呼ぶ.\begin{table}\begin{center}\caption{原始格フレ−ム表}\begin{tabular}{ccccc|c}\hline\hlineSN&V&ON&PN&PNc&動詞の訳語\\\hlineI&take&him&to&theater&連れていく\\you&take&him&to&school&連れていく\\you&take&him&to&park&連れていく\\you&take&box&to&theater&持っていく\\you&take&box&to&park&持っていく\\I&take&box&to&school&持っていく\\I&take&him&$\phi$&$\phi$&選ぶ\\you&take&him&$\phi$&$\phi$&選ぶ\\\hline\end{tabular}\end{center}\end{table}著者らの利用するプログラム(C4.5)では,原始格フレーム表の格要素が,動詞の訳語の分類にどれだけ有効かを統計的に計算する\footnote{ID3,C4.5は基本的に同じアルゴリズムである.後者は前者の機能拡張版であるが,木の学習部分についてはほぼ同等である.CARTは2分木を学習するため著者らの目的に直接は利用できない.しかし木を作成していく過程はID3,C4.5と同じような統計的基準を採用している.}.すなわち,ある格要素の制約に従って訳語を分類した場合に,どれだけ「きれいに」訳語が分類されるかをエントロピーを用いて計算し,これによって有効性を判定する.そして,有効性の高い格要素から順番に上位ノードから下位ノードに配置して決定木を生成する(アルゴリズムの概要は付録Aに示す.).表~1にプログラムを適用すると,図~2で示した格フレーム木が学習される.このアルゴリズムでは,格要素およびその制約は,訳語の分類に対する有効性という観点で一貫して評価されることになり,2章の問題1「利用する情報の一貫性の確保」は解決される.この手法で獲得された格フレーム木には,線形格フレームの個々のウエイトに相当する指標は陽には現われない.しかし,個々の格要素の有効性の高い順に格フレーム木が構成されるのでウエイトによる評価は必要なくなる.そのため2章の問題3「ウエイト決定の恣意性」の問題も解決されると言える.また,この手法を用いると格要素が必須格か自由格かという判定は,訳し分けの観点からプログラムで自動的に決定されることになる.例えば,図~2には主格がなく不自然な印象を受ける.しかし,これは訳し分けのための有効性を主格が持たなかった結果である.従来,自動学習は手間の軽減を目的として利用されることが多かった.しかし,有用な情報を目的に合わせて適切に配列する能力も大きな特徴である.本提案はこの特徴を生かしており,動詞の訳し分けを行うのに必要な情報を単に自動的に獲得するだけでなく,それらを,動詞の訳語を最適に選択できる決定木の形で構成する\footnote{各ノードでの訳語選択を最適に行うように格フレーム木を構成する意味であり,全体としての訳語選択の性能の最適性を保証するものではない.}.またこの決定木の表現は実用上の利便性が高いものである.\subsection{格フレーム木の段階的な獲得}統計的な帰納学習アルゴリズムを利用する上で重要なのは入力,すなわち,原始格フレーム表である.この表は,訳し分けの対象とするドメインの事例の頻度分布を反映して作成しなければならない.なぜなら格フレーム木は,原始格フレーム表の事例の頻度を元に作成されるため,対象ドメインと原始格フレーム表で事例の分布が違った場合には,対象ドメインの動詞を有効に訳し分ける条件が学習されないからである.さらに,原始格フレーム表に記述する格要素と制約を決める必要があるが,これには試行錯誤を要する.以上のことより,対象ドメインの英日対訳コーパスを柔軟に変換して原始格フレーム表を作成する手法が有効と考えられる.しかし,著者らの対象ドメインである放送ニュース分野の英日対訳コーパスの入手は難しい.このため,著者らは英日の対訳コーパスを作成し,これを変換して原始格フレーム表を作成する方針を採用した.この結果,格フレーム木獲得の筋道は図~3に示すものとなった.\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=94.0mm}\end{center}\caption{格フレーム木の段階的獲得}\end{figure}従来,線形格フレームは直接的に人手で記述していた.しかし,提案手法では,対訳コーパスから人手を介しながら段階的に格フレーム木を獲得することになる.この手法で人間が介入する部分は,対訳コーパスの作成,および原始格フレーム表へ変換する部分だけである.対訳コーパス作成の部分では,英文への統語ラベルの付与,日本語への翻訳等を行う.また,原始格フレーム表への変換では,単に利用する格要素や制約を決定するだけである.このような人手の作業は,線形格フレームをいきなり記述するより安定に行うことができる.そのため,格フレーム木に入る人間の恣意性を最小限に押さえることができると期待できる.
\section{英日対訳コーパス}
\subsection{コーパスのソース}先に述べたように,本手法では原始格フレーム表の事例の頻度分布が重要となる.このため英和辞典の例文などを利用することには問題がある.なぜなら高頻度で出現する訳語もそうでない訳語も例文の数にあまり差がないからである.そこで著者らの場合は,AP(AssociatedPress)電ニュースをコーパスのソースとして採用することにした.そしてこの英文から以下に示す条件を満たすものを抽出して,日本語訳を付与することで対訳コーパスを作成した.\subsection{対象動詞}訳語の数が多く機械翻訳を行う場合に問題となる以下の動詞を対象とした.\begin{quote}``come'',``get'',``give'',``go'',``make'',``run'',``take''\end{quote}\subsection{データ量}上記の動詞を訳し分けるために必要な対訳コーパスの量を直接見積るのは困難である.そこで,これらの動詞が出現する頻度調査を6ヶ月分のAP電について行った.この結果,各月での動詞の出現頻度はほとんど一定していることが明らかになった.もちろんこれは訳語の頻度が一定であることを保証するものではないが,一月単位が最低必要な量であろうと考えた.そこで1990年1月,1991年1月の2ヶ月を英文抽出の母集団とした.\subsection{作成手順}作成は以下の手順で行った.図~4に作成したコーパスの一部を示す.\begin{enumerate}\item{\bf英文の抽出}\\2ヶ月分のAP電から上記の7動詞を含む文を自動的に抽出した.このとき文の長さは15語以下とした.これは,文の長さをあまり長くすると解析が大変になること,類似の文型の個数が減るため有効な原始格フレーム表が作成できないことによる.\item{\bf動詞の支配範囲の認定}\\対象動詞が直接支配している範囲を人手で認定した.図~4のENG行がこれを示す.\item{\bf英語の格要素の認定}\\英語の文章を人手で解析して必要な情報を付与した.精度の高い構文解析器が利用できればこの作業はかなり自動化ができる.しかし,現状ではかなりの人手の介入が必要であるため,著者らは人手による解析を行うことにした.また,人手による精密な構文解析は手間が大きいので,原始格フレーム表を作成するのに最低限必要な解析を行うことにした.この解析で認定,付与した情報は,\begin{itemize}\item[(I)]文のタイプ,\item[(II)]主格,目的格などの統語単位,\item[(III)]統語単位中の主辞単語と前置詞,副詞小詞などの機能語である.\end{itemize}(I),(II)には,それぞれラベルを設定した.文のタイプは11種類設定した.そして英文中の動詞に文のタイプを示すラベルを付与した.統語単位は24種類設定した.そして英文中の各統語単位に該当する範囲を\bras{}で認定し,統語単位を示すラベルを付与した\footnote{一つの英文内に同一の統語単位が複数回出現した場合,例えば副詞句(DD)が3回出現した場合,英語のケースデータには出現順にDD,DD1,DD2と展開したラベルを付与している.}.また,各統語単位の主辞は{[\]}で,機能語は\pp{\enskip}で認定した.ここで作成したデータを英語のケースデータと呼ぶ.図~4のCASE行がこれにあたる.ラベルの詳細を付録Bの表~6,~7に記す.\item{\bf日本語翻訳の付与}\\英語のケースデータの主辞と機能語に対して日本語の訳語を人手で付与した.図~4のJAP行がこれにあたる.また,JAP行でも主辞と機能語の指定がしてある.対象の英文一つだけで翻訳できない場合は,前後の文脈を翻訳者に提供した.\end{enumerate}\begin{figure}[h]\begin{center}\begin{tabular}{|l@{}p{0.8\textwidth}|}\hline19:&``IjustknowI'mgoingtotakethoserublesandbuildanotherrestaurant,''hesaid.\\ENG:&I'mgoingtotakethoserubles\\CASE:&SN\bras{[I]}AX\bras{[begoingto]}V\bras{[take]}ON\bras{those[ruble]}\\JAP:&SN\bras{[私]\pp{は}}AX\bras{[BEGOINGTO]}V\bras{[受け取る]}ON\bras{[ルーブル]\pp{を}}\\&\\20:&``Itakeeverybodyseriously,''Grafsaid.\\ENG:&Itakeeverybodyseriously\\CASE:&SN\bras{[I]}V\bras{[take]}ON\bras{[everybody]}DD\bras{[seriously]}\\JAP:&SN\bras{[私]\pp{は}}V\bras{[受け止める]}ON\bras{[すべての人]\pp{を}}DD\bras{[真剣に]}\\\hline\multicolumn{2}{r}{\bras{}統語単位,{[]}主辞,\pp{\enskip}機能語}\\\end{tabular}\caption{英日対訳コーパス}\end{center}\end{figure}\begin{table}[h]\begin{center}\caption{英日対訳コ−パスの作成結果}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{1}{c}{come}&\multicolumn{1}{c}{get}&\multicolumn{1}{c}{give}&\multicolumn{1}{c}{go}&\multicolumn{1}{c}{make}&\multicolumn{1}{c}{run}&\multicolumn{1}{c}{take}\\\hline英文数&795&867&635&1204&1024&440&1062\\翻訳に文脈が必要であった場合&3.4\%&5.2\%&4.1\%&3.7\%&6.6\%&6.0\%&4.0\%\\得られたデ−タ数&782&849&637&941&1020&303&1067\\\hline\end{tabular}\end{center}\end{table}\subsection{コーパスの特徴}対訳コーパスを作成するのに要した労力は6人月であった.表~2に作成したコーパスのデータを示す\footnote{その後も対訳データの作成作業を継続しており,``call'',``cut'',``fall'',``keep'',``look'',``put'',``stand'',``turn''についても対訳コーパスを作成している(総数約6,000).さらに,``give''は490,``make''は1,770,``take''は1,820データ追加されている.}.この表の2行目に示した数字は,翻訳を行う場合に前後の文脈が必要であった比率を示す.すなわち,人間の翻訳者が一つの文だけを見て翻訳ができなかった割合を示している.このような文章の多くは``it''などの代名詞を含んでおり,翻訳のためにはそれらの指示内容が必要であった.
\section{語形を利用した実験}
\subsection{方針}提案手法の基本的な能力を調査するために,以下の方針に従って原始格フレーム表を作成して格フレーム木獲得実験を行った\cite{TanAndEha93,Tan94a}.\begin{itemize}\item文の種類に応じて格フレーム木を作成\\従来,動詞の訳語選択を行う場合,その動詞がどういう文型で使われていても同じ格フレームを利用していた.しかし,同じ動詞でも平叙文,疑問文,関係節,不定詞句の中では共起する格要素は異なることが予想される.そこで文型ごとに格フレーム木の作成を行う.\itemコーパスに出現する格要素すべてを利用\\これは著者らの使うアルゴリズムによって,どのような格要素が選択されるかを調査するためである.\item格要素の制約としては,主辞の語形と機能語を利用\\これらは,それぞれの統語単位を代表する成分であるため,まずこれを利用する.\end{itemize}学習に利用したプログラムはC4.5(オプションなし,枝刈りなし)である.\subsection{実験結果}各動詞の各文型パターンについて格フレーム木の作成実験を行った.訳し分けの対象にしたのは各動詞とも,頻度が10以上である.これは頻度が小さいと有効なデータとならないからである.\begin{table}\begin{center}\caption{入力諸元と出力(平叙文)}\begin{tabular}{c|rrrrrrr}\hline\hline&\multicolumn{1}{c}{come}&\multicolumn{1}{c}{get}&\multicolumn{1}{c}{give}&\multicolumn{1}{c}{go}&\multicolumn{1}{c}{make}&\multicolumn{1}{c}{run}&\multicolumn{1}{c}{take}\\\hline(1)&398&274&292&225&367&68&285\\(2)&30&28&31&20&33&15&21\\(3)&10&9&9&8&8&3&10\\\hline(4)&6&5&5&6&6&3&5\\(5)&10.1\%&5.5\%&13.0\%&10.2\%&6.2\%&0.0\%&6.0\%\\\hline\end{tabular}\par\medskip\null\hskip8em\begin{tabular}{r@{}l}(1)&学習に利用した事例数\\(2)&原始格フレ−ム表に出現した格要素数(異なり)\\(3)&動詞の訳語数\\(4)&格フレ−ム木に出現した格要素数(異なり)\\(5)&学習した事例を再分類した場合の誤訳率\\\end{tabular}\end{center}\end{table}表~3に,入力とした原始格フレーム表の諸元と結果の一覧を示す.ここでは,平叙文のデータから作成した格フレーム木の結果のみを示した.\begin{figure}\begin{center}\vspace*{-4mm}\begin{minipage}{80mm}\large\def\baselinestretch{}\normalsize\begin{tabbing}D\bras{}\==over:引き継ぐ(12.0)\\D\bras{}=up:取る(3.0/1.0)\\D\bras{}=0:\\$|$\>ON\bras{}\==0:かかる(5.0/1.0)←A\\$|$\>ON\bras{}=action:とる(8.0)\\$|$\>ON\bras{}=bronze:獲得する(9.0)\\$|$\>ON\bras{}=hour:かかる(11.0/3.0)←C\\$|$\>ON\bras{}=measures:とる(10.0)\\$|$\>ON\bras{}=part:参加する(33.0/1.0)←B\\$|$\>ON\bras{}=while:かかる(6.0)\\$|$\>ON\bras{}=place:\\$|$\>\>$|$SN\bras{}=SergeiShupletsov:獲得する(1.0)←D\\$|$\>\>$|$SN\bras{}=attack:行われる(4.0)←D\\$|$\>ON\bras{}=time:\\$|$\>\>$|$AX\bras{}=0:かかる(4.0/2.0)\\$|$\>\>$|$AX\bras{}=may:必要とする(1.0)\\$|$\>\>$|$AX\bras{}=could:かかる(1.0)\end{tabbing}\end{minipage}\end{center}\caption{``take''の格フレーム木の一部}\end{figure}また図~5に獲得された``take''の格フレーム木の一部を示す.この図では左がルートノードである.また各行の右端の数字は,学習に利用した事例を格フレーム木で分類した場合に(そのリーフに分類された事例数/事例とリーフの訳語が一致しなかった数[あれば])である.以下に結果の特徴を記す.\begin{enumerate}\item{\bf通常の辞書との類似}\\図~5に示すように,格フレーム木は直感的に理解しやすいものであった.これは,格フレーム木に使われた格要素の多くが,通常の辞書に使われていたことによる.例えば``take''の格フレーム木では,AX(助動詞相当語句),D(副詞小詞),ON(直接目的語名詞句),SIN(主語の不定詞句),SN(主語名詞句)が使われていた.この中の,SN,ON,Dは通常の冊子辞書でも頻繁に使われている.さらにこの場合,ルートノード,すなわち訳し分けに最も有効な格要素はDとなっていた.冊子辞書でも副詞小詞は重要な要素と見なされており,動詞と組み合わせて別項として記述されていることが多い.同様の特徴はその他の動詞にも見られた.表~3の第2行と第4行を比べると,入力に与えられた格要素の内,実際に格フレーム木で利用された格要素は少ないことがわかる.また,利用された格要素の多くは冊子辞書でもよく利用されるものであった.それぞれの動詞の格フレーム木に利用された格要素を付録~Cの表~8に示す.\item{\bf訳し分けの精度}\\得られた格フレーム木は,直観では気付きにくい情報を学習していた.図~5のAに示した部分では,ONが何もないときの訳語は「かかる」と学習されている.``take''は通常他動詞として用いられるため,目的語がないというのは不自然な印象を受ける.しかし,対訳コーパスを調査してみると``takeawhile'',``takelong''といった時間表現があることがわかった.これらの表現では,目的語ではなく副詞を伴って「かかる」の意味になっており,妥当な学習と言える.また図~5のBで示した部分では,``takepart''で「参加する」と学習されており,``in''は冗長だとされている.これは通常の辞書の記述とは異なっている.しかし,これも対訳コーパス中に実際に``in''を伴わない用法が見つかり,むしろ望ましい学習と言える.このように格フレーム木の細部を見た場合には,コーパスの動詞を訳し分けるのに適した情報が学習されていた.また,表~3の第5行目には誤訳率を記している.これは,学習に利用した事例を格フレーム木で分類した場合に,誤った訳語が出力された割合である.学習データであっても誤訳率がゼロにならない理由は,\begin{itemize}\item[(I)]格フレーム木を作成するアルゴリズムが,過剰学習を避けるため多少の誤訳を許すように設定されていること(付録A,脚注10,11参照)\item[(II)]1文の範囲では訳し分けができない場合があることである.\end{itemize}以下具体的に説明する.(I)に該当する例は図~5のCの部分に見られる.ここでは``takehour''(11例)は「かかる」と訳すように学習されたが,3例は誤っている.これらは「必要とする」と訳されなくてはならない.原始格フレーム表を調べてみると,``takehour''の11事例の主語はすべて異なっていた.そこで,このノードの下をさらに主語で分岐すると上記の2つの訳語は正しく分類することができる.ただしこの場合,主語の語形によって11の枝が生成され,リーフには1事例しか分類されない.このためこれは予測力の低い過剰学習であると判定され,このような分岐は実行されない.(II)に相当するのは同一の文でありながら動詞の訳が違う場合である.``make''のコーパスには``Iamgoingtomakeit.''という同一の文章で``make''の訳語が「作る」と「成功する」になる2通りの場合が収録されている\footnote{人手で翻訳した際には当然文脈を参照している.4.4節(4),4.5節参照.}.これらの訳語はこの文の格要素だけで訳し分けることはできないため,誤りを含んだまま枝の生成は停止せざるを得ない.この誤りは文脈を扱わない本手法の限界を示すものである.\item{\bf補償的な学習}\\図~5のDでは``takeplace''が「獲得する」と「行われる」に訳し分けられている.前者は``takethirdplace''「3位を獲得する」というコーパスの例文から学習されており,後者は成句表現を学習したものである.前者は通常の辞書には記述されていない.ここで興味深いのは学習された訳し分けの条件である.ここでは主語の性質によって訳し分けられている.すなわち,主語が「人間」の時は「獲得する」となり,「動作名詞」の時は「行われる」となっている.これは言語学的に納得できる条件である.しかし,この訳し分けは``place''の前の修飾語の有無で行うことも可能である.前者は``third''という修飾を受けているが,後者は成句表現であるため,修飾は基本的に受けないからである.この実験の原始格フレーム表には修飾語を利用していないため,このような学習は起こりえない.そこで,これに替わる条件を学習しているのである.このような学習を本論文では「補償的な学習」と呼ぶ.この「補償的な学習」は,その他の格フレーム木でも数多く見られた.例えば図~6(``come''の格フレーム木の一部)では,主語が``it''の場合に,その内容を参照することなく,前置詞を条件として動詞の訳し分けが行われている.また,この条件で事例の分類を行った結果,15事例の内12事例で訳語が正しく選択されている.補償的な学習は,与えられた情報の中で最適な訳し分け条件を見つけ出すアルゴリズムの性質を反映したものであり,ここで述べたように人手で見つけにくい有効な格要素を発見する上で有用である.しかし,この性質は格フレーム木のノードとして本来使うべき格要素を選ばずに,たまたま原始格フレーム表の訳語をきれいに分類する格要素を選択することにつながる場合もある.このため,必ずしも言語学的な直観にあわない格要素が格フレーム木に含まれる場合もあり,その正しさは人間が判定する必要がある.\item{\bf文型による格フレーム木の違い}\\平叙文に比べてその他の文型の事例数が少ないため同列の比較はできないが,文型による格フレーム木の違いはかなり顕著であった.例えば比較的事例数の多かった「to不定詞として用いられた``take''と``make''」の格フレーム木に使われた格要素はON(直接目的語名詞句)だけであった.また,これらの格フレーム木には平叙文で重要であったD(副詞小詞)は出現しなかった.これらのことは,格フレーム木は文型に合わせて作成する必要があることを示唆している.\end{enumerate}\begin{figure}\begin{center}\begin{minipage}{80mm}\large\def\baselinestretch{}\normalsize\begin{tabbing}D\=\bras{}=0:\\$|$\>PN\=1\bras{}c=0:\\$|$\>\>$|$SN\=\bras{}=it:\\$|$\>\>$|$\>$|$PN\bras{}=0:来る(5.0/2.0)\\$|$\>\>$|$\>$|$PN\bras{}=as:なる(2.0)\\$|$\>\>$|$\>$|$PN\bras{}=atatimeof:起きる(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=during:来る(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=like:起きる(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=on:なる(1.0)\\$|$\>\>$|$\>$|$PN\bras{}=to:なる(4.0/1.0)\end{tabbing}\end{minipage}\end{center}\caption{``come''の格フレーム木の一部}\end{figure}\subsection{議論1}本章では,語形を利用した格フレーム木の学習を行った結果,大局的には人間の直観に近い,わかりやすい格フレーム木が獲得された.また,細かく見ると人手で獲得するよりも精密な条件が抽出される場合や,人手では気がつきにくい条件が抽出されることがわかった.ここで問題になるのは格フレーム木の一般性である.本手法では,格要素の制約として語形を使ったため,未学習の事例の動詞を訳し分ける性能には疑問がある.なぜなら,未学習の事例を格フレーム木のルートからリーフへ照合する過程で,制約(アークのラベル)が未知の語形になり,格フレーム木をたどれなくなるからである.そこで,次章ではこの問題を解決する手法を提案して実験を行う\cite{Tan94b}.
\section{意味コードを用いた実験}
\subsection{意味コードの利用}著者らが利用している学習プログラムでは,事例と格フレーム木との照合中に,あるノードで行き詰まった場合には訳語を予測して出力するようになっている.このプログラムでは格フレーム木の作成と同時に各学習事例がどのリーフに分類されるかを計算しており,リーフにはその頻度が付与されるようになっている(図~5の右端の数字).そして訳語の予測にはこの頻度を利用している.今,図~5の格フレーム木で,``D=0''かつ``ON=place''かつ``SN=war''という事例を分類しようとすると,SNの制約(war)が未知語であるため訳語が決定できない.このように行き詰まった場合には,先に述べた頻度を利用して,そのノードの下で最も頻度の高い訳語を予測値として出力する.今の場合,行き詰まったノードSN\footnote{2つのSNがあるが(図~5のD)これは同じノードである.}の下で最高の頻度であった「行われる」が出力される.このような予測機能のおかげで未知語は表面上は問題にはならない.しかし,この「局所的な多数決原理」のヒューリスティクスがどれだけ有効であるかは不明である.未知語になる可能性が高いのはオープンクラスの語彙,特に名詞である.これを軽減する手法としては,名詞を意味コード\footnote{名詞をある体系に従って分類し,それに与えたコード.例えば,類語国語辞典\cite{類語85}や分類語彙表\cite{分類64}などの分類番号.}で置換することが考えられる.これによって膨大な数の名詞を一定の分類数で押さえることができるからである.そこで本章では,名詞を意味コードで置換した格フレーム木の獲得を行い,これが未学習の事例の動詞の訳し分けにどの程度有効かを評価する.語形の代わりに意味コードを利用した格フレーム木を獲得するには,原始格フレーム表の語形を意味コードで置き換えて学習すればよい.これには英語の語形がどの意味で使われたかを決定する必要があるが,意味的な曖昧性があるため,英語の語形だけを見たのでは自動的には決定できない.そこで対訳コーパスに意味コードを付与して,これを原始格フレーム表に変換することにした.対訳コーパスには日本語の訳語があり,これが英語の語形の意味を表しているため,比較的容易に英語の語形の意味を決定できるからである.\subsection{コーパスへの意味コードの付与}本論文で利用した意味コードは類語国語辞典\cite{類語85}のコードである.これは,基本的には3桁の10進分類であり,補助的に4桁目が利用されている.4桁すべてを利用すると2,794個の分類となる.意味コードを付与したのは名詞を主辞に取る格要素である:SN(主語名詞句),ON(直接目的語名詞句),CN(補語名詞句),QN(間接目的語名詞句),PNc(前置詞句本体).意味コードの付与は,あらかじめ作成してあるテーブル,(英単語,日本語訳語,意味コード[,意味コード])の形式,を利用して半自動的に行った\cite{TanAndEha91}.具体的には対訳コーパスの英語と日本語の対応する格要素の主辞をこのテーブルで参照してコードを付与した\footnote{類語国語辞典は(日本語,意味コード[,意味コード])の形式のデータである.著者らは,これを英和辞書と照合して(英単語,日本語訳語,意味コード[,意味コード])の形式のデータを既に作成している.英語と日本語では,単語の持つ意味の広がりに差がある.このため,英単語と類語国語辞典のデータを組み合わせる際に,意味コードの中に不適切なコードが発生するが,これは人手で排除している.}.意味コードが自動的に付与できない場合には,人手で付与できるものは付与し,それでもわからない名詞については不明を意味するコードを付与した.これはほとんど固有名詞で,人名,地名の判別ができない単語であった.図~7のCODE行に意味コードを付与したデータを示す.この図では2桁の意味コードを与えているが,任意の桁の意味コードを付与できる.\begin{figure}\begin{center}\begin{tabular}{|l@{}l|}\hlineENG:&mytruthgavemeallthestrengthIneeded\\CASE:&SN\bras{[truth]}V\bras{[give]}QN\bras{[me]}ON\bras{[strength]}\\JAP:&SN\bras{[誠実さ]\pp{は}}V\bras{[与える]}QN\bras{[私]\pp{に}}ON\bras{[強さ]\pp{を}}\\CODE:&SN\bras{[83]}V\bras{[give]}ON\bras{[83]}QN\bras{[50]}\\\hline\end{tabular}\end{center}\caption{意味コードを付与した英日対訳コーパス}\end{figure}\subsection{実験方法}\begin{table}\begin{center}\caption{実験方法}\begin{tabular}{c|c}\hline\hline実験&制約\\\hline1&語形\\2&4桁のコ−ド\\3&3桁のコ−ド\\4&2桁のコ−ド\\5&1桁のコ−ド\\\hline\multicolumn{2}{c}{}\\\multicolumn{2}{c}{出現格要素をすべて利用}\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{入力デ−タ諸元}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{1}{c}{come}&\multicolumn{1}{c}{get}&\multicolumn{1}{c}{give}&\multicolumn{1}{c}{go}&\multicolumn{1}{c}{make}&\multicolumn{1}{c}{run}&\multicolumn{1}{c}{take}\\\hlineデータ数&398&274&292&225&367&68&285\\訳語異なり数&10&9&9&8&8&3&10\\基準誤訳率&66.3\%&73.3\%&64.3\%&52.4\%&27.7\%&32.3\%&82.8\%\\基準誤訳を率を与える訳語&来る&なる&与える&行く&する&走る&かかる\\\hline\end{tabular}\end{center}\end{table}5章の実験で用いた平叙文のコーパスに対して,表~4に示す5つの実験を行った.原始格フレーム表に記述する格要素は5章と同じく,コーパスに現われたすべての格要素である.これらの実験の違いは,格要素に与えた制約である.実験1では,制約として語形を与えた.この実験は評価方法を除けば5章の実験と基本的に同じである.実験2--5は,意味コードの粗さと動詞の訳し分けの精度の関係を調べることを目的とし,4桁から1桁の意味コードを制約として与えた.実験に用いたデータの諸元を表~5に記す.この表の第3行の基準誤訳率とは,各動詞での最高頻度の訳語を入力に関わらず出力した場合に発生する誤訳率である\footnote{言い換えると6.1節の「局所的な多数決原理」をルートノードに適用して全事例を分類した場合の誤訳率である.}.``take''は訳語の分布が平坦であるため,高い基準誤訳率になっている.また第4行には基準誤訳率を与える訳語を記した.格フレーム木の評価は,学習に利用した事例を入力した場合と,学習に利用していない事例を入力した場合の誤訳率で行った.誤訳率は,事例と学習プログラム出力の訳語が一致しなかったものの相対頻度である.このとき,誤訳率の精度を確保するために原始格フレーム表の事例を5分割してクロスバリデーション法で評価した.この手法では,評価データでの誤訳率の計算は以下のように行われる.\begin{itemize}\item原始格フレーム表を5つに分割して80\%の事例で格フレーム木を学習する.\item残りの20\%の事例をこの格フレーム木で分類し,誤訳率を計算する.\itemこの操作を5回,データをシフトしながら行い,訳語の平均誤訳率を算出する.\end{itemize}学習データ上での誤訳率も同様に算出した.(以下,誤訳率は平均誤訳率のことである)格フレーム木の獲得に用いたプログラムは5章と同じC4.5(オプションなし,枝刈りなし)である.\subsection{結果}\begin{figure}\begin{center}\epsfile{file=fig8.eps,width=137.0mm}\end{center}\caption{誤訳率の推移}\end{figure}実験1--5の学習データ,評価データでの誤訳率を図~8に示す.このデータから次の特徴が読み取れる.\begin{itemize}\item実験1:殆どの動詞で評価データでの誤訳率は最大である.\item実験1--5:学習データ,評価データの誤訳率ともほぼ下に凸の曲線を描いた.極小値を与える分類コードの桁数は動詞によって異なった.\itemいずれの実験でも,評価データ上の誤訳率は基準誤訳率より低い.実験で得られた意味コード(2桁)付きの格フレーム木を図~9に示す.\end{itemize}\begin{figure}[h]\begin{center}\begin{minipage}{80mm}\large\def\baselinestretch{}\normalsize\begin{tabbing}ON\bras{}\==10:与える(4.0)\\ON\bras{}=12:言う(3.0/1.0)\\ON\bras{}=15:与える(7.0)\\ON\bras{}=26:与える(3.0)\\ON\bras{}=27:伝える(4.0/1.0)\\ON\bras{}=34:する(32.0/1.0)←A\\ON\bras{}=36:与える(3.0)\\ON\bras{}=41:する(7.0/1.0)\\ON\bras{}=46:もたらす(3.0/1.0)\\ON\bras{}=47:与える(4.0/1.0)\\ON\bras{}=81:示す(4.0/2.0)\\ON\bras{}=93:与える(3.0)\\ON\bras{}=97:与える(2.0)\\ON\bras{}=99:与える(2.0)\\ON\bras{}=0:\\$|$\>D\bras{}=0:与える(2.0)\\$|$\>D\bras{}=up:諦める(11.0)\end{tabbing}\end{minipage}\end{center}\caption{``give''の意味コード付きの格フレーム木(部分)}\end{figure}\subsection{議論2}本章の実験によって,殆どの動詞で意味コードを抽象化すると評価データ上での誤訳率が一旦減少し,また上昇することが確認された.この理由は,意味コードを利用すれば未知語が減るものの,意味コードが粗くなりすぎると格フレーム木の分類能力が低下するためだと思われる.意味コードが有効に働いたのは,図~9のAで示すような,事例が集中して,かつ訳語が正しく決定された部分である(意味分類コード34は「陳述」を表す).また,最小の誤訳率を与える意味コードの粒度は動詞によって異なっていた.従来,固定的な意味コードを格フレームに与える場合が多かったが,そこには再考の余地があることをこの結果は示唆している.付録Cの表~9に格フレーム木に採用された格要素を記した.5章の実験と同じように,多くの格要素は冊子辞書に利用されているものであり,得られた格フレーム木は言語学的な直観に合うものであった.本実験での各動詞の評価データ上での最小の誤訳率は2.4\%から32.2\%となった.これと基準誤訳率の差は13.6\%から55.3\%となり,かなりの改善が得られている.すべての動詞で十分な精度が得られたわけではないが,``take''のように基準誤訳率が82.8\%もあるような動詞に対して誤訳率27.5\%が得られたことは,本手法の基本的な有効性を示したものと考えられる.
\section{むすび}
従来の人手による格フレーム獲得の問題点を明らかにし,これを解決する手法を提案した.ここで行った提案は,格フレームを決定木で表現すること(格フレーム木),および,これを統計的な帰納学習アルゴリズムを用いて対訳のコーパスから獲得することである.この提案に添って語形,意味コードを利用した2種類の実験を行った.得られた結果は以下の通りである.\begin{itemize}\item人間の直観に近くかつ精密な情報が学習された.\item意味コードを利用すると未学習データでの誤訳率が低下した.また,動詞によって最適な意味コードの粒度は異なった.\end{itemize}今回,意味コードを利用して得られた誤訳率は,動詞によっては必ずしも低くないものがある.この原因としては,意味コードを利用した格要素では,語形が全く利用されていないことが挙げられる.この結果,本来語形で記述すべき成句的な表現も意味コードで抽象化されており,これが高い誤訳率につながったと考えられる.これを解決するには,同一格要素内で意味コードと語形の両者を柔軟に用いる学習アルゴリズムの開発が必要である.もう一つ,意味コード体系そのものの問題が挙げられよう.著者らが利用した意味コードは動詞の訳し分けを目的に開発された体系ではない.そのため,これが誤訳率を高めている可能性はある.もし,著者らの目的に合うような意味コード体系を利用できれば,さらに誤訳率を減らすことができるであろう.\acknowledgment類語国語辞典の研究利用を許可していただいた(株)角川書店,ならびに,配信電文の研究利用を許可していただいたAP通信社に感謝する.この研究を進めるにあたって議論して頂いたNHK放送技術研究所,先端制作技術研究部の江原暉将主任研究員,および機械翻訳研究グループの諸氏に感謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{Aizawaet~al.}{Aizawaet~al.}{1990}]{Aiz90}Aizawa,T.\BBACOMMA\et.~al\BBOP1990\BBCP.\newblock\BBOQAMachineTranslationSystemforForeignNewsinSatelliteBroadcasting\BBCQ\\newblockIn{\BemProceedingsofthe13thColing},\lowercase{\BVOL}~3,\BPGS\308--310.\bibitem[\protect\BCAY{Almuallim\&Akiba}{Almuallim\&Akiba}{1994}]{Alm94}Almuallim,H.\BBACOMMA\\&Akiba,Y.\BBOP1994\BBCP.\newblock\BBOQInductionofJapanese-EnglishTranslationRulesfromAmbiguousExamplesandaLargeSemanticHierarchy\BBCQ\\newblock{\BemJournalofJapaneseSocietyforArtificialIntelligence},{\Bbf9}(5),730--740.\bibitem[\protect\BCAY{Breiman,Friedman,Olsen,\&Stone}{Breimanet~al.}{1984}]{Brei84}L.,Breiman,B.,Friedman,J.~H.,Olsen,R.~A.,\&Stone,C.\BBOP1984\BBCP.\newblock{\BemClassificationandRegressionTrees}.\newblockChapman\&Hall.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1986}]{Qui86}Quinlan,J.~R.\BBOP1986\BBCP.\newblock\BBOQInductionofDecisionTrees\BBCQ\\newblock{\BemMachineLearning},{\Bbf1},81--106.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Qui93}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5ProgramsforMachineLearning}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{1993}]{Tan93}Tanaka,H.\BBOP1993\BBCP.\newblock\BBOQMTUserExperience(STAR:NipponHosoKyokai)\BBCQ\\newblockInNirenberg,S.\BED,{\BemProgressinMachineTranslation},\BPGS\247--249.IOS\&Ohmsha.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{1994}]{Tan94a}Tanaka,H.\BBOP1994\BBCP.\newblock\BBOQVerbalCaseFrameAcquisitionfromaBilingualCorpus:GradualKnowledgeAcquisition\BBCQ\\newblockIn{\BemProceedingsofthe15thColing},\lowercase{\BVOL}~2,\BPGS\727--731.\bibitem[\protect\BCAY{田中}{田中}{1994}]{Tan94b}田中英輝\BBOP1994\BBCP.\newblock\JBOQ意味コード付き対訳データからの訳し分け情報の自動学習\JBCQ\\newblock\Jem{情報処理学会第49回全国大会},3\JVOL,\BPGS\205--206.\bibitem[\protect\BCAY{田中,畑田,江原}{田中\Jetal}{1994}]{TanAndHat94}田中英輝,畑田のぶ子,江原暉将\BBOP1994\BBCP.\newblock\JBOQ日本語字幕作成用英日機械翻訳システムの研究経緯と今後\JBCQ\\newblock{\BemNHKR\&D},{\Bbf34},33--46.\bibitem[\protect\BCAY{田中,江原}{田中,江原}{1991}]{TanAndEha91}田中英輝\BBACOMMA,江原暉将\BBOP1991\BBCP.\newblock\JBOQ名詞への意味マーカーの自動付与\JBCQ\\newblock\Jem{情報処理学会第43回全国大会},3\JVOL,\BPGS\211--212.\bibitem[\protect\BCAY{田中,江原}{田中,江原}{1993}]{TanAndEha93}田中英輝\BBACOMMA,江原暉将\BBOP1993\BBCP.\newblock\JBOQ対訳データからの「訳し分け情報」の自動抽出\JBCQ\\newblock\Jem{情報処理学会第47回全国大会},3\JVOL,\BPGS\195--196.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{分類64}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{大野,浜西}{大野,浜西}{1985}]{類語85}大野晋\BBACOMMA,浜西正人\BBOP1985\BBCP.\newblock\Jem{類語国語辞典}.\newblock角川書店.\bibitem[\protect\BCAY{宇津呂,松本,長尾}{宇津呂\Jetal}{1993}]{UtuAndMat93}宇津呂武仁,松本裕治,長尾眞\BBOP1993\BBCP.\newblock\JBOQ二言語対訳コーパスからの動詞の格フレーム獲得\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf34}(5),913--924.\end{thebibliography}\appendix
\section{決定木作成アルゴリズム}
図~10に基本的なアルゴリズムを示す.ステップ2の終了条件は,基本的には訳語が一種類となることである\footnote{この条件では,枝分かれの多くなる格要素が選択されがちになり,各リーフに分類される事例が少なくなってしまう.これは未知データに対する予測力の低い,すなわち過剰学習を起こした木である.このため,ある程度の誤分類を含んだ段階で停止するようになっている.この条件は経験的に決められているが,この問題については本論文ではこれ以上立ち入らない.詳細は\cite{Qui93}を参照のこと.}.ステップ3の「訳語を最も良く分類する格要素を選択する」という部分は以下の手順で決定される.現在の\hspace*{0.1mm}ノード\hspace*{0.1mm}の下\hspace*{0.1mm}にある\hspace*{0.1mm}訳語の\hspace*{0.1mm}集合を\hspace*{0.5mm}$S$\hspace*{0.5mm}と\hspace*{0.1mm}し,\hspace*{0.5mm}そ\hspace*{0.1mm}の\hspace*{0.1mm}大\hspace*{0.1mm}き\hspace*{0.1mm}さ\hspace*{0.5mm}(\hspace*{0.1mm}訳\hspace*{0.1mm}語\hspace*{0.1mm}数\hspace*{0.1mm})\hspace*{0.5mm}を\hspace*{1mm}$\left|S\right|$\hspace*{0.5mm}と\hspace*{0.1mm}す\hspace*{0.1mm}る\hspace*{0.1mm}.\hspace*{0.5mm}$S$に\\は$k$種類\hspace*{0.1mm}の\hspace*{0.1mm}訳\hspace*{0.1mm}語\hspace*{0.1mm}が\hspace*{0.1mm}あ\hspace*{0.1mm}る\hspace*{0.1mm}と\hspace*{0.1mm}し\hspace*{0.1mm},\hspace*{1mm}各\hspace*{0.1mm}訳\hspace*{0.1mm}語\hspace*{0.1mm}の\hspace*{0.1mm}名\hspace*{0.1mm}前\hspace*{0.1mm}を$C_j(1\lej\lek)$で\hspace*{0.1mm}表\hspace*{0.1mm}す\hspace*{0.1mm}.$\mbox{\emfreq}(C_j,S)$は$S$の中で\\の訳語$C_j$の個数を表すとする.そうすると${{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}$は$S$の中での訳語$C_j$の相対頻度を表し$-\log_2\left({{{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}}\right)$はその情報量になる.\hspace*{-0.2mm}ここですべての訳語について情報量を計算してその平\\均を求めると\begin{displaymath}\mbox{\eminfo}(S)=-\sum\limits_{j=1}^k{{{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}}\times\log_2\left({{{\mbox{\emfreq}(C_j,S)}\over{\left|S\right|}}}\right)\end{displaymath}となる.\hspace*{0.2mm}これは現在の訳語分布が持つエントロピー\hspace*{0.1mm}(乱雑さ)\hspace*{0.1mm}を示す.\hspace*{0.2mm}ここである格要素$X$を選択する.そしてその制約(単語)によって$S$が$n$個の部分集合に分割されたとする.$S_i(1\lei\len)$を各部分集合とする.この各部分集合に対して\begin{displaymath}\mbox{\eminfo}_X(S)=\sum\limits_{i=1}^n{{{\left|{S_i}\right|}\over{\left|S\right|}}}\times\mbox{\eminfo}(S_i)\end{displaymath}を計算するとこれは$X$を選択した後にできた部分集合が持つエントロピーの平均を表す.これらから\begin{displaymath}\mbox{\emgain}(X)=\mbox{\eminfo}(S)-\mbox{\eminfo}_X(S)\end{displaymath}を計算する.これは分割前と後のエントロピーの減少,すなわち格要素$X$を選択して分類したことによる訳語の分布の乱雑さの減少を示している.基本的には,これを最大にするような格要素を最適な格要素として選択する\footnote{ただし,エントロピーの減少を利用した場合は,枝分かれの多い木が作成されがちになり過剰学習が発生しやすくなる.このためC4.5では,エントロピーの減少量を枝分かれの数の評価値で割った量を採用している.この詳細についても\cite{Qui93}を参照.}.\medskip\vbox{\begin{center}\begin{tabular}{l|p{0.7\textwidth}|}\cline{2-2}ステップ1&すべての訳語をルートノードに配置する.ステップ2へ\\\cline{2-2}ステップ2&終了条件を満足すれば終わり.そうでなければステップ3へ\\\cline{2-2}ステップ3&分岐ノードである.以下の手順で子を作成.\nl自分の下の訳語を最も良く区別する格要素を1つ選択して現在のノードの名前にする.\nl選択した格要素の制約(単語)に従って訳語を部分集合に分割する.\nlそれぞれの部分集合にノードを付与し,親ノードとの間に制約(単語)の名前を持つリンクを張る.\nl作成したノードすべてに対してステップ2を実行.\\\cline{2-2}\end{tabular}\\\medskip{\small{\bf図~10}\enskipアルゴリズムの概要}\end{center}}
\section{コーパスに付与したラベルの詳細}
\vbox{\begin{center}\small{\bf表~6}\enskip文タイプ(動詞に付与,以下の文型から抽出したことを示す)\\\bigskip\begin{tabular}{ll}AIV&疑問副詞を用いた文\\GV&動名詞句内\\IMV&命令文\\IV&不定詞句内\\PASV&受動態\\PIV&疑問代名詞を用いた文\\PV-ED&過去分詞形(分詞構文/完了形など).受動態は除く\\PV-ING&現在分詞形(分詞構文/進行形など)\\PVQ&YES-NO疑問文\\RV&関係詞節の中\\V&平叙文\end{tabular}\end{center}}\vbox{\begin{center}\small{\bf表~7}\enskip統語単位(動詞以外に付与)\\\medskip\begin{tabular}{ll}AX&助動詞句\\C-ED&補語の過去分詞句\\C-ING&補語の現在分詞句\\CA&補語形容詞句\\D&複合動詞の要素である副詞的小詞に付与\\CG&補語の動名詞句\\CIN&補語の不定詞句(詳しくはCIN:不定詞とCINc:不定詞句本体)\\CN&補語名詞句\\DC&副詞節(詳しくはDC:接続詞とDCc:副詞節本体)\\DD&副詞句\\DP-ED&副詞句としての過去分詞形\\DP-ING&副詞句としての現在分詞形\\INF&不定詞句:副詞的用法(詳しくはINF:不定詞とINFc:不定詞句本体)\\INFR&不定詞句:結果を表す場合(詳しくはINFR:不定詞とINFRc:不定詞句本体)\\OC&目的節(詳しくはOC:接続詞とOCc:目的節本体)\\OG&目的語としての動名詞句\\OIN&目的語としての不定詞句(詳しくはOIN:不定詞とOINc:不定詞句本体)\\ON&直接目的語名詞句\\PN&前置詞句(詳しくはPN:前置詞とPNc:前置詞句本体)目的・副詞的用法\\QN&間接目的語名詞句\\SC&主語節\\SG&主語動名詞句\\SIN&主語の不定詞句(詳しくはSIN:不定詞とSINc:不定詞句本体)\\SN&主語名詞句\end{tabular}\end{center}}\vfill
\section{実験で学習された格要素}
\vbox{\begin{center}\small{\bf表~8}\enskip語形を利用した格フレーム木に採用された格要素(平叙文)\\\medskip\begin{tabular}{ll}COME&D,DD,PN1c,PN,PNc,SN\\GET&C-ED,D,DD,ON,SN\\GIVE&AX,D,DD,ON,SN\\GO&AX,D,DC,DD1,PN,SN\\MAKE&AX,CIN,D,DD,ON,PN\\RUN&D,DD,PN\\TAKE&AX,D,ON,SIN,SN\\\multicolumn{2}{r}{}\\\multicolumn{2}{r}{格要素の数字については4.4節の脚注3を参照.}\end{tabular}\end{center}}\vbox{\begin{center}\small{\bf表~9}\enskip意味コード付き格フレームに採用された格要素(平叙文)\\\medskip\begin{tabular}{ll}\begin{tabular}{ll}\multicolumn{2}{l}{COME}\\4桁&D,DD,DP-ED,INF,PN1,PN,SN\\3桁&CA,D,DC,DD,PN1,PN,PNc,SN\\2桁&D,DD,DP-ED,INF,PN1,PN,SN\\1桁&CA,D,DC,DD,PN1,PN,PNc,SN\\\end{tabular}&\begin{tabular}{ll}\multicolumn{2}{l}{GET}\\4桁&AX,C-ED,D,DD,ON,PN\\3桁&AX,C-ED,D,DD,ON,PN,SN\\2桁&AX,C-ED,D,DD,ON,PN\\1桁&C-ED,D,DD1,DD,ON,PN,SN\\\end{tabular}\\&\\\begin{tabular}{ll}\multicolumn{2}{l}{GIVE}\\4桁&AX,D,DD,ON,QN,SN\\3桁&D,DD,ON,QN,SN\\2桁&AX,D,DD,ON,QN,SN\\1桁&AX,DD,ON,PN,PNc,QN,SN\\\end{tabular}&\begin{tabular}{ll}\multicolumn{2}{l}{GO}\\4桁&CA,D,DC,DD,PN,SN\\3桁&AX,D,DC,DD,PN,PNc,SN\\2桁&CA,D,DC,DD,PN,SN\\1桁&AX,D,DC,DD,PN,PNc,SN\\\end{tabular}\\&\\\begin{tabular}{ll}\multicolumn{2}{l}{MAKE}\\4桁&AX,CIN,D,DC,DD,ON,PNc,SN\\3桁&AX,CIN,D,DD,ON,SN\\2桁&AX,CIN,D,DC,DD,ON,PNc,SN\\1桁&AX,CIN,D,DD,ON,PNc,SN\\\end{tabular}&\begin{tabular}{ll}\multicolumn{2}{l}{RUN}\\4桁&D,PN,SN\\3桁&D,SN\\2桁&D,PN,SN\\1桁&D,SN\\\end{tabular}\\&\\\begin{tabular}{ll}\multicolumn{2}{l}{TAKE}\\4桁&D,ON,SIN,SN\\3桁&AX,D,ON,SIN,SN\\2桁&D,ON,SIN,SN\\1桁&AX,D,ON,PN,PNc,SN\\\end{tabular}&\\\end{tabular}\end{center}}\begin{biography}\biotitle{略歴}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士過程修了.同年,NHK入局.1987年より放送技術研究所にて勤務.機械翻訳,機械学習の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N04-01
|
\section{はじめに}
\label{sec:introduction}複単語表現(MWE)は,統語的もしくは意味的な単位として扱う必要がある,複数の単語からなるまとまりである\cite{Sag:2002}.MWEはその文法的役割に基づいて以下の4種に分類することができる(\tabref{tab:categories_of_mwes}):(1)複合機能語\footnote{本稿では副詞,接続詞,前置詞,限定詞,代名詞,助動詞,to不定詞,感動詞のいずれかとして機能するMWEを複合機能語として定義する.}({\itanumberof},{\iteventhough}),(2)形容詞MWE({\itdeadonone'sfeet},{\itoutofbusiness}),(3)動詞MWE(VMWE)({\itpickup},{\itmakeadecision}),(4)複合名詞({\ittrafficlight}).これ以降,MWEの文法的役割をMWE全体品詞と呼ぶことにする.\begin{table}[b]\caption{複単語表現(MWE)の文法的役割に基づく分類}\label{tab:categories_of_mwes}\input{01table01.tex}\end{table}上記の中でも特に複合機能語は統語的な非構成性を持ちうる.即ち,構成単語の品詞列から複合機能語のMWE全体品詞が予測し難い,というケースがしばしば存在する.たとえば,``byandlarge''は次の文で副詞として機能しているが,構成単語の品詞列(``IN''(前置詞または従属接続詞),``CC''(並列接続詞),``JJ''(形容詞))からこれを予測することは難しい.\begin{quote}{\bf\underline{Byandlarge}},theseeffortshavebornefruit.\end{quote}このようにMWEはしばしば非構成性を持つため,テキストの意味を自動理解する上でMWE認識は重要なタスクである\cite{newman:2012,berend:2011}.また,統語的な依存構造の情報を利用する応用タスクにおいて,MWEを考慮した依存構造(\figref{fig:a_number_of}b)の方が単語ベースの依存構造(\figref{fig:a_number_of}a)よりも好ましいと考えられる.MWEを考慮した依存構造では各MWEが統語的な単位となっているのに対し,単語ベースの依存構造ではMWEの範囲は表現されていない.MWEを考慮した依存構造の利点を享受しうる応用タスクの例としてはイベント抽出が挙げられる\cite{Bjorne2017}.イベント抽出ではイベントトリガーの検出とイベント属性値の同定が必要となるが,イベントトリガーとイベント属性値のいずれもMWEになりうる.また,イベントトリガーとイベント属性値を結ぶ依存構造上の最短経路は,しばしばイベント属性値の同定において特徴量として利用されている\cite{Li:2013}.\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f1.eps}\end{center}\hangcaption{単語ベースの依存構造とMWEを考慮した依存構造の比較.前者ではMWE(``anumberof'')の範囲が表現されていないのに対して,後者ではMWEが依存構造の単位となっている.}\label{fig:a_number_of}\end{figure}上述のように,MWEを考慮した依存構造解析は重要な研究課題である.そこで次にMWEを考慮した依存構造コーパスの構築方法について述べる.伝統的に,英語の依存構造コーパスはPennTreebank\cite{Marcus:1994}などのツリーバンク(句構造コーパス)からの自動変換によって構築されてきた.しかし既存のほとんどの英語ツリーバンクでは,MWEが句構造の部分木になっていることは保証されていない(\figref{fig:not_subtree}).このため,句構造からの自動変換で得られた依存構造において,MWEの構成単語群を単純にマージすることによって,MWEを考慮した依存構造を得られるとは限らない(\figref{fig:a_number_of})\cite{Kato:2016}.本稿ではこれ以降,あるMWEが句構造の部分木になっている時,{\bfMWEが句構造と整合的である},と記述する.コーパス中の全てのMWEの出現が句構造と整合的であるならば,我々はこれを{\bfMWEと整合的な句構造コーパス},と記述する.\citeA{Kato:2016}はOntonotes5.0\cite{Pradhan:2007}をMWEと整合的にすることによって,MWEを考慮した依存構造コーパスを構築した.しかし\citeA{Kato:2016}は複合機能語のみを対象としており,他のMWEは取り扱っていない.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f2.eps}\end{center}\hangcaption{MWEの範囲が句構造のいずれの部分木の範囲とも一致しない場合の例.図中の矩形はMWEの範囲を示す.}\label{fig:not_subtree}\end{figure}そこで本稿では,より多くの種類のMWEをカバーするために,新たに形容詞MWEのアノテーションを行う.その上で,Ontonotesコーパスが複合機能語および形容詞MWEと整合的になるように句構造木を修正する.その後,依存構造への自動変換を行い,MWEを考慮した大規模な依存構造コーパスを構築する(\ref{sec:corpus}章).依存構造に新たに統合するMWEとして,形容詞MWEを選択した理由を以下に述べる.第一に,複合名詞は統語的には構成的であるため,依存構造中の単位として扱うことで得られる利点は限定的である.また,複合名詞は高い生産性を持つため,辞書マッチングによる候補抽出を行うと,十分な網羅率が得られない可能性がある.したがって,複合名詞については,辞書に依存しないコーパスアノテーションが望ましいため,形容詞MWEよりもアノテーションコストが高い.第二に,動詞MWE(VMWE)は一般に非連続な出現を持ちうるため({\it{\bfpick}..{\bfup}}),句構造で部分木としてまとめる事ができないケースが存在する.このため,VMWEを考慮した依存構造コーパスを構築するためには,連続MWEとは異なるアプローチが必要となる.この点は今後の課題とする.また,文の意味理解が必要な応用タスクにおいては,句動詞など,非連続な出現を持ちうるMWE(VMWE)の認識も重要である.VMWEの認識を行う上で,連続MWEを考慮した依存構造,特に,依存構造中の動詞からparticleや直接目的語へのエッジは,有用な特徴量として利用できると期待される.そこで本研究では所与の文に対して,(i)連続MWE(複合機能語と形容詞MWE)を考慮した依存構造,(ii)VMWEの双方を予測する問題に取り組む(\ref{sec:model}章).連続MWEを考慮した依存構造解析のモデルとしては,以下の3者を検討する:(a)連続MWE認識を系列ラベリングとして定式化し,予測した連続MWEを単一ノードにマージした上で依存構造解析を行うパイプラインモデル,(b)連続MWEの範囲と全体品詞を依存関係ラベルとして符号化し(head-initialな依存構造),単語ベースの依存構造解析を行うモデル(Single-task(parser)),そして(c)上記(b)および,連続MWE認識との階層的マルチタスク学習モデル(HMTL)\cite{Sanh:2018}である.HMTLでは,上位タスクのエンコーダーは,下位タスクのエンコーダーからの出力と,単語分散表現などの入力特徴量の双方を受け取る.HMTLを用いる動機を以下に述べる.連続MWEを考慮した依存構造解析は,連続MWE認識と,連続MWEを統語構造の単位とする依存構造解析とに分解できる.したがって,head-initialな依存構造の解析器を単体で学習させるよりも,連続MWE認識を下位タスクとして位置付け,下位タスクのエンコーダーが捉えた特徴量も利用した方が,解析精度が向上すると期待される.Head-initialな依存構造の解析は,Deepbiaffineparser\cite{Dozat:2017}を用いて行い,連続MWE認識器としてはbi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を用いる.本研究でOntonotes上に構築した,複合機能語と形容詞MWEを考慮した依存構造コーパスを用いた実験の結果,連続MWE認識については,パイプラインモデルとHMTLベースのモデルがほぼ同等のF値を示し,Single-task(parser)を,連続MWE認識のF値で約1.7ポイント上回っていることを確認した.依存構造解析については,テストセット全体およびMWEを含む文において,各手法はほぼ同等のラベルなし正解率(UAS)を示した.一方,正解のMWEの先頭単語に着目すると,Single-task(parser)およびHMTLベースのモデルがパイプラインモデルをUASで少なくとも約1.4ポイント上回った.また,VMWE認識については,MWEの構成単語間のギャップを扱えるように拡張したBIO方式\cite{lrec_schneider:2014}を用いて系列ラベリングとして定式化し,(d)bi-LSTM-CNNs-CRFモデル(Single-task(VMWE))および(e)連続MWE認識,連続MWEを考慮した依存構造解析,Single-task(VMWE)のHMTLを検討する.VMWEのデータセットとしては,Ontonotesに対するVMWEアノテーションを用いる\cite{Kato:2018}.実験の結果,VMWE認識において,(e)が(d)に比べて,F値で約1.3ポイント上回ることを確認した.本稿で構築した,複合機能語および形容詞MWEを考慮した依存構造コーパスはLDC2017T16\footnote{https://catalog.ldc.upenn.edu/LDC2017T16}の次版としてリリースする予定である.
\section{MWEを考慮した依存構造コーパスの構築}
\label{sec:corpus}本章では,英語の複合機能語および形容詞MWEを考慮した依存構造コーパスの構築について述べる.本コーパスは,ツリーバンクおよびその上に付与したMWEアノテーションをもとに構築する.ツリーバンクとして,我々はOntonotes5.0\cite{Pradhan:2007}のWallStreetJournal(WSJ)部分を用いる.Ontonotes上のMWEアノテーションについては,\citeA{Shigeto:2013}の複合機能語アノテーションに加えて,今回新たに形容詞MWEアノテーションを行い,両者を併合する.\subsection{複合機能語のアノテーション}\label{sec:func_mwe_annotations}複合機能語については,\citeA{Shigeto:2013}によるPennTreebank\cite{Marcus:1994}のWSJ部分に対するアノテーションを用いる\footnote{本研究で新たに実施した形容詞MWEアノテーションの対象であるOntonotes5.0のWSJ部分は,PennTreebankのWSJ部分に含まれている.また,Shigetoらのアノテーションは固定された表現を対象としているため,複合助動詞(mighthavebeenなど)は含まれていない.複合助動詞のアノテーションについては今後の課題とする.}.\citeA{Shigeto:2013}は以下の4ステップで複合機能語のアノテーションを行っている.\begin{enumerate}\item英語のWiktionary\footnote{https://en.wiktionary.org}から複合機能語を抽出することによって,MWE辞書を構築する.\item辞書マッチングによって,PennTreebank上でMWEの出現候補を収集する.\item辞書中の各MWEについて,句構造木と品詞列をもとに,出現候補を複数のパターンに分類する.\item各MWEの各パターンについて,MWEとして用いられている(MWE用法)のか,あるいは字義通りの意味で用いられている(リテラル用法)のかを分類する.\end{enumerate}\subsection{形容詞MWEのアノテーション}\label{sec:adj_mwe_annotations}形容詞MWEのアノテーションについては以下の3ステップで行った.第一に,英語の\linebreakWiktionaryを用いて形容詞MWEの辞書を構築した.この辞書には2,869種類の形容詞MWEが含まれる.次に,Ontonotes5.0のWSJ部分に対して辞書マッチングを行った.この結果,304種類の形容詞MWEが,少なくとも1回,コーパス中に出現している事が確認された.第三に各MWEが,意味的な非構成性を有する語義を少なくとも一つ持つかどうかに応じて,上述の304種類の形容詞MWEを,後述する2つのグループに分割した.本研究では,Wiktionaryの語釈文の冒頭に``idiomatic''または``figurative''(熟語もしくは比喩)と記載されているならば,当該の語義を,意味的な非構成性を有するものとして扱った.\begin{enumerate}\item意味的な非構成性を有する語義を少なくとも一つ持つMWE(69種類,380事例)については,各候補について語義曖昧性解消(WSD)を行い,意味的な非構成性を有する語義に該当するかどうかに応じて,MWE用法もしくはリテラル用法へと分類した.ここでWSDに関しては以下の方針とした.まず,意味的な非構成性を有する語義が,特徴的な構文パターンに紐付いている場合には,句構造木や,MWE候補の構成単語の品詞列の情報を利用した自動アノテーションを行った\footnote{たとえば``togo''が形容詞MWEとして用いられる場合,この2語のみで動詞句(VP)をなすケースが支配的である([例]:Ihavethreemoreyears{\ittogo}.).このため,句構造木で``togo''を最小被覆する部分木が``togo''以外のトークンを含む場合には,リテラル用法とした.}.また,それ以外の場合には,筆者らによる人手アノテーションを行った.\item意味的な非構成性を有する語義を持たないMWE(235種類,1,034事例)については,以下の2ステップでアノテーションを行った.第一に,各MWE候補が句構造の部分木になっているかどうかに応じて,2つのグループ(後述のケース(A),(B))に分割した.第二に,各MWE候補を統語的な非構成性の有無に応じて,MWE用法もしくはリテラル用法へと分類した.具体的には確率文脈自由文法(PCFG)の,各MWE候補に関する生成規則が以下の条件を満たすならば,当該の候補をMWE用法として注釈した.\begin{equation}\Pr(ADJP\rightarrowt_{1}..t_{n})<0.0008\end{equation}ここで$t_{1}..t_{n}$はMWE候補の構成単語の品詞列である.以下では上記の条件を$Cond_{PCFG}$と表記する.なお,PCFGの生成規則はOntonotes5.0のWSJ部分の学習セット(セクション02-21)から誘導した.\begin{description}\item[(A)]\mbox{}MWE候補が句構造の部分木になっている場合(457事例),以下の手順でアノテーションを実施した.以下では部分木の根の非終端記号をXと呼ぶことにする.\begin{enumerate}\renewcommand{\labelenumii}{}\setlength{\leftskip}{0.5cm}\itemXがADJPの場合(\figref{fig:adjp}),当該のMWE候補が$Cond_{PCFG}$を満たすならばMWE用法(\figref{fig:adjp}(a))とし,満たさないならばリテラル用法とした(\figref{fig:adjp}(b),(c)).\itemXがPPの場合,当該の部分木が形容詞句として機能し,かつ,$Cond_{PCFG}$を満たすならば,MWE用法として注釈した.\itemXがADJPでもPPでもない場合にはリテラル用法とした.\end{enumerate}\vspace{3mm}\item[(B)]\mbox{}MWE候補が句構造のいずれの部分木にも該当しない場合(577事例),当該のMWE候補が形容詞句として機能し,かつ,$Cond_{PCFG}$を満たすならば,MWE用法として注釈した(\figref{fig:mcc_or_crossing}).\end{description}\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f3.eps}\end{center}\hangcaption{MWEの範囲が,ADJPを根とする部分木に対応する例.PCFGの生成規則の確率に基づき,(a)はMWE用法として,(b)および(c)はリテラル用法として注釈する.}\label{fig:adjp}\end{figure}上述した手順により,Ontonotes5.0のWSJ部分に対して,83種類,198事例の形容詞MWEが注釈された.コーパス中に出現している形容詞MWEを構成単語の品詞列で分類したものを\tabref{tab:adj_mwe_pos_ptn}に示す.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f4.eps}\end{center}\hangcaption{MWEの範囲が,句構造の部分木に対応しない場合の例.PCFGの生成規則の確率に基づき,(a)はMWE用法,(b)はリテラル用法として注釈する.}\label{fig:mcc_or_crossing}\vspace{0.5\Cvs}\end{figure}\begin{table}[t]\caption{形容詞MWEの構成単語の品詞列,出現数,および具体例}\label{tab:adj_mwe_pos_ptn}\input{01table02.tex}\vspace{-0.5\Cvs}\end{table}\subsection{MWEを考慮した依存構造コーパスの構築}\label{sec:construction_of_mwe_aware_dep_corpus}本研究では,複合機能語と形容詞MWEを考慮した依存構造コーパスを以下の3ステップで構築した.各手順については次節以降で詳述する.\begin{description}\item[(A)]複合機能語アノテーションと形容詞MWEアノテーションの衝突を解決する.\item[(B)]句構造とMWEアノテーションの衝突を解決する.\item[(C)]句構造から依存構造への変換を行う.\end{description}\subsubsection{異種のMWEアノテーション間の衝突の解決}我々はまず,複合機能語と形容詞MWEのアノテーションが,包含または重複関係にある事例を調査した.その結果,一部の形容詞MWEの範囲が,複合機能語の範囲を包含している事が分かった.たとえば以下の文において,形容詞MWEである``outofbusiness''の範囲は,複合機能語である``outof''の範囲を包含している.\begin{quote}..andputtingunprofitablestate-ownedcompanies{\bf\underline{outofbusiness}}.\end{quote}このような事例においては,より広い範囲のMWEアノテーションを残す形で衝突の解決を行った.この結果得られた,MWEアノテーションのコーパス統計量を\tabref{tab:fixed_mwe_aware_dep_corpus_stat}に示す.\subsubsection{句構造とMWEアノテーションの衝突の解決}我々は次に,句構造とMWEアノテーションの衝突を解決した.あるMWEアノテーションの範囲が,句構造のいずれの部分木にも該当しない場合,本研究では,句構造とMWEアノテーションが\textit{\textbf{衝突している}},と表現する.\begin{table}[b]\caption{Ontonotes5.0のWSJ部分に対して注釈された,複合機能語と形容詞MWEのコーパス統計量}\label{tab:fixed_mwe_aware_dep_corpus_stat}\input{01table03.tex}\vspace{4pt}\smallRBは副詞,JJは形容詞,INは前置詞または従属接続詞,DTは限定詞,PRPは代名詞,TOはto不定詞,WRBはWH副詞,UHは感動詞を示す.なお,to不定詞,WH副詞,感動詞としては,``aboutto'',``whynot'',``noway''の各1種を注釈している.\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-4ia1f5.eps}\end{center}\caption{``Multiplecontiguouschildren''における句構造木の修正.}\label{fig:simple}\end{figure}句構造と複合機能語アノテーションの衝突は\citeA{Kato:2016}が構築したコーパスで,既に解決されている.そこで本研究では,\citeA{Kato:2016}のコーパスにおける,句構造と形容詞MWEアノテーションの衝突を,以下の2種類に分類した上で解決した\cite{Finkel:2009,Kato:2016}.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f6.eps}\end{center}\caption{``Crossingbrackets''における句構造木の修正.}\label{fig:complex}\end{figure}\begin{description}\item[(1)Multiplecontiguouschildren(\figref{fig:simple})]\mbox{}\\MWEの範囲が,複数の連続した部分木に対応する場合\cite{Finkel:2009,Kato:2016},MWEの範囲に相当する部分木群をまとめる中間ノードを挿入し,形容詞MWEであることを表す非終端記号(``MWE\_JJ'')を付与する.\pagebreak\item[(2)Crossingbrackets(\figref{fig:complex})]\mbox{}\\MWEの範囲が,句構造の部分木の範囲と部分重複する場合は,以下の手順でMWEを部分木としてまとめる.このケースの典型的な例として,形容詞MWEの範囲を含む部分木は,PPを根として持ち,子ノードとしてIN(前置詞または従属接続詞)とNP(名詞句)を持つ.このNPノードは,ネストしたNPおよびネストしたPPからなる(\figref{fig:complex}a).この様な事例では,形容詞MWEが,ネストしたPPの直前に出現している.この場合,MWEの範囲に相当する部分木群をまとめる中間ノードを挿入し,(1)と同様,形容詞MWEであることを表す非終端記号を付与する.また,ネストしたPPを,上位のPPの直下に移動させる(\figref{fig:complex}b).\end{description}\subsubsection{句構造から依存構造への変換}最後に,句構造から依存構造への変換を行う,前処理として,MWEの範囲に対応する部分木を,MWE全体品詞を親,MWEの構成単語群をアンダースコアで連結したノード(words-with-spaces)を子とする木に置換する(\figref{fig:merge_tokens_in_MWE}).その後,句構造木をStanfordbasicdependency\cite{deMarneffe:2008}に従う依存構造木に変換する\footnote{句構造から依存構造への変換にはStanfordCoreNLPVer.3.9.1を利用し,変換オプションは-basic\mbox{-keepPunct}-conllx-originalDependenciesとした.オプション一覧については以下のサイトを参照されたい:https://nlp.stanford.edu/software/stanford-dependencies.html.}.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f7.eps}\end{center}\caption{MWEの単一ノードへのマージ.}\label{fig:merge_tokens_in_MWE}\end{figure}
\section{連続MWEを考慮した依存構造解析,およびVMWE認識を行うためのモデル}
\label{sec:model}本章では,連続MWEを考慮した依存構造解析およびVMWE認識を行うモデルアーキテクチャーについて述べる.\subsection{連続MWEを考慮した依存構造解析}\label{sec:fixed_mwe_aware_parsing_model}本研究では,連続MWEを考慮した依存構造解析を行うためのモデルとして,以下の3者を検討する.\begin{enumerate}\renewcommand{\labelenumii}{}\setlength{\leftskip}{0.5cm}\item系列ラベリングベースの認識器が予測した連続MWEを,単一ノードにマージした上で依存構造解析を行うパイプラインモデル(\figref{fig:parser_in_pipeline})\item連続MWEの範囲と全体品詞を依存関係ラベルとして符号化し(head-initialな依存構造(\figref{fig:head_initial_dependency})),単語ベースの依存構造解析を行うモデル\itemHead-initialな依存構造の解析と連続MWE認識の階層的マルチタスク学習\cite{Sanh:2018}(\figref{fig:mtl_simple})\end{enumerate}上記の各モデルにおける入力特徴量としては,単語分散表現,ELMo表現\cite{Peters:2018},文字レベルのCNN\cite{Kim:2016}を用いた単語表現の3者を連結したものを利用する.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f8.eps}\end{center}\hangcaption{パイプラインモデルにおける依存構造解析のアーキテクチャー.系列ラベリングによって予測したMWEの範囲に渡って,隠れ状態ベクトルの平均を求め,後段のMLP(多層パーセプトロン)への入力として用いる.}\label{fig:parser_in_pipeline}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f9.eps}\end{center}\caption{Head-initialな依存構造木の例.MWEの範囲と全体品詞が依存関係ラベルとして符号化されている.}\label{fig:head_initial_dependency}\end{figure}パイプラインモデルにおいて,連続MWE認識についてはbi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を,依存構造解析については\cite{Dozat:2017}のDeepbiaffineparserを用いる.依存構造解析器のエンコーダーには,MWEをマージする前の入力文に相当するベクトル系列を入力する.そして,エンコーダーからの出力系列において,予測した連続MWEの範囲に渡って平均を取ったものをMWEの隠れ状態ベクトルとして利用し,後段の多層パーセプトロン(MLP)への入力に用いる(\figref{fig:parser_in_pipeline}).Deepbiaffineparserからの出力は,予測したMWEをマージした文に対する依存構造である.ただし学習時は,依存構造解析器が正解の木を予測できるように,正解のMWEの範囲を利用する.テスト時は連続MWE認識器が予測したMWEの範囲を利用する.モデル(2)で用いるHead-initialな依存構造木(\figref{fig:head_initial_dependency})では,連続MWEの範囲と全体品詞は依存関係ラベルとして符号化され,MWEの2番目以降の構成単語は,先頭単語を主辞として持つ.モデル(3),すなわち,Head-initialな依存構造の解析と連続MWE認識の階層的マルチタスク学習モデル(HMTL)(\figref{fig:mtl_simple})では,上位タスクのエンコーダーは,下位タスクのエンコーダーからの出力だけでなく,単語分散表現などの入力特徴量も合わせて受け取る(shortcutconnection\cite{Sanh:2018}).HMTLを用いる動機を以下に述べる.連続MWEを考慮した依存構造解析は,連続MWE認識と,連続MWEを統語構造上の単位とする依存構造解析とに分解できる.したがって,head-initialな依存構造の解析器を単体で学習させるよりも,連続MWE認識タスクのエンコーダーが捉えた特徴量も依存構造解析器で利用した方が,解析精度が向上すると期待される.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f10.eps}\end{center}\hangcaption{連続MWE認識と,連続MWEを考慮した依存構造解析の階層的マルチタスク学習のアーキテクチャー.}\label{fig:mtl_simple}\end{figure}\subsection{VMWE認識}VMWE認識については,MWEの構成単語間のギャップを扱えるように拡張したBIO方式\cite{lrec_schneider:2014}を用いて系列ラベリングとして定式化し(\figref{fig:extended_bio}),ベースラインとして,bi-LSTM-CNNs-CRFモデル\cite{Ma:2016}を用いる.\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f11.eps}\end{center}\hangcaption{VMWEの拡張BIO方式によるアノテーション.MWEの構成単語間に別の単語が存在する場合にはoタグ(smalloutsidetag)を付与する.}\label{fig:extended_bio}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-4ia1f12.eps}\end{center}\hangcaption{連続MWE認識,連続MWEを考慮した依存構造解析,およびVMWE認識の階層的マルチタスク学習のアーキテクチャー.下層から順に,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識のエンコーダーをスタックさせたモデルとなっている.}\label{fig:mtl_tandem}\end{figure}また,VMWE認識を行う上で,連続MWEを考慮した依存構造,特に,依存構造中の動詞からparticleや直接目的語へのエッジは,有用な特徴量として利用できると期待される.そこで本稿では,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識の階層的マルチタスク学習(HMTL)の効果を検証する.アーキテクチャーを\figref{fig:mtl_tandem}に示す.このモデルでは,下層から順に,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識のエンコーダーをスタックさせる.これによって,VMWE認識タスクのエンコーダーは,連続MWEを考慮した依存構造解析タスクのエンコーダーが捉えた特徴量を利用できる.また,対照実験として,連続MWE認識とVMWE認識のHMTL,連続MWEを考慮した依存構造解析とVMWE認識のHMTLについても実験を行う.
\section{連続MWEを考慮した依存構造解析,およびVMWE認識を行うモデルの評価実験}
\label{sec:experiments}本章では,連続MWEを考慮した依存構造解析,およびVMWE認識を行うモデルの評価実験について述べる.データセットとしては,本研究でOntonotes5.0(WSJ部分)上に構築した,複合機能語および形容詞MWEを考慮した依存構造コーパス,および,\citeA{Kato:2018}で行われた,Ontonotes5.0(WSJ部分)に対するVMWEアノテーションを用いる.\subsection{実験設定および実装の詳細}データ分割については先行研究に従い,Ontonotes5.0(WSJ部分)のセクション2-21,22,23をそれぞれ学習,開発,テストに利用した.VMWE認識については,上述したVMWEアノテーション\cite{Kato:2018}を用いた.この中には,複数のVMWEのアノテーションが部分重複する文がまれに存在する,これらの文に対するVMWE認識は系列ラベリングとして定式化することが難しいため,該当する文をデータセットから取り除いた上で実験を行った.該当する文は学習,開発,テストのそれぞれで,30,060文中13文,1,336文中0文,1,640文中2文である.階層的マルチタスク学習に関しては\cite{Sanh:2018}に基づき,タスクごとに別々のデータセットを保持する.そして訓練事例数に応じた確率でランダムに選択したタスクのミニバッチを利用して学習を行う.本実験では各タスクの訓練事例数はほぼ同じであるが,上述したように複数のVMWEのアノテーションが部分重複する事例を取り除いている関係上,VMWE認識タスクは,連続MWE認識タスクおよび連続MWEを考慮した依存構造解析タスクに比べ,わずかに訓練事例数が少ない.学習の停止条件は,指定したエポック数に到達するか,開発セットの評価指標が指定したエポック数に渡り改善しないという事象が発生することである(Earlystopping\cite{Prechelt:1998}).Bi-LSTM-CNNs-CRFモデルおよびDeepbiaffineparserはAllenNLPライブラリ\cite{Gardner:2017}をベースとして実装した.単語分散表現の初期値としては,Glove\cite{Pennington:2014}を用いた.ELMo表現を得るためのbi-LSTMネットワークとしては,OneBillionWordBenchmarkコーパス\cite{Chelba:2013}で事前学習されたモデル\footnote{以下のURLから入手した:\url{https://s3-us-west-2.amazonaws.com/allennlp/models/elmo/2x4096_512_2048cnn_2xhighway/elmo_2x4096_512_2048cnn_2xhighway_{options.json|weights.hdf5}}}を用いた.連続MWEおよびVMWEの認識に用いたbi-LSTM-CNNs-CRFモデルにおいて,ドロップアウトはbi-LSTMへの入出力に対して適用した.連続MWEを考慮した依存構造解析に利用したDeepbiaffineparserにおいて,ドロップアウトはbi-LSTMへの入出力と,依存構造の主辞推定および依存関係ラベル推定に関するMLPからの出力に対して適用した.\subsubsection{系列ラベリングの学習における負例のダウンサンプリング}本実験で利用する,連続MWEを考慮した依存構造コーパスにおいて,多くの文は連続MWEを1つも含んでいない.実際,テストセットでは,1,640文中,1,370文において,連続MWEは出現していない.これは,``O''(outside)タグのみからなるラベル系列(負例)に相当する.VMWEについても,データセット中の多くの文でVMWEは出現していない.このようなラベルバイアス\cite{Leevy:2018}の影響を緩和するために,系列ラベリングベースの連続MWE認識およびVMWE認識の学習時に,ミニバッチ中で,負例が正例を文数で上回る場合には,損失関数に寄与する負例の事例数が正例と同一になるように,負例のダウンサンプリングを行った.\subsubsection{ハイパーパラメーターとモデル選択}利用したハイパーパラメーターの一覧を\tabref{tab:hypara}に示す.連続MWE認識のモデル選択は開発セットでのF値に基づいて行った.VMWE認識および,VMWE認識を含む階層的マルチタスク学習(HMTL)については,開発セットでVMWEのF値が最大となるモデルを選択した.連続MWEを考慮した依存構造解析および上記以外のHMTLについては,開発セットでのラベルあり正解率(LAS)が最大となるモデルを選択した.\begin{table}[t]\caption{本実験で利用したハイパーパラメーターの一覧}\label{tab:hypara}\input{01table04.tex}\end{table}\subsubsection{評価方法}連続MWE認識については,MWEの範囲に関するF値(FUM)または,MWEの範囲と全体品詞に関するF値(FTM)を用いて評価を行う.Head-initialな依存構造(\figref{fig:head_initial_dependency})の解析器を用いる場合,予測した依存構造中の依存関係ラベルとして表現されている連続MWEの範囲と全体品詞を予測結果として評価を行う.VMWE認識については,予測したタグ系列から求めた,VMWEの構成単語群に関するFUMを評価指標として用いる.依存構造についてはラベルなし正解率(UAS),ラベルあり正解率(LAS)を用いて評価を行う\footnote{UASおよびLASの計算時には,句読点は評価対象外とする.}.連続MWE認識とのパイプラインモデルの場合,依存構造解析器は,予測したMWEをマージした文に対する依存構造を推定する.そのため,依存構造中のMWE由来のノードをhead-initialに展開した依存構造を正解と比較して,UASおよびLASを算出する.\subsection{実験結果および考察}テストセットに対する実験結果を\tabref{tab:exp-result}に示す.表中のSingletask(parser)はhead-initialな依存構造の解析器を単独で学習させた場合の結果である.また,Pipeline(continuousMWE+parser)は連続MWE認識器が予測したMWEの範囲を単一ノードにマージした上で依存構造解析を行う手法を示す.Pipelineモデルの連続MWE認識の精度は,系列ラベリングに基づく連続MWE認識器に対するものである.次にHMTL(continuousMWE+parser)は連続MWE認識とhead-initialな依存構造解析の階層的マルチタスク学習(HMTL)に対する結果である.一方,Singletask(VMWE)はVMWE認識器を示す.HMTL(continuousMWE+VMWE)は連続MWE認識とVMWE認識のHMTL,HMTL(parser+VMWE)は,連続MWEを考慮した依存構造解析とVMWE認識のHMTL,HMTL(continuousMWE+parser+VMWE)は,連続MWE認識,連続MWEを考慮した依存構造解析,VMWE認識のHMTLに対する結果である.\begin{table}[t]\caption{連続MWEを考慮した依存構造解析とVMWE認識に関する,テストセットでの実験結果}\label{tab:exp-result}\input{01table05.tex}\par\vspace{4pt}\small各数値は5回の独立した実験の平均である.HMTLは階層的マルチタスク学習の略語である.\end{table}まず連続MWE認識については,Pipeline(continuousMWE+parser),HMTL(continuousMWE+parser),HMTL(continuousMWE+VMWE)がほぼ同等のFUMを示し,Singletask(parser)を約1.7ポイント上回った.このことから,連続MWE認識に関しては,依存構造解析器単体でhead-initialな依存構造を予測するよりも,系列ラベリングベースの手法や,連続MWE認識と依存構造解析またはVMWE認識との階層的マルチタスク学習を用いた方が良いことが分かる.次に依存構造解析の結果について述べる.テストセット全体に対しては,各手法はほぼ同等のラベルなし正解率(UAS)を示した.MWEを含む文(1,640文中,270文)に関しても,各手法はほぼ同等のUASを示している.MWEを構成するトークンの総数は,テストセット全体のトークン数の約1.9\%であるため,MWEの内部係り受けや,MWEの内外をつなぐ係り受けの精度が手法間で異なっている場合でも,全体精度には現れにくいという点には注意が必要である.そこで,正解のMWEの先頭トークンに着目すると,HMTL(continuousMWE+parser)はPipeline(continuousMWE+parser)をUASで約1.4ポイント,LASで約1.5ポイント上回った.階層的マルチタスク学習モデルはパイプラインモデルと異なり,連続MWE認識の結果を決定論的に用いるのではなく,連続MWE認識のエンコーダーからの出力を依存構造解析のエンコーダーの入力特徴量として利用している.このため,階層的マルチタスク学習モデルは,連続MWE認識で生じたエラーの影響が上位の依存構造解析に及びにくいという特徴を持っており,上記の実験結果は,この考察と符合している.また,HMTL(continuousMWE+parser)はSingletask(parser)とほぼ同等のUASおよびLASを示している.前者が後者よりも高い連続MWE認識精度を示している点を考慮すると,連続MWE認識と依存構造解析の階層的マルチタスク学習が効果的に機能していると言える.各手法の性能差をさらに詳細に比較するために,正解MWEの先頭単語に関する依存構造解析の精度を,連続MWEの全体品詞別に計算した結果を\tabref{tab:breakdown}に示す.この表を見ると,複合前置詞または複合従属接続詞(MWE-IN)の先頭単語を子に持つ係り受けエッジの推定については,連続MWE認識を含む階層的マルチタスク学習モデルが効果的である事がわかる.一方,複合副詞(MWE-RB)の先頭単語については,Singletask(parser)が最も高いUASを示しており,VMWE認識を含む階層的マルチタスク学習モデル群を少なくとも4.8ポイント上回っている.\begin{table}[b]\hangcaption{連続MWEの全体品詞別に見た,正解MWEの先頭単語に関する依存構造解析のテストセットでの精度}\label{tab:breakdown}\input{01table06.tex}\vspace{4pt}\small全体品詞がPRP(人称代名詞)のケース(出現数:5)については全手法のUAS,LASが100\%のため,省略している.\end{table}最後にVMWE認識については,連続MWE認識タスクおよび連続MWEを考慮した依存構造解析の双方と組み合わせたHMTLを行うことで,FUMが約1.3ポイント向上した.連続MWEの範囲はHead-initialな依存構造木の内部に表現されているため,HMTL(parser+VMWE)とHMTL(continuousMWE+parser+VMWE)とで,モデルに与えている教師情報は同一である.それにも関わらず,VMWE認識のFUMで約1.0ポイントの差が見られたという結果は,間接的に連続MWE認識を行う依存構造解析タスクの学習で得られる特徴量だけでなく,系列ラベリングとして定式化した連続MWE認識タスクの学習によって得られる特徴量も与えた方がVMWE認識にとって有利であることを示唆している.また,HMTL(continuousMWE+VMWE)よりもHMTL(continuousMWE+parser+VMWE)の方がFUMで約2.5ポイント上回っているという結果は,依存構造解析器が捉えた構文情報がVMWE認識にとって有効に働いていることを示唆している.
\section{関連研究}
\label{sec:related_work}まず,MWEを考慮した統語構造コーパスについて述べる.フランス語MWEを考慮した依存構造解析\cite{Candito:2014}では,FrenchTreebank\cite{french_treebank:2003}を依存構造コーパスに変換したデータセットがよく用いられている.一方,英語MWEを考慮した依存構造解析に利用できるデータセットは限られている.\citeA{lrec_schneider:2014}はEnglishWebTreebank\cite{Bies:2012}上にMWEアノテーションを行っているが,MWEの範囲が句構造の部分木に一致することは保証されていない.また,彼らのコーパスは全体で約3,800文と,依存構造解析の学習データとしては大規模とは言えない.これに対して本研究で構築したコーパスは,Ontonotes5.0のWSJ部分全体(約37,000文)をカバーし,かつ,MWEアノテーションが句構造の部分木に一致することを保証している(\ref{sec:construction_of_mwe_aware_dep_corpus}節).次に,MWEを考慮した統語解析についての関連研究を紹介する.まず\citeA{Green:2013}は,MWE専用の非終端記号を用いることによって,句構造解析の中で連続MWE認識を行う手法を提案している.彼らは文脈自由文法もしくは木置換文法に基づく手法を検討している.次に\citeA{Candito:2014}は,依存構造とフランス語MWEの双方を推定するタスクに取り組んでいる.彼女らは,統語的な特異性を持たない(統語的に正則な)MWEについては,head-initialな依存構造(\ref{sec:fixed_mwe_aware_parsing_model}章)ではなく,MWE内部の統語構造を捉えたデータ表現を採用しており,解析時には,統語的に正則なMWEの内部構造も予測するモデルを検討している.彼女らの手法では,MWE認識は依存構造解析の前後,もしくは同時に行われる.第三に\citeA{Constant:2016}は,依存構造と,MWEを含む語彙的な単位(lexicalunit)の集合との同時予測に取り組んでいる.これら2つの構造は語彙要素(lexicalelement),即ち,トークンまたは統語的に非構成的なMWEを共有している.Lexicalunitでは,各MWEは句構造に類似した木として表現されるため,ネストや非連続な出現を考慮することができる.彼らは通常の依存構造解析器を拡張した遷移ベースのシステムを用いており,スタックとバッファ上のノードの,表層形や品詞タグの組み合わせ,および,構築中の部分木や遷移履歴など.古典的な遷移ベースの依存構造解析で用いられている素性を採用している.\citeA{Constant:2016}が統語的に非構成的なMWEを考慮した依存構造と,lexicalunitsの同時予測を取り扱っているのに対し,本研究は,連続MWEを統語的な単位とする依存構造と,非連続な出現を持ちうるVMWEとの同時予測に取り組んでいる.本研究では意味理解が必要なタスクで利用しやすい依存構造を提供するために,統語的に非構成的なMWEに限らず,広範囲の連続MWEを依存構造に統合している.第四に\citeA{Kato:2017,Kato:2016}は,英語のOntonotes上で複合機能語と固有表現の範囲が句構造の部分木と一致することを保証したコーパスを構築し,複合機能語と固有表現を考慮した依存構造解析の実験に利用している.モデルとしては(1)連続MWE認識と依存構造解析のパイプライン,(2)head-initialな依存構造を単語ベースの依存構造解析器で推定するモデルの2つの手法を検討している.\citeA{Kato:2017}は,連続MWE認識を系列ラベリングとして定式化し,ConditionalRandomFields(CRF)\cite{Lafferty:2001}を用いている.また,依存構造解析器としては,Arc-eager型の遷移システム\cite{Nivre:2003}を用いている.本研究は\citeA{Kato:2017}を基礎としているが,より広範囲のMWEをカバーするために,新たに形容詞MWEを注釈し,\citeA{Kato:2017}とは異なり,ニューラルネットワークベースのモデル群を検討している.また連続MWEだけでなく,非連続な出現を持ちうるVMWEの認識にも取り組んでいる.最後にVMWEが注釈された言語資源について述べる.近年,VMWE認識のシェアードタスクがPARSEME\footnote{https://typo.uni-konstanz.de/parseme/}によって開催されており\cite{Ramisch:2018,Savary:2017},アノテーションガイドラインと,約20言語に対する79,326事例のVMWEアノテーションが提供されている.このシェアードタスクに取り組んでいる関連研究としては\citeA{Klyueva:2017,Berk:2018}が挙げられる.まず\citeA{Klyueva:2017}はVMWE認識を系列ラベリングとして定式化し,双方向GRU(gated-recurrentunit)\cite{Cho:2014}を用いて解析を行っている.また,\citeA{Berk:2018}は本研究と同じくbiLSTM-CRFモデルを用いている.
\section{結論}
本研究では,複合機能語と形容詞MWEの双方を考慮した依存構造コーパスをOntonotes上に構築した.また,連続MWEを考慮した依存構造とVMWEの双方を予測する問題に取り組んだ.連続MWEを考慮した依存構造解析では以下の3つのモデルを検討した:(a)連続MWE認識と連続MWEを考慮した依存構造解析のパイプライン,(b)連続MWEの範囲と全体品詞を依存関係ラベルとして符号化した,単語ベースの依存構造解析(Single-task(parser)),そして(c)連続MWE認識とSingle-task(parser)の階層的マルチタスク学習モデル(HMTL)である.実験の結果,連続MWE認識ではパイプラインモデルとHMTLベースのモデルがほぼ同等のF値を示し,Single-task(parser)をF値で約1.7ポイント上回った.依存構造解析については,テストセット全体およびMWEを含む文において,各手法はほぼ同等のラベルなし正解率(UAS)を示した.正解のMWEの先頭単語に着目すると,Single-task(parser)およびHMTLベースのモデルがパイプラインモデルをUASで少なくとも約1.4ポイント上回った.VMWE認識では,系列ラベリングベースの認識器を,連続MWE認識器および連続MWEを考慮した依存構造解析器と階層的マルチタスク学習させることにより,F値が約1.3ポイント向上した.今後の課題としては(1)VMWEや,修飾語を取りうるsemi-fixedMWE\cite{Constant:2016,Morimoto:2016}の依存構造への統合,(2)複合助動詞のOntonotesへのアノテーションおよび依存構造への統合が挙げられる.\acknowledgment本研究の一部はJSTCREST(課題番号:JPMJCR1513)の支援を受けて行いました.また,有益なコメントをくださった査読者の皆様に感謝いたします.英文校正に関し,Enago(www.enago.jp)社に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abeill{\'{e}},Cl{\'{e}}ment,\BBA\Toussenel}{Abeill{\'{e}}et~al.}{2003}]{french_treebank:2003}Abeill{\'{e}},A.,Cl{\'{e}}ment,L.,\BBA\Toussenel,F.\BBOP2003\BBCP.\newblock{\BemBuildingaTreebankforFrench},\mbox{\BPGS\165--187}.\newblockSpringerNetherlands,Dordrecht.\bibitem[\protect\BCAY{Berend}{Berend}{2011}]{berend:2011}Berend,G.\BBOP2011\BBCP.\newblock\BBOQOpinionExpressionMiningbyExploitingKeyphraseExtraction.\BBCQ\\newblockIn{\BemIJCNLP},\mbox{\BPGS\1162--1170}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Berk,Erden,\BBA\G{\"{u}}ng{\"{o}}r}{Berket~al.}{2018}]{Berk:2018}Berk,G.,Erden,B.,\BBA\G{\"{u}}ng{\"{o}}r,T.\BBOP2018\BBCP.\newblock\BBOQDeep-BGTatPARSEMESharedTask2018:BidirectionalLSTM-CRFModelforVerbalMultiwordExpressionIdentification.\BBCQ\\newblockIn{\BemProceedingsoftheJointWorkshoponLinguisticAnnotation,MultiwordExpressionsandConstructions(LAW-MWE-CxG-2018)},\mbox{\BPGS\248--253},SantaFe,NewMexico,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bies,Mott,Warner,\BBA\Kulick}{Bieset~al.}{2012}]{Bies:2012}Bies,A.,Mott,J.,Warner,C.,\BBA\Kulick,S.\BBOP2012\BBCP.\newblock\BBOQEnglishWebTreebank.\BBCQ\\newblock{\BemTechnicalReportLDC2012T13,LinguisticDataConsortium,Philadelphia,Pennsylvania,USA.}\bibitem[\protect\BCAY{Bj{\"{o}}rne,Ginter,\BBA\Salakoski}{Bj{\"{o}}rneet~al.}{2017}]{Bjorne2017}Bj{\"{o}}rne,J.,Ginter,F.,\BBA\Salakoski,T.\BBOP2017\BBCP.\newblock\BBOQEPE2017:TheBiomedicalEventExtractionDownstreamApplication.\BBCQ\\newblockIn{\BemProceedingsofthe2017SharedTaskonExtrinsicParserEvaluation(EPE2017)attheFourthInternationalConferenceonDependencyLinguistics(Depling2017)andthe15thInternationalConferenceonParsingTechnologies(IWPT2017)},\mbox{\BPGS\17--24}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Candito\BBA\Constant}{Candito\BBA\Constant}{2014}]{Candito:2014}Candito,M.\BBACOMMA\\BBA\Constant,M.\BBOP2014\BBCP.\newblock\BBOQStrategiesforContiguousMultiwordExpressionAnalysisandDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\743--753}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chelba,Mikolov,Schuster,Ge,Brants,\BBA\Koehn}{Chelbaet~al.}{2014}]{Chelba:2013}Chelba,C.,Mikolov,T.,Schuster,M.,Ge,Q.,Brants,T.,\BBA\Koehn,P.\BBOP2014\BBCP.\newblock\BBOQOneBillionWordBenchmarkforMeasuringProgressinStatisticalLanguageModeling.\BBCQ\\newblockIn{\BemINTERSPEECH},\mbox{\BPGS\2635--2639}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Bahdanau,\BBA\Bengio}{Choet~al.}{2014}]{Cho:2014}Cho,K.,vanMerrienboer,B.,Bahdanau,D.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQOnthePropertiesofNeuralMachineTranslation:Encoder-DecoderApproaches.\BBCQ\\newblockIn{\BemSSST@EMNLP},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Constant\BBA\Nivre}{Constant\BBA\Nivre}{2016}]{Constant:2016}Constant,M.\BBACOMMA\\BBA\Nivre,J.\BBOP2016\BBCP.\newblock\BBOQATransition-BasedSystemforJointLexicalandSyntacticAnalysis.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\161--171}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dozat\BBA\Manning}{Dozat\BBA\Manning}{2017}]{Dozat:2017}Dozat,T.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2017\BBCP.\newblock\BBOQDeepBiaffineAttentionforNeuralDependencyParsing.\BBCQ\\newblock{\BemArXiv},{\Bbfabs/1611.01734}.\bibitem[\protect\BCAY{Finkel\BBA\Manning}{Finkel\BBA\Manning}{2009}]{Finkel:2009}Finkel,R.~J.\BBACOMMA\\BBA\Manning,D.~C.\BBOP2009\BBCP.\newblock\BBOQJointParsingandNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\326--334}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Gardner,Grus,Neumann,Tafjord,Dasigi,Liu,Peters,Schmitz,\BBA\Zettlemoyer}{Gardneret~al.}{2017}]{Gardner:2017}Gardner,M.,Grus,J.,Neumann,M.,Tafjord,O.,Dasigi,P.,Liu,N.~F.,Peters,M.,Schmitz,M.,\BBA\Zettlemoyer,L.~S.\BBOP2017\BBCP.\newblock\BBOQAllenNLP:ADeepSemanticNaturalLanguageProcessingPlatform.\BBCQ\\newblockIn{\BemProceedingsofWorkshopforNLPOpenSourceSoftware(NLP-OSS)},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Green,de~Marneffe,\BBA\Manning}{Greenet~al.}{2013}]{Green:2013}Green,S.,de~Marneffe,M.-C.,\BBA\Manning,C.~D.\BBOP2013\BBCP.\newblock\BBOQParsingModelsforIdentifyingMultiwordExpressions.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf39}(1),\mbox{\BPGS\195--227}.\bibitem[\protect\BCAY{Kato,Shindo,\BBA\Matsumoto}{Katoet~al.}{2016}]{Kato:2016}Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQConstructionofanEnglishDependencyCorpusIncorporatingCompoundFunctionWords.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation(LREC'16)},\mbox{\BPGS\1667--1671}.\bibitem[\protect\BCAY{Kato,Shindo,\BBA\Matsumoto}{Katoet~al.}{2017}]{Kato:2017}Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQEnglishMultiwordExpression-awareDependencyParsingIncludingNamedEntities.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\427--432},Vancouver,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kato,Shindo,\BBA\Matsumoto}{Katoet~al.}{2018}]{Kato:2018}Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2018\BBCP.\newblock\BBOQConstructionofLarge-scaleEnglishVerbalMultiwordExpressionAnnotatedCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\2495--2499},Miyazaki,Japan.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Kim,Jernite,Sontag,\BBA\Rush}{Kimet~al.}{2016}]{Kim:2016}Kim,Y.,Jernite,Y.,Sontag,D.~A.,\BBA\Rush,A.~M.\BBOP2016\BBCP.\newblock\BBOQCharacter-AwareNeuralLanguageModels.\BBCQ\\newblockIn{\BemAAAI},\mbox{\BPGS\2741--2749}.\bibitem[\protect\BCAY{Klyueva,Doucet,\BBA\Straka}{Klyuevaet~al.}{2017}]{Klyueva:2017}Klyueva,N.,Doucet,A.,\BBA\Straka,M.\BBOP2017\BBCP.\newblock\BBOQNeuralNetworksforMulti-WordExpressionDetection.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponMultiwordExpressions(MWE2017)},\mbox{\BPGS\60--65},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:2001}Lafferty,J.~D.,McCallum,A.,\BBA\Pereira,F.C.~N.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning},ICML'01,\mbox{\BPGS\282--289},SanFrancisco,CA,USA.MorganKaufmannPublishersInc.\bibitem[\protect\BCAY{Leevy,Khoshgoftaar,Bauder,\BBA\Seliya}{Leevyet~al.}{2018}]{Leevy:2018}Leevy,J.~L.,Khoshgoftaar,T.~M.,Bauder,R.~A.,\BBA\Seliya,N.\BBOP2018\BBCP.\newblock\BBOQASurveyonAddressingHigh-classImbalanceinBigData.\BBCQ\\newblock{\BemJournalofBigData},{\Bbf5},\mbox{\BPGS\1--30}.\bibitem[\protect\BCAY{Li,Ji,\BBA\Huang}{Liet~al.}{2013}]{Li:2013}Li,Q.,Ji,H.,\BBA\Huang,L.\BBOP2013\BBCP.\newblock\BBOQJointEventExtractionviaStructuredPredictionwithGlobalFeatures.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\73--82}.\bibitem[\protect\BCAY{Ma\BBA\Hovy}{Ma\BBA\Hovy}{2016}]{Ma:2016}Ma,X.\BBACOMMA\\BBA\Hovy,E.~H.\BBOP2016\BBCP.\newblock\BBOQEnd-to-endSequenceLabelingviaBi-directionalLSTM-CNNs-CRF.\BBCQ\\newblock{\BemArXiv},{\Bbfabs/1603.01354}.\bibitem[\protect\BCAY{Marcus,Kim,Marcinkiewicz,MacIntyre,Bies,Ferguson,Katz,\BBA\Schasberger}{Marcuset~al.}{1994}]{Marcus:1994}Marcus,M.,Kim,G.,Marcinkiewicz,M.~A.,MacIntyre,R.,Bies,A.,Ferguson,M.,Katz,K.,\BBA\Schasberger,B.\BBOP1994\BBCP.\newblock\BBOQThePennTreebank:AnnotatingPredicateArgumentStructure.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponHumanLanguageTechnology},HLT'94,\mbox{\BPGS\114--119},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Marneffe\BBA\Manning}{Marneffe\BBA\Manning}{2008}]{deMarneffe:2008}Marneffe,M.-C.\BBACOMMA\\BBA\Manning,D.~C.\BBOP2008\BBCP.\newblock\BBOQTheStanfordTypedDependenciesRepresentation.\BBCQ\\newblockIn{\BemColing:ProceedingsoftheWorkshoponCross-FrameworkandCross-DomainParserEvaluation},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Morimoto,Yoshimoto,Kato,Shindo,\BBA\Matsumoto}{Morimotoet~al.}{2016}]{Morimoto:2016}Morimoto,A.,Yoshimoto,A.,Kato,A.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQIdentificationofFlexibleMultiwordExpressionswiththeHelpofDependencyStructureAnnotation.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponGrammarandLexicon:InteractionsandInterfaces(GramLex)},\mbox{\BPGS\102--109},Osaka,Japan.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{Newman,Koilada,Lau,\BBA\Baldwin}{Newmanet~al.}{2012}]{newman:2012}Newman,D.,Koilada,N.,Lau,H.~J.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQBayesianTextSegmentationforIndexTermIdentificationandKeyphraseExtraction.\BBCQ\\newblockIn{\BemCOLING},\mbox{\BPGS\2077--2092}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre:2003}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQAnEfficientAlgorithmforProjectiveDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonParsingTechnologies},\mbox{\BPGS\149--160},Nancy,France.\bibitem[\protect\BCAY{Pennington,Socher,\BBA\Manning}{Penningtonet~al.}{2014}]{Pennington:2014}Pennington,J.,Socher,R.,\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQGlove:GlobalVectorsforWordRepresentation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1532--1543},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{Peters:2018}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.~S.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemNAACL-HLT},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Pradhan,Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Pradhanet~al.}{2007}]{Pradhan:2007}Pradhan,S.~S.,Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2007\BBCP.\newblock\BBOQOntoNotes:AUnifiedRelationalSemanticRepresentation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonSemanticComputing},ICSC'07,\mbox{\BPGS\517--526},Washington,DC,USA.IEEEComputerSociety.\bibitem[\protect\BCAY{Prechelt}{Prechelt}{1998}]{Prechelt:1998}Prechelt,L.\BBOP1998\BBCP.\newblock\BBOQEarlyStopping-ButWhen?\BBCQ\\newblockIn{\BemNeuralNetworks:TricksoftheTrade,ThisBookisanOutgrowthofa1996NIPSWorkshop},\mbox{\BPGS\55--69},London,UK,UK.Springer-Verlag.\bibitem[\protect\BCAY{Ramisch\BBA\Cordeiro}{Ramisch\BBA\Cordeiro}{2018}]{Ramisch:2018}Ramisch,C.\BBACOMMA\\BBA\Cordeiro,S.~R.\BBOP2018\BBCP.\newblock\BBOQEdition1.1ofthePARSEMESharedTaskonAutomaticIdentificationofVerbalMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsoftheJointWorkshoponLinguisticAnnotation,MultiwordExpressionsandConstructions(LAW-MWE-CxG-2018)},\mbox{\BPGS\222--240},SantaFe,NewMexico,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sag,Baldwin,Bond,Copestake,\BBA\Flickinger}{Saget~al.}{2002}]{Sag:2002}Sag,I.~A.,Baldwin,T.,Bond,F.,Copestake,A.~A.,\BBA\Flickinger,D.\BBOP2002\BBCP.\newblock\BBOQMultiwordExpressions:APainintheNeckforNLP.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonComputationalLinguisticsandIntelligentTextProcessing},CICLing,\mbox{\BPGS\1--15},London,UK,UK.Springer-Verlag.\bibitem[\protect\BCAY{Sanh,Wolf,\BBA\Ruder}{Sanhet~al.}{2018}]{Sanh:2018}Sanh,V.,Wolf,T.,\BBA\Ruder,S.\BBOP2018\BBCP.\newblock\BBOQAHierarchicalMulti-taskApproachforLearningEmbeddingsfromSemanticTasks.\BBCQ\\newblock{\BemArXiv},{\Bbfabs/1811.06031}.\bibitem[\protect\BCAY{Savary\BBA\Ramisch}{Savary\BBA\Ramisch}{2017}]{Savary:2017}Savary,A.\BBACOMMA\\BBA\Ramisch,C.\BBOP2017\BBCP.\newblock\BBOQThePARSEMESharedTaskonAutomaticIdentificationofVerbalMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponMultiwordExpressions(MWE2017)},\mbox{\BPGS\31--47},Valencia,Spain.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Schneider,Onuffer,Kazour,Danchik,Mordowanec,Conrad,\BBA\Smith}{Schneideret~al.}{2014}]{lrec_schneider:2014}Schneider,N.,Onuffer,S.,Kazour,N.,Danchik,E.,Mordowanec,M.~T.,Conrad,H.,\BBA\Smith,N.~A.\BBOP2014\BBCP.\newblock\BBOQComprehensiveAnnotationofMultiwordExpressionsinaSocialWebCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\455--461},Reykjavik,Iceland.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Shigeto,Azuma,Hisamoto,Kondo,Kose,Sakaguchi,Yoshimoto,Yung,\BBA\Matsumoto}{Shigetoet~al.}{2013}]{Shigeto:2013}Shigeto,Y.,Azuma,A.,Hisamoto,S.,Kondo,S.,Kose,T.,Sakaguchi,K.,Yoshimoto,A.,Yung,F.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQConstructionofEnglishMWEDictionaryanditsApplicationtoPOSTagging.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponMultiwordExpressions},\mbox{\BPGS\139--144},Atlanta,Georgia,USA.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{加藤明彦}{2002年,東京大学理学部物理学科卒業.2004年,同大学院理学系研究科物理学専攻修士課程修了.同年,(株)システム計画研究所入社.2016年,奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院先端科学技術研究科情報科学領域博士後期課程在学中.}\bioauthor{進藤裕之}{2009年,早稲田大学先進理工学研究科博士前期課程修了.同年,NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学先端科学技術研究科助教.これまで,主に自然言語処理や機械学習の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年,京都大学工学部情報工学科卒.1979年,同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年,英国インペリアルカレッジ客員研究員.1985〜87年,(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V21N05-04
|
\section{はじめに\label{sec:introduction}}
線形計画問題において全てもしくは一部の変数が整数値を取る制約を持つ(混合)整数計画問題は,産業や学術の幅広い分野における現実問題を定式化できる汎用的な最適化問題の1つである.近年,整数計画ソルバー(整数計画問題を解くソフトウェア)の進歩は著しく,現在では数千変数から数万変数におよぶ実務上の最適化問題が次々と解決されている.また,商用・非商用を含めて多数の整数計画ソルバーが公開されており,整数計画問題を解くアルゴリズムを知らなくても定式化さえできれば整数計画ソルバーを利用できるようになったため,数理最適化以外の分野においても整数計画ソルバーを利用した研究が急速に普及している.最適化問題は,与えられた制約条件の下で目的関数$f(\bm{x})$の値を最小にする解$\bm{x}$を1つ求める問題であり,線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最も基本的な最適化問題である.通常の線形計画問題では,全ての変数は連続的な実数値を取るが,全ての変数が離散的な整数値のみを取る線形計画問題は整数(線形)計画問題と呼ばれる.また,一部の変数が整数値のみを取る場合は混合整数計画問題,全ての変数が$\{0,1\}$の2値のみを取る場合は0-1整数計画問題と呼ばれる.最近では非線形の問題も含めて整数計画問題と呼ばれる場合が多いが,本論文では線形の問題のみを整数計画問題と呼ぶ.また,混合整数計画問題や0-1整数計画問題も区別せずに整数計画問題と呼ぶ.整数変数は離散的な値を取る事象を表すだけではなく,制約式や状態を切り替えるスイッチとして用いることが可能であり,産業や学術の幅広い分野における現実問題を整数計画問題に定式化できる.組合せ最適化問題は,制約条件を満たす解の集合が組合せ的な構造を持つ最適化問題であり,解が集合,順序,割当て,グラフ,論理値,整数などで記述される場合が多い.原理的に,全ての組合せ最適化問題は整数計画問題に定式化できることが知られており,最近では,整数計画ソルバーの性能向上とも相まって,整数計画ソルバーを用いて組合せ最適化問題を解く事例が増えている.現実問題を線形計画問題や整数計画問題に定式化する際には,線形式のみを用いて目的関数と制約条件を記述する必要がある.こう書くと,扱える現実問題がかなり限定されるように思われる.実際に,線形計画法の生みの親であるDantzigもWisconsin大学で講演をした際に「残念ながら宇宙は線形ではない」と批判を受けている\cite{KonnoH2005}.しかし,正確さを失うことなく現実問題を非線形計画問題に定式化できても最適解を求められない場合も多く,逆に非線形に見える問題でも変数の追加や式の変形により等価な線形計画問題や整数計画問題に変換できる場合も少なくない.そのため,現実問題を線形計画問題や整数計画問題に定式化してその最適解を求めることは,実用的な問題解決の手法として受け入れられている.現在では,整数計画ソルバーは現実問題を解決するための有用な道具として数理最適化以外の分野でも急速に普及している.一方で,数理最適化の専門家ではない利用者にとって,線形式のみを用いて現実問題を記述することは容易な作業ではなく,現実問題を上手く定式化できずに悩んだり,強力だが専門家だけが使う良く分からない手法だと敬遠している利用者も少なくない.そこで,本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説する.なお,最近の整数計画ソルバーはアルゴリズムを知らなくても不自由なく利用できる場合が多いため,本論文では,線形計画法,整数計画法の解法および理論に関する詳しい説明は行わない.線形計画法については\cite{ChvatalV1983,KonnoH1987},整数計画法については\cite{KonnoH1982,NemhauserGL1988,WolseyLA1998}が詳しい.また,線形計画法,整数計画法の発展の歴史については\cite{AchterbergT2013,AshfordR2007,BixbyR2007,KonnoH2005,KonnoH2014,LodiA2010}が詳しい.
\section{線形計画問題と整数計画問題}
\label{sec:fundamental}線形計画問題は,目的関数が線形で制約条件が線形等式や線形不等式で記述される最適化問題であり,一般に以下の標準形で表される.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{j=1}^nc_jx_j&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j\geb_i,&i=1,\dots,m,\\&x_j\ge0,&j=1,\dots,n.\end{array}\end{equation}ここで,$a_{ij}$,$b_i$,$c_j$は定数,$x_j$は変数である.制約式を全て満たす変数値の組を実行可能解と呼び,実行可能解全体の集合を実行可能領域と呼ぶ.実行可能解の中で目的関数の値を最小にする解が最適解であり,このときの目的関数の値を最適値と呼ぶ.線形計画問題は$\min\{\bm{c}^T\bm{x}\mid\bm{A}\bm{x}\ge\bm{b},\bm{x}\ge\bm{0}\}$と記述される場合も多い.ここで,各変数の非負条件$x_j\ge0$を(非負)整数条件$x_j\in\mathbb{Z}_+$($\mathbb{Z}_+$は非負整数集合)に置き換えると整数計画問題となる.線形計画問題では効率の良いアルゴリズムが開発されており,一番最初に単体法\footnote{1965年にNelderとMeadが非線形計画問題に対して単体法と呼ばれるアルゴリズムを提案しているが,名前が同じというだけで全く異なるアルゴリズムである.}が1947年にDantzigによって提案されている.単体法は実用的には優れた性能を持つが,理論的には多項式時間アルゴリズムではない.その後,初めての多項式時間アルゴリズムとなる楕円体法が1979年にKhachiyanに,さらに実用的にも高速な内点法が1984年にKarmarkarによって提案されている.現在では,単体法と内点法が実用的なアルゴリズムとして広く使われている.性能では内点法の方が優れているが,単体法は制約式や変数を追加して解き直す再最適化を効率良く実行できるため,単体法を用いた再最適化は整数計画問題を解く上で重要な役割を担っている.整数計画問題は実行可能解の数が有限となる場合が多く,理論上は全ての実行可能解を列挙すれば最適解が求められる.しかし,この種の列挙法は問題の規模の増加とともに走査する解の個数が急激に増加(組合せ的爆発)するため実用的ではない.整数計画問題はNP困難と呼ばれる問題のクラスに属することが計算の複雑さの理論により知られている.詳しい説明は省略するが,NP困難問題の最適解を求めようとすると,最悪の場合に全ての実行可能解を列挙するのと本質的に変わらない計算時間が必要であろうと予想されている\footnote{この予想が正しいかどうかは未解決で$\textnormal{P}\not=\textnormal{NP}$予想として有名である.}.整数計画問題では,分枝限定法と切除平面法が代表的なアルゴリズムとして知られている.分枝限定法は,直接解くことが難しい問題をいくつかの小規模な部分問題に分解する分枝操作と,生成された部分問題のうち何らかの理由で最適解が得られないと判定されたものを除く限定操作の2つの操作を繰返し適用するアルゴリズムで,整数計画問題以外にも多くの最適化問題で使われている.整数計画問題に対する分枝限定法は1960年にLandとDoigによって提案されており,暫定解(これまでの探索で得られた最良の実行可能解)から得られる最適値の上界値と,線形計画緩和問題(各変数の整数条件を緩和して得られる線形計画問題)を解いて得られる最適値の下界値を利用した限定操作で無駄な探索を省くアルゴリズムである.切除平面法は1958年にGomoryによって提案されており,線形計画緩和問題から始めて,切除平面(実行可能な整数解を残しつつ線形計画緩和問題の最適解を除去する制約式)を組織的に生成し,線形計画緩和問題に逐次追加することで最終的に整数最適解を得るアルゴリズムである.切除平面法は単体では実用的なアルゴリズムではなく,現在では,分枝限定法の内部で切除平面を逐次追加し,変数値の固定や部分問題に対する下界値の改善を実現する分枝切除法が大きな成功を収めている.
\section{整数計画問題の応用事例}
\label{sec:application}これまで,産業や学術の幅広い分野における多くの現実問題が整数計画問題に定式化されてきた.ここでは自然言語処理の応用事例として文書の自動要約\cite{FilatovaE2004,GillickD2009,HiraoT2009,McDonaldR2007,NishikawaH2013,TakamuraH2008}と文の対応付け\cite{NishinoM2013,NishinoM2014}を紹介する.\subsection{文書の自動要約}\label{sec:document-summarization}文書の自動要約は与えられた単数もしくは複数の文書から要約を生成する問題であり,与えられた文書から必要な文の組合せを選択する手法が知られている.文書要約の問題には,1つだけの文書が与えられる単一文書の要約と,同じトピックについて記述した複数の文書が与えられる複数文書の要約がある\footnote{単一の文書に類似した内容の文は含まれないと仮定する.}.まず,単一文書の要約を考える.$m$個の概念と$n$個の文と要約長$L$が与えられる.概念$i$の重要度を$w_i$($>0$),文$j$の長さを$l_j$,文$j$に含まれる概念$i$の数を$a_{ij}\in\{0,1\}$と表す.$x_j$は変数で,文$j$が要約に含まれるならば$x_j=1$,そうでなければ$x_j=0$の値を取る.文$j$に含まれる概念の重要度の合計$p_j=\sum_{i=1}^mw_ia_{ij}$はあらかじめ計算できるので,要約長$L$を超えない範囲で重要度の合計が最大となる要約を構成する問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{j=1}^np_jx_j&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nl_jx_j\leL,\\&x_j\in\{0,1\},&j=1,\dots,n.\end{array}\end{equation}この問題はナップサック問題と呼ばれるNP困難のクラスに属する組合せ最適化問題であるが,動的計画法や分枝限定法に基づく効率良いアルゴリズムが知られている\cite{KellererH2004,KorteB2012}.次に複数文書の要約を考える.複数の文書に類似した内容の文が含まれる場合はこれらの文が同時に選択され,生成された要約の中に類似した内容が繰返し現れる恐れがある.そこで,概念$i$が要約に含まれているならば$z_i=1$,そうでなければ$z_i=0$の値を取る変数$z_i$を導入すると以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{i=1}^mw_iz_i&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j\gez_i,&i=1,\dots,m,\\&\displaystyle\sum_{j=1}^nl_jx_j\leL,\\&x_j\in\{0,1\},&j=1,\dots,n,\\&z_i\in\{0,1\},&i=1,\dots,m.\end{array}\end{equation}1番目の制約条件は,左辺の値に関わらず$z_i=0$の値を取れば必ず制約条件が満たされるため,最適解において概念$i$を含む文$j$が要約に含まれているにも関わらず$z_i=0$の値を取る場合があるように思われる.しかし,目的関数は最大化で各変数$z_i$の係数$w_i$は正の値であり,このような場合には$z_i=1$の値を取れば改善解が得られるため,最適解では概念$i$を含む文$j$が要約に含まれていれば必ず$z_i=1$の値を取ることが分かる.この定式化では,重要度の高い概念が要約の中に繰返し現れても目的関数は増加しないので,冗長性を自然に抑えることができる.一方で,この問題は(ナップサック制約付き)最大被覆問題と呼ばれるNP困難のクラスに属する組合せ最適化問題であり,大規模な問題例では最適解を効率良く求めることは難しい.複数文書の要約を求める問題は,この他にも施設配置問題\cite{TakamuraH2010}や冗長制約付きナップサック問題\cite{NishikawaH2013}などに定式化されている.\subsection{文の対応付け}\label{sec:alighnment}統計的機械翻訳では,対訳コーパスにおいて原言語文と目的言語文の対応付けが与えられている前提の下で処理が適用される.しかし,実際の対訳コーパスでは,文書同士の対応付けは行われていても,それらの文書に含まれる文同士の対応付けは行われていない場合が多い.そのため,対訳文書の間で文同士の正しい対応付けを求めることは,統計的機械翻訳の精度を上げるための重要な前処理となる.\cite{MaX2006,MooreRC2002}などは,対訳文書間で対応する文の出現順序が大きく入れ替わらないという前提で動的計画法に基づく文の対応付けを提案している.すなわち,対訳文書の組$F$,$E$が与えられたとき,$F$の$i$番目の文と$E$の$j$番目の文が対応するならば,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j$番目の近くにあるという前提で文の対応付けを行っている.しかし,文の出現順序が大きく入れ替わらないという前提はどの文書でも成り立つ性質ではない.まず,文書$F$と$E$の任意の文を出現順序に関わらず自由に対応付けても良い場合を考える.$n_f$個の文を含む文書$F$と$n_e$個の文を含む文書$E$が与えられる.文書$F$の$i$番目の文と文書$E$の$j$番目の文が対応付けられたときのスコアを$s_{ij}$と表す.$x_{ij}$は変数で,文書$F$の$i$番目の文と文書$E$の$j$番目の文が対応付けられるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,文書$F$の文は文書$E$の高々1つの文にしか対応付けられない(その逆も同様)という制約を課すと,スコアの合計が最大となる文の対応付けを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{i=1}^{n_f}\sum_{j=1}^{n_e}s_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^{n_e}x_{ij}\le1,&i=1,\dots,n_f,\\&\displaystyle\sum_{i=1}^{n_f}x_{ij}\le1,&j=1,\dotsn_e,\\&x_{ij}\in\{0,1\},&i=1,\dots,n_f,\;j=1,\dots,n_e.\end{array}\end{equation}この問題は(2部グラフの)最大重みマッチング問題と呼ばれる組合せ最適化問題であり,ハンガリー法など効率良いアルゴリズムが知られている\cite{KorteB2012}.文書$F$と$E$の任意の文を対応付けても良いという前提では,それぞれの文書において前後の文との繋がりを無視した対応付けを行うことになるため,段落のような文の系列(連続する文のまとまり)を単位として順序が入れ替わる場合には正しい順序付けができない可能性が高い.そこで,図\ref{fig:alignment}に示すように,文書$F$と文書$E$をそれぞれ同数の文の系列に分割し,文の系列について一対一の対応付けを求めることを考える.文書$F$の$i$番目から$j$番目までの文の系列を$F[i,j]$($1\lei\lej\len_f$),文書$E$の$k$番目から$l$番目までの文の系列を$E[k,l]$($1\lek\lel\len_e$)とする.文$p\inF[i,j]$の文$q\inE[k,l]$の対応付けでは出現順序の入れ替わりはないとすると,\cite{MooreRC2002}の手法を適用することで文$p\inF[i,j]$と文$q\inE[k,l]$の最適な対応付けとスコアの合計$w_{ijkl}$を計算できる.考えられ得る全ての文の系列の組$(F[i,j],E[k,l])$に対して,それらの系列に含まれる文同士の最適な対応付けとスコアの合計$w_{ijkl}$をあらかじめ計算する.$x_{ijkl}$は変数で,文の系列$F[i,j]$と$E[k,l]$が対応付けられると$x_{ijkl}=1$,そうでなければ$x_{ijkl}=0$の値を取る.各文$p\inF$,$q\inE$が対応付けられたいずれかの文の系列$F[i,j]$,$E[k,l]$にちょうど1回ずつ含まれるという制約条件を用いて文の系列を一対一に対応付ける.このとき,スコアの合計が最大となる文の系列の対応付けを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{1\lei\lej\len_f}\sum_{1\lek\lel\len_e}w_{ijkl}x_{ijkl}&\\\textnormal{subjectto}&\displaystyle\sum_{i\lep\lej}\sum_{1\lek\lel\len_e}x_{ijkl}=1,&p=1,\dots,n_f,\\&\displaystyle\sum_{1\lei\lej\len_f}\sum_{k\leq\lel}x_{ijkl}=1,&q=1,\dots,n_e,\\&x_{ijkl}\in\{0,1\},&1\lei\lej\len_f,\;1\lek\lel\len_e.\end{array}\end{equation}この問題は集合分割問題と呼ばれるNP困難のクラスに属する組合せ最適化問題であり,大規模な問題例では最適解を効率良く求めることは難しい.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f1.eps}\end{center}\caption{出現順序の入れ替わりを考慮した文の系列の対応付け}\label{fig:alignment}\vspace{-0.5\Cvs}\end{figure}統計的機械翻訳では,この他にもフレーズ(連続する単語列)の対応付けを求める問題が整数計画問題に定式化されている\cite{DeNeroJ2008,KoshikawaM2010}.
\section{整数計画ソルバーを利用する}
\label{sec:solver}前節で紹介したように,実際に多くの現実問題が整数計画問題として定式化できる.一方で,整数計画問題を含む多くの組合せ最適化問題はNP困難のクラスに属することが計算の複雑さの理論により明らかにされている.こう書くと,多くの現実問題に対して最適解を求めることは非常に困難であるように思われるが,計算の複雑さが示す結果の多くは「最悪の場合」であり,全ての入力データに対して最適解を求めることは困難でも,多くの入力データに対して現実的な計算時間で最適解を求められる問題は少なくない.また,整数計画ソルバーは探索中に得られた暫定解を保持しているので,与えられた計算時間内に最適解が求められなくても,精度の高い実行可能解が求まれば,利用者によっては十分に満足できる場合も多く,整数計画ソルバーはそのような目的にも使われる.\begin{table}[b]\caption{代表的な整数計画ソルバー}\label{tab:solver}\input{04table01.txt}\end{table}表\ref{tab:solver}に示すように,現在では,商用・非商用を含めて多数の整数計画ソルバーが利用可能である\cite{AtamturkA2005,LinderothJT2006,FourerR2013,MittelmannHD-Web}.商用ソルバーを利用するためには,数十万〜数百万円のライセンス料金が必要となる場合が多いが,無償の試用ライセンスや無償〜数十万円のアカデミックライセンスが用意されている場合も少なくない.一般的に,非商用ソルバーより商用ソルバーの方が性能は高いが,実際には商用ソルバーの中でもかなりの性能差がある.整数計画ソルバーのベンチマーク問題例に対する最新の実験結果\cite{MittelmannHD-Web}によると,商用ソルバーでは,先に挙げたXpressOptimizationSuite,GurobiOptimizer,CPLEXOptimizationStudioの3つが,非商用ソルバーではSCIPが最も性能が高いようである.整数計画ソルバーを選ぶ際には,性能以外にも,扱える問題の種類\footnote{最近では非線形の整数計画問題を扱えるソルバーも増えている.},扱える問題の記述形式,インターフェースなどを考慮して,各自の目的に合った整数計画ソルバーを選ぶことが望ましい.利用可能な整数計画ソルバーについては\cite{FourerR2013,MittelmannHD-Web}が詳しい.まず,整数計画ソルバーを用いて以下の問題例を解くことを考える.\begin{equation}\label{eq:sample}\begin{array}{ll}\textnormal{maximize}&2x_1+3x_2\\\textnormal{subjectto}&2x_1+x_2\le10,\\&3x_1+6x_2\le40,\\&x_1,x_2\in\mathbb{Z}_+.\end{array}\end{equation}整数計画ソルバーの主な利用法には,(1)コマンドラインインターフェースを通じてソルバーを実行する方法,(2)最適化モデリングツールを通じてソルバーを実行する方法,(3)他のソフトウェアからAPI\footnote{APIは``ApplicationProgrammingInterface''の略.}を通じてソルバーを実行する方法の3通りがある.\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f2.eps}\end{center}\caption{問題例(\ref{eq:sample})のLP形式による記述}\label{fig:lp-sample}\end{figure}1番目は,問題例をLP形式\footnote{LPは``LinearProgramming''の略.},MPS形式\footnote{MPSは``MathematicalProgrammingSystem''の略.}などで記述された入力ファイルを用意して整数計画ソルバーを実行する方法である.図\ref{fig:lp-sample}は問題例(\ref{eq:sample})をLP形式で記述したものである.目的関数や制約条件の部分は,数式をほぼそのまま記述しているだけである\footnote{図\ref{fig:lp-sample}では非負制約を記述しているが,LP形式では何も指定しなければ各変数$x_j$の非負制約$x_j\ge0$は自動的に設定される.}.\texttt{maximize},\texttt{subjectto},\texttt{bounds},\texttt{general},\texttt{end}は予約語で,変数値の上下限や整数制約などをこれらの予約語を用いて記述している.LP形式は文法が平易で可読性が高く,多くの整数計画ソルバーが対応している.図\ref{fig:mps-sample}は問題例(\ref{eq:sample})をMPS形式で記述したものである.MPS形式は1960年代にIBMによって導入された形式で,現在も標準的に使われているが可読性は低い.LP形式やMPS形式はプログラミング言語の配列のように変数をまとめて扱う記述ができない.つまり,LP形式やMPS形式で$\sum_{j=1}^{100}x_j\le3$の数式を記述するには,\texttt{x1+x2+(中略)+x100<=3}と書くしか方法がない.よって,大きな問題例を記述する場合には,適当なプログラム言語を用いてLP形式やMPS形式のファイルを生成するプログラムを作成する必要がある.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f3.eps}\end{center}\caption{問題例(\ref{eq:sample})のMPS形式による記述}\label{fig:mps-sample}\end{figure}2番目は,最適化モデリングツールが提供するモデリング言語で問題例を記述し,最適化モデリングツールを通じて整数計画ソルバーを実行する方法である.商用の最適化モデリングツールが提供するモデリング言語では,AIMMS,AMPL,GAMSなど,非商用では,MathProg,ZIMPLなどが知られている.図\ref{fig:mod-sample}は問題例(\ref{eq:sample})をMathProg形式で記述したものである.多くのモデリング言語では,モデル部分とデータ部分を分離して記述できるため,数式を直感的にモデルに書き換えることが可能である.例えば,$\sum_{j=1}^{100}x_j\le3$の数式は,\texttt{sum(iin1..100)(x[i])<=3}と記述できる.現実問題を最適化問題に定式化できればすぐに整数計画ソルバーを利用できるので効率良いプロトタイピングが可能となる.一方で,最適化モデリングツールの購入とモデリング言語の習得が必要で,1番目の方法に比べると汎用性に欠ける.3番目は,整数計画ソルバーが提供するC,C++,Java,Python,Matlab,Excelなどのライブラリやプラグインを通じて整数計画ソルバーを実行する方法である.部分問題を解くためのサブルーチンとして整数計画ソルバーを利用する場合や,整数計画ソルバーの挙動を細かく制御したい場合はこの方法が効率的である.ただし,整数計画ソルバーやそのバージョン毎にライブラリやプラグインの仕様が異なるため汎用性と保守性に欠ける.最適化ソルバーの利用者にとって,与えられた問題例がどの程度の計算時間で解けるかを事前に見積ることは重要である.線形計画問題では,一部の特殊な問題を除けば変数や制約式の数を計算時間の目安にして差し支えない場合が多い.一方で,整数計画問題では,\cite{KochT2011}で報告されているように,10万変数,10万制約式で最適解を効率良く求められる問題例がある一方で,1,000変数程度でも最適解を求められない問題例があり,変数や制約式の数だけでは計算時間を見積れないことが知られている.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f4.eps}\end{center}\caption{問題例(\ref{eq:sample})のMathProg形式による記述}\label{fig:mod-sample}\end{figure}整数計画ソルバーの現状や利用法については\cite{BertholdT2012,FujieT2011,MiyashiroR-Web,MiyashiroR2012,MiyashiroR2006}が詳しい.
\section{線形計画問題に定式化する}
\label{sec:lp-model}線形計画問題では,数百万変数,数百万制約式の大規模な問題例でも現実的な計算時間で最適解を求められるが,線形式のみを用いて目的関数と制約条件を記述する必要があるため,数理最適化の専門家ではない利用者にとって,現実問題を線形計画問題に定式化することは容易な作業ではない.しかし,一見すると非線形計画問題に見える問題も変数の追加や式の変形により等価な線形計画問題に変換できる場合は少なくない.現実問題を線形計画問題を定式化する際には,与えられた現実問題を線形計画問題で正確に記述できるか,または満足できる程度に近似できるか良く見極める必要がある.ここでは,一見すると非線形に見える最適化問題を線形計画問題に定式化するいくつかの方法を紹介する.\subsection{凸関数最小化問題}\label{sec:convex-piecewise-liear}凸関数最小化問題は線形計画問題に近似できる.ここでは,図\ref{fig:nonlinear1}に示すように,1変数の凸関数$f(x)$を区分線形関数$g(x)$で近似する方法を考える.凸関数$f(x)$上の$m$個の点$(a_1,f(a_1)),\allowbreak\dots,\allowbreak(a_m,f(a_m))$を適当に選んで線分で繋ぐと区分線形関数$g(x)$が得られる.この区分線形関数$g(x)$は凸関数なので,各区分を表す線形関数を用いて,\begin{equation}g(x)=\max_{i=1,\dots,m-1}\left\{\displaystyle\frac{f(a_{i+1})-f(a_i)}{a_{i+1}-a_i}(x-a_i)+f(a_i)\right\},\quada_1\lex\lea_m,\end{equation}と記述できる.このとき,各区分を表す線形関数の最大値を表す変数$z$を用意すると,区分線形関数$g(x)$の最小化問題は以下の線形計画問題に定式化できる.\begin{equation}\label{eq:nonlinear1}\begin{array}{ll}\textnormal{minimize}&z\\\textnormal{subjectto}&\displaystyle\frac{f(a_{i+1})-f(a_i)}{a_{i+1}-a_i}(x-a_i)+f(a_i)\lez,\quadi=1,\dots,m-1,\\&a_1\lex\lea_m.\end{array}\end{equation}多変数の凸関数最小化問題でも,直線の集合の代わりに超平面の集合で凸関数を近似すれば同様に定式化できる.\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f5.eps}\end{center}\caption{凸関数の区分線形関数による近似}\label{fig:nonlinear1}\end{figure}\subsection{連立1次方程式の近似解}\label{sec:linear-equations}全ての制約式を同時には満たせない連立1次方程式に対して,できる限り多くの制約式を満たす近似解を求める問題は目標計画法と呼ばれる\cite{CharnesA1961}.連立1次方程式\begin{equation}\sum_{j=1}^na_{ij}x_j=b_i,\quadi=1,\dots,m,\end{equation}に対して,その誤差\begin{equation}z_i=\left|b_i-\sum_{j=1}^na_{ij}x_j^{\ast}\right|,\quadi=1,\dots,m,\end{equation}をできる限り小さくする近似解$\bm{x}^{\ast}=(x_1^{\ast},\dots,x_n^{\ast})$を求める問題を考える.このとき,平均2乗誤差$\frac{1}{m}\sum_{i=1}^mz_i^2$,平均誤差$\frac{1}{m}\sum_{i=1}^mz_i$,最悪誤差$\max_{i=1,\dots,m}z_i$などが評価基準として考えられる.これらの評価基準は,それぞれ誤差ベクトル$\bm{z}=(z_1,\dots,z_m)$の$L_2$ノルム,$L_1$ノルム,$L_\infty$ノルムを最小化する近似解$\bm{x}^{\ast}$を求めることに対応する.応用事例では,誤差の分布がガウス分布に近いことを前提に,平均2乗誤差を評価基準として最小2乗法を用いて近似解を求める場合が多い.しかし,実際には外れ値が多いなど誤差の分布がガウス分布と全く異なる場合も少なくない.このような場合は,外れ値の影響を受けにくい平均誤差や最悪誤差を評価基準として近似解を求める方法が考えられる.平均誤差を最小化する近似解$\bm{x}^{\ast}$を求める問題は,制約式を持たない以下の最適化問題に定式化できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\sum_{i=1}^m\left|b_i-\sum_{j=1}^na_{ij}x_j\right|.\end{array}\end{equation}これは一見しただけでは線形計画問題に見えないが以下の線形計画問題に変換できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^mz_i&\\\textnormal{subjectto}&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\ge-z_i,&i=1,\dots,m,\\&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\lez_i,&i=1,\dots,m,\\&z_i\ge0,&i=1,\dots,m.\end{array}\end{equation}この方法で線形回帰問題を解くこともできる.$m$個のデータ$(\bm{x}_1,y_1),\dots,(\bm{x}_m,y_m)$が与えられる.これを$n$個の関数$\{\phi_1(\bm{x}_i),\dots,\phi_n(\bm{x}_i)\}$の線形結合を用いて$y(\bm{x}_i)\approxw_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)$と近似する問題を考える.各データ$(\bm{x}_i,y_i)$に対する平均誤差を最小にするパラメータ$w_0,\dots,w_n$を求める問題は以下の最適化問題に定式化できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\sum_{i=1}^m\Bigl|y_i-\left(w_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)\right)\Bigr|\end{array}\end{equation}$i$番目のデータに対する誤差を表す変数$z_i$を用意すると以下の線形計画問題\footnote{$\bm{x}_i$は与えられたデータなので$\phi_1(\bm{x}_i),\dots,\phi_n(\bm{x}_i)$は定数となる.}に定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^mz_i&\\\textnormal{subjectto}&y_i-\left(w_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)\right)\ge-z_i,&i=1,\dots,m,\\&y_i-\left(w_0+w_1\phi_1(\bm{x}_i)+\dots+w_n\phi_n(\bm{x}_i)\right)\lez_i,&i=1,\dots,m,\\&z_i\ge0,&i=1,\dots,m.\end{array}\end{equation}最悪誤差を最小化する近似解$\bm{x}^{\ast}$を求める問題も制約式を持たない以下の最適化問題に定式化できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\max_{i=1,\dots,m}\left|b_i-\sum_{j=1}^na_{ij}x_j\right|.\end{array}\end{equation}これも一見すると線形計画問題に見えないが以下の線形計画問題に変換できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&z&\\\textnormal{subjectto}&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\ge-z,&i=1,\dots,m,\\&b_i-\displaystyle\sum_{j=1}^na_{ij}x_j\lez,&i=1,\dots,m,\\&z\ge0.&\end{array}\end{equation}この方法で$k$個の目的関数$\sum_{j=1}^nc_{1j}x_j,\allowbreak\sum_{j=1}^nc_{2j}x_j,\allowbreak\dots,\allowbreak\sum_{j=1}^nc_{kj}x_j$を同時に最小化する多目的最適化問題も解くことができる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\left\{\sum_{j=1}^nc_{1j}x_j,\dots,\sum_{j=1}^nc_{kj}x_j\right\}&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j\geb_i,&i=1,\dots,m,\\&x_j\ge0,&j=1,\dots,n.\end{array}\end{equation}まず,これらの目的関数の線形和を最小化する定式化が考えられる.しかし,いくつかの目的関数が極端に大きな値となる解が求まってしまう場合が少なくないため,全ての目的関数をバランス良く最小化することは容易ではない.そこで,これらの目的関数の最大値を最小化する定式化を考える.新たに目的関数の最大値を表す変数$z$を導入すると,この問題は以下の線形計画問題に変換できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&z&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nc_{hj}x_j\lez,&h=1,\dots,k,\\&\displaystyle\sum_{j=1}^na_{ij}x_j\geb_i,&i=1,\dots,m,\\&x_j\ge0,&j=1,\dots,n.\end{array}\end{equation}\subsection{比率の最小化}\label{sec:ratio}2つの関数の比を目的関数に持つ最適化問題は分数計画問題と呼ばれる.以下の2つの線形関数の比を目的関数に持つ分数計画問題を考える.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\frac{\displaystyle\sum_{j=1}^nc_jx_j}{\displaystyle\sum_{j=1}^nd_jx_j}\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}x_j=b_i,\quadi=1,\dots,m.\\\end{array}\end{equation}ただし,$\sum_{j=1}^nd_jx_j>0$とする.ここで,新たな変数$t=1/\sum_{j=1}^nd_jx_j$と$y_j=tx_j$($j=1,\dots,n$)を導入すると,この問題は以下の線形計画問題に変換できる.\begin{equation}\begin{array}{ll}\textnormal{minimize}&\displaystyle\sum_{j=1}^nc_jy_j\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^na_{ij}y_j-b_it=0,\quadi=1,\dots,m,\\&\displaystyle\sum_{j=1}^nd_jy_j=1.\end{array}\end{equation}この変換は$\sum_{j=1}^nd_jx_j$が常に同じ符号で0にならない場合のみ成立するので,必要があれば$\sum_{j=1}^nd_jx_j\ge\varepsilon$($\varepsilon$は十分に小さな正の定数)などの制約式を追加すれば良い.
\section{整数計画問題に定式化する}
\label{sec:mip-model}整数計画問題は整数変数を含む線形計画問題であるが,線形計画問題の方が整数計画問題よりもはるかに解き易い事実を考慮すれば,現実問題において離散値を取る量を決定するという理由だけで安易に整数変数を用いるべきではない.例えば,自動車や機械部品の生産数を決定する問題を整数計画問題に定式化することは必ずしも適切ではない.このような場合は,各変数の整数条件を取り除いた線形計画問題を解いて実数最適解を得た後に,その端数を丸めて最も近い整数解を求めれば十分に実用的な解となる場合が多い.実際に,多くの現実的な整数計画問題では,yes/noの決定や離散的な状態の切り替えを記述するために2値変数($\{0,1\}$の2値のみを取る整数変数)を用いていることに注意する必要がある.ここでは,代表的な組合せ最適化問題を例に整数計画問題の基本的な定式化の技法を紹介する.もちろん,いくつかの組合せ最適化問題では効率良いアルゴリズムが知られているが,現実問題が既知の組合せ最適化問題と一致することは稀であり,これらの効率良いアルゴリズムをそのまま適用できるとは限らない.一方で,整数計画ソルバーであれば定式化を少し変形するだけで適用できる場合が多い.このように,代表的な組合せ最適化問題に対する整数計画問題の定式化を知れば,それらを雛形として変形もしくは組合せることで多種多様な現実問題を整数計画問題に定式化できるようになる.\subsection{整数性を持つ整数計画問題}\label{sec:unimodular}整数計画問題は一般にはNP困難のクラスに属する計算困難な問題であるが,いくつかの特殊な整数計画問題は効率良く解けることが知られている.ここでは,制約行列$\bm{A}$が完全単摸行列である整数計画問題$\min\{\bm{c}^T\bm{x}\mid\bm{A}\bm{x}\ge\bm{b},\bm{x}\in\mathbb{Z}_+^n\}$を紹介する.任意の小行列式が$0$,$1$,$-1$のどれかに等しい行列$\bm{A}$は完全単摸行列と呼ばれる.$\bm{A}$が整数行列,$\bm{b}$が整数ベクトルである線形計画問題$\min\{\bm{c}^T\bm{x}\mid\bm{A}\bm{x}\ge\bm{b},\bm{x}\ge\bm{0}\}$について,$\bm{A}$が完全単摸行列で(実数)最適解が存在するならば,単体法を適用すると常に整数最適解$\bm{x}\in\mathbb{Z}_+^n$が得られる.有向グラフが与えられたとき,点の番号を行番号,辺の番号を列番号とする行列$\bm{A}$で,辺$e=(i,j)$に対応する列が$a_{ie}=1$,$a_{je}=-1$(その他は0)で与えられる行列は接続行列と呼ばれる.任意の有向グラフに対して,その接続行列は完全単摸行列となる.また,無向グラフの接続行列では辺に対応する列が$a_{ie}=a_{je}=1$(その他は0)で与えられる.無向グラフでは2部グラフであるときに限り,その接続行列は完全単摸行列となる.以下では,完全単摸行列を制約行列に持つ整数計画問題の例として最短路問題と割当問題を紹介する.\paragraph{最短路問題:}有向グラフ$G=(V,E)$と各辺$(i,j)\inE$の長さ$d_{ij}$が与えられる.$x_{ij}$は変数で,辺$(i,j)\inE$が経路に含まれるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,与えられた始点$s\inV$から終点$t\inV$に至る最短路を求める問題は以下の通りに定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{(i,j)\inE}d_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{j:(s,j)\inE}x_{sj}=1,&\\&\displaystyle\sum_{i:(i,t)\inE}x_{it}=1,&\\&\displaystyle\sum_{i:(i,k)\inE}x_{ik}-\sum_{j:(k,j)\inE}x_{kj}=0,&k\inV\setminus\{s,t\},\\&x_{ij}\in\{0,1\},&(i,j)\inE.\end{array}\end{equation}1番目と2番目の制約式は,始点$s$から出る辺と終点$t$に入る辺がちょうど1本ずつ選ばれることを表す.3番目の制約式は,訪問する頂点$k$では出る辺と入る辺がちょうど1本ずつ選ばれ,それ以外の頂点では辺は選ばれないことを表す.\paragraph{割当問題:}$m$人の学生を$n$個のクラスに割り当てる.クラス$j$の受講者数の下限を$l_j$,上限を$u_j$,学生$i$のクラス$j$に対する満足度を$p_{ij}$とする.$x_{ij}$は変数で,学生$i$がクラス$j$に割当てられれば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,学生の満足度の合計が最大となる割当てを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{i=1}^m\sum_{j=1}^np_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nx_{ij}=1,&i=1,\dots,m,\\&\displaystylel_j\le\sum_{i=1}^mx_{ij}\leu_j,&j=1,\dots,n,\\&x_{ij}\in\{0,1\},&i=1,\dots,m,\;j=1,\dots,n.\end{array}\end{equation}1番目の制約式は,各学生$i$がちょうど1つのクラスに割当てられることを表す.2番目の制約式は,各クラス$j$に割当てられる学生の数が受講者数の上下限内に収まることを表す.最短路問題,割当問題はそれぞれダイクストラ法やハンガリー法など効率良いアルゴリズムが知られている\cite{KorteB2012}.しかし,現実問題では実務上の要求から生じる制約条件が追加される場合が多いため,これらの効率良いアルゴリズムがそのまま適用できるとは限らない.一方で,与えられた現実問題を完全単摸行列に近い形の制約行列を持つ整数計画問題に定式化できる場合は,線形計画緩和問題から良い下界値が得られることが期待できるため,整数計画ソルバーを用いて現実的な計算時間で最適解を求められる場合は少なくない.完全単摸行列の性質については\cite{KorteB2012,SchrijverA1998}が詳しい.\subsection{論理的な制約条件}\label{sec:logic}現実問題が既知の組合せ最適化問題と一致することは稀であり,実務上の要求から生じる制約条件が追加される場合が多い.ここでは,ナップサック問題を例にいくつかの論理的な制約条件とその記述を紹介する.\paragraph{ナップサック問題:}1つの箱と$n$個の荷物が与えられる.箱に詰込める重さ合計の上限を$c(>0)$,各荷物$j$の重さを$w_j(<c)$,価値を$p_j$とする.$x_j$は変数で,荷物$j$を箱に詰めるならば$x_j=1$,そうでなければ$x_j=0$の値を取る.このとき,価値の合計が最大となる荷物の詰込みを求める問題は以下の通り定式化できる.\begin{equation}\begin{array}{lll}\textnormal{maximize}&\displaystyle\sum_{j=1}^np_jx_j&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nw_jx_j\lec,&\\&x_j\in\{0,1\},&j=1,\dots,n.\end{array}\end{equation}ちなみに,複数の制約式を持つナップサック問題は多制約ナップサック問題と呼ばれ,投資計画やポートフォリオ最適化などの応用を持つ.ナップサック問題については\cite{KellererH2004}が詳しい.以下に,いくつかの論理的な制約条件とその記述を示す.\begin{enumerate}\item詰込む荷物の数は高々$k$個.\begin{equation}\sum_{j=1}^nx_j\lek.\end{equation}\item荷物$j_1,j_2$の少なくとも一方は詰込む.\begin{equation}x_{j_1}+x_{j_2}\ge1.\end{equation}\item荷物$j_1$を詰込むならば荷物$j_2$も詰込む.\begin{equation}x_{j_1}\lex_{j_2}.\end{equation}\item詰込む荷物の数は0または2.\begin{equation}\sum_{j=1}^nx_j=2y,\;y\in\{0,1\}.\end{equation}もしくは$y$を使わずに,以下の通りにも記述できる.\pagebreak\begin{equation}\left\{\begin{array}{l}+x_1+x_2+\dots+x_n\le2,\\-x_1+x_2+\dots+x_n\ge0,\\+x_1-x_2+\dots+x_n\ge0,\\\dots,\\+x_1+x_2+\dots-x_n\ge0.\end{array}\right.\end{equation}2番目以降の制約式は$\sum_{j=1}^nx_j=1$を満たす解を除外しており,図\ref{fig:logic1}に示すように,これらの制約式は実行可能解全体の凸包(全ての実行可能解を含む最小の凸多面体)から得られる.\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f6.eps}\end{center}\caption{$x_1+x_2+x_3=0$または$2$を満たす全ての解を含む凸包}\label{fig:logic1}\end{figure}\subsection{固定費用付き目的関数}\label{sec:fixed-cost}生産計画や物流計画など多くの現実問題では,取り扱う製品量によって生じる変動費用と段取替えなど所定の作業によって生じる固定費用の両方を考慮する場合が多い.例えば,$x$を単位費用$c_1$で生産される製品の生産量とする.もし,その製品が少しでも生産されれば初期費用$c_2$が生じるとすると,総費用$f(x)$は以下に示す非線形関数となる($C$は製品の生産量の上限とする).\begin{equation}f(x)=\left\{\begin{array}{ll}0&x=0\\c_1x+c_2&0<x\leC.\end{array}\right.\end{equation}そこで,少しでも製品を生産するならば$y=1$,\pagebreakそうでなければ$y=0$の値を取る2値変数$y$を導入すると,総費用$f(x)$は以下の通りに記述できる.\begin{equation}f(x)=\left\{c_1x+c_2y\midx\leCy,0\lex\leC,y\in\{0,1\}\right\}.\end{equation}以下では,固定費用を持つ整数計画問題の例としてビンパッキング問題を紹介する.\paragraph{ビンパッキング問題:}十分な数の箱と$n$個の荷物が与えられる.箱に詰込める荷物の重さ合計の上限を$c(>0)$,各荷物$j$の重さを$w_j(<c)$とする.$x_{ij}$と$y_i$は変数で,荷物$j$が箱$i$に入っていれば$x_{ij}=1$,そうでなければ$x_{ij}=0$,箱$i$を使用していれば$y_i=1$,そうでなければ$y_i=0$の値を取る.このとき,使用する箱の数が最小となる荷物の詰込みを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^ny_i&\\\textnormal{subjectto}&\displaystyle\sum_{j=1}^nw_jx_{ij}\lecy_i,&i=1,\dots,n,\\&\displaystyle\sum_{i=1}^nx_{ij}=1,&j=1,\dots,n,\\&x_{ij}\in\{0,1\},&i=1,\dots,n,\;j=1,\dots,n,\\&y_i\in\{0,1\},&i=1,\dots,n.\end{array}\end{equation}1番目の制約式は,箱$i$が使用されている場合は詰込まれた荷物の重さ合計が上限内に収まることを,箱$i$が使用されていない場合は荷物が詰込めないことを表す.2番目の制約式は,各荷物$j$がちょうど1つの箱に詰込まれることを表す.\subsection{離接した制約式}\label{sec:disjunction}一般に,最適化問題では全ての制約式を同時に満たすことを求められるが,現実問題では$m$本の制約式のうちちょうど$k$本だけを満たすことを求められる場合も少なくない.これは離接した制約式と呼ばれ,選択や順序付けなどの組合せ的な制約条件を記述する場合に用いられる.例えば,2つの制約式$\sum_{j=1}^na_{1j}x_j\leb_1$と$\sum_{j=1}^na_{2j}x_j\leb_2$($0\lex_j\leu_j$,$j=1,\dots,n$)の少なくとも一方が成立するという場合は,各制約式に対応する2値変数$y_1,y_2$を導入すれば以下の通りに記述できる.\begin{equation}\left\{\begin{array}{l}\displaystyle\sum_{j=1}^na_{1j}x_j\leb_1+M(1-y_1),\\\displaystyle\sum_{j=1}^na_{2j}x_j\leb_2+M(1-y_2),\\y_1+y_2=1,\\y_1,y_2\in\{0,1\}.\end{array}\right.\end{equation}ここで,$M$は\begin{equation}M\ge\max\left\{\sum_{j=1}^na_{1j}x_j-b_1,\sum_{j=1}^na_{2j}x_j-b_2\;\middle|\;0\lex_j\leu_j,j=1,\dots,n\right\}\end{equation}を満たす十分に大きな定数(big-$M$と呼ばれる)である.$y_i=0$の場合は,制約式の右辺は$b_i+M$と十分に大きな値を取り,各変数$x_j$の取る値に関わらず必ず満たされる.以下では,離接した制約式を持つ整数計画問題の例として1機械スケジューリング問題と長方形詰込み問題を紹介する.\paragraph{1機械スケジューリング問題:}$n$個の仕事とこれらを処理する1台の機械が与えられる.機械は2つ以上の仕事を同時には処理できないものとする.仕事$i$の処理にかかる時間を$p_i(>0)$,納期を$d_i(\ge0)$とする.$s_i$と$x_{ij}$は変数で,$s_i$は仕事$i$の開始時刻,$x_{ij}$は仕事$i$が仕事$j$に先行するならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,仕事の納期遅れの合計が最小となる処理スケジュールを求める問題は以下の通りに定式化できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^n\max\left\{s_i+p_i-d_i,0\right\}&\\\textnormal{subjectto}&s_i+p_i\les_j+M(1-x_{ij}),&i=1,\dots,n,\;j\not=i,\\&x_{ij}+x_{ji}=1,&i=1,\dots,n,\;j\not=i,\\&x_{ij}\in\{0,1\},&i=1,\dots,n,\;j\not=i,\\&s_i\ge0,&i=1,\dots,n.\end{array}\end{equation}納期遅れは仕事$i$の終了時刻$s_i+p_i$が納期$d_i$より後になる場合のみ生じるので,各仕事$i$に対する納期遅れは$\max\{s_i+p_i-d_i,0\}$と記述できる.1番目の制約式は,仕事$i$が仕事$j$に先行するならば仕事$i$の終了時刻が仕事$j$が開始時刻の前になることを表す.2番目の制約式は,仕事$i$が仕事$j$に先行するかもしくはその逆が必ず成り立つことを表す.目的関数が最大値の最小化なので,納期遅れを表す新たな変数$t_i=\max\left\{s_i+p_i-d_i,0\right\}$を導入すると整数計画問題に変換できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{i=1}^nt_i&\\\textnormal{subjectto}&s_i+p_i\les_j+M(1-x_{ij}),&i=1,\dots,n,\;j\not=i,\\&x_{ij}+x_{ji}=1,&i=1,\dots,n,\;j\not=i,\\&s_i+p_i-d_i\let_i,&i=1,\dots,n,\\&x_{ij}\in\{0,1\},&i=1,\dots,n,\;j\not=i,\\&s_i,t_i\ge0,&i=1,\dots,n.\end{array}\end{equation}\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f7.eps}\end{center}\caption{長方形詰込み問題の例}\label{fig:packing}\end{figure}\paragraph{長方形詰込み問題:}図\ref{fig:packing}に示すように,幅が固定で十分な高さがある長方形の容器と$n$個の長方形の荷物が与えられる.容器の幅を$W$,各荷物$i$の幅を$w_i$,高さを$h_i$とする.荷物はその下辺が容器の下辺と平行になるように配置し,回転は許さないものとする.ここで,全ての荷物を互いに重ならないように容器内に配置する.$(x_i,y_i)$を荷物$i$の左下隅の座標を表す変数とすると(容器の左下隅を原点とする),問題の制約条件は以下の通りに記述できる.\begin{description}\item[制約条件1:]荷物$i$は容器内に配置される.\\これは,以下の2本の不等式がともに成り立つことと同値である.\begin{equation}\begin{array}{l}0\lex_i\leW-w_i,\\0\ley_i\leH-h_i.\end{array}\end{equation}\item[制約条件2:]荷物$i,j$は互いに重ならない.\\これは,以下の4本の不等式のうち1本以上が成り立つことと同値であり,各不等式はそれぞれ荷物$i$が荷物$j$の左側,右側,下側,上側にあることを記述している.\begin{equation}\begin{array}{l}x_i+w_i\lex_j,\\x_j+w_j\lex_i,\\y_i+h_i\ley_j,\\y_j+h_j\ley_i.\end{array}\end{equation}\end{description}$z_{ij}^{\textnormal{{\tinyleft}}}$,$z_{ij}^{\textnormal{{\tinyright}}}$,$z_{ij}^{\textnormal{{\tinylower}}}$,$z_{ij}^{\textnormal{{\tinyupper}}}$は変数で,それぞれ荷物$i$が荷物$j$の左側,右側,下側,上側にあるならば$1$,そうでなければ$0$の値を取る.このとき,制約条件を満たした上で必要な容器の高さ$H$を最小にする荷物の配置を求める問題は以下の通りに定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&H&\\\textnormal{subjectto}&0\lex_i\leW-w_i,&i=1,\dots,n,\\&0\ley_i\leH-h_i,&i=1,\dots,n,\\&x_i+w_i\lex_j+M(1-z_{ij}^{\textnormal{{\tinyleft}}}),&i=1,\dots,n,j\not=i,\\&x_j+w_j\lex_i+M(1-z_{ij}^{\textnormal{{\tinyright}}}),&i=1,\dots,n,j\not=i,\\&y_i+h_i\ley_j+M(1-z_{ij}^{\textnormal{{\tinylower}}}),&i=1,\dots,n,j\not=i,\\&y_j+h_j\ley_i+M(1-z_{ij}^{\textnormal{{\tinyupper}}}),&i=1,\dots,n,j\not=i,\\&z_{ij}^{\textnormal{{\tinyleft}}}+z_{ij}^{\textnormal{{\tinyright}}}+z_{ij}^{\textnormal{{\tinylower}}}+z_{ij}^{\textnormal{{\tinyupper}}}=1,&i=1,\dots,n,j\not=i,\\&z_{ij}^{\textnormal{{\tinyleft}}},z_{ij}^{\textnormal{{\tinyright}}},z_{ij}^{\textnormal{{\tinylower}}},z_{ij}^{\textnormal{{\tinyupper}}}\in\{0,1\},&i=1,\dots,n,j\not=i.\end{array}\end{equation}\subsection{非線形関数}\label{sec:nonlinear}\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f8.eps}\end{center}\caption{非凸関数の区分線形関数による近似}\label{fig:nonlinear2}\end{figure}非凸関数最小化問題は整数計画問題に近似できる.図\ref{fig:nonlinear2}に示すように,非凸関数$f(x)$上の$m$個の点$(a_1,f(a_1)),\allowbreak\dots,\allowbreak(a_m,f(a_m))$を適当に選んで線分で繋ぐと区分線形関数$g(x)$が得られる.区分線形関数上の点$(x,g(x))$はある線分上にある.例えば,点$(x,g(x))$が$(a_i,f(a_i))$と$(a_{i+1},f(a_{i+1}))$で結ばれる線分上にある場合は以下の通りに記述できる.\begin{equation}\left\{\begin{array}{l}(x,g(x))=t_i(a_i,f(a_i))+t_{i+1}(a_{i+1},f(a_{i+1})),\\t_i+t_{i+1}=1,\\t_i,t_{i+1}\ge0.\end{array}\right.\end{equation}これを考慮すると一般の場合も以下の通りに記述できる.\pagebreak\begin{equation}\left\{\begin{array}{ll}\displaystyle(x,g(x))=\sum_{i=1}^mt_i(a_i,f(a_i)),&\\\displaystyle\sum_{i=1}^mt_i=1,&\\t_i\ge0,&i=1,\dots,m,\\\textnormal{高々2つの隣り合う$t_i$が正}.\end{array}\right.\end{equation}ここで,2値変数$z_1,\dots,z_{m-1}$を導入すると「高々2つの隣り合う$t_i$が正」という制約条件は以下の通りに記述できる.\begin{equation}\left\{\begin{array}{ll}t_1\lez_1,&\\t_i\lez_{i-1}+z_i,&i=2,\dots,m-1,\\t_m\lez_{m-1},&\\\displaystyle\sum_{i=1}^{m-1}z_i=1,&\\z_i\in\{0,1\},&i=1,\dots,m-1.\end{array}\right.\end{equation}次に,2値変数で定義される非線形関数を線形関数に変換する方法を紹介する.まず,2値変数$x_1$と$x_2$の積$y=x_1x_2$を考える.このとき,$(x_1,x_2,y)$の実行可能解は$(0,0,0),\allowbreak(1,0,0),\allowbreak(0,1,0),\allowbreak(1,1,1)$の4通りなので以下の通りに記述できる.\begin{equation}\left\{\begin{array}{l}y\gex_1+x_2-1,\\y\lex_1,\\y\lex_2,\\x_1,x_2\in\{0,1\}.\end{array}\right.\end{equation}これらの制約式は実行可能解全体の凸包から得られる.同様に$k$個の2値変数の積$y=\prod_{i=1}^kx_i$も以下の通りに記述できる.\begin{equation}\left\{\begin{array}{ll}y\ge\displaystyle\sum_{i=1}^kx_i-(k-1),&\\y\lex_i,&i=1,\dots,k,\\x_i\in\{0,1\},&i=1,\dots,k.\end{array}\right.\end{equation}\subsection{グラフの連結性}\label{sec:connectivity}グラフにおける最適化問題では選択した部分グラフの連結性が求められる場合が少なくない.ここでは,グラフの連結性を制約条件に持つ整数計画問題の例として最小全域木問題と巡回セールスマン問題を紹介する.無向グラフ$G=(V,E)$の任意の頂点$i,j\inV$の間に路が存在するならば$G$は連結であると呼ぶ.図\ref{fig:connect}は連結なグラフと非連結なグラフの例である.これは,任意の頂点集合$S\subsetV$($S\not=\emptyset$)に対して,$S$と$V\setminusS$の間を繋ぐ辺が少なくとも1本は存在するという制約条件に置き換えられる.\begin{figure}[b]\begin{center}\includegraphics{21-5ia4f9.eps}\end{center}\caption{連結なグラフ(左)と非連結なグラフ(右)の例}\label{fig:connect}\end{figure}\paragraph{最小全域木問題:}無向グラフ$G=(V,E)$と各辺$(i,j)\inE$の長さ$d_{ij}$が与えられる.閉路を持たない連結な部分グラフは木,全ての頂点を繋ぐ木は全域木と呼ばれる.$x_{ij}$は変数であり,辺$(i,j)$は木に含まれるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,辺の長さの合計が最小となる全域木を求める問題は以下の通り定式化できる.\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{(i,j)\inE}d_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{i\inS}\sum_{j\inV\setminusS}x_{ij}\ge1,&S\subsetV,\;S\not=\emptyset\\&\displaystyle\sum_{(i,j)\inE}x_{ij}=n-1,&\\&x_{ij}\in\{0,1\},&(i,j)\inE.\end{array}\end{equation}1番目の制約式は,辺集合$T\subseteqE$が全ての頂点を連結することを表し,カットセット制約と呼ばれる.2番目の制約式は,$|T|=n-1$を満たすことを表す.これらの制約式は$T$が全域木となるための必要十分条件である.\paragraph{巡回セールスマン問題:}無向グラフ$G=(V,E)$の全ての頂点をちょうど1回ずつ通る閉路は巡回路と呼ばれる.巡回路となるためには,各頂点$k$に接続する辺がちょうど2本でなければならない.しかし,これだけでは不十分で,図\ref{fig:subtour}(左)に示すような部分巡回路を排除する必要がある.これは,任意の頂点集合$S\subsetV$($S\not=\emptyset$)に含まれる辺の本数が$|S|-1$以下であるという制約条件に置き換えられる.無向グラフ$G=(V,E)$と各辺$(i,j)\inE$の長さ$d_{ij}$が与えられる.$x_{ij}$は変数で,辺$(i,j)\inE$が巡回路に含まれるならば$x_{ij}=1$,そうでなければ$x_{ij}=0$の値を取る.このとき,全ての頂点をちょうど1回ずつ訪問する最短の巡回路を求める問題は以下の通りに定式化できる.\pagebreak\begin{equation}\begin{array}{lll}\textnormal{minimize}&\displaystyle\sum_{(i,j)\inE}w_{ij}x_{ij}&\\\textnormal{subjectto}&\displaystyle\sum_{(i,k)\inE:i<k}x_{ik}+\sum_{(k,j)\inE:k<j}x_{kj}=2,&k\inV,\\&\displaystyle\sum_{(i,j)\inE:i,j\inS}x_{ij}\le|S|-1,&S\subsetV,\;S\not=\emptyset,\\&x_{ij}\in\{0,1\},&(i,j)\inE.\end{array}\end{equation}1番目の制約式は,各頂点に接続する辺がちょうど2本となることを表す.2番目の制約式は,部分巡回路を持たないことを表し,部分巡回路除去制約と呼ばれる.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f10.eps}\end{center}\caption{部分巡回路(左)と巡回路(右)の例}\label{fig:subtour}\end{figure}最小全域木問題のカットセット制約や巡回セールスマン問題の部分巡回路除去制約は,制約式の数が$\mathrm{O}(2^n)$と膨大で,全ての制約式を書き下して整数計画ソルバーに解かせるのは現実的ではないため,必要に応じて制約式を逐次追加する切除平面法が必要となる.グラフの連結性を制約条件に持つ整数計画問題の定式化と解法については(藤江2011;久保,ペドロソ,村松,レイス2012)\nocite{FujieT2011,KuboM2012}が詳しく,新たな変数を導入して必要な制約式の数を抑える方法が紹介されている.
\section{最適解が求められない場合の対処法}
\label{sec:hard-problem}最近の整数計画ソルバーは非常に高性能ではあるものの,解候補を体系的に列挙する分枝限定法を探索の基本戦略とするため,与えられた問題例によってはいつまで待っても計算が終了しない場合が少なくない.ここでは,目的関数の値を最小化する整数計画問題を考える.分枝限定法は,整数計画問題を分枝操作によって小規模な部分問題に分解しつつ,各部分問題では,暫定解から得られる最適値の上界値と,線形計画緩和問題から得られる最適値の下界値を利用した限定操作によって無駄な探索を省いている.そのため,いつまで待っても整数計画ソルバーの計算が終了しないならば,(1)線形計画緩和問題の求解に多大な計算時間を要する,(2)限定操作が効果的に働いていないことなどが原因として考えられる.もちろん,整数計画ソルバーは分枝限定法以外にも多くのアルゴリズムを内包しているため,これだけが原因であると決めつけるべきではないが,対策を練る上でまず始めに確認すべき事項である.(1)については,原問題から各変数の整数条件を取り除いた線形計画問題を整数計画ソルバーで解けば計算時間を見積もることができる.実際には,整数計画ソルバーは再最適化と呼ばれる手法を利用するため,整数計画問題の各部分問題において線形計画緩和問題の求解に要する計算時間はもっと短くなる.しかし,この方法で線形計画問題を1回解くのに要する計算時間が長いと感じるようであれば,問題例の規模が整数計画ソルバーで解くには大き過ぎると判断するのが妥当であろう.ただし,集合被覆問題や集合分割問題などの線形計画緩和問題では,単体法と内点法で計算時間が大きく異なるため,(部分問題ではなく)原問題の線形計画緩和問題に適用するアルゴリズムを切り替えることで計算時間を大幅に削減できる場合もある.(2)については,(i)暫定解から得られる最適値の上界値が悪い場合,(ii)線形計画緩和問題から得られる最適値の下界値が悪い場合,(iii)多数の最適解が存在する場合などが考えられる.これらは,整数計画ソルバーの実行時に出力される最適値の上界値と下界値から確認できる.まず,(i)暫定解から得られる上界値が悪い場合を考える.これは,実行可能解が非常に少ないかもしくは存在しないため,整数計画ソルバーの実行時に良い実行可能解を発見できないことが原因として考えられる.このような場合は,制約式を必ず満たさなければならない制約式(絶対制約)とできれば満たして欲しい制約式(考慮制約)に分けた上で,優先度の低い考慮制約を緩和する方法がある.例えば,制約式$\sum_{j=1}^na_{ij}x_j\geb_i$を$\sum_{j=1}^na_{ij}x_j\geb_i-\varepsilon$($\varepsilon$は適当な正の定数)に置き換える方法や,新しい変数$z_i(\ge0)$とペナルティ係数$p_i(>0)$を導入して$\sum_{j=1}^na_{ij}x_j\geb_i-z_i$に置き換えた上で目的関数に新たな項$+p_iz_i$を加える方法などがある.また,利用者の持つ先験的な知識を利用して容易に実行可能解を求められるならば,利用者が持つアルゴリズムで求めた実行可能解を初期暫定解として整数計画ソルバーに与えることも可能である.次に,(ii)線形計画緩和問題から得られる最適値の下界値が悪い場合を考える.図\ref{fig:polyhedron}に示すように,線形計画緩和問題の実行可能領域は,整数計画問題の実行可能解となる整数格子点のみを含む凸多面体となるため,同じ整数計画問題に対して線形計画緩和問題の最適値が異なる複数の定式化が存在する.つまり,整数計画問題では最適値の良い下界値が得られる強い定式化と,そうでない弱い定式化が存在する.ちなみに,最も強い定式化は整数計画問題の実行可能解全体の凸包を記述することであるが,凸包を記述する全ての制約式を求めることは,最悪の場合には全ての実行可能解を列挙することに他ならないため現実的な方法ではない.たしかに,制約式の数が少ない定式化の方が見栄えも良く,分枝限定法を適用した際にも各部分問題における線形計画緩和問題の求解に要する計算時間も短くなるように思われる.しかし,最適値の上界値と下界値の差が広がれば分枝限定法で生成される部分問題の数は急激に増加するため,安易に制約式を減らすべきではない.一方で,多くの整数計画ソルバーは冗長な制約式を前処理で除去するため,制約式が多少増えても計算時間にはあまり影響しない場合が多い.例えば,与えられた現実問題を完全単摸行列に近い形の制約行列を持つ整数計画問題に定式化できる場合は,線形計画緩和問題から良い下界値が得られることが期待できる.\begin{figure}[t]\begin{center}\includegraphics{21-5ia4f11.eps}\end{center}\caption{整数計画問題の実行可能解を含む凸多面体の例}\label{fig:polyhedron}\end{figure}最後に,(iii)多数の最適解を持つ場合を考える.最適値の上界値と下界値の差が小さいにも関わらず,いつまで待っても整数計画ソルバーの計算が終了しないならば,整数計画問題が多数の最適解を持っている可能性がある.このような場合は,目的関数や制約式を変更して最適解の数を減らす方法がある.例えば,\ref{sec:fixed-cost}節で紹介したビンパッキング問題の定式化では,使用する箱の数が最小であれば使用する箱の組合せは何でも構わないため多数の最適解が生じる.そこで,必ず番号の小さい箱から順に使用するという制約式を追加すると最適解の数を減らすことができる.\begin{equation}\begin{array}{ll}y_i\gey_{i+1},&i=1,\dots,n-1.\end{array}\end{equation}また,\ref{sec:linear-equations}節で紹介した多目的最適化問題の定式化では,1変数からなる目的関数を持つ整数計画問題に変換するとやはり多数の最適解が生じる.このような場合は,いつまで待っても整数計画ソルバーの計算が終了しないならば線形和を最小化する定式化に変更した方が良い.また,目的関数$\sum_{j=1}^nc_jx_j$の各項の係数$c_j$が全て同じ値を取る場合も多数の最適解が生じ易いため,可能ならば各項の係数$c_j$をいろいろな値に変えて最適解の数を絞り込む方が良い.最後に,いつまで待っても整数計画ソルバーの計算が終了しない場合には,最適解を求めることを諦めるのも1つの手である.整数計画ソルバーは探索中に得られた暫定解を保持しているので,与えられた計算時間内に最適解が求められなくても良い実行可能解が求まれば,利用者によっては十分に満足できる場合も多い.また,整数計画ソルバーは線形計画緩和問題を解いて得られる最適値の下界値も保持しているので,事後にはなるが得られた暫定解の精度も評価できる.実際に,整数計画ソルバーは近似解法としても高性能であり,メタヒューリスティクスなどの発見的解法を利用もしくは開発する前に,整数計画ソルバーで良い実行可能解が得られるかどうか確認するべきである.最適解が求められない場合の対処法については\cite{MiyashiroR-Web,MiyashiroR2006}が詳しい.
\section{おわりに}
\label{sec:conclusion}本論文では,数理最適化の専門家ではない利用者が,現実問題の解決に取り組む際に必要となる整数計画ソルバーの基本的な利用法と定式化の技法を解説した.整数計画ソルバーの解説は本論文が初めてではなく,オペレーションズ・リサーチの分野では同じ趣旨の解説がいくつか発表されている\cite{FujieT2012,MiyashiroR2006,MiyashiroR2012}.また,現実問題を線形計画問題や整数計画問題に定式化する技法については\cite{KuboM2012,WilliamsHP2013}が詳しい.これらの文献は,本論文では取り上げていない多くの内容を含んでいるので,整数計画ソルバーに興味を持たれた読者にはぜひ一読をお勧めする.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Achterberg\BBA\Wunderling}{Achterberg\BBA\Wunderling}{2013}]{AchterbergT2013}Achterberg,T.\BBACOMMA\\BBA\Wunderling,R.\BBOP2013\BBCP.\newblock\BBOQMixedIntegerProgramming:Analyzing12YearsofProgress.\BBCQ\\newblockInJ{\"u}nger,M.\BBACOMMA\\BBA\Reinelt,G.\BEDS,{\BemFacetsofCombinatorialOptimization---FestschriftforMartinGr{\"o}tschel},\mbox{\BPGS\449--481}.Springer.\bibitem[\protect\BCAY{Ashford}{Ashford}{2007}]{AshfordR2007}Ashford,R.\BBOP2007\BBCP.\newblock\BBOQMixedIntegerProgramming:AHistoricalPerspectivewithXpress-MP.\BBCQ\\newblock{\BemAnnalsofOperationsResearch},{\Bbf149},\mbox{\BPGS\5--17}.\bibitem[\protect\BCAY{Atamt{\"u}rk\BBA\Savelsbergh}{Atamt{\"u}rk\BBA\Savelsbergh}{2005}]{AtamturkA2005}Atamt{\"u}rk,A.\BBACOMMA\\BBA\Savelsbergh,M.~W.~P.\BBOP2005\BBCP.\newblock\BBOQInteger-programmingsoftwaresystems.\BBCQ\\newblock{\BemAnnalsofOperationsResearch},{\Bbf140},\mbox{\BPGS\67--124}.\bibitem[\protect\BCAY{Berthold,Gleixner,Heinz,Koch,\BBA\Shinano}{Bertholdet~al.}{2012}]{BertholdT2012}Berthold,T.,Gleixner,A.~M.,Heinz,S.,Koch,T.,\BBA\Shinano,Y.\BBOP2012\BBCP.\newblockSCIPOptimizationSuiteを利用した混合整数(線形/非線形)計画問題の解法.\\newblock\JTR,ZuseInstituteBerlin.\bibitem[\protect\BCAY{Bixby\BBA\Rothberg}{Bixby\BBA\Rothberg}{2007}]{BixbyR2007}Bixby,R.\BBACOMMA\\BBA\Rothberg,E.\BBOP2007\BBCP.\newblock\BBOQProgressinComputationalMixedIntegerProgramming---ALookBackfromtheOtherSideoftheTippingPoint.\BBCQ\\newblock{\BemAnnalsofOperationsResearch},{\Bbf149},\mbox{\BPGS\37--41}.\bibitem[\protect\BCAY{Charnes\BBA\Cooper}{Charnes\BBA\Cooper}{1961}]{CharnesA1961}Charnes,A.\BBACOMMA\\BBA\Cooper,W.~W.\BBOP1961\BBCP.\newblock{\BemManagementModelsandIndustrialApplicationsofLinearProgramming}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{Chvatal}{Chvatal}{1983}]{ChvatalV1983}Chvatal,V.\BBOP1983\BBCP.\newblock{\BemLinearProgramming}.\newblockW.H.Freeman\&Company.\bibitem[\protect\BCAY{DeNero\BBA\Klein}{DeNero\BBA\Klein}{2008}]{DeNeroJ2008}DeNero,J.\BBACOMMA\\BBA\Klein,D.\BBOP2008\BBCP.\newblock\BBOQTheComplexityofPhraseAlignmentProblems.\BBCQ\\newblockIn{\BemProceedingsof46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnology,ShortPapers},\mbox{\BPGS\25--28}.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{FilatovaE2004}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Fourer}{Fourer}{2013}]{FourerR2013}Fourer,R.\BBOP2013\BBCP.\newblock\BBOQLinearprogramming.\BBCQ\\newblock{\BemOR/MSToday},{\Bbf40}(3),\mbox{\BPGS\40--53}.\bibitem[\protect\BCAY{藤江}{藤江}{2011}]{FujieT2011}藤江哲也\BBOP2011\BBCP.\newblock最近の混合整数計画ソルバーの進展について.\\newblock\Jem{オペレーションズ・リサーチ},{\Bbf56}(5),\mbox{\BPGS\263--268}.\bibitem[\protect\BCAY{藤江}{藤江}{2012}]{FujieT2012}藤江哲也\BBOP2012\BBCP.\newblock整数計画法による定式化入門.\\newblock\Jem{オペレーションズ・リサーチ},{\Bbf57}(4),\mbox{\BPGS\190--197}.\bibitem[\protect\BCAY{Gillick\BBA\Favre}{Gillick\BBA\Favre}{2009}]{GillickD2009}Gillick,D.\BBACOMMA\\BBA\Favre,B.\BBOP2009\BBCP.\newblock\BBOQAScalableGlobalModelforSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponIntegerProgrammingforNaturalLanguageProcessingattheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\10--18}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎}{平尾\Jetal}{2009}]{HiraoT2009}平尾努\JBA鈴木潤\JBA磯崎秀樹\BBOP2009\BBCP.\newblock最適化問題としての文書要約.\\newblock\Jem{人工知能学会論文誌},{\Bbf24}(2),\mbox{\BPGS\223--231}.\bibitem[\protect\BCAY{Kellerer,Pferschy,\BBA\Pisinger}{Kellereret~al.}{2004}]{KellererH2004}Kellerer,H.,Pferschy,U.,\BBA\Pisinger,D.\BBOP2004\BBCP.\newblock{\BemKnapsackProblems}.\newblockSpringer.\bibitem[\protect\BCAY{Koch,Achterberg,Andersen,Bastert,Berthold,Bixby,Danna,Gamrath,Gleixner,Heinz,Lodi,Mittelmann,Ralphs,Salvagnin,Steffy,\BBA\Wolter}{Kochet~al.}{2011}]{KochT2011}Koch,T.,Achterberg,T.,Andersen,E.,Bastert,O.,Berthold,T.,Bixby,R.~E.,Danna,E.,Gamrath,G.,Gleixner,A.~M.,Heinz,S.,Lodi,A.,Mittelmann,H.,Ralphs,T.,Salvagnin,D.,Steffy,D.~E.,\BBA\Wolter,K.\BBOP2011\BBCP.\newblock\BBOQMIPLIB2010:MixedIntegerProgrammingLibraryversion5.\BBCQ\\newblock{\BemMathematicalProgrammingComputation},{\Bbf3}(2),\mbox{\BPGS\103--163}.\bibitem[\protect\BCAY{今野}{今野}{1982}]{KonnoH1982}今野浩\BBOP1982\BBCP.\newblock\Jem{整数計画法と組合せ最適化}.\newblock日科技連.\bibitem[\protect\BCAY{今野}{今野}{1987}]{KonnoH1987}今野浩\BBOP1987\BBCP.\newblock\Jem{線形計画法}.\newblock日科技連.\bibitem[\protect\BCAY{今野}{今野}{2005}]{KonnoH2005}今野浩\BBOP2005\BBCP.\newblock\Jem{役に立つ1次式---整数計画法「気まぐれな王女」の50年}.\newblock日本評論社.\bibitem[\protect\BCAY{今野}{今野}{2014}]{KonnoH2014}今野浩\BBOP2014\BBCP.\newblock\Jem{ヒラノ教授の線形計画法物語}.\newblock岩波書店.\bibitem[\protect\BCAY{Korte\BBA\Vygen}{Korte\BBA\Vygen}{2012}]{KorteB2012}Korte,B.\BBACOMMA\\BBA\Vygen,J.\BBOP2012\BBCP.\newblock{\BemCombinatorialOptimization:TheoryandAlgorithms(5thedition)}.\newblockSpringer.\bibitem[\protect\BCAY{越川\JBA内山\JBA梅谷\JBA松井\JBA山本}{越川\Jetal}{2010}]{KoshikawaM2010}越川満\JBA内山将夫\JBA梅谷俊治\JBA松井知己\JBA山本幹雄\BBOP2010\BBCP.\newblock統計的機械翻訳におけるフレーズ対応最適化を利用したN-best翻訳候補のリランキング.\\newblock\Jem{情報処理学会論文誌},{\Bbf51}(8).\bibitem[\protect\BCAY{久保\JBAJ.~P.\JBA村松\JBAA.}{久保\Jetal}{2012}]{KuboM2012}久保幹雄\JBAJ.~P.ペドロソ\JBA村松正和\JBAA.レイス\BBOP2012\BBCP.\newblock\Jem{あたらしい数理最適化---Python言語とGurobiで解く}.\newblock近代科学社.\bibitem[\protect\BCAY{Linderoth\BBA\Ralph}{Linderoth\BBA\Ralph}{2006}]{LinderothJT2006}Linderoth,J.~T.\BBACOMMA\\BBA\Ralph,T.~K.\BBOP2006\BBCP.\newblock\BBOQNoncommercialSoftwareforMixed-IntegerLinearProgramming.\BBCQ\\newblockInKarlof,J.~K.\BED,{\BemIntegerProgramming---TheoryandPractice},\mbox{\BPGS\253--303}.Taylor\&Francis.\bibitem[\protect\BCAY{Lodi}{Lodi}{2010}]{LodiA2010}Lodi,A.\BBOP2010\BBCP.\newblock\BBOQMixedIntegerProgrammingComputation.\BBCQ\\newblockInJ{\"u}nger,M.,Liebling,T.,Naddef,D.,Nemhauser,G.,Pulleyblank,W.,Reinelt,G.,Rinaldi,G.,\BBA\Wolsey,L.\BEDS,{\Bem50YearsofIntegerProgramming1958-2008},\mbox{\BPGS\619--645}.Springer.\bibitem[\protect\BCAY{Ma}{Ma}{2006}]{MaX2006}Ma,X.\BBOP2006\BBCP.\newblock\BBOQChampollion:ARobustParallelTextSentenceAligner.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\489--492}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{McDonaldR2007}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{Mittelmann}{Mittelmann}{2014}]{MittelmannHD-Web}Mittelmann,H.~D.\BBOP2014\BBCP.\newblock\BBOQDecisionTreeforOptimizationSoftware.\BBCQ\\texttt{http://\linebreak[2]plato.\linebreak[2]asu.\linebreak[2]edu/\linebreak[2]guide.html}.\bibitem[\protect\BCAY{宮代}{宮代}{2012}]{MiyashiroR2012}宮代隆平\BBOP2012\BBCP.\newblock整数計画ソルバー入門.\\newblock\Jem{オペレーションズ・リサーチ},{\Bbf57}(4),\mbox{\BPGS\183--189}.\bibitem[\protect\BCAY{宮代}{宮代}{2014}]{MiyashiroR-Web}宮代隆平\BBOP2014\BBCP.\newblock整数計画法メモ.\\texttt{http://www.tuat.ac.jp/{\textasciitilde}miya/ipmemo.html}.\bibitem[\protect\BCAY{宮代\JBA松井}{宮代\JBA松井}{2006}]{MiyashiroR2006}宮代隆平\JBA松井知己\BBOP2006\BBCP.\newblockここまで解ける整数計画.\\newblock\Jem{システム/制御/情報},{\Bbf50}(9),\mbox{\BPGS\363--368}.\bibitem[\protect\BCAY{Moore}{Moore}{2002}]{MooreRC2002}Moore,R.~C.\BBOP2002\BBCP.\newblock\BBOQFastandAccurateSentenceAlignmentofBilingualCorpora.\BBCQ\\newblockIn{\BemMachineTranslation:FromResearchtoRealUsers},\mbox{\BPGS\135--144}.Springer.\bibitem[\protect\BCAY{Nemhauser\BBA\Wolsey}{Nemhauser\BBA\Wolsey}{1988}]{NemhauserGL1988}Nemhauser,G.~L.\BBACOMMA\\BBA\Wolsey,L.~A.\BBOP1988\BBCP.\newblock{\BemIntegerandCombinatorialOptimization}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{西川\JBA平尾\JBA牧野\JBA松尾\JBA松本}{西川\Jetal}{2013}]{NishikawaH2013}西川仁\JBA平尾努\JBA牧野俊朗\JBA松尾義博\JBA松本裕治\BBOP2013\BBCP.\newblock冗長性制約付きナップサック問題に基づく複数文書要約モデル.\\newblock\Jem{自然言語処理},{\Bbf20}(4),\mbox{\BPGS\586--612}.\bibitem[\protect\BCAY{西野\JBA平尾\JBA永田}{西野\Jetal}{2013}]{NishinoM2013}西野正彬\JBA平尾努\JBA永田昌明\BBOP2013\BBCP.\newblock集合パッキング問題に基づく文アラインメントのモデル化.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\932--935}.\bibitem[\protect\BCAY{西野\JBA鈴木\JBA梅谷\JBA平尾\JBA永田}{西野\Jetal}{2014}]{NishinoM2014}西野正彬\JBA鈴木潤\JBA梅谷俊治\JBA平尾努\JBA永田昌明\BBOP2014\BBCP.\newblock列生成法を用いた高速なアラインメント.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\364--367}.\bibitem[\protect\BCAY{Schrijver}{Schrijver}{1998}]{SchrijverA1998}Schrijver,A.\BBOP1998\BBCP.\newblock{\BemTheoryofLinearandIntegerProgramming}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{高村\JBA奥村}{高村\JBA奥村}{2008}]{TakamuraH2008}高村大也\JBA奥村学\BBOP2008\BBCP.\newblock最大被覆問題とその変種による文書要約モデル.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(6),\mbox{\BPGS\505--513}.\bibitem[\protect\BCAY{高村\JBA奥村}{高村\JBA奥村}{2010}]{TakamuraH2010}高村大也\JBA奥村学\BBOP2010\BBCP.\newblock施設配置問題による文書要約のモデル化.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(1),\mbox{\BPGS\174--182}.\bibitem[\protect\BCAY{Williams}{Williams}{2013}]{WilliamsHP2013}Williams,H.~P.\BBOP2013\BBCP.\newblock{\BemModelBuildinginMathematicalProgramming(5thedition)}.\newblockJohnWiley\&Sons.\bibitem[\protect\BCAY{Wolsey}{Wolsey}{1998}]{WolseyLA1998}Wolsey,L.~A.\BBOP1998\BBCP.\newblock{\BemIntegerProgramming}.\newblockJohnWiley\&Sons.\end{thebibliography}\begin{biography}\bioauthor{梅谷俊治}{1998年大阪大学大学院基礎工学研究科博士前期課程修了.2002年京都大学大学院情報学研究科博士後期課程指導認定退学.豊田工業大学助手,電気通信大学助教を経て,2008年より大阪大学大学院情報科学研究科准教授,現在に至る.博士(情報学).専門は組合せ最適化,アルゴリズム.日本オペレーションズ・リサーチ学会,情報処理学会,人工知能学会,INFORMS,MOS各会員.}\end{biography}\biodate\end{document}
| |
V26N02-04
|
\section{はじめに}
語義曖昧性解消(以下,WSD)とは多義語の語義ラベルを付与するタスクである.長年,英語のみならず日本語を対象としたWSDの研究が盛んに行われてきた.しかし,その多くは教師あり学習による対象単語を頻出単語に限定したWSD(lexicalsampleWSD)であるため,実用性が高いとは言えない.これに対し,文書中のすべての単語を対象とするWSDをall-wordsWSDという.all-wordsWSDのツールがあれば,より下流の処理の入力として,例えば品詞情報のように語義を利用することが可能になり,より実用的になると期待される.all-wordsWSDは,lexicalsampleWSDと異なり,教師ありの機械学習に利用する十分な量の訓練事例を得ることが難しいため,辞書などの外部の知識を利用して,教師なしの手法で行われることが一般的である.all-wordsWSDの研究は日本語においては研究例が少ない.その理由のひとつに,all-wordsWSDを実行・評価するのに足りるサイズの語義つきコーパスがないことがあげられる.日本語の教師あり手法によるWSDでは,岩波国語辞典の語義が付与されている『現代日本語書き言葉均衡コーパス』(以下,BCCWJ)\cite{Okumura-2011}がよく用いられてきた.しかし,知識ベースの手法でall-wordsWSDを行う場合に多用される類義語の情報は岩波国語辞典のような語義列記型の辞書からは得ることができない.英語のall-wordsWSDにおいては,WordNet\footnote{https://wordnet.princeton.edu/}というシソーラスが辞書として主に利用されている.WordNetには日本語版も存在するが,基本的には英語版を和訳したものであり,日本語にしかない品詞の単語はどうするのかなどの問題点が残る.そのため,現在BCCWJに分類語彙表の意味情報がアノテーションされ,語義付きコーパスが整備されつつある.本研究では,整備されつつあるこのコーパス\cite{Kato-2018}を用いて,日本語を対象とした教師なしall-wordsWSDを行う.分類語彙表とは単語を意味によって分類したシソーラスである.レコード総数は約10万件で,各レコードは類・部門・中項目・分類項目を表す“分類番号”によって分類されている.その他にも分類語彙表では“段落番号”,“小段落番号”,“語番号”が各レコードに割り振られており,それらすべての番号によってレコードが一意に決まるようになっている.また,分類語彙表には「意味的区切り」が240箇所に存在し,分類番号による分類をさらに細かく分けている.本稿では分類語彙表から得られる類義語の情報を利用し,分類番号を語義とした日本語all-wordsWSDの手法を提案する.
\section{関連研究}
WSDの手法は,大きく教師あり学習と知識ベース(教師なしの手法)の二つに分けることができる.一般的に,WSDを教師あり学習を用いた手法で行った場合,教師なしの手法に比べて高い精度を得ることができる.しかしその反面,十分な量の教師データ,すなわちタグ付きの用例文が必要なためその作成にコストがかかるという問題点がある.一方,教師なしの場合は教師データを必要としないためコストはかからないが,教師ありの手法と同等の精度を得ることは難しい.WSDにおいては,一般に対象単語の文脈を素性とする.例えば,\citeA{yarowsky1995}は,同一の連語や文書内では出現する単語に対する語義割り当てが一意であるという仮説\cite{Gale:1992:OSP:1075527.1075579}のもと,教師なしによるWSDで高い精度を達成している.また,近年,文脈として,WSDの対象単語の周辺単語を分散表現で表す研究が行われている.\citeA{suga}では,教師あり学習において対象単語の前後N単語ずつの単語の分散表現を基本的な素性として用い,その有効性を明らかにした.さらに,\citeA{yamaki}は,単語の位置を規定しない・自立語以外の語を考慮しない,などしてSugawaraらの手法を改善し成果を上げている.このように,対象単語を決めるうえで周辺の単語が大きな手掛かりとなることが知られている.そのため,本研究では,教師なしの手法を利用する際にも,周辺の単語の分散表現を手掛かりとして利用する.一方で,本研究には階層的な概念辞書である,シソーラスも同時に利用する.WSDに分類語彙表などのシソーラスを用いる手法は数多く提案されている.特に,教師あり手法ではシソーラスから得られる単語の情報や上位概念を素性として利用することが多い.\citeA{shinnou}では,教師あり手法によるWSDにおいて分類語彙表などのシソーラスを素性に利用することの有効性や,上位概念のレベル(シソーラスの粒度)による精度の差があまりないことなどが報告されている.また,シソーラスを用いた辞書ベースの手法は,教師なしの手法のうち最も一般的な手法の一つである.\citeA{yarowsky1992}はロジェのシソーラスを用いた教師なし手法によるWSDの手法を提案した.また,\citeA{koba}はシソーラスを分類語彙表に置き換え,Yarowskyの手法に改良を加えた手法を提案している.これらの手法では,シソーラスにおいて対象単語の語義と同じ分類に属する単語の用例を集め,用例に出現しやすい自立語すなわち語義の特徴の重みを計算することで語義を予測している.また,\citeA{boyd}はWordNetの語義を用いることでトピックモデルを教師なしWSDに応用した.\citeA{guo}も同様にトピックモデルとWordNetの組み合わせの手法を提案しているが,概念構造は利用せず,辞書の定義文から事前学習を行う手法で,all-wordsWSDに関してBoyd-Graberらと同程度の精度を上げている.また,\citeA{tanigaki}は階層ベイズとギブスサンプリングを用いた英語のall-wordsのWSDを提案している.日本語のall-wordsWSDの研究には\citeA{baldwin},\citeA{sasaki}や\citeA{kywsd}がある.日本語は表意文字(漢字)を利用しているため,すでに書かれた時点で意味が分かることが多い.そのため,日本語のWSDは英語のWSDに比べて,語義の差が小さいと考えられる.小さな語義の差を,あまり用例がない状態でも解かなければならない点が,日本語のall-wordsWSDの難しさであろう.\citeA{baldwin}では,machinereadabledictionary(MRD)ベースの手法を提案している.\citeA{sasaki}では,多義語の周辺に現れる語義の分布を利用する教師なし学習による周辺語義モデルを提案している.この論文の手法はギブスサンプリングを用いたシソーラスベースのall-wordsのWSDである.ただしこのシステムにはEDR電子化辞書による概念体系辞書が組み込まれており,再現するのが困難である.また,Shinnouetal.\citeyear{kywsd}は単語分割をするテキスト分析のツールキットを応用し,教師ありの手法でall-wordsWSDを簡易に行えるシステムを作成している.
\section{比較対象となるベースライン手法}
本研究では,四つの比較対象となるベースライン手法を用いた.一つは語義をランダムに選択した場合の正解率(random)である.コーパス中の全多義語の出現ごとの平均語義数の逆数により求めた.二つ目は最頻出の語義をテキストコーパスから疑似的に推定する手法(PseudoMostFrequentSense.以下PMFS)である.この手法では,テストコーパスと同分野についての学習用テキストコーパスをテストコーパスとは別に用意し,語義の頻度を計算する.例えば,学習用コーパスに語義aを持つ単語が出現した場合は語義aの頻度に1を割り振る.また,語義aと語義bを持つ単語(多義語)が出現した場合は語義aに1/2,語義bに1/2の頻度を割り振る.このようにして学習用コーパスでのすべての単語の語義の頻度を加算して,語義ごとに頻度を求めておく.テストの際には,WSDの対象単語のそれぞれの語義候補のうち,求めておいた頻度が最も高い語義を選択する.三つ目は分類語彙表の分類番号を語義としたYarowskyの手法\cite{yarowsky1992}である.Yarowskyの手法では,学習用コーパスから分類番号ごとに用例を集め,その中に出現する特徴の重みを計算しておく.ここでの特徴とは用例に出現する自立語である,語義$c$における特徴$f$の重みは以下の式で定義される.\begin{equation}w(c,f)=\frac{\logPr(f|c)}{Pr(f)}\end{equation}対象単語の周辺の自立語の重みの合計を語義候補ごとに計算し,最も大きい値になった語義を選んでいく.四つ目は,\citeA{boyd}で提案された,latentDirichletallocationwithWordNet(以下LDAWN)と呼ばれる手法である.LDAWNは,トピックモデルLDA(LatentDirichletAllocation)において,各トピックが持つ単語の確率分布を,概念辞書上の単語生成過程であるWORDNET-WALKに置き換え,WSDに応用したモデルである.ルート概念からの経路の違いにより,語義の違いを表現している.WORDNET-WALKとは,WordNetや分類語彙表のような木構造の概念辞書において,ルート概念から下位概念への遷移を確率的に繰り返し,リーフ概念が表す単語を出力する単語生成過程である.LDAWNでは,各文書が持つトピックの確率分布と,各トピックにおける各概念から下位概念への遷移確率分布をギブスサンプリングから求めている.WSDは対象単語のトピックを推定し,対応する遷移確率分布を用いてルート概念から対象単語までの経路を推定することで行える.
\section{概念辞書の類義語と分散表現を利用したall-wordsWSD}
単語の語義は周辺の文脈によって推定できることから,周辺の単語同士が類似している場合,中心の単語同士も類似していると考えられる.我々はこの考えをもとにした教師なしのall-wordsWSDの手法を提案する.我々の提案する手法では,類義語を用いて語義を決定する.ここで,「犬」という単語の例を考える.「犬」という単語には「動物の犬」と「スパイ」という意味の二つの意味がある.どちらの意味なのか決定するために,我々は類義語の文脈と,対象単語の文脈を比較する.文脈を比較するためには,後述する「周辺単語ベクトル」を用いる.ある用例の周辺単語ベクトルが,「動物の犬」という意味を持つ類義語の周辺単語ベクトルよりも,「スパイ」という意味の周辺単語ベクトルに近ければ,その用例の語義は「スパイ」の方であると判定する.周辺単語ベクトルの作成方法として,我々は単語の分散表現を用いる方法,分類番号の分散表現を用いる方法,その両方を用いる方法の三種類の手法を提案する.我々の手法は,WSDを繰り返して行う.はじめに,単語の分散表現を用いる方法で周辺単語ベクトルを求め,類義語の情報から文書内のすべての多義語の語義を推定する.単語の分散表現は語義タグのないテキストコーパスから求められるため,こうして教師なしのall-wordsWSDが実現できる.本研究の語義は分類語彙表の分類番号であるから,語義を推定した時点ですべての単語の分類番号を推定できる.その推定した分類番号をもとに,今度は分類番号の分散表現を作成し,単語の分散表現を用いる方法と同様に,周辺単語ベクトルを求め,類義語の情報から文書内のすべての多義語の語義を推定することで,より正確な語義を推定することができる.この時点で推定された語義(分類番号)もまた,新たな分類番号の分散表現を作成するのに利用できる.我々はこれらの処理を繰り返すことで,最終的な語義を推定した.\subsection{概念辞書の類義語}\label{ssec:wlsp}本研究では,概念辞書として分類語彙表を使用した.分類語彙表とは単語を意味によって分類したシソーラスである.レコード総数は約10万件で,各レコードには「レコードID番号/見出し番号/レコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号/語番号/見出し/見出し本体/読み/逆読み」という項目がある.分類番号は類・部門・中項目・分類項目を表す番号で,分類語彙表では主にこの番号によって単語が分類されている.その他にも“段落番号”,“小段落番号”,“語番号”が各レコードには割り振られており,それらすべての番号によってレコードが一意に決まるようになっている.さらに,分類語彙表には「意味的区切り」が240箇所に存在し,分類番号による分類をさらに細かく分けている.したがって分類の細かさは,分類番号による分類<分類番号+意味的区切りによる分類<分類番号+段落番号による分類<分類番号+段落番号+小段落番号による分類(右に行くほど細かい)といえる.本研究ではこの分類語彙表から対象単語の類義語を求め,語義の予測に用いる.具体的には,“分類番号+意味的区切り”によって同じグループに分類された単語を類義語とする場合と“分類番号+段落番号”によって同じグループに分類された単語を類義語とする場合の2パターンで実験を行った.例えば「犬」という単語は分類語彙表中で二か所に存在する.すなわち,「犬」は二つの分類番号(1.2420,1.5501)を持つ多義語である.分類語彙表における「犬」の一部を表\ref{inu}に示す.\begin{table}[b]\caption{分類語彙表における「犬」}\label{inu}\input{04table01.tex}\end{table}上記の条件で「犬」の類義語を求めると,分類番号:1.2410+意味的区切りで得られる類義語は[スパイ,回し者,…,教師,魔法使い,…]の429単語,1.5501+意味的区切りで得られる類義語は[おおかみ,くま,…,象,馬,…]の302単語となる.また,分類番号+段落番号:1.2410+27で得られる類義語は[スパイ,回し者,…]の11単語,1.5501+04で得られる類義語は[おおかみ,くま,…]の74単語となる.\subsection{単語の分散表現を用いる手法}\label{ssec:w2v}周辺の単語同士が類似している場合,中心の単語同士の語義も類似している,と考え,本稿では以下の手法を提案する.まず,対象単語の周辺の単語(前後2単語ずつ)のそれぞれの分散表現(以下,w2v)を求める.そして,これらのw2vを連結し一つの分散表現にしたものを対象単語の「周辺単語ベクトル」とする.このとき,「.」や「(」などの記号は周辺単語に含めなかった.また,前後の単語数が2に満たないときはnullとし,すべてゼロベクトルで補った.なお,本手法では,自立語以外についても上記の条件を満たせば,分散表現を作成した.次に,分類語彙表から対象単語の語義候補ごとに類義語を求め,コーパス中に出現する類義語からも対象単語と同様に周辺単語ベクトルを作成していく.この際,類義語の周辺単語ベクトルには語義候補の語義をラベル付けしておく.また,\ref{ssec:wlsp}節のようにして分類語彙表から類義語を求めた際に語義候補間で重複する類義語があればその単語はどちらからも除外した\footnote{予備実験によれば有効な手法であったため,このようにした.}.最後に,対象単語の周辺単語ベクトルとラベル付けした類義語の周辺単語ベクトル群との距離を計算し,K近傍法によってラベルを一つ求めこれを対象単語の語義とした.なお,K近傍法を利用したのはデータスパースネスに対して頑健であり,all-wordsWSDでは処理対象となる,コーパス中に用例の少ない単語に対してもWSDを行うことが可能だからである.例えば以下の文における「犬」の語義を提案手法を用いて予測してみる.\[彼は警察の犬だ.\]この文における「犬」の周辺単語は「警察」「の」「だ」「null」となり,単語wの分散表現を$\mathrm{w2v_w}$とすると周辺単語ベクトルは\[\begin{bmatrix}\mathrm{w2v_{警察}}&\mathrm{w2v_{の}}&\mathrm{w2v_{だ}}&\mathrm{w2v_{null}}\end{bmatrix}\]となる.ここでnullは文脈が文の外側に出る場合に素性が未定義であることを表す.次に「犬」の類義語を求め,用例を集める.「犬」の語義候補は分類番号1.2410と1.5501であり,\ref{ssec:wlsp}節で述べたようにして類義語を求めると1.2410の類義語は[スパイ,回し者,…],1.5501の類義語は[きつね,くま,…]となるが,この中から多義語はすべて除外し(「くま」は多義語なので除外する)単義語のみ使用する.さらに,1.2410の類義語と1.5501の類義語に重複する単語がある場合はどちらからも除外する.コーパス中に出現するこれらの類義語から,「犬」と同じようにして周辺単語ベクトルを作っていき(図\ref{12410},図\ref{15501}),1.2410または1.5501のラベルを付与する.最後に,「犬」の周辺単語ベクトルとラベルが付与された類義語の周辺単語ベクトルの距離を計算し,K近傍法で「犬」の周辺単語と距離が近いラベルを求め語義を決定する.\begin{figure}[t]\begin{center}\includegraphics{26-2ia4f1.eps}\end{center}\caption{1.2410の類義語の用例とその周辺単語ベクトル}\label{12410}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-2ia4f2.eps}\end{center}\caption{1.5501の類義語の用例とその周辺単語ベクトル}\label{15501}\end{figure}\subsection{分類番号の分散表現を用いる手法}\label{ssec:c2v}本手法では,分類番号の分散表現(以下,c2v)を作成し語義の予測に用いる.まず,\ref{ssec:w2v}節の手法によって予測した結果をもとに,コーパス全体を分類番号の系列(語義列)に変換する.例えばコーパスが図\ref{corpus}のような場合,“ビデオ”(1.4620)などは語義を1つしか持たない単義語であるためその語義に置き換え,“ジョッキー”(1.2410or1.2450)や“年”(1.1630or1.1962)などの多義語は\ref{ssec:w2v}節の手法で予測した語義に置き換える.なお,“根本”や“が”や“「”のような分類番号を持たない単語は置き換えずにそのままとする.したがって,分類番号の系列は図\ref{concept}のようになる.こうして作成した分類番号の系列を分散表現作成ツール(gensimのWord2Vec\footnote{https://radimrehurek.com/gensim/models/word2vec.html})に入力することで,テキストコーパスの単語列からw2vを作成したように,分類番号の系列からc2vを作成する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia4f3.eps}\end{center}\caption{コーパスの例}\label{corpus}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-2ia4f4.eps}\end{center}\caption{分類番号の系列}\label{concept}\end{figure}次に,\ref{ssec:w2v}節の手法と同じようにして語義を予測していく.このとき,周辺単語ベクトルはw2vとc2vを組み合わせた場合と,c2vのみの場合の2通りとした.また,\ref{ssec:w2v}節の手法では類義語の中から多義語をすべて排除したが,そうすることで用例が少なくなるという問題点がある.そこで本手法では周辺単語ベクトルを作る際に,\ref{ssec:w2v}節の手法で語義候補の語義と予測された多義語の用例も追加した.前述の例文の「犬」の語義を予測するまでの流れを以下に示す.まずは「犬」の周辺単語ベクトルを作成する.周辺単語が「警察」,「の」,「だ」,「null」のとき,w2v+c2vで作成した周辺単語ベクトルは\[\begin{bmatrix}\mathrm{w2v_{警察}}&\mathrm{c2v_{警察}}&\mathrm{w2v_{の}}&\mathrm{c2v_{の}}&\mathrm{w2v_{だ}}&\mathrm{c2v_{だ}}&\mathrm{w2v_{null}}&\mathrm{c2v_{null}}\end{bmatrix}\]となり,c2vで作成した周辺単語ベクトルは\pagebreak\[\begin{bmatrix}\mathrm{c2v_{警察}}&\mathrm{c2v_{の}}&\mathrm{c2v_{だ}}&\mathrm{c2v_{null}}\end{bmatrix}\]となる.次にコーパス中に出現する類義語から周辺単語ベクトルを「犬」と同じようにして作成する.このとき,「犬」の1.5501における類義語には「くま」が含まれるが,「くま」は2つの分類番号(1.1700,1.5501)を持つ多義語である.この場合,\ref{ssec:w2v}節の手法によって1.5501と予測された「くま」の用例からも周辺単語ベクトルを作成する.最後に,\ref{ssec:w2v}節と同様にK近傍法によって語義を求める.
\section{評価実験}
\label{評価実験}実験にはBCCWJに分類語彙表の分類番号がアノテーションされたコーパスを使用する.コーパス中のすべての多義語の語義を予測する問題設定とする.また,ここでいう多義語とは,複数の分類番号を持つ単語である.表\ref{sample},表\ref{data}に使用したコーパスの文書数と統計を示す.なお,表\ref{data}および以降における「トークン」の数とは出現したのべ数であり,「タイプ」とは種類の数を指す.特に,単語のタイプ数は語彙数に相当する.多義語(トークン)の平均語義数は,コーパス中の多義語の用例を無作為にひとつ選んだ際,その多義語が平均どのくらいの用例をコーパス中に持っているかを示している.表\ref{data}において平均語義数は2.98なので,当て推量してみると1/2.98(=0.336)の確率で正解になることを示している.\begin{table}[b]\caption{コーパスに含まれるジャンルとその文書数}\label{sample}\input{04table02.tex}\end{table}\begin{table}[b]\caption{コーパスの統計}\label{data}\input{04table03.tex}\end{table}また,比較手法のPMFSとYarowskyの手法で用いる学習用コーパスにはBCCWJの分類番号が付与されていない部分も含めて使用した.表\ref{sample_t},表\ref{data_t}に使用した学習用コーパスの文書数と統計を示す.\begin{table}[t]\caption{学習用コーパスに含まれるジャンルとその文書数}\label{sample_t}\input{04table04.tex}\end{table}\begin{table}[t]\caption{学習用コーパスの統計}\label{data_t}\input{04table05.tex}\end{table}提案手法とLDAWNでは,テストコーパスのみを用いて実験を行った.Yarowskyの手法において,学習用コーパスから用例を集める際は前後10単語ずつとした.さらに,対象単語の周辺単語の重みの和を求めるときも,前後10単語ずつから求めた.LDAWNでは,\citeA{sasaki}を参考にパラメータを設定した.具体的には1文を1文書とし,メタパラメータであるK(トピック数)は32,S(遷移確率の調整定数)は10そして$\tau$(ディリクレ分布のprior)は0.01とした.提案手法では類義語を分類語彙表から“分類番号+意味的区切り”を用いて求める場合と“分類番号+段落番号”を用いて求める場合の2通りで実験を行った.w2vの作成にはnwjc2vec\cite{nwjc2vec}を使用した.nwjc2vecとは,国語研日本語ウェブコーパス(NWJC)に対してword2vec\cite{Mikolov1,Mikolov2,Mikolov3}で学習を行った分散表現データである.word2vecのパラメータは,アルゴリズムにContinuousBag-of-Words(C-BoW)を利用し,次元数を200,ウィンドウ幅を8,ネガティブサンプリングに使用する単語数を25,反復回数を15としている.c2vは,コーパスを分類番号の系列に変換したものを同じくword2vecで学習して作成した.その際,アルゴリズムはC-BoWを利用し,次元数を50,ウィンドウ幅を5,ネガティブサンプリングに使用する単語数を5,反復回数を3,min-countを1,として学習を行った.また,周辺単語ベクトルを作成する際,周辺に単語が四つない場合(対象単語が文頭や文末にある場合などnullに相当する)や,word2vecで学習されていない単語の分散表現などは,同じ次元の零行列を用いた.周辺単語ベクトルの作成に用いる周辺単語の数は前後2単語ずつの4単語とした.したがって,w2vのみで作成した周辺単語ベクトルは800次元,w2v+c2vで作成した周辺単語ベクトルは1000次元となる.周辺単語ベクトルの距離を測りK近傍法で分類する過程にはscikit-learn\footnote{https://scikit-learn.org/stable/}のKNeighborsClassifierを使用した.ここではユークリッド距離を使用し,k=1,3,5,weight=uniform,distance(uniform=重みなし,distance=重みあり)で実験を行った.実験では,最も良いパラメータを選ぶため,w2vを利用した場合,w2v+c2vを利用した場合,c2vを利用した場合のそれぞれに対し,パラメータ三種類(“分類番号+意味的区切り”/“分類番号+段落番号”,k=1/3/5,uniform/distance)のバリエーションを試した.この際,w2vを利用した場合では一度目(繰り返しなし),w2v+c2vを利用した場合とc2vを利用した場合では二度目(一度目はw2vを利用し,二度目でw2v+c2vまたはc2vを利用して繰り返した)の結果で比較する.また,この際に最も良かった設定について五度繰り返して正解率を見た.
\section{結果}
四つの比較手法および三つの提案手法の結果を表\ref{hikaku}に示す.提案手法の結果は,w2vを利用した手法,w2v+c2vを利用した手法,c2vを利用した手法における,それぞれ最も結果が良かった場合のパラメータを利用した際の結果である.パラメータについては考察で述べる.\begin{table}[b]\caption{比較手法と提案手法の正解率(\%)}\label{hikaku}\input{04table06.tex}\end{table}また,表\ref{boot}に最良の場合の手法とパラメータを利用した場合の繰り返しによる正解率の変化を示す.最も良い数値を太字で示した.\begin{table}[b]\caption{繰り返しによる正解率の変化(\%)}\label{boot}\input{04table07.tex}\end{table}表\ref{hikaku}から,提案手法w2v+c2vと提案手法c2vが,比較手法であるrandom,PMFS,Yarowskyの手法,LDAWNのすべてを上回る結果となったことが分かる.なお,比較手法の中ではPMFSの正解率が最も高い結果となった.w2vを利用した手法,w2v+c2vを利用した手法,c2vを利用した手法の三手法を比較すると,w2v+c2vを利用した手法が最もよく,続いてc2vを利用した手法となり,このことからc2vの利用がall-wordsWSDにおいて有効であることが示された.繰り返しの効果について表\ref{boot}を見てみると,w2vだけを用いた一度目の結果よりも,c2vも併せて用いた二度目の結果(一度繰り返したとき)の方が正解率が上昇している\footnote{予備実験では,w2vだけを利用して繰り返すパターンも試したが,正解率はあまり上昇しなかった.}.これに対して三度目の結果は僅かに上昇し,その後は変化がない.このため,c2vを導入した繰り返しに効果はあるが,何度も繰り返しても正解率はあまり変わらないことが分かった.
\section{考察}
\subsection{提案手法のパラメータ}提案手法のパラメータ別の結果を表\ref{para}に示す.一つの実験の中で最も良い数値を太字とした.また,提案手法の中で最も良い数値には下線を引いた.さらに,比較手法すべてよりも良い結果となったものを斜体で示した.\begin{table}[b]\caption{パラメータごとの正解率(\%)}\label{para}\input{04table08.tex}\end{table}表\ref{para}から,提案手法で最も良い結果となったのは“分類番号+意味的区切り”,w2v+c2vを用いた場合であることが分かる.また,提案手法ではKの値や重みの有無によって精度に大きな差がないことが分かった.類義語の決め方に注目すると,“分類番号+意味的区切り”を使用するほうが“分類番号+段落番号”を利用した場合に比べて,常に良い結果となっていることがわかる.類義語の区分に“分類番号+段落番号”を利用した場合には,c2vの導入によって正解率が下がっている.このことから,類義語の区分には適切なものを利用する必要があることが分かる.比較手法の結果と提案手法の正解率を比べると,“分類番号+意味的区切り”,w2v+c2vまたは“分類番号+意味的区切り”,c2vを用いた場合(表の4〜7行目)ではrandom,PMFS,Yarowskyの手法,LDAWNのすべてを上回る結果となった.\subsection{他手法との比較}Yarowskyの手法と本研究の提案手法は,類義語の周辺の単語を用いるという点では同じである.Yarowskyの手法は計算量が提案手法よりも少ないことから,大きな学習用コーパスから用例を集めることや,周辺単語として前後20単語を利用することができる.一方,提案手法は計算量が多いため,学習用コーパスは用意せずにWSDの対象となるコーパスから用例を集め,周辺単語も前後4単語しか利用していない.それでもYarowskyの手法を上回る結果となったことから,分散表現がWSDにおいて有効であることがわかる.また,提案手法はLDAWNも上回った.しかもLDAWNはYarowskyの手法よりも劣った.これには二つの原因が考えられる.一つは本研究のタスクがall-wordsWSDであることである.教師なしWSDの研究は多いが,それらの手法がそのまま教師なしall-wordsWSDにおいて高精度の結果を出せるわけではない.トピックモデルを利用した手法がそのような手法の一つだと考えられる.トピックモデルを利用した教師なしWSDは,本質的に,対象単語の文脈をトピック分布で表現し,その分布が語義ごとに異なることを利用する.しかし語義の違いを区別するためのトピックの分割が全ての単語で同一である保証はない.またLDAWNでは妥当な分割を求める手がかりとして語義の階層構造を利用するが,その階層構造として,分類語彙表の語義の階層構造が適切であるかどうかも疑問である.一方,提案手法は単語や語義の分散表現を利用しており,WSDの対象単語に依存しない.このため,よりall-wordsWSDに適した手法となっている.二つ目はWSDで利用する対象単語の文脈情報として,トピック分布だけでは不十分であることである.トピックは大域的な文脈情報である.しかし実際にWSDで有効な情報は,直前直後の出現単語といった局所的な文脈情報である,LDAWNはそのような局所的な情報を直接的には利用していない.一方,本手法やYarowskyの手法は直接的に局所的な文脈情報を利用しているために,LDAWNを上回ったと考えられる.特に日本語は表意文字を利用しているため,英語に比べて語義同士の意味が近い.そのため,トピックのような大域的な文脈よりも,周辺の単語のような局所的な文脈が効いたものと考えられる.また,提案手法では分類語彙表に多く含まれる,類義語の情報を利用しているため,上位下位概念よりも多くの情報が利用できる.さらに提案手法は分散表現を利用しているため,同一の単語でなくても類似度が計算でき,K近傍法を利用したことによってデータスパースネスに強い手法となっている.\begin{table}[b]\caption{「犬」の分類番号1.2410の類義語になりうる単語(一部省略)}\label{1.2410-of-wlsp}\input{04table09.tex}\end{table}\subsection{類義語についての考察}提案手法では分類語彙表から類義語を求めてWSDに利用する.類義語は,対象単語と意味が近いほど類義語として好ましい.しかし,意味が近い単語に限定しすぎると類義語の数,すなわち類義語の用例の数が少なくなってしまい語義の予測に影響が出てしまう.例えば,「犬」の分類番号1.2410の類義語になりうる単語を列挙すると表\ref{1.2410-of-wlsp}のようになる.分類番号が等しく多義語でない単語を類義語とした場合(分類番号1.2410には意味的区切りは存在しない.)「犬」の類義語は429単語となり,その中には「教育家」や「教師」,「神官」などの単語も含まれる.しかしこれらの単語は「犬」の語義とそれほど近い語義を持っているわけではなく,「犬」の語義を予測する場合に役立っているとは考えにくい.一方,“分類番号+段落番号”が等しい単語を類義語とした場合は「犬」とかなり意味的に近い単語に限定され,これらの単語は「犬」と言い換えても文脈が変化しないため類義語としてふさわしい単語だといえる.しかしその数はわずか11単語となり類義語の用例の数が大きく減少してしまう.そこで,本研究で用いたコーパスにおいて多義語が一つの語義から類義語の用例をいくつ獲得できるか平均を求めると,表\ref{num-ruigigo}のようになった.正解・不正解はw2vを利用した場合(表\ref{para}の2,3,8,9行目)の結果である.\begin{table}[t]\caption{一つの語義から獲得した類義語の用例数の平均}\label{num-ruigigo}\input{04table10.tex}\end{table}多義語全体の平均を見ると,“分類番号+意味的区切り”に比べて分類番号+段落番号を類義語の定義として用いた場合は獲得できる用例の数が大幅に少なくなっていることがわかる.本研究では,“分類番号+段落番号”で類義語を集めた場合,“分類番号+意味的区切り”で類義語を集めた場合と比べて精度が下がっているが,これは獲得できる類義語の用例数が著しく減少したことが原因だと考えられる.また,正解した多義語が獲得した用例数の平均が不正解した場合を大きく上回っていることからも,語義を正しく予測するには類義語の用例数をある程度多く獲得する必要があることが分かった.ただし,最も多く用例を獲得できた語義は“分類番号+意味的区切り”だと2.1200で用例の数は5,535個,“分類番号+段落番号”だと1.1960-01で用例の数は3,974個であり,用例の数が最も少なかったのは2.1340や3.1522-05で用例の数は1個だった.このことから,分類語彙表を用いて類義語の用例を獲得する場合用例の数は語義ごとにかなりばらつきが生まれることも確認できた.したがって本研究の提案手法は,用例が極端に少ない場合には学習用コーパスを用意して用例を獲得したり,広い意味で類義語を定義して用例の数を増やしたりすることで精度が向上する可能性が考えられる.また,用例が極端に多い場合は,段落番号や小段落番号を用いるなど,類義語を狭い意味で定義し,対象単語により意味が近い単語に限定することで精度が向上し,さらに計算量を減少させることができると考えられる.
\section{おわりに}
本稿では,教師なしによる日本語のall-wordsWSDの手法を提案した.具体的には,対象単語の周辺単語ベクトルと対象単語の類義語の周辺単語ベクトルを作成し,それらの距離を計算してK近傍法によって語義を求める.周辺単語ベクトルは,前後2単語ずつのw2vを連結したベクトル,w2v,c2vを連結したベクトル,c2vを連結したベクトルの3通りで実験を行った.c2vは予測結果をもとにコーパスを分類番号の分かち書きに変換して作成した.類義語は分類語彙表から“分類番号+意味的区切り”,“分類番号+段落番号”の2通りの方法で定義し,それぞれで実験を行った.実験の結果,w2v+c2v,“分類番号+意味的区切り”を用いた場合が最も高い精度となった.また,提案手法ではランダムベースライン,PMFS,Yarowskyの手法,LDAWNを超える精度を出すことができ,語義曖昧性解消において有効な手法であることが確認できた.さらに結果を分析すると,不正解だった対象単語の1語義当たりの類義語の用例数が正解だった場合と比べて少ない傾向にあることや,獲得できる類義語の用例数は語義によってばらつきがあることが確認できた.これらのことから,本手法で精度をさらに向上させる方法として,類義語の用例を獲得しづらい語義では学習用コーパスから用例を獲得する,類義語の意味の幅を広くするなどの方法で用例数を確保することが考えられる.\acknowledgment本研究は,国立国語共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」および「all-wordsWSDシステムの構築および分類語彙表と岩波国語辞典の対応表作成への利用」の研究成果を含んでいます.また,本研究はJSPS科研費15K16046および18K11421の助成と,茨城大学女性エンパワーメントプロジェクトの助成を受けたものです.また,本論文の内容の一部は,11theditionoftheLanguageResourcesandEvaluationConferenceで発表したものです\cite{Suzuki-2018}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldwin,Kim,Bond,Fujita,Martinez,\BBA\Tanaka}{Baldwinet~al.}{2008}]{baldwin}Baldwin,T.,Kim,S.~N.,Bond,F.,Fujita,S.,Martinez,D.,\BBA\Tanaka,T.\BBOP2008\BBCP.\newblock\BBOQMRD-basedWordSenseDisambiguation:FurtherExtendingLesk.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\775--780}.\bibitem[\protect\BCAY{Boyd-Graber,Blei,\BBA\Zhu}{Boyd-Graberet~al.}{2007}]{boyd}Boyd-Graber,J.,Blei,D.,\BBA\Zhu,X.\BBOP2007\BBCP.\newblock\BBOQATopicModelforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemEMNLP-CoNLL-2007},\mbox{\BPGS\1024--1033}.\bibitem[\protect\BCAY{Gale,Church,\BBA\Yarowsky}{Galeet~al.}{1992}]{Gale:1992:OSP:1075527.1075579}Gale,W.~A.,Church,K.~W.,\BBA\Yarowsky,D.\BBOP1992\BBCP.\newblock\BBOQOneSensePerDiscourse.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSpeechandNaturalLanguage},HLT'91,\mbox{\BPGS\233--237},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Guo\BBA\Diab}{Guo\BBA\Diab}{2011}]{guo}Guo,W.\BBACOMMA\\BBA\Diab,M.\BBOP2011\BBCP.\newblock\BBOQSemanticTopicModels:CombiningWordDistributionalStatisticsandDictionaryDefinitions.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\552--561}.\bibitem[\protect\BCAY{Kato,Asahara,\BBA\Yamazaki}{Katoet~al.}{2018}]{Kato-2018}Kato,S.,Asahara,M.,\BBA\Yamazaki,M.\BBOP2018\BBCP.\newblock\BBOQAnnotationof`WordListbySemanticPrinciples'LabelsforBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe32ndPacificAsiaConferenceonLanguage,InformationandComputation(PACLIC32)}.\bibitem[\protect\BCAY{小林\JBA白井}{小林\JBA白井}{2018}]{koba}小林健人\JBA白井清昭\BBOP2018\BBCP.\newblock分類語彙表の分類項目を識別する語義曖昧性解消—Yarowskyモデルの適応と拡張—.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\244--247}.\bibitem[\protect\BCAY{Komiya,Sasaki,Morita,Sasaki,Shinnou,\BBA\Kotani}{Komiyaet~al.}{2015}]{sasaki}Komiya,K.,Sasaki,Y.,Morita,H.,Sasaki,M.,Shinnou,H.,\BBA\Kotani,Y.\BBOP2015\BBCP.\newblock\BBOQSurroundingWordSenseModelforJapaneseAll-wordsWordSenseDisambiguation.\BBCQ\\newblockIn{\BemPACLIC2015},\mbox{\BPGS\35--43}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{Mikolov2}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofICLRWorkshop2013},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{Mikolov3}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS2013},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Mikolov,tauYih,\BBA\Zweig}{Mikolovet~al.}{2013c}]{Mikolov1}Mikolov,T.,tauYih,W.,\BBA\Zweig,G.\BBOP2013c\BBCP.\newblock\BBOQLinguisticRegularitiesinContinuousSpaceWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL2013},\mbox{\BPGS\746--751}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{Okumura-2011}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{新納\JBA浅原\JBA古宮\JBA佐々木}{新納\Jetal}{2017}]{nwjc2vec}新納浩幸\JBA浅原正幸\JBA古宮嘉那子\JBA佐々木稔\BBOP2017\BBCP.\newblocknwjc2vec:国語研日本語ウェブコーパスから構築した単語の分散表現データ.\\newblock\Jem{自然言語処理},{\Bbf24}(5),\mbox{\BPGS\705--720}.\bibitem[\protect\BCAY{Shinnou,Komiya,Sasaki,\BBA\Mori}{Shinnouet~al.}{2017}]{kywsd}Shinnou,H.,Komiya,K.,Sasaki,M.,\BBA\Mori,S.\BBOP2017\BBCP.\newblock\BBOQJapaneseall-wordsWSDsystemusingtheKyotoTextAnalysisToolKit.\BBCQ\\newblockIn{\BemProceedingsofPACLIC2017,no.~11},\mbox{\BPGS\392--399}.\bibitem[\protect\BCAY{新納\JBA佐々木\JBA古宮}{新納\Jetal}{2015}]{shinnou}新納浩幸\JBA佐々木稔\JBA古宮嘉那子\BBOP2015\BBCP.\newblock語義曖昧性解消におけるシソーラスの利用問題.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\59--62}.\bibitem[\protect\BCAY{Sugawara,Takamura,Sasano,\BBA\Okumura}{Sugawaraet~al.}{2015}]{suga}Sugawara,H.,Takamura,H.,Sasano,R.,\BBA\Okumura,M.\BBOP2015\BBCP.\newblock\BBOQContextRepresentationwithWordEmbeddingsforWSD.\BBCQ\\newblockIn{\BemProceedingsofPACLING2015},\mbox{\BPGS\108--119}.\bibitem[\protect\BCAY{Suzuki,Komiya,Asahara,Sasaki,\BBA\Shinnou}{Suzukiet~al.}{2018}]{Suzuki-2018}Suzuki,R.,Komiya,K.,Asahara,M.,Sasaki,M.,\BBA\Shinnou,H.\BBOP2018\BBCP.\newblock\BBOQAll-wordsWordSenseDisambiguationUsingConceptEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofthe11theditionoftheLanguageResourcesandEvaluationConference(LREC2018)},\mbox{\BPGS\1006--1011}.\bibitem[\protect\BCAY{谷垣\JBA撫中\JBA匂坂}{谷垣\Jetal}{2016}]{tanigaki}谷垣宏一\JBA撫中達司\JBA匂坂芳典\BBOP2016\BBCP.\newblock語の出現と意味の対応の階層ベイズモデルによる教師なし語義曖昧性解消.\\newblock\Jem{情報処理学会論文誌},{\Bbf57}(8),\mbox{\BPGS\1850--1860}.\bibitem[\protect\BCAY{Yamaki,Shinnou,Komiya,\BBA\Sasaki}{Yamakiet~al.}{2016}]{yamaki}Yamaki,S.,Shinnou,H.,Komiya,K.,\BBA\Sasaki,M.\BBOP2016\BBCP.\newblock\BBOQSupervisedWordSenseDisambiguationwithSentencesSimilaritiesfromContextWordEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofPACLIC2016},\mbox{\BPGS\115--121}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1992}]{yarowsky1992}Yarowsky,D.\BBOP1992\BBCP.\newblock\BBOQWord-senseDisambiguationusingStatisticalModelsofRoget'sCategoriesTrainedonLargeCorpora.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\454--460}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{yarowsky1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemACL1995},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{鈴木類}{2017年茨城大学工学部情報工学科卒.2019年茨城大学大学院理工学研究科情報工学専攻修了.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部コミュニケーション工学科卒.2009年同大学大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部.現在,茨城大学工学部情報工学科教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V14N01-03
|
\section{はじめに}
コンピュータに自然言語の意味を理解させるためには,文の述語とその項の意味的な関係を表現する必要がある.竹内は,述語と項の深層関係を表現する手法としての語彙概念構造に着目,これに基づく辞書を提案している\cite{takeuchi04,takeuchi05}.語彙概念構造は述語と項の深層関係を抽象化するため,言い換えの分野で有効性が示されている\cite{furuhata04}.河原らは,用言とその直前の格要素の組を単位とした用例ベースの辞書,格フレーム辞書を提案し,それに基づく格解析モデルを提案している\cite[など]{kawahara05_1,kawahara05}.照応や省略の解析に格フレーム辞書の有効性が示されている\cite[など]{sasano04,kawahara04,kawahara03}.格フレーム辞書は表層格を表現・区別し,語彙概念構造は表層格および深層関係を抽象化するものであり,表層格で区別できない述語と項の意味関係を個々の項について詳細に表現することはできない.これに対し,述語と項との詳細な意味関係を典型的場面についての構造化された知識である意味フレームに即して表現した体系として,日本語フレームネットが提案されている\cite[など]{ohara05}.日本語フレームネットは英語語彙情報資源FrameNet\footnote{http://framenet.icsi.berkeley.edu}と同様にフレーム意味論\cite{fillmore82}に基づく日本語語彙情報資源で,意味フレーム別に,その意味要素である詳細な意味役割を定義し,その意味フレームに関与する述語項構造の述語となる語彙項目をリストアップしている.格フレーム辞書,語彙概念構造辞書および日本語フレームネットによる,述語「払う」に対する記述を図\ref{fig:resource_comparison}に示す.\begin{figure}[p]\setlength{\tabcolsep}{1.3mm}\begin{tabular}{llllllllllll}\hline\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf格フレーム辞書}$^{*1}$}\\&\multicolumn{11}{l}{払う:動1}\\&&\multicolumn{2}{r}{*$\langle$ガ格$\rangle$}&\multicolumn{8}{l}{私:393,人:246,者:215,俺:168,自分:158,僕:101,あなた:38,$\langle$数量$\rangle$人:37,...}\\&&\multicolumn{2}{r}{*$\langle$ヲ格$\rangle$}&\multicolumn{8}{l}{金:18570,料:7522,料金:4101,税金:2872,$\langle$数量$\rangle$円:2726,費:1643,税:1340,...}\\&&\multicolumn{2}{r}{*$\langle$ニ格$\rangle$}&\multicolumn{8}{l}{$\langle$補文$\rangle$:336,人:250,者:233,会社:211,業者:127,店:95,NTT:72,屋:68,...}\\&&\multicolumn{2}{r}{*$\langle$デ格$\rangle$}&\multicolumn{8}{l}{レジ:106,$\langle$時間$\rangle$:75,受付:74,入り口:63,税金:63,$\langle$補文$\rangle$:56,コンビニ:55,...}\\&&\multicolumn{2}{r}{*$\langle$無格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:2739,$\langle$数量$\rangle$ドル:371,$\langle$数量$\rangle$回:363,$\langle$数量$\rangle$元:102,$\langle$数量$\rangle$人:96,...}\\&&\multicolumn{2}{r}{$\langle$時間$\rangle$}&\multicolumn{8}{l}{$\langle$時間$\rangle$:677}\\&&\multicolumn{2}{r}{$\langle$ノ格$\rangle$}&\multicolumn{8}{l}{$\langle$数量$\rangle$円:963,$\langle$時間$\rangle$:499,$\langle$数量$\rangle$:260,$\langle$数量$\rangle$ドル:164,$\langle$数量$\rangle$倍:153,...}\\&\multicolumn{11}{l}{払う:動2}\\&&\multicolumn{10}{l}{$\vdots$}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf語彙概念構造}$^{*2*3}$}\\&\multicolumn{3}{l}{払う}&\multicolumn{8}{l}{[[~]xCONTROL[BECOME[[~]yBEAT[FILLED]z]]]}\\\vspace*{-2mm}&&&&&&&&&&&\\\hline\vspace*{-2mm}&&&&&&&&&&&\\\multicolumn{12}{l}{\normalsize{\bf日本語フレームネット}$^{*4*5}$}\\&\multicolumn{11}{l}{払う.v}\\&&\multicolumn{2}{l}{Frame:}&\multicolumn{8}{l}{Commerce\_pay}\\&&\multicolumn{2}{l}{Definition:}&\multicolumn{8}{l}{IPAL:相手に受け取る権利のある金を渡す.}\\&&\multicolumn{10}{l}{FrameElements:}\\\cline{4-11}&&&\multicolumn{2}{l}{FrameElement}&\multicolumn{6}{l}{Realizations}&\\\cline{4-11}&&&\multicolumn{2}{l}{\itBuyer}&DNI.--.--&INC.--.--&INI.--.--&NP.Ext.--&NP.Ext.ガ&&\\&&&\multicolumn{2}{l}{\itCircumstances}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itGoods}&NP.Obj.ヲ&&&&&&\\&&&\multicolumn{2}{l}{\itMeans}&NP.Dep.デ&&&&&&\\&&&\multicolumn{2}{l}{\itMoney}&NP.Obj.ヲ&DNI.--.--&NP.Obj.ハ&NP.Dep.--&NP.Obj.--&NP.Obj.モ&\\&&&\multicolumn{2}{l}{\itPlace}&NP.Dep.ニ&NP.Dep.デ&NP.Dep.ハ&&&&\\&&&\multicolumn{2}{l}{\itRate}&AVP.Dep.--&&&&&&\\&&&\multicolumn{2}{l}{\itReason}&AVP.Dep.--&Sfin.Dep.--&NP.Dep.カラ&&&&\\&&&\multicolumn{2}{l}{\itSeller}&DNI.--.--&NP.Dep.ヘ&INI.--.--&NP.Ext.ハ&&&\\&&&\multicolumn{2}{l}{\itTime}&NP.Dep.ニ&NP.Dep.モ&&&&&\\\cline{4-11}&&&&&&&&&&&\\\hline\hline\multicolumn{12}{r}{\begin{minipage}[t]{0.8\textwidth}\footnotesize\begin{itemize}\item[\hspace*{3mm}*1]\texttt{http://reed.kuee.kyoto-u.ac.jp/cf-search/}で検索した結果の一部を引用した.\item[\hspace*{3mm}*2]\texttt{http://cl.it.okayama-u.ac.jp/rsc/lcs/}から引用した.\item[\hspace*{3mm}*3]この例では,\texttt{x,y,z}は表層ではそれぞれ「が」「を」「に」格,深層ではそれぞれAgent,Theme,Goalに対応している.\item[\hspace*{3mm}*4]ここに示した日本語フレームネットデータは2006年8月現在のものである.\item[\hspace*{3mm}*5]表において,``FrameElement''(フレーム要素)はいわゆる深層格に当たる.\end{itemize}\end{minipage}}\\\end{tabular}\vspace{4pt}\caption{格フレーム辞書,語彙概念構造および日本語フレームネットにおける述語「払う」の記述}\label{fig:resource_comparison}\end{figure}FrameNetは機械翻訳や語義曖昧性解消の分野で有効と考えられており,将来の適用に向けて,FrameNet意味役割を自動推定するタスクのコンテストも開催されている\footnote{http://www.lsi.upc.edu/$\tilde{~}$srlconll/home.htmlならびにhttp://www.senseval.org/}\cite{litkowski04}.FrameNetに基づく意味役割自動推定は,述語の各項に対し,詳細な意味役割に相当する,フレーム意味論における「フレーム要素(FrameElement)」を付与する試みである.この研究はGildeaらの提案に端を発する\cite{gildea02}.Gildeaらは,条件付き確率モデルを用いた意味役割推定に加え,確率モデルの学習に必要な訓練事例の自動生成手法も提案した.Gildeaらの提案は,形式意味論の枠組みに沿って述語と項の意味的な関係を表現するPropBank\cite[など]{kingsbury02}を背景とした意味役割推定手法においても参照され,その改良として,確率モデルの獲得手法に最大エントロピー(ME)法\cite{berger96}やサポートベクタマシン(SVM)\cite{vapnik99}を用いた意味役割推定が複数提案された\cite[など]{kwon04,pradhan04,bejan04}.また,文中のどの部分が項であるかを同定するため,形態素の品詞や句の文法機能を用いて項を抽象化し,頻出するものを項とする手法も提案された\cite{baldewein04}.日本語フレームネットではFrameNetの枠組や方法論をふまえ,日英の比較対照を考慮した日本語語義記述が実践されているが,日本語フレームネットを用いた,日本語を対象とした意味役割の自動推定に関する研究は行われていない.そこで本稿では,日本語フレームネットに基づき,述語項構造における項の意味役割を推定するモデルを提案する.日本語フレームネットは現在作成中であり,現時点では語彙資源の規模が非常に小さい\footnote{2006年8月現在,FrameNetの注釈付き事例数約150,000に対し,日本語フレームネットの注釈付き事例数は1,756.}.そのため,日本語の意味役割推定にはある程度規模の大きい英語FrameNetを対象とした既存の手法をそのまま適用できず,小規模の語彙資源でも十分な精度で推定可能な手法を新たに考える必要がある.本稿では以上を踏まえ,日本語フレームネットの注釈付き事例に基づく機械学習を用いて,意味役割を推定するモデルの獲得手法を提案する.意味役割推定モデルは,文と述語から述語項構造を同定,意味役割を付与すべき項を抽出し,それらに適切な意味役割を付与するという3つのタスクを担う.モデルの獲得には最大エントロピー法ならびにサポートベクタマシンを用い,項候補の獲得には構文情報を利用する.同時に,モデルの学習に必要な訓練事例の自動生成も行う.
\section{モデルの定義}
label{sec:models_def_proposal}本稿で提案する意味役割推定モデルは,与えられた文と述語に対して取り得る全ての意味役割注釈パタン\footnote{文中のどの部分が述語の項に当たるか,またそれぞれの項がどの意味役割を持つのか,の2点に対する1つの可能性を意味役割注釈パタンと呼ぶ.}についての尤度を計算し,尤度が最も高い注釈パタンを出力するモデルである.すなわち,入力文$T$と述語$t$が与えられた時の意味役割注釈パタン$L$の確率$P(L|t,T)$を最大にする意味役割注釈パタン$L_{best}$が最終的な出力となる.\begin{eqnarray}\label{eqn:rolelabeling0_proposal}L_{best}&=&\argmax{L}\:P(L|t,T)\end{eqnarray}注釈パタン$L$はフレーム$f$,項候補集合$S$,項候補-意味役割対応関係$C$により一意に決定されるため,式(\ref{eqn:rolelabeling0_proposal})右辺$P(L|t,T)$を以下のように定義した.\begin{eqnarray}P(L|t,T)&\approx&P(C,S,f|t,T)\nonumber\\\vspace*{-2mm}\label{eqn:rolelabeling1_proposal}&=&P(C|S,f,t,T)\timesP(S|f,t,T)\timesP(f|t,T)\end{eqnarray}本稿では式(\ref{eqn:rolelabeling1_proposal})右辺を第1項からそれぞれ,対応付けモデル,項候補獲得モデル,フレーム選択モデルと呼ぶ\footnote{対応付けモデルはKwonらの手法\cite{kwon04}におけるSemanticRoleTaggingに対応し,項候補獲得モデルはSentenceSegmentationおよびArgumentIdentificationに対応する.}.図\ref{fig:flow}に,これらのモデルの概要を示す.図\ref{fig:flow}中の各モデルについては以下で詳説する.ただし,項候補獲得モデル中の項候補同定モデル,および対応付けモデル中の自項独立/他項依存意味役割同定モデルの詳細は\ref{sec:outline_proposal}節で述べる.\begin{figure}[t]\begin{center}\includegraphics[width=0.55\textwidth]{overview2.eps}\caption{意味役割推定の流れ}\label{fig:flow}\end{center}\end{figure}\subsection{フレーム選択モデル}フレーム選択モデルは与えられた文と述語から,項に付けられる注釈となるべき意味役割が定義された意味フレームを獲得するモデルである.我々はフレーム選択モデルを,$t$が$f$の見出し語に含まれる場合に$1$を,それ以外で$0$を返す関数$R(f,t)$を用い,以下のように定義した.\begin{eqnarray}\label{eqn:frameselection0_proposal}P(f|t,T)&\approx&R(f,t)\end{eqnarray}フレーム選択モデルの例を図\ref{fig:frameselection}に示す.\begin{figure}[t]\begin{center}{\small\setlength{\tabcolsep}{0mm}\renewcommand{\arraystretch}{}\begin{tabular}{ccccc}\multicolumn{2}{r}{\noroleb{バッグ内の$\;\;$現金は}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{2}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\multicolumn{5}{c}{$\downarrow$}\\\hline\multicolumn{5}{|c|}{{\bfフレーム選択モデル}}\\\hline\multicolumn{5}{c}{$\downarrow$}\\\multicolumn{5}{l}{{\bfTheftフレーム}$R_{f}\leftarrow\{r_{0}=Goods,r_{1}=Perpetrator,r_{2}=Source,r_{3}=Victim,...\}$}\\[1mm]\end{tabular}}\caption{フレーム選択モデル}\label{fig:frameselection}\end{center}\end{figure}\subsection{項候補獲得モデル}項候補獲得モデルは与えられた文と述語およびフレームから,意味役割を注釈付けする項(断片)を獲得するモデルである.項候補の獲得手法を以下に示す.\vspace{6pt}\begin{enumerate}\item$T$を構文解析し,$t$と直接係り受け関係にある部分木の集合$S'''$を得る.\label{enum:foo_parse}\item$S'''$の各要素$s'''_{i}$について,形態素ならびに文節の単位で前後に短縮伸長し,項候補の候補(断片候補)$s''_{ij}$を生成,断片候補集合$S''_{i}$を得る(断片候補生成).\item$S''_{i}$の各要素$s''_{ij}$に関し,$P(s''_{ij}|f,t,T)$が$\lambda$を越える要素を$s'_{ij}$として集め,断片候補集合$S'_{i}$を得る.尤度$P(s''_{ij}|f,t,T)$は項候補同定モデル(\ref{sec:proposal_argument}節)により得られる.\label{enum:foo_cand_proposal}\item$S'_{i}$の各要素$s'_{ij}$について,(\ref{enum:foo_cand_proposal})の尤度$P(s''_{ij}|f,t,T)=P(s'_{ij}|f,t,T)$が最大となる$s'_{ij}$を$s_{i}$とし,項候補集合$S$を得る.\end{enumerate}以上より,我々は項候補獲得モデルを以下のように定義した.\begin{equation}\label{eqn:candidating0_proposal}\{S'_{i}\;|\;s'_{ij}\inS'_{i},s'_{ij}=\left\{\begin{array}{ll}s''_{ij}&if\;\;\;P(s''_{ij}|f,t,T)>\lambda\\nil&otherwise\\\end{array}\right\},s''_{ij}\inS''_{i}\}\end{equation}\begin{equation}\label{eqn:candidating1_proposal}\{S\;|\;s_{i}\inS,s_{i}=\argmax{s'_{ij}}{P(s'_{ij}|f,t,T)},s'_{ij}\inS'_{i}\}\end{equation}\begin{eqnarray}\label{eqn:candidating2_proposal}P(S|f,t,T)&\approx&\prod_{s_{i}\inS}{P(s_{i}|f,t,T)}\end{eqnarray}項候補獲得モデルの例を図\ref{fig:candidating}に示す.\begin{figure}[t]\begin{center}{\small\setlength{\tabcolsep}{0mm}\renewcommand{\arraystretch}{}\begin{tabular}{cccccc}\multicolumn{2}{r}{\noroleb{バッグ内の$\;\;$現金は}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{3}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\multicolumn{6}{l}{{\bfTheftフレーム}$R_{f}\leftarrow\{r_{0}=Goods,r_{1}=Perpetrator,r_{2}=Source,r_{3}=Victim,...\}$}\\[-1mm]\multicolumn{6}{c}{$\downarrow$}\\\hline\multicolumn{6}{|c|}{{\bf項候補獲得モデル}}\\\multicolumn{1}{|l}{(1)$\;$}&\multicolumn{5}{l|}{$S'''\leftarrow\{s'''_{0}=バッグ内の現金は,s'''_{1}=無事\}$}\\\cline{2-5}\multicolumn{1}{|l}{(2)$\;$}&\multicolumn{4}{|c|}{\bf断片候補生成}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{4}{l}{$S''_{0}\leftarrow\{s''_{00}=バッグ内の現金は,s''_{01}=内の現金は,s''_{02}=の現金は,s''_{03}=現金は\}$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{l}{$S''_{1}\leftarrow\{s''_{10}=無事\}$}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{(3)$\;$}&\multicolumn{4}{|c|}{\bf項候補同定モデル}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(s''_{00}|f,t,T)=0.576,P(s''_{01}|f,t,T)=0.171,P(s''_{02}|f,t,T)=0.231,$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(s''_{03}|f,t,T)=0.210,P(s''_{10}|f,t,T)=0.361$}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{5}{l|}{$S'_{0}\leftarrow\{s''_{00}=バッグ内の現金は\},S'_{1}\leftarrow\{\}$}\\\multicolumn{1}{|l}{(4)$\;$}&\multicolumn{5}{l|}{$S\leftarrow\{s_{0}=バッグ内の現金は\}$}\\\hline\multicolumn{6}{c}{$\downarrow$}\\[-1mm]\multicolumn{2}{r}{\roleb{バッグ内の$\;\;$現金は}{項候補}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{2}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\end{tabular}}\vspace{4pt}\caption{項候補獲得モデル}\label{fig:candidating}\end{center}\end{figure}我々は,述語項構造における項が文節を基本に構成された語句であると仮定し,構文解析結果に基づいた項候補獲得手法を提案する.一方,河原らの格フレーム辞書構築の取り組みは,項の意味が表層格で抽象化されて表現されることを根拠とする\cite[など]{kawahara05_1,kawahara05}.また,Baldeweinらは構文情報を用いた項の抽象化手法を提案している\cite{baldewein04}.我々の仮定はそれらと同様,項が構文情報によって抽象化できることを前提としている.\subsubsection*{断片候補生成}本稿で提案した項候補獲得手法では,項候補となるための要件を過不足なく満たす最適な断片候補を獲得するため,述語と直接係り受け関係にある文節から複数の断片候補を生成し,それらを確率モデルを用いて順位付けする.断片候補生成手法は以下の通りである.\begin{enumerate}\item述語と直接係り受け関係にある文節を獲得する\label{enum:extend_rule1_proposal}\item獲得した文節から,それが1つ以上の内容語を含むという前提の下,以下に適合する形態素の列を獲得する\label{enum:extend_rule2_proposal}\begin{description}\item[係り文節]その文節に係る全ての文節に含まれる形態素の列\item[受け文節]その文節の先頭から連続する名詞形態素の列\end{description}\item獲得した各形態素列に対して,それが1つ以上の内容語を含むという前提の下,以下の各ル−ルに基づいて断片候補を生成する\label{enum:extend_rule3_proposal}\begin{description}\item[係り形態素列]$\;$\\\vspace*{-6mm}\begin{itemize}\item文節数を減らさない範囲で先頭から形態素を1つずつ短縮\item先頭から文節を1つずつ短縮\item末尾文節の範囲で先頭から形態素を1つずつ短縮\end{itemize}\item[受け形態素列]$\;$\\\vspace*{-6mm}\begin{itemize}\item文節数を減らさない範囲で末尾から形態素を1つずつ短縮\item末尾品詞が「助詞-連体化\footnote{「学生の質問」の「の」など,先行する品詞を後続体言の修飾語に変化させる機能を持つ助詞.}」の場合に文節数を最大1増加させる範囲で末尾に形態素を1つずつ伸長(ただし,最初に伸長した形態素が名詞の場合は後続形態素を名詞に限定)\end{itemize}\end{description}\end{enumerate}\subsection{対応付けモデル}対応付けモデルは,与えられた文,述語,フレームならびに項候補から,項候補と意味役割の対応付けを行うモデルである.項と意味役割の対応付け手法は以下の通りである.\begin{enumerate}\item項候補集合$S$の各要素$s_{i}$について,$f$に定義された意味役割$r_{k}\inR_{f}$($R_{f}$は$f$に定義された意味役割の集合)が対応付けられる確率$P(r_{k}|s_{i},S,f,t,T)$を算出する.$P(r_{k}|s_{i},S,f,t,T)$は自項独立意味役割同定モデル(\ref{sec:proposal_srt_indep}節)により得られる.\label{enum:foo_corr_proposal}\item$S$の各要素$s_{i}$について,(\ref{enum:foo_corr_proposal})の尤度$P(r_{k}|s_{i},S,f,t,T)$を$P(c'_{ik}|S,f,t,T)$とし,$i$について重複のないように$c'_{ik}$を集めたものを項候補-意味役割対応関係$C'$とする.\label{enum:bar_corr_proposal}\item$C'$の各要素$c'_{ik}$について,(\ref{enum:bar_corr_proposal})の尤度$P(c'_{ik}|S,f,t,T)$の積が最大となる意味役割対応付け$C'_{best}$を得る.\item$S$の各要素$s_{i}$について,$C'_{best}$を考慮した上で意味役割$r_{k}$が対応付けられる確率\linebreak$P(r_{k}|s_{i},C'_{best},S,f,t,T)$を算出する.$P(r_{k}|s_{i},C'_{best},S,f,t,T)$は他項依存意味役割同定モデル(\ref{sec:proposal_srt_dep}節)により得られる.\label{enum:buz_corr_proposal}\item$S$の各要素$s_{i}$について,(\ref{enum:buz_corr_proposal})の尤度$P(r_{k}|s_{i},C'_{best},S,f,t,T)$を$P(c_{ik}|C'_{best},S,f,t,T)$とし,$i$について重複のないように$c_{ik}$を集めたものを$C$とする.\end{enumerate}以上より,我々は対応付けモデルを以下のように定義した.\begin{eqnarray}\label{eqn:corresponding0_proposal}P(C'|S,f,t,T)&=&\prod_{s_i\inS}{P(c'_{ik}|S,f,t,T)}\nonumber\\&=&\prod_{s_i\inS}{P(r_{k}|s_{i},S,f,t,T)}\\\label{eqn:corresponding1_proposal}C'_{best}&=&\argmax{C'}{P(C'|S,f,t,T)}\\\label{eqn:corresponding2_proposal}P(C|S,f,t,T)&=&\prod_{s_i\inS}{P(c_{ik}|C'_{best},S,f,t,T)}\nonumber\\&=&\prod_{s_i\inS}{P(r_{k}|s_{i},C'_{best},S,f,t,T)}\end{eqnarray}対応付けモデルの例を図\ref{fig:corresponding}に示す.\begin{figure}[t]\begin{center}{\small\setlength{\tabcolsep}{0mm}\renewcommand{\arraystretch}{}\begin{tabular}{cccccc}\multicolumn{2}{r}{\roleb{バッグ内の$\;\;$現金は}{項候補}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{3}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\multicolumn{6}{l}{{\bfTheftフレーム}$R_{f}\leftarrow\{r_{0}=Goods,r_{1}=Perpetrator,r_{2}=Source,r_{3}=Victim,...\}$}\\[-1mm]\multicolumn{6}{c}{$\downarrow$}\\\hline\multicolumn{6}{|c|}{{\bf対応付けモデル}}\\\multicolumn{1}{|l}{(1)$\;$}&\multicolumn{5}{l|}{$S\leftarrow\{s_{0}=バッグ内の現金は\}$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{4}{|c|}{\bf自項独立意味役割同定モデル}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{0}|s_{0},S,f,t,T)=0.590,P(r_{1}|s_{0},S,f,t,T)=0.361,$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{2}|s_{0},S,f,t,T)=0.257,P(r_{3}|s_{0},S,f,t,T)=0.254,...$}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{(2)$\;$}&\multicolumn{5}{l|}{$C'\leftarrow\{c'_{00}\},C'\leftarrow\{c'_{01}\},C'\leftarrow\{c'_{02}\},C'\leftarrow\{c'_{03}\}$}\\\multicolumn{1}{|l}{(3)$\;$}&\multicolumn{5}{l|}{$C'_{best}\leftarrow\{c'_{00}\}$}\\\multicolumn{1}{|l}{(4)$\;$}&\multicolumn{5}{l|}{$S\leftarrow\{s_{0}=バッグ内の現金は\}$}\\\cline{2-5}\multicolumn{1}{|l}{}&\multicolumn{4}{|c|}{\bf他項依存意味役割同定モデル}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{0}|s_{0},C'_{best},S,f,t,T)=0.650,P(r_{1}|s_{0},C'_{best},S,f,t,T)=0.344,$}&\multicolumn{1}{l|}{$\;$}\\\multicolumn{1}{|l}{}&\multicolumn{4}{|l|}{$P(r_{2}|s_{0},C'_{best},S,f,t,T)=0.231,P(r_{3}|s_{0},C'_{best},S,f,t,T)=0.254,...$\hspace*{18mm}}&\multicolumn{1}{l|}{$\;$}\\\cline{2-5}\multicolumn{1}{|l}{(5)$\;$}&\multicolumn{5}{l|}{$C\leftarrow\{c_{00}\},C\leftarrow\{c_{01}\},C\leftarrow\{c_{02}\},C\leftarrow\{c_{03}\}$}\\\hline\multicolumn{6}{c}{$\downarrow$}\\[-1mm]\multicolumn{2}{r}{\roleb{バッグ内の$\;\;$現金は}{Goods}{40mm}}&\multicolumn{1}{l}{\targetb{盗ま}{れて}{18mm}\noroleb{いたが,}{18mm}}&\multicolumn{2}{l}{\noroleb{願書は}{15mm}\noroleb{無事.}{15mm}}\\\end{tabular}}\vspace{8pt}\caption{対応付けモデル}\label{fig:corresponding}\end{center}\end{figure}
\section{モデルの獲得}
label{sec:outline_proposal}次に,\ref{sec:models_def_proposal}節で定義した意味役割推定モデルを構築する手法について述べる.本稿で提案する手法は,大きく6つのステップで構成されている.\begin{enumerate}\item日本語フレームネットから,意味フレーム定義,意味役割定義,品詞定義,見出し語,ならびに意味役割注釈付き事例を抽出する.\label{enum:domain2instance_proposal}\itemフレーム意味論に反しない2つの仮定の下,抽出した事例から新しい事例を作成する.\label{enum:boost_proposal}以下の仮定は,いかなる事例に適用しても言語的に不自然にならないものとして設定したもので,我々はこれらの仮定を妥当なものと考える.\begin{itemize}\item述語に直接係る主語句(ガ格を末尾に持つ文節の全部分木)を削除しても,他の項の意味役割は変化しない.\label{enum:boost_assume0_proposal}\item文の主辞となる述語の項は削除しても,他の全ての項の意味役割が変化しない解釈が可能.\label{enum:boost_assume1_proposal}\end{itemize}\item事例から確率モデルを学習する.\item意味役割推定モデルに基づくシステムを構築する.\label{enum:system_proposal}\item日本語フレームネットに定義された見出し語が述語の文をコーパスから抽出する.\label{enum:subcorpus_proposal}\item抽出した文の項の意味役割を推定する.\label{enum:label_proposal}\end{enumerate}本手法では,\ref{sec:models_def_proposal}節で定義した意味役割推定モデルのうち,以下の3つのモデルを機械学習により獲得する.\begin{itemize}\item{\bf項候補同定モデル}(式(\ref{eqn:candidating0_proposal})条件$P(s''_{ij}|f,t,T)$):\\項候補獲得モデルにおいて断片候補が項候補となるかどうかを判定する.\item{\bf自項独立意味役割同定モデル}(式(\ref{eqn:corresponding0_proposal})右辺$P(r_{k}|s_{i},S,f,t,T)$):\\対応付けモデルにおいて,ある項候補にある意味役割が割り当てられるかを,他項の意味役割を考慮せずに判定する.\item{\bf他項依存意味役割同定モデル}(式(\ref{eqn:corresponding2_proposal})右辺$P(r_{k}|s_{i},C'_{best},S,f,t,T)$):\\対応付けモデルにおいて,ある項候補にある意味役割が割り当てられるかを,他項の意味役割を考慮した上で判定する.\end{itemize}我々は機械学習に,最大エントロピー法とサポートベクタマシンを用いた.最大エントロピー法の実装にはツールmaxent\footnote{http://www2.nict.go.jp/jt/a132/members/mutiyama/software.html}を用い,サポートベクタマシンの実装にはTinySVM\footnote{http://cl.aist-nara.ac.jp/$\tilde{~}$taku-ku/software/TinySVM/}を用いた.サポートベクタマシンの出力は,シグモイド関数に代入することで確率値とみなした\cite{pradhan04}.なお,構文解析器にはCaboCha\cite{kudo02_cabocha}を用いた.以下に,各モデルの詳細を述べる.\subsection{項候補同定モデル}\label{sec:proposal_argument}項候補同定モデルは,断片候補$s''_{ij}$が断片すなわち項候補となるかを判定するモデルであり,項候補獲得モデルに定義されている.項候補同定モデルが定義された式(\ref{eqn:candidating0_proposal})には,断片候補が項候補となるための閾値$\lambda$が定義されており,最大エントロピー法およびサポートベクタマシンの出力に対する正当性から,今回はそれを$0.5$とした\footnote{精度を再現率よりも重視する場合はこれを$0.5$より大きい値に,逆の場合は$0.5$より小さい値に設定すればよい.}.学習に必要な正事例には日本語フレームネットから抽出した注釈付き事例を用い,負事例は抽出した事例と正事例を基に以下の2通りの方法を用いて準備した.\begin{description}\setlength{\itemindent}{-6mm}\item[正解項候補の短縮伸長]$\;$\\はじめに,正事例の正解項候補に対して\ref{sec:models_def_proposal}節・項候補獲得モデル・断片候補生成手法(\ref{enum:extend_rule3_proposal})を適用した.その結果得られた断片候補を不正解項候補とした.\item[非対象述語項の抽出と短縮伸長]$\;$\\まず,抽出事例で述語に指定されていない全ての動詞に対して,\ref{sec:models_def_proposal}節・項候補獲得モデル・断片候補生成手法(\ref{enum:extend_rule1_proposal})〜(\ref{enum:extend_rule3_proposal})を適用した.その結果得られた断片候補のうち,指定述語に対して同様の手順を適用して得られた断片候補および正事例に含まれる正解項候補と範囲が重複しない断片候補を不正解項候補とした.\end{description}また,学習には以下の素性を用いた\footnote{学習事例の数に依存するが,おおよそ1500〜3000個の素性値が得られる.}.\begin{description}\setlength{\itemindent}{-6mm}\item[対象述語の素性]$\;$\\対象述語の原形や活用形と,機能語を構成する各形態素の原形や品詞を用いた.\item[対象断片候補の素性]$\;$\\固有表現,未知語,対象述語からの文節を単位とした相対距離,機能語列とそれを構成する各形態素の品詞を用いた.また,NTT日本語語彙大系\footnote{http://www.kecl.ntt.co.jp/icl/mth/resources/GoiTaikei}から検索した主辞の概念クラスも用いた.加えて,断片候補の直前に連接する形態素の原形と品詞も利用した.\end{description}\subsection{自項独立意味役割同定モデル}\label{sec:proposal_srt_indep}自項独立意味役割推定モデルは,ある項候補にある意味役割が注釈付けられるかを判定するモデルであり,対応付けモデルに定義されている.対応付けモデルの定義式(\ref{eqn:corresponding0_proposal})(\ref{eqn:corresponding1_proposal})より明らかなように,本モデルは複数の意味役割候補から一つを選択する多値分類タスクと考えることができる.我々は機械学習に最大エントロピー法とサポートベクタマシンを用いたが,このうちサポートベクタマシンでは,多値分類にonevs.rest法を用いた.学習の素性には,項候補同定モデルの学習に用いた素性に加え,以下を利用した\footnote{学習事例の数に依存するが,おおよそ1500〜3000個の素性値が得られる.}.\begin{description}\setlength{\itemindent}{-6mm}\item[対象項候補の素性]$\;$\\項候補同定モデルの学習のために対象断片候補から抽出した素性のうち,直前の形態素に関するものを除いた全ての素性を利用した.加えて,項候補同定モデルが対象項候補に対して出力した値と,項候補を単位とした対象述語からの相対距離も併せて利用した.\item[非対象項候補の素性]$\;$\\項候補同定モデルが非対象項候補に対して出力した値を用いた.\end{description}\subsection{他項依存意味役割同定モデル}\label{sec:proposal_srt_dep}他項依存意味役割同定モデルは,他項に注釈付けられた意味役割を考慮した上で,項候補にある意味役割が注釈付けされるかを判定するモデルであり,対応付けモデルに定義されている.対応付けモデルの定義式(\ref{eqn:corresponding2_proposal})ならびに意味役割推定モデルの定義式(\ref{eqn:rolelabeling1_proposal})より明らかなように,本モデルも複数の意味役割候補から一つを選択する多値分類タスクと見なすことができ,自項独立意味役割同定モデル同様,サポートベクタマシンではonevs.rest法を適用した.学習の素性には,自項独立意味役割同定モデルの学習に用いた素性に加え,以下を利用した\footnote{学習事例の数に依存するが,おおよそ1500〜3000個の素性値が得られる.}.\begin{description}\setlength{\itemindent}{-6mm}\item[対象項候補の素性]$\;$\\自項独立意味役割同定モデルの出力が最も大きかった意味役割とその値を利用した.\item[非対象項候補の素性]$\;$\\自項独立意味役割同定モデルが各非対象項候補に対して出力した値が最も大きかった意味役割とその値,およびその意味役割と機能語の組み合わせ,その意味役割と項候補を単位とする対象述語からの相対距離との組み合わせを利用した.\end{description}
\section{評価}
label{sec:metrix_experiment}定義した意味役割推定モデルの有効性を確認するために,獲得したモデルを用いて意味役割推定を行った.評価に際し,モデルへの入出力にそれぞれ3通りの条件を設定した.入力条件とその目的は以下の通りである.\begin{enumerate}\item文と述語$\rightarrow$システム全体を評価\label{enum:metrix0_experiment}\item文と述語,正しい断片候補(項候補の候補)$\rightarrow$項候補獲得モデルを評価\label{enum:metrix1_experiment}\item文と述語,正しい項候補$\rightarrow$対応付けモデルを評価\label{enum:metrix2_experiment}\end{enumerate}また,出力条件は以下の通りである.\begin{enumerate}\item獲得した断片集合$S$についての正誤判定を行う.\label{enum:metrix3_experiment}\item獲得した項候補-意味役割対応関係$C$についての正誤判定を行う.\label{enum:metrix4_experiment}\item獲得した$c_{ik}$のうちで,尤度$P(c_{k}|C'_{best},S,f,t,T)$が$0.5$を越えるものを出力し正誤判定を行う.\label{enum:metrix5_experiment}\end{enumerate}出力条件(\ref{enum:metrix5_experiment})は,出力条件(\ref{enum:metrix4_experiment})において出力される意味役割注釈パタンのうち,この注釈パタンに含まれるものの意味役割が付与される確率が低い項候補については「項でない」とみなして出力することを意味する\footnote{これは我々が機械学習に利用したサポートベクタマシンの特徴を考慮した評価であり,最大エントロピー法を用いた場合もこれに準ずるとした.}.我々は,以上の9通りの組合せ(入力3条件$\times$出力3条件)について,機械学習に用いた最大エントロピー法を用いた場合とサポートベクタマシンを用いた場合の2通りで,交差検定法により評価した\footnote{実験では,毎日新聞1992〜2002年版の記事に人手で注釈付けを行ったものを事例として用いた.図\ref{fig:syn_analyze_discussion0}〜\ref{fig:candidating_discussion3}に示した例はその一部である.}.評価実験の対象フレームを表\ref{tbl:domain_experiment}に,実験時に設定した各種パラメータを表\ref{tbl:param_experiment}に示す.また,評価実験の結果を表\ref{tbl:result_all_experiment_me},\ref{tbl:result_all_experiment_svm}に示す.\begin{table}[t]\setlength{\baselineskip}{13pt}\begin{center}\caption{対象意味フレーム}\label{tbl:domain_experiment}\begin{tabular}{rl}\hline意味フレーム&{\bfArriving}\\意味役割&{\itGoal,Theme,Cotheme,Depictive,Goal\_conditions,Manner,Means,}\\&{\itMode\_of\_transportation,Path,Source,Time}\\見出し語&至る,入る\\注釈付き事例&107文\\\hline意味フレーム&{\bfCommerce\_pay}\\意味役割&{\itBuyer,Goods,Money,Rate,Seller,Manner,Means,Place,Purpose,Reason,}\\&{\itTime,Unit}\\見出し語&払う,支払う\\注釈付き事例&55文\\\hline意味フレーム&{\bfDeparting}\\意味役割&{\itSource,Theme,Area,Cotheme,Depictive,Distance,Frequency,Goal,Journey,}\\&{\itManner,Means,Mode\_of\_transportation,Path,Purpose,Reason,Speed,Time}\\見出し語&去る,抜ける\\注釈付き事例&111文\\\hline意味フレーム&{\bfRisk}\\意味役割&{\itAction,Agent,Asset,Bad\_outcome,Chance,Gain,Purpose,Reason,Situation}\\見出し語&賭ける\\注釈付き事例&60文\\\hline意味フレーム&{\bfTheft}\\意味役割&{\itGoods,Perpetrator,Source,Victim,Event,Frequency,Instrument,Manner,Means,}\\&{\itPlace,Purpose,Reason,}\\見出し語&奪う,盗む,くすねる\\注釈付き事例&65文\\\hline意味フレーム&{\bfTraversing}\\意味役割&{\itArea,Direction,End\_points,Goal,Path,Path\_shape,Source,Theme,}\\&{\itCircumstances,Consecutive,Containing\_event,Coordinated\_event,Cotheme,}\\&{\itDegree,Depictive,Distance,Duration,Explanation,Frequency,Manner,Means,}\\&{\itPlace,Purpose,Re\_encoding,Reciprocation,Result,Speed,Time,Vehicle}\\見出し語&渡る\\注釈付き事例&92文\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{実験で使用したパラメータ}\label{tbl:param_experiment}\begin{tabular}{lll}\hline交差検定法&&5サブセット\\\hline最大エントロピー法&終了条件&0.0001\\&スムージング係数&1.0\\&パラメータ推定アルゴリズム&gaussian\\\hlineサポートベクタマシン&カーネル&2次多項式\\&ペナルティ項&0.01\\\hline\end{tabular}\par\vspace{20pt}\caption{結果(ME)}\label{tbl:result_all_experiment_me}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.73&0.61&0.66&&(0.78)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.52&0.43&0.47&0.72&0.56&0.63&&(0.72)&\\出力条件(\ref{enum:metrix5_experiment})&0.63&0.43&0.51&0.78&0.54&0.64&0.77&0.68&0.73\\\hline\end{tabular}\par\vspace{20pt}\caption{結果(SVM)}\label{tbl:result_all_experiment_svm}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.73&0.58&0.64&&(0.74)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.51&0.40&0.45&0.70&0.52&0.60&&(0.68)&\\出力条件(\ref{enum:metrix5_experiment})&0.65&0.38&0.48&0.78&0.49&0.60&0.76&0.63&0.69\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|lllll|}\hline\norole{93年に}{15mm}&\roleb{単身で}{Depictive}{20mm}&\norole{天津市に}{15mm}&\targetb{渡り}{}{15mm}&\\&&&&\vspace{-4mm}\\&\roleb{強制連行やさまざまな事情で}{Explanation}{52mm}&\norole{朝鮮半島から}{22mm}&\targetb{渡っ}{て}{15mm}&\norole{きた}{20mm}\\&&&&\vspace{-4mm}\\\norole{横断歩道を}{20mm}&\roleb{自転車で}{Means}{20mm}&\targetb{渡っ}{て}{20mm}&\norole{いた}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfTraversing})・同一表層格(デ)での意味役割の区別}\label{fig:samecase_differentrole_discussion}\par\vspace{20pt}\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|p{6mm}llllp{5mm}|}\hline$\;$&&\norole{新聞記事によると,}{32mm}&\roleb{車は}{Goods}{20mm}&\targetb{盗ん}{だ}{15mm}\norole{らしい}{15mm}&$\;$\\&&\norole{新聞記事によると,}{32mm}&\roleb{彼は}{Perpetrator}{20mm}&\targetb{盗ん}{だ}{15mm}\norole{らしい}{15mm}&\\&\norole{新聞記事によると,}{32mm}&\roleb{彼は}{Perpetrator}{20mm}&\roleb{車は}{Goods}{20mm}&\targetb{盗ん}{だ}{15mm}\norole{らしい}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfTheft})・同一表層格(ハ)での意味役割の区別}\label{fig:samecase_differentrole_discussion1}\end{figure}評価実験の結果,本手法は(1)意味役割が付与されるべき項が分かっている文に対して精度77%,再現率68%,(2)意味役割が付与されるべき項がわかっていない文に対して精度63%,再現率43%の意味役割推定を実現した.計490文という少ない注釈付き事例を用いて,大規模な学習事例を用いた英語の意味役割手法に迫る精度\footnote{英語を対象とした意味役割推定手法では約50,000文の注釈付き事例を用いており,Gildeaらの手法では(1)で精度82%,(2)で精度65%,再現率61%という結果が得られている\cite{gildea02}.また,Kwonらの手法による結果は(2)で精度66%,再現率57%である\cite{kwon04}.}を得ることができており,本手法の有効性を示した.また本手法は,図\ref{fig:samecase_differentrole_discussion}〜\ref{fig:samecase_differentrole_discussion3}のような,表層格では区別できない意味の区別を実現した.なお,図\ref{fig:samecase_differentrole_discussion1}〜\ref{fig:samecase_differentrole_discussion3}は,同一の表層格を持つ項に対する本手法の意味役割推定を評価するために用意した入力に対する結果である.\clearpage\begin{figure}[t]\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|p{17mm}llllp{16mm}|}\hline$\;$&&\roleb{彼が}{Theme}{20mm}&\roleb{部屋に}{Goal}{20mm}&\targetb{入る}{}{15mm}\norole{予定です}{15mm}&$\;$\\&\roleb{彼が}{Theme}{20mm}&\roleb{正午に}{Time}{20mm}&\roleb{部屋に}{Goal}{20mm}&\targetb{入る}{}{15mm}\norole{予定です}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfArriving})・同一表層格(ニ)での意味役割の区別}\label{fig:samecase_differentrole_discussion2}\par\vspace{20pt}\begin{center}\setlength{\tabcolsep}{1.4mm}\begin{tabular}{|p{5mm}llllp{4mm}|}\hline$\;$&&\rolebX{チャンスをつかもうと}{Purpose}{40mm}{,}&\roleb{アメリカに}{Goal}{20mm}&\targetb{渡っ}{た}{15mm}&$\;$\\&\rolebX{チャンスをつかもうと}{Purpose}{40mm}{,}&\roleb{海を}{Path}{20mm}&\roleb{西に}{Direction}{20mm}&\targetb{渡っ}{た}{15mm}&\\[4mm]\hline\end{tabular}\end{center}\vspace{8pt}\caption{同一意味フレーム({\bfTraversing})・同一表層格(ニ)での意味役割の区別}\label{fig:samecase_differentrole_discussion3}\end{figure}\subsection*{項候補獲得モデル}\ref{sec:models_def_proposal}節で述べたように,項候補獲得モデルでは,日本語における深層的意味の保持単位が文節にあるとし,構文解析結果に基づいて項候補の獲得を試みた.結果,精度73%,再現率61%の性能で項候補の獲得に成功した.また本モデルは,構文解析誤りなどの理由から,述語と直接係り受け関係をもつ部分木が必ずしも項候補とならないことを考慮し,部分木が示す断片候補を短縮および伸長することで新たな断片候補を生成,それらの断片候補群から最適な断片候補を項候補とすることを戦略とした.結果,図\ref{fig:syn_analyze_discussion0}のような構文解析結果を得た文について,図\ref{fig:candidating_discussion0}に示した項候補の獲得を実現した.\begin{figure}[b]\framebox(420,70)[c]{\parbox{90pt}{\hfill菊地さん\texttt{-D}\hspace*{18.49986pt}\\\hfill,14回目の\texttt{-D}\hspace*{12.33324pt}\\\hfill優勝を\texttt{-D}\hspace*{6.16662pt}\\\hfill賭けて\texttt{-D}\\\hfill決勝戦進出である.}}\caption{項候補獲得モデル検証:構文解析結果}\label{fig:syn_analyze_discussion0}\par\vspace{20pt}\framebox(420,28)[c]{\rolebX{菊地さん}{項候補}{20mm}{,}\roleb{14回目の優勝を}{項候補}{32mm}\targetb{賭け}{て}{15mm}\norole{決勝戦進出である.}{30mm}}\caption{項候補獲得モデル検証:正解項候補}\label{fig:candidating_discussion0}\end{figure}一方,本稿で提案した意味役割推定モデル全体の性能,特に再現率は,本項候補獲得モデルの性能に上限を狭められている.そのため,項候補獲得モデルの改良により,全体の性能が向上すると考えられる.以下では,項候補獲得モデルにおける失敗の原因と改善可能性を考察する.\subsubsection*{断片候補生成}断片候補生成手法の性能は,表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix0_experiment})(\ref{enum:metrix1_experiment})における出力条件(\ref{enum:metrix3_experiment})の再現率(正解率)を比較することで推測できる.具体的には,入力条件(\ref{enum:metrix1_experiment})の正解率に対する入力条件(\ref{enum:metrix0_experiment})の再現率の低下が,断片候補生成手法に起因した性能低下を表していると考えることができる.\ref{sec:models_def_proposal}節で述べたように,本稿で提案する断片候補生成手法では,構文解析の結果から,述語文節と直接係り受け関係にある部分木を断片候補生成の基とし(以後,ベース断片候補と呼ぶ),それらを伸縮することで断片候補を生成する.そのため,断片候補生成手法における性能は,以下の原因で低下する.\begin{enumerate}\item構文解析結果が述語と項の意味的な関係を反映していない場合\label{enum:cand_foo_discussion}\item述語と直接係り受け関係にある部分木が項でない場合\label{enum:cand_bar_discussion}\end{enumerate}これらの原因に起因する誤りは,表\ref{tbl:cand_discussion}に示す割合で現れた.表\ref{tbl:cand_discussion}は原因(\ref{enum:cand_foo_discussion})ならびに(\ref{enum:cand_bar_discussion})の発生率を文単位で算出したものである.表\ref{tbl:cand_discussion}からも明らかなように,65%の文では構文解析結果に基づく断片生成が適切であった.しかしながら同時に,本断片候補生成手法が意味役割推定全体の性能の上限に影響していることも明らかとなった.\begin{table}[b]\begin{center}\caption{断片候補生成検証:誤り発生率}\label{tbl:cand_discussion}\begin{tabular}{lrrrr}\hline意味フレーム&原因(\ref{enum:cand_foo_discussion})&原因(\ref{enum:cand_bar_discussion})&原因(\ref{enum:cand_foo_discussion})\&(\ref{enum:cand_bar_discussion})&(正解)\\\hline{\bfArriving}&0.21&0.08&0.05&(0.66)\\{\bfCommerce\_pay}&0.27&0.05&0.02&(0.65)\\{\bfDeparting}&0.24&0.02&0.05&(0.68)\\{\bfRisk}&0.10&0.23&0.02&(0.65)\\{\bfTheft}&0.23&0.03&0.19&(0.55)\\{\bfTraversing}&0.18&0.08&0.10&(0.64)\\\hline総合&0.21&0.08&0.07&(0.65)\\\hline\end{tabular}\end{center}\end{table}原因(\ref{enum:cand_foo_discussion})による誤りの一つは,構文解析そのものの誤りに起因する.本稿が提案する断片候補生成手法は,単一のベース断片候補を切断して複数の断片候補を生成することがない.そのため,構文解析(文節区切りの同定)が誤った例では,適切な断片候補が生成されなかった.原因(\ref{enum:cand_foo_discussion})に起因する誤りには,意味の曖昧性のため,構文解析結果が構文的には正しくても,意味的には誤ってしまったものもある.図\ref{fig:syn_analyze_discussion3}に示した文の構文解析では,``錨がぶつかるゴンという音がした直後,{\kern-0.5zw}''が``なった''に係っている.一方,日本語フレームネットにおいては,この従属節は図\ref{fig:candidating_discussion3}のように対象述語「入っ(て)」の項候補とされている.すなわち,``錨がぶつかるゴンという音がした直後,{\kern-0.5zw}''は``入っ(て)''に係っているとされている.このように,意味を考慮しない構文解析では,文に意味的な曖昧性があり複数の係り先が考えられる場合に,係り受け関係の解析を誤ることがある.この場合,本稿が提案する断片候補生成手法では適切なベース断片を生成することができず,結果として項候補の獲得に失敗した.\begin{figure}[t]\framebox(420,168)[c]{\parbox{135pt}{\hfil錨が\texttt{-D~~~~~~~~~~~~~~~~~~~~}\\\hfilぶつかる\texttt{-D~~~~~~~~~~~~~~~~~~}\\\hfilゴンという\texttt{-D~~~~~~~~~~~~~~~~}\\\hfil音が\texttt{-D~~~~~~~~~~~~~~}\\\hfilした\texttt{-D~~~~~~~~~~~~}\\\hfil直後,\texttt{-----------D}\\\hfil窓から\texttt{---D~~~~~|}\\\hfil高波が\texttt{-D~~~~~|}\\\hfil入ってきて,\texttt{-----D}\\\hfil頭から\texttt{-D~|}\\\hfilずぶぬれに\texttt{-D}\\\hfilなった.}}\caption{断片候補生成検証:構文解析結果}\label{fig:syn_analyze_discussion3}\par\vspace{20pt}\framebox(420,47)[c]{\parbox{340pt}{\rolebX{錨がぶつかるゴンという音がした直後}{項候補}{65mm}{,}\roleb{窓から}{項候補}{16mm}\roleb{高波が}{項候補}{16mm}\targetb{入っ}{てきて}{54pt}\\[0.5\baselineskip]\hfill\norole{頭からずぶぬれになった.}{108pt}}}\caption{断片候補生成検証:正解項候補}\label{fig:candidating_discussion3}\end{figure}次に,原因(\ref{enum:cand_bar_discussion})に起因する誤りについて述べる.この誤りの代表は,複文における代名詞の省略もしくはゼロ代名詞に起因するものである.特に,対象述語が後文に属する場合,その項は省略される傾向がある.このような例においては,省略解析や照応解析を行わない本断片候補生成手法では,適切な断片候補を獲得できなかった.原因(\ref{enum:cand_bar_discussion})に起因する別の誤りには,並列の扱いに起因するものも存在した.本稿で提案する断片候補生成手法は文節の同格を考慮せず,かつ,ベース断片候補が伸長されても別のベース断片候補と重複することはない.そのため,対象述語に係っている同格の複数文節を,単一の断片候補として適切に扱うことができなかった.以上より,本断片候補生成手法は,構文解析そのものを改良することにより性能が向上すると考えられる一方,構文解析結果に基づいて断片を生成する戦略そのものを再考することで,性能が向上する可能性があることが分かった.加えて,省略解析\cite{sasano04}や,文節の並列の考慮などにより,性能が向上する余地があることも明らかとなった.\subsubsection*{項候補同定モデル}表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix1_experiment})・出力条件(\ref{enum:metrix3_experiment})の正解率78%は,\ref{sec:models_def_proposal}節で詳述した項候補同定モデル単独の性能を示している.本手法において項候補同定モデルの性能に寄与する部分は,学習事例準備法,特に負事例の準備法と,学習に用いる素性の選択である.項候補同定失敗の原因を素性空間で考えると,本来正解であるべき部分空間に負事例が配置されていることが推測される.これはつまり,負事例の準備法に問題があることを示す.\ref{sec:models_def_proposal}節・学習事例準備で述べた負事例の準備は,正解項候補の短縮伸長と,非対象述語項の抽出と短縮伸長の2通りの組み合わせで行われているが,これはそれぞれ,以下の2通りの不正解項候補を排除するために設定したものである.\begin{itemize}\item「の機会を」などの切り分けが不適切な断片\item対象述語の項ではない断片\end{itemize}このことから,項候補同定モデルが不正解とすべき事例で誤った素性の組み合わせを学習し,結果的に負事例が正解空間にはみ出す形になったと考えられる.例えば,上述の不正解項候補において,素性値$A\capB$が前者の組み合わせに,素性値$A\capC$が後者の組み合わせに該当し,素性値$B\capC$は双方において正解項候補に特有であるとする.しかしながら,本稿で提案した項候補同定モデルは上述の2通りの不正解項候補を同時に学習するため,同モデルが推定する素性値$B\capC$の不正解らしさが大きくなったと推測する.つまり,上述の2つの目的に対処する唯一のモデルを学習するのではなく,それぞれの目的に特化した2つのモデルを学習し,意味役割推定に利用する必要があると考える.次に,項候補同定モデルの学習に用いた素性の有効性を検証する.素性の有効性は,特定の素性値を除いた残りの素性値でモデルを再学習し,その結果得られたモデルの性能の劣化度を利用するのが一般的である.しかしながら,多くの素性値から学習したモデルの再学習にはコストがかかる.また,本手法のように多くのモデルを単一の手法で学習する場合には,有効な素性値をモデル別に検証するのではなく,どのようなモデルにも有効な素性値を多く含む素性の検証を行うことが重要と考えられる.そこで本稿では,素性の寄与度という新たな評価尺度を導入する.寄与度の算出方法を図\ref{fig:contalgo}に示す.図\ref{fig:contalgo}の算出法から明らかなように,寄与度は特定の素性値の有効性ではなく,複数の素性値からなる素性の有効性を表す.寄与度とは,その素性がどの程度汎用的に有効であるかを表したものであり,寄与度$0.3$とはすなわち,その素性の特定の素性値が全体の30%のモデルで有効であることを示している.加えて,特定のモデルにのみ有効な素性も同様に重要であることから,寄与度は数値そのものの比較と同時に,寄与度が$0.0$か否かも評価の対象となる.\begin{figure}[t]\begin{center}\begin{tabular}{rl}1.&モデルの集合を$\{M|m_{i}\inM\}$とする.\\2.&$m_{i}$の学習事例に出現した全ての素性値の集合を$\{\Phi_{i}|\phi_{ij}\in\Phi_{i}\}$とする.\\3.&$\phi_{ij}$のみを素性値に持つ事例の尤度$P_{ij}$を獲得する.\\4.&素性値を持たない事例の尤度$P'_{i}$を獲得する.\\5.&$m_{i}$における$\phi_{ij}$の寄与度として,$P'_{i}$と$P_{ij}$の差の絶対値$D_{ij}$を獲得する.\\6.&$D_{ij}$の最大値を$D'_{i}$としたとき,$D'_{i}\times0.5\leqD_{ij}$を満たす$\phi_{ij}$が$m_{i}$において有効で\\&あるとし,その集合$\Upsilon_{i}$を獲得する.\\7.&$m_{i}$における素性$\psi_{k}\in\Psi$の寄与度$I_{ik}$を,$\psi_{k}$の素性値が$\Upsilon_{i}$に含まれる場合に$1.0$,\\&そうでない場合に$0.0$とする.\\8.&$I_{ik}$の平均値$I_{k}=(\sum_{i}{I_{ik}})/|M|$を,全モデルに横断的な$\psi_{k}$の寄与度$I_{k}$とする.\\\end{tabular}\end{center}\caption{寄与度算出法}\label{fig:contalgo}\end{figure}表\ref{tbl:fenil_feature_discussion}は,サポートベクタマシンを用いて獲得した項候補同定モデルにおける各素性の寄与度である.表\ref{tbl:fenil_feature_discussion}より,項候補同定モデルでは,項の直前形態素の情報の寄与が強いことが明らかとなった.このことは,項候補同定モデルが不適切に切り分けられた断片の排除に特に有効に働いていることを示すものである.また,項候補同定モデルでは,述語と項の位置関係の寄与度が大きいことが明らかとなった.この素性は,対象の断片が述語の前にあるか後ろにあるかのみを反映するものであり,本来であれば述語項構造の判定に大きな影響は与えないと考えられる.\\そこで,述語と断片の位置関係をより詳細に表す素性,例えば構文解析結果に基づく述語・断片間の経路情報などを代替素性として利用することが,性能向上につながると考えられる.\begin{table}[t]\begin{center}\caption{項候補同定モデル素性寄与度(上位5素性/全44素性)}\label{tbl:fenil_feature_discussion}\begin{tabular}{lr}\hline素性&寄与度\\\hline項の直前の形態素が内容語でない場合の表層文字列&1.00\\述語項間文節位置&0.83\\項の直前の形態素の品詞&0.70\\項の先頭形態素の品詞&0.13\\項の直後の形態素の品詞&0.03\\\hline\end{tabular}\end{center}\end{table}なお,ここで議論した表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix1_experiment})・出力条件(\ref{enum:metrix3_experiment})の正解率78%は「正解を正解と判定する割合」であり,「不正解を不正解と判定する割合」(以後これを偽陽性率と呼ぶ)は含まないため,正確にはこの数字だけで項候補同定モデルの評価をすることはできない.例えば,正解率が100%に近付くように負事例準備法を調節することで入力条件(\ref{enum:metrix1_experiment})における正解項候補の欠落が少なくなることから,対応付け部における性能の上限が上がり,全体の性能が向上して見えると考えられる.しかし,同時に,意味役割推定モデル全体の評価となる入力条件(\ref{enum:metrix0_experiment})での出力条件(\ref{enum:metrix3_experiment})において偽陽性率が低くなることが予測され,結果的に誤った項候補が選択されると考えられる.\subsection*{対応付けモデル}\ref{sec:models_def_proposal}節で述べたように,対応付けモデルは,与えられた文,述語,フレームおよび項候補から,項候補と意味役割の対応付けを行うモデルである.結果,正解率72%の性能で,また,尤度が0.5以上のもののみを選択した場合は精度77%,再現率68%で意味役割の対応付けに成功した.なお,尤度が0.5以上のもののみを選択することによる再現率の低下は最大エントロピー法で2ポイント,SVMで3ポイントに留まっており\footnote{表\ref{tbl:result_all_experiment_me}ならびに表\ref{tbl:result_all_experiment_svm}の入力条件(\ref{enum:metrix1_experiment})における出力条件(\ref{enum:metrix4_experiment})と(\ref{enum:metrix5_experiment})との比較による.},精度はそれぞれ6ポイントおよび8ポイント上昇した.機械学習の特徴を考慮することで,より正確な対応付けが可能となった.表\ref{tbl:result_all_experiment_me}の入力条件(\ref{enum:metrix2_experiment})・出力条件(\ref{enum:metrix4_experiment})の正解率72%は,\ref{sec:models_def_proposal}節で述べた自項独立意味役割同定モデルと他項依存意味役割同定モデルの組み合わせの性能を示している.本手法において,これらのモデルの性能に寄与する部分は,学習に用いる素性の選択である.\newcounter{tablea}\addtocounter{table}{1}\setcounter{tablea}{\thetable}\newcounter{tableb}\addtocounter{table}{1}\setcounter{tableb}{\thetable}表{\thetablea}は,サポートベクタマシンを用いて獲得した自項独立意味役割同定モデルの出力に関し,寄与が大きいと考えられる素性を示したものである.また,表{\thetableb}は,同じくサポートベクタマシンを用いて獲得した他項依存意味役割同定モデルの出力の寄与度を示したものである.表中の数値は図\ref{fig:contalgo}で述べた手法により算出した.\begin{table}[b]\begin{center}\begin{tabular}{p{50mm}r}\multicolumn{2}{l}{\parbox[b]{10mm}{\bf表$\$\thetablea}自項独立意味役割同定モデル素性寄与度}\\\multicolumn{2}{l}{\parbox[b]{10mm}{$\;$}(上位10素性/全38素性)}\\\hline素性&寄与度\\\hline項の機能文字列&0.78\\項の機能語の表層文字列&0.77\\項の末尾付属語の表層文字列&0.77\\項の機能語の品詞&0.40\\項の主辞形態素の品詞&0.39\\項の末尾付属語の品詞&0.38\\述語項間文節位置&0.32\\項の主辞形態素の概念クラスの集合&0.29\\述語項間項位置&0.26\\述語文節の機能文字列&0.25\\\hline\end{tabular}\begin{tabular}{p{50mm}r}\multicolumn{2}{l}{\parbox[b]{10mm}{\bf表$\$\thetableb}他項依存意味役割同定モデル素性寄与度}\\\multicolumn{2}{l}{\parbox[b]{10mm}{$\;$}(上位10素性/全44素性)}\\\hline素性&寄与度\\\hline自項の意味役割&0.97\\項の機能文字列&0.36\\項の機能語の表層文字列&0.36\\項の末尾付属語の表層文字列&0.34\\項の機能語の品詞&0.14\\項の末尾付属語の品詞&0.13\\他項の項候補同定モデルの値&0.13\\述語項間文節位置&0.13\\他項の機能文字列&0.13\\項の主辞形態素の品詞&0.12\\\hline\end{tabular}\end{center}\end{table}表{\thetablea}から,自項独立意味役割同定モデルでは,項の機能語だけでなく,項の主辞形態素の概念クラスが大きく寄与していることが明らかとなった.このことは,本稿が提案した対応付けモデルが,項の機能語すなわち表層格では区別できない深層的意味に基づいて意味役割を同定していることを示すものである.自項独立意味役割同定モデルでは,また,述語文節の機能語の寄与度が強いことが明らかとなった.これは,態の変化による意味役割の変化を学習できたことを示唆している.一方,表{\thetableb}より,他項依存意味役割同定モデルでは,自項独立意味役割同定モデルによって推定した意味役割に加え,他項の情報が強く寄与していることが明らかとなった.これは,本研究で提案した対応付けモデルに他項依存意味役割同定モデルを定義したことの有効性を示唆するものである.また,自項独立意味役割同定モデルと同様に,項の機能語や項の主辞の概念クラス(0.11:11位),述語文節(0.09:13位)の寄与度も大きいことが分かった.\subsection*{事例自動作成}次に,\ref{sec:outline_proposal}節・ステップ(\ref{enum:boost_proposal})で述べた事例自動作成について考察する.作成した事例の数を表\ref{tbl:boost_result_discussion}に示す.また,ステップ(\ref{enum:boost_proposal})を実行せずに意味役割推定モデルを獲得,意味役割推定システムを構築した場合の評価実験の結果を表\ref{tbl:result_allnb_experiment_me},\ref{tbl:result_allnb_experiment_svm}に示す.\begin{table}[b]\begin{center}\caption{事例自動作成結果}\label{tbl:boost_result_discussion}\begin{tabular}{lrrr}\hline意味フレーム&抽出事例数&作成事例数&作成率\\\hline{\bfArriving}&107&58&0.54\\{\bfCommerce\_pay}&55&32&0.58\\{\bfDeparting}&111&142&1.28\\{\bfRisk}&60&24&0.40\\{\bfTheft}&65&25&0.38\\{\bfTraversing}&92&124&1.35\\\hline総合&490&405&0.83\\\hline\end{tabular}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{結果(ME:ステップ(\ref{enum:boost_proposal})なし)}\label{tbl:result_allnb_experiment_me}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.71&0.62&0.66&&(0.80)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.50&0.44&0.47&0.71&0.57&0.63&&(0.71)&\\出力条件(\ref{enum:metrix5_experiment})&0.62&0.41&0.50&0.79&0.54&0.64&0.79&0.67&0.72\\\hline\end{tabular}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{結果(SVM:ステップ(\ref{enum:boost_proposal})なし)}\label{tbl:result_allnb_experiment_svm}\setlength{\tabcolsep}{1.5mm}\begin{tabular}{c|ccc|ccc|ccc}\hline&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix0_experiment})}&\multicolumn{3}{|c|}{入力条件(\ref{enum:metrix1_experiment})}&\multicolumn{3}{|c}{入力条件(\ref{enum:metrix2_experiment})}\\&精度&再現率&F値&精度&再現率(正解率)&F値&精度&再現率(正解率)&F値\\\hline出力条件(\ref{enum:metrix3_experiment})&0.71&0.59&0.64&&(0.77)&&&&\\出力条件(\ref{enum:metrix4_experiment})&0.50&0.41&0.45&0.70&0.54&0.61&&(0.69)&\\出力条件(\ref{enum:metrix5_experiment})&0.67&0.37&0.48&0.80&0.49&0.61&0.80&0.62&0.70\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:result_all_experiment_me},\ref{tbl:result_all_experiment_svm}と表\ref{tbl:result_allnb_experiment_me},\ref{tbl:result_allnb_experiment_svm}の比較から,ステップ(\ref{enum:boost_proposal})における事例自動生成が項候補獲得部・項候補同定モデルの偽陽性率の向上に貢献していることが明らかとなった.すなわち,ステップ(\ref{enum:boost_proposal})で自動生成された事例が,項候補同定モデルの学習事例,特に負事例の網羅性を向上させ,性能の良いモデルの学習に繋がったと考えられる.このことからも,ステップ(\ref{enum:boost_proposal})における事例自動生成の有効性が明らかとなった.\subsection*{機械学習法}我々は,機械学習に最大エントロピー法とサポートベクタマシンの2つを用い,それぞれを用いて意味役割推定モデルを獲得した.結果,意味役割を付与すべき項が分かっていない文に対して,最大エントロピー法を用いた場合は精度63%,再現率43%で意味役割付与を実現,サポートベクタマシンを用いた場合は精度65%,再現率38%で意味役割付与を実現した.それらの数値を比較した結果として,本論文では,そこに有意な差は見られなかったと結論する.というのも,最大エントロピー法,サポートベクタマシンの双方にチューニング可能なパラメータが多いほか,素性選択,学習事例準備など,多くのステップで最適解を求める余地が残っていると考えるためである.一方,評価実験結果および事例自動生成検証結果を考察すると,最大エントロピー法に比べサポートベクタマシンは精度に焦点化しており,特に項候補同定モデルにおいて偽陽性率に関して優れていることが見てとれる.言い換えれば,サポートベクタマシンは最大エントロピー法と比して,同モデル学習のために準備した負事例の特徴量をよく反映したと考えることができる.我々は,最大エントロピー法とサポートベクタマシンの双方に,同一の負事例準備法を適用して項候補同定モデルを学習した.しかしながら以上を考慮すると,採用する機械学習法に応じて負事例の準備の方法を変化させる必要があり,また,モデルの目的に応じて,最適な機械学習法を選択することが必要になると考える.
\section{おわりに}
label{sec:conc}本稿では,日本語フレームネットを背景とし,項の意味役割を推定する統計モデルの定義,ならびに獲得手法を提案した.結果,提案した意味役割推定モデルの尤度が0.5を超えるもののみを付与する条件の下,意味役割が付与されるべき項が分かっていない文に対して精度63%,再現率43%の意味役割推定を,意味役割が付与されるべき項が分かっている文に対して精度77%,再現率68%の意味役割推定を実現し,本手法の有効性を示した.また,日本語フレームネットを背景としたことにより,表層格では区別できない意味の区別を実現した.今後は,語義曖昧性解消問題や機械翻訳の要素技術として本稿の提案手法を適用すると共に,現在進行中の日本語フレームネットの新たな事例について,再度本手法の検証を行っていく予定である.\nocite{mainichi:_cd}\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldewein,Erk,Pado,\BBA\Prescher}{Baldeweinet~al.}{2004}]{baldewein04}Baldewein,U.,Erk,K.,Pado,S.,\BBA\Prescher,D.\BBOP2004\BBCP.\newblock\BBOQSemanticRoleLabellingWithChunkSequences\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL'04sharedtask}.\bibitem[\protect\BCAY{Bejan,Moschitti,Mor{\ua}rescu,Nicolae,\BBA\Harabagiu}{Bejanet~al.}{2004}]{bejan04}Bejan,C.~A.,Moschitti,A.,Mor{\ua}rescu,P.,Nicolae,G.,\BBA\Harabagiu,S.\BBOP2004\BBCP.\newblock\BBOQSemanticParsingBasedonFrameNet\BBCQ\\newblockIn{\BemSENSEVAL-3,ThirdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText/ACL'04},\mbox{\BPGS\73--76}.\bibitem[\protect\BCAY{Berger,{DellaPietra},\BBA\{DellaPietra}}{Bergeret~al.}{1996}]{berger96}Berger,A.~L.,{DellaPietra},S.~A.,\BBA\{DellaPietra},V.~J.\BBOP1996\BBCP.\newblock\BBOQAMaximumEntropyApproachtoNaturalLanguageProcessing\BBCQ\\newblock{\BemComputationalLinguistics}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1982}]{fillmore82}Fillmore,C.~J.\BBOP1982\BBCP.\newblock\BBOQFramesemantics\BBCQ\\newblockIn{\BemLinguisticsintheMorningCalm},\mbox{\BPGS\111--137}.\bibitem[\protect\BCAY{降幡\JBA藤田\JBA乾\JBA松本\JBA竹内}{降幡\Jetal}{2004}]{furuhata04}降幡建太郎\JBA藤田篤\JBA乾健太郎\JBA松本裕治\JBA竹内孔一\BBOP2004\BBCP.\newblock\JBOQ語彙概念構造を用いた機能動詞結合の言い換え\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\504--507}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{gildea02}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticLabelingofSemanticRoles\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2003}]{kawahara03}河原大輔\JBA黒橋禎夫\BBOP2003\BBCP.\newblock\JBOQ自動構築した格フレーム辞書に基づく省略解析の大規模評価\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\mbox{\BPGS\589--592}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2004}]{kawahara04}河原大輔\JBA黒橋禎夫\BBOP2004\BBCP.\newblock\JBOQ自動構築した格フレーム辞書と先行詞の位置選好順序を用いた省略解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005a}]{kawahara05_1}河原大輔\JBA黒橋禎夫\BBOP2005a\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005b}]{kawahara05}河原大輔\JBA黒橋禎夫\BBOP2005b\BBCP.\newblock\JBOQ大規模格フレームに基づく構文・格解析の統合的確率モデル\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\923--926}.\bibitem[\protect\BCAY{Kingsbury\BBA\Palmer}{Kingsbury\BBA\Palmer}{2002}]{kingsbury02}Kingsbury,P.\BBACOMMA\\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQFromTreebanktoPropBank\BBCQ\\newblockIn{\BemProceedingsofLREC'02}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{kudo02_cabocha}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{Kwon,Fleischman,\BBA\Hovy}{Kwonet~al.}{2004}]{kwon04}Kwon,N.,Fleischman,M.,\BBA\Hovy,E.\BBOP2004\BBCP.\newblock\BBOQFrameNet-basedSemanticParsingusingMaximumEntropyModels\BBCQ\\newblockIn{\BemProceedingsofCOLING'04},\mbox{\BPGS\1233--1239}.\bibitem[\protect\BCAY{Litkowski}{Litkowski}{2004}]{litkowski04}Litkowski,K.~C.\BBOP2004\BBCP.\newblock\BBOQSENSEVAL-3TaskAutomaticLabelingofSemanticRoles\BBCQ\\newblockIn{\BemSENSEVAL-3,ThirdInternationalWorkshopontheEvaluationofSystemsfortheSemanticAnalysisofText/ACL'04},\mbox{\BPGS\111--137}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{}]{mainichi:_cd}毎日新聞社.\newblock\JBOQCD-毎日新聞(データ集)\JBCQ\\newblock1992--2002年版.\bibitem[\protect\BCAY{小原\JBA大堀\JBA鈴木\JBA藤井\JBA斎藤\JBA石崎}{小原\Jetal}{2005}]{ohara05}小原京子\JBA大堀壽夫\JBA鈴木亮子\JBA藤井聖子\JBA斎藤博昭\JBA石崎俊\BBOP2005\BBCP.\newblock\JBOQ日本語フレームネット:意味タグ付きコーパスの試み\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\1225--1228}.\bibitem[\protect\BCAY{Pradhan,Ward,Hacioglu,Martin,\BBA\Jurafsky}{Pradhanet~al.}{2004}]{pradhan04}Pradhan,S.,Ward,W.,Hacioglu,K.,Martin,J.~H.,\BBA\Jurafsky,D.\BBOP2004\BBCP.\newblock\BBOQShallowSemanticParsingusingSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsofHLT/NAACL'04}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2004}]{sasano04}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQAutomaticConstructionofNominalCaseFramesanditsApplicationtoIndirectAnaphoraResolution\BBCQ\\newblockIn{\BemProceedingsofCOLING'04},\mbox{\BPGS\1201--1207}.\bibitem[\protect\BCAY{竹内}{竹内}{2004}]{takeuchi04}竹内孔一\BBOP2004\BBCP.\newblock\JBOQ語彙概念構造による動詞辞書の作成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\576--579}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田\JBA竹内\JBA阿部}{竹内\Jetal}{2005}]{takeuchi05}竹内孔一\JBA乾健太郎\JBA藤田篤\JBA竹内奈央\JBA阿部修也\BBOP2005\BBCP.\newblock\JBOQ分類の根拠を明示した動詞語彙概念構造辞書の構築\JBCQ\\newblock\Jem{情報処理学会研究報告:自然言語処理},{\Bbf169}(9),\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{vapnik99}Vapnik,V.~N.\BBOP1999\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory\/}(2nd\BEd).\newblockSpringer.\end{thebibliography}\begin{biography}\bioauthor{肥塚真輔}{慶應義塾大学理工学部情報工学科卒業.現在,証券会社にてプログラム開発等の業務に従事.工学修士.}\bioauthor{岡本紘幸}{慶應義塾大学理工学部情報工学科卒業.現在,同大学理工学研究科後期博士課程在学中.自然言語処理の研究に従事.言語処理学会,情報処理学会各学生会員.}\bioauthor{斎藤博昭(正会員)}{慶應義塾大学工学部数理工学科卒業.現在,同大理工学部情報工学科助教授.工学博士.自然言語処理,音声言語理解などに興味を持つ.情報処理学会,言語処理学会,日本音響学会,電子情報通信学会,ACL各会員.}\bioauthor{小原京子}{カリフォルニア大学バークレー校言語学科博士課程修了.現在,慶應義塾大学理工学部助教授,InternationalComputerScienceInstituteならびにカリフォルニア大学バークレー校言語学科客員研究員.Ph.D.(言語学).認知言語学,コーパス言語学の研究に従事.LinguisticSocietyofAmerica(LSA),ACL,InternationalCognitiveLinguisticsAssociation(ICLA),InternationalPragmaticsAssociation(IPrA),日本英語学会,日本言語学会,日本認知言語学会,日本認知科学会各会員.}\end{biography}\biodate\end{document}
| |
V27N01-05
|
\section{はじめに}
辞書は言葉に関するさまざまな特徴を集積したものである.発音・形態論情報・品詞・単語分類・統語情報・意味情報・位相・語源・語釈などにより整理される.単語の使用実態に基づく言葉の特徴として{\bf単語親密度}がある.単語親密度は,人々がどのくらいその単語を知っているのか・使うのかといった,人の主観的な評価に基づく指標である.NTTコミュニーケーション科学基礎研究所による『日本語の語彙特性』\cite{Amano-1999}は,単語親密度を含む情報を『新明解国語辞典第四版』の見出し項目約80,000語について付与した.また同データは朝日新聞の1985年から1998年の14年分の記事データにおける頻度情報も含む.しかしながら,評定情報の収集や頻度情報が20年以上前のものである.本研究では,最近の単語親密度を評定することを試みる.日本語のシソーラスである『分類語彙表増補改訂版』\cite{WLSP-2004}の電子化データ『分類語彙表増補改訂版データベース』(以下「分類語彙表DB」と呼ぶ)の語彙項目94,838語を対象に,単語親密度付与を行った.評定値の収集にあたっては,「知っている」の観点のほか,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の位相情報を含めるために,「書く」「読む」「話す」「聞く」の4つの位相情報についても質問事項に含めた.安価に,そして,継続的に調査を行うためにクラウドソーシングにより評定値の収集を行った.しかしながら,「日本語の語彙特性」の調査のように{研究協力者}に対する統制などに制約があり,研究協力者の個体差の影響を受ける問題がある.この問題を緩和するために,収集されたデータをベイジアン線形混合モデル(BayesianLinearMixedModel:BLMM)\cite{Sorensen-2016}によりモデル化を行う.またシソーラスに単語親密度を付与することにより,統語分類・意味分類に基づく親密度・位相情報の評価もできるようになった.本研究の貢献は以下の通りである:\begin{itemize}\item日本語の大規模シソーラスに対する単語親密度情報の網羅的収集を行った.\item単語親密度の評定にクラウドソーシングを用いた.\item単語親密度の観点において「知っている」だけでなく,「書く」「読む」「話す」「聞く」の4つの位相情報についても検討し,単語の位相情報も評価した.これにより,生産過程$\Leftrightarrow$受容過程や書記言語$\Leftrightarrow$音声言語の対照比較ができる.\item単語親密度の統計処理にベイジアン線形混合モデルを導入し,研究協力者の個体差の影響の軽減を行った.\item語彙項目は分類語彙表DBの見出し語を用いた.分類語彙表の統語・意味分類に対して親密度が推定できるほか,UniDicと分類語彙表の対応表\cite{Kondo-2018}と形態素解析器を用いて親密度を自動付与できる.さらに,『岩波国語辞典第五版』の語釈文と分類語彙表の対応表\cite{呉-2019}の整備も進んでおり,語釈文との対照できる.\end{itemize}本稿の構成は以下の通りである.2節では関連研究について示す.3節ではクラウドソーシングに基づく単語親密度推定手法について示す.4節で結果を示し,5節にまとめと今後の展開について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{関連研究}
『日本語の語彙特性』\cite{Amano-1999}の単語親密度は,主観的な単語のなじみの程度とし,18歳以上30歳未満の40人に対してアンケート調査により収集したものである.刺激を,「音声のみ」「文字のみ」「音声と文字の両方」の3つの手法で呈示し,1--7の7段階評定を「できるだけまんべんなく」付与するように教示したうえで収集した.対象は『新明解国語辞典』第四版の見出し語69,084語とし,表記ゆれに基づき88,569パターンの刺激による.評定データは1995年9月から1996年7月にかけて,NTT研究所内で収集された.機関内で収集したために,教示により統制してデータを収集しているが,公開評定データは40人の評定値の平均値による.研究協力者の個体差の影響を軽減するために,より洗練された統計処理が必要である.また,『日本語の語彙特性』は,客観的な単語のなじみの程度として,テキストコーパスの出現頻度に基づく評定情報も含まれている.14年分(1985--1998年)の朝日新聞の新聞記事を形態素解析器『すもも』で解析したうえで,頻度情報をデータベース化した.\citeA{Tanaka-2011}は,単語親密度と大規模コーパス頻度情報との相関について調査した.\citeA{水谷-2018}は単語基本語情報を推定するために,各種語彙表のほか,ウェブコーパスの頻度情報を用いた.\citeA{岡久-2019}は,単語の定義(語釈)−被定義(見出し語)関係を用いて,単語の基本度の推定を行った.語釈文の収集にクラウドソーシングを用いた.11,936語(被定義語)を対象として1語あたり10人分の語釈文を収集し,基礎データとした.定義−被定義関係は,シソーラスへの写像\cite{正津-2001}に用いられる.また,単語の基本度を数値化する基本的な考え方は\citeA{野呂-2007}による.\citeA{水谷-2019}は,『JUMAN++』の単語辞書に掲載されている単語26,000語を対象にクラウドソーシングを用いて,「習得時期」を「小学生になる前」「小学校低学年」「小学校高学年」「中学生になった頃」「単語の意味を知らない/見聞きしたことがない」の5段階で収集した.1単語あたり20人の評定値を収集し,平均値により単語難易度データベースを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{手法}
本節では,単語親密度・位相情報の収集方法について示す.はじめに,収集対象の語彙項目の母集団である分類語彙表DBについて示す.次に,質問紙の構成について示す.最後に,統計処理手法について示す.なお,本手法は2017年に,形容詞・副詞・連体詞のみを対象として,全体の10分の1の規模で実行可能性を調査した\cite{浅原-2017}うえで,再設計したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分類語彙表の分類番号の例}『分類語彙表』は現代日本語を対象としたシソーラスで,岩波国語辞典の語彙項目から約30,000語が選ばれて採録された.1964年に初版\cite{WLSP-1964}が公刊された.その後,2004年に増補改訂版が公刊され,増補改訂版のCSVファイル(分類語彙表DB)が研究用途に公開された\footnote{商用利用は200,000円(税抜).}.分類語彙表DBは,区切り文字を入れて101,070の語彙項目からなり,4つの統語分類である類(体・用・相・他)と,階層的な意味分類が付与されている.各項目の分類は5ケタの数字による分類番号で示され,統語分類は1ケタ目,意味分類は小数点以下4ケタで表現する.意味分類の1ケタ目が部門,2ケタ目までは中項目,4ケタすべてが分類項目を表す.表\ref{tbl:wlsp}に,分類番号「1.1642」が割り当てられた「昨年」の例を示す.ここで,1ケタ目「1」は,体の類を表す.小数点以下4ケタの「.1642」は階層的な意味分類を表し,1ケタ目「.1」が部門「関係」を,2ケタ目まで「.16」が中項目「時間」を,4ケタ「.1642」が分類項目「過去」を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{分類語彙表DB}\label{tbl:wlsp}\input{05table01.tex}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問紙の構成}本節では,単語親密度を推定するにあたって利用した,質問紙の構成について示す.質問紙は,Yahoo!クラウドソーシング上のフォームで構成する.クラウドソーシングを用いることにより,96,557語\footnote{分類語彙表DB101,070項目のうち区切り文字240項目以外の100,830項目に対して調査を行ったが,クラウドソーシングの作業過程において4,253項目についてデータが得られなかった.得られなかった4,253項目については2019年11月に調査を行った.}に対して,短期間に低コストで評定情報を収集が可能である.まず,質問紙の構成として,書記刺激で呈示された語を知っているかどうか(KNOW)について確認する.音声刺激で呈示しない代わりに書記言語(書く(WRITE)・読む(READ))・音声言語(話す(SPEAK)・聞く(LISTEN))で利用されるかの観点を導入し,位相情報を推定する.さらに,生産過程(書く(WRITE)・話す(SPEAK))・受容過程(読む(READ)・聞く(LISTEN))の観点を導入した.以下に質問項目の5つの観点について示す:\begin{description}\item[KNOW:知っている]単語の意味を知っていますか?\\全く知らない(1)--(5)よく知っている\item[WRITE:書く]どのくらい普段書いているものに出現しますか?\\全く出現しない(1)--(5)よく出現する\item[READ:読む]どのくらい普段読んでいるものに出現しますか?\\全く出現しない(1)--(5)よく出現する\item[SPEAK:話す]どのくらい普段話すときに出現しますか?\\全く出現しない(1)--(5)よく出現する\item[LISTEN:聞く]どのくらい普段聞くときに出現しますか?\\全く出現しない(1)--(5)よく出現する\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f1.eps}\end{center}\caption{クラウドソーシング上のフォームで構成した質問紙の例}\label{fig:crowdsource}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:crowdsource}に調査に用いた質問紙を示す.評定情報は,(1)全く知らない/全く出現しない,(2)あまり知らない/あまり出現しない,(3)どちらともいえない,(4)何となく知っている/たまに出現する,(5)よく知っている/よく出現するの5段階で収集するが,リッカート尺度としては収集しなかった.これは,2017年の事前調査で数値だけ見て,全く反対の評定値を付与した研究協力者が散見されたため,それを回避するために行った.また,調査環境の制約により,\citeA{Amano-1999}が実験室で行ったように音声刺激を呈示することは行わない.なお,本質問紙調査では,多義語の異なる語義についての評定(単語心象性)は行わない.研究協力者には「参考情報」として,質問紙の末尾に分類語彙表の分類項目を示す程度にとどめた.本調査は異なりで3,392人の20歳以上のYahoo!クラウドソーシングのアカウントを持っている方を対象に,2018年11月に実施した.1つの見出し語あたり少なくとも16回答を得た結果,有効データポイント数は1,617,184であった.収集の要した費用は1,455,494円であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f2.eps}\end{center}\caption{統計モデル}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{統計モデル}収集した評定データは研究協力者ごと個体差がある.この個体差は,研究協力者の語彙力や回答の傾向に依存するバイアスである.この個体差をベイジアン線形混合モデルのランダム効果によりモデル化し,個体差の影響を軽減する.また,単語親密度情報も単語の特性としてランダム効果によりモデル化する.グラフィカルモデルを図\ref{fig:model}に示す.$N_{word}$は語彙項目×5観点(KNOW,WRITE,READ,SPEAK,LISTEN)の定義域,$N_{subj}$は研究協力者の数で,それぞれ単語・観点のインデックス$i:1\ldotsN_{word}$,研究協力者のインデックス$j:1\ldotsN_{subj}$とする.$y^{(i)(j)}$は語彙項目×5観点(KNOW,WRITE,READ,SPEAK,LISTEN)の値域で,$y$は平均$\mu^{(i)(j)}$標準偏差$\sigma$によって定義される正規分布とする:\[y^{(i)(j)}\simNormal(\mu^{(i)(j)},\sigma).\]$\sigma$は標準偏差としてのハイパーパラメータで,$\mu^{(i)(j)}$は,切片$\alpha$と語彙項目×5観点のランダム効果$\gamma_{word}^{(i)}$と研究協力者のランダム効果$\gamma_{subj}^{(j)}$の線形式で定義する:\[\mu^{(i)(j)=\alpha+\gamma_{word}^{(i)}+\gamma_{subj}^{(j)}}.\]語彙項目×5観点のランダム効果$\gamma_{word}^{(i)}$と研究協力者のランダム効果$\gamma_{subj}^{(j)}$は,それぞれハイパーパラメータ平均$\mu_{word}$,$\mu_{subj}$,分散$\sigma_{word}$,$\sigma_{subj}$によって定義される正規分布によりモデル化する:\begin{gather*}\gamma_{word}^{(i)}\simNormal(\mu_{word},\sigma_{word}),\\\gamma_{subj}^{(j)}\simNormal(\mu_{subj},\sigma_{subj}).\end{gather*}このうち単語親密度はランダム効果$\gamma_{word}^{(i)}$の推定値である.一方,研究協力者の個体差はランダム効果$\gamma_{subj}^{(j)}$の推定値であるが,結果的に研究協力者の語彙力の評価値となる.ハイパーパラメータはデータから推定を試みた結果,収束しなかったために,平均$\mu_{word}$,$\mu_{subj}$を0.0,標準偏差$\sigma_{word}$,$\sigma_{subj}$を1.0とした.推定にはRとStanを用いた.warm-up100iterationのあと,5,000iteration$\times$4chains並列でシミュレーションし,すべてのモデルは収束した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{推定した単語親密度・位相情報の分析}
本節では,推定された単語親密度の質的評価を行う.4.1節に,得られた5観点の評定値の分布と,研究協力者の個体差の分布について示す.4.2節で各観点の上位10語・下位10語について確認する.4.3節で分類語彙表の中項目(意味分類の第2レベル)による上位10カテゴリ・下位10カテゴリについて確認する.4.4節にベイジアン線形混合モデルの効果について示し,4.5節に『日本語の語彙特性』との比較を示す.4.6節に結果のまとめを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分布}図\ref{fig:word}に推定された単語親密度のヒストグラムを示す.x軸が単語親密度に相当する$\gamma_{word}^{(i)}$で,y軸がそのビン(ビンの幅0.1)に入る頻度である.5観点ごとに集計されており,KNOWが他の観点よりも高い単語親密度にある傾向がみられる.受容過程であるREADとLISTENが高く,生産過程であるWRITEとSPEAKは低い傾向がみられた.言語の運用において,知識>受容>生産の順に語彙数が分布していることがわかる.また,値が大体$-2$から2に分布しており,おおよそ5段階評価の値としてそのまま利用できる.図\ref{fig:subj}に推定された研究協力者の個体差のヒストグラムを示す.x軸が研究協力者の個体差$\gamma_{subj}^{(j)}$で,y軸がビン(ビンの幅0.1)に入る頻度である.標準正規分布でモデル化しているために,グラフもその形状になる.今回は利用しないが,この値は研究協力者の語彙力としてそのまま利用することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\begin{center}\includegraphics{27-1ia5f3.eps}\end{center}\caption{推定した単語親密度($\gamma_{word}^{(i)}$):5観点の分布}\label{fig:word}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{27-1ia5f4.eps}\end{center}\caption{推定した研究協力者の個体差の分布($\gamma_{subj}^{(j)}$)}\label{fig:subj}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他の分布に基づく個体差のモデル化については今後の検討課題とする.例えば,研究協力者の分布について標準正規分布とせずにモデル化を試みたが収束しなかった.今後,年次でデータを収集し拡充することで,他の分布に基づくモデル化を進めるとともに,調査年の要因を入れることで経年変化の調査を進めたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{見出し語に対する評価}本節では,推定された単語親密度の上位10件・下位10件について確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{「知っている」}まず,最初に「知っている」(KNOW)の上位10件・下位10件について確認する.表\ref{tbl:top:know:word}と表\ref{tbl:bottom:know:word}に上位10件・下位10件の事例を評定値と『国語研日本語ウェブコーパス』(NWJC)\cite{NWJC}の検索系『梵天』文字列検索\cite{bonten}のヒット件数とともに示す.検索時にはルビは削除した.上位10件には日常生活でよく利用する用語が出現し,下位10件には近年あまり使われない語が出現する.なお,活用語は基本形で調査したため,活用しない語よりも頻度が低い傾向にある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2and3\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{「知っている」上位10件(KNOW)}\label{tbl:top:know:word}\input{05table02.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{「知っている」下位10件(KNOW)}\label{tbl:bottom:know:word}\input{05table03.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%梵天の文字列検索のヒット件数は活用語においては基本形のみの件数であり,低くなる傾向にある.さらにカタカナ語「スフ」は他の語の部分文字列になりやすいために件数が高くなる傾向がみられる.頻度情報との対照は,以上の注意が必要だが,基本的には高頻度語が上位に,低頻度語が下位に位置する.また,WRITE,READ,SPEAK,LISTENの単体の4観点についても基本的には同様の語彙がみられた.詳細な議論については,次小節以降の書記言語・音声言語もしくは生産過程・受容過程の観点による分析で示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{書記言語・音声言語}次に,書記言語(WRITE/READ)と音声言語(SPEAK/LISTEN)の傾向を確認した.『日本語の語彙特性』の調査では,書記刺激と音声刺激の2つの刺激により統制するが,本実験では直接言語運用実態を質問することによる.ここでは$\text{書記}-\text{音声}\(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN})$の値を評価した.この値が正である場合に書記言語選好であり,この値が負である場合に音声言語選好である.表\ref{tbl:char:word}に書記言語選好上位10件($\text{書記}-\text{音声}$が正の値)を示す.記号関連の「アンパサンド」「句読点」や,手紙や文書で用いられる「上記」「追伸」「記」「前略」「下記」などがみられた.表\ref{tbl:voice:word}に音声言語選好上位10件($\text{書記}-\text{音声}$が負の値)を示す.「先っちょ」「バイバイ」「まんま」「どっこいしょ」など,話しことばが多くみられた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4and5\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{書記言語選好上位10件}\label{tbl:char:word}\input{05table04.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{音声言語選好上位10件}\label{tbl:voice:word}\input{05table05.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{生産過程・受容過程}本節では生産過程(WRITE,SPEAK)と受容過程(READ,LISTEN)の差について評価する.具体的には,$\text{生産}-\text{受容}$$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN})$の正負により検討する.この観点は過去の研究では,管見の限り調査されていない.表\ref{tbl:pro:word}に生産過程選好上位10件を示す.基本的には受容過程のほうが生産過程よりも親密度が高くなる傾向になるために,値は正であっても小さい.得られた語彙は,特定分野の専門用語が多かった.例えば,「毛管」「絆創膏」のような看護医療用語であったり,「吟詠する」など詩吟の用語であったりした.表\ref{tbl:rec:word}に受容過程選好上位10件を示す.「殺害」「書類送検」などの報道記事などで出現する語や,当時の大河ドラマの主人公「西郷隆盛」が上位にみられた.生産過程選好か受容過程選好かは,特定の分野で用いられる用語か,マスメディアで用いられる用語かを反映させていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6and7\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{生産過程選好上位10件}\label{tbl:pro:word}\input{05table06.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{受容過程選好上位10件}\label{tbl:rec:word}\input{05table07.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{『分類語彙表』の分類に基づく評価}本節では分類語彙表の分類に基づく評価を行う.分類語彙表の中項目まで(小数点以下2ケタ)で推定した結果の平均を取り,値の上位カテゴリ・下位カテゴリについて分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{「知っている」}表\ref{tbl:top:know:cat},表\ref{tbl:bottom:know:cat}に「知っている」分類語彙表の中項目カテゴリ上位・下位10件を示す.相・用の類が上位傾向にあり,体の類が下位傾向にある.「知っている」上位カテゴリは3.53(相-自然-生物)で「女性的」(KNOW=1.81),「男性的」(KNOW=1.71)などの単語が含まれる.「知っている」下位カテゴリは3.52(相-自然-天地)で「蕭条」(KNOW=-1.46),「巍巍」(KNOW=$-1.35$)などが含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8and9\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.4\hsize}\caption{「知っている」上位カテゴリ}\label{tbl:top:know:cat}\input{05table08.tex}\end{minipage}&\begin{minipage}{0.4\hsize}\caption{「知っている」下位カテゴリ}\label{tbl:bottom:know:cat}\input{05table09.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{書記言語・音声言語}表\ref{tbl:char:cat},表\ref{tbl:voice:cat}に書記言語選好カテゴリと音声言語選好カテゴリを示す.体の類の活動・主体が書記言語選好である傾向がみられる.一方,他の類の呼びかけ・感動や相の類が音声言語選好である傾向がみられる.最も書記言語選好であるカテゴリは1.31(体-活動-言語)で,「上記」$(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN}=3.87)$,「追伸」$(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN}=2.65)$などの用語が見られた.もっとも音声言語選好であるカテゴリは4.32(他-呼びかけ)で「もしもし」$(\text{WRITE}+\text{READ}-\text{SPEAK}-\text{LISTEN}=-1.75)$が含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10and11\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{書記言語選好カテゴリ}\label{tbl:char:cat}\input{05table10.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{音声言語選好カテゴリ}\label{tbl:voice:cat}\input{05table11.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12and13\begin{table}[b]\begin{center}\begin{tabular}{cc}\begin{minipage}{0.45\hsize}\caption{生産過程選好カテゴリ}\label{tbl:pro:cat}\input{05table12.tex}\end{minipage}&\begin{minipage}{0.45\hsize}\caption{受容過程選好カテゴリ}\label{tbl:rec:cat}\input{05table13.tex}\end{minipage}\end{tabular}\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{生産過程・受容過程}表\ref{tbl:pro:cat},表\ref{tbl:rec:cat}に生産過程選好カテゴリと受容過程選好カテゴリを示す.一般的に,受容過程の値(READ,LISTEN)のほうが,生産過程の値(WRITE,SPEAK)よりも大きい傾向にある.このため,$\text{生産}-\text{受容}$$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN})$の値は,カテゴリレベルでは生産過程選好のものでも負になる.生産過程選好のカテゴリは4.50(他-動物の鳴き声)で「げろげろ」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=0.45)$や「かーかー」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=0.23)$が含まれる.受容過程選好のカテゴリは1.27(体-主体-機関)で「厚生労働省」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=-2.23)$や「金融庁」$(\text{WRITE}+\text{SPEAK}-\text{READ}-\text{LISTEN}=-2.18)$が含まれる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ベイジアン線形混合モデルの効果}本節ではベイジアン線形混合モデルを用いた効果について概説する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{27-1ia5f5.eps}\end{center}\caption{『日本語の語彙特性』の評定値の分布(書記音声刺激)}\label{fig:psylex}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f6.eps}\end{center}\caption{統計処理前の評定値の分布(知っている)}\label{fig:orig}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{27-1ia5f7.eps}\end{center}\caption{統計処理後の評定値の分布(知っている)}\label{fig:smooth}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%混合モデルを用いた効果として,得られた評価情報を稠密にすることがあげられる.図\ref{fig:psylex}に『日本語の語彙特性』の書記音声刺激の評定値の分布を,図\ref{fig:orig}に統計処理前の評定値の分布(知っている)を,図\ref{fig:smooth}に統計処理後の評定値の分布(知っている)を,ビンの幅を0.01にしたヒストグラムにより示す.『日本語の語彙特性』においては各語40人の評定値のため1/40=0.025単位の離散的な値となる.本データにおいても各語16人の評定値のため,統計処理をしなかった場合には1/16=0.0625単位の離散的な値となる.同じ評定値を持つ語が多く,事例がないビンも出現し,分布が疎になる(図\ref{fig:psylex},図\ref{fig:orig}).例えば,評定値(知っている)が最高の5.0である項目は410事例あり,これらの同じ評定値が割り当てられている事例間の差異が得られない.一方,統計処理をした場合には,適切に平滑化が行われ,すべてのビンに項目が含まれ,分布が密になる(図\ref{fig:smooth}).本研究ではランダム切片に基づく平滑化を行う.この平滑化においては,評定値の研究協力者ごとの平均値が用いられる.回答する評定値が高い研究協力者群に対しては,その研究協力者ごとの平均値に応じて評定値を減じ,回答する評定値が低い研究協力者群に対しては,その研究協力者ごとの平均値に応じて評定値を増じる.これにより,研究協力者の回答の個体差をモデル化したうえで,1研究協力者内の語彙項目ごとの回答の差異に基づいて,語彙項目の評定値をモデル化することができる.他の平滑化手法として,ランダム傾きに基づく平滑化がある.この平滑化においては,研究協力者ごとの分散に応じて,評定値を増減する.ベイジアン線形混合モデルは,この平滑化を含む線形モデルを,事後分布を生成するランダムサンプリングによりベイズ推定するものである.本研究ではランダム切片モデルのみならず,ランダム傾きモデルについても検討したが,収束しなかった.今後,データを増やして,よりあてはまりのよいモデルを検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{『日本語の語彙特性』単語親密度との比較}本節では,『日本語の語彙特性』\cite{Amano-1999}の単語親密度との比較を行う.『日本語の語彙特性』と本データとで,表記と読みが同じ語彙項目が41,634対あった.『日本語の語彙特性』データにおいては,書記音声刺激・音声刺激・書記刺激の3つを比較対象とする.本データにおいては推定した11個の項目すべてを比較対象とする.本データは,表記と読みが同じであるが語義が異なる語彙項目がある.この場合,「知っている」の評定値が最も高いものを対照する.対照はスピアマンの順位相関係数に基づく.タイの場合は同順位の平均値を用いる補正を行う.表\ref{tbl:orthphon}に書記音声刺激に対する相関係数,表\ref{tbl:phon}に音声刺激に対する相関係数,表\ref{tbl:orth}に書記刺激に対する相関係数を示す.全ての検定において$p<0.01$であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\caption{『日本語の語彙特性』書記音声刺激と本データとの比較(順位相関係数)}\label{tbl:orthphon}\input{05table14.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[t]\caption{『日本語の語彙特性』音声刺激と本データとの比較(順位相関係数)}\label{tbl:phon}\input{05table15.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[t]\caption{『日本語の語彙特性』書記刺激と本データとの比較(順位相関係数)}\label{tbl:orth}\input{05table16.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本データの「書記-音声」「生産-受容」以外の指標は,『日本語の語彙特性』のいずれとも正の相関があることがわかる.そのなかでも書記音声刺激・書記刺激と強い正の相関があることがわかる.「書記-音声」「生産-受容」については中程度の負の相関がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果のまとめ}まず,調査結果の分布をみると「知っている」>「読む」「聞く」>「書く」「話す」と,言語運用の負荷レベルで評定値に差異が出ることが明らかになった.「知っている」「書く」「読む」「話す」「聞く」の5観点の親密度上位語・下位語を確認すると,ほぼ同じ語が分布することが確認できた.このため,書記言語$\Leftrightarrow$音声言語,生産過程$\Leftrightarrow$受容過程の2軸で分析することを試みた.具体的には対となる値を引き算することで,評定値の偏りがある語の上位10件について検討した.書記言語選好・音声言語選好の対照分析においては,書きことば・話しことばの語彙を適切にモデル化できていることを確認した.また,生産過程選好・受容過程選好の対照分析においては,特定分野の用語・マスメディアの用語といった比較ができることがわかった.さらに分類語彙表の中項目までのカテゴリ情報で同様の分析を試みた.用・相の類のほうが体の類よりも親密度が高い語が多いことがわかった.また体の類の活動・主体が書記言語選好で,他の類の呼びかけ・感動が音声言語選好であった.生産過程選好のカテゴリとして他の類が多くみられる一方,受容過程選好のカテゴリは体の類の主体・活動,用の類の活動など,マスメディアで用いられやすい語が多かった.ランダム切片を用いたベイジアン線形混合モデルにより,同順位の語彙項目を多く含む疎な評定値を,研究協力者の個体差を考慮した密な評定値に変換できることを図\ref{fig:orig},図\ref{fig:smooth}の対比により示した.また,先行研究の『日本語の語彙特性』との相関について検討した(表\ref{tbl:orthphon},表\ref{tbl:phon},表\ref{tbl:orth}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
本稿では,分類語彙表DBの見出し語に対する単語親密度付与について解説した.短期間で安価に作業を進めるためにクラウドソーシングを用いて,1見出し語あたり16人の評定値を付与した.得られたデータをベイジアン線形混合モデルのランダム効果を用いて,親密度と研究協力者の個体差を同時にモデル化を行い,研究協力者の評定値のバイアスを吸収した.評定する観点として「知っている」だけでなく,「書く」「読む」「話す」「聞く」を含めた5観点を導入した.これにより,書記言語$\Leftrightarrow$音声言語・生産過程$\Leftrightarrow$需要過程の2軸の位相情報を導入する.軸の反対方向の観点との差分を取ることにより,言語使用に偏りがある語を抽出することができた.UniDic-分類語彙表対応表\cite{Kondo-2018}が整備されており,言語資源を組み合わせることで形態素解析結果に単語親密度を割り当てることも可能である.構築したデータは\texttt{https://github.com/masayu-a/WLSP-familiarity/}で配布するほか,辞書検索ツールCradleExpress\texttt{https://cradle.ninjal.ac.jp/}で閲覧可能である.以下,今後の課題について示す.本研究では,研究協力者の評定値の個体差を標準正規分布によりモデル化した.他のモデルについても検討したが,現状のデータポイント量では収束が困難であった.今後,年次でデータを拡充することで適切なモデル化をすすめたい.その際には調査年の要因を含めるとともに,語彙をUniDicの語彙素から表記ゆれを展開するなど表記間の差異についても検討したい.また,本データの単語親密度,『現代日本語書き言葉均衡コーパス』に対する分類語彙表番号付与データ\cite{kato-2018-wlsp},岩波国語辞典の語釈文\cite{呉-2019}の定義-被定義関係などを用いて,単語心象性の調査を行う.単語心象性は,多義語の語義ごとの親密度を推定するものである.刺激呈示時に語義の情報を結びつける必要がある.本研究では質問紙の末尾に参考情報として分類語彙表の分類項目の情報を示しているが,ほとんどの研究協力者が語義を意識していないと考える.用例や語釈文などの情報を用いて,明示的に語義を示すことで,語義ごとの親密度である単語心象性の調査を進めたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費基盤研究(A)17H00917,基盤研究(C)19K00591,基盤研究(C)19K00655,挑戦的研究(萌芽)18K18519,新学術領域研究18H05521の助成を受けたものです.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{浅原正幸}{%2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
| |
V12N04-06
|
\section{背景}
\label{sec:background}多言語コーパスが整備されていく過程で,ある言語への翻訳が複数の言語に基づいて行われる場合がある.たとえば,聖書の翻訳における日本語訳を考える際に,その原言語として様々な言語が存在する状況に類似している.原言語が英語とフランス語のような場合,それらからの日本語訳には,原言語の影響はほとんどないかもしれない.一方で,原言語として韓国語と英語のような対を考える場合,それらの原言語の違いは,翻訳に多大な影響を及ぼすと予想できる.一般に,ある言語への翻訳が存在する場合,同一内容のものを別の言語から翻訳することは経済的理由から非常に少ない.たとえば,英語から日本語に翻訳された文書が存在する場合,同一内容の文書を韓国語から日本語に翻訳することは極めて稀である.まとまった量の文書を翻訳する場合,その可能性はさらに低くなる.そのため,原言語が異なる同一内容の大規模文書の翻訳は,人為的に作成されない限り入手は困難である.一方で,原言語が翻訳に与える影響は確実に存在し,認識されている.ところが,これまで,原言語が翻訳に与える影響に関して,どのような現象がどの程度生じるのかについて詳細に調査した研究は存在しない.原言語によって生じる違いを詳細に研究することによって,人間と機械の双方にとってよりよい翻訳を得るための知見,知識が得られると考える.そこで,本研究では,日本語と英語の対訳コーパスから日本語と英語を原言語として韓国語コーパスを作成し,翻訳における原言語の影響を考察する.各コーパスは,162,308文から構成される.2つの韓国語コーパスと日英の対訳コーパスの関係を図\ref{fig_relation}に示す.\begin{figure}[tb]\begin{center}\epsfile{file=Relations1.eps,width=7.5cm}\caption{原言語が異なる韓国語コーパス}\label{fig_relation}\end{center}\end{figure}これら2つの韓国語翻訳コーパスは原言語が日本語ならびに英語と大きく異なることから,それぞれ原言語の影響を受けたいくつかの特徴があり,両者は大きく異なる.本論文では,敬語表現,語彙選択,統語的差異,同義表現,表記のゆれ(正書法)の5つの言語現象の観点からそれらの違いを分析する.周知のように英語は比較的固定された語順(SVO)を持ち,主語,目的語などが省略されない.反面,日本語は,述部が文末にくるが,それ以外の要素は,述部に対する関係を助詞などによって示すため,語順が柔軟である.さらに日本語では,文脈上明らかな主語,目的語などは明示されない.これらの点では,韓国語は英語より日本語に非常に近い言語である.このように,日本語と英語は,その構文構造が大きく異なる言語であり,語彙論的な観点からも,単語が与える意味や,その概念なども相当異なる.\begin{exe}\ex\label{k:angry}\gll韓国語:\hg{gyga}\hg{murieihaise}~\hg{hoaga}\hg{naSda.}\\直訳:彼が無礼で腹が立った\\\trans英語:``Hisrudenessannoyed/bothered/upsetme.''\end{exe}たとえば,例(\ref{k:angry})に示した韓国語と英語の2つの文\cite{Lee:1999}は,同じ内容を表しているが,韓国語は複文構造を,英語は単文構造をとっている.これは,英語と日本語の間の翻訳についても言えることであるが,一方の言語において自然な表現を翻訳する場合,目的言語における自然な構文構造が,原言語のそれとは大きく異なる場合がある.しかしながら,翻訳が理想的な状況で行われるとは限らず,原言語の構文構造をそのままに,単語や,句を目的言語の該当表現へ変換することによって翻訳する場合もある.したがって,原言語が日本語と英語のように大きく異なる言語からの韓国語翻訳文は,その原言語に大きく影響されると予想する.構文構造が大きく異なる言語間の翻訳において,目的言語における自然な構文へ翻訳することは,人間にとっても機械にとっても当然負担がかかる.以下に示す日本語と英語から韓国語への翻訳は,原言語の違いが翻訳に与える影響をよく示している.\begin{exe}\ex\begin{xlist}\ex\label{sj_1}このケーブルカーに乗れば,ホテルに行くことができます。(原文)\trans\gll訳:``\hg{qi}\hg{keiqibyrkaryr}\hg{tamien}\hg{hoteirqei}\hg{gar}\hg{su}\hg{'iSsybnida.}''\\この~ケーブルカーに~乗れば~ホテルに~行く~ことが~できます。\\\ex\label{se_1}Thiscablecarwilltakeyoutothehotel.(原文)\trans\gll訳:``\hg{keiqibyrkaga}\hg{hoteirqei}\hg{deirieda}\hg{jur}\hg{gebnida.}''\\ケーブルカーが~ホテルに~連れて~あげる~でしょう。\\\end{xlist}\end{exe}例(\ref{sj_1})の韓国語訳は,和文の構造をそのまま用いて翻訳されている反面,(\ref{se_1})の韓国語訳は英文の構造に影響されている.訳の自然さに関しては,日本語の構造の影響を受けている(\ref{sj_1})が(\ref{se_1})に比べて非常に良い.この例から,より自然な文へ翻訳するために構文構造の大きな変更が必要な場合,そのような変更が行われず,原言語に大きく影響された翻訳が数多く存在していると予想する.原言語の違いが翻訳に差をもたらす事実は,認識されてはいても,これまで詳細に検討されたことはなかった.本研究では,両コーパスの分析を通して翻訳における原言語の影響を計量的に示し,このような異質なコーパスを機械翻訳および他の自然言語処理の分野にどのように応用できるかについて考察する.
\section{原言語が異なるコーパスの比較}
\label{sec:compare}本論文では,ATR旅行会話基本表現集(BTEC)を用いる.BTECは旅行会話に必要とされる話題(たとえば,買物,ホテル・レストラン予約など)をはじめ,旅行に関する様々な話題を網羅している\cite{Takezawa:Shirai:Ooyama:2001}.BTECは当初,日本語と英語の対訳コーパスの収集から開始されたが,日本語または英語を原言語として他言語へ翻訳し,拡充してきた.本論文では,日本語から韓国語へ翻訳されたコーパスを$K_J$,英語から韓国語へ翻訳されたコーパスを$K_E$と表記する.また,BTECは文単位の対応がとれた多言語コーパスである.使用するBTECの構成を表\ref{tab:btec}に示す.また,使用するBTECの一部の例文を付録\ref{ApendixBTEC}に示す.\begin{table}[htb]\begin{center}\caption{BTECの構成}\label{tab:btec}\begin{tabular}{l|r|r|r|r|r}\hline\hline&日本語&中国語&英語&$K_J$&$K_E$\\\hlineのべ&162,320&162,320&162,320&162,320&162,308\\異なり&102,247&96,309&97,326&103,051&92,816\\重複割合&37.0\%&40.7\%&40.0\%&36.5\%&42.8\%\\\hline\hline\end{tabular}\end{center}\end{table}本論文では,$K_J$と$K_E$の2つのコーパスを比較し,それぞれの性質を詳しく調べる.まずは,2つのコーパスの間の類似度の分析から始め,次の節ではいくつかの言語現象についてより詳しく分析する.\subsection{類似度を用いたコーパス比較}\label{sec:sim}まず,2つのコーパスが表層的にどの程度類似しているのかを編集距離に基づく類似度によって求めた.類似度を求めるプログラムはPerl言語と{\ttString::Similarity}モジュール\cite{Lehmann:2000}を用いて作成した.このモジュールは,Myersによる方法\cite{Myers:1986}によって,編集距離を求め,その値に基づき類似度を与える.具体的には2つの文字列$S_1,S_2$の類似度$sim$は次の式によって与えられる.\begin{equation}sim(S_1,S_2)=1-\frac{Ins+Del}{|S_1|+|S_2|}\end{equation}ここで,$|S|$は文字列$S$の長さに対応し,$Ins$と$Del$は2つの文字列を同一にするために必要な最小の編集操作(挿入と削除)のそれぞれの回数を示している.たとえば,文字列$S_1=$``foo'',$S_2=$``fou''の場合,$S_1$を$S_2$と同一とするための最小の編集操作は$S_1$の最後の``o''を削除し,``u''を挿入することである.したがって,$Del=1$,$Ins=1$となり,この場合は,\[sim(S_1,S_2)=1-\frac{1+1}{3+3}=0.6667\]となる.一方,$S_1=$``foo'',$S_2=$``bar''と2つの文字列が全く異なる場合,$S_1$を$S_2$と同一にするためには$S_1$の全ての文字列を削除し,$S_2$と同一の文字列を挿入することになるので,$Del=3$,$Ins=3$となり,この場合は,\[sim(S_1,S_2)=1-\frac{3+3}{3+3}=0\]となる.したがって,$sim$は全く異なる文字列に対しては0を,同一の文字列には類似度1を与える.具体例を以下に示す\footnote{韓国語では,文節ごとにスペースを置くが,スペースも編集距離の計算対象となる.}.\begin{exe}\ex\glll{100}\hg{darre}\hg{'ieigymhago}~\hg{sipqyndei'io.}($K_E$)\\\hg{baig}\hg{darre}\hg{'ieigymhago}\hg{sipqyndei'io.}($K_J$)(類似度:0.8750=$1-\frac{1+3}{17+15}$)\\100(百)~ドル~貯金し~たいです。\\\end{exe}まず,$K_J$と$K_E$すべての翻訳対毎に類似度$sim$を求めた.そして,類似度0から1までを0.1刻みで10のクラスに分類し,それぞれを類似度クラス0から9まで(たとえば,類似度クラス1は類似度0.1以上0.2未満を示す)とした.この類似度を用いた集計結果を表\ref{tab:sim}に示す.\begin{table}[htb]\caption{類似度によるコーパスの比較結果}\label{tab:sim}\begin{center}\begin{tabular}{c|rrrrrr}\hline\hline類似度&0-0.1&0.1-0.2&0.2-0.3&0.3-0.4&0.4-0.5&0.5-0.6\\\hline類似度クラス&0&1&2&3&4&5\\\hlineのべ&100&1,910&11,006&23,126&33,755&34,888\\\hline異なり&58&1,243&7,876&19,351&29,053&30,149\\\hline\end{tabular}\vspace*{1mm}\begin{tabular}{l|rrrrr}\hline類似度&0.6-0.7&0.7-0.8&0.8-0.9&0.9-1.0&Total\\\hline類似度クラス&6&7&8&9\\\hlineのべ&28,083&17,400&7,693&4,347&162,308\\\hline異なり&24,382&14,946&6,434&3,037&136,529\\\hline\hline\end{tabular}\end{center}\end{table}表\ref{tab:sim}から分かることは,全ての異なり対のうち,全く異なる表現と判断された文が0.1\%($58/136,529$)以下で,ほぼ同一である文が3\%以下($3037/136,529$)である.使用したコーパスにおいて正書法が一貫してないところがあり,同一と判断されない文が多数存在する.この点を考慮すると,同一とみなせる文は約8.3\%となる.文献\cite{Culy:Riehemann:2003}では,BLEU\cite{Papineni2001}に代表される統計的な翻訳評価指標に関する実験を通して,一つのテキストに対して実に様々な訳が可能であることを議論している.この議論から,$K_J$と$K_E$が,原言語が異なるとはいえ同一の文が約8\%程度であるということは,それほど不自然ではない.しかし,彼らが用いたテキストは,聖書と文学作品である.また,すでに翻訳が存在する場合に,翻訳者がその翻訳と差をつけようとする可能性があることや,原言語の影響に関してそこでは直接議論されていない.
\section{諸言語現象における原言語の影響}
\label{sec:ling}原言語が翻訳に与える影響を調べるために,いくつかの言語現象に着目して,それぞれのコーパスを調査した.分析した言語現象は原言語の差が明確に現れる敬語表現,語彙選択(漢語,外来語),統語的差異(ゼロ代名詞,助数詞),文レベルの同義表現(意訳),表記のゆれ(正書法)である.これらの言語現象のコーパス中の出現頻度を調査した.実際の調査は,表\ref{tab:sim}に示した類似度分布のうち,類似度クラス1から9までの範囲からそれぞれ1\%にあたる文(ペア)を無作為抽出し,それぞれの文がどのような現象を含んでいるかを調査した.類似度クラス0についてはすべての文を調べた.まず,抽出された文のうち,$K_J$と$K_E$それぞれの文に敬語,ゼロ代名詞,漢語,外来語がどの程度含まれているかを調べた.集計結果を表\ref{tab:diff}に示す.各項目は,無作為抽出した文のうち,それぞれの現象が含まれていた文数を示している.\begin{table*}[tb]\caption{$K_J$と$K_E$における言語現象とその頻度}\label{tab:diff}\begin{center}\begin{tabular}{l|rrrrrrrrrr}\hline\hline類似度クラス&0&1&2&3&4&5&6&7&8&9\\\hline無作為抽出数&58&12&78&193&290&301&243&149&64&30\\\hline敬語($K_J$)&4&1&10&16&82&101&76&32&11&2\\敬語($K_E$)&2&0&8&15&20&32&31&9&2&0\\\hlineゼロ代名詞($K_J$)&0&0&3&8&23&28&22&13&4&1\\ゼロ代名詞($K_E$)&0&0&2&5&7&15&8&9&1&1\\\hline漢語($K_J$)&0&0&7&23&39&54&22&19&4&0\\漢語($K_E$)&0&0&2&10&25&35&19&12&0&0\\\hline外来語($K_J$)&0&0&5&16&14&15&7&6&0&0\\外来語($K_E$)&0&0&0&7&11&9&11&3&0&0\\\hline\hline\end{tabular}\end{center}\end{table*}次に対象とした対それぞれについて,文全体の対応,訳語選択における違い,統語的な違い,正書法の違いがそれぞれどの程度含まれているかを調査した.調査結果を表\ref{tab:para}に示す.抽出数などは表\ref{tab:diff}と同一である.それぞれの項目は,各現象が含まれていた文数を示している.\begin{table*}[tb]\caption{同義表現の種別とその頻度}\label{tab:para}\begin{center}\begin{tabular}{ll|rrrrrrrrrr}\hline\hline&&\multicolumn{9}{c}{類似度クラス}\\\hline類型&現象&0&1&2&3&4&5&6&7&8&9\\\hline文全体&同一&0&0&0&0&0&0&0&3&0&18\\&意訳&41&6&26&36&13&8&4&4&0&0\\&誤訳&12&3&8&6&7&1&2&2&6&0\\\hline訳語選択&名詞&0&0&30&98&110&98&70&23&15&1\\&動詞&0&0&32&112&193&186&88&37&11&2\\&疑問詞&0&0&2&11&9&10&2&4&1&0\\&その他&7&1&17&68&115&89&40&16&1&1\\\hline統語&助数詞&0&0&2&5&11&6&2&0&0&0\\&その他&0&1&20&71&109&156&96&34&15&5\\\hline正書法&表記のゆれ&0&1&0&1&7&7&0&0&0&0\\&数字&5&0&6&14&18&20&25&10&0&0\\\hline\multicolumn{2}{c|}{無作為抽出数}&58&12&78&193&290&301&243&149&64&30\\\hline\hline\end{tabular}\end{center}\end{table*}\subsection{敬語表現}\label{sec:honorific}話し手の発話の中で聞き手または話題にあがった第三者に対して,敬意を払っていることを示す表現が東洋の言語には多く見られる.韓国語ならびに日本語にもそのような敬語法が存在する.韓国語には,多段階の敬語レベルがあり,話者,聴者,第三者との間に社会的地位,年齢,グループ,親族関係,新密度などを考慮し使い分ける\cite{Sohn:1999}.以下,韓国語の敬語体系を簡単に紹介する(日本語訳を``~''で示す).\begin{description}\item[話し手と聞き手との関係]\hg{gim}\hg{giosu}(普通)vs\hg{gim}\hg{giosunim}(敬語)``キム教授''\item[名詞]\hg{bab}(普通)vs\hg{jinji}(敬語)``ご飯/食事''\item[代名詞]\hg{na}(普通)vs\hg{je}(謙譲)``私''\item[助詞]\hg{ga},\hg{'i},\hg{nyn}(普通)vs\hg{Geise},\hg{Geisenyn}(敬語)``が,は''\item[動詞]\hg{jada}(普通)vs\hg{jumusida}(敬語)``寝る/眠るvsおやすみになる''\item[動詞接辞]$\phi$(普通)vs-\hg{si}(主格敬語)(日本語には存在しない)\\$\phi$(普通)vs-\hg{b},-\hg{syb}(相手敬語\footnote{話しかける相手に対して用いる敬語.})``-られる''\item[文末表現]-\hg{(sy)bnida}(尊敬),-\hg{'eqio}/-\hg{'aqio}(丁寧),-\hg{so},\hg{'o}(対等\footnote{相手にふさわしい尊敬を表し,相手と自分の間に心理的距離を維持したい時に用いられる.}),-\hg{nei}(親密\footnote{対等,目下の者に対して使用する.}),-\hg{'e}/-\hg{'a}(懇意\footnote{対等な間柄や目下の者に対して使われるが,-\hg{so},\hg{'o}や-\hg{nei}に比べ柔らかな印象を与え,親近感を伝える場合に使われる.}),-\hg{da}(疎遠\footnote{この文末表現は前2つの``-\hg{nei},-\hg{'e}/-\hg{'a}''と同程度に丁寧だが,親密さを欠いた表現となる.})``だ,です''\end{description}日本語の敬語形式は尊敬の度合い,話者,状況によって異なる.韓国語と同じように,接辞を付加する,異なる語彙を用いるなどによって敬語形式を構成する.以下,上記の韓国語の敬語法の例に対する日本語の敬語の種類を簡単に紹介する\cite{Kaiser:2001}.\begin{description}\item[名詞]:人vs方\item[名詞接頭辞]$\phi$vs御(お,ご,み)(例:お財布,お塩,ご都合,み心)\item[代名詞]私(普通)vs私(わたくし)(謙譲)\item[形容詞]:いい/良いvs宜しい,暑いvsお暑い\item[動詞]食べるvs召しあがる\item[動詞句]:主語:尊敬:(お/ご)+動詞の連用形+になる\\話し手:謙譲:(お/ご)+動詞の連用形+する\item[文末表現]:た(普通),です,ます(丁寧)\end{description}上記のように韓国語と日本語は複雑な敬語体系を持っている.その反面,英語やその他のインド・ヨーロッパ諸語では代名詞形や敬称(たとえば,ドイツ語2人称duに対して敬称であるSieなど)に僅かに敬語の体系が残っているにすぎない.したがって,表現を体系的に変化させて尊敬を表すことができず,ほとんどの場合,全く異なる表現を用いることになる.表\ref{tab:three}に韓国語,日本語,英語の差を示す.\begin{table}[htbp]\begin{center}\caption{韓国語,日本語,英語における敬語の差}\label{tab:three}\footnotesize\begin{tabular}{l|l|l|l}\hline\hline&韓国語&日本語&英語\\\hline普通&\hg{jogym}\hg{gidarinda.}&ちょっと待つ.&``$\phi$waitamoment.”\\尊敬語&\hg{jogym}\hg{gidari{\bfsi}geiSsybniGa?}&少し{\bfお}待ち{\bfになります}か.&``Wouldyou{\bfmind}wait{\bfing}foramoment?''\\謙譲語&\hg{jogym}\hg{gidarigeiSsybnida.}&少し{\bfお}待ち{\bfします}.&``{\bfIfitisokay,}\\&&&I'd{\bfliketo}waitforamoment.''\\丁寧語&\hg{dysida,jabsusida}&召しあがる&dine(vs.eat)\\\hline\hline\end{tabular}\end{center}\end{table}表\ref{tab:three}から三つの言語がそれぞれ独特な敬語法を用いていることが分かる.韓国語の謙譲語は日本語のような文法範疇を持たないことと,談話レベルにおいて文末の語尾が非常に多様であるという点が異なる.しかし,一方で,韓国語,日本語それぞれにおいて敬語の用法に規則性があることも示されている.英語の場合は,状況に応じて語句を挿入するなどして文を換え,敬意を表したり,自分をへりくだって表現する.表\ref{tab:three}では,英語において太字で示された表現に直接的に対応する表現は韓国語と日本語には存在しない.以下,$K_E$と$K_J$における敬語表現の代表的な例を示す.\begin{exe}\ex\begin{xlist}\ex\label{hon:eng}\gll\hg{hoteir}\hg{nai'ei}\hg{'iaggug'i}\hg{\bf'iSna'io}?:$K_E$\\ホテル~内に~薬局が~ありますか。\\\trans``Doyouhaveadrugstoreinthishotel?''(原文)\ex\label{hon:ja}\gll\hg{'i}\hg{hoteir'ei}\hg{'iaggug'yn}\hg{\bf'iSsybniGa}?:$K_J$\\この~ホテルに~薬局は~ありますか。\\\trans``このホテルにドラックストアはありますか。''(原文)\hfill(類似度:0.6207)\end{xlist}\end{exe}この例では,$K_J$の文がより丁寧に翻訳されている.一方,$K_E$の原文``Doyouhaveadrugstoreinthishotel?''は丁寧さが明らかではなく,どちらにも訳せる.もし,例(\ref{hon:eng})の原文が``Excuseme,wouldyoupleasetellmeifthereisadrugstoreinthishotel?''であれば,より丁寧な表現に訳されたかも知れない.韓国語における語尾の「-\hg{'io}」は「-\hg{bniGa},-\hg{sybniGa}」に比べると丁寧ではない.これに直接対応する表現は日本語には存在しない.実際の会話においては(\ref{hon:eng})は(\ref{hon:ja})に比べ丁寧ではないが,日常会話ではよく使われる表現である.例文(\ref{hon:ja})は丁寧であるが,かしこまった場面により相応しいと言える.表\ref{tab:diff}から,$K_J$では,類似度に関係なく敬語表現を多用していることがわかり,原言語の違いが敬語表現の差異を形成している.表\ref{tab:diff-hon}は,敬語(丁寧さ)に関係する文末表現が,$K_J$と$K_E$でどの程度使用されているかを示したものである.敬語に関連する文末表現は表\ref{tab:diff-hon}に示した以外にもある(たとえば,-\hg{so},-\hg{'o},-\hg{nei},-\hg{'e}/-\hg{'a}(親密な関係を表すもの)と-\hg{da}(普通))が,本研究で用いたコーパスにはほとんど出現しない.本研究で用いたコーパスは旅行会話に関するものであり,そのほとんどがサービスを提供する側とされる側でのかしこまった会話で占められる.したがって,本研究で用いたコーパスには,親密な関係を示すようなくだけた表現はほとんど含まれない.表\ref{tab:diff-hon}の結果は,敬語に関する文末表現における原言語の差異を顕著に表している.また,参考までに,韓国語の文末表現と直接的に対応するわけではないが,日本語コーパスにおける文末表現を集計し,同じく表\ref{tab:diff-hon}にまとめた.韓国語の文末表現が日本語のそれと直接的に対応しないというのは,日本語の``です/ます''は韓国語における``-\hg{bnida},-\hg{sybnida}''と``\hg{'io}''の両方に対応する可能性があるからである.つまり,韓国語の方が敬語のレベルがより細かいため,日本語の形式と直接的に対応しない.また,韓国語の``-\hg{bnida},-\hg{sybnida}''は敬語のレベルが最高丁寧と説明されるが,日本語にはこれらの語に対応する敬語形式は存在せず,``でしょうか''や``ましょうか''といった形式でより丁寧な表現にする.このような場合はほとんど「-\hg{bniGa},-\hg{sybniGa}」で翻訳されている.\begin{table*}[htbp]\caption{韓国語と日本語コーパスにおける敬語文末表現}\label{tab:diff-hon}\begin{center}\begin{tabular}{l|rr|rr}\hline\hline&\multicolumn{4}{c}{コーパス}\\\cline{2-5}文末表現&K$_J$&K$_E$&\multicolumn{2}{c}{日本語}\\\hline\hg{nida.}(最高丁寧)&{\bf33,351}&23,316&です./ます.&18773/20373\\\hg{niGa?}(最高丁寧)&{\bf34,872}&9,970&ですか./ますか.&25759/27788\\\hline\hg{'io.}(普通丁寧)&21,922&{\bf33,617}&だ.&806\\\hg{'io?}(普通丁寧)&3,082&{\bf25,481}&か.&225\\\hline\hline\end{tabular}\end{center}\end{table*}\subsection{語彙選択}\label{sec:choice}韓国語と日本語は文法の面でも類似しているが,語彙的な面においても非常に近いと言える.ここでは,漢語と外来語に関して分析する.\subsubsection{漢語}\label{sec:lexcial}漢字は中国をはじめ,日本,韓国等で使われている.日本語と韓国語における漢語は,共通のものが多く,韓国語における漢語の約七割が日本語にも存在すると言われている\cite{Watanabe:1981}.Sohnによると,現代の韓国語の語彙は,純粋な韓国語(35\%),中国語起源の韓国語(60\%),そして外来語(5\%)で構成されている\cite{Sohn:1999}.中国語起源の語彙はさらに,3通りに分けられる.以下は文献\cite{Chang:2000}を参考にした.\begin{description}\item[中国語から輸入したもの]自然,天地,愛国,学院,英文,議事堂など\item[韓国語で作られたもの]便紙(``手紙''),福徳房(``不動産屋'')など\item[日本語から輸入したもの]飛行機,旅行,英語,開戦,改良,会員など\end{description}さらに複雑になると,日本で作られた漢語が中国に逆輸入され(例,消防車,消化器,飛行機,旅行など),その漢語が韓国に輸入されたものもある.流入の経路が複雑で起源がはっきりしないものもあるが,日本語と韓国語は漢語の7割りが共通であることは非常に興味深い現象である.実際に,表\ref{tab:diff}でも,$K_J$のほうで漢語がよく使われている.以下に例をあげる.\begin{exe}\ex\begin{xlist}\ex\label{kango:eng}\gll\hg{\bfrinein}\hg{\bfjeipum}\hg{{\bfkone}nyn}\hg{'edi'iei'io?}:$K_E$\\リネン~製品~コーナーは~どこですか。\\\trans``Whereisthe{\bflinenssection}?''(原文)\ex\label{kango:ja}\gll\hg{\bfcimgu}\hg{{\bfmaijaq}'yn}\hg{'edi'ibniGa?}:$K_J$\\寝具~売り場は~どこですか。\\\trans``{\bf寝具売り場}はどこですか。''(原文)\hfill(類似度:0.3571)\end{xlist}\ex\begin{xlist}\ex\label{bound:eng}\gll\hg{bosyten}\hg{{\bfganyn}}\hg{besynyn}\hg{'edi'eise}\hg{tabniGa?}:$K_E$\\ボストン~行きの~バスは~どこで~乗りますか。\\\trans``WherecanIcatchabus{\bftogo}toBoston?''(原文)\ex\label{yuki:ja}\gll\hg{bosyton}\hg{\bfhaiq}\hg{besynyn}\hg{'edi'eise}\hg{tar}\hg{su}\hg{'iSsybniGa?}:$K_J$\\ボストン~行き~バスは~どこで~乗る~ことが~できますか。\\\trans``ボストン{\bf行き}のバスにはどこで乗れますか。''(原文)\hfill(類似度:0.7272)\end{xlist}\end{exe}表\ref{tab:diff}で示したように漢語は$K_J$でより頻繁に使用されている.さらに,表\ref{tab:para}に示した訳語選択の項目において類似度クラス3から7まで名詞の訳語選択に違いが多く存在していることから,名詞訳語選択の違いの多くは漢語の使用にあることが推察できる.\subsubsection{外来語}\label{sec:loan_word}外来語は外国から来た語(ただし,漢語を除く)であるが,その原言語は英語だけではない.韓国語と日本語には,英語,ポルトガル語,フランス語,ドイツ語など様々な国からの外来語が多く存在する.その割合を示した研究がある.日本語で書かれた90種類の雑誌から外来語を調査した結果,合計2,964個の外来語が収集された.その中で英語からの外来語は2,395語(約80\%)という圧倒的な数を示す\cite{Shibatani:1990}.本研究の調査でも,ほとんどが英語からの外来語である.表\ref{tab:diff}に示した結果から,外来語の量に関しては,$K_J$,$K_E$両コーパスにおいて大きな差はなかった($K_J$:4.6\%(63/1358),$K_E$:3.0\%(41/1358))が,その性質は少し異なる.$K_E$で使われる外来語の中では``track,maindiningroom,avenue,check,coupon,darkbrown,rent,seat,golfround''といった韓国語の外来語としてはなじみが薄い語も含まれている.反面,$K_J$で使われる外来語は``size,center,tour,ticket,economycar,roomservice,beercan,cream,family,restaurant,platform,curl,course,music,service,counter,play''のように和製英語および韓国語における外来語としてよく用いられる語が頻繁に表れる.韓国語の外来語には漢語と同様に日本から輸入されたものが数多くある.それゆえ,$K_J$で使われた外来語がそのまま異和感なく用いられている.このような事情もあって,日本語から韓国語に翻訳された場合,韓国語を母語とする者にとって親しみのある外来語が用いられる.しかし,英語からの翻訳においては,英語の単語をそのまま翻字した(\ref{kango:eng})の``\hg{rinein}(リネン)''のような外来語が含まれる.この現象は,原言語が訳語選択に大きく影響していることを示している.また,(\ref{kango:eng}),(\ref{kango:ja})の例に示した場合のように``リネン製品''と``寝具''のような訳は広い意味では類似カテゴリーとして考えられるが,それらが与える意味は若干異なる.ひとつの原言語からの翻訳のみでは,このような2つの単語の類似関係はなかなか得られない.異なる原言語からの翻訳において,このような意味のずれが派生してくることは注目すべき点である.日本語と英語を原言語とする韓国語の翻訳においては,漢語と外来語の用いられ方に原言語の影響が明確に表れる.\subsection{統語的差異}\label{sec:syntax}言語類型論的な観点からみると,韓国語は日本語に非常に近いが英語とはかなりへだたりがある.表\ref{tab:para}の統語の「その他」には格助詞の有無,文体の変化(能動対受動),構文の違いなどがある場合を計数した.表\ref{tab:para}から全ての類似度クラスにおいて統語的な違いがあることがよく分かる.本節では,特にゼロ代名詞と助数詞の2つの統語的な差異に焦点を当てる.\subsubsection{ゼロ代名詞}\label{sec:zero}表\ref{tab:diff}から$K_J$でゼロ代名詞が頻繁に用いられていることが分かる.これは,\ref{sec:background}節で述べたように日本語では,文脈上明白な成分は明示されない事実を反映した結果である.以下に,文脈上明白な成分が明示されない場合の例を示す.\begin{exe}\ex\begin{xlist}\ex\label{e:a}\gll\hg{jei}\hg{cingu}\hg{jib'ei}\hg{memur}\hg{'ieijeq'ibnida.}:$K_E$\\私の~友達~家に~泊る~予定です.\\\trans``Iamplanningtostayatmyfriend'shouse.''(原文)\ex\label{e:b}\gll$\phi_{adn}$\hg{cingu}\hg{jib'ei}\hg{mugsybnida.}:$K_J$\\友達~家に~泊ります.\\\trans``$\phi$友達の家に滞在予定です.''(原文)\hfill(類似度:0.6429)\end{xlist}\end{exe}\begin{exe}\ex\begin{xlist}\ex\label{togo:eng}\gll$\phi_{subj}$\hg{bunmieqhi}\hg{'i}\hg{bihaiqgiryr}\hg{rikenpemhaiSnyndei'io.}:$K_E$\\確かに~この~飛行機を~リコンファームしました.\\\trans``I'msureIreconfirmedthisflight.''(原文)\ex\label{togo:ja}\gll$\phi_{subj}$\hg{hoagsirhi}$\phi_{obj}$\hg{jaihoag'in}\hg{haiSsybnida.}:$K_J$\\きちんと~再確認~しました.\\\trans``きちんと$\phi_{subj}$$\phi_{obj}$リコンファームをしました.''(原文)\hfill(類似度:0.3125)\end{xlist}\end{exe}韓国語でも日本語と同様に文脈上明らかな成分は明示されない.上記の例は,原言語が英語の場合は,文脈上明らかな成分も明示される傾向があることを示している.このことは表\ref{tab:diff}で示したゼロ代名詞の項目からも確認できる.\subsubsection{助数詞}\label{num-cl}助数詞は東アジアの言語で多く使われる.韓国語と日本語は英語のように直接物を数えることはできず,助数詞を数と共に用いる.英語の非加算名詞の数量表現に助数詞が使われるが(たとえば,twopiecesofinformation),加算名詞の場合は助数詞を用いない(たとえば,oneapple,twodogs).両言語とも約300個の助数詞を持っているといわれるが,実際に日常生活で使われている典型的な助数詞の数は韓国語の場合,50個であり\cite{Unterbeck:1994},日本語の場合,おおよそ30個から80個である\cite{Downing:1996}といわれる.以下,日本語,韓国語,英語における一例を示す.\begin{exe}\ex\begin{xlist}\ex日本語:2{\bf匹}の犬,何{\bf頭}の牛\footnote{日本語では対象とする動物により異なる助数詞が使われるが,韓国語ではほとんど「\hg{mari}」を用いる.}\ex韓国語:2\hg{{\bfmari}'yi}\hg{gai,}\hg{miec}\hg{{\bfmari}'yi}\hg{so}\ex英語:``twodogs'',``howmanycows''\end{xlist}\end{exe}2つのコーパスにおいて用いられる助数詞の種類ならびにその頻度を計数した結果を表\ref{tab:classifier}に示す.コーパス上,助数詞の面でも韓国語と日本語は類似している.表\ref{tab:classifier}から,$K_J$の方が助数詞を多く使用していることがわかる一方,その種類においては逆転しているという興味深い現象がおきている.つまり,用いられる助数詞の種類は$K_E$の方が12個も多い.この理由は,原言語において助数詞を明示するか否かによるところが大きいと考える.\begin{table}[htb]\begin{center}\caption{K$_J$とK$_E$における助数詞の使用頻度}\label{tab:classifier}\begin{tabular}{l|r|r}\hline\hline助数詞&$K_E$&$K_J$\\\hline種類&310&298\\頻度&7,076&8,307\\\hline\hline\end{tabular}\end{center}\end{table}$K_E$の原言語コーパス(英語)においては,助数詞はまれにしか使われておらず,その多くは非加算名詞を数える時に限られている.したがって助数詞が明示されていない原言語文(英文)から,助数詞を用いる言語の文(韓国語文)に翻訳する時(たとえば,例文(\ref{glass:eng})を参照),どのような助数詞を用いるかは,翻訳者に一任される.逆に助数詞が明示された原言語文(日本語文)から同じく助数詞を明示する目的言語文(韓国語文)へ翻訳する場合は,明示された助数詞の影響を受け,限定される.たとえば,英語から韓国語への翻訳では,例文(\ref{glass:eng})のように,英語の``somewater''を韓国語に訳す時``\hg{jan}(杯)''または``\hg{keb}(コップ)''どちらを用いても訳せる.一方,日本語から韓国語への翻訳は``杯''は``\hg{jan}'',``コップ''は``\hg{keb}''のように訳が限定される傾向がある.例文(\ref{beon:ja})は日本語から韓国語への翻訳の例であり,原言語の助数詞を忠実に訳した場合を示している.\begin{exe}\ex\label{glass:eng}\gll\hg{mur}\hg{han}\hg{\bfjan}/\hg{\bfkeb}\hg{jusei'io}.:$K_E$\\お水~一~杯/コップ~ください.\\\trans``Pleasegivemesomewater.''(原文)\ex\label{beon:ja}\gll\hg{miec}\hg{{\bfben}Jai}\hg{'ieg'eise}\hg{gar'atabniGa?}:$K_J$\\何~番目~駅で~乗り換えますか.\\\trans``何{\bf番}目の駅で乗り換えますか.''(原文)\end{exe}\subsection{同義表現の分類}\label{sec:sem-para}本研究では,原言語が異なる2つの韓国語コーパスを比較し,様々な面について分析した.分析対象のうち約92\%の文に不一致表現が含まれる.しかも,それらの文は同義表現であることから,そこにどのような差異が存在するかを調べることによって異表記同義表現を抽出できる.表\ref{tab:para}に示した結果から,全体的に,名詞または動詞の訳語の違いが非常に多いことがわかる.一方で,誤訳の多さも目立つ.これは,BTECの翻訳が,文脈をほとんど与えられず,一文単位で翻訳されていることに一因がある.類似度がかなり低い(類似度クラス0から2)文を分析すると,文単位の異表記同義表現が数多く得られると予想する.ただし,類似度の性質から,文が短い場合は,文単位の異表記同義表現であっても類似度が大きくなる傾向がある(例\ref{bab:eng}を参照).以下に例をあげる.\begin{exe}\ex\begin{xlist}\ex\label{yoksil:eng}\gll\hg{'iogsir}\hg{Darrin}\hg{siqgyrrum'yr}\hg{'iei'iaghago}\hg{sipsybnida.}:$K_E$\\バス~付きの~シングルルームを~予約し~たいです\\\trans``Asinglewithbath,please.''(原文)\ex\label{yoco:ja}\gll\hg{'iogjo}\hg{Darrin}\hg{siqgyr}\hg{rum'yr}\hg{butaghabnida.}:$K_J$\\バス~付き~シングル~ルームを~付託する(お願いします).\\\trans``バス付きのシングル部屋を願います.''(原文)\hfill(類似度:0.6315)\end{xlist}\ex\begin{xlist}\ex\label{paraphrase:eng}\gll\hg{jenyn}\hg{'iahaiqseq'i'ei'io.}:$K_E$\\私は~夜行性です.\\\trans``I'manightowl.''(原文)\ex\label{paraphrase:ja}\gll\hg{nanyn}\hg{bam}\hg{nyjgeiGaji}\hg{jam'yr}\hg{'an}\hg{jabnida.}:$K_J$\\私は~夜~遅くまで~眠りを~ない~眠ります.\\\trans``私は夜ふかしです.''(原文)\hfill(類似度:0.2069)\end{xlist}\ex\begin{xlist}\ex\label{bab:eng}\gll\hg{bab}\hg{saiqgag'i}\hg{'ebs'e'io}:$K_E$\\ご飯~思いが~ないです.\\\trans``Idonothaveanyappetite.''(原文)\ex\label{sikyok:ja}\gll\hg{sig'iog'i}\hg{'ebssybnida.}:$K_J$\\食欲が~ありません.\\\trans``食欲がありません.''(原文)\hfill(類似度:0.4210)\end{xlist}\end{exe}例文(\ref{yoksil:eng})と(\ref{yoco:ja})は類似度が高く,その差異を規則的に表現することが可能である.一方,例文(\ref{paraphrase:eng}),(\ref{paraphrase:ja})と(\ref{bab:eng}),(\ref{sikyok:ja})の間の差異は規則的なものではなく,熟語・慣用表現に属するものであり,規則的に変換することは非現実的である.これらは原言語である英語からの直訳ができず,熟語的,慣用的な表現を用いて翻訳されているからである.比較的単純な換言規則を用意し,それらを適用するだけでは,このような同義表現へ相互に換言することは困難である\cite{Ohtake:Yamamoto:2001}.一方で,このような同義表現は類似度が低くなるにつれて増える傾向にあり,類似度を適切に用いることによって,比較的容易にこれらの同義表現を収集することができる.\subsection{正書法}\label{sec:orthography}$K_J$と$K_E$は別々に翻訳されたものであり,外来語や固有名詞の書き方と数字の書き方等に一貫性がない.たとえば,英語の``hostess''を含む文の翻訳をみると,$K_J$では``\hg{hosyteisy}(ホステス)'',$K_E$では``\hg{hosytisy}(ホスティス)''のように表記されている.地名も同様である(たとえば,\hg{pikadirri}(pikadilli)と\hg{pikadiri}(pikadili),\hg{'aineha'im}(aeneohaim)と\hg{'eineha'im}(eneohaim)など).これらは,日本語における片仮名表記のゆれに該当する.また,数字表現では,``6\hg{si}(時)40\hg{bun}(分)''と``\hg{'iesessi}\hg{sasibbun}''のように異なる表記が用いられる場合がある.つまり,アラビア数字(1,2,3,\ldots)で記述するか韓国語(\hg{'ir,'i,sam,...})で記述するかの違いである.原理的には,数字を漢字で記述することもできるが,この現象は,本研究で用いた2つのコーパスには存在しなかった.したがって,このコーパスを用いて,同義表現獲得,あるいは換言規則の抽出などを行う際には,表記の統一を考慮する必要がある.なお,このような異表記はコーパス全体の7\%の文に存在する.また,分かち書きの問題もある.日本語は分かち書きをしないので,この問題は存在しない.しかし,韓国語では「\hg{siqgyrrum}」(シングルルーム)と「\hg{siqgyr}$_\sqcup$\hg{rum}」(シングル$_\sqcup$ルーム,例\ref{yoksil:eng}と\ref{yoco:ja}を参照)のように分かち書きがゆれる場合がある.また,我々が評価した文には含まれていなかったが,コーパス全般において句読点の使用方法,特にクエスチョンマークの使用方法に関しても若干のゆれがある.これらの正書法に関する違いを統一すると,同一と見なされる文は倍以上に増え,コーパス全体の8.3\%になる.正書法に関する違いは,重要ではないもののコーパス中のいたるところに存在する.したがって,コーパスを計算機で処理する際に,正書法に関する違いをどのように扱うかは,非常に重要である.
\section{2つのコーパスと自然言語処理}
\label{sec:nlp}これまで見てきたように同一言語の2つのパラレルコーパス,$K_J$と$K_E$は同一内容を示しているにもかかわらず,用いられている表現形式はかなり異なる.両コーパスともプロの翻訳家によって作成されたコーパスであるため,極端に不自然な文は存在しないといえる.そのため,この2つのパラレルコーパスは,同義表現を得るための言語資源として非常に適しているといえる.翻訳を介しての同義表現の獲得に関しては,これまで検討されており(たとえば,\cite{Barzilay2001}など),その可能性が示されている.この場合の,言語資源としては,ある言語$A$における文書$X$とそれの言語Bへの翻訳文書$Y$だけでは不十分である.この場合は,$Y$を翻訳した人間とは別の者による$X$から言語$B$への翻訳$Z$も存在してはじめて,$Y$と$Z$を比較することにより同義表現の獲得が可能となる.これに対して,本研究では,言語$A$と$B$のパラレルコーパス$C(A)$と$C(B)$をそれぞれ別の言語Kのコーパス$C(K_a)$と$C(K_b)$に翻訳しており,同一言語間の複数の翻訳を用いる状況とは異なる.しかも,翻訳の原言語が,本研究では,英語と日本語であり,その構造は大きく異なる.したがって,本研究で用いたコーパスそのものを同義表現獲得に有効に用いることができる.たとえば,図\ref{fig_para1}に示すように日本語原文に対する韓国語訳は,構文ならびに語彙の面で原文と大きな違いはない.一方,「食欲がない」に対する英訳は``Ihavenoappetite.''であり,それを韓国語に訳すと「\hg{bab}\hg{saiqgag'i}\hg{'ebs'e'io.}(ご飯の思いがない.)」となる.これは韓国語では日常よく使われる表現である.しかし,ここで韓日機械翻訳を考えると,韓国語では自然な表現であっても,その翻訳が``ご飯の思いがない.''となることは好ましくない.これは日韓の翻訳においても同様である.そこで,これらのコーパスを用いてあらかじめ換言知識を抽出しておき,換言器を構成する.この換言器を用いることによって「ご飯の思いがない.」に対応する原文を「食欲がない.」に対応する原文に換言することができる.その結果より自然な訳文を得ることができる.\begin{figure}[htb]\begin{center}\epsfile{file=fig_para1.eps,scale=0.4}\caption{同義表現を用いた換言}\label{fig_para1}\end{center}\end{figure}近年,大量の二言語パラレルコーパスを用いる統計翻訳が注目されている.本研究で用いた日本語コーパス($J$とする)と英語コーパス($E$とする)ならびにそれらの韓国語翻訳である$K_J$と$K_E$を用いると,日-英-韓の間で翻訳機を構成することができる.今,韓国語のコーパスとして$K_J$のみを用いて韓国語を目的言語とする翻訳機を考える.この場合,日-韓の翻訳機では,自然な翻訳を期待できるが,英-韓の翻訳機では,翻訳モデル内の対応付けが,より複雑になることが予想され,翻訳精度が低下する可能性がある.そのため,常に$K_J$を使用することが推奨されるわけではない.むしろ,統計翻訳のようなコーパスに基づいた機械翻訳機の場合,使用するコーパスが直訳調の対応になっている方が,計算機にとっては,対応がとりやすく処理しやすいと言える.したがって,ひとつのモデルとして,翻訳に使用するコーパスは直訳調のものを用いて(たとえば,英-韓の翻訳機の場合,$E$-$K_E$を使用する)翻訳機を構成し,翻訳前/後の文を同義表現知識を用いて換言するものが考えられる.
\section{結論}
\label{sec:conclusion}日英パラレルコーパスの日本語と英語それぞれを原言語として翻訳した2種類の韓国語旅行会話コーパスを用いて,原言語が翻訳に及ぼす影響についていくつかの言語現象を分析した.要約すると,文法および語彙において非常に類似している日本語と,それらが相当異なる英語それぞれからの翻訳では,原言語の違いが翻訳に多大な影響を与えている事実を示すことができた.これは人間の翻訳者においても機械翻訳においても同じことだと考える.今後はこのような言語差を利用した同義表現の抽出について詳しく検討する予定である.\subsection*{謝辞}本研究は総務省の研究委託「携帯電話等を用いた多言語自動翻訳システム」により実施したものである.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{Barzilay2001}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingParaphrasesfromaParallelCorpus\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\50--57.\bibitem[\protect\BCAY{張}{張}{2000}]{Chang:2000}張元哉\BBOP2000\BBCP.\newblock\JBOQ19世紀末の韓国語における日本製漢語--日韓同形漢語の視点から--\JBCQ\\newblock\Jem{日本語科学},{\Bbf8},76--95.\bibitem[\protect\BCAY{Culy\BBA\Riehemann}{Culy\BBA\Riehemann}{2003}]{Culy:Riehemann:2003}Culy,C.\BBACOMMA\\BBA\Riehemann,S.~Z.\BBOP2003\BBCP.\newblock\BBOQThelimitsof{N}-gramtranslationevaluationmetrics\BBCQ\\newblockIn{\BemMTSummitIX}\NewOrleans.\bibitem[\protect\BCAY{Downing}{Downing}{1996}]{Downing:1996}Downing,P.\BBOP1996\BBCP.\newblock{\BemNumeralClassifierSystems,thecaseof{Japanese}}.\newblockJohnBenjamins,Amsterdam.\bibitem[\protect\BCAY{Kaiser,Ichikawa,Kobayashi,\BBA\Yamamoto}{Kaiseret~al.}{2001}]{Kaiser:2001}Kaiser,S.,Ichikawa,Y.,Kobayashi,N.,\BBA\Yamamoto,H.\BBOP2001\BBCP.\newblock{\BemJapanese:AComprehensiveGrammar}.\newblockRoutledge.\bibitem[\protect\BCAY{Lee}{Lee}{1999}]{Lee:1999}Lee,Y.-O.\BBOP1999\BBCP.\newblock\BBOQTheDifferenceinSubjectChoicebetween{Korean}and{English}\BBCQ\\newblockIn{\BemEnglishEducationintheEraofInformation}.\newblockChungnamNationalUniversity,Kwangju,Korea.\bibitem[\protect\BCAY{Lehmann}{Lehmann}{2000}]{Lehmann:2000}Lehmann,M.\BBOP2000\BBCP.\newblock\BBOQ{String::Similarity}\BBCQ\\newblockPerlModule({\tthttp://cpan.org/}).\newblock(v0.02).\bibitem[\protect\BCAY{Myers}{Myers}{1986}]{Myers:1986}Myers,E.\BBOP1986\BBCP.\newblock\BBOQAn{O}({ND})differencealgorithmanditsvariations\BBCQ\\newblock{\BemAlgorithmica},{\Bbf1}(2),251--266.\bibitem[\protect\BCAY{Ohtake\BBA\Yamamoto}{Ohtake\BBA\Yamamoto}{2001}]{Ohtake:Yamamoto:2001}Ohtake,K.\BBACOMMA\\BBA\Yamamoto,K.\BBOP2001\BBCP.\newblock\BBOQParaphrasingHonorifics\BBCQ\\newblockIn{\BemWorkshopProceedingsofAutomaticParaphrasing:TheoriesandApplications({NLPRS}2001Post-ConferenceWorkshop)},\BPGS\13--20\Tokyo.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2001}]{Papineni2001}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2001\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblock\BTR,{IBM}ResearchDivisionTohmasJ.WatasonResearchCenter.\newblock{IBM}ResearchReport{RC22176(W0109-022)}.\bibitem[\protect\BCAY{Shibatani}{Shibatani}{1990}]{Shibatani:1990}Shibatani,M.\BBOP1990\BBCP.\newblock{\BemThelanguagesof{Japan}}.\newblockCambridgeLanguageSurveys.CambridgeUniversityPress.\bibitem[\protect\BCAY{Sohn}{Sohn}{1999}]{Sohn:1999}Sohn,H.\BBOP1999\BBCP.\newblock{\BemTheKoreanLanguage}.\newblockCambridgeLanguageSurveys.CambridgeUniversityPress.\bibitem[\protect\BCAY{Takezawa,Shirai,\BBA\Ooyama}{Takezawaet~al.}{2001}]{Takezawa:Shirai:Ooyama:2001}Takezawa,T.,Shirai,S.,\BBA\Ooyama,Y.\BBOP2001\BBCP.\newblock\BBOQCharacteristicsofColloquialExpressionsinaBilingualTravelConversationCorpus\BBCQ\\newblockIn{\Bem19thInternationalConferenceonComputerProcessingofOrientalLanguages:ICCPOL-2001},\BPGS\384--389\Seoul.\bibitem[\protect\BCAY{Unterbeck}{Unterbeck}{1994}]{Unterbeck:1994}Unterbeck,B.\BBOP1994\BBCP.\newblock\BBOQKoreanClassifiers\BBCQ\\newblockInKim-Renaud,Y.-K.\BED,{\BemTheoreticalIssuesinKoreanLinguistics},\BPGS\367--385.CSLI.\bibitem[\protect\BCAY{渡辺\JBA鈴木}{渡辺\JBA鈴木}{1981}]{Watanabe:1981}渡辺吉鎔,鈴木孝夫\BBOP1981\BBCP.\newblock\Jem{朝鮮語のすすめ}.\newblock講談社.\end{thebibliography}\newpage\appendix
\section{コーパス中の例文}
\label{ApendixBTEC}本研究にて使用したBTECの一部を表\ref{BTEC_example}に示す.\begin{table}[htb]\begin{center}\caption{本研究にて用いたBTECの一部}\label{BTEC_example}\begin{tabular}{lll}\hline\hline韓国語&英語/日本語&類似度\\\hline\hg{nei?}&Yes?&0.1429\\\hg{'ioqgen'yn?}&ご用向きは.&\\\hline\hg{je'eigei}\hg{jirmunhai}\hg{jusei'io.}&Askme.&0.2745\\\hg{nahantei}\hg{mur'e}\hg{boa.}&私に聞いて.&\\\hline\hg{nai}\hg{pioga}\hg{bo'iji}\hg{'anhnyngun'io.}&Ilostmyticket.&0.3438\\\hg{pioryr}\hg{'irh'e}\hg{berieSsybnida.}&切符をなくしてしまいました.&\\\hline\hg{dambai}\hg{jom}\hg{piriego}\hg{hanyndei}\hg{goaincanhgeiS'e'io?}&DoyoumindifIsmoke?&0.4156\\\hg{dambairyr}\hg{pi'uedo}\hg{doibniGa?}&たばこを吸ってもかまいませんか.&\\\hline\hg{gy}\hg{'iejanyn}\hg{'angieq'yr}\hg{Giji}\hg{'anh'aS'e'io.}&Shewasn'twearingglasses.&0.5238\\\hg{'angieq'yr}\hg{Sygo}\hg{'iSji}\hg{'anh'aSsybnida.}&眼鏡をかけていませんでした.&\\\hline\hg{gyga}\hg{meriryr}\hg{dacieS'e'io.}&Hehashurthishead.&0.6984\\\hg{gynyn}\hg{meriryr}\hg{dacieSsybnida.}&彼は頭にケガをしました.&\\\hline\hg{'ijei}\hg{doaiSsybniGa?}&IsthatOkay?&0.7907\\\hg{'iremien}\hg{doaiSsybniGa?}&これでいいですか.&\\\hline\hg{senmur}\hg{gagei}\hg{'uiciga}\hg{'edi'ibniGa?}&Whereisthegiftshop?&0.8056\\\hg{senmurgageinyn}\hg{'edi'ibniGa?}&ギフトショップはどこですか.&\\\hline\hg{byrraig'yro}\hg{jusibsi'o.}&Black,please.&0.9286\\\hg{byrraig'yro}\hg{hai}\hg{jusibsi'o.}&ブラックにしてください.&\\\hline\hline\end{tabular}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{白京姫(ペクキョンヒ)}{1993年慶應義塾大学大学院社会学研究科修士課程教育学専攻修了.1998年同大大学院社会学研究科後期博士課程教育学専攻単位取得退学.1999年CSLI,Stanford大学客員研究員.2000年〜2005年(株)国際電気通信基礎技術研究所(ATR)音声言語コミュニケーション研究所研究員.韓国語の自然言語処理,および助数詞の解析・生成等の研究に従事.2005年より翻訳業.ACL,ALS各会員.{\ttemail:paikbond@gmail.com}}\bioauthor{大竹清敬(おおたけきよのり)}{2001年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).2001年より(株)国際電気通信基礎技術研究所(ATR)音声言語コミュニケーション研究所研究員.言語表現変換技術とその応用(要約,翻訳など),中国語処理,コーパス利用のための技術(表記のゆれ処理など),形態素解析と単語解析のための辞書構築などに興味がある.言語処理学会,人工知能学会,情報処理学会各会員.{\tte-mail:otake@fw.ipsj.or.jp}}\bioauthor{FrancisBond(フランシスボンド)}{1988年B.A.(UniversityofQueensland).1990年B.E.(Hons)(同大学).1991年日本電信電話株式会社入社.以来,計算機言語学,自然言語処理,特に機械翻訳の研究に従事.1999年CSLI,Stanford大学客員研究員.2001年Ph.D.(UniversityofQueensland).2005年3ヶ月間Oslo大学招聘研究員.現在,NTTコミュニケーション科学基礎研究所主任研究員.著書「TranslatingtheUntranslatable」,CSLIPublicationsにて日英機械翻訳における数・冠詞の問題を扱う.ACL,ALS,言語処理学会各会員.{\ttemail:bond@cslab.kecl.ntt.co.jp}}\bioauthor{山本和英(やまもとかずひで)}{1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在助教授.言語表現加工技術(要約,換言,翻訳),アジア言語処理(中国語,韓国語など),言語処理技術を活用したテキストマイニングなどに興味がある.言語処理学会,人工知能学会,情報処理学会,ACL各会員.{\tte-mail:yamamoto@fw.ipsj.or.jp}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-06
|
\section{はじめに}
2011年3月に発生した東日本大震災では,ソーシャルメディアは有益な情報源として大活躍した~\cite{nomura201103}.震災に関する情報源として,ソーシャルメディアを挙げたネットユーザーは18.3\%で,インターネットの新聞社(18.6\%),インターネットの政府・自治体のサイト(23.1\%)と同程度である.ニールセン社の調査~\cite{netrating201103}によると,2011年3月のmixiの利用者は前月比124\%,Twitterは同137\%,Facebook同127\%であり,利用者の大幅な伸びを示した.東日本大震災後のTwitterの利用動向,交換された情報の内容,情報の伝搬・拡散状況などの分析・研究も進められている~\cite{Acar:11,Doan:11,Sakaki:11,Miyabe:11}.Doanら~\cite{Doan:11}は,大震災後のツイートの中で地震,津波,放射能,心配に関するキーワードが多くつぶやかれたと報告している.宮部ら~\cite{Miyabe:11}は,震災発生後のTwitterの地域別の利用動向,情報の伝搬・拡散状況を分析した.Sakakiら~\cite{Sakaki:11}は,地震や計画停電などの緊急事態が発生したときのツイッターの地域別の利用状況を分析・報告している.AcarとMurakiは~\cite{Acar:11},震災後にツイッターで交換された情報の内容を分類(警告,救助要請,状況の報告:自身の安否情報,周りの状況,心配)している.一方で,3月11日の「コスモ石油のコンビナート火災に伴う有害物質の雨」に代表されるように,インターネットやソーシャルメディアがいわゆるデマ情報の流通を加速させたという指摘もある.東日本大震災とそれに関連する福島第一原子力発電所の事故では,多くの国民の生命が脅かされる事態となったため,人間の安全・危険に関する誤情報(例えば「放射性物質から甲状腺を守るにはイソジンを飲め」)が拡散した.東日本大震災に関するデマをまとめたツイート\footnote{https://twitter.com/\#!/jishin\_dema}では,2012年1月時点でも月に十数件のペースでデマ情報が掲載されている.このように,Twitter上の情報の信憑性の確保は,災害発生時だけではなく,平時においても急務である.我々は,誤情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め」)に対してその訂正情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め\ulinej{というのはデマ}」)を提示することで,人間に対してある種のアラートを与え,情報の信憑性判断を支援できるのではないかと考えている.訂正情報に基づく信憑性判断支援に向けて,本論文では以下に挙げる3つの課題に取り組む.\begin{description}\item[東日本大震災時に拡散した誤情報の網羅的な収集:]「○○というのはデマ」「○○という事実は無い」など,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を自動的に収集する手法を提案する.震災時に拡散した誤情報を人手でまとめたウェブサイトはいくつか存在するが,東日本大震災発生後の大量のツイートデータから誤情報を自動的,かつ網羅的に掘り起こすのは,今回が初めての試みである.評価実験では,まとめサイトから取り出した誤情報のリストを正解データと見なし,提案手法の精度や網羅性に関して議論する.\item[東日本大震災時に拡散した誤情報の発生から収束までの過程の分析:]東日本大震災時の大量のツイートデータから自動抽出された誤情報に対し,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を時系列で可視化することで,誤情報の発生から収束までの過程をモデル化する.\item[誤情報と訂正情報の識別の自動化:]誤情報を訂正している情報を自然言語処理技術で自動的に認識する手法を提案し,その認識精度を報告する.提案手法の失敗解析などを通じて,誤情報と訂正情報を対応づける際の技術的課題を明らかにする.また,本研究の評価に用いたデータは,ツイートIDと\{誤情報拡散,訂正,その他\}のラベルの組として公開を予定しており,誤情報とその訂正情報の拡散に関する研究の基礎データとして,貴重な言語資源になると考えている.\end{description}なお,ツイートのデータとしては,東日本大震災ワークショップ\footnote{https://sites.google.com/site/prj311/}においてTwitterJapan株式会社から提供されていた震災後1週間の全ツイートデータ(179,286,297ツイート)を用いる.本論文の構成は以下の通りである.まず,第2節では誤情報の検出に関する関連研究を概観し,本研究との差異を述べる.第3節では誤情報を網羅的に収集する手法を提案する.第4節では提案手法の評価実験,結果,及びその考察を行う.第5節では,収集した誤情報の一部について,誤情報とその訂正情報の拡散状況の分析を行い,自動処理による訂正情報と誤情報の対応付けの可能性について議論する.最後に,第6節で全体のまとめと今後の課題を述べる.
\section{関連研究}
近年,ツイッターは自然言語処理の分野においても研究対象として注目を浴びている.言語処理学会の年次大会では「Twitterと言語処理」というテーマセッションが2011,2012年に企画されていた.また,国際会議のセッションや併設ワークショップにおいても,ソーシャルメディアに特化した情報交換の場が設けられることが珍しくない.このような状況が映し出すように,ツイッターを対象とした研究は数多くあるが,本節ではツイートで発信される情報の真偽性や信憑性に関連する研究を紹介する.Ratkiewiczら~\cite{Ratkiewicz:2011}は,米国の選挙に関連して,アストロターフィング\footnote{団体や組織が自発的な草の根運動に見せかけて行う意見主張のこと.一般市民を装って,特定の候補者を支持したり,否定する意見をツイートで発信し,複数のユーザアカウントを使って多勢を装ったり,一般市民のリツイートを誘発させるなどして,選挙活動を行う.}や誹謗中傷,誤情報の意図的な流布を行っているツイートを検出するシステムを提案した.Qazvinianら\cite{Qaz2011}は,誤情報に関連するツイート群(例えば「バラク・オバマ」と「ムスリム」を含むツイート群)から,誤情報に関して言及しているツイート(例えば「バラク・オバマはムスリムである」)と,誤情報に関して言及していないツイート(例えば「バラク・オバマがムスリムのリーダーと面会した」)を分類し,さらに誤情報に関して言及しているツイート群を,誤情報を支持するツイートと否定するツイートに分類する手法を提案した.Qazvinianらの研究は,誤情報に関連するツイート群(もしくはクエリ)が与えられることを想定しており,本研究のように大規模なツイートデータから誤情報をマイニングすることは,研究対象の範囲外である.日本では,東日本大震災時にツイッター上で誤情報が拡散したという問題意識から,関連する研究が多く発表されている.白井ら~\cite{Shirai}は,デマ情報とその訂正情報を「病気」とみなし,感染症疾患の伝染モデルを拡張することで,デマ情報・デマ訂正情報の拡散をモデル化した.藤川ら~\cite{Fuji12}は,ツイートに対して疑っているユーザがどの程度いるのか,根拠付きで流言であると反論されているか等,情報に対するユーザの反応を分類することで,情報の真偽判断を支援する手法を提案した.鳥海ら~\cite{Tori}は,あるツイートの内容がデマかどうかを判別するため,ツイートの内容語と「デマ」「嘘」「誤報」などの反論を表す語の共起度合いを調べる手法を提案した.梅島ら~\cite{Ume11}は,東日本大震災時のツイッターにおけるデマと,デマ訂正の拡散の傾向を分析することを目標とし,「URLを含むリツイートはデマである可能性が低い」「デマは行動を促す内容,ネガティブな内容,不安を煽る内容が多い」「この3つのいずれかの特徴を持つツイートはリツイートされやすい」等の仮説を検証した.彼女らのグループはその後の研究~\cite{Ume12,DemaCloud}で,誤情報のデータベースを構築するために,「デマ」や「間違い」といった訂正を明示する表現を用いることで,訂正ツイートの認識に有用であることを示した.さらに彼女らは,訂正を明示する表現を含むツイートを収集し,各ツイートが特定の情報を訂正しているか,訂正していないのか\footnote{例えば「ツイート上には様々なデマが流れているので注意を!」というツイートには「デマ」という表現を含んでいるが,特定の情報を訂正しているわけではない}を識別する二値分類器を構築した.これらの先行研究は,ツイートが誤情報を含むかどうか,もしくはツイートが特定の情報を訂正しているかどうかを認識することに注力しており,ツイート中で言及されている誤情報の箇所を同定することは研究対象の範囲外となっている.したがって,大規模なツイートデータから誤情報を網羅的に収集する研究は,我々の知る限り本研究が最初の試みである.誤情報の発生から収束までの過程を分析している研究としては鳥海ら~\cite{Tori}の研究がある.鳥海らは「ワンピースの作者が多額の寄付を行った」という誤情報をとりあげ,関連するツイートを誤情報の拡散ツイートと訂正ツイートに振り分けて,時系列に基づく深い分析を行った.彼らの手法は「ワンピース,作者,寄付」と共起するツイートを誤情報拡散ツイート,「ワンピース,作者,デマ」と共起するツイートを誤情報訂正ツイートに機械的に振り分けるというものであったが,本研究ではツイートの内容を人間が検証することにより,14トピックの誤情報の拡散・訂正状況を詳細に分析する.
\section{提案手法}
本研究では,ツイッター上で拡散している誤情報に対して,別の情報発信者がその情報を訂正すると仮定し,誤情報の抽出を行う.例えば,「コスモ石油の爆発により有害な雨が降る」という誤情報に対して,ツイッター上で以下のような訂正情報を含むツイート(以下,訂正ツイート)が発信された.\EXS{ex:tweet}{\item[ex1]コスモ石油の爆発により、有害な雨が降る\ulinej{という事実はない。}\item[ex2]コスモ石油の科学物質を含んだ雨が降る\ulinej{というデマ}がTwitter以外にも出回ってるので注意を}訂正ツイートは,訂正表現(下線部)と,その訂正対象である誤情報から構成される.そこで,ツイート中の訂正表現を発見することで,誤情報を抽出できると期待できる.本節で提案する手法の目標は,訂正表現を手がかりとして,ツイート本文から誤情報を説明する箇所を推定する抽出器を構築することである.さらに,構築した抽出器によって,ツイート集合から誤情報を過不足なく収集したい.図\ref{fig:zentai}に提案手法の流れを示す.手順は大きく4つに分けられる.まず,ツイート本文に訂正パターン(後述)を適用し,訂正対象となる部分(被訂正フレーズ)を抽出する(ステップ1).次に,「昨日のあれ」のように具体的な情報を含まないフレーズを取り除くために,ステップ2において被訂正フレーズに含まれやすいキーワードを選択する.同一の被訂正情報を言及しているが,表現や情報量の異なるフレーズをまとめるために,フレーズに含まれるキーワードをクラスタリングする(ステップ3).その結果,「コスモ石油」や「イソジン」といった,誤情報の代表的なキーワードを含むクラスタが構築される.図\ref{fig:zentai}左上の表は,被訂正フレーズに含まれやすいキーワードが上位に来るよう,クラスタをステップ2の条件付き確率(式\ref{eq1},後述)で並べ替えたものである.最後に,ステップ4で,各クラスタごとに誤情報を最もよく説明しているフレーズを選択する.図\ref{fig:zentai}右上はステップ3で並べ替えたクラスタからフレーズを抽出し,出力された誤情報のリストである.以降では,各ステップについて詳細に説明する.\begin{figure}[b]\begin{center}\includegraphics{20-3ia21f1.eps}\end{center}\caption{提案手法の流れ}\label{fig:zentai}\end{figure}\subsection{ステップ1:訂正パターンを用いた訂正フレーズの抽出}\begin{figure}[b]\begin{center}\input{21fig02.txt}\end{center}\caption{被訂正フレーズを含むツイートの構造}\label{fig:correct_pattern}\end{figure}ステップ1では,ツイート本文から被訂正フレーズを見つけ出す.被訂正フレーズは,「デマ」や「間違い」といった表現で,訂正や打ち消されている箇所のことである.被訂正フレーズは,「イソジンは被曝を防ぐ」といった単文や,「コスモ石油の火災により有害な雨が降る」といった複文,「うがい薬の件」といった名詞句もある.被訂正フレーズと訂正表現は,「という」や「のような」といった連体助詞型機能表現で繋がれ,図\ref{fig:correct_pattern}に示す構造をとる.被訂正フレーズに続く表現を,すなわち連体助詞型機能表現と訂正表現の組み合わせを,「訂正パターン」と呼ぶ.例えば,図\ref{fig:correct_pattern}において,「というデマ」,「といった事実はありません」が訂正パターンである.全ツイートを形態素解析し,訂正パターンに対して形態素レベルでのパターン照合を行う.マッチしたツイートに対して,文頭から訂正パターンの直前までを被訂正フレーズとして抽出する.被訂正フレーズを漏れなく抽出するには,質のよい訂正パターンを整備することが重要である.そこで,どのような表現が訂正パターンになり得るのかを調べた.具体的には,既知の誤情報15件を含むツイートを検索するようなクエリを考え,そのツイートの内容を確認することにより,訂正パターンを収集・整理した.このようにして得られた訂正パターンの一覧を表\ref{tbl:teisei}に示した.表\ref{tbl:teisei}の訂正パターンのいずれかを含むツイートに対して,文頭から訂正パターンの直前までを被訂正フレーズとして抽出した例を図\ref{fig:correct_pattern_extraction}に示した.図\ref{fig:correct_pattern_extraction}の下線部が訂正パターンである.\begin{table}[t]\caption{訂正パターン}\label{tbl:teisei}\input{21table01.txt}\end{table}\begin{figure}[t]\begin{center}\input{21fig03.txt}\end{center}\caption{被訂正フレーズの抽出}\label{fig:correct_pattern_extraction}\end{figure}\subsection{ステップ2:キーワードの抽出}前節で抽出された被訂正フレーズには,「昨日のあれ」のように具体的な情報が提示されていないフレーズも含まれている.これらは誤情報としては不適切であるため,取り除く必要がある.そこで,被訂正フレーズ中の名詞句が訂正情報中に偏って出現しているかどうかを調べる.ここで分析の対象とする名詞句は,単名詞および名詞連続に限定する.具体的には,ある名詞句がツイートで言及されるとき,その名詞句が被訂正フレーズに含まれる確率(条件付き確率)を算出する.被訂正フレーズ中には頻出し,その他のツイート中では出現頻度の低い名詞句は,被訂正時にのみ頻出することから,誤情報のキーワードとなる名詞句である可能性が高い.逆に,被訂正フレーズ以外でも頻出する名詞句は,一般的な名詞句であり,誤情報のキーワードとなる可能性は低い.「昨日のあれ」の「昨日」や「あれ」は,被訂正フレーズ以外でも頻出するため,一般的な名詞句であると判断できる.フレーズ中の名詞句$w$が誤情報のキーワードらしいかどうかを,式\ref{eq1}によって計算する.ここで,$D$は訂正フレーズ集合を表す.\begin{equation}P(w\inD|w)=\frac{P(w\inD)}{P(w)}=\frac{wが訂正パターンを伴って出現するツイート数}{wを含むツイート数}\label{eq1}\end{equation}このように求めた条件付き確率が高い上位500個を,キーワードとして選択する.ただし,コーパス中での出現頻度が極端に低い名詞句を除くため,コーパス全体での出現回数が10回以上かつ,被訂正フレーズ集合での出現回数が2回以上の名詞句のみをキーワードとして認定する.また,ひらがなや記号が半数以上の名詞句(例えば「◯◯町」)はキーワードとして不適切と考え,キーワードから取り除いた.\subsection{ステップ3:キーワードのクラスタリング}被訂正フレーズには,「コスモ石油の火災により有害物質を含む雨が降る」と「コスモ石油の爆発は有害だ」のように,同一の被訂正情報を言及しているが,表現や情報量の異なるフレーズが含まれている.誤情報を過不足なく抽出するために,これらをまとめる必要がある.そこで,ステップ2で抽出されたキーワードを,同一の被訂正情報を説明するキーワードがまとまるようにクラスタリングする.クラスタリングにおけるキーワード間の類似度計算では,キーワードと文内で共起する内容語(名詞,動詞,形容詞)を特徴量とした文脈ベクトルを用いた.これは,周囲に同じ単語が表れていれば,2つのキーワードは類似しているという考えに基づく.文脈ベクトルの特徴量には,各単語との共起度合いを表す尺度である自己相互情報量(PMI)を用いた.この値が0以上の内容語を文脈ベクトルの特徴量に加えた.各文脈ベクトルの類似度はコサイン類似度によって計算した.クラスタリング手法は,階層クラスタリングの一種である最長距離法を用いた.今回のデータでは,類似度の閾値を0.2に固定してクラスタリングを行ったところ,500個のキーワードから189個のクラスタが得られた.得られた各クラスタに対し,式\ref{eq1}の示す確率が最も高いキーワードを代表キーワードとする.代表キーワードは,クラスタの誤情報を説明するために最も重要なキーワードであると考える.\subsection{ステップ4:代表フレーズの選択}\label{sec:selecting-representative-phrase}クラスタごとに被訂正フレーズを抽出し,誤情報として出力する.誤情報に相応しい被訂正フレーズは,誤情報を過不足なく説明できるような一文である.例えば,以下の例では,bは説明が不足しており,cは冗長な情報が含まれているため,aを誤情報として出力したい.\EXS{ex:phrase_selection}{\item[a]コスモ石油の火災により,有害物質を含む雨が降る\item[b]コスモ石油の件で,有害な雨が降る\item[c]コスモ石油が爆発したというのは本当で,有害な雨が降るから傘やカッパが必須らしい}このような選択を可能にするため,内容語の種類と含有率に着目する.まず,代表キーワードを含む被訂正フレーズを誤情報の候補として抽出する.次に,この候補の中から誤情報の内容を過不足なく説明するものを抽出する.文書自動要約における重要文抽出の考えから,前段で用いたキーワードとよく共起する内容語を多く含むものは,より重要な文であると考えられる.そこで,共起度合いを自己相互情報量(PMI)で計る.\begin{equation}\mathrm{Score}_{p}(s,t)=\sum_{w\inC_s}\mathrm{PMI}(t,w)\label{eq_scorep}\end{equation}$s$は被訂正フレーズ,$t$は各クラスタの代表キーワード,$C_s$は$s$中の内容語の集合を表す.ここで,内容語とは被訂正フレーズに含まれる名詞,動詞,形容詞とする.この式により,誤情報クラスタを代表するキーワードと共起性の強い内容語を多く含むフレーズに対して,高いスコアが付与される.しかし,この式では,被訂正フレーズに含まれる内容語の数が多い,長い文ほど高いスコアが付与されてしまう.そこで,代表キーワードを含む文の中でも,典型的な長さの文に高いスコアを付与し,短い文および長い文に対して低いスコアを与える補正項を用いる.\begin{equation}\mathrm{Score}_{n}(s,t)=\mathrm{hist}(\mathrm{len}_s,t)\label{eq_scoren}\end{equation}$\mathrm{len}_s$は被訂正フレーズ$s$の単語数を示す.$\mathrm{hist}(l,t)$は,代表キーワード$t$を含み,かつ単語数が$l$である文の出現頻度を表す.最終的なスコアは,式\ref{eq_scorep}と式\ref{eq_scoren}を乗算したものとする(下式).\begin{equation}\mathrm{Score}(s,t)=\mathrm{Score_{p}}*\mathrm{Score}_{n}\label{eq_score_final}\end{equation}最後に,各クラスタから式\ref{eq_score_final}のスコアが最も高いフレーズを一つずつ選択し,誤情報として出力する.
\section{実験}
評価実験では,東日本大震災時のツイートデータを用いて,誤情報の抽出を行い,その精度と再現率を測った.抽出された誤情報を,その代表キーワードの式\ref{eq1}で並べ替え,上位100件を評価対象とした.考察では,ツイートデータから抽出できなかった事例や,誤って抽出された事例を分類し,今後の対策について述べる.\subsection{データセット}誤情報の抽出元となるコーパスには,東日本大震災ビックデータワークショップでTwitterJapanから提供された2011年3月11日09:00から2011年3月18日09:00までの日本語のツイートデータ179,286,297ツイートを利用した.このデータのうち,リツイート(自分の知り合いへのツイートの転送)は単順に同じ文が重複しているだけであるため,取り除いた.\subsection{正解データ}東日本大震災の際に発信された誤情報を網羅的にまとめたデータは存在しない.評価実験の正解データは,誤情報を人手でまとめた以下の4つのウェブサイトに掲載されている事例を利用した.\begin{enumerate}\item絵文録ことのは「震災後のデマ80件を分類整理して見えてきたパニック時の社会心理」\footnote{http://www.kotono8.com/2011/04/08dema.html}\item荻上式BLOG「東北地方太平洋沖地震,ネット上でのデマまとめ」\footnote{http://d.hatena.ne.jp/seijotcp/20110312/p1}\item原宿・表参道.jp地震のデマ・チェーンメール\footnote{http://hara19.jp/archives/4905}\itemNAVERまとめ注意!地震に関するデマ・チェーンメールまとめ\footnote{http://matome.naver.jp/odai/2130024145949727601}\end{enumerate}以上の4サイトに掲載されているすべての事例のうち,Twitterデータの投稿期間内(20113/1109:00から20113/1809:00まで)に発信されたと判断できる事例は60件存在した.この60件の誤情報を正解データとした.作成した正解データの一部を以下に列挙する.\begin{itemize}\item関西以西でも大規模節電の必要性\itemワンピースの尾田栄一郎さん15億円寄付\item天皇陛下が京都に避難された\itemホウ酸を食べると放射能を防げる\item双葉病院で病院関係者が患者を置き去りにして逃げた\itemいわき市田人で食料も水も来ていなく餓死寸前\item宮城県花山村が孤立\item韓国が震災記念Tシャツを作成\item民主党がカップ麺を買い占め\end{itemize}\subsection{評価尺度}抽出された誤情報の正否は,同等の内容が60件の正解データに含まれるかどうかを一件ずつ人手で判断した.また,正解データに含まれていないが,誤情報であると判断できるものもある.そこで抽出された情報が正解データに含まれなかった場合は,関連情報を検索することで,その正否を検証した.本研究の目的は,出来るだけ多くの誤情報を抽出し,人に提示することにある.しかし人が一度に見ることのできる情報には限界があり,出来るだけ多くの誤情報を人に提示するには,提示する誤情報の中にある,冗長な誤情報を取り除きたい.この目的のため,抽出した誤情報のうち,同じ内容と判断できるものが複数ある場合は,正解は一つとし,他の重複するものは不正解とした.また,日本語として不自然なものも不正解とした.提案手法はスコアの高い順にN件まで出力可能であるため,Nをいくつか変化させたときの精度@N,再現率@N,F値@Nによって評価した.精度には,正解データに含まれるかどうかで判断したもの(精度@N(60件))と,人手により検証を行ったもの(精度@N(人手検証))を用意した.また,人手による検証に加え,重複を許した場合(精度@N(重複))も評価に加えた.この評価を行うことで,目的の一つである「誤情報抽出」がどの程度達成されているかを知ることができる.それぞれは以下の式で表される.\begin{align}精度@N(60件)&=\frac{N事例のうち,60件の誤情報に含まれる事例数(重複を除く)}{N}\\[1zw]精度@N(人手検証)&=\frac{N事例のうち,人手で誤情報と検証された事例数(重複を除く)}{N}\\[1zw]精度@N(重複)&=\frac{N事例のうち,人手で誤情報と検証された事例数(重複を許す)}{N}\\[1zw]再現率@N&=\frac{N事例のうち,60件の誤情報に含まれる事例数(重複を除く)}{正解の誤情報の数(60件)}\\[1zw]F値@N&=\frac{2*精度@N(60件)*再現率@N}{精度@N(60件)+再現率@N}\end{align}\subsection{実験結果}\begin{table}[b]\vspace{-1\Cvs}\caption[評価]{実験結果}\label{kekka}\input{21table02.txt}\end{table}評価結果を表\ref{kekka}に示す.\pagebreakNが100のとき,提案手法が抽出した情報のうち,60件の正解データにも含まれる情報は31件であった.さらに,正解データには含まれないが,誤情報と判断できる事例が23件存在したことから,提案手法は54\%の精度で誤情報を抽出できた.次に,上位N件に限定しない場合の再現率について述べる.「上限(N=189)」は500個のキーワードをクラスタリングし得られた189個のクラスタから,代表フレーズをすべて出力した時の再現率であり,「上限(クラスタなし)」は,提案手法ステップ1で収集された被訂正フレーズ集合約2万件をすべて出力した時の再現率である.「上限(N=189)」は,キーワードを189個に絞った時の,ランキング改善による性能向上限界を表すに対し,後者はキーワードの選択,ランキング,クラスタリング改善による性能向上限界,つまり訂正パターンに基づく抽出手法の限界を表す.被訂正フレーズ集合の段階でカバーされている50件は,キーワードの選択やクラスタリングなど,後段の処理を改善することで抽出できる可能性があるが,残る10件は,訂正パターンに基づく抽出手法の改善が必要となる,難解な事例である.\subsection{考察}本節では,評価結果の誤りを分析する.抽出された誤情報の上位100件のうち,31件は正解データに含まれていたが,残りの69件は正解データに含まれていなかった.そこで,不正解データに対する誤判定の原因を調べたところ,8種類の原因に分類できた.表\ref{FP}に理由と件数を示す.\begin{table}[b]\caption[評価]{精度に対する誤り分析}\label{FP}\input{21table03.txt}\end{table}(a)から(d)は,明らかに誤抽出と判断できる事例である.(e)と(f)は,正解データの構築に用いた4つの誤情報まとめサイトに掲載されてはいなかったが,ウェブ上で調べることで,明らかに誤情報であると認められる事例である.(g)と(h)は,人手でも誤情報であるかを判断できない事例である.以下でそれぞれの詳細と,改善案を述べる.\pagebreak\begin{description}\item[(a)]キーワード抽出による誤り\\代表キーワードが誤抽出につながったと考えられる事例である.以下に例を示す.括弧の中は,選定に利用した代表キーワードである.\enumsentence{\ulinej{\mbox{陰謀論とか、「悪意の行動があった」}}とかいうデマを信じる人って…(悪意)}「善意」や「悪意」といった単語は,元々「デマ」などの訂正表現の周辺文脈に出現しやすい単語であるため,条件付き確率(\ref{eq1})が高く,キーワードとして選ばれた.しかし,特定の誤情報に関連するキーワードではないため,上記の例のように,具体性に欠ける被訂正フレーズが誤情報として抽出された.このようなキーワードは,誤情報の拡散時に限らず,通常時から訂正表現と共起すると考えられる.そこで対策として,被訂正フレーズに含まれる確率(式\ref{eq1})を使用するのではなく,通常時の共起度合いを組み込むことで,改善が望めると考えらる.\item[(b)]クラスタリングによる誤り\\抽出された誤情報上位100件のうち,同じ内容と判断できる誤情報が重複している事例である.例を以下に示す.括弧の中は,選定に利用した代表キーワードである.\enumsentence{市原市のコスモ石油千葉製油所LPGタンクの爆発により,千葉県,近隣圏に在住の方に有害な雨などと一緒に飛散する(コスモ石油千葉製油所)\\千葉県の石油コンビナート爆発で,空気中に人体に悪影響な物質が空気中に舞い雨が降ると酸性雨になる(石油コンビナート爆発)}これはステップ3でクラスタリングを行ったとき,同じクラスタに分類できなかったため,重複として表れた.誤情報検出の目的は達成できているものの,冗長な誤情報を抜き出しているため厳しめに評価して不正解とした.キーワードのクラスタリングには,被訂正フレーズの中で共起する単語を素性としているが,素性に表層の情報を加えることで,誤りを減らすことができると考えられる.\item[(c)]内容が不正確な情報\\抽出された誤情報の内容が,誤情報を説明するのに内容が不足していると思われる事例である.以下に例を示す.\enumsentence{餓死者や凍死者が出た.}正解データの中には「いわき市で餓死者や凍死者が出た」というものが存在するが,それと比べると具体性に欠けているため,不正解とした.より的確な候補を抽出するには,候補が多いほど作成したパターンの精度や再現率を考慮した選定が必要である.\item[(d)]正しい情報\\誤情報として抽出されたが,事実を確認したところ,誤情報ではなかった事例である.以下に例を示す.\enumsentence{東京タワーの先端が曲がった}この例に関連するツイートを観察したところ,根拠とされる写真を提示されても信じてもらえないほど,突拍子のない情報として扱われていた.そのため,訂正ツイートが多く投稿されたようである.提案手法は訂正の数が多い情報ほど,ランキングが上位になる仕組みになっているため,この事例は誤って抽出された.本研究の目的は「誤情報の抽出」であることを考えると,(a)から(c)の誤りに比べ,深刻な誤りである.しかし,始めは誤情報として疑っていたユーザーの中には,誤情報出なかったことを知り,以下のようなツイートをしている人も存在した.\enumsentence{東京タワーが曲がったってデマじゃなかったんだ\\東京タワー曲がったとかデマだと思ったら本当だった}このように,訂正を訂正しているツイートも存在し,二重否定を判別することが出来れば,この問題の改善につながると考えられる.\item[(e)]まとめサイトに掲載されていない誤情報(過去)\\これは誤情報まとめサイトに掲載されていないが,人手で検証したところ,誤情報と判別された事例である.その中でも今回利用したツイートコーパスの期間より前の事象に関する誤情報である.以下に例を示す.\enumsentence{\ulinej{関東大震災の時「朝鮮人が井戸に毒を入れた」}というのはデマだったはず\\\ulinej{阪神淡路大震災は三時間後に最大の揺れが来た}というのは誤った情報のようです。\\\ulinej{\mbox{明治43年(1910年)}にハレー彗星が大接近した時、地球上の空気\mbox{が5分間}ほどなくなる}というデマが一部で広まり,…}上記の例は訂正ツイートであり,下線部は被訂正フレーズとして抽出された部分である.一度過去に誤情報として認識されたことは間違いないが,人々に悪影響を与える可能性があり,誤情報として抽出し,拡散・訂正の動向を監視する必要がある.\item[(f)]まとめサイトに掲載されていない誤情報(現在)\\これは誤情報まとめサイトに掲載されていないが,人手で検証を行ったところ,誤情報と判別された事例である.その中でも今回利用したツイートコーパスの期間中に発生した誤情報である.以下に例を示す.\enumsentence{VIPで韓国の救助犬1匹が逃亡\\巷説にある遺体には感染症のリスクがある}\item[(g)]未来予測\\(h)の真偽不明の事例のうち,未来に起こりうる事象について述べたものを抽出した事例である.以下に例を示す.\enumsentence{福島で核爆発が起こる\\富士山が噴火する}未来に起こりうる事象である以上,現時点での真偽は不明である.抽出されたものの多くは,上記の例のように人々の不安を煽る情報であり,パニックを防ぎたいと思い訂正ツイートを発信した人が多かったため,抽出されたと考えられる.\item[(h)]真偽不明\\複数のウェブサイトを検索して検証を行ったが,誤情報かどうかを判別できなかった事例である.以下に例を示す.\enumsentence{サントリーが自販機無料開放\\築地で魚が余っている}\end{description}次に,正解データにある誤情報60件のうち,抽出されなかった誤情報29件についても同様に原因を調査したところ,3つに分類できることが判明した.3つの原因の件数と割合を表\ref{FN}に示す.\begin{table}[b]\caption[評価]{再現率に対する誤り分析}\label{FN}\input{21table04.txt}\end{table}\begin{description}\item[(i)]訂正パターンで候補を抽出できなかったもの\\今回作成した訂正パターンでは,抽出できなかった誤情報である.「仙台市三条中学校が中国人・韓国人が7割の留学生の心ない行動で避難所機能停止」という誤情報に対して,以下のようなツイートが数多く存在した.\enumsentence{コレ本当?RT@XXXXX今,祖母と叔母に確認.何と仙台市の三条中学校の避難所,閉鎖!避難所用救援物資を根こそぎ,近隣の外国人留学生(中国韓国で七割強)が運び出してしまい,避難所の機能停止だそうです.}上の例では,明示的に誤情報だと否定している人は少ないが,元のツイートコメントする形で,その情報を疑っている人は多かった.このことから,改善案とし訂正パターンのみではなく,懐疑を表す表現も利用できるのではないかと思われる.\item[(j)]訂正パターンで抽出できたが,クラスタリングによる誤り\\訂正パターンにより候補の抽出はできたが,クラスタリングにより,誤って他の誤情報に含まれた事例である.しかし,全体に比べ,事例数が少ないため,それほど問題ではないと思われる.\item[(k)]訂正パターンで抽出できたが,ランキング外\\訂正パターンにより候補を抽出できたが,条件付き確率が低かったため,キーワードとして抽出できなかった事例である.例えば,「東京電力を装った男が表れた」という誤情報では,「東京電力」というキーワードは誤情報以外の話題でも頻出したため,条件付き確率が低くなった.対策としては,キーワード単独をスコアリングするのではなく,被訂正フレーズそのものをスコアリングするような手法が必要である.\end{description}
\section{誤情報の拡散状況の分析}
本節では,誤情報がどのように発生し,拡散・収束していくかを分析する.誤情報およびその訂正情報の拡散状況を時系列で可視化することで,誤情報の拡散のメカニズムを詳細かつ系統的に分析する.分析対象とする誤情報は,将来的には自動抽出結果を用いる予定だが,「東日本大震災の誤情報の拡散状況を正しく分析する」という目的から,誤情報であると確認できた事例のみを用いた.\begin{figure}[b]\begin{center}\includegraphics{20-3ia21f4.eps}\end{center}\caption{誤情報拡散状況システム}\label{fig:system}\end{figure}本節で想定しているシナリオは以下の通りである.前節までの手法で,ツイート空間上で誤情報と考えられているフレーズ(例えば「コスモ石油のコンビナート火災に伴い有害物質の雨が降る」)を抽出できる.この誤情報がどのように発生・拡散し,その訂正情報がどのように発生・拡散したのかを調べるため,このフレーズの中からキーワードを選び,ツイート検索システムへのクエリ(例えば「コスモ石油AND有害物質」)とする.このクエリを用いてツイートを検索すると,誤情報を拡散するツイート,誤情報を訂正するツイートが混ざって得られる.そこで,本節ではツイートを誤情報の「拡散」と「訂正」の2グループに自動分類する手法を提案する.図4は実際に作成した,誤情報の拡散状況を提示するシステムである.このシステムの処理をリアルタイム化すれば,被訂正情報から抜き出したキーワードを誤情報の監視クエリとし,誤情報の拡散・訂正状況をモニタリングしたり,誤情報を発信した(もしくは発信しようとしている)者に,訂正情報の存在を通知することができる.本節で提案する手法で「拡散」「訂正」ツイートの分類精度を測定するため,14件の誤情報に関して,正解データを作成した.この正解データを利用すれば,提案手法の性能を評価できるだけではなく,誤情報の拡散・訂正状況を精緻に検証し,誤情報の発生から収束までのメカニズムをモデル化することができる.最後に,自動手法の失敗解析を通じて,誤情報と訂正情報を対応づける際の技術的課題を述べる.\subsection{訂正表現による誤情報と訂正情報の自動分類}\begin{table}[b]\caption{訂正情報を認識する精度}\label{kakusan}\input{21table05.txt}\end{table}与えられたツイートに対して,誤情報の「拡散」もしくは「訂正」に分類する手法を,順を追って説明する.まず,前節までの手法で獲得した誤情報に関連するツイートを集める.ツイートの収集には本研究室で開発されたツイート全文検索システムを用いる.誤情報に関連するツイートを収集するために,獲得した誤情報(例えば「東大が合格者の入学取り消し」)を適切なクエリ(例えば「東大AND入学」)に変換する.次に検索によって得られた全ツイートを誤情報と訂正情報とに分類する.分類には「デマ」や「風説」などの訂正表現を含むツイートを「訂正情報」とし,含まないものを「訂正情報ではない」ツイートとする.訂正表現は震災時のツイートを読みながら,121個用意した.検索で得られるツイートの中には,「誤情報」や「訂正情報」とは関係の無い「その他」のツイートが存在するが,後述する正解データの割合を示した表\ref{kakusan}から分かるように,「その他」の割合は少ない.そこで本節では「訂正情報ではない」ツイートは誤情報の「拡散」ツイートとして見なす.\subsection{実験と評価}本手法の認識精度を評価するため,14件の誤情報に関連するツイート群を検索し,それらのツイートを「誤情報」「訂正情報」「その他」の手作業で分類し,正解データを作成した.評価対象の誤情報は,人手での作業の負荷を考慮して14件とした.関連するツイート5,195件のうち,誤情報ツイートが2,462件,訂正情報ツイートが2,376件,その他のツイートが357件であった(表\ref{kakusan}).評価対象として14件の誤情報は,第\ref{sec:selecting-representative-phrase}節で定義した条件付き確率(式\ref{eq1})が高いものから誤った事例を人手で除き,順に選んだ.今回の実験では被リツイート数の多いツイートを優先的に採用し,手作業による分類のコストを下げた\footnote{実際には,被リツイート数が$x$件以上のツイートのみを採用した.誤情報によって関連するツイート数が異なるため,閾値$x$は誤情報毎に調整した.}.なお,評価対象のツイートは誤情報や訂正情報に関するものと仮定しているので,「その他のツイート」は評価の対象外とする.表\ref{kakusan}に,提案手法が訂正情報を認識する精度(再現率・適合率・F1スコア)を示した.この評価では,リツイートは削除し,オリジナルのツイートのみを評価対象としている.表\ref{kakusan}によると,ほとんどの誤情報について高い適合率が得られた.適合率が高いということは「デマ」などの訂正表現を含むツイートは,かなりの確度で訂正情報と見なせるということである.「デマ」という語を伴って誤情報の拡散を行うことは,通常では考えにくいので,これは直感的に理解できる結果である.これに対し,再現率はユーザが誤情報の訂正のために,「デマ」などの訂正表現をどのくらい使うのかを示している.再現率が高いということは,誤情報の訂正情報のほとんどが「デマ」等の表現を伴うということである(例えば,以下のツイートを参照).\begin{quote}【拡散希望】トルコが日本に100億円の支援をするという内容のツイートが出回ってますが,誤情報だということです.情報を発信した本人が誤りだと言ってます.\end{quote}以上の結果から,訂正表現のマッチングに基づく提案手法でも,かなりの精度で誤情報の「拡散」と「訂正」のツイートを分離できることが示された.しかし,量は少ないものの,訂正表現を含む誤情報拡散ツイートも見受けられる.\begin{quote}万が一原発から放射能が漏れ出した際,被爆しない為にイソジンを15~cc飲んでおいて下さい!原液です!ガセネタではありません.お医者さんからの情報です.これはRTではないので信じてください!\end{quote}このツイートでは,「ガセ」という訂正表現を含んでいるが,「ガセ」をさらに否定しているので,二重否定により誤情報の拡散ツイートと解釈できる.さらに,訂正表現を用いずに誤情報を否定するツイートも存在する.\begin{quote}千葉のコスモ石油のタンク爆発事故で中身の有害物質が雲に付着して降ってくるというツイートをよく見かけますが、公式サイトでタンクの中身がLPだったので火災で発生した大気が人体に及ぼす影響はほとんどないみたいです。\end{quote}このツイートでは,「デマ」「嘘」などの訂正表現は一切使われていないが,誤情報の内容(「コスモ石油の火災により有害物質の雨が降る」)を訂正するツイートであると判断できる.このようなツイートを訂正ツイートと認識するためには,深い処理(例えば,「タンクの爆発事故」による「人体に及ぼす影響はほとんどない」と解釈する)や,ツイートやユーザ間の関係(例えば,このツイートをRTしているユーザが,訂正表現を用いてた別の訂正ツイートをRTしている,等の手がかり)を用いる必要がある.\subsection{誤情報の拡散状況の分析}本研究において構築した正解データを分析すれば,様々な誤情報の拡散状況を調べることができる.そこで,誤情報の「拡散」ツイートと「訂正」ツイートの数を,それぞれ一定時間おきに折れ線グラフにプロットし,誤情報の拡散状況を可視化するシステムを開発した.可視化にはクロス・プラットフォームかつブラウザ上で利用できるGoogleChartToolsを用いた.デモシステムでは,各時点でどのようなツイートが拡散していたのか,ツイート本文を閲覧できるようになっている.なお,グラフにプロットするツイートの数はリツイート数も考慮し,ツイート空間上での情報の拡散状況を表した.14件の誤情報に対して,正解データからプロットされたグラフを観察すると,誤情報の拡散状況は,以下の2つの要素で特徴付けらることが分かった.\begin{description}\item[ツイートの量の違い:]誤情報ツイート数と訂正ツイート数のどちらが多いか.\item[収束時間の違い:]誤情報の収束が遅いか速いか\footnote{収束時間(誤ツイートの発生から,誤ツイート量が0になるまでの時間)が一日未満であれば,速く,そうでなければ遅いと分類した.}.\end{description}この2つの要素の組み合わせにより,誤情報の拡散状況を4つにタイプ分けした.(表\ref{type_kakusan},図\ref{fig:four-kakusan}参照)\begin{table}[t]\caption{拡散状況のタイプ}\label{type_kakusan}\input{21table06.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{20-3ia21f5.eps}\end{center}\caption{4種類に分けられる拡散状況}\label{fig:four-kakusan}\end{figure}\begin{description}\item[誤情報優勢・短時間収束型:]例えば,「サーバールームで身動きが取れない」という誤情報では,人間の危険や不安を伝えているため,誤情報を見たユーザが善意でツイートを拡散する傾向にある.このように,助けを求めたり,不安を煽るなどの情報は拡散しやすく,情報が間違いである場合は,訂正情報よりも誤情報の拡散ツイートの方が多くなりやすい.さらに,情報の発信者がジョークとしてつぶやいた情報や,情報の裏を検証することで真偽性を判定しやすいもの,救助などで緊急性を要するものは,短時間収束型になる傾向がある.他には,「阪神大震災では3時間後に最大の揺れが来た」などの誤情報が,このカテゴリに分類される.\item[誤情報優勢・長時間拡散型:]例えば,「支援物資の空中投下は法律で認められていない」という誤情報は,緊急性を要するものではあったが,真偽性を判断する情報源や専門家の数が少ないため,結果として誤情報が長く拡散する傾向にある.同じカテゴリの誤情報には,「イソジンを飲んで放射線対策」などが挙げられる.このカテゴリの誤情報は,長期間にわたって拡散し,訂正情報の数も少ないため,情報技術での対応が最も期待されるカテゴリであると考える.\item[訂正情報優勢・短時間収束型:]例えば,「被災地の合格者が期限までに書類を提出できないと東大の入学が取り消される」という誤情報は,このカテゴリに属する.このカテゴリの誤情報は,誤情報を否定する情報源がウェブ等に存在する等で,訂正が容易であったと考えられる.また,誤情報を否定する情報がすでにウェブ上に存在するか,否定情報が発表されるまでの期間が短いため,誤情報が短時間で収束した.他には,「阪神大震災時にはレイプが多発」など,既にソースがある誤情報がこのカテゴリに属する.\item[訂正情報優勢・長時間拡散型:]例えば,「コスモ石油の爆発で有害な雨が降る」という誤情報は,コスモ石油や厚生労働省などの信頼性の高い情報源から訂正情報が流れたため,訂正情報が優勢となった.ただ,訂正情報の公式発表が遅れたため,誤情報の収束までの時間が長くなった.また,誤情報の内容に緊急性が無い場合(例えば「トルコが100億円寄付」)も,長時間拡散型になりやすい.\end{description}このように,誤情報の拡散と訂正のメカニズムは,情報の緊急性や真偽の検証に必要な情報の入手性・信憑性により,様々であることが分かった.
\section{おわりに}
本研究では,誤情報を訂正する表現に着目し,誤情報を自動的に収集する手法を提案した.実験では,誤情報を人手でまとめたウェブサイトから取り出した誤情報のリストを正解データと見なして評価を行ったところ,出力数が100件のとき正解データの約半数である31件を収集することができた.これは抽出した情報100件の約3割であるが,残り69件の中には,まとめサイトに掲載されていない誤情報も23件あり,54\%の精度で誤情報を抽出できた.また,収集された誤情報の中に真実の情報が含まれていると深刻な問題であるが,誤って抽出された事例の多くは,内容の重複する誤情報や真偽不明の事例であり,特に問題である真実の情報は100件のうち1件と非常に少なく,提案手法は誤情報の自動収集に有用であることを示した.また,誤情報に対して,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を可視化するシステムを構築した.本システムの訂正情報の認識精度を測定したところ,多くの誤情報について高い精度を得ることができた.実際に,本システムを用いて収集された誤情報の分析を行ったところ,拡散状況を幾つかのタイプに分類を分類することができた.今後の課題として,懐疑や反論といった,訂正パターン以外の情報を考慮した誤情報の抽出が挙げられる.\acknowledgment本研究は,文部科学省科研費(23240018),文部科学省科研費(23700159),およびJST戦略的創造研究推進事業さきがけの一環として行われた.貴重なデータを提供して頂いた,TwitterJapan株式会社,および東日本大震災ビッグデータワークショップに感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Acar\BBA\Muraki}{Acar\BBA\Muraki}{2011}]{Acar:11}Acar,A.\BBACOMMA\\BBA\Muraki,Y.\BBOP2011\BBCP.\newblock\BBOQTwitterforcrisiscommunication:lessonslearnedfromJapan'stsunamidisaster.\BBCQ\\newblock{\BemInternationalJournalofWebBasedCommunities},{\Bbf7}(3/2011),\mbox{\BPGS\392--402}.\bibitem[\protect\BCAY{Doan,Vo,\BBA\Collier}{Doanet~al.}{2011}]{Doan:11}Doan,S.,Vo,B.-K.~H.,\BBA\Collier,N.\BBOP2011\BBCP.\newblock\BBOQAnanalysisof{Twitter}messagesinthe2011{Tohoku}{Earthquake}.\BBCQ\\newblockIn{\Bem4thICSTInternationalConferenceoneHealth},\mbox{\BPGS\58--66}.\bibitem[\protect\BCAY{藤川\JBA鍜治\JBA吉永\JBA喜連川}{藤川\Jetal}{2011}]{Fuji12}藤川智英\JBA鍜治伸裕\JBA吉永直樹\JBA喜連川優\BBOP2011\BBCP.\newblockマイクロブログ上の流言に対するユーザの態度の分類(テーマセッション,大規模マルチメディアデータを対象とした次世代検索およびマイニング).\\newblock\Jem{電子情報通信学会技術研究報告.DE,データ工学},{\Bbf111}(76),\mbox{\BPGS\55--60}.\bibitem[\protect\BCAY{宮部\JBA荒牧\JBA三浦}{宮部\Jetal}{2011}]{Miyabe:11}宮部真衣\JBA荒牧英治\JBA三浦麻子\BBOP2011\BBCP.\newblock東日本大震災におけるTwitterの利用傾向の分析.\\newblock\Jem{情報処理学会研究報告},17\JVOL.\newblock2011-DPS-148/2011-GN-81/2011-EIP-53.\bibitem[\protect\BCAY{宮部\JBA梅島\JBA灘本\JBA荒牧}{宮部\Jetal}{2012}]{DemaCloud}宮部真衣\JBA梅島彩奈\JBA灘本明代\JBA荒牧英治\BBOP2012\BBCP.\newblock流言情報クラウド:人間の発信した訂正情報の抽出による流言収集.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\891--894}.\bibitem[\protect\BCAY{ネットレイティングス株式会社}{ネットレイティングス株式会社}{2011}]{netrating201103}ネットレイティングス株式会社\BBOP2011\BBCP.\newblockニュースリリース:震災の影響により首都圏ライフライン関連サイトの訪問者が大幅増.\http://csp.netratings.co.jp/nnr/PDF/\linebreak[2]Newsrelease03292011\_J.pdf.\bibitem[\protect\BCAY{野村総合研究所}{野村総合研究所}{2011}]{nomura201103}野村総合研究所\BBOP2011\BBCP.\newblockプレスリリース:震災に伴うメディア接触動向に関する調査.\\newblockhttp://www.nri.co.jp/news/2011/110329.html.\bibitem[\protect\BCAY{Qazvinian,Rosengren,Radev,\BBA\Mei}{Qazvinianet~al.}{2011}]{Qaz2011}Qazvinian,V.,Rosengren,E.,Radev,D.~R.,\BBA\Mei,Q.\BBOP2011\BBCP.\newblock\BBOQRumorhasit:identifyingmisinformationinmicroblogs.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'11,\mbox{\BPGS\1589--1599},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ratkiewicz,Conover,Meiss,Goncalves,Patil,Flammini,\BBA\Menczer}{Ratkiewiczet~al.}{2011}]{Ratkiewicz:2011}Ratkiewicz,J.,Conover,M.,Meiss,M.,Goncalves,B.,Patil,S.,Flammini,A.,\BBA\Menczer,F.\BBOP2011\BBCP.\newblock\BBOQTruthy:mappingthespreadofastroturfinmicroblogstreams.\BBCQ\\newblockIn{\BemProceedingsofthe20thinternationalconferencecompanionon{WorldWideWeb}},WWW'11,\mbox{\BPGS\249--252}.\bibitem[\protect\BCAY{Sakaki,Toriumi,\BBA\Matsuo}{Sakakiet~al.}{2011}]{Sakaki:11}Sakaki,T.,Toriumi,F.,\BBA\Matsuo,Y.\BBOP2011\BBCP.\newblock\BBOQTweetTrendAnalysisinanEmergencySituation.\BBCQ\\newblockIn{\BemSpecialWorkshoponInternetandDisasters(SWID2011)},\mbox{\BPGS\3:1--3:8}.\bibitem[\protect\BCAY{白井\JBA榊\JBA鳥海\JBA篠田\JBA風間\JBA野田\JBA沼尾\JBA栗原}{白井\Jetal}{2012}]{Shirai}白井嵩士\JBA榊剛史\JBA鳥海不二夫\JBA篠田孝祐\JBA風間一洋\JBA野田五十樹\JBA沼尾正行\JBA栗原聡\BBOP2012\BBCP.\newblockTwitterにおけるデマツイートの拡散モデルの構築とデマ拡散防止モデルの推定.\\newblock\Jem{人工知能学会全国大会予稿集,IC3-OS-12-1}.\bibitem[\protect\BCAY{鳥海\JBA篠田\JBA兼山}{鳥海\Jetal}{2012}]{Tori}鳥海不二夫\JBA篠田孝祐\JBA兼山元太\BBOP2012\BBCP.\newblockソーシャルメディアを用いたデマ判定システムの判定精度評価.\\newblock\Jem{デジタルプラクティス},{\Bbf3}(3),\mbox{\BPGS\201--208}.\bibitem[\protect\BCAY{梅島\JBA宮部\JBA荒牧\JBA灘本}{梅島\Jetal}{2011}]{Ume11}梅島彩奈\JBA宮部真衣\JBA荒牧英治\JBA灘本明代\BBOP2011\BBCP.\newblock災害時Twitterにおけるデマとデマ訂正RTの傾向.\\newblock\Jem{情報処理学会研究報告.データベース・システム研究会報告},{\Bbf2011}(4),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{梅島\JBA宮部\JBA灘本\JBA荒牧}{梅島\Jetal}{2012}]{Ume12}梅島彩奈\JBA宮部真衣\JBA灘本明代\JBA荒牧英治\BBOP2012\BBCP.\newblockマイクロブログにおける流言マーカー自動抽出のための特徴分析.\\newblock\Jem{第4回データ工学と情報マネジメントに関するフォーラム(DEIMForum2012),F3-2}.\end{thebibliography}\begin{biography}\bioauthor{鍋島啓太}{2012年東北大学工学部情報知能システム情報学科卒業.同年,同大学情報科学研究科博士課程前期に進学,現在に至る.自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{渡邉研斗}{2013年東北大学工学部情報知能システム情報学科卒業.同年,同大学情報科学研究科博士課程前期に進学,現在に至る.自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{水野淳太}{2012年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員.2013年より独立行政法人情報通信研究機構耐災害ICT研究センター研究員.博士(工学).自然言語処理,耐災害情報通信の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V08N01-01
|
\section{はじめに}
近年,インターネットの普及とともに,個人でWWW(WorldWideWeb)を代表とするネットワーク上の大量の電子データやデータベースが取り扱えるようになり,膨大なテキストデータの中から必要な情報を取り出す機会が増加している.しかし,このようなデータの増加は必要な情報の抽出を困難とする原因となる.この状況を反映し,情報検索,情報フィルタリングや文書クラスタリング等の技術に関する研究開発が盛んに進められている.情報検索システムの中でよく使われている検索モデルに,ベクトル空間モデル\cite{salton}がある.ベクトル空間モデルは,文書と検索要求を多次元空間ベクトルとして表現する方法である.基本的には,文書集合から索引語とするタームを取り出し,タームの頻度などの統計的な情報により,文書ベクトルを表現する.この際,タームに重みを加えることにより,文書全体に対するタームの特徴を目立たせることが可能である.この重みを計算するために,IDF(InverseDocumentFreqency)\cite{chisholm}などの重みづけ方法が数多く提案されている.また,文書と検索要求を比較する類似度の尺度として,内積や余弦(cosine)がよく用いられている.この類似度計算により,類似度の高いものからランクづけを行い,ユーザに表示することができることもベクトル空間モデルの特徴のひとつである.ベクトル空間モデルを用いた検索システムを新聞記事などの大量の文書データに対して適用した場合,文書データ全体に存在するタームの数が非常に多くなるため,文書ベクトルは高い次元を持つようになる.しかし,ひとつの文書データに存在するタームの数は文書データ全体のターム数に比べると非常に少なく,文書ベクトルは要素に0の多い,スパースなベクトルになる.このような文書ベクトルを用いて類似度を計算する際には,検索時間の増加や文書ベクトルを保存するために必要なメモリの量が大きな問題となる.このため,単語の意味や共起関係などの情報を用いたり,ベクトル空間の構造を利用してベクトルの次元を圧縮する研究が盛んに行われている.このようなベクトルの次元圧縮技術には,統計的なパターン認識技術や線形代数を用いた手法などが用いられている\cite{Kolda}\cite{Faloutsos}.この中で,最も代表的な手法として,LSI(LatentSemanticIndexing)がある\cite{Deerwester}\cite{Dumais}.この手法は,文書・単語行列を特異値分解を用いて,低いランクの近似的な行列を求めるものであり,これを用いた検索システムは,次元圧縮を行わない検索モデルと比較して一般的に良い性能を示す.しかし,特異値分解に必要な計算量が大きいために,検索モデルを構築する時間が非常に長いことが問題となっている.上記の問題を解決するベクトル空間モデルの次元圧縮手法に,ランダム・プロジェクション\cite{Arriaga}が存在する.ランダム・プロジェクションは,あらかじめ指定した数のベクトルとの内積を計算することで次元圧縮を行う手法である.これまでに報告されているランダム・プロジェクションを用いた研究には,VLSI(VeryLarge-ScaleIntegratedcircuit)の設計問題への利用\cite{Vempala}や次元圧縮後の行列の特性を理論的に述べたものがある\cite{Papadimitriou}\cite{Arriaga}.しかし,これらの文献では,ランダム・プロジェクションの理論的な特性は示されているものの,情報検索における具体的な実験結果は報告されていない.そのため,情報検索に対するランダム・プロジェクションの有効性に疑問が残る.我々は,ランダム・プロジェクションを用いた情報検索モデルを構築し,評価用テストコレクションであるMEDLINEを利用した検索実験を行った.この検索実験より,情報検索における次元圧縮手法として,ランダム・プロジェクションが有効であることを示す.また,ランダム・プロジェクションを行う際にあらかじめ指定するベクトルとして,文書の内容を表す概念ベクトル\cite{Dhillon}の利用を提案する.概念ベクトルは文書の内容が似ているベクトル集合の重心で,この概念ベクトルを得る際,高次元でスパースな文書データ集合を高速にクラスタリングすることができる球面$k$平均アルゴリズム\cite{Dhillon}を用いる.これにより,文書集合を自動的にクラスタリングできるだけでなく,ランダム・プロジェクションに必要な概念ベクトルも同時に得ることができる.この概念ベクトルをランダム・プロジェクションで用いることにより,任意のベクトルを用いた検索性能と比較して,検索性能が改善されていることを示し,概念ベクトルを利用した次元圧縮の有効性を示す.
\section{ランダム・プロジェクションによるベクトルの次元圧縮}
本節では,ランダム・プロジェクションを用いたベクトル空間モデル\cite{Papadimitriou}\cite{Arriaga}についての概観を述べる.ランダム・プロジェクションは,ひとつの文書データを$n$次元空間上のベクトル${\bfu}$として表現するとき,このベクトルを$k\(k<n)$次元空間に射影する手法である.その際,$k$個の任意の$n$次元ベクトル${\bfr}_1,\cdots,{\bfr}_k$を用意する.用意したこれらのベクトルと$n$次元ベクトル${\bfu}$の内積,\begin{equation}{\bfu}'_1={\bfr}_1\cdot{\bfu},\cdots,{\bfu}'_k={\bfr}_k\cdot{\bfu}\end{equation}をそれぞれ計算する.その結果,$k$次元に圧縮した${\bfu}'_1,\cdots,{\bfu}'_k$を要素とするベクトルが得られる.次元圧縮に必要なベクトル${\bfr}_1,\cdots,{\bfr}_k$を列ベクトルとする$n\timesk$の行列${\bfR}$を用いると,求める$k$次元ベクトルは\begin{equation}{\bfu}'={\bfR}^T{\bfu}\end{equation}となり,ランダム・プロジェクションは行列計算のみの簡単な形で表現することができる.この行列${\bfR}$が任意の正規直交行列のとき,すなわち,行列${\bfR}$の列ベクトルがすべて単位ベクトルで,かつ,相異なる列ベクトルが互いに直交していれば,ランダム・プロジェクションは射影前後におけるベクトル間距離を近似的に保存する特性を持っている.
\section{概念ベクトルを用いたランダム・プロジェクション}
ランダム・プロジェクションに必要な行列${\bfR}$は,これまでの研究では正規分布などの確率分布をなす任意の行列が用いられている\cite{Papadimitriou}\cite{Vempala}\cite{Arriaga}\cite{Kleinberg}\cite{Blum}\cite{Feige}.このような行列を用いて任意の部分空間に射影する場合,次元圧縮を行う前後の任意のベクトル間距離は近似的に保存されることが示されている\cite{Frankl}\cite{Johnson}.しかし,任意の正規直交行列を用いる場合,次元圧縮を行う前後のベクトル間距離を保存する効果は得られたとしても,LSIのように,ベクトルの要素が抽象的な意味を持つ索引語の生成や内容的に関連のある文書をまとめる効果があるとは考えられない.このことから,LSIのような,情報検索に有効な索引語を生成するために,ランダム・プロジェクションの改良が課題となる.このような課題を解決するものとして,ランダム・プロジェクションでベクトルを次元圧縮をした後,さらに特異値分解を行うことにより,LSIの効果を得る手法が提案されている\cite{Papadimitriou}.この手法は,関連文書をまとめる効果を得ると同時に,特異値分解のみを用いた場合に比べ,モデル作成に必要な時間を短縮したものである.しかし,ランダム・プロジェクションと特異値分解は,共にベクトル間距離を保存する効果を持つ手法であるため,特異値分解が内容的に関連のある文書,あるいはタームをまとめるために適用されているとしても,これらの手法を同時に利用することは,検索モデルを構築する時間に関して,効率の良い手法であるとはいえない.さらに,非常に大きい次元数をもつ行列について考えた場合,特異値分解に多くの計算量が必要であることも問題となる.したがって,特異値分解により誤差を最小とする近似行列を得る代わりに,誤差は最小ではないものの,ランダム・プロジェクションのみを用いてLSIの効果を得ることで,より高速に検索モデルが構築できるのではないかと考えられる.これを実現するために,我々は,ランダム・プロジェクションにおける行列${\bfR}$に,文書の内容を表現した概念ベクトルを利用することを提案する.概念ベクトルは,文書ベクトル集合をクラスタリングしてできたクラスタの,各クラスタに属する文書ベクトルの重心を正規化したベクトルとして表される.この概念ベクトルによる次元圧縮は,単にベクトルを近似するだけではなく,クラスタに属するベクトル集合の重心を求めることにより,ターム間で特徴づけられる隠れた関連性やタームの同義性と多義性を捉えることができる.クラスタリングにより得られた各クラスタは互いに異なる概念を持ち,これより得られる概念ベクトルが圧縮した空間の軸となるように用いられる.これにより,次元圧縮された行列は文書と概念ベクトルの類似度を表し,元の空間において内容の近い文書は,圧縮した空間においても近くなる可能性がある.また,類似しているが,異なるタームを使った文書の場合,元の空間では近くないが,圧縮した空間では近くなる可能性があり,検索性能が改善されると考えられる.さらに,多義語により元の空間において近いとされる文書どうしが圧縮した空間では遠くに離れ,誤った検索が取り除かれる可能性も期待できる.このように,これまで単語などが要素であったベクトルが,文書の内容を要素とするようなベクトルに変換され,文書を低い次元で,より検索性能が向上するベクトル表現ができると考えられる.概念ベクトルからなる行列${\bfR}$を求めるために,球面$k$平均アルゴリズム\cite{Dhillon}と呼ばれるクラスタリング手法を用いる.球面$k$平均アルゴリズムは,目的関数が局所的に最大となるまで,高い次元でスパースな文書データ集合をクラスタリングする手法である.球面$k$平均アルゴリズムでは,ユークリッド空間内でベクトル間のなす角の余弦を類似度とし,多次元空間の単位円を分割することによりクラスタリングを行う.これにより,文書ベクトルの集合は指定した数の部分集合に分割され,各クラスタの中心を計算することで,容易に概念ベクトルを作ることができる.さらに,このアルゴリズムは文書ベクトルのスパースさを逆に利用して高速に収束する利点を持ち,得られる概念ベクトルは特異値分解を用いたものに非常に近いことが示されている\cite{Dhillon}.しかし,球面$k$平均アルゴリズムにより得られる概念ベクトルは一般的に直交性を満たしているとは限らないため,概念ベクトルをランダム・プロジェクションに適用するには疑問が生じる.先に述べたように,距離を保存するには正規直交性を満たすベクトルを利用する必要があるが,この概念ベクトルをランダム・プロジェクションに適用する場合,直交性を満たしていないとしても独立であれば,任意の行列においても十分に距離を保存する可能性のあることが示されている\cite{Arriaga}.球面$k$平均アルゴリズムでは,内容的に似通ったベクトルをクラスタとしてまとめるため,原理的には独立した概念ベクトルを生成すると考えられる.このため,直交性に関して,概念ベクトルをランダム・プロジェクションに適用するのは問題ないと考えられる.本節では,まず,球面$k$平均アルゴリズムの概要を述べる前に,クラスタリングにより得られる概念ベクトルについて述べる.\subsection{概念ベクトル}ベクトルの集合をベクトル空間にプロットしたとき,同質のベクトルが多く存在する場合を除いて,いくつかのグループに分かれる.このようなグループはクラスタと呼ばれ,類似した内容をもつベクトルの集合が形成される.概念ベクトルはクラスタに属するベクトルの重心を求めることにより得られ,そのクラスタの内容を表す代表ベクトルである.概念ベクトルを求める例として,正規化された$N$個のベクトル${\bfx}_1,{\bfx}_2,\cdots,{\bfx}_N$を,異なる$s\(s<N)$個のクラスタ$\pi_1,\pi_2,\cdots,\pi_s$にクラスタリングすることを考える.このとき,ひとつのクラスタ$\pi_j$に含まれるベクトル$x_i$の平均である重心${\bfm}_j$は以下のように表される.\begin{equation}{\bfm}_j=\frac{1}{n_j}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i\end{equation}ここで$n_j$はクラスタ$\pi_j$に含まれるベクトルの数を表す.ベクトルの重心は単位長にはなっていないので,そのベクトルの長さで割ることにより概念ベクトル${\bfc}_j$を得る.\begin{equation}{\bfc}_j=\frac{{\bfm}_j}{\|{\bfm}_j\|}\end{equation}\subsection{目的関数}\label{moku}$k$平均アルゴリズムでは,目的関数は一般的に概念ベクトルとクラスタに属するベクトルとの距離の和\begin{equation}\sum_{{\bfx}_i\in\pi_j}\|{\bfm}_j-{\bfx}_i\|\end{equation}を最小にするような概念ベクトルを求める,最小二乗法が用いられる.球面$k$平均アルゴリズムでは,このような最小化問題ではなく,ミクロ経済学の分野における,生産計画の最適化問題で扱われている目的関数を用いている\cite{Kleinberg}.これは,各クラスタ$\pi_{j}(1\leqj\leqs)$の密度を\begin{equation}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j\end{equation}とし,クラスタの結合密度の和を目的関数としている.\begin{equation}D=\sum_{j=1}^{s}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j\end{equation}クラスタの密度は,以下のコーシー・シュワルツの不等式より,任意の単位ベクトル${\bfz}$に対して,クラスタ$\pi_j$に含まれるベクトル$x_i$と概念ベクトルとの内積の総和が最大となる.\begin{equation}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfz}\leq\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j\end{equation}また,クラスタの密度は,それに属するベクトル和の距離に等しくなるという特徴を持っている.\begin{equation}\sum_{{\bfx}_i\in\pi_j}{\bfx}_i^T{\bfc}_j=\|\sum_{{\bfx}_i\in\pi_j}{\bfx}_i\|\end{equation}\subsection{球面$k$平均アルゴリズム}\ref{moku}節で示した目的関数$D$を最大にするように,ベクトルの集合を反復法によりクラスタリングする.文書ベクトル${\bfx}_1,{\bfx}_2,\cdots,{\bfx}_N$を$s$個のクラスタ$\pi_1^{\star},\pi_2^{\star},\cdots,\pi_s^{\star}$に分割するためのアルゴリズムを以下に示す.\begin{enumerate}\itemすべての文書ベクトルを$s$個のクラスタに任意に分割する.これらの部分集合を$\{\pi_j^{(0)}\}_{j=1}^{s}$とし,これより求められた概念ベクトルの初期集合を$\{{\bfc}_j^{(0)}\}_{j=1}^{s}$とする.また,$t$を繰り返しの回数とし,初期値は$t=0$である.\item各文書ベクトル${\bfx}_i(1\leqi\leqN$)に対し,余弦が最も大きい,最も文書ベクトルに近い概念ベクトルを見つける.このとき,すべての概念ベクトルは正規化されているので,余弦は文書ベクトル${\bfx}_i$と概念ベクトル${\bfc}_j^{(t)}$の内積を求めることと同値である.これにより,前回の繰り返しで求めた概念ベクトル$\{{\bfc}_j^{(t)}\}_{j=1}^{s}$から,文書ベクトルが新たな部分集合$\{\pi_j^{(t+1)}\}_{j=1}^{s}$に分割される.\begin{equation}\pi_j^{(t+1)}=\{{\bfx}_i:{\bfx}_i^T{\bfc}_j^{(t)}\geq{\bfx}_i^T{\bfc}_l^{(t)}\}\(1\leql\leqN,\1\leqj\leqs)\end{equation}ここで,$\pi_j^{(t+1)}$は概念ベクトル${\bfc}_j^{(t)}$に近いすべての文書ベクトルの集合とする.\item新たに導かれた概念ベクトルの長さを正規化する.\begin{equation}{\bfc}_j^{(t+1)}=\frac{{\bfm}_j^{(t+1)}}{||{\bfm}_j^{(t+1)}||},\\\(1\leqj\leqs)\end{equation}ここで,${\bfm}_j^{(t+1)}$はクラスタ$\pi_j^{(t+1)}$の文書ベクトルの重心を表す.\item目的関数$D^{(t+1)}$の値を求め.前回の繰り返しにおける目的関数の値$D^{(t)}$との差を計算する.このとき,\begin{equation}\|D^{(t)}-D^{(t+1)}\|\leq1\end{equation}を満たす場合,$\pi_j^{\star}=\pi_j^{(t+1)}$,${\bfc}_j^{\star}={\bfc}_j^{(t+1)}$($1\leqj\leqs$)とし,アルゴリズムを終了する.停止基準を超えていない場合は,$t$に1を加え,ステップ2に戻る.ここで,停止基準における目的関数の差は,文書数が約4000で,クラスタの数が8よりも大きい場合,収束した時の目的関数は1000を超えることがこれまでの研究で報告されている\cite{Dhillon}.このため,繰り返しでの1以下の差は無視できるとし,便宜的に1という値を設定した.\end{enumerate}
\section{実験}
本節では,ランダム・プロジェクションを用いた検索モデルを構築し,その評価として,MEDLINEを用いた検索実験について述べる.\subsection{データ}実験で用いたデータは,情報検索システムの評価用テストコレクションであるMEDLINEを利用した.MEDLINEは医学・生物学分野における英文の文献情報データベースで,検索の対象となる文書の件数は1033件で,約1Mbyteの容量を持つテキストデータである.また,MEDLINEには30個の評価用検索要求文と各要求文に対する正解文書が用意されている.MEDLINEに含まれている1033件の文書全体から,前処理として,``a''や``about''などの一般的な439個の英単語を不要語リストに指定して,文書の内容と関係のほとんどない単語は削除した.この後,接辞処理を行い,残った英単語を語幹に変換する処理を行った.この前処理の結果,文書全体に5526個あった単語から,4329個の単語が索引語として抽出され,実験データとして用いた.\subsection{検索実験方法}実験では,MEDLINEから前処理により得られた索引語を要素とする文書ベクトルと検索要求ベクトルを作成し,比較することで検索スコアを計算する.文書ベクトルを作成するとき,ベクトルの要素には局所的,大域的な索引語の分布を考慮するために,索引語の頻度に重み付けした数値が用いられる.数多く提案されている重みづけ手法で,今回の実験では以下の式で定義された対数エントロピー重み\cite{chisholm}を用いた.$L_{ij}$は$j$番目の文書に対する$i$番目の索引語への重み,$G_i$は文書全体に対する$i$番目の索引語への重みを表す.\begin{equation}L_{ij}=\left\{\begin{array}{l}1+\logf_{ij}\\(f_{ij}>0)\\0\\\\\\\\\\\\\(f_{ij}=0)\end{array}\right.\end{equation}\begin{equation}G_i=1+\sum_{j=1}^{n}\frac{\frac{f_{ij}}{F_i}\log\frac{f_{ij}}{F_i}}{\logn}\end{equation}ここで,$n$は全文書数,$f_{ij}$は$j$番目の文書に出現する$i$番目の索引語の頻度,$F_i$は文書集合全体における$i$番目の索引語の頻度を表す.これより,$j$番目の文書から得られる文書ベクトルの$i$番目の要素$d_{ij}$は,\begin{equation}d_{ij}=L_{ij}\timesG_i\end{equation}となる.得られた文書ベクトルから,球面$k$平均アルゴリズムを用い,これらの文書ベクトルより指定された数の概念ベクトルを作成する.作成した概念ベクトルを結合した行列に対し,ランダム・プロジェクションを行い,文書ベクトル,検索要求ベクトルの次元を削減する.次元の削減されたベクトルを用いて,内積の計算を行い,その値を各文書に対する検索スコアとする.これらのスコアのうち,上位50文書を検索結果として出力する.検索システムの評価には,一般的に用いられている正解率(Precision)と再現率(Recall)を用いた\cite{lewis2}\cite{Witten}.\begin{equation}\mbox{Recall}=\frac{システムが出力した正解文書数}{全正解文書数}\end{equation}\begin{equation}\mbox{Precision}=\frac{システムが出力した正解文書数}{システムが出力した文書数}\end{equation}再現率と正解率は,それぞれ個別に用いて,システム評価を行うことができるが,本実験では,一般にランクづけ検索システムの評価に用いられる再現率・正解率曲線を用い,システムの評価を行った.この曲線は,各質問に対しひとつの曲線が作成されるが,本稿の検索システム評価には,全30個の質問に対する各再現率での平均を計算した再現率・正解率曲線を用いた.\vspace*{0.3cm}
\section{実験結果および考察}
\subsection{次元数による比較}本実験では,ランダム・プロジェクションにより,ベクトルの次元を100から900まで圧縮した検索モデルについて,検索実験を行った.その結果,各次元における平均正解率は表\ref{pre_sys}のようになった.平均正解率は,ベクトルの次元が大きくなるにつれて増加し,次元数300において,次元圧縮を行わないベクトル空間モデルよりも良い結果となった.また,次元数が400から500に変化させたときの平均正解率の増加が最も大きく,それ以降は変化の割合が少なくなっている.次元数を大きくすれば,検索に必要な計算量が増加する.このことから,効果的な検索を行うためには,全文書数の約半分に次元圧縮を行う必要があることが分かった.\begin{table}\caption{各次元数における平均正解率}\ecaption{Averageprecisionateachnumberofdimensions}\label{pre_sys}\renewcommand{\arraystretch}{}\centering\begin{tabular}{c|c|c}\hline\hline次元数&ランダム・プロジェクション&平均正解率\\\hline100&あり&0.3982\\200&あり&0.4711\\300&あり&0.5154\\400&あり&0.5231\\500&あり&0.5673\\600&あり&0.5748\\700&あり&0.5822\\800&あり&0.5979\\900&あり&0.6037\\\hline1033&なし&0.4936\\\hline\end{tabular}\end{table}\subsection{検索モデル作成時間}検索モデルを作成する時間,および,一つの検索要求に対し,検索を行うために必要な時間を測定した結果を述べる.検索実験には,UltraSparc(330MHz)のマシンを使用し,ベクトルの次元を500とした結果,表\ref{time}に示すように,ランダム・プロジェクションを用いた場合,モデルを作成する時間は約11分必要であった.LSIの場合,SVDの計算についてはSVDPACKの中で最も高速なLanczos法を利用し,同様にベクトルの次元を500とした結果,モデルを作成する時間は約24分で必要であった.この結果,ランダム・プロジェクションはLSIに比べ,高速に検索モデルを構築することができた.このモデル作成時間においては,メモリサイズの大きさによる,SVDの計算時間に与える影響が考えられる.スワップ領域を用いるほどの大規模なデータについては大きな影響を及ぼし,モデル作成の時間を多く必要とするが,本実験において用いたマシンには640Mバイトのメモリを搭載しているため,MEDLINEコレクションのような規模のデータに対しては,メモリサイズの影響はほとんどないと考えられる.本実験で用いたMEDLINEには収録されているデータは1033件と比較的少ない.このため,文書数を変化させたときの検索モデル構築時間の変化について比較を行った.文書数を増加させるために,MEDLINEと同様なテストコレクションであるCISIを併せた2493記事,さらにCRANFIELDを併せた3893記事について,それぞれの検索モデル作成時間を測定した.その結果,ランダム・プロジェクションとLSIのモデル作成時間は表\ref{model_time}のようになった.これより,文書数が増加に対して球面$k$平均アルゴリズムの1回の反復による計算量が大きくなるのであるが,ランダム・プロジェクションが検索時間に関しても有効であることが分かる.しかし,非常に大規模な文書数に対しては,より1回の反復による計算量が増加するため,反復計算を必要とせずに,球面$k$平均アルゴリズム並の概念ベクトルを得ることが課題となった.\begin{table}\caption{モデル作成時間とひとつの検索要求に対する検索時間}\ecaption{Processingtimeformakingaretrievalmodelandretrievingonequery}\renewcommand{\arraystretch}{}\label{time}\centering\begin{tabular}{c|c|c}\hline\hline手法&モデル作成時間&検索時間\\\hlineランダム・プロジェクション&約2分&4秒\\LSI&約24分&4秒\\\hline\end{tabular}\end{table}\begin{table}\caption{文書数の変化によるモデル作成時間}\ecaption{Processingtimeformakingaretrievalmodelandretrievingonequery}\renewcommand{\arraystretch}{}\label{model_time}\centering\begin{tabular}{l|c|c}\hline\hlineデータ&ランダム・プロジェクション&LSI\\\hlineMEDLINE&約2分&約24分\\MEDLINE+CISI&約14分&約26分\\MEDLINE+CISI+CRANFIELD&約34分&約43分\\\hline\end{tabular}\end{table}\subsection{他の検索モデルとの比較}ランダム・プロジェクションを用いた検索モデルに対して,モデルとしての有効性について評価をする.この評価をするために,次元圧縮をしていない元のベクトル空間モデルと特異値分解を用いたLSIによる検索モデルについての検索実験も同時に行い,性能を比較した.このとき,比較として用いたLSIは,次元数100として次元圧縮した検索モデルを用いている.これらの検索モデルについて,同様に検索実験を行い,すべての検索質問の平均を求めた再現率・正解率曲線を図\ref{re_pre}に示す.図\ref{re_pre}において,横軸は再現率を表し,縦軸は正解率を表す.またグラフの`LSI100'は次元数100のLSI,`VSM'は次元圧縮なしのベクトル空間モデル,`RP500',`RP700',`RP900'はランダム・プロジェクションによるそれぞれに示された次元数に圧縮したモデルの実験結果である.その結果,ベクトル空間モデルと比較して,ランダム・プロジェクションを用いた検索モデルは,大幅に性能が改善されていることが分かった.また,次元数100のLSIと比較すると,ランダム・プロジェクションはLSIに比べ少し下がってはいるものの,ほぼ同じ程度に検索精度が改善されていることを示している.このことから,ランダム・プロジェクションが検索モデルとして,LSIと同等の性能を持っていることが分かる.\begin{figure}[tb]\begin{center}\atari(100,82)\end{center}\caption{モデルに対する再現率・正解率曲線}\ecaption{Recall-Precisioncurveforcomparisonbetweenmodels}\label{re_pre}\end{figure}\subsection{概念ベクトルの有効性}ランダム・プロジェクションで次元圧縮に用いられる概念ベクトルが有効であるかを評価するために,他のベクトルを用いて次元圧縮が行われた場合との検索結果の比較を行った.ベクトルには,乱数を用いて,全要素の平均が0,分散が1の正規分布$N(0,1)$となるベクトルと,指定された数の文書ベクトルを任意に抽出して得られた部分集合からなるベクトルを,それぞれ次元圧縮に用いた.この結果,再現率・正解率曲線は図\ref{concept}となった.ここで,`Random'は正規分布となるベクトル,`Subset'は文書ベクトルの部分集合を表し,共にベクトルの次元数は500として,次元圧縮を行ったモデルの実験結果である.また,サンプルに使った文書集合の偏りを考慮するため,グラフに示した実験でのベクトルの他にいくらかのサンプルを用意し,同様の実験を行い,平均的な検索精度を求めた.その結果,正規分布による任意のベクトルにおける平均正解率の平均値は0.38,文書ベクトルの部分集合における平均値は0.47となった.このグラフと平均値から,正規分布の性質を持つ任意のベクトルや文書ベクトルの部分集合を用いて次元圧縮を行った結果とそれぞれ比較すると,概念ベクトルを用いて次元圧縮を行った結果が,明らかに優れていることが分かる.乱数により生成したベクトルを用いた場合,これらのベクトルの各要素には,索引の重要度や索引語間の関連性はほとんど存在しない.このようなベクトルにより次元圧縮を行う場合,ベクトルの要素には文書の内容を表すような潜在的な意味がほとんど含まれていないために,検索性能が下がってしまったと考えられる.文書ベクトルの部分集合を用いた場合は,次元圧縮後,ベクトル中のいくつかの要素が似通った意味を持っているために,検索性能が下がったと考えられる.概念ベクトルは,内容の似通った文書がクラスタリングによりひとつにまとめられ,それらの重心を求めることで,文書の内容を端的に表すことができる.また,クラスタリングを行うことで似通った内容を持つ概念ベクトルが少なくなるため,内容がほとんど変わらない概念ベクトルを重複して生成する可能性が少ない.しかし,文書の部分集合では,内容の重複した文書が複数存在する可能性がある.このため,次元圧縮後のベクトル空間モデルに意味の重なった要素が存在し,検索性能が下がってしまう可能性が大きくなってしまうと考えられる.これらのことにより,情報検索に対してランダム・プロジェクションを用いて次元圧縮を行う場合,内容の近い文書や同義語などのような索引語の特徴を表した概念ベクトルを用いることにより,優れた検索性能が得られることが示された.\begin{figure}[tb]\begin{center}\atari(90,75)\end{center}\caption{概念ベクトルに対する再現率・正解率曲線}\ecaption{Recall-Precisioncurveforcomparisonbetweenvectors}\label{concept}\end{figure}
\section{おわりに}
本論文では,ベクトル空間モデルの次元圧縮手法として,ランダム・プロジェクションを用いた検索モデルを提案した.このモデルの有効性を評価するために,MEDLINEを利用した検索実験を行った.その結果,次元圧縮していない元のベクトル空間モデルと比べ検索精度が改善されていることが分かった.また,LSIと比較しても,検索精度の差は少なく,ランダム・プロジェクションがLSIと同程度の次元圧縮性能を持っていることが分かった.LSIとランダム・プロジェクションのモデル作成,検索に必要な時間を比較すると,LSIは特異値分解を行うこともあり,ランダム・プロジェクションはLSIに比べ約半分の時間で検索を行うことができた.また,MEDLINEよりも大規模な文書集合に対しても,ランダム・プロジェクションが高速に検索モデルが構築することができる.これらのことから,ランダム・プロジェクションはLSIに比べ,高速,かつ有効な次元圧縮手法であることが分かった.また,ランダム・プロジェクションで次元圧縮に必要な行列を得るために,球面$k$平均アルゴリズムで得られる概念ベクトルの利用を提案し,その有効性を検索実験にて評価した.その結果,乱数により生成したベクトルや文書ベクトルの部分集合を用いた場合に比べ,検索精度が優れていた.文書間の内容などの特徴を表した概念ベクトルを用いることで,その概念における索引語の分布を,ベクトルのひとつの要素として表現することができる.これより,ランダム・プロジェクションを用いて検索モデルを構築するとき,概念ベクトルが潜在的な意味を有効にとらえることができることが分かった.今後の研究課題としては,まず,球面$k$平均アルゴリズムは初期段階での分割に非常に大きな影響を及ぼす可能性があるため,初期分割に依存しない有効な概念ベクトルの生成方法を考慮し,より有効な次元圧縮を実現が可能であると考えられる.さらに,より有効な次元圧縮を行うために,評価用データの解答やユーザの評価をフィードバック情報として,概念ベクトルの調節を行った検索モデル\cite{Vogt}\cite{Tai}を構築することが挙げられる.\bibliographystyle{jnlpbbl}\bibliography{sankou}\begin{biography}\biotitle{略歴}\bioauthor{佐々木稔}{1973年生.1996年徳島大学工学部知能情報工学科卒業.1998年徳島大学大学院博士前期課程修了.同年,徳島大学大学院博士後期課程入学,現在に至る.機械学習,情報検索等の研究に従事.情報処理学会会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同教授.工学博士.確率・統計的自然言語処理,情報検索等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N02-03
|
\section{はじめに}
従来の中国語構文解析では,文脈自由型句構造文法CFG(ContextFreePhraseStructureGrammar)で文の構造を取り扱うことが一般的となっている.しかし,句構造文法PSG(PhraseStructureGrammar)\footnote[1]{通常,句構造文法という用語は生成文法(変形文法),依存構造文法などと並べれて論じられ,GPSG,HPSG等の単一化文法理論を含む文法記述の枠組み,もしくは形式言語におけるチョムスキーの階層に関する文法記述の枠組みを表す.本論文では,句構造文法という用語を,「文を逐次的に句などの小さい単位に分割し,文を階層的な句構造によって再帰的な構造上の関係に還元して説明する考え方」の意味で用いる.}により構築した文法体系では,規則の衝突による不整合が避けられず,曖昧性は大きな問題となっている.中国語構文解析に関する研究はチョムスキーの文脈自由文法CFGを取り入れて始められた.しかし,中国語には次の特徴があり,CFGで中国語文構造を取り扱うと,曖昧性が顕著である.\begin{itemize}\item文はそのまま主部,述部,目的語になれる\cite{zhu1}.\item動詞や形容詞は英語のような動詞や形容詞の語尾変化などの形態的変化がない\cite{zhu1}.\item動詞など複数の品詞を持つ単語が多く,しかも頻繁に使用される\cite{zhou2}.\end{itemize}そのため,文脈自由文法で記述した規則は再帰性が強く,しかも構文的制限が非常に緩やかであり,文脈自由文法に基づいたパーザを用いて構文解析を行なうと,動詞や形容詞の数が増えるにつれて,曖昧性は爆発的に増大するという問題がある\cite{masterpaper}\cite{yang}.構文解析部の実装に関しては,コーパスに基づく手法と規則に基づく手法とがあるが,中国語処理においては,コーパスに基づく手法が主流となっている\cite{huang}.なかでも,確率文脈自由文法PCFG(ProbabilisticContextFreeGrammar)がよく用いられている\cite{ictprop1}\cite{xiong}\cite{linying}\cite{chenxiaohui}.しかし,確率的手法に基づく解析では,分野依存性が強く,精度上の限界がある.一方,規則に基づく手法では,西欧言語を対象とする解析手法を直接中国語に使用するのは問題があるため,中国語に適応した方法が模索されている段階にある\cite{zhang}.このような中国語構文解析における課題を解決することが中国語処理の発展に必要である.そのため,中国語において,コンピュータにより効率的に処理できる構文解析用の文法体系を構築することは大きな意義がある.本論文では,文構造において述語動詞(または形容詞)を中心とし,すべての構文要素を文のレベルで取り扱う{\bf文構造文法}{\bfSSG}(\underline{S}entence\underline{S}tructure\underline{G}rammar)を提案する.そして,SSGの考え方に基づき中国語におけるSSG文法規則体系を構築し,それを構造化チャートパーザSchart~\cite{schart}上に実装し,評価実験を行った.SSG規則は互いに整合性がよく,品詞情報と文法規則のみで解析の曖昧性を効果的に抑止し,PCFGに基づく構文解析より高い正解率が得られた.
\section{PSG文法規則体系に基づく構文解析の問題点}
\subsection{PSG文法規則の特徴}PSG文法の方法論は,文法事実を句構造(階層構造)に基づく構造上の関係に還元して説明することである.すなわち,文という単位は主語と述語からなり,主語や述語はさらに名詞句や動詞句などからなるというように,文の構造を全体から細部まで句の形で順次規定していく.この方法論では文レベルの規則は少なく,荒く,言語現象をカバーしていくのに,主に句レベルの規則を拡張することになる.以下に中国語におけるPSG文法規則の例をあげる.規則に現れるシンボルの意味を表~\ref{tab:cpos}に示す.例えば文(1A)を解析するには,規則(1a),(1b),(1c),(1d)の4つのPSG規則が必要である.\begin{table}[b]\centering\caption{記号とその意味の対応表}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{品詞の表示}&\multicolumn{1}{|c|}{対応品詞}\\\hlines&文\\np&名詞句\\vp&動詞句\\sp&場所詞句\\pp&介詞句\\n&名詞\\v&動詞\\r&人称代名詞\\a&形容詞\\d&副詞\\p&介詞\\zv&助動詞\\sq&場所詞\\y&語気詞\\\hline\end{tabular}\label{tab:cpos}\end{table}文(1B)と文(1C)を解析するには規則(1e)と規則(1f)を加える必要があり,動詞句の規則を拡張することになる.\def\ya{}\def\文(#1){}\def\規則(#1){}\def\インデント{}\begin{quotation}\noindent\文(1A)小王/n出来/v了/y(王さんは出た)\\\文(1B)小王/n走/v出来/v了/y(王さんは歩いて出た)\\\文(1C)小王/n也/d走/v出来/v了/y(王さんも歩いて出た)\\\規則(1a)s\yanpvp\\\規則(1b)s\yasy\\\規則(1c)np\yan\\\規則(1d)vp\yav\\\規則(1e)vp\yavpvp\\\規則(1f)vp\yadvp\\\end{quotation}そのため,PSG文法規則体系では,文規則(文sを生成する規則)の数はわずかであり,文規則の数と句規則(動詞句vpなどの句を生成する規則)の数の分布は図\ref{fig:psgpyra}のようなピラミッド型になっている.\begin{figure}[t]\begin{center}\includegraphics[width=4cm]{1.eps}\caption{PSG文法規則体系における規則の分布}\label{fig:psgpyra}\end{center}\end{figure}\subsection{PSGによる構文解析の問題点}構文解析を行なう際,文脈自由文法CFGが最もよく使われてきた.CFG文法に基づく構文解析における最も大きな問題点は,文法規則を拡張することで他の規則との衝突を引き起し,解析の曖昧性を増大させることである.しかも入力文が長くなるにつれて,規則間の不整合は顕著となり,曖昧性は爆発的に増大する.PSG文法規則における規則の特徴に注目すると,その必然性が分かる.PSGの方法論で構築した文法規則体系においては,文法現象をさらにカバーしていくために,主に句規則を増やすことになり,文規則の数はあまり変わらない.したがって,文規則の数は句規則に比べると,図~\ref{fig:psgpyra}に示すようにわずかしかない.そのため句レベルではその単語間の組み合わせは多種多様になるのにもかかわらず,文レベルでは相変わらずそれをわずかな文規則で解釈することになる.言い替えれば,1つの入力文において,句のレベルでは多くの句規則で解析され多数の解釈があるのにもかかわらず,文のレベルでは,わずかな文規則でそれをまとめている.PSGによる文法記述体系のこのような特徴が,曖昧性の原因となっている.具体例を以下にあげる.文(1C)「小王/n也/d走/v出来/v了/y(王さんも歩いて出た)」を解析するために,規則(1e)と規則(1f)を加えなければならないが,図~\ref{fig:amb}に示すように,曖昧性が生じてしまう.\begin{figure}[t]\begin{center}\includegraphics[width=11cm]{2.eps}\caption{PSG文法規則における文(1C)の構文解析結果}\label{fig:amb}\end{center}\end{figure}
\section{文構造文法規則体系SSGの基本的考え方}
本章では,文構造文法SSG(SentenceStructureGrammar)を提案する.SSGの基本的な考え方は以下の2点である.\begin{itemize}\item自然言語において文表現は無限であるが,それを有限な文構造規則で記述できる.\item文構造規則は述語動詞または形容詞を中心とし,すべての構文要素を文構造規則内に記述する.\end{itemize}SSGでは,文(1A)を解析する文法規則を(2a),(2b),(2c)のように記述する.さらに文(1B),文(1C)を解析するために,規則(2d),規則(2e)をそれぞれ加える.\begin{quotation}\noindent\文(1A)小王/n出来/v了/y(王さんは出た)\\\文(1B)小王/n走/v出来/v了/y(王さんは歩いて出た)\\\文(1C)小王/n也/d走/v出来/v了/y(王さんも歩いて出た)\\\規則(2a)s\yanpv\\\規則(2b)s\yasy\\\規則(2c)np\yan\\\規則(2d)s\yanpvv\\\規則(2e)s\yanpdvv\\\end{quotation}PSG規則(1a),(1b),(1c),(1d),(1e),(1f)とSSG規則(2a),(2b),(2c),(2d),(2e)を比較してみると,以下の違いがある.\begin{itemize}\item文規則の記述形式が異なる.\item文を拡張するのに,PSG規則は動詞句規則を増やすのに対して,SSG規則では文規則を増やす.\itemPSG規則では動詞句規則が多く,文規則が少ない.一方,SSG規則では,動詞句規則が少なく,文規則が多い.\itemPSG規則は互いに整合が悪く,曖昧性が生じる.SSG規則は規則間で整合性がよく,曖昧性が生じない.\end{itemize}文(1C)をSSG規則(2b),(2c),(2e)で解析した場合,図~\ref{fig:ssgres}のように1つの構文木しか生成されず,規則の拡張によって引き起こされる曖昧性を抑制することができる.SSGによって,規則間で整合性のよい文法規則体系を構築することが期待される.\begin{figure}[t]\begin{center}\includegraphics[width=6cm]{3.eps}\caption{SSG文法規則における文(1C)の構文解析結果}\label{fig:ssgres}\end{center}\end{figure}
\section{中国語におけるSSG文法規則体系の設計}
本章では,SSGの基本的な考え方に基づいて,どのような点を考慮して,中国語におけるSSG規則体系を設計したかについて述べる.\subsection{中国語の文表現モデル}\begin{figure}[b]\centering\includegraphics[width=8cm]{4.eps}\caption{中国語における文表現モデル}\label{fig:cmodel}\end{figure}中国語の文表現を図~\ref{fig:cmodel}のようにモデル化した.まず,文を{\bf主部Subj},{\bf述部Pred},{\bf状態部Z},{\bf語気詞部Y}に分ける.主部Subjは{\bf主語S}から,述部Predは{\bf補語C},{\bf目的語O},{\bf述語P}から構成される.状態部Zは{\bf時間詞句tp},{\bf介詞句pp},{\bf《地》字句dp},{\bf助動詞zv},{\bf副詞d},{\bf否定判断辞jf}から,語気詞部Yは{\bf語気詞y}から構成される.主部は文の前方,述部は文の後方,状態部は述部の直前に位置する.語気詞は文末に置かれ,語気詞を除く文全体を受ける.さらにこれらの要素を,{\bf骨格部}と{\bf非骨格部}にわける.骨格部とは文が成り立つために欠かすことのできない部分であり,主部Sと述部Pがこれにあたる.非骨格部とはなくても文が成り立つ部分であり,状態部Zと語気詞部Yがこれにあたる.\subsection{構文要素の定義}構文要素は文を構成する成分であり,ここでは,構文要素をさらに必須構文要素と自由構文要素に分ける.必須構文要素は骨格部(主部と述部)となる構文要素であり,主語S,述語P(動詞または形容詞),補語C,目的語Oの4つである.自由構文要素は非骨格部(状態部と語気詞部)となる構文要素である.\begin{itemize}\item{\bf主語S}\\主語Sは主語となる句の性質によって以下の5種類に分類している.\begin{description}\item[名詞句主語Sn]名詞句からなる主語\\例:「車修了(車は修理された)」という文の主語「車」は名詞句である.\item[動詞句主語Sv]動詞句からなる主語\\例:「開車応守規則(運転する際,規則を守るべきだ)」という文の主語「開車(車を運転する)」は動詞句である.\item[形容詞主語Sa]形容詞からなる主語\\例:「謙虚是一種美徳(謙虚は美徳である)」という文の主語「謙虚」は形容詞である.\item[場所主語Ssp]場所詞句からなる主語\\例:「我家来人了(我が家に誰かが来た)」という文の主語「我家(我が家)」は場所詞句である.\item[文主語Ss]文からなる主語\\例:「他現在去也不晩(彼が今行っても遅くない)」という文の主語「他現在去(彼が今行く)」は文である.\end{description}\item{\bf述語P}\\述語は述語動詞と述語形容詞の2種類に分類している.\begin{description}\item[述語動詞v]動詞である述語\item[述語形容詞a]形容詞である述語\end{description}\item{\bf補語C}\\補語は5種類に分類している.\begin{description}\item[結果補語Cj]動作または変化によって生じた結果\\動詞及び形容詞が結果補語になることができる.\\例:「論文写完了(論文は書き終った)」という文のなかで,「完(終る)」という動詞は「写(書く)」という動作によって生じた結果を表し,結果補語である.\item[方向補語Cf]方向を表す動詞などからなる補語\\「上(上がる)」,「下(下がる)」,「来(くる)」,「去(行く)」などがある.\\例:「他買東西去了(彼は買物をしに行った)」という文の場合,「去(行く)」という動詞は「買(買う)」という動詞の方向補語である.\item[可能補語Ck]結果補語または方向補語に「得」,「不」を前置したもの\\例:「論文写不完(論文は書き終わらない)」という文の「不完(終わらない)」は可能補語である.\item[様態補語Cq]動詞または形容詞に「得」が後置され,文などが導かれるもの\\すべて動作や状態の結果または程度を表す.\\例:「他急得出汗了(彼は汗をかくくらい焦っている)」という文では,「出汗了(汗をかく)」は様態補語である.\item[介詞句補語Cp]介詞句が動詞または形容詞の後に用いられたもの\\例:「他来自中国(彼は中国から来た)」という文の場合,介詞句「自中国(中国から)」は動詞「来(来る)」の後に位置し,介詞句補語である.\end{description}\item{\bf目的語O}\\目的語は5種類に分類している.\begin{description}\item[名詞性目的語On]名詞句からなる目的語\\例:「他写論文(彼は論文を書く)」という文では,「論文」は名詞句目的語である.\item[場所目的語Osp]場所詞句からなる目的語\\例:「他去学校(彼は学校へ行く)」という文では,「学校」は場所を表す場所目的語である.\item[時間目的語Otp]時間詞句からなる目的語\\例:「他喜歓春天(彼は春が好きだ)」という文の中では,「春天(春)」が時間詞からなる時間目的語である.\item[動詞句目的語Ov]動詞句からなる目的語\\例:「他忘記買票了(彼はチケットを買うのを忘れた)」という文では,「買票(チケットを買う)」という動詞句が動詞「忘記(忘れる)」の目的語である.\item[文目的語Os]文からなる目的語\\例:「我想他一定走了(私は彼がきっと行ったと思う)」という文では,「他一定走了(彼がきっと行った)」という文は動詞「想(思う)」の目的語となる.\end{description}\item{\bf自由構文要素}\\自由構文要素には以下のものがある.\begin{description}\item[時間詞句tp]主語と述語の間に位置する時間詞句\\例:「他今天回国(彼は今日帰国する)」という文では,「今天(今日)」は時間詞句である.\item[介詞句pp]主語と述語の間に位置する介詞句\\例:「他在新潟住(彼は新潟に住んでいる)」という文の中で,「在新潟(新潟に)」は介詞句である.\item[《地》字句dp]主語と述語の間に位置する「地」字句\\例:「他静静地看着書(彼は静かに本を読んでいる)」という文では,「静静地(静かに)」は《地》字句である.\item[助動詞zv]主語と述語の間に位置する助動詞\\例:「他能説日語(彼は日本語をしゃべれる)」という文では,「能(できる)」は助動詞である.\item[否定判断辞jf]主語と述語の間に位置する否定判断辞\\例:「他不能説日語(彼は日本語をしゃべれない)」という文では,「不(ない)」は否定判断辞である.\item[副詞d]主語と述語の間に位置する副詞\\例:「他也不能説日語(彼も日本語をしゃべれない)」という文では,「也(も)」は副詞である.\item[語気詞y]語気詞を除いた文全体を受ける語気詞\\例:「他去中国了(彼は中国に行った)」という文では,「了」は語気詞で,文末に位置して,文全体を受ける.\end{description}\end{itemize}\subsection{文構造規則基本形式とその拡張}文構造規則は述語を中心とし,すべての構文要素を記述する.その基本形式は以下の3つである.疑問符「?」は選択要素であることを意味し,省略可能である.\begin{quotation}\noindent基本形式1:文s\ya主語S\状態部Z?述語動詞v補語C?目的語O?目的語O?\\基本形式2:文s\ya主語S\状態部Z?述語形容詞a補語C?\\基本形式3:文s\ya文s\語気詞部Y?\end{quotation}文構造規則の基本形式から,さらに以下の8つの基本の文構造に分けられる.\begin{quotation}\noindents\yaSv\\s\yaSvC\\s\yaSvO\\s\yaSvOO\\s\yaSvCO\\s\yaSvCOO\\s\yaSa\\s\yaSaC\end{quotation}主語S,補語C,目的語Oをさらに詳細化することで,この8つの基本構造が,多数の文構造に分けられている.例えば,\begin{quotation}\noindents\yaSvC\end{quotation}という構造は\begin{quotation}\noindents\yaSnvCj\\s\yaSnvCf\\s\yaSnvCk\\s\yaSnvCq\\s\yaSnvCp\end{quotation}の5つの文構造に詳細化されている.また,必須構文要素と自由構文要素の組合せによって,文構造規則を適宜追加する.たとえば,以下に示す文(3A)は主語S,述語v,目的語Oからなる単純な文であり,規則(3a)に対応する.この文に時間に関する情報(時間詞句tp)をいれたものが文(3B)である.これを解析するために規則(3b)を追加する.同様に介詞句,《地》字句,助動詞,否定判断辞,副詞,語気詞を1つずつ文(3A)に加えることで文(3C),(3D),(3E),(3F),(3G),(3H)が生成されるが,これらを解析するために規則(3c),(3d),(3e),(3f),(3g),(3h)の文規則を追加する.文(3I)のような複数の自由構文要素を持つ文を解析するために,規則(3i)のように文構造規則を記述する.\begin{quotation}\noindent\文(3A)我/r写/v字/n(わたしは字を書く)\\\文(3B)我/r晩上/t写/v字/n(わたしは夜に字を書く)\\\文(3C)我/r用/p筆/n写/v字/n(わたしは筆で字を書く)\\\文(3D)我/r静静/z地/uv写/v字/n(わたしは静かに字を書く)\\\文(3E)我/r会/zv写/v字/n(わたしは字を書くことができる)\\\文(3F)我/r不/jf写/v字/n(わたしは字を書かない)\\\文(3G)我/r也/d写/v字/n(わたしも字を書く)\\\文(3H)我/r写/v字/n了/y(わたしは字を書いた)\\\文(3I)~我/r也/d会/zv用/p筆/n写/v字/n了/y(わたしも筆で字を書くことがで\hspace*{4zw}~きた)\\\規則(3a)s\yaSnvOn\\\規則(3b)s\yaSntpvOn\\\規則(3c)s\yaSnppvOn\\\規則(3d)s\yaSndpvOn\\\規則(3e)s\yaSnzvvOn\\\規則(3f)s\yaSnjfvOn\\\規則(3g)s\yaSndvOn\\\規則(3h)s\yasy\\\規則(3i)s\yaSndzvppvOn\end{quotation}このように,文を構成する構文要素に応じて文規則を適宜拡張していく.\subsection{文構造規則体系}中国語のSSG文法規則は文構造規則,構文要素規則,句構造規則の3階層で構成される.例えば以下に示す文(4A)は,文構造規則(4a),構文要素規則(4b),(4c),句構造規則(4d),(4e),(4f),(4g)によって解析される.文法中の記号の意味は表~\ref{tab:cpos}に示す.\begin{quotation}\noindent\文(4A)我/r在/p家/sq看/v電視/n(わたしは家でテレビを見る)\\\規則(4a)s\yaSnppvOn\\\規則(4b)Sn\yanp\\\規則(4c)On\yanp\\\規則(4d)np\yan\\\規則(4e)np\yar\\\規則(4f)pp\yapsp\\\規則(4g)sp\yasq\end{quotation}\begin{figure}[t]\begin{center}\includegraphics[width=5cm]{5.eps}\caption{「我/r在/p家/sq看/v電視/n」の解析結果}\label{fig:wotv}\end{center}\end{figure}SSG文法規則に階層を持たせることで,文法規則の見通しがよくなり,規則の管理が容易になるといった利点がある.また図~\ref{fig:wotv}に示すように構文木の構成が分かりやすく,意味解析との整合性もよい.\subsection{SSGとPSGとの比較}SSGとPSGの比較を以下にまとめる.\subsubsection{方法論の違い}PSGでは,文を逐次的に小さい単位に分割し,それを還元する.SSGでは,述語を中心に構文要素を文構造規則内に記述する.\subsubsection{規則の拡張}PSGでは,句規則を拡張することによって,言語現象をカバーして行く.SSGでは,動詞句規則の代わりに主に文構造規則を増やすことで文法規則を拡張する.\subsubsection{規則の分布}PSGでは,名詞句規則と動詞句規則などの句規則は圧倒的多く,文規則が少ない.規則の分布は図~\ref{fig:psgpyra}のようになる.SSGでは,表~\ref{tab:nrule}に示すように文構造規則が中心となっており,動詞句規則は少ない.規則の分布は図~\ref{fig:ssgpyra}のようになる.\begin{table}[b]\begin{center}\caption{中国語SSG規則体系における規則の分布}\begin{tabular}{|c|c|c|c|c|}\hline総規則数&文構造規則数&動詞句規則数&その他\\\hline807&565&24&218\\\hline\end{tabular}\label{tab:nrule}\end{center}\end{table}\begin{figure}[b]\begin{center}\includegraphics[width=4cm]{6.eps}\caption{SSG文法規則体系における規則の分布}\label{fig:ssgpyra}\end{center}\end{figure}\subsubsection{規則間の整合性}PSGでは,規則は互いに衝突し,曖昧性の発生が顕著である.SSGでは,規則は互いに整合性がよく,曖昧性の発生が少ない.以下に例をあげる.PSG規則で文(5A)を解析するには,規則(5a),(5b),(5c),(5d)が必要である.介詞句を含む文(5B)を解析するためには,さらに動詞句規則(5e)が必要になる.\begin{quotation}\noindent\文(5A)論文/n写/v完/v了/y(論文を書き終った)\\\文(5B)論文/n在/p学校/sq写/v完/v了/y(論文を学校で書き終った)\\\規則(5a)s\yanpvp\\\規則(5b)s\yasy\\\規則(5c)np\yan\\\規則(5d)vp\yavv\\\規則(5e)vp\yappvp\end{quotation}SSG規則で文(5A)を解析するには,文規則(5f),(5g),(5h)が必要である.介詞句を含む文(5B)を解析するためには,さらに文規則(5i)が必要になる.PSGの場合は拡張された規則が元の規則と衝突し,曖昧性が生じた.一方SSGでは,拡張された規則は元の規則との整合性がよく,曖昧性が生じない.\begin{quotation}\noindent\規則(5f)s\yanpvv\\\規則(5g)s\yasy\\\規則(5h)np\yan\\\規則(5i)s\yanpppvv\end{quotation}\subsection{動詞の分類とその曖昧性解消効果}中国語では,動詞句が異なる統語構造を持っていても,動詞の形態は変わらない.例えば,以下に示す文(6A)と文(6B)はいずれも[nvnvn]と品詞から構成されており,文の統語構造も異なるが,動詞の形態的変化はない.文(6A)は「教(教える)」が述語動詞で,「小王(王さん)」は述語動詞「教(教える)」の対象を表す名詞目的語,「唱歌(うたを歌う)」は述語動詞「教(教える)」の内容を表す動詞目的語であり,その文構造規則が規則(6a)である.一方で,文(6B)では「小王(王さん)」は述語動詞「選(選ぶ)」目的語でありながら,後ろの「当代表(代表となる)」の主語でもある.文構造規則では,「小王当代表(王さんが代表となる)」は文であり,「小王当代表」という文全体を述語動詞「選(選ぶ)」の目的語とした.文(6B)に対応する文構造規則が規則(6b)である.この場合文(6A),(6B)は規則(6a),(6b)の両方に適合し,2つの構文木を生成して曖昧性が生じる.\begin{quotation}\noindent\文(6A)小李/n教/v小王/n唱/v歌/n\\\インデント(李さんは王さんに歌を唱うことを教える)\\\文(6B)小李/n選/v小王/n当/v代表/n\\\インデント(李さんは王さんを代表として選ぶ)\\\規則(6a)s\yaSnvOnOv\\\規則(6b)s\yaSnvOs\\\end{quotation}2つの文の述語動詞を注目すると,以下のことが分かる.すなわち,文(6A)の述語動詞「教(教える)」は2つの目的語,名詞性目的語Onと動詞性目的語Ovをとれるが,文目的語Osをとれない.文(6B)の述語動詞「選(選ぶ)」は文目的語Osをとれるが,2つの目的語,名詞性目的語Onと動詞性目的語Ovをとれない.したがって,動詞「選」の品詞をv\_Osに,「教」の品詞をv\_On\_Ovに詳細化し,規則(6a),(6b)を規則(6a'),(6b')に書き換えることによって,この種の曖昧性を解消できる.\begin{quotation}\noindent\規則(6a')s\yaSnv\_OsOs\\\規則(6b')s\yaSnv\_On\_OvOnOv\end{quotation}動詞を詳細化しない場合,文(6A),(6B)からは図~\ref{fig:amb2}に示す2つの構文木が得られたが,動詞を詳細化した場合は図~\ref{fig:disamb}に示すように文(6A),(6B)からそれぞれ1つずつの構文木が得られ,曖昧性が解消された.\begin{figure}[b]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics[width=5.5cm]{7.eps}\caption{動詞分類前の構文木}\label{fig:amb2}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics[width=5.5cm]{8.eps}\caption{動詞分類後の構文木}\label{fig:disamb}\end{center}\end{minipage}\end{figure}中国語SSG文法では,ここにあげた文構造規則(6a'),(6b')のように,文の中心となる述語動詞や述語形容詞に必須構文要素(主語S,補語C,目的語O)を加えた規則を,文構造規則として記述した.さらに文構造を細分化するため,動詞を文型情報によって分類した.たとえば動詞「選(選ぶ)」には,以下に示す文型の文を解析できるように,[vv\_Cjv\_Cfv\_Ckv\_Onv\_Cj\_Onv\_Cf\_Onv\_Ck\_Onv\_Os]の9種類の品詞を与えた.\begin{quotation}\noindent\文(7A)代表/n選/v了/y(代表は選ばれた)\\\文(7B)代表/n選/v\_Cj完/vb了/y(代表は選び終った)\\\文(7C)代表/n選/v\_Cf出来/vf了/y(代表は選び出した)\\\文(7D)代表/n選/v\_Ck不/jf出来/vf了/y(代表は選び出せなかった)\\\文(7E)大家/n選/v\_On代表/n(みんなは代表を選ぶ)\\\文(7F)大家/n選/v\_Cj\_On完代表/n了/y(みんなは代表を選び終った)\\\文(7G)大家/n選/v\_Cf\_On出来代表/n了/y(みんなは代表を選び出した)\\\文(7H)~大家/n選/v\_Ck\_On不/jf出来/vf代表/n了/y(みんなは代表を選び出せな\hspace*{4zw}~かった)\\\規則(7a)s\yaSnvy\\\規則(7b)s\yaSnv\_CjCjy\\\規則(7c)s\yaSnv\_CfCjy\\\規則(7d)s\yaSnv\_CkCky\\\規則(7e)s\yaSnv\_OnOny\\\規則(7f)s\yaSnv\_Cj\_OnCjOny\\\規則(7g)s\yaSnv\_Cf\_OnCfOny\\\規則(7h)s\yaSnv\_Ck\_OnCkOny\end{quotation}中国語SSGでは,動詞をそのとりうる文構造によって33種に分類した.また,方向補語や結果補語になれる動詞,名詞と複合名詞になれる動詞は一部しかないため,それぞれにvf,vb,vmの品詞をつけた.表~\ref{tab:vsys}に中国語SSGにおける動詞の分類を示す.\begin{table}[t]\centering\caption{述語動詞の分類}\footnotesize\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c|}{述語動詞}&\multicolumn{1}{|c|}{取れる構文要素}&\multicolumn{1}{|c|}{文構造規則}\\\hlinev&名詞性主語&s\yaSnv\\v\_Cj&名詞性主語,結果補語&s\yaSnv\_Cj\\v\_Cf&名詞性主語,方向補語&s\yaSnv\_CfCf\\v\_Ck&名詞性主語,可能補語&s\yaSnv\_CkCk\\v\_Cq&名詞性主語,状態補語&s\yaSnv\_CqCq\\v\_Cp&名詞性主語,介詞句補語&s\yaSnv\_CpCp\\v\_On&名詞性主語,名詞句目的語&s\yaSnv\_OnOn\\v\_Ov&名詞性主語,動詞句目的語&s\yaSnv\_OvOv\\v\_Os&名詞性主語,文目的語&s\yaSnv\_OsOs\\v\_Osp&名詞性主語,場所目的語&s\yaSnv\_OspOsp\\v\_Otp&名詞性主語,時間目的語&s\yaSnv\_OtpOtp\\v\_On\_On&名詞性主語,名詞句目的語,名詞句目的語&s\yaSnv\_On\_OnOnOn\\v\_On\_Ov&名詞性主語,名詞句目的語,動詞句目的語&s\yaSnv\_On\_OvOnOv\\v\_Cj\_On&名詞性主語,結果補語,名詞句目的語&s\yaSnv\_Cj\_OnCjOn\\v\_Cf\_On&名詞性主語,方向補語,名詞句目的語&s\yaSnv\_Cf\_OnCfOn\\v\_Ck\_On&名詞性主語,可能補語,名詞句目的語&s\yaSnv\_Ck\_OnCkOn\\v\_Cj\_Ov&名詞性主語,結果補語,動詞句目的語&s\yaSnv\_Cj\_OvCjOv\\v\_Cf\_Ov&名詞性主語,方向補語,動詞句目的語&s\yaSnv\_Cf\_OvCfOv\\v\_Ck\_Ov&名詞性主語,可能補語,動詞句目的語&s\yaSnv\_Ck\_OvCkOv\\v\_Cj\_Osp&名詞性主語,結果補語,場所目的語&s\yaSnv\_Cj\_OspCjOsp\\v\_Cf\_Osp&名詞性主語,方向補語,場所目的語&s\yaSnv\_Cf\_OspCfOsp\\v\_Ck\_Osp&名詞性主語,可能補語,場所目的語&s\yaSnv\_Ck\_OspCkOsp\\v\_Cj\_Otp&名詞性主語,結果補語,時間目的語&s\yaSnv\_Cj\_OtpCjOtp\\v\_Cf\_Otp&名詞性主語,方向補語,時間目的語&s\yaSnv\_Cf\_OtpCfOtp\\v\_Ck\_Otp&名詞性主語,可能補語,時間目的語&s\yaSnv\_Ck\_OtpCkOtp\\v\_Cj\_On\_On&名詞性主語,結果補語,名詞句目的語,名詞句目的語&s\yaSnv\_Cj\_On\_OnCjOnOn\\v\_Cf\_On\_On&名詞性主語,方向補語,名詞句目的語,名詞句目的語&s\yaSnv\_Cf\_On\_OnCfOnOn\\v\_Ck\_On\_On&名詞性主語,可能補語,名詞句目的語,名詞句目的語&s\yaSnv\_Ck\_On\_OnCkOnOn\\v\_Cj\_On\_Ov&名詞性主語,結果補語,名詞句目的語,動詞句目的語&s\yaSnv\_Cj\_On\_OvCjOnOv\\v\_Cf\_On\_Ov&名詞性主語,方向補語,名詞句目的語,動詞句目的語&s\yaSnv\_Cf\_On\_OvCfOnOv\\v\_Ck\_On\_Ov&名詞性主語,可能補語,名詞句目的語,動詞句目的語&s\yaSnv\_Ck\_On\_OvCkOnOv\\v\_Ss\_Os&文主語,文目的語&s\yaSsv\_Ss\_OsOs\\v\_Sv\_Os&動詞句主語,文目的語&s\yaSvv\_Sv\_OsOs\\\hline\end{tabular}\label{tab:vsys}\end{table}中国語SSGにおける構文木は,文の表層的構造を示すものである.例えば,「車/n修理/v了/y(車は修理された)」という文では,「車」は意味的には「修理」の対象格(目的格)であるが,述語動詞の前に位置することから主語として解析されている.また動詞の分類に関しては,単語間の意味的関係を考慮せずに,表層的な構造だけを考慮した.例えば,文(8A),(8B)は表層的には同じ文構造であるが,単語の意味的関係を考えた場合,文(8A)では主語「車」は述語動詞「修理」の対象格(目的格)であるが,文(8B)では主語「他」は述語動詞「走」の動作主格である.ここでは,単語の意味的関係を考えずに,両方の文が文構造規則(8a)に対応するようにしている.\begin{quotation}\noindent\文(8A)車/n修理/v了/y(車は修理された)\\\文(8B)他/n走/n了/y(彼は行った)\\\規則(8a)s\yaSnv\end{quotation}\subsection{SSG文法規則体系による中国語の多品詞性の扱い}中国語では,多品詞現象が顕著である.例えば使用頻度の高い機能語である介詞は,動詞から転成したものが多い.そのため,ほとんどの介詞は動詞の品詞多義を持っている~\cite{zhu1}.これらの多品詞語は,品詞によって構文上の特徴も異なっている.例えば,「用」という単語は介詞pと動詞vとの2つの品詞を持っているが,介詞としている「用/p」は文(3I)のように,述語動詞の前に位置し,述語動詞を修飾する.一方,動詞として用いられる「用/v」は,一般的に文(9A)のように文の述語となる.SSGは,述語動詞を中心とした文全体を文法規則として記述するため,このような構文上の特徴を規則として記述することができ,多品詞の絞り込みに有効である.例えば,介詞「用」を用いた文(3I)は規則(3i)で,動詞「用」を用いた文(9A)は規則(9a)で解析することができる.規則(9b)によって介詞句pp「用/p餐/n」が生成されるが,文構造規則(9c)は構文的に正しくないためにSSG文法規則体系には記述されていない.そのために介詞「用/p」を用いた解は生成されない.このように品詞多義を持つ単語に関して,品詞ごとの構文上の特徴をSSG文法規則体系に記述することによって,品詞多義を抑制することができる.\begin{quotation}\noindent\文(3I)~我/r也/d会/zv用/p筆/n写/v字/n了/y(わたしも筆で字を書くことがで\hspace*{4zw}~きた)\\\文(9A)我/r正在/d用/v餐/n(私はご飯を食べている)\\\規則(3i)s\yaSndzvppvOn\\\規則(9a)s\yaSndvOn\\\規則(9b)pp\yapnp\\\llap{*\}\規則(9c)s\yaSndpp\end{quotation}
\section{評価実験}
\subsection{実験設定}設計した中国語SSG文法規則体系の網羅性と曖昧性解消の有効性を検証するため,それをSchartパーザ\cite{schart}に実装し評価実験を行った.SSG文法規則体系に基づく中国語パーザを以下SSGパーザと呼ぶ.辞書についてはインターネットで公開された中国の北京大学で開発した「現代漢語句法信息詞典(現代漢語文法情報辞書)」\cite{yu}の10,000語をベースとして,それを修正し,作成したものを用いた.従来のCFGに基づいた中国語構文解析においては,単語の多品詞性によって構造多義が爆発的に引き起こされるため,形態素解析の段階で統計的手法を用いて多品詞を絞り込むことが一般的である\cite{ictclas}.SSGパーザは,これらの多品詞を構文解析の段階で文法規則を適用することによって絞り込む.評価実験ではSSGパーザの入力として,中国科学院が開発した形態素解析パーザICTCLAS\cite{ictclas}の単語分割の結果を利用した.各単語の品詞多義については,すべての品詞を入力として与えた.\subsection{評価実験データ}\begin{table}[t]\centering\caption{実験データの内容(1)}\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{文構造の類型}&章節&文数&\multicolumn{2}{|c|}{1文あたりの単語数}\\\cline{5-6}\multicolumn{2}{|c|}{}&&&最大単語長&最小単語長\\\hline&単動詞述語文&第二章&10&7&3\\&動詞目的語述語文&第三章&10&9&5\\&動詞補語述語文&第四章&10&12&4\\&多数動詞述語文&第五章&10&12&4\\&兼語述語文&第六章&10&9&4\\\shortstack{単}&形容詞述語文&第七章&10&8&3\\&名詞述語文&第八章&10&8&2\\&「是」字文&第九章&10&8&3\\&「有」字文&第十章&10&8&3\\&「把」字文&第十一章&10&20&6\\&「被」字文&第十二章&10&9&4\\\shortstack{文}&「使」字文&第十三章&10&15&5\\&「比」字文&第十四章&10&10&5\\&非主述文&第十五章&10&4&1\\&存現文&第十六章&10&11&3\\&疑問文&第十七章&10&6&3\\&祈使文&第十八章&10&7&1\\&評議文&第十九章&10&10&4\\\hline&並列重文&第二十六章一節&5&21&8\\&連貫重文&第二十六章二節&5&26&13\\&推進重文&第二十六章三節&5&28&10\\\shortstack{重}&選択重文&第二十六章四節&5&14&9\\&因果重文&第二十七章一節&5&22&9\\&転折重文&第二十七章二節&5&16&11\\&条件重文&第二十七章三節&5&28&12\\\shortstack{文}&譲歩重文&第二十七章四節&5&16&11\\&注釈重文&第二十八章一節&5&17&9\\&総分重文&第二十八章二節&5&33&23\\&記述重文&第二十八章三節&5&22&10\\&表相重文&第二十八章四節&5&17&14\\\hline\end{tabular}\label{tab:data1}\end{table}中国語の基本の文型をそろえるために,文法書「漢語的句子類型(中国語における文型)」\cite{fanxiao}中の例文を,評価用データとして用いた.データは文法書で解説されているすべての文型をカバーしたものである.データの客観性を保つために,単文は各章の例文の先頭10文まで,重文は各節の例文の先頭5文までを,修正せずに用いることにした.単文は第1章から第19章の各章から抽出したもので,文法書で解説されている全ての単文構造が含まれており,全部で180文である.重文は第26章,27章,28章中の各節から抽出したもので,文法書で解説されている全ての重文構造が含まれており,全部で60文である.単文と重文合わせて,240文である.表~\ref{tab:data1},\ref{tab:data2},\ref{tab:data3}は実験データの内容を示している.\subsection{網羅性に関する評価}形態素パーザICTCLASで単語を分割したところ,240文の実験データのうち12文は正しく分割されなかった(表~\ref{tab:resict2}).単語分割に成功した228文をSSGパーザの入力として与えて解析したところ,225文は木が出力された.これらには正解の構文木が含まれている.解析率は98.68\%に達した(表~\ref{tab:resssg0}).解析できない3文はいずれも名詞述語文(名詞句が述部になる文)である.中国語では名詞述語文は口語で用いられる簡潔な文型で,書面語や正式な場面ではあまり用いられない\cite{zonglan}.そのため,名詞述語文に対応する文構造規則は作成していない.\begin{table}[t]\centering\begin{minipage}{120pt}\caption{実験データの内容(2)}\begin{tabular}{|c|c|c|c|c|}\hline総文数&単文数&重文数\\\hline240&180&60\\\hline\end{tabular}\label{tab:data2}\end{minipage}\hfill\begin{minipage}{270pt}\centering\caption{実験データの内容(3)}\begin{tabular}{|c|c|c|c|c|}\hline試験文数&総単語数&最大単語長&最小単語長&平均単語長\\\hline240&2073&33&1&8.64\\\hline\end{tabular}\label{tab:data3}\end{minipage}\par\vspace{\baselineskip}\begin{minipage}{160pt}\centering\caption{ICTCLASの単語分割の正解率}\begin{tabular}{|c|c|c|c|}\hline文数&成功&失敗&正解率\\\hline240&228&12&95\%\\\hline\end{tabular}\label{tab:resict2}\end{minipage}\hfill\begin{minipage}{230pt}\caption{SSGパーザの解析率}\begin{tabular}{|c|c|c|c|}\hline試験文数&解析可の文数&解析不可の文数&解析率\\\hline228&225&3&98.68\%\\\hline\end{tabular}\label{tab:resssg0}\end{minipage}\end{table}\begin{table}[b]\centering\caption{SSG手法における平均構文多義数}\begin{tabular}{|c|c|c|c|c|}\hline試験文数&総構文木数&最大構文木数&最小構文木数&平均構文木数\\\hline225&405&23&1&1.80\\\hline\end{tabular}\label{tab:resssg1}\vspace{\baselineskip}\caption{SSG手法における平均構文多義数の分布}\begin{tabular}{|c|c|c|}\hline解の数&文の数&割合\\\hline1&141&62.67\%\\2&50&22.22\%\\3&19&8.44\%\\4以上&15&6.67\%\\\hline合計&225&100\%\\\hline\end{tabular}\label{tab:resssg2}\end{table}\subsection{曖昧性に関する評価}曖昧性の様子を表~\ref{tab:resssg1},\ref{tab:resssg2},\ref{tab:resssg3}に示す.表\ref{tab:resssg1}は平均構文多義数である.解析できた225文において,全部で405個構文木を得,一文当たりの構文木数は1.80である.表\ref{tab:resssg2}は平均構文多義数の分布である.225文のうち,構文木数が1である文は6割を占め,構文木が3つ以下の文は全体の文の9割以上である.CFGに基づく中国語構文解析では,構文木は爆発的に増えて何千何万になることは普通である\cite{yang}\cite{liuqun}.それに比べると,SSG手法は有効に曖昧性の発生を抑止している.表\ref{tab:resssg3}は文型ごとの解析結果である.\begin{table}[t]\centering\caption{SSG手法における文型ごとの解析結果}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{文構造の類型}&文数&解析成功の文数&解析失敗した文数&\multicolumn{3}{|c|}{構文木数}\\\cline{6-8}\multicolumn{2}{|c|}{}&&&&最多&最少&平均\\\hline&単動詞述語文&10&10&0&2&1&1.1\\&動詞目的語述語文&10&10&0&1&1&1.0\\&動詞補語述語文&10&10&0&4&1&2.0\\&多数動詞述語文&10&10&0&4&1&1.6\\&兼語述語文&10&10&0&4&1&1.7\\\shortstack{単}&形容詞述語文&10&9&1&1&0&1.4\\&名詞述語文&10&7&3&1&0&0.8\\&「是」字文&10&9&1&3&0&1.5\\&「有」字文&10&10&0&3&1&1.6\\&「把」字文&10&9&1&3&0&1.9\\&「被」字文&10&9&1&4&0&1.3\\\shortstack{文}&「使」字文&10&9&1&3&0&1.6\\&「比」字文&10&9&1&13&0&2.5\\&非主述文&10&9&1&3&0&1.1\\&存現文&10&10&0&6&1&2.0\\&疑問文&10&10&0&2&1&1.5\\&祈使文&10&10&0&6&1&1.6\\&評議文&10&9&1&5&0&1.6\\\hline&並列重文&5&4&1&12&0&3.0\\&継起重文&5&5&0&3&1&1.8\\&推進重文&5&3&2&2&0&0.8\\\shortstack{重}&選択重文&5&5&0&1&1&1.0\\&因果重文&5&5&0&2&1&1.2\\&転折重文&5&5&0&6&1&2.6\\&条件重文&5&5&0&3&1&1.6\\\shortstack{文}&譲歩重文&5&5&0&3&1&1.6\\&注釈重文&5&5&0&3&1&1.8\\&総分重文&5&4&1&2&0&1.0\\&記述重文&5&5&0&2&1&1.4\\&表相重文&5&5&0&23&2&7.6\\\hline\end{tabular}\label{tab:resssg3}\end{table}\subsection{PCFG手法との比較評価}PSG文法規則の不整合性を克服するために,コーパスを利用する方法が盛んに研究されている.なかでも確率文脈自由型句構造文法PCFGはよく用いられる手法である.PCFGはCFGの規則$A\rightarrow\alpha$に対して,左辺$A$が与えられたとき,それが右辺の記号列$\alpha$に書き換えられる条件付確率$P(\alpha|A)$を付与したものである.規則の適用確率は構文木が例文に付与された構文構造付コーパスによって学習する.構文木の生成確率は,構文木の生成に用いられた規則の適用確率の積として計算される.生成確率によって,構文木に優先順位を付け,優先解を選ぶ.しかし,PCFGが与える優先順位はいつも正しいとは限らない.正解が出ない文に対して,精度をあげることが困難である.ここでは,曖昧性に対する有効性を比較するために,PCFG手法を用いたパーザICTPROP\cite{ictprop1}との比較を行なった.ICTPROPパーザは中国科学院の開発した中国語文パーザであり,意味知識を融合できるサブモデルを埋め込んだ,語彙化したPCFGモデルを用いている\cite{xiong}.われわれは240文のデータを,インターネット上で公開されているICTPROPパーザ~\cite{ictprop2}で解析した.公開されたICTPROPパーザは形態素解析パーザICTCLAS\cite{ictclas}の解析結果を用いており,2つのパーザを分離することができない.そのため,形態素解析の結果は誤っている12文を除外し,残った228文の構文解析の結果に対して評価を行なった.評価結果を表~\ref{tab:resict2},\ref{tab:resict1},\ref{tab:resict3}に示す.\begin{table}[t]\centering\caption{PCFG手法における解析の状況}\footnotesize\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{文構造の類型}&文数&\parbox[c]{7zw}{形態素区切りが失敗した文数}&\parbox[c]{8zw}{構成要素区切りが失敗した文数}&解析成功文数\\\hline&単動詞述語文&10&0&2&8\\&動詞目的語述語文&10&0&2&8\\&動詞補語述語文&10&0&4&6\\&多数動詞述語文&10&0&6&4\\&兼語述語文&10&0&4&6\\\shortstack{単}&形容詞述語文&10&1&4&5\\&名詞述語文&10&1&2&7\\&「是」字文&10&1&1&8\\&「有」字文&10&0&3&7\\&「把」字文&10&1&5&4\\&「被」字文&10&1&2&7\\\shortstack{文}&「使」字文&10&1&4&5\\&「比」字文&10&1&4&5\\&非主述文&10&0&1&9\\&存現文&10&0&2&8\\&疑問文&10&0&1&9\\&祈使文&10&0&2&8\\&評議文&10&1&1&8\\\hline&並列重文&5&1&3&1\\&継起重文&5&0&5&0\\&推進重文&5&2&3&0\\\shortstack{重}&選択重文&5&0&4&1\\&因果重文&5&0&4&1\\&転折重文&5&0&3&2\\&条件重文&5&0&2&3\\\shortstack{文}&譲歩重文&5&0&2&3\\&注釈重文&5&0&0&5\\&総分重文&5&1&3&1\\&記述重文&5&0&5&0\\&表相重文&5&0&5&0\\\hline\end{tabular}\label{tab:resict1}\end{table}\begin{table}[t]\centering\caption{構成要素区切りの正解率}\begin{tabular}{|c|c|c|}\hline文数&構成要素区切りの失敗した文数&構成要素区切りの正解率\\\hline228&89&60.96\%\\\hline\end{tabular}\label{tab:resict3}\end{table}\subsubsection{構文解析結果の判断基準}ICTPROPパーザの解析結果の評価基準については,構成要素の境界が誤って区切られたことより,構造が明らかに間違っている文は正しくないと判断した.構成要素は名詞句の構成要素,単文の構成要素,重文の構文要素の3つのレベルに分けられる.以下は不正解と判断したものの例である.\begin{quotation}\noindent【名詞句の例】\\「人類霊魂的工程師(人類の魂のエンジニア)」\\正解:[人類霊魂]/np的工程師\\ICTPROPの解:人類[霊魂的]/np工程師\\【単文の例】\\「張老師病了(張先生は病気になった)」\\正解:[張老師]/np病了\\ICTPROPの解:[張老師病]/np了\\【重文の例】\\「只有参加社会実践,才能獲得真正的知識(ただ社会実践に参加してこそ,真の知識を獲得できる)」\\正解:[只有参加社会実践,]/s才能獲得真正的知識\\ICTPROPの解:只有[参加社会実践,才能獲得真正的知識]/s\\\end{quotation}\subsection{SSGとPCFGとの比較}\begin{table}[b]\centering\begin{minipage}{200pt}\caption{情報資源の比較}\begin{tabular}{|c|c|c|}\hline情報資源&PCFG&SSG\\\hline品詞情報&使用する&使用する\\文法規則情報&使用する&使用する\\構文木コーパス情報&使用する&使用しない\\意味情報&使用する&使用しない\\\hline\end{tabular}\label{tab:resrc}\end{minipage}\hfill\begin{minipage}{200pt}\centering\caption{正解率の比較}\begin{tabular}{|c|c|c|}\hline手法&PCFG&SSG\\\hline正解率&60.96\%&62.67\%\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\end{tabular}\label{tab:resfinal}\end{minipage}\end{table}表~\ref{tab:resrc}はSSGパーザとICTPROPパーザの情報資源の比較である.SSGパーザは品詞情報と文法規則だけを用いているのに対し,PCFGに基づくICTPROPパーザは,品詞情報や文法規則に加えて構文木コーパスや意味情報を用いている.表~\ref{tab:resfinal}に示すように,情報資源が少ないSSG法のほうが正解率が高いことが分かった.SSG法では,構文木を1つに絞り込んでいない文でも,正解の構文木がその解析結果に含まれる.表~\ref{tab:resssg2}によると,225の試験データのうち,構文木が2個以下の文は191であり,全体の84.89\%を占め,3つ以下の文は210あり,全体の93.33\%である.規則に優先度をつけたり,意味情報を導入することより,正解率をさらにあげることが期待される.その一方,PCFG法では,これ以上精度をあげることが困難である.正解が出ない文の正解を得るために,システムに多数の解析結果を出力させるようにしなければならず,そのことによって構文木が1つに絞り込まれなくなる.また多数の構文木を出力しても,正解が必ず含まれるとは限らないといった問題がある.
\section{おわりに}
本論文では,文構造文法SSGを提案した.それに基づき,中国語におけるSSG文法規則体系を構築し,Schartパーザ上に実装した.従来のPSG文法体系に基づく構文解析では,規則間の不整合により,曖昧性は大きな問題となる.我々が設計した中国語SSG規則体系を用いた構文解析では,規則間の整合性がよく,曖昧性の解決に有効であり,本手法によって品詞情報と文法規則といった情報資源だけで,PCFGに基づく構文解析器より高い正解率が得られた.今後,規則に優先度を付ける,意味情報を導入するなどして,正解率を向上させる必要がある.さらに,英語などのほかの言語においても,SSGの考えに基づき,整合性のよい文法規則体系を設計することにも検討している.\acknowledgment本研究を進めるにあたって討論していただいた川辺諭氏(元JST研究員),新潟大学宮崎研究室の武本裕氏及び他の学生諸君に心から感謝いたします.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen,Zhou,Yuan,\BBA\Wu}{Chenet~al.}{2006}]{chenxiaohui}Chen,X.,Zhou,Y.,Yuan,C.,\BBA\Wu,G.\BBOP2006\BBCP.\newblock\BBOQAnEfficientProbabilisticSyntacticAnalysisAlgorithmforChinese\BBCQ\\newblock{\BemApplicationReseachofComputers},{\Bbf23}(1),\mbox{\BPGS\141--143}.\bibitem[\protect\BCAY{Lin,Shi,\BBA\Guo}{Linet~al.}{2006}]{linying}Lin,Y.,Shi,X.,\BBA\Guo,F.\BBOP2006\BBCP.\newblock\BBOQAChineseParserBasedonProbabilisticContextFreeGrammar\BBCQ\\newblock{\BemJournalofChineseInformationProcessing},{\Bbf20}(2),\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Xiong,Li,Liu,Lin,\BBA\Qian}{Xionget~al.}{2005}]{xiong}Xiong,D.,Li,S.,Liu,Q.,Lin,S.,\BBA\Qian,Y.\BBOP2005\BBCP.\newblock\BBOQParsingthePennChineseTreebankwithSemanticKnowledge\BBCQ\\newblockIn{\BemTheSecondInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP05)}.\bibitem[\protect\BCAY{Zhang,Liu,Zhang,Zou,\BBA\Bai}{Zhanget~al.}{2003a}]{ictprop1}Zhang,H.,Liu,Q.,Zhang,K.,Zou,G.,\BBA\Bai,S.\BBOP2003a\BBCP.\newblock\BBOQStatisticalChineseParserICTPROP\BBCQ.\bibitem[\protect\BCAY{Zhang,Yu,Xiong,\BBA\Liu}{Zhanget~al.}{2003b}]{ictclas}Zhang,H.,Yu,H.,Xiong,D.,\BBA\Liu,Q.\BBOP2003b\BBCP.\newblock\BBOQHHMM-basedChieseLexicalAnalyzerICTCLAS\BBCQ\\newblockIn{\BemProceedingsoftheSecondSIGHANWorkshoponChineseLanguageProcessing},\mbox{\BPGS\184--187}.\bibitem[\protect\BCAY{王向莉\JBA宮崎正弘}{王向莉\JBA宮崎正弘}{2003}]{masterpaper}王向莉\JBA宮崎正弘\BBOP2003\BBCP.\newblock\JBOQ話者の認識構造を抽出する中国語文パーザ\JBCQ\\newblock\Jem{電子情報通信学会信越支部大会I1},\mbox{\BPGS\181--182}.\bibitem[\protect\BCAY{黄昌寧}{黄昌寧}{2002}]{huang}黄昌寧\BBOP2002\BBCP.\newblock\JBOQ中文信息処理的主流技術是什麼\JBCQ\\newblock計算機世界報,24.\bibitem[\protect\BCAY{朱徳煕}{朱徳煕}{1982}]{zhu1}朱徳煕\BBOP1982\BBCP.\newblock\Jem{語法講義}.\newblock商務印書館.\bibitem[\protect\BCAY{周強}{周強}{1995}]{zhou2}周強\BBOP1995\BBCP.\newblock\JBOQ規則和統計相結合的漢語詞類標注方法\JBCQ\\newblock\Jem{中文信息学報},{\Bbf9}(2),\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{川辺諭\JBA宮崎正弘}{川辺諭\JBA宮崎正弘}{2005}]{schart}川辺諭\JBA宮崎正弘\BBOP2005\BBCP.\newblock\JBOQ構造を含む生成規則を扱える拡張型チャートパーザ\JBCQ\\newblock\Jem{言語処理学会第11回年次発表論文集},\mbox{\BPGS\911--914}.\bibitem[\protect\BCAY{中国科学院パーザICTPROP}{中国科学院パーザICTPROP}{}]{ictprop2}中国科学院パーザICTPROP.\newblockhttp://mtgroup.ict.ac.cn/ictparser/parser\_1.php.\bibitem[\protect\BCAY{張玉潔\JBA山本和英}{張玉潔\JBA山本和英}{2005}]{zhang}張玉潔\JBA山本和英\BBOP2005\BBCP.\newblock\JBOQ中国語のコンピュータ処理について\JBCQ\\newblock漢字文献情報処理研究,6.\newblockpp.~102--109.\bibitem[\protect\BCAY{範暁}{範暁}{1998}]{fanxiao}範暁\BBOP1998\BBCP.\newblock\Jem{漢語的句子類型}.\newblock書海出版社.\bibitem[\protect\BCAY{楊頤明\JBA堂下修司\JBA西田豊明}{楊頤明\Jetal}{1984}]{yang}楊頤明\JBA堂下修司\JBA西田豊明\BBOP1984\BBCP.\newblock\JBOQ中国語解析システムにおけるヒューリスティックな知識の利用\JBCQ\\newblock\Jem{情報処理論文誌},{\Bbf25}(6),\mbox{\BPGS\1044--1054}.\bibitem[\protect\BCAY{劉\JBA潘\JBA故}{劉\Jetal}{1996}]{zonglan}劉\JBA潘\JBA故\BBOP1996\BBCP.\newblock\Jem{現代中国語文法総覧}.\newblockくろしお出版.\bibitem[\protect\BCAY{劉群}{劉群}{2002}]{liuqun}劉群\BBOP2002\BBCP.\newblock\JBOQ漢語詞法分析和句法分析技術綜述\JBCQ\\newblock第一届学生計算語言学研討会(SWCL2002)専題講座.\bibitem[\protect\BCAY{兪\JBA朱\JBA王\JBA張}{兪\Jetal}{1997}]{yu}兪\JBA朱\JBA王\JBA張\BBOP1997\BBCP.\newblock\Jem{現代漢語信息辞典}.\newblock清華大学出版社.\end{thebibliography}\begin{biography}\bioauthor{王向莉}{1992年中国内蒙古工業大学機械工程学部卒業.2002年新潟大学経済学部卒業.同年新潟大学大学院自然科学研究科博士前期課程入学.2004年新潟大学大学院自然科学研究科博士後期課程入学.現在に至る.中国語構文解析・意味解析などの自然言語処理の研究に従事.自然言語の意味処理・機械翻訳に興味を持つ.}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所においてコンピュータシステムの性能評価法,日本文音声出力システムや機械翻訳などの研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語処理とその応用システムの研究に従事.2006年5月,宮崎研究室の研究成果を活用して自然言語処理応用システムの製品開発を行う大学発ベンチャー企業「(株)ラングテック」を設立,代表取締役社長を兼務.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.2002年電気通信普及財団賞(テレコム・システム技術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
| |
V14N03-02
|
\section{はじめに}
現代日本語の「です・ます」は,話手の感情・評価・態度に関わるさまざまな意味用法を持つことが指摘されている.従来の研究では,敬語および待遇表現,話し言葉/書き言葉の観点や,文体論あるいは位相論といった立場・領域から個別に記述されてきたが,「です・ます」の諸用法を有機的に結びつけようとする視点での説明はなされていない\footnote{「敬語」の一種であるという位置づけがなされている程度である.一例として,次のような記述がある.「「です・ます」は,一連の文章や話し言葉の中では,使うとすれば一貫して使うのが普通で,その意味で文体としての面をもちます.「です・ます」を一貫して使う文体を敬体,一貫して使わない文体を常体と呼びます.(中略)しかし,文体である以前に,「です・ます」はやはりまず敬語です」(菊地1996:90--91)}.本稿では「伝達場面の構造」を設定し,言語形式「です・ます」の諸用法を,その本質的意味と伝達場面との関係によって導かれるものと説明する.こうした分析は,「です・ます」個別の問題に留まらず,言語形式一般の記述を単純化しダイナミックに説明しうる汎用性の高いものと考える.本稿の構成は以下の通りである.まず,\ref{youhou}.で従来指摘されている「です・ます」の諸用法を確認し,\ref{model}.において「話手/聞手の「共在性」」に注目しつつ伝達場面の構造をモデル化する.さらに「共在性」を表示する形式を「共在マーカー」と名付け,なかでも「です・ます」のような聞手を前提とする言語形式の操作性に注目する.これを受けて\ref{meca}.では,「です・ます」の「感情・評価・態度」の現れが,伝達場面の構造モデルと「です・ます」の本質的機能および共在マーカーとしての性質から説明できることを述べ,\ref{matome}.のまとめにおいて今後の課題と本稿のモデルの発展性を示す.
\section{「です・ます」の諸用法---従来の指摘と本稿の立場}
label{youhou}\subsection{従来の指摘}まず「です・ます」の諸用法について,先行研究における指摘,記述を確認しておこう.\subsubsection{丁寧語としての「です・ます」}(\ex{+1})は,クラスメートと先生に対しての小学生の発話である\footnote{以下,用例の下線は引用者による.また出典情報が長い場合は脚注とする.下線の種類は次の通りである.\begin{list}{}{}\itemです・ます:\unami{},非です・ます:\utensen{},その他:\ul{}.\end{list}}.\enumsentence{(司=小学生,女子=クラスメート)\begin{description}\item[司:](クラスメートに対して)「小坂先生に恋人がいることは本当のことだし,みんな,どんな人か興味\utensen{あるよね}」\item[女子:]「\utensen{あった},すごく興味\utensen{あった}」(…中略…)\item[司:](先生に対して)「ね.僕は先生にアドバイスされた通り,みんなの知りたがってることを書いた\unami{だけです}」\end{description}\hfill(シナリオ「うちの子にかぎって……」\unskip\footnote{BANISFORBAN伴一彦オフィシャルサイト.{\tthttp://www.plala.or.jp/ban/index.html}(2006.2.5アクセス)})}クラスメートに対しては,「興味あるよね」と「非です・ます」の普通体を使うのに対し,先生に対しては,「書いただけです」と「です・ます」を使う\footnote{ここでの「です・ます」,「非です・ます」が使われる場は,鈴木(1997)の「丁寧体世界」・「普通体世界」にそれぞれ相当する.}.聞手が目上である場合だけでなく,初対面,ソトの人物,嫌いな人物の場合,あるいは公的な場,忌避すべき話題に言及する場合などに「です・ます」が用いられる.近年のポライトネス理論では敬意の表示よりむしろ,聞手との心的距離の表示として説明される\footnote{滝浦(2002,2005a,2005b),また本稿\ref{Ikyori}節参照.}.\subsubsection{文体の基調をなす「です・ます」}新聞などの文字メディアでは,(\ex{+1}a)(\ex{+2}a)のように「非です・ます」の「だ・である体」が一般的であるが,(\ex{+1}b)(\ex{+2}b)のように「です・ます体」が使われる場合もある.文末が全て「です・ます」の場合は,書き言葉における「です・ます体」というスタイルの一つと捉えられている.\eenumsentence{\item財政再建にあたって国・地方の公務員の総人件費削減は\utensen{緊急課題だ}.高すぎる給料や余剰な定員を大胆に\utensen{削減する}.官僚の抵抗は強まろうが,小泉純一郎首相の言う構造改革の試金石\utensen{である}.(中日新聞社説,2005.10.24)\item「ポスト郵政」の最大テーマに政府系金融機関の改革が\unami{浮上しています}.ここは官僚機構のいわば\unami{「聖域」です}.小泉純一郎首相はどこまで\unami{切り込めるでしょうか}.(中日新聞社説,2005.10.23)}\eenumsentence{\label{iraq}\itemイラクに派遣された陸上自衛隊は,既に相応の責任を果たした.基本計画の修正により派遣期間は一年延長されたが,今から撤収の準備に着手\utensen{すべきだ}.(中日新聞社説,2005.12.9)\itemイラクに駐留する自衛隊は,しばらく復興支援を続けることに\unami{なりました}.でも,いずれ治安がよくなれば政府開発援助(ODA)などに\unami{出番が回るはずです}.(中日新聞社説,2005.12.11)}(\ex{-1}b)(\ex{0}b)のように尊敬語や謙譲語とともに使用されていない「です・ます」については,永野(1966)が「「です・ます体」は読者への``敬意''にもとづく敬体ではなく,相手意識の相対的強さを感じさせる「文体」である」と,つとに指摘しているが,話手\footnote{本稿における「話手」と「聞手」は,「話す」「聞く」という行為の参与者に限定するものではなく,メディアにかかわらず言語の発信者とその受け手に相当する術語として用いる.}の「相手意識の相対的強さ」という漠とした基準は,文体の特徴を述べる指摘にとどまっている.\subsubsection{感情・態度の表示とされる「です・ます」}\label{hyoji}(\ex{+1})は,スポーツ新聞のコラムである.「非です・ます」で書かれたコラムの最後の一文に「です」が使用され,感情の表示となっている.\enumsentence{福留が名カメラマンぶりを\utensen{披露した}.室内練習場で報道陣から取材用のカメラを拝借.マシン打撃中の森野を\utensen{激写だ}.そのうちの1枚がボールがバットに当たる,打つ瞬間をバッチリ\utensen{捉(とら)えていた}.これには貸したカメラマンもびっくり.「おれ,職間違えた.カメラマンが合ってるよ」とは福留.いやいや,できる人は何をやらせてもできるということ\utensen{です}.(中日スポーツ,2006.2.4)}会話でも,「非です・ます体」のくだけたやりとりの中で「です・ます」が出現し,話手の感情・評価・態度を表示する効果が生まれることがある\footnote{例文(\ex{+1})〜(\ex{+3})は鑑定士・気象予報士・芸能人など「特定のキャラクターと結びついた,特徴のある言葉づかい」の「役割語」(金水2003)として,単に感情を表示するのみならずある種の役割と結びついて態度の表示となっていると捉えることもできる.}.\enumsentence{(鑑定士ぶって)「\unami{いい仕事してますねえ}」}\enumsentence{(気象予報士ぶって)「今日は花粉が\unami{多いようです}」}\enumsentence{(記者会見の芸能人ぶって)「\unami{4カラットですの},ホホホ」\unskip\footnote{例文(\ex{0})は定延利之氏との個人談話による.}}こうした例については,従来多くの論考で,普通体と丁寧体の「混在・混用」と捉えられ,その「スタイルシフト」によって感情が表示される効果があると説明されてきた(メイナード1991,2001a,2001b;日高2004,2005など).メイナードは,「です・ます」は相手への配慮を表すとし,「相手意識の強さや相手に自分をどのようにアピールしたいかという」話手の「感情が作用」(メイナード2001b)してシフトが起こるとしている.しかし「です・ます」の感情表示機能発現のメカニズムを,他の用法と関連づけようとはしていない.以上のように「です・ます」の諸用法についてはさまざまな記述がある.しかし,それぞれ離散的,個別的に記述されたものであり,「です・ます」がなぜこのような諸用法を持つのか,その用法はいかなる条件で現れるかといった包括的な説明は試みられていない.\subsection{本稿の立場}本稿は,言語形式の現れ方を個別に記述説明するだけでなく,話手/聞手のあり方を含めた伝達場面を設定することにより,言語形式の「文法」と「文体」を有機的に統合し,諸用法に対する包括的説明を試みるものである.話手/聞手の関係や条件から言語形式の用法を説明するという点においては,言語行為論(Austin1962;Searl1969),関連性理論(Grice1975;SperberandWilson1986),ポライトネス理論(BrownandLevinson1978)などの語用論的研究,さらに,語用論的条件を組み入れた統合的な理論であるという点で談話管理理論(田窪,金水1993など)などと軌を一にする.しかし,本稿のモデルでは,聞手は話手から見た受け手として発話の場を条件づける要素であるに留まり,情報内容の伝達やコミュニケーションの成否を問題にするものではない.つまり,コミュニケーションモデルの中で言語現象を説明するという目的から導き出されたものである一方,話手の認識条件のみで言語形式の用法を説明できる汎用的な発話モデルとして提案するものである.以下,「伝達場面の構造」の枠組みから「です・ます」の諸用法を説明していく.
\section{「伝達場面の構造」モデル}
label{model}言語研究において,コミュニケーションモデルや語用論的条件を考慮に入れた試みは多いが,一方で理論上の限界と問題点も指摘されている.例えば談話管理理論では,話手/聞手の「相互知識の無限遡及」(ClarkandMarshall1981)を回避して知識の相互性から独立した言語形式の記述を提案したにもかかわらず,「伝達モデルの残滓というようなア・プリオリに仮定された発話の意味や意図を引きずって」いると指摘される(山森1997).また,感動詞など談話に特有の言語形式の分析記述においても機能や目的を読み込む「狩人の智恵」式機能主義が跋扈しているという憂慮もある(定延2005e).さらに,話手/聞手の知識・情報差とその伝達の成否を前提としたコミュニケーションモデル(コード・モデル)の前提そのものに関わるパラドックスも指摘されている\footnote{「共有知識(sharedknowledge)のパラドックスに関する批判[ClarkandMarshall1981;SperberandWilson1986]」(水谷1997)}.以上の問題点をふまえ,本稿では日常の対面対話をプロトタイプとし,情報伝達の成否を問題としない「伝達場面」の構造モデルを提示する.\subsection{伝達場面の構造モデル}\label{submodel}\subsubsection{〈共在〉/〈非共在〉\unskip\protect\footnote{本稿の〈共在〉/〈非共在〉は,定延(2003)でも引用されるTannen(1980,1982)のinvolvementとその訳語「共在(性)」から示唆を得て設定したものであるが,Tannenのinvolvement(「相手と同じコミュニケーションの場に身を置き,その場の中で,(時には相手と一緒に)言語表現をおこなうという構図」)/detachment(「解釈者とは切り離された構図」)とは異なる.またGoffman(1963)のcopresence,ClarkandCarlson(1982)の言語的共在(linguisticcopresence),物理的共在(physicalcopresence),木村(1996)の「共在」などの術語「共在/copresence」とも同一の概念ではない.}}伝達場面の構造モデルでは,日常の対面対話すなわち話手から個別・具体・特定の受け手(聞手とする)への発話をコミュニケーションのプロトタイプとし,このような発話の場を「共在」とする.「共在性」はさまざまな要因によって決定されうるが,最も重要な条件は聞手の特定性,個別・具体性である.例えば伝達場面において,特定の聞手と対面しているなどの条件があれば共在性は高く,その場は〈共在〉といえる(図\ref{kyozai}(I)).〈共在〉の場においては,「話手から個別・具体・特定の受け手への発話としての表示」がある.その表示,マーカーを「共在マーカー」と呼ぼう.共在マーカーには言語形式と非言語形式がある.話手は,具体的な発話場面(時間・場)を共有する特定の聞手に対し,共在マーカーとして,表情,視線,身振りなどとともに,あいづち,いいよどみ,といった談話の標識を自在に用いることができる.また聞手への働きかけ(質問・命令・勧誘),話手の視点に関わる表現で聞手や場の位置づけを前提とする表現(ダイクシス・待遇・授受表現など)や文脈情報の扱いを表示する言語形式(終助詞(山森1997))などが使用される.「です・ます」も話手による聞手の位置づけの表示であり,相手との心的距離を示すものとして,「聞手を必須とする要素」共在マーカーの一つにあたる.\begin{figure}[htbp]\begin{center}\includegraphics[scale=0.8]{./zu1.eps}\caption{\label{kyozai}聞手条件による伝達場面の共在性}\end{center}\end{figure}\subsubsection{共在マーカーの操作性}図\ref{kyozai}に示すように,聞手が不特定・多数で抽象的である場合の伝達場面は〈非共在〉で,共在マーカーは現れない.個別・具体・特定の聞手が存在する場合,伝達場面は〈共在〉であり,言語形式としての共在マーカーが現れる.伝達場面における「共在性」の高/低は聞手の個別・具体性によるもので,共在マーカーの出現と連動する.共在性の低い場,すなわち(II)〈非共在〉の場では共在マーカーは基本的に出現しない.しかし,文字媒体のマス・メディアのような受信者が不特定多数の伝達場面においても,「です・ます」や終助詞が使用されることがある\footnote{映像媒体のマス・メディアにおいても共在マーカーが使用される傾向にある.受信者が不特定多数という点では文字媒体のマス・メディアと同じであるが,「カメラ」の存在によって,基本的に場の共在性が「高」の,対面のコミュニケーションと位置づけられる.すなわち〈共在〉(I)として共在マーカーが出現すると考えられ,次に述べる〈疑似共在〉を作り出すストラテジーとは区別する.}.これは,プロトタイプの場で共在マーカーが共在の表示となるという関係から説明できる.聞手が個別・具体・特定でない非共在の場において,あえて有標の言語形式「共在マーカー」\unskip\footnote{話手にとって操作可能性・応用性の最も高いのが言語形式の共在マーカーである.共在マーカーは,形式として明示的であるという点でメディアの制約を受けにくい.記号(!・?・♪),絵文字やフェイスマーク,音声特徴を示す表記なども,「形を持つ」共在マーカーといえる.}を用いることで,共在マーカーは「疑似的な〈共在〉の場」を作り出すストラテジーとなる(図\ref{kyozai2}).このように,共在マーカーを用いることで設定される疑似的な〈共在〉の場(III)を〈疑似共在〉と呼ぼう.(I)の共在性と(II)の非共在性は,話手の聞手認識が,個別・具体・特定か,不特定多数・抽象かといった対立によって決まるが,(III)は,共在マーカーの使用以外に共在性を保証する要素はなく,共在マーカーの出現によって〈共在〉の場が構築されると考えられる.以下ではこの伝達場面の違いを確認した上で,共在マーカーの諸用法を動態的に説明していく.\begin{figure}[htbp]\begin{center}\includegraphics[scale=0.8]{./zu2.eps}\caption{\label{kyozai2}共在マーカーの使用による(III)〈疑似共在〉の構築}\end{center}\end{figure}\subsection{伝達場面の諸相}図\ref{kyozai2}では,(I)(II)(III)(IV)の4つの伝達場面を設定している.(I)は,話手から特定の聞手への発話の場〈共在〉であり,通常の対面対話や特定の個人宛の手紙・メールなどである.(II)は,聞手が不特定多数・抽象的である場〈非共在〉であり,新聞・論文など「書くメディア」を典型とする.(I)(II)では,共在マーカーの有無が〈共在〉/〈非共在〉に対応するが,(III)(IV)では一致しない.(I)(II)の関係を前提として,(III)は不特定多数の聞手を特定化する〈疑似共在〉の場であり,(IV)は目の前に対面する聞手が具体的にありながら共在マーカーを使用しない疑似的な〈非共在〉の場である.\subsubsection{共在マーカー「無」の場面---(II)(IV)の非共在性}(II)(IV)では共在マーカーが出現しないという意味でも,また伝達場面のプロトタイプとしての(I)との対立においても,〈非共在〉性を持つ.ただし,それぞれの対立による効果は異なる.\subsubsection{(II)の非共在性---「論理性」の追求}\label{tuikyu}(II)は聞手の不特定性によって「共在マーカー」の表示の根拠がないが,「共在マーカーを使用しないこと」でプロトタイプを離れる効果が生じる.具体的な発話場面(時間/場(イマ・ココ))を共有する話手/聞手関係からの乖離によって場の抽象性が確立し,その抽象性に支えられて,論理性・客観性を追求する場となっている.論文,レポートなど,客観的,普遍的記述を求めるタイプの文の書き方マニュアルを見てみよう.論文・レポートでは,明確さ,正確さに基づく客観的な情報の伝達が目的であり,論理展開を明解に示すこと,情緒的,冗長な表現は避けることに加え,「具体的な話手や聞手の存在をにおわせない」ことが指向される.それは例えば森山(2003)で「無私の文体」とされるもので,「私的な手紙やメールと異なり,不特定多数の読者を想定する文章では,筆者の個人的立場に拠った情報の提示の仕方は避けるべき」といった指導に反映する.このように「話手や聞手の存在を示さない」ことが,とりわけ注意されている.(\ex{+1})は,論文・レポートの書き方マニュアルの一例である.話手/聞手の存在を示さず「無私の文体」を実現する注記とともに,「「です」「ます」は使わず,普通体で書く」「「ね」「よ」のような終助詞も使わない」と「共在マーカー」の使用を厳に禁じている.\enumsentence{第一に,\ul{書き手自身の存在を強く感じさせる語・表現や,読み手に話しかけるような語・表現は,あまり使わない}.例えば,「僕」「俺」「あたし」のような語は,書き手の属性(どのような書き手であるか)を感じさせるので,論文・レポートでは基本的に使わない.\ul{一人称を指すことばはあまり使わずに書くのがよい}.「私は〜と思う」のような表現ではなく,「〜と思われる」「〜と考えられる」「〜する」のような形にする.また,\ul{「です」「ます」は使わず,普通体で書く}.名詞文では,「これは例外だ」のような「〜だ」の形よりも,「これは例外である」のような「〜である」の形を用いたほうがよい.また,\ul{「ね」「よ」のような終助詞も使わない}.\\\hfill(ケース19論文・レポートのことば\footnote{ケーススタディ日本語のバラエティ.おうふう.2005:114--119.(下線は引用者)})}「書くメディア」における文の「客観的記述」においては,「書き手・読み手の存在を消す」「共在マーカーを用いない」といった,すなわち「非共在性」が欠かせないものとなっている\footnote{この点歴史的には「言文一致体」の獲得において追求,腐心されたことであるという(清水1989:33).具体的な伝達場面から離れることで現代の我々の論理的文章が成立しているという経緯は興味深い.この点については別稿に譲る.}.〈非共在〉の場では,共在マーカーを用いないことにより,時間・場およびそれらを共有する聞手(といった〈共在〉の要素)から脱した「抽象的」な場が構築され,故に「客観性」「記録性」「論理性」が指向されたモノローグ,すなわち(本稿の定義におけるプロトタイプとしての)コミュニケーションでない発話の場として成り立っていると考えられる.この(II)の非共在性を共在マーカーの使用によって疑似的な〈共在〉の場にみなしたのが(III)である.「みなす」ことにより言語形式の意味用法が変化する.その効果は後に確認することにしよう.\subsubsection{(IV)の非共在性---疑似的な非共在}一方,(IV)は,「特定の聞手に向けての発話にも関わらず,共在マーカーが(あえて)使用されない」という伝達場面である.対面している聞手を意識しないかのような発話場面は有り難いように思われるが,(IV)には例えば辞令交付などの場面が相当する可能性がある.典型的には「証する」「命ずる」といった遂行動詞述語文が現れ,聞手を目の前にしながら共在マーカーは現れない.\enumsentence{(辞令交付)4月1日付けで本社営業部への異動を命ずる.}\enumsentence{(学位記授与)博士(文学)の学位を授与する.}「聞手の存在を前提としない言語要素」すなわち「非共在マーカー」というようなものは想定しにくいが,「共在マーカーをあえて使用」することがストラテジーだとすれば,使うべき場面での「非使用」も,「一方的な伝達」としてのストラテジーとも考えられる.\subsubsection{共在マーカー「有」の場面---(I)(III)の共在性}(I)(III)は,ともにどちらも共在マーカーがあるという点では共通するが,その共在マーカーが単に特定の聞手に向けられた発話であることの表示か,特定の聞手が設定できない場面で聞手の特定化を指向したストラテジーとして使用されるかという大きな違いがある.(I)はコミュニケーションのプロトタイプで特定の聞手に対して会話特有の要素としての共在マーカーが用いられる.これに対して(III)では共在マーカーが聞手の特定化に伴う表現効果を持つ.ここでは(III)の様相について例を挙げて具体的にみておこう.新聞・ブログ・エッセイ・教科書など,本来具体的な聞手が存在しないにもかかわらず「です・ます」「終助詞」「やりもらい」などの共在マーカーが使用されることがある.これが(III)の疑似的な〈共在〉である.(\ex{+1})は大学生向けの教科書であるが,「です・ます体」が採用されている.書名に「やさしい」とあり出版社のレビューにも「わかりやすく」と明記されているように「わかりやすさ」を目指したものである.(\ex{+2})は新聞の署名記事であり,書き手としての記者が明示されている.一般の記事には使われない「〜てあげる」という授受表現が出現し聞手を顕在化する興味深い用例である\footnote{待遇表現の場合,聞手に関わりのない話題の人物を待遇すると,話手の視点を聞手に同化する作用がある(東他2005).授受表現においても,話手の話題の人物に対する視点:エンパシーを聞手に同化すると考えられ,そのことが共在マーカーとしての効果を持つと考えられる.}.\enumsentence{「だろう」(丁寧な言い方では「でしょう」)という助動詞が\unami{あります}.学校文法では推量を表すと\unami{されています}.よく似たものに「ようだ」(話しことばでは「みたいだ」になることが多い)が\unami{あります}.こちらは推定と呼ばれることが\unami{多いようです}.推量と推定,よく\unami{似ていますね}.実際,この2つはどちらも使える場合がよく\unami{あります}.例えば,次のような\unami{場合です}.\\\hfill(庵功雄他2003.やさしい日本語のしくみ,くろしお出版.\unskip)}\enumsentence{堀江容疑者は表舞台から\utensen{退場した}.だが,彼の「功」の部分を\ul{認めてあげる}ことも\utensen{大切なのではないか}.社会の反発を浴びつつも,既成概念や閉塞感を打破することは,いつの時代でも\utensen{必要だからだ}.\hfill(毎日新聞,記者の目,2006.02.01\footnote{「堀江バッシングに違和感」=柴沼均(北海道報道部)})}さらに(II)〈非共在〉であるはずの「書くメディア」において,共在マーカーの使用によって〈疑似共在〉の場に移行していると考えられる例を見よう.(\ex{+1})は幼児向けの絵本,(\ex{+2})はウェブ上の求人情報である.どちらも,不特定多数の聞手を具体化・特定化するような表現となっている.終助詞,「ほら」などの同一視点からの呼びかけ,問いかけ,「です・ます」などの共在マーカーが使われている.さらに,「くださぁ〜い」といった,話し言葉で効果を持つ音声特徴を記号化した書記の工夫も見られる\footnote{書き言葉では字体や飾り,文字色などの工夫も可能である(定延2005c).なお,(\ex{+1})(\ex{+2})の\unami{}は共在マーカを示す.}.\enumsentence{キラリンのはねは,いろだけじゃない\unami{よ}.\\もようもかわるんだ\unami{よ}.\\\unami{ほら},くまちゃんのふくとおんなじ.\\うさちゃんのふくとおんなじ.(「まほうのはねのキラリン」\unskip\footnote{チャイルドブックジュニア,4月号,2004.4,チャイルド本社.})}\enumsentence{ずっと愛されるお店になるため,名物スタッフが必要\unami{です}!皆さんも親しみの持てる名物スタッフにならない\unami{?}キレイなお店で仲間もたくさん\ul{出来ちゃう}\unami{よ}!みんな集合して\ul{くださぁ〜い}!(フロムエー・ナビ)\unskip\footnote{{\tthttp://www.froma.com/}(2006.3.10アクセス)}}いずれも話し言葉的文体などといわれるものの,これらの言語要素が書き言葉で出現する際の表現効果や用法,どのように発現するのかについては詳細に記述した研究はない.話し言葉的という観点だけでは,(\ex{0})のように「です・ます」が「心的距離--遠」を示す敬語ではないばかりか,「くださぁ〜い」のようなくだけた話し言葉的要素と連動して用いられ,親しみをも感じさせる事実を説明できない.(I)〈共在〉と(III)〈疑似共在〉の共通点と相違点を整理することで明確に示すことができる.本稿では,(I)(III)の〈共在〉が「場」としての「共在」だけでなく,共在性の表示となる,形を持つものとしての共在マーカーの使用によって構築されるものと考える.ただし,(I)と(III)では「場」における共在性の違いによって言語形式の「役割」が異なるのである.
\section{「です・ます」諸用法発現のメカニズム}
label{meca}\ref{submodel}で提案したモデルに基づき,「です・ます」の諸用法を,場面の設定と関連づけて分析する.\subsection{(I)〈共在〉{\unskip}…心的距離の表示}\label{Ikyori}まず,(I)〈共在〉の場における「です・ます」を見る.ここでは,聞手の条件によって「共在性」が高であるので,共在マーカーはその本質的働きをそのまま表すと考えられる.〈共在〉では次のような場合に用いられる.\eenumsentence{\item(上司に:上)コピーを取ってき\unami{ます}.\item(初対面:疎)はじめまして,佐藤\unami{です}.\item(講演:公)今日はアンチエイジングについてお話をしたいと思い\unami{ます}.\item(夫婦喧嘩:遠)一体何を隠したというの\unami{です}か?}(\ex{0}a)は会社で上司に,(\ex{0}b)は初対面の人物に,そして(\ex{0}c)は「公」の場面で聴衆に,(\ex{0}d)は喧嘩相手としての配偶者に対しての待遇表現である.「丁寧語」と説明されてきたこれらの用法は,夫婦喧嘩の冷戦状態の際に使われる「です・ます」なども含め,本質的に心的な「距離」の表示と整理できる\footnote{本質的働きとした「心的距離」については滝浦(2005b)参照.この本質的働きは聞手の存在を何らか前提するという共在マーカーの定義とも矛盾しない.また,聞手との心的距離の関係が待遇表現の本質であるという考え方は東(2004)東他(2005)にも示されている.研究書ではないが橋本(2005)も同様である.}.「心的距離の表示」は,敬語(丁寧語)に直結するものではあるが,敬意のみを表すのではなく\footnote{「です・ます」に限らず「敬語」が表すさまざまな運用上の意味については,南(1987)に詳しい.},忌避・疎遠・公などを統一的に表示する一つの軸である.〈共在〉にあたる対面コミュニケーションの場で「です・ます」が採用されると,その「話手/聞手の心的距離」が表示される.これを本稿のモデルでは「です・ます」の本質的機能の発現としての用法と見る.\enumsentence{(大河内=教授,財前=助教授,里見=財前と同期の助教授)\begin{description}\item[大河内:]入りなさい.\item[財前:]失礼\unami{いたします}.\item[財前:](里見を見て)\unami{驚いたな},君も\unami{いたのか}.\item[大河内:]困るかね?\item[財前:]いいえ.基礎講座でともに大河内先生に教わったころを\unami{思い出します}.\end{description}\hfill(ドラマ「白い巨塔第一部」\unskip\footnote{「白い巨塔第一部DVD-BOX」ポニーキャニオン.})}財前助教授は,大河内教授に対しては「失礼いたします」「思い出します」のように「です・ます」を使い,大河内教授との心的距離を「遠」に置くが,同期の里見に対しては,「驚いたな,君もいたのか」のように「非です・ます」を使い,心的距離が「近」であることを示す.対面対話や特定の相手に向けた手紙文などでは「です・ます」が「心的距離」の表示となり,他の敬語(尊敬語・謙譲語)などとも連動して用いられる.\subsection{(III)〈疑似共在〉{\unskip}…{\unskip}「節度ある」聞手の特定化}次に(III)〈疑似共在〉の場での「です・ます」を見る.書くメディアのような,話手から見て聞手が特定できないコンテクストの場合,\ref{tuikyu}で述べた通り,一般的には「だ・である体」が好まれ「です・ます体」は推奨されない選択肢の一つとなっている.しかしそこで「です・ます」が用いられると,共在マーカーは(III)〈疑似共在〉の場の構築を指向した話手のストラテジーとなり,疑似的な聞手の顕在化という役割が前面に出ると予測できる.さきに挙げた例をもう一度見よう.\eenumsentence{\itemイラクに派遣された陸上自衛隊は,既に相応の責任を果たした.基本計画の修正により派遣期間は一年延長されたが,今から撤収の準備に着手\utensen{すべきだ}.((\ref{iraq}a)再掲)\itemイラクに駐留する自衛隊は,しばらく復興支援を続けることに\unami{なりました}.でも,いずれ治安がよくなれば政府開発援助(ODA)などに\unami{出番が回るはずです}.((\ref{iraq}b)再掲)}例(\ex{0}b)のような,書くメディアでは推奨されないはずの「です・ます」が採用された文章では,「わかりやすい」「やさしい」ニュアンスが生じている.教科書や子供向けの文章,非日本語話者向けの文章で「です・ます体」が採用されているのは,「です・ます体」の選択が「わかりやすい雰囲気」を演出する意図に合った文体として確立しているためといえる\footnote{これについて東他(2006)では,メディア論(原田2005)を援用し,文字という媒体の制限によって表情や繰り返し確認,音声による強調などの手段が制限されるために「書くメディア」において採られる代替手段と位置づけている.}.「です・ます」が,ストラテジーとして共在マーカーの機能を果たしていることから生じる効果である.話手と聞手が顕在化し,元来は関係のなかったところに関係が生じることによって「近づく感じ」\unskip\footnote{「「近づく」感じがする」というのは,あくまで話手の感覚である.一般的には「です・ます」体について「柔らかい」「優しい」「わかりやすい」という解釈は聞手側においても成り立ちうる.ただしそれは,このストラテジーが(例えば「先生」口調,子ども向けのやさしい・わかりやすい解説のモードとして)社会的に成立していること(すなわち母語話者として,話手側のストラテジーを知っていること)によって成り立つ解釈と考える.「近づく感じ」は,話手側が装い,その装いがモードとして共有される場合に限られるのである.例えば,外国人向けの災害時情報で使用されている「やさしい日本語」による表現では「です・ます」体が採用されることが多いが,これはカタカナ語を含め難解な語彙を避け,単文で構成するといった配慮とともに,ほとんどの日本語初級教科書で導入されている「〜があります」「〜てください」「〜ないでください」などの文型にあてはめて表現することで「わかりやすく」情報を伝えるためであり(佐藤(2000)参照),「です・ます」が,非母語話者にとっての「やさしさ」に直結するものではない.}が生まれる.これが演出されたものとしての「わかりやすさ」の正体であろう.相手を敬して遠ざけるはずの「です・ます」が,共在性のない伝達場面で使用されると却って「近づく」感じの演出となる,「です・ます」が共在のストラテジーとして機能していることから説明可能となる.\def\boutenchar{}\def\bou#1{}\def\getlength#1{}\def\dot#1{}一方,「です・ます」を他の共在マーカーと比較したときには,\bou{相対的}に「遠」なる聞手を顕在化させる.それぞれの共在マーカーによってどのような聞手が顕在化するのか見てみよう.(\ex{+1}a)は新聞の社説,(\ex{+1}b)は幼児向け絵本の例である.\eenumsentence{\item新聞の社説\\日本はことしから人口減少時代に\unami{入るかもしれません}.いまは悲観論ばかりが\unami{先行しています}が,{\unskip}総選挙では真の豊かさを実感できる社会にする論争を\unami{期待します}.\\\hfill(中日新聞社説,2005.8.28)\item絵本\\ここがどこだか\utensen{わかる?}\\ひまわりがこんなにいっぱいさいていて,\\まるでひまわりのうみみたいでしょ!\\\hfill(『よいこのがくしゅう』第44巻第4号,学習研究社,2005.7)}「です・ます」は,心的距離が「遠」なる聞手を顕在化することで,話手と聞手の「節度ある」関係を導くため,公的な場においての使用に堪える.対して,(\ex{0}b)の,「わかる?」「うみみたいでしょ!」のような問いかけや終助詞は,共在マーカーとして心的距離が「近」の話手/聞手関係を顕在化する.したがって,これらの共在マーカーは,親密,私的な場において使用されている.これは「です・ます」と他の共在マーカーの相対的な関係の反映である.共在マーカーにより聞手を顕在化する例は,ほかにも見られる.(\ex{+1})は求人誌から引用したものである.求人誌はその性格上,不特定多数の読者に向けられるが,どの共在マーカーを使うかによって,求める人物像が浮かび上がってくる.\eenumsentence{\itemお客様からなどの電話対応やパソコンでの文書作成などを\unami{お願いします}.\item閉店後のお店の清掃を\unami{お願いします}.広いお店なのでいい運動に\unami{なりますよ}.\itemいろんなスポーツ用品やアメカジに囲まれて,楽しく\utensen{バイトしよう}!!\\\hfill(『タウンワーク名古屋東部・瀬戸周辺版』12/22号vol.~1--2,2005)}共在マーカーの使用が,話手/聞手を顕在化させ,関係を作り出すものであること,その「関係」「近づき方」が共在マーカーの使い分けによって異なって実現されていることが見て取れる.この違いには,作り出された〈疑似共在〉(III)であっても,(I)の場での各要素の本質的機能の差が反映していると考えられる.一度〈共在〉の場が作り出されると,その場では,聞手が特定である(I)と同様,「です・ます」か「非です・ます」かによる関係の違いが生じるのである.これはあくまで共在マーカー間の相対的な関係の反映であり,「です・ます」自体の問題ではないと考える.\subsection{感情・態度の表示となるメカニズム}次に,「です・ます」の出現が,話手と聞手の関係のあり方の変化を表し,「感情・態度の表示」となる場合を説明する.本稿のモデルでは,話手と聞手の関係変化について,二通りの変化が想定できる.一つは,聞手が不特定・多数・抽象的であるような共在性の低い場で,話手が「です・ます」を使用し,そもそも存在しなかった,話手と聞手の関係を生じさせるという関係変化,すなわち〈非共在〉(II)から〈疑似共在〉(III)へのシフトである.そしてもう一つは,〈共在〉(I)および〈疑似共在〉(III)の場において「非です・ます」がスタイルとなっている中で「です・ます」を,また「です・ます」がスタイルとなっている中で「非です・ます」を使用することによって,話手と聞手の関係を変化させるものである.\subsubsection{〈非共在〉から〈共在〉へのシフト}まず,(II)の場において「です・ます」を使用し,〈非共在〉から〈疑似共在〉へと変化させるタイプを見よう.(\ex{+1})は「だ・である体」で書かれた論文である.最後の謝辞で「です・ます」が出現している.また(\ex{+2})は新聞所載の「だ・である体」のエッセイの末尾に「〜ますよ」が出現している.\enumsentence{付記\hspace{3mm}インフォーマントのお二人,またインフォーマントを紹介してくださった××氏\footnote{用例(\ex{0})の「××氏」については原典で個人名のため記号に置き換えた.}に\unami{お礼申し上げます}.本稿は,国語学会2000年度秋季大会で発表した内容を大幅に改訂したもの\utensen{である}.発表の際,\unami{ご意見・ご教示くださった}皆様に\unami{お礼申し上げます}.(国語学.52(3),p.~44)}\enumsentence{では,その高揚感をあおってくれたものは\utensen{何だったろう}.そこで思い浮かぶのが各局の中継の\utensen{テーマ曲だ}.NHKなら古関裕而作曲の「スポーツ・ショー行進曲」(♪チャンチャチャンチャチャンチャチャララ……),(中略)TBSならばあの曲(ツッチャッチャッチャッ,チャッチャララッチャッチャーン).どれも今でも口ずさめるテーマ曲\utensen{ばかりだ}.(中略)いかんせんわかりづらい表記になってしまったが,ツーだのチャラだの口ずさんで\ul{みられよ}\footnote{用例(\ex{0})には末尾の「〜ますよ」の直前に命令形「みられよ」が出現している.命令形も,命令の動作内容を達成能力のある聞手の存在を前提とする点で共在マーカーの一つと考えられる.「だ・である体」には一般に命令形は出現しにくく,「〜たいものだ」「べきだ」などの義務表現で代用されている.}.きっと\unami{思い出しますよ}.\hfill(毎日新聞夕刊,2006.4.8\footnote{やくみつる「週間テレビ評「プロ野球中継」」})}聞手が不特定多数の(II)〈非共在〉の発話においては,共在マーカーは現れない.そのような場で,共在マーカー「です・ます」が出現すると,「です・ます」は聞手を顕在化させ,異なる伝達場面を構築することとなる.すなわち,瞬間的に〈非共在〉(II)を〈疑似共在〉(III)に変化させることで,話手の態度の表示となると考えられる.(\ex{-1})のように「××氏」「皆様」という個別具体的かつ特定の聞手を顕在化する場合も,(\ex{0})のように不特定のままで集合を絞り込むように具体化・顕在化する場合もある.興味深いのは(\ex{-1})で「ご教示くださった」「申し上げる」といった敬語が用いられていることである.論文の読者が不特定多数であることに変わりはなく,名指しされた「××氏」が読んでいるとは限らないが,共在マーカーを使用することで発話を(III)〈疑似共在〉とし,特定化した聞手に待遇表現を用いているのだと考えられる.共在マーカーの使用は,話手の〈共在〉指向ストラテジーである.そのストラテジーにおいて,敬語の使用も「です・ます」の出現も連動して可能になっていると考えられる.〈疑似〉的に特定化した聞手に対しても,その個別性・具体性・特定性が高ければ高いほど,〈共在〉での聞手同様に扱うことができ,待遇的に位置づけることも可能になる.不特定多数の読者というコンテクストが公の場として,あるいは第三者の存在として敬語の出現に影響している可能性もある\footnote{「第三者の存在」(バフチン1952--1953[1988])については,対話の大前提と考える.また,BrownandLevinson(1978,1987),Bell(1984),Clark(1993)などで,多様なaudienceの存在によるコミュニケーションへの影響を示唆したモデルが提案されている.本稿においては扱えないが,傍聴者を含めた伝達場面の構成要素とそのあり方,さらに共在性との関わりの整理は今後の課題である.}.以上,共在マーカーの使用によって〈非共在〉から〈疑似共在〉へのシフトにより,話手の感情・態度の表示となる例を見た.\subsubsection{〈共在〉における心的距離の変化}次に,〈共在〉の場において話手と聞手の心的距離を変化させるタイプを見てみよう.話手と聞手が「共在」もしくは「疑似共在」している(I)および(III)の場において,「非です・ます」スタイルとなっている中に「です・ます」が出現すると,\ref{hyoji}で見たように感情・態度の表示となる.これは,「です・ます」の使用により聞手が「近」から「遠」になる,という関係変化が起こり,それによって感情,態度を表すことになるものと考える.(\ex{+1})の\unami{}部では「です・ます」の出現により,聞手である朋美との心的距離を瞬間的に遠くし,察しの悪い朋美に対する「皮肉」のような感情を表す.(\ex{+2})では,(III)〈疑似共在〉の場で「起きたら雨だったよ〜,しかたないねー」のように,「非です・ます」の「近」の関係で共在していた聞手(ブログ読者)に対し,「夫婦揃ってお腹壊しました」と「です・ます」を出現させることで,改まった態度の表示となり「照れ隠し」といった感情が示される.\enumsentence{(次郎(32歳):父が営む児童養護施設に仮住まいの身,朋美(27歳):児童養護施設の保育士)\begin{description}\item[次郎:]ねえねえ?どうして\utensen{朋美先生なの}?\item[朋美:]はっ?\item[次郎:]何で保育士に\unami{なったんですか}?\item[朋美:]こんなときに語れるほど簡単じゃありません.\item[次郎:]\utensen{あっそう}.\item[朋美:]どうしてですか?\item[次郎:]いや\utensen{鈍いから}.(せきばらい)\end{description}\hfill(ドラマ「エンジン」\unskip\footnote{「エンジンDVD-BOX」ビクターエンタテインメント})}\enumsentence{今日は,先週いけなかったゴルフ(ハーフだけ)に行こうとしてたのに,起きたら\utensen{雨だったよ}〜{\tt(T\_T)}\utensen{しかたないねー}.(中略)今日は実は結婚記念日.何が食べたいか協議の結果,餃子の王将に決定.でも年取ったせいか(油がきつかったのかな?)夫婦揃ってお腹\unami{壊しました}.来年は,もうちょっとヘルシーなもの食べよう…\\\hfill(「しろうと女房の厩舎日記」\unskip\footnote{{\tthttp://blog.livedoor.jp/yukiko.miyamotol/}(2006.1.30アクセス)})}逆に「です・ます」スタイルの中に,「非です・ます」を出現させると,聞手との関係が「遠」から「近」に変化する.いずれも,〈共在〉の場において「です・ます」と「非です・ます」を瞬間的にスイッチすることで,「遠--近」の関係を変化させ感情を示すものである.\enumsentence{(里見=助教授,柳原=医局員,君子=看護師)\begin{description}\item[柳原:]財前先生は?\item[君子:]オペに\unami{入りましたよー}.\item[柳原:]えっ?\item[君子:](柳原に)今日みたいな大事なオペに\utensen{遅れるわけないじゃない}.\item[里見:]大事なオペってー?\item[君子:]ご存じない\unami{んですか?}患者,大阪府知事の鶴川幸三\unami{なんです}.\end{description}\hfill(ドラマ「白い巨塔第一部」\unskip\footnote{「白い巨塔DVD-BOX第一部」ポニーキャニオン})}君子と柳原には看護師と医師という立場の差があり,君子は通常,柳原に対して「オペに入りましたよー」のように「です・ます」を使うが,「大事なオペに遅れるわけないじゃない」と「非です・ます」を出現させると,心的距離が「近」となり,職業上の立場差が示されなくなる.その結果,医師と看護師という立場の差からは表れ得ない,柳原に対する「あきれ」といった感情が示されている.また,「です・ます」が,特定のキャラクターと結びついた「役割語」として使われる場合も,話手と聞手の関係変化によると考えられる.「です・ます」を使うことで,普段の話手と聞手の関係とは異なる「遠」の関係の表示となり,話手は,自分とは違うキャラクターに変身する.\enumsentence{(のび太が思わぬ品物を手に入れて悦に入る場面)\\のび太:「これは\unami{たいへんなものですよ}.」\\\hfill(ドラえもん,7巻,小学館,(定延2005d:128))}ある種の役割やキャラクターを表す場合,終助詞の類がその中心的な役割を果たす.役割やキャラクターを表しうる共在マーカーの使い分けが,話手の変身の演出,すなわち聞手との関係変化につながる\footnote{キャラ助詞については,音声特徴の多様性を利用することができない書くメディアでより多く使用される(定延2005a,2005c).またウェブ上の匿名ブログではあるが,キャラ助詞を書き言葉で使用すると「わかりやすくなる」という指摘がある(「それだけは聞かんとってくれ」「第6回猫なんだニャ」{\tthttp://www.sorekika.com/dame.jsp?idx=006}(2006.4.2アクセス)).}.以上のような〈共在〉での心的距離の遠近の操作は,小説等のセリフで効果的に利用され表現効果を発揮する.(\ex{+1})は,小説の中の嫁--舅の口喧嘩の中での舅のセリフである.\enumsentence{「……\ul{なんじゃい},二言めにはスジだの金だのといい\utensen{くさって}.ああ,どうせわしは得手勝手な\ul{爺いじゃ}.震災からこのかた遊びくらした道楽もんの,憎まれものの,邪魔っけな\ul{爺いじゃ}.ようわかってるよそんなことは.お前はえらい,\unami{しっかり者です}.立派な\unami{女子さんです}.わしは\ul{バカじゃ}.失言もし物忘れも\utensen{する}.この年だ,文句は年に\utensen{いうてくれよ}.……ふん,鬼みたいな顔で睨み\utensen{くさって}.わしは,お前みたいなこわい女とはよう\unami{暮しません}.この年になってピリピリチリチリ暮すなんて,わしは\ul{ごめんじゃ}.ああ,\unami{まっぴらです}.わしを,Sへ\utensen{やってください\\}」\hfill(山川方夫1975,海岸公園.新潮文庫.p.~23)\footnote{用例(\ex{0})は定延利之氏との個人談話による.}}「わし」「〜じゃ」といった老人の役割語とともに「です・ます」と「非です・ます」が混在して現れるセリフによって,「老人」が「感情むき出し」でいじけてみせていることが見事に表されている.\subsubsection{感情・態度の表示となるメカニズム}感情の表示については,従来一様にスタイルシフトの効果と説明されてきたが,本稿の枠組みでは二通りに整理した.一つは伝達場面の転換というべき「〈非共在〉から〈共在〉への変化」によって,話手/聞手が顕在化し,それと同時に共在という関係が生じることから,「近づく」感じの感情・評価・態度の表示となるものである.もう一つは〈共在〉における,ある一定のスタイルの中で異なるスタイルが出現する場合であり「聞手との関係変化」の表示,すなわち「遠ざかる・改まる」といった感情・評価・態度の現れとなるものである.この整理により,どのような場合に「親しみ」「わかりやすさ」「仲間意識」といった近づく方向の感情・態度の表示になり,どのような場合に「卑下」「遠慮」「皮肉」「専門家意識」「照れ隠し」といった遠ざかる方向の感情・態度の表示になるのかといったことも説明可能となった.
\section{まとめと今後の課題}
label{matome}本稿では,「です・ます」の諸用法を概観し,その分化を伝達場面の構造モデルに照らし合わせることで包括的な説明を試みた.そして,「です・ます」の諸用法とされてきたものは,「です・ます」が持つ「話手と聞手の心的距離の表示」という本質と,伝達場面における〈共在〉/〈非共在〉性およびそれに基づいた話手のストラテジーによって説明できることを明らかにした.これは,コミュニケーションのあり方のさまざまを,伝達場面の構造として文法記述に生かす立場であり,本稿はそのような立場の有効性・発展性を主張するものである.言語形式が伝達場面の変化によって意味・機能を変えるという事実は,本稿のモデルの言語形式の機能変化を含む言語の動態を説明する枠組みとしての有用性をも示唆するものである.「です・ます」に加え,個別の共在マーカーの分析を積み重ねることでその有効性を補強すると同時に,伝達場面の構造モデルそのものの精緻化,他の語用論的条件やコミュニケーションモデルと本稿の伝達場面の構造モデルとの関係づけなどは,全て今後の課題である.\acknowledgment本稿は,執筆者一同による次の発表論文および口頭発表に基づいて大幅に整理し加筆修正したものである.これらに対する多くのご意見および査読者の貴重なご指摘,照会に依るところが大きい.記して謝意を表する.\begin{itemize}\item北村雅則他(2006).``伝達場面の構造と「です・ます」の諸機能''.言語処理学会第12回年次大会発表論文集,pp.~1139--1142.\item東弘子他.伝達場面の構造と言語形式—「です・ます」の諸機能と話手・聞手の共在性を手がかりに—.名古屋言語研究会第32回例会2006.3.18(於:名古屋大学)\end{itemize}本研究は平成17年度科学研究費16720108(若手研究B:研究代表者・東弘子)の研究成果の一つである.\begin{thebibliography}{3}\item東弘子(2004).``「話題の人物」の待遇を決定するシステム.''名古屋大学国語国文学,\textbf{95},pp.~103--192.\item東弘子,加藤淳,宮地朝子,江口正(2005).``マスメディアにおける敬語使用の変異と聞手の感情に及ぼす効果.''言語処理学会第11回年次大会(NLP2005)発表論文集,pp.~458--461.\item東弘子,加藤良徳,北村雅則,石川美紀子,加藤淳,宮地朝子(2006).``「書くメディア」にあらわれる「です・ます体」のわかりやすさ.''言語処理学会第12回年次大会(NLP2006)発表論文集,pp.~24--27.\item菊地康人(1994).敬語.角川書店(講談社学術文庫より再刊1997).\item菊地康人(1996).敬語再入門.丸善ライブラリー.\item木村大治(1996).ボンガンドにおける共在感覚.叢書・身体と文化2コミュニケーションとしての身体.大修館書店,pp.~316--344.\item金水敏(2003).ヴァーチャル日本語役割語の謎.岩波書店.\item金水敏,田窪行則(1996).``複数の心的距離による談話管理.''認知科学,\textbf{3}(3),pp.~58--74.\item鈴木睦(1997).日本語教育における丁寧体世界と普通体世界.視点と言語行動,田窪行則編,くろしお出版,pp.~45--76.\item定延利之(2003).``体験と知識—コミュニカティブストラテジー.''国文学解釈と教材の研究,\textbf{48}(12),pp.~54--64.\item定延利之(2005a).ささやく恋人,りきむレポーター—口の中の文化.岩波書店.\item定延利之(2005b).ケース17話しことばと書きことば(音声編){\unskip}.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~102--107.\item定延利之(2005c).ケース18話しことばと書きことば(文字編){\unskip}.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~108--113.\item定延利之(2005d).ケース21マンガ・雑誌のことば.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~126--133.\item定延利之(2005e).``「表す」感動詞から「する」感動詞へ.''言語,\textbf{34}(11),pp.~33--39.\item佐藤和之(2000).``「災害時の外国人用日本語」マニュアルを考える—災害時情報と外国人居住者.''日本語学,\textbf{19}(2),pp.~34--45.\item清水康行(1989).文章語の性格.(講座日本語と日本語教育5)日本語の文法・文体(下){\unskip},山口佳紀編,明治書院,pp.~26--45.\item滝浦真人(2002).``敬語論の“出口”—視点と共感と距離の敬語論に向けて—.''言語,\textbf{31}(6),pp.~106--117.\item滝浦真人(2005a).``日本社会と敬語像—「親愛の敬語」を超えて」{\unskip}.''言語,\textbf{34}(12),pp.~36--43.\item滝浦真人(2005b).日本の敬語論—ポライトネス理論からの再検討.大修館書店.\item谷泰編(1997).コミュニケーションの自然誌.新曜社.\item永野賢(1966).``「です」「ます」体の文章と敬語—敬体の文章における敬語.''国文学解釈と教材の研究,\textbf{11}(8),pp.~108--113.\item橋本治(2005).ちゃんと話すための敬語の本.ちくまプリマー新書.\itemバフチン,ミハイル(1952--1953).ことばの諸ジャンルの問題.(邦訳:ことばのジャンル.ことば・対話・テキスト,ミハイル・バフチン著作集8,新谷敬三郎訳(1988),新時代社,pp.~115--189.)\item原田悦子(2005).メディアと表現様式の変化;認知工学の立場から.講座社会言語科学2メディア,ひつじ書房,pp.~118--133.\item日高水穂(2004).``普通体と丁寧体の混在による表現効果.''言語,\textbf{33}(11),pp.~118--119.\item日高水穂(2005).ケース11ことばの切りかえ.ケーススタディ日本語のバラエティ,上野智子・定延利之・佐藤和之・野田春美編,おうふう,pp.~66--71.\item水谷雅彦(1997).伝達・対話・会話—コミュニケーションのメタ自然誌へむけて—.コミュニケーションの自然誌,谷泰編.新曜社,pp.~5--30.\item南不二男(1987).敬語.岩波新書.\item三宅和子,岡本能里子,佐藤彰(2004).メディアとことば1.ひつじ書房.\itemメイナード,K・泉子(1991).``文体の意味—ダ体とデスマス体の混用について—.''言語,\textbf{20}(2),pp.~75--80.\itemメイナード,K・泉子(2001a).``心の変化と話しことばのスタイルシフト.''言語,\textbf{30}(7),pp.~38--45.\itemメイナード,K・泉子(2001b).``日本語文法と感情の接点—テレビドラマに会話分析を応用して—.''日本語文法,\textbf{1}(1),pp.~90--110.\item森山卓郎(2003).コミュニケーション力をみがく—日本語表現の戦略—.NHK出版.\item安川一(1991).ゴフマン世界の再構成—共在の技法と秩序.世界思想社.\item山森良枝(1997).終助詞の局所的情報処理機能.コミュニケーションの自然誌,谷泰編.新曜社,pp.~130--172.\itemAustin,J.L.(1962).HowtoDoThingsWithWords.OxfordUniversityPress:Oxford,England.\itemBell,A.(1984).``Languagestyleasaudiencedesign.''\textit{LanguageinSociety},\textbf{13},pp.~145--203.\itemBrown,P.andLevinson,S.(1987[1978]).Politeness:SomeUniversalsinLanguageUsage.CambridgeUniversityPress:Cambridge,England.\itemClark,HerbertH.andCarlson,ThomasB.(1982).``Speechactsandhearers'beliefs.''InN.V.Smith(Ed.),Mutualknowledge.NewYork:AcademicPress,pp.~1--45.\itemClark,HerbertH.(1992).ArenasofLanguageUse.UniversityofChicagoPress,Tx.\itemClark,HerbertH.andMarshall,C.R.(1981).``DefiniteReferenceandMutualKnowledge.''InJoshi,A.K.,WebberB.L.andSagI.A.(Ed.),``ElementsofDiscourseUnderstanding.''CambridgeUniversityPress:Cambridge,England.\itemGoffman,Eaving(1963).BehaviorinPublicPlaces:NotesontheSocialOrganizationofGathering.NewYork:TheFreePress.\itemGrice,H.P.(1975).``Logicandconversation.''InCole,Peter,andMorganJ.L.(Ed.),Syntaxandsemantics:Speechacts.Vol.~3.NewYork:Academic.pp.~41--58.\itemSearle,J.R.(1969).SpeechActs:AnEssayinthePhilosophyofLanguage.CambridgeUniversityPress:Cambridge,England.\itemSperber,D.andWilson,D.(1986).Relevance:CommunicationandCognition,HarvardUniversityPress.\itemTannen,Deborah(1980).``Spoken/WrittenLanguageandtheOral/LiterateContinuum.''\textit{ProceedingsofTheSixthAnnualMeetingofTheBerkleyLinguisticsSociety},UniversityofCalifornia,Berkley,pp.~207--218.\itemTannen,Deborah(1982).``TheOral/LiterateContinuuminDiscourse.''SpokenandWrittenLanguage:ExploringOralityandLiteracy,Norwood,NJ:ABLEXPublishingCorp.,pp.~1--16.\end{thebibliography}\begin{biography}\bioauthor{宮地朝子}{2001年名古屋大学大学院文学研究科博士課程後期課程修了,博士(文学),現在名古屋大学大学院文学研究科講師,日本言語学会,日本語学会,日本語文法学会,日本語教育学会各会員.}\bioauthor{北村雅則(正会員)\unskip}{2005年名古屋大学大学院文学研究科博士課程後期課程満期退学,同年博士(文学)取得,現在独立行政法人国立国語研究所特別奨励研究員,日本語学会,日本語文法学会各会員.}\bioauthor{加藤淳}{2006年愛知県立大学外国語学部英米学科卒業,現在名古屋大学大学院文学研究科博士課程前期課程在学中.}\bioauthor{石川美紀子}{2002年名古屋大学大学院文学研究科博士課程前期課程修了,現在名古屋大学大学院文学研究科博士課程後期課程在学中,日本語学会会員.}\bioauthor{加藤良徳}{2002年名古屋大学大学院文学研究科博士課程後期課程満期退学,博士(文学),現在静岡英和学院大学人間社会学部講師,日本語学会会員.}\bioauthor{東弘子(正会員)\unskip}{1997年名古屋大学大学院文学研究科博士課程後期満期退学,同年博士(文学)取得,現在愛知県立大学外国語学部准教授,日本言語学会,日本語学会,日本語文法学会各会員.}\end{biography}\biodate\end{document}
| |
V23N05-05
|
\section{はじめに}
\label{sec:intro}\subsection{研究背景}\label{sec:background}言語は,人間にとって主要なコミュニケーションの道具であると同時に,話者集団にとっては社会的背景に根付いたアイデンティティーでもある.母国語の異なる相手と意思疎通を取るためには,翻訳は必要不可欠な技術であるが,専門の知識が必要となるため,ソフトウェア的に代行できる機械翻訳の技術に期待が高まっている.英語と任意の言語間での翻訳で機械翻訳の実用化を目指す例が多いが,英語を含まない言語対においては翻訳精度がまだ実用的なレベルに達していないことが多く,英語を熟知していない利用者にとって様々な言語間で機械翻訳を支障なく利用できる状況とは言えない.人手で翻訳規則を記述するルールベース機械翻訳(Rule-BasedMachineTranslation;RBMT\cite{nirenburg89})では,対象の2言語に精通した専門家の知識が必要であり,多くの言語対において,多彩な表現を広くカバーすることも困難である.そのため,近年主流の機械翻訳方式であり,機械学習技術を用いて対訳コーパスから自動的に翻訳規則を獲得する統計的機械翻訳(StatisticalMachineTranslation;SMT\cite{brown93})について本論文では議論を行う.対訳コーパスとは,2言語間で意味の対応する文や句を集めたデータのことを指すが,SMTでは学習に使用する対訳コーパスが大規模になるほど,翻訳結果の精度が向上すると報告されている\cite{dyer08}.しかし,英語を含まない言語対などを考慮すれば,多くの言語対において,大規模な対訳コーパスを直ちに取得することは困難と言える.このような,容易に対訳コーパスを取得できないような言語対においても,既存の言語資源を有効に用いて高精度な機械翻訳を実現できれば,機械翻訳の実用の幅が大きく広がることになる.特定の言語対で十分な文量の対訳コーパスが得られない場合,中間言語(\textit{Pvt})を用いたピボット翻訳が有効な手法の一つである\cite{gispert06,cohn07,zhu14}.中間言語を用いる方法も様々であるが,一方の目的言語と他方の原言語が一致するような2つの機械翻訳システムを利用できる場合,それらをパイプライン処理する逐次的ピボット翻訳(CascadeTranslation\cite{gispert06})手法が容易に実現可能である.より高度なピボット翻訳の手法としては,原言語・中間言語(\textit{Src-Pvt})と中間言語・目的言語(\textit{Pvt-Trg})の2組の言語対のためにそれぞれ学習されたSMTシステムのモデルを合成し,新しく得られた原言語・目的言語(\textit{Src-Trg})のSMTシステムを用いて翻訳を行うテーブル合成手法(Triangulation\cite{cohn07})も提案されており,この手法で特に高い翻訳精度が得られたと報告されている\cite{utiyama07}.これらの手法は特に,今日広く用いられているSMTの枠組の一つであるフレーズベース機械翻訳(Phrase-BasedMachineTranslation;PBMT\cite{koehn03})について数多く提案され,検証されてきた.しかし,PBMTにおいて有効性が検証されたピボット翻訳手法が,異なるSMTの枠組でも同様に有効であるかどうかは明らかにされていない.例えば英語と日本語,英語と中国語といった語順の大きく異なる言語間の翻訳では,同期文脈自由文法(SynchronousContext-FreeGrammar;SCFG\cite{chiang07})のような木構造ベースのSMTによって高度な単語並び替えに対応可能であり,PBMTよりも高い翻訳精度を達成できると報告されている.そのため,PBMTにおいて有効性の知られているピボット翻訳手法が,SCFGによる翻訳でも有効であるとすれば,並び替えの問題に高度に対応しつつ直接\textit{Src-Trg}の対訳コーパスを得られない状況にも対処可能となる.\begin{figure}[t]\begin{center}\includegraphics{23-5ia5f1.eps}\end{center}\caption{2組の単語対応から新しい単語対応を推定}\label{fig:align-estimation}\end{figure}また,テーブル合成手法では,\textit{Src-Pvt}フレーズ対応と\textit{Pvt-Trg}フレーズ対応から,正しい\textit{Src-Trg}フレーズ対応と確率スコアを推定する必要がある.図\ref{fig:align-estimation}に示す例では,個別に学習された(a)の日英翻訳および(b)の英伊翻訳における単語対応から,日伊翻訳における単語対応を推定したい場合,(c)のように単語対応を推定する候補は非常に多く,(d)のように正しい推定結果を得ることは困難である.その上,図\ref{fig:align-estimation}(c)のように推定された\textit{Src-Trg}の単語対応からは,原言語と目的言語の橋渡しをしていた中間言語の単語情報が分からないため,翻訳を行う上で重要な手がかりとなり得る情報を失ってしまうことになる.このように語義曖昧性や言語間の用語法の差異により,ピボット翻訳は通常の翻訳よりも本質的に多くの曖昧性の問題を抱えており,さらなる翻訳精度の向上には課題がある.\subsection{研究目的}\label{sec:purpose}本研究では,多言語機械翻訳,とりわけ対訳コーパスの取得が困難である少資源言語対における機械翻訳の高精度化を目指し,従来のピボット翻訳手法を調査,問題点を改善して翻訳精度を向上させることを目的とする.ピボット翻訳の精度向上に向けて,本論文では2段階の議論を行う.第1段階目では,従来のPBMTで有効性の知られているピボット翻訳手法が異なる枠組のSMTでも有効であるかどうかを調査する.\ref{sec:background}節で述べたように,PBMTによるピボット翻訳手法においては,テーブル合成手法で高い翻訳精度が確認されているため,木構造ベースのSMTであるSCFGによる翻訳で同等の処理を行うための応用手法を提案する.SCFGとテーブル合成手法によるピボット翻訳が,逐次的ピボット翻訳や,PBMTにおけるピボット翻訳手法よりも高い精度を得られるどうかを比較評価することで,次の段階への予備実験とする\footnote{\label{fn:papers}本稿の内容の一部は,情報処理学会自然言語処理研究会\cite{miura14nl12,miura15nl07}およびACL2015:The53rdAnnualMeetingoftheAssociationforComputationalLinguistics\cite{miura15acl}で報告されている.本稿では,各手法・実験に関する詳細な説明,中国語やアラビア語など語族の異なる言語間での比較評価実験や品詞毎の翻訳精度に関する分析を追加している.}.第2段階目では,テーブル合成手法において発生する曖昧性の問題を解消し,翻訳精度を向上させるための新たな手法を提案する.従来のテーブル合成手法では,図\ref{fig:align-estimation}(c)に示したように,フレーズ対応の推定後には中間言語フレーズの情報が失われてしまうことを\ref{sec:background}節で述べた.この問題を克服するため,本論文では原言語と目的言語を結び付けていた中間言語フレーズの情報も翻訳モデル中に保存し,原言語から目的言語と中間言語へ同時に翻訳を行うための確率スコアを推定することによって翻訳を行う新しいテーブル合成手法を提案する.通常のSMTシステムでは,入力された原言語文から,目的言語における訳出候補を選出する際,文の自然性を評価し,適切な語彙選択を促すために目的言語の言語モデル(目的言語モデル)を利用する.一方,本手法で提案する翻訳モデルとSMTシステムでは,原言語文に対して目的言語文と中間言語文の翻訳を同時に行うため,目的言語モデルのみではなく,中間言語の言語モデル(中間言語モデル)も同時に考慮して訳出候補の探索を行う.本手法の利点は,英語のように中間言語として選ばれる言語は豊富な単言語資源を得られる傾向が強いため,このような追加の言語情報を翻訳システムに組み込み,精度向上に役立てられることにある\footnoteref{fn:papers}.
\section{統計的機械翻訳}
\label{sec:smt}本節では,SMTの基本的な動作原理となる対数線形モデル(\ref{sec:log-linear}節),SMTの中でも特に代表的な翻訳方式であるフレーズベース機械翻訳(PBMT,\ref{sec:pbmt}節)と木構造に基づく翻訳方式である同期文脈自由文法(SCFG,\ref{sec:scfg}節),SCFGを3言語以上に対応できるよう一般化して拡張された複数同期文脈自由文法(Multi-SynchronousContext-FreeGrammar;MSCFG,\ref{sec:mscfg}節)について説明する.\subsection{対数線形モデル}\label{sec:log-linear}SMTの基本的なアイディアは,雑音のある通信路モデル\cite{shannon48}に基いている.ある原言語の文$\bm{f}$に対して,訳出候補となり得るすべての目的言語文の集合を$\mathcal{E}(\bm{f})$とする.$\bm{f}$が目的言語文$\bm{e}\in\mathcal{E}(\bm{f})$へと翻訳される確率$Pr(\bm{e}|\bm{f})$をすべての$\bm{e}$について計算可能とする.SMTでは,$Pr(\bm{e}|\bm{f})$を最大化する$\hat{\bm{e}}\in\mathcal{E}(\bm{f})$を求める.\begin{align}\hat{\bm{e}}&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}Pr(\bm{e}|\bm{f})\label{eqn:decode}\\&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}\frac{Pr(\bm{f}|\bm{e})Pr(\bm{e})}{Pr(\bm{f})}\\&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}Pr(\bm{f}|\bm{e})P(\bm{e})\label{eqn:bayes}\end{align}しかし,このままでは様々な素性を取り入れたモデルの構築が困難であるため,近年では以下のような対数線形モデルに基づく定式化を行うことが一般的である\cite{och03mert}.\begin{align}\hat{\bm{e}}&=\argmax_{\bm{e}\in\mathcal{E}(f)}Pr(\bm{e}|\bm{f})\\&\approx\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}\frac{\exp\left(\bm{w}^{\mathrm{T}}\bm{h}(\bm{f},\bm{e}\right)}{\sum_{e'}\limits\exp\left(\bm{w}^{\mathrm{T}}\bm{h}(\bm{f},\bm{e'})\right)}\\&=\argmax_{\bm{e}\in\mathcal{E}(\bm{f})}\bm{w}^{\mathrm{T}}\bm{h}(\bm{f},\bm{e})\label{eqn:log-linear}\end{align}ここで,$\bm{h}$は素性ベクトルであり,翻訳の枠組毎に定められた次元数を持ち,推定された対数確率スコア,導出に伴う単語並び替え,各種ペナルティなどを与える.素性ベクトル中のとりわけ重要な要素として,言語モデルと翻訳モデルが挙げられる.言語モデル$Pr(\bm{e})$は,与えられた文の単語の並びが目的言語においてどの程度自然で流暢であるかを評価するために用いられる.翻訳モデル$Pr(\bm{f}|\bm{e})$は,翻訳文の尤もらしさを規定するための統計モデルであり,対訳コーパスから学習を行う.翻訳モデルはSMTの枠組によって学習・推定方法が異なっており,次節以降で詳細を述べる.$\bm{w}$は$\bm{h}$と同じ次元を持っており,素性ベクトルの各要素に対する重み付けを行う.$\bm{w}$の各要素を最適な値に調整するためには,対訳コーパスを学習用データや評価用データとは別に切り分けた,開発用データを利用し,原言語文の訳出と参照訳(目的言語側の正解訳)との類似度を評価するための自動評価尺度BLEU\cite{papineni02}などが最大となるようパラメータを求める\cite{och03mert}.\ref{sec:pbmt}節以降で説明する各種翻訳枠組も,この対数線形モデルに基いているが,用いる素性はそれぞれで異なる.\subsection{フレーズベース機械翻訳}\label{sec:pbmt}Koehnらによるフレーズベース機械翻訳(PBMT\cite{koehn03})はSMTで最も代表的な翻訳枠組である.PBMTの翻訳モデルを学習する際には,先ず対訳コーパスから単語アラインメント\cite{brown93}を学習し,アラインメント結果をもとに複数の単語からなるフレーズを抽出し,各フレーズ対応にスコア付けを行う.例えば,学習用対訳データから図\ref{fig:word-align}のような単語対応が得られたとする\footnote{日本語や中国語,タイ語のように,通常の文では単語をスペースで区切らないような言語では,先ず単語分割を行うツールを用いて分かち書きを行う必要がある.}.得られた単語対応からフレーズの対応を見つけ出して抽出を行う例を図\ref{fig:phrase-extraction}に示す.図のように,与えられた単語対応から抽出されるフレーズ対応の長さは一意に定まらず,複数の長さのフレーズ対応が抽出される.ただし,抽出されるフレーズ対応には,フレーズの内外を横断するような単語対応が存在しないという制約が課され,フレーズの最大長なども制限される.このようにして抽出されたフレーズ対の一覧を元に,フレーズ対や各フレーズの頻度を計算し,PBMTの翻訳モデルが学習される.\begin{figure}[b]\begin{minipage}[b]{0.45\hsize}\begin{center}\includegraphics{23-5ia5f2.eps}\end{center}\caption{英-日単語アラインメント}\label{fig:word-align}\end{minipage}\hfill\begin{minipage}[b]{0.45\hsize}\begin{center}\includegraphics{23-5ia5f3.eps}\end{center}\caption{英-日フレーズ抽出}\label{fig:phrase-extraction}\end{minipage}\end{figure}PBMTの翻訳モデルは抽出されたフレーズを翻訳の基本単位とし,これによって効率的に慣用句のような連続する単語列の翻訳規則を学習し,質の高い翻訳が可能である.フレーズの区切り方によって,与えられた原言語文から,ある目的言語文へ翻訳されるための導出も複数の候補があり,それぞれの導出で用いられるフレーズ対の確率スコアや並び替えも考慮して最終的な翻訳確率を推定する.式(\ref{eqn:log-linear})の対数線形モデルによって確率スコア最大の翻訳候補を探索するが,素性関数として用いられるものには,双方向のフレーズ翻訳確率,双方向の語彙翻訳確率,単語ペナルティ,フレーズペナルティ,言語モデル,並び替えモデルなどがある.PBMTは,翻訳対象である2言語間の対訳コーパスさえ用意すれば,容易に学習し,高速な翻訳を行うことが可能であるため,多くの研究や実用システムで利用されている.しかし,文の構造を考慮しない手法であるため,単語の並び替えが効果的に行えない傾向にある.高度な並び替えモデルを導入することは可能であるが\cite{goto13acl},長距離の並び替えは未だ困難であり,ピボット翻訳で用いることは容易ではない.\subsection{同期文脈自由文法}\label{sec:scfg}本節では,木構造に基づくSMTの枠組である同期文脈自由文法(SCFG\cite{chiang07})について説明する.SCFGは,階層的フレーズベース翻訳(HierarchicalPhrase-BasedTranslation;Hiero\cite{chiang07})を代表とする様々な翻訳方式で用いられている.SCFGは,以下のような同期導出規則によって構成される.\begin{equation}X\longrightarrow\left<\overline{s},~\overline{t}\right>\label{eqn:scfg}\end{equation}ここで,Xは同期導出規則の親記号であり,$\overline{s}$と$\overline{t}$はそれぞれ原言語と目的言語における終端記号と非終端記号からなる記号列である.$\overline{s}$と$\overline{t}$にはそれぞれ同じ数の非終端記号が含まれ,対応する記号に対して同じインデックスが付与される.以下に日英翻訳における導出規則の例を示す.\begin{equation}X\longrightarrow\left<X_0\text{~of~}X_1,~X_1\text{~の~}X_0\right>\end{equation}Hiero翻訳モデルのためのSCFGの学習手法では,先ずPBMTと同等のアイディアで,対訳コーパスから学習された単語アラインメントを元にフレーズを抽出する.そしてフレーズ対応中の部分フレーズ対応に対しては,非終端記号$X_i$で置き換えてよいというヒューリスティックを用いて,多くのSCFGルールが自動抽出される.例えば,図\ref{fig:word-align}の単語アラインメントを用いて,以下のような同期導出規則を得ることができる.\begin{align}X&\longrightarrow\left<X_0\text{~hit~}X_1\text{~.},~X_0\text{~は~}X_1\text{~を打った。}\right>\\X&\longrightarrow\left<\text{John},~\text{ジョン}\right>\\X&\longrightarrow\left<\text{aball},~\text{ボール}\right>\end{align}また,初期非終端記号$S$と初期導出規則$S\longrightarrow\left<X_0,~X_0\right>$,抽出された上記の導出規則を用いて,以下のような導出が可能である.\begin{align}S&\Longrightarrow\left<X_0,~X_0\right>\\&\Longrightarrow\left<X_1\text{~hit~}X_2\text{~.},~X_1\text{~は~}X_2\text{~を打った。}\right>\\&\Longrightarrow\left<\text{Johnhit~}X_2\text{~.},~\text{ジョンは~}X_2\text{~を打った。}\right>\\&\Longrightarrow\left<\text{Johnhitaball.},~\text{ジョンはボールを打った。}\right>\end{align}対訳文と単語アラインメントを元に自動的にSCFGルールが抽出される.抽出された各々のルールには,双方向のフレーズ翻訳確率$\phi(\overline{s}|\overline{t})$,$\phi(\overline{t}|\overline{s})$,双方向の語彙翻訳確率$\phi_{lex}(\overline{s}|\overline{t})$,$\phi_{lex}(\overline{t}|\overline{s})$,ワードペナルティ($\overline{t}$の終端記号数),フレーズペナルティ(定数1)の計6つのスコアが付与される.翻訳時には,導出に用いられるルールのスコアと,生成される目的言語文の言語モデルスコアの和を導出確率として最大化するよう探索を行う.言語モデルを考慮しない場合,CKY+法\cite{chappelier98}によって効率的な探索を行ってスコア最大の導出を得ることが可能である.言語モデルを考慮する場合には,キューブ枝狩り\cite{chiang07}などの近似法により探索空間を抑えつつ,目的言語モデルを考慮した探索が可能である.\subsection{複数同期文脈自由文法}\label{sec:mscfg}SCFGを複数の目的言語文の同時生成に対応できるように拡張した手法として,複数同期文脈自由文法(MSCFG\cite{neubig15naacl})が提案されている.SCFGでは導出規則中の目的言語記号列$\overline{t}$が単一であったが,MSCFGでは以下のように$N$個の目的言語記号列を有する.\begin{equation}X\longrightarrow\left<\overline{s},~\overline{t_1},\cdots,\overline{t_N}\right>\end{equation}通常のMSCFG学習手法では,SCFGルール抽出手法を一般化し,3言語以上の言語間で意味の対応する文を集めた多言語コーパスから多言語導出規則が抽出され,複数の目的言語を考慮したスコアが付与される.本手法の利点として,原言語に対して主要な目的言語が1つ存在する場合に,他の$N-1$言語のフレーズを補助的な言語情報として利用し,追加の目的言語モデルによって翻訳文の自然性評価を考慮した訳出を行うことで,結果的に主要な目的言語においても導出規則の選択が改善されて翻訳精度を向上可能なことが挙げられる.SCFGは対応するフレーズ間で同一のインデックス付き非終端記号を同期して導出させることで,翻訳と単語並び替えを同時に行えるという単純な規則から成り立つために,多言語間の翻訳モデルへの拡張も容易であった.PBMTはフレーズの翻訳と単語並び替えを個別の問題としてモデル化しているため,MSCFGと同様の方法で3言語以上のフレーズ対応を学習して複数の目的言語へ同時に翻訳を行うには,並び替え候補をどのように翻訳スコアに反映させるかなどを新たに検討する必要がある.例えば日本語と朝鮮語のように語順が似通っており,ほとんど単語並び替えが発生しない言語の組み合わせでは,並び替えをまったく行わない場合でも高い並び替え精度となるため,並び替え距離に応じたペナルティを与える単純な手法でも高精度となるが,例えば日本語・朝鮮語とは語順の大きく異なる英語を加えた3言語間で並び替えをモデル化することは容易ではなく,第二の目的言語の存在が悪影響を与える可能性もある.そのため,本稿ではPBMTの多言語拡張を行うことはせず,MSCFGに着目して議論を行う.
\section{ピボット翻訳手法}
\label{sec:pivot-methods}\ref{sec:smt}節では,SMTは対訳コーパスから自動的に翻訳規則を獲得し,統計に基づいたモデルによって翻訳確率スコアが最大となるような翻訳を行うことを述べてきた.統計モデルであるため,言語モデルの学習に用いる目的言語コーパスと翻訳モデルの学習に用いられる対訳コーパスが大規模になるほど確率推定の信頼性が向上し,精度の高い訳出が期待できる.言語モデルについては,目的言語の話者数やインターネット利用者数などの影響はあるものの,比較的取得が容易であるため問題になることは少ない.一方で対訳コーパスはSMTの要であり,学習データにカバーされていない単語や表現の翻訳は不可能なため,多くの対訳データ取得が望ましく,実用的なSMTシステムの構築には数百万文以上の対訳が必要と言われている.ところが英語を含まない言語対,例えば日本語とフランス語のような言語対を考えると,それぞれの言語では単言語コーパスが豊富に取得可能であるにも関わらず,100万文を超えるような大規模な対訳データを短時間で獲得することは困難である.このように,SMTの大前提である対訳コーパスは多くの言語対において十分な文量を直ちに取得できず,任意の言語対で翻訳を行うには課題がある.PBMTにおけるピボット翻訳手法が数多く考案されており,本節では代表的なピボット翻訳手法について紹介する.また,\ref{sec:pivot-scfg}節では,PBMTで有効性の確認されたピボット翻訳手法であるテーブル合成手法をSCFGで応用するための手法を提案し,実験による比較評価と考察を述べる.本節では原言語を\textit{Src},目的言語を\textit{Trg},中間言語を\textit{Pvt}と表記し,これらの言語対を\textit{Src-Pvt,Src-Trg,Pvt-Trg}のように表記して説明を行うこととする.\subsection{逐次的ピボット翻訳手法}\label{sec:cascade}\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f4.eps}\end{center}\caption{逐次的ピボット翻訳}\label{fig:pivot-cascade}\end{figure}\textbf{逐次的ピボット翻訳手法(Cascade)}\cite{gispert06}によって\textit{Src}から\textit{Trg}へと翻訳を行う様子を図\ref{fig:pivot-cascade}に示す.この方式では先ず,\textit{Src-Pvt,Pvt-Trg}それぞれの言語対で,対訳コーパスを用いて翻訳システムを構築する.そして\textit{Src}の入力文を\textit{Pvt}へ翻訳し,\textit{Pvt}の訳文を\textit{Trg}に翻訳することで,結果的に\textit{Src}から\textit{Trg}への翻訳が可能となる.この手法は機械翻訳の入力と出力のみを利用するため,PBMTである必然性はなく,任意の機械翻訳システムを組み合わせることができる.優れた2つの機械翻訳システムがあれば,そのまま高精度なピボット翻訳が期待できることや,既存のシステムを使い回せること,実現が非常に容易であることが利点と言える.逆に,最初の翻訳システムの翻訳誤りが次のシステムに伝播し,加法性誤差によって精度が落ちることは欠点となる.\textit{Src-Pvt}翻訳システムで確率スコアの高い上位$n$文の訳出候補を出力し,\textit{Pvt-Trg}翻訳における探索の幅を広げるマルチセンテンス方式も提案されている\cite{utiyama07}が,通常より$n$倍の探索時間が必要であり,大きな精度向上も報告されていない.\subsection{擬似対訳コーパス手法}擬似的に\textit{Src-Trg}対訳コーパスを作成することでSMTシステムを構築する\textbf{擬似対訳コーパス手法(Synthetic)}\cite{gispert06}によって,\textit{Src-Trg}翻訳を行う様子を図\ref{fig:pivot-corpus}に示す.この手法では先ず,\textit{Src-Pvt,Pvt-Trg}のうちの片側,図の例では\textit{Pvt-Trg}の対訳コーパスを用いてSMTシステムを構築する.そして\textit{Src-Pvt}対訳コーパスの\textit{Pvt}側の全文を\textit{Pvt-Trg}翻訳にかけることで,\textit{Src-Trg}擬似対訳コーパスが得られる.これによって得られた\textit{Src-Trg}擬似対訳コーパスを用いて,SMTの翻訳モデルを学習することが可能となる.対訳コーパスの翻訳時に少しの翻訳誤りが含まれていても,統計モデルの学習に大きく影響しなければ,高精度な訳出が期待できる.既存のシステムから新しい学習データやシステムを作り直すことになるため,一度擬似対訳コーパスを作ってしまえば,それ以降は通常のSMTと同じ学習手法を用いられることは利点となる.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f5.eps}\end{center}\caption{擬似対訳コーパス手法}\label{fig:pivot-corpus}\end{figure}DeGispertらは,スペイン語を中間言語としたカタルーニャ語と英語のピボット翻訳で,逐次的ピボット翻訳手法と擬似対訳コーパス手法によるピボット翻訳手法の比較実験\cite{gispert06}を行った.その結果,これらの手法間で有意な差は示されなかった.\subsection{テーブル合成手法}\label{sec:triangulation}\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f6.eps}\end{center}\caption{テーブル合成手法}\label{fig:pivot-triangulation}\end{figure}PBMT,SCFGでは,対訳コーパスによってフレーズ対応を学習してスコア付けした翻訳モデルを,それぞれフレーズテーブル,ルールテーブルと呼ばれる形式で格納する.フレーズテーブルを合成することで\textit{Src-Trg}のピボット翻訳を行う様子を図\ref{fig:pivot-triangulation}に示す.Cohnらによる\textbf{テーブル合成手法(Triangulation)}\cite{cohn07}では,先ず\textit{Src-Pvt}および\textit{Pvt-Trg}の翻訳モデルを対訳コーパスによって学習し,それぞれをフレーズテーブル$T_{SP}$,$T_{PT}$として格納する.得られた$T_{SP}$,$T_{PT}$から,\textit{Src-Trg}の翻訳確率を推定してフレーズテーブル$T_{ST}$を合成する.$T_{ST}$を作成するには,フレーズ翻訳確率$\phi(\cdot)$と語彙翻訳確率$\phi_{lex}(\cdot)$を用い,以下の数式に従って翻訳確率の推定を行う.\begin{align}\phi\left(\overline{t}|\overline{s}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi\left(\overline{t}|\overline{p}\right)\phi\left(\overline{p}|\overline{s}\right)\label{eqn:triangulation-begin}\\\phi\left(\overline{s}|\overline{t}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi\left(\overline{s}|\overline{p}\right)\phi\left(\overline{p}|\overline{t}\right)\\\phi_{lex}\left(\overline{t}|\overline{s}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi_{lex}\left(\overline{t}|\overline{p}\right)\phi_{lex}\left(\overline{p}|\overline{s}\right)\\\phi_{lex}\left(\overline{s}|\overline{t}\right)&=\sum_{\overline{p}\inT_{SP}\capT_{PT}}\phi_{lex}\left(\overline{s}|\overline{p}\right)\phi_{lex}\left(\overline{p}|\overline{t}\right)\label{eqn:triangulation-end}\end{align}ここで,$\overline{s}$,$\overline{p}$,$\overline{t}$はそれぞれ\textit{Src,Pvt,Trg}のフレーズであり,$\overline{p}\inT_{SP}\capT_{PT}$はフレーズ$\overline{p}$が$T_{SP}$,$T_{PT}$の双方に含まれていることを示す.式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})は,以下のような条件を満たす無記憶通信路モデルに基づいている.\begin{align}\phi\left(\overline{t}|\overline{p},\overline{s}\right)&=\phi\left(\overline{t}|\overline{p}\right)\\\phi\left(\overline{s}|\overline{p},\overline{t}\right)&=\phi\left(\overline{s}|\overline{p}\right)\end{align}この手法では,翻訳確率の推定を行うために全フレーズ対応の組み合わせを求めて算出する必要があるため,大規模なテーブルの合成には長い時間を要するが,既存のモデルデータから精度の高い翻訳を期待できる.Utiyamaらは,英語を中間言語とした複数の言語対で,逐次的ピボット翻訳手法とテーブル合成手法によるピボット翻訳で比較実験を行った\cite{utiyama07}.その結果,テーブル合成手法では,$n=1$の単純な逐次的ピボット翻訳や,$n=15$のマルチセンテンス方式よりも高いBLEUスコアが得られたと報告している.
\section{同期文脈自由文法におけるテーブル合成手法の応用}
\label{sec:pivot-scfg}\ref{sec:pivot-methods}節で説明したピボット翻訳手法のうち,逐次的ピボット翻訳および擬似対訳コーパス手法はSMTの枠組にとらわれない手法であるため,SCFGを用いるSMTでもそのまま適用可能であるが,テーブル合成手法は本来,PBMTのフレーズテーブルを合成するために提案されたものである.SCFGを用いる翻訳方式では,式(\ref{eqn:scfg})のように表現される同期導出規則をルールテーブルという形式で格納する.次節以降では,SCFGルールテーブルを合成することで,PBMTにおけるテーブル合成手法と同等のピボット翻訳を行うための手法について説明し,その後にPBMTおよびSCFGにおける複数のピボット翻訳手法による翻訳精度の差を実験によって比較評価し,考察を行う.\subsection{同期導出規則の合成}\label{sec:rule-triangulation}SCFGルールテーブル合成手法では,先ず\textit{Src-Pvt,Pvt-Trg}それぞれの言語対について,対訳コーパスを用いて同期導出規則を抽出し(\ref{sec:scfg}節),各規則の確率スコアなどの素性を算出してルールテーブルに格納する.その後,\textit{Src-Pvt,Pvt-Trg}ルールテーブル双方に共通の\textit{Pvt}記号列を有する導出規則$X\rightarrow\left<\overline{s},~\overline{p}\right>$,$X\rightarrow\left<\overline{p},~\overline{t}\right>$をすべて見つけ出し,新しい導出規則$X\rightarrow\left<\overline{s},~\overline{t}\right>$の翻訳確率を,式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})に従って推定する.PBMTにおいては$\overline{s},\overline{p},\overline{t}$が各言語のフレーズ(単語列)を表しており,SCFGにおいては非終端記号を含む各言語の記号列を表す点で異なるが,計算式については同様である.また,$X\rightarrow\left<\overline{s},~\overline{t}\right>$のワードペナルティおよびフレーズペナルティは$X\rightarrow\left<\overline{p},~\overline{t}\right>$と同じ値に設定する.本節で提案したルールテーブル合成手法によるピボット翻訳が,他の手法や他の翻訳枠組と比較して有効であるかどうかを調査するため,後述する手順によって比較実験を行った.\subsection{実験設定}\label{sec:experiment-scfg}\ref{sec:pivot-methods}節で紹介したピボット翻訳手法のうち,実現が非常に容易で比較しやすい逐次的ピボット翻訳手法と,PBMTで高い実用性が示されたテーブル合成手法によるピボット翻訳を,PBMTおよびSCFGにおいて実施し,翻訳精度の比較評価を行った.本実験では,学習および評価に用いる対訳コーパスとして,国連文書を元にして作成された国連多言語コーパス\cite{ziemski16un}を用いて翻訳精度の比較評価を行った.本コーパスには,英語(En),アラビア語(Ar),スペイン語(Es),フランス語(Fr),ロシア語(Ru),中国語(Zh)の6言語間で意味の対応する約1,100万文の対訳文が含まれている.これら6言語は複数の語族をカバーしているため,言語構造の違いにより複雑な単語並び替えが発生しやすく,SMTの枠組とピボット翻訳手法の組み合わせの影響を調査する目的に適している.現実的なピボット翻訳タスクを想定し,英語を中間言語として固定し,残りの5言語のすべての組み合わせでピボット翻訳を行った.ピボット翻訳では,\textit{Src-Pvt},\textit{Pvt-Trg}のそれぞれの言語対の対訳を用いて\textit{Src-Trg}の翻訳を行うが,ピボット翻訳が必要となる場面では直接的な対訳はほとんど存在しないものと想定し,それぞれの対訳の\textit{Pvt}側には共通の文が存在しない方が評価を行う上で望ましい.本コーパスのアーカイブには学習用データ(train)約1,100万文,評価用データ(test)4,000文,パラメータ調整用データ(dev)4,000文が予め用意されているが,前処理として,それぞれのデータに対して重複して出現する英文を含む対訳文を取り除き,また,長い文は学習・評価時の計算効率上の妨げとなるためtrainに対して60単語,test,devに対して80単語を超える文はすべて取り除いたところ,trainは約800万文,test,devはそれぞれ約3,800文が残った.しかし,評価対象となる組み合わせ数が膨大であるため,前処理後のデータサイズに比較すると小規模であるが,前処理後のtrainから\textit{Src-Pvt}の学習用にtrain1,\textit{Pvt-Trg}の学習用にtrain2をそれぞれ10万文,英文の重複がないように取り出し,test,devはそれぞれ1,500文ずつを実際の評価とパラメータ調整に用いた.複数の言語の組み合わせでPBMT,SCFGのそれぞれについて以下のようにSMTの学習と評価を行い,ピボット翻訳手法の違いによる翻訳精度を比較した.\begin{description}\item[Direct(直接翻訳):]\mbox{}\\直接的な対訳を得られる理想的な状況下における翻訳精度を得て比較を行うため,\textit{Pvt}を用いず\textit{Src-Trg}の直接対訳コーパスtrain1,train2を個別に用いて翻訳モデルを学習し評価.train1,train2による翻訳スコアをそれぞれ「Direct1」,「Direct2」とし,まとめて「Direct1/2」と表記\item[Cascade(逐次的ピボット翻訳):]\mbox{}\\\textit{Src-Pvt,Pvt-Trg}それぞれの対訳train1,train2で学習された翻訳モデルでパイプライン処理を行い,\textit{Src-Trg}翻訳を評価\item[Triangulation(テーブル合成手法):]\mbox{}\\\textit{Src-Pvt,Pvt-Trg}それぞれの対訳train1,train2で学習された翻訳モデルから,翻訳確率の推定により\textit{Src-Trg}翻訳モデルを合成し評価\end{description}\asis{コーパス中の中国語文は単語分割が行われていない状態であったため,KyTea\cite{neubig11-kytea}の中国語モデルを用いて単語分割を行った.PBMTモデルの構築にはMoses\cite{koehn07moses},SCFG翻訳モデルの構築にはTravatar\cite{neubig13travatar}のHiero学習ツールを利用した.すべての翻訳システムではKenLM\cite{heafield11}とtrain1+train2の目的言語側20万文を用いて学習した5-gram言語モデルを訳出の自然性評価に用いている.また,翻訳結果の評価には,自動評価尺度BLEU\cite{papineni02}を用い,各SMTシステムについてMERT\cite{och03mert}により,開発用データセットに対してBLEUスコアが最大となるようにパラメータ調整を行った.}\subsection{実験結果}\label{sec:pivot-result}様々な言語と機械翻訳方式の組み合わせについてDirect1/2,Triangulation,Cascadeの各ピボット翻訳手法で翻訳を行い評価した結果を表\ref{tab:pivot-pbmt-scfg}に示す.太字は言語と翻訳枠組の各組み合わせで精度の高いピボット翻訳手法を示す.先行研究では,PBMTのピボット翻訳手法においてTriangulationでCascadeよりも高い翻訳精度が示されており,このことは実験結果の表からも,すべての言語の組み合わせで確認できた.同様に,\ref{sec:rule-triangulation}節で提案したSCFGルールテーブルのTriangulationによっても,Cascadeより高い翻訳精度が示された.このことから,SMTの枠組によらず,Triangulation手法を用いることでCascade手法よりも安定して高いピボット翻訳精度が得られるものと考えられる.また,Triangulationの翻訳精度をDirectと比較した場合,例えばスペイン語・フランス語のHiero翻訳におけるDirectの平均BLEUスコアが35.34であるのに対し,TriangulationのBLEUスコアが32.62と,2.72ポイントの大きな差が開いており,Direct翻訳で高い精度が出る言語対ではTriangulation手法でも依然として精度が大きく低下する傾向が見られた.逆に,Direct翻訳のBLEUスコアが15を下回っていて翻訳が困難な言語対では,Triangulation手法でも大きな差は見られず,フランス語・中国語のHiero翻訳のように,Triangulationのスコアが僅かながらDirectのスコアを上回る例も少数見られたが,誤差の範囲であろう.\begin{table}[p]\caption{ピボット翻訳手法毎の翻訳精度比較}\label{tab:pivot-pbmt-scfg}\input{05table01.txt}\end{table}一方,翻訳精度をPBMTとHieroで比較した場合,言語対によって優劣が異なっているものの,傾向としては中国語を含む言語対においてHieroの翻訳精度がPBMTを大きく上回っており,ロシア語を含む言語対では僅かに下回り,それ以外の言語対では僅かに上回る例が多く見られた.20組の言語対のうち14組でHieroにおけるTriangulationのスコアがPBMTの場合を上回っており,平均して0.5ポイント以上のBLEUスコアが向上しているため,Hieroをピボット翻訳に応用する手法は総じて有効であると考えられる.\subsection{異なるデータを用いた場合の翻訳精度}\label{sec:pivot-europarl}\ref{sec:pivot-result}節までは,国連文書コーパスを用いた,複数の語族にまたがる言語間でのピボット翻訳を行った内容について説明し考察している.本研究の過程で,国連文書コーパスの他,欧州議会議事録を元にしたEuroparlコーパス\cite{koehn05europarl}を用いて\ref{sec:experiment-scfg}節と同様の実験も実施している.このコーパスは,欧州の諸言語を広くカバーしており,多言語翻訳タスクに多用されるが,語族がほとんど共通しており比較的似通った言語間での翻訳となる.この実験では英語を中間言語として固定し,欧州でも話者数の多いドイツ語,スペイン語,フランス語,イタリア語の4言語の組み合わせでピボット翻訳を行った.Europarlからも10万文の対訳で学習し,1,500文ずつの評価とパラメータ調整を行ったが,\textit{Src-Pvt}と\textit{Pvt-Trg}それぞれの翻訳モデルの学習にはすべて中間言語データが一致しているものを用い,直接的な翻訳と比較してどの程度精度に影響があるかも調査した.この実験結果から,\ref{sec:pivot-result}節の実験結果と同様に,PBMTとHieroの双方において,すべての言語対においてTriangulationがCascadeよりも高精度となることが確認された.また,2つの翻訳モデルの学習で中間言語側が共通のデータを用いているにも関わらず,Triangulationの精度はDirectと比較して大きく減少しており,この精度差が中間言語側の曖昧性の影響を強く受けて発生したものであると考えられる.一方,PBMTとHieroの精度を比較した場合には,精度差が言語対に依存するのも同様であり,大きな単語並び替えが発生しないような言語の組み合わせが多いため,計算コストが低く,標準設定でより長いフレーズ対応を学習できるPBMTの方が有利と考えられる点も多かった.\subsection{考察および関連研究}\ref{sec:pivot-methods}節では,PBMTで提案されてきた代表的なピボット翻訳手法について説明し,本節ではテーブル合成手法をSCFGのルールテーブルに適用するための手法について述べ,また言語対・機械翻訳方式・ピボット翻訳手法の組み合わせによって翻訳精度の影響を比較評価した.その結果,SCFGにおいてもテーブル合成手法によって高い翻訳精度を得られることが示され,また言語対や用いるデータによってはPBMTの場合よりも高い精度が得られることも分かった.ピボット翻訳におけるその他の関連研究は,PBMTのテーブル合成手法をベースに,さらに精度を上げるための議論が中心である.テーブル合成手法はピボット翻訳手法の中でも高い翻訳精度が報告されているが\cite{utiyama07},\ref{sec:intro}節で述べたような中間言語側の表現力に起因する曖昧性の問題や,異なる言語対やデータセット上で推定された単語アラインメントから抽出されるフレーズの不一致によって,得られる翻訳規則数が減少する問題などがあり,直接的な対訳が得られる理想的な状況と比較すると翻訳精度が大きく下回ってしまう.これらの問題に対処するための関連研究として,翻訳確率推定の前にフレーズの共起頻度を推定することでサイズが不均衡なテーブルの合成を改善する手法\cite{zhu14},単語の分散表現を用いて単語レベルの翻訳確率を補正する手法\cite{levinboim15},複数の中間言語を用いる手法\cite{dabre15}などが挙げられ,曖昧性の解消には中間表現の工夫と信頼度の高い言語資源の有効利用が必要と言える.
\section{中間言語情報を記憶するピボット翻訳手法の提案}
\label{sec:triangulation-mscfg}\ref{sec:pivot-methods}節ではSMTで用いられているピボット翻訳手法について紹介し,\ref{sec:pivot-scfg}節では従来手法の中で高い翻訳精度が報告されているテーブル合成手法をSCFGで応用するための手順について説明した.また,比較評価実験により,SCFGにおいてもPBMTと同様,テーブル合成手法によって逐次的ピボット翻訳手法よりも高い精度が得られた.しかし,直接の対訳を用いて学習した場合と比較すると,翻訳精度の差は未だ大きいため,精度が損なわれてしまう原因を特定し,解消することができれば,さらなる翻訳精度の向上が期待できる.テーブル合成手法で翻訳精度が損なわれる原因の一つとして,翻訳時に重要な手がかりとなるはずの中間言語の情報はテーブル合成後には失われてしまい,不正確に推定された\textit{Src-Trg}のフレーズ対応と翻訳確率のみが残る点が挙げられる.本節では,従来では消失してしまう中間言語情報を記憶し,この追加の情報を翻訳時に用いることで精度向上に役立てる,新しいテーブル合成手法を提案する.\subsection{従来のテーブル合成手法の問題点}従来のテーブル合成手法の問題点について,1節中でも紹介したが,本節で改めて説明を行う.テーブル合成手法では,\textit{Src-Pvt,Pvt-Trg}それぞれの言語対におけるフレーズの対応と翻訳確率のスコアが与えられており,この情報を元に,\textit{Src-Trg}言語対におけるフレーズ対応と翻訳確率の推定を行う.ところが,語義曖昧性や言語間の用語法の差異により,\textit{Src-Trg}のフレーズ対応を正確に推定することは困難である.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f7.eps}\end{center}\caption{モデル学習に用いるフレーズ対応(日-英-伊)}\label{fig:pivot-align}\end{figure}図\ref{fig:pivot-align}はテーブル合成手法によって対応を推定するフレーズの例を示しており,図中では日本語とイタリア語それぞれにおける3つの単語が,語義曖昧性を持つ英単語「approach」に結び付いている.このような場合,\textit{Src-Trg}のフレーズ対応を求め,適切な翻訳確率推定を行うのは複雑な問題となってくる.その上,図\ref{fig:pivot-traditional}に示すように,従来のテーブル合成手法では,合成時に\textit{Src}と\textit{Trg}の橋渡しをしていた\textit{Pvt}フレーズの情報が,合成後には保存されず失われてしまう.現実の人手翻訳の場合を考えても,現在着目しているフレーズに関する追加の言語情報が与えられているなら,その言語を知る者にとって重要な手がかりとなって曖昧性解消などに用いることができる.そのため,\textit{Src-Trg}を結び付ける\textit{Pvt}フレーズは重要な言語情報であると考えられ,本研究では,この情報を保存することで機械翻訳にも役立てるための手法を提案する.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f8.eps}\end{center}\caption{従来手法によって得られるフレーズ対応}\label{fig:pivot-traditional}\vspace{0.5\Cvs}\end{figure}\subsection{中間言語情報を記憶するテーブル合成手法}前節で述べた問題を克服するため,本研究では\textit{Src}と\textit{Trg}を結び付けていた\textit{Pvt}フレーズの情報も翻訳モデル中に保存し,\textit{Src}から\textit{Trg}と\textit{Pvt}への同時翻訳確率を推定することによって翻訳を行う新しいテーブル合成手法を提案する.図\ref{fig:pivot-proposed}に,本提案手法によって得られるフレーズ対応の例を示す.本手法の利点は,英語のように中間言語として選ばれる言語は豊富な単言語資源も得られる傾向が強いため,このような追加の言語情報を翻訳システムに組み込み,翻訳文の導出時に利用できることにある.\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f9.eps}\end{center}\caption{提案手法によって得られるフレーズ対応}\label{fig:pivot-proposed}\end{figure}中間言語フレーズの情報を翻訳時に役立てるため,SCFG(\ref{sec:scfg}節)を複数の目的言語文の同時生成に対応できるよう拡張したMSCFG(\ref{sec:mscfg}節)を用いて翻訳モデルの合成を行う.MSCFGによる翻訳モデルを構築するためには,\textit{Src-Pvt,Pvt-Trg}のSCFG翻訳規則が格納されたルールテーブルを元に,SCFGルールテーブルとしてではなく,\textit{Src-Trg-Pvt}のMSCFGルールテーブルとして合成し,これによって\textit{Pvt}フレーズを記憶する.訳出候補の探索時には,生成文の自然性を評価し,適切な語彙選択を促すために言語モデルを用いるが,目的言語モデルのみでなく,中間言語モデルも同時に用いた探索を行う.次節から,SCFG翻訳モデルの同期導出規則からMSCFG翻訳モデルの複数同期導出規則を合成するための手順について説明する.\subsection{同期導出規則から複数同期導出規則への合成}\ref{sec:rule-triangulation}節では,SCFGの同期規則を合成するために,\textit{Src-Pvt,Pvt-Trg}ルールテーブル双方に共通の\textit{Pvt}記号列を有する導出規則$X\rightarrow\left<\overline{s},~\overline{p}\right>$,$X\rightarrow\left<\overline{p},~\overline{t}\right>$を見つけ出し,新しい導出規則$X\rightarrow\left<\overline{s},~\overline{t}\right>$の翻訳確率を,式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})に従って確率周辺化を行い推定することを述べた.一方,中間言語情報を記憶するテーブル合成手法では$X\rightarrow\left<\overline{s},~\overline{p}\right>$,$X\rightarrow\left<\overline{p},~\overline{t}\right>$を元に,以下のように複数同期規則を合成する.\begin{equation}X\longrightarrow\left<\overline{s},~\overline{t},~\overline{p}\right>\end{equation}このような規則を用いて翻訳を行うことによって,同時生成される中間言語文を通じて中間言語モデルなどのような追加の素性を取り入れることが可能となる.式(\ref{eqn:triangulation-begin})--(\ref{eqn:triangulation-end})に加えて,\textit{Trg}と\textit{Pvt}を同時に考慮した翻訳確率$\phi\left(\overline{t},\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p},\overline{t}\right)$を以下のように推定する.\begin{align}\phi\left(\overline{t},\overline{p}|\overline{s}\right)&=\phi\left(\overline{t}|\overline{p}\right)\phi\left(\overline{p}|\overline{s}\right)\\\phi\left(\overline{s}|\overline{p},\overline{t}\right)&=\phi\left(\overline{s}|\overline{p}\right)\end{align}\textit{Src-Pvt}の翻訳確率$\phi\left(\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p}\right)$,$\phi_{lex}\left(\overline{p}|\overline{s}\right)$,$\phi_{lex}\left(\overline{s}|\overline{p}\right)$はルールテーブル$T_{SP}$のスコアをそのまま用いることが可能である.これら10個の翻訳確率$\phi\left(\overline{t}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{t}\right)$,$\phi\left(\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p}\right)$,$\phi_{lex}\left(\overline{t}|\overline{s}\right)$,$\phi_{lex}\left(\overline{s}|\overline{t}\right)$,$\phi_{lex}\left(\overline{p}|\overline{s}\right)$,$\phi_{lex}\left(\overline{s}|\overline{p}\right)$,$\phi\left(\overline{t},\overline{p}|\overline{s}\right)$,$\phi\left(\overline{s}|\overline{p},\overline{t}\right)$に加えて,$\overline{t}$と$\overline{p}$に含まれる非終端記号数を2つのワードペナルティとし,定数1のフレーズペナルティの,合わせて13個のスコアがMSCFGルールにおける素性となる.\subsection{同期規則のフィルタリング}前節で説明した,中間言語情報を記憶するテーブル合成手法は,このままでは$\left<\overline{s},\overline{t}\right>$ではなく,$\left<\overline{s},\overline{t},\overline{p}\right>$の全組み合わせを記録するため,従来より大きなルールテーブルが合成されてしまう.計算資源を節約するためには,幾つかのフィルタリング手法が考えられる.Neubigらによると,主要な目的言語$T_1$と補助的な目的言語$T_2$で翻訳を行う際には,$T_1$-フィルタリング手法\cite{neubig15naacl}が効果的である.このフィルタリング手法を,提案するテーブル合成手法に当てはめると,$T_1=Trg$,$T_2=Pvt$であり,原言語フレーズ$\overline{s}$に対して,先ず$Trg$において$\phi\left(\overline{t}|\overline{s}\right)$が上位$L$個までの$\overline{t}$を残し,それぞれの$\overline{t}$に対して$\phi\left(\overline{t},\overline{p}|\overline{s}\right)$が最大となるような$\overline{p}$を残す.
\section{実験的評価}
前節で提案した中間言語情報を記憶するテーブル合成手法の有効性を検証するため,多言語コーパスを用いたピボット翻訳の比較評価実験を実施した.\subsection{実験設定}\asis{用いたデータやツールは,\ref{sec:experiment-scfg}節の実験と大部分が共通しているため,差分を明らかにしつつ説明を行う.本実験では,\ref{sec:experiment-scfg}節の実験で得られた同じ対訳データを用いて各翻訳モデルの学習に用いた.すなわち,国連多言語コーパスを用いて,英語(En)を中間言語とするアラビア語(Ar),スペイン語(Es),フランス語(Fr),ロシア語(Ru),中国語(Zh)の5言語の組み合わせでピボット翻訳の翻訳精度を比較し,それぞれの言語対について\textit{Src-Pvt}翻訳モデルの学習用(train1)に10万文,\textit{Pvt-Trg}翻訳モデルの学習用(train2)に10万文,評価(test)とパラメータ調整用(dev)にそれぞれ1,500文ずつを用いた.目的言語モデルの学習にも,\ref{sec:experiment-scfg}節と同様にtrain1+train2の目的言語文20万文を用いている.また,多くの場合,英語においては大規模な単言語資源が取得可能であるため,最大500万文までのデータを用いて段階的に学習を行った複数の中間言語モデルを用意した.SCFGおよびMSCFGを用いるデコーダとしてTravatar\cite{neubig13travatar}を用い,付属のHieroルール抽出プログラムを用いてSCFG翻訳モデルの学習を行った.翻訳結果の比較には,自動評価尺度BLEU\cite{papineni02}を用い,各翻訳モデルはMERT\cite{och03mert}により,開発用データに対してBLEUスコアが最大となるようにパラメータ調整を行った.提案手法のテーブル合成手法によって得られたMSCFGルールテーブルは,$L=20$の$T_1$-フィルタリング手法によって枝刈りを行った.本実験では先ず,以下の6つの翻訳手法を比較評価する.}\begin{description}\item[Cascade(逐次的ピボット翻訳):]\mbox{}\\\textit{Src-Pvt}および\textit{Pvt-Trg}のSCFG翻訳モデルで逐次的ピボット翻訳(\ref{sec:cascade}節).「w/PvtLM200k/5M」は\textit{Src-Pvt}翻訳時にそれぞれ20万文,500万文で学習した中間言語モデルを用いることを示す\item[Tri.SCFG(SCFGルールテーブル合成手法):]\mbox{}\\\textit{Src-Pvt}および\textit{Pvt-Trg}のSCFGモデルを合成し,\textit{Src-Trg}のSCFGモデルによって合成(\ref{sec:triangulation}節,ベースライン)\item[Tri.MSCFG(MSCFGルールテーブル合成手法):]\mbox{}\\\textit{Src-Pvt}および\textit{Pvt-Trg}のSCFGモデルを合成し,\textit{Src-Trg-Pvt}のMSCFGモデルによって翻訳(\ref{sec:triangulation-mscfg}節).「w/oPvtLM」は中間言語モデルを用いないことを示し,「w/PvtLM200k/5M」はそれぞれ20万文,500万文で学習した中間言語モデルを用いることを示す\end{description}\subsection{翻訳精度の比較}表\ref{tab:scores-euro}に,英語を介したすべての言語対におけるピボット翻訳の結果を示す.実験で得られた結果は,ブートストラップ・リサンプリング法\cite{koehn04bootstrap}により統計的有意差を検証した.それぞれの言語対において,太字は従来手法Tri.SCFGよりもBLEUスコアが高いことを示し,下線は最高スコアを示す.短剣符は各ピボット翻訳手法の翻訳精度がTri.SCFGよりも統計的有意に高いことを示す($\dagger:p<0.05,\ddagger:p<0.01$).評価値から,提案したテーブル合成手法で中間言語モデルを考慮した翻訳を行った場合,すべての言語対において従来のテーブル合成手法よりもBLEUスコアの向上が確認できる.すべての組み合わせにおいて,テーブル合成手法で中間言語情報を記憶し,500万文の言語モデルを考慮して翻訳を行った場合に最も高いスコアを達成しており,従来法に比べ最大で1.8,平均で0.75ほどのBLEU値の向上が見られる.このことから,中間言語情報を記憶し,これを翻訳に利用することが曖昧性の解消に繋がり,安定して翻訳精度を改善できたと言えよう.\begin{table}[b]\caption{ピボット翻訳手法と中間言語モデル規模の組み合わせによる翻訳精度比較}\label{tab:scores-euro}\input{05table02.txt}\end{table}また,異なる要因による影響を切り分けて調査するため,MSCFGへ合成するが,中間言語モデルを用いずに翻訳を行った場合の比較も行った(Tri.MSCFGw/oPvtLM).この場合,保存された中間言語情報が語彙選択に活用されないため,本手法の優位性は特に現れないものと予想できたが,実際には,SCFGに合成する場合よりも多くの言語対で僅かに高い翻訳精度が見られた.これは,追加の翻訳確率などのスコアが有効な素性として働き,パラメータ調整を行った上で,適切な語彙選択に繋がったことなどが原因として考えられる.大規模な中間言語モデルを用いる手法は,本稿で提案するテーブル合成後のモデルのみならず,従来の逐次的ピボット翻訳手法でも可能であるため,500万文の大規模な中間言語モデルを用いた場合の精度評価も行った(Cascadew/PvtLM5M).Cascadew/PvtLM5Mは20万文の中間言語モデルしか用いない逐次的ピボット翻訳手法(Cascadew/PvtLM200k)と比較した場合にZh-Ar,Zh-Ruを除いたすべての言語対で高精度であり,単純に大規模な言語モデルを用いることで精度向上に繋がることは確認された.しかし,従来のテーブル合成手法であるTri.SCFGと比較した場合の精度差は言語対依存であり,安定した精度向上とはならなかった.また,本稿の提案手法Tri.MSCFGw/PvtLM5Mと,Cascadew/PvtLM5Mを比較すると,同じ規模の中間言語モデルを用いていてもすべての言語対で提案手法の方が高精度であり,このことからもテーブル合成手法と大規模な中間言語モデルを用いることの有効性が高いと言えるだろう.\subsection{中間言語モデルの規模が翻訳精度に与える影響}\begin{figure}[b]\begin{center}\includegraphics{23-5ia5f10.eps}\end{center}\caption{中間言語モデル規模がピボット翻訳精度に与える影響}\label{fig:pivot-lm}\end{figure}\asis{中間言語モデルの規模がピボット翻訳精度に与える影響の大きさは言語対によって異なってはいるが,中間言語モデルの学習データサイズが大きくなるほど精度が向上することも確認できる.図\ref{fig:pivot-lm}は,中国語・スペイン語(左)およびアラビア語・ロシア語(右)のピボット翻訳において異なるデータサイズで学習した中間言語モデルが翻訳精度に与える影響を示す.図からも中間言語モデルが曖昧性を解消して翻訳精度向上に寄与している様子が確認できる.中間言語モデルの学習データサイズを増加させることによる翻訳精度への影響は対数的であることも見てとられるが,これは目的言語モデルサイズが翻訳精度へ与える影響と同様の傾向である\cite{brants07}.中国語・スペイン語の翻訳ではグラフの傾向から,さらに大規模な中間言語モデルを用いることで精度向上の見込みがあるが,一方でアラビア語・ロシア語の場合には学習データサイズが200万文から500万文に増加しても精度にほとんど影響が見られないため,これ以上の精度向上には限界があると考えられる.}\subsection{曖昧性が解消された例と未解決の問題}本提案手法によって中間言語側で曖昧性が解消されて翻訳精度向上に繋がったと考えられる訳出の例を示す.\vspace{0.5\Cvs}\begin{description}\fontsize{8.5pt}{13.3pt}\selectfont\item[入力文(フランス語):]\mbox{}\\Lenomducandidat\textbf{propos\'{e}}estindiqu\'{e}dansl'annexa\`{a}lapr\'{e}sentenote.\item[参照訳(スペイン語):]\mbox{}\\Elnombredelcandidato\textbf{propuesto}sepresentaenelanexodelapresentenota.\item[対応する英文:]\mbox{}\\Thenameofthecandidate\textbf{thusnominated}issetoutintheannextothepresentnote.\item[Tri.SCFG:]\mbox{}\\Elnombredel\textbf{proyecto}deuncandidatoseindicaenelanexoalapresentenota.\\(BLEU+1:34.99)\item[Tri.MSCFGw/PvtLM5M:]\mbox{}\\Elnombredelcandidato\textbf{propuesto}seindicaenelanexoalapresentenota.(BLEU+1:61.13)\\Thenameofthecandidate\textbf{proposed}indicatedintheannextothepresentnote.\\(同時生成された英文)\end{description}\vspace{0.5\Cvs}上記の例では,入力文中のフランス語の分詞「propos\'{e}(指名された)」には参照役中のスペイン語の分詞「propuesto」が対応しているが,従来のテーブル合成手法では,誤った対応である名詞「proyecto(計画,立案)」が結び付き翻訳に用いられた結果,不正確な訳出となっている.一方で提案手法においては,入力文の「propos\'{e}」に対してスペイン語の「propuesto」と英語の「proposed」が同時に結び付いており,生成される英文中の単語の前後関係から適切な語彙選択を促し,訳出の改善に繋がったものと考えられる.逆に,提案手法では語彙選択がうまくいかず,直接対訳で学習した場合よりも精度が落ちた訳出の例を示す.\vspace{0.5\Cvs}\begin{description}\fontsize{8.5pt}{13.3pt}\selectfont\item[入力文(フランス語):]\mbox{}\\J.Risques\textbf{d'aspiration}:\textbf{cit\`{e}re}deviscosit\'{e}pourlaclassificationdes\textbf{m\'{e}langes};\item[参照訳(スペイン語):]\mbox{}\\J.Peligrospor\textbf{aspiraci\'{o}n}:\textbf{criterio}deviscosidadparalaclasificaci\'{o}nde\textbf{mezclas};\item[対応する英文:]\mbox{}\\J.\textbf{Aspiration}hazards:viscosity\textbf{criterion}forclassificationof\textbf{mixtures};\item[Direct1:]\mbox{}\\J.Riesgos\textbf{d'aspiration}:\textbf{criterio}deviscosit\'{e}paralaclasificaci\'{o}nde\textbf{losm\'{e}langes};(BLEU+1:34.20)\item[Direct2:]\mbox{}\\J.Riesgos\textbf{d'aspiration}:\textbf{criterio}deviscosit\'{e}paralaclasificaci\'{o}nde\textbf{mezclas};(BLEU+1:49.16)\item[Tri.MSCFGw/PvtLM2M:]\mbox{}\\J.Riesgos\textbf{d'aspiration}:viscosit\'{e}\textbf{criterios}paralaclasificaci\'{o}nde\textbf{m\'{e}langes};(BLEU+1:27.61)\\J.Riskd'aspiration:viscosit\'{e}\textbf{criteria}forthecategorizationof\textbf{m\'{e}langes};(同時生成された英文)\end{description}\vspace{0.5\Cvs}この例では,フランス語の「d'aspiration(吸引)」や「m\'{e}langes(混合物)」といった専門用語は,コーパス中の出現頻度が少なく,「d'aspiration」はtrain1やtrain2にも一度も出現しないため,Direct1/2の双方で翻訳不可能で未知語扱いとなっており,「m\'{e}langes」はtrain2でのみ出現しており,Direct1では未知語扱いである.テーブル合成手法では,2つの翻訳モデルで共通して出現する中間言語フレーズのみしか学習できないため,他方のみにしか含まれない専門用語は未知語となってしまう.この問題は,その他のピボット翻訳手法である逐次的ピボット翻訳手法や擬似コーパス手法でも当然解決不可能なため,複数の対訳データでカバーできない表現は外部辞書などを用いて補う必要があるだろう.また,この例では未知語の問題以外にもスペイン語の単数形の名詞「criterio(基準)」がテーブル合成手法では複数形の「criterios」となっていたり語順が誤ったりしている問題も見られる.こういった問題は,本提案手法である程度は改善されているものの,活用形や語順の問題により正確に対処するためには,統語的情報を明示的に扱う手法の導入が必要であると考えられる.\subsection{Europarlを用いた評価および品詞毎の翻訳精度}提案手法の有効性を調査するための比較評価実験も,国連文書コーパスのみでなく,研究の過程で\ref{sec:pivot-europarl}節と同様にEuroparlを用いた欧州の言語間でのピボット翻訳においても実施した.この実験においても10万文の対訳データを用いて学習した翻訳モデルを合成するが,中間言語モデルの学習には最大200万文までの英文を利用した.この実験からも,中間言語情報を記憶するテーブル合成手法と200万文で学習した中間言語モデルを用いた場合に,すべての言語対において従来のピボット翻訳手法であるTri.SCFGやCascadeを上回る精度が得られた.このことから,本提案手法は言語構造の類似度に関わらず有効に機能するものと考えられる.\asis{また,英語は他の欧州諸言語と比較して,性・数・格に応じた活用などが簡略化された言語として有名であり,語形から統語情報が失われることで発生する曖昧性の問題もある.本節では,英語を介したドイツ語・フランス語の両方向の翻訳において,誤りの発生しやすい品詞について調査する.先ず,独仏・仏独翻訳における評価データの参照訳および各ピボット翻訳手法の翻訳結果に対してStanfordPOSTagger\cite{toutanova00,toutanova03}を用いて品詞付与を行い,参照訳と翻訳結果を比較して,語順は考慮せずに適合率と再現率の調和平均であるF値を算出した.表\ref{tab:pos-error-de-fr}および表\ref{tab:pos-error-fr-de}は,各翻訳における高頻出品詞の正解率を表している.出現頻度は,参照訳中の各品詞の出現回数を意味し,丸括弧内に示された数値は,提案手法とベースライン手法のF値の差分である.結果は言語対依存であるが,特に目的言語に強く依存していることが明らかである.\begin{table}[b]\caption{独仏翻訳における品詞毎の翻訳精度}\label{tab:pos-error-de-fr}\input{05table03.txt}\end{table}\begin{table}[b]\caption{仏独翻訳における品詞毎の翻訳精度}\label{tab:pos-error-fr-de}\input{05table04.txt}\end{table}表\ref{tab:pos-error-de-fr}の独仏翻訳の例では,提案手法によって,ベースライン手法よりも特に前置詞,定冠詞,動詞でF値が大きく向上している.一般名詞,形容詞,動詞,副詞は重要な内容語であり,語彙選択の幅も広いため,どの手法でも全体的にF値が低くなっている.一般名詞に関しては,通常のテーブル合成手法でもDirectと大きな差は出ておらず,そのため提案手法でもほとんど改善されなかった.一方で,動詞のF値は提案手法で大きく向上しており,中間言語モデルによって語の並びを考慮して語彙選択を行うことで翻訳精度向上に繋がったと考えられる.しかし,それでもDirectには大きく及ばず,頻度が比較的低い内容語の語彙選択を適切に行うことは困難と言えるだろう.一方で,機能語においては提案手法においてDirectと近いF値となった.表\ref{tab:pos-error-fr-de}の仏独翻訳の例では,表\ref{tab:pos-error-de-fr}の場合と少し変わっており,冠詞,前置詞,再帰代名詞のような機能語で,提案手法によってF値が大きく改善されているものの,Directと比べると大きな差があり,ピボット翻訳で精度が大きく落ちる原因と考えられる.冠詞や前置詞は機能語であるものの,ドイツ語では男性系・女性系に加えて,英語にもフランス語にもない中性系の活用を持っているため,フランス語よりも活用の種類が多く,また冠詞や前置詞も格に応じた活用をすることが知られている.原言語を英語に翻訳した際には統語的情報が失われることが多いため,機能語にも活用幅があるような目的言語に対してはピボット翻訳が特に困難になることが多い.}本節では,品詞毎の単語正解率の分析を行ったが,言語対毎に特定品詞の翻訳精度が落ちる現象が見られた.英語には同じ語形で多品詞の語が多いため,単語の対応だけで統語的な役割を判断するのは不可能な場合もある.統語的な情報を汲み取るには複数の単語からなるフレーズを考慮する必要があるが,文頭と文末のような離れた位置での依存関係も存在するため,単語列としてではなく構文構造を考慮することも重要と考えられる.そこで,本研究の今後の課題として,構文構造を中間言語の表現として用いるピボット翻訳手法を検討している.
\section{まとめ}
本研究の目的は,多言語機械翻訳における翻訳精度の向上を目指し,従来のピボット翻訳手法を調査,問題点を改善して翻訳精度を図ることであった.そのために,PBMTで既に有効性が示されている,テーブル合成手法によるピボット翻訳をSCFGに適用し,どのような処理が有効であるかに着目した.さらに,従来のテーブル合成手法では中間言語情報が失われ,曖昧性により翻訳精度が減少する問題に対処するため,中間言語情報を記憶し,中間言語モデルを利用して自然な語順の語彙選択を促すことで精度を向上させるテーブル合成手法についても提案した.本論文で提案した手法を用いて,国連文書を元にした多言語コーパスの6言語のデータを用いてピボット翻訳の比較評価を行ったところ,英語を中間言語としたすべての言語の組み合わせで従来のテーブル合成手法よりも高い翻訳精度が示された.また,特に大規模な中間言語モデルを用いることで,より適切な語彙選択が促されて翻訳の質を高められることが分かった.しかし,提案手法でも,直接の対訳コーパスを用いて学習を行った理想的な状況と比較すると,精度の開きが大きく,中間言語モデルをさらに大きくするだけでは解決できないであろう点も示唆された.本提案手法で解決できなかった曖昧性の問題を調査すべく,特定の言語対で品詞毎の単語正解率を求めたところ,語順を考慮するだけでは解消されない曖昧性の問題もあり,構文情報を用いてこの点を改善することが今後の課題として考えられる.ピボット翻訳の曖昧性の問題は,主として中間言語の表現力に起因しており,中間言語の単語列だけでは原言語の情報が失われてしまい,目的言語側で確率的に正しく再現することは困難である.そのため,今後の課題として,中間言語を特定の言語の単語列としてではなく,より高い表現力を持った構文構造を中間表現とすることで,中間言語側の多品詞語の問題に対処したり,原言語側の情報を保存して,より正確に目的言語側で情報を再現するための手法を検討する.1つ目は,中間表現に統語情報を用いた翻訳規則テーブルの軽量化・高精度化である.本研究で提案した手法では,SCFGの翻訳モデルを学習するために,階層的フレーズベース翻訳という枠組の翻訳手法で翻訳規則を獲得している.これは,翻訳において重要な,単語並び替え問題を高精度に対処できる点で優れているが,統語情報を用いず,総当り的な手段で非終端記号を含んだ翻訳規則を学習するため,テーブルサイズが肥大化する傾向がある.その上,テーブル合成時には,中間表現の一致する組み合わせによってテーブルサイズはさらに増加する.これは,曖昧性により多くの誤ったフレーズ対応も保存されることを意味するため,不要な規則は除去してサイズを削減するべきである.このような,中間表現が一致する組み合わせの中には,文法上の役割は異なるが表記上同じようなものも含まれるため,意味の対応しない組み合わせに対して高い翻訳確率が推定されてしまう場合もある.こういった問題は,中間言語の表現に統語情報を組み込むことで,品詞や句構造が異なればフレーズの対応も結び付かないという制約が働き,誤った句対応を容易に除外できるため,テーブルサイズは減少し,曖昧性が解消されて翻訳精度の向上が期待できる.2つ目は,中間表現に原言語の統語情報を保存するピボット翻訳手法の提案である.ピボット翻訳においては,中間言語の表現力が悪影響を及ぼして,原言語の情報が失われてしまうことを述べてきたが,これは機械翻訳に限らず,人手による翻訳でも度々起こる問題である.例えば,英語には人称接尾辞のような活用体系がないため,英語に訳した際に性・数・格などの統語的情報が失われ,結果的に英語を元にした翻訳では原意と大きく異なってしまう現象などがある.本枠組では,前述の中間言語側の統語情報と組み合わせることで,より原意を汲んだ翻訳の実現を目指す.\acknowledgment本研究の一部はJSPS科研費16H05873,24240032およびATR-Trek社共同研究の助成を受けて実施されました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brants,Popat,Xu,Och,\BBA\Dean}{Brantset~al.}{2007}]{brants07}Brants,T.,Popat,A.~C.,Xu,P.,Och,F.~J.,\BBA\Dean,J.\BBOP2007\BBCP.\newblock\BBOQLargeLanguageModelsinMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\858--867}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93}Brown,P.~F.,Pietra,V.~J.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19},\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Chappelier\BBA\Rajman}{Chappelier\BBA\Rajman}{1998}]{chappelier98}Chappelier,J.-C.\BBACOMMA\\BBA\Rajman,M.\BBOP1998\BBCP.\newblock\BBOQAGeneralizedCYKAlgorithmforParsingStochasticCFG.\BBCQ\\newblockIn{\BemProceedingsTAPD,\textup{Vol.98,No.5}},\mbox{\BPGS\133--137}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2007}]{chiang07}Chiang,D.\BBOP2007\BBCP.\newblock\BBOQHierarchicalPhrase-basedTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(2),\mbox{\BPGS\201--228}.\bibitem[\protect\BCAY{Cohn\BBA\Lapata}{Cohn\BBA\Lapata}{2007}]{cohn07}Cohn,T.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQMachineTranslationbyTriangulation:MakingEffectiveUseofMulti-ParallelCorpora.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\728--735}.\bibitem[\protect\BCAY{Dabre,Cromieres,Kurohashi,\BBA\Bhattacharyya}{Dabreet~al.}{2015}]{dabre15}Dabre,R.,Cromieres,F.,Kurohashi,S.,\BBA\Bhattacharyya,P.\BBOP2015\BBCP.\newblock\BBOQLeveragingSmallMultilingualCorporaforSMTUsingManyPivotLanguages.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\1192--1202}.\bibitem[\protect\BCAY{de~Gispert\BBA\Mari{\~{n}}o}{de~Gispert\BBA\Mari{\~{n}}o}{2006}]{gispert06}de~Gispert,A.\BBACOMMA\\BBA\Mari{\~{n}}o,J.~B.\BBOP2006\BBCP.\newblock\BBOQCatalan-EnglishStatisticalMachineTranslationwithoutParallelCorpus:BridgingthroughSpanish.\BBCQ\\newblockIn{\BemProceedingsofLREC5thWorkshoponStrategiesforDevelopingMachineTranslationforMinorityLanguages},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Dyer,Cordova,Mont,\BBA\Lin}{Dyeret~al.}{2008}]{dyer08}Dyer,C.,Cordova,A.,Mont,A.,\BBA\Lin,J.\BBOP2008\BBCP.\newblock\BBOQFast,Easy,andCheap:ConstructionofStatisticalMachineTranslationModelswithMapReduce.\BBCQ\\newblockIn{\BemProceedingsWMT},\mbox{\BPGS\199--207}.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,Tamura,\BBA\Kurohashi}{Gotoet~al.}{2013}]{goto13acl}Goto,I.,Utiyama,M.,Sumita,E.,Tamura,A.,\BBA\Kurohashi,S.\BBOP2013\BBCP.\newblock\BBOQDistortionModelConsideringRichContextforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\155--165}.\bibitem[\protect\BCAY{Heafield}{Heafield}{2011}]{heafield11}Heafield,K.\BBOP2011\BBCP.\newblock\BBOQKenLM:FasterandSmallerLanguageModelQueries.\BBCQ\\newblockIn{\BemProceedings,WMT},\mbox{\BPGS\187--197}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04bootstrap}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsEMNLP},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2005}]{koehn05europarl}Koehn,P.\BBOP2005\BBCP.\newblock\BBOQEuroparl:AParallelCorpusforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemMTSummit},\lowercase{\BVOL}~5,\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn07moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Levinboim\BBA\Chiang}{Levinboim\BBA\Chiang}{2015}]{levinboim15}Levinboim,T.\BBACOMMA\\BBA\Chiang,D.\BBOP2015\BBCP.\newblock\BBOQSupervisedPhraseTableTriangulationwithNeuralWordEmbeddingsforLow-ResourceLanguages.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\1079--1083}.\bibitem[\protect\BCAY{三浦\JBANeubig\JBASakti\JBA戸田\JBA中村}{三浦\Jetal}{2014}]{miura14nl12}三浦明波\JBANeubig{Graham}\JBASakti{Sakriani}\JBA戸田智基\JBA中村哲\BBOP2014\BBCP.\newblock階層的フレーズベース翻訳におけるピボット翻訳手法の応用.\\newblock\Jem{情報処理学会第219回自然言語処理研究会(SIG-NL),20号},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{三浦\JBANeubig\JBASakti\JBA戸田\JBA中村}{三浦\Jetal}{2015}]{miura15nl07}三浦明波\JBANeubig{Graham}\JBASakti{Sakriani}\JBA戸田智基\JBA中村哲\BBOP2015\BBCP.\newblock中間言語モデルを用いたピボット翻訳の精度向上.\\newblock\Jem{情報処理学会第222回自然言語処理研究会(SIG-NL),2号},\mbox{\BPGS\1--5}.\bibitem[\protect\BCAY{Miura,Neubig,Sakti,Toda,\BBA\Nakamura}{Miuraet~al.}{2015}]{miura15acl}Miura,A.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQImprovingPivotTranslationbyRememberingthePivot.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\573--577}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsACLDemoTrack},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Neubig,Arthur,\BBA\Duh}{Neubiget~al.}{2015}]{neubig15naacl}Neubig,G.,Arthur,P.,\BBA\Duh,K.\BBOP2015\BBCP.\newblock\BBOQMulti-TargetMachineTranslationwithMulti-SynchronousContext-freeGrammars.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\484--491}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig11-kytea}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Nirenburg}{Nirenburg}{1989}]{nirenburg89}Nirenburg,S.\BBOP1989\BBCP.\newblock\BBOQKnowledge-BasedMachineTranslation.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf4}(1),\mbox{\BPGS\5--24}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och03mert}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Shannon}{Shannon}{1948}]{shannon48}Shannon,C.~E.\BBOP1948\BBCP.\newblock\BBOQAMathematicalTheoryofCommunication.\BBCQ\\newblock{\BemBellSystemTechnicalJournal},{\Bbf27}(3),\mbox{\BPGS\379--423}.\bibitem[\protect\BCAY{Toutanova,Klein,Manning,\BBA\Singer}{Toutanovaet~al.}{2003}]{toutanova03}Toutanova,K.,Klein,D.,Manning,C.~D.,\BBA\Singer,Y.\BBOP2003\BBCP.\newblock\BBOQFeature-richPart-of-speechTaggingwithaCyclicDependencyNetwork.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{Toutanova\BBA\Manning}{Toutanova\BBA\Manning}{2000}]{toutanova00}Toutanova,K.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2000\BBCP.\newblock\BBOQEnrichingtheKnowledgeSourcesUsedinaMaximumEntropyPart-of-SpeechTagger.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\63--70}.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{utiyama07}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAComparisonofPivotMethodsforPhrase-BasedStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsNAACL},\mbox{\BPGS\484--491}.\bibitem[\protect\BCAY{Zhu,He,Wu,Zhu,Wang,\BBA\Zhao}{Zhuet~al.}{2014}]{zhu14}Zhu,X.,He,Z.,Wu,H.,Zhu,C.,Wang,H.,\BBA\Zhao,T.\BBOP2014\BBCP.\newblock\BBOQImprovingPivot-BasedStatisticalMachineTranslationbyPivotingtheCo-occurrenceCountofPhrasePairs.\BBCQ\\newblockIn{\BemProceedingsEMNLP},\mbox{\BPGS\1665--1675}.\bibitem[\protect\BCAY{Ziemski,Junczys-Dowmunt,\BBA\Pouliquen}{Ziemskiet~al.}{2016}]{ziemski16un}Ziemski,M.,Junczys-Dowmunt,M.,\BBA\Pouliquen,B.\BBOP2016\BBCP.\newblock\BBOQTheUnitedNationsParallelCorpusv1.0.\BBCQ\\newblockIn{\BemProceedingsLREC},\mbox{\BPGS\3530--3534}.\end{thebibliography}\clearpage\begin{biography}\addtolength{\baselineskip}{-1pt}\bioauthor{三浦明波}{2013年イスラエル国テクニオン・イスラエル工科大学コンピュータ・サイエンス専攻卒業.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院博士後期課程在学.機械翻訳,自然言語処理に関する研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.2012〜2016年奈良先端科学技術大学院大学助教.現在,カーネギーメロン大学言語技術研究所助教,奈良先端科学技術大学院大学客員准教授.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{SakrianiSakti}{1999年インドネシア・バンドン工科大学情報卒業.2002年ドイツ・ウルム大学修士,2008年博士課程修了.2003〜2011年ATR音声言語コミュニケーション研究所研究員,情報通信研究機構主任研究員.現在,奈良先端科学技術大学院大学情報科学研究科助教.2015〜2016年フランスINRIA滞在研究員.統計的パターン認識,音声認識,音声翻訳,認知コミュニケーション,グラフィカルモデルの研究に従事.JNS,SFN,ASJ,ISCA,IEICE,IEEE各会員.}\bioauthor{戸田智基}{1999年名古屋大学工学部電気電子・情報工学科卒業.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.同年日本学術振興会特別研究員-PD.2005年奈良先端科学技術大学院大学情報科学研究科助手.2007年同助教.2011年同准教授.2015年より名古屋大学情報基盤センター教授.工学博士.音声情報処理の研究に従事.IEEE,電子情報通信学会,情報処理学会,日本音響学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学工学博士.シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.ISCA理事,IEEESLTC委員,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V15N05-05
|
\section{はじめに}
\label{hajime}共参照解析とは,ある表現が他の表現と同一の対象を指していることを同定する解析のことであり,計算機による自然言語の意味理解を目指す上で重要な技術である.本研究では,日本語文における,同一文章内の表現間の共参照である文章内共参照を解析の対象とする.文章内共参照では,ある表現(照応詞)が文章中の先行する表現(先行詞)と同一の対象を指している場合にそれを認識することが目的となる.共参照における照応詞としては,普通名詞,固有名詞,代名詞の3つが考えられる.英語などの言語では照応詞として代名詞が頻繁に使用されるが,日本語では代名詞の多くはゼロ代名詞として省略されるため,照応詞の多くは普通名詞,固有名詞が占めている.ゼロ代名詞の検出・解析(ゼロ照応解析)も,意味理解を目指すためには欠かすことのできない解析であり,多くの研究が行われている\cite{Seki2002,Kawahara2004a,Iida2006}.ゼロ照応解析は,先行する文中から先行詞を同定するという点では共参照解析と同じであるが,ゼロ代名詞の認識が必要である点,省略されているため照応詞自体に関する情報がない点で異なっており,より応用的なタスクであると言える.本研究では,高精度な照応解析システムを実現するためには,まず基礎的な照応解析である共参照解析の精度向上が重要であると考え,共参照解析の精度向上を目指す.共参照解析の手法としては大きく分けて,人手で作成した規則に基づく手法と,タグ付きコーパスを用いた機械学習に基づく手法がある.英語を対象とした共参照解析では,これらの2手法によりほぼ同程度の精度が得られている\cite{Soon2001,Ng2002a,Zhou2004}.一方,日本語の場合は規則に基づく手法で高い精度が得られる傾向がある\cite{Iida2003,Murata1996b}\footnote{これらの研究では使用しているコーパスが異なるため単純には比較できないものの,新聞記事を対象とした予備実験の結果,規則に基づく手法でより高い精度が得られた.}.日本語において規則に基づく手法で高い精度が得られるのは,普通名詞,固有名詞間の共参照関係が大部分であり,語彙的情報が非常に大きな役割を占めるため,機械学習によって得られる性向が,人手で作成した規則でも十分に反映できているためであると考えられる.そこで本研究では基本的に,人手で設定した規則に基づく共参照解析システムを構築する.照応詞が普通名詞,固有名詞となる場合,照応詞と先行詞の関係は大きく以下のように分類できる.\begin{enumerate}\item照応詞の表記が先行詞の表記に含まれているもの:Ex.大統領官邸=官邸\label{most1}\item同義表現による言い換え:Ex.北大西洋条約機構=NATO\label{most2}\itemその他(クラスとインスタンス,上位語と下位語など):Ex.1995年=前年\label{most3}\end{enumerate}このうち,\ref{most1}は基本的に照応詞が先行詞と一致する場合や,末尾に含まれている場合で,特別な知識がなくても認識が可能である.ただし,末尾が一致する場合すべてが共参照関係にあるわけではなく,精度の高い解析のためには照応詞,先行詞が指すものを解析する必要がある.例えば次のような2文があった場合,いずれの文にも「結果」という語が複数回出現するが,aではそれらが同一の内容を指しているのに対し,bでは異なる内容を指している.\exs{a.&2006FIFAワールドカップ優勝国予想アンケートを行った.\underline{結果}はブラジルがトップだった.アンケート\underline{結果}の詳細はWebで見られる.\label{kekka}\\&b.&先月行なわれた韓国との親善試合の\underline{結果}を受けアンケートを行った.アンケート\underline{結果}から以下のようなことが判明した.}\\これらの違いを正しく解析するためには,a中の「結果」はともに「アンケートの結果」を意味しているのに対し,b中の「結果」は順に「試合の結果」,「アンケートの結果」を意味していることを認識する必要がある.そこで本研究では,係り受け解析,および,自動構築した名詞格フレームに基づく橋渡し指示(bridgingreference)解析により名詞句の関係を解析し,その結果を共参照解析の手掛りとして用いる.2は「北大西洋条約機構」と「NATO」のように,同義表現を用いた言い換えとなっている場合である.同義表現を用いた言い換えとなっている場合,人間が同一性を理解する場合も,事前の知識がないと困難な場合も多い.そこで,同義表現に関する知識を事前にコーパスや国語辞典から自動的に獲得し,獲得した同義表現知識を共参照解析に使用する.\ref{most3}については,シソーラスを用いたり,文脈的な手がかりを用いることによって解決できる場合があると考えられるが,本研究では解析を行なわず,今後の課題とする.
\section{同義表現の自動獲得}
\subsection{獲得に用いるリソース}\label{resource}同義表現を獲得するためのリソースとしては,コーパスや辞書が考えられる.コーパスを用いた同義表現に関する研究としては,括弧表現を用いる手法や,テキストの局所的な文脈依存性を利用する手法\cite{Yamamoto2002},コーパスから名詞と略語をその出現頻度に関するルールを用いて獲得する手法\cite{Sakai2003},係り受けおよび共起関係を利用し同義表現を抽出する手法\cite{Ueno2004},複数の著者の表記の違いを利用した手法\cite{Murakami2004}などが提案されている.本研究ではこのうち比較的高い精度を実現している括弧表現を用いた手法を用いる.括弧表現から獲得できる同義表現の特徴としては,常識となっていない事柄,すなわち,新語や未知語への対応力は強いものの,次の例文における「日」と「日本」のように極めて常識的な言い換えは抽出できない点が挙げられる.\ex{在\underline{日}外国人への所得課税を優遇する要件を厳しくし,主に\underline{日本}で働く外国人には国内外のすべての所得に課税できるようにする.\label{nihon}}そこで,極めて常識的な言い換え表現を獲得するため国語辞典からも同義表現の抽出を行う.国語辞典から獲得できる同義表現ペアには,新語などは含まれないものの,括弧を用いて表記されないような極めて一般的な同義表現ペアが含まれていると考えられ,括弧表現と国語辞典の2つのリソースを用いて同義表現を抽出することで,多くの同義表現を獲得できると考えられる.\subsection{括弧表現からの同義表現の抽出}括弧の解析に関する先行研究としては久光らの研究\cite{Hisamitsu1997}や,Okazakiらの研究\cite{Okazaki2008}がある.久光らは統計量とルールを組み合わせて括弧表現を,同義表現や,読みを表している場合,補足している場合などに分類し,同義表現などの有用な情報の抽出を行っている.久光らの手法は,小規模なコーパスからも大量に同義表現を抽出できるという特徴がある.実験には日経新聞1992年1年分を使用しており,もっとも高い精度となるYate補正した$\chi^2$とルールを組合せた場合の言い換え抽出精度は,$\chi^2$値上位500位に含まれる437個の言い換え表現の獲得に対しては約99.3\%,$\chi^2$値上位501位〜6366位に含まれる約3400個の言い換え表現の獲得に対しては約96.5\%である\footnote{久光らは,適切な文字列の削除/追加により正解となるものを半正解としているが,ここでは本研究の基準と同様にそれらを不正解として計算している.}.Okazakiらは,新たに以下の2つの条件を同時に満たす文書は「A→B」の語彙的言い換えであると認定することで計算される言い換え発生率を指標として導入し,精度95.7\%,適合率90.0\%,再現率87.6\%を得ている.\begin{enumerate}\item「A(B)」のパターンが出てくる前の文において,表現Bが出現しない.\item「A(B)」のパターンが出てきた後の文において,表現Aよりも表現Bの出現頻度が高い.\end{enumerate}実験には1998--1999年の毎日新聞・読売新聞に含まれる括弧表現のうち共起頻度が8よりも大きい語彙対を使用しており,その中に含まれる言い換え可能な表現は1,430事例である.再現率が87.6\%であることから約1,250個の言い換え表現を獲得していることになる.本研究では,共参照解析において有用となる同義表現を獲得することを目的とし,できるだけ出現頻度の高い同義表現を精度良く獲得することを目指す.同義表現であるならば,「A(B)」のパターンに加えて,「B(A)」のパターンも出現する(双方向性がある)可能性が高いと考え,双方向性に注目することにより高精度に同義表現を抽出する手法を提案する.抽出する同義表現を「A(B)」のパターンに加えて,「B(A)」のパターンも出現するものに限定することにより,コーパスサイズに対する獲得同義表現数は少なくなるものの,高い精度で抽出できると考えられる.提案する括弧表現からの同義表現の自動獲得の手順は以下の通りである.\begin{description}\item[1.長い同義表現候補の抽出]\\\括弧の中の表現Aと,その前に出現した句読点から括弧の前までの表現Bのペアをコーパスから取り出し,AとBを同義表現の候補とする.例えば,(\ref{tyogin})のような文があった場合はAとして「日本長期信用銀行」がBとして「金融システムの危機について焦点となっている長銀」を取り出す.\ex{現在のところ,金融システムの危機について焦点となっている\textgt{長銀}\textgt{(日本長期信用銀行)}に関しては,….\label{tyogin}}\item[2.短い同義表現候補の抽出]\\\Bの形態素解析を行い末尾の名詞句B'がBと異なる場合はB'を取り出し,AとB'のペアも同義表現候補とする\footnote{人名とその所属組織,地名とそこに位置する組織名などの組み合わせを除くためAとB'のいずれかが,人名のみ,または地名のみで構成されている場合は候補としていない.}.例えば(\ref{tyogin})のような文があった場合は「日本長期信用銀行」と「長銀」のペアが抽出される.\item[3.同義表現の決定]\\\A(B)とB(A)の両方が出現しているものに対し,表\ref{THREsynonym}に示すような同義表現候補のタイプごとに設定した閾値を満足する同義表現候補を同義表現として抽出する.\end{description}\begin{table}[b]\caption{括弧表現を用いた同義表現抽出のために設定した閾値}\label{THREsynonym}\begin{center}\input{05table01.txt}\end{center}\end{table}表\ref{THREsynonym}に示した閾値は事前に100個程度の同義表現候補とその出現頻度を参考に決定した.また,実験には毎日新聞12年分と読売新聞14年分,計26年分,約2,600万文を使用した.約2,600万文中に文頭に出現するものを除いて括弧は約1,000万回出現し,短い同義表現候補の異なり数は約110,000個,双方向性のある語彙対は5,800個であった.獲得された固有表現の種類と数,正しいと判断されたものの割合(正解の割合)を表\ref{Equivalent}に示す.正解の割合はタイプ1,タイプ2に関してはランダムに抽出した200個を,タイプ3,タイプ4に関しては抽出されたすべての同義表現対を人手で評価し算出している\footnote{抽出された同義表現対が正解であると判断する基準は,それらが同一文章中に出現した場合に同じ対象を指していることが多いと考えられるかどうかである.}.\begin{table}[t]\caption{括弧表現を用いた同義表現抽出の結果}\label{Equivalent}\begin{center}\input{05table02.txt}\end{center}\end{table}表\ref{Equivalent}の結果から約2,600個の同義表現を精度約99\%という高い精度で同義表現を獲得できており,双方向性に注目した絞り込みが有効であったことが確認できる.また,先行研究と比較した場合,大規模なコーパスを使うことにより,抽出精度を落とさずに多くの同義表現の獲得に成功していると言える.次に,使用した閾値の妥当性を確認するため同義表現であると判断する閾値を表\ref{THREsynonym}に``[]''を用いて記した閾値に緩めて同義表現の抽出を行った.新たに同義表現と判断された語の数と評価を表\ref{Equivalent2}に示す.新たに約730個の正しい同義表現が獲得され,その精度は約95\%であった.このことから,使用するコーパスから出来るだけ多くの同義表現の獲得を目的とする場合,閾値を緩めた方が良いと考えられる.しかしながら,同義表現の獲得数はより大規模なコーパスを使用することで増やすことができると考えられること,精度の高い同義表現データの方が汎用性が高いと考えられることから本研究では緩い閾値は採用せず,表\ref{Equivalent}に示した同義表現を知識として使用する.\begin{table}[t]\caption{緩い閾値を用いて新たに抽出された同義表現}\label{Equivalent2}\begin{center}\input{05table03.txt}\end{center}\end{table}\subsection{国語辞典からの同義表現の抽出}括弧表現を用いるだけでは抽出できないと考えられる\ref{resource}節の(\ref{nihon})の例における「日」と「日本」のような極めて常識的な言い換え表現も含めた同義表現辞書を構築するために,国語辞典からの同義表現抽出も行う.国語辞典からの同義表現抽出については多くの研究が行なわれており\cite{Tsurumaru1991,Tokunaga2001,Nichols2005},それらの多くは国語辞典から出来る限り多くの情報を抽出することを目的としている.本研究では,共参照解析に有用な同義表現の獲得を目的としており,また,コーパス中に出現する共参照関係にある同義表現のうち括弧表現から抽出できないものの多くは常識的な地名の言い換えであることから,これらの地名を含む常識的な言い換えが抽出できれば十分であると考える.そこで,これらが抽出できるような簡単な規則を設定し国語辞典からの同義表現抽出を行う.同義表現抽出のために用いた規則を以下に示す.\begin{enumerate}\item対象の語の見出し語Aを取り出す.\item対象の語の定義文を順に見ていき,「の略.」,「のこと.」で終わっている定義文である場合はその前の部分を,それ以外の定義文については句点より前の部分を取り出しBとする.\item取り出したBが「」で囲まれているか,または,Bが国語辞典に見出し語として載っている場合のみ次の処理に進む.\label{joken3}\itemその定義文が対象の語の第一義である場合,または,Bが地名として国語辞典に登録されているならば,AとBを同義表現とする.\label{joken4}\end{enumerate}\begin{table}[b]\caption{例解小学国語辞典の定義文の例}\label{RSK}\input{05table04.txt}\end{table}例えば,表\ref{RSK}に示すような見出し語と定義文があった場合の処理は次のようになる.「ソビエトれんぽう」に対しては,まず,表記として「ソビエト連邦」が取り出される.続いて定義文を順に取り出していき,条件\ref{joken3}を満足するかどうかを調べると,最後の定義文「ソ連」のみが辞書の表記として含まれているので,\ref{joken4}の処理に進む.この場合,「ソ連」は辞書に地名として載っているので,「ソビエト連邦」と「ソ連」は同義表現であると判断される.「ふけい」に対しては,まず,表記として「婦警」が取り出され,続いて,定義文から「婦人警察官」が取り出される.「婦人警察官」は辞書には登録されていないが,「」で囲まれた表現なので\ref{joken4}の処理に進み,第一義であるので「婦警」と「婦人警察官」は同義表現として抽出される.実験に用いた国語辞典は「例解小学国語辞典\cite{Reikai}」と「岩波国語辞典\cite{Iwanami}」である.「例解小学国語辞典」は小学生向けの辞書で基本的な語が比較的平易な定義文により記載されており,約3万語が記載されている.一方,「岩波国語辞典」は一般向けの辞書であり,語彙数は約6万語である.表\ref{fromdic}に自動抽出された同義表現の例を示す.抽出された同義表現は150個であった.掲載語彙数に対して少ないと言えるが,目的とした常識的な国名の言い換え表現は獲得できており,誤った同義表現のペアは含まれていなかった.括弧表現から抽出した同義表現ペアと重複しているのは「国連」と「国際連合」,「北朝鮮」と「朝鮮民主主義人民共和国」など6つのみであり,「高校」と「高等学校」,「米国」と「アメリカ」など括弧表現から抽出することができない極めて常識的な同義表現の抽出に成功していると言える.\begin{table}[t]\caption{国語辞典を用いた同義語抽出}\label{fromdic}\begin{center}\input{05table05.txt}\end{center}\end{table}
\section{名詞句の関係解析}
本研究では,名詞句間の関係を解析するため,構文解析,および,橋渡し指示(bridgingreference)解析を行う.構文解析は,KNP\cite{KNP3}を用いて行う.構文解析の結果,文節ごとの係り受け関係,および,連体修飾であるなど係り受け関係にある2文節がどのような関係にあるかが分かる.例えば,以下のような文があった場合,「立てこもる」が「事件」を連体修飾していることなどが分かる.\ex{女性を人質に\textbf{立てこもる}\underline{事件}があった.\label{tate1}}橋渡し指示とは,(\ref{nedan})中の「チケット」と「値段」の関係である.これらは直接係り受け関係にはないが,「チケットの値段」という意味となっている.橋渡し指示解析は自動構築した名詞格フレームを用いて行う\cite{Sasano2004}.橋渡し指示解析の結果,(\ref{nedan})中の「値段」は「チケット」の値段という意味であることなどが分かる.\ex{金券ショップでは\underline{チケット}が何倍もの\underline{値段}で売られていた.\label{nedan}}
\section{共参照解析}
\subsection{文字列のマッチングを用いた共参照解析}本研究では,基本的な共参照解析システムとして,文字列のマッチングを用いた共参照解析システムを用いる.本節では,文字列のマッチングを用いた共参照解析システムについて説明する.\subsubsection{照応詞,先行詞として考える単位}共参照解析システムを構築するにあたり問題となるのが,照応詞,先行詞として扱う単位をどのようにするかである.特に,複合名詞句があった場合,その構成素のうちどの部分を照応詞,先行詞として考えるかが問題となる.まず,考えられるのがIidaら\cite{Iida2003}の基準である.Iidaらは共参照解析を行うにあたり,照応詞を文節の主辞(最右の名詞自立語)に限定している.\ex{携帯電話/PHSの利用に関するウェブ・アンケート\underline{調査}を実施し,207名から回答を得ました.\underline{調査}内容は…\label{phs}}しかしながら,(\ref{phs})のような文があった場合,「ウェブ・アンケート調査」と,「調査内容」の「調査」は同じ対象を指しており,カバレッジの大きな共参照解析システムの構築を目指す場合,主辞となっていない形態素が照応詞となる共参照関係も認識できることが望ましいと考えられる.そこで,本研究では,複合名詞の構成素すべてを照応詞の候補として考える.ただし,固有表現については結び付きが強いと考えられることから例外として扱い,固有表現の部分構成素は照応詞,先行詞として考慮しないものとする.京都テキストコーパス\cite{Kawahara2002c}では,複合名詞句の構成素も含むすべての自立語を照応詞,先行詞として扱っている.例えば,次のような文があった場合,後続する「ロシア軍」に含まれる「ロシア」および「軍」にはそれぞれ別々に,先行する「ロシア」,「軍」と共参照関係にあるというタグが付与されている.\ex{グロズヌイからの報道では,\underline{ロシア}\underline{軍}は….首都防衛はうまくいっており,\underline{ロシア}\underline{軍}の戦車五十両を破壊したと発表.\label{russia}}しかしながら,複合名詞のある構成素が,先行する同表記の複合名詞の構成素と共参照関係にある場合,その複合名詞の他の構成素も対応していることは自明であると考えられる.例えば,(\ref{russia})のような文があった場合,「軍」が同一の対象を指しているならば,「ロシア」が同じ対象を指していることは自明である.そこで本研究では,1つの文節に対してはより右側に出現した照応詞1つのみを解析の対象とする.以上より,本研究における先行詞,照応詞として扱う基準は以下のとおりである.\begin{itemize}\item文章内に出現したすべての名詞句,複合名詞句の構成素を先行詞の候補とする.\item文章内に出現したすべての名詞句,複合名詞句の構成素を照応詞の候補とする.ただし,1つの文節に対しては,より右側に出現した照応詞1つのみを対象とする.\item固有表現については例外として扱い,その部分構成素は先行詞,照応詞として考えない.\end{itemize}\subsubsection{基本的な方針}一般的に,文章中に新しい概念が登場する際は,その性質や内容を表す節を伴なって出現する場合が多いと考えられる.これに対して,既に文章中に出現している内容・対象を指す表現の場合はすでに行われた説明を繰り返すと冗長になるため,同一,または,より簡潔な表現で表される場合が多いと考えられる.また,同一文章中に先行する文章中で出現した表現が同一,または,より簡潔な形で出現した場合は,それらは同一の内容・対象を指す可能性が高いと考えられる.そこで本研究では基本的に,先行する文章中に出現した表現が同一,または,より簡潔な形で出現した場合に,それらが同一の内容・対象を指すと考える.ただし,指示詞や「同」に修飾されている表現については,先行する表現を照応していると考えた方が自然であるので,これらの語を伴なっていた場合も先行する表現を照応していると考える.また,固有表現は,修飾語によって限定されることはないと考えられるので,修飾語を伴なっていた場合も先行する同表記の固有表現を照応していると考える.以下では,同一,または,より簡潔な形で出現したと判断し,照応詞候補と先行詞候補が共参照関係にあると判断する基準を,共参照関係認定基準と呼ぶ.\subsubsection{共参照関係認定基準}\label{basis}文章中に出現した表現が,共参照関係にあると判断する基準,すわなち,照応詞候補が先行詞候補と,同一,または,より簡潔な形であると判断する基準として以下の2つの基準を用いる.ただし,いずれの場合も指示詞,および,「同」は考慮しない.\begin{description}\item[\underline{\mbox{共参照関係認定基準1:(文節内のみ考慮)}}]\\\照応詞,先行詞候補を含む文節を比較し,照応詞候補を含む文節の照応詞候補以前の部分が,先行詞候補を含む文節に含まれている場合,同一,または,より簡潔であるとする.\item[\underline{\mbox{共参照関係認定基準2:(文節間の係り受けも考慮)}}]\\\1の条件に加え,照応詞候補が他の文節から修飾されていない場合のみ,同一,または,より簡潔であるとする.\end{description}例として,(\ref{part})のような文を考える.共参照関係認定基準1を使用した場合は,a,b,cの場合に,後続する「出場者」は先行する「出場者」と同一,または,より簡潔な表現だと判断し,共参照関係認定基準2を使用した場合は,a,bの場合のみ,同一,または,より簡潔な表現だと判断する.\exs{a.\label{part}&会場に集まった\underline{出場者}が….\underline{出場者}たちは….\\&b.&会場に集まった\underline{出場者}が….同\underline{出場者}たちは….\\&c.&会場に集まった\underline{出場者}が….決勝に残った\underline{出場者}たちは….\\&d.&会場に集まった\underline{出場者}が….決勝戦\underline{出場者}たちは….}\subsubsection{文字列のマッチングを用いた共参照解析のアルゴリズム}\label{alg}以上の方針に基づく,文字列のマッチングを用いた共参照解析のアルゴリズムを以下に示す.\begin{enumerate}\item対象とする文章について,形態素解析,固有表現認識,構文解析を行う.\item文頭の文節から順に,すべての名詞句,および,複合名詞の構成素を照応詞候補とする.だだし,固有表現と解析された名詞句については,それ以上分割しない.\item各照応詞候補について,以下の基準で先行詞を探し,先行詞が見つかった場合は,それらの照応詞候補,先行詞は共参照関係にあると判断する.ただし,1文節中に複数の照応詞がある場合は,より主辞の近く(右側)に出現したものを優先する.\begin{enumerate}\item先行する文章中から同一の表現を探す.\label{3-a}\item照応詞候補が固有表現である場合は,より簡潔な表現であるかどうかを考慮せず,同一の固有表現があれば先行詞と判断する.\itemそれ以外の場合は,照応詞候補がその表現と同一,または,より簡潔な形である場合,その表現を先行詞とする.先行詞の条件を満たす表現が複数あった場合は,照応詞候補の近くに出現したものを優先する.\end{enumerate}\end{enumerate}\subsection{名詞句の関係解析の利用}構文解析の結果,連体修飾関係にある2つの文節と,それらに含まれる自立語を含む複合名詞句があった場合,連体修飾されている名詞句と複合名詞句は同じ対象を指している可能性が高いと考えられる.例えば,(\ref{soren})中の「北海道北部」に連体修飾された「占領」と「北海道北部占領」や,(\ref{tate})中の「立てこもる」に連体修飾された「事件」と「立てこもり事件」は同一の対象を指していると考えられる.そこで,照応詞候補を含む文節の照応詞候補以前の部分が,先行詞候補を含む文節に含まれていない場合であっても,含まれていない部分を原形に直したものが,先行詞候補を連体修飾している文節の原形に含まれている場合,これらは共参照関係にあると考える.\ex{…,ソ連の当時の最高指導者スターリンが,日本の\textbf{北海道北部}の\underline{占領}とともに,……ソ連の\underline{北海道北部占領}計画は既に知られているが…\label{soren}}\ex{…女性を人質に\textbf{立てこもる}\underline{事件}があった.今回の\underline{立てこもり事件}について…\label{tate}}同様に,橋渡し指示解析の結果,先行詞候補と関係があると解析された表現の原形を補うことにより,照応詞候補が先行詞候補に含まれるようになった場合,これらは共参照関係にあると考える.例えば(\ref{wcup})のような文があった場合,橋渡し指示解析の結果,2文目に出現する「結果」がアンケートの結果であると認識され,3文目の「アンケート結果」と同一の対象を指していると解析できるようになる.\ex{2006FIFAワールドカップ優勝国予想アンケートが行った.\underline{結果}はブラジルがトップだった.\underline{アンケート結果}の詳細はWebで見られる.\label{wcup}}\subsection{同義表現の利用}\ref{alg}節で説明したアルゴリズムでは,同義表現を用いた言い換えに対応できない.そこで,\ref{alg}節の3(a)において,先行する文章中から同一の表現を探す際に,自動獲得した同義表現も対象とする.この結果,以下のような文があった場合,「北大西洋条約機構」と「NATO」の間の共参照解析を認識できるようになる.\ex{米国は\underline{北大西洋条約機構}加盟国に対し,タリバンとの衝突が激化した南部地域への増派を求めており,7日からの\underline{NATO}国防省理事会で主要議題になる見通し.}
\section{実験と考察}
京都テキストコーパス,および,ウェブから集めた文章に京都テキストコーパスと同様の基準\cite{TAG}で共参照タグを付与したウェブコーパスを用いて,共参照解析実験を行なった.京都テキストコーパスは,毎日新聞322記事2098文から成り,2870個の共参照タグが付与されている.ウェブコーパスは,186記事979文から成り,717個の共参照タグが付与されている.実験は,共参照関係認定基準1,および,共参照関係認定基準2それぞれに対し,文字列のマッチングのみを用いた手法,それに名詞句の関係解析,自動獲得した同義表現,および,その両方を追加した計4手法を行った.また,共参照関係認定基準の妥当性を確かめるため,より簡潔であるかどうかに関わらず,照応詞候補があった場合,先行する直近の同一の表現を先行詞と判断するという手法も用いた.すなわち,「大統領官邸」という表現の前に「首相官邸」という表現がある場合,「官邸」が同一の対象を指していると判断する.ただし,より長い表現間のマッチングを優先し,「首相官邸」より前に「大統領官邸」という表現があった場合は,「大統領官邸」を先行詞とする.結果を表\ref{main}に示す.表\ref{main}中のF値は,適合率と再現率の調和平均である.\begin{table}[b]\caption{共参照解析結果}\label{main}\begin{center}\input{05table06.txt}\end{center}\end{table}先行する直近の同一の表現を先行詞と判断する手法と文字列のマッチングのみを用いた手法を比較すると,いずれの共参照関係認定基準を用いた場合も,僅かな再現率の減少で,適合率は大幅に上昇しており,照応詞を先行詞と同一,または,より簡潔な表現とするという制約が有効であることが確認できる.共参照関係認定基準1を用いた場合と共参照関係認定基準2を用いた場合とを比較すると,共参照関係認定基準2の方が厳しい制約であるため,再現率が低下するかわりに,適合率が上昇している.F値に関しては,京都テキストコーパスを用いた実験では共参照関係認定基準1を用いた場合の方が,ウェブコーパスを用いた実験では共参照関係認定基準2を用いた場合の方が高くなっている.これは,新聞記事では比較的長い名詞句が多いため,同一の複合名詞句であれば同じものを指している場合が多く文節内のみを考慮すれば十分であるのに対し,ウェブコーパスでは短い名詞句が多いため文節間の修飾関係も考慮する必要があるためだと考えられる.同義表現を用いない場合と用いる場合を比較すると,同義表現を用いることにより適合率,再現率はともに上昇しており,自動獲得した同義表現を共参照解析に用いることは有効であると言える.表\ref{syn}に同義表現の利用により新たに共参照関係にあると解析された例を示す.共参照関係認定基準1を用いた場合,同義表現を用いることにより,京都テキストコーパスとウェブコーパス合わせて新たに56個がシステムにより共参照関係にあると解析されるようになった.そのうち51個が正しい解析となっており,新たに誤って解析されるようになったものは表\ref{syn}に示した「衛星」と「BS」など5個のみであった.また,51個中21個が国語辞典から抽出された同義表現であり,国語辞典から抽出された同義表現は,数は少ないものの共参照解析の性能向上に貢献していることが分かる.\begin{table}[b]\caption{同義表現の利用により新たに共参照関係にあると解析された例}\label{syn}\input{05table07.txt}\end{table}一方,名詞句の関係解析を用いた場合,再現率は上昇したものの,適合率は減少しており,ウェブコーパスに対し共参照関係認定基準1を用いた実験ではF値も低下している.しかし,ウェブコーパスに対し,より高い精度となる共参照関係認定基準2を用いた場合は再現率は大幅に上昇しており,また,いずれのコーパスに対しても,もっとも高い精度が得られたのは同義表現,名詞句の関係解析の両方を用いた場合であることから,名詞句の関係解析を用いることも共参照解析にある程度有効であると考えられる.共参照関係認定基準1を用いた場合に,名詞句の関係解析の利用により新たに共参照関係にあると解析された例を表\ref{rel}に示す.表\ref{rel}において,名詞句の関係解析を用いることにより新たに正しく認識できるようになったものは,それぞれ2回出現する「所感」,「結果」,「漁民」が「首相の所感」,「アンケートの結果」,「ベトナム系の漁民」と解析されたことにより,これらの間の共参照関係を認識できるようになった.一方,新たに誤って認識するようになったものは,それぞれ2回出現する「候補」,「燃料」が「連絡協議会の候補」,「核の燃料」と解析されることから,これらの表現が共参照関係にあると判断したものの,この場合は,それぞれ「有力」,「独自の」,また,「初回分の」,「代替」という異なる修飾語で限定されていることから,これらの表現は同一のものを指しているとは言えず,誤った解析となっている.\begin{table}[b]\caption{名詞句の関係解析の利用により新たに共参照関係にあると解析された例}\label{rel}\input{05table08.txt}\end{table}\begin{table}[b]\caption{照応詞と先行詞の関係ごとの再現率}\label{recall}\begin{center}\input{05table09.txt}\end{center}\end{table}続いて,\ref{hajime}章で分類した照応詞と先行詞の関係ごとの傾向を調べるため,京都テキストコーパスから無作為に抽出した共参照タグ250個について,照応詞と先行詞の関係,および,システムが正しく認識できているか否かを調べた.結果を表\ref{recall}に示す.照応詞の表記が先行詞の表記に含まれている場合は高い再現率が実現できていることが確認できる.また,同義表現による言い換えとなっている場合は,出現数が少ないものの,ある程度高い再現率が実現されていると考えられる.その他に分類されたものは本システムでは原理的に解析できないため,22個すべてが解析できていない.その他に分類された例を(\ref{others})に示す.このような共参照関係は全体の約9\%程度を占めており,より高い再現率をもつ共参照解析システムを構築するためには,これらの認識を行う必要があると考えられる.\exs{a.\label{others}&小選挙区に立候補するには現金\underline{三百万円}か\underline{同額}の国債証書を…\\[-10pt]&b.&…ロシア軍は一日までの激戦で,首都\underline{グロズヌイ}を事実上制圧した模様だが,….しかし,\underline{市}内を完全に制圧するまでには,…}\begin{table}[t]\caption{先行研究との比較}\label{compare}\begin{center}\input{05table10.txt}\end{center}\end{table}最後に,先行研究との比較結果を表\ref{compare}に示す.対象とする共参照の定義,および,使用しているコーパスが異なるため単純には比較できないものの,提案システムは,ある程度高い精度を実現していると考えられる.
\section{関連研究}
直接照応解析に関係する先行研究で用いられた手法としては大きく,人手で作成した規則に基づく解析手法と,タグ付きコーパスを用いた学習手法に分けられる.\subsection{規則ベースの手法}Zhouら\cite{Zhou2004}は,英文に対して,coreferenceを7種類に分類し,照応の種類ごとに規則を作成し直接照応の解析を行っている.各段階で必要となる制約は基本的にデータから人手で作成している.Zhouらはこの手法により,MUC-6に対して73.9\%,MUC-7に対して66.5\%のF値という解析結果を得ている.村田ら\cite{Murata1996b}は,日本語を対象として,名詞の指示性を考慮した9個のルールを用いて名詞の同一性の解析を行っている.名詞句の指示性に関しては,人手で作成した86個の規則を適用することにより,すべての名詞を総称名詞,定名詞,不定名詞の3種類に分類している.童話や新聞記事を用いた実験を行い,結果として適合率79\%,再現率77\%を得ている.童話,新聞記事それぞれの精度,および,複合名詞の構成素が関係する照応をどこまで扱っているかなどは不明である.\subsection{機械学習を用いた手法}機械学習を用いた同一指示解析手法はいくつかの手法が提案されている.これらの手法の多くは,共参照解析の問題を,照応詞候補に対して,先行詞の候補となる名詞句の各々が先行詞となるか否かを判別する2値分類問題として扱っている.分類器は対象の名詞句が先行詞かどうかという2値分類問題を解く.Soonら\cite{Soon2001}は,訓練時には,先行詞と照応詞の対を正例,先行詞と照応詞の間の各名詞句と照応詞の対を負例として学習した.照応問題を解く際には,照応詞から先行文脈に向かって,先行詞候補となる名詞句の各々について,それが先行詞かどうかを分類していく.そして,分類器がいずれかの名詞句を先行詞として決定した時点で解析を終了する.分類器が,先行する名詞句をすべて先行詞でないと分類した場合は,対象としている照応詞は先行詞を持たないと判断する.Soonらの実験では,12個の素性を用い,決定木を用いて学習を行ない,MUC-6に対して62.6\%のF値,MUC-7に対して60.4\%のF値と,規則ベースの手法と同程度の精度を得ている.Ngら\cite{Ng2002a}はSoonらの手法を2つの点において改良している.一つは素性集合を拡張し,語彙的な素性や意味的素性など,53個の素性に増やした.もう一つは先行詞同定の探索アルゴリズムの変更である.Soonらが照応詞に近い名詞句から順に先行詞かどうかを決定的に決めるのに対し,Ngらはすべての先行する名詞句を分類器にかけ,分類器が先行詞と決定した名詞句の中で,最も先行詞らしいと判定した名詞句を先行詞とする.NgらのモデルはSoonらのモデルよりも先行詞同定の精度がよく,MUC-6に対して70.4\%,MUC-7に対して63.4\%のF値を得ている.日本語における機械学習を用いた同一指示性解析に関する研究としてはIidaら\cite{Iida2003}の研究がある.Iidaらは日本語では冠詞などの情報が無く,名詞句の指示性の推定がそれほど容易でないことから,まず名詞の指示性の判断を行った後に先行詞の同定を行うのではなく,まずある表現に対する最尤先行詞候補を決定した後先行詞候補の情報も用いて名詞の指示性の判断を行っている.Iidaらは分類器としてSVMを用い,語彙的な情報を用いた素性や統語的な情報を用いた素性,意味的な情報を用いた素性,名詞句間の距離情報を用いた素性計30あまりの素性を用いている.京大コーパスの報道90記事に対して名詞句同一指示関係のタグを付与し,10分割交叉検定を行った結果,F値として70.9\%を得ている.
\section{おわりに}
本稿では,まず,コーパスおよび国語辞典の定義文から同義表現の自動獲得を行った.続いて,獲得した同義表現,および,名詞句の関係解析結果を用いた日本語共参照解析システムの構築を行った.京都テキストコーパス,および,ウェブコーパスを使った実験の結果,同義表現,および,名詞句の関係解析結果を用いることにより,共参照解析の精度は向上し,手法の有効性が確認できた.今後の課題としては,文字列のマッチングや同義表現による言い換えでは解析できないような共参照関係の認識が挙げられる.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Guodong\BBA\Jian}{Guodong\BBA\Jian}{2004}]{Zhou2004}Guodong,Z.\BBACOMMA\\BBA\Jian,S.\BBOP2004\BBCP.\newblock\BBOQAHigh-PerformanceCoreferenceResolutionSystemusingaConstraint-basedMulti-AgentStrategy\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\522--528}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{Iida2006}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingSyntacticPatternsasCluesinZero-AnaphoraResolution\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{Iida,Inui,Takamura,\BBA\Matsumoto}{Iidaet~al.}{2003}]{Iida2003}Iida,R.,Inui,K.,Takamura,H.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQIncorporatingContextualCuesinTrainableModelsforCoreferenceResolution\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguisticsWorkshoponTheComputationalTreatmentofAnaphora},\mbox{\BPGS\23--30}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2004}]{Kawahara2004a}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQZeroPronounResolutionbasedonAutomaticallyConstructedCaseFramesandStructuralPreferenceofAntecedents\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-04)},\mbox{\BPGS\334--341}.\bibitem[\protect\BCAY{Ng\BBA\Cardie}{Ng\BBA\Cardie}{2002}]{Ng2002a}Ng,V.\BBACOMMA\\BBA\Cardie,C.\BBOP2002\BBCP.\newblock\BBOQImprovingMachineLearningApproachestoCoreferenceResolution\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\104--111}.\bibitem[\protect\BCAY{Nichols,Bond,\BBA\Flickinger}{Nicholset~al.}{2005}]{Nichols2005}Nichols,E.,Bond,F.,\BBA\Flickinger,D.\BBOP2005\BBCP.\newblock\BBOQRobustontologyacquisitionfrommachine-readabledictionaries\BBCQ\\newblockIn{\BemProceedingsoftheInternationalJointConferenceonArtificialIntelligenceIJCAI-2005},\mbox{\BPGS\1111--1116}.\bibitem[\protect\BCAY{Okazaki\BBA\Ishizuka}{Okazaki\BBA\Ishizuka}{2008}]{Okazaki2008}Okazaki,N.\BBACOMMA\\BBA\Ishizuka,M.\BBOP2008\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseAbbreviationExtraction\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-08)},\mbox{\BPGS\889--894}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2004}]{Sasano2004}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQAutomaticConstructionofNominalCaseFramesanditsApplicatointoIndirectAnaphoraResolution\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1201--1207}.\bibitem[\protect\BCAY{Seki,Fujii,\BBA\Ishikawa}{Sekiet~al.}{2002}]{Seki2002}Seki,K.,Fujii,A.,\BBA\Ishikawa,T.\BBOP2002\BBCP.\newblock\BBOQAProbabilisticMethodforAnalyzing{J}apaneseAnaphoraIntegratingZeroPronounDetectionandResolution\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\911--917}.\bibitem[\protect\BCAY{Soon,Ng,\BBA\Lim}{Soonet~al.}{2001}]{Soon2001}Soon,W.~M.,Ng,H.~T.,\BBA\Lim,D.C.~Y.\BBOP2001\BBCP.\newblock\BBOQAMachineLearningApproachtoCoreferenceResolutionofNounPhrases\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4),\mbox{\BPGS\521--544}.\bibitem[\protect\BCAY{Tokunaga,Syotu,Tanaka,\BBA\Shirai}{Tokunagaet~al.}{2001}]{Tokunaga2001}Tokunaga,T.,Syotu,Y.,Tanaka,H.,\BBA\Shirai,K.\BBOP2001\BBCP.\newblock\BBOQIntegrationofheterogeneouslanguageresources:Amonolingualdictionaryandathesaurus\BBCQ\\newblockIn{\Bemthe6thNaturalLanguageProcessingPacificRimSymposium},\mbox{\BPGS\135--142}.\bibitem[\protect\BCAY{鶴丸\JBA竹下\JBA伊丹\JBA柳川\JBA吉田}{鶴丸\Jetal}{1991}]{Tsurumaru1991}鶴丸弘昭\JBA竹下克典\JBA伊丹克企\JBA柳川俊英\JBA吉田将\BBOP1991\BBCP.\newblock\JBOQ国語辞典情報を用いたシソーラスの作成について\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会1991-NL-083},\mbox{\BPGS\121--128}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2003}]{Sakai2003}酒井浩之\JBA増山繁\BBOP2003\BBCP.\newblock\JBOQコーパスからの名詞と略語の対応関係の自動獲得\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{2000}]{Iwanami}西尾実\JBA岩淵悦太\JBA水谷静夫\JEDS\\BBOP2000\BBCP.\newblock\Jem{岩波国語辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1996}]{Murata1996b}村田真樹\JBA長尾眞\BBOP1996\BBCP.\newblock\JBOQ名詞の指示性を利用した日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf3}(1),\mbox{\BPGS\67--81}.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara2002c}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock\JBOQ「関係」タグ付きコーパスの作成\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{TAG}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一\BBOP2005\BBCP.\newblock\Jem{格・省略・共参照タグ付けの基準}.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2007}]{KNP3}黒橋禎夫\JBA河原大輔\BBOP2007\BBCP.\newblock\JBOQ日本語構文解析システム{KNP}version3.0使用説明書\JBCQ\\newblock京都大学大学院情報学研究科.\bibitem[\protect\BCAY{久光\JBA丹羽}{久光\JBA丹羽}{1997}]{Hisamitsu1997}久光徹\JBA丹羽芳樹\BBOP1997\BBCP.\newblock\JBOQ統計量とルールを組み合わせて有用な括弧表現を抽出する手法\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会1997-NL-122},\mbox{\BPGS\113--118}.\bibitem[\protect\BCAY{村上\JBA那須川}{村上\JBA那須川}{2004}]{Murakami2004}村上明子\JBA那須川哲哉\BBOP2004\BBCP.\newblock\JBOQ複数の著者の表記の違いを利用した同義表現抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-162},\mbox{\BPGS\117--124}.\bibitem[\protect\BCAY{上野\JBA森\JBA木戸\JBA中川}{上野\Jetal}{2004}]{Ueno2004}上野友司\JBA森辰則\JBA木戸冬子\JBA中川裕志\BBOP2004\BBCP.\newblock\JBOQ係り受けの2部グラフと共起関係を利用した同義語抽出\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集}.\bibitem[\protect\BCAY{山本}{山本}{2002}]{Yamamoto2002}山本和英\BBOP2002\BBCP.\newblock\JBOQテキストからの語彙的換言知識の獲得\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集}.\bibitem[\protect\BCAY{田近}{田近}{1997}]{Reikai}田近洵一\JED\\BBOP1997\BBCP.\newblock\Jem{例解小学国語辞典}.\newblock三省堂.\end{thebibliography}\begin{biography}\bioauthor{笹野遼平}{2004年東京大学工学部電子情報工学科卒業.2006年同大学院情報理工学系研究科修士課程修了.現在,同大学院博士課程在学中.省略解析,照応解析の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V15N05-04
|
\section{はじめに}
言葉の意味処理にとってシソーラスは不可欠の資源である.シソーラスは,単語間の上位下位関係という,いわば縦の関連を表現するものである.我々は意味処理技術の深化を目指し,縦の関連に加えて,単語が使用されるドメインという,いわば横の関連を提案する.例えば,単語が「教科書」「先生」ならドメインは\dom{教育・学習}であり,「庖丁」なら\dom{料理・食事},「メス」なら\dom{健康・医学}である.本研究では,このようなドメイン情報を基本語約30,000語に付与し,基本語ドメイン辞書として完成させた.ドメインを考慮することでより自然な単語分類が可能となる.例えば分類語彙表は,「教科書」は『文献・図書』,「先生」は『専門的・技術的職業』として区別するが,ドメイン上は両者とも\dom{教育・学習}に属する.また,分類語彙表は「庖丁」も「メス」も『刃物』として同一視するが,両者はドメインにおいて区別される.ドメイン情報は様々な自然言語処理タスクで利用されてきた.本研究では\S\ref{bunrui-method}で述べるように文書分類に応用するが,それ以外にも,文書フィルタリング\cite{Liddy:Paik:1993},語義曖昧性解消\cite{Rigau:Atserias:Agirre:1997,Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007},機械翻訳\cite{Yoshimoto:Kinoshita:Shimazu:1997,Lange:Yang:1999}等で用いられてきた.本研究で開発した基本語ドメイン辞書構築手法は半自動のプロセスである.まず,人手で付与されたドメイン手掛かり語と各基本語の関連度をもとに,基本語にドメインを自動付与する.次に,自動ドメイン付与結果を人手で修正して完成させる.関連度計算には検索ヒット数を利用した.本研究で半自動の構築プロセスを採用したのは次の理由による.基本語の語彙情報は,多くの自然言語処理技術の根幹を形成するものであり,非常に高い正確さが要求される.しかし今日の技術では,全自動でそのような正確さを備えた語彙情報を獲得するのは困難である.一方で,全て人手で作業するのは,コスト的にも,一貫性と保守性の観点からも望ましくない.以上の理由により,高い精度の自動ドメイン付与結果を人手で修正する,という半自動プロセスを採用した\footnote{京都テキストコーパスも同様の理由から,高精度な構文解析器KNP\cite{黒橋:長尾:1992}.による解析結果を人手で修正する,という手法を採用した.}このドメイン辞書は世界初のフリーの日本語ドメイン資源である.また,本手法に必要なのは検索エンジンへのアクセスのみで,文書集合や高度に構造化された語彙資源等は必要ない.さらに,基本語ドメイン辞書の応用としてブログ自動分類を行った.各ブログ記事は,記事中の語にドメインとIDF値が付与され,最もIDF値の高いドメインに分類される.基本語ドメイン辞書に無い未知語のドメインは,基本語ドメイン辞書,Wikipedia,検索エンジンを利用して,リアルタイムで推定される.結果として,ブログ分類正解率94\%(564/600)と,未知語ドメイン推定正解率76.6\%(383/500)が得られた.なお,基本語ドメイン辞書に収録するのは基本語のみ\footnote{より正確には,JUMAN\cite{JumanManual:2005}に収録された内容語約30,000語である.}であり,専門用語等は含めない.以下,\S\ref{2issues}で基本語ドメイン辞書構築時の問題点を,\S\ref{domain-construction-method}では基本語ドメイン辞書構築手法を述べる.完成した基本語ドメイン辞書の詳細は\S\ref{dic-spec}で報告する.\S\ref{bunrui-method}では基本語ドメイン辞書のブログ分類への応用について述べ,\S\ref{unknown_domest}ではブログ分類時に用いられる未知語ドメイン推定について述べる.その後,ブログ分類と未知語ドメイン推定の評価結果を\S\ref{eval}で報告する.\S\ref{related-work}で関連研究と比較した後,\S\ref{conclusion}で結論を述べる.
\section{2つの問題\label{2issues}}
基本語ドメイン辞書構築には2つの問題がある.1つは世界を適切に分類するドメイン体系の設計であり,もう1つは文書集合を必要としない基本語ドメイン辞書構築技術の開発である.1つ目の問題は,人間の外界認識の様式を明らかにするという難問である.本研究ではこの問題には深く立ち入らず,表\ref{domain-table}にある,多くの人から合意が得られやすいと思われるシンプルなドメイン体系を採用した.このドメイン体系はOpenDirectoryProject(\url{http://www.dmoz.org})等の検索ディレクトリのカテゴリを参考にした.また,「人」や「青」のような特定のドメインに属さない語のために\dom{ドメイン無し}も用意した.\begin{table}[b]\caption{本研究のドメイン体系}\label{domain-table}\begin{center}\input{04table01.txt}\end{center}\end{table}もう1つの問題は,あるドメインと深く関わる単語集合を得ようとする場合,文書集合からの重要語抽出技術がその手法の第一候補と考えられるが,その種の手法が本研究には適用しにくいというものである.これは,特定の専門分野を対象とした場合に比べて,表\ref{domain-table}にあるような一般的・日常的な粒度のドメインの文書集合を集めることが困難なことに起因する.当初我々は,検索ディレクトリの登録ページをそのような文書集合として利用した.しかし,登録ページの多くはいわゆるトップページ(特定のWebサイトの「入口」にあたるページ)で,統計的指標でキーワードを同定するには文章量が十分ではなかった.文章量を増やすためトップページのリンクを辿ってみたが,そのトップページが属する1つのサイトから多くのページが収集されたため,ドメインのキーワードというより,そのサイトのキーワードというべき語が抽出された.他に,関連性の低い広告リンクを辿ってしまうという問題もある.そこで我々は,文書集合を必要としない基本語ドメイン辞書構築手法を開発した.次節でその手法について述べる.
\section{基本語ドメイン辞書構築手法\label{domain-construction-method}}
本手法のポイントは,基本語にドメインを割り当てるヒントとして,文書集合ではなく,少数の手掛かり語集合を用いる点にある.本手法の流れは次の通りである(図\ref{association-figure}).\begin{figure}[p]\begin{center}\includegraphics{15-5ia4f1.eps}\end{center}\caption{各ドメインへの基本語の割り当て}\label{association-figure}\end{figure}\begin{enumerate}\item各ドメインへの手掛かり語の付与(\S\ref{keyword-assignment})\item各基本語へのドメインの割り当て(\S\ref{association})\item\dom{ドメイン無し}の割り当て(\S\ref{nodomain-identification})\item人手による修正(\S\ref{manual-correction}).\end{enumerate}ここで注意すべきは,以下で述べる構築手法は特定のドメイン体系に依存しないという点である.つまり,本研究では表\ref{domain-table}にある12ドメインを採用したが,異なるドメイン体系を採用しても以下の手法はそのまま適用可能である.\subsection{各ドメインへの手掛かり語の付与\label{keyword-assignment}}表\ref{domain-table}のドメイン(\dom{ドメイン無し}以外)に20〜30語ずつ人手で手掛かり語を与える.手掛かり語はWeb高頻度語リストの上位から選ぶ.\revise{その際,判断に迷う語は無視し,当該ドメインへの所属が比較的明確なもののみを選ぶようにした.}\footnote{\revise{今回は著者1名がこの作業を行った.作業者間でどの程度判断がばらつくのか,そしてそのばらつきが辞書自動構築と後述するブログ分類にどのような影響を与えるのかは今後検討する必要がある.しかし,上記の作業仕様により,作業者が異なっても判断に大きなばらつきはないと予想している.}}\表\ref{ex_kw}に手掛かり語の例を挙げる.\begin{table}[t]\caption{手掛かり語の例}\label{ex_kw}\begin{center}\input{04table02.txt}\end{center}\end{table}本研究と異なるドメイン体系を採用した場合は,それに応じて,表\ref{ex_kw}とは異なる手掛かり語を独自に収集する必要がある.しかし,以下に述べるその後のプロセスは全く同じである.\subsection{各基本語へのドメインの割り当て\label{association}}基本語と(\dom{ドメイン無し}以外の)ドメインの間に関連度スコア($A_d$スコア)を定義し,基本語を最も$A_d$スコアの高いドメインに割り当てる.$A_d$スコアとして,基本語とドメインの各手掛かり語の間に定義される関連度スコア($A_k$スコア)の上位5つを合計したものを与える.本研究では,コーパスにおいてよく共起する語ほど関連度が高いという前提のもと,$A_k$スコアとして$\chi^2$に基づく指標を,コーパスとしてWebを採用する\footnote{我々が行った予備実験では,他に,相互情報量,Dice係数,Jaccard係数を試したが,$\chi^2$が最もよい結果を示した.これは\citeA{佐々木:佐藤:宇津呂:2006}の報告と一致する.}.共起頻度として,基本語と手掛かり語をクエリとした場合の検索エンジンヒット数を用いる\cite{佐々木:佐藤:宇津呂:2006}.結局,基本語$w$と手掛かり語$k$の間の$A_k$スコアは以下のようになる.$$A_k(w,k)=\frac{n(ad-bc)^{2}}{(a+b)(c+d)(a+c)(b+d)}$$ただし$n$は日本語Webページ総数で\footnote{我々は10,000,000,000を$n$とした.},$a$から$d$はそれぞれ以下のようになる.\begin{center}\begin{tabular}{ll}$a=hits(w\\&\k)$&$b=hits(w)-a$\\$c=hits(k)-a$&$d=n-(a+b+c)$\end{tabular}\end{center}$hits(q)$は$q$をクエリとした場合のヒット数である.この段階で,各基本語は(\dom{ドメイン無し}以外の)いずれかのドメインを割り当てられる.\subsection{\dom{ドメイン無し}の割り当て\label{nodomain-identification}}割り当てられたドメインの$A_d$スコアが低い基本語には,そのドメインの代わりに\dom{ドメイン無し}を割り当てる.ここで$A_d$スコアが低いかどうかを決める閾値が必要となる.我々が行った予備調査によると,検索エンジンヒット数が多い基本語ほど閾値を高めに設定する必要がある.そこで,ヒット数に応じた適切な閾値を与える関数を次の手順で得た(図\ref{reassociation-nodomain}).\begin{figure}[b]\begin{center}\includegraphics{15-5ia4f2.eps}\end{center}\caption{\dom{ドメイン無し}の再割り当て:\textbf{1}から\textbf{4}まで}\label{reassociation-nodomain}\end{figure}\begin{enumerate}\item〈基本語,ヒット数,割り当てられたドメインの$A_d$〉の3つ組をヒット数の降順に並べる\footnote{\S\ref{association}の段階でこれら3つ組が全て得られていることに注意.}.\item3つ組の集合を130のヒット数セグメントに分割する.\item各セグメントから,\dom{ドメイン無し}に属すべき基本語を含む3つ組とそれ以外の3つ組をそれぞれ5つ手作業で抽出する\footnote{通常,前者より後者の3つ組の方が$A_d$スコアが高い.}.\itemセグメントごとに,\dom{ドメイン無し}に属すべき基本語を含む3つ組とそれ以外の3つ組を分離する$A_d$スコアの値を同定する.この値が当該ヒット数セグメントにおける閾値となる.この段階で,(セグメントによって表された)ヒット数とその閾値のペアが130組得られる.\itemヒット数と閾値の関係を最小二乗法により1次関数で近似する.この1次関数がヒット数に応じた適切な閾値を与える関数である.\end{enumerate}\subsection{ドメイン割り当ての性能評価}\S\ref{keyword-assignment}から\S\ref{nodomain-identification}で述べた手法のドメイン割り当て正解率を測定した.\pagebreakドメイン割り当て結果から基本語—ドメインのペアを380組抽出し,そのうち何\%が正解か調べた.比較のためベースラインも用意した.ベースラインは,全ての基本語を\dom{ドメイン無し}とした場合の正解率である.これは,予備調査の段階で,基本語の半分以上が\dom{ドメイン無し}と判定されることがわかったためである.結果として,81.3\%(309/380)の正解率を得た.一方ベースラインの正解率は69.5\%(264/380)だった.\subsection{複数ドメインの割り当て}ある基本語は複数のドメインに属す.例えば「大学院」なら\dom{教育・学習}と\dom{科学・技術}の両方に属すものと考えられる.しかし,上述の手法は1語を1つのドメインにしか割り当てないように設計されている.本節では,1語に対し複数のドメインを割り当てることが可能な,上述の手法の拡張版について述べる.語を,$A_d$スコアが最も高いドメインだけでなく,以下の2つの条件を満たすドメイン全てに割り当てる.\begin{enumerate}\itemそのドメインの$A_d$スコアが\S\ref{nodomain-identification}で述べた閾値以上である.\itemそのドメインの$A_d$スコアが最も高い$A_d$スコアに十分近い.\end{enumerate}2番目の条件は次のように定式化される.$$\frac{\textrm{最も高い$A_d$$-$そのドメインの$A_d$}}{\textrm{最も高い$A_d$}}<0.01$$この手法により,基本語—ドメインの組は814組増えた.一方,基本語—ドメインの全ペアから392組抽出して正解率を調べたところ,正解率は78.6\%(308/392)に落ちることがわかった.\subsection{人手による修正\label{manual-correction}}人手による修正では,その正解率の高さから,複数ドメイン版ではなく,単一ドメイン版の手法の結果を使用した.複数ドメインを割り当てるべき基本語には人手による修正で対応した.ドメイン割り当て結果を人手で修正するにあたって,指針をいくつか設けた.それらの中でも重要な,複数のドメインに属する語の扱いと,多義語の扱い,\dom{ドメイン無し}の判定基準について述べる.\paragraph{複数のドメインに属する語の扱い:}複数ドメインを割り当てるべき語は,それら複数のドメインに\textbf{同程度に}関連するもののみに限定した.これには,基本語ドメイン辞書をなるべくシンプルなものにするという狙いがある.複数ドメインを割り当てた語には,「大学院」(\dom{教育・学習}と\dom{科学・技術}),「登山」(\dom{レクリエーション}と\dom{スポーツ}),「円高」(\dom{ビジネス}と\dom{政治})などが含まれる.一方で,複数ドメインに属すると考えられるが,関連性が同程度ではないために単一ドメインと判定された語として,例えば「微分」や「ゴルフ」がある.前者は\dom{教育・学習}のみとし,\dom{科学・技術}には含めなかった.後者は\dom{スポーツ}のみとし,\dom{レクリエーション}には含めなかった.\paragraph{多義語の扱い:}多義語には,各語義に対応するドメインを割り当てる.例えば,「ボール」には\dom{スポーツ}と\dom{料理・食事}が割り当てられる.\paragraph{\dom{ドメイン無し}の判定基準:}今回構築した基本語ドメイン辞書では,特定ドメインの割り当ては「保守的」に行われた.つまり,どのドメインに属するか意見が分かれそうな語,あるいは多くのドメインに属すると考えられる語は,無理に特定のドメインを割り当てるのではなく,\dom{ドメイン無し}と判定した.今回の構築では,属するドメインが4つまでならそれぞれのドメインを割り当てた.5つ以上のドメインに属すると考えられる場合は\dom{ドメイン無し}にした.例えば「委員」や「組織」などが該当する.
\section{基本語ドメイン辞書の詳細\label{dic-spec}}
表\ref{breakdown_domain-dictionary}は完成した基本語ドメイン辞書の語の内訳である.\dom{ドメイン無し}が63\%と大半を占めるのは,\S\ref{manual-correction}で述べた\dom{ドメイン無し}の判定基準に従ったためである.また,複数ドメインを割り当てられた語は787語(26.2\%)だった.\begin{table}[b]\caption{基本語ドメイン情報の内訳}\label{breakdown_domain-dictionary}\input{04table03.txt}\end{table}完成した基本語ドメイン辞書は,JUMANに組み込んで,それとともに配布している.JUMANは下記のWebサイトで入手可できる.\begin{itemize}\item\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}\end{itemize}JUMANで,例えば「研究室のゼミで先生と議論した.」を形態素解析すると図\ref{juman-pic}のようになる.「研究」,「ゼミ」,「先生」は特定のドメインに属する語であり,基本語ドメイン辞書から当てはまるドメインが付与される.それ以外の語は\dom{ドメイン無し}の語である.\begin{figure}[t]\includegraphics{15-5ia4f3.eps}\caption{JUMAN解析結果中のドメイン情報}\label{juman-pic}\end{figure}
\section{ブログ自動分類への応用\label{bunrui-method}}
基本語ドメイン辞書の評価の一環として,ブログ記事を,\dom{ドメイン無し}以外の12ドメインに分類する実験を行った.ブログ自動分類を取り上げた理由は,ブログが近年自然言語処理において注目を集めていることと,文書分類が基本語ドメイン辞書を最も直接的に適用できるタスクであることの2点である.本研究では基本語ドメイン辞書を利用してブログ記事を分類する.その概略は,記事中の語にドメインを付与して,その結果,最も支配的なドメインをその記事のドメインとする,というものである(図\ref{bunrui-syuhou}).\begin{figure}[t]\begin{center}\includegraphics{15-5ia4f4.eps}\end{center}\caption{ブログ分類手法の全体像}\label{bunrui-syuhou}\end{figure}より具体的には次のようになる.\begin{enumerate}\item記事中の語を抽出する.\item各語にドメインとIDF値を付与する.\itemドメインごとに,割り当てられた語のIDF値を合計.\itemIDF値合計が最も高いドメインを記事に割り当てる\footnote{今回の実験では,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合は2番目のドメインを割り当てた.}.\end{enumerate}IDF値は次の定義に従う\footnote{我々は10,000,000,000を日本語Webページ総数とした.}.$$\textrm{語のIDF値}=log\frac{\textrm{日本語Webページ総数}}{\textrm{語のWebヒット数}}$$なお,今回実験に使用した基本語ドメイン辞書には,各基本語に対して,そのドメインだけでなくIDF値もあらかじめ付与しておいた.記事からの単語の抽出方法として,\S\ref{eval}で述べる評価実験では次の3通りを試みた.\begin{enumerate}\renewcommand{\labelenumi}{}\item基本語\item基本語と未知語\item基本語と未知語と複合名詞\end{enumerate}基本語は基本語ドメイン辞書にある語で,未知語とは,例えば「コンプライアンス」などのように,基本語ドメイン辞書にない語である.複合名詞は「贈収賄/容疑」や「軍需/企業」などが該当する.本研究では同じ文節内にある名詞の連続を複合名詞として認識している.複合名詞は,未知語と同様,基本語ドメイン辞書に含まれていない.また,上記A.あるいはB.の場合,複合名詞は単語に分割され,その中の基本語のみが抽出される.例として,「コンプライアンスが叫ばれる中,贈収賄容疑をかけられた軍需商社と次官は$\cdots$」という内容の記事から,上の3通りの方法で語を抜き出した結果を図\ref{words-ext}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-5ia4f5.eps}\end{center}\caption{記事からの3通りの語抽出}\label{words-ext}\end{figure}ブログ分類時に未知語あるいは未知語と複合名詞両方を用いる場合は,語抽出の段階で基本語とそれ以外にわける必要がある.これは,基本語は基本語ドメイン辞書からドメインとIDF値が与えられるのに対し,未知語と複合名詞は\S\ref{unknown_domest}で述べる方法により,動的にドメインとIDF値が推定されるためである.以下,未知語と複合名詞を区別せず,両者を合わせて「未知語」と呼ぶことにする.両者を区別する必要がある場合は,前者を「単純未知語」,後者を「複合名詞未知語」と呼ぶ.
\section{未知語ドメイン推定\label{unknown_domest}}
未知語(単純未知語と複合名詞未知語の両方)のドメインはWeb上の情報を利用して推定する.これは,Webに書かれていると考えられる,その未知語の世の中での解釈を利用するのが狙いである.Web上の情報として,より具体的には,Wikipediaの記事と,Web検索結果\footnote{本研究ではYahoo!JAPANを用いた.}のタイトルとスニペットを利用する.後述するように,未知語ドメイン推定においても基本語ドメイン辞書を活用する.未知語ドメイン推定は次の手順に従う(図\ref{unknown-domest-pic}).\begin{figure}[b]\begin{center}\includegraphics{15-5ia4f6.eps}\end{center}\caption{未知語ドメイン推定手法の全体像}\label{unknown-domest-pic}\end{figure}\begin{enumerate}\item未知語をクエリとしてWeb検索を実行する.その際,検索結果から得られるWebヒット数をもとに,その未知語のIDF値を計算する.\item検索結果上位100件の中に,その未知語とエントリが完全一致するWikipedia記事があれば,その記事を取得して,記事中の基本語を手掛かりにドメインを推定し,終了.(\textbf{Wikipedia-strict法})\itemもし未知語とエントリが完全一致するWikipedia記事が無ければ,検索結果上位30件の中から何らかのWikipedia記事を探し,もしあれば,その記事中の基本語を手掛かりにドメインを推定し,終了\footnote{例えば未知語が「亀田兄弟」で,検索結果に「亀田兄弟」とエントリが完全一致するWikipedia記事がない場合,検索結果上位30件から何らかのWikipedia記事を探す.この例の場合,「亀田三兄弟」のエントリのWikipedia記事が見つかるので,その記事を取得し,ドメイン推定に利用する.}.(\textbf{Wikipedia-loose法})\itemWikipedia記事が全く見つからなければ,検索結果から企業の広告サイト等のタイトルとスニペットを除外し,その残りのタイトルとスニペットにある基本語を手掛かりにドメインを推定し,終了.(\textbf{Snippets法})\item企業サイトを全て削除すると何も残らない場合もある.その場合,未知語が基本語を構成素に持つ複合語なら,その構成語のドメインから未知語のドメインを推定して終了.(\textbf{Components法})\item検索結果に,Wikipedia記事も,企業サイト以外のサイトも無く,また,その未知語が基本語を構成素に持つ複合語でもない場合,ドメイン推定不可能のメッセージを出力して終了.\end{enumerate}未知語ドメイン推定で用いられるWikipedia-strict法,Wikipedia-loose法,Snippets法,Components法について順に説明する.これらに共通するのは,手掛かりとなる記述(Wikipedia記事,検索結果のタイトルとスニペット,複合語の構成語)にある基本語のドメインを調べ,最も支配的なドメインをその未知語のドメインとする,という発想である.\subsection{Wikipedia(-strict$|$-loose)法}Wikipedia-strict法とWikipedia-loose法の流れは次の通りである(図\ref{Wikipedia-pic}).\begin{figure}[t]\begin{center}\includegraphics{15-5ia4f7.eps}\end{center}\caption{Wikipedia(-strict$|$-loose)手法による未知語ドメイン推定}\label{Wikipedia-pic}\end{figure}\begin{enumerate}\item検索結果をもとにWikipedia記事を取得する.\item記事から基本語のみを抽出する.\item基本語ドメイン辞書を参照して,各基本語にドメインとIDF値を付与する.\itemIDF値合計が最も高いドメインを未知語に割り当てる.ただし,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合,次の条件のもと,2番目にIDF値が高いドメインに割り当てる.$$\frac{\textrm{2番目のドメインのIDF値}}{\textrm{〈ドメイン無し〉のIDF値}}>0.15$$\end{enumerate}ドメイン推定の所要時間は,Wikipedia-strict法,Wikipedia-loose法ともに約10秒である\footnote{使用した計算機はDellPowerEdge830(PentiumDプロセッサ3.00~GHz,メモリ512~MB)である.}.\subsection{Snippets法}Snippets法の流れは次の通りである.\begin{enumerate}\item企業の広告サイト等のタイトルとスニペットを検索結果からあらかじめ除外しておく.\begin{itemize}\item次のリスト中の語がタイトルとスニペットに2回以上現れたら,それを企業サイトのものと判断する\footnote{このリストは,ブログ分類の予備実験におけるエラー分析をもとに作成した.}.\begin{quote}会社,株式,商品,販売,製品,価格,無料,市場,企業,ショップ,通販,事業,発売,サービス,法人,店舗,購入,採用,会員,業務,当社,営業,工業,ビジネス,広告,仕事,出荷,料金\end{quote}\end{itemize}\item検索結果から基本語のみを抽出する.\item基本語ドメイン辞書を参照して,各基本語にドメインとIDF値を付与する.\itemIDF値合計が最も高いドメインを未知語に割り当てる.ただし,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合,次の条件のもと,2番目にIDF値が高いドメインに割り当てる.$$\frac{\textrm{2番目のドメインのIDF値}}{\textrm{〈ドメイン無し〉のIDF値}}>0.15$$\end{enumerate}あらかじめ企業サイトのタイトルとスニペットを除外するのは次の理由による.検索結果には企業の広告サイト等のタイトルとスニペットが含まれうるが,これが多くなると,未知語の本来のドメインとは関係なく\dom{ビジネス}と誤判定されてしまう.例えば「プロピレングリコール」という未知語は,本来\dom{科学・技術}に属するべきだが,検索結果に医療あるいは工業関係の企業が多数現れるため\dom{ビジネス}と誤判定されてしまう.これを防ぐために企業サイトのタイトルとスニペットを除外しておく.ドメイン推定の所要時間は6秒程度である\footnote{これは,未知語が入力されてから,Wikipedia-strict法とWikipedia-loose法を経由した後,Snippets法によりドメインが出力されるまでの時間である.2つのWikipedia法の方が先に実行されるにも関わらず所要時間が長いのは,Snippets方が既に得られている検索結果を手掛かりとする一方,2つのWikipedia法では,新たにWebにアクセスし,Wikipedia記事を取得する手間がかかるためである.}.\subsection{Components法}Components法の流れは次の通りである.\begin{enumerate}\item未知語を構成する基本語を抽出する.\item基本語ドメイン辞書を参照して,各基本語にドメインとIDF値を付与する.\itemIDF値合計が最も高いドメインを未知語に割り当てる.ただし,IDF値合計が最も高いドメインが〈ドメイン無し〉の場合,次の条件のもと,2番目にIDF値が高いドメインに割り当てる.$$\frac{\textrm{2番目のドメインのIDF値}}{\textrm{〈ドメイン無し〉のIDF値}}>0.15$$\end{enumerate}例えば未知語が「金融市場」の場合,その構成語である基本語「金融」と「市場」のドメインを手掛かりとして「金融市場」のドメインを得る.ドメイン推定の所要時間は約4秒である\footnote{これは,未知語が入力されてから,Wikipedia-strict法とWikipedia-loose法,Snippets法を経由した後,Components法によりドメインが出力されるまでの時間である.他の3つの手法よりも高速なのは,基本語抽出対象が他の手法よりもずっと小規模で,かつ,Wikipedia法のように新たにWebにアクセスする必要もないからである.}.
\section{ブログ分類と未知語ドメイン推定の評価実験\label{eval}}
\S\ref{bunrui-method}の手法に基づいてブログ分類実験を行い,分類の正解率を調査した.また,ブログ分類の際に行われた未知語ドメイン推定の結果についても正解率を調査した.\subsection{実験条件}\subsubsection{評価データ}\begin{table}[b]\caption{ドメインとYahoo!ブログカテゴリの対応関係}\label{domain-yahoo}\begin{center}\input{04table04.txt}\end{center}\end{table}分類対象のブログ記事は,Yahoo!ブログ(\url{http://blogs.yahoo.co.jp/})から,各ドメインにつき50記事ずつ,計600記事得た.Yahoo!ブログでは,記事が投稿時に著者によってカテゴリ(本研究のドメインに相当するもの)に分類されている.本研究では,ドメインごとに対応するYahoo!ブログカテゴリを決めておいて,そのカテゴリからドメインごとに50記事ずつ集めた.今回の実験で使用したドメインとYahoo!ブログカテゴリの対応関係は表\ref{domain-yahoo}の通りである.これらのYahoo!ブログカテゴリは,本研究のドメインの定義とよくマッチし,かつ,なるべく広範な内容をカバーするように選定した\footnote{ただし,Yahoo!ブログには,明らかに分類がおかしい,あるいはYahoo!ブログカテゴリ(ドメイン)の趣旨に合致しがたい記事も存在する.例えば,「科学」のYahoo!ブログカテゴリに,慰安旅行について書かれた記事が分類されていた.また,文章がなく,写真や画像だけの記事もある.そのような記事はあらかじめ人手でより適切な記事と入れ換えた.結果として,およそ3割の記事が入れ換えが必要だった.}.\subsubsection{評価方法}ブログ分類手法と未知語ドメイン推定手法それぞれに対し,正解率を測定した.ブログ分類手法の評価では,ブログ分類における未知語ドメイン推定の効果を調べるために,分類の手掛かりに利用する語として,「基本語のみ」,「基本語$+$単純未知語」,「基本語$+$全未知語(単純未知語と複合名詞未知語の両方)」の3通りを試した.さらに,IDF値合計がトップのものだけでなく,上位N位までに正解が含まれているかも調べた\footnote{ただし\dom{ドメイン無し}は除く.}.\revise{加えて,人手修正無しの基本語ドメイン辞書を用いた場合と,スコアにIDF値ではなくドメインごとの語数を用いた場合のブログ分類結果も調査した.これらに関しては「基本語$+$全未知語」のみを試した.}未知語ドメイン推定手法の評価では,分類実験評価データ中の未知語約12,000語のドメイン推定結果から500件をサンプリングして正解率を調べた.複数ドメインに属すると考えられる語に関しては,そのうちの1つが推定されていれば正解とした.また,未知語ドメイン推定で使用した各手法(Wikipedia-strict,Wikipedia-loose,Snippets,Components)の使用頻度とそれぞれの正解率も調べた.\subsection{ブログ分類結果}\begin{table}[b]\caption{ブログ分類正解率}\label{bunrui-eval-result}\begin{center}\input{04table05.txt}\end{center}\end{table}ブログ分類の正解率は表\ref{bunrui-eval-result}の通りである.この結果は,分類手法が\S\ref{bunrui-method}にあるようなごくシンプルなものでも,基本語を対象に分類のための手掛かり(本研究ではドメイン情報)をしっかり整備することで,高い精度でブログ分類が可能であることを示している.また,「基本語$+$単純未知語」が「基本語のみ」をわずかだが上回り,「基本語$+$全未知語」がその他2つを上回っていることが,未知語ドメイン推定がブログ分類に効果的であることを示している.分類間違いの大半は,記事に書かれているあまり重要でない周辺的な話題を誤って取り上げてしまったことに起因する.例えば,観光旅行に関するある記事では,その記事の著者が旅行の交通手段に何度か言及したため,本来\dom{レクリエーション}に分類されるべきところを,誤って\dom{交通}に分類した.他に,経営・業務システムを開発しているシステムエンジニアに関する記事が,本来\dom{科学・技術}に分類されるべきところを,誤って\dom{ビジネス}に分類されたケースがある.\revise{手作業修正していない基本語ドメイン辞書を用いた場合のブログ分類結果は表}\ref{bunrui-eval-result-autodic}\revise{の通りである.}\revise{手作業修正無しの辞書でも正解率が80\%を越えているが,これは本研究の基本語ドメイン辞書構築手法の精度の高さを示している.一方,手作業修正を加えた場合に比べたら上位1位で10\%以上正解率が下がった.これは,正確に手作業修正が行われたことを示しており,本研究の成果である基本語ドメイン辞書の言語資源としての完成度の高さを示している.}\begin{table}[b]\captionwidth=0.45\textwidth\begin{minipage}{0.45\textwidth}\hangcaption{ブログ分類正解率(手作業修正無しの辞書を用いた場合)}\label{bunrui-eval-result-autodic}\begin{center}\input{04table06.txt}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\hangcaption{ブログ分類正解率(スコアとして語数を用いた場合)}\label{bunrui-eval-result-wordfreq}\begin{center}\input{04table07.txt}\end{center}\end{minipage}\end{table}\revise{本研究ではドメインごとのIDF値の合計をブログ分類時のスコアとして使用したが,より単純に,ドメインごとの語数を用いた場合は,表}\ref{bunrui-eval-result-wordfreq}\revise{のような結果になる.}\revise{IDF値合計を用いた場合を若干下回っているが,これは単純に語数を用いるより,IDF値で重み付けすることがより効果的であることを示している.}\subsection{未知語ドメイン推定結果}未知語ドメイン推定の正解率は76.6\%(383/500)だった.各手法(Wikipedia-strict,Wikipedia-loose,Snippets,Components)の使用頻度と正解率は表\ref{domest-methods-results}の通りである.最も使用頻度の高いSnippets法の正解率が76\%と比較的高い.最も精度の高いWikipedia-strict法の使用頻度はそれほど高くないが,今後Wikipediaのエントリ数が増えるにしたがい使用頻度が高くなり,その結果,未知語ドメイン推定全体の正解率も高まることが期待できる.\begin{table}[t]\caption{未知語ドメイン推定各手法の使用頻度と正解率}\label{domest-methods-results}\begin{center}\input{04table08.txt}\end{center}\end{table}単純未知語のドメイン推定の成功例として,\dom{ビジネス}として正しく推定された「デイトレ」(「デイトレード」の略)が挙げられる.他には,\dom{文化・芸術}として推定された「レオナルド・ディカプリオ」などがある.複合名詞未知語のドメイン推定成功例には,「支持率」や「運動野」などが含まれる.前者は,その構成語である「支持」も「率」もそれ単体では\dom{ドメイン無し}だが,全体としては\dom{政治}であるということが正しく推定された.同様に,後者は,その構成語である「運動」も「野」もそれ単体では\dom{ドメイン無し}だが,全体としては\dom{健康・医学}であるということが正しく推定された.失敗例のほとんどは,\dom{ドメイン無し}かそれ以外かの判断を誤ったものである.主なものは,都道府県名と市区町村名,あるいはありふれた人名であり,本来どちらも\dom{ドメイン無し}に属する.しかし,前者は,ほとんどの地方自治体が行政等に関するホームページを開設しているため,Wikipedia法あるいはSnippets法により,\dom{政治}と誤判定される.後者に関する誤りは,ほとんどの人名が何らかのドメインと関連づけられてしまうというWebの性質により引き起こされる.つまり,どんなありふれた人名でも,それをクエリとしてWeb検索すると,何らかの特定のドメインに関するWebサイトが検索されてしまう.
\section{関連研究\label{related-work}}
\subsection{ドメイン資源の関連研究}上位下位関係に比べると,単語間のドメイン関係に関する研究は少ない.上位下位関係については,多くの言語資源(シソーラス)が構築され,また,その構築方法に関する研究も活発である.一方,ドメイン関係では,構築された言語資源も構築に関する方法論もわずかである\footnote{\citeA{Fellbaum:WordNet:1998}は,WordNet等の語彙資源におけるドメイン情報の欠落をTennisProblemと呼んでいる.}.既存のドメイン資源として挙げられるのはHowNet\cite{HowNet:Dong:Dong:2006}とWordNet\cite{Fellbaum:WordNet:1998},そしてLDOCE\cite{LDOCE:1987}である.HowNetでは,ECONOMY,INDUSTRY,AGRICULTURE,EDUCATION等,計32のドメインが想定されている.WordNetではsynset間にドメインにあたる情報が定義されている.例えば,\textit{forehand},\textit{rally},\textit{match}は\textit{tennis}に関連づけられている.人間向けの辞書としては,LDOCEがドメインにあたる情報(subjectコード)を単語に付与している.しかしながら,上記のようなドメイン資源は英語や中国語などのごく少数の言語でしか利用できない.多くの言語でドメイン情報が利用できるようになるために,効率的なドメイン資源の構築方法が求められる\footnote{日本語では\citeA{Yoshimoto:Kinoshita:Shimazu:1997}がドメイン資源を構築しているが,一般に公開されてはいない.}.しかし,従来のドメイン資源構築手法のほとんどは,LDOCEやWordNetといった,高度に構造化された既存の語彙資源を利用しており,そのような高価な語彙資源が存在しない言語に対しては適用できない.例えば,\citeA{guthrie91subjectdependent}はLDOCEにあるドメイン情報を利用して単語間のドメイン関係を得ている.\citeA{Magnini:Cavaglia:2000}では,WordNetにあるドメイン情報を拡充することを目的に,上位のsynsetに手作業でドメイン情報を与え,その後,自動で下位階層にドメイン情報を伝搬させている.\citeA{Agirre:Ansa:Martinez:Hovy:2001}では,WordNetの各synsetに対し,Webから集めた文書集合から,そのsynsetと同じドメインに属する語を抽出している.Webから文書集合を集める際,効果的なクエリを生成するため,WordNetの意味情報を活用している.\citeA{Chang:Huang:Ker:Yang:2002}は,WordNetとFarEastDictionaryに定義されているドメイン情報から「ドメインタグ」を定義し,それをWordNetに付与している.このように,既存の手法はWordNetやLDOCE等の語彙資源の存在を前提にしているため,そのような資源の無い言語には適用できない.そこで,高度に構造化された語彙資源に頼らないドメイン資源構築手法が望まれる.そのような手法の第一候補は,情報検索や専門用語抽出の分野で開発された重要語抽出手法\cite{Frantzi:Ananiadou:Tsujii:1998,Hisamitsu:Tsujii:2003,中川:森:湯本:2003}であろう.しかし,\S\ref{2issues}で述べた通り,本研究のように基本語を対象としたドメインの場合,重要語抽出の元となる文書集合を正確に収集するのが非常に困難である.一方,本研究のドメイン資源構築手法は,文書集合もWordNetのような高価な語彙資源も必要としない.また,本研究では表\ref{domain-table}にある12ドメインを採用してドメイン資源を構築したが,\S\ref{domain-construction-method}で述べたように,本研究の基本語ドメイン辞書構築手法は特定のドメイン体系に依存しない.以上を踏まえると,本研究のドメイン資源研究における貢献は次の2点である.\begin{itemize}\item(一般に利用可能な)世界初の日本語ドメイン資源を構築した.\item文書集合もWordNetのような高価な語彙資源も必要としないドメイン資源構築手法を開発した.\end{itemize}\subsection{文書分類の関連研究}従来の文書分類手法は,機械学習等の統計的手法を用いたものがほとんどである.例えば,$k$-最近隣法\cite{yang99evaluation},決定木\cite{lewis94comparison},ナイーブベイズ\cite{lewis98naive},決定リスト\cite{li99text},サポートベクトルマシン\cite{平:春野:2000},ブースティング\cite{schapire00boostexter}を用いたものがある.これらのような統計的手法では,訓練データとして大量の文書集合をあらかじめ用意しなくてはならない.近年,少量の正解情報が付与されたデータと正解情報のない大量のデータから分類器を構築する研究\cite{Abney:2007}も行われているが,その技術は発展途上と言える.一方,本研究の分類手法では,基本語のみを対象に分類の手掛かり(ドメイン情報)を整備しておくだけで済む.上述の通り,本研究の基本語ドメイン辞書を作るには,高価な語彙資源も文書集合も必要なく,Webへのアクセスさえ用意すればよい.また,\S\ref{domain-construction-method}で述べた通り,構築の過程は全自動ではなく手作業をわずかに要するが,その作業は軽微なものである.本研究の分類手法は我々が構築した基本語ドメイン辞書に基づいているため,分類体系が表\ref{domain-table}にある12ドメインに固定されている.しかし,\S\ref{domain-construction-method}で述べた通り,基本語ドメイン辞書のドメイン体系はユーザが目的に応じて自由に選べるため,我々が使用した12ドメインとは異なる分類体系を使用する場合,その体系に合わせて基本語ドメイン辞書を作りなおせばよい.そのコストは上述の通り軽微なものである.また,文書分類が実際に用いられる現場では,分類体系が頻繁に変更されるということは考えにくいため,いったん基本語ドメイン辞書を構築すればそれで済む.本研究の分類手法のもう一つの強みは,未知語への対応能力である.\S\ref{bunrui-method}で述べた通り,本手法では,記事中に未知語を発見すると,リアルタイムでその語のドメインを推定する.そしてその正解率も77\%と実用に耐えうるものであった.この能力は,ブログのような,新たな語が次々に生まれ出るようなジャンルの文書を分類する際に非常に有効である.一方,上に挙げた統計的手法で未知語に対応するには,訓練データの文書集合を集め直す必要があり,大変手間がかかる.しかもブログを対象とした場合,次々と未知語が現れるため,訓練データの更新を短い周期で行う必要がある.以上をまとめると,本研究の文書分類研究における貢献は次のようになる.\begin{itemize}\item機械学習(そして文書集合)を必要としない,未知語にも柔軟に対応できる文書分類手法を開発した.\end{itemize}
\section{まとめ\label{conclusion}}
本研究では,意味処理技術の深化を目指し,基本語ドメイン辞書を構築した.基本語ドメイン辞書では,基本語約30,000語に対し,表\ref{domain-table}にある12のドメインを付与してある.基本語ドメイン辞書構築では,ドメイン体系の設計と,語とドメインの関連付けの2つが問題となる.1つ目の問題に関しては,本研究では深く立ち入ることを避け,Web検索エンジンディレクトリを参考に12のドメインを採用した.2つ目の問題には,文書集合もWordNetのような語彙資源も前提としない半自動の構築手法を開発した.その手法を基本語約30,000語に適用した結果,81.3\%の語に正しいドメインを付与することができた.基本語ドメイン辞書の完成版はその結果を人手で修正して作成した.また,基本語ドメイン辞書をブログ分類タスクに応用した.その手法は,基本語ドメイン辞書と未知語ドメイン推定法を利用して,ブログ記事中の語にドメインを付与し,結果,最も支配的なドメインに分類する,というごくシンプルなものである.文書分類研究で主流の機械学習を用いた手法と違い,大量の文書集合は用いない.にもかかわらず,基本語のみを利用した場合でも正解率89\%,未知語ドメイン推定を併用した場合で正解率94\%と良好な結果を得た.未知語ドメイン推定も,全体の正解率が77\%と実用に耐えうるものである.本研究の貢献をまとめると次のようになる.\begin{itemize}\item(一般に利用可能な)世界初の日本語ドメイン資源を構築した.\item文書集合もWordNetのような高価な語彙資源も必要としないドメイン資源構築手法を開発した.\item機械学習(そして文書集合)を必要としない,未知語にも柔軟に対応できる文書分類手法を開発した.\end{itemize}本研究では基本語ドメイン辞書を文書分類に応用したが,今後,訳語選択と語義曖昧性解消への適用を行う予定である.\citeA{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}では,処理対象の語と同じ文内に存在する基本語のドメインを手掛かりの一部として利用して語義曖昧性解消を試みた.一方我々は,より広い文脈に存在する語,しかも基本語と未知語の両方のドメインを合わせて利用することを考えている.\acknowledgment京都大学情報学研究科—NTTコミュニケーション科学基礎研究所共同研究ユニットのメンバーの方々に感謝申し上げます.\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{2007}]{Abney:2007}Abney,S.\BBOP2007\BBCP.\newblock{\BemSemisupervisedLearningforComputationalLinguistics}.\newblockChapman\&Hall.\bibitem[\protect\BCAY{Agirre,Ansa,Martinez,\BBA\Hovy}{Agirreet~al.}{2001}]{Agirre:Ansa:Martinez:Hovy:2001}Agirre,E.,Ansa,O.,Martinez,D.,\BBA\Hovy,E.\BBOP2001\BBCP.\newblock\BBOQEnrichingWordNetconceptswithtopicsignatures\BBCQ\\newblockIn{\BemProceedingsoftheSIGLEXWorkshopon``WordNetandOtherLexicalResources:Applications,Extensions,andCustomizations''inconjunctionwithNAACL}.\bibitem[\protect\BCAY{Chang,Huang,Ker,\BBA\Yang}{Changet~al.}{2002}]{Chang:Huang:Ker:Yang:2002}Chang,E.,Huang,C.-R.,Ker,S.-J.,\BBA\Yang,C.-H.\BBOP2002\BBCP.\newblock\BBOQInductionofClassificationfromLexiconExpansion:AssigninigDomainTagstoWordNetEntries\BBCQ\\newblockIn{\BemProceedingsofCOLING-2002WorkshoponSEMANET},\mbox{\BPGS\1--7}\Taipei.\bibitem[\protect\BCAY{Dong\BBA\Dong}{Dong\BBA\Dong}{2006}]{HowNet:Dong:Dong:2006}Dong,Z.\BBACOMMA\\BBA\Dong,Q.\BBOP2006\BBCP.\newblock{\BemHowNetandtheComputationofMeaning}.\newblockWorldScientificPubCoInc.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{Fellbaum:WordNet:1998}Fellbaum,C.\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Frantzi,Ananiadou,\BBA\Tsujii}{Frantziet~al.}{1998}]{Frantzi:Ananiadou:Tsujii:1998}Frantzi,K.~T.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP1998\BBCP.\newblock\BBOQ{T}he{C}-value/{NC}-value{M}ethodof{A}utomatic{R}ecognitionfor{M}ulti-word{T}erms\BBCQ\\newblockIn{\BemProceedingsoftheResearchandAdvancedTechnologyforDigitalLibraries:SecondEuropeanConference,ECDL'98},\mbox{\BPGS\585--604}.\bibitem[\protect\BCAY{Guthrie,Guthrie,Wilks,\BBA\Aidinejad}{Guthrieet~al.}{1991}]{guthrie91subjectdependent}Guthrie,J.~A.,Guthrie,L.,Wilks,Y.,\BBA\Aidinejad,H.\BBOP1991\BBCP.\newblock\BBOQ{S}ubject-{D}ependent{C}o-{O}ccurenceand{W}ord{S}ense{D}isambiguation\BBCQ\\newblockIn{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\146--152}.\bibitem[\protect\BCAY{Hisamitsu\BBA\Tsujii}{Hisamitsu\BBA\Tsujii}{2003}]{Hisamitsu:Tsujii:2003}Hisamitsu,T.\BBACOMMA\\BBA\Tsujii,J.\BBOP2003\BBCP.\newblock\BBOQMeasuring{T}erm{R}epresentativeness\BBCQ\\newblockIn{\BemInformationExtractionintheWebEra},\mbox{\BPGS\45--76}.Springer-Verlag.\bibitem[\protect\BCAY{Lange\BBA\Yang}{Lange\BBA\Yang}{1999}]{Lange:Yang:1999}Lange,E.~D.\BBACOMMA\\BBA\Yang,J.\BBOP1999\BBCP.\newblock\BBOQAutomaticDomainRecognitionforMachineTranslation\BBCQ\\newblockIn{\Bemmt-vii},\mbox{\BPGS\641--645}\Singapore.\bibitem[\protect\BCAY{Lewis}{Lewis}{1998}]{lewis98naive}Lewis,D.~D.\BBOP1998\BBCP.\newblock\BBOQNaive({B}ayes)atforty:Theindependenceassumptionininformationretrieval\BBCQ\\newblockInN{\'{e}}dellec,C.\BBACOMMA\\BBA\Rouveirol,C.\BEDS,{\BemProceedingsof{ECML}-98,10thEuropeanConferenceonMachineLearning},\mbox{\BPGS\4--15}\Chemnitz,DE.SpringerVerlag,Heidelberg,DE.\bibitem[\protect\BCAY{Lewis\BBA\Ringuette}{Lewis\BBA\Ringuette}{1994}]{lewis94comparison}Lewis,D.~D.\BBACOMMA\\BBA\Ringuette,M.\BBOP1994\BBCP.\newblock\BBOQAcomparisonoftwolearningalgorithmsfortextcategorization\BBCQ\\newblockIn{\BemProceedingsof{SDAIR}-94,3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\81--93}\LasVegas,US.\bibitem[\protect\BCAY{Li\BBA\Yamanishi}{Li\BBA\Yamanishi}{1999}]{li99text}Li,H.\BBACOMMA\\BBA\Yamanishi,K.\BBOP1999\BBCP.\newblock\BBOQTextclassificationusing{ESC}-basedstochasticdecisionlists\BBCQ\\newblockIn{\BemProceedingsof{CIKM}-99,8th{ACM}InternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\122--130}\KansasCity,US.ACMPress,NewYork.\bibitem[\protect\BCAY{Liddy\BBA\Paik}{Liddy\BBA\Paik}{1993}]{Liddy:Paik:1993}Liddy,E.\BBACOMMA\\BBA\Paik,W.\BBOP1993\BBCP.\newblock\BBOQ{D}ocument{F}iltering{U}sing{S}emantic{I}nformationfroma{M}achine{R}eadable{D}ictionary\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponVeryLargeCorpora},\mbox{\BPGS\20--29}.\bibitem[\protect\BCAY{Magnini\BBA\Cavagli\`{a}}{Magnini\BBA\Cavagli\`{a}}{2000}]{Magnini:Cavaglia:2000}Magnini,B.\BBACOMMA\\BBA\Cavagli\`{a},G.\BBOP2000\BBCP.\newblock\BBOQIntegratingSubjectFieldCodesintoWordNet\BBCQ\\newblockIn{\BemProceedingsofLREC-2000},\mbox{\BPGS\1413--1418}\Athens.\bibitem[\protect\BCAY{Proctor}{Proctor}{1987}]{LDOCE:1987}Proctor,P.\BBOP1987\BBCP.\newblock{\BemLongmanDictionaryofContemporaryEnglish}.\newblockLongmanGroup.\bibitem[\protect\BCAY{Rigau,Atserias,\BBA\Agirre}{Rigauet~al.}{1997}]{Rigau:Atserias:Agirre:1997}Rigau,G.,Atserias,J.,\BBA\Agirre,E.\BBOP1997\BBCP.\newblock\BBOQCombiningUnsupervisedLexicalKnowledgeMethodsforWordSenseDisambiguation\BBCQ\\newblockIn{\BemProceedingsofjointEACL/ACL97}\Madrid.\bibitem[\protect\BCAY{Schapire\BBA\Singer}{Schapire\BBA\Singer}{2000}]{schapire00boostexter}Schapire,R.~E.\BBACOMMA\\BBA\Singer,Y.\BBOP2000\BBCP.\newblock\BBOQ{BoosTexter}:{ABoosting-basedSystemforTextCategorization}\BBCQ\\newblock{\BemMachineLearning},{\Bbf39}(2/3),\mbox{\BPGS\135--168}.\bibitem[\protect\BCAY{Tanaka,Bond,Baldwin,Fujita,\BBA\Hashimoto}{Tanakaet~al.}{2007}]{Tanaka:Bond:Baldwin:Fujita:Hashimoto:2007}Tanaka,T.,Bond,F.,Baldwin,T.,Fujita,S.,\BBA\Hashimoto,C.\BBOP2007\BBCP.\newblock\BBOQ{WordSenseDisambiguationIncorporatingLexicalandStructuralSemanticInformation}\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\477--485}.\bibitem[\protect\BCAY{Yang}{Yang}{1999}]{yang99evaluation}Yang,Y.\BBOP1999\BBCP.\newblock\BBOQ{A}n{E}valuationof{S}tatistical{A}pproachesto{T}ext{C}ategorization\BBCQ\\newblock{\BemInformationRetrieval},{\Bbf1}(1/2),\mbox{\BPGS\69--90}.\bibitem[\protect\BCAY{Yoshimoto,Kinoshita,\BBA\Shimazu}{Yoshimotoet~al.}{1997}]{Yoshimoto:Kinoshita:Shimazu:1997}Yoshimoto,Y.,Kinoshita,S.,\BBA\Shimazu,M.\BBOP1997\BBCP.\newblock\BBOQProcessingofProperNounsandUseofEstimatedSubjectAreaforWebPageTranslation\BBCQ\\newblockIn{\Bemtmi97},\mbox{\BPGS\10--18}\SantaFe.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1992}]{黒橋:長尾:1992}黒橋禎夫\JBA長尾真\BBOP1992\BBCP.\newblock\JBOQ長い日本語文における並列構造の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(8),\mbox{\BPGS\1022--1031}.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2005}]{JumanManual:2005}黒橋禎夫\JBA河原大輔\BBOP2005\BBCP.\newblock\Jem{日本語形態素解析システムJUMANversion5.1使用説明書}.\newblock京都大学大学院情報学研究科.\bibitem[\protect\BCAY{平\JBA春野}{平\JBA春野}{2000}]{平:春野:2000}平博順\JBA春野雅彦\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineによるテキスト分類における属性選択\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),\mbox{\BPGS\1113--1123}.\bibitem[\protect\BCAY{佐々木\JBA佐藤\JBA宇津呂}{佐々木\Jetal}{2006}]{佐々木:佐藤:宇津呂:2006}佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ関連用語収集問題とその解法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\151--176}.\bibitem[\protect\BCAY{中川\JBA森\JBA湯本}{中川\Jetal}{2003}]{中川:森:湯本:2003}中川裕志\JBA森辰則\JBA湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\end{thebibliography}\begin{biography}\bioauthor{橋本力}{1999年福島大学教育学部卒業.2001年北陸先端科学技術大学院大学博士前期課程修了.2005年神戸松蔭女子学院大学大学院博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2007年山形大学大学院理工学研究科助教,現在に至る.理論言語学,自然言語処理の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程終了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V06N07-04
|
\section{はじめに}
\label{sec:sec1}インターネットの普及も手伝って,最近は電子化されたテキスト情報を簡単にかつ大量に手にいれることが可能となってきている.このような状況の中で,必要な情報だけを得るための技術として文章要約は重要であり,計算機によって要約を自動的に行なうこと,すなわち自動要約が望まれる.自動要約を実現するためには本来,人間が文章を要約するのと同様に,原文を理解する過程が当然必要となる.しかし,計算機が言語理解を行うことは現在のところ非常に困難である.実際,広範囲の対象に対して言語理解を扱っている自然言語処理システムはなく,ドメインを絞ったトイシステムにとどまっている.一方では言語理解に踏み込まずともある程度実現されている自然言語処理技術もある.例えば,かな漢字変換や機械翻訳は,人間が適切に介在することにより広く利用されている.自動要約の技術でも言語理解を導入せずに,表層情報に基づいたさまざまな手法が提案されている.これらの手法による要約は用いる情報の範囲により大きく2つに分けることができる.本論文では文章全体にわたる広範な情報を主に用いて行なう要約を{\gt大域的要約},注目個所の近傍の情報を用いて行なう要約を{\gt局所的要約}と呼ぶ.我々は字幕作成への適用も視野に入れ,現在,局所的要約に重点を置き研究している.局所的要約を実現するには,後述する要約知識が必須であり,これをどのようにして獲得するかがシステムを構築する際のポイントとなる.本論文ではこのような要約知識(置換規則と置換条件)を,コーパス(原文−要約文コーパス)から自動的に獲得する手法について述べる.本手法では,はじめに原文中の単語と要約文中の単語のすべての組み合わせに対して単語間の距離を計算し,DPマッチングによって最適な単語対応を求める.その結果から置換規則は単語対応上で不一致となる単語列として得られる.一方,置換条件は置換規則の前後nグラムの単語列として得られる.NHKニュースを使って局所的要約知識の自動獲得実験を行い,その有効性を検証する実験を行ったのでその結果についても述べる.以下,~\ref{sec:sec2}~章では自動要約に関して{\gt大域的要約}と{\gt局所的要約}について説明をする.~\ref{sec:sec3}~章では要約知識を自動獲得する際にベースとなる,原文−要約文コーパスの特徴について述べる.~\ref{sec:sec4}~章では要約知識を構成する置換規則と置換条件について説明し,これらを自動獲得する手法について述べる.~\ref{sec:sec5}~章では原文−要約文コーパスから実際に要約知識を自動獲得した実験結果について述べ,獲得された要約知識の評価結果についても述べる.~\ref{sec:sec6}~章ではまとめと今後の課題について述べる.\newpage
\section{大域的要約と局所的要約}
\label{sec:sec2}本論文では,文章全体にわたる広範な情報(大域的情報)を用いて行なう要約を{\gt大域的要約}と呼ぶ.大域的情報とは文章中に含まれる単語の出現頻度や,文章中での文の位置などである.例えば,これらの情報を使って重要文を抽出し連結することで要約を行う手法が提案されている~\cite{Luhn58,Edmundson69,Watanabe95,Kupiec95,Zechner96}~.このような要約手法は,実現の容易さから,市販の自然言語処理システム(ワードプロセッサ,機械翻訳システム)の一機能として組み込まれていることもある.しかし,要約文章は重要文を単に連結したものであるため,文章全体の概要を知るという用途には利用できるものの,文章としての自然さに欠ける.一方,注目個所の近傍の情報(局所的情報)を用いて行なう要約を{\gt局所的要約}と呼ぶ.局所的情報とは注目個所そのものや,その前後の単語列などである.例えば,ある単語列に注目してそれをより短い単語列に言い換えることにより要約を行なう手法が提案されている~\cite{Yamamoto95,Wakao97,Yamazaki98}~.これらの手法には,どの単語列をどのように言い換えるか(置換規則),また,どのような場合に言い換えるか(置換条件)という要約知識が必須となる.要約対象を拡大したり要約精度をあげるためには,このような要約知識を増やしたり精練したりしなければならない.しかし,従来はこうした知識を人手で作成していたため大規模なシステムはない.文章を自動要約するには大域的要約と局所的要約の両方を用いることが望まれるが,本論文では局所的要約だけに焦点をあてる.これは,我々が自動要約の当面の応用としてニュースの字幕原稿の自動作成を考えているからである.ニュースの字幕原稿とはアナウンサーが話す元原稿を要約して画面に表示したものである.字幕は,すべての情報を与えるという観点からはむしろ元原稿を要約しないで作成するほうが望ましいが,字幕の表示速度や読み易さという観点からはやはり元原稿を要約して作成する必要がある.この元原稿の要約に従来の大域的要約手法を適用すると文全体を省略してしまうので,大きな情報の欠落を伴うという問題が生じる.また,元原稿の文は局所的情報で要約できる場合が多いので,ニュースの字幕原稿作成には局所的要約のほうが適している.以下,単に「要約」と書いた場合には局所的要約を指すものとする.
\section{原文−要約文コーパス}
\label{sec:sec3}本論文で提案する要約知識自動獲得手法では,原文と要約文からなる電子化されたコーパスが大量に必要となる.この章では我々が使用している原文−要約文コーパスについて説明する.我々は原文にNHKニュース原稿,要約文にNHK文字放送の原稿\footnote{我々が局所的要約の当面の適用として考えているのはニュース字幕作成であるので,要約文としてニュース字幕の原稿を使えることがもちろん望ましい.しかし,現行では字幕が付与されているニュースはほとんどない.そこで本手法では大量にある文字放送の原稿を要約文に使った.}を使っている.NHKニュース原稿とは,主にNHK総合TV(GTV)のニュース(例えば,「7時のニュース」)でアナウンサーが読む原稿の元になるものであり,電子的に保存されている.アナウンサーが読んで伝えることを目的として書かれているため,新聞記事と比較すると冗長な表現も少なくない.一方NHK文字放送の原稿とは,GTVの電波に多重され放送されている文字放送(テレビジョン文字多重放送)の番組の原稿である.文字放送は専用のデコーダーで受信することができ,わずかの例外を除いては市販の受信ソフトにより文字コードとして計算機に取り込むことが可能である.GTVの文字放送は数百の番組があるが,本論文で用いている番組はテレモケイザイニュース,テレモコクサイニュース,テレモサンギョウ,NHKニュース,NHKフルサトネットワークの5つの番組である.文字放送の原稿の記事数は番組や日によって異なるが,1番組当たり4〜8記事であり,一日に数回ニュース内容が更新される.また,1記事は1画面の中に収まるように作成されている.NHKニュース原稿とNHK文字放送の原稿の一例を図1に示す.\begin{figure}\vspace*{-1cm}\begin{center}\epsfile{file=77.eps,scale=1.0}\vspace*{-4mm}\vspace{-3mm}\caption{原文と要約文の例}\end{center}\end{figure}はじめに,NHKニュース原稿とNHK文字放送の原稿の1記事全体を定量的に比較する.比較は9,243記事に対して,文の数,文字数の平均を計算して行った.結果を表1に示す.文の数では,ニュース原稿は1記事当たり5〜6文であるのに対して,文字放送の原稿はほとんどの場合が2文である.文字数でみると,文字放送の原稿の1文は短く,ニュース原稿が約20%に縮約されている.\begin{table}\begin{center}\caption{NHKニュース原稿と文字放送の原稿の特徴}\begin{tabular}{c|c|c|c}\hline\hline平均&ニュース原稿&文字放送の原稿&要約率\\\hline平均文数&5.4&2.2&40.7\%\\平均文字数&495.5&107.2&21.6\%\\\hline\end{tabular}\end{center}\end{table}図1の例で,ニュース原稿と文字放送の原稿を各文ごとに具体的に比較する.文字放送の原稿の第1文とニュース原稿の第1文は共通に存在する単語列が多い.また,異なっている部分は局所的要約が行なわれている.すなわち,次のようにニュース原稿の単語列が文字放送の原稿中では短い単語列に置換されている.(ここで,矢印の左辺が原文中の単語列,右辺が要約文中の単語列である.また,記号φは空を表す.)「ごみの焼却場などから出る」(連体節)→「φ」「有害物質のダイオキシン」→「有害物質ダイオキシン」「摂取基準を引き下げること」→「摂取基準引き下げ」「受けて」→「受け」「国内の基準」→「国内基準」「なりました」→「なった」\vspace{-3mm}文字放送の原稿の第2文はニュース原稿の第2,3文から要約されている.文字放送の原稿の第2文は「10ピコグラム」というキーワードを中心にして要約が生成されている.すなわち,前半はニュース原稿第2文の「10ピコグラム」辺りの節までを要約し,後半は第3文の「10ピコグラム」からの節を要約し,これらを繋げることにより要約が行なわれている.つまり,第2文の要約は「10ピコグラム」という共通単語列を考慮して要約しており,節を対象にした大域的要約である.ニュース原稿の第4,5,6文は文字放送の原稿中では省略されている.すなわち,これらは文を対象にした大域的要約が行なわれたものである.
\section{コーパスからの要約知識の自動獲得}
\label{sec:sec4}\subsection{要約知識}\label{sec:sec4-1}我々の要約知識は置換規則と置換条件からなる.置換規則とは原文の単語列を短い単語列に置き変えよというものである.例えば,次の規則は連体格助詞「の」という単語を省略するという置換規則である.\vspace{8mm}\\\hspace*{5mm}【置換規則の例】\\\hspace*{10mm}「の/体助」→「φ」\\\hspace*{10mm}(ここで「の」は表層文字列,「体助」は品詞が“連体格助詞”であることを表す.)\vspace{8mm}\\一方,置換条件とは置換規則が適用できるか否かを判定する条件である.置換規則の適用はその前後の単語列で決まる.例えば,次は上述の置換規則の例に対する置換条件の一部である.\vspace{8mm}\\\hspace*{5mm}【置換条件の例】\\\hspace*{10mm}「日本の経済」のときは置換規則適用可\\\hspace*{10mm}「日本の銀行」のときは置換規則適用不可\vspace{8mm}\\この置換条件の例では,「日本の経済」中の「の/体助」は省略可能であるが,「日本の銀行」中の「の/体助」は省略できないということを表している.この例のように,置換規則は必ず適用できるわけではなく,適用してはいけない場合もある.実際には後述するように,適用できる程度を[0.0,1.0]の実数値で表現している.以下では,置換規則と置換条件をコーパスから自動的に獲得する手法について具体的に説明する.\subsection{置換規則}\label{sec:sec4-2}置換規則は,原文と要約文の差分として自動的に獲得する.本手法でははじめに原文−要約文コーパスのそれぞれの文を形態素解析し,単語単位に分割する.形態素解析\footnote{形態素解析の誤りが置換規則の自動獲得に影響を及ばすことが考えられるが,後述するように実際には出現頻度の高いものを使っているので影響は少ない.}は我々独自のシステムを使っている.次に,形態素解析で得られた原文中の単語と要約文中の単語の最適な単語対応を求める.これは,原文中の単語$w_i$(表層文字列を$c^o_i$,品詞を$p^o_i$と表す)と要約文中の単語$x_j$(表層文字列$c^s_j$,品詞$p^s_j$)のすべての組み合わせに対して単語間の距離を計算し,その距離に基づいて単語間のDPマッチングを取ることによって実現している.この中で単語間の距離をどのように定義するかが重要となる.単語間の距離は,対応する単語の有無や単語の類似性により式(1)のように3つの場合に分けて定義した.\vspace{8mm}\\【単語間の距離】$$\\\\\\\\\\\\\\distword(w_i,x_j)=distword(c^O_i/p^O_i,c^S_j/p^S_j)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(1)$$\[\\\\\\\\\\\\\\\\\=\left\{\begin{array}{lr}\lambda_1{distchar(c^O_i,c^S_j)+\lambda_2distpos(p^O_i,p^S_j)}&\mbox{\\\\\\\\\\\(1a)}\\\mbox{\\\$if\\w_i\neqφ\wedgex_j\neqφ\wedgeContWord(p^O_i)=ContWord(p^S_j)$}&\mbox{}\\2.0&\mbox{\\\\\\\\\\\(1b)}\\\mbox{\\\$if\\w_i\neqφ\wedgex_j\neqφ\wedgeContWord(p^O_i)\neqContWord(p^S_j)$}&\mbox{}\\1.5&\mbox{\\\\\\\\\\\(1c)}\\\mbox{\\\$if\\w_i=φ\veex_j=φ$}&\mbox{}\\\end{array}\right.\]\vspace{8mm}\\ここで,φは空を表す記号であり,$w_i=φ$は対応する単語が省略されたことを表す.また,内容語判定関数$ContWord$は単語$w_i$が内容語であるかないかをその品詞($p_i$)から判定する関数であり,式(2)で定義する.\vspace{8mm}\\【内容語判定関数】$$\\\\\\\\\\\\ContWord(p)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(2)$$\[\\\\\\\\\\\\\\\\\\\=\left\{\begin{array}{llr}1&\mbox{$if\\p=$内容語である品詞\\\\\\\\\\\\\\\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\(2a)}\\0&\mbox{$otherwise$}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\(2b)}\end{array}\right.\]\vspace{8mm}\\式(1a)は2つの単語が共に内容語であるか,共にそうではない場合であり,式(3),式(4)を用いて計算される.単語間の距離は,シソーラス上の距離と品詞間の距離を重み付け($\lambda_1+\lambda_2=1$)して計算される.シソーラス上の距離は表層文字列が完全一致する場合には0.0(式(3a))をとる.一致しない場合には,それぞれの単語が内容語であれば,意味的な距離をシソーラスを使って計算する.実際には角川類語新辞典~\cite{Oono97}~の分類番号の一致する桁に基づき,式(3b)〜(3d)で計算している.\vspace{8mm}\\【シソーラス上の距離】$$\\\\\\\\\\\\\\\\\\\\distchar(c^O_i,c^S_j)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3)$$\[\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\=\left\{\begin{array}{llr}0.0&\mbox{$if\\c^O_i=c^S_j$\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3a)}\\0.1&\mbox{$if$上位3桁のみが一致\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3b)}\\0.4&\mbox{$if$上位2桁のみが一致\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3c)}\\0.8&\mbox{$if$上位1桁のみが一致\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3d)}\\1.0&\mbox{$otherwise$\\\\\\\\}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(3e)}\end{array}\right.\]\vspace{8mm}\\式(1a)の第2項である品詞間の距離は,式(4)のように3つの場合に分けて定義している.\vspace{8mm}\\【品詞間の距離】$$\\\\\\\\\\\\\\\\\\distpos(p^O_i,p^S_j)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(4)$$\[\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\=\left\{\begin{array}{llr}0.0&\mbox{$if\\p^O_i=p^S_j$}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\(4a)}\\0.2&\mbox{$if\\p^O_i$と$p^S_j$は人手で指定したもの}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\(4b)}\\1.0&\mbox{$otherwise$}&\mbox{\\\\\\\\\\\\\\\\\\\\\\\\(4c)}\end{array}\right.\]\vspace{8mm}\\ここで式(4b)は,「名詞とサ変名詞」のように,完全一致しないが類似している品詞同士であり,人手で指定した.しかし,現在のところその数はあまり多くない\footnote{人手で指定している品詞の組み合わせは現在のところ約40個である.品詞間の距離は,理想的にはすべての品詞(我々の形態素解析システムでは約230個ある)の組み合わせに対して,細かく人手で定義することが望ましい.}.式(1a)は,定義式からわかるように[0.0,1.0]の値を取る.さて,式(1b)は内容語である単語と内容語でない単語が対応する場合であり,このような対応は不適切である場合が多いので他の場合よりも大きい値にした.式(1c)は対応する単語が省略されている場合であり,式(1b)と式(1a)の最大値($=1.0$)の間の値とした.以上のように定義した単語間の距離に基づいて単語間のDPマッチングをとると,図2のように,前の単語列が一致し(単語数$q1$個),一部が不一致となり($p$個),その後にまた単語\mbox{列が一致する}($q2$個)という部分が求められる.この不一致となる単語列が置換規則となる.さらに,一致する部分が長く,不一致の部分が短いほうが置換規則としての信頼性が高いと考えられる.そこで置換規則自動獲得の信頼度として式(5)を定義すると,この値の大きいほうが知識として有効である.実際にはあるしきい値($f_0$)を決め,式(5)の値がしきい値より大きいものを収集した.\vspace{8mm}\\\vspace{-3mm}【置換規則自動獲得の信頼度】$$f(w_iw_{i+1}\ldotsw_{i+p-1},x_ix_{i+1}\ldotsx_{i+p-1})=\frac{q1+q2}{p}\eqno{(5)}$$\begin{figure}\begin{center}\epsfile{file=81.eps,scale=1.0}\vspace{-5mm}\caption{単語対応の差分による置換規則と置換条件の自動獲得}\end{center}\end{figure}\vspace{-7mm}さらに置換規則としての信頼度を高めるために,収集された置換規則の頻度統計をとり,頻度が高い置換規則を最終的に有効な置換規則とした.\vspace{-2mm}\subsection{置換条件}\label{sec:sec4-3}\vspace{-1mm}置換条件には置換規則の前後の単語nグラムが使われている.置換条件は置換規則と同時に収集されるが,原文の単語列が置換される場合$w_iw_{i+1}\ldotsw_{i+p-1}→x_ix_{i+1}\ldotsx_{i+p-1}$(正例と呼ぶ)とともに,原文の単語列がそのまま保存される場合$w_iw_{i+1}\ldotsw_{i+p-1}→w_iw_{i+1}\ldotsw_{i+p-1}$(負例と呼ぶ)も収集している.負例を自動獲得する場合にも式(5)による信頼度を使っている.\begin{figure}\begin{flushleft}\\\\\\\\\\\\{\gt置換規則:}$w_iw_{i+1}\ldotsw_{i+p-1}→x_ix_{i+1}\ldotsx_{i+p-1}$\\\\\\\\\\\\\\{\gt置換条件:}\nolinebreak\end{flushleft}\begin{center}\\\\\\\\\\\{\gt置換前条件}\\\\\\\\\\\\\\\\\\{\gt置換後条件}\\\\\\\\\\\正例\\\$w^1_{i-r1}\ldotsw^1_{i-2}w^1_{i-1}\\\\w^1_{i+p}w^1_{i+p+1}\ldotsw^1_{i+p+r2-1}$\\\\\負例\\\$w^2_{i-r1}\ldotsw^2_{i-2}w^2_{i-1}\\\\w^2_{i+p}w^2_{i+p+1}\ldotsw^2_{i+p+r2-1}$\\\\\\\\\\\\:\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\:\\\\\正例\\\$w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1}\\\\w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1}$\\\\\\\\\\\\:\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\:\\\end{center}\caption{置換規則と置換条件}\end{figure}置換規則の前のnグラムを置換前条件,後のnグラムを置換後条件と呼び,それぞれのnの値を$r1$,$r2$とおく.すると,要約知識は図3のように表すことができる.この図で$k$は$k$番目にある置換条件を表すのに用いている.このような置換条件を参照して,ある置換規則$w_iw_{i+1}\ldotsw_{i+p-1}→x_ix_{i+1}\ldotsx_{i+p-1}$が適用できるかどうかの程度は,式(6)で定義された置換条件上の距離として計算される.置換条件上の距離の計算ではまず,それぞれの$k$に対して,原文の単語列の前$r1$グラム($w_{i-r1}\ldotsw_{i-2}w_{i-1}$)と$k$番目の置換前条件($w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1}$)との距離(式(6b)),原文の単語列の後$r2$グラム($w_{i+p}w_{i+p+1}\ldotsw_{i+p+r2-1}$)と$k$番目の置換後条件($w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1}$)との距離(式(6c))を求める.次にそれらを重み付けた和(式(6a))を計算し,さらにすべての$k$に対する最小値を求め,この最小値を置換条件上の距離とする.定義から明らかなように,式(6)は[0.0,1.0]の値をとる.\vspace{8mm}\\【置換条件上の距離】$$\min_{k}(g(w_iw_{i+1}\ldotsw_{i+p-1},x_ix_{i+1}\ldotsx_{i+p-1},k)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\eqno{(6)}$$\\\\\\\\\\\$g(w_iw_{i+1}\ldotsw_{i+p-1},x_ix_{i+1}\ldotsx_{i+p-1},k)$\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(6a)\\\\\\\\$=\mu_1g^-(w_{i-r1}\ldotsw_{i-2}w_{i-1},w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1})$\\\\\\\\$+\mu_2g^+(w_{i+p}w_{i+p+1}\ldotsw_{i+p+r2-1},w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1})$\\\\\\\\$(\mu_1+\mu_2=1)$\[g^-(w_{i-r1}\ldotsw_{i-2}w_{i-1},w^k_{i-r1}\ldotsw^k_{i-2}w^k_{i-1})\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\]\[=\frac{\sum_{j=1}^{r1}\bigl\{weight_1(j)\timesdistword(w_{i-j},w^k_{i-j})\bigr\}}{\sum_{j=1}^{r1}weight_1(j)}\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\]\begin{flushright}(6b)\end{flushright}\[g^+(w_{i+p}w_{i+p+1}\ldotsw_{i+p+r2-1},w^k_{i+p}w^k_{i+p+1}\ldotsw^k_{i+p+r2-1})\\\\\\\\\\\\\\\\\\\\\]\[=\frac{\sum_{j=1}^{r2}\bigl\{weight_2(j)\timesdistword(w_{i+p+j-1},w^k_{i+p+j-1})\bigr\}}{\sum_{j=1}^{r2}weight_2(j)}\\\\\\\\\\\\\\\\\\\\\\\\\\]\begin{flushright}(6c)\end{flushright}\\\\\\\\\\\\$weight_1(j)={\alpha_1}^{j-1}$\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(6d)\\\\\\\\\\\\$weight_2(j)={\alpha_2}^{j-1}$\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(6e)($\alpha_1$,$\alpha_2$は定数,$0.0\le\alpha_1\le1.0$,\\$0.0\le\alpha_2\le1.0$)\vspace{10mm}\\ただし,$g^-$,$g^+$はそれぞれ,原文と収集された置換前条件,置換後条件間の距離を計算する関数であり,置換規則となる単語列から離れるほど,その影響が少なくなるように$weight(j)$で重み付けしている.さらに,置換前条件と置換後条件は$\mu$で重み付けしている.式(6)で最小値を与える置換条件が正例に関するものであるならば,置換規則が適用され局所的に要約される.しかし,置換規則の適用を式(6)で単純に判定してしまうと,負例,すなわち置換規則を適用しない方を解とする場合が多くなってしまう.これは,置換条件の正例が置換しなければならないというものではなく,置換してもよいという程度の意味しか持たないからである.そこで後述する要約知識の評価実験では,あるしきい値($g_0$)を決め,式(6)で求められた最小値を与える解が負例であっても正例での最小値がしきい値以下であるならば,正例を解とした.
\section{実験}
\label{sec:sec5}\subsection{要約知識獲得実験}\label{sec:sec5-1}NHKニュース原稿とNHK文字放送の原稿から構成される,原文−要約文コーパスの9,243記事を使って要約知識を自動獲得する実験を行った.単語間のDPマッチングを行う際には,あらかじめ文対応をつけておくということはせずに,原文,要約文それぞれに含まれる単語のすべての組み合わせを使った.要約知識のうち,まず置換規則の自動獲得実験を行った.この際,次のパラメータ値をあらかじめ決めておかなければならない.\begin{flushleft}{\gtパラメータ1:}シソーラス上の距離と品詞間距離の重みづけ$\lambda_1$式(1a))\\{\gtパラメータ2:}置換規則自動獲得の信頼度$f$(式(5))のしきい値$f_0$\end{flushleft}今回の実験では,パラメータ1に関しては,品詞間距離の計算において人手で指定している品詞対があまり多くないので,表層表現を重視するように次の値にした.\begin{flushleft}{\gtパラメータ1:}$\lambda_1=0.7$($\lambda_2=0.3$)\end{flushleft}またパラメータ2に関しては,置換規則となる単語列は1単語以上は必要であり,その前後は少なくとも一方のうち1単語は一致してほしいと考え,$p=1$,$q1=1$,$q2=0$(または,$q1=0$,$q2=1$)から計算される次の値にした.\begin{flushleft}{\gtパラメータ2:}$f_0=1.0$\end{flushleft}自動獲得された置換規則に対してさらに頻度統計をとった.上位40位を表2に示す.表2の中で,「や/並助→・/つなぎ」や「の/体助→・/つなぎ」等は字数が同じであり,字数を減らすという要約本来の意味では置換規則とはいえない.しかし,要約文としての読みやすさという点では有効であると考えられるので,参考のために含めた.もちろん後処理でこれらを置換規則から取り除くことは容易である.\begin{table}\begin{center}\caption{自動獲得された置換規則}\begin{tabular}{|r|l|l|}\hline\hline獲得個数&原文中の単語列&要約文中の単語列\\\hline8967&、/読点&φ\\5331&の/体助&φ\\3491&まし/助丁寧&φ\\1643&を/格助を&φ\\579&で/助断定&φ\\529&に/格助に&φ\\525&が/格助が&φ\\484&総理/名大臣/名&首相/名\\450&」/閉かぎ&φ\\426&な/助断定&φ\\\hline387&て/接助&φ\\360&する/さ連体&の/体助\\340&し/さ連用&φ\\328&や/並助&・/つなぎ\\324&など/副助&φ\\312&い/形五わう/自尾&の/体助\\306&てい/助完了ます/助丁寧&ている/助完了\\305&は/係助は&φ\\266&て/接助、/読点&φ\\247&です/助断定&φ\\\hline246&「/開かぎ&φ\\238&し/さ連用まし/助丁寧た/助過去&φ\\228&アメリカ/地&米/名\\225&を/格助を&の/体助\\221&てい/助完了&φ\\201&委員/名会/尾&委/尾\\195&なり/形五らまし/助丁寧&なっ/形五ら\\186&・/つなぎ&=/つなぎ\\185&だ/助断定&φ\\181&り/自尾まし/助丁寧&っ/自尾\\\hline180&もの/形名です/助断定&φ\\169&余り/別尾&余/別尾\\167&大蔵/人姓大臣/名&蔵相/名\\166&の/体助&・/つなぎ\\166&と/格助と&・/つなぎ\\161&について/格助他&φ\\159&が/格助が&の/体助\\156&する/さ連体&φ\\150&行な/他五わ&行/他五わ\\144&外務/名大臣/名&外相/名\\\hline\end{tabular}\end{center}\end{table}表2をみると,妥当な置換規則が得られているのがわかる.実際,上位100位までを人手で確認したところ,すべて妥当な置換規則が得られていた.具体的にみると,上位には「の/体助→φ」や「を/格助→φ」のように,分野に関係なく行なわれる要約である助詞や助動詞の省略が多いのがわかる.また,我々の原文−要約文コーパスを使ったことによる特徴であるが,置換規則「まし/助丁寧→φ」(実際には「しました→した」)や「てい/助完了ます/助丁寧→ている/助完了」のように,アナウンサーが話すことを目的としたニュース原稿を,書き言葉である文字放送の原稿に要約するための置換規則が得られている.言い換えでは内容語の場合が多く,表2では「総理/名大臣/名→首相/名」(総理大臣→首相),「委員/名会/尾→委/尾」(委員会→委)という置換規則が得られている.内容語が内容語に置換されている場合を抽出すると表3のようになった.ただし,表3では品詞は省略している.表には現れていないが,節の言い換えの例として,「日本を訪問している→訪日中の」という置換規則も得られている.\begin{table}\begin{center}\caption{自動獲得された置換規則(内容語)}\begin{tabular}{|r|l|l|}\hline\hline獲得個数&原文中の単語列&要約文中の単語列\\\hline484&総理大臣&首相\\228&アメリカ&米\\201&委員会&委\\167&大蔵大臣&蔵相\\144&外務大臣&外相\\89&地方裁判所&地裁\\87&大臣&相\\70&経済企画&経企\\68&衆議院&衆院\\65&さきがけ&さ\\54&アメリカのクリントン&クリントン米\\45&ヶ月&か月\\34&参議院&参院\\31&警察本部&警\\29&自由民主&自民\\\hline\end{tabular}\end{center}\end{table}次に得られた置換規則に対して,置換条件を正例,負例ともに自動獲得した.この際,前後のnグラムの値はコーパスを見て置換条件として有効であると思われる長さより少し長めに,$r_1=r_2=6$とした.実際にはこれほどの長さは必要ないものと思われるが,重みの値(式(6)の$\alpha_1$,$\alpha_2$)を小さく取ることにより長さが短い場合も近似的に実現することが可能である.置換規則「の/体助→φ」に対する置換条件の例の一部を表4に示す.\begin{table}\begin{center}\epsfile{file=86.eps,scale=1.0}\vspace*{-3mm}\end{center}\end{table}\subsection{要約知識評価実験}\label{sec:5-2}~\ref{sec:sec5-1}~で自動獲得された置換規則とその置換条件を使って要約知識の評価実験を行った.実験は正例と負例をあわせた全データ(表5参照)から50個をパラメータ決定実験用に,他の100個を評価実験用にランダムにそれぞれ抽出し,残り(例えば,置換規則「の/体助→φ」では$(5,331+13,498)-(50+100)=18,679個$を置換条件用のデータとした.\setcounter{table}{4}\begin{table}\begin{center}\vspace{-3mm}\caption{実験に使った置換規則における置換条件の数}\epsfile{file=87.eps,scale=1.0}\end{center}\end{table}評価は,置換条件上の距離(式(6))から正例か負例か(すなわち,要約するか否か)を判断し,実際の正例・負例と一致したときを正解とした.しかし,~\ref{sec:sec4-3}~の最後で述べたように,自動的に得られている負例には,本来は正例にもなりうる場合と,正例にはなりえない場合(真の負例と呼ぶ)がある.そこで評価実験に際して,パラメータ決定実験用データ,評価実験用データともに負例に対し正例になりうるか否かを人手で判断し,正例になりうるものは元の正例に加えた.要約知識はなるべく適用されたほうがいいものの,誤って適用されてはいけないので,評価は式(7)の値で行った.$$\\\\\\\\\\f‐measure=\frac{2.0\timesP\timesR}{P+R}\\(=F)\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\(7)$$\begin{eqnarray*}\\\\\\\\\\\\\\\precision=\frac{正例,負例が正しく判定された個数}{評価実験用データ数(=100)}\\(=P)\\\\\\\\\\\\\\\\\\\\\\(7a)\end{eqnarray*}\begin{eqnarray*}\\\\\\\\\\\\\\\recall=\frac{正しく正例と判定された個数}{評価実験用データ数のうち正例の数}\\(=R)\\\\\\\\\\\\\\\\\\\\\\\\\\(7b)\end{eqnarray*}\\式(7a)は,正例,負例の判断をして実験用データと一致した割合を表している.式(7b)は実験用データの正例の中で正確に正例として判断された割合であり,すなわち,要約が行なわれた場合にどのくらいが正解かを表している.これら2つの値から$f‐measure$を計算し評価した.今回評価に用いた置換規則は,表2の中からある程度のデータ量をもつ助詞,助動詞の要約に関するものである,「の/体助→φ」,「を/格助を→φ」,「で/助断定→φ」,「に/格助に→φ」,「が/格助が→φ」,「な/助断定→φ」,「する/さ連体→の/体助」,「て/接助→φ」,「し/さ連用→φ」の9種類である.パラメータ決定実験では次の値を評価実験に先だって決めなければならない.\begin{flushleft}{\gtパラメータ3:}置換前条件と置換後条件との重み$\mu_1$(式(6a)){\gtパラメータ4:}置換前条件内の単語列に対する重み$\alpha_1$(式(6d)){\gtパラメータ5:}置換後条件内の単語列に対する重み$\alpha_2$(式(6e)){\gtパラメータ6:}置換条件上の距離のしきい値$g_0$\\この中で置換条件上の距離のしきい値$g_0$は置換規則の種類によらず経験的に次の値にした.{\gtパラメータ6:}$g_0=0.4$\end{flushleft}その他のパラメータに関しては置換規則ごとにさまざまなパラメータを使って実験し,最も$f‐measure$の大きい場合を選択した.それぞれの置換規則におけるパラメータを表6に示す.表6中の$\mu_1$をみると,置換規則によってパラメータの値がかなり異なることがわかる.置換規則「を/体助を→φ」では置換前知識に重み付けられているのに対し,置換規則「の/体助→φ」では置換後知識のほうが重みが大きい.\begin{table}\begin{center}\epsfile{file=89.eps,scale=1.0}\end{center}\end{table}次にこれらのパラメータ値を使って要約知識の評価実験をした.実験結果を表7に示す.ここで比較のために,すべてを正例と判断した場合の$f‐measure$の値($F'$)も記した.\mbox{この場}合,$R=100$となるので$F'$は,$$f‐measureのbaseline値=\frac{2.0\times(100-真の負例の割合)\times100}{(100-真の負例の割合)+100}\\(=F')\\\\\\\\\\\\\\\\\\\\(8)$$\begin{flushleft}と計算される.\end{flushleft}表7を見ると,置換規則「を/体助を→φ」の場合は$f‐measure$の値が$baseline$値とほとんど変わらない.しかし,置換規則によって精度のばらつきがあるものの,概ね良好な結果が得られている.\subsection{置換規則「の/体助→φ」の誤り例}\label{sec:sec5-3}今回の実験で$f‐measure$が一番低かった置換規則「の/体助→φ」の誤りを分析した.\mbox{多く}の誤りは距離計算がうまくなされていないことによるものであった.これを改善するには,単純には学習データを増やしたり,またシソーラスをニュース用にきめ細かく作成することにより,さらに精度よく置換条件上の距離を計算する必要がある.しかし,さらに細かい言語情報を必要とする誤りの例もあった.以下に例をあげる.\newpage\begin{flushleft}【誤り例1】原文「『白鳥の王女のアリア』」要約文「『白鳥の王女アリア』」\end{flushleft}\begin{flushleft}例1では「『白鳥の王女のアリア』」は固有名詞なので要約してはならないのであるが,「の」を省略してしまった.正確に要約するためには「『白鳥の王女のアリア』」が固有名詞であるという情報が必要である.\end{flushleft}\begin{flushleft}【誤り例2】原文「アメリカ軍嘉手納基地周辺の住民」要約文「アメリカ軍嘉手納基地周辺住民」\\\end{flushleft}\begin{flushleft}例2では,正例に「周辺の住民→周辺住民」という例があったために「の」が省略されてしまったが,要約文では非常に長い名詞連続となってしまうので読みにくくなってしまう.この場合にはある長さ以上の名詞連続を作成するときには省略をしてはいけないという情報が必要となろう.\end{flushleft}\begin{flushleft}【誤り例3】原文「アジアの株式市場と為替市場」要約文「アジア株式市場と為替市場」\\\end{flushleft}\begin{flushleft}例3では正例に「アジアの株式市場→アジア株式市場」という例があったために「の」が省略されてしまった.原文では「アジア」が「株式市場」とともに「為替市場」にも係っているので,省略することはできない.このような場合には前後の単語列の構文情報も考慮する必要があろう.\end{flushleft}今後はこのような言語情報も加えて要約の改善をしていく予定である.
\section{おわりに}
\label{sec:sec6}原文−要約文コーパスより局所的要約知識を自動獲得する手法について述べた.また,NHKニュース原稿とNHK文字放送の原稿から構成されるコーパスを使って,局所的要約知識を自動獲得する実験を行った.さらに要約知識の評価実験を行い,良好な結果を得た.今後の研究の方向は2つある.1つは局所的要約に関するものである.今回は評価実験の第一歩として特定の局所的要約知識にのみ着目したが,今後は自動獲得された要約知識すべてを使って文全体の局所的要約を試みたい.その際には,適用する要約知識間で競合が起こることが予想される.そこで,与えられた要約率の中で要約知識の最適な組み合わせを求めることが必要となる.我々は信頼度の評価関数を最小化することにより,要約知識の最適な組み合わせを求めるアルゴリズムを研究している~\cite{Katoh98}~.このアルゴリズムによって得られた要約結果を人間が読んでどれぐらい違和感がないかも評価する必要があろう.もう1つの方向は,大域的要約に関するものである.これには要約には現れなかった元のニュースの文(例えば,図1の第4,5,6文)や節(図1の第2,3文中の節)を,文や節の削除手法の研究の評価用データとして使っている.現在,従来の評価関数(例えば,tf法やtf*idf法)を使ってどのくらいの精度で削除できるかを実験中である.これらの詳細については稿を改めて報告したい.\bibliographystyle{jnlpbbl}\bibliography{v06n7_04}\newpage\begin{biography}\biotitle{略歴}\bioauthor{加藤直人}{1986年早稲田大学理工学部電気工学科卒業.1988年同大学院修士課程修了.同年日本放送協会(NHK)に入局,同放送技術研究所に勤務.1994年より3年間ATR音声翻訳通信研究所に出向.1997年NHK放送技術研究所に復帰.機械翻訳,対話処理,音声言語処理,自動要約の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{浦谷則好}{1975年東京大学大学院修士課程(電気工学)修了.同年日本放送協会(NHK)に入局.1979年同放送技術研究所に勤務.1991年より3年間ATR自動翻訳電話研究所に出向.1994年NHK放送技術研究所に復帰.1999年6月より音声翻訳通信研究所に再び出向.現在,第4研究室主幹研究員.情報検索,自然言語処理の研究に従事.工学博士.情報処理学会,電子情報通信学会,映像情報メディア学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N05-04
|
\section{はじめに}
自然言語処理のタスクにおいて帰納学習手法を用いる際,訓練データとテストデータは同じ領域のコーパスから得ていることが通常である.ただし実際には異なる領域である場合も存在する.そこである領域(ソース領域)の訓練データから学習された分類器を,別の領域(ターゲット領域)のテストデータに合うようにチューニングすることを領域適応という\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.}.本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)のタスクでの領域適応に対する手法を提案する.まず本論文における「領域」の定義について述べる.「領域」の正確な定義は困難であるが,本論文では現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}におけるコーパスの「ジャンル」を「領域」としている.コーパスの「ジャンル」とは,概略,そのコーパスの基になった文書が属していた形態の分類であり,書籍,雑誌,新聞,白書,ブログ,ネット掲示板,教科書などがある.つまり本論文における「領域」とは,書籍,新聞,ブログ等のコーパスの種類を意味する.領域適応の手法はターゲット領域のラベル付きデータを利用するかしないかという観点で分類できる.利用する場合を教師付き手法,利用しない場合を教師なし手法と呼ぶ.教師付き手法については多くの研究がある\footnote{例えばDaum{\'e}の研究(Daum\'{e}2007)\nocite{daume0}はその簡易性と有効性から広く知られている.}.また能動学習\cite{settles2010active}や半教師あり学習\cite{chapelle2006semi}は,領域適応の問題に直接利用できるために,それらのアプローチをとる研究も多い.これらに対して教師なし手法の従来研究は少ない.教師なし手法は教師付き手法に比べパフォーマンスが悪いが,ラベル付けが必要ないという大きな長所がある.また領域適応は転移学習と呼ばれることからも明らかなように,ソース領域の知識(例えば,ラベル付きデータからの知識)をどのように利用するか(ターゲット領域に転移させるか)が解決の鍵であり,領域適応の手法はターゲット領域のラベル付きデータを利用しないことで,その効果が明確になる.このため教師なし手法を研究することで,領域適応の問題が明確になると考えている.この点から本論文では教師なし手法を試みる.\newpage本論文の特徴はWSDの領域適応の問題を以下の2点に分割したことである.\begin{enumerate}\item[(1)]領域間で語義の分布が異なる\item[(2)]領域の変化によりデータスパースネスが生じる\end{enumerate}領域適応の手法は上記2つの問題を同時に解決しているものが多いために,このような捉え方をしていないが,WSDの領域適応の場合,上記2つの問題を分けて考えた方が,何を解決しようとしているのかが明確になる.本論文では上記2点の問題に対して,ターゲット領域のラベル付きデータを必要としない各々の対策案を提示する.具体的に,(1)に対してはk~近傍法を補助的に利用し,(2)に対しては領域毎のトピックモデル\cite{blei}を利用する.実際の処理は,ターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.上記の処理を本論文の提案手法とする.提案手法の大きな特徴は,トピックモデルをWSDに利用していることである.トピックモデルの構築には語義のラベル情報を必要としないために,領域適応の教師なし手法が実現される.トピックモデルをWSDに利用した従来の研究\cite{li,boyd1,boyd2}はいくつかあるため,それらとの差異を述べておく.まずトピックモデルをWSDに利用するにしても,その利用法は様々であり確立された有効な手法が存在するわけではなく,ここで利用した手法も1つの提案と見なせる.また従来のトピックモデルを利用したWSDの研究では,語義識別の精度改善が目的であり,領域適応の教師なし手法に利用することを意図していない.そのためトピックモデルを構築する際に,もとになるコーパスに何を使えば有効かは深くは議論されていない.しかし領域適応ではソース領域のコーパスを単純に利用すると,精度低下を起こす可能性もあるため,本論文ではソース領域のコーパスを利用せず,ターゲット領域のコーパスのみを用いてトピックモデルを構築するアプローチをとることを明確にしている.この点が大きな差異である.実験ではBCCWJコーパス\cite{bccwj}の2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行った.単純にSVMを利用した手法と提案手法とをマクロ平均により比較した場合,OCをソースデータにして,PBをターゲットデータにした場合には有意水準0.05で,ソースデータとターゲットデータを逆にした場合には有意水準0.10で提案手法の有効性があることが分かった.
\section{WSDの領域適応の問題}
WSDの対象単語\(w\)の語義の集合を\(C=\{c_1,c_2,\cdots,c_k\}\),\(w\)を含む文(入力データ)を\(x\)とする.WSDの問題は最大事後確率推定を利用すると,以下の式の値を求める問題として表現できる.\[\arg\max_{c\inC}P(c)P(x|c)\]つまり訓練データを利用して語義の分布\(P(c)\)と各語義上での入力データの分布\(P(x|c)\)を推定することでWSDの問題は解決できる.今,ソース領域を\(S\),ターゲット領域を\(T\)とした場合,WSDの領域適応の問題は\(P_S(c)\neP_T(c)\)と\(P_S(x|c)\neP_T(x|c)\)から生じている.\(P_S(c)\neP_T(c)\)が成立していることは明らかだが,\(P_S(x|c)\neP_T(x|c)\)に対しては一考を要する.一般の領域適応の問題では\(P_S(x|c)\neP_T(x|c)\)であるが,WSDに限れば\(P_S(x|c)=P_T(x|c)\)と考えることもできる.実際Chanらは\(P_S(x|c)\)と\(P_T(x|c)\)の違いの影響は非常に小さいと考え,\(P_S(x|c)=P_T(x|c)\)を仮定し,\(P_T(c)\)をEMアルゴリズムで推定することでWSDの領域適応を行っている\cite{chan2005word,chan2006estimating}.古宮らは2つのソース領域の訓練データを用意し,そこからランダムに訓練データを取り出してWSDの分類器を学習している\cite{komiya-nenji2013}.論文中では指摘していないが,これも\(P_S(c)\)を\(P_T(c)\)に近づける工夫である.ソース領域が1つだとランダムに訓練データを取り出しても\(P_S(c)\)は変化しないが,ソース領域を複数用意することで\(P_S(c)\)が変化する.ただし\(P_S(x|c)=P_T(x|c)\)が成立していたとしても,WSDの領域適応の問題が\(P_T(c)\)の推定に帰着できるわけでない.仮に\(P_S(x|c)=P_T(x|c)\)であったとしても,領域\(S\)の訓練データだけから\(P_T(x|c)\)を推定することは困難だからである.これは共変量シフトの問題\cite{shimodaira2000improving,sugiyama-2006-09-05}と関連が深い.共変量シフトの問題とは入力\(x\)と出力\(y\)に対して,推定する分布\(P(y|x)\)が領域\(S\)と\(T\)で共通しているが,\(S\)における入力の分布\(P_S(x)\)と\(T\)における入力の分布\(P_T(x)\)が異なる問題である.\(P_S(x|c)=P_T(x|c)\)の仮定の下では,入力\(x\)と出力\(c\)が逆になっているので,共変量シフトの問題とは異なる.ただしWSDの場合,全く同じ文\(x\)が別領域に出現したとしても,\(x\)内の多義語\(w\)の語義が異なるケースは非常に稀であるため\(P_S(c|x)=P_T(c|x)\)が仮定できる.\(P_T(c|x)\)は語義識別そのものなので,WSDの領域適応の問題は共変量シフトの問題として扱えることができる.共変量シフト下では訓練事例\(x_i\)に対して密度比\(P_T(x_i)/P_S(x_i)\)を推定し,密度比を重みとして尤度を最大にするようにモデルのパラメータを学習する.Jiangらは密度比を手動で調整し,モデルにはロジステック回帰を用いている\cite{jiang2007instance}.齋木らは\(P(x)\)をunigramでモデル化することで密度比を推定し,モデルには最大エントロピーモデルを用いている\cite{saiki-2008-03-27}.ただしどちらの研究もタスクはWSDではない.WSDでは\(P(x)\)が単純な言語モデルではなく,「\(x\)は対象単語\(w\)を含む」という条件が付いているので,密度比\(P_T(x)/P_S(x)\)の推定が困難となっている.また教師なしの枠組みで共変量シフトの問題が扱えるのかは不明である.本論文では\(P_S(c|x)=P_T(c|x)\)を仮定したアプローチは取らず,\(P_S(x|c)=P_T(x|c)\)を仮定する.この仮定があったとしても,領域\(S\)の訓練データだけから\(P_T(x|c)\)を推定するのは困難である.ここではこれをスパース性の問題と考える.つまり領域\(S\)の訓練データ\(D\)は領域\(T\)においてスパースになっていると考える.スパース性の問題だと考えれば,半教師あり学習や能動学習を領域適応に応用するのは自然である\footnote{ただし\(D\)は領域\(T\)内のサンプルではなく不均衡な訓練データという点には注意すべきであり,この点を考慮した半教師あり学習や能動学習が必要である.}(Rai,Saha,Daum{\'e},andVenkatasubramanian2010)\nocite{rai2010domain}.また半教師あり学習や能動学習のアプローチを取った場合,\(T\)の訓練データが増えるので語義の分布の違い自体も同時に解消されていく\cite{chan2007domain}.ここで指摘したいのは\(P_S(x|c)=P_T(x|c)\)が成立しており\(P_T(x|c)\)の推定を困難にしているのがスパース性の問題だとすれば,領域\(S\)の訓練データ\(D\)は多いほどよい推定が行えるはずで,\(D\)が大きくなったとしても推定が悪化するはずがない点である.しかし現実には\(D\)を大きくするとWSD自体の精度が悪くなる場合もあることが報告されている(例えば\cite{komiya-nenji2013}).これは一般に負の転移現象\cite{rosenstein2005transfer}と呼ばれている.WSDの場合\(P_T(x|c)\)を推定しようとして,逆に語義の分布\(P_T(c)\)の推定が悪化することから生じる.つまり領域\(T\)におけるWSDの解決には\(T\)におけるデータスパースネスの問題に対処しながら,同時に\(P_T(c)\)の推定が悪化することを避けることが必要となる.また領域適応ではアンサンブル学習も有効な手法である.アンサンブル学習自体はかなり広い概念であり,実際,バギング,ブースティングまた混合分布もアンサンブル学習の一種である.Daum{\'e}らは領域適応のための混合モデルを提案している(Daum{\'e}andMarcu2006)\nocite{daume2006domain}.そこでは,ソース領域のモデル,ターゲット領域のモデル,そしてソース領域とターゲット領域を共有したモデルの3つを混合モデルの構成要素としている.Daiらは代表的なブースティングアルゴリズムのAdaBoostを領域適応の問題に拡張したTrAdaBoostを提案している\cite{Dai2007}.またKamishimaらはバギングを領域適応の学習用に拡張したTrBaggを提案している\cite{kamishima2009trbagg}.WSDの領域適応については古宮の一連の研究\cite{komiya2,komiya3,komiya-nlp2012}があるが,そこではターゲット領域のラベルデータの使い方に応じて学習させた複数の分類器を用意しておき,単語や事例毎に最適な分類器を使い分けることで,WSDの領域適応を行っている.これらの研究もアンサンブル学習の一種と見なせる.
\section{提案手法}
\subsection{k~近傍法の利用}領域\(T\)におけるデータスパースネスの問題に対処する際に,\(P_T(c)\)の推定が悪化することを避けるために,本論文では識別の際に\(P_T(c)\)の情報をできるだけ利用しないという方針をとる.そのためにk~近傍法を利用する.どのような学習手法を取ったとしても,何らかの汎化を行う以上,\(P_T(c)\)の影響を受けるが,k~近傍法はその影響が少ない.k~近傍法はデータ\(x\)のクラスを識別するのに,訓練データの中から\(x\)と近いデータ\(k\)個を取ってきて,それら\(k\)個のデータのクラスの多数決により\(x\)のクラスを識別する.\mbox{k~近傍法}が\(P_T(c)\)の影響が少ないのは\(k=1\)の場合(最近傍法)を考えればわかりやすい.例えば,クラスが\(\{c_1,c_2\}\)であり,\(P(c_1)=0.99\),\(P(c_2)=0.01\)であった場合,通常の学習手法であれば,ほぼ全てのデータを\(c_1\)と識別するが,最近傍法では,入力データ\(x\)と最も近いデータ1つだけがクラス\(c_2\)であれば,\(x\)のクラスを\(c_2\)と判断する(\mbox{図\ref{zu1}}参照).つまりk~近傍法ではデータ全体の分布を考慮せずに\(k\)個の局所的な近傍データのみでクラスを識別するために,その識別には\(P_T(c)\)の影響が少ない.\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f1.eps}\end{center}\caption{分布の影響が少ないk-NN}\label{zu1}\vspace{-1\Cvs}\end{figure}ただしk~近傍法は近年の学習器と比べるとその精度が低い.そのためここではk~近傍法を補助的に利用する.具体的には通常の識別はSVMで行い,SVMでの識別の信頼度が閾値\(\theta\)以下の場合のみ,k~近傍法の識別結果を利用することにする.ここで\(\theta\)の値が問題だが,語義の数が\(K\)個である場合,識別の信頼度(その語義である確率)は少なくとも\(1/K\)以上の値となる.そのためここではこの値の1割をプラスし\(\theta=1.1/K\)とした.なおこの値は予備実験等から得た最適な値ではないことを注記しておく.\subsection{トピックモデルの利用}領域\(T\)におけるデータスパースネスの問題に対処するために,ここではトピックモデルを利用する.WSDの素性としてシソーラスの情報を利用するのもデータスパースネスへの1つの対策である.シソーラスとしては,分類語彙表などの手作業で構築されたものとコーパスから自動構築されたものがある.前者は質が高いが分野依存の問題がある.後者は質はそれほど高くないが,分野毎に構築できるという利点がある.ここでは領域適応の問題を扱うので,後者を利用する.つまり領域\(T\)からシソーラスを自動構築し,そのシソーラス情報を領域\(S\)の訓練事例と領域\(T\)のテスト事例に含めることで,WSDの識別精度の向上を目指す.注意として,WSDでは単語間の類似度を求めるためにシソーラスを利用する.そのため実際にはシソーラスを構築するのではなく,単語間の類似度が測れる仕組みを作っておけば良い.この仕組みが単語のクラスタリング結果に対応する.つまりWSDでの利用という観点では,シソーラスと単語クラスタリングの結果は同等である.そのため本論文においてシソーラスと述べている部分は,単語のクラスタリング結果を指している.この単語のクラスタリング結果を得るためにトピックモデルを利用する.トピックモデルとは文書\(d\)の生起に\(K\)個の潜在的なトピック\(z_i\)を導入した確率モデルである.\[p(d)=\sum_{i=1}^{K}p(z_i)p(d|z_i)\]トピックモデルの1つであるLatentDirichletAllocation(LDA)\cite{blei}を用いた場合,単語\(w\)に対して\(p(w|z_i)\)が得られる.つまりトピック\(z_i\)をひとつのクラスタと見なすことで,LDAを利用して単語のソフトクラスタリングが可能となる.領域\(T\)のコーパスとLDAを利用して,\(T\)に適した\(p(w|z_i)\)が得られる.\(p(w|z_i)\)の情報をWSDに利用するいくつかの研究\cite{li,boyd1,boyd2}があるが,ここではハードタグ\cite{cai}を利用する.ハードタグとは\(w\)に対して最も関連度の高いトピック\(z_{\hat{i}}\)を付与する方法である.\[\hat{i}=\arg\max_{i}p(w|z_i)\]まずトピック数を\(K\)としたとき,\(K\)次元のベクトル\(t\)を用意し,入力事例\(x\)中に\(n\)種類の単語\(w_1,w_2,\cdots,w_n\)が存在したとき,各\(w_j\)(\(j=1\simn\))に対して最も関連度の高いトピック\(z_{\hat{i}}\)を求め,\(t\)の\(\hat{i}\)次元の値を1にする.これを\(w_1\)から\(w_n\)まで行い\(t\)を完成させる.作成できた\(t\)をここでは{\bfトピック素性}と呼ぶ.トピック素性を通常の素性ベクトル(ここでは{\bf基本素性}と呼ぶ)に結合することで,新たな素性ベクトルを作成し,その素性ベクトルを対象に学習と識別を行う.なお,本論文で利用した基本素性は,対象単語の前後の単語と品詞及び対象単語の前後3単語までの自立語である.
\section{実験}
\subsection{実験設定と実験結果}現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}のPB(書籍)とOC(Yahoo!知恵袋)を異なった領域として実験を行う.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではPBとOCを含む4ジャンルの語義タグ付きコーパスが公開されているので,語義のラベルはこのデータを利用する.PBとOCから共に頻度が50以上の多義語17単語をWSDの対象単語とする.これらの単語と辞書上での語義数及び各コーパスでの頻度と語彙数を\mbox{表\ref{tab:target-word}}に示す\footnote{語義は岩波国語辞書がもとになっている.そこでの中分類までを対象にした.また「入る」は辞書上の語義が3つだが,PBやOCでは4つの語義がある.これはSemEval-2の日本語WSDタスクは新語義のタグも許しているからである.}.領域適応としてはPBをソース領域,OCをターゲット領域としたものと,OCをソース領域,PBをターゲット領域としたものの2種類を行う.注意としてSemEval-2の日本語WSDタスクのデータを用いれば,更に異なった領域間の実験は可能であるが,領域間に共通してある程度の頻度で出現する多義語が少ないことなどから本論文ではPBとOC間の領域適応に限定している.\begin{table}[b]\caption{対象単語}\label{tab:target-word}\input{04table01.txt}\end{table}\begin{table}[t]\caption{各手法による正解率(PB→OC)}\label{tab:result1}\input{04table02.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f2.eps}\end{center}\caption{各手法による正解率のマクロ平均(PB→OC)}\label{kekka1}\end{figure}PBからOCへの領域適応の実験結果を\mbox{表\ref{tab:result1}}と図~\ref{kekka1}に示す.またOCからPBへの領域適応の実験結果を\mbox{表\ref{tab:result2}}と図~\ref{kekka2}に示す.\mbox{表\ref{tab:result1}}と\mbox{表\ref{tab:result2}}の数値は正解率を示している.「k-NN」の列はk~近傍法の識別結果を示す.ここでは\(k=1\)としている.「SVM」の列は基本素性だけを用いて学習したSVMの識別結果を示し,「SVM+TM」の列は基本素性にターゲット領域から得たトピック素性を加えた素性を用いて学習したSVMの識別結果を示し,「提案手法」の列は「SVM+TM」の識別で信頼度の低い結果をk~近傍法の結果に置き換えた場合の識別結果を示す.また「self」はターゲット領域の訓練データに対して5分割交差検定を行った場合の平均正解率であり,理想値と考えて良い.ただし一部の単語で「self」の値が「提案手法」などよりも低い.これはそれらの単語のソース領域のラベル付きデータの情報が,ターゲット領域で有効であったことを意味している.つまり「負の転移」が生じていないため,これらの単語については領域適応の問題が生じていないとも考えられる.\begin{table}[t]\caption{各手法による正解率(OC→PB)}\label{tab:result2}\input{04table03.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f3.eps}\end{center}\caption{各手法による正解率のマクロ平均(OC→PB)}\label{kekka2}\end{figure}本実験のSVMの実行には,SVMライブラリのlibsvm\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/}を利用した.そこで用いたカーネルは線形カーネルである.また識別の信頼度の算出にはlibsvmで提供されている\verb|-b|オプションを利用した.このオプションは,基本的には,onevs.rest法を利用して各カテゴリ(本実験の場合,語義)までの距離(識別関数値)の比較から,信頼度を算出している.識別結果は最も信頼度の高いカテゴリ(語義)となる.またBCCWJコーパスは形態素解析済みの形で提供されているため,基本素性の単語や品詞は,形態素解析システムを利用せずに直接得ることができる.またトピックモデルの作成にはLDAツール\footnote{http://chasen.org/{\textasciitilde}daiti-m/dist/lda/}を用い,トピック数は全て100として実験を行った.17単語の正解率のマクロ平均をみると,PBからOCへの領域適応とOCからPBへの領域適応のどちらにおいても,以下の関係が成立しており,提案手法が有効であることがわかる.\vspace{0.5\Cvs}\begin{verbatim}k-NN<SVM<SVM+TM<提案手法\end{verbatim}\vspace{0.5\Cvs}なお本実験の評価はマクロ平均で行った.マイクロ平均による評価も可能ではあるが,本実験の場合,テストデータの用例数に幅がありすぎ,結果的にテストデータの用例数の多い単語の識別結果がマイクロ平均の値に大きく影響する.このためここではマクロ平均のみによる評価を行っている.マイクロ平均で評価した場合は,わずかではあるがSVMが最も高い評価値を出していた.\subsection{有意差の検定}t検定を用いて各手法間の正解率のマクロ平均値の有意差を検定する.対象単語\(w\)のソース領域でのラベル付きデータからランダムにその9割を取り出し,その9割のデータから前述したWSDの実験(「SVM」,「SVM+TM」,「提案手法」)を行う.この際,「提案手法」ではk-NNの結果を用いるが,そこでも9割のデータしかないことに注意する.これを1セットの実験とし,50セットの実験を行い,その正解率のマクロ平均を求めた.PBからOCへの領域適応の結果を\mbox{表\ref{tab:yuui1}}に示す.またOCからPBへの領域適応の結果を\mbox{表\ref{tab:yuui2}}に示す.t検定を行う場合,まず分散比の検定から2つのデータが等分散と見なせることを示す必要がある.自由度(49,49)のF値を調べることで,有意水準0.10で等分散を棄却するためには,分散比が0.6222以下か1.6073以上の値でなければならない.\mbox{表\ref{tab:yuui1}}と\mbox{表\ref{tab:yuui2}}から,各領域適応でどの手法間の組み合わせを行っても,正解率の分散が等しいことを棄却できないことは明らかであり,ここではt検定を行えると判断できる.t検定の片側検定を用いた場合,ここでの自由度は48なので有意水準0.05で有意差を出すt値は1.6772以上,有意水準0.10で有意差を出すt値は1.2994以上の値となる.このため有意差の検定結果は\mbox{表\ref{yuui-kekka3}}と\mbox{表\ref{yuui-kekka4}}のようにまとめられる.\begin{table}[t]\begin{minipage}[t]{.49\textwidth}\caption{9割データでの実験結果(PB→OC)}\label{tab:yuui1}\input{04table04.txt}\end{minipage}\hfill\begin{minipage}[t]{.49\textwidth}\caption{9割データでの実験結果(OC→PB)}\label{tab:yuui2}\input{04table05.txt}\end{minipage}\end{table}\begin{table}[t]\caption{手法間の有意差(PB→OC)}\label{yuui-kekka3}\input{04table06.txt}\end{table}\begin{table}[t]\caption{手法間の有意差(OC→PB)}\label{yuui-kekka4}\input{04table07.txt}\end{table}結論的には提案手法とSVMとの正解率のマクロ平均の差はOCからPBの領域適応では有意だが,PBからOCの領域適応では有意ではない.ただし有意水準を0.10に緩和した場合には,PBからOCの領域適応でも有意であると言える.細かく手法を分けて調べた場合,トピックモデルを利用すること(SVM+TMとSVMの差)とk-NNを併用すること(提案手法とSVM+TMの差)についての有意性はまちまちであった.ただし有意水準を0.10に緩和した場合,トピックモデルを利用する手法についてPBからOCの領域適応以外の組み合わせについては全て有意性が認められた.
\section{考察}
\subsection{語義分布の違い}本論文では,WSDの領域適応は語義分布の違いの問題を解決するだけは不十分であることを述べた.NaiveBayesを利用して,この点を調べた.NaiveBayesの場合,以下の式で語義を識別する.\[\arg\maxP_S(c)P_S(x|c)\]ここで事前分布\(P_S(c)\)の代わりに領域\(T\)の訓練データから推定した\(P_T(c)\)を用いる.これは語義分布を正確に推定できたという仮定での仮想的な実験である.結果を\mbox{表\ref{gogibunpu}}に示す.\begin{table}[b]\caption{理想的語義分布の推定による識別}\label{gogibunpu}\input{04table08.txt}\end{table}全体として理想的な語義分布を利用すれば,正解率は改善されるが,効果はわずかしかない.またPBからOCの「前」やOCからPBの「見る」「持つ」は逆に精度が悪化している.更に理想的な語義分布を利用できたとしても,通常のSVMよりも正解率が劣っている.これらのことから,語義分布の正確な推定のみではWSDの領域適応の解決は困難であることがわかる.\subsection{トピックモデルの領域依存性の度合い}WSDにおいてデータスパースネスの問題の対処として,シソーラスを利用することは一般に行われてきている.LDAから得られるトピック\(z_i\)のもとで単語\(w\)が生起する確率\(p(w|z_i)\)は,単語のソフトクラスタリング結果に対応しており,これはLDAの処理対象となったコーパスに合ったシソーラスと見なせる.このためトピックモデルがWSDに利用できることは明らかである.ただしその具体的な利用方法は確立されていない.問題は2つある.1つはトピック素性の表現方法である.ここではハードタグを利用したが,ソフトタグの方が優れているという報告もある\cite{cai}.國井はハードタグとソフトタグの中間にあたるミドルソフトタグを提案している\cite{kunii}.いずれにしても,トピック素性の有効な表現方法はトピック数やコーパスの規模にも依存した問題であり,どういった表現方法で利用すれば良いかは未解決である.もう1つの問題はトピックモデルから得られるシソーラスの領域依存性の度合いである.本論文でもLDAから領域依存のトピックモデルが作成できることに着目してトピックモデルを領域適応の問題に利用した.ただし領域\(A\)のコーパスと領域\(B\)のコーパスがあった場合,各々のコーパスから各々の知識を獲得するよりも,両者のコーパスを合わせて両領域の知識を獲得した方が,一方のコーパスから得られる知識よりも優れていることがある.例えば森は単語分割のタスクにおいて,各々の領域のタグ付きデータを使うことで精度を上げることができたが,全ての領域のタグ付きデータを使えば更に精度を上げることができたことを報告している\cite{mori}.領域の知識を合わせることは,その知識をより一般的にしていることであり,領域依存の知識はあまり領域に依存しすぎるよりも,ある程度,一般性があった方がよいという問題と捉えられる.本実験で言えばPBのコーパスとOCのコーパスと両者を合わせて学習したトピックモデルは,各々のコーパスから学習したトピックモデルよりも優れている可能性がある.以下その実験の結果を\mbox{表\ref{bunruigoi}}に示す.\begin{table}[t]\caption{両領域コーパスを利用した識別}\label{bunruigoi}\input{04table09.txt}\end{table}ターゲット領域がPBの場合,ソース領域のOCのコーパスを追加することで正解率は低下するが,ターゲット領域がOCの場合,ソース領域のPBのコーパスを追加することで正解率が向上する.これはOC(Yahoo!知恵袋)のコーパスの領域依存が強いが,その一方で,PB(書籍)のコーパスの領域依存が弱く,より一般的であることから生じていると考える.一般性の高い領域に領域依存の強い知識を入れると性能が下がるが,より特殊な領域には,その領域固有の知識に一般的知識を組み入れることで性能が更に向上すると考えられる.これらの詳細な分析と対策は今後の課題である.\subsection{k~近傍法の効果とアンサンブル手法}本論文ではSVMでの識別の信頼度の低い部分をk~近傍法の識別結果に置き換えるという処理を行った.置き換えが起こったものだけを対象にして,k~近傍法とSVMでの正解数を比較した.結果を\mbox{表\ref{tab:change1}}と\mbox{表\ref{tab:change2}}に示す.PBからOCへの領域適応では「子供」,OCからPBへの領域適応では「入れる」についてはSVMの方がk~近傍法の方よりもよい正解率だが,それ以外はk~近傍法の正解率はSVMの正解率と等しいかそれ以上であった.つまりSVMで識別精度が低い部分に関しては,k~近傍法で識別する効果が確認できる.またk~近傍法の\(k\)をここでは\(k=1\)とした.この\(k\)の値を3や5に変更した実験結果を\mbox{図\ref{kekka3}}と\mbox{図\ref{kekka4}}に示す.\begin{table}[p]\begin{minipage}[t]{.45\textwidth}\caption{識別結果の変更(PB→OC)}\label{tab:change1}\input{04table10.txt}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{識別結果の変更(OC→PB)}\label{tab:change2}\input{04table11.txt}\end{minipage}\end{table}\begin{figure}[p]\begin{center}\includegraphics{20-5ia4f4.eps}\end{center}\caption{kによる変化(PB→OC)}\label{kekka3}\end{figure}複数の分類器を組み合わせて利用する学習手法をアンサンブル学習というが,本論文の手法もアンサンブル学習の一種と見なせる.k~近傍法自体は\(k=1\)よりも\(k=3\)や\(k=5\)の方が正解率が高いが,本手法のようにSVMの識別の信頼度の低い部分のみに限定すれば,\(k=1\)の\mbox{k~近傍法}を利用した方がよい.これはアンサンブル学習では高い識別能力の学習器を組み合わせるのではなく,互いの弱い部分を補強し合うような形式が望ましいことを示している.\begin{figure}[t]\begin{center}\includegraphics{20-5ia4f5.eps}\end{center}\caption{kによる変化(OC→PB)}\label{kekka4}\end{figure}
\section{おわりに}
本論文ではWSDの領域適応に対する手法を提案した.まずWSDの領域適応の問題を,以下の2つの問題に要約できることを示し,関連研究との位置づけを示した.\begin{itemize}\item領域間で語義の分布が異なる\item領域の変化によりデータスパースネスが生じる\end{itemize}次に上記の2つの問題それぞれに対処する手法を提案した.1点目の問題に対してはk~近傍法を補助的に用いること,2点目の問題に対してはトピックモデルを利用することである.BCCWJコーパスの2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行い,提案手法の有効性を示した.ただし領域はOCとPBに限定しており,提案手法が他の領域間で有効であるかは確認できていない.この点は今後の課題である.また領域の一般性を考慮したトピックモデルをWSDに利用する方法,およびWSDの領域適応に有効なアンサンブル手法を考案することも今後の課題である.\vspace{1\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{blei}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQ{Latentdirichletallocation}.\BBCQ\\newblock{\BemMachineLearningReseach},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Boyd-Graber\BBA\Blei}{Boyd-Graber\BBA\Blei}{2007}]{boyd2}Boyd-Graber,J.\BBACOMMA\\BBA\Blei,D.\BBOP2007\BBCP.\newblock\BBOQ{Putop:TurningPredominantSensesintoaTopicModelforWordSenseDisambiguation}.\BBCQ\\newblockIn{\BemProceedingsofSemEval-2007},\mbox{\BPGS\277--281}.\bibitem[\protect\BCAY{Boyd-Graber,Blei,\BBA\Zhu}{Boyd-Graberet~al.}{2007}]{boyd1}Boyd-Graber,J.,Blei,D.,\BBA\Zhu,X.\BBOP2007\BBCP.\newblock\BBOQ{ATopicModelforWordSenseDisambiguation}.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-CoNLL-2007},\mbox{\BPGS\1024--1033}.\bibitem[\protect\BCAY{Cai,Lee,\BBA\Teh}{Caiet~al.}{2007}]{cai}Cai,J.~F.,Lee,W.~S.,\BBA\Teh,Y.~W.\BBOP2007\BBCP.\newblock\BBOQ{ImprovingWordSenseDisambiguationusingTopicFeatures}.\BBCQ\\newblockIn{\BemProceedingsofEMNLP-CoNLL-2007},\mbox{\BPGS\1015--1023}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2005}]{chan2005word}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithDistributionEstimation.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-2005},\mbox{\BPGS\1010--1015}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{chan2006estimating}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingclasspriorsindomainadaptationforwordsensedisambiguation.\BBCQ\\newblockIn{\BemProceedingsofCOLING-ACL-2006},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2007}]{chan2007domain}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQDomainadaptationwithactivelearningforwordsensedisambiguation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Chapelle,Sch{\"o}lkopf,\BBA\Zien}{Chapelleet~al.}{2006}]{chapelle2006semi}Chapelle,O.,Sch{\"o}lkopf,B.,\BBA\Zien,A.\BBOP2006\BBCP.\newblock{\BemSemi-supervisedlearning},\lowercase{\BVOL}~2.\newblockMITpressCambridge.\bibitem[\protect\BCAY{Dai,Yang,Xue,\BBA\Yu}{Daiet~al.}{2007}]{Dai2007}Dai,W.,Yang,Q.,Xue,G.-R.,\BBA\Yu,Y.\BBOP2007\BBCP.\newblock\BBOQBoostingfortransferlearning.\BBCQ\\newblockIn{\BemProceedingsofICML-2007},\mbox{\BPGS\193--200}.\bibitem[\protect\BCAY{{Daum\'{e},H.~III}}{{Daum\'{e},H.~III}}{2007}]{daume0}{Daum\'{e},H.~III}\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{{Daum{\'e},H.~III}\BBA\Marcu}{{Daum{\'e},H.~III}\BBA\Marcu}{2006}]{daume2006domain}{Daum{\'e},H.~III}\BBACOMMA\\BBA\Marcu,D.\BBOP2006\BBCP.\newblock\BBOQDomainadaptationforstatisticalclassifiers.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf26}(1),\mbox{\BPGS\101--126}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jiang2007instance}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceweightingfordomainadaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{Kamishima,Hamasaki,\BBA\Akaho}{Kamishimaet~al.}{2009}]{kamishima2009trbagg}Kamishima,T.,Hamasaki,M.,\BBA\Akaho,S.\BBOP2009\BBCP.\newblock\BBOQTrbagg:Asimpletransferlearningmethodanditsapplicationtopersonalizationincollaborativetagging.\BBCQ\\newblockIn{\BemProceedingsofthe9thIEEEInternationalConferenceonDataMining},\mbox{\BPGS\219--228}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{kamishima}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\\newblock\Jem{人工知能学会誌},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{古宮\JBA奥村}{古宮\JBA奥村}{2012}]{komiya-nlp2012}古宮嘉那子\JBA奥村学\BBOP2012\BBCP.\newblock語義曖昧性解消のための領域適応手法の決定木学習による自動選択.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\143--166}.\bibitem[\protect\BCAY{古宮\JBA小谷\JBA奥村}{古宮\Jetal}{2013}]{komiya-nenji2013}古宮嘉那子\JBA小谷善行\JBA奥村学\BBOP2013\BBCP.\newblock語義曖昧性解消の領域適応のための訓練事例集合の選択.\\newblock\Jem{{言語処理学会第19回年次大会発表論文集}},\mbox{\BPGS\C6--2}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{komiya3}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQ{AutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationusingDecisionTreeLearning}.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP-2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2012}]{komiya2}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2012\BBCP.\newblock\BBOQ{AutomaticDomainAdaptationforWordSenseDisambiguationBasedonComparisonofMultipleClassifiers}.\BBCQ\\newblockIn{\Bem{ProceedingsofPACLIC-2012}},\mbox{\BPGS\75--85}.\bibitem[\protect\BCAY{國井\JBA新納\JBA佐々木}{國井\Jetal}{2013}]{kunii}國井慎也\JBA新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockミドルソフトタグのトピック素性を利用した語義曖昧性解消.\\newblock\Jem{{言語処理学会第19回年次大会発表論文集}},\mbox{\BPGS\P3--9}.\bibitem[\protect\BCAY{Li,Roth,\BBA\Sporleder}{Liet~al.}{2010}]{li}Li,L.,Roth,B.,\BBA\Sporleder,C.\BBOP2010\BBCP.\newblock\BBOQ{TopicModelsforWordSenseDisambiguationandToken-basedIdiomDetection}.\BBCQ\\newblockIn{\BemProceedingsofACL-2010},\mbox{\BPGS\1138--1147}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2007}]{bccwj}Maekawa,K.\BBOP2007\BBCP.\newblock\BBOQ{DesignofaBalancedCorpusofContemporaryWrittenJapanese}.\BBCQ\\newblockIn{\Bem{ProceedingsoftheSymposiumonLarge-ScaleKnowledgeResources(LKR2007)}},\mbox{\BPGS\55--58}.\bibitem[\protect\BCAY{森}{森}{2012}]{mori}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\\newblock\Jem{人工知能学会誌},{\Bbf27}(4),\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task:JapaneseWSD}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponSemanticEvaluation}},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Rai,Saha,{Daum{\'e},H.~III},\BBA\Venkatasubramanian}{Raiet~al.}{2010}]{rai2010domain}Rai,P.,Saha,A.,{Daum{\'e},H.~III},\BBA\Venkatasubramanian,S.\BBOP2010\BBCP.\newblock\BBOQDomainadaptationmeetsactivelearning.\BBCQ\\newblockIn{\BemProceedingsoftheNAACLHLT2010WorkshoponActiveLearningforNaturalLanguageProcessing},\mbox{\BPGS\27--32}.\bibitem[\protect\BCAY{Rosenstein,Marx,Kaelbling,\BBA\Dietterich}{Rosensteinet~al.}{2005}]{rosenstein2005transfer}Rosenstein,M.~T.,Marx,Z.,Kaelbling,L.~P.,\BBA\Dietterich,T.~G.\BBOP2005\BBCP.\newblock\BBOQTotransferornottotransfer.\BBCQ\\newblockIn{\BemProceedingsoftheNIPS2005WorkshoponInductiveTransfer:10YearsLater},\lowercase{\BVOL}~2,\mbox{\BPG~7}.\bibitem[\protect\BCAY{Settles}{Settles}{2010}]{settles2010active}Settles,B.\BBOP2010\BBCP.\newblock\BBOQActiveLearningLiteratureSurvey.\BBCQ\\newblock\BTR,UniversityofWisconsin,Madison.\bibitem[\protect\BCAY{Shimodaira}{Shimodaira}{2000}]{shimodaira2000improving}Shimodaira,H.\BBOP2000\BBCP.\newblock\BBOQImprovingpredictiveinferenceundercovariateshiftbyweightingthelog-likelihoodfunction.\BBCQ\\newblock{\BemJournalofstatisticalplanningandinference},{\Bbf90}(2),\mbox{\BPGS\227--244}.\bibitem[\protect\BCAY{杉山}{杉山}{2006}]{sugiyama-2006-09-05}杉山将\BBOP2006\BBCP.\newblock共変量シフト下での教師付き学習.\\newblock\Jem{日本神経回路学会誌},{\Bbf13}(3),\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{齋木\JBA高村\JBA奥村}{齋木\Jetal}{2008}]{saiki-2008-03-27}齋木陽介\JBA高村大也\JBA奥村学\BBOP2008\BBCP.\newblock文の感情極性判定における事例重み付けによるドメイン適応.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2008}(33),\mbox{\BPGS\61--67}.\end{thebibliography}\vspace{1\Cvs}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.\pagebreak2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V23N01-04
|
\section{はじめに}
最新の機械翻訳システムは,年々精度が向上している反面,システムの内部は複雑化しており,翻訳システムの傾向は必ずしも事前に把握できるわけではない.このため,システムによってある文章が翻訳された結果に目を通すことで,そのシステムに含まれる問題点を間接的に把握し,システム同士を比較することが広く行われている.このように,単一システムによって発生する誤りの分析や,各システムを比較することは,各システムの利点や欠点を客観的に把握し,システム改善の手段を検討することに役立つ.ところが,翻訳システムの出力結果を分析しようとした際,機械翻訳の専門家である分析者は,システムが出力した膨大な結果に目を通す必要があり,その作業は労力がかかるものである.この問題を解決するために,機械翻訳の誤り分析を効率化する手法が提案されている\cite{popovic2011towards,kirchhoff2007semi,fishel2011automatic,elkholy11morphologicallyrich}.この手法の具体的な手続きとして,機械翻訳結果を人手により翻訳された参照訳と比較し,機械翻訳結果のどの箇所がどのように誤っているかを自動的にラベル付けする.さらに,発見した誤りを既存の誤り体系\cite{flanagan1994error,vilar2006error}に従って「挿入・削除・置換・活用・並べ替え」のように分類することで,機械翻訳システムの誤り傾向を自動的に捉えることができる.\textcolor{black}{しかし,このような自動分析で誤りのおおよその傾向をつかめたとしても,機械翻訳システムを改善する上で,詳細な翻訳誤り現象を把握するためには,人手による誤り分析が欠かせない.}\textcolor{black}{ところが,先行研究と同じように,参照文と機械翻訳結果を比較して差分に基づいて誤りを集計する手法で詳細な誤り分析を行おうとした際に,問題が発生する.具体的には,機械翻訳結果と参照訳の文字列の不一致箇所を単純な方法でラベル付けすると,人間の評価と一致しなくなる場合がある.つまり,機械翻訳結果が参照訳と同様の意味でありながら表層的な文字列が異なる換言の場合,先行研究では不一致箇所を誤り箇所として捉えてしまう.このような誤った判断は,誤り分析を効率化する上で支障となる.}\textcolor{black}{本研究では,前述の問題点を克服し,機械翻訳システムの誤りと判断されたものの内,より誤りの可能性が高い箇所を優先的に捉える手法を提案する.}図\ref{fig:scoring-ex}に本研究の概略を示す.まず,対訳コーパスに対して翻訳結果を生成し,翻訳結果と参照訳を利用して誤り分析を優先的に行うべき箇所を選択する.次に,重点的に選択された箇所を中心に人手により分析を行う.誤りの可能性が高い箇所を特定するために,機械翻訳結果に含まれる$n$-gramを,誤りの可能性の高い順にスコア付けする手法を提案する(\ref{sec:scoring}節).また,誤りかどうかの判断を単純な一致不一致より頑健にするために,与えられた機械翻訳結果と正解訳のリストから,機械翻訳文中の各$n$-gramに対して誤りらしさと関係のあるスコア関数を設計する.設計されたスコア関数を用いることで,誤り$n$-gramを誤りらしさに基づいて並べ替えることができ,より誤りらしい箇所を重点的に分析することが可能となる.単純にスコアに基づいて選択を行った場合,正解訳と一致するような明らかに正しいと考えられる箇所を選択してしまう恐れがある.この問題に対処するため,正解訳を利用して誤りとして提示された箇所をフィルタリングする手法を提案し,選択精度の向上を図る(\ref{sec:filtering}節).\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f1.eps}\end{center}\caption{本研究の流れ図}\label{fig:scoring-ex}\vspace{-0.5\Cvs}\end{figure}実験では,まず\ref{sec:manual-analysis-result}節〜\ref{sec:auto-analysis-result}節で提案法の誤り箇所選択精度の測定を行い,単一システムの分析,及びシステム間比較における有効性の検証を行う.実験の後半では,提案法の課題を分析し(\ref{sec:selection-error-analysis}節),提案法を機械翻訳システムの改善に使用した場合の効果について検討を行う(\ref{sec:act-error-analysis}節).
\section{機械翻訳の自動評価と問題点}
\label{sec:analysis}本節では,従来から広く行われている機械翻訳の自動評価について説明し,その問題点を明らかにする.\subsection{評価の手順}機械翻訳システムに「原文$\boldsymbol{f}$」を与えることで,「機械翻訳結果$\boldsymbol{e}$」が得られたとする.評価方法として「自動評価尺度」を用いる場合,事前に人手により翻訳された「参照訳$\boldsymbol{r}$」を与える.自動評価尺度は,機械翻訳結果$\boldsymbol{e}$と参照訳$\boldsymbol{r}$の差異に基づき機械翻訳結果の良し悪しをスコアとして計算するものである\cite{papineni02bleu,doddington02nistmetric,banerjee05meteor}.また,「品質推定」と呼ばれる技術は,参照訳を利用せずに評価を行う.具体的には,誤りのパターンを学習したモデルによって機械翻訳文の精度を推定することや\cite{specia09qualityestimation},翻訳結果の精度を部分的に評価することが行われている\cite{bach11goodness}.自動評価尺度を利用する場合は参照訳を用意する必要があるが,翻訳精度の計算を翻訳システムに依らず一貫して行える利点がある.一方,品質推定は参照訳を必要としない分,翻訳精度を正しく推定することが比較的困難である.本研究は,参照訳が与えられた状況で機械翻訳の誤り分析を行う場合を対象とする.\subsection{代表的な自動評価尺度}機械翻訳の自動評価尺度は,様々なものが提案されており,尺度ごとに異なった特徴がある.BLEU\cite{papineni02bleu}は機械翻訳の文章単位の自動評価尺度として最も一般的に使われるものであり,参照訳$\boldsymbol{r}$と機械翻訳結果$\boldsymbol{e}$の間の$n$-gramの一致率に基づきスコアを計算する.機械翻訳結果と参照訳が完全に一致すれば1となり,異なりが多くなるに連れて0に近くなる.BLEUを文単位の評価に対応させたものにBLEU+1\cite{lin04orange}がある.BLEUやBLEU+1は,$\boldsymbol{e}$と$\boldsymbol{r}$の表層的な文字列の違いにしか着目しないため,$\boldsymbol{e}$が$\boldsymbol{r}$の換言である場合にスコアが不当に低くなる場合がある\footnote{BLEUやBLEU+1を用いる場合,複数の異なった言い回しの参照訳を与えることで,複数の言い回しに対応した評価が行える.}.BLEUとは異なり,評価尺度自体が換言に対応したものに,METEOR\cite{banerjee05meteor}がある.METEORを利用する場合,単語やフレーズの換言を格納したデータベースを事前に用意しておく.これにより,参照訳と機械翻訳結果の$n$-gramが一致しない場合であっても,データベース中に含まれる換言を利用することで一致する場合,スコアの低下を小さくすることが可能となる.\subsection{自動評価の課題}\begin{table}[b]\caption{機械翻訳の誤訳の例}\label{tab:wrong-trans}\input{04table01.txt}\vspace{4pt}\small文脈から``right''は「正しい」と訳すべきだが「右」と訳されている.また``choose''に相当する語句が機械翻訳結果では削除されている.\end{table}表\ref{tab:wrong-trans}に,英日翻訳における原文,機械翻訳結果,参照訳の例を示す.機械翻訳システムとして,句構造に基づく機械翻訳システムを利用した.自動評価尺度の一例として,BLEU+1スコアを示す.また,図\ref{fig:wrong-trans-t2s}はシステムが翻訳結果を出力した際の導出過程の一部である.自動評価尺度を用いることで,翻訳システムの性能を数値で客観的に比較することが可能であるが,この例から自動評価尺度に頼り切ることの危険性も分かる.前節で述べたように,自動評価尺度は人間の評価と必ずしも一致しない評価を行う場合がある.表\ref{tab:wrong-trans}の例では,``Forthisreason''が機械翻訳で「このため」と正しく翻訳されているが,参照訳では「それゆえ」と翻訳されているため,文字列の表層的な違いにしか着目しないBLEU+1では誤訳と判断されて,スコアが不当に低くなる.METEORを用いた場合,換言によるスコアの低下は発生しにくくなるが,逆に誤った換言が使用され,スコアが不当に高くなることも考えられる.自動評価尺度は,機械翻訳結果の正確さを判断する上で有用であるが,その結果からシステムの特徴を把握することは困難である.しかし,このように翻訳結果に目を通すことで,自動評価尺度の数値だけからは分からない情報を把握することが可能となる.\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f2.eps}\end{center}\caption{機械翻訳システムの導出過程の例}\smallこの文脈で形容詞(JJ)``right''を「右」と訳すのは誤りである.また動詞(VB)``choose''を削除する規則をここで使用することも誤りである.\label{fig:wrong-trans-t2s}\end{figure}
\section{スコアに基づく誤り候補$\boldsymbol{n}$-gramの順位付け}
\label{sec:scoring}\textcolor{black}{機械翻訳の誤り箇所を自動的に提示する際に,単純に誤り箇所を列挙するのではなく,より誤りの可能性が高い箇所から順に示すことができれば,後の人手による誤り分析の効率が上がると考えられる.}本節では,機械翻訳結果に含まれる$n$-gramに対して,分析の優先度に対応するスコアを与える手法を提案する.分析者はこのスコアを参考にし,最初に分析する箇所を決定する.図\ref{fig:scoring-ex-part}に$n$-gramのスコアに基づく誤り分析の例を示す.この例では,提案法によって\textbf{い.」}が最も優先的に分析すべき$n$-gramと判断されているため,最初に機械翻訳結果全体からこの$n$-gramが含まれる箇所を見つけ,誤り分析をする.分析が終了したら,次に優先度の高い\textbf{れるが}を,最後に\textbf{られる。}を分析する.ある$n$-gramを提示した際に,もし分析者が機械翻訳の誤りでない箇所を分析対象としてしまうと,余計な分析作業を行うこととなり,分析効率が低下する原因となる.このため,効率的な誤り分析が行われるためには,最初に提示される$n$-gramほどシステムの特徴的な誤りを捉えていることが望ましい.\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f3.eps}\end{center}\caption{$n$-gramのスコアに基づく誤り分析}\label{fig:scoring-ex-part}\end{figure}\subsection{正解訳を用いた$\boldsymbol{n}$-gramのスコア計算法}本節では,このようなスコア付けを行う手法を5つ説明する.そのうち,2つ(ランダム選択と誤り頻度に基づく選択)はベースラインであり,3つ(自己相互情報量に基づく選択,平滑化された条件付き確率に基づく選択,識別言語モデルの重みに基づく選択)は提案法である.まず,すべての手法に共通する以下の関数を定義する.\begin{description}\item[$\boldsymbol{\phi}(\boldsymbol{e})$:]文$\boldsymbol{e}$に対する素性ベクトル.各要素は文$\boldsymbol{e}$に含まれる$n$-gramの出現頻度.\item[$\boldsymbol{e}_{MT}(n)$:]コーパス中の$n$番目の文に対応する機械翻訳結果.\item[$\boldsymbol{e}_{C}(n)$:]コーパス中の$n$番目の文に対応する正解訳(\ref{sec:score-correct-trans}節で定義).\end{description}これらの関数を利用し,次節以降で述べるスコア関数に従って,コーパス全体から$n$-gramのスコアを計算する.\subsubsection{ランダム選択}ランダム選択は,$n$-gramの順位付けを一切行わずに誤り分析を進めることに等しい.\ref{sec:filtering}章で誤り候補のフィルタリングの説明を行うが,フィルタリングを一切行わない場合はチャンスレートとなる.また,ランダム選択と参照訳を用いた厳密一致フィルタリングを組み合わせた場合は,先行研究\cite{popovic2011towards}で提案されている参照訳との差分に基づく分析となる.\subsubsection{誤り頻度に基づく選択}誤り頻度に基づく手法は,機械翻訳結果に多く含まれ,正解訳に含まれない回数が多い$n$-gramは重点的に分析すべきという考え方に基づく.$n$-gramのスコア計算では,ある$n$-gram$x$が機械翻訳結果$\boldsymbol{e}_{MT}(n)$に含まれていて,かつ正解訳$\boldsymbol{e}_{C}(n)$に含まれていない回数を計算し,スコアとする.\begin{equation}S(x)=-\sum_n\left[\phi_x(\boldsymbol{e}_{MT}(n))-\phi_x(\boldsymbol{e}_{C}(n))\right]_+\label{eqn:freq}\end{equation}ここで$[~]_+$はヒンジ関数である.このスコアが低い$n$-gramから順に選択することで,誤って出現した回数が多い$n$-gramを優先的に分析することとなる.しかし,頻繁に発生する誤りが必ずしも分かりやすく有用な誤りとは限らない.表\ref{tab:commonerrors}は,ある英日機械翻訳システムが出力した翻訳結果に含まれ,参照訳には含まれなかった$n$-gramを,回数が多いものから順に一覧にしたものである.この表で,右側の数字はテストコーパス内で誤って出現した回数を示している.この表を見ると,単純に頻繁に検出される誤りは目的言語に頻繁に出現するものに支配されており,この結果だけからは翻訳システムの特徴を把握しにくいことが分かる.\begin{table}[t]\caption{機械翻訳で頻繁に起こる誤り}\label{tab:commonerrors}\input{04table02.txt}\end{table}\subsubsection{自己相互情報量に基づく選択}誤り頻度に基づいて$n$-gramの選択を行った場合,表\ref{tab:commonerrors}に示したように誤りとして検出されるものの多くは単純に目的言語の特徴を捉えたものとなってしまう.本研究ではこの問題に対処するため,出現頻度より正しく,ある$n$-gramが誤った文の特徴であるかどうかを判断する手法を提案する.最初のスコア付け基準として,自己相互情報量(PMI:PointwiseMutualInformation)に基づく手法を提案する.PMIは,2つの事象の関係性を計る尺度であり,本研究では与えられた$n$-gramと機械翻訳結果との関係性をスコアとして定式化する.機械翻訳結果と関係が強い$n$-gramは,正解訳との関係は逆に弱くなる.PMIは以下の式によって計算される\cite{churchhanks90pmi}.\begin{align*}PMI(x,\boldsymbol{e}_{MT})&=\log\frac{p(\boldsymbol{e}_{MT},x)}{p(\boldsymbol{e}_{MT})\cdotp(x)}\\&=\log\frac{p(\boldsymbol{e}_{MT}|x)}{p(\boldsymbol{e}_{MT})}\end{align*}ここで,各原文につき機械翻訳結果と正解訳が1つずつ与えられるため,$p(\boldsymbol{e}_{MT})=1/2$である.条件付き確率$p(\boldsymbol{e}_{MT}|x)$は以下の式で計算される.\[p(\boldsymbol{e}_{MT}|x)=\frac{\sum_n\phi_x(\boldsymbol{e}_{MT}(n))}{\sum_n\{\phi_x(\boldsymbol{e}_{MT}(n))+\phi_x(\boldsymbol{e}_{C}(n))\}}\]最終的に,自己相互情報量の期待値に比例する以下の値をスコアとし,スコアが低いものから順に$n$-gramを選択する.\begin{align}S(x)&=\phi_x(\boldsymbol{e}_{MT}(n))\cdot(-PMI(x,\boldsymbol{e}_{MT}))\\&\proptop(x,\boldsymbol{e}_{MT})\cdot(-PMI(x,\boldsymbol{e}_{MT}))\nonumber\end{align}\subsubsection{平滑化された条件付き確率に基づく選択}「誤り頻度に基づく選択」では,目的言語に頻繁に出現する$n$-gramが分析対象の上位を占めてしまう問題があった.そこで,2つ目のスコア付け基準は,誤り頻度を全体の出現回数で正規化し,条件付き確率として定式化することを考える.平滑化された条件付き確率に基づく選択では,ある$n$-gramがシステム出力に含まれながら参照文に含まれない確率をスコアとし,このスコアが高いものを優先的に分析する.まず,以下の関数を定義する.\begin{align*}F_{MT}(x)&=\sum_n\left[\phi_x(\boldsymbol{e}_{MT}(n))-\phi_x(\boldsymbol{e}_{C}(n))\right]_+\\F_{C}(x)&=\sum_n\left[\phi_x(\boldsymbol{e}_{C}(n))-\phi_x(\boldsymbol{e}_{MT}(n))\right]_+\end{align*}ここで,$F_{MT}(x)$は誤り頻度に基づく選択で利用した式(\ref{eqn:freq})に等しい.また,$F_{C}(x)$は$n$-gramが正解訳により多く出現した回数を表す.ある$n$-gramを選択した際,その$n$-gramが正解訳に多く含まれる条件付き確率は以下の通りである.\begin{equation}p(\boldsymbol{e}_{MT}|x)=\frac{F_{MT}(x)}{F_{MT}(x)+F_{C}(x)}\end{equation}しかし,確率を最尤推定で計算すると,正解訳として出現せず,機械翻訳結果に1回しか出現しないような稀な$n$-gramの確率が1となり,頻繁に選択されてしまう.上述の問題点を解決するために,確率の平滑化を行う.文献\cite{mackay95hdlm}では平滑化の手法としてディリクレ分布を事前分布として確率を推定しており,本手法もこれに習う.平滑化を用いた際の$n$-gram$x$についての評価関数は式(\ref{eqn:dirichlet})の通りであり,$S(x)$が低いものを代表的な$n$-gramとする.\begin{equation}S(x)=-\frac{F_{MT}(x)+\alphaP_{MT}}{F_{MT}(x)+F_{C}(x)+\alpha}\label{eqn:dirichlet}\end{equation}ただし,\[P_{MT}=\frac{\sum_xF_{MT}(x)}{\sum_xF_{MT}(x)+\sum_xF_{C}(x)}\]このとき平滑化係数$\alpha$を決定する必要がある.$n$-gramを利用して参照文もしくはシステム出力文を選択する際,選択される文の種類がディリクレ過程に従うと仮定すると,コーパス全体に対する尤度は式(\ref{eqn:dirichlet2})で表される.\begin{equation}P=\prod_x\frac{\{\prod_{k=0}^{F_{MT}(x)-1}(k+\alphaP_{MT})\}\{\prod_{k=0}^{F_{C}(x)-1}(k+\alphaP_{C})\}}{\prod_{k=0}^{F_{MT}(x)+F_{C}(x)}(k+\alpha)}\label{eqn:dirichlet2}\end{equation}式(\ref{eqn:dirichlet2})の$P$が最大化されるような$\alpha$をパラメーターとする.\pagebreak$P$は全区間で微分可能であり,唯一の極があるとき,その点で最大値となる.よって$\alpha$は$P$の微分からニュートン法により計算できる.\subsubsection{識別言語モデルの重みに基づく選択}最後に,識別言語モデルの重みに基づくスコア付け基準を提案する.識別言語モデルは,自然な出力言語文の特徴を捉えるように学習される通常の言語モデルとは異なり,ある特定のシステムについて,起こりやすい出力誤りを修正するように学習される.さらに学習時に正則化を行えば,モデルのサイズが小さくなり,少ない修正で出力を改善するような効率的な修正パターンが学習される.誤り分析の観点から見ると,モデルによって学習された効率的な修正パターンに目を通せば,システムの特徴的な誤りを発見できると考えられる.\begin{algorithm}[b]\caption{構造化パーセプトロンによる識別言語モデルの学習}\label{alg:s-perceptron}\begin{algorithmic}\FOR{$t=1$\TO$T$}\FOR{$n=1$\TO$N$}\STATE$E^*\leftarrow\argmax_{E\in\boldsymbol{\hatE}(n)}EV(E)$\STATE$\hat{E}\leftarrow\argmax_{E\in\boldsymbol{\hatE}(n)}\boldsymbol{w}\cdot\boldsymbol{\phi}(E)$\STATE$\boldsymbol{w}\leftarrow\boldsymbol{w}+\boldsymbol{\phi}(E^*)-\boldsymbol{\phi}(\hat{E})$\ENDFOR\ENDFOR\end{algorithmic}\end{algorithm}\vspace{1\Cvs}\noindent\textbf{○構造化パーセプトロンによる識別言語モデル}識別言語モデルの学習は構造学習の一種である.先行研究では,構造学習の最も単純な手法である構造化パーセプトロン\cite{collins02structuredperceptron}を,識別言語モデルの学習において有用な手法であると示している\cite{roark07discriminative}.構造化パーセプトロンでは,\textcolor{black}{候補集合の中で誤りの修正先として学習される目標$E^*$を定める.本研究では目標として,機械翻訳結果の$n$-bestの中で評価尺度が最も高かった文(オラクル訳,\ref{sec:score-correct-trans}節参照)を選択する.学習では,}モデルによって最も大きなスコアが与えられる現在の仮説$\hat{E}$と$E^*$の素性列を比較する.1回の更新において,$\hat{E}$と$E^*$の差分を用いて重み$\boldsymbol{w}$を更新する.重みが更新されると,重みと素性列から計算されるスコアが変化し,仮説$\hat{E}$が更新される.$\hat{E}$と$E^*$が等しいときは差分が$\boldsymbol{0}$のため更新を行わない.重みの更新はコーパス全体に対して一文ごとに逐次的に行い,反復回数や重みの収束といった終了条件が満たされるまで反復する.学習のアルゴリズムをAlgorithm~\ref{alg:s-perceptron}に示す.ここで,$\boldsymbol{\hatE}(n)$は$n$番目の文に対応する機械翻訳結果の$n$-bestリスト,$T$は反復回数である.また,$EV(E)$は機械翻訳結果$E$の翻訳精度を評価するための自動評価尺度である.\vspace{1\Cvs}\noindent\textbf{○L1正則化による素性選択}\label{sec:l1}機械翻訳システムの誤り傾向をより明確にするため,重みの学習時にL1正則化を行う.L1正則化は,重みベクトルに対してL1ノルム$\|\boldsymbol{w}\|_1=\sum_i|w_i|$に比例するペナルティを与える.L1正則化を用いる時に,重み$\boldsymbol{w}$の中で多くの素性に対応するものが0となるため,識別能力に大きな影響を与えない素性をモデルから削除することが可能となる.L1正則化された識別モデルを学習する簡単かつ効率的な方法として,前向き後ろ向き分割(forward-backwardsplitting;FOBOS)アルゴリズムがある\cite{duchi09fobos}.一般的なパーセプトロンでは正則化を重みの更新時に行うが,FOBOSでは重みの更新と正則化の処理を分割し,重みの利用時に前回からの正則化分をまとめて計算し,効率化を図る.\vspace{1\Cvs}\noindent\textbf{○識別言語モデルの素性}識別言語モデルの素性として様々な情報を利用できるが,本研究では$n$-gramに基づく選択を行うため,以下の3種類の素性を利用する.\begin{description}\item[翻訳仮説を生成したシステムのスコア:]システム出力を修正するように学習するため,学習の初期においてシステムスコアによる順位付けが必要である.\item[翻訳仮説に含まれる$\boldsymbol{n}$-gramの頻度:]$n$-gramに対して重み付けをすることで,システムが出力する誤った$n$-gramを捉える.\item[翻訳仮説の単語数:]翻訳システムが利用する評価尺度が単語数によって大きく影響される場合,単語数を調整するのに用いられる.\end{description}$n$-gramの選択時には,識別言語モデルによって学習された重みが低いものを優先的に選択する.\subsection{スコア計算に用いる正解訳$\boldsymbol{e_{C}(n)}$の選択}\label{sec:score-correct-trans}機械翻訳の評価では,正解訳として事前に人手で翻訳された参照訳を利用することが多い.しかし参照訳は機械翻訳とは独立に翻訳されるため,使用する語彙が機械翻訳結果とは異なる場合が多いと考えられる.本研究では参照訳の代わりに,機械翻訳システムが出力した翻訳候補の中で,自動評価尺度により最も高いスコアが与えられた文(オラクル訳)を正解訳として利用し,参照訳を用いた場合との比較を行う.表\ref{tab:oracle-ex}にオラクル訳の例を示す.この例では,日本語の「宗派」が機械翻訳結果で``sect''と正しく翻訳されているが,参照訳では``school''となっているため,差分を取ると誤り$n$-gramとして選択されやすくなってしまう.オラクル訳は機械翻訳システムの探索空間の中で,参照訳の表現に最も近い文であるため,訳出に近い表現を維持しながら正しい翻訳に近づく.この場合,誤りでない``sect''がオラクル訳でも使用されているため,差分をとった際に誤り$n$-gramとして扱われにくくなる.このように,オラクル訳は翻訳仮説と同じシステムから出力されるため,オラクル訳は参照訳に比べて翻訳仮説との表層的な異なりが少なくなり,\textcolor{black}{換言を誤り$n$-gramとして誤選択する}可能性が低くなると考えられる.一方,オラクル訳は機械翻訳システムから出力されている以上,誤訳を含む場合もあることに注意されたい.\begin{table}[t]\caption{オラクル訳の例}\label{tab:oracle-ex}\input{04table03.txt}\end{table}
\section{誤り候補$\boldsymbol{n}$-gramのフィルタリング}
\label{sec:filtering}$n$-gramに基づく誤り箇所選択では,$n$-gramのスコアはコーパス全体から計算される.このため,コーパス全体を見た際に分析すべきと判断された$n$-gramであっても,ある特定の文では誤りとは考えにくい場合がある.本節では,選択された箇所に対してフィルタリングを適用することにより誤選択を回避し,機械翻訳の誤り箇所選択率の向上を行う.\subsection{厳密一致フィルタリング}このフィルタリングは,機械翻訳結果中のある$n$-gramが誤り箇所として選択された際に,その$n$-gramが\textcolor{black}{正解訳の一部に厳密一致するかどうかを確認し,一致する場合は}選択を行わないようにする.フィルタリングの具体例を表\ref{tab:exact-filter}に示す.$n$-gram「、右」が誤り箇所の候補とされた際,1つ目の例では機械翻訳結果の一致箇所が選択されるが,2つ目の例では正解訳に同一の$n$-gramがあるため,誤り箇所の候補から除外される.これは,正解訳に含まれている文字列は翻訳誤りではないだろうという直感に基づく.\subsection{換言によるフィルタリング}機械翻訳結果と正解訳の文字列が,表層的に異なりながら意味が等しい場合,厳密一致フィルタリングを用いただけでは選択された箇所が正解訳に含まれず,誤選択を回避することができない.この問題を解決するため,本研究では正解訳の換言を用いたフィルタリングを行う.換言によるフィルタリングの例を図\ref{fig:para-ref}に示す.正解訳として``Idon'tlikeIT!''が与えられている中,機械翻訳結果が``Ilikeinformationtechnology!''となり,``likeinformation''が誤りの候補として挙げられたとする.換言によるフィルタリングでは,まず正解訳に含まれる全ての部分単語列を用意した換言データベースの中から検索し,ある閾値以上の確率で置換可能な換言を抽出する.次に,抽出された換言を利用して参照訳のパラフレーズラティス\cite{onishi10paraphrase}を構築する.最後にラティス上を探索し,誤りの候補として挙げられた$n$-gram``likeinformation''が見つかった場合は,この$n$-gramを誤りの候補から除外する.\begin{table}[t]\setlength{\fboxsep}{0.1em}\caption{厳密一致フィルタリングの例}\label{tab:exact-filter}\input{04table04.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f4.eps}\end{center}\caption{パラフレーズラティスによる誤り箇所候補のフィルタリング}\label{fig:para-ref}\end{figure}\subsection{フィルタリングに用いる正解訳の選択}\ref{sec:score-correct-trans}節で,スコア計算に用いる正解訳として参照訳またはオラクル訳を利用するが,フィルタリングの際にも正解訳として\textcolor{black}{参照訳のみ用いた場合と,参照訳に加えてオラクル訳を用いた場合で比較を行う}.オラクル訳の選択では,機械翻訳の自動評価尺度を用いるが,本研究では以下の2つの評価尺度で選択を行った場合の比較を行う.\begin{description}\item[BLEU+1:]機械翻訳の自動評価に一般的に用いられる尺度であるBLEUを,文単位の評価に対応させたもの.換言を考慮しない.\item[METEOR:]BLEU+1は,参照訳と機械翻訳結果の表層的な文字列の違いにしか着目しないため,換言に対して不当な罰則を行ってしまう.METEORは事前に与えられた換言テーブルを用いるため,換言に対する罰則がBLEU+1に比べて小さくなる.METEORを用いた場合,BLEU+1を用いた場合に比べ,オラクル訳と参照訳の違いは表層的に多くなると考えられるが,逆に機械翻訳結果との表層的な違いが少なくなり,換言の誤選択が発生しにくくなると考えられる.\end{description}
\section{実験}
\label{sec:experiments}本節では,各実験を通して,提案法を利用することで機械翻訳の誤り分析をより効率的に行えることを示す.まず,各スコア基準に従って単一の機械翻訳システム(\ref{sec:pr-curve}節)及び複数の機械翻訳システム(\ref{sec:system-comparison}節)の誤り箇所選択を行い,人手評価を行う.これにより,提案法の選択精度とシステム間比較における有効性を検証する.次に,誤りとして選択された箇所のフィルタリングを複数の手法によって行い,フィルタリングの効果を自動評価によって測定する(\ref{sec:auto-analysis-result}節).さらに,提案法が翻訳誤りでない箇所を誤選択する場合についても分析を行い,提案法が抱える課題を明らかにし,その改善策について検討する(\ref{sec:selection-error-analysis}節).また,提案法によって発見された翻訳誤りを修正した際の効果について検討する(\ref{sec:act-error-analysis}節).\subsection{選択された誤り箇所の調査}\label{sec:manual-analysis-result}本節では,各手法によって順位付けされた誤り$n$-gramを人手で分析する.人手評価の方法は赤部,Neubig,Sakti,戸田,中村(2014a)\nocite{akabe14signl216}に従い2段階で行う.まず,各誤り箇所選択手法によって選択された箇所に対し,分析者はその箇所が機械翻訳の誤り箇所を捉えているかどうかをアノテーションする.これにより,優先的に選択された上位$k$個の$n$-gramについて,誤り箇所の適合率を測定することが可能となる.次に,誤り箇所を捉えている場合は,以下に示す誤りの種類をアノテーションする.\begin{description}\item[文脈依存置換誤り:]別の文脈では正しい翻訳だが,この文脈では不適切な翻訳.\item[文脈非依存置換誤り:]いかなる文脈であっても,不適切な翻訳.\item[挿入誤り:]不必要な語句の挿入.\item[削除誤り:]必要な語句の不適切な削除.\item[並べ換え誤り:]選択された箇所が語順の誤りを捉えている.\item[活用誤り:]活用形が誤っている.\end{description}これにより,選択された誤り箇所の誤り傾向を把握する.これらの結果を元に,翻訳システムの比較を行う.\subsubsection{実験設定}すべての実験で京都フリー翻訳タスク(KFTT)\cite{neubig11kftt}の日英翻訳を利用した.コーパスの大きさを表\ref{tab:kftt}に示す.単一の機械翻訳システムを用いた実験では,Travatarツールキット\cite{neubig13travatar}に基づくforest-to-string(\textsc{f2s})システムを利用した.システム間比較では,\textsc{f2s}システムに加え,Mosesツールキット\cite{koehn07moses}に基づくフレーズベース翻訳(\textsc{pbmt})システム及び階層的フレーズベース(\textsc{hiero})システムを利用した.翻訳システムを構築する上で,\textsc{f2s}システムでは単語間アラインメントにNile\footnote{http://code.google.com/p/nile/}を利用し,構文木の生成にはEgret\footnote{http://code.google.com/p/egret-parser/}を利用した.\textsc{pbmt}システムと\textsc{hiero}システムでは,単語間アラインメントにGIZA++\cite{och03alignment}を利用した.チューニングにはMERT\cite{och03mert}を利用し,評価尺度をBLEU\cite{papineni02bleu}とした.\begin{table}[b]\caption{KFTTのデータサイズ}\label{tab:kftt}\input{04table05.txt}\end{table}\begin{table}[b]\caption{実験に用いた誤り箇所選択手法}\label{tab:method-list}\input{04table06.txt}\end{table}$n$-gramの選択には\ref{sec:scoring}章で説明したスコア計算法を利用した.実験を行ったスコア計算法とスコアの学習に利用したデータの組み合わせを表\ref{tab:method-list}に示す.$n$-bestによる識別言語モデルの学習は,反復回数を100回とした.学習時にFOBOS\cite{duchi09fobos}によるL1正則化を行った.正則化係数は$10^{-7}$--$10^{-2}$の中から選び,KFTTのテストセットに対して高い精度を示す値を利用した.学習には1-gramから3-gramまでの$n$-gramを\textcolor{black}{長さによる区別を行わずに}利用した.オラクル文の選択にはBLEU+1を利用し,選択される$n$-gramの誤り傾向を分析した.各手法で,参照訳を用いた厳密一致フィルタリングを行った.\begin{figure}[b]\begin{center}\includegraphics{23-1ia4f5.eps}\end{center}\caption{分析対象となった$n$-gramの誤り箇所選択率}\small\centerline{横軸は選択した$n$-gramの種類数,縦軸は誤り箇所適合率.}\label{fig:precision}\end{figure}\subsubsection{選択する$\boldsymbol{n}$-gramの個数と適合率の関係}\label{sec:pr-curve}まず,識別言語モデルの重みに基づく選択,機械翻訳結果と参照訳から計算された誤り頻度に基づく選択,ランダム選択の比較を行った.図\ref{fig:precision}に,上位の$n$-gramを順に選んだ際の誤り箇所適合率を示す.この結果から,識別言語モデルの重みに基づき選択された$n$-gramが,ランダム選択,誤り頻度に基づく選択の2手法に比べ,機械翻訳の誤り箇所を高い精度で捉えていることが分かる.\subsubsection{選択された$\boldsymbol{n}$-gramの統計}次に,各手法で上位30個に選ばれた誤り$n$-gramを選択した際の誤り箇所適合率を調査した.結果を表\ref{tab:method-comparison}に示す.\begin{table}[b]\caption{各手法により選択された$n$-gramの内訳}\label{tab:method-comparison}\input{04table07.txt}\vspace{4pt}\small誤り箇所選択率がランダムよりも高い3つの手法を太字で示した.また,3つの手法の中で各種類の誤りについて多く検出されたものを太字とした.\end{table}表から,誤り箇所選択率が高い手法は,平滑化された条件付き確率に基づく手法と,識別言語モデルの重みに基づく手法であることが分かる.その他の手法はランダム選択を下回っており,誤り箇所選択率が高いとは言えない.上位3つの手法を比較すると,参照文を利用した条件付き確率に基づく手法では,置換誤りや挿入誤りを多く捉えているが,削除誤りをほとんど捉えていないことが分かる.一方,識別言語モデルの重みに基づく手法では,他の手法に比べて2倍以上の削除誤りを捉えていることが分かる.識別言語モデルの重みに基づく手法以外で削除誤りの検出率が悪い原因として,削除誤りを検出する際には削除された単語列ではなく,その前後の文脈を見る必要があることが挙げられる.削除誤りが発生する前後の文脈は原文によって大きく変わるため,$n$-gramの発生頻度が小さく候補から外れやすくなる.しかし識別言語モデルの重みに基づく手法の場合,同じ文脈における削除誤りが$n$-best中の複数の候補に発生するため,削除誤りが修正されるまで$n$-gramの重みを大きくしようとする.結果として,識別言語モデルの重みに基づく手法では,削除誤りも多く捉えることができる.\textcolor{black}{各手法とも,ランダム選択に対して捉えられた誤りの分布は大きく異なる.この点から,別々の手法によって捉えられた誤りの分布を比較することはできないことが分かる.また,あるシステムの分析結果に対して,どの誤りが多い,あるいは少ないという絶対的な評価はできず,システム同士の相対的な評価にしか利用できないことに注意されたい.}識別言語モデルの重みによって選択された箇所の例を表\ref{tab:trainederrors}に示す.この結果を見ると,誤り頻度に基づいて選択した場合(表\ref{tab:commonerrors})に比べ,選択された$n$-gramが目的言語の言語現象に支配されていないことが分かる.\begin{table}[b]\setlength{\fboxsep}{2pt}\caption{識別言語モデルによって選択された上位の$n$-gram}\label{tab:trainederrors}\input{04table08.txt}\par\vspace{4pt}\small枠で囲まれた部分は選択された箇所および選択箇所に対応する箇所を示す.\end{table}\subsubsection{システム間比較}\label{sec:system-comparison}\textcolor{black}{分析対象とするシステムによって,含まれる誤りの分布が異なる.本節では,提案法によって検出される誤りが,本来の誤り分布を適切に捉えることを確認する.具体的には,\textsc{pbmt},\textsc{hiero},\textsc{f2s}の3つの翻訳システムで日英・英日の両方向に対して翻訳を行い,単一システムの評価を行った際と同様に,識別言語モデルの重みに基づく誤り箇所選択法を利用して抽出された上位30個の誤り$n$-gramに対し,分析を行った.}その結果を表\ref{tab:diff-dir}に示す.\begin{table}[b]\caption{3種類のシステムで両方向の翻訳を行った際の比較}\label{tab:diff-dir}\input{04table09.txt}\end{table}この結果から,\textsc{pbmt}と\textsc{hiero}の両システムでは,並べ換え誤りが上位の誤りとして検出されている一方,\textsc{f2s}システムの特に英日翻訳では下位の誤りとして検出された.一般的に,統語情報を使った翻訳システムは並べ換え誤りに強いことが知られており,本結果はこれを裏付けることとなった.次に,日英翻訳では挿入誤りが多く検出され,逆に英日翻訳では日本語で多様な活用誤りが多く検出されていることが分かる.このように僅か30個の誤り$n$-gramに目を通すだけで,各翻訳システムが苦手とする分野に目を通すことがある程度できたことが分かる.\subsection{選択された箇所に対するフィルタリングの効果}\label{sec:auto-analysis-result}本節では,翻訳誤りとして選択された箇所に対し,各フィルタリング法を適用した際の効果について,誤り箇所アノテーションコーパスを用いた自動評価により検証する.自動評価には,先行研究で提案されている機械翻訳結果を後編集した際の編集パターンを利用した手法(赤部,Neubig,Sakti,戸田,中村2014b)を利用する.\nocite{akabe14signl219}評価の際は,事前に選択精度評価用の機械翻訳結果を後編集したコーパスを作成する.後編集のパターンから,機械翻訳結果の各部分に対して,挿入誤り,削除誤り,置換誤り,並べ換え誤りのラベルを付与することが可能である.これを誤り箇所の正解ラベルとし,評価用の機械翻訳結果に対して各誤り箇所選択法を適用した際に,誤り箇所の正解ラベルをどの程度予測できるかを適合率と再現率により評価する.\subsubsection{実験設定}人手評価の際と同様に,機械翻訳システムとして京都フリー翻訳タスク(KFTT)\cite{neubig11kftt}の日英データで構築された\textsc{f2s}システムを利用した.誤り候補のフィルタリングでは,正解訳として参照訳のみ利用した場合と,参照訳とオラクル訳の2つを利用した場合で比較を行った.オラクル訳の選択には,評価尺度としてBLEU+1または,METEORversion1.5\cite{denkowski:lavie:meteor-wmt:2014}を利用し,それぞれ500-bestの中で評価尺度が最大となるものを選択し,比較を行った.パラフレーズラティスの構築のため,英語換言データベース(PPDB)\cite{ganitkevitch2013ppdb}のXLサイズ(43.2~Mルール)を利用した.また日本語のラティス構築のため,日本語換言データベース\cite{mizukami14cocosda}のXLサイズ(11.7~Mルール)を利用した.誤り箇所選択率の評価のため,KFTTの開発セットを日英翻訳した結果503文(12,333単語),英日翻訳した結果200文(4,846単語)に対して後編集を行い,誤り箇所アノテーションコーパスを作成した.\subsubsection{参照訳による厳密一致フィルタリングの効果}予備実験として,コーパス全体をランダムに選択した場合と,参照訳によるフィルタリングを行った場合で,誤り箇所の選択精度がどのようになるか確認を行った.表\ref{tab:filt}はすべての箇所をランダムに分析した場合の結果である.「フィルタリングなし」はチャンスレート,「フィルタリングあり」は分析の際にフィルタリングを行った結果である\footnote{フィルタリングなしの再現率は1.0とならない.これはコーパスの中に機械翻訳結果を見ただけでは発見不能な削除誤りが含まれる場合があるためである.}.この表から,参照訳によるフィルタリングを行うだけでも,再現率の低下を抑えつつ適合率が大きく改善したことが分かる.\begin{table}[b]\caption{参照訳によるフィルタリングの効果}\label{tab:filt}\input{04table10.txt}\end{table}\subsubsection{換言を考慮した正解訳の効果}各正解訳(参照訳,\textcolor{black}{参照訳+}オラクル訳)を用いたフィルタリング法を,換言あり・なしの場合について適用した実験を行った.表\ref{tab:precision-recall}は各設定における誤り箇所適合率と再現率の結果である.この表から,フィルタリングに用いる正解訳として,\textcolor{black}{参照訳のみ}を用いた場合に比べてBLEU+1によるオラクル訳を\textcolor{black}{加えた}方が適合率が高く,また\textcolor{black}{評価尺度として}METEORを用いた場合は,BLEU+1\textcolor{black}{を用いた場合}に比べ更に\textcolor{black}{適合率が}高くなったことが分かる.このことから,METEORにより選択されたオラクル訳は,機械翻訳の1-best出力で利用される語彙に似ており,換言表現が含まれにくくなっていることが分かる.\begin{table}[b]\caption{各フィルタリング法における適合率と再現率}\label{tab:precision-recall}\input{04table11.txt}\end{table}次に正解訳の換言を用いた場合の結果を見ても,選択箇所の誤り箇所適合率が高くなっていることが分かる.これらから,正解訳の換言を用いたフィルタリングを行うことによって,機械翻訳の誤り箇所がより適切に捉えられるようになったことが分かる.一方,再現率について注意しなければならない点がある.特にオラクル訳を正解訳として利用した場合に,誤り箇所選択の再現率が大きく低下している.これは,オラクル訳は機械翻訳システムが出力した文であり,1-bestと同様の誤りが発生する場合があるためである.しかし,今回提案した各手法は,コーパスの中の少なくとも20\%の誤り箇所を捉えており,提案法を利用する際には大きな問題とはならないと考えられる.誤り分析を効率的に行う際には,適合率の高い手法から先に利用し,選択された箇所を全て分析してしまった場合は順次再現率の高い選択法に切り替えることが可能である.\begin{table}[b]\caption{換言によりフィルタリングされた$n$-gramの例}\label{tab:para-example}\setlength{\fboxsep}{0.1em}\input{04table12.txt}\end{table}表\ref{tab:para-example}にフィルタリングされた箇所の例を示す.1つ目の日英翻訳の例では,``foundationof''が誤り箇所の候補として選択されている.しかし参照訳に含まれる``afoundationfor''は換言データベースによると``afoundationof''に置き換えることが可能である.その結果,``foundationof''は誤りの候補から正しく除外された.2つ目の英日翻訳の例では,換言データベースにより句点「、」が削除されたことで,不適切な選択箇所が正しく除外された.この際注意すべきこととして,生成されたパラフレーズラティスが言語的に正しいものとは限らないという点が挙げられる.このため,誤った翻訳が発生している箇所が候補から除外される可能性もあることに注意されたい.\subsubsection{換言テーブルのドメインの影響}次に,日英翻訳において異なる換言データベースを使用した際の選択精度の調査を行った.前節の実験で利用した英語PPDBには,分析対象であるKFTTのデータが含まれていない.このため,KFTTのデータが含まれている日本語PPDBの構築データを利用して英語のPPDBを新たに作成した.前者を「ドメイン外」,新しく作成した後者を「ドメイン内」とし,評価結果を表\ref{tab:precision-recall-ppdb}に示す.\begin{table}[b]\caption{異なるドメインのPPDBを利用した場合の結果}\label{tab:precision-recall-ppdb}\input{04table13.txt}\end{table}この表から,分析対象のドメインのデータが含まれた換言データベースを利用することで,誤り箇所選択の適合率が向上したことが分かる.換言データベースは機械翻訳のパラレルデータがあれば容易に作成可能なため\cite{bannard05paraphrase},誤り分析で利用する際には独自に作成することが望ましいと言える.\subsubsection{選択された誤り箇所の分布}誤り箇所選択法によって見つかった誤りの傾向が,本来の誤り傾向と異なる場合,機械翻訳システムの傾向を正しく把握できないことにつながる.このため,誤り分析コーパスに含まれる誤りの分布と,各誤り箇所選択法によって見つかった誤りの分布の比較を行った.各手法によって見つかった誤りの統計を図\ref{fig:details}に示し,表\ref{tab:kl}にKLダイバージェンス\cite{kullback1951}$D_{\mathsf{KL}}(P_{\mathsf{corpus}}\|P_{\mathsf{select}})$を示す.ここで,$P_{\textsf{corpus}}$はコーパスに含まれる誤りの分布,$P_{\textsf{select}}$は各手法によって見つかった誤りの分布である.この結果から,参照訳を用いたフィルタリング法によって検出される誤りが,翻訳システムの誤り傾向を最も正確に捉えていると言えるが,他の手法でもKLダイバージェンスの値が0.001程度に収まっている.この結果から,いずれの手法においても選択された誤りの種類に大きな偏りが生じず,機械翻訳システムの誤り傾向を適切に捉えていることが分かった.\begin{figure}[t]\begin{center}\includegraphics{23-1ia4f6.eps}\end{center}\caption{各手法で選択された誤り箇所の分布}\small\centerline{``All''は誤り分析コーパスに含まれる誤りの分布を示す.}\label{fig:details}\end{figure}\begin{table}[t]\caption{コーパスに含まれる誤り分布と見つかった誤り分布の間のKLダイバージェンス}\label{tab:kl}\input{04table14.txt}\end{table}\subsection{誤選択箇所の分析}\label{sec:selection-error-analysis}\ref{sec:manual-analysis-result}節及び\ref{sec:auto-analysis-result}節の実験から,各誤り箇所選択法が誤って正しい翻訳箇所を選択する場合,またはフィルタリングによって誤り箇所が選択できなくなってしまう場合が存在することが明らかとなった.また,誤り箇所選択の自動評価の際,後編集結果に基づいて誤り箇所がアノテーションされたコーパスを用いるが,そもそもこのコーパスに誤りが含まれている場合は,精度評価が正しく行えないと考えられる.本節では,\ref{sec:auto-analysis-result}節と同様に,日英翻訳の誤り箇所アノテーションコーパスを用いて誤り箇所選択を行い,自動評価によって誤選択と判断された箇所について原因の調査を行った.\subsubsection{誤選択された正しい翻訳箇所に対する分析}誤り箇所選択法は,優先的に分析すべきと判断された箇所を選択するが,選択された箇所が本当は誤りでない場合がある.このような誤選択の分析を行うため,各手法により誤り箇所選択を行い,さらに選択箇所の自動評価を行った際に,誤選択と判断された部分について以下のアノテーションを人手で行う.\begin{description}\item[厳密一致:]$n$-gramは正解訳にも存在し,換言を利用しないフィルタリングによって除外可能.\item[換言:]$n$-gramは正解訳の局所的な換言であり,適切な換言ルールを利用できれば,除外可能.\item[統語的換言:]$n$-gramは正解訳の換言だが,局所的な換言が困難と考えられる.文全体に影響する複雑な換言を利用できれば,除外可能.\item[正解訳の誤り:]正解訳が誤っているため,フィルタリングによって除外されない.\item[無くても良い:]$n$-gramは正解訳に一致せず,フィルタリングできない.しかし,その$n$-gramが正解訳に含まれていなくても正解訳は誤りでない.\item[後編集誤り:]正解ラベルの誤り(後編集誤り)により誤選択と判断されたが,実際は適切な選択.\item[その他:]上記以外の誤り.$n$-gramが長すぎるためフィルタリングできない等.\end{description}\vspace{1\Cvs}\noindent\textbf{○実験設定}京都フリー翻訳タスク(KFTT)の日英データで構築された\textsc{f2s}システムに対し,「識別言語モデルの重みに基づく誤り箇所選択」を行い,再現率が5\%となる上位の$n$-gramについて分析を行った.選択の際,各手法によりフィルタリングを行った.オラクル訳を選択する際の評価尺度としてBLEU+1を利用した.\vspace{1\Cvs}\noindent\textbf{○実験結果}まず,選択箇所のフィルタリングを一切しない場合に検出された誤選択箇所の内訳を表\ref{tab:ngram-stat}に示す.誤選択と判断された箇所の内,誤り箇所アノテーションコーパスの誤りであり,誤選択ではなかったものが僅か3\%であり,後編集による自動評価が十分効果的であると言える.\begin{table}[b]\vspace{-0.8\Cvs}\caption{誤選択された$n$-gramの内訳}\label{tab:ngram-stat}\input{04table15.txt}\end{table}次に,各フィルタリング法を適用した場合に検出された\textcolor{black}{誤選択箇所の個数を表\ref{tab:ngram-stat-ratio}に示す.}この結果から,識別言語モデルの重みに基づく誤り箇所選択を行った際に,参照訳を用いたフィルタリングを行うことによって4割以上の誤選択を回避できることが分かった.また,誤選択された箇所が正解訳の換言に含まれる場合,参照訳の換言を用いたフィルタリング\textcolor{black}{によって3割以上,さらにオラクル訳やオラクル訳の換言を用いたフィルタリングを合わせることで}8割以上の誤選択を回避できることが分かった.\begin{table}[b]\caption{各フィルタリング適用後の誤選択箇所の個数}\label{tab:ngram-stat-ratio}\input{04table16.txt}\end{table}オラクル訳を正解訳としてフィルタリングを行った場合の「正解訳の誤り」がフィルタリングをしなかった場合に比べて多く現れている.これは,オラクル訳に含まれる誤りが参照訳に対して多いためである.また,「厳密一致」に分類される誤選択箇所であっても,フィルタリングで除外されない誤りがある.これは短い$n$-gramで一致していても,長い$n$-gramでは一致しない場合にフィルタリングを通過し,誤選択されてしまうためである.\begin{table}[b]\caption{各種類の誤選択例}\label{tab:example}\setlength{\fboxsep}{0.1em}\input{04table17.txt}\end{table}表\ref{tab:example}に誤り箇所の誤選択例を示す.「\textcolor{black}{統語的換言}」に分類された例を見ると,機械翻訳結果の``1392,started''が誤り箇所として選択されている.これは参照訳の統語的な換言であり,実験で使用したPPDBでは対応できないため,参照訳のみを正解訳とした場合は誤り箇所として扱われてしまう.しかし,オラクル訳は機械翻訳結果と同じ文の構造をしており,``began''を``started''に置き換えるだけで選択箇所に一致する.このため,オラクル訳の換言を使ったフィルタリングによって分析対象から除外可能となる.\subsubsection{選択されなかった誤り箇所に対する分析}誤り箇所選択によって選択された箇所に対してフィルタリング法を適用することで,正解訳に一致する$n$-gramや正解訳の換言に含まれる$n$-gramを誤り箇所から除外することができる.しかしそれらの手法によって,逆に正しく選択されるべき機械翻訳の誤り箇所を誤り箇所の候補から除外する場合があり,再現率の低下として現れている.このような問題の分析を行うため,誤り箇所アノテーションコーパスで誤りとされている箇所で,フィルタリングにより選択できなくなる部分について,以下の基準に従って分類を行う.\begin{description}\item[誤った部分に一致:]正解訳の異なる位置に対応する$n$-gramに一致した.\item[誤った換言:]換言テーブルの不適切なルールが使用された.\item[文脈的に誤った換言:]この文脈では使うべきでない換言ルールが使用された.\item[文脈的後編集:]文脈に依存する誤り箇所.後編集の表現方法を変えれば,誤り箇所ではなくなる.\item[正解訳の誤り:]正解訳が誤っているため,誤り箇所がフィルタリングによって除外された.\item[後編集誤り:]正解ラベルの誤り(後編集誤り,または不要な後編集)により誤り箇所とされているが,実際は適切な翻訳.\item[日本人の名前:]日本人の名前(姓名の順序が正解訳・機械翻訳結果と後編集の間で異なる).コーパス特有の問題であり後編集誤りに分類できるが,多く含まれているため特別に分類を行う.\end{description}\vspace{1\Cvs}\noindent\textbf{○実験設定}\ref{sec:auto-analysis-result}節で利用した日英機械翻訳の誤り箇所アノテーションコーパスについて,「参照訳を用いた厳密一致フィルタリング」及び「参照訳のパラフレーズを用いたフィルタリング」を適用し,選択されなくなってしまう誤り箇所の調査を行った.\vspace{1\Cvs}\noindent\textbf{○実験結果}各フィルタリング法を適用することによって選択されなくなった誤り箇所の統計を表\ref{tab:fn-stat}に示す.この結果から,参照訳のみによるフィルタリングを行った場合,選択されなくなる箇所の約3割は誤り箇所アノテーションコーパスの誤りによるもの,約6割は姓名の順序の違いに起因する誤りであり,実用上問題となる誤り箇所がほとんど除外されていないことが分かった.次に,参照訳の換言によるフィルタリングを適用した場合の結果を見ると,間違った換言が使用されたことによる誤選択が20\%以上あることが分かった.また,誤り箇所アノテーションコーパスの誤りにより誤り箇所として誤判断された箇所が約3割検出されており,各選択法の再現率を評価する際,無視できないほどの影響が出ることが分かった.\begin{table}[b]\caption{フィルタリングで除外された誤り箇所の内訳}\label{tab:fn-stat}\input{04table18.txt}\end{table}\subsection{誤り箇所選択の誤り分析における効果}\label{sec:act-error-analysis}本節では,実際の誤り分析を想定し,各誤り箇所選択法を用いて一定時間分析を行った際の効果を検証する.\begin{figure}[b]\begin{center}\includegraphics{23-1ia4f7.eps}\end{center}\caption{分析時間と誤り発見数の関係の調査}\label{fig:time-found-flow}\end{figure}図\ref{fig:time-found-flow}は本節の実験の手順を示す.まず,\ref{sec:scoring}章で述べた各手法によって$n$-gramにスコアを与え,優先的に分析すべき$n$-gramを順に抽出する.次に,機械翻訳の訳出の中で各$n$-gramが含まれている文を列挙し,$n$-gramに一致する箇所を選択する.\textcolor{black}{その際,\ref{sec:filtering}章で述べたフィルタリング処理を行う.分析シートは,$n$-gramが正解訳に含まれないものを先に表示し,正解訳に含まれるものを後に表示するようにした.このようにすることで,分析者はフィルタリングの対象とならなかった結果を優先的に分析しつつ,分析者の時間が許せば,誤ってフィルタリングされた機械翻訳文も分析対象とすることができる.}分析者は各$n$-gramが選択した箇所について誤り分析を行い,翻訳時に誤って使用された翻訳ルールを記録する.その際,誤り箇所が\ref{sec:manual-analysis-result}節で述べた「文脈依存誤り」か「文脈非依存誤り」かを記録しておくことで,翻訳ルールそのものが誤っているのか,あるいはモデル化が誤っているのかが把握可能となる.1個の$n$-gramにより複数の文が選択された場合は,実際の誤り分析と同様に,分析者の判断ですべての文を見ずに分析を中断しても良いこととする.最後に,各$n$-gram毎に誤り分析に要した時間を記録する.\subsubsection{実験設定}機械翻訳システムとして京都フリー翻訳タスク(KFTT)で構築された\textsc{f2s}英日翻訳システムを利用した.$n$-gramのスコアリングに「ランダム」,「誤り頻度」,「識別言語モデルの重み」に基づく3つの手法を利用し,自動評価でF値が最大となった「参照訳の換言によるフィルタリング」を利用した.KFTTの開発セットに対して誤り箇所選択を行い,誤って使用された翻訳ルールを記録した.\subsubsection{実験結果}各手法を利用して誤り分析を行った際に,経過した分析時間と誤って使用された翻訳ルールが発見された個数の関係を図\ref{fig:time-found}(a)に示す.また図\ref{fig:time-found}(b)は発見された誤りの中でも文脈非依存誤りの原因となるルールが見つかった個数を示す.グラフの傾きが大きいほど,誤りルールを効率的に発見できることを意味する.これらの結果から,各手法とも分析時間と誤りルール発見数の間に大きな違いは見られなかった.一方で,文脈非依存誤りの原因に限って見れば,識別言語モデルの重みに基づく誤り箇所選択では,他の手法に比べて早い段階から誤りが見つかることが分かった.\begin{figure}[b]\begin{center}\includegraphics{23-1ia4f8.eps}\end{center}\caption{分析時間と記録された誤りルール数の関係}\label{fig:time-found}\end{figure}文脈非依存誤りは,その誤りを修正しようとした際に文脈を考慮する必要がないため,文脈依存誤りに比べて誤りを容易に修正できる.このため,識別言語モデルの重みに基づく手法を利用することで,修正が容易な誤りを早期に発見することができ,システムの改善を比較的効率良く行うことができると言える.次に,文脈非依存誤りの原因として記録された翻訳ルールを機械翻訳システムから削除することによって,システムをどの程度改善できるかを見積もった.KFTTのテストセット1,160文を機械翻訳した際,21,080個の翻訳ルールが使用された.この内,各手法で文脈非依存誤りの原因として記録されたルールが使用された回数を表\ref{tab:stat-indepcover}に示す.この結果から,文脈非依存の誤りの原因となるルールを具体的に記録しても,そのルールが機械翻訳システムで使用されることは稀であることが分かる.翻訳システムの誤りを修正する際には,見つかった誤りルールを1つずつ修正するのではなく,見つかった誤りルールを一般化し,テストセットにおけるカバー率を向上させる必要がある.\begin{table}[t]\caption{文脈非依存誤りの原因として記録されたルールがKFTTのテストセット翻訳時に使用された回数}\label{tab:stat-indepcover}\input{04table19.txt}\end{table}
\section{おわりに}
\label{sec:conclusion}本論文では,機械翻訳システムの比較・改善のための誤り分析を効率的に行うことを目的として,機械学習の枠組みを利用した機械翻訳の誤り箇所選択法,及び選択箇所のフィルタリング法を提案した.その結果,人手評価において従来法に比べて高い精度で適切な誤り箇所を捉えることに成功した.また,優先的に選択された少量の誤り箇所を分析するだけで,各システムの誤り傾向を捉えることができ,システム間比較の効率化に貢献した.次に,機械翻訳の誤り箇所選択法が誤選択した箇所の分析を行ったところ,オラクル訳や換言を利用したフィルタリングは適合率の向上に効果的であるが,誤った換言が使用されることによる再現率の低下が明らかとなった.最後に,今回の提案法を実際の誤り分析に利用した場合の効果を検証した.その結果,翻訳システムを容易に修正可能な文脈非依存誤りについては,提案法により比較的早い段階から捉えることが可能であることが分かった.一方ですべての種類の誤りについて見ると,各手法とも誤りの発見数に大きな違いが見られなかった.\textcolor{black}{この理由として,各手法によって選択された誤り箇所の特徴が挙げられる.誤り頻度に基づき選択された誤り箇所は,識別言語モデルの重みに基づいて選択された箇所に比べ,目的言語に頻繁に出現する$n$-gramを多く含む.このため,識別言語モデルの重みに基づく手法を利用した際,誤り分析者が比較的効率良く選択箇所に目を通すことができたと考えられる.今回の実験では,目を通した文の数については記録を行っていないため,今後の調査項目として検討する必要がある.}また,発見したルールを単独で見ても,システム全体から見ればそのような翻訳ルールが使用されることはごく稀であることが分かった.一方で,具体的な誤りルールを一般化することで,同様の翻訳ルールをまとめて修正することは可能と考えられる.今後の課題として,見つかった具体的な誤りをどのように一般化するかを検討する必要がある.具体的には,見つかった翻訳ルールを品詞列などのより抽象的な情報に自動的に変換することや,誤ったルールを元に,人手によって複数の修正ルールを列挙する手法が考えられる.\acknowledgment本研究の一部は,JSPS科研費25730136と(独)情報通信研究機構の委託研究「知識・言語グリッドに基づくアジア医療交流支援システムの研究開発」の助成を受け実施したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{赤部\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田\JBA中村}{赤部\Jetal}{2014a}]{akabe14signl216}赤部晃一\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田智基\JBA中村哲\BBOP2014a\BBCP.\newblock機械翻訳システムの詳細な誤り分析のための誤り順位付け手法.\\newblock\Jem{情報処理学会第216回自然言語処理研究会(SIG-NL)},東京.\bibitem[\protect\BCAY{赤部\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田\JBA中村}{赤部\Jetal}{2014b}]{akabe14signl219}赤部晃一\JBA{GrahamNeubig}\JBA{SakrianiSakti}\JBA戸田智基\JBA中村哲\BBOP2014b\BBCP.\newblockパラフレーズを考慮した機械翻訳の誤り箇所選択.\\newblock\Jem{情報処理学会第219回自然言語処理研究会(SIG-NL)},神奈川.\bibitem[\protect\BCAY{Bach,Huang,\BBA\Al-Onaizan}{Bachet~al.}{2011}]{bach11goodness}Bach,N.,Huang,F.,\BBA\Al-Onaizan,Y.\BBOP2011\BBCP.\newblock\BBOQGoodness:AMethodforMeasuringMachineTranslationConfidence.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\211--219}.\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{banerjee05meteor}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQMETEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments.\BBCQ\\newblockIn{\BemProceedingofACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationand/orSummarization}.\bibitem[\protect\BCAY{Bannard\BBA\Callison-Burch}{Bannard\BBA\Callison-Burch}{2005}]{bannard05paraphrase}Bannard,C.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2005\BBCP.\newblock\BBOQParaphrasingwithBilingualParallelCorpora.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\597--604}.\bibitem[\protect\BCAY{Church\BBA\Hank}{Church\BBA\Hank}{1990}]{churchhanks90pmi}Church,K.~W.\BBACOMMA\\BBA\Hank,P.\BBOP1990\BBCP.\newblock\BBOQWordAssociationNorms,MutualInformation,andLexicography.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf16}(1),\mbox{\BPGS\22--29}.\bibitem[\protect\BCAY{Collins}{Collins}{2002}]{collins02structuredperceptron}Collins,M.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeTrainingMethodsforHiddenMarkovModels:TheoryandExperimentswithPerceptronAlgorithms.\BBCQ\\newblockIn{\BemProceedingofEMNLP},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2014}]{denkowski:lavie:meteor-wmt:2014}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2014\BBCP.\newblock\BBOQMeteorUniversal:LanguageSpecificTranslationEvaluationforAnyTargetLanguage.\BBCQ\\newblockIn{\BemProceedingsoftheEACL2014WorkshoponStatisticalMachineTranslation}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{doddington02nistmetric}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityusingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingofHLT},\mbox{\BPGS\128--132},SanDiego,CA.\bibitem[\protect\BCAY{Duchi\BBA\Singer}{Duchi\BBA\Singer}{2009}]{duchi09fobos}Duchi,J.\BBACOMMA\\BBA\Singer,Y.\BBOP2009\BBCP.\newblock\BBOQEfficientOnlineandBatchLearningusingForwardBackwardSplitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf10},\mbox{\BPGS\2899--2934}.\bibitem[\protect\BCAY{El~Kholy\BBA\Habash}{El~Kholy\BBA\Habash}{2011}]{elkholy11morphologicallyrich}El~Kholy,A.\BBACOMMA\\BBA\Habash,N.\BBOP2011\BBCP.\newblock\BBOQAutomaticErrorAnalysisforMorphologicallyRichLanguages.\BBCQ\\newblockIn{\BemProceedingofMTSummit},\mbox{\BPGS\225--232}.\bibitem[\protect\BCAY{Fishel,Bojar,Zeman,\BBA\Berka}{Fishelet~al.}{2011}]{fishel2011automatic}Fishel,M.,Bojar,O.,Zeman,D.,\BBA\Berka,J.\BBOP2011\BBCP.\newblock\BBOQAutomaticTranslationErrorAnalysis.\BBCQ\\newblockIn{\BemText,SpeechandDialogue},\mbox{\BPGS\72--79}.Springer.\bibitem[\protect\BCAY{Flanagan}{Flanagan}{1994}]{flanagan1994error}Flanagan,M.\BBOP1994\BBCP.\newblock\BBOQErrorclassificationforMTevaluation.\BBCQ\\newblockIn{\BemProceedingofAMTA},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Ganitkevitch,Van~Durme,\BBA\Callison-Burch}{Ganitkevitchet~al.}{2013}]{ganitkevitch2013ppdb}Ganitkevitch,J.,Van~Durme,B.,\BBA\Callison-Burch,C.\BBOP2013\BBCP.\newblock\BBOQPPDB:TheParaphraseDatabase.\BBCQ\\newblockIn{\BemProceedingofNAACL},\mbox{\BPGS\758--764}.\bibitem[\protect\BCAY{Kirchhoff,Rambow,Habash,\BBA\Diab}{Kirchhoffet~al.}{2007}]{kirchhoff2007semi}Kirchhoff,K.,Rambow,O.,Habash,N.,\BBA\Diab,M.\BBOP2007\BBCP.\newblock\BBOQSemi-automaticErrorAnalysisforLarge-scaleStatisticalMachineTranslationSystems.\BBCQ\\newblockIn{\BemProceedingofMTSummit}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn07moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Kullback\BBA\Leibler}{Kullback\BBA\Leibler}{1951}]{kullback1951}Kullback,S.\BBACOMMA\\BBA\Leibler,R.\BBOP1951\BBCP.\newblock\BBOQOnInformationandSufficiency.\BBCQ\\newblock{\BemTheAnnalsofMathematicalStatistics},{\Bbf22},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{lin04orange}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQOrange:AMethodforEvaluatingAutomaticEvaluationMetricsforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofCOLING},\mbox{\BPGS\501--507}.\bibitem[\protect\BCAY{Mackay\BBA\Petoy}{Mackay\BBA\Petoy}{1995}]{mackay95hdlm}Mackay,D.~J.\BBACOMMA\\BBA\Petoy,L.C.~B.\BBOP1995\BBCP.\newblock\BBOQAHierarchicalDirichletLanguageModel.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf1}(3),\mbox{\BPGS\289--308}.\bibitem[\protect\BCAY{Mizukami,Neubig,Sakti,Toda,\BBA\Nakamura}{Mizukamiet~al.}{2014}]{mizukami14cocosda}Mizukami,M.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2014\BBCP.\newblock\BBOQBuildingaFree,General-DomainParaphraseDatabaseforJapanese.\BBCQ\\newblockIn{\BemProceedingofCOCOSDA}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2011}]{neubig11kftt}Neubig,G.\BBOP2011\BBCP.\newblock\BBOQTheKyotoFreeTranslationTask.\BBCQ\\newblock\url{http://www.phontron.com/kftt}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingofACLDemoTrack},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och03mert}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03alignment}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Onishi,Utiyama,\BBA\Sumita}{Onishiet~al.}{2010}]{onishi10paraphrase}Onishi,T.,Utiyama,M.,\BBA\Sumita,E.\BBOP2010\BBCP.\newblock\BBOQParaphraseLatticeforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\1--5}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Popovi{\'c}\BBA\Ney}{Popovi{\'c}\BBA\Ney}{2011}]{popovic2011towards}Popovi{\'c},M.\BBACOMMA\\BBA\Ney,H.\BBOP2011\BBCP.\newblock\BBOQTowardsAutomaticErrorAnalysisofMachineTranslationOutput.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf37}(4),\mbox{\BPGS\657--688}.\bibitem[\protect\BCAY{Roark,Saraclar,\BBA\Collins}{Roarket~al.}{2007}]{roark07discriminative}Roark,B.,Saraclar,M.,\BBA\Collins,M.\BBOP2007\BBCP.\newblock\BBOQDiscriminativeN-gramLanguageModeling.\BBCQ\\newblock{\BemComputerSpeech\&Language},{\Bbf21}(2),\mbox{\BPGS\373--392}.\bibitem[\protect\BCAY{Specia,Turchi,Cancedda,Dymetman,\BBA\Cristianini}{Speciaet~al.}{2009}]{specia09qualityestimation}Specia,L.,Turchi,M.,Cancedda,N.,Dymetman,M.,\BBA\Cristianini,N.\BBOP2009\BBCP.\newblock\BBOQEstimatingtheSentence-levelQualityofMachineTranslationSystems.\BBCQ\\newblockIn{\BemProceedingofEAMT},\mbox{\BPGS\28--37}.\bibitem[\protect\BCAY{Vilar,Xu,d'Haro,\BBA\Ney}{Vilaret~al.}{2006}]{vilar2006error}Vilar,D.,Xu,J.,d'Haro,L.~F.,\BBA\Ney,H.\BBOP2006\BBCP.\newblock\BBOQErrorAnalysisofStatisticalMachineTranslationOutput.\BBCQ\\newblockIn{\BemProceedingofLREC},\mbox{\BPGS\697--702}.\end{thebibliography}\begin{biography}\bioauthor{赤部晃一}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同大学院博士後期課程に在学中.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{SakrianiSakti}{1999年インドネシア・バンドン工科大学情報卒業.2002年ドイツ・ウルム大学修士,2008年博士課程修了.2003〜2011年ATR音声言語コミュニケーション研究所研究員,情報通信研究機構主任研究員.現在,奈良先端科学技術大学院大学情報科学研究科助教.2015〜2016年フランスINRIA滞在研究員.統計的パターン認識,音声認識,音声翻訳,認知コミュニケーション,グラフィカルモデルの研究に従事.JNS,SFN,ASJ,ISCA,IEICE,IEEE各会員.}\bioauthor{戸田智基}{1999年名古屋大学工学部電気電子・情報工学科卒業.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.同年日本学術振興会特別研究員-PD.2005年奈良先端科学技術大学院大学情報科学研究科助手.2007年同助教.2011年同准教授.2015年より名古屋大学情報基盤センター教授.工学博士.音声情報処理の研究に従事.IEEE,電子情報通信学会,情報処理学会,日本音響学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学工学博士.シャープ株式会社.奈良先端科学技術大学院大学助教.2000年ATR音声言語コミュニケーション研究所室長,所長.2006年独立行政法人情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞.総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.IEEESLTC委員,ISCA理事,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V11N04-04
|
\section{はじめに}
\label{sec:intro}機械翻訳システムの辞書は質,量ともに拡充が進み,最近では200万見出し以上の辞書を持つシステムも実用化されている.ただし,このような大規模辞書にも登録されていない語が現実のテキストに出現することも皆無ではない.辞書がこのように大規模化していることから,辞書に登録されていない語は,コーパスにおいても出現頻度が低い語である可能性が高い.ところで,文同士が対応付けられた対訳コーパスから訳語対を抽出する研究はこれまでに数多く行なわれ\cite{Eijk93,Kupiec93,Dekai94,Smadja96,Ker97,Le99},抽出方法がほぼ確立されたかのように考えられている.しかし,コーパスにおける出現頻度が低い語とその訳語の対を抽出することを目的とした場合,語の出現頻度などの統計情報に基づく方法では抽出が困難であることが指摘されている\cite{Tsuji00}.以上のような状況を考えると,対訳コーパスからの訳語対抽出においては,機械翻訳システムの辞書に登録されていない,出現頻度の低い語を対象とした方法の開発が重要な課題の一つである.しかしながら,現状では,低出現頻度語を対象とした方法の先行研究としては文献\cite{Tsuji01b}などがあるが,検討すべき余地は残されている.すなわち,利用可能な言語情報のうちどのような情報に着目し,それらをどのように組み合わせて利用すれば低出現頻度語の抽出に有効に働くのかを明らかにする必要がある.本研究では,実用化されている英日機械翻訳システムの辞書に登録されていないと考えられ,かつ対訳コーパス\footnote{本研究で用いたコーパスは,文対応の付いた対訳コーパスであるが,機械処理により対応付けられたものであるため,対応付けの誤りが含まれている可能性がある.}において出現頻度が低い複合語とその訳語との対を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部の情報と,複合語あるいはその訳語候補の外部の情報とを統合的に利用して訳語対候補にスコアを付け,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.全体スコアは,複合語あるいはその訳語候補の内部情報と外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する\footnote{回帰分析を自然言語処理で利用した研究としては,重要文抽出への適用例\cite{Watanabe96}などがある}.本稿では,英日機械翻訳システムの辞書に登録されていないと考えられる複合語とその訳語候補のうち,機械翻訳文コーパス(後述)における出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象として行なった訳語対抽出実験の結果に基づいて,複合語あるいはその訳語候補の内部情報,外部情報に基づく各条件の有効性と,加重和計算式における重みを回帰分析によって決定する方法の有効性を検証する.
\section{訳語対抽出処理の概要}
\label{sec:outline}本稿で提案する方法による訳語対抽出処理の概要は次の通りである.\begin{enumerate}\item\label{enum:mt}対訳コーパスのうち英文コーパスを機械翻訳システムで翻訳する.翻訳には「翻訳これ一本2003」\footnote{http://www.sharp.co.jp/ej/}を利用した.\item\label{enum:sel_unknown}翻訳結果に原語のまま現れた二単語以上の単語列のうち,大文字で始まる語のみから構成される単語列を対象とする.小文字で始まる語を含む単語列を対象外とする理由は,予備調査の結果,小文字始まり語を含む単語列が辞書に登録されていない原因がつづりの誤りであることと,「kokuminnenkin」のような日本語のローマ字表記であることが多かったからである.大文字始まり語のみから構成される単語列(複合語)を含む文を抽出し,その集合を機械翻訳文コーパスとする.以下では,大文字始まり語のみから構成される辞書未登録の複合語を単に未登録語と呼ぶ.\item\label{enum:morph}機械翻訳文コーパスとそれに対応する和文コーパスそれぞれに対して形態素解析を行なう.解析には「茶筌」\footnote{http://chasen.aist-nara.ac.jp/chasen/}を利用した.\item\label{enum:sel_cand}未登録語に対応する訳語候補を,各機械翻訳文に対応する和文から抽出する.どのような語を訳語候補として抽出するかについては\ref{sec:conditions:pos}\,節で述べる.\item\label{enum:sel_low_freq}上記の処理(\ref{enum:sel_unknown})と(\ref{enum:sel_cand})で得られた訳語対候補から,機械翻訳文コーパスにおける出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを抽出する.\item\label{enum:sel_local}各訳語対候補に対して次の各観点からスコアを付与する.\begin{itemize}\item未登録語の構成単語の訳語を単純に合成した訳語と訳語候補との類似性\item未登録語のローマ字読みと訳語候補の読みとの類似性\item未登録語の近傍に現れる名詞の集合と訳語候補の近傍に現れる名詞の集合との類似性\item訳語候補と同一の語が機械翻訳文にも存在するか否か\end{itemize}これらの詳細については,それぞれ\ref{sec:conditions:element}\,節,\ref{sec:conditions:romaji}\,節,\ref{sec:conditions:neighbor}\,節,\ref{sec:conditions:same_noun}\,節で述べる.\item\label{enum:sel_global}処理(\ref{enum:sel_local})で付与された各スコアを統合して全体でのスコアを決定し,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.スコアの統合方法については,\ref{sec:conditions:integration}\,節で述べる.\end{enumerate}
\section{訳語対抽出に用いる制約条件と優先条件}
\label{sec:conditions}本節では,\ref{sec:outline}\,節で概要を述べた訳語対抽出処理で用いる言語情報(制約条件と優先条件)について説明する.\subsection{品詞指定による訳語候補の絞込み}\label{sec:conditions:pos}辞書未登録の複合語は名詞であることが多い.このため,それに対する訳語候補の品詞も名詞であるとする.ただし,名詞すべてを訳語候補とするのではなく,「茶筌」の細分類品詞のうち,原則として,名詞-一般,名詞-サ変接続,名詞-形容動詞語幹,名詞-副詞可能,名詞-ナイ形容詞語幹,名詞-固有名詞を訳語候補とする.また,「茶筌」で未知語とされた語も,原則として,名詞とみなして訳語候補とする.これらの原則に従わない主な例外は次の二つの場合である.一つ目は,「する」か「できる」が名詞に後接しているとき,全体をサ変動詞とする場合である.二つ目は,半角の括弧のように記号とみなすべきものが「茶筌」の未知語になっている場合である.名詞あるいは未知語が連続している場合,全体を複合語とみなして一つの訳語候補とする.なお,名詞あるいは未知語の連続には接辞が含まれていてもよい.以下では,複合語を構成する単語の区切りを`/'で表わす.\subsection{未登録語の構成単語の単純合成訳と訳語候補の類似性による優先順位付け}\label{sec:conditions:element}未登録語の訳語すなわち複合語全体としての訳語は,複合語を構成する個々の単語の訳語を単純に合成したものであるとは限らない.しかし,複合語全体としての訳語と,複合語の構成単語の訳語を単純に合成した訳語との間にはある程度の類似性が見られることもある\cite{Kumano94,Takao96}.そこで,未登録語の訳語候補と,未登録語の構成単語の訳語を単純に合成した訳語との類似性に応じて未登録語と訳語候補の対にスコアを付けることを考える.以下,未登録語の構成単語の訳語の単純な合成を単純合成訳と呼ぶ.ここでは,訳語候補と単純合成訳の類似性を表わす尺度としてジャッカード係数\cite{Romesburg92}を用いる.ジャッカード係数は,この場合,未登録語の訳語候補と未登録語の単純合成訳の両方に現れる単語の数を,少なくとも一方に現れる単語の数で割った値であると定義できる.すなわち,未登録語$E$の訳語候補$J$を構成する単語の集合を$X$とし,未登録語$E$の単純合成訳を構成する単語の集合を$Y$としたとき,未登録語$E$と訳語候補$J$の対に対する単純合成訳の類似性スコア$S_1$は次の式(\ref{eq:jaccard})で求められる.\begin{equation}S_1(E,J)=\frac{|X\capY|}{|X\cupY|}\label{eq:jaccard}\end{equation}なお,本稿では複合語における構成単語の出現順序は考慮しない.実験に用いた対訳コーパスでは,例えば「Disaster/Prevention/Law」という未登録語の訳語候補として「災害/対策/基本/法」が挙げられる.他方,実験に用いた機械翻訳システムで「Disaster」,「Prevention」,「Law」を個別に翻訳するとそれぞれ「災害」,「防止」,「法」という訳語が得られる.このとき,訳語候補を構成する単語の集合と,単純合成訳を構成する単語の集合の積集合に属するものは「災害」と「法」の2語であり,和集合に属するものは「災害」,「対策」,「基本」,「法」,「防止」の5語である.従って,「Disaster/Prevention/Law」と「災害/対策/基本/法」が対訳である可能性に対して,複合語全体としての訳語と単純合成訳の類似性の観点から$S_1(\mbox{DisasterPreventionLaw},災害対策基本法)=2/5$というスコアが与えられる.\subsection{未登録語のローマ字読みと訳語候補の読みとの類似性による優先順位付け}\label{sec:conditions:romaji}\ref{sec:conditions:element}\,節で述べた条件は,複合語全体としては辞書に登録されていないが,複合語を構成する個々の単語は辞書に登録されている場合に有効である.しかし,地名や人名,組織名などを表わす固有名詞は辞書に登録されていないことも少なくなく,このような場合には有効に働かない.今回の実験では読売新聞とTheDailyYomiuriをコーパスとして用いたが,このように日本に関する事柄について述べた記事とその対訳記事を多く含むであろうコーパスを処理対象とする場合には地名や人名,組織名も日本のものであることが多い.このような日本に関する固有表現には日本語をローマ字表記した単語が多く含まれる可能性が高い.実際,TheDailyYomiuriコーパスのうち今回の実験対象とした文を機械翻訳システムで翻訳して得られた訳文に含まれる未登録語から100語を単純無作為抽出し,それらが例えば「Tsukuba/Circuit」のように日本語をローマ字表記した単語を含むかどうかを調べたところ,50語にローマ字表記語が含まれていた.未登録語が日本語をローマ字表記したものである場合,五十音表を用意すれば,比較的容易にかつある程度の精度でその読みを得ることができると考えられる.また,未登録語の訳語候補の読みも「茶筌」で得ることができる.これらの点に着目して,未登録語に対して得られるローマ字読みと訳語候補の読みを照合し,スコアを付けることにした.読みのスコアには,\ref{sec:conditions:element}\,節と同じく,ここでもジャッカード係数を用いる.すなわち,未登録語を構成する単語のローマ字読みの集合を$X$とし,訳語候補を構成する単語の読みの集合を$Y$としたとき,読みの類似性スコア$S_2$を式(\ref{eq:jaccard})と同様の式で求める.訳語候補については,それを構成する全ての単語の読みが得られるが,未登録語については,ローマ字読みが得られる単語とそうでない単語がある.未登録語を構成する単語のローマ字読みが得られない場合,便宜的にその単語そのものを読みとする.例えば未登録語「Tsukuba/Circuit」の場合,「ツクバ」と「Circuit」を読みとする.従って,「Tsukuba/Circuit」の読みの集合と訳語候補「筑波/サーキット」の読みの集合の積集合に属するものは「ツクバ」となり,和集合に属するものは「ツクバ」,「Circuit」,「サーキット」となるため,未登録語「Tsukuba/Circuit」と訳語候補「筑波/サーキット」に対する読みの類似性スコア$S_2(\mbox{TsukubaCircuit},筑波サーキット)$は$1/3$となる.実験に用いたコーパスでは,未登録語「Tsukuba/Circuit」の訳語候補として,「筑波/サーキット」の他に,「レース/用/バイク」,「パーツ/販売」が挙がってくるが,「レース/用/バイク」と「パーツ/販売」の場合は共に読みの類似性スコアが0となるので,未登録語「TsukubaCircuit」に対する訳語としては「筑波/サーキット」が優先される.\subsection{未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性による優先順位付け}\label{sec:conditions:neighbor}訳語候補が未登録語の正しい訳語である場合,和文において訳語候補の前後に現れる語の集合と,機械翻訳文において未登録語の前後に現れる語の集合とは類似性が高いと考えられる\cite{Fung98,Kaji01}.そこで,未登録語の近傍に現れる名詞の集合と,訳語候補の近傍に現れる名詞の集合との類似性を訳語としての確からしさとして考慮する.ある語の近傍に現れる語を近傍名詞と呼び,近傍名詞になる可能性がある名詞を近傍名詞候補と呼ぶ\footnote{近傍名詞候補のうちどれを近傍名詞にするかは,どのくらいの距離を近傍とみなすかによる.}.近傍名詞候補には,未登録語の訳語候補(\ref{sec:conditions:pos}\,節参照)の他に,「茶筌」品詞の名詞-数も含める.これは,例えば「九十二/年」のような数表現は,訳語候補としては適切ではないが,未登録語の訳語候補の中から正しいものを選び出すのには有効な情報を提供すると考えられるからである.ある語の近傍の範囲は,その語が現れる文に含まれる近傍名詞候補の総数に比例するものとする.今回の実験では,未登録語が現れる機械翻訳文に含まれる近傍名詞候補の総数を$N$としたとき,未登録語の前方の近傍名詞候補を最大$N/4$語まで,後方の近傍名詞候補を最大$N/4$語まで近傍名詞として集合に加えた.なお,近傍名詞集合において,近傍名詞の出現位置が未登録語の前方か後方かは区別しない.また,近傍名詞候補数の上限値の小数点以下は切り捨てる.訳語候補についての近傍名詞集合についても和文において同様に求める.複合語の語数の計測では,個々の単語に分解せず,複合語全体で一語と数える.未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性スコアもジャッカード係数で表わす.すなわち,未登録語$E$の近傍名詞集合を$X$とし,訳語候補$J$の近傍名詞集合を$Y$としたとき,近傍名詞集合の類似性スコア$S_3$を式(\ref{eq:jaccard})と同様の式で求める.例えば,次の和文(H\ref{SENT:maastrich})と機械翻訳文(M\ref{SENT:maastrich})から成る組では,未登録語「Maastrich/Treaty」の訳語候補は,「マーストリヒト/条約」と「弾み」である.\begin{SENT2}\sentEWithFrance,GermanyprovidedapowerfulnewimpetustoEuropeanintegration,terminatingintheMaastrichTreatyof1992.\sentHフランスとともにドイツは,九二年のマーストリヒト条約として結実する欧州統合に新たな,そして強力な弾みを与えた.\sentMフランスに関して,1992年のMaastrichTreatyで終了して,ドイツは,欧州統合に強力な新しい刺激をした.\label{SENT:maastrich}\end{SENT2}機械翻訳文(M\ref{SENT:maastrich})には7語の近傍名詞候補が現れる\footnote{機械翻訳文(M\ref{SENT:maastrich})に現れる近傍名詞候補は,「フランス」,「1992/年」,「Maastrich/Treaty」,「ドイツ」,「欧州統合」,「強力」,「刺激」である.}ので,「Maastrich/Treaty」の前後それぞれ1語ずつ「1992/年」と「ドイツ」が「Maastrich/Treaty」の近傍名詞となる.他方,和文(H\ref{SENT:maastrich})には8語の近傍名詞候補が現れる\footnote{和文(H\ref{SENT:maastrich})に現れる近傍名詞候補は,「フランス」,「ドイツ」,「九二/年」,「マーストリヒト/条約」,「欧州統合」,「新た」,「強力」,「弾み」である.}ので,「マーストリヒト/条約」の前方の2語「ドイツ」と「九二/年」,および後方の2語「欧州統合」と「新た」が「マーストリヒト/条約」の近傍名詞となる.訳語候補「弾み」の場合は,後方に近傍名詞候補が存在しないので,前方の2語「新た」と「強力」だけが近傍名詞となる.表\ref{tab:neighbor}\,に近傍名詞をまとめて示す.\begin{table}[htbp]\caption{近傍名詞集合の例}\label{tab:neighbor}\begin{center}\begin{tabular}{|l||l|}\hline\multicolumn{1}{|c||}{未登録語,訳語候補}&\multicolumn{1}{c|}{近傍名詞集合}\\\hline\hlineMaastrich/Treaty&1992/年,ドイツ\\マーストリヒト/条約&ドイツ,九二/年,欧州統合,新た\\弾み&強力,新た\\\hline\end{tabular}\end{center}\end{table}未登録語「Maastrich/Treaty」の近傍名詞集合と訳語候補「マーストリヒト/条約」の近傍名詞集合との積集合に属するものは「ドイツ」の1語となり,和集合に属するものは,「1992/年」,「ドイツ」,「九二/年」,「欧州統合」,「新た」の5語となるので,$S_3(\mbox{MaastrichTreaty},マーストリヒト条約)=1/5$という近傍名詞集合の類似性スコアが与えられる.他方,「Maastrich/Treaty」と訳語候補「弾み」の場合は,両者の近傍名詞集合の積集合に属する単語は存在しないので,近傍名詞集合の類似性スコア$S_3(\mbox{MaastrichTreaty},弾み)$は0となる.従って,近傍名詞集合のスコアの観点からは,未登録語「Maastrich/Treaty」の訳語として「マーストリヒト/条約」が「弾み」よりも優先される.\subsection{訳語候補と同一語の存在/非存在による優先順位付け}\label{sec:conditions:same_noun}和文に現れている訳語候補が機械翻訳文にも現れている場合,それらは対応関係にある可能性が高く,訳語候補と未登録語が対応関係にある可能性は低いのではないかと考えられる\footnote{同様の考え方が文献\cite{Ishimoto94}に示されている.}.例えば,次の和文(H\ref{SENT:foodstuff})と機械翻訳文(M\ref{SENT:foodstuff})から成る組では,未登録語「Foodstuff/Sanitation/Law」の訳語候補として,「食品/衛生/法」と「施行/規則」が挙げられる.このうち後者は,機械翻訳文(M\ref{SENT:foodstuff})に「規則」という単語が存在するため,「Foodstuff/Sanitation/Law」よりも「規則」に対応する可能性が高いと考えるのが自然であろう.\begin{SENT2}\sentEFirst,theyplantocoordinateviewswiththeircounterpartsattheAgriculture,ForestryandFisheriesMinistryandthenreviseregulationsoftheFoodstuffSanitationLawbyasearlyasthisfall.\sentH同省は、農水省と調整し、この秋にも食品衛生法の施行規則などを改正し、来年四月一日の施行を目指す。\sentM最初に、それらは、農林水産省でそれらの相対物を持つビューを統合し、その後、FoodstuffSanitationLawの規則をこの秋と同じくらい早く改正するつもりである。\label{SENT:foodstuff}\end{SENT2}このため,機械翻訳文に同じ語が現れる訳語候補と未登録語の対には,機械翻訳文に同じ語が現れない訳語候補と未登録語の対に与えるスコアよりも低いスコアを与える.なお,訳語候補と機械翻訳文に現れる語との照合は,複合語単位ではなく単語単位で行なう.すなわち,訳語候補と機械翻訳文に現れる語の両方あるいは一方が複合語である場合,それらを構成する単語のうち少なくとも一つが一致すれば,両者は対応関係にあるとみなす.実験では,訳語候補を構成する単語と同じ単語が機械翻訳文に現れる場合,同一語の存在/非存在に関するスコア$S_4$を0とし,現れない場合0.5とした.\[S_4=\left\{\begin{array}{lp{0.65\columnwidth}}0&訳語候補の構成単語と同じ単語が機械翻訳文に現れる場合\\0.5&現れない場合\end{array}\right.\]\subsection{総合的評価}\label{sec:conditions:integration}提案方法では,次の式(\ref{eq:weight})のような総合評価式に基づいて,未登録語と訳語候補の内部情報(未登録語の構成単語の単純合成訳と訳語候補との類似性,未登録語のローマ字読みと訳語候補の読みとの類似性)と未登録語と訳語候補の外部情報(未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性,訳語候補と同一語の存在/非存在)を組み合わせた評価を行ない,全体スコア$S$が最も高い訳語対から順に出力する.\begin{equation}S=C+\displaystyle\sum_{i=1}^{4}W_i\timesS_i\label{eq:weight}\end{equation}$C$は定数であり,重み$W_i$は各観点からのスコア$S_i$の相対的重要度を表わす.訳語対内外の情報を併用するという考え方は,文献\cite{Kaji01}で示唆されているが,提案の段階に留まっており実験結果などは示されていない.$C$や$W_i$の決定方法として,直感的にあるいは予備実験を通じて経験的に決定する方法(以下,経験的な決定法と呼ぶ)と,回帰分析によって決定する方法が考えられる.本稿では,両者の場合について訳語対抽出の正解率を比較する.
\section{実験と考察}
\label{sec:experiment}\subsection{実験方法}\label{sec:experiment:method}実験には,内山ら\cite{Uchiyama03}によって文対応付けが行なわれた読売新聞とTheDailyYomiuriの対訳コーパスのうち1989年から1996年7月中旬までの記事で構成される部分を用いた.さらに,内山らの文対応スコアの上位10\%の訳文対に対象を限定した.このコーパスに対して訳語対抽出処理を行ない,各未登録語ごとに全体スコアが高いものから順に訳語候補を出力した.得られた訳語対データから標本抽出を行ない,標本中の各未登録語とその訳語候補の対に対して次のような「正解」か「不正解」の評価値を与えた.この評価値は,抽出された訳語対を辞書に登録する際の作業量の観点に立ったものである.\begin{LIST}\item[\bf正解]訳語の追加や削除,置換を行なわなくても,そのまま辞書に登録できる.\\例:Comprehensive/Security/Board$\Longleftrightarrow$総合/安全/保障/審議/会\item[\bf不正解]辞書に登録するためには,訳語の追加や削除,置換が必要である.\\例:Liquor/Tax/Law$\Longleftrightarrow$逆手\end{LIST}なお,上記の評価を行なう際,次のような場合は対象外とした.この措置は,訳語対抽出に用いた各条件の有効性と統合方法の有効性の検証に重点を置きたいことなどによる.\begin{itemize}\item未登録語の抽出が不適切である(未登録語が一つの名詞句を構成していない)場合.原因は\ref{sec:outline}\,節で述べた処理(\ref{enum:sel_unknown})が失敗したことにある.\\例:Kita/Ward/Tuesday$\Longleftrightarrow$大阪/市/北/区\item正解の一部分しか訳語候補になっていない場合.処理(\ref{enum:sel_cand})の失敗によるものである.なお,この場合は,訳語の追加を行なえば辞書に登録できる.例えば次の例では「法」を追加すればよい.例:Administrative/Procedures/Law$\Longleftrightarrow$行政/手続\item訳語候補に正解が含まれていない場合.これは,機械翻訳文コーパスにおける出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象としているため,処理(\ref{enum:sel_low_freq})で訳語候補から除外されることによる.また,元々,未登録語を含む機械翻訳文に対応する和文に正解が含まれていないことにもよる.\item未登録語に対する訳語候補が一つしかない場合.訳語候補が正解であっても対象外とした.\end{itemize}総合評価式(\ref{eq:weight})における定数$C$と重み$W_i$としては,それぞれ表\ref{tab:weight}\,に示す値を用いた.\begin{table}[htbp]\caption{重みの値}\label{tab:weight}\begin{center}\begin{tabular}{|l||r|r|}\hline&\multicolumn{1}{c|}{経験的決定法}&\multicolumn{1}{c|}{回帰分析}\\\hline\hline定数$C$&0&-4.58\\単純合成訳$W_1$&2&20.75\\ローマ字読み$W_2$&3&15.04\\近傍名詞集合$W_3$&1&3.58\\同一語$W_4$&2&2.81\\\hline\end{tabular}\end{center}\end{table}経験的な決定法による値は,予備実験で得られた訳語対データから未登録語を100語無作為抽出し,各未登録語とその全訳語候補との対に与えられた各条件によるスコアを観察した経験から,訳語対抽出に用いる各条件の信頼性が次の順で高くなっていくと判断したことによるものである.\begin{enumerate}\item未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性($S_3$)\item未登録語の構成単語の単純合成訳と訳語候補との類似性($S_1$)と,訳語候補と同一語の存在/非存在($S_4$)\item未登録語のローマ字読みと訳語候補の読みとの類似性($S_2$)\end{enumerate}回帰分析による方法で決定した値は,個々の条件に基づくスコアを説明変数とし,正解か不正解か(1か0か)を目的変数としてロジスティック回帰分析を行なって求めたものである.訓練データの規模は1734件であり,このうち正解が148件,不正解が1586件である.表\ref{tab:weight}\,で経験的な決定法による重みの値と回帰分析による方法で決定した重みの値を比較すると,次のような違いがある.\begin{itemize}\item経験的な決定法の場合,未登録語と訳語候補の内部情報に基づくスコアに対する重みと未登録語と訳語候補の外部情報に基づくスコアに対する重みの間の差は小さいが,回帰分析による方法の場合は両者の差が比較的大きい.\item経験的な決定法では各条件の信頼性が$S_3$$<$$S_1$$=$$S_4$$<$$S_2$のように高くなっていくと考えたが,回帰分析による方法では$S_4$$<$$S_3$$<$$S_2$$<$$S_1$の順で高くなっていくとみなされている.\end{itemize}\subsection{実験結果}\label{sec:experiment:result}抽出された標本は,264語の未登録語と1086語の訳語候補から成る.すなわち,未登録語に対する訳語候補数は平均で4.11語(1086/264)であった.経験的な決定法による重みを用いた場合と回帰分析による方法で決定した重みを用いた場合のそれぞれの評価結果を表\ref{tab:result}\,に示す.表\ref{tab:result}\,を見ると,単独一位での正解率,同点一位を含めた場合の正解率,上位二位まででの正解率のいずれにおいても,回帰分析による方法のほうが経験的な決定法よりも高い正解率が得られている.\begin{table}[htbp]\caption{訳語対抽出の正解率}\label{tab:result}\begin{center}\begin{tabular}{|l||c|r|c|}\hline&単独一位&\multicolumn{1}{c|}{第一位(同点一位を含む)}&上位二位\\\hline\hline経験的決定法&74.24\%(196/264)&83.71\%(221/264)&92.80\%(245/264)\\\hline回帰分析&77.65\%(205/264)&86.36\%(228/264)&95.08\%(251/264)\\\hline\end{tabular}\end{center}\end{table}経験的な決定法と回帰分析による方法とで,正解が出力された順位がどのように変化したかを表わす分布を表\ref{tab:rank_change}\,に示す.表\ref{tab:rank_change}\,によれば,経験的な決定法より回帰分析による方法のほうが下がったものが5語である.逆に回帰分析による方法のほうが順位が上がったものは15語あり,その内訳は,同点一位から単独一位へ上がったものが2語,二位から単独一位へ上がったものが7語,三位以下から単独一位へ上がったものが5語,三位以下から二位へ上がったものが1語である.\begin{table}[htbp]\caption{正解が出力された順位の変動}\label{tab:rank_change}\begin{center}\begin{tabular}{|l||r|r|r|r|r|}\hline\multicolumn{1}{|c||}{経験的決定法$\backslash$回帰分析}&\multicolumn{1}{c|}{単独一位}&\multicolumn{1}{c|}{同点一位}&\multicolumn{1}{c|}{二位}&\multicolumn{1}{c|}{三位以下}&\multicolumn{1}{c|}{合計}\\\hline\hline単独一位&191&0&5&0&196\\同点一位&2&23&0&0&25\\二位&7&0&17&0&24\\三位以下&5&0&1&13&19\\\hline合計&205&23&23&13&264\\\hline\end{tabular}\end{center}\end{table}\subsection{失敗原因の分析}\label{sec:experiment:failure}正解が出力された順位が第二位以下であったものについて,その原因ごとに分類した結果を表\ref{tab:cause_of_failure}\,に示す.表\ref{tab:cause_of_failure}\,を見ると,未登録語のローマ字読みと訳語候補の読みとの類似性による優先順位付けの誤りによるもの(ローマ字読み)と訳語候補と同一語の存在/非存在による優先順位付けの誤りによるもの(同一語)の件数が他の原因に比べて多い.この二つの原因について分析する.なお,複合的原因は複数の原因が絡んでいると考えられるものである.\begin{table}[htbp]\caption{失敗原因の分類}\label{tab:cause_of_failure}\begin{center}\begin{tabular}{|l||r|r|}\hline\multicolumn{1}{|c||}{原因}&\multicolumn{1}{c|}{経験的決定法}&\multicolumn{1}{c|}{回帰分析}\\\hline\hline単純合成訳&2&6\\ローマ字読み&12&11\\近傍名詞集合&7&7\\同一語&19&9\\複合的原因&3&3\\\hline合計&43&36\\\hline\end{tabular}\end{center}\end{table}未登録語のローマ字読みと訳語候補の読みとの類似性による優先順位付けの誤りによるものは,次のように細分できる.\begin{itemize}\item表記からローマ字読みを得る処理の不備によるもの.実装した処理では,未登録語「Nihon/Shimbun/Kyokai」と正解「日本/新聞/協会」の対応関係が認識できなかった.この原因は,両唇音の直前の閉鎖音は両唇音に変わる音韻規則を考慮していなかったため,「shimbun」の読みを得ることができなかったことにある.また,「キョウ」を「kyo」と表記する書記規則を考慮していなかったため,「kyokai」の読みが「キョウカイ」ではなく「キョカイ」になってしまったことにも原因がある.\item読みの曖昧さによるもの.「Nihon/Shimbun/Kyokai」と「日本/新聞/協会」の対応関係が認識できなかったもう一つの原因は,「日本」の読みが「ニホン」ではなく「ニッポン」になっていたことにある.この問題は,「茶筌」の設定が読みの第一候補だけを得るようになっていたために生じたものであり,全候補を得る設定にすれば解決可能である.\item「茶筌」辞書の未登録語によるもの.「茶筌」の辞書に「熱川」という固有名詞が登録されていなかったために,「Atagawa」と「熱/川」の対応関係が認識できなかった.\end{itemize}訳語候補と同一語の存在/非存在による優先順位付けの誤りによるものは,機械翻訳文中の訳語候補(の構成要素)が和文にも現れているにもかかわらず,その訳語候補が正解である場合である.例えば,次の機械翻訳文(M\ref{SENT:price})に現れる未登録語「Price/Control/Ordinance」の正解訳語である「物価/統制/令」は,機械翻訳文(M\ref{SENT:price})に現れる「物価/上昇」と対応していると誤認識されてしまう.\begin{SENT2}\sentEThePriceControlOrdinancewasimposedinMarch1946tocurbpricehikesandeasethesupplyanddemandofproducts.\sentH物価統制令は一九四六年三月、物価暴騰を抑え、物資需給の円滑化を目的にポツダム命令として公布。\sentMPriceControlOrdinanceは、物価上昇を抑制し、そして、製品の需要と供給を緩和するために、1946年3月に課された。\label{SENT:price}\end{SENT2}このような誤りを防ぐには,「物価/上昇」が「物価/暴騰」に対応していることを認識する必要がある.\subsection{条件間の独立性}\label{sec:experiment:corel}複数の条件を組み合わせて訳語対抽出を行なう方法では,条件間の独立性が高いほうが望ましい.そこで,各条件間の独立性を調べるために,各素性間でのスピアマンの順位相関係数\cite{Siegel83}を求めた.その結果を表\ref{tab:corel}\,に示す.\begin{table}[htbp]\caption{各条件間でのスピアマンの順位相関係数}\label{tab:corel}\begin{center}\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{1}{c|}{単純合成訳}&\multicolumn{1}{c|}{ローマ字読み}&\multicolumn{1}{c|}{近傍名詞集合}&\multicolumn{1}{c|}{同一語}\\\hline\hline単純合成訳&\multicolumn{1}{c|}{$-$}&0.057&0.048&0.039\\ローマ字読み&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&0.099&0.133\\近傍名詞集合&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&-0.034\\同一語&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:corel}\,によれば,どの条件の間でも相関係数の値は小さく,独立性が高いことが分かる.\subsection{各条件の有効性}\label{sec:experiment:effect}本節では,各条件が正解率の向上にどの程度寄与しているかを調べる.個々の条件を課さない場合の重みの値は,各条件を除いた状態で1734件の訓練データに対してロジスティック回帰分析を行なうことによって求めた.各条件を課さない場合の正解率を表\ref{tab:feats-effect}\,に示す.括弧内の数字は正解数である.\begin{table}[htbp]\caption{各条件の有効性}\label{tab:feats-effect}\begin{center}\begin{tabular}{|l||c|r|c|}\hline&単独一位&\multicolumn{1}{c|}{第一位(同点一位を含む)}&上位二位\\\hline\hline全条件&77.65\%(205)&86.36\%(228)&95.08\%(251)\\単純合成訳なし&63.64\%(168)&81.44\%(215)&90.15\%(238)\\ローマ字読みなし&58.33\%(154)&79.92\%(211)&90.90\%(240)\\近傍名詞集合なし&74.24\%(196)&91.67\%(242)&95.45\%(252)\\同一語なし&76.89\%(203)&86.74\%(229)&94.70\%(250)\\\hline\end{tabular}\end{center}\end{table}未登録語の構成単語の単純合成訳と訳語候補との類似性に関する条件を課さない場合と,未登録語のローマ字読みと訳語候補の読みとの類似性に関する条件を課さない場合は,全ての条件を課した場合に比べて,単独一位での正解率,同点一位を含めた場合の正解率,上位二位まででの正解率のいずれもが低くなっている.特に単独一位での正解率の低下が大きい.従って,これら二つの条件は正解率の向上に寄与していると言える.他方,未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性に関する条件を課さない場合と,訳語候補と同一語の存在/非存在に関する条件を課さない場合は,全ての条件を課した場合に比べて,同点一位を含めた場合の正解率は高くなっており,また,単独一位での正解率と上位二位まででの正解率も若干低くなっている程度である.従って,これら二つの条件は正解率の向上に寄与していないと言える.正解率の向上に寄与している二つの条件は複合語あるいはその訳語候補の内部情報に関するものであり,寄与していない二つの条件は外部情報に関するものである.訳語対抽出の正解率向上に有効に働く外部情報を探っていくことが今後の課題である.
\section{おわりに}
本稿では,実用化されている機械翻訳システムの辞書に登録されておらず,かつ,(対応付け誤りを含む)対訳コーパスにおいて出現頻度が低い複合語を対象として,その訳語を抽出する方法を示した.提案方法では,複合語あるいはその訳語候補の内部の情報とそれらの外部の情報を統合的に利用して訳語対候補に全体スコアを付ける.全体スコアは四種類の情報に基づく各スコアの加重和を計算することによって求めたが,各スコアに対する重みをロジスティック回帰分析によって決定する方法を採った.読売新聞とTheDailyYomiuriの対訳コーパスを用いた実験では,加重和による総合評価式において各スコアに対する重みをロジスティック回帰分析により決定した場合,全体スコアが最も高い訳語対(のうちの一つ)が正解である割合が86.36\%,上位二位までに正解が含まれる割合が95.08\%という結果が得られた.この結果は,直感的にあるいは予備実験を通じて経験的に決定する方法による結果を上回るものである.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Dekai\BBA\Xia}{Dekai\BBA\Xia}{1994}]{Dekai94}Dekai,W.\BBACOMMA\\BBA\Xia,X.\BBOP1994\BBCP.\newblock\BBOQ{LearninganEnglish-ChineseLexiconfromaParallelCorpus}\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceofAssociationforMachineTranslationofAmerica},\BPGS\206--213.\bibitem[\protect\BCAY{Eijk}{Eijk}{1993}]{Eijk93}Eijk,P.\BBOP1993\BBCP.\newblock\BBOQ{AutomatingtheAcquisitionofBilingualTerminology}\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\BPGS\113--119.\bibitem[\protect\BCAY{Fung}{Fung}{1998}]{Fung98}Fung,P.\BBOP1998\BBCP.\newblock\BBOQ{StatisticalViewonBilingualLexiconExtraction:FromParallelCorporatoNon-parallelCorpora}\BBCQ\\newblock{\BemLectureNotesinArtificialIntelligence},{\Bbf1529},1--17.\bibitem[\protect\BCAY{石本浩之\JBA長尾眞}{石本浩之\JBA長尾眞}{1994}]{Ishimoto94}石本浩之\JBA長尾眞\BBOP1994\BBCP.\newblock\JBOQ対訳文章を利用した専門用語対訳辞書の自動作成---訳語対応における両立不可能性を考慮した手法について---\JBCQ\\newblock研究報告{NL}102-11,情報処理学会.\bibitem[\protect\BCAY{梶博行\JBA相薗敏子}{梶博行\JBA相薗敏子}{2001}]{Kaji01}梶博行\JBA相薗敏子\BBOP2001\BBCP.\newblock\JBOQ共起語集合の類似度に基づく対訳コーパスからの対訳語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2248--2258.\bibitem[\protect\BCAY{Ker\BBA\Chang}{Ker\BBA\Chang}{1997}]{Ker97}Ker,S.\BBACOMMA\\BBA\Chang,J.\BBOP1997\BBCP.\newblock\BBOQ{AClass-basedApproachtoWordAlignment}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(2),312--343.\bibitem[\protect\BCAY{熊野明\JBA平川秀樹}{熊野明\JBA平川秀樹}{1994}]{Kumano94}熊野明\JBA平川秀樹\BBOP1994\BBCP.\newblock\JBOQ対訳文書からの機械翻訳専門用語辞書作成\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(11),2283--2290.\bibitem[\protect\BCAY{Kupiec}{Kupiec}{1993}]{Kupiec93}Kupiec,J.\BBOP1993\BBCP.\newblock\BBOQ{AnAlgorithmforFindingNounPhraseCorrespondencesinBilingualCorpora}\BBCQ\\newblockIn{\BemProceedingsofthe31thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\17--22.\bibitem[\protect\BCAY{Le\JBAYoubing\JBALin\BBA\Yufang}{Leet~al.}{1999}]{Le99}Le,S.\JBAYoubing,J.\JBALin,D.\JBA\BBA\Yufang,S.\BBOP1999\BBCP.\newblock\BBOQ{WordAlignmentofEnglish-ChineseBilingualCorpusBasedonChunks}\BBCQ\\newblockIn{\BemProceedingsoftheJointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\BPGS\110--116.\bibitem[\protect\BCAY{Romesburg}{Romesburg}{1992}]{Romesburg92}Romesburg,H.~C.\BBOP1992\BBCP.\newblock\Jem{実例クラスター分析}.\newblock内田老鶴圃,東京.\newblock西田英郎,佐藤嗣二訳.\bibitem[\protect\BCAY{Siegel}{Siegel}{1983}]{Siegel83}Siegel,S.\BBOP1983\BBCP.\newblock\Jem{ノンパラメトリック統計学---行動科学のために---}.\newblockマグロウヒルブック,東京.\newblock藤本煕監訳.\bibitem[\protect\BCAY{Smadja\BBA\McKeown}{Smadja\BBA\McKeown}{1996}]{Smadja96}Smadja,F.\BBACOMMA\\BBA\McKeown,K.\BBOP1996\BBCP.\newblock\BBOQ{TranslatingCollocationsforBilingualLexicons:AStatisticalApproach}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),1--38.\bibitem[\protect\BCAY{高尾哲康\JBA富士秀\JBA松井くにお}{高尾哲康\Jetal}{1996}]{Takao96}高尾哲康\JBA富士秀\JBA松井くにお\BBOP1996\BBCP.\newblock\JBOQ対訳テキストコーパスからの対訳語情報の自動抽出\JBCQ\\newblock研究報告{NL}115-8,情報処理学会.\bibitem[\protect\BCAY{辻慶太}{辻慶太}{2001}]{Tsuji01b}辻慶太\BBOP2001\BBCP.\newblock\JBOQ対訳コーパスからの低頻度訳語対の抽出:翻字・頻度情報の統合的利用\JBCQ\\newblock\Jem{第49回日本図書館情報学会研究大会発表要綱},\BPGS\59--62.\bibitem[\protect\BCAY{辻慶太\JBA芳鐘冬樹\JBA影浦峡}{辻慶太\Jetal}{2000}]{Tsuji00}辻慶太\JBA芳鐘冬樹\JBA影浦峡\BBOP2000\BBCP.\newblock\JBOQ対訳コーパスにおける低頻度語の性質:訳語対自動抽出に向けた基礎研究\JBCQ\\newblock研究報告{NL}138-7,情報処理学会.\bibitem[\protect\BCAY{内山将夫\JBA井佐原均}{内山将夫\JBA井佐原均}{2003}]{Uchiyama03}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ日英新聞の記事および文を対応付けるための高信頼性尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{1996}]{Watanabe96}Watanabe,H.\BBOP1996\BBCP.\newblock\BBOQ{AMethodforAbstractingNewspaperArticlesbyUsingSurfaceClues}\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\974--979.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.}\bioauthor{九津見毅}{1965年生まれ.1990年,大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年,シャープ株式会社に入社.以来,英日機械翻訳システムの翻訳エンジンプログラムの開発に従事.}\bioauthor{小谷克則}{1974年生まれ.2002年より情報通信研究機構受託研究員.2004年,関西外国語大学より英語学博士取得.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報通信事業本部情報商品開発センター技術企画室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.2001年情報通信研究機構(旧:通信総合研究所)けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N03-04
|
\section{はじめに}
近年,大量の機械可読なテキスト(コーパス)が利用可能になったことや,計算機の性能が大幅に向上したことから,コーパス・データを利用した確率的言語モデルの研究が活発に行われてきている.確率的言語モデルは,従来,自然言語処理や音声処理などの工学分野で用いられ,その有効性を実証してきたが,比較言語学,方言研究,言語類型論,社会言語学など,言語学の諸分野においても有用な手法を提供するものと思われる.本稿では,言語学の分野での確率的言語モデルの有用性を示す一例として,言語のクラスタリングを取り上げる.ここでは,言語を文字列を生成する情報源であるとみなし,この情報源の確率・統計的な性質を確率モデルによりモデル化する.次に,確率モデル間に距離尺度を導入し,この距離尺度に基づき言語のクラスタリングを行なう方法を提案する.以下では,まず2節で先行研究について概説し,3節で確率的言語モデルに基づく言語のクラスタリング手法を提案する.4節では,提案した手法の有効性を示すために行った実験について述べる.ここでは,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の19ヶ国語のテキスト・データから,言語の系統樹を再構築する.また,実験により得られた結果を,言語学的な観点から考察する.最後に,他分野への応用および今後の課題などについて述べる.
\section{従来の研究}
統計的手法に基づき,言語の比較を計量的に行う研究は,従来から広く行われてきている.KroeberおよびChr\'{e}tienは,1930年代に,音韻や語形等の言語的特徴から言語間の相関係数を求め,これに基づきインド・ヨーロッパ諸言語9ヶ国語およびヒッタイト語の間の類似性を求める研究を行っている\cite{Kroeber37,Kroeber39}.また,クラスター分析に基づき,自動的に言語や方言を分類する研究に関しても,いくつかの先行研究がある.文献\cite{Yasumoto95Book}には,これらの研究の古典的な諸方法が概説されている.また,数学的手法に基づく言語のクラスタリングに関する最近の研究として,Batageljらの研究\cite{Batagelj92}があり,そこでは65ヵ国語の言語に対するクラスタリング結果が示されている.ここで,従来研究では,言語間の距離(あるいは類似度)を導入するために,どのような方法が用いられてきたかを若干紹介する.文献\cite{Yasumoto95Book}の4章で述べられている方法では,インド・ヨーロッパ諸言語の一致度を調べるために,2つの言語の対応する数詞の最初の子音が一致しているか否かを調べている.たとえば,ドイツ語とスペイン語の数詞``1''はそれぞれ``eins''および``uno''であるが,これらの2単語において,最初に出現する子音は共に``n''であるので,数詞``1''に関しては,ドイツ語とスペイン語は一致していると考える.10個の数詞のうち,何個の数詞について最初の子音が一致しているかを調べ,これをもとに言語間の距離を導入している.また,Batageljらの研究では,2つの言語の対応する単語の文字列間距離に基づき,言語間の距離を定義している.いま,2つの文字列$u$および$v$が与えられたとき,文字列$u$中に文字を追加したり,あるいは$u$中の文字を削除したりして,文字列$u$を文字列$v$に変換することを考える.このとき,文字列$u$を文字列$v$に変換するために必要な最小の追加および削除文字数で,2つの文字列間の距離を定義する.たとえば,$u=\mbox{``belly''}$,$v=\mbox{``bauch''}$に対しては,まず$u$から``elly''を削除し,次に``auch''を追加することにより,$u$を$v$に変換することができるので,この場合の文字列間距離は8(削除4文字+追加4文字)である.以上の文字列間距離を各言語から抽出した16個の単語について求め,これらの距離の和により,言語間距離を定義している\footnote{Batageljらは,文字の追加・削除に加え置換を考慮した文字列間距離など,他の文字列間距離についても議論しているが,本稿では省略する.}.以上のように,従来の研究では,あらかじめ人間が言語を分類する上で有用であると思われる音韻や語形等の言語的特徴を抽出したり,あるいは比較のための基礎語彙を選定するなどの作業が必要であった.また,言語間距離の定義にも恣意的な部分が残されていたということができる.
\section{確率モデルに基づく言語のクラスタリング}
本稿で提案する方法の概略を図\ref{Fig:OurApproach}に示す.この方法では,まず各言語の言語データから確率的言語モデルを自動的に学習し,次に確率モデル間に距離を導入することにより,言語間の距離を定義する.このように,本稿の方法は,自己組織的(self-organizing)であり,あらかじめ人間が各言語の言語的特徴を抽出したり,基礎語彙を選定する必要はない.また,本稿の方法の利点として,各言語のデータを独立に選ぶことができるという点をあげることができる.たとえば,言語によって違うジャンルのテキストであったり,あるいはデータのサイズが異なっていても,これらのデータの揺れを確率モデルの中に吸収することができる.確率モデルとしては,様々なものが考えられるが,4節で述べる評価実験では文字のtrigramモデルを用いた.trigramモデルは,$N$-gramモデルの特別な場合($N=3$の場合)であり,以下では$N$-gramモデルについて簡単に説明する.$N$-gramモデルに関する詳細な説明は,たとえば文献\cite{Jelinek90,Kita96Book}などを参照せよ.\begin{figure}\begin{center}\atari(80,98)\end{center}\caption{確率モデルに基づく言語のクラスタリング}\label{Fig:OurApproach}\end{figure}\subsection{$N$-gramモデル}たとえば,英語では文字qには文字uが後続するとか,ドイツ語においては文字cに後続するのはhやkであるなど,文字の連鎖には確率・統計的な性質が存在する.$N$-gramモデルは,このような文字の連鎖をモデル化するために適した確率モデルである.文字の$N$-gramモデルは,文字の生起を$N-1$重マルコフ過程により近似したモデルであり,文字の生起は直前に出現した$N-1$文字にのみ依存すると考える.すなわち,$n$文字から成る文字列$c_{1},\cdots,c_{n}$に対し,\begin{equation}P(c_n|c_1,\cdots,c_{n-1})\approxP(c_n|c_{n-N+1},\cdots,c_{n-1})\label{Eq:NgramDef}\end{equation}となる.$N$-gramモデルを用いた場合,文字列$c_{1},\cdots,c_{n}$の生成確率は,次のようにして計算することができる.\begin{eqnarray}P(c_1,\cdots,c_n)&=&\prod_{i=1}^{n}P(c_i|c_1,\cdots,c_{i-1})\nonumber\\&\approx&\prod_{i=1}^{n}P(c_i|c_{i-N+1},\cdots,c_{i-1})\end{eqnarray}上式において,最初の等式は,確率論の基本定理から導かれる.また,2番目の近似式は,式(\ref{Eq:NgramDef})による.いま,文字列$c_{1},\cdots,c_{n}$が言語データ中に出現する回数を$F(c_{1}\cdotsc_{n})$で表すことにする.$N$-gramの確率は,言語データ中に出現する文字の$N$個組と$(N-1)$個組の出現回数から,次のように推定することができる.\begin{equation}P(c_n|c_{n-N+1},\cdots,c_{n-1})=\frac{F(c_{n-N+1},\cdots,c_n)}{F(c_{n-N+1},\cdots,c_{n-1})}\label{Eq:NgramTraining}\end{equation}$N$の値が大きい場合には,統計的に信頼性のある確率値をコーパスから推定することが難しくなるため,通常は$N=3$あるいは$N=2$のモデルが用いられることが多い.なお,$N=3$の場合をtrigramモデル,$N=2$の場合をbigramモデル,$N=1$の場合をunigramモデルと呼ぶ.\subsection{$N$-gramモデルのスムージング}$N$-gramの確率値は,式(\ref{Eq:NgramTraining})に示すように,言語データ中の文字列の頻度から推定することができる.しかし,与えられた言語データが少ない場合には,精度のよい確率値を推定することが難しくなる.この問題に対処するために,我々の実験では,線形補間法と呼ばれる方法を用いて,$N$-gramモデルのスムージング(平滑化)を行った.線形補間法では,$N$-gramの確率値を低次の$M$-gram$(M<N)$の確率値と線形に補間する.trigramの場合には,次のようになる.\begin{equation}P(c_{n}|c_{n-2}c_{n-1})=\lambda_{1}P(c_{n}|c_{n-2}c_{n-1})+\lambda_{2}P(c_{n}|c_{n-1})+\lambda_{3}P(c_{n})\label{Eq:NgramLinearInterpolation}\end{equation}ここで,$\lambda_{1},\lambda_{2},\lambda_{3}$は,それぞれtrigram,bigram,unigramに対する重み係数であり,$\displaystyle\sum_{i}\lambda_{i}=1$となるように設定される.式(\ref{Eq:NgramLinearInterpolation})の補間では,学習データ中に三つ組$c_{n-2},c_{n-1},c_{n}$が出現しない場合には,bigramとunigramから$P(c_{n}|c_{n-2},c_{n-1})$の値を推定している.二つ組$c_{n-1},c_{n}$も出現しない場合には,unigramの値によって近似している.なお,$\lambda_{i}$の値は,削除補間法と呼ばれる方法によって推定した.削除補間法については,たとえば文献\cite{Jelinek80,Kita96Book}などを参照されたい.\subsection{言語モデル間の距離}次に,言語モデル間に距離を導入する.我々の用いた距離は,文献\cite{Juang85,Rabiner93}において提案されているものと同一である.上記文献においては,隠れマルコフ・モデル(HiddenMarkovModel;HMM)間の距離として定義されているが,一般の言語モデルに対しても同様に用いることができる.いま,言語$L_1$および言語$L_2$の言語データとして,それぞれ$D_1$,$D_2$が与えられているとする.$D_i$$(i=1,2)$は,文字列データであり,その長さ(文字数)を$|D_i|$と表記する.また,言語データ$D_i$から作成された言語モデルを$M_i$で表す.まず,言語モデル$M_1$および$M_2$に対し,距離尺度$d_0(M_1,M_2)$を次のように定義する.\begin{equation}d_0(M_1,M_2)=\frac{1}{|D_2|}\left[\logP(D_2|M_2)-\logP(D_2|M_1)\right]\label{Eq:DistanceMeasure0}\end{equation}式(\ref{Eq:DistanceMeasure0})では,言語$L_1$と$L_2$の間の距離を,言語$L_1$のモデル$M_1$からデータ$D_2$が生成される確率と,言語$L_2$のモデル$M_2$から同一のデータ$D_2$が生成される確率の差に基づいて決めている.もし,言語$L_1$と$L_2$が類似していれば,モデルからのデータの生成確率も似た値になるので距離は小さくなるし,類似していなければ,データの生成確率が大きく違うので距離は大きくなる.式(\ref{Eq:DistanceMeasure0})は,言語モデル$M_1$および$M_2$に対し,非対称である(すなわち$d_0(M_1,M_2)\neqd_0(M_2,M_1)$).対称形にするために,$d_0(M_1,M_2)$と$d_0(M_2,M_1)$の平均を取る.従って,言語モデル$M_1$と$M_2$の間の距離$d(M_1,M_2)$は,最終的に次のように定義される.\begin{equation}d(M_1,M_2)=\frac{d_0(M_1,M_2)+d_0(M_2,M_1)}{2}\label{Eq:DistanceMeasure}\end{equation}
\section{評価実験}
\subsection{言語データ}以上で提案した方法の有効性を実証するために,ECI多言語コーパス(EuropeanCorpusInitiativeMultilingualCorpus)中の言語データを用いて,言語の系統樹を再構築する実験を行った.ECIコーパスは,ELSNET(EuropeanNetworkinLanguageandSpeech)からCD-ROMにより提供されているもので,総語数約1億語から成る.ECIコーパス中には,主要なヨーロッパ各国語およびトルコ語,日本語,ロシア語,中国語,マレー語等の言語データが含まれている.本実験では,このうち,ISOLatin-1文字セットでコード化されている19言語のデータを用いた.表\ref{Tab:ECI_data}は,本実験で用いた言語の種類,各言語データのECIコーパス中での識別子,言語データのジャンルを示している.表のジャンル欄において,「並行テキスト」と記されているのは,同一の内容を多言語で記述したものであることを示している.ECIコーパス中のテキストはSGMLによりコード化されているが,本評価実験では,まずSGMLのタグを除去し,テキスト部分のみを抽出した.次に,多言語の言語データ間に均質性を持たせるために,単語表記中にアルファベット大文字が使われている場合は小文字に変換し,言語によってはウムラウトやアクセント記号等を表す特殊符号が入っていたが,英語式アルファベット26文字以外の特殊文字は,すべて対応するアルファベットに変換した.たとえば,\~{a}はaに変換した.また,文字のtrigramは,表\ref{Tab:ECI_data}の識別子欄に示されているテキストの最初の1,000単語を用いた.\begin{table}\caption{実験で用いた言語の種類・言語データの識別子・テキストのジャンル}\label{Tab:ECI_data}\begin{center}\begin{tabular}{c|c|c}\hline言語&ECIコーパスでの識別子&ジャンル\\\hline\hlineアルバニア語&alb01b&小説\\\hlineチェコ語&cze01a01&新聞\\\hlineラテン語&lat01a01&詩\\\hlineリトアニア語&lit01a&フィクション\\\hlineマレー語&mal01a01&技術文書\\\hlineノルウェー語&nor01a01&フィクション\\\hlineトルコ語&tur02a&新聞\\\hlineクロアチア語&cro18a&小説\\\cline{1-2}セルビア語&ser18a&(並行テキスト)\\\cline{1-2}スロベニア語&slo18a&\\\hlineデンマーク語&dan16a&\\\cline{1-2}オランダ語&dut16a&\\\cline{1-2}英語&eng16a&\\\cline{1-2}フランス語&fre16a&技術文書\\\cline{1-2}ドイツ語&ger16a&(並行テキスト)\\\cline{1-2}イタリア語&ita16a&\\\cline{1-2}ポルトガル語&por16a&\\\cline{1-2}スペイン語&spa16a&\\\hlineウズベク語&mul13a&小説\\\hline\end{tabular}\end{center}\end{table}\subsection{実験結果および考察}上記により作成した文字trigramモデルに対し,階層的(凝集型)クラスター分析を行ない,言語のデンドログラム(dendrogram;樹状図)を作成した.クラスタリング・アルゴリズムには,群平均法UPGMA(UnweightedPair-GroupMethodusingAverage)\cite{Washio89Book}と呼ばれる方法を用いた.群平均法は,広い範囲においてよい結果を与えるクラスター分析法であるといわれている.図\ref{Fig:ExprResult}に,19言語のクラスタリング結果を示す.言語名の左側の樹状図が実験により得られた結果であり,右側には各言語のおおまかな分類を記している.以下では,言語学的な観点から,クラスタリング結果の妥当性について考察する.なお,言語の分類および諸言語間の関係に関しては,文献\cite{GengoBook}を参考にした.まず,評価実験で用いた言語は,以下のように大きく分類される.\begin{itemize}\item[(A)]インド・ヨーロッパ語族\begin{itemize}\item[(A-1)]アルバニア語派(アルバニア語)\item[(A-2)]スラブ語派(チェコ語,クロアチア語,セルビア語,スロベニア語)\item[(A-3)]バルト語派(リトアニア語)\item[(A-4)]イタリック語派(ラテン語,フランス語,ポルトガル語,スペイン語,イタリア語)\item[(A-5)]ゲルマン語派\begin{itemize}\item[(A-5-1)]北ゲルマン語派(ノルウェー語,デンマーク語)\item[(A-5-2)]西ゲルマン語派(オランダ語,ドイツ語,英語)\end{itemize}\end{itemize}\item[(B)]アルタイ諸語(トルコ語,ウズベク語)\item[(C)]オーストロネシア語族(マレー語)\end{itemize}図\ref{Fig:ExprResult}の右側に示すように,実験により得られた結果は,上記の大分類を反映したものになっている.\begin{figure}[p]\setlength{\baselineskip}{0.25\baselineskip}\begin{small}\begin{center}\begin{verbatim}┌─────────────アルバニア語──アルバニア語派││┌───────チェコ語─┐┌──┤││││┌───┤┌─クロアチア語│││││┌───┤│スラブ語派│││└─┤└─セルビア語││└─┤││┌─┤│└─────スロベニア語─┘│││││└───────────リトアニア語──バルト語派││││┌────────────トルコ語──┐アルタイ諸語│└───┤│チュルク語族│└────────────ウズベク語──┘┌─┤││┌───────────ラテン語──┐││││││┌───┤┌───────フランス語│││││┌─┤│││││││┌─────ポルトガル語│イタリック語派│││└─┤└─┤│││││└─────スペイン語││└──┤││││└─────────イタリア語──┘─┤│││┌───────ノルウェー語─┐││┌─────┤│北ゲルマン─┐ゲ│││└───────デンマーク語─┘語派│ル│└─┤│マ││┌─────────オランダ語─┐│ン││┌─┤││語│└─┤└─────────ドイツ語│西ゲルマン─┘派│││語派│└───────────英語─┘│└────────────────────マレー語──オーストロネシア語族西部オーストロネシア語派\end{verbatim}\end{center}\end{small}\caption{ECI多言語コーパスより得られたクラスタリング結果}\label{Fig:ExprResult}\end{figure}\clearpage次に,言語間のより細かな関係について調べる.まず,実験結果では,スラブ語派に属するクロアチア語とセルビア語を,最初に一つのクラスタとしてまとめている.クロアチア語とセルビア語はともに,南スラブ語群に属し,両者の差異は方言的なものであるとされている.従って,両者を一つのクラスタとすることは,きわめて妥当であるといえる.また,実験結果では,スラブ語派とバルト語派を併合した後に,これをアルバニア語派と併合している.スラブ語派とバルト語派の諸言語には,多くの類似点が見られ,バルト・スラブ祖語の存在を考えている研究者もいる.アルバニア語は,同一の語派に属する言語がなく,1言語で1語派の扱いを受けているが,南スラブ語等の言語からの影響を受けている.実験結果は,以上の点を反映しているということができる.西ゲルマン語派に関しては,オランダ語とドイツ語を,まず併合しているが,ドイツ語学では,オランダ語をドイツ語の1方言,低地フランク語として扱っており,この2言語はきわめて類似している.以上のように,実験結果は,言語の細分類に関しても,かなりの部分で言語学での分類と一致しており,提案したクラスタリング手法が有効なものであることを示している.また,文字trigramモデルにおけるスムージングの効果を調べるために,スムージングを行わない場合についても実験を行った.スムージングを行わない場合には,トルコ語,ウズベク語,マレー語が1つのクラスタを形成するという結果が得られた(図\ref{Fig:ExprResult}から分かるように,スムージングを行った場合には,マレー語は単独で1つのクラスタを形成している).しかし,それ以外には,クラスタを形成する順序が多少違うだけで,結果に大きな違いを見いだすことはできなかった.この結果より,言語系統樹の構築では,言語モデルを多少精密化しても,精密化の影響を受けるまでには至らなかったということができる.\subsection{言語識別の実験}上記実験により,確率的言語モデルは言語のクラスタリングにきわめて有効であることを示したが,クラスタリング以外の分野での確率的言語モデルの有用性を示すために,追加実験として言語識別の実験を行った.この実験では,上記で作成した各言語の文字trigramモデルを用いて,未知のテキストから,そのテキストの使用言語を特定するということを行った.以下に,本実験の手順を示す.\begin{itemize}\item[(1)]各言語に対し,2つの未知テキストを評価データとして用意する.未知テキストは,表\ref{Tab:ECI_data}に示したものとは別のテキスト・データである.言語によっては,表\ref{Tab:ECI_data}以外のテキスト・データがないものもあり,言語識別用の評価データは26個(13言語)となった.なお,未知テキストとして用いた言語データは,以下の通りである.チェコ語(cze01a02,cze01a03),ラテン語(lat01a02,lat01a03),マレー語(mal01a02,mal01a03),ノルウェー語(nor01a02,nor01a03),セルビア語(ser01a01,ser01a02),デンマーク語(mda12a,mda12b),オランダ語(dut01a01,dut01a02),英語(eng01a,eng01b),フランス語(fre01a01,fre01a02),ドイツ語(ger02a,ger02b),イタリア語(ita01a,ita03a),ポルトガル語(por01a,por01b),スペイン語(spa02a,spa02b).\item[(2)]各未知テキストから,4.1節に示した手順と同様にして,未知テキストに対する言語モデル(文字trigramモデル)を作成する.\item[(3)]3.3節で導入した距離を用いて,未知テキストの言語モデルと各言語の言語モデルとの間の距離を計算する.最も小さな距離を与える言語を,未知テキストの使用言語と判断する.\end{itemize}上記による実験において,未知テキストの最初の10単語,20単語,30単語,40単語,50単語,100単語,1000単語を用いた場合について,言語識別率を求めた.実験結果を,図\ref{Fig:Rate}に示す.図から分かるように,未知テキストからの使用言語の特定には,20単語程度あれば十分であるということができる.20単語を用いたときには,26個の未知テキストのうち,25個についてその言語を正確に推定できた(識別率96.2\%).なお,識別に失敗したものは,例えばセルビア語のテキストをクロアチア語と間違うなど,近親関係の言語間での間違いが主であった.なお,$N$-gramに基づいた言語識別に関する研究としては,CavnarおよびTrenkleの研究\cite{Cavnar94}などがある.Cavnarらは,テキスト中に頻出する$N$-gram文字列の出現順位に基づいた距離を用いて,高い精度で言語の自動識別ができることを示している.彼らの実験では,8ヶ国語のネットニュースの記事を用いており,未知テキストが300文字以上与えられた場合には,99.8\%の識別率を達成したと報告している.実験に用いた言語データや対象言語の数などが異なることから,本論文の結果と直接比較することはできないが,Cavnarらの結果も本論文の結果も,$N$-gramが言語の自動識別に非常に有効であることを示している.\begin{figure}\begin{center}\atari(113,81)\end{center}\caption{未知テキスト中の単語数と言語識別率}\label{Fig:Rate}\end{figure}
\section{おわりに}
本稿では,確率的言語モデルに基づいた言語のクラスタリング手法を提案した.また,ECI多言語コーパス中の19ヶ国語のテキスト・データから言語の系統樹を再構築する実験を行ない,実験結果を言語学での分類と比較することにより,提案した手法の有効性を示した.本稿では,確率的言語モデルとして文字の$N$-gramモデルを用いたため,文字の連鎖という観点からのクラスタリング結果が得られた.言語類型論の分野では,言語の語順等により諸言語間の比較を行うことなどが行われているが,語順等に対する言語モデルを設定することができれば,言語類型性という観点から見たクラスタリングを行うことができるであろう.今後の課題として,(1)他の言語モデルを用いたときの言語のクラスタリング,(2)より多くの言語を対象としたクラスタリング実験を行いたいと考えている.また,本稿で述べた実験では,クラスタリング手法として群平均法UPGMAを用いたが,クラスタリング手法には他にも様々なものがあり,他の手法を用いた場合についても検討していく必要があろう.本稿では,言語のクラスタリングを中心に扱ったが,提案した手法はテキストの分類(TextCategorization)などにも応用可能であると考えられる.また,本稿で述べた基本的な手法は,比較言語学,方言研究,言語類型論,社会言語学などの幅広い分野で役立つものと期待される.本論文で提案した手法を,これらの分野において広く用いて頂くために,プログラムおよび実験に用いたデータを公開する.\[email protected]+宛に電子メイルで問い合わせられたい.\bibliographystyle{jnlpbbl}\bibliography{kita}\begin{biography}\biotitle{略歴}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,音声認識等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V05N01-07
|
\section{はじめに}
自然言語文には動詞を省略した文が存在する.この省略された動詞を復元することは,対話システムや高品質の機械翻訳システムの実現には不可欠なことである.そこで本研究では,この省略された動詞を表層表現と用例から補完することを行なう.表層表現とは,文章の表層に現れる手がかり表現のことである.例えば,助詞の「も」で文が終っている省略文の場合,助詞の「も」という手がかり語のおかげで前文の繰り返しであろうと推測でき,前文の文末の動詞を補えばよいとわかる.この表層表現を用いる手法は,応用範囲の大きい手法であり,解析したい問題があるとき,そのための手がかりとなる言語表現がその問題の近くに存在することが多く,それを用いることでその問題が解析可能となる.用例とは,人間が実際に使用した自然言語文のことである.用例を用いた動詞の補完方法の一例を以下にあげる.例えば,「そううまくいくとは」の文に動詞を補いたいとするとき,「そううまくいくとは」を含む文(用例)を大量の文章(コーパス)から取り出し(図\ref{tab:how_to_use_corpus}),「そううまくいくとは」に続く部分(この場合,「思えない」「限らない」など)を補完するということを行なう.この用例を用いる手法も,応用範囲の大きい手法であり,解析したい問題とよく似た形の用例を探してくれば,すぐにでも用いることができるものである.\begin{figure}[t]\begin{center}\begin{tabular}[t]{lll}&{\bf一致部分}&{\bf後続部分}\\[0.2cm]こんなに&\underline{うまくいくとは}&思えない。\\いつも&\underline{うまくいくとは}&限らない。\\完全に&\underline{うまくいくとは}&いえない。\\\end{tabular}\end{center}\caption{コーパスにおける「うまくいくとは」を含む文の例}\label{tab:how_to_use_corpus}\end{figure}以上のように表層表現と用例はともに応用範囲の広い方法であり,かつ,現在の自然言語技術でも十分に用いることができる便利な手法である.本稿はこの表層表現と用例を用いて動詞の補完を試みたものである.本研究は先行研究に対し以下の点において新しさがある.\begin{itemize}\item日本語の動詞の省略の補完の研究はいままでほとんどなされていなかった.\item英語については動詞の省略を扱った研究はたくさんあるが,それらは補うべき動詞がわかっているときにどういう構文構造で補完するべきかを扱っており,補う動詞を推定する研究はほとんどなされていない\cite{Dalrymple91}\cite{Kehler93}\cite{Lappin96}.それに対し,本研究は省略された動詞を推定することを扱っている.\item補うべき動詞が文中にないことがあり,システムが知識を用いて補うべき動詞をつくり出さなければならないことがある.本研究ではこの問題に対し用例を用いる方法で対処している.\end{itemize}
\section{動詞の省略現象の分類}
\label{sec:bunrui}\begin{figure}[t]\vspace{-2.5mm}\begin{center}\fbox{\begin{minipage}{13.5cm}\begin{center}\epsfile{file=murata.eps,height=3.5cm,width=13.5cm}\end{center}\caption{文末に動詞が欠けている文の分類}\label{fig:shouryaku_bunrui}\end{minipage}}\end{center}\vspace{-2.5mm}\end{figure}本研究は,動詞の省略現象として文末の省略現象についてのみ対象とする.文の内部で省略されることもあるが,それらは統語的な問題として処理されるであろうとし,本研究の対象外とした.本研究では,処理の観点から文末において動詞が欠けている文の分類を行なった.その分類を図\ref{fig:shouryaku_bunrui}に示す.これは,まず,補完する動詞がある位置から分類し,最後に省略現象の意味から分類したものである.倒置は省略ではないが,文末において動詞が欠けているという意味から本稿の対象内としている.この分類はまだまだ修正する必要があり不完全なものであるが,処理の観点から文末の動詞の省略現象を把握する場合には役に立つものであると考えている.以降の節では文末の省略現象のそれぞれの分類ごとに,その現象の特徴とおおよその解析方法を述べる.\subsection{テキスト内から補完される省略現象}\subsection*{倒置文}倒置文は多くの場合,終止形などの普通に文末となりうる表現が文の途中にあり,この部分を中心にして文が倒置されている.例えば,以下の文では「誰ですか」が普通に文末となりうる表現であり,この部分を中心にして文が倒置されている.\begin{equation}\begin{minipage}[h]{7cm}「誰ですか、来たのは」\end{minipage}\end{equation}このため,倒置文の解析は,終止形などの普通に文末となりうる表現が読点を伴って文の途中にある場合,その部分で倒置された倒置文と判断するということで行なう\footnote{倒置文の解析は,本来は文献\cite{touchi}にあるように構文解析が成功するか否かなどの情報を用いて行なうべきである.しかし,本研究で利用した構文解析システムはかかり受けの構造を出力するものであり,本研究の実験で用いるデータは構文情報を修正したものであり倒置文であってもかかり受けの構造で表現されており,構文解析が成功するか否かの情報を利用することができない.このため,本研究では表層の言語表現を用いて解析した.}.例えば,上の例文では「誰ですか」が普通に文末となりうる表現であり,その部分で倒置された倒置文であると判断される.\subsection*{疑問応答}疑問--応答という文の対において疑問と応答で同一の動詞を使用する際,応答側の文の動詞が省略される場合がある.例えば,以下の例文では「これを」の動詞が省略されているが,その省略部分に入る動詞は疑問側の「壊した」である.\begin{equation}\begin{minipage}[h]{7cm}「何を壊したの」「これを」\end{minipage}\end{equation}このため,この種の文の解析は,疑問--応答を形成しているかどうかを「何」などの表現によって検出し,疑問--応答であることがわかれば,疑問側の文の動詞を補完するということを行なう.\subsection*{理由・逆接・仮定}文末に動詞が欠けている文の中には,文末が接続助詞で終っており,前文と理由・逆接・仮定という意味関係で,ある種,文をまたがった倒置となっているものがある\footnote{接続助詞で終っている文がすべてこの分類となるわけではない.前文に対して倒置になっておらず,テキストにない動詞を補う必要があるものもある.これらは,\ref{sec:other_ellipsis}節の「その他(常識による補完)」で扱われることになる.}.例えば,以下の文の場合,「電気をつけたから」の部分が前文の「明るいね」の部分の理由になっており,文をいれかえて解釈すると意味の通った文となる.\begin{equation}\begin{minipage}[h]{7cm}「明るいね。電気をつけたから」\end{minipage}\end{equation}このような場合の解析は,基本的には文末が接続助詞で終了している場合は前文と意味関係にあると判定し,前文と文の順序を入れかえて解釈する.しかし,逆接の場合は単に以下のように以降の発話に余韻を持たせるために用いるだけで前文に対して逆接の関係にならない場合もある.\begin{equation}\begin{minipage}[h]{7cm}「お聞きしていいのかわかりませんが」\end{minipage}\end{equation}そこで,逆接の接続詞の場合は前文と関係を持ちやすい「のに」の場合は前文と関係があるとし,それ以外の接続助詞の場合は以降の発話に対して余韻を持たせていると判定する.\subsection*{補足}前文の補足としての役割をする文で,動詞の省略が行なわれることがある.例えば,以下の例文は,ものをなくしたけれども,鍵をなくしたということを補足的に述べている.\begin{equation}\begin{minipage}[h]{7cm}「物をなくした。鍵を」\end{minipage}\end{equation}この種の解析には単語の意味を利用する方法として以下の二種類の方法を考えた.一つは,省略された文と前文とで同じ格要素に来る単語の意味が近ければ,それらは対応関係にあって動詞の省略された部分には,前文の動詞が補完されるというものである.この場合,「物」と「鍵」は同じ具体物という意味で意味的に近いので対応関係にあると認定され,「鍵を」に対して補完する動詞は「なくした」となる.もう一つは以下のように前文の動詞の対応する格要素の部分がゼロ代名詞化した場合のための方法である.\begin{equation}\begin{minipage}[h]{7cm}「なくした。鍵を」\end{minipage}\end{equation}この例の場合は,動詞「なくす」の格フレームを用い,格フレームのヲ格の要素になりやすい単語\footnote{IPALの格フレーム辞書\cite{ipal}にはそれぞれの格要素にどういう単語が入りうるかの情報が記載されている.本研究ではこれを利用する.}と「鍵」を比較し,意味的に近ければ「鍵を」が「なくした.」のヲ格の要素にくると判定し,「鍵を」に補う動詞は「なくした.」となる.また,表層表現を用いる規則があり,反復を示す助詞「も」などの手がかり語が存在する場合は前の文の補足と判定する.前文の補足関係となる動詞の省略現象は以上の他にも多数あり,本研究での解析方法では手がかりがなければ前文の文末の動詞を補うということを行なっている.\subsection{テキスト外から補完される省略現象}\subsection*{疑問文}疑問文では提題助詞「は」で終了して動詞を省略する場合がある.例えば,以下の例は相手の名前を聞いているときの発話である.\begin{equation}\begin{minipage}[h]{7cm}「名前は」\end{minipage}\end{equation}このように``名詞+「は」''の形になっている場合は疑問になっていることが多い.そこで,本研究では``名詞+「は」''の形で終っている場合は,疑問と判定した\footnote{本研究は省略された動詞の補完なので,「何といいますか」といった表現を補いたいところだが,これらは疑問の内容によって変化するので,生成の問題であると判断し,本稿では扱っていない.}.\subsection*{ダの省略}文が名詞で終了している場合,判定詞「だ」の省略が行なわれていることがある.\begin{equation}\begin{minipage}[h]{7cm}「わたしは学生」\end{minipage}\end{equation}この例は「わたしは学生です」という文で判定詞「だ」または「です」の省略を行なったものである.この種の解析は文が名詞で終了しているか否かを調べたり,主語が存在しているなどの文構造を利用したりして行なえばよい.\subsection*{スルの省略}文末がサ変名詞である場合,「する」「します」が省略されていることがある.\begin{equation}\begin{minipage}[h]{7cm}「コーヒーをお願い」\end{minipage}\end{equation}これの例は「コーヒーをお願いします」という文で「します」を省略したものである.この解析は,文末がサ変動詞「する」が接続可能なサ変名詞であるかどうかやサ変名詞に対して連体修飾語が存在していないかどうかを調べることによって行なう.\subsection*{その他(常識による補完)}\label{sec:other_ellipsis}前の三つの「疑問文」「ダの省略」「スルの省略」の他にテキスト外補完の場合の省略例として以下のものがある.\begin{equation}\begin{minipage}[h]{7cm}「じつは、ちょっとお願いが……」\end{minipage}\end{equation}この種の省略現象は補うものがテキスト内に無いうえ,補完される言語表現が多岐にわたっており,解析が難しい現象である.本研究ではこの問題の解決するために大規模なコーパス(解析をしていないもの)を利用して補完内容を推定する.上の例文を人間が読むと省略された動詞が「あります」であることが自然とわかる.これは,頭の中に「じつは、ちょっとお願いがあります」という文が経験的知識となって存在しているからである.これと同じようなことをコーパスを用いて行なうとすると,「じつは、ちょっとお願いが」とできるだけ意味的に近い表現をコーパス中から抽出し,抽出した文の「じつは、ちょっとお願いが」の次の部分がおおよそ省略部分の内容であることが予想され,それを補完するということを行なえばよいことがわかる.本研究では,以上の方法で解析する.ただし,意味的に近い表現を抽出するところは,現在の自然言語技術では困難なので,文末の文字列を最長に含む文を抽出するということで近似している.
\section{照応処理システム}
\subsection{システムの枠組}\label{wakugumi}本研究では,動詞の省略現象の解析を行なう際,名詞,指示詞,代名詞,ゼロ代名詞などによる照応の解析も同時に行なう.まず,解析する文章を構文解析・格解析する\cite{csan2_ieice}.その結果に対して文章の初めから動詞の省略の補完を行なう.省略の補完は,省略の補完の手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて解の候補に得点を与えて,合計点が最も高い解の候補をシステムの解とすることによって実現する.この合計点を利用する方式は,以下の原理に基づいている.照応解析のように複雑な問題では,複数の情報が絡み合っており複数の情報を総合的に判断することにより解析を行なう必要がある.この複数の情報を総合的に判断するということを各規則の得点の和という形で実現し,合計点の最も高い候補をシステムの解としている.規則に応じて候補に得点を足していく操作は,その候補が解であるという確信度が高まっていくことに対応している.また,得点によりどの規則を優先すべきかを指定することができるようになっている\footnote{指示詞の指示先などの推定の場合文章中での物理的距離,意味的制約における意味の近さなど数値化せずには扱いにくいものが多数存在していたが,本研究の動詞の省略では数値化の必要性がある規則があまり存在せず規則の間の関係もそれほど複雑でないので,得点を使わずに単純なif-thenルールによる方式でも十分であったが,われわれは照応処理の統合を考えておりわれわれの他の照応処理の研究\cite{murata_noun_nlp}\cite{murata_deno_nlp}\cite{murata_indian_nlp}と同様な方式で解析を行ないたかったため,合計点を利用する方式を採用した.}.\begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{6cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..\}\\[-0.1cm]\hspace*{0.7cm}提案:=(解の候補\,得点)\caption{規則の表現}\label{fig:kouho_rekkyo}\end{minipage}}\end{center}\end{figure}規則は,図\ref{fig:kouho_rekkyo}の構造をしている.図中の「条件部」には文章中のあらゆる語やその分類語彙表\cite{bgh}の分類番号やIPALの格フレーム\cite{ipal}の情報や構文解析・格解析の結果の情報などを条件として書くことができる.「解の候補」には補完対象の動詞の位置や補完したい動詞などを書くことができる.「得点」は解としての適切さの度合を表している.\subsection{動詞の省略現象の解析}\label{sec:0verb_rule}動詞の省略の補完のために規則を22個作成したが,これらすべてを表\ref{tab:doushi_shouryaku_bunrui}に示す.これらの規則は文献\cite{kouryakubun}\cite{jutsugo_takahashi}を参考にしたり\ref{sec:jikken}節で述べる学習サンプルを見たりして人手で作成した.各規則で与える得点は,規則の優劣を考慮して人手で定めたり,学習サンプルで実験的に人手で定めたりした.\begin{table}[t]\footnotesize\caption{動詞の補完のための規則}\label{tab:doushi_shouryaku_bunrui}\begin{center}\begin{tabular}[c]{|@{}r@{}|p{4cm}|p{3cm}|@{}p{0.6cm}@{}|p{3.9cm}|}\hline順序&条件部&解の候補&得点&例文\\\hline\multicolumn{5}{|c|}{動詞の省略はないと判定する場合の規則}\\\hline1&文末が動詞の終止形,過去形,推量形,意志形,命令形の基本形などで終了している場合か,終助詞で終了している場合&動詞の省略はない&30&その湖は、北の国にあった。\\2&人名,もしくは,人を意味する単語で終了している場合&よびかけであり,動詞の省略はないと解釈する&30&「はい、先生」\\3&文末が基本連用形,もしくは,「て」で終る連用形であり,引用文内の場合&命令文と解釈し,動詞の省略はないと解釈する&30&「さあ、目をつぶって」\\4&文末が「が」などの逆接の接続助詞である場合&動詞の補完の必要のない逆接と解釈する&$5$&「お聞きしていいのかわかりませんが」\\\hline\multicolumn{5}{|c|}{倒置の場合の規則}\\\hline5&同一文に用言の基本形などの文末になりうる表現が読点を伴って存在する場合&その部分で倒置された倒置文と解釈する&$10$&「それで見つかったのか、約束の相手は」\\\hline\multicolumn{5}{|c|}{質問--応答の場合の規則}\\\hline6&「どうぞ」「はい」などの応答を示す表現が文内にあって前文の文末に疑問を示す「か」などがある場合&疑問文の文末の動詞&$5$&「近よって観察してもいいでしょうか」「どうぞ、ご自由に……」\\7&前方3文以内に「だれ」「何」などの疑問詞がある場合&疑問詞がかかる動詞&$5$&「だれを殺したんだ」「サルです。わたしの飼っていたサルを(殺したのです)」と、男が答えた。\\\hline\multicolumn{5}{|c|}{理由・逆接・仮定の場合の規則}\\\hline8&原因を意味する助詞「ので」「から」などが文末についている場合&現在の文を前文の理由を示す文であると解釈する.&5&「穴を埋めていただくのはありがたいが、その土地をあげるわけにはいかない。そこに、社を建てなくてはならないんだから」\\\hline9&文末が「のに」などの逆接の接続助詞である場合&現在の文に対して前文が逆接の関係でつながっていると解釈する&$5$&「これが悪魔とはねえ。もう少し堂々としたものかと思っていたのに」\\10&文末が動詞の条件形か仮定を表わす助詞である場合&現在の文を前文の仮定を示す文であると解釈する.&$5$&「それなら、いいじゃないか。なにも、交番にまで来て大さわぎしなくても」\\\hline\multicolumn{5}{|c|}{補足の場合の規則}\\\hline11&文末が連用形であり,引用文内でない場合&前文の補足の文と解釈し,前文の文末の動詞を補完する&5&召使は部屋に入り、えさを取りかえた。主人がよく与えていたシュークリームも加えて。\\12&文末に格助詞のついた名詞$A$があり,前文に同じ格助詞のついた名詞$B$があり,名詞$A$と名詞$B$の意味的な類似度が$s$である場合&名詞$B$がかかる動詞&$s*20$$-2$&いまでは、すべての悪がなくなっている。強盗だとか詐欺だとか、あらゆる犯罪が(なくなっている)。\\\hline\end{tabular}\end{center}\end{table}\clearpage\begin{table}[t]\footnotesize\addtocounter{table}{-1}\caption{動詞の補完のための規則(つづき)}\begin{center}\begin{tabular}[c]{|@{}r@{}|p{4cm}|p{3cm}|@{}p{0.6cm}@{}|p{3.9cm}|}\hline順序&条件部&解の候補&得点&例文\\\hline\multicolumn{5}{|c|}{補足の場合の規則}\\\hline13&文末に格助詞のついた名詞$A$があり,前文に同じ格の省略された格要素$B$があり,その格要素に入りやすいと格フレームに記述してある名詞と名詞$A$との意味的な類似度が$s$である場合&格要素$B$を持つ動詞&$s*20$$-2$&私は同僚に(\underline{}を)指さしてみせた。バラをからませた垣根のなかの、大きなニレの樹の下にある古風なつくりの住宅を。\\14&文末が名詞接続助詞「も」であるか,「もっとも」などの繰り返しを想起しやすい副詞が文中に存在する場合&同一発話者の前文の繰り返しと解釈し,同一発話者の前文の文末の動詞を補完する&$5$&「大人って悪いことばかりしているんだよ。よくわかんないけれど、ワイロなんてことも……」\\15&前文が疑問文の場合&前文の文末の動詞&$1$&\\16&いつでも適用される規則(他の規則が適用されない場合のデフォルト規則)&前文&$0$&\\\hline\multicolumn{5}{|c|}{疑問文の場合の規則}\\\hline17&文末が助詞「は」がつく名詞である場合&疑問文と解釈する&$3$&「名前は」\\\hline\multicolumn{5}{|c|}{ダの省略の場合の規則}\\\hline18&文末が名詞,もしくは,名詞接続助詞「ばかり」「だけ」などであり,文中に主語に相当する名詞接続助詞「は」「も」「が」がつく名詞がある場合&判定詞「です」の省略と解釈し,「です」を補完する&$2$&「これはわたしの、ちょっとしたかんちがい」\\19&文末が時間を意味する名詞の場合&判定詞「のことです」の省略と解釈し,「のことです」を補完する&$5$&そして、その次の夏。\\20&文末が名詞,もしくは,名詞接続助詞「ばかり」「だけ」などである場合&判定詞「です」の省略と解釈し,「です」を補完する&$1$&攻撃の命令を待つばかり。\\\hline\multicolumn{5}{|c|}{スルの省略の場合の規則}\\\hline21&文末が連体修飾語を持たないサ変名詞か動詞の連用形が名詞化したものである場合&「します」の省略と解釈し,「します」を補完する&$2$&それを神さまあつかい。\\\hline\multicolumn{5}{|c|}{常識から補完する場合の規則}\\\hline22&文末の部分文字列を最長に含む文をコーパスから取り出せる場合.その取り出した文において文字列一致した部分の後方に来る表現のうち最も多く出現したものの頻度が二番目のものよりも際だって大きい場合(二番目に多く出現したものの頻度の二倍以上の場合)は,9点を与え,そうでない場合は1点を与える.&取り出した文において文字列一致した部分の後方に来る表現のうち最も多く出現したもの(頻度最大のものが複数個ある場合は最初に取り出されたもの)&1or9&「そううまくいくとは(思えない)」\\\hline\end{tabular}\end{center}\end{table}\clearpageまた,名詞・代名詞の照応解析も同時に解析するが,このための規則については文献\cite{murata_noun_nlp}\cite{murata_deno_nlp}\cite{murata_indian_nlp}を参照のこと.表\ref{tab:doushi_shouryaku_bunrui}中の規則において,人を意味する単語の判定は,意味素性辞書\cite{imiso-in-BGH}において意味素性HUMが付与されている単語を,それとすることで行なった.また,時間を意味する名詞の把握は,意味素性辞書でTIMが付与されているか,形態素解析結果として時相名詞と解析されているものを,それとすることで行なった.規則1は特別な規則で,この規則が適用された時は他の規則は適用されないようになっている.規則12,13の$s$は,EDR概念辞書における名詞$A$と名詞$B$の類似度により与えられる.この類似度は,EDR概念辞書のトップノードと名詞$A$のノードの間の枝の数を$na$,トップノードと名詞$B$の間の枝の数を$nb$,名詞$A$,名詞$B$からのトップノードへのパスで初めてパスが一致するノードをCとし,ノード$C$とトップノードの間の枝の数を$nc$とすると,($nc$+$nc$)/($na$+$nb$)で与えられる.この式は,$na$,$nb$に対して$nc$の値の大きさの割合をとったものである.$na$,$nb$に対して$nc$の値が大きいとき,シソーラス中でのノード$C$の位置が相対的に下の方にあることになり,名詞\hspace{-0.2mm}$A$\hspace{-0.2mm}と名詞\hspace{-0.2mm}$B$\hspace{-0.2mm}の類似度が高いことを意味する.この手法は文献\cite{nlp}の方法を利用している.規則22で用いるコーパスは,新聞1年分のもの(約7千万文字)を利用している.コーパスから一致部分を取り出す方法はコーパスをソートしておき二分探索で行なっている.\subsection{解析例}動詞の省略の補完例を図\ref{tab:dousarei}に示す.図\ref{tab:dousarei}は「お願いが」の動詞の省略の解析を正しく行なったことを示している.これを以下で説明する.\begin{figure}[t]\fbox{\begin{minipage}[h]{13cm}「むりもありませんわ。はじめてお会いするのですから。じつは、ちょっとお願いが……」\vspace{0.5cm}解析における得点の分布\begin{tabular}[h]{|l|r|r|r|}\hline補完候補&前文の文末&あります\\\hline規則16&0点&\\\hline規則22&&1点\\\hline合計点&0点&1点\\\hline\end{tabular}\vspace{0.5cm}『じつは、ちょっとお願いが』の文末の文字列を最長に含む文の後方部分(上位のみ)\begin{tabular}[h]{|l|l|}\hline最長に一致する文の後方部分&出現回数(個数)\\\hlineあります&5\\ある&3\\\hline\end{tabular}\caption{動詞の補完例}\label{tab:dousarei}\end{minipage}}\end{figure}表\ref{tab:doushi_shouryaku_bunrui}で示した規則のうち,まず,文末が動詞の基本形などのふつうに文末になりうる表現でないので,一つ目の規則は適用されず,動詞の省略であると解釈される.次にいつでも適用される規則16が適用され前文の文末という候補があがる.次にコーパスを利用する規則22により,動詞「あります」が補完の候補にあがる.コーパスには他に「ある」などがあるが,これらよりも「あります」の方が頻度が多かったので,「あります」が補完の候補にあがる.表のように候補は二つあがるが,得点が最も大きい「あります」を正しく補完する.
\section{実験と考察}
\subsection{実験}\label{sec:jikken}動詞の省略の解析を行なう前には構文解析・格解析を行なう.構文解析・格解析における誤りのうち,動詞の省略の補完に影響を与えるものについては人手で修正した.\begin{table}[t]\fbox{\begin{minipage}[h]{13.5cm}\small\baselineskip=0.85\baselineskip\caption{本研究の実験結果}\label{tab:sougoukekka}\begin{center}\begin{tabular}[c]{|@{}l@{}l@{}l@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|}\hline&&&\multicolumn{4}{c|}{学習サンプル}&\multicolumn{4}{c|}{テストサンプル}\\\cline{4-11}&&&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}&\multicolumn{2}{c|}{再現率}&\multicolumn{2}{c|}{適合率}\\\hline\multicolumn{3}{|l|}{全分類での精度}&92\%&(129/140)&90\%&(129/144)&84\%&(125/148)&82\%&(125/152)\\\hline&\multicolumn{2}{l|}{テキスト内から補完}&100\%&(57/57)&85\%&(57/67)&94\%&(64/68)&81\%&(64/79)\\\hline&&倒置&100\%&(13/13)&93\%&(13/14)&100\%&(8/8)&80\%&(8/10)\\&&応答&100\%&(3/3)&100\%&(3/3)&---\%&(0/0)&---\%&(0/0)\\&&理由・逆接・仮定&100\%&(24/24)&88\%&(24/27)&100\%&(33/33)&85\%&(33/39)\\&&補足&100\%&(17/17)&74\%&(17/23)&94\%&(23/27)&77\%&(23/30)\\\hline&\multicolumn{2}{l|}{テキスト外から補完}&87\%&(72/83)&94\%&(72/77)&76\%&(61/80)&84\%&(61/73)\\\hline&&疑問文&100\%&(3/3)&75\%&(3/4)&---\%&(0/0)&0\%&(0/3)\\&&ダ省略&100\%&(54/54)&100\%&(54/54)&100\%&(51/51)&96\%&(51/53)\\&&スル省略&100\%&(2/2)&100\%&(2/2)&---\%&(0/0)&---\%&(0/0)\\&&その他(常識の利用)&72\%&(13/18)&76\%&(13/17)&56\%&(10/18)&59\%&(10/17)\\&&読者にも補完不能&0\%&(0/6)&---\%&(0/0)&0\%&(0/11)&---\%&(0/0)\\\hline\end{tabular}\end{center}各規則で与える得点は学習サンプルにおいて人手で調節した.\\{学習サンプル\{小説「ボッコちゃん」前半分(2614文)\cite{bokko}\}テストサンプル\{小説「ボッコちゃん」後ろ半分(2757文)\cite{bokko}\}評価に適合率と再現率を用いたのは,動詞を補う必要のない文末に対してシステムが誤って動詞を補ってしまう場合があり,この誤りを適切に調べるためである.再現率はシステムが正しく省略を補った文末の個数を,実際に省略が存在する文末の個数で割ったもので,適合率はシステムが正しく省略を補った文末の個数を,システムが省略を補った文末の個数で割ったものである.また,図\ref{fig:shouryaku_bunrui}の分類にはない「読者にも補完不能」という分類を新たに設けた.これは,発話が途中で中断されたものや,その文章のそこまでの読みでは読者にもまだわからないものである場合を意味する.これらに対する補完は困難であるので,常識を利用する方法の評価を正しく行なうために,ここの表では「その他(常識の利用)」とは別の分類とした.全分類では,「読者にも補完不能」という分類を含めて精度を求めている.「読者にも補完不能」は読者にも補完ができないので精度の算出には用いない方がよいと一見思えるが,「読者にも補完不能」であるような省略が存在していることをシステムが認識する必要があるので精度に含めた.}\end{minipage}}\end{table}実験は小説「ボッコちゃん」\cite{bokko}で行なった.これは新聞などよりも小説の方が多様な省略現象を含んでいるからである.また,実験においては実験テキストを学習サンプルとテストサンプルの二つに分けた.本研究の規則は学習サンプルを見て作成し,テストサンプルではその作成した規則の有効性を調べた.本研究で提案した手法で動詞の省略の補完を行なった結果を表\ref{tab:sougoukekka}に示す.本研究の実験の評価をする上で,正解の基準は以下のように緩めに設定した.動詞の省略の補完においては,テンスやアスペクトや丁寧表現などが異なっていても補うべき動詞が正しければ正解とした.テンスやアスペクトなどの問題は前後の文脈や話者と聴者の間の立場上の関係などが,影響するので,文と文の間の意味的な関係の研究や話者と聴者の間の立場上の関係の把握の研究において行なわれるべき問題と考え,ここでは扱わなかった.また,疑問文における省略については疑問であることさえ推定できればよいとした.また,ダの省略の解析では,名詞を列挙している部分も「だ」を補うことができればよいとしている.また,正解がテキスト内の動詞であっても,コーパスなどから補ったものがほぼ同様な動詞である場合は正解としている.\subsection{考察}表\ref{tab:sougoukekka}のようにテストサンプルにおいても再現率84\%,適合率82\%という比較的高い精度を得た.このことから本研究で作成した規則が有効であることがわかる.省略現象ごとの精度では,テキスト内補完の方がテキスト外補完よりも精度がよい.これは,テキスト内補完の場合補完する動詞の場所を特定するだけで良いので簡単であるが,テキスト外補完の場合補完する動詞がテキスト中にないことを判定したうえ補完する動詞を知識から持ってこないといけないため,難しいことを意味している.また,コーパスを利用して解析する「その他(常識の利用)」の精度はあまり良くなかった.しかし,「その他(常識の利用)」については解析が困難なので半分程度解析ができるだけでも価値がある.この手法は今後コーパスが増加した際には極めて主要な手法となるだろう.また,本稿では単なる文字列マッチングで類似度を計算していたが,意味や品詞情報を用いた類似度の算出を行なっていく必要がある.さらには,前文との兼ね合いを調べるために,前文の文のタイプ(疑問文であるか否かなど)が一致する用例のみから欲しい文を探し出すなどのことも行なわないといけない.規則を作成するために利用した学習サンプルの実験においては「その他(常識の利用)」「読者にも補完不能」以外の分類では再現率はすべて100\%であった.しかし,適合率については100\%でないものもあった.これは,推定の困難な「その他(常識の利用)」「読者にも補完不能」の分類にあたるものや省略・倒置が存在していないものを「その他(常識の利用)」以外の省略・倒置と推定し,システムが補った省略の個数が求めるべき省略の個数を上回ったため適合率が下がったものである.テストサンプルにおいては「その他(常識の利用)」以外の分類は今でも精度が高いが,誤ったものの中にはそれぞれの規則で表層表現の利用を精密にすることで改善できるものがあった.また,次のような新しい種類の規則が必要となるものがあった.\begin{equation}\begin{minipage}[h]{9cm}\vspace*{0.3cm}そのとたん、私は大きな悲鳴を聞いた。\\ちょうど、逃げ場のない場所で、なにかに押しつぶされているような、\underline{おそろしい声の……}。\vspace{0.3cm}\end{minipage}\end{equation}この例では「おそろしい声の」が前文の「大きな悲鳴」の補足となっている.これについては,以下の規則を利用すれば今後は解析可能となる.\begin{equation}\begin{minipage}[h]{9cm}\vspace*{0.3cm}文末が``名詞A+「の」''の形であり,``名詞A+「の」+名詞B''の形の用例を集め,名詞Bと意味的に近い名詞が前の文にある場合,その名詞に対する補足であると解釈する.\vspace*{0.3cm}\end{minipage}\end{equation}
\section{おわりに}
本研究では,表層表現と用例を用いて省略された動詞を補完するということを行なった.実験の結果,テストサンプルで再現率84\%,適合率82\%の精度で解析できた.テキスト内に補完すべき動詞がある場合は非常に精度が良かった.それに比べ,テキスト内に補完すべき動詞がない場合はあまり良くなかった.しかし,テキスト内に補完すべき動詞がない場合の問題の難しさから考えると,半分程度解析ができるだけでも価値があると思っている.また,コーパスが多くなり,計算機の性能もあがり大規模なコーパスが利用できるようになった際には,本稿で提案した用例を利用する手法は重要になるだろう.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,工学博士.現在,京都大学にて日本学術振興会リサーチ・アソシエイト.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976--1994).京都大学大型計算機センター長(1986--1990),日本認知科学会会長(1989--1990),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991--1993),機械翻訳国際連盟初代会長(1991--1993).電子情報通信学会副会長(1993--1995).情報処理学会副会長(1994--1996).京都大学附属図書館長(1995--1997).京都大学大学院工学研究科長(1997--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N06-04
|
\section{はじめに}
日本語形態素解析における誤り要因の1つに辞書に含まれない語・表記の存在がある.本論文では形態素解析で使用する辞書に含まれない語・表記をまとめて未知語と呼ぶ.形態素解析における未知語は表\ref{Table::UnknownWordClassification}に示すようにいくつかのタイプに分類することができる.まず,未知語は既知語から派生したものと,既知語と直接関連を持たない純粋な未知語の2つに大きく分けられる.従来の日本語形態素解析における未知語処理に関する研究は,事前に未知語をコーパスから自動獲得する手法\cite{Mori1996s,Murawaki2008}と,未知語を形態素解析時に自動認識する手法\cite{Nagata1999,Uchimoto2001,Asahara2004c,Azuma2006,Nakagawa2007a}の2つに大きく分けることができるが,いずれの場合も網羅的な未知語処理が目的とされる場合が多く,特定の未知語のタイプに特化した処理が行われることは稀であった.\begin{table}[t]\caption{形態素解析における未知語の分類}\label{Table::UnknownWordClassification}\input{04table01.txt}\end{table}しかし,未知語はタイプにより適切な処理方法や解析の難しさは異なっていると考えられる.たとえば既知語から派生した表記であれば,それを純粋な未知語として扱うのではなく既知語と関連付けて解析を行うことで純粋な未知語よりも容易に処理することが可能である.また,一般的に純粋な未知語の処理は,単独の出現から正確に単語境界を推定するのは容易ではないことから,コーパス中の複数の用例を考慮し判断する手法が適していると考えられるが,オノマトペのように語の生成に一定のパターンがある語は,生成パターンを考慮することで形態素解析時に効率的に自動認識することが可能である.さらに,\ref{SEC::RECALL}節で示すように,解析済みブログコーパス\cite{Hashimoto2011}で複数回出現した未知語で,先行手法\cite{Murawaki2008}やWikipediaから得た語彙知識でカバーされないものを分析した結果,既知語から派生した未知表記,および,未知オノマトペに対する処理を行うことで対応できるものは異なり数で88個中27個,出現数で289個中129個存在しており,辞書の拡張などで対応することが難しい未知語の出現数の4割程度を占めていることが分かった.そこで本論文では既知表記から派生した未知表記,および,未知オノマトペに焦点を当て,既知語からの派生ルールと未知オノマトペ認識のためのパターンを形態素解析時に考慮することで,これらの未知語を効率的に解析する手法を提案する.
\section{日本語形態素解析}
\subsection{日本語形態素解析の一般的な流れ}日本語形態素解析では,形態素辞書の存在を前提とした手法が一般的に用いられてきた.以下に一般的な日本語形態素解析の手順を示す.\begin{description}\item[手順1]文中の各位置から始まる可能性のある形態素を事前に準備した辞書から検索\item[手順2]形態素の候補を列挙した形態素ラティスを作成\item[手順3]形態素ラティスから文として最も確からしい形態素の並びを決定\end{description}たとえば以下の文が入力された場合,図\ref{Figure::lattice}に示す形態素ラティスが作られ,最終的に太線で記されている組合せに決定される.\begin{figure}[b]\begin{center}\includegraphics{21-6ia4f1.eps}\end{center}\caption{形態素ラティスの例}\label{Figure::lattice}\end{figure}\begin{exe}\ex{父は日本人。}\end{exe}手順1において,文中の各位置から始まる可能性のある形態素を探索する際にはトライ木に基づく高速な探索手法が一般的に用いられる.また,手順3における最尤パスの選択は各形態素ごとに定義された生起コスト,および,各連接ごとに定義された連接コストに基づいて行われる.パス全体のコストは,パスに含まれる形態素の生起コスト,および,それらの連接コストを加算することにより計算され,コストが小さいほど確からしい形態素の並びであることを意味する.コストの設定方法としては人手で行う方法\cite{Juman1994}や,機械学習に基づく手法\cite{Asahara2000,Kudo2004}があるが,最尤パスの探索にはいずれもViterbiアルゴリズムが用いられる.\subsection{形態素解析における未知語処理}日本語形態素解析における未知語処理に関する研究は多く行われてきた.代表的な手法として,事前に未知語をコーパスから自動獲得する手法\cite{Mori1996s,Murawaki2008}と,未知語を形態素解析時に自動認識する手法\cite{Nagata1999,Uchimoto2001,Asahara2004c,Azuma2006,Nakagawa2007a}の2つが挙げられる.前者の手法は後者の手法と比べ,ある1つの未知語候補に対しコーパス中での複数の用例を考慮することができるため,単独の用例では判別の難しい未知語にも対処できるという特長がある.一方,後者の手法は字種や前後の形態素候補を手掛かりとして統計や機械学習に基づく未知語モデルを構築する手法であり,コーパス中に出現しなかった未知語についても認識が可能という特長がある.しかしながら,これらの研究はいずれも基本的に網羅的な未知語処理を目的としており,未知語タイプごとの特徴はあまり考慮されていない.特定の未知語,特にくだけたテキストに出現する未知語に特化した研究としては,風間ら\cite{Kazama1999},Kacmarcikら\cite{Kacmarcik2000},池田ら\cite{Ikeda2010},工藤ら\cite{Kudo2012},斉藤ら\cite{Saito2013,Saito2014}の研究がある.風間ら\citeyear{Kazama1999}は,Web上のチャットで使用されるようなくだけたテキストの解析を目的とし,品詞bi-gramモデルに基づく確率的形態素解析器をベースとし,文字の挿入や置換が直前の文字や元の文字に依存していると仮定しそれを考慮に入れるように拡張することで,文字の挿入や置換に対して頑健な形態素解析システムの構築を行っている.しかし,池田ら\citeyear{Ikeda2010}が,風間らの手法を参考に辞書拡張ルールを作成し,200万文のブログ文書に適用して単語区切りに変化が見られた53,488文をサンプリングし評価したところ,37.2\%の文はルール適用前と比べて単語区切りが悪化したと報告していることから,風間らの手法はオンラインチャット,および,それに類するテキストにのみ有効な手法であると推察される.本研究で提案する既知語から派生した未知語処理手法も,基本的に風間らと同じくルールに基づくものであるが,未知語のタイプに応じた効率的な辞書の検索を行うことで,高い精度を保ちつつ高速な解析を実現している点に特長がある.Kacmarcikら\citeyear{Kacmarcik2000}は形態素解析の前処理としてテキスト正規化ルールを適用する手法を提案している.池田ら\citeyear{Ikeda2010}はくだけた表現を多く含むブログなどの文書を入力とし,くだけた表現の少ない新聞などの文書からくだけた表現の修正候補を検索することで修正ルールを自動的に生成し,さらに生成した修正ルールを3つの言語的な指標によりスコアリングすることで文脈に適した修正ルールを選択する手法を提案している.これらの研究ではいずれも前処理として入力テキストを正規化・修正しているのに対し,本研究では形態素解析と並行して未知語処理のためのルール・パターンを適用する.このような設計により,従来手法では処理が難しかった連濁化現象により初音が濁音化した語の認識も可能となる.工藤ら\citeyear{Kudo2012}は,ひらがな交じり文が生成される過程を生成モデルでモデル化し,そのパラメータを大規模WebコーパスおよびEMアルゴリズムで推定することで,Web上のくだけたテキストに頻出するひらがな交じり文に頑健な形態素解析手法を提案している.工藤らの手法は必ずしもひらがな交じり文にのみ有効な手法ではなく,本研究で対象とする小書き文字や長音記号を用いた表現に適用することも可能であると考えられるが,本研究ではこれらの表現に対してはコーパスを用いた学習を行わなくても十分に実用的な精度で処理を行うことが可能であることを示す.斉藤ら\citeyear{Saito2013,Saito2014}はソーシャルメディア上のテキストから抽出した崩れ表記に対し正規表記を付与した正解データを用いて文字列レベルの表記の崩れパターンを自動抽出する手法を提案している.これに対し,本研究では人手でパターンを与える.正解データを用いてパターンを自動抽出する手法の利点としてはパターンを人手で作成する必要がないことが挙げられるが,人が見た場合に明らかなパターンがあった場合でも一定規模の正解データを作成する必要があり,どちらの手法が優れているかは崩れ表記のタイプにより異なると考えられる.教師なし単語分割\cite{Goldwater2006}や形態素解析\cite{Mochihashi2009}に関する研究もテキストに出現する未知語処理の1つのアプローチとみなすことができる.また,くだけたテキストに出現する表記バリエーションに対処する方法として,形態素解析に使用する辞書にこれらの表記バリエーションを追加するという方法も考えられる.たとえば,連濁による濁音化も含む多くの表記バリエーションに対応した形態素解析用の辞書としてUniDic\cite{Den2007}があり,このような辞書を用いることで未知語の数を減らすことが可能であると考えられる.しかし,長音記号は任意の数を挿入することが可能であることからも明らかなように,表記バリエーションの種類は無数に考えられ,すべてを辞書に含めることは不可能である.また,連濁により濁音化した形態素を高精度に認識するためには,直前の形態素の品詞等を考慮する必要があることから,連濁の認識を辞書の改良だけで行うことは難しいと考えられる.
\section{提案手法}
\label{SEC::PRO}\subsection{提案手法の概要}本論文では主に形態素ラティスの生成方法の改良により,形態素解析で使用する辞書に含まれる語から派生した未知表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案する.具体的には既存の形態素解析システムに,既知語から派生した未知表記に相当する形態素ノードを生成するためのルール,および,未知オノマトペに相当する形態素ノードを生成するためのパターンを導入することで,これらのタイプの未知語の自動認識を行う.たとえば,下記のような文が入力された場合,図\ref{Figure::oisii}で実線で示したノード・経路に加え,新たに破線で示した未知語に相当するノード,および,それを経由する経路を追加し,新たに生成された形態素ラティスから最適な経路を探索することで,下記の文の正しい形態素解析を実現する.\begin{figure}[t]\begin{center}\includegraphics{21-6ia4f2.eps}\end{center}\caption{提案システムの概要}\label{Figure::oisii}\end{figure}\begin{exe}\ex{ぉぃしかったでーーす。}\end{exe}本研究では,比較的単純なルールおよびパターンのみを考慮し,さらに,辞書を用いた形態素検索の方法を工夫することで,解析速度を大きく低下させることなく,高精度に一部の未知語の処理が可能であることを示すことを主な目的とする.このため,本研究で使用するルールやパターン,および,置換ルールやオノマトペ認識の対象とする文字種の範囲は,現象ごとにコーパスを分析した結果に基づき,解析結果に大きな悪影響が出ない範囲で出来る限り多くの未知語を解析できるよう人手で定めたものを使用する\footnote{具体的には,タイプごとに10程度の代表的な表現を列挙し,それらの用例を検索エンジン基盤TSUBAKI\cite{Shinzato2008}で使用されているWebページから数例ずつ収集した上で,できるだけ多くの用例が正しく解析できるように使用するルール,パターン,文字種の調整を行った.}.同様に,各ルールやパターンを適用するためのコストに関しても,機械学習等により最適な値を求めることは行わず,人手で調整した値を使用し,ベースラインとする形態素解析システムには,各形態素の生起コストや連接コストの調整を人手で行っているJUMAN\footnote{JUMANVer.~5.1:http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/juman/juman-5.1.tar.gz}を用いる.\subsection{既知形態素から派生した未知語の自動認識}\label{SUBSEC::PRO}\subsubsection{対象とする未知語}本研究では既知形態素から派生した未知語として以下の5つのタイプの未知語を扱う.\begin{enumerate}\item連濁により濁音化した語\item長音記号による置換を含む語\item小書き文字による置換を含む語\item長音記号の挿入を含む語\item小書き文字の挿入を含む語\end{enumerate}以下では,連濁による濁音化,長音記号および小書き文字による置換,長音記号および小書き文字の挿入の3つに分けて,対象とする未知語の詳細,および,それぞれどのようにノードを追加するかについて詳述する.\subsubsection{連濁による濁音化}連濁とは複合語の後部要素の初頭にある清音が濁音に変化する現象のことを指す.連濁現象により濁音化した形態素表記の多くは辞書に登録されていないため,形態素解析において未知語として扱われる場合が多い.たとえば以下のような文が入力された場合,「こたつ」という表記が辞書に含まれていたとしても,「ごたつ」が辞書に登録されていないと「ごたつ」を1形態素として正しく認識することができない.\begin{exe}\ex{掘りごたつ。}\end{exe}そこで,初頭が清音である名詞については,初頭の清音が濁音化したものも形態素候補として形態素ラティスに追加する.この際,1つの元となる形態素に対し濁音化した形態素はたかだか1つであることから,濁音化した形態素をあらかじめ形態素辞書に追加することにより,通常のトライ木に基づく形態素の探索の枠組みで濁音化した形態素候補をラティスに追加する.ただし,連濁は複合語の後部要素にのみ生じる現象であり,さらに,連濁は複合語の後部要素であれば必ず起こるわけではなく表\ref{Table::Stop_Rendaku}に示すような連濁の発生を抑制する要因が知られていることから以下の制約を課す.\begin{table}[b]\caption{連濁の発生を抑制する要因}\label{Table::Stop_Rendaku}\input{04table02.txt}\end{table}\begin{itemize}\item直前の形態素が名詞,動詞の連用形,名詞性接尾辞の場合のみ濁音化したノードを使用\footnote{ただし,直前の形態素が接尾辞以外で平仮名1文字の場合は解析に悪影響を与えることが多かったため,直前の形態素が名詞または動詞連用形であった場合も平仮名1文字である場合は濁音化したノードを使用しないようにした.}\item代表的な表記がカタカナを含む形態素は濁音化の対象としない\footnote{本論文における実験では使用する形態素解析システムJUMANの辞書に含まれている代表表記\cite{Okabe2007}を使用し判定した.ここで代表表記とは,表記揺れに対応するために各語に対して与えられた代表的な表記方法とその読みのペアであり,多くの場合,代表的な表記方法は和語に対しては漢字および平仮名を,漢語に対しては漢字を,外来語に対しては片仮名を用いて表される.}\item形態素がもともと濁音を含んでいる場合は濁音化の対象としない\footnote{ただし,例外である「はしご」については辞書中に濁音化できることを記述し濁音化の対象とした.}\end{itemize}新たに生成された濁音化した形態素の生起コストは,その元となった形態素の生起コストよりも大きく設定した.具体的なコストの設定方法については付録\ref{APPEND::A}に記載した.本研究では,濁音化した形態素をはじめとする未知語の生起コストを通常の形態素の生起コストよりも意図的に大きめに設定している.これは未知語を含む文が新たに正しく解析できるようになることによるユーザの形態素解析システムへの評価の上昇幅よりも,通常解析できることが期待される文が正しく解析できない場合の評価の下落幅の方が大きいと考えたためである.\subsubsection{長音記号・小書き文字による置換}くだけたテキストでは,「おはよー」,「うらやまし〜」や「ぁなた」などのように形態素辞書中に含まれる語表記の一部が長音記号や小書き文字に置換された表現が出現する.このうち長音記号に置換される文字の多くは,「おはよう」の「う」や,「うらやましい」の「い」などのように直前の文字を伸ばした音に類似していると考えられる.そこで長音記号があった場合,入力文字に対し行う通常の形態素の検索に加え,長音記号をその直前の文字に応じて表\ref{Table::ProlongRule}に示す母音文字に置き換えた文字列に対しても形態素の検索を行い,検索された形態素を形態素ラティスに追加する.本研究では長音記号として「ー」と「〜」の2つを扱う.小書き文字があった場合も同様に対応する通常の文字に置き換えた文字列を作成し形態素の検索を行う.本研究では,「ぁ」,「ぃ」,「ぅ」,「ぇ」,「ぉ」,「ヵ」,および「ゎ」を置換対象とし,それぞれ「あ」,「い」,「う」,「え」,「お」,「か」,「わ」に置換する.たとえば「ぉぃしー。」という文があった場合,「おいしい。」という文字列に対しても形態素の検索を行い,新たに検索された形態素を「ぉぃしー」から生成された形態素ラティスに追加する.\begin{table}[b]\caption{直前の文字ごとの長音記号を置き換える母音文字}\label{Table::ProlongRule}\input{04table03.txt}\end{table}この際,長音記号および小書き文字は何らかの文字の置換により出現した場合だけでなく,以下で述べるように挿入された場合もあると考えられる.しかし,事前の分析の結果,同一形態素内で置換されたものと挿入されたものが混じって出現することは相対的に少ないことが分かったため\footnote{解析済みブログコーパス\cite{Hashimoto2011}では,置換と挿入が混在していると考えられる未知語は「あぁー」の1例のみであった.},解析速度への影響を考慮し,これらの未知語は本研究では扱わない.また,長音記号・小書き文字の置換により新たに生成された形態素の生起コストの設定方法は,長音記号・小書き文字の挿入により生成された形態素の生起コストとともに付録\ref{APPEND::B}に記載した.\subsubsection{長音記号・小書き文字の挿入}くだけたテキストでは,「冷たーーーい」や「冷たぁぁぁい」などのように形態素辞書中に含まれる語に長音記号や小書き文字が挿入された表現が出現する.これらの表記において,挿入される文字数は任意であることからこれらの表現をすべて辞書に登録することは難しい.そこで本研究では,長音記号・小書き文字の置換に対する処理と同様に,入力文字列に対し一定の処理を行った文字列に対し形態素の検索を行い,その結果を形態素ラティスに追加することにより,長音記号および小書き文字の挿入に対応する.具体的には,「ー」および「〜」が出現した場合,または,「ぁ」,「ぃ」,「ぅ」,「ぇ」,「ぉ」が出現し,かつ,その直前の文字が小書き文字と同一の母音をもつ平仮名\footnote{本研究では特に断りがない場合,平仮名としてUnicodeの3040〜309Fの範囲を,また,片仮名としてUnicodeの30A0〜30FFの範囲を使用する.}であった場合に,それらを削除した文字列を作成する.たとえば「冷たぁぁーーい。」という文があった場合,「冷たい。」という文字列に対しても形態素の検索を行い,新たに検索された形態素を「冷たぁぁーーい。」から生成された形態素ラティスに追加する.\subsection{未知オノマトペの自動認識}\subsubsection{未知オノマトペのタイプ}オノマトペとは「わくわく」,「しっかり」などのような擬音語・擬声語のことである.日本語では比較的自由にオノマトペを生成できることから特にくだけたテキストでは「ぐじょぐじょ」や「ぐっちょり」などのような辞書に含まれないオノマトペが多く出現する.本研究では多くの未知オノマトペが一定のパターンに従っていることを利用し,特定のパターンに従う文字列をオノマトペの候補とすることで未知オノマトペの自動認識を行う.ここで,オノマトペの品詞としては,副詞,サ変名詞,形容詞などが考えられるが,本研究ではオノマトペが必要以上に細かく分割されるのを防ぐことを主な目的とし,すべて副詞として処理する.以下では「ぐじょぐじょ」などのように反復を含むタイプと,「ぐっちょり」などのように反復を含まないものの2つに分け,それぞれどのようにノードを追加するか詳述する.\subsubsection{反復型オノマトペ}オノマトペの代表的なパターンの1つに「ぐじょぐじょ」や「うはうは」などのように,同じ音が2度反復されるパターンがある\cite{Kakai1993}.そこで本研究では2文字から4文字までの平仮名または片仮名が反復されている場合,それらを未知オノマトペの候補として形態素ラティスに追加する.これらのオノマトペは入力文の各位置において,そこから始まる平仮名または片仮名$n$文字とその直後の$n$文字が一致しているかどうかを調べることで効率的に探索することが可能である.ただし,「むかしむかし」や「ぜひぜひ」などのように同音が反復された場合でもオノマトペではない表現も存在する.このため,追加された未知オノマトペノードが必要な場合にのみ選択されるように,追加したノードのコストを適切に設定する必要がある.本研究では,基本的に反復文字数ごとにコストを設定し,さらに濁音・半濁音や開拗音を含む表現はオノマトペである場合が多いこと,また,平仮名よりも片仮名の場合の方がオノマトペである場合が多いことを考慮し,コストを人手で設定した.実際に使用したコストは付録\ref{APPEND::C}に記載した.\subsubsection{非反復型オノマトペ}\begin{table}[b]\caption{非反復型オノマトペのパターンとコスト}\label{Table::OnoPattern}\input{04table04.txt}\end{table}反復を含まない場合もオノマトペは一定のパターンに従うものが多い\cite{Kakai1993}.そこで本研究ではオノマトペを認識するためのパターンを導入し,導入したパターンに従う文字列を形態素候補として形態素ラティスに追加する.本研究で使用したパターンを表\ref{Table::OnoPattern}に示す.パターン中のH,K,{\scriptsizeH},{\scriptsizeK}はそれぞれ平仮名,片仮名\footnote{本研究で平仮名,片仮名として使用したそれぞれ69文字の一覧は付録\ref{APPEND::D}に記載した.},平仮名の開拗音字(「ゃ」,「ゅ」,「ょ」),および,片仮名の開拗音字(「ャ」,「ュ」,「ョ」)を表す.これらは事前にコーパスを分析した結果,出現頻度が高く,かつ,悪影響の少ないパターンである.いずれも2音節の語基を持ち,先頭の4つは2音節の間に促音を持ち「り」語尾が付いたもの,残りの3つは2音節に促音および「と」が付いたものとなっている.本論文ではパターンを導入することの有効性を確認することを目的とし,実験には表\ref{Table::OnoPattern}に示した7つのパターンのみを使用したが,さらに多くのパターンを導入することで,より多くのオノマトペを認識できると考えられる.また,コストは本研究で使用する形態素解析システムJUMANにおけるコストであり,一般的な副詞のコストを100とした場合の形態素生起コストを表している\footnote{JUMANでは単語の生起コストを,辞書に付与された形態素の各表記のコストに,品詞コストを乗じることにより算出している.一般的な副詞の場合,表記のコストが1.0,副詞の品詞コストが100であることから,一般的な副詞の生起コストは100となる.}.非反復型オノマトペを含む形態素ラティスの生成にあたり,入力文の各位置から始まる文字列が表\ref{Table::OnoPattern}に示すパターンに一致するかどうか検索すると,形態素ラティスの生成速度が大きく低下する可能性が考えられる.そこで本研究では,表\ref{Table::OnoPattern}に示す各パターンから生成されうる形態素の数はたかだか4,761ないしは14,283である\footnote{非反復型オノマトペの生成に使用した平仮名,片仮名の種類は69,開拗音字の種類は3であることから,2つの任意の平仮名,または,片仮名のみを含むパターンの場合は4,761,拗音も含むパターンの場合は14,283の形態素候補が生成される.}ことに着目し,これらの候補をすべて事前に辞書に追加することで,通常のトライ木に基づく辞書検索により未知オノマトペのノードを形態素ラティスに追加できるようにした.\subsection{未知語処理の流れ}表\ref{Table::Summary}に本研究で扱う未知語のタイプと,各未知語に相当するノードをどのように形態素ラティスに追加するかをまとめる.これらの未知語処理をすべて行った場合の形態素ラティスの作成手順は以下のようになる.\begin{table}[b]\caption{提案手法で扱う未知語のタイプと未知語ノードの形態素ラティスへの追加方法}\label{Table::Summary}\input{04table05.txt}\end{table}\begin{enumerate}\item形態素解析に先立ち,連濁により濁音化した形態素,および,非反復型オノマトペの候補を形態素解析辞書に追加\item入力文に対し,形態素の検索を行い形態素ラティスを作成\item入力文中に出現した長音記号・小書き文字を\ref{SUBSEC::PRO}節で述べたルールに基づき置換した文字列に対し形態素の検索を行い,新たに検索された形態素を形態素ラティスに追加\item入力文中に出現した長音記号・小書き文字を\ref{SUBSEC::PRO}節で述べたルールに基づき削除した文字列に対し形態素の検索を行い,新たに検索された形態素を形態素ラティスに追加\item文字列比較により,入力文に含まれる平仮名または片仮名の2文字から4文字までの反復を探し,存在した場合は形態素ラティスに追加\end{enumerate}
\section{実験と考察}
\subsection{提案手法の再現率}\label{SEC::RECALL}提案手法の有効性を確認するため,まず,再現率,すなわち対象の未知語のうち正しく解析できる語の割合の調査を行った.すべての未知語をタグ付けした大規模なデータを作成するためには大きなコストが必要となることから,本研究では未知語のタイプごとに個別に対象の未知語を含むデータを作成し再現率の調査を行った.未知語のタイプを限定することで,正規表現等により対象の未知語を含む可能性のある文を絞り込むことができ,効率的にデータを作成できるようになる.具体的には,検索エンジン基盤TSUBAKI\cite{Shinzato2008}で使用されているWebページから,各未知語タイプごとに正規表現を用いて未知語を含む文の候補を収集し,そこから未知語を100個含む文集合を作成し,再現率の評価を行った.ただし,ここで使用した文集合には\ref{SEC::PRO}節で説明したルール・パターンの作成の際に参考にした文は含まれていない.結果をUniDic\cite{Den2007}によるカバー率とともに表\ref{Table::Recall}に示す.ここで,UniDicによるカバー率とは対象の未知語100個のうちUniDicに含まれている語の数を表している.実際にUniDicを用いたシステムにおいて対象の未知語を正しく解析できるかどうかは考慮していないため,UniDicによるカバー率はUniDicを用いたシステムが達成できる再現率の上限とみなせる.\begin{table}[b]\caption{未知語タイプごとの再現率とUniDicによるカバー率}\label{Table::Recall}\input{04table06.txt}\end{table}表\ref{Table::Recall}に示した結果から,すべての未知語タイプに対し提案手法は高い再現率を達成できることが確認できる.連濁を除く未知語タイプにおいてはUniDicによるカバー率よりも高い再現率を達成していることから,考えうる多くの未知語を人手で登録するアプローチに比べ,既知語からの派生ルールと未知オノマトペ認識のためのパターンを用いる提案手法のアプローチは,低コストで多くの未知語に対応できると言える.一方,連濁により濁音化した語については正しく認識できた語の数はUniDicでカバーされている語の数よりも少なかった.たとえば以下の文に含まれている「がわら」は正しく認識することができなかった.\begin{exe}\ex{赤\underline{がわら}の民家です。}\end{exe}これは連濁と関係ない表現を連濁により濁音化したものであると認識しないように,連濁により濁音化した形態素のノードに大きなコストを与えているためである.たとえば以下のような文があった場合,連濁により濁音化した形態素のコストを元の形態素のコストと同程度に設定した場合は「でまわり」を「手回り」が濁音化したものと解析してしまうため,濁音化した形態素のノードには大きめのコストを与える必要がある.\begin{exe}\ex{笑顔\underline{でまわり}の人たちを幸せにする。\label{EX::DEMAWARI}}\end{exe}\begin{table}[t]\caption{解析済みブログコーパスにおいて2回以上出現した未知語の分類}\label{Table::Coverage}\input{04table07.txt}\end{table}続いて,実コーパスにおける再現率の評価を行うため,解析済みブログコーパス\cite{Hashimoto2011}\footnote{Kyoto-UniversityandNTTBlogコーパスhttp://nlp.ist.i.kyoto-u.ac.jp/kuntt/}を用いた評価を行った.具体的には解析済みブログコーパスで1形態素としてタグ付けされている語のうち,2回以上出現し,かつ,JUMAN5.1の辞書に含まれていない230語を,村脇らによりコーパスから自動生成された辞書\cite{Murawaki2008}でカバーされているもの,それ以外でWikipediaにエントリを持つもの,それ以外で提案手法によりカバーされるもの,その他の4つに分類した.結果を表\ref{Table::Coverage}に示す.村脇らによる辞書,および,Wikipediaのエントリでもカバーされない未知語のうち異なり数でおよそ30\%,出現数でおよそ45\%が提案手法により解析できており,提案手法による未知語処理が実コーパスに対しても有用であることが確認できる.また,提案手法により解析できた未知語には,連濁による濁音化を除くすべての未知語タイプが含まれており,様々な未知語タイプが実コーパスにおいて出現することが確認できた.\subsection{解析精度・速度の評価}本論文で導入したルール・パターンを用いることで新たに認識された未知語の精度,および,解析速度の変化を調べるため,これらのルール・パターンを用いないベースラインモデルと提案手法を用いたモデルを以下の7つの観点から比較することにより提案手法の評価を行った.本節の実験ではJUMAN5.1をデフォルトのコスト設定のまま使用したものをベースラインモデルとした.\begin{enumerate}\item解析結果が変化した100箇所中,解析結果が改善した箇所の数:$P_{100D}$\item解析結果が変化した100箇所中,解析結果が悪化した箇所の数:$N_{100D}$\item10万文あたりの解析結果が変化した箇所の数:$D_{100kS}$\item10万文あたりの解析結果が改善した箇所の推定数:$P^{*}_{100kS}$\item10万文あたりの解析結果が悪化した箇所の推定数:$N^{*}_{100kS}$\item形態素ラティスにおけるノードの増加率:$N\!ode_{inc.}$\item解析速度の低下率:$SP_{loss}$\end{enumerate}実験には検索エンジン基盤TSUBAKI\cite{Shinzato2008}で使用されているWebページから収集した10万文を使用した.これらの文は平仮名を1字以上含み,かつ,全体で20文字以上で構成される文であり,\ref{SEC::PRO}節で説明したルール・パターンの作成の際に参考にした文は含まれていない.まず,$P_{100D}$と$N_{100D}$を算出するため,各ルール・パターンを用いた場合と用いなかった場合で解析結果が変化した箇所を100箇所抽出し,それらを改善,悪化,その他の3クラスに分類した.この際,基本的に分割箇所が変化した場合は分割箇所の優劣を比較し,分割箇所に優劣がない場合で品詞が変化した場合はその品詞の優劣を比較した.ただし,形態素区切りが改善した場合であっても,名詞であるべき品詞が副詞となっている場合など,明らかに正しい解析と言えない場合はその他に分類した.たとえば「面白がれる」という表現は,JUMANでは子音動詞の可能形は可能動詞として登録されていることから,JUMANの辞書登録基準では1語となるべきである.しかし,連濁ルールを用いなかった場合は下記の例(\ref{EX::OMOSHIRO})aのように,連濁ルールを用いた場合は下記の例(\ref{EX::OMOSHIRO})bのように,解析結果は異なるものの,いずれの場合も過分割されてしまうことから,このような場合はその他に分類した.\begin{exe}\ex\label{EX::OMOSHIRO}\begin{xlist}\ex面/白/が/れ/る\ex面/白/がれる\end{xlist}\end{exe}また,$P^{*}_{100kS}$,および,$N^{*}_{100kS}$は,10万文あたりの解析結果が変化した箇所の数$D_{100kS}$を用いて,それぞれ以下の式により算出した.\begin{align*}P^{*}_{100kS}&=D_{100kS}\timesP_{100D}/100\notag\\N^{*}_{100kS}&=D_{100kS}\timesN_{100D}/100\notag\end{align*}ここで,各未知語タイプごとに推定誤差は異なっていることに注意が必要である.特に解析が悪化した箇所の数は少なことから$N^{*}_{100kS}$の推定誤差は大きいと考えられる.しかしながら,各未知語タイプごとに大規模な評価を行うコストは大きいことから本論文では上記の式から算出された推定数に基づいて考察を行う.解析精度の評価に加えて,最適解の探索時間に影響を与えると考えられることから形態素ラティスにおけるノードの増加率$N\!ode_{inc.}$,および,全体の解析速度への影響を調べるため速度の低下率$SP_{loss}$の計測も行った.これらの評価結果を表\ref{Table::ResultAll}に示す.\begin{table}[t]\caption{各ルール・パターンを使用した場合の精度と速度}\label{Table::ResultAll}\input{04table08.txt}\end{table}表\ref{Table::ResultAll}に示す結果から提案手法を用いることで,ほとんど解析結果を悪化させることなく,また,解析速度を大きく下げることなく,多くの未知語を正しく処理できるようになることが確認できる.具体的には,すべてのルール・パターンを用いることで10万文あたり4,500個以上の未知語処理が改善するのに対し,悪化する解析は80個程度であると推定でき,速度の低下率は6.2\%であった.速度の低下率に関してはベースラインとした形態素解析器の実装に大きく依存するため,具体的な数値に大きな意味はないと言えるものの,少なくとも提案手法は大幅な速度低下は引き起こさないと考えられる.また,ノードの増加率に対し解析速度の低下率が大きいことから,速度低下は最適パスの探索ではなく,主に形態素ラティスの生成の時間の増加により引き起されていると考えられる.以下ではルール・パターンごとの解析の変化について詳述する.\subsubsection{連濁による濁音化}表\ref{Table::ResultAll}に示したとおり,連濁パターンを導入した場合,新たに正しく解析できるような表現がある一方で,解析結果が悪化する表現が長音文字や小書き文字の置換・挿入ルールと比べ多く存在する.これは,長音文字や小書き文字を含む形態素はもともと非常に少ないのに対し,濁音を含む形態素は多く存在しているため,濁音が含まれているからといって連濁による濁音化であるケースが限定的であるためと考えられる.表\ref{Table::Rendaku}に連濁ルールを導入することにより解析結果が変化した例を示す.解析結果の変化を示した表において`/'は形態素区切りを,太字は解析結果が正解と一致していることを表す.「はさみ」が濁音化した形態素「ばさみ」や「ためし」が濁音化した形態素「だめし」など正しく認識できるようになった表現がある一方で,本来,格助詞「が」と形容詞「ない」から構成される「がない」という文字列を「かない」が濁音化した表現であると誤って解析されてしまうような表現が8例存在した.このような例を改善するためには,連濁化に関する静的な情報を活用して連濁処理の対象を制限することが考えられる.たとえばUniDicには連濁によって濁音化する語の情報が登録されておりこれを利用することが考えられる.\begin{table}[b]\caption{連濁ルールを導入することで解析結果が変化した例}\label{Table::Rendaku}\input{04table09.txt}\end{table}\subsubsection{長音文字の置換}長音文字を置換するルールを導入することで解析結果が変化した例を表\ref{Table::MacronR}に示す.もともと正しく解析できていた表現がルールを導入することにより解析できなくなった例は存在せず,周辺の解析結果が悪化したものが「OKだよ〜ん」の1例のみ存在した.この例ではいずれも形態素区切りは誤っているものの,ベースラインモデルでは「だ」を判定詞であると解析できていたものが,提案手法を用いた場合は普通名詞であると解析されたため,解析結果が悪化したと判定した.\begin{table}[b]\caption{長音文字を置換するルールを導入することで解析結果が変化した例}\label{Table::MacronR}\input{04table10.txt}\end{table}\subsubsection{小書き文字の置換}小書き文字を置換するルールを導入することで解析結果が変化した例を表\ref{Table::KogakiR}に示す.長音記号の場合と同様にもともと正しく解析できていた表現がルールを導入することにより解析できなくなった例は存在せず,周辺の解析結果が悪化したものが「ゆみぃの布団」の1例のみ存在した.この例でベースラインモデルでは格助詞であると正しく解析できていた「の」が,「いの」という地名の一部であると解析されたため,解析結果が悪化したと判定した.また,小書き文字を置換するルールを導入することで解析結果が改善した箇所の推定数は10万文あたり1,374箇所であり,全未知語タイプの中でもっとも多く,ほぼ悪影響もないことから,非常に有用なルールであると言える.\begin{table}[b]\caption{小書き文字を置換するルールを導入することで解析結果が変化した例}\label{Table::KogakiR}\input{04table11.txt}\end{table}\subsubsection{長音文字の挿入}挿入されたと考えられる長音文字を削除するルールを導入することで解析結果が変化した例を表\ref{Table::MacronI}に示す.長音文字の挿入に対処することで解析が悪化した例は存在せず,「苦〜い」や「ぜーんぶ」など多くの表現が正しく解析できるようになった.長音文字を削除するルールを導入することで解析結果が改善した箇所の推定数は10万文あたり1,093箇所であり,小書き文字の置換ルールに次いで多かった.解析結果が悪化した事例は確認できなかったことから,非常に有用性の高いルールであると言える.\begin{table}[b]\caption{長音文字を削除するルールを導入することで解析結果が変化した例}\label{Table::MacronI}\input{04table12.txt}\end{table}\subsubsection{小書き文字の挿入}\begin{table}[b]\caption{小書き文字を削除するルールを導入することで解析結果が変化した例}\label{Table::KogakiI}\input{04table13.txt}\end{table}挿入されたと考えられる小書き文字を削除するルールを導入することで解析結果が変化した例を表\ref{Table::KogakiI}に示す.長音文字の挿入の場合と同様に小書き文字に対処することで解析が悪化した例は存在せず,「さぁん」や「でしたぁぁぁ」など小書き文字の挿入を含む表現が正しく解析できるようになった.\subsubsection{反復型オノマトペ}反復型オノマトペの認識パターンを導入することで解析結果が変化した例を表\ref{Table::OnoR}に示す.解析結果に変化があった100箇所中,感動詞の反復である「あらあら」と「うんうん」の2例は誤ってオノマトペであると解析されたものであったが,この2例以外には解析が悪化した事例はなかった.反復型オノマトペの認識パターンを導入することで解析結果が改善した箇所の推定数は10万文あたり860箇所であり,小書き文字の置換ルール,長音文字の削除ルールに次いで多かった.\begin{table}[b]\caption{反復型オノマトペパターンを導入することで解析結果が変化した例}\label{Table::OnoR}\input{04table14.txt}\end{table}\subsubsection{非反復型オノマトペ}非反復型オノマトペの認識パターンを導入することで解析結果が変化した例を表\ref{Table::OnoP}に示す.解析結果が悪化した例は存在せず,「のっちょり」などのように本来オノマトペではない表現を誤ってオノマトペであると解析した例は存在したが,それらはいずれもベースライン手法でも正しく解析できない表現であった.また,非反復型オノマトペの処理を行うことによる速度の低下は確認できなかった.生成される形態素ラティスのノード数の増加率が0.008\%にとどまっていることから,正しいオノマトペ以外にはほとんどパターンに該当する文字列が存在しなかったためであると考えられる.\begin{table}[b]\caption{非反復型オノマトペパターンを導入することで解析結果が変化した例}\label{Table::OnoP}\input{04table15.txt}\end{table}
\section{まとめ}
本論文では,形態素解析で使用する辞書に含まれる語から派生した未知表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案した.Webから収集した10万文を対象とした実験の結果,既存の形態素解析システムに提案手法を導入することにより,解析が悪化した箇所は80箇所程度,速度低下は6\%のみであったのに対し,新たに約4,500個程度の未知語を正しく認識できることを確認した.特に,長音文字・小書き文字の置換・挿入に関するルールのみを導入した場合,10万文あたり推定3,327個の未知語を新たに解析できるようになるのに対し,悪化する箇所は推定27個であり,ほとんど解析結果に悪影響を与えることなく多くの未知語を解析できることが確認できた.今後の展望としては,各形態素の生起コストや連接コストを機械学習を用いて推定した形態素解析システムへの応用や,特に連濁現象への対処としてUniDicなどのように多くの表記バリエーションの情報が付与された辞書と組み合わせることなどが考えられる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2000}]{Asahara2000}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2000\BBCP.\newblock\BBOQExtendedModelsandToolsforHigh-performancePart-of-speechTagger.\BBCQ\\newblockIn{\BemProceedigsofCOLING'00},\mbox{\BPGS\21--27}.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2004}]{Asahara2004c}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQJapaneseUnknownWordIdentificationbyCharacter-basedChunking.\BBCQ\\newblockIn{\BemProceedigsofCOLING'04},\mbox{\BPGS\459--465}.\bibitem[\protect\BCAY{東\JBA浅原\JBA松本}{東\Jetal}{2006}]{Azuma2006}東藍\JBA浅原正幸\JBA松本裕治\BBOP2006\BBCP.\newblock条件付確率場による日本語未知語処理.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2006-NL-173},\mbox{\BPGS\67--74}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{Den2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{Goldwater,Griffiths,\BBA\Johnson}{Goldwateret~al.}{2006}]{Goldwater2006}Goldwater,S.,Griffiths,T.~L.,\BBA\Johnson,M.\BBOP2006\BBCP.\newblock\BBOQContextualDependenciesinUnsupervisedWordSegmentation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\673--680}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{Hashimoto2011}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評判情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{池田\JBA柳原\JBA松本\JBA滝嶋}{池田\Jetal}{2010}]{Ikeda2010}池田和史\JBA柳原正\JBA松本一則\JBA滝嶋康弘\BBOP2010\BBCP.\newblockくだけた表現を高精度に解析するための正規化ルール自動生成手法.\\newblock\Jem{情報処理学会論文誌データベース},{\Bbf3}(3),\mbox{\BPGS\68--77}.\bibitem[\protect\BCAY{Kacmarcik,Brockett,\BBA\Suzuki}{Kacmarciket~al.}{2000}]{Kacmarcik2000}Kacmarcik,G.,Brockett,C.,\BBA\Suzuki,H.\BBOP2000\BBCP.\newblock\BBOQRobustSegmentationofJapaneseTextintoaLatticeforParsing.\BBCQ\\newblockIn{\BemProceedigsofCOLING'00},\mbox{\BPGS\390--396}.\bibitem[\protect\BCAY{筧\JBA田守}{筧\JBA田守}{1993}]{Kakai1993}筧寿雄\JBA田守育啓\BBOP1993\BBCP.\newblock\Jem{オノマトピア—擬音・擬態語の楽園}.\newblock勁草書房.\bibitem[\protect\BCAY{風間\JBA光石\JBA牧野\JBA鳥澤\JBA松田\JBA辻井}{風間\Jetal}{1999}]{Kazama1999}風間淳一\JBA光石豊\JBA牧野貴樹\JBA鳥澤健太郎\JBA松田晃一\JBA辻井潤一\BBOP1999\BBCP.\newblockチャットのための日本語形態素解析.\\newblock\Jem{言語処理学会第5回年次大会発表論文集},\mbox{\BPGS\509--512}.\bibitem[\protect\BCAY{工藤\JBA市川\JBATalbot\JBA賀沢}{工藤\Jetal}{2012}]{Kudo2012}工藤拓\JBA市川宙\JBATalbot,D.,賀沢秀人\BBOP2012\BBCP.\newblockWeb上のひらがな交じり文に頑健な形態素解析.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\1272--1275}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedigsofEMNLP'04},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{Juman1994}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedigsofTheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\22--38}.\bibitem[\protect\BCAY{Lyman}{Lyman}{1894}]{Lyman1894}Lyman,B.~S.\BBOP1894\BBCP.\newblock{\BemTheChangefromSurdtoSonantinJapaneseCompounds}.\newblockPhiladelphia:OrientalClubofPhiladelphia.\bibitem[\protect\BCAY{Mochihashi,\mbox{Yamada,}\BBA\Ueda}{Mochihashiet~al.}{2009}]{Mochihashi2009}Mochihashi,D.,Yamada,T.,\BBA\Ueda,N.\BBOP2009\BBCP.\newblock\BBOQBayesianUnsupervisedWordSegmentationwithNestedPitman-YorLanguageModeling.\BBCQ\\newblockIn{\BemProceedigsofACL-IJCNLP'09},\mbox{\BPGS\100--108}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Mori1996s}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedigsofCOLING'96},\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{Murawaki\BBA\Kurohashi}{Murawaki\BBA\Kurohashi}{2008}]{Murawaki2008}Murawaki,Y.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQOnlineAcquisitionof{J}apaneseUnknownMorphemesusingMorphologicalConstraints.\BBCQ\\newblockIn{\BemProceedigsofEMNLP'08},\mbox{\BPGS\429--437}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1999}]{Nagata1999}Nagata,M.\BBOP1999\BBCP.\newblock\BBOQAPartofSpeechEstimationMethodforJapaneseUnknownWordsusingaStatisticalModelofMorphologyandContext.\BBCQ\\newblockIn{\BemProceedigsofACL'99},\mbox{\BPGS\277--284}.\bibitem[\protect\BCAY{Nakagawa\BBA\Uchimoto}{Nakagawa\BBA\Uchimoto}{2007}]{Nakagawa2007a}Nakagawa,T.\BBACOMMA\\BBA\Uchimoto,K.\BBOP2007\BBCP.\newblock\BBOQAHybridApproachtoWordSegmentationandPOSTagging.\BBCQ\\newblockIn{\BemProceedigsofACL'07},\mbox{\BPGS\217--220}.\bibitem[\protect\BCAY{岡部\JBA河原\JBA黒橋}{岡部\Jetal}{2007}]{Okabe2007}岡部浩司\JBA河原大輔\JBA黒橋禎夫\BBOP2007\BBCP.\newblock代表表記による自然言語リソースの整備.\\newblock\Jem{言語処理学会第13回年次大会},\mbox{\BPGS\606--609}.\bibitem[\protect\BCAY{斉藤\JBA貞光\JBA浅野\JBA松尾}{斉藤\Jetal}{2013}]{Saito2013}斉藤いつみ\JBA貞光九月\JBA浅野久子\JBA松尾義博\BBOP2013\BBCP.\newblock正規-崩れ表記のアライメントに基づく表記崩れパタンの抽出と形態素解析への導入.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2013-NL-214},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{斉藤\JBA貞光\JBA浅野\JBA松尾}{斉藤\Jetal}{2014}]{Saito2014}斉藤いつみ\JBA貞光九月\JBA浅野久子\JBA松尾義博\BBOP2014\BBCP.\newblock正規-崩れ文字列アライメントと文字種変換を用いた崩れ表記正規化に基づく日本語形態素解析.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\777--780}.\bibitem[\protect\BCAY{Shinzato,Shibata,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008}Shinzato,K.,Shibata,T.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQTSUBAKI:AnOpenSearchEngineInfrastructureforDevelopingNewInformationAccessMethodology.\BBCQ\\newblockIn{\BemProceedigsofIJCNLP'08},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{Uchimoto,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2001}]{Uchimoto2001}Uchimoto,K.,Sekine,S.,\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQTheUnknownWordProblem:AMorphologicalAnalysisofJapaneseusingMaximumEntropyAidedbyaDictionary.\BBCQ\\newblockIn{\BemProceedigsofEMNLP'01},\mbox{\BPGS\91--99}.\end{thebibliography}\appendix
\section{濁音化した形態素の生起コスト}
\label{APPEND::A}濁音化した形態素の生起コストは,濁音化する前の形態素に付与されているコストに,次表に示すコストを加算することにより与える.\begin{table}[h]\input{04tableA1.txt}\end{table}濁音化する前の形態素のコストは表記ごとに与えられ,JUMAN5.1では名詞,動詞などといった内容語の多くは100,または,160のコストが付与されている.たとえば,動詞「座る」の平仮名表記である「すわる」のコストは100であるので,その連用形が濁音化した「ずわり」のコストは170,名詞「蚕」の平仮名表記である「かいこ」のコストは160であるので,「がいこ」のコストは270となる.ここで,``が''から始まる語に大きな加算コストを与えているのは,格助詞「が」を誤って濁音化した形態素の先頭であると解析されないようにするためである.
\section{長音記号・小書き文字が置換・挿入された形態素の生起コスト}
\label{APPEND::B}長音記号・小書き文字を置換・挿入することにより生成された形態素の生起コストは,置換・挿入前の形態素に付与されている生起コストに,次表に示すコストを加算することにより与える.\begin{table}[h]\input{04tableB1.txt}\end{table}ここで品詞コストとは,品詞ごとに定義されたコストであり,対象の品詞に属する形態素の標準的な生起コストを表している.JUMAN5.1のデフォルトでは判定詞の場合には11,感動詞の場合には110,動詞,普通名詞,形容詞,副詞には100,副詞的名詞には70などのコストが与えられている.たとえば,普通名詞「あなた」の生起コストが100,普通名詞の品詞コストが100であることから,「ぁなた」という形態素の生起コストは160,感動詞「もしもし」の生起コストは110,感動詞の品詞コストは110であることから,「もしも〜し」という形態素の生起コストは176となる.
\section{反復型オノマトペの生起コスト}
\label{APPEND::C}反復型オノマトペ$w$の生起コストは以下の式により与える.\[cost=LEN(w)\times130-f_v(w)\times10-f_p(w)\times40-f_k(w)\times20\]ただし,\begin{tabular}{r@{\}p{360pt}}$LEN(w)$:&$w$に含まれる繰り返し文字数(ただし,ここでは「きゃ」などの開拗音は全体で1文字として扱う)\\$f_v(w)$:&$w$の先頭の文字が濁点または半濁点を含むなら2,それ以外の文字が濁点または半濁点を含むなら1,それ以外は0となる関数\\$f_p(w)$:&$w$が開拗音を含むなら1,それ以外は0となる関数\\$f_k(w)$:&$w$が片仮名であるなら1,それ以外は0となる関数\end{tabular}\noindentとする.すなわち,基本的に繰り返し文字数1つにつき130のコストを与えるが,先頭の文字が濁点・半濁点を含む場合は20,それ以外の文字が濁点・半濁点を含む場合は10,開拗音を含む場合は40,片仮名である場合は20,それぞれコストを小さくする.これは,オノマトペは濁点・半濁点,開拗音を含む場合が多く,また,片仮名で表記されることが多いためである.たとえば,「ぐちょぐちょ」という形態素であれば,繰り返し音数は2で最初の文字が濁点を含みで,かつ,開拗音を含むので,生起コストは260から20と40を引いた200となる.\clearpage
\section{非反復型オノマトペの生成に使用した平仮名,片仮名の一覧}
\label{APPEND::D}\begin{table}[h]\input{04tableD1.txt}\end{table}\begin{biography}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).京都大学大学院情報学研究科特定研究員を経て2010年より東京工業大学精密工学研究所助教.自然言語処理,特に照応解析,述語項構造解析の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V24N04-02
|
\section{はじめに}
投資家は,資産運用や資金調達のために数多くの資産価格分析を行っている.とりわけ,ファイナンス理論の発展と共に,過去の資産価格情報や決算情報などの数値情報を用いた分析方法は数多く報告されている.しかしながら,投資家にとって,数値情報だけでなく,テキスト情報も重要な意思決定材料である.テキスト情報には数値情報に反映されていない情報が含まれている可能性があり,テキスト情報の分析を通じ,有用な情報を獲得できる可能性がある.そのため近年,これまで数値情報だけでは計測が困難であった情報と資産価格との関連性の解明への期待から,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた様々な資産価格分析がなされている\cite{Kearney2014,Loughran2016}.本研究では,これらファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を試みる.テキスト情報の分析を行う際には,テキスト内容の極性(ポジティブorネガティブ)を判断する必要がある.極性辞書を用いた手法は,この課題を解くための主流の方法の一つである.極性辞書によるテキスト分析は,キーワードの極性情報を事前に定義し,テキスト内容の極性を判断することで分析が行われる.ファイナンス分野及び会計分野の研究では,極性辞書による分析が標準的な手法となっている.極性辞書が標準的な手法となっている理由の一つとして,どの語句や文が重要であるかが明確であり,先行研究との比較が容易である点が挙げられる.また,金融実務の観点からすると,テキスト情報を利用して資産運用や資金調達をする際には株主や顧客への説明責任が必要であるという事情がある.そのため,内部の仕組みがブラックボックス化してしまう機械学習よりも,重要な語句や文が明確である極性辞書の方が説明が容易であることから,好まれる傾向がある.極性辞書には,GeneralInquirer\footnote{http://www.wjh.harvard.edu/{\textasciitilde}inquirer/}やDICTION\footnote{http://www.dictionsoftware.com/}などの心理学者によって定義された一般的な極性辞書や金融分野に特化したオリジナルの極性辞書\footnote{金融分野に特化した極性辞書として,LoughranandMcDonaldSentimentWordLists(http://www3.nd.edu/\linebreak[2]{\textasciitilde}mcdonald/Word\_Lists.html)がある.}が用いられる.金融分野では,独自の語彙が用いられる傾向があることから,\citeA{Henry2008}や\citeA{Loughran2011}では,金融分野に特化した極性辞書を用いることで分析精度が上がるとの報告がなされている.しかしながら,金融分野に特化した極性辞書を作成するためには,人手によるキーワードの選択と極性の判断が必要であり,評価者の主観が結果に大きく影響するという問題点が存在する.また,価格との関連性の高いキーワードも,年々変化することが想定される.例えば,新たな経済イベントの発生や資産運用の新手法などがあれば,その都度キーワードの極性情報を更新する必要があり,専門家による極性判断を要することとなる.自然言語処理におけるブートストラップ法をはじめとする半教師あり学習を用いる方法はあるものの,これも最初に選択するキーワードによって,分析結果に大きな影響を与えてしまうことなる.そこで,これら問題点に対する解決策の一つとして,本研究では人手による極性判断を介さずに,ニュースデータと株式価格データのみを用いて極性辞書を作成する方法論を提示する.株式価格データを用いて日本語新聞記事を対象に,重要語の抽出を試みた研究報告として,\citeA{Ogawa2001}や\citeA{Chou2008},\citeA{Hirokawa2010}などがあるものの,これらは,株式価格情報からマーケット変動を十分に調節できていない.具体的には,株式固有のリスクを調節できていない.例えば,同じ銘柄であっても時期によって株式が有するリスクプレミアムに違いがあり,リスクに伴う株式価格変動が荒い時期と穏やかな時期があり,株式リターンが一見同じであっても,そこから得られる情報は異なることが広く知られている\cite{Campbell2003}.また,異なる銘柄について同様である.リスクに伴う株式価格変動が荒い銘柄と穏やかな銘柄があり,株式リターンが一見同じであっても,そこから得られる情報は異なることも広く知られている\cite{Campbell2003}.加えて,新聞記事には必ずしも資産価格変動と関連性の高い新鮮な内容のみが記述されているだけではない.本研究では,これら問題点も考慮し,なおかつ,金融市場における資産価格形成と関連性の高いメディアである日経QUICKニュースを用いて,重み付き属性値付きキーワードリスト(以下,本稿では「重み付き属性値付きキーワードリスト」のことを単に「キーワードリスト」と記述する.)の作成を行う.さらに,作成したキーワードリストによってどの時点でのニュース記事を分類できるかを,キーワードリストの作成に用いた日経QUICKニュースと他メディアであるロイターニュースの分類を通じて検証する.次章は,本分析で用いるデータに触れ,3章ではキーワードリストの作成方法,4章ではキーワードリストを用いた分類検証を記す.5章は,まとめである.
\section{データ}
\subsection{マーケットデータ}本研究では,株式価格情報からキーワードの極性評価を行うために,個別銘柄の株式リターンとリスクファクター・リターンのデータを用いた.個別銘柄の株式リターンとして,ThomsonReutersDatastreamから,トータルリターンの日次データを用いた.トータルリターンとは,株式の価格変動に加え,株式の配当も含めた株式の収益率のことを指す.また,リスクファクター・リターンのデータは,株式会社金融データソリューションズが提供する日本版Fama-Frenchベンチマークからマーケットリターン($Rm$),リスクフリーレート($Rf$),バリューファクター・リターン($HML$),サイズファクター・リターン($SMB$)の日次データを使用した.マーケットリターンは東証1部及び2部における全銘柄の時価総額加重平均配当込みの収益率,リスクフリーレートは新発10年国債利回りであり,バリューファクター・リターン及びサイズファクター・リターンは,\citeA{Fama1993}や\citeA{Kubota2007}において定義された方法によって算出された簿価時価比率のリスクファクター及び時価総額のリスクファクターである.\subsection{ニュースデータ}株式価格からキーワードリストを作成するためのニュースデータには日経QUICKニュースを用いた.日経QUICKニュースは,株式会社日本経済新聞社と株式会社QUICKの許諾を受けて使用した.日経QUICKニュースは,日本経済新聞社とQUICK社によって投資家向けに専用の端末を通じて配信されるニュースである.このニュースデータに対して,株式会社金融工学研究所が付与したタグ情報を利用した.日経QUICKニュースの利用したタグ情報は,「ニュース記事の配信日付」・「ニュース記事本文に含まれるキーワード」・「対象ニュース記事と関連する主要銘柄名(証券コード)」である.また,本研究手法によって得られたキーワードリストをもとに,ニュース記事分析をするためのニュースデータとして,日経QUICKニュースに加えて,異なるメディアに対してもキーワードリストの有効性を検証するために,ロイターニュースを用いた.ロイターニュースは,世界で最も広く知られたニュース提供会社の一つであるトムソンロイター社が配信しているニュースである.ロイターニュースの利用したタグ情報は,「ニュース記事の配信日時」・「対象ニュース記事と関連する銘柄名(証券コード)」を利用した.日経QUICKニュースとロイターニュースは,どちらも日本語で書かれたニュース記事を分析対象としている.これらニュースデータの一部は,日本経済新聞社やトムソンロイター社のウェブページから閲覧することが出来るが,本研究では,機関投資向けの専用端末を通じて24時間配信される全経済ニュースを分析に用いる.日経QUICKニュースとロイターニュースは,各団体が発信する一次情報に比べると,各メディアの記者やアナリストによる情報の取捨選択が行われており,社会や市場に対して相対的に重要な情報が含まれていると考えられる.また,日本証券市場に参加している多くの(機関)投資家が閲覧するメディアであることから,新聞や雑誌のニュースに比べ,経済イベントからニュース記事配信までのラグが小さく,金融市場における資産価格形成との関連性が高い新鮮な内容であることが想定される.\subsection{ニュースデータの前処理}ここでは,分析を行う前のデータ整形を記述する.本研究の分析対象期間は,2008年から2011年までとした.日経QUICKニュースは,2008年から2011年までの間に配信された719,633本のニュース記事を,ロイターニュースは,2009年から2011年までの間に配信された395,819本のニュース記事を,極性辞書の作成及び作成した極性辞書による分類検証に用いる.はじめに,ニュース記事配信日の調整を行う.日経QUICKニュースとロイターニュースは東京証券取引所の休業日に配信されたニュース記事に関して,翌営業日に配信されたニュース記事として分析を進めた.また,ロイターニュースは秒単位でのタイムスタンプ情報を獲得できたため,大引けの15時以降に配信されたニュース記事は翌営業日に配信されたニュース記事として分析を進めた.例えば,2016年9月3日は土曜日なので,この日に配信されたニュース記事は翌営業日である2016年9月5日に配信されたニュース記事として扱い,2016年9月1日16時に配信されたニュース記事は取引所が閉まった後に配信されたものなので,翌営業日である2016年9月2日のニュース記事として扱うということである.これらの調整は,マーケットが閉まっている間に配信されたニュース記事内容は,直後の営業日において株式価格に反映されると仮定したためである.次に,ニュース記事の選別を行う.本研究では,タグ情報(証券コード)をもとに東証一部上場企業と関連するニュース記事を抽出した.東証一部に鞍替えした銘柄は,鞍替え前のニュース記事も分析対象としている.また,後述のイベントスタディ分析において推定ウィンドウ及びイベントウィンドウを確保できる,すなわち,ニュース記事が配信される140営業日前から10営業日後までにおいて株式価格データが取得できる銘柄のニュース記事のみを分析対象としている.日経QUICKニュースの選別は,ニュース記事の本文を分析対象としたため,「ニュース記事本文に含まれるキーワード」が付与されていないニュース記事は使用しなかった.ロイターニュースの選別についても同様にヘッドラインのみのニュース記事は分析対象外とし,さらに,第一報のニュース記事のみを分析対象とするため,再送記事と訂正記事は分析対象外とした.加えて,本研究ではニュース記事のテキスト情報に注目したため,決算情報や社債の発行要項,テクニカルデータなどの数値情報のみのニュース記事についても分析対象外としている.また,複数の銘柄の内容について報じているニュース記事は,関連する銘柄数の分だけニュース記事を増やし,一つのニュース記事に一つの銘柄を対応付け,分析を進めた.日経QUICKニュースはタグ情報(証券コード)を基に主要銘柄を一つに絞ることが出来たが,ロイターニュースは絞ることが出来なかったため,一つのニュース記事から複数銘柄の株式価格変動の観察を行っている.しかしながら,厳密には,ニュース記事の内容を加味して分析することが望ましいと考えられる.分析手法の改善は今後の課題である.選別後のそれぞれのニュース記事数は,表\ref{news}に示す.ロイターニュースは,延べニュース記事数を表している.延べニュース記事数とは,一つのニュース記事に複数の証券コードタグが付随している場合,重複して計数した値である.また,カッコ内はニュース記事が報じている内容と関連する銘柄の異なり数を表している.\begin{table}[t]\caption{ニュース記事数}\label{news}\input{02table01.txt}\end{table}また,選別後の日経QUICKニュースのタグ情報から取得できたキーワード数(異なり数・延べ数)は,表\ref{tag}に示す.ここで得られたキーワードが本研究のキーワードリストのもとになる.\begin{table}[t]\caption{キーワード数}\label{tag}\input{02table02.txt}\end{table}
\section{キーワードリストの作成方法}
\subsection{作成手順の概略}ここでは,ニュースデータと株式価格データからキーワードリストを作成する方法論の手順の概略を記す.はじめに,株式価格情報からイベントスタディ分析によって,各ニュース記事へ教師スコアを付与をする.次に,ニュースデータに付与されているキーワードをもとに,ニュース記事内容をbag-of-wordsによってベクトルで表現する.最後に,サポートベクター回帰(SVR;SupportVectorRegression)\cite{Bishop2012}によって教師あり学習を行ったのち,学習器から各キーワードの極性情報を抽出することで,キーワードリストの作成を試みた.3.2節及び3.3節において,それぞれの作成方法の詳細を記述する.\subsection{株式価格データからニュース記事への教師スコアの付与}本研究手法の想定する二つの仮定を記述する.一つ目は,ニュースが報じられたことによって,株式価格が変動した場合である.ある銘柄の株式価格が上昇した場合,それは投資家がニュース記事を見て,銘柄に対してポジティブな感情を持ち,高値をつけたと考える.逆に,株式価格が下落した場合は,ネガティブな感情を持ち,安値をつけたと考える.そのため,株式価格変動にはニュース記事の内容のポジティブ/ネガティブの情報が含まれていることが想定される.二つ目は,ある銘柄の株式価格の変動を受けて,その概況がニュースとして報じられた場合である.株式価格が上昇したときに報じられたニュース記事にはポジティブな内容,株式価格が下落したときに報じられた場合にはネガティブな内容が記述されていると考える.この場合にも,株式価格変動にはニュース記事の内容のポジティブ/ネガティブの情報が含まれていることが想定される.いずれの場合においても,株式価格変動の大きさは,ニュース記事内容のポジティブ/ネガティブと密接な関係があることが想定される.そこで,本研究ではイベントスタディ分析の枠組みによって,株式価格データからニュース記事への教師スコアの付与を試みた\cite{Campbell2003}.イベントスタディ分析とは,経済上のイベントが株式価値にどのような影響を与えるかを測定する方法論であり,各銘柄と各時期の共変動リスクを調整した株式価格変動である異常リターンを算出するために用いた.異常リターンの概念図を,図\ref{異常リターンの概念図}に示す.\begin{figure}[b]\begin{center}\includegraphics{24-4ia2f1.eps}\end{center}\caption{異常リターンの概念図}\label{異常リターンの概念図}\end{figure}具体的な算出手順は以下の通りである.\begin{enumerate}\itemはじめに,ニュース記事${i}$ごとにイベント日,推定ウィンドウ,イベントウィンドウを設定する.ニュース記事への教師スコアの付与は,イベント日はニュース記事配信日,推定ウィンドウはニュース記事配信日の140営業日前から21営業日前までの120営業日間,イベントウィンドウはニュース記事配信日当日からその翌日までとした.本研究では,日数は東京証券取引所の営業日をもとに計数している.図\ref{本研究の設定}は,本研究の設定を図示したものである.例えば,2016年9月1日に配信されたニュース記事であれば,イベント日は2016年9月1日であり,推定ウィンドウは2016年2月5日から2016年8月2日までの120営業日間であり,イベントウィンドウは2016年9月1日から2016年9月2日まで2営業日間となる.\begin{figure}[t]\begin{center}\includegraphics{24-4ia2f2.eps}\end{center}\caption{本研究の設定}\label{本研究の設定}\end{figure}\item次に,推定ウィンドウにおいて,各ニュース記事${i}$に関連する銘柄に関して,Fama-Frenchの3ファクターモデルによって,切片及び各リスクファクターに対する感応度を算出する.Fama-Frenchの3ファクターモデルは,\begin{equation}R_{i}[t]-Rf[t]=\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]+\varepsilon_{i}[t],\end{equation}にて定義される\cite{Fama1993}\footnote{小型株効果$SMB$と割安株効果$HML$を考慮することで,どのくらいモデルの寄与率が上がるか,トヨタ自動車・本田技研工業・日産自動車の三社の株価を例に,2010年1月から2015年5月のデータを用いて示す.$SMB$と$HML$を追加したとき,自由度調整済み決定係数がそれぞれ,トヨタ自動車:0.68→0.70,本田技研工業:0.60→0.62,日産自動車:0.54→0.56となる.}.$R_{i}$はニュース$i$と関連する銘柄の株式リターン,$Rf$はリスクフリー・レート,$R_{M}$はマーケット・リターン,$SMB$はサイズファクター・リターン,$HML$はバリューファクター・リターン,$\varepsilon_{i}$は誤差項を表しており,このモデルを用いることで,マーケット全体の価格変動の影響のほかに,小型株効果及び割安株効果の共変動の影響を取り除いている.また,$[t]$はイベント日からの日数を表しており,例えば,$R_{i}[-100]$であればニュース記事配信日の100営業日前のニュース記事$i$と関連する銘柄の株式リターンを表し,$SMB[+1]$であればニュース記事配信日の1営業日後のサイズファクター・リターンを表す.モデルのパラメータ($\alpha_{i},\beta^{M}_{i},\beta^{SMB}_{i},\beta^{HML}_{i}$)が切片及び各リスクファクターに対する感応度であり,推定ウィンドウにおいてこれらパラメータを推定する.推定は最小二乗法による線形回帰によって行われる.\item3番目に,推定したパラメータを用いて,イベントウィンドウにおける日次の異常リターン($AR$;AbnormalReturn)と累積異常リターン($CAR$;CumulativeAbnormalReturn)を算出する.ニュース記事${i}$のイベントウィンドウにおける$t$日の異常リターン$AR_{i}[t]$は,\begin{equation}AR_{i}[t]=R_{i}[t]-\bigl(\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]\bigr),\end{equation}によって算出される.すなわち,異常リターンとはイベントウィンドウにおいて実際に実現したリターン($R_{i}[t]$)から,イベントが起きなかった時に達成されていたであろうと期待されるリターンである正常リターン($\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]$)を差し引いた値である.続いて,イベントウィンドウにおける$t_{1}$日から$t_{2}$日までの累積異常リターン$CAR_{i}[t_{1},t_{2}]$は,\begin{equation}CAR_{i}[t_{1},t_{2}]=\sum_{t=t_{1}}^{t_{2}}{AR_{i}[t]},\end{equation}と算出される.本研究ではニュース記事に対する教師スコア付与のために,ニュース記事配信日の当日から1営業日後までの2営業日間の累積異常リターンである$CAR[0,+1]$を算出する.\item最後に,累積異常リターン$CAR_{i}[t_{1},t_{2}]$を過去の株式価格変動を用いて標準化する.具体的には,ニュース記事${i}$ごとに,$t_{3}$日から$t_{4}$日までの$L$日間の推定ウィンドウにおけるFama-Frenchの3ファクターモデルの残差${e_{i}}$の標準偏差$\sigma_{e_{i}}[t_{3},t_{4}]$を,\begin{multline}\sigma_{e_{i}}[t_{3},t_{4}]=\biggl(\frac{1}{L-k}\sum_{t=t_{3}}^{t_{4}}\Bigl(R_{i}[t]-\bigl(\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])\\{}+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]\bigr)\Bigr)^{2}\biggl)^{\frac{1}{2}},\end{multline}によって算出する.ここで$k$はモデルのパラメータ数を表している.本研究では,$L=120$,$k=4$として,$\sigma_{e_{i}}[-140,-21]$を算出する.そして,累積異常リターン$CAR_{i}[t_{1},t_{2}]$を,\begin{equation}SCAR_{i}[t_{1},t_{2}]=\frac{CAR_{i}[t_{1},t_{2}]}{\sigma_{e_{i}}[t_{3},t_{4}]},\end{equation}とすることで,標準化された累積異常リターン($SCAR$;StandardizedCumulativeAbnormalReturn)が算出される.本研究においては,ニュース記事配信日の当日から1営業日後までの標準化された累積異常リターン$SCAR_{i}[0,+1]$を,ニュース記事内容と関連する株式価格変動とし,ニュース記事の教師スコアとした.\end{enumerate}すべてのニュース記事に対して,(1)から(4)までのプロセスを経ることで,時期の違いと銘柄間の違い,共変動の影響を調整した教師スコアである$SCAR[0,+1]$を算出している.\subsection{ニュース記事内容のベクトル表現方法とキーワードの極性評価}ここでは,ニュース記事内容のベクトル表現方法とキーワードの極性評価を記述する.ニュースデータに付与されているキーワードをもとに,ニュース記事内容をbag-of-wordsによってベクトルで表現する.日経QUICKニュースには,ニュース記事の内容を表すキーワード群が付与されており,それらをニュース記事のベクトルの特徴量とした.キーワード数は表\ref{tag}を参照されたい.例えば,あるニュース記事Aに,「続落」,「原油高」,「懸念」の3つのキーワードが付与されているとき,ニュース記事Aは前述の3つのキーワード特徴量の値は1となり,他のキーワード特徴量の値は0となるようなベクトルとなる.加えて,ニュース記事に付与されたキーワードの数を考慮するために,各ニュース記事のキーワードベクトルを作成した後,ベクトルの長さが1になるように次式によって各特徴量の調整を行った.\begin{equation}\frac{1}{\sqrt{x_{i}}}\end{equation}ここで,$x_{i}$はニュース記事${i}$の特徴量数を表す.キーワードの極性評価は,前節の方法にて算出した教師スコアをニュース記事ベクトルに紐付け,入力($X$)をbag-of-wordsのベクトル,出力($Y$)を$SCAR[0,+1]$として,SVR(+線形カーネル)によって学習器を作成する\footnote{非常に少数であるが,同日に同一銘柄に関して,良いニュースと悪いニュースのどちらも配信されるケースがある.本研究では,これらを無視して同一のリターンを出力するような学習器を作成している.手法の改善は,今後の課題である.}.そして,学習器から法線ベクトルを各キーワードの極性情報と見なして抽出することで,キーワードリストの作成を試みた.法線ベクトルを抽出せず,直接テストデータへスコアを付与することは可能であるが,本研究では極性辞書の作成を研究目的としているため,あえて行っている.パラメータチューニングに関しては,10分割の交差検定を繰り返し,平均二乗誤差が最小になるようなハイパーパラメータを決定している.\subsection{作成したキーワードリスト}本研究手法によって得られたキーワードリストとその極性値を表\ref{findic}に示す.2008年は13,806,2009年は13,893,2010年は14,019のキーワードに対して極性値が振られている.表\ref{findic}は,各年のポジティブキーワードとネガティブキーワードとして,特徴量に対する重みの大きいあるいは小さいキーワードをそれぞれ上位30位までのキーワードを抽出し,記載したものである.つまり,これらは株式価格変動との関連性の高いニュース記事内のキーワードであり,重みがプラス方向に大きければ大きいほど,株式価格の値上がりの時によく現れていることを示しており,逆に,重みがマイナス方向に大きければ大きいほど,株式価格の値下がりのときによく現れていることを示している.\begin{table}[p]\begin{center}\rotatebox{90}{\begin{minipage}{571pt}\caption{本研究手法によって作成したキーワードリスト}\label{findic}\input{02table03.txt}\end{minipage}}\end{center}\end{table}ポジティブなキーワードとして,「買い」や「上方修正」,「増益」などのキーワード群を,ネガティブなキーワードとして,「嫌気」や「反落」,「悪化」などのキーワード群をそれぞれ獲得することができた.これらのキーワードは一般的にポジティブあるいはネガティブだと想定されるキーワードであり,本研究手法により,ニュースデータと株式価格データを用いてキーワードの極性情報を取り出すことのできる可能性を示すものである.抽出されたキーワードを見ると,「値上がり」や「急伸」,「続伸」,「反落」,「急落」,「値下がり」などの株式価格の動きを表したキーワードが多く抽出された.そして同時に,「上方修正」,「下方修正」,「資本増強」,「公募増資」,「オーバーアロットメント」などの,会計利益やコーポレートアクションなどと関連するキーワードも抽出された.一方で,「自動車株」や「ハイブリッド車」,「事務所」など極性を持つと考えにくいキーワードも抽出された.これは年によって特定の経済イベントが頻出したためだと考えられる.長期間のデータを用いれば,改善できる可能性があり,今後の課題である.\subsection{英文用の金融極性辞書との比較}ここでは,作成したキーワードリストと英文用の金融極性辞書との比較を行う.和文では,入手可能な金融用の極性辞書は存在しないため,英文用の金融極性辞書と比較を通じて,抽出した単語の極性情報の評価を試みる.筆者が直接単語の極性情報を評価することは可能であるが,恣意的な評価を避けるために行っている.英文用の金融極性辞書には,LoughranandMcDonaldSentimentWordLists\footnote{http://www3.nd.edu/{\textasciitilde}mcdonald/Word\_Lists.html}(以下,LM辞書と略表記する.)を用いた\cite{Loughran2011}.LM辞書は,Form10-K\footnote{日本では,有価証券報告書に相当する文書である.}の分析用に開発された極性辞書であり,金融関連の英文テキストの分析に広く用いられている.LM辞書には,ポジティブな英単語が354語,ネガティブな英単語が2,355語,それぞれ収録されおり,これら単語との比較を行う.具体的な評価手順は以下の通りである.\begin{table}[b]\caption{英文用の金融極性辞書との比較結果}\label{comparison}\input{02table04.txt}\end{table}はじめに,Google翻訳\footnote{https://translate.google.com/}によって,LM辞書に記載されている単語を和訳する.次に,本研究のキーワードリストとLM辞書のどちらにも記載されている単語を抽出する.3番目に,抽出した単語の極性情報を比較する.このとき,LM辞書は単にポジティブ/ネガティブの二値なのに対して,本研究のキーワードリストは重み付き属性値であるため,LM辞書に収録されているポジティブな単語群及びネガティブな単語群がどのような重み付き属性値を取っているかを考察することで評価を行う.表\ref{comparison}は,比較結果をまとめたものである.2008年と2009年では,ポジティブな単語群は平均値(重み付き属性値)がプラスで,ネガティブな単語群はマイナスの傾向はあるもの,2010年ではその傾向は見られない.また,表\ref{findic}と比較すると,重み付き属性値は0付近の値を取っており,LM辞書に記載されている単語は本研究のキーワードリストの重み上位に出てくる単語とのオーバーラップは少ないことが伺える.LM辞書ではポジティブな単語であるのに対して,どの年においても,本研究の重み付き属性値がマイナスになった単語として,「leadership(リーダーシップ)」,「transparency(透明性)」があった.また,LM辞書ではネガティブな単語であるのに対して,どの年においても,本研究の重み付き属性値がプラスになった単語として,「delisting(上場廃止)」,「rationalization(合理化)」,「antitrust(独占禁止法)」,「challenge(チャレンジ)」,「conciliation(和解)」などがあった.このような単語が抽出された原因として,文脈を見なければならない単語であることや英文と和文とでは用いられ方が異なる単語で直訳しただけでは上手く評価できない可能性がある.次章では,作成したキーワードリストをもとにニュース記事の分類を行うことで有効性を検証する.
\section{キーワードリストを用いた分類検証}
\subsection{ニュース記事の分類}本章では,本研究手法によって作成したキーワードリストをもとにニュース記事の分類を行い,分類した各ニュース記事クラスのニュース記事配信日付近の株式リターンの推移を観察することで,キーワードリストの有効性を検証する.そこではじめに,前章のキーワードリストをもとに,日経QUICKニュース及びロイターニュースを5つのクラス(VeryPositive・Positive・Neutral・Negative・VeryNegative)に分類する.\begin{table}[b]\caption{学習データと評価データの対応表}\label{valuation}\input{02table05.txt}\end{table}本分析では,前年の日経QUICKニュースと株式価格から得られたキーワードリストを用いて,翌年のニュースの分類を試みる.学習データと評価データの対応表は表\ref{valuation}に示す.例えば,2009年に配信されたニュース記事の分類は,2008年の日経QUICKニュースデータとマーケットデータを用いて作成したキーワードリストをもとに分類をする.同様に,2010年に配信されたニュース記事は,2009年のデータを用いて作成したキーワードリストを用いる.これは,ニュース記事配信時点での将来情報を用いないようにするためである.さらに,経済・金融分野に特化していない一般的な極性辞書との比較を行うため,テキストの評判分析に広く用いられる日本語評価極性辞書(名詞編){\kern-0.5zw}\footnote{http://www.cl.ecei.tohoku.ac.jp/index.php?Open\%20Resources\%2FJapanese\%20Sentiment\%20Polarity\%20\linebreak[2]Dictionary}\cite{Higashiyama2008}を用いて同様にニュース記事の分類を行う.本研究では,キーワードリストをもとに,各ニュース記事内に出現するキーワードを計数し,極性を表す重みで掛け合わせた値を,計数したキーワード数で割ることでニュース記事のスコアを算出した.日本語評価極性辞書は,pとnのラベルが付与されているキーワードを用いて同様にニュース記事のスコアを算出した.重みは,pを+1,nを$-1$とした.ここで,キーワードを重複して計数しないように,あらかじめニュース記事を形態素解析\footnote{形態素解析には,MeCab(http://taku910.github.io/mecab/)を用いた.システム辞書にはIPA辞書を用いた.また,ユーザ辞書として,ニュース記事の分類を行う際のキーワードリスト(本研究で作成したキーワードリストあるいは日本語評価極性辞書)を追加している.}を行ってわかち書きをした後,キーワードの計数を行っている.具体的には,ニュース記事$i$のスコアは以下の数式で表される.\begin{equation}Score_{i}=\frac{\sum_{k=1}^{n}TF_{w_{k}}\timesWeight_{w_{k}}}{\sum_{k=1}^{n}TF_{w_{k}}}\end{equation}ここで,$Score_{i}$はニュース記事$i$のスコア,$TF_{w_{k}}$は本研究のキーワードリストあるいは日本語評価極性辞書に定義されている$k$番目のキーワード$w_{k}$がニュース記事内に出現した頻度,$Weight_{w_{k}}$はキーワード$w_{k}$の極性度合いを表す実数値,$n$は本研究のキーワードリストあるいは日本語評価極性辞書に定義されているキーワード数を表す.ここで,本研究のキーワードリストあるいは日本語評価極性辞書に定義されたキーワードが存在しないニュース記事は,スコアが定義されないため分析からは除外した.そして,各ニュース記事のスコアを上式によって算出した後,次式によって年ごとにニュース記事のスコアを標準化した.\begin{equation}Z\mathchar`-Score_{i}=\frac{Score_{i}-\overline{Score}}{s_{Score}}\end{equation}ここで,$\overline{Score}$と$s_{Score}$は年ごとのスコアの標本平均値と標本標準偏差を表す.そして,標準化されたスコア$Z$-$Score_{i}$をもとに,ニュース記事を5分割する.具体的には,標準化されたニュース記事のスコアが,$Z\text{-}Score_{i}>=2$となるとき,とても良い内容が記述されている$ニュース記事クラス_{Very\,Positive}$に,$2>Z\text{-}Score_{i}>=1$となるとき,良い内容が記述されている$ニュース記事クラス_{Positive}$に,$1>Z\text{-}Score_{i}>-1$となるとき,中立な内容が記述されている$ニュース記事クラス_{Neutral}$に,$-1<Z\text{-}Score_{i}=<-2$となるとき,悪い内容が記述されている$ニュース記事クラス_{Negative}$に,$Z\text{-}Score_{i}=<-2$となるとき,とても悪い内容が記述されている$ニュース記事クラス_{Very\,Negative}$に分類した.\begin{table}[b]\caption{各ニュース記事クラスのスコアの要約統計量}\label{score_findic}\input{02table06.txt}\end{table}以上の手順によって本研究手法から得られたキーワードリスト及び日本語評価極性辞書を用いて分類した日経QUICKニュースとロイターニュースの各ニュース記事クラスのスコアの要約統計量に関して,評価データ3年分をまとめたものを表\ref{score_findic}に示す.日本語評価極性辞書を用いて分類した場合,日経QUICKニュース及びロイターニュースのどちらも,VeryPositiveに分類されたニュース記事は一つも存在しなかった.そのため,日本語評価極性辞書によって分類したニュース記事クラスに関しては,以降の分析からはVeryPositiveは除外して進める.また,日本語評価極性辞書に定義されたキーワードを含まず,スコアが付与されなかったニュース記事数は,日経QUICKニュースは5,201,ロイターニュースは753の事例が存在し,相対的に本研究のキーワードリストよりも多いことが分かる.\subsection{分類検証における各種指標}ここでは次節以降の分類検証における各種指標の詳細な記述を行う.本研究では,キーワードリストによって分類されたニュース記事のクラスごとにニュース記事配信日の10営業日前から10営業日後までの株式リターンの推移を観察することで,本研究のキーワードリストの有効性を検証する.具体的には,二種類の株式リターンに関する指標を考察する.一つ目は,各ニュース記事クラスの加工していない生の平均株式リターン($\overline{R}$;AverageReturn)及び累積平均株式リターン($\overline{CR}$;CumulativeAverageReturn)である.ある日$t$におけるニュース記事クラス$j$の$\overline{R_{j}}[t]$と$\overline{CR_{j}}[t_{1},t_{2}]$の算出方法は以下の通りである.\begin{gather}\overline{R_{j}}[t]=\frac{1}{N}\sum_{i=1}^{N}{R_{i}[t]},\\\overline{CR_{j}}[t_{1},t_{2}]=\sum_{t=t_{1}}^{t_{2}}\overline{R_{j}}[t].\end{gather}ここで,$N$はニュース記事クラス$j$に分類されたニュース記事数である.二つ目は,各ニュース記事クラスの平均異常リターン($\overline{AR}$;AverageAbnormalReturn)及び累積平均異常リターン($\overline{CAR}$;CumulativeAverageAbnormalReturn)である.$\overline{AR}$及び$\overline{CAR}$は,イベントスタディ分析によってマーケット全体の価格変動の影響のほかに,小型株効果と割安株効果に関する共変動の影響を調整した株式リターンである.ニュース記事クラス$j$の$\overline{AR_{j}}[t]$と$\overline{CAR_{j}}[t_{1},t_{2}]$は,3.2節にて記述した手順によってニュース記事クラス$j$に分類されたニュース記事$i$ごとに$AR_{i}[t]$と$CAR_{i}[t_{1},t_{2}]$を算出した後,それぞれ平均値を算出することで求められる.算出方法は,以下の式によって算出される.\begin{gather}\overline{AR_{j}}[t]=\frac{1}{N}\sum_{i=1}^{N}{AR_{i}[t]},\\\overline{CAR_{j}}[t_{1},t_{2}]=\frac{1}{N}\sum_{i=1}^{N}{CAR_{i}[t_{1},t_{2}]}.\end{gather}イベント日はニュース記事配信日,推定ウィンドウはニュース記事配信日の140営業日前から21営業日前までの120営業日間,イベントウィンドウはニュース記事配信日の10営業日前から10営業日後までの21営業日間とする.\begin{figure}[b]\begin{center}\includegraphics{24-4ia2f3.eps}\end{center}\caption{本研究のキーワードリストを用いて分類した各ニュース記事クラスの$\overline{CR}$の推移}\label{rawfindic}\end{figure}\subsection{ニュース記事配信日付近における株式リターン推移の検証結果}はじめに,ニュース記事配信日付近における$\overline{R}$と$\overline{CR}$を検証する.本研究手法によって作成されたキーワードリストによって分類した各ニュース記事クラスごとの$\overline{CR}$の推移を考察する.本節では,ニュース記事配信日10営業日前から$t$までの累積平均リターン$\overline{CR}[-10,t]$を$\overline{CR}$と表記する.$\overline{CR}$の推移を図示したものが図\ref{rawfindic}である.図\ref{rawfindic}は,縦軸がニュース記事配信日10営業日前から$t$日までの累積平均株式リターン$\overline{CR}$,横軸がイベント日からの日数$t$を表している.そして,(a)が日経QUICKニュースを,(b)はロイターニュースを分類した結果を図示したものである.また,日経QUICKニュース及びロイターニュースの$\overline{R}$と$\overline{CR}$をまとめたものが表\ref{rawtable}の表である.図と表について,どちらも単位は\%である.\begin{table}[p]\rotatebox{90}{\begin{minipage}{571pt}\caption{各ニュース記事クラスの平均リターン及び累積平均リターンの推移}\label{rawtable}\input{02table07.txt}\end{minipage}}\end{table}図\ref{rawfindic}から,日経QUICKニュース及びロイターニュースに関して,どちらもニュース記事クラスごとに$\overline{CR}$の動きが異なることが見て取れる.特に,ニュース記事配信日においてVeryPositiveは大きくプラスに,VeryNegativeは大きくマイナスになっている.PositiveとNegativeは,VeryPositiveとVeryNegativeと比較して,相対的に変動は小さいものの,プラスあるいはマイナスとなっている.そして,Neutralは,ニュース記事配信日に$\overline{CR}$の変化はあまり見られないことが分かった.表\ref{rawtable}から数値を読み取ると,日経QUICKニュースの$\overline{R}[0]$について,VeryPositiveは3.21\%,Positiveは1.51\%,Neutralは0.05\%,Negativeは$-1.03$\%,VeryNegativeは$-1.94$\%となっていることから,$\overline{R}[0]$の符号と大きさについて分類したクラスと整合的であり,前年の日経QUICKニュースから作成したキーワードリストが翌年の日経QUICKニュースの分類に対して,うまく機能していることを示している.また,ロイターニュースの$\overline{R}[0]$は,VeryPositiveは4.72\%,Positiveは3.15\%,Neutralは0.20\%,Negativeは$-1.75$\%,VeryNegativeは$-3.85$\%となっていることから,同様に符号と大きさについて分類したクラスと整合的であり,前年の日経QUICKニュースから作成したキーワードリストが翌年のロイターニュースの分類に対しても,うまく機能していることを示している.そして,ニュース記事配信日から離れると,どのニュース記事クラスも$\overline{CR}$の変化は小さくなることが見て取れる.日経QUICKニュースの$\overline{R}[-1]$について,VeryPositiveは0.49\%,Positiveは0.26\%,Neutralは0.01\%,Negativeは$-0.25$\%,VeryNegativeは$-0.29$\%であり,$\overline{R}[+1]$について,VeryPositiveは0.25\%,Positiveは0.15\%,Neutralは0.01\%,Negativeは$-0.35$\%,VeryNegativeは$-0.52$\%である.また,ロイターニュースの$\overline{R}[-1]$について,VeryPositiveは0.64\%,Positiveは0.32\%,Neutralは$-0.01$\%,Negativeは$-0.26$\%,VeryNegativeは$-0.43$\%であり,$\overline{R}[+1]$について,VeryPositiveは0.15\%,Positiveは0.18\%,Neutralは$-0.17$\%,Negativeは$-0.49$\%,VeryNegativeは$-0.84$\%である.これらの結果は,符号と大きさは,分類したクラスと整合的であることを示している.しかしながら,その水準は$\overline{R}[0]$よりも小さいことが伺える.さらに,ニュース記事配信日から2日以上離れると,$\overline{R}[t]$の符号と大きさは,分類したクラスと整合的でない様子が見て取れる.例えば,日経QUICKニュースの$\overline{R}[-2]$ではVeryPositiveは0.14\%,Positiveは0.09\%,Neutralは0.03\%,Negativeは$-0.05$\%,VeryNegativeは$-0.08$\%であり,$\overline{R}[+2]$では,VeryPositiveは$-0.03$\%,Positiveは$-0.02$\%,Neutralは$-0.02$\%,Negativeは$-0.09$\%,VeryNegativeは$-0.17$\%である.また,ロイターニュースの$\overline{R}[-2]$では,VeryPositiveは0.41\%,Positiveは0.05\%,Neutralは$-0.05$\%,Negativeは$-0.28$\%,VeryNegativeは$-0.22$\%であり,$\overline{R}[+2]$では,VeryPositiveは$-0.10$\%,Positiveは$-0.08$\%,Neutralは$-0.09$\%,Negativeは$-0.30$\%,VeryNegativeは$-0.15$\%である.他のイベントウィンドウにおいても,これらの傾向は同様であることから,本研究のキーワードリストはニュース記事配信日及び前後1営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している.続けて,日本語評価極性辞書によって分類した各ニュース記事クラスごとの$\overline{CR}$の推移を同様に考察する.$\overline{CR}$の推移を図示したものが図\ref{rawjpdic}である.\begin{figure}[b]\begin{center}\includegraphics{24-4ia2f4.eps}\end{center}\caption{日本語評価極性辞書を用いて分類した各ニュース記事クラスの$\overline{CR}$の推移}\label{rawjpdic}\end{figure}図\ref{rawjpdic}を見ると,日経QUICKニュース及びロイターニュースの$\overline{CR}$の動きは,一部のニュース記事クラスではニュース記事配信日付近において変化が見られるものの,図\ref{rawfindic}と比較すると変化の水準は小さく,また,分類したニュース記事クラスの順序と$\overline{CR}$の順序が整合的でない様子を見て取れる.表\ref{rawtable}の数値を読み取ると,日経QUICKニュースの$\overline{R}[0]$について,Positiveは0.19\%,Neutralは0.28\%,Negativeは$-0.51$\%,VeryNegativeは$-0.59$\%となっており,分類したニュース記事クラスの順序と整合的でないことがわかる.ロイターニュースの$\overline{R}[0]$についても,Positiveは1.15\%,Neutralは0.40\%,Negativeは$-0.95$\%,VeryNegativeは$-0.82$\%となっていることから,同様の傾向が伺える.また,変化の水準についても,本研究のキーワードリストを用いて分類したニュース記事クラスと比較すると,小さいことが分かる.これらの傾向は,$\overline{R}[-1]$や$\overline{R}[+1]$でも同様であり,本研究のキーワードリストの方が日本語評価極性辞書よりも,生の株式リターンに関して,うまく分類できていることを示している.次に,ニュース記事配信日付近における$\overline{AR}$及び$\overline{CAR}$について検証する.$\overline{AR}$及び$\overline{CAR}$は,マーケット全体の価格変動の影響のほかに,小型株効果と割安株効果についても共変動の影響を調整した株式リターンである.本節では,ニュース記事配信日10営業日前からの$t$日までの累積平均異常リターン$\overline{CAR}[-10,t]$を$\overline{CAR}$と表記する.$\overline{CAR}$の推移を図示したものが図\ref{abfindic}であり,$\overline{AR}$と$\overline{CAR}$をまとめたものが表\ref{abtable}である.\begin{figure}[t]\begin{center}\includegraphics{24-4ia2f5.eps}\end{center}\caption{本研究のキーワードリストを用いて分類した各ニュース記事クラスの$\overline{CAR}$の推移}\label{abfindic}\end{figure}図\ref{abfindic}を見ると,$\overline{CR}$と同様に,ニュース記事クラスの$\overline{CAR}$について,符号と大きさが分類したクラスと整合的であることがわかる.ニュース記事配信日においてVeryPositiveは大きくプラスに,VeryNegativeは大きくマイナスになっており,PositiveとNegativeは,VeryPositiveとVeryNegativeと比較して,相対的に変動は小さいものの,プラスあるいはマイナスとなっている.そして,Neutralは変化はあまり見られない.表\ref{abtable}から数値を読み取ると,日経QUICKニュースの$\overline{R}[0]$は,VeryPositiveは2.75\%,Positiveは1.19\%,Neutralは0.04\%,Negativeは$-0.79$\%,VeryNegativeは$-1.53$\%となっており,また,ロイターニュースの$\overline{R}[0]$は,VeryPositiveは4.57\%,Positiveは2.91\%,Neutralは0.25\%,Negativeは$-1.46$\%,VeryNegativeは$-3.50$\%となっている.$\overline{R}[-1]$や$\overline{R}[+1]$の符号と大きさについても,変化の水準は小さいものの,分類したクラスと整合的であることが見て取れる.調整済みの株式リターンについても,前年の日経QUICKニュースから作成したキーワードリストを用いて翌年の日経QUICKニュースとロイターニュースを分類できることを示している.$\overline{CAR}$が$\overline{CR}$と比較すると,変化の水準が小さいのは,本研究のキーワードリストが個別銘柄に関して良いあるいは悪いかどうかだけでなく,マーケット全体に関する記述も拾っているためだと考えられる.そして,ニュース記事配信日から2営業日以上離れると,$\overline{AR}[t]$の符号と大きさは分類したクラスと整合的でなく,分類が困難であることが示されている.また,日本語評価極性辞書によって分類した各ニュース記事クラスごとの$\overline{CAR}$の推移を,図示したものが図\ref{abjpdic}である.図\ref{abjpdic}を見ると,同様に$\overline{CAR}$の動きは,一部のニュース記事クラスではニュース記事配信日付近において変化が見られるものの,その変化の水準は図\ref{rawfindic}と比較すると小さく,また,分類したニュース記事クラスの順序と$\overline{CAR}$の順序が整合的でない様子を見て取れる.表\ref{abtable}からもそれらの傾向が読み取ることが出来る.調整済みの株式リターンについても,本研究のキーワードリストの方が日本語評価極性辞書よりも,うまく分類できていることを示しており,本研究手法によって作成したキーワードリストが日本語評価極性辞書と比較して,金融分野に特化した極性辞書となっていることを示している.\begin{table}[p]\rotatebox{90}{\begin{minipage}{571pt}\caption{各ニュース記事クラスの平均異常リターン及び累積平均異常リターンの推移}\label{abtable}\input{02table08.txt}\end{minipage}}\end{table}株式リターン推移の検証結果のまとめとして,本研究のキーワードリストを用いて分類したニュース記事は,ニュース記事配信日の株式リターンとの関連性が最も高く,符号と大きさは,分類したクラスと整合的である.さらに,ニュース記事配信日1営業日前と1営業日後の株式リターンとの関連性も高いことが分かった.とりわけ,生の株式リターンだけでなく,銘柄間の共変動を考慮した株式リターンとの関連性も見られることは,個別銘柄の変動を分類できていることを示している.これらの結果から,本研究手法で作成したキーワードリストがニュース記事の分類に対して有効である可能性を示している.\begin{figure}[t]\begin{center}\includegraphics{24-4ia2f6.eps}\end{center}\caption{日本語評価極性辞書を用いて分類した各ニュース記事クラスの$\overline{CAR}$の推移}\label{abjpdic}\end{figure}一方で,ニュース記事配信日から2営業日以上離れると,分類したクラスと株式リターンの符号と大きさが整合的でないため,困難であることが示された.すなわち,本研究のキーワードリストはニュース記事配信日及び前後1営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している.また,各ニュース記事クラスは,ニュース記事配信日以前に既に株式価格が変動しており,その変動方向も分類したクラスと整合的であることから,マーケットに対して後追いのニュースが存在することが示唆され,同時に,ニュース記事の内容を起因とし,マーケットが変動するような内容のニュース記事も存在していることが示唆される.さらに,本研究手法によって作成したキーワードリストは,日本語評価極性辞書と比較して金融分野に特化した辞書となっていることが示された.\begin{table}[b]\caption{本研究のキーワードリストを用いて分類したニュース記事クラス間の多重比較検定}\label{ghfindic}\input{02table09.txt}\end{table}\subsection{ニュース記事クラス間の株式リターンの多重比較検定結果}前節では,本研究のキーワードリストを用いて分類された各ニュース記事クラスが,ニュース記事配信日付近における絶対的な株式リターンがどのように推移するか観察することでキーワードリストの有効性を検証した.ここでは最後に,ニュース記事クラス間の相対的な株式リターンの差を考察することで,キーワードリストの有効性の検証を行う.そのため,各ニュース記事クラス間の株式リターンの平均値の多重比較検定を行った.本節では株式リターンの平均値として,株式価格変動の銘柄間の共変動のノイズが相対的に少ない$\overline{AR}$及び$\overline{CAR}$のみを用いて検定を行った.多重比較検定には,Games-Howell法を用いた\cite{Games1976}.ここでは,$\overline{AR}[0]$,$\overline{AR}[-1]$,$\overline{AR}[+1]$,$\overline{CAR}[-10,-6]$,$\overline{CAR}[-5,-2]$,$\overline{CAR}[+2,+5]$,$\overline{CAR}[+6,+10]$の7つの指標の検定を行う.表\ref{ghfindic}は,日経QUICKニュース及びロイターニュースに対して本研究のキーワードリストを用いて分類した各ニュース記事クラス間の$\overline{AR}$及び$\overline{CAR}$の平均値の差と有意水準をまとめたものである.有意水準は,Games-Howell法を用いて算出した平均値の差の対する有意確率に基づいており,***,**,*はそれぞれ,両側確率で有意水準0.1\%,有意水準1\%,有意水準5\%で差が有意であることを表している.本研究はサンプルサイズが大きく,統計検定における検出力が高いため有意確率に加え,平均値の差の大きさも含めて考察する.日経QUICKニュースの検定結果の表\ref{ghfindic}を見ると,$\overline{AR}[0]$では有意水準0.1\%で,全てのニュース記事クラス間の平均値に有意に差があり,符合についてもプラスであることから,全てのニュース記事クラス間の分類ができていることが伺える.$\overline{AR}[-1]$は,Negative-VeryNegativeでは有意差が認められないものの,他のニュース記事クラス間では平均値の差は1\%以下ではあるが,有意に差があり,符合についてもプラスである.また,$\overline{AR}[+1]$についても同様に,Negative-VeryNegativeでは有意差が認められないものの,他は有意差があり,符合もプラスである.これらの結果から,ニュース記事クラス間の$\overline{AR}$に統計的な差があり,分類可能であることが示された.特に,ニュース記事配信日だけでなく,配信日前後の$\overline{AR}$では分類できていることは,注目すべき点である.一方で,$\overline{CAR}[-10,-6]$や$\overline{CAR}[+6,+10]$では,分類が困難であることが分かる.$\overline{CAR}[-10,-6]$では,一部のニュース記事クラス間で$\overline{CAR}$の平均値が有意に差があるものの,その大きさは$\overline{AR}[0]$,$\overline{AR}[-1]$,$\overline{AR}[+1]$と比較すると小さく,相対的に有効でないことが分かる.また,$\overline{CAR}[+6,+10]$は,すべて有意な値を取っておらず,符号もマイナスであることから,有効でないことが示されている.さらに,$\overline{CAR}[-5,-2]$や$\overline{CAR}[+2,+5]$についても,有意な値を取らないニュース記事クラス間が多く,有意であったとしても差の符号がマイナスであることから,分類したクラスとは逆である.これらの結果から,本研究手法により作成したキーワードリストは,ニュース記事配信日付近において有効であることが見て取れる.ロイターニュースの検定結果の表\ref{ghfindic}を見ると,日経QUICKニュースの検定結果と同様に,$\overline{AR}[0]$では有意水準0.1\%で,全てのニュース記事クラス間の平均値に有意に差があり,符合についてもプラスであることから,全てのニュース記事クラス間の分類ができていることが伺える.しかしながら,$\overline{AR}[+1]$や$\overline{AR}[-1]$では,日経QUICKニュースでは有意差があったものの,ロイターニュースでは,有意差が認められないクラス間があった.とりわけ,$\overline{AR}[+1]$では顕著に異なる結果となった.$\overline{CAR}[-10,-6]$や$\overline{CAR}[+6,+10]$では,同様に,ニュース記事クラス間では有意差が認められず,分類が困難であることを示している.具体的には,$\overline{CAR}[-10,-6]$では一つのクラス間でのみ有意差が認められるだけであり,$\overline{CAR}[+6,+10]$では有意な値を取っているニュース記事クラス間はあるものの,符号がマイナスであるものは,分類したクラスとは逆であり,これらは分類できているわけではない.さらに,$\overline{CAR}[+2,+5]$もVeryPositive-Negative以外のクラス間では有意な値は取っていないため,分類が困難であることが示された.一方で,$\overline{CAR}[-5,-2]$においてVeryPositiveは,他のクラスとの間に有意差を取っている.さらに,表\ref{ghjpdic}は,日本語評価極性辞書によって分類した各ニュース記事クラス間の$\overline{AR}$及び$\overline{CAR}$の平均値の差について,検定結果をまとめたものである.\begin{table}[t]\caption{本研究のキーワードリストを用いて分類したニュース記事クラス間の多重比較検定}\label{ghjpdic}\input{02table10.txt}\end{table}日経QUICKニュースの検定結果である表\ref{ghjpdic}を見ると,$\overline{AR}[0]$では六つのニュース記事クラス間のうち4つでは有意差が見られることから,一部のクラス間では分類できていることを示している.しかしながら,Positive-Neutralでは符号が逆であり,Negative-VeryNegativeでは有意な値を取っていない.そのため,日本語評価極性辞書ではニュース記事配信日の株式リターンという観点では,日経QUICKニュースの分類が困難であることが示されている.有意な値を取っているニュース記事クラス間についても,差の大きさは本研究のキーワードリストによって分類したニュース記事クラス間と比較すると小さく,本研究のキーワードリストの方がよく分類できていることを示している.$\overline{AR}[-1]$や$\overline{AR}[+1]$についても一部のクラス間では有意差が見られるが,本研究のキーワードリストによって分類したニュース記事クラス間と比較すると,平均値の差の大きさは小さい.また,$\overline{CAR}[+2,+5]$や$\overline{CAR}[+6,+10]$では有意差が見られず,ニュース記事配信日から離れると同様に分類が難しいことが見て取れる.$\overline{CAR}[-10,-6]$や$\overline{CAR}[-5,-2]$では一部にクラス間に有意差が見られることから,日本語評価極性辞書は過去の状況を表したキーワードが多い可能性がある.ロイターニュースの検定結果である表\ref{ghjpdic}を見ると,$\overline{AR}[0]$ではNegative-VeryNegative以外で有意差があり,分類できている可能性はあるものの,表\ref{ghfindic}と比べると平均値の差は小さいため,ロイターニュースについても同様に本研究手法のキーワードリストの方が日本評価極性辞書よりもうまく分類できていることを示している.そして,ニュース記事配信日から離れると分類が困難である様子は同様である.多重比較検定結果のまとめとして,本研究のキーワードリストを用いて分類された各ニュース記事クラス間の相対的な株式リターンの差はニュース記事配信日において顕著に観察された.そして,日経QUICKニュースでは,ニュース記事配信日前営業日と翌営業日でにおいても,差の大きさ自体は小さいが統計的な差があり,キーワードリストの有効性が認められた.しかしながら,ロイターニュースではニュース記事配信日の株式リターンは,統計的な差があるものの,他の営業日では必ずしも統計的な差が認められず,日経QUICKニュースとは異なる結果となった.そのため,本研究手法で作成したキーワードリストを他のメディアに適用するためのより適切な方法は今後の課題である.そして,ニュース記事配信日から離れると統計的な差は認められず,本研究のキーワードリストはニュース記事配信日及び前後1営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している.さらに,本研究手法によって作成したキーワードリストは,金融分野に特化した辞書となっていることが示された.
\section{極性辞書の自動生成に関する先行研究}
日本語極性辞書の自動作成を試みた先行研究として,\citeA{Kobayashi2001},\citeA{Inui2004},\citeA{Kobayashi2005},\citeA{Kanayama2006},\citeA{Kaji2007,Torikura2012}などがある.これら先行研究のアプローチは,半教師あり学習に分類される\cite{Pang2008,Liu2012}.半教師あり学習には,最初に少量ではあるが教師データが必要となる.教師データは人手で用意するか,あるいはGeneralInquirerのような既に人手でラベル付けされた辞書を用意する必要がある.とりわけ,金融分野に特化した極性辞書を作成する場合,専門家によるラベル付けが必要となる.これら半教師あり学習によるアプローチに対して,本研究では,(機関)投資家向けのニュースデータという特性に注目し,外部のデータベース(株式価格データ)から極性情報を獲得することで,人手による極性判断を介さずに金融分野に特化した極性辞書の作成を行った点が特長である.
\section{おわりに}
本研究では,ファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を目的とし,ニュースデータと株式価格データからキーワードリストの作成を行った.本研究の主な貢献は,1)イベントスタディ分析の枠組みによって,各銘柄と各時期の共変動リスクを調整した株式価格変動をもとにキーワードリストを作成したこと,2)金融市場の価格形成と関連性の高いメディアを用いることで,ニュース記事配信日の調整や個別銘柄への紐付けなど精緻に行ったこと.加えて,3)本研究手法によって作成したキーワードリストを用いて,作成に用いたメディアのニュース記事分類と他メディアのニュース記事分類を行い,一般的な極性辞書による分類との比較を通じて,本研究手法の有効性を検証したこと,の三点である.そして検証の結果,キーワードリストを用いることで,ニュース記事配信日の株式リターンに関して,将来のニュース記事を分類できること,加えて,異なるメディアのニュース記事も分類できることを示した.また,経済・金融分野に特化していない一般的な極性辞書よりもうまく分類できていることから,金融分野に特化した辞書になっていることが示された.一方で,キーワードリストはニュース記事配信日から2営業日以上離れると,ニュース記事分類が困難であることが示された.本研究手法によって作成されたキーワードリストを用いることで,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた資産価格分析を可能にし,これまで数値情報だけでは計測が困難であった情報と資産価格との関連性の解明できる可能性がある.本研究の手法は,これまで一回でも出現したキーワードに対して対応することは可能であるが,完全な新単語に対応できるわけではないため,手法の改善は今後の課題である.より長期間のデータを用いた実験やニュースデータ以外のメディアへの応用などについても,今後の課題である.\acknowledgment本稿の作成にあたり,株式会社日本経済新聞社,株式会社QUICK,株式会社金融工学研究所から研究支援を受けた.記して感謝したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bishop}{Bishop}{2006}]{Bishop2012}Bishop,C.~M.\BBOP2006\BBCP.\newblock{\BemPatternRecognitionandMachineLearning}.\newblockSpringer.\bibitem[\protect\BCAY{Campbell,Lo,\BBA\MacKinlay}{Campbellet~al.}{1997}]{Campbell2003}Campbell,J.~Y.,Lo,A.~W.,\BBA\MacKinlay,A.~C.\BBOP1997\BBCP.\newblock{\BemTheEconometricsofFinancialMarkets}.\newblockPrincetonUniversityPress.\bibitem[\protect\BCAY{張\JBA松原}{張\JBA松原}{2008}]{Chou2008}張へい\JBA松原茂樹\BBOP2008\BBCP.\newblock株価データに基づく新聞記事の評価.\\newblock\Jem{第22回人工知能学会全国大会論文集},\mbox{\BPGS\1--3}.\bibitem[\protect\BCAY{Fama\BBA\French}{Fama\BBA\French}{1993}]{Fama1993}Fama,E.~F.\BBACOMMA\\BBA\French,K.~R.\BBOP1993\BBCP.\newblock\BBOQCommonRiskFactorsintheReturnsonStockandBonds.\BBCQ\\newblock{\BemJournalofFinancialEconomics},{\Bbf33}(1),\mbox{\BPGS\3--56}.\bibitem[\protect\BCAY{Games\BBA\Howell}{Games\BBA\Howell}{1976}]{Games1976}Games,P.~A.\BBACOMMA\\BBA\Howell,J.~F.\BBOP1976\BBCP.\newblock\BBOQPairwiseMultipleComparisonProceduresWithUnequalN'sand/orVariances:AMonteCarloStudy.\BBCQ\\newblock{\BemJournalofEducationalStatistics},{\Bbf1}(2),\mbox{\BPGS\113--125}.\bibitem[\protect\BCAY{Henry}{Henry}{2008}]{Henry2008}Henry,A.\BBOP2008\BBCP.\newblock\BBOQAreInvestorsInfluencedbyHowEarningsPressReleasesAreWritten?\BBCQ\\newblock{\BemJournalofBusinessCommunication},{\Bbf45}(4),\mbox{\BPGS\363--407}.\bibitem[\protect\BCAY{東山\JBA乾\JBA松本}{東山\Jetal}{2008}]{Higashiyama2008}東山昌彦\JBA乾健太郎\JBA松本裕治\BBOP2008\BBCP.\newblock述語の選択選好性に着目した名詞評価極性の獲得.\\newblock\Jem{言語処理学会第14回年次大会論文集},\mbox{\BPGS\584--587}.\bibitem[\protect\BCAY{廣川\JBA吉田\JBA山田\JBA増田\JBA中川}{廣川\Jetal}{2010}]{Hirokawa2010}廣川敬真\JBA吉田稔\JBA山田剛一\JBA増田英孝\JBA中川裕志\BBOP2010\BBCP.\newblock業種別による新聞記事と株価動向の関係の解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\1070--1073}.\bibitem[\protect\BCAY{乾\JBA乾\JBA松本}{乾\Jetal}{2004}]{Inui2004}乾孝司\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock出来事の望ましさ判定を目的とした語彙知識獲得.\\newblock\Jem{言語処理学会第10回年次大会論文集},\mbox{\BPGS\91--94}.\bibitem[\protect\BCAY{Kaji\BBA\Kitsuregawa}{Kaji\BBA\Kitsuregawa}{2007}]{Kaji2007}Kaji,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2007\BBCP.\newblock\BBOQBuildingLexiconforSentimentAnalysisfromMassiveCollectionofHTMLDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1075--1083}.\bibitem[\protect\BCAY{Kanayama\BBA\Nasukawa}{Kanayama\BBA\Nasukawa}{2006}]{Kanayama2006}Kanayama,H.\BBACOMMA\\BBA\Nasukawa,T.\BBOP2006\BBCP.\newblock\BBOQFullyAutomaticLexiconExpansionforDomain-orientedSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{Kearney\BBA\Liu}{Kearney\BBA\Liu}{2014}]{Kearney2014}Kearney,C.\BBACOMMA\\BBA\Liu,S.\BBOP2014\BBCP.\newblock\BBOQTextualSentimentinFinance:ASurveyofMethodsandModels.\BBCQ\\newblock{\BemInternationalReviewofFinancialAnalysis},{\Bbf33},\mbox{\BPGS\171--185}.\bibitem[\protect\BCAY{小林\JBA乾\JBA乾}{小林\Jetal}{2001}]{Kobayashi2001}小林のぞみ\JBA乾孝司\JBA乾健太郎\BBOP2001\BBCP.\newblock語釈文を利用した「p/n辞書」の作成.\\newblock\Jem{言語・音声理解と対話処理研究会},{\Bbf33},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{Kobayashi2005}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出のための評価表現の収集.\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{久保田\JBA竹原}{久保田\JBA竹原}{2007}]{Kubota2007}久保田敬一\JBA竹原均\BBOP2007\BBCP.\newblockFama-Frenchファクターモデルの有効性の再検証.\\newblock\Jem{現代ファイナンス},{\Bbf22},\mbox{\BPGS\3--23}.\bibitem[\protect\BCAY{Liu}{Liu}{2012}]{Liu2012}Liu,B.\BBOP2012\BBCP.\newblock{\BemSentimentAnalysisandOpinionMining}.\newblockMorgan\&ClaypoolPublishers.\bibitem[\protect\BCAY{Loughran\BBA\McDonald}{Loughran\BBA\McDonald}{2011}]{Loughran2011}Loughran,T.\BBACOMMA\\BBA\McDonald,B.\BBOP2011\BBCP.\newblock\BBOQWhenIsaLiabilityNotaLiability?TextualAnalysis,Dictionaries,and10-Ks.\BBCQ\\newblock{\BemJournalofFinance},{\Bbf66}(1),\mbox{\BPGS\35--65}.\bibitem[\protect\BCAY{Loughran\BBA\McDonald}{Loughran\BBA\McDonald}{2016}]{Loughran2016}Loughran,T.\BBACOMMA\\BBA\McDonald,B.\BBOP2016\BBCP.\newblock\BBOQTextualAnalysisinAccountingandFinance:ASurvey.\BBCQ\\newblock{\BemJournalofAccountingResearch},{\Bbf54}(4),\mbox{\BPGS\1187--1230}.\bibitem[\protect\BCAY{小川\JBA渡部}{小川\JBA渡部}{2001}]{Ogawa2001}小川知也\JBA渡部勇\BBOP2001\BBCP.\newblock株価データと新聞記事からのマイニング.\\newblock\Jem{情報処理学会研究報告情報学基礎(FI)},{\Bbf2001}(20),\mbox{\BPGS\137--144}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{Pang2008}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock\BBOQOpinionMiningandSentimentAnalysis.\BBCQ\\newblock{\BemFoundationsandTrendsinInformationRetrieval},{\Bbf2}(1-2),\mbox{\BPGS\1--135}.\bibitem[\protect\BCAY{鳥倉\JBA小町\JBA松本}{鳥倉\Jetal}{2012}]{Torikura2012}鳥倉広大\JBA小町守\JBA松本裕治\BBOP2012\BBCP.\newblockTwitterを利用した評価極性辞書の自動拡張.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\551--554}.\end{thebibliography}\begin{biography}\bioauthor{五島圭一}{2012年慶應義塾大学経済学部卒業.2014年同大学院経営管理研究科修士課程修了.2017年東京工業大学大学院総合理工学研究科知能システム科学専攻博士後期課程修了.博士(工学).現在は,日本銀行金融研究所にてファイナンス研究に従事.}\bioauthor{高橋大志}{1994年東京大学工学部卒業.富士写真フイルム(現・富士フイルム)研究員.三井信託銀行(現・三井住友信託銀行)シニアリサーチャー.筑波大学大学院経営・政策科学研究科修士課程修了.同大学院博士課程修了.博士(経営学).岡山大学准教授,キール大学客員研究員,慶應義塾大学准教授を経て,2014年より,慶應義塾大学大学院経営管理研究科・慶應義塾大学ビジネススクール教授.日本ファイナンス学会,SICE,人工知能学会等各会員.経営情報学会誌編集委員.}\end{biography}\biodate\end{document}
| |
V19N02-01
|
\section{はじめに}
\subsection{片仮名語と複合名詞分割}外国語からの借用(borrowing)は,日本語における代表的な語形成の1つとして知られている\cite{Tsujimura06}.特に英語からの借用によって,新造語や専門用語など,多くの言葉が日々日本語に取り込まれている.そうした借用語は,主に片仮名を使って表記されることから片仮名語とも呼ばれる.日本語におけるもう1つの代表的な語形成として,単語の複合(compounding)を挙げることができる\cite{Tsujimura06}.日本語は複合語が豊富な言語として知られており,とりわけ複合名詞にその数が多い.これら2つの語形成は,日本語における片仮名複合語を非常に生産性の高いものとしている.日本語を含めたアジアおよびヨーロッパ系言語においては,複合語を分かち書きせずに表記するものが多数存在する(ドイツ語,オランダ語,韓国語など).そのような言語で記述されたテキストを処理対象とする場合,複合語を単語に分割する処理は,統計的機械翻訳,情報検索,略語認識などを実現する上で重要な基礎技術となる.例えば,統計的機械翻訳システムにおいては,複合語が構成語に分割されていれば,その複合語自体が翻訳表に登録されていなかったとしても,逐語的に翻訳を生成することが可能となる\cite{Koehn03}.情報検索においては,複合語を適切に分割することによって検索精度が向上することがBraschlerらの実験によって示されている\cite{Braschler04}.また,複合語内部の単語境界の情報は,その複合語の省略表現を生成または認識するための手がかりとして広く用いられている\cite{Schwartz03,Okazaki08}.高い精度での複合語分割処理を実現するためには,言語資源を有効的に活用することが重要となる.例えば,Alfonsecaら\citeyear{AlfonsecaCICLing08}は単語辞書を学習器の素性として利用しているが,これが分割精度の向上に寄与することは直感的に明白である.これに加えて,対訳コーパスや対訳辞書といった対訳資源の有用性も,これまでの研究において指摘されている\cite{Brown02,Koehn03,Nakazawa05}.英語表記において複合語は分かち書きされるため,複合語に対応する英訳表現を対訳資源から発見することができれば,その対応関係に基づいて複合語の分割規則を学習することが可能になる.複合語分割処理の精度低下を引き起こす大きな要因は,言語資源に登録されていない未知語の存在である.特に日本語の場合においては,片仮名語が未知語の中の大きな割合を占めていることが,これまでにも多くの研究者によって指摘されている\cite{Brill01,Nakazawa05,Breen09}.冒頭でも述べたように,片仮名語は生産性が非常に高いため,既存の言語資源に登録されていないものが多い.例えばBreen\citeyear{Breen09}らによると,新聞記事から抽出した片仮名語のうち,およそ20\%は既存の言語資源に登録されていなかったことが報告されている.こうした片仮名語から構成される複合名詞は,分割処理を行うことがとりわけ困難となっている\cite{Nakazawa05}.分割が難しい片仮名複合名詞として,例えば「モンスターペアレント」がある.この複合名詞を「モンスター」と「ペアレント」に分割することは一見容易なタスクに見えるが,一般的な形態素解析辞書\footnote{ここではJUMAN辞書ver.~6.0とNAIST-jdicver.~0.6.0を調べた.}には「ペアレント」が登録されていないことから,既存の形態素解析器にとっては困難な処理となっている.実際に,MeCabver.~0.98を用いて解析を行ったところ(解析辞書はNAIST-jdicver.~0.6.0を用いた),正しく分割することはできなかった.\subsection{言い換えと逆翻字の利用}こうした未知語の問題に対処するため,本論文では,大規模なラベルなしテキストを用いることによって,片仮名複合名詞の分割精度を向上させる方法を提案する.近年では特にウェブの発達によって,極めて大量のラベルなしテキストが容易に入手可能となっている.そうしたラベルなしテキストを有効活用することが可能になれば,辞書や対訳コーパスなどの高価で小規模な言語資源に依存した手法と比べ,未知語の問題が大幅に緩和されることが期待できる.これまでにも,ラベルなしテキストを複合名詞分割のために利用する方法はいくつか提案されているが,いずれも十分な精度は実現されていない.こうした関連研究については\ref{sec:prev}節において改めて議論を行う.提案手法の基本的な考え方は,片仮名複合名詞の言い換えを利用するというものである.一般的に,複合名詞は様々な形態・統語構造へと言い換えることが可能であるが,それらの中には,元の複合名詞内の単語境界の場所を強く示唆するものが存在する.そのため,そうした言い換え表現をラベルなしテキストから抽出し,その情報を機械学習の素性として利用することによって,分割精度の向上が可能となる.これと同様のことは,片仮名語から英語への言い換え,すなわち逆翻字に対しても言うことができる.基本的に片仮名語は英語を翻字したものであるため,単語境界が自明な元の英語表現を復元することができれば,その情報を分割処理に利用することが可能となる.提案手法の有効性を検証するための実験を行ったところ,言い換えと逆翻字のいずれを用いた場合においても,それらを用いなかった場合と比較して,F値において統計的に有意な改善が見られた.また,これまでに提案されている複合語分割手法との比較を行ったところ,提案手法の精度はそれらを大幅に上回っていることも確認することができた.これらの実験結果から,片仮名複合名詞の分割処理における,言い換えと逆翻字の有効性を実証的に確認することができた.本論文の構成は以下の通りである.まず\ref{sec:prev}節において,複合名詞分割に関する従来研究,およびその周辺分野における研究状況を概観する.次に\ref{sec:approach}節では,教師あり学習を用いて片仮名複合名詞の分割処理を行う枠組みを説明する.続いて\ref{sec:para}節と\ref{sec:trans}節においては,言い換えと逆翻字を学習素性として使う手法について説明する.\ref{sec:exp}節では分割実験の結果を報告し,それに関する議論を行う.最後に\ref{sec:conclude}節においてまとめを行う.
\section{関連研究}
\label{sec:prev}\subsection{複合語分割}\label{sec:prev_comp}これまでにも,ラベルなしテキストを用いた複合語分割手法はいくつか提案されている.それらはいずれも,複合語の構成語の頻度をラベルなしテキストから推定し,その頻度情報に基づいて分割候補を順位付けするものとなっている\cite{Koehn03,Ando03,Schiller05,Nakazawa05,Holz08}.とりわけ本研究と関連が深いのは\cite{Nakazawa05}であり,彼らもまた片仮名複合名詞を対象としている.しかし,こうした単語頻度に基づく手法は,対訳資源を用いた手法と比較して,十分な分割精度が得られないという問題が指摘されている\cite{Koehn03,Nakazawa05}.実際,我々の実験においても,これら単語頻度に基づく手法と提案手法との比較を行ったが,提案手法の方が大幅に高い分割精度を実現可能であることを確認した.一方,Alfonsecaら\citeyear{AlfonsecaCICLing08}は,ラベルなしテキストではなくクエリログを複合語分割に利用することを提案している\footnote{彼らはウェブテキストのアンカーテキストを用いることも提案しているが,精度の向上は実現されていない.}.しかし彼らの実験報告によると,クエリログを用いなかった場合の精度が90.45\%であるのに対して,クエリログを用いた場合の精度は90.55\%であり,その改善幅は極めて小さい.一方,本研究の実験(\ref{sec:exp}節)では,提案手法の導入によって精度は83.4\%から87.6\%へと大きく向上し,なおかつ,その差は統計的に有意であることが確認された.また,クエリログは一部の組織以外では入手が困難であるのに対し,提案手法に必要なラベルなしテキストは容易に入手することが可能である.HolzとBiemann\citeyear{Holz08}は独語の複合語に対する分割手法と言い換え手法を提案しており,本研究との関連性が高い.しかし,彼らが提案しているアルゴリズムは,複合語の分割と言い換えをパイプライン的に行うものであるため,提案手法とは異なり,言い換えに関する情報は分割時に用いられない.\subsection{その他の関連研究}片仮名複合名詞の分割処理は単語分割の部分問題であると考えることができる.そのため,既存の単語分割器を用いて片仮名複合名詞の分割処理を行うことも可能であるが,実際問題として,それでは十分な分割精度を得ることは難しい(\ref{sec:exp}節の実験結果を参照).この原因として,既存の単語分割器は辞書に強く依存した設計となっており,未知語が多い片仮名語の解析に失敗しやすいことが挙げられる.これに関する議論は\cite{Nakazawa05}が詳しい.単語分割の視点から見た本研究は,片仮名複合名詞という特に解析が困難な言語表現に焦点をあてた試みであると言える.\ref{sec:trans}節において我々は,片仮名複合名詞の分割のために逆翻字を利用する手法を提案する.提案手法は,技術的な観点から見ると,ウェブから片仮名語の逆翻字を自動抽出する既存手法\cite{Brill01,Cao07,Oh08,Wu09}と関連が深い.しかしながら,そうした関連研究は翻字辞書や翻字生成システムを構築することを目的としており,自動抽出した逆翻字を複合語の分割処理に利用する試みは本研究が初めてである.
\section{教師あり学習に基づく手法}
\label{sec:approach}本論文では,片仮名複合名詞$x$が入力として与えられたとき,それを構成語列$\y=(y_1,y_2\dotsy_{|\y|})$へと分割する問題を取り扱う.ここでは,出力$\y$が1語(すなわち$|\y|=1$)である場合もありうることに注意をされたい.1節においても議論したように,片仮名名詞は英語の翻字が多く,提案する素性の1つもその性質を利用したものとなっているため,以下では入力される片仮名語は英語の翻字であると仮定する.この仮定が実テキストにおいてどの程度成立しているのかを検証することは難しいが,例えばウェブ検索エンジンのクエリにおいては,片仮名のクエリの約87\%は翻字であることが報告されている\cite{Brill01}.このデータから上記の仮定にはある程度の妥当性があることが推測され,実テキストを処理する際にも提案手法の効果を期待することができる.\begin{table}[b]\caption{実験で使用した素性テンプレート}\label{tab:feature}\input{02table01.txt}\vspace{-0.5\Cvs}\end{table}我々は片仮名複合名詞の分割処理を「片仮名複合名詞$x$に対する構成語列$\y$を予測する構造予測問題」と捉えて,これを以下のような線形モデルを用いて解く.\[\y^{*}=\argmax_{\y\in\mathcal{Y}(x)}\w\cdot{\bm\phi}(\y)\]ここで$\mathcal{Y}(x)$は入力$x$に対する全分割候補の集合を表す.${\bm\phi}(\y)$は分割候補$\y$の素性ベクトル表現,$\w$は訓練事例から推定される重みベクトルである.表\ref{tab:feature}に我々が実験で用いた素性テンプレートを示す.テンプレート1からは,ある構成語$1$-gramが出現したか否かを示す2値素性が,訓練事例に出現した全ての構成語$1$-gramについて生成される.テンプレート2は同様の$2$-gram素性である.テンプレート3からは,構成語の文字数(1,2,3,4,$\geq$5)を示す2値素性が5種類生成される.テンプレート4は構成語$y$が外部辞書\footnote{外部辞書としてはNAIST-jdicver.~0.6.0を用いた.}に登録されているか否かを表す2値素性であり,構成語$y$が外部辞書に登録されていれば1を返す2値素性が1つ生成される.テンプレート5から7は,片仮名複合名詞の言い換えと逆翻字を用いたものであり,\ref{sec:para}節と\ref{sec:trans}節において詳しく説明する.以下の議論では,テンプレート1から4によって生成される素性を基本素性,テンプレート5から生成される素性を言い換え素性,テンプレート6と7から生成される素性を逆翻字素性と呼んで互いに区別をする.重みベクトル$\w$は任意の学習アルゴリズムを用いて最適化することが可能であるが,ここでは計算効率を考慮して平均化パーセプトロン\cite{Freund99}を用いた.平均化パーセプトロンはオンライン学習アルゴリズムの一種であり,高速に学習を行うことができると同時に,多くのタスクにおいてSVMなどのバッチ学習アルゴリズムと比較しても遜色のない精度を達成できることが知られている.パーセプトロンの訓練時およびテスト時には$\y^{*}$を求める操作が必要となるが,セミマルコフモデルにおいて用いられるのと同様の動的計画法によって効率的に実行可能である.
\section{言い換え素性}
\label{sec:para}本節では,片仮名複合名詞の言い換え表現を,教師あり学習の素性として使う方法について述べる(表\ref{tab:feature}におけるテンプレート5に対応する).\subsection{複合名詞の言い換え}一般的に,複合名詞は様々な形へと言い換えることが可能であるが,そうした言い換え表現の中には,元の複合名詞の単語境界を認識する手がかりとなるものが存在する.以下に具体例を示す.\begin{lingexample}\head{アンチョビパスタ}{ex:anchovy}\sent{アンチョビ・パスタ\\[3pt]}\sent{アンチョビのパスタ}\end{lingexample}\noindent(\ref{ex:anchovy}b)は,複合名詞(\ref{ex:anchovy}a)の構成語間に中黒を挿入することによって生成された言い換え表現である.同様に(\ref{ex:anchovy}c)は助詞「の」を挿入することによって生成された言い換え表現である.もしラベルなしテキストにおいて(\ref{ex:anchovy}b)や(\ref{ex:anchovy}c)のような言い換え表現を観測することができれば,このことは複合名詞(\ref{ex:anchovy}a)を「アンチョビ」と「パスタ」に正しく分割するための手がかりとなることが考えられる.\subsection{言い換え規則}このような言い換えを利用して片仮名複合名詞の分割処理を行うため,複合名詞の言い換え規則を7つ作成した(表\ref{tab:para}).言い換え規則の作成にあたっては,Kageuraら\citeyear{Kageura04}の研究を参考にしながら,分割処理に有用と思われるものを人手で選定した.作成した言い換え規則は全て$X_1X_2\rightarrowX_1MX_2$という形式をしており($X_1$と$X_2$は名詞,$M$は助詞などの機能語),左辺が言い換え前の複合名詞,右辺が言い換え後の表現に対応している.\begin{table}[b]\caption{作成した言い換え規則の一覧とその適用例.$X_1$と$X_2$は名詞を表す}\label{tab:para}\input{02table02.txt}\end{table}\subsection{言い換え頻度に基づく素性}これらの規則を用いて,次のように新しい素性を定義する.まず前処理として,以下のような正規表現を用いることにより,片仮名複合名詞の言い換え表現の出現頻度をラベルなしテキストから求める.\begin{quote}(katakana)+\;・\;(katakana)+\\(katakana)+\;の\;(katakana)+\\(katakana)+\;する\;(katakana)+\\(katakana)+\;した\;(katakana)+\\(katakana)+\;な\;(katakana)+\\(katakana)+\;的\;(katakana)+\\(katakana)+\;的な\;(katakana)+\end{quote}ただし(katakana)は片仮名1文字にマッチする特殊文字である.また$+$は文字の繰り返しを表す量指定子であり,最長一致が適用されるものとする.このような正規表現を用いることによって,単語分割処理を行わずに言い換え表現を抽出することができるのは,表\ref{tab:para}のような片仮名複合語の言い換え表現に対象を限定しているためである.上記の正規表現にマッチするテキストは,必ず前後が片仮名以外の文字(漢字や平仮名)に囲まれていることになる.そのような文字種の変わり目には,単語境界が存在する場合が多いため,このような単純な文字列処理であっても言い換え表現を抽出することが可能になっている.分割処理時に分割候補$\y$が提示された際には,構成語2-gramに対する言い換え素性{\scPara}($y_{i-1}$,$y_{i}$)の値を次のように定義する.まず$X_1=y_{i-1}$,$X_2=y_i$と代入することにより,表\ref{tab:para}の規則から言い換え表現を生成する.そして,生成された7つの言い換え表現の頻度の和を$F$としたとき,その対数$\log(F+1)$を素性値として用いる.ここでは素性値の計算に非常に単純な方法を用いているため,$X_1$や$X_2$に名詞ではなく,名詞連続が代入された場合であっても,素性が発火してしまうということがある.また逆に,正解となる構成語よりも小さな単位の文字列が代入された場合であっても,同様に素性が発火してしまうことがあり,精度に悪影響を及ぼす可能性がある.しかし,このような手法であっても実験において分割精度の向上を十分確認することができたため,シンプルさを重視して現在のような手法とした.素性値として頻度ではなく対数頻度を用いているのはスケーリングのためである.予備的な実験においては,頻度をそのまま素性値として用いることも行ったが,対数頻度を用いた場合の方が高い精度が得られた.なお,$\logF$ではなく$\log(F+1)$としているのは,$F$=1であった場合に素性値が0となるのを防ぐためである.
\section{逆翻字素性}
\label{sec:trans}\begin{table}[b]\caption{単語対応付き翻字対の例.下線部に付与された数字は単語の対応を表す}\label{tab:trans}\input{02table03.txt}\end{table}片仮名語の多くは英語を翻字したものであり,元となる英語表現が存在する.以下では,そのような英語表現のことを{\bf原語}と呼び,片仮名語と原語の対のことを{\bf翻字対}と呼ぶこととする.我々は,片仮名語が原語の発音情報をおおよそ保持しているという特性を利用することによって,単語単位での対応関係が付与された翻字対({\bf単語対応付き翻字対})をラベルなしテキストから自動抽出する(表\ref{tab:trans}).そして,得られた単語対応付き翻字対に基づいて,分割結果$\y$に出現する単語$n$-gramが,英単語$n$-gramと対応付け可能であるかを示す2値素性を用いる(表\ref{tab:feature}におけるテンプレート6と7に対応する).以下本節では,テキストから単語対応付き翻字対を自動抽出する方法について説明する.\subsection{括弧表現}日本語においては,括弧表現を使って片仮名語の原語がテキスト中に挿入される場合がある.\begin{lingexample}\head{アメリカで\underline{ジャンクフード}(junkfood)と言えば...}{ex:junk}\sent{トラックバック\underline{スパム}(spam)を撃退するため...}{}\end{lingexample}\noindentいずれの例文においても,下線を引いた片仮名語に対して,その原語が括弧を使って併記されている.我々はこのような括弧表現を利用することにより,単語対応付き翻字対の自動抽出を行う.こうした括弧表現から単語対応付き翻字対の抽出を行うためには,少なくとも以下の3つのことが技術的な問題となる\begin{description}\item[問題A]片仮名語の直後に出現する括弧表現が必ずしもその原語であるとは限らないため,原語が記述されている括弧表現とそうでない括弧表現を区別する必要がある.\item[問題B]翻字対の関係にある片仮名語の開始位置を決定しなくてはならない.例えば(\ref{ex:junk}b)においては,原語「spam」の翻字は「トラックバックスパム」ではなく「スパム」である.\item[問題C]片仮名語と原語の単語対応を求めるためには,片仮名語を分かち書きしなくてはならない.例えば(\ref{ex:junk}a)から表\ref{tab:trans}のような単語対応付き翻字対を獲得するためには,片仮名列「ジャンクフード」を「ジャンク」と「フード」に分割することが必要である.\end{description}\subsection{発音の類似性の利用}これまでにも,前述のような括弧表現から翻字対を自動抽出する研究は数多く存在するが,問題Cに対する本質的な解決策はいまだ提案されていない.これまでの研究においては,基本的に既存の単語分割器を用いることによって片仮名語の分割が行われている\cite{Cao07,Wu09}.しかし,\ref{sec:prev}節において議論を行ったように,片仮名語の分かち書きを行うことは現在のところ技術的に困難であり,このようなアプローチは望ましくない.我々は上記の3つの問題を解決するため,片仮名語と原語の発音の類似性を利用することを提案する.以下の議論では,説明のために,まず問題Cだけを議論の対象とする.具体例として,片仮名語「ジャンクフード」と原語「junkfood」に対して,それらの発音の類似性に基づき以下のような部分文字列の対応関係が得られたとする.\begin{lingexample}\head{[ジャン]$_1$[ク]$_2$[フー]$_3$[ド]$_4$}{ex:junk2}\sent{[jun]$_1$[k]$_2$[foo]$_3$[d]$_4$}\end{lingexample}\noindentここでは,括弧で囲まれて同じ番号を添えられている部分文字列が,互いに対応関係にあるものとする.括弧表現内の英語は空白を使って分かち書きされているため,上記のような部分文字列の対応関係を利用すれば,片仮名語と英単語が1対1に対応するように片仮名列を分かち書きすることができる.また,その過程において,単語間の対応関係も明らかにすることができる.残る問題Aおよび問題Bに対しても,発音の類似性に基づいて同様に解決を図ることが可能である.以下の例において,下線が引かれた片仮名語と括弧内の英語表現が翻字対であるか否かを判定することを考える.\begin{lingexample}\head{検索\underline{エンジン}(Google)を使って...}{ex:google}\sent{\underline{トラックバックスパム}(spam)を撃退する...}{}\end{lingexample}\noindentこのように,括弧内に原語ではない表現が出現したり,片仮名語の開始位置が正しく認識されなかった場合には,片仮名列とアルファベット列の発音の類似度が低くなることが期待できるため,フィルタリングできると考えられる.単語対応付き翻字対の具体的な抽出手順については,\ref{sec:extraction}節において説明を行う.\subsection{発音モデル}\label{sec:phonetic_model}片仮名語と原語における部分文字列の対応関係の発見には,Jiampojamarnら\citeyear{Jiampojamarn07}が提案した生成モデルを用いる.$f$と$e$をそれぞれ片仮名列とアルファベット列とし,これらの間の対応関係を見つけることを考える.ただし,原語には空白が存在する可能性があるが,空白に対応する片仮名文字列は存在しないことから,部分文字列の対応を求めるときにはアルファベット列から空白を取り除いておく.例えば「ジャンクフード」と「junkfood」の部分文字列対応を求める場合には「$f=\text{ジャンクフード}$」「$e=\text{junkfood}$」とする.ここで,$\mathcal{A}$をそれらの間の部分文字列の対応とする.具体的には,$\mathcal{A}$は対応付けられている部分文字列の組($f_i$,$e_i$)の集合であり,$f=f_1f_2\dotsf_{|\mathcal{A}|}$および$e=e_1e_2\dotse_{|\mathcal{A}|}$となる.この部分文字列対応$\mathcal{A}$の確率を以下のように定義する.\[\logp(f,e,\mathcal{A})=\sum_{(f_i,e_i)\in\mathcal{A}}\logp(f_{i},e_{i})\]一般に$\mathcal{A}$は観測することができないため隠れ変数として扱い,モデルのパラメータは翻字対$(f,e)$の集合からEMアルゴリズムを用いて推定する.詳細は文献\cite{Jiampojamarn07}を参照されたい.表\ref{tab:alignment}に「ジャンクフード」と「junkfood」に対する部分文字列対応$\mathcal{A}$の具体例,および実験において計算された確率値を示す.この確率モデルを用いて,与えられた$(f,e)$に対する部分文字列の対応を次のように決定する.\[\mathcal{A}^{*}=\argmax_{\mathcal{A}}\logp(f,e,\mathcal{A})\]このとき$\mathcal{A}^{*}$の中の部分文字列$e_i$が空白をまたいでしまうと(ジャンクフードの例であれば$e_i=\text{kfoo}$などとなった場合),$\mathcal{A}^{*}$を使って片仮名列$f$を分かち書きすることができなくなってしまう.そこで,アルファベット列$e$が空白を含んでいた場合は,前述のとおり空白を取り除いて確率値の計算を行うが,空白の存在した箇所は記憶しておき,部分文字列$e_i$が空白をまたがないという制約を加えて$\argmax$の計算を行う.\begin{table}[t]\hangcaption{片仮名列「$f=\text{ジャンクフード}$」とアルファベット列「$e=\text{junkfood}$」に対する部分文字列対応$\mathcal{A}$の具体例($|\mathcal{A}|=4$)}\label{tab:alignment}\input{02table04.txt}\end{table}\subsection{単語対応付き翻字対の抽出}\label{sec:extraction}この発音モデルを用いて,以下のような手順で単語対応付き翻字対の抽出を行う.\begin{description}\item[手順1]括弧内に出現するアルファベット列$e$と,その直前に出現する片仮名列$f$を抽出し,それらの組$(f,e)$を翻字対の候補とする.ただしアルファベット列は全て小文字に正規化する.\item[手順2]翻字対候補$(f,e)$に対するスコアを以下のように定義し,それが閾値$\theta$を越えたものを正しい翻字対と判定する.\[\frac{1}{N}\logp(f,e,\mathcal{A}^{*})\]式中の$N$は$e$に含まれる単語数であり,$\frac{1}{N}$という項は単語数が多い場合にスコアが過剰に小さくなるのを防ぐために導入している.ここでスコアが閾値を下回っていた場合には,片仮名語の開始位置を正しく判定できていない可能性がある.そこで,片仮名列$f$の最左文字を1文字ずつ削除していき,閾値を上回るものが見つかればそれを翻字対と判定し,次の翻字対候補の処理に移る.\item[手順3]得られた翻字対$(f,e)$に対して,部分文字列対応$\mathcal{A}^{*}$に基づいて片仮名列$f$を分かち書きし,単語の対応関係を求める.これにより,単語対応付き翻字対のリストを得ることができる.\end{description}\noindentただし,手順2においては,表記揺れやタイポなどの要因により,1つの片仮名列に対して複数の逆翻字が見つかる可能性がある.その場合は,各片仮名列$f$に対して,最もスコアの高い翻字対$(f,e)$のみを保持して,それ以外のものは使用しない.
\section{実験と議論}
\label{sec:exp}本節では,提案する2つの素性(言い換え素性と翻字素性)が片仮名複合名詞の分割処理の精度に与える効果について報告を行う.\begin{table}[b]\caption{表\ref{tab:para}の規則をもとに抽出された言い換え表現(の候補).括弧内の数字は頻度を表す}\label{fig:extract-para}\input{02table05.txt}\end{table}\subsection{実験設定}\label{sec:setting}発音モデルのパラメータ推定に必要な翻字対のデータは,外国人の名前を日本語で表記するときにはほぼ常に翻字が行われることに着目し,Wikipedia\footnote{http://ja.wikipedia.org/}を用いて自動的に構築した.構築手順としては,まず「存命人物」のカテゴリに所属するWikipeida記事のタイトルを抽出することにより,片仮名表記の人名リストを作成した.そして次に,Wikipediaの言語間リンクを利用し,各人名に対する原語を抽出した.これにより17,509の翻字対を収集することができた.このように自動収集したデータの中には翻字対として不適切なものも含まれている可能性があるが,大量のデータを手軽に用意できるという利点を重視して,この方法を採用している.実際,このようにパラメータ推定のためのデータを大量に生成するアプローチは,翻字生成において有効であることが報告されている\cite{Cherry09}.パラメータ推定時には,EMアルゴリズムの初期値を無作為に10回変化させ,尤度が最大となったモデルを以降の実験で用いた.\begin{table}[t]\hangcaption{単語対応付き翻字対の例.スラッシュは抽出時に検出された片仮名語の単語境界を示す.単語間の対応関係は自明なので省略する}\label{fig:extract-backtrans}\input{02table06.txt}\end{table}平均化パープトロンの学習に必要なラベル付きデータは,日英対訳辞書EDICT\footnote{http://www.csse.monash.edu.au/\~{}jwb/edict\_doc.html}を利用して手作業で作成した.具体的には,まず,EDICTの見出し語から,翻字である片仮名(複合)名詞を無作為に抽出した.そして,EDICTに記載されている英訳に基づき,単語境界のラベルを付与した.この結果,5286の片仮名語データを得た.このデータにおける構成語数の分布を調べたところ,構成語が1語のものが3041,2語のものが2081,3語以上のものが164となっていた($3041+2081+164=5286$).また,複合名詞1つあたりの平均文字数および平均構成語数は6.60および1.46であった.以下本節において報告する実験結果は,このラベル付きデータを用いて2分割交差検定を行ったものである.言い換え及び逆翻字を抽出するためのテキストには,ウェブから収集した17億文のブログ記事を用いた.このテキストを用いることによって14,966,205の言い換え表現と,116,027の単語対応付き翻字対を抽出することができた.表\ref{fig:extract-para}と\ref{fig:extract-backtrans}に,実際に抽出された言い換え表現(の候補)と単語対応付き翻字対の具体例を示す.単語対応付き翻字対の抽出を行う際には閾値$\theta$を設定する必要がある.$\theta$は確率の対数に対する閾値であるため,0より小さな任意の値を設定することが可能であるが,ここでは$\{-10,-20,\dots\linebreak-150\}$の範囲で値を変化させ,実験において最も高いF値が得られた値($\theta=-80$)を採用した.\subsection{ベースライン手法}\label{sec:baseline}実験では,3つの教師なし学習手法(Unigram,GMF,GMF2),2つの教師あり学習手法(AP,AP$+$GMF2),3つの単語分割器(JUMAN,MeCab,KyTea)との比較を行った.以下ではこれらベースライン手法について簡単に説明を行う.\begin{description}\item[教師なし学習]\begin{description}\item[Unigram]分割結果$\y$に対する$1$-gram言語モデルの尤度$p(\y)$が最も大きくなる分割を選択する手法\cite{Schiller05,AlfonsecaCICLing08}:\[\y^{*}=\argmax_{\y\in\mathcal{Y}(x)}p(\y)=\argmax_{\y\in\mathcal{Y}(x)}\prod_{i}p(y_i)\]ここで$p(y_i)$は構成語$y_i$の出現確率であり,\ref{sec:setting}節で述べたウェブテキストから推定をした値を用いた.\item[GMF]構成語$y_i$の頻度の幾何平均\mbox{GMF}$(\y)$が最大となる分割$\y$を選択する手法\cite{Koehn03}:\[\y^{*}=\argmax_{\y\in\mathcal{Y}(x)}\mbox{GMF}(\y)=\argmax_{\y\in\mathcal{Y}(x)}\Bigl\{\prod_{i}f(y_i)\Bigr\}^{1/|\y|}\]ここで$f(y_i)$は構成語$y_i$の出現頻度であり,$p(y_i)$と同様にウェブテキストから推定した値を用いた.\item[GMF2]頻度の幾何平均に構成語の長さに基づく補正を導入したスコアを用いる手法\cite{Nakazawa05}:\pagebreak\[\mbox{GMF2}(\y)=\begin{cases}\mbox{GMF}(\y)&(|\y|=1)\\[10pt]\frac{\mbox{GMF}(\y)}{\frac{C}{N^l}+\alpha}&(|\y|\geq2),\end{cases}\]ここで$C$,$N$,$\alpha$は超パラメータ,$l$は構成語の平均文字数を表す.本実験ではNakazawaら\citeyear{Nakazawa05}と同じく$C$=2500,$N$=4,$\alpha$=0.7とした.\end{description}\item[教師あり学習]\begin{description}\item[AP]基本素性(\ref{sec:approach}節参照)のみを用いた平均化パーセプトロン.\item[AP$+$GMF2]基本素性に加えて{\scGmf2}の処理結果を素性として用いた平均化パーセプトロン.Alfonsecaら\citeyear{AlfonsecaCICLing08}に従って,(i)GMF2$(\y)$の値が全分割候補中で最大であるか否かを表す2値素性,(ii)分割を行わない候補(i.e.,$|\y|=1$となる候補)よりもGMF2の値が大きくなるか否かを表す2値素性を追加した.\end{description}\item[単語分割器]\begin{description}\item[JUMAN]ルールベースの単語分割器\footnote{正確には形態素解析器であるが,本実験では品詞タグ付与の議論は行わないのでこう呼ぶ.}\JUMANver.~6.0\cite{Kurohashi94}.\item[MeCab]対数線形モデルに基づく単語分割器MeCabver.~0.98\cite{Kudo04}.解析辞書にはNAIST-jdicver.~0.6.0を用いた.\item[KyTea]点推定モデルに基づく単語分割器KyTeaver.~0.3.1\cite{Neubig11}.\end{description}\end{description}\subsection{ベースライン手法との比較}\label{sec:compare}\begin{table}[b]\hangcaption{ベースライン手法との比較.表中のP,R,F$_1$は,認識された単語境界の適合率,再現率,F値を示す.またAccは分割精度,すなわち正しく分割された片仮名複合名詞の割合を示す}\label{tab:comparison_result}\input{02table07.txt}\vspace{-0.5\Cvs}\end{table}表\ref{tab:comparison_result}に提案手法(Proposed)とベースライン手法との比較結果を示す.この表の結果から以下のようなことが分かる.まず,ProposedとAPの結果の比較から,言い換え素性と逆翻字素性を導入することにより,分割精度が大きく向上したことが分かる.マクネマー検定を行ったところ,この精度変化は統計的に有意なものであることが確認された($p<0.01$).この結果は,提案する2つの素性の有効性を示すものである.次に,提案手法の精度は,全ての教師なし学習ベースライン(Unigram,GMF,GMF2)及びAP$+$GMF2の精度を上回っていることが確認できる.これらの結果は,複合名詞の言い換えや逆翻字の情報が,構成語の頻度情報よりも効果的であることを示唆している.なお,マクネマー検定を行ったところ,これらの精度向上も全て統計的に有意であることが確認できた($p<0.01$).単語分割器(JUMAN,MeCab,KyTea)の結果は,これまでに単語分割タスクにおいて報告されている精度\cite{Kudo04,Neubig11}を大きく下回っている.このことから,一般的な単語分割と比較して,片仮名複合語の分割処理が困難なタスクであることが分かる.さらに,提案手法の精度は,単語分割器の精度を大きく上回っており,提案手法が既存の単語分割器の弱点補強に有用であることが示唆されている.例えば,既存の単語分割器によって「片仮名表記の名詞の連続」と解析された部分を,提案手法を用いて再分割することにより,解析結果の改善を期待することができる.\begin{table}[b]\caption{MeCabとProposedの出力比較.スラッシュはシステムに認識された単語境界を表す}\label{tab:example}\input{02table08.txt}\end{table}表\ref{tab:example}に,MeCabでは分割に失敗したが,Proposedでは正しく分割することができた例を示す.まず最初の例では,片仮名語「ディクショナリー」がNAIST-jdicに登録されていなかったため,MeCabは分割に失敗している.一方,Proposedにおいては,以下のような単語対応付き翻字対が学習されており,これに基づいて発火した逆翻字素性(1-gram)が有効に働いた結果,正しく分割することに成功している.\begin{quote}\underline{オックスフォード}$_1$\underline{ディクショナリー}$_2$\\\\\underline{oxford}$_1$\underline{\mbox{dictionary}}$_2$\end{quote}\noindent次の例では「メイン」と「タイトル」が両方ともNAIST-jdicに登録されているにも関わらず,MeCabは分割に失敗している.これは,MeCabの未知語処理に起因する誤りであると考えられる.その一方でProposedが分割に成功しているのは,例えば「メインのタイトル」といった言い換え表現に基づく素性など,分割を示唆する素性がより多く発火しているためだと推測できる.最後の例では,NAIST-jdicに人名「トミー」が登録されているため,MeCabは過分割を行ってしまっているが,Proposedでは「アナトミー」に対する逆翻字素性が適切に発火しており,過分割を防ぐことに成功している.本論文の趣旨からは外れるが,3つの単語分割器のなかではKyTeaの精度が他の2つを大きく引き離している点は非常に興味深い.これは,JUMANやMeCabの解析アルゴリズムが,辞書引きによる候補選択に強く依存しているのに対して,KyTeaはそのような候補選択を行っていないことが要因と考えられる.\subsection{未知語に関する考察}実験に使用した5286の片仮名複合名詞のうち,2542は少なくとも1つの未知語を構成語に含んでいた.ただし,ここで言う未知語とは,訓練データに出現せず,なおかつ外部辞書NAIST-jdicにも登録されていない単語のことを指す.未知語が分割精度に与える影響について考察するため,提案手法を含む3つの教師あり学習手法(AP,AP$+$GMF2,Proposed)と単語分割器MeCabの分類結果を,1つ以上の未知語を含む2542の片仮名複合名詞と残る2744の片仮名複合名詞に分けて集計した(表\ref{tab:oov}).以下では,前者のサブセットをw/OOVデータ,後者をw/oOOVデータと呼ぶ.\begin{table}[b]\hangcaption{未知語を含む片仮名複合名詞(w/OOV)とそれ以外の片仮名複合名詞(w/oOOV)に対する分割結果の比較}\label{tab:oov}\input{02table09.txt}\end{table}この表から,3つの教師あり学習手法については,w/oOOVデータに対しては90\%を越える高い精度が達成されているのに対して,w/OOVデータの精度は大きく低下していることが確認できる.同様の傾向はMeCabの結果においても見られる.MeCabは汎用的な単語分割器であるため,複合名詞分割というタスクに特化して学習された提案手法(Proposed)やその他の教師あり学習手法(APやAP$+$GMF2)と比べると,精度自体はどちらのデータにおいても大きく低下している.しかし,w/OOVデータよりもw/oOOVデータのほうが精度が高くなるという傾向は,依然として確認することができる.これらの結果は,片仮名複合名詞の分割処理を困難にしている要因は未知語であるという我々の主張を支持するものである.3つの教師あり学習手法は,w/oOOVデータについてはほぼ同じ精度を達成していることが分かる.これは,既知語に対しては,基本素性だけを使ってすでに高い分類精度が達成されているため,これ以上の精度向上が困難であるからだと考えられる.一方,精度向上の余地が残されているw/OOVデータについては,3つのシステムの間に大きな精度の差を見てとることができる.そのため,表\ref{tab:comparison_result}の結果よりも,言い換え素性と翻字素性を導入する効果をより直接的に確認することができる.\subsection{言い換え素性と翻字素性の効果}\label{sec:effect}言い換え素性と翻字素性の有効性について詳細に検証するため,異なる4つの素性集合を用いたときの平均化パーセプトロンの分割結果の比較を行った(表\ref{tab:comparison}).表の1行目は使用した素性集合を表す.{\scBasic}は基本素性,{\scPara}と{\scTrans}はそれぞれ言い換え素性と翻字素性,{\scAll}は全ての素性集合を表す.この表より,言い換え素性と翻字素性の両方ともが分割精度向上に大きく貢献していることを確認することができた.いずれの場合においても,基本素性だけを使った場合と比較して,精度の向上は統計的に有意であった($p<0.01$,マクネマー検定).\begin{table}[b]\hangcaption{言い換え素性と逆翻字素性の効果.表中の{\scBasic},{\scPara},{\scBackTrans}は,それぞれ基本素性,言い換え素性,逆翻字素性を示す.また{\scAll}はそれら全ての素性を示す}\label{tab:comparison}\input{02table10.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{19-2ia927f1.eps}\end{center}\hangcaption{言い換えと単語対応付き翻字対の抽出に用いたブログデータのサイズ(横軸)と各素性の発火率(縦軸)の関係}\label{fig:feature-coverage}\end{figure}次に,各素性の発火率について調査を行った.実験で用いたラベル付きデータには7709の構成語が含まれており,そのうち64.0\%(4937/7709)は外部辞書に登録されていた.これに対して,単語対応付き翻字対に出現していた構成語の割合は64.0\%(4935/7709),外部辞書か単語対応付き翻字対のいずれかに出現していたものの割合は77.1\%(5941/7709)であった.これにより,翻字素性を導入することによって,未知語の数が大幅に減少していることが確認された.一方,ラベル付きデータに含まれる構成語$2$-gramの数は2423であったが,それらに対して発火していた言い換え素性と翻字素性の割合は,それぞれ79.5\%(1926/2423)と12.8\%(331/2423)であった.これらの結果から,提案素性はいずれも精度向上に寄与しているものの,カバレージにはまだ改善の余地があることが分かった.続いて,素性の発火率と収集元であるブログデータの大きさの関係を調査した(図\ref{fig:feature-coverage}).ここではブログデータの大きさとして,収集したブログ記事(UTF8エンコーディング)をgzipで圧縮したデータのサイズをギガバイト単位で表示している.この図から,大量のブログデータを使うことによって,高い発火率を実現できていることが確認できる.しかし,その一方で,データが増えるにつれて,発火率の向上の度合いは鈍りつつある.このことから,データを単純に増加させるだけでは,ここからの大幅な発火率の改善を期待することは難しく,言い換え規則の拡張などの方法も併せて検討していくことが今後重要になると考えられる.\subsection{パラメータ$\theta$}\label{sec:threshold}\begin{figure}[b]\begin{center}\includegraphics[clip]{19-2ia927f2.eps}\end{center}\caption{パラメータ$\theta$(横軸)と抽出された単語対応付き翻字対の数(縦軸)}\label{fig:size}\end{figure}最後に,パラメータ$\theta$の値を変化させたときの影響について調査を行った(図\ref{fig:size}--\ref{fig:threshold}).図\ref{fig:size}と\ref{fig:fire}は,様々な値の$\theta$に対する,単語対応付き翻字対の抽出数および逆翻字素性の発火した割合(\ref{sec:effect}節において議論したもの)を示している.これらの図から,$\theta$の値をある程度小さく設定すれば,十分な数の翻字対が抽出され,その結果として多くの事例において素性が発火するようになることが分かる.図\ref{fig:threshold}は$\theta$とF値の関係を示している.さきほどの2つの図との比較すると,翻字対の抽出数と素性の発火数の増加が,F値の向上に直接結びついていることが分かる.パラメータの値が極端に大きい場合(e.g.,$-20$)においては,F値が低下する傾向が見られたものの,パラメータによらずF値はおおよそ一定であった.この結果から,提案手法の精度はパラメータ設定に敏感ではなく,パラメータ調整は難しい作業ではないことが示唆される.また,少なくとも実験において調べた範囲では,提案手法はパラメータ値によらず,基本素性のみを用いた場合よりも高いF値を達成することができた.そのため,パラメータの微調整が提案手法の性能に与える影響は小さいと言うことができる.\begin{figure}[t]\begin{center}\includegraphics[clip]{19-2ia927f3.eps}\end{center}\hangcaption{パラメータ$\theta$(横軸)と逆翻字素性の発火率(縦軸).グラフ中の三角と四角は,それぞれ構成語1-gramと2-gramに対する発火率を表す}\label{fig:fire}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[clip]{19-2ia927f4.eps}\end{center}\hangcaption{パラメータ$\theta$(横軸)とF値(縦軸)の関係.グラフ中の三角と四角は,それぞれ全素性を使った場合と,基本素性のみを使った場合に相当する}\label{fig:threshold}\end{figure}\subsection{誤りの分析}\label{subsec:error}提案手法が分割を誤った事例を調べたところ,「アップロード」を「アップ」と「ロード」,「トランスフォーマー」を「トランス」と「フォーマー」に分割するなど,単語を過分割している事例が見られた.ここでの「アップ」や「トランス」は接頭辞であると考えられるため,これらの分割結果は形態論的分割(morphologicalsegmentation)としては正しいものであるかもしれないが,単語分割としては不適切であると考えられる.こうした過分割が発生する要因として,接辞と単語の曖昧性を指摘することができる.例えば「アップ」は,確かに接頭辞の1つであるが,文脈によっては「給料がアップする」のように独立した名詞として使われる場合もある.同じく「トランス」に対しても「トランス状態」のような名詞用法を考えることができる.このような曖昧性によって引き起こされる最も顕著な問題は,辞書素性(表\ref{tab:feature}におけるテンプレートID4)が過剰に発火することである.前述の過分割の事例においては,NAIST-jdicに「アップ」と「トランス」がともに名詞として登録されていたため,本来不適切な分割結果であるにも関わらず辞書素性が発火していた.これと同様の問題は,辞書素性だけでなく,逆翻字素性においても発生しうる.\ref{sec:trans}節で説明した単語対応付き翻字対の抽出手法は,原語が正しく分かち書きされていることを前提としていた.しかしながら,実際には接頭辞や接尾辞の前後に空白区切りを挿入しているテキストも存在するため,不適切な対応関係が学習されてしまう場合がある.表\ref{tab:error}は上記の過分割結果に影響を与えたと思われる単語対応付き翻字対の一部である.この表から,「アップロード」と「トランスフォーマー」については,それぞれ原語との対応関係が適切に学習されていることが確認できる.しかしながら「アップローダー」と「トランスフォーム」については,原語が接頭辞の直後で分かち書きされていたため,不適切な単語対応が学習されていることが分かる.こうした対応付け結果から導出された逆翻字素性(この例では特に1-gram)は分割に悪影響を与えている可能性がある.翻字抽出の手法を改善することにより,こうした誤りを減少させることは,今後の課題の一つであると考えている.\begin{table}[t]\caption{過分割結果に影響を与えたと思われる単語対応付き翻字対の一部}\label{tab:error}\input{02table11.txt}\end{table}過分割が多くみられた別要因としてデータの偏りを考えることもできる.今回使用したデータの半数以上は構成語数が1つであったため,そもそも過分割が発生しやすい設定の実験になっていた可能性がある(\ref{sec:setting}節を参照).現在のところ,当該タスクに対する別のデータセットを用意することは難しいため,この点をすぐに調査することはできないが,今後の研究の中で議論を深めていくべきであると考えられる.
\section{おわりに}
\label{sec:conclude}本論文では,言い換えと逆翻字を用いて,片仮名複合語の分割処理の精度を向上させる方法を提案した.提案手法により,大規模なラベルなしテキストを分割処理に利用することが可能となり,分割精度の低下の要因となる未知語の影響を軽減させることが可能となる.実験においては,8つのベースライン手法との比較を通じて,提案手法の有効性を実証的に示した.今後の課題としては,提案手法と既存の単語分割手法を融合した解析モデルの構築に取り組みたい.\ref{sec:compare}節においては,提案手法を後処理に利用可能であることについて言及したが,そうしたアドホックな方法は,学術的立場からは必ずしも満足のいくものではないと考えている.提案手法と既存の単語分割を組み合わせる方法としては,今回提案した素性を統計的な単語分割器に追加することなどが考えられるが,現時点ではその有効性について十分な検証を行うことができておらず,今後調査すべき課題であろう.また,近年では,教師なし学習による単語分割手法も盛んに研究されているが,そうした手法に言い換えや翻字の情報を取り入れることも興味深い問題である\cite{Mochihashi09}.これに加えて,本論文の中で提案したアイデアを一般化していくことも,今後重要な研究課題になると考えている.本論文では議論の対象を英語由来の片仮名複合名詞に限定していたが,同様の手法は,その他の片仮名語に対しても有効である可能性が高い.例えば,翻字素性は,英語以外の言語からの借用語に対しても有効に働くことが期待できる.また,言い換え素性は,和語や漢語の片仮名表記に対しても有効である可能性が高い(例えば「トンコツラーメン」に対する「トンコツのラーメン」などの言い換え).さらに,言い換えを単語境界の認識に利用するという考え方は,複合名詞に限らず,単語分割処理一般に対しても適用できる可能性がある.今後はこうした方向についても研究を進めていきたい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alfonseca,Bilac,\BBA\Pharies}{Alfonsecaet~al.}{2008}]{AlfonsecaCICLing08}Alfonseca,E.,Bilac,S.,\BBA\Pharies,S.\BBOP2008\BBCP.\newblock\BBOQGermanDecompoundinginaDifficultCorpus.\BBCQ\\newblockIn{\BemProceedingsofCICLing},\mbox{\BPGS\128--139}.\bibitem[\protect\BCAY{Ando\BBA\Lee}{Ando\BBA\Lee}{2003}]{Ando03}Ando,R.~K.\BBACOMMA\\BBA\Lee,L.\BBOP2003\BBCP.\newblock\BBOQMostly-unsupervisedstatisticalsegmentationof{J}apanesekanjisequences.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf9}(2),\mbox{\BPGS\127--149}.\bibitem[\protect\BCAY{Braschler\BBA\Ripplinger}{Braschler\BBA\Ripplinger}{2004}]{Braschler04}Braschler,M.\BBACOMMA\\BBA\Ripplinger,B.\BBOP2004\BBCP.\newblock\BBOQHoweffectiveisstemminganddecompoundingfor{G}ermantextretrieval?\BBCQ\\newblock{\BemInformationRetrieval},{\Bbf7},\mbox{\BPGS\291--316}.\bibitem[\protect\BCAY{Breen}{Breen}{2009}]{Breen09}Breen,J.\BBOP2009\BBCP.\newblock\BBOQIdentificationofNeologismsin{J}apanesebyCorpusAnalysis.\BBCQ\\newblockIn{\BemProceedingsofeLexicographyinthe21stcentryconference},\mbox{\BPGS\13--22}.\bibitem[\protect\BCAY{Brill,Kacmarcik,\BBA\Brockett}{Brillet~al.}{2001}]{Brill01}Brill,E.,Kacmarcik,G.,\BBA\Brockett,C.\BBOP2001\BBCP.\newblock\BBOQAutomaticallyHarvestingKatakana-{E}nglishTermPairsfromSearchEngineQueryLogs.\BBCQ\\newblockIn{\BemProceedingsofNLPRS},\mbox{\BPGS\393--399}.\bibitem[\protect\BCAY{Brown}{Brown}{2002}]{Brown02}Brown,R.~D.\BBOP2002\BBCP.\newblock\BBOQCorpus-DrivenSplittingofCompoundWords.\BBCQ\\newblockIn{\BemProceedingsofTMI}.\bibitem[\protect\BCAY{Cao,Gao,\BBA\Nie}{Caoet~al.}{2007}]{Cao07}Cao,G.,Gao,J.,\BBA\Nie,J.-Y.\BBOP2007\BBCP.\newblock\BBOQASystemtoMineLarge-ScaleBilingualDictionariesfromMonolingual{W}ebPages.\BBCQ\\newblockIn{\BemProceedingsofMTSummit},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Cherry\BBA\Suzuki}{Cherry\BBA\Suzuki}{2009}]{Cherry09}Cherry,C.\BBACOMMA\\BBA\Suzuki,H.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeSubstringDecodingforTransliteration.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1066--1075}.\bibitem[\protect\BCAY{Freund\BBA\Schapire}{Freund\BBA\Schapire}{1999}]{Freund99}Freund,Y.\BBACOMMA\\BBA\Schapire,R.~E.\BBOP1999\BBCP.\newblock\BBOQLargemarginclassificationusingtheperceptronalgorithm.\BBCQ\\newblock{\BemMachineLearning},{\Bbf37}(3),\mbox{\BPGS\277--296}.\bibitem[\protect\BCAY{Holz\BBA\Biemann}{Holz\BBA\Biemann}{2008}]{Holz08}Holz,F.\BBACOMMA\\BBA\Biemann,C.\BBOP2008\BBCP.\newblock\BBOQUnsupervisedandKnowledge-FreeLearningofCompoundSplitsandPeriphrases.\BBCQ\\newblockIn{\BemProceedingsofCICLing},\mbox{\BPGS\117--127}.\bibitem[\protect\BCAY{Jiampojamarn,Kondrak,\BBA\Sherif}{Jiampojamarnet~al.}{2007}]{Jiampojamarn07}Jiampojamarn,S.,Kondrak,G.,\BBA\Sherif,T.\BBOP2007\BBCP.\newblock\BBOQApplyingMany-to-manyAlignmentandHidden{M}arkovModelstoLetter-to-phonemeConversion.\BBCQ\\newblockIn{\BemHLT-NAACL},\mbox{\BPGS\372--379}.\bibitem[\protect\BCAY{Kageura,Yoshikane,\BBA\Nozawa}{Kageuraet~al.}{2004}]{Kageura04}Kageura,K.,Yoshikane,F.,\BBA\Nozawa,T.\BBOP2004\BBCP.\newblock\BBOQParallelBilingualParaphraseRulesforNounCompounds:ConceptsandRulesforExploring{W}ebLanguageResources.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponAsianLanguageResources},\mbox{\BPGS\54--61}.\bibitem[\protect\BCAY{Koehn\BBA\Knight}{Koehn\BBA\Knight}{2003}]{Koehn03}Koehn,P.\BBACOMMA\\BBA\Knight,K.\BBOP2003\BBCP.\newblock\BBOQEmpiricalMethodsforCompoundSplitting.\BBCQ\\newblockIn{\BemProceedingsofEACL},\mbox{\BPGS\187--193}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo04}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{J}apaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\22--38}.\bibitem[\protect\BCAY{Mochihashi,Yamada,Naonori,\BBA\Ueda}{Mochihashiet~al.}{2009}]{Mochihashi09}Mochihashi,D.,Yamada,T.,Naonori,\BBA\Ueda\BBOP2009\BBCP.\newblock\BBOQBayesianUnsupervisedWordSegmentationwithNested{P}itman-{Y}orLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\100--108}.\bibitem[\protect\BCAY{Nakazawa,Kawahara,\BBA\Kurohashi}{Nakazawaet~al.}{2005}]{Nakazawa05}Nakazawa,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2005\BBCP.\newblock\BBOQAutomaticAcquisitionofBasic{K}atakanaLexiconfromaGivenCorpus.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP},\mbox{\BPGS\682--693}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{Neubig11}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,Adaptable{J}apaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Oh\BBA\Isahara}{Oh\BBA\Isahara}{2008}]{Oh08}Oh,J.-H.\BBACOMMA\\BBA\Isahara,H.\BBOP2008\BBCP.\newblock\BBOQHypothesisSelectioninMachineTransliteration:A{W}ebMiningApproach.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{Okazaki,Ananiadou,\BBA\Tsujii}{Okazakiet~al.}{2008}]{Okazaki08}Okazaki,N.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQADiscriminativeAlignmentModelforAbbreviationRecognition.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\657--664}.\bibitem[\protect\BCAY{Schiller}{Schiller}{2005}]{Schiller05}Schiller,A.\BBOP2005\BBCP.\newblock\BBOQGermanCompoundAnalysiswithwfsc.\BBCQ\\newblockIn{\BemProceedingsofFiniteStateMethodsandNaturalLanguageProcessing},\mbox{\BPGS\239--246}.\bibitem[\protect\BCAY{Schwartz\BBA\Hearst}{Schwartz\BBA\Hearst}{2003}]{Schwartz03}Schwartz,A.~S.\BBACOMMA\\BBA\Hearst,M.~A.\BBOP2003\BBCP.\newblock\BBOQAsimplealgorithmforidentifyingabbreviationdefinitionsinbiomedicaltext.\BBCQ\\newblockIn{\BemProceedingsofPSB},\mbox{\BPGS\451--462}.\bibitem[\protect\BCAY{Tsujimura}{Tsujimura}{2006}]{Tsujimura06}Tsujimura,N.\BBOP2006\BBCP.\newblock{\BemAnIntroductionto{J}apaneseLinguistics}.\newblockWiley-Blackwell.\bibitem[\protect\BCAY{Wu,Okazaki,\BBA\Tsujii}{Wuet~al.}{2009}]{Wu09}Wu,X.,Okazaki,N.,\BBA\Tsujii,J.\BBOP2009\BBCP.\newblock\BBOQSemi-supervisedLexiconMiningfromParentheticalExpressionsinMonolingual{W}ebPages.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\424--432}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{鍜治伸裕}{2005年東京大学大学院情報理工学系研究科博士課程修了.情報理工学博士.東京大学生産技術研究所産学官連携研究員および特任助教を経て,現在,同特任准教授.CGMテキストの解析を中心とした自然言語処理の研究に興味を持つ.}\bioauthor{喜連川優}{1983年東京大学工学系研究科情報工学専攻博士課程修了.工学博士.東京大学生産技術研究所講師.助教授を経て,現在,同教授.東京大学地球観測データ統融合連携研究機構長.東京大学生産技術研究所戦略情報融合国際研究センター長.文部科学官.2005年から2010年まで文部科学省「情報爆発」特定研究領域代表,2007年から2009年まで経済産業省「情報大航海プロジェクト」戦略会議委員長,情報処理学会フェロー,2008年から2009年まで副会長,データベース工学の研究に従事.}\end{biography}\biodate\end{document}
| |
V25N04-01
|
\section{はじめに}
文節係り受け解析は情報抽出・機械翻訳などの言語処理の実応用の前処理として用いられている.文節係り受け解析器の構成手法として,規則に基づく手法とともに,アノテーションを正解ラベルとしたコーパスに基づく機械学習に基づく手法が数多く提案されている\cite{Uchimoto-1999,Kudo-2002,Sassano-2004,Iwatate-2008,Yoshinaga-2010,Yoshinaga-2014}.文節係り受け情報は,新聞記事\cite{KC}・話し言葉\cite{CSJ}・ブログ\cite{KNBC}などにアノテーションされているが,使用域(register)横断的にアノテーションされたデータは存在しない.我々は『現代日本語書き言葉均衡コーパス』(以下BCCWJ)に対する文節係り受け・並列構造アノテーションを整備した.\modified{対象はBCCWJのコアデータ}で新聞・書籍・雑誌・白書・ウェブデータ(Yahoo!知恵袋・Yahoo!ブログ)の6種類からの使用域からなる.\modified{これらに対して係り受け・並列構造を付与したものをBCCWJ-DepParaとして公開した.}本稿では,アノテーション作業における既存の基準上と工程上の問題について議論し,どのように問題を解決したかについて解説する.既存の基準上の問題については,主に二つの問題を扱う.一つ目は,並列構造・同格構造の問題である.係り受け構造と並列構造は親和性が悪い.本研究では,アノテーションの抽象化としてセグメントとそのグループ(同値類)を新たに定義し,係り受け構造と独立して並列構造と同格構造を付与する基準を示し,アノテーションを行った.二つ目は,節間の関係である.\modified{我々は,}節境界を越える係り受け関係に対する判断基準を示し,アノテーションを行った.工程上の問題においては,文節係り受けアノテーションのために必要な先行工程との関係について述べ,作業順と基準により解決を行ったことを示す.本論文の貢献は以下のとおりである.\begin{itemize}\item使用域横断的に130万語規模のコーパスにアノテーションを行い,アノテーションデータを公開した.\item係り受けと並列・同格構造の分離したアノテーション基準を策定した.\item節境界を越える係り受け関係に対する判断基準を明示した.\item実アノテーション問題における工程上の問題を示した.\end{itemize}\modified{2節では『現代日本語書き言葉均衡コーパス』の概要について述べる.3節ではアノテーション作業で扱った問題について紹介する.4節では先行研究である京都大学テキストコーパスのアノテーション基準\cite{KC}や日本語話し言葉コーパス\cite{CSJ}のアノテーション基準と対比しながら基準を示す.5節では基準の各論について示す.6節ではまとめと今後の課題について述べる.}また,以下では二文節間に係り受け関係を付与することを便宜上「かける」と表現する.
\section{『現代日本語書き言葉均衡コーパス』}
\modified{本節では『現代日本語書き言葉均衡コーパス』の概要\cite{BCCWJManual}について述べる.}\modified{『現代日本語書き言葉均衡コーパス』は,約1億語からなる現代日本語の均衡コーパスである.このうち約130万語からなるコアデータは,新聞(PN)・書籍(PB)・雑誌(PM)・白書(OW)・Yahoo!知恵袋(OC)・Yahoo!ブログ(OY)の6種類の使用域からなる.この使用域を表すアルファベット2文字は,サンプルの識別子であるサンプルIDの接頭辞として用いられている.2006年に整備がはじまり,2008年以降,毎年サンプル版が内部公開された.2011年にversion1.0が一般公開され,2015年に修正版version1.1が公開された.}\modified{すべてのサンプルについて,自動解析による短単位(ShortUnitWord:SUW)\cite{SUW}・長単位(LongUnitWord:LUW)\cite{LUW}二つの形態論情報が提供されている.コアデータについては,人手で短単位・長単位形態論情報が全数チェックされ,長単位に基づく文節境界が付与されている.2008年〜2010年のサンプル版はコアデータの量が増えるとともに,形態論情報の誤りの修正がなされた.}\modified{2011年に公開されたBCCWJversion1.0の文境界は不完全であることが報告されている\cite{tanomura-2014}.これを受けて,非コアデータ全体に対して特定の誤りパターンに基づく文境界修正\cite{小西-2015}が行われた.このデータはBCCWJversion1.1として,2015年に公開された.なお,version1.0からversion1.1への更新時には,文境界にかかわる形態論情報のみが修正された.}\modified{コアデータに対しては,さまざまな研究機関がアノテーションを行った\footnote{https://pj.ninjal.ac.jp/corpus\_center/anno/}.できるだけアノテーションが重なるようにするために,アノテーションの優先順位が研究者間で共有されている\footnote{https://github.com/masayu-a/BCCWJ-ANNOTATION-ORDER/}.成果物はBCCWJのDVD版所有者のみが利用可能なダウンロードサーバ\footnote{https://bccwj-data.ninjal.ac.jp/mdl/}で公開されており,本研究の成果物も含まれている.}
\section{アノテーション作業で扱った問題}
本節では,アノテーション作業で扱った問題について示す.アノテーション基準の策定には,扱う言語表現をどのように記号化するかを決める必要がある.BCCWJに対する文節係り受け・並列構造アノテーションでは,既存の係り受けアノテーション基準で表現できなかった構造を表現することを目標\modified{と}し,基準の再設計を行った.具体的には並列・同格構造を文節係り受けと分離してアノテーションを行い,新聞記事を対象にしていたときには問題にならなかった,倒置や係り先のない文節の認定を行った.アノテーションの実作業では,上流工程としてサンプリング・電子化・著作権処理・文境界認定・短単位形態論情報付与・長単位形態論情報付与・文節認定などがあった.これらの作業と並行して行ったために\modified{,}工程上\modified{に}発生する問題を解決しながら行う必要があった.工程上の問題は,上流工程が完了するまで作業が開始できないという作業順の問題と,上流工程で付与されたアノテーションが文節係り受け・並列構造を付与するのに適さないという基準上の問題の二つがあった.\subsection{基準で扱う言語学的な問題}アノテーション作業および基準において,重点的に取り扱った言語学的な問題について示す.一つ目は並列・同格構造である.並列・同格構造は文節係り受け関係との親和性が悪く,特に部分並列(non-constituentconjuncts)の場合に表現に無理が生じる.以下の例文では,1文節目から3文節目までと4文節目から6文節目までの二つの構成要素による並列構造をなすが,この並列構造を係り受け関係により自然に表現することは難しい.\begin{itembox}[l]{部分並列(non-constituentconjuncts)の例}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本を\&兄の\&太郎に\&ノートを\&弟の\&三郎に\&かしている\\\end{deptext}\end{dependency}\end{center}\end{itembox}本稿ではこの例も含めて,係り受け構造・並列構造・同格構造をどのように表現するか,過去の研究と対照しながら議論する.我々の基準では,文節係り受けとは別に並列や同格構造の構成要素の範囲を形態素単位(国語研短単位)に同定し,構成要素間\modified{に}無向リンク(同値関係)をはることでグループ(同値類)としてアノテーションを行う.並列や同格のアノテーションを分離したうえで,文節係り受け関係は本来係かるべき要素に係かるようにする.この結果,非交差条件を満たさない構造(non-projectivity)を許す.さらに並列構造の構成要素二つ以上のヲ格を含む構成要素から一つの述語に係かることを許すため,二重ヲ格制約を満たさない.テ形や連用中止の連続などの述語並列については,並列構造を認定しない方針をとる.これは,日本語の節間の並列関係を従属関係と識別するのが困難であるために作業から除外する.そのかわり,節に対する格要素の係り受け関係の曖昧性については,南の節分類\cite{南1974}を参考に,\cite{野田-1985}の議論を参考にしながら厳密に行\modified{う}.Web上のテキストには倒置であったり,係り先のない文節が含まれたりする.\modified{これらについては}基準において主辞後置制約(strictlyheadfinal)を緩和し右から左に係ることを許すほか,係り先のない文節にラベルを付与したうえで連結根付き木(singlerooted)制約も緩和してアノテーションを行う\footnote{正確には単一の文外の要素DUMMYを設定し,連結根付き木として表現する.}.現実のテキストには外国語や顔文字など,日本語の係り受け関係が認定できないものも存在する.これらについては,係り受けアノテーションを放棄するセグメントを導入して対処する.\subsection{作業順で扱う工程上の問題}係り受けの上流工程として,サンプリング・電子化・著作権処理・数値表現正規化・文境界認定・短単位形態論情報付与・長単位形態論情報付与がある.サンプリングはコーパスに収録するテキストを選択する工程である.電子化は紙媒体のテキストを機械可読な形式に入力する工程である.著作権処理はコーパスに採録して公開してよいかを権利者に確認する工程である.数値表現正規化は\modified{,}アラビア数字や漢数字など多様な数値表現を位取り記数法を用いて正規化する工程(NumTrans)である.文境界認定は日本語文として適切な文単位を認定する工程である.\modified{BCCWJにおいて形態論情報付与は,二重形態素解析と呼ばれ,短単位・長単位の二つの単位を付与する.短単位形態論情報付与\cite{SUW}は,形態素解析器MeCab\footnote{https://taku910.github.io/mecab/}と辞書UniDic\footnote{https://unidic.ninjal.ac.jp/}によ\modified{る}解析を行い,人手で修正を行う工程である.長単位形態論情報付与\cite{LUW}は,長単位解析器Comainu\cite{comainu}\footnote{https://ja.osdn.net/projects/comainu/}により文節境界と長単位形態論情報を推定したうえで人手で修正を行う工程である.}2008年の時点で,新聞・書籍・白書・Yahoo!知恵袋のデータに短単位形態論情報が付与されたデータが内部公開された.文節係り受け付与には長単位形態論情報が必要なために,並列構造・同格構造を先行して付与した.その後,雑誌・Yahoo!ブログのデータが得られ次第,並列構造・同格構造を付与した.この作業は基本的に1人の作業者により全データに対してアノテーションを行った.2009年の時点で,長単位形態論情報が得られ,文節係り受けアノテーションを開始した.文節係り受けアノテーションは既に付与されている並列構造・同格構造アノテーションと,文節係り受け解析器CaboCha\footnote{https://taku910.github.io/cabocha/}による自動解析結果を重ね合わせたものを修正することで行った.作業者は十数名により並行で行った.\modified{この時点でのデータをBCCWJ-DepParaversion1とした.}2011年12月にBCCWJDVDversion1.0が公開された.\modified{BCCWJ-DepParaversion1とBCCWJDVDversion1.0とで,係り受けアノテーション作業と形態論情報修正作業が並行して実施されたために,二つのデータ間で形態論情報に齟齬が発生した.こ}の齟齬を動的計画法を用いて検出し,一意に構造が決められる1対多対応もしくは多対1対応の齟齬については自動的に修正した.一意に構造が決められない多対多の構造については,人手で確認することで解消を行い,BCCWJ-DepPara\modified{version2}を公開した.\modified{その後,BCCWJDVDversion1.0は文境界に問題があることが報告された\cite{tanomura-2014}.係り受けアノテーションにおいて\modified{は}根が文末にあ\modified{るため},文末の定義が重要である.このため,DVD版とは異なる独自の文境界基準を規定したうえで},文境界の修正と節境界を越える係り受け関係の修正に着手した.文境界修正については基準で扱う工程上の問題として次小節で扱う.2015年にBCCWJDVDversion1.1が公開され,これには数値表現正規化前のデータ(OT)も含めることになった.表層文字列を数値表現正規化後のデータ(NT)ではなく数値表現正規化前のデータ(OT)に変更するという作業を行い,それに基づいて発生した齟齬の吸収作業を行った.\modified{このBCCWJDVDversion1.1に対応する,節境界を超える係り受け関係を修正したものをBCCWJ-DepParaversion3として公開した.並行して非コアデータを含むコーパス全体の文境界修正を行ったために,BCCWJDVDversion1.1の文境界\cite{小西-2015}とBCCWJ-DepParaversion3の文境界\cite{小西-2013}との間に文境界の齟齬が発生している.前者の文境界は文境界の右端を認定したもので文の入れ子の最小スパンを文として規定しているが,後者の文境界は文の入れ子を許した最大スパンを文として規定しており,基準にはカギカッコ内の要素の意味に基づいた判断を行っている.このため,節間の関係が複雑になり,今回改めて節境界を超える係り受け関係を整理した.なお,BCCWJ-DepParaversion3における文境界は,BCCWJコアデータについて付与されているが,BCCWJ非コアデータ全体について付与することは作業工数が膨大になるために断念した.}\subsection{基準で扱う工程上の問題}工程上,他の基準のデータをもとに作業を行うが,上流工程で付与された情報が必ずしも文節係り受けを付与するために適した基準でない場合がある.この基準の齟齬を\modified{解決するため,}アノテーションラベル\modified{に齟齬の情報を持たせる方策をとる}.一つは文節境界である.国語研文節境界は形態論情報に基づき定義する作業が上流工程で行われているが,係り受け構造を厳密に判定しながら決められたものではない.文節係り受け構造をアノテーションする際,文節が細かく分かれているがためにアノテーションしがたい構造については,「文節をつなぐ」というラベルを定義し,それを付与することにより解決する.もう一つは文境界である.文境界は係り受け木の根を決める重要な概念であるが,BCCWJにおいてはversion1.0の時点では文境界認定を実質的に放棄しており,DVDが頒布された時点で,BCCWJの整備とは独立に修正を始めた\cite{小西-2013}.その際に節境界を作業者が内省により分類しながら,節を越える文節のスコープを再定義した.なお,本研究の文境界修正\cite{小西-2013}とDVD版の文境界\cite{小西-2015}は独立のものである.
\section{既存のアノテーション基準との違いの概要}
本節では,係り受け関係ラベルを比較することで先行研究の基準との違いを概観する.『現代日本語書き言葉均衡コーパス』(BCCWJ)の基準については\keytop{BCCWJ}と記し,『日本語話し言葉コーパス』(CSJ)の基準については\keytop{CSJ}と記し,『京都大学テキストコーパス』(KC)の基準については\keytop{KC}と記す.\begin{table}[b]\caption{係り受けアノテーション基準の比較}\label{tbl:diff}\input{01table01.tex}\end{table}各基準の違いをまとめたものを表\ref{tbl:diff}に示す.まず,本論文の主貢献である並列構造関連の違いについて簡単に説明する.中俣は「並列関係とは元来範列的関係であったものを言語の線条性の要請に従って統合的関係に変換したものである.そのために非現実性を帯びる」と述べている\cite{Nakamata-2015}.いわゆる部分並列(non-constituentconjuncts)のような統語木の部分木を満たさないものが範列的関係であった場合に,並列構造を木構造として表現する際に無理が生じる.\keytop{KC}においては,並列構造に対してラベルP,同格構造についてラベルAを準備し,係り受け関係にラベルを付与することにより表現する.部分並列についてはラベルIを付与した上で,係り受け関係が交差しないよう並列構造の構成要素の最右要素に係り先を決める.\keytop{CSJ}においては,\keytop{KC}の基準をもとに同格構造を狭義の同格(ラベルA)と総称や数値表現などの広義の同格(ラベルA2)を区別し,係り受け関係にラベルを付与することにより表現する.\keytop{BCCWJ}においては,並列構造・同格構造のような範列的関係を,係り受け関係で表現することを放棄する.並列構造・同格構造はその構成要素の範囲(セグメント)とその同値類(グループ)を定義することで表現する.セグメント・グループに対するラベルとしてParallel(並列構造)・Apposition(狭義の同格)・Generic(総称など)を定義する.\modified{なお,以下の例ではParallelを実線角丸四角で,Appositionを点線角丸四角で,Genericを破線角丸四角で囲み,それぞれの隣接構成素をラベル矢印のない太いスプライン曲線(Parallelは実線・Appositionは点線・Genericは破線)で結ぶことにより表現する.}\modified{非交差制約(projectivity)や主辞後置制約(strictlyheadfinal)を違反する場合のラベルについて示す.\keytop{KC}においては,対象が新聞記事であるため,この二つの制約は常に満たすという立場でアノテーションを行っており,特別なラベルを設定していない.\keytop{CSJ}においては,交差する関係にはラベルXを付与し,倒置などで右から左に係る関係には左から右に係る関係をラベルRとして付与する.\keytop{BCCWJ}においては,交差する関係および倒置などで右から左に係る関係を許すが,それらは正しい係り先に係る関係を導入\modified{する}ことにより表現し,ラベルとしては通常の係り受け関係と同じラベルDを用いる.}\modified{次に,}上流工程のアノテーションを修正するラベルについて示す.\keytop{KC}においては,すべてのアノテーションが一機関で作成されているために工程間で発生する齟齬を吸収するという機構は基準に組み込まれていない.\keytop{CSJ}においては,ポーズが入ったがために書き起こしレベルで文節境界が入ったが,統語的には文節境界が入るべきではないという場合がある.その場合には,後続文節と接続するためのラベルB+を定義する.\keytop{BCCWJ}においては,文節境界アノテーションと係り受けアノテーションが別機関で作成されており,これらの間の文節境界の齟齬を吸収するためのラベルBを定義する.\modified{また,\keytop{BCCWJ}には文の入れ子を許した文境界単位を認定するため,文中に文境界が出現する場合がある.その場合にはラベルZを定義する.}係り受けアノテーションを放棄するラベルについて示す.\keytop{KC}においては,対象が新聞記事であるため,基本的には係り受けアノテーションを放棄するという方策はとられていない.一方,\keytop{CSJ}においては,係り受け関係が不定なものとして,接続詞(ラベルC)・感動詞(ラベルE)・言い直し(ラベルD\footnote{\modified{ここでラベルDとあるのは\keytop{CSJ}におけるものであり,\keytop{BCCWJ}における通常の係り受けを含むラベルDと異なり,通常の係り受けを含まない.}}(orS1:複数文節の言い直し))・フィラー(ラベルF)・係り先のない文節(ラベルN)・古典(ラベルK(orK-S1,K-E1:複数文節の場合))・呼びかけ(ラベルY)などにラベルを定義している.\keytop{BCCWJ}においては,\modified{接続詞・感動詞に対して,係り受け関係が認定できるものはラベルDを付与し,認定できないものはラベルFを付与し係り先を不定とする(根にかける).言い直しに対して,言い直す前のものから言い直した後のものへの係り受けをラベルDで付与するが,言い直した後のものが存在しない場合にはラベルFを付与し,根にかける.また,言い直す前の範囲に対してセグメントDisfluencyを規定する.フィラー・顔文字・非言語音・係り先のない文節・記号・補助記号\footnote{アイテマイズの記号など,単独で文節をなすもの.}・URL・空白など係り先が不定になるものに対してラベルFを付与し,根にかける.}\modified{外国語・ローマ字文・漢文・古文などの係り受けを放棄する範囲についてはForeignのセグメントを定義し,セグメント内の係り受け関係は基本的には右連接要素にかける.}\modified{呼びかけや文末要素であって係り受けが決まらないものに対しては,}ラベルZを定義するとともに,根にかける\footnote{文末相当について,引用などで係り先が明らかな場合には正しい係り先にかける.}.\modified{なお,以下の例ではDisfluencyやForeignを破線角丸四角で囲むことにより表現する.}その他,\keytop{CSJ}特有のラベルとして,話し手の文法的誤りを示すラベルS:格表示誤りがある.\modified{\keytop{BCCWJ}においては,文法的誤りを示すラベルは認定していない.}
\section{各論}
以下では,本論文における係り受け・並列構造アノテーション基準を既存のアノテーション基準と比較しながら用例を用いて示す.\keytop{BCCWJ}の右に付与されているXXXXX\_Y\_ZZZZ\_ZZZZZは用例が出現したファイルを示す.XXXXXが作業の優先順位\footnote{BCCWJコアデータのアノテーションにおいては,研究者間でアノテーションを付与する優先順位を共有し,優先順位が高いサンプルにできるだけアノテーションが重なるようにしている.},Yが優先順位を表す部分集合名\footnote{先に述べた優先順位は使用域(register)毎に2-5の部分集合(A,B,C,D,E)に分割され,各部分集合内では代表性を有する比率でサンプリングされている.},ZZZZ\_ZZZZZがDVDに収録されている元データのファイル名である.明示されていないものは,各コーパスのマニュアルの用例などに基づいた作例である.\subsection{係り受け関係}\subsubsection{係り受け関係の表現法}以下では係り受け関係\modified{を}次のような図で示す.\begin{itembox}[l]{\keytop{BCCWJ}00079\_D\_PM11\_00322}\small\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]$||$次$|$の$||$\&$||$特集$|$で$|$は$|$、$||$\&$||$具体$|$的$|$な$||$\&$||$取り組み$|$を$||$\&$||$紹介$|$し$|$たい$|$。$||$\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{5}{D}\depedge{3}{4}{D}\depedge{4}{5}{D}\end{dependency}\end{center}\normalsize\end{itembox}$|$は国語研短単位形態素境界(\keytop{BCCWJ}\keytop{CSJ})もしくはJUMAN品詞体系形態素境界(\keytop{KC})を表す.係り受け関係の説明に形態素境界が問題にならない場合には省略する.$||$は国語研文節境界(\keytop{BCCWJ}\keytop{CSJ})もしくは京都大学テキストコーパス文節境界(\keytop{KC})を表す.\modified{係り受け関係の説明に文節境界が問題にならない場合には省略する.}係り受け関係は文節列上に矢印で表現する.倒置を除いて格要素$\rightarrow$述語,修飾語$\rightarrow$被修飾語などの方向に付与する.\subsubsection{倒置}\keytop{KC}の基準においては,主辞後置(strictlyheadfinal)の原則から常に左から右に係る.\keytop{BCCWJ}\keytop{CSJ}の基準においては,右から左に係ることを許す.\keytop{CSJ}では右から左に係ることをラベルRを用いて示すが,\keytop{BCCWJ}においては特に明示しない.\keytop{BCCWJ}において,最初の「何だろう」は係り先なしになるが,アノテーションツール上では末尾の文外の根ノード(以下ROOTと呼ぶ)にかけることにより表現する.倒置箇所は通常の係り受けとしてラベルDを用いる.倒置などにより係り先が不定になる箇所にはROOTにかけてラベルFを用いる.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]何だろう\&これは\&ROOT\\\end{deptext}\depedge{1}{3}{F}\depedge{2}{1}{D}\end{dependency}\end{center}\end{itembox}\subsubsection{交差}\keytop{KC}の基準においては,非交差制約(projectivity)の原則から係り受け関係が同格表現以外においては交差することを許さない.\keytop{BCCWJ}\keytop{CSJ}の基準においては,係り受け関係が交差することを許す.\keytop{CSJ}では係り受け関係が交差することをラベルXを用いて明示するが,\keytop{BCCWJ}においては特に明示しない.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]地面を\&大きな\&削る\&ドリルみたいだね\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{4}{D}\depedge{3}{4}{D}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]地面を\&大きな\&削る\&ドリルみたいだね\\\end{deptext}\depedge{1}{3}{}\depedge{2}{4}{X}\depedge{3}{4}{}\end{dependency}\end{center}\end{itembox}\subsubsection{係り先のない文節}\keytop{KC}の基準においては,最右文節以外に係り先のない文節を許さない.\keytop{BCCWJ}\keytop{CSJ}の基準においては,最右文節以外でも係り先のない文節を許す.\keytop{BCCWJ}においては係り先のない文節をROOT(CaboCha出力における文節ID$-1$)に係るように表現する.係り先のない文節\modified{の分類}については,後述する係り受け関係ラベル分類に基づいて記述する.尚,\keytop{CSJ}においては係り先のない文節をラベルNにより表現する.以下の例では「中学校を」がROOTに係る.文末の「いたんですね」も係り先がなくROOTに係る.\keytop{BCCWJ}において,文末以外の係り先がないノードはラベルF,文末はラベルZとして区別する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]中学校を\&山が\&好きな\&友達が\&いたんですね\&ROOT\\\end{deptext}\depedge[edgebelow]{1}{6}{F}\depedge{2}{3}{D}\depedge{3}{4}{D}\depedge{4}{5}{D}\depedge[edgebelow]{5}{6}{Z}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]中学校を\&山が\&好きな\&友達が\&いたんですね\&ROOT\\\end{deptext}\depedge[edgebelow]{1}{6}{N}\depedge{2}{3}{}\depedge{3}{4}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\subsubsection{文節境界修正}文節境界を修正する記述を係り受け関係ラベル\keytop{BCCWJ}においてラベルB,\keytop{CSJ}においてラベルB+を用いて表現する.係り受けアノテーションにそぐわない文節単位のみを,上のような係り受け関係を用いて表現する.このような例は,\keytop{BCCWJ}においては複合動詞に,\keytop{CSJ}においては発話時にポーズが入った場合に出現する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]見物人が\&集まって\&くる\\\end{deptext}\depedge{1}{2}{D}\depedge[edgebelow]{2}{3}{B}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]必要な\&書類\&が\&まだ\&来ない\\\end{deptext}\depedge{1}{2}{}\depedge[edgebelow]{2}{3}{B+}\depedge{3}{5}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\subsection{並列構造・同格構造\modified{と}アノテーションを放棄する範囲}本小節では\keytop{BCCWJ}における並列構造・同格構造\modified{と}アノテーションを放棄する範囲について示す.これらは\keytop{KC}\keytop{CSJ}においては定義されていないか,係り受け関係のラベルにより定義されているものである.\subsubsection{セグメントとグループの導入}\keytop{BCCWJ}において,係り受け関係とは別に,文に含まれる並列構造・同格構造をアノテーションする.並列構造もしくは同格構造の構成要素に対しては\modified{,国語研短単位形態素境界に基づいて}セグメントと呼ばれる範囲を付与し,複数のセグメントをグループ化することによりアノテーションを行う.\subsubsection{並列構造の表現法}並列構造のセグメントとグループをParallelと呼ぶ.並列構造を以下のように表現する.並列構造の構成要素は文節単位ではなく形態素単位でセグメントにより範囲指定する.\modified{図中,実線の角丸四角を用いてParallelを示す.}\begin{itembox}[l]{\keytop{BCCWJ}00079\_D\_PB46\_00066}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]$||$\&売れる\&$||$\&時$|$\&に\&$||$\&売れる\&$||$\&商品\&$|$\&構成\&$|$\&と\&$||$\&存在\&$|$\&感\&$|$\&を\&$||$\&持つ\&$||$\\\end{deptext}\depedge{2}{4}{D}\depedge{4}{7}{D}\depedge{7}{9}{D}\depedge{12}{15}{D}\depedge{18}{21}{D}\wordgroup[minimumheight=16pt]{1}{9}{11}{p1}\wordgroup[minimumheight=16pt]{1}{15}{17}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}並列構造は形態素単位・文節単位・複数文節単位・節単位など様々な単位に規定できる.基本的には入れ子を許して全ての単位に対して付与する.\begin{itembox}[l]{\keytop{BCCWJ}00006\_A\_OW6X\_00009}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]科学技術の\&向上\&\hspace*{-4mm}と\&国民経済の\&発展\&\hspace*{-4mm}に\&資する\&ことを\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{5}{D}\depedge{4}{5}{D}\depedge{5}{7}{D}\depedge{7}{8}{D}\wordgroup[minimumheight=20pt]{1}{1}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{5}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}名詞句については,対応する名詞句をセグメントParallelで切り出し,グループ化する.係り受け関係は通常の係り受けと同じラベルDを付与する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]太郎\&\hspace*{-4mm}と\&花子\&\hspace*{-4mm}が\\\end{deptext}\depedge{1}{3}{D}\wordgroup[minimumheight=20pt]{1}{1}{1}{p1}\wordgroup[minimumheight=20pt]{1}{3}{3}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}尚,\keytop{CSJ}\keytop{KC}においては,ラベルPを付与する.\begin{itembox}[l]{\keytop{CSJ}\keytop{KC}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]太郎と\&花子が\\\end{deptext}\depedge{1}{2}{P}\end{dependency}\end{center}\end{itembox}\keytop{BCCWJ}においては,形態素単位・文節単位・複数文節単位・節単位など様々な単位に規定できる並列構造を,基本的には入れ子を許して全てのレベルに対してアノテーションする.しかしながら述語並列については並列かどうかの判定が困難なため,全て並列とみなさず,通常の係り受けとして定義する.\keytop{CSJ}\keytop{KC}では一部の述語並列について,並列構造を認定しラベルPを付与しているが,\keytop{BCCWJ}では通常の係り受けとしてラベルDを付与する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]チーズを\&食べ、\&ビールを\&飲んだ\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{4}{D}\depedge{3}{4}{D}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}\keytop{KC}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]チーズを\&食べ、\&ビールを\&飲んだ\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{P}\depedge{3}{4}{}\end{dependency}\end{center}\end{itembox}次に部分並列(non-constituentcoordination)について示す.\keytop{CSJ}\keytop{KC}では以下のような構造について,非交差制約を順守するためにラベルIを付与し,真の係り先でないものにかける.\keytop{BCCWJ}においては,範囲を規定したうえで,通常の係り受け関係として真の係り先にかける.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本を\&兄の\&太郎に\&ノートを\&弟の\&三郎に\&かしている\\\end{deptext}\depedge{1}{7}{D}\depedge{2}{3}{D}\depedge{3}{7}{D}\depedge{4}{7}{D}\depedge{5}{6}{D}\depedge{6}{7}{D}\wordgroup[minimumheight=20pt]{1}{1}{3}{p1}\wordgroup[minimumheight=20pt]{1}{4}{6}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{KC}\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本を\&兄の\&太郎に\&ノートを\&弟の\&三郎に\&かしている\\\end{deptext}\depedge{1}{3}{I}\depedge{2}{3}{}\depedge{3}{6}{P}\depedge{4}{6}{I}\depedge{5}{6}{}\depedge{6}{7}{}\end{dependency}\end{center}\end{itembox}\keytop{BCCWJ}において,並列句の間に接続詞が出現する場合には,右隣接する並列句の最右文節にかける.\begin{itembox}[l]{\keytop{BCCWJ}00144\_C\_PN2c\_00010}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]我が家\&\hspace*{-4mm}と、\&そして\&我が\&身\&\hspace*{-4mm}の\&イメージチェンジを\&依頼した。\\\end{deptext}\depedge{1}{5}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\depedge{5}{7}{D}\depedge{7}{8}{D}\wordgroup[minimumheight=20pt]{1}{1}{1}{p1}\wordgroup[minimumheight=20pt]{1}{4}{5}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}次に,並列構造の複数の要素に左から係る場合について示す.以下のように「赤い」\modified{が}「シャツと」と「ジャケットを」の両方に係り受け関係がある\modified{.その}場合には,最左要素である「シャツと」にかける.並列構造の外側から,並列構造の要素にかける場合には両方が係り先であることを意味する.\modified{これは,}項を共有するなど,部分文字列を共有するような係り受け関係を対象とする.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]赤い\&シャツ\&\hspace*{-4mm}と\&ジャケット\&\hspace*{-4mm}を\&着た\&姉\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{}\depedge{4}{6}{}\depedge{6}{7}{}\wordgroup[minimumheight=20pt]{1}{2}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{4}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}以下のように「赤い」が「パプリカと」に係り,「黒オリーブが」に係らない場合,並列構造の範囲を「赤いパプリカ」と「黒オリーブ」に定義して,\modified{「}赤い\modified{」}の係り先を限定する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]赤い\&パプリカ\&\hspace*{-4mm}と\&黒オリーブ\&\hspace*{-4mm}が\&のった\&パスタ。\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{}\depedge{4}{6}{}\depedge{6}{7}{}\wordgroup[minimumheight=20pt]{1}{1}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{4}{p2}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\end{dependency}\end{center}\end{itembox}\keytop{BCCWJ}において,3つ以上の並列構造の場合,隣接する並列句にかける.3つのセグメントによって並列句のグループ化を行うことによりこれを表現する.並列句の間に接続詞が出現する場合には,右隣接する並列句の最右文節にかける.以下の事例では,「風合い」「風格」「高級感あふれる質感」が並列構造をなす.\begin{itembox}[l]{\keytop{BCCWJ}00033\_B\_PB35\_00013}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]本物ならではの\&風合い\&\hspace*{-4mm}、\&風格\&そして\&高級感あふれる\&質感\&\hspace*{-4mm}は\\\end{deptext}\depedge{1}{2}{D}\depedge{2}{4}{D}\depedge{4}{7}{D}\depedge{5}{7}{D}\depedge{6}{7}{D}\wordgroup[minimumheight=20pt]{1}{2}{2}{p1}\wordgroup[minimumheight=20pt]{1}{4}{4}{p2}\wordgroup[minimumheight=20pt]{1}{6}{7}{p3}\draw[-,in=-90,out=-90,verythick](p1)tonode[below]{Parallel}(p2);\draw[-,in=-90,out=-90,verythick](p2)tonode[below]{Parallel}(p3);\end{dependency}\end{center}\end{itembox}\subsubsection{狭義の同格構造}\keytop{BCCWJ}においては,同格構造についても形態素単位のセグメントとグループで表現する.同格構造のセグメントとグループをAppositionと呼ぶ.一方,\keytop{KC}\keytop{CSJ}においては,同格構造を文節単位の係り受け関係としてラベルAを用いて表現する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]米国大統領\&ジョン・F・ケネディ\&\hspace*{-4mm}が\&暗殺された\\\end{deptext}\depedge{1}{2}{}\depedge{2}{4}{}\wordgroup[minimumheight=20pt,dotted]{1}{1}{1}{a1}\wordgroup[minimumheight=20pt,dotted]{1}{2}{2}{a2}\draw[-,in=-90,out=-90,verythick,dotted](a1)tonode[below]{Apposition}(a2);\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{KC}\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]米国大統領\&ジョン・F・ケネディが\&暗殺された\\\end{deptext}\depedge{1}{2}{A}\depedge{2}{3}{}\end{dependency}\end{center}\end{itembox}\subsubsection{具体例と総称の同格関係・具体例と数詞の同格関係}\keytop{BCCWJ}においては,ParallelとAppositionの他にGenericという「セグメント」と「グループ」を規定する.Genericは具体例と総称の同格関係や具体例と数詞の同格関係に対して規定する.\begin{itembox}[l]{\keytop{BCCWJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]泥棒は\&指輪など\&\hspace*{-4mm}、\&多数の\&高級品\&を\&盗んだ\\\end{deptext}\depedge{1}{7}{D}\depedge{2}{5}{D}\depedge{4}{5}{D}\depedge{5}{7}{D}\wordgroup[minimumheight=20pt,dashed]{1}{2}{2}{a1}\wordgroup[minimumheight=20pt,dashed]{1}{4}{5}{a2}\draw[-,in=-90,out=-90,verythick,dashed](a1)tonode[below]{Generic}(a2);\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{CSJ}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]泥棒は\&指輪など、\&多数の\&高級品を\&盗んだ\\\end{deptext}\depedge{1}{5}{}\depedge{2}{4}{A2}\depedge{3}{4}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{\keytop{KC}}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]泥棒は\&指輪など、\&多数の\&高級品を\&盗んだ\\\end{deptext}\depedge{1}{5}{}\depedge{2}{4}{A}\depedge{3}{4}{}\depedge{4}{5}{}\end{dependency}\end{center}\end{itembox}\subsubsection{アノテーションの放棄}\keytop{BCCWJ}においては,Foreign,Disfluencyなどのセグメントを規定する.Foreignは外国語・ローマ字・漢文・古典などを表し,Disfluencyは\modified{言い直し・}言いよどみを表す.基本的にはセグメント内の係り受けアノテーションを放棄し,\modified{範囲内の}すべての要素は右隣接要素にかける.\begin{itembox}[l]{\keytop{BCCWJ}00004\_A\_PB22\_00002}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]I\&saw\&a\&girl\&という\&例文は\\\&Foreign\&\&\&\&\\\end{deptext}\depedge[edgebelow]{1}{2}{D}\depedge[edgebelow]{2}{3}{D}\depedge[edgebelow]{3}{4}{D}\depedge[edgebelow]{4}{5}{D}\depedge[edgebelow]{5}{6}{D}\wordgroup[minimumheight=16pt,dashed]{1}{1}{4}{a1}\end{dependency}\end{center}\end{itembox}\modified{言い直した後の要素が存在する場合,言い直しのセグメント外の係り先をその要素に認定する.}\begin{itembox}[l]{\keytop{BCCWJ}00329\_A\_OC03\_00651}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=0.3cm]ど\&\hspace*{-4mm},\&泥棒だわー!\\\&\&\\Disfluency\&\&\\\end{deptext}\depedge[edgebelow]{1}{3}{D}\wordgroup[minimumheight=20pt,dashed]{1}{1}{1}{a1}\end{dependency}\end{center}\end{itembox}\subsection{節境界を越える係り受け関係}\keytop{BCCWJ}では節境界を越える係り受け関係について,次に示す基準を明確にして修正を行った.従属節が埋め込まれている場合,埋め込まれている節境界より前の要素について係り受け関係が判定しにくい場合が多い.\modified{具体的には,述語項関係が認められるが,節のスコープに入る要素の制限により係り受け関係が認められない場合である.項の省略により主節と従属節(もしくは複数の従属節)で一つの項を共有する場合に,作業者が述語項関係と係り受け関係を混同し,誤った節間の係り受け関係を認定してしまう.}そこで,表\ref{table:minami}に示す南の節分類に基づいて\modified{節間の係り受け関係の再認定を}行った.南のA類・B類・C類を,その構成要素(表\ref{table:minami}上部分)と述語的部分の要素(表\ref{table:minami}左下部分)により判別し,述語的部分以外の節内要素が当該節のスコープに入る(+)か入らない($-$)かを決める.具体的には,提示の「は」は,A類・B類のスコープに入らないが,C類のスコープに入る.一方\modified{,}主語の「が」はA類のスコープに入らないが,B類・C類のスコープに入る.\begin{table}[p]\rotatebox{90}{\begin{minipage}{571pt}\caption{南(1974)の従属節分類と内部に現れる要素(p128--129)}\label{table:minami}\input{01table02.tex}\end{minipage}}\end{table}次の「つつ」は付帯状況を表す節末表現でA類である.\modified{以下の二例において,「彼女が」および「彼女は」は,「飲みつつ」と「食べた」の双方の主語になるという述語項構造を持つ.南の分類においては,}目的語の「を」はA類のスコープに入るが,主語の「が」や提示の「は」はA類のスコープに入らない.\modified{ゆえに,「彼女が」および「彼女は」の係り先は「食べた」になる.}\begin{itembox}[l]{「が」とツツ節(付帯状況:A類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女が\&コーヒーを\&飲みつつ\&ケーキを\&食べた\\\end{deptext}\depedge{1}{5}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{2}{3}{p1}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{「は」とツツ節(付帯状況:A類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女は\&コーヒーを\&飲みつつ\&ケーキを\&食べた\\\end{deptext}\depedge{1}{5}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{2}{3}{p1}\end{dependency}\end{center}\end{itembox}次の「ないで」は逆接を表す節末表現でB類である.\modified{以下の二例において,「彼女が」および「彼女は」は,「飲まないで」と「食べた」の双方の主語になるという述語項構造を持つ.南の分類においては,}主語の「が」や目的語の「を」はB類のスコープに入るが,提示の「は」はB類のスコープに入らない.\modified{ゆえに,「彼女が」の係り先は「飲まないで」になるが,「彼女は」の係り先は「食べた」になる.}\begin{itembox}[l]{「が」とナイデ節(逆接:B類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女が\&コーヒーを\&飲まないで\&ケーキを\&食べた\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{1}{3}{p1}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{「は」とナイデ節(逆接:B類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女は\&コーヒーを\&飲まないで\&ケーキを\&食べた\\\end{deptext}\depedge{1}{5}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{2}{3}{p1}\end{dependency}\end{center}\end{itembox}次の「から」は理由を表す節末表現でC類である.\modified{以下の二例において,「彼女が」および「彼女は」は,「飲まないから」と「食べた」の双方の主語になるという述語項構造を持つ.南の分類においては,}提示の「は」・主語の「が」・目的語の「を」全てがC類のスコープに入る.\modified{ゆえに,「彼女が」および「彼女は」の係り先は「飲まないから」になる.}\begin{itembox}[l]{「が」とカラ節(理由:C類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女が\&コーヒーを\&飲まないから\&ケーキを\&あげた\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{1}{3}{p1}\end{dependency}\end{center}\end{itembox}\begin{itembox}[l]{「は」とカラ節(\modified{理由}:C類)}\begin{center}\begin{dependency}[theme=simple]\begin{deptext}[columnsep=-0.0cm]彼女は\&コーヒーを\&飲まないから\&ケーキを\&あげた\\\end{deptext}\depedge{1}{3}{D}\depedge{2}{3}{D}\depedge{3}{5}{D}\depedge{4}{5}{D}\wordgroup[minimumheight=16pt]{1}{1}{3}{p1}\end{dependency}\end{center}\end{itembox}\modified{この判定は一人の作業者により,BCCWJ-DepParaversion2からversion3への変更の際に全数見直しを行った.}
\section{BCCWJ-DepParaの基礎統計}
本節では,BCCWJ-DepParaの基礎統計量を示す.\begin{table}[b]\caption{BCCWJ-DepParaの基礎統計(形態素数とラベル数)}\label{stat:label}\input{01table03.tex}\par\vspace{4pt}{\small割合(\%)は,ラベル数\{`D',`B',`F',and`Z'\}/総文節数.\par}\end{table}表\ref{stat:label}は,各レジスタの短単位数(SUW),長単位数(LUW),文節数,係り受けラベル数`D'・`B'・`F'・`Z',文末数(`EOS')である.ラベル`F'は白書(OW)とYahoo!ブログ(OY)とで他のレジスタよりも,割合が大きい傾向にある.白書は箇条書きの行頭記号が多く出現する一方,ブログは顔文字などが多く出現し,ラベル`F'が多い傾向にある.BCCWJ-DepParaでは,BCCWJの元データとは異なる文境界を認定しており\cite{小西-2013},文の入れ子を許しているため,入れ子のすべての文末を表すラベル`Z'が,アノテーション単位としての文末`EOS'よりも多い傾向にある.表\ref{stat:coord}は,並列構造・同格構造の統計である.segはセグメントの数(並列構造の部分構成要素数),grpはグループの数(並列構造全体の数),seg/grpは1グループあたりのセグメントの数(並列構造を構成する平均部分構成要素数)を表す.白書(OW)は並列構造が多い傾向にある.並列構造(Parallel)は2つ以上の構成要素を許し,平均部分構成要素数(seg/grp)は2.19--2.35であった.同格構造(Apposition,General)は,\modified{基本的に}構成要素対に基づく構造で\modified{ある}.\modified{しかしながら,新聞(PN)と書籍(PB)に},2回以上言い換える例外的な表現があった.\begin{table}[t]\caption{BCCWJ-DepParaの基礎統計(並列構造と同格構造)}\label{stat:coord}\input{01table04.tex}\end{table}
\section{おわりに}
本稿では『現代日本語書き言葉均衡コーパス』に対する係り受け・並列構造アノテーションについて,その基準とともに概説した.基準においては,係り受け構造と並列構造を分けてアノテーションを行うことを提案し,並列構造は,構成要素範囲(セグメント)と構成要素集合(グループ)により表現する方法を提案した.節間の関係については,南の節分類\cite{南1974}に基づき,係り先を決めることを提案した.3次チェック時に節を超える係り先を再確認することで,整合性を保たせた.節間のラベルについては,現在『鳥バンク』\cite{ToriBank}の節間の関係\cite{Ikehara-2009}を付与しつつある\cite{Matsumoto-2017a,Matsumoto-2017b,Matsumoto-2018a,Matsumoto-2018b}.BCCWJ-DepParaデータは,『現代日本語書き言葉均衡コーパス』DVD版を購入した方にhttp://bccwj-data.ninjal.ac.jp/mdl/より公開している.本提案手法に適合する係り受け解析モデルとして,\cite{Iwatate-2012}は並列構造と係り受け構造を双対分解(dualdecomposition)して,推定する手法を提案している.\acknowledgment本研究の一部は,国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」,および国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究はJSPS科研費特定領域研究18061005,基盤研究(A)23240020,基盤研究(B)25284083,挑戦的萌芽研究15K12888,基盤研究(A)17H00917の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{KNBC}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評価情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{池原}{池原}{2007}]{ToriBank}池原悟\BBOP2007\BBCP.\newblock鳥バンク(Tori-Bank).\\newblock\url{http://unicorn.ike.tottori-u.ac.jp/toribank}.\bibitem[\protect\BCAY{池原}{池原}{2009}]{Ikehara-2009}池原悟\BBOP2009\BBCP.\newblock\Jem{非線形言語モデルによる自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{岩立}{岩立}{2012}]{Iwatate-2012}岩立将和\BBOP2012\BBCP.\newblock{\BemDevelopmentofPairwiseComparison-basedJapaneseDependencyParsersandApplicationtoCorpusAnnotation}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology,Japan.\bibitem[\protect\BCAY{Iwatate,Asahara,\BBA\Matsumoto}{Iwatateet~al.}{2008}]{Iwatate-2008}Iwatate,M.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQJapaneseDependencyParsingUsingaTournamentModel.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\361--368}.\bibitem[\protect\BCAY{国立国語研究所コーパス開発センター}{国立国語研究所コーパス開発センター}{2015}]{BCCWJManual}国立国語研究所コーパス開発センター\BBOP2015\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』利用の手引き第1.1版}.\newblock大学共同利用機関法人人間文化研究機構.\bibitem[\protect\BCAY{小西\JBA中村\JBA田中\JBA間淵\JBA浅原\JBA立花\JBA加藤\JBA今田\JBA山口\JBA前川\JBA小木曽\JBA山崎\JBA丸山}{小西\Jetal}{2015}]{小西-2015}小西光\JBA中村壮範\JBA田中弥生\JBA間淵洋子\JBA浅原正幸\JBA立花幸子\JBA加藤祥\JBA今田水穂\JBA山口昌也\JBA前川喜久雄\JBA小木曽智信\JBA山崎誠\JBA丸山岳彦\BBOP2015\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の文境界修正.\\newblock\Jem{国立国語研究所論集},{\Bbf9},\mbox{\BPGS\81--100}.\bibitem[\protect\BCAY{小西\JBA小山田\JBA浅原\JBA柏野\JBA前川}{小西\Jetal}{2013}]{小西-2013}小西光\JBA小山田由紀\JBA浅原正幸\JBA柏野和佳子\JBA前川喜久雄\BBOP2013\BBCP.\newblockBCCWJ係り受け関係アノテーション付与のための文境界再認定.\\newblock\Jem{第3回コーパス日本語学ワークショップ発表論文集},\mbox{\BPGS\135--142}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo-2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturallanguagelearning},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{黒橋\JBA居倉\JBA坂口}{黒橋\Jetal}{2000}]{KC}黒橋禎夫\JBA居倉由衣子\JBA坂口昌子\BBOP2000\BBCP.\newblock形態素・構文タグ付きコーパス作成の作業基準(Version1.8).\\newblock\JTR,京都大学.\bibitem[\protect\BCAY{松本\JBA浅原\JBA有田}{松本\Jetal}{2017}]{Matsumoto-2017a}松本理美\JBA浅原正幸\JBA有田節子\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する節の意味分類情報アノテーション—基準の策定、仕様書の作成の必要性について—.\\newblock\Jem{言語資源活用ワークショップ2016},\mbox{\BPGS\336--346}.\bibitem[\protect\BCAY{松本}{松本}{2017}]{Matsumoto-2017b}松本理美\BBOP2017\BBCP.\newblock従属節の意味分類基準策定について—鳥バンク基準互換再構築の検討—.\\newblock\Jem{言語資源活用ワークショップ2017},\mbox{\BPGS\39--50}.\bibitem[\protect\BCAY{松本}{松本}{2018}]{Matsumoto-2018a}松本理美\BBOP2018\BBCP.\newblock日本語研究のための日本語従属節意味分類基準の試案—「鳥バンク」節間意味分類体系の再構築—.\\newblock\Jem{言語処理学会第24回年次大会},\mbox{\BPGS\769--772}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{Matsumoto-2018b}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockInShirai,K.\BED,{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC2018)},Paris,France.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{南}{南}{1974}]{南1974}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{中俣}{中俣}{2015}]{Nakamata-2015}中俣尚己\BBOP2015\BBCP.\newblock\Jem{日本語並列表現の体系}.\newblockひつじ書房.\bibitem[\protect\BCAY{野田}{野田}{1985}]{野田-1985}野田尚史\BBOP1985\BBCP.\newblock\Jem{はとが}.\newblock日本語文法セルフ・マスターシリーズ(1).くろしお出版.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011a}]{SUW}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2011a\BBCP.\newblock『現代日本語書き言葉均衡コーパス』形態論情報規定集第4版(下).\\newblock特定領域研究「日本語コーパス」平成22年度研究成果報告書,国立国語研究所.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011b}]{LUW}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2011b\BBCP.\newblock『現代日本語書き言葉均衡コーパス』形態論情報規定集第4版(上).\\newblock特定領域研究「日本語コーパス」平成22年度研究成果報告書,国立国語研究所.\bibitem[\protect\BCAY{小澤\JBA内元\JBA伝}{小澤\Jetal}{2014}]{comainu}小澤俊介\JBA内元清貴\JBA伝康晴\BBOP2014\BBCP.\newblock長単位解析器の異なる品詞体系への適用.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\279--401}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2004}]{Sassano-2004}Sassano,M.\BBOP2004\BBCP.\newblock\BBOQLinear-TimeDependencyAnalysisforJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\8--14}.\bibitem[\protect\BCAY{田野村}{田野村}{2014}]{tanomura-2014}田野村忠温\BBOP2014\BBCP.\newblockBCCWJの資料特性.\\newblock田野村忠温\JED,\Jem{コーパスと日本語学},講座日本語コーパス6.朝倉書店,東京.\bibitem[\protect\BCAY{内元\JBA丸山\JBA高梨\JBA井佐原}{内元\Jetal}{2003}]{CSJ}内元清貴\JBA丸山岳彦\JBA高梨克也\JBA井佐原均\BBOP2003\BBCP.\newblock『日本語話し言葉コーパス』における係り受け構造付与(Version1.0).\\newblock\JTR,『日本語話し言葉コーパス』の解説文書.\bibitem[\protect\BCAY{Uchimoto,Sekine,\BBA\Isahara}{Uchimotoet~al.}{1999}]{Uchimoto-1999}Uchimoto,K.,Sekine,S.,\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisBasedonMaximumEntropyModels.\BBCQ\\newblockIn{\BemEACL'99:Proceedingsofthe9thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\196--203}.\bibitem[\protect\BCAY{Yoshinaga\BBA\Kitsuregawa}{Yoshinaga\BBA\Kitsuregawa}{2010}]{Yoshinaga-2010}Yoshinaga,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2010\BBCP.\newblock\BBOQKernelSlicing:ScalableOnlineTrainingwithConjunctiveFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\1245--1253}.\bibitem[\protect\BCAY{Yoshinaga\BBA\Kitsuregawa}{Yoshinaga\BBA\Kitsuregawa}{2014}]{Yoshinaga-2014}Yoshinaga,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2014\BBCP.\newblock\BBOQASelf-adaptiveClassifierforEfficientText-streamProcessing.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1091--1102}.\end{thebibliography}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター准教授.現在に至る.博士(工学).自然言語処理・認知言語学の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V14N05-05
|
\section{はじめに}
\label{sec:intro}日本語の解析システムは,1990年代にそれまでの研究が解析ツールとして結晶し,現在では,各種の応用システムにおいて,それらの解析ツールが入力文を解析する解析モジュールとして利用されるようになってきている.解析ツールを利用した応用システムの理想的な構成は,与えられた文を解析する解析ツールと,その後の処理を直列につなげた,図\ref{fig:cascade}に示すような構成である.例えば,情報抽出システムでは,応用モジュールは,解析ツールの出力データを受け取り,そのデータに抽出すべき情報が含まれているかどうかを調べ,含まれている場合にその情報を抽出する,という処理を行なうことになる.\begin{figure}[b]\input{05f1.txt}\end{figure}ここで,応用モジュールを,おおきく,次の2つのタイプに分類する.\begin{enumerate}\item{\bf言語表現そのもの(言語構造)を対象とする}応用モジュール例えば,目的格と述語の組を認識して,それらの数を数えるモジュール.\item{\bf言語表現が伝える情報(情報構造)を対象とする}応用モジュール例えば,「どのメーカーが,なんという製品を,いつ発売するか」という情報を抽出する情報抽出モジュール.\end{enumerate}後者のモジュールでは,どのような言語表現が用いられているのかが問題となるのではなく,どのような言語表現が用いられていようと,それが「どのメーカーが,なんという製品を,いつ発売するか」という情報を伝達しているのであれば,それを抽出することが要求される.われわれが想定する応用モジュールは,この後者のタイプである.応用システムにおいて,解析ツールは,「応用に特化しない言語解析処理をすべて担う」ことを期待される.しかしながら,現実は,そのような理想的な状況とは程遠く,応用モジュールを構築する際に,現在の解析ツールが放置しているいくつかの言語現象と向き合うことを余儀なくされる.そのような言語現象の具体例は,おおきく,以下の4種類に分類できる.\begin{description}\item[表記の問題]~~いわゆる「表記のゆれ」が放置されているので,これらを同語とみなす処理が必要となる.例えば,「あいまい」と「曖昧」,あるいは,「コンピューター」と「コンピュータ」.\item[単位の問題]~~複合語表現(multi-wordexpressions)の設定が不十分であるので,追加認定を行なう処理が必要となる.\item[外部情報源とのインタフェースの問題]~~語の認定が行なわれないので,他の外部情報源を利用する場合,文字列でインタフェースをとるしか方法がない.それぞれの情報源(例えば,一般の国語辞典)で,品詞体系や見出し表記が異なるので,かなりの辞書参照誤りが発生する.\item[異形式同意味の問題]~~言語表現は異なるが伝達する情報(意味)が同じものが存在するので,これらを同一化する処理が必要となる.\end{description}これらの問題に共通するキーワードは,「情報(意味)の基本単位」である.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.\begin{table}[b]\input{05t01.txt}\end{table}内容的表現に関しては,近年,上の4つの問題を解決するための研究が行なわれている.例えば,内容語に関しての研究\shortcite{Sato2004jc,JUMAN,asahara2005}や慣用表現に関しての研究\shortcite{Ojima2006,Hashimoto2006a,Hashimoto2006b}がある.その一方で,機能表現に関しては,大規模な数のエントリーに対して上記の問題を解決しようとする研究はほとんど存在しない.大規模な数の機能表現を扱ったものに,Shudoら\shortcite{Shudo2004}や兵藤ら\shortcite{Hyodo2000}による研究があるが,それらは,上記の問題を考慮していない.このような背景により,本研究では,自然言語処理において日本語機能表現を処理する基礎となるような{\bf日本語機能表現辞書}を提案する.この辞書は,大規模な数の機能表現に関して,上記の問題に対する1つの解決法を示す.本論文は,以下のように構成される.まず,第2章で,機能表現とその異形について述べる.次に,第3章において,日本語機能表現辞書の設計について述べる.第4章で,辞書の見出し体系として採用した,機能表現の階層構造について説明する.そして,第5章で,辞書の編纂手順について説明し,現状を報告する.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる.
\section{日本語機能表現}
\subsection{複合辞}複合辞というとらえ方を初めて提唱したのは,国立国語研究所の資料\shortcite{hukugouzi}によると,永野\shortcite{Nagano1953}である.永野は,語源的・構造的にはいくつかの語に分解できるが,単なる部分の合成以上の「一まとまりの意味を持っているものと見てよい」連語表現の存在を指摘した.例えば,「からには」は,3つの助詞「から」,「に」,「は」から構成されているが,それは,全体として「特に理由を提示して,課題の場を設定し,次に来る陳述を強く期待させる場合に使われる言い方」であると説明する.彼は,このような表現を複合助詞と呼んだ.そして,同様の基準で複合助動詞,複合接続詞,複合感動詞についても考え,複合助詞とこれらを一まとめにして,{\bf複合辞}と呼んだ.永野は,内容語の領域において,複合語やイディオムが表現資材としての単位であるのと同様に,複合辞を表現上の単位と考える.\subsection{機能表現の定義}\label{subsec:definition}\begin{table}[b]\input{05t02.txt}\end{table}機能表現とは,おおよそ,文中においてなんらかの機能を持つ表現ということができる.しかし,機能表現全体に対して,「なんらかの機能」をより精密に書き下すことはほとんど不可能であると考えられるので,本研究では,機能表現の定義として,次のような定義を採用する.\begin{quote}表\ref{tab:L3}に示すいずれかの機能を持つ表現を,{\bfそれぞれの機能型に属する機能表現}と呼び,その総称として{\bf機能表現}という用語を用いる.\end{quote}表\ref{tab:L3}に挙げた機能は,通常,機能語に対して認定されるものである.本研究では,それを複合辞にまで拡張し,機能表現の定義として用いることにした.上記の定義を用いると,「からには」や「ばかりか」など,機能語の列からなる表現や,「なければならない」や「かもしれない」など,自立性が低い内容語を含む表現を機能表現であると判断することができ,「じゅんに」や「経過してから」など,内容語の自立性が高く,一まとまりの表現とはみなしにくいものを機能表現ではないと判断することができる.しかしながら,一般に,ある表現が機能表現であるかどうかの判断は,それほど容易ではない.その理由は,次の2点に対して統一した見解が存在しないことにある.\begin{description}\item[機能表現と呼べる表現の範囲]~~「にもとづいて」や「と比較して」など,機能表現であるかどうかの判断が難しい表現が存在する.これらの表現が機能表現であるかどうかについては,上記の定義や,これまでに機能表現であると判断された表現などを参照し,主観的に判断することになる.\item[機能表現の単位]~~「たにちがいない」,「たとしても」,「ないかもしれなかった」など,全体で1単位の機能表現とみなすべきか,それとも,複数の機能表現からなる表現であるとみなすべきか判断が揺れる表現が存在する.\end{description}本研究では,前者に対して保守的な立場をとり,定評のある文献において機能表現であると認められているもののみを機能表現と認め,機能表現であるかどうかの判断が難しい表現に対しては,機能表現と認めることを保留する.一方,後者に対しては,不必要に長い機能表現を認めるのではなく,例えば,「ないかもしれなかった」に対しては,「ない」,「かもしれなかっ」,「た」のように,適切な構成要素に分割し,その各々を機能表現であるとみなす.\subsection{種々の異形}\label{subsec:variety}日本語の機能表現が持つ主な特徴の1つは,個々の機能表現に対して,多くの{\bf異形}が存在することである.例えば,「なければならない」に対して,「なくてはならない」,「なくてはならず」,「なければなりません」,「なけりゃならない」,「なければならぬ」,「ねばならん」など,多くの異形が存在する.このような異形をつくり出す過程には,いくつかの言語現象が絡んでいる.われわれは,これらの言語現象に基づいて,機能表現の異形を次の7つのカテゴリーに分類した.\begin{enumerate}\item{\bf派生}2つの表現がお互いに緊密に関連しているが,それらの機能が異なるとき,われわれは,それらを派生に分類する.例えば,「にたいして」と「にたいする」は,いずれも格助詞「に」と動詞「たいする」の1つの活用形という形態をしており,お互いに緊密に関連している.その一方で,それらは,異なる機能を持っている.「にたいして」は,格助詞型機能表現であり,「にたいする」は,連体助詞型機能表現である.それゆえに,これらを派生に分類する.\item{\bf機能語の交替}機能表現を構成する機能語が,異なる機能語に置き換えられることにより,異形が生成されることがある.例えば,「からする\ul{と}」の末尾の「と」を「ば」に置き換えると,「からすれ\ul{ば}」という異形が生成される.\item{\bf音韻的変化}機能表現の構成要素が音韻的に変化することにより,異形が生成されることがある.音韻的変化は,次の4種類に分類できる.\begin{enumerate}\item[(a)]{\bf縮約}特定の文字列が縮約することにより,異形が生成されることがある.例えば,「なけ\ul{れば}ならない」の「れば」が「りゃ」へ縮約した場合,「なけ\ul{りゃ}ならない」という異形が生成される.\item[(b)]{\bf脱落}特定の文字が脱落することにより,異形が生成されることがある.例えば,「とこ\ul{ろ}だった」から「ろ」が脱落することにより,「とこだった」という異形が生成される.\item[(c)]{\bf促音化・撥音化}特定の文字列が促音化,もしくは撥音化することにより,異形が生成されることがある.例えば,「たも\ul{の}ではない」の「の」が撥音化することにより,「たも\ul{ん}ではない」という異形が生成される.\item[(d)]{\bf有声音化}前に接続する語により,機能表現の先頭の子音が有声音になり,異形が生成されることがある.例えば,「\ul{て}いい」は,前に「読む」が接続する場合,先頭の子音``t''が有声音``d''になり,「\ul{で}いい」という異形が生成される.\end{enumerate}\item{\bfとりたて詞の挿入}機能表現の内部にとりたて詞\shortcite{Numata1986}が挿入されることにより,異形が生成されることがある.例えば,「といっても」の「と」と「いっても」の間には,とりたて詞「は」が挿入可能である.この挿入により,「と\ul{は}いっても」という異形が生成される.\item{\bf活用}機能表現を構成する末尾の語が活用することにより,異形が生成されることがある.例えば,「なければなら\ul{ない}」の末尾の「ない」が「なかっ」に活用することにより,「なければなら\ul{なかっ}」という異形が生成される.\item{\bf「です/ます」の有無}機能表現の内部に「です」や「ます」が挿入されることにより,異形が生成されることがある.例えば,「にたいして」の「にたいし」と「て」の間には,「ます」が活用した「まし」が挿入可能である.この挿入により,「にたいし\ul{まし}て」という異形が生成される.\item{\bf表記のゆれ}機能表現の構成語が漢字表記を持っている場合,その語の表記の仕方によって,異形が生成されることがある.例えば,「に\ul{あた}って」に対して,「に\ul{当た}って」,「に\ul{当}って」という漢字表記の異形が存在する.\end{enumerate}
\section{機能表現辞書の設計}
\subsection{辞書に求める要件}\label{subsec:requirement}機能表現の辞書を作成するためには,次の2種類のリストが必要であると考えられる.\begin{enumerate}\item辞書の見出し語のリスト\item上のリストに存在する機能表現の出現形の網羅的なリスト\end{enumerate}現在利用可能な機能表現の見出し語のリストとして,グループ・ジャマシイのリスト\shortcite{Jamasi1998}や森田らのリスト\shortcite{Morita1989}などが存在する.しかし,それらを直接(1)のリストとして利用することはできない.なぜならば,機能表現に関して,統一した見出し語選択方針が存在しないからである.例えば,上の2つは,異なる見出し語選択方針をとっている.前者においては,「にたいして」と「にたいする」は,両方とも見出し語である.その一方で,後者においては,「にたいして」のみが見出し語であり,「にたいする」は「にたいして」の派生として扱われている.機能表現辞書を編纂するにあたり,異なる複数の機能表現リストを併合するときに起こるこの問題を解決する必要がある.自然言語処理システムは,実際の文章に現れる{\bf出現形}を処理する必要があるので,上記(2)のリストが必要となる.日本語母語話者は,機能表現の出現形からその見出し語を簡単に推測することができるので,人間のために編纂された機能表現の辞書には,出現形をすべて列挙しておく必要はない.実際,機能表現に関する,言語学や日本語教育学の文献は,このような記述形式をとっている\shortcite{Morita1989,Jamasi1998}.計算機が利用することを想定した辞書を編纂する場合,機能表現の出現形を網羅する必要がある.\ref{sec:intro}章で挙げた問題,および上記で述べたことを考慮し,われわれは,編纂する辞書に次の3つの要件を設定した.\begin{description}\item[要件1]機能表現の出現形を網羅する見出し体系を持っていること\item[要件2]関連する機能表現間の関係が明示されていること\item[要件3]個々の機能表現に対して,文法情報や意味などが記述されていること\end{description}要件1を設定した理由は,すべての可能な機能表現の出現形を,計算機に誤りなく認識させたいからである.これが達成されれば,表記の問題と単位の問題を解決することができる.要件2を設定した理由は,この辞書を,異形式同意味の判定や言い換えに利用したいと考えているからである.これが達成されれば,外部情報源とのインタフェースの問題と異形式同意味の問題を解決することができる.要件3を設定した理由は,解析システムなどの自然言語処理システムに対して,個々の機能表現についての情報を提供することを想定しているからである.これは,自然言語処理において利用されることを想定している辞書として,必須の条件である.\subsection{辞書の設計方針}\label{subsec:policy}前節の要件を満たす辞書を作成するにあたり,われわれは,設計方針を以下のように定めた.\begin{description}\item[見出し体系]9つの階層を持つ{\bf階層構造}(次章参照)この階層構造により,すべての機能表現の出現形を整理し,機能表現間の関係を明示する.\item[辞書の形式]XML形式\item[付加情報]以下に挙げる情報を記述する\begin{description}\item[左接続・右接続]隣に接続可能な形態素\item[意味カテゴリー]属する類義表現集合「日本語表現文型」\shortcite{Morita1989}における意味分類を参考にして,同じような意味を持っている機能表現の類義表現集合として,89の意味カテゴリーを導入した.このうちのいずれかを記述する.\item[難易度]やさしい方からA1,A2,B,C,Fの5段階の難易度\shortcite{Sato2004jc}「日本語能力試験出題基準」\shortcite{nouryoku}における「〈機能語〉の類」の級を参考にして,表現の分かりやすさに基づき,難易度を記述する.\item[文体]常体,敬体,口語体,堅い文体の4種類\item[核]表現の構成において中心的な核の形態素例えば,「にたいして」に対して,「たいし」と記述する.\item[稀]使用が稀であることを示すマーク例えば,「て呉れる」に対して,このマークを付与する.\item[例文]機能表現を含む文\item[否定表現]意味の観点から見た否定の表現例えば,「なければならない」に対して,「なくてよい」と記述する.これを明記する理由は,機能表現の後ろに単純に「ない」を接続させた表現は,非文法的である場合があるからである.\item[慣用表現]機能表現を含むもの例えば,「にたりない」に対して,「とるにたりない」と記述する.この情報は,慣用表現の一部である機能表現を,1単位であるとして誤検出してしまうことを防止することに利用することができる.\item[文献への参照]文献名および参照ページ\item[外部辞書の見出し語へのリンク]外部辞書における項目ID\end{description}\end{description}見出し体系として採用した階層構造については,次章で詳しく説明する.辞書の形式としてXML形式を採用した理由は,次の2つである.\begin{enumerate}\item階層構造を表現するのに都合が良い\item他の形式への変換が容易である\end{enumerate}
\section{機能表現の階層構造}
\label{sec:h}われわれは,\ref{subsec:variety}節で議論した,機能表現のさまざまな異形を扱うために,9つの階層を持つ階層構造を作成し,それを辞書の見出し体系として採用した.この階層構造は,\ref{subsec:requirement}節で述べた要件1と2を満たす.具体的には,次のとおりである.\begin{enumerate}\item機能表現の出現形のリストとして,9つめの階層の機能表現集合を利用することができる\itemそれぞれの表現が持つIDを比較することにより,表現間の関係を知ることができる\end{enumerate}\subsection{9つの階層を持つ階層構造}\label{subsec:hierarchy}われわれが作成した階層構造の一部を図\ref{fig:hierarchy}に示す.階層構造における$L^0$のルートノードは,すべての表現を統轄するダミーノードである.$L^1$の機能表現ノードは,辞書の見出し語に相当する.これは,最も抽象度の高い機能表現であると言える.一方,階層構造の葉に当たる$L^9$の機能表現ノードは,機能表現の出現形に相当する.これは,最も抽象度の低い機能表現であると言える.それらの間に存在する機能表現ノードは,中間の抽象度を持つ機能表現である.階層構造の9つの階層について表\ref{tab:levels}に示す.$L^3$から$L^9$が,\ref{subsec:variety}節で述べたそれぞれの異形のカテゴリーに対応する.機能表現の階層構造を作成するにあたり,まず,われわれは,異形間の差異の大きさに基づいて,異形のカテゴリーに次の順番を定めた.\begin{figure}[t]\begin{center}\includegraphics{14-5ia5f2.eps}\end{center}\caption{階層構造の一部}\label{fig:hierarchy}\end{figure}\begin{table}[t]\input{05t03.txt}\end{table}派生($L^3$)$>$狭義の異形($L^4$,$L^5$,$L^6$)$>$広義の活用($L^7$,$L^8$)$>$表記のゆれ($L^9$)次に,単純な階層構造をつくるために,$L^4\simL^6$と$L^7\simL^8$を線形化した.狭義の異形($L^4$,$L^5$,$L^6$)において,機能語の交替($L^4$),音韻的変化($L^5$),とりたて詞の挿入($L^6$)という順番を定めた理由は,機能語の交替が,可能な音韻的変化に強く影響し,また,音韻的変化の有無が,とりたて詞の挿入に影響すると考えたからである.広義の活用($L^7$,$L^8$)において,活用($L^7$),「です/ます」の有無($L^8$)という順番を定めた理由は,活用形の変化は,その表現が係ることのできる語の種類を変化させるが,「です/ます」の有無はそれとは独立であり,前者による異形は,後者による異形より,元の表現との差異が大きいと判断したからである.そして,これらの階層の上に,次の2つの階層を定義した.\begin{description}\item[$L^2$]{\bf意味}\footnote{機能表現が持っている「意味・働き・役割」という概念に対して,言語学の文献では,主に,「意味」や「意味・用法」という用語が用いられている\shortcite{Nagano1953,Morita1989,hukugouzi,dosj,Fujita2006}.本論文では,この概念を表すのに「意味」を用いる.}機能表現が,2つ以上の意味を持っている場合,この階層において,それらを区分する.例えば,「にたいして」は,2つの異なる意味を持っている.1つは,「彼は私にたいして優しい」において示されるような〈対象〉という意味であり,もう1つは,「一人にたいして5つ」において示されるような〈割合〉という意味である.この階層において,これらを区分する.\item[$L^1$]{\bf見出し語}辞書の見出し語に相当する.\end{description}この階層構造は,最も抽象度の高い形式の機能表現($L^1$)から最も抽象度の低い形式の機能表現($L^9$)までを含んでいるので,任意の形式の機能表現を,構造内に挿入することができる.逆に,この階層構造から,抽象度の異なる複数の機能表現リストを生成することができる.われわれの見出し語のリストは,$L^1$の機能表現ノードの集合である.森田らのリスト\shortcite{Morita1989}におけるように,各々の見出し語は唯一の意味を持つという方針に従う場合,$L^2$の機能表現ノードの集合を見出し語リストとして利用することができる.上記に加えて,各々の見出し語は唯一の機能を持つという方針に従う場合,$L^3$の機能表現ノードの集合を見出し語リストとして利用することができる.一方,機能表現のすべての出現形のリストがほしいときには,$L^9$の機能表現ノードの集合を利用することができる.日本語機能表現辞書において,この階層構造を見出し体系として採用した.辞書の見出し体系に,すべての活用形を含めた理由は,辞書の各エントリーに活用型を記述する方法には,次の2つの問題があるからである.\begin{enumerate}\item{\bf活用体系に対して統一した見解が存在しない}例えば,「なければならない」の末尾の「ない」を「ず」に置き換えた表現「なければならず」を,元の表現の活用形とみなす立場と,通常,助動詞「ない」の活用形に「ず」は含まれないため,全く異なる機能表現であるとみなす立場が存在する.\item{\bf日本語として存在しない表現を生成してしまう可能性が高い}複合辞は,動詞や助動詞と比べて,とることができる活用形が制限される傾向がある.例えば,「にほかならない」は,「ない」と同じだけの活用をするわけではなく,\mbox{「*にほかならなから」},「*にほかならなかれ」,「*にほかならなけりゃ」といった表現は,日本語には存在しない\footnote{表現の先頭に付けた``*''は,その表現が非文法的であることを示す.}.辞書のエントリーに活用型を記述する方法を採用した場合,これらの非文法的な表現を,「にほかならない」の活用形として認めることになる.われわれは,解析だけではなく,生成や言い換えにおいてもこの辞書を利用することを想定しているので,これは大きな問題となる.\end{enumerate}\subsection{機能表現ID}\label{subsec:id}われわれは,機能表現の出現形($L^9$の機能表現)に対して,階層構造における位置を表す機能表現IDを付与した.機能表現IDは,図\ref{fig:id}に示されるように,9つの部分からなる.IDの各部分は,階層構造のそれぞれの階層における階層IDである.階層IDに用いる文字種とその長さを,表\ref{tab:levels}の「ID」の欄に示す.$L^3$ID,$L^5$ID,$L^6$ID,$L^8$IDの一覧を,それぞれ,表\ref{tab:L3},表\ref{tab:L5},表\ref{tab:L6},表\ref{tab:L8}に示す.\begin{figure}[b]\input{05f3.txt}\end{figure}\begin{table}[b]\input{05t04.txt}\end{table}\begin{table}[t]\begin{minipage}[t]{0.5\textwidth}\input{05t05.txt}\end{minipage}\hfill\begin{minipage}[t]{0.4\textwidth}\input{05t06.txt}\vspace{1\baselineskip}\input{05t07.txt}\end{minipage}\end{table}機能表現IDは,階層構造における位置を表しているので,IDを比較することにより,2つの機能表現間の関係を容易に知ることができる.表\ref{tab:ID}に,類似したIDを持つ3つの機能表現を示す.(1)のIDと(2)のIDの差異は,8文字めの``x''と``h''である.これらは$L^5$IDであるので,「にたいして」と「にたいしちゃ」は,同じ見出し語に対する音韻的異形の関係にあることが分かる.それに対して,(1)のIDと(3)のIDは,最初の3文字が異なっている.これらは$L^1$IDであるので,「にたいして」と「について」は,全く異なる機能表現であるということが分かる.なお,図\ref{fig:hierarchy}に示されるように,$L^1$から$L^8$の機能表現に対しても,階層構造における位置を表すIDを付与した.
\section{機能表現辞書の編纂}
\subsection{編纂手順}われわれは,前章で説明した階層構造を見出し体系として持つ日本語機能表現辞書を編纂した.機能表現辞書の編纂は,図\ref{fig:hierarchy}に示されるような階層構造の木を徐々に成長させる過程に相当する.その理由は,機能表現の完全な見出し語のリストも,すべての可能な出現形のリストも利用可能ではないからである.言語学や日本語教育学の文献に収録されている機能表現を,1つずつ,階層構造に挿入する過程を繰り返し,辞書を徐々に大きくしていくことになる.文献から得た1つの機能表現に対する編纂作業は,次のとおりである.\begin{enumerate}\itemその表現に対するノードを作り,それを階層構造の適切な位置に挿入する\item表現の形態に応じたテンプレートを用いて,その機能表現の異形と思われる表現を含む部分木を生成し,それを階層構造の適切な位置に挿入する\item過生成されてしまった,実際に存在しない表現を消去する\itemテンプレートでは生成できなかった特別な異形を追加する\item\ref{subsec:policy}節に挙げた付加情報を記述する\end{enumerate}言語学や日本語教育学の文献における大部分の見出し語は,階層構造における$L^2$の機能表現ノードに対応する.残りの見出し語は,$L^4$や$L^5$の機能表現ノードに対応する.見出し語を階層構造に挿入するときには,その見出し語に対するノードだけではなく,必要に応じて,上位のノードも作成する.上記の(2)で用いるテンプレートは,全部で10種類ある.例えば,「に」+動詞のテ形+「て」という形態の機能表現に対して適用することができるテンプレートがある.例えば,このテンプレートを「にかんして」に適用した場合,$L^2$の機能表現ノードをルートとして持つ,階層構造の部分木が生成される.この部分木は,$L^3$,$L^4$,$L^5$,$L^8$に,「にかんする」,「にかんし」,「にかんしちゃ」,「にかんしまして」など,「にかんして」の異形に対応する機能表現ノードを持ち,葉の部分($L^9$)に,「にかんして」の出現形に対応する機能表現ノードを持つ.\subsection{機能表現辞書の現状}\ref{subsec:definition}節で述べたように,本研究では,機能表現であるかどうかの判断が難しい表現は扱わず,定評のある文献において機能表現であると認められているもののみを扱う.われわれは,次の2つのリストに含まれるすべての機能表現を,機能表現辞書に収録した.\begin{enumerate}\item{\bf「日本語表現文型用例中心・複合辞の意味と用法」}\shortcite{Morita1989}に収録されている,助詞と同様の働きをする表現(ただし,並立助詞の働きをするものは除く)と助動詞と同様の働きをする表現,計412表現\item{\bf「使い方の分かる類語例解辞典新装版」}\shortcite{dosj}の助詞・助動詞解説編に収録されている助詞,助動詞およびその連接形,計368表現\end{enumerate}これらの文献を選んだ理由は,次のとおりである.\begin{itemize}\item「日本語表現文型」は,数百の複合辞の意味と用法について詳細に解説した最初の文献であり,複合辞の用例を数多く収録している.この文献のリストは,基本的な複合辞をすべて網羅しているため,機能表現辞書に最初に収録する機能表現集合として最適であると考えたからである.\item「使い方の分かる類語例解辞典」は,その助詞・助動詞解説編において,78のカテゴリーを持つ,機能表現のシソーラスを収録している.このシソーラスは,機能語と複合辞の両方を含んでいるため,機能表現辞書に機能語を収録するにあたり,非常に有用であると考えたからである.\end{itemize}階層構造の各階層における機能表現の数を,表\ref{tab:levels}の「表現数」の欄に示す.見出し語に相当する$L^1$の機能表現の数は341であり,出現形に相当する$L^9$の機能表現の数は16,771である.\ref{subsec:policy}節で述べた付加情報は,階層構造の葉にあたる$L^9$の機能表現ノードにではなく,適切な中間ノードに記述した.例えば,意味カテゴリーや難易度は,$L^2$の機能表現ノードに,文体は,$L^5$の機能表現ノードに記述した.$L^9$の機能表現ノードを含む下位のノードは,階層構造の特徴を利用して,それらの情報を継承するが,必要に応じて,そこに異なる情報を記述することにより,継承された情報を上書きすることができる.このような記述法をとることにより,付加情報と形式の間の関係を明確にすることができる.例えば,文体は,$L^5$と$L^7$の機能表現ノードにのみ記述しているので,表記($L^9$)とは無関係であることを示すことができる.機能表現辞書における意味カテゴリー,難易度,文体の分布を,それぞれ,表\ref{tab:meaningL2},表\ref{tab:A1F},表\ref{tab:style}に示す.また,機能表現を構成する語の数の分布を表\ref{tab:units}に示す.ここで,構成語数が1のものには,機能語以外に,「ため」,「折」など,形式的には名詞一語である表現や,「たげる」,「ちゃう」など,縮約された表現が含まれている.\begin{table}[b]\input{05t08.txt}\end{table}\begin{table}[t]\input{05t09.txt}\end{table}\begin{table}[t]\input{05t10.txt}\end{table}\begin{table}[t]\input{05t11.txt}\end{table}外部辞書の見出し語へのリンクとして,$L^2$もしくは$L^5$の機能表現ノードに,次の2つのリストにおける項目のIDを記述した.\begin{enumerate}\item{\bf「現代語複合辞用例集」}\shortcite{hukugouzi}日本語において代表的な複合辞に対して,その用例と解説を記載している.収録されている複合辞は,「日本語表現文型」のほぼ部分集合であり,収録表現数は129である.それぞれの表現に対して,表\ref{tab:kkkID}に示される3文字の項目IDが付与されている.\item{\bf「使い方の分かる類語例解辞典新装版」}\shortcite{dosj}この節の冒頭で説明した辞典である.収録表現数は368である.シソーラスの各々のカテゴリーには,見出し語の集合と関連語の集合が存在する.各カテゴリーには,2桁の数字からなるIDが設定されているが,カテゴリー内の各語に対しては,IDが設定されていない.そこで,われわれは,カテゴリーごとに,そこに存在する語に対して,表\ref{tab:dosj_subID}のように下位IDを設定し,カテゴリーのIDと合わせて,``29N01''や``75R03''のような5文字の項目IDを定めた.\end{enumerate}\begin{table}[t]\input{05t12.txt}\end{table}\begin{table}[t]\input{05t13.txt}\end{table}\subsection{異形の被覆率の評価}機能表現辞書を評価する観点として,次の2点が考えられる.\begin{enumerate}\item機能表現をどのくらい収録しているか\item応用システムにおいてどれほど有用であるか\end{enumerate}ここでは,前者の評価を行なう.一般に,辞書に収録されている機能表現の被覆率を評価することは難しい.なぜならば,\ref{subsec:definition}節で述べたように,機能表現と呼べる表現の範囲や機能表現の単位に対して,統一した見解が存在しないからである.それゆえ,機能表現集合の母集団が不明であり,単純に被覆率を計算することができない.被覆率の評価の際には,これらに起因する問題を適切に扱う必要がある.収録している機能表現の被覆率を評価する場合,次の2点を評価する必要がある.\begin{enumerate}\item見出し語の被覆率\item異形(の出現形)の被覆率\end{enumerate}\ref{subsec:definition}節で述べた方針に基づき,われわれは,前者は,辞書構築時に利用した,定評のある文献によって保証されていると考える.よって,ここでは,後者の評価のみを行なう.本研究では,既存の機能表現リストと比較することにより,機能表現辞書に収録されている異形の被覆率を評価した.評価には,比較対象として,自然言語処理の分野において唯一われわれが利用可能であり,かつ,大規模な機能表現リストを収録している首藤の文献\shortcite{Shudo1980a}を用いた\footnote{\ref{subsec:requirement}節で述べたように,言語学や日本語教育学の文献は,人間が読むことを想定して書かれたものであるので,異形を網羅することを目指しておらず,異形をあまり収録していない.それゆえ,これらの分野の文献は,比較対象として適切ではない.}.首藤の文献は,独自の文節モデルと日本語の解析システムについて述べたものであり,その付録に,付属語的表現,接続詞的表現,接尾語的表現,副詞的表現,連体詞的表現の一覧を記載している.付属語的表現とは,文節において構造的意味情報を担う表現のことであり,おおきく,文節間の関係を指示する表現(関係表現)と話し手の判断や叙述の仕方などを表す表現(助述表現)に分類される.前者は,ほぼ,われわれの助詞型機能表現に相当し,後者は,ほぼ,われわれの助動詞型機能表現に相当する.われわれが機能表現辞書編纂時に利用した2つの文献\shortcite{Morita1989,dosj}は,接続詞型機能表現をほとんど扱っていなかったので,われわれの機能表現辞書は,接続詞型機能表現をほとんど収録していない.このような理由により,異形の被覆率の評価という観点から,接続詞型以外の機能型の表現のみを比較対象とし,機能表現辞書の機能表現と首藤の付属語的表現を比較することにした.\begin{table}[b]\input{05t14.txt}\end{table}首藤の付属語的表現は,表\ref{tab:shudolist}のような形式で記載されている.左の欄の${\rmR_{NP1}}$は,基本的な文法カテゴリーであり,この場合は,「名詞文節から述語文節へと係る格助詞的表現」を表す.右の欄のR19は,連接規則を精密化するために導入された文法カテゴリーの下位分類である.真ん中の欄に,これらのカテゴリーに属する付属語的表現が記述される.それが関係表現の場合,表\ref{tab:shudolist}のように,表現の後に意味を表す記号(例えば,〈対象1〉+〈領域的〉)が続く.このリストは,次のような5つの特徴を持つ.\begin{enumerate}\item``ASU'',``ASERU'',``ERU'',``ARERU''の4表現を除き,表現は,すべてひらがな表記であり,漢字表記のものは存在しない\item「でもよい」や「こともできる」など,音韻的変化やとりたて詞の挿入による異形が含まれるが,「です/ます」を含む異形は存在しない\item活用による異形は,「なければならず」や「かもしれず」など,表現の末尾の「ない」を「ず」に置き換えたもののみである\item「たにちがいない」や「ないかもしれなかった」など,われわれが複数の機能表現からなるとみなす表現が存在する\item「じゅんに」や「けいかしてから」など,われわれが機能表現とみなさない表現が含まれる\end{enumerate}計算機処理を可能にするために,文法カテゴリーと意味記号を無視し,このリストに含まれる付属語的表現を人手で入力し,電子データを作成した.このとき,アルファベット表記である上記の4表現は除いた.入力したデータに含まれる表現数は,937であった.以下,このデータを首藤リストと呼ぶ.機能表現辞書に含まれる異形の被覆率を評価する場合,異形がすべて展開された$L^9$の機能表現集合を用いるのが適切である.一方,首藤リストの特徴から,次の4つのことが言える.\begin{enumerate}\item首藤リストには,漢字表記の異形が存在しないため,$L^9$の機能表現集合に対する比較結果と,$L^8$の機能表現集合に対する比較結果は同じになる\item首藤リストには,「です/ます」の有無による異形が存在しないため,$L^8$の機能表現集合に対する比較結果と,$L^7$の機能表現集合に対する比較結果は同じになる\item首藤リストには,活用による異形は,表現の末尾の「ない」を「ず」に置き換えた表現のみであるので,$L^7$の機能表現集合に対する比較結果と,$L^6$の機能表現集合に対する比較結果の差分は,それに関する少数のもののみであることが予想される\item首藤リストには,とりたて詞の挿入による異形が含まれているため,それを扱っていない$L^1$から$L^5$の機能表現集合を用いることは適切ではない\end{enumerate}これらの理由により,本評価においては,$L^6$,$L^7$の機能表現集合と首藤リストを比較した.比較にあたっては,首藤リストが持つ特徴を考慮し,首藤リストの表現を次の5種類に分類した.\begin{enumerate}\item[(A)]$L^6$の機能表現集合に含まれる\item[(B)]$L^6$の機能表現集合には含まれないが,$L^7$の機能表現集合に含まれる\item[(C)]複数の$L^7$の機能表現から構成されている\item[(D)]機能表現辞書に含まれていない\item[(E)]機能表現ではない\end{enumerate}分類手順は,次のとおりである.\begin{enumerate}\item首藤リストから,$L^6$の機能表現と文字列が完全に一致するものをすべて抽出する(上記の(A)に相当)\item残ったリストから,$L^7$の機能表現と文字列が完全に一致するものをすべて抽出する(上記の(B)に相当)\item残ったリストの表現を,次の3つのいずれかに人手で分類する\begin{enumerate}\item[(i)]複数の$L^7$の機能表現から構成されている(上記の(C)に相当)\item[(ii)]機能表現ではない(上記の(E)に相当)\item[(iii)]それ以外(上記の(D)に相当)\end{enumerate}\end{enumerate}分類結果を表\ref{tab:compare}に示す.首藤リストの表現のうち,(A),(B),(C)の表現は,機能表現辞書が被覆していると言える.一方,(E)の表現は,われわれは,機能表現とはみなさないので,比較対象から除外すべきである.よって,首藤リストに対する,機能表現辞書の被覆率を,次の式で算出する.\begin{eqnarray}\mbox{被覆率(\%)}=\frac{({\rmA})+({\rmB})+({\rmC})}{({\rmA})+({\rmB})+({\rmC})+({\rmD})}\times100\nonumber\end{eqnarray}表\ref{tab:compare}の値を用いて計算すると,これは,84\%(530/630)であった.残りの16\%を占める(D)の表現はすべて,「にもとづいて」や「とひかくして」など,機能表現であるかどうかの判断が難しいものであった\footnote{これらの多くは,定型的な英訳(例えば,「にもとづいて」は``basedon'',「とひかくして」は``comparedto'')を持つ.後続処理に機械翻訳を想定した場合,解析システムの辞書にこれらの表現を登録すると都合がよい.比較に利用した首藤リストは,このような考え方に基づいて作成された可能性が高いと思われる.}.3表現を除いて,これらの表現は,もし階層構造へ挿入するならば,その挿入に,新しい$L^1$の機能表現ノードを作る必要がある表現であった.それゆえ,機能表現辞書は,既存の機能表現リストに含まれる異形をほとんどすべて収録していると言うことができる.\begin{table}[b]\input{05t15.txt}\end{table}
\section{関連研究}
言語学,日本語教育学,自然言語処理の3つの分野における,機能表現(特に,複合辞)の扱いについて述べる.\subsection{言語学(日本語学)}複合辞というとらえ方を初めて提唱したのは,国立国語研究所の資料\shortcite{hukugouzi}によると,永野\shortcite{Nagano1953}である.永野は,語源的・構造的にはさらにいくつかの語に分解できるが,単なる部分の合成以上の「一まとまりの意味を持っているものと見てよい」連語形式の助詞相当表現の存在を指摘し,これを複合助詞と呼んだ.そして,同様の基準で複合助動詞,複合感動詞,複合接続詞についても考え,複合助詞とこれらを合わせて,複合辞と呼んだ.森田ら\shortcite{Morita1989}は,複合辞に関する大量の用例を収集し,数百の複合辞の意味と用法について詳細に分析している.また,この研究を受け,国立国語研究所は,代表的な複合辞を選定し,それらの用例集を作成した\shortcite{hukugouzi}.言語学においては,現在も,複合辞の研究が活発に続けられている\shortcite{Fujita2006}.\subsection{日本語教育学}日本語教育学において,複合辞は,文法項目として重要視されている.例えば,日本語能力試験1,2級の文法問題を解くためには,さまざまな種類の複合辞について正しく理解している必要がある\shortcite{nouryoku}.そして,この理解を助けるために,日本語学習者のための,日本語文法の辞典は,複合辞を見出しに立て,それらについて詳しく解説していることが多い\shortcite{Makino1986,Makino1995,Jamasi1998}.\subsection{自然言語処理}自然言語処理において,複合辞は,それらを一まとまりの意味の塊として扱う必要があることから,特に,機械翻訳において重要視されてきた.首藤ら\shortcite{Shudo1980a,Shudo1980b}は,機械翻訳への入力とするために,概念を表す内容語と機能的な付属語列からなる拡張文節という考え方を導入し,そこで機能語に相当する1単位として複合辞を扱っている.現在,彼らは,日本語において,2500の機能表現を収集し,それらを意味に基づいて分類している\shortcite{Shudo2004}.しかしながら,異形についての大規模な整理は行なわれておらず,彼らの辞書は,五十音順以外に特別な構造を持っていないようである.EDR日本語単語辞書\shortcite{EDR_2}には,助詞相当語82表現,助動詞相当語49表現が登録されているが,異形に関する情報は記載されていない.兵藤ら\shortcite{Hyodo2000}は,2つの層を持つ日本語機能表現の辞書を提案している.第一の層には,375の項目があり,これらの項目から,第二の層において,自動的に13,882の可能な出現形が生成される.この辞書は,表現のある部分に対して交換可能な文字列を列挙しているだけであり,2つの異なる表現間の関係についての情報を何も提供しない.これらの辞書が機能表現の異形を適切に扱っていないのに対して,われわれの辞書は,階層構造に基づいて機能表現の異形を整理しており,2つの表現間の関係について,「音韻的異形」や「表記のゆれ」といった情報を提供することができる.日本語話し言葉コーパスにおいては,助詞相当句29表現と助動詞相当句37表現が,長単位の見出し語として扱われている\shortcite{csjMORPH}.それらの表現は,丁寧形や異形態などの観点から,前者は80,後者は92の表現に細分されている.土屋ら\shortcite{Tsuchiya2006a}は,複合辞の用例データベースを作成するにあたり,「現代語複合辞用例集」\shortcite{hukugouzi}に記載されている複合辞123項目(見出し語に相当)に対して異形を展開し,細分した337小項目の表現を用例収集の対象としている.彼らは,助詞の交替や文体などの観点から異形を分類し,それぞれの小項目に対して8文字のIDを付与している.これらの研究の機能表現リストは,小規模なものである.一方,われわれの辞書は,見出し語で341,出現形で16,771の機能表現を分類整理している.
\section{おわりに}
本論文では,われわれが作成した,自然言語処理のための日本語機能表現辞書について報告した.この辞書は,機能表現のさまざまな異形を扱うために,見出し体系として,9つの階層からなる階層構造を持つ.現在,この辞書には,341の見出し語と16,771の出現形が収録されている.既存の機能表現リストと比較した結果,各々の見出し語に対して,ほぼすべての異形が網羅されていることが分かった.われわれの機能表現辞書は,日本語文の解析,生成,言い換えなど,さまざまな自然言語処理タスクにおいて利用することができる.例えば,この辞書はほとんどすべての異形を収録しているので,機能表現解析システムの検出被覆率の向上に役立つ.また,辞書中のすべての機能表現が意味カテゴリーの情報を持つので,この辞書を利用することにより,機能表現を類義表現に言い換えるシステムを容易に構築することができると思われる.機能表現辞書を用いた応用システムの性能からこの辞書を評価することは,今後の課題である.\bibliographystyle{jnlpbbl_1.3}\newcommand{\optsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA高橋\JBA松本}{浅原\Jetal}{2005}]{asahara2005}浅原正幸\JBA高橋由梨加\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ異表記同語情報を付与した辞書の整備\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\604--607}.\bibitem[\protect\BCAY{遠藤\JBA小林\JBA三井\JBA村木\JBA吉沢}{遠藤\Jetal}{2003}]{dosj}遠藤織枝\JBA小林賢次\JBA三井昭子\JBA村木新次郎\JBA吉沢靖\JEDS\\BBOP2003\BBCP.\newblock\Jem{使い方の分かる類語例解辞典新装版}.\newblock小学館.\bibitem[\protect\BCAY{藤田\JBA山崎}{藤田\JBA山崎}{2006}]{Fujita2006}藤田保幸\JBA山崎誠\JEDS\\BBOP2006\BBCP.\newblock\Jem{複合辞研究の現在}.\newblock和泉書院.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{橋本\JBA佐藤\JBA宇津呂}{橋本\Jetal}{2006a}]{Hashimoto2006a}橋本力\JBA佐藤理史\JBA宇津呂武仁\BBOP2006a\BBCP.\newblock\JBOQ自動検出のための慣用句の分類と語彙的情報\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\825--828}.\bibitem[\protect\BCAY{橋本\JBA佐藤\JBA宇津呂}{橋本\Jetal}{2006b}]{Hashimoto2006b}橋本力\JBA佐藤理史\JBA宇津呂武仁\BBOP2006b\BBCP.\newblock\JBOQ依存構造照合に基づく慣用句自動検出\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\829--832}.\bibitem[\protect\BCAY{兵藤\JBA村上\JBA池田}{兵藤\Jetal}{2000}]{Hyodo2000}兵藤安昭\JBA村上裕\JBA池田尚志\BBOP2000\BBCP.\newblock\JBOQ文節解析のための長単位機能語辞書\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\mbox{\BPGS\407--410}.\bibitem[\protect\BCAY{国際交流基金\JBA財団法人日本国際教育協会}{国際交流基金\JBA財団法人日本国際教育協会}{2002}]{nouryoku}国際交流基金\JBA財団法人日本国際教育協会\JEDS\\BBOP2002\BBCP.\newblock\Jem{日本語能力試験出題基準【改訂版】}.\newblock凡人社.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2005}]{JUMAN}黒橋禎夫\JBA河原大輔\BBOP2005\BBCP.\newblock\JBOQ日本語形態素解析システムJUMANversion5.1\JBCQ\\newblock\texttt{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}.\bibitem[\protect\BCAY{Makino\BBA\Tsutsui.}{Makino\BBA\Tsutsui.}{1986}]{Makino1986}Makino,S.\BBACOMMA\\BBA\Tsutsui.,M.\BBOP1986\BBCP.\newblock{\BemADictionaryofBasicJapaneseGrammar}.\newblockTheJapanTimes.\bibitem[\protect\BCAY{Makino\BBA\Tsutsui.}{Makino\BBA\Tsutsui.}{1995}]{Makino1995}Makino,S.\BBACOMMA\\BBA\Tsutsui.,M.\BBOP1995\BBCP.\newblock{\BemADictionaryofIntermediateJapaneseGrammar}.\newblockTheJapanTimes.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{永野}{永野}{1953}]{Nagano1953}永野賢\BBOP1953\BBCP.\newblock\JBOQ表現文法の問題-複合辞の認定について-\JBCQ\\newblock金田一博士古稀記念論文集刊行会\JED,\Jem{金田一博士古稀記念言語民族論叢}.三省堂.\newblock「永野賢(1970).伝達論にもとづく日本語文法の研究.東京堂出版」に再録.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{2001}]{EDR_2}日本電子化辞書研究所\BBOP2001\BBCP.\newblock\JBOQEDR電子化辞書2.0版仕様説明書第2章日本語単語辞書\JBCQ.\bibitem[\protect\BCAY{沼田}{沼田}{1986}]{Numata1986}沼田善子\BBOP1986\BBCP.\newblock\JBOQとりたて詞\JBCQ\\newblock奥津敬一郎\JBA沼田善子\JBA杉本武\JEDS,\Jem{いわゆる日本語助詞の研究},2\JCH.凡人社.\bibitem[\protect\BCAY{小椋\JBA山口\JBA西川\JBA石塚\JBA木村}{小椋\Jetal}{2004}]{csjMORPH}小椋秀樹\JBA山口昌也\JBA西川賢哉\JBA石塚京子\JBA木村睦子\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』の形態論情報の概要ver.1.0}.\newblock国立国語研究所.\bibitem[\protect\BCAY{尾嶋\JBA佐藤\JBA宇津呂}{尾嶋\Jetal}{2006}]{Ojima2006}尾嶋憲治\JBA佐藤理史\JBA宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ日本語慣用句用例データベースの構築法\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\456--459}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2004}]{Sato2004jc}佐藤理史\BBOP2004\BBCP.\newblock\JBOQ異表記同語認定のための辞書編纂\JBCQ\\newblock\Jem{情報処理学会研究報告2004-NL-161},\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{首藤}{首藤}{1980}]{Shudo1980a}首藤公昭\BBOP1980\BBCP.\newblock\Jem{文節構造モデルによる日本語の機械処理に関する研究}.\newblock福岡大学研究所報第45号.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{Shudo1980b}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectof{Japanese}LanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe8thCOLING},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{Shudo2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQ{MWE}sasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\mbox{\BPGS\32--39}.\bibitem[\protect\BCAY{土屋\JBA宇津呂\JBA松吉\JBA佐藤\JBA中川}{土屋\Jetal}{2006}]{Tsuchiya2006a}土屋雅稔\JBA宇津呂武仁\JBA松吉俊\JBA佐藤理史\JBA中川聖一\BBOP2006\BBCP.\newblock\JBOQ日本語複合辞用例データベースの作成と分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1728--1741}.\bibitem[\protect\BCAY{山崎\JBA藤田}{山崎\JBA藤田}{2001}]{hukugouzi}山崎誠\JBA藤田保幸\JEDS\\BBOP2001\BBCP.\newblock\Jem{現代語複合辞用例集}.\newblock国立国語研究所.\end{thebibliography}\begin{biography}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2005年同大学院情報学研究科修士課程修了.現在,同大学院情報学研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻准教授.自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V14N04-01
|
\section{はじめに}
\label{intro}近年,自然言語処理の分野では,大規模な言語資源を利用した統計的手法が研究の中心となっている.特に,構文木付きコーパスは,統計的手法に基づく言語処理の高性能化のためだけでなく,言語学や言語処理研究の基本データとしても貴重な資源である.そのため,大規模な構文木付きコーパスの作成が必要となっている.しかし,大規模な構文木付きコーパスを全て人手により作成することは,多大なコストを必要とするため困難である.一方,現在の構文解析の精度では,構文木の付与を完全に自動化することが難しい.現実的には,構文解析器の出力から人手によって正しい構文木を選択し,それを文に付与することが望ましい.コーパス作成中には,文法や品詞体系の変更など,コーパス作成方針の変更により,コーパスへの修正が必要になることもあり,継続的な修正作業や不整合の除去などの機能を持った構文木付きコーパスの作成を支援するシステムが必要になる\cite{cunningham:2003:a}\cite{plaehn:2000:a}.このようなシステムの多くは,GUIツールを用いて,構文木付けをするコーパスのファイル形式や品詞ラベルの不整合を防ぐことにより,コーパス作成者を支援するのが主な機能である.しかし,それだけでは,正しい構文木付きコーパスの作成には,不十分であり,構文木の一貫性を保つための支援が必要となる.構文木の一貫性を保つための支援として,過去の事例を参照することは有効である.複数の構文木候補のうち,正しい木の選択を迷った場合に,すでに構文木を付与されたコーパス中から,作業中の構文木と類似した部分を持つ構文木を参照できれば,正しい構文木付けが容易になり,一貫性を保つための支援ができる.このためには,構文木付きコーパスを検索対象とし,木構造の検索が可能な構文木付きコーパス検索システムが必要となる.構文木付きコーパス検索システムは,木構造検索を行うことになるため,UNIXの文字列検索コマンド$grep$などの文字列検索よりも検索に時間を要することが多い.既存の構文木付きコーパス検索システム\cite{randall:2000:a,rohde:2001:a,konig:2003:a,bird:2004:a}においても,主な課題として,検索時間の高速化が挙げられているが,検索時間を高速化する優れた手法はまだ提案されていない.今後,コーパスの規模が更に大きくなると,検索時間の高速化は不可欠な技術となる.本論文では,高速な構文木付きコーパス検索手法を提案する.本論文で提案する検索手法は,構文木付きコーパスを関係データベースに格納し,検索にはSQLを用いる.部分木を検索のクエリとして与え,クエリと同じ構造を含む構文木を検索結果として出力する.クエリの節点数が多い場合,クエリを分割し,それぞれのクエリを別のSQL文で漸進的に検索する.クエリを分割すべきかどうか,分割するクエリの大きさや検索順序は,構文木付きコーパス中の規則の出現頻度を用いて自動的に決定する.6言語,7種類のコーパスを用いて評価実験を行い,4種類のコーパスにおいて,漸進的に検索を行う本手法により検索時間が短縮され,本手法の有効性を確認した.また,残りの3種類のコーパスにおいては,漸進的に検索を行わなくても多大な検索時間を要しないことを本手法で判定することができた.そして,クエリの分割が検索時間の短縮に効果があった4種類のコーパスと分割の効果がなかった3種類のコーパスの違いについて,コーパスに含まれる文数,ラベルの頻度,節点の平均分岐数の観点から考察を行い,節点の平均分岐数がその一因であることを確認した.
\section{構文木付きコーパスのデータベース化}
\label{database}構文木をデータベース化する手法として,XML文書を関係データベースを用いてデータベース化する吉川らの手法を適用した\cite{yoshikawa:1999:a}.吉川らの手法は,クエリとしてXPathを用い,XML文書を関係データベースに格納する.XPathとは,W3Cにより勧告されたXML文書中の特定の構文を表現する記述方法である.XML文書を検索する場合,クエリであるXPathをSQL文に変換し,クエリを含むXML文書を検索する.吉川らの手法の大きな特徴は,検索が高速である点である.その理由は,XML文書の木構造の各節点を出現位置という2つの数字で表現し,その大小関係により,節点の親子関係や兄弟関係を表現する点にある.本手法では,構文木の構造をXML文書の構文構造に対応させ,データベース化を行った.\subsection{出現位置}構文木をデータベースに格納するにあたり,構文木中の各節点対して,出現位置と呼ばれる節点間の関係を計算するための2つの数字を与える.出現位置は,({\itleft\_position},{\itright\_position})の対で表現され,次のアルゴリズムにより決定する.\begin{itemize}\item葉\\左端からN番目の葉に対する出現位置は,(N,N)という整数値の対を与える.\item葉以外の節点\\変数{\itposition}を1以下の微小値$\alpha$で初期化する.根から深さ優先探索で辿り,節点を辿るときに$\alpha$を{\itposition}に加算し,葉を辿るきに葉の{\itleft\_position}または{\itright\_position}の値を代入する.節点を最初に通過するとき変数{\itposition}の値を{\itleft\_position}として,最後に通過するときに{\itright\_position}として決定する.ただし,$\alpha$は,木の最大の深さの逆数よりも小さい値でなければならない.\end{itemize}このアルゴリズムで決定した出現位置の例を\figurename\ref{fig:tree-yoshikawa}に示す.また,このように各節点に出現位置を与えることで,\figurename\ref{fig:yoshikawa-hougan}のように節点間の関係を出現位置の大小関係で表現することができる.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f1.eps}\caption{出現位置の例}\label{fig:tree-yoshikawa}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f2.eps}\caption{包含関係と先行関係}\label{fig:yoshikawa-hougan}\end{center}\end{figure}\subsection{関係データベースへの格納}前節で計算した出現位置とともに各節点の情報を関係データベースに格納する.データベースは,{\itNodeTable},{\itDocumentTable},{\itLabelTable}の3つのテーブルにより構成される.テーブルの例をそれぞれ表\ref{tbl:node},\ref{tbl:doc},\ref{tbl:label}に示す.{\itNodeTable}は,構文木を構成する各節点に関する情報を格納する.各項目は,{\itID}が節点固有の値,{\itparentID}が節点の親の{\itID},{\itdocID}が節点を含む構文木の{\itID},{\itlabelID}が節点のラベルの{\itID},{\itnextSibID}が節点の右隣の兄弟の{\itID},{\itl\_pos,r\_pos}が節点の出現位置を表す.{\itDocumentTable}は,構文木が記述されているファイルに関する情報を格納する.各項目は,{\itdocID}が構文木固有の値,{\itfile}が構文木が記述されているファイル名を表す.{\itLabelTable}は,コーパスに含まれる記号,単語に関する情報を格納する.各項目は,{\itlabelID}がラベル固有の値,{\itlabel}がラベル名,{\itfrequency}がコーパスにおけるラベルの頻度を表す.\begin{table}[t]\caption{NodeTable}\input{table1.txt}\end{table}\begin{table}[t]\input{table2-3.txt}\end{table}
\section{構文木付きコーパスの検索手法}
\label{retieve}\subsection{クエリの定義}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f3.eps}\caption{完全一致,部分一致の例}\label{fig:query}\end{center}\end{figure}前節では,構文木付きコーパスを関係データベースに格納する方法について述べた.本手法では,木構造をクエリとし,クエリを部分木として含む文を検索する.まず,クエリの例を\figurename\ref{fig:query}に示す.図中の``$\ast$''は,任意のラベルを意味する.さらに,クエリを部分木として含むかどうかの判定方法として,完全一致と部分一致の二種類を用意した.完全一致は,クエリの各節点の分岐数とコーパス内の対応する節点の分岐数が一致しなければならない.一方,部分一致は,この分岐数が必ずしも一致する必要がない.例えば,\figurename\ref{fig:query}において,完全一致で検索した場合,(a)の木は,各節点の分岐数,ラベルが一致するためにクエリと一致すると見なす.一方,(b)の木は,分岐数が異なるため,クエリと一致すると見なさない.しかし,部分一致で検索した場合,節点の分岐数は一致する必要がないため,両方の木がクエリと一致すると見なす.\subsection{構文木をクエリとした検索手法}本手法は,吉川らの手法と同様に検索を行うためにクエリである部分木を関係データベースのデータの操作,定義,検索などを行う言語SQLの文へ変換する.そして,変換したSQL文により該当した構文木をデータベース内から検索し,クエリを部分木として含む構文木を得る.クエリとそのクエリに対応するSQL文を\figurename\ref{fig:sql}に示す.\figurename\ref{fig:sql}中のSQL文のwhere構文以降が各節点の条件式となっている.システムは,条件を満たす節点をデータベース内を検索し,すべての条件を満たす節点をもつ構文木を出力する.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f4.eps}\caption{クエリとそのSQL文の例}\label{fig:sql}\end{center}\vspace{-1.3\baselineskip}\end{figure}\subsection{予備実験}吉川らは,シュークスピアの戯曲をJonBosakがタグ付けしたXML文書\cite{bosak:1999:a}を用いた評価実験により,検索手法が高速であることを示した\cite{yoshikawa:1999:a}.そこで,吉川の手法を構文木付きコーパスに適用し,予備実験を行った.検索対象のコーパスとして,PennTreebankCorpus(48,884文)\cite{marcus:1994:a}を用いた.クエリは,PennTreebankCorpusからランダムに4文を抽出した.そして,4文から節点数が2から20の抽出可能なすべての部分木をクエリとして,部分一致により検索を行った.その結果を\tablename\ref{tbl:yobi},\figurename\ref{fig:yobi}に示す.\begin{table}[t]\input{table4.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f5.eps}\caption{予備実験結果}\label{fig:yobi}\end{center}\end{figure}実験結果より,クエリの節点数が7から12の間は,高速に検索を行っているが,節点数が7以下,12以上の場合,検索時間が非常に増加している.クエリの節点数が7以下の場合,クエリに一致する文が非常に多いために検索に時間を要とすると考えられる.一方,クエリの節点数が12以上の場合は,クエリと一致する文かどうかの判定,つまりSQL文の条件判定に検索時間を要していると考えられる.検索条件が多ければ,条件判定を行う処理が多くなり検索に時間を要する.吉川らが評価実験を行ったXML文書は,DTD(DocumentTypeDefinition)により,節点のラベルや構造があらかじめ定義されている.構文木付きコーパスにおいては,文脈自由文法がDTDに相当する.XML文書は,少ないDTDの規則で簡潔な構造を定義している場合が多く,文書間での大きな構造の違いは少ない.そのため,SQL文の条件は多くなりにくい.一方,構文木付きコーパスは,数千の規則を用いて文法を定義し,文によって様々な木構造が付与されている.そのため,XML文書よりもSQL文の条件が多くなる可能性が高く,検索時間が増加するケースが多くなることが予想できる.関係データベースの検索速度は,関係データベースシステムの種類,格納するデータ,検索に要するSQL文に依存する.関係データベースを構築する際,技術者が格納するデータをみて関係データベースシステムを選んだり,生成するSQL文の条件部分の優先度などの調整を経験的に行い,検索の効率化をはかることが多い.クエリの節点数が多くなると変換したSQL文の条件部分が多くなり,条件を満たすデータの検出時間がかかる.そのため,検索時間が大幅にかかるようになる.このような場合,人手により条件の記述順序の変更などにより,チューニングを行う.しかし,構文付きコーパスは,言語や対象文書の違いなど様々なコーパスが存在する.コーパスそれぞれを人手でチューニングすることは困難である.そのため,自動的に検索速度をチューニングする手法が必要である.\subsection{漸進的検索}\label{retrieve:separate}予備実験の結果から,クエリの節点数が7から12の間は,高速に検索が可能であることがわかった.例えば,節点数16のクエリの平均検索時間は,0.56秒である.それに対して,節点数8のクエリの平均時間は,0.09秒である.もし,節点数16のクエリを節点数8のクエリ2つに分割し検索できれば,検索を高速化することが可能である.本手法では,クエリをSQL一文で検索するのではなく,複数のSQL文に分割し,SQL一文に要する検索時間を短くすることで高速化を行う.また,単一のSQL文により効率よく絞り込みが行うことができるように,コーパス内のラベルの頻度をもとにクエリの分割方法を決定する.\subsubsection{検索単位}クエリの節点数が多い場合には,クエリを複数のクエリに分割し,漸進的に検索を行う手法を提案する.本論文では,分割されたクエリを検索単位,効率的に検索可能なクエリの節点数の最大値を最大検索単位節点数と定義する.コーパスが与えられたとき,コーパスから最大検索単位節点数を計算し,ノード数が多いクエリは最大検索単位節点数をもとに分割して,漸進的に検索を行う.まず,コーパスから,節点数2から31\footnote{節点数が31までなのは,実験で用いた関係データベースシステムのSQL文は,クエリとして最大31ノードまでしか制約をかけることができないためである}のクエリ(部分木)各50個をランダムに抽出する.そして,各節点数ごとに平均検索時間を算出する.そのデータから,以下の2つの条件を満たす最大値$i$を最大検索単位ノード数とする.\begin{itemize}\item節点数$i-n+1$から$i$の間のクエリの平均検索時間が$t$以下\item節点数$i+1$から$i+n$の間のクエリの平均検索時間が$t$以上\end{itemize}$n$と$t$は,最大検索単位節点数を決定する際のパラメータである.$n$は,正の整数,$t$は,秒数である.例えば,$n$を3,$t$を0.5(秒)をした場合,\figurename\ref{fig:decograph}の予備実験結果では,節点数13,14,15において平均検索時間が$t$を下回り,節点数16,17,18において平均検索時間が$t$を上回っている.このとき,最大検索単位節点数は,15となる.\begin{figure}[b]\begin{center}\includegraphics{14-4ia1f6.eps}\caption{最大検索単位節点数決定例}\label{fig:decograph}\end{center}\end{figure}\subsubsection{クエリの分割}前節で,コーパスに最適化された検索単位の節点数を決定する手法について述べた.しかし,クエリの分割方法,分割されたクエリの検索順序によって,検索時間は大きく変わる.もし,最初に検索する検索単位の出力数が少なければ,次に絞り込む検索範囲が狭まり,検索を効率よく行うことができる.つまり,絞り込みが早く行われるように分割や順序を決定することが望ましい.コーパス中の節点や文脈自由規則の頻度をもとにクエリの検索単位への分割,検索単位の検索順序を決定する.クエリの分割アルゴリズムを以下に示す.検索単位の検索順序は,分割された順である.\newlength{\StepW}\settowidth{\StepW}{Step9\quad}\hangafter=1\hangindent=\StepW\noindentStep1\quadクエリに含まれる節点のラベルのコーパス内での出現頻度を計算する.\hangafter=1\hangindent=\StepW\noindentStep2\quadクエリ内の最小頻度の節点を検索単位$U_0$とする.\hangafter=1\hangindent=\StepW\noindentStep3\quad$i=1$\hangafter=1\hangindent=\StepW\noindentStep3\quad検索単位$U_{i-1}$に含まれる節点に近接する最小頻度のラベルの節点で初期化する.\hangafter=1\hangindent=\StepW\noindentStep4\quad検索単位$U_{i}$に含まれる節点を持ち,検索単位$U_i$に加えても最大検索単位節点数を越えない部分木があれば,根の頻度が最小である部分木の節点を検索単位$U_i$へ追加する.\hangafter=1\hangindent=\StepW\noindentStep5\quadもし,Step4において,部分木を加えられたのであれば,Step4へ.そうでなければ,Step6へ.\hangafter=1\hangindent=\StepW\noindentStep6\quad$i=i+1$.クエリをすべて分割したならば,Step7へ.そうでなければ,Step3へ.\hangafter=1\hangindent=\StepW\noindentStep7\quad各検索単位をSQL文へ変換.クエリ分割方法を例を用いて説明する.クエリとして,\figurename\ref{fig:divide}の(1)が与えられ,最大検索単位節点数が5であると仮定する.まず,クエリに含まれる節点のラベルの出現頻度を計算する.その中で,最も出現頻度が低い``join''(出現頻度50)を検索単位$U_0$に加える.次に,節点(``join'')を含む部分木の中で,最も出現頻度が低い``VP''を根とする部分木(出現頻度179,161)の節点を加えることを考える.しかし,この部分木の節点を加えると最大検索単位節点数を越えるため$U_0$には加えない.(\figurename\ref{fig:divide}の(2))次に,新たな検索単位$U_1$を$U_0$に含まれる節点と隣接する節点のうち最小頻度である節点(``VP'')初期化する.そして,``VP''を含む部分木を$U_1$に加えることを考える.``VP''を根とする部分木の節点を加えた場合,$U_1$の節点は,``VP'',``NP'',``PP-CLR'',``NP-TMP''の4つとなり,最大検索単位節点数を越えない.そのため,これらの節点を$U_1$に追加する.さらに,$U_1$に``VP''を根とする部分木の節点を加えることを試みるが最大検索単位節点数を越えるために加えられない.(\figurename\ref{fig:divide}の(3))そして,新たな検索単位$U_2$を構築を始める.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f7.eps}\caption{クエリ分割の例}\label{fig:divide}\end{center}\end{figure}最終的に,\figurename\ref{fig:divide}の(4)のように,クエリは3つの検索単位$U_0$,$U_1$,$U_2$に分割される.そして,それぞれの検索単位をSQL文へ変換し,検索を行う.そして,最初に決定した検索単位$U_0$により検索を行い,その結果に対して検索単位$U_1$により絞り込みを行う.絞り込みは,検索単位の初期化に利用した隣接する節点を次の検索単位のSQL文内の条件式として追加する.つまり,直前に利用したSQL文で次の検索単位に隣接する節点のIDを獲得し,その条件を次の検索単位のSQL文の条件として加える.例では,$U_1$に対応するSQL文の節点``n4''に関する条件式,$U_2$に対応するSQL文の節点``n3''に関する条件式が追加される条件式である.(\figurename\ref{fig:divide}の(5))
\section{評価実験}
クエリ分割による検索の有効性を確認するために,7つの構文木付きコーパスを用いて,評価実験を行った.評価実験に使用したコーパスは,PennTreebankCorpus\cite{marcus:1994:a},TIGERCorpus\cite{konig:2003:b},PennKoreanTreebank\cite{han:2002:a},FLORESTAsint\'{a}(c)tica\cite{afonso:2002:a},PennChineseTreebank\cite{xue:2002:a},東工大コーパス(RWC)\cite{noro:2004:a},東工大コーパス(EDR)\cite{noro:2002:a}である.各コーパスの諸元を\tablename\ref{tbl:corpora}に示す.\begin{table}[t]\input{table5.txt}\end{table}\begin{figure}[b]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f8.eps}\caption{PennTreebankCorpus:完全一致}\label{fig:penn-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f9.eps}\caption{PennTreebankCorpus:部分一致}\label{fig:penn-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f10.eps}\caption{TIGERCorpus:完全一致}\label{fig:tiger-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f11.eps}\caption{TIGERCorpus:部分一致}\label{fig:tiger-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f12.eps}\caption{PennKoreanTreebank:完全一致}\label{fig:korean-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f13.eps}\caption{PennKoreanTreebank:部分一致}\label{fig:korean-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f14.eps}\caption{FLORESTAsint$\acute{a}$(c)tica:完全一致}\label{fig:floresta-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f15.eps}\caption{FLORESTAsint$\acute{a}$(c)tica:部分一致}\label{fig:floresta-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f16.eps}\caption{PennChineseTreebank:完全一致}\label{fig:chinese-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f17.eps}\caption{PennChineseTreebank:部分一致}\label{fig:chinese-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f18.eps}\caption{東工大コーパス(RWC):完全一致}\label{fig:tit-rwc-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f19.eps}\caption{東工大コーパス(RWC):部分一致}\label{fig:tit-rwc-p}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f20.eps}\caption{東工大コーパス(EDR):完全一致}\label{fig:tit-edr-e}\end{center}\end{minipage}\hfill\begin{minipage}{0.47\hsize}\begin{center}\includegraphics{14-4ia1f21.eps}\caption{東工大コーパス(EDR):部分一致}\label{fig:tit-edr-p}\end{center}\end{minipage}\end{figure}評価実験では,最大検索単位節点数を決定するパラメータ$t$を0.5(秒),$n$を3とし,最大検索単位節点数を計算した.クエリは,コーパスからランダムに抽出した部分木を用い,節点数1から31までの各50個を用いた.検索方法としては,完全一致と部分一致の2種類を行った.各コーパスにおける評価実験結果を\figurename\ref{fig:penn-e}から\figurename\ref{fig:tit-edr-p}に示す.PennTreebankCorpus,TIGERCorpus,PennKoreanTreebankCorpus,FLORESTsint\'{a}(c)ticaの4つコーパスにおいては,完全一致による検索では節点数16以上,部分一致による検索では節点数11から13以上のクエリに対して,クエリの分割を行わずに検索を行った場合,急激に検索時間が増大することがわかる.一方,クエリを検索単位に分割することで高速に検索が行うことができた.また,対照的にPennChineseTreebankCorpus,東工大コーパス(RWC),東工大コーパス(EDR)では,完全一致と部分一致ともに許容検索時間を越えることがなく,最大検索単位節点数は最大の31と計算された.これら3つのコーパスにおいては,クエリの分割を行う必要がなかった.
\section{考察}
\label{discussion}評価実験で用いたコーパスは,大きく分けて2つに分類できる.1つは,分割せずに検索した場合,クエリを構成する節点数が増えると検索時間が非常に遅くなるものである.このタイプのコーパスは,PennTreebankCorpus,TIGERCorpus,PennKoreanTreebankCorpus,FLORESTsint\'{a}(c)ticaが当てはまる.もう1つは,クエリの節点数が増えても検索時間に影響を与えないものである.このタイプのコーパスとして,PennChineseTreebankCorpus,東工大コーパス(RWC),東工大コーパス(EDR)が当てはまる.このような違いが,コーパスのどの特徴と関連しているのか,コーパスの以下の特徴に着目し考察した.\begin{itemize}\itemコーパスの文数\itemラベルの頻度\item節点の平均分岐数\end{itemize}\subsection{コーパスの文数}コーパスの文数が検索時間に影響を与えることが考えられる.つまり,文数が多ければ検索に時間がかかり,少なければ時間がかからないはずである.しかし,\tablename\ref{tbl:corpora}からわかるようにPennKoreanTreebankCorpus(5,083文),FLORESTsint\'{a}(c)tica(8,307文)は,比較的コーパスに含まれる文数が少ないが,クエリの節点数が増加するとともに検索時間が大幅に増加している.また,PennChineseTreebank(15,168文)は文数が多いにも関わらず,節点数が増加しても検索時間は増加していない.さらにPennTreebankCorpusの文数を1,000文,5,000文,11,976文,48,884文と変化させ,検索時間の変化を調べた.クエリなどの実験環境は,評価実験で用いたものと同じである.その結果を\figurename\ref{fig:size}に示す.この結果からコーパスに含まれる文数が減少しても,節点数が増加するとともに検索時間が増大していることがわかった.つまり,コーパスの文数と検索時間増大の間には,関連性は低いものと考えられる.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f22.eps}\caption{コーパスの文数と検索時間}\label{fig:size}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f23.eps}\caption{ラベルなしクエリによる実験結果}\label{fig:label}\end{center}\end{figure}\subsection{ラベルの頻度}クエリ内のラベルが検索時間に影響を与えることが考えられる.例えば,クエリに含まれるラベルが非常に稀にしか出現しないラベルであれば,非常に早く検索することができるはずである.しかし,\tablename\ref{tbl:corpora}からわかるように,PennTreebankCorpusはラベル(非終端記号)の異なり数が多いが検索時間が急激に増加している.一方,東工大コーパス(RWC)はラベルの異なりが少ないが,検索時間が増大していない.PennTreebankCorpus,東工大コーパス(RWC)を用いて,ラベルを``$\ast$''で置き換えたクエリを用いて,実験を行った.クエリは,評価実験を行ったときと同一である.その結果を\figurename\ref{fig:label}に示す.ラベルの情報がなくなったため,双方ともに評価実験よりも検索時間を要しているが,節点数と検索時間との関係に変化はなかった.ラベルの頻度と検索時間の増大は関連性が低いと考えられる.\begin{figure}[t]\begin{center}\includegraphics{14-4ia1f24.eps}\caption{節点の平均分岐数}\label{fig:branch}\end{center}\end{figure}\subsection{節点の平均分岐数}次に,コーパスの特徴として節点の平均分岐数に注目した.分岐数が多くなれば,構文木は複雑になり,検索に時間を要することが考えられる.そこで,全てのコーパスについて,それぞれの節点の平均分岐数を調べた.その結果を\figurename\ref{fig:branch}に示す.この結果から確かに検索時間が増大する傾向にあるコーパスは,平均子供数が比較的大きいことがわかる.しかし,PennKoreanTreebankとPennChineseTreebankの差はあまりなく,平均分岐数が決定的な原因であるとは考えがたい.だが,コーパス内の文の構造の複雑さが一因である可能性は確認できる.
\section{まとめ}
本論文では,構文木付きコーパスを高速に構造検索する手法を提案した.構文木付きコーパスのデータベース化は,木構造を持つXML文書を格納・検索する手法を用い,部分木で表現されたクエリをSQL文に変換して検索を行う.節点数の多いクエリに対する検索時間が増大するという問題を解決するために,クエリを分割し,漸進的に検索する手法を提案した.クエリの分割は,まずコーパスから最大検索単位節点数を計算し,最大検索単位節点数をもとに,効率的に検索できるようクエリを分割し,検索を行う.評価実験では,7つのコーパス中の4つに対して,クエリを分割せずに検索する手法よりも効率的に検索を行うことができることを示した.また,評価実験で用いたコーパスには,クエリの節点数が増加すると検索時間が非常に遅くなるものと,そうでないものの2種類が存在した.その違いの要因が,コーパスに含まれる構文構造の複雑さに起因するものであることについて考察した.今後の課題として,次のようなものがあげられる.\begin{itemize}\item節点が少ないクエリに対する検索の高速化\item検索時間とコーパスに含まれる構文構造の複雑さとの関連性の解明\itemコーパス作成支援システムへの応用\end{itemize}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Afonso,Bick,Haber,\BBA\Santos}{Afonsoet~al.}{2002}]{afonso:2002:a}Afonso,S.,Bick,E.,Haber,R.,\BBA\Santos,D.\BBOP2002\BBCP.\newblock\BBOQ``Florestasint\'{a}(c)tica'':atreebankforPortuguese\BBCQ\\newblockIn{\BemProceedingsof{LREC}2002},\mbox{\BPGS\1698--1703}.\bibitem[\protect\BCAY{Bird,Chen,Davidson,Lee,\BBA\Zheng}{Birdet~al.}{2004}]{bird:2004:a}Bird,S.,Chen,Y.,Davidson,S.,Lee,H.,\BBA\Zheng,Y.\BBOP2004\BBCP.\newblock\BBOQExtending{XPath}toSupportLinguisticQueries\BBCQ\\newblockIn{\Bem{UWA}LanguageScienceGroup2004Program---SymposiumonSpeechandLanguageTechnology}.\bibitem[\protect\BCAY{Bosak}{Bosak}{1999}]{bosak:1999:a}Bosak,J.\BBOP1999\BBCP.\newblock{\BemThePlaysofShakespearein{XML}}.\bibitem[\protect\BCAY{Cunningham,Tablan,Bontcheva,\BBA\Dimitrov}{Cunninghamet~al.}{2003}]{cunningham:2003:a}Cunningham,H.,Tablan,V.,Bontcheva,K.,\BBA\Dimitrov,M.\BBOP2003\BBCP.\newblock\BBOQLanguageEngineeringToolsforCollaborativeCorpusAnnotation\BBCQ\\newblockIn{\BemProceedingsofCorpusLinguistics2003}.\bibitem[\protect\BCAY{hyeHan,Han,Ko,Yi,\BBA\Palmer}{hyeHanet~al.}{2002}]{han:2002:a}hyeHan,C.,Han,N.-R.,Ko,E.-S.,Yi,H.,\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQPennKoreanTreebank:DevelopmentandEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe{16th}PacificAsiaConferenceonLanguage,InformAtionandComputation}.\bibitem[\protect\BCAY{K{\"o}nig,Esther,Lezius,\BBA\Wolfgang}{K{\"o}niget~al.}{2003a}]{konig:2003:b}K{\"o}nig,Esther,Lezius,\BBA\Wolfgang\BBOP2003a\BBCP.\newblock\BBOQThe{TIGER}Language---ADescriptionLanguageforSyntaxGraphs,FormalDefinition\BBCQ\\newblock\BTR,Institutf{\"u}rMaschinelleSprachverarbeitung,UniversityofStuttgart.\bibitem[\protect\BCAY{K{\"o}nig,Esther,Lezius,Wolfgang,Voormann,\BBA\Holger}{K{\"o}niget~al.}{2003b}]{konig:2003:a}K{\"o}nig,Esther,Lezius,Wolfgang,Voormann,\BBA\Holger\BBOP2003b\BBCP.\newblock{\Bem{TIGERSearch}User'$s$Manual}.\bibitem[\protect\BCAY{Marcus,Kim,Marcinkiewicz,MacIntyre,Bies,Ferguson,Katz,\BBA\Schasberger}{Marcuset~al.}{1994}]{marcus:1994:a}Marcus,M.,Kim,G.,Marcinkiewicz,M.~A.,MacIntyre,R.,Bies,A.,Ferguson,M.,Katz,K.,\BBA\Schasberger,B.\BBOP1994\BBCP.\newblock\BBOQThePennTreebank:AnnotatingPredicateArgumentStructure\BBCQ\\newblockIn{\Bem{ARPA}'94}.\bibitem[\protect\BCAY{Noro,Hashimoto,Tokunaga,\BBA\Tanaka}{Noroet~al.}{2004}]{noro:2004:a}Noro,T.,Hashimoto,T.,Tokunaga,T.,\BBA\Tanaka,H.\BBOP2004\BBCP.\newblock\BBOQALarge-ScaleJapanese{CFG}DerivedfromaSyntacticalyAnnotatedCorpusandItsEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponTreebanksandLinguisticTheories},\mbox{\BPGS\115--126}.\bibitem[\protect\BCAY{Plaehn\BBA\Brants}{Plaehn\BBA\Brants}{2000}]{plaehn:2000:a}Plaehn,O.\BBACOMMA\\BBA\Brants,T.\BBOP2000\BBCP.\newblock\BBOQAnnotate---AnEfficientInteractiveAnnotationTool\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonAppliedNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Randall}{Randall}{2000}]{randall:2000:a}Randall,B.\BBOP2000\BBCP.\newblock{\Bem{CorpusSearch}User'sManual}.\bibitem[\protect\BCAY{Rohde}{Rohde}{2001}]{rohde:2001:a}Rohde,D.\BBOP2001\BBCP.\newblock{\Bem{Tgrep2}UserManual}.\bibitem[\protect\BCAY{Xue,Chiou,\BBA\Palmer}{Xueet~al.}{2002}]{xue:2002:a}Xue,N.,Chiou,F.-D.,\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQBuildingaLarge-ScaleAnnotatedChineseCorpus\BBCQ\\newblockIn{\BemProceedingsof{COLING}2002}.\bibitem[\protect\BCAY{吉川正俊\JBA志村壮是\JBA植村俊亮}{吉川正俊\Jetal}{1999}]{yoshikawa:1999:a}吉川正俊\JBA志村壮是\JBA植村俊亮\BBOP1999\BBCP.\newblock\JBOQオブジェクト関係データベースを用いた{XML}文書の格納と検索\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(SIG6(TOD3)),\mbox{\BPGS\115--131}.\bibitem[\protect\BCAY{野呂智哉\JBA白井清昭\JBA徳永健伸\JBA田中穂積}{野呂智哉\Jetal}{2002}]{noro:2002:a}野呂智哉\JBA白井清昭\JBA徳永健伸\JBA田中穂積\BBOP2002\BBCP.\newblock\JBOQ大規模日本語文法の開発—事例研究\JBCQ\\newblock\Jem{情報処理学会研究報告{NL}-150},\mbox{\BPGS\149--156}.\end{thebibliography}\begin{biography}\bioauthor{橋本泰一(正会員){\unskip}}{1997年東京工業大学工学部情報工学科卒業.2002年同大学大学院情報理工学研究科博士課程修了.同年同大学大学院情報理工学研究科助手.現在,同大学統合研究院特任准教授.博士(工学).自然言語処理,知識情報処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{吉田恭介}{2003年東京工業大学工学部情報工学科卒業.2005年同大学大学院情報理工学研究科修士課程修了.}\bioauthor{野口正樹}{2004年東京工業大学工学部情報工学科卒業.2006年同大学大学院情報理工学研究科計算工学専攻修士課程修了.現在,同専攻博士課程に在学中.言語資源の検索・利用に関する研究を行っている.また,言語資源の構築や知的創造作業支援などにも興味を持っている.情報処理学会学生会員.}\bioauthor{徳永健伸(正会員){\unskip}}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科准教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\bioauthor{田中穂積(正会員){\unskip}}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,中京大学理工学部教授.工学博士.人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,言語処理学会,計量国語学会,AAAI,各会員.}\end{biography}\biodate\end{document}
| |
V13N01-01
|
\section{はじめに}
\label{はじめに}高精度の機械翻訳システムや言語横断検索システムを構築するためには,大規模な対訳辞書が必要である.特に,専門性の高い文書や時事性の高い文書を扱う場合には,専門用語や新語・造語に関する対訳辞書の有無が翻訳や検索の精度を大きく左右する.人手による対訳辞書の作成はコスト及び時間がかかる作業であり,できるだけ自動化されることが望ましい.このような課題に対処するため,対訳文書から対訳表現を自動的に抽出する手法が数多く提案されている.この中でも,文対応済みの対訳文書から共起頻度に基づいて統計的に対訳表現を自動抽出する手法は,精度が高く,対訳辞書を自動的に作成する方法として有効である\cite[など]{北村97,山本2001,佐藤2002,佐藤2003}.本稿では,その中の一つである\cite{北村97}の手法をベースにし,従来手法の利点である高い抽出精度を保ちつつ,抽出できる対訳表現のカバレッジを向上させるために行った種々の工夫について論じ,その有効性を実験で示す.\begin{description}\item[(A)]文節区切り情報や品詞情報の利用\item[(B)]対訳辞書の利用\item[(C)]複数候補の対訳表現が得られた場合の人手による確認・選択\item[(D)]多対多の対応数を考慮に入れた対応度評価式\item[(E)]対訳文書の分割による漸進的な抽出\end{description}\noindentの5点である.これらを用いることで実用的な対訳表現抽出を行うことができる.(A)は,文節区切り情報や品詞情報を利用することにより,構文的に有り得ない表現が抽出候補にならないようにする.文節区切り情報の有効性は,既存の研究\cite{Yamamoto-Matsumoto:2003}において確かめられているが,彼らは抽出の対象を自立語に限定している.提案手法では,各単語における文節内の位置情報と品詞情報を用いて抽出の対象を制限することで,自立語以外の語も抽出の対象とする.(B),(C)では,共起頻度に基づいた統計的な値のみでは対訳かどうかが判断できない場合,対訳辞書や人手を利用して対訳か否かを判断する手法である.過去の研究\cite{佐藤2003}では,対訳辞書は対訳文書から対訳関係にある単語ペアを見つけるための手がかりとして利用されることが多いが,本提案では,手がかりとするのではなく,統計的に抽出された対訳表現から適切な対訳表現だけを選り出すための材料として利用する.(D)では,原言語と目的言語の単語列間の対応関係の強さを示す尺度である{\bf対応度}の評価式を改良する.対応度の計算には,一般に重み付きDice係数やLog-Likelihoodなどの評価式が用いられるが,我々は従来手法\cite{北村97}の実験結果を分析した結果,Dice係数やLog-Likelihoodの評価式に対して,多対多の対応数を考慮した負の重み付けを行うことが効果的であると判断し,評価式を改良した.(E)は抽出時間に関する課題を解決する.従来手法では10,000文以上からなる対訳文書を抽出対象とする場合,原言語と目的言語単語列の組み合わせが多数生成されるという課題があった.提案手法ではその組み合わせ数を削減するために,対訳文書を一定の単位に分割し,抽出対象とする文書の単位を徐々に増やしていきながら抽出するという方法を採用する.対象とする対訳文を1,000文,2,000文,…,10,000文と徐々に増やす度に,抽出された対訳表現に関わる単語列を除去していく.その結果,対象の文が10,000文に達した時の単語列の組み合わせ数は,直接10,000文を対象にした場合の組み合わせ数より少なくなり,抽出時間を短縮させることができる.以下,\ref{従来}章では,従来手法\cite{北村97}における,原言語単語列と目的言語単語列間の対応度の計算方法と抽出アルゴリズムを説明する.\ref{提案}章では,本稿が提案する種々の工夫を採用した改良手法について述べる.\ref{実験}章では\ref{提案}章に述べた各手法の評価実験を報告し,その結果を考察する.\ref{関連研究}章では関連研究と比較し,\ref{まとめ}章でまとめる.
\section{従来手法}
\label{従来}\subsection{連続単語列間の対応度計算方法}\label{連続単語列間の対応度計算方法}原言語単語列$w_{o}$と目的言語単語列$w_{t}$の対応関係の強さを示す尺度として,対応度$sim(w_{o},w_{t})$を定義する.対応度は,原言語の単語列の出現回数,目的言語の単語列の出現回数,両者が同時に対訳文に同時に出現する回数で求められ,いくつかの計算方法が提案されている\cite{Matsumoto-Utsuro:2000}.従来手法では重み付きDice係数が用いられている.Dice係数はXとYの事象において,Xが発生する回数とYが発生する回数の和に対してXとYの事象が同時に出現する回数の割合で表す.さらに,同時出現回数の重みを与えたものを重み付きDice係数と呼び,これはXとYの相関関係だけでなく,出現回数も考慮に入れることができる.日本語単語列を$w_{J}$,英語単語列を$w_{E}$,$w_{J}$の日本語文書中の出現回数を$f_{j}$,$w_{E}$の英語文書中の出現回数を$f_{e}$とし,$w_{J}$と$w_{E}$が対訳文に同時に出現する回数を$f_{je}$とすると,重み付きDice係数を用いた対応度は,以下の式で定義される\cite{北村97}.\[sim(w_{J},w_{E})=(\log_{2}f_{je})\cdot\frac{2f_{je}}{f_{j}+f_{e}}\]\subsection{抽出アルゴリズム}\label{抽出アルゴリズム}従来手法の基本的な考え方は,原言語文書と目的言語文書から抽出される連続単語列集合の全ての組合せに対して,\ref{連続単語列間の対応度計算方法}節に述べた対応度を計算し,対応度の高い連続単語列ペアから順に対訳表現として抽出するという手法である.図\ref{基本アルゴリズム}の流れ図に従って,各処理を説明する\footnote{この手法で対象とする対訳文書は言語に依存しないが,以下では日本語と英語の対訳文書を対象にして説明する.}.\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure1.ps}\end{center}\caption{基本アルゴリズムの流れ図}\label{基本アルゴリズム}\end{figure}\vspace{5mm}\begin{description}\item[(1)形態素解析:]対訳文書$(E,J)$を構成する日本語文書及び英語文書中の各対訳文を形態素解析する.形態素解析された対訳文書$(E,J)$中の各対訳文を$(es,js)$とする.\item[(2)連続単語列の抽出:]各対訳文$(es,js)$に対して英語連続単語列集合$EWS$と日本語連続単語列集合$JWS$を抽出し,$(EWS,JWS)$を連続単語列データベースに登録する.ここでの連続単語列とは,連続単語列の構成単語数の最大値を$l_{max}$とした場合の$n\leql_{max}$の条件を満たす単語n-gramである.\ref{実験}節の実験では$l_{max}=10$を用いた.\item[(3)出現回数閾値設定:](4)から(6)の処理で抽出対象とする連続単語列の出現回数の最低値を閾値$Th$とし,その初期値である$f_{max}$を代入する.4節の実験では,$f_{max}$は,抽出された英語及び日本語連続単語列の出現回数の最高値の1/2の値に設定した.なお,(4)から(6)の処理は,対訳表現が抽出されなくなるまで閾値$Th$を変えずに繰り返される.対訳表現が抽出されなくなれば(7)で$Th$を下げ,再び(4)から(6)が繰り返される.\item[(4)出現回数の数え上げ:]上記(2)の全ての$(EWS,JWS)$に対して,閾値$Th$回以上出現する英語連続単語列($ews$とする)と日本語連続単語列($jws$とする)を抽出する.\item[(5)対応度の計算・対訳表現の抽出:](4)で抽出された全ての$ews$,$jws$に対して,\ref{連続単語列間の対応度計算方法}節の評価式にしたがって対応度を計算し,以下のa),b)の処理を行う.\begin{description}\item[a)]$ews$において最大の対応度をもつ$jws'$を探す.$jws$において最大の対応度をもつ$ews'$を探す.\item[b)]$ews$と$ews'$及び$jws$と$jws'$が同じで,かつ,$jws$と$ews$の対応度が\\$sim(jws,ews)\geq\log_{2}Th$の条件を満たすならば,連続単語列ペア$(ews,jws)$を対訳表現とみなして,対訳表現データベースに登録する.\end{description}b)の条件の右辺は評価式(ここでは$(\log_{2}f_{je})\cdot\frac{2f_{je}}{f_{j}+f_{e}}$)に$Th=f_{je}=f_{j}=f_{e}$を代入することにより求められる.出現回数が閾値$Th$の場合,対応度が最高となるのは$Th=f_{je}=f_{j}=f_{e}$の時である.したがって,出現回数が閾値$Th$より小さい場合,$Th=f_{je}=f_{j}=f_{e}$の時の対応度の最高値を超えることはない.この条件を課すことで,閾値$Th$を下げた次の段階で得られる対応度の最高値は,前段階で抽出される対訳表現の対応度の値を越えないことが保証される.\item[(6)連続単語列データベースにおける候補の削減:]以降の処理で新たな対訳表現を抽出候補としたいため,既に抽出した対訳表現,つまり,(5)で「対訳表現データベース」に登録された対訳表現$(ews,jws)$に関連する連続単語列を連続単語列データベースから削除する.削除の方法は,連続単語列データベース内の$(EWS,JWS)$に同時に出現する$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$($ews$と$ews$-$ex$が同一である場合も含む)と,$jws$と同一の部分をもつ日本語連続単語列$jws$-$ex$($jws$と$jws$-$ex$が同一である場合も含む)を$(EWS,JWS)$から削除する.$ews$でなく$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$を削除する理由は,$ews$-$ex$は$ews$を元にして抽出された連続単語列であるためである.$jws$-$ex$を削除する理由も同様である.(5)において対訳表現が抽出されたならば(4)の処理に戻る.抽出されなければ(7)に進む.\item[(7)閾値低下による候補拡大:]$Th>f_{min}$であれば閾値$Th$の値を1つ減らして(4)から(7)の処理を繰り返す.$Th=f_{min}$であれば処理を終了する.$f_{min}$は抽出対象とする連続単語列の最低出現回数であり,4節の実験では$f_{min}=2$又は$f_{min}=1$に設定した.\end{description}\vspace{5mm}\noindentこの手法の特徴は,連続単語列ペアの出現回数に対する閾値を設け,その閾値を満足する連続単語列ペアを対象にして対訳表現を抽出し,閾値を満足する連続単語列ペアがなくなれば,その閾値を徐々に下げていくという点にある.対応度と連続単語列ペアの出現回数は相関関係をもつように設定されているので,出現回数に対する閾値を設けて,その値を徐々に小さくしていくことで,対応度の高い連続単語列ペア,つまり確からしい連続単語列ペアから順に対訳表現を抽出することができる.また,閾値を下げていき,精度が保証されなくなる段階で,処理を終了することもできる.
\section{提案手法}
\label{提案}我々は\ref{従来}節の従来手法に対して,(A)文節区切り情報や品詞情報の利用,(B)対訳辞書の利用,(C)複数候補の対訳表現が得られた場合の人手による選択,(D)多対多の対応数を考慮に入れた対応度評価式,(E)対訳文書の分割による漸進的な抽出,の5つの改良を行った.これらを改良した提案手法の処理の流れ図を図\ref{提案アルゴリズム}に示す.ステップの番号のカッコ内の数字は,\ref{抽出アルゴリズム}の抽出アルゴリズムの各ステップの番号に対応している.図\ref{提案アルゴリズム}の四角の枠で囲まれたステップは,本提案で改良されたステップである.ステップ(1)-2では,形態素解析と同時に文節区切り処理を行い,ステップ(2)-1では,その結果を用いて文節を超えないように連続単語列を抽出する.ステップ(5)-1の対応度の計算では,改良された対応度の評価式を用いる.ステップ(1)-1,(5)-2,(5)-3-aは,辞書を参照する場合に適用されるステップである.辞書参照だけでなく,人手による確認も行う場合はステップ(5)-3-aではなく,ステップ(5)-3-bを用いる.対訳文書の分割による漸進的な抽出は,ステップ(1)-3で対象となる対訳文書をあらかじめ決められた単位に分割し,ステップ(7)-2で1単位ずつ追加することによって対象とする文書範囲を拡大していくという手法をとる.以下に,提案アルゴリズムの各処理を説明する.\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure2.ps}\end{center}\caption{対訳表現抽出方法の流れ図}\label{提案アルゴリズム}\end{figure}\vspace{5mm}\begin{description}\item[(1)-1対訳辞書の登録:]既存の対訳辞書を「対訳辞書データベース」に登録する.\item[(1)-2形態素解析・文節区切り解析:]対訳文書$(E,J)$を構成する日本語文書及び英語文書の各対訳文において形態素解析及び文節区切り解析\footnote{英語には「文節」という単位がないため,それに相当する単位を導入する.\ref{文節情報利用}節を参照のこと.}を行う.形態素解析及び文節区切り解析された各対訳文を$(es,js)$とする.\item[(1)-3対訳文書抽出対象の分割・設定:]対訳文書$(E,J)$を$n$個に分割し,\\$(E_{1},J_{1}),(E_{2},J_{2}),...,(E_{n},J_{n})$とする.現時点での分割文書番号$x$に$1$をセットする.\item[(2)-1連続単語列の抽出:]対訳文書$(E_{x},J_{x})$中の各対訳文$(es,js)$に対して,(1)-2の文節区切り解析結果を利用して,文節の境界を超えない範囲で英語単語列の集合$EWS$と日本語単語列の集合$JWS$を抽出する.各対訳文$(es,js)$における$(EWS,JWS)$を連続単語列データベースに追加する.\item[(2)-2連続単語列DBにおける候補の削減:]$x=1$であれば,(3)の処理に進む.\\$x>1$であれば,現時点で「対訳表現データベース」に登録されている対訳表現$(ews,jws)$に関連する連続単語列を連続単語列データベースから削除する.削除の方法は,連続単語列データベース内の$(ews,jws)$に同時に出現する$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$($ews$と$ews$-$ex$が同一である場合も含む)と,$jws$と同一の部分をもつ日本語連続単語列$jws$-$ex$($jws$と$jws$-$ex$が同一である場合も含む)を$(EWS,JWS)$から削除する.(これは,ステップ(6)と同じ処理である.)\item[(3)出現回数の閾値の設定:](4)から(6)の処理で抽出対象となる連続単語列の出現回数の最低値を閾値$Th$とし,その初期値$f_{max}$を代入する.\ref{実験}節の実験での$f_{max}$の値は\ref{抽出アルゴリズム}節の抽出アルゴリズムに準ずる.\item[(4)出現回数の数え上げ:]上記(2)-2の全ての$(EWS,JWS)$に対して,$Th$回以上出現する英語連続単語列($ews$とする)と日本語連続単語列($jws$とする)を抽出する.\item[(5)-1対応度の計算:]抽出された全ての$ews$,$jws$に対して,\ref{多対多評価式}節の計算方法にしたがって対応度を計算し,以下のa),b)の処理を行う.\begin{description}\item[a)]$ews$において最大の対応度をもつ$jws'$を探す.$jws$において最大の対応度をもつ$ews'$を探す.\item[b)]$ews$と$ews'$及び$jws$と$jws'$が同じであり,以下の条件を満たしており,かつ,連続単語列ペア$(ews,jws)$が「対訳表現除外データベース」に登録されていないならば,連続単語列ペア$(ews,jws)$を対訳表現候補とする.\\{\bf対応度にDice係数を用いる場合:}$sim(jws,ews)\leq\log_{2}Th${\bf対応度にLog-Likelihoodを用いる場合:}\[sim(jws,ews)\geqf_{all}\logf_{all}-(f_{all}-Th)\log(f_{all}-Th)-Th\logTh\]\end{description}上記の条件を課す理由は,\ref{従来}節の従来手法の抽出アルゴリズムの(5)と同じである.本処理は閾値$Th$において複数回繰り返されるが,閾値において1回目の処理であれば,(5)-2に進む.2回目以降の処理であれば,(5)-3-aまたは(5)-3-bに進む.\item[(5)-2対訳辞書参照による対訳表現の抽出(1回目の処理):](5)-1で候補とされた連続単語列ペア$(ews,jws)$において,$ews$を構成する英語自立語単語の集合と,$jws$を構成する日本語自立語単語の集合を取り出し,両集合間での組合せにおいて,少なくとも1つの組合せが「対訳辞書データベース」に登録されているならば,連続単語列ペア$(ews,jws)$を対訳表現と認定し「対訳表現データベース」に登録する.\item[(5)-3-a対訳表現の抽出(2回目以降の処理):](5)-1で候補とされた対訳表現候補$(ews,jws)$を全て対訳表現と認定し「対訳表現データベース」に登録する.\item[(5)-3-b人手による対訳表現の確認・選択(2回目以降の処理):](5)-1で候補とされた対訳表現候補を対訳表現候補$(ews,jws)$を対応度の高いものから順に並べ替える.それをファイルに格納し,そのファイルを作業者に提示する.作業者は各対訳表現候補を確認し,間違った対訳表現候補をファイルから削除する.全ての確認を終了し,ファイルが保存されると,ファイルに残された候補は「対訳表現データベース」に登録され,ファイルから削除された候補は「対訳表現除外データベース」に登録される.\item[(6)連続単語列DBにおける候補の削減:](5)-2,(5)-3-a,(5)-3-bで「対訳表現データベース」に登録された全ての対訳表現$(ews,jws)$に関連する連続単語列を連続単語列データベースから削除する.削除の方法は,連続単語列データベース内の$(EWS,JWS)$に同時に出現する$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$($ews$と$ews$-$ex$が同一である場合も含む)と,$jws$と同一の部分をもつ日本語連続単語列$jws$-$ex$($jws$と$jws$-$ex$が同一である場合も含む)を$(EWS,JWS)$から削除する.(5)において対訳表現が抽出されたならば(4)の処理に戻る.抽出されなければ,ステップ(7)-1に進む.\item[(7)-1閾値低下による候補の拡大:]$Th>f_{merge}$であれば,閾値$Th$の値を1つ下げ,(4)から(7)の処理を繰り返す.$Th>f_{merge}$でなければ,ステップ(7)-2に進む.$f_{merge}$は100\%の精度が得られる出現回数の最低値であり,\ref{実験}節の実験では予備実験の結果から$f_{merge}=3$に設定した.\item[(7)-2対訳文書対象範囲の拡大:]$x\neqn$,つまり,抽出対象が全対訳文書でないならば,$x$に$1$を加え,(2)から(7)の処理を繰り返す.一方,$x=n$かつ$Th>f_{min}$であれば,閾値の値を下げて(4)から(7)の処理を繰り返す.$x=n$かつ$Th=f_{min}$であれば,全処理を終了する.$f_{min}$は抽出対象とする連続単語列の最低出現回数であり,\ref{実験}節の実験では,従来手法と同様,$f_{min}=2$又は$f_{min}=1$を用いた.\end{description}\subsection{文節区切り情報や品詞情報の利用}\label{文節情報利用}\ref{連続単語列間の対応度計算方法}節の従来手法による抽出結果を分析すると\footnote{実験データは,先行研究\cite{北村97}で使用された「取引条件表現辞典例文\cite{石上:1992}を利用した.\ref{文書性質の実験}節の実験結果の分析も同様である.}「中心に多くの:willbecomethetarget」「その保有する膨大な:vastinventory」のように,構成する一部の単語の対応は正しいが,全体では間違っているという対訳表現が数多くみられた.このような例の多くは,英語や日本語の表現として意味をなさない不適切な単位であることが多かった.この課題を解決するため,不適切な対訳表現候補を生成しない工夫を施す.具体的には,以下の処理を行う.\begin{description}\item[(a)]候補となる連続単語列を抽出する時(ステップ(2)-1),文節区切り情報を用いて,文節境界の範囲を超える連続単語列候補を生成しない.なお,英語には,文節という単位がないため,動詞句,名詞句,前置詞句,副詞句の4つの文の構成成分を文節とする.\item[(b)]あらかじめ設定された連続単語列内の位置及び品詞の条件をもつ連続単語列は生成しない.これは,その条件を規則として表現し,その規則に適合する連続単語列は生成しないことで実現している.現時点での品詞レベルの規則数は英語25規則,日本語45規則,単語(見出し)レベルの規則数は,英語201規則,日本語309規則である.\end{description}\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure3.ps}\end{center}\caption{文節区切りを利用した連続単語列の抽出}\label{文節区切り利用連続単語列抽出}\end{figure}\noindent以下に具体例を示す.図\ref{文節区切り利用連続単語列抽出}は日本語文における文節区切り結果とそれに基づく連続単語列抽出の例である.形態素解析ツールによって区切られた形態素の区切りを``/'',係り受け解析ツールによって区切られた文節の区切りを``//''で表す.文節区切り情報を利用しない場合「する安全」「決議の諸」などの対訳表現として不適切な日本語表現が候補となるが,提案手法では文節境界の範囲を超える連続単語列を生成しないため,これらの表現は候補とならない.また,(b)の条件を課することによって,文節内の不適切な表現も生成されない.例えば「の」や「れる」のような一単語のみからなる助詞や助動詞は生成されないが「決議\_の」や「満たす\_れる」のように,助詞が名詞の後ろに位置する場合や,助動詞が動詞の後ろに位置する連続単語列は生成される.上記の処理をすることにより,提案手法では意味的にまとまりをなしていない文字列を除外することができる.\subsection{対訳辞書の利用}対訳辞書は,抽出精度向上のための有効な知識である.しかし,対訳辞書を手がかりとして抽出すると,対訳辞書に登録されていない専門用語などの表現が抽出されなくなる可能性がある.そこで,我々は,従来手法のアルゴリズムで抽出された対訳表現に対して,対訳辞書を参照することによって適切な対訳表現を選り出し,それらを優先的に抽出するという改良を行った.閾値$Th$において対訳表現が抽出される限り,ステップ(4)から(6)の処理が繰り返されるが,何回目の処理かによって処理内容を変える.閾値$Th$での処理が1回目の場合,対訳辞書を参照し,その候補が対訳関係にあると認められれば抽出する.対訳関係か否かの判断は,連続単語列を構成する英語と日本語の自立語単語の組合せにおいて1つでも対訳辞書登録語があれば,対訳関係にあると認定する.この理由は,対訳辞書登録語との完全一致する連続単語列ペアのみを対訳関係にあると認定すると,対訳関係にある連続単語列ペアはわずかとなり,辞書参照の効果が得られないためである.ステップ(6)では,抽出された対訳表現に関する連続単語列候補は削除される.閾値での処理が2回目以降では,この削除された状態で,対訳辞書を参照せずに対訳表現を抽出する.このように,対訳辞書の利用は適切な対訳表現を選り出す働きだけでなく,不適切な連続単語列候補を除外する役割も果たすことができる.\subsection{複数候補の対訳表現が得られた場合の人手による確認・選択}次に人手による確認・選択を考える.人手による確認・選択は,作業効率に見合った効果が得られるかどうかが重要である.その作業が時間や手間がかかるものであれば,最終結果を人手で取捨選択する作業と変わらない.我々は,ここでも従来手法の抽出アルゴリズムの性質を利用して,繰り返し処理の途中に人手による確認・選択作業を施す.具体的には,出現回数の閾値での1回目の処理では,辞書参照による対訳表現抽出を行い,2回目以降の処理において,ステップ(5)-1で候補とされた対訳表現候補全てに対して,人間が正しいかどうかを確認する.正しいと判断された候補は「対訳表現データベース」に登録され,一方,残りの対訳表現は「対訳表現除外データベース」に登録される.「対訳表現データベース」に登録された連続単語列ペアは,ステップ(6)の連続単語列候補の削減に利用される.一方「対訳表現除外データベース」に登録された連続単語列ペアは,ステップ(5)-2で対訳表現を抽出する時に参照され,対訳表現候補から必ず除外される.\subsection{多対多の対応数を考慮した対応度評価式}\label{多対多評価式}従来手法では対応度を評価する式として重み付きDice係数が用いられたが,提案手法では,重み付きDice係数と同様に,原言語と目的言語の単語列の同時出現回数と相関があるLog-Likelihoodを用いる.さらに,重み付きDice係数やLog-likelihoodに対して,多対多の対応数を考慮した改良を行う.Log-Likelihood\cite{Dunning:1993,Matsumoto-Utsuro:2000}は,ある表現Xの出現が別の表現Yの出現にどの程度強く依存するかを調べるための確率論に基づいた尺度である.実際の出現事例においてXの出現がYに依存しないという仮説とYの出現/非出現に依存するという仮説の尤度比で表す.\ref{連続単語列間の対応度計算方法}節の$w_{J}$,$w_{E}$,$f_{j}$,$f_{e}$.$f_{je}$の前提に加えて,対訳文書が有する文数を$f_{all}$とすると,以下の式で定義される.\begin{small}\begin{eqnarray*}sim(w_{J},w_{E})&=&f_{je}\logf_{je}+(f_{e}-f_{je})\log(f_{e}-f_{je})+(f_{j}-f_{je})\log(f_{j}-f_{je})\\&&+(f_{all}+f_{je}-f_{e}-f_{j})\log(f_{all}+f_{je}-f_{e}-f_{j})\\&&-f_{e}\logf_{e}-f_{j}\logf_{j}-(f_{all}-f_{j})\log(f_{all}-f_{j})-(f_{all}-f_{e})\log(f_{all}-f_{e})\\&&+(f_{all})\log(f_{all})\end{eqnarray*}\end{small}\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure4.ps}\end{center}\caption{基本アルゴリズムによる抽出結果の例}\label{抽出結果の例}\end{figure}\noindent次に,多対多の対応数を考慮した対応度評価式について説明する.\ref{従来}節の従来手法を用いて抽出した対訳表現を分析した結果,図\ref{抽出結果の例}(a)のように,日本語連続単語列と英語連続単語列が,対応度が同じで,かつ,多対多の関係で対応付けられている場合に誤りが多かった.一方,(b)の例のように,同じ対応度では1対1の対応関係しか持たない場合,その大半は正しかった.図\ref{抽出結果の例}(a)の現象は,一部の単語が異なり,残りの単語は全て共通である対訳文が複数存在した場合に起こる.その共通部分において組み合わされる日本語・英語連続単語列ペアは対応度が等しくなり,多対多の対応関係を有する対訳表現となる.上記に述べた多対多の関係を有する対訳表現の抽出を避けるために,Dice係数及びLog-likelihoodの対応度$sim(w_{J},w_{E})$に対して,原言語と目的言語の連続単語列が多対多の関係で対応付けられる場合にはその対応度の値が小さくなるような重み付けを与える.以降,この対応度を$dsim(w_{J},w_{E})$と表記し,{\bf多対多の対応数を考慮した対応度}と呼ぶ.$dsim(w_{J},w_{E})$を以下のように定義する.\[dsim(w_{J},w_{E})=\frac{sim(w_{J},w_{E})}{\log_{2}(fw_{J\rightarrowE}+fw_{E\rightarrowJ})}\]$sim(w_{J},w_{E})$は従来のDice係数やLog-likelihoodによる対応度の値である.$fw_{J\rightarrowE}$は現段階のステップ(4)で生成された全ての連続単語列において,日本語単語列$w_{J}$を有する連続単語列ペアの数であり,$fw_{E\rightarrowJ}$は,英語単語列$w_{E}$を有する連続単語列ペアの数である.上記の式は,日本語単語列$w_{J}$と英語単語列$w_{E}$からなる連続単語列ペアにおいて,$w_{J}$が対応する英語単語列の数と,$w_{E}$が対応する日本語単語列の数の和が大きいほどその値が小さくなるように設定されている.また,$w_{E}$と$w_{J}$が1対1で対応する場合の値はDice係数やLog-likelihoodから計算される$sim(w_{J},w_{E})$の値と等しくなるように設定されている.\subsection{対訳文書の分割による漸進的な抽出}ステップ(5)の処理における英語と日本語の連続単語列の組み合わせ数は,対訳文書の文数が多くなるにしたがい増大する.この連続単語列候補の生成を抑えるために,文書分割による漸進的な抽出手法を提案する.まず,ステップ(1)-3で対象となる対訳文書をあらかじめ定められた文数の単位\footnote{何文単位で分割するのが適切かは、\ref{文書分割実験}節の文書分割による影響の項で議論する.}で分割し,まず1単位で,100\%の精度が保証される出現回数まで抽出を繰り返す(ステップ(7)-1).その単位での処理が終了すれば,さらに1単位を追加して抽出を繰り返す(ステップ(7)-2).追加しながら処理を繰り返し行い,抽出対象が対訳文書全体に及べば処理を終了する.対象とする文を徐々に拡大することで,対象とする文数が少ない初期の段階で抽出された対訳表現に関する英語・日本語連続単語列を候補から除外することができる.これにより,抽出対象が拡大された時の連続単語列候補の生成を削減することができる.
\section{実験および考察}
\label{実験}3章に提案した各手法の有効性を評価するために,様々な設定の下での比較実験を行った.基本となる実験条件と評価指標を最初に説明し,実験結果及び考察を述べる.実験には読売新聞とTheDailyYomiuriの記事データからなる「日英新聞記事対応付け結果」\cite{内山:2003}の先頭から8,000文を利用した.それ以外の文書を対象とする場合は各実験結果に明記する.日本語形態素解析及び文節区切りは「茶筌\footnote{http://chasen.aist-nara.ac.jp/}」及び「南瓜\footnote{http://cl.aist-nara.ac.jp/~taku-ku/software/cabocha/}」を用いた.英語形態素解析及び対訳辞書参照に利用した対訳辞書は,機械翻訳システム\cite{Kitamura-Murata:2003}の形態素解析モジュール及び英日・日英辞書を利用した.この対訳辞書は,507,110ペアの対訳表現を持つ.英語は「Charniakパーザー\footnote{http://ftp.cs.brown.edu/pub/nlparser/}」の係り受け解析結果と\ref{文書分割実験}節に述べた方法に基づいて文節単位に区切った.評価は,精度とカバレッジを求めることにより行った.精度は,対訳表現抽出結果を\vspace{2mm}\begin{description}\item[正解:]対訳表現をそのまま辞書として登録できる\item[半正解:]対訳表現のどちらか一方の一部の表現を削除すれば辞書として登録できる\item[不正解:]正解及び半正解以外\end{description}\vspace{2mm}\noindentの三段階で評価し,抽出総数に対する正解及び半正解の割合を百分率で求めた.以降に示す表では,半正解の割合を()内に示す.一方,カバレッジは,英語,日本語それぞれの文書において,\[coverage(\%)=(1-\frac{未抽出自立語総単語数}{文書中自立語総単語数})\cdot100\]\noindentを計算し,その平均を求めた.上記式内の「未抽出自立語総単語数」とは,各文書から正解,半正解の対訳表現を除去した結果,残った自立語の総単語数である.また,自立語の総単語数だけでなく,自立語異なり単語数に対しても同様にカバレッジを求めた.以下の表\ref{従来手法}から表\ref{文書サイズ}では後者を()内に示す.\subsection{従来手法との比較}\label{従来手法の実験}\begin{table}[t]\caption{従来手法との比較}\label{従来手法}\begin{center}\begin{tabular}{l|l||r|r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{4}{c|}{Dice}&\multicolumn{1}{c}{d-Loglike}\\\cline{3-7}\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|従来}&\multicolumn{1}{c|}{\verb|<2>|文節}&\multicolumn{1}{c|}{\verb|<3>|辞書}&\multicolumn{1}{c|}{\verb|<4>|人手}&\multicolumn{1}{c}{\verb|<4'>|人手}\\\hline&合計&3,033&3,057&2,981&2,847&3,527\\&正解数&2,686&2,808&2,832&2,770&3,447\\$f_{min}$&半正解数&110&83&82&64&64\\\cline{2-7}$=2$&精度&88\%(92)&91\%(94)&95\%(97)&97\%(99)&98\%(100)\\&カバレッジ&79\%(12)&80\%(15)&80\%(15)&80\%(15)&82\%(13)\\\cline{2-7}&計算機実行時間&6h34m&3h40m&4h17m&4h19m&41m\\&人手作業時間&---&---&---&24m&21m\\\hline&合計&16,784&16,276&10,276&7,274&6,250\\&正解数&6,766&7,293&6,996&6,821&5,993\\$f_{min}$&半正解数&434&391&335&221&151\\\cline{2-7}$=1$&精度&40\%(42)&44\%(47)&68\%(71)&93\%(96)&96\%(98)\\&カバレッジ&85\%(16)&86\%(19)&86\%(19)&85\%(19)&85\%(19)\\\cline{2-7}&計算機実行時間&11h47m&4h15m&4h49m&4h51m&1h06m\\&人手作業時間&---&---&---&2h07m&1h57m\\\hline\end{tabular}\end{center}\end{table}最初に「文節区切り情報の利用」「対訳辞書の利用」「人手による確認」の改良効果を確かめるための実験を行った.表\ref{従来手法}に結果を示す.表\ref{従来手法}の\verb|<1>|は従来手法,\verb|<2>|は文節区切り情報を利用した場合(2.2節のアルゴリズムに3節の提案アルゴリズムのステップ(1)-2,(2)-1のみを適用した場合),\verb|<3>|は文節区切り情報と対訳辞書を利用した場合(\verb|<2>|に対して3節の提案アルゴリズムのステップ(1)-1,(5)-2を適用した場合),\verb|<4>|は,さらに人手による確認を行った場合(\verb|<3>|に対してステップ(5)-3-aの代わりにステップ(5)-3-bを適用した場合)の結果である.いずれも対応度の計算には重み付きDice係数を用いた.\verb|<4'>|は重み付きDice係数の代わりに多対多の対応数を考慮したLog-likelihoodを用いた結果である.表中の$f_{min}=2$は,出現回数を2回までとして抽出した場合,$f_{min}=1$は出現回数を1回までとして抽出した場合の結果である.但し,$f_{min}=1$では,$f_{je}=f_{j}=f_{e}=2$における対応度より小さく,$f_{je}=f_{j}=f_{e}=1$における対応度以上の値を持つ対訳表現が抽出されるが,$f_{je}=f_{j}=f_{e}=1$の対訳表現は抽出精度が極めて低いため\footnote{表\ref{従来手法}\verb|<3>|と同様の設定で実験を行った結果,$f_{je}=f_{j}=f_{e}=1$の時の対訳表現の精度は43\%であった.},今回の実験では抽出対象から除外した.以降の実験も同様である.本結果から,提案手法\verb|<4>|の$f_{min}=2$では97\%の精度が得られることがわかる.さらに$f_{min}=1$では,従来手法\verb|<1>|は40\%であったが,提案手法\verb|<4>|は93\%であった.\verb|<1>|から\verb|<4>|へと文節区切り情報,辞書参照,人手確認という工夫を追加していくことにより,抽出総数は減少していくが,カバレッジの低下を伴わない.これは,提案手法が間違った対訳表現のみを除去するフィルタリングの働きとして効果的に機能していることを示している.\subsection{対応度の評価式の違いによる比較}\label{評価式違いによる実験}次に対応度の評価式の違いによる結果を比較する.本結果を表\ref{対応度評価式}に記す.ここでは,表\ref{従来手法}\verb|<4>|と同じ設定で,適用する評価式を変える.\begin{table}[t]\caption{対応度評価式の違いによる比較}\label{対応度評価式}\begin{center}\begin{tabular}{l|l||r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|Dice}&\multicolumn{1}{c|}{\verb|<2>|d-Dice}&\multicolumn{1}{c|}{\verb|<3>|Loglike}&\multicolumn{1}{c}{\verb|<4>|d-Loglike}\\\hline&合計&2,981&2,934&3,791&3,796\\&正解数&2,832&2,875&3,563&3,682\\$f_{min}$&半正解数&82&30&152&76\\\cline{2-6}$=2$&精度&95\%(97)&98\%(99)&94\%(98)&97\%(99)\\&カバレッジ&80\%(15)&78\%(13)&83\%(16)&81\%(13)\\\hline&合計&10,276&9,957&6,412&6,452\\&正解数&6,996&7,040&5,740&5,764\\$f_{min}$&半正解数&335&333&222&236\\\cline{2-6}$=1$&精度&68\%(71)&71\%(74)&89\%(93)&89\%(93)\\&カバレッジ&86\%(19)&86\%(19)&85\%(19)&85\%(19)\\\hline\end{tabular}\end{center}\end{table}\verb|<1>|は重み付きDice係数の評価式,\verb|<2>|は多対多の対応数を考慮した重み付きDice係数の評価式,\verb|<3>|はLog-likelihoodの評価式,\verb|<4>|は多対多の対応を考慮したLog-likelihoodの評価式を用いた場合の結果である.重み付きDice係数\verb|<1>|とLog-likelihood\verb|<3>|の結果を比較した場合,$f_{min}=2$では精度の違いはあまりみられないが,$f_{min}=1$ではLog-likelihoodの方が良い結果が得られた.重み付きDice係数は$f_{min}=2$ではLog-likelihoodと同等の信頼性が得られるが,$f_{min}=1$のように対応度が低い場合ではその信頼性は低いと言える.これは,両者の評価式の性質の違いによる.重み付きDice係数は連続単語列の出現回数のみを利用した評価式であるため,少ない出現回数の場合の計算の信頼性は低くなる.一方,Log-likelihoodは,周辺頻度(出現/非出現の両方の回数)を利用した確率論に基づく評価式であるため,出現回数が少ない場合でも正確に対応度を求めることができると考えられる.次に,多対多の対応を考慮した場合としない場合を比較する.多対多の対応を考慮することにより$f_{min}=2$では,重み付きDice係数,Log-likelihoodともに3\%向上した.しかし,$f_{min}=1$では,Dice係数では3\%向上したものの,Log-likelihoodでは差がみられなかった.重み付きDice係数では,対応度の高低にかかわらず,評価式の欠点を補い,多対多の対応の考慮が有効に働いている.しかし,Log-likelihoodは,対応度が高い場合では信頼性の高い対訳表現の対応度を上げ,抽出精度を高める効果を発揮するが,対応度が低い場合では周辺頻度を利用した確率計算が有効に働いているため,評価式の欠点を補うほどの効果を得ることはできなかったと考えられる.\subsection{対訳文書の性質による影響}\label{文書性質の実験}\begin{table}[t]\caption{文の位置及び文書の違いによる比較}\label{文書の違い}\begin{center}\begin{tabular}{l|l||r|r|r||r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|先頭部}&\multicolumn{1}{c|}{\verb|<2>|中間部}&\multicolumn{1}{c||}{\verb|<3>|後部}&\multicolumn{1}{c}{\verb|<4>|取引}\\\hline\multicolumn{2}{l||}{対訳文数}&\multicolumn{3}{c||}{8,000}&9,045\\\hline\multicolumn{2}{l||}{英語単語総数}&175,768&193,284&200,707&158,652\\\multicolumn{2}{l||}{(英語出現単語数)}&(7,687)&(8,866)&(9,355)&(2,746)\\\hline\multicolumn{2}{l||}{日本語単語総数}&209,709&221,119&228,949&222,737\\\multicolumn{2}{l||}{(日本語出現単語数)}&(9,853)&(12,012)&(13,000)&(3,052)\\\hline&合計&3,796&3,631&3,490&2,980\\&正解数&3,682&3,485&3,350&2,741\\$f_{min}$&半正解数&76&109&105&90\\\cline{2-6}$=2$&精度&97\%(99)&96\%(99)&96\%(99)&92\%(95)\\&カバレッジ&81\%(13)&76\%(12)&75\%(11)&92\%(22)\\&所要時間&42m&1h29m&3h21m&43m\\\cline{2-6}\hline&合計&6,452&6,588&6,676&4,631\\&正解数&5,764&5,640&5,613&3,113\\$f_{min}$&半正解数&236&335&351&271\\\cline{2-6}$=1$&精度&89\%(93)&86\%(91)&84\%(89)&67\%(73)\\&カバレッジ&85\%(19)&81\%(16)&78\%(15)&94\%(34)\\\cline{2-6}&所要時間&1h06m&4h58m&7h58m&1h26m\\\cline{2-6}&辞書登録語率&63\%&61\%&59\%&39\%\\\cline{2-6}&辞書登録語精度&97\%&96\%&96\%&92\%\\&正解数/総数&3,924/4,054&3,832/4,000&3,755/3,917&1,657/1,798\\\cline{2-6}&辞書未登録語精度&77\%&70\%&67\%&52\%\\&正解数/総数&1,840/2,398&1,808/2,588&1,858/2,759&1,466/2,833\\\hline\end{tabular}\end{center}\end{table}実験で用いた「日英新聞記事対応付け結果」\cite{内山:2003}は,対訳辞書を用いた対応度の計算結果に基づいて,英語の文と日本語の文の自動対応付けを行っており,その対応度の高い順に文が並び替えられている.したがって「日英新聞記事対応付け結果」の先頭部分には,対応が明らかな対訳語を多く含む対訳文が多いのに対して,後半になるほど対訳関係が不明瞭な対訳文が多くなる.この対訳文の性質が抽出精度にどれだけ影響を及ぼすかを調べた.表\ref{文書の違い}は「日英新聞記事対応付け結果」において,先頭から8,000文(先頭部\verb|<1>|),8,001文目から8,000文(中間部\verb|<2>|),24,001文目から8,000文(後部\verb|<3>|)を対象として実験した結果である.また比較のため最右部に機械ではなく人手で対応付けた取引条件に関する対訳文書\cite{石上:1992}(以下,取引条件文とよぶ)の9,045文における結果を示す.なお,全ての実験は\ref{評価式違いによる実験}節の表\ref{従来手法}の\verb|<4>|の条件と同じ実験環境(文節区切り情報利用,辞書参照,多対多の対応数を考慮したLog-likelihood評価式を利用)で行った.文の対応度が高い文書ほど抽出精度は高い.また,取引条件文を用いた場合,カバレッジは新聞記事を用いたいずれの結果より高かったが,その精度は67\%と劣っていた.この理由は,取引条件文は専門用語が多く,出現する用語が偏っているため,連続単語列の組み合わせに要する時間は少なくてすむが,その一方で,類似する文が多く,組み合わせの曖昧性が増えるため,低い対応度での精度は低くなったと考えられる.表\ref{文書の違い}の最下部に,抽出結果において,対訳辞書を参照することにより抽出された対訳表現(\ref{提案}章の提案アルゴリズムのステップ(5)-2で抽出された対訳表現)とそれ以外の対訳表現(ステップ(5)-3-aで抽出された対訳表現)の精度及び抽出語数を記した.新聞記事では後部になるほど,対訳辞書では対訳関係が認められない対訳表現の割合が増え,その影響で全体の精度も低くなった.取引条件文では,専門用語が新聞記事に比べて多いため,対訳辞書では対訳関係が認められない対訳表現の割合が高く,精度が低い結果となった.一方,表\ref{文書の違い}には記載していないが,表\ref{文書の違い}\verb|<1>|の設定で,対訳辞書を参照せず,対訳表現を抽出した.その抽出結果に対して,ステップ(5)-2と同じ手法を用いて,対訳表現と認められるものと,そうでないものに分類した結果,前者の精度は97\%,後者の精度は71\%となった.表\ref{文書の違い}\verb|<1>|で,対訳辞書を参照することにより抽出された対訳表現の精度は97\%,そうでない対訳表現の精度は77\%であり,予想通りの効果が得られている.\subsection{文書分割における影響}\label{文書分割実験}図\ref{グラフ}は,出現回数2回($f_{min}=2$)における連続単語列の組み合わせ数が,対訳文数の増加によってどのように増加するかを示すグラフである.\begin{figure}[t]\begin{center}\epsfxsize=13cm\epsfbox{./figure/figure5.eps}\end{center}\caption{出現回数2回における対訳表現候補対の総数}\label{グラフ}\end{figure}「従来手法」は従来手法(表\ref{従来手法}\verb|<1>|と同じ設定)の場合「文節区切り」は文節区切り情報を利用した場合(表1\verb|<2>|と同じ設定)「分割」は従来手法に対して,文書分割の手法\footnote{4,000文までは500文単位で分割し,それ以上は4,000文単位で分割した.また,$f_{merge}=3$とした.}のみを採用した場合(従来手法に対してステップ(1)-3,(7)-2を適用した場合)「分割+文節」は文書分割の手法と文節区切り情報を利用した場合「分割+文節+辞書」はさらに辞書を参照した場合の結果を示している.図5から,文節区切り情報の利用と文書分割は計算量の削減に寄与しており,この両方を用いることにより,より大きな削減効果が得られることがわかる.一方,辞書の参照は,組み合わせ数を削減する効果はない.この理由は,辞書参照によって正しいと認められた対訳表現に関係する候補を削除する働きはあるものの,辞書を参照しない場合でも同様の削除処理が行われているためである.さらに「分割+文節+辞書」の手法に対して,人手による確認工程を加えた手法について同様の実験を行ったが,その結果も「分割+文節+辞書」の結果とほぼ等しくなり,組み合わせ数の削減効果は見られなかった.\begin{table}[t]\caption{文書分割手法の分割数による比較}\label{文書分割手法}\begin{center}\begin{tabular}{l|l||r|r|r|r|r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|}&\multicolumn{1}{c|}{\verb|<2>|}&\multicolumn{1}{c|}{\verb|<3>|}&\multicolumn{1}{c|}{\verb|<4>|}&\multicolumn{1}{c|}{\verb|<5>|}&\multicolumn{1}{c|}{\verb|<6>|}&\multicolumn{1}{c|}{\verb|<7>|}&\multicolumn{1}{c}{\verb|<8>|}\\\cline{3-10}\multicolumn{2}{c||}{}&\multicolumn{4}{c|}{8,000文}&\multicolumn{4}{c}{16,000文}\\\cline{3-10}\multicolumn{2}{c||}{}&\multicolumn{3}{c|}{分割有}&\multicolumn{1}{c|}{\raisebox{-1.5ex}[0cm][0cm]{分割無}}&\multicolumn{3}{c|}{分割有}&\multicolumn{1}{c}{\raisebox{-1.5ex}[0cm][0cm]{分割無}}\\\cline{3-5}\cline{7-9}\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{8分割}&\multicolumn{1}{c|}{4分割}&\multicolumn{1}{c|}{2分割}&\multicolumn{1}{c|}{}&\multicolumn{1}{c|}{8分割}&\multicolumn{1}{c|}{4分割}&\multicolumn{1}{c|}{2分割}&\multicolumn{1}{c}{}\\\hline&合計&3,830&3,813&3,793&3,796&6,124&6,124&6,076&6,124\\&正解数&3,715&3,698&3,679&3,682&5,879&5,880&5,833&5,879\\$f_{min}$&半正解数&77&76&76&76&183&186&181&149\\\cline{2-10}$=2$&\raisebox{-1.5ex}[0cm][0cm]{精度}&97\%&97\%&97\%&97\%&96\%&96\%&96\%&96\%\\&&(99)&(99)&(99)&(99)&(99)&(99)&(99)&(98)\\\cline{2-10}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&81\%&81\%&81\%&81\%&81\%&81\%&81\%&81\%\\&&(13)&(13)&(13)&(13)&(12)&(12)&(13)&(13)\\\cline{2-10}&所要時間&49m&31m&36m&42m&7h47m&6h45m&8h48m&10h21m\\\hline&合計&6,556&6,461&6,465&6,452&10,654&10,581&10,549&10,473\\&正解数&5,834&7,040&5,753&5,764&9,375&9,306&9,283&9,206\\$f_{min}$&半正解数&262&231&255&236&426&439&422&437\\\cline{2-10}$=1$&\raisebox{-1.5ex}[0cm][0cm]{精度}&89\%&89\%&89\%&89\%&88\%&88\%&88\%&88\%\\&&(93)&(93)&(93)&(93)&(92)&(92)&(92)&(92)\\\cline{2-10}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&85\%&85\%&85\%&85\%&85\%&85\%&85\%&85\%\\&&(19)&(19)&(19)&(19)&(18)&(18)&(18)&(18)\\\cline{2-10}&所要時間&1h15m&1h00m&1h01m&1h06m&9h42m&9h04m&11h45m&16h28m\\\hline\end{tabular}\end{center}\end{table}一方,表\ref{文書分割手法}は文書分割手法の分割数による比較結果である.\verb|<1>|から\verb|<4>|は,実験対象として8,000文の対訳文書を用いた場合,\verb|<5>|から\verb|<8>|は16,000文の対訳文書の場合であり,それぞれ8分割,4分割,2分割で等分割した場合,分割しなかった場合の結果を求めた.この表からわかることは次の3点にまとめられる.第一に,対訳文書の文数が多い方が文書分割の効果が大きい.第二に,分割が細かすぎると逆に処理時間が遅くなる.8,000文,16,000文共,対訳文書を4分割した時が最も速い結果となった.この理由は,分割数が多いと対応度の計算処理の繰り返し回数が増え,この繰り返し処理のオーバーヘッドによって遅くなったと考えられる.第三に,精度,カバレッジ共に,文書分割の影響を受けない.しかし,文書分割により抽出される順序が変わるため,抽出される対訳表現は若干異なっている.\subsection{文書サイズによる結果の比較}\begin{table}[t]\caption{文書サイズの違いによる比較}\label{文書サイズ}\begin{center}\begin{tabular}{l|l||r|r|r|r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|}&\multicolumn{1}{c|}{\verb|<2>|}&\multicolumn{1}{c|}{\verb|<3>|}&\multicolumn{1}{c|}{\verb|<4>|}&\multicolumn{1}{c|}{\verb|<5>|}&\multicolumn{1}{c|}{\verb|<6>|}&\multicolumn{1}{c}{\verb|<7>|}\\\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{500}&\multicolumn{1}{c|}{1,000}&\multicolumn{1}{c|}{2,000}&\multicolumn{1}{c|}{4,000}&\multicolumn{1}{c|}{8,000}&\multicolumn{1}{c|}{16,000}&\multicolumn{1}{c}{32,000}\\\hline&合計&332&455&975&2,123&3,631&5,319&14,395\\&正解数&312&437&936&2,038&3,485&5,106&13,819\\$f_{min}$&半正解数&6&9&29&64&109&159&288\\\cline{2-9}$=2$&\raisebox{-1.5ex}[0cm][0cm]{精度}&94\%&96\%&96\%&96\%&96\%&96\%&96\%\\&&(96)&(98)&(99)&(99)&(99)&(99)&(98)\\\cline{2-9}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&66\%&68\%&70\%&73\%&76\%&79\%&80\%\\&&(14)&(13)&(11)&(12)&(12)&(12)&(12)\\\cline{2-9}&所要時間&35sec&2m&5m&13m&1h29m&16h41m&28h53m\\\hline&合計&633&1,284&2,230&4,048&6,588&10,704&17,368\\&正解数&550&1,200&1,935&3,437&5,640&9,186&14,551\\$f_{min}$&半正解数&29&37&109&200&335&555&894\\\cline{2-9}$=1$&\raisebox{-1.5ex}[0cm][0cm]{精度}&87\%&88\%&87\%&85\%&86\%&86\%&84\%\\&&(91)&(93)&(92)&(90)&(91)&(91)&(89)\\\cline{2-9}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&72\%&73\%&76\%&75\%&81\%&83\%&84\%\\&&(18)&(17)&(16)&(15)&(16)&(16)&(17)\\\cline{2-9}&所要時間&1m&3m&6m&16m&4h58m&22h36m&52h35m\\\hline\end{tabular}\end{center}\end{table}表\ref{文書サイズ}は,対訳文書のサイズの違いによって精度がどのように変化するかを記した表である\footnote{この実験では,\ref{文書性質の実験}節にみられる対訳文書の位置による影響を少なくするために,全てのサイズにおいて32,000文の中間部の文を対象とした.また,32,000文は文書分割($n=4$)の手法を採用した.}.この表から,カバレッジは文書のサイズに影響を受け,サイズが大きくなるほど高くなるが,精度はほとんど影響を受けず,ほぼ一定の値をとることがわかる.\subsection{その他の考察}\begin{table}[t]\caption{対訳表現抽出例}\label{対訳表現抽出例}\begin{center}\begin{tabular}{c||ll|r}\hline評価&\multicolumn{1}{|c}{日本語}&\multicolumn{1}{c}{英語}&\multicolumn{1}{|c}{対応度}\\\hline&中・東欧諸国&theCEECs&11.48\\正解&洗練するられる&sophisticated&7.61\\&コモンハウス&thecommonhouse&6.62\\\hline&冷戦&war&48.45\\半正解&冷戦&thecold&44.14\\&に従って&inaccordance&1.82\\\hline&米国&Washington&48.45\\不正解&いまだに&haveyet&44.14\\&休息その他の&otherwork&6.62\\\hline\end{tabular}\end{center}\end{table}最後に,\ref{従来手法の実験}節の表\ref{従来手法}の\verb|<4'>|の実験環境(文節区切り情報利用,辞書参照,人手確認有り,多対多の対応数を考慮したLog-likelihood評価式を利用)での抽出結果の例を表\ref{対訳表現抽出例}に示す.本手法を用いることにより「中・東欧諸国:theCEECs」のような辞書には存在しない多くの専門用語を抽出することができる.また,形態素解析では未知語になる「コモンハウス:thecommonhouse」の例のような単語も数多く抽出することができる.半正解の原因は「冷戦:thecold」「冷戦:war」のような文節区切りによる悪影響である.これは将来的には,原言語の単語列に対して複数の目的言語の単語列が対応付けられている場合には元の文を参照することにより正しい対訳表現に復元することができると考えている.一方,間違った原因は,対訳辞書参照による悪影響と,人手確認による誤りである.例えば「休息その他の:otherwork」の対訳表現は「その他:other」が対訳辞書に登録されているために抽出された.今回の実験では,連続単語列を構成する英語と日本語の自立語単語の組合せにおいて1つでも対訳辞書登録語があれば,対訳表現として抽出するようにした.しかし,上記の例では「その他」と``other''は登録語であるが「休息」と``work''は登録語ではない.将来的には,辞書参照の方法をより厳格にし,その連続単語列ペアが対訳辞書登録語によって過不足なく対応付けられる場合のみ対訳表現と判定する,または,利用する対訳辞書をより大規模なものにして完全一致でも辞書参照の効果が得られるようにするなどの工夫が求められる.また,大量の対訳表現の確認は作業者のミスを招く.「米国:Washington」は作業者のミスにより抽出された.対訳辞書の拡張,改良等により,できるだけ多くの信頼性の高い対訳表現を自動的に検知し,作業者の負担を軽減させることも必要である.最後に,触れておかねばならないのは,人手確認における作業コストである.抽出された対訳表現を翻訳辞書として利用するためには,最終的に抽出された対訳表現が正しいか否かを再確認し,選定する必要がある.処理途中に人手による確認を行わない場合では,表\ref{文書の違い}\verb|<1>|の結果のように,$f_{min}=2$では3,796語,$f_{min}=1$では6,452語を抽出処理終了後に人手により確認し,正しい対訳表現のみを選択しなければならない.一方,処理途中に人手による確認を行う場合では,$f_{min}=2$では処理途中に681語,処理終了後に人手未確認分の2,886語,合計3,567語を確認し,正しい対訳表現のみを選択しなければならない.また$f_{min}=1$では,処理途中に2,084語,処理終了後に人手未確認分の4,353語,合計6,437語を確認し,正しい対訳表現のみを選択しなければならない.このように確認すべき語数においては有意な差はみられない結果となったが,表\ref{文書の違い}\verb|<1>|と表\ref{従来手法}\verb|<4'>|の結果にみるように,処理途中に人手確認をした方が,最終的な精度が高く,正解語数も増えている.精度が高くなることにより,処理終了後の削除の手間も削減されることから,人手による確認工程を処理途中に設ける方法は,作業コスト削減の効果があるといえる.
\section{関連研究}
\label{関連研究}我々の手法の特徴は,言語資源を効果的に利用することにより,低出現回数の対訳表現を抽出することができるという点にある.言語資源を利用する手法には,\cite{Melamed:1995},\cite{Al-Onaizan-Kevin:2002}がある.一方,低出現回数の対訳表現を抽出する手法には,\cite{Moore:2003},\cite{佐藤2002,佐藤2003}がある.\cite{Melamed:1995}は,対訳辞書,品詞,語源情報,構文情報の4種類の情報によって,抽出すべき対訳表現をフィルタリングしている.フィルタリングという点では我々の手法と似ているが,異なる点は我々の手法は複数の単語列からなる対訳表現候補を抽出対象としているのに対し,Melamedの手法は,単語対応に限定している点である.単語対応の場合は,その組み合わせ数は少なく,言語資源の利用の際にも計算量を考慮する必要はない.しかし,任意長の長さの表現を対象にする場合,計算量をできるだけ抑え,資源を利用するような仕組みが必要となる.我々は,信頼性の高い対訳表現から段階的に抽出するという漸進的な手法を活かし,処理の途中に対訳辞書利用や人手介入を行うことにより任意長の対訳表現の抽出の際に起こりがちな計算量の問題を解決している.\cite{Al-Onaizan-Kevin:2002}は,言語資源としてWebページのような大規模な生成側の単言語テキストや,トランスリタレーション(音表記)情報を利用している.Al-Onaizanらが対象にしている言語は,アラビア語と英語であり,両者のような異なる言語族の2言語を抽出対象とする場合,対応の規則を抽出することが難しく既存の言語知識をいかに効率良く利用するかが重要となる.この点では我々のアプローチと似ており,Al-Onaizanの手法は我々の手法にも応用することができる.例えば,我々の手法での人手確認の代わりにWeb上での検索を利用することができる.また,カタカナ表記語はトランスリタレーション情報を用いて,対応度を再評価する等が考えられる.一方,\cite{Moore:2003}の手法は,3段階の学習モデルを用いることによって,対応度の精度を高めていきながら対訳表現を抽出する手法であり,低出現回数の対訳表現も抽出することができる.ある語とその訳語は常に一対一の関係にあるという前提や先頭文字種情報などの表層的な情報を学習モデルとして利用することにより,出現回数が1回の対訳表現でも精度良く抽出することができる.この手法は,統計モデルと表層的な言語特徴情報のみを利用し,辞書や形態素解析結果などの既存の言語知識を利用しないため,専門用語の抽出も可能である.しかし,上述した前提や先頭文字種情報は専門用語の翻訳の特徴であり,イディオムや慣用句などの抽出精度は下がる.我々の手法では形態素解析結果を利用するが,対訳表現として適切でない単語列を除去するために利用するに過ぎないので,表\ref{対訳表現抽出例}の「コモンハウス:thecommonhouse」等の専門用語も抽出することができる.佐藤は,最大エントロピー法\cite{佐藤2002}やSVM\cite{佐藤2003}を利用して,少ない文書でも高精度で抽出する方法を提案している.しかし,これらの手法は学習用の対訳文書が必要となる.また,抽出対象を句単位と限定することにより,検索対象を絞っている.最後に,\cite{山本2001}は,我々の手法と同様,統計的係り受け解析結果を用いて漸進的な手法で対訳表現抽出を行う.しかし,彼らは文節を越えた構造的な対訳表現を抽出することを目的としているのに対し,我々は候補とする連続単語列を文法的に意味のある範囲に限定し抽出間違いを減らすことを目的とする.
\section{おわりに}
\label{まとめ}本稿は,文節区切り情報や対訳辞書を利用する,人手による確認工程を設ける,などの種々の手法を組み合わせることによって実用性を高めた対訳表現抽出手法を提案した.また,(1)従来手法との比較,(2)対応度の評価式の違いよる比較,(3)文書の性質の違いによる比較,(4)文書分割手法の違いによる比較,(5)文書サイズの違いによる比較,という5つの比較実験により,その効果を確認した.従来手法との比較実験では,文節区切り情報利用,辞書参照,人手確認という手法が,間違った対訳表現の抽出を排除するためのフィルタリングの機能を果たすことを確認した.対応度の評価式の違いによる実験では,対応度が低い場合($f_{min}=1$の場合)の対訳表現の抽出には重み付きDice係数よりLog-likelihoodが優れており,多対多の対応数の考慮による改良は,重み付きDice係数には効果的だがLog-likelihoodには効果が小さいことがわかった.文書の性質,及び,文書サイズの違いによる比較実験では,精度は文書のサイズには影響を受けないが,文書の専門性の高さや使用されている単語数などの対訳文書の性質に影響を受けやすいことがわかった.一方,カバレッジは文書のサイズ,性質共に影響を受けやすいことがわかった.最後に,文書分割手法の違いによる実験では,文書分割は連続単語列の組み合わせ数を削減し,計算時間を短縮させることができるが,分割が細かすぎると,逆に繰り返し処理のオーバーヘッドを生じ,計算時間が長くなることがわかった.8,000文の対訳文書による実験では,従来手法では精度40\%,カバレッジ79\%であったのに対し,提案手法では人手による確認工程がある場合では精度96\%,カバレッジ85\%で抽出することができた.人手による確認を行わない場合でも,8,000文では,精度89\%,カバレッジ85\%で抽出することができる.我々が,完全自動でなく,半自動という立場をとり,精度を重視している理由の一つは,抽出結果を辞書として機械翻訳システムに直接利用することを想定しているためである.今後は,本手法で抽出した対訳表現を機械翻訳システム\cite{Kitamura-Murata:2003}の辞書として利用し,機械翻訳支援機能として本手法を評価することを計画している.\acknowledgment本研究は、通信・放送機構平成17年度基盤技術研究促進制度に係る研究開発課題「多言語標準文書処理システムの研究開発」の一環として行われている。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Al-Onaizan\BBA\K.}{Al-Onaizan\BBA\K.}{2002}]{Al-Onaizan-Kevin:2002}Al-Onaizan,Y.\BBACOMMA\\BBA\K.,K.\BBOP2002\BBCP.\newblock\BBOQTranslatingNamedEntitiesUsingMonolingualandBilingualResources\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2002)},\BPGS\400--408.\bibitem[\protect\BCAY{Dunning}{Dunning}{1991}]{Dunning:1993}Dunning,T.\BBOP1991\BBCP.\newblock\BBOQAccuratemethodsforstatisticsofsurpriseandcoincidence\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),61--74.\bibitem[\protect\BCAY{石上}{石上}{1992}]{石上:1992}石上進\BBOP1992\BBCP.\newblock\Jem{取引条件表現法辞典電子ブック版第1巻物品取引}.\newblock国際事業開発株式会社.\bibitem[\protect\BCAY{北村\JBA松本}{北村\JBA松本}{1997}]{北村97}北村美穂子\JBA松本裕治\BBOP1997\BBCP.\newblock\JBOQ{対訳コーパスを利用した対訳表現の自動抽出}\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4),727--736.\bibitem[\protect\BCAY{Kitamura\BBA\Murata}{Kitamura\BBA\Murata}{2003}]{Kitamura-Murata:2003}Kitamura,M.\BBACOMMA\\BBA\Murata,T.\BBOP2003\BBCP.\newblock\BBOQPracticalMachineTranslationSystemallowingComplexPatterns\BBCQ\\newblockIn{\BemProceedingsofMTSummitIX},\BPGS\232--239.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto-Utsuro:2000}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition\BBCQ\\newblockIn{\BemHandbookofNaturalLanguageProcessing},\BPGS\563--610.MarcelDekker.\bibitem[\protect\BCAY{Melamed}{Melamed}{1995}]{Melamed:1995}Melamed,I.\BBOP1995\BBCP.\newblock\BBOQAutomaticEvaluationandUniformFilterCascadesforInducingN-besttranslationlexicons\BBCQ\\newblockIn{\BemProceedingsof3rdAnnualWorkshoponVeryLargeCorpora(WVLC-95)},\BPGS\184--198.\bibitem[\protect\BCAY{Moore}{Moore}{2003}]{Moore:2003}Moore,R.\BBOP2003\BBCP.\newblock\BBOQLearningTranslationsofNamed-EntityPhrasesfromParallelCorpora\BBCQ\\newblockIn{\BemProceedingsof16thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2003)},\BPGS\259--266.\bibitem[\protect\BCAY{佐藤健吾\JBA斉藤博昭}{佐藤健吾\JBA斉藤博昭}{2002}]{佐藤2002}佐藤健吾\JBA斉藤博昭\BBOP2002\BBCP.\newblock\JBOQ{最大エントロピー法を用いた対訳表現の抽出}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(1),101--115.\bibitem[\protect\BCAY{佐藤健吾\JBA斉藤博昭}{佐藤健吾\JBA斉藤博昭}{2003}]{佐藤2003}佐藤健吾\JBA斉藤博昭\BBOP2003\BBCP.\newblock\JBOQ{サポートベクターマシンを用いた対訳表現の抽出}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),109--124.\bibitem[\protect\BCAY{内山将夫\JBA井佐原均}{内山将夫\JBA井佐原均}{2003}]{内山:2003}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ{日英新聞の記事および文を対応付けるための高信頼性尺度}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{山本\JBA松本}{山本\JBA松本}{2001}]{山本2001}山本薫\JBA松本裕治\BBOP2001\BBCP.\newblock\JBOQ{統計的係り受け解析結果を用いた対訳表現抽出}\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2239--2247.\bibitem[\protect\BCAY{Yamamoto\BBA\Matsumoto}{Yamamoto\BBA\Matsumoto}{2003}]{Yamamoto-Matsumoto:2003}Yamamoto,K.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQExtractingTranslationKnowledgefromParallelCorpora\BBCQ\\newblockIn{\BemRecentAdvancesinExample-basedMachineTranslation},KluwerText,SpeechandLanguageTechnologySeries,\BCH~13,\BPGS\365--396.KluwerAcademicPublishers.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{北村美穂子}{1987年奈良女子大学理学部生物学科卒業.1995年奈良先端科学技術大学院大学情報科学研究科博士前期課程終了.2004年同大学院博士後期課程修了.現在、沖電気工業株式会社研究開発本部に勤務し,機械翻訳の研究に従事.工学博士.情報処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.